centos7.3 配置
119设置
1
2
3
4
5[root@localhost ~]# hostnamectl set-hostname hadoopa
[root@hadoopa ~]# vi /etc/hosts
192.168.11.119 hadoopa
192.168.11.118 hadoopb
192.168.11.117 hadoopc118设置
1
2
3
4
5[root@localhost ~]# hostnamectl set-hostname hadoopb
[root@hadoopa ~]# vi /etc/hosts
192.168.11.119 hadoopa
192.168.11.118 hadoopb
192.168.11.117 hadoopc117设置
1
2
3
4
5[root@localhost ~]# hostnamectl set-hostname hadoopc
[root@hadoopa ~]# vi /etc/hosts
192.168.11.119 hadoopa
192.168.11.118 hadoopb
192.168.11.117 hadoopc
java安装
- 分别把117jdk拷贝到三台机器的opt目录解压即可
1
2
3
4
5#以下在117上执行
[root@hadoopc opt]# scp jdk-8u201-linux-x64.tar.gz 192.168.11.118:/opt
#以下在117 118 119上分别执行
[root@hadoopc opt]# tar -xzvf jdk-8u201-linux-x64.tar.gz
[root@hadoopc opt]# mv jdk1.8.0_201/ jdk1.8
ssh免密码配置
117上执行
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25[root@hadoopc opt]# cd ~/.ssh/
[root@hadoopc .ssh]# ssh-keygen -t rsa #生成密钥和pub公钥
Generating public/private rsa key pair.
Enter file in which to save the key (/root/.ssh/id_rsa):
Enter passphrase (empty for no passphrase):
Enter same passphrase again:
Your identification has been saved in /root/.ssh/id_rsa.
Your public key has been saved in /root/.ssh/id_rsa.pub.
The key fingerprint is:
36:20:71:94:09:e4:1e:94:19:61:01:8c:e6:ea:e3:c4 root@hadoopc
The key's randomart image is:
+--[ RSA 2048]----+
| o.oXOoo |
|...+ooo |
|o + . |
| . . o . |
|. . S |
|o . . |
|.E |
|.o |
|... |
+-----------------+
[root@hadoopc .ssh]# ls
id_rsa id_rsa.pub known_hosts
[root@hadoopc .ssh]# cat id_rsa.pub >> authorized_keys #此时会生成authorized_keys文件,文件中存放的是你想免密码登录的pub公钥,当前命令说明当执行ssh localhost免密码,118 119免密码登录同理把在118 和 119 下生成的公钥拷贝到当前authorized_keys文件中。118上执行
1
2
3[root@hadoopc opt]# cd ~/.ssh/
[root@hadoopc .ssh]# ssh-keygen -t rsa
[root@hadoopc .ssh]# cat id_rsa.pub >> authorized_keys119上执行
1
2
3[root@hadoopc opt]# cd ~/.ssh/
[root@hadoopc .ssh]# ssh-keygen -t rsa
[root@hadoopc .ssh]# cat id_rsa.pub >> authorized_keys分别把118和119上的pub公钥拷贝到117的authorized_keys文件中,要用scp不能直接复制
- 分别把117的authorized_keys文件拷贝到118和119中替换他们的authorized_keys文件
- ssh 登录验证一下,看是否还需要密码
安装hadoop
以下配置仅在117上执行
hdoop配置
1 | #仅在117上执行 |
存放信息相关文件创建
1 | [root@hadoopc hadoop285]# mkdir /opt/hadoop285/tmp |
把配置好的hadoop拷贝到118和119
1 | [root@hadoopc hadoop]# cd /opt |
启动hdoop
只是一个记录
1 | #只是一个记录 |
启动
1 | [root@hadoopa fk]# hdfs namenode -format |
打开http://192.168.11.119:50070/验证
zookeeper安装版本是3.4.14
zookeeper仅安装到117上,非集群安装
配置
1 | [root@hadoopc opt]# pwd |
标记
1 | export PATH=/opt/zookeeper3414/zookeeper-3.4.14/bin:$PATH |
启动zookeeper
1 | [root@hadoopc conf]# zkServer.sh start |
HBASE安装
以下仅在117上执行
1 | [root@hadoopc opt]# mkdir hbase214 |
标记
1 | export PATH=/opt/hbase214/hbase-2.1.4/bin:$PATH |
配置拷贝到118和119
1 | [root@hadoopc opt]# cd /opt |
启动hbase
1 | [root@hadoopa conf]# start-hbase.sh |
关于报错解决
- 报错信息是:Caused by: java.lang.ClassNotFoundException: org.apache.htrace.SamplerBuilder
- 进过百度说缺少htrace-core-3.1.0-incubating.jar包但hbase2.1.4的lib\client-facing-thirdparty目录下没有这个文件,解决方法是下载hbase2.1.3在目录lib\client-facing-thirdparty中找到文件htrace-core-3.1.0-incubating.jar拷贝到hbase2.1.4的lib目录中。
spark安装(2.3.3)
以下仅在117上执行
1 | [root@hadoopc ~]# cd /home |
标记
1 | export SPARK_HOME=/home/spark233/spark-2.3.3-bin-hadoop2.7 |
启动
1 | [root@hadoopc sbin]# ./start-master.sh |