环境:192.168.137.101 hd1192.168.137.102 hd2192.168.137.103 hd3192.168.137.104 hd4四节点hadoop和HBase1、hd5中修改/
环境:
192.168.137.101 hd1
192.168.137.102 hd2
192.168.137.103 hd3
192.168.137.104 hd4
1、hd5中修改/etc/hosts
加入
192.168.137.105hd5
2、分发其到所有hd1,hd2,hd3,hd4
scp/etc/hostshd1:/etc
scp/etc/hostshd2:/etc
scp/etc/hostshd3:/etc
scp/etc/hostshd4:/etc
3、修改hd5节点的
/home/hadoop/hadoop/etc/hadoop/slaves
加添hd5作为最后一个节点
4、在hd5节点删除原来的.ssh中的共钥私钥文件,重新生成
cd~/.ssh
rmid_rsa
rmid_rsa.pub
ssh-keygen-trsa
5、将原先hd1节点中的authorized_keys文件拷贝到hd5,再加入新共钥
cat~/.ssh/id_rsa.pub>>authorized_keys
6、分发改文件到其它各节点
scp~/.ssh/authorized_keyshd1:/home/hadoop/.ssh
scp~/.ssh/authorized_keyshd2:/home/hadoop/.ssh
scp~/.ssh/authorized_keyshd3:/home/hadoop/.ssh
scp~/.ssh/authorized_keyshd4:/home/hadoop/.ssh
7、前往各个节点进行第一次(不确认也可以)到hd5的ssh登录(hd5本地的也做一次回环ssh登录比较好)
在hd1,ssh hd5 date
在hd2,ssh hd5 date
在hd3,ssh hd5 date
在hd4,ssh hd5 date
在hd5,ssh hd5 date
8、在hd5修改hadoop的slave文件
vim /home/hadoop/hadoop/etc/hadoop/slaves
加入hd5
分发其到其它节点
scp /home/hadoop/hadoop/etc/hadoop/slaves hd1:/home/hadoop/etc/hadoop
scp /home/hadoop/hadoop/etc/hadoop/slaves hd2:/home/hadoop/etc/hadoop
scp /home/hadoop/hadoop/etc/hadoop/slaves hd3:/home/hadoop/etc/hadoop
scp /home/hadoop/hadoop/etc/hadoop/slaves hd4:/home/hadoop/etc/hadoop
9、在hd5启动yarn
start-dfs.sh
yarn-daemon.shstartdatanode
(如果是虚拟机复制的产物,请删除/home/hadoop/tmp和/hoem/hadoop/hdfs中的文件,当然这两个路径还是要保留的)
10、在hd5启动start-balancer.sh均衡当前hdfs块
Start-balancer.sh
11、如果还有hbase在上面运行则需要部署hbase的hserver
修改
vim/home/hadoop/hbase/conf/regionservers
加入hd5
vim/home/hadoop/hbase/conf/hbase-site.xml
加入
hbase.ZooKeeper.quorum
hd1,hd2,hd3,hd4,hd5
12、复制上面两个文件到hd1,hd2,hd3,hd4
scpregionservershd1:/home/hadoop/hbase/conf
scpregionservershd2:/home/hadoop/hbase/conf
scpregionservershd3:/home/hadoop/hbase/conf
scpregionservershd4:/home/hadoop/hbase/conf
scphbase-site.xmlhd1:/home/hadoop/hbase/conf
scphbase-site.xmlhd2:/home/hadoop/hbase/conf
scphbase-site.xmlhd3:/home/hadoop/hbase/conf
scphbase-site.xmlhd4:/home/hadoop/hbase/conf
13、在hd5启动hbaseregionserver
hbase-daemon.shstartregionserver
14、在hd1和hd5启动hbaseshell
用status命令确认一下集群情况
--结束END--
本文标题: Hadoop 2.2.0 热添加新节点 (含HBASE)
本文链接: https://lsjlt.com/news/40666.html(转载时请注明来源链接)
有问题或投稿请发送至: 邮箱/279061341@qq.com QQ/279061341
2024-10-23
2024-10-22
2024-10-22
2024-10-22
2024-10-22
2024-10-22
2024-10-22
2024-10-22
2024-10-22
2024-10-22
回答
回答
回答
回答
回答
回答
回答
回答
回答
回答
0