192.168.111.11 lyy1 ---master節點
192.168.111.12 lyy2
192.168.111.13 lyy3
192.168.111.14 lyy4
新增:
192.168.111.15 lyy5
192.168.111.16 lyy6
vim /etc/network/interfaces
vim /etc/hostname
for i in $(seq 1 6); do echo lyy$i; scp /etc/hosts root@lyy$i:/etc/;done
for i in $(seq 1 6); do echo lyy$i; scp /opt/hadoop-3.0.0/etc/hadoop/workers root@lyy$i:/opt/hadoop-3.0.0/etc/hadoop;done
for i in $(seq 2 6); do echo lyy$i; scp /opt/hbase-1.2.4/conf/regionservers root@lyy$i:/opt/hbase-1.2.4/conf;done
for i in $(seq 2 6);do echo lyy$i; scp /opt/spark-2.2.0-bin-hadoop2.7/conf/slaves root@lyy$i:/opt/spark-2.2.0-bin-hadoop2.7/conf;done
還要同步hbase-site.xml配置文件
for i in $(seq 2 6); do echo lyy$i; scp /opt/hbase-1.2.4/conf/hbase-site.xml root@lyy$i:/opt/hbase-1.2.4/conf;done
for i in $(seq 1 6); do echo lyy$i; ssh lyy$i "cp /opt/hbase-1.2.4/conf/hbase-site.xml /opt/spark-2.2.0-bin-hadoop2.7/conf && cp /opt/hbase-1.2.4/conf/hbase-site.xml /opt/hadoop-3.0.0/etc/hadoop";done
hadoop-daemon.shstart datanode 啓動DataNode進程
yarn-daemon.shstart nodemanager 啓動NodeManager進程
start-slave.shspark://lyy1:7077 啓動Worker進程
5.hbase新增RegionServer
hbase-daemon.shstart regionserver 啓動HRegionServer進程
hbase-daemon.shstart zookeeper 啓動HquorumPeer進程
hbase shell中輸入status查看集羣狀態
如果不balance,那麼cluster會把新的數據都存放在新的node上,這樣會降低工作效率:
查看hdfs節點狀態:hdfsdfsadmin –report
1048576(=1Mb/s)
104857600(=100Mb/s)
hdfsdfsadmin -setBalancerBandwidth 104857600
#設置不同節點之間複製數據的帶寬是受限的,默認是1MB/s
start-balancer.sh -threshold 1
#設置如果某個datanode的磁盤裏使用率比平均水平高出1%,Blocks向其他低於平均水平的datanode中傳送, 也就是每個節點使用率相差不超過1%。
或者:
start-balancer.sh
stop-balancer.sh
我準備寫一個公衆號技術博客,回顧我學大數據以來的個人經驗,希望和大家一起每天進步一點點!剛剛開始寫,請大家多多支持,如有不足之處多多包含,最後多多關注哈哈哈。