ssh-keygen -t rsa
cat .ssh/id_rsa.pub .ssh/authorized_keys
先配置hdfs:
1、下載hadoop-0.20.2.tar.gz,解壓;
2、修改conf/hadoop-env.sh,配置java_home;
3、配置hdfs訪問路徑,core-site.xml:
4、配置namenode複本數,hdfs-site.xml:
5、配置namenode元數據與操作日誌路徑,hdfs-site.xml:
6、配置map/reduce,mapred-site.xml:
7、對namenode路徑,進行格式化:
bin/hadoop namenode -format
可以看到配置的路徑被格式化後,系統建了兩個目錄current與image。
7、啓動hdfs:
bin/start-all.sh
ps -ef|grep hdfs
會看到啓動了3個java進程,1個namenode,1個datanode,1個備用namenode:
org.apache.hadoop.hdfs.server.namenode.NameNode
org.apache.hadoop.hdfs.server.datanode.DataNode
org.apache.hadoop.hdfs.server.namenode.SecondaryNameNode
再配置hbase:
1、配置hbase訪問的hdfs路徑、集羣屬性、zookeeper節點,hbase-site.xml
2、啓動hbase:
bin/start-hbase.sh
ps -ef|grep hbase
可以看到又啓動了3個java進程,分別是RegionServer、Zookeeper、Master:
org.apache.hadoop.hbase.regionserver.HRegionServer start
org.apache.hadoop.hbase.zookeeper.HQuorumPeer start
org.apache.hadoop.hbase.master.HMaster start
至此,基於hdfs上的hbase配置已經完成。