Hadoop HBase Hive | 三、HBase 集群搭建

目录

1.上一篇

2.上传HBase

3.修改hbase-site.xml

4.配置regionservers

5.配置HBASE_HOME

6.拷贝相关文件

7.启动HBase

8.停止 HBase

9.访问HBase

10.测试HBase

10.1 查看状态

10.2 创建表

10.3 获取表

10.4 添加一行

10.5 读取全部


1.上一篇

Hadoop HBase Hive | 二、Hadoop 集群搭建

2.上传HBase

官网下载 http://www.apache.org/dyn/closer.cgi/hbase

上传hbase-2.2.2-bin.tar.gz 至 hadoop文件夹下面.

tar -zxvf hbase-2.2.2-bin.tar.gz

3.修改hbase-site.xml

hbase.rootdir 要和 hadoop的 core-site.xml 的 fs.defaultFS 一样。

<configuration>
    <property>
        <name>hbase.cluster.distributed</name>
        <value>true</value>
    </property>
    <property>
        <name>hbase.rootdir</name>
        <value>hdfs://hadoop-master:9000/hbase</value>
    </property>
    <property>
        <name>hbase.zookeeper.quorum</name>
        <value>hadoop-master,hadoop-slave,hadoop-slave02,hadoop-slave03</value>
    </property>
    <property>
      <name>hbase.unsafe.stream.capability.enforce</name>
      <value>false</value>
    </property>
</configuration>

4.配置regionservers

vi conf/regionservers

5.配置HBASE_HOME

vi ~/.bash

source ~/.bashrc

6.拷贝相关文件

scp -r ~/.bashrc root@hadoop-slave:~/

scp -r ~/.bashrc root@hadoop-slave02:~/

scp -r ~/.bashrc root@hadoop-slave03:~/

scp -r /usr/local/hadoop-2.10.0/hbase-2.2.2 root@hadoop-slave:/usr/local/hadoop-2.10.0/

scp -r /usr/local/hadoop-2.10.0/hbase-2.2.2 root@hadoop-slave:/usr/local/hadoop-2.10.0/

scp -r /usr/local/hadoop-2.10.0/hbase-2.2.2 root@hadoop-slave03:/usr/local/hadoop-2.10.0/

7.启动HBase

./bin/start-hbase.sh

查看HBase进程

jps

8.停止 HBase

./bin/stop-hbase.sh

停止之后 查看一下进程 ,如果还有剩余进程应 kill -9 进程

 ps -ef | grep hbase

9.访问HBase

http://10.0.1.73:16010/master-status

10.测试HBase

10.1 查看状态

./bin/hbase shell

status

exit  退出

出现异常则说明hbase配置错误,仔细检查。

10.2 创建表

create 'table_test','field_test'

10.3 获取表

t1 = get_table('table_test')

10.4 添加一行

t1.put 'row_test','field_test:qualixxx','val_test'

10.5 读取全部

t1.scan

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章