hadoop-2單節點和hive安裝

1、下載hadoop-x.y.x.tar.gz

2、解壓:tar -zxvf hadoop-2.y.x.tar.gz

3、配置環境變量:$JAVA_HOME、$HADOOP_HOME、$PATH

4、修改配置:$HADOOP_HOME/etc/hadoop/core-site.xml

<configuration>
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://localhost:9000</value>
    </property>
</configuration>

5、修改配置:$HADOOP_HOME/etc/hadoop/hdfs-site.xml

<configuration>
    <property>
        <name>dfs.namenode.http-address</name>
        <value>localhost:9870</value>
    </property>
    <property>
        <name>dfs.replication</name>
        <value>1</value>
    </property>
</configuration>

6、修改配置:$HADOOP_HOME/etc/hadoop/mapred-site.xml

<configuration>
    <property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
    </property>
</configuration>

7、啓動hadoop:$HADOOP_HOME/sbin/start-all.sh

8、查看hadoop進程:jps,顯示namenode、dataname、SecondaryNameNode、NodeManager、ResourceManager五個進程。

------------------------------------------------------------------------------------------------------------------------------------------------------------------------------

1、下載:apache-hive-3.y.z-bin.tar.gz

2、解壓:tar -zxvf apache-hive-3.y.z-bin.tar.gz

3、配置環境變量:$HIVE_HOME、$PATH

4、創建hdfs目錄:

$HADOOP_HOME/bin/hadoop fs -mkdir       /tmp
$HADOOP_HOME/bin/hadoop fs -mkdir       /user/hive/warehouse
$HADOOP_HOME/bin/hadoop fs -chmod g+w   /tmp
$HADOOP_HOME/bin/hadoop fs -chmod g+w   /user/hive/warehouse

5、配置hive(如果初始化報錯,注意修改其中"system:"開頭的那些值):cp $HIVE_HOME/conf/hive-default.xml.template $HIVE_HOME/conf/hive-sitexml

6、初始化hive,使用hive內置的derby作爲元數據庫(會在當前執行目錄生成數據庫文件):$HIVE_HOME/bin/schematool -dbType derby -initSchema

7、進入hive:$HIVE_HOME/bin/hive

8、啓動hive服務並用beeline連接:

$HIVE_HOME/bin/hiveserver2
$HIVE_HOME/bin/beeline -u jdbc:hive2://localhost:10000

 

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章