原创 搭建SQOOP環境

1.${SQOOP_HOME}/conf/      $ cp sqoop-env-template.sh sqoop-env.sh     //拷貝模板生成配置環境目錄 =============修改sqoop-env.sh 配置文

原创 修改HDFS上文件的權限

例:$HIVE_HOME/bin/hadoop fs -chmod 777 /user/hive/warehouse/db_hive.db

原创 hadoop僞分佈模式環境安裝

一:本地模式配置 1.安裝jdk,解壓jdk到/opt/modules下 2.配置環境變量,修改/etc/profile export JAVA_HOME=/opt/modules/jdk1.7.0_67 export PATH=$PAT

原创 Sqoop使用和簡介

Sqoop 工具是Hadoop環境下連接關係數據庫,和hadoop存儲系統的橋樑,支持多種關係數據源和hive,hdfs,hbase的相互導入。一般情況下,關係數據表存在於線上環境的備份環境,需要每天進行數據導入,根據每天的數據量而言,

原创 hadoop僞分佈式環境apache版本切換爲CDH

1.在/opt/modules下創建一個cdh空目錄 $ mkdir cdh       //cdh版本的hadoop, hive,sqoop安裝在此目錄下 2.解壓cdh版本的hadoop,hive,sqoop $ tar -zxf h

原创 Hive 自定義函數函數

使用內置的函數無法完成分析任務,那麼需要寫自定義函數 show  functions;     //查看自帶的所有的內置函數 desc function upper;  //查看具體的某個函數的用法 desc function exten

原创 Hadoop啓動namenode和datanode

格式化文件系統 $ bin/hdfs namenode -format 啓動namenode 和datanode 服務 $ sbin/hadoop-daemon.sh start namenode 啓動namenode $ sbin/ha

原创 Sqoop導出數據

1).從HDFS、Hive表導出到Mysql      由於hive表的數據庫和表其實就是HDFS上的目錄和文件,所以從Hive表導出數據就是從HDFS對應的目錄導出數據 先在mysql中創建表接收導出數據 create table  

原创 Linux下連接msyql

mysql --user=user_name --password=your_password db_name 例: mysql --user=root --password=hadoop mysql

原创 Windows下Eclispe遠程開發Mapreduce程序

1.將hadoop-eclipse-plugin-2.6.0.jar 拷貝到${MyEclispe_HOME} /plugins 2.Windows安裝hadoop      1)解壓hadoop-2.5.0.tar.gz到D:/根目錄

原创 linux關閉防火牆

今天連接遠程linux時出現 Call From slaver1/127.0.0.1 to master:9000 failed on connection exception: java.net.ConnectException: Co

原创 Sqoop導入數據

1)導入 MySQL -> HDFS (1) 全表導入 bin/sqoop import \ --connect jdbc:mysql://bigdata.ibeifeng.com:3306/testdb \ --username ro

原创 Hive環境配置

            進入$HIVE_HOME/conf/修改文件             cp  hive-env.sh.template  hive-env.sh             cp  hive-def

原创 linux基本配置

1.重啓網絡 service network restart 2.永久修改hostname vi /etc/sysconfig/network 3.修改映射 vi /etc/hosts

原创 MapReduceOnYarn(iMapReduce在Yarn執行的流程分享)

1.客戶端(client)向集羣管理者(ResourceManager)發出命令請求 2.集羣管理者(ResourceManager)接收到請求後,集羣的應用管理者(ApplicationsMagager)會告訴節點管理者(NodeM