原创 Hadoop2.x在Ubuntu系統中編譯源碼

本文主要記錄Hadoop2.x在Ubuntu 12.04下編譯源碼的主要步驟和注意點: [一]、基礎環境 Ubuntu 12.04 LTS 64  位 Hadoop2.2.0 Java version: 1.7.0_55 Apache

原创 Hive教程之metastore的三種模式

Hive中metastore(元數據存儲)的三種方式: 內嵌Derby方式 Local方式 Remote方式 詳見:http://www.micmiu.com/opensource/hadoop/hive-metastore-confi

原创 Ubuntu設置默認jdk

詳見:http://www.micmiu.com/os/linux/ubuntu-config-default-jdk/  

原创 HBase安裝配置之僞分佈式模式

HBase安裝模式有三種:單機模式、分佈式(僞分佈式和完全分佈式)。本教程介紹了HBase的僞分佈式模式安裝配置的過程,僞分佈式模式是把進程運行在一臺機器上,但不是同一個JVM(單機模式),分佈式模式的安裝配置需要依賴於HDFS。 基礎

原创 eclipse中開發Hadoop2.x的Map/Reduce項目

本文演示如何在Eclipse中開發一個Map/Reduce項目: 1、環境說明 Hadoop2.2.0 Eclipse Juno SR2 詳見:http://www.micmiu.com/bigdata/hadoop/hadoop2x-

原创 HBase安裝配置之單機模式

HBase安裝模式有三種:單機模式、分佈式(僞分佈式和完全分佈式)。默認的安裝模式就是單機模式 ,在單機模式中,HBase使用本地文件系統而不是HDFS ,所有的服務和zooKeeper都運作在一個JVM中。本教程介紹了HBase單機安

原创 github更新自己Fork的代碼

  github上有個功能叫fork,可以將別人的工程複製到自己賬號下。這個功能很方便,但其有一個缺點是:當源項目更新後,你fork的分支並不會一起更新,需要自己手動去更新。 以github用戶名:micmiu ,fork 項目 sql

原创 Hive和HBase整合

本文主要描述Hive和HBase 環境整合配置的詳細過程: 基本環境 整合配置 測試驗證     詳見:http://www.micmiu.com/bigdata/hive/hive-hbase-integration/

原创 java.net.ConnectException: to 0.0.0.0:10020 failed on connection exception

在DataNode節點中的Hive CLI中執行 select count(*) from table_name 查詢時報錯: java.io.IOException: java.net.ConnectException: Call F

原创 Hive自定義分隔符InputFormat

Hive默認創建的表字段分隔符爲:\001(ctrl-A),也可以通過 ROW FORMAT DELIMITED FIELDS TERMINATED BY 指定其他字符,但是該語法只支持單個字符,如果你的分隔符是多個字符,則需要你自定義

原创 HBase安裝配置之完全分佈式模式

HBase安裝模式有三種:單機模式、分佈式(僞分佈式和完全分佈式)。本教程介紹了HBase的完全分佈式模式安裝配置的過程,分佈式模式均需要依賴於HDFS。 基礎環境 安裝配置 詳見:http://www.micmiu.com/bigda

原创 Hadoop2.x eclipse plugin插件編譯安裝配置

本文主要講解如何編譯安裝配置 Hadoop2.x eclipse plugin插件的詳細過程: 環境參數 編譯過程 安裝配置 詳見: http://www.micmiu.com/bigdata/hadoop/hadoop2-x-ecli

原创 Ubuntu12.04中Eclipse安裝svn插件問題

一般Ubuntu12.04中Eclipse安裝svn插件經常碰到兩種問題: Failed to load JavaHL Library. ubuntu Incompatible JavaHL library loaded.  1.8.x

原创 ERROR tool.ImportTool: Imported Failed: Attempted to generate class with no colu

Sqoop 把數據從Oracle中遷移到Hive中時發生錯誤:   ERROR tool.ImportTool: Imported Failed: Attempted to generate class with no columns!

原创 Sqoop安裝配置及演示

Sqoop是一個用來將Hadoop(Hive、HBase)和關係型數據庫中的數據相互轉移的工具,可以將一個關係型數據庫(例如:MySQL ,Oracle ,Postgres等)中的數據導入到Hadoop的HDFS中,也可以將HDFS的數