一、準備編譯軟件
1.在官網下載jdk1.7、maven3.2.1、ant1.9.4,解壓設置好環境變量就可以用。
環境變量設置如下:
(1)執行vim /etc/profile
(2)在文件尾部加入:
export JAVA_HOME=/home/spark/jdk1.7 export MAVEN_HOME=/home/spark/apache-maven-3.2.1 export ANT_HOME=/home/spark/apache-ant-1.9.4 export PATH=$JAVA_HOME/bin:$MAVEN_HOME/bin:$ANT_HOME/bin:$PATH export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
(3)執行source /etc/profile
2.在官網下載protobuf2.5.0解壓後進入目錄依次執行如下命令:
./configure make make check make install
3.安裝其它軟件,我這裏使用yum命令安裝。
yum install cmake openssl-devel autoconf automake libtool (有些軟件操作系統可能自帶,安裝時請使用rpm -qa命令查看)
二、下載Hadoop源碼開始編譯
1.登錄官網:http://hadoop.apache.org/,找到下載鏈接,點進去下載即可。
2.解壓編譯:
tar zxvf hadoop-2.4.0-src.tar.gz cd hadoop-2.4.0-src mvn package -Pdist,native -DskipTests -Dtar
半個多小時後出現BUILD SUCCESS,即編譯成功,可在hadoop-2.4.0-src/hadoop-dist/target文件夾中找到編譯的文件。
三、參考文檔
http://www.cnblogs.com/shishanyuan/p/4164104.html http://www.aboutyun.com/thread-8130-1-1.html