problem 1 : “java5.home is not defined. Forrest requiers Java5. Please paa -Djava5.home=.......“
solution:下载JDK5的bin 版本并解压,安装,由于我是下载的.bin版本而非rpm.bin所以直接解压;然后再command中加入提示的参数:-Djava5.home=/Path/jdk-version
problem2: forrest.home is not defined. Please pass -Dforrest.home=.......................
solution: 下载一个forrest,我下载的是0.8版本,一开始是0.9出了些问题就改成0.8了,然后在command中继续加入conf:
-Dforrest.home=/path/apache-forrest-0.8
更改为0.8的原因是报错:
Exception in thread "main" java.lang.NoClassDefFoundError: org/apache/fop/messaging/MessageHandler这个事由于0.9版本的lib/core中没有fop-0.20.5.jar这个文件而在0.8版本中存在
problem3:出现很多的sitmap的错误,后来发现是因为java版本不对的原因,forrest需要run的java为1.5而我本身运行的java版本为1.6于是乎大费周章的将java换成了1.5的版本,继续运行又出现了新的错误:
javac: invalid target release: 1.6
Usage: javac <options> <source files>
where possible options include:
-g Generate all debugging info
-g:none Generate no debugging info
这次出现的错误非常的离谱,郁闷死了,就是说需要java的版本的1.6
这下子头都大了,java版本从1.5换到1.6然后又换过来,然后错误就不停的在这两个地方打转
疯了,为啥HDFS没搞好呢,使用的工具的间接依赖出现矛盾
在这个时刻幸好有人解决了这个问题,~~~~(>_<)~~~~ 救世主啊
原文链接:http://trac.nchc.org.tw/cloud/wiki/waue/2009/0818
0. environment
编译hadoop 需要额外安装 ant, forrest ,而forrest 需要安装 java-1.5 来编译
hadoop 安装于 | /opt | hadoop_home = /opt/hadoop |
forrest 目录 | /opt/forrest-0.8 | 下载 |
java 5 目录 | /usr/lib/jvm/java-1.5.0-sun | |
java 6 目录 | /usr/lib/jvm/java-6-sun |
1. svn checkout
$ cd /opt $ sudo svn co http://svn.apache.org/repos/asf/hadoop/common/trunk $ sudo mv trunk hadoop $ sudo chown `$USER:$USER` hadoop
2. forrest
- 下载并解压缩 apache forrest 于 /opt/forrest-0.8后
$ sudo update-alternatives --set java /usr/lib/jvm/java-1.5.0-sun/jre/bin/java $ sudo update-alternatives --set javac /usr/lib/jvm/java-1.5.0-sun/bin/javac $ JAVA_HOME=/usr/lib/jvm/java-1.5.0-sun $ cd /opt/forrest-0.8/main $ build.sh
3. ant
- 产生 Hadoop-Core-${version}.tar.gz
$ sudo update-alternatives --set java /usr/lib/jvm/java-6-sun/jre/bin/java $ sudo update-alternatives --set javac /usr/lib/jvm/java-6-sun/bin/javac $ JAVA_HOME=/usr/lib/jvm/java-6-sun $ ant -Djava5.home=/usr/lib/jvm/java-1.5.0-sun -Dforrest.home=/opt/forrest-0.8 tar
- 产生的档案会放在 /opt/hadoop/build 内
A. build.xml 补充说明
- 程式码在 /opt/hadoop/src 内
- 改完程式码之后,执行ant 来产生相对应档案
- ant 的编译规则在 build.xml 可以读此档以了解到动作与其相依的讯息
- 设定属性值
<property name="Name" value="Hadoop-core"/>
- ant 的动作,如执行 ant docs 会参考此动作叙述
<target name="docs" depends="forrest.check" description="检查说明" if="forrest.home"> <exec dir="${docs.src}" executable="${forrest.home}/bin/forrest" failοnerrοr="true"> <env key="JAVA_HOME" value="${java5.home}"/> </exec> <copy todir="${build.docs}"> <fileset dir="${docs.src}/build/site/" /> </copy> </target>
- 设定属性值
B. 常见问题
- 执行 ant tar 时,depends 了七个动作: compile, jar, javadoc, docs, api-report, jar-test 。
- 用java 1.6 跑, docs这个动作一直编译不过。
- 用java 1.5 跑, compile 不过
- 因此若遇到以下问题,请在 /opt/hadoop/ 目录下执行 ant clean 后,参照上面的程序 1, 2, 3 进行之,
sitemap-v06.rng:72:31: error: datatype library "http://www.w3.org/2001/XMLSchema-datatypes" not recognized
原因:用java 6 跑forrest 的 build.sh,请将 javac , java 都设成 java 5 再来run
[exec] Exception in thread "main" java.lang.UnsupportedClassVersionError: Bad version number in .class file
原因:compiler的javac 用java 5 ,run 却用java 6 ,就会出现此讯息,
javac: invalid target release: 1.6
原因:因为rcc 需要用java 1.6 才能跑
所以我也不ant clean 了 就直接 ant tar,然后到HdfsProxy中去执行ant 命令,最后终于生成了war包,不过现在还不知道能不能用