原创 spark在hadoop2.2.0 HA配置下的問題

scala> val rdd1 = sc.textFile("hdfs://mycluster/spark/spark02/directory/")

原创 css左中右三列布局

#LeftPart                {width:264px;float:left; margin-right:-265px;marg

原创 spark中讀取hdfs中文件出錯

scala> val rdd1 = sc.textFile("hdfs://master:9001/spark/spark02/directory/") 14/07/19 17:09:36 INFO MemoryStore: ensure

原创 AXIS的Web Service

http://www.cnblogs.com/mingzi/archive/2009/03/09/1406839.html http://www.douban.com/note/225930273/

原创 ztree出現$.fn.zTree is undefined錯誤的解決辦法。

問題描述,在一個界面使用ztree創建樹,提示TypeError: $.fn.zTree is undefined,這裏我是在父頁面引用的jquery相關js文件,通過include包含了一個子頁面,子頁面同時引用了jquery和ztre

原创 hadoop2.2.0 HA啓動時出現了兩個standy的Namenode,沒有出現active的Namenode

2014-07-20 15:21:16,913 ERROR org.apache.hadoop.security.UserGroupInformat

原创 hadoop2.2.0 HA中active的namenode死掉了

2014-07-19 21:55:49,823 WARN org.apache.hadoop.hdfs.qjournal.client.Quorum

原创 java中的String

public static void main(String[] args) {     String a1=new String("aaa");

原创 spark和hadoop的比較

Spark與Hadoop的對比 Spark的中間數據放到內存中,對於迭代運算效率更高。Spark更適合於迭代運算比較多的ML和DM運算。因爲在Spark裏面,有RDD的抽象概念。Spark比Hadoop更通用。Spark提供的數據集操作類

原创 sqoop報錯。

使用的sqoop是1.4.4.mysql是5.6.hadoop是2.2.0 [hadoop2@slave02 sqoop-1.4.4]$ ./bin/sqoop import  --connect jdbc:mysql://localh

原创 sqoop1.4.4導出mysql數據到hadoop1.2.1集羣出現的問題

改爲hadoop1.2.1的集羣后。還是提示拒絕連接的錯誤,但是我發現錯誤提示裏說需要HADOOP_HOME。所以我export了HADOOP_HOME。然後再次運行報了下面的錯誤。 hadoop1@slave02 sqoop-1.4.4

原创 spark結合Hadoop2.2.0 HA使用中遇到的問題

scala> rdd1.toDebugString 14/07/20 09:42:05 INFO Client: Retrying connect

原创 spark集羣其中一個節點沒有啓動成功

Spark Command: /usr/java/jdk1.7/bin/java -cp ::/home/hadoop2/spark/spark-1

原创 hadoop2.2.0中遇到的錯誤

2014-07-19 12:37:36,071 INFO org.apache.hadoop.hdfs.server.datanode.DataNo

原创 sqoop找不到mysql驅動

[hadoop2@slave02 ~]$ sqoop import --connect jdbc:mysql://slave02/hadoopgui