原创 Hadoop MapRduce 重寫DBOutputFormat更新mysql數據庫
在http://blog.csdn.net/sunflower_cao/article/details/28266939 寫過可以通過繼承 Writable, DBWritable實現在reduce過程中講結果寫入到mysql數據庫
原创 HBase和Hive整合後,在Hive shell中執行建表語句時錯誤信息如下 HiveException:Not a host:port pair: PBUF
HBase和Hive整合後,在Hive shell中執行建表語句時錯誤信息如下: 14/03/28 16:41:59 ERROR exec.DDLTask: org.apache.hadoop.hive.ql.metadata.HiveE
原创 hadoop 2.2.0僞分佈式安裝
一:系統準備篇 1.修改hostname 在FC or redhat下面,要修改機器名(hostname),需要同時修改兩處 分別是/etc/sysconfig/network的HOSTNAME 和/etc/hosts裏邊 修改hosts
原创 Maven 創建java web project 添加struts支持 jqwidgets生成折線圖
首先通過maven創建java web project 第一種方式:通過eclipse的maven插件 1.new project 選擇Maven Project-->Next 保持默認 Next-> 選擇maven-archety
原创 maven hadoop2.2.0 java.io.IOException: Cannot initialize Cluster
Exception in thread "main" java.io.IOException: Cannot initialize Cluster. Please check your configuration for map
原创 新版api mapreduce reduce結果寫入mysql
import java.io.DataInput; import java.io.DataOutput; import java.io.IOException; import java.sql.PreparedStatement; imp
原创 Maven java通過jdbc連接Hive 執行HQL語句
HADOOP HIVE 版本 lrwxrwxrwx. 1 hadoop hadoop 12 May 14 09:53 hadoop -> hadoop-2.2.0 drwxr-xr-x. 10 hadoop hadoop
原创 關於Apache的日誌
本文分五個部分:訪問日誌、錯誤日誌、定製日誌、日誌分析、其他用法。摘自永遠的Linux,做了一些修整。 Apche日誌系列(1):訪問日誌 想要知道什麼人在什麼時候瀏覽了網站的哪些內容嗎?查看Apache的訪問日誌就可以知道。
原创 linux安裝rpm時提示:can't create transaction lock on /var/lib/rpm/.rpm.lock 錯誤
在linux下面用非root用戶安裝rpm包,提示can't create transaction lock on /var/lib/rpm/.rpm.lock錯誤。 [hadoop@hadoop186 rpm]$ rpm -ivh
原创 hdfs文件校驗 hdfs fsck
HDFS支持fsck命令用以檢查各種不一致。fsck用以報告各種文件問題,如block丟失或缺少block等。fack命令用法如下: bin/hadoop fsck [-move | -delete | -openforwrite] [
原创 sparkPi在yarn模式下運行
編寫運行腳本 [hadoop@localhost bin]$ cat ./run_sparkPi_on_yarn.sh export YARN_CONF_DIR=/home/hadoop/hadoop/etc/hadoop expo
原创 spark啓動master時提示端口8080被佔用[email protected]:8080: java.net.BindException
使用spark-shell時提示: 14/07/10 15:48:14 WARN AbstractLifeCycle: FAILED [email protected]:8080: java.net.BindEx
原创 如果兔子拼命奔跑 烏龜怎麼辦
最近看到友人分享的一篇好文章,看了不下三遍,想開了很多的事情…… 文 / 餘亦多,唐僧同志 我想每個人成長的經歷中,都會或多或少曾被“自卑”的情緒
原创 spark java api通過run as java application運行的方法
先上代碼: /* * Licensed to the Apache Software Foundation (ASF) under one or more * contributor license agreements. See th
原创 spark 1.0 在hadoop-2.0.0-cdh4.2.0上面安裝成功
因爲我的hadoop版本是cdh發行的4.2.0所以我直接在spark官網上下載了spark1.0 for hadoop cdh 4.2.0 下載地址如下:http://spark.apache.org/downloads.html