原创 Flume 自定義source -- SQLSource (轉爲 json 格式)
個人使用flume 相對較多 ,對他的採集任務比較喜歡 ,自己做了一些數據庫方向的的拓展。 雖然 github 上 有很多 自定義的 flume sql-source 比如 大名鼎鼎 的 https://github.com
原创 flink 隱式轉換的問題
初入 flink 報錯如下 Information:2020-05-14 11:18 - Build completed with 2 errors and 0 warnings in 3 s 77 ms Error:(15,
原创 flink streamWordCount demo
flink 的 wordCount 流式計算的demo package com.hbn.wc import org.apache.flink.api.scala._ import org.apache.flink.streami
原创 flink wordcount demo
demo package com.hbn.wc import org.apache.flink.api.scala.{DataSet, ExecutionEnvironment} import org.apache.flink.a
原创 flink Cannot find compatible factory for specified execution.target (=local)
初入 flink wordcount 報錯如下 /Library/Java/JavaVirtualMachines/jdk1.8.0_201.jdk/Contents/Home/bin/java "-javaagent:/
原创 Java 操作 Spark 時 卻不能設置泛型參數的問題 ?
最近在使用Java開發spark 過程中 遇到一個問題 即不能設置 返回對象的泛型參數 代碼如下 jssc 爲 JavaStreamingContext 使用 JavaSparkContext 也會遇到這種情況 List<Tu
原创 Spark sql 中 自定義實體類無法識別其中的 Date 字段
在使用過程中 創建了實體類 使用反射的方式將 rdd 轉換爲 df 但是在使用過程中 即使沒有在 查詢中使用該字段,依然會報錯 主要提示爲 ` scala.MatchError: Thu Sep 05 10:16:25 CST
原创 spark sql 使用過程中 無法識別輸入字段
在使用spark sql 過程中 可能映射爲實體類 但是該實體類的屬性 ,並沒有設置getter setter 方法 就會出現如下問題 提示 : 無法識別某些字段 /Library/Java/JavaVirtualMach
原创 spark sqlcontext 讀取json 文件
多行json 直接 使用 sqlcontext.read().json("path") 讀取時候 報錯如下 : Exception in thread "main" org.apache.spark.sql.AnalysisExce
原创 Flume 自定義source --sql source
個人使用flume 相對較多 ,對他的採集任務 比較喜歡 ,自己做了一些數據庫的拓展。 雖然 github 上 有很多 自定義的 flume sql-source 比如 大名鼎鼎 的 https://github.com/k
原创 Spark 創建RDD (集合,本地文件,hdfs文件)基礎數據源
本文主要記錄 一些基礎 數據源 轉換 成爲 RDD 的案例 僅供參考 1.集合類轉換爲RDD import java.util.Arrays; import java.util.List; import org.apache
原创 啓動Hadoop時一直提示輸入密碼
[root@wh bin]# sh $HADOOP_HOME/sbin/start-all.sh This script is Deprecated. Instead use start-dfs.sh and start-yarn.s