原创 大數據數據分析POM.XML
<?xml version="1.0" encoding="UTF-8"?> <project xmlns="http://maven.apache.org/POM/4.0.0" xmlns:xsi="http://ww
原创 大數據主題運行控制
import java.io.IOException import OutAnalysis.Rz_brws_p2p //import java.text.SimpleDateFormat //import java.util.Cale
原创 scala 控制hbase,spark
package DAO import java.io.IOException import java.util.List import java.util.UUID import java.util.Map import java.ut
原创 scala 寫spark
package DAO; import java.sql._ import java.text.SimpleDateFormat import java.util.{List, Date, HashMap, Properties} i
原创 java 控制spark
package DAO; import java.util.Date; import java.util.HashMap; import java.util.Map; import java.sql.Timestamp; import j
原创 java 寫的spark 控制hbase
package DAO; import java.io.IOException; import java.util.List; import java.util.UUID; import java.util.Map; import ja
原创 大數據開發例子
import java.io.IOException import java.sql.Timestamp import java.util.Date import DAO.{ScalaConn, ScalaHbase} import o
原创 kafkaToHbase
package kafka import java.sql.{DriverManager} import java.text.SimpleDateFormat import java.util.{Properties, Calenda
原创 Conn java版本
package DAO; import java.util.Date; import java.util.HashMap; import java.util.Map; import java.sql.Timestamp; import j
原创 * 新手標已還款追蹤數據。dw_yhk_zz
import java.io.IOException import java.sql.Timestamp import java.util.Date import DAO.{ScalaConn, ScalaHbase} import o
原创 collect.conf
#agent section producer.sources = s producer.channels = c producer.sinks = r #sou
原创 DateUtil java 版本
package util; import java.text.ParseException; import java.text.SimpleDateFormat; import java.util.Calendar; import ja
原创 1.txt linux 用法 和jar包執行,kafka執行,flume
首先到238執行: cd /usr/local/hbase-1.2.1/bin/ ./stop-hbase.sh 碰到報錯,到238,239,240 cd /usr/local ./stophbase
原创 DA.pom.xml
<project xmlns="http://maven.apache.org/POM/4.0.0" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instanc
原创 receive
#agent section producer.sources = s producer.channels = c producer.sinks = r #sou