原创 大數據數據分析POM.XML

<?xml version="1.0" encoding="UTF-8"?> <project xmlns="http://maven.apache.org/POM/4.0.0" xmlns:xsi="http://ww

原创 大數據主題運行控制

import java.io.IOException import OutAnalysis.Rz_brws_p2p //import java.text.SimpleDateFormat //import java.util.Cale

原创 scala 控制hbase,spark

package DAO import java.io.IOException import java.util.List import java.util.UUID import java.util.Map import java.ut

原创 scala 寫spark

package DAO; import java.sql._ import java.text.SimpleDateFormat import java.util.{List, Date, HashMap, Properties} i

原创 java 控制spark

package DAO; import java.util.Date; import java.util.HashMap; import java.util.Map; import java.sql.Timestamp; import j

原创 java 寫的spark 控制hbase

package DAO; import java.io.IOException; import java.util.List; import java.util.UUID; import java.util.Map; import ja

原创 大數據開發例子

import java.io.IOException import java.sql.Timestamp import java.util.Date import DAO.{ScalaConn, ScalaHbase} import o

原创 kafkaToHbase

package kafka import java.sql.{DriverManager} import java.text.SimpleDateFormat import java.util.{Properties, Calenda

原创 Conn java版本

package DAO; import java.util.Date; import java.util.HashMap; import java.util.Map; import java.sql.Timestamp; import j

原创 * 新手標已還款追蹤數據。dw_yhk_zz

import java.io.IOException import java.sql.Timestamp import java.util.Date import DAO.{ScalaConn, ScalaHbase} import o

原创 collect.conf

#agent section     producer.sources = s     producer.channels = c     producer.sinks = r          #sou

原创 DateUtil java 版本

package util; import java.text.ParseException; import java.text.SimpleDateFormat; import java.util.Calendar; import ja

原创 1.txt linux 用法 和jar包執行,kafka執行,flume

首先到238執行: cd /usr/local/hbase-1.2.1/bin/ ./stop-hbase.sh  碰到報錯,到238,239,240 cd /usr/local  ./stophbase

原创 DA.pom.xml

<project xmlns="http://maven.apache.org/POM/4.0.0" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instanc

原创 receive

#agent section     producer.sources = s     producer.channels = c     producer.sinks = r          #sou