實踐目的
通過操作一個開源例子,學習大數據的架構 及基本的使用,各種概念。不涉及自編碼與創新。
環境搭建
需要建立 hadoop,hbase ,spark 等大數據環境
在10.30.2.5上建立六個docker , 分別對應 s141~s146 分別用於裝大數據環境,具體操作步驟 參考本人
hadoop-spark
https://blog.csdn.net/dualvencsdn/article/details/112007643?spm=1001.2014.3001.5501
habase
https://blog.csdn.net/dualvencsdn/article/details/112905925?spm=1001.2014.3001.5501
學會操作hbase
https://blog.csdn.net/dualvencsdn/article/details/113309385?spm=1001.2014.3001.5501
flume初步學習與使用
https://blog.csdn.net/qq_1018944104/article/details/85462011
/usr/local/flume/do.sh
kafka與zookeeper的使用與編程
成果展現
操作記錄
/home/dualven/docker/*.jar
start.sh -->start dockers
appendHost.sh-> add host ip for six hosts
seeMessage.sh ->see the message consumed by kafka
docker exec -it centos1122 bash
cd /usr/local/
see readme.txt
代碼
https://codechina.csdn.net/dualvenorg/sparkstreaming.git