大數據開發-Docker-使用Docker10分鐘快速搭建大數據環境,Hadoop、Hive、Spark、Hue、Kafka、ElasticSearch.....

立個坑,教程後續補上,當然這不是最重要的,如果你僅僅想有個環境可以測試,只需要下面 三步

1.git clone https://github.com/hulichao/docker-bigdata

`

2.安裝dockerdocker-compose, 然後cd docker-bigdata && docker-compose -f docker-compose-dev up -d`

`

3.啓動集羣 登入docker環境,然後 sh scripts/start-cluster.sh ,ps:scripts` 下有很多啓動和停止集羣的腳本,按需啓動,注意註釋哦

你拉的鏡像是在這個倉庫裏哈,https://hub.docker.com/repository/hoult

file

接下來就可以愉快的玩耍了

ps: 端口的映射部分,也要注意下,由於在自己本本或者別的服務器搭建時候端口往往不一定都可以用,看着改改端口,再啓動

吳邪,小三爺,混跡於後臺,大數據,人工智能領域的小菜鳥。
更多請關注
file

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章