台部落
註冊
登錄
寫文章
請輸入正確的登錄賬號或密碼
註冊
忘記密碼
首頁
爲什麼篇
正文
爲什麼(一)開始寫spark後來寫Hadoop
原創
HereIcome
2018-09-03 08:34
看了標題估計也能猜到,
因爲spark寫不下去了!!
確實是這樣的。實際生成環境中spark的好多處理都是建立在spark集羣環境上的,需要Hadoop集羣(數據轉換存儲等操作)來配合spark,所以還是從Hadoop再開始。
發表評論
登录
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章
H
HereIcome
24小時熱門文章
最新文章
spark內核解密
瑜伽練習
(spark)Wordcount
《大學》全文
java mongodb groupby分組查詢
最新評論文章
Mac下配置sublime實現LaTeX
https://yachay.unat.edu.pe/blog/index.php?comment_area=format_blog&comment_component=blog&comment_co
linux以太網驅動總結