爲什麼(一)開始寫spark後來寫Hadoop

    看了標題估計也能猜到,因爲spark寫不下去了!!確實是這樣的。實際生成環境中spark的好多處理都是建立在spark集羣環境上的,需要Hadoop集羣(數據轉換存儲等操作)來配合spark,所以還是從Hadoop再開始。
發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章