Scala進擊大數據Spark生態圈,進擊Spark生態圈必備

Scala是一門現代的多範式編程語言,設計初衷是要集成面向對象編程和函數式編程的各種特性。Scala允許用戶使用命令和函數範式編寫代碼。Scala運行在Java虛擬機之上,可以直接調用Java類庫。對於新手來說,Scala相對比較複雜,其看起來靈活的語法並不容易掌握,但是對於熟悉Scala的用戶來說,Scala是一把利器,它提供了許多獨特的語言機制,可以以庫的形式輕易無縫添加新的語言結構。近日,Spotify的軟件工程師Neville Li發表了一篇題爲《數據工程師應該學習Scala的三個理由》的文章,他認爲現在的編程語言種類非常多,每種語言都各有優缺點,並且它們的適用的場景也不同,比如Scala就非常適合用於數據處理和機器學習。
在大數據和機器學習領域,很多開發者都有Python/R/Matlab語言的背景,相比與Java或者C++,Scala的語法更容易掌握。從以往的經驗來看,只要掌握基本的集合API以及lambda,一個沒有經驗的新員工就可以快速上手處理數據。像BreezeScalaLabBIDMach這樣的類庫都通過操作符重寫模仿了一些流行工具的語法以及其它的一些語法糖,簡單並且容易使用。另外,Scala的性能比傳統的Python或者R語言更好。
由於Scala運行於Java平臺(Java虛擬機),併兼容現有的Java程序,所以Scala可以和大數據相關的基於JVM的系統很好的集成,比如基於JVM類庫的框架Scalding(Cascading)、Summingbird(Scalding和Storm)、Scrunch(Crunch)、Flink(Java編寫並有Scala的API),本身使用Scale開發的系統Spark、Kafka。另外,很多數據存儲解決方案都支持JVM語言,比如CassandraHBaseVoldemortDatomic
函數編程範式更適合用於Map/Reduce和大數據模型,它摒棄了數據與狀態的計算模型,着眼於函數本身,而非執行的過程的數據和狀態的處理。函數範式邏輯清晰、簡單,非常適合用於處理基於不變數據的批量處理工作,這些工作基本都是通過map和reduce操作轉換數據後,生成新的數據副本,然後再進行處理。而大多數的Scala數據框架都能夠把Scala數據集合API和抽象數據類型相統一,比如Scalding中的TypedPipe與Spark中的RDD都有相同的方法,包括map、flatMap、filter、reduce、fold和groupBy,這樣使用Scala來處理就更爲方便。開發者只需要學習標準集合就可以迅速上手其它工具包。另外,很多的類庫都參考了範疇論中的一些設計,它們通過使用semigroup、monoid、group標識來保證分佈式操作的正確性。



發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章