| 導語
Apache Spark社區最大的技術峯會,SPARK + AI 峯會(SAIC),於4月23-25日,在美國舊金山落下帷幕。
數據與人工智能需要結合:最佳的人工智能應用,需要有大量大規模持續更新的訓練數據,方能構建其最佳的數據模型,時至今日,Apache Spark已成爲獨特的一體化數據分析引擎,它集成了大規模數據處理和領先的機器學習與人工智能算法。
本次SAIC含蓋了數據工程與數據科學的內容,包括AI產品化的最佳實踐案例分享:超大數據規模下,利用流數據處理確保訓練數據更新的時效性,完成數據質量監控,測試以及數據模型服務。也有對流行的軟件框架如TensorFlow,SciKit-Learn,Keras,PyTorch,DeepLearning4J,BigDL以及Deep Learning Pipelines等,分別進行深入的主題分享探討。
除了Spark + AI主題外,本次峯會,爲開發者,數據科學家以及探尋最佳數據與人工智能工具來構架創新型產品的技術實踐者們,提供了一站式交流的獨特體驗,超過了5000名來自世界各地的工程師,數據科學家,人工智能專家,研究學者以及商務人士,加入到了這3天的深度交流與學習中。
| SAIC主題分享包括瞭如下內容:
- Apache Spark的下一步計劃
- 機器學習產品化的最佳實踐
- 用MLflow來管理機器學習生命週期
- 最新的機器學習與深度學習框架進展
- 數據與人工智能一體化數據分析平臺
- 人工智能應用實踐案例分享
- Apache Spark的應用案例分享
- 結構化與持續流數據處理應用
| 分論壇也提供爲來自不同技術背景人士提供了多樣化的議題選擇:
- 人工智能
- 數據科學
- 深度學習技術
- 機器學習產品
- 開發者
- 企業專場
- Python與高級數據分析
- 前沿學術研究
- 技術實現深入探討
- Apache Spark應用與生態