基於大數據平臺開發工作總結

大數據開發

  大數據開發,有幾個階段:

    1.數據採集【原始數據】

       2.數據匯聚【經過清洗合併的可用數據】

               3.數據轉換和映射【經過分類,提取的專項主題數據】

               4.數據應用 【提供api 智能系統  應用系統等】

  數據採集

  數據採集有線上和線下兩種方式,線上一般通過爬蟲、通過抓取,或者通過已有應用系統的採集,在這個階段,我們可以做一個大數據採集平臺,依託自動爬蟲(使用python或者nodejs製作爬蟲軟件),ETL工具、或者自定義的抽取轉換引擎,從文件中、數據庫中、網頁中專項爬取數據,如果這一步通過自動化系統來做的話,可以很方便的管理所有的原始數據,並且從數據的開始對數據進行標籤採集,可以規範開發人員的工作。並且目標數據源可以更方便的管理。

        數據採集的難點在於多數據源,例如mysql、postgresql、sqlserver 、 mongodb 、sqllite。還有本地文件、excel統計文檔、甚至是doc文件。如何將他們規整的、有方案的整理進我們的大數據流程中也是必不可缺的一環。

        數據匯聚

  數據的匯聚是大數據流程最關鍵的一步,你可以在這裏加上數據標準化,你也可以在這裏做數據清洗,數據合併,還可以在這一步將數據存檔,將確認可用的數據經過可監控的流程進行整理歸類,這裏產出的所有數據就是整個公司的數據資產了,到了一定的量就是一筆固定資產。

        數據匯聚的難點在於如何標準化數據,例如表名標準化,表的標籤分類,表的用途,數據的量,是否有數據增量?,數據是否可用? 需要在業務上下很大的功夫,必要時還要引入智能化處理,例如根據內容訓練結果自動打標籤,自動分配推薦表名、表字段名等。還有如何從原始數據中導入數據等。

  數據轉換和映射

       經過數據匯聚的數據資產如何提供給具體的使用方使用?在這一步,主要就是考慮數據如何應用,如何將兩個?三個?數據錶轉換成一張能夠提供服務的數據。然後定期更新增量。

       經過前面的那幾步,在這一步難點並不太多了,如何轉換數據與如何清洗數據、標準數據無二,將兩個字段的值轉換成一個字段,或者根據多個可用表統計出一張圖表數據等等。

       數據應用

       數據的應用方式很多,有對外的、有對內的,如果擁有了前期的大量數據資產,通過restful API提供給用戶?或者提供流式引擎 KAFKA 給應用消費? 或者直接組成專題數據,供自己的應用查詢?這裏對數據資產的要求比較高,所以前期的工作做好了,這裏的自由度很高。

        

  總結:大數據開發的難點

       大數據開發的難點主要是監控,怎麼樣規劃開發人員的工作?開發人員隨隨便便採集了一堆垃圾數據,並且直連數據庫。 短期來看,這些問題比較小,可以矯正。 但是在資產的量不斷增加的時候,這就是一顆定時炸彈,隨時會引爆,然後引發一系列對數據資產的影響,例如數據混亂帶來的就是數據資產的價值下降,客戶信任度變低。 

       如何監控開發人員的開發流程?

       答案只能是自動化平臺,只有自動化平臺能夠做到讓開發人員感到舒心的同時,接受新的事務,拋棄手動時代。

       這就是前端開發工程師在大數據行業中所佔有的優勢點,如何製作交互良好的可視化操作界面?如何將現有的工作流程、工作需求變成一個個的可視化操作界面? 可不可以使用智能化取代一些無腦的操作?

  從一定意義上來說,大數據開發中,我個人認爲前端開發工程師佔據着更重要的位置,僅次於大數據開發工程師。至於後臺開發,系統開發是第三位的。好的交互至關重要,如何轉換數據,如何抽取數據,一定程度上,都是有先人踩過的坑,例如kettle,再例如kafka,pipeline ,解決方案衆多。關鍵是如何交互? 怎麼樣變現爲可視化界面? 這是一個重要的課題。

  現有的各位朋友的側重點不同,認爲前端的角色都是可有可無,我覺得是錯誤的,後臺的確很重要,但是後臺的解決方案多。 前端實際的地位更重要,但是基本無開源的解決方案,如果不夠重視前端開發, 面臨的問題就是交互很爛,界面爛,體驗差,導致開發人員的排斥,而可視化這塊的知識點衆多,對開發人員的素質要求更高。

 

大數據治理

  大數據治理應該貫穿整個大數據開發流程,它有扮演着重要的角色,淺略的介紹幾點:

               數據血緣

               數據質量審查

               全平臺監控

        數據血緣

  從數據血緣說起,數據血緣應該是大數據治理的入口,通過一張表,能夠清晰看見它的來龍去脈,字段的拆分,清洗過程,表的流轉,數據的量的變化,都應該從數據血緣出發,我個人認爲,大數據治理整個的目標就是這個數據血緣,從數據血緣能夠有監控全局的能力。

        數據血緣是依託於大數據開發過程的,它包圍着整個大數據開發過程,每一步開發的歷史,數據導入的歷史,都應該有相應的記錄,數據血緣在數據資產有一定規模時,基本必不可少。

        數據質量審查

         數據開發中,每一個模型(表)創建的結束,都應該有一個數據質量審查的過程,在體系大的環境中,還應該在關鍵步驟添加審批,例如在數據轉換和映射這一步,涉及到客戶的數據提供,應該建立一個完善的數據質量審查制度,幫助企業第一時間發現數據存在的問題,在數據發生問題時也能第一時間看到問題的所在,並從根源解決問題,而不是盲目的通過連接數據庫一遍一遍的查詢sql。

        全平臺監控

         監控呢,其實包含了很多的點,例如應用監控,數據監控,預警系統,工單系統等,對我們接管的每個數據源、數據表都需要做到實時監控,一旦發生殆機,或者發生停電,能夠第一時間電話或者短信通知到具體負責人,這裏可以借鑑一些自動化運維平臺的經驗的,監控約等於運維,好的監控提供的數據資產的保護也是很重要的。

 

大數據可視化

   大數據可視化不僅僅是圖表的展現,大數據可視化不僅僅是圖表的展現,大數據可視化不僅僅是圖表的展現,重要的事說三遍,大數據可視化歸類的數據開發中,有一部分屬於應用類,有一部分屬於開發類。

       在開發中,大數據可視化扮演的是可視化操作的角色, 如何通過可視化的模式建立模型? 如何通過拖拉拽,或者立體操作來實現數據質量的可操作性? 畫兩個表格加幾個按鈕實現複雜的操作流程是不現實的。

       在可視化應用中,更多的也有如何轉換數據,如何展示數據,圖表是其中的一部分,平時更多的工作還是對數據的分析,怎麼樣更直觀的表達數據?這需要對數據有深刻的理解,對業務有深刻的理解,才能做出合適的可視化應用。

       智能的可視化平臺

        可視化是可以被再可視化的,例如superset,通過操作sql實現圖表,有一些產品甚至能做到根據數據的內容智能分類,推薦圖表類型,實時的進行可視化開發,這樣的功能纔是可視化現有的發展方向,我們需要大量的可視化內容來對公司發生產出,例如服裝行業,銷售部門:進貨出貨,顏色搭配對用戶的影響,季節對選擇的影響   生產部門:布料價格走勢?  產能和效率的數據統計?  等等,每一個部門都可以有一個數據大屏,可以通過平臺任意規劃自己的大屏,所有人每天能夠關注到自己的領域動向,這纔是大數據可視化應用的具體意義。

 

寫在最後

        未來的幾年,希望自己繼續努力工作,主業後端開發,另外,一有時間多學學大數據開發、人工智能方面的知識,這是未來,也是方向。

         最後,和大家共勉,更希望大家能給一些規劃建議,三人行,必有我師焉,謝謝。

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章