爲了不被踢出AI的隊伍,視覺深度模型都開始接私活了

  只要是成熟且完成度較高的技術,慢慢就不會被大家當做智能來看待了。

  比如我問身邊的老母親老父親老阿姨們,手機指紋解鎖、手寫輸入、地圖導航、遊戲NPC、美顏相機等等是不是人工智能,他們紛紛流露出了質疑的小眼神兒:

  這麼常見樸素不做作,怎麼能是AI呢,最起碼也得挑戰一下那些看起來不可能完成的任務吧,比如能撒嬌的智能客服,360度旋轉跳躍閉着眼的機器人,掃一眼就能看病的大白,動不動就血虐人類的智能體什麼的。

  行……吧……如此看來,最“危險”的要數計算機視覺了。

  估計再過不久,人臉識別、看圖識物、假臉生成,就要被“開除”出AI的隊伍了。

  近年來,深度神經網絡徹底升級了計算機視覺模型的表現。在很多領域,比如視覺對象的分類、目標檢測、圖像識別等任務上,深度神經網絡(Deep Neural Network,DNN)完成的比人類還要出色,相關技術解決方案也開始頻繁出現在普通人的生活細節之中。

  這就夠了嘛?並沒有!視覺模型表示自己除了在圖像任務裏很好用,非圖像任務也是一把好手。

  前不久,深度學習開發者,Medium知名博主 Max Pechyonkin在其博客中,介紹了將視覺深度學習模型應用於非視覺領域的一些創造性應用。

  咱們就通過一篇文章,來了解一下求生欲極強的視覺模型是如何在其他領域發光發熱的吧。

  生活不易,DNN賣藝

  由於有遷移學習和優秀的學習資源,DNN在計算機視覺領域的應用落地遠超於其他任務類型。

  加上各種開放平臺和公開的預訓練模型加持,任何人都可以在數天甚至數小時內,將視覺深度學習模型應用於其他領域。

  兩年前,就有外國農民開發出了自動檢測黃瓜的智能程序,北京平谷的桃農也用上了自動檢桃機。

  背後的技術邏輯也很容易理解:先選用一個簡單的卷積神經網絡(CNN)模型(可以在開放平臺上輕鬆地找到),將各種帶有標籤的圖片扔進去,跑出一個baseline,主要是爲了確定數據集是否合適,圖像質量和標籤是否正確,需不需要調試等等。

  OK以後,就可以投喂處理過的圖像數據集了,一般圖像越多、標註質量越高,模型的性能和準確率就越好。

  聽起來是不是學過高中數學就能搞定?

  既然技術門檻並不高,其應用範圍自然也就被無限延伸。面對很多非視覺類的原始訓練數據,視覺模型也表示“不慫”。

  其中有幾個比較有意思的應用案例:鄭州婦科醫院:http://mobile.zzchxb110.com/

  幫石油工業提高生產效率

  石油工業往往依賴於一種名叫“磕頭機”的設備開採石油和天然氣,通過遊樑活動讓抽油杆像泵一樣將油從地下輸送到表面。高強度的活動也使抽油機極容易發生故障。

  傳統的故障檢測方式是,邀請非常專業的技術人員檢查抽油機上的測功計,上面記錄了發動機旋轉週期各部分的負載。通過卡片上的圖像,判斷出哪個部位出現故障以及需要採取什麼措施來修復它。


發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章