人工智能已經淪爲刷榜,刷論文的時代了? 新一代人工智能,認知智能已經來臨。道翰天瓊。

人工智能和深度學習技術風靡全球,盲目追風之下我們需要一場深刻的反思,到底什麼是人工智能?深度學習能爲我們帶來什麼?

AI 領域專家Filip Piekniewski 非常尖銳地指出了當下 AI 發展的問題:

一方面,深度學習給 AI 領域帶來了巨大的成功,然而尚且無法實現像人一樣擁有常識的 AI ,而對於這一點,多數 AI 研究者頗有些心照不宣地視而不見,沉浸在刷榜和發Paper 中。

另一方面,AI 似乎也被自身的成功所綁架,甚而成爲自身成功的犧牲品。

對此, Piekniewski 基於自身在 AI 領域摸爬滾打數十年的經驗,以及自身的思考,從 AI 應用和科研兩個方向給研究人員提出了一些方法論建議,他調侃爲發展 AI 的“不扯淡”的人工智能方法論("no bullshit" approach to AI)。

 

1

 

 

 

 

序言

不知道爲啥,評論區裏的讀者童鞋們老說我的文章帶有那麼一內內批判色彩……好吧老鐵,我承認我挺Mean的,額行行行…我承認我特別的憤世嫉俗。所以在大概兩三年前,我決定洗心革面,重新做人!致力於做一個高尚的人、純粹的人、有道德的人、脫離低級趣味的Up主。因此我稍微的轉換了一下我的行文風格,開始寫一些有實際建設性內容的文字,讓讀者童鞋們深入地瞭解到,其實我還是一個很有思想的數據科學家,而不是一個披着學者外皮的憤青~ 

其實說真的,我在博客上的那些炮轟其實只是正文的一個調劑品,大家多多關注文章的主體內容嘛。(順嘴一說,那些被我炮轟的傢伙本身就活該,他們腦袋怎麼想的,成天的瞎炒作亂恰飯,一天到晚胡說八道。) 

但是話說回來,不論如何我也算是在人工智能、機器人和神經網絡領域混跡了十來年的老油條了,對這幾個領域還是有些發言權的。想當年咱也是發了不少Paper、披着大紅袍讓人叫X博士的主兒。

但當年在我讀博的時候,人工智能領域還是一片荒蕪,所以我的AI學習之路和現在的小夥子們有些不同,這也就直接導致了我能從一些不同的角度對人工智能的發展進行評價,也可以提出一些不尋常的觀點。

哦對了,我先給那些沒看過我簡介的童鞋做個自我介紹哈。想當年在神經網絡和連接主義(connectionism)還沒有大殺四方的時候,我就開始對它產生了濃厚的興趣。甚至因爲研究的有點多,都開始膩煩它了。在那幾年,我在數學、計算科學和神經學這個交叉方向上深刻鑽研,並且嘗試了各種基於神經科學、生物科學的計算模型。但是很遺憾,最終的收穫寥寥。於是在接下來的幾年裏,我轉而開始研究機器人領域。但是好景不長,沒幾年項目又黃了。接着,我獲得了DARPA的項目資助,提出了PVM(Predictive Vision Model,預測視覺模型)模型,並致力於計算機視覺的研究。直到今天,我的項目組還在研究基於視覺的無人超市場景。

這麼多年以來,我經歷了人工智能的潮起潮落,見證了本來沉寂的神經網絡方向風起雲湧。但是就像大家看到的一樣,人工智能領域充斥着“刷榜”和“刷分”的浮躁氣氛,在我眼裏看來,它們都太“扯淡”了!各種研究一味追求在某些數據集上的精度而不去關注這項技術爲人類帶來的便利和幫助。所以在這篇文章裏,我想跟大家聊聊我個人對於人工智能的一些看法和研究進展,我將它稱作發展 AI 的“不扯淡”的人工智能方法論。

 

  

2

 

 

 

人工智能,本質是爲何?

我們知道,人工智能、深度學習、機器學習這些名詞再唬人,它背後也就是一個計算機程序。這些程序產生的方法可能千奇百怪,有的是用專家系統,有的是用SVM,有的用深度網絡。但是不論如何,往深處剖析起來,它們都是一行行的代碼,都只是按照個規則運行在計算機上的0、1字節。

有人可能會問,這個大家都明白,你說這個幹嘛? 

其實我想說,我接觸到的很多讀者都會神化神經網絡,覺得它跟一般的軟件不同,就好像我們將一段代碼稱爲神經網絡的時候,它就具有了某種“靈性”,它的計算就會變得十分神祕而不可捉摸。

但事實並非如此,神經網絡也是有侷限性的,並且這個侷限性是隨着設計與生俱來的。不是說我們給神經網絡配置個更高配的GPU、提供更多的算力,它就能大力出奇跡、洞悉世間萬物。

這時候可能就有小夥伴問了,那你能解釋神經網絡爲什麼有效嗎?

確實,現在神經網絡的可解釋性研究還很初級,我們無法用人類能夠理解的方式去對神經元之間的交互進行闡釋,但是我們能夠從更泛化的角度去預期網絡的能力。比如在處理高清圖片的時候,使用和GTA V相同算力的神經網絡模型的渲染性能會更好。當然它的這點能力肯定不夠去進行復雜視覺場景的理解和推理,因爲圖像渲染的工作比較固定,算法優化做的更好,但是理解和推理計算需要大量的反向操作,這個目前還是很難優化的。

那麼神經網絡是怎麼搭建出來的呢?在說它之前,我們先退一步看看計算機程序一般都是如何設計出來的。

首先第一種方式,就是程序猿們根據業務需求手工設計。

當我們可以很明確地知道某個程序的任務、業務流程和業務邏輯的時候,手工設計是最好的解決方案。它能夠通過一個算法、一個個數據結構和一系列清晰的操作對每一種情況進行處理,從而完美解決我們的業務需求。大多數的工業自動化軟件都是這樣設計的,比如我們常用的文本編輯器、修圖軟件、輸入法和瀏覽器等都是如此。

但是這種方法的缺點顯而易見,就是需要有大量的程序猿對業務進行分析、拆解、設計和實現,這樣的人力成本通常是很高的。而且就算程序猿們完成了軟件的開發,它最終能不能上線、到底好不好用、邊界條件下的可用性等等問題都要進行更深一步的驗證纔行。而這些驗證工作通常又要花費10餘倍於開發的成本,其中包括各種嚴格的測試和形式化檢查。而且即便經過了如此嚴苛的審查,我們也無法保證這個程序不出現bug,所以軟件的維護成本仍舊高昂。

爲了改變這種無奈的情況,在上個世紀80年代,人們提出了軟件設計的另一種概念:專家系統。這種方法中,一個程序是由高級邏輯規範所生成的。這就是專家系統和函數式編程。 

在這種開發理念中,程序猿不必要細緻入微地手寫代碼來告知程序如何解決問題,而只需要用非常形式化的邏輯語言,比如Prolog,來描述問題。接下來,專家系統和函數式編程軟件就能根據這個問題的描述將其轉化成機器可以執行的代碼,並且解決問題。 

這種方法的好處在於,程序猿其實不用知道如何去解決這個問題,他只要能夠描述這個問題就行了。在這種編程中,只要程序員描述問題的方式正確,那麼原則上這個程序就沒有bug,它的處理正確性和操作的規範性也就相應可以得到保障了。其實,這種編程思想是“元編程”的一個例子。其中,專家系統需要保障在任何時刻都能對所輸入的形式化問題描述進行完美和正確的反饋。

但很可惜,這種願景從來沒有實現過。原因很簡單: 

首先,我們無法保證使用高層級的聲明性描述式的語言能夠準確地表達問題,它的準確性和對業務描述的粒度遠不及底層編程語言細緻。在實踐中,我們經常能發現在一些邊界條件下,高等級的描述語言含糊不清,對問題根本沒有解決的思路或者啓發,這是十分致命的。寫過代碼的童鞋都知道,程序的運行規則和程序代碼本身應該是相輔相成的,就類似於作曲和演奏之間的關係一樣:貝多芬能夠光用筆桿子和五線譜完成一篇交響曲,而普通人要是沒有鋼琴可能一個小節的音樂都寫不利索。 

其次,能夠用專家系統解決的問題種類和數量十分有限。但是話說回來,專家系統並非一無是處,它爲後世留下了一些十分優秀的遺產,比如Lisp、Closure、Prolog、Maple和Mathematica等軟件。

第三種方式,基於數據自動生成計算機程序。我們將這種方法稱爲“機器學習”。機器學習是一個複雜的交叉學科,是很多統計學和優化論等等尖端方向組合而成的方向。

這種方法已經存在了很多年,至少可以追溯到上個世紀60年代。那時候Rosenblat通過反向傳播算法提出了Vapnik支持向量機,而反向傳播方法則由 Rumelhard、Hinton和Williams 發揚光大。但其實在他們之前的十年左右,Paul Wobbos就已經將這項技術研究的差不多了。

反向傳播的思想通常是和連接主義有關。連接主義是一種設計思想,它是指將一個特別大而且複雜的計算分散成許多小的、互相連接的、由諸多簡單神經元分散計算並最終集成的解決思路。這種想法其實在很大程度上受到了人腦神經元結構的啓發,但是在實現和具體運行的形式上則是受到Conway的Game of Life、細胞自動機和Hopfield網絡(後來發展成了玻爾茲曼機)的影響更大。

在機器學習的範式中,輸入的數據驅動着模型的生成。機器學習方法通過數據描述着模型的規則,它利用可塑可延伸的模型參數(本質上是某種數據結構)來構建模型的結構和變量。例如,在簡單的線性模型中,我們可以通過一個點積操作和非線性激活操作修改分類器的超平面,使其能夠根據數據集中樣本的分佈特點實現標籤的分類。又例如,一個神經網絡可以根據輸入的幾百萬張圖片學習圖像中的樣本模式,並且對其中的物體進行分類和識別。

基於機器學習的程序設計方法在誕生之初飽受詬病,人們說它不切實際、可擴展性差、參數量太大、計算量需求過高等等。但是不可否認,機器學習方法的優點更加引人注目,就是它搶了程序猿的飯碗——我們不再需要那麼多實現規則的碼農,也不再需要成百上千的測試團隊了。在機器學習方法看來,最重要、也是唯一需要的就是數據!而數據的成本相對於動輒四五十萬年薪的碼農來說就顯得十分低廉了(雖然它需要人類標記)。 

除此之外,機器學習方法的另一個好處是,它具有一定程度的可擴展性(儘管這種可擴展性是有嚴格的前提限制的)。其實回頭望去,在過去的十餘年間,深度學習就是在人們對機器學習的可擴展性研究,以及深度模型識別能力研究這兩個方面共同作用的產物。

當然了,天下沒有免費的午餐,使用深度學習的時候我們也要付出一些額外的代價。那就是當網絡十分龐大、參數量急劇增加的時候,人們幾乎不可能理解網絡的工作機制,它開始變得像一個黑盒。這個黑盒是怎麼成功運行的是個迷,它爲什麼失敗還是個迷。所以其實換個角度來看,在很多方面,神經網絡是專家系統的一個對立面。

神經網絡 專家系統 手動編程
依賴大量數據,數據集裏面可能摻雜着很多髒數據 使用形式化的問題描述範式 需要事無鉅細的算法規則(可能包括不少冗餘和無效的規則)和少量的樣本
非常不透明,就是個黑盒,沒辦法保證模式的可解釋性和有效性,也無法界定能力範圍 具有一定的不透明性,但是通常會給出非常嚴格和強大的限制條件,以及操作條件 具有極佳的可解釋性和穩定性,雖然無法保證程序的可靠性,但是經過細緻的軟件設計和複雜的單元測試後,軟件的可用性能夠基本得到保證
適用於中等水平的並行化計算,主要應用在配置了GPU的單指令多數據流(SIMD)服務器場景(就是使用一條指令來控制多個處理器) 可以進行並行計算,但輸入規範的複雜性通常限制該程序的大規模應用 大多數計算是不併行的,因爲業務流程和人類設計的算法流程通常都是串行連續的。程序猿們通常不擅長編寫並行計算程序,除了那些特別簡單和淺顯的場景
擅長對數據進行低層級的神經元計算,但是對於符號主義的計算、符號主義的關聯研究以及基於符號主義的問題解決等方面的可解釋性和可研究性較差 十分適合符號主義的相關問題研究,但是在其他方面都不行 同時兼顧了底層數據的利用以及基於符號主義的研究。這也是目前爲止計算機領域可以完美解決的少數問題之一,這種問題的特點是完全由人類進行清晰的定義和控制
需要由博士童鞋們領銜製作,或者起碼也得是個機器學習方向的本科生才能做,因爲機器學習方法需要各種複雜的理論知識,也需要對數據進行各種技巧化的處理,處理中還得對數據進行大量的標記工作 需要一個學習過形式邏輯學的數學家來描述問題,而且他還得會編程,也要擅長使用函數式編程語言……要求有點高哈,總之在我身邊是沒見過這種大神 需要一隻特別有經驗的程序猿,可是話說回來,都那麼有經驗了誰還幹這個活兒……
做一些比較簡單的案例還行,但是對於一些複雜的需求而言,可能要付出比較高昂的代價,不論是人力成本、標記成本還是算力成本上都是如此 巨貴!因爲現在幾乎沒有精通此道的大神 除非你能找到一個特別聽話、跟你關係特別鐵、能夠承受住你無限咆哮、面對瞬息萬變的需求修改還能和顏悅色的老鐵幫你監督和檢查代碼,並且他還心甘情願地幫你寫一些幾乎無法維護的爛代碼,否則這麼設計軟件成本絕對不低

 

 

3

 

 

 

神經網絡是一個黑盒,又意味着什麼?

在實踐中,我們得到一系列的需求,需求描述了要解決的問題,根據此我們寫代碼解決問題。但問題是,我們拿到手的需求案例或者設計規則真的已經涵蓋了這個軟件功能的方方面面了嗎?有沒有漏掉一些什麼? 

根據我多年以來的掉坑經驗,我認爲是有遺漏的。如前文所述,當前的機器學習方法和專家系統方法在某種意義上是對立的,但是在Gary Marcus的眼中它們卻是互補的。這種觀點其實很有意思,我們稍後具體介紹。 

我部分同意這種觀點,但是我覺得它們兩者之間還存在着一個巨大的鴻溝——一個類似於連接主義的架構橋樑。這種連接主義架構可以用來開發更高級別的符號主義輸入,並且能夠像專家系統一樣對這個符號主義輸入進行操作。這個過程有點類似於人類對自身的經歷所做的總結和後續的修正操作,也就是所謂的喫一塹長一智。我們在生活中能夠得到源源不斷的來自外界的輸入信息,其中可能有低層級的原始數據、髒數據和具有符號主義特點的抽象數據等輸入。作爲人類,我們天然地能夠對它們進行分拆、提取和理解,並且也能夠以類似於符號主義的處理方法,或者採取一些不那麼正規的方式對其進行解決。

這種人類處理事物的方式值得計算機程序效仿,雖然具體的如何在神經網絡中實施還是個問題。但是直觀上來說,要達到這個目的,我們首先要將深度學習網絡和專家系統組合拼接在一起,其實這個思路已經初步得到實踐了,比如 AlphaGo,還有很多機器人控制系統(包括幾乎所有的自動駕駛汽車)等等都是利用了這種設計思想。雖然有不少人嘗試從其他方面來解釋這些應用成功背後的原因,但不可否認的是,它們都是基於深度網絡和專家系統的融合思想所設計而成,而這種混合模型的設計思路功不可沒。

關於Gary Marcus 的觀點,請戳這裏查看詳情:https://arxiv.org/pdf/2002.06177.pdf

深度學習的功能在很大程度上侷限於感知和識別,比如識別紅綠燈、檢測到路人等等。這些感知結果和識別結果會根據事先設計好的基於規則或者基於符號的指派映射到一些後續的操作上。比如當檢測到紅燈時需要停車,檢測到行人要讓行等。但是當前,這個連接深度網絡和符號化規則的橋樑是很傻很天真的,它們試圖將兩個抽象距離很遠的、幾乎不相關的世界融合到一起。

根據我的研究經驗,我認爲在這兩個世界之間可能存在着一種多個層次的概念混合連接符號系統。這些符號系統能夠逐步地對輸入的數據進行更抽象的提取,並且輸出一些更加抽象的符號信息以提供給後續的操作。我覺得這個橋樑能夠自動實現識別任務和執行規則之間的關聯和映射,而這種關聯映射恰好就是人類能夠理解的“常識”性經驗。

然而在現在的研究中,深度學習和專家系統這兩個系統都獨立運行,它們之間的連接十分脆弱:深度學習的問題在於它無法獨立解決所有的問題,而我們的問題在於無法爲專家系統提供任何有意義、可被利用和理解的量化方法(可以參考CYC的失敗案例)。換句話說,前端的深度學習網絡功能太過單薄和單一,它無法執行任何複雜的推理工作;而專家系統的處理層級太高,它的性能會嚴重受制於所輸入的形式化語言。在深度學習前端和專家系統後端之間,仍舊需要一些別的東西作爲橋樑,來讓他們彼此的交互暢通無阻。

 

 

4

 

 

 

深度學習和符號主義間的橋樑

我認爲,想要將深度學習和符號方法完美結合起來,最需要解決兩方面的問題: 

第一,我們在腦中思考一個事物的時候,通常不會在乎它的細節,所關注的更多是它的高層次“符號”。

比如在說到一個人闖紅燈的時候,人們腦海中的“符號”通常是一個人走在亮起紅燈的斑馬線上。沒人會去關心ta是男是女、頭髮顏色如何、養的小狗是京巴兒還是哈士奇。但這些“符號”其實都只是數據的冰山一角,它們都是底層數據的抽象,是一種很高層次的對事物的描述。

我們會選擇性地忽略很多低等級的符號信息,而更多的關注於所關心事物的高級符號。但是低等級符號信息的存在和利用仍然是算法數據分析的必要步驟。就比如在計算機視覺領域中,圖像中天然地存在着描述事物陰影的特徵存在,而這些特徵是很低等級的,它們和最終的物體識別或定位任務可能並不十分相關。這些低等級的符號能夠用於表達觀察環境的動態穩定性、描述場景中運動的連貫性或者表示事物邊界的所有權。這些低等級的符號對於系統的識別任務並不直接相關,我們也不會費心費力地用語言去描述它們,因此人們會自然地忽略他們、認爲他們沒有什麼象徵性。

既然我們不在乎這些特徵符號,我們就不會將它們作爲後續處理的依據:深度學習處理方法會給他們特別低的權重甚至直接忽略,而專家系統得到這些描述的輸入自然也就沒有意義。這些低等級的符號可能組合地描述出一些高等級的特徵,但我們只需要保留並利用那些高等級的信息即可,不必將其保留並傳給後續的操作。算法只要保留它們之間最基本的統計關係和統計計算結果就足夠了。 

第二,高等級的符號和對應的誤差不會反向地傳遞給低層次的感知網絡。比如我們的底層感知系統可能在同一個畫面中檢測到兩個矛盾的物體(秦瓊和關公),而基於規則的高級符號操作器一看,這個不對啊,這兩位是不同朝代的人物啊,不可能同時出現的。但是即便如此,按照現在的技術,這個錯誤檢測的信息也無法從高等級符號操作器返回給低層次的感知網絡來幫助修改它,甚至這個信息都沒能用來給感知網絡做消歧或找到錯誤根源。但其實在人腦的構造中,我們擁有這種高等級向低等級的反饋機制。在無數的粗加工符號特徵的基礎上,我們不斷地試圖修改感知和意識模式,從而消除感知內容上的歧義和衝突。

但是回到神經網絡上,這種高低級處理系統上的通信的不連續性會導致很多問題,即使我們將傳遞的抽象符號加以調製,但它們在抽象世界中所表達的意義和所代表的事物仍然有可能相去甚遠。尤其是在深度網絡中,想要解釋一個特徵或者高等級符號的意義十分困難,因此相應的消歧或衝突的解釋則更是難上加難了。

這就是我認爲這種高低層次間混合的方法無法跨越“常識”障礙的兩個最主要的原因。雖然在實踐中我們能夠偶爾看到一些成功的混合案例,但是它們都是基於特定領域的人工智能應用,而且好像如果我們不混合的話,也沒別的更好的解決辦法了。說真的我並不反對這種做法,前提是這麼做得確實行之有效纔行。

 

5

 

 

 

關於人工智能發展的建設性方法論

那說了這麼多,我們現在如何將其進行轉化呢?它到底能不能在工業界、在生活中得到廣泛應用呢?在談論這些之前,我們要知道人工智能的實際應用有兩種重要的思路:第一種是工業界中廣泛採取的辦法,就是以實際需求和商業需求爲驅動的發展和應用;而第二種是以科研機構和高校爲領頭羊的科研路線,這種路線相對而言更加困難,投入也相對更加長期。

我們千萬不要將它們混爲一談,它們是兩種截然不同的思路,甚至彼此對對方的態度都略有鄙夷:在工業界打拼的應用人員眼中,研究所裏的老學究們整天都在搗鼓一些不切實際的問題,灌水刷分亂嘗試,投入大量精力做了一堆沒用的科研產出。而在研究所的老教授眼裏,這幫在公司裏成天咋咋呼呼有病亂投醫的程序猿們太過粗鄙,得過且過地擺弄着一些陳芝麻爛穀子的技術,堆砌地以KPI爲目標完成任務,麻麻賴賴、不圓潤!

我們要知道,其實兩者各有利弊。科研是先鋒的,能夠從根源上近乎完美地解決很多世紀難題,但是它的轉化率極低,一千篇論文中有一個能夠得到廣泛應用就已經謝天謝地了。而工業界是實幹派,要求一打一個準兒,儘量彈無虛發,但是它的應用和理論基礎就顯得十分薄弱了,可優化的空間和漏洞也會不免避免地增多。

所以我們在未來可能會發現一個很無奈的現象,就是科學方面的大多數成果都不能得到商業化;而那些商業上取得了巨大成功的方法,在科學家的眼中看來都是一些相當愚蠢的垃圾(就像建築師眼中的Frankenstein式建築,它雖然十分實用,但沒有任何獨創性設計,僅將古今中外的建築風格融爲一體) 

1、AI 如何商業化?

如果你想將一項人工智能技術實際應用於商業項目中,你首先需要踏踏實實地審視這項技術,並捫心自問:這個技術能幹嘛、它真的適合這個工程場景嗎?咱不能爲了炫技而忽略了實用性。 

我們知道,機器學習技術從本質上來說就是統計學,所以統計學具有的問題,機器學習也不能免俗。雖然發展到現在,機器學習方法已經能夠實現很多人類手工或者通過符號系統很難解決的任務,但是機器學習方法有時候還會莫名其妙的“抽風”,出現一些不可預測的失敗。而且只要我們的輸入樣本稍微超出了系統訓練時的學習範圍,那機器學習模型就會對“超綱”的內容十分敏感和脆弱。

其中一個很典型的例子就是計算機視覺中有名的對抗性例子:我們只要對輸入的圖像進行一丁丁點點的擾動,比如增加無規則噪聲、疊加不明顯的其他圖像輪廓等,那深度學習模型就會變得極其不穩定,預測出一堆奇奇怪怪的結果。所以綜上所述,我們總結一下機器學習模型能夠解決和不能夠解決的任務: 

  • 不論是多麼高大上的機器學習模型,都是有其侷限性的,它會對實際輸入的某些“超綱”樣本產生不穩定甚至錯誤的預測,除非你能在訓練模型的時候就讓模型將所有的情況充足地學習到,而且還得保證實際數據分佈和訓練數據分佈獨立同分布(IID)。但如果你要能真正保證這一點,其實一些簡單的機器學習模型就足以勝任了,比如那些本來就足夠強大、足夠聰明的特徵提取方法,加上支持向量機(SVM)或者隨機森林(RF)就行了。或者更極端一點,你甚至可以通過自己寫規則算法的方式實現同樣的目的。 

  • 我們先假設任何基於機器學習的模型都會產生一些錯誤,這些錯誤可能只有百分之幾的出現概率。那我們首先要做的是確定這些錯誤是平均錯誤還是複合錯誤。如果它是一種平均錯誤,那還好,你的這的模型還是可以應用的。但是如果這個錯誤是複合錯誤,比如大多數的工業控制和機器人項目中出現的那些,那很抱歉,這個模型很可能就要GG了。 

  • 錯誤的多少是一方面,錯誤的嚴重程度和它引起的後續問題也需要深思熟慮。如果這些錯誤都是一些關鍵性的錯誤,比如一旦犯錯會造成巨大的經濟損失和名譽損失,或者這個錯誤會造成不可逆的傷害,那咱們還是得多多慎重!所以當一個錯誤是不可逆的、還無法將其平均化、這個模型還部署在一個開放的環境中,各種各樣的奇葩數據都有可能接踵而來,那老鐵,咱們的項目可能就會被它搞得一團糟。所以這也是我一直不看好自動駕駛汽車的原因,因爲它就是這麼一個部署在真實開放環境(大馬路)中、會隨時造成不可逆後果(車禍、違章)的、用人工智能控制(別瞅別人,特斯拉說的就是你)的典型案例。我們從一些商業報告上能夠看出,所有這些自動駕駛項目的回報率都在持續下降,而他們對應的實用性都很低,更不用說他們低的可憐的商業可行性了。 

  • 但是話說回來,如果這個錯誤是可逆的,而且代價不是那麼高,那這個技術就還有實際應用的機會。就比如說我正在研究的無人超市場景。在超市裏面,即便我們的監測系統出現了錯誤,這個錯誤也沒什麼大不了,充其量是丟了個東西,更何況工作人員可能在顧客出門的時候發現這個問題、在清點貨物的時候糾正這個問題,或者在顧客反饋的時候把這個錢給補上(誰那麼傻哈哈)。而且即使這個系統慘到只有平均95%~98%的識別準確率,那我們的超市仍舊是能夠盈利的。在印證無人超市的經濟可行性之前,它也無需遵循報酬遞減的漸近線就能達到99.99999%的可靠性。可謂是一個很完美的人工智能應用場景。 

值得注意的是,在目前的產品中,深度學習一般都僅應用於那些“非關鍵”的任務中。比如當你使用谷歌圖片搜索施瓦辛格的時候,偶然出來一張成龍的照片,沒啥人會太在意;當你使用谷歌翻譯的時候,偶爾得到一段廢話,也沒啥人上心;如果在瀏覽器的廣告框裏出現一些你根本不關心或者已經買過的產品的時候,你可能看都不看一眼;而當你的自動填充表單裏出現一些奇奇怪怪的內容的時候,你八成會刪掉他們重新填寫,無所謂;還可能當優酷推薦給你一些無聊的電影的時候,你也只會輕輕一笑,嘲諷一下這個傻缺推薦系統。

所有這些任務都是不重要的,都是“非關鍵性”的東西。但是,當你的特斯拉徑直撞向路邊一輛無辜的消防車的時候,那纔是一個大問題呢!

對了,我還必須要說,現在學術界有個風氣,就是嘗試用算法來減少傳感器的成本。比如一個本應該用5個攝像頭完成的任務,某個技術說我提出了個blabla高級網絡架構,用4個就能達到幾乎同樣的效果,降低成本啊老鐵,我厲害吧。

但是我的建議是,如果咱不缺這點兒錢,就千萬別閹割傳感器和數據源。這些聲稱自己多麼厲害的技術通常只在個別數據集上進行了驗證,它的適用性、魯棒性和計算成本都有待商榷。一個傳感器少則幾毛錢,多了也就幾百塊錢,增加不了太多的成本。但一不小心省了之後帶來的麻煩可能讓咱們吃不了兜着走。 

舉個例子,對,還是特斯拉。在自動駕駛車上,激光雷達傳感器是一種及其穩定和可靠的信號源,它能用來測車距、車速之類的,它就像汽車的眼睛一樣。激光雷達的價格也不是那麼貴,現在你隨隨便便花買個iPad都自帶了固定式激光雷達,汽車級的激光雷達器也沒貴到哪兒去,幾千美元怎麼都能下來。但是埃隆·馬斯克這位大哥固執地想將它去掉,想用炫技的算法僅利用攝像頭就做出同樣的感知。結果怎麼樣,玩兒砸了,特斯拉引起的車禍付出了人命的代價,特斯拉也因此被告上法庭。

有的讀者可能會說,幾千美元也是不少的錢了,人家爲了節約成本嘛。但是大哥您這可是售價上百萬的跑車啊,隨便一個輪輞就不止幾千美元了,省這個錢實在是讓人想不通。咱們退一萬步說,就算你的工程師十分十分確定說激光雷達器沒用,視頻能100%的達到同樣的效果,那如果你先不取消掉它,讓它在你幾百萬幾千萬臺車上採集數據,悄悄發回給你的後臺,你不就有了更多的標定數據了嗎?用這些標定數據你不就能更可靠的提升視頻模擬激光雷達算法的可靠性了嗎?等回頭當你們採集到各種路況、各種天氣和各種奇葩場景下的數據後,並且100%的確認激光雷達器可以被撤銷的時候,你再淘汰它,這樣不是更好嗎?爲了節省這一臺幾千美元的小錢,而讓顧客付出生命的代價,又要賠錢又要損失聲譽,得不償失啊!

總之話說回來,我們可以通過多部署傳感器(起碼不閹割)的方式輕鬆解決很多需要人工智能才能達成的任務。在實際中你會發現,其實傳感器的成本很低,在你龐大的利潤和聲譽積累面前低到可以忽略不計。它們不僅可以讓你擁有更加充足和全面的數據,也能讓你在解決問題時更加的遊刃有餘,從而提升機器學習模型的性能。

2、AI 科研怎麼做?

熟悉我博客的童鞋可能知道,我的文章一共就有兩個主題,第一個是介紹最新的科研進展,第二個是Diss那些傻缺的僞人工智能技術。說起這幫缺心眼兒的傢伙我就來氣,但是今天咱不跟他們置氣,把文章的重心放在更有建設性的科學方法和科學思路之上。至於那些看到這裏跳腳罵街、胡說八道的傢伙,如果您用的Windows請按Alt+F4、用的Mac OS請按Cmd+W、用的iPhone請雙擊home鍵上劃,出門左拐慢走不送(咋沒安卓?因爲我沒用過……)。

那麼說起如何高效地建立和使用機器學習方法,一個比較科學的方法是建立起一個高層級的符號表示方法,人類能夠自發地理解和操控這些符號,系統也能夠根據後端的反饋和變化積極地調整自身結構和參數,從而形成良性負反饋的“機器學習系統”。所以在這樣的系統中,一個重要的步驟就是後端向前端的反饋,以及大量的反饋重複。

換個角度,這樣的科學發展觀可以被看作是在原本自下而上的機器學習鏈條中引入自上而下的推理步驟。因此,爲實現這一目標,我推薦大家使用以下的幾個步驟:

首先你不要總是關心基準結果(Benchmarks)。基準結果僅在我們十分明確任務的目標,並僅關心要評估的標準時纔有用,它不是驅動我們設計人工智能算法的終極目標。在目前的計算機視覺領域,那些所謂的基準結果在很大程度上都是飽和的,或者說是有失公允的。它不能正確地指引我們設計出既合理又合適的算法結構,也不能指引我們正確地找到需要去優化的任務目標,它們只是刷分和炫技的成績單而已。在一些已經研究爛了的場景,比如ImageNet數據集上,人們可以有效地進行物體識別,但是對於其他計算機視覺場景和數據集來說,它們的發展還相當初級。

對於那些剛剛進入科研界的小夥伴們來說,他們需要證實自己的舞臺,需要展示自己的競賽,需要炫技來讓大家記住自己的機會。那這個時候,他們唯一的辦法就是在論文中瘋狂刷分,以基準結果作爲目標,想盡一切辦法對它進行哪怕0.01%的優化。在他們眼中,最重要的是得分,基準結果就是終極目的。他們幾乎不去關心算法的創意,只要是能從剩餘的基準結果中榨取哪怕一丁丁點點的剩餘價值,都是值得的。

所以很多大型科技公司使用很多奇葩而略顯齷齪的方法瘋狂刷分,比如動用成百上千塊的GPU進行愚蠢的元優化(Meta-Optimization)操作。這樣的操作的確能帶來精度上的提升,但是它不普適,性價比太低。這就好比職業遊戲玩家的處境一樣,他們在能夠自由操控遊戲角色撒歡玩耍之前,一定要經歷成千上萬次的基本功練習,重複某些枯燥而乏味的基礎操作,比如站在固定位置有效擊打目標敵人、以0.1m/s的移動速度有效擊打目標敵人、以0.2m/s的移動速度有效擊打目標敵人等。我的天,這是受罪還是玩遊戲啊。

同樣地,在學術界中,以Benchmark爲目標的刷分型研究,也只是一場無用的軍備競賽。

儘量選擇那些在抽象層級上跨度較小的任務。圖像分類任務其實是一個在抽象層級上跨度很大的機器學習任務。我們需要注意,機器學習算法所接觸到的數據只是我們餵給它的X和y,算法對X和y之間的關聯以及各自集合之中的主觀聯繫一無所知。它沒有像人類一樣在社會中摸爬滾打所積累下來的前置知識。

比如計算機的輸入圖像如果只是那些毛茸茸的真貓的話,當它面對一隻用泥捏的貓咪雕像的時候肯定一臉懵,認不出來。它甚至也無法識別出畫家精心繪製的小貓草圖。在算法的眼中,它不知道喵星人是什麼物種,不關心它們怎麼叫、怎麼睡覺怎麼看不起鏟屎官,也不知道那些跟貓有關的社會和環境關係。 

這些藏在人類潛意識中的前置知識不會出現在訓練集合中,也就不會出現在機器學習的網絡模型中了。就算訓練集中偶爾包含了這些環境信息,如果我們設計的算法沒有將這些信息以損失函數的形式提供給模型進行訓練的話,它們也會被忽略。因爲這些隱含信息和目標識別任務的跨度太大,相關性太低,有限的參數和權重會被優先用於檢測那些關聯性更強的特徵,比如圖中的物體有幾個鼻子幾個眼,小爪子粉粉真可愛之類的。只有這樣,模型才能增加算法識別的性能,也才能夠讓模型獲得更好的增益。

下面舉一些有意思的例子,來說明在哪些任務場景中的抽象級別跨度較小:

(1)自監督的圖像着色。我們可能會看到很多老舊的照片,由於當時攝影技術或成本限制,這些照片都是黑白的,沒有顏色。那我們可以通過自監督的圖像着色技術來讓這些老夥計們煥發出本來的色彩。

在訓練這樣的模型的時候,我們可以用手機拍一些彩色的照片,然後P成黑白色,將它們一起輸入給網絡來教會它進行顏色恢復。這個技術並不新穎,也有很多成功的應用,但這不失爲一個很好的練手項目。對了,在模型訓練完畢之後,我們可以運行一個對比程序,來查看自動着色的結果和原始圖片之間的差異。我們可能會發現,雖然自動着色的圖片和原始圖片之間存在一些差異,但是它們也很好看,也很自然,雖然不完美,但是足夠合理,也足夠能用。

(2)基於上下文的缺失數據填充。我們知道數據無處不在,但是由於傳感器採樣頻率、採集故障或者傳輸存儲等問題,數據中通常存在一些缺失問題。爲了保證數據集的可用性,基於上下文的數據填充就是一個有必要的應用。與其他場景不同,在這個應用中,模型需要學習和輸出的不再是一些高層次的標籤了,而是一些比較低層級的原始數據。這些原始數據也可以被稱作“前象特徵(Pre-symbolic)”數據。 

(3)學習數據產生的規則,並且創造一個對應場景的數據生成器。這種應用其實比較複雜,因爲我們需要去產生儘量貼近實際情況的僞數據。在計算機視覺的場景中,我們可以通過計算機圖形引擎來生成一些合成數據,但是這些合成數據畢竟是基於規則的,其真實性還是不能和鏡頭裏的真實圖像相提並論。我不太確定這個方向有沒有人試過,但是肯定很有意思。 

(4)檢測場景中的不和諧數據以及奇葩數據。在(3)的例子裏我們訓練了一個數據生成器。那反過來,爲了檢驗數據的合理性我們也可以設計一個數據合理性的檢驗器(有點類似GAN的思路哈)。比如在計算機視覺的場景中,如果大多數圖像的影子都朝向東邊,突然有一隻小狗的影子朝南了,這種不和諧的特徵就會被算法捕捉到,並且觸發識別響應。

(5)檢測鏡子和鏡像。在鏡子面前我們習以爲常,我們怎麼動,鏡子裏的象也會怎麼動。我們知道鏡子的物理性質,知道它獨特的反射規則。所以在照鏡子的時候我們很輕易的就能將真實的物體和鏡子裏的物體區分開(作者你是真沒撞到過鏡子牆嗎……回憶起來我鼻子就疼)。但是對於深度學習網絡來說,區分物體和鏡像就沒那麼容易了,但是一旦訓練成功,你會覺得特別神奇。那爲了訓練這樣一個深度模型,我們還是需要大量的新數據,而這些新數據也是能夠通過渲染軟件輕鬆獲得的。

(6)檢測圖像的對稱軸。跟鏡像的場景很類似,但在這裏我們要檢測的是輸入圖像中是否存在着一個明確的對稱軸。就比如下圖中,左邊的這張圖裏就有一個斜向左下的對稱軸。對稱軸右邊的圖像是正常的,對稱軸左側則是右邊的對稱像。這個識別任務在人類的眼中簡直是小兒科,只需要草草一瞥,分分鐘就能找到對稱軸。 

但是這個任務對於深度網絡來說還是有些困難的,因爲從低層級原始數據的角度來看,這種對稱的關聯不易被捕捉到。模型需要組合若干底層的特徵組合形成幾何級的中高層特徵,並從中高層特徵的角度對輸入圖像進行審視才能發現對稱的中心和對稱軸的方向。我覺得這個場景挺有意思的,準備自己動手試試實現一個。雖然我沒具體調研,但是我敢肯定現在已經有的計算機視覺深度網絡都會在這個任務面前敗下陣來!

 

(7)隨便再想一些類似於上述場景的任務,然後將它們集成在同一個網絡結構中。 

(8)我不確定現有的深度學習結構,比如CNN,能夠不能檢測出來f中的對稱軸。因爲卷積神經網絡更擅長於檢測局部的特徵,而對稱信息有可能無法通過局部特徵進行有效的表達。太過局部的感受野可能會導致跨越距離較遠的對稱信息的遺漏。所以這種需要利用跨越空間關係的鏡像檢測任務可能很難被找出來。如果非要檢測出這種以特定幾何分佈所表達的模式,網絡則必須具備序列檢測、多幀檢測的能力。這就引出了網絡模型對於時序信息的處理問題。

(9)人類在面對圖像信息時的處理和學習方式不同於深度網絡。在我們的眼中,圖像是能夠在時間軸上展開的,它有着時間特性。而且很有可能深度網絡無法實現與人類相同能力的對圖像的高層特徵組合。在人類的眼中,我們能夠得到視頻流和某些特徵隨着時間組織的結構數據,而深度學習網絡目前還不能達到同樣的水平。

因此目前來看,一個很有前途的研究方向就是嘗試進行時間預測,或者將時間和空間預測進行某種意義上的組合。但是這種預測結果的意義是什麼呢?這值得思考,因爲深度網絡目前還沒能跟人類一樣產生類似或者相同的高層次的組合特徵。所以我的觀點是,這個模型的研究還是很有必要滴,但是更要繼續討論和思考它所能做的事情是什麼、它所產生的結果的價值和所優化的對象到底是什麼。 

不論如何,我覺得上述這些任務都是推進深度學習發展所必須經歷的。但是結合深度學習的現狀以及它們所能達到的性能來看,這方面的研究確實還處於十分初級的階段。所以說,祝你好運老鐵,祝你能找到金主來支持你的研究。 

其實,在某種程度上,終有一天人們會發現,現在這些深度學習方法怎麼都這麼差勁,不行,我們還得回到起點,從根源上創造我們的人工智能系統(別太偏激啊老鐵,我只是說現有的大多數所謂的深度學習技巧和優化方法都將失效,而那些經典的結構和思想,比如反向傳播將會永存),但是誰知道這波革命什麼時候到來呢。

 

 

 6 

 

 

 

結語

深度學習並不神祕,它也只是程序猿寫下的一行行代碼,也只是我們構建計算機程序的一種方式(而聽起來神神叨叨的“人工神經網絡”也只是我們給它起的一個通俗易懂的名字而已)。 

從某種意義上來說,我們現在所說的機器學習跟80年代出現的那波基於形式邏輯而熱起來的人工智能浪潮截然不同。由於算力、統計學和研究思路等客觀原因,那波浪潮在80年代落寞了,而後就引發了我們常說的人工智能寒冬。

而時至今日,雖然深度學習技術在很多非關鍵性的應用中獲得了巨大的成功,但是由於它本身所固有的統計學特性,導致強大如他也無法100%可靠地完成所有任務。正是因爲這一絲絲的不可靠性,人們還是無法放心地將它應用於所有場景中,這就有可能會導致人工智能領域的第二次寒冬。

符號主義類的人工智能擅長於處理推理,深度學習類的人工智能更加擅長於處理識別,二者在某種程度上是對立的,但換個角度來說它們又都是互補的。在實踐中當我們將兩者結合起來的時候,這個結合體雖然沒能像人類一樣擁有更加完備的人工智能,但也產出了一些很有趣的、能夠成功應用於特定領域的應用。 

在我看來,如果想讓人工智能模型產生和人類一樣的智能處理方式,並學習出所謂的“常識”的話,我們需要利用連接主義的設計思想,讓系統內部自行開發出一套內在的符號主義系統。利用這套符號主義系統,人工智能模型可以發展出自己對外界的事物認知、對外界關係和行爲的表達。爲了達到這一目的,這個人工智能系統需要長時間地“泡”在真實世界中,無時無刻地接收來自外界的輸入,並且以某種方式表示和編碼輸入的特徵。這簡直是個玄學,因爲目前沒有任何工作、也沒有任何人能做到這一點。

而可悲的是,目前大多數的所謂人工智能研究人員甚至都沒有興趣承認這個問題,他們滿腦子都是刷分刷分、paper paper。

另一方面,其實人工智能也在被自己的成功所綁架,它甚至成爲自身成功的犧牲品。

人們在本次深度學習爆發之初驚歎於它的能力,於是投入大量的資金支持它的發展。昂貴的投入形成了巨大的沉沒成本,也進一步讓金主爸爸們對這個領域充滿期望。這種金錢與信任的循環導致了人們被迫地給予深度學習極高的信任,即便研究人員和從業者都對這種名不符實心照不宣。

不過話說回來,如果不是這種高額的投入和極高的期望,人工智能研究可能又會很快進入下一場寒冬,重複着自1956年就開始的循環詛咒。 

 

 

 

 

認知智能簡介

  • 認知智能是計算機科學的一個分支科學,是智能科學發展的高級階段,它以人類認知體系爲基礎,以模仿人類核心能力爲目標,以信息的理解、存儲、應用爲研究方向,以感知信息的深度理解和自然語言信息的深度理解爲突破口,以跨學科理論體系爲指導,從而形成的新一代理論、技術及應用系統的技術科學。 認知智能的核心原理範疇包括:1.宇宙、信息、大腦三者關係;2.人類大腦結構、功能、機制;3.哲學體系、文科體系、理科體系;4.認知融通、智慧融通、雙腦(人腦和電腦)融通等核心理論體系。 認知智能實現落地四步走:1.認知宇宙世界。支撐理論體系有三體(宇宙、信息、大腦)論、易道論、存在論、本體論、認知論、融智學、HNC 等理論體系;2.清楚人腦結構、功能、機制。支撐學科有腦科學、心理學、邏輯學、情感學、生物學、化學等學科。3.清楚信息內涵規律規則。支撐學科有符號學、語言學、認知語言學、形式語言學等學科。4.系統落地能力。支撐學科有計算機科學、數學等學科。

    認知智能是計算機智能體系發展的高級階段,但不是最終階段,最終階段或是通用智能(強人工智能),是人工智能發展的下一階段,是智能體系發展的高級階段。智能體系,從計算智能到感知智能,再從感知智能到認知智能,再從認知智能到通用智能強智能。智能體系大概會經歷四個階段。認知智能,只是智能體系的第三個階段,也代表了智能體系發展的第三個時代,認知智能時代。 計算智能 數值數據計算爲基礎。 感知智能 以模仿人類感知環境信息爲基礎。 認知智能 以模仿人類認知理解記憶思維等能力爲基礎。 通用智能 以全方位模仿人類智慧等能力爲基礎 。

    認知智能的核心理論體系包括HNC(中科院黃曾陽教授創立此理論體系)、融智學(中美塞爾研究中心主任知名學者教授鄒曉輝老師創立此學科)、三體(宇宙、信息、大腦)論(杭州道翰天瓊智能科技有限公司創始人李坤創立此理論)、。同時還包括中西方哲學體系(易經、道德經、存在論、本體論、認知論等)、腦科學、心理學、邏輯學、情感學、生物學、化學,符號學、語言學、認知語言學、形式語言學,計算機科學、數學等學科。認知智能理論體系涉及多學科理論體系,跨界融通多學科理論體系,是認知智能從業者所必備的基本功。整套認知智能理論體系融合了多個學科,多個領域的的理論思想體系,融合之後,才能從各個學科的角度去認知和解密認知智能的奧祕,解密人類大腦的結構,功能和機制。從而得以複製人腦的核心八大能力,得以讓計算機和機器人具備類人腦的三智(智慧、智力、智能)能力。

    三體論是探索研究宇宙,信息(融智學信息八大形式信息)和人 類大腦三者關係的理論體系。三者關係形式化類比就如同照相機。宇宙類似照相機的取景地,信息類似照相機鏡頭獲取到的取景地信息,大腦類似照相機的底片。宇宙中存在着大量的客觀信息,這些信息在表達着宇宙的客觀事物。宇宙的客觀事物信息化之後,就變成了信息體系。因此宇宙是信息的本質來源,信息是宇宙的信息化表示。信息被人類大腦感知和認知之後,有部分信息則會存儲在人腦內部。這些信息到達人腦之後就存儲在人腦內部的各個區域的神經元之上。因此外界信息是人類大腦內部的信息本質來源之一,人類大腦是外界信息的載體之一。客觀宇宙和大腦的關係是,大腦內部存儲着宇宙的局部世界,大腦內的世界和宇宙的局部有着相同或者非常類似的地方。因此宇宙的局部在大腦中存在映射。這個映射的建立,就是通過信息這個中間媒介建立起來的。因此人腦,信息,大腦三者關係非常類似照相機的取景地,鏡頭和底片。同時大腦內部的結構如果無限放大,結構就類似宇宙結構,而宇宙無限縮小的時候,其結構就非常類似人類大腦內部的結構。具體可詳查宇宙和大腦結構對比。

    融智學是著名學者教授中國塞爾研究中心主任鄒曉輝老師創立的一門全新的學問體系。其創立的背景是呼應第一次認知大飛躍。其創立的目的是引領第二次認知大飛躍。融智學的細化目的包括抽象出簡美的融智觀和融智法,理論上確立理義法道(本質)(物意文現象)智能化系統工程,工程上探索言識軟硬形式化系統工程,應用上踐行教管學用社會化系統工程。其核心三部曲包含理論融智學,工程融智學和應用融智學。理論融智學包含三菱錐,四面體,融智方法論,智能化系統工程。工程融智學包括間接信息形式化體系,言識軟硬形式化工程體系。應用融智學包括懂會熟巧用思想體系,教管學用社會化系統過程體系。融智學在應用融通上又包含三部分,金融與智融,鬥智與融智,單音節的言和自然數格點等體系。融智學的博度,廣度和深度都是目前單一學科體系難以企及的。融智學的智慧體系來源於八大學科體系,是衆多學科智慧體系的集大成者,在培養跨界人才,培養認知智能人才上有着不可取代的作用。同時也是認知智能理論體系的奠基理論體系之一。

    HNC自然語言處理技術(國家“973”計劃項目G1998030506)是一種具有原始創新特點的自然語言理解處理技術。HNC自然語言處理技術(國家“973”計劃項目G1998030506)是一種具有原始創新特點的自然語言理解處理技術。該技術以中科院聲學所黃曾陽研究員創立的概念層次網絡(簡稱HNC)理論爲指導。HNC理論認爲:自然語言理解的本質是概念聯想脈絡激活、擴展、濃縮、轉換與存儲的全過程運作。激活運作的要點是語句的理解;擴展與濃縮運作的要點是段落與篇章的理解,轉換與存儲的要點是記憶與學習。語句的理解必須定位於概念聯想脈絡運作全過程的激活。並且建立了自然語言的概念空間。語句及自然語言的理解,就是從語言空間向語言概念空間的映射過程。這一處理方案,使計算機能夠進入自然語言的語義深層,在“懂”的基礎上完成對自然語言的各種處理。該技術在漢語語句理解處理方面居國際領先水平。

    認知智能是智能體系發展的第三個階段。因此計算智能,感知智能的相關技術體系也會被繼續沿用,傳承,發展,創新。計算智能,感知智能技術體系,也是認知智能技術體系的基礎之二。在之前兩個體系之上認知智能創新發展了全新的技術體系。包含認知維度識別,概念層次網絡(詞腦,字腦,概念維度網絡等都類似此結構),萬維圖譜(幾十種圖譜的組合,包含屬性圖譜,行爲圖譜,狀態圖譜,數量圖譜,因果圖譜等各種圖譜),雙字棋盤,句類肯否褒貶識別,深度語言理解,計算機記憶,計算機類腦學習,計算機語言自組織,計算機情感,計算機邏輯系,計算機意識,以及計算機感知技術與認知技術融合貫通的能力而形成的技術體系等核心技術體系。認知智能和人工智能在技術底層的最大形式化區別就是,無需繁複的標註,無需繁複的訓練調優。在時效上,在成本上,在智能程度上,在最終端客戶認可度上,都有非常大的優勢。具體可查看認知智能和人工智能的區別對比。整個認知智能技術體系,以後會有大量的專題資料介紹講解,所以這裏不做過多詳述。

    人工智能以模仿人類感知能力爲基礎,重點在感官能力的模仿。認知智能以模仿人類認知能力,理解能力,記憶能力,邏輯思維能力,情感能力等能力爲基礎。重點在認知,理解,記憶,思維,情感等類腦能力方面進行研究突破。認知智能和人工智能對應的智能體系分別是第三階段和第二階段。從時代劃分上,分別對應認知智能時代和人工智能時代。隨着人工智能技術體系天花板的產生,亟待需要新的智能體系來創新,突破,引領新時代的發展。從人工智能過度到認知智能也是科技和社會發展的必然趨勢。同時認知智能,新一代智能體系也是國家2030科技方面的重要戰略規劃。

    認知智能是以人腦認知體系爲基礎,以複製人腦核心能力爲研究方向的計算機分支新學科之一。認知智能不是產品,是一套理論,技術和應用系統體系。其代表的是一個全新認知智能時代。人工智能目前所覆蓋的市場,行業,以及相關產業,認知智能會全方位覆蓋,升級和改造。並且還會開拓出新的藍海市場,新的行業乃至全新的產業體系。隨着國家2030科技戰略的推進和國家新基建的推進,5G的推進和落地,萬物互聯時代的到來,急迫需要的就是萬物智能體系。 核心八個字,萬物互聯,萬物智能。現在的人工智能體系,存在諸多弊端,認知智能要傳承,發展,創新人工智能體系,革除人工智能的弊端,開創全新理論,技術,應用系統,市場,產業等。隨着認知智能的深度發展,目前互聯網行業,移動互聯網行業,大數據行業,人工智能行業等相關行業都會得到全面的升級改造。認知智能相關體系會在未來10年之內成爲科技領域的基礎設施體系之一。

    認知智能 賦能百業 全新時代!
發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章