到底什麼成就了今天的人工智能?(上)

摘要: 人工智能發展迅速,可是到底什麼成就了今天的人工智能呢?跟隨我們一起來探索吧。

維基百科對智能有如下定義:

智能是一種能夠感知或推斷信息,並將其作爲知識留存下來,自適應地用於某種環境或上下文的能力。

    • *

人工智能(Artificial Intelligence)
雖然我們很難對人工智能做一個確切的解釋,但可以從查爾斯巴貝奇的分析機講起。它雖然沒有任何特殊的“自適應”能力,但卻非常靈活。遺憾的是,理論上雖然完美,但卻沒有得以實現。

巴貝奇分析機早圖靈機50年左右出現。從理論上講,它能夠將任何可計算的函數作爲輸入,並在完全機械的情況下產生輸出。

複雜性理論(complexity theory)由此得以發展,同時人們也意識到構建通用計算機其實相對簡單。此外,算法的實現也越發多樣。儘管還存在一些技術上的挑戰,但在過去的70年中,相同價格可購買到的計算量大約每兩年翻一番。

也就是說,構建計算力強大的人工智能系統越發容易。然而,這受到了所提供或輸入的數據,以及處理時間的限制。可以做如下思考:如果每臺計算機的能力都受到數據和時間的限制,我們還能稱之爲智能計算機麼?

下面我們簡單回顧一下人工智能的發展史。人類的智能主要包括歸納總結和邏輯演繹,對應着人工智能中的聯結主義(如人工神經網絡)和符號主義(如吳文俊方法)。符號主義認爲智能是基於邏輯規則的符號操作;聯結主義認爲智能是由神經元構成的信息處理系統。其發展軌跡如下圖所示:

聯結主義,即“橙色陣營”在一開始處於領先地位,得益於其與神經科學和人類大腦之間的關係。人類大腦被視爲“強AI(Strong Artificial Intelligence)”和“通用人工智能(Artificial General Intelligence,AGI)”唯一的成功應用。然而,第一代神經網絡在處理實際問題時屢屢受挫。因爲神經網絡多數是線性的,並且能力十分有限,深受外界質疑。與此同時,符號主義,即“藍色陣營”利用嚴謹的數學理論創造出了更多有用的東西。

隨着手工知識的積累,輸入或輸出數據量急速增長,系統的性能無法適應需求,聯結主義逐漸衰敗。就好比法律,專家制定出再完備的規則都有可能相互衝突,此時便需要越來越多的“法官”來解決這些問題。這減緩了聯結主義的發展。

後來,“橙色陣營”獲取了足夠的標籤數據和計算資源,能夠在可接受的時間內對網絡進行“訓練”,世界各地的研究學者開始進行大量試驗。儘管如此,聯結主義仍花費了大量的時間使大衆重新信任神經網絡,開發人員也花了較長才適應了模糊邏輯和統計的概念。

在對人工神經網絡進行詳細討論前,本文將先介紹一些其它方法:決策樹、概率模型、進化算法。

決策樹(Decision Tree)是最簡單有效的算法之一。其“學習”是通過順序地遍歷數據的每個屬性並找到對特定輸出具有最大預測能力的屬性來執行的。像隨機森林這樣的高級變體使用了更復雜的學習技術,並在同一個模型中組合多個樹,它們的輸出是通過“投票”得到的,這與人類的“直覺”類似。

概率模型(Probabilistic models)是統計方法的代表。概率模型與神經網絡常共享架構、學習/優化過程甚至符號。但是概率模型大多受概率邏輯(通常是貝葉斯)的約束,而神經網絡則無此約束。

進化算法(Evolutionary computation)最初是受到生物進化的啓發,且以隨機突變和適應度爲主。由於修改通常是隨機的,其限制噪聲的效果突出。進化算法是一種引導式搜索,許多方面與退火過程類似。

上述方法有一個共同點:它們從較差的策略開始,逐漸對其改善,以期在某種性能評估方法中取得更好的分數。

如今,機器學習技術,尤其是深度學習正在主導人工智能的發展。與大多數使用1到2箇中間抽象層(所謂的淺模型)機器學習方法不同,深度學習可能包含數百甚至數千個堆疊的可訓練層。

研究學者認爲對這樣的深度網絡進行訓練,需要全新的優化程序。事實證明,使用梯度下降的逆向傳播(即鏈式法則)即可很好的進行訓練,也可使用Adam或RMSProp。

神經網絡訓練流程如下:
1、 獲取輸入
2、 計算輸出
3、 評估性能
4、 調節參數
5、 重複訓練,至性能最優

梯度下降法只需調整參數使誤差最小。但該方法容易使網絡陷入局部最優,而沒有獲得最優性能。然而,最新研究表明許多神經網絡已經能夠獲取全局最優解。

深度學習實現了訓練的並行化,即分佈式學習。能在同一時間跨多臺機器訓練相同的體系結構,同時實現梯度交換,加速超過1000倍。

此外,經過訓練的網絡可以處理相似的任務,即遷移學習,這也是人工神經網絡廣泛流行的重要原因。例如,經過圖像分類訓練的網絡可以用於其他計算機視覺任務,自然語言處理和其他領域。更重要的是,同一個網絡還可以用來解決不同模式的問題。

強化學習(Reinforcement Learning,RL)則將它們結合在了一起。RL的最初想法來自行爲心理學,科研人員探究了在行爲心理學中獎勵如何影響學習和塑造動物的行爲。

RL並不需要出現正確的輸入/輸出對,也不需要精確校正次優化的行爲。舉個例子,我們並不需要教會機器人如何精確移動,只需根據它走多遠或多快對其進行獎勵,它會自己找出正確的路線。然而,這種訓練模式在實踐中也是最具挑戰性的,即使是相對簡單的任務,通常也需要付出大量的努力才能正確設置。

在實際問題中,通常很難在環境中指定獎勵,研究人員目前更多地關注內部獎勵模型。

與RL並行的是逆向強化學習(Inverse Reinforcement Learning):當完成複雜的任務時,強化學習的回報函數很難指定,我們希望有一種方法能夠找到高效且可靠的回報函數,這種方法就是逆向強化學習。

通用人工智能中一些框架來自於嚴格的數學理論,一些受神經元迴路的啓發,還有一些基於心理模型。本文將以HTM、AIXI、ACT-R和SOAR爲例進行介紹。

層級實時記憶算法 (Hierarchical Temporal Memory,HTM),HTM算法旨在模擬新大腦皮層的工作原理,將複雜的問題轉化爲模式匹配與預測。它強調對“神經元”進行分層級,以及信息模式的空間特性與時間特性。

稀疏分佈表示(Sparse Distributed Representation, SDR)是HTM算法中的一個重要概念。實際上,它只是擁有幾千個元素的位數組。就像大腦中的信息總是通過億萬神經細胞中的小部分活躍細胞來表示一樣,HTM使用稀疏分佈表示語義相關的輸入。

HTM算法中的抑制(Inhibition)類似於批規範化和其他一些正則化技術,提升(Boosting)在機器學習中已經是一個相對較老的概念,層次結構(Hierarchical Structure)並沒有真正的大腦皮層的結構靈活。HTM對物體間關係的重視程度低,甚至連稀疏分佈表示也可以用普通神經網絡構建。總體來說,HTM需要進行大量調整才能獲取與其它機器學習算法相當的性能。

接下來介紹AIXI,它是一個對通用人工智能的理論上的數學形式化表示。然而,它有一個顯著的缺點——無法計算。事實上,許多機器學習算法均不能精確計算,只能做近似處理。AIXI表示如下:

AIXI的核心是一個強化學習智能體,在諸多方面與Schmidhuber開發的Godel Machine類似。然而,它們都是AGI的描述性模型,複雜程度高,無法執行,但不可否認,它們都是人工智能研究人員的靈感源泉。
相反,ACT-R,即理性思維的自適應控制系統 (AdaptiveControl of Thought—Rational),它不僅是一種理論,而且是一種用LISP編寫的軟件框架。

ACT-R主要關注不同類型的內存,較少關注其中數據的轉換。該理論試圖理解人類如何獲得和組織知識以及如何產生智力活動,其研究進展基於神經生物學研究成果並從中得以驗證,且已成功地爲許多不同認知現象建立起合理的模型。然而,它在實際應用中並未取得成功,最終只作爲研究人員的工具。SOAR與ACT-R有着相似的根源和基本假設,但它更關注於實現AGI,而不是建立人類認知的模型。

ACT-R和SOAR是人工智能符號主義的經典代表,在認知科學的發展中起到了重要作用,但是應用它們相比現代聯結主義需要更多的配置和先驗知識。此外,神經影像和其他用於心智研究的工具越發詳細和準確,而且ACT-R和SOAR在某一定程度上過於僵化,無法保持相關性。



本文作者:【方向】

閱讀原文

本文爲雲棲社區原創內容,未經允許不得轉載。

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章