人工智能現3大漏洞 還有失控的機器人

以電子數字計算機的誕生及其生成的代碼遍佈全球爲界,計算的歷史可以劃分爲“舊約”和“新約”兩個階段。舊約的先驅們提供了基本的邏輯,包括Thomas Hobbes和Gottfried Wilhelm Leibniz。新約的先驅們包括Alan Turing、John von Neumann、Claude Shannon和Norbert Wiener,他們給機器帶來智能。

  

  Alan Turing曾經在思考如何讓機器更加智能。John von Neumann想知道機器實現自我複製需要什麼。Claude Shannon想知道讓機器在干擾中可靠地通信,需要做些什麼。

  Norbert Wiener爲機器的控制機能而深思。

  1949年,Wiener第一次警告控制系統可能超出人類掌控,那會兒第一代存儲程序電子數字計算機纔剛剛問世,這些系統需要人類程序員的直接操作,這削弱了Wiener的擔憂。既然程序員控制着機器,那麼問題會出在哪裏?從那以後,關於自主控制風險的爭論一直圍繞着數字編碼機器的控制權和限制的爭論。儘管它們擁有驚人的能力,但幾乎沒有被發現真正的思維。這是一個危險的假設——如果數字計算正在被其他東西所取代,該怎麼辦呢?

  模擬計算的悄然迴歸

  過去的一百年裏,電子學經歷了兩個根本的轉變:

  從模擬到數字;

  從真空管到固體器件。

  這兩個幾乎同時發生的轉變並不意味着它們密不可分。就像真空管組件也可以用於實現數字計算一樣,模擬計算也可以在固體器件下實現。儘管真空管在商業上已經絕跡,但模擬計算仍然存在。

  模擬計算和數字計算之間沒有精確的區別。

  一般來說,數字計算處理整數、二進制序列、確定性邏輯和離散增量的時間,而模擬計算處理實數、非確定性邏輯和連續函數,包括時間——時間是作爲現實世界中的連續體而存在的。

  許多系統的運行可跨越模擬和數字計算。比如一棵樹,可以說集成了大量的輸入,可以被看作是連續函數,但是如果你砍掉這棵樹,你會發現它一直在以數字方式計算年份。

  在模擬計算中,複雜性存在於網絡拓撲結構中,而不是代碼中。信息就像電壓和相對脈衝頻率那樣,是被處理爲值的連續函數,而不是對離散位串的邏輯運算。

  數字計算不能容忍錯誤或歧義,它依賴於過程中每一步的糾錯。

  而模擬計算可以容忍錯誤,允許錯誤的存在。

  自然界使用數字編碼來存儲、複製和重組核苷酸序列,但自然界的智能和控制依賴於模擬計算,它在神經系統內運行。每個活細胞的遺傳系統都是一臺存儲程序計算機。但大腦不是。

  數字計算機執行兩種比特之間的轉換:表示空間差異的比特和表示時間差異的比特。這兩種信息形式之間的序列和結構轉換由計算機編程控制,只要計算機還需要程序員,我們就能維持人類的控制權。

  模擬計算機也是負責協調兩種信息形式之間的轉換:空間結構和時間行爲。在這裏,沒有代碼,也沒有程序。不知何故——我們也不完全理解的原因——自然界進化出神經系統這種模擬計算機,它如此神奇,蘊含了從世界上吸收的信息。它們可以學習,它們學到的內容之一就是控制,它們學會了控制自己的行爲,它們學會了儘可能地控制環境。

  計算機科學在實現神經網絡方面有着悠久的歷史——甚至可以追溯到計算機科學出現之前——但在很大程度上,這些都是數字計算機對神經網絡的模擬,而不是自然界本身進化出來的神經網絡。

  如今,事情發生了變化:從底層來看,無人機、自動駕駛和手機這三駕馬車推動神經形態微處理器的發展,它們直接在硅(和其他潛在的基質)上實現了真正的神經網絡,而不是模擬神經網絡;從頂層來看,我們最大的及最成功的企業在其***和控制世界的過程中,越來越多地轉向模擬計算。

  當我們爭論數字計算機的智能時,模擬計算正在悄然取代數字計算,就像二戰後,真空管等模擬元件被重新設計用於製造數字計算機一樣。在現實世界中,運行有限代碼的獨立確定性有限狀態處理器正在形成大規模的、不確定的、非有限狀態的後生動物有機體。由此產生的模擬/數字混合系統共同處理比特流,就像在真空管中處理電子流一樣的方式,而不是像由離散狀態設備處理比特流那樣單獨處理電子流。比特是新的電子。

  模擬又回來了,它的本質是承擔控制。

  這些系統控制着從商品流通到交通流通再到思想流通的一切,它們以統計的方式運行,就像神經元或大腦處理脈衝頻率編碼的信息時那樣。

  智能的出現引起了智人的注意,但我們真正應該擔心的是控制的出現。

  建立於現實之上的系統,卻反過來控制現實

  

  POSSIBLE MINDS: Twenty-Five Ways of Looking at AI封面

  1958年的美國人需要保衛美國全境免受空中打擊。爲了區分敵機,除了依靠計算機網絡和早期預警雷達站以外,還需要實時更新所有商業空中交通地圖。美國爲此建立了SAGE(半自動地面環境)系統。SAGE反過來又催生了Sabre的誕生,Sabre是第一個用於實時預訂航班的綜合預訂系統。Sabre和它的後代很快就不再是僅有空餘座位的地圖,而成爲了一個系統,它開始通過分散的情報來控制飛機的飛行地點和時間。

  但系統裏不是有個控制室嗎?不是有人正在控制系統嗎?可能不是。比如,你開發了一個實時繪製高速公路交通地圖的系統,讓汽車接入該地圖,並報告自己實時的速度和位置。其結果是一個完全分散的控制系統。

  系統的控制模型並不存在於任何部位,系統本身就已經是了。

  這是21世紀的第一個十年,想象一下,你想實時追蹤人際關係的複雜性。對於大學規模較小的大學生來說,你可以爲他們的社交生活建立一箇中央數據庫,還可以保持它的實時更新,但如果大學的規模再大一點,它的維護將變得完全不可能。更好的做法是在本地託管簡單、免費的半自治代碼副本,讓社交網絡自己更新。這段代碼是由數字計算機執行的,但是系統作爲整體而執行的模擬計算遠遠超過了底層代碼的複雜性。結果是,其產生的關於社會圖景的脈衝頻率編碼模型最終成爲了真正的社會圖景。它廣泛地在校園和世界各地裏傳播。

  如果你想製造一臺機器來捕捉人類已知的一切,這意味着什麼呢?你有着摩爾定律的支持,將世界上所有的信息數字化並不需要太長時間。你掃描每一本實體書,收集每一封信件,每24小時就可以收集49年之久的視頻,同時還可以實時追蹤人們的位置、當前的行爲。但是,你如何理解這些信息的意思呢?

  即使是在所有東西都已被數字化的時代,這也不是任何嚴格的邏輯就能夠定義的,因爲人類的意義並不是根本上合乎邏輯的。一旦你集齊了所有可能的答案,你所能做的最好的事情就是建立一個定義準確的問題,並編寫一個脈衝頻率加權圖來展示所有東西是如何聯繫起來的。

  在你意識到之前,你的系統不僅會觀察和映射事物的意義,它還會開始構建意義。隨着時間的推移,它將控制意義,就像交通地圖開始控制交通流量一樣,即使看上去,似乎沒有人在控制它。

  人類難以理解智能   人工智能有三條定律。

  第一定律被稱爲Ashby ‘s law,以《大腦設計(Design for a Brain)》一書的作者、控制論專家W. Ross Ashby的名字命名。它指出,任何有效的控制系統都必須與它所控制的系統一樣複雜。

  第二定律由John von Neumann闡述,他指出:複雜系統的定義是它構成自己最簡單的行爲描述。有機體最簡單的完整模型就是有機體本身。試圖將系統的行爲簡化爲任何其他形式的描述都會使事情變得更復雜,而不是更簡單。

  第三條定律指出:任何簡單到可以理解的系統都不會複雜到足以智能地運行,而任何複雜到可以智能地運行的系統,都將複雜到難以理解。

  有些人認爲,在我們理解智能之前,我們不必擔心機器中出現的超人智能,第三定律可能會讓這些人放心一些。

  但第三定律存在一個漏洞:不理解的東西,也完全有可能構建出它來。你不需要徹底理解大腦是如何工作的,就能構建起一個正常工作的大腦。這是一個漏洞,無論程序員和他們的道德顧問對算法做再多的監督,也無法彌補。鄭州中原科大醫院 http://mobile.zykdnkyy.com/

  絕對“好”的人工智能是一個神話。我們與真正的人工智能的關係將永遠是一個信仰的問題,而不需要證明。

  我們過於擔心機器的智能,而對自我複製、溝通和控制卻擔心得遠遠不夠。數字編程無法控制的模擬系統之興起將標誌着計算領域的新一次革命。對於那些相信自己能造出機器來控制一切的人,大自然的迴應將是讓他們造出一臺能控制他們自己的機器。


發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章