日媒總結人工智能的十大誤區

自從20年前電腦在國際象棋對決中敗陣以來,人們一直認爲至少圍棋上電腦是無法勝過人類的。但在AlphaGo4:1完勝韓國圍棋職業九段棋手李世石後,人類感受到了人工智能(AI)的進化。或許要理解AI的威脅和發展並不那麼容易,但關於AI的種種都將隨着科技的進步而逐漸明朗。日本Livedoor新聞網3月25日的文章裏就爲大家解開了一些有關AI的誤區。

誤區1:AI一定無法擁有與人類一樣的感性
紐約大學心理學家Gary Marcus表示,幾乎所有AI相關業者都認爲,機械最終會超越人類。部分對此抱有懷疑的人多認爲使AI擁有人類般的感性是不可能的,或是說人腦有一些本質上獨特的東西等等,但這些觀點卻並沒有什麼說服力。人類可以說是一種生物機械,本質上與機械是沒有區別的,與計算機一樣存在於物質世界,遵從物理法則。

誤區2:AI擁有自我意識
倫敦帝國學院認知機器人技術學家Murray Shanahan指出,不應混淆自我與智能這兩個概念。他表示:“自我意識確實是一個充滿吸引力的主題,但是我認爲那對於人類級別的AI來說是不必要的。更準確地說,‘意識’是數種心理認知類的特徵,只不過對於人類來說被歸爲了一種。”而且,即便有機器人讓人類無法分辨它與人類的區別,我們也不能說它就擁有了自我。

誤區3:無需畏懼AI
Facebook的CEO馬克?扎克伯格認爲,我們無需畏懼AI,它們只會帶給世界各種好處,比如在無人駕駛汽車、新葯開發等領域。但他並沒有考慮到,AI帶來的不一定都是善。高智能的系統或許在特定的領域無所不能,但在其他的領域則不然。另外,大多機械系統並沒有完全考慮到安全層面。一旦有類AI的系統被用在不好的方面,後果難以想象。
誤區4:AI很聰明,所以不會失敗
牛津大學Peter McIntyre與Stuart Armstrong認爲,AI一般受程序控制,不認爲AI有聰明到可以理解我們期望。他們認爲:“超級AI在定義上是在所有領域上都超越人腦的智慧的存在”。“這樣的存在是可以理解我們想讓其所達到的意圖的”。雖然AI被程序所控制,但如果足夠聰明的話它將能夠理解法的精神與人的意圖。

誤區5:我們能解決一切AI的控制問題
當我們製造出一個比人類聰明的AI的時候,我們將面臨能否控制它的問題。比如,事先設置“應該取悅人類”的程序,使其只擁有作爲人類的工具的功能,在代碼中寫入對人類的愛與尊敬這樣的概念等等。另外也有觀點認爲,爲避免其世界觀過於單純,應該寫入接受智慧的、文化的、社會多樣性的程序。但以上都是在想用簡單的語言來給AI植入人類複雜的價值觀。

誤區6:人類會被超級AI毀滅
我們無法斷言AI是否會毀滅人類或者人類將無法控制AI。牛津大學哲學家Nick Bostrom認爲,真正超級AI的出現或許是人類所發明的有史以來最大的危機。超級AI想要達成的目標中,可能大多都有消滅人類的理由。但我們無法確定AI會以什麼形式和方式對人類產生威脅。

誤區7: 超級AI是友好的
哲學家Immanuel Kant認爲理性與倫理有很強的關聯。神經學家David Chalmers在論文中採納了他的觀點,用於解釋超級AI的進化:“如果這是正確的,那麼可以預想理性爆發於倫理爆發是相連的,那麼(超級AI的)系統會既聰明又懂倫理,可以預想將會是善良的。”但針對聰明的AI就會是善良的這一點,Armstrong認爲,“進行反倫理行爲的聰明人要比不聰明的更易造成大規模的危害。理性帶給了他們更聰明的爲惡的能力而非行善”。某個主體的目標達成能力與他的目的是否正確無關。

誤區8:AI與機器人技術的風險是一樣的
這一誤區源自不少機器人電影。如果超級AI想要毀滅人類的話,它應該會使用更加有效率的方式,比如散播瘟疫、破壞大氣層等等。AI的危險不在於驅使機器人來統治世界,而是其對世界本身的影響力。

誤區9:科幻作品所展現的AI的未來是正確的
科幻作品的確展現了許多作家或是未來學家的想象。但如今超級AI所導致的問題跟那些完全不同。並且人類與AI在本質上的區別,決定了人類不可能完全瞭解、預測其本質與形式。許多的科幻作品爲了作品的趣味性,犧牲了許多科學上的正確性。
誤區10:被AI接手工作是可怕的
AI能夠自動完成工作和AI要毀滅人類是兩碼事。無疑,AI將會替換既存的許多工作。但即使如此,並不是說人類無法面對這種變化了。能從大量的體力腦力勞動中解脫出來難道不是人類的目標嗎?
以上,陳如初拙見!若有冒犯,請見諒。

想了解更多人工智能資訊機器人請登錄Giiso智搜: http://www.giiso.com/ 謝謝

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章