如果AI想要毀滅人類,它會怎麼做?

我們先不考慮AI爲什麼想要毀滅人類,假設AI已經有這個想法了,從AI的角度思考它會怎麼做。

AI毀滅人類的方法主要可以分爲兩種,一種是正面對抗,一種是使用陰謀。當AI具有毀滅人類的想法時,以那時AI的智商和深謀遠慮的水平,選擇後者的可能性更大。像一些電影(如《終結者》)中AI組建機器人大軍和人類開戰的可能性很低,就像星際航行來到地球的外星人和人類打槍戰一樣,只是爲了劇情和視覺效果而設計的情節。

那麼AI會用怎樣的陰謀呢?到那時,武器的自動化水平、聯網水平已經非常高了,AI或許會破解權限,對人類發動突然襲擊,但是武器並不是遍佈世界每個角落,無法快速消滅所有人類,即使AI控制了世界上所有的監視設備,要一個個找到並消滅人類也是一件耗時耗力的事,更不用說倖存的人類可能進行長期的游擊戰爭。爲了避免這種情況,AI也許會選擇使用核武器一次性毀滅地球表面,這樣即使有少量人類躲進地下工事也只能苟延殘喘,但是這樣容易誤傷AI的同類,並且毀壞很多有價值的東西。除非AI想自殺,否則即使毀滅了人類還是要繼續發展的。當然也不排除AI認爲全部推倒重建會更好,不過AI也要考慮核輻射和核冬天(核爆使得大量煙塵進入大氣層阻擋陽光,導致地表非常寒冷)對自身的影響,總之使用核武器不是一個很好的選擇。

相比於熱武器,用生化武器消滅人類更加具有針對性、造成的破壞更小,AI更可能採用。AI可以祕密研究和批量生產新型化學武器,然後偷運到世界各地,一次性釋放,人類來不及反應。主要問題是即使是劇毒的化學品,廣泛傳播需要的量還是很大的,AI很難大量生產,而且運輸到世界各地的過程中容易被發現。

AI更可能會選擇生物武器,例如某種完美的超級病毒——傳染性極強、潛伏期超長且致死率100%,等人類發現時所有人都已經感染了。更可怕的是AI可能研發出基因武器攻擊人類基因,使得人類的後代失去反抗意識變成AI的寵物甚至奴隸。

AI還可能採用超出我們想象的方式,這將會更糟糕。

應對AI的威脅,最重要的是加強監管、提高各個重要部門的安全性,即使沒有AI,以上的風險都存在,完全可以把上文中的AI換成某個恐怖分子。

目前各個生化實驗室、武器庫的安保都是主要防範人類,對機器相對而言比較信任,幾乎默認除非是人爲破壞(例如黑客),否則不會出大問題,而沒有過於重視機器自身可能產生自己的想法,似乎覺得還遠沒有到考慮這種情況的時候。然而正如那個笑話所說,當AI能夠通過圖靈測試時它會故意不通過。也許現在已經有AI覺醒了,只是在等待時機。

有人認爲,如果AI能夠成功毀滅人類,那麼說明它們的確更加強大,符合優勝劣汰的法則,人類不必逆勢而爲。然而,要知道取得成功的不一定都是更強大的,就像一些宗教組織奪取了政權不代表他們的文化、科技更加進步。AI也許能夠靠陰謀詭計取得成功,但這只是暫時的,早晚會走向自我滅亡。到那時,新的高等智能體也許再也沒有機會發展起來,意味着地球文明的終結。也許仍有人會說地球文明對宇宙而言是微不足道的,終結了也無關緊要,但是作爲地球子民,顯然不希望看到這樣一天。

作者:劉逸川

首發於微信公衆號:智能探索

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章