傅莹:AI 治理,需要借鉴「核管控」教训

智源导读:技术是把双刃剑,人工智能的出现,既给人类带来了福祉,同时也带来了各种隐患。如何处理好人工智能这把双刃剑,考验着人类的智慧,也将决定着未来 AI 发展的朝向。

清华大学人工智能国际治理研究院名誉院长傅莹强调,在人工智能治理方面,人类必须汲取历史教训,避免像核武器、互联网等,由于治理共识形成太晚,而导致人类曾面临巨大威胁。

作者:廖璐 贾伟

在如今,尽管各个国家、各个城市都在制定各自的AI政策和法律,但 AI 并非一国一城之事,如同核武器、环境污染、互联网等一样,AI所带来的社会影响具有全球性。在当下这个时刻,如何推动人工智能的国际协同治理,事关重大,且迫在眉睫。

12月18日,由清华大学人工智能国际治理研究院主办的“清华大学人工智能合作与治理国际论坛”针对此问题,以“后疫情时代的人工智能国际合作与治理”为主题进行了多方探讨,参与者不乏来自联合国、相关国际组织、各领域的领军人物等,包括傅莹、姚期智、张钹、薛澜等著名人物,分享了来自政、企、学等各领域对人工智能技术治理问题的深度观点。

在一系列报告中,清华大学人工智能国际治理研究院院长薛澜教授作的主题为《AI Governance: Challenges and prospects》的报告,简明地阐释了“AI治理”的基本框架,并指出人工智能国际治理的重要性。

在人工智能的国际治理方面,现如今已经有诸多实践,例如清华大学人工智能国际治理研究院名誉院长傅莹如今正在推进关于“人工智能武器化”的全球治理,她强调智能武器的管控,“绝不是一场零和游戏,人工智能最终应使得全人类受益。”

另一方面,中国科学院院士、清华大学人工智能研究院名誉院长张钹从技术的角度,提出第三代人工智能,希望从理论上解决人工智能的可解释和鲁棒性的问题,在此基础上发展安全、可靠、可信、可扩展的人工智能技术。

01

人工智能治理的基本框架

1、AI治理的定义及要素

想要制定规则,首先需要明确定义。AI 治理(AI Governance)到底指什么?

薛澜教授认为所谓“AI治理”,即尝试通过制定规范、法律和制度,来更好地确保人工智能的应用能够促进社会发展和进步。当然,“AI治理”仍然是一个还处在不断发展演变过程中的研究课题,目前仍然有诸多不明/不成熟的地方。

例如,既然是“AI治理”,那么“AI”到底是什么?目前甚至连人工智能专家都没有形成一个完全统一的定义,“AI”的边界也并未截然清晰,这就导致无法严格判断具体哪些属于“AI治理”的对象,哪些又不是。此外,AI的“黑箱”特性到底有多“黑”,“基础性”技术到底有多基础,对社会的影响具体有哪些等等诸多问题,目前依然是待解问题。

薛澜教授在报告中认为, AI 治理包含五个核心要素,分别为 “Value”、“Regime”、“Actor”、“Object”、“Effect”等,具体如下:

  • Value:我们发展人工智能技术,必须坚持哪些基本的价值观?

  • Regime:通过什么样的制度体系来有效治理?

  • Actor:谁参与到政策的执行,是个人、企业还是国家?

  • Object:治理的对象是什么?是企业行为,还是使用者行为?

  • Effect:最终产生的结果是什么,以及如何评价这些结果?

具体到其中的一个要素——Actor。薛澜教授指出可以将各种“Actor”划归为四类,分别为公共部门、私营部门、社会部门和国际组织,如下图所示:

但由于存在所谓“Regime Complex”(机制复合体)的现象,不同治理机制之间存在并非上下级关系的重叠交叉。这种重叠交叉正是当前 AI 治理的一个突出特点,不同公司都在制定各自的原则和规范,每个国家也都在制定 AI的法律法规,国际组织也在同时发布各种声明,但这些却构成了一个比较多元但混乱的局面。

此外在维度上,AI 治理可划分为技术、社会和产出等三个维度。所谓技术维度,指利用算法、数据、安全、标准等技术方法来规避 AI 可能带来的社会安全隐患;而社会维度则主要依靠伦理、原则、规范、法律等来防范 AI 可能带来的社会治理问题;另一方面,从产出维度考虑,则是如何去衡量AI可能产生的隐私性、安全性、劳动取代、财富差距、民主等问题治理的效果。

2、AI治理的挑战

薛澜教授在报告中强调,AI 治理面临诸多挑战,但最大的挑战是,技术发展与社会系统演变节奏差之间的“Pacing Problem”:AI 技术近些年来发展太快,而另一方面社会规制体系的演化则是相对缓慢的。

这种Pacing Problem,在未来的一段时间里,极有可能会变得越来越大。因此在今年6月中旬国家新一代人工智能治理专业委员会发布的《新一代人工智能治理原则——发展负责任的人工智能》中,特别有一条强调“敏捷治理”,即改变传统治理模式,以新型治理模式来适应人工智能快速发展所带来的治理挑战。

AI治理的另一项挑战是治理主体(例如政府)的内在矛盾。一方面这些治理主体需要 AI 的帮助来提高能力、促进效率、降低人工成本等;但另一方面,在使用AI的同时也将不得不承受 AI 所带来的数据安全、隐私保护、社会歧视、决策错误等风险。

AI 治理的第三大挑战在于,发展 AI的主体(例如企业)与治理AI的主体(例如政府)之间存在着博弈问题。针对这一问题,从政府的层面来看缺乏相应的政策工具来规制企业内部的行为,因此这就要求企业自身有极强的自律能力。除此之外,企业还必须要处理好如何以更负责任的态度来开发和应用 AI。

3、为什么需要人工智能的国际治理?

在报告中,薛澜教授提出一个重要问题:人工智能的国际治理,为什么这么重要?

薛澜教授提出四点理由:

  • 公共物品:人工智能可能是提升人类福祉的有力工具,但需要全球层面的协调才有可能充分发挥其潜力;

  • 合作促进发展:人工智能的发展涉及许多跨境问题,如开源算法、数据流、网络安全、科学合作、贸易和全球价值链等。

  • 人类共同关切:人工智能的不当应用有可能会对人类社会产生毁灭性的影响(如大规模自主杀伤武器),而且不太可能由一个国家来解决。这一领域的不透明和不当竞争可能导致新的军备竞赛。

  • 调解分歧:不同国家对人工智能开发和应用的管理差异很大,制度和行动者(Actor)的策略也各不相同。没有经过深思熟虑的协同努力,很难在全球范围达成共识。

全球 AI 治理是一个重要且具有挑战性的问题,截止目前,尽管已经有一些工作,但还有待进一步促进。那么,在后疫情时代,如何开展全球 AI 治理的下一步呢?

薛澜教授给出五条建议,分别为:

  • 建立合作治理 AI 问题的全球性平台;

  • 从互联网治理、核武器治理、空间法和气候变化治理中学习经验吸取教训;

  • 加强AI研究的科学合作和交流,包括对与 AI 治理和社会影响有关问题的研究;

  • 考虑国家之间的社会、经济、政治、文化差异,在保留差异的同时,寻求共同的价值观(例如负责任的创新);

  • 制定共同的原则和规范,以指导Al的健康发展和部署。

02

推动建立人工智能国际治理体系

清华大学人工智能国际治理研究院名誉院长傅莹在“人工智能国际治理的多维透视”环节发表主旨演讲,阐释了构建人工智能国际治理体系和机制的重要性和必要性。她呼吁在人工智能领域建设包容性强的国际治理委员会,研究、探讨、吸纳好的建议和意见,形成共同的国际规范。

她重点介绍了中美专家在“人工智能与国际安全治理”合作项目中取得的进展。她说,既然人工智能武器化不可避免,专家们研究的方向是寻找合适的治理路径。人类必须汲取历史教训,例如对核武器的治理共识就形成得太晚,导致人类曾面临巨大威胁,互联网的治理共识也没能在早期实现。由此可见,前瞻性治理共识不可或缺。大家希望这次对人工智能,尤其是智能武器的治理,人类能走在技术变革的前面,充分认识其风险,早些达成治理共识,引领全球人工智能的健康发展。

她谈到,中国国内在对人工智能技术应用的治理和立法方面已经在采取实际行动,中国在人工智能治理问题上也向国际社会释放了清晰的合作信号。当然,从更大的角度看,这是人类共同的难题,不是一个国家、两个国家能解决的。中美两国乃至国际机构和各国围绕这个话题展开合作至关重要,希望也相信这不是一场零和游戏,人工智能最终应使得全人类受益。

傅莹论坛上还回答了澎湃新闻(www.thepaper.cn)记者的在线提问:“我们是否应该制定全球性的人工智能治理准则?制定这一准则最关键的因素是什么?”

她表示,当今国际社会并没有成立一个世界政府,要有一个大家一致遵守的、严格和严密的规则比较难,但是联合国在一定程度上发挥着协调国际治理的作用。联合国副秘书长(法布里齐奥·霍奇尔德)在讲话中就谈到在国际治理方面加强合作和构建机制的必要性。

傅莹说,大家在讨论人工智能的国际治理时,经常引用在核武器治理方面享有国际威望和影响力的Pugwash机构(帕格沃什科学和世界事务会议)。“这个机构最初是由科学家组织起来,对后来核武器的治理给予了很多技术上的指导和政治上的影响。在生物科学等领域里,一些科研人员组成的机构也有很强的影响力。”

“所以希望在人工智能领域,能够出现被大家所接受的,由科研人员、政府和政策专业人士组成的机构,能把目前大家提出的关切和解决办法综合起来,形成对未来治理的指导性意见。”

“在政府的作用方面,进入21世纪,各国之间的全球性合作比过去强很多,G20开会时领导人们也多次提到这方面的问题。所以我对在国家层面形成更多的共识和有约束力的指导方向也寄予期待。”

中国科学院院士、北京智源人工智能研究院学术委员张钹主要论述了人工智能治理与人工智能的发展如何结合这一议题。人工智能为什么要治理?主要原因在于人工智能技术容易被误用和滥用,而且会产生很严重的后果。原因有三:

第一,所有技术都存在两面性,人工智能也不例外,人工智能既可以用来造福人类,也可能会伤害人类。


第二,现在的人工智能技术非常脆弱,它很容易被攻击、被欺骗。

第三,数据安全问题。人工智能依赖大量的数据,但数据也存在大量需要解决的问题,比如隐私问题、知识产权问题、偏见问题、污染问题、存在错误等等,这些同样会造成很大的危险。

 

那我们应该怎么来解决人工智能安全性的问题呢?张院士认为必须从两方面下手,一方面是治理,另一方面是发展。我们该如何发展它?大家现在提出来的第三代人工智能,是从理论上解决人工智能的可解释和鲁棒性的问题,在这个基础上发展安全、可靠、可信、可扩展的人工智能技术,这是发展的一个方向。

 

张院士表示针对此,目前主要做了两项工作,一是已经发布的一个计算平台-OneFlow。现在市面上主流的框架平台,就是TensorFlow和PyTorch,OneFlow的可解释性比别的好,有很多优点,现在已经应用在交通、医疗、智能制造等很多领域。最近又发布了两个产品,一个叫RealSecure,主要做隐私保护,从计算层面保护数据,实现可追溯,并清除掉有偏见的数据。另外一个产品是RealSafe2.0,可以抵御攻击。

张院士认为治理和发展应该相辅相成,共同前进。一方面根据现阶段人工智能的发展状况,应该提出一系列治理的政策、方针,但随着技术的发展,治理方式应该与时俱进。只有将两者结合起来,共同发展安全、可靠、可信、可拓展的第三代人工智能技术,人工智能的发展才能更加安全。


点击左下角“阅读原文”,了解更多!

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章