不透明的人工智能模型可能具有欺骗性

本文最初发表在 Towards Data Science 博客,经原作者 Prajakta Kharkar Nigam 授权,InfoQ 中文站翻译并分享。

“人工智能确实不错,除了’你可能根本无法完全信任它‘”,牛津大学人类未来研究所的高级研究员曾说。为了能够信任人工智能,人们需要依赖真正能信任的模型。如果人工智能模型的运作方式不透明,就很难信任任何模型或任何第三方来源。

就其本身而言,技术与能源一样,都是纯粹的潜力。我们如何部署技术,以及以何种意图来部署技术,对其产生的影响起着至关重要的作用。人工智能亦不例外。

Netflix 最近的纪录片《监视资本主义:智能陷阱》(The Social Dilemma)深入探讨了那些从控制我们的注意力和改变我们的行为中获利的商业利益集团是如何利用技术,特别是人工智能来控制我们的。

虽然滥用的可能性并非人工智能的独特特征,但有一些独特的原因使得人工智能模型构成了更严重的威胁。作为该行业的专业人士及其“用户”,我观察到,为人工智能赋能的模型的不透明性是我们正在承担的关键风险。

不透明的人工智能模型

去年在多伦多大学的深度学习暑期班上,我了解到,大多数人工智能模型使用的是机器学习、深度学习或强化学习方法。机器学习方法是基于先进的统计建模,用于做出更好的预测。深度学习和强化学习使用的是神经网络。神经网络是模拟我们大脑决策结构的多层算法。尽管不如生物神经网络复杂,但这些网络提供了相当真实和详细的过程模型。

原文链接:【https://www.infoq.cn/article/8UWYY3cXGmJSgTOkiqpS】。未经作者许可,禁止转载。

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章