MIT研究人员警告:深度学习正在接近计算极限

本文最初发表于venturebeat,由InfoQ中文站翻译并分享。

我们正在接近深度学习的计算极限。这是根据麻省理工学院、MIT-IBM Watson AI Lab、安德伍德国际学院(Underwood International College)和巴西利亚大学(University of Brasilia)的研究人员 最新的一项研究中发现的。

深度学习领域的进步在“很大程度上”依赖于计算机的发展。他们断言,深度学习要实现持续的进步,将需要“戏剧性的”提高更有计算效率的方法,要么通过改变现有技术,要么通过新的、尚未发现的方法。

“我们的研究表明,深度学习的计算开销并不是偶然的,而是经过设计的。这种灵活性使它在建模各种现象方面表现出色,并且优于专家模型,同时也使它的计算开销显著增加。”合著者写道,“尽管如此,我们发现深度学习模型的实际计算负担比理论(已知)下限增长得更快,这表明实质性的改进是有可能的。

深度学习是机器学习的一个子领域,研究受大脑结构和功能启发的算法。这些算法被称为人工智能网络,它由层层排列的函数(神经元)组成,它们将信号传递给其他神经元。这些信号是输入到网络中的数据的产物,从一层传递到另一层,并对网络进行缓慢的“调整”,实际上是在调整每个连接的突触强度(权重)。通过数据集中提取特征并识别交叉样本的趋势,网络最终学会做出预测。

原文链接:【https://www.infoq.cn/article/w1qr0gtG8sGWDJdMe6Pg】。未经作者许可,禁止转载。

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章