对元学习的一些想法

我从去年年底开始被老板拉入元学习的坑以来(后来发现他是拍脑袋决定的),陆陆续续地也读过十来篇元学习领域的论文了,算是对这个领域有了一定的了解。

我原本是打算在剩下的时间里在元学习领域深耕,以希望能有一些还过得去的成果。奈何元学习在解决实际问题时价值实在不大,而我们课题组的工作偏应用,希望算法可以解决实际的问题。元学习现在的应用多存在于计算机视觉领域,在人脸识别等任务上有一些应用。但是我们课题组的研究方向主要是自然语言处理,能应用上元学习的场景实在有限。这是我暂缓元学习研究的原因之一。

元学习自MAML提出以来,感觉发展好像有点停滞。最新的元学习进展要么是将MAML应用于具体的任务,要么是对MAML进行改造,鲜有能比肩MAML的里程碑式算法出现。而MAML的提出者Chelsea Finn的研究兴趣已经转向机器人领域。最近一年的顶会上,元学习的文章已经比较少见了,我自己找到的只有4篇,还都是一些无关痛痒的贡献。元学习是一种学习如何学习的算法,希望机器可以像人一样快速学习。而我们知道人之所以可以快速学习,是因为人之前积累了大量的先验知识。所以我觉得,如果我们能从先验知识的角度切入,通过将“元知识”(我自创的一种叫法)引入训练集,可能可以得到一些比较好的结果。我自己想过一种引入元知识的方法,但还没有经过实验验证,等我验证了之后再分享出来吧。

由于课题组的要求,我最近的研究方向也转到了对课题组可能更有帮助的自然语言处理领域的鲁棒性算法和强化学习上了。转了方向之后跟实验室的业务也更加贴近。我这两个月在读文献时,发现了一篇很有意思的文章《Learning to reweight examples for robust deep learning》,这篇文章的思想时通过模型学习出训练样本的权重,训练一轮后对训练样本进行重赋权然后再进行训练。这篇文章声称自己受了元学习的启发,才想出了这个算法。我在想,现有元学习方法都聚集于快速学习,那我能不能将元学习用于构造鲁棒性算法呢?我觉得是个有趣的研究方向。

我不想把自己的博客写成一个纯粹的技术博客,我希望它是一个可以分享自己在计算机领域见解和历程的平台,当然也是一个交流平台。因为我个人是半路出家,之前学的是数学,所以这个博客在探讨一些问题的时候可能会更侧重得出结论的过程,而不是简单地写出一个结论。

希望自己在未来可以保持稳定地更新博客,最近受疫情影响,在家里蹲了快半年了,中间也犯懒过好多次。

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章