参数共享机制soft-share and hard-share【机器学习】

先讲hard-share. 言外之意就是来硬的。实际上两个参数的hard-share就退变成了一个参数。在实际计算过程中,我们就可以使用相同的参数进行计算。参数更新后也保持相同。

再说soft-share。实际上这才是真的两个不同参数,但是我们尽量保证两个参数很接近。为了使两个参数很接近,我们通常使用损失函数来做。如下图,其中θt\theta^tθt\theta^{t'}就是我们想要共享的参数。
在这里插入图片描述

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章