Representation Learning With Contrastive Predictive Coding梳理
一种通用的无监督学习方法——对比预测编码。通过自回归模型预测潜在空间(高维空间)的未来,以学习高级表征。在训练阶段不涉及具体下游任务。
原文
参考:https://zhuanlan.zhihu.com/p/129076690
主要贡献
- 将高维数据压缩到更加紧密的潜在嵌入空间,这个空间中条件预测更容易建模。
- 在这个潜在空间中使用强大的自回归模型来做多步未来预测。
- 损失函数依靠噪声对比估计,这是与自然语言模型中用于学习词嵌入类似的方式,需要整个模型以端到端的形式进行训练。将最终的模型(对比预测编码,CPC)用在了很多不同的数据模态中,包括图像、语音、自然语言和强化学习,结果表明同样的机制在每一个领域中都学到了有趣的高级表征,而且优于其他方法。
对于输入样本$xt
衡量 和 的相关性
互信息可以很好的衡量相关性:
但是由于不方便计算(可见MINE.md),作者采用一个正比于
然后这个$fk(x{t+k}, c_t)$函数的具体计算表达式为:
我觉得应该才开看,第一步是$Wk^Tz{t+k}
衡量互信息
经过一系列证明,可以得到:
其中
可见最小化
其中,
对
文章中还涉及了对图像、自然语言、语音的不同形式的信号的建模,有需要可以查看原文。
本文作者: Joffrey-Luo Cheng
本文链接: http://lcjoffrey.top/2021/12/04/cpc/
版权声明: 本博客所有文章除特别声明外,均采用 CC BY-SA 4.0 协议 ,转载请注明出处!
v1.5.2