Mutual Information Neural Estimation梳理

Mutual Information Neural Estimation

原文
参考:https://ruihongqiu.github.io/posts/2020/07/mine/

背景

互信息可以衡量两个随机变量之间的相关性:

互信息量和KL散度的关系如下:

但实际计算中,特别是对于高维空间来说,其边缘熵$H(X)$、$H(Z)$和条件熵$H(X|Z)$难以计算。f89025089ec5c780a5d7a6df7c0193e

解决方案

作者给出了两种利用梯度下降算法逼近的互信息估计,分别是The Donsker-Varadhan representationThe f-divergence representation

The Donsker-Varadhan representation

其中$\mathbb{P}$和$\mathbb{Q}$是两个任意分布,$T$是从样本空间$\Omega$映射到实数$\mathbb{R}$的任意函数。

证明见大佬Ruihong Qiu中2.2节

The f-divergence representation

The f-divergence representation可以看做是The Donsker-Varadhan representation的弱化版本,由2.1和不等式$\frac{x}{e}> log\mathcal{x}$易得。

最终形式

我们希望用一个可以利用梯度更新的神经网络模型来计算上式,则有:

其中$T$是一个神经网络;$X$、$Z$是两个样本集。得到估计的梯度为:

但是这种方式是有偏的。可以通过滑动平均来估计$\mathbb{E}B[e^{T\theta}]$

完整的过程如下:

image-20210906185214958