Max-Divergence(最大散度)其实是 KL-Divergence 的一个“更严格、更保守”的版本。
如果说 KL 是在看 平均差多少,那 Max-Divergence 看的是 最坏情况下能差多少。
先用一个直觉抓住它。
KL-Divergence:平均来看,你错得有多离谱
Max-Divergence:最极端的一次,你可能错得有多离谱
就像:
这也是为什么 差分隐私(Differential Privacy) 里,最早就是用 Max-Divergence 来定义隐私强度的。
Max-Divergence(也叫 Rényi divergence of order ∞)定义是:
$D_{\infty}(P\|Q)=\log\max_x\frac{P(x)}{Q(x)}$
我们逐个拆。
表示: