熵 又称自信息,描述一个随机变量的不确定性的数量。

联合熵 一对随机变量平均所需要的信息量。

条件熵 给定随机变量X的条件下,随机变量Y的条件熵。


互信息 知道了Y的值以后X的不确定性的减少量。

相对熵 又称KL距离,衡量相同事件空间里两个概率分布相对差距的测度。

交叉熵 【熵】衡量估计模型与真实概率分布之间差异情况。

困惑度 代替交叉熵衡量语言模型的好坏。

    推荐阅读