搜索资源列表
kl
- 计算kl散度,信息熵,是随机变量或整个系统的不确定性。熵越大,随机变量或系统的不确定性就越大。 相对熵,用来衡量两个取值为正的函数或概率分布之间的差异。 交叉熵,用来衡量在给定的真实分布下,使用非真实分布所指定的策略消除系统的不确定性所需要付出的努力的大小。 相对熵=交叉熵-信息熵(Relative entropy, used to measure the difference between two positive functions or probability distributi