在DIT和DIT中KL散度结果的差异科学统计

2024-09-30 18:21:31 发布

您现在位置:Python中文网/ 问答频道 /正文

我试图在Python中计算两个概率分布之间的KL散度。你知道吗

首先我使用libdit

from dit.divergences import kullback_leibler_divergence
p = dit.Distribution(['0', '1'], [3/4, 1/4])
q = dit.Distribution(['0', '1'], [1/2, 1/2])
kullback_leibler_divergence(p, q)

返回0.1887

如果我用scipy做同样的事情

from scipy.stats import entropy
p = [3/4, 1/4]
q = [1/2, 1/2]
entropy(p,q)

返回0.1308

为什么结果不同?你知道吗


Tags: fromimportscipy事情distributionentropy散度概率分布