【发布时间】:2020-02-29 03:49:52
【问题描述】:
我正在尝试计算两个数值数组之间的熵 (scipy.stats.entropy),以量化它们基础分布的差异。
由于计算熵需要两个输入具有相同的形状,我想使用 KDE 估计较小列表的分布,以从中采样新数据。
使用 0 到 1e-02 之间的输入我无法从拟合的 KDE 中得出合理的数字?
emp_values = np.array([0.000618, 0.000425, 0.000597, 0.000528, 0.000393, 0.000721,
0.000674, 0.000703, 0.000632, 0.000383, 0.000466, 0.000919,
0.001419, 0.00063 , 0.000433, 0.000516, 0.001419, 0.000655,
0.000674, 0.000676, 0.000694, 0.000396, 0.000688, 0.00061 ,
0.000687, 0.000633, 0.000601, 0.00061 , 0.000747, 0.000356,
0.000824, 0.000931, 0.000691, 0.000907, 0.000553, 0.000748,
0.000828, 0.000907, 0.000457, 0.000494])
kde_emp = KernelDensity().fit(emp_values.reshape(-1, 1))
使用KDE.sample 绘制随机数会产生完全超出范围的值?
kde_emp.sample(10)
array([[-3.0811253 ],
[ 1.24822136],
[ 0.07815318],
[ 0.01609681],
[-0.59676707],
[-0.89988083],
[-0.59071966],
[-0.72741754],
[ 0.82296101],
[ 0.08329316]])
那么从拟合的 PDF 中抽取 10.000 个随机样本的合适方法是什么?
【问题讨论】:
标签: python scikit-learn kernel-density probability-density