Suppr超能文献

关于熵估计的一则注释。

A Note on Entropy Estimation.

作者信息

Schürmann Thomas

机构信息

Jülich Supercomputing Centre, Jülich Research Centre, 52425 Jülich, Germany.

出版信息

Neural Comput. 2015 Oct;27(10):2097-106. doi: 10.1162/NECO_a_00775. Epub 2015 Aug 27.

Abstract

We compare an entropy estimator H(z) recently discussed by Zhang (2012) with two estimators, H(1) and H(2), introduced by Grassberger (2003) and Schürmann (2004). We prove the identity H(z) ≡ H(1), which has not been taken into account by Zhang (2012). Then we prove that the systematic error (bias) of H(1) is less than or equal to the bias of the ordinary likelihood (or plug-in) estimator of entropy. Finally, by numerical simulation, we verify that for the most interesting regime of small sample estimation and large event spaces, the estimator H(2) has a significantly smaller statistical error than H(z).

摘要

我们将Zhang(2012年)最近讨论的熵估计器H(z)与Grassberger(2003年)和Schürmann(2004年)引入的两个估计器H(1)和H(2)进行比较。我们证明了恒等式H(z) ≡ H(1),而Zhang(2012年)并未考虑到这一点。然后我们证明H(1)的系统误差(偏差)小于或等于熵的普通似然(或插入)估计器的偏差。最后,通过数值模拟,我们验证了对于小样本估计和大事件空间这个最有趣的情况,估计器H(2)的统计误差比H(z)显著更小。

文献检索

告别复杂PubMed语法,用中文像聊天一样搜索,搜遍4000万医学文献。AI智能推荐,让科研检索更轻松。

立即免费搜索

文件翻译

保留排版,准确专业,支持PDF/Word/PPT等文件格式,支持 12+语言互译。

免费翻译文档

深度研究

AI帮你快速写综述,25分钟生成高质量综述,智能提取关键信息,辅助科研写作。

立即免费体验