• 文献检索
  • 文档翻译
  • 深度研究
  • 学术资讯
  • Suppr Zotero 插件Zotero 插件
  • 邀请有礼
  • 套餐&价格
  • 历史记录
应用&插件
Suppr Zotero 插件Zotero 插件浏览器插件Mac 客户端Windows 客户端微信小程序
定价
高级版会员购买积分包购买API积分包
服务
文献检索文档翻译深度研究API 文档MCP 服务
关于我们
关于 Suppr公司介绍联系我们用户协议隐私条款
关注我们

Suppr 超能文献

核心技术专利:CN118964589B侵权必究
粤ICP备2023148730 号-1Suppr @ 2026

文献检索

告别复杂PubMed语法,用中文像聊天一样搜索,搜遍4000万医学文献。AI智能推荐,让科研检索更轻松。

立即免费搜索

文件翻译

保留排版,准确专业,支持PDF/Word/PPT等文件格式,支持 12+语言互译。

免费翻译文档

深度研究

AI帮你快速写综述,25分钟生成高质量综述,智能提取关键信息,辅助科研写作。

立即免费体验

符号序列的熵估计

Entropy estimation of symbol sequences.

作者信息

Schurmann Thomas, Grassberger Peter

机构信息

Department of Theoretical Physics, University of Wuppertal, D-42097 Wuppertal, Germany.

出版信息

Chaos. 1996 Sep;6(3):414-427. doi: 10.1063/1.166191.

DOI:10.1063/1.166191
PMID:12780271
Abstract

We discuss algorithms for estimating the Shannon entropy h of finite symbol sequences with long range correlations. In particular, we consider algorithms which estimate h from the code lengths produced by some compression algorithm. Our interest is in describing their convergence with sequence length, assuming no limits for the space and time complexities of the compression algorithms. A scaling law is proposed for extrapolation from finite sample lengths. This is applied to sequences of dynamical systems in non-trivial chaotic regimes, a 1-D cellular automaton, and to written English texts. (c)1996 American Institute of Physics.

摘要

我们讨论了用于估计具有长程相关性的有限符号序列的香农熵(h)的算法。特别地,我们考虑从某些压缩算法产生的编码长度来估计(h)的算法。我们感兴趣的是描述它们随着序列长度的收敛情况,假设压缩算法的空间和时间复杂度没有限制。提出了一种用于从有限样本长度进行外推的标度律。这被应用于非平凡混沌区域的动力系统序列、一维细胞自动机以及书面英语文本。(c)1996美国物理研究所。

相似文献

1
Entropy estimation of symbol sequences.符号序列的熵估计
Chaos. 1996 Sep;6(3):414-427. doi: 10.1063/1.166191.
2
Estimating the entropy of DNA sequences.估计DNA序列的熵。
J Theor Biol. 1997 Oct 7;188(3):369-77. doi: 10.1006/jtbi.1997.0493.
3
Information content of protein sequences.蛋白质序列的信息内容。
J Theor Biol. 2000 Oct 7;206(3):379-86. doi: 10.1006/jtbi.2000.2138.
4
Entropy conservation as h(T(&mgr;) ) approximately lambda(&mgr;) (+)d(&mgr;) in neurobiological dynamical systems.神经生物学动力系统中熵守恒,如h(T(μ))近似于λ(μ)(+)d(μ) 。
Chaos. 1997 Mar;7(1):67-81. doi: 10.1063/1.166241.
5
Rényi continuous entropy of DNA sequences.DNA序列的雷尼连续熵
J Theor Biol. 2004 Dec 7;231(3):377-88. doi: 10.1016/j.jtbi.2004.06.030.
6
Entropy balance, time reversibility, and mass transport in dynamical systems.动力系统中的熵平衡、时间可逆性与质量输运。
Chaos. 1998 Jun;8(2):396-408. doi: 10.1063/1.166322.
7
[Computation of the probabilities of families of biological sequences].[生物序列家族概率的计算]
Biofizika. 2009 Sep-Oct;54(5):791-7.
8
A note on chaotic unimodal maps and applications.关于混沌单峰映射及其应用的笔记。
Chaos. 2006 Sep;16(3):033113. doi: 10.1063/1.2218048.
9
Obtaining functional form for chaotic time series evolution using genetic algorithm.使用遗传算法获取混沌时间序列演化的函数形式。
Chaos. 1999 Sep;9(3):789-794. doi: 10.1063/1.166452.
10
Enlarged scaling ranges for the KS-entropy and the information dimension.KS熵和信息维的扩展标度范围。
Chaos. 1996 Jun;6(2):167-171. doi: 10.1063/1.166161.

引用本文的文献

1
Information rate of meaningful communication.有意义交流的信息率。
Proc Natl Acad Sci U S A. 2025 Jun 24;122(25):e2502353122. doi: 10.1073/pnas.2502353122. Epub 2025 Jun 18.
2
Linear mixed-effect models for correlated response to process electroencephalogram recordings.用于处理脑电图记录相关反应的线性混合效应模型。
Cogn Neurodyn. 2024 Jun;18(3):1197-1207. doi: 10.1007/s11571-023-09984-6. Epub 2023 Jun 19.
3
A Comparative Analysis of Discrete Entropy Estimators for Large-Alphabet Problems.针对大字母表问题的离散熵估计器的比较分析
Entropy (Basel). 2024 Apr 28;26(5):369. doi: 10.3390/e26050369.
4
Human languages with greater information density have higher communication speed but lower conversation breadth.人类语言的信息密度越大,其交流速度就越快,但对话广度就越低。
Nat Hum Behav. 2024 Apr;8(4):644-656. doi: 10.1038/s41562-024-01815-w. Epub 2024 Feb 16.
5
Entropy Estimators for Markovian Sequences: A Comparative Analysis.马尔可夫序列的熵估计器:比较分析
Entropy (Basel). 2024 Jan 17;26(1):0. doi: 10.3390/e26010079.
6
Languages with more speakers tend to be harder to (machine-)learn.使用人口较多的语言往往更难(通过机器)学习。
Sci Rep. 2023 Oct 28;13(1):18521. doi: 10.1038/s41598-023-45373-z.
7
A large quantitative analysis of written language challenges the idea that all languages are equally complex.一项针对书面语言的大规模定量分析对所有语言都同样复杂这一观点提出了挑战。
Sci Rep. 2023 Sep 16;13(1):15351. doi: 10.1038/s41598-023-42327-3.
8
Several Basic Elements of Entropic Statistics.熵统计的几个基本要素。
Entropy (Basel). 2023 Jul 13;25(7):1060. doi: 10.3390/e25071060.
9
Gene regulation network inference using k-nearest neighbor-based mutual information estimation: revisiting an old DREAM.基于 k-最近邻互信息估计的基因调控网络推断:重新审视一个旧的 DREAM。
BMC Bioinformatics. 2023 Mar 6;24(1):84. doi: 10.1186/s12859-022-05047-5.
10
Cancer Segmentation by Entropic Analysis of Ordered Gene Expression Profiles.通过有序基因表达谱的熵分析进行癌症分割
Entropy (Basel). 2022 Nov 29;24(12):1744. doi: 10.3390/e24121744.