• 文献检索
  • 文档翻译
  • 深度研究
  • 学术资讯
  • Suppr Zotero 插件Zotero 插件
  • 邀请有礼
  • 套餐&价格
  • 历史记录
应用&插件
Suppr Zotero 插件Zotero 插件浏览器插件Mac 客户端Windows 客户端微信小程序
定价
高级版会员购买积分包购买API积分包
服务
文献检索文档翻译深度研究API 文档MCP 服务
关于我们
关于 Suppr公司介绍联系我们用户协议隐私条款
关注我们

Suppr 超能文献

核心技术专利:CN118964589B侵权必究
粤ICP备2023148730 号-1Suppr @ 2026

文献检索

告别复杂PubMed语法,用中文像聊天一样搜索,搜遍4000万医学文献。AI智能推荐,让科研检索更轻松。

立即免费搜索

文件翻译

保留排版,准确专业,支持PDF/Word/PPT等文件格式,支持 12+语言互译。

免费翻译文档

深度研究

AI帮你快速写综述,25分钟生成高质量综述,智能提取关键信息,辅助科研写作。

立即免费体验

信息熵作为等待时间分布非指数性的一种度量。

Information entropy as a measure of nonexponentiality of waiting-time distributions.

作者信息

Chekmarev Sergei F

机构信息

Institute of Thermophysics, 630090 Novosibirsk, Russia and Department of Physics, Novosibirsk State University, 630090 Novosibirsk, Russia.

出版信息

Phys Rev E Stat Nonlin Soft Matter Phys. 2008 Dec;78(6 Pt 2):066113. doi: 10.1103/PhysRevE.78.066113. Epub 2008 Dec 23.

DOI:10.1103/PhysRevE.78.066113
PMID:19256911
Abstract

It is shown that the information entropy based on waiting-time distributions (WTDs) offers a natural and robust measure of nonexponentiality of the distributions in the form of the Schrödinger-Brillouin negentropy, or equivalently the Kullback-Leibler divergence, and has a straightforward interpretation in terms of transition state theory. Other measures of nonexponentiality of WTDs, based on comparison of the standard deviation and the median with the mean waiting time, are also discussed. The theoretical analysis is illustrated with results from protein folding studies.

摘要

结果表明,基于等待时间分布(WTDs)的信息熵以薛定谔 - 布里渊负熵的形式,或者等效地以库尔贝克 - 莱布勒散度的形式,提供了一种自然且稳健的分布非指数性度量,并且在过渡态理论方面具有直接的解释。还讨论了基于标准差和中位数与平均等待时间比较的WTDs非指数性的其他度量。通过蛋白质折叠研究的结果对理论分析进行了说明。

相似文献

1
Information entropy as a measure of nonexponentiality of waiting-time distributions.信息熵作为等待时间分布非指数性的一种度量。
Phys Rev E Stat Nonlin Soft Matter Phys. 2008 Dec;78(6 Pt 2):066113. doi: 10.1103/PhysRevE.78.066113. Epub 2008 Dec 23.
2
Some Order Preserving Inequalities for Cross Entropy and Kullback-Leibler Divergence.关于交叉熵和库尔贝克-莱布勒散度的一些保序不等式。
Entropy (Basel). 2018 Dec 12;20(12):959. doi: 10.3390/e20120959.
3
Maximum entropy, analysis of kinetic processes involving chemical and folding-unfolding changes in proteins.最大熵,涉及蛋白质化学及折叠-去折叠变化的动力学过程分析。
Anal Biochem. 1997 Jan 15;244(2):239-55. doi: 10.1006/abio.1996.9873.
4
Group entropies, correlation laws, and zeta functions.群熵、相关定律和黎曼ζ函数。
Phys Rev E Stat Nonlin Soft Matter Phys. 2011 Aug;84(2 Pt 1):021121. doi: 10.1103/PhysRevE.84.021121. Epub 2011 Aug 10.
5
The Degradation and Aging of Biological Systems as a Process of Information Loss and Entropy Increase.生物系统的退化与老化:作为信息丢失和熵增加的过程
Entropy (Basel). 2023 Jul 15;25(7):1067. doi: 10.3390/e25071067.
6
Minimising the Kullback-Leibler Divergence for Model Selection in Distributed Nonlinear Systems.用于分布式非线性系统模型选择的最小化库尔贝克-莱布勒散度
Entropy (Basel). 2018 Jan 23;20(2):51. doi: 10.3390/e20020051.
7
Bayesian similarity searching in high-dimensional descriptor spaces combined with Kullback-Leibler descriptor divergence analysis.结合库尔贝克-莱布勒描述符散度分析的高维描述符空间中的贝叶斯相似性搜索。
J Chem Inf Model. 2008 Feb;48(2):247-55. doi: 10.1021/ci700333t. Epub 2008 Jan 30.
8
Discrete Versions of Jensen-Fisher, Fisher and Bayes-Fisher Information Measures of Finite Mixture Distributions.有限混合分布的詹森 - 费希尔、费希尔和贝叶斯 - 费希尔信息度量的离散版本
Entropy (Basel). 2021 Mar 18;23(3):363. doi: 10.3390/e23030363.
9
Exact Expressions for Kullback-Leibler Divergence for Multivariate and Matrix-Variate Distributions.多元和矩阵变量分布的库尔贝克-莱布勒散度的精确表达式。
Entropy (Basel). 2024 Aug 4;26(8):663. doi: 10.3390/e26080663.
10
Information estimators for weighted observations.加权观测的信息估计量。
Neural Netw. 2013 Oct;46:260-75. doi: 10.1016/j.neunet.2013.06.005. Epub 2013 Jun 24.

引用本文的文献

1
Temperature behavior of the Kohlrausch exponent for a series of vinylic polymers modelled by an all-atomistic approach.通过全原子方法建模的一系列乙烯基聚合物的科尔劳施指数的温度行为。
Eur Phys J E Soft Matter. 2011 Sep;34(9):90. doi: 10.1140/epje/i2011-11090-y. Epub 2011 Sep 22.