• 文献检索
  • 文档翻译
  • 深度研究
  • 学术资讯
  • Suppr Zotero 插件Zotero 插件
  • 邀请有礼
  • 套餐&价格
  • 历史记录
应用&插件
Suppr Zotero 插件Zotero 插件浏览器插件Mac 客户端Windows 客户端微信小程序
定价
高级版会员购买积分包购买API积分包
服务
文献检索文档翻译深度研究API 文档MCP 服务
关于我们
关于 Suppr公司介绍联系我们用户协议隐私条款
关注我们

Suppr 超能文献

核心技术专利:CN118964589B侵权必究
粤ICP备2023148730 号-1Suppr @ 2026

文献检索

告别复杂PubMed语法,用中文像聊天一样搜索,搜遍4000万医学文献。AI智能推荐,让科研检索更轻松。

立即免费搜索

文件翻译

保留排版,准确专业,支持PDF/Word/PPT等文件格式,支持 12+语言互译。

免费翻译文档

深度研究

AI帮你快速写综述,25分钟生成高质量综述,智能提取关键信息,辅助科研写作。

立即免费体验

基于神经常微分方程的数据驱动时空混沌约简建模。

Data-driven reduced-order modeling of spatiotemporal chaos with neural ordinary differential equations.

机构信息

Department of Chemical and Biological Engineering, University of Wisconsin-Madison, Madison, Wisconsin 53706, USA.

出版信息

Chaos. 2022 Jul;32(7):073110. doi: 10.1063/5.0069536.

DOI:10.1063/5.0069536
PMID:35907719
Abstract

Dissipative partial differential equations that exhibit chaotic dynamics tend to evolve to attractors that exist on finite-dimensional manifolds. We present a data-driven reduced-order modeling method that capitalizes on this fact by finding a coordinate representation for this manifold and then a system of ordinary differential equations (ODEs) describing the dynamics in this coordinate system. The manifold coordinates are discovered using an undercomplete autoencoder-a neural network (NN) that reduces and then expands dimension. Then, the ODE, in these coordinates, is determined by a NN using the neural ODE framework. Both of these steps only require snapshots of data to learn a model, and the data can be widely and/or unevenly spaced. Time-derivative information is not needed. We apply this framework to the Kuramoto-Sivashinsky equation for domain sizes that exhibit chaotic dynamics with again estimated manifold dimensions ranging from 8 to 28. With this system, we find that dimension reduction improves performance relative to predictions in the ambient space, where artifacts arise. Then, with the low-dimensional model, we vary the training data spacing and find excellent short- and long-time statistical recreation of the true dynamics for widely spaced data (spacing of ∼ 0.7 Lyapunov times). We end by comparing performance with various degrees of dimension reduction and find a "sweet spot" in terms of performance vs dimension.

摘要

表现出混沌动力学的耗散偏微分方程往往会演化为存在于有限维流形上的吸引子。我们提出了一种数据驱动的降阶建模方法,该方法利用这一事实,找到这个流形的坐标表示,然后找到描述这个坐标系中动力学的常微分方程(ODE)系统。流形坐标是使用欠完备自编码器(一种降维和扩展维度的神经网络(NN))发现的。然后,使用神经 ODE 框架,NN 在这些坐标中确定 ODE。这两个步骤都只需要数据的快照来学习模型,并且数据可以广泛地和/或不均匀地间隔。不需要时间导数信息。我们将该框架应用于 Kuramoto-Sivashinsky 方程,对于表现出混沌动力学的域大小,估计的流形维度范围从 8 到 28。在这个系统中,我们发现与在环境空间中的预测相比,降维提高了性能,在环境空间中会出现伪影。然后,对于低维模型,我们改变训练数据的间隔,并发现对于广泛间隔的数据(间隔约为 0.7 Lyapunov 时间),可以极好地重现真实动力学的短期和长期统计再现。最后,我们比较了不同程度的降维和性能的关系,并在性能与维度方面找到了一个“最佳点”。

相似文献

1
Data-driven reduced-order modeling of spatiotemporal chaos with neural ordinary differential equations.基于神经常微分方程的数据驱动时空混沌约简建模。
Chaos. 2022 Jul;32(7):073110. doi: 10.1063/5.0069536.
2
Deep learning delay coordinate dynamics for chaotic attractors from partial observable data.深度学习从部分可观测数据中延迟坐标动力学的混沌吸引子。
Phys Rev E. 2023 Mar;107(3-1):034215. doi: 10.1103/PhysRevE.107.034215.
3
The deep arbitrary polynomial chaos neural network or how Deep Artificial Neural Networks could benefit from data-driven homogeneous chaos theory.深度任意多项式混沌神经网络或深度人工神经网络如何从数据驱动的均匀混沌理论中受益。
Neural Netw. 2023 Sep;166:85-104. doi: 10.1016/j.neunet.2023.06.036. Epub 2023 Jul 10.
4
Analysis of chaotic saddles in high-dimensional dynamical systems: the Kuramoto-Sivashinsky equation.高维动力系统中混沌鞍点的分析:Kuramoto-Sivashinsky方程
Chaos. 2004 Sep;14(3):545-56. doi: 10.1063/1.1759297.
5
Learning a reduced basis of dynamical systems using an autoencoder.使用自动编码器学习动力系统的简约基。
Phys Rev E. 2021 Sep;104(3-1):034202. doi: 10.1103/PhysRevE.104.034202.
6
An in-depth numerical study of the two-dimensional Kuramoto-Sivashinsky equation.二维Kuramoto-Sivashinsky方程的深入数值研究。
Proc Math Phys Eng Sci. 2015 Jul 8;471(2179):20140932. doi: 10.1098/rspa.2014.0932.
7
Deep learning to discover and predict dynamics on an inertial manifold.利用深度学习在惯性流形上发现并预测动力学。
Phys Rev E. 2020 Jun;101(6-1):062209. doi: 10.1103/PhysRevE.101.062209.
8
Backpropagation algorithms and Reservoir Computing in Recurrent Neural Networks for the forecasting of complex spatiotemporal dynamics.反向传播算法和递归神经网络中的 Reservoir Computing 在复杂时空动力学预测中的应用。
Neural Netw. 2020 Jun;126:191-217. doi: 10.1016/j.neunet.2020.02.016. Epub 2020 Mar 21.
9
Emergent Spaces for Coupled Oscillators.耦合振荡器的涌现空间。
Front Comput Neurosci. 2020 May 12;14:36. doi: 10.3389/fncom.2020.00036. eCollection 2020.
10
Global and local reduced models for interacting, heterogeneous agents.全球和局部的交互、异质主体的简化模型。
Chaos. 2021 Jul;31(7):073139. doi: 10.1063/5.0055840.

引用本文的文献

1
Simulation Optimization of Spatiotemporal Dynamics in 3D Geometries.三维几何结构中时空动力学的模拟优化
IEEE Trans Autom Sci Eng. 2025;22:10442-10456. doi: 10.1109/tase.2024.3524132. Epub 2025 Jan 6.
2
Stability analysis of chaotic systems in latent spaces.潜在空间中混沌系统的稳定性分析。
Nonlinear Dyn. 2025;113(11):13791-13806. doi: 10.1007/s11071-024-10712-w. Epub 2025 Feb 4.
3
Learning hydrodynamic equations for active matter from particle simulations and experiments.从粒子模拟和实验中学习活性物质的流体动力学方程。
Proc Natl Acad Sci U S A. 2023 Feb 14;120(7):e2206994120. doi: 10.1073/pnas.2206994120. Epub 2023 Feb 10.