• 文献检索
  • 文档翻译
  • 深度研究
  • 学术资讯
  • Suppr Zotero 插件Zotero 插件
  • 邀请有礼
  • 套餐&价格
  • 历史记录
应用&插件
Suppr Zotero 插件Zotero 插件浏览器插件Mac 客户端Windows 客户端微信小程序
定价
高级版会员购买积分包购买API积分包
服务
文献检索文档翻译深度研究API 文档MCP 服务
关于我们
关于 Suppr公司介绍联系我们用户协议隐私条款
关注我们

Suppr 超能文献

核心技术专利:CN118964589B侵权必究
粤ICP备2023148730 号-1Suppr @ 2026

文献检索

告别复杂PubMed语法,用中文像聊天一样搜索,搜遍4000万医学文献。AI智能推荐,让科研检索更轻松。

立即免费搜索

文件翻译

保留排版,准确专业,支持PDF/Word/PPT等文件格式,支持 12+语言互译。

免费翻译文档

深度研究

AI帮你快速写综述,25分钟生成高质量综述,智能提取关键信息,辅助科研写作。

立即免费体验

通过运动归一化进行场景摘要

Scene Summarization via Motion Normalization.

作者信息

Wehrwein Scott, Bala Kavita, Snavely Noah

出版信息

IEEE Trans Vis Comput Graph. 2021 Apr;27(4):2495-2501. doi: 10.1109/TVCG.2020.2993195. Epub 2021 Feb 25.

DOI:10.1109/TVCG.2020.2993195
PMID:32396092
Abstract

When observing the visual world, temporal phenomena are ubiquitous: people walk, cars drive, rivers flow, clouds drift, and shadows elongate. Some of these, like water splashing and cloud motion, occur over time intervals that are either too short or too long for humans to easily observe. High-speed and timelapse videos provide a popular and compelling way to visualize these phenomena, but many real-world scenes exhibit motions occurring at a variety of rates. Once a framerate is chosen, phenomena at other rates are at best invisible, and at worst create distracting artifacts. In this article, we propose to automatically normalize the pixel-space speed of different motions in an input video to produce a seamless output with spatiotemporally varying framerate. To achieve this, we propose to analyze scenes at different timescales to isolate and analyze motions that occur at vastly different rates. Our method optionally allows a user to specify additional constraints according to artistic preferences. The motion normalized output provides a novel way to compactly visualize the changes occurring in a scene over a broad range of timescales.

摘要

在观察视觉世界时,时间现象无处不在:人在行走、汽车在行驶、河流在流淌、云朵在漂移、影子在拉长。其中一些现象,如水花飞溅和云的运动,其发生的时间间隔要么太短,要么太长,人类难以轻松观察到。高速视频和延时视频提供了一种流行且引人注目的方式来可视化这些现象,但许多现实世界场景呈现出以各种速率发生的运动。一旦选择了帧率,其他速率的现象充其量是不可见的,最坏的情况是会产生干扰性伪像。在本文中,我们建议自动归一化输入视频中不同运动的像素空间速度,以产生具有时空变化帧率的无缝输出。为实现这一点,我们建议在不同时间尺度上分析场景,以分离和分析以截然不同速率发生的运动。我们的方法允许用户根据艺术偏好选择性地指定额外的约束条件。运动归一化输出提供了一种新颖的方式,可紧凑地可视化在广泛时间尺度上场景中发生的变化。

相似文献

1
Scene Summarization via Motion Normalization.通过运动归一化进行场景摘要
IEEE Trans Vis Comput Graph. 2021 Apr;27(4):2495-2501. doi: 10.1109/TVCG.2020.2993195. Epub 2021 Feb 25.
2
Visualizing the Passage of Time with Video Temporal Pyramids.利用视频时间金字塔可视化时间流逝
IEEE Trans Vis Comput Graph. 2023 Jan;29(1):171-181. doi: 10.1109/TVCG.2022.3209454. Epub 2022 Dec 20.
3
High resolution animated scenes from stills.由静态图片生成的高分辨率动画场景。
IEEE Trans Vis Comput Graph. 2007 May-Jun;13(3):562-568. doi: 10.1109/TVCG.2007.1005.
4
Tracking pedestrians using local spatio-temporal motion patterns in extremely crowded scenes.基于局部时空运动模式跟踪极度拥挤场景中的行人。
IEEE Trans Pattern Anal Mach Intell. 2012 May;34(5):987-1002. doi: 10.1109/TPAMI.2011.173.
5
Video Folding: Increased Framerate for Semi-Repetitive Sequences.视频折叠:半重复序列的帧率提高。
IEEE Trans Vis Comput Graph. 2021 Oct;27(10):3900-3912. doi: 10.1109/TVCG.2020.2992670. Epub 2021 Sep 1.
6
Presentation of 3D Scenes Through Video Example.通过视频示例展示 3D 场景。
IEEE Trans Vis Comput Graph. 2017 Sep;23(9):2096-2107. doi: 10.1109/TVCG.2016.2608828. Epub 2016 Sep 13.
7
Parallax360: Stereoscopic 360° Scene Representation for Head-Motion Parallax.Parallax360:用于头部运动视差的立体 360°场景表示。
IEEE Trans Vis Comput Graph. 2018 Apr;24(4):1545-1553. doi: 10.1109/TVCG.2018.2794071.
8
A Diffusion and Clustering-Based Approach for Finding Coherent Motions and Understanding Crowd Scenes.基于扩散和聚类的方法来发现连贯运动和理解人群场景。
IEEE Trans Image Process. 2016 Apr;25(4):1674-87. doi: 10.1109/TIP.2016.2531281. Epub 2016 Feb 18.
9
Videography-Based Unconstrained Video Analysis.基于视频的非约束性视频分析。
IEEE Trans Image Process. 2017 May;26(5):2261-2273. doi: 10.1109/TIP.2017.2678800. Epub 2017 Mar 6.
10
Two cloud-based cues for estimating scene structure and camera calibration.基于云的两种提示用于估计场景结构和相机校准。
IEEE Trans Pattern Anal Mach Intell. 2013 Oct;35(10):2526-38. doi: 10.1109/TPAMI.2013.55.