• 文献检索
  • 文档翻译
  • 深度研究
  • 学术资讯
  • Suppr Zotero 插件Zotero 插件
  • 邀请有礼
  • 套餐&价格
  • 历史记录
应用&插件
Suppr Zotero 插件Zotero 插件浏览器插件Mac 客户端Windows 客户端微信小程序
定价
高级版会员购买积分包购买API积分包
服务
文献检索文档翻译深度研究API 文档MCP 服务
关于我们
关于 Suppr公司介绍联系我们用户协议隐私条款
关注我们

Suppr 超能文献

核心技术专利:CN118964589B侵权必究
粤ICP备2023148730 号-1Suppr @ 2026

文献检索

告别复杂PubMed语法,用中文像聊天一样搜索,搜遍4000万医学文献。AI智能推荐,让科研检索更轻松。

立即免费搜索

文件翻译

保留排版,准确专业,支持PDF/Word/PPT等文件格式,支持 12+语言互译。

免费翻译文档

深度研究

AI帮你快速写综述,25分钟生成高质量综述,智能提取关键信息,辅助科研写作。

立即免费体验

为时空视频建模与分割选择显著帧。

Selecting salient frames for spatiotemporal video modeling and segmentation.

作者信息

Song Xiaomu, Fan Guoliang

机构信息

Evanston Northwestern Healthcare Research Institute and Northwestern University, Evanston, IL 60201, USA.

出版信息

IEEE Trans Image Process. 2007 Dec;16(12):3035-46. doi: 10.1109/tip.2007.908283.

DOI:10.1109/tip.2007.908283
PMID:18092601
Abstract

We propose a new statistical generative model for spatiotemporal video segmentation. The objective is to partition a video sequence into homogeneous segments that can be used as "building blocks" for semantic video segmentation. The baseline framework is a Gaussian mixture model (GMM)-based video modeling approach that involves a six-dimensional spatiotemporal feature space. Specifically, we introduce the concept of frame saliency to quantify the relevancy of a video frame to the GMM-based spatiotemporal video modeling. This helps us use a small set of salient frames to facilitate the model training by reducing data redundancy and irrelevance. A modified expectation maximization algorithm is developed for simultaneous GMM training and frame saliency estimation, and the frames with the highest saliency values are extracted to refine the GMM estimation for video segmentation. Moreover, it is interesting to find that frame saliency can imply some object behaviors. This makes the proposed method also applicable to other frame-related video analysis tasks, such as key-frame extraction, video skimming, etc. Experiments on real videos demonstrate the effectiveness and efficiency of the proposed method.

摘要

我们提出了一种用于时空视频分割的新统计生成模型。目标是将视频序列划分为同质段,这些段可作为语义视频分割的“构建块”。基线框架是一种基于高斯混合模型(GMM)的视频建模方法,涉及一个六维时空特征空间。具体而言,我们引入了帧显著性的概念,以量化视频帧与基于GMM的时空视频建模的相关性。这有助于我们通过减少数据冗余和无关性,使用一小部分显著帧来促进模型训练。开发了一种改进的期望最大化算法,用于同时进行GMM训练和帧显著性估计,并提取具有最高显著性值的帧以细化用于视频分割的GMM估计。此外,有趣的是发现帧显著性可以暗示一些对象行为。这使得所提出的方法也适用于其他与帧相关的视频分析任务,例如关键帧提取、视频浏览等。对真实视频的实验证明了所提出方法的有效性和效率。

相似文献

1
Selecting salient frames for spatiotemporal video modeling and segmentation.为时空视频建模与分割选择显著帧。
IEEE Trans Image Process. 2007 Dec;16(12):3035-46. doi: 10.1109/tip.2007.908283.
2
Context-based segmentation of image sequences.基于上下文的图像序列分割
IEEE Trans Pattern Anal Mach Intell. 2006 Mar;28(3):463-8. doi: 10.1109/TPAMI.2006.47.
3
Effective gaussian mixture learning for video background subtraction.用于视频背景减除的有效高斯混合学习
IEEE Trans Pattern Anal Mach Intell. 2005 May;27(5):827-32. doi: 10.1109/TPAMI.2005.102.
4
Spatiotemporal video segmentation based on graphical models.基于图形模型的时空视频分割
IEEE Trans Image Process. 2005 Jul;14(7):937-47. doi: 10.1109/tip.2005.849330.
5
Probabilistic space-time video modeling via piecewise GMM.基于分段高斯混合模型的概率时空视频建模
IEEE Trans Pattern Anal Mach Intell. 2004 Mar;26(3):384-96. doi: 10.1109/TPAMI.2004.1262334.
6
Video saliency incorporating spatiotemporal cues and uncertainty weighting.视频显著度融合时空线索和不确定性加权。
IEEE Trans Image Process. 2014 Sep;23(9):3910-21. doi: 10.1109/TIP.2014.2336549. Epub 2014 Jul 16.
7
Robust object tracking via online dynamic spatial bias appearance models.通过在线动态空间偏差外观模型实现鲁棒目标跟踪
IEEE Trans Pattern Anal Mach Intell. 2007 Dec;29(12):2157-69. doi: 10.1109/TPAMI.2007.1134.
8
Robust global motion estimation oriented to video object segmentation.面向视频对象分割的鲁棒全局运动估计
IEEE Trans Image Process. 2008 Jun;17(6):958-67. doi: 10.1109/TIP.2008.921985.
9
Semi-supervised video segmentation using tree structured graphical models.基于树状图结构模型的半监督视频分割。
IEEE Trans Pattern Anal Mach Intell. 2013 Nov;35(11):2751-64. doi: 10.1109/TPAMI.2013.54.
10
Statistical processing of large image sequences.大图像序列的统计处理
IEEE Trans Image Process. 2005 Jan;14(1):80-93. doi: 10.1109/tip.2004.838703.