Suppr超能文献

基于GrabCut 的视频序列中的人体分割。

GrabCut-based human segmentation in video sequences.

机构信息

Departamento MAIA, Universitat de Barcelona, Barcelona, Spain.

出版信息

Sensors (Basel). 2012 Nov 9;12(11):15376-93. doi: 10.3390/s121115376.

Abstract

In this paper, we present a fully-automatic Spatio-Temporal GrabCut human segmentation methodology that combines tracking and segmentation. GrabCut initialization is performed by a HOG-based subject detection, face detection, and skin color model. Spatial information is included by Mean Shift clustering whereas temporal coherence is considered by the historical of Gaussian Mixture Models. Moreover, full face and pose recovery is obtained by combining human segmentation with Active Appearance Models and Conditional Random Fields. Results over public datasets and in a new Human Limb dataset show a robust segmentation and recovery of both face and pose using the presented methodology.

摘要

本文提出了一种全自动的时空 GrabCut 人体分割方法,该方法结合了跟踪和分割。GrabCut 的初始化是通过基于 HOG 的主体检测、人脸检测和肤色模型来完成的。空间信息通过均值漂移聚类包含,而时间一致性则通过高斯混合模型的历史记录来考虑。此外,通过将人体分割与主动外观模型和条件随机场相结合,获得了完整的人脸和姿势恢复。在公共数据集和新的人体肢体数据集上的结果表明,使用所提出的方法可以稳健地分割和恢复人脸和姿势。

https://cdn.ncbi.nlm.nih.gov/pmc/blobs/4a0b/3522968/c07314d8d85d/sensors-12-15376f1.jpg

文献AI研究员

20分钟写一篇综述,助力文献阅读效率提升50倍。

立即体验

用中文搜PubMed

大模型驱动的PubMed中文搜索引擎

马上搜索

文档翻译

学术文献翻译模型,支持多种主流文档格式。

立即体验