• 文献检索
  • 文档翻译
  • 深度研究
  • 学术资讯
  • Suppr Zotero 插件Zotero 插件
  • 邀请有礼
  • 套餐&价格
  • 历史记录
应用&插件
Suppr Zotero 插件Zotero 插件浏览器插件Mac 客户端Windows 客户端微信小程序
定价
高级版会员购买积分包购买API积分包
服务
文献检索文档翻译深度研究API 文档MCP 服务
关于我们
关于 Suppr公司介绍联系我们用户协议隐私条款
关注我们

Suppr 超能文献

核心技术专利:CN118964589B侵权必究
粤ICP备2023148730 号-1Suppr @ 2026

文献检索

告别复杂PubMed语法,用中文像聊天一样搜索,搜遍4000万医学文献。AI智能推荐,让科研检索更轻松。

立即免费搜索

文件翻译

保留排版,准确专业,支持PDF/Word/PPT等文件格式,支持 12+语言互译。

免费翻译文档

深度研究

AI帮你快速写综述,25分钟生成高质量综述,智能提取关键信息,辅助科研写作。

立即免费体验

基于正常距离图的步态识别。

Gait Recognition Based on Normal Distance Maps.

出版信息

IEEE Trans Cybern. 2018 May;48(5):1526-1539. doi: 10.1109/TCYB.2017.2705799. Epub 2017 Jun 5.

DOI:10.1109/TCYB.2017.2705799
PMID:28600269
Abstract

Gait is a commonly used biometric for human recognition. Its main advantage relies on its ability to identify people at distances at which other biometrics fail. In this paper, we develop a new approach for gait recognition that combines the distance transform with curvatures of local contours. We call our gait feature template the normal distance map. Our method encodes both body shapes and boundary curvatures into a novel feature descriptor that is more robust than existing gait representations. We evaluate our approach on the widely used and challenging USF and CASIA-B datasets. Furthermore, we evaluate it on the OU-ISIR gait dataset, the largest one available in the literature, to obtain statistically reliable results. We verify our approach is significantly superior to the current state-of-the-art under most conditions.

摘要

步态是一种常用的人体识别生物特征。它的主要优势在于能够在其他生物特征无法识别的距离识别人员。在本文中,我们开发了一种新的步态识别方法,该方法将距离变换与局部轮廓的曲率相结合。我们将我们的步态特征模板称为正常距离图。我们的方法将身体形状和边界曲率编码到一种新的特征描述符中,该描述符比现有的步态表示更稳健。我们在广泛使用的具有挑战性的 USF 和 CASIA-B 数据集上评估我们的方法。此外,我们在 OU-ISIR 步态数据集上对其进行评估,该数据集是文献中最大的数据集,以获得具有统计学意义的可靠结果。我们验证了我们的方法在大多数情况下明显优于当前的最先进技术。

相似文献

1
Gait Recognition Based on Normal Distance Maps.基于正常距离图的步态识别。
IEEE Trans Cybern. 2018 May;48(5):1526-1539. doi: 10.1109/TCYB.2017.2705799. Epub 2017 Jun 5.
2
A Comprehensive Study on Cross-View Gait Based Human Identification with Deep CNNs.基于深度卷积神经网络的跨视角步态人体识别综合研究
IEEE Trans Pattern Anal Mach Intell. 2017 Feb;39(2):209-226. doi: 10.1109/TPAMI.2016.2545669. Epub 2016 Mar 23.
3
On Learning Disentangled Representations for Gait Recognition.关于步态识别的解缠表示学习。
IEEE Trans Pattern Anal Mach Intell. 2022 Jan;44(1):345-360. doi: 10.1109/TPAMI.2020.2998790. Epub 2021 Dec 7.
4
Human Gait Recognition Based on Frame-by-Frame Gait Energy Images and Convolutional Long Short-Term Memory.基于逐帧步态能量图像和卷积长短期记忆的人体步态识别
Int J Neural Syst. 2020 Jan;30(1):1950027. doi: 10.1142/S0129065719500278. Epub 2019 Sep 18.
5
Gait-ViT: Gait Recognition with Vision Transformer.步态-ViT:基于视觉Transformer 的步态识别。
Sensors (Basel). 2022 Sep 28;22(19):7362. doi: 10.3390/s22197362.
6
A Novel Multi-Scaled Deep Convolutional Structure for Punctilious Human Gait Authentication.一种用于精确人体步态认证的新型多尺度深度卷积结构。
Biomimetics (Basel). 2024 Jun 16;9(6):364. doi: 10.3390/biomimetics9060364.
7
On Reducing the Effect of Covariate Factors in Gait Recognition: A Classifier Ensemble Method.基于分类器集成的步态识别中协变量因素影响的消减方法。
IEEE Trans Pattern Anal Mach Intell. 2015 Jul;37(7):1521-8. doi: 10.1109/TPAMI.2014.2366766.
8
Speed invariant gait recognition-The enhanced mutual subspace method.速度不变步态识别——增强互子空间法。
PLoS One. 2021 Aug 11;16(8):e0255927. doi: 10.1371/journal.pone.0255927. eCollection 2021.
9
GaitSet: Cross-View Gait Recognition Through Utilizing Gait As a Deep Set.步态集:通过将步态视为一个深度集来实现跨视角步态识别。
IEEE Trans Pattern Anal Mach Intell. 2022 Jul;44(7):3467-3478. doi: 10.1109/TPAMI.2021.3057879. Epub 2022 Jun 3.
10
Compact and Low-Complexity Binary Feature Descriptor and Fisher Vectors for Video Analytics.用于视频分析的紧凑且低复杂度的二进制特征描述符和 Fisher 向量。
IEEE Trans Image Process. 2019 Dec;28(12):6169-6184. doi: 10.1109/TIP.2019.2922826. Epub 2019 Jun 26.

引用本文的文献

1
Research Method of Discontinuous-Gait Image Recognition Based on Human Skeleton Keypoint Extraction.基于人体骨骼关键点提取的不连续步态图像识别研究方法。
Sensors (Basel). 2023 Aug 19;23(16):7274. doi: 10.3390/s23167274.
2
Free-view gait recognition.自由视角步态识别。
PLoS One. 2019 Apr 16;14(4):e0214389. doi: 10.1371/journal.pone.0214389. eCollection 2019.