• 文献检索
  • 文档翻译
  • 深度研究
  • 学术资讯
  • Suppr Zotero 插件Zotero 插件
  • 邀请有礼
  • 套餐&价格
  • 历史记录
应用&插件
Suppr Zotero 插件Zotero 插件浏览器插件Mac 客户端Windows 客户端微信小程序
定价
高级版会员购买积分包购买API积分包
服务
文献检索文档翻译深度研究API 文档MCP 服务
关于我们
关于 Suppr公司介绍联系我们用户协议隐私条款
关注我们

Suppr 超能文献

核心技术专利:CN118964589B侵权必究
粤ICP备2023148730 号-1Suppr @ 2026

文献检索

告别复杂PubMed语法,用中文像聊天一样搜索,搜遍4000万医学文献。AI智能推荐,让科研检索更轻松。

立即免费搜索

文件翻译

保留排版,准确专业,支持PDF/Word/PPT等文件格式,支持 12+语言互译。

免费翻译文档

深度研究

AI帮你快速写综述,25分钟生成高质量综述,智能提取关键信息,辅助科研写作。

立即免费体验

比较 Leap Motion 恢复手势的数据分类结果。

Comparison of Data Classification Results for Leap Motion Recovery Gestures.

机构信息

Department of Automation and Applied Informatics Politehnica University Timisoara, Romania.

出版信息

Stud Health Technol Inform. 2022 Jun 29;295:189-192. doi: 10.3233/SHTI220694.

DOI:10.3233/SHTI220694
PMID:35773840
Abstract

Static and dynamic gestures are frequently used in activities supporting learning, recovery healthcare, engineering, and 3D games to increase the interactivity between man and machine. The gestures are detected via hardware devices and data is processed using different software methods. This paper presents the manner of detection and interpretation of two gestures, a hand rotation gesture and a palm closing and opening gesture, using the Leap Motion device. These two dynamic gestures are very often used in hand recovery exercises. For comparing the two gestures we use data classification methods, Support Vector Machine (SVM) and Multilayer Perceptron (MLP). The data for the gesture classification were 80% training data and 20% testing data. The metrics for comparison are precision, recall, F1-score, and the total number of testing cases (support). The SVM classifier gives an accuracy of 99.4% and the MLP classifier a 96.2%. We built two confusion matrices for better visualizing the results.

摘要

静态和动态手势经常用于支持学习、康复医疗、工程和 3D 游戏的活动中,以增加人机之间的交互性。这些手势通过硬件设备进行检测,并使用不同的软件方法处理数据。本文介绍了使用 Leap Motion 设备检测和解释两种手势的方法,一种是手部旋转手势,另一种是手掌开合手势。这两种动态手势在手部康复练习中经常使用。为了比较这两种手势,我们使用了数据分类方法,支持向量机 (SVM) 和多层感知机 (MLP)。手势分类的数据是 80%的训练数据和 20%的测试数据。比较的指标是精度、召回率、F1 分数和测试用例总数 (支持)。SVM 分类器的准确率为 99.4%,MLP 分类器的准确率为 96.2%。我们构建了两个混淆矩阵,以便更好地可视化结果。

相似文献

1
Comparison of Data Classification Results for Leap Motion Recovery Gestures.比较 Leap Motion 恢复手势的数据分类结果。
Stud Health Technol Inform. 2022 Jun 29;295:189-192. doi: 10.3233/SHTI220694.
2
Recovery Gestures Classification Using KNN and LDA Models.基于 KNN 和 LDA 模型的康复手势分类。
Stud Health Technol Inform. 2023 Oct 20;309:58-62. doi: 10.3233/SHTI230739.
3
Enhancing Precision in Gesture Detection for Hand Recovery After Injury Using Leap Motion and Machine Learning.利用Leap Motion和机器学习提高损伤后手恢复中手势检测的精度
Stud Health Technol Inform. 2019 Jul 4;262:320-323. doi: 10.3233/SHTI190083.
4
Static Hand Gesture Recognition Using Capacitive Sensing and Machine Learning.基于电容式感应和机器学习的静态手势识别。
Sensors (Basel). 2023 Mar 24;23(7):3419. doi: 10.3390/s23073419.
5
Glove-Based Hand Gesture Recognition for Diver Communication.基于手套的手势识别在潜水通信中的应用。
IEEE Trans Neural Netw Learn Syst. 2023 Dec;34(12):9874-9886. doi: 10.1109/TNNLS.2022.3161682. Epub 2023 Nov 30.
6
Gesture Classification for a Hand Controller Device Using Neural Networks.使用神经网络对手持控制器设备进行手势分类。
Stud Health Technol Inform. 2020 Jun 16;270:756-760. doi: 10.3233/SHTI200262.
7
Comparison of Data Classification Results in Serious Gaming for Rehabilitation of Rheumatoid Arthritis.严重游戏康复类风湿关节炎数据分类结果的比较。
Stud Health Technol Inform. 2023 Oct 20;309:63-67. doi: 10.3233/SHTI230740.
8
Enhancement of gesture recognition for contactless interface using a personalized classifier in the operating room.使用手术室中的个性化分类器增强非接触式界面的手势识别。
Comput Methods Programs Biomed. 2018 Jul;161:39-44. doi: 10.1016/j.cmpb.2018.04.003. Epub 2018 Apr 6.
9
putEMG-A Surface Electromyography Hand Gesture Recognition Dataset.putEMG-A 表面肌电手势识别数据集。
Sensors (Basel). 2019 Aug 14;19(16):3548. doi: 10.3390/s19163548.
10
A virtual surgical prototype system based on gesture recognition for virtual surgical training in maxillofacial surgery.基于手势识别的虚拟手术原型系统在颌面外科虚拟手术培训中的应用。
Int J Comput Assist Radiol Surg. 2023 May;18(5):909-919. doi: 10.1007/s11548-022-02790-1. Epub 2022 Nov 23.