• ISSN: 1674-7461
  • CN: 11-5823/TU
  • 主管:中国科学技术协会
  • 主办:中国图学学会
  • 承办:中国建筑科学研究院有限公司

基于MediaPipe的手势识别用于挖掘机遥操作控制

王如斌, 窦全礼, 张淇, 周诚

王如斌, 窦全礼, 张淇, 周诚. 基于MediaPipe的手势识别用于挖掘机遥操作控制[J]. 土木建筑工程信息技术, 2022, 14(4): 9-16. DOI: 10.16670/j.cnki.cn11-5823/tu.2022.04.02
引用本文: 王如斌, 窦全礼, 张淇, 周诚. 基于MediaPipe的手势识别用于挖掘机遥操作控制[J]. 土木建筑工程信息技术, 2022, 14(4): 9-16. DOI: 10.16670/j.cnki.cn11-5823/tu.2022.04.02
Rubin Wang, Quanli Dou, Qi Zhang, Cheng Zhou. Gesture Recognition Based on MediaPipe for Excavator Teleoperation Control[J]. Journal of Information Technologyin Civil Engineering and Architecture, 2022, 14(4): 9-16. DOI: 10.16670/j.cnki.cn11-5823/tu.2022.04.02
Citation: Rubin Wang, Quanli Dou, Qi Zhang, Cheng Zhou. Gesture Recognition Based on MediaPipe for Excavator Teleoperation Control[J]. Journal of Information Technologyin Civil Engineering and Architecture, 2022, 14(4): 9-16. DOI: 10.16670/j.cnki.cn11-5823/tu.2022.04.02

基于MediaPipe的手势识别用于挖掘机遥操作控制

基金项目: 

湖北省自然科学杰出青年基金项目“盾构施工安全风险智能控制” 2021CFA091

湖北省重大科技专项“智能建造关键技术及应用” 2020ACA006

国家自然科学基金面上项目“工程安全风险误警致因机理与智能预警方法研究” 72171092

详细信息
    作者简介:

    王如斌(1998-),男,在读硕士研究生,主要研究方向:数字建造与工程安全

    通讯作者:

    窦全礼(1983-),男,助理工程师,战略规划部副部长,主要研究方向:交通工程、智能施工装备

  • 中图分类号: TU17;TU6

Gesture Recognition Based on MediaPipe for Excavator Teleoperation Control

  • 摘要: 挖掘机有十分广泛的应用场景,但在某些危险工况下,对其采用遥操作是更好的选择。同时,近年来随着机器视觉和深度学习的发展,涌现出一系列手势识别的算法和框架。为了探究基于MediaPipe的手势识别算法在挖掘机遥操作中的应用,本文将手部不同手势与挖掘机的不同动作相对应,提出一种利用手势实现挖掘机遥操作的新型控制方式。在实验室环境下,对实验用挖掘机器人进行运动学分析,采用MediaPipe对15种手势类型进行实时静态识别,生成指令并利用Arduino单片机实现对挖掘机的控制。结果显示,该系统具有良好的性能,可以用于挖掘机的遥操作控制,为挖掘机的远程控制提供了一种新型的人机交互形式。
    Abstract: Excavators have broad application scenarios, but in certain hazardous working conditions, using teleoperation is a better option. Meanwhile, with the development of machine vision and deep learning in recent years, a number of algorithms and frameworks for gesture recognition are becoming available. In order to explore the application of MediaPipe-based gesture recognition algorithms in excavator teleoperation, this paper corresponds different hand gestures to different movements of the excavator, and proposes a new control method using hand gestures to achieve excavator teleoperation. The kinematic analysis of the experimental excavation robot was carried out in a laboratory environment, and MediaPipe was used to perform real-time static recognition of 15 gesture types, generate commands and realise the control of the excavator using an Arduino microcontroller. The results show that the system has good performance and can be used for teleoperation control of the excavator, which provides a new form of human-computer interaction for remote control of the excavators.
  • 挖掘机是普遍应用于土石方工程施工的工程机械之一,传统的人工操作挖掘机的方式有其局限性:一方面,挖掘机操作员在执行重复任务时处在噪声与振动环境中,需要时刻保持专注,以便进行高效的工作[6-7];另一方面,挖掘机通常在比较恶劣的环境下作业,有时被应用于污染土壤修复、抢险救灾等危险工况,此类情况下如采用人工现场操作挖掘机的作业方式,会对操作者的人身安全构成威胁[3],因此需要找寻一种远程、无人的作业方式。挖掘机的机器人化是现在急需解决的问题,在全自动智能挖掘机研制出来之前,通过遥操作控制挖掘机在未来相当长的一段时间内都会占有重要的地位,其中基于人机交互的遥操作方式的设计与研究也受到了广泛的关注[4]

    手势交互是一种重要的自然交互方式,因而手势识别成为人机交互的一个重要分支领域[5]。近些年来,国内外的研究机构曾成功开发了大量能够实现遥操作的设备和算法,目前存在一些将手势识别和遥操作结合的相关研究,大致可分为基于穿戴设备的手势识别[1-2]和基于视觉的手势识别[8]两大类。后者又可分为静态手势识别和动态手势识别两类,静态研究时间节点上的图像,动态识别时序图像[9]

    本文针对传统的人工现场操作挖掘机的方式与现存的挖掘机遥控方式中存在的控制精度低、复合作业程度低等缺点,提出一种基于MediaPipe机器视觉的手势识别用于挖掘机遥操作控制的方案。该遥操作方式能较好地满足挖掘机作业的需求,为挖掘机的远程控制提供了一种更人性化的人机交互形式,具有实际的应用价值和研究价值。

    反铲挖掘机器人遥操作系统由单目相机、挖掘机、远程操作硬件系统和远程操作软件系统构成,如图 1所示。在整个人机交互系统当中,单目相机是主要的外界信息输入设备,其通过采集数据图像并实时传输给手势识别模块,通过MediaPipe算法生成控制指令;挖掘机作为被控制的对象,操作人员可以在工作场地或者通过外设监视器观察挖掘机的工作情况,操作挖掘机,进而对挖掘机的运动状态进行调整。

    图 1 交互系统示意图
    图  1  交互系统示意图

    主端(操作人员+单目相机+计算机)通过改变手势,能够实现控制从端(挖掘机)完成各种工作所需的动作。从端做出与预期不符的动作时,操作者能够及时调整。在熟悉数据手套操作后,挖掘机操作人员能够通过相对省力、简便的动作实现与使用操作杆同样的控制水平。

    反铲液压挖掘机的工作装置由铲斗、铲斗液压油缸、斗杆、斗杆液压油缸、动臂、动臂液压缸和连杆机构组成,且均被铰接,通过缸体的膨胀和收缩来驱动杆,以执行挖掘过程中所需的各种动作,如图 2所示。动臂、斗杆和铲斗的动作可分别进行,也可同时进行,挖掘时动作灵活、效率较高。正常挖掘机液压挖掘机在正常排气运动工作时,机体通常通过依靠三组液压缸的动力支持而分别移动。

    图 2 挖掘机整体结构简化图
    图  2  挖掘机整体结构简化图

    (1) 基本原理

    采用D-H(Denavit-Hartenberg)坐标变换法[10]对实验用挖掘机模型进行运动学分析,通过对工作装置的齐次坐标变换建立工作装置运动方程。如图 3,平行于关节轴建立两个标准坐标系xi-1yi-1zi-1xiyizi,在运用D-H法建模时,有严格的固定的定义变量、参数和表示字符的方式。

    图 3 标准D-H法连杆坐标系
    图  3  标准D-H法连杆坐标系

    连杆参数作定义如下:

    ai-1:沿着xi-1轴测量的从zi-1轴到zi轴的距离

    αi-1zi-1轴和zi轴绕xi-1轴的角

    dizi轴测量的从xi-1轴到xi轴的距离

    θixi-1轴和xi轴绕zi轴的角

    两相邻坐标变换时矩阵为:

    $ M=\left[\begin{array}{cccc} \cos \theta_i & -\cos \alpha_i \sin \theta_i & \sin \alpha_i \sin \theta_i & a_i \cos \theta_i \\ \sin \theta_i & \cos \alpha_i \cos \theta_i & -\cos \alpha_i \sin \theta_i & a_i \sin \theta_i \\ 0 & \sin \theta_i & \cos \alpha_i & d_i \\ 0 & 0 & 0 & 1 \end{array}\right] $

    (2-1)

    右乘坐标变换矩阵的几何意义即是相邻坐标系之间的转换,故重复右乘的操作可完成多个相邻坐标系之间的转换。

    (2) 连杆坐标系

    根据D-H坐标变换法建立挖掘机模型工作装置连杆坐标系如图 4所示:

    图 4 挖掘机工作装置连杆坐标系简图
    图  4  挖掘机工作装置连杆坐标系简图

    其中,O0为旋转中心,O1为动臂铰接点,O2为斗杆铰接点,O3为铲斗铰接点,O4为工作装置末端。

    由D-H法确立各个杆件的参数如表 1所示。

    表  1  工作装置D-H参数表
    杆件
    编号i
    杆件
    长度ai
    杆件
    扭角αi
    关节平
    移量di
    关节回
    转量θi
    关节
    变量
    1 0 0 d1 θ1 θ1
    2 a2 0 0 θ2 θ2
    3 a3 0 0 θ3 θ3
    4 a4 0 0 θ4 θ4
    下载: 导出CSV 
    | 显示表格

    (3) 运动学正解

    根据坐标系变换原则,可以求出由旋转中心O0的基础坐标系表示对工作装置末端O4的位姿矩阵:

    $ { }^0 M_4=\left[\begin{array}{cccc} c_1 c_{234} & -c_1 s_{234} & s_1 & c_1\left(a_1+a_2 c_2+a_3 c_{23}+a_4 c_{234}\right) \\ s_1 s_{234} & -s_1 s_{234} & -c_1 & s_1\left(a_1+a_2 c_2+a_3 s_{23}+a_4 s_{234}\right) \\ s_{234} & c_{234} & 0 & a_1+a_2 c_2+a_3 s_{23}+a_4 s_{234} \\ 0 & 0 & 0 & 1 \end{array}\right] $

    (2-2)

    其中,

    si=sinθisij=sin(θi+θj),sijk=sin(θi+θj+θk),ci=cosθicij=cos(θi+θj),cijk=cos(θi+θj+θk)

    Google基于MediaPipe框架实现了一种全新的手部感知方法,该方法利用机器学习(ML)推断出单帧内的21个3D手部关键点,如图 5所示,从而提供手部与手指的高保真追踪轨迹[11]

    图 5 手部关键点
    图  5  手部关键点

    基于手势识别系统的搭建需要经过三步:手势检测、手势跟踪、手势识别[12],基于MediaPipe的手势识别同样包含手掌检测模型、手部关键部位模型、手势识别器三个部分。其中,手掌检测模型,用于从图像中识别手掌,定义手部边界区域;手部关键部位模型,用于对手部边界区域检测并返回3D手部关键点;手势识别器,则用根据手部关键点定义并识别各种手势。手势识别系统的架构示意图如图 6所示。

    图 6 交互系统示意图
    图  6  交互系统示意图

    手势识别和遥操作实验是在实验室中进行的,对镭速AC360型号的1∶14仿真合金液压挖掘机进行了模拟沙土挖掘的实验。挖掘机模型的几何尺寸如图 7所示(单位:毫米),其可通过直流电源驱动电机与油泵,实现对实际反铲挖掘机的高度仿真。

    图 7 LESU AC360挖掘机模型几何尺寸
    图  7  LESU AC360挖掘机模型几何尺寸

    本文提出的方法是在AMD Ryzen 5 3600X 6-Core六核CPU和Nvidia GeForce GTX 760(2 GB)的台式电脑上利用Python实现的,当然也可以在任何其他安装了Python的PC上执行,需要注意的是要有一个录像规格在1080×720、25FPS以上的摄像头。此外为定义操作指令、控制具体运行程序从而实现对挖掘机的控制,如图 8图 9所示,选用主芯片为AT Mega328P(Uno)单片机的Arduino舵机控制器,其有六个可以用于PWM信号输出的接口。

    图 8 ATmega328P单片机
    图  8  ATmega328P单片机
    图 9 Arduino舵机控制器接口
    图  9  Arduino舵机控制器接口

    实验在两个钢制沙盘中进行,挖掘机放入右侧沙盘中间,其前方设置高于沙土面的沙土堆,以供挖掘机挖掘,示意图和实物图如图 10所示。实验过程分为两个主要部分:手势识别和挖掘机控制器。

    图 10 沙盘示意图和实物图
    图  10  沙盘示意图和实物图

    (1) 手势交互设计

    本系统手势交互由一只手和单目相机完成,通过单手手势的变化,可以对挖掘机器人的行走装置、工作装置进行控制。比如呈竖起大拇指状时,油泵启动;呈大拇指和食指张开的手势“八”状时,车体前进。具体的手势设计如图 11所示。

    图 11 手势交互设计
    图  11  手势交互设计

    (2) 映射过程建立

    映射过程如图 12所示,单目相机采集视频图像数据,连接至计算机,打开计算机应用程序上位机,就可以从中实时读取图像中包含的手势信息。由于获取的手势信息不是所需的标准输出,因此需要由servo库函数转化后变化为舵机转动指令,将所对应的控制指令发送到单片机的舵机上,控制挖掘机行走装置和工作装置的动作变换,实现机器人的姿态检测和相应的动作反应。

    图 12 手势映射过程示意图
    图  12  手势映射过程示意图

    (3) 静态手势识别

    为了对手势识别的准确率进行测试,首先针对静态图片进行手势识别。作者邀请5位同学表演不同的手势,记录手势时,使一只手掌处于屏幕中心,约占屏幕1/4-1/3,以确保手掌大小相似可识别。根据设计的15种手势,每位同学每种手势表演3次,得到225张手势图像。首先将图像压缩到600×600分辨率,然后利用数据增强代码,通过翻转、旋转、平移、模糊、或调亮的形式扩充数据集,最终得到4 500张手势图像。

    图 13依次输入每张手势图像,输出手势识别结果并将结果和手部关键点绘制在图像上,最终统计得到检测置信度为0.8时各手势识别的混淆矩阵,如表 2所示。

    图 13 部分静态手势图像识别输出图像
    图  13  部分静态手势图像识别输出图像
    表  2  检测置信度为0.8时各手势识别准确率
    STOP P-ON P-OFF CW ACW BO-UP BO- DOWN ARM- UP ARM- DOWN BU-UP BU- DOWN FORWARD BACK LEFT RIGHT
    STOP 300 1 0 0 1 1 0 0 0 2 2 1 0 0 8
    P-ON 0 263 0 3 1 1 0 7 4 1 0 0 0 0 0
    P-OFF 0 5 279 0 0 0 1 15 1 0 0 1 0 0 0
    CW 0 0 11 282 2 0 0 0 2 0 0 13 1 0 1
    ACW 0 0 1 0 283 17 0 0 0 0 2 1 0 0 0
    BO-UP 0 0 0 0 0 281 0 0 0 0 0 0 0 0 17
    BO-DOWN 0 0 1 0 4 0 298 0 1 23 10 8 0 0 0
    ARM-UP 0 12 7 0 0 0 0 277 0 0 0 0 0 0 0
    ARM-DOWN 0 4 0 12 0 0 1 1 292 0 1 7 0 0 1
    BU-UP 0 1 0 0 0 0 0 0 0 274 0 1 0 0 0
    BU-DOWN 0 3 0 0 9 0 0 0 0 0 283 1 0 0 0
    FORWARD 0 0 1 3 0 0 0 0 0 0 1 267 23 0 0
    BACK 0 0 0 0 0 0 0 0 0 0 1 0 276 0 0
    LEFT 0 0 0 0 0 0 0 0 0 0 0 0 0 300 0
    RIGHT 0 0 0 0 0 0 0 0 0 0 0 0 0 0 273
    下载: 导出CSV 
    | 显示表格

    采用精确率、召回率和F1综合评价指标来评估手势识别的算法性能,得到表 3,其中

    $ \text { 精确率 }=\frac{\mathrm{TP}}{\mathrm{TP}+\mathrm{FP}} \text {, 召回率 }=\frac{\mathrm{TP}}{\mathrm{TP}+\mathrm{FN}} $

    表  3  各手势预测模型的精确率、召回率以及F1综合评价指标
    精确率
    (%)
    召回率
    (%)
    F1综合评价
    指标(%)
    STOP 94.94 100.00 97.40
    P-ON 93.93 87.67 90.69
    P-OFF 92.38 93.00 92.69
    CW 90.38 94.00 92.16
    ACW 93.09 94.33 93.71
    BO-UP 94.30 93.67 93.98
    BO-DOWN 86.38 99.33 92.40
    ARM-UP 93.58 92.33 92.95
    ARM-DOWN 91.54 97.33 94.35
    BU-UP 99.28 91.33 95.14
    BU-DOWN 95.61 94.33 94.97
    FORWARD 90.51 89.00 89.75
    BACK 99.64 92.00 95.67
    LEFT 100.00 100.00 100.00
    RIGHT 100.00 91.00 95.29
    下载: 导出CSV 
    | 显示表格

    TP(TruePositive):真正例,即预测为正,真实为正的部分;

    FP(FalsePositive):假正例,即预测为正,真实为负的部分;

    FN(FalseNegative):假负例,即预测为负,真实为正。

    此外,为判断手部动作能否被正常识别与显示,验证手势与控制指令能否正确对应,检测并调整手指动作对应数据的上下边界,还需要对视频流下手势识别的准确度进行试验测试。在实验中依次做出图 11所示的15个手势,记录计算机中的上位机显示的数据,判断是否对应了正确的识别手势名称,实验过程中静态手势识别图如图 14所示。

    图 14 静态手势识别
    图  14  静态手势识别

    挖掘机行走装置与工作装置的运动以及单目相机识别到的手势变化之间的映射关系是本课题的核心内容。为验证本文所设计的基于手势识别控制挖掘机的系统能否正常运行,设计了基于手势识别的主从操控实验。

    (1) 主控端设计

    在主控端,首先会由单目相机输入视频流,取每秒25帧图像进行静态手势识别,将手势信息转换为单片机的串口指令。

    在静态手势识别的实验中,可以得到较为稳定的识别结果,但是,仍然存在识别错误的情况。为了消除这种偶现的错误对主从操控实验稳定性的影响,创建了一个手势缓冲器。当手势识别结果达到一定的阈值(≥0.5s),再传输到串口指令生成单元,输出控制指令。

    (2) 从控端设计

    在挖掘机从控端,利用Arduino IDE写入Arduino程序,包含setup和loop两个主函数。在setup函数中对系统进行初始化操作后,loop函数会循环检测串口,接收并解析串口指令,控制舵机等执行对应操作驱动液压缸,实现动臂落下等动作,表 4给出了部分舵机操作串口指令。

    表  4  Arduino舵机串口指令
    指令类型 指令示例 指令解释
    常规指令 RST! 复位指令,停止所有动作,重新启动单片机
    舵机操作指令 DST! 所有舵机停止在当前位置
    DST:003! 003号舵机停止在当前位置
    #IndexPpwmTtime! 单个舵机指令,Index:3位,000-254;pwm:4位,0500-2500;time:4位,0000-9999
    {#000P1500T1000!#001P0900T1000!} 多个舵机指令,用{ }封装多个单舵机指令
    动作序列指令 ! 清除预存动作序列
    < G0000#000P1500T1000!#001P0900T1000!> 存储动作序列
    DGT:0-10,1! 调用动作G0000~G0010组1次,若为0次则代表循环执行
    下载: 导出CSV 
    | 显示表格

    (3) 通信设计

    在挖掘机从控端与计算机主控端,采用蓝牙串口的形式实现双端通信。在计算机端,通过蓝牙模拟串口将手势识别得到的控制指令发送到单片机的蓝牙模块,继而控制挖掘机各部件。

    (4) 主从操控实验

    实验时首先需要调试软硬件系统,随后在沙盘中进行了单动作控制与挖掘沙土的模拟,实验过程部分图像如图 15所示。根据运动学分析,通过获取三个液压缸的行程能解算出铲斗相对于挖掘机车体的位置。因此,可以存储一个动作序列,让液压缸以一定速率伸缩一定的时间,使得铲斗依次达到不同的位置,完成的沙土挖卸动作。将某一手势映射到该动作序列指令,即可实现单手势对挖卸沙土的实现。

    图 15 实验过程部分图像
    图  15  实验过程部分图像

    结果显示控制挖掘机的软件与硬件系统都能够正常运行,对于单动作控制手势识别准确、控制响应迅速,也可以采用此方法实现一个完整的沙土挖掘动作序列。

    本文的主要研究课题是基于MediaPipe的手势识别用于反铲挖掘机的遥操作控制系统,最终实现的功能是通过识别的手势控制挖掘机,能够通过手势操作使挖掘机实现一个完整的挖掘沙土的动作序列。本文设计了15种不同的手势,通过两个实验,使该系统的可行性和鲁棒性得到了验证,能够较准确地识别手势并远程控制挖掘机,为其遥操作提供了一种新型的人机交互思路。

    本研究的局限在于没有在手势识别上进行更深层次的研究,手势P-ON和FORWARD的识别综合评价指标分别为90.69%和89.75%,并不理想。本研究的算法中,主要是通过判别手指的开合来分类识别手势的,在以手背面向摄像头时,就难以实现个别手势的识别。然而,通过这些手势也不能非常流畅地控制挖掘机,无法在挖掘机实际所处的复杂环境下高效施工。

    未来研究的目的在于更流畅便捷地通过手势实现对挖掘机的遥操作,并实现部分自动化。本文中使用的手势识别算法、数据集、通信协议都需要做出相应的改进。虽然MediaPipe可以准确地识别出手部关键点,减小了对数据集的需求,但仍应覆盖较多的人和较复杂的手部识别背景。最好能够实现双手协作和动态的手势识别,将行走装置与工作装置的控制剥离,并对一定时序内的动态手势进行识别。

  • 图  1   交互系统示意图

    图  2   挖掘机整体结构简化图

    图  3   标准D-H法连杆坐标系

    图  4   挖掘机工作装置连杆坐标系简图

    图  5   手部关键点

    图  6   交互系统示意图

    图  7   LESU AC360挖掘机模型几何尺寸

    图  8   ATmega328P单片机

    图  9   Arduino舵机控制器接口

    图  10   沙盘示意图和实物图

    图  11   手势交互设计

    图  12   手势映射过程示意图

    图  13   部分静态手势图像识别输出图像

    图  14   静态手势识别

    图  15   实验过程部分图像

    表  1   工作装置D-H参数表

    杆件
    编号i
    杆件
    长度ai
    杆件
    扭角αi
    关节平
    移量di
    关节回
    转量θi
    关节
    变量
    1 0 0 d1 θ1 θ1
    2 a2 0 0 θ2 θ2
    3 a3 0 0 θ3 θ3
    4 a4 0 0 θ4 θ4
    下载: 导出CSV

    表  2   检测置信度为0.8时各手势识别准确率

    STOP P-ON P-OFF CW ACW BO-UP BO- DOWN ARM- UP ARM- DOWN BU-UP BU- DOWN FORWARD BACK LEFT RIGHT
    STOP 300 1 0 0 1 1 0 0 0 2 2 1 0 0 8
    P-ON 0 263 0 3 1 1 0 7 4 1 0 0 0 0 0
    P-OFF 0 5 279 0 0 0 1 15 1 0 0 1 0 0 0
    CW 0 0 11 282 2 0 0 0 2 0 0 13 1 0 1
    ACW 0 0 1 0 283 17 0 0 0 0 2 1 0 0 0
    BO-UP 0 0 0 0 0 281 0 0 0 0 0 0 0 0 17
    BO-DOWN 0 0 1 0 4 0 298 0 1 23 10 8 0 0 0
    ARM-UP 0 12 7 0 0 0 0 277 0 0 0 0 0 0 0
    ARM-DOWN 0 4 0 12 0 0 1 1 292 0 1 7 0 0 1
    BU-UP 0 1 0 0 0 0 0 0 0 274 0 1 0 0 0
    BU-DOWN 0 3 0 0 9 0 0 0 0 0 283 1 0 0 0
    FORWARD 0 0 1 3 0 0 0 0 0 0 1 267 23 0 0
    BACK 0 0 0 0 0 0 0 0 0 0 1 0 276 0 0
    LEFT 0 0 0 0 0 0 0 0 0 0 0 0 0 300 0
    RIGHT 0 0 0 0 0 0 0 0 0 0 0 0 0 0 273
    下载: 导出CSV

    表  3   各手势预测模型的精确率、召回率以及F1综合评价指标

    精确率
    (%)
    召回率
    (%)
    F1综合评价
    指标(%)
    STOP 94.94 100.00 97.40
    P-ON 93.93 87.67 90.69
    P-OFF 92.38 93.00 92.69
    CW 90.38 94.00 92.16
    ACW 93.09 94.33 93.71
    BO-UP 94.30 93.67 93.98
    BO-DOWN 86.38 99.33 92.40
    ARM-UP 93.58 92.33 92.95
    ARM-DOWN 91.54 97.33 94.35
    BU-UP 99.28 91.33 95.14
    BU-DOWN 95.61 94.33 94.97
    FORWARD 90.51 89.00 89.75
    BACK 99.64 92.00 95.67
    LEFT 100.00 100.00 100.00
    RIGHT 100.00 91.00 95.29
    下载: 导出CSV

    表  4   Arduino舵机串口指令

    指令类型 指令示例 指令解释
    常规指令 RST! 复位指令,停止所有动作,重新启动单片机
    舵机操作指令 DST! 所有舵机停止在当前位置
    DST:003! 003号舵机停止在当前位置
    #IndexPpwmTtime! 单个舵机指令,Index:3位,000-254;pwm:4位,0500-2500;time:4位,0000-9999
    {#000P1500T1000!#001P0900T1000!} 多个舵机指令,用{ }封装多个单舵机指令
    动作序列指令 ! 清除预存动作序列
    < G0000#000P1500T1000!#001P0900T1000!> 存储动作序列
    DGT:0-10,1! 调用动作G0000~G0010组1次,若为0次则代表循环执行
    下载: 导出CSV
  • [1] 梁万福, 黄鸣辉, 刘浩, 等. 某型液压挖掘机驾驶室内低频噪声控制方法研究[J]. 工程机械, 2018, 49(08): 11-15+87. https://www.cnki.com.cn/Article/CJFDTOTAL-GCJA201808003.htm
    [2] 张琳. 基于用户模式的挖掘机人机系统研究[D]. 太原理工大学, 2018.
    [3] 甘平, 杨乐巍, 房增强, 等. 挥发性有机物污染场地挖掘过程中污染扩散特征[J]. 环境科学, 2013, 34(12): 4619-4626. https://www.cnki.com.cn/Article/CJFDTOTAL-HJKZ201312019.htm
    [4] 李运华, 范茹军, 杨丽曼, 等. 智能化挖掘机的研究现状与发展趋势[J]. 机械工程学报, 2020, 56(13): 165-178. https://www.cnki.com.cn/Article/CJFDTOTAL-JXXB202013018.htm
    [5] 张凤军, 戴国忠, 彭晓兰. 虚拟现实的人机交互综述[J]. 中国科学: 信息科学, 2016, 46(12): 1711-1736. https://www.cnki.com.cn/Article/CJFDTOTAL-PZKX201612003.htm
    [6] 惠丹. 基于深度学习算法的可穿戴设备手势识别系统设计[J]. 微型机与应用, 2019, 038(009): 30-33. https://www.cnki.com.cn/Article/CJFDTOTAL-WXJY201909006.htm
    [7] 刘续丹, 侯红霞, 杨钰淇, 等. 基于数据手套的交互系统设计[J]. 通讯世界, 2019, 26(04): 319-320. https://www.cnki.com.cn/Article/CJFDTOTAL-TXSJ201904202.htm
    [8] 易靖国, 程江华, 库锡树. 视觉手势识别综述[J]. 计算机科学, 2016, 43(S1): 103-108. https://www.cnki.com.cn/Article/CJFDTOTAL-JSJA2016S1027.htm
    [9] 沙洁, 麻建, 牟海军, 等. 基于视觉的动态手势识别综述[J]. 计算机科学与应用, 2020, 010(005): P. 990-1001. https://www.cnki.com.cn/Article/CJFDTOTAL-JSGG202122007.htm
    [10]

    Denavit J, Hartenberg R S. A kinematic notation for lower-pair mechanisms based on matrices[J]. 1955.

    [11]

    Zhang F, Bazarevsky V, Vakunov A, et al. MediaPipe Hands: On-device Real-time Hand Tracking[J]. 2020.

    [12] 张圆圆. 基于视觉的手势识别技术及其应用研究[J]. 计算技术与自动化, 2015, 34(01): 131-135. https://www.cnki.com.cn/Article/CJFDTOTAL-JSJH201501028.htm
  • 期刊类型引用(11)

    1. 陈超,潘治国,杨振南. 基于Mediapipe的交互式动态红绿灯系统. 电子制作. 2025(02): 3-6 . 百度学术
    2. 孟云,韩建海,李向攀,郭冰菁,杜敢琴. 手型识别的手功能康复动作快速规划研究. 中国康复医学杂志. 2024(01): 96-99 . 百度学术
    3. 张华锐,赵潇帆,王苑丞,吕行,彭熙. 基于Mediapipe的人体姿态跟随机器人系统的设计与实现. 电脑与信息技术. 2024(02): 14-17+102 . 百度学术
    4. 胡帅,鲁亚楠,王宇向,周诚. 土方机械车载视觉智能感知研究与应用. 施工技术(中英文). 2024(17): 121-130 . 百度学术
    5. 陈超,万超纪,杨旭,何之洲,雷小武,聂衡莉. 基于混合现实的应急遥操作机器人系统的研究. 华北科技学院学报. 2024(05): 44-50 . 百度学术
    6. 赵强,姚竝,马佳军. 基于改进YOLOv5和手势识别的中学生实验评分方法研究. 电子技术与软件工程. 2023(03): 166-169 . 百度学术
    7. 韩团军,马晨,王战备,尹继武. 基于视觉的手指语识别系统设计. 实验技术与管理. 2023(04): 119-124 . 百度学术
    8. 武胜,徐臻,秦浩东. 增强现实手势交互设计与实现. 智能物联技术. 2023(01): 5-13 . 百度学术
    9. 武洪萍,王聪,张磊,陈永源,刘剑伟. 基于MediaPipe与机器学习模型融合的手势识别框架. 信息与电脑(理论版). 2023(10): 176-179 . 百度学术
    10. 马天祥. 基于目标检测和模板匹配的交警手势识别研究. 现代信息科技. 2022(20): 60-64+70 . 百度学术
    11. 李昊朋,王景成,黄姣茹. 基于机器视觉的工厂人员异常行为识别. 计算机与数字工程. 2022(10): 2176-2181 . 百度学术

    其他类型引用(7)

图(15)  /  表(4)
计量
  • 文章访问数:  2473
  • HTML全文浏览量:  1337
  • PDF下载量:  76
  • 被引次数: 18
出版历程
  • 发布日期:  2022-07-31
  • 刊出日期:  2022-07-31

目录

/

返回文章
返回