CN116909405B - 基于人工智能动作识别的指令控制方法 - Google Patents

基于人工智能动作识别的指令控制方法 Download PDF

Info

Publication number
CN116909405B
CN116909405B CN202311166670.6A CN202311166670A CN116909405B CN 116909405 B CN116909405 B CN 116909405B CN 202311166670 A CN202311166670 A CN 202311166670A CN 116909405 B CN116909405 B CN 116909405B
Authority
CN
China
Prior art keywords
point
noise
action
points
motion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202311166670.6A
Other languages
English (en)
Other versions
CN116909405A (zh
Inventor
周丽宁
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Huilang Times Technology Co Ltd
Original Assignee
Beijing Huilang Times Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Huilang Times Technology Co Ltd filed Critical Beijing Huilang Times Technology Co Ltd
Priority to CN202311166670.6A priority Critical patent/CN116909405B/zh
Publication of CN116909405A publication Critical patent/CN116909405A/zh
Application granted granted Critical
Publication of CN116909405B publication Critical patent/CN116909405B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/30Noise filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/36Applying a local operator, i.e. means to operate on image points situated in the vicinity of a given point; Non-linear local filtering operations, e.g. median filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/02Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Human Computer Interaction (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Nonlinear Science (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了基于人工智能动作识别的指令控制方法,数据获取端获取到基础数据,并将获取到的基础数据传输到数据预处理端,数据预处理端对获取到的基础数据进行分析,本发明涉及人工智能动作识别指令技术领域,解决了图像不清晰导致了识别产生误差,其次不能对动作进行很好的分类识别,造成指令错误的技术问题,本发明通过对获取到的图像进行分析,并对图像中的噪点进行识别,通过将噪点进行分类,并将对图像造成影响的噪点进行去除,从而来保证图像整体的质量,避免后续识别存在误差,其次对动作进行不同的分类处理,并结合人工智能来进行匹配分析,针对不同部位产生的动作进行分析,保证了识别的精准度,减小整体识别的误差。

Description

基于人工智能动作识别的指令控制方法
技术领域
本发明涉及人工智能动作识别指令技术领域,具体为基于人工智能动作识别的指令控制方法。
背景技术
现有技术已实现了基于肢体动作识别的非接触式控制,例如,菜谱类软件控制。目前常见的肢体动作捕捉方案包括Kinect体感器以及RealSense实感摄像头。
根据申请号为CN201610202178.3的专利显示,该专利所述方法包括:获取拍摄范围内至少一条人体基线;根据所述至少一条人体基线确定至少两个检测区域;确认至少一个检测区域中有指令触发新事件发生,获取并发送所述指令触发新事件对应的操作控制指令。本发明实施例提供的技术方案,通过获取拍摄范围内的至少一条人体基线,根据所述至少一条人体基线确定至少两个检测区域,并确认至少一个检测区域中有指令触发新事件发生后,获取并发送所述指令触发新事件对应的操作控制指令,采用普通摄像头进行图像拍摄,降低了肢体动作识别所需的设备成本,并有效提高了肢体动作识别的准确率。
部分现有的动作识别在使用的时候,由于获取到的视频存在质量问题,从而导致了识别出现误差的情况,因此在进行识别的时候会产生错误的指令,其次在对行为进行识别的时候,由于产生的动作不能进行获取,从而存在识别不了的情况,进一步的对整体指令的产生造成影响。
发明内容
针对现有技术的不足,本发明提供了基于人工智能动作识别的指令控制方法,解决了图像不清晰导致了识别产生误差,其次不能对动作进行很好的分类识别,造成指令错误的问题。
为实现以上目的,本发明通过以下技术方案予以实现:基于人工智能动作识别的指令控制方法,该方法具体包括以下步骤:
步骤一:数据获取端获取到基础数据,其中基础数据包括:监控视频图像,并将获取到的基础数据传输到数据预处理端;
步骤二:数据预处理端对获取到的基础数据进行分析,对监控视频图像进行获取同时对监控视频图像进行预处理,其中预处理包括:噪点去除和关节点识别,并生成预处理结果,同时将预处理结果传输到动作识别端;
步骤三:动作识别端获取到预处理结果,并对预处理结果进行分析,首先对监控视频图像进行分割识别,接着通过分别对肢体动作和头部动作进行识别,并生成动作识别结果,且动作识别结果包括:肢体动作结果和头部动作结果,同时将动作识别结果传输到指令生成端;
步骤四:指令生成端获取到动作识别结果,并根据动作识别结果结合动作识别大数据进行判断生成对应的动作指令,并将动作指令传输到指令控制端;
步骤五:指令控制端获取到动作指令,并将其发送给对应的设备或***进行控制。
作为本发明的进一步方案:步骤二预处理中的噪点去除具体处理方式如下:
S1:获取到监控视频图像,并对监控视频图像按照帧数进行划分,且将划分后的每帧图像进行标记且记作为i,同时对i帧图像进行噪点分析,根据噪点的不同将噪点分类为亮噪点和暗噪点,具体的分类方式如下:
S11:获取到i帧图像中的任意单帧图像并将其标记为目标图像,接着生成黑色背景板,并将其与目标图像进行匹配,将匹配后显示出来的噪点分类为亮噪点;
S12:接着生成白色背景板,并同理与目标图像进行匹配,将匹配后显示出来的噪点分类为暗噪点,同理对i帧图像进行噪点分析;
S2:接着获取到目标图像分类后的亮噪点和暗噪点,并根据是否对目标图像造成影响分类为影响噪点和正常噪点,接着对分类后的影响噪点进行去除,具体的分类方式如下:
S21:以目标图像单个噪点为原点,此处需要说明的是:噪点包括亮噪点和暗噪点,并以半径为R作圆,同时获取到该圆内的所有像素点,接着获取到相邻两个像素点之间的间距并记作点距Dj,此处需要说明的是:相邻两个像素点不包括存在噪点的像素点之间,并计算该圆内点距的平均距离记作为点均距Dp,同时将其作为标准点距;
S22:接着获取到存在噪点的两个像素点之间的点距并记作为Dz,并将Dz与点均距Dp进行比较,当Dz≥Dp时,判定该噪点存在影响并将该噪点分类为影响噪点,并采用均值滤波的方式对影响噪点进行去除,此处需要说明的是:均值滤波去除表示为:将每个像素的值替换为其周围邻域内像素值的平均值,反之当Dz<Dp时,判定该噪点不存在影响并将该噪点分类为正常噪点,同时对正常噪点不做任何处理,此处需要说明的是:如果两个像素点之间由于存在噪点,且两个像素点之间的距离超过标准点距时,则说明该噪点对整体图像造成影响,反之没有超过标准点距时,则说明该噪点对整体图像未造成影响。
作为本发明的进一步方案:步骤三中生成动作识别结果的方式如下:
P1:获取到监控视频图像,并结合关节点的运动轨迹对监控视频进行截取,具体的监控视频截取方式如下:
P11:将监控视频图像中用户的关节点进行三维建模处理,对关节点的运动轨迹进行绘制,同时对关节点的运动轨迹进行匹配;
P12:当关节点的运动轨迹相同时,则表明生成的动作相同,次数并以关节点运动时间点为起点,以关节点重复运动时间点为终点对监控视频图像进行截取得到截取视频,并对其动作进行识别;
P2:获取到截取视频中关节点的位置,并对其进行判断动作类型,其中动作类型包括:肢体动作和头部动作,具体的判断方式如下:
将关节点的位置与人体图像进行匹配,当识别到关节点位于肩膀及以上位置时,判定为头部动作,当识别到关节点位于肩膀以下位置时,判定为肢体动作,接着分别对头部动作和肢体动作进行分析;
P3:对肢体动作的分析为:获取到关节点的运动轨迹,并结合行为动作进行匹配生成对应的肢体动作结果,此处需要说明的是:行为动作表示的意思为经过人工智能比较和模拟计算到的行为动作结果,将关节点的运动轨迹与行为动作进行匹配,再结合人工智能计算得到对应的肢体动作结果;
P4:当判定为头部动作时,并对头部动作进行分析,具体的分析方式如下:
P41:以肩膀为X轴,以头部所在的中轴线为Y轴建立直角坐标系,并将头部与肩膀连接点作为原点,同时将头部眉心标记为起始点;
P42:接着将起始点停止运动的点记作为终点,同时将原点、起始点和终点进行直线连接,并根据连接得到的形状对头部动作进行分析;
P43:当连接得到的形状原点、起始点和终点在一条直线上时,则表明头部动作为上下运动,当连接得到的形状为三角形时,则表明头部动作为转向。
有益效果
本发明提供了基于人工智能动作识别的指令控制方法。与现有技术相比具备以下有益效果:
本发明通过对获取到的图像进行分析,并对图像中的噪点进行识别,通过将噪点进行分类,并将对图像造成影响的噪点进行去除,从而来保证图像整体的质量,避免后续识别存在误差,其次对动作进行不同的分类处理,并结合人工智能来进行匹配分析,针对不同部位产生的动作进行分析,保证了识别的精准度,减小整体识别的误差。
附图说明
图1为本发明方法流程图;
图2为本发明方法判断图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例一,请参阅图1和图2,本申请提供了基于人工智能动作识别的指令控制方法,该方法具体包括以下步骤:
步骤一:数据获取端获取到基础数据,其中基础数据包括:监控视频图像,并将获取到的基础数据传输到数据预处理端。
步骤二:数据预处理端对获取到的基础数据进行分析,对监控视频图像进行获取同时对监控视频图像进行预处理,其中预处理包括:噪点去除和关节点识别,并生成预处理结果,同时将预处理结果传输到动作识别端,且预处理中的噪点去除具体处理方式如下:
S1:获取到监控视频图像,并对监控视频图像按照帧数进行划分,且将划分后的每帧图像进行标记且记作为i,同时对i帧图像进行噪点分析,根据噪点的不同将噪点分类为亮噪点和暗噪点,具体的分类方式如下:
S11:获取到i帧图像中的任意单帧图像并将其标记为目标图像,接着生成黑色背景板,并将其与目标图像进行匹配,将匹配后显示出来的噪点分类为亮噪点;
S12:接着生成白色背景板,并同理与目标图像进行匹配,将匹配后显示出来的噪点分类为暗噪点,同理对i帧图像进行噪点分析;
结合实际用于场景进行分析,先利用黑色背景板与图像进行匹配,此时图像上的暗噪点会与黑色背景板融合,而亮噪点则会显示出来,相反利用白色背景板与图像进行匹配的时候,暗噪点则会显示出来,利用相同的方式来对i帧图像进行亮暗噪点的分类。
S2:接着获取到目标图像分类后的亮噪点和暗噪点,并根据是否对目标图像造成影响分类为影响噪点和正常噪点,接着对分类后的影响噪点进行去除,具体的影响噪点和正常噪点的分类方式如下:
S21:以目标图像单个噪点为原点,此处需要说明的是:噪点包括亮噪点和暗噪点,并以半径为R作圆,同时获取到该圆内的所有像素点,接着获取到相邻两个像素点之间的间距并记作点距Dj,此处需要说明的是:相邻两个像素点不包括存在噪点的像素点之间,并计算该圆内点距的平均距离记作为点均距Dp,同时将其作为标准点距;
S22:接着获取到存在噪点的两个像素点之间的点距并记作为Dz,并将Dz与点均距Dp进行比较,当Dz≥Dp时,判定该噪点存在影响并将该噪点分类为影响噪点,并采用均值滤波的方式对影响噪点进行去除,此处需要说明的是:均值滤波去除表示为:将每个像素的值替换为其周围邻域内像素值的平均值,反之当Dz<Dp时,判定该噪点不存在影响并将该噪点分类为正常噪点,同时对正常噪点不做任何处理,此处需要说明的是:如果两个像素点之间由于存在噪点,且两个像素点之间的距离超过标准点距时,则说明该噪点对整体图像造成影响,反之没有超过标准点距时,则说明该噪点对整体图像未造成影响;
且预处理中的关节点识别方式具体如下:获取到人体图像并对人体图像的关节点进行标号处理且记作为j,且j=1、2、…、n,此处需要说明的是:人体图像的关节点表示的为人体骨骼的连接点,比如大臂与小臂之间的骨骼连接点记作为一个关节点。
步骤三:动作识别端获取到预处理结果,并对预处理结果进行分析,首先对监控视频图像进行分割识别,接着通过分别对肢体动作和头部动作进行识别,并生成动作识别结果,且动作识别结果包括:肢体动作结果和头部动作结果,同时将动作识别结果传输到指令生成端,具体的生成动作识别结果的方式如下:
P1:获取到监控视频图像,并结合关节点的运动轨迹对监控视频进行截取,具体的截取方式如下:
P11:将监控视频图像中用户的关节点进行三维建模处理,对关节点的运动轨迹进行绘制,同时对关节点的运动轨迹进行匹配;
P12:当关节点的运动轨迹相同时,则表明生成的动作相同,次数并以关节点运动时间点为起点,以关节点重复运动时间点为终点对监控视频图像进行截取得到截取视频,并对其动作进行识别;
P2:获取到截取视频中关节点的位置,并对其进行判断动作类型,其中动作类型包括:肢体动作和头部动作,具体的判断方式如下:
将关节点的位置与人体图像进行匹配,当识别到关节点位于肩膀及以上位置时,判定为头部动作,当识别到关节点位于肩膀以下位置时,判定为肢体动作,接着分别对头部动作和肢体动作进行分析;
P3:对肢体动作的分析为:获取到关节点的运动轨迹,并结合行为动作进行匹配生成对应的肢体动作结果,此处需要说明的是:行为动作表示的意思为经过人工智能比较和模拟计算到的行为动作结果,将关节点的运动轨迹与行为动作进行匹配,再结合人工智能计算得到对应的肢体动作结果;
P4:对头部动作的分析为:
P41:以肩膀为X轴,以头部所在的中轴线为Y轴建立直角坐标系,并将头部与肩膀连接点作为原点,同时将头部眉心标记为起始点;
P42:接着将起始点停止运动的点记作为终点,同时将原点、起始点和终点进行直线连接,并根据连接得到的形状对头部动作进行分析;
P43:当连接得到的形状原点、起始点和终点在一条直线上时,则表明头部动作为上下运动,当连接得到的形状为三角形时,则表明头部动作为转向。
结合实际应用场景进行分析,以人体头部建立直角坐标系,并根据眉心的运动位置来对头部动作进行识别,当头部动作为抬头或者低头的时候,起始点和终点的位置是在一条直线上的,当头部动作为转向上,起始点、终点和原点三点之间会形成一个三角形。
步骤四:指令生成端获取到动作识别结果,并根据动作识别结果结合动作识别大数据进行判断生成对应的动作指令,并将动作指令传输到指令控制端。
步骤五:指令控制端获取到动作指令,并将其发送给对应的设备或***进行控制。
实施例二,作为本发明的实施例二,与实施例一的区别之处在于,步骤二中对噪点分类的方式不同,获取到所有的点距Dj,接着计算点均距Dp,接着将二者代入公式计算得到点距Dj的离散值I,并将计算得到的离散值I作为标准点距,同时将I与Dz进行比较,当Dz≥I时,判定该噪点存在影响并将该噪点分类为影响噪点,反之当Dz<I时,判定该噪点不存在影响并将该噪点分类为正常噪点。
实施例三,作为本发明的实施例三,与实施例一和实施例二的区别之处在于,步骤二中对影响噪点的去除方式不同,本实施例中对影响噪点的去除方式采用中值滤波和高值滤波的方式对其进行去除,且中值滤波去除表示为:将每个像素的值替换为其周围邻域内像素值的中值,此处需要说明的是:中值表示为将所有的数从小到大排序,并选取位于中间的数作为中值,高值滤波去除表示为:采用高斯函数进行滤波,对每个像素的值进行加权平均。
实施例四,作为本发明的实施例四,重点在于将实施例一、实施例二和实施例三的实施过程结合实施。
上述公式中的部分数据均是去其纲量进行数值计算,同时本说明书中未作详细描述的内容均属于本领域技术人员公知的现有技术。
以上实施例仅用以说明本发明的技术方法而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方法进行修改或等同替换,而不脱离本发明技术方法的精神和范围。

Claims (5)

1.基于人工智能动作识别的指令控制方法,其特征在于,该方法包括以下步骤:
步骤一:数据获取端获取到基础数据,其中基础数据包括:监控视频图像,并将获取到的基础数据传输到数据预处理端;
步骤二:数据预处理端对获取到的基础数据进行分析,对监控视频图像进行获取同时对监控视频图像进行预处理,其中预处理包括:噪点去除和关节点识别,并生成预处理结果,同时将预处理结果传输到动作识别端,噪点去除具体处理方式如下:
S1:获取到监控视频图像,并对监控视频图像按照帧数进行划分,且将划分后的每帧图像进行标记且记作为i,同时对i帧图像进行噪点分析,根据噪点的不同将噪点分类为亮噪点和暗噪点,具体分类方式如下:
S11:获取到i帧图像中的任意单帧图像并将其标记为目标图像,接着生成黑色背景板,并将其与目标图像进行匹配,将匹配后显示出来的噪点分类为亮噪点;
S12:接着生成白色背景板,并同理与目标图像进行匹配,将匹配后显示出来的噪点分类为暗噪点,同理对i帧图像进行噪点分析;
S2:接着获取到目标图像分类后的亮噪点和暗噪点,并根据是否对目标图像造成影响分类为影响噪点和正常噪点,接着对分类后的影响噪点进行去除,具体分类方式如下:
S21:以目标图像单个噪点为原点,并以半径为R作圆,同时获取到该圆内的所有像素点,接着获取到相邻两个像素点之间的间距并记作点距Dj,并计算该圆内点距的平均距离记作为点均距Dp,同时将其作为标准点距;
S22:接着获取到存在噪点的两个像素点之间的点距并记作为Dz,并将Dz与点均距Dp进行比较,当Dz≥Dp时,判定该噪点存在影响并将该噪点分类为影响噪点,并采用均值滤波的方式对影响噪点进行去除,反之当Dz<Dp时,判定该噪点不存在影响并将该噪点分类为正常噪点,同时对正常噪点不做任何处理;
步骤三:动作识别端获取到预处理结果,并对预处理结果进行分析,首先对监控视频图像进行分割识别,接着通过分别对肢体动作和头部动作进行识别,并生成动作识别结果,且动作识别结果包括:肢体动作结果和头部动作结果,同时将动作识别结果传输到指令生成端;
步骤四:指令生成端获取到动作识别结果,并根据动作识别结果结合动作识别大数据进行判断生成对应的动作指令,并将动作指令传输到指令控制端;
步骤五:指令控制端获取到动作指令,并将其发送给对应的设备或***进行控制。
2.根据权利要求1所述的基于人工智能动作识别的指令控制方法,其特征在于,所述步骤三中生成动作识别结果的方式如下:
P1:获取到监控视频图像,并结合关节点的运动轨迹对监控视频进行截取;
P2:获取到截取视频中关节点的位置,并对其进行判断动作类型,其中动作类型包括:肢体动作和头部动作;
P3:对肢体动作的分析为:获取到关节点的运动轨迹,并结合行为动作进行匹配生成对应的肢体动作结果;
P4:当判定为头部动作时,并对头部动作进行分析。
3.根据权利要求2所述的基于人工智能动作识别的指令控制方法,其特征在于,所述P1中监控视频具体截取方式如下:
P11:将监控视频图像中用户的关节点进行三维建模处理,对关节点的运动轨迹进行绘制,同时对关节点的运动轨迹进行匹配;
P12:当关节点的运动轨迹相同时,则表明生成的动作相同,次数并以关节点运动时间点为起点,以关节点重复运动时间点为终点对监控视频图像进行截取得到截取视频,并对其动作进行识别。
4.根据权利要求2所述的基于人工智能动作识别的指令控制方法,其特征在于,所述P2中具体判断方式如下:
将关节点的位置与人体图像进行匹配,当识别到关节点位于肩膀及以上位置时,判定为头部动作,当识别到关节点位于肩膀以下位置时,判定为肢体动作,接着分别对头部动作和肢体动作进行分析。
5.根据权利要求2所述的基于人工智能动作识别的指令控制方法,其特征在于,所述P4中对头部动作的具体分析为:
P41:以肩膀为X轴,以头部所在的中轴线为Y轴建立直角坐标系,并将头部与肩膀连接点作为原点,同时将头部眉心标记为起始点;
P42:接着将起始点停止运动的点记作为终点,同时将原点、起始点和终点进行直线连接,并根据连接得到的形状对头部动作进行分析;
P43:当连接得到的形状原点、起始点和终点在一条直线上时,则表明头部动作为上下运动,当连接得到的形状为三角形时,则表明头部动作为转向。
CN202311166670.6A 2023-09-12 2023-09-12 基于人工智能动作识别的指令控制方法 Active CN116909405B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311166670.6A CN116909405B (zh) 2023-09-12 2023-09-12 基于人工智能动作识别的指令控制方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311166670.6A CN116909405B (zh) 2023-09-12 2023-09-12 基于人工智能动作识别的指令控制方法

Publications (2)

Publication Number Publication Date
CN116909405A CN116909405A (zh) 2023-10-20
CN116909405B true CN116909405B (zh) 2023-12-15

Family

ID=88356849

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311166670.6A Active CN116909405B (zh) 2023-09-12 2023-09-12 基于人工智能动作识别的指令控制方法

Country Status (1)

Country Link
CN (1) CN116909405B (zh)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103472920A (zh) * 2013-09-13 2013-12-25 通号通信信息集团有限公司 基于动作识别的医学影像控制方法及***
CN114613015A (zh) * 2022-03-22 2022-06-10 康键信息技术(深圳)有限公司 健身动作图像的识别方法、装置、设备及存储介质
CN114721509A (zh) * 2022-03-08 2022-07-08 五邑大学 基于人体动作识别的人机交互方法及***
CN114926356A (zh) * 2022-05-10 2022-08-19 大连理工大学 一种针对降雪影响的LiDAR点云无监督去噪方法
CN116704440A (zh) * 2023-06-15 2023-09-05 安徽优而得数字科技有限公司 基于大数据的智能综合采集分析***

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019133922A1 (en) * 2017-12-29 2019-07-04 Flir Systems, Inc. Point cloud denoising systems and methods

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103472920A (zh) * 2013-09-13 2013-12-25 通号通信信息集团有限公司 基于动作识别的医学影像控制方法及***
CN114721509A (zh) * 2022-03-08 2022-07-08 五邑大学 基于人体动作识别的人机交互方法及***
CN114613015A (zh) * 2022-03-22 2022-06-10 康键信息技术(深圳)有限公司 健身动作图像的识别方法、装置、设备及存储介质
CN114926356A (zh) * 2022-05-10 2022-08-19 大连理工大学 一种针对降雪影响的LiDAR点云无监督去噪方法
CN116704440A (zh) * 2023-06-15 2023-09-05 安徽优而得数字科技有限公司 基于大数据的智能综合采集分析***

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
An Efficient Adaptive Noise Removal Filter on Range Images for LiDAR Point Clouds;Minh-Hai Le等;《Electronics》;第1-18页 *

Also Published As

Publication number Publication date
CN116909405A (zh) 2023-10-20

Similar Documents

Publication Publication Date Title
CN104966304B (zh) 基于卡尔曼滤波与非参数背景模型的多目标检测跟踪方法
KR101653278B1 (ko) 색상 기반 얼굴 검출을 통한 실시간 얼굴 추적 시스템
CN110633612B (zh) 一种巡检机器人的监控方法及***
CN109460719A (zh) 一种电力作业安全识别方法
CN113962274B (zh) 一种异常识别方法、装置、电子设备及存储介质
CN110059634B (zh) 一种大场景人脸抓拍方法
CN111967319B (zh) 基于红外和可见光的活体检测方法、装置、设备和存储介质
CN105022999A (zh) 一种人码伴随实时采集***
CN114359333A (zh) 运动目标提取方法、装置、计算机设备和存储介质
CN110688969A (zh) 视频帧人体行为识别方法
CN116909405B (zh) 基于人工智能动作识别的指令控制方法
CN114155557A (zh) 定位方法、装置、机器人及计算机可读存储介质
CN112532927A (zh) 一种施工现场智能安全管控***
CN112561957A (zh) 一种目标对象的状态跟踪方法及装置
CN112347830A (zh) 一种工厂防疫管理方法以及防疫管理***
WO2020095644A1 (ja) 変状検出装置、変状検出方法、及びコンピュータ読み取り可能な記録媒体
CN113283273A (zh) 基于视觉技术的前方障碍物实时检测方法及***
Landabaso et al. Robust tracking and object classification towards automated video surveillance
CN104063681A (zh) 一种活动对象图像识别方法及装置
CN113111847A (zh) 一种工序循环的自动监测方法、装置和***
CN112004056A (zh) 一种抗干扰能力强的智能视频分析方法
JP4664805B2 (ja) 顔端検出装置、顔端検出方法、及び、プログラム
CN117689881B (zh) 基于事件相机和cmos相机的抛洒物追踪方法
CN113673448B (zh) 一种云和端集成的人脸图像质量动态检测方法及***
Halder et al. Anomalous Activity Detection from Ego View Camera of Surveillance Robots

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant