CN112132110A - 一种智能判断人体姿态的方法及看护设备 - Google Patents
一种智能判断人体姿态的方法及看护设备 Download PDFInfo
- Publication number
- CN112132110A CN112132110A CN202011080377.4A CN202011080377A CN112132110A CN 112132110 A CN112132110 A CN 112132110A CN 202011080377 A CN202011080377 A CN 202011080377A CN 112132110 A CN112132110 A CN 112132110A
- Authority
- CN
- China
- Prior art keywords
- data information
- human body
- key point
- video frame
- posture
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
- A61B5/1126—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique
- A61B5/1128—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique using image analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Human Computer Interaction (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Social Psychology (AREA)
- Pathology (AREA)
- Computational Linguistics (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Physiology (AREA)
- Dentistry (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Biophysics (AREA)
- Psychiatry (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Molecular Biology (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Image Analysis (AREA)
Abstract
本发明实施例涉及看护设备技术领域,公开了一种智能判断人体姿态的方法及看护设备,该方法包括:根据摄像设备实景角度采集的视频帧,获取所述视频帧中的人体数据信息;其中,所述人体数据信息至少包括人体关键点数据信息、人体坐标数据信息以及人体关键点包围框数据信息;根据所述人体关键点数据信息、所述人体坐标数据信息以及所述人体关键点包围框数据信息,从机器学习训练模型中计算出所述视频帧中对应的人体姿态概率;将所述人体姿态概率中的最大概率姿态判断为所述视频帧中的人体姿态。实施本发明实施例,能够有效的提高看护设备的识别判断准确率的同时排除大部分背景场景中的误判。
Description
技术领域
本发明涉及看护设备技术领域,尤其涉及一种智能判断人体姿态的方法及看护设备。
背景技术
目前,市面上常见的看护设备大多采用机器学***角度下所拍摄的图像,进而当看护设备获取到非水平角度下所拍摄的图像时,则无法与一般的机器学习姿态训练库的训练数据相符,从而难以保证看护设备的判断准确率;且现有的看护设备大多都会将场景内很多非人体物体都会判断成人体,尤其是一些有人形的比如挂历、假人模特等,进而造成误判,从而难以保证看护设备的判断准确率。
发明内容
本发明实施例公开一种智能判断人体姿态的方法及看护设备,能够有效的提高看护设备的识别判断准确率的同时排除大部分背景场景中的误判。
本发明实施例第一方面公开一种智能判断人体姿态的方法,所述方法包括:
根据摄像设备实景角度采集的视频帧,获取所述视频帧中的人体数据信息;其中,所述人体数据信息至少包括人体关键点数据信息、人体坐标数据信息以及人体关键点包围框数据信息;
根据所述人体关键点数据信息、所述人体坐标数据信息以及所述人体关键点包围框数据信息,从机器学习训练模型中计算出所述视频帧中对应的人体姿态概率;
将所述人体姿态概率中的最大概率姿态判断为所述视频帧中的人体姿态。
作为另一种可选的实施方式,在本发明实施例第一方面中,所述根据所述人体关键点数据信息、所述人体坐标数据信息以及所述人体关键点包围框数据信息,从机器学习训练模型中计算出所述视频帧中对应的人体姿态概率,包括:
从所述人体关键点数据信息、所述人体坐标数据信息以及所述人体关键点包围框数据信息中获取N个关键点信息,以获得N维数据信息;其中,所述N个关键点信息至少包括N个关键点坐标位置;
计算每一所述N个关键点坐标位置之间的距离,以获得N(N-1)/2维数据信息;
计算所述N个关键点坐标位置集合的中心点坐标,以获得二维数据信息;
根据所述N维数据信息、所述N(N-1)/2维数据信息以及所述二维数据信息,计算出K维判断数据信息;其中,所述K维判断数据信息为所述N维数据信息、所述N(N-1)/2维数据信息以及所述二维数据信息相加所得;
将所述K维判断数据信息与所述机器学习训练模型进行点积运算,以获得所述视频帧中对应的所述人体姿态概率。
作为另一种可选的实施方式,在本发明实施例第一方面中,在所述根据摄像设备实景角度采集的视频帧,获取所述视频帧中的人体数据信息之前,所述方法还包括:
根据背景维护算法,获取所述视频帧中的背景信息;
将所述视频帧中的除所述背景信息以外的物体作为被拍摄人体,以执行所述根据摄像设备实景角度采集的视频帧,获取所述视频帧中的人体数据信息的步骤。
作为另一种可选的实施方式,在本发明实施例第一方面中,在所述将所述视频帧中的除所述背景信息以外的物体作为被拍摄人体之后,以及在所述根据摄像设备实景角度采集的视频帧,获取所述视频帧中的人体数据信息之前,所述方法还包括:
若所述N个关键点坐标位置对应的最小矩形包围框面积低于最小包围面积判断阈值minArea,确定为人体图像误识别以获得人体图像误识别关键点坐标位置;
将除所述人体图像误识别关键点坐标位置外的所述N个关键点坐标位置作为目标关键点坐标位置,以执行所述根据摄像设备实景角度采集的视频帧,获取所述视频帧中的人体数据信息的步骤。
作为另一种可选的实施方式,在本发明实施例第一方面中,在所述将所述视频帧中的除所述背景信息以外的物体作为被拍摄人体之后,以及在所述确定为人体图像误识别以获得人体图像误识别关键点坐标位置之前,所述方法还包括:
计算所述中心点坐标与所述视频帧中的图像下沿中点坐标的横坐标偏移量dx与纵坐标偏移量dy;
根据所述横坐标偏移量dx与所述纵坐标偏移量dy,计算出所述中心点坐标的横坐标方向衰减值decayX与纵坐标方向衰减值decayY;
根据所述横坐标方向衰减值decayX与所述纵坐标方向衰减值decayY,计算出所述最小包围面积判断阈值minArea;
判断所述N个关键点坐标位置对应的最小矩形包围框面积是否低于所述最小包围面积判断阈值minArea。
作为另一种可选的实施方式,在本发明实施例第一方面中,所述方法还包括:
获取终端设备建立的所述机器学习训练模型。
本发明实施例第二方面公开一种看护设备,所述看护设备包括:
第一获取单元,用于根据摄像设备实景角度采集的视频帧,获取所述视频帧中的人体数据信息;其中,所述人体数据信息至少包括人体关键点数据信息、人体坐标数据信息以及人体关键点包围框数据信息;
第一计算单元,用于根据所述人体关键点数据信息、所述人体坐标数据信息以及所述人体关键点包围框数据信息,从机器学习训练模型中计算出所述视频帧中对应的人体姿态概率;
第一确定单元,用于将所述人体姿态概率中的最大概率姿态判断为所述视频帧中的人体姿态。
作为一种可选的实施方式,在本发明实施例第二方面中,所述第一计算单元还包括:
获取子单元,用于从所述人体关键点数据信息、所述人体坐标数据信息以及所述人体关键点包围框数据信息中获取N个关键点信息,以获得N维数据信息;其中,所述N个关键点信息至少包括N个关键点坐标位置;
第一计算子单元,用于计算每一所述N个关键点坐标位置之间的距离,以获得N(N-1)/2维数据信息;
第二计算子单元,用于计算所述N个关键点坐标位置集合的中心点坐标,以获得二维数据信息;
第三计算子单元,用于根据所述N维数据信息、所述N(N-1)/2维数据信息以及所述二维数据信息,计算出K维判断数据信息;其中,所述K维判断数据信息为所述N维数据信息、所述N(N-1)/2维数据信息以及所述二维数据信息相加所得;
第四计算子单元,用于将所述K维判断数据信息与所述机器学习训练模型进行点积运算,以获得所述视频帧中对应的所述人体姿态概率。
本发明实施例第三方面公开一种看护设备,所述看护设备包括:
存储有可执行程序代码的存储器;
与所述存储器耦合的处理器;
所述处理器调用所述存储器中存储的所述可执行程序代码,执行本发明实施例第一方面公开的一种智能判断人体姿态的方法。
本发明实施例第四方面公开一种计算机可读存储介质,其存储计算机程序,其中,所述计算机程序使得计算机执行本发明实施例第一方面公开的一种智能判断人体姿态的方法。
本发明实施例第五方面公开一种计算机程序产品,当所述计算机程序产品在计算机上运行时,使得所述计算机执行第一方面的任意一种智能判断人体姿态的方法的部分或全部步骤。
本发明实施例第六方面公开一种应用发布平台,所述应用发布平台用于发布计算机程序产品,其中,当所述计算机程序产品在计算机上运行时,使得所述计算机执行第一方面的任意一种智能判断人体姿态的方法的部分或全部步骤。
与现有技术相比,本发明实施例具有以下有益效果:
本发明实施例中,在看护设备根据摄像设备实景角度采集的视频帧,获取所述视频帧中的人体数据信息之后,看护设备可根据上述人体数据信息,从机器学习训练模型中计算出所述视频帧中对应的人体姿态概率,并将所述人体姿态概率中的最大概率姿态判断为所述视频帧中的人体姿态;其中,所述人体数据信息至少包括人体关键点数据信息、人体坐标数据信息以及人体关键点包围框数据信息。可见,本发明实施例,能够有效的提高看护设备的识别判断准确率的同时排除大部分背景场景中的误判。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例公开的一种智能判断人体姿态的方法的流程示意图;
图2是本发明实施例公开的另一种智能判断人体姿态的方法的流程示意图;
图3是本发明实施例公开的一种看护设备的结构示意图;
图4是本发明实施例公开的另一种看护设备的结构示意图;
图5是本发明实施例公开的另一种看护设备的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
需要说明的是,本发明的说明书和权利要求书中的术语“第一”、“第二”、“第三”“第四”等是用于区别不同的对象,而不是用于描述特定顺序。本发明实施例的术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、***、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
本发明实施例公开了一种智能判断人体姿态的方法及看护设备,能够有效的提高看护设备的识别判断准确率的同时排除大部分背景场景中的误判。以下结合附图进行详细描述。
实施例一
请参阅图1,图1是本发明实施例公开的一种智能判断人体姿态的方法的流程示意图。如图1所示,该智能判断人体姿态的方法可以包括以下步骤。
101、看护设备根据摄像设备实景角度采集的视频帧,获取视频帧中的人体数据信息;其中,人体数据信息至少包括人体关键点数据信息、人体坐标数据信息以及人体关键点包围框数据信息。
本发明实施例中,看护设备可以是供老人、幼儿、学生、社会人群以及家庭使用的穿戴手表、平板电脑、手机、家庭看护仪或监控看护设备等电子设备,本发明实施例中不做限定。
作为一种可选的实施方式,看护设备可设定一定的时间间隔进行拍摄,并对在该时间间隔内以实景角度采集拍摄的视频帧进行人体识别,若出现看护设备对在连续时间间隔内拍摄的视频帧皆识别不到人体时,看护设备可暂不执行101步骤,直至看护设备对在连续时间间隔内拍摄的视频帧识别到人体时,看护设备可再执行101步骤;
以及,若出现看护设备对在连续时间间隔内拍摄的视频帧识别不到人体的概率高于指定阈值时,看护设备可暂不执行101步骤,直至看护设备对在连续时间间隔内拍摄的视频帧识别到人体的概率高于指定阈值时,看护设备可再执行101步骤。
102、看护设备根据人体关键点数据信息、人体坐标数据信息以及人体关键点包围框数据信息,从机器学习训练模型中计算出视频帧中对应的人体姿态概率。
在本实施例中,机器学习训练模型由终端设备(例如PC终端设备)进行建模完成,随后可将建模完成后的机器学习训练模型导入存储至看护设备内,当看护设备获取到视频帧中的人体数据信息时,即可直接获取已导入存储的机器学习训练模型;
以及,对于机器学习训练模型,终端设备(例如PC终端设备)可先获取看护设备发送的以实景角度拍摄的各区域的各种人体姿态样本图像,并以此作为训练样本图像;其中,以实景角度拍摄的各区域的各种人体姿态样本图像至少包括被拍摄人体与摄像设备之间的不同距离位置图像;
以及,在终端设备(例如PC终端设备)获取到看护设备发送的训练样本图像后,可通过Pose软件(Openpose,Posenet)等人体模型建模软件从训练样本图像中获取Y个关键点信息,以获得Y维数据信息;其中,Y个关键点信息至少包括Y个关键点坐标位置;
以及,在终端设备(例如PC终端设备)获得Y维数据信息后,可计算每一Y个关键点坐标位置之间的距离,以获得Y(Y-1)/2维数据信息,并以均值中心法计算Y个关键点坐标位置集合的中心点坐标,以获得中心二维坐标数据信息D;
以及,根据Y维数据信息、Y(Y-1)/2维数据信息以及中心二维坐标数据信息D,终端设备(例如PC终端设备)计算出训练数据Z;其中,训练数据Z为Y维数据信息、Y(Y-1)/2维数据信息以及中心二维坐标数据信息D相加所得,即Z=Y+Y(Y-1)/2+D;
以及,在终端设备(例如PC终端设备)以Y+Y(Y-1)/2+D作为训练数据Z后,即可以训练样本图像中的人体姿态作为标记类别,以建立多层神经网络模型+Softmax分类器进行训练,进行得到机器学习训练模型。
在本实施例中,在看护设备对需要识别的视频帧进行人体数据信息获取后,看护设备可通过Pose软件(Openpose,Posenet)等人体模型建模软件从训练样本图像中获取N个关键点信息,以获得N维数据信息;其中,N个关键点信息至少包括N个关键点坐标位置;
以及,计算每一N个关键点坐标位置之间的距离,以获得N(N-1)/2维数据信息,并以均值中心法计算N个关键点坐标位置集合的中心点坐标,以获得二维数据信息R;
以及,根据N维数据信息、N(N-1)/2维数据信息以及二维数据信息R,看护设备计算出K维判断数据信息;其中,K维判断数据信息为N维数据信息、N(N-1)/2维数据信息以及二维数据信息R相加所得,即K=N+N(N-1)/2+R;
以及,将K维判断数据信息与机器学习训练模型进行点就运算,以计算得到视频帧中对应的人体姿态概率。
103、看护设备将人体姿态概率中的最大概率姿态判断为视频帧中的人体姿态。
在本实施例中,本申请中的看护设备,可即时通过人体在不同场景下的姿态,判断人体的生活规律与异常,比如躺在地上,视为危险状态,或躺在床上,亦会通过计时统计睡眠时间,当超时视为异常,以及识别为坐姿时,时间过长视为异常。
在本实施例中,因同样的人像图片,在图片中位于不同位置,会有不同畸变,相应的,不同距离也会对应到图像不同的区域,比如近距离的一般会位于镜头靠下区域,通过将人体在图像中的坐标数据也加入到机器学习训练数据维度中,经试验,可有效的大大提高看护设备的人体姿态图像识别准确率。
在图1所示的智能判断人体姿态的方法中,以看护设备作为执行主体为例进行描述。需要说明的是,图1所示的智能判断人体姿态的方法的执行主体还可以是与看护设备相关联的独立设备,本发明实施例不作限定。
可见,实施图1所描述的智能判断人体姿态的方法,能够有效的提高看护设备的识别判断准确率的同时排除大部分背景场景中的误判。
此外,实施图1所描述的智能判断人体姿态的方法,通过将人体在图像中的坐标数据也加入到机器学习训练数据维度中,可有效的大大提高看护设备的人体姿态图像识别准确率。
实施例二
请参阅图2,图2是本发明实施例公开的另一种智能判断人体姿态的方法的流程示意图。如图2所示,该智能判断人体姿态的方法可以包括以下步骤:
201、看护设备获取终端设备建立的机器学习训练模型。
在本实施例中,机器学习训练模型由终端设备(例如PC终端设备)进行建模完成,随后可将建模完成后的机器学习训练模型导入存储至看护设备内,当看护设备获取到视频帧中的人体数据信息时,即可直接获取已导入存储的机器学习训练模型;
以及,对于机器学习训练模型,终端设备(例如PC终端设备)可先获取看护设备发送的以实景角度拍摄的各区域的各种人体姿态样本图像,并以此作为训练样本图像;其中,以实景角度拍摄的各区域的各种人体姿态样本图像至少包括被拍摄人体与摄像设备之间的不同距离位置图像;
以及,在终端设备(例如PC终端设备)获取到看护设备发送的训练样本图像后,可通过Pose软件(Openpose,Posenet)等人体模型建模软件从训练样本图像中获取Y个关键点信息,以获得Y维数据信息;其中,Y个关键点信息至少包括Y个关键点坐标位置;
以及,在终端设备(例如PC终端设备)获得Y维数据信息后,可计算每一Y个关键点坐标位置之间的距离,以获得Y(Y-1)/2维数据信息,并以均值中心法计算Y个关键点坐标位置集合的中心点坐标,以获得中心二维坐标数据信息D;
以及,根据Y维数据信息、Y(Y-1)/2维数据信息以及中心二维坐标数据信息D,终端设备(例如PC终端设备)计算出训练数据Z;其中,训练数据Z为Y维数据信息、Y(Y-1)/2维数据信息以及中心二维坐标数据信息D相加所得,即Z=Y+Y(Y-1)/2+D;
以及,在终端设备(例如PC终端设备)以Y+Y(Y-1)/2+D作为训练数据Z后,即可以训练样本图像中的人体姿态作为标记类别,以建立多层神经网络模型+Softmax分类器进行训练,进行得到机器学习训练模型。
202、看护设备根据背景维护算法,获取视频帧中的背景信息。
在本实施例中,由于在看护设备的人体姿态识别判断中,可能会存在误识别现象,因而为尽可能降低误识别概率,本申请可采用多种方法减少误识别,例如背景维护法与最小包围框阈值判定法。
203、看护设备将视频帧中的除背景信息以外的物体作为被拍摄人体。
在本实施例中,看护设备内的运行进行进程包括有背景维护进程,即可把视频帧中场景内长期不动、或偶尔移动(比如移动一下椅子)判定为背景,只有在背景前移动的物体才做人体判断进而做姿态判断,排除了大部分背景场景中的误判。
204、看护设备计算中心点坐标与视频帧中的图像下沿中点坐标的横坐标偏移量dx与纵坐标偏移量dy。
在本实施例中,看护设备可通过Pose软件(Openpose,Posenet)等人体模型建模软件从训练样本图像中获取N个关键点坐标位置,并以均值中心法计算N个关键点坐标位置集合的中心点坐标(X,Y),然后计算该中心点坐标(X,Y)与视频帧中的图像下沿中点坐标(X1,Y1)的纵横坐标的差的绝对值(偏移量),即dx=abs(X-X1),dy=abs(Y-Y1)。
205、看护设备根据横坐标偏移量dx与纵坐标偏移量dy,计算出中心点坐标的横坐标方向衰减值decayX与纵坐标方向衰减值decayY。
206、看护设备根据横坐标方向衰减值decayX与纵坐标方向衰减值decayY,计算出最小包围面积判断阈值minArea。
在本实施例中,横坐标方向衰减值decayX的公式为decayX=a1*dx2+a2*dx+a3,纵坐标方向衰减值decayY的公式为decayY=b1*dy2+b2*dy+b3,最小包围面积判断阈值minArea的公式为minArea=A+decayY+decayX;
其中,a1,a2,a3,b1,b2,b3,A为经验常数,与设备及其摄像头参数有关,该经验常数可分别为:-0.006,-5,76,-0.001,-32,110,6000,而本实施例不作任何限定。
207、看护设备判断N个关键点坐标位置对应的最小矩形包围框面积是否低于最小包围面积判断阈值minArea,若是,执行步骤208~步骤216,若否,结束本次流程。
208、若N个关键点坐标位置对应的最小矩形包围框面积低于最小包围面积判断阈值minArea,看护设备确定为人体图像误识别以获得人体图像误识别关键点坐标位置。
在本实施例中,本申请的看护设备是安装在室内具有一定的固定高度和角度的,所以人体在画面中不同位置,被识别到的大小不会低于一个阈值,低于该值的认为是误识别;
以及,在看护设备确定上述图像为人体图像误识别后,即可将该图像上识别到的关键点坐标位置作为人体图像误识别关键点坐标位置,即可将该人体图像误识别关键点坐标位置从用于判断人体姿态的N个关键点坐标位置中进行剔除,进而能进一步提高看护设备对于人体姿态的判断准确率
209、看护设备将除所述人体图像误识别关键点坐标位置外的所述N个关键点坐标位置作为目标关键点坐标位置。。
210、看护设备根据摄像设备实景角度采集的视频帧,获取视频帧中的人体数据信息;其中,人体数据信息至少包括人体关键点数据信息、人体坐标数据信息以及人体关键点包围框数据信息。
211、看护设备从人体关键点数据信息、人体坐标数据信息以及人体关键点包围框数据信息中获取N个关键点信息,以获得N维数据信息;其中,N个关键点信息至少包括N个关键点坐标位置。
212、看护设备计算每一N个关键点坐标位置之间的距离,以获得N(N-1)/2维数据信息。
213、看护设备计算N个关键点坐标位置集合的中心点坐标,以获得二维数据信息。
214、看护设备根据N维数据信息、N(N-1)/2维数据信息以及二维数据信息,计算出K维判断数据信息;其中,K维判断数据信息为N维数据信息、N(N-1)/2维数据信息以及二维数据信息相加所得。
215、看护设备将K维判断数据信息与机器学习训练模型进行点积运算,以获得视频帧中对应的人体姿态概率。
在本实施例中,在看护设备对需要识别的视频帧进行人体数据信息获取后,看护设备可通过Pose软件(Openpose,Posenet)等人体模型建模软件从训练样本图像中获取N个关键点信息,以获得N维数据信息;其中,N个关键点信息至少包括N个关键点坐标位置;
以及,计算每一N个关键点坐标位置之间的距离,以获得N(N-1)/2维数据信息,并以均值中心法计算N个关键点坐标位置集合的中心点坐标,以获得二维数据信息R;
以及,根据N维数据信息、N(N-1)/2维数据信息以及二维数据信息R,看护设备计算出K维判断数据信息;其中,K维判断数据信息为N维数据信息、N(N-1)/2维数据信息以及二维数据信息R相加所得,即K=N+N(N-1)/2+R;
以及,将K维判断数据信息与机器学习训练模型进行点就运算,以计算得到视频帧中对应的人体姿态概率。
216、看护设备将人体姿态概率中的最大概率姿态判断为视频帧中的人体姿态。
作为一种可选的实施方式,本发明实施例中,本申请中的看护设备,可即时通过人体在不同场景下的姿态,判断人体的生活规律与异常,比如躺在地上,视为危险状态,或躺在床上,亦会通过计时统计睡眠时间,当超时视为异常,以及识别为坐姿时,时间过长视为异常;
以及,当看护设备检测到人体姿态异常信息时,即可发出相关提示信息,看护设备发出的提示信息包括:
向与看护设备相关联的移动设备发送显示信息提示;
和/或,看护设备发出的语音信息提示。
可见,实施图2所描述的另一种智能判断人体姿态的方法,能够有效的提高看护设备的识别判断准确率的同时排除大部分背景场景中的误判。
此外,实施图2所描述的另一种智能判断人体姿态的方法,能够在不同光线不同时间判断场景内的背景以及分辨出背景内前景物体,从而更准确减少误判。
此外,实施图2所描述的另一种智能判断人体姿态的方法,通过采用多种方法减少误识别,进而可有效的降低误识别概率。
实施例三
请参阅图3,图3是本发明实施例公开的一种看护设备的结构示意图。如图3所示,该看护设备300可以包括第一获取单元301、第一计算单元302、第一确定单元303,其中:
第一获取单元301,用于根据摄像设备实景角度采集的视频帧,获取视频帧中的人体数据信息;其中,人体数据信息至少包括人体关键点数据信息、人体坐标数据信息以及人体关键点包围框数据信息。
计算单元302,用于根据人体关键点数据信息、人体坐标数据信息以及人体关键点包围框数据信息,从机器学习训练模型中计算出视频帧中对应的人体姿态概率。
确定单元303,用于将人体姿态概率中的最大概率姿态判断为视频帧中的人体姿态。
本发明实施例中,看护设备可以是供老人、幼儿、学生、社会人群以及家庭使用的穿戴手表、平板电脑、手机、家庭看护仪或监控看护设备等电子设备,本发明实施例中不做限定。
作为一种可选的实施方式,看护设备可设定一定的时间间隔进行拍摄,并对在该时间间隔内以实景角度采集拍摄的视频帧进行人体识别,若出现看护设备对在连续时间间隔内拍摄的视频帧皆识别不到人体时,第一获取单元301可暂不执行获取视频帧中的人体数据信息的步骤,直至看护设备对在连续时间间隔内拍摄的视频帧识别到人体时,第一获取单元301可再执行获取视频帧中的人体数据信息的步骤;
以及,若出现看护设备对在连续时间间隔内拍摄的视频帧识别不到人体的概率高于指定阈值时,第一获取单元301可暂不执行获取视频帧中的人体数据信息的步骤,直至看护设备对在连续时间间隔内拍摄的视频帧识别到人体的概率高于指定阈值时,第一获取单元301可再执行获取视频帧中的人体数据信息的步骤。
在本实施例中,机器学习训练模型由终端设备(例如PC终端设备)进行建模完成,随后可将建模完成后的机器学习训练模型导入存储至看护设备内,当看护设备获取到视频帧中的人体数据信息时,即可直接获取已导入存储的机器学习训练模型;
以及,对于机器学习训练模型,终端设备(例如PC终端设备)可先获取看护设备发送的以实景角度拍摄的各区域的各种人体姿态样本图像,并以此作为训练样本图像;其中,以实景角度拍摄的各区域的各种人体姿态样本图像至少包括被拍摄人体与摄像设备之间的不同距离位置图像;
以及,在终端设备(例如PC终端设备)获取到看护设备发送的训练样本图像后,可通过Pose软件(Openpose,Posenet)等人体模型建模软件从训练样本图像中获取Y个关键点信息,以获得Y维数据信息;其中,Y个关键点信息至少包括Y个关键点坐标位置;
以及,在终端设备(例如PC终端设备)获得Y维数据信息后,可计算每一Y个关键点坐标位置之间的距离,以获得Y(Y-1)/2维数据信息,并以均值中心法计算Y个关键点坐标位置集合的中心点坐标,以获得中心二维坐标数据信息D;
以及,根据Y维数据信息、Y(Y-1)/2维数据信息以及中心二维坐标数据信息D,终端设备(例如PC终端设备)计算出训练数据Z;其中,训练数据Z为Y维数据信息、Y(Y-1)/2维数据信息以及中心二维坐标数据信息D相加所得,即Z=Y+Y(Y-1)/2+D;
以及,在终端设备(例如PC终端设备)以Y+Y(Y-1)/2+D作为训练数据Z后,即可以训练样本图像中的人体姿态作为标记类别,以建立多层神经网络模型+Softmax分类器进行训练,进行得到机器学习训练模型。
在本实施例中,在看护设备对需要识别的视频帧进行人体数据信息获取后,看护设备可通过Pose软件(Openpose,Posenet)等人体模型建模软件从训练样本图像中获取N个关键点信息,以获得N维数据信息;其中,N个关键点信息至少包括N个关键点坐标位置;
以及,计算每一N个关键点坐标位置之间的距离,以获得N(N-1)/2维数据信息,并以均值中心法计算N个关键点坐标位置集合的中心点坐标,以获得二维数据信息R;
以及,根据N维数据信息、N(N-1)/2维数据信息以及二维数据信息R,看护设备计算出K维判断数据信息;其中,K维判断数据信息为N维数据信息、N(N-1)/2维数据信息以及二维数据信息R相加所得,即K=N+N(N-1)/2+R;
以及,将K维判断数据信息与机器学习训练模型进行点就运算,以计算得到视频帧中对应的人体姿态概率。
在本实施例中,本申请中的看护设备,可即时通过人体在不同场景下的姿态,判断人体的生活规律与异常,比如躺在地上,视为危险状态,或躺在床上,亦会通过计时统计睡眠时间,当超时视为异常,以及识别为坐姿时,时间过长视为异常。
在本实施例中,因同样的人像图片,在图片中位于不同位置,会有不同畸变,相应的,不同距离也会对应到图像不同的区域,比如近距离的一般会位于镜头靠下区域,通过将人体在图像中的坐标数据也加入到机器学习训练数据维度中,经试验,可有效的大大提高看护设备的人体姿态图像识别准确率。
可见,实施图3所描述的看护设备,能够有效的提高看护设备的识别判断准确率的同时排除大部分背景场景中的误判。
此外,实施图3所描述的看护设备,通过将人体在图像中的坐标数据也加入到机器学习训练数据维度中,可有效的大大提高看护设备的人体姿态图像识别准确率。
实施例四
请参阅图4,图4是本发明实施例公开的另一种看护设备的结构示意图。其中,图4所示的看护设备是由图3所示的看护设备进行优化得到的。与图3所示的看护设备相比较,图4所示的第一计算单元302还可以包括:
获取子单元3021,用于从人体关键点数据信息、人体坐标数据信息以及人体关键点包围框数据信息中获取N个关键点信息,以获得N维数据信息;其中,N个关键点信息至少包括N个关键点坐标位置。
第一计算子单元3022,用于计算每一N个关键点坐标位置之间的距离,以获得N(N-1)/2维数据信息。
第二计算子单元3023,用于计算N个关键点坐标位置集合的中心点坐标,以获得二维数据信息。
第三计算子单元3024,用于根据N维数据信息、N(N-1)/2维数据信息以及二维数据信息,计算出K维判断数据信息;其中,K维判断数据信息为N维数据信息、N(N-1)/2维数据信息以及二维数据信息相加所得。
第四计算子单元3025,用于将K维判断数据信息与机器学习训练模型进行点积运算,以获得视频帧中对应的人体姿态概率。
在本实施例中,在第一获取单元301对需要识别的视频帧进行人体数据信息获取后,获取子单元3021可通过Pose软件(Openpose,Posenet)等人体模型建模软件从训练样本图像中获取N个关键点信息,以获得N维数据信息;其中,N个关键点信息至少包括N个关键点坐标位置;
以及,第一计算子单元3022计算每一N个关键点坐标位置之间的距离,以获得N(N-1)/2维数据信息,第二计算子单元3023并以均值中心法计算N个关键点坐标位置集合的中心点坐标,以获得二维数据信息R;
以及,第三计算子单元3024根据N维数据信息、N(N-1)/2维数据信息以及二维数据信息R,看护设备计算出K维判断数据信息;其中,K维判断数据信息为N维数据信息、N(N-1)/2维数据信息以及二维数据信息R相加所得,即K=N+N(N-1)/2+R;
以及,第四计算子单元3025将K维判断数据信息与机器学习训练模型进行点就运算,以计算得到视频帧中对应的人体姿态概率。
作为一种可选的实施方式,图4所示的看护设备还可以包括:
第二获取单元304,用于在第一获取单元301根据摄像设备实景角度采集的视频帧,获取视频帧中的人体数据信息之前,根据背景维护算法,获取视频帧中的背景信息。
在本实施例中,由于在看护设备的人体姿态识别判断中,可能会存在误识别现象,因而为尽可能降低误识别概率,本申请可采用多种方法减少误识别,例如背景维护法与最小包围框阈值判定法。
第二确定单元305,用于将视频帧中的除背景信息以外的物体作为被拍摄人体,以执行第一获取单元301根据摄像设备实景角度采集的视频帧,获取视频帧中的人体数据信息的步骤。
在本实施例中,看护设备内的运行进行进程包括有背景维护进程,即可把视频帧中场景内长期不动、或偶尔移动(比如移动一下椅子)判定为背景,只有在背景前移动的物体才做人体判断进而做姿态判断,排除了大部分背景场景中的误判。
作为一种可选的实施方式,图4所示的看护设备还可以包括:
第三确定单元306,用于在第二确定单元305将视频帧中的除背景信息以外的物体作为被拍摄人体之后,以及在第一获取单元301根据摄像设备实景角度采集的视频帧,获取视频帧中的人体数据信息之前,若N个关键点坐标位置对应的最小矩形包围框面积低于最小包围面积判断阈值minArea,确定为人体图像误识别以获得人体图像误识别关键点坐标位置。
在本实施例中,本申请的看护设备是安装在室内具有一定的固定高度和角度的,所以人体在画面中不同位置,被识别到的大小不会低于一个阈值,低于该值的认为是误识别。
相应地,第二确定单元305还用于将除所述人体图像误识别关键点坐标位置外的所述N个关键点坐标位置作为目标关键点坐标位置,以执行第一获取单元301根据摄像设备实景角度采集的视频帧,获取视频帧中的人体数据信息的步骤。
作为一种可选的实施方式,图4所示的看护设备还可以包括:
第二计算单元307,用于在第二确定单元305将视频帧中的除背景信息以外的物体作为被拍摄人体之后,以及在第三确定单元306确定出人体图像误识别之前,计算中心点坐标与视频帧中的图像下沿中点坐标的横坐标偏移量dx与纵坐标偏移量dy。
在本实施例中,看护设备可通过Pose软件(Openpose,Posenet)等人体模型建模软件从训练样本图像中获取N个关键点坐标位置,并以均值中心法计算N个关键点坐标位置集合的中心点坐标(X,Y),然后计算该中心点坐标(X,Y)与视频帧中的图像下沿中点坐标(X1,Y1)的纵横坐标的差的绝对值(偏移量),即dx=abs(X-X1),dy=abs(Y-Y1)。
相应地,第二计算单元307还用于根据横坐标偏移量dx与纵坐标偏移量dy,计算出中心点坐标的横坐标方向衰减值decayX与纵坐标方向衰减值decayY。
相应地,第二计算单元307还用于根据横坐标方向衰减值decayX与纵坐标方向衰减值decayY,计算出最小包围面积判断阈值minArea。
在本实施例中,横坐标方向衰减值decayX的公式为decayX=a1*dx2+a2*dx+a3,纵坐标方向衰减值decayY的公式为decayY=b1*dy2+b2*dy+b3,最小包围面积判断阈值minArea的公式为minArea=A+decayY+decayX;
其中,a1,a2,a3,b1,b2,b3,A为经验常数,与设备及其摄像头参数有关,该经验常数可分别为:-0.006,-5,76,-0.001,-32,110,6000,而本实施例不作任何限定。
判断单元308,用于判断N个关键点坐标位置对应的最小矩形包围框面积是否低于最小包围面积判断阈值minArea。
作为一种可选的实施方式,图4所示的看护设备还可以包括:
第三获取单元309,用于获取终端设备建立的机器学习训练模型。
在本实施例中,机器学习训练模型由终端设备(例如PC终端设备)进行建模完成,随后可将建模完成后的机器学习训练模型导入存储至看护设备内,当看护设备获取到视频帧中的人体数据信息时,即可直接获取已导入存储的机器学习训练模型;
以及,对于机器学习训练模型,终端设备(例如PC终端设备)可先获取看护设备发送的以实景角度拍摄的各区域的各种人体姿态样本图像,并以此作为训练样本图像;其中,以实景角度拍摄的各区域的各种人体姿态样本图像至少包括被拍摄人体与摄像设备之间的不同距离位置图像;
以及,在终端设备(例如PC终端设备)获取到看护设备发送的训练样本图像后,可通过Pose软件(Openpose,Posenet)等人体模型建模软件从训练样本图像中获取Y个关键点信息,以获得Y维数据信息;其中,Y个关键点信息至少包括Y个关键点坐标位置;
以及,在终端设备(例如PC终端设备)获得Y维数据信息后,可计算每一Y个关键点坐标位置之间的距离,以获得Y(Y-1)/2维数据信息,并以均值中心法计算Y个关键点坐标位置集合的中心点坐标,以获得中心二维坐标数据信息D;
以及,根据Y维数据信息、Y(Y-1)/2维数据信息以及中心二维坐标数据信息D,终端设备(例如PC终端设备)计算出训练数据Z;其中,训练数据Z为Y维数据信息、Y(Y-1)/2维数据信息以及中心二维坐标数据信息D相加所得,即Z=Y+Y(Y-1)/2+D;
以及,在终端设备(例如PC终端设备)以Y+Y(Y-1)/2+D作为训练数据Z后,即可以训练样本图像中的人体姿态作为标记类别,以建立多层神经网络模型+Softmax分类器进行训练,进行得到机器学习训练模型。
作为一种可选的实施方式,本发明实施例中,本申请中的看护设备,可即时通过人体在不同场景下的姿态,判断人体的生活规律与异常,比如躺在地上,视为危险状态,或躺在床上,亦会通过计时统计睡眠时间,当超时视为异常,以及识别为坐姿时,时间过长视为异常;
以及,当看护设备检测到人体姿态异常信息时,即可发出相关提示信息,看护设备发出的提示信息包括:
向与看护设备相关联的移动设备发送显示信息提示;
和/或,看护设备发出的语音信息提示。
可见,实施图4所描述的看护设备,能够有效的提高看护设备的识别判断准确率的同时排除大部分背景场景中的误判。
此外,实施图4所描述的看护设备,能够在不同光线不同时间判断场景内的背景以及分辨出背景内前景物体,从而更准确减少误判。
此外,实施图4所描述的看护设备,通过采用多种方法减少误识别,进而可有效的降低误识别概率。
实施例五
请参阅图5,图5是本发明实施例公开的另一种看护设备的结构示意图。如图5所示,该看护设备可以包括:
存储有可执行程序代码的存储器501;
与存储器501耦合的处理器502;
其中,处理器502调用存储器501中存储的可执行程序代码,执行图1~图4任意一种智能判断人体姿态的方法。
本发明实施例公开一种计算机可读存储介质,其存储计算机程序,其中,该计算机程序使得计算机执行图1~图2任意一种智能判断人体姿态的方法。
本发明实施例还公开一种计算机程序产品,其中,当计算机程序产品在计算机上运行时,使得计算机执行如以上各方法实施例中的方法的部分或全部步骤。
本领域普通技术人员可以理解上述实施例的各种方法中的全部或部分步骤是可以通过程序来指令相关的硬件来完成,该程序可以存储于一种计算机可读存储介质中,存储介质包括只读存储器(Read-Only Memory,ROM)、随机存储器(Random Access Memory,RAM)、可编程只读存储器(Programmable Read-only Memory,PROM)、可擦除可编程只读存储器(Erasable Programmable Read Only Memory,EPROM)、一次可编程只读存储器(One-time Programmable Read-Only Memory,OTPROM)、电子抹除式可复写只读存储器(Electrically-Erasable Programmable Read-Only Memory,EEPROM)、只读光盘(CompactDisc Read-Only Memory,CD-ROM)或其他光盘存储器、磁盘存储器、磁带存储器、或者能够用于携带或存储数据的计算机可读的任何其他介质。
以上对本发明实施例公开的一种智能判断人体姿态的方法及看护设备进行了详细介绍,本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上,本说明书内容不应理解为对本发明的限制。
Claims (10)
1.一种智能判断人体姿态的方法,其特征在于,包括:
根据摄像设备实景角度采集的视频帧,获取所述视频帧中的人体数据信息;其中,所述人体数据信息至少包括人体关键点数据信息、人体坐标数据信息以及人体关键点包围框数据信息;
根据所述人体关键点数据信息、所述人体坐标数据信息以及所述人体关键点包围框数据信息,从机器学习训练模型中计算出所述视频帧中对应的人体姿态概率;
将所述人体姿态概率中的最大概率姿态判断为所述视频帧中的人体姿态。
2.根据权利要求1所述的方法,其特征在于,所述根据所述人体关键点数据信息、所述人体坐标数据信息以及所述人体关键点包围框数据信息,从机器学习训练模型中计算出所述视频帧中对应的人体姿态概率,包括:
从所述人体关键点数据信息、所述人体坐标数据信息以及所述人体关键点包围框数据信息中获取N个关键点信息,以获得N维数据信息;其中,所述N个关键点信息至少包括N个关键点坐标位置;
计算每一所述N个关键点坐标位置之间的距离,以获得N(N-1)/2维数据信息;
计算所述N个关键点坐标位置集合的中心点坐标,以获得二维数据信息;
根据所述N维数据信息、所述N(N-1)/2维数据信息以及所述二维数据信息,计算出K维判断数据信息;其中,所述K维判断数据信息为所述N维数据信息、所述N(N-1)/2维数据信息以及所述二维数据信息相加所得;
将所述K维判断数据信息与所述机器学习训练模型进行点积运算,以获得所述视频帧中对应的所述人体姿态概率。
3.根据权利要求2所述的方法,其特征在于,在所述根据摄像设备实景角度采集的视频帧,获取所述视频帧中的人体数据信息之前,所述方法还包括:
根据背景维护算法,获取所述视频帧中的背景信息;
将所述视频帧中的除所述背景信息以外的物体作为被拍摄人体,以执行所述根据摄像设备实景角度采集的视频帧,获取所述视频帧中的人体数据信息的步骤。
4.根据权利要求3所述的方法,其特征在于,在所述将所述视频帧中的除所述背景信息以外的物体作为被拍摄人体之后,以及在所述根据摄像设备实景角度采集的视频帧,获取所述视频帧中的人体数据信息之前,所述方法还包括:
若所述N个关键点坐标位置对应的最小矩形包围框面积低于最小包围面积判断阈值minArea,确定为人体图像误识别以获得人体图像误识别关键点坐标位置;
将除所述人体图像误识别关键点坐标位置外的所述N个关键点坐标位置作为目标关键点坐标位置,以执行所述根据摄像设备实景角度采集的视频帧,获取所述视频帧中的人体数据信息的步骤。
5.根据权利要求4所述的方法,其特征在于,在所述将所述视频帧中的除所述背景信息以外的物体作为被拍摄人体之后,以及在所述确定为人体图像误识别以获得人体图像误识别关键点坐标位置之前,所述方法还包括:
计算所述中心点坐标与所述视频帧中的图像下沿中点坐标的横坐标偏移量dx与纵坐标偏移量dy;
根据所述横坐标偏移量dx与所述纵坐标偏移量dy,计算出所述中心点坐标的横坐标方向衰减值decayX与纵坐标方向衰减值decayY;
根据所述横坐标方向衰减值decayX与所述纵坐标方向衰减值decayY,计算出所述最小包围面积判断阈值minArea;
判断所述N个关键点坐标位置对应的最小矩形包围框面积是否低于所述最小包围面积判断阈值minArea。
6.根据权利要求1~5任一项所述的方法,其特征在于,所述方法还包括:获取终端设备建立的所述机器学习训练模型。
7.一种看护设备,其特征在于,所述看护设备包括:
第一获取单元,用于根据摄像设备实景角度采集的视频帧,获取所述视频帧中的人体数据信息;其中,所述人体数据信息至少包括人体关键点数据信息、人体坐标数据信息以及人体关键点包围框数据信息;
第一计算单元,用于根据所述人体关键点数据信息、所述人体坐标数据信息以及所述人体关键点包围框数据信息,从机器学习训练模型中计算出所述视频帧中对应的人体姿态概率;
第一确定单元,用于将所述人体姿态概率中的最大概率姿态判断为所述视频帧中的人体姿态。
8.根据权利要求7所述的看护设备,其特征在于,所述第一计算单元包括:
获取子单元,用于从所述人体关键点数据信息、所述人体坐标数据信息以及所述人体关键点包围框数据信息中获取N个关键点信息,以获得N维数据信息;其中,所述N个关键点信息至少包括N个关键点坐标位置;
第一计算子单元,用于计算每一所述N个关键点坐标位置之间的距离,以获得N(N-1)/2维数据信息;
第二计算子单元,用于计算所述N个关键点坐标位置集合的中心点坐标,以获得二维数据信息;
第三计算子单元,用于根据所述N维数据信息、所述N(N-1)/2维数据信息以及所述二维数据信息,计算出K维判断数据信息;其中,所述K维判断数据信息为所述N维数据信息、所述N(N-1)/2维数据信息以及所述二维数据信息相加所得;
第四计算子单元,用于将所述K维判断数据信息与所述机器学习训练模型进行点积运算,以获得所述视频帧中对应的所述人体姿态概率。
9.一种看护设备,其特征在于,所述看护设备包括:
存储有可执行程序代码的存储器;
与所述存储器耦合的处理器;
所述处理器调用所述存储器中存储的所述可执行程序代码,执行权利要求1-6任一项所述的智能判断人体姿态的方法。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机程序,其中,所述计算机程序使得计算机执行权利要求1-6任一项所述的智能判断人体姿态的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011080377.4A CN112132110A (zh) | 2020-10-10 | 2020-10-10 | 一种智能判断人体姿态的方法及看护设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011080377.4A CN112132110A (zh) | 2020-10-10 | 2020-10-10 | 一种智能判断人体姿态的方法及看护设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112132110A true CN112132110A (zh) | 2020-12-25 |
Family
ID=73844323
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011080377.4A Pending CN112132110A (zh) | 2020-10-10 | 2020-10-10 | 一种智能判断人体姿态的方法及看护设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112132110A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112613440A (zh) * | 2020-12-29 | 2021-04-06 | 北京市商汤科技开发有限公司 | 一种姿态检测的方法、装置、电子设备及存储介质 |
CN113729657A (zh) * | 2021-10-08 | 2021-12-03 | 厦门理工学院 | 一种基于智能穿戴装置的数据监测方法及*** |
-
2020
- 2020-10-10 CN CN202011080377.4A patent/CN112132110A/zh active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112613440A (zh) * | 2020-12-29 | 2021-04-06 | 北京市商汤科技开发有限公司 | 一种姿态检测的方法、装置、电子设备及存储介质 |
CN113729657A (zh) * | 2021-10-08 | 2021-12-03 | 厦门理工学院 | 一种基于智能穿戴装置的数据监测方法及*** |
CN113729657B (zh) * | 2021-10-08 | 2023-04-18 | 厦门理工学院 | 一种基于智能穿戴装置的数据监测方法及*** |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109446942B (zh) | 目标跟踪方法、装置和*** | |
JP5285575B2 (ja) | 人物行動判定装置及びそのプログラム | |
JP2021182448A (ja) | 情報処理システム、制御方法、及びプログラム | |
CN107438173A (zh) | 视频处理装置、视频处理方法和存储介质 | |
JP2019075156A (ja) | 多因子画像特徴登録及び追尾のための方法、回路、装置、システム、及び、関連するコンピュータで実行可能なコード | |
KR20160106514A (ko) | 동화상에 있어서 물체를 검출하는 방법 및 장치, 및 그 프로그램을 기억한 기억 매체 | |
US20150092981A1 (en) | Apparatus and method for providing activity recognition based application service | |
JP7105383B2 (ja) | 画像処理方法、装置、記憶媒体及び電子機器 | |
CN110674680B (zh) | 活体识别的方法、装置、存储介质 | |
US20190206065A1 (en) | Method, system, and computer-readable recording medium for image object tracking | |
CN112132110A (zh) | 一种智能判断人体姿态的方法及看护设备 | |
US20220366570A1 (en) | Object tracking device and object tracking method | |
JP7230345B2 (ja) | 情報処理装置及び情報処理プログラム | |
Jung et al. | Object Detection and Tracking‐Based Camera Calibration for Normalized Human Height Estimation | |
CN108875506B (zh) | 人脸形状点跟踪方法、装置和***及存储介质 | |
CN113516017A (zh) | 服药过程的监督方法、装置、终端设备及存储介质 | |
TWI711007B (zh) | 調整感興趣區域的方法與其運算裝置 | |
JP5648452B2 (ja) | 画像処理プログラムおよび画像処理装置 | |
JP2011209794A (ja) | 対象物認識システム及び該システムを利用する監視システム、見守りシステム | |
CN114399729A (zh) | 监控对象移动识别方法、***、终端及存储介质 | |
JP7488674B2 (ja) | 物体認識装置、物体認識方法及び物体認識プログラム | |
CN111382606A (zh) | 摔倒检测方法、摔倒检测装置和电子设备 | |
CN106406507B (zh) | 图像处理方法以及电子设备 | |
CN111325937A (zh) | 翻越行为检测方法、装置和电子*** | |
CN112818929B (zh) | 一种人员斗殴检测方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |