CN111914790B - 基于双摄像头的不同场景下实时人体转动角度识别方法 - Google Patents

基于双摄像头的不同场景下实时人体转动角度识别方法 Download PDF

Info

Publication number
CN111914790B
CN111914790B CN202010816048.5A CN202010816048A CN111914790B CN 111914790 B CN111914790 B CN 111914790B CN 202010816048 A CN202010816048 A CN 202010816048A CN 111914790 B CN111914790 B CN 111914790B
Authority
CN
China
Prior art keywords
human body
key point
camera
rotation angle
acquired
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010816048.5A
Other languages
English (en)
Other versions
CN111914790A (zh
Inventor
陈安成
李若铖
陈林
张康
王权泳
吴哲
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Electronic Science and Technology of China
Original Assignee
University of Electronic Science and Technology of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Electronic Science and Technology of China filed Critical University of Electronic Science and Technology of China
Priority to CN202010816048.5A priority Critical patent/CN111914790B/zh
Publication of CN111914790A publication Critical patent/CN111914790A/zh
Application granted granted Critical
Publication of CN111914790B publication Critical patent/CN111914790B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于双摄像头的不同场景下实时人体转动角度识别方法,其实现成本低,且易实现,不容易受环境影响。本发明设置两个参数相同的摄像头,并通过两个摄像头分别获取人体的实时图像,然后使用人体骨骼关键点识别技术获取图像中人体的骨骼关键点坐标,最后根据左右摄像头得到的人体骨骼关键点坐标的差异,来计算出此时人体的相对转动角度。本发明能够适用于不同的应用场景,并且准确实时地获取人体转动角度。

Description

基于双摄像头的不同场景下实时人体转动角度识别方法
技术领域
本发明属于计算机视觉领域,具体涉及基于双摄像头的不同场景下实时人体转动角度识别方法。
背景技术
目前的姿势识别研究主要从人体骨骼关键点检测出发,理论上只要获取了人体的骨骼关键点的三维坐标,便能够计算出关节或者整个人体的转动角度。当前二维的人体关键点识别技术已经趋于成熟,不管是单人还是多人场景下,识别准确率都非常准确。目前也有基于单张图片做三维人体骨骼关键点识别的,但是准确性很难得到保证。因此关键难点在于如何获取准确的深度信息。目前常用的深度图像获取方法主要有双目立体视觉、结构光以及激光雷达等方法。其中双目立体视觉虽然具有对相机硬件要求不高,成本低廉的优点,但是其对环境光照非常敏感、不适用于单调缺乏纹理的场景、计算复杂度高和相机基线限制了测量范围等缺点使得其适用的领域范围受到了很大限制。微软公司推出的Kinect设备,在结构光的基础上开发出光编码技术,Kinect低廉的价格与实时高分辨率的深度图像捕捉特性使得其在消费电子领域得到了迅猛发展,然而Kinect的有效测距范围仅为800毫米到4000毫米,对处在测距范围之外的物体,Kinect并不能保证准确深度值的获取。Kinect捕获的深度图像存在深度缺失的区域,其体现为深度值为零,该区域意味着Kinect无法获得该区域的深度值。而除此之外,其深度图像还存在着深度图像边缘与彩色图像边缘不对应、深度噪声等问题。激光雷达由于其测距范围广、测量精度高的特性被广泛地用于室外三维空间感知的人工智能***中,然而,激光雷达所捕获的三维信息体现在彩色图像坐标系下是不均匀并且稀疏的。由于单位周期内,激光扫描的点数是有限的,当把激光雷达捕获的三维点投射到彩色图像坐标系下得到深度图像时,其深度图像的深度值以离散的点的形式呈现,深度图像中许多区域的深度值是未知的。这也就意味着彩色图像中的某些像素点并没有对应的深度信息。
发明内容
针对现有技术中的上述不足,本发明提供的基于双摄像头的不同场景下实时人体转动角度识别方法解决了现有技术中易受环境影响和计算复杂度高的问题。
为了达到上述发明目的,本发明采用的技术方案为:基于双摄像头的不同场景下实时人体转动角度识别方法,包括以下步骤:
S1、在一面墙壁上设置两个参数相同且连线水平的摄像头;
S2、通过两个摄像头实时采集人体图像,并采用人体关键点识别算法获取人体骨骼关键点坐标,所述骨骼关键点坐标包括左肩关键点坐标和右肩关键点坐标;
S3、根据第一摄像头所采集的人体骨骼关键点坐标获取第一转向识别参数K1,根据第二摄像头所采集的人体骨骼关键点坐标第二转向识别参数K2
S4、判断第一摄像头采集的左肩关键点横坐标是否大于其采集的右肩关键点横坐标,若是,则进入步骤S5,否则进入步骤S6;
S5、判断第二摄像头采集的左肩关键点横坐标是否大于其采集的右肩关键点横坐标,若是,则进入步骤S7,否则进入步骤S8;
S6、判断第二摄像头采集的左肩关键点横坐标是否大于其采集的右肩关键点横坐标,若是,则进入步骤S10,否则进入步骤S9;
S7、判断第一转向识别参数K1是否大于第二转向识别参数K2,若是,则判定为第一左转过程,并计算转动角度,得到人体转动角度识别结果,否则判定为第一右转过程,并计算转动角度,得到人体转动角度识别结果;
S8、判定当前人体转向过程为第二左转过程,并计算转动角度,得到人体转动角度识别结果;
S9、判断第一转向识别参数K1是否大于第二转向识别参数K2,若是,则判定为第三右转过程,并计算转动角度,得到人体转动角度识别结果,否则判定为第三左转过程,并计算转动角度,得到人体转动角度识别结果;
S10、判定当前人体转向过程为第二右转过程,并计算转动角度,得到人体转动角度识别结果。
进一步地,所述步骤S1中两个摄像头的镜头轴线与墙壁的夹角均为90-α度,所述两个摄像头的镜头轴线相交且平行于水平面,所述两个摄像头的镜头之间的距离为d米,α表示常数,α∈(0,45)。
进一步地,所述步骤S2中两个摄像头包括第一摄像头和第二摄像头,所述第一摄像头采集的人体骨骼关键点坐标包括左肩关键点坐标(xlj1,ylj1)、右肩关键点坐标(xrj1,yrj1)、左髋关键点坐标(xlk1,ylk1)和右髋关键点坐标(xrk1,yrk1),所述第二摄像头采集的人体骨骼关键点坐标包括左肩关键点坐标(xlj2,ylj2)、右肩关键点坐标(xrj2,yrj2)、左髋关键点坐标(xlk2,ylk2)和右髋关键点坐标(xrk2,yrk2)。
进一步地,所述步骤S3中根据第一摄像头所采集的人体骨骼关键点坐标获取第一转向识别参数K1为:
Figure BDA0002632728140000031
其中,D1表示第一摄像头采集的左肩关键点与右肩关键点坐标在墙壁上的投影点之间的横坐标差,D2表示第一摄像头采集的左髋关键点与左肩关键点在墙壁上的投影点之间的纵坐标差,xlj1表示第一摄像头采集的左肩关键点lj的横坐标,xrj1表示第一摄像头采集的右肩关键点rj的横坐标,ylk1表示第一摄像头采集的左髋关键点lk的纵坐标,ylj1表示第一摄像头采集的左肩关键点lj的纵坐标;
所述步骤S3中根据第二摄像头所采集的人体骨骼关键点坐标第二转向识别参数K2为:
Figure BDA0002632728140000041
其中,D3表示第二摄像头采集的左肩关键点与右肩关键点坐标在墙壁上的投影点之间的横坐标差,D4表示第二摄像头采集的左髋关键点与左肩关键点在墙壁上的投影点之间的纵坐标差,xlj2表示第二摄像头采集的左肩关键点lj的横坐标,xrj2表示第二摄像头采集的右肩关键点rj的横坐标,ylk2表示第二摄像头采集的左髋关键点lk的纵坐标,ylj2表示第二摄像头采集的左肩关键点lj的纵坐标。
进一步地,所述步骤S7中第一左转过程具体为:人体正对墙壁时,向左转动角度为(0,90-α)度的过程;所述第一右转过程为:人体正对墙壁时,向右转动角度为(0,90-α)度的过程;
所述步骤S7包括以下分步骤:
S71、判断第一转向识别参数K1是否大于第二转向识别参数K2,若是,则进入步骤S72,否则进入步骤S73;
S72、判定此时转向过程为第一左转过程,计算转动角度angle为:
angle=arccos(K2/Kmax)/PI*180-α
S73、判定此时转向过程为第一右转过程,计算转动角度angle为:
angle=arccos(K1/Kmax)/PI*180-α
其中,Kmax表示左右肩关键点之间的最大距离;PI表示圆周率。
进一步地,所述步骤S8中第二左转过程具体为:以人体正对墙壁为参考,在人体左侧(90-α,90+α)度范围内向左转的过程;
所述步骤S8中计算转动角度angle为:
angle=arccos(K1/Kmax)/PI*180+α。
进一步地,所述步骤S9中第三左转过程具体为:以人体正对墙壁为参考,在人体左侧(90+α,180)度范围内向左转的过程;所述第三右转过程具体为:以人体正对墙壁为参考,在人体右侧(90+α,180)度范围内向右转的过程;
所述步骤S9包括以下分步骤:
S91、判断第一转向识别参数K1是否大于第二转向识别参数K2,若是,则进入步骤S92,否则进入步骤S93;
S92、判定转向过程为第三左转过程,并计算转动角度angle为:
angle=180-arccos(K1/Kmax)/PI*180+α
S93、判定转向过程为第三右转过程,并计算转动角度angle为:
angle=180-arccos(K2/Kmax)/PI*180+α。
进一步地,所述步骤S10中第二右转过程具体为:以人体正对墙壁为参考,在人体右侧(90-α,90+α)度范围内向右转的过程;
所述步骤S10中计算转动角度angle为:
angle=arccos(K2/Kmax)/PI*180+α。
进一步地,所述左右肩关键点之间的最大距离Kmax初始化为0.65,在每次所述计算转动角度之前,对最大距离Kmax进行更新,所述更新步骤为:判断第一转向识别参数K1是否大于最大距离Kmax,若是,则令最大距离Kmax的计数值为第一转向识别参数K1的计数值,否则不改变最大距离Kmax的计数值,完成最大距离Kmax的更新。
本发明的有益效果为:
(1)本发明提出了一种基于双摄像头的不同场景下实时人体转动角度识别方法,其实现成本低,且易实现,不容易受环境影响。
(2)本发明设置两个参数相同的摄像头,并通过两个摄像头分别获取人体的实时图像,然后使用人体骨骼关键点识别技术获取图像中人体的骨骼关键点坐标,最后根据左右摄像头得到的人体骨骼关键点坐标的差异,来计算出此时人体的相对转动角度。
(3)本发明能够适用于不同的应用场景,并且准确实时地获取人体转动角度。
附图说明
图1为本发明提出的基于双摄像头的不同场景下实时人体转动角度识别方法流程图。
图2为本发明中摄像头安装示意图。
具体实施方式
下面对本发明的具体实施方式进行描述,以便于本技术领域的技术人员理解本发明,但应该清楚,本发明不限于具体实施方式的范围,对本技术领域的普通技术人员来讲,只要各种变化在所附的权利要求限定和确定的本发明的精神和范围内,这些变化是显而易见的,一切利用本发明构思的发明创造均在保护之列。
下面结合附图详细说明本发明的实施例。
如图1所示,一种基于双摄像头的不同场景下实时人体转动角度识别方法,包括以下步骤:
S1、在一面墙壁上设置两个参数相同且连线水平的摄像头;
S2、通过两个摄像头实时采集人体图像,并采用人体关键点识别算法获取人体骨骼关键点坐标,所述骨骼关键点坐标包括左肩关键点坐标和右肩关键点坐标;
S3、根据第一摄像头所采集的人体骨骼关键点坐标获取第一转向识别参数K1,根据第二摄像头所采集的人体骨骼关键点坐标第二转向识别参数K2
S4、判断第一摄像头采集的左肩关键点横坐标是否大于其采集的右肩关键点横坐标,若是,则进入步骤S5,否则进入步骤S6;
S5、判断第二摄像头采集的左肩关键点横坐标是否大于其采集的右肩关键点横坐标,若是,则进入步骤S7,否则进入步骤S8;
S6、判断第二摄像头采集的左肩关键点横坐标是否大于其采集的右肩关键点横坐标,若是,则进入步骤S10,否则进入步骤S9;
S7、判断第一转向识别参数K1是否大于第二转向识别参数K2,若是,则判定为第一左转过程,并计算转动角度,得到人体转动角度识别结果,否则判定为第一右转过程,并计算转动角度,得到人体转动角度识别结果;
S8、判定当前人体转向过程为第二左转过程,并计算转动角度,得到人体转动角度识别结果;
S9、判断第一转向识别参数K1是否大于第二转向识别参数K2,若是,则判定为第三右转过程,并计算转动角度,得到人体转动角度识别结果,否则判定为第三左转过程,并计算转动角度,得到人体转动角度识别结果;
S10、判定当前人体转向过程为第二右转过程,并计算转动角度,得到人体转动角度识别结果。
如图2所示,所述步骤S1中两个摄像头的镜头轴线与墙壁的夹角均为90-α度,所述两个摄像头的镜头轴线相交且平行于水平面,所述两个摄像头的镜头之间的距离为d米,α表示常数,α∈(0,45)。
所述步骤S2中两个摄像头包括第一摄像头和第二摄像头,所述第一摄像头采集的人体骨骼关键点坐标包括左肩关键点坐标(xlj1,ylj1)、右肩关键点坐标(xrj1,yrj1)、左髋关键点坐标(xlk1,ylk1)和右髋关键点坐标(xrk1,yrk1),所述第二摄像头采集的人体骨骼关键点坐标包括左肩关键点坐标(xlj2,ylj2)、右肩关键点坐标(xrj2,yrj2)、左髋关键点坐标(xlk2,ylk2)和右髋关键点坐标(xrk2,yrk2)。
所述步骤S3中根据第一摄像头所采集的人体骨骼关键点坐标获取第一转向识别参数K1为:
Figure BDA0002632728140000081
其中,D1表示第一摄像头采集的左肩关键点与右肩关键点坐标在墙壁上的投影点之间的横坐标差,D2表示第一摄像头采集的左髋关键点与左肩关键点在墙壁上的投影点之间的纵坐标差,xlj1表示第一摄像头采集的左肩关键点lj的横坐标,xrj1表示第一摄像头采集的右肩关键点rj的横坐标,ylk1表示第一摄像头采集的左髋关键点lk的纵坐标,ylj1表示第一摄像头采集的左肩关键点lj的纵坐标;
所述步骤S3中根据第二摄像头所采集的人体骨骼关键点坐标第二转向识别参数K2为:
Figure BDA0002632728140000082
其中,D3表示第二摄像头采集的左肩关键点与右肩关键点坐标在墙壁上的投影点之间的横坐标差,D4表示第二摄像头采集的左髋关键点与左肩关键点在墙壁上的投影点之间的纵坐标差,xlj2表示第二摄像头采集的左肩关键点lj的横坐标,xrj2表示第二摄像头采集的右肩关键点rj的横坐标,ylk2表示第二摄像头采集的左髋关键点lk的纵坐标,ylj2表示第二摄像头采集的左肩关键点lj的纵坐标。
所述步骤S7中第一左转过程具体为:人体正对墙壁时,向左转动角度为(0,90-α)度的过程;所述第一右转过程为:人体正对墙壁时,向右转动角度为(0,90-α)度的过程;
所述步骤S7包括以下分步骤:
S71、判断第一转向识别参数K1是否大于第二转向识别参数K2,若是,则进入步骤S72,否则进入步骤S73;
S72、判定此时转向过程为第一左转过程,计算转动角度angle为:
angle=arccos(K2/Kmax)/PI*180-α
S73、判定此时转向过程为第一右转过程,计算转动角度angle为:
angle=arccos(K1/Kmax)/PI*180-α
其中,Kmax表示左右肩关键点之间的最大距离;PI表示圆周率。
所述步骤S8中第二左转过程具体为:以人体正对墙壁为参考,在人体左侧(90-α,90+α)度范围内向左转的过程;
所述步骤S8中计算转动角度angle为:
angle=arccos(K1/Kmax)/PI*180+α。
所述步骤S9中第三左转过程具体为:以人体正对墙壁为参考,在人体左侧(90+α,180)度范围内向左转的过程;所述第三右转过程具体为:以人体正对墙壁为参考,在人体右侧(90+α,180)度范围内向右转的过程;
所述步骤S9包括以下分步骤:
S91、判断第一转向识别参数K1是否大于第二转向识别参数K2,若是,则进入步骤S92,否则进入步骤S93;
S92、判定转向过程为第三左转过程,并计算转动角度angle为:
angle=180-arccos(K1/Kmax)/PI*180+α
S93、判定转向过程为第三右转过程,并计算转动角度angle为:
angle=180-arccos(K2/Kmax)/PI*180+α。
所述步骤S10中第二右转过程具体为:以人体正对墙壁为参考,在人体右侧(90-α,90+α)度范围内向右转的过程;
所述步骤S10中计算转动角度angle为:
angle=arccos(K2/Kmax)/PI*180+α。
所述左右肩关键点之间的最大距离Kmax初始化为0.65,在每次所述计算转动角度之前,对最大距离Kmax进行更新,所述更新步骤为:判断第一转向识别参数K1是否大于最大距离Kmax,若是,则令最大距离Kmax的计数值为第一转向识别参数K1的计数值,否则不改变最大距离Kmax的计数值,完成最大距离Kmax的更新。

Claims (6)

1.一种基于双摄像头的不同场景下实时人体转动角度识别方法,其特征在于,包括以下步骤:
S1、在一面墙壁上设置两个参数相同且连线水平的摄像头;
S2、通过两个摄像头实时采集人体图像,并采用人体关键点识别算法获取人体骨骼关键点坐标,所述骨骼关键点坐标包括左肩关键点坐标和右肩关键点坐标;
S3、根据第一摄像头所采集的人体骨骼关键点坐标获取第一转向识别参数K1,根据第二摄像头所采集的人体骨骼关键点坐标第二转向识别参数K2
S4、判断第一摄像头采集的左肩关键点横坐标是否大于其采集的右肩关键点横坐标,若是,则进入步骤S5,否则进入步骤S6;
S5、判断第二摄像头采集的左肩关键点横坐标是否大于其采集的右肩关键点横坐标,若是,则进入步骤S7,否则进入步骤S8;
S6、判断第二摄像头采集的左肩关键点横坐标是否大于其采集的右肩关键点横坐标,若是,则进入步骤S10,否则进入步骤S9;
S7、判断第一转向识别参数K1是否大于第二转向识别参数K2,若是,则判定为第一左转过程,并计算转动角度,得到人体转动角度识别结果,否则判定为第一右转过程,并计算转动角度,得到人体转动角度识别结果;
S8、判定当前人体转向过程为第二左转过程,并计算转动角度,得到人体转动角度识别结果;
S9、判断第一转向识别参数K1是否大于第二转向识别参数K2,若是,则判定为第三右转过程,并计算转动角度,得到人体转动角度识别结果,否则判定为第三左转过程,并计算转动角度,得到人体转动角度识别结果;
S10、判定当前人体转向过程为第二右转过程,并计算转动角度,得到人体转动角度识别结果;
所述步骤S1中两个摄像头的镜头轴线与墙壁的夹角均为90-α度,所述两个摄像头的镜头轴线相交且平行于水平面,所述两个摄像头的镜头之间的距离为d米,α表示常数,α∈(0,45);
所述步骤S2中两个摄像头包括第一摄像头和第二摄像头,所述第一摄像头采集的人体骨骼关键点坐标包括左肩关键点坐标(xlj1,ylj1)、右肩关键点坐标(xrj1,yrj1)、左髋关键点坐标(xlk1,ylk1)和右髋关键点坐标(xrk1,yrk1),所述第二摄像头采集的人体骨骼关键点坐标包括左肩关键点坐标(xlj2,ylj2)、右肩关键点坐标(xrj2,yrj2)、左髋关键点坐标(xlk2,ylk2)和右髋关键点坐标(xrk2,yrk2);
所述步骤S3中根据第一摄像头所采集的人体骨骼关键点坐标获取第一转向识别参数K1为:
Figure FDA0003671859550000021
其中,D1表示第一摄像头采集的左肩关键点与右肩关键点坐标在墙壁上的投影点之间的横坐标差,D2表示第一摄像头采集的左髋关键点与左肩关键点在墙壁上的投影点之间的纵坐标差,xlj1表示第一摄像头采集的左肩关键点lj的横坐标,xrj1表示第一摄像头采集的右肩关键点rj的横坐标,ylk1表示第一摄像头采集的左髋关键点lk的纵坐标,ylj1表示第一摄像头采集的左肩关键点lj的纵坐标;
所述步骤S3中根据第二摄像头所采集的人体骨骼关键点坐标第二转向识别参数K2为:
Figure FDA0003671859550000022
其中,D3表示第二摄像头采集的左肩关键点与右肩关键点坐标在墙壁上的投影点之间的横坐标差,D4表示第二摄像头采集的左髋关键点与左肩关键点在墙壁上的投影点之间的纵坐标差,xlj2表示第二摄像头采集的左肩关键点lj的横坐标,xrj2表示第二摄像头采集的右肩关键点rj的横坐标,ylk2表示第二摄像头采集的左髋关键点lk的纵坐标,ylj2表示第二摄像头采集的左肩关键点lj的纵坐标。
2.根据权利要求1所述的基于双摄像头的不同场景下实时人体转动角度识别方法,其特征在于,所述步骤S7中第一左转过程具体为:人体正对墙壁时,向左转动角度为(0,90-α)度的过程;所述第一右转过程为:人体正对墙壁时,向右转动角度为(0,90-α)度的过程;
所述步骤S7包括以下分步骤:
S71、判断第一转向识别参数K1是否大于第二转向识别参数K2,若是,则进入步骤S72,否则进入步骤S73;
S72、判定此时转向过程为第一左转过程,计算转动角度angle为:
angle=arccos(K2/Kmax)/PI*180-α
S73、判定此时转向过程为第一右转过程,计算转动角度angle为:
angle=arccos(K1/Kmax)/PI*180-α
其中,Kmax表示左右肩关键点之间的最大距离;PI表示圆周率。
3.根据权利要求2所述的基于双摄像头的不同场景下实时人体转动角度识别方法,其特征在于,所述步骤S8中第二左转过程具体为:以人体正对墙壁为参考,在人体左侧(90-α,90+α)度范围内向左转的过程;
所述步骤S8中计算转动角度angle为:
angle=arccos(K1/Kmax)/PI*180+α。
4.根据权利要求2所述的基于双摄像头的不同场景下实时人体转动角度识别方法,其特征在于,所述步骤S9中第三左转过程具体为:以人体正对墙壁为参考,在人体左侧(90+α,180)度范围内向左转的过程;所述第三右转过程具体为:以人体正对墙壁为参考,在人体右侧(90+α,180)度范围内向右转的过程;
所述步骤S9包括以下分步骤:
S91、判断第一转向识别参数K1是否大于第二转向识别参数K2,若是,则进入步骤S92,否则进入步骤S93;
S92、判定转向过程为第三左转过程,并计算转动角度angle为:
angle=180-arccos(K1/Kmax)/PI*180+α
S93、判定转向过程为第三右转过程,并计算转动角度angle为:
angle=180-arccos(K2/Kmax)/PI*180+α。
5.根据权利要求2所述的基于双摄像头的不同场景下实时人体转动角度识别方法,其特征在于,所述步骤S10中第二右转过程具体为:以人体正对墙壁为参考,在人体右侧(90-α,90+α)度范围内向右转的过程;
所述步骤S10中计算转动角度angle为:
angle=arccos(K2/Kmax)/PI*180+α。
6.根据权利要求2所述的基于双摄像头的不同场景下实时人体转动角度识别方法,其特征在于,所述左右肩关键点之间的最大距离Kmax初始化为0.65,在每次所述计算转动角度之前,对最大距离Kmax进行更新,所述更新步骤为:判断第一转向识别参数K1是否大于最大距离Kmax,若是,则令最大距离Kmax的计数值为第一转向识别参数K1的计数值,否则不改变最大距离Kmax的计数值,完成最大距离Kmax的更新。
CN202010816048.5A 2020-08-14 2020-08-14 基于双摄像头的不同场景下实时人体转动角度识别方法 Active CN111914790B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010816048.5A CN111914790B (zh) 2020-08-14 2020-08-14 基于双摄像头的不同场景下实时人体转动角度识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010816048.5A CN111914790B (zh) 2020-08-14 2020-08-14 基于双摄像头的不同场景下实时人体转动角度识别方法

Publications (2)

Publication Number Publication Date
CN111914790A CN111914790A (zh) 2020-11-10
CN111914790B true CN111914790B (zh) 2022-08-02

Family

ID=73284641

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010816048.5A Active CN111914790B (zh) 2020-08-14 2020-08-14 基于双摄像头的不同场景下实时人体转动角度识别方法

Country Status (1)

Country Link
CN (1) CN111914790B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112488005B (zh) * 2020-12-04 2022-10-14 临沂市新商网络技术有限公司 基于人体骨骼识别和多角度转换的在岗监测方法及***
CN113435364B (zh) * 2021-06-30 2023-09-26 平安科技(深圳)有限公司 头部转动检测方法、电子设备及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004294657A (ja) * 2003-03-26 2004-10-21 Canon Inc レンズ装置
CN102855379A (zh) * 2012-05-30 2013-01-02 无锡掌游天下科技有限公司 基于骨骼节点数据的标准化方法
CN106296720A (zh) * 2015-05-12 2017-01-04 株式会社理光 基于双目相机的人体朝向识别方法和***
CN110495889A (zh) * 2019-07-04 2019-11-26 平安科技(深圳)有限公司 体态评估方法、电子装置、计算机设备及存储介质
CN110969114A (zh) * 2019-11-28 2020-04-07 四川省骨科医院 一种人体动作功能检测***、检测方法及检测仪

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DK179948B1 (en) * 2017-05-16 2019-10-22 Apple Inc. Recording and sending Emoji

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004294657A (ja) * 2003-03-26 2004-10-21 Canon Inc レンズ装置
CN102855379A (zh) * 2012-05-30 2013-01-02 无锡掌游天下科技有限公司 基于骨骼节点数据的标准化方法
CN106296720A (zh) * 2015-05-12 2017-01-04 株式会社理光 基于双目相机的人体朝向识别方法和***
CN110495889A (zh) * 2019-07-04 2019-11-26 平安科技(深圳)有限公司 体态评估方法、电子装置、计算机设备及存储介质
CN110969114A (zh) * 2019-11-28 2020-04-07 四川省骨科医院 一种人体动作功能检测***、检测方法及检测仪

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
C. Weerasinghe ; P. Ogunbona ; Wanqing Li.2D to pseudo-3D conversion of "head and shoulder" images using feature based parametric disparity maps.《Proceedings 2001 International Conference on Image Processing 》.2002, *
基于3D骨架和MCRF模型的行为识别;刘皓,郭立等;《中国科学技术大学学报》;20140415;全文 *

Also Published As

Publication number Publication date
CN111914790A (zh) 2020-11-10

Similar Documents

Publication Publication Date Title
CN108154550B (zh) 基于rgbd相机的人脸实时三维重建方法
CN111062873B (zh) 一种基于多对双目相机的视差图像拼接与可视化方法
CN107292965B (zh) 一种基于深度图像数据流的虚实遮挡处理方法
CN106780618B (zh) 基于异构深度摄像机的三维信息获取方法及其装置
US11521311B1 (en) Collaborative disparity decomposition
US20200334842A1 (en) Methods, devices and computer program products for global bundle adjustment of 3d images
CN101697233A (zh) 一种基于结构光的三维物体表面重建方法
CN110838164A (zh) 基于物体点深度的单目图像三维重建方法、***及装置
CN111914790B (zh) 基于双摄像头的不同场景下实时人体转动角度识别方法
Taguchi et al. SLAM using both points and planes for hand-held 3D sensors
CN113379815A (zh) 基于rgb相机与激光传感器的三维重建方法、装置及服务器
Wan et al. A study in 3d-reconstruction using kinect sensor
Ruchay et al. Accuracy analysis of 3D object reconstruction using RGB-D sensor
KR20050061115A (ko) 카메라 움직임을 보상한 객체 움직임 추출 장치 및 그 방법
Ringaby et al. Scan rectification for structured light range sensors with rolling shutters
CN114935316B (zh) 基于光学跟踪与单目视觉的标准深度图像生成方法
Cai et al. Assembling convolution neural networks for automatic viewing transformation
Thangarajah et al. Vision-based registration for augmented reality-a short survey
Howells et al. Depth maps comparisons from monocular images by midas convolutional neural networks and dense prediction transformers
Yin et al. Motion detection and tracking using the 3D-camera
Agrawal et al. RWU3D: Real World ToF and Stereo Dataset with High Quality Ground Truth
CN110132225B (zh) 单目斜置非共轴透镜测距装置
Huang et al. AR Mapping: Accurate and Efficient Mapping for Augmented Reality
Zhu et al. Research on infrared and visible images registration algorithm based on graph
Almeida et al. Incremental reconstruction approach for telepresence or ar applications

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant