CN111145274B - 一种基于视觉的坐姿检测方法 - Google Patents

一种基于视觉的坐姿检测方法 Download PDF

Info

Publication number
CN111145274B
CN111145274B CN201911239189.9A CN201911239189A CN111145274B CN 111145274 B CN111145274 B CN 111145274B CN 201911239189 A CN201911239189 A CN 201911239189A CN 111145274 B CN111145274 B CN 111145274B
Authority
CN
China
Prior art keywords
user
sitting posture
region
desk lamp
relative position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201911239189.9A
Other languages
English (en)
Other versions
CN111145274A (zh
Inventor
杜娟
胡昊杰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
South China University of Technology SCUT
Original Assignee
South China University of Technology SCUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by South China University of Technology SCUT filed Critical South China University of Technology SCUT
Priority to CN201911239189.9A priority Critical patent/CN111145274B/zh
Publication of CN111145274A publication Critical patent/CN111145274A/zh
Application granted granted Critical
Publication of CN111145274B publication Critical patent/CN111145274B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/155Segmentation; Edge detection involving morphological operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种基于视觉的坐姿检测方法,包括,实时采集视频流中的连续帧图像;首先对图像进行白平衡等预处理,降低光照强度和色温对于检测效果的影响,然后通过皮肤的色彩空间椭圆模型来提取类人体肤色区域,再经过一系列的形态学处理后,结合区域纹理以及部分约束条件确定用户脸部位置,通过本发明提出的提取特征的方法,提取用户的坐姿特征,并与预先标定的得到的标定参考值进行比对分析,对用户当前坐姿进行分析判断。该发明适合在嵌入式设备上运行,能够有效降低生产成本,扩大使用范围。

Description

一种基于视觉的坐姿检测方法
技术领域
为了克服现有技术存在的缺点与不足,本发明提供一种基于视觉的坐姿检测方法。
背景技术
人们在日常阅读写字的时候容易姿势不正,若不加以矫正,长期则会养成眼距离过近,斜视等不良用眼习惯甚至引发脊柱变形等疾病。近年来,国家日益重视青少年近视防护工作。通过日常的提醒和纠正,可以让青少年养成良好的用眼习惯。随着人们工作节奏的加快,长期的伏案工作与学习对人类带来了很多负面影响。
目前市面上已有的部分台灯产品已经提供了相应的提醒功能。有些产品在使用时要求用户穿戴额外的小型传感器设备,台灯主机通过这些穿戴设备来判断用户的坐姿是否正确,由于需要额外设备使用较为繁琐,分体式设计容易导致穿戴设备丢失,容易提高用户的使用成本;有些产品则是采用一体化设计,在台灯上安装红外传感器来检测用户坐姿,这类产品仅能检测特定红外传感器对应点的信息,对于坐姿检测精度较低,如要提高检测精度需要增加传感器数量重新设计传感器安装位置,成本较高;另外一些基于摄像头的产品并不能很好地检测前倾或后仰等错误坐姿或是检测速度较慢精度不高。
适用于日常生活的坐姿矫正方案应该具有良好的稳定性和普适性,不因使用环境和使用对象的变换而失效。
发明内容
为了克服现有技术中存在的检测速度慢,检测精度和灵敏度不高的缺陷,本发明提供一种基于视觉的坐姿检测方法。
本发明在将图像白平衡处理后,提取类人体肤色区域,经过一系列的形态学处理后,结合区域纹理以及部分约束条件确定用户脸部位置,提取用户的坐姿特征,并与预先得到的标定参考值进行比对分析,对用户当前坐姿进行分析判断。
本发明采用如下技术方案:
一种基于视觉的坐姿检测方法,适用于台灯,所述台灯置于使用者的前方,所述台灯包括旋转杆,摄像头及LED发光面板,所述旋转杆内置控制器,所述控制器与摄像头连接,所述使用者的上半身在摄像头的视野范围内,具体坐姿检测过程如下:
实时采集包含使用者上半身的视频流,获取视频图像,并将图像大小调整为320像素×240像素,记作Image1,对Image1图像进行边缘提取,得到边缘图像Image2;
通过肤色的Cr-Cb椭圆模型,从Image1中提取出类皮肤区域为掩模区域,然后对提取得到的掩模区域进行形态学滤波处理得到Mask1;
在Mask1中筛选出最大连通域,得到符合人脸区域标准的掩模;
去除干扰面部纹理提取的因素,得到掩模Mask2,并记录Mask2区域的高度特征F1、宽度特征F2及高宽比特征F3,同时利用掩模Mask2与边缘图像Image2处理得到只含有面部区域的纹理图像Image3;
计算只含有面部区域的纹理图像Image3的列和,并对结果值进行平滑滤波处理,通过分析列和结果的峰值来判断当前台灯与使用者的相对位置特征F4,同时记录峰值在纹理图像Image3中的面部区域横轴相对位置特征F5;
对掩模Mask2区域计算其空间矩,进一步获得掩模Mask2区域的长轴旋转角度及中心坐标,进而获得长轴旋转角F6和中心位置F7这两个特征;
根据高度特征F1、宽度特征F2、高宽比特征F3、判断当前台灯与使用者的相对位置特征F4、面部区域横轴相对位置特征F5、长轴旋转角特征F6和中心位置特征F7与坐姿标定库中的标准参考值进行对比,分析判断使用者的坐姿,当使用者的坐姿偏离预先设定的范围并且持续时间超过预先设定的预警值,进行报警。
优选的,所述通过肤色的Cr-Cb椭圆模型,从Image1中提取出类皮肤区域为掩模区域,具体为:
先将图像Image1从RGB色彩空间转换到YCrCb色彩空间,然后在Cb和Cr通道中建立一个椭圆模型,当图像点的Cr、Cb值在这个椭圆范围内时,将其标记为类肤色点,所述椭圆为一个中心点在(103,165),长轴30,短轴20,倾斜角为-43°±5°。
优选的,所述去除干扰面部纹理提取的因素,得到掩模Mask2,具体为:
符合人脸区域标准的掩模的最大宽度记作W1,从上到下遍历掩模,统计每一行的白色像素点的数量,将数量小于0.4×W1的行的所有像素值置零,直到遍历至最大宽度所在的行,退出遍历过程,完成去除头发区域的步骤。
优选的,判断台灯与用户的相对位置,具体方法为:
当特征F5表示的峰值在[0,0.4)或是(0.6,1]的范围内时,认为台灯位于使用者的左前方或是右前方;当峰值在其余范围内时,则认为台灯位于使用者的正前方。
优选的,所述分析判断使用者的坐姿,具体为:
使用中心位置特征F7结合面部区域横轴相对位置特征F5来判断使用者的左右偏移情况。
优选的,所述分析判断使用者的坐姿,具体为:
当判断当前台灯与使用者的相对位置特征F4表征为正前方时,使用高宽比特征F3和中心位置特征F7来判断使用者是否存在前倾和后仰的不规范坐姿:
当判断当前台灯与使用者的相对位置特征F4表征为左前方或右前方时,使用者的前倾和后仰判断沿用左右偏移的判断方法;
当判断当前台灯与使用者的相对位置特征F4表征为正前方时,长轴旋转角特征F6用于检测使用者是否有歪头的不良坐姿;
当判断当前台灯与使用者的相对位置特征F4表征为左前方或右前方时,长轴旋转角特征F6用于检测使用者是否有低头过低和前倾的不良坐姿。
优选的,
Figure BDA0002305741220000031
优选的,所述在Mask1中筛选出最大连通域,得到符合人脸区域标准的掩模,具体为:
通过使用人脸面积大小和人脸部长宽比约束条件得到符合人脸区域标准的掩模。
优选的,所述在Mask1中筛选出最大连通域,得到符合人脸区域标准的掩模,还包括如果没有符合人脸区域标准的掩模,则使用者不在摄像头的监控区域内。
优选的,标定参考值的上限和上限分别为每组特征的1/4分位数和3/4分位数。
本发明的有益效果:
本发明通过类肤色模型寻找所有可能的人脸区域,然后通过一系列的约束条件排除掉非人脸区域的候选区域,并经过一系列形态学处理后获取人脸区域的掩模图像和使用Sobel算子获得边缘图像,通过对掩模图像和边缘图像分析,提取其中的F1至F7七种特征并结合标定参考值进行综合分析来判断使用者的坐姿情况,然后***根据算法得到的使用者坐姿情况,相应的向外传递提醒信息。发明方法具有快速和准确地特点,适合在嵌入式设备上运行,极大提升了用户的体验感和满意度。
附图说明
图1是本发明的工作流程图;
图2是本实施例中使用装置的示意图;
图3是本发明的特征提取的工作流程图。
具体实施方式
下面结合实施例及附图,对本发明作进一步地详细说明,但本发明的实施方式不限于此。
实施例
本发明的装置如图2所示,包括摄像头1、可旋转支柱2、LED发光面板3及基座,用户在使用坐姿检测功能前,应在打开LED发光面板3并旋转可旋转支柱2使得摄像头3正对用户。也就是用户上半身在摄像头视野范围内。
一种基于视觉的坐姿检测方法,适合在嵌入式设备上,包括坐姿标定模式和坐姿检测模式,坐姿标定模式和坐姿检测模式步骤大致相同,标定过程中,***持续提取用户坐姿的七个特征,标定完成后,***对相应特征进行分析:分别寻找每组特征的1/4分位数和3/4分位数作为标定参考值的下限和上限,***将每种特征的上下限保存为配置文件,存于标定参考值,以供检测时调用。
所述七个特征为:高度特征F1、宽度特征F2、高宽比特征F3、判断当前台灯与使用者的相对位置特征F4、面部区域横轴相对位置特征F5、长轴旋转角特征F6和中心位置特征F7。
如图1所示,具体检测方法为:
S1通过台灯按键开启坐姿检测功能,***将判断是否存在已经标定好的配置文件,如果文件存在则进入坐姿检测模式,如果文件不存在则进入标准坐姿标定模式。
S2进入标准坐姿标定模式后,***提示用户已经进入标定模式,保持标注坐姿。标定过程持续5s,当标定完成后提示用户标定完成。标定过程中,***持续提取用户坐姿的七个特征,标定完成后,***对相应特征进行分析:分别寻找每组特征的1/4分位数和3/4分位数作为标定参考值的下限和上限,***将每种特征的上下限保存为配置文件,以供检测时调用。
S3***进入检测模式,开始初始化,载入预先经过坐姿标定得到的配置文件,***将根据用户输入的检测阈值(归一化后)和持续坐姿错误报警时间动态设定坐姿检测的判断范围和调整坐姿错误的报警策略。
S4***在检测模式下初始化完成后,实时从获取的视频流中截取视频帧作为检测分析的对象,在判断用户存在的情况下,提取用户坐姿的七个特征。以0.5秒作为一个分析单元,计算一个单元内各个特征的中位数然后结合步骤S3中的用户设定数值与对应特征的标定参考值进行对比之后得出用户在一个单元内的坐姿正确与否。
S5结合步骤S3中的用户设定数值,当用户坐姿持续错误一定时间后***向外发送报警信息,并且在一段时间内不再提醒,以避免提醒过于频繁,影响用户体验。
参阅图3步骤S4中用户坐姿七个特征的具体步骤为:
步骤S4.1、台灯置于使用者前方,台灯至使用者的连线与使用者正前方轴线左右偏移角不大于45°。检测***的摄像头部分固定于台灯光源下方,镜头正对使用者;
步骤S4.2、实时采集含有使用者上半身的视频流,从视频流中获取视频帧(图像)作为算法处理的对象,并将图像大小整定到(320,240)的大小,记作Image1;[单位:像素]
步骤S4.3、将Image1进行白平衡处理;
步骤S4.4、用Sobel算子对白平衡处理后的Image1进行图像的边缘提取,得到边缘图像Image2;
步骤S4.5、将白平衡处理后的Image1中的类皮肤区域,通过肤色在Cr-Cb色彩空间中的椭圆模型,提取出来,对于提取得到的掩模区域进行形态学滤波处理得到Mask1;
步骤S4.6、在Mask1做寻找最大连通域,并对最大连通域进行分析,通过使用人脸面积大小和人脸部长宽比等约束条件,排除掉明显的非人脸区域。如果没有满足条件的区域,则判定使用者不在摄像头的监控区域内,返回***没有检测到使用者的信息。
步骤S4.7、在步骤S4.6后,得到一个符合人脸区域标准的掩模,同时去除掉额头处头发边缘区域,防止干扰面部纹理提取,得到掩模Mask2,并记录Mask2区域的高度F1宽度F2及高宽比F3特征。同时利用掩模Mask2与边缘图像Image2做与处理得到只含有面部区域的纹理图像Image3;
步骤S4.8、将只含有面部区域的纹理图像Image3归边累加(列和),并对结果值进行平滑处理。通过分析归边累加值的峰值来判断当前台灯与使用者的相对位置作为特征F4(台灯在用户左前方、正前方或右前方三个位置),同时记录峰值在纹理图像Image3中面部区域横轴相对位置F5这一特征。特征F5的计算方法为:
Figure BDA0002305741220000061
步骤S4.9、对在步骤S7中得到的掩模Mask2区域计算其空间矩,进一步获得掩模Mask2区域的长轴旋转角度、中心坐标,进而获得长轴旋转角F6和中心位置F7这两个特征;
步骤S4.10、在获得了F1至F7一共7个特征之后,结合坐姿标定时建立的标准坐姿的7个特征库来分析使用者的当前坐姿。当使用者的坐姿偏离预先设定的范围并且持续时间超过了预先设定的预警值,***将对外发送坐姿不正确的报警信号来提醒使用者应保持一个正确坐姿。
作为本发明的进一步技术方案,步骤S5中的类肤色区域提取的具体方法为:
先将图像转换到YCrCb色彩空间模型中并且在Cb和Cr通道中建立一个椭圆模型,具体体现为一个中心在(103,165),长轴30,短轴20,倾斜角为-43°±5°的一个椭圆,当图像点的Cr、Cb值在这个椭圆范围内时,将其标记为类肤色点。[单位:像素]
进一步的,步骤S4.7中,去除头发区域的方法为:
将步骤S6中得到的一个符合人脸区域标准的掩模的最大宽度记作W1,从上到下遍历掩模,统计每一行的白色像素点的数量,将数量小于0.4×W1的行的所有像素值置零,直到遍历至最大宽度所在的行,退出遍历过程,完成去除头发区域的步骤。
进一步的,步骤S4.8中,判断台灯与用户的相对位置的具体方法为:
当特征F5的值在[0,0.4)或是(0.6,1]的范围内时,我们认为台灯位于使用者的左前方或是右前方;特征F5的值在其余范围内时,则认为台灯位于使用者的正前方。
更进一步的,步骤S10中,分析判断使用者坐姿的方法为:
使用特征F7结合F5来判断使用者的左右偏移情况,左右偏移情况的具体方法如表1所示:
表1
Figure BDA0002305741220000071
当特征F4短时与标定值不一致时可以认为使用者产生了转头的行为动作,当特征F4与标定值长期不一致是可以认定使用者与台灯的相对位置发生了变化,需要重新进行标定;
当特征F4表征为正前方时,使用F3特征和特征F7来判断使用者是否存在前倾和后仰的不规范坐姿,如表2所示:
表2
Figure BDA0002305741220000072
当特征F4表征为左前方或右前方时,使用者的前倾和后仰判断可以沿用左右偏移的判断方法。
当特征F4表征为正前方时,特征F6可以用于检测使用者是否有歪头的不良坐姿;当特征F4表征为左前方或右前方时,特征F6可以用于检测使用者是否有低头过低和前倾的不良坐姿,具体参数如表3所示:
表3
Figure BDA0002305741220000073
Figure BDA0002305741220000081
参照表4,用户处于正确坐姿状态时的各个特征的阈值为:
表4
Figure BDA0002305741220000082
本发明在将图像白平衡处理后,提取类人体肤色区域,经过一系列的形态学处理后,结合区域纹理以及部分约束条件确定用户脸部位置,提取用户的坐姿特征,并与预先得到的标定参考值进行比对分析,对用户当前坐姿进行分析判断。
上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受所述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。

Claims (10)

1.一种基于视觉的坐姿检测方法,适用于台灯,所述台灯置于使用者的前方,其特征在于,所述台灯包括旋转杆,摄像头及LED发光面板,所述旋转杆内置控制器,所述控制器与摄像头连接,所述使用者的上半身在摄像头的视野范围内,具体坐姿检测过程如下:
实时采集包含使用者上半身的视频流,获取视频图像,并将图像大小调整为320像素×240像素,记作Image1,对Image1图像的边缘提取,得到边缘图像Image2;
通过肤色的Cr-Cb椭圆模型,从Image1中提取出类皮肤区域为掩模区域,然后对提取得到的掩模区域进行形态学滤波处理得到Mask1;
在Mask1中筛选出最大连通域,得到符合人脸区域标准的掩模;
去除干扰面部纹理提取的因素,得到掩模Mask2,并记录Mask2区域的高度特征F1、宽度特征F2及高宽比特征F3,同时利用掩模Mask2与边缘图像Image2处理得到只含有面部区域的纹理图像Image3;
计算只含有面部区域的纹理图像Image3的列和,并对结果值进行平滑滤波处理,通过分析列和结果的峰值得到当前台灯与使用者的相对位置特征F4,同时记录峰值在纹理图像Image3中的面部区域横轴相对位置特征F5;
对掩模Mask2区域计算其空间矩,进一步获得掩模Mask2区域的长轴旋转角度及中心坐标,进而获得长轴旋转角F6和中心位置F7这两个特征;
根据高度特征F1、宽度特征F2、高宽比特征F3、当前台灯与使用者的相对位置特征F4、面部区域横轴相对位置特征F5、长轴旋转角特征F6和中心位置特征F7与坐姿标定库中的标准参考值进行对比,分析判断使用者的坐姿,当使用者的坐姿偏离预先设定的范围并且持续时间超过预先设定的预警值,进行报警。
2.根据权利要求1所述的坐姿检测方法,其特征在于,所述通过肤色的Cr-Cb椭圆模型,从Image1中提取出类皮肤区域为掩模区域,具体为:
先将图像Image1从RGB色彩空间转换到YCrCb色彩空间,然后在Cb和Cr通道中建立一个椭圆模型,当图像点的Cr、Cb值在这个椭圆范围内时,将其标记为类肤色点,所述椭圆为一个中心点在(103,165),长轴30,短轴20,倾斜角为-43°±5°。
3.根据权利要求1所述的坐姿检测方法,其特征在于,所述去除干扰面部纹理提取的因素,得到掩模Mask2,具体为:
符合人脸区域标准的掩模的最大宽度记作W1,从上到下遍历掩模,统计每一行的白色像素点的数量,将数量小于0.4×W1的行的所有像素值置零,直到遍历至最大宽度所在的行,退出遍历过程,完成去除头发区域的步骤。
4.根据权利要求1所述的坐姿检测方法,其特征在于,判断台灯与用户的相对位置,具体方法为:
当特征F5表示的峰值在[0,0.4)或是(0.6,1]的范围内时,认为台灯位于使用者的左前方或是右前方;当峰值在其余范围内时,则认为台灯位于使用者的正前方。
5.根据权利要求1所述的坐姿检测方法,其特征在于,所述分析判断使用者的坐姿,具体为:
使用中心位置特征F7结合面部区域横轴相对位置特征F5来判断使用者的左右偏移情况。
6.根据权利要求5所述的坐姿检测方法,其特征在于,所述分析判断使用者的坐姿,具体为:
当判断当前台灯与使用者的相对位置特征F4表征为正前方时,使用高宽比特征F3和中心位置特征F7来判断使用者是否存在前倾和后仰的不规范坐姿:
当判断当前台灯与使用者的相对位置特征F4表征为左前方或右前方时,使用者的前倾和后仰判断沿用左右偏移的判断方法;
当判断当前台灯与使用者的相对位置特征F4表征为正前方时,长轴旋转角特征F6用于检测使用者是否有歪头的不良坐姿;
当判断当前台灯与使用者的相对位置特征F4表征为左前方或右前方时,长轴旋转角特征F6用于检测使用者是否有低头过低和前倾的不良坐姿。
7.根据权利要求1所述的坐姿检测方法,其特征在于,
Figure FDA0003441762180000021
8.根据权利要求1所述的坐姿检测方法,其特征在于,所述在Mask1中筛选出最大连通域,得到符合人脸区域标准的掩模,具体为:
通过使用人脸面积大小和人脸部长宽比约束条件得到符合人脸区域标准的掩模。
9.根据权利要求1所述的坐姿检测方法,其特征在于,所述在Mask1中筛选出最大连通域,得到符合人脸区域标准的掩模,还包括如果没有符合人脸区域标准的掩模,则使用者不在摄像头的监控区域内。
10.根据权利要求1所述的坐姿检测方法,其特征在于,标准参考值的上限和上限分别为每组特征的1/4分位数和3/4分位数。
CN201911239189.9A 2019-12-06 2019-12-06 一种基于视觉的坐姿检测方法 Active CN111145274B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911239189.9A CN111145274B (zh) 2019-12-06 2019-12-06 一种基于视觉的坐姿检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911239189.9A CN111145274B (zh) 2019-12-06 2019-12-06 一种基于视觉的坐姿检测方法

Publications (2)

Publication Number Publication Date
CN111145274A CN111145274A (zh) 2020-05-12
CN111145274B true CN111145274B (zh) 2022-04-22

Family

ID=70517776

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911239189.9A Active CN111145274B (zh) 2019-12-06 2019-12-06 一种基于视觉的坐姿检测方法

Country Status (1)

Country Link
CN (1) CN111145274B (zh)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101236599A (zh) * 2007-12-29 2008-08-06 浙江工业大学 基于多摄像机信息融合的人脸识别检测装置
CN101630410A (zh) * 2009-08-18 2010-01-20 北京航空航天大学 一种基于单摄像机的人体坐姿判定方法
CN103810478A (zh) * 2014-02-21 2014-05-21 广东小天才科技有限公司 一种坐姿检测方法和装置
CN106022304A (zh) * 2016-06-03 2016-10-12 浙江大学 一种基于双目相机的实时人体坐姿情况检测方法
CN109978907A (zh) * 2019-03-22 2019-07-05 南京邮电大学 一种面向家居场景的学生坐姿检测方法
CN110309787A (zh) * 2019-07-03 2019-10-08 电子科技大学 一种基于深度相机的人体坐姿检测方法
CN110345407A (zh) * 2019-06-20 2019-10-18 华南理工大学 一种基于深度学习的智能矫姿台灯及矫姿方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10512400B2 (en) * 2008-11-17 2019-12-24 Eyes4Lives, Inc. Vision protection method and systems thereof
TWI411935B (zh) * 2009-12-25 2013-10-11 Primax Electronics Ltd 利用影像擷取裝置辨識使用者姿勢以產生控制訊號之系統以及方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101236599A (zh) * 2007-12-29 2008-08-06 浙江工业大学 基于多摄像机信息融合的人脸识别检测装置
CN101630410A (zh) * 2009-08-18 2010-01-20 北京航空航天大学 一种基于单摄像机的人体坐姿判定方法
CN103810478A (zh) * 2014-02-21 2014-05-21 广东小天才科技有限公司 一种坐姿检测方法和装置
CN106022304A (zh) * 2016-06-03 2016-10-12 浙江大学 一种基于双目相机的实时人体坐姿情况检测方法
CN109978907A (zh) * 2019-03-22 2019-07-05 南京邮电大学 一种面向家居场景的学生坐姿检测方法
CN110345407A (zh) * 2019-06-20 2019-10-18 华南理工大学 一种基于深度学习的智能矫姿台灯及矫姿方法
CN110309787A (zh) * 2019-07-03 2019-10-08 电子科技大学 一种基于深度相机的人体坐姿检测方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
Human Behavior Recognition Based on Sitting Posture;Wu S L et al;《International Symposium on Computer,Communication,Control and Automation Proceedings》;20101230;全文 *
不规范书写坐姿的多类特征融合与识别;袁迪波等;《计算机工程与设计》;20170216;全文 *
基于人脸检测与肤色统计的坐姿行为监测;张宇;《计算机与网络》;20170412;全文 *
基于深度图像的嵌入式人体坐姿检测***的实现;曾星等;《计算机测量与控制》;20170925;全文 *

Also Published As

Publication number Publication date
CN111145274A (zh) 2020-05-12

Similar Documents

Publication Publication Date Title
CN107169456B (zh) 一种基于坐姿深度图像的坐姿检测方法
CN106022304B (zh) 一种基于双目相机的实时人体坐姿情况检测方法
CN106846734B (zh) 一种疲劳驾驶检测装置及方法
US7907752B2 (en) Face center position detecting device, face center position detecting method, and computer-readable medium
CN101271517B (zh) 面部区域检测装置和方法
CN110934591B (zh) 一种坐姿检测方法及装置
US8154591B2 (en) Eyelid opening level determination device and computer readable medium storing computer program thereof
CN109785396B (zh) 基于双目相机的写字姿态监测方法、***、装置
CN104200192A (zh) 驾驶员注视检测***
US20200146622A1 (en) System and method for determining the effectiveness of a cosmetic skin treatment
TW200414072A (en) Iris extraction method
CN105205437B (zh) 基于头部轮廓验证的侧脸检测方法及装置
US20180276732A1 (en) Skin product fitting method and electronic apparatus therefor
EP3412200B1 (en) Skin condition detection method, electronic apparatus, and skin condition detection system
CN112183502B (zh) 驾驶员的驾驶状态确定方法、计算机存储介质及电子设备
CN109840484A (zh) 一种基于边缘滤波、椭圆评价和瞳孔验证的瞳孔检测方法
Bei et al. Sitting posture detection using adaptively fused 3D features
CN111027517A (zh) 一种基于视觉的坐姿矫正提醒***及方法、应用
CN110874572B (zh) 一种信息检测方法及装置、存储介质
CN106412420A (zh) 一种互动拍照实现方法
CN115171024A (zh) 一种基于视频序列的面部多特征融合疲劳检测方法及***
JP2004310397A (ja) マスク着用判定装置
CN113345177B (zh) 一种基于人脸识别的图书自助借还***
CN111145274B (zh) 一种基于视觉的坐姿检测方法
JP4146751B2 (ja) 顔識別装置、顔識別方法及び顔識別プログラム

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant