CN111160291A - 基于深度信息与cnn的人眼检测方法 - Google Patents

基于深度信息与cnn的人眼检测方法 Download PDF

Info

Publication number
CN111160291A
CN111160291A CN201911416013.6A CN201911416013A CN111160291A CN 111160291 A CN111160291 A CN 111160291A CN 201911416013 A CN201911416013 A CN 201911416013A CN 111160291 A CN111160291 A CN 111160291A
Authority
CN
China
Prior art keywords
depth
image
cnn
face
human eye
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201911416013.6A
Other languages
English (en)
Other versions
CN111160291B (zh
Inventor
朱志林
张伟香
王禹衡
方勇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Evis Technology Co ltd
Original Assignee
Shanghai Evis Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Evis Technology Co ltd filed Critical Shanghai Evis Technology Co ltd
Priority to CN201911416013.6A priority Critical patent/CN111160291B/zh
Publication of CN111160291A publication Critical patent/CN111160291A/zh
Application granted granted Critical
Publication of CN111160291B publication Critical patent/CN111160291B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/197Matching; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Ophthalmology & Optometry (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明揭示了一种基于深度信息与CNN的人眼检测方法,包括:步骤S1、输入图像及其深度图像;步骤S2、对深度图像按照检测距离范围进行预处理,去除非检测距离范围内背景;步骤S3、对预处理后的深度图进行深度直方图分割,获得目标候选区域;步骤S4、对候选区域用头肩模板进行匹配验证,确定人脸候选区域;步骤S5、对人脸候选框的重叠区域进行比较,将满足设定阈值的候选框合并;步骤S6、在人脸候选区域对应的图像区域内用训练好的CNN模型中做人脸框回归与关键点回归计算,得到人眼的位置。本发明提出的基于深度信息与CNN的人眼检测方法,可提高检测精确度,减少计算复杂度,提高检测效率,保证检测实时性与准确性,满足裸眼3D显示器的要求。

Description

基于深度信息与CNN的人眼检测方法
技术领域
本发明属于人眼检测技术领域,涉及一种人眼检测方法,尤其涉及一种基于深度信息与CNN的人眼检测方法。
背景技术
随着裸眼3D显示器技术的日趋成熟,如何实时准确的检测观看者眼睛的位置,并根据观看者的眼睛位置输出最好的3D观看效果成为裸眼3D显示器的重要发展方向。目前人眼检测算法的实现主要通过训练CNN模型,在人脸区域分类的基础上,对人脸框与眼睛位置做回归,精确的实现人眼检测。
同时随着深度相机采集深度信息技术的发展,通过深度相机提取场景深度信息,可以得到图像中没有的深度特征。而且深度特征可以准确的分割出场景中的物体,并获取其对应的深度范围,大大减少了CNN提取人脸候选区域的计算复杂度。
有鉴于此,设计一种结合深度信息与CNN的方法实现人眼检测,满足裸眼3D显示器实时性与准确性的要求。
发明内容
本发明提供一种基于深度信息与CNN的人眼检测方法,可提高检测精确度,减少计算复杂度,提高检测效率。
为解决上述技术问题,根据本发明的一个方面,采用如下技术方案:
一种基于深度信息与CNN的人眼检测方法,所述人眼检测方法包括:
步骤S1、输入图像及其深度图像;
步骤S2、对深度图像按照检测距离范围进行预处理,去除非检测距离范围内背景;
步骤S3、对预处理后的深度图进行深度直方图分割,获得目标候选区域;
步骤S4、对候选区域用头肩模板进行匹配验证,确定人脸候选区域;
步骤S5、对人脸候选框的重叠区域进行比较,将满足设定阈值的候选框合并;
步骤S6、在人脸候选区域对应的图像区域内用训练好的CNN模型中做人脸框回归与关键点回归计算,得到人眼的位置。
作为本发明的一种实施方式,所述步骤S2中,将深度图中深度值提取出检测范围的像素点,转化为像素值设置为255,其余为0的掩膜,与深度图点乘,去除范围外的背景像素。
作为本发明的一种实施方式,所述步骤S3中,将经过掩膜后的深度图深度值转换到0-255,将深度图从屏幕坐标系的xy轴映射到xz轴平面,对映射后的图像分别对xz轴做投影,分割出物体范围;分割出的范围对应x轴区域范围与z轴区域范围,并根据对应的深度范围的中间值得到区域模板匹配对应尺度的模板图像。
作为本发明的一种实施方式,所述步骤S3中,充分利用不同物***置深度值的差异,首先将xy轴的屏幕坐标系转换到xz轴,将场景中物体做了xz的二维垂直投影,再根据物体投影图上x轴的垂直投影,找出投影的波峰与波谷,认为每个波峰位置表示物体存在,在每个波峰前后的波谷作为分割的阈值,对场景上的物体做x轴的分割;
对分割出来的每个x轴区域做z轴上的垂直投影,找出投影的波峰波谷,将每个波峰作为物体所在深度,将波峰前后的波谷作为分割阈值,与x轴的分割组成每个物体的分割范围,将场景中每个物体分割开。
作为本发明的一种实施方式,所述步骤S3中,采用了一种自适应深度值匹配模板尺度的方法,避免了传统多尺度同时做检测的复杂性;根据不同物体得到的深度范围值,取范围的中间值作为该物体的深度,选择与其深度值匹配的头肩模板图像,实现了检测头肩模板最佳尺度匹配准确性的同时,也避免了多尺度模板同时检测的复杂性。
作为本发明的一种实施方式,所述步骤S4中,将深度图分成多个检测部分,对这多个深度区域并行做检测,采用模板匹配的方法,通过步长为1的滑窗,将当前深度值对应的头肩模板图像与输入的深度图进行相似度检测,得到的值存放到result图中。
作为本发明的一种实施方式,所述步骤S5中,采用非极大值抑制方法,将result图中的候选框做合并,将得到的候选框根据头肩比例做头部的分割,将深度图中分割的位置映射到图像中作为CNN模型的输入图像。
作为本发明的一种实施方式,所述步骤S6中,将图像分割得到的人脸区域resize到与训练图像相同的训练尺度的大小作为CNN模型的输入图像。
作为本发明的一种实施方式,所述步骤S6中,采用四层卷积层,两层全连接层的模型进行人脸二分类以及人脸框与关键点回归,人脸二分类采用softmax loss函数,人脸框与人脸关键点回归采用最小均方误差函数训练出模型;将训练好的模型导入网络结构,结合深度信息分割出的人脸图像输入,得到新的人脸框位置与人脸关键点。
本发明的有益效果在于:本发明提出的基于深度信息与CNN的人眼检测方法,可提高检测精确度,减少计算复杂度,提高检测效率,保证检测实时性与准确性,满足裸眼3D显示器的要求。
本发明提出的人眼检测方法,首先利用了深度信息对人脸区域粗提取,再通过CNN方法对人脸位置及人眼位置细化。本发明根据场景物体水平间隔与深度间隔的特点,通过深度信息分割出场景中的物体,再对每个物体做头肩模板匹配,实现对人脸的快速定位,在保证人脸检测准确度的前提下,大大减少了人脸检测的复杂度,使本算法的耗时更少。本发明在分割出的人脸区域的基础上,采用4个卷积层,2个全连接层的网络结构,在人脸上做人脸框边缘回归及关键点(landmark)点的位置回归,通过预先训练好的模型参数,实现了对人眼的准确定位。
附图说明
图1为本发明一实施例中人眼识别方法的流程图。
具体实施方式
下面结合附图详细说明本发明的优选实施例。
为了进一步理解本发明,下面结合实施例对本发明优选实施方案进行描述,但是应当理解,这些描述只是为进一步说明本发明的特征和优点,而不是对本发明权利要求的限制。
该部分的描述只针对几个典型的实施例,本发明并不仅局限于实施例描述的范围。相同或相近的现有技术手段与实施例中的一些技术特征进行相互替换也在本发明描述和保护的范围内。
本发明揭示了一种基于深度信息与CNN的人眼识别方法,图1为本发明一实施例中人眼识别方法的流程图;请参阅图1,在本发明的一实施例中,所述方法包括:
步骤S1.通过深度相机拿到图像与对应的深度图;
步骤S2.将深度图中深度值提取出检测范围的像素点,转化为像素值设置为255,其余为0的掩膜,与深度图点乘,去除范围外的像素。
步骤S3.将经过掩膜后的深度图深度值转换到0-255,将深度图从屏幕坐标系的xy轴映射到xz轴平面,先对映射后的图像做x轴投影,找出波峰波谷的位置,将波峰位置的前后两个波谷值作为x轴一个分割区域。再对分割出来的区域分别做z轴投影,找出投影的波峰波谷,将波峰前后的波谷作为z轴的一个区域。分割出的范围对应x轴区域范围与z轴区域范围,并根据对应的深度范围的中间值得到区域模板匹配对应尺度的模板图像。
步骤S4.将深度图分成多个检测部分,对这多个深度区域并行做检测,采用模板匹配的方法,通过步长为1的滑窗,将当前深度值对应的头肩模板图像与输入的深度图进行相似度检测,得到的值存放到result图中。
步骤S5.对人脸候选框的重叠区域进行比较,将满足设定阈值的候选框合并。
在本发明的一实施例中,遍历result图的每个像素值,设置阈值,将符合阈值条件的作为候选框,将候选框采用非极大值抑制的方法,将满足一定IOU阈值(交并比阈值)的候选框合并。
步骤S6.将合并后的候选框映射到图像,并对头部区域分割作为输入图像,在训练好的CNN模型中做人脸框回归与关键点回归计算,得到人眼的位置。
在本发明的一实施例中,步骤S6中,人脸框边缘及人脸关键点回归方法的步骤如下:
步骤S61:将输入的人脸区域resize到训练尺度,送入4层卷积层中,卷积核为3x3,每个卷积层后加一个prelu层,导入训练好的模型权值参数,提取出3x3x128的featuremap。
步骤S62:将得到的feature map通过2层全连接层输出一个2+4+2xPointNum的向量,2代表是否人脸的分类,4表示人脸框的位置,PointNum表示人脸关键点个数。
步骤S63:将得到的人脸的关键点位置提取出人眼位置,并将人眼在人脸的位置映射回源图,实现人眼位置检测。
综上所述,本发明提出的基于深度信息与CNN的人眼检测方法,可以保证检测实时性与准确性,满足裸眼3D显示器的要求。
本发明提出的人眼检测方法,首先利用了深度信息对人脸区域粗提取,再通过CNN方法对人脸位置及人眼位置细化。本发明根据场景物体水平间隔与深度间隔的特点,通过深度信息分割出场景中的物体,再对每个物体做头肩模板匹配,实现对人脸的快速定位,在保证人脸检测准确度的前提下,大大减少了人脸检测的复杂度,使本算法的耗时更少。本发明在分割出的人脸区域的基础上,采用4个卷积层,2个全连接层的网络结构,在人脸上做人脸框边缘回归及关键点的位置回归,通过预先训练好的模型参数,实现了对人眼的准确定位。
以上所述实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
这里本发明的描述和应用是说明性的,并非想将本发明的范围限制在上述实施例中。这里所披露的实施例的变形和改变是可能的,对于那些本领域的普通技术人员来说实施例的替换和等效的各种部件是公知的。本领域技术人员应该清楚的是,在不脱离本发明的精神或本质特征的情况下,本发明可以以其它形式、结构、布置、比例,以及用其它组件、材料和部件来实现。在不脱离本发明范围和精神的情况下,可以对这里所披露的实施例进行其它变形和改变。

Claims (9)

1.一种基于深度信息与CNN的人眼检测方法,其特征在于,所述人眼检测方法包括:
步骤S1、输入图像及其深度图像;
步骤S2、对深度图像按照检测距离范围进行预处理,去除非检测距离范围内背景;
步骤S3、对预处理后的深度图进行深度直方图分割,获得目标候选区域;
步骤S4、对候选区域用头肩模板进行匹配验证,确定人脸候选区域;
步骤S5、对人脸候选框的重叠区域进行比较,将满足设定阈值的候选框合并;
步骤S6、在人脸候选区域对应的图像区域内用训练好的CNN模型中做人脸框回归与关键点回归计算,得到人眼的位置。
2.根据权利要求1所述的基于深度信息与CNN的人眼检测方法,其特征在于:
所述步骤S2中,将深度图中深度值提取出检测范围的像素点,转化为像素值设置为255,其余为0的掩膜,与深度图点乘,去除范围外的背景像素。
3.根据权利要求1所述的基于深度信息与CNN的人眼检测方法,其特征在于:
所述步骤S3中,将经过掩膜后的深度图深度值转换到0-255,将深度图从屏幕坐标系的xy轴映射到xz轴平面,对映射后的图像分别对xz轴做投影,分割出物体范围;分割出的范围对应x轴区域范围与z轴区域范围,并根据对应的深度范围的中间值得到区域模板匹配对应尺度的模板图像。
4.根据权利要求1所述的基于深度信息与CNN的人眼检测方法,其特征在于:
所述步骤S3中,充分利用不同物***置深度值的差异,首先将xy轴的屏幕坐标系转换到xz轴,将场景中物体做了xz的二维垂直投影,再根据物体投影图上x轴的垂直投影,找出投影的波峰与波谷,认为每个波峰位置表示物体存在,在每个波峰前后的波谷作为分割的阈值,对场景上的物体做x轴的分割;
对分割出来的每个x轴区域做z轴上的垂直投影,找出投影的波峰波谷,将每个波峰作为物体所在深度,将波峰前后的波谷作为分割阈值,与x轴的分割组成每个物体的分割范围,将场景中每个物体分割开。
5.根据权利要求1所述的基于深度信息与CNN的人眼检测方法,其特征在于:
所述步骤S3中,采用自适应深度值匹配模板尺度的方法;根据不同物体得到的深度范围值,取范围的中间值作为该物体的深度,选择与其深度值匹配的头肩模板图像。
6.根据权利要求1所述的基于深度信息与CNN的人眼检测方法,其特征在于:
所述步骤S4中,将深度图分成多个检测部分,对这多个深度区域并行做检测,采用模板匹配的方法,通过步长为1的滑窗,将当前深度值对应的头肩模板图像与输入的深度图进行相似度检测,得到的值存放到result图中。
7.根据权利要求1所述的基于深度信息与CNN的人眼检测方法,其特征在于:
所述步骤S5中,采用非极大值抑制方法,将result图中的候选框做合并,将得到的候选框根据头肩比例做头部的分割,将深度图中分割的位置映射到图像中作为CNN模型的输入图像。
8.根据权利要求1所述的基于深度信息与CNN的人眼检测方法,其特征在于:
所述步骤S6中,将图像分割得到的人脸区域resize到与训练图像相同的训练尺度的大小作为CNN模型的输入图像。
9.根据权利要求1所述的基于深度信息与CNN的人眼检测方法,其特征在于:
所述步骤S6中,采用四层卷积层,两层全连接层的模型进行人脸二分类以及人脸框与关键点回归,人脸二分类采用softmax loss函数,人脸框与人脸关键点回归采用最小均方误差函数训练出模型;将训练好的模型导入网络结构,结合深度信息分割出的人脸图像输入,得到新的人脸框位置与人脸关键点。
CN201911416013.6A 2019-12-31 2019-12-31 基于深度信息与cnn的人眼检测方法 Active CN111160291B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911416013.6A CN111160291B (zh) 2019-12-31 2019-12-31 基于深度信息与cnn的人眼检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911416013.6A CN111160291B (zh) 2019-12-31 2019-12-31 基于深度信息与cnn的人眼检测方法

Publications (2)

Publication Number Publication Date
CN111160291A true CN111160291A (zh) 2020-05-15
CN111160291B CN111160291B (zh) 2023-10-31

Family

ID=70560194

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911416013.6A Active CN111160291B (zh) 2019-12-31 2019-12-31 基于深度信息与cnn的人眼检测方法

Country Status (1)

Country Link
CN (1) CN111160291B (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112036284A (zh) * 2020-08-25 2020-12-04 腾讯科技(深圳)有限公司 图像处理方法、装置、设备及存储介质
CN112257674A (zh) * 2020-11-17 2021-01-22 珠海大横琴科技发展有限公司 一种视觉数据处理的方法和装置
CN112329752A (zh) * 2021-01-06 2021-02-05 腾讯科技(深圳)有限公司 人眼图像处理模型的训练方法、图像处理方法及装置
CN112346258A (zh) * 2020-11-06 2021-02-09 上海易维视科技有限公司 基于方波拟合的光栅可视区定标方法及***
CN112365547A (zh) * 2020-11-06 2021-02-12 上海易维视科技有限公司 基于多深度光栅可视点的相机矫正方法及***
CN113257392A (zh) * 2021-04-20 2021-08-13 哈尔滨晓芯科技有限公司 一种超声机普适外接数据自动预处理方法

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120051588A1 (en) * 2009-12-21 2012-03-01 Microsoft Corporation Depth projector system with integrated vcsel array
CN102737235A (zh) * 2012-06-28 2012-10-17 中国科学院自动化研究所 基于深度信息和彩色图像的头部姿势估计方法
JP2015106252A (ja) * 2013-11-29 2015-06-08 シャープ株式会社 顔向き検出装置及び3次元計測装置
CN108174182A (zh) * 2017-12-30 2018-06-15 上海易维视科技股份有限公司 三维跟踪式裸眼立体显示视区调整方法及显示***
CN108256391A (zh) * 2016-12-29 2018-07-06 广州映博智能科技有限公司 一种基于投影积分和边缘检测的瞳孔区域定位方法
CN108615016A (zh) * 2018-04-28 2018-10-02 北京华捷艾米科技有限公司 人脸关键点检测方法和人脸关键点检测装置
CN109034051A (zh) * 2018-07-24 2018-12-18 哈尔滨理工大学 人眼定位方法
CN109725721A (zh) * 2018-12-29 2019-05-07 上海易维视科技股份有限公司 用于裸眼3d显示***的人眼定位方法及***
CN109961006A (zh) * 2019-01-30 2019-07-02 东华大学 一种低像素多目标人脸检测和关键点定位方法以及对齐方法
CN109993086A (zh) * 2019-03-21 2019-07-09 北京华捷艾米科技有限公司 人脸检测方法、装置、***及终端设备

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120051588A1 (en) * 2009-12-21 2012-03-01 Microsoft Corporation Depth projector system with integrated vcsel array
CN102737235A (zh) * 2012-06-28 2012-10-17 中国科学院自动化研究所 基于深度信息和彩色图像的头部姿势估计方法
JP2015106252A (ja) * 2013-11-29 2015-06-08 シャープ株式会社 顔向き検出装置及び3次元計測装置
CN108256391A (zh) * 2016-12-29 2018-07-06 广州映博智能科技有限公司 一种基于投影积分和边缘检测的瞳孔区域定位方法
CN108174182A (zh) * 2017-12-30 2018-06-15 上海易维视科技股份有限公司 三维跟踪式裸眼立体显示视区调整方法及显示***
CN108615016A (zh) * 2018-04-28 2018-10-02 北京华捷艾米科技有限公司 人脸关键点检测方法和人脸关键点检测装置
CN109034051A (zh) * 2018-07-24 2018-12-18 哈尔滨理工大学 人眼定位方法
CN109725721A (zh) * 2018-12-29 2019-05-07 上海易维视科技股份有限公司 用于裸眼3d显示***的人眼定位方法及***
CN109961006A (zh) * 2019-01-30 2019-07-02 东华大学 一种低像素多目标人脸检测和关键点定位方法以及对齐方法
CN109993086A (zh) * 2019-03-21 2019-07-09 北京华捷艾米科技有限公司 人脸检测方法、装置、***及终端设备

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
刘林涛: "用于3D裸眼显示的人眼实时探测与跟踪并行算法与实现" *
李燕晓: "人脸检测及眼睛定位算法的研究" *
王伟, 张佑生, 方芳: "人脸检测与识别技术综述" *

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112036284A (zh) * 2020-08-25 2020-12-04 腾讯科技(深圳)有限公司 图像处理方法、装置、设备及存储介质
CN112036284B (zh) * 2020-08-25 2024-04-19 腾讯科技(深圳)有限公司 图像处理方法、装置、设备及存储介质
CN112346258A (zh) * 2020-11-06 2021-02-09 上海易维视科技有限公司 基于方波拟合的光栅可视区定标方法及***
CN112365547A (zh) * 2020-11-06 2021-02-12 上海易维视科技有限公司 基于多深度光栅可视点的相机矫正方法及***
CN112365547B (zh) * 2020-11-06 2023-08-22 上海易维视科技有限公司 基于多深度光栅可视点的相机矫正方法及***
CN112257674A (zh) * 2020-11-17 2021-01-22 珠海大横琴科技发展有限公司 一种视觉数据处理的方法和装置
CN112329752A (zh) * 2021-01-06 2021-02-05 腾讯科技(深圳)有限公司 人眼图像处理模型的训练方法、图像处理方法及装置
CN112329752B (zh) * 2021-01-06 2021-04-06 腾讯科技(深圳)有限公司 人眼图像处理模型的训练方法、图像处理方法及装置
CN113257392A (zh) * 2021-04-20 2021-08-13 哈尔滨晓芯科技有限公司 一种超声机普适外接数据自动预处理方法
CN113257392B (zh) * 2021-04-20 2024-04-16 哈尔滨晓芯科技有限公司 一种超声机普适外接数据自动预处理方法

Also Published As

Publication number Publication date
CN111160291B (zh) 2023-10-31

Similar Documents

Publication Publication Date Title
CN111160291B (zh) 基于深度信息与cnn的人眼检测方法
CN103325112B (zh) 动态场景中运动目标快速检测方法
CN108062525B (zh) 一种基于手部区域预测的深度学习手部检测方法
Kamencay et al. Improved Depth Map Estimation from Stereo Images Based on Hybrid Method.
CN110555412B (zh) 基于rgb和点云相结合的端到端人体姿态识别方法
CN108734194B (zh) 一种面向虚拟现实的基于单深度图的人体关节点识别方法
WO2019071976A1 (zh) 基于区域增长和眼动模型的全景图像显著性检测方法
CN103530599A (zh) 一种真实人脸和图片人脸的区别方法和***
CN106934351A (zh) 手势识别方法、装置及电子设备
CN112200056A (zh) 人脸活体检测方法、装置、电子设备及存储介质
Roth et al. Deep end-to-end 3d person detection from camera and lidar
Chen et al. Shape prior guided instance disparity estimation for 3d object detection
CN111325828A (zh) 一种基于三目相机的三维人脸采集方法及装置
CN111160292B (zh) 人眼检测方法
Li et al. Monocular 3-D Object Detection Based on Depth-Guided Local Convolution for Smart Payment in D2D Systems
Wang et al. Handling occlusion and large displacement through improved RGB-D scene flow estimation
CN116703996A (zh) 基于实例级自适应深度估计的单目三维目标检测算法
Gan et al. A dynamic detection method to improve SLAM performance
Fan et al. Human-m3: A multi-view multi-modal dataset for 3d human pose estimation in outdoor scenes
Huang et al. 3D object detection incorporating instance segmentation and image restoration
Jing et al. Static map building scheme for vision and lidar fusion
Kerdvibulvech Hybrid model of human hand motion for cybernetics application
CN114283265B (zh) 一种基于3d旋转建模的无监督人脸转正方法
He et al. Lane Detection and Tracking through Affine Rectification.
Erabati et al. SL3D-Single Look 3D Object Detection based on RGB-D Images

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant