CN108848366B - 基于3d摄像机的信息获取装置及方法 - Google Patents
基于3d摄像机的信息获取装置及方法 Download PDFInfo
- Publication number
- CN108848366B CN108848366B CN201810727933.9A CN201810727933A CN108848366B CN 108848366 B CN108848366 B CN 108848366B CN 201810727933 A CN201810727933 A CN 201810727933A CN 108848366 B CN108848366 B CN 108848366B
- Authority
- CN
- China
- Prior art keywords
- duration
- target
- information acquisition
- face model
- module
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Studio Devices (AREA)
Abstract
本发明公开了一种基于3D摄像机的信息获取装置及方法,所述信息获取装置包括若干3D摄像机以及一处理端,所述处理端包括一生成模块、一识别模块以及一获取模块,所述3D摄像机用于获取一空间内拍摄目标的连续的3D影像;所述生成模块用于根据同一时刻的3D影像生成3D模型;所述识别模块用于识别3D模型中的人脸模型;所述获取模块通过人脸模型获取拍摄目标关注目标对象的信息。本发明的基于3D摄像机的信息获取装置及方法能够通过3D摄像机获取人体的影像,并根据影像获取拍摄目标的关注度,方便家长、教师对学生的学习状态进行掌握,提高学生的学习效率。
Description
技术领域
本发明涉及一种基于3D摄像机的信息获取装置及方法。
背景技术
3D摄像机,利用的是3D镜头制造的摄像机,通常具有两个摄像镜头以上,间距与人眼间距相近,能够拍摄出类似人眼所见的针对同一场景的不同图像。全息3D具有圆盘5镜头以上,通过圆点光栅成像或蔆形光栅全息成像可全方位观看同一图像,可如亲临其境。
第一台3D摄像机迄今3D革命全部围绕好莱坞重磅大片和重大体育赛事展开。随着3D摄像机的问世,这项技术距离家庭用户又近了一步。在这款摄像机推出以后,我们今后就可以用3D镜头捕捉人生每一个难忘瞬间,比如孩子迈出的第一步,大学毕业庆典等。
3D摄像机通常有两个以上镜头。3D摄像机本身的功能就像人脑一样,可以将两个镜头图像融合在一起,变成一个3D图像。这些图像可以在3D电视上播放,观众佩戴所谓的主动式快门眼镜即可观看,也可通过裸眼3D显示设备直接观看。3D快门式眼镜能够以每秒60次的速度令左右眼镜的镜片快速交错开关。这意味着每只眼睛看到的是同一场景的稍显不同的画面,所以大脑会由此以为其是在欣赏以3D呈现的单张照片。
现有的3D摄像机存在功能单一,应用范围较小的缺陷。
发明内容
本发明要解决的技术问题是为了克服现有技术中3D摄像机存在功能单一,应用范围较小的缺陷,提供一种能够通过3D摄像机获取人体的影像,并根据影像获取拍摄目标的关注度,方便家长、教师对学生的学习状态进行掌握,提高学生学习效率的基于3D摄像机的信息获取装置及方法。
本发明是通过下述技术方案来解决上述技术问题:
一种基于3D摄像机的信息获取装置,其特点在于,所述信息获取装置包括若干3D摄像机以及一处理端,所述处理端包括一生成模块、一识别模块以及一获取模块,
所述3D摄像机用于获取一空间内拍摄目标的连续的3D影像;
所述生成模块用于根据同一时刻的3D影像生成3D模型;
所述识别模块用于识别3D模型中的人脸模型;
所述获取模块通过人脸模型获取拍摄目标关注目标对象的信息。
较佳地,所述信息包括关注时长,
所述识别模块还用于获取人脸模型的方向;
所述获取模块还用于获取人脸模型的方向在目标范围中的时长作为所述关注时长。
较佳地,所述信息获取装置还包括一麦克风,所述信息包括关注时长除以目标语音持续时长的值,
所述麦克风用于采集所述空间内的语音并通过声纹识别获取目标语音的持续时长;
所述识别模块还用于获取人脸模型的方向;
所述获取模块还用于在目标语音持续的情况下获取人脸模型的方向在目标范围中的时长作为所述关注时长。
较佳地,所述信息包括低头时长除以目标分贝持续时长的值,
所述麦克风用于采集所述空间内的语音并获取目标分贝的持续时长;
所述识别模块还用于获取人脸模型的方向;
所述获取模块还用于在目标分贝持续的情况下获取人脸模型的方向在低头范围中的时长作为所述低头时长。
较佳地,所述信息获取装置还包括一人眼追踪模块,
所述人眼追踪模块用于获取人脸模型中眼睛的方向;
所述获取模块还用于在眼睛的方向不变的持续时间大于预设时长时,在所述关注时长中减去所述持续时间作为最新的关注时长。
本申请还提供一种基于3D摄像机的信息获取方法,其特点在于,所述信息获取方法通过一信息获取装置实现,所述信息获取装置包括若干3D摄像机以及一处理端,所述信息获取方法包括:
所述3D摄像机获取一空间内拍摄目标的连续的3D影像;
所述处理端根据同一时刻的3D影像生成3D模型;
所述处理端识别3D模型中的人脸模型;
所述处理端通过人脸模型获取拍摄目标关注目标对象的信息。
较佳地,所述信息包括关注时长,所述信息获取方法包括:
所述处理端获取人脸模型的方向;
所述处理端获取人脸模型的方向在目标范围中的时长作为所述关注时长。
较佳地,所述信息获取装置还包括一麦克风,所述信息包括关注时长除以目标语音持续时长的值,所述信息获取方法包括:
所述麦克风采集所述空间内的语音并通过声纹识别获取目标语音的持续时长;
所述处理端获取人脸模型的方向;
所述处理端在目标语音持续的情况下获取人脸模型的方向在目标范围中的时长作为所述关注时长。
较佳地,所述信息包括低头时长除以目标分贝持续时长的值,所述信息获取方法包括:
所述麦克风用于采集所述空间内的语音并获取目标分贝的持续时长;
所述处理端获取人脸模型的方向;
所述处理端在目标分贝持续的情况下获取人脸模型的方向在低头范围中的时长作为所述低头时长。
较佳地,所述信息获取方法包括:
所述处理端获取人脸模型中眼睛的方向;
所述处理端在眼睛的方向不变的持续时间大于预设时长时,在所述关注时长中减去所述持续时间作为最新的关注时长。
在符合本领域常识的基础上,上述各优选条件,可任意组合,即得本发明各较佳实例。
本发明的积极进步效果在于:本发明的基于3D摄像机的信息获取装置及方法能够通过3D摄像机获取人体的影像,并根据影像获取拍摄目标的关注度,方便家长、教师对学生的学习状态进行掌握,提高学生的学习效率。
附图说明
图1为本发明实施例1的信息获取方法的流程图。
图2为本发明实施例2的信息获取方法的流程图。
图3为本发明实施例2的信息获取方法的另一流程图。
具体实施方式
下面通过实施例的方式进一步说明本发明,但并不因此将本发明限制在所述的实施例范围之中。
实施例1
本实施例提供一种基于3D摄像机的信息获取装置,所述信息获取装置包括若干3D摄像机、一处理端以及若干用户终端。
所述处理端包括一生成模块、一识别模块以及一获取模块。
所述3D摄像机用于获取一空间内拍摄目标的连续的3D影像。
所述生成模块用于根据同一时刻的3D影像生成3D模型。
所述处理端可以为手机、电脑或云端服务器。
所述3D摄像机用于获取一空间内拍摄目标的连续的3D影像。
所述连续的3D影像可以是每隔一预设间隔拍摄的3D影像,如每间隔0.1秒就获取一个3D影像。
3D影像具有连续性,时间性,能够记录拍摄目标的运动状态。
本实施例中,所述3D摄像机用于拍摄所述空间内拍摄目标的3D录像;
所述处理端以预设间隔在所述3D影像中截取若干3D影像。
所述生成模块用于根据同一时刻的3D影像生成3D模型。具体来说,所述生成模块用于对比相邻3D影像中的不同点并将不同点的3D影像生成所述3D模型。
所述3D模型可以是由一个3D摄像机拍摄的3D影像生成,也可以是多个3D摄像机同一时刻获取的3D影像拼接而成。
本实施例获取了多幅3D影像,3D影像具有拍摄时序,相邻是指时序上的相邻。
模型的具体通过拼接方式生成,所述生成模块用于识别同一时刻下3D影像上的像素层特征点,并将3D影像按相同像素层特征点重合的方式拼接以获取所述3D模型。
拍摄的影像中背景是静止的,而人体是运动的,通过对不同点的识别能够获取活动的影像,去除背景能够获取运动的3D模型。
运动的3D模型由一幅幅的单独模型组成,每一单独3D模型通过多张3D影像拼接而成。
所述识别模块用于识别3D模型中的人脸模型;
所述获取模块通过人脸模型获取拍摄目标关注目标对象的信息。
关注目标对象可以包括眼睛的注视方向以及瞳孔的变化,能够分析出用户的关注程度。
本实施例中,所述信息包括关注时长。所述处理端还包括一识别模块及一获取模块。
所述识别模块还用于获取人脸模型的方向;
所述获取模块还用于获取人脸模型的方向在目标范围中的时长作为所述关注时长。
所述信息获取装置还用于将所述信息向目标终端发送。即向家长汇报学生的听课状态。
利用上述信息获取装置,本实施例还提供一种信息获取方法,包括:
步骤100、所述3D摄像机获取一空间内拍摄目标的连续的3D影像;
步骤101、所述处理端根据同一时刻的3D影像生成3D模型;
步骤102、所述处理端识别3D模型中的人脸模型;
步骤103、所述处理端通过人脸模型获取拍摄目标关注目标对象的信息。
其中步骤103中的信息包括关注时长,所述关注时长通过处理端获取,具体为:
所述处理端获取人脸模型的方向在目标范围中的时长作为所述关注时长。
本实施例的基于3D摄像机的信息获取装置及方法能够通过3D摄像机获取人体的影像,并根据影像获取拍摄目标的关注度,方便家长、教师对学生的学习状态进行掌握,提高学生的学习效率。
实施例2
本实施例与实施例1基本相同,不同之处仅在于:
所述信息获取装置还包括一麦克风,所述信息包括关注时长除以目标语音持续时长的值。
所述麦克风用于采集所述空间内的语音并通过声纹识别获取目标语音的持续时长;
所述识别模块还用于获取人脸模型的方向;
所述获取模块还用于在目标语音持续的情况下获取人脸模型的方向在目标范围中的时长作为所述关注时长。
所述信息还包括低头时长除以目标分贝持续时长的值,
所述麦克风用于采集所述空间内的语音并获取目标分贝的持续时长;
所述识别模块还用于获取人脸模型的方向;
所述获取模块还用于在目标分贝持续的情况下获取人脸模型的方向在低头范围中的时长作为所述低头时长。
所述信息获取装置还包括一人眼追踪模块,
所述人眼追踪模块用于获取人脸模型中眼睛的方向;
所述获取模块还用于在眼睛的方向不变的持续时间大于预设时长时,在所述关注时长中减去所述持续时间作为最新的关注时长。
在老师讲课时,通过采集学生的人脸方向,能够更加准确的获取所述信息;而在自习、考试的时候通过采集人脸低头时长能够检测学生的认真程度并能够辅助监考。
通过对人眼追踪能够识别出学生愣神、发呆的时长,并从关注时长中减去所述发呆时长,进一步提高所述信息的准确度。
参见图2,利用上述信息获取装置,本实施例还提供一种信息获取方法,包括:
步骤200、所述麦克风采集所述空间内的语音并通过声纹识别获取目标语音的持续时长;
步骤201、所述处理端获取人脸模型的方向;
步骤202、所述处理端在目标语音持续的情况下获取人脸模型的方向在目标范围中的时长作为所述关注时长。
参见图3,所述信息获取方法还包括:
步骤300、所述麦克风用于采集所述空间内的语音并获取目标分贝的持续时长;
步骤301、所述处理端获取人脸模型的方向;
步骤302、所述处理端在目标分贝持续的情况下获取人脸模型的方向在低头范围中的时长作为所述低头时长。
步骤200至202以及步骤300至302都是实施例1步骤103的细化,为了进一步限定所述信息。步骤200至202以及步骤300至302可以通过麦克风采集的音量、声纹做出相应的判断,如检测出目标语音则执行步骤200,若检测分贝低于预设值(即处于目标分贝的范围内)则执行步骤300。
其中,步骤202可以进一步改进为:
所述处理端获取人脸模型中眼睛的方向;
所述处理端在眼睛的方向不变的持续时间大于预设时长时,在所述关注时长中减去所述持续时间作为最新的关注时长。
虽然以上描述了本发明的具体实施方式,但是本领域的技术人员应当理解,这些仅是举例说明,本发明的保护范围是由所附权利要求书限定的。本领域的技术人员在不背离本发明的原理和实质的前提下,可以对这些实施方式做出多种变更或修改,但这些变更和修改均落入本发明的保护范围。
Claims (6)
1.一种基于3D摄像机的信息获取装置,其特征在于,所述信息获取装置包括若干3D摄像机以及一处理端,所述处理端包括一生成模块、一识别模块以及一获取模块,
所述3D摄像机用于获取一空间内拍摄目标的连续的3D影像;
所述生成模块用于根据同一时刻的3D影像生成3D模型;
所述识别模块用于识别3D模型中的人脸模型;
所述获取模块通过人脸模型获取拍摄目标关注目标对象的信息;
所述信息获取装置还包括一麦克风,所述信息包括关注时长除以目标语音持续时长的值,
所述麦克风用于采集所述空间内的语音并通过声纹识别获取目标语音的持续时长;
所述识别模块还用于获取人脸模型的方向;
所述获取模块还用于在目标语音持续的情况下获取人脸模型的方向在目标范围中的时长作为所述关注时长;
所述信息包括低头时长除以目标分贝持续时长的值,
所述麦克风用于采集所述空间内的语音并获取目标分贝的持续时长;
所述识别模块还用于获取人脸模型的方向;
所述获取模块还用于在目标分贝持续的情况下获取人脸模型的方向在低头范围中的时长作为所述低头时长。
2.如权利要求1所述的信息获取装置,其特征在于,所述信息包括关注时长,
所述识别模块还用于获取人脸模型的方向;
所述获取模块还用于获取人脸模型的方向在目标范围中的时长作为所述关注时长。
3.如权利要求1所述的信息获取装置,其特征在于,所述信息获取装置还包括一人眼追踪模块,
所述人眼追踪模块用于获取人脸模型中眼睛的方向;
所述获取模块还用于在眼睛的方向不变的持续时间大于预设时长时,在所述关注时长中减去所述持续时间作为最新的关注时长。
4.一种基于3D摄像机的信息获取方法,其特征在于,所述信息获取方法通过一信息获取装置实现,所述信息获取装置包括若干3D摄像机以及一处理端,所述信息获取方法包括:
所述3D摄像机获取一空间内拍摄目标的连续的3D影像;
所述处理端根据同一时刻的3D影像生成3D模型;
所述处理端识别3D模型中的人脸模型;
所述处理端通过人脸模型获取拍摄目标关注目标对象的信息;
所述信息获取装置还包括一麦克风,所述信息包括关注时长除以目标语音持续时长的值,所述信息获取方法包括:
所述麦克风采集所述空间内的语音并通过声纹识别获取目标语音的持续时长;
所述处理端获取人脸模型的方向;
所述处理端在目标语音持续的情况下获取人脸模型的方向在目标范围中的时长作为所述关注时长;
所述信息包括低头时长除以目标分贝持续时长的值,所述信息获取方法还包括:
所述麦克风用于采集所述空间内的语音并获取目标分贝的持续时长;
所述处理端获取人脸模型的方向;
所述处理端在目标分贝持续的情况下获取人脸模型的方向在低头范围中的时长作为所述低头时长。
5.如权利要求4所述的信息获取方法,其特征在于,所述信息包括关注时长,所述信息获取方法包括:
所述处理端获取人脸模型的方向;
所述处理端获取人脸模型的方向在目标范围中的时长作为所述关注时长。
6.如权利要求4所述的信息获取方法,其特征在于,所述信息获取方法包括:
所述处理端获取人脸模型中眼睛的方向;
所述处理端在眼睛的方向不变的持续时间大于预设时长时,在所述关注时长中减去所述持续时间作为最新的关注时长。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810727933.9A CN108848366B (zh) | 2018-07-05 | 2018-07-05 | 基于3d摄像机的信息获取装置及方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810727933.9A CN108848366B (zh) | 2018-07-05 | 2018-07-05 | 基于3d摄像机的信息获取装置及方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108848366A CN108848366A (zh) | 2018-11-20 |
CN108848366B true CN108848366B (zh) | 2020-12-18 |
Family
ID=64200242
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810727933.9A Active CN108848366B (zh) | 2018-07-05 | 2018-07-05 | 基于3d摄像机的信息获取装置及方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108848366B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109657702B (zh) * | 2018-11-23 | 2023-02-07 | 盎锐(上海)信息科技有限公司 | 3d深度语义感知方法及装置 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104517102A (zh) * | 2014-12-26 | 2015-04-15 | 华中师范大学 | 学生课堂注意力检测方法及*** |
CN105825189A (zh) * | 2016-03-21 | 2016-08-03 | 浙江工商大学 | 一种用于大学生到课率及上课专注度自动分析的装置 |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6774869B2 (en) * | 2000-12-22 | 2004-08-10 | Board Of Trustees Operating Michigan State University | Teleportal face-to-face system |
CN102932638B (zh) * | 2012-11-30 | 2014-12-10 | 天津市电视技术研究所 | 基于计算机建模的3d视频监控方法 |
CN103473791B (zh) * | 2013-09-10 | 2017-06-30 | 惠州学院 | 监控视频中异常速度事件自动识别方法 |
CN104159067A (zh) * | 2014-03-18 | 2014-11-19 | 深圳市贝尔信智能***有限公司 | 基于3dgis与实景视频相结合的智能监控***和方法 |
CN104834896A (zh) * | 2015-04-03 | 2015-08-12 | 惠州Tcl移动通信有限公司 | 一种信息采集方法及其终端 |
CN106264536A (zh) * | 2015-05-21 | 2017-01-04 | 长沙维纳斯克信息技术有限公司 | 一种三维人体扫描装置和方法 |
CN105956586B (zh) * | 2016-07-15 | 2019-06-11 | 瑞胜科信息(深圳)有限公司 | 一种基于tof 3d摄像机的智能跟踪*** |
CN107292271B (zh) * | 2017-06-23 | 2020-02-14 | 北京易真学思教育科技有限公司 | 学习监控方法、装置及电子设备 |
CN107832698A (zh) * | 2017-11-02 | 2018-03-23 | 北方工业大学 | 基于阵列镜头的学习兴趣测试方法及装置 |
-
2018
- 2018-07-05 CN CN201810727933.9A patent/CN108848366B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104517102A (zh) * | 2014-12-26 | 2015-04-15 | 华中师范大学 | 学生课堂注意力检测方法及*** |
CN105825189A (zh) * | 2016-03-21 | 2016-08-03 | 浙江工商大学 | 一种用于大学生到课率及上课专注度自动分析的装置 |
Also Published As
Publication number | Publication date |
---|---|
CN108848366A (zh) | 2018-11-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9927948B2 (en) | Image display apparatus and image display method | |
CN109325933A (zh) | 一种翻拍图像识别方法及装置 | |
CN107273814B (zh) | 一种屏幕显示的调控方法及调控*** | |
CN108600729B (zh) | 动态3d模型生成装置及影像生成方法 | |
CN108347505B (zh) | 具有3d成像功能的移动终端及影像生成方法 | |
CN105960801B (zh) | 增强视频会议 | |
CN101620359A (zh) | 眼睛视线判断的方法 | |
CN111656275B (zh) | 一种确定图像对焦区域的方法及装置 | |
CN108391116B (zh) | 基于3d成像技术的全身扫描装置及扫描方法 | |
CN108848366B (zh) | 基于3d摄像机的信息获取装置及方法 | |
CN108921102B (zh) | 3d影像的处理方法及装置 | |
CN110971924B (zh) | 一种直播过程中美颜的方法、设备、存储介质及*** | |
CN108513122B (zh) | 基于3d成像技术的模型调整方法及模型生成装置 | |
Albanesi et al. | A new algorithm for objective video quality assessment on eye tracking data | |
CN109272453B (zh) | 基于3d摄像机的建模装置及定位方法 | |
CN109657702B (zh) | 3d深度语义感知方法及装置 | |
JP2014006639A (ja) | コンテンツ評価データ生成システム、コンテンツ評価データ生成方法、およびプログラム | |
CN108419071B (zh) | 基于多3d摄像头的拍摄装置及方法 | |
CN108965850B (zh) | 人体形态的采集装置及方法 | |
Regalbuto | Remote Visual Observation of Real Places through Virtual Reality Headsets | |
CN109089105B (zh) | 基于深度感知编码的模型生成装置及方法 | |
CN108810517A (zh) | 具有监控功能的影像处理装置及方法 | |
CN109151440B (zh) | 影像定位装置及方法 | |
CN108573526A (zh) | 人脸抓拍装置及影像生成方法 | |
TWI792444B (zh) | 攝像頭的控制方法、裝置、介質和電子設備 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right |
Effective date of registration: 20230720 Address after: 201703 Room 2134, Floor 2, No. 152 and 153, Lane 3938, Huqingping Road, Qingpu District, Shanghai Patentee after: Shanghai Qingyan Heshi Technology Co.,Ltd. Address before: 201703 No.206, building 1, no.3938 Huqingping Road, Qingpu District, Shanghai Patentee before: UNRE (SHANGHAI) INFORMATION TECHNOLOGY Co.,Ltd. |
|
TR01 | Transfer of patent right |