CN109089099A - 图像处理方法、装置、设备及存储介质 - Google Patents

图像处理方法、装置、设备及存储介质 Download PDF

Info

Publication number
CN109089099A
CN109089099A CN201811029668.3A CN201811029668A CN109089099A CN 109089099 A CN109089099 A CN 109089099A CN 201811029668 A CN201811029668 A CN 201811029668A CN 109089099 A CN109089099 A CN 109089099A
Authority
CN
China
Prior art keywords
image data
stereoscopic image
data
image processing
mankind
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201811029668.3A
Other languages
English (en)
Inventor
刘礼新
刘远
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangzhou Venus Home Ltd By Share Ltd
Original Assignee
Guangzhou Venus Home Ltd By Share Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangzhou Venus Home Ltd By Share Ltd filed Critical Guangzhou Venus Home Ltd By Share Ltd
Priority to CN201811029668.3A priority Critical patent/CN109089099A/zh
Publication of CN109089099A publication Critical patent/CN109089099A/zh
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本申请实施例公开了一种图像处理方法、装置、设备及存储介质,涉及图像处理技术领域。其具体包括:获取至少两个摄像头在设定时间内采集的目标教室的平面图像数据;确认至少两个所述摄像头的摄像参数;根据所述摄像参数将同一采集时刻得到的平面图像数据进行合成,以得到立体图像数据;按照采集时刻顺序保存全部的立体图像数据。采用上述方案可以解决现有技术无法对教室进行全面监控的技术问题,实现了通过摄像头获取目标教室的图像数据时得到较大范围的立体图像数据,便于用户通过立体图像数据更加准确、全面的了解目标教室的情况。

Description

图像处理方法、装置、设备及存储介质
技术领域
本申请实施例涉及图像处理技术,尤其涉及一种图像处理方法、装置、设备及存储介质。
背景技术
如今,智能技术被广泛的应用在各个领域。例如,智能技术被广泛应用在教学领域、智能家居领域以及办公领域等。其中,在教学领域中,通常采用智能教学***,例如,在讲台上配置智能平板电脑,以便教师利用智能平板电脑进行授课,并对课程情况、学生成绩等内容进行记录。同时,在教室的设定位置设置一摄像头,以便于对教室进行监控,进而便于掌握课堂情况。然而,摄像头拍摄的范围有限,无法拍摄教室的全部空间,这样并不利于对教室进行监控。
发明内容
本申请提供了一种图像处理方法、装置、设备及存储介质,以解决现有技术无法对教室进行全面监控的技术问题。
第一方面,本申请实施例提供了一种图像处理方法,包括:
获取至少两个摄像头在设定时间内采集的目标教室的平面图像数据;
确认至少两个所述摄像头的摄像参数;
根据所述摄像参数将同一采集时刻得到的平面图像数据进行合成,以得到立体图像数据;
按照采集时刻顺序保存全部的立体图像数据。
进一步的,所述按照采集时刻顺序保存全部的立体图像数据之后,还包括:
识别所述立体图像数据中的实体物体;
标记所述实体物体。
进一步的,所述实体物体为人类,所述标记所述实体物体之后,还包括:
识别人类的面部图像;
获取所述面部图像中的特征关键点;
根据所述特征关键点确定所述人类的身份信息。
进一步的,所述根据所述特征关键点确定所述人类的身份信息之后,还包括:
基于所述面部图像确定所述人类的面部表情特征;
根据所述面部表情特征确定所述人类的课堂状态;
保存所述课堂状态,并建立所述课堂状态与所述身份信息以及所述立体图像数据的关联关系。
进一步的,所述根据所述特征关键点确定所述人类的身份信息之后,还包括:
根据所述立体图像数据确认所述人类的位姿数据;
保存所述位姿数据,并建立所述位姿数据与所述身份信息以及所述立体图像数据的关联关系。
进一步的,所述根据所述摄像参数将同一采集时刻得到的平面图像数据进行合成,以得到立体图像数据包括:
将所述摄像参数以及同一采集时刻得到的平面图像数据输入至预设三维模型中;
获取所述三维模型输出的立体图像数据。
进一步的,所述的图像处理方法还包括:
获取音频采集设备在所述设定时间内采集的所述目标教室内的音频数据;
所述按照采集时刻顺序保存全部的立体图像数据包括:
按照采集时刻,将所述全部的立体图像数据与所述音频数据关联保存。
第二方面,本申请实施例还提供了一种图像处理装置,包括:
数据获取模块,用于获取至少两个摄像头在设定时间内采集的目标教室的平面图像数据;
参数确认模块,用于确认至少两个所述摄像头的摄像参数;
合成模块,用于根据所述摄像参数将同一采集时刻得到的平面图像数据进行合成,以得到立体图像数据;
保存模块,用于按照采集时刻顺序保存全部的立体图像数据。
第三方面,本申请实施例还提供了一种图像处理设备,包括:
存储器以及一个或多个处理器;
所述存储器,用于存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如第一方面所述的图像处理方法。
第四方面,本申请实施例还提供了一种包含计算机可执行指令的存储介质,所述计算机可执行指令在由计算机处理器执行时用于执行如第一方面所述的图像处理方法。
本方案中,通过获取至少两个摄像头在设定时间内采集的目标教室的平面图像数据,并确认各摄像头的摄像参数,然后,基于摄像参数将同一采集时刻得到的平面图像数据进行合成,并按照采集时刻顺序保存合成得到的全部立体图像数据的技术手段,实现了通过摄像头获取目标教室的图像数据时得到较大范围的立体图像数据,便于用户通过立体图像数据更加准确、全面的了解目标教室的情况。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本申请的其它特征、目的和优点将会变得更明显:
图1是本申请实施例提供的一种图像处理方法的流程图;
图2是本申请实施例提供的另一种图像处理方法的流程图;
图3是本申请实施例提供的一种图像处理装置的结构示意图;
图4是本申请实施例提供的一种图像处理设备的结构示意图。
具体实施方式
下面结合附图和实施例对本申请作进一步的详细说明。可以理解的是,此处所描述的具体实施例用于解释本申请,而非对本申请的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与本申请相关的部分而非全部结构。
图1是本申请实施例提供的一种图像处理方法的流程图。本实施例提供的图像处理方法可以由图像处理装置执行,该图像处理装置可以通过软件和/或硬件的方式实现,并集成在图像处理设备中。其中,图像处理设备包括但不限定于:台式电脑、笔记本以及平板电脑等。参考图1,本实施例提供的图像处理方法具体包括:
S110、获取至少两个摄像头在设定时间内采集的目标教室的平面图像数据。
具体的,目标教室可以是任意可以进行室内教学的房间。其中,目标教室的数量可以是一个或多个,当目标教室是多个时,不同目标教室的编号不同,以实现对目标教室进行区分。实施例中,以目标教室为一个为例,进行描述。
示例性的,在目标教室中安装有至少两个摄像头,其中,至少两个摄像头的安装位置不同。一般而言,摄像头的安装位置可以根据实际情况设定,仅需保证摄像头的拍摄范围满足用户的实际需求即可,通常,摄像头需要保证拍摄到学生的听课画面。进一步的,摄像头的具体类型实施例不作限定,例如,摄像头可以是彩色摄像头或者是黑白摄像头。典型的,摄像头与图像处理设备可以通过有线或无线的方式连接,实施例中,优选摄像头与图像处理设备采用有线方式连接,以保证数据传输的稳定性和准确性。通常,摄像头与图像处理设备建立连接后,可以与图像处理设备进行数据传输。为了使图像处理设备区分不同摄像头,预先对各摄像头进行编号,其中,编号的具体方式以及内容实施例不作限定。进一步的,设定摄像头与图像处理设备进行数据传输时,在传输内容中加入摄像头的编号,以保证图像处理设备对不同摄像头进行区分。
进一步的,平面图像数据为摄像头采集的平面数据,此时,各平面图像数据可以认为是不同视角下摄像头对目标教室拍摄的画面。可选的,摄像头安装后,其拍摄角度可以固定或者可变。其中,在摄像头可变时,由图像处理设备控制摄像头进行转动,以调整摄像头的拍摄角度,进而实现同一摄像头采集的平面图像数据的角度不同。
典型的,图像处理设备控制摄像头在设定时间内采集平面图像数据。其中,设定时间可以根据实际情况设定。例如,设定时间可以是目标教室的使用期间,再如,设定时间可以是每日的固定时间段,如每日早上8:00到晚上8:00。
S120、确认至少两个摄像头的摄像参数。
具体的,摄像参数可以包括拍摄角度数据,其中,拍摄角度数据至少包括:拍摄高度、拍摄方向和拍摄距离。可选的,由于至少两个摄像头是通过不同角度对目标教室进行拍摄,而并非对一个物体进行拍摄,即至少两个摄像头对较大的室内空间进行拍摄。此时,可以为至少两个摄像头选择同一参照物作为拍摄画面的中心点,进而得到拍摄角度数据。也可以是,分别记录各摄像头的拍摄角度数据,以及各摄像头拍摄画面中心点在目标教室内的相对位置,并将相对位置与拍摄角度数据关联保存,此时,摄像参数包括拍摄角度数据以及相对位置。一般而言,在摄像头安装完毕后,可以由安装人员将拍摄角度数据输入至图像处理设备,图像处理设备在控制摄像头进行拍摄时同步确认已经存储的摄像参数。
S130、根据摄像参数将同一采集时刻得到的平面图像数据进行合成,以得到立体图像数据。
其中,立体图像数据为基于平面图像数据得到的,显示有目标教室立体画面的三维图像数据。
具体的,设定时间内,每个摄像头均可以获取多帧的平面图像数据,然而,在图像合成时,为了保证合成得到的立体图像数据准确显示目标教室内的画面,实施例中设定,在摄像头采集平面图像数据时,记录每帧平面图像数据的采集时刻,并将同一采集时刻的平面图像数据划分在一起,进而对同一采集时刻的平面图像数据进行合成,以得到该时刻下的立体图像数据。其中,设定各摄像头的采集频率相同,即同一周期内,各摄像头采集的平面图像数据的帧数相同。进一步的,采集时刻的具体表述方式可以根采样频率设定,其可以根据实际情况精确到毫秒、微秒或者纳秒等。
进一步的,对同一采集时刻的平面图像数据进行合成的具体技术方案实施例不作限定。例如,预先设定三维模型,其中,该三维模型中预先建立有三维坐标系,将平面图像数据以及摄像参数一同发送输入至三维模型中,三维模型可以根据摄像参数确定各平面图像数据内每个像素点在三维坐标系下的三维坐标,进而进行像素点的三维坐标映射,之后,基于映射后像素点生成立体图像数据,并将立体图像数据输出,以使图像处理设备获取该立体图像数据。又如,根据各平面图像数据中每个像素点的特征确定各平面图像数据中具有相同特征的像素点,并将具有相同特征的像素点进行归集,之后,建立三维坐标系,并将具有相同特征的像素点结合摄像参数映射到三维坐标系下,进而得到立体图像数据。
S140、按照采集时刻顺序保存全部的立体图像数据。
具体的,得到立体图像数据后,记录每个立体图像数据的采集时刻。之后,按照采集时刻的先后顺序保存全部的立体图像数据。此时,在后续播放立体图像数据时,不仅可以播放每帧立体图像数据,还可以播放设定时间内,基于立体图像数据组成的立体视频数据。一般而言,摄像机的相邻采样时刻间隔很短,当按照采样时刻顺序播放各立体图像数据时,人类无法明显识别到各立体图像数据的切换过程。
可选的,相较于平面图像数据而言,立体图像数据更加贴近于目标教室的真实场景。同时,由于多个摄像机从不同的角度对目标教室进行拍摄,而图像处理设备在播放立体图像数据时,默认从某一角度作为视角进行播放。此时,用户可以调整播放视角,以从多角度观看立体图像数据,进而明确目标教室的真实场景。
可以理解的是,上述提及的图像处理设备播放立体图像数据,可以通过图像处理设备自身配置的显示屏进行播放,也可以由图像处理设备控制与其相连的外置显示屏进行播放,实施例对此不作限定。
上述提供的图像处理方法,通过获取至少两个摄像头在设定时间内采集的目标教室的平面图像数据,并确认各摄像头的摄像参数,然后,基于摄像参数将同一采集时刻得到的平面图像数据进行合成,并按照采集时刻顺序保存合成得到的全部立体图像数据的技术手段,实现了通过摄像头获取目标教室的图像数据时得到较大范围的立体图像数据,便于用户通过立体图像数据更加准确、全面的了解目标教室的情况。
在上述实施例的基础上,考虑到实际应用中,为了准确的得到目标教室的实际场景,除了通过图像数据确定实际场景,还可以在图像数据的基础上结合音频数据确定实际场景。因此,实施例中设定还包括:获取音频采集设备在设定时间内采集的目标教室内的音频数据。相应的,S140包括:按照采集时刻,将全部的立体图像数据与音频数据关联保存。
具体的,音频采集设备可以是麦克风、话筒等,其与图像处理设备可以通过有线或无线的方式相连,实施例中,以音频采集设备与图像处理设备通过有线方式连接为例,进行示例性描述。其中,音频采集设备的数量、型号以及在目标教室的安装位置,实施例不作限定,一般而言,目标教室内设置的音频采集设备可以采集到目标教室全范围内的音频数据。当音频采集设备为多个时,分别为多个音频采集设备设置编号,并在音频采集设备与图像处理设备进行数据交互时,图像处理设备通过编号对音频采集设备进行区分。
进一步的,实施例中设定音频采集设备与摄像头的使用时间相同,即在摄像头获取平面图像数据时,音频采集设备采集音频数据,在摄像头停止获取平面图像数据时,音频采集设备停止采集音频数据。实施例中设定由图像处理设备统一控制摄像头和音频采集设备的开启和关闭。一般而言,在音频数据采集完毕后,音频数据的采集时长与全部立体图像数据的采集时长相等,均为设定时间。
典型的,按照采集时刻顺序保存立体图像数据,同时,将音频数据与立体图像数据关联保存。由于全部立体图像数据与音频数据的采集时长相等,那么可以在播放立体图像数据时,同步播放对应的音频数据。以保证用户在观看立体图像数据时,同步听到音频数据。可选的,当音频采集设备为至少两个时,将至少两个音频采集设备采集的音频数据均与立体图像数据关联保存。在播放立体图像数据时,可以在至少两个音频数据中选择一个作为主音频数据进行播放,并且可以由用户切换当前播放的音频数据。其中,主音频数据的确定方式实施例不作限定。
上述通过采集音频数据,可以更准确、真实的对目标教室的当前场景进行监控或者记录。
在上述实施例的基础上,图2是本申请实施例提供的另一种图像处理方法的流程图。
S201、获取至少两个摄像头在设定时间内采集的目标教室的平面图像数据。
S202、确认至少两个摄像头的摄像参数。
S203、根据摄像参数将同一采集时刻得到的平面图像数据进行合成,以得到立体图像数据。
其中,该步骤具体包括:
S2031、将摄像参数以及同一采集时刻得到的平面图像数据输入至预设三维模型中。
具体的,预设三维模型为预先建立的,可以实现二维图像与三维图像转换的计算机模型。其具体的建立规则以及采用的计算机软件实施例不作限定。例如,采用OpenGL绘制三维模型,或者是,采用3Dmax绘制三维模型。
进一步的,将摄像参数以及平面图像数据输入至预设三维模型后,三维模型可以根据摄像参数确定平面图像数据中各像素点在三维坐标系的坐标,进而进行像素点映射,并基于映射结果得到立体图像数据。
S2032、获取三维模型输出的立体图像数据。
进一步的,按照采集时刻,顺序将摄像参数以及平面图像数据输入至预设三维模型中,并在三维模型依次输出立体图像数据时,依据输入顺序以及采集时刻的对应关系,依次确定每个立体图像数据对应的采集时刻。
S204、按照采集时刻顺序保存全部的立体图像数据。
S205、识别立体图像数据中的实体物体。
具体的,利用图像识别技术识别立体图像数据中的实体物体。其中,具体的图像识别技术实施例不作限定。例如,识别立体图像数据中各实体物体的轮廓特征以及颜色特征,之后,利用大数据确定各实体物体的名称以及概率,进而完成实体物体识别。
S206、标记实体物体。
具体的,在立体图像数据中,对实体物体进行标记。其中,标记的具体方式实施例不作限定。例如,框选出各实体物体,并在标记框的边缘示出实体物体的名称以及概率。可以说明的是,不同的实体物体对应的标记颜色可以不同,以对标记进行区分。
一般而言,实体物体包括:讲台、桌子、椅子以及人类等。其中,人类包括学生和教师。实施例中,以实体物体中包括人类为例进行描述。
S207、识别人类的面部图像。
具体的,在识别出的各实体物体中获取标记为人类的物体。进一步的,获取人类的面部图像。面部图像优选为人脸图像。其中,对人类进行识别的过程中,除去识别面部图像,还可以得到人类的姿态数据,通过姿态数据确定人类的动作,如坐着、站着或者走动等。
S208、获取面部图像中的特征关键点。
其中,特征关键点可以根据实际情况设定。实施例中,特征关键点包括:人类的双眼、嘴巴;还可选包括额头和脸颊。特征关键点的具体获取方式实施例不作限定。
S209、根据特征关键点确定人类的身份信息。
具体的,预先录入目标教室内可能会出现的目标人类的身份信息。其中,身份信息包括但不限定于:姓名、班级、职位等。其中,职位包括学生或教师。
具体的,预先采集各目标人类的面部图像以及身份信息,并根据面部图像得到目标人类的特征关键点。将目标人类特征关键点与身份信息关联存储。
进一步的,获取人类的特征关键点后,将特征关键点与目标人类的特征关键点进行匹配,以获取匹配度最高的目标人类的特征关键点,进而将匹配度最高的目标人类的身份信息确定为人类的身份信息。
可选的,若没有匹配出相应的目标人类的特征关键点,则确认该人类可能非法进入目标教室,进而进行提示,以使管理者进一步确定该人类的身份信息。
上述,通过获取至少两个摄像头在设定时间内采集的目标教室的平面图像数据以及摄像参数,并生成立体图像数据,进一步的,识别并标记立体图像数据中的实体物体,确定实体物体中人类的面部图像,进而基于面部图像确定身份信息的技术手段,实现了通过摄像头获取目标教室的图像数据时得到较大范围的立体图像数据,便于用户通过立体图像数据更加准确、全面的了解目标教室的情况,同时可以确定目标教室中各物体的情况,以及目标教室中人类的身份信息,可以防止其他非法人员进入目标教室,保证了目标教室的安全性。
在上述实施例的基础上,图像处理方法还包括:
S210、基于面部图像确定人类的面部表情特征。
具体的,面部表情特征可以包括:平静、喜悦、疑惑、认真以及涣散等,其具体确定方式实施例不作限定。例如,利用机器学习方式,预先对具有已知各类表情的大量面部图像进行学习,以确定出不同表情对应的面部表情特征,进而生成面部表情特征的识别模型。之后,将面部图像输入至识别模型,进而得到面部表情特征。
S211、根据面部表情特征确定人类的课堂状态。
其中,设定面部表情特征为学生的面部表情特征。课堂状态包括:听课状态、疑惑状态、非听课状态等。具体的,仅在应用场景为教学场景下,确认课堂状态。进一步的,预先设定不同面部表情对应的课堂状态,进而根据对应关系确定当前人类面部表情特征对应的课堂状态。例如,面部表情特征为平静或认真,则确定课堂状态为听课状态。面部表情特征为疑惑,则确定课堂状态为疑惑状态。面部表情特征为涣散,则确定课堂状态为非听课状态。
可选的,在教学场景下,实时确定各人类的课堂状态。
S212、保存课堂状态,并建立课堂状态与身份信息以及立体图像数据的关联关系。
具体的,将课堂状态、身份信息以及立体图像数据关联保存,以在需要时,调取立体图像数据,便可以确定立体图像数据中人类的身份信息以及课堂状态,进而可以了解学生的课堂听课情况,同时,可以为学生指定合理的听课计划。
在上述实施例的基础上,还包括:
S213、根据立体图像数据确认人类的位姿数据。
具体的,识别立体图像数据的人类轮廓,进而根据人类轮廓得到人类的位姿数据。其中,位姿数据的具体确定方式实施例不作限定。
S214、保存位姿数据,并建立位姿数据与身份信息以及立体图像数据的关联关系。
示例性的,将位姿数据、身份信息以及立体图像数据关联保存,以在需要时,调用立体图像数据后,可以确定立体图像数据中人类的身份信息以及位姿数据。进一步的,通过位姿数据可以确定人类当前的动作。例如,站立、深蹲、坐以及走路等,进而确定动作是否标准。例如,确定学生坐姿是否准确,进而为学生制定坐姿调整方案。
在上述实施例的基础上,图3为本申请实施例提供的一种图像处理装置的结构示意图。参考图3,本实施例提供的图像处理装置具体包括:数据获取模块301、参数确认模块302、合成模块303以及保存模块304。
具体的,数据获取模块301,用于获取至少两个摄像头在设定时间内采集的目标教室的平面图像数据;参数确认模块302,用于确认至少两个所述摄像头的摄像参数;合成模块303,用于根据所述摄像参数将同一采集时刻得到的平面图像数据进行合成,以得到立体图像数据;保存模块304,用于按照采集时刻顺序保存全部的立体图像数据。
上述,通过获取至少两个摄像头在设定时间内采集的目标教室的平面图像数据,并确认各摄像头的摄像参数,然后,基于摄像参数将同一采集时刻得到的平面图像数据进行合成,并按照采集时刻顺序保存合成得到的全部立体图像数据的技术手段,实现了通过摄像头获取目标教室的图像数据时得到较大范围的立体图像数据,便于用户通过立体图像数据更加准确、全面的了解目标教室的情况。
在上述实施例的基础上,还包括:实物识别模块,用于识别所述立体图像数据中的实体物体;标记模块,用于标记所述实体物体。
在上述实施例的基础上,还包括:图像识别模块,用于识别人类的面部图像;关键点获取模块,用于获取所述面部图像中的特征关键点;身份确定模块,用于根据所述特征关键点确定所述人类的身份信息。
在上述实施例的基础上,还包括:表情确定模块,用于基于所述面部图像确定所述人类的面部表情特征;状态确定模块,用于根据所述面部表情特征确定所述人类的课堂状态;第一建立模块,用于保存所述课堂状态,并建立所述课堂状态与所述身份信息以及所述立体图像数据的关联关系。
在上述实施例的基础上,还包括:位姿确认模块,用于根据所述立体图像数据确认所述人类的位姿数据;第二建立模块,用于保存所述位姿数据,并建立所述位姿数据与所述身份信息以及所述立体图像数据的关联关系。
在上述实施例的基础上,合成模块303包括:输入单元,用于将所述摄像参数以及同一采集时刻得到的平面图像数据输入至预设三维模型中;数据获取单元,用于获取所述三维模型输出的立体图像数据。
在上述实施例的基础上,还包括:音频获取模块,用于获取音频采集设备在所述设定时间内采集的所述目标教室内的音频数据;所述保存模块用于:按照采集时刻,将所述全部的立体图像数据与所述音频数据关联保存。
本实施例中提供的图像处理装置可以用于执行上述任意实施例提供的图像处理方法,具备相应的功能和有益效果。
在上述实施例的基础上,图4为本申请实施例提供的一种图像处理设备的结构示意图,参考图4,该图像处理设备包括:处理器40、存储器41、通信模块42、输入装置43以及输出装置44。该图像处理设备中处理器40的数量可以是一个或者多个,图4中以一个处理器40为例。该图像处理设备中存储器41的数量可以是一个或者多个,图4中以一个存储器41为例。该数据统计设备的处理器40、存储器41、通信模块42、输入装置43以及输出装置44可以通过总线或者其他方式连接,图4中以通过总线连接为例。
存储器41作为一种计算机可读存储介质,可用于存储软件程序、计算机可执行程序以及模块,如本申请任意实施例所述的图像处理设备对应的程序指令/模块(例如,图像处理装置中的数据获取模块301、参数确认模块302、合成模块303和保存模块304)。存储器41可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作***、至少一个功能所需的应用程序;存储数据区可存储根据设备的使用所创建的数据等。此外,存储器41可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他非易失性固态存储器件。在一些实例中,存储器41可进一步包括相对于处理器40远程设置的存储器,这些远程存储器可以通过网络连接至设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
输入装置443可用于接收输入的数字或者字符信息,以及产生与操作控制设备的用户设置以及功能控制有关的键信号输入,还可以是用于获取图像的摄像头。输出装置44可以包括显示屏等。需要说明的是,输入装置43和输出装置44的具体组成可以根据实际情况设定。
处理器40通过运行存储在存储器41中的软件程序、指令以及模块,从而执行设备的各种功能应用以及数据处理,即实现上述的图像处理方法。
上述提供的图像处理设备可用于执行上述任意实施例提供的图像处理方法,具备相应的功能和有益效果。
在上述实施例的基础上,本申请实施例还提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如本申请实施例所提供的图像处理方法,该方法包括:
获取至少两个摄像头在设定时间内采集的目标教室的平面图像数据;
确认至少两个所述摄像头的摄像参数;
根据所述摄像参数将同一采集时刻得到的平面图像数据进行合成,以得到立体图像数据;
按照采集时刻顺序保存全部的立体图像数据。
当然,本申请实施例所提供的一种包含计算机可执行指令的存储介质,其计算机可执行指令不限于如上的图像处理方法操作,还可以执行本申请任意实施例所提供的图像处理方法中的相关操作,且具备相应的功能和有益效果。
通过以上关于实施方式的描述,所属领域的技术人员可以清楚地了解到,本申请可借助软件及必需的通用硬件来实现,当然也可以通过硬件实现,但很多情况下前者是更佳的实施方式。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如计算机的软盘、只读存储器(Read-Only Memory,ROM)、随机存取存储器(RandomAccess Memory,RAM)、闪存(FLASH)、硬盘或光盘等,包括若干指令用以使得一台计算机设备(可以是机器人,个人计算机,服务器,或者网络设备等)执行本申请任意实施例所述的图像处理方法。
注意,上述仅为本申请的较佳实施例及所运用技术原理。本领域技术人员会理解,本申请不限于这里所述的特定实施例,对本领域技术人员来说能够进行各种明显的变化、重新调整和替代而不会脱离本申请的保护范围。因此,虽然通过以上实施例对本申请进行了较为详细的说明,但是本申请不仅仅限于以上实施例,在不脱离本申请构思的情况下,还可以包括更多其他等效实施例,而本申请的范围由所附的权利要求范围决定。

Claims (10)

1.一种图像处理方法,其特征在于,包括:
获取至少两个摄像头在设定时间内采集的目标教室的平面图像数据;
确认至少两个所述摄像头的摄像参数;
根据所述摄像参数将同一采集时刻得到的平面图像数据进行合成,以得到立体图像数据;
按照采集时刻顺序保存全部的立体图像数据。
2.根据权利要求1所述的图像处理方法,其特征在于,所述按照采集时刻顺序保存全部的立体图像数据之后,还包括:
识别所述立体图像数据中的实体物体;
标记所述实体物体。
3.根据权利要求2所述的图像处理方法,其特征在于,所述实体物体为人类,所述标记所述实体物体之后,还包括:
识别人类的面部图像;
获取所述面部图像中的特征关键点;
根据所述特征关键点确定所述人类的身份信息。
4.根据权利要求3所述的图像处理方法,其特征在于,所述根据所述特征关键点确定所述人类的身份信息之后,还包括:
基于所述面部图像确定所述人类的面部表情特征;
根据所述面部表情特征确定所述人类的课堂状态;
保存所述课堂状态,并建立所述课堂状态与所述身份信息以及所述立体图像数据的关联关系。
5.根据权利要求3所述的图像处理方法,其特征在于,所述根据所述特征关键点确定所述人类的身份信息之后,还包括:
根据所述立体图像数据确认所述人类的位姿数据;
保存所述位姿数据,并建立所述位姿数据与所述身份信息以及所述立体图像数据的关联关系。
6.根据权利要求1所述的图像处理方法,其特征在于,所述根据所述摄像参数将同一采集时刻得到的平面图像数据进行合成,以得到立体图像数据包括:
将所述摄像参数以及同一采集时刻得到的平面图像数据输入至预设三维模型中;
获取所述三维模型输出的立体图像数据。
7.根据权利要求1所述的图像处理方法,其特征在于,还包括:
获取音频采集设备在所述设定时间内采集的所述目标教室内的音频数据;
所述按照采集时刻顺序保存全部的立体图像数据包括:
按照采集时刻,将所述全部的立体图像数据与所述音频数据关联保存。
8.一种图像处理装置,其特征在于,包括:
数据获取模块,用于获取至少两个摄像头在设定时间内采集的目标教室的平面图像数据;
参数确认模块,用于确认至少两个所述摄像头的摄像参数;
合成模块,用于根据所述摄像参数将同一采集时刻得到的平面图像数据进行合成,以得到立体图像数据;
保存模块,用于按照采集时刻顺序保存全部的立体图像数据。
9.一种图像处理设备,其特征在于,包括:
存储器以及一个或多个处理器;
所述存储器,用于存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-7任一所述的图像处理方法。
10.一种包含计算机可执行指令的存储介质,其特征在于,所述计算机可执行指令在由计算机处理器执行时用于执行如权利要求1-7任一所述的图像处理方法。
CN201811029668.3A 2018-09-05 2018-09-05 图像处理方法、装置、设备及存储介质 Pending CN109089099A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811029668.3A CN109089099A (zh) 2018-09-05 2018-09-05 图像处理方法、装置、设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811029668.3A CN109089099A (zh) 2018-09-05 2018-09-05 图像处理方法、装置、设备及存储介质

Publications (1)

Publication Number Publication Date
CN109089099A true CN109089099A (zh) 2018-12-25

Family

ID=64840913

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811029668.3A Pending CN109089099A (zh) 2018-09-05 2018-09-05 图像处理方法、装置、设备及存储介质

Country Status (1)

Country Link
CN (1) CN109089099A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116866522A (zh) * 2023-07-11 2023-10-10 广州市图威信息技术服务有限公司 一种远程监控方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130318469A1 (en) * 2012-05-24 2013-11-28 Frank J. Wessels Education Management and Student Motivation System
CN104517102A (zh) * 2014-12-26 2015-04-15 华中师范大学 学生课堂注意力检测方法及***
US20150279222A1 (en) * 2014-03-31 2015-10-01 Konica Minolta Laboratory U.S.A., Inc. Method and system for enhancing interactions between teachers and students
CN106803913A (zh) * 2017-03-10 2017-06-06 武汉东信同邦信息技术有限公司 一种用于自动侦测学生起立发言动作的检测方法及其装置
CN106851216A (zh) * 2017-03-10 2017-06-13 山东师范大学 一种基于人脸和语音识别的课堂行为监控***及方法
CN107292271A (zh) * 2017-06-23 2017-10-24 北京易真学思教育科技有限公司 学习监控方法、装置及电子设备
CN107609517A (zh) * 2017-09-15 2018-01-19 华中科技大学 一种基于计算机视觉的课堂行为检测***
CN107861625A (zh) * 2017-12-04 2018-03-30 北京易真学思教育科技有限公司 基于3d空间模型的视线跟踪***及方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130318469A1 (en) * 2012-05-24 2013-11-28 Frank J. Wessels Education Management and Student Motivation System
US20150279222A1 (en) * 2014-03-31 2015-10-01 Konica Minolta Laboratory U.S.A., Inc. Method and system for enhancing interactions between teachers and students
CN104517102A (zh) * 2014-12-26 2015-04-15 华中师范大学 学生课堂注意力检测方法及***
CN106803913A (zh) * 2017-03-10 2017-06-06 武汉东信同邦信息技术有限公司 一种用于自动侦测学生起立发言动作的检测方法及其装置
CN106851216A (zh) * 2017-03-10 2017-06-13 山东师范大学 一种基于人脸和语音识别的课堂行为监控***及方法
CN107292271A (zh) * 2017-06-23 2017-10-24 北京易真学思教育科技有限公司 学习监控方法、装置及电子设备
CN107609517A (zh) * 2017-09-15 2018-01-19 华中科技大学 一种基于计算机视觉的课堂行为检测***
CN107861625A (zh) * 2017-12-04 2018-03-30 北京易真学思教育科技有限公司 基于3d空间模型的视线跟踪***及方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116866522A (zh) * 2023-07-11 2023-10-10 广州市图威信息技术服务有限公司 一种远程监控方法
CN116866522B (zh) * 2023-07-11 2024-05-17 广州市图威信息技术服务有限公司 一种远程监控方法

Similar Documents

Publication Publication Date Title
CN108831218B (zh) 基于虚拟现实的远程教学***
CN108010394B (zh) 一种基于vr的虚拟教学方法、控制终端、虚拟教学***
CN109817041A (zh) 多功能教学***
US11043135B2 (en) Systems and methods for monitoring learner engagement during a learning event
Temkar et al. Internet of things for smart classrooms
CN104575137B (zh) 分体式情景互动多媒体智能终端
CN111242962A (zh) 远程培训视频的生成方法、装置、设备及存储介质
WO2019019403A1 (zh) 一种用于k12阶段的互动情景教学***
CN111144356B (zh) 一种远程教学的教师视线跟随方法及装置
CN111242704B (zh) 用于在现实场景中叠加直播人物影像的方法和电子设备
CN110933316A (zh) 一种基于双摄交互式的教师跟踪教学***
CN110175534A (zh) 基于多任务级联卷积神经网络的授课辅助***
CN112036257A (zh) 一种无感知人脸图像采集方法和***
CN208985412U (zh) 智慧教育物理环境***
CN106101734A (zh) 互动课堂的视频直播录制方法及***
CN111950487A (zh) 一种智慧教学分析管理***
CN113705349A (zh) 一种基于视线估计神经网络的注意力量化分析方法及***
CN112331001A (zh) 一种基于虚拟现实技术的教学***
CN104575139B (zh) 情景互动式多媒体智能终端及其应用
KR20160082291A (ko) 영상 처리 장치 및 영상 처리 방법
CN114979689A (zh) 多机位直播导播方法、设备以及介质
KR20160143995A (ko) 무선디지털기기를 통해 생성되는 고배율 이미지를 활용한 학습시스템 및 그 학습방법
CN113301367B (zh) 音视频处理方法、设备、***及存储介质
CN109089099A (zh) 图像处理方法、装置、设备及存储介质
CN111984065A (zh) 一种大数据互动教学实训平台

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20181225