CN106341608A - 一种基于情绪的拍摄方法及移动终端 - Google Patents

一种基于情绪的拍摄方法及移动终端 Download PDF

Info

Publication number
CN106341608A
CN106341608A CN201610967119.5A CN201610967119A CN106341608A CN 106341608 A CN106341608 A CN 106341608A CN 201610967119 A CN201610967119 A CN 201610967119A CN 106341608 A CN106341608 A CN 106341608A
Authority
CN
China
Prior art keywords
data
image
facial emotions
face
mobile phone
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201610967119.5A
Other languages
English (en)
Inventor
谢莲花
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Vivo Mobile Communication Co Ltd
Original Assignee
Vivo Mobile Communication Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Vivo Mobile Communication Co Ltd filed Critical Vivo Mobile Communication Co Ltd
Priority to CN201610967119.5A priority Critical patent/CN106341608A/zh
Publication of CN106341608A publication Critical patent/CN106341608A/zh
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Telephone Function (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本发明提供了一种基于情绪的拍摄方法,该方法包括:接收移动终端用户输入的拍摄指令;检测移动终端用户的面部情绪;当检测到移动终端用户的面部情绪与预设的情绪特征库中的情绪特征相匹配时,控制摄像头进行拍摄;获取所述摄像头拍摄的包括所述面部情绪的第一数据;提取预先存储的与所述面部情绪匹配的第二数据与所述第一数据进行合成,生成目标数据。本发明提供的一种基于情绪的拍摄方法,根据识别到的当前用户的面部情绪,用户能在拍摄的照片或视频中添加跟当前用户面部情绪匹配的情绪内容,从而形成有趣的照片或视频,增加了移动终端拍照功能的趣味性。

Description

一种基于情绪的拍摄方法及移动终端
技术领域
本发明涉及通信技术领域,尤其涉及一种基于情绪的拍摄方法及移动终端。
背景技术
随着智能移动终端的发展以及人们生活使用的频繁,越来越多的传统功能被挖掘,以满足用户不同的需求。目前移动终端可满足用户的拍照需求,如根据用户的需求可对照片进行美化,调色,添加文字等操作。这些用户操作大多根据用户拍照时的心情而定,由于便携式拍照设备的功能日益增多,提供给用户的选择也相对增多,每当用户选择拍照模式时,需要浏览众多功能模式才能选出满足自己需要的拍照模式,因而在拍照模式的选择过程操作繁琐、费时。
发明内容
本发明实施例提供一种基于情绪的拍摄方法,以解决现有的拍照模式的选择过程操作繁琐、费时的问题。
第一方面,提供了一种基于情绪的拍摄方法,所述方法应用于移动终端,所述方法包括:
接收移动终端用户输入的拍摄指令;
检测移动终端用户的面部情绪;
当检测到移动终端用户的面部情绪与预设的情绪特征库中的情绪特征相匹配时,控制摄像头进行拍摄;
获取所述摄像头拍摄的包括所述面部情绪的第一数据;
提取预先存储的与所述面部情绪匹配的第二数据与所述第一数据进行合成,生成目标数据。
第二方面,还提供了一种移动终端,包括:
第一接收模块,用于接收移动终端用户输入的拍摄指令;
第一检测模块,用于检测移动终端用户的面部情绪;
拍摄模块,用于当检测到移动终端用户的面部情绪与预设的情绪特征库中的情绪特征相匹配时,控制摄像头进行拍摄;
第一获取模块,用于获取所述摄像头拍摄的包括所述面部情绪的第一数据;
合成模块,用于提取预先存储的与所述面部情绪匹配的第二数据与所述第一数据进行合成,生成目标数据。
这样,本发明实施例中,通过接收移动终端用户输入的拍摄指令;检测移动终端用户的面部情绪;当检测到移动终端用户的面部情绪与预设的情绪特征库中的情绪特征相匹配时,控制摄像头进行拍摄;获取所述摄像头拍摄的包括所述面部情绪的第一数据;提取预先存储的与所述面部情绪匹配的第二数据与所述第一数据进行合成,生成目标数据,用户能直接根据当前的情绪,在使用移动终端的相机拍摄的照片或视频中,快速直接的添加跟当前情绪一致的情绪内容,跟照片或视频进行合成,从而形成有趣的拍摄作品,增加了拍照功能的趣味性以及用户的个性体验,并避免了用户在选择拍照模式上的繁琐。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对本发明实施例的描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本发明第一实施例的一种基于情绪的拍摄方法的流程图。
图2是本发明第二实施例的一种基于情绪的拍摄方法的流程图之一。
图2a是本发明第二实施例的一种基于情绪的拍摄方法的流程图之二。
图2b是本发明第二实施例的一种基于情绪的拍摄方法的流程图之三。
图3是本发明第三实施例的一种移动终端的结构图。
图4是本发明第三实施例的一种移动终端的结构图之一。
图4a是本发明第三实施例的一种移动终端的结构图之二。
图4b是本发明第三实施例的一种移动终端的结构图之三。
图5是本发明第四实施例的一种移动终端的结构图。
图6是本发明第四实施例的一种移动终端的结构图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
第一实施例
本发明提供的一种基于情绪的拍摄方法,如图1所示,包括:
步骤101,接收移动终端用户输入的拍摄指令。
本步骤中,当接收当前用户使用移动终端的相机功能进行拍摄的指令,开始进入情绪拍摄。该拍摄指令,包括拍照以及录像或者视频通话指令。
步骤102,检测移动终端用户的面部情绪。
本步骤中,在进行拍摄前,进入预览界面,检测用户的面部情绪,以根据检测的结果来判断当前用户的情绪。该面部情绪可以包括:高兴情绪、愤怒情绪、悲伤情绪、哭泣情绪、沉思情绪以及酣睡情绪等。
步骤103,当检测到移动终端用户的面部情绪与预设的情绪特征库中的情绪特征相匹配时,控制摄像头进行拍摄。
本步骤中,通过在情绪特征库中查找与当前获取的面部情绪匹配的情绪特征,来确定当前检测的到的用户的面部情绪。在确定了当前用户的面部情绪后,控制摄像头进行拍摄。可选的,若匹配不成功,则***提示用户不存在或者匹配不成功,本实施设定匹配次数为三次,若连续匹配三次不成功,则退出基于情绪的拍摄方法,进行正常的拍摄模式。
步骤104,获取所述摄像头拍摄的包括所述面部情绪的第一数据。
本步骤中,通过接收用户对摄像头拍摄功能的选择,获取包括面部情绪的第一数据。该第一数据包含面部情绪信息。当用户选择的是照相功能,则获取的第一数据为图像数据;若用户选择的是摄像功能,则获取的第一数据为视频数据。
步骤105,提取预先存储的与所述面部情绪匹配的第二数据与所述第一数据进行合成,生成目标数据。
本步骤中,在步骤104获取到第一数据之后,通过提取预先存储的与所述面部情绪匹配的第二数据与该第一数据进行合成,生成目标数据。该第一数据为通过摄像头获取的数据,该第二数据为预先存储的包括面部情绪的情绪数据。该第二数据与第一数据的相对应,若第一数据为图像数据,则第二数据也为图像数据;若第一数据为视频数据,则该第二数据也为视频数据或者动画数据。该目标数据即为合成后的数据。
本发明实施例的一种基于情绪的拍摄方法,通过接收移动终端用户输入的拍摄指令;检测移动终端用户的面部情绪;当检测到移动终端用户的面部情绪与预设的情绪特征库中的情绪特征相匹配时,控制摄像头进行拍摄;获取所述摄像头拍摄的包括所述面部情绪的第一数据;提取预先存储的与所述面部情绪匹配的第二数据与所述第一数据进行合成,生成目标数据,将提取的情绪内容和摄像头拍摄的照片或视频数据进行有机的结合,从而生成有趣的照片或者视频,增加了拍照功能的趣味性,并有效的减少用户在根据自己当前的情绪选择拍照模式的繁琐。
第二实施例
本发明的一种基于情绪的拍摄方法,如图2所示,包括:
步骤201,获取所述摄像头采集的至少一个面部图像。
本步骤中,通过在使用情绪拍摄之前,获取摄像头采集的至少一个面部图像,预先录入表示各种情绪的面部表情,为在进行情绪拍摄时判断用户的面部情绪提供依据。该面部情绪至少包括高兴情绪、愤怒情绪、悲伤情绪、哭泣情绪、沉思情绪以及酣睡情绪的一种。在获取时,***弹出提示框供用户选择对应的高兴情绪、愤怒情绪、悲伤情绪、哭泣情绪、沉思情绪以及酣睡情绪的至少一种面部情绪进行录入对应的面部图像。比如:用户按照***提示,在高兴情绪的提示框中录入代表高兴情绪的面部图像,在愤怒情绪的对话框中录入代表愤怒情绪的面部图像。
步骤202,提取所述至少一个面部图像中的情绪特征。
本步骤中,根据步骤201中获取的面部图像,提取该面部图像的情绪特征。该提取的情绪特征,包括在该情绪下的眼睛轮廓特征、眉毛特征以及嘴唇特征。在提取时,将每种情绪的情绪特征与预先设定的门限进行比较,如果在提取这些情绪特征的时候,发现达不到这些门限,***提示重新录入,并将失败的原因显示出来,以此提升在判断面部情绪时的准确性。比如,在表示高兴情绪的面部图像中提取对应的情绪特征时,发现嘴巴张开的面积大小达不到预设的面积门限值,***提示重新录入高兴情绪的面部图像。
步骤203,对于所述至少一个面部图像中的每一个面部图像,建立所述面部图像与所述情绪特征之间的映射关系。
本步骤中,根据面部图像和提取的面部图像的情绪特征,建立他们的映射关系。即一个面部图像与该面部图像的眼睛轮廓特征、眉毛特征以及嘴唇特征一一对应。在使用时,***通过查找眼睛轮廓特征、眉毛特征以及嘴唇特征来确定面部图像的情绪。
步骤204,基于所述至少一个面部图像、所述情绪特征和所述映射关系,建立情绪特征库。
本步骤中,该情绪特征库包括至少一个面部图像,面部图像的情绪特征,以及他们的映射关系三个要素。在使用时,***通过在情绪特征库中查找匹配的情绪特征,然后通过该映射关系确定该面部图像的面部情绪。
步骤205,接收移动终端用户输入的拍摄指令。
本步骤中,当接收当前用户使用移动终端的相机功能进行拍摄的指令,开始进入情绪拍摄。
步骤206,检测移动终端用户的面部情绪。
本步骤中,在进行拍摄前,进入预览界面,检测用户的面部情绪,根据检测的结果来判断当前用户的情绪。该情绪可以包括:高兴情绪、愤怒情绪、悲伤情绪、哭泣情绪、沉思情绪以及酣睡情绪等。
步骤207,当检测到移动终端用户的面部情绪与预设的情绪特征库中的情绪特征相匹配时,控制摄像头进行拍摄。
本步骤中,通过在情绪特征库中查找与当前获取的面部情绪匹配的情绪特征,来确定当前检测的到的用户的面部情绪。在确定了当前用户的面部情绪后,控制摄像头进行拍摄。可选的,若匹配不成功,则***提示用户不存在或者匹配不成功,本实施设定匹配次数为三次,若连续匹配三次不成功,则退出基于情绪的拍摄方法,进行正常的拍摄模式。
步骤208,获取所述摄像头拍摄的包括所述面部情绪的第一数据。
本步骤中,通过接收用户对摄像头拍摄功能的选择,获取包括面部情绪的第一数据。该第一数据包含面部情绪信息。当接收到用户选择的是照相功能,则获取的第一数据为图像数据;当接收到用户选择的是摄像功能,则获取的第一数据为视频数据。
步骤209,提取预先存储的与所述面部情绪匹配的第二数据与所述第一数据进行合成,生成目标数据。
本步骤中,在步骤208获取到第一数据之后,通过提取预先存储的与所述面部情绪匹配的第二数据与该第一数据进行合成,生成目标数据。该第二数据与第一数据相对应,若第一数据为图像数据,则第二数据也为图像数据;若第一数据为视频数据,则该第二数据也为视频数据或者动画数据。该目标数据即为合成后的数据。
可选的,当拍摄指令为拍照指令时,如图2a所示:
步骤208包括:
步骤2081.1,当拍摄指令为拍照指令时,获取所述摄像头对移动终端用户的面部所拍摄的包括所述面部情绪的第一图像;
其中,所述第一图像为所述第一数据。
本步骤中,当用户使用摄像头执行拍照操作时,获取到的数据为图像数据。该图像数据包括用户的面部情绪信息。
步骤209包括:
步骤2091.1,提取预先存储的与所述第一图像中的所述面部情绪匹配的第二图像。
本步骤中,根据所获取的第一图像的面部情绪,提取与该面部情绪匹配的第二图像。比如,当获取到的第一图像的面部情绪为高兴情绪,则对应的提取第二图像中体现高兴情绪的图片内容。
步骤2091.2,将所述第一图像和所述第二图像进行图像合成,生成所述目标数据;
其中,所述第二图像为所述第二数据。
本步骤中,该第二图像为第二数据。通过将第一图像和所述第二图像进行图像合成,生成最终的目标图像。具体的,可以将第一图像设置为当前显示,第二图像设置为背景显示。比如:高兴情绪时,当前显示表示高兴的第一图像,水印背景显示笑脸图片,偶像图片等第二图像;愤怒情绪时,当前显示表示愤怒的第一图像,水印背景显示愤怒的小鸟,愤怒的表情等第二图像;酣睡情绪时,当前显示表示酣睡的第一图像,水印背景显示酣睡baby,小猪等第二图像。
可选的,当拍摄指令为录像或视频通话指令时,如图2b所示:
步骤208包括:
步骤2082.1,当所述拍摄指令为录像或视频通话指令时,获取摄像头对所述移动终端用户的面部所拍摄的包括所述面部情绪的视频数据。
本步骤中,当检测到用户选择的拍摄操作为录像或视频通话时,获取到的数据为视频数据。该视频数据包括用户的面部情绪信息。
步骤2082.2,将所述视频数据分离为M帧图像,存储至第一存储单元;
其中,该M帧图像为第一数据。
本步骤中,通过将获取到的视频数据分离成一帧一帧的图像数据,并存储起来,便于进行合成。
步骤209包括:
步骤2092.1,提取预先存储的与所述视频数据中的所述面部情绪匹配的动画数据。
本步骤中,根据所获取的视频数据,提取与该视频数据中的面部情绪匹配的动画数据。比如,当获取到的视频数据的面部情绪为高兴情绪,则对应的提取动画数据中体现高兴情绪的动画内容。
步骤2092.2,将所述动画数据分离为N帧图像,存储至第二存储单元;
其中,该N帧图像数据为第二数据。
本步骤中,通过将获取到的动画数据分离成一帧一帧的图像数据,并存储起来,便于进行合成。
步骤2092.3,将所述第一存储单元和所述第二存储单元中的每帧图像分别对应进行合成,并将合成后的每帧图像存储至第三存储单元。
本步骤中,通过将获取的视频数据分离成M帧并存储到第一存储单元的每帧图像与提取的动画数据分离成N帧并存储到第二存储单元的每帧图像,进行叠加合成,得到新的图像,并存储到第三存储单元。
步骤2092.4,关闭音频输入源。
本步骤中,通过关闭音频输入源,将视频数据以及动画数据的音频关闭,变更为用户选择的音频数据。
步骤2092.5,提取预先存储的与所述面部情绪匹配的音频数据与所述第三存储单元中的图像数据进行合成,生成所述目标数据;
其中,所述N帧图像为所述第二数据。
本步骤中,提取与音频数据中体现的情绪对应匹配的情绪音频数据,并将该情绪音频与第三存储单元中的图像数据进行合成,生成最终的视频数据。
步骤210,接收移动终端用户输入的分享指令。
本步骤中,在生成目标数据后,用户可以选择将该目标数据进行分享。通过接收用户的分享指令,将该目标数据分享到相应的平台。
步骤211,显示至少一个分享路径。
本步骤中,通过在接收到用户的分享后,***显示以供用户选择的分享路径。比如:该路径显示可以为分享到QQ,微信,微博等平台或者是发送给他人。
步骤212,检测移动终端用户对所述至少一个分享路径的选择操作。
本步骤中,通过检测用户的选择,确定用户选择分享的路径。
步骤213,当检测到选择操作时,基于所述选择操作对应的分享路径分享所述目标数据。
本步骤中,通过接收用户选择的分享路径,将目标数据分享到该选择确定的路径。
本发明实施例的一种基于情绪的拍摄方法,通过预先录入代表各种情绪的面部图像来判断当前用户在使用移动终端的摄像头进行情绪拍摄时的面部情绪,从而根据确定的面部情绪,进一步的提取与该确定的面部情绪一致的情绪内容,与用户使用摄像头拍摄的数据内容进行合成,生成目标数据,将提取的情绪内容和摄像头拍摄的数据内容有机的结合,从而生成有趣的照片或视频,给照片或视频添加了有趣的元素,增加了拍照功能的趣味性;并有效的减少用户在根据自己当前的情绪选择拍照模式的繁琐操作。进一步的,用户可以通过将生成的有趣的照片或视频进行分享,与他人共享乐趣。
第三实施例
参照图3,是本发明实施例的一种移动终端的结构图,能实现实施例一至实施例二中的基于情绪的拍摄方法的细节,并达到相同的效果。该移动终端300包括:
第一接收模块301,用于接收移动终端用户输入的拍摄指令。
第一检测模块302,用于检测移动终端用户的面部情绪。
拍摄模块303,用于当检测到移动终端用户的面部情绪与预设的情绪特征库中的情绪特征相匹配时,控制摄像头进行拍摄。
第一获取模块304,用于获取所述摄像头拍摄的包括所述面部情绪的第一数据。
合成模块305,用于提取预先存储的与所述面部情绪匹配的第二数据与所述第一数据进行合成,生成目标数据。
本发明实施例的一种移动终端,通过上述模块,接收移动终端用户输入的拍摄指令;检测移动终端用户的面部情绪;当检测到移动终端用户的面部情绪与预设的情绪特征库中的情绪特征相匹配时,控制摄像头进行拍摄;获取所述摄像头拍摄的包括所述面部情绪的第一数据;提取预先存储的与所述面部情绪匹配的第二数据与所述第一数据进行合成,生成目标数据,将提取的第二数据和摄像头拍摄的第一数据有机的结合,从而生成有趣的照片或者视频,增加了拍照功能的趣味性,并有效的减少用户在根据自己当前的情绪选择拍照模式的繁琐操作。
参照图4,是本发明实施例的一种移动终端的结构图,能实现实施例一至实施例三中的细节,并达到相同的效果。该移动终端400包括:
第二获取模块401,用于获取所述摄像头采集的至少一个面部图像。
提取模块402,用于提取所述至少一个面部图像中的情绪特征。
第一建立模块403,用于对于所述至少一个面部图像中的每一个面部图像,建立所述面部图像与所述情绪特征之间的映射关系。
第二建立模块404,用于基于所述至少一个面部图像、所述情绪特征和所述映射关系,建立情绪特征库。
第一接收模块405,用于接收移动终端用户输入的拍摄指令。
第一检测模块406,用于检测移动终端用户的面部情绪。
拍摄模块407,用于当检测到移动终端用户的面部情绪与预设的情绪特征库中的情绪特征相匹配时,控制摄像头进行拍摄。
第一获取模块408,用于获取所述摄像头拍摄的包括所述面部情绪的第一数据。
合成模块409,用于提取预先存储的与所述面部情绪匹配的第二数据与所述第一数据进行合成,生成目标数据。
可选的,当拍摄指令为拍照指令时,如图4a所示:
所述第一获取模块408,包括:
第一获取单元4081.1,用于获取所述摄像头对移动终端用户的面部所拍摄的包括所述面部情绪的第一图像;
其中,所述第一图像为所述第一数据。
所述合成模块409包括:
第一提取单元4091.1,用于提取预先存储的与所述第一图像中的所述面部情绪匹配的第二图像;
第一合成单元4091.2,用于将所述第一图像和所述第二图像进行图像合成,生成所述目标数据;
其中,所述第二图像为所述第二数据。
可选的,当拍摄指令为录像或视频通话指令时,如图4b所示:
所述第一获取模块408,包括:
第二获取单元4082.1,用于获取摄像头对所述移动终端用户的面部所拍摄的包括所述面部情绪的视频数据;
第一分离单元4082.2,用于将所述视频数据分离为M帧图像,存储至第一存储单元;
其中,所述M帧图像为所述第一数据。
所述合成模块409包括:
第二提取单元4092.1,用于提取预先存储的与所述视频数据中的所述面部情绪匹配的动画数据;
第二分离单元4092.2,用于将所述动画数据分离为N帧图像,存储至第二存储单元;
第二合成单元4092.3,用于将所述第一存储单元和所述第二存储单元中的每帧图像分别对应进行合成,并将合成后的每帧图像存储至第三存储单元;
开关单元4092.4,用于关闭音频输入源;
第三合成单元4092.5,用于提取预先存储的与所述面部情绪匹配的音频数据与所述第三存储单元中的图像数据进行合成,生成所述目标数据;
其中,所述N帧图像为所述第二数据。
所述移动终端400还包括:
第二接收模块410,用于接收移动终端用户输入的分享指令。
显示模块411,用于显示至少一个分享路径。
第二检测模块412,用于检测移动终端用户对所述至少一个分享路径的选择操作。
分享模块413,用于当检测到选择操作时,基于所述选择操作对应的分享路径分享所述目标数据。
本发明实施例的一种移动终端,通过上述模块,预先录入代表各种情绪的面部图像来判断当前用户在使用移动终端的摄像头进行情绪拍摄时的面部情绪,从而根据确定的面部情绪,进一步的提取与该确定的面部情绪一致的情绪内容,与用户使用摄像头拍摄的数据内容进行合成,生成目标数据,将提取的情绪内容和摄像头拍摄的数据内容有机的结合,从而生成有趣的照片或视频,给照片或视频添加了有趣的元素,增加了拍照功能的趣味性;并有效的减少用户在根据自己当前的情绪选择拍照模式的繁琐操作。进一步的,用户可以通过将生成的有趣的照片或视频进行分享,与他人共享乐趣。
第五实施例
参照图5,是本发明实施例的一种移动终端的结构图,该移动终端500包括:至少一个处理器501、存储器502、至少一个网络接口504和用户接口503。移动终端500中的各个组件通过总线***505耦合在一起。可理解,总线***505用于实现这些组件之间的连接通信。总线***505除包括数据总线之外,还包括电源总线、控制总线和状态信号总线。但是为了清楚说明起见,在图5中将各种总线都标为总线***505。
其中,用户接口503可以包括显示器、键盘或者点击设备(例如,鼠标,轨迹球(trackball)、触感板或者触摸屏等。
可以理解,本发明实施例中的存储器502可以是易失性存储器或非易失性存储器,或可包括易失性和非易失性存储器两者。其中,非易失性存储器可以是只读存储器(Read-OnlyMemory,ROM)、可编程只读存储器(ProgrammableROM,PROM)、可擦除可编程只读存储器(ErasablePROM,EPROM)、电可擦除可编程只读存储器(ElectricallyEPROM,EEPROM)或闪存。易失性存储器可以是随机存取存储器(RandomAccessMemory,RAM),其用作外部高速缓存。通过示例性但不是限制性说明,许多形式的RAM可用,例如静态随机存取存储器(StaticRAM,SRAM)、动态随机存取存储器(DynamicRAM,DRAM)、同步动态随机存取存储器(SynchronousDRAM,SDRAM)、双倍数据速率同步动态随机存取存储器(DoubleDataRateSDRAM,DDRSDRAM)、增强型同步动态随机存取存储器(Enhanced SDRAM,ESDRAM)、同步连接动态随机存取存储器(SynchlinkDRAM,SLDRAM)和直接内存总线随机存取存储器(DirectRambusRAM,DRRAM)。本发明实施例描述的***和方法的存储器502旨在包括但不限于这些和任意其它适合类型的存储器。
在一些实施方式中,存储器502存储了如下的元素,可执行模块或者数据结构,或者他们的子集,或者他们的扩展集:操作***5021和应用程序5022。
其中,操作***5021,包含各种***程序,例如框架层、核心库层、驱动层等,用于实现各种基础业务以及处理基于硬件的任务。应用程序5022,包含各种应用程序,例如媒体播放器(MediaPlayer)、浏览器(Browser)等,用于实现各种应用业务。实现本发明实施例方法的程序可以包含在应用程序5022中。
在本发明实施例中,通过调用存储器502存储的程序或指令,具体的,可以是应用程序5022中存储的程序或指令,处理器501用于:接收移动终端用户输入的拍摄指令;检测移动终端用户的面部情绪;当检测到移动终端用户的面部情绪与预设的情绪特征库中的情绪特征相匹配时,控制摄像头进行拍摄;获取所述摄像头拍摄的包括所述面部情绪的第一数据;提取预先存储的与所述面部情绪匹配的第二数据与所述第一数据进行合成,生成目标数据。
上述本发明实施例揭示的方法可以应用于处理器501中,或者由处理器501实现。处理器501可能是一种集成电路芯片,具有信号的处理能力。在实现过程中,上述方法的各步骤可以通过处理器501中的硬件的集成逻辑电路或者软件形式的指令完成。上述的处理器501可以是通用处理器、数字信号处理器(DigitalSignalProcessor,DSP)、专用集成电路(ApplicationSpecific IntegratedCircuit,ASIC)、现成可编程门阵列(FieldProgrammableGateArray,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。可以实现或者执行本发明实施例中的公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。结合本发明实施例所公开的方法的步骤可以直接体现为硬件译码处理器执行完成,或者用译码处理器中的硬件及软件模块组合执行完成。软件模块可以位于随机存储器,闪存、只读存储器,可编程只读存储器或者电可擦写可编程存储器、寄存器等本领域成熟的存储介质中。该存储介质位于存储器502,处理器501读取存储器502中的信息,结合其硬件完成上述方法的步骤。
可以理解的是,本发明实施例描述的这些实施例可以用硬件、软件、固件、中间件、微码或其组合来实现。对于硬件实现,处理单元可以实现在一个或多个专用集成电路(ApplicationSpecificIntegratedCircuits,ASIC)、数字信号处理器(DigitalSignalProcessing,DSP)、数字信号处理设备(DSPDevice,DSPD)、可编程逻辑设备(ProgrammableLogicDevice,PLD)、现场可编程门阵列(Field-ProgrammableGateArray,FPGA)、通用处理器、控制器、微控制器、微处理器、用于执行本申请所述功能的其它电子单元或其组合中。
对于软件实现,可通过执行本发明实施例所述功能的模块(例如过程、函数等)来实现本发明实施例所述的技术。软件代码可存储在存储器中并通过处理器执行。存储器可以在处理器中或在处理器外部实现。
当所述拍摄指令为拍照指令时:
可选地,处理器501用于:获取所述摄像头对移动终端用户的面部所拍摄的包括所述面部情绪的第一图像;其中,所述第一图像为所述第一数据。
可选地,处理器501用于:提取预先存储的与所述第一图像中的所述面部情绪匹配的第二图像;将所述第一图像和所述第二图像进行图像合成,生成所述目标数据;其中,所述第二图像为所述第二数据。
当所述拍摄指令为录像或视频通话指令时:
可选地,处理器501用于:获取摄像头对所述移动终端用户的面部所拍摄的包括所述面部情绪的视频数据;将所述视频数据分离为M帧图像,存储至第一存储单元;其中,所述M帧图像为所述第一数据。
可选地,处理器501用于:提取预先存储的与所述视频数据中的所述面部情绪匹配的动画数据;将所述动画数据分离为N帧图像,存储至第二存储单元;将所述第一存储单元和所述第二存储单元中的每帧图像分别对应进行合成,并将合成后的每帧图像存储至第三存储单元;关闭音频输入源;提取预先存储的与所述面部情绪匹配的音频数据与所述第三存储单元中的图像数据进行合成,生成所述目标数据;其中,所述N帧图像为所述第二数据。
可选地,处理器501用于:接收移动终端用户输入的分享指令;显示至少一个分享路径;检测移动终端用户对所述至少一个分享路径的选择操作;当检测到选择操作时,基于所述选择操作对应的分享路径分享所述目标数据。
可选地,处理器501用于:获取所述摄像头采集的至少一个面部图像;提取所述至少一个面部图像中的情绪特征;对于所述至少一个面部图像中的每一个面部图像,建立所述面部图像与所述情绪特征之间的映射关系;基于所述至少一个面部图像、所述情绪特征和所述映射关系,建立情绪特征库。
移动终端500能够实现前述实施例中移动终端实现的各个过程,为避免重复,这里不再赘述。
本发明实施例提供的一种移动终端,通过上述模块,预先录入代表各种情绪的面部图像来判断当前用户在使用移动终端的摄像头进行情绪拍摄时的面部情绪,从而根据确定的面部情绪,进一步的提取与该确定的面部情绪一致的情绪内容,与用户使用摄像头拍摄的数据内容进行合成,生成目标数据,将提取的情绪内容和摄像头拍摄的数据内容有机的结合,从而生成有趣的照片或视频,给照片或视频添加了有趣的元素,增加了拍照功能的趣味性,并有效的减少用户在根据自己当前的情绪选择拍照模式的繁琐操作。进一步的,用户可以通过将生成的有趣的照片或视频进行分享,与他人共享乐趣。
第六实施例
参照图6,是本发明实施例的一种移动终端的结构图,具体地,图6中的移动终端600可以为手机、平板电脑、个人数字助理(PersonalDigital Assistant,PDA)、或车载电脑等。
图6中的移动终端600包括射频(RadioFrequency,RF)电路610、存储器620、输入单元630、显示单元640、处理器660、音频电路670、WiFi(WirelessFidelity)模块680和电源690。
其中,输入单元630可用于接收用户输入的数字或字符信息,以及产生与移动终端600的用户设置以及功能控制有关的信号输入。具体地,本发明实施例中,该输入单元630可以包括触控面板631。触控面板631,也称为触摸屏,可收集用户在其上或附近的触摸操作(比如用户使用手指、触笔等任何适合的物体或附件在触控面板631上的操作),并根据预先设定的程式驱动相应的连接装置。可选的,触控面板631可包括触摸检测装置和触摸控制器两个部分。其中,触摸检测装置检测用户的触摸方位,并检测触摸操作带来的信号,将信号传送给触摸控制器;触摸控制器从触摸检测装置上接收触摸信息,并将它转换成触点坐标,再送给该处理器660,并能接收处理器660发来的命令并加以执行。此外,可以采用电阻式、电容式、红外线以及表面声波等多种类型实现触控面板631。除了触控面板631,输入单元630还可以包括其他输入设备632,其他输入设备632可以包括但不限于物理键盘、功能键(比如音量控制按键、开关按键等)、轨迹球、鼠标、操作杆等中的一种或多种。
其中,显示单元640可用于显示由用户输入的信息或提供给用户的信息以及移动终端600的各种菜单界面。显示单元840可包括显示面板641,可选的,可以采用LCD或有机发光二极管(OrganicLight-EmittingDiode,OLED)等形式来配置显示面板841。
应注意,触控面板631可以覆盖显示面板841,形成触摸显示屏,当该触摸显示屏检测到在其上或附近的触摸操作后,传送给处理器660以确定触摸事件的类型,随后处理器660根据触摸事件的类型在触摸显示屏上提供相应的视觉输出。
触摸显示屏包括应用程序界面显示区及常用控件显示区。该应用程序界面显示区及该常用控件显示区的排列方式并不限定,可以为上下排列、左右排列等可以区分两个显示区的排列方式。该应用程序界面显示区可以用于显示应用程序的界面。每一个界面可以包含至少一个应用程序的图标和/或widget桌面控件等界面元素。该应用程序界面显示区也可以为不包含任何内容的空界面。该常用控件显示区用于显示使用率较高的控件,例如,设置按钮、界面编号、滚动条、电话本图标等应用程序图标等。
其中处理器660是移动终端600的控制中心,利用各种接口和线路连接整个手机的各个部分,通过运行或执行存储在第一存储器621内的软件程序和/或模块,以及调用存储在第二存储器622内的数据,执行移动终端600的各种功能和处理数据,从而对移动终端600进行整体监控。可选的,处理器660可包括一个或多个处理单元。
在本发明实施例中,通过调用存储该第一存储器621内的软件程序和/或模块和/或该第二存储器622内的数据,处理器660用于接收移动终端用户输入的拍摄指令;检测移动终端用户的面部情绪;当检测到移动终端用户的面部情绪与预设的情绪特征库中的情绪特征相匹配时,控制摄像头进行拍摄;获取所述摄像头拍摄的包括所述面部情绪的第一数据;提取预先存储的与所述面部情绪匹配的第二数据与所述第一数据进行合成,生成目标数据。
可选地,当所述拍摄指令为拍照指令时:
可选地,处理器660用于:获取所述摄像头对移动终端用户的面部所拍摄的包括所述面部情绪的第一图像;其中,所述第一图像为所述第一数据。
可选地,处理器660用于:提取预先存储的与所述第一图像中的所述面部情绪匹配的第二图像;将所述第一图像和所述第二图像进行图像合成,生成所述目标数据;其中,所述第二图像为所述第二数据。
当所述拍摄指令为录像或视频通话指令时:
可选地,处理器660用于:获取摄像头对所述移动终端用户的面部所拍摄的包括所述面部情绪的视频数据;将所述视频数据分离为M帧图像,存储至第一存储单元;其中,所述M帧图像为所述第一数据。
可选地,处理器660用于:提取预先存储的与所述视频数据中的所述面部情绪匹配的动画数据;将所述动画数据分离为N帧图像,存储至第二存储单元;将所述第一存储单元和所述第二存储单元中的每帧图像分别对应进行合成,并将合成后的每帧图像存储至第三存储单元;关闭音频输入源;提取预先存储的与所述面部情绪匹配的音频数据与所述第三存储单元中的图像数据进行合成,生成所述目标数据;其中,所述N帧图像为所述第二数据。
可选地,处理器660用于:接收移动终端用户输入的分享指令;显示至少一个分享路径;检测移动终端用户对所述至少一个分享路径的选择操作;当检测到选择操作时,基于所述选择操作对应的分享路径分享所述目标数据。
可见,移动终端600能够实现前述实施例中移动终端实现的各个过程,为避免重复,这里不再赘述。
本领域普通技术人员可以意识到,结合本发明实施例中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的***、装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个***,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、ROM、RAM、磁碟或者光盘等各种可以存储程序代码的介质。
本发明实施例提供的一种移动终端,通过上述模块,预先录入代表各种情绪的面部图像来判断当前用户在使用移动终端的摄像头进行情绪拍摄时的面部情绪,从而根据确定的面部情绪,进一步的提取与该确定的面部情绪一致的情绪内容,与用户使用摄像头拍摄的数据内容进行合成,生成目标数据,将提取的情绪内容和摄像头拍摄的数据内容有机的结合,从而生成有趣的照片或视频,给照片或视频添加了有趣的元素,增加了拍照功能的趣味性,并有效的减少用户在根据自己当前的情绪选择拍照模式的繁琐操作。进一步的,用户可以通过将生成的有趣的照片或视频进行分享,与他人共享乐趣。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以权利要求的保护范围为准。

Claims (14)

1.一种基于情绪的拍摄方法,应用于具有摄像头的移动终端,其特征在于,所述方法包括:
接收移动终端用户输入的拍摄指令;
检测移动终端用户的面部情绪;
当检测到移动终端用户的面部情绪与预设的情绪特征库中的情绪特征相匹配时,控制摄像头进行拍摄;
获取所述摄像头拍摄的包括所述面部情绪的第一数据;
提取预先存储的与所述面部情绪匹配的第二数据与所述第一数据进行合成,生成目标数据。
2.根据权利要求1所述的方法,其特征在于,当所述拍摄指令为拍照指令时,所述获取所述摄像头拍摄的包括所述面部情绪的第一数据的步骤,包括:
获取所述摄像头对移动终端用户的面部所拍摄的包括所述面部情绪的第一图像;
其中,所述第一图像为所述第一数据。
3.根据权利要求1所述的方法,其特征在于,所述提取预先存储的与所述面部情绪匹配的第二数据与所述第一数据进行合成,生成目标数据的步骤,包括:
提取预先存储的与所述第一图像中的所述面部情绪匹配的第二图像;
将所述第一图像和所述第二图像进行图像合成,生成所述目标数据;
其中,所述第二图像为所述第二数据。
4.根据权利要求1所述的方法,其特征在于,当所述拍摄指令为录像或视频通话指令时,所述获取所述摄像头拍摄的包括所述面部情绪的第一数据的步骤,包括:
获取摄像头对所述移动终端用户的面部所拍摄的包括所述面部情绪的视频数据;
将所述视频数据分离为M帧图像,存储至第一存储单元;
其中,所述M帧图像为所述第一数据。
5.根据权利要求1所述的方法,其特征在于,所述提取预先存储的与所述面部情绪匹配的第二数据与所述第一数据进行合成,生成目标数据的步骤,包括:
提取预先存储的与所述视频数据中的所述面部情绪匹配的动画数据;
将所述动画数据分离为N帧图像,存储至第二存储单元;
将所述第一存储单元和所述第二存储单元中的每帧图像分别对应进行合成,并将合成后的每帧图像存储至第三存储单元;
关闭音频输入源;
提取预先存储的与所述面部情绪匹配的音频数据与所述第三存储单元中的图像数据进行合成,生成所述目标数据;
其中,所述N帧图像为所述第二数据。
6.根据权利要求1所述的方法,其特征在于,所述提取预先存储的与所述面部情绪匹配的第二数据与所述第一数据进行合成,生成目标数据的步骤之后,所述方法还包括:
接收移动终端用户输入的分享指令;
显示至少一个分享路径;
检测移动终端用户对所述至少一个分享路径的选择操作;
当检测到选择操作时,基于所述选择操作对应的分享路径分享所述目标数据。
7.根据权利要求1所述的方法,其特征在于,所述接收移动终端用户输入的拍摄指令的步骤之前,所述方法还包括:
获取所述摄像头采集的至少一个面部图像;
提取所述至少一个面部图像中的情绪特征;
对于所述至少一个面部图像中的每一个面部图像,建立所述面部图像与所述情绪特征之间的映射关系;
基于所述至少一个面部图像、所述情绪特征和所述映射关系,建立情绪特征库。
8.一种移动终端,其特征在于,包括:
第一接收模块,用于接收移动终端用户输入的拍摄指令;
第一检测模块,用于检测移动终端用户的面部情绪;
拍摄模块,用于当检测到移动终端用户的面部情绪与预设的情绪特征库中的情绪特征相匹配时,控制摄像头进行拍摄;
第一获取模块,用于获取所述摄像头拍摄的包括所述面部情绪的第一数据;
合成模块,用于提取预先存储的与所述面部情绪匹配的第二数据与所述第一数据进行合成,生成目标数据。
9.根据权利要求8所述的移动终端,其特征在于,当所述拍摄指令为拍照指令时,所述第一获取模块包括:
第一获取单元,用于获取所述摄像头对移动终端用户的面部所拍摄的包括所述面部情绪的第一图像;
其中,所述第一图像为所述第一数据。
10.根据权利要求8所述的移动终端,其特征在于,所述合成模块包括:
第一提取单元,用于提取预先存储的与所述第一图像中的所述面部情绪匹配的第二图像;
第一合成单元,用于将所述第一图像和所述第二图像进行图像合成,生成所述目标数据;
其中,所述第二图像为所述第二数据。
11.根据权利要求8所述的移动终端,其特征在于,当所述拍摄指令为录像或视频通话指令时,所述第一获取模块还包括:
第二获取单元,用于获取摄像头对所述移动终端用户的面部所拍摄的包括所述面部情绪的视频数据;
第一分离单元,用于将所述视频数据分离为M帧图像,存储至第一存储单元;
其中,所述M帧图像为所述第一数据。
12.根据权利要求8所述的移动终端,其特征在于,所述合成模块包括:
第二提取单元,用于提取预先存储的与所述视频数据中的所述面部情绪匹配的动画数据;
第二分离单元,用于将所述动画数据分离为N帧图像,存储至第二存储单元;
第二合成单元,用于将所述第一存储单元和所述第二存储单元中的每帧图像分别对应进行合成,并将合成后的每帧图像存储至第三存储单元;
开关单元,用于关闭音频输入源;
第三合成单元,用于提取预先存储的与所述面部情绪匹配的音频数据与所述第三存储单元中的图像数据进行合成,生成所述目标数据;
其中,所述N帧图像为所述第二数据。
13.根据权利要求8所述的移动终端,其特征在于,还包括:
第二接收模块,用于接收移动终端用户输入的分享指令;
显示模块,用于显示至少一个分享路径;
第二检测模块,用于检测移动终端用户对所述至少一个分享路径的选择操作;
分享模块,用于当检测到选择操作时,基于所述选择操作对应的分享路径分享所述目标数据。
14.根据权利要求8所述的移动终端,其特征在于,还包括:
第二获取模块,用于获取所述摄像头采集的至少一个面部图像;
提取模块,用于提取所述至少一个面部图像中的情绪特征;
第一建立模块,用于对于所述至少一个面部图像中的每一个面部图像,建立所述面部图像与所述情绪特征之间的映射关系;
第二建立模块,用于基于所述至少一个面部图像、所述情绪特征和所述映射关系,建立情绪特征库。
CN201610967119.5A 2016-10-28 2016-10-28 一种基于情绪的拍摄方法及移动终端 Pending CN106341608A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610967119.5A CN106341608A (zh) 2016-10-28 2016-10-28 一种基于情绪的拍摄方法及移动终端

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610967119.5A CN106341608A (zh) 2016-10-28 2016-10-28 一种基于情绪的拍摄方法及移动终端

Publications (1)

Publication Number Publication Date
CN106341608A true CN106341608A (zh) 2017-01-18

Family

ID=57841039

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610967119.5A Pending CN106341608A (zh) 2016-10-28 2016-10-28 一种基于情绪的拍摄方法及移动终端

Country Status (1)

Country Link
CN (1) CN106341608A (zh)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107320114A (zh) * 2017-06-29 2017-11-07 京东方科技集团股份有限公司 基于脑电波检测的拍摄处理方法、***及其设备
CN107509021A (zh) * 2017-07-18 2017-12-22 咪咕文化科技有限公司 一种拍摄方法、装置及存储介质
CN107992824A (zh) * 2017-11-30 2018-05-04 努比亚技术有限公司 拍照处理方法、移动终端及计算机可读存储介质
CN108200373A (zh) * 2017-12-29 2018-06-22 珠海市君天电子科技有限公司 图像处理方法、装置、电子设备及介质
CN109525791A (zh) * 2018-09-21 2019-03-26 华为技术有限公司 信息记录方法及终端
CN109684978A (zh) * 2018-12-18 2019-04-26 深圳壹账通智能科技有限公司 员工情绪监控方法、装置、计算机设备和存储介质
CN109766771A (zh) * 2018-12-18 2019-05-17 深圳壹账通智能科技有限公司 可操作对象控制方法、装置、计算机设备和存储介质
CN110121026A (zh) * 2019-04-24 2019-08-13 深圳传音控股股份有限公司 智能拍摄设备及其基于生物特征识别的场景生成方法
CN110675674A (zh) * 2019-10-11 2020-01-10 广州千睿信息科技有限公司 一种基于大数据分析的在线教育方法及在线教育平台
WO2023060720A1 (zh) * 2021-10-11 2023-04-20 北京工业大学 情绪状态展示方法、装置及***

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101369307A (zh) * 2007-08-14 2009-02-18 索尼株式会社 成像装置、成像方法和计算机程序
US20160180572A1 (en) * 2014-12-22 2016-06-23 Casio Computer Co., Ltd. Image creation apparatus, image creation method, and computer-readable storage medium
CN105721752A (zh) * 2009-07-03 2016-06-29 奥林巴斯株式会社 摄像装置和摄像方法
CN105791692A (zh) * 2016-03-14 2016-07-20 腾讯科技(深圳)有限公司 一种信息处理方法及终端
CN105872338A (zh) * 2016-05-31 2016-08-17 宇龙计算机通信科技(深圳)有限公司 一种拍照方法和装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101369307A (zh) * 2007-08-14 2009-02-18 索尼株式会社 成像装置、成像方法和计算机程序
CN105721752A (zh) * 2009-07-03 2016-06-29 奥林巴斯株式会社 摄像装置和摄像方法
US20160180572A1 (en) * 2014-12-22 2016-06-23 Casio Computer Co., Ltd. Image creation apparatus, image creation method, and computer-readable storage medium
CN105721765A (zh) * 2014-12-22 2016-06-29 卡西欧计算机株式会社 图像生成装置以及图像生成方法
CN105791692A (zh) * 2016-03-14 2016-07-20 腾讯科技(深圳)有限公司 一种信息处理方法及终端
CN105872338A (zh) * 2016-05-31 2016-08-17 宇龙计算机通信科技(深圳)有限公司 一种拍照方法和装置

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107320114A (zh) * 2017-06-29 2017-11-07 京东方科技集团股份有限公司 基于脑电波检测的拍摄处理方法、***及其设备
US11806145B2 (en) 2017-06-29 2023-11-07 Boe Technology Group Co., Ltd. Photographing processing method based on brain wave detection and wearable device
CN107509021B (zh) * 2017-07-18 2020-08-07 咪咕文化科技有限公司 一种拍摄方法、装置及存储介质
CN107509021A (zh) * 2017-07-18 2017-12-22 咪咕文化科技有限公司 一种拍摄方法、装置及存储介质
CN107992824A (zh) * 2017-11-30 2018-05-04 努比亚技术有限公司 拍照处理方法、移动终端及计算机可读存储介质
CN108200373A (zh) * 2017-12-29 2018-06-22 珠海市君天电子科技有限公司 图像处理方法、装置、电子设备及介质
CN108200373B (zh) * 2017-12-29 2021-03-26 北京乐蜜科技有限责任公司 图像处理方法、装置、电子设备及介质
CN109525791A (zh) * 2018-09-21 2019-03-26 华为技术有限公司 信息记录方法及终端
CN109766771A (zh) * 2018-12-18 2019-05-17 深圳壹账通智能科技有限公司 可操作对象控制方法、装置、计算机设备和存储介质
CN109684978A (zh) * 2018-12-18 2019-04-26 深圳壹账通智能科技有限公司 员工情绪监控方法、装置、计算机设备和存储介质
CN110121026A (zh) * 2019-04-24 2019-08-13 深圳传音控股股份有限公司 智能拍摄设备及其基于生物特征识别的场景生成方法
CN110675674A (zh) * 2019-10-11 2020-01-10 广州千睿信息科技有限公司 一种基于大数据分析的在线教育方法及在线教育平台
WO2023060720A1 (zh) * 2021-10-11 2023-04-20 北京工业大学 情绪状态展示方法、装置及***

Similar Documents

Publication Publication Date Title
CN106341608A (zh) 一种基于情绪的拍摄方法及移动终端
CN106844067B (zh) 一种内容的处理方法及移动终端
CN106780685B (zh) 一种动态图片的生成方法及终端
CN106210526A (zh) 一种拍摄方法及移动终端
CN107257439A (zh) 一种拍摄方法及移动终端
CN105933538A (zh) 一种移动终端的视频查找方法及移动终端
CN107370887A (zh) 一种表情生成方法及移动终端
CN107024990B (zh) 一种吸引儿童自拍的方法及移动终端
TWI721466B (zh) 基於擴增實境的互動方法及裝置
CN106101545A (zh) 一种图像处理方法及移动终端
CN106341538A (zh) 一种歌词海报的推送方法及移动终端
CN108495032A (zh) 图像处理方法、装置、存储介质及电子设备
CN106791438A (zh) 一种拍照方法及移动终端
CN106973237B (zh) 一种拍摄方法及移动终端
CN106791437A (zh) 一种全景图像拍摄方法及移动终端
CN107087137A (zh) 呈现视频的方法和装置及终端设备
CN107346332A (zh) 一种图像处理方法以及移动终端
CN102177703A (zh) 用于生成要被显示而同时伴随有音频的多个图像的序列的方法和设备
CN108121486A (zh) 一种图片显示方法及移动终端
CN106454086A (zh) 一种图像处理方法和移动终端
CN105933772A (zh) 交互方法、交互装置以及交互***
CN106096043A (zh) 一种拍照方法和移动终端
CN107885823A (zh) 音频信息的播放方法、装置、存储介质及电子设备
CN106101597A (zh) 一种定格视频的拍摄方法及移动终端
CN106161933B (zh) 一种图像处理方法及移动终端

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20170118

RJ01 Rejection of invention patent application after publication