CN117041670B - 图像处理方法及相关设备 - Google Patents

图像处理方法及相关设备 Download PDF

Info

Publication number
CN117041670B
CN117041670B CN202311286705.XA CN202311286705A CN117041670B CN 117041670 B CN117041670 B CN 117041670B CN 202311286705 A CN202311286705 A CN 202311286705A CN 117041670 B CN117041670 B CN 117041670B
Authority
CN
China
Prior art keywords
viewpoint
electronic device
image
frame image
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202311286705.XA
Other languages
English (en)
Other versions
CN117041670A (zh
Inventor
施嘉呈
王浩
李昌盛
王千
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honor Device Co Ltd
Original Assignee
Honor Device Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honor Device Co Ltd filed Critical Honor Device Co Ltd
Priority to CN202311286705.XA priority Critical patent/CN117041670B/zh
Publication of CN117041670A publication Critical patent/CN117041670A/zh
Application granted granted Critical
Publication of CN117041670B publication Critical patent/CN117041670B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Medical Informatics (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本申请实施例提供一种图像处理方法及相关设备。该方法包括:第一电子设备与第二电子设备建立视频通信;第一电子设备采用摄像头采集得到第一帧图像;第一帧图像中包括第一对象,在第一帧图像中,第一对象的视点为第一视点;第一电子设备向第二电子设备发送第二帧图像;第二帧图像为第一电子设备对第一帧图像中,第一对象的视点进行转换后得到的;在第二帧图像中,第一对象的视点为第二视点;其中,第一电子设备中预设有第二视点,且第二视点与第一视点不同。这样,电子设备和/或其他电子设备中可以显示满足视点要求的图像,从而提升用户面部表情沟通效益,也可提升视频的美观性。

Description

图像处理方法及相关设备
技术领域
本申请涉及终端技术领域,尤其涉及一种图像处理方法及相关设备。
背景技术
电子设备可设置摄像头,例如,电子设备可以为个人计算机(personal computer,PC)、笔记本电脑、手机等。其中,笔记本电脑可在屏幕上方设置摄像头,使得笔记本电脑能够实现视频会议、视频通话等功能。
但是,在视频会议或视频通话等场景中,会出现一些用户的图像角度与正脸角度偏差较大的问题,使得用户图像的美观性变差,影响用户体验。
发明内容
本申请实施例提供一种图像处理方法及相关设备,应用于终端技术领域。在得到视点与预设视点偏差较大的图像时,将图像中的视点转换为预设视点,并在电子设备和/或其他电子设备上显示满足视点要求的图像,提升用户使用体验。
第一方面,本申请实施例提出一种图像处理方法,应用于包括摄像头的第一电子设备,该方法包括:方法包括:第一电子设备与第二电子设备建立视频通信;第一电子设备采用摄像头采集得到第一帧图像;第一帧图像中包括第一对象,在第一帧图像中,第一对象的视点为第一视点;第一电子设备向第二电子设备发送第二帧图像;第二帧图像为第一电子设备对第一帧图像中,第一对象的视点进行转换后得到的;在第二帧图像中,第一对象的视点为第二视点;其中,第一电子设备中预设有第二视点,且第二视点与第一视点不同。这样,第一电子设备可将真实视点的图像转换为预设视点的图像,从而得到满足视点要求的图像;例如,第一电子设备可将视点在下巴的人脸图像转换为正面人脸图像,从而提升用户面部表情沟通效益,也可提升视频的美观性。
在一种可能的实现方式中,第一电子设备采用摄像头采集得到第三帧图像;第三帧图像中包括第一对象,在第三帧图像中,第一对象的视点为第三视点,第三视点与第一视点不同;第一电子设备向第二电子设备发送第四帧图像;第四帧图像为第一电子设备对第三帧图像中,第一对象的视点进行转换后得到的;在第四帧图像中,第一对象的视点为第二视点。这样,当用户使用第一电子设备进行视频通信时,第一电子设备可将任一非预设视点的图像转换为预设视点的图像,从而得到满足视点要求的图像;例如,第一电子设备可将非正面人脸图像均转换为正面人脸图像,从而提升用户面部表情沟通效益,也可提升视频的美观性。
在一种可能的实现方式中,第一电子设备中存储有第一对象的多个对象特征模板,任一对象特征模板为第一对象在一个视点对应的特征模板;在第一电子设备向第二电子设备发送第二帧图像之前,还包括:第一电子设备识别第一帧图像中第一对象的特征点,将第一对象的特征点转换为第一对象的特征向量,并生成第一对象特征模板;当第一对象特征模板与任一个对象特征模板中存在相似度大于或等于相似度阈值时,第一电子设备结合多个对象特征模板中第二视点的对象特征模板,将第一帧图像转换为第二帧图像。这样,当第一电子设备校验第一帧图像中的第一对象的身份后,第一电子设备可对第一帧图像进行视点转换,得到满足视点要求的图像,从而提升了本申请实施例中图像处理方法的准确性和安全性。
在一种可能的实现方式中,第一电子设备结合多个对象特征模板中第二视点的对象特征模板,将第一帧图像转换为第二帧图像,包括:第一电子设备将第二视点的对象特征模板中的部分特征点与第一帧图像中第一对象的特征点进行融合,得到第二帧图像。这样,电子设备可得到预设视点下的第二帧图像,从而得到满足视点要求的图像。
在一种可能的实现方式中,在第一电子设备与第二电子设备建立视频通信之前,还包括:第一电子设备显示第一界面,第一界面中包括第一按钮,第一按钮处于关闭状态;其中,第一按钮的状态包括:开启状态和关闭状态;当第一按钮的状态为开启状态时,第一电子设备在第一对象进行视频通信时,输出预设视点的帧图像;当第一按钮的状态为关闭状态时,第一电子设备在第一对象进行视频通信时,输出摄像头采集的帧图像;第一电子设备接收到针对第一按钮的触发操作;响应于针对第一按钮的触发操作,第一电子设备将关闭状态的第一按钮设置为开启状态的第一按钮。这样,用户可根据自身需求选择是否使用第一电子设备中的视点转换功能,提升用户使用体验。
在一种可能的实现方式中,第一界面中还包括第二按钮,第二按钮用于指示第一电子设备使用摄像头采集第一对象的图像;在第一电子设备显示第一界面之后,还包括:第一电子设备接收到针对第二按钮的触发操作;响应于针对第二按钮的触发操作,第一电子设备显示第二界面,第二界面中包括第一对象和提示信息;提示信息包括提示文字和/或提示语音;提示信息用于指示第一对象转动头部;电子设备采用摄像头采集到多张第一对象的图像。这样,第一电子设备可预先采集第一对象的信息。设置场景中的第一对象的信息可在使用场景中作为第一对象视点转换和身份校验的依据,以使第一电子设备能够准确的得到目标人脸图像。
在一种可能的实现方式中,在电子设备采用摄像头采集到多张第一对象的图像之后,还包括:电子设备识别任一第一对象的图像中第一对象的特征点,将第一对象的特征点转换为第一对象的特征向量,并生成多个视点下的对象特征模板。这样,第一电子设备可得到第一对象在各个视点下的对象特征模板,以便于后续能够准确的校验第一对象以及输出目标人脸图像。
在一种可能的实现方式中,第一界面中还包括第一区域,第一区域中显示有多个第三按钮;任一第三按钮对应有一个示意图,示意图中显示有一个视点的对象,任一示意图中,对象的视点均不相同;在第一电子设备显示第一界面之后,还包括:第一电子设备接收到针对第二视点对应的第三按钮的触发操作;响应于针对第二视点对应的第三按钮的触发操作,第一电子设备设置预设视点;其中,预设视点为第二视点;或者,第一电子设备未接收到针对任一第三按钮的触发操作;第一电子设备设置预设视点;其中,预设视点为默认视点,默认视点包括第二视点。这样,用户可根据自身需求设置预设视点,后续第一电子设备可输出满足预设视点的图像,提升用户的使用体验。
在一种可能的实现方式中,方法还包括:第一电子设备采用摄像头采集得到第五帧图像;第五帧图像中包括第一对象,在第五帧图像中,第一对象的视点为第四视点;第一电子设备基于第五帧图像识别到第一对象的头部向侧边转动,第一电子设备向第二电子设备发送第六帧图像;第六帧图像为第一电子设备对第五帧图像中,第一对象的视点进行转换后得到的;在第六帧图像中,第一对象的视点为第五视点;第五视点与第四视点不同;第一电子设备采用摄像头采集得到第七帧图像;第七帧图像中包括第一对象,在第七帧图像中,第一对象的视点为第六视点,第六视点与第四视点不同;第一电子设备基于第七帧图像识别到第一对象的头部向侧边转动,第一电子设备向第二电子设备发送第八帧图像;第八帧图像为第一电子设备对第七帧图像中,第一对象的视点进行转换后得到的;在第八帧图像中,第一对象的视点为第七视点;第七视点与第六视点不同;其中,第四视点的垂直角度和第五视点的垂直角度不相同,且第四视点的水平角度和第五视点的水平角度相同;第六视点的垂直角度和第七视点的垂直角度不相同,第六视点的水平角度和第七视点的水平角度相同;以及,第五视点的垂直角度、第七视点的垂直角度和第二视点的垂直角度相同。这样,第一电子设备可更加灵活、形象的展示用户图像,从而提升视频的美观性。
在一种可能的实现方式中,第一帧图像中还包括第二对象,在第一帧图像中,第二对象的视点为第一视点;第一对象与第二对象不同;第二帧图像中还包括第二对象,在第二帧图像中,第二对象的视点为第二视点。这样,当用户手部出镜时,第一电子设备可同时对人脸和手部进行视点转换,从而输出更加自然的满足视点要求的图像,进而提升用户的使用体验。
在一种可能的实现方式中,第一帧图像中还包括第二对象,在第一帧图像中,第二对象的视点为第一视点;第一对象与第二对象不同;第二帧图像中还包括第二对象,第二帧图像为第一电子设备将第二对象的图像与转换后的第一对象的图像进行图像融合后得到的;转换后的第一对象的图像为第一电子设备对第一帧图像中,第一对象的视点进行转换后得到的;第二对象的图像为第一电子设备对第一帧图像中,第二对象进行裁剪得到的;在第二帧图像中,第二对象的视点为第一视点。这样,第一电子设备可将视点转换后的人脸与未转换的手部进行融合,得到较为自然的第二帧图像;在一定程度上,也可减少第一电子设备的运算压力。
在一种可能的实现方式中,第一帧图像中还包括第二对象,在第一帧图像中,第二对象的视点为第一视点;第一对象与第二对象不同;第二帧图像中还包括第二对象,第二帧图像为第一电子设备将第二对象的图像与转换后的第一对象的图像上进行拼接得到的;转换后的第一对象的图像为第一电子设备对第一帧图像中,第一对象的视点进行转换后得到的;第二对象的图像为第一电子设备对第一帧图像中,第二对象进行裁剪得到的;在第二帧图像中,第二对象的视点为第一视点。这样,第一电子设备可将视点转换后的人脸与未转换的手部进行拼接,不进行融合,第二帧图像中,以类似分镜的形式,在部分区域显示脸部,部分区域显示手部;可减少第一电子设备的运算压力。
在一种可能的实现方式中,第二帧图像的分辨率与第一电子设备的网络质量、第二电子设备的网络质量、第一电子设备的运行能力和/或第二电子设备的运行能力有关;其中,第二帧图像的分辨率与第一电子设备的网络质量呈正相关;第二帧图像的分辨率与第二电子设备的网络质量呈正相关;第二帧图像的分辨率与第一电子设备的运行能力呈正相关;第二帧图像的分辨率与第二电子设备的运行能力呈正相关。这样,第一电子设备和/或第二电子设备可根据网络质量和/或运行能力调整图像分辨率,以使第一电子设备和/或第二电子设备能够流畅的显示图像。
第二方面,本申请实施例提供一种电子设备,电子设备也可以称为终端设备、终端(terminal)、用户设备(user equipment,UE)、移动台(mobile station,MS)、移动终端(mobile terminal,MT)等。终端设备可以是手机(mobile phone)、智能电视、穿戴式设备、平板电脑(Pad)、带无线收发功能的电脑、虚拟现实(virtual reality,VR)终端设备、增强现实(augmented reality,AR)终端设备、工业控制(industrial control)中的无线终端、无人驾驶(self-driving)中的无线终端、远程手术(remote medical surgery)中的无线终端、智能电网(smart grid)中的无线终端、运输安全(transportation safety)中的无线终端、智慧城市(smart city)中的无线终端、智慧家庭(smart home)中的无线终端等等。
该电子设备包括:包括:处理器和存储器;存储器存储计算机执行指令;处理器执行存储器存储的计算机执行指令,使得电子设备执行如第一方面的任意一种可能的实现方式中描述的第一电子设备执行的方法,或执行如第一方面的任意一种可能的实现方式中描述的第二电子设备执行的方法。
第三方面,本申请实施例提供一种计算机可读存储介质,计算机可读存储介质存储有计算机程序。计算机程序被处理器执行时实现如第一方面的任意一种可能的实现方式中描述的第一电子设备执行的方法;或实现如第一方面的任意一种可能的实现方式中描述的第二电子设备执行的方法。
第四方面,本申请实施例提供一种计算机程序产品,计算机程序产品包括计算机程序,当计算机程序被运行时,使得计算机执行如第一方面的任意一种可能的实现方式中描述的第一电子设备执行的方法;或执行如第一方面的任意一种可能的实现方式中描述的第二电子设备执行的方法。
第五方面,本申请实施例提供了一种芯片,芯片包括处理器,处理器用于调用存储器中的计算机程序,以执行如第一方面的任意一种可能的实现方式中描述的第一电子设备执行的方法;或执行如第一方面的任意一种可能的实现方式中描述的第二电子设备执行的方法。
应当理解的是,本申请的第二方面至第五方面与本申请的第一方面的技术方案相对应,各方面及对应的可行实施方式所取得的有益效果相似,不再赘述。
附图说明
图1为各个视点下图像所呈现效果的示意图;
图2为可能的实现中一种摄像头设置方式的示意图;
图3为可能的实现中三种低角度摄像头设置方式的示意图;
图4为可能的实现中低角度摄像头所拍摄图像的示意图;
图5为本申请实施例提供的一种电子设备100的硬件结构示意图;
图6为本申请实施例提供的一种电子设备100的软件结构框图;
图7为本申请实施例提供的设置场景的界面示意图;
图8为本申请实施例提供的设置场景的流程示意图;
图9为本申请实施例提供的采集用户脸部信息的示意图;
图10为本申请实施例提供的标记有人脸特征点的人脸图像;
图11为本申请实施例提供的设置场景的示意图;
图12A为本申请实施例提供的一种使用场景的界面示意图;
图12B为本申请实施例提供的另一种使用场景的界面示意图;
图13为本申请实施例提供的使用场景的流程示意图;
图14为本申请实施例提供的两种视点转换的场景示意图;
图15为本申请实施例提供的使用场景的示意图;
图16为本申请实施例提供的不同分辨率下的人脸图像;
图17为本申请实施例提供的用户摇头场景的界面示意图;
图18为本申请实施例提供的用户摇头场景的示意图;
图19为本申请实施例提供的用户脸部与手部图像同步显示的界面示意图;
图20为本申请实施例提供的一种图像处理方法的流程示意图;
图21为本申请实施例提供的一种图像处理装置的结构示意图。
具体实施方式
为了便于清楚描述本申请实施例的技术方案,以下,对本申请实施例中所涉及的部分术语和技术进行简单介绍:
1、视点:视点可以为摄像头的视点,摄像头的视点为摄像头对物体进行拍摄时拍摄点所在的位置。例如,电子设备上设置有摄像头,当电子设备开启视频会议等功能时,用户看到的图像为摄像头以其视点采集的图像。本申请实施例中,视点也可以为虚拟摄像头对三维模型进行虚拟拍摄时拍摄点所在的位置。
例如,图1示出了多个视点下所呈现的图像。其中,图1中的a图示出了9种不同方向的视点,各个视点可以视为摄像机的拍摄点,例如,摄像头可从左上方的视点1、正上方的视点2、右上方的视点3、左侧的视点4、正面的视点5、右侧的视点6、左下方的视点7、正下方的视点8和右下方的视点9等方向拍摄用户,电子设备可得到如图1中的b图所示的图像。图1中的b图示出了各个视点下的图像。
在图1中的a图,摄像头位于视点1、视点2或视点3时可以为高角度摄像头;摄像头位于视点7、视点8或视点9时可以为低角度摄像头。其中,本申请实施例中,摄像头在视点5拍摄的图像(视点5的图像)为正面人脸图像。
本申请实施例仅示例性的示出了九种视点,实际应用中,摄像头可位于更多视点,本申请实施例对此不作限制。
本申请实施例中,视点可以为真实视点,也可以为虚拟视点;其中,摄像头拍摄点的位置可以为真实视点,将真实视点进行视点转换后的拍摄点的位置可以为虚拟视点。
本申请实施例中,“示例性的”或者“例如”等词用于表示作例子、例证或说明。本申请中被描述为“示例性的”或者“例如”的任何实施例或设计方案不应被解释为比其他实施例或设计方案更优选或更具优势。确切而言,使用“示例性的”或者“例如”等词旨在以具体方式呈现相关概念。
本申请实施例中,“至少一个”是指一个或者多个,“多个”是指两个或两个以上。“和/或”,描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B的情况,其中A,B可以是单数或者复数。字符“/”一般表示前后关联对象是一种“或”的关系。“以下至少一项(个)”或其类似表达,是指的这些项中的任意组合,包括单项(个)或复数项(个)的任意组合。例如,a,b,或c中的至少一项(个),可以表示:a,b,c,a-b,a-c,b-c,或a-b-c,其中a,b,c可以是单个,也可以是多个。
需要说明的是,本申请实施例中的“在……时”,可以为在某种情况发生的瞬时,也可以为在某种情况发生后的一段时间内,本申请实施例对此不作具体限定。此外,本申请实施例提供的显示界面仅作为示例,显示界面还可以包括更多或更少的内容。
电子设备可设置摄像头,例如,电子设备可以为个人计算机(personal computer,PC)、笔记本电脑、手机等。其中,笔记本电脑可在屏幕上方设置摄像头,使得笔记本电脑能够实现视频会议、视频通话等功能。
示例性的,图2示出了可能的实现中的一种摄像头设置方式,如图2所示:
电子设备100可以为笔记本电脑。
在图2所示的场景中,电子设备100的显示屏上设置有摄像头193,且摄像头193位于显示屏的上边框的中部。
实际使用场景中,用户在使用电子设备的摄像头功能时,摄像头与用户面部的高度大体持平,如图2中的b所示场景。所以摄像头所拍摄的图像可以较好的反映用户面部表情,如图2中的b图中右侧的正面人脸图像。
为了提升笔记本电脑中显示屏的屏占比,一些场景中,笔记本电脑可使用低角度摄像头来减小上边框的宽度,例如,低角度摄像头可被设置在笔记本电脑的屏幕下方或隐藏在键盘中。
图3示出了可能的实现中的三种低角度摄像头设置方式,如图3所示:
在图3中的a所示场景中,电子设备100的显示屏上设置有摄像头193,且摄像头193位于显示屏的下边框的中部。可以看出,为了提升显示区域的屏占比,电子设备100的上边框、左边框和右边框均进行极窄化处理,这使得上边框的宽度不再能够放置摄像头193。为了不减少电子设备100的拍摄功能,将摄像头193放置在下边框。
在图3中的b所示场景中,电子设备100的显示屏上设置有摄像头193,且摄像头193也可位于显示屏的下边框的左侧或者右侧。
在图3中的c所示场景中,电子设备100中的摄像头193与键盘中的按键相结合,摄像头193占用一个按键的位置,例如,摄像头193位于键盘区域中最靠近屏幕的一排按键的位置。用户可通过按压操作或者滑动操作切换摄像头功能与按键功能。这样,电子设备100的上边框、下边框、左边框和右边框均可以进行极窄化处理,进一步提升显示区域的屏占比。
然而实际应用中,低角度的摄像头可能无法满足用户的需求,用户在使用低角度摄像头时往往会出现下述问题:
例如,图4示出了低角度摄像头拍摄的场景示意图。
以摄像头设置在电子设备的键盘按键中为例,用户在使用电子设备的摄像头功能时,摄像头的高度要低于用户面部的高度,摄像头对用户进行仰拍,电子设备得到的用户图像会出现变形。例如,在视频会议过程中,用户往往需要面朝屏幕,以便于注视会议内容,如图4中的a场景所示;这时,摄像头采集的用户图像会突出显示用户的下巴、鼻子等部位,面部无法正面面对摄像头,面部表情沟通效益降低,且图像较不美观,如图4中的b所示图像。又例如,用户可低头注视摄像头,以保证摄像头能够采集到用户正面的面部图像,但用户可能无法观看显示屏,影响用户的使用体验。
有鉴于此,本申请实施例提供了一种图像处理方法,电子设备在得到视点与预设视点偏差较大的图像时,先将视点处理到与预设视点差不多的位置,得到调整视点后的图像之后,显示调整视点后的图像,和/或,将调整视点后的图像发送给其他电子设备显示,这样,电子设备和/或其他电子设备中可以显示满足视点要求的图像。例如,在图4中的a所示场景中,电子设备可将视点在下巴的人脸图像转换为正面人脸图像,从而提升用户面部表情沟通效益,也可提升视频的美观性。
本申请实施例中,电子设备:也可以称为终端设备、终端(terminal)、用户设备(user equipment,UE)、移动台(mobile station,MS)、移动终端(mobile terminal,MT)等。终端设备可以是手机(mobile phone)、智能电视、可穿戴设备、平板电脑(Pad)、带无线收发功能的电脑、虚拟现实(virtual reality,VR)终端设备、增强现实(augmented reality,AR)终端设备、工业控制(industrial control)中的无线终端、无人驾驶(self-driving)中的无线终端、远程手术(remote medical surgery)中的无线终端、智能电网(smart grid)中的无线终端、运输安全(transportation safety)中的无线终端、智慧城市(smart city)中的无线终端、智慧家庭(smart home)中的无线终端等等。
其中,可穿戴设备也可以称为穿戴式智能设备,是应用穿戴式技术对日常穿戴进行智能化设计、开发出可以穿戴的设备的总称,如眼镜、手套、手表、服饰及鞋等。可穿戴设备即直接穿在身上,或是整合到用户的衣服或配件的一种便携式设备。可穿戴设备不仅仅是一种硬件设备,更是通过软件支持以及数据交互、云端交互来实现强大的功能。广义穿戴式智能设备包括功能全、尺寸大、可不依赖智能手机实现完整或者部分的功能,例如:智能手表或智能眼镜等,以及只专注于某一类应用功能,需要和其它设备如智能手机配合使用,如各类进行体征监测的智能手环、智能首饰等。
此外,在本申请实施例中,电子设备还可以是物联网(internet of things,IoT)***中的电子设备,IoT是未来信息技术发展的重要组成部分,其主要技术特点是将物品通过通信技术与网络连接,从而实现人机互连,物物互连的智能化网络。本申请的实施例对电子设备所采用的具体技术和具体设备形态不做限定。
在本申请实施例中,电子设备可以包括硬件层、运行在硬件层之上的操作***层,以及运行在操作***层上的应用层。该硬件层包括中央处理器(central processingunit,CPU)、内存管理单元(memory management unit,MMU)和内存(也称为主存)等硬件。该操作***可以是任意一种或多种通过进程(process)实现业务处理的计算机操作***,例如,Linux操作***、Unix操作***、Android操作***、iOS操作***或windows操作***等。该应用层包含浏览器、通讯录、文字处理软件、即时通信软件等应用。
本申请实施例中,电子设备可以为笔记本电脑,电子设备也可以是其他电子设备形态,本申请实施例对此不作限制。
示例性的,图5示出了电子设备的结构示意图。
电子设备可以包括处理器110,外部存储器接口120,内部存储器121,通用串行总线(universal serial bus,USB)接口130,充电管理模块140,电源管理模块141,电池142,无线通信模块160,音频模块170,扬声器170A,受话器170B,麦克风170C,耳机接口170D,按键190,指示器192,摄像头193,以及显示屏194等。
可以理解的是,本发明实施例示意的结构并不构成对电子设备的具体限定。在本申请另一些实施例中,电子设备可以包括比图示更多或更少的部件,或者组合某些部件,或者拆分某些部件,或者不同的部件布置。图示的部件可以以硬件,软件或软件和硬件的组合实现。
处理器110中可以设置存储器,用于存储指令和数据。在一些实施例中,处理器110中的存储器为高速缓冲存储器。该存储器可以保存处理器110刚用过或循环使用的指令或数据。如果处理器110需要再次使用该指令或数据,可从上述存储器中直接调用。避免了重复存取,减少了处理器110的等待时间,因而提高了***的效率。
本申请实施例中,处理器110能够在采集到用户人脸图像后,可将人脸图像中五官轮廓对应的像素点转换为特征向量,生成特征向量模板;处理器110中的存储器可用于存储特征向量模板。
内部存储器121可以用于存储计算机可执行程序代码,可执行程序代码包括指令。内部存储器121可以包括存储程序区和存储数据区。其中,存储程序区可存储操作***,至少一个功能所需的应用程序(比如声音播放功能,图像播放功能等)等。存储数据区可存储电子设备使用过程中所创建的数据(比如音频数据,电话本,本申请实施例的特征向量模板等)等。此外,内部存储器121可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件,闪存器件,通用闪存存储器(universal flash storage,UFS)等。处理器110通过运行存储在内部存储器121的指令,和/或存储在设置于处理器中的存储器的指令,执行电子设备的各种功能应用以及数据处理。例如,本申请实施例中,处理器可以通过运行内部存储器中存储的指令,使电子设备执行本申请实施例提供的图像处理方法。
电子设备通过GPU,显示屏194,以及应用处理器等实现显示功能。GPU为图像处理的微处理器,连接显示屏194和应用处理器。GPU用于执行数学和几何计算,用于图形渲染。处理器110可包括一个或多个GPU,其执行程序指令以生成或改变显示信息。电子设备可以通过ISP,摄像头193,视频编解码器,GPU,显示屏194以及应用处理器等实现拍摄功能。
摄像头193用于捕获静态图像或视频。在一些实施例中,电子设备可以包括1个或N个摄像头193,N为大于1的正整数。
本申请实施例中,在电子设备采集用户信息的过程中,摄像头193可采集图像;在视频会议过程中,摄像头193可实时采集图像。
显示屏194用于显示图像,视频等。显示屏194包括显示面板。在一些实施例中,电子设备可以包括1个或N个显示屏194,N为大于1的正整数。电子设备通过GPU,显示屏194,以及应用处理器等实现显示功能。GPU为图像处理的微处理器,连接显示屏194和应用处理器。
本申请实施例中,显示屏194可用于显示视点变换后的人脸图像。
电子设备100的软件***可以采用分层架构,事件驱动架构,微核架构,微服务架构,或云架构,等。本申请实施例以分层架构的Windows***为例,示例性说明电子设备100的软件结构。
图6是本申请实施例的终端设备的软件结构框图。
分层架构将软件分成若干个层,每一层都有清晰的角色和分工。层与层之间通过软件接口通信。在一些实施例中,将Windows***包括应用层和操作***(operatingsystem,OS)层。
如图6所示,应用层包括多个应用程序,例如,设置应用和视频通信应用。其中,设置应用中设置有开启本申请实施例的图像处理方法的入口,可基于设置应用开启图像处理方法;设置应用还可用于设置输出图像中对象的预设视点,以及获取对象的信息;设置应用可以例如电脑管家应用。视频通信应用用于与其他电子设备进行视频通信,视频通信应用可以例如视频通话应用和视频会议应用。
以图像中的对象是人脸为例。OS层包括用于获取及处理人脸图像的相关模块。例如,OS层可包括:人像采集模块、人脸识别模块、特征比对模块、视点转换模块和数据库。其中,人像采集模块例如用于接收硬件层的摄像头上传的人脸图像;人脸识别模块例如用于将人脸图像转换为人脸特征模板;特征比对模块例如用于用户身份鉴别;视点转换模块例如用于转换人脸图像中人脸的视点;数据库例如用于存储人脸特征模板。
需要说明的是,本申请实施例仅以Windows***举例来说明,在其他操作***中(例如安卓***,IOS***等),只要各个功能模块实现的功能和本申请的实施例类似,也能实现本申请的方案。
下面结合图6介绍两种可能的实现场景:
一种可能的实现方式中,电子设备在设置应用中进行操作,设置应用可通知底层开始采集用户脸部信息。摄像头采集各个视点的人脸图像,并将各个视点的人脸图像通过人像采集模块上报至人脸识别模块;人脸识别模块将各个视点的人脸图像转换为各个视点的人脸特征模板;人脸识别模块将各个视点的人脸特征模板经过数据库存储到存储器中。
另一种可能的实现方式中,电子设备在视频通信应用中进行操作,视频通信应用可通知底层开始采集待处理图像。摄像头采集待处理图像,并将待处理图像通过人像采集模块上报至人脸识别模块;人脸识别模块将待处理图像转换为待处理图像的人脸特征模板;人脸识别模块将待处理图像的人脸特征模板传递至特征比对模块;特征比对模块经数据库读取存储器中的各个视点的人脸特征模板;特征比对模块将待处理图像的人脸特征模板与各个视点的人脸特征模板进行比对,以校验用户身份;校验成功后,特征比对模块可通知视点转换模块进行视点转换;视点转换模块将待处理图像中人像的原始视点转换为预设视点,得到目标人脸图像;视点转换模块将目标人脸图像上报至视频通信应用。后续,电子设备可基于视频通信应用显示目标人脸图像,或者电子设备将目标人脸图像发送给与其视频通信的其他电子设备。
下面结合图7对本申请实施例中的图像处理方法的使用场景进行说明。图7示出了本申请实施例提供的一种图像处理方法的界面示意图,如图7所示:
以电子设备的显示屏的下边框设置有摄像头为例,电子设备中设置有使用本申请实施例提供的图像处理方法的开关。用户触发该开关后,电子设备可将摄像头采集到的人脸图像显示为正面人脸图像。
一种可能的实现方式中,用于启动本申请实施例的图像处理方法的开关可置于电脑管家应用中。示例性的,电子设备可启动电脑管家应用,电子设备显示如图7中的a所示界面。图7中的a所示界面可包括多个设置选项,例如,首页、智慧互联、多屏协同、***优化、应用推荐、智慧视听701和故障排查等;其中,智慧视听701的设置选项中可包括相机设置的按钮702、显示设置的按钮和音频设置的按钮等。用于启动本申请实施例的图像处理方法的开关可设置在相机设置的相关功能中。
示例性的,当电子设备接收到针对相机设置的按钮702的触发操作时,电子设备进入相机设置界面,如图7中的b所示界面。在图7中的b所示界面中,电子设备可显示人像视点转换的开关703、设置人像视点的按钮、和设置用户人像的按钮705。其中,人像视点转换的开关703的状态可包括:开启状态和关闭状态。当人像视点转关的开关703处于开启状态时,电子设备可将第一视点的用户人像转换成预设视点的用户人像,并在显示屏上显示预设视点的用户人像,第一视点与预设视点不同。当人像视点转关的开关703处于关闭状态时,电子设备将在显示屏上显示摄像头采集到的第一视点的用户人像。
在电子设备开启人像视点转换的开关703之后,用户需要在电子设备中录入用户的面部信息,例如,用户人脸图像可以为包括用户人脸的视频帧图像。示例性的,在图7中的b所示界面中,当电子设备接收到针对设置用户人像的按钮705的触发操作时,电子设备显示用户人像采集界面,如图7中的c所示。在图7中的c所示界面中,用户可根据语音提示和/或文字提示进行面部信息采集。例如,图7中的c所示界面中显示有提示文字706,提示文字706可以为“请注视下方摄像头”、“请向左/右转动头部”、“请注视屏幕”、“请摇头/点头”、“请张嘴”等。又例如,在图7中的c所示界面中,电子设备可显示视点标记,且视点标记在显示屏中的位置处于变化状态,电子设备可通过改变视点标记的位置引导用户进行各个方向上的转头操作,从而得到各个视点下的用户人脸图像。
电子设备可采集该用户在各个角度下的人脸图像,并将人脸图像转化为特征向量模板,以便于后续电子设备执行校对用户身份以及转换图像视点的流程。
在电子设备开启人像视点转换的开关703之后,用户还可以自定义设置预设视点。示例性的,在用于设置人像视点的区域中,用户可选择心仪的视点作为预设视点。
一种可能的实现方式中,电子设备可显示多个视点下人像呈现效果的示意图704;用户可根据示意图704选择合适的输出人像的视点。例如,用户在图7中的b界面对视点5所对应的示意图(示意图704中虚线框所示视点)进行点击操作,电子设备将视点5设置为预设视点。后续,用户在进行会议过程中,电子设备可显示在视点5下的人脸图像。
另一种可能的实现方式中,电子设备可在已采集的用户的视频中进行抽帧操作,以提取多个视点下的人脸图片;示意图704可以显示为用户各个视点下的人脸图像,例如示意图704中虚线框所对应的图片可以为用户的正面人脸图像。这样,用户可以更加直观的浏览到视点转换后,图像所呈现的效果。
可选的,在用户在图7中的b所示界面中选中示意图704中任一视点后,电子设备可将该视点设置为预设视点,以及,电子设备可提供多张该预设视点下的人脸图像,用户在多张人脸图像中选择一张作为该预设视点的人脸图像。可以理解的是,在采集用户面部信息时,电子设备得到包括用户人脸的视频,其中,视频中可包括多帧预设视点下的人脸图像,电子设备可提供多张人脸图像,让用户选择拍摄效果较好的图像,用于后续的视点转换。
本申请实施例中,若用户未设置人像视点,则电子设备可将预设视点设置为默认视点,例如,默认视点可对应于图1中的b图所示的视点5的图像(正面人脸图像)。可以理解的是,在图4所示场景中,本申请实施例主要解决的技术问题为:如何使得低角度摄像头拍摄的人脸图像呈现出正面人脸图像的效果,所以本申请实施例可将默认视点设置为视点5。在其他应用场景中,电子设备也可将其他视点设置为默认视点,本申请实施例对此不作限制。
需要说明的是,本申请实施例仅示例性的结合图7对本申请实施例中的图像处理方法的入口进行说明。在实际应用中,图7并不对电子设备的界面造成限制,以及人像视点转换的开关703也可设置其他应用中,本申请实施例对此不做限制。
此外,本申请实施例仅以摄像头采集的图像为人脸图像为例,对本申请实施例的图像处理方法进行说明。本申请实施例中,图像中的对象也可以是其他物体;例如,动物,植物等,本申请实施例对此不做限制。
同时,本申请所涉及的用户信息(包括但不限于用户设备信息、用户个人信息等)和数据(包括但不限于用于分析的数据、存储的数据、展示的数据等),均为经用户授权或者经过各方充分授权的信息和数据,并且相关数据的收集、使用和处理需要遵守相关国家和地区的相关法律法规和标准,并提供有相应的操作入口,供用户选择授权或者拒绝。
以上实施例对本申请实施例的图像处理方法的设置界面进行了说明。下面分别结合图8和图11对本申请实施例的图像处理方法的流程进行说明。
在设置场景中,图8示出了本申请实施例提供的图像处理方法的流程示意图,如图8所示:
S801、电子设备显示用于开启人像视点转换的界面。
电子设备运行设置应用,例如,电脑管家,且电子设备显示相机设置界面。电脑管家中设置有本申请实施例的图像处理方法的入口,相机设置界面可对应于图7中的b所示界面。
本申请实施例中,电子设备也可基于其他应用设置人像视点转换的入口。
S802、当电子设备接收到用于开启人像视点转换的开关的触发操作时,电子设备将人像视点转换的开关设置为开启状态。
在接收到针对人像视点转换的开关703的触发操作时,电子设备可将人像视点转换的开关703由关闭状态更新为开启状态,以便于后续电子设备可执行本申请实施例提供的图像处理方法的流程。
S803、当电子设备接收到用于采集用户人像的触发操作时,电子设备进入用户人像采集界面。
用于采集用户人像的触发操作可以对应于:在图7中的b所示界面中,针对设置用户人像的按钮705的触发操作。用户人像采集界面可对应于图7中的c所示界面。
S804、电子设备的摄像头采集用户各个视点下的人脸图像,并上报至人像采集模块。
电子设备采集图像的过程可如图9所示:电子设备启动摄像头后,用户可根据提示信息执行相应的姿势,以使摄像头采集到各个视点下的人脸图像。
可以理解的是,在用户执行注视、左转头、右转头、点头、摇头等动作时,电子设备采集到的是多张人脸图像。人脸图像中可包括各个视点下的用户人脸。本申请实施例仅示例性的通过图9表示多张人脸图像,对实际应用过程中,电子设备采集的人脸图像数量不造成限制。
一种可能的实现方式中,在人脸图像采集过程中,电子设备可将已采集的人脸图像存储在人像采集模块;待用户人像采集完成后,人像采集模块可将多张人脸图像传递至人脸识别模块,并执行步骤S805。
另一种可能的实现方式中,在摄像头采集任一帧人脸图像时,人像采集模块可实时的将该帧人脸图像传递至人脸识别模块,并执行步骤S805。
S805、电子设备的人脸识别模块得到多张人脸图像,并对任一人脸图像中的人脸特征点进行识别。
人脸特征点可包括:五官轮廓对应的像素点和脸部轮廓对应的像素点,例如,眉毛、眼睛、鼻子、嘴巴和脸部轮廓的像素点。示例性的,图10为一张标记有人脸特征的人脸图像;其中,图中的任一个圆点可对应于五官或脸部轮廓的像素点;一些实施例中,特征点的个数可以为68或78。
电子设备得到人脸图像后,可对人脸图像中的人脸特征点进行标记,任一人脸特征点对应一个标记编号和坐标值,人脸特征点的表示形式可以为标记编号:(X坐标,Y坐标)。例如,电子设备可得到标记68个人脸特征点的人脸图像,人脸特征点的编号可从0至67;其中,左脸最外侧对应的人脸特征点的编号可以例如0,左侧嘴角对应的人脸特征点的编号可以例如48,右侧嘴角对应的人脸特征点的编号可以例如54,人脸特征点的表示形式可以例如1:(100,69)。本申请实施例对此不再一一列举。
一些实施例中,电子设备可使用人脸特征提取算法执行人脸图像中人像特征点提取的工作,例如,dlib库、深度学习方式、opencv、insightface等。本申请实施例对此不做限制。
S806、电子设备的人脸识别模块将任一人脸图像中的任一人脸特征点转换为对应的特征向量,并生成人脸特征模板。
人脸识别模块可以将人脸图像中任一人脸特征点转化为用数字表示的特征向量,特征向量可以为该人脸特征点在高维空间的表示。具体的,例如,在一张人脸图像中,编号为0的人脸特征点可以用特征向量1表示;编号为1的人脸特征点可以用特征向量2表示……人脸识别模块可遍历该人脸图像中全部的人脸特征点,得到68个与人脸特征点对应的特征向量。
对于任一张人脸图像,在得到各个人脸特征点对应的特征向量后,人脸识别模块可基于这些特征向量生成人脸特征模板;其中,人脸特征模板可以理解为该人脸图像中人脸特征点的特征向量表。任一人脸特征模板可对应该用户在一个视点对应的特征模板;在一个视点下,可存在一个或多个人脸特征模板。
本申请实施例中,如图11所示,电子设备可通过如图11中的a所示场景和图11中的b图采集完成用户的人脸信息,电子设备可得到N张人脸图像。当电子设备采集到N张人脸图像后,电子设备可将N张人脸图像转换为N个人脸特征模板,例如,人脸特征模板1至人脸特征模板N,任一人脸特征模板对应一张人脸图像,如图11中的c图所示。电子设备可得到多个人脸特征模板。
可选的,S807、电子设备接收到用于设置预设视点的操作。
例如,在图7中的b所示场景中,用户输入预设视点,电子设备接收到用于设置预设视点的操作。在接收到用户设置预设视点的操作后,电子设备可执行步骤S808。
S808、电子设备的人脸识别模块在多个人脸特征模板中为预设视点的人脸特征模板添加标签。
电子设备可得到多个人脸特征模板,电子设备可将预设视点下的人脸图像的人脸特征模板添加标签,例如,如图11中的c所示,人脸特征模板3对应的视点为预设视点,电子设备对人脸特征模板3进行标记。
具体的,一些实施例中,在图7中的b所示场景下,用户可选择示意图704中的任一视点下的图像;电子设备可显示多张预设视点下的人脸图像;电子设备再次接收到针对任一人脸图像的选中操作;电子设备可将该人脸图像对应的人脸特征模板进行标签。
可以理解的是,电子设备采集用户脸部信息时,电子设备得到的是多个视频帧;在一个视点下,可存在一张或多张人脸图像;电子设备可将预设视点下的多张人脸图像筛选出来,供用户选择。用户可选择心仪的人脸图像作为预设视点下的人脸图像。电子设备可将用户选中的人脸图像对应的人脸特征模板打上标签。
本申请实施例对预设视点的标签的表现形式不做限制。
S809、电子设备的人脸识别模块将多个人脸特征模板进行存储。
示例性的,电子设备可通过OS层的数据库将人脸特征模板存储到存储器中,以便于后续调用人脸特征模板。
可选的,在步骤S806之后,还可包括:
S810、电子设备未接收到用于设置预设视点的操作,电子设备将预设视点设置为默认视点。
可以理解的是,在图7所示场景中,在用户未设置预设视点的情况下,电子设备可将预设视点设置为默认视点,例如,默认视点可以为视点5。
在步骤S810后,电子设备可继续执行步骤S808和步骤S809,可参考上述描述,此处不再赘述。
其中,在步骤S808中,一种可能的实现方式中,电子设备可在将默认视点设置为预设视点后,显示预设视点下的多张人脸图像,供用户选择最佳的人脸图像。电子设备将被选中的人脸图像对应的人脸特征模板进行标签。
另一种可能的实现方式中,电子设备在将默认视点设置为预设视点后,电子设备不显示预设视点下的多张人脸图像;电子设备可预存有各个示意图对应的人脸特征点和人脸特征向量;人脸识别模块可将该图像的特征向量分别与多个人脸特征模板中的特征向量进行比对,得到各个人脸特征模板与该图像的特征向量的相似度,根据相似度的大小得到与该预设视点对应的人脸特征模板,并进行标签。根据相似度的大小得到与该预设视点对应的人脸特征模板,可以例如,电子设备可将相似度最大的人脸特征模板进行标签。
需要说明的是,本申请实施例中,用户可更新预设视点,当预设视点更新时,电子设备可清除有标签的人脸特征模板的标签,并对新的预设视点对应的人脸特征模板进行标签。
这样,电子设备可得到用户在各个视点下的多个人脸特征模板,后续可基于人脸特征模板实现用户身份校验、人脸图像视点转换等流程。
下面对本申请实施例中的图像处理方法的使用过程进行说明。本申请实施例提供的图像处理方法可应用在用户使用电子设备录制视频的场景中,例如,用户可以使用电子设备进行录课活动。示例性的,图12A示出了本申请实施例提供的一种图像处理方法的界面示意图,如图12A所示:
以预设视点为能够显示正面人脸图像的视点为例,用户在使用电子设备录制视频,用户的姿势如图12A中的a图所示,用户面部正对显示屏,且用户未面向摄像头方向。电子设备可以显示预设视点下的用户人脸图像。例如,预设视点为视点5,电子设备可显示用户的正面人脸图像,例如图12A中的b所示界面。
可以理解的是,在该场景中,电子设备的摄像头采集的图像为第一视点,第一视点可对应视点8的图像;但电子设备并不会输出视点8的图像,而是在显示屏上显示预设视点下的图像。
当预设视点设置为其他视点时,电子设备也可显示其他视点下的人脸图像,本申请实施例对此不做限制。
本申请实施例提供的图像处理方法也可适用于视频会议、视频通话等交互场景中。例如,图12B示出了本申请实施例提供的另一种图像处理方法的界面示意图,如图12B所示:
在图12B中的a所示场景中,用户A在使用电子设备100与用户B的电子设备101进行视频会议通信,其中,电子设备100的摄像头为低角度摄像头,电子设备101的摄像头为正常角度的摄像头;电子设备100可使用本申请实施例提供的图像处理方法进行视频。
例如,以预设视点为视点5为例,在图12B中的b所示界面中,电子设备100可显示用户B的图像,电子设备100也可在窗口中显示用户A的图像;其中,用户A的图像中,用户A的视点为电子设备100中的预设视点。与此同时,电子设备101可实时接收电子设备100发送的用户A的图像,并在电子设备101的显示屏上显示出用户A的图像;其中,用户A的图像中,用户A的视点仍为电子设备100中的预设视点。
可以看出,电子设备100对采集到的图像进行处理,得到预设视点下的用户A的人脸图像,用户A可在会议过程中通过小窗口看到自己正面的人脸图像;电子设备100也可将预设视点下的用户A的人脸图像发送给电子设备101,以使电子设备101显示预设视点下的用户A的人脸图像,这样,用户B在电子设备101上看到用户A的正面人脸,进而可提升面部沟通的效益,也提升人脸图像的美观性。
以上实施例对图像处理方法的使用场景进行说明,下面结合图12B所示的使用场景和图13,对图像处理方法的执行流程进行说明。图13示出了本申请实施例提供的图像处理方法的流程示意图,如图13所示:
S1301、电子设备运行视频通信应用。
本申请实施例中,电子设备可以为图12B中的电子设备100。视频通信应用可以为能够使用摄像头录制视频的应用,例如,视频通信应用可以为支持视频会议的应用、支持视频通话的应用等。
S1302、电子设备的摄像头拍摄到待处理图像,并将待处理图像上传到人像采集模块。
摄像头采集的待处理图像中,人脸的视点可以为第一视点。
可以理解的是,待处理图像可以为在如图12B中的a所示场景下拍摄到的人脸图像。当电子设备的摄像头为低角度摄像头时,摄像头采集的图像往往呈现出图1中的视点7的图像至视点9的图像所示的效果。第一视点可以例如为视点7、视点8、视点9等。
电子设备在视频会议的场景中时,摄像头采集到的待处理图像往往是实时的,摄像头每采集一帧待处理图像,可将该待处理图像暂存在人像采集模块,并将该待处理图像传递到人脸识别模块。为降低人像采集模块的存储压力,电子设备对任一帧待处理图像进行处理后,可清除人像采集模块中的该待处理图像。
需要说明的是,本申请实施例仅示例性的示出了图像处理方法中的一种可能的实现方式,本申请实施例对待处理图像的视点不做限制,第一视点也可以为图1中的任一视点。
S1303、电子设备的人脸识别模块得到待处理图像,并提取该待处理图像中的人脸特征点和特征向量。
步骤S1303可参考步骤S805和S806中的相关描述,此处不再赘述。
S1304、电子设备的特征比对模块得到待处理图像的人脸特征点和特征向量。
S1305、电子设备的特征比对模块分别得到待处理图像与任一人脸特征模板的相似度。
该步骤可用于校验待处理图像是否为目标用户的人脸图像,目标对象可以为在图7所示场景中录入用户人脸信息的用户。
具体的,判定过程可如下所示:
1)特征对比模块分别将该待处理图像的特征向量与多个人像特征模板的特征向量进行比对,得到多个相似度。
相似度可以为电子设备对待处理图像与人像特征模板的相似度进行打分的分数,相似度可以理解为待处理图像与人像特征模板的匹配程度。同一用户的人脸图像的相似度更高;其中,特征向量空间上,同一个用户的人脸图像的距离较为接近,而不同用户的人脸图像的距离则较为远离。
本申请实施例中,特征比对模块可采用欧氏距离、余弦相似度等计算方式计算得到待处理图像与人脸特征模板的相似度。相似度的范围可以例如在0到1之间,其中,相似度越接近1,则待处理图像与人脸特征模板的匹配程度越高。
2)当一个或多个相似度的值大于或等于相似度阈值时,电子设备执行步骤S1306。
电子设备中预设有相似度阈值,相似度阈值可以例如0.6。当相似度高于相似度阈值时,可确定待处理图像中的人脸信息与设置场景中目标用户的人脸信息匹配,二者是同一个人;电子设备可继续执行后续步骤。
或者,3)当相似度的值均小于相似度阈值时,电子设备不执行步骤S1306。
S1306、一个或多个相似度的值大于或等于相似度阈值时,电子设备的视点转换模块输出目标人脸图像,其中,目标人脸图像的视点为预设视点。
预设视点可以为用户自定义的人像视点(例如,图7中的b所示界面中的用户输入的人像视点),或默认视点。
当该待处理图像中的对象是图7中所示场景中所设置的用户时,可将该待处理图像转换为预设视点下的目标人脸图像。
示例性的,图14示出了两个视点转换的场景。
一种场景中,例如,在图14中的a所示的各个视点的人脸图像中,用户希望在视频会议时,向其他会议者展示正面人像,所以在设置人像视点时,将预设视点设置为图像(8)对应的视点。电子设备采集到待处理图像,例如图像(3),电子设备将图像(3)转换为图像(8),并输出图像(8),且不输出图像(3)。
另一种场景中,例如,在图14中的b所示的各个视点的人脸图像中,用户希望在视频会议时,向其他会议者展示某一视点下的侧面人像,所以在设置人像视点时,将预设视点设置例如为图像(10)对应的视点。电子设备采集到待处理图像,例如图像(3),电子设备将图像(3)转换为图像(10),并输出图像(10),且不输出图像(3)。
具体的,下面结合上述场景对实现上述视点转换效果的操作流程进行说明,如下所示:
1)当相似度大于或等于相似度阈值时,特征比对模块指示视点转换模块进行视点转换。
2)视点转换模块得到有标签的人脸特征模板。
电子设备的数据库中存储有人脸特征模板,电子设备可从数据库中查找到添加有标签的人脸特征模板。有标签的人脸特征模板对应于预设视点的人脸特征模板。
3)视点转换模块结合有标签的人脸特征模板,将待处理图像转换为目标人脸图像。
视点转换模块得到有标签的人脸特征模板中的特征向量和人脸特征点,以及视点转换模块得到待处理图像的人脸特征点;视点转换模块可将有标签的人脸特征模板中的部分人脸特征点和待处理图像的人脸特征点进行融合或替换,得到处理后的人脸特征点;视点转换模块基于处理后的人脸特征点进行贴图处理,得到目标人脸图像;目标人脸图像中,人脸的视点为预设视点。
贴图处理可以例如,法线贴图、漫反射贴图和高光贴图等。
可以理解的是,电子设备预先存储有标签的人脸特征模板;但在使用过程中,用户的表情和妆容等可能与设置场景中的图像有出入,电子设备可使用有标签的人脸特征模板对待处理图像进行处理,得到待处理图像中预设视点的人像特征点;电子设备使用待处理图像中人脸中的像素点在处理后的人像特征点的轮廓线进行贴图,得到将待处理图像和预设视点下的人脸进行融合后的图像。
4)视点转换模块将预设视点下的目标人脸图像上报至视频通信应用。
S1307、视频通信应用显示预设视点下的目标人脸图像,和/或向其他电子设备发送目标人脸图像。
示例性的,在图15中的a所示场景中,用户在使用电子设备进行视频会议,摄像头采集到的待处理图像可以如图15中的b所示。预设视点可以为图15中的c所示目标人脸图像的视点。电子设备的视频通信应用可显示如图15中的c所示目标人脸图像,电子设备也可将目标人脸图像发送给与该电子设备进行通信的其他电子设备,以使其他电子设备实时显示目标人脸图像。
这样,用户可根据自身喜好设置预设视点,电子设备显示预设视点下的人脸图像,提升图像的美观性,提升用户的使用体验。
可选的,电子设备可根据网络质量和/或运行能力选择目标人脸图像的分辨率。
可以理解的是,用户在进行视频会议时,电子设备的网络质量和/或运行能力可能影响到视频会议的流畅度,在网络质量和/或运行能力较弱时输出分辨率较高的目标人脸图像的话,可能在视频会议中会出现视频卡顿的现象。所以,本申请实施例中,电子设备可根据网络质量和/或电子设备的运行能力选择合适的分辨率。网络质量可包括带宽、网速等;运行能力可与电子设备的处理器和内存有关。
示例性的,图16示出了三种分辨率下的人脸图像,其中,图16中的a所示人脸图像的分辨率低于图16中的b所示人脸图像的分辨率,图16中的b所示人脸图像的分辨率低于图16中的c所示人脸图像的分辨率,其中,人脸图像中的网格对应于像素点,人脸图像的分辨率可为人脸图像中每一行包括的像素点数量和每一列包括的像素点数量。
一种可能的实现方式中,电子设备可根据运行能力设置目标人脸图像的分辨率。示例性的,在上述设置场景中,电子设备可采集人脸图像,人脸图像的分辨率可小于或等于电子设备的运行能力能够支持的图像分辨率。电子设备可使用低分辨率的人脸图像进行运算,得到人脸特征模板;后续在使用场景中,电子设备可输出视点转换后的目标人脸图像。
可以理解的是,当电子设备的运行能力较低时,电子设备处理待处理图像的运算效率较低,可能会导致电子设备无法实时显示目标人脸图像。所以,本申请实施例,电子设备可通过低分辨率的人脸图像提升图像处理的运算效率,从而弥补电子设备运行能力的不足。
另一种可能的实现方式中,在使用场景中,电子设备可实时获取当前网络质量,电子设备中包括多个网络质量的区间,电子设备可使用当前网络质量所在区间对应的分辨率输出目标人脸图像。
本申请实施例中,电子设备可采集到低分辨率的人脸图像进行运算和输出;电子设备也可对采集到的高分辨率的人脸图像进行GPU、DSP等图像压缩,得到低分辨率的人脸图像,并使用低分辨率的人脸图像进行运算和输出。本申请实施例对此不作限制。
可选的,图17示出了本申请实施例提供的一种图像处理方法的适用场景,如图17所示:
用户在使用电子设备进行视频会议,用户可面向屏幕,并进行摇动的动作。电子设备可将仰视点的人脸图像转换为平时点的人脸图像。
具体的,在图17中的a所示场景中,用户面向屏幕,电子设备可显示用户的正面人脸图像,例如,电子设备显示的人脸图像的视点为视点5。电子设备显示的人脸图像与摄像头采集的人脸图像的视点不同,例如,摄像头采集到的人脸图像的视点为视点8。
在图17中的b所示场景中,用户向左转动头部,电子设备可显示用户的人脸图像,例如,电子设备显示的人脸图像的视点为视点4。电子设备显示的人脸图像与摄像头采集的人脸图像的视点不同,例如,摄像头采集到的人脸图像的视点为视点7。
在图17中的c所示场景中,用户向右转动头部,电子设备可显示用户的人脸图像,例如,电子设备显示的人脸图像的视点为视点6。电子设备显示的人脸图像与摄像头采集的人脸图像的视点不同,例如,摄像头采集到的人脸图像的视点为视点9。
下面对图17中应用场景的实现方式进行说明,如下所示:
1)电子设备在采集待处理图像的过程中,可进行摇头检测。
摇头检测可以例如:在摇头过程中,脸颊的宽度会变窄,鼻子长度几乎不变。电子设备可计算预设视点的人脸图像中特定人脸特征点之间的距离;以及其他人脸图像中特定特征点之间的距离,通过距离变化判定其他人脸图像的视点是否为标定视点。具体的,可以通过脸颊的人脸特征点3和人脸特征点13的距离反映脸颊宽窄变化,通过鼻子的人脸特征点27和人脸特征点30的距离反映鼻子长度变化;当电子设备采集的连续多帧待处理图像之间脸颊宽窄变化较大时,电子设备可确定用户在执行摇头操作。
或者,电子设备可计算连续多帧待处理图像的多个视点,当多个视点的水平角度差值较大时,电子设备可确定用户在执行摇头操作。
本申请实施例仅示例性的介绍两种摇头检测的方式,本申请实施例对此不做限制。
当识别到用户执行摇头操作时,当前帧的待处理图像的视点可以为第一视点。
2)当电子设备识别到用户执行摇头操作时,电子设备可输出目标人脸图像;目标人脸图像中用户人脸的视点与第一视点不同,用户人脸的视点与预设视点不同。用户人脸的视点的水平角度与第一视点的水平角度相同,用户人脸的视点的垂直角度与预设视点的垂直角度相同。
例如,第一视点为视点9,用户人脸的视点为视点6,预设视点为视点5。水平角度可以理解为头部绕人体中轴线转动的角度,也可称为偏航角(yaw);垂直角度可以理解为头部绕双耳连线的轴线转动的角度,也可称为俯仰角(pitch)。
电子设备在检测到用户在摇头时,可对待处理图像中垂直角度调整为预设视点的垂直角度,水平角度则不做处理,继续沿用待处理图像中水平角度。而电子设备在未检测到用户摇头时,可执行图13中所示的步骤。
具体的,本申请实施例中,在如图18所示的使用过程中,当摄像头采集到图像(1)时,电子设备可输出图像(4);当摄像头采集到图像(2)时,电子设备可输出图像(5);当摄像头采集到图像(3)时,电子设备可输出图像(6)。从而实现将仰视效果的摇头显示为平视效果的摇头,提升图像的美观性。
需要说明的是,本申请实施例中,以摇头为例进行说明。本申请实施例也可适用于实时显示视点转换后的用户点头等头部动作,其中,电子设备显示点头动作的原理与上述实施例相似,本申请对此不再具体说明。
可选的,图19示出了本申请实施例提供的一种图像处理方法的适用场景,如图19所示:
在图19中的a所示场景中,用户在使用电子设备进行视频会议,用户可面向屏幕,并执行手势。
电子设备可采集到如图19中的b所示图像,其中,用户的脸部和手部均呈现仰视点的状态。
下面介绍三种可能的实现方式:
第一种可能的实现方式:在图19中的c所示场景中,电子设备可显示预设视点的人脸图像和手部图像。其中,摄像头采集用户图像中的人脸图像和手部图像的视点均与预设视点不相同。例如,摄像头采集的用户图像中人脸图像的视点为视点8,用户图像中手部图像的视点为视点8,预设视点为视点5。
本申请实施例中,在设置场景中,电子设备可采集用户脸部信息,电子设备还可以采集用户手部信息。例如,电子设备采集多张用户图像,一张用户图像中可包括用户脸部和用户手部。电子设备分别识别任一用户图像中的人脸图像和手部图像中的特征点,将特征点转换为特征向量,并生成人脸和手部特征模板,得到人脸和手部特征模板集合。电子设备标记出预设视点下的人脸和手部特征模板。在使用过程中,电子设备在确定待处理图像的特征向量与人脸和手部特征模板的特征向量相似度大于阈值后,电子设备基于预设视点下的人脸和手部特征模板,输出目标人脸和手部图像。
这样,电子设备可通过存储的图像进行视点转换,不需要对手部进行裁剪拼接,图像的效果更加自然。
第二种可能的实现方式:在图19中的d所示场景中,电子设备可显示手部图像和预设视点的人脸图像。其中,摄像头采集用户图像中的人脸图像与预设视点不同,摄像头采集用户图像中的手部图像与电子设备显示的手部图像相同。例如,摄像头采集的人脸图像的视点为视点8,电子设备显示的人脸图像的视点为视点5,电子设备显示的手部图像的视点为视点。
本申请实施例中,在使用过程中,电子设备可得到待处理图像;电子设备可将待处理图像分割为人脸待处理图像、手部待处理图像和背景;电子设备将人脸待处理图像转换为特征向量,并与人脸特征模板进行相似度比对;当相似度大于相似度阈值时,电子设备得到目标人脸图像,其中,目标人脸图像对应添加有预设视点的人脸特征模板。上述步骤可参考图13所示实施例中的相关描述,此处不再赘述。
电子设备将目标人脸图像、手部待处理图像和背景进行图像融合,生成目标用户图像。图像融合过程可以例如:电子设备对背景进行模糊处理,模糊处理可以例如高斯模糊处理、中值模糊处理等;电子设备将目标人脸图像、手部待处理图像和模糊处理后的背景进行融合,融合方法可以例如权重融合;电子设备输出目标用户图像。
可选的,该场景中,背景可以为从待处理图像中提取的背景,背景也可替换为其他图像,本申请实施例对此不做限制。
第三种可能的实现方式中,在图19中的e所示场景中,电子设备可显示两个区域,其中,一个区域中显示有手部图像,另一个区域中显示有预设视点的人脸图像。手部图像的视点与摄像头采集的用户图像中手部图像的视点相同;人脸图像的视点与摄像头采集的用户图像中人脸图像的视点不相同。
本申请实施例中,在使用过程中,电子设备可得到待处理图像;电子设备可将待处理图像裁剪出人脸待处理图像和手部待处理图像;电子设备将人脸待处理图像转换为特征向量,并与人脸特征模板进行相似度比对;当相似度大于相似度阈值时,电子设备得到目标人脸图像,其中,目标人脸图像对应添加有预设视点的人脸特征模板。上述步骤可参考图13所示实施例中的相关描述,此处不再赘述。
电子设备可将手部图像与目标人脸图像进行拼接,一种可能的实现方式中,可将手部图像粘贴到目标人脸图像上,已显示出如图19中的e所示效果,部分区域显示视点转换后的人脸,部分区域显示手部。
这样,可减少算法运行的工作量,提升图像处理方法的效率。
在上述实施例的基础上,本申请实施例提供一种图像处理方法。示例性的,图20为本申请实施例提供的一种图像处理方法的流程示意图。
如图20所示,该图像处理方法可以应用于包括摄像头的第一电子设备,该方法包括如下步骤:
S2001、第一电子设备与第二电子设备建立视频通信。
第一电子设备可以例如图12B所示的电子设备100,第二电子设备可以例如图12B所示的电子设备101。第一电子设备与第二电子设备建立视频通信,可以对应于图12B中的a所示场景;视频通信可以为视频会议和视频通话等。
需要说明的是,本申请实施例以第一电子设备的摄像头为低角度摄像头为例进行说明。本申请实施例中第一电子设备中摄像头也可以处于常规位置,第一电子设备也可实现本申请实施例提供的图像处理方法,本申请实施例对此不作限制。
S2002、第一电子设备采用摄像头采集得到第一帧图像;第一帧图像中包括第一对象,在第一帧图像中,第一对象的视点为第一视点。
第一帧图像可以为第一电子设备的摄像头实时采集的视频帧图像;第一对象可以例如用户人脸;第一对象也可以是其他物体,例如,植物、动物等。第一视点可以为摄像头拍摄第一对象的真实视点。
例如,第一帧图像可对应于图15中的b图所示的待处理图像;第一对象可以为待处理图像中的人脸,第一视点可以例如视点8。步骤S2002可参考步骤S1302中的相关描述,此处不再赘述。
S2003、第一电子设备向第二电子设备发送第二帧图像;第二帧图像为第一电子设备对第一帧图像中,第一对象的视点进行转换后得到的;在第二帧图像中,第一对象的视点为第二视点;其中,第一电子设备中预设有第二视点,且第二视点与第一视点不同。
第二帧图像可以为视点转换后的第一帧图像,处理过程可参考步骤S1303-S1307中的相关描述,此处不再赘述。
例如,第二视点可以为用户在图7所示场景下设置的预设视点,第二视点可以例如视点5,第二帧图像可如图15中的c图所示的目标人脸图像,第二帧图像中人脸的视点为视点5。
这样,第一电子设备可将真实视点的图像转换为预设视点的图像,从而得到满足视点要求的图像;例如,第一电子设备可将视点在下巴的人脸图像转换为正面人脸图像,从而提升用户面部表情沟通效益,也可提升视频的美观性。
可选的,还包括:
第一电子设备采用摄像头采集得到第三帧图像;第三帧图像中包括第一对象,在第三帧图像中,第一对象的视点为第三视点,第三视点与第一视点不同;第一电子设备向第二电子设备发送第四帧图像;第四帧图像为第一电子设备对第三帧图像中,第一对象的视点进行转换后得到的;在第四帧图像中,第一对象的视点为第二视点。
其中,第三帧图像可以为第一电子设备的摄像头实时采集的视频帧图像;第三视点可以为在摄像头拍摄第一对象的真实视点。第三视点与第一视点不同。第四帧图像可以为视点转换后的第三帧图像。
可以理解的是,第一电子设备可将任一视点下的帧图像均转换为预设视点下的帧图像。例如,在图14中的a图中,第一电子设备可将视点8的图像(3)转化为视点5的图像(8),第一电子设备也可将视点2的图像(13)转化为视点5的图像(8),第一电子设备还可将视点6的图像(9)转化为视点5的图像(8)。本申请实施例对此不再一一列举。
这样,当用户使用第一电子设备进行视频通信时,第一电子设备可将任一非预设视点的图像转换为预设视点的图像,从而得到满足视点要求的图像;例如,第一电子设备可将非正面人脸图像均转换为正面人脸图像,从而提升用户面部表情沟通效益,也可提升视频的美观性。
可选的,第一电子设备中存储有第一对象的多个对象特征模板,任一对象特征模板为第一对象在一个视点对应的特征模板;在第一电子设备向第二电子设备发送第二帧图像之前,还包括:第一电子设备识别第一帧图像中第一对象的特征点,将第一对象的特征点转换为第一对象的特征向量,并生成第一对象特征模板;当第一对象特征模板与任一个对象特征模板中存在相似度大于或等于相似度阈值时,第一电子设备结合多个对象特征模板中第二视点的对象特征模板,将第一帧图像转换为第二帧图像。
其中,第一对象为用户时,对象特征模板可对应于人脸特征模板,任一人脸特征模板为第一对象在一个视点对应的特征模板;第一帧图像为待处理图像,第一对象特征模板可以为待处理图像的人脸特征模板。第二视点的对象特征模板可以有标签的人脸特征模板。该步骤可参考步骤S1304-S1306中的相关描述。
这样,当第一电子设备校验第一帧图像中的第一对象的身份后,第一电子设备可对第一帧图像进行视点转换,得到满足视点要求的图像,从而提升了本申请实施例中图像处理方法的准确性和安全性。
可选的,第一电子设备结合多个对象特征模板中第二视点的对象特征模板,将第一帧图像转换为第二帧图像,包括:第一电子设备将第二视点的对象特征模板中的部分特征点与第一帧图像中第一对象的特征点进行融合,得到第二帧图像。
这样,电子设备可得到预设视点下的第二帧图像,从而得到满足视点要求的图像。
可选的,在第一电子设备与第二电子设备建立视频通信之前,还包括:第一电子设备显示第一界面,第一界面中包括第一按钮,第一按钮处于关闭状态;其中,第一按钮的状态包括:开启状态和关闭状态;当第一按钮的状态为开启状态时,第一电子设备在第一对象进行视频通信时,输出预设视点的帧图像;当第一按钮的状态为关闭状态时,第一电子设备在第一对象进行视频通信时,输出摄像头采集的帧图像;第一电子设备接收到针对第一按钮的触发操作;响应于针对第一按钮的触发操作,第一电子设备将关闭状态的第一按钮设置为开启状态的第一按钮。
其中,第一界面可以为图7中的b所示界面,第一按钮可以为人像视点转换的开关703。
这样,用户可根据自身需求选择是否使用第一电子设备中的视点转换功能,提升用户使用体验。
可选的,第一界面中还包括第二按钮,第二按钮用于指示第一电子设备使用摄像头采集第一对象的图像;在第一电子设备显示第一界面之后,还包括:第一电子设备接收到针对第二按钮的触发操作;响应于针对第二按钮的触发操作,第一电子设备显示第二界面,第二界面中包括第一对象和提示信息;提示信息包括提示文字和/或提示语音;提示信息用于指示第一对象转动头部;电子设备采用摄像头采集到多张第一对象的图像。
其中,第一界面可对应图7中的b所示界面,第二按钮可以为设置用户人像的按钮705;针对第二按钮的触发操作,可以为点击设置用户人像的按钮705的操作;第二界面可对应于图7中的c所示界面,第一对象可以为摄像头实时采集到的用户人脸,提示信息可以为图7中的c所示界面中的提示文字706。
这样,第一电子设备可预先采集第一对象的信息。设置场景中的第一对象的信息可在使用场景中作为第一对象视点转换和身份校验的依据,以使第一电子设备能够准确的得到目标人脸图像。
可选的,在电子设备采用摄像头采集到多张第一对象的图像之后,还包括:电子设备识别任一第一对象的图像中第一对象的特征点,将第一对象的特征点转换为第一对象的特征向量,并生成多个视点下的对象特征模板。
该步骤可参考步骤S806,本申请实施例对此不再赘述。
这样,第一电子设备可得到第一对象在各个视点下的对象特征模板,以便于后续能够准确的校验第一对象以及输出目标人脸图像。
可选的,第一界面中还包括第一区域,第一区域中显示有多个第三按钮;任一第三按钮对应有一个示意图,示意图中显示有一个视点的对象,任一示意图中,对象的视点均不相同;在第一电子设备显示第一界面之后,还包括:第一电子设备接收到针对第二视点对应的第三按钮的触发操作;响应于针对第二视点对应的第三按钮的触发操作,第一电子设备设置预设视点;其中,预设视点为第二视点;或者,第一电子设备未接收到针对任一第三按钮的触发操作;第一电子设备设置预设视点;其中,预设视点为默认视点,默认视点包括第二视点。
其中,第一界面可对应于图7中的b所示界面,第一区域可以为包括多个示意图704的区域,任一示意图704中,对象的视点均不同;任一示意图对应一个视点下的第三按钮;针对第二视点对应的第三按钮的触发操作,可以为点击示意图704中的视点5对应的第三按钮(示意图704中虚线框所示视点)的操作;第一电子设备将视点5设置为预设视点。
这样,用户可根据自身需求设置预设视点,后续第一电子设备可输出满足预设视点的图像,提升用户的使用体验。
可选的,方法还包括:
(1)第一电子设备采用摄像头采集得到第五帧图像;第五帧图像中包括第一对象,在第五帧图像中,第一对象的视点为第四视点。
第五帧图像可以为第一电子设备的摄像头实时采集的视频帧图像;第四视点可以为摄像头拍摄第一对象的真实视点。例如,第五帧图像可对应于图18中的图像(3),第四视点可以为视点7。
(2)第一电子设备基于第五帧图像识别到第一对象的头部向侧边转动,第一电子设备向第二电子设备发送第六帧图像;第六帧图像为第一电子设备对第五帧图像中,第一对象的视点进行转换后得到的;在第六帧图像中,第一对象的视点为第五视点;第五视点与第四视点不同。
第一电子设备在第五帧图像时识别到用户执行摇头的动作。第六帧图像可以对应于图18中的图像(6),第五视点可以为视点4。
(3)第一电子设备采用摄像头采集得到第七帧图像;第七帧图像中包括第一对象,在第七帧图像中,第一对象的视点为第六视点,第六视点与第四视点不同。
第七帧图像可以为第一电子设备的摄像头实时采集的视频帧图像;第六视点可以为摄像头拍摄第一对象的真实视点。例如,第七帧图像可对应于图18中的图像(1),第四视点可以为视点9。
(4)第一电子设备基于第七帧图像识别到第一对象的头部向侧边转动,第一电子设备向第二电子设备发送第八帧图像;第八帧图像为第一电子设备对第七帧图像中,第一对象的视点进行转换后得到的;在第八帧图像中,第一对象的视点为第七视点;第七视点与第六视点不同。
第一电子设备在第七帧图像时依然能够识别到用户执行摇头的动作。第八帧图像可以对应于图18中的图像(4),第五视点可以为视点6。
其中,第四视点的垂直角度和第五视点的垂直角度不相同,且第四视点的水平角度和第五视点的水平角度相同;第六视点的垂直角度和第七视点的垂直角度不相同,第六视点的水平角度和第七视点的水平角度相同;以及,第五视点的垂直角度、第七视点的垂直角度和第二视点的垂直角度相同。
可以看出,步骤(1)与步骤(2)中,第四视点与第五视点不同,且第五视点不是预设视点。在图18中,第一电子设备将仰视点的图像(3)转换为平视点的图像(6),在垂直角度上进行转换,但水平角度未发生转换;步骤(3)与步骤(4)中,第六视点与第七视点不同,且第七视点不是预设视点。在图18中,第一电子设备将仰视点的图像(1)转换为平视点的图像(4),在垂直角度上进行转换,但水平角度未发生转换。第一电子设备在垂直角度的视点转换可以预设视点的垂直角度为依据,例如,图像(4)、图像(5)、图像(6)中垂直角度均相同,图像(5)为预设视点的图像。
这样,第一电子设备可更加灵活、形象的展示用户图像,从而提升视频的美观性。
可选的,第一帧图像中还包括第二对象,在第一帧图像中,第二对象的视点为第一视点;第一对象与第二对象不同;第二帧图像中还包括第二对象,在第二帧图像中,第二对象的视点为第二视点。
其中,第二对象可以为用户手部,第一帧图像还可以为图19中的b所示图像,用户手部的视点和脸部的视点相同,第一视点可以例如视点8;第二帧图像还可以为图19中的c所示图像,用户手部的视点和脸部的视点相同,第二视点可以例如视点5。
这样,当用户手部出镜时,第一电子设备可同时对人脸和手部进行视点转换,从而输出更加自然的满足视点要求的图像,进而提升用户的使用体验。
可选的,第一帧图像中还包括第二对象,在第一帧图像中,第二对象的视点为第一视点;第一对象与第二对象不同;第二帧图像中还包括第二对象,第二帧图像为第一电子设备将第二对象的图像与转换后的第一对象的图像进行图像融合后得到的;转换后的第一对象的图像为第一电子设备对第一帧图像中,第一对象的视点进行转换后得到的;第二对象的图像为第一电子设备对第一帧图像中,第二对象进行裁剪得到的;在第二帧图像中,第二对象的视点为第一视点。
其中,第二对象可以为用户手部,第一帧图像还可以为图19中的b所示图像,用户手部的视点和脸部的视点相同,第一视点可以例如视点8;第二帧图像还可以为图19中的d所示图像,用户手部的视点和脸部的视点不相同,第二帧图像中手部的视点为与第一帧图像中手部的视点,例如视点8;第二帧图像中脸部视点为预设视点,第二视点可以例如视点5。
这样,第一电子设备可将视点转换后的人脸与未转换的手部进行融合,得到较为自然的第二帧图像;在一定程度上,也可减少第一电子设备的运算压力。
可选的,第一帧图像中还包括第二对象,在第一帧图像中,第二对象的视点为第一视点;第一对象与第二对象不同;第二帧图像中还包括第二对象,第二帧图像为第一电子设备将第二对象的图像与转换后的第一对象的图像上进行拼接得到的;转换后的第一对象的图像为第一电子设备对第一帧图像中,第一对象的视点进行转换后得到的;第二对象的图像为第一电子设备对第一帧图像中,第二对象进行裁剪得到的;在第二帧图像中,第二对象的视点为第一视点。
其中,第二对象可以为用户手部,第一帧图像还可以为图19中的b所示图像,用户手部的视点和脸部的视点相同,第一视点可以例如视点8;第二帧图像还可以为图19中的e所示图像,用户手部的视点和脸部的视点不相同,第二帧图像中手部的视点为与第一帧图像中手部的视点,例如视点8;第二帧图像中脸部视点为预设视点,第二视点可以例如视点5。
这样,第一电子设备可将视点转换后的人脸与未转换的手部进行拼接,不进行融合,第二帧图像中,以类似分镜的形式,在部分区域显示脸部,部分区域显示手部;可减少第一电子设备的运算压力。
可选的,第二帧图像的分辨率与第一电子设备的网络质量、第二电子设备的网络质量、第一电子设备的运行能力和/或第二电子设备的运行能力有关;其中,第二帧图像的分辨率与第一电子设备的网络质量呈正相关;第二帧图像的分辨率与第二电子设备的网络质量呈正相关;第二帧图像的分辨率与第一电子设备的运行能力呈正相关;第二帧图像的分辨率与第二电子设备的运行能力呈正相关。
第一电子设备和/或第二电子设备在显示第二帧图像时,可根据网络质量和/或运行能力调整分辨率,例如,电子设备的运行能力越强,第二帧图像的分辨率越高;电子设备的网络质量越好,第二帧图像的分辨率越高;反之,第二帧图像的分辨率越低。这样,第一电子设备和/或第二电子设备可根据网络质量和/或运行能力调整图像分辨率,以使第一电子设备和/或第二电子设备能够流畅的显示图像。
上面已对本申请实施例的图像处理方法进行了说明,下面对本申请实施例提供的执行上述图像处理方法的装置进行描述。本领域技术人员可以理解,方法和装置可以相互结合和引用,本申请实施例提供的相关装置可以执行上述图像处理方法中的步骤。
如图21所示,图像处理装置2100可以用于通信设备、电路、硬件组件或者芯片中,该图像处理装置包括:显示单元2101、以及处理单元2102。其中,显示单元2101用于支持图像处理装置2100执行的显示的步骤;处理单元2102用于支持图像处理装置2100执行信息处理的步骤。
可能的实现方式中,该图像处理装置2100中也可以包括通信单元2103。具体的,通信单元用于支持图像处理装置2100执行数据的发送以及数据的接收的步骤。其中,该通信单元2103可以是输入或者输出接口、管脚或者电路等。
可能的实施例中,图像处理装置还可以包括:存储单元2104。处理单元2102、存储单元2104通过线路相连。存储单元2104可以包括一个或者多个存储器,存储器可以是一个或者多个设备、电路中用于存储程序或者数据的器件。存储单元2104可以独立存在,通过通信线路与图像处理装置具有的处理单元2102相连。存储单元2104也可以和处理单元2102集成在一起。
存储单元2104可以存储终端设备中的方法的计算机执行指令,以使处理单元2102执行上述实施例中的方法。存储单元2104可以是寄存器、缓存或者RAM等,存储单元2104可以和处理单元2102集成在一起。存储单元2104可以是只读存储器(read-only memory,ROM)或者可存储静态信息和指令的其他类型的静态存储设备,存储单元2104可以与处理单元2102相独立。
本申请实施例提供的图像处理方法,可以应用在具备通信功能的电子设备中。电子设备包括终端设备,终端设备的具体设备形态等可以参照上述相关说明,此处不再赘述。
本申请实施例提供一种终端设备,该终端设备包括:包括:处理器和存储器;存储器存储计算机执行指令;处理器执行存储器存储的计算机执行指令,使得终端设备执行上述方法。
本申请实施例提供一种芯片。芯片包括处理器,处理器用于调用存储器中的计算机程序,以执行上述实施例中的技术方案。其实现原理和技术效果与上述相关实施例类似,此处不再赘述。
本申请实施例还提供了一种计算机可读存储介质。计算机可读存储介质存储有计算机程序。计算机程序被处理器执行时实现上述方法。上述实施例中描述的方法可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。如果在软件中实现,则功能可以作为一个或多个指令或代码存储在计算机可读介质上或者在计算机可读介质上传输。计算机可读介质可以包括计算机存储介质和通信介质,还可以包括任何可以将计算机程序从一个地方传送到另一个地方的介质。存储介质可以是可由计算机访问的任何目标介质。
一种可能的实现方式中,计算机可读介质可以包括RAM,ROM,只读光盘(compactdisc read-only memory,CD-ROM)或其它光盘存储器,磁盘存储器或其它磁存储设备,或目标于承载的任何其它介质或以指令或数据结构的形式存储所需的程序代码,并且可由计算机访问。而且,任何连接被适当地称为计算机可读介质。例如,如果使用同轴电缆,光纤电缆,双绞线,数字用户线(Digital Subscriber Line,DSL)或无线技术(如红外,无线电和微波)从网站,服务器或其它远程源传输软件,则同轴电缆,光纤电缆,双绞线,DSL或诸如红外,无线电和微波之类的无线技术包括在介质的定义中。如本文所使用的磁盘和光盘包括光盘,激光盘,光盘,数字通用光盘(Digital Versatile Disc,DVD),软盘和蓝光盘,其中磁盘通常以磁性方式再现数据,而光盘利用激光光学地再现数据。上述的组合也应包括在计算机可读介质的范围内。
本申请实施例提供一种计算机程序产品,计算机程序产品包括计算机程序,当计算机程序被运行时,使得计算机执行上述方法。
本申请实施例是参照根据本申请实施例的方法、设备(***)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程设备的处理单元以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理单元执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
以上的具体实施方式,对本发明的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上仅为本发明的具体实施方式而已,并不用于限定本发明的保护范围,凡在本发明的技术方案的基础之上,所做的任何修改、等同替换、改进等,均应包括在本发明的保护范围之内。

Claims (14)

1.一种图像处理方法,其特征在于,应用于包括摄像头的第一电子设备,所述方法包括:
所述第一电子设备与第二电子设备建立视频通信;
所述第一电子设备采用所述摄像头采集得到第一帧图像;所述第一帧图像中包括第一对象,在所述第一帧图像中,所述第一对象的视点为第一视点;所述第一电子设备中存储有所述第一对象的多个对象特征模板,任一所述对象特征模板为所述第一对象在一个视点对应的特征模板;
所述第一电子设备识别所述第一帧图像中所述第一对象的特征点,将所述第一对象的特征点转换为所述第一对象的特征向量,并生成第一对象特征模板;
当所述第一对象特征模板与任一个所述对象特征模板中存在相似度大于或等于相似度阈值时,所述第一电子设备结合所述多个对象特征模板中第二视点的对象特征模板,将所述第一帧图像转换为第二帧图像;在所述第二帧图像中,所述第一对象的视点为第二视点;其中,所述第一电子设备中预设有所述第二视点,且所述第二视点与所述第一视点不同;
所述第一电子设备向所述第二电子设备发送所述第二帧图像。
2.根据权利要求1所述的方法,其特征在于,还包括:
所述第一电子设备采用所述摄像头采集得到第三帧图像;所述第三帧图像中包括所述第一对象,在所述第三帧图像中,所述第一对象的视点为第三视点,所述第三视点与所述第一视点不同;
所述第一电子设备向所述第二电子设备发送第四帧图像;所述第四帧图像为所述第一电子设备对所述第三帧图像中,所述第一对象的视点进行转换后得到的;在所述第四帧图像中,所述第一对象的视点为所述第二视点。
3.根据权利要求1所述的方法,其特征在于,所述第一电子设备结合所述多个对象特征模板中第二视点的对象特征模板,将所述第一帧图像转换为第二帧图像,包括:
所述第一电子设备将所述第二视点的对象特征模板中的部分特征点与所述第一帧图像中所述第一对象的特征点进行融合,得到所述第二帧图像。
4.根据权利要求1所述的方法,其特征在于,在所述第一电子设备与第二电子设备建立视频通信之前,还包括:
所述第一电子设备显示第一界面,所述第一界面中包括第一按钮,所述第一按钮处于关闭状态;其中,所述第一按钮的状态包括:开启状态和关闭状态;当所述第一按钮的状态为所述开启状态时,所述第一电子设备在所述第一对象进行所述视频通信时,输出预设视点的帧图像;当所述第一按钮的状态为所述关闭状态时,所述第一电子设备在所述第一对象进行所述视频通信时,输出所述摄像头采集的帧图像;
所述第一电子设备接收到针对所述第一按钮的触发操作;
响应于针对所述第一按钮的触发操作,所述第一电子设备将所述关闭状态的所述第一按钮设置为所述开启状态的所述第一按钮。
5.根据权利要求4所述的方法,其特征在于,所述第一界面中还包括第二按钮,所述第二按钮用于指示所述第一电子设备使用所述摄像头采集所述第一对象的图像;在所述第一电子设备显示第一界面之后,还包括:
所述第一电子设备接收到针对所述第二按钮的触发操作;
响应于针对所述第二按钮的触发操作,所述第一电子设备显示第二界面,所述第二界面中包括所述第一对象和提示信息;所述提示信息包括提示文字和/或提示语音;所述提示信息用于指示所述第一对象转动头部;
所述电子设备采用所述摄像头采集到多张所述第一对象的图像。
6.根据权利要求5所述的方法,其特征在于,在所述电子设备采用所述摄像头采集到多张所述第一对象的图像之后,还包括:
所述电子设备识别任一所述第一对象的图像中所述第一对象的特征点,将所述第一对象的特征点转换为所述第一对象的特征向量,并生成多个视点下的对象特征模板。
7.根据权利要求4-6任一项所述的方法,其特征在于,所述第一界面中还包括第一区域,所述第一区域中显示有多个第三按钮;任一所述第三按钮对应有一个示意图,所述示意图中显示有一个视点的对象,任一所述示意图中,所述对象的视点均不相同;在所述第一电子设备显示第一界面之后,还包括:
所述第一电子设备接收到针对所述第二视点对应的所述第三按钮的触发操作;
响应于针对所述第二视点对应的所述第三按钮的触发操作,所述第一电子设备设置所述预设视点;其中,所述预设视点为所述第二视点;
或者,所述第一电子设备未接收到针对任一所述第三按钮的触发操作;
所述第一电子设备设置所述预设视点;其中,所述预设视点为默认视点,所述默认视点包括所述第二视点。
8.根据权利要求1所述的方法,其特征在于,所述方法还包括:
所述第一电子设备采用所述摄像头采集得到第五帧图像;所述第五帧图像中包括所述第一对象,在所述第五帧图像中,所述第一对象的视点为第四视点;
所述第一电子设备基于所述第五帧图像识别到所述第一对象的头部向侧边转动,所述第一电子设备向所述第二电子设备发送第六帧图像;所述第六帧图像为所述第一电子设备对所述第五帧图像中,所述第一对象的视点进行转换后得到的;在所述第六帧图像中,所述第一对象的视点为第五视点;所述第五视点与所述第四视点不同;
所述第一电子设备采用所述摄像头采集得到第七帧图像;所述第七帧图像中包括所述第一对象,在所述第七帧图像中,所述第一对象的视点为第六视点,所述第六视点与所述第四视点不同;
所述第一电子设备基于所述第七帧图像识别到所述第一对象的头部向侧边转动,所述第一电子设备向所述第二电子设备发送第八帧图像;所述第八帧图像为所述第一电子设备对所述第七帧图像中,所述第一对象的视点进行转换后得到的;在所述第八帧图像中,所述第一对象的视点为第七视点;所述第七视点与所述第六视点不同;
其中,所述第四视点的垂直角度和所述第五视点的垂直角度不相同,且所述第四视点的水平角度和所述第五视点的水平角度相同;所述第六视点的垂直角度和所述第七视点的垂直角度不相同,所述第六视点的水平角度和所述第七视点的水平角度相同;以及,所述第五视点的垂直角度、所述第七视点的垂直角度和所述第二视点的垂直角度相同。
9.根据权利要求1所述的方法,其特征在于,所述第一帧图像中还包括第二对象,在所述第一帧图像中,所述第二对象的视点为所述第一视点;所述第一对象与所述第二对象不同;所述第二帧图像中还包括所述第二对象,在所述第二帧图像中,所述第二对象的视点为所述第二视点。
10.根据权利要求1所述的方法,其特征在于,所述第一帧图像中还包括第二对象,在所述第一帧图像中,所述第二对象的视点为所述第一视点;所述第一对象与所述第二对象不同;
所述第二帧图像中还包括所述第二对象,所述第二帧图像为所述第一电子设备将所述第二对象的图像与转换后的所述第一对象的图像进行图像融合后得到的;所述转换后的所述第一对象的图像为所述第一电子设备对所述第一帧图像中,所述第一对象的视点进行转换后得到的;所述第二对象的图像为所述第一电子设备对所述第一帧图像中,所述第二对象进行裁剪得到的;在所述第二帧图像中,所述第二对象的视点为所述第一视点。
11.根据权利要求1所述的方法,其特征在于,所述第一帧图像中还包括第二对象,在所述第一帧图像中,所述第二对象的视点为所述第一视点;所述第一对象与所述第二对象不同;
所述第二帧图像中还包括所述第二对象,所述第二帧图像为所述第一电子设备将所述第二对象的图像与转换后的所述第一对象的图像上进行拼接得到的;所述转换后的所述第一对象的图像为所述第一电子设备对所述第一帧图像中,所述第一对象的视点进行转换后得到的;所述第二对象的图像为所述第一电子设备对所述第一帧图像中,所述第二对象进行裁剪得到的;在所述第二帧图像中,所述第二对象的视点为所述第一视点。
12.根据权利要求1或2所述的方法,其特征在于,所述第二帧图像的分辨率与所述第一电子设备的网络质量、所述第二电子设备的网络质量、所述第一电子设备的运行能力和/或所述第二电子设备的运行能力有关;其中,所述第二帧图像的分辨率与所述第一电子设备的网络质量呈正相关;所述第二帧图像的分辨率与所述第二电子设备的网络质量呈正相关;所述第二帧图像的分辨率与所述第一电子设备的运行能力呈正相关;所述第二帧图像的分辨率与所述第二电子设备的运行能力呈正相关。
13.一种电子设备,其特征在于,包括:处理器和存储器;
所述存储器存储计算机执行指令;
所述处理器执行所述存储器存储的计算机执行指令,使得所述电子设备执行如权利要求1-12中任一项所述的图像处理方法。
14.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1-12任一项所述的图像处理方法。
CN202311286705.XA 2023-10-08 2023-10-08 图像处理方法及相关设备 Active CN117041670B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311286705.XA CN117041670B (zh) 2023-10-08 2023-10-08 图像处理方法及相关设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311286705.XA CN117041670B (zh) 2023-10-08 2023-10-08 图像处理方法及相关设备

Publications (2)

Publication Number Publication Date
CN117041670A CN117041670A (zh) 2023-11-10
CN117041670B true CN117041670B (zh) 2024-04-02

Family

ID=88630312

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311286705.XA Active CN117041670B (zh) 2023-10-08 2023-10-08 图像处理方法及相关设备

Country Status (1)

Country Link
CN (1) CN117041670B (zh)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004193962A (ja) * 2002-12-11 2004-07-08 Sony Corp 画像通信装置、および画像通信方法、並びにコンピュータ・プログラム
CN105550671A (zh) * 2016-01-28 2016-05-04 北京麦芯科技有限公司 一种人脸识别的方法及装置
CN106909821A (zh) * 2017-01-20 2017-06-30 奇酷互联网络科技(深圳)有限公司 终端的操控方法、装置和终端设备
CN109684951A (zh) * 2018-12-12 2019-04-26 北京旷视科技有限公司 人脸识别方法、底库录入方法、装置及电子设备
CN113014846A (zh) * 2019-12-19 2021-06-22 华为技术有限公司 一种视频采集控制方法、电子设备、计算机可读存储介质
CN113741681A (zh) * 2020-05-29 2021-12-03 华为技术有限公司 一种图像校正方法与电子设备

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10540489B2 (en) * 2017-07-19 2020-01-21 Sony Corporation Authentication using multiple images of user from different angles
JP7047848B2 (ja) * 2017-10-20 2022-04-05 日本電気株式会社 顔三次元形状推定装置、顔三次元形状推定方法、及び、顔三次元形状推定プログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004193962A (ja) * 2002-12-11 2004-07-08 Sony Corp 画像通信装置、および画像通信方法、並びにコンピュータ・プログラム
CN105550671A (zh) * 2016-01-28 2016-05-04 北京麦芯科技有限公司 一种人脸识别的方法及装置
CN106909821A (zh) * 2017-01-20 2017-06-30 奇酷互联网络科技(深圳)有限公司 终端的操控方法、装置和终端设备
CN109684951A (zh) * 2018-12-12 2019-04-26 北京旷视科技有限公司 人脸识别方法、底库录入方法、装置及电子设备
CN113014846A (zh) * 2019-12-19 2021-06-22 华为技术有限公司 一种视频采集控制方法、电子设备、计算机可读存储介质
CN113741681A (zh) * 2020-05-29 2021-12-03 华为技术有限公司 一种图像校正方法与电子设备

Also Published As

Publication number Publication date
CN117041670A (zh) 2023-11-10

Similar Documents

Publication Publication Date Title
TWI751161B (zh) 終端設備、智慧型手機、基於臉部識別的認證方法和系統
US11736756B2 (en) Producing realistic body movement using body images
US11450051B2 (en) Personalized avatar real-time motion capture
WO2020203999A1 (ja) コミュニケーション支援システム、コミュニケーション支援方法、および画像制御プログラム
US11748931B2 (en) Body animation sharing and remixing
JP2019145108A (ja) 顔に対応する3次元アバターを用いて顔の動きが反映された3dアバターを含むイメージを生成する電子装置
WO2019024853A1 (zh) 一种图像处理方法、装置及存储介质
CN111726536A (zh) 视频生成方法、装置、存储介质及计算机设备
CN112199016B (zh) 图像处理方法、装置、电子设备及计算机可读存储介质
US11989348B2 (en) Media content items with haptic feedback augmentations
US11997422B2 (en) Real-time video communication interface with haptic feedback response
US20240184372A1 (en) Virtual reality communication interface with haptic feedback response
US20220317775A1 (en) Virtual reality communication interface with haptic feedback response
EP4272059A1 (en) Electronic communication interface with haptic feedback response
EP4272062A1 (en) Communication interface with haptic feedback response
KR101189043B1 (ko) 영상통화 서비스 및 그 제공방법, 이를 위한 영상통화서비스 제공서버 및 제공단말기
CN117041670B (zh) 图像处理方法及相关设备
US20220319061A1 (en) Transmitting metadata via invisible light
US20220318303A1 (en) Transmitting metadata via inaudible frequencies
CN114339393A (zh) 直播画面的显示处理方法、服务器、设备、***及介质
US11874960B2 (en) Pausing device operation based on facial movement
US20220377309A1 (en) Hardware encoder for stereo stitching
US20240073402A1 (en) Multi-perspective augmented reality experience
WO2022246373A1 (en) Hardware encoder for stereo stitching

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant