CN114882543A - 图像处理设备、图像处理方法和计算机可读存储介质 - Google Patents
图像处理设备、图像处理方法和计算机可读存储介质 Download PDFInfo
- Publication number
- CN114882543A CN114882543A CN202210112363.9A CN202210112363A CN114882543A CN 114882543 A CN114882543 A CN 114882543A CN 202210112363 A CN202210112363 A CN 202210112363A CN 114882543 A CN114882543 A CN 114882543A
- Authority
- CN
- China
- Prior art keywords
- image
- image data
- image processing
- data
- cpu101
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012545 processing Methods 0.000 title claims abstract description 151
- 238000003672 processing method Methods 0.000 title claims abstract description 9
- 238000010801 machine learning Methods 0.000 claims abstract description 38
- 230000006870 function Effects 0.000 claims description 12
- 230000008859 change Effects 0.000 claims description 2
- 238000000034 method Methods 0.000 description 27
- 230000009467 reduction Effects 0.000 description 23
- 238000001514 detection method Methods 0.000 description 21
- 230000008569 process Effects 0.000 description 12
- 238000010586 diagram Methods 0.000 description 11
- 238000003384 imaging method Methods 0.000 description 10
- 238000012790 confirmation Methods 0.000 description 8
- 238000004364 calculation method Methods 0.000 description 7
- 238000011156 evaluation Methods 0.000 description 6
- 238000004891 communication Methods 0.000 description 5
- 238000012937 correction Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 238000012549 training Methods 0.000 description 4
- 238000013459 approach Methods 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 3
- 239000011521 glass Substances 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 238000011946 reduction process Methods 0.000 description 2
- 238000010079 rubber tapping Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 210000000746 body region Anatomy 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000002950 deficient Effects 0.000 description 1
- 238000013213 extrapolation Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/77—Retouching; Inpainting; Scratch removal
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/64—Circuits for processing colour signals
- H04N9/646—Circuits for processing colour signals for image enhancement, e.g. vertical detail restoration, cross-colour elimination, contour correction, chrominance trapping filters
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/60—Image enhancement or restoration using machine learning, e.g. neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/761—Proximity, similarity or dissimilarity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/778—Active pattern-learning, e.g. online learning of image or video features
- G06V10/7784—Active pattern-learning, e.g. online learning of image or video features based on feedback from supervisors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/10—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
- H04N23/13—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths with multiple sensors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
- H04N23/611—Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/62—Control of parameters via user interfaces
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
- H04N23/631—Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
- H04N23/633—Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
- H04N23/633—Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
- H04N23/634—Warning indications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/64—Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/698—Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/80—Camera processing pipelines; Components thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/80—Camera processing pipelines; Components thereof
- H04N23/84—Camera processing pipelines; Components thereof for processing colour signals
- H04N23/843—Demosaicing, e.g. interpolating colour pixel values
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/90—Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/64—Circuits for processing colour signals
- H04N9/73—Colour balance circuits, e.g. white balance circuits or colour temperature control
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Medical Informatics (AREA)
- Artificial Intelligence (AREA)
- Human Computer Interaction (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Studio Devices (AREA)
Abstract
本发明提供一种图像处理设备、图像处理方法和计算机可读存储介质。图像处理设备获取通过拍摄被摄体的图像而获得的第一图像数据、通过拍摄摄像者及其周围环境的图像而获得的第二图像数据、以及指示拍摄被摄体的图像的摄像设备的外观的第三图像数据。该设备使用将第一图像数据、第二图像数据和第三图像数据用作输入数据的经学习的机器学习模型来减少第一图像数据中的反射。
Description
技术领域
本发明涉及图像处理设备、图像处理方法和计算机可读存储介质,尤其涉及用于去除所拍摄图像中的反射的技术。
背景技术
通过玻璃拍摄的图像和对有光泽被摄体拍摄的图像可能包括摄像者或周围对象的反射。这样的反射可能不仅使预期被摄体模糊,而且还导致个人信息被泄漏。
在Tianfan Xue,Michael Rubinstein,Ce Liu,William T.Freeman的“AComputational Approach for Obstruction-Free Photography”(ACM Transactions onGraphics,vol.34,no.4(Proc.SIGGRAPH),2015年8月)中,描述了使用与背景场景和前景场景相关的视觉视差去除通过玻璃拍摄的图像中的反射的技术。
然而,本专利文献中描述的技术的局限性在于需要从多个视点拍摄具有背景场景和前景场景这两者的场景的图像。
发明内容
根据本发明的方面,减少了与能够减少所拍摄图像中的反射的图像处理设备和图像处理方法中的拍摄场景和摄像方法有关的限制。
根据本发明的一方面,提供一种图像处理设备,包括:一个或多于一个处理器,其执行存储在存储器中的程序从而用作获取单元,所述获取单元获取通过拍摄被摄体的图像而获得的第一图像数据、通过拍摄摄像者及其周围环境的图像而获得的第二图像数据、以及指示拍摄所述被摄体的图像的摄像设备的外观的第三图像数据;以及图像处理电路,其使用将所述第一图像数据、所述第二图像数据和所述第三图像数据用作输入数据的经学习的机器学习模型来获取所述第一图像数据中的反射被减少的图像数据。
根据本发明的另一方面,提供一种由图像处理设备执行的图像处理方法,包括:获取通过拍摄被摄体的图像而获得的第一图像数据、通过拍摄摄像者及其周围环境的图像而获得的第二图像数据、以及指示拍摄所述被摄体的图像的摄像设备的外观的第三图像数据;以及使用将所述第一图像数据、所述第二图像数据和所述第三图像数据用作输入数据的经学习的机器学习模型来获取所述第一图像数据中的反射被减少的图像数据。
根据本发明的另一方面,提供一种存储用于使计算机执行根据本发明的图像处理方法的程序的计算机可读存储介质。
从以下(参考附图)对示例性实施例的描述,本发明的其它特征将变得明显。
附图说明
图1是示出智能电话的示例配置的框图,该智能电话是根据本发明的实施例的图像处理设备的示例。
图2A和2B是示出图1中的智能电话的外观的示例的图。
图3是根据本实施例的使用经学习的机器学习模型的反射减少处理的概念图。
图4A和4C至4F是示出根据本发明的实施例的反射减少摄像应用的显示的示例的图,并且图4B是示出被摄体的外观的示例的图。
图5A和5B是示出根据本发明的实施例的反射减少摄像应用的显示的示例的图。
图6A和6B是与根据本发明的实施例的智能电话的反射减少模式的操作有关的流程图。
具体实施方式
在下文中,将参考附图详细描述实施例。注意,以下实施例不旨在限制所要求保护的发明的范围。在实施例中描述了多个特征,但是不对发明进行需要所有这些特征的限制,并且可以适当地组合多个这些特征。此外,在附图中,相同的附图标记被赋予相同或相似的配置,并且省略其冗余描述。
注意,在以下实施例中,使用设置有面向内侧(摄像者侧)的照相机(面向内侧的照相机)和面向外侧(被摄体侧)的照相机(面向外侧的照相机)的智能电话的示例来描述本发明。然而,本发明能够被实现为设置有面向内侧的照相机和面向外侧的照相机的其它电子装置(诸如平板终端和膝上型计算机等)。此外,面向内侧的照相机和面向外侧的照相机可以是可附接和可拆卸的外部装置。
此外,摄像功能在本发明中不是必需的,并且本发明可以被实现为能够经由任何方法获取被摄体的拍摄图像和拍摄图像时摄像者的图像数据的任意电子装置或***。例如,本发明可以被实现为能够从通信地连接的外部装置获取这样的图像数据的电子装置。
注意,理想地,被摄体的图像和拍摄图像时的摄像者的图像在相应的定时或同时被拍摄。然而,只要时间差短(例如,在一秒内、在几秒内等),则摄像定时可以不同。这里,同时可以意味着向摄像设备输出摄像指令以基本上同时拍摄各个图像,或者可以意味着图像曝光时段的重叠。
图1是经由功能块示意性地示出智能电话100的示例配置的图,该智能电话100是根据本发明的图像处理设备的示例。
内部总线130包括数据信号线、控制信号线等,并且在所连接的功能块之间传送数据和控制信号。
CPU 101是主控制单元。CPU 101通过将存储在非易失性存储器103中的程序(OS、应用等)加载到存储器102中并执行这些程序以控制功能块的操作来实现智能电话100的各种功能。
存储器102例如是RAM,并且用作主存储设备、工作存储器、缓冲存储器、视频存储器等。
非易失性存储器103是例如电可重写ROM。非易失性存储器103存储供CPU 101执行的程序、各种设置值、诸如图形用户界面(GUI)数据等的***数据、以及诸如由用户拍摄的静止图像和运动图像的数据等的用户数据、应用等。
图像处理电路104由CPU 101控制,以将各种类型的图像处理应用于经由利用面向外侧的照相机107、标准面向内侧的照相机109和广角面向内侧的照相机110的摄像获得的图像数据或者存储在非易失性存储器103中的图像数据。图像处理电路104可以是例如专用硬件,诸如被设计为实现特定功能的专用集成电路(ASIC)等。可选地,图像处理电路104可以被配置为经由诸如数字信号处理器(DSP)等的可编程处理器执行存储在非易失性存储器103中的程序来实现特定功能。此外,图像处理电路104可以包括用于执行诸如深度学习等的机器学习所需的高速计算的专用电路。此外,根据处理,可以经由CPU 101代替图像处理电路104来执行程序而应用图像处理。
这里,由信号处理电路104应用的图像处理包括预处理、颜色插值处理、校正处理、检测处理、数据修改处理、评价值计算处理、特效处理等。
预处理包括降噪、缺陷像素校正、A/D转换、D/A转换等。
颜色插值处理是用于插值在拍摄图像时未获得的颜色分量的值的处理,并且也被称为去马赛克处理或同步处理。
校正处理包括白平衡调节、灰度校正(伽马处理)、用于校正光学***的光学像差或渐晕的影响的处理、用于校正颜色的处理等。
检测处理包括用于检测特征区域(例如,面部区域或人体区域)或其移动的处理、用于识别人的处理等。
数据修改处理包括组合处理、缩放处理、编码和解码处理、报头信息生成处理等。
评价值计算处理包括用于生成在自动调焦检测(AF)中使用的信号或评价值的处理、用于计算在自动曝光控制(AE)中使用的评价值的处理等。
特效处理包括用于添加模糊、改变色调、重新照亮处理等的处理。注意,这些处理是可以由图像处理电路104应用的图像处理的示例,而不是旨在限制图像处理电路104所应用的图像处理。
例如,显示器105是触摸液晶显示器。显示器105由CPU 101控制以显示OS或应用的GUI的图像(图标、窗口、软件键等)、由照相机拍摄的图像等。
CPU 101生成显示数据并将显示数据存储在存储器102的视频存储区域中。显示器105基于显示数据生成视频信号,并在显示面板上显示视频信号。注意,也可以将视频信号供应到外部显示器。
操作单元106是用户可操作装置(诸如按钮、开关(硬件或软件)、触摸面板等)的通用名称。CPU 101监视操作单元106并根据操作对象和操作内容执行操作。注意,关于显示器105上的触摸操作,CPU 101检测触摸位置并识别预定的触摸操作(敲击、拖拽、捏合、擦拭等)。CPU 101检测对诸如外部连接的键盘、鼠标等的输入装置的操作。
智能电话100包括一个面向外侧的照相机107、两个面向内侧的照相机109和110。两个面向内侧的照相机109和110包括具有不同视角的单焦点镜头,并且面向内侧的照相机110的镜头具有比面向内侧的照相机109的镜头更宽的视角。因此,在本说明书中,这些被称为标准面向内侧的照相机109和广角面向内侧的照相机110。然而,“标准”和“广角”是指两个面向内侧的照相机的视角之间的关系,并不旨在表示特定的视角。
面向外侧的照相机107是包括例如诸如CCD/CMOS图像传感器等的图像传感器、摄像光学***(透镜)、快门、光阑、焦点检测电路、A/D转换器等的照相机单元。面向外侧的照相机107的镜头可以是变焦镜头或单焦点镜头。此外,该镜头包括调焦透镜。面向外侧的照相机107处理拍摄静止图像和运动图像。经由摄像获得的图像数据被发送到图像处理电路104、存储在预定格式的数据文件中、并且存储在非易失性存储器103中。如果显示器105的显示表面被定义为智能电话100的前表面,则面向外侧的照相机107设置在智能电话100的后表面上。
发光装置108例如是包括一个或多于一个发光元件(例如LED)的辅助光源。这用于拍摄图像时的闪光和视频光。可能能够调节发光装置108的光的颜色。
标准面向内侧的照相机109和广角面向内侧的照相机110是具有与包括单焦点镜头的面向外侧的照相机107的配置类似的配置的照相机单元。标准面向内侧的照相机109和广角面向内侧的照相机110设置在智能电话100的前表面上。因此,面向外侧的照相机107以及两个面向内侧的照相机109和110的摄像方向彼此相差180°。
通信I/F 111是用于与经由有线或无线连接通信地连接的外部装置通信的接口。通信I/F 111可以支持多个通信标准。此外,外部装置可以直接连接到通信I/F 111,或者可以经由网络112连接。
图2A和2B是示出智能电话100的外观的示例的图。图2A是显示器105的显示屏所在的表面(在下文中,称为前表面或显示表面)的平面图。此外,图2B是与前表面平行的表面(后表面)的平面图。在图2A和2B中,图1所示的组件被赋予与图1中相同的附图标记。
本实施例的智能电话100具有当使用面向外侧的照相机107拍摄图像时可以选择的反射减少模式。在选择反射减少模式的情况下,并行地进行使用面向外侧的照相机107的摄像和使用面向内侧的照相机之一(例如,广角面向内侧的照相机110)的摄像。此外,使用由广角面向内侧的照相机110拍摄的摄像者的图像,减少由面向外侧的照相机107拍摄的被摄体的图像中的反射。
反射减少模式可以由用户通过对能够使用面向外侧的照相机107和面向内侧的照相机110摄像的应用的画面上的GUI进行操作来选择。可选地,当启动特定应用时,可以默认选择反射减少模式。此外,在图像处理电路104分析在摄像待机状态期间拍摄的用于EVF显示的运动图像并且检测到反射的情况下,反射减少模式可以被配置为自动选择。
在下文中,将描述由用于以反射减少模式拍摄图像的应用执行反射减少处理的示例。然而,反射减少处理可以被实现为通用应用的单个功能,或者可以是由OS提供的功能。
对由面向外侧的照相机107拍摄的图像的反射减少处理使用例如使用神经网络实现的经学习的机器学习(ML)。图3是使用经学习的ML模型302的反射减少处理的概念图。
机器学习模型302输出具有减少的反射的被摄体图像,其中输入数据是:
1)由面向外侧的照相机107拍摄被摄体的图像而获得的第一图像数据(被摄体图像),
2)由广角面向内侧的照相机110拍摄(拍摄被摄体的)摄像者和周围环境的图像而获得的第二图像数据(摄像者的图像),以及
3)表示拍摄被摄体的图像的摄像设备(在该示例中,智能电话100)的外观的第三图像数据(设备图像)。
注意,智能电话100的外观的图像是例如可以预先存储在非易失性存储器103中的智能电话100的背面的图像。
注意,机器学习模型302可以存储在非易失性存储器103中,或者可以包括在能够与智能电话100通信的外部设备中。在机器学习模型302设置在外部设备中的情况下,可以通过经由通信I/F 111下载到智能电话100来使用机器学习模型302。此外,代替下载机器学习模型302,可以将输入数据301发送到外部设备,并且可以由外部设备执行机器学习模型302的计算。在机器学习模型302的计算由外部设备执行的情况下,智能电话100从外部设备接收计算结果(具有减少的反射的被摄体图像)。
在该示例中,学习模型302或者存储在非易失性存储器103中,或者从外部设备下载到智能电话100。
注意,用于实现机器学习模型302的方法(神经网络的配置和层数、激活函数等)和学习方法(损失函数、优化算法等)可以是已知技术。此外,本发明不依赖于实现机器学习模型302的方法和学习方法。因此,在本文中,仅给出机器学习模型302的学习方法的简单描述,并且将省略具体细节。
机器学习模型302可以使用监督学习来学习。具体地,作为输入数据,使用由面向外侧的照相机107拍摄的具有反射的被摄体图像、由广角面向内侧的照相机110拍摄的摄像者的图像、以及智能电话100的设备图像。此外,作为指示目标结果的数据(即,目标数据),在训练数据中使用与被摄体图像的输入数据相对应的没有反射或具有减少的反射的图像。可以通过对具有反射的被摄体图像应用图像处理来生成目标数据,或者可以使用从与具有反射的被摄体图像相同的视点拍摄的没有反射的被摄体图像。例如,在通过玻璃拍摄的图像中,可以经由正常摄像来获取具有反射的图像,然后可以通过在阻挡智能电话100周围的光之后拍摄图像来获取没有反射的图像。
可以通过准备各种被摄体和摄像环境作为输入数据和学习数据并训练机器学习模型来获得经学习的机器学习模型302。
接下来,将描述关于为什么将广角面向内侧的照相机图像发送到机器学习模型的原因。被摄体图像中的反射对应于在从被摄体朝向面向外侧的照相机107的方向上拍摄的图像的镜像。在从被摄体到面向外侧的照相机107的方向上拍摄的图像与由面向内侧的照相机拍摄的图像显著相似。可以基于由面向外侧的照相机107拍摄的被摄体图像与由面向内侧的照相机拍摄的摄像者和周围环境的图像之间的相似性来训练机器学习模型达到收敛,以接近输出去除或减少反射的结果,即目标数据。
此外,与由标准面向内侧的照相机109获得的图像相比,由能够在比标准面向内侧的照相机109更宽的范围内拍摄摄像者的周围环境的图像的广角面向内侧的照相机110获得的图像在检测具有反射的图像中的相似性方面更有用。
此外,由于拍摄被摄体图像的智能电话100的反射可能包括在被摄体图像中,因此智能电话100的外观图像被发送到机器学习模型。使用智能电话100的外观图像作为输入数据允许机器学习模型容易地检测智能电话100在被摄体图像中的反射,因此有利于收敛训练,使得输出结果接近目标数据。这有助于帮助训练达到收敛,使得输出结果接近目标数据。
图4A至4F以及图5A和5B是示出反射减少应用的显示的示例的图。CPU 101执行应用,并且图像处理电路104等被控制以显示这些显示。
图4A示出应用被启动时的显示状态。在应用画面的下部,显示摄像按钮401的GUI。此外,当应用被启动时,摄像待机状态被激活,并且由面向外侧的照相机107拍摄的视频402被实时显示在应用画面上。CPU 101连续执行由面向外侧的照相机107进行的运动图像拍摄处理、由图像处理电路104进行的用于显示的运动图像数据生成处理、以及由显示器105进行的运动图像数据的显示处理。
用户可以经由视频402检查摄像区域、曝光状态等。触摸摄像按钮401以拍摄图像。当检测到对摄像按钮401的触摸操作时,CPU 101以反射减少模式执行摄像处理。
图4A示出包括电视作为主被摄体并且在电视画面上存在用户及其周围环境的反射的场景。图4B示出经由反射减少处理去除反射的图像。通过以这种方式减少反射,获得主被摄体突出的图像。此外,在将图像上传到因特网的情况下,可以保护用户的个人信息不被泄漏。
在反射减少模式中,CPU 101还在待机时用广角面向内侧的照相机110拍摄视频。然后,CPU 101指示图像处理电路104基于由面向内侧的照相机110获得的图像和由面向外侧的照相机107获得的图像来检测是否存在用户的反射。图像处理电路104使用诸如模式匹配等的已知技术来检测是否存在用户的反射,并将结果通知CPU 101。
在图像处理电路104向CPU 101通知存在用户的反射的情况下,CPU 101指示图像处理电路104例如以画中画模式显示由广角面向内侧的照相机110获得的视频。响应于该指令,图像处理电路104开始由广角面向内侧的照相机110获得的视频的画中画显示(图4C)。
此外,图像处理电路104将指示符叠加在由面向外侧的照相机107拍摄的视频上,以向用户通知反射。图4D示出叠加在存在用户面部的反射的区域中的框状指示符的示例。然后,图像处理电路104在由面向外侧的照相机107拍摄的视频中检测与在广角面向内侧的照相机110拍摄的视频中检测到的面部区域相似的区域,并且围绕该区域显示叠加的框图像。
此外,在由广角面向内侧的照相机110拍摄的视频上,图像处理电路104显示指示符,该指示符指示与由面向外侧的照相机107拍摄的视频中的面部的反射相似的区域(图4E)。
以这种方式,通过使用由广角面向内侧的照相机110拍摄的图像中所示的面部,可以向用户通知:存在可以减少由面向外侧的照相机107拍摄的图像中的面部的反射的高可能性。
然而,存在这样的情况:在由面向外侧的照相机107拍摄的图像中存在面部的反射,但是图像处理电路104判断为在由广角面向内侧的照相机110拍摄的图像中没有出现人的面部的反射。在这种情况下,图像处理电路104在显示器105上显示用于提示用户使用广角面向内侧的照相机110拍摄用户面部的图像的指示符。
如图4F所示,图像处理电路104显示叠加在由广角面向内侧的照相机110拍摄的图像上的类似于面部的框和图形作为指示符。注意,基于反射的图像,可以确定户的面部在广角面向内侧的照相机110的摄像区域中示出的优选大小和位置,并且可以根据确定结果在该位置和以该大小显示指示符。注意,指示符可以是使用词语来表达详细指令的消息。通过以这种方式显示指示符,可以增加在由面向外侧的照相机107拍摄的图像中存在面部的反射的情况下能够更适当地减少反射的可能性。
注意,不管如何显示指示符,摄像按钮401都可以在广角面向内侧的照相机110中未示出面部的状态下操作。在这种情况下,CPU 101指示图像处理电路104在显示器105上显示向用户通知不能减少面部反射的消息。图5A是消息的示例。
在图5A所示的状态下,例如,当检测到对显示器105的敲击操作时,CPU 101指示图像处理电路104在显示器105上显示对话框,以供用户确认他们是否希望继续摄像。图5B是确认对话框的示例。
确认对话框包括用于指示是否继续摄像的“是”和“否”按钮。当检测到“是”按钮的敲击操作时,CPU 101开始静止图像拍摄操作。当检测到“否”按钮的敲击操作时,CPU 101向图像处理电路104通知取消确认对话框。在这种情况下,反射减少应用的显示返回到图4F的状态。
接下来,将使用图6A和6B所示的流程图来描述与反射减少模式中的摄像相关的CPU 101的操作。在该示例中,假设摄像环境是图4A至4F中所示的摄像环境。
在步骤S601中,CPU 101判断是否已经检测到打开反射减少摄像模式的用户操作。这里,启动安装在智能电话100中的反射减少摄像应用的操作被认为是打开反射减少摄像模式的操作。注意,代替检测操作,可以判断当前摄像模式是否被设置为反射减少模式。在CPU 101判断为已经检测到打开反射减少摄像模式的用户操作的情况下,执行步骤S602。在未判断为这一点的情况下,重复执行步骤S601。
在步骤S602中,CPU 101开始摄像待机状态操作。CPU 101使用面向外侧的照相机107开始拍摄视频。此外,CPU 101指示图像处理电路104生成用于显示的视频并显示所生成的视频。以这种方式,在显示器105上连续显示示出面向外侧的照相机107的摄像区域的视频(图4A)。
此外,CPU 101指示图像处理电路104对由面向外侧的照相机107拍摄的视频执行面部检测处理。图像处理电路104开始对视频的帧图像执行面部检测处理,并向CPU 101通知检测结果(检测到的面部区域的数量、大小、位置等)。注意,可以根据图像处理电路104的帧频或性能来设置执行面部检测处理的频率。图像处理电路104可以连续地执行面部检测处理,或者可以在每次从CPU 101接收到指令时对一帧执行面部检测处理。此后,CPU 101执行步骤S603。
在步骤S603中,CPU 101判断面向内侧的照相机的视角是否被设置为广角。例如,CPU 101从存储器102读出当前的面向内侧的照相机视角设置,并且判断使用广角面向内侧的照相机110的设置是否开启。可选地,CPU 101可以从标准面向内侧的照相机109和广角面向内侧的照相机110中判断广角面向内侧的照相机110是否被启用。在判断为面向内侧的照相机的视角是广角的情况下,CPU 101执行步骤S605。在未判断为这一点的情况下,CPU 101执行步骤S604。
在步骤S604中,CPU 101将存储在存储器102中的面向内侧的照相机的视角设置改变为广角。然后,CPU 101执行步骤S605。
在步骤S605中,CPU 101分析在步骤S602中由面向外侧的照相机107开始拍摄的视频。例如,CPU 101指示图像处理电路104对由面向外侧的照相机107拍摄的视频执行面部检测处理。注意,在步骤S602中指示图像处理电路104连续执行面部检测处理的情况下,可以省略步骤S605。然后,CPU 101执行步骤S606。
在步骤S606中,CPU 101判断在由面向外侧的照相机107拍摄的视频中是否存在面部的反射。在例如获取到利用图像处理电路104进行的面部检测处理的结果并且检测到面部区域的情况下,CPU 101判断为存在面部的反射并执行步骤S607;并且在没有检测到面部区域的情况下,CPU 101判断为没有面部的反射并执行步骤S620。
在步骤S607中,CPU 101开始使用广角面向内侧的照相机110拍摄视频(这可以在步骤S605处开始)。此外,CPU 101指示图像处理电路104基于由广角面向内侧的照相机110拍摄的视频来生成用于显示的视频,并经由画中画显示来显示所生成的视频。以这种方式,将示出面向外侧的照相机107的摄像区域的视频和由广角面向内侧的照相机110拍摄的视频连续显示在显示器105上(图4C)。然后,CPU 101执行步骤S608。
在步骤S608中,CPU 101指示图像处理电路104显示叠加在由面向外侧的照相机107拍摄的视频上的用于指示检测到的面部区域的指示符。以这种方式,如图4D所示,用于指示检测到的面部区域的指示符被叠加显示在由面向外侧的照相机107拍摄的视频上。注意,可以在发送检测面部区域的指令的同时显示用于指示面部区域的指示符的叠加显示。然后,CPU 101执行步骤S609。
在步骤S609中,CPU 101指示图像处理电路104将面部检测处理应用于由广角面向内侧的照相机110拍摄的视频。然后,CPU 101执行步骤S610。注意,步骤S609的处理可以包括在步骤S607的处理中。
在步骤S610中,CPU 101基于从图像处理电路104接收的面部检测处理的结果,判断由广角面向内侧的照相机110拍摄的视频中是否包括面部。在由广角面向内侧的照相机110拍摄的视频中检测到面部的情况下,CPU 101执行步骤S611。在没有检测到面部的情况下,CPU 101执行步骤S614。
在步骤S611中,CPU 101指示图像处理电路104计算在面向外侧的照相机107拍摄的视频中检测到的面部与在广角面向内侧的照相机110拍摄的视频中检测到的面部之间的一致度,该一致度指示这两者一致的程度。图像处理电路104根据在这两个视频中检测到的面部区域,以数值形式转换眼睛、鼻子、嘴等的位置、形状和大小,面部的整体形状,面部中的凸起和凹陷,以及其它面部特征。此外,图像处理电路104比较与面部特征相关的数值,并计算面部之间的一致度。例如,面部之间的一致度可以是数值的差的和,并且在这种情况下,较小的值指示面部之间的一致度较高。图像处理电路104向CPU 101通知所计算出的面部之间的一致度。当CPU 101接收到面部之间的一致度时,CPU 101执行步骤S612。
在步骤S612中,CPU 101基于面部之间的一致度,判断在由面向外侧的照相机107拍摄的视频中检测到的面部和在由广角面向内侧的照相机110拍摄的视频中检测到的面部是否是同一个人的面部。例如,在面部之间的一致度在阈值内的情况下,CPU 101判断为面部是同一个人的并且执行步骤S613。在一致度等于或大于阈值的情况下,CPU 101判断为面部是不同人的并且执行步骤S615。
注意,步骤S611和步骤S612的处理可以经由使用经学习的模型的外推处理来实现。在这种情况下,作为经学习的模型的输入数据,使用在面向外侧的照相机107拍摄的视频中检测到的面部的图像数据和在广角面向内侧的照相机110拍摄的视频中检测到的面部的图像数据。然后,经学习的模型输出一致度作为输出数据。此外,例如,可以经由使用神经网络的机器学习来生成这样的经学习的模型。在这种情况下,机器学习可以是监督学习,该监督学习使用先前由面向外侧的照相机107拍摄的面部部分的图像数据和先前由广角面向内侧的照相机110拍摄的面部部分的图像数据作为输入数据,并且使用经由预定方法获得的这两者之间的一致度作为目标数据。
在步骤S613中,CPU 101指示图像处理电路104显示叠加在由广角面向内侧的照相机110拍摄的视频上的用于指示检测到的面部检测的指示符。以这种方式,如图4E所示,用于指示检测到的面部区域的指示符被叠加显示在由广角面向内侧的照相机110拍摄的视频上。注意,可以在发送检测到面部区域的指令的同时显示用于指示面部区域的指示符的叠加显示。然后,CPU 101执行步骤S620。
在步骤S614中,CPU 101指示图像处理电路104显示用于提示用户改变其位置的指示符(面部位置引导),使得用户的面部可以被广角面向内侧的照相机110拍摄到。例如,响应于该指令,图像处理电路104显示叠加在由广角面向内侧的照相机110拍摄的视频的中央区域中的类似于面部的框和图形(如图4F所示),并且显示以图5A所示的方式叠加的消息。然后,CPU 101执行步骤S615。
在步骤S615中,CPU 101判断用户是否已经进行了摄像操作。具体地,CPU 101判断是否已经对摄像按钮401进行了触摸操作。在CPU 101判断为已经进行了摄像操作的情况下,CPU 101执行步骤S616。在未判断为这一点的情况下,CPU 101执行步骤S605。
在步骤S616中,CPU 101指示图像处理电路104以叠加方式显示用于指示面部反射不能减少的消息。这里,图像处理电路104在显示器105上显示消息,该消息表示“摄像者的反射可能在拍摄中。由于不能用面向内侧的照相机识别出摄像者,因此反射可能不会减少”(图5A)。然后,CPU 101执行步骤S617。
在步骤S617中,CPU 101判断是否已经检测到响应于消息的确认操作,例如,对显示器105的敲击操作。在CPU 101判断为已经进行了确认操作的情况下,CPU 101指示图像处理电路104在显示器105上显示对话框以供用户确认他们是否希望继续摄像。这里,通过图像处理电路104在显示器105上显示包括表示“你希望继续吗?”的消息以及“是”和“否”按钮的对话框(图5B)。注意,代替检测确认操作,可以判断是否已经经过预定量的时间。然后,CPU101执行步骤S618。
在步骤S618中,CPU 101判断是否已经检测到停止摄像操作。具体地,CPU 101判断是否已经检测到对在步骤S617中显示的确认对话框中的“否”按钮的操作。在CPU 101判断已经进行了停止摄像操作的情况下,CPU 101执行步骤S605。在未判断为这一点的情况下,CPU 101执行步骤S619。
在步骤S619中,CPU 101判断是否已经检测到继续摄像操作。具体地,CPU 101判断是否已经检测到对步骤S617中显示的确认消息中的“是”按钮的操作。在CPU 101判断为已经进行了继续摄像操作的情况下,CPU 101执行步骤S621。在未判断为这一点的情况下,CPU101执行步骤S618。
在步骤S620中,与在步骤S615中一样,CPU 101判断用户是否已经进行了摄像操作。在CPU 101判断为已经进行了摄像操作的情况下,CPU 101执行步骤S621。在未判断为这一点的情况下,CPU 101执行步骤S605。
在步骤S621中,CPU 101执行从面向外侧的照相机107和广角面向内侧的照相机110对静止图像的摄像。用于拍摄静止图像的光圈、快门速度和其它参数由CPU 101基于由图像处理电路104基于由面向外侧的照相机107拍摄的视频所生成的评价值来设置。此外,CPU 101基于由图像处理电路104基于由面向外侧的照相机107拍摄的视频所生成的评价值来执行光学***的自动焦点检测。
此外,CPU 101指示图像处理电路104基于由面向外侧的照相机107拍摄的静止图像数据生成用于记录的静止图像数据,并且基于由广角面向内侧的照相机110获得的静止图像数据生成在反射减少模式中使用的静止图像数据。图像处理电路104对静止图像数据应用使图像质量优先于用于生成显示用视频数据的图像处理的图像处理。然后,CPU 101执行步骤S622。
在步骤S622中,CPU 101指示图像处理电路104将反射减少处理应用于在步骤S621中由面向外侧的照相机107拍摄的静止图像数据。图像处理电路104从非易失性存储器103读出经学习的机器学习模型302和智能电话100的外观图像,并将它们加载到内部存储器或存储器102上。然后,图像处理电路104将用于记录的静止图像数据、从由广角面向内侧的照相机110拍摄的静止图像数据生成的静止图像数据、以及智能电话100的外观图像发送到经学习的机器学习模型302作为输入数据。图像处理电路104将作为输出从经学习的机器学习模型302的计算获得的具有减少的反射的图像存储在非易失性存储器103中。
以这种方式,根据本实施例的图像处理设备可以通过将被摄体的图像、摄像者和周围环境的图像以及摄像设备的外观的图像发送到经学习的机器学习作为输入数据来减少被摄体图像中的反射。通过使用摄像者和周围环境的图像以及摄像设备的外观的图像,可以使用如下的配置来减少反射,该配置不使用视觉视差、不需要从多个视点拍摄同一场景的图像、并且可以减少除了具有背景场景和前景场景的场景之外的场景中的反射。
其它实施例
在上述实施例中,图像处理设备包括标准面向内侧的照相机和广角面向内侧的照相机。然而,可能仅存在一个面向内侧的照相机。在这种情况下,可以通过电子裁剪所拍摄图像来改变视角。
注意,为了便于描述和理解,使用图6A和6B描述的操作是面部不包括在主被摄体中的示例。在不知道面部是否包括在主被摄体中的情况下,例如,可以执行以下操作。
在步骤S602中,在由面向外侧的照相机107拍摄的视频中包括面部区域的情况下,图像处理电路104显示叠加在用于显示的视频上的指示面部区域的指示符(图4D)。
在步骤S605中,CPU 101开始使用广角面向内侧的照相机110拍摄视频。此外,CPU101指示图像处理电路104还对由广角面向内侧的照相机110拍摄的视频执行面部检测处理。此外,CPU 101指示图像处理电路104检测由面向外侧的照相机107拍摄的视频中是否存在反射。
例如,在由面向外侧的照相机107拍摄的视频中包括与由广角面向内侧的照相机110拍摄的视频相似的区域的情况下,图像处理电路104判断为在由面向外侧的照相机107拍摄的视频中存在反射。此外,在由广角面向内侧的照相机110拍摄的视频中检测到的面部区域包括在由面向外侧的照相机107拍摄的视频中的与由广角面向内侧的照相机110拍摄的视频相似的区域中的情况下,图像处理电路104判断为存在摄像者的反射。此外,图像处理电路104向CPU 101通知面部检测结果、是否检测到反射以及是否检测到摄像者的反射。
然后,在步骤S606中,在图像处理电路104已经向CPU 101通知存在摄像者的反射的情况下,CPU 101执行步骤S607。在没有接收到通知的情况下,CPU 101执行步骤S620。
从步骤S607开始,操作如上所述。然而,在步骤S610、步骤S611和步骤S612的操作中,使用在步骤S605中从图像处理电路104接收的面部检测结果和与反射有关的判断结果。
其它实施例
本发明的实施例还可以通过如下的方法来实现,即,通过网络或者各种存储介质将执行上述实施例的功能的软件(程序)提供给***或装置,该***或装置的计算机或是中央处理单元(CPU)、微处理单元(MPU)读出并执行程序的方法。
尽管已经参照示例性实施例描述了本发明,但是应当理解,本发明不限于所公开的示例性实施例。以下权利要求的范围应给予最广泛的解释,以涵盖所有这样的修改以及等效结构和功能。
Claims (13)
1.一种图像处理设备,包括:
一个或多于一个处理器,其执行存储在存储器中的程序从而用作获取单元,所述获取单元获取通过拍摄被摄体的图像而获得的第一图像数据、通过拍摄摄像者及其周围环境的图像而获得的第二图像数据、以及指示拍摄所述被摄体的图像的摄像设备的外观的第三图像数据;以及
图像处理电路,其使用将所述第一图像数据、所述第二图像数据和所述第三图像数据用作输入数据的经学习的机器学习模型来获取所述第一图像数据中的反射被减少的图像数据。
2.根据权利要求1所述的图像处理设备,还包括:
存储设备,其存储所述经学习的机器学习模型。
3.根据权利要求1所述的图像处理设备,其中,
所述图像处理电路使用从外部设备下载的所述经学习的机器学习模型。
4.根据权利要求1所述的图像处理设备,其中,
所述图像处理电路将所述第一图像数据、所述第二图像数据和所述第三图像数据发送到包括所述经学习的机器学习模型的外部设备,并且从该外部设备获取反射被减少的图像数据。
5.根据权利要求1所述的图像处理设备,其中,
所述经学习的机器学习模型是使用所述第一图像数据、所述第二图像数据和所述第三图像数据作为输入数据并且使用与所述第一图像数据相对应的没有反射的图像数据作为目标数据来训练的机器学习模型。
6.根据权利要求1所述的图像处理设备,其中,
所述第一图像数据和所述第二图像数据是由不同的摄像设备在相应的定时拍摄的图像数据。
7.根据权利要求1所述的图像处理设备,还包括:
第一摄像设备;
第二摄像设备,其具有与所述第一摄像设备不同的摄像方向;以及
存储设备,其存储所述第三图像数据,其中,
由所述第一摄像设备获得的图像数据用作所述第一图像数据,并且由所述第二摄像设备获得的图像数据用作所述第二图像数据。
8.根据权利要求1所述的图像处理设备,其中,
所述图像处理电路在显示设备上显示基于所述第一图像数据的视频和基于所述第二图像数据的视频。
9.根据权利要求1所述的图像处理设备,其中,
在所述图像处理电路判断为在所述第一图像数据所表示的第一图像中包括与所述第二图像数据所表示的第二图像相似的区域的情况下,所述图像处理电路判断为在所述第一图像数据中存在反射。
10.根据权利要求7所述的图像处理设备,其中,
在所述第一图像数据所表示的第一图像中包括与所述第二图像数据所表示的第二图像相似的区域、在与所述第二图像相似的该区域中检测到面部区域、并且在所述第二图像中未检测到面部区域的情况下,所述图像处理电路在显示设备上显示指示符,该指示符提示所述图像处理设备的用户改变所述图像处理设备的位置,使得面部被所述第二摄像设备拍摄到。
11.根据权利要求10所述的图像处理设备,其中,
所述指示符叠加在基于所述第二图像数据的视频上而显示在所述显示设备上。
12.一种由图像处理设备执行的图像处理方法,包括:
获取通过拍摄被摄体的图像而获得的第一图像数据、通过拍摄摄像者及其周围环境的图像而获得的第二图像数据、以及指示拍摄所述被摄体的图像的摄像设备的外观的第三图像数据;以及
使用将所述第一图像数据、所述第二图像数据和所述第三图像数据用作输入数据的经学习的机器学习模型来获取所述第一图像数据中的反射被减少的图像数据。
13.一种计算机可读存储介质,其存储有用于使计算机执行根据权利要求12所述的图像处理方法的程序。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021017739A JP2022120681A (ja) | 2021-02-05 | 2021-02-05 | 画像処理装置および画像処理方法 |
JP2021-017739 | 2021-02-05 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114882543A true CN114882543A (zh) | 2022-08-09 |
Family
ID=82668463
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210112363.9A Pending CN114882543A (zh) | 2021-02-05 | 2022-01-29 | 图像处理设备、图像处理方法和计算机可读存储介质 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11610293B2 (zh) |
JP (1) | JP2022120681A (zh) |
CN (1) | CN114882543A (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7200965B2 (ja) * | 2020-03-25 | 2023-01-10 | カシオ計算機株式会社 | 画像処理装置、画像処理方法及びプログラム |
US11792506B2 (en) * | 2022-02-09 | 2023-10-17 | Motorola Mobility Llc | Electronic devices and corresponding methods for defining an image orientation of captured images |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9036040B1 (en) * | 2012-12-20 | 2015-05-19 | United Services Automobile Association (Usaa) | Vehicle identification number capture |
WO2014103954A1 (ja) * | 2012-12-27 | 2014-07-03 | 日立マクセル株式会社 | レンズモジュールおよび携帯型撮影装置 |
US9558562B2 (en) * | 2015-02-11 | 2017-01-31 | Dell Products, Lp | System and method for reflection mitigation using blue noise pattern |
US10438630B2 (en) | 2017-02-10 | 2019-10-08 | Canon Kabushiki Kaisha | Display control apparatus that performs time-line display, method of controlling the same, and storage medium |
-
2021
- 2021-02-05 JP JP2021017739A patent/JP2022120681A/ja active Pending
-
2022
- 2022-01-27 US US17/585,930 patent/US11610293B2/en active Active
- 2022-01-29 CN CN202210112363.9A patent/CN114882543A/zh active Pending
Also Published As
Publication number | Publication date |
---|---|
JP2022120681A (ja) | 2022-08-18 |
US20220253993A1 (en) | 2022-08-11 |
US11610293B2 (en) | 2023-03-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101916355B1 (ko) | 듀얼-렌즈 장치의 촬영 방법, 및 듀얼-렌즈 장치 | |
JP6512810B2 (ja) | 撮像装置および制御方法とプログラム | |
RU2649773C2 (ru) | Управление камерой посредством функции распознавания лица | |
US9373022B2 (en) | Image processing apparatus, method of processing image, and computer-readable storage medium | |
CN109218606B (zh) | 摄像控制设备、其控制方法及计算机可读介质 | |
US8334907B2 (en) | Photographing method and apparatus using face pose estimation of face | |
US8576320B2 (en) | Digital photographing apparatus and method of controlling the same | |
US8648960B2 (en) | Digital photographing apparatus and control method thereof | |
CN114882543A (zh) | 图像处理设备、图像处理方法和计算机可读存储介质 | |
JP2019106045A (ja) | 画像処理装置、方法及びプログラム | |
US11438498B2 (en) | Image processing apparatus and method for controlling image processing apparatus | |
JP2018152787A (ja) | 撮像装置、外部装置、撮像システム、撮像方法、操作方法およびプログラム | |
JP2009171428A (ja) | デジタルカメラ装置および電子ズームの制御方法およびプログラム | |
JP2009060291A (ja) | 画像処理装置、画像処理方法及びプログラム | |
WO2012147368A1 (ja) | 撮影装置 | |
JP2017126914A (ja) | 画像処理システム | |
JP6666735B2 (ja) | 画像処理装置、撮像装置、画像処理装置の制御方法及びプログラム | |
JP2020191546A (ja) | 画像処理装置、画像処理方法、およびプログラム | |
JP7277149B2 (ja) | 撮像装置及びその制御方法 | |
CN109525772B (zh) | 图像处理装置、图像处理方法以及存储介质 | |
JP6745658B2 (ja) | 画像処理装置及び画像処理方法、並びにプログラム | |
JP2023062381A (ja) | 撮像装置及びその制御方法とプログラム | |
JP2023063765A (ja) | 画像処理装置、画像処理方法、画像処理システム、およびプログラム | |
KR101611303B1 (ko) | 영상 촬영 방법 및 장치 | |
JP2024013019A (ja) | 制御装置、撮像装置、制御方法、及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |