CN105324781A - 图像处理设备、图像处理方法以及程序 - Google Patents

图像处理设备、图像处理方法以及程序 Download PDF

Info

Publication number
CN105324781A
CN105324781A CN201480034946.8A CN201480034946A CN105324781A CN 105324781 A CN105324781 A CN 105324781A CN 201480034946 A CN201480034946 A CN 201480034946A CN 105324781 A CN105324781 A CN 105324781A
Authority
CN
China
Prior art keywords
image
shooting
deformation pattern
deviation
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201480034946.8A
Other languages
English (en)
Other versions
CN105324781B (zh
Inventor
塚本竹雄
小波宗一
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of CN105324781A publication Critical patent/CN105324781A/zh
Application granted granted Critical
Publication of CN105324781B publication Critical patent/CN105324781B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W12/00Security arrangements; Authentication; Protecting privacy or anonymity
    • H04W12/06Authentication
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/14Transformations for image registration, e.g. adjusting or mapping for alignment of images
    • G06T3/153Transformations for image registration, e.g. adjusting or mapping for alignment of images using elastic snapping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/337Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/197Matching; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/60Static or dynamic means for assisting the user to position a body part for biometric acquisition
    • G06V40/67Static or dynamic means for assisting the user to position a body part for biometric acquisition by interactive indications to the user
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/28Indexing scheme for image data processing or generation, in general involving image processing hardware
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20228Disparity calculation for image-based rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30172Centreline of tubular or elongated structure
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L63/00Network architectures or network communication protocols for network security
    • H04L63/08Network architectures or network communication protocols for network security for authentication of entities
    • H04L63/0861Network architectures or network communication protocols for network security for authentication of entities using biometrical features, e.g. fingerprint, retina-scan
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/57Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/64Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/667Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Computer Security & Cryptography (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Studio Devices (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)

Abstract

本发明公开了一种信息处理***,所述信息处理***包括电路,所述电路输入图像,并且确定所述图像是否与至少一个期望图像捕获条件有偏差。所述电路识别所述图像相对于所述至少一个期望图像捕获条件的偏差量,并且生成变形图像,在所述变形图像中,与所述至少一个期望图像捕获条件的偏差在所述识别到的偏差量之上增加了预定量。

Description

图像处理设备、图像处理方法以及程序
技术领域
本技术涉及一种图像处理设备、图像处理方法以及程序。具体地,本技术涉及,例如,一种能够易于指导用户实现期望拍摄条件的图像处理设备、图像处理方法以及程序。
相关申请的交叉引用
本申请要求于2013年6月26日提交的日本优先权专利申请JP2013-133670的权益,该申请的全部内容以引用的方式并入本文。
背景技术
近年来,例如,分别具有拍摄图像的拍摄功能的各种设备,诸如,智能手机、移动电话、平板计算机以及PC(个人计算机)已经越来越流行。根据该方面,图像的拍摄通常不仅已经由数码相机(如专门用于拍摄图像的设备)执行,而且还由除了照相机之外的具有拍摄功能的设备执行。
进一步地,因为各种设备具有拍摄功能,所以已经开发出使用通过拍摄功能拍摄的图像的各种应用程序。
作为与图像有关的应用程序(其是使用通过拍摄功能拍摄的图像的应用程序),存在虹膜认证装置,该虹膜认证装置拍摄用户眼睛的图像,并且通过使用眼睛的图像来识别用户是否是预定用户(例如,参照PTL1)。
引用列表
专利文件
PTL1:日本特开平2009-199392号公报
发明内容
技术问题
同时,拍摄图像(该拍摄图像是用户通过使用具有拍摄功能的设备(在下文中,称为拍摄功能设备)包括数码相机所拍摄的图像)可能会与,例如,与图像有关的应用程序所需的期望拍摄条件有偏差。
然而,用户可能难以辨别出拍摄图像与期望拍摄条件有偏差。在这种情况下,辨别不出与期望拍摄条件有偏差的用户难以调整拍摄功能设备以使得拍摄图像处于期望拍摄条件。
根据本技术,宜易于指导用户实现期望拍摄条件。
解决方案
在第一个示例性方面中,信息处理***包括电路,该电路输入图像,并且确定图像是否与至少一个期望图像捕获条件有偏差。电路还识别图像相对于该至少一个期望图像捕获条件的偏差量,并且生成变形图像,在该变形图像中,与该至少一个期望图像捕获条件的偏差在识别到的偏差量之上增加了预定量。
在第二个示例性方面中,信息处理方法包括:使用电路来输入图像;以及使用电路来确定图像是否与至少一个期望图像捕获条件有偏差。该方法还包括:使用电路来识别图像相对于该至少一个期望图像捕获条件的偏差量;以及使用电路来生成变形图像,在该变形图像中,与该至少一个期望图像捕获条件的偏差在识别到的偏差量之上增加了预定量。
在第三个示例性方面中,用计算机可读指令对非暂时性计算机可读介质进行编码,这些计算机可读指令在由计算机执行时,使得计算机执行包括输入图像的方法。该方法还包括:确定图像是否与至少一个期望图像捕获条件有偏差;以及识别图像相对于该至少一个期望图像捕获条件的偏差量。然后,该方法生成变形图像,在该变形图像中,与该至少一个期望图像捕获条件的偏差在识别到的偏差量之上增加了预定量。
本发明的有益效果如下:
根据本技术,可以易于指导用户实现期望拍摄条件。
应该注意,在说明书中的效果仅为示例,并且本技术的效果并不限于在说明书中的效果,而是可以会存在另外的效果。
附图说明
图1是图示了根据本技术的实施例的图像处理设备的示例性配置的框图。
图2是图示了图像处理设备的处理的流程图。
图3是图示了用户拍摄用户自身的情况的示意图。
图4是图示了变形图像的第一个具体示例的示意图。
图5是图示了变形图像的第二个具体示例的示意图。
图6是图示了变形图像的第三个具体示例的示意图。
图7是图示了变形图像的第四个具体示例的示意图。
图8是图示了变形图像的第五个具体示例的示意图。
图9是图示了变形图像的第六个具体示例的示意图。
图10是图示了变形图像的第七个具体示例的示意图。
图11A是图示了通过变形量计算部分来计算变形量的方法的示例的示意图。
图11B是图示了通过变形量计算部分来计算变形量的方法的示例的示意图。
图11C是图示了通过变形量计算部分来计算变形量的方法的示例的示意图。
图11D是图示了通过变形量计算部分来计算变形量的方法的示例的示意图。
图12是图示了根据本技术的实施例的计算机的示例性配置的框图。
具体实施方式
<根据本技术的实施例的图像处理设备>
图1是图示了根据本技术的实施例的图像处理设备的示例性配置的框图。
图1的图像处理设备可以应用于各种设备,诸如,智能手机、移动电话、平板计算机或者PC。此处,假设图1的图像处理设备应用于,例如,智能手机。
在图1中,图像处理设备,例如智能手机,具有图像获取部分10、图像确定部分20、变形处理部分30、显示部分40、图像处理部分50、保存部分60、操作部分70以及控制部分80。
图像获取部分10根据,例如,用户在操作部分70中的操作来获取图像,并且将获取到的图像提供给图像确定部分20、变形处理部分32和图像处理部分50。
即,图像获取部分10是,例如,拍摄部分,该拍摄部分拍摄图像,并且将拍摄图像(可以从其结果中获得),例如,获取到的图像,提供给图像确定部分20、变形处理部分32和图像处理部分50。
此外,图像获取部分10用作,例如,与网络(诸如,英特网)连接的接口或者与能够提供图像的图像提供设备(诸如,数码相机)连接的接口。由此,图像获取部分10能够通过有线通信、无线通信等来获取在网络上的图像、由图像提供设备提供的图像等。
应该注意,在下文中,使用了以下假设。图像获取部分10是,例如,拍摄图像的拍摄部分。拍摄图像(由拍摄部分所拍摄)由图像获取部分10(作为拍摄部分)提供给图像确定部分20、变形处理部分32和图像处理部分50。
图像确定部分20确定从图像获取部分10获取的拍摄图像(获取到的图像)是否与期望拍摄条件有偏差,并且向变形处理部分30和图像处理部分50提供表示确定结果的偏差确定信息。
即,图像确定部分20具有实际位移量计算部分21、期望拍摄条件设置部分22以及确定部分23。
实际位移量计算部分21提供有来自图像获取部分10的拍摄图像,并且提供有来自期望拍摄条件设置部分22的期望拍摄条件信息。
实际位移量计算部分21计算实际位移量,并且将该量提供给确定部分23。此处,实际位移量是偏差量,该偏差量表示从图像获取部分10获取的拍摄图像条件与由从期望拍摄条件设置部分22获取的期望拍摄条件信息表示的期望拍摄条件之间的偏差。
例如,响应于来自图像处理部分50的请求,期望拍摄条件设置部分22设置期望拍摄条件,该期望拍摄条件是图像处理部分50(图像处理部分50的图像处理)中的拍摄图像的最佳拍摄条件,并且将表示期望拍摄条件的期望拍摄条件信息提供给实际位移量计算部分21。
确定部分23,基于从实际位移量计算部分21获得的实际位移量,确定从图像获取部分10获取的拍摄图像是否与期望拍摄条件有偏差,并且将表示确定结果的偏差确定信息提供给变形处理部分30和图像处理部分50。
另外,偏差确定信息包括从实际位移量计算部分21获得的实际位移量。
变形处理部分30,基于由图像确定部分20的确定部分23提供的偏差确定信息,来生成变形图像,作为增加了与期望拍摄条件的偏差的大偏差图像,并且将变形图像提供给显示部分40。
即,变形处理部分30具有变形量计算部分31和变形图像生成部分32。
变形量计算部分31提供有来自图像确定部分20的确定部分23的偏差确定信息。
从确定部分23获得的偏差确定信息可以指示拍摄图像与期望拍摄条件有偏差。在这种情况下,变形量计算部分31,例如,基于包括在从确定部分23获得的偏差确定信息中的实际位移量,来计算变形图像的变形量,作为与期望拍摄条件有大偏差的图像的偏差量(大偏差量)。然后,变形量计算部分31将变形量提供给变形图像生成部分32。
另外,当偏差确定信息指示拍摄图像与期望拍摄条件没有偏差时,变形量计算部分31将变形量,例如0,提供给变形图像生成部分32。
变形图像生成部分32通过使用预定图形图像或者由图像获取部分10提供的拍摄图像,来生成大偏差图像,即,例如,变形图像。然后,变形图像生成部分32将图像提供给显示部分40。此处,在大偏差图像中,与期望拍摄条件的偏差(拍摄图像与期望拍摄条件之间的偏差)增加了由变形量计算部分31提供的变形量。另外,在变形图像中,与期望拍摄条件的偏差是变形的。
另外,实际上,当由变形量计算部分31提供的变形量是0时,变形图像生成部分32将由图像获取部分10提供的拍摄图像或者预定图形图像原封不动地提供给显示部分40。
显示部分40形成为液晶面板、有机EL(电致发光)面板等。显示部分40显示由变形处理部分30的变形图像生成部分32提供的图像(拍摄图像、预定图形图像、或者通过使拍摄图像或者预定图形图像变形而获得的变形图像)。
图像处理部分50是,例如,与图像有关的应用程序,该与图像有关的应用程序使用从图像获取部分10获取的拍摄图像。图像处理部分50对从图像获取部分10获取的拍摄图像进行编码,将图像保存(存储)在保存部分60中,并且使用除了该图像之外的拍摄图像来执行预定图像处理。
即,图像处理部分50向期望拍摄条件设置部分22提出请求。该请求是获得在拍摄条件下的拍摄图像,该拍摄条件对于图像处理部分50(或者图像处理部分50的图像处理)是最佳的。
另外,确定部分23提供偏差确定信息,以便拍摄图像与期望拍摄条件没有偏差(指拍摄图像处于期望拍摄条件)。在那时,图像处理部分50通过使用由图像获取部分10提供的拍摄图像,来执行预定图像处理。
此处,作为与图像有关的应用程序,例如,存在认证装置,该认证装置通过执行虹膜认证或者人脸认证来释放对图像处理设备(作为智能手机)的锁定。此外,作为与图像有关的应用程序,例如,存在拍摄辅助装置,该拍摄辅助装置在进行拍摄以获得人脸图像(诸如,聚焦在人脸上的ID照片)、对对象进行大特写的微距拍摄、或者其他任意拍摄时协助拍摄。
保存部分60是半导体存储器、硬盘等,并且根据来自图像处理部分50的控制来存储(保存)由图像处理部分50提供的拍摄图像。
操作部分70是显示在触摸屏(集成在显示部分40中)上的物理按钮或者虚拟按钮,并且由用户操作。操作部分70向控制部分80提供与用户的操作相对应的操作信号。
控制部分80响应于来自操作部分70的操作信号等,来控制组成图像处理设备(作为智能手机)的相应框。
图2是图示了图像处理设备(作为图1的智能手机)的处理的流程图。
另外,期望拍摄条件设置部分22提前响应于来自图像处理部分50的请求,来设置期望拍摄条件,该期望拍摄条件对于图像处理部分50(图像处理部分50的图像处理)是最佳的,并且将表示期望拍摄条件的期望拍摄条件信息提供给实际位移量计算部分21。
在步骤S11中,图像获取部分10通过,例如,拍摄,来获取图像,并且将该图像提供给实际位移量计算部分21、变形图像生成部分32和图像处理部分50,并且该程序进入步骤S12。
在步骤S12中,实际位移量计算部分21计算实际位移量,并且将该量提供给确定部分23。此处,实际位移量是偏差量,该偏差量表示从图像获取部分10获取的拍摄图像(条件)与由从期望拍摄条件设置部分22获取的期望拍摄条件信息表示的期望拍摄条件的偏差。然后,该程序进入步骤S13。
在步骤S13中,确定部分23基于从实际位移量计算部分21获得的实际位移量,来确定从图像获取部分10获取的拍摄图像是否与期望拍摄条件有偏差。
在步骤S13中,如果确定拍摄图像与期望拍摄条件有偏差,那么确定部分23使偏差确定信息包括从实际位移量计算部分21获得的实际位移量。偏差确定信息是指拍摄图像与期望拍摄条件有偏差的信息。然后,确定部分23将该信息提供给变形量计算部分31,并且该程序进入步骤S14。
在步骤S14中,变形量计算部分31根据从确定部分23获得的偏差确定信息,基于包括在偏差确定信息中的实际位移量,计算变形图像的变形量。偏差确定信息是指拍摄图像与期望拍摄条件有偏差的信息。然后,变形量计算部分31将该量提供给变形图像生成部分32,并且该程序进入步骤S15。
在步骤S15中,变形图像生成部分32,例如,通过使用由图像获取部分10提供的拍摄图像,来生成变形图像,在该变形图像中,与期望拍摄条件的偏差变形了由变形量计算部分31提供的变形量。然后,变形图像生成部分32将该图像提供给显示部分40,并且该程序进入步骤S16。
在步骤S16中,在显示部分40中,显示从变形图像生成部分32获得的变形图像。
然后,从步骤S16返回步骤S11,在下文中,直到确定拍摄图像与步骤S13中的期望拍摄条件没有偏差,才会重复步骤S11到步骤S16的程序。
因此,当(确定)拍摄图像与期望拍摄条件有偏差时,显示部分40显示变形图像。
相反,在步骤S13中,可以确定拍摄图像与期望拍摄条件没有偏差,即,拍摄图像可能处于期望拍摄条件。在这种情况下,确定部分23将偏差确定信息提供给变形量计算部分31和图像处理部分50。偏差确定信息是指拍摄图像与期望拍摄条件没有偏差的信息。然后,该程序进入步骤S17。
此处,当偏差确定信息指示拍摄图像与期望拍摄条件没有偏差时,变形量计算部分31向变形量确定部分32提供变形量0。然后,当由变形量计算部分31提供的变形量是0时,变形图像生成部分32将由图像获取部分10提供的拍摄图像原封不动地提供给显示部分40。
结果,在步骤S17中,显示部分40显示从图像获取部分10获取的拍摄图像,即,处于期望拍摄条件的拍摄图像,并且该程序进入步骤S18。
如上所述,当拍摄图像处于期望拍摄条件时,显示部分40不显示变形图像,而是显示处于期望拍摄条件的拍摄图像。
在步骤S18中,控制部分80确定操作部分70是否***作,即,例如,包括在操作部分70中并且未在图中示出的快门按钮(释放按钮)是否***作。
在步骤S18中,如果确定操作部分70为***作,那么该程序返回步骤S11。
进一步地,在步骤S18中,如果确定操作部分70***作,那么该程序进入步骤S19。然后,图像处理部分50执行将由图像获取部分10提供的拍摄图像(即,处于期望拍摄条件的拍摄图像)存储在保持部分60中的预定图像处理,并且结束该程序。
另外,在图2中,当在拍摄图像处于期望拍摄条件之后操作部分70***作时,图像处理部分50执行图像处理。然而,当拍摄图像处于期望拍摄条件时,图像处理部分50执行图像处理,而不等待操作部分70的操作。
可替代地,当拍摄图像在操作部分70***作时处于期望拍摄条件时,图像处理部分50执行图像处理。
<变形图像的具体示例>
在下文中,将描述在图像处理部分50(例如与图像有关的应用程序)是,例如,虹膜认证装置的示例性情况下的变形图像的具体示例。
图3是图示了用户拍摄用户自身以在图像处理设备(作为图1的智能手机)中执行虹膜认证的情况的示意图。
在图像处理设备(作为图3的智能手机)中,拍摄图像的拍摄部分,例如图像获取部分10,设置为与显示部分40的显示屏幕共面。
此处,假设,作为图像处理设备(作为智能手机)的操作模式,显示部分40也具有以下模式:正常模式,在该正常模式下,在显示部分40上将由图像获取部分10拍摄的拍摄图像显示为所谓的实时取景图像;以及变形模式,在该变形模式下,将变形图像显示为实时取景图像。另外,可以根据,例如,用户在操作部分70中的操作等,来将操作模式切换到正常模式或者变形模式。
在正常模式下,在显示部分40上将由图像获取部分10拍摄的拍摄图像显示为实时取景图像。用户能够调整智能手机的方向(拍摄方向)、智能手机的位置、用户自身的姿势等,从而,在观看作为实时取景图像显示在显示部分40上的拍摄图像时,用户自身(作为在拍摄图像中示出的对象)处于适当的条件。
然后,当拍摄图像处于基于用户的判定是适当的条件时,即,例如,当图像处于如下条件时:在拍摄图像中示出的用户的图像具有基于用户的判断是适当的大小并且基于用户的判断是设置在适当位置,用户操作包括在操作部分70中并且未在图中示出的快门按钮。
当用户操作快门按钮时,在那时,图像处理部分50执行,例如,将由图像获取部分10拍摄的拍摄图像存储在保存部分60中的预定图像处理。
此处,图3示出了在正常模式下的显示部分40的实时取景图像的显示的示例。
在图3中,将由图像获取部分10拍摄的拍摄图像原封不动地作为实时取景图像显示在显示部分40上。
另外,图3(以及,随后的图)示出了可见图像。可见图像是用户的图像,当从在相对侧上的第三方看面向相对侧的用户时,该用户的图像是可见的。
即,图3(以及,随后的图)示出了面向图像处理设备(作为智能手机)的显示部分40的显示屏幕侧的用户。由此,在该图中,难以示出面向显示屏幕侧的用户,以便能够检查条件,诸如,用户的表情。
因而,图3(以及,随后的图)示出了可见图像,作为用户的图像,当第三方在相对侧(显示部分40的显示屏幕侧)时,该用户的图像对于第三方是可见的,以便能够检查条件,诸如,面向相对侧的用户的表情。
在正常模式下,如上所述,当拍摄图像处于基于用户的判断是适当的条件时,执行使用拍摄图像的图像处理,诸如,将拍摄图像存储在保存部分60中的图像处理。
因此,例如,在执行虹膜认证作为使用拍摄图像的图像处理的情况下,在正常模式下,难以捕获处于适合虹膜认证的拍摄条件的拍摄图像。
即,对于不善于虹膜认证的用户,不清楚拍摄图像是否处于适合虹膜认证的拍摄条件。为此,用户可能难以辨别出拍摄图像与处于适合虹膜认证的拍摄条件的图像有偏差,并且可能难以捕获处于适合虹膜认证的拍摄条件的拍摄图像。
为此,在变形模式下,确定拍摄图像是否与期望拍摄条件有偏差,该期望拍摄条件是适合虹膜认证的拍摄条件。如果拍摄图像与期望拍摄条件有偏差,那么在显示部分40上将变形图像显示为实时取景图像。在变形图像中,在与图像处理设备(作为智能手机)的调整方向相反的方向上,执行使拍摄图像处于期望拍摄条件所需的变形。即,在变形图像中,强调了拍摄图像与期望拍摄条件之间的偏差。
通过观看作为实时取景图像的变形图像,用户易于辨别出拍摄图像与期望拍摄条件有偏差。因此,用户能够将变形图像用作反面示例来调整图像处理设备(作为智能手机)等的方向,从而使得拍摄图像处于期望拍摄条件。
因此,通过使用变形模式,可以易于指导用户实现期望拍摄条件。
应该注意,可以处于期望拍摄条件的拍摄图像的因素包括,例如,在拍摄图像中示出的对象的位置、大小(视角、面积)、角度(方向)、聚焦、面部表情等。
作为期望拍摄条件,例如,可以采用以下条件:在拍摄图像中示出的对象的位置在垂直线上,该垂直线将拍摄图像分为在右侧和左侧上的两个相等部分;在拍摄图像中示出的对象的大小(面积)占拍摄图像的面积的预定比例或者更大;在拍摄图像中示出的对象的方向与设备刚好相反,使对象成为聚焦,从而不会使对象模糊;以及人物(作为在拍摄图像中示出的对象)的表情是眼睑像平常一样睁开的表情,从而在拍摄图像中示出整个虹膜。
此外,作为期望拍摄条件,例如,可以采用以下条件:人物(作为在拍摄图像中示出的对象)的表情是微笑表情或者嘴巴闭合表情。
图4是图示了变形图像的第一个具体示例的示意图。
在图4中,相对于用户在中心线(该中心线是将拍摄图像分为在右侧和左侧上的两个相等部分的垂直线)上的位置(预定位置)处的条件,使用户(作为在拍摄图像中示出的对象)的位置偏向右侧。
此处,期望拍摄条件可以是如下条件:在拍摄图像中示出的用户的位置是在中心线上的位置。在这种情况下,图像确定部分20的实际位移量计算部分21计算在拍摄图像中示出的用户的位置从中心线上的位置到右侧的偏差量,作为实际偏移量。
然后,基于到右侧的位置偏差量(作为实际位移量),图像确定部分20的确定部分23确定拍摄图像不处于期望拍摄条件。然后,向变形处理部分30提供偏差确定信息,该偏差确定信息包括到右侧的位置偏差量。
基于包括在从图像确定部分20获得的偏差确定信息中的到右侧的位置偏差量(作为实际位移量),变形处理部分30的变形量计算部分31计算到右侧的位置偏差量,作为变形量,该位置偏差量是通过使位置偏差量的大小增加而获得的。
进一步地,变形处理部分30的变形图像生成部分32生成变形图像,该变形图像是通过使由图像获取部分10提供的拍摄图像变形了变形量而获得的,并且显示部分40显示该图像。
即,在变形处理部分30中,将到右侧的位置偏差量设置为变形量,该到右侧的位置偏差量是通过使到右侧的位置偏差量(作为实际位移量)的大小增加而获得的。然后,基于变形量,生成图像,作为变形图像,在该图像中,在拍摄的图像中示出的用户的位置相对于实际位移量从中心线上的位置大大地偏向右侧。
然后,显示部分40显示上述变形图像,即,在拍摄图像中示出的用户的位置相对于实际位移量从中心线上的位置大大地偏向右侧的图像。因此,用户能够辨别出在拍摄图像中示出的用户的位置从中心线上的位置偏向右侧,并且拍摄图像不是适当的图像(对于图像处理部分50(作为与图像有关的应用程序))。
在这种情况下,当观看变形图像时,用户调整用户自身的姿势或者位置或者图像处理设备(作为智能手机)的姿势或者位置,以便校正(消除)到右侧的大位置偏差量(作为应用于变形图像的变形量)。结果,可以获得适当的拍摄图像,即,在拍摄图像中示出的用户的位置是在中心线上的位置的拍摄图像。
确定部分23能够基于,例如,通过以下方式计算得到的实际位移量,来确定拍摄图像是否处于期望拍摄条件,在该期望拍摄条件下,在拍摄图像中示出的用户的位置是在中心线上的位置。在图像确定部分20的实际位移量计算部分21中,通过将人脸认证技术等应用于拍摄图像,来辨别出用户(作为在拍摄图像中示出的对象)的脸,并且计算在脸的中心与拍摄图像的中心线之间的距离,作为实际位移量。
应该注意,上述使用人脸认证技术的方法不会限制确定拍摄图像是否处于期望拍摄条件的方法,在该期望拍摄条件下,在拍摄图像中示出的用户的位置是在中心线上的位置。
图5是图示了变形图像的第二个具体示例的示意图。
在图5中,由于在用户与图像处理设备(图像处理设备的图像获取部分10)(作为智能手机)之间的距离过短或者过长,用户(作为在拍摄图像中示出的对象)略微模糊。
此处,当期望拍摄条件是使在拍摄图像中示出的用户成为聚焦的条件时,图像确定部分20的实际位移量计算部分21计算指示在拍摄图像中示出的用户的散焦程度的模糊量,作为实际位移量。
然后,图像确定部分20的确定部分23基于模糊量(作为实际位移量),来确定拍摄图像不处于期望拍摄条件,并且向变形处理部分30提供包括模糊量的偏差确定信息。
基于包括在从图像确定部分20获得的偏差确定信息中的模糊量(作为实际位移量),变形处理部分30的变形量计算部分31计算模糊量作为变形量,该模糊量是通过使模糊量的大小增加而获得的。
进一步地,变形处理部分30的变形图像生成部分32生成变形图像,该变形图像是通过使由图像获取部分10提供的拍摄图像变形了变形量而获得的,并且显示部分40显示该图像。
即,在变形处理部分30中,将模糊量设置为变形量,该模糊量是通过使模糊量(作为实际位移量)的大小增加而获得的。然后,基于变形量,生成图像,作为变形图像,在该图像中,在拍摄图像中示出的用户是进一步模糊的。
然后,显示部分40显示上述变形图像,即,在拍摄图像中示出的用户是进一步模糊的图像。因此,用户能够辨别出在拍摄图像中示出的用户散焦,并且拍摄图像不是适当的图像(对于图像处理部分50(作为与图像有关的应用程序))。
在这种情况下,当观看变形图像时,用户将在用户自身与图像处理设备(作为智能手机)之间的距离调整为适当的距离,以便校正(消除)模糊量(作为应用于变形图像的变形量)。结果,可以获得适当的拍摄图像,即,在拍摄图像中示出的用户成为聚焦的拍摄图像。
例如,按照以下方式,可以确定拍摄图像处于期望拍摄条件,在该期望拍摄条件下,在拍摄图像中示出的用户成为聚焦。
即,图像确定部分20的实际位移量计算部分21设置在最近预定周期期间包括在拍摄图像中示出的用户的区域,作为观察区域,按照时间序列计算观察区域的对比度,并且检测最大对比度,该最大对比度是按照时间序列计算得到的对比度中的最大对比度。
然后,实际位移量计算部分21计算值,作为模糊量,该值是通过从最大对比度减去最近拍摄图像(最近拍摄图像的观察区域)的对比度而获得的,并且将模糊量作为实际位移量提供给确定部分23。因此,基于实际位移量,确定部分23能够确定拍摄图像是否处于期望拍摄条件,在该期望拍摄条件下,在拍摄图像中示出的用户成为聚焦。
进一步地,变形处理部分30的变形图像生成部分32基于,例如,模糊量(作为变形量),通过减少了通带宽度的低通滤波器对拍摄图像(包括在图像中示出的用户的区域)进行滤波,来生成在拍摄图像中的用户是进一步模糊的图像。
应该注意,上述方法不会限制:确定拍摄图像是否处于期望拍摄条件的方法,在该期望拍摄条件下,在拍摄图像中示出的用户成为聚焦;以及生成变形图像的方法,在该变形图像中,在拍摄图像中示出的用户是进一步模糊的。
图6是图示了变形图像的第三个具体示例的示意图。
在图6中,用户(作为在拍摄图像中示出的对象)的表情是眼睑微闭的表情。
此处,期望拍摄条件可以是如下条件:在拍摄图像中示出的用户的表情如下表情:眼睑像平常一样睁开,从而使整个虹膜可见。在这种情况下,图像确定部分20的实际位移量计算部分21计算表情偏差量,作为实际位移量。表情偏差量是在拍摄图像中示出的用户的表情与眼睑像平常一样睁开的表情(预定表情)之间的偏差量。
然后,图像确定部分20的确定部分23基于表情偏差量(作为实际位移量)确定拍摄图像不处于期望拍摄条件,并且向变形处理部分30提供包括表情偏差量的偏差确定信息。
基于包括在从图像确定部分20获得的偏差确定信息中的表情偏差量(作为实际位移量),变形处理部分30的变形量计算部分31计算表情偏差量,作为变形量,该表情偏差量是通过使表情偏差量的大小增加而获得的。
进一步地,变形处理部分30的变形图像生成部分32生成变形图像,该变形图像是通过使由图像获取部分10提供的拍摄图像变形了变形量而获得的,并且显示部分40显示该图像。
即,在变形处理部分30中,将表情偏差量设置为变形量,该表情偏差量是通过使表情偏差量(作为实际位移量)的大小增加而获得的。基于变形量,生成图像,作为变形图像,在该图像中,在拍摄图像中示出的用户的表情是眼睑几乎闭合的表情。
然后,显示部分40显示上述变形图像,即,在拍摄图像中示出的用户的表情是眼睑几乎闭合的表情的图像。因此,用户能够辨别出在拍摄的图像中示出的用户的表情不是眼睑像平常一样睁开的表情,并且拍摄图像不是适当的图像(对于图像处理部分50(作为与图像有关的应用程序))。
在这种情况下,当观看变形图像时,用户通过使眼睑睁开来调整用户自己的表情。结果,可以获得适当的拍摄图像,即,在拍摄图像中示出的用户的表情是眼睑像平常一样睁开并且看得见(示出)整个虹膜的表情的拍摄图像。
确定部分23能够,例如,按照以下方式来确定拍摄图像是否处于期望拍摄条件,在该期望拍摄条件下,在拍摄图像中示出的用户的表情是如下表情:眼睑像平常一样睁开,从而使整个虹膜可见。图像确定部分20的实际位移量计算部分21通过将眼睑检测技术等应用于拍摄图像,来计算遮蔽条件(在下文中,称为眼睑遮蔽条件),作为实际位移量,在该遮蔽条件下,用户(作为在拍摄图像中示出的对象)的眼睑遮蔽住虹膜。
进一步地,在变形处理部分30的变形图像生成部分32中,例如,将拍摄到用户正在眨眼的一系列拍摄图像保留为眨眼图像,并且用与变形量相对应的眼睑遮蔽条件下的眨眼图像中的眼睛的一部分替代最近拍摄图像中的眼睛的一部分。因此,可以生成图像,作为变形图像,在该图像中,示出了比在拍摄图像中的用户眼睑闭合得更紧的用户。
应该注意,上述方法不会限制:确定拍摄图像是否处于期望拍摄条件的方法,在该期望拍摄条件下,在拍摄图像中的用户的表情是如下表情:眼睑像平常一样睁开,从而使整个虹膜可见;以及生成变形图像的方法,在该变形图像中,示出了比在拍摄图像中的用户眼睑闭合得更紧的用户。
图7是图示了变形图像的第四个具体示例的示意图。
在图7中,用户(用户的姿势)(作为在拍摄图像中示出的对象)不与设备刚好相反,而是朝设备倾斜。
此处,期望拍摄条件可以是如下条件:在拍摄图像中示出的用户与设备刚好相反。在这种情况下,图像确定部分20的实际位移量计算部分21计算倾斜角,作为实际位移量,在该倾斜角下,在拍摄图像中示出的用户朝刚好相反的方向倾斜。
然后,基于倾斜角(作为实际位移量),图像确定部分20的确定部分23确定拍摄图像不处于期望拍摄条件。然后,向变形处理部分30提供包括倾斜角的偏差确定信息。
基于包括在从图像确定部分20获得的偏差确定信息中的倾斜角(作为实际位移量),变形处理部分30的变形量计算部分31计算倾斜角,作为变形量,该倾斜角是通过使倾斜角的大小增加而获得的。
进一步地,变形处理部分30的变形图像生成部分32生成变形图像,该变形图像是通过使由图像获取部分10提供的拍摄图像变形了变形量而获得的,并且显示部分40显示该图像。
即,在变形处理部分30中,将倾斜角设置为变形量,该倾斜角是通过使倾斜角(作为实际位移量)的大小增加而获得的。然后,基于变形量,生成图像,作为变形图像,在该图像中,在拍摄图像中示出的用户进一步朝刚好相反的方向倾斜。
然后,显示部分40显示上述变形图像,即,在拍摄图像中示出的用户进一步倾斜的图像。因此,用户能够辨别出在拍摄图像中示出的用户不与设备刚好相反,并且拍摄图像不是适当的图像(对于图像处理部分50(作为与图像有关的应用程序))。
在这种情况下,当观看变形图像时,用户通过使设备在偏航方向、滚动方向或者俯仰方向上倾斜,来调整,例如,图像处理设备(作为智能手机)的姿势。结果,可以获得适当的拍摄图像,即,在拍摄图像中示出的用户是刚好相反(与图像处理设备(图像处理设备的图像获取部分10)作为智能手机刚好相反)的拍摄图像。
确定部分23能够,例如,通过以下方式,基于计算得到的实际位移量,来确定拍摄图像是否处于期望拍摄条件,在该期望拍摄条件下,在拍摄图像中示出的用户与设备刚好相反。在图像确定部分20的实际位移量计算部分21中,通过将人脸认证技术等应用于拍摄图像,来检测用户(作为在拍摄图像中示出的对象)的脸的方向,并且计算脸的方向相对于刚好相反方向的倾斜角,作为实际位移量。
此外,例如,图像处理设备(作为智能手机)可以具有设置在其中的陀螺仪传感器或者加速度传感器。在这种情况下,例如,用户执行对在拍摄图像中示出的用户与智能手机刚好相反时从陀螺仪传感器或者加速度传感器获取智能手机的姿势(在下文中,称为刚好相反姿势)所必需的操作,从而提前获取刚好相反姿势。然后,通过计算当前姿势与智能手机的刚好相反姿势之间的差异作为实际位移量,基于该实际位移量,可以确定拍摄图像是否处于期望拍摄条件,在该期望拍摄条件下,在拍摄图像中示出的用户与设备刚好相反。
应该注意,上述方法不会限制确定拍摄图像是否处于期望拍摄条件的方法,在该期望拍摄条件下,在拍摄图像中示出的用户与设备刚好相反。
图8是图示了变形图像的第五个具体示例的示意图。
在图8中,用户(作为在拍摄图像中示出的对象)的表情是眼睑微闭的表情。
此处,期望拍摄条件可以是如下条件:在拍摄图像中示出的用户的表情是如下表情:眼睑像平常一样睁开,从而使整个虹膜可见。在这种情况下,图像确定部分20的实际位移量计算部分21计算表情偏差量,作为实际位移量。表情偏差量是在拍摄图像中示出的用户的表情与眼睑像平常一样睁开的表情之间的偏差量。
然后,图像确定部分20的确定部分23基于表情偏差量(作为实际位移量),来确定拍摄图像不处于期望拍摄条件,并且向变形处理部分30提供包括表情偏差量的偏差确定信息。
基于包括在从图像确定部分20获得的偏差确定信息中的表情偏差量(作为实际位移量),变形处理部分30的变形量计算部分31计算表情偏差量,作为变形量,该表情偏差量是通过使表情偏差量的大小增加而获得的。
进一步地,变形处理部分30的变形图像生成部分32生成基于变形量而变形的变形图像,并且显示部分40显示该图像。
此处,在图6中,在变形处理部分30中,使用拍摄图像来生成变形图像。然而,变形图像可以不通过使用拍摄图像来生成,而是通过使用角色(诸如,3D(维)头像)、GUI(图形用户界面)和其他图形图像来生成。
在图8中,通过使用熊角色(熊角色的图形图像),来生成变形图像。
即,在变形处理部分30中,将表情偏差量设置为变形量,该表情表茶凉是通过使表情偏差量的大小增加而获得的。基于变形量,生成图像,作为变形图像,在该图像中,熊角色的表情是熊的眼睑比在拍摄图像中示出的用户的眼睑闭合得更紧的表情。
然后,显示部分40显示上述变形图像,熊角色的表情是熊的眼睑比在拍摄图像中示出的用户的眼睑闭合得更紧的表情的图像。因此,用户能够辨别出在拍摄的图像中示出的用户的表情不是眼睑像平常一样睁开的表情,并且拍摄图像不是适当的图像(对于图像处理部分50(作为与图像有关的应用程序))。
在这种情况下,当观看变形图像时,用户通过使眼睑睁开来调整用户自己的表情。结果,可以获得适当的拍摄图像,即,在拍摄图像中示出的用户的表情是眼睑像平常一样睁开从而看得见(示出)整个虹膜的表情的拍摄图像。
另外,使用图形图像(诸如,在某种程度上暗示是人物(用户)的图8的熊角色)生成的变形图像不仅可以应用于图6的情况,还可以应用于图4、图5、图7等的情况。
进一步地,作为用于生成变形图像的图形图像,可以采用除了图形图像(诸如,暗示是人物的图8的熊角色)之外的图像。
图9是图示了变形图像的第六个具体示例的示意图。
在图9中,如在图5中一样,用户(作为在拍摄图像中示出的对象)略微模糊。
此处,当期望拍摄条件是使在拍摄图像中示出的用户成为聚焦的条件时,图像确定部分20的实际位移量计算部分21计算指示在拍摄图像中示出的用户的散焦程度的模糊量,作为实际位移量。
然后,图像确定部分20的确定部分23基于模糊量(作为实际位移量),来确定拍摄图像不处于期望拍摄条件,并且向变形处理部分30提供包括模糊量的偏差确定信息。
基于包括在从图像确定部分20获得的偏差确定信息中的模糊量(作为实际位移量),变形处理部分30的变形量计算部分31计算模糊量,作为变形量,该模糊量是通过使模糊量的大小增加而获得的。
进一步地,变形处理部分30的变形图像生成部分32生成基于变形量而变形的变形图像,并且显示部分40显示该图像。
此处,在图5中,在变形处理部分30中,使用拍摄图像来生成变形图像。然而,如上所述,变形图像可以不通过使用拍摄图像来生成,而是通过使用图形图像来生成。
在图9中,例如,图像处理部分50(作为使用拍摄图像的与图像有关的应用程序)可以是执行虹膜认证或者人脸认证的认证装置。在这种情况下,使用GUI(在下文中,称为正在认证GUI)来生成变形图像,当认证装置正在执行认证时,将文本“正在认证”显示在GUI中。
即,在变形处理部分30中,将模糊量设置为变形量,该模糊量是通过使模糊量(作为实际位移量)的大小增加而获得的。然后,基于变形量,生成图像,作为变形图像,在该图像中,正在认证GUI比在拍摄图像中示出的用户更模糊。
然后,显示部分40显示上述变形图像,即,正在认证GUI比在拍摄图像中示出的用户更模糊的图像。因此,用户能够辨别出在拍摄图像中示出的用户散焦,并且拍摄图像不是适当的图像(对于图像处理部分50(作为与图像有关的应用程序))。
在这种情况下,当观看变形图像时,用户将在用户自身与图像处理设备(作为智能手机)之间的距离调整为适当的距离,以便校正(消除)模糊量(作为应用于变形图像的变形量)。结果,可以获得适当的拍摄图像,即,在拍摄图像中示出的用户成为聚焦的拍摄图像。
图10是图示了变形图像的第七个具体示例的示意图。
在图10中,如在图7中一样,用户(作为在拍摄图像中示出的对象)(用户的姿势)不与设备刚好相反,而是朝设备倾斜。
此处,期望拍摄条件可以是如下条件:在拍摄图像中示出的用户与设备刚好相反。在这种情况下,图像确定部分20的实际位移量计算部分21计算倾斜角,作为实际位移量,在该倾斜角下,在拍摄图像中示出的用户朝刚好相反的方向倾斜。
然后,基于倾斜角(作为实际位移量),图像确定部分20的确定部分23确定拍摄图像不会处于期望拍摄条件。然后,向变形处理部分30提供包括倾斜角的偏差确定信息。
基于包括在从图像确定部分20获得的偏差确定信息中的倾斜角(作为实际位移量),变形处理部分30的变形量计算部分31计算倾斜角,作为变形量,该倾斜角是通过使倾斜角的大小增加而获得的。
进一步地,变形处理部分30的变形图像生成部分32生成基于变形量而变形的变形图像,并且显示部分40显示该图像。
此处,在图7中,在变形处理部分30中,使用拍摄图像来生成变形图像。然而,在图10中,例如,如在图9中一样,变形图像可以不通过使用拍摄图像来生成,而是通过正在认证GUI(作为图形图像)来生成。
即,在变形处理部分30中,将倾斜角设置为变形量,该倾斜角是通过使倾斜角(作为实际位移量)的大小增加而获得的。然后,基于变形量,生成图像,作为变形图像,在该图像中,正在认证GUI是倾斜的。
然后,显示部分40显示上述变形图像,即,正在认证GUI比在拍摄图像中示出的用户更倾斜的图像。因此,用户能够辨别出在拍摄图像中示出的用户不与设备刚好相反,并且拍摄图像不是适当的图像(对于图像处理部分50(作为与图像有关的应用程序))。
在这种情况下,当观看变形图像时,用户通过使设备在偏航方向、滚动方向或者俯仰方向上倾斜,来调整图像处理设备(作为智能手机)的姿势。结果,可以获得适当的拍摄图像,即,在拍摄图像中示出的用户是刚好相反(与图像处理设备(图像处理设备的图像获取部分10)作为智能手机刚好相反)的拍摄图像。
另外,使用图形图像生成的变形图像难以用作人物(用户)的表情是变形的图像,该图形图像不像图9和图10的正在认证GUI一样暗示为是人物。因此,可以将变形图像应用于图4、图5和图7的情况,在这些情况下,图像,而非人物的表情,是变形的。
<变形量的计算>
图11A至11D是图示了通过图1的变形量计算部分31来计算变形量的方法的示例的示意图。
变形量计算部分31能够基于,例如,预定插值函数,相对于包括在从确定部分23获得的偏差确定信息中的实际位移量,来计算变形量。
图11A示出了用于计算变形量的第一插值函数的示例。
图11A的第一插值函数是线性插值函数,通过该线性插值函数,响应于输入值获得线性输出值。通过相应的第一插值函数,来计算具有预定数(>1)次数的值的变形量,作为实际位移量。
图11B示出了用于计算变形量的第二插值函数的示例。
图11B的第二插值函数是样条插值函数,通过该样条插值函数,响应于输入值获得非线性输出值。通过对应的第二差值函数,为具有小值的实际位移量计算具有大于在第一插值函数(作为线性函数)的情况下的值的值的变形量,并且为具有大值的实际位移量计算具有收敛于预定值的值的变形量。
因此,根据通过第二差值函数计算得到的变形量,例如,如图4所示,用户的位置与中心线上的位置的位置偏差量相对于用户的位置与中心线上的位置有偏差(偏向右侧)的拍摄图像可能较小。在这种情况下,生成经过变形以增加(强调)位置偏差量的变形图像,即,用户的位置进一步具有大偏差的变形图像。
相反,位置偏差量可能较大。在这种情况下,生成经过变形以使位置偏差量较小(不太变形)的变形图像,即,用户的位置偏离了基本上与位置偏差量相同的量的变形图像。
根据通过上述第二插值函数计算得到的变形量,当位置偏差量较大时,在变形图像中,可以防止用户离开图像帧,或者可以减小用户离开图像帧的程度。
图11C示出了用于计算变形量的第三插值函数的示例。
图11C的第三插值函数是常数插值函数,通过该常数插值函数,响应于输入值获得非线性输出值。通过对应的第三插值函数,为实际位移量计算变形量,该变量是逐步变化的。
在第三插值函数中,即使当实际位移量略微变化时,变形量也不会变化。因此,该函数是有效的,例如,当无须顺序地反映实际位移量变化作为变形图像变化时。
例如,如图8所示,计算表情偏差量,作为实际位移量,在该表情偏差量中,在拍摄图像中示出的用户的表情与眼睑像平常一样睁开的表情有偏差。基于从实际位移量获得的变形量,生成图像,作为变形图像,在该图像中,熊角色的表情是熊的眼睑比在拍摄图像中示出的用户的眼睑闭合得更紧的表情。在这种情况下,第三插值函数可以用于计算变形量。
即,例如,作为熊角色的(图形)图像,提供了三种图像:眼睑完全睁开的图像、眼睑闭合(睁开)一半的图像、以及眼睑完全闭合的图像。基于随着实际位移量而逐步变化的变形量,可以从上述三种图像中选择待生成作为变形图像的图像。
在这种情况下,可以减小保留角色图像的存储器区域,或者可以减小在显示部分40上显示角色图像的处理成本。
图11D示出了用于计算变形量的第四插值函数的示例。
图11D的第四插值函数是与图11A的第一插值函数相似的线性插值函数,但是计算实际位移量原封不动地作为变形量的函数。
图11D的第四插值函数将位移量原封不动地设置为变形量,并且可以在显示部分40上将未变形的图像显示为实时取景图像时(在未执行任何变形时)使用。
在变形模式下,当通过第四插值函数计算变形量并且通过使用拍摄图像生成变形图像时,按照与正常模式相似的方式,显示部分40将由图像获取部分10拍摄到的拍摄图像原封不动地显示为实时取景图像。
另外,可以在使用实际位移量来计算变形量时使用除了图11A至图11D的插值函数之外的函数。
如上所述,在图1的图像处理设备(作为智能手机)中,通过拍摄来获取图像,并且获取到的拍摄图像(获取到的图像)与期望拍摄条件有偏差。在这种情况下,生成变形图像,在该变形图像中,与期望拍摄条件的偏差是变形的。因此,可以易于指导用户实现期望拍摄条件。
即,用户自然而然地执行这种操作:即使在没有了解期望拍摄条件(例如,在拍摄图像中示出的用户与设备刚好相反)时,也会校正在观看变形图像时的拍摄图像与期望拍摄条件的偏差。结果,可以易于地获得期望拍摄条件的拍摄图像。
因此,当图像处理部分50(作为使用拍摄图像的与图像有关的应用程序)是,例如,执行虹膜认证的虹膜认证装置时,可以易于获得适合虹膜认证的拍摄图像。
此处,在虹膜认证装置中,例如,如在专利公开第3307936号等的说明书中公开的,通常,通过照相机拍摄是用户眼睛的图像的眼睛图像,剪下眼睛图像的虹膜部分,并且提取虹膜的特征(虹膜数据),然后通过交叉检查虹膜数据,来使其与提前注册在虹膜认证装置中的虹膜数据中的特征一致。在这种情况下,将用户指定(认证)为用户自身。
在对应的虹膜认证装置中,为了维持认证准确度,必须拍摄具有高准确度和在适当条件下的眼睛的眼睛图像。因此,在显示屏幕上使用高分辨率显示用户的眼睛图像,并且为用户调整眼睛的位置,以便使眼睛处于显示屏幕中的某一矩形区域中。因此,拍摄虹膜认证所需的眼睛图像。
然而,不擅长虹膜认证的操作的用户难以将眼睛的位置调整在具有高分辨率的显示屏幕中的矩形区域中,并且可能需要很长时间来调整眼睛的位置。
进一步地,即使当调整了眼睛的位置时,眼睛也可能散焦,眼睛图像也可能模糊,闭合的眼睛也可能遮蔽住眼睛的虹膜的一部分或者全部,或者也可以在眼睛不与照相机刚好相反而是朝照相机倾斜的状态下拍摄眼睛。在这种情况下,难以获得适合虹膜认证装置的虹膜认证的眼睛图像。
此外,在上述PTL1的说明书中,重复以下程序。首先,对于具有低分辨率的眼睛图像,虹膜认证装置确定在眼睛图像中示出的眼睛是否在显示屏幕中的某一矩形区域中。如果在眼睛图像中示出的眼睛在矩形区域中,那么眼睛图像从低分辨率眼睛图像变为高分辨率眼睛图像并且显示在显示屏幕上,并且为用户调整眼睛的位置以便使其在显示屏幕中的矩形区域中。
然而,在对应的虹膜认证装置中,无论眼睛图像的分辨率何时变化,用户不得不将眼睛的位置调整在显示屏幕中的矩形区域中。即使当调整了眼睛的位置时,如上所述,眼睛图像也可能散焦。
相反,在图1的图像处理设备(作为,智能手机)中,如上所述,可以易于指导用户实现期望拍摄条件。因此,可以易于获得适合虹膜认证的拍摄图像。
进一步地,在图1的图像处理设备(作为,智能手机)中,不是通过使用示出了用户的拍摄图像来生成变形图像,而是通过使用图形图像,诸如预定角色或者GUI,来生成变形图像。因此,当图像处理部分50(作为与图像有关的应用程序)是,例如,虹膜认证装置时,可以防止秘密拍摄生物信息,并且可以避免用户因为按照放大的方式显示眼睛图像而感觉不适。
即,当显示的不是图形图像,而是,例如,示出了用户的拍摄图像时,别人可以秘密拍摄生物信息,诸如,在拍摄图像中示出的虹膜(的图像),并且用户可能会因为在拍摄图像中按照放大的方式示出眼睛的图像而感觉不适。
当不是通过使用示出了用户的拍摄图像来生成变形图像,而是通过使用图形图像,诸如预定角色或者GUI,来生成变形图像时,可以防止秘密拍摄上述生物信息,并且可以避免用户感觉不适。
此处,作为使用拍摄图像的与图像有关的应用程序,例如,如上所述,存在执行虹膜认证等的认证装置以及帮助微距拍摄等的拍摄辅助装置。
在认证装置中,作为期望拍摄条件,可以存在以下全部条件:在拍摄图像中示出的用户的位置是在中心线上的位置;在拍摄图像中示出的用户成为聚焦;在拍摄图像中示出的用户的表情是眼睑睁开从而看得见整个虹膜的表情;以及在拍摄图像中示出的用户与设备刚好相反。
进一步地,在拍摄辅助装置中,当执行辅助微距拍摄时,作为期望拍摄条件,可能存在以下条件:在拍摄图像中示出的(大)对象成为聚焦;在拍摄图像中示出的对象的视角在预定范围内(在从预定最小值到预定最大值的范围内)等等。
应该注意,本技术不仅可以应用于具有拍摄功能的拍摄功能设备,诸如,数码相机、智能手机、移动电话、平板计算机和PC,而且还可以应用于所有使用由拍摄设备(诸如,数码相机)拍摄的图像的与图像有关的应用程序,无论是否提供有拍摄功能。
即,在本技术中,例如,对用户进行拍摄,并且,在TV(电视)等上,显示在通过拍摄获得的图像中示出的用户。另外,在响应于用户的动作而参与的游戏中,显示了变形图像,在该变形图像中,与在拍摄图像中示出的用户的适当大小或者适当位置的偏差是变形的。因此,可以指导用户,从而在游戏中在适当位置处以适当的大小显示用户。
进一步地,本技术可以应用于,例如,通过在可穿戴眼镜上显示变形图像来指导用户适当地穿戴(戴上)所谓的可穿戴眼镜的应用程序,在该变形图像中,与由照相机拍摄的适当图像的偏差是变形的,该可穿戴眼镜安装有小型照相机的眼镜类型。
此外,本技术可以应用于,例如,当拍摄图像因为数码相机在偏航方向、滚动方向或者俯仰方向上的倾斜而产生倾斜时,通过显示倾斜是变形的变形图像的方式来通知用户数码相机是倾斜的,以提醒用户校正数码相机的倾斜的应用程序。
此处,例如,在智能手机中,照相机可以设置在两个表面上:一个是执行所谓的主显示的显示表面,另一个是与显示表面相对的表面。然而,本技术可以应用于两种图像:一种由设置在显示表面上的照相机(前照相机)拍摄,另一种由设置在与显示表面相对的表面上的照相机(后照相机)拍摄。
进一步地,本技术可以应用于静态图像和活动图像两者。
<描述采用本技术的计算机>
接下来,上述这些系列的处理可以由硬件执行,或者可以由软件执行。当这些系列的处理由软件执行时,将组成软件的程序安装在通用计算机等上。
因此,图12示出了计算机的实施例的配置示例,在该计算机中,安装有执行上述系列的处理的程序。
可以提前将程序记录在硬盘105或者用作内置在计算机中的记录介质的ROM103中。
可替代地,可以将程序存储(记录)在可移除记录介质111中。可以提供这种可移除记录介质111作为所谓的封装软件。此处,可移除记录介质111的示例包括软盘、光盘只读存储器(CD-ROM)、磁光(MO)盘、数字通用光盘(DVD)、磁盘、半导体存储器等。
应该注意,程序不但可以从可移除记录介质111安装在计算机中,而且还可以通过通信网络或者广播网络下载至计算机,并且安装在内置硬盘105中。即,程序可以通过用于数字卫星广播的卫星以无线的方式从下载站点转移到计算机,或者可以通过网络,诸如,局域网(LAN)或者英特网,以有线的方式下载至计算机。
计算机具有内置在其中的中央处理单元(CPU)102。CPU102通过总线101连接至输入/输出接口。
当用户通过使用输入单元107执行操作等通过输入/输出接口110输入指令时,CPU102响应于该指令执行存储在只读存储器(ROM)103中的程序。可替代地,CPU102将存储在硬盘105中的程序加载在随机存取存储器(RAM)104上,并且执行该程序。
因此,CPU102执行根据上述流程图的处理或者通过上述框图的配置执行的处理。然后,必要时,CPU102通过输入/输出接口110,例如,从输出单元106输出处理结果,发送来自通信单元108的处理结果,或者将处理结果记录在硬盘105中。
应该注意,输入部分107包括键盘、鼠标、麦克风等。进一步地,输出部分106包括液晶显示器(LCD)、扬声器等。
此处,在本说明书中,可以无须按照流程图中示出的顺序中的时间序列来执行程序使计算机执行的处理。即,程序使计算机执行的处理还包括并行或者单独执行的处理(例如,并行处理或者基于对象的处理)。
进一步地,程序可以由单台计算机(处理器)处理,或者可以由多台计算机按照分布式方式处理。此外,程序可以转移到远程计算机,并且可以由该计算机执行。
此外,在本说明书中,***意谓多个元件(装置、模块(组件)等)的总成,无论所有元件是否在相同的机箱中。因此,***是设置在分开的机箱中并且通过网络连接的多个装置、以及多个模块设置在单个机箱中的单个装置。
应该注意,本技术的实施例不限于上述实施例,并且在不脱离本技术的技术范围的情况下,可以修改为各种形式。
例如,在本技术中,可以采用云计算配置,在该云计算配置中,多个装置通过网络共用并且协作处理单个功能。
进一步地,在上述流程图中描述的步骤不但由单个装置执行,而且还可以由多个装置共用并且执行。
此外,当多个处理包括在单个步骤中时,包括在单个步骤中的多个处理不仅由单个装置执行,而且还可以由多个装置共用并且执行。
应该注意,本技术可以具有以下配置。
(1)一种信息处理***,其包括:电路,该电路配置为:输入图像,确定图像是否与至少一个期望图像捕获条件有偏差,识别图像相对于该至少一个期望图像捕获条件的偏差量,以及生成变形图像,在该变形图像中,与该至少一个期望图像捕获条件的偏差在识别到的偏差量之上增加了预定量。
(2)根据(1)所述的信息处理***,其中,该电路进一步配置为使变形图像显示。
(3)根据(1)所述的信息处理***,其中,该至少一个期望图像捕获条件包括使在图像中的对象与图像的中心线对齐,并且偏差量是图像的中心线与对象的中心线之间的差异。
(4)根据(1)至(3)中任一项所述的信息处理***,其中,该至少一个期望图像捕获条件包括图像的聚焦水平,并且偏差量是在该图像中检测到的模糊量。
(5)根据(1)至(4)中任一项所述的信息处理***,其中,该至少一个期望图像捕获条件包括在图像中的对象相对于捕获图像的图像捕获装置的期望定向角,并且偏差量是在对象的实际倾斜角与期望定向角之间的差异。
(6)根据(1)至(5)中任一项所述的信息处理***,其中,该至少一个期望图像捕获条件包括在图像中的对象的期望睁眼状态,并且偏差量是在对象的实际睁眼状态与期望睁眼状态之间的差异。
(7)根据(1)至(6)中任一项所述的信息处理***,其中,变形图像包括图形图标,该图形图标根据在偏差量之上增加了预定量的与至少一个期望图像捕获条件的偏差而设置在变形图像中,图形图标在变形图像中代替图像的对象。
(8)根据(7)所述的信息处理***,其中,图形图标是图形用户界面的一部分。
(9)根据(8)所述的信息处理***,其中,图形图标包括文本。
(10)根据(9)所述的信息处理***,其中,图形用户界面与人脸认证过程对应。
(11)根据(10)所述的信息处理***,其中,人脸认证过程包括针对眼睛虹膜的认证过程。
(12)根据(1)至(11)中任一项所述的信息处理***,其中,变形图像包括角色图像,该角色图像根据在偏差量之上增加了预定量的与至少一个期望图像捕获条件的偏差而设置在变形图像中,角色图像在变形图像中代替图像的对象。
(13)根据(1)所述的信息处理***,其中,电路使用插值函数确定该偏差量所增加的预定量。
(14)根据(13)所述的信息处理***,其中,插值函数是线性插值函数。
(15)根据(13)至(14)中任一项所述的信息处理***,其中,插值函数是样条插值函数。
(16)根据(13)至(15)中任一项所述的信息处理***,其中,插值函数是非线性步进插值函数。
(17)根据(1)至(16)中任一项所述的信息处理***,其中,偏差量所增加的预定量为零。
(18)根据(1)至(17)中任一项所述的信息处理***,其中,信息处理***是智能手机。
(19)一种信息处理方法,其包括:使用电路来输入图像;使用电路来确定图像是否与至少一个期望图像捕获条件有偏差;使用电路来识别图像相对于该至少一个期望图像捕获条件的偏差量;以及使用电路来生成变形图像,在该变形图像中,与该至少一个期望图像捕获条件的偏差在识别到的偏差量之上增加了预定量。
(20)一种非暂时计算机可读介质,用在所述非暂时性计算机可读介质上的计算机可读指令对所述非暂时性计算机可读介质进行编码,所述计算机可读指令在由计算机执行时,使得所述计算机执行一种方法,所述方法包括:输入图像;确定图像是否与至少一个期望图像捕获条件有偏差;识别图像相对于该至少一个期望图像捕获条件的偏差量;以及生成变形图像,在该变形图像中,与该至少一个期望图像捕获条件的偏差在识别到的偏差量之上增加了预定量。
(21)一种图像处理设备,其包括:图像生成部分,该图像生成部分在由图像获取部分获取的获取到的图像与期望拍摄条件有偏差时,生成大偏差图像,在该大偏差图像中,增加了与期望拍摄条件的偏差。
(22)根据(21)所述的图像处理设备,其中,当在获取到的图像中示出的对象的位置与预定位置有偏差时,图像生成部分生成大偏差图像,在该大偏差图像中,增加了对象的位置偏差。
(23)根据(21)所述的图像处理设备,其中,当在获取到的图像中示出的对象是模糊的时,图像生成部分生成大偏差图像,在该大偏差图像中,增加了对象的模糊度。
(24)根据(21)所述的图像处理设备,其中,当在获取到的图像中示出的对象的表情与预定表情有偏差时,图像生成部分生成大偏差图像,在该大偏差图像中,增加了对象的表情偏差。
(25)根据(21)所述的图像处理设备,其中,当在获取到的图像中示出的对象不是与设备刚好相反,而是倾斜于设备时,图像生成部分生成大偏差图像,在该大偏差图像中,增加了对象的倾斜。
(26)根据(21)至(25)中任一项所述的图像处理设备,其中,图像生成部分通过使用获取到的图像来生成大偏差图像。
(27)根据(21)至(25)中任一项所述的图像处理设备,其中,图像生成部分通过使用预定图形图像来生成大偏差图像。
(28)根据(21)至(25)中任一项所述的图像处理设备,还包括:实际位移量计算部分,其计算实际位移量,该实际位移量是期望拍摄条件与由图像获取部分获取的获取到的图像的条件之间的偏差量;以及大偏差量计算部分,其根据实际位移量来计算大偏差量,该大偏差量是大偏差图像的偏差量,其中,与期望拍摄条件的偏差根据大偏差量而增加,以及其中,大偏差量相对于实际位移量而呈线性变化或者非线性变化。
(29)根据(21)至(28)中任一项所述的图像处理设备,还包括:图像获取部分;以及显示大偏差图像的显示部分。
(30)一种图像处理方法,包括:在由图像获取部分获取的获取到的图像与期望拍摄条件有偏差时,生成大偏差图像,在该大偏差图像中,增加了与期望拍摄条件的偏差。
(31)一种程序,该程序使计算机用作:图像生成部分,该图像生成部分在由图像获取部分获取的获取到的图像与期望拍摄条件有偏差时,生成大偏差图像,在该大偏差图像中,增加了与期望拍摄条件的偏差。
本领域技术人员应该理解,在所附权利要求书或者其等效物的范围内,可以根据设计需求以及其他因素做出各种修改、组合、子组合和变更。
附图标记列表
10图像获取部分
20图像确定部分
21实际位移量计算部分
22期望拍摄条件设置部分
23确定部分
30变形处理部分
31变形量计算部分
32变形图像生成部分
40显示部分
50图像处理部分
60保持部分
70操作部分
80控制部分
101总线
102CPU
103ROM
104RAM
105硬盘
106输出部分
107输入部分
108通信部分
109驱动器
110输入/输出接口
111可移除记录介质

Claims (20)

1.一种信息处理***,所述信息处理***包括:
电路,所述电路配置为:
输入图像,
确定所述图像是否与至少一个期望图像捕获条件有偏差,
识别所述图像相对于所述至少一个期望图像捕获条件的偏差量,以及
生成变形图像,在所述变形图像中,与所述至少一个期望图像捕获条件的偏差在所述识别到的偏差量之上增加了预定量。
2.根据权利要求1所述的信息处理***,其中,所述电路进一步配置为使所述变形图像进行显示。
3.根据权利要求1所述的信息处理***,其中,所述至少一个期望图像捕获条件包括使在所述图像中的对象与所述图像的中心线对齐,并且所述偏差量是所述图像的所述中心线与所述对象的中心线之间的差异。
4.根据权利要求1所述的信息处理***,其中,所述至少一个期望图像捕获条件包括所述图像的聚焦水平,并且所述偏差量是在所述图像中检测到的模糊量。
5.根据权利要求1所述的信息处理***,其中,所述至少一个期望图像捕获条件包括在所述图像中的对象相对于捕获所述图像的图像捕获装置的期望定向角,并且所述偏差量是在所述对象的实际倾斜角与所述期望定向角之间的差异。
6.根据权利要求1所述的信息处理***,其中,所述至少一个期望图像捕获条件包括在所述图像中的对象的期望睁眼状态,并且所述偏差量是在所述对象的实际睁眼状态与所述期望睁眼状态之间的差异。
7.根据权利要求1所述的信息处理***,其中,所述变形图像包括图形图标,所述图形图标根据在所述偏差量之上增加了所述预定量的、与所述至少一个期望图像捕获条件的所述偏差而设置在所述变形图像中,所述图形图标在所述变形图像中代替所述图像的对象。
8.根据权利要求7所述的信息处理***,其中,所述图形图标是图形用户界面的一部分。
9.根据权利要求8所述的信息处理***,其中,所述图形图标包括文本。
10.根据权利要求9所述的信息处理***,其中,所述图形用户界面与人脸认证过程对应。
11.根据权利要求10所述的信息处理***,其中,所述人脸认证过程包括针对眼睛虹膜的认证过程。
12.根据权利要求1所述的信息处理***,其中,所述变形图像包括角色图像,所述角色图像根据在所述偏差量之上增加了所述预定量的、与所述至少一个期望图像捕获条件的所述偏差而设置在所述变形图像中,所述角色图像在所述变形图像中代替所述图像的对象。
13.根据权利要求1所述的信息处理***,其中,所述电路使用插值函数确定所述偏差量所增加的所述预定量。
14.根据权利要求13所述的信息处理***,其中,所述插值函数是线性插值函数。
15.根据权利要求13所述的信息处理***,其中,所述插值函数是样条插值函数。
16.根据权利要求13所述的信息处理***,其中,所述插值函数是非线性步进插值函数。
17.根据权利要求1所述的信息处理***,其中,所述偏差量所增加的所述预定量为零。
18.根据权利要求1所述的信息处理***,其中,所述信息处理***是智能手机。
19.一种信息处理方法,所述信息处理方法包括:
使用电路来输入图像;
使用所述电路来确定所述图像是否与至少一个期望图像捕获条件有偏差;
使用所述电路来识别所述图像相对于所述至少一个期望图像捕获条件的偏差量;以及
使用所述电路来生成变形图像,在所述变形图像中,与所述至少一个期望图像捕获条件的偏差在所述识别到的偏差量之上增加了预定量。
20.一种非暂时计算机可读介质,所述非暂时计算机可读介质用其上的计算机可读指令进行编码,所述计算机可读指令在由计算机执行时,使得所述计算机执行一种方法,所述方法包括:
输入图像;
确定所述图像是否与至少一个期望图像捕获条件有偏差;
识别所述图像相对于所述至少一个期望图像捕获条件的偏差量;以及
生成变形图像,在所述变形图像中,与所述至少一个期望图像捕获条件的偏差在所述识别到的偏差量之上增加了预定量。
CN201480034946.8A 2013-06-26 2014-06-18 图像处理设备、图像处理方法以及程序 Active CN105324781B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2013-133670 2013-06-26
JP2013133670A JP2015012304A (ja) 2013-06-26 2013-06-26 画像処理装置、画像処理方法、及び、プログラム
PCT/JP2014/003265 WO2014208052A1 (en) 2013-06-26 2014-06-18 Image processing apparatus, image processing method, and program

Publications (2)

Publication Number Publication Date
CN105324781A true CN105324781A (zh) 2016-02-10
CN105324781B CN105324781B (zh) 2019-11-22

Family

ID=51063757

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201480034946.8A Active CN105324781B (zh) 2013-06-26 2014-06-18 图像处理设备、图像处理方法以及程序

Country Status (5)

Country Link
US (1) US10956733B2 (zh)
EP (1) EP3014520B1 (zh)
JP (1) JP2015012304A (zh)
CN (1) CN105324781B (zh)
WO (1) WO2014208052A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110024370A (zh) * 2016-11-30 2019-07-16 三星电子株式会社 电子装置以及在电子装置中显示用于虹膜辨识的图像的方法

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6613740B2 (ja) * 2015-09-09 2019-12-04 富士通コネクテッドテクノロジーズ株式会社 表示制御装置、表示制御方法および表示制御プログラム
CN106843709B (zh) * 2015-12-04 2020-04-14 阿里巴巴集团控股有限公司 根据实时信息显示展现对象的方法和装置
CN105611153B (zh) * 2015-12-21 2019-09-24 联想(北京)有限公司 图像处理方法和电子设备
JP6450709B2 (ja) * 2016-05-17 2019-01-09 レノボ・シンガポール・プライベート・リミテッド 虹彩認証装置、虹彩認証方法、及びプログラム
CN107066079A (zh) 2016-11-29 2017-08-18 阿里巴巴集团控股有限公司 基于虚拟现实场景的业务实现方法及装置
CN107122642A (zh) * 2017-03-15 2017-09-01 阿里巴巴集团控股有限公司 基于虚拟现实环境的身份认证方法及装置
WO2020138258A1 (ja) * 2018-12-28 2020-07-02 ソニー株式会社 情報処理装置、情報処理方法及び情報処理プログラム
JP7303654B2 (ja) * 2019-03-29 2023-07-05 グローリー株式会社 認証システム及び認証方法
JP2022125529A (ja) * 2021-02-17 2022-08-29 キヤノン株式会社 撮像装置、撮像装置の制御方法およびプログラム

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050270386A1 (en) * 2004-05-28 2005-12-08 Hirofumi Saitoh Method and apparatus for authentication utilizing iris
US20070159548A1 (en) * 2004-05-25 2007-07-12 Alain Rouh Device for positioning a user by displaying the user's mirror image, a corresponding positioning method and image-capture apparatus
US20090060394A1 (en) * 2007-08-30 2009-03-05 Seiko Epson Corporation Image Processing Device, Image Processing Method, and Image Processing Program
US20120026326A1 (en) * 2010-07-30 2012-02-02 Hitachi, Ltd. Surveillance camera system having camera malfunction detection function
CN102609957A (zh) * 2012-01-16 2012-07-25 上海智觉光电科技有限公司 一种摄像装置画面偏移检测方法及***
CN102714696A (zh) * 2010-11-11 2012-10-03 松下电器产业株式会社 图像处理装置、图像处理方法、程序及摄影装置
CN103020936A (zh) * 2012-12-12 2013-04-03 湖北微驾技术有限公司 一种人脸图像超分辨率重构方法
CN103139572A (zh) * 2011-11-24 2013-06-05 比亚迪股份有限公司 感光装置及用于其的白平衡方法和装置
CN103384998A (zh) * 2011-03-31 2013-11-06 富士胶片株式会社 摄像装置、摄像方法、程序及程序存储介质

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5291560A (en) 1991-07-15 1994-03-01 Iri Scan Incorporated Biometric personal identification system based on iris analysis
JP4114959B2 (ja) * 1995-06-20 2008-07-09 キヤノン株式会社 画像処理方法及び装置
US20030169334A1 (en) 2001-08-06 2003-09-11 Michael Braithwaite Iris capture device having expanded capture volume
JP3868273B2 (ja) * 2001-11-16 2007-01-17 オリンパス株式会社 カメラのブレ検出方法
US7135123B1 (en) * 2004-01-14 2006-11-14 Credence Systems Corporation Method and system for integrated circuit backside navigation
JP4489608B2 (ja) * 2004-03-31 2010-06-23 富士フイルム株式会社 ディジタル・スチル・カメラ,画像再生装置および顔画像表示装置ならびにそれらの制御方法
US7894640B2 (en) * 2006-07-27 2011-02-22 Panasonic Corporation Identification apparatus and identification image displaying method
JP4582423B2 (ja) * 2007-04-20 2010-11-17 富士フイルム株式会社 撮像装置、画像処理装置、撮像方法、及び画像処理方法
JP2009199392A (ja) 2008-02-22 2009-09-03 Oki Electric Ind Co Ltd 虹彩認証方法及び虹彩認証装置
JP5115398B2 (ja) * 2008-08-27 2013-01-09 セイコーエプソン株式会社 画像処理装置、画像処理方法および画像処理プログラム
US8788977B2 (en) * 2008-11-20 2014-07-22 Amazon Technologies, Inc. Movement recognition as input mechanism
JP4645746B2 (ja) * 2009-02-06 2011-03-09 ソニー株式会社 画像処理装置、画像処理方法および撮像装置
EP2400461A4 (en) * 2009-02-19 2017-08-02 Nec Corporation Image processing system, image processing method, and image processing program
JP5346266B2 (ja) * 2009-09-30 2013-11-20 富士フイルム株式会社 画像処理装置、カメラ及び画像処理方法
JP5577939B2 (ja) * 2010-08-20 2014-08-27 ソニー株式会社 撮像装置、収差補正方法、および、プログラム
US9424767B2 (en) * 2012-06-18 2016-08-23 Microsoft Technology Licensing, Llc Local rendering of text in image

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070159548A1 (en) * 2004-05-25 2007-07-12 Alain Rouh Device for positioning a user by displaying the user's mirror image, a corresponding positioning method and image-capture apparatus
US20050270386A1 (en) * 2004-05-28 2005-12-08 Hirofumi Saitoh Method and apparatus for authentication utilizing iris
US20090060394A1 (en) * 2007-08-30 2009-03-05 Seiko Epson Corporation Image Processing Device, Image Processing Method, and Image Processing Program
US20120026326A1 (en) * 2010-07-30 2012-02-02 Hitachi, Ltd. Surveillance camera system having camera malfunction detection function
CN102714696A (zh) * 2010-11-11 2012-10-03 松下电器产业株式会社 图像处理装置、图像处理方法、程序及摄影装置
CN103384998A (zh) * 2011-03-31 2013-11-06 富士胶片株式会社 摄像装置、摄像方法、程序及程序存储介质
US20130342753A1 (en) * 2011-03-31 2013-12-26 Fujifilm Corporation Imaging device, imaging method and program storage medium
CN103139572A (zh) * 2011-11-24 2013-06-05 比亚迪股份有限公司 感光装置及用于其的白平衡方法和装置
CN102609957A (zh) * 2012-01-16 2012-07-25 上海智觉光电科技有限公司 一种摄像装置画面偏移检测方法及***
CN103020936A (zh) * 2012-12-12 2013-04-03 湖北微驾技术有限公司 一种人脸图像超分辨率重构方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110024370A (zh) * 2016-11-30 2019-07-16 三星电子株式会社 电子装置以及在电子装置中显示用于虹膜辨识的图像的方法
US11113552B2 (en) 2016-11-30 2021-09-07 Samsung Electronics Co., Ltd. Electronic device and method for displaying image for iris recognition in electronic device

Also Published As

Publication number Publication date
US10956733B2 (en) 2021-03-23
CN105324781B (zh) 2019-11-22
EP3014520B1 (en) 2019-11-20
EP3014520A1 (en) 2016-05-04
US20160371812A1 (en) 2016-12-22
WO2014208052A1 (en) 2014-12-31
JP2015012304A (ja) 2015-01-19

Similar Documents

Publication Publication Date Title
CN105324781A (zh) 图像处理设备、图像处理方法以及程序
JP7365445B2 (ja) コンピューティング装置及び方法
US10540806B2 (en) Systems and methods for depth-assisted perspective distortion correction
EP2849431B1 (en) Method and apparatus for detecting backlight
JP7096355B2 (ja) 生体検知方法、装置及び記憶媒体
EP3213290B1 (en) Data processing apparatus, imaging apparatus and data processing method
US9142010B2 (en) Image enhancement based on combining images from multiple cameras
US20130169760A1 (en) Image Enhancement Methods And Systems
CN105981368A (zh) 在成像装置中的照片构图和位置引导
CN112543343B (zh) 基于连麦直播的直播画面处理方法、装置及电子设备
KR20200023651A (ko) 미리보기 사진 블러링 방법 및 장치 및 저장 매체
US8965105B2 (en) Image processing device and method
CN109923543B (zh) 通过生成视频帧的多个部分的指纹来检测立体视频的方法、***和介质
CN111325107A (zh) 检测模型训练方法、装置、电子设备和可读存储介质
CN109726613B (zh) 一种用于检测的方法和装置
EP2863337B1 (en) Methods and systems for detecting biometric characteristics in an image
AU2018271418B2 (en) Creating selective virtual long-exposure images
US10432855B1 (en) Systems and methods for determining key frame moments to construct spherical images
CN111553865A (zh) 图像修复方法及装置、电子设备和存储介质
CN111885371A (zh) 图像遮挡检测方法、装置、电子设备和计算机可读介质
JP6933125B2 (ja) 情報処理装置,撮影ガイド表示プログラム,撮影ガイド表示方法
JP6539624B2 (ja) 視線一致顔画像合成方法、テレビ会議システム、及びプログラム
CN114143442B (zh) 图像虚化方法、计算机设备、计算机可读存储介质
US11776141B1 (en) Hybrid image registration techniques
CN113657384B (zh) 证件图像的矫正方法及装置、存储介质及电子设备

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant