CN112040095B - 电子装置、电子装置的控制方法及存储介质 - Google Patents

电子装置、电子装置的控制方法及存储介质 Download PDF

Info

Publication number
CN112040095B
CN112040095B CN202010497375.9A CN202010497375A CN112040095B CN 112040095 B CN112040095 B CN 112040095B CN 202010497375 A CN202010497375 A CN 202010497375A CN 112040095 B CN112040095 B CN 112040095B
Authority
CN
China
Prior art keywords
display
line
operation member
specific operation
sight
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010497375.9A
Other languages
English (en)
Other versions
CN112040095A (zh
Inventor
松井崇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Publication of CN112040095A publication Critical patent/CN112040095A/zh
Application granted granted Critical
Publication of CN112040095B publication Critical patent/CN112040095B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/53Constructional details of electronic viewfinders, e.g. rotatable or detachable
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • H04N23/632Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)
  • Studio Devices (AREA)
  • Viewfinders (AREA)
  • Camera Bodies And Camera Details Or Accessories (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)

Abstract

本发明提供了电子装置、电子装置的控制方法及存储介质。电子装置包括:特定操作部件;视线检测单元,其被构造为检测用户相对于显示器的观察位置;以及控制单元,其被构造为进行控制,使得在预定条件被满足之后操作所述特定操作部件的情况下,以基于由视线检测单元检测的注视位置的位置为中心,根据对所述特定操作部件进行的操作的次数或操作量,以至少三个级别的显示倍率当中的显示倍率来放大或缩小在显示器上显示的显示对象,所述预定条件是表示所述显示对象被注视的事实。

Description

电子装置、电子装置的控制方法及存储介质
技术领域
本发明涉及放大或缩小显示对象的电子装置、该电子装置的控制方法以及存储介质。
背景技术
能够根据用户对图像的视线来控制显示器上所显示的图像的电子装置已被使用。
日本特开H7-283991号公报公开了一种技术,该技术判定通过视线输入所输入的位置是否在可选区域内,如果是,则以输入位置为中心放大图像。
然而,根据日本特开H7-283991号公报中公开的技术,显示对象图像仅以预定倍率被放大,而不能以用户期望的倍率被放大/缩小。
发明内容
鉴于前述内容,本发明的目的是提供一种电子装置,该电子装置将与用户视线相对应的位置处的显示对象放大或缩小,并且能够以用户期望的倍率来放大或缩小显示对象。
本发明的一个方面是:
一种电子装置,所述电子装置包括:
特定操作部件;
视线检测单元,其被构造为检测用户相对于显示器的观察位置;以及
控制单元,其被构造为进行控制,使得在预定条件被满足之后操作所述特定操作部件的情况下,以基于由视线检测单元检测的注视位置的位置为中心,根据对所述特定操作部件进行的操作的次数或操作量,以至少三个级别的显示倍率当中的显示倍率来放大或缩小在显示器上显示的显示对象,所述预定条件是表示所述显示对象被注视的事实。
通过以下参照附图对示例性实施例的描述,本公开的其他特征将变得清楚。
附图说明
图1A和图1B是根据一个实施例的数字照相机的外观图;
图2是根据该实施例的数字照相机的框图;
图3是描绘根据该实施例的倍率改变处理的流程图;以及
图4A至图4D是用于描述根据该实施例的倍率改变的图。
具体实施方式
第一实施例
数字照相机100的外观图
将参照附图描述本发明的优选实施例。图1A和图1B是数字照相机100的外观图,即,本发明可应用于的装置的示例。图1A是数字照相机100的正面立体图,图1B是数字照相机100的后面立体图。
显示单元28是布置在数字照相机100的背面上的显示器,并且显示图像和各种信息。触摸面板70a检测在显示单元28的显示面(触摸操作面)上进行的触摸操作。取景器外显示单元43是布置在数字照相机100的上面的显示器,并且显示数字照相机100的诸如快门速度和光圈等的各种设定值。快门按钮61是指示拍摄图像的操作部件。模式选择开关60是用于切换各种模式的操作部件。端子盖40是保护将数字照相机100连接到外部装置的连接器(未示出)的盖。
主电子拨盘71是旋转操作部件,并且通过转动主电子拨盘71能够改变诸如快门速度和光圈等设定值。电源开关72是用于切换数字照相机100的电源的打开/关闭(ON/OFF)的操作部件。副电子拨盘73是旋转操作部件,并且例如通过转动副电子拨盘73能够进行选择框(光标)的移动和图像转发。四向键74被构造为使得可以分别按压该键的上部、下部、左部和右部,从而可以进行与四向键74的被按压部分相对应的处理。SET按钮75是按压按钮(按钮),并且主要用于判定所选择项目。
视频按钮76用于指示开始或停止视频拍摄(记录)。AE锁定按钮77是按压按钮,并且可以通过在图像拍摄待机状态下按下AE锁定按钮77来固定曝光状态。放大按钮78是用于在图像拍摄模式的实时取景显示(LV显示)中切换放大模式(ON/OFF)的操作按钮。如果在将放大模式设置为ON之后操作主电子拨盘71,则可以放大或缩小实时取景图像(LV图像,实时图像)。在再现模式下,放大按钮78用作放大再现图像或增大放大比率的操作按钮。再现按钮79是用于切换图像拍摄模式和再现模式的操作按钮。如果在图像拍摄模式下按下再现按钮79,则该模式改变为再现模式,在再现模式下,将记录在记录介质200(稍后描述)中的图像当中的最新图像显示在显示单元28上。菜单按钮81是用于指示显示菜单画面的按压按钮,并且如果按压菜单按钮81,则在显示单元28上显示使得能够进行各种设置的菜单画面。用户能够使用显示在显示单元28上的菜单画面、四向键74和设置(SET)按钮75直观地进行各种设置。
通信端子10是数字照相机100与镜头单元150(可拆卸,稍后描述)进行通信的通信端子。目镜16是目镜取景器(窥视型取景器)的目镜部分,并且用户可以经由目镜16观察在内部EVF 29(稍后描述)上显示的图像。目镜检测单元57是检测用户(图像拍摄者)的眼是否正在与目镜16接触的眼接触(眼接近)检测传感器。盖202是存储记录介质200(稍后描述)的槽的盖。握持部90是保持单元,其形状使得用户能够在拍摄图像时用右手保持数字照相机100。当用户在眼与目镜16接触的同时,通过用小指、无名指和中指握持该握持部90来保持数字照相机100时,快门按钮61和主电子拨盘71处于可以用右手的食指操作的位置。在这种状态下,副电子拨盘73处于可以由右手的大拇指操作的位置。拇指托91(拇指待用位置)是设置在数字照相机100的背面侧上的、在不操作任何操作部件的情况下可容易地安放保持该握持部90的右手大拇指的位置的握持部件。拇指托91由橡胶部件等构成,以增强保持力(握持感)。
数字照相机100的构造框图
图2是描绘数字照相机100的构造示例的框图。透镜单元150是配备有可更换图像拍摄透镜的透镜单元。透镜103通常由多个透镜构成,但为了简化在图2中例示为一个透镜。通信端子6是用于透镜单元150向数字照相机100通信的通信端子,并且通信端子10是用于数字照相机100向透镜单元150通信的通信端子。透镜单元150经由这些通信端子6和10与***控制单元50进行通信。然后透镜单元150使用内部透镜***控制电路4经由光圈驱动电路2控制光圈1。透镜单元150还通过使用镜头***控制电路4经由AF驱动电路3移动透镜103来进行对焦。
快门101是焦平面快门,其可以基于***控制单元50的控制来自由地控制摄像单元22的曝光时间。
摄像单元22是由CCD、CMOS元件等构成的图像拾取元件,以将光学图像转换成电信号。摄像单元22可以包括将离焦量信息输出到***控制单元50的摄像平面相位差传感器。
图像处理单元24对来自A/D转换器23的数据或对来自存储器控制单元15的数据进行预定处理(例如,像素插值、诸如缩小等大小调整、颜色转换处理)。图像处理单元24还使用拍摄的图像数据进行预定的算术处理,并且***控制单元50基于图像处理单元24获取的算术结果进行曝光控制和距离测量控制。从而,进行通过镜头(TTL)型自动对焦(AF)处理、自动曝光(AE)处理、预闪光发射(EF)处理等。此外,图像处理单元24使用拍摄的图像数据进行预定的算术处理,并基于获取的算术结果进行TTL型自动白平衡(AWB)处理。
存储器控制单元15控制A/D转换器23、图像处理单元24和存储器32之间的数据发送和接收。来自A/D转换器23的输出数据经由图像处理单元24和存储器控制单元15被写入存储器32。在某些情况下,来自A/D转换器23的输出数据不经由图像处理单元24,而经由存储器控制单元15被写入存储器32。存储器32存储由摄像单元22获取的并由A/D转换器23转换为数字数据的图像数据和要在显示单元28或EVF 29上显示的图像数据。存储器32具有足以存储预定数量的静止图像以及预定时长的运动图像和声音的存储容量。
存储器32也是用于图像显示的存储器(视频存储器)。写入到存储器32中的要显示的图像数据经由存储器控制单元15显示在显示单元28或EVF 29上。显示单元28和EVF 29根据来自存储器控制单元15的信号分别在诸如LCD和有机EL等的显示器上进行显示。通过将由A/D转换器23进行AD转换并存储在存储器32中的数据依次传输到显示单元28或EVF 29并显示数据来进行实时取景(LV)显示。通过实时取景显示而显示的图像称为实时取景图像(LV图像)。
视线检测单元160(眼追踪器,眼追踪单元)检测用户在目镜16处的视线。视线检测单元160由二向色镜162、成像透镜163、视线检测传感器164、视线检测电路165和红外发光二极管166构成。由于***控制单元50可以根据对视线的检测执行预定处理,所以视线检测单元160可以被视为操作单元70。
红外发光二极管166是检测用户在取景器画面中的观察位置的发光元件,并且向用户的眼球(眼)161照射红外光。从红外发光二极管166发出的红外光被眼球(眼)161反射,并且反射的红外光到达二向色镜162。二向色镜162仅反射红外光,并且允许可见光通过。光路被改变的反射红外光,经由成像透镜163在视线检测传感器164的摄像平面上形成像。成像透镜163是构成视线检测光学***的光学部件。视线检测传感器164由诸如CCD型图像传感器等的摄像设备构成。
视线检测传感器164将进入的反射红外光光电转换为电信号,并且将电信号输出至视线检测电路165。视线检测电路165基于来自视线检测传感器164的输出信号,根据用户的眼球(眼)161的移动来检测用户的观察位置,并将检测信息输出到***控制单元50和注视判定单元170。
视线输入设置单元167设置视线检测电路165(视线检测单元160)的检测视线有效/无效。可选择地,视线输入设置单元167设置***控制单元50使用视线输入进行的处理有效/无效。例如,用户可以通过在操作单元70上进行的操作来自由地设置该有效/无效。
注视判定单元170基于从视线检测电路165接收到的检测信息,在用户的视线固定在区域上的时间段长于预定阈值时,判定用户在注视该区域。因此,该区域被视为注视位置(注视区域),注视位置是用户在注视的位置。此处的“视线...固定在区域上”是指移动视线的平均位置在该区域内至少持续预定时间段,并且观察位置的变化(离散)小于预定值。预定阈值可以由***控制单元50自由地改变。***控制单元50可以基于从视线检测电路165接收到的检测信息来执行与注视判定单元170相同的功能,而不是包括注视判定单元170作为独立的块。
照相机的诸如快门速度和光圈等的各种设定值,经由取景器外显示单元驱动电路44显示在取景器外显示单元43上。
非易失性存储器56是电可擦除和可记录的存储器,例如闪速ROM。在非易失性存储器56中,例如记录用于操作***控制单元50的常量和程序。这里的“程序”是指用于执行稍后将在本实施例中描述的各种流程图的程序。
***控制单元50是由至少一个处理器或电路构成的控制单元,并且整体控制数字照相机100。***控制单元50通过执行记录在上述非易失性存储器56中的程序来实现本实施例的各个处理(稍后描述)。***存储器52例如是RAM,并且***控制单元50在***存储器52中展开用于操作***控制单元50的常量和变量以及从非易失性存储器56读取的程序。***控制单元50还通过控制存储器32、显示单元28等来控制显示。
***计时器53是时钟单元,其测量用于各种控制的时间和内部时钟的时间。
例如,电源控制单元80由电池检测单元、DC-DC转换器、用于切换要通电的块的开关电路构成,并且检测是否安装了电池、电池的类型以及电池电量的剩余量。电源控制单元80还基于检测结果和***控制单元50的指令来控制DC-DC转换器,并且在需要的时间段内向包括记录介质200的各个单元供给需要的电压。电源单元30由一次电池(例如碱电池、锂电池)、二次电池(例如NiCd电池、NiMH电池、Li电池)、AC适配器等构成。
记录介质I/F 18是与记录介质200(例如,存储卡、硬盘)的接口。记录介质200是用于记录拍摄图像的诸如存储卡等记录介质,并且由半导体存储器、磁盘等构成。
通信单元54向/从以无线方式连接的或经由线缆连接的外部装置发送/接收视频信号和声音信号。通信单元54还可以与无线局域网(LAN)和因特网连接。通信单元54还可以经由蓝牙(R)与外部装置进行通信或与蓝牙(R)低能耗设备进行通信。通信单元54可以发送由摄像单元22拍摄的图像(包括LV图像)和记录在记录介质200中的图像,并且可以从外部装置接收图像数据和各种其他信息。
朝向检测单元55检测数字照相机100相对于重力方向的朝向。基于朝向检测单元55检测到的朝向,可以判定摄像单元22拍摄的图像是由水平保持的数字照相机100拍摄的图像还是由竖直保持的数字照相机100拍摄的图像。***控制单元50可以将根据由朝向检测单元55检测到的朝向的朝向信息附加到由摄像单元22拍摄的图像的图像文件,或者可以旋转并记录该图像。对于朝向检测单元55,可以使用加速度传感器、陀螺仪传感器等。可以使用朝向检测单元55的加速度传感器或陀螺仪传感器来检测数字照相机100的运动(例如,摇动、倾斜、抬升、保持静止)。
目镜检测单元57检测眼(物体)161向/从目镜取景器17(以下称为“取景器”)的目镜16的接近(接触)和后退(释放)。***控制单元50根据目镜检测单元57检测到的状态,在显示(显示状态)/不显示(非显示状态)之间切换显示单元28和EVF 29的状态。具体而言,在状态是图像拍摄待机状态并且显示目的地的切换被设置为自动切换的情况下,在非眼接触状态(非眼接近状态)期间,显示目的地是显示单元28(显示为ON)并且EVF 29被设置为不显示。另一方面,在眼接触状态(眼接近状态)期间,显示目的地是EVF 29(显示为ON),并且显示单元28被设置为不显示。对于目镜检测单元57,例如,可以使用红外接近传感器,以检测物体对包括EVF 29的取景器17的目镜16的接近。当物体接近时,从目镜检测单元57的发光单元(未示出)发出的红外光被物体反射,并且由红外接近传感器的光接收单元(未示出)接收。通过接收的红外光的量,可以判定物体到目镜16的距离(目镜距离)。以这种方式,目镜检测单元57通过检测物体到目镜16的接近距离来检测眼接触。如果在非眼接触状态下(非接近状态)检测到接近目镜16的物体在预定距离内,则判定眼接近了目镜16。如果在眼接触状态(接近状态)下检测到接近的物体的距离大于预定距离,则判定眼已经后退。例如,可以通过滞后来区分用于检测眼接触的阈值和用于检测眼后退的阈值。在检测到眼接触之后,假定眼接触状态持续到检测到眼后退为止。在检测到眼后退之后,假定非眼接触状态持续到检测到眼接触为止。红外接近传感器仅是示例,并且其他类型的传感器也可以用于目镜检测单元57,只要该传感器可以检测到眼或可以被判定为眼接触的物体的接近即可。
***控制单元50可以通过控制注视判定单元170或目镜检测单元57来检测对目镜16的以下操作或目镜16的状态。
·未转向目镜16的视线转向目镜16,即开始视线输入
·视线正被输入到目镜16
·正注视目镜16
·朝向目镜16的视线后退,即结束视线输入
·没有视线输入到目镜16
这些操作、状态和视线相对于目镜16的位置(方向)经由内部总线通知给***控制单元50,并且***控制单元50基于通知的信息判定在目镜16上进行的操作的种类(视线操作)。
操作单元70是从用户接收操作指令(用户操作)的输入单元,并且用于将各种操作指令输入到***控制单元50。如图2所示,操作单元70包括模式选择开关60、快门按钮61、电源开关72和触摸面板70a。操作单元70还包括其他操作部件70b,例如主电子拨盘71、副电子拨盘73、四向键74、SET按钮75、视频按钮76,AE锁定按钮77、放大按钮78、再现按钮79和菜单按钮81。
模式选择开关60例如将***控制单元50的操作模式切换为静止图像拍摄模式、运动图像拍摄模式或再现模式。静止图像拍摄模式中包括的模式是:自动图像拍摄模式、自动场景判定模式、手动模式、光圈优先模式(Av模式)、快门速度优先模式(Tv模式)和程序AE模式(P模式)。还包括针对各个图像拍摄场景进行图像拍摄设置的各种场景模式和自定义模式。使用模式选择开关60,用户可以直接选择这些模式中的任何一种。用户还可以首先使用模式选择开关60选择图像拍摄模式列表画面,然后使用其他操作部件选择列表上显示的多个模式中的任何一个。以相同的方式,可以在运动图像拍摄模式中包括多个模式。
快门按钮61包括第一快门开关62和第二快门开关64。在快门按钮61的中间操作中,即,在半按下状态(图像拍摄准备指令)下,第一快门开关62被接通并产生第一快门开关信号SW1。***控制单元50通过第一快门开关信号SW1,开始图像拍摄准备操作,诸如自动对焦(AF)处理、自动曝光(AE)处理、自动白平衡(AWB)处理和预闪光(EF)处理。当对快门按钮61的操作完成时,即,在完全按下状态(图像拍摄指令)时,第二快门开关64被接通,并且生成第二快门开关信号SW2。***控制单元50通过第二快门开关信号SW2,开始从摄像单元22读取信号到将拍摄的图像作为图像文件写入记录介质200的一系列图像拍摄处理的操作。
触摸面板70a和显示单元28可以集成在一起。例如,触摸面板70a被构造为使得透光率不干扰显示单元28上的显示,并且被叠加在显示单元28的显示平面的上层上。触摸面板70a上的输入坐标与显示单元28的显示平面上的显示坐标相对应。由此,可以提供使得用户能够直接操作在显示单元28上显示的画面的图形用户界面(GUI)。***控制单元50能够检测触摸面板70a上的以下操作或其状态。
未触摸触摸面板70a的手指或笔对触摸面板70a进行触摸,即,开始触摸(以下称为“开始触摸”)。
·手指或笔正在对触摸面板70a进行触摸(以下称为“触摸持续”)。
·手指或笔在对触摸面板70a进行触摸的状态下移动(以下称为“触摸移动”)。
·从触摸面板70a释放正在对触摸面板70a进行触摸的手指或笔,即触摸结束(以下称为“触摸完成”)。
·没有任何东西触摸该触摸面板70a(以下称为“无触摸”)。
当检测到“开始触摸”时,也会同时检测到“触摸持续”。除非在“开始触摸”后检测到“触摸完成”,否则通常会连续检测到“触摸持续”。同样地,当检测到“触摸移动”时,也同时检测到“触摸持续”。即使检测到“触摸持续”,除非触摸位置正在移动,否则也不会检测到“触摸移动”。当检测到所有手指或笔都“触摸完成”时,检测到“无触摸”。
经由内部总线将对触摸面板70a进行触摸的手指或笔的这些操作、状态和位置坐标通知给***控制单元50。然后,基于所通知的信息,***控制单元50判定在触摸面板70a上进行的操作(触摸操作)的种类。对于“触摸移动”,***控制单元50还可以基于位置坐标的变化分别针对触摸面板70a上的垂直分量和水平分量,来判定手指或笔在触摸面板70a上移动的移动方向。如果检测到“触摸移动”持续了至少预定距离,则***控制单元50判定进行了滑动操作。在触摸状态下使手指在触摸面板70a上快速移动一定距离并释放手指的操作被称为“轻拂”。换句话说,轻拂是在触摸面板70a上快速地移动手指并释放的操作。如果检测到在预定速度或更快速度的“触摸移动”持续了至少预定距离,并且之后检测到“触摸完成”,则***控制单元50判定进行了轻拂(判定在滑动操作之后进行了轻拂)。此外,将同时触摸多个点(例如,两个点)(多点触摸)并将这些触摸位置移动到一起的触摸操作称为“捏合(pinch-in)”,移动这些触摸位置以进一步分开的触摸操作称为“捏放(pinch-out)”。“捏合”和“捏放”统称为捏操作(或简称为“捏”)。对于触摸面板70a,可以使用各种类型的触摸面板,例如电阻膜型、电容型、面声波型、红外型、电磁感应型、图像识别型和光学传感器型。一种类型是当实际接触触摸面板时检测触摸,一种类型是当手指或笔接近触摸面板时检测触摸,但是可以使用任一种类型。
放大/缩小处理
将参照图3中的流程图描述根据本实施例的静止图像(显示对象)的放大/缩小(变焦(zooming))处理。当***控制单元50将存储在非易失性存储器56中的程序在***存储器52中展开,并且执行该程序以控制各个功能块时,实现图3的流程图中的各个处理。当启动数字照相机100并且***控制单元50控制目镜检测单元57并且检测到用户的眼161接触了目镜16时,该流程图的处理开始。
在S301中,***控制单元50判定EVF 29是否正在再现静止图像。如果正在再现静止图像,如图4A所示,诸如图像拍摄条件的信息也可以显示在EVF 29上。如果正在再现静止图像,则处理前进到S302,否则(例如,没有再现静止图像而是显示LV或菜单画面),则前进到S307。在该实施例中,***控制单元50判定是否正在再现静止图像,但是显示对象不限于静止图像,并且***控制单元50可以判定是否正在显示(再现)诸如运动图像、文本、图案和表格等的***示对象。
在S302中,***控制单元50控制注视判定单元170(视线检测单元160),并且根据是否满足与注视状态对应的预定条件来判定是否正注视EVF 29上再现的静止图像。如果发生注视,则处理前进到S303,否则,处理前进到S301。
如上所述,“注视”是指观察位置(被计算为用户正在观察的位置的位置)固定了至少预定时间段的状态。例如,如果从某个时刻起经过了预定时间段观察位置仍未偏离以某个位置为中心的预定范围,则判定发生了注视。或者,当从某个时刻起经过了预定时间段观察位置的偏差仍是阈值或更小时,则判定为发生了注视。
在S302中,当***控制单元50判定发生了注视时,处理前进到S303,但是,在与此不同的情况下,处理可以前进到S303。例如,在S302中,***控制单元50控制注视判定单元170,并判定注视时间段(注视持续的时间段)是否超过预定阈值。然后,如果注视时间段超过预定阈值,则处理可以前进到S303,否则,处理可以前进到S301。具体而言,即使观察位置固定了2秒并且***控制单元50判定发生了注视,除非注视持续了5秒,否则处理也不会前进到S303。
在S303中,***控制单元50将非倍率改变模式改变为倍率改变模式,非倍率改变模式是倍率改变模式之外的操作模式,倍率改变模式是可以通过诸如转动副电子拨盘73的操作来改变(变焦放大/缩小(zoomed in/out))静止图像的倍率(显示倍率)的操作模式。换句话说,根据本实施例,一旦判定发生了注视,状态就改变,使得即使此后视线的位置改变(不再注视),也可以通过诸如转动副电子拨盘73等的操作来改变静止图像的倍率。在倍率改变模式下,改变静止图像的倍率的操作不限于转动副电子拨盘73的操作。例如,在倍率改变模式下,可以根据诸如对按压按钮(例如,四向键74)进行按压、对触摸面板70a进行触摸,以及用户对EVF 29上显示的预定图标的视线输入等操作来改变静止图像的倍率。
如图4B所示,在S303中,***控制单元50显示视线框,视线框是指示视线在静止图像中的指向(发生注视)的位置(区域)的框,并且在EVF 29上显示指示当前模式是倍率改变模式的图标,例如倍率改变模式标记。例如,在静止图像的观察位置处显示(叠加)用虚线表示的放大框401,并且放大镜标记402被显示为图标以指示当前模式是倍率改变模式。视线框的大小可以是以观察位置为中心的较大区域,但是用于指示观察位置的显示不限于视线框,而是可以是指示观察位置的中心点的显示,只要该显示可以指示观察位置即可。指示倍率改变模式的图标不限于放大镜标记402,而可以是诸如箭头标记的任意标记,或者可以不显示图标本身。
在S304中,***控制单元50判定是否在诸如副电子拨盘73的操作部件上进行了改变静止图像的倍率(显示倍率)的操作。如果进行了该操作,则处理前进到S305,否则,前进到S306。
在作为倍率改变模式以外的操作模式的非倍率改变模式中,可以将与用于改变静止图像的倍率的功能不同的功能分配给副电子拨盘73。在与倍率改变模式不同的静止图像再现模式下(当再现静止图像时),可以将用于将图像改变为下一图像或跳转至第十图像的改变功能分配给副电子拨盘73。即,改变功能是将当前在EVF 29上显示的显示对象切换为不同的显示对象的功能。
在S305中,***控制单元50根据操作部件进行操作的方向和操作量(操作次数)来进行对静止图像(显示对象)的放大/缩小(变焦放大/缩小)。例如,如果从数字照相机100的背面侧观察时将副电子拨盘73向右转动,则***控制单元50以注视位置(视线框)为中心放大静止图像。如果从数字照相机100的背面侧观察时将副电子拨盘73向左转动,则***控制单元50以注视位置(视线框)为中心缩小静止图像。不一定总是以注视位置为中心放大/缩小图像,并且可以以视线框的四个角之一为中心放大/缩小图像。
在这里,图4C示出以预定倍率放大的静止图像的显示示例。在图4C中,例示了当图4B中的静止图像以注视框(放大框)401为中心被放大时显示的图像。根据对具有放大/缩小功能的操作部件设置的操作量或操作次数来放大/缩小静止图像。例如,根据在拨盘在旋转时机械地点击(click)的情况下的点击次数,或者在拨盘不点击的情况下的拨盘的移动量,或者在使用按压按钮的情况下的按压的次数,或者在使用触摸面板的情况下的手指的移动距离,来设置放大倍率。然后,基于该放大倍率,来放大静止图像。可以将对在EVF 29上显示的预定图标的注视时间段的持续时间视为操作量,并且由此可以判定放大倍率。例如,当向右转动拨盘时每次点击拨盘,***控制单元50将静止图像放大一级(例如放大1.2倍),并且在向左转动拨盘时每次点击拨盘将静止图像缩小一级(例如缩小到5/6)。例如,一次可以执行三级或更多级的放大或缩小,并且如果拨盘一次被转动很多(多次点击),则静止图像将被多级放大,如×2、×5和×10。在显示菜单画面的状态下可以允许用户改变放大倍率的比率。
在S306中,***控制单元50判定是否清除了倍率改变模式。如果清除了倍率改变模式,则处理前进到S301,否则,处理前进到S304。例如,***控制单元50在注视预定图标(例如,倍率改变模式标记)的持续时间超过预定值的情况下,或者在预定时间段内不进行任何操作的情况下,清除倍率改变模式。换句话说,***控制单元50进行控制,使得不通过对诸如副电子拨盘73等的操作部件的操作来执行静止图像的变焦放大/缩小。
在S307中,***控制单元50控制目镜检测单元57,并判定用户的眼接触(眼接近)是否持续(是否没有清除眼接触检测)。如果眼接触继续,则处理前进到S301,否则,该流程图中的所有处理结束。
如果在S302中检测到注视,则将副电子拨盘73的功能改变为倍率改变功能,但是功能改变不限于检测到注视的情况。例如,***控制单元50可以在S303中显示预定的图标(例如,倍率改变模式标记),并且当检测到视线在该图标上时,将该功能改变为倍率改变功能。此外,当按压预定按钮(例如,放大按钮78)时或在触摸面板70a上检测到触摸时,***控制单元50可以将功能改变为倍率改变功能。在改变副电子拨盘73的功能的条件不是发生注视的情况下,例如,如果在未检测到注视的状态下转动副电子拨盘73,则***控制单元50可以以静止图像的中心为中心改变倍率。
在S303中显示视线框之后,存在操作视线框的一些可能的方法。第一种方法是当处理前进到S303时固定视线框并维持在相同位置直到清除倍率改变模式的方法。在这种方法的情况下,一旦固定了视线框的位置,就可以容易地以该位置为中心来改变倍率,但是如果该位置不正确,则不能改变视线框的位置。第二种方法是一旦显示了视线框就允许视线框跟随用户的视线的方法。对于跟随方法,例如,可以使用在发生注视时移动框的方法,或者不管是否发生注视都连续跟随用户的视线的方法。具体地,可以使用跟随用户的视线直到副电子拨盘73***作一次,然后将副电子拨盘73维持在相同位置直到倍率改变模式被清除为止的方法,或者总是跟随用户的视线而不管对副电子拨盘73的操作的方法。可以根据情况使用上述方案,或者用户可以选择适当的方案。
在S305中将静止图像从原始大小(实际大小,全范围)缩小的情况下,***控制单元50可以在EVF 29上显示包括该静止图像的多个图像的列表,如图4D所示。在此,例如,***控制单元50可以根据副电子拨盘73的转动量(操作量)来增加要显示的图像的数量。当用户在预定图标(例如,倍率改变模式标记)处的注视时间段超过预定时间段并且副电子拨盘73被转到减小方向时,***控制单元50可以立即将静止图像返回到原始大小(实际大小)。此外,当按压预定按钮(例如,放大按钮78)时,或者当检测到对触摸面板70a的触摸时,***控制单元50可以将静止图像返回到原始大小。
如上所述,根据第一实施例的数字照相机使得图像能够以用户期望的倍率放大/缩小。此外,可以在维持眼与目镜取景器的目镜接触(眼接近)的状态下进行放大/缩小,因此用户可以舒适地检查图像。
在上述实施例中,将被再现和显示的静止图像的示例描述为放大/缩小的目标,但是本发明不限于此。在LV显示模式中(在图像拍摄模式中进行LV显示期间)将模式更改为倍率改变模式的情况下,可以根据对副电子拨盘73的操作(不是通过光学变焦而是通过电子变焦进行处理),以从三个级别的显示倍率中选择的显示倍率来放大/缩小LV图像。从非倍率改变模式到倍率改变模式的切换以与在S302和S303中描述的处理相同的方式进行。在这种情况下,如果模式是LV显示模式和非倍率改变模式,可以将改变图像拍摄设置(曝光设置、图像质量设置)的功能(例如改变快门速度、光圈、曝光校正和ISO感光度中的任一设定值的功能)分配给副电子拨盘73。由此,用户可以在眼与目镜16接触的同时,使用视线和副电子拨盘73来快速直观地放大LV图像的期望位置,并在这种状态下直接按压快门按钮61。换句话说,可以密切、快速地检查LV图像并拍摄该图像,而不会错过最佳拍摄时刻。
根据本实施例的电子装置不限于数字照相机100。例如,电子装置可以是具有视线检测单元的PC,该视线检测单元检测相对于PC监视器的观察位置。在这种PC构造的情况下,例如,当在用户注视监视器上显示的显示对象的状态下转动鼠标滚轮时,可以根据滚动量以注视点为中心放大/缩小显示对象。视线检测单元可以嵌入到PC中,也可以从外部连接到PC(在这种情况下,PC会根据由作为外部装置的视线检测设备通知的各种命令进行与上述操作相似的处理)。放大/缩小的目标不限于拍摄图像或再现的静止图像,而可以是在PC监视器上显示的任何显示对象。换句话说,即使放大/缩小的显示对象是运动图像、动画、图形、表格、文本、网站等,本发明也适用。
视线检测单元160(视线检测单元)的构造不限于图2中的构造,其可以是不包括作为发光单元的红外发光二极管166的构造。在这种情况下,视线检测单元160基于由视线检测传感器164(摄像传感器)摄像的眼白和眼虹膜的位置关系,或者由进入瞳孔的光的反射生成的角膜反射图像的位置关系,来检测视线的方向。
根据本发明,在根据用户视线的位置处放大/缩小显示对象的电子装置中,可以以用户期望的倍率放大/缩小图像。
这里描述的假定由***控制单元50进行的各种控制可以由一个硬件组件进行,或者整个装置可以由共享处理的多个硬件组件(例如,多个处理器或电路)控制。
尽管已经参照优选实施例描述了本发明,但是本发明不限于这些具体实施例,而是包括不脱离本发明的实质的范围内的各种模式。上述各个实施例仅是本发明的示例,各个实施例可以根据需要进行组合。
以将本发明应用于数字照相机的情况为示例描述了实施例,但是本发明不限于该示例,并且可以应用于能够检测正在注视显示器上所显示的显示对象的用户视线的任何电子装置。换句话说,本发明可以应用于个人计算机、PDA、便携式电话终端、便携式图像查看器、包括显示器的打印机、数码相框、音乐播放器、游戏机和电子书阅读器。
此外,本发明不仅可以应用于独立的摄像装置,而且还可以应用于与摄像装置(包括网络摄像机)以无线方式通信或经由线缆通信并远程控制摄像装置的控制装置。远程控制摄像装置的装置的示例是:智能电话、平板PC和台式PC。可以基于控制装置进行的操作或控制装置进行的处理,通过从控制装置侧向摄像装置侧通知用于进行各种操作和设置的命令来远程控制摄像装置。摄像装置拍摄的实时取景图像可以通过无线方式或经由线缆接收,并显示在控制装置侧。
其他实施例
本发明的实施例还可以通过如下的方法来实现,即,通过网络或者各种存储介质将执行上述实施例的功能的软件(程序)提供给***或装置,该***或装置的计算机或是中央处理单元(CPU)、微处理单元(MPU)读出并执行程序的方法。
尽管已经描述了示例性实施例,但是应当理解,本公开不限于所公开的示例性实施例。所附权利要求的范围应被赋予最宽的解释,以涵盖所有这类变型例以及等同的结构和功能。

Claims (16)

1.一种电子装置,所述电子装置包括:
特定操作部件;
视线检测单元,其被构造为检测用户相对于显示器的视线;以及
控制单元,其被构造为进行控制:(i)以确定是否进行与由视线检测单元检测的视线相对应的注视,和(ii)以根据指示是否进行注视的确定结果来切换响应于对所述特定操作部件的操作而进行的功能,
其中,所述控制单元进行控制使得,
(1)在确定进行与由视线检测单元检测的视线相对应的注视且满足预定条件的同时,指示能够通过操作所述特定操作部件来缩小显示对象的放大镜图标显示在显示器上,
(2)在确定进行与由视线检测单元检测的视线相对应的注视且满足所述预定条件的同时,响应于对所述特定操作部件的操作,以基于由视线检测单元检测的注视位置的位置为中心,根据对所述特定操作部件的操作的次数或操作量,以至少三个级别的显示倍率当中的显示倍率来随位置而缩小所述显示对象,以及
(3)在确定不进行与由视线检测单元检测的视线相对应的注视的情况下,响应于对所述特定操作部件的操作而进行与放大和缩小均不同的功能。
2.根据权利要求1所述的电子装置,其中,
所述特定操作部件是拨盘,并且
对所述特定操作部件的操作是转动所述拨盘。
3.根据权利要求1所述的电子装置,其中,
所述特定操作部件是按压按钮,并且
对所述特定操作部件的操作是按压所述按压按钮。
4.根据权利要求1所述的电子装置,其中,
所述特定操作部件是触摸面板,并且
对所述特定操作部件的操作是触摸所述触摸面板。
5.根据权利要求1所述的电子装置,
其中,控制单元根据由视线检测单元检测的视线是否满足所述预定条件来确定是否进行注视,
所述预定条件是注视的时间段超过预定阈值。
6.根据权利要求1所述的电子装置,其中,在确定进行注视的情况下,所述控制单元进行控制,使得在显示器上显示指示注视位置的标志。
7.根据权利要求6所述的电子装置,其中,所述控制单元在显示放大镜图标的同时固定标志的显示位置。
8.根据权利要求1所述的电子装置,
所述预定条件是在确定进行所述注视之后无操作的时间段不超过预定时间段,以及
控制单元进行控制,使得在确定进行注视之后无操作的时间段超过所述预定时间段的情况下,不在所述显示器上显示所述放大镜图标,并且不执行通过操作所述特定操作部件而进行的缩小。
9.根据权利要求8所述的电子装置,其中,所述控制单元在注视所述图标的时间段超过第二阈值并且操作所述特定操作部件的情况下,还将显示倍率改变为实际大小。
10.根据权利要求1所述的电子装置,其中,
所述预定条件是注视所述放大镜图标的时间段不超过第三阈值,
所述控制单元还进行控制,使得在注视所述放大镜图标的时间段超过所述第三阈值的情况下,不在显示器上显示所述放大镜图标且不执行通过操作所述特定操作部件而进行的缩小。
11.根据权利要求1所述的电子装置,其中,在确定不进行注视的情况下,控制单元进行控制,使得响应于对特定操作部件的操作,将在显示器上显示的显示对象切换为其他显示对象。
12.根据权利要求1所述电子装置,其中,
控制单元还被构造为进行控制,使得1)在确定不进行注视的情况下,响应于对所述特定操作部件的操作,执行摄像单元的图像拍摄的图像拍摄设置的改变,以及2)在确定进行注视的同时,以基于由视线检测单元检测的注视位置的位置为中心,响应于对所述特定操作部件的操作,来随位置缩小实时图像的注视区域的显示倍率,
所述实时图像由摄像单元拍摄并被显示在显示器上。
13.根据权利要求12所述的电子装置,其中,图像拍摄的图像拍摄设置是快门速度、光圈、曝光校正和ISO敏感度中的至少一项的设置。
14.根据权利要求12所述的电子装置,其中,
能够经由目镜取景器的目镜观察显示器,并且
所述特定操作部件被布置于在用户的眼正与所述目镜取景器接触的状态下能够由保持所述电子装置的手指操作的位置。
15.一种电子装置的控制方法,所述电子装置包括特定操作部件,所述控制方法包括:
视线检测步骤,检测用户相对于显示器的视线;以及
控制步骤,进行控制:(i)以确定是否进行与由视线检测步骤检测的视线相对应的注视,和(ii)以根据指示是否进行注视的确定结果来切换响应于对所述特定操作部件的操作而进行的功能,
其中,所述控制步骤进行控制使得,
(1)在确定进行与由视线检测步骤检测的视线相对应的注视且满足预定条件的同时,指示能够通过操作所述特定操作部件来缩小显示对象的放大镜图标显示在显示器上,
(2)在确定进行与由视线检测步骤检测的视线相对应的注视且满足所述预定条件的同时,响应于对所述特定操作部件的操作,以基于由视线检测步骤检测的注视位置的位置为中心,根据对所述特定操作部件的操作的次数或操作量,以至少三个级别的显示倍率当中的显示倍率来随位置而缩小所述显示对象,以及
(3)在确定不进行与由视线检测步骤检测的视线相对应的注视的情况下,响应于对所述特定操作部件的操作而进行与放大和缩小均不同的功能。
16.一种计算机可读的存储介质,其存储有使计算机用作根据权利要求1-14中的任一项所述的电子装置的各个单元的程序。
CN202010497375.9A 2019-06-04 2020-06-04 电子装置、电子装置的控制方法及存储介质 Active CN112040095B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019104496A JP7336266B2 (ja) 2019-06-04 2019-06-04 電子機器、電子機器の制御方法、プログラム、記憶媒体
JP2019-104496 2019-06-04

Publications (2)

Publication Number Publication Date
CN112040095A CN112040095A (zh) 2020-12-04
CN112040095B true CN112040095B (zh) 2023-07-18

Family

ID=73579684

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010497375.9A Active CN112040095B (zh) 2019-06-04 2020-06-04 电子装置、电子装置的控制方法及存储介质

Country Status (3)

Country Link
US (1) US11526264B2 (zh)
JP (1) JP7336266B2 (zh)
CN (1) CN112040095B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023006771A (ja) * 2021-06-30 2023-01-18 キヤノン株式会社 制御装置およびその制御方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102068237A (zh) * 2004-04-01 2011-05-25 威廉·C·托奇 监控眼睛运动的***及方法、控制计算装置的***及方法
CN102566756A (zh) * 2010-12-16 2012-07-11 微软公司 用于扩展现实显示的基于理解力和意图的内容
CN106796344A (zh) * 2014-10-07 2017-05-31 艾尔比特***有限公司 锁定在感兴趣对象上的放大图像的头戴式显示

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3382346B2 (ja) 1994-04-12 2003-03-04 キヤノン株式会社 撮像装置
JPH10136233A (ja) * 1996-10-24 1998-05-22 Canon Inc 電子ズーム機能付撮像装置
US7522208B2 (en) * 2004-03-10 2009-04-21 Seiko Epson Corporation Electronic equipment and digital camera
JP4960849B2 (ja) * 2007-12-17 2012-06-27 ペンタックスリコーイメージング株式会社 デジタルカメラ
JP5538992B2 (ja) * 2010-04-27 2014-07-02 キヤノン株式会社 撮像装置及びその制御方法
JP5813309B2 (ja) * 2010-11-30 2015-11-17 株式会社ディテクト 撮影システム
JP2014142882A (ja) * 2013-01-25 2014-08-07 Nikon Corp 視線入力装置
US10558272B2 (en) 2013-06-20 2020-02-11 Uday Parshionikar Gesture control via eye tracking, head tracking, facial expressions and other user actions
KR102004990B1 (ko) * 2014-05-13 2019-07-29 삼성전자주식회사 영상 처리 장치 및 방법
JP2016115965A (ja) * 2014-12-11 2016-06-23 ソニー株式会社 医療用眼鏡型表示装、情報処理装置及び情報処理方法
JP6727939B2 (ja) * 2016-06-13 2020-07-22 株式会社キーエンス 画像処理センサ及び画像処理方法
EP4220258A1 (en) * 2017-04-19 2023-08-02 Magic Leap, Inc. Multimodal task execution and text editing for a wearable system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102068237A (zh) * 2004-04-01 2011-05-25 威廉·C·托奇 监控眼睛运动的***及方法、控制计算装置的***及方法
CN102566756A (zh) * 2010-12-16 2012-07-11 微软公司 用于扩展现实显示的基于理解力和意图的内容
CN106796344A (zh) * 2014-10-07 2017-05-31 艾尔比特***有限公司 锁定在感兴趣对象上的放大图像的头戴式显示

Also Published As

Publication number Publication date
US11526264B2 (en) 2022-12-13
JP7336266B2 (ja) 2023-08-31
CN112040095A (zh) 2020-12-04
US20200387294A1 (en) 2020-12-10
JP2020197976A (ja) 2020-12-10

Similar Documents

Publication Publication Date Title
JP7321786B2 (ja) 電子機器およびその制御方法
WO2018021165A4 (ja) 電子機器およびその制御方法
CN112714247B (zh) 摄像设备和摄像设备的控制方法
WO2020255675A1 (ja) 電子機器およびその制御方法
JP7442331B2 (ja) 音声入力装置およびその制御方法ならびにプログラム
JP7301615B2 (ja) 電子機器およびその制御方法
CN112015266A (zh) 电子设备、电子设备的控制方法及计算机可读存储介质
CN112702507B (zh) 电子装置、电子装置的控制方法及存储介质
CN114390167A (zh) 电子装置及其控制方法和记录介质
JP2024050779A (ja) 電子機器およびその制御方法、プログラム、並びに記憶媒体
CN113364945A (zh) 电子装置、控制方法和计算机可读介质
CN113726991A (zh) 电子装置、电子装置的控制方法和计算机可读存储介质
JP7490372B2 (ja) 撮像制御装置及びその制御方法
JP2022018244A (ja) 電子機器およびその制御方法
CN112040095B (zh) 电子装置、电子装置的控制方法及存储介质
CN112312008B (zh) 电子装置、电子装置的控制方法及存储介质
JP7451255B2 (ja) 電子機器及びその制御方法
WO2024095888A1 (ja) 撮像装置、制御方法およびプログラム
US20220357833A1 (en) Electronic apparatus, control method for electronic apparatus, and storage medium
JP2024066463A (ja) 撮像装置、制御方法およびプログラム
JP2021018634A (ja) 電子機器およびその制御方法
JP2022095306A (ja) 表示制御装置及びその制御方法
JP2022129065A (ja) 表示制御装置及びその制御方法及びプログラム及び記録媒体
JP2021082188A (ja) 電子機器、電子機器の制御方法、プログラム、記憶媒体
JP2021012238A (ja) 電子機器およびその制御方法、プログラム、並びに記憶媒体

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant