WO2013190906A1 - 表示制御装置および撮像装置ならびに表示制御方法 - Google Patents

表示制御装置および撮像装置ならびに表示制御方法 Download PDF

Info

Publication number
WO2013190906A1
WO2013190906A1 PCT/JP2013/062149 JP2013062149W WO2013190906A1 WO 2013190906 A1 WO2013190906 A1 WO 2013190906A1 JP 2013062149 W JP2013062149 W JP 2013062149W WO 2013190906 A1 WO2013190906 A1 WO 2013190906A1
Authority
WO
WIPO (PCT)
Prior art keywords
display
user
display unit
monitor
finder
Prior art date
Application number
PCT/JP2013/062149
Other languages
English (en)
French (fr)
Inventor
熊木 甚洋
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Publication of WO2013190906A1 publication Critical patent/WO2013190906A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/18Signals indicating condition of a camera member or suitability of light
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • H04N23/632Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1423Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators

Definitions

  • the present disclosure relates to a display control device, an imaging device, and a display control method. More specifically, the present disclosure relates to a display control device, an imaging device, and a display control method that do not require an arrangement of a proximity sensor on a finder.
  • a digital camera has a monitor that displays an image obtained by imaging. Therefore, a camera user (hereinafter, simply referred to as “user” as appropriate) can confirm on the spot whether a desired image has been obtained by displaying a captured image on a monitor.
  • a camera equipped with both a monitor and a finder is also known.
  • the finder By using the finder, the user can stably hold the camera during shooting. For this reason, use of the finder makes it easy to capture a composition desired by the user.
  • the camera has both a monitor and a viewfinder
  • the display of the monitor is turned on while the user is using the viewfinder, the light emitted from the monitor enters the eyes of the user looking into the viewfinder or is wasted May cause excessive power consumption.
  • Patent Document 1 it is proposed to dispose a proximity sensor on a finder and invalidate an operation on a touch panel (also referred to as “touch screen”) based on a detection result of the proximity sensor.
  • a dedicated component is required to detect the use of the finder by the user.
  • Providing the camera with a dedicated part for detecting the use of the finder by the user increases the structure of the camera.
  • the first preferred embodiment of the present disclosure is:
  • the display control device includes a first display unit, a second display unit, and a control unit.
  • the first display unit accepts user operations and presents information to the user.
  • a control part switches the display by a 1st display part, and the display by a 2nd display part based on the input from a 1st display part.
  • a second preferred embodiment of the present disclosure is:
  • An imaging device includes an imaging element, a first display unit, a second display unit, and a control unit.
  • the image sensor is disposed inside the housing.
  • a 1st display part is connected with a housing, accepts a user's operation, and presents information to a user.
  • the display direction of the second display unit is set to be substantially the same as the display direction of the first display unit.
  • a control part switches the display by a 1st display part, and the display by a 2nd display part based on the input from a 1st display part.
  • a third preferred embodiment of the present disclosure is: A display control method including switching between display by the first display unit and display by the second display unit based on an input from the first display unit that accepts user operations and presents information to the user It is.
  • touch panel does not indicate a single input element, but indicates a device having a function of displaying information.
  • user convenience can be improved while suppressing an increase in manufacturing cost.
  • FIG. 1A is a rear view illustrating an example of an imaging apparatus according to an embodiment of the present disclosure.
  • FIG. 1B is a schematic diagram illustrating an example of a usage state of the imaging apparatus.
  • FIG. 1C is a schematic diagram illustrating an example of an image observed by the user when the user looks into the viewfinder.
  • FIG. 2A is a functional block diagram illustrating a configuration example of the display control apparatus according to the embodiment of the present disclosure.
  • FIG. 2B is a functional block diagram illustrating a configuration example of the imaging device according to the embodiment of the present disclosure.
  • 3A and 3B are schematic diagrams illustrating an example of an input operation to the monitor by the user.
  • FIG. 1A is a rear view illustrating an example of an imaging apparatus according to an embodiment of the present disclosure.
  • FIG. 1B is a schematic diagram illustrating an example of a usage state of the imaging apparatus.
  • FIG. 1C is a schematic diagram illustrating an example of an image observed by the user when the user looks into the viewfinder
  • FIG. 4A is a schematic diagram illustrating a state in which the user looks into the viewfinder of the imaging apparatus with the bottom surface of the imaging apparatus being substantially horizontal.
  • FIG. 4B is a schematic diagram illustrating an example of weighting for lattice points corresponding to the arrangement of electrodes.
  • 5A and 5B are schematic diagrams illustrating an example of an input operation to the monitor by the user.
  • FIG. 6A is a schematic diagram illustrating a state where the user looks into the viewfinder of the imaging apparatus with the bottom surface of the imaging apparatus being substantially horizontal.
  • FIG. 6B is a schematic diagram illustrating an example of weighting according to the high possibility of user contact with the monitor.
  • FIG. 7A is a schematic diagram schematically showing an area of the monitor display area where the user's nose, lips or cheeks are likely to approach when the user looks into the viewfinder of the imaging apparatus with his right eye.
  • FIG. 7B is a schematic diagram schematically showing an area of the monitor display area where the user's nose, lips or cheeks are likely to approach when the user looks through the viewfinder of the imaging device with his left eye.
  • FIG. 8A shows an area where the user's nose, lips or cheeks are likely to approach in the state where the user looks into the finder of the imaging apparatus with the right eye, and the finder of the imaging apparatus with the left eye in the display area of the monitor.
  • FIG. 6 is a schematic diagram showing a region where the user's nose, lips, or cheeks are likely to approach in a state of looking into the camera.
  • FIG. 8B schematically shows an area where the user's nose, lips or cheeks are likely to approach when the user looks through the viewfinder of the imaging apparatus in the vertical state with his right eye.
  • FIG. 9A schematically illustrates an area of the monitor display area where the user's nose, lips, or cheeks are likely to approach when the user looks into the viewfinder of the imaging apparatus in a vertical state with the left eye.
  • FIG. 9B shows an area where the user's nose, lips or cheeks are likely to approach in the state where the user looks into the finder of the imaging device with the right eye, and the finder of the imaging device with the user's left eye.
  • FIG. 6 is a schematic diagram showing a region where the user's nose, lips, or cheeks are likely to approach in a state of looking into the camera.
  • FIG. 10A is a schematic diagram illustrating a state in which the user looks through the viewfinder of the imaging apparatus in the vertical state with the right eye.
  • FIG. 10B is a schematic diagram illustrating a state in which the user looks through the viewfinder of the imaging apparatus in the vertical state with the left eye.
  • FIG. 11 is a flowchart illustrating an example of processing according to the embodiment of the present disclosure.
  • FIG. 10A is a schematic diagram illustrating a state in which the user looks through the viewfinder of the imaging apparatus in the vertical state with the right eye.
  • FIG. 10B is a schematic diagram illustrating a state
  • FIG. 12A is a flowchart illustrating an example of an evaluation value calculation process.
  • FIG. 12B is a flowchart illustrating an example of threshold selection processing.
  • FIG. 13A is a side view showing a second modification of the imaging apparatus.
  • FIG. 13B is a side view showing a state in which the finder unit is removed from the main body of the imaging apparatus.
  • 14A and 14B are rear views illustrating a third modification of the imaging apparatus.
  • FIG. 15A and FIG. 15B are rear views illustrating an example of an imaging device in which function icons are displayed in an area that does not overlap with the user's face when the user uses the viewfinder in the display area of the monitor.
  • Embodiment> [1-1. Outline of configuration and operation of imaging apparatus] [1-2. Configuration example of display control apparatus and imaging apparatus] (1-2-1. Configuration Example of Display Control Device) (1-2-2. Configuration Example of Imaging Device) [1-3. Estimating the object that touches or approaches] [1-4. Judgment based on object contact] (1-4-1. Evaluation value based on the number of contact points) (1-4-2. Evaluation value based on relative positional relationship between a plurality of contact points) (1-4-3. Evaluation value based on contact area) [1-5. Judgment based on object contact or approach] [1-6.
  • the embodiment described below is a preferable specific example of a display control device, an imaging device, and a display control method.
  • various technically preferable limitations are given. Examples of the display control device, the imaging device, and the display control method are shown below unless otherwise specified to limit the present disclosure. It is not limited to the embodiment.
  • members having the same or substantially the same configuration are denoted by common reference symbols.
  • Embodiment> hereinafter, taking a digital camera as an example, preferred specific examples of the display control apparatus, the imaging apparatus, and the display control method of the present disclosure will be described. As will be apparent from the following description, application examples of the display control device, the imaging device, and the display control method of the present disclosure are not limited to digital cameras.
  • FIG. 1A is a rear view illustrating an example of an imaging apparatus according to an embodiment of the present disclosure.
  • FIG. 1B is a schematic diagram illustrating an example of a usage state of the imaging apparatus.
  • the image pickup apparatus 10 is specifically a digital camera in which an image pickup element is arranged inside a housing 100. Therefore, the imaging apparatus 10 is provided with a monitor 11m on the rear surface of the housing 100 or the like.
  • the monitor 11m has a function as an input device that accepts user operations and also has a function as a display device that presents information to the user. That is, the monitor 11m is specifically configured as a touch panel including a display element and an input element (detection element). In FIG. 1A, the user's finger touching the monitor 11m is schematically shown by a two-dot chain line. The same applies to the following description.
  • the monitor 11m displays an image related to the subject acquired by the image sensor. Further, on the monitor 11m, information related to parameters used for shooting is displayed superimposed on an image related to the subject as necessary. Examples of information relating to parameters used for shooting include shutter speed, aperture opening, ISO sensitivity, and the like. These pieces of information are presented to the user in the form of icons, indicators, characters, pictograms, and the like.
  • FIG. 1A shows an example in which an icon Ic for switching face detection ON / OFF is displayed on the monitor 11m.
  • FIG. 1A shows an example in which face detection is turned on by a user operation.
  • FIG. 1A shows a state in which an indicator Id indicating that the imaging apparatus 10 recognizes the face of the subject is displayed superimposed on the image relating to the subject.
  • the imaging apparatus 10 further includes a finder 12f for confirming an image obtained by the imaging element. Therefore, as shown in FIG. 1B, the user can check the subject and the composition using the finder 12f.
  • the user's face looking into the finder 12f is schematically shown as a projection diagram by a two-dot chain line. The same applies to the following description.
  • FIG. 1B is a diagram schematically showing a state where the user is looking through the viewfinder with the right eye.
  • the user can use the monitor 11m or the finder 12f depending on the scene at the time of shooting and the user's preference.
  • FIG. 1C is a schematic diagram illustrating an example of an image observed by the user when the user looks into the viewfinder.
  • the imaging apparatus 10 includes icons and indicators displayed on the monitor 11m when the user confirms an image displayed on the monitor 11m or when the user operates the monitor 11m as a touch panel.
  • Information similar to the above is presented to the user.
  • the information observed by the user through the finder 12f and the information presented by the monitor 11m may not be the same.
  • the amount of information to be displayed and the form of display may differ between when the user uses the finder 12f and when the user uses the monitor 11m.
  • FIG. 1C shows an example in which information regarding parameters used for shooting, a face detection indicator Id, and an indicator If indicating the center and range of an image obtained by shooting are observed by the user together with the subject image.
  • the finder 12f of the imaging apparatus 10 is configured as an electronic finder or an optical finder.
  • a display element such as an organic EL (Electro Luminescence) display or a liquid crystal display (LCD) is disposed inside the finder 12f. Is done. Therefore, when the finder 12f of the imaging apparatus 10 is configured as an electronic finder, an image related to the subject and information related to parameters used for shooting, which are acquired by the imaging device, are arranged inside the finder 12f. It is displayed superimposed on the display element.
  • organic EL Electro Luminescence
  • LCD liquid crystal display
  • the finder 12f of the imaging device 10 is configured as an optical finder, for example, an optical system including a pentaprism and a display element such as a liquid crystal display are arranged inside the finder 12f.
  • the user simultaneously displays information about the parameters used for photographing displayed on the display element arranged inside the viewfinder 12f and an image about the subject obtained through an optical system such as a pentaprism. Observe. Therefore, the user can check both the information related to the parameters used for shooting and the image related to the subject in the same manner as in the case of the electronic finder.
  • a display element disposed inside the finder 12f is referred to as an “in-finder monitor”.
  • both the display content of the monitor 11m and the display content of the monitor in the finder are changed. Specifically, for example, almost the entire display area of the monitor 11m is changed to “black” display, and information corresponding to the information displayed on the monitor 11m is displayed on the in-finder monitor.
  • the display content on the monitor 11m is returned to the state before the user looks into the finder 12f, and the display on the finder monitor is changed to “black”.
  • the display of the monitor 11m is turned off and the display of the monitor in the finder is turned on.
  • the display on the finder monitor is turned off and the display on the monitor 11m is turned on again.
  • the display of the monitor 11m is switched on or off and the display of the monitor in the finder is switched on or off.
  • the display of the monitor 11m is turned on as shown in FIG. 1A.
  • the display in the finder monitor is turned off.
  • the display of the monitor in the finder is turned on, whereas the display of the monitor 11m is turned off.
  • the display element on the side that is not used is turned off, for example. Wasteful consumption is suppressed.
  • the light emitted from the monitor 11m does not enter the eyes of the user looking through the finder 12f, the user's shooting is not hindered.
  • the display of the monitor 11m and the display of the monitor in the finder are switched depending on whether or not the user is looking into the finder 12f.
  • whether or not the user is looking through the finder 12f is determined based on whether or not a human face is in contact with or close to the monitor 11m. Whether a human face is in contact with or close to the monitor 11m is determined based on an input from the monitor 11m configured as a touch panel. The determination of whether or not a person's face is in contact with or approaching the monitor 11m, and switching between the display of the monitor 11m and the display of the monitor in the finder are performed by, for example, a control unit described later.
  • whether or not a person's face is in contact with or approaching the monitor is determined based on an input from a monitor configured as a touch panel, and therefore proximity for detecting use of a finder by a user Dedicated parts such as sensors can be dispensed with.
  • FIG. 2A is a functional block diagram illustrating a configuration example of the display control apparatus according to the embodiment of the present disclosure.
  • the display control device 1 includes at least a first display unit 11, a second display unit 12, and a control unit 13.
  • the first display unit 11 accepts user operations and presents information to the user.
  • the monitor 11m shown in FIGS. 1A and 1B corresponds to the first display unit 11
  • the finder 12f shown in FIGS. 1A and 1B corresponds to the second display unit 12.
  • the control unit 13 switches between the display by the first display unit 11 and the display by the second display unit 12 based on the input from the first display unit 11.
  • control unit 13 determines whether or not the object approaching the first display unit 11 is a human face based on the input from the first display unit 11. Details of the determination as to whether or not the object approaching the first display unit 11 is a human face will be described later.
  • the control unit 13 displays the display by the first display unit 11 and the display by the second display unit 12 according to the determination result of whether or not the object approaching the first display unit 11 is a human face. And switch.
  • FIG. 2B is a functional block diagram illustrating a configuration example of the imaging device according to the embodiment of the present disclosure.
  • the imaging device 10 includes at least an imaging element 15, a first display unit 11, a second display unit 12, and a control unit 13.
  • the imaging optical system 111 is an optical system including one or more lenses.
  • the imaging optical system 111 forms an image of the subject on the imaging surface of the imaging element 15 disposed inside the housing 100 of the imaging device 10.
  • At least one of the one or more lenses arranged in the imaging optical system 111 is movable for autofocusing, for example. These lenses are moved by a lens driving mechanism.
  • a control signal for the lens driving mechanism is supplied from the control unit 13 described later. Further, information regarding the amount of movement of the lens is supplied to the control unit 13 described later.
  • the imaging optical system 111 includes one or more mirrors as necessary.
  • the imaging apparatus is a single-lens reflex camera
  • light from a subject is reflected by a mirror disposed inside the housing and guided to an optical system of a finder disposed above the housing.
  • the imaging device is a camera with a pellicle mirror
  • a part of the light from the subject is reflected by a semi-transparent mirror disposed inside the housing and placed on the upper or lower portion of the housing. Led to the autofocus sensor.
  • the present disclosure can also be applied when the imaging apparatus 10 does not include a mirror in the imaging optical system 111. That is, the present disclosure can be applied even if the imaging apparatus 10 is a digital camera called a so-called “mirrorless single-lens camera” or the like. Thus, this indication does not ask
  • Imaging element 15 Light from the subject enters the image sensor 15 via the imaging optical system 111.
  • the image sensor 15 outputs an image signal related to the subject in accordance with a timing signal supplied under the control of the control unit 13 described later.
  • the image signal regarding the subject acquired by the image sensor 15 is output to the A (Analog) / D (Digital) conversion unit 113.
  • Examples of the imaging element 15 include a CMOS (Complementary Metal-Oxide Semiconductor) and a CCD (Charge-Coupled Device).
  • the A / D conversion unit 113 performs A / D (Analog-Digital) conversion on an analog signal output from the image sensor 15 according to control of the control unit 13 described later, and outputs a digital signal.
  • the signal output from the A / D conversion unit 113 is supplied to the preprocessing unit 115.
  • the preprocessing unit 115 performs predetermined signal processing on the image signal related to the subject in accordance with the control of the control unit 13 described later.
  • Examples of signal processing for an image signal related to a subject include digital gain adjustment, gamma correction, color correction, and contrast correction.
  • the encoder / decoder 117 performs encoding (encoding) using a coding method for the signal subjected to signal processing by the preprocessing unit 115 under the control of the control unit 13 described later.
  • the encoder / decoder 117 compresses the image signal subjected to the signal processing by the preprocessing unit 115 by a compression encoding method such as JPEG (Joint Photographic Experts Group), and generates compressed data.
  • Data obtained by encoding is stored in, for example, a storage unit 119 described later.
  • the encoder / decoder 117 performs decoding (decoding) of data read from the storage unit 119 described later.
  • the decrypted information is supplied to the control unit 13 described later, for example.
  • the storage unit 119 includes, for example, an external storage device that can be freely attached to and detached from the imaging device 10 and an internal storage device that is fixed inside the imaging device 10.
  • Examples of the storage medium applied to the external storage device or the internal storage device include a flash memory, an optical disk, a hard disk, a magneto-optical disk, an MRAM (Magnetic Resistive Random Access Memory), and the like.
  • the image data obtained by shooting is stored in the storage unit 119 via a reader / writer, for example. Whether the image data is stored in the external storage device or the internal storage device can be arbitrarily set by the user, for example.
  • the operation unit 121 includes various input elements such as a group of function buttons and a release button arranged on the housing 100 of the imaging apparatus 10.
  • the operation unit 121 functions as a user interface for operating the imaging device 10.
  • the operation unit 121 may include an external control device such as a remote controller. An operation signal received by the operation unit 121 and corresponding to a user input operation is output to the control unit 13 described later.
  • the imaging device 10 includes one or more sensors 19 for detecting the posture of the imaging device 10 and vibrations applied to the imaging device 10 as necessary. Information regarding the orientation of the imaging device 10 at the time of shooting is added to the image data as metadata, for example, by the control unit 13 described later.
  • Detecting elements for detecting the attitude of the imaging device 10 include a vibration gyroscope and an acceleration sensor.
  • the angle of the imaging device 10 may be detected by an angle sensor or a so-called vertical / horizontal sensor, or the posture of the imaging device 10 may be detected from a load on the actuator of the lens driving mechanism.
  • the vertical / horizontal sensor is a sensor that detects the angle of the casing 100 of the imaging device 10 by detecting which surface inside the slot is in contact with the ball disposed inside the slot.
  • the imaging device 10 includes one or more camera shake correction mechanisms 17 as necessary.
  • the camera shake correction mechanism 17 is an optical correction mechanism
  • the correction lens disposed in the image sensor 15 itself or the imaging optical system 111 according to the vibration applied to the imaging device 10 is caused by the vibration. It can be moved in the direction to cancel the influence.
  • the vibration applied to the imaging device 10 is detected by, for example, a vibration gyroscope that is disposed as the sensor 19 inside the housing 100 of the imaging device 10.
  • the camera shake correction may be executed by the control unit 13 described later. In this case, correction is performed by calculation on an image signal obtained from the image sensor 15. Of course, physical camera shake correction for the optical system and electrical camera shake correction for the image signal may be combined.
  • the control unit 13 is a processing device including a processor, and the control unit 13 is configured as, for example, a digital signal processor (Digital Signal Processor (DSP)) or a CPU (Central Processing Unit).
  • DSP Digital Signal Processor
  • CPU Central Processing Unit
  • the control unit 13 determines, for example, whether or not the object approaching the first display unit 11 is a human face. In response, the display by the first display unit 11 and the display by the second display unit 12 are switched. The control unit 13 controls each unit of the imaging apparatus 10 and outputs a processing result corresponding to an input from the operation unit 121 or the first display unit 11 described later, for example.
  • various arithmetic processes and programs for controlling each unit of the imaging apparatus 10 include, for example, a ROM (Read-Only Memory) 123, a RAM (Random Access Memory) 125, and a storage unit connected to the control unit 13. 119 or the like.
  • the control unit 13 controls reading and writing of data in the storage unit 119, and acquires a program stored in an external storage device, for example, as necessary.
  • a program or software for controlling the imaging device 10 is updated.
  • the first display unit 11 is a display device arranged on the back surface of the housing 100 of the imaging device 10.
  • the 1st display part 11 is connected with the housing 100 of the imaging device 10 via a hinge etc., for example.
  • the first display unit 11 accepts user operations and presents information to the user.
  • the first display unit 11 is specifically configured as a touch panel, and the touch panel includes, for example, a set of display elements and input elements.
  • Examples of the display element constituting the first display unit 11 include an organic EL display and a liquid crystal display.
  • the display elements constituting the first display unit 11 are driven under the control of the control unit 13. Therefore, the first display unit 11 displays, for example, an image relating to the subject obtained by the photoelectric conversion action of the image sensor 15 and a result of processing for input from the user. Further, for example, the first display unit 11 displays one or more icons for changing setting values of various parameters used for shooting, one or more icons for menu operations, and the like.
  • the input element as the detection element is laminated on the surface of the display element constituting the first display unit 11, for example.
  • the input element as the detection element is disposed on the outer peripheral portion of the display element constituting the first display unit 11.
  • the 1st display part 11 may be comprised as a touch panel by which the function of the input element was mounted in the inside of a display element called "in-cell (in-cell)."
  • the first display unit 11 detects, for example, a user's contact or approach to the first display unit 11, but the input element as a detection element only needs to be able to detect at least the contact or approach of an object. It is not necessary for the unit 11 to select and detect only a specific target.
  • the input element that constitutes the first display unit 11 detects, for example, a contact of a user's finger or the like with respect to an icon displayed on the display element that constitutes the first display unit 11.
  • the input element that constitutes the first display unit 11 outputs to the control unit 13 information regarding which part of the display area of the first display unit 11 the user has touched.
  • the control unit 13 receives the output from the first display unit 11 and executes the function corresponding to the icon displayed on the part touched by the user among the display elements constituting the first display unit 11. An instruction is given to each unit of the imaging apparatus 10 or a setting value of a parameter corresponding to the icon is changed.
  • the first display unit 11 can further detect not only the user's contact with the first display unit 11 but also the approach of the user's body with respect to the first display unit 11. In particular, it is preferable that the first display unit 11 can detect the approach of the user's face to the first display unit 11. Note that there is a direct relationship between the approach of the user's face to the first display unit 11 and the contents of the screen (icons, indicators, etc.) displayed on the display elements constituting the first display unit 11. It doesn't have to be sex.
  • the first display unit 11 only needs to be able to detect at least either the contact or approach of the user's body to the first display unit 11, and the detection method in the first display unit 11 is not particularly limited.
  • Specific examples of detection methods in the first display unit 11 include, for example, a projection capacitance method, a surface capacitance method (analog capacitance coupling method), an image recognition method, an infrared scanning method, and an infrared recursion. Examples include a reflection method, a resistive film method, an ultrasonic surface acoustic wave method, an acoustic pulse recognition method, and a vibration detection method. Two or more of these may be used in combination.
  • the input element constituting the first display unit 11 is preferably an input element capable of detecting multiple points, and the input element constituting the first display unit 11 detects the approach of an object to the first display unit 11. More preferably, the input element can be used.
  • the projection capacitive method is selected as the detection method in the first display unit 11. For example, when the user's body is not in contact with the first display unit 11, a user's body with respect to the first display unit 11 is increased by combining a plurality of adjacent electrodes to increase the effective electrode area. It is also possible to make the first display unit 11 detect the approach of the body.
  • the detection method of the contact or approach of the user's body to the first display unit 11 is not limited to the detection method based on the projected capacitive method. For example, if a plurality of infrared scanning input elements are stacked on the outer periphery of the display element constituting the first display unit 11, the contact and approach of the user's body to the first display unit 11 can be reduced. It can be detected by the display unit 11.
  • the object approaching the first display unit 11 is a human face, as will be described later. It is possible to give a wider design to the determination of whether or not.
  • the second display unit 12 includes an eyepiece and a display element such as an organic EL display or a liquid crystal display.
  • a display element as a monitor in the finder is disposed inside the finder 12f.
  • the display element arranged inside the finder 12f is driven under the control of the control unit 13 and displays at least information related to photographing.
  • the display of various types of information related to photographing can be switched by an input operation to the operation unit 121 by the user. Therefore, the user can perform photographing by selectively displaying information of a desired type on the display element in the finder 12f.
  • the housing 100 of the imaging device 10 and the second display unit 12 are integrally configured.
  • the second display unit 12 is connected to the housing 100 of the imaging device 10.
  • the second display unit 12 is disposed above the first display unit 11, for example.
  • the display direction of the second display unit 12 is at least that of the first display unit 11.
  • the direction of display is almost the same. Therefore, when the user observes the information displayed on the display element in the finder 12f through the eyepiece, the display surface of the monitor 11m faces the user's face.
  • the determination as to whether or not the object that touches or approaches the first display unit 11 is a human face is, for example, the evaluation value calculated based on the input from the first display unit 11 and the first display This is done by comparison with a reference value (hereinafter simply referred to as “threshold” as appropriate) for determining whether or not the object approaching the unit 11 is a human face.
  • a reference value hereinafter simply referred to as “threshold” as appropriate
  • the first display unit 11 when contact or approach of an object is detected by the first display unit 11, first, an object that touches or approaches the first display unit 11 is first detected from the output of the first display unit 11. An evaluation value for determining whether or not the face is determined is calculated. Next, the calculated evaluation value is compared with a threshold value prepared in advance. For example, when the evaluation value exceeds the threshold value, it is determined that the object approaching the first display unit 11 is a human face, and the display by the first display unit 11 and the second display unit 12 is switched.
  • the evaluation value is based on, for example, the number of contact points with respect to the first display unit 11, the relative positional relationship between the plurality of contact points with respect to the first display unit 11, the contact area with respect to the first display unit 11, and the like. Is calculated as follows. In addition to the contact with the first display unit 11, the evaluation value includes the degree of approach to the first display unit 11, the degree of contact with the first display unit 11 and the degree of approach to the first display unit 11. It can also be calculated as follows.
  • (1-4-1. Evaluation value based on the number of contact points) 3A and 3B are schematic diagrams illustrating an example of an input operation to the monitor by the user.
  • the monitor 11m has a function as a touch panel. Therefore, the imaging device 10 can detect the contact of the user's body with the monitor 11m by the output from the monitor 11m.
  • FIG. 3A shows a state where the user touches the monitor 11m with the index finger.
  • the user often touches the monitor with one finger in scenes such as selecting menu items displayed on the monitor, instructing execution of shooting, or changing the zoom magnification.
  • Examples of such an operation for input include a touch operation, a tracing operation, a so-called “flick” operation, a so-called “tap” operation, and the like.
  • the contact between the user's body and the monitor 11m can be roughly regarded as a contact at one point.
  • FIG. 3A the contact point between the user's body and the monitor 11m is schematically shown by a shaded circle. The same applies to the following description.
  • FIG. 3B shows a state where the user touches the monitor 11m with the index finger and the thumb.
  • the user can also instruct the imaging apparatus 10 to enlarge or reduce the image displayed on the monitor 11m, rotate, or the like by, for example, a so-called “pinch” operation.
  • the user often touches the monitor with two fingers.
  • the contact between the user's body and the monitor 11m can be roughly regarded as a contact at two points.
  • FIG. 4A is a schematic diagram illustrating a state in which the user looks into the viewfinder of the imaging apparatus with the bottom surface of the imaging apparatus being substantially horizontal.
  • the direction in which the light related to the subject image is directed from the eyepiece lens of the finder 12f to the user's eyes is substantially parallel to the display direction of the monitor 11m. Therefore, when the user uses the finder 12f, the user's face and the display surface of the monitor 11m face each other.
  • the user's nose, lips, and right cheek protrude relatively toward the display surface of the monitor 11m, as shown in FIG. 4A, the user's nose, lips, and right cheek Three points will contact the monitor 11m. That is, the number of contact points when the user operates the monitor 11m as a touch panel with a finger is about two at most, whereas the number of contact points when the user looks into the finder 12f is three or more. It is believed that there is.
  • the first display unit 11 detects the user's contact with the first display unit 11 and checks the number of contact points based on the output from the first display unit 11. It can be determined whether or not the object approaching the unit 11 is a human face.
  • the imaging apparatus 10 determines whether or not the user is looking into the finder 12f. Is possible.
  • the first display unit 11 detects the coordinates of the contact points of the user with respect to the first display unit 11 and examines the positions of the plurality of contact points based on these inputs, whereby the first display unit It is possible to determine whether or not the object approaching 11 is a human face.
  • a graphic pattern obtained by connecting a plurality of contact points to the first display unit 11 configured as a touch panel, and a triangular pattern obtained by connecting three points of the user's nose, lips and cheeks May be compared with the control unit 13. For example, based on the input from the first display unit 11, the control unit 13 calculates the similarity between the two patterns as an evaluation value. By making the control unit 13 compare the evaluation value with a threshold value prepared in advance, it can be determined whether or not the object approaching the first display unit 11 is a human face.
  • weighting is performed in advance for each contact point on the monitor 11m, and the weighted evaluation value is calculated by the control unit 13. May be.
  • FIG. 4B is a schematic diagram showing an example of weighting for lattice points corresponding to the arrangement of electrodes.
  • a grid point is set in correspondence with the arrangement of a plurality of electrodes arranged in the horizontal and vertical directions of the monitor 11m, and a weight W i (subscript i is a plurality of weights) for each grid point.
  • W i is a plurality of weights
  • FIG. 4B the positions of a plurality of electrodes arranged in the horizontal direction and the vertical direction of the monitor 11m are schematically shown by broken lines.
  • the arrangement direction of the electrodes may be arbitrarily set in a plane parallel to the display surface of the monitor 11m, and a plurality of electrodes arranged in the horizontal direction of the monitor 11m and a plurality of electrodes arranged in the vertical direction are: It does not necessarily have to be orthogonal.
  • Weight W i that is set for each grid point, for example, a user definitive when looking into the viewfinder 12f, and face of the user is set according to the potential of the height of the contact between the monitor 11m.
  • FIG. 4B the contact point between the user's body and the monitor 11m, schematically indicated by the shaded circle in FIG. 4A, is indicated by a two-dot chain line.
  • the determination based on the relative positional relationship between the plurality of contact points it is determined whether or not the object approaching the first display unit 11 is a human face by simple pattern matching.
  • the risk of malfunction of the device 10 is reduced. For example, assume that the user touches the monitor 11m with three fingers. At this time, compared with the determination based on the number of contact points, the determination based on the relative positional relationship between the plurality of contact points is less likely to be performed by the switching process not intended by the user. In particular, if the icon display position is adjusted to a location away from the position where the user's nose, lips and cheeks will come in contact, the possibility of malfunction can be further reduced.
  • grid points are set in correspondence with the arrangement of a plurality of electrodes arranged in the horizontal and vertical directions of the monitor 11m.
  • the contact area of the user's body with respect to the monitor 11m (the ratio of the portion touched by the user to the entire display area of the monitor 11m) (Area ratio) may be estimated). This is the same as setting the weight corresponding to each lattice point equal in the above-described determination based on the relative positional relationship between the plurality of contact points.
  • the contact area with respect to the monitor 11m is when the user looks into the finder 12f. Is considered larger. Therefore, it is possible to easily determine whether or not the user is looking through the finder 12f by comparing the evaluation value with a threshold value using the contact area with the monitor 11m as an evaluation value.
  • the determination based on the contact area is easy to mount as in the above-described determination based on the number of contact points.
  • the first display unit 11 may further detect not only the contact of the object with the first display unit 11 but also the approach of the object with respect to the first display unit 11.
  • the control unit 13 detects the approach of the user's body to the monitor 11m from multipoint detection of an approaching object and increase or decrease of the capacitance. It is also possible to determine the degree.
  • 5A and 5B are schematic diagrams illustrating an example of an input operation to the monitor by the user.
  • FIG. 5A shows a state where the user touches the monitor 11m with the index finger.
  • FIG. 5B shows a state where the user touches the monitor 11m with the index finger and the thumb.
  • the area of the portion where the user's body and the monitor 11m come close to the monitor 11m with one finger Increased compared to touch.
  • the portion of the display area of the monitor 11m where the user's body and the monitor 11m approach each other is schematically shown by a cross line. The same applies to the following description.
  • FIG. 6A is a schematic diagram illustrating a state in which the user looks into the viewfinder of the imaging apparatus with the bottom surface of the imaging apparatus being substantially horizontal.
  • the control unit 13 determines whether the user is looking through the finder 12f by using the area where the user's body and the monitor 11m approach each other as the evaluation value, or the user is operating the monitor 11m configured as a touch panel This can be determined by the control unit 13.
  • the target approaching the first display unit 11 is the person's body based on the number of parts where the user's body is close to the monitor 11m and the relative positional relationship. You may make it make the control part 13 determine whether it is a face. Further, a weighted evaluation value may be used in the process of determining whether or not the object approaching the first display unit 11 is a human face.
  • FIG. 6B is a schematic diagram illustrating an example of weighting according to the possibility of user contact with the monitor.
  • the distance between the periphery of each of the user's nose, lips, and cheeks that protrudes with respect to the monitor 11m is smaller than that of the monitor 11m as compared with other parts of the user's face.
  • the weight for calculating the evaluation value may be set according to the possibility that the user's body contacts the monitor 11m. For example, among the display areas of the monitor 11m, the largest weight is set for the area where the user's nose, lips, or cheeks are most likely to contact, and the smaller weight is set sequentially as the distance from the area increases. .
  • FIG. 6B the area where the user's nose, lips or cheeks are most likely to touch is shown as a black area in the display area of the monitor 11m. Further, in FIG. 6B, an area where the user's nose, lips or cheeks are most likely to come into contact is indicated by dark shading, and an area where the user's nose, lips or cheeks is next likely to touch Is shown by thin shading.
  • a weight corresponding to the distance between each part of the user's face and the monitor 11m may be set.
  • the object approaching the first display unit 11 is the human face. It is possible to increase the accuracy of the determination of whether or not.
  • FIG. 7A is a schematic diagram schematically showing an area of the monitor display area where the user's nose, lips or cheeks are likely to approach when the user looks into the viewfinder of the imaging device with his right eye.
  • FIG. 7B is a schematic diagram schematically showing an area of the monitor display area where the user's nose, lips or cheeks are likely to approach when the user looks through the viewfinder of the imaging device with his left eye.
  • FIGS. 7A and 7B in the display area of the monitor 11m, when the user looks into the finder 12f of the imaging device 10, the area where the user's nose, lips, or cheek is likely to approach is the user. Depends on which eye is used to look into the finder 12f.
  • FIGS. 7A and 7B in the display area of the monitor 11m, the area where the user's nose, lips, or cheek is likely to approach in the state where the user looks into the finder 12f of the imaging device 10 is shaded. Indicated.
  • FIG. 8A shows an area where the user's nose, lips or cheeks are likely to approach in the state where the user looks into the finder of the imaging apparatus with the right eye, and the finder of the imaging apparatus with the left eye in the display area of the monitor.
  • FIG. 6 is a schematic diagram showing a region where the user's nose, lips, or cheeks are likely to approach in a state of looking into the camera.
  • the region Rn illustrated in FIG. 8A is a region where the user's nose is likely to approach when the user looks into the finder 12f with the right eye.
  • a region Rm illustrated in FIG. 8A is a region where the user's lips are likely to approach when the user looks into the finder 12f with the right eye.
  • a region Rc illustrated in FIG. 8A is a region where the user's right cheek is likely to approach when the user looks into the finder 12f with the right eye.
  • the region Ln shown in FIG. 8A is a region where the user's nose is likely to approach when the user looks into the finder 12f with the left eye.
  • a region Lm illustrated in FIG. 8A is a region where the user's lips are likely to approach when the user looks through the finder 12f with the left eye.
  • a region Lc illustrated in FIG. 8A is a region where the user's left cheek is likely to approach when the user looks into the finder 12f with the left eye.
  • regions C1, C2, and C3 indicated by hatching and crossing lines in FIG. 8A approach the user's nose, lips, or cheeks even when the user looks through the finder 12f of the imaging apparatus with either eye. This is a highly likely area.
  • the weight W 0 in the regions C1, C2, and C3 is set larger than the weight W 1 (W 1 > 0) in the regions Rn, Rm, Rc, Ln, Lm, and Lc. keep the weight W 2 is set to 0 in the region.
  • the object approaching the first display unit 11 is the person who is approaching the first display unit 11 regardless of which side the user looks into the finder 12f. It can be determined whether or not it is a face. For example, if a grid point is set corresponding to the arrangement of a plurality of electrodes arranged in the horizontal and vertical directions of the monitor, and the contact or approach of the object to the monitor is detected for each grid point, the area ratio It is also possible to make a determination using. That is, if integration is performed over the entire display area of the monitor, with the presence or absence of detection at each grid point as a unit, the ratio of the portion where the object touches the monitor relative to the entire display area of the monitor can be calculated.
  • the user can also shoot with the bottom surface of the imaging apparatus being substantially horizontal, but the user can also shoot with the bottom surface of the imaging apparatus being substantially vertical, for example. Therefore, it is also assumed that the user looks into the viewfinder of the imaging apparatus with the bottom surface of the imaging apparatus being substantially vertical.
  • the state in which the bottom surface of the imaging device is substantially parallel to the horizontal plane will be referred to as “horizontal state” as appropriate, and the state in which the bottom surface of the imaging device is substantially perpendicular to the horizontal plane will be referred to as “vertical state”. As appropriate.
  • FIG. 8B schematically shows an area where the user's nose, lips or cheeks are likely to approach when the user looks through the viewfinder of the imaging apparatus in the vertical state with his right eye.
  • FIG. 9A schematically illustrates an area of the monitor display area where the user's nose, lips, or cheeks are likely to approach when the user looks through the viewfinder of the imaging apparatus in a vertical state with the left eye.
  • FIG. 9B shows an area where the user's nose, lips or cheeks are likely to approach in the state where the user looks into the finder of the imaging device with the right eye, and the finder of the imaging device with the user's left eye.
  • FIG. 6 is a schematic diagram showing a region where the user's nose, lips, or cheeks are likely to approach in a state of looking into the camera.
  • FIG. 10A is a schematic diagram illustrating a state in which the user looks through the viewfinder of the imaging apparatus in the vertical state with the right eye.
  • FIG. 10B is a schematic diagram illustrating a state where the user looks through the viewfinder of the imaging apparatus in the vertical state with the left eye.
  • FIGS. 8B, 9A, and 9B correspond to FIGS. 7A, 7B, and 8A, respectively.
  • 10A and 10B correspond to FIG. 6A.
  • FIGS. 10A and 10B the area where the user's nose, lips or cheeks are closer or in contact with each other in comparison with other areas when the user is looking through the viewfinder of the imaging device is shaded and crossed. Indicated by.
  • FIG. 8B, FIG. 9A, and FIG. 9B when the imaging device 10 is in a vertical state, an area where the user's nose, lips, or cheek is likely to approach is imaged in the display area of the monitor 11m. This is very different from the case where the apparatus 10 is in a horizontal state.
  • FIGS. 10A and 10B when the imaging apparatus 10 is in a vertical state, the area where the user's face and the display surface of the monitor 11m face each other is the area of the monitor 11m that is displayed by the user. It greatly differs depending on which side of the eye the finder 12f is viewed.
  • the display control device 1 may execute processing according to the posture of the imaging device 10 in order to prevent display switching that is not intended by the user. Specifically, for example, when the imaging device 10 is in the horizontal state, weighting is performed according to the mapping as illustrated in FIG. 8A, and when the imaging device 10 is in the vertical state, according to the mapping as illustrated in FIG. 9B. Make weighting.
  • the accuracy of the determination as to whether or not the object approaching the first display unit is a human face is further increased. be able to.
  • the case where the user holds the imaging device vertically or horizontally is shown.
  • a plurality of mappings corresponding to other postures are further prepared. May be.
  • the threshold value is appropriately set according to the orientation of the imaging device. You may change it.
  • a digital camera generally has a plurality of modes. That is, the digital camera includes, for example, a “shooting mode” and a “reproduction mode”.
  • the shooting mode is a mode in which an image relating to a subject is displayed on the monitor in the finder or the monitor on the back of the housing, and an input of an image recording instruction from the user is on standby.
  • the reproduction mode is a mode in which an image obtained by imaging is displayed on the monitor in the finder or the monitor on the back of the casing, and image data can be edited as necessary.
  • the setting switching operation using a menu is the main operation, so it is often sufficient to detect about one finger. This is because an imaging apparatus equipped with a finder is designed mainly for intermediate and advanced players.
  • the ease of switching between the display by the first display unit 11 and the display by the second display unit 12 may be changed according to the mode of the imaging device 10. More specifically, for example, the control unit 13 may select a threshold value corresponding to each mode depending on whether the imaging apparatus 10 is in the shooting mode or the playback mode.
  • a threshold value for determining whether or not an object approaching the first display unit 11 is a human face is set. It is set smaller than the threshold value in the playback mode.
  • the threshold value in the shooting mode it is easy to determine that the user is looking into the viewfinder 12f when an object touches or approaches the monitor 11m.
  • the imaging device 10 is in the reproduction mode, it is difficult to determine that the user is looking into the finder 12f even when an object touches or approaches the monitor 11m. For this reason, when the user performs an input operation or the like with a plurality of fingers, display switching unintended by the user is prevented.
  • the threshold value according to the mode of an imaging device when the threshold value according to the mode of an imaging device is selected, it is not necessary to change the weighting mapping according to the mode of the imaging device.
  • a weighted mapping according to the mode of the imaging apparatus may be selected. Also in this case, the same effect as when the threshold value corresponding to the mode of the imaging device is selected can be obtained according to the mode of the imaging device.
  • FIG. 11 is a flowchart illustrating an example of processing according to the embodiment of the present disclosure.
  • the display by the first display unit 11 and the display by the second display unit 12 are switched according to the determination result of whether or not the user is looking through the finder 12f. ing.
  • a program for a series of processes described below with reference to FIG. 11 is stored in, for example, the ROM 123, the RAM 125, the storage unit 119, and the series of processes described below with reference to FIG. It is executed by the control unit 13.
  • step St1 the output from the first display unit 11 is acquired by the control unit 13.
  • the control unit 13 receives the output from the monitor 11m as an input and the number of contact points (individual To obtain information on the coordinates of the contact point.
  • step St2 an evaluation value EV for determining whether or not the object approaching the first display unit 11 is a human face is calculated based on the input from the first display unit 11.
  • the evaluation value EV for example, the number of contact points of the user's body with respect to the monitor 11m, the relative positional relationship (similarity of the shape pattern) between the plurality of contact points, the contact area, and the like can be used as the evaluation value EV. .
  • the number of contact points of the user's body with respect to the monitor 11m is the evaluation value EV.
  • the evaluation value EV is the number of contact points of the user's body with respect to the monitor 11m.
  • a process for calculating an evaluation value EV having a magnitude corresponding to the attitude of the imaging apparatus 10 may be executed.
  • mapping corresponding to the posture of the imaging device 10 is applied as weighting mapping. That's fine.
  • a threshold value TH for determining whether or not the object approaching the first display unit 11 is a human face is read from the ROM 123 into the control unit 13, for example.
  • an appropriate threshold value is selected from the plurality of threshold values, for example, according to the mode of the imaging device 10.
  • step St4 the evaluation value EV calculated in step St2 is compared with the threshold value TH selected in step St3.
  • step St5 for example, the display of the first display unit 11 is turned off, and the second display unit 12 The display is turned on.
  • Step St6 the display of the second display unit 12 is turned off and the first display is performed.
  • the display of section 11 is turned on.
  • FIG. 12A is a flowchart illustrating an example of an evaluation value calculation process.
  • FIG. 12A shows an example of a process for calculating an evaluation value EV having a magnitude corresponding to the attitude of the imaging apparatus.
  • weighting mapping used when the user holds the imaging device 10 horizontally (hereinafter referred to as “horizontal state mapping” as appropriate) and used when the user holds the imaging device 10 vertically.
  • weighted mapping hereinafter referred to as “vertical state mapping” as appropriate
  • FIGS. 8A and 9B correspond to horizontal state mapping and vertical state mapping, respectively.
  • Each data of the horizontal state mapping and the vertical state mapping is stored in, for example, the ROM 123, the RAM 125, the storage unit 119, and the like.
  • step St21 it is determined whether or not the imaging apparatus 10 is in a horizontal state. This determination can be made based on an input from the sensor 19.
  • the horizontal state mapping is selected in step St22.
  • the vertical state mapping is selected in step St23.
  • an evaluation value EV is calculated based on either the horizontal state mapping or the vertical state mapping. For example, by calculating the product sum ⁇ W i B j as the evaluation value EV, the evaluation value EV having a magnitude corresponding to the posture of the imaging device 10 can be obtained.
  • FIG. 12B is a flowchart illustrating an example of threshold selection processing.
  • FIG. 12B shows an example of processing for setting a threshold value TH having a magnitude corresponding to the mode of the imaging apparatus.
  • a threshold value used when the imaging device 10 is in the shooting mode hereinafter referred to as “shooting mode threshold value” as appropriate
  • shooting mode threshold value a threshold value used when the imaging device 10 is in the shooting mode
  • production mode threshold a threshold value used in advance.
  • the shooting mode threshold and the playback mode threshold are stored in, for example, the ROM 123, the RAM 125, the storage unit 119, and the like.
  • step St31 it is determined whether or not the imaging device 10 is in the shooting mode. Whether or not the imaging device 10 is in the shooting mode can be easily confirmed by referring to a variable stored in the RAM 125, for example.
  • the threshold for shooting mode is read into the control unit 13 in step St32.
  • the reproduction mode threshold value is read by the control unit 13 in step St33. That is, a threshold value suitable for determining whether or not the object approaching the first display unit 11 is a human face is selected according to the mode of the imaging device 10.
  • processing for calculating an evaluation value having a size corresponding to the attitude of the imaging device and processing for setting a threshold value having a size corresponding to the mode of the imaging device are executed as necessary. It may be made to be.
  • processing for setting a threshold value corresponding to the attitude of the imaging device and processing for calculating an evaluation value corresponding to the mode of the imaging device are performed as necessary. May be.
  • a triangular pattern obtained by connecting three points of the user's nose, lips, and cheeks that are in contact with or close to the monitor 11m is a triangular pattern that is almost unique to each user. Therefore, it is preferable that calibration can be performed for each user.
  • each user brings his face closer to the monitor 11m by looking into the finder 12f.
  • the imaging device 10 detects contact or approach to the monitor 11m with the monitor 11m configured as a touch panel in a state where the user brings his face close to the monitor 11m.
  • the imaging apparatus 10 corrects a threshold value or the like for determining whether or not the object approaching the first display unit 11 is a human face based on information detected by the monitor 11m. I do.
  • the control unit 13 executes creation or correction of a pattern or map corresponding to the shape of the user's face.
  • the present disclosure since the contact or approach of an object is detected by the first display unit, it is possible to detect whether or not the user is looking into the viewfinder without using a dedicated part. Therefore, according to the present disclosure, it is possible to automatically switch between the display by the first display unit and the display by the second display unit while suppressing the cost of the component itself and the mounting cost.
  • a person's face is approaching the monitor is determined based on an input from a monitor configured as a touch panel.
  • a dedicated component such as a proximity sensor for detection can be eliminated.
  • a proximity sensor since it is not necessary to arrange a proximity sensor near the viewfinder, a large monitor can be arranged in the imaging apparatus.
  • the present disclosure based on the input from the first display unit, it is estimated which of the first display unit and the second display unit the user is using, and the display by the first display unit; Switching to the display by the second display unit is automatically executed. According to the present disclosure, since switching between the display by the first display unit and the display by the second display unit is automatically executed, wasteful power consumption is suppressed and the display is switched. There is no need for the user to perform complicated input operations and the convenience for the user is improved.
  • the display control device 1 is set so that it can be easily determined that the user is looking through the viewfinder 12f.
  • the viewfinder 12f is preferably used when the user shoots in a bright environment where it is difficult to confirm the display on the monitor 11m, such as outdoor shooting in fine weather.
  • the finder 12f may be used even when shooting is performed in a dark environment where the light emitted from the monitor 11m feels dazzling to the user or others.
  • the user can use the finder 12f to check the subject more easily than using the monitor 11m.
  • the light emitted from the monitor 11m does not cause discomfort to the user, other spectators, and performers.
  • the display control device 1 is set to be easily determined that the user is looking into the finder 12f. preferable.
  • the control unit 13 When determining whether or not the shooting environment is suitable for the use of the finder 12f, the control unit 13, for example, outputs an optical sensor for adjusting the brightness of the monitor 11m, or for automatic exposure. Information about the brightness around the user can be obtained from the output of the photometric sensor or the like.
  • the imaging apparatus 10 has an automatic scene recognition function, information regarding the environment at the time of shooting can also be obtained by the automatic scene recognition function.
  • the control unit 13 can easily obtain information regarding the location of the user.
  • GPS global positioning system
  • the threshold value is set small or the evaluation value is calculated large.
  • a weighted mapping For example, a mapping is prepared in which a weight greater than 1 is multiplied in each unit of detection. Then, when it is determined that the environment at the time of shooting is suitable for use of the finder 12f, the mapping is applied. Then, the evaluation value when the environment at the time of photographing is an environment suitable for using the finder 12f becomes larger than the evaluation value in other cases.
  • the user can perform better shooting by using the finder 12f.
  • the finder 12f when a lens with a large focal length is used or when shooting at a zoom position with a large focal length is performed, it is more advantageous to use the finder 12f than the monitor 11m.
  • the user needs to move the imaging device 10 away from his / her face to some extent.
  • the finder 12f when the subject is confirmed using the finder 12f, the user can hold the imaging device 10 by bringing the imaging device 10 closer to his / her face and tightening his / her side. Therefore, when the focal length at the time of shooting is large, the user can hold the imaging device 10 more stably by using the finder 12f to check the subject, thereby suppressing blurring of the obtained image. it can.
  • the control part 13 can obtain the information regarding a focal distance easily as control information.
  • the display control device 1 causes the user to view the viewfinder 12f. It is preferable that it is set so that it can be easily determined that the user is looking into the camera.
  • the control unit 13 When determining whether or not the user is performing handheld shooting, the control unit 13 obtains information on the magnitude of vibration applied to the imaging device 10 from the output of the sensor 19 including, for example, a vibration gyroscope and an acceleration sensor. Obtainable. The control unit 13 can determine whether or not the user is performing handheld shooting based on information on the magnitude of vibration applied to the imaging device 10.
  • the degree of camera shake correction may be adjusted according to the above.
  • the degree of camera shake correction is adjusted means that the operation of one or more camera shake correction mechanisms 17 is sequentially enabled or disabled according to the magnitude of vibration applied to the imaging apparatus 10. It means that the correction amount in the camera shake correction mechanism is changed stepwise or continuously.
  • the imaging apparatus 10 includes a physical camera shake correction mechanism for an optical system and an electrical camera shake correction mechanism for an image signal.
  • the imaging apparatus 10 includes a camera shake correction mechanism by movement of the image sensor 15 and a camera shake correction mechanism by movement of a correction lens in the imaging optical system 111 as physical camera shake correction for the optical system. .
  • any one of a camera shake correction mechanism by movement of the image sensor 15, a camera shake correction mechanism by movement of the correction lens, and an electric camera shake correction mechanism for an image signal is turned on.
  • the correction ratio with respect to the low frequency region is increased.
  • the mechanism and the electric camera shake correction mechanism for the image signal are sequentially turned on.
  • the electrical camera shake correction mechanism for the image signal is further turned on, the camera shake can be corrected with a larger angle of view.
  • the threshold value is set to a small value, or weighting mapping with a large evaluation value is used, and the imaging device 10 is used.
  • the degree of camera shake correction may be adjusted according to the ease of camera shake.
  • the display control device 1 may be set so that it can be easily determined that the user is looking into the finder 12f. In this way, smoother display switching is realized in a scene where the user is likely to use the finder 12f while preventing malfunction in a normal environment.
  • FIG. 13A is a side view showing a second modification of the imaging apparatus.
  • FIG. 13B is a side view showing a state in which the finder unit is removed from the main body of the imaging apparatus.
  • the imaging apparatus 20 shown in FIG. 13A is common to the imaging apparatus 10 described above in that it includes an imaging element 15, a monitor 11m, and a control unit 13.
  • the imaging device 20 includes, for example, a main body portion 20b in which the imaging element 15 is disposed, a lens unit 20r that can be freely attached to and detached from the main body portion 20b, and a finder unit 22f that can be freely attached to and detached from the main body portion 20b. Consists of A finder unit 22 f shown in FIGS. 13A and 13B corresponds to the second display unit 12.
  • the second modification is different from the imaging device 10 described above in that the second display unit 12 is detachable from the housing 200 of the main body 20b of the imaging device 20, for example.
  • an in-finder monitor 22m is arranged inside the finder unit 22f.
  • On the in-viewfinder monitor 22m for example, information on parameters used for photographing is displayed.
  • the finder unit 22f When the finder unit 22f is configured as an electronic finder, an image signal related to the subject and an image signal related to display of parameters used for photographing are supplied from the control unit 13 to the in-finder monitor 22m via the connector 23.
  • the finder unit 22f may be configured as an optical finder. In this case, an image signal related to display of parameters used for shooting is supplied from the control unit 13 to the in-finder monitor 22m via the connector 23.
  • the display direction of the finder unit 22f can be set to at least substantially the same direction as the display direction of the monitor 11m disposed on the rear surface of the housing 200 or the like. This is because when the user uses the finder unit 22f, the display surface of the monitor 11m disposed on the rear surface of the housing 200 or the like faces the user's face.
  • the second display unit 12 may be configured as a detachable display device.
  • a finder unit that can set the display direction to be substantially the same as the display direction of the monitor is detachable, a display switching function can be added to an imaging device including a monitor configured as a touch panel. it can.
  • the third modified example is an example in which, when the user uses the finder, the area that does not overlap the user's face is the area for the input operation.
  • FIG. 14A shows a state where the user looks at the finder 12f of the imaging device 30 with his right eye while the bottom surface of the imaging device 30 is substantially horizontal. As shown in FIG. 14A, when the user looks into the finder 12f of the imaging device 30 with the right eye, the lower right area of the display area of the monitor 11m is unlikely to overlap the user's face.
  • the display by the monitor 11m is turned off, but the monitor 11m configured as a touch panel can be used as an input element.
  • the monitor 11m it is possible to cause the monitor 11m to detect the contact or approach of the user's body to an area that does not overlap the user's face in the display area of the monitor 11m.
  • the user can touch the area of the monitor 11m that does not overlap the user's face with the thumb of the right hand.
  • the region where the user's face and the monitor 11m overlap is schematically shown by a cross line.
  • the imaging apparatus 30 executes a function that has been assigned in advance to the input operation for the area.
  • a function that has been assigned in advance to the input operation for the area.
  • input operations on the area for example, auto exposure fixing, auto focus fixing, face detection on / off switching, flash use / non-use, “aperture priority mode” and “shutter speed priority mode” It is possible to assign shooting mode switching such as “”.
  • a mold such as unevenness or Braille shaped like a pictogram is formed on the housing 300 of the imaging device 30 so that the user can recognize an area used for an input operation when using the finder 12f by touch.
  • 301 may be provided.
  • the texture of the area used for the input operation when using the finder 12f in the display area of the monitor may be different from that of other areas.
  • the detection result in the area that does not overlap the user's face is excluded from the determination as to whether or not the object approaching the first display unit 11 is a human face.
  • the detection result in the region that does not overlap with the user's face is not used to calculate an evaluation value for determining whether or not the object approaching the first display unit 11 is a human face.
  • the assignment of a function to an input operation to an area that does not overlap with the user's face is canceled when the user removes the face from the finder 12f.
  • the user when the user uses the finder 12f, by using the area that does not overlap the user's face as the area for the input operation, the user can use the shooting parameters even while looking through the finder 12f. Can be changed.
  • the user can change the composition while looking into the finder 12f without changing the exposure setting by instructing the imaging apparatus 30 to fix the automatic exposure.
  • the entire area of the monitor 11m can be effectively used as a detection element, and the number of buttons arranged on the housing of the imaging apparatus The design of the imaging device can be improved.
  • FIG. 15A and FIG. 15B are rear views illustrating an example of an imaging device in which function icons are displayed in an area that does not overlap with the user's face when the user uses the viewfinder in the display area of the monitor.
  • FIGS. 14A and 14B show an example in which the display on the monitor 11m is turned off when the user uses the finder 12f.
  • the display content of the monitor 11m is changed. It may be.
  • the brightness of the display of the area overlapping the user's face is reduced, and the function icon 303 is displayed in the area not overlapping the user's face.
  • FIG. 15B a region where the user's face and the monitor 11m overlap each other is schematically shown by a cross line.
  • the function icon 303 is displayed in an area that does not overlap with the user's face, and the touch operation on the function icon 303 displayed in the area is detected by the monitor 11m, which is assigned in advance.
  • the functions may be executed. Also in this case, the area near the function icon 303 is not used for detecting the approach of the user's body to the monitor 11m.
  • the present invention is not limited to this example.
  • the same technique can be applied when the user holds the imaging device 30 vertically or when the user looks into the viewfinder 12f of the imaging device 30 with his left eye.
  • the monitor disposed on the back surface of the housing of the imaging device is configured as a touch panel, and the contact or approach of an object is detected by the monitor. Therefore, according to the present disclosure, it is possible to detect contact or approach of the user's face while eliminating the need for dedicated parts.
  • whether or not the user's face is touched or approached is determined based on an output from a monitor configured as a touch panel. Therefore, according to the present disclosure, it is possible to switch between display of information by a monitor disposed inside the finder and display of information by a monitor disposed on the rear surface of the housing of the imaging device without the need for a dedicated component. Can be realized.
  • the present disclosure can be applied not only to still image shooting but also to moving image shooting.
  • the digital camera is taken as an example, but the present disclosure can be applied to a video camera, a microscope, a viewer of image data, and the like.
  • the above-described method for calculating the evaluation value and the method for determining whether or not the user is looking through the viewfinder are merely examples, and the above-described methods may be combined with each other.
  • the present invention is not limited to this example.
  • the user's input operation on the monitor may be disabled, and only the contact or approach of an object to the monitor may be detected by the monitor.
  • the user can select which of the input operation invalidation and display switching is to be executed with priority.
  • this indication can also take the following structures.
  • a first display that accepts user operations and presents information to the user;
  • a second display A display control apparatus comprising: a control unit that switches between display by the first display unit and display by the second display unit based on an input from the first display unit.
  • the control unit determines whether or not an object that contacts or approaches the first display unit is a human face, and the first display unit is determined according to the determination result.
  • the display control apparatus according to (1) which switches between display by the second display and display by the second display unit.
  • An image sensor disposed inside the housing; A first display unit coupled to the housing for receiving a user operation and presenting information to the user; A second display unit in which a display direction is set in substantially the same direction as the display direction of the first display unit; An imaging apparatus comprising: a control unit that switches between display by the first display unit and display by the second display unit based on an input from the first display unit. (10) The imaging apparatus according to (9), wherein the second display unit is detachable from the housing. (11) When the control unit compares the evaluation value calculated from the input with one of one or more threshold values prepared in advance, an object that touches or approaches the first display unit is a human face. (9) or (10). The imaging device according to (10).

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Studio Devices (AREA)
  • General Engineering & Computer Science (AREA)
  • Exposure Control For Cameras (AREA)
  • Viewfinders (AREA)
  • Details Of Cameras Including Film Mechanisms (AREA)
  • Camera Bodies And Camera Details Or Accessories (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Adjustment Of Camera Lenses (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

表示制御装置は、ユーザの操作を受けつけるとともに、情報をユーザに提示する第1の表示部と、第2の表示部と、第1の表示部からの入力に基づいて、第1の表示部による表示と、第2の表示部による表示とを切り替える制御部とを備える。

Description

表示制御装置および撮像装置ならびに表示制御方法
 本開示は、表示制御装置および撮像装置ならびに表示制御方法に関する。より詳細には、本開示は、ファインダへの近接センサの配置を不要とする表示制御装置および撮像装置ならびに表示制御方法に関する。
 一般的に、デジタル方式のカメラは、撮像により得られる画像を表示するモニタを備えている。そのため、カメラのユーザ(以下、単に“ユーザ”と適宜称する。)は、撮影した画像をモニタに表示させることにより、所望の画像が得られたかどうかをその場で確認することができる。
 また、モニタおよびファインダの双方を備えるカメラも知られている。ファインダを使用することにより、撮影の際のユーザによるカメラの保持が安定する。そのため、ファインダの使用により、ユーザの所望する構図の撮影が容易となる。
 ところで、カメラがモニタおよびファインダの双方を備える場合、ユーザがファインダを使用しているときにモニタの表示がオンとされていると、モニタの発する光がファインダを覗くユーザの目に入ったり、無駄な電力消費が発生したりする。
 そのため、例えば、筺体に配置されたボタンに対する操作やメニュー操作により、モニタの表示と、ファインダ内の表示との切り替えが可能とされたカメラも存在する。なお、下記の特許文献1では、ファインダに近接センサを配置して、近接センサの検出結果に基づいて、タッチパネル(“タッチスクリーン”とも呼ばれる。)に対する操作を無効とすることが提案されている。
特開2001−059984号公報
 しかしながら、関連技術として例示する特許文献1に記載の技術では、ユーザによるファインダの使用を検出するために、専用の部品(近接センサ)が必要となってしまう。ユーザによるファインダの使用を検出するための専用の部品をカメラに設けることは、カメラの構造が大きくなってしまう。
 そこで、ユーザによるファインダの使用を簡易な方法により検出して、ユーザの利便性を向上させることが望まれている。
 本開示の第1の好ましい実施態様は、
 表示制御装置が、第1の表示部と、第2の表示部と、制御部とを備える。
 第1の表示部は、ユーザの操作を受けつけるとともに、情報をユーザに提示する。
 制御部は、第1の表示部からの入力に基づいて、第1の表示部による表示と、第2の表示部による表示とを切り替える。
 本開示の第2の好ましい実施態様は、
 撮像装置が、撮像素子と、第1の表示部と、第2の表示部と、制御部とを備える。
 撮像素子は、筺体の内部に配置される。
 第1の表示部は、筺体に連結され、ユーザの操作を受けつけるとともに、情報をユーザに提示する。
 第2の表示部は、表示の方向が第1の表示部の表示の方向とほぼ同じ方向に設定される。
 制御部は、第1の表示部からの入力に基づいて、第1の表示部による表示と、第2の表示部による表示とを切り替える。
 本開示の第3の好ましい実施態様は、
 ユーザの操作を受けつけるとともに、情報をユーザに提示する第1の表示部からの入力に基づいて、第1の表示部による表示と、第2の表示部による表示とを切り替えることを含む表示制御方法である。
 本明細書中における、“タッチパネル”は、入力素子単体を指すものではなく、情報を表示する機能を備えるものを指すものとする。
 少なくとも1つの実施例によれば、製造コストの上昇を抑えながら、ユーザの利便性を向上させることができる。
 図1Aは、本開示の実施の形態にかかる撮像装置の一例を示す背面図である。図1Bは、撮像装置の使用状態の一例を示す概略図である。図1Cは、ユーザがファインダを覗いたときに、ユーザに観察される像の一例を示す概略図である。
 図2Aは、本開示の実施の形態にかかる表示制御装置の構成例を示す機能ブロック図である。図2Bは、本開示の実施の形態にかかる撮像装置の構成例を示す機能ブロック図である。
 図3Aおよび図3Bは、ユーザによるモニタへの入力操作の一例を示す概略図である。
 図4Aは、ユーザが撮像装置の底面をほぼ水平として、ユーザが撮像装置のファインダを覗いた状態を示す概略図である。図4Bは、電極の配置に対応した格子点に対する重みづけの例を示す概略図である。
 図5Aおよび図5Bは、ユーザによるモニタへの入力操作の一例を示す概略図である。
 図6Aは、ユーザが撮像装置の底面をほぼ水平として、ユーザが撮像装置のファインダを覗いた状態を示す概略図である。図6Bは、モニタに対するユーザの接触の可能性の高さに応じた重みづけの例を示す概略図である。
 図7Aは、モニタの表示領域のうち、ユーザが右目で撮像装置のファインダを覗いた状態において、ユーザの鼻、唇または頬の接近する可能性の高い領域を模式的に示す概略図である。図7Bは、モニタの表示領域のうち、ユーザが左目で撮像装置のファインダを覗いた状態において、ユーザの鼻、唇または頬の接近する可能性の高い領域を模式的に示す概略図である。
 図8Aは、モニタの表示領域のうち、ユーザが右目で撮像装置のファインダを覗いた状態において、ユーザの鼻、唇または頬の接近する可能性の高い領域と、ユーザが左目で撮像装置のファインダを覗いた状態において、ユーザの鼻、唇または頬の接近する可能性の高い領域とを示す概略図である。図8Bは、モニタの表示領域のうち、垂直状態とされた撮像装置のファインダをユーザが右目で覗いたときに、ユーザの鼻、唇または頬の接近する可能性の高い領域を模式的に示す概略図である。
 図9Aは、モニタの表示領域のうち、垂直状態とされた撮像装置のファインダをユーザが左目で覗いたときに、ユーザの鼻、唇または頬の接近する可能性の高い領域を模式的に示す概略図である。図9Bは、モニタの表示領域のうち、ユーザが右目で撮像装置のファインダを覗いた状態において、ユーザの鼻、唇または頬の接近する可能性の高い領域と、ユーザが左目で撮像装置のファインダを覗いた状態において、ユーザの鼻、唇または頬の接近する可能性の高い領域とを示す概略図である。
 図10Aは、垂直状態とされた撮像装置のファインダをユーザが右目で覗いた状態を示す概略図である。図10Bは、垂直状態とされた撮像装置のファインダをユーザが左目で覗いた状態を示す概略図である。
 図11は、本開示の実施の形態にかかる処理の一例を示すフローチャートである。
 図12Aは、評価値算出の処理の一例を示すフローチャートである。図12Bは、しきい値選択の処理の一例を示すフローチャートである。
 図13Aは、撮像装置の第2の変形例を示す側面図である。図13Bは、撮像装置の本体部からファインダユニットが取り外された状態を示す側面図である。
 図14Aおよび図14Bは、撮像装置の第3の変形例を示す背面図である。
 図15Aおよび図15Bは、モニタの表示領域のうち、ユーザがファインダを使用するときに、ユーザの顔と重ならない領域に機能アイコンが表示される撮像装置の例を示す背面図である。
 以下、表示制御装置および撮像装置ならびに表示制御方法の実施の形態について説明する。説明は、以下の順序で行う。
 <1.一実施の形態>
  [1−1.撮像装置の構成と動作の概略]
  [1−2.表示制御装置および撮像装置の構成例]
   (1−2−1.表示制御装置の構成例)
   (1−2−2.撮像装置の構成例)
  [1−3.接触または接近する対象の推定]
  [1−4.物体の接触に基づく判定]
   (1−4−1.接触点の個数に基づく評価値)
   (1−4−2.複数の接触点の間の相対位置関係に基づく評価値)
   (1−4−3.接触面積に基づく評価値)
  [1−5.物体の接触または接近に基づく判定]
  [1−6.撮像装置の構え方に応じた評価値の算出の例]
  [1−7.撮像装置のモードに応じたしきい値調整の例]
  [1−8.表示制御装置における処理の一例]
   (1−8−1.表示の切り替え処理)
   (1−8−2.評価値算出の処理)
   (1−8−3.しきい値選択の処理)
 <2.変形例>
  [2−1.第1の変形例]
  [2−2.第2の変形例]
  [2−3.第3の変形例]
 以下に説明する実施の形態は、表示制御装置および撮像装置ならびに表示制御方法の好適な具体例である。以下の説明においては、技術的に好ましい種々の限定が付されているが、特に本開示を限定する旨の記載がない限り、表示制御装置および撮像装置ならびに表示制御方法の例は、以下に示す実施の形態に限定されないものとする。なお、以下の説明においては、同一またはほぼ同様の構成を備える部材には共通の参照符号を付す。
<1.一実施の形態>
 以下では、デジタルカメラを例にとり、本開示の表示制御装置および撮像装置ならびに表示制御方法の好適な具体例について説明する。以下の説明により明らかとなるように、本開示の表示制御装置および撮像装置ならびに表示制御方法の適用例は、デジタルカメラに限定されるものではない。
[1−1.撮像装置の構成と動作の概略]
 図1Aは、本開示の実施の形態にかかる撮像装置の一例を示す背面図である。図1Bは、撮像装置の使用状態の一例を示す概略図である。
 図1Aに示すように、撮像装置10は、具体的には、筺体100の内部に撮像素子が配置されるデジタル方式のカメラである。したがって、撮像装置10には、筺体100の背面などにモニタ11mが設けられている。
 モニタ11mは、ユーザの操作を受けつける入力装置としての機能を備えるとともに、情報をユーザに提示する表示装置としての機能を備えている。すなわち、モニタ11mは、具体的には、表示素子および入力素子(検出素子)を備えるタッチパネルとして構成される。なお、図1Aでは、モニタ11mにタッチするユーザの指を、二点鎖線により模式的に示した。以下の説明おいても、同様とする。
 図1Aに示すように、例えば、モニタ11mには、撮像素子により取得される、被写体に関する画像が表示される。また、モニタ11mには、必要に応じて、撮影に使用されるパラメータに関する情報などが、被写体に関する画像に重畳して表示される。撮影に使用されるパラメータに関する情報としては、例えば、シャッタースピードや絞りの開き、ISO感度などが挙げられる。これらの情報は、例えば、アイコンやインジケータ、文字、ピクトグラムなどの形態により、ユーザに提示される。
 また、モニタ11mがタッチパネルとして構成されるため、モニタ11mには、必要に応じて、撮影に使用される設定を変更するためのアイコンなどが被写体に関する画像に重畳して表示される。図1Aでは、顔検出のオンまたはオフを切り替えるためのアイコンIcがモニタ11mに表示される例を示した。
 図1Aでは、ユーザの操作により、顔検出がオンとされた例を示している。図1Aでは、撮像装置10が被写体の顔を認識していることを示すインジケータIdが、被写体に関する画像に重畳して表示された状態を示している。
 撮像装置10は、図1Aに示すように、撮像素子により得られる画像を確認するためのファインダ12fをさらに備えている。したがって、図1Bに示すように、ユーザは、ファインダ12fを使用して被写体や構図の確認を行うことができる。図1Bでは、ファインダ12fを覗くユーザの顔を、投影図として二点鎖線により模式的に示した。以下の説明おいても、同様とする。なお、図1Bは、ユーザが右目でファインダを覗いている状態を模式的に示す図である。
 このように、撮像装置10では、ユーザは、撮影時におけるシーンやユーザの嗜好に応じてモニタ11mまたはファインダ12fを使い分けることができる。
 図1Cは、ユーザがファインダを覗いたときに、ユーザに観察される像の一例を示す概略図である。
 図1Cに示すように、ファインダ12fを覗くユーザには、被写体の像に加えて、例えば、撮影に使用されるパラメータに関する情報などが観察される。
 具体的には、例えば、撮像装置10は、ユーザがモニタ11mに表示される画像を確認している時またはユーザがタッチパネルとしてのモニタ11mを操作している時にモニタ11mに表示されるアイコンやインジケータなどとほぼ同様の情報をユーザに提示する。もちろん、ユーザがファインダ12fを介して観察する情報と、モニタ11mの提示する情報とが、同一でなくでもかまわない。例えば、表示される情報量や表示の形態が、ユーザがファインダ12fを使用する場合と、ユーザがモニタ11mを使用する場合との間で異なっていてもかまわない。図1Cでは、撮影に使用されるパラメータに関する情報や、顔検出のインジケータId、撮影により得られる画像の中心および範囲を示すインジケータIfが被写体の像とともにユーザに観察される例を示した。
 ところで、撮像装置10のファインダ12fは、電子ファインダまたは光学式ファインダとして構成される。
 撮像装置10のファインダ12fが電子ファインダとして構成される場合、ファインダ12fの内部には、有機EL(ElectroLuminescence:電界発光効果)ディスプレイや液晶ディスプレイ(Liquid Crystal Display(LCD))などからなる表示素子が配置される。したがって、撮像装置10のファインダ12fが電子ファインダとして構成される場合には、撮像素子により取得される、被写体に関する画像と、撮影に使用されるパラメータに関する情報とが、ファインダ12fの内部に配置される表示素子に重畳して表示される。
 一方、撮像装置10のファインダ12fが光学式ファインダとして構成される場合には、例えば、ペンタプリズムなどからなる光学系と、液晶ディスプレイなどの表示素子とが、ファインダ12fの内部に配置される。この場合、ユーザは、ファインダ12fの内部に配置される表示素子に表示される、撮影に使用されるパラメータに関する情報と、ペンタプリズムなどからなる光学系を介して得られる、被写体に関する像とを同時に観察する。したがって、ユーザは、電子式ファインダの場合と同様にして、撮影に使用されるパラメータに関する情報および被写体に関する像の両方を確認することができる。以下では、ファインダ12fが電子ファインダであるか光学式ファインダであるかを区別せずに、ファインダ12fの内部に配置される表示素子を“ファインダ内モニタ”と称することとする。
 本開示では、ユーザがファインダ12fを使用しようとして、撮像装置10に顔を近づけると、モニタ11mの表示内容と、ファインダ内モニタの表示内容とが、ともに変更される。具体的には、例えば、モニタ11mの表示領域のうちのほぼ全体が、“黒”の表示に変更され、モニタ11mに表示されていた情報に対応した情報が、ファインダ内モニタに表示される。ユーザがファインダ12fから顔を離すと、例えば、モニタ11mの表示内容が、ユーザがファインダ12fを覗く前の状態に戻され、ファインダ内モニタの表示が、“黒”の表示に変更される。
 または、例えば、ユーザが撮像装置10に顔を近づけると、モニタ11mの表示がオフとされるとともに、ファインダ内モニタの表示がオンとされる。ユーザがファインダ12fから顔を離すと、ファインダ内モニタの表示がオフとされ、モニタ11mの表示が再びオンとされる。言い換えれば、ユーザがモニタ11mを使用しようとしているか、またはファインダ12fを使用しようとしているかに応じて、モニタ11mの表示のオンまたはオフと、ファインダ内モニタの表示のオンまたはオフとが、切り替えられる。
 すなわち、この場合、ユーザがモニタ11mに表示される画像を確認している時またはユーザがタッチパネルとしてのモニタ11mを操作している時には、図1Aに示すように、モニタ11mの表示がオンとされることに対して、ファインダ内モニタの表示がオフとされる。一方、ユーザがファインダ12fを覗いている時には、図1Bおよび図1Cに示すように、ファインダ内モニタの表示がオンとされることに対して、モニタ11mの表示がオフとされる。
 したがって、ユーザがモニタ11mおよびファインダ12fの一方を使用して、被写体に関する像や撮影に使用されるパラメータに関する情報を確認する時には、使用されていない側の表示素子が、例えば、オフとされ、電力の無駄な消費が抑制される。この場合、モニタ11mの発する光がファインダ12fを覗くユーザの目に入ることもないため、ユーザの撮影に支障が生じることもない。
 このように、本開示では、モニタ11mの表示およびファインダ内モニタの表示が、ユーザがファインダ12fを覗いているか否かに応じて切り替えられる。
 本開示の実施の形態では、ユーザがファインダ12fを覗いているか否かが、人の顔がモニタ11mに接触または接近しているか否かにより判定される。人の顔がモニタ11mに接触または接近しているか否かは、タッチパネルとして構成されるモニタ11mからの入力に基づいて判定される。人の顔がモニタ11mに接触または接近しているか否かの判定や、モニタ11mの表示およびファインダ内モニタの表示の切り替えは、例えば、後述する制御部によりなされる。
 本開示によれば、人の顔がモニタに接触または接近しているか否かが、タッチパネルとして構成されるモニタからの入力に基づいて判定されるため、ユーザによるファインダの使用を検出するための近接センサなどの専用の部品を不要とすることができる。
[1−2.表示制御装置および撮像装置の構成例]
(1−2−1.表示制御装置の構成例)
 図2Aは、本開示の実施の形態にかかる表示制御装置の構成例を示す機能ブロック図である。
 図2Aに示すように、本開示の実施の形態にかかる表示制御装置1は、少なくとも、第1の表示部11と、第2の表示部12と、制御部13とを含んでいる。
 第1の表示部11は、ユーザの操作を受けつけるとともに、情報をユーザに提示する。図1Aおよび図1Bに示すモニタ11mは、第1の表示部11に対応し、図1Aおよび図1Bに示すファインダ12fは、第2の表示部12に対応している。
 制御部13は、第1の表示部11からの入力に基づいて、第1の表示部11による表示と、第2の表示部12による表示とを切り替える。
 より具体的には、制御部13は、第1の表示部11からの入力に基づいて、第1の表示部11に接近する対象が人の顔であるか否かを判定する。第1の表示部11に接近する対象が人の顔であるか否かの判定の詳細については、後述する。制御部13は、第1の表示部11に接近する対象が人の顔であるか否かの判定の結果に応じて、第1の表示部11による表示と、第2の表示部12による表示とを切り替える。
(1−2−2.撮像装置の構成例)
 図2Bは、本開示の実施の形態にかかる撮像装置の構成例を示す機能ブロック図である。
 図2Bに示すように、撮像装置10は、少なくとも、撮像素子15と、第1の表示部11と、第2の表示部12と、制御部13とを含んでいる。以下、結像光学系111、撮像素子15、A/D変換部113、前処理部115、エンコーダ/デコーダ117、記憶部119、操作部121、センサ19、手ぶれ補正機構17、制御部13、第1の表示部11および第2の表示部12について順に説明する。
(結像光学系)
 結像光学系111は、1以上のレンズを含む光学系である。結像光学系111は、撮像装置10の筺体100の内部に配置される撮像素子15の撮像面に、被写体の像を結像させる。
 結像光学系111に配置される1以上のレンズの少なくとも1つは、例えば、オートフォーカスのために移動が自在とされている。これらのレンズは、レンズ駆動機構により移動される。レンズ駆動機構に対する制御信号は、後述する制御部13から供給される。また、レンズの移動量などに関する情報が、後述する制御部13に供給される。
 結像光学系111は、必要に応じて、1以上のミラーを含む。例えば、撮像装置が一眼レフレックスカメラである場合には、被写体からの光が、筺体の内部に配置されるミラーにより反射されて、筺体の上部に配置されるファインダの光学系に導かれる。また、例えば、撮像装置がペリクルミラー搭載型のカメラである場合には、被写体からの光の一部が、筺体の内部に配置される半透過ミラーにより反射されて、筺体の上部または下部に配置されるオートフォーカスセンサに導かれる。
 なお、撮像装置10が、結像光学系111にミラーを含まない場合にも、本開示は適用可能である。すなわち、撮像装置10が、いわゆる“ミラーレス一眼カメラ”などと呼ばれるデジタルカメラであっても本開示は適用可能である。このように、本開示は、撮像装置10内部のミラーの有無を問わない。
(撮像素子)
 被写体からの光は、結像光学系111を介して撮像素子15に入射する。撮像素子15は、後述する制御部13の制御により供給されるタイミング信号にしたがって、被写体に関する画像信号を出力する。撮像素子15により取得された、被写体に関する画像信号は、A(Analog)/D(Digital)変換部113に出力される。撮像素子15としては、例えば、CMOS(Complementary Metal−Oxide Semiconductor)やCCD(Charge−Coupled Device)などが挙げられる。
(A/D変換部)
 A/D変換部113は、後述する制御部13の制御にしたがって、撮像素子15から出力されるアナログ信号に対してA/D(Analog−Digital)変換を行い、デジタル信号を出力する。A/D変換部113から出力される信号は、前処理部115に供給される。
(前処理部)
 前処理部115は、後述する制御部13の制御にしたがって、被写体に関する画像信号に対して所定の信号処理を行う。被写体に関する画像信号に対する信号処理としては、例えば、デジタルゲイン調整や、ガンマ補正、色補正、コントラスト補正などが挙げられる。
(エンコーダ/デコーダ)
 エンコーダ/デコーダ117は、後述する制御部13の制御にしたがい、前処理部115により信号処理の施された信号に対して、符号化方式を利用したエンコード(符号化)を行う。例えば、エンコーダ/デコーダ117は、前処理部115により信号処理の施された画像信号をJPEG(Joint Photographic Experts Group)などの圧縮符号化方式により圧縮し、圧縮後のデータを生成する。符号化により得られるデータは、例えば、後述する記憶部119に格納される。
 また、エンコーダ/デコーダ117は、後述する記憶部119から読みだされるデータのデコード(復号)を行う。復号化された情報は、例えば、後述する制御部13に供給される。
(記憶部)
 記憶部119は、例えば、撮像装置10に対して着脱が自在とされる外部記憶装置と、撮像装置10の内部に固定される内部記憶装置とを含む。外部記憶装置または内部記憶装置に適用される記憶媒体としては、例えば、フラッシュメモリ、光ディスク、ハードディスク、光磁気ディスク、MRAM(Magnetoresistive Random Access Memory:磁気抵抗メモリ)などが挙げられる。
 撮影により得られた画像データは、例えば、リーダ/ライタを介して記憶部119に保存される。画像データを、外部記憶装置または内部記憶装置のいずれに保存させるかは、例えば、ユーザが任意に設定可能とされている。
(操作部)
 操作部121は、撮像装置10の筺体100に配置される機能ボタンの群やレリーズボタンなどの各種の入力素子を含む。操作部121は、撮像装置10を操作するためのユーザインターフェースとして機能する。操作部121が、リモートコントローラなどの外部制御装置を含んでいてもよい。操作部121の受けつけた、ユーザの入力操作に応じた操作信号は、後述する制御部13に出力される。
(センサ)
 撮像装置10は、必要に応じて、撮像装置10の姿勢や、撮像装置10に与えられる振動を検出するための1以上のセンサ19を備えている。撮影時における撮像装置10の姿勢に関する情報は、後述する制御部13により、例えば、メタデータとして画像データに付加される。
 撮像装置10の姿勢を検出するための検出素子としては、振動ジャイロスコープや加速度センサなどが挙げられる。または、例えば、角度センサや、いわゆる縦横センサにより撮像装置10の角度を検出するようにしてもよいし、レンズ駆動機構のアクチュエータへの負荷から撮像装置10の姿勢を検出するようにしてもよい。縦横センサは、スロットの内部に配置されたボールが、スロットの内側のどの面に接触しているかを検出することにより、撮像装置10の筺体100の角度を検出するセンサである。
(手ぶれ補正機構)
 撮像装置10は、必要に応じて、1以上の手ぶれ補正機構17を備える。例えば、手ぶれ補正機構17が光学式の補正機構とされる場合、撮像装置10に与えられた振動に応じて、撮像素子15自体または結像光学系111に配置される補正レンズが、該振動による影響を打ち消す方向に移動させられる。撮像装置10に与えられる振動は、例えば、センサ19として撮像装置10の筺体100の内部に配置される振動ジャイロスコープにより検出される。
 手ぶれ補正が、後述する制御部13により実行されてもよい。この場合、撮像素子15から得られる画像信号に対する演算により補正が行われる。もちろん、光学系に対する物理的な手ぶれ補正と、画像信号に対する電気的な手ぶれ補正とが組み合わせられてもよい。
(制御部)
 制御部13は、プロセッサを含む処理装置であり、制御部13は、例えば、デジタルシグナルプロセッサ(Digital Signal Processor(DSP))やCPU(Central Processing Unit)として構成される。
 制御部13は、後述する第1の表示部11からの入力に基づいて、例えば、第1の表示部11に接近する対象が人の顔であるか否かの判定を行い、判定の結果に応じて、第1の表示部11による表示と、第2の表示部12による表示とを切り替える。また、制御部13は、撮像装置10の各部を制御するとともに、例えば、操作部121や、後述する第1の表示部11からの入力に応じた処理の結果を出力する。
 なお、各種の演算処理や、撮像装置10の各部の制御を行うためのプログラムは、例えば、制御部13に接続されるROM(Read−Only Memory)123やRAM(Random Access Memory)125、記憶部119などに格納される。
 制御部13は、記憶部119におけるデータの読み出しおよび書き込みを制御するほか、必要に応じて、例えば、外部記憶装置に格納されたプログラムの取得を行う。外部記憶装置などに格納されたプログラムを制御部13が取得することにより、例えば、撮像装置10を制御するためのプログラムやソフトウェアの更新がなされる。
(第1の表示部)
 第1の表示部11は、例えば、撮像装置10の筺体100の背面などに配置される表示装置である。第1の表示部11は、例えば、ヒンジなどを介して撮像装置10の筺体100に連結される。第1の表示部11は、ユーザの操作を受けつけるとともに、情報をユーザに提示する。
 第1の表示部11は、具体的には、タッチパネルとして構成され、タッチパネルは、例えば、表示素子および入力素子の組から構成される。
 第1の表示部11を構成する表示素子としては、例えば、有機ELディスプレイや液晶ディスプレイなどが挙げられる。
 第1の表示部11を構成する表示素子は、制御部13の制御のもとで駆動される。したがって、第1の表示部11には、例えば、撮像素子15の光電変換の作用により得られる、被写体に関する画像や、ユーザからの入力に対する処理の結果が表示される。また、例えば、第1の表示部11には、撮影に使用される各種パラメータの設定値を変更するための1以上のアイコンや、メニュー操作のための1以上のアイコンなどが表示される。
 検出素子としての入力素子は、例えば、第1の表示部11を構成する表示素子の表面に積層されている。または、検出素子としての入力素子は、第1の表示部11を構成する表示素子の外周部に配置されている。第1の表示部11が、“イン・セル(in−cell)”と呼ばれる、表示素子の内部に入力素子の機能の実装されたタッチパネルとして構成されていてもよい。
 第1の表示部11は、例えば、第1の表示部11に対するユーザの接触または接近を検出するが、検出素子としての入力素子は、少なくとも物体の接触または接近を検出できればよく、第1の表示部11が特定の対象のみを選択して検出する必要はない。
 第1の表示部11を構成する入力素子は、例えば、第1の表示部11を構成する表示素子に表示されるアイコンに対する、ユーザの指などの接触を検出する。第1の表示部11を構成する入力素子は、第1の表示部11の表示領域のうち、ユーザがどの部分に触れたかに関する情報を制御部13に出力する。制御部13は、第1の表示部11からの出力を入力として、第1の表示部11を構成する表示素子のうち、ユーザの触れた部分に表示されているアイコンに対応する機能の実行を撮像装置10の各部に指示したり、該アイコンに対応するパラメータの設定値を変更したりする。
 第1の表示部11が、第1の表示部11に対するユーザの接触だけでなく、第1の表示部11に対するユーザの体の接近をさらに検出できることが好ましい。特に、第1の表示部11が、第1の表示部11に対するユーザの顔の接近を検出できることが好ましい。なお、第1の表示部11に対するユーザの顔の接近と、第1の表示部11を構成する表示素子に表示される画面の内容(アイコンやインジケータなど)との間には、直接的な関連性がなくともよい。
 第1の表示部11は、少なくとも、第1の表示部11に対するユーザの体の接触または接近のいずれかが検出できればよく、第1の表示部11における検出の方式は、特に限定されない。第1の表示部11における検出の方式としては、具体的には、例えば、投影型静電容量方式や表面型静電容量方式(アナログ容量結合方式)、画像認識方式、赤外線走査方式、赤外線再帰反射方式、抵抗膜方式、超音波表面弾性波方式、音響パルス認識方式、振動検出方式などが挙げられる。これらの2種以上を組み合わせて使用してもよい。
 第1の表示部11を構成する入力素子が、多点検出できる入力素子であることが好ましく、第1の表示部11を構成する入力素子が、第1の表示部11に対する物体の接近を検出できる入力素子であることがさらに好ましい。
 第1の表示部11に対するユーザの体の接触または接近を検出する観点から、第1の表示部11における検出の方式として投影型静電容量方式が選択されることが好ましい。例えば、第1の表示部11に対してユーザの体が接触していない時に、隣り合う複数の電極を結合させて実効的な電極面積を増大させることにより、第1の表示部11に対するユーザの体の接近を第1の表示部11に検出させることも可能である。
 もちろん、第1の表示部11に対するユーザの体の接触または接近の検出方法は、投影型静電容量方式による検出方法だけに限られない。例えば、第1の表示部11を構成する表示素子の外周部に、赤外線走査方式の入力素子を複数積層しておけば、第1の表示部11に対するユーザの体の接触および接近を第1の表示部11に検出させることが可能である。
 第1の表示部11が、第1の表示部11に対するユーザの接触および接近の両方を検出できる場合には、後述するように、第1の表示部11に接近する対象が人の顔であるか否かの判定における設計に、より幅広さを持たせることができる。
(第2の表示部)
 第2の表示部12は、接眼レンズと、有機ELディスプレイや液晶ディスプレイなどの表示素子とを備える。ファインダ内モニタとしての表示素子は、ファインダ12fの内部に配置される。
 ファインダ12fの内部に配置された表示素子は、制御部13の制御のもとで駆動され、少なくとも、撮影に関する情報を表示する。撮影に関する各種情報の表示のオンまたはオフは、例えば、ユーザの操作部121への入力操作による切り替えが可能とされる。したがって、ユーザは、所望の種類の情報をファインダ12f内の表示素子に選択的に表示させて撮影を行うことが可能とされている。
 撮像装置10の筺体100と、第2の表示部12とは、一体的に構成される。または、第2の表示部12は、撮像装置10の筺体100に連結される。このとき、第2の表示部12は、例えば、第1の表示部11に対して上方に配置される。
 第2の表示部12が撮像装置10の筺体100に対して可動とされていてもよいが、本開示では、第2の表示部12の表示の方向が、少なくとも、第1の表示部11の表示の方向とほぼ同じ方向とできるようにされている。したがって、ファインダ12f内の表示素子に表示される情報を、ユーザが接眼レンズを介して観察する時には、モニタ11mの表示面が、ユーザの顔に対向する。
[1−3.接触または接近する対象の推定]
 上述したように、本開示では、ユーザがファインダを覗いていると判断されると、第1の表示部11による表示と、第2の表示部12による表示とが切り替えられる。ユーザがファインダを覗いているか否かは、第1の表示部11に接触または接近する対象が人の顔であるか否かにより判定される。以下、第1の表示部11に接近する対象が人の顔であるか否かの判定方法の例について説明する。
 第1の表示部11に接触または接近する対象が人の顔であるか否かの判定は、例えば、第1の表示部11からの入力に基づいて算出される評価値と、第1の表示部11に接近する対象が人の顔であるか否かの判定のための基準値(以下、単に“しきい値”と適宜称する。)との比較によりなされる。
 より具体的には、第1の表示部11により物体の接触または接近が検出されると、第1の表示部11の出力から、まず、第1の表示部11に接触または接近する対象が人の顔であるか否かの判定のための評価値が算出される。次に、算出された評価値と、あらかじめ用意されるしきい値とが比較される。そして、例えば、評価値がしきい値を上回る場合に、第1の表示部11に接近する対象が人の顔であると判定され、第1の表示部11による表示と、第2の表示部12による表示とが切り替えられる。
 評価値は、例えば、第1の表示部11に対する接触点の個数や、第1の表示部11に対する複数の接触点の間の相対位置関係、第1の表示部11に対する接触面積などをもとにして算出される。なお、評価値は、第1の表示部11に対する接触のほか、第1の表示部11に対する接近の度合いや、第1の表示部11に対する接触および第1の表示部11に対する接近の度合いをもとにして算出することもできる。
[1−4.物体の接触に基づく判定]
 まず、第1の表示部11が物体の接触を検出可能に構成された場合における、評価値の算出の例について説明する。
(1−4−1.接触点の個数に基づく評価値)
 図3Aおよび図3Bは、ユーザによるモニタへの入力操作の一例を示す概略図である。
 上述したように、モニタ11mは、タッチパネルとしての機能を有している。したがって、撮像装置10は、モニタ11mからの出力により、モニタ11mに対するユーザの体の接触を検出することができる。
 図3Aは、ユーザが人差し指でモニタ11mに触れている状態を示している。例えば、モニタに表示されるメニュー項目の選択や、撮影の実行の指示、ズーム倍率の変更などの場面においては、ユーザが1本の指でモニタに触れることが多い。このような入力のための操作としては、例えば、タッチ操作、なぞり操作、いわゆる“フリック”操作、いわゆる“タップ”操作などが挙げられる。
 モニタ11mに対してこれらの操作が行われる場合における、ユーザの体とモニタ11mとの接触は、概略的には、1点における接触とみなすことができる。なお、図3Aでは、ユーザの体とモニタ11mとの接触点を網掛けの円により模式的に示した。以下の説明においても、同様とする。
 図3Bは、ユーザが人差し指と親指とでモニタ11mに触れている状態を示している。ユーザが2本の指を使ってモニタ11mに触れる場合、ユーザは、例えば、いわゆる“ピンチ”操作により、モニタ11mに表示される画像の拡大縮小や回転などを撮像装置10に指示することもできる。例えば、撮影により得られた画像をモニタに表示させた場合などにおいては、ユーザが2本の指でモニタに触れることも多い。ユーザが2本の指でモニタ11mに触れる場合における、ユーザの体とモニタ11mとの接触は、概略的には、2点における接触とみなすことができる。
 図4Aは、ユーザが撮像装置の底面をほぼ水平として、ユーザが撮像装置のファインダを覗いた状態を示す概略図である。
 ユーザのファインダ12fの使用時、被写体の像に関する光がファインダ12fの接眼レンズからユーザの目に向かう方向と、モニタ11mの表示の方向とが、ほぼ平行となる。そのため、ユーザがファインダ12fを使用する際には、ユーザの顔と、モニタ11mの表示面とが対向する。
 このとき、ユーザの顔のうち、鼻、唇および右頬の3点がモニタ11mの表示面に向けて相対的に突出するため、図4Aに示すように、ユーザの鼻、唇および右頬の3点がモニタ11mに接触することになる。すなわち、ユーザがタッチパネルとしてのモニタ11mを指で操作する場合の接触点の個数が高々2点程度であることに対して、ユーザがファインダ12fを覗く場合の接触点の個数は、3点以上であると考えられる。
 言い換えれば、ユーザがファインダ12fを覗いている状態においては、ユーザがモニタ11mを指で操作する場合と比較して、ユーザの体と、モニタ11mの表面とが、より多くの箇所で接触するといえる。すなわち、例えば、モニタ11mに対するユーザの体の接触点の個数を評価値として、ユーザがファインダ12fを覗いているか否かの判定を制御部13に行わせることが可能である。
 このように、第1の表示部11に対するユーザの接触を第1の表示部11により検出させ、第1の表示部11からの出力に基づいて接触点の個数を調べることにより、第1の表示部11に接近する対象が人の顔であるか否かを判定することができる。
 モニタ11mに対するユーザの体の接触点の個数を評価値として採用することにより、ユーザがファインダ12fを覗いているか否かの判定を簡便に行うことができる。接触点の個数を評価値として採用する場合、判定方法がシンプルであるため、接触点の個数のみによる判定を容易に実装することができる。また、例えば、モニタ11mが物体の接触しか検出できない(物体の接近を検出できない)タッチパネルとして構成される場合であっても、ユーザがファインダ12fを覗いているか否かの判定を撮像装置10に行わせることが可能である。
(1−4−2.複数の接触点の間の相対位置関係に基づく評価値)
 第1の表示部11が、多点検出の可能なタッチパネルとして構成される場合、接触点の個数による判定のほか、複数の接触点の間の相対位置関係による判定も可能である。
 図4Aに示すように、モニタ11mの表示面に向けて相対的に突出する、ユーザの鼻、唇および頬の3点を結ぶと、モニタ11mの左上の部分に三角形のパターンが形成される。したがって、第1の表示部11により、第1の表示部11に対するユーザの接触点の座標を検出させて、これらの入力に基づいて複数の接触点の位置を調べることにより、第1の表示部11に接近する対象が人の顔であるか否かを判定することができる。
 すなわち、タッチパネルとして構成された第1の表示部11に対する複数の接触点を結んで得られる図形の形状のパターンと、ユーザの鼻、唇および頬の3点を結んで得られる三角形状のパターンとを制御部13に比較させればよい。例えば、第1の表示部11からの入力に基づいて、2つのパターンの類似度を評価値として制御部13に算出させる。該評価値と、あらかじめ用意されたしきい値とを制御部13に比較させることにより、第1の表示部11に接近する対象が人の顔であるか否かを判定させることができる。
 なお、例えば、複数の接触点の間の相対位置関係に基づく判定において、モニタ11mに対する接触点ごとにあらかじめ重みづけを行っておき、重みつきの評価値を制御部13に算出させるようにしておいてもよい。
 図4Bは、電極の配置に対応した格子点に対する重みづけの例を示す概略図である。
 例えば、モニタ11mの横方向および縦方向に配列された複数の電極の配置に対応させて、格子点を設定し、格子点ごとに、重みW(下付き文字のiは、複数の重みを区別するためのインデックスである。)を設定しておく。なお、図4Bでは、モニタ11mの横方向および縦方向に配列された複数の電極の位置を、破線により模式的に示した。電極の配列方向は、モニタ11mの表示面に平行な面内で任意に設定してよく、モニタ11mの横方向に配列された複数の電極と、縦方向に配列された複数の電極とが、必ずしも直交していなくともよい。
 各格子点に設定される重みWは、例えば、ユーザがファインダ12fを覗いたときにおける、ユーザの顔と、モニタ11mとの接触の可能性の高さに応じて設定される。
 図4Bでは、図4Aにおいて網掛けの円により模式的に示した、ユーザの体とモニタ11mとの接触点を、二点鎖線により示している。例えば、図4Bにおいて黒い円の描かれた格子点に対しては、W=10が設定され、図4Bにおいて白い円の描かれた格子点に対しては、W=5が設定される。これに対して、その他の格子点に対しては、例えば、W=0が設定される。
 さらに、モニタ11mに対する接触の検出の有無に応じて、ブール値B(下付き文字のjは、各格子点を区別するためのインデックスである。)を設定しておく。例えば、モニタ11mに対する接触が検出された格子点に、ブール値として、B=1を対応させ、モニタ11mに対する接触が検出されない格子点に、ブール値として、B=0を対応させる。
 そして、例えば、評価値として積和ΣWを算出し、該評価値と、しきい値とを比較することにより、ユーザがファインダ12fを覗いているか否かを判定することができる。
 複数の接触点の間の相対位置関係に基づく判定によれば、第1の表示部11に接近する対象が人の顔であるか否かの判定が、簡易なパターンマッチングにより行われるので、撮像装置10の誤動作のおそれが低減される。例えば、ユーザが3本の指でモニタ11mに触れたとする。このとき、接触点の個数による判定と比較して、複数の接触点の間の相対位置関係による判定では、ユーザの意図しない切り替え処理の実行される可能性は低い。特に、ユーザの鼻、唇および頬の接触するであろう位置から離れた場所に、アイコンの表示位置を調整しておけば、誤動作の可能性をさらに低減させることができる。
(1−4−3.接触面積に基づく評価値)
 第1の表示部11が、多点検出の可能なタッチパネルとして構成される場合、接触面積による判定も可能である。
 例えば、モニタ11mの横方向および縦方向に配列された複数の電極の配置に対応させて、格子点を設定しておく。このとき、モニタ11mに対する接触が検出された格子点の個数を合計(積分)すれば、モニタ11mに対するユーザの体の接触面積(モニタ11mの表示面積の全体に対する、ユーザの触れている部分の割合(面積比)と言ってもよい。)を見積もることができる。これは、上述した、複数の接触点の間の相対位置関係による判定において、各格子点に対応する重みを等しく設定することと同じである。
 上述したように、ユーザがタッチパネルとしてのモニタ11mを指で操作する場合の接触点の個数は、高々2点程度であると考えられるから、モニタ11mに対する接触面積は、ユーザがファインダ12fを覗く場合の方がより大きいと考えられる。したがって、モニタ11mへの接触面積を評価値として、該評価値と、しきい値とを比較することにより、ユーザがファインダ12fを覗いているか否かの判定を簡便に行うことができる。接触面積による判定は、上述した、接触点の個数による判定と同様に、実装が容易である。
[1−5.物体の接触または接近に基づく判定]
 第1の表示部11が、第1の表示部11に対する物体の接触だけでなく、第1の表示部11に対する物体の接近をさらに検出するようにしてもよい。例えば、モニタ11mが投影型静電容量方式のタッチパネルとして構成される場合、制御部13は、接近する物体の多点検出や、静電容量の増加または減少から、モニタ11mに対するユーザの体の接近の度合いを判別することも可能である。
 図5Aおよび図5Bは、ユーザによるモニタへの入力操作の一例を示す概略図である。
 図5Aは、ユーザが人差し指でモニタ11mに触れている状態を示している。図5Bは、ユーザが人差し指と親指とでモニタ11mに触れている状態を示している。図5Aおよび図5Bに示すように、ユーザが2本の指を使ってモニタ11mに触れる場合、ユーザの体とモニタ11mとが接近する部分の面積は、ユーザが1本の指でモニタ11mに触れる場合と比較して大きくなる。なお、図5Aおよび図5Bでは、モニタ11mの表示領域のうち、ユーザの体とモニタ11mとが接近する部分を交差線により模式的に示した。以下の説明においても、同様とする。
 図6Aは、ユーザが撮像装置の底面をほぼ水平として、ユーザが撮像装置のファインダを覗いた状態を示す概略図である。
 ユーザがファインダ12fを使用する際には、ユーザの顔と、モニタ11mの表示面とが対向するため、図6Aに示すように、ユーザの体(顔)とモニタ11mとが接近する部分の面積は、ユーザが指でモニタ11mに触れる場合と比較して、より大きくなる。言い換えれば、ユーザが指でモニタ11mに触れる場合と比較して、ユーザがファインダ12fを使用する場合の方が、物体の接近の検出される箇所(領域)が多くなる。したがって、例えば、ユーザの体とモニタ11mとが接近する部分の面積を評価値とすることにより、ユーザがファインダ12fを覗いているか、または、ユーザがタッチパネルとして構成されたモニタ11mを操作しているかの判定を制御部13に行わせることができる。
 このように、本開示では、モニタ11mへの接触に基づく判定だけでなく、モニタ11mへの近接に基づく判定も可能である。もちろん、モニタ11mへの接触に基づく判定と、モニタ11mへの近接に基づく判定とを組み合わせてもよい。
 モニタ11mへの接触に基づく判定の場合と同様に、ユーザの体とモニタ11mとが接近している部分の数や相対位置関係に基づいて、第1の表示部11に接近する対象が人の顔であるか否かを制御部13に判定させるようにしてもよい。また、第1の表示部11に接近する対象が人の顔であるか否かの判定の過程において、重みづけされた評価値を利用してもよい。
 図6Bは、モニタに対するユーザの接触の可能性の高さに応じた重みづけの例を示す概略図である。
 例えば、ユーザの体とモニタ11mとが接触または接近している部分の相対位置関係を利用した判定を行う場合を想定する。
 ここで、ユーザがファインダ12fを覗いている状態を想定する。このとき、モニタ11mに対して突出する、ユーザの鼻、唇および頬のそれぞれの周辺は、ユーザの顔の他の部位と比較して、モニタ11mとの間の距離が小さい。
 したがって、例えば、図6Bに示すように、モニタ11mに対してユーザの体が接触する可能性に応じて、評価値算出の際の重みを設定しておいてもよい。例えば、モニタ11mの表示領域のうち、ユーザの鼻、唇または頬の接触する可能性が最も高い領域に対して最も大きな重みが設定され、該領域から離れるにしたがって、順次小さい重みが設定される。
 図6Bでは、モニタ11mの表示領域のうち、ユーザの鼻、唇または頬の接触する可能性が最も高い領域を黒色の領域として示した。また、図6Bでは、ユーザの鼻、唇または頬の接触する可能性が次に高い領域を濃い網掛けにより示し、ユーザの鼻、唇または頬の接触する可能性が該領域の次に高い領域を薄い網掛けにより示した。このように、ユーザがファインダ12fを覗いたときにおける、ユーザの顔の各部位とモニタ11mとの間の距離に応じた重みを設定しておいてもよい。
 ユーザがファインダ12fを覗いたときにおける、ユーザの顔の各部位とモニタ11mとの間の距離に応じた重みを設定しておくことにより、第1の表示部11に接近する対象が人の顔であるか否かの判定の精度を、より高くすることができる。
[1−6.撮像装置の構え方に応じた評価値の算出の例]
 上述した例では、ユーザが右目でファインダを覗くものとして説明を行ったが、ユーザが左目でファインダを覗く場面も想定される。したがって、ユーザがいずれの側の目でファインダを覗いた場合であっても、第1の表示部に接近する対象が人の顔であるか否かを判定できることが好ましい。
 図7Aは、モニタの表示領域のうち、ユーザが右目で撮像装置のファインダを覗いた状態において、ユーザの鼻、唇または頬の接近する可能性の高い領域を模式的に示す概略図である。図7Bは、モニタの表示領域のうち、ユーザが左目で撮像装置のファインダを覗いた状態において、ユーザの鼻、唇または頬の接近する可能性の高い領域を模式的に示す概略図である。
 図7Aおよび図7Bに示すように、モニタ11mの表示領域のうち、ユーザが撮像装置10のファインダ12fを覗いた状態において、ユーザの鼻、唇または頬の接近する可能性の高い領域は、ユーザがいずれの目でファインダ12fを覗くかによって異なる。なお、図7Aおよび図7Bでは、モニタ11mの表示領域のうち、ユーザが撮像装置10のファインダ12fを覗いた状態において、ユーザの鼻、唇または頬の接近する可能性の高い領域を網掛けにより示した。
 図8Aは、モニタの表示領域のうち、ユーザが右目で撮像装置のファインダを覗いた状態において、ユーザの鼻、唇または頬の接近する可能性の高い領域と、ユーザが左目で撮像装置のファインダを覗いた状態において、ユーザの鼻、唇または頬の接近する可能性の高い領域とを示す概略図である。
 図8Aでは、モニタ11mの表示領域のうち、ユーザが右目でファインダ12fを覗いたときに、ユーザの鼻、唇および右頬の接近する可能性の高い領域を右上がりの斜線により示した。すなわち、図8Aに示す領域Rnは、ユーザが右目でファインダ12fを覗いたときに、ユーザの鼻の接近する可能性の高い領域である。図8Aに示す領域Rmは、ユーザが右目でファインダ12fを覗いたときに、ユーザの唇の接近する可能性の高い領域である。また、図8Aに示す領域Rcは、ユーザが右目でファインダ12fを覗いたときに、ユーザの右頬の接近する可能性の高い領域である。
 図8Aでは、モニタ11mの表示領域のうち、ユーザが左目でファインダ12fを覗いたときに、ユーザの鼻、唇および左頬の接近する可能性の高い領域を右下がりの斜線により示した。すなわち、図8Aに示す領域Lnは、ユーザが左目でファインダ12fを覗いたときに、ユーザの鼻の接近する可能性の高い領域である。図8Aに示す領域Lmは、ユーザが左目でファインダ12fを覗いたときに、ユーザの唇の接近する可能性の高い領域である。また、図8Aに示す領域Lcは、ユーザが左目でファインダ12fを覗いたときに、ユーザの左頬の接近する可能性の高い領域である。
 一方、図8Aにおいて網掛けおよび交差線により示す領域C1、C2およびC3は、ユーザがいずれの側の目で撮像装置のファインダ12fを覗いた状態においても、ユーザの鼻、唇または頬の接近する可能性の高い領域である。
 したがって、例えば、領域C1、C2およびC3における重みWを、領域Rn、Rm、Rc、Ln、LmおよびLcにおける重みW(W>0とする。)よりも大きく設定しておき、その他の領域における重みWを0と設定しておく。
 さらに、モニタ11mに対する接触の検出の有無に応じて、ブール値Bを設定しておく。すなわち、例えば、モニタ11mに対する接触の検出があった部分に対して、ブール値として、B=1を対応させ、モニタ11mに対する接触の検出もない部分に対して、ブール値として、B=0を対応させる。
 この場合、例えば、積和ΣWを評価値とすれば、ユーザがいずれの側の目でファインダ12fを覗いた場合であっても、第1の表示部11に接近する対象が人の顔であるか否かを判定することができる。なお、例えば、モニタの横方向および縦方向に配列された複数の電極の配置に対応させて、格子点を設定し、モニタに対する物体の接触または接近を格子点ごとに検出させれば、面積比を利用した判定も可能である。すなわち、各格子点における検出の有無を単位として、モニタの表示領域の全体で積分すれば、モニタの表示面積の全体に対する、モニタに対する物体の接触のある部分の割合を算出することができる。
 ところで、ユーザは、撮像装置の底面をほぼ水平として撮影を行うこともできるが、ユーザは、例えば、撮像装置の底面をほぼ垂直として撮影を行うこともできる。したがって、ユーザが、撮像装置の底面をほぼ垂直とした状態で、撮像装置のファインダを覗くことも想定される。以下では、撮像装置の底面が水平面に対してほぼ平行とされた状態を、“水平状態”と適宜称することとし、撮像装置の底面が水平面に対してほぼ垂直とされた状態を、“垂直状態”と適宜称する。
 図8Bは、モニタの表示領域のうち、垂直状態とされた撮像装置のファインダをユーザが右目で覗いたときに、ユーザの鼻、唇または頬の接近する可能性の高い領域を模式的に示す概略図である。図9Aは、モニタの表示領域のうち、垂直状態とされた撮像装置のファインダをユーザが左目で覗いたときに、ユーザの鼻、唇または頬の接近する可能性の高い領域を模式的に示す概略図である。図9Bは、モニタの表示領域のうち、ユーザが右目で撮像装置のファインダを覗いた状態において、ユーザの鼻、唇または頬の接近する可能性の高い領域と、ユーザが左目で撮像装置のファインダを覗いた状態において、ユーザの鼻、唇または頬の接近する可能性の高い領域とを示す概略図である。
 図10Aは、垂直状態とされた撮像装置のファインダをユーザが右目で覗いた状態を示す概略図である。図10Bは、垂直状態とされた撮像装置のファインダをユーザが左目で覗いた状態を示す概略図である。
 図8B、図9Aおよび図9Bは、図7A、図7Bおよび図8Aにそれぞれ対応する。図10Aおよび図10Bは、図6Aに対応する。なお、図10Aおよび図10Bでは、ユーザが撮像装置のファインダを覗いた状態において、ユーザの鼻、唇または頬が、他の領域と比較して、より近接または接触する領域を網掛けおよび交差線により示した。
 図8B、図9Aおよび図9Bに示すように、撮像装置10が垂直状態とされると、モニタ11mの表示領域のうち、ユーザの鼻、唇または頬の接近する可能性の高い領域は、撮像装置10が水平状態とされる場合と大きく異なっている。また、図10Aおよび図10Bに示すように、撮像装置10が垂直状態とされると、モニタ11mの表示領域のうち、ユーザの顔と、モニタ11mの表示面とが対向する領域は、ユーザがいずれの側の目でファインダ12fを覗くかによっても大きく異なる。
 そこで、ユーザの意図しない表示の切り替えを防止するために、表示制御装置1が、撮像装置10の姿勢に応じた処理を実行するようにしてもよい。具体的には、例えば、撮像装置10が水平状態にあるときには、図8Aに示すようなマッピングにしたがって重みづけを行い、撮像装置10が垂直状態にあるときには、図9Bに示すようなマッピングにしたがって重みづけを行うようにする。
 重みづけのためのマッピングを撮像装置の姿勢に応じて適宜選択するようにすることで、第1の表示部に接近する対象が人の顔であるか否かの判定の精度を、より高くすることができる。上述した例では、ユーザが撮像装置を縦または横に構える場合を示したが、ユーザが撮像装置を上下逆にして構えた場合など、その他の姿勢に応じた複数のマッピングをさらに用意しておいてもよい。なお、重みづけのためのマッピングを撮像装置の姿勢に応じて適宜選択して、撮像装置の姿勢に応じた評価値を算出することにかえ、撮像装置の姿勢に応じて、しきい値を適宜変更するようにしてもかまわない。
[1−7.撮像装置のモードに応じたしきい値調整の例]
 ところで、デジタルカメラは、複数のモードを備えることが一般的である。すなわち、デジタルカメラは、例えば、“撮影モード”と、“再生モード”とを備えている。撮影モードは、被写体に関する画像がファインダ内モニタまたは筺体の背面のモニタに表示されるとともに、ユーザからの画像記録の指示の入力が待機されるモードである。再生モードは、撮像により得られた画像がファインダ内モニタまたは筺体の背面のモニタに表示され、必要に応じて、画像データの編集などが可能とされるモードである。
 上述したように、撮影モードにおいては、メニューによる設定の切り替え操作などが主であることから、指1本程度の検出ができれば十分であることが多い。これは、ファインダを搭載する撮像装置は、主として中級者や上級者を対象として設計されるからである。
 ファインダを使用した撮影を行う中級者や上級者は、より撮影そのものに焦点を絞った操作の形態を好む傾向がある。例えば、撮影の中級者や上級者には、入力の形態として、より即時に操作の完結する、専用のボタンやダイヤルなどによる入力の形態が好まれる。
 そのため、ファインダと、タッチパネルとして構成されたモニタとを備える撮像装置のユーザが、撮影モードにおいてタッチパネルを使用して複雑な入力を行う場面は比較的少ない。したがって、撮影モードにおいては、入力操作のための多点検出や、入力操作のための物体の接近度合いの検出が必要となることはまれであるといえる。
 一方、再生モードにおいては、ピンチ操作による画像の拡大縮小や回転などの検出のために、指2本程度の検出ができることが好ましい。
 そこで、第1の表示部11による表示と、第2の表示部12による表示とを切り替わりやすさを、撮像装置10のモードに応じて変更するようにしてもよい。より具体的には、例えば、制御部13が、撮像装置10が撮影モードであるか再生モードであるかに応じて、各モードに応じたしきい値を選択するようにしてもよい。
 例えば、複数の指を使用した複雑な操作の行われる可能性の低い撮影モード時には、第1の表示部11に接近する対象が人の顔であるか否かの判定のためのしきい値を、再生モード時のしきい値よりも小さく設定しておく。撮影モード時のしきい値を再生モード時のしきい値よりも小さく設定しておくことにより、モニタ11mに物体が接触または接近した場合に、ユーザがファインダ12fを覗いていると判定されやすくなる。言い換えれば、撮像装置10が再生モードである場合には、モニタ11mに物体が接触または接近した場合にもユーザがファインダ12fを覗いていると判定されにくくなる。そのため、ユーザが複数の指で入力操作などを行ったときの、ユーザの意図しない表示の切り替えの実行が防止される。
 したがって、撮像装置のモードに応じたしきい値が選択されることにより、撮像装置の誤動作を防止することができる。
 なお、撮像装置のモードに応じたしきい値が選択される場合には、重みづけのマッピングを撮像装置のモードに応じて変更しなくともよい。もちろん、撮像装置のモードに応じたしきい値が選択されることにかえ、撮像装置のモードに応じた重みづけのマッピングが選択されるようにしてもかまわない。この場合も、撮像装置のモードに応じて、撮像装置のモードに応じたしきい値が選択される場合と同様の効果を得ることができる。
[1−8.表示制御装置における処理の一例]
(1−8−1.表示の切り替え処理)
 図11は、本開示の実施の形態にかかる処理の一例を示すフローチャートである。
 上述したように、本開示では、ユーザがファインダ12fを覗いているか否かの判定結果に応じて、第1の表示部11による表示と、第2の表示部12による表示とを切り替させるようにしている。図11を参照して以下に説明する一連の処理のためのプログラムは、例えば、ROM123やRAM125、記憶部119などに格納され、図11を参照して以下に説明する一連の処理は、例えば、制御部13により実行される。
 まず、ステップSt1において、第1の表示部11からの出力が制御部13に取得される。例えば、モニタ11mが、縦横に配列された電極をそれぞれ複数列備える抵抗膜方式のタッチパネルとして構成される場合には、制御部13は、モニタ11mからの出力を入力として、接触点の個数(個々の接触点の座標)に関する情報を得る。
 次に、ステップSt2において、第1の表示部11からの入力に基づいて、第1の表示部11に接近する対象が人の顔であるか否かの判定のための評価値EVが算出される。上述したように、例えば、モニタ11mに対するユーザの体の接触点の個数や、複数の接触点の間の相対位置関係(形状パターンの類似度)、接触面積などを評価値EVとすることができる。
 例えば、モニタ11mに対するユーザの体の接触点の個数から、ユーザがファインダ12fを覗いているか否かの判定が行われる場合には、モニタ11mに対するユーザの体の接触点の個数が評価値EVとなる。モニタ11mに対するユーザの体の接触だけでなく、モニタ11mに対するユーザの体の接近の度合いを評価値EVの算出の過程に取り込むようにしてももちろんかまわない。
 このとき、撮像装置10の姿勢に応じた大きさの評価値EVを算出するための処理が実行されてもよい。撮像装置10の姿勢に応じた大きさの評価値EVを得るには、例えば、評価値EVの算出の過程において、例えば、重みづけのマッピングとして、撮像装置10の姿勢に応じたマッピングを適用すればよい。
 次に、ステップSt3において、第1の表示部11に接近する対象が人の顔であるか否かの判定のためのしきい値THが、例えば、ROM123から制御部13に読み込まれる。複数のしきい値が用意される場合には、複数のしきい値のうちから適切なしきい値が、例えば、撮像装置10のモードに応じて選択される。
 次に、ステップSt4において、ステップSt2において算出された評価値EVと、ステップSt3において選択されたしきい値THとが比較される。
 いま、例えば、しきい値THが、TH=2であり、評価値EVが、EV=3であったとする。評価値EVがしきい値THを上回る場合には、ユーザがファインダ12fにより被写体に関する画像を確認していると考えられる。したがって、評価値EVがしきい値THを上回る場合、処理はステップSt5に進められ、ステップSt5において、例えば、第1の表示部11の表示がオフとされるとともに、第2の表示部12の表示がオンとされる。
 一方、評価値EVがしきい値TH以下である場合には、ユーザがモニタ11mにより被写体に関する画像を確認していると考えられる。したがって、評価値EVがしきい値TH以下である場合には、処理はステップSt6に進められ、ステップSt6において、例えば、第2の表示部12の表示がオフとされるとともに、第1の表示部11の表示がオンとされる。
(1−8−2.評価値算出の処理)
 図12Aは、評価値算出の処理の一例を示すフローチャートである。
 図12Aは、撮像装置の姿勢に応じた大きさの評価値EVを算出するための処理の一例を示している。例えば、ユーザが撮像装置10を横に構えた場合に使用される重みづけのマッピング(以下、“水平状態用マッピング”と適宜称する。)と、ユーザが撮像装置10を縦に構えた場合に使用される重みづけのマッピング(以下、“垂直状態用マッピング”と適宜称する。)とが、あらかじめ用意されているとする。例えば、図8Aおよび図9Bに示すマッピングが、水平状態用マッピングおよび垂直状態用マッピングにそれぞれ相当する。水平状態用マッピングおよび垂直状態用マッピングの各データは、例えば、ROM123やRAM125、記憶部119などに格納されている。
 撮像装置10の姿勢に応じた大きさの評価値EVを得るために、まず、ステップSt21において、撮像装置10が水平状態であるか否かの判定が実行される。該判定は、センサ19からの入力に基づいて行うことが可能である。
 撮像装置10が水平状態である場合には、ステップSt22において、水平状態用マッピングが選択される。一方、撮像装置10が垂直状態である場合には、ステップSt23において、垂直状態用マッピングが選択される。
 次に、ステップSt24において、水平状態用マッピングまたは垂直状態用マッピングのいずれかに基づいて、評価値EVが計算される。例えば、評価値EVとして、積和ΣWを計算することにより、撮像装置10の姿勢に応じた大きさの評価値EVを得ることができる。
(1−8−3.しきい値選択の処理)
 図12Bは、しきい値選択の処理の一例を示すフローチャートである。
 図12Bは、撮像装置のモードに応じた大きさのしきい値THを設定するための処理の一例を示している。例えば、撮像装置10が撮影モードである場合に使用されるしきい値(以下、“撮影モード用しきい値”と適宜称する。)と、撮像装置10が再生モードである場合に使用されるしきい値(以下、“再生モード用しきい値”と適宜称する。)とが、あらかじめ用意されているとする。撮影モード用しきい値および再生モード用しきい値は、例えば、ROM123やRAM125、記憶部119などに格納されている。
 例えば、撮像装置10のモードに応じた複数のしきい値が用意される場合、まず、ステップSt31において、撮像装置10が撮影モードであるか否かの判定が実行される。撮像装置10が撮影モードであるか否かは、例えば、RAM125に保存された変数を参照することにより、容易に確認することができる。
 撮像装置10が撮影モードである場合には、ステップSt32において、撮影モード用しきい値が制御部13に読み込まれる。一方、撮像装置10が再生モードである場合には、ステップSt33において、再生モード用しきい値が制御部13に読み込まれる。すなわち、撮像装置10のモードに応じて、第1の表示部11に接近する対象が人の顔であるか否かの判定に適したしきい値が選択される。
 なお、図11ならびに図12Aおよび図12Bに示す処理は、あくまでも例である。したがって、例えば、撮像装置の姿勢に応じた大きさの評価値の算出のための処理や、撮像装置のモードに応じた大きさのしきい値を設定するための処理が、必要に応じて実行されるようにされてもよい。また、撮像装置の姿勢に応じた大きさのしきい値の設定のための処理や、撮像装置のモードに応じた評価値を算出するための処理が、必要に応じて実行されるようにされてもよい。
 なお、ユーザの顔の形やユーザのファインダ12fへの顔の接近のさせ方には個人差がある。例えば、モニタ11mに接触または近接する、ユーザの鼻、唇および頬の3点を結んで得られる三角形状のパターンは、個々のユーザにほぼ固有の三角形状のパターンである。したがって、ユーザごとにキャリブレーションできることが好ましい。
 例えば、個々のユーザは、キャリブレーションのためのメニューを呼び出した後、ファインダ12fを覗くことにより、顔をモニタ11mに接近させる。ユーザが顔をモニタ11mに接近させた状態で、撮像装置10は、タッチパネルとして構成されたモニタ11mにより、モニタ11mへの接触または接近の検出を行う。
 撮像装置10は、例えば、モニタ11mにより検出された情報をもとにして、第1の表示部11に接近する対象が人の顔であるか否かの判定のためのしきい値などの補正を行う。例えば、複数の接触点の間の相対位置関係による判定を採用する場合であれば、ユーザの顔の形に対応したパターンやマップの作成または補正が制御部13により実行される。
 このように、本開示では、物体の接触または接近が第1の表示部で検出されるので、専用の部品を必要とせずに、ユーザがファインダを覗いているか否かを検出することができる。したがって、本開示によれば、部品自体のコストや実装のコストを抑えながら、第1の表示部による表示と、第2の表示部による表示とを自動的に切り替えさせることができる。
 以上に説明したように、本開示によれば、人の顔がモニタに接近しているか否かが、タッチパネルとして構成されるモニタからの入力に基づいて判定されるため、ユーザによるファインダの使用を検出するための近接センサなどの専用の部品を不要とすることができる。また、ファインダの近傍に近接センサを配置する必要がないため、撮像装置に大型のモニタを配置することができる。
 なお、ユーザがモニタにより被写体や撮影に使用されるパラメータなどを確認する時には、ファインダ内モニタに情報を表示していても、ユーザは、モニタによる表示と、ファインダ内モニタによる表示とを同時に確認することは困難である。また、モニタおよびファインダ内モニタがともにオンとされていると、モニタの発する光がファインダを覗くユーザの目に入って撮影の妨げとなったり、撮像装置の電源の駆動時間が短くなってシャッターチャンスを逃すこととなったりする。したがって、モニタによる表示およびファインダ内モニタによる表示の両方を有効としておくことはあまり有益ではない。
 本開示では、第1の表示部からの入力に基づいて、第1の表示部および第2の表示部のいずれをユーザが使用しているかが推定されて、第1の表示部による表示と、第2の表示部による表示との切り替えが自動的に実行される。本開示によれば、第1の表示部による表示と、第2の表示部による表示との切り替えが自動的に実行されるため、無駄な電力消費が抑制されるとともに、表示の切り替えのためにユーザが意図して煩雑な入力操作を行う必要もなく、ユーザの利便性が向上される。
<2.変形例>
 以上、好適な実施の形態について説明してきたが、好適な具体例は、上述した例に限定されるものではなく、以下に示すように、本開示は、各種の変形が可能である。
[2−1.第1の変形例]
 これまでの説明においては、撮像装置10のモードに応じて、第1の表示部11による表示と、第2の表示部12による表示との間の切り替わりやすさが変更される例を示したが、撮影時の状況に応じて、表示の切り替わりやすさが変更されるようにしてもよい。
 例えば、被写体の確認において、モニタ11mを使用するよりも、ファインダ12fを使用する方がユーザにとって有益な場合がある。このような場面では、表示制御装置1が、ユーザがファインダ12fを覗いていると判定されやすいように設定されていると便宜である。
 モニタ11mを使用するよりも、ファインダ12fを使用する方が有益な状況としては、以下のような状況が考えられる。例えば、晴天時の屋外撮影など、モニタ11mによる表示が確認しにくいほどに明るい環境下でユーザが撮影を行う場合には、ファインダ12fが使用されることが好ましい。または、例えば、モニタ11mが点灯していると、モニタ11mから発せられる光がユーザや他の者にとってまぶしく感じられるような暗い環境下で撮影が行われる場合も、ファインダ12fが使用されることが好ましい。例えば、学芸会や舞台の撮影、コンサートホールにおける撮影、夜間撮影の場面では、ユーザは、モニタ11mを使用するよりもファインダ12fを使用した方が被写体を確認しやすい。また、モニタ11mから発せられる光が、ユーザや他の観客、演者に不快感を与えることもない。
 したがって、撮影時の環境が、ファインダ12fの使用によりユーザがよりよい撮影を行えると考えられる場合に、表示制御装置1が、ユーザがファインダ12fを覗いていると判定されやすく設定されていることが好ましい。
 撮影時の環境がファインダ12fの使用に適した環境であるか否かの判定に際しては、制御部13は、例えば、モニタ11mの明るさ調整のための光センサの出力や、自動露出のための測光センサの出力などから、ユーザの周囲の明るさに関する情報を得ることができる。撮像装置10が自動シーン認識機能を備える場合には、自動シーン認識機能により、撮影時の環境に関する情報を得ることもできる。また、例えば、撮像装置10がグローバルポジショニングシステム(Global Positioning System(GPS))機能を備える場合には、制御部13は、ユーザのロケーションに関する情報を容易に得ることができる。
 撮影時の環境がファインダ12fの使用に適した環境である場合に、ユーザがファインダ12fを覗いていると判定されやすくするには、例えば、しきい値を小さく設定したり、評価値が大きく算出される重みづけのマッピングを使用したりすればよい。例えば、検出の各単位において1よりも大きい係数が重みに乗じられたマッピングを用意しておく。そして、撮影時の環境がファインダ12fの使用に適していると判定された場合に、該マッピングが適用されるようにしておく。すると、撮影時の環境がファインダ12fの使用に適した環境である場合の評価値が、他の場合の評価値よりも大きくなる。
 また、撮影時の撮像装置10の状態によっては、ファインダ12fが使用されることにより、ユーザがよりよい撮影を行えると考えられる場合もある。
 例えば、焦点距離の大きいレンズが使用される場合や、焦点距離の大きいズーム位置での撮影を行う場合には、モニタ11mを使用するよりも、ファインダ12fを使用する方が有利である。モニタ11mを使用して被写体を確認する場合には、ユーザは、撮像装置10を自身の顔からある程度離す必要がある。一方、ファインダ12fを使用して被写体を確認する場合には、ユーザは、撮像装置10を自身の顔に近づけるとともに、自身の脇を締めて撮像装置10を保持できる。したがって、撮影時の焦点距離が大きい場合には、ファインダ12fを使用して被写体を確認する方が、ユーザは安定して撮像装置10を保持することができ、得られる画像のぶれを抑えることができる。
 なお、焦点距離に関する情報は、撮像装置がもつ基本的な情報の一つであるので、制御部13は、制御情報として焦点距離に関する情報を容易に得ることができる。
 ところで、撮影時の焦点距離が大きい場合には、三脚などにより撮像装置が固定された状態で撮影が行われることが好ましい。これは、望遠レンズを使用する場合、シャッタースピードを大きくすることが困難であることも多く、小さな手ぶれであっても、得られる画像に大きなぶれが生じてしまうからである。
 すなわち、撮影時の焦点距離が大きく、かつユーザが撮像装置10を手に持ちながら撮影を行っていると判断される場合には、ユーザがファインダ12fを使用する可能性がより高い。したがって、撮影時の環境または撮像装置10の状態がファインダ12fの使用に適した環境であるとともに、ユーザが手持ち撮影を行っていると判断される場合に、表示制御装置1が、ユーザがファインダ12fを覗いていると判定されやすく設定されていることが好ましい。
 ユーザが手持ち撮影を行っているか否かの判定に際しては、制御部13は、例えば、振動ジャイロスコープや加速度センサなどを含むセンサ19の出力から、撮像装置10に与えられる振動の大きさに関する情報を得ることができる。制御部13は、撮像装置10に与えられる振動の大きさに関する情報により、ユーザが手持ち撮影を行っているか否かを判定することができる。
 なお、このような場面では、手ぶれ補正機能の使用がより効果的となる。
 そこで、撮影時の環境または撮像装置10の状態がファインダ12fの使用に適した環境であるとともに、ユーザが手持ち撮影を行っていると判断される場合に、撮像装置10に与えられる振動の大きさに応じて手ぶれ補正の度合いが調整されてもよい。
 ここで、「手ぶれ補正の度合いが調整される」とは、撮像装置10に与えられる振動の大きさに応じて、1以上の手ぶれ補正機構17の動作が順次有効または無効とされたり、それぞれの手ぶれ補正機構における補正量が段階的または連続的に変更されたりすることを指す。
 例えば、撮像装置10が、光学系に対する物理的な手ぶれ補正機構と、画像信号に対する電気的な手ぶれ補正機構とを備えているとする。また、撮像装置10が、光学系に対する物理的な手ぶれ補正として、撮像素子15の移動による手ぶれ補正機構と、結像光学系111中の補正レンズの移動による手ぶれ補正機構とを備えているとする。
 いま、例えば、1以上の手ぶれ補正機構17が全てオフであるとする。この状態において、ユーザが手持ち撮影を行っているとの判定がなされたとする。
 すると、まず、例えば、撮像素子15の移動による手ぶれ補正機構、補正レンズの移動による手ぶれ補正機構および画像信号に対する電気的な手ぶれ補正機構のうちのいずれかが、オンとされる。または、例えば、補正量の演算において、低周波領域に対する補正の割合が、大きくされる。なお、手ぶれ補正機構のいずれかが既にオンとされている場合には、撮像装置10に与えられる振動の大きさに応じて、撮像素子15の移動による手ぶれ補正機構、補正レンズの移動による手ぶれ補正機構、画像信号に対する電気的な手ぶれ補正機構が、順次オンとされる。光学系に対する物理的な手ぶれ補正機構に加えて、画像信号に対する電気的な手ぶれ補正機構がさらにオンとされると、より大きな画角で手ぶれを補正することができる。
 このように、撮影時の環境または撮像装置10の状態に応じて、例えば、しきい値を小さく設定したり、評価値が大きく算出される重みづけのマッピングを使用したりするとともに、撮像装置10のぶれやすさに応じて、手ぶれ補正の度合いが調整されてもよい。ファインダ12fの表示に切り替わった場合、ユーザがファインダ12fを使用する可能性が高い場面と判定し、ISOの感度を上げ、シャッタースピードを速くするようにしても良い。
 以上に説明したように、ユーザがファインダ12fを使用する可能性の高い場面において、表示制御装置1を、ユーザがファインダ12fを覗いていると判定されやすく設定しておいてもよい。このようにすることで、通常の環境における誤動作を防止しながら、ユーザがファインダ12fを使用する可能性の高い場面における、よりスムースな表示の切り替えが実現される。
[2−2.第2の変形例]
 図13Aは、撮像装置の第2の変形例を示す側面図である。図13Bは、撮像装置の本体部からファインダユニットが取り外された状態を示す側面図である。
 図13Aに示す撮像装置20は、撮像素子15と、モニタ11mと、制御部13とを備える点で、上述した撮像装置10と共通する。撮像装置20は、例えば、内部に撮像素子15の配置される本体部20bと、本体部20bに対する着脱が自在とされるレンズユニット20rと、本体部20bに対する着脱が自在とされるファインダユニット22fとから構成される。図13Aおよび図13Bに示すファインダユニット22fは、第2の表示部12に対応する。すなわち、第2の変形例では、第2の表示部12が、例えば、撮像装置20の本体部20bの筺体200に対して着脱自在とされる点で、上述した撮像装置10と相違する。
(ファインダユニット)
 図13Aおよび図13Bに示すように、ファインダユニット22fの内部には、ファインダ内モニタ22mが配置される。ファインダ内モニタ22mには、例えば、撮影に使用されるパラメータに関する情報などが表示される。
 ファインダユニット22fが電子ファインダとして構成される場合、被写体に関する画像信号と、撮影に使用されるパラメータの表示に関する画像信号とが、コネクタ23を介して、制御部13からファインダ内モニタ22mに供給される。ファインダユニット22fが光学式ファインダとして構成されてももちろんかまわない。この場合は、撮影に使用されるパラメータの表示に関する画像信号が、コネクタ23を介して、制御部13からファインダ内モニタ22mに供給される。
 なお、ファインダユニット22fの表示の方向が、少なくとも、筺体200の背面などに配置されるモニタ11mの表示の方向とほぼ同じ方向に設定できることが好ましい。ユーザがファインダユニット22fを使用するときに、筺体200の背面などに配置されるモニタ11mの表示面と、ユーザの顔とが対向するからである。
 このように、第2の表示部12が、着脱式の表示装置として構成されていてもよい。例えば、表示の方向がモニタの表示方向とほぼ同じ方向に設定できるファインダユニットを着脱自在としておけば、タッチパネルとして構成されたモニタを備える撮像装置に対して、表示の切り替えの機能を付加することができる。
[2−3.第3の変形例]
 図14Aおよび図14Bは、撮像装置の第3の変形例を示す背面図である。
 第3の変形例は、モニタの表示領域のうち、ユーザがファインダを使用するときに、ユーザの顔と重ならない領域が、入力操作のための領域とされる例である。
 図14Aでは、ユーザが撮像装置30の底面をほぼ水平として、ユーザが撮像装置30のファインダ12fを右目で覗いた状態を示している。図14Aに示すように、ユーザが撮像装置30のファインダ12fを右目で覗いた状態においては、モニタ11mの表示領域のうち、右下の領域がユーザの顔と重なる可能性は低い。
 このとき、例えば、モニタ11mによる表示は、オフとされているが、タッチパネルとして構成されたモニタ11mを入力素子として使用することが可能である。言い換えれば、モニタ11mの表示領域のうち、ユーザの顔と重ならない領域に対するユーザの体の接触や接近をモニタ11mに検出させることができる。
 例えば、ユーザは、図14Bに示すように、モニタ11mの表示領域のうち、ユーザの顔と重ならない領域に、右手の親指でタッチすることができる。図14Bでは、ユーザの顔とモニタ11mとが重なる領域を交差線により模式的に示した。
 ユーザの顔と重ならない領域に対する入力操作が検出されると、撮像装置30は、該領域に対する入力操作にあらかじめ割り当てられていた機能を実行する。該領域に対する入力操作に対しては、例えば、自動露出の固定やオートフォーカスの固定、顔検出のオンまたはオフの切り替え、フラッシュの使用の有無の切り替え、“絞り優先モード”や“シャッタースピード優先モード”などの撮影のモードの切り替えなどを割り当てておくことができる。
 このとき、ユーザが、ファインダ12fの使用時において入力操作のために使用される領域を触覚により認識できるように、例えば、撮像装置30の筺体300に、ピクトグラムなどをかたどった凹凸や点字などのモールド301を設けておいてもよい。または、例えば、モニタの表示領域のうち、ファインダ12fの使用時において入力操作のために使用される領域の質感を他の領域と異ならせておいてもよい。
 なお、ユーザの顔と重ならない領域における検出結果は、第1の表示部11に接近する対象が人の顔であるか否かの判定からは除かれる。言い換えれば、ユーザの顔と重ならない領域における検出結果は、第1の表示部11に接近する対象が人の顔であるか否かの判定のための評価値の算出には使用されない。また、ユーザの顔と重ならない領域への入力操作に対する機能の割り当ては、ユーザがファインダ12fから顔を離すことにより解除される。
 このように、ユーザがファインダ12fを使用するときに、ユーザの顔と重ならない領域を入力操作のための領域として利用することにより、ファインダ12fを覗きながらであっても、ユーザは、撮影のパラメータを変更することができる。例えば、ユーザは、撮像装置30に対して自動露出の固定を指示することにより、露出の設定を変えずに、ファインダ12fを覗きながら構図を変更することができる。
 また、ユーザの顔と重ならない領域を入力操作のための領域として利用することにより、モニタ11mの全領域を検出素子として有効に活用することができ、撮像装置の筺体に配置されるボタンの数を減らして、撮像装置のデザイン性を向上させることができる。
 図15Aおよび図15Bは、モニタの表示領域のうち、ユーザがファインダを使用するときに、ユーザの顔と重ならない領域に機能アイコンが表示される撮像装置の例を示す背面図である。
 図14Aおよび図14Bでは、ユーザによるファインダ12fの使用時に、モニタ11mによる表示がオフとされる例を示したが、図15Aおよび図15Bに示すように、モニタ11mの表示内容が変更されるようにしてもよい。図15Aおよび図15Bに示す例では、ユーザによるファインダ12fの使用時に、ユーザの顔と重なる領域の表示の明るさが落とされ、ユーザの顔と重ならない領域に機能アイコン303が表示される。なお、図15Bでは、ユーザの顔とモニタ11mとが重なる領域を交差線により模式的に示した。
 このように、ユーザによるファインダ12fの使用時に、ユーザの顔と重ならない領域に機能アイコン303を表示させ、該領域に表示された機能アイコン303に対するタッチ操作をモニタ11mに検出させて、あらかじめ割り当てられた機能を実行させるようにしてもよい。この場合も、機能アイコン303の近傍の領域は、モニタ11mに対するユーザの体の接近の検出に使用されない。
 ここでは、ユーザが撮像装置30の底面をほぼ水平として、ユーザが撮像装置30のファインダ12fを右目で覗く場合についてのみ説明したが、この例に限られない。ユーザが撮像装置30を縦に構える場合や、ユーザが撮像装置30のファインダ12fを左目で覗く場合についても、同様の手法を適用することが可能である。
 以上に説明したように、本開示では、撮像装置の筺体の背面などに配置されるモニタがタッチパネルとして構成されるとともに、該モニタにより、物体の接触または接近が検出される。そのため、本開示によれば、専用の部品を不要としながら、ユーザの顔の接触または接近を検出することができる。
 また、本開示では、タッチパネルとして構成されるモニタからの出力に基づいて、ユーザの顔の接触または接近の有無が判定される。したがって、本開示によれば、専用の部品を必要とせずに、ファインダの内部に配置されるモニタによる情報の表示と、撮像装置の筺体の背面などに配置されるモニタによる情報の表示との切り替えを実現することができる。
 なお、本開示は、静止画の撮影のみならず、動画の撮影にも適用することができる。また、上述した実施の形態では、デジタルカメラを例にとったが、本開示は、ビデオカメラや顕微鏡、画像データのビューワなどにも適用することができる。
 上述の実施の形態において挙げた構成、方法、形状および数値などはあくまでも例に過ぎず、必要に応じてこれと異なる構成、方法、形状および数値などを用いてもよい。上述の実施の形態の構成、方法、形状および数値などは、本開示の主旨を逸脱しない限り、互いに組み合わせることが可能である。
 例えば、上述した評価値の算出の手法や、ユーザがファインダを覗いているか否かの判定の方法は、あくまでも例示であり、上述した手法を互いに組み合わせるようにしてもよい。
 上述の実施の形態では、撮像装置が撮影モードであるか再生モードであるかに応じて、各モードに応じたしきい値が選択される例を示したが、この例に限られない。例えば、撮像装置が撮影モードであるときに、モニタに対するユーザの入力操作を無効として、モニタに対する物体の接触または接近のみをモニタに検出させるようにしてもよい。この場合、入力操作の無効化および表示の切り替えのいずれを優先して実行させるかをユーザが選択できることが好ましい。
 なお、本開示は以下のような構成もとることができる。
(1)
 ユーザの操作を受けつけるとともに、情報をユーザに提示する第1の表示部と、
 第2の表示部と、
 前記第1の表示部からの入力に基づいて、前記第1の表示部による表示と、前記第2の表示部による表示とを切り替える制御部とを備える表示制御装置。
(2)
 前記制御部が、前記入力に基づいて、前記第1の表示部に接触または接近する対象が人の顔であるか否かを判定し、前記判定の結果に応じて、前記第1の表示部による表示と、前記第2の表示部による表示とを切り替える(1)に記載の表示制御装置。
(3)
 前記判定が、前記入力から算出される評価値と、あらかじめ用意される1以上のしきい値のうちの1つとの比較によりなされる(2)に記載の表示制御装置。
(4)
 前記第1の表示部に対する接触または接近が、前記第1の表示部の表示領域に想定される格子点に対応した領域への接触または接近を単位として検出され、
 前記評価値が、前記第1の表示部に対する接触または接近の検出された単位の数から算出される(3)に記載の表示制御装置。
(5)
 前記評価値が、前記第1の表示部に対する接触または接近の検出された1以上の領域の間の相対位置関係と、あらかじめ規定された形状パターンとの類似度から算出される(3)に記載の表示制御装置。
(6)
 前記評価値が、前記第1の表示部に対する接触または接近の検出された1以上の領域の面積から算出される(3)に記載の表示制御装置。
(7)
 前記第1の表示部に接触または接近する対象が人の顔であると判定されたときに、あらかじめ設定された機能の実行に関する画像が前記第1の表示部に表示される(2)ないし(6)のいずれか1項に記載の表示制御装置。
(8)
 前記画像が、前記第1の表示部の表示領域のうち、前記第1の表示部に対する接触または接近の検出されない領域に表示される(7)に記載の表示制御装置。
(9)
 筺体の内部に配置される撮像素子と、
 前記筺体に連結され、ユーザの操作を受けつけるとともに、情報をユーザに提示する第1の表示部と、
 表示の方向が前記第1の表示部の表示の方向と略同じ方向に設定される第2の表示部と、
 前記第1の表示部からの入力に基づいて、前記第1の表示部による表示と、前記第2の表示部による表示とを切り替える制御部とを備える撮像装置。
(10)
 前記第2の表示部が、前記筺体に対して着脱自在とされる(9)に記載の撮像装置。
(11)
 前記制御部が、前記入力から算出される評価値と、あらかじめ用意される1以上のしきい値のうちの1つとの比較により、前記第1の表示部に接触または接近する対象が人の顔であるか否かを判定する(9)または(10)に記載の撮像装置。
(12)
 2以上のモードを有し、
 前記1以上のしきい値のうちの1つが、前記モードに応じて選択される(11)に記載の撮像装置。
(13)
 1以上の手ぶれ補正機構と、
 少なくとも振動を検出する検出素子とをさらに備え、
 前記検出素子の検出結果に応じて、手ぶれ補正の度合いが調整される(9)ないし(12)のいずれか1項に記載の撮像装置。
(14)
 1以上の手ぶれ補正機構と、をさらに備え、
 前記第2の表示部による表示に切り替わった場合、手ぶれ補正の度合いが調整される(9)ないし(12)のいずれか1項に記載の撮像装置。
(15)
 1以上の手ぶれ補正機構と、をさらに備え、
 前記第2の表示部による表示に切り替わった場合、ISO感度を上げ、シャッタースピードを速くする(9)ないし(12)のいずれか1項に記載の撮像装置。
(16)
 ユーザの操作を受けつけるとともに、情報をユーザに提示する第1の表示部からの入力に基づいて、前記第1の表示部による表示と、第2の表示部による表示とを切り替えることを含む表示制御方法。
 1           表示制御装置
 10,20,30    撮像装置
 11          第1の表示部
 11m         モニタ
 12          第2の表示部
 12f         ファインダ
 22f         ファインダユニット
 13          制御部
 15          撮像素子
 17          手ぶれ補正機構
 19          センサ
 100,200,300 筺体

Claims (16)

  1.  ユーザの操作を受けつけるとともに、情報をユーザに提示する第1の表示部と、
     第2の表示部と、
     前記第1の表示部からの入力に基づいて、前記第1の表示部による表示と、前記第2の表示部による表示とを切り替える制御部とを備える表示制御装置。
  2.  前記制御部が、前記入力に基づいて、前記第1の表示部に接触または接近する対象が人の顔であるか否かを判定し、前記判定の結果に応じて、前記第1の表示部による表示と、前記第2の表示部による表示とを切り替える請求項1に記載の表示制御装置。
  3.  前記判定が、前記入力から算出される評価値と、あらかじめ用意される1以上のしきい値のうちの1つとの比較によりなされる請求項2に記載の表示制御装置。
  4.  前記第1の表示部に対する接触または接近が、前記第1の表示部の表示領域に想定される格子点に対応した領域への接触または接近を単位として検出され、
     前記評価値が、前記第1の表示部に対する接触または接近の検出された単位の数から算出される請求項3に記載の表示制御装置。
  5.  前記評価値が、前記第1の表示部に対する接触または接近の検出された1以上の領域の間の相対位置関係と、あらかじめ規定された形状パターンとの類似度から算出される請求項3に記載の表示制御装置。
  6.  前記評価値が、前記第1の表示部に対する接触または接近の検出された1以上の領域の面積から算出される請求項3に記載の表示制御装置。
  7.  前記第1の表示部に接触または接近する対象が人の顔であると判定されたときに、あらかじめ設定された機能の実行に関する画像が前記第1の表示部に表示される請求項2に記載の表示制御装置。
  8.  前記画像が、前記第1の表示部の表示領域のうち、前記第1の表示部に対する接触または接近の検出されない領域に表示される請求項7に記載の表示制御装置。
  9.  筺体の内部に配置される撮像素子と、
     前記筺体に連結され、ユーザの操作を受けつけるとともに、情報をユーザに提示する第1の表示部と、
     表示の方向が前記第1の表示部の表示の方向と略同じ方向に設定される第2の表示部と、
     前記第1の表示部からの入力に基づいて、前記第1の表示部による表示と、前記第2の表示部による表示とを切り替える制御部とを備える撮像装置。
  10.  前記第2の表示部が、前記筺体に対して着脱自在とされる請求項9に記載の撮像装置。
  11.  前記制御部が、前記入力から算出される評価値と、あらかじめ用意される1以上のしきい値のうちの1つとの比較により、前記第1の表示部に接触または接近する対象が人の顔であるか否かを判定する請求項9に記載の撮像装置。
  12.  2以上のモードを有し、
     前記1以上のしきい値のうちの1つが、前記モードに応じて選択される請求項11に記載の撮像装置。
  13.  1以上の手ぶれ補正機構と、
     少なくとも振動を検出する検出素子とをさらに備え、
     前記検出素子の検出結果に応じて、手ぶれ補正の度合いが調整される請求項9に記載の撮像装置。
  14.  1以上の手ぶれ補正機構と、をさらに備え、
     前記第2の表示部による表示に切り替わった場合、手ぶれ補正の度合いが調整される請求項9に記載の撮像装置。
  15.  1以上の手ぶれ補正機構と、をさらに備え、
     前記第2の表示部による表示に切り替わった場合、ISO感度を上げ、シャッタースピードを速くする請求項9に記載の撮像装置。
  16.  ユーザの操作を受けつけるとともに、情報をユーザに提示する第1の表示部からの入力に基づいて、前記第1の表示部による表示と、第2の表示部による表示とを切り替えることを含む表示制御方法。
PCT/JP2013/062149 2012-06-18 2013-04-18 表示制御装置および撮像装置ならびに表示制御方法 WO2013190906A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012-136732 2012-06-18
JP2012136732A JP2014003422A (ja) 2012-06-18 2012-06-18 表示制御装置および撮像装置ならびに表示制御方法

Publications (1)

Publication Number Publication Date
WO2013190906A1 true WO2013190906A1 (ja) 2013-12-27

Family

ID=49768513

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/062149 WO2013190906A1 (ja) 2012-06-18 2013-04-18 表示制御装置および撮像装置ならびに表示制御方法

Country Status (2)

Country Link
JP (1) JP2014003422A (ja)
WO (1) WO2013190906A1 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6463135B2 (ja) * 2015-01-07 2019-01-30 キヤノン株式会社 電子機器及び表示制御方法
WO2016157923A1 (ja) * 2015-03-30 2016-10-06 ソニー株式会社 情報処理装置及び情報処理方法
JP6742730B2 (ja) * 2016-01-05 2020-08-19 キヤノン株式会社 電子機器及びその制御方法
CN113794822A (zh) 2016-07-29 2021-12-14 麦克赛尔株式会社 摄像装置
JP6708516B2 (ja) * 2016-08-05 2020-06-10 キヤノン株式会社 電子装置、その制御方法およびプログラム
JP6701027B2 (ja) * 2016-08-09 2020-05-27 キヤノン株式会社 撮像装置、その制御方法およびプログラム
WO2019008874A1 (ja) * 2017-07-03 2019-01-10 ソニー株式会社 撮像装置、撮像装置の制御方法、プログラム
JP7051344B2 (ja) * 2017-09-14 2022-04-11 キヤノン株式会社 電子機器
JP7298200B2 (ja) * 2019-03-07 2023-06-27 株式会社リコー 電子黒板および映像補正方法
JP7003193B2 (ja) * 2020-07-30 2022-01-20 マクセル株式会社 撮像装置

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005189654A (ja) * 2003-12-26 2005-07-14 Konica Minolta Photo Imaging Inc 手振れ補正機構を備えたカメラ
JP2007086460A (ja) * 2005-09-22 2007-04-05 Nikon Corp カメラ
JP2008245056A (ja) * 2007-03-28 2008-10-09 Fujifilm Corp 撮影装置
JP2009159380A (ja) * 2007-12-27 2009-07-16 Samsung Techwin Co Ltd 撮像装置及び撮像方法
JP2010134587A (ja) * 2008-12-03 2010-06-17 Sony Corp 情報処理装置および撮像装置
JP2010263425A (ja) * 2009-05-07 2010-11-18 Olympus Imaging Corp 撮像装置および撮像装置におけるモード切換え方法
JP2010283619A (ja) * 2009-06-04 2010-12-16 Olympus Imaging Corp 撮像装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005189654A (ja) * 2003-12-26 2005-07-14 Konica Minolta Photo Imaging Inc 手振れ補正機構を備えたカメラ
JP2007086460A (ja) * 2005-09-22 2007-04-05 Nikon Corp カメラ
JP2008245056A (ja) * 2007-03-28 2008-10-09 Fujifilm Corp 撮影装置
JP2009159380A (ja) * 2007-12-27 2009-07-16 Samsung Techwin Co Ltd 撮像装置及び撮像方法
JP2010134587A (ja) * 2008-12-03 2010-06-17 Sony Corp 情報処理装置および撮像装置
JP2010263425A (ja) * 2009-05-07 2010-11-18 Olympus Imaging Corp 撮像装置および撮像装置におけるモード切換え方法
JP2010283619A (ja) * 2009-06-04 2010-12-16 Olympus Imaging Corp 撮像装置

Also Published As

Publication number Publication date
JP2014003422A (ja) 2014-01-09

Similar Documents

Publication Publication Date Title
WO2013190906A1 (ja) 表示制御装置および撮像装置ならびに表示制御方法
US9678657B2 (en) Imaging apparatus, imaging method, and computer-readable storage medium providing a touch panel display user interface
US9001255B2 (en) Imaging apparatus, imaging method, and computer-readable storage medium for trimming and enlarging a portion of a subject image based on touch panel inputs
JP5775659B2 (ja) 撮像装置および撮像装置におけるモード切換え方法
JP5136669B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP5109803B2 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
JP2010044567A (ja) 情報処理装置
KR20170042491A (ko) 전자기기 및 그 제어 방법
US9071760B2 (en) Image pickup apparatus
US11381736B2 (en) Image capture apparatus and control method
JP5370555B2 (ja) 撮像装置、撮像方法及びプログラム
JP2012147100A (ja) 撮像装置
CN115706850A (zh) 图像拍摄的方法、设备、存储介质和程序产品
JP7490372B2 (ja) 撮像制御装置及びその制御方法
CN113364945A (zh) 电子装置、控制方法和计算机可读介质
US11934083B2 (en) Imaging apparatus
JP2022018244A (ja) 電子機器およびその制御方法
JP2015171116A (ja) カメラの表示装置
JP2016048306A (ja) 制御装置
US10924680B2 (en) Image capture control apparatus and method of controlling the same
JP6465239B2 (ja) 撮像装置、撮像装置の制御方法およびプログラム
CN112040095A (zh) 电子装置、电子装置的控制方法及存储介质
JP2016034135A (ja) 撮像装置および撮像装置におけるモード切換え方法
JP6708516B2 (ja) 電子装置、その制御方法およびプログラム
US11438512B2 (en) Electronic apparatus and control method thereof

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13806088

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13806088

Country of ref document: EP

Kind code of ref document: A1