WO2023007904A1 - 電子機器、電子機器の制御方法、プログラム、記憶媒体 - Google Patents

電子機器、電子機器の制御方法、プログラム、記憶媒体 Download PDF

Info

Publication number
WO2023007904A1
WO2023007904A1 PCT/JP2022/019861 JP2022019861W WO2023007904A1 WO 2023007904 A1 WO2023007904 A1 WO 2023007904A1 JP 2022019861 W JP2022019861 W JP 2022019861W WO 2023007904 A1 WO2023007904 A1 WO 2023007904A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
area
mode
electronic device
display
Prior art date
Application number
PCT/JP2022/019861
Other languages
English (en)
French (fr)
Inventor
誠司 小川
Original Assignee
キヤノン株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by キヤノン株式会社 filed Critical キヤノン株式会社
Priority to GB2402668.4A priority Critical patent/GB2624576A/en
Priority to DE112022003682.6T priority patent/DE112022003682T5/de
Publication of WO2023007904A1 publication Critical patent/WO2023007904A1/ja
Priority to US18/416,976 priority patent/US20240163553A1/en

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/32Means for focusing
    • G03B13/34Power focusing
    • G03B13/36Autofocus systems
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/02Bodies
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/18Signals indicating condition of a camera member or suitability of light
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • H04N23/632Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/634Warning indications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/64Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/667Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/675Focus control based on electronic image sensor signals comprising setting of focusing regions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2628Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation

Definitions

  • the present invention relates to electronic equipment, and more particularly to electronic equipment having an imaging unit.
  • auxiliary line that divides an area in an image (live view image) displayed on the display unit of a digital camera or smartphone when shooting a still image or video.
  • the aspect marker indicates to the user, at the time of shooting, the approximate range for trimming the image.
  • Patent Document 1 describes a technique for displaying aspect markers suitable for both still image mode and moving image mode.
  • Patent Document 2 in an electronic camera capable of simultaneously recording a still image and a moving image (two images), an icon indicating an image remaining as a record among the still image and the moving image and a guide indicating the shooting range of each image are disclosed.
  • Techniques for displaying the frames together are described. These technologies enable the user to shoot while looking at the auxiliary lines and GUI that are appropriately displayed according to the type of image desired (for example, either a still image or a moving image). .
  • the user when performing specific processing (for example, AF or AE) related to shooting, the user may not want to perform the specific processing in any of a plurality of regions into which the aspect marker divides the image. be. For example, when shooting a still image, the user may not want AF to be performed in areas separated by the aspect markers and away from the center of the image.
  • specific processing for example, AF or AE
  • an object of the present invention is to provide an electronic device capable of performing specific processing related to shooting within a range desired by the user.
  • One aspect of the present invention is display control means for controlling a first auxiliary line dividing an image into at least a first area and a second area so as to be superimposed on the image and displayed on a display means; In a first mode for capturing a first type of image, specific processing relating to capturing is disabled for the first region, and the specific processing is not performed for the second region. control to make it executable, In a second mode for capturing a second type of image different from the first type of image, the specific processing is performed on an area including the first area and the second area. and control means for controlling to enable execution of the above.
  • FIG. 1A and 1B are external views of a digital camera according to this embodiment.
  • FIG. 2 is a configuration diagram of a digital camera according to this embodiment.
  • FIG. 3 is a flowchart of camera activation processing according to this embodiment.
  • FIG. 4 is a flowchart of shooting mode processing according to this embodiment.
  • FIG. 5 is a flowchart of display-related processing according to this embodiment.
  • FIG. 6 is a flowchart of playback mode processing according to this embodiment.
  • 7A and 7B are diagrams for explaining screens of the display unit according to the present embodiment.
  • 8A to 8C are diagrams for explaining screens for shooting mode processing according to the present embodiment.
  • 9A to 9C are diagrams for explaining screens for shooting mode processing according to the present embodiment.
  • 10A and 10B are diagrams for explaining screens of reproduction mode processing according to the present embodiment.
  • the user does not want to perform specific processing in any of the multiple areas where the image is divided by the aspect markers when performing specific processing related to shooting. There is On the other hand, in certain cases, the user may wish to perform certain processing on an area including multiple areas into which the aspect marker divides the image.
  • the user wants to upload the captured video to multiple SNSs. Specifically, based on one video file, the user uploads a video with an aspect ratio of 16:9 to the first SNS as a main video, and uploads a video with an aspect ratio of 1:1 as a promotional video to the second SNS. You may want to upload to your SNS.
  • the user expects that various imaging functions such as AF and AE will be performed within the range of the aspect ratio (16:9) for the main moving image.
  • the execution area of such an imaging function is restricted according to the position of the aspect marker (for example, AF is executed only in one of the regions divided by the aspect marker), and so on. video production may not be possible.
  • FIG. 1A and 1B show external views of a digital camera 100 as an example of a device to which the present invention can be applied.
  • 1A is a front perspective view of the digital camera 100
  • FIG. 1B is a back perspective view of the digital camera 100.
  • FIG. 1A is a front perspective view of the digital camera 100
  • FIG. 1B is a back perspective view of the digital camera 100.
  • the display unit 28 is a display unit provided on the back surface of the digital camera 100, and displays images and various information.
  • the touch panel 70 a can detect a touch operation on the display surface (touch operation surface; touch operation member) of the display unit 28 .
  • the viewfinder display section 43 is a display section provided on the upper surface of the digital camera 100 and displays various setting values of the digital camera 100 such as shutter speed and aperture.
  • a shutter button 61 is an operation member for giving a photographing instruction (imaging instruction).
  • the mode switching switch 60 is an operating member for switching between various modes.
  • the terminal cover 40 is a cover that protects a connector (not shown) that connects the digital camera 100 to an external device.
  • the main electronic dial 71 is a rotating operation member, and by turning the main electronic dial 71, it is possible to change the set values such as the shutter speed and aperture.
  • the power switch 72 is an operation member for switching the power of the digital camera 100 between ON and OFF.
  • the sub-electronic dial 73 is a rotary operation member, and by rotating the sub-electronic dial 73, the selection frame (cursor) can be moved, the image can be advanced, and the like.
  • the 4-way key 74 is configured such that the up, down, left, and right portions can be pushed, respectively, and processing can be performed according to the pressed portion of the 4-way key 74 .
  • the SET button 75 is a push button and is mainly used for determining selection items.
  • a multi-controller (hereinafter referred to as MC) 65 can accept direction instructions in eight directions and a push operation in the central portion.
  • the movie button 76 is used to instruct the start and stop of movie shooting (recording).
  • the AE lock button 77 is a push button, and the exposure state can be fixed by pressing the AE lock button 77 in the shooting standby state.
  • the enlargement button 78 is an operation button for switching between ON and OFF of the enlargement mode in the live view display (LV display) of the shooting mode. By operating the main electronic dial 71 after turning on the enlargement mode, the live view image (LV image) can be enlarged or reduced. In the reproduction mode, the enlargement button 78 functions as an operation button for enlarging the reproduced image and increasing the enlargement ratio.
  • the playback button 79 is an operation button for switching between shooting mode and playback mode.
  • the menu button 81 is a push button used to perform an instruction operation for displaying a menu screen.
  • a menu screen on which various settings can be made is displayed on the display unit 28 .
  • the user can intuitively perform various settings using the menu screen displayed on the display unit 28 and the 4-way key 74, SET button 75, or MC65.
  • the line-of-sight confirmation button 82 is an operation member included in the operation unit 70, and is a push button for instructing execution or cancellation of selection of a subject based on the position of a line-of-sight pointer, which will be described later.
  • the line-of-sight determination button is arranged at a position where it can be easily operated even when the user is looking through the viewfinder (a state where the eyepiece is focused on the eyepiece 16), and can be operated with the thumb of the right hand holding the grip 90.
  • the communication terminal 10 is a communication terminal for the digital camera 100 to communicate with the lens unit 150 (described later; detachable).
  • the eyepiece unit 16 is an eyepiece unit of an eyepiece finder (looking-in type finder), and the user can visually recognize an image displayed on an internal EVF 29 (described later) through the eyepiece unit 16 .
  • the eyepiece detection unit 57 is an eyepiece detection sensor that detects whether or not the user (photographer) is eyeing the eyepiece unit 16 .
  • a lid 202 is a lid for a slot that stores a recording medium 200 (described later).
  • the grip part 90 is a holding part shaped so that the user can easily hold it with his or her right hand when holding the digital camera 100 .
  • a shutter button 61 and a main electronic dial 71 are arranged at positions that can be operated with the index finger of the right hand while holding the digital camera 100 by gripping the grip portion 90 with the little finger, the ring finger and the middle finger of the right hand. Also, in the same state, the sub-electronic dial 73 and line-of-sight determination button 82 are arranged at positions that can be operated with the thumb of the right hand.
  • FIG. 2 is a block diagram showing a configuration example of the digital camera 100.
  • a lens unit 150 is a lens unit that mounts an interchangeable photographing lens. Although the lens 103 is normally composed of a plurality of lenses, only one lens is shown in FIG. 2 for the sake of simplicity.
  • a communication terminal 6 is a communication terminal for the lens unit 150 to communicate with the digital camera 100 side
  • a communication terminal 10 is a communication terminal for the digital camera 100 to communicate with the lens unit 150 side.
  • the lens unit 150 communicates with the system control section 50 via these communication terminals 6 and 10 .
  • the lens unit 150 controls the diaphragm 1 through the diaphragm driving circuit 2 by the lens system control circuit 4 inside. Also, the lens unit 150 focuses by displacing the lens 103 via the AF drive circuit 3 by the lens system control circuit 4 .
  • the shutter 101 is a focal plane shutter that can freely control the exposure time of the imaging unit 22 under the control of the system control unit 50 .
  • the image pickup unit 22 is an image pickup device configured by a CCD, CMOS device, or the like that converts an optical image into an electrical signal.
  • the imaging unit 22 may have an imaging surface phase difference sensor that outputs defocus amount information to the system control unit 50 .
  • the image processing unit 24 performs predetermined processing (resize processing such as pixel interpolation and reduction, color conversion processing, etc.) on data from the A/D converter 23 or data from the memory control unit 15 .
  • the image processing unit 24 performs predetermined arithmetic processing using captured image data, and the system control unit 50 performs exposure control and distance measurement control based on the arithmetic results obtained by the image processing unit 24 .
  • TTL through-the-lens
  • AF autofocus
  • AE automatic exposure
  • EF flash pre-emission
  • the image processing unit 24 further performs predetermined arithmetic processing using the captured image data, and performs TTL AWB (Auto White Balance) processing based on the obtained arithmetic result.
  • the memory control unit 15 controls transmission and reception of data among the A/D converter 23 , the image processing unit 24 and the memory 32 .
  • Output data from the A/D converter 23 is written into the memory 32 via the image processing section 24 and the memory control section 15 .
  • the output data from the A/D converter 23 is written to the memory 32 via the memory control section 15 without passing through the image processing section 24 .
  • the memory 32 stores image data obtained by the imaging unit 22 and converted into digital data by the A/D converter 23 and image data to be displayed on the display unit 28 and the EVF 29 .
  • the memory 32 has a storage capacity sufficient to store a predetermined number of still images, moving images for a predetermined period of time, and audio.
  • the memory 32 also serves as a memory for image display (video memory).
  • the image data for display written in the memory 32 is displayed by the display section 28 or the EVF 29 via the memory control section 15 .
  • Each of the display unit 28 and the EVF 29 performs display according to a signal from the memory control unit 15 on a display device such as LCD or organic EL.
  • the data A/D-converted by the A/D converter 23 and accumulated in the memory 32 are sequentially transferred to the display unit 28 or the EVF 29 for display, thereby performing live view display (LV).
  • An image displayed in live view display is hereinafter referred to as a live view image (LV image).
  • the line-of-sight detection unit 160 detects the line of sight of the user's eye, which is brought into contact with the eyepiece unit 16 , looking at the EVF 29 .
  • the line-of-sight detection unit 160 includes a dichroic mirror 162 , an imaging lens 163 , a line-of-sight detection sensor 164 , a line-of-sight detection circuit 165 and an infrared light emitting diode 166 .
  • the infrared light emitting diode 166 is a light emitting element for detecting the user's line of sight position within the finder screen, and irradiates the user's eyeball (eye) 161 with infrared light. Infrared light emitted from an infrared light emitting diode 166 is reflected by an eyeball (eye) 161 , and the reflected infrared light reaches a dichroic mirror 162 . Dichroic mirror 162 reflects only infrared light and transmits visible light. The reflected infrared light whose optical path has been changed forms an image on the imaging surface of the line-of-sight detection sensor 164 via the imaging lens 163 .
  • the imaging lens 163 is an optical member that constitutes the line-of-sight detection optical system.
  • the line-of-sight detection sensor 164 is composed of an imaging device such as a CCD image sensor.
  • the line-of-sight detection sensor 164 photoelectrically converts the incident infrared reflected light into an electric signal and outputs the electric signal to the line-of-sight detection circuit 165 .
  • the line-of-sight detection circuit 165 detects the user's line-of-sight position from the movement of the user's eyeballs (eyes) 161 based on the output signal of the line-of-sight detection sensor 164 , and outputs the detection information to the system control unit 50 and the gaze determination unit 170 . .
  • the gaze determination unit 170 determines that the user is gazing at the area when the period during which the user's line of sight is fixed on the area exceeds a predetermined threshold. do. Therefore, it can be said that the area is the gaze position (gazing area), which is the position where the gaze is performed.
  • the line of sight is fixed in a certain area means, for example, that the average position of the movement of the line of sight is within the area until a predetermined period of time elapses, and the variation (dispersion) is greater than a predetermined value. is also less.
  • the predetermined threshold can be arbitrarily changed by the system control unit 50 .
  • the gaze determination unit 170 may not be provided as an independent block, and the system control unit 50 may perform the same function as the gaze determination unit 170 based on the detection information received from the line-of-sight detection circuit 165 .
  • the line-of-sight detection unit 160 detects the line of sight using a method called the corneal reflection method.
  • the corneal reflection method infrared light emitted from an infrared light emitting diode 166 is reflected by an eyeball (eye) 161 (especially the cornea), and the positional relationship between the reflected light and the pupil of the eyeball (eye) 161 is used to determine the line of sight.
  • This method detects orientation and position.
  • the method of detecting the line of sight (the direction and position of the line of sight) is not particularly limited, and methods other than the above may be used.
  • a method called a scleral reflection method which utilizes the difference in light reflectance between the iris and the white of the eye, may be used.
  • Various setting values of the camera such as shutter speed and aperture, are displayed on the viewfinder display section 43 via the viewfinder display section drive circuit 44 .
  • the nonvolatile memory 56 is an electrically erasable/recordable memory, such as a FLASH-ROM. Constants for the operation of the system control unit 50, programs, and the like are recorded in the nonvolatile memory 56.
  • FIG. The program here is a program for executing various flowcharts described later in this embodiment.
  • the system control unit 50 is a control unit consisting of at least one processor or circuit, and controls the digital camera 100 as a whole.
  • the system control unit 50 executes the program recorded in the non-volatile memory 56 described above, thereby realizing each process of this embodiment described later.
  • the system memory 52 is, for example, a RAM.
  • the system control unit 50 also performs display control by controlling the memory 32, the display unit 28, and the like.
  • the system timer 53 is a timing unit that measures the time used for various controls and the time of the built-in clock.
  • the power supply control unit 80 is composed of a battery detection circuit, a DC-DC converter, a switch circuit for switching blocks to be energized, and the like, and detects whether or not a battery is installed, the type of battery, and the remaining amount of the battery. Also, the power supply control unit 80 controls the DC-DC converter based on the detection results and instructions from the system control unit 50, and supplies necessary voltage to each unit including the recording medium 200 for a necessary period.
  • the power supply unit 30 is composed of a primary battery (alkaline battery, lithium battery, etc.), a secondary battery (NiCd battery, NiMH battery, Li battery, etc.), an AC adapter, or the like.
  • a recording medium I/F 18 is an interface with a recording medium 200 such as a memory card or hard disk.
  • a recording medium 200 is a recording medium such as a memory card for recording captured images, and is composed of a semiconductor memory, a magnetic disk, or the like.
  • the communication unit 54 transmits and receives image signals and audio signals to and from an external device connected wirelessly or by a wired cable.
  • the communication unit 54 can be connected to a wireless LAN (Local Area Network) and the Internet. Also, the communication unit 54 can communicate with an external device using Bluetooth (registered trademark) or Bluetooth Low Energy.
  • the communication unit 54 can transmit images (including LV images) captured by the imaging unit 22 and images recorded in the recording medium 200, and can receive image data and other various information from external devices.
  • the orientation detection unit 55 detects the orientation of the digital camera 100 with respect to the direction of gravity. Based on the posture detected by the posture detection unit 55, whether the image captured by the imaging unit 22 is an image captured with the digital camera 100 held horizontally or an image captured with the digital camera 100 held vertically. can be determined.
  • the system control unit 50 can add direction information corresponding to the posture detected by the posture detection unit 55 to the image file of the image captured by the imaging unit 22, or can rotate and record the image. be.
  • An acceleration sensor, a gyro sensor, or the like can be used as the posture detection unit 55 . It is also possible to detect the movement of the digital camera 100 (pan, tilt, lift, whether it is stationary, etc.) using an acceleration sensor or a gyro sensor, which is the posture detection unit 55 .
  • the eyepiece detection unit 57 detects approach (eye contact) and departure (eye separation) of the eye (object) 161 from the eyepiece unit 16 of the eyepiece finder (hereinafter simply referred to as "finder") (approach detection). It is a detection sensor.
  • the system control unit 50 switches display (display state)/non-display (non-display state) of the display unit 28 and the EVF 29 according to the state detected by the eye proximity detection unit 57 . More specifically, at least in the shooting standby state and when the switching of the display destination is automatic switching, the display destination is set to the display unit 28 and the display is turned on while the EVF 29 is not displayed.
  • the display destination is set to the EVF 29, and the display is turned on, and the display unit 28 is turned off.
  • an infrared proximity sensor can be used as the eyepiece detection unit 57 , and it is possible to detect the approach of any object to the eyepiece unit 16 of the viewfinder containing the EVF 29 .
  • an infrared ray projected from a light projecting unit (not shown) of the eyepiece detection unit 57 is reflected by the object and received by a light receiving unit (not shown) of the infrared proximity sensor. It is also possible to determine how close the object is from the eyepiece 16 (eyepiece distance) based on the amount of received infrared rays.
  • the eye proximity detection unit 57 performs eye proximity detection for detecting the proximity distance of an object to the eyepiece unit 16 .
  • an object approaching within a predetermined distance from the eyepiece unit 16 is detected from the non-eyepiece state (non-approach state)
  • the threshold for detecting eye contact and the threshold for detecting eye detachment may be different, for example, by providing hysteresis.
  • the eye contact state is assumed until eye separation is detected.
  • the eye contact detection unit 57 it is assumed that, after eye separation is detected, the eye is in a non-eye contact state until eye contact is detected.
  • the infrared proximity sensor is only an example, and other sensors may be employed as the eye contact detection unit 57 as long as they can detect the approach of an eye or an object that can be regarded as an eye contact.
  • the system control unit 50 can detect the following line-of-sight states toward the EVF 29 by controlling the line-of-sight detection unit 160 .
  • the line of sight that was not directed to the EVF 29 is now directed to the EVF 29 . That is, the start of line-of-sight input.
  • a state in which no line of sight is input to the EVF 29 (a state in which the EVF 29 is not seen).
  • the system control unit 50 is notified of these operations/states and the position (direction) in which the line of sight is directed to the EVF 29 via an internal bus. determine whether the
  • the operation unit 70 is an input unit that receives operations (user operations) from the user, and is used to input various operation instructions to the system control unit 50 .
  • the operation unit 70 includes a mode switching switch 60, a shutter button 61, a power switch 72, a touch panel 70a, and the like.
  • the operation unit 70 also includes other operation members 70b such as a main electronic dial 71, a sub electronic dial 73, a 4-way key 74, a SET button 75, a movie button 76, an AE lock button 77, an enlargement button 78, a playback button 79, A menu button 81, MC65, etc. are included.
  • the mode switching switch 60 switches the operation mode of the system control unit 50 to any one of still image shooting mode, moving image shooting mode, playback mode, and the like.
  • Modes included in the still image shooting mode include auto shooting mode, auto scene discrimination mode, manual mode, aperture priority mode (Av mode), shutter speed priority mode (Tv mode), and program AE mode (P mode).
  • a mode change switch 60 allows the user to switch directly between these modes.
  • the movie shooting mode may also include multiple modes.
  • the shutter button 61 has a first shutter switch 62 and a second shutter switch 64 .
  • the first shutter switch 62 is turned on when the shutter button 61 is being operated, that is, when the shutter button 61 is half-pressed (imaging preparation instruction), and generates a first shutter switch signal SW1.
  • the system control unit 50 starts shooting preparation operations such as AF (autofocus) processing, AE (auto exposure) processing, AWB (auto white balance) processing, and EF (flash pre-flash) processing in response to the first shutter switch signal SW1. do.
  • the second shutter switch 64 is turned ON when the operation of the shutter button 61 is completed, that is, when the shutter button 61 is fully pressed (imaging instruction), and generates a second shutter switch signal SW2.
  • the system control unit 50 starts a series of photographing processing operations from signal reading from the imaging unit 22 to writing of the photographed image as an image file on the recording medium 200.
  • the touch panel 70a and the display unit 28 can be configured integrally.
  • the touch panel 70 a is configured so that the light transmittance does not interfere with the display of the display section 28 and is attached to the upper layer of the display surface of the display section 28 .
  • the input coordinates on the touch panel 70a and the display coordinates on the display surface of the display unit 28 are associated with each other. This makes it possible to provide a GUI (graphical user interface) as if the user could directly operate the screen displayed on the display unit 28 .
  • the system control unit 50 can detect the following operations or states on the touch panel 70a.
  • the touch panel 70a is newly touched by a finger or pen that has not touched the touch panel 70a, that is, the start of touch (hereinafter referred to as Touch-Down).
  • Touch-On A state in which the touch panel 70a is touched with a finger or a pen (hereinafter referred to as Touch-On).
  • touch-move The finger or pen is moving while touching the touch panel 70a (hereinafter referred to as touch-move).
  • touch-Up The finger or pen touching the touch panel 70a is released from the touch panel 70a, that is, the end of the touch (hereinafter referred to as Touch-Up).
  • Touch-Off A state in which nothing is touched on the touch panel 70a
  • a touchon is also detected at the same time. After touchdown, touchon continues to be detected unless touchup is detected. Touch-on is detected at the same time when touch-move is detected. Even if touch-on is detected, touch-move is not detected if the touch position does not move. After it is detected that all the fingers and pens that have touched have touched up, the touch is turned off.
  • the system control unit 50 is notified of these operations/states and the coordinates of the position where the finger or pen touches the touch panel 70a through the internal bus. Based on the notified information, the system control unit 50 determines what kind of operation (touch operation) has been performed on the touch panel 70a. As for the touch move, the moving direction of the finger or pen moving on the touch panel 70a can also be determined for each vertical component/horizontal component on the touch panel 70a based on the change in the position coordinates. It is determined that a slide operation has been performed when it is detected that the touch-move has been performed for a predetermined distance or more. An operation in which the finger is quickly moved by a certain distance while touching the touch panel 70a and then released is called a flick.
  • a flick is, in other words, an operation of quickly tracing the touch panel 70a as if flicking it with a finger. It can be determined that a flick has been performed when a touch-move of a predetermined distance or more at a predetermined speed or more is detected, and a touch-up is detected as it is (it can be determined that a flick has occurred following a slide operation). Further, a touch operation of touching (multi-touching) a plurality of points (for example, two points) to bring the touch positions closer to each other is called pinch-in, and a touch operation of moving the touch positions away from each other is called pinch-out. Pinch-out and pinch-in are collectively called pinch operation (or simply pinch).
  • the touch panel 70a may be of any of various types of touch panels such as a resistive film type, a capacitive type, a surface acoustic wave type, an infrared type, an electromagnetic induction type, an image recognition type, an optical sensor type, and the like. good. There is a method of detecting that there is a touch when there is contact with the touch panel, and a method of detecting that there is a touch when there is an approach of a finger or pen to the touch panel.
  • the digital camera 100 may be provided with an audio input unit (not shown) for transmitting to the system control unit 50 obtained from a built-in microphone or an audio input device connected via an audio input terminal.
  • the system control unit 50 selects the input audio signal as necessary, performs analog-to-digital conversion, performs level optimization processing, specific frequency reduction processing, and the like, and generates an audio signal.
  • the user sets the method of specifying the position of the position index (for example, the AF frame) when the touch-move operation is performed in the eye-focused state to either the absolute position specification method or the relative position specification method. can do.
  • the absolute position specifying method is a method in which input coordinates on the touch panel 70a and display coordinates on the display surface of the EVF 29 are associated.
  • an AF frame is set at a position associated with the touched position (position whose coordinates are input) even if there is no touch-move (before touchdown). position).
  • the position set by the absolute positioning method is based on the touched-down position, regardless of the position set before the touchdown.
  • the relative position specifying method is a method in which input coordinates on the touch panel 70a and display coordinates on the display surface of the EVF 29 are not associated with each other. In the case of the relative position specifying method, when there is only a touchdown on the touch panel 70a and there is no touch-move, the position of the AF frame does not move from the position before the touchdown.
  • the position of the currently set AF frame (the position set before touch-down) will move in the direction of the touch-move movement according to the amount of movement of the touch-move.
  • the position of the AF frame moves by the distance.
  • AF area As the AF area (AF frame setting method), one of a plurality of AF methods including "single point AF" and “whole area AF” can be set. In addition, it is possible to set whether or not to detect the subject (tracking).
  • One-point AF is a method in which a user designates one point as a position for performing AF using a one-point AF frame.
  • “Whole area AF” is a method in which the AF position is automatically set based on automatic selection conditions when the user does not designate a tracking target.
  • the face By multiplying these AF area settings, it is possible to reflect the tracking settings, and if the tracking is set to "Yes", if a person's face is detected from the LV image, the face will be prioritized as the AF target subject mode to select.
  • the size of the face is large, the position of the face is close to the digital camera 100 (closest side), the position of the face is close to the center in the image, and the pre-registered individual is detected.
  • One face is selected according to priority such as being a face and set as an AF target subject.
  • a person's face is not detected, other than the face is detected according to the priority, such as close to the digital camera 100 (closest side), high contrast, high priority subject such as animal or vehicle, or moving object. , and set it as an AF target subject.
  • the priority such as close to the digital camera 100 (closest side)
  • high contrast high priority subject such as animal or vehicle, or moving object.
  • the subject to be tracked is set as an AF target subject. That is, the automatic selection conditions are weighted using at least one element condition among the element conditions shown in the example below, and the obtained score is equal to or greater than a predetermined threshold, or the obtained score is the highest. It is a condition. - It is the face of the detected person. ⁇ The size of the face is large. - The position of the face is close to the digital camera 100 (closest side).
  • ⁇ It is a pre-registered individual face. - Close to the digital camera 100 (closest side). ⁇ High contrast. ⁇ The subject is a high-priority subject such as an animal or vehicle. ⁇ It is a moving body.
  • FIG. 3 shows a flowchart of camera activation processing of the digital camera 100 according to this embodiment.
  • the processing of the flowchart shown in FIG. 3 is realized by the system control unit 50 expanding the program stored in the nonvolatile memory 56 into the system memory 52 and executing the program.
  • the digital camera 100 is activated in the photographing mode in response to the power switch 72 being turned on, the flags, control variables, etc. are initialized, and the processing of the flowchart shown in FIG. 3 is started.
  • the system control unit 50 executes initialization processing of various flags for camera startup processing.
  • the system control unit 50 determines whether the operation mode of the digital camera 100 is the shooting mode. If the operation mode of the digital camera 100 is the shooting mode, the process proceeds to S304; otherwise, the process proceeds to S303.
  • the system control unit 50 determines whether the operation mode of the digital camera 100 is playback mode. If the operation mode of the digital camera 100 is the reproduction mode, the process proceeds to S305; otherwise, the process proceeds to S306.
  • the system control unit 50 performs shooting mode processing (see FIGS. 4 and 5), which will be described later.
  • the system control unit 50 performs the later-described reproduction mode process (see FIG. 6).
  • the system control unit 50 performs other mode processing. For example, the system control unit 50 switches to the wireless communication mode and performs processing of transmitting the captured image file to another device.
  • the system control unit 50 determines whether an operation to turn off the power switch 72 (off operation) has been performed. If the power switch 72 is turned off, the process proceeds to S308; otherwise, the process proceeds to S302.
  • the system control unit 50 stores various flags for camera termination processing, etc., and stops the operation of the digital camera 100 .
  • FIG. 1 photographing mode processing when the digital camera 100 photographs a subject will be described with reference to FIGS. 4 and 5.
  • reproduction mode processing when the digital camera 100 reproduces the photographed image will be described.
  • the system control unit 50 displays a live view image on the display unit 28, and displays two aspect markers that divide the live view image into three areas superimposed on the live view image.
  • the live view image displayed on the display unit 28 is divided into an inner area, which is an area close to the center of the screen of the display unit 28, and two outer areas, which are farther from the center of the screen than the inner area, by the two aspect markers. (see FIG. 8A). Below, the two outer regions are simply described as outer regions without distinction.
  • the digital camera 100 records only the inner area of the areas into which the live view image is divided by the aspect markers when shooting.
  • the digital camera 100 records both the inner area and the outer area when shooting.
  • the digital camera 100 limits the recording target to the inner area only, and also includes specific processing related to capturing (moving range of the AF frame, etc.) in the inner area.
  • both the area to be photographed and the area to be subjected to AF can be set to the inner area, so that the area outside the area to be photographed in the still image after being photographed will not be in focus. It is possible to suppress and obtain a suitable still image.
  • the area intended by the user is in focus at the time of photographing, it is possible to reduce the number of times required for preparing to photograph a still image.
  • FIG. 4 is a flowchart for explaining main processing of the shooting mode processing (processing of S304) of the digital camera 100 according to this embodiment.
  • the processing of the flowchart shown in FIG. 4 is realized by the system control unit 50 loading the program stored in the nonvolatile memory 56 into the system memory 52 and executing the program.
  • the system control unit 50 performs display-related processing, which will be described later using FIG.
  • the system control unit 50 performs processing for changing various settings in the menu.
  • the system control unit 50 determines whether or not a mode switching operation has been performed on the operation unit 70 to switch between shooting modes (still image mode and moving image mode). If the mode switching operation has been performed, the process proceeds to S403; otherwise, the process proceeds to S404.
  • the system control unit 50 switches the shooting mode. Specifically, the system control unit 50 switches to the moving image mode if the current shooting mode is the still image mode, and switches to the still image mode if the current shooting mode is the moving image mode.
  • FIG. 7A is an example of the first layer of the menu screen displayed on the display unit 28.
  • the user selects a desired shooting mode by selecting either a still image 701a (an option representing a still image mode) or a moving image 701b (an option representing a moving image mode) in the mode switching item 701. It is possible to choose. Therefore, it can be said that the mode switching operation is an operation of selecting an option representing a shooting mode other than the current shooting mode.
  • the system control unit 50 switches the shooting mode according to the option selected by the user's operation on the operation unit 70 . For other items on the menu screen, the user can similarly select one of a plurality of options to switch the setting of the item.
  • the system control unit 50 determines whether or not a display switching operation has been performed on the operation unit 70 to switch the aspect marker display setting.
  • Aspect marker display settings are settings for whether or not to display aspect markers, and settings for the aspect ratio of the inner region when displaying aspect markers. If the display switching operation has been performed, the process proceeds to S405; otherwise, the process proceeds to S406.
  • the menu screen changes from the first layer screen to a dedicated screen (second layer screen) for selecting options for the aspect marker shown in FIG. 7B. Transition.
  • the dedicated screen displays an option 702a that does not display an aspect marker, and options 702b to 702f that display an aspect marker such that the inner area has a predetermined aspect ratio.
  • the user performs a display switching operation by selecting one of the options 702a to 702f.
  • Options 702b-702f are options representing displaying aspect markers so that the aspect ratios of the inner region are 1:1, 4:5, 5:4, 9:16, and 2.35:1, respectively.
  • the aspect marker is not limited to the aspect marker. That is, instead of the aspect marker, arbitrary auxiliary lines (for example, grid lines) related to shooting may be used.
  • auxiliary lines for example, grid lines
  • the system control unit 50 switches the aspect marker display setting according to the display switching operation (which of the options 702a to 702f is selected).
  • the system control unit 50 determines whether the current shooting mode is the still image mode. If the current shooting mode is the still image mode, the process proceeds to S407; otherwise (if the current shooting mode is the moving image mode), the process proceeds to S409.
  • the system control unit 50 determines whether or not a GUI switching operation, which is an operation for switching range display settings, has been performed on the operation unit 70.
  • the range display setting is the setting of the display (display form) of the GUI indicating the shooting range when shooting a still image. If the GUI switching operation has been performed, the process proceeds to S408; otherwise, the process proceeds to S409.
  • the user can perform a GUI switching operation by selecting either "line only” or “mask” in the range display setting item 703 in FIG. 7A. Specifically, the user can perform an operation of selecting "setting to represent the imaging range only with aspect markers" (line display setting) by selecting the option of "line only”. On the other hand, the user selects an option of "Mask” to perform an operation of selecting "a setting to represent the shooting range with an aspect marker and to cover the outer area with a mask” (mask display setting). It can be carried out.
  • the “mask” in this embodiment refers to a display superimposed on the live view image. The live view image may be completely invisible (the transparency of the mask is 0) due to the mask display, or a mask having a degree of transparency that allows the live view image to be visually recognized may be used.
  • the system control unit 50 switches the range display setting according to the GUI switching operation.
  • the system control unit 50 determines whether or not a setting switching operation has been performed on the operation unit 70 to switch AF-related settings. If the setting switching operation has been performed, the process proceeds to S410; otherwise, the process proceeds to S411.
  • the user can perform a setting switching operation by selecting one of a plurality of AF methods including "single point AF" and "whole area AF" in the AF area item 704. Also, the user can perform a setting switching operation by selecting whether or not to detect a subject in the tracking item 705 .
  • the system control unit 50 switches AF-related settings according to the setting switching operation.
  • the system control unit 50 determines whether or not a shooting start operation, which is an operation for starting shooting, has been performed on the operation unit 70. If the shooting start operation has been performed, the process proceeds to S412; otherwise, the process proceeds to S415.
  • the system control unit 50 determines whether or not the current shooting mode is the still image mode. If the current shooting mode is the still image mode, the process advances to S413. If the current shooting mode is the moving image mode, the process proceeds to S414.
  • the system control unit 50 starts recording only the inner area of the live view image displayed on the display unit 28 as still image shooting start processing.
  • the system control unit 50 starts recording the entire live view image displayed on the display unit 28, including not only the inner area but also the outer area, as moving image shooting start processing.
  • the system control unit 50 determines whether or not a shooting end operation, which is an operation for ending shooting, has been performed on the operation unit 70. If the photographing end operation has been performed, the process proceeds to S416; otherwise, the process proceeds to S417.
  • the system control unit 50 performs a photographing end process.
  • the photographing end processing includes processing for arranging the recorded image on a medium in a predetermined format, processing for releasing the buffer used during photographing, and the like.
  • the system control unit 50 stores the shot still image in the recording medium 200 as an image file of the still image (still image file).
  • the system control unit 50 stores the captured moving image in the recording medium 200 as a moving image file (moving image file).
  • the system control unit 50 determines whether or not to move the AF frame. For example, when "single-point AF" is set as the AF method, if an operation for moving the AF frame (AF frame moving operation) is performed, the system control unit 50 determines to move the AF frame. do.
  • the AF frame moving operation refers to a user's touch operation on the touch panel 70a, an operation on any one of the four direction keys 74, or the like.
  • the system control unit 50 determines to move the AF frame. If the AF frame is to be moved, proceed to S418; otherwise, proceed to S422.
  • the system control unit 50 determines whether the AF frame is about to move to a position (outer area) outside the aspect marker. For example, when "single-point AF" is set as the AF method, if a position in the outer area is designated by the AF frame moving operation, the system control unit 50 determines that the AF frame is about to move to the outer area. I judge. On the other hand, when the AF method is set to "whole area AF", when the subject for which the AF frame is set (for example, the subject to be tracked for which AF continues to be performed) moves to the outer area, system control The unit 50 determines that the AF frame is about to move to the outer area.
  • the process proceeds to S419; otherwise, the process proceeds to S421. If it is determined in S417 that the AF frame is to be moved without executing the process of S418, the process may proceed to S419.
  • the system control unit 50 determines whether or not an AF frame movement range limitation flag (restriction flag), which will be described later, is ON. If the restriction flag is ON, the process proceeds to S420; otherwise, the process proceeds to S421.
  • the restriction flag indicates whether AF frame movement (AF) is executable or not.
  • the system control unit 50 moves the AF frame to perform AF in the inner area. For example, when "single-point AF" is set as the AF method, the system control unit 50 selects a position within the inner region where the AF frame can be moved and which is instructed by the AF frame movement operation instruction. AF frame is moved to a position closest to , and AF is performed at that position. On the other hand, when the "whole area AF" is set as the AF method, the system control unit 50 executes AF only for the tracking target subject located in the inner area.
  • the system control unit 50 performs AF by moving the AF frame in the entire live view image including the inner area and the outer area, regardless of the position of the aspect marker. For example, when "single-point AF" is set as the AF method, the system control unit 50 moves the AF frame to the position indicated by the AF frame movement operation instruction, and performs AF at that position. On the other hand, when the AF method is set to “all area AF”, the system control unit 50 moves the AF frame to a position where it overlaps the tracking target subject in the entire live view image, and Execute AF. Note that if it is determined in S418 that the AF frame is not about to move to the outer area, the AF frame will not move to the outer area, and as a result, AF will be executed only in the inner area in S421. .
  • the system control unit 50 determines whether or not another operation has been performed on the operation unit 70. If another operation has been performed, the process proceeds to S423; otherwise, the process proceeds to S424.
  • the system control unit 50 performs other processing according to other operations.
  • other operations and other processing are, for example, operations for changing other parameters (shutter speed, exposure compensation, etc.) related to photography and processing based thereon.
  • the system control unit 50 determines whether or not the operation unit 70 has been operated to end the shooting mode. If the shooting mode end operation has been performed, the processing of this flowchart ends, otherwise the process advances to step S401.
  • the end operation corresponds to, for example, a switching operation between shooting mode and playback mode.
  • FIG. 5 is a flowchart of display-related processing of the digital camera 100 according to this embodiment.
  • the processing of the flowchart shown in FIG. 5 is realized by the system control unit 50 expanding the program stored in the nonvolatile memory 56 into the system memory 52 and executing the program.
  • the system control unit 50 displays a live view image on the display unit 28 based on the signal detected by the imaging unit 22.
  • the system control unit 50 displays an aspect marker on the display unit 28 according to the aspect marker display setting so as to be superimposed on the live view image.
  • the system control unit 50 determines whether the current shooting mode is the still image mode. If the current shooting mode is the moving image mode, the process proceeds to S507; otherwise, the process proceeds to S504.
  • the system control unit 50 if the range display setting is the mask display setting, the system control unit 50 superimposes and displays the mask on the outer region on the display unit 28 (see FIG. 8B). On the other hand, if the range display setting is the line display setting, the system control unit 50 does not display the mask (see FIG. 8A).
  • the system control unit 50 causes the display unit 28 to display a still image OSD indicating information related to the still image mode, such as the still image mode information display 802 in FIG. 8A, superimposed on the live view image. do.
  • Information related to the still image mode includes information such as the number of shots that can be taken, remaining battery capacity, ISO sensitivity, shutter speed, or aperture value, for example.
  • the system control unit 50 turns ON the restriction flag (AF frame movement range restriction flag).
  • the restriction flag AF frame movement range restriction flag.
  • the system control unit 50 displays, on the display unit 28, a moving image OSD indicating information related to the moving image mode, such as the moving image mode information display 912 in FIG. 9A, superimposed on the live view image.
  • Information related to the movie mode includes, for example, information such as recordable time, remaining battery capacity, ISO sensitivity, or aperture value.
  • the system control unit 50 turns off the restriction flag.
  • the AF frame moves in the entire area of the live view image including the inner area and the outer area, and AF is performed in the entire area of the live view image. That is, the system control unit 50 enables movement of the AF frame and execution of AF with respect to the inner area and the outer area.
  • the system control unit 50 superimposes an AF frame on the live view image and displays it on the display unit 28 based on the current AF-related settings.
  • FIG. 8A to 9C are screen examples in shooting mode processing of the digital camera 100 according to the embodiment.
  • FIG. 8A is the screen of the display unit 28 in still image mode.
  • FIG. 8A shows the screen at the end of the process of S509 when the shooting mode is the still image mode (NO in S503) and the mask is not displayed in S504.
  • FIG. 8A is a screen example when the range display setting is a line display setting (setting in which only aspect markers are displayed).
  • a still image mode information display 802 , an aspect marker 803 , and an AF frame 804 are displayed superimposed on a live view image 801 .
  • Aspect marker 803 is hereinafter an example of an aspect marker that sets the aspect ratio of the inner region to 1:1.
  • the restriction flag is ON, the AF frame 804 is not displayed outside (outer region) the two aspect markers 803, and AF is not executed.
  • FIG. 8B is a screen example of the display unit 28 when the range display setting is the mask display setting (the mask is also displayed).
  • FIG. 8B shows the screen at the end of the process of S509 when the shooting mode is the still image mode (NO in S503) and the mask is displayed in S504.
  • a mask 805 is displayed superimposed on the live view image 801, and only the live view image 801 inside the two aspect markers 803 is displayed.
  • the example of FIG. 8B has the advantage that it is easy to have an image of the image after shooting.
  • the example of FIG. 8A has the advantage that it is easy to capture the state of the subject outside the shooting range, and it is easy to change the aspect ratio of the inner area (change the position of the aspect marker 803).
  • FIG. 8C is a screen example of the display section 28 in the shooting preparation state in the still image mode.
  • FIG. 8C is a screen at the end of the process of S423 when the first shutter switch 62 is operated as another operation of S422 while the screen of FIG. 8A is being displayed.
  • the state transitions to this photographing preparation state.
  • a live view image 801 and an aspect marker 803 are displayed in the same manner as in FIG. 8A.
  • FIG. 8C also displays an information display 806 corresponding to the shooting state (including the shooting preparation state) and a focus frame 807 indicating the result of AF execution. Since the restriction flag is ON in the still image mode, the focus frame 807 is never displayed outside the aspect marker 803 .
  • the second shutter switch 64 when the second shutter switch 64 is operated to take a picture while the screen shown in FIG. 8C is displayed, if the user has set the silent shutter, the outer periphery of the live view image will be displayed.
  • a perimeter frame is displayed, which is a frame drawn along.
  • the silent shutter setting is a setting that does not make the shutter sound when shooting.
  • the outer frame is a frame for notifying the user of the shooting timing (that the shooting is being performed) in order to solve the problem that the shooting timing cannot be recognized because there is no shutter sound.
  • FIG. 9A is an example of the screen of the display section 28 in the moving image mode.
  • FIG. 9A is the screen at the end of the process of S509 when the shooting mode is the moving image mode (YES in S503).
  • a moving image mode information display 912 an aspect marker 913 , a mask 914 , and an AF frame 915 are displayed superimposed on a live view image 911 .
  • the AF frame 915 can be displayed in the outer area (outside the aspect marker 913).
  • FIG. 9B is the screen at the end of the process of S414 when the operation to start moving image shooting is performed while the screen of FIG. 9A is displayed (YES in S411 and NO in S412).
  • FIG. 9B is a screen example during moving image recording, and unlike FIG. 9A, an information display 916 corresponding to the moving image recording state is displayed. Even in this case, since the restriction flag is OFF, the AF frame 915 can be displayed in the outer area.
  • the display unit 28 may simultaneously display an aspect marker and a marker (auxiliary line) other than the aspect marker.
  • the display unit 28 may display grid lines 917 for confirming the position of the subject in the live view image 911 together with the aspect markers 913, as shown in FIG. 9C.
  • the system control unit 50 does not have to restrict the movement of the AF frame in the two areas divided by the grid line 917 regardless of the restriction flag. That is, the system control unit 50 may perform AF by moving the AF frame in an area including both of the two areas divided by the grid line 917, regardless of which shooting mode is selected. .
  • the system control unit 50 can move the AF frame (AF execution) may not be restricted (disabled).
  • the system control unit 50 sets the AF frame in the area including the two or more areas. may be moved to perform AF.
  • the system control unit 50 does not move the AF frame in the area including the two or more areas in the movie mode. , AF may not be executed. Further, the system control unit 50 may hide the grid lines 917 when recording of a still image or moving image is started (when shooting is started).
  • control for limiting the movement of the AF frame (limiting the AF execution range) according to the mode for an image containing two areas divided by an auxiliary line such as an aspect marker explained.
  • the user can obtain an image subjected to AF within the range of the image (moving image) to be finally used, and it is possible to recapture the image (moving image). load can be reduced.
  • FIG. 6 is a flowchart of playback mode processing of the digital camera 100 according to this embodiment.
  • the processing of the flowchart shown in FIG. 6 is realized by the system control unit 50 loading the program stored in the nonvolatile memory 56 into the system memory 52 and executing the program.
  • the system control unit 50 acquires the image file stored in the recording medium 200.
  • the system control unit 50 reproduces the acquired image file as an image on the display unit 28.
  • the system control unit 50 determines whether the image file acquired at S601 is a moving image file. If the image file is a moving image file, the process proceeds to S605; otherwise, the process proceeds to S604.
  • system control unit 50 superimposes the information on the still image file and the still image GUI for performing operations on the still image file on the display unit 28 on the image being reproduced.
  • FIG. 10A is a screen example of the display unit 28 showing the playback state of a still image.
  • a still image GUI 1022 is displayed superimposed on the image 1021 being reproduced.
  • the image 1021 being played back is an image file that was shot based on the setting of the aspect ratio of 1:1 in S413, blank areas 1023 that are not recorded are displayed on both sides of the image 1021. ing.
  • the system control unit 50 superimposes information on the moving image file and moving image GUI for operating the moving image file on the display unit 28 on the image being reproduced.
  • FIG. 10B is a screen example of the display unit 28 showing the playback state of the moving image.
  • a moving image GUI 1025 is displayed superimposed on the image 1024 being reproduced.
  • an image 1024 being played back is a file shot in S414 based on the setting of the aspect ratio of the inner area to 1:1. According to FIG. 10B, it can be seen that the area outside the aspect marker (outside area) is also recorded.
  • the system control unit 50 determines whether or not an image switching operation has been performed on the operation unit 70 to switch the image file displayed on the display unit 28 to the next file. If an image switching operation has been performed, the process proceeds to S607; otherwise, the process proceeds to S608.
  • the system control unit 50 switches the image file to be displayed (reproduced) on the display unit 28 to the next file.
  • the system control unit 50 determines whether or not another operation has been performed on the operation unit 70. If another operation has been performed, the process proceeds to S609; otherwise, the process proceeds to S610.
  • the system control unit 50 performs other processing.
  • other operations and other processing are, for example, operations for changing other parameters related to reproduction (reproduction speed, brightness of the display section 28, etc.) and processing based thereon.
  • the system control unit 50 determines whether or not the operation unit 70 has been operated to end the reproduction mode process. If the playback mode processing end operation is performed, the processing of this flowchart ends. Otherwise, proceed to S602.
  • the termination operation of the reproduction mode process corresponds to, for example, an operation for switching between the shooting mode and the reproduction mode.
  • auxiliary lines such as aspect markers
  • AF is performed only in the area inside the image divided by the aspect marker (within the area of the image whose aspect ratio is adjusted by the aspect marker).
  • the aspect marker is set to be displayed and in the still image mode
  • AF is performed only in the area inside the image divided by the aspect marker (within the area of the image whose aspect ratio is adjusted by the aspect marker).
  • the area outside the auxiliary lines is not used. In such a case, if the image is focused on the area outside the auxiliary line, there is no focus position in the image to be used inside the auxiliary line, and the image may not be desired by the user.
  • the system control unit 50 performs AF not only on the inner area of the aspect marker, but also on the outer area.
  • the still image mode there are cases where the area outside the aspect marker is not used, so it is considered that there will be little inconvenience even if AF is performed only within a narrower range than the image actually captured.
  • moving image mode if AF cannot be performed only in a range narrower than the moving image that is actually captured, focusing can be performed only in a part of the range that can be captured, which is very inconvenient for the user.
  • the system control unit 50 performs control so that AF is performed (focused) only within the range of the image that the user will use, according to the shooting mode.
  • AF is a specific process related to shooting, for a desired range depending on the situation.
  • the system control unit 50 determines the AF execution range according to whether the mode is a mode for shooting only the inner area or a mode for shooting the entire live view image.
  • a process of whether or not to restrict may be executed.
  • the system control unit 50 may turn ON the restriction flag in the mode for capturing only the inner region, and turn the restriction flag OFF in the mode for capturing the entire live view image.
  • the mode for photographing only the inner area is a mode in which only the image (inner area) within the two aspect markers is recorded without including the outer area.
  • a mode for shooting the entire live view image is a mode that records an image that includes the inner area and the outer area, and also includes the area outside the aspect marker.
  • the specific processes subject to restrictions are AE, the process of setting (displaying) the center position of the enlarged display of the live view image (the center position when the live view image is enlarged and displayed), the degree of focus with the subject (focus state ) may be displayed (focus guide).
  • the specific process may be a process of setting (displaying) a white acquisition position for manual white balance.
  • auxiliary information other than the aspect marker such as auxiliary lines
  • the system control unit 50 limits the movement range of the AF frame according to the position of the aspect marker, but does not limit the movement range of the AF frame according to other auxiliary information (regardless of the auxiliary information).
  • the movement of the AF frame may be made executable at first, or may be restricted. For example, when displaying safety zones separated by auxiliary lines, the system control unit 50 limits the movement range of the AF frame to the safety zone (execution of AF in the safety zone) even in the movie mode. (the execution of AF is disabled).
  • the system control unit 50 does not move the AF frame and does not perform AF in the safety zone of the two areas divided by the auxiliary line for indicating the safety zone, regardless of which shooting mode is selected. You may do so.
  • the safety zone is supplementary information that indicates a range that cannot be completely seen even if a telop or the like is inserted in editing, assuming distribution on multiple media such as PCs and televisions.
  • the system control unit 50 can change whether to turn on the restriction flag according to the option for selecting the aspect ratio of the inner region (see FIG. 7B). good.
  • the restriction flag when the restriction flag is turned ON, the system control unit 50 moves the AF frame only in the inner area to perform AF.
  • the restriction flag is turned OFF, the system control unit 50 moves the AF frame to the area including both the inner area and the outer area to perform AF.
  • the aspect ratio of the inner region is 1:1
  • the system control unit 50 generates a normal video with an aspect ratio of 16:9 and a 1:1 video to be posted on SNS or the like. , and the restriction flag is set to OFF.
  • the system control unit 50 assumes that the purpose is only to shoot the main part of the movie,
  • the movement restriction of the AF frame may be turned ON even in the mode.
  • the system control unit 50 can turn off the restriction flag when a subject is selected by the user and the subject is tracked as the main subject. good.
  • the system control unit 50 may turn off the restriction flag even in the still image mode (regardless of the shooting mode).
  • Predetermined cases include cases where a subject authenticated and registered as an individual is indicated by an AF frame (when the subject for AF is a pre-registered subject), and settings assuming a moving subject with AF-related settings. (SERVO or tracking) is performed.
  • SERVO continuous means that when a predetermined condition is satisfied (for example, the first shutter switch 62 is continuously pressed), the subject is tracked and the subject is kept in focus (focus is maintained). ) setting.
  • the system control unit 50 has a high possibility that the object will move greatly.
  • the flag may be turned OFF.
  • the system control unit 50 can operate a specific operation unit (for example, the line-of-sight detection circuit 165) for indicating a position, even in the still image mode, even if the restriction flag is turned off. good. According to this, the user can indicate the position in the entire live view image in any shooting mode.
  • the system control unit 50 does not determine whether the mode is still image mode or moving image mode, but whether it is a mode for capturing an image of a still subject or a mode for capturing an image of a moving subject. Restriction flags may be set accordingly. For example, the system control unit 50 turns ON the restriction flag in a mode for capturing an image of a stationary subject. The system control unit 50 turns off the restriction flag if the mode is for capturing an image of a moving subject. Similarly, if the user has set uploading to a specific SNS (for example, the SNS shooting mode is on), the system control unit 50 restricts the still image/moving image mode. Flags may be set on.
  • the system control unit 50 may set a restriction flag according to the display format of the SNS to be uploaded. Depending on the SNS, only the area inside the aspect marker (i.e. 1:1 area) is visible to other users, while the area outside the aspect marker (i.e. 16:9 area) is also visible to other users. Some can be seen by other users. Therefore, the system control unit 50 may communicate with the SNS to which the digital camera 100 uploads via the communication unit 54 to identify the SNS connected to the digital camera 100 . Then, the system control unit 50 may change the ON/OFF setting of the restriction flag according to the identified SNS (SNS display format). Further, even if the SNS is not identified via the communication unit 54, if a specific SNS is specified by the user, the system control unit 50 can change the setting of the restriction flag according to the specified SNS. good.
  • the aspect marker is represented by a solid line, but it is not limited to this.
  • Aspect markers may be represented by dotted lines or other lines.
  • the system control unit 50 may add the information of the aspect marker displayed at the time of shooting to the image file, and display the aspect marker as an OSD even in the playback mode (at the time of playback).
  • system control unit 50 may be performed by one piece of hardware. Overall control may be performed.
  • the present invention is not limited to this example, and can be applied to any electronic device having a photographing means. That is, the present invention can be applied to personal computers, PDAs, mobile phone terminals, portable image viewers, printers equipped with displays, digital photo frames, music players, game machines, electronic book readers, and the like.
  • the present invention can be applied not only to the main body of an imaging device, which is a digital camera, but also to a control device that communicates with an imaging device (including a network camera) via wired or wireless communication and remotely controls the imaging device.
  • Devices that remotely control imaging devices include, for example, devices such as smartphones, tablet PCs, and desktop PCs. It is possible to remotely control the image capturing apparatus by notifying the image capturing apparatus of commands for performing various operations and settings from the control apparatus side based on operations performed on the control apparatus side and processing performed on the control apparatus side. be. Also, a live view image captured by an imaging device may be received via wired or wireless communication and displayed on the control device side.
  • each functional unit in each of the above embodiments may or may not be individual hardware. Functions of two or more functional units may be implemented by common hardware. Each of the multiple functions of one functional unit may be implemented by separate hardware. Two or more functions of one functional unit may be realized by common hardware. Also, each functional unit may or may not be realized by hardware such as ASIC, FPGA, and DSP.
  • the device may have a processor and a memory (storage medium) in which a control program is stored. The functions of at least some of the functional units of the device may be realized by the processor reading out and executing the control program from the memory.
  • the present invention supplies a program that implements one or more functions of the above embodiments to a system or apparatus via a network or a storage medium, and one or more processors in the computer of the system or apparatus reads and executes the program. It can also be realized by processing to It can also be implemented by a circuit (for example, ASIC) that implements one or more functions.
  • a circuit for example, ASIC

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Studio Devices (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)

Abstract

電子機器は、画像を少なくとも第1の領域と第2の領域とに分割する第1の補助線を前記画像に重畳して表示手段に表示するように制御する表示制御手段と、第1の種類の画像を撮影するための第1のモードでは、前記第1の領域に対しては撮影に関する特定の処理を実行不可にし、前記第2の領域に対しては前記特定の処理を実行可能にするように制御し、前記第1の種類の画像とは異なる第2の種類の画像を撮影するための第2のモードでは、前記第1の領域と前記第2の領域とを含む領域に対して、前記特定の処理を実行可能にするように制御する制御手段を有する。

Description

電子機器、電子機器の制御方法、プログラム、記憶媒体
 本発明は電子機器に関し、特に撮像部を有する電子機器に関する。
 静止画または動画の撮影時に、デジタルカメラやスマートフォンにおける表示部に表示する画像(ライブビュー画像)に領域を分割する補助線(アスペクトマーカー)を表示することが知られている。アスペクトマーカーは、画像のトリミング編集を行う際の目安の範囲を、撮影時にユーザに示す。
 特許文献1では、静止画モードおよび動画モードのそれぞれに適したアスペクトマーカーを表示する技術が記載されている。また、特許文献2では、静止画および動画(2つの画像)を同時に記録可能な電子カメラにおいて、静止画および動画のうち記録として残る画像を示すアイコンと、それぞれの画像についての撮影範囲を示すガイドフレームとを共に表示する技術が記載されている。これらの技術により、ユーザは、所望する画像の種類(例えば、静止画と動画とのいずれかなど)に応じて適切に表示された補助線やGUIを見ながら、撮影を行うことが可能になる。
特開2016-123033号公報 特開2012-160966号公報
 一方で、ユーザは、撮影に関する特定の処理(例えば、AFまたはAE)を行う場合に、アスペクトマーカーが画像を分割した複数の領域のいずれかでは、当該特定の処理を行うことを望まない場合がある。例えば、静止画を撮影する場合には、ユーザは、アスペクトマーカーで分割された領域のうち画像の中心から離れた領域では、AFを実行することを望まないことがある。
 このため、本発明は、ユーザが所望する範囲に対して、撮影に関する特定の処理を行うことのできる電子機器の提供を目的とする。
 本発明の1つの態様は、
 画像を少なくとも第1の領域と第2の領域とに分割する第1の補助線を前記画像に重畳して表示手段に表示するように制御する表示制御手段と、
 第1の種類の画像を撮影するための第1のモードでは、前記第1の領域に対しては撮影に関する特定の処理を実行不可にし、前記第2の領域に対しては前記特定の処理を実行可能にするように制御し、
 前記第1の種類の画像とは異なる第2の種類の画像を撮影するための第2のモードでは、前記第1の領域と前記第2の領域とを含む領域に対して、前記特定の処理を実行可能にするように制御する制御手段と
を有することを特徴とする電子機器である。
 本発明によれば、ユーザにとって利便性の高い電子機器を提供することができる。
図1Aおよび図1Bは、本実施形態に係るデジタルカメラの外観図である。 図2は、本実施形態に係るデジタルカメラの構成図である。 図3は、本実施形態に係るカメラ起動処理のフローチャートである。 図4は、本実施形態に係る撮影モード処理のフローチャートである。 図5は、本実施形態に係る表示関連処理のフローチャートである。 図6は、本実施形態に係る再生モード処理のフローチャートである。 図7Aおよび図7Bは、本実施形態に係る表示部の画面を説明する図である。 図8A~図8Cは、本実施形態に係る撮影モード処理の画面を説明する図である。 図9A~図9Cは、本実施形態に係る撮影モード処理の画面を説明する図である。 図10Aおよび図10Bは、本実施形態に係る再生モード処理の画面を説明する図である。
 アスペクトマーカー(補助線)を表示する電子機器では、撮影に関する特定の処理を行う場合に、アスペクトマーカーが画像を分割した複数の領域のいずれかでは、特定の処理を行うことをユーザが望まない場合がある。一方で、特定の場合には、アスペクトマーカーが画像を分割した複数の領域を含む領域において特定の処理を行うことをユーザが望む場合がある。
 例えば、撮影した動画を複数のSNSにアップロードしたいとユーザが考える場合を想定する。具体的には、ユーザは、1つの動画ファイルに基づき、16:9のアスペクト比の動画を本編動画として第1のSNSにアップロードし、1:1のアスペクト比の動画を宣伝用動画として第2のSNSにアップロードしたい場合がある。この場合には、ユーザは、本編動画のためにアスペクト比(16:9)の範囲において、AFやAEなどの各種の撮像機能が実行されることを期待する。ところが、この場合に、アスペクトマーカーの位置に応じて、こうした撮像機能の実行エリアが制限される(例えば、アスペクトマーカーによって分割された領域のいずれかでしかAFが実行されない)ことなどにより、効率的な動画制作が行えないことがある。
 そこで、ユーザが所望する範囲に対して、撮影に関する特定の処理を行うことのできる電子機器を以下の実施形態では説明する。
(実施形態)
<デジタルカメラ100の外観図>
 以下、図面を参照して本発明の好適な実施形態を説明する。図1A、図1Bに、本発明を適用可能な装置の一例としてのデジタルカメラ100の外観図を示す。図1Aはデジタルカメラ100の前面斜視図であり、図1Bはデジタルカメラ100の背面斜視図である。
 表示部28は、デジタルカメラ100の背面に設けられた表示部であり、画像や各種情報を表示する。タッチパネル70aは、表示部28の表示面(タッチ操作面;タッチ操作部材)に対するタッチ操作を検出することができる。ファインダー外表示部43は、デジタルカメラ100の上面に設けられた表示部であり、シャッター速度や絞りをはじめとするデジタルカメラ100の様々な設定値を表示する。シャッターボタン61は撮影指示(撮像指示)を行うための操作部材である。モード切り替えスイッチ60は、各種モードを切り替えるための操作部材である。端子カバー40は、デジタルカメラ100を外部機器に接続するコネクタ(不図示)を保護するカバーである。
 メイン電子ダイヤル71は回転操作部材であり、メイン電子ダイヤル71を回すことで、シャッター速度や絞りなどの設定値の変更等が行える。電源スイッチ72は、デジタルカメラ100の電源のONとOFFを切り替える操作部材である。サブ電子ダイヤル73は回転操作部材であり、サブ電子ダイヤル73を回すことで、選択枠(カーソル)の移動や画像送りなどが行える。4方向キー74は、上、下、左、右部分をそれぞれ押し込み可能に構成され、4方向キー74の押した部分に応じた処理が可能である。SETボタン75は、押しボタンであり、主に選択項目の決定などに用いられる。マルチコントローラー(以下、MC)65は、8方向への方向指示と、中央部分の押し込み操作とを受け付け可能である。
 動画ボタン76は、動画撮影(記録)の開始や停止の指示に用いられる。AEロックボタン77は押しボタンであり、撮影待機状態でAEロックボタン77を押下することにより、露出状態を固定することができる。拡大ボタン78は、撮影モードのライブビュー表示(LV表示)において拡大モードのONとOFFを切り替えるための操作ボタンである。拡大モードをONとしてからメイン電子ダイヤル71を操作することにより、ライブビュー画像(LV画像)の拡大や縮小を行える。再生モードにおいては、拡大ボタン78は、再生画像を拡大したり、その拡大率を増加させたりするための操作ボタンとして機能する。再生ボタン79は、撮影モードと再生モードとを切り替えるための操作ボタンである。撮影モード中に再生ボタン79を押下することで再生モードに遷移し、記録媒体200(後述)に記録された画像のうち最新の画像を表示部28に表示させることができる。メニューボタン81はメニュー画面を表示させる指示操作を行うために用いられる押しボタンであり、メニューボタン81が押されると各種の設定が可能なメニュー画面が表示部28に表示される。ユーザは、表示部28に表示されたメニュー画面と、4方向キー74やSETボタン75、またはMC65とを用いて直感的に各種設定を行うことができる。視線確定ボタン82は、操作部70に含まれる操作部材であって、後述する視線ポインターの位置に基づく被写体の選択実行または解除を指示する押しボタンである。視線確定ボタンは、ユーザがファインダーを覗いた状態(接眼部16に接眼した状態)でも操作しやすい位置に配置されており、グリップ部90を持つ右手の親指で操作可能な位置に配置されている。
 通信端子10は、デジタルカメラ100がレンズユニット150(後述;着脱可能)側と通信を行うための通信端子である。接眼部16は、接眼ファインダー(覗き込み型のファインダー)の接眼部であり、ユーザは、接眼部16を介して内部のEVF29(後述)に表示された画像を視認することができる。接眼検知部57は、接眼部16にユーザ(撮影者)が接眼しているか否かを検知する接眼検知センサーである。蓋202は、記録媒体200(後述)を格納するスロットの蓋である。グリップ部90は、ユーザがデジタルカメラ100を構える際に右手で握りやすい形状とした保持部である。グリップ部90を右手の小指、薬指、中指で握ってデジタルカメラ100を保持した状態で、右手の人差指で操作可能な位置にシャッターボタン61とメイン電子ダイヤル71が配置されている。また、同じ状態で、右手の親指で操作可能な位置に、サブ電子ダイヤル73、視線確定ボタン82が配置されている。
<デジタルカメラ100の構成ブロック図>
 図2は、デジタルカメラ100の構成例を示すブロック図である。レンズユニット150は、交換可能な撮影レンズを搭載するレンズユニットである。レンズ103は通常、複数枚のレンズから構成されるが、図2では簡略して一枚のレンズのみで示している。通信端子6は、レンズユニット150がデジタルカメラ100側と通信を行うための通信端子であり、通信端子10は、デジタルカメラ100がレンズユニット150側と通信を行うための通信端子である。レンズユニット150は、これら通信端子6,10を介してシステム制御部50と通信する。そして、レンズユニット150は、内部のレンズシステム制御回路4によって絞り駆動回路2を介して絞り1の制御を行う。また、レンズユニット150は、レンズシステム制御回路4によってAF駆動回路3を介してレンズ103を変位させることで焦点を合わせる。
 シャッター101は、システム制御部50の制御で撮像部22の露光時間を自由に制御できるフォーカルプレーンシャッターである。
 撮像部22は、光学像を電気信号に変換するCCDやCMOS素子等で構成される撮像素子である。撮像部22は、システム制御部50にデフォーカス量情報を出力する撮像面位相差センサーを有していてもよい。
 画像処理部24は、A/D変換器23からのデータ、又は、メモリ制御部15からのデータに対し所定の処理(画素補間、縮小といったリサイズ処理、色変換処理、等)を行う。また、画像処理部24は、撮像した画像データを用いて所定の演算処理を行い、システム制御部50は、画像処理部24により得られた演算結果に基づいて露光制御や測距制御を行う。これにより,TTL(スルー・ザ・レンズ)方式のAF(オートフォーカス)処理、AE(自動露出)処理、EF(フラッシュプリ発光)処理、等が行われる。画像処理部24は、さらに、撮像した画像データを用いて所定の演算処理を行い、得られた演算結果に基づいてTTL方式のAWB(オートホワイトバランス)処理を行う。
 メモリ制御部15は、A/D変換器23、画像処理部24、メモリ32間のデータの送受信を制御する。A/D変換器23からの出力データは、画像処理部24及びメモリ制御部15を介してメモリ32に書き込まれる。あるいは、A/D変換器23からの出力データは、画像処理部24を介さずにメモリ制御部15を介してメモリ32に書き込まれる。メモリ32は、撮像部22によって得られA/D変換器23によりデジタルデータに変換された画像データや、表示部28やEVF29に表示するための画像データを格納する。メモリ32は、所定枚数の静止画像や所定時間の動画像および音声を格納するのに十分な記憶容量を備えている。
 また、メモリ32は画像表示用のメモリ(ビデオメモリ)を兼ねている。メモリ32に書き込まれた表示用の画像データはメモリ制御部15を介して表示部28やEVF29により表示される。表示部28とEVF29のそれぞれは、LCDや有機EL等の表示器上で、メモリ制御部15からの信号に応じた表示を行う。A/D変換器23によってA/D変換されメモリ32に蓄積されたデータを表示部28またはEVF29に逐次転送して表示することで、ライブビュー表示(LV)が行える。以下、ライブビュー表示で表示される画像をライブビュー画像(LV画像)と称する。
 視線検出部160(受付部)は、接眼部16に接眼したユーザの目の、EVF29を見る視線を検出する。視線検出部160は、ダイクロイックミラー162、結像レンズ163、視線検知センサー164、視線検出回路165、赤外発光ダイオード166により構成される。
 赤外発光ダイオード166は、ファインダー画面内におけるユーザの視線位置を検出するための発光素子であり、ユーザの眼球(目)161に赤外光を照射する。赤外発光ダイオード166から発した赤外光は眼球(目)161で反射し、その赤外反射光はダイクロイックミラー162に到達する。ダイクロイックミラー162は、赤外光だけを反射して、可視光を透過させる。光路が変更された赤外反射光は、結像レンズ163を介して視線検知センサー164の撮像面に結像する。結像レンズ163は、視線検知光学系を構成する光学部材である。視線検知センサー164は、CCD型イメージセンサ等の撮像デバイスから構成される。
 視線検知センサー164は、入射された赤外反射光を電気信号に光電変換して視線検出回路165へ出力する。視線検出回路165は、視線検知センサー164の出力信号に基づいて、ユーザの眼球(目)161の動きからユーザの視線位置を検出し、検出情報をシステム制御部50および注視判定部170に出力する。
 注視判定部170は、視線検出回路165から受け取った検出情報に基づいて、ユーザの視線がある領域に固定されている期間が所定の閾値を越えた場合に、その領域を注視していると判定する。従って、当該領域は、注視が行われた位置である注視位置(注視領域)であるといえる。なお、「視線がある領域に固定されている」とは、例えば、所定の期間経過するまでの間、視線の動きの平均位置が当該領域内にあり、かつ、ばらつき(分散)が所定値よりも少ないことである。なお、所定の閾値は、システム制御部50により任意に変更可能である。また、注視判定部170を独立したブロックとして設けず、システム制御部50が視線検出回路165から受け取った検出情報に基づいて注視判定部170と同じ機能を実行するようにしてもよい。
 本実施形態では、視線検出部160は、角膜反射法と呼ばれる方式を用いて視線を検出する。角膜反射法とは、赤外発光ダイオード166から発せられた赤外光が眼球(目)161(特に角膜)で反射した反射光と、眼球(目)161の瞳孔との位置関係から、視線の向き・位置を検出する方式である。なお、視線(視線の向き・位置)を検出する方式は特に限定されず、上記以外の方式を用いてもよい。例えば、黒目と白目での光の反射率が異なることを利用する強膜反射法と呼ばれる方式を用いてもよい。
 ファインダー外表示部43には、ファインダー外表示部駆動回路44を介して、シャッター速度や絞りをはじめとするカメラの様々な設定値が表示される。
 不揮発性メモリ56は、電気的に消去・記録可能なメモリであり、例えば、FLash-ROM等である。不揮発性メモリ56には、システム制御部50の動作用の定数、プログラム等が記録される。ここでいうプログラムとは、本実施形態にて後述する各種フローチャートを実行するためのプログラムのことである。
 システム制御部50は、少なくとも1つのプロセッサまたは回路からなる制御部であり、デジタルカメラ100全体を制御する。システム制御部50は、前述した不揮発性メモリ56に記録されたプログラムを実行することで、後述する本実施形態の各処理を実現する。システムメモリ52は例えばRAMであり、システム制御部50は、システム制御部50の動作用の定数、変数、不揮発性メモリ56から読み出したプログラム等をシステムメモリ52に展開する。また、システム制御部50は、メモリ32、表示部28等を制御することにより表示制御も行う。
 システムタイマー53は、各種制御に用いる時間や、内蔵された時計の時間を計測する計時部である。
 電源制御部80は、電池検出回路、DC-DCコンバータ、通電するブロックを切り替えるスイッチ回路等により構成され、電池の装着の有無、電池の種類、電池残量の検出などを行う。また、電源制御部80は、その検出結果及びシステム制御部50の指示に基づいてDC-DCコンバータを制御し、必要な電圧を必要な期間、記録媒体200を含む各部へ供給する。電源部30は、一次電池(アルカリ電池またはリチウム電池等)、二次電池(NiCd電池、NiMH電池、またはLi電池等)、またはACアダプター等からなる。
 記録媒体I/F18は、メモリカードやハードディスク等の記録媒体200とのインターフェースである。記録媒体200は、撮影された画像を記録するためのメモリカード等の記録媒体であり、半導体メモリや磁気ディスク等から構成される。
 通信部54は、無線または有線ケーブルによって接続された外部機器との間で、画像信号や音声信号の送受信を行う。通信部54は無線LAN(Local Area Network)やインターネットとも接続可能である。また、通信部54は、Bluetooth(登録商標)やBluetooth Low Energyでも外部機器と通信可能である。通信部54は撮像部22で撮像した画像(LV画像を含む)や、記録媒体200に記録された画像を送信可能であり、外部機器から画像データやその他の各種情報を受信することができる。
 姿勢検知部55は、重力方向に対するデジタルカメラ100の姿勢を検知する。姿勢検知部55で検知された姿勢に基づいて、撮像部22で撮影された画像が、デジタルカメラ100を横に構えて撮影された画像であるか、縦に構えて撮影された画像であるかを判別可能である。システム制御部50は、姿勢検知部55で検知された姿勢に応じた向き情報を撮像部22で撮像された画像の画像ファイルに付加したり、画像を回転して記録したりすることが可能である。姿勢検知部55としては、加速度センサーやジャイロセンサーなどを用いることができる。姿勢検知部55である加速度センサーやジャイロセンサーを用いて、デジタルカメラ100の動き(パン、チルト、持ち上げ、静止しているか否か等)を検知することも可能である。
 接眼検知部57は、接眼ファインダー(以後、単に「ファインダー」と記載する)の接眼部16に対する目(物体)161の接近(接眼)および離脱(離眼)を検知する(接近検知)、接眼検知センサーである。システム制御部50は、接眼検知部57で検知された状態に応じて、表示部28とEVF29の表示(表示状態)/非表示(非表示状態)を切り替える。より具体的には、少なくとも撮影待機状態で、かつ、表示先の切り替えが自動切り替えである場合において、非接眼中は表示先を表示部28として表示をオンとし、EVF29は非表示とする。また、接眼中は表示先をEVF29として表示をオンとし、表示部28は非表示とする。接眼検知部57としては、例えば赤外線近接センサーを用いることができ、EVF29を内蔵するファインダーの接眼部16への何らかの物体の接近を検知することができる。物体が接近した場合には、接眼検知部57の投光部(図示せず)から投光した赤外線が物体で反射して赤外線近接センサーの受光部(図示せず)で受光される。受光された赤外線の量によって、物体が接眼部16からどの距離まで近づいているか(接眼距離)も判別することができる。このように、接眼検知部57は、接眼部16への物体の近接距離を検知する接眼検知を行う。非接眼状態(非接近状態)から、接眼部16に対して所定距離以内に近づく物体が検出された場合に、接眼されたと検出するものとする。接眼状態(接近状態)から、接近を検知していた物体が所定距離以上離れた場合に、離眼されたと検出するものとする。接眼を検出する閾値と、離眼を検出する閾値は例えばヒステリシスを設けるなどして異なっていてもよい。また、接眼を検出した後は、離眼を検出するまでは接眼状態であるものとする。離眼を検出した後は、接眼を検出するまでは非接眼状態であるものとする。なお、赤外線近接センサーは一例であって、接眼検知部57には、接眼とみなせる目や物体の接近を検知できるものであれば他のセンサーを採用してもよい。
 システム制御部50は、視線検出部160を制御することによって、EVF29への以下の視線の状態を検出できる。・EVF29へ向けられていなかった視線が新たにEVF29へ向けられたこと。すなわち、視線入力の開始。・EVF29に対する視線入力をしている状態であること。・EVF29のある位置へ注視している状態であること。・EVF29へ向けられていた視線を外したこと。すなわち、視線入力の終了。・EVF29へ何も視線入力していない状態(EVF29を見ていない状態)。
 これらの操作・状態や、EVF29に視線が向いている位置(方向)は内部バスを通じてシステム制御部50に通知され、システム制御部50は、通知された情報に基づいてどのような視線入力が行われているかを判定する。
 操作部70は、ユーザからの操作(ユーザ操作)を受け付ける入力部であり、システム制御部50に各種の動作指示を入力するために使用される。図2に示すように、操作部70は、モード切り替えスイッチ60、シャッターボタン61、電源スイッチ72、タッチパネル70a、等を含む。また、操作部70は、その他の操作部材70bとして、メイン電子ダイヤル71、サブ電子ダイヤル73、4方向キー74、SETボタン75、動画ボタン76、AEロックボタン77、拡大ボタン78、再生ボタン79、メニューボタン81、MC65等を含む。
 モード切り替えスイッチ60は、システム制御部50の動作モードを静止画撮影モード、動画撮影モード、再生モード等のいずれかに切り替える。静止画撮影モードに含まれるモードとして、オート撮影モード、オートシーン判別モード、マニュアルモード、絞り優先モード(Avモード)、シャッター速度優先モード(Tvモード)、プログラムAEモード(Pモード)がある。また、撮影シーン別の撮影設定となる各種シーンモード、カスタムモード等がある。モード切り替えスイッチ60により、ユーザは、これらのモードのいずれかに直接切り替えることができる。あるいは、モード切り替えスイッチ60で撮影モードの一覧画面に一旦切り替えた後に、表示された複数のモードのいずれかに、他の操作部材を用いて選択的に切り替えるようにしてもよい。同様に、動画撮影モードにも複数のモードが含まれていてもよい。
 シャッターボタン61は、第1シャッタースイッチ62と第2シャッタースイッチ64を備える。第1シャッタースイッチ62は、シャッターボタン61の操作途中、いわゆる半押し(撮影準備指示)でONとなり第1シャッタースイッチ信号SW1を発生する。システム制御部50は、第1シャッタースイッチ信号SW1により、AF(オートフォーカス)処理、AE(自動露出)処理、AWB(オートホワイトバランス)処理、EF(フラッシュプリ発光)処理等の撮影準備動作を開始する。第2シャッタースイッチ64は、シャッターボタン61の操作完了、いわゆる全押し(撮影指示)でONとなり、第2シャッタースイッチ信号SW2を発生する。システム制御部50は、第2シャッタースイッチ信号SW2により、撮像部22からの信号読み出しから、撮像された画像を画像ファイルとして記録媒体200に書き込むまでの、一連の撮影処理の動作を開始する。
 タッチパネル70aと表示部28とは一体的に構成することができる。例えば、タッチパネル70aは、光の透過率が表示部28の表示を妨げないように構成され、表示部28の表示面の上層に取り付けられる。そして、タッチパネル70aにおける入力座標と、表示部28の表示面上の表示座標とを対応付ける。これにより、あたかもユーザが表示部28上に表示された画面を直接的に操作可能であるかのようなGUI(グラフィカルユーザインターフェース)を提供できる。システム制御部50は、タッチパネル70aへの以下の操作、あるいは状態を検出できる。
 ・タッチパネル70aにタッチしていなかった指やペンが新たにタッチパネル70aにタッチしたこと、すなわちタッチの開始(以下、タッチダウン(Touch-Down)と称する)。
 ・タッチパネル70aを指やペンでタッチしている状態(以下、タッチオン(Touch-On)と称する)。
 ・指やペンがタッチパネル70aをタッチしたまま移動していること(以下、タッチムーブ(Touch-Move)と称する)。
 ・タッチパネル70aへタッチしていた指やペンがタッチパネル70aから離れた(リリースされた)こと、すなわちタッチの終了(以下、タッチアップ(Touch-Up)と称する)。
 ・タッチパネル70aに何もタッチしていない状態(以下、タッチオフ(Touch-Off)と称する)。
 タッチダウンが検出されると、同時にタッチオンも検出される。タッチダウンの後、タッチアップが検出されない限りは、通常はタッチオンが検出され続ける。タッチムーブが検出された場合も、同時にタッチオンが検出される。タッチオンが検出されていても、タッチ位置が移動していなければタッチムーブは検出されない。タッチしていた全ての指やペンがタッチアップしたことが検出された後は、タッチオフとなる。
 これらの操作・状態や、タッチパネル70a上に指やペンがタッチしている位置座標は内部バスを通じてシステム制御部50に通知される。そして、システム制御部50は通知された情報に基づいてタッチパネル70a上にどのような操作(タッチ操作)が行われたかを判定する。タッチムーブについてはタッチパネル70a上で移動する指やペンの移動方向についても、位置座標の変化に基づいて、タッチパネル70a上の垂直成分・水平成分毎に判定できる。所定距離以上をタッチムーブしたことが検出された場合にはスライド操作が行われたと判定するものとする。タッチパネル70a上に指をタッチしたままある程度の距離だけ素早く動かして、そのまま離すといった操作をフリックと呼ぶ。フリックは、言い換えればタッチパネル70a上を指ではじくように素早くなぞる操作である。所定距離以上を、所定速度以上でタッチムーブしたことが検出され、そのままタッチアップが検出されるとフリックが行われたと判定できる(スライド操作に続いてフリックがあったものと判定できる)。さらに、複数箇所(例えば2点)を共にタッチして(マルチタッチして)、互いのタッチ位置を近づけるタッチ操作をピンチイン、互いのタッチ位置を遠ざけるタッチ操作をピンチアウトと称する。ピンチアウトとピンチインを総称してピンチ操作(あるいは単にピンチ)と称する。タッチパネル70aは、抵抗膜方式や静電容量方式、表面弾性波方式、赤外線方式、電磁誘導方式、画像認識方式、光センサー方式等、様々な方式のタッチパネルのうちいずれの方式のものであってもよい。タッチパネルに対する接触があったことでタッチがあったと検出する方式や、タッチパネルに対する指やペンの接近があったことでタッチがあったと検出する方式があるが、いずれの方式でもよい。
 なお、デジタルカメラ100には、内蔵されたマイクまたは音声入力端子を介して接続された音声入力装置から得られたシステム制御部50に送信する音声入力部(不図示)が設けられていてもよい。この場合、システム制御部50は、入力された音声信号を必要に応じて選択し、アナログデジタル変換を行い、レベルの適正化処理、特定周波数の低減処理等をして音声信号を生成する。
 本実施形態では、ユーザは、接眼状態でタッチムーブ操作が行われる場合の位置指標(例えば、AF枠)の位置を指定する方式を、絶対位置指定方式と相対位置指定方式とのいずれかに設定することができる。絶対位置指定方式とは、タッチパネル70aにおける入力座標と、EVF29の表示面上の表示座標とが対応付けられている方式である。絶対位置指定方式の場合、タッチパネル70aに対するタッチダウンがあると、タッチムーブが無くとも、タッチされた位置(座標入力された位置)に対応付けられた位置にAF枠が設定される(タッチダウン前の位置から移動する)。絶対位置指定方式で設定される位置は、タッチダウン前に設定されていた位置には関係なく、タッチダウンされた位置に基づいた位置となる。また、タッチダウン後にタッチムーブがあると、タッチムーブ後のタッチ位置に基づいてAF枠の位置も移動する。相対位置指定方式とは、タッチパネル70aにおける入力座標と、EVF29の表示面上の表示座標とが対応付けられていない方式である。相対位置指定方式の場合、タッチパネル70aに対するタッチダウンがあっただけでタッチムーブが無い状態では、AF枠の位置はタッチダウン前の位置から移動しない。その後タッチムーブがあると、タッチダウン位置に関わらず、現在設定されているAF枠の位置(タッチダウン前に設定されていた位置)から、タッチムーブの移動方向にタッチムーブの移動量に応じた距離だけ、AF枠の位置が移動する。
 なお、AFエリア(AF枠の設定方式)として、「一点AF」と「全域AF」を含む複数のAF方式のうちいずれかを設定可能である。また被写体の検出設定(トラッキング)のする/しないを設定可能である。「一点AF」とは、AFを行う位置として一点AF枠によって1箇所をユーザが指定する方式である。「全域AF」とは、ユーザによる追尾対象の指定が無い場合には、自動選択条件に基づいて自動的にAF位置が設定される方式である。これらのAFエリアの設定に掛け算で、トラッキングの設定を反映可能であり、トラッキングが「する」の場合には、LV画像から人物の顔が検出されていれば顔を優先してAF対象被写体として選択するモードとなる。人物の顔が複数検出されている場合、顔のサイズが大きい、顔の位置がデジタルカメラ100に近い(至近側である)、顔の位置が画像内における中央に近い、予め登録された個人の顔である、等の優先度に従って1つの顔を選択してAF対象被写体に設定する。人物の顔が検出されていなければ、デジタルカメラ100に近い(至近側である)、コントラストが高い、動物や乗り物などの優先度の高い被写体である、動体である、などの優先度に従って顔以外の被写体を選択してAF対象被写体に設定する。ユーザによって追尾対象の被写体が指定された場合には、追尾対象の被写体をAF対象被写体とする。すなわち、自動選択条件は、以下に示す例のような要素条件のうち少なくとも1つの要素条件を用いて重みづけを行い、得られるスコアが所定の閾値以上であることや得られるスコアが最も高いという条件である。
・検出された人物の顔である。
・顔のサイズが大きい。
・顔の位置がデジタルカメラ100に近い(至近側である)。
・顔の位置が画像内における中央に近い。
・予め登録された個人の顔である。
・デジタルカメラ100に近い(至近側である)。
・コントラストが高い。
・動物や乗り物などの優先度の高い被写体である。
・動体である。
[カメラ起動処理]
 図3は、本実施形態におけるデジタルカメラ100のカメラ起動処理のフローチャートを示す。図3に示すフローチャートの処理は、システム制御部50が、不揮発性メモリ56に格納されたプログラムをシステムメモリ52に展開して実行することにより実現される。電源スイッチ72により電源がオンの状態に操作されたことに応じてデジタルカメラ100が撮影モードで起動すると、フラグや制御変数等が初期化されて、図3に示すフローチャートの処理が開始する。
 S301では、システム制御部50は、カメラ起動処理のための各種フラグの初期化処理などを実行する。
 S302では、システム制御部50は、デジタルカメラ100の動作モードが撮影モードであるか否かを判定する。デジタルカメラ100の動作モードが撮影モードである場合にはS304に進み、そうでなければS303に進む。
 S303では、システム制御部50は、デジタルカメラ100の動作モードが再生モードであるか否かを判定する。デジタルカメラ100の動作モードが再生モードである場合にはS305に進み、そうでなければS306に進む。
 S304では、システム制御部50は、後述の撮影モード処理(図4、図5参照)を行う。
 S305では、システム制御部50は、後述の再生モード処理(図6参照)を行う。
 S306では、システム制御部50は、その他のモード処理を行う。例えば、システム制御部50は、無線通信モードに切り替えて、撮影した画像ファイルを他のデバイスに送信する処理などを行う。
 S307では、システム制御部50は、電源スイッチ72をオフにする操作(オフ操作)がされたか否かを判定する。電源スイッチ72のオフ操作にされた場合にはS308に進み、そうでなければS302に進む。
 S308では、システム制御部50は、カメラ終了処理のための各種フラグの記憶などを実施し、デジタルカメラ100の動作を停止する。
 以下では、図3におけるS304における撮影モード処理と、S305における再生モード処理を、図4~図6のフローチャートを用いて説明する。まず、図4、図5を用いて、デジタルカメラ100が被写体の撮影を行う場合の撮影モード処理を説明する。その後、図6を用いて、撮影した画像をデジタルカメラ100が再生する場合の再生モード処理を説明する。
 また、以下では、デジタルカメラ100が撮影モードとして静止画モード(静止画を撮影するためのモード)と動画モード(動画を撮影するためのモード)を有することを前提に説明する。また、本実施形態では、システム制御部50は、表示部28にライブビュー画像を表示し、ライブビュー画像を3つの領域に分割する2本のアスペクトマーカーをライブビュー画像に重畳して表示する。表示部28に表示されたライブビュー画像は、2本のアスペクトマーカーにより、表示部28の画面の中央に近い領域である内側領域と、内側領域よりも画面の中央から離れた2つの外側領域とに分割されている(図8A参照)。以下では、2つの外側領域については、区別することなく、単に外側領域として説明する。そして、静止画モードでは、デジタルカメラ100は、撮影を行う場合に、アスペクトマーカーによりライブビュー画像が分割された領域のうち内側領域のみを記録する。動画モードでは、デジタルカメラ100は、撮影を行う場合に、内側領域および外側領域の両方の領域を記録する。
 動画を撮影する場合には、静止画を撮影する場合と比較すると、撮影時間の観点やファイルサイズの観点から、被写体の状況に応じて何度も撮影することが困難である。このため、ユーザが動画を撮影する場合には、一度の撮影で、複数の目的のための画像素材を残すことが求められる。このため、ユーザは、動画モードで、動画を撮影する場合には、アスペクトマーカーなどの補助線によって分割された外側領域も含めて記録することを想定することが多い。
 一方で、静止画を撮影する場合には、動画を撮影する場合と比較すると、被写体の状況に応じて何度も撮影をし直すことが容易である。そこで、静止画を撮影する場合には、デジタルカメラ100は、記録の対象を内側領域のみに留め、また撮影に関する特定の処理(AF枠の移動範囲など)も内側領域に収める。また、このことで、撮影の対象の領域とAFの対象の領域とのいずれも内側領域にすることができるので、撮影後の静止画において撮影の対象外の領域にピントが合ってしまうことを抑制でき、好適な静止画を得ることができる。さらに、撮影時に、ユーザの意図した領域でピントが合うため、静止画の撮影準備にかかる手番の削減を実現できる。
[撮影モード処理]
 図4は、本実施形態におけるデジタルカメラ100の撮影モード処理(S304の処理)の主な処理を説明するフローチャートである。図4に示すフローチャートの処理は、システム制御部50が、不揮発性メモリ56に格納されたプログラムをシステムメモリ52に展開して実行することにより実現される。
 S401では、システム制御部50は、図5を用いて後述する表示関連処理を行う。
 S402~S410では、システム制御部50は、メニューにおける各種の設定変更の処理を行う。S402では、システム制御部50は、操作部70に対し、撮影モード(静止画モードと動画モード)を切り替えるためのモード切替操作がされたか否かを判定する。モード切替操作がされた場合にはS403に進み、そうでなければS404に進む。
 S403では、システム制御部50は、撮影モードを切り替える。具体的には、システム制御部50は、現在の撮影モードが静止画モードであれば動画モードに切り替え、現在の撮影モードが動画モードであれば静止画モードに切り替える。
 図7Aは、表示部28に表示されるメニュー画面の第1階層の例である。第1階層では、ユーザは、モード切替項目701における静止画701a(静止画モードを表す選択肢)と動画701b(動画モードを表す選択肢)のいずれかの選択肢を選択することにより、所望の撮影モードを選択することが可能である。このため、モード切替操作とは、現在の撮影モードではない撮影モードを表す選択肢を選択する操作であると言える。システム制御部50は、操作部70に対するユーザの操作によって選択された選択肢に応じて、撮影モードを切り替える。メニュー画面の他の各項目についても、同様に、ユーザは、複数の選択肢の中から1つを選択することで当該項目についての設定を切り替える操作をすることが可能である。
 S404では、システム制御部50は、操作部70に対し、アスペクトマーカー表示設定を切り替えるための表示切替操作がされたか否かを判定する。アスペクトマーカー表示設定とは、アスペクトマーカーを表示するか否か、および、アスペクトマーカーを表示する場合における内側領域のアスペクト比の設定である。表示切替操作がされた場合にはS405に進み、そうでなければS406に進む。
 例えば、図7Aのアスペクトマーカー設定項目702をユーザが選択すると、メニュー画面の第1階層の画面から、図7Bに示すアスペクトマーカーについての選択肢を選択するための専用画面(第2階層の画面)に遷移する。図7Bの例では、専用画面には、アスペクトマーカーを表示しない選択肢702aと、所定のアスペクト比に内側領域をするようなアスペクトマーカーを表示する選択肢702b~702fとが表示されている。ユーザは、選択肢702a~702fのいずれかを選択することで、表示切替操作を行う。選択肢702b~702fは、それぞれ内側領域のアスペクト比を1:1、4:5、5:4、9:16、2.35:1にするようにアスペクトマーカーを表示することを表す選択肢である。なお、本実施形態ではアスペクトマーカーの表示設定に応じてアスペクトマーカーを制御する例を説明しているが、アスペクトマーカーに限らない。つまり、アスペクトマーカーの代わりに、撮影に関する任意の補助線(例えば、グリッド線など)を用いてもよい。
 S405では、システム制御部50は、表示切替操作(選択肢702a~702fのうちいずれが選択されたか)に応じて、アスペクトマーカー表示設定を切り替える。
 S406では、システム制御部50は、現在の撮影モードが静止画モードか否かを判定する。現在の撮影モードが静止画モードである場合にはS407に進み、そうでなければ(現在の撮影モードが動画モードである場合には)S409に進む。
 S407では、システム制御部50は、操作部70に対し、範囲表示設定を切り替えるための操作であるGUI切替操作がされたか否かを判定する。範囲表示設定とは、静止画を撮影する場合の撮影範囲を示すGUIの表示(表示形態)の設定である。GUI切替操作がされた場合にはS408に進み、そうでなければS409に進む。
 ユーザは、図7Aの範囲表示設定の項目703における「線のみ」と「マスク」のいずれかの選択肢を選択することにより、GUI切替操作を行うことができる。具体的には、ユーザは、「線のみ」の選択肢を選択することにより、「撮影範囲をアスペクトマーカーのみによって表す設定」(線表示設定)を選択する操作を行うことができる。一方で、ユーザは、「マスク」の選択肢を選択することにより、「撮影範囲をアスペクトマーカーによって表すことに加えて、外側領域をマスクで覆って表す設定」(マスク表示設定)を選択する操作を行うことができる。なお、本実施形態における「マスク」は、ライブビュー画像に重畳表示される表示のことを指す。マスク表示によってライブビュー画像が完全に視認できない(マスクの透過度が0)としてもよいし、ライブビュー画像が視認できる程度の透過度があるマスクを用いてもよい。
 S408では、システム制御部50は、GUI切替操作に応じて、範囲表示設定を切り替える。
 S409では、システム制御部50は、操作部70に対し、AF関連設定を切り替えるための設定切替操作がされたか否かを判定する。設定切替操作がされた場合にはS410に進み、そうでなければS411に進む。
 図7Aにおいて、ユーザは、AFエリアの項目704において「一点AF」と「全域AF」を含む複数のAF方式のうちいずれかを選択することで、設定切替操作を行うことが可能である。また、ユーザは、トラッキングの項目705において被写体の検出をするか否かを選択することで、設定切替操作を行うことが可能である。
 S410では、システム制御部50は、設定切替操作に応じて、AF関連設定を切り替える。
 S411では、システム制御部50は、操作部70に対し、撮影を開始するための操作である撮影開始操作がされたか否かを判定する。撮影開始操作がされた場合にはS412に進み、そうでなければS415に進む。
 S412では、システム制御部50は、現在の撮影モードが静止画モードか否かを判定する。現在の撮影モードが静止画モードである場合にはS413に進む。現在の撮影モードが動画モードである場合にはS414に進む。
 S413では、システム制御部50は、静止画の撮影開始処理として、表示部28に表示されたライブビュー画像の内側領域のみの記録を開始する。
 S414では、システム制御部50は、動画の撮影開始処理として、内側領域のみならず外側領域も含めて、表示部28に表示されたライブビュー画像全体の記録を開始する。
 S415では、システム制御部50は、操作部70に対し、撮影を終了するための操作である撮影終了操作がされたか否かを判定する。撮影終了操作がされた場合にはS416に進み、そうでなければS417に進む。
 S416では、システム制御部50は、撮影終了処理を行う。例えば、撮影終了処理は、記録された画像を所定の形式でメディアへ配置する処理や、撮影時に使用したバッファを解放する処理などである。S416では、システム制御部50は、静止画モードで静止画を撮影した場合には、撮影した静止画を、静止画の画像ファイル(静止画ファイル)として記録媒体200に格納する。一方で、動画モードで静止画を撮影した場合には、システム制御部50は、撮影した動画を、動画の画像ファイル(動画ファイル)として記録媒体200に格納する。
 S417では、システム制御部50は、AF枠を移動させるか否かを判定する。例えば、AF方式として「一点AF」が設定されている場合には、AF枠を移動させるための操作(AF枠移動操作)がされていれば、システム制御部50はAF枠を移動させると判定する。AF枠移動操作は、ユーザによるタッチパネル70aへのタッチ操作や4方向キー74の方向キーいずれかへの操作などを指す。一方、AF方式として「全域AF」が設定されている場合には、ライブビュー画像においてAF枠が設定された被写体が移動すると、システム制御部50はAF枠を移動させると判定する。AF枠を移動させる場合にはS418に進み、そうでなければS422に進む。
 S418では、システム制御部50は、アスペクトマーカーよりも外の位置(外側領域)にAF枠が移動しようとしているか否かを判定する。例えば、AF方式として「一点AF」が設定されている場合には、AF枠移動操作により外側領域における位置が指示されていれば、システム制御部50は、AF枠が外側領域に移動しようとしていると判定する。一方、AF方式として「全域AF」が設定されている場合には、AF枠が設定された被写体(例えばAFを実行し続ける追尾の対象となっている被写体)が外側領域に移動すると、システム制御部50は、AF枠が外側領域に移動しようとしていると判定する。外側領域にAF枠が移動しようとしている場合にはS419に進み、そうでなければS421に進む。なお、S418の処理が実行されずに、S417にてAF枠を移動させると判定された場合には、S419に進んでもよい。
 S419では、システム制御部50は、後述するAF枠移動範囲制限のフラグ(制限フラグ)がONであるか否かを判定する。制限フラグがONである場合にはS420に進み、そうでなければS421に進む。制限フラグは、AF枠の移動(AF)が実行可能であるか、または実行不可であるかを示す。
 S420では、システム制御部50は、内側領域において、AF枠を移動させてAFを実行する。例えば、AF方式として「一点AF」が設定されている場合、システム制御部50は、内側領域のうちAF枠を移動させることが可能な位置であって、AF枠移動操作指示により指示された位置に最も近い位置にAF枠を移動させて、当該位置でAFを実行する。一方、AF方式として「全域AF」が設定されている場合、システム制御部50は、内側領域に位置する追尾対象の被写体に対してのみにAFを実行する。
 S421では、システム制御部50は、アスペクトマーカーの位置に関わらず、内側領域および外側領域を含むライブビュー画像の全体において、AF枠を移動させてAFを実行する。例えば、AF方式として「一点AF」が設定されている場合には、システム制御部50は、AF枠移動操作指示により指示された位置にAF枠を移動させて、当該位置でAFを実行する。一方、AF方式として「全域AF」が設定されている場合には、システム制御部50は、ライブビュー画像の全体において、追尾対象の被写体に重畳する位置にAF枠を移動させて、当該位置でAFを実行する。なお、S418にて外側領域にAF枠が移動しようとしていないと判定された場合には、AF枠が外側領域に移動しないため、結果として、S421では内側領域のみにおいてAFが実行されることになる。
 S422では、システム制御部50は、操作部70に対し、その他の操作がされたか否かを判定する。その他の操作がされた場合にはS423に進み、そうでなければS424に進む。
 S423では、システム制御部50は、その他の操作に応じて、その他の処理を行う。ここで、その他の操作、その他の処理とは、例えば撮影に関する他のパラメータ(シャッタースピード、露出補正など)を変える操作やそれに基づく処理である。
 S424では、システム制御部50は、操作部70に対し、撮影モードの終了操作がされたか否かを判定する。撮影モードの終了操作がされた場合には本フローチャートの処理が終了し、そうでなければS401に進む。終了操作とは、例えば、撮影モードと再生モードの切り替え操作などが該当する。
[表示関連処理;S401]
 図5は、本実施形態におけるデジタルカメラ100の表示関連処理のフローチャートである。図5に示すフローチャートの処理は、システム制御部50が、不揮発性メモリ56に格納されたプログラムをシステムメモリ52に展開して実行することにより実現される。
 S501では、システム制御部50は、撮像部22で検知した信号に基づき、表示部28にライブビュー画像を表示する。
 S502では、システム制御部50は、ライブビュー画像に重畳するように、アスペクトマーカー表示設定に応じて、表示部28にアスペクトマーカーを表示する。
 S503では、システム制御部50は、現在の撮影モードが静止画モードであるか否かを判定する。現在の撮影モードが動画モードである場合にはS507に進み、そうでなければS504に進む。
 S504では、システム制御部50は、範囲表示設定がマスク表示設定であれば、表示部28において外側領域にマスクを重畳して表示する(図8B参照)。一方で、範囲表示設定が線表示設定であれば、システム制御部50はマスクを表示しない(図8A参照)。
 S505では、システム制御部50は、ライブビュー画像に重畳して、図8Aの静止画モードの情報表示802のように、静止画モードに関連する情報を示す静止画用OSDを表示部28に表示する。静止画モードに関連する情報は、例えば、撮影可能枚数、バッテリ残量、ISO感度、シャッタースピード、または絞り数値などの情報を含む。
 S506では、システム制御部50は、制限フラグ(AF枠移動範囲制限のフラグ)をONにする。これにより、静止画モードでは、内側領域のみでAF枠が移動し、内側領域のみでAFが実行されるようになる。つまり、システム制御部50は、内側領域のみに対するAF枠の移動およびAFの実行を可能にし、外側領域に対するAF枠の移動およびAFの実行を不可にする。
 S507では、システム制御部50は、ライブビュー画像に重畳して、図9Aの動画モードの情報表示912のように、動画モードに関連する情報を示す動画用OSDを表示部28に表示する。動画モードに関連する情報は、例えば、撮影可能時間、バッテリ残量、ISO感度、または絞り数値などの情報を含む。
 S508では、システム制御部50は、制限フラグをOFFにする。これにより、動画モードでは、内側領域と外側領域を含むライブビュー画像全体の領域でAF枠が移動し、ライブビューが画像全体の領域でAFが実行されるようになる。つまり、システム制御部50は、内側領域および外側領域に対するAF枠の移動およびAFの実行を可能にする。
 S509では、システム制御部50は、現在のAF関連設定に基づき、ライブビュー画像にAF枠を重畳して、表示部28に表示する。
[撮影モード処理における画面]
 図8A~図9Cは、実施形態におけるデジタルカメラ100の撮影モード処理における画面例である。
 図8Aは、静止画モードにおける表示部28の画面である。図8Aは、撮影モードが静止画モード(S503NO)であり、S504にてマスクを表示しない場合の、S509の処理の終了時点の画面である。図8Aは、範囲表示設定が線表示設定(アスペクトマーカのみが表示される設定)である場合の画面例である。図8Aでは、ライブビュー画像801に重畳して、静止画モードの情報表示802、アスペクトマーカー803、AF枠804が表示されている。アスペクトマーカー803は、以降は、内側領域のアスペクト比を1:1にするアスペクトマーカーの例を示す。静止画モードにおいては、制限フラグがONであるため、AF枠804が2本のアスペクトマーカー803の外側(外側領域)に表示されることはなく、AFが実行されることもない。
 図8Bは、範囲表示設定がマスク表示設定(マスクも表示される設定)である場合の表示部28の画面例である。図8Bは、撮影モードが静止画モード(S503NO)であり、S504にてマスクを表示する場合の、S509の処理の終了時点の画面である。図8Bでは、ライブビュー画像801に重畳して、マスク805が表示されており、2本のアスペクトマーカー803の内側のライブビュー画像801のみが表示されている。図8Bの例では、撮影後の画像のイメージを持ちやすいというメリットがある。一方、図8Aの例では、撮影範囲外の被写体の様子も捉えやすく、内側領域のアスペクト比の変更(アスペクトマーカー803の位置の変更)がしやすいというメリットがある。
 図8Cは、静止画モードにおける撮影準備状態の表示部28の画面例である。図8Cは、図8Aの画面を表示している際に、S422のその他の操作として第1シャッタースイッチ62に対して操作がされた場合の、S423の処理の終了時点の画面である。第1シャッタースイッチ62に対して操作がされた場合には、この撮影準備状態へと遷移する。図8Cでは、ライブビュー画像801やアスペクトマーカー803は、図8Aと同様に表示されている。一方で、図8Cでは、撮影状態(撮影準備状態を含む)であることに応じた情報表示806や、AFを実行した結果を示す合焦枠807も表示されている。静止画モードでは制限フラグがONであるため、合焦枠807は、アスペクトマーカー803の外側に表示されることはない。
 なお、図8Cに示す画面が表示された状態で、第2シャッタースイッチ64に対して操作がされて撮影が行われると、ユーザがサイレントシャッター設定にしていた場合には、ライブビュー画像の外周に沿って描かれる枠である外周枠が表示される。サイレントシャッター設定とは、撮影時にシャッター音をさせないようにする設定である。外周枠は、シャッター音がしないために撮影タイミングを認識できないことがあるという課題を解消するために、撮影タイミング(撮影を行っていること)をユーザに通知するための枠である。
 図9Aは、動画モードにおける表示部28の画面の例である。図9Aは、撮影モードが動画モード(S503YES)である場合の、S509の処理の終了時点の画面である。図9Aでは、ライブビュー画像911に重畳して、動画モードの情報表示912、アスペクトマーカー913、マスク914、AF枠915が表示されている。動画モードでは、制限フラグがOFFであるため、AF枠915を外側領域(アスペクトマーカー913の外側)に表示可能である。
 図9Aに示す画面が表示された状態から、操作部70に対し、動画記録開始の操作がされた場合には、図9Bの画面へ遷移する。つまり、図9Bは、図9Aの画面が表示されている際に、動画撮影開始の操作がされた場合(S411YESかつS412NOの場合)の、S414の処理の終了時点の画面である。図9Bは、動画記録中の画面例であり、図9Aとは異なり、動画記録状態に応じた情報表示916が表示されている。この場合でも、制限フラグがOFFであるため、AF枠915を外側領域に表示可能である。
 なお、表示部28は、アスペクトマーカーと、アスペクトマーカー以外のマーカー(補助線)を同時に表示してもよい。例えば、表示部28は、図9Cに示すように、ライブビュー画像911における被写体の位置を確認するためのグリッド線917を、アスペクトマーカー913と同時に表示してもよい。この場合には、システム制御部50は、制限フラグに関わらず、グリッド線917に分割された2つの領域においてAF枠の移動を制限しなくてもよい。つまり、システム制御部50は、どの撮影モードであるかに関わらず、グリッド線917によって分割された2つの領域の両方を含む領域においてAF枠を移動させて、AFを実行するようにしてもよい。または、システム制御部50は、静止画モードであっても、グリッド線917により内側領域を2つ以上の領域に分割した場合には、当該2つ以上の領域においては、AF枠の移動(AFの実行)を制限しなく(不可にしなく)てもよい。つまり、システム制御部50は、どの撮影モードであるかに関わらず、グリッド線917が分割した2つ以上の領域を内側領域が含む場合には、当該2つ以上の領域を含む領域においてAF枠を移動させて、AFを実行するようにしてもよい。一方、グリッド線917が分割した2つ以上の領域を外側領域が含む場合には、動画モードであれば、システム制御部50は、当該2つ以上の領域を含む領域においてAF枠を移動させず、AFを実行しないようにしてもよい。また、システム制御部50は、静止画または動画の記録を開始したら(撮影を開始したら)、グリッド線917を非表示にしてもよい。
 図4~図9Cを用いて、アスペクトマーカーなどの補助線によって分割された2つの領域を含む画像に対して、モードに応じたAF枠の移動の制限(AF実行範囲の制限)を行う制御について説明を行った。このような制御により、ユーザは、最終的に使用する画像(動画像)の範囲内においてAFが実行された画像を取得することができ、画像(動画像)の撮影のし直しをすることの負荷を低減することができる。
 図6は、本実施形態におけるデジタルカメラ100の再生モード処理のフローチャートである。図6に示すフローチャートの処理は、システム制御部50が、不揮発性メモリ56に格納されたプログラムをシステムメモリ52に展開して実行することにより実現される。
 S601では、システム制御部50は、記録媒体200に格納されている画像ファイルを取得する。
 S602では、システム制御部50は、表示部28に対して、取得した画像ファイルを画像として再生する。
 S603では、システム制御部50は、S601にて取得した画像ファイルが動画ファイルであるか否かを判定する。画像ファイルが動画ファイルである場合にはS605に進み、そうでなければS604に進む。
 S604では、システム制御部50は、静止画ファイルに関する情報や、静止画ファイルに対する操作を行うための静止画GUIを、再生されている画像に重畳して表示部28に表示する。
 図10Aは、静止画の再生状態を示す表示部28の画面例である。再生中の画像1021に重畳して、静止画GUI1022が表示されている。また、再生中の画像1021は、S413において、アスペクト比を1:1とする設定に基づき撮影が行われた画像ファイルであるため、記録されていないブランク領域1023が、画像1021の両側に表示されている。
 S605では、システム制御部50は、動画ファイルに関する情報や、動画ファイルに対する操作を行うための動画GUIを、再生されている画像に重畳して表示部28に表示する。
 図10Bは、動画の再生状態を示す表示部28の画面例である。再生中の画像1024に重畳して、動画GUI1025が表示されている。また、再生中の画像1024は、S414において、内側領域のアスペクト比を1:1とする設定に基づき撮影が行われたファイルである。図10Bによれば、アスペクトマーカーの外の領域(外側領域)も含めて、記録されていることが分かる。
 S606では、システム制御部50は、操作部70に対し、表示部28に表示する画像ファイルを次のファイルに切り替える画像切替操作が行われたか否かを判定する。画像切替操作が行われた場合にはS607に進み、そうでなければS608に進む。
 S607では、システム制御部50は、表示部28に表示する(再生する)画像ファイルを次のファイルに切り替える。
 S608では、システム制御部50は、操作部70に対し、その他の操作がされたか否かを判定する。その他の操作がされた場合にはS609に進み、そうでなければS610に進む。
 S609では、システム制御部50は、その他の処理を行う。ここで、その他の操作、その他の処理とは、例えば再生に関する他のパラメータ(再生スピード、表示部28の明るさなど)を変える操作やそれに基づく処理である。
 S610では、システム制御部50は、操作部70に対し、再生モード処理の終了操作がされたか否かを判定する。再生モード処理の終了操作がされた場合には、本フローチャートの処理が終了する。そうでなければ、S602に進む。再生モード処理の終了操作とは、例えば、撮影モードと再生モードの切り替え操作などが該当する。
 前述したように、ユーザによってアスペクトマーカーなどの補助線を表示する設定にされている場合には、撮影モードに応じて、補助線によって分割された領域内でのみAFを実行するのか、領域外においてもAFを実行するのかの制御を行う。アスペクトマーカーを表示する設定である、かつ、静止画モードである場合には、アスペクトマーカーによって分割された画像の内側の領域(アスペクトマーカーによってアスペクト比が調整された画像の領域内)においてのみAFを実行する。静止画の場合、撮影した画像をユーザが使用する際に、補助線(アスペクトマーカー)の外の領域を使用しない場合がある。このような場合に、補助線の外の領域に合焦した画像であると、補助線の内側の使用する画像内に合焦位置がなく、ユーザの所望しない画像となってしまう場合がある。
 一方でアスペクトマーカーを表示する設定、かつ、動画モードである場合には、ユーザは、アスペクトマーカーの位置に関わらず撮影した動画全体を使用する可能性が高い。そのため、システム制御部50は、アスペクトマーカーの内側の領域のみではなく、外側の領域においてもAFを実行する。静止画モードにおいては、アスペクトマーカーの外側の領域を使用しない場合があるため、実際に撮像している画像よりも狭い範囲内においてのみAFを実行するようにしても不都合は少ないと考える。しかし、動画モードにおいては、実際に撮像する動画よりも狭い範囲においてのみAFを実行できないと、撮像可能な範囲の一部分でしか合焦をさせることができず、ユーザにとっての不都合が大きい。
 したがって、システム制御部50は、撮影モードに応じて、ユーザが使用するであろう画像の範囲内でのみAFを実行(合焦)するように制御を行う。これにより、ユーザは状況に応じて所望する範囲に対して、撮影に関する特定の処理であるAFを実行することができる。
 なお、本実施形態では、システム制御部50は、静止画モードでは制限フラグ(AF枠移動範囲制限のフラグ)をONとし、動画モードでは制限フラグをOFFとする例を説明したが、これに限らない。撮影モードに依らずに、システム制御部50は、内側領域のみを撮影するためのモードと、ライブビュー画像全体を撮影するためのモードとのいずれであるかに応じて、AFを実行する範囲を制限するか否かの処理を実行してもよい。具体的には、システム制御部50は、内側領域のみを撮影するモードでは制限フラグをONとし、ライブビュー画像全体を撮影するモードでは制限フラグをOFFとしてもよい。内側領域のみを撮影するモードとは、外側領域を含まずに、2本のアスペクトマーカー内の画像(内側領域)のみを記録に残すモードである。ライブビュー画像全体を撮影するモードとは、内側領域と外側領域を含む画像であって、アスペクトマーカー外も含む画像を記録に残すモードである。
 なお、AF枠の移動範囲の制限を設ける例を説明したが、これに限らない。制限を受ける特定の処理は、AE、ライブビュー画像の拡大表示の中心位置(ライブビュー画像を拡大表示する場合の中心位置)を設定(表示)する処理、被写体との合焦度合い(合焦状態)を示すガイド(フォーカスガイド)を表示する処理であってもよい。特定の処理は、マニュアルホワイトバランスの白取得位置を設定(表示)する処理などであってもよい。
 なお、図9Cを用いて説明したように、アスペクトマーカー以外の補助線などの補助情報を同時に表示する形態としてもよい。この場合には、システム制御部50は、アスペクトマーカーの位置に応じてAF枠の移動範囲を制限するが、他の補助情報に応じては、AF枠の移動範囲を制限しない(補助情報に関わらずAF枠の移動を実行可能にする)ようにしてもよいし、制限するようにしてもよい。例えば、システム制御部50は、補助線により区切られたセーフティゾーンを表示する場合には、動画モードであっても、セーフティゾーンへのAF枠の移動範囲(セーフティーゾーンでのAFの実行)を制限する(AFの実行を不可にする)ようにしてもよい。つまり、システム制御部50は、どの撮影モードであるかに関わらず、セーフティゾーンを示すための補助線によって分割された2つの領域のうちセーフティゾーンにおいてはAF枠を移動させず、AFを実行させないようにしてもよい。セーフティゾーンとは、PCやテレビなど、複数の媒体での配信を想定し、編集でテロップなどを挿入しても見切れない範囲を示す補助情報である。
 また、システム制御部50は、アスペクトマーカーを表示する場合であっても、内側領域のアスペクト比を選択する選択肢(図7B参照)に応じて、制限フラグをONにするか否かを変えてもよい。上述のように、制限フラグがONにされれば、システム制御部50は、内側領域においてのみAF枠を移動させて、AFを実行する。制限フラグがOFFにされれば、システム制御部50は、内側領域と外側領域との両方を含む領域に対して、AF枠を移動させて、AFを実行する。例えば、内側領域のアスペクト比を1:1とする場合には、システム制御部50は、アスペクト比が16:9の通常の動画と、SNSなどに投稿する1:1の動画とを生成することを想定し、制限フラグをOFFとする。一方、内側領域のアスペクト比を2.35:1とする場合(映画向けのアスペクトマーカーを選択した場合)には、システム制御部50は、映画の本編の撮影のみを目的とすると想定し、動画モードであってもAF枠の移動制限をONとしてもよい。
 なお、システム制御部50は、静止画モードにおいても(いずれの撮影モードであっても)、ユーザによって被写体が選択され、その被写体を主被写体として追尾する状態においては、制限フラグをOFFにしてもよい。他にも、システム制御部50は、所定の場合には、静止画モードであっても(いずれの撮影モードであっても)制限フラグをOFFにしてもよい。所定の場合とは、個人として認証登録された被写体がAF枠によって示されている場合(AFの対象が、予め登録された被写体である場合)や、AF関連の設定が動く被写体を想定した設定(SERVOやトラッキング)がされている場合である。SERVO(コンティニュアス)とは、所定の条件を満たす(例えば、第1シャッタースイッチ62を継続して押下している)と、被写体を追尾して、当該被写体に対して合焦し続ける(ピントを合わし続ける)設定である。
 さらに、システム制御部50は、静止画モードにおいても、AF枠が人物以外を示す場合(特定の処理の対象が人物以外である場合)には、その対象が大きく動く可能性が高いので、制限フラグをOFFにしてもよい。また、システム制御部50は、位置を指示するための特定の操作部(例えば、視線検出回路165)に対する操作が可能である状態では、静止画モードであっても、制限フラグをOFFにしてもよい。これによれば、いずれの撮影モードであっても、ユーザは、ライブビュー画像の全体において位置を指示することができる。
 また、システム制御部50は、静止画モードと動画モードであるかではなく、止まっている被写体の画像を撮影するためのモードと、動いている被写体の画像を撮影するためのモードのいずれであるかに応じて、制限フラグを設定してもよい。例えば、システム制御部50は、止まっている被写体の画像を撮影するためのモードであれば、制限フラグをONにする。システム制御部50は、動いている被写体の画像を撮影するためのモードであれば、制限フラグをOFFにする。同様に、特定のSNSにアップロードされる設定(例えばSNS撮影モードがオン)に、ユーザによってされている場合には、システム制御部50は、静止画/動画モードのいずれのモードであっても制限フラグをオンに設定してもよい。さらには、デジタルカメラ100がインターネットと接続し、特定のSNSに対してストリーミング配信を行う場合には、システム制御部50は、アップロードするSNSの表示形式に合わせて制限フラグを設定してもよい。SNSによっては、アスペクトマーカーよりも内側の領域のみ(つまり1:1の領域)を他のユーザが見られるようにするものもあれば、アスペクトマーカーの外側の領域(つまり16:9の領域)も他のユーザが見られるものもある。そのため、システム制御部50は、デジタルカメラ100が通信部54を介してアップロードを行うSNSと通信を行って、デジタルカメラ100と接続しているSNSを識別してもよい。そして、システム制御部50は、識別したSNS(SNSの表示形式)に応じて、制限フラグのオン/オフの設定を変更してもよい。また、通信部54を介してSNSを識別せずとも、ユーザによって特定のSNSが指定されている場合は、システム制御部50は、指定されたSNSに応じて制限フラグの設定を変更してもよい。
 また、各図において、アスペクトマーカーは実線によって表現しているが、この限りではない。点線や他の表現方法による線によって、アスペクトマーカーを表現してもよいでもよい。システム制御部50は、撮影時に表示していたアスペクトマーカーの情報を画像ファイルに付与し、再生モード(再生時)においてもOSDとしてアスペクトマーカーを表示してもよい。
 また、本発明をその好適な実施形態に基づいて詳述してきたが、本発明はこれら特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。さらに、上述した各実施形態は本発明の一実施形態を示すものにすぎず、各実施形態を適宜組み合わせることも可能である。
 なお、システム制御部50が行うものとして説明した上述の各種制御は1つのハードウェアが行ってもよいし、複数のハードウェア(例えば、複数のプロセッサや回路)が処理を分担することで、装置全体の制御を行ってもよい。
 また、本発明をその好適な実施形態に基づいて詳述してきたが、本発明はこれら特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。さらに、上述した各実施形態は本発明の一実施形態を示すものにすぎず、各実施形態を適宜組み合わせることも可能である。
 また、上述した実施形態においては、本発明をデジタルカメラに適用した場合を例にして説明したが、これはこの例に限定されず、撮影手段を有する電子機器であれば適用可能である。すなわち、本発明は、パーソナルコンピュータやPDA、携帯電話端末や携帯型の画像ビューワ、ディスプレイを備えるプリンタ装置、デジタルフォトフレーム、音楽プレーヤー、ゲーム機、電子ブックリーダーなどに適用可能である。
 また、デジタルカメラである撮像装置本体に限らず、有線または無線通信を介して撮像装置(ネットワークカメラを含む)と通信し、撮像装置を遠隔で制御する制御装置にも本発明を適用可能である。撮像装置を遠隔で制御する装置としては、例えば、スマートフォンやタブレットPC、デスクトップPCなどの装置がある。制御装置側で行われた操作や制御装置側で行われた処理に基づいて、制御装置側から撮像装置に各種動作や設定を行わせるコマンドを通知することにより、撮像装置を遠隔から制御可能である。また、撮像装置で撮影したライブビュー画像を有線または無線通信を介して受信して制御装置側で表示できるようにしてもよい。
 なお、上記の各実施形態(各変形例)の各機能部は、個別のハードウェアであってもよいし、そうでなくてもよい。2つ以上の機能部の機能が、共通のハードウェアによって実現されてもよい。1つの機能部の複数の機能のそれぞれが、個別のハードウェアによって実現されてもよい。1つの機能部の2つ以上の機能が、共通のハードウェアによって実現されてもよい。また、各機能部は、ASIC、FPGA、DSPなどのハードウェアによって実現されてもよいし、そうでなくてもよい。例えば、装置が、プロセッサと、制御プログラムが格納されたメモリ(記憶媒体)とを有していてもよい。そして、装置が有する少なくとも一部の機能部の機能が、プロセッサがメモリから制御プログラムを読み出して実行することにより実現されてもよい。
(その他の実施形態)
 本発明は、上記の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
 本発明は上記実施の形態に制限されるものではなく、本発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、本発明の範囲を公にするために以下の請求項を添付する。
 本願は、2021年7月26日提出の日本国特許出願特願2021-121504を基礎として優先権を主張するものであり、その記載内容の全てをここに援用する。
100:デジタルカメラ、28:表示部、50:システム制御部

Claims (18)

  1.  画像を少なくとも第1の領域と第2の領域とに分割する第1の補助線を前記画像に重畳して表示手段に表示するように制御する表示制御手段と、
     第1の種類の画像を撮影するための第1のモードでは、前記第1の領域に対しては撮影に関する特定の処理を実行不可にし、前記第2の領域に対しては前記特定の処理を実行可能にするように制御し、
     前記第1の種類の画像とは異なる第2の種類の画像を撮影するための第2のモードでは、前記第1の領域と前記第2の領域とを含む領域に対して、前記特定の処理を実行可能にするように制御する制御手段と
    を有することを特徴とする電子機器。
  2.  前記第1の種類の画像とは、前記第2の領域を含み、かつ、前記第1の領域を含まない画像であり、
     前記第2の種類の画像とは、前記第1の領域および前記第2の領域を含む画像である
    ことを特徴とする請求項1に記載の電子機器。
  3.  前記第1の種類の画像は、静止画であり、
     前記第2の種類の画像は、動画である
    ことを特徴とする請求項1または2に記載の電子機器。
  4.  前記第1の種類の画像は、止まっている被写体の画像であり、
     前記第2の種類の画像は、動いている被写体の画像である
    ことを特徴とする請求項1から3のいずれか1項に記載の電子機器。
  5.  前記表示制御手段は、さらに、前記画像を少なくとも第3の領域と第4の領域とに分割する第2の補助線を前記画像に重畳して前記表示手段に表示するように制御可能であり、
     前記制御手段は、前記第2の補助線を前記画像に表示する状態では、前記第1のモードと前記第2のモードのいずれかに関わらず、前記第3の領域と前記第4の領域とを含む領域に対して、前記特定の処理を実行可能にするように制御する
    ことを特徴とする請求項1から4のいずれか1項に記載の電子機器。
  6.  前記表示制御手段は、さらに、前記画像を少なくとも第3の領域と第4の領域とに分割する第2の補助線を前記画像に重畳して前記表示手段に表示するように制御可能であり、
     前記制御手段は、前記第2の補助線を前記画像に表示する状態では、前記第1のモードと前記第2のモードのいずれかに関わらず、前記第3の領域に対しては撮影に関する特定の処理を実行不可にするように制御する
    ことを特徴とする請求項1から4のいずれか1項に記載の電子機器。
  7.  前記特定の処理とは、オートフォーカスである
    ことを特徴とする請求項1から6のいずれか1項に記載の電子機器。
  8.  前記特定の処理とは、合焦状態を示すガイドを表示する処理である
    ことを特徴とする請求項1から6のいずれか1項に記載の電子機器。
  9.  前記特定の処理とは、画像を拡大表示する場合の中心位置を設定する処理である
    ことを特徴とする請求項1から6のいずれか1項に記載の電子機器。
  10.  前記制御手段は、特定の被写体を追尾している状態であれば、前記第1のモードと前記第2のモードのいずれかに関わらず、前記第1の領域と前記第2の領域とを含む領域に対して前記特定の処理を実行可能にするように制御する
    ことを特徴とする請求項1から9のいずれか1項に記載の電子機器。
  11.  前記制御手段は、所定の設定がされていれば、前記第1のモードと前記第2のモードのいずれかに関わらず、前記第1の領域と前記第2の領域とを含む領域に対して前記特定の処理を実行可能にするように制御し、
     前記所定の設定とは、所定の条件を満たすと特定の被写体を追尾して、当該特定の被写体に対して合焦し続ける設定である
    ことを特徴とする請求項1から10のいずれか1項に記載の電子機器。
  12.  前記制御手段は、前記第2のモードであっても、前記第1の領域のアスペクト比が所定のアスペクト比であれば、前記第1の領域に対しては撮影に関する特定の処理を実行不可にし、前記第2の領域に対しては前記特定の処理を実行可能にするように制御する
    ことを特徴とする請求項1から11のいずれか1項に記載の電子機器。
  13.  前記制御手段は、前記第1のモードであっても、前記特定の処理の対象が人物以外である場合には、前記第1の領域と前記第2の領域とを含む領域に対して、前記特定の処理を実行可能にするように制御する
    ことを特徴とする請求項1から12のいずれか1項に記載の電子機器。
  14.  前記制御手段は、前記第1のモードであっても、前記特定の処理の対象が登録された被写体である場合には、前記第1の領域と前記第2の領域とを含む領域に対して、前記特定の処理を実行可能にするように制御する
    ことを特徴とする請求項1から13のいずれか1項に記載の電子機器。
  15.  前記電子機器とは、撮像装置であることを特徴とする請求項1から14のいずれか1項に記載の電子機器。
  16.  画像を少なくとも第1の領域と第2の領域とに分割する第1の補助線を前記画像に重畳して表示手段に表示するように制御する表示制御ステップと、
     第1の種類の画像を撮影するための第1のモードでは、前記第1の領域に対しては撮影に関する特定の処理を実行不可にし、前記第2の領域に対しては前記特定の処理を実行可能にするように制御する第1の制御ステップと、
     前記第1の種類の画像とは異なる第2の種類の画像を撮影するための第2のモードでは、前記第1の領域と前記第2の領域とを含む領域に対して、前記特定の処理を実行可能にするように制御する第2の制御ステップと
    を有することを特徴とする電子機器の制御方法。
  17.  コンピュータを、請求項1から15のいずれか1項に記載された電子機器の各手段として機能させるためのプログラム。
  18.  コンピュータを、請求項1から15のいずれか1項に記載された電子機器の各手段として機能させるためのプログラムを格納したコンピュータが読み取り可能な記憶媒体。
PCT/JP2022/019861 2021-07-26 2022-05-10 電子機器、電子機器の制御方法、プログラム、記憶媒体 WO2023007904A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
GB2402668.4A GB2624576A (en) 2021-07-26 2022-05-10 Electronic device, electronic device control method, program, and storage medium
DE112022003682.6T DE112022003682T5 (de) 2021-07-26 2022-05-10 Elektronische Einrichtung, Steuerungsverfahren für elektronische Einrichtung, Programm und Speichermedium
US18/416,976 US20240163553A1 (en) 2021-07-26 2024-01-19 Electronic device, and control method of electronic device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021121504A JP2023017312A (ja) 2021-07-26 2021-07-26 電子機器、電子機器の制御方法、プログラム、記憶媒体
JP2021-121504 2021-07-26

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US18/416,976 Continuation US20240163553A1 (en) 2021-07-26 2024-01-19 Electronic device, and control method of electronic device

Publications (1)

Publication Number Publication Date
WO2023007904A1 true WO2023007904A1 (ja) 2023-02-02

Family

ID=85086584

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/019861 WO2023007904A1 (ja) 2021-07-26 2022-05-10 電子機器、電子機器の制御方法、プログラム、記憶媒体

Country Status (5)

Country Link
US (1) US20240163553A1 (ja)
JP (1) JP2023017312A (ja)
DE (1) DE112022003682T5 (ja)
GB (1) GB2624576A (ja)
WO (1) WO2023007904A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009028703A1 (ja) * 2007-08-27 2009-03-05 Sony Corporation 撮像装置及び撮像方法
JP2010226185A (ja) * 2009-03-19 2010-10-07 Olympus Imaging Corp 撮像装置および撮像装置の制御方法
JP2014137535A (ja) * 2013-01-18 2014-07-28 Olympus Imaging Corp 撮像装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111278649A (zh) 2017-10-24 2020-06-12 大金工业株式会社 层积体

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009028703A1 (ja) * 2007-08-27 2009-03-05 Sony Corporation 撮像装置及び撮像方法
JP2010226185A (ja) * 2009-03-19 2010-10-07 Olympus Imaging Corp 撮像装置および撮像装置の制御方法
JP2014137535A (ja) * 2013-01-18 2014-07-28 Olympus Imaging Corp 撮像装置

Also Published As

Publication number Publication date
US20240163553A1 (en) 2024-05-16
DE112022003682T5 (de) 2024-05-29
GB202402668D0 (en) 2024-04-10
JP2023017312A (ja) 2023-02-07
GB2624576A (en) 2024-05-22

Similar Documents

Publication Publication Date Title
US10911663B2 (en) Electronic apparatus and method for controlling the same
US11240419B2 (en) Electronic device that can execute function in accordance with line of sight of user, method of controlling electronic device, and non-transitory computer readable medium
US20230300446A1 (en) Electronic device, control method thereof, and recording medium
JP7467071B2 (ja) 電子機器、電子機器の制御方法、プログラム、記憶媒体
US20220321770A1 (en) Electronic device, control method for electronic device, and non-transitory computer readable storage medium
JP7301615B2 (ja) 電子機器およびその制御方法
US20210281733A1 (en) Electronic device, control method, and non-transitory computer readable medium
JP7490372B2 (ja) 撮像制御装置及びその制御方法
JP2021022897A (ja) 電子機器、電子機器の制御方法、プログラムおよび記憶媒体
US11843850B2 (en) Apparatus, method for apparatus, and storage medium
US11442244B2 (en) Imaging device
JP7431567B2 (ja) 電子機器およびその制御方法、プログラム、並びに記憶媒体
WO2023007904A1 (ja) 電子機器、電子機器の制御方法、プログラム、記憶媒体
JP2021097356A (ja) 撮像制御装置
JP2021140590A (ja) 電子機器、電子機器の制御方法、プログラム、記憶媒体
JP2020197976A (ja) 電子機器、電子機器の制御方法、プログラム、記憶媒体
US20230291995A1 (en) Electronic apparatus, method for controlling electronic apparatus, and storage medium
US20220400207A1 (en) Electronic apparatus, control method for electronic apparatus, program, and storage medium
US20230289995A1 (en) Electronic apparatus, method for controlling electronic apparatus, and storage medium
JP7451255B2 (ja) 電子機器及びその制御方法
WO2024095888A1 (ja) 撮像装置、制御方法およびプログラム
JP2022095306A (ja) 表示制御装置及びその制御方法
US20230328357A1 (en) Electronic device, control method thereof, and recording medium
JP2022095264A (ja) 表示制御装置及びその制御方法
JP2021082188A (ja) 電子機器、電子機器の制御方法、プログラム、記憶媒体

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 202402668

Country of ref document: GB

Kind code of ref document: A

Free format text: PCT FILING DATE = 20220510