WO2015045911A1 - 撮影装置、撮影方法、およびプログラム - Google Patents

撮影装置、撮影方法、およびプログラム Download PDF

Info

Publication number
WO2015045911A1
WO2015045911A1 PCT/JP2014/074241 JP2014074241W WO2015045911A1 WO 2015045911 A1 WO2015045911 A1 WO 2015045911A1 JP 2014074241 W JP2014074241 W JP 2014074241W WO 2015045911 A1 WO2015045911 A1 WO 2015045911A1
Authority
WO
WIPO (PCT)
Prior art keywords
unit
area
image
region
focus
Prior art date
Application number
PCT/JP2014/074241
Other languages
English (en)
French (fr)
Inventor
福田 晃
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to US15/022,145 priority Critical patent/US10440252B2/en
Priority to EP14848520.4A priority patent/EP3032307A4/en
Priority to CN201480051175.3A priority patent/CN105765434B/zh
Priority to JP2015539109A priority patent/JP6701512B2/ja
Publication of WO2015045911A1 publication Critical patent/WO2015045911A1/ja
Priority to US16/574,162 priority patent/US10972652B2/en
Priority to US17/220,572 priority patent/US11659277B2/en
Priority to US18/310,721 priority patent/US20230269471A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/675Focus control based on electronic image sensor signals comprising setting of focusing regions
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/36Systems for automatic generation of focusing signals using image sharpness techniques, e.g. image processing techniques for generating autofocus signals
    • G02B7/365Systems for automatic generation of focusing signals using image sharpness techniques, e.g. image processing techniques for generating autofocus signals by analysis of the spatial frequency components of the image
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/32Means for focusing
    • G03B13/34Power focusing
    • G03B13/36Autofocus systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/672Focus control based on electronic image sensor signals based on the phase difference signals

Definitions

  • the present disclosure relates to a photographing apparatus, a photographing method, and a program, and particularly relates to a photographing apparatus, a photographing method, and a program that can easily set the type of a subject to be focused for each photographing.
  • the photographing apparatus has a function of detecting a specific subject such as a human face in an image and focusing on the subject (see, for example, Patent Document 1).
  • the present disclosure has been made in view of such a situation, and makes it possible to easily set the type of a subject to be focused for each shooting.
  • An imaging device includes an acquisition unit that acquires an image, and a first selection that selects a first type of a subject to be focused on in units of imaging of the image acquired by the acquisition unit And when the first type is selected by the first selection unit, a first detection unit that detects an area of the subject of the first type from the image, and the first detection unit And a region setting unit configured to set the detected region as a focused region of the image.
  • the imaging method and program according to one aspect of the present disclosure correspond to the imaging apparatus according to one aspect of the present disclosure.
  • a first type of a subject to be focused is selected in a unit of photographing of the image, and the first type is selected, the first type is selected.
  • a region of the type of subject is detected from the image, and the region is set as a focus region of the image.
  • the subject can be focused and photographed. Further, according to one aspect of the present disclosure, the type of subject to be focused can be easily set for each shooting.
  • FIGS. 1 to 3 are diagrams illustrating an external configuration example of a first embodiment of a photographing apparatus to which the present disclosure is applied.
  • 1 is a front view of the photographing apparatus
  • FIG. 2 is a rear view of the photographing apparatus
  • FIG. 3 is a top view of the photographing apparatus.
  • the surface on which the lens of the photographing apparatus is arranged is called the front surface, and the surface facing the front surface is called the back surface.
  • a direction perpendicular to the front surface and the back surface is referred to as a depth direction.
  • a lens 10 ⁇ / b> A is arranged on the front side of the photographing apparatus 10 in the center on the right side when viewed from the subject.
  • the lens 10A collects light from the subject.
  • a release button 11 is disposed on the upper surface of the photographing apparatus 10 on the left side when viewed from the subject.
  • the release button 11 is fully pressed when shooting.
  • the release button 11 is used when a focus is set (focused) on a predetermined area in the image (for example, a center area of the image, an area of a subject whose position in the depth direction is closest to the photographing apparatus 10). Pressed.
  • a power button 11 ⁇ / b> A is added to the release button 11.
  • the power button 11A is operated when the photographing apparatus 10 is turned on.
  • a mode dial 12 is disposed on the right side of the release button 11 when viewed from the subject, and a custom button 13 is disposed on the left side, as viewed from the subject.
  • the mode dial 12 is operated when selecting a shooting mode.
  • the custom button 13 is a button to which a user can assign a desired function.
  • a front dial 14 is disposed on the front surface of the photographing apparatus 10 on the upper left side of the lens 10A when viewed from the subject.
  • the front dial 14 is operated, for example, when adjusting the shutter speed.
  • a lens lock button 15 is disposed on the front surface of the photographing apparatus 10 adjacent to the lens 10A.
  • the lens lock button 15 is operated when the lens 10 ⁇ / b> A is removed from the photographing apparatus 10.
  • a menu button 16 is arranged on the upper left side of the photographing apparatus 10 toward the subject.
  • the menu button 16 is pressed when displaying a menu screen.
  • a finder 17 is disposed on the upper right side of the menu button 16 on the back of the photographing apparatus 10 toward the subject, and a diopter adjustment dial 17A is located on the right side of the finder 17 toward the subject. Is placed.
  • the viewfinder 17 is a liquid crystal panel for confirming a subject at the time of shooting.
  • the diopter adjustment dial 17A is operated when the power of the finder 17 is adjusted.
  • the user operates the diopter adjustment dial 17A so that the image displayed on the finder 17 is easy to see. Thereby, an image suitable for the user's eyesight is displayed on the finder 17.
  • a custom button 18 is disposed on the lower right side of the finder 17 on the back of the photographing apparatus 10 toward the subject, and a rear dial 19 is disposed on the right side of the custom button 18 toward the subject. Is placed. Similar to the custom button 13, the custom button 18 is a button to which a user can assign a desired function. The rear dial 19 is operated, for example, when adjusting the aperture value.
  • a recording button 20 is arranged on the lower right side of the rear dial 19 of the photographing apparatus 10 toward the subject.
  • the recording button 20 is pressed when shooting a moving image.
  • an AEL button 21 is disposed below the custom button 18 on the back of the photographing apparatus 10, and an Fn button 22 is disposed below the AEL button 21.
  • the AEL button 21 is pressed, for example, when fixing the exposure of the entire screen.
  • the Fn button 22 is pressed when displaying a setting screen for setting various shooting-related functions.
  • a cross key 23 is arranged under the Fn button 22 on the back of the photographing apparatus 10.
  • the cross key 23 includes an upper button 23A, a lower button 23B, a left button 23C, a right button 23D, and a center button 23E.
  • the buttons 23A to 23D of the cross key 23 are pressed when the menu screen displayed on the liquid crystal monitor 26, the cursor in the setting screen, or the like is moved up, down, left, or right.
  • the center button 23E is pressed, for example, when a determination is instructed on a menu screen or a setting screen displayed on the liquid crystal monitor 26.
  • the center button 23E is pressed when the pupil is selected as the type of subject to be focused in the shooting unit in a state where the menu screen or setting screen is not displayed on the liquid crystal monitor 26. That is, the center button 23E when the menu screen or the setting screen is not displayed on the liquid crystal monitor 26 functions as a selection unit that selects the pupil as the type of subject to be focused in the photographing unit.
  • a playback button 24 is disposed on the lower left side and a delete button 25 is disposed on the lower right side toward the subject of the cross key 23 on the back of the photographing apparatus 10.
  • the playback button 24 is pressed when playing back a captured image.
  • the delete button 25 is pressed when deleting a captured image displayed on the liquid crystal monitor 26.
  • a liquid crystal monitor 26 is disposed on the left side of the photographing device 10 facing the subject.
  • the liquid crystal monitor 26 displays a menu screen, a setting screen, a captured image, and the like.
  • FIG. 4 is a block diagram illustrating a hardware configuration example of the photographing apparatus 10.
  • the photographing apparatus 10 includes an optical system 41, an image sensor 42, an image processing unit 43, a compression processing unit 44, a media control unit 45, a recording medium 46, a focusing control unit 48, and a microcomputer 47.
  • the photographing apparatus 10 includes a focus control unit 48, an actuator 49, a display unit 50, a memory 51, and an operation unit 52.
  • the photographing apparatus 10 focuses on the pupil in the image.
  • the optical system 41 and the image sensor 42 function as an acquisition unit and acquire an image. More specifically, the optical system 41 includes a lens 10A, a diaphragm (not shown), and the like. The optical system 41 collects light from the subject on the image sensor 42. The optical system 41 is driven by an actuator 49.
  • the image sensor 42 photoelectrically converts the light collected by the lens 10A in units of pixels, and acquires an electrical signal that is an analog signal of each pixel of the image. Further, the image sensor 42 acquires phase difference information representing the amount of deviation from the in-focus plane of the image in a detection unit composed of one or more pixels based on the light collected by the optical system 41. The image sensor 42 supplies an electric signal of each pixel to the image processing unit 43 and supplies phase difference information to the focusing control unit 48.
  • the image processing unit 43 performs image processing such as A / D conversion on the electrical signal of each pixel of the image supplied from the image sensor 42.
  • the image processing unit 43 supplies image data, which is digital data of each pixel of the image obtained as a result, to the compression processing unit 44 and the microcomputer 47.
  • the compression processing unit 44 compresses the image data supplied from the image processing unit 43 as necessary.
  • the compression processing unit 44 supplies the compressed image data to the media control unit 45.
  • the media control unit 45 controls the recording medium 46 to record the compressed image data supplied from the compression processing unit 44 on the recording medium 46. In this manner, the process in which an image is acquired and compressed by the image sensor 42 and the compressed image data is recorded is called photographing.
  • the recording medium 46 records the compressed image data under the control of the media control unit 45.
  • the microcomputer 47 controls each part of the photographing apparatus 10. For example, the microcomputer 47 sets a face detection mode based on an operation signal representing an operation from the user supplied from the operation unit 52, and supplies the face detection mode to the memory 51 for storage.
  • the microcomputer 47 displays a menu screen or a setting screen on the liquid crystal monitor 26 of the display unit 50 based on the operation signal, or displays an image based on the image data from the image processing unit 43 on the display unit 50.
  • the microcomputer 47 functions as a focusing area control unit that controls the focusing area. Specifically, the microcomputer 47 detects a face area from the image data supplied from the image processing unit 43. Further, the microcomputer 47 displays an image based on an operation signal representing the pressing of the center button 23E supplied from the operation unit 52 when the menu screen or setting screen is not displayed on the liquid crystal monitor 26, and the face area. The pupil region is detected from the data. The microcomputer 47 sets a face area, a pupil area, or a predetermined area as a focusing area based on the face detection mode and the operation signal stored in the memory 51, and sets the focusing area as a focusing control unit 48. To supply.
  • the focus control unit 48 controls the actuator 49 based on the focus area supplied from the microcomputer 47 and the phase difference information supplied from the image sensor 42 so that the focus area is in focus.
  • the actuator 49 is controlled by the focus control unit 48 or the like.
  • the actuator 49 drives the optical system 41 and controls the focus position, aperture value, and zoom magnification.
  • the display unit 50 includes the finder 17 and the liquid crystal monitor 26 shown in FIG.
  • the display unit 50 displays a captured image based on image data of a captured image (an image to be compressed and recorded) under the control of the microcomputer 47.
  • the display unit 50 displays an image based on image data of an image that is not a captured image (an image that is not compressed and recorded) as a live view image under the control of the microcomputer 47.
  • the liquid crystal monitor 26 of the display unit 50 displays a menu screen and a setting screen under the control of the microcomputer 47.
  • the memory 51 is a work area of the microcomputer 47.
  • the memory 51 stores intermediate results and final results of processing by the microcomputer 47.
  • the memory 51 stores the face detection mode supplied from the microcomputer 47.
  • the operation unit 52 sends operation signals representing operations of the release button 11, the power button 11A, the mode dial 12, the custom button 13, the front dial 14, the menu button 16, the diopter adjustment dial 17A, and the custom button 18 to the microcomputer 47.
  • the operation unit 52 supplies operation signals representing operations of the rear dial 19, the recording button 20, the AEL button 21, the Fn button 22, the cross key 23, the playback button 24, and the delete button 25 to the microcomputer 47.
  • FIG. 5 is a block diagram showing a configuration example of a focusing area control unit realized by the microcomputer 47 of FIG.
  • a face detection unit 71 includes a face detection unit 71, a pupil detection unit 72, a region setting unit 73, and a display control unit 74.
  • the face detection unit 71 of the focus area control unit 70 reads the face detection mode from the memory 51.
  • the face detection unit 71 detects a face area from the image data supplied from the image processing unit 43 based on the face detection mode.
  • the face detection unit 71 supplies the face region to the pupil detection unit 72, the region setting unit 73, and the display control unit 74.
  • the pupil detection unit 72 reads the face detection mode from the memory 51.
  • the pupil detection unit 72 determines whether or not an operation signal indicating depression of the center button 23E is supplied from the operation unit 52 in a state where the menu screen or the setting screen is not displayed on the liquid crystal monitor 26.
  • the pupil detection unit 72 detects the pupil region from the image data based on the determination result, the face detection mode, and the face region supplied from the face detection unit 71.
  • the pupil detection unit 72 supplies the pupil region to the region setting unit 73.
  • the area setting unit 73 reads the face detection mode from the memory 51. Based on the face detection mode and the operation signal indicating half-press of the release button 11 supplied from the operation unit 52, the region setting unit 73 sets the face region, the pupil region, or the default region as the focus region in photographing units. Set as. The region setting unit 73 supplies the focus region to the display control unit 74 and the focus control unit 48 in FIG.
  • the display control unit 74 reads the face detection mode from the memory 51.
  • the display control unit 74 causes the display unit 50 to display the face frame representing the face area supplied from the face detection unit 71 on the live view image being displayed based on the face detection mode. Further, the display control unit 74 causes the display unit 50 to display the frame representing the focus area supplied from the area setting unit 73 on the live view image being displayed.
  • FIG. 6 is a diagram illustrating an example of a setting screen for the face detection function displayed on the liquid crystal monitor 26.
  • the face detection function setting screen is displayed when the Fn button 22 is pressed by the user.
  • the face detection function setting screen 80 includes a face detection off mode button 81 operated when selecting a face detection off mode in which the face area is not focused as the face detection mode.
  • the setting screen 80 is operated when selecting a registered face detection mode in which, as a face detection mode, a registered face image area that is a pre-registered face image is focused preferentially over other face areas.
  • a registered face mode button 82 is included.
  • the image data of the registered face image is stored in the memory 51, for example.
  • the face detection unit 71 matches the image data supplied from the image processing unit 43 with the image data of the registered face image, thereby converting the registered face image region into a face region. Detect as.
  • the face detecting unit 71 detects a face image area other than the registered face image as the face area.
  • the setting screen 80 includes a face detection on mode button 83 that is operated when selecting the face detection on mode for focusing on the face area as the face detection mode.
  • the setting screen 80 also includes a smile shutter mode button 84 that is operated when selecting a smile shutter mode for capturing an image in which a smile is detected as the face detection mode.
  • a cursor 85 is superimposed on any of the face detection off mode button 81, the registered face mode button 82, the face detection on mode button 83, and the smile shutter mode button 84 in the setting screen 80.
  • the user moves the cursor 85 by pressing the buttons 23A to 23D of the cross key 23.
  • the cursor 85 is superimposed on the face detection off mode button 81, the registered face mode button 82, the face detection on mode button 83, or the smile shutter mode button 84 corresponding to the desired face detection mode, the user The button 23E is pressed.
  • the face detection mode corresponding to the face detection off mode button 81, the registered face mode button 82, the face detection on mode button 83, or the smile shutter mode button 84 on which the cursor 85 is superimposed is set.
  • the cursor 85 is superimposed on the registered face mode button 82.
  • the center button 23E is pressed at this time, the registered face detection mode is set as the face detection mode.
  • FIG. 7 is a diagram for explaining the relationship between the face detection mode and the face frame display for an image before an in-focus instruction by half-pressing the release button 11 or pressing the center button 23E.
  • the face detection unit 71 performs face detection even when the face detection mode is any of the face detection off mode, the registered face detection mode, the face detection mode, and the smile shutter mode. .
  • the face detection mode is the face detection off mode
  • the face frame is not superimposed on the live view image being displayed before the focus instruction.
  • the face detection mode is other than the face detection off mode
  • the face frame is superimposed on the live view image being displayed before the focus instruction.
  • FIG. 8 is a diagram for explaining the relationship between the face detection mode and the focus area.
  • the center button 23E of the cross key 23 is pressed.
  • the in-focus area is set to the pupil area.
  • the pupil area is the pupil area of the registered face image.
  • the face detection mode is the smile shutter mode
  • the center button 23E is pressed while the menu screen or setting screen is not displayed on the liquid crystal monitor 26, the in-focus area is set to the face area.
  • the in-focus area is set as a default area.
  • the in-focus area is set to the face area.
  • the face detection mode is the registered face detection mode and a registered face image area is detected
  • the face area is a registered face image area.
  • FIG. 9 is a diagram for explaining display on the display unit 50 in the face detection mode.
  • the pupil detection unit 72 detects the pupil region.
  • the focus setting area is set as the pupil area by the area setting unit 73, and the pupil frame 101 representing the pupil area is superimposed on the live view image 92 being displayed. Then, the focus is adjusted to the pupil region represented by the pupil frame 101.
  • the in-focus area is set as the face area by the area setting unit 73, and the face frame 102 representing the face area as the in-focus area is superimposed on the live view image 92 being displayed. The Then, the face area represented by the face frame 102 is focused. After focusing, nothing is superimposed again on the live view image 93 being displayed.
  • the focus setting area 73 sets the focus area as the default area, and the live view image 92 being displayed is superimposed with a default frame 103 representing the default area as the focus area. Then, the focus is adjusted to the default area represented by the default frame 103.
  • the predetermined area is the area of the subject whose position in the depth direction is closest to the photographing apparatus 10. After focusing, the default frame 103 remains superimposed on the live view image 93 being displayed.
  • FIG. 10 is a diagram for explaining display on the display unit 50 in the face detection on mode.
  • the pupil detection unit 72 detects the pupil region.
  • the focus setting area is set as the pupil area by the area setting unit 73, and a pupil frame 122 representing the pupil area is superimposed on the live view image 112 being displayed. Then, the focus is adjusted to the pupil region represented by the pupil frame 122.
  • the in-focus area is set as the face area by the area setting unit 73, and the face frame 123 representing the face area is superimposed on the live view image 112 being displayed. The Then, the face area represented by the face frame 123 is focused. After focusing, a face frame 123 is superimposed on the live view image 113 being displayed.
  • the face temporary frame 121 is superimposed on the live view image 111 being displayed before the focus instruction.
  • the focus setting area is set to the face area by the area setting unit 73, and the face frame 123 is superimposed on the live view image 112 being displayed.
  • the face frame 123 remains superimposed on the live view image 113 being displayed.
  • the face temporary frame 121 represents a candidate for the focus area instead of the focus area
  • a color, between the face temporary frame 121, the pupil frame 122, and the face frame 123, The thickness, line type, etc. may be changed.
  • FIG. 11 is a flowchart for explaining face detection off photographing processing that is photographing processing of the photographing apparatus 10 when the face detection mode is face detection off mode. This face detection off photographing process is started, for example, when the power is turned on by operating the power button 11A.
  • step S11 of FIG. 11 the image sensor 42 obtains an electric signal of each pixel of the image by photoelectrically converting light from the subject condensed through the optical system 41 in units of pixels.
  • the image sensor 42 supplies an electric signal of each pixel of the image to the image processing unit 43, whereby the image data is supplied to the compression processing unit 44 and the microcomputer 47.
  • step S12 the microcomputer 47 causes the display unit 50 to display an image based on the image data supplied from the image processing unit 43 as a live view image.
  • step S13 the face detection unit 71 of the microcomputer 47 detects a face area from the image data supplied from the image processing unit 43.
  • the face detection unit 71 supplies the face region to the pupil detection unit 72, the region setting unit 73, and the display control unit 74.
  • step S ⁇ b> 14 based on the operation signal from the operation unit 52, the pupil detection unit 72 determines whether the center button 23 ⁇ / b> E of the cross key 23 has been pressed in a state where the menu screen or setting screen is not displayed on the liquid crystal monitor 26. Determine. If it is determined in step S14 that the center button 23E has been pressed, the process proceeds to step S15.
  • step S15 the pupil detection unit 72 detects the pupil region from the image data supplied from the image processing unit 43 based on the face region supplied from the face detection unit 71.
  • step S16 the pupil detection unit 72 determines whether or not a pupil region is detected by the process of step S15. When it is determined in step S ⁇ b> 16 that the pupil region has been detected, the pupil detection unit 72 supplies the detected pupil region to the region setting unit 73.
  • step S17 the region setting unit 73 sets the pupil region supplied from the pupil detection unit 72 as a focusing region, and supplies the focused region to the display control unit 74 and the focusing control unit 48 in FIG.
  • step S18 based on the pupil region supplied from the region setting unit 73, the display control unit 74 causes the display unit 50 to display a pupil frame superimposed on the live view image being displayed. Then, the process proceeds to step S24.
  • step S19 the area setting unit 73 sets the face area supplied from the face detection unit 71 as the in-focus area, and the display control unit 74 And supplied to the focusing control unit 48.
  • step S20 based on the face area supplied from the area setting unit 73, the display control unit 74 causes the display unit 50 to display a face frame superimposed on the live view image being displayed. Then, the process proceeds to step S24.
  • step S14 If it is determined in step S14 that the center button 23E has not been pressed, the process proceeds to step S21.
  • step S ⁇ b> 21 the area setting unit 73 determines whether the release button 11 has been half-pressed based on the operation signal supplied from the operation unit 52.
  • step S22 the area setting unit 73 sets the default area as the in-focus area and supplies it to the display control unit 74 and the in-focus control unit 48.
  • step S23 the display control unit 74 causes the display unit 50 to display a default frame superimposed on the live view image being displayed based on the default region supplied from the region setting unit 73. Then, the process proceeds to step S24.
  • step S ⁇ b> 24 the image sensor 42 acquires phase difference information, and the focus control unit 48 sets the focus region based on the focus region from the region setting unit 73 and the phase difference information from the image sensor 42.
  • the actuator 49 is controlled so as to focus, and the optical system 41 is driven.
  • step S25 the image sensor 42 obtains an electrical signal of each pixel of the image by photoelectrically converting light from the subject condensed through the optical system 41 in units of pixels.
  • the image sensor 42 supplies an electric signal of each pixel of the image to the image processing unit 43, whereby the image data is supplied to the compression processing unit 44 and the microcomputer 47.
  • step S26 the microcomputer 47 causes the display unit 50 to display an image based on the image data supplied from the image processing unit 43 as a live view image.
  • the display control unit 74 causes the display unit 50 to display a frame representing the focus area superimposed on the live view image.
  • step S27 the microcomputer 47 determines whether the release button 11 is fully pressed based on the operation signal from the operation unit 52. If it is determined in step S27 that the release button 11 has been fully pressed, the process proceeds to step S28.
  • step S28 the compression processing unit 44 compresses the image data supplied from the image processing unit 43.
  • the compression processing unit 44 supplies the compressed image data to the media control unit 45.
  • step S29 the media control unit 45 controls the recording medium 46 to record the compressed image data supplied from the compression processing unit 44 on the recording medium 46, and the process proceeds to step S30.
  • step S21 If it is determined in step S21 that the release button 11 is not half-pressed, the process proceeds to step S30.
  • step S30 the photographing apparatus 10 determines whether or not to end the process, for example, whether or not the power button 11A has been operated.
  • step S27 If it is determined in step S27 that the release button has not been fully pressed, or if it is determined in step S30 that the process is not to be ended, and the in-focus area is other than the default area, the area setting unit 73 Set the focus area to the face area. Thereby, the optical system 41 is driven so as to focus on the face area.
  • the area setting unit 73 keeps the focus area as the default area.
  • the optical system 41 is driven so as to focus on the predetermined area. Then, the process returns to step S11, and the subsequent processes are repeated. At this time, if the in-focus area is the default area, the default frame is superimposed on the displayed live view image in step S12.
  • step S30 if it is determined in step S30 that the process is to be terminated, the process is terminated.
  • FIG. 12 is a flowchart for explaining a face detection on photographing process that is a photographing process of the photographing apparatus 10 when the face detection mode is the face detection on mode. This face detection on photographing process is started, for example, when the power is turned on by operating the power button 11A.
  • step S44 the display control unit 74 causes the display unit 50 to display the face temporary frame of the face area supplied from the face detection unit 71 on the live view image being displayed.
  • steps S45 to S49 Since the processing of steps S45 to S49 is the same as the processing of steps S14 to S18 in FIG.
  • step S45 If it is determined in step S45 that the center button 23E of the cross key 23 has not been pressed, the process proceeds to step S50.
  • step S ⁇ b> 50 the area setting unit 73 determines whether the release button 11 has been half-pressed based on the operation signal supplied from the operation unit 52.
  • step S50 If it is determined in step S50 that the release button 11 has been pressed halfway, the process proceeds to step S51. If it is determined in step S47 that no pupil area has been detected, the process proceeds to step S51.
  • steps S51 to S59 Since the processing of steps S51 to S59 is the same as the processing of steps S19, S20 and S24 to S30 in FIG. However, in the second and subsequent processing of step S44, a face frame is displayed instead of a temporary face frame.
  • the photographing process of the photographing apparatus 10 when the face detection mode is the registered face detection mode is a process of step S43 in which matching between the acquired image data and the image data of the registered face image is performed. It is the same as the face detection on photographing process except for the point to be performed.
  • the registered face image area is detected by matching, the registered face image area is set as the face area.
  • the face image area other than the registered face image is set as the face area.
  • the photographing process of the photographing apparatus 10 when the face detection mode is the smile shutter mode is the same as the face detection on photographing process except that the processes of steps S45 to S49 are not performed.
  • the center button 23E functions as a selection unit that selects the pupil as the type of subject to be focused in the photographing unit, the photographing device 10 presses the center button 23E after photographing. Until the focus area is set to the face area or the default area.
  • the imaging apparatus 10 sets the pupil area as the focused area. Therefore, the pupil as the type of subject to be focused can be easily set for each shooting. In addition, the pupil as the type of subject to be focused can be quickly set for each shooting.
  • FIG. 13 is a block diagram illustrating a configuration example of a focusing area control unit realized by the microcomputer 47 according to the second embodiment of the photographing apparatus 10 to which the present disclosure is applied.
  • the second embodiment of the photographing apparatus 10 is configured basically in the same manner as the first embodiment except for the focusing area control unit. However, half-pressing the release button 11 functions as an instruction unit for instructing focusing. In other words, in the second embodiment of the photographing apparatus 10, focusing is not performed only by pressing the center button 23E of the cross key 23, and the release button 11 is half-pressed after the center button 23E is pressed. Is in focus.
  • FIG. 13 differs from the configuration of FIG. 5 in that an area setting unit 131 is provided instead of the area setting unit 73.
  • the area setting unit 131 of the focusing area control unit 130 reads the face detection mode from the memory 51.
  • the region setting unit 131 sets the face region, the pupil region, or the default region in the shooting unit based on the face detection mode. Set as.
  • the area setting unit 131 supplies the focus area to the display control unit 74 and the focus control unit 48 of FIG.
  • focusing can be performed by half-pressing the release button 11 regardless of the focusing area. Therefore, the user's operation accustomed to instructing focusing by half-pressing the release button 11 can be facilitated.
  • the photographing apparatus 10 it is possible to select the type of subject to be focused and give a focus instruction by one operation of pressing the center button 23E. Therefore, the user's operation can be simplified.
  • FIG. 14 is a block diagram illustrating a configuration example of a focusing area control unit realized by the microcomputer 47 according to the third embodiment of the photographing apparatus 10 to which the present disclosure is applied.
  • the third embodiment of the photographing apparatus 10 is basically configured in the same manner as the first embodiment except for the focusing area control unit.
  • the button 23A above the cross key 23 is also pressed when a flower is selected as the type of subject to be focused on in the shooting unit when the menu screen or setting screen is not displayed on the liquid crystal monitor 26.
  • the upper button 23A displays a flower as the type of subject to be focused in the photographing unit. Functions as a selection unit to select.
  • the configuration of the focusing area control unit 150 in FIG. 14 is that a flower detection unit 151 is newly provided, and an area setting unit 152 and a display control unit 153 are provided instead of the area setting unit 73 and the display control unit 74. This is different from the configuration of FIG.
  • the flower detection unit 151 of the focusing area control unit 150 is supplied with an operation signal indicating that the button 23A on the cross key 23 is pressed from the operation unit 52 when the menu screen or the setting screen is not displayed on the liquid crystal monitor 26. Determine whether or not.
  • the flower detection unit 151 detects a flower region from the image data supplied from the image processing unit 43 based on the determination result.
  • the flower detection unit 151 supplies the flower region to the region setting unit 152.
  • the area setting unit 152 reads the face detection mode from the memory 51.
  • the area setting unit 152 selects a face area, a pupil area, a flower area, or a default area in photographing units based on the face detection mode and the operation signal representing the half-press of the release button 11 supplied from the operation unit 52. Set as the focus area.
  • the region setting unit 152 supplies the focus region to the display control unit 153 and the focus control unit 48 in FIG.
  • the display control unit 153 reads the face detection mode from the memory 51. Based on the face detection mode, the display control unit 153 superimposes the face frame representing the face area supplied from the face detection unit 71 on the live view image being displayed and causes the display unit 50 to display the face frame. In addition, the display control unit 153 causes the display unit 50 to display the frame representing the focus area supplied from the area setting unit 152 on the live view image being displayed.
  • FIG. 15 is a flowchart for explaining the face detection off photographing process according to the third embodiment of the photographing apparatus 10. This face detection off photographing process is started, for example, when the power is turned on by operating the power button 11A.
  • step S74 If it is determined in step S74 that the center button 23E has not been pressed, the process proceeds to step S81.
  • step S81 based on the operation signal from the operation unit 52, the flower detection unit 151 determines whether the button 23A on the cross key 23 has been pressed in a state where the menu screen or the setting screen is not displayed on the liquid crystal monitor 26. Determine.
  • step S81 If it is determined in step S81 that the upper button 23A has been pressed, the process proceeds to step S82.
  • step S ⁇ b> 82 the flower detection unit 151 detects a flower region from the image data supplied from the image processing unit 43, and supplies it to the region setting unit 152.
  • step S83 the region setting unit 152 sets the flower region supplied from the flower detection unit 151 as a focusing region, and supplies it to the display control unit 153 and the focusing control unit 48 of FIG.
  • step S84 based on the flower region supplied from the region setting unit 152, the display control unit 153 causes the display unit 50 to display a flower frame representing the flower region on the live view image being displayed. Then, the process proceeds to step S88.
  • steps S85 to S94 is the same as the processing in steps S21 to S30 in FIG.
  • FIG. 16 is a flowchart for explaining the face detection-on photographing process according to the third embodiment of the photographing apparatus 10. This face detection on photographing process is started, for example, when the power is turned on by operating the power button 11A.
  • steps S122 to S126 is the same as the processing of steps S81 to S85 in FIG.
  • step S126 If it is determined in step S126 that the release button 11 has been pressed halfway, the process proceeds to step S120. On the other hand, if it is determined in step S126 that the release button 11 has not been pressed halfway, the process proceeds to step S133.
  • steps S127 to S133 Since the processing of steps S127 to S133 is the same as the processing of steps S24 to S30 in FIG.
  • the upper button 23A functions as a selection unit that selects a flower as the type of subject to be focused in the shooting unit. Therefore, the shooting device 10 presses the upper button 23A after shooting. Until the focus area is set to the face area or the default area.
  • the pupil region is set as the focused region.
  • the flower region is set as the focused region. Therefore, it is possible to easily set the pupil or flower as the type of subject to be focused for each photographing. In addition, the pupil or flower as the type of subject to be focused can be quickly set for each shooting.
  • the focus is not achieved by simply pressing the upper button 23A and the center button 23E, and the release button 11 is pressed halfway. Sometimes it may be focused.
  • ⁇ Fourth embodiment> (Description of computer to which the present disclosure is applied)
  • the series of processes described above can be executed by hardware or can be executed by software.
  • a program constituting the software is installed in the computer.
  • the computer includes, for example, a general-purpose personal computer capable of executing various functions by installing various programs by installing a computer incorporated in dedicated hardware.
  • FIG. 17 is a block diagram showing an example of the hardware configuration of a computer that executes the above-described series of processing by a program.
  • a CPU Central Processing Unit
  • ROM Read Only Memory
  • RAM Random Access Memory
  • An input / output interface 205 is further connected to the bus 204.
  • An imaging unit 206, an input unit 207, an output unit 208, a storage unit 209, a communication unit 210, and a drive 211 are connected to the input / output interface 205.
  • the photographing unit 206 includes an optical system 41, an image sensor 42, an actuator 49, an image processing unit 43, and the like.
  • the imaging unit 206 acquires image data with light from the subject.
  • the input unit 207 corresponds to the operation unit 52 and includes a keyboard, a mouse, a microphone, and the like.
  • the output unit 208 includes a display, a speaker, and the like.
  • the storage unit 209 includes a hard disk, a nonvolatile memory, and the like.
  • the communication unit 210 includes a network interface or the like.
  • the drive 211 drives a removable medium 212 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory.
  • the CPU 201 loads the program stored in the storage unit 209 to the RAM 203 via the input / output interface 205 and the bus 204 and executes the program. A series of processing is performed.
  • the program executed by the computer 200 can be provided by being recorded on the removable medium 212 as a package medium, for example.
  • the program can be provided via a wired or wireless transmission medium such as a local area network, the Internet, or digital satellite broadcasting.
  • the program can be installed in the storage unit 209 via the input / output interface 205 by attaching the removable medium 212 to the drive 211.
  • the program can be received by the communication unit 210 via a wired or wireless transmission medium and installed in the storage unit 209.
  • the program can be installed in advance in the ROM 202 or the storage unit 209.
  • the program executed by the computer 200 may be a program that is processed in time series in the order described in this specification, or a necessary timing such as in parallel or when a call is made. It may be a program in which processing is performed.
  • the type of subject to be focused may be a type other than pupils and flowers (for example, landscapes, buildings, animals, pets, dishes, etc.).
  • the number of types of subjects to be focused can be 3 or more.
  • the button functioning as the selection unit for selecting the type of subject to be focused on in the photographing unit may be a button other than the cross key 23 (for example, the custom button 13, the custom button 18, the AEL button 21, etc.). Good.
  • the buttons that function as the selection unit are different for each type of subject.
  • the selection unit may be displayed on the liquid crystal monitor 26 and operated by the cross key 23. When the liquid crystal monitor 26 is configured by a touch panel, the selection unit on the liquid crystal monitor 26 is operated by being touched.
  • the type of subject selected in the shooting unit is not the type of subject to be focused, but the type of subject to be subject to photometry or colorimetry for selecting optimal exposure, white balance, etc. Also good.
  • the imaging device 10 may acquire contrast information instead of phase difference information, and may perform focusing based on the contrast information.
  • this indication can also take the following structures.
  • An acquisition unit for acquiring images A first selection unit that selects a first type of a subject to be focused in a unit of photographing of the image acquired by the acquisition unit; A first detection unit that detects a region of the first type of subject from the image when the first type is selected by the first selection unit;
  • An imaging apparatus comprising: an area setting unit that sets the area detected by the first detection unit as a focused area of the image.
  • the imaging device according to (1) further including: a focus control unit that controls the acquisition unit so as to focus in the focus region set by the region setting unit.
  • An instruction unit for instructing focusing A focusing control unit that controls the acquisition unit so as to focus in the focusing region set by the region setting unit when the instructing unit is instructed by the instruction unit; (1) The imaging device described in 1.
  • a second selection unit that selects a second type of subject to be focused on, in the photographing unit of the image acquired by the acquisition unit;
  • a second detection unit that detects a region of the second type of subject from the image when the second type is selected by the second selection unit; and
  • the imaging apparatus according to any one of (1) to (3), wherein the area setting unit sets the area detected by the second detection unit as a focused area of the image.
  • the shooting device An acquisition step of acquiring an image; A first selection step of selecting a first type of a subject to be focused in a unit of photographing of the image acquired by the processing of the acquisition step; A first detection step of detecting a region of the first type of subject from the image when the first type is selected by the processing of the first selection step; An area setting step of setting the area detected by the processing of the first detection step as a focused area of the image.
  • a computer that controls an imaging apparatus, comprising: an acquisition unit that acquires an image; and a first selection unit that selects a first type of a subject to be focused on in units of imaging of the image acquired by the acquisition unit
  • the A first detection unit that detects a region of the first type of subject from the image when the first type is selected by the first selection unit;

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Optics & Photonics (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Studio Devices (AREA)
  • Automatic Focus Adjustment (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Focusing (AREA)

Abstract

 本開示は、合焦対象とする被写体の種類を撮影ごとに容易に設定することができるようにする撮影装置、撮影方法、およびプログラムに関する。 イメージセンサは、画像を取得する。操作部は、イメージセンサにより取得された画像の撮影単位で、合焦対象とする被写体の種類を選択する。マイクロコンピュータは、操作部により合焦対象とする被写体の種類が選択された場合、その種類の被写体の領域を画像から検出し、検出された領域を画像の合焦領域として設定する。本開示は、例えば、撮影装置等に適用することができる。

Description

撮影装置、撮影方法、およびプログラム
 本開示は、撮影装置、撮影方法、およびプログラムに関し、特に、合焦対象とする被写体の種類を撮影ごとに容易に設定することができるようにした撮影装置、撮影方法、およびプログラムに関する。
 撮影装置において、画像内の人物の顔などの特定の被写体を検出し、その被写体にピントを合わせる機能がある(例えば、特許文献1参照)。
特開2009-118009号公報
 しかしながら、合焦対象とする被写体の種類を撮影ごとに容易に設定することはできなかった。
 本開示は、このような状況に鑑みてなされたものであり、合焦対象とする被写体の種類を撮影ごとに容易に設定することができるようにするものである。
 本開示の一側面の撮影装置は、画像を取得する取得部と、前記取得部により取得された前記画像の撮影単位で、合焦対象とする被写体の第1の種類を選択する第1の選択部と、前記第1の選択部により前記第1の種類が選択された場合、前記第1の種類の被写体の領域を前記画像から検出する第1の検出部と、前記第1の検出部により検出された前記領域を前記画像の合焦領域として設定する領域設定部とを備える撮影装置である。
 本開示の一側面の撮影方法およびプログラムは、本開示の一側面の撮影装置に対応する。
 本開示の一側面においては、画像が取得され、前記画像の撮影単位で、合焦対象とする被写体の第1の種類が選択され、前記第1の種類が選択された場合、前記第1の種類の被写体の領域が前記画像から検出され、前記領域が前記画像の合焦領域として設定される。
 本開示の一側面によれば、被写体に合焦して撮影することができる。また、本開示の一側面によれば、合焦対象とする被写体の種類を撮影ごとに容易に設定することができる。
 なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
本開示を適用した撮影装置の第1実施の形態の外観構成例を示す前面図である。 図1の撮影装置の外観構成例を示す背面図である。 図1の撮影装置の外観構成例を示す上面図である。 図1の撮影装置のハードウエア構成例を示すブロック図である。 撮影装置の第1実施の形態の合焦領域制御部の構成例を示すブロック図である。 顔検出機能の設定画面の例を示す図である。 顔検出モードと顔枠表示との関係を説明する図である。 顔検出モードと合焦領域の関係を説明する図である。 顔検出モード時の表示を説明する図である。 顔検出オンモード時の表示を説明する図である。 撮影装置の第1実施の形態による顔検出オフ撮影処理を説明するフローチャートである。 撮影装置の第1実施の形態による顔検出オン撮影処理を説明するフローチャートである。 本開示を適用した撮影装置の第2実施の形態の合焦領域制御部の構成例を示すブロック図である。 本開示を適用した撮影装置の第3実施の形態の合焦領域制御部の構成例を示すブロック図である。 撮影装置の第3実施の形態による顔検出オフ撮影処理を説明するフローチャートである。 撮影装置の第3実施の形態による顔検出オン撮影処理を説明するフローチャートである。 コンピュータのハードウエアの構成例を示すブロック図である。
 <第1実施の形態>
 (撮影装置の第1実施の形態の外観構成例)
 図1乃至図3は、本開示を適用した撮影装置の第1実施の形態の外観構成例を示す図である。図1は、撮影装置の前面図であり、図2は、撮影装置の背面図であり、図3は、撮影装置の上面図である。
 なお、本明細書において、撮影装置のレンズが配置される面を前面といい、前面と対向する面を背面という。また、前面および背面に垂直な方向を奥行き方向という。
 図1に示すように、撮影装置10の前面には、被写体から見て右側中央にレンズ10Aが配置される。レンズ10Aは、被写体からの光を集光する。
 また、図1乃至図3に示すように、撮影装置10の上面には、被写体から見て左側にレリーズボタン11が配置される。レリーズボタン11は、撮影を行うときに全押しされる。また、レリーズボタン11は、画像内の既定領域(例えば、画像の中央の領域、奥行き方向の位置が最も撮影装置10に近い被写体の領域など)にピントを合わせる(合焦させる)ときに、半押しされる。レリーズボタン11には、図3に示すように、電源ボタン11Aが付加されている。電源ボタン11Aは、撮影装置10の電源をオンにするときに操作される。
 図1乃至図3に示すように、撮影装置10の上面にはまた、被写体から見てレリーズボタン11の右側にモードダイヤル12が配置され、左側にカスタムボタン13が配置される。モードダイヤル12は、撮影モードを選択するときに操作される。カスタムボタン13は、ユーザが所望の機能を割り当て可能なボタンである。
 図1および図3に示すように、撮影装置10の前面には、被写体から見てレンズ10Aの左上側に前ダイヤル14が配置される。前ダイヤル14は、例えば、シャッタスピードを調整するときに操作される。
 図1に示すように、撮影装置10の前面には、レンズ10Aに隣接してレンズロックボタン15が配置される。レンズロックボタン15は、レンズ10Aを撮影装置10から取り外すときに操作される。
 図2に示すように、撮影装置10の背面には、被写体に向かって左上側にメニューボタン16が配置される。メニューボタン16は、メニュー画面を表示させるときに押下される。
 また、図2に示すように、撮影装置10の背面のメニューボタン16の被写体に向かって右上側には、ファインダ17が配置され、ファインダ17の被写体に向かって右側には、視度調整ダイヤル17Aが配置される。ファインダ17は、撮影時に被写体を確認するための液晶パネルである。
 視度調整ダイヤル17Aは、ファインダ17の度数を調整するときに操作される。ユーザは、ファインダ17に表示される画像が見やすくなるように視度調整ダイヤル17Aを操作する。これにより、ユーザの視力に合った画像がファインダ17に表示される。
 図2および図3に示すように、撮影装置10の背面のファインダ17の被写体に向かって右下側には、カスタムボタン18が配置され、カスタムボタン18の被写体に向かって右側には後ダイヤル19が配置される。カスタムボタン18は、カスタムボタン13と同様に、ユーザが所望の機能を割り当て可能なボタンである。後ダイヤル19は、例えば、絞り値を調整するときに操作される。
 図2に示すように、撮影装置10の背面の後ダイヤル19の被写体に向かって右下側には、録画ボタン20が配置される。録画ボタン20は、動画を撮影するときに押下される。
 また、図2に示すように、撮影装置10の背面のカスタムボタン18の下側には、AELボタン21が配置され、AELボタン21の下側にはFnボタン22が配置される。AELボタン21は、例えば、画面全体の露出を固定するときに押下される。Fnボタン22は、各種の撮影に関する機能を設定する設定画面を表示するときに押下される。
 図2に示すように、撮影装置10の背面のFnボタン22の下には十字キー23が配置される。十字キー23は、上のボタン23A、下のボタン23B、左のボタン23C、右のボタン23D、および中央のボタン23Eにより構成される。十字キー23のボタン23A乃至23Dは、それぞれ、液晶モニタ26に表示されたメニュー画面や設定画面内のカーソル等を上下左右に移動させるときに押下される。
 中央のボタン23Eは、例えば、液晶モニタ26に表示されたメニュー画面や設定画面において決定を指示するときに押下される。また、中央のボタン23Eは、液晶モニタ26にメニュー画面や設定画面が表示されていない状態で、撮影単位の合焦対象とする被写体の種類として瞳を選択するとき、押下される。即ち、液晶モニタ26にメニュー画面や設定画面が表示されていない状態における中央のボタン23Eは、撮影単位で合焦対象とする被写体の種類として瞳を選択する選択部として機能する。
 図2に示すように、撮影装置10の背面の十字キー23の被写体に向かって左下側には再生ボタン24が配置され、右下側には削除ボタン25が配置される。再生ボタン24は、撮影画像を再生するときに押下される。削除ボタン25は、液晶モニタ26に表示された撮影画像を削除するときに押下される。
 図2に示すように、撮影装置10の背面の被写体に向かって左側には、液晶モニタ26が配置される。液晶モニタ26には、メニュー画面や設定画面、撮影画像等が表示される。
 (撮影装置のハードウエア構成例)
 図4は、撮影装置10のハードウエア構成例を示すブロック図である。
 図1の撮影装置10は、光学系41、イメージセンサ42、画像処理部43、圧縮処理部44、メディア制御部45、記録メディア46、合焦制御部48、およびマイクロコンピュータ47を有する。また、撮影装置10は、合焦制御部48、アクチュエータ49、表示部50、メモリ51、および操作部52を有する。
 撮影装置10は、液晶モニタ26にメニュー画面や設定画面が表示されていない状態で中央のボタン23Eが押下されたとき、画像内の瞳にピントを合わせる。
 具体的には、光学系41とイメージセンサ42は、取得部として機能し、画像を取得する。より詳細には、光学系41は、レンズ10A、図示せぬ絞りなどにより構成される。光学系41は、被写体からの光をイメージセンサ42に集光させる。光学系41は、アクチュエータ49により駆動される。
 イメージセンサ42は、レンズ10Aにより集光された光を画素単位で光電変換し、画像の各画素のアナログ信号である電気信号を取得する。また、イメージセンサ42は、光学系41により集光された光に基づいて、1以上の画素からなる検出単位で、画像の合焦面からのずれ量を表す位相差情報を取得する。イメージセンサ42は、各画素の電気信号を画像処理部43に供給し、位相差情報を合焦制御部48に供給する。
 画像処理部43は、イメージセンサ42から供給される画像の各画素の電気信号に対してA/D変換等の画像処理を行う。画像処理部43は、その結果得られる画像の各画素のデジタルデータである画像データを、圧縮処理部44とマイクロコンピュータ47に供給する。
 圧縮処理部44は、必要に応じて、画像処理部43から供給される画像データを圧縮する。圧縮処理部44は、圧縮後の画像データをメディア制御部45に供給する。
 メディア制御部45は、記録メディア46を制御し、圧縮処理部44から供給される圧縮後の画像データを記録メディア46に記録させる。このように、イメージセンサ42により画像が取得されて圧縮され、圧縮後の画像データが記録される処理を、撮影という。記録メディア46は、メディア制御部45の制御により、圧縮後の画像データを記録する。
 マイクロコンピュータ47は、撮影装置10の各部を制御する。例えば、マイクロコンピュータ47は、操作部52から供給されるユーザからの操作を表す操作信号に基づいて顔検出モードを設定し、メモリ51に供給して記憶させる。マイクロコンピュータ47は、操作信号に基づいて、表示部50の液晶モニタ26にメニュー画面や設定画面を表示させたり、表示部50に画像処理部43からの画像データに基づく画像を表示させたりする。
 また、マイクロコンピュータ47は、合焦領域を制御する合焦領域制御部として機能する。具体的には、マイクロコンピュータ47は、画像処理部43から供給される画像データから顔領域を検出する。また、マイクロコンピュータ47は、液晶モニタ26にメニュー画面や設定画面が表示されていないときに操作部52から供給される中央のボタン23Eの押下を表す操作信号と、顔領域とに基づいて、画像データから瞳領域を検出する。マイクロコンピュータ47は、メモリ51に記憶されている顔検出モードと操作信号とに基づいて、顔領域、瞳領域、または既定領域を合焦領域として設定し、その合焦領域を合焦制御部48に供給する。
 合焦制御部48は、マイクロコンピュータ47から供給される合焦領域と、イメージセンサ42から供給される位相差情報とに基づいて、合焦領域にピントが合うようにアクチュエータ49を制御する。
 アクチュエータ49は、合焦制御部48等により制御される。アクチュエータ49は、光学系41を駆動し、フォーカス位置、絞り値、およびズーム倍率を制御する。
 表示部50は、図2のファインダ17と液晶モニタ26により構成される。表示部50は、マイクロコンピュータ47の制御により、撮影画像(圧縮および記録される画像)の画像データに基づいて撮影画像を表示する。また、表示部50は、マイクロコンピュータ47の制御により、撮影画像ではない画像(圧縮および記録されない画像)の画像データに基づく画像を、ライブビュー画像として表示する。表示部50の液晶モニタ26は、マイクロコンピュータ47の制御により、メニュー画面や設定画面を表示する。
 メモリ51は、マイクロコンピュータ47の作業領域である。メモリ51は、マイクロコンピュータ47による処理の途中結果や最終結果を記憶する。例えば、メモリ51は、マイクロコンピュータ47から供給される顔検出モードを記憶する。
 操作部52は、レリーズボタン11、電源ボタン11A、モードダイヤル12、カスタムボタン13、前ダイヤル14、メニューボタン16、視度調整ダイヤル17A、およびカスタムボタン18の操作を表す操作信号をマイクロコンピュータ47に供給する。また、操作部52は、後ダイヤル19、録画ボタン20、AELボタン21、Fnボタン22、十字キー23、再生ボタン24、および削除ボタン25の操作を表す操作信号を、マイクロコンピュータ47に供給する。
 (合焦領域制御部の構成例)
 図5は、図4のマイクロコンピュータ47により実現される合焦領域制御部の構成例を示すブロック図である。
 図5の合焦領域制御部70は、顔検出部71、瞳検出部72、領域設定部73、および表示制御部74により構成される。
 合焦領域制御部70の顔検出部71は、メモリ51から顔検出モードを読み出す。顔検出部71は、顔検出モードに基づいて、画像処理部43から供給される画像データから顔領域を検出する。顔検出部71は、顔領域を瞳検出部72、領域設定部73、および表示制御部74に供給する。
 瞳検出部72は、メモリ51から顔検出モードを読み出す。瞳検出部72は、液晶モニタ26にメニュー画面や設定画面が表示されていない状態で操作部52から中央のボタン23Eの押下を表す操作信号が供給されたかどうかを判定する。瞳検出部72は、判定結果、顔検出モード、および顔検出部71から供給される顔領域に基づいて、画像データから瞳領域を検出する。瞳検出部72は、瞳領域を領域設定部73に供給する。
 領域設定部73は、メモリ51から顔検出モードを読み出す。領域設定部73は、顔検出モードと、操作部52から供給されるレリーズボタン11の半押しを表す操作信号とに基づいて、撮影単位で、顔領域、瞳領域、または既定領域を合焦領域として設定する。領域設定部73は、合焦領域を表示制御部74と図4の合焦制御部48に供給する。
 表示制御部74は、メモリ51から顔検出モードを読み出す。表示制御部74は、顔検出モードに基づいて、顔検出部71から供給される顔領域を表す顔枠を表示中のライブビュー画像に重畳して、表示部50に表示させる。また、表示制御部74は、領域設定部73から供給される合焦領域を表す枠を表示中のライブビュー画像に重畳して、表示部50に表示させる。
 (顔検出機能の設定画面の例)
 図6は、液晶モニタ26に表示される顔検出機能の設定画面の例を示す図である。
 顔検出機能の設定画面は、ユーザによりFnボタン22が押下されたとき表示される。
 図6に示すように、顔検出機能の設定画面80は、顔検出モードとして顔領域にピントを合わせない顔検出オフモードを選択するときに操作される顔検出オフモードボタン81を含む。
 設定画面80は、顔検出モードとして、予め登録されている顔画像である登録顔画像の領域に他の顔領域に比べて優先的にピントを合わせる登録顔検出モードを選択するときに操作される登録顔モードボタン82を含む。
 なお、登録顔画像の画像データは、例えば、メモリ51に記憶されている。顔検出部71は、顔検出モードが登録顔検出モードである場合、画像処理部43から供給される画像データと登録顔画像の画像データのマッチングを行うことにより、登録顔画像の領域を顔領域として検出する。登録顔画像の領域が検出されない場合には、顔検出部71は、登録顔画像以外の顔画像の領域を顔領域として検出する。
 設定画面80は、顔検出モードとして顔領域にピントを合わせる顔検出オンモードを選択するときに操作される顔検出オンモードボタン83を含む。また、設定画面80は、顔検出モードとして、笑顔が検出された画像を撮影するスマイルシャッタモードを選択するときに操作されるスマイルシャッタモードボタン84を含む。
 設定画面80内の顔検出オフモードボタン81、登録顔モードボタン82、顔検出オンモードボタン83、およびスマイルシャッタモードボタン84のいずれかには、カーソル85が重畳して表示される。
 ユーザは、十字キー23のボタン23A乃至23Dを押下することにより、カーソル85を移動させる。そして、所望の顔検出モードに対応する顔検出オフモードボタン81、登録顔モードボタン82、顔検出オンモードボタン83、またはスマイルシャッタモードボタン84にカーソル85が重畳されたとき、ユーザは、中央のボタン23Eを押下する。
 これにより、カーソル85が重畳された顔検出オフモードボタン81、登録顔モードボタン82、顔検出オンモードボタン83、またはスマイルシャッタモードボタン84に対応する顔検出モードが設定される。図6の例では、カーソル85が登録顔モードボタン82に重畳されており、このときに中央のボタン23Eが押下されると、顔検出モードとして登録顔検出モードが設定される。
 (顔検出モードと顔枠表示の関係の説明)
 図7は、顔検出モードと、レリーズボタン11の半押しまたは中央のボタン23Eの押下による合焦指示前の画像に対する顔枠表示との関係を説明する図である。
 図7に示すように、顔検出モードが、顔検出オフモード、登録顔検出モード、顔検出モード、およびスマイルシャッタモードのいずれである場合であっても、顔検出部71は、顔検出を行う。
 しかしながら、顔検出モードが顔検出オフモードである場合、合焦指示前には、顔枠は表示中のライブビュー画像に重畳されない。顔検出モードが顔検出オフモード以外である場合、合焦指示前に、顔枠は表示中のライブビュー画像に重畳される。
 (顔検出モードと合焦領域の関係の説明)
 図8は、顔検出モードと合焦領域の関係を説明する図である。
 図8に示すように、顔検出モードがスマイルシャッタモード以外である場合に、液晶モニタ26にメニュー画面や設定画面が表示されていない状態で十字キー23の中央のボタン23Eが押下されると、合焦領域は瞳領域に設定される。なお、顔検出モードが登録顔検出モードであり、登録顔画像の領域が検出される場合、瞳領域は、登録顔画像の瞳の領域となる。
 一方、顔検出モードがスマイルシャッタモードである場合、液晶モニタ26にメニュー画面や設定画面が表示されていない状態で中央のボタン23Eが押下されると、合焦領域は顔領域に設定される。
 また、顔検出モードが顔検出オフモードである場合にレリーズボタン11が半押しされると、合焦領域は既定領域に設定される。一方、顔検出モードが顔検出オフモード以外である場合にレリーズボタン11が半押しされると、合焦領域は顔領域に設定される。なお、顔検出モードが登録顔検出モードであり、登録顔画像の領域が検出される場合、顔領域は、登録顔画像の領域となる。
 (顔検出オフモード時の表示の説明)
 図9は、顔検出モード時の表示部50における表示を説明する図である。
 図9に示すように、顔検出モード時、液晶モニタ26にメニュー画面や設定画面が表示されていない状態で十字キー23の中央のボタン23Eを押下することにより合焦が指示される場合、合焦指示前には、表示中のライブビュー画像91に何も重畳されない。
 合焦指示後、瞳検出部72により瞳領域が検出される。瞳領域が検出された場合、領域設定部73により合焦領域が瞳領域に設定され、表示中のライブビュー画像92には、合焦領域として瞳領域を表す瞳枠101が重畳される。そして、瞳枠101が表す瞳領域にピントが合わせられる。一方、瞳領域が検出されなかった場合、領域設定部73により合焦領域が顔領域に設定され、表示中のライブビュー画像92には、合焦領域として顔領域を表す顔枠102が重畳される。そして、顔枠102が表す顔領域にピントが合わせられる。合焦後、表示中のライブビュー画像93には、再び何も重畳されなくなる。
 また、顔検出オフモード時、レリーズボタン11を半押しすることにより合焦が指示される場合、合焦指示前には、表示中のライブビュー画像91に何も重畳されない。合焦指示後、領域設定部73により合焦領域が既定領域に設定され、表示中のライブビュー画像92には、合焦領域として既定領域を表す既定枠103が重畳される。そして、既定枠103が表す既定領域にピントが合わせられる。なお、図9の例では、既定領域は、奥行き方向の位置が最も撮影装置10に近い被写体の領域となっている。合焦後、表示中のライブビュー画像93には、既定枠103が重畳されたままとなる。
 (顔検出オンモード時の表示の説明)
 図10は、顔検出オンモード時の表示部50における表示を説明する図である。
 図10に示すように、顔検出オンモード時、液晶モニタ26にメニュー画面や設定画面が表示されていない状態で十字キー23の中央のボタン23Eを押下することにより合焦が指示される場合、合焦指示前には、表示中のライブビュー画像111に合焦領域の候補として顔領域を表す顔仮枠121が重畳される。
 合焦指示後、瞳検出部72により瞳領域が検出される。瞳領域が検出された場合、領域設定部73により合焦領域が瞳領域に設定され、表示中のライブビュー画像112には、合焦領域として瞳領域を表す瞳枠122が重畳される。そして、瞳枠122が表す瞳領域にピントが合わせられる。一方、瞳領域が検出されなかった場合、領域設定部73により合焦領域が顔領域に設定され、表示中のライブビュー画像112には、合焦領域として顔領域を表す顔枠123が重畳される。そして、顔枠123が表す顔領域にピントが合わせられる。合焦後、表示中のライブビュー画像113には、顔枠123が重畳される。
 また、顔検出オンモード時、レリーズボタン11を半押しすることにより合焦が指示される場合、合焦指示前には、表示中のライブビュー画像111には顔仮枠121が重畳される。合焦指示後、領域設定部73により合焦領域が顔領域に設定され、表示中のライブビュー画像112には、顔枠123が重畳される。合焦後、表示中のライブビュー画像113には、顔枠123が重畳されたままとなる。
 なお、顔仮枠121が合焦領域ではなく合焦領域の候補を表していることを容易に認識できるように、顔仮枠121と、瞳枠122および顔枠123との間で、色、太さ、線種などを変更するようにしてもよい。
 (撮影装置の処理の説明)
 図11は、顔検出モードが顔検出オフモードである場合の撮影装置10の撮影処理である顔検出オフ撮影処理を説明するフローチャートである。この顔検出オフ撮影処理は、例えば、電源ボタン11Aが操作されることにより電源がオンにされたとき、開始される。
 図11のステップS11において、イメージセンサ42は、光学系41を介して集光された被写体からの光を画素単位で光電変換することにより画像の各画素の電気信号を取得する。イメージセンサ42は、画像の各画素の電気信号を画像処理部43に供給し、これにより、画像データが圧縮処理部44とマイクロコンピュータ47に供給される。
 ステップS12において、マイクロコンピュータ47は、画像処理部43から供給される画像データに基づく画像をライブビュー画像として表示部50に表示させる。
 ステップS13において、マイクロコンピュータ47の顔検出部71は、画像処理部43から供給される画像データから顔領域を検出する。顔検出部71は、顔領域を瞳検出部72、領域設定部73、および表示制御部74に供給する。
 ステップS14において、瞳検出部72は、操作部52からの操作信号に基づいて、液晶モニタ26にメニュー画面や設定画面が表示されていない状態で十字キー23の中央のボタン23Eが押下されたかどうかを判定する。ステップS14で中央のボタン23Eが押下されたと判定された場合、処理はステップS15に進む。
 ステップS15において、瞳検出部72は、顔検出部71から供給される顔領域に基づいて、画像処理部43から供給される画像データから瞳領域を検出する。
 ステップS16において、瞳検出部72は、ステップS15の処理により瞳領域が検出されたかどうかを判定する。ステップS16で瞳領域が検出されたと判定された場合、瞳検出部72は、検出された瞳領域を領域設定部73に供給する。そして、ステップS17において、領域設定部73は、瞳検出部72から供給される瞳領域を合焦領域として設定し、表示制御部74と図4の合焦制御部48に供給する。
 ステップS18において、表示制御部74は、領域設定部73から供給される瞳領域に基づいて、表示中のライブビュー画像に瞳枠を重畳して表示部50に表示させる。そして処理はステップS24に進む。
 一方、ステップS16で瞳領域が検出されていないと判定された場合、ステップS19において、領域設定部73は、顔検出部71から供給される顔領域を合焦領域として設定し、表示制御部74と合焦制御部48に供給する。
 ステップS20において、表示制御部74は、領域設定部73から供給される顔領域に基づいて、表示中のライブビュー画像に顔枠を重畳して表示部50に表示させる。そして処理はステップS24に進む。
 また、ステップS14で中央のボタン23Eが押下されていないと判定された場合、処理はステップS21に進む。ステップS21において、領域設定部73は、操作部52から供給される操作信号に基づいて、レリーズボタン11が半押しされたかどうかを判定する。
 ステップS21でレリーズボタン11が半押しされたと判定された場合、ステップS22において、領域設定部73は、既定領域を合焦領域として設定し、表示制御部74と合焦制御部48に供給する。
 ステップS23において、表示制御部74は、領域設定部73から供給される既定領域に基づいて、表示中のライブビュー画像に既定枠を重畳して表示部50に表示させる。そして処理はステップS24に進む。
 ステップS24において、イメージセンサ42は、位相差情報を取得し、合焦制御部48は、領域設定部73からの合焦領域とイメージセンサ42からの位相差情報とに基づいて、合焦領域にピントが合うようにアクチュエータ49を制御し、光学系41を駆動する。
 ステップS25において、イメージセンサ42は、光学系41を介して集光された被写体からの光を画素単位で光電変換することにより画像の各画素の電気信号を取得する。イメージセンサ42は、画像の各画素の電気信号を画像処理部43に供給し、これにより、画像データが圧縮処理部44とマイクロコンピュータ47に供給される。
 ステップS26において、マイクロコンピュータ47は、画像処理部43から供給される画像データに基づく画像をライブビュー画像として表示部50に表示させる。また、表示制御部74は、合焦領域を表す枠をライブビュー画像に重畳して表示部50に表示させる。
 ステップS27において、マイクロコンピュータ47は、操作部52からの操作信号に基づいて、レリーズボタン11が全押しされたかどうかを判定する。ステップS27でレリーズボタン11が全押しされたと判定された場合、処理はステップS28に進む。
 ステップS28において、圧縮処理部44は、画像処理部43から供給される画像データを圧縮する。圧縮処理部44は、圧縮後の画像データをメディア制御部45に供給する。
 ステップS29において、メディア制御部45は、記録メディア46を制御し、圧縮処理部44から供給される圧縮後の画像データを記録メディア46に記録させ、処理をステップS30に進める。
 また、ステップS21でレリーズボタン11が半押しされていないと判定された場合、処理はステップS30に進む。
 ステップS30において、撮影装置10は、処理を終了するかどうか、例えば、電源ボタン11Aが操作されたかどうかを判定する。
 ステップS27でレリーズボタンが全押しされていないと判定された場合、または、ステップS30で処理を終了しないと判定された場合、合焦領域が既定領域以外であるときには、領域設定部73は、合焦領域を顔領域に設定する。これにより、光学系41は、顔領域にピントが合うように駆動される。
 一方、合焦領域が既定領域であるときには、領域設定部73は、合焦領域を既定領域のままにする。これにより、光学系41は、既定領域にピントが合うように駆動される。そして、処理はステップS11に戻り、以降の処理が繰り返される。このとき、合焦領域が既定領域である場合には、ステップS12の処理で、表示されるライブビュー画像に既定枠が重畳される。
 一方、ステップS30で処理を終了すると判定された場合、処理は終了する。
 図12は、顔検出モードが顔検出オンモードである場合の撮影装置10の撮影処理である顔検出オン撮影処理を説明するフローチャートである。この顔検出オン撮影処理は、例えば、電源ボタン11Aが操作されることにより電源がオンにされたとき、開始される。
 図12のステップS41乃至S43の処理は、図11のステップS11乃至S13の処理と同様であるので、説明は省略する。
 ステップS44において、表示制御部74は、顔検出部71から供給される顔領域の顔仮枠を表示中のライブビュー画像に重畳して、表示部50に表示させる。
 ステップS45乃至S49の処理は、図11のステップS14乃至S18の処理と同様であるので、説明は省略する。
 ステップS45で十字キー23の中央のボタン23Eが押下されていないと判定された場合、処理はステップS50に進む。ステップS50において、領域設定部73は、操作部52から供給される操作信号に基づいて、レリーズボタン11が半押しされたかどうかを判定する。
 ステップS50でレリーズボタン11が半押しされたと判定された場合、処理はステップS51に進む。また、ステップS47で瞳領域が検出されなかったと判定された場合、処理はステップS51に進む。
 ステップS51乃至S59の処理は、図11のステップS19,S20、およびS24乃至S30の処理と同様であるので、説明は省略する。但し、2回目以降のステップS44の処理では、仮顔枠ではなく、顔枠が表示される。
 なお、図示は省略するが、顔検出モードが登録顔検出モードである場合の撮影装置10の撮影処理は、ステップS43の処理で、取得された画像データと登録顔画像の画像データとのマッチングが行われる点を除いて、顔検出オン撮影処理と同様である。マッチングにより登録顔画像の領域が検出された場合、登録顔画像の領域が顔領域とされ、登録顔画像の領域が検出されない場合、登録顔画像以外の顔画像の領域が顔領域とされる。
 また、顔検出モードがスマイルシャッタモードである場合の撮影装置10の撮影処理は、ステップS45乃至S49の処理が行われない点を除いて、顔検出オン撮影処理と同様である。
 以上のように、中央のボタン23Eは、撮影単位で合焦対象とする被写体の種類として瞳を選択する選択部として機能するため、撮影装置10は、撮影後、中央のボタン23Eが押下されるまで、合焦領域を顔領域または既定領域に設定する。
 また、撮影装置10は、中央のボタン23Eにより撮影単位で合焦対象とする被写体の種類として瞳が選択された場合、瞳領域を合焦領域として設定する。従って、合焦対象とする被写体の種類としての瞳を撮影ごとに容易に設定することができる。また、合焦対象とする被写体の種類としての瞳を撮影ごとに素早く設定することができる。
 <第2実施の形態>
 (撮影装置の第2実施の形態の構成例)
 図13は、本開示を適用した撮影装置10の第2実施の形態のマイクロコンピュータ47により実現される合焦領域制御部の構成例を示すブロック図である。
 撮影装置10の第2実施の形態は、合焦領域制御部を除いて第1実施の形態と基本的に同様に構成される。但し、レリーズボタン11の半押しは、合焦を指示する指示部として機能する。即ち、撮影装置10の第2実施の形態では、十字キー23の中央のボタン23Eが押下されただけでは合焦されず、中央のボタン23Eが押下された後、レリーズボタン11が半押しされると合焦される。
 図13に示す構成のうち、図5の構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。
 図13の合焦領域制御部130の構成は、領域設定部73の代わりに領域設定部131が設けられる点が図5の構成と異なる。
 合焦領域制御部130の領域設定部131は、メモリ51から顔検出モードを読み出す。領域設定部131は、操作部52からレリーズボタン11の半押しを表す操作信号が供給された場合、顔検出モードに基づいて、撮影単位で、顔領域、瞳領域、または既定領域を合焦領域として設定する。領域設定部131は、合焦領域を表示制御部74と図4の合焦制御部48に供給する。
 (撮影装置の処理の説明)
 撮影装置10の第2実施の形態による顔検出モードに応じた撮影処理は、中央のボタン23Eが押下された場合、レリーズボタン11が半押しされたかどうかの判定が、光学系の駆動の前に行われる点を除いて、第1実施の形態と同様である。レリーズボタン11が半押しされたと判定された場合、合焦領域にピントが合うように光学系が駆動されるが、レリーズボタン11が半押しされていないと判定された場合、光学系は駆動されない。
 以上のように、撮影装置10の第2実施の形態では、合焦領域によらず、レリーズボタン11の半押しで合焦させることができる。従って、レリーズボタン11の半押しで合焦を指示することに慣れたユーザの操作を容易にすることができる。
 これに対して、撮影装置10の第1実施の形態では、中央のボタン23Eの押下という1つの操作で、合焦対象とする被写体の種類の選択および合焦指示を行うことができる。従って、ユーザの操作を簡易化することができる。
 <第3実施の形態>
 (撮影装置の第3実施の形態の構成例)
 図14は、本開示を適用した撮影装置10の第3実施の形態のマイクロコンピュータ47により実現される合焦領域制御部の構成例を示すブロック図である。
 撮影装置10の第3実施の形態は、合焦領域制御部を除いて第1実施の形態と基本的に同様に構成される。
 但し、十字キー23の上のボタン23Aは、液晶モニタ26にメニュー画面や設定画面が表示されていない状態で撮影単位の合焦対象とする被写体の種類として花を選択するときにも、押下される。即ち、撮影装置10の第3実施の形態では、液晶モニタ26にメニュー画面や設定画面が表示されていない状態で、上のボタン23Aが、撮影単位で合焦対象とする被写体の種類として花を選択する選択部として機能する。
 図14に示す構成のうち、図5の構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。
 図14の合焦領域制御部150の構成は、新たに花検出部151が設けられる点、および、領域設定部73、表示制御部74の代わりに領域設定部152、表示制御部153が設けられる点が、図5の構成と異なる。
 合焦領域制御部150の花検出部151は、液晶モニタ26にメニュー画面や設定画面が表示されていない状態で操作部52から十字キー23の上のボタン23Aの押下を表す操作信号が供給されたかどうかを判定する。花検出部151は、判定結果に基づいて、画像処理部43から供給される画像データから花領域を検出する。花検出部151は、花領域を領域設定部152に供給する。
 領域設定部152は、メモリ51から顔検出モードを読み出す。領域設定部152は、顔検出モードと、操作部52から供給されるレリーズボタン11の半押しを表す操作信号とに基づいて、撮影単位で、顔領域、瞳領域、花領域、または既定領域を合焦領域として設定する。領域設定部152は、合焦領域を表示制御部153と図4の合焦制御部48に供給する。
 表示制御部153は、メモリ51から顔検出モードを読み出す。表示制御部153は、顔検出モードに基づいて、顔検出部71から供給される顔領域を表す顔枠を表示中のライブビュー画像に重畳して、表示部50に表示させる。また、表示制御部153は、領域設定部152から供給される合焦領域を表す枠を表示中のライブビュー画像に重畳して、表示部50に表示させる。
 (撮影装置の処理の説明)
 図15は、撮影装置10の第3実施の形態による顔検出オフ撮影処理を説明するフローチャートである。この顔検出オフ撮影処理は、例えば、電源ボタン11Aが操作されることにより電源がオンにされたとき、開始される。
 図15のステップS71乃至S80の処理は、図11のステップS11乃至S20の処理と同様であるので、説明は省略する。
 ステップS74で中央のボタン23Eが押下されていないと判定された場合、処理はステップS81に進む。ステップS81において、花検出部151は、操作部52からの操作信号に基づいて、液晶モニタ26にメニュー画面や設定画面が表示されていない状態で十字キー23の上のボタン23Aが押下されたかどうかを判定する。
 ステップS81で上のボタン23Aが押下されたと判定された場合、処理はステップS82に進む。ステップS82において、花検出部151は、画像処理部43から供給される画像データから花領域を検出し、領域設定部152に供給する。
 ステップS83において、領域設定部152は、花検出部151から供給される花領域を合焦領域として設定し、表示制御部153と図4の合焦制御部48に供給する。
 ステップS84において、表示制御部153は、領域設定部152から供給される花領域に基づいて、表示中のライブビュー画像に花領域を表す花枠を重畳して表示部50に表示させる。そして処理はステップS88に進む。
 ステップS85乃至S94の処理は、図11のステップS21乃至S30の処理と同様であるので、説明は省略する。
 図16は、撮影装置10の第3の実施の形態による顔検出オン撮影処理を説明するフローチャートである。この顔検出オン撮影処理は、例えば、電源ボタン11Aが操作されることにより電源がオンにされたとき、開始される。
 図16のステップS111乃至S121の処理は、図12のステップS41乃至S49,S51,およびS52の処理と同様であるので、説明は省略する。
 ステップS122乃至S126の処理は、図15のステップS81乃至S85の処理と同様であるので、説明は省略する。
 ステップS126でレリーズボタン11が半押しされたと判定された場合、処理はステップS120に進む。一方、ステップS126でレリーズボタン11が半押しされていないと判定された場合、処理はステップS133に進む。
 ステップS127乃至S133の処理は、図11のステップS24乃至S30の処理と同様であるので、説明は省略する。
 以上のように、上のボタン23Aは、撮影単位で合焦対象とする被写体の種類として花を選択する選択部として機能するため、撮影装置10は、撮影後、上のボタン23Aが押下されるまで、合焦領域を顔領域または既定領域に設定する。
 また、撮影装置10の第3実施の形態は、中央のボタン23Aにより撮影単位で合焦対象とする被写体の種類として瞳が選択された場合、瞳領域を合焦領域として設定する。さらに、撮影装置10の第3実施の形態は、上のボタン23Aにより撮影単位で合焦対象とする被写体の種類として花が選択された場合、花領域を合焦領域として設定する。従って、合焦対象とする被写体の種類としての瞳または花を撮影ごとに容易に設定することができる。また、合焦対象とする被写体の種類としての瞳または花を撮影ごとに素早く設定することができる。
 なお、撮影装置10の第3実施の形態においても、第2実施の形態と同様に、上のボタン23Aおよび中央のボタン23Eを押下するだけでは合焦されず、さらにレリーズボタン11を半押ししたときに合焦されるようにしてもよい。
 <第4実施の形態>
 (本開示を適用したコンピュータの説明)
 上述した一連の処理は、ハードウエアにより実行することもできるし、ソフトウエアにより実行することもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウエアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。
 図17は、上述した一連の処理をプログラムにより実行するコンピュータのハードウエアの構成例を示すブロック図である。
 コンピュータ200において、CPU(Central Processing Unit)201,ROM(Read Only Memory)202,RAM(Random Access Memory)203は、バス204により相互に接続されている。
 バス204には、さらに、入出力インタフェース205が接続されている。入出力インタフェース205には、撮影部206、入力部207、出力部208、記憶部209、通信部210、及びドライブ211が接続されている。
 撮影部206は、光学系41、イメージセンサ42、アクチュエータ49、画像処理部43等により構成される。撮影部206は、被写体からの光により画像データを取得する。
 入力部207は、操作部52に対応し、キーボード、マウス、マイクロフォンなどよりなる。出力部208は、ディスプレイ、スピーカなどよりなる。記憶部209は、ハードディスクや不揮発性のメモリなどよりなる。通信部210は、ネットワークインタフェースなどよりなる。ドライブ211は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブルメディア212を駆動する。
 以上のように構成されるコンピュータ200では、CPU201が、例えば、記憶部209に記憶されているプログラムを、入出力インタフェース205及びバス204を介して、RAM203にロードして実行することにより、上述した一連の処理が行われる。
 コンピュータ200(CPU201)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア212に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
 コンピュータ200では、プログラムは、リムーバブルメディア212をドライブ211に装着することにより、入出力インタフェース205を介して、記憶部209にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部210で受信し、記憶部209にインストールすることができる。その他、プログラムは、ROM202や記憶部209に、あらかじめインストールしておくことができる。
 なお、コンピュータ200が実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
 本明細書に記載された効果はあくまで例示であって限定されるものではなく、他の効果があってもよい。
 また、本開示の実施の形態は、上述した実施の形態に限定されるものではなく、本開示の要旨を逸脱しない範囲において種々の変更が可能である。
 例えば、合焦対象とする被写体の種類は、瞳、花以外の種類(例えば、風景、建物、動物、ペット、料理など)であってもよい。また、合焦対象とする被写体の種類の数は、3以上にすることができる。
 さらに、撮影単位で合焦対象とする被写体の種類を選択する選択部として機能するボタンは、十字キー23以外のボタン(例えば、カスタムボタン13,カスタムボタン18,AELボタン21など)であってもよい。但し、被写体の種類ごとに選択部として機能するボタンは異なる。また、選択部は、液晶モニタ26上に表示され、十字キー23により操作されるようにしてもよい。液晶モニタ26が、タッチパネルにより構成される場合には、液晶モニタ26上の選択部は、タッチされることにより操作される。
 また、撮影単位で選択される被写体の種類は、合焦対象とする被写体の種類ではなく、最適な露出、ホワイトバランスなどを選択するための測光や測色の対象とする被写体の種類であってもよい。
 さらに、顔領域を検出せずに瞳領域を検出可能な場合、顔検出オフモード時には顔領域は検出されないようにすることができる。また、撮影装置10は、位相差情報ではなく、コントラスト情報を取得し、コントラスト情報に基づいて合焦を行うようにしてもよい。
 なお、本開示は、以下のような構成もとることができる。
 (1)
 画像を取得する取得部と、
 前記取得部により取得された前記画像の撮影単位で、合焦対象とする被写体の第1の種類を選択する第1の選択部と、
 前記第1の選択部により前記第1の種類が選択された場合、前記第1の種類の被写体の領域を前記画像から検出する第1の検出部と、
 前記第1の検出部により検出された前記領域を前記画像の合焦領域として設定する領域設定部と
 を備える撮影装置。
 (2)
 前記領域設定部により設定された前記合焦領域で合焦するように、前記取得部を制御する合焦制御部
 をさらに備える
 前記(1)に記載の撮影装置。
 (3)
 合焦を指示する指示部と、
 前記指示部により前記合焦が指示された場合、前記領域設定部により設定された前記合焦領域で合焦するように、前記取得部を制御する合焦制御部と
 をさらに備える
 前記(1)に記載の撮影装置。
 (4)
 前記取得部により取得された前記画像の撮影単位で、合焦対象とする被写体の第2の種類を選択する第2の選択部と、
 前記第2の選択部により前記第2の種類が選択された場合、前記第2の種類の被写体の領域を前記画像から検出する第2の検出部と
 をさらに備え、
 前記領域設定部は、前記第2の検出部により検出された前記領域を前記画像の合焦領域として設定する
 前記(1)乃至(3)のいずれかに記載の撮影装置。
 (5)
 撮影装置が、
 画像を取得する取得ステップと、
 前記取得ステップの処理により取得された前記画像の撮影単位で、合焦対象とする被写体の第1の種類を選択する第1の選択ステップと、
 前記第1の選択ステップの処理により前記第1の種類が選択された場合、前記第1の種類の被写体の領域を前記画像から検出する第1の検出ステップと、
 前記第1の検出ステップの処理により検出された前記領域を前記画像の合焦領域として設定する領域設定ステップと
 を含む撮影方法。
 (6)
 画像を取得する取得部と、前記取得部により取得された前記画像の撮影単位で、合焦対象とする被写体の第1の種類を選択する第1の選択部とを備える撮影装置を制御するコンピュータを、
 前記第1の選択部により前記第1の種類が選択された場合、前記第1の種類の被写体の領域を前記画像から検出する第1の検出部と、
 前記第1の検出部により検出された前記領域を前記画像の合焦領域として設定する領域設定部と
 して機能させるためのプログラム。
 10 撮影装置, 11 レリーズボタン, 23A乃至23E ボタン, 42 イメージセンサ, 48 合焦制御部, 72 瞳検出部, 73 領域設定部, 151 花検出部, 152 領域設定部

Claims (6)

  1.  画像を取得する取得部と、
     前記取得部により取得された前記画像の撮影単位で、合焦対象とする被写体の第1の種類を選択する第1の選択部と、
     前記第1の選択部により前記第1の種類が選択された場合、前記第1の種類の被写体の領域を前記画像から検出する第1の検出部と、
     前記第1の検出部により検出された前記領域を前記画像の合焦領域として設定する領域設定部と
     を備える撮影装置。
  2.  前記領域設定部により設定された前記合焦領域で合焦するように、前記取得部を制御する合焦制御部
     をさらに備える
     請求項1に記載の撮影装置。
  3.  合焦を指示する指示部と、
     前記指示部により前記合焦が指示された場合、前記領域設定部により設定された前記合焦領域で合焦するように、前記取得部を制御する合焦制御部と
     をさらに備える
     請求項1に記載の撮影装置。
  4.  前記取得部により取得された前記画像の撮影単位で、合焦対象とする被写体の第2の種類を選択する第2の選択部と、
     前記第2の選択部により前記第2の種類が選択された場合、前記第2の種類の被写体の領域を前記画像から検出する第2の検出部と
     をさらに備え、
     前記領域設定部は、前記第2の検出部により検出された前記領域を前記画像の合焦領域として設定する
     請求項1に記載の撮影装置。
  5.  撮影装置が、
     画像を取得する取得ステップと、
     前記取得ステップの処理により取得された前記画像の撮影単位で、合焦対象とする被写体の第1の種類を選択する第1の選択ステップと、
     前記第1の選択ステップの処理により前記第1の種類が選択された場合、前記第1の種類の被写体の領域を前記画像から検出する第1の検出ステップと、
     前記第1の検出ステップの処理により検出された前記領域を前記画像の合焦領域として設定する領域設定ステップと
     を含む撮影方法。
  6.  画像を取得する取得部と、前記取得部により取得された前記画像の撮影単位で、合焦対象とする被写体の第1の種類を選択する第1の選択部とを備える撮影装置を制御するコンピュータを、
     前記第1の選択部により前記第1の種類が選択された場合、前記第1の種類の被写体の領域を前記画像から検出する第1の検出部と、
     前記第1の検出部により検出された前記領域を前記画像の合焦領域として設定する領域設定部と
     して機能させるためのプログラム。
PCT/JP2014/074241 2013-09-24 2014-09-12 撮影装置、撮影方法、およびプログラム WO2015045911A1 (ja)

Priority Applications (7)

Application Number Priority Date Filing Date Title
US15/022,145 US10440252B2 (en) 2013-09-24 2014-09-12 Apparatus and imaging method for setting a target of an image
EP14848520.4A EP3032307A4 (en) 2013-09-24 2014-09-12 Imaging device, imaging method and program
CN201480051175.3A CN105765434B (zh) 2013-09-24 2014-09-12 成像装置、成像方法和程序
JP2015539109A JP6701512B2 (ja) 2013-09-24 2014-09-12 撮影装置、撮影方法、およびプログラム
US16/574,162 US10972652B2 (en) 2013-09-24 2019-09-18 Imaging apparatus and imaging method
US17/220,572 US11659277B2 (en) 2013-09-24 2021-04-01 Imaging apparatus and imaging method
US18/310,721 US20230269471A1 (en) 2013-09-24 2023-05-02 Imaging apparatus, imaging method, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013-197389 2013-09-24
JP2013197389 2013-09-24

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US15/022,145 A-371-Of-International US10440252B2 (en) 2013-09-24 2014-09-12 Apparatus and imaging method for setting a target of an image
US16/574,162 Continuation US10972652B2 (en) 2013-09-24 2019-09-18 Imaging apparatus and imaging method

Publications (1)

Publication Number Publication Date
WO2015045911A1 true WO2015045911A1 (ja) 2015-04-02

Family

ID=52743053

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/074241 WO2015045911A1 (ja) 2013-09-24 2014-09-12 撮影装置、撮影方法、およびプログラム

Country Status (5)

Country Link
US (4) US10440252B2 (ja)
EP (1) EP3032307A4 (ja)
JP (4) JP6701512B2 (ja)
CN (1) CN105765434B (ja)
WO (1) WO2015045911A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020137602A1 (ja) 2018-12-28 2020-07-02 ソニー株式会社 撮像装置、撮像方法、およびプログラム
JP2021039167A (ja) * 2019-08-30 2021-03-11 キヤノン株式会社 画像処理装置及び画像処理装置の制御方法
WO2022209342A1 (ja) * 2021-03-30 2022-10-06 ソニーグループ株式会社 撮像装置、フォーカス制御方法、プログラム

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015045911A1 (ja) * 2013-09-24 2015-04-02 ソニー株式会社 撮影装置、撮影方法、およびプログラム
JP2018046514A (ja) * 2016-09-16 2018-03-22 オリンパス株式会社 撮像装置
US10958825B2 (en) * 2017-10-17 2021-03-23 Canon Kabushiki Kaisha Electronic apparatus and method for controlling the same
EP3933474A4 (en) * 2019-03-27 2022-07-27 Sony Group Corporation IMAGE PROCESSING DEVICE AND METHOD, IMAGING PROGRAM AND DEVICE
CN114258672B (zh) * 2019-08-14 2024-05-14 富士胶片株式会社 摄像装置、摄像装置的工作方法及存储介质
JP2021173803A (ja) * 2020-04-21 2021-11-01 キヤノン株式会社 撮像装置およびその制御方法、プログラム、記憶媒体
CN111866392B (zh) * 2020-07-31 2021-10-08 Oppo广东移动通信有限公司 拍摄提示方法、装置、存储介质及电子设备

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009118009A (ja) 2007-11-02 2009-05-28 Sony Corp 撮像装置、その制御方法およびプログラム
JP2013160925A (ja) * 2012-02-06 2013-08-19 Canon Inc 撮像装置およびフォーカス制御方法

Family Cites Families (65)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2662650B2 (ja) 1987-11-06 1997-10-15 ミノルタ株式会社 自動焦点調節装置
DE68929207T2 (de) 1988-09-22 2001-01-04 Asahi Kogaku Kogyo K.K., Tokio/Tokyo Kamerasteuergerät
JPH08265631A (ja) * 1995-03-27 1996-10-11 Canon Inc 自動焦点調節装置
JP2003107335A (ja) 2001-09-28 2003-04-09 Ricoh Co Ltd 撮像装置、自動合焦方法、およびその方法をコンピュータが実行するためのプログラム
US7298412B2 (en) * 2001-09-18 2007-11-20 Ricoh Company, Limited Image pickup device, automatic focusing method, automatic exposure method, electronic flash control method and computer program
JP2004053722A (ja) * 2002-07-17 2004-02-19 Fuji Photo Film Co Ltd カメラ
EP3358501B1 (en) * 2003-07-18 2020-01-01 Canon Kabushiki Kaisha Image processing device, imaging device, image processing method
US20050024516A1 (en) * 2003-07-31 2005-02-03 Robert Fish Digital camera
US8194173B2 (en) * 2004-07-16 2012-06-05 Nikon Corporation Auto-focusing electronic camera that focuses on a characterized portion of an object
US7791642B2 (en) * 2004-12-13 2010-09-07 Fujifilm Corporation Image-taking apparatus
JP4577113B2 (ja) * 2005-06-22 2010-11-10 オムロン株式会社 対象決定装置、撮像装置および監視装置
JP4626425B2 (ja) * 2005-07-11 2011-02-09 富士フイルム株式会社 撮像装置、撮像方法及び撮像プログラム
JP2007041119A (ja) * 2005-08-01 2007-02-15 Olympus Imaging Corp 撮像装置及び撮像方法
JP4608425B2 (ja) 2005-12-21 2011-01-12 オリンパス株式会社 撮像システム
JP5098259B2 (ja) * 2006-09-04 2012-12-12 株式会社ニコン カメラ
JP4218720B2 (ja) * 2006-09-22 2009-02-04 ソニー株式会社 撮像装置、および撮像装置制御方法、並びにコンピュータ・プログラム
US7860382B2 (en) * 2006-10-02 2010-12-28 Sony Ericsson Mobile Communications Ab Selecting autofocus area in an image
US7647831B2 (en) * 2006-10-20 2010-01-19 Cardiomems, Inc. Method for measuring pressure inside an anatomical fluid system
US8102465B2 (en) * 2006-11-07 2012-01-24 Fujifilm Corporation Photographing apparatus and photographing method for photographing an image by controlling light irradiation on a subject
JP4697606B2 (ja) * 2007-01-24 2011-06-08 富士フイルム株式会社 撮影装置及び合焦制御方法
JP4902562B2 (ja) * 2007-02-07 2012-03-21 パナソニック株式会社 撮像装置、画像処理装置、制御方法およびプログラム
JP5056061B2 (ja) * 2007-02-22 2012-10-24 株式会社ニコン 撮像装置
BRMU8701096Y1 (pt) * 2007-06-26 2014-09-30 Dental Morelli Ltda Disposição construtiva introduzida em suporte para elásticos ortodônticos
US8396330B2 (en) * 2007-07-24 2013-03-12 Sharp Laboratories Of America, Inc. Image upscaling based upon directional interpolation
JP2009049639A (ja) * 2007-08-17 2009-03-05 Fujifilm Corp 撮影装置
JP5099488B2 (ja) * 2007-08-31 2012-12-19 カシオ計算機株式会社 撮像装置、顔認識方法およびそのプログラム
JP4466702B2 (ja) * 2007-09-12 2010-05-26 カシオ計算機株式会社 撮像装置、及び撮像制御プログラム
JP4518131B2 (ja) * 2007-10-05 2010-08-04 富士フイルム株式会社 撮像方法及び装置
WO2010061352A2 (en) * 2008-11-26 2010-06-03 Hiok Nam Tay Auto-focus image system
JP2010186098A (ja) * 2009-02-13 2010-08-26 Panasonic Corp 撮像装置
JP4748244B2 (ja) * 2009-03-31 2011-08-17 カシオ計算機株式会社 画像選択装置、画像選択方法及びプログラム
KR101594295B1 (ko) * 2009-07-07 2016-02-16 삼성전자주식회사 촬영 장치 및 촬영 방법
JP2011027847A (ja) * 2009-07-22 2011-02-10 Fujifilm Corp Af枠自動追尾システム
JP4868075B2 (ja) * 2009-10-09 2012-02-01 株式会社ニコン 撮像装置
KR101594298B1 (ko) * 2009-11-17 2016-02-16 삼성전자주식회사 디지털 영상 처리기에서 포커스 조정 장치 및 방법
CN102215339A (zh) * 2010-04-01 2011-10-12 三洋电机株式会社 电子设备及摄像装置
JP2011234002A (ja) * 2010-04-26 2011-11-17 Kyocera Corp 撮像装置及び端末装置
JP2012015889A (ja) * 2010-07-02 2012-01-19 Sony Corp 画像処理装置および画像処理方法
US9148557B2 (en) * 2010-07-16 2015-09-29 Canon Kabushiki Kaisha Focus adjustment apparatus and method, and image capturing apparatus and control method thereof
JP5556527B2 (ja) * 2010-07-16 2014-07-23 株式会社リコー 画像形成装置
JP5629533B2 (ja) * 2010-08-30 2014-11-19 キヤノン株式会社 撮像装置及びその制御方法、プログラム、並びに記憶媒体
JP2012054810A (ja) * 2010-09-02 2012-03-15 Olympus Corp 画像処理装置、画像処理方法、撮像装置、および画像処理プログラム
KR101817650B1 (ko) * 2010-09-08 2018-01-11 삼성전자주식회사 초점 조절 장치
KR101755598B1 (ko) * 2010-10-27 2017-07-07 삼성전자주식회사 디지털 촬영 장치 및 이의 제어 방법
JP5669549B2 (ja) * 2010-12-10 2015-02-12 オリンパスイメージング株式会社 撮像装置
JP5883564B2 (ja) * 2011-02-03 2016-03-15 オリンパス株式会社 撮像装置
JP5156108B2 (ja) * 2011-04-23 2013-03-06 オリンパスイメージング株式会社 撮像装置および撮像方法
JP2013026664A (ja) * 2011-07-15 2013-02-04 Olympus Imaging Corp 外部機器、カメラシステム、撮像方法およびプログラム
JP2013070164A (ja) * 2011-09-21 2013-04-18 Olympus Imaging Corp 撮像装置及び撮像方法
JP5546690B2 (ja) * 2011-09-29 2014-07-09 富士フイルム株式会社 画像処理装置、画像処理方法、プログラム、記録媒体及び撮像装置
JP6049333B2 (ja) * 2011-10-14 2016-12-21 キヤノン株式会社 焦点検出装置及び焦点検出装置の制御方法
JP2013160295A (ja) * 2012-02-03 2013-08-19 Toyota Motor Corp 乾式のベルト式無段変速機
CN103535025B (zh) * 2012-03-15 2018-03-06 松下电器(美国)知识产权公司 内容数据处理装置、内容数据处理方法以及程序
JP2014056169A (ja) 2012-09-13 2014-03-27 Olympus Imaging Corp 焦点調節装置及び焦点調節方法
WO2015045911A1 (ja) * 2013-09-24 2015-04-02 ソニー株式会社 撮影装置、撮影方法、およびプログラム
KR20160050755A (ko) * 2014-10-31 2016-05-11 삼성전자주식회사 전자 장치 및 그의 홍채 인식 방법
JP6512810B2 (ja) * 2014-12-11 2019-05-15 キヤノン株式会社 撮像装置および制御方法とプログラム
GB2596029B (en) * 2015-09-16 2022-07-27 Canon Kk Image sensor and image capturing apparatus
KR20170046413A (ko) * 2015-10-21 2017-05-02 삼성전자주식회사 피사체의 눈 검출 방법 및 그 전자 장치
KR102392789B1 (ko) * 2015-10-21 2022-05-02 삼성전자주식회사 초점 설정을 위한 방법 및 그 전자 장치
US10225460B2 (en) * 2016-08-31 2019-03-05 Canon Kabushiki Kaisha Electronic device and method of controlling the same
JP2018207309A (ja) * 2017-06-05 2018-12-27 オリンパス株式会社 撮像装置、撮像方法およびプログラム
JP6602361B2 (ja) * 2017-10-16 2019-11-06 キヤノン株式会社 電子機器及びその制御方法
JP6701145B2 (ja) * 2017-10-16 2020-05-27 キヤノン株式会社 電子機器及びその制御方法
US10958825B2 (en) * 2017-10-17 2021-03-23 Canon Kabushiki Kaisha Electronic apparatus and method for controlling the same

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009118009A (ja) 2007-11-02 2009-05-28 Sony Corp 撮像装置、その制御方法およびプログラム
JP2013160925A (ja) * 2012-02-06 2013-08-19 Canon Inc 撮像装置およびフォーカス制御方法

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020137602A1 (ja) 2018-12-28 2020-07-02 ソニー株式会社 撮像装置、撮像方法、およびプログラム
JPWO2020137602A1 (ja) * 2018-12-28 2021-11-18 ソニーグループ株式会社 撮像装置、撮像方法、およびプログラム
US11539892B2 (en) 2018-12-28 2022-12-27 Sony Group Corporation Imaging device, imaging method, and program
JP2021039167A (ja) * 2019-08-30 2021-03-11 キヤノン株式会社 画像処理装置及び画像処理装置の制御方法
US11812133B2 (en) 2019-08-30 2023-11-07 Canon Kabushiki Kaisha Image processing apparatus and method for controlling image processing apparatus
JP7418104B2 (ja) 2019-08-30 2024-01-19 キヤノン株式会社 画像処理装置及び画像処理装置の制御方法
WO2022209342A1 (ja) * 2021-03-30 2022-10-06 ソニーグループ株式会社 撮像装置、フォーカス制御方法、プログラム

Also Published As

Publication number Publication date
CN105765434A (zh) 2016-07-13
JPWO2015045911A1 (ja) 2017-03-09
US11659277B2 (en) 2023-05-23
US20210227148A1 (en) 2021-07-22
CN105765434B (zh) 2019-06-11
EP3032307A4 (en) 2017-02-22
JP7004014B2 (ja) 2022-01-21
US20200014841A1 (en) 2020-01-09
JP6701512B2 (ja) 2020-05-27
US20160241775A1 (en) 2016-08-18
JP2020074037A (ja) 2020-05-14
EP3032307A1 (en) 2016-06-15
US10440252B2 (en) 2019-10-08
JP2023095973A (ja) 2023-07-06
JP7276393B2 (ja) 2023-05-18
US20230269471A1 (en) 2023-08-24
JP2021185432A (ja) 2021-12-09
US10972652B2 (en) 2021-04-06

Similar Documents

Publication Publication Date Title
JP7276393B2 (ja) 撮影装置および撮影方法
JP4288612B2 (ja) 画像処理装置および方法、並びにプログラム
JP5173453B2 (ja) 撮像装置及び該撮像装置の表示制御方法
KR20110074718A (ko) 화상의 확대 표시 기능을 구비한 카메라
US20160330366A1 (en) Image processing device and method, and program
JP2015052768A (ja) 撮像装置、撮像方法およびプログラム
JP6865395B2 (ja) 撮像装置
JP6435527B2 (ja) 撮像装置
JP2010062987A (ja) 撮像装置及び方法
JP2011097130A (ja) 撮像装置
JP2009047942A (ja) オートフォーカス機構、およびその合焦方法
JP4910581B2 (ja) 撮像装置および撮像方法、並びにプログラム
JP2005215495A (ja) 画像撮影装置
KR20130092213A (ko) 디지털 촬영 장치 및 이의 제어 방법
JP5304756B2 (ja) カメラ、カメラ制御プログラム及びカメラ制御方法
JP2009194469A (ja) 撮像装置
JP2009198956A (ja) 撮像装置及びプログラム
EP2605504A2 (en) Method and apparatus for reproducing image, and computer-readable storage medium
JP6511780B2 (ja) 画像取得装置、及びプログラム
JP6451141B2 (ja) 撮像装置
JP5333949B2 (ja) 撮像装置
JP2017167518A (ja) 撮像装置
JP2019047504A (ja) 撮像装置、装置の制御プログラム及び撮像方法
JP2009171466A (ja) デジタルカメラおよびその画像合成方法
JP2008219130A (ja) 撮影装置および画像表示方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14848520

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2014848520

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2015539109

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 15022145

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE