WO2016056089A1 - カメラ及び撮影方法 - Google Patents

カメラ及び撮影方法 Download PDF

Info

Publication number
WO2016056089A1
WO2016056089A1 PCT/JP2014/076979 JP2014076979W WO2016056089A1 WO 2016056089 A1 WO2016056089 A1 WO 2016056089A1 JP 2014076979 W JP2014076979 W JP 2014076979W WO 2016056089 A1 WO2016056089 A1 WO 2016056089A1
Authority
WO
WIPO (PCT)
Prior art keywords
subject
image
camera
depth
target selection
Prior art date
Application number
PCT/JP2014/076979
Other languages
English (en)
French (fr)
Inventor
清水 宏
鈴木 基之
益岡 信夫
橋本 康宣
Original Assignee
日立マクセル株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日立マクセル株式会社 filed Critical 日立マクセル株式会社
Priority to PCT/JP2014/076979 priority Critical patent/WO2016056089A1/ja
Publication of WO2016056089A1 publication Critical patent/WO2016056089A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/32Means for focusing
    • G03B13/34Power focusing
    • G03B13/36Autofocus systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/958Computational photography systems, e.g. light-field imaging systems for extended depth of field imaging
    • H04N23/959Computational photography systems, e.g. light-field imaging systems for extended depth of field imaging by adjusting depth of field during image capture, e.g. maximising or setting range based on scene characteristics

Definitions

  • the present invention relates to a camera and a photographing method for photographing a subject by adjusting a depth of field.
  • the autofocus function (AF function) in a digital camera, etc. is a contrast AF method that uses the image reflected on the image sensor to move the focus lens and look for areas with a large contrast (contrast) and adjust the focus.
  • the phase difference AF method is adopted in which the light entering from the light is divided into two and guided to a dedicated sensor, and the direction and amount of focus are determined from the interval between the two images formed.
  • Patent Document 1 recognizes a subject in an imageable area so that the entire recognized subject falls within the depth of field. A technique for controlling the depth of field of the subject is disclosed.
  • An object of the present invention is to provide a camera and a photographing method capable of selecting a plurality of targets to be focused by a simple operation.
  • the present invention relates to a camera that shoots a subject by adjusting the depth of field, an imaging sensor that captures an image of the subject captured from the photographing lens through the aperture, a finder that displays the captured subject image on a monitor, A target selection unit that selects a subject to be focused at the time of shooting, and a control unit that adjusts the position of the photographing lens and the aperture amount of the aperture so that the subject selected by the target selection unit falls within the depth of field.
  • a selection unit a touch panel or a joystick is provided in which a user selects a desired subject with a finger while viewing an image with a finder.
  • the present invention also relates to an image sensor that captures an image of a subject captured from a photographing lens through a diaphragm in a camera that adjusts the depth of field, and a finder that displays the captured image of the subject on a monitor.
  • the image processing means for analyzing the image of the subject to extract the contour shape of the subject, and the photographic lens so that the farthest part and the nearest part of the subject within the contour shape extracted by the image processing means fall within the depth of field.
  • a control unit that adjusts the position and the aperture amount of the aperture, and the contour shape extracted by the image processing means is displayed in an emphasized manner superimposed on the image in the viewfinder.
  • a display step for displaying an image of the subject captured from the photographing lens through the aperture on the finder and a subject to be focused at the time of photographing are selected.
  • a plurality of targets to be focused can be selected with a simple operation. Therefore, user convenience is improved, and shooting errors can be prevented.
  • FIG. 1 is a diagram illustrating a configuration of a camera according to Embodiment 1.
  • FIG. 1 shows the external appearance of a camera.
  • FIG. 6 is a diagram for explaining subject exclusion processing for focusing. 6 is a flowchart illustrating a shooting operation according to the first embodiment.
  • FIG. 10 is a diagram illustrating a method for photographing a subject with a depth (Example 2). 9 is a flowchart illustrating a shooting operation according to the second embodiment.
  • FIG. 1 is a diagram showing a basic configuration of a digital still camera.
  • the camera 1 captures an optical image of the subject 100 via the photographing lens 2 and the iris (iris) 3, forms an image on an image sensor 4 such as a CCD, and shoots (converts it into an electrical signal).
  • the image signal is subjected to various image processing and image analysis by the signal processing unit (DSP) 5, converted into encoded data by the codec 6, and stored in the memory 7.
  • DSP signal processing unit
  • an image processing signal from the DSP 5 can be displayed as an image on a liquid crystal display (LCD) 8 or can be monitored via an electronic viewfinder (EVF) 9 and an eyepiece 10.
  • LCD liquid crystal display
  • EMF electronic viewfinder
  • the subject 100 includes a plurality of objects A, B, and C, and the distances L1, L2, and L3 from the camera (imaging sensor 4) of each object are different. Then, it will be described how to shoot with these objects in focus.
  • FIG. 2 is a diagram for explaining the focusing of one subject.
  • Light (optical image) from the subject 100 passes through the lens 2 and forms an image on the image sensor 4.
  • the focal length of the lens 2 is f
  • the distance from the lens 2 to the subject 100 is s1
  • the distance from the lens 2 to the imaging position is s2
  • the following relational expression (1) is established.
  • 1 / s1 + 1 / s2 1 / f
  • (A) is a case where the imaging sensor 4 is located at the imaging position (distance S2), and the light from the point light source is converged to only one point on the sensor surface. That is, the subject 100 is in focus and is photographed.
  • (B) is a case where the distance s1 to the subject 100 or the distance S2 to the imaging sensor 4 is changed from the expression (1) and is not in focus.
  • the light from the point light source becomes a circular image on the surface of the sensor 4, and this circle is called a circle of confusion, and the diameter d of the circle of confusion indicates the amount of blur on the imaging surface.
  • the diameter d of the circle of confusion increases as the position of the subject 100 deviates from the in-focus position s1.
  • (C) is a case where the aperture value (F value) of the aperture 3 is increased, and the diameter d of the circle of confusion can be decreased by reducing the beam width.
  • the size d of the circle of confusion is small enough to be indistinguishable from the point of the human eye when appreciating the captured image, it may be considered that the focus is in focus.
  • This circle of confusion is called an acceptable circle of confusion.
  • the size of the permissible circle of confusion (allowable diameter d0) is said to be 0.07 mm at a position separated by a clear viewing distance (30 cm). Further, the range of the subject position is determined so that the size of the circle of confusion is within the allowable circle of confusion (d ⁇ d0), and this is called the depth of field D.
  • the depth of field D depends on the focal length f and aperture value of the lens.
  • the relationship between the depth of field D, the lens positions s1 and s2, the focal length f of the lens, and the aperture value F can be obtained by calculation.
  • FIG. 3 is a diagram for explaining focusing of a plurality of subjects.
  • the subject 100 is composed of a plurality of objects A, B, and C, in order to focus the desired object, it is necessary that the diameter of the circle of confusion on the surface of the imaging sensor 4 of the desired object is within an allowable diameter.
  • the position of the desired object may be within the range of the depth of field.
  • the diameters da and db of the circles of confusion of the objects A and B are set within the allowable diameter d0, and the diameter dc of the circle of confusion of the object C is set larger than the allowable diameter d0.
  • the position of the lens 2 is moved to the focus position (focus position) with respect to the objects A and B by the control unit 11 including the adjustment mechanism (Adjustment 1), and then the diaphragm 3 is narrowed (Adjustment 2).
  • the diameter of the circle of confusion for each object satisfies the above conditions.
  • the focus is set slightly before the intermediate point between the objects A and B, and in the adjustment 2, the diaphragm 3 is stopped until the depth of field D covers the positions of the objects A and B.
  • the distance from the camera (imaging sensor 4) to the target subject (object) in this case, the farthest L2 value and the latest L1 value
  • the optimum adjustment values focus position, aperture value
  • FIG. 4 is a diagram illustrating the configuration of the camera according to the first embodiment.
  • the camera 1 ′ is a single-lens reflex system, and captures an optical image of the subject 100 through the photographing lens 12 and the iris (iris) 13, forms an image on an image sensor (main sensor) 15 such as a CCD, and converts it into an electrical signal.
  • the captured image signal is displayed on a liquid crystal display (not shown) via a signal processing unit (DSP) (not shown), and the image data is stored in a memory via a codec.
  • DSP signal processing unit
  • the optical image captured from the photographing lens 12 can be monitored by switching the optical path by the reflex mirror 14 and guiding it to a finder mechanism including the condenser lens 16, the pentaprism 17, and the eyepiece lens 18.
  • a finder mechanism including the condenser lens 16, the pentaprism 17, and the eyepiece lens 18.
  • an autofocus (AF) sensor 19 that detects the focus state
  • an exposure sensor 20 that detects the exposure state are provided in the optical path on the way.
  • the objective lens 21 and the sub sensor 22 are provided as a sub imaging system.
  • the sub sensor 22 always captures the subject even when the main sensor 15 is blocked by the mechanical shutter.
  • FIG. 5 is a diagram showing the appearance of the camera.
  • the camera 1 ' according to the present embodiment is configured so that a plurality of targets to be focused can be easily selected in the viewfinder.
  • (A) is a front perspective view of the camera, and has an eyepiece lens 21 as a sub photographing system at a position above the photographing lens 12.
  • a touch panel 31 is provided near the front surface of the shutter button 30. The touch panel 31 is used for the user to select a subject (target) to be focused with a finger while looking at the viewfinder.
  • FIG. B is a front perspective view (partial view) of the camera, in which a joystick 32 is provided instead of the touch panel to select a target.
  • the user selects a target by operating the lever of the joystick 32 while looking at the finder.
  • (C) is a rear perspective view (partial view) of the camera, and includes a viewfinder 40 for displaying a subject on a monitor, a lock-on button 33, and a clear button 34.
  • the lock-on button 33 is for determining and storing a subject selected by the user as a target, and is stored as a target even if the subject moves in the finder 40 or is removed from the finder 40 thereafter.
  • the clear button 34 is for removing (releasing) a subject once determined as a target from the target.
  • the above configuration is an example, and a configuration in which the joystick 32 is incorporated in the shutter button 30 itself, or a configuration in which the lock-on button 33 and the clear button 34 are incorporated in the shutter button 30 itself (switching by half-pressing / full-pressing the button) is possible. is there.
  • FIG. 6 is a diagram illustrating an example of a target selection operation in the viewfinder.
  • the viewfinder 40 displays a plurality of subject images 100 ′.
  • the user moves the cursor 41 in the screen up, down, left, and right to match the desired subject (target) to be focused.
  • the touch panel 31 and the target selection means such as the joystick 32 shown in FIG. 5 are used.
  • the cursor 41 is set to the subject A.
  • (C) is a state in which the lock-on button 33 is pressed and the subject A is determined as the target.
  • a lock-on mark 42 is displayed on the subject set as the target.
  • the cursor 41 is positioned on the subject B.
  • (D) is a state in which the lock-on button 33 is pressed and the subject B is determined as a target. In order to release the lock-on mark set for the subject A, the cursor 41 is placed on the subject A and the clear button 34 is pressed.
  • (E) is a state in which the subject B is removed from the viewfinder 40 by moving the camera. Even in this state, the subject B is present in the field of view of the sub-sensor 22 in the sub photographing system, and the subject B is stored as a target.
  • (F) is a state in which the camera is returned to the original position and the subject B is taken into the finder 40 again. The lock-on mark 42 is maintained on the subject B, and it is stored as a target.
  • the subject to be focused can be easily selected by the target selection means provided on the camera. Further, even if the subject once selected as the target is moved away from the finder 40 by moving the camera, it is tracked by the sub sensor 22 and stored as a target.
  • FIG. 7 is a diagram for explaining subject exclusion processing for focusing.
  • (A) is a state in which the objects A, B, and C are selected as targets from the subject image 100 ′ in the finder 40 by the target selection means (touch panel 31 or the like) and the lock-on mark 42 is given. If the shutter is pressed in this state, naturally, all the subjects A, B, and C are focused and photographed.
  • (B) is a case where the camera is moved and the shutter is pushed with the subject C removed from the viewfinder 40. In this case, adjustment is performed so that only the subject existing in the finder 40, that is, only the subjects A and B that are the photographing targets are focused.
  • (C) shows the setting of the depth of field D at the time of shooting in (b).
  • the depth of field D is set so as to include the subjects A and B and exclude the subject C. In this way, by setting the depth of field D to be limited to the subject existing in the finder, the depth of field D becomes shallower, the focus position and the aperture amount setting are further optimized, and higher image quality is achieved. Images can be taken.
  • FIG. 8 is a flowchart showing the photographing operation in the first embodiment.
  • a description will be given with reference to FIGS.
  • the user moves the cursor 41 to a desired subject (target) to be focused while looking at the viewfinder 40.
  • the touch panel 31 or the joystick 32 is used for target selection.
  • the lock-on button 33 is pressed to determine the target subject.
  • the clear button 34 is pressed to cancel the target setting.
  • the distance to the selected target is measured.
  • the lens position can be scanned and obtained from the focus position (focus position).
  • it waits for the shutter button 30 to be pressed. Further, the process returns to S101 until the shutter button is pressed, and the above operation is repeated to select another target and measure its distance.
  • control unit 11 determines the farthest target and the latest target from the camera, and the focus position and the aperture so that these positions fall within the depth of field D. Adjust the amount (see FIG. 3).
  • the shutter speed and ISO sensitivity are set according to the aperture amount.
  • the light from the subject is captured and photographed.
  • a plurality of targets to be focused can be selected with a simple operation, and the usability is improved. Further, since the sub sensor 22 is provided in addition to the main sensor 15, the fact that the selected target is an object to be focused even if the selected target is removed from the finder 40 is effective in preventing a photographing error due to out of focus.
  • the image sensor 15 such as a CCD is used as the image sensor
  • an image system using a film (photosensitive material) instead of the image sensor 15 may be used.
  • the same effect can be obtained by the subject tracking function by the sub sensor.
  • FIG. 9 is a diagram showing a method for photographing a subject having a depth. Here, a case where “flower” is photographed as a subject will be described.
  • (A) shows an image of a subject (flower) 50 having a depth.
  • (B) shows an image of a subject (monitor image such as a viewfinder) taken into the camera by a normal method. Even if the whole flower is focused, the focus is only on a part 51 of the flower, and the other part (shown by a broken line) 52 may be out of focus.
  • the contour shape 53 of the subject 50 is extracted from the image in (b). Therefore, the contour shape peculiar to the subject object is extracted by binarizing the finder visually recognized image.
  • the contour shape is a closed curve, and the inside thereof is a target area for focusing.
  • the outline shape of “petals” is extracted.
  • the extracted contour shape is superimposed and displayed on the finder image. For example, the user can easily know which part of the subject is selected as the target by increasing the thickness of the outline or changing the color.
  • the focus and aperture of the camera are adjusted so that each subject part surrounded by the contour shape is included in the depth of field D of the camera 1. This is the same as the adjustment described with reference to FIG. As a result, the subject portion inside the contour shape 53 can be photographed in a focused state.
  • FIG. 10 is a flowchart showing the photographing operation in the second embodiment. Hereinafter, description will be given with reference to FIG.
  • the visual field image of the viewfinder 9 is binarized.
  • the signal from the image sensor 4 is binarized by the DSP 5.
  • the contour shape 53 of the subject object is extracted by detecting the edge position by comparing the binarization processing signal with the threshold value.
  • the extracted contour shape 53 is highlighted and superimposed on the view field image of the viewfinder 9.
  • the user confirms the displayed contour shape 53 and presses the shutter button 30.
  • control unit 11 performs focus scan on the lens 2 and measures the distance from the camera of each subject portion in the contour shape 53. Then, the farthest distance from the camera and the nearest distance are obtained.
  • control unit 11 adjusts the focus position and the aperture amount so that the farthest and closest distance object positions fall within the depth of field D (see FIG. 3).
  • the shutter speed and ISO sensitivity are set according to the aperture amount.
  • the light from the subject is captured and photographed.
  • the second embodiment even a subject having a depth can be photographed in a focused state within the contour shape peculiar to the subject.
  • the focus range (contour shape) is highlighted on the finder, it is easy for the user to check and has the effect of preventing photographing errors.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Studio Devices (AREA)

Abstract

 被写界深度を調整して被写体を撮影するカメラ1において、撮影レンズ12から絞りを介して取り込んだ被写体の画像を撮影する撮像センサ4と、取り込んだ被写体の画像をモニター表示するファインダ9と、撮影時にピントを合わせる被写体を選択するターゲット選択手段と、ターゲット選択手段により選択した被写体が被写界深度に入るように撮影レンズ2の位置と絞り3の絞り量を調整する制御部11と、を備える。ターゲット選択手段として、ユーザがファインダ40で画像を見ながら指で所望の被写体を選択するタッチパネル31またはジョイスティック32を設ける。

Description

カメラ及び撮影方法
 本発明は、被写界深度を調整して被写体を撮影するカメラ及び撮影方法に関する。
 デジタルカメラ等におけるオートフォーカス機能(AF機能)には、撮像素子に映った映像をもとに、ピントレンズを動かしながら明暗差(コントラスト)が大きなところを探してピントを合わせるコントラストAF方式や、レンズから入った光を2つに分けて専用のセンサへ導き、結像した2つの画像の間隔からピントの方向と量を判断する位相差AF方式が採用されている。また、ファインダに写った被写体のピントを合わせたい部分を決めるためにフォーカスロック機能があり、カメラが自動的に、あるいはユーザが選択して決定することができる。また、奥行のある被写体全体にピントを合わせるために、例えば特許文献1には、撮影可能なエリアの中の被写体を認識し、この認識された被写体の全体が被写界深度内に入るように、該被写体の被写界深度を制御する技術が開示されている。
特開平11-168654号公報
 被写体の中にピントを合わせたい被写体(ターゲット)が複数存在する場合、複数のターゲットに同時にピントを合わせる操作が必要になる。具体的には、各ターゲットの位置が奥行方向に距離差がある場合には、複数ターゲットの中間にピントを合わせ、被写界深度が複数ターゲットの距離範囲をカバーするように絞りを決定すればよい。この操作は一眼レフカメラ等においてマニュアルフォーカスで撮影する場合には可能であるが、デジタルカメラにおけるオートフォーカス機能としては実現されていない。その理由として、ファインダ内でピントを合わせたい複数のターゲットを簡単に選択することが困難であることが挙げられる。
 本発明の目的は、簡単な操作でピントを合わせたい複数のターゲットを選択することのできるカメラ及び撮影方法を提供することである。
 本発明は、被写界深度を調整して被写体を撮影するカメラにおいて、撮影レンズから絞りを介して取り込んだ被写体の画像を撮影する撮像センサと、取り込んだ被写体の画像をモニター表示するファインダと、撮影時にピントを合わせる被写体を選択するターゲット選択手段と、ターゲット選択手段により選択した被写体が被写界深度に入るように撮影レンズの位置と絞りの絞り量を調整する制御部と、を備え、ターゲット選択手段として、ユーザがファインダで画像を見ながら指で所望の被写体を選択するタッチパネルまたはジョイスティックを設けたことを特徴とする。
 また本発明は、被写界深度を調整して被写体を撮影するカメラにおいて、撮影レンズから絞りを介して取り込んだ被写体の画像を撮影する撮像センサと、取り込んだ被写体の画像をモニター表示するファインダと、被写体の画像を解析して被写体の輪郭形状を抽出する画像処理手段と、画像処理手段により抽出した輪郭形状内の被写体の最遠部と最近部が被写界深度に入るように撮影レンズの位置と絞りの絞り量を調整する制御部と、を備え、画像処理手段により抽出した輪郭形状を、ファインダ内の画像に重ねて強調して表示することを特徴とする。
 本発明は、被写界深度を調整して被写体を撮影する撮影方法において、撮影レンズから絞りを介して取り込んだ被写体の画像をファインダに表示する表示ステップと、撮影時にピントを合わせる被写体を選択するターゲット選択ステップと、ターゲット選択ステップにより選択した被写体が被写界深度に入るように撮影レンズの位置と絞りの絞り量を調整する調整ステップと、撮影レンズと絞りを調整した後、被写体の画像を撮像センサで撮影する撮影ステップと、を備え、ターゲット選択ステップでは、タッチパネルまたはジョイスティックを用いてユーザが操作することで、所望の被写体が選択されることを特徴とする。
 本発明によれば、簡単な操作でピントを合わせたい複数のターゲットを選択することができる。よって、ユーザの使い勝手が向上するとともに、撮影ミスを防止できる。
デジタルスチルカメラの基本構成を示す図。 1つの被写体のピント合わせを説明する図。 複数の被写体のピント合わせを説明する図。 実施例1にかかるカメラの構成を示す図。 カメラの外観を示す図。 ビューファインダにおけるターゲット選択操作の一例を示す図。 ピント合わせを行う被写体の除外処理について説明する図。 実施例1における撮影動作を示すフローチャート。 奥行きのある被写体の撮影方法を示す図(実施例2)。 実施例2における撮影動作を示すフローチャート。
 はじめに、本発明が対象とするカメラの基本構成とピント合わせについて説明する。
  図1は、デジタルスチルカメラの基本構成を示す図である。カメラ1は、被写体100の光学像を、撮影レンズ2、絞り(アイリス)3を介して取り込み、CCDなどの撮像センサ4に結像させて撮影(電気信号に変換)する。撮像信号は、信号処理部(DSP)5で各種の画像処理や画像解析を行い、コーデック6で符号化データに変換してメモリ7に記憶する。一方、DSP5からの画像処理信号は、液晶ディスプレイ(LCD)8にて画像としてモニター表示し、あるいは、電子ビューファインダ(EVF)9と接眼レンズ10を介してモニターすることができる。
 被写体100は複数のオブジェクトA,B,Cからなり、各オブジェクトのカメラ(撮像センサ4)からの距離L1,L2,L3が異なる場合を想定する。そして、これらの各オブジェクトにピントを合わせて撮影することについて説明する。
 図2は、1つの被写体のピント合わせを説明する図である。被写体100からの光(光学像)はレンズ2を通って撮像センサ4に結像される。レンズ2の焦点距離をf、レンズ2から被写体100までの距離をs1、レンズ2から結像位置までの距離をs2とすると、これらの間で次の関係式(1)が成り立つ。
      1/s1+1/s2=1/f   (1)
 (a)は、撮像センサ4が結像位置(距離S2)に位置する場合で、点光源からの光がセンサ面で1点にのみ収束している。すなわち、被写体100のピントが合って撮影される状態である。
 (b)は、被写体100までの距離s1、または撮像センサ4までの距離S2が(1)式から変化した場合で、ピントが合っていない状態である。この場合、点光源からの光がセンサ4の面上では円形像となり、この円は錯乱円と呼ばれ、錯乱円の直径dは撮像面でのボケ量を示すものである。錯乱円の直径dは、被写体100の位置がピントが合っている位置s1からずれるほど大きくなる。
 (c)は、絞り3の絞り値(F値)を大きくした場合で、光束幅を狭くすることで、錯乱円の直径dを小さくすることができる。
 ここに錯乱円の大きさdは、撮影画像を鑑賞する際に、人間の目で見て点と区別がつかないほどに小さければ、ピントが合っていると見なしてもよく、そのような大きさの錯乱円を許容錯乱円と呼ぶ。許容錯乱円の大きさ(許容直径d0)は、明視距離(30cm)だけ離れた位置で0.07mmと言われる。また、錯乱円の大きさが許容錯乱円以内(d<d0)となるための被写***置の範囲が決定され、これは被写界深度Dと呼ばれる。
 被写界深度Dは、レンズの焦点距離fや絞り値に依存する。レンズの焦点距離fが短いほど被写界深度Dは深くなり、絞り値(F値)が大きいほど被写界深度Dは深くなる。被写界深度Dとレンズ位置s1,s2、レンズの焦点距離f、絞り値Fの関係は計算で求めることができる。
 図3は、複数の被写体のピント合わせを説明する図である。被写体100が複数のオブジェクトA,B,Cからなる場合、所望のオブジェクトのピントを合わせるには、所望のオブジェクトの撮像センサ4面上での錯乱円直径を許容直径以内とする必要がある。言い換えれば、所望のオブジェクトの位置が被写界深度の範囲内に入るようにすればよい。
 例えば、オブジェクトA,Bについてピント合わせを行い、オブジェクトCについては背景画としてぼかしたい場合を想定する。この場合、オブジェクトA,Bの錯乱円の直径da,dbを許容直径d0以内とし、オブジェクトCの錯乱円の直径dcを許容直径d0より大きくする。この調整では、調整機構を含む制御部11により、レンズ2の位置をオブジェクトA,Bに対するフォーカス位置(合焦位置)に移動させ(調整1)、次に絞り3を絞る(調整2)ことで、各オブジェクトに対する錯乱円の直径が上記条件を満たすようにする。具体的には、調整1ではオブジェクトA,Bの中間点より少し手前にピントを合わせ、調整2では被写界深度DがオブジェクトA,Bの位置を覆う程度まで絞り3を絞る。
 なお、上記したフォーカス調整(調整1)と絞り調整(調整2)では、カメラ(撮像センサ4)からターゲットとなる被写体(オブジェクト)までの距離(この場合最遠のL2と最近のL1の値)を測定し、これらをもとに計算により最適な調整値(フォーカス位置、絞り値)を求めることができる。
  以下、具体的にピント合わせを好適に行うための実施例を説明する。
 図4は、実施例1にかかるカメラの構成を示す図である。カメラ1’は一眼レフレクス方式で、被写体100の光学像を、撮影レンズ12と絞り(アイリス)13を介して取り込み、CCDなどの撮像センサ(メインセンサ)15に結像させ、電気信号に変換する。撮影した画像信号は図示しない信号処理部(DSP)を経て図示しない液晶ディスプレイに表示され、またコーデックを経て画像データをメモリに記憶する。
 一方、撮影レンズ12から取り込まれた光学像は、レフレクスミラー14で光路を切替え、コンデンサレンズ16、ペンタプリズム17、接眼レンズ18からなるファインダ機構に導いてモニターすることができる。また途中の光路に、フォーカス状態を検出するオートフォーカス(AF)センサ19と、露出状態を検出する露出センサ20を備える。
 以上のメイン撮影系の他に、本実施例では、サブ撮影系として、対物レンズ21とサブセンサ22を設けた。これにより、メインセンサ15が機械シャッターでふさがれている状態でも、サブセンサ22が常時被写体を捉える構成とした。
 図5は、カメラの外観を示す図である。本実施例のカメラ1’は、ビューファインダ内でピントを合わせたい複数のターゲットを簡単に選択できる構成としている。
 (a)はカメラの前面斜視図で、撮影レンズ12の上方位置にはサブ撮影系である接眼レンズ21を有している。またシャッターボタン30の前面近傍には、タッチパネル31を設けている。このタッチパネル31は、ユーザがファインダを見ながら、ピントを合わせたい被写体(ターゲット)を指で選択するために用いる。
 (b)はカメラの前面斜視図(部分図)で、ターゲットを選択するためにタッチパネルの代わりにジョイスティック32を設けたものである。ユーザはファインダを見ながら、ジョイスティック32のレバーを操作することでターゲットを選択する。
 (c)はカメラの背面斜視図(部分図)で、被写体をモニター表示するビューファインダ40と、ロックオンボタン33、クリアボタン34を有する。ロックオンボタン33は、ユーザが選択した被写体をターゲットとして決定し記憶するためのもので、以後、その被写体がファインダ40内を移動し、あるいはファインダ40から外れても、ターゲットとして記憶される。またクリアボタン34は、一旦ターゲットとして決定した被写体を、ターゲットから外す(解除する)ためのものである。
 上記構成は一例であり、シャッターボタン30自体にジョイスティック32を組み込んだ構成や、シャッターボタン30自体にロックオンボタン33やクリアボタン34を組み込んだ構成(ボタン半押し/全押しで切替)も可能である。
 図6は、ビューファインダにおけるターゲット選択操作の一例を示す図である。
  (a)では、ビューファインダ40には、複数の被写体の画像100’が表示されている。ユーザは、画面内のカーソル41を上下左右に移動させて、ピントを合わせたい所望の被写体(ターゲット)に合わせる。カーソル41を移動させるため、図5に示したタッチパネル31や、ジョイスティック32などのターゲット選択手段を用いる。
  (b)では、カーソル41を被写体Aに合わせた状態である。
 (c)は、ロックオンボタン33を押して、被写体Aをターゲットに決定した状態である。ターゲットに設定された被写体には、ロックオンマーク42が表示される。さらに、被写体Bにカーソル41を合わせた状態である。
  (d)は、ロックオンボタン33を押して、被写体Bをターゲットに決定した状態である。なお、被写体Aに設定したロックオンマークを解除したいときは、カーソル41を被写体Aに重ね、クリアボタン34を押せばよい。
 (e)は、カメラを動かして、ファインダ40から被写体Bが外れた状態である。この状態でも、被写体Bはサブ撮影系のサブセンサ22の視野内に存在して、被写体Bがターゲットであることを記憶している。
  (f)は、再びカメラを元に戻し被写体Bをファインダ40内に取り込んだ状態である。被写体Bにはロックオンマーク42が維持されており、ターゲットであることを記憶している。
 このように、カメラに設けたターゲット選択手段によりピントを合わせる被写体を容易に選択することができる。また、一旦ターゲットに選択した被写体は、カメラを動かしてファインダ40から外れてもサブセンサ22により追尾しターゲットとして記憶されているので、使い勝手に優れるものとなる。
 図7は、ピント合わせを行う被写体の除外処理について説明する図である。
  (a)は、ターゲット選択手段(タッチパネル31など)により、ファインダ40内の被写体の画像100’からオブジェクトA,B,Cをターゲットとして選択し、ロックオンマーク42を付与した状態である。この状態でシャッターを押せば、当然ながら、被写体A,B,Cの全てにピントを合わせて撮影する。
 (b)は、カメラを移動し、被写体Cをファインダ40から外した状態でシャッターを押す場合である。この場合は、ファインダ40内に存在する被写体のみ、すなわち撮影対象である被写体A,Bだけにピントを合わせるように調整する。
 (c)は(b)の撮影時の被写界深度Dの設定を示す。被写界深度Dは被写体A,Bを含み、被写体Cを除外するように設定する。このように、被写界深度Dをファインダ内に存在する被写体に限定して設定することで、被写界深度Dが浅くなり、フォーカス位置や絞り量の設定をより最適化し、より高画質の画像を撮影することができる。
 図8は、実施例1における撮影動作を示すフローチャートである。以下、前記図5、図6を参照して説明する。
 S101では、ユーザはビューファインダ40を見ながらピント合わせを行いたい所望の被写体(ターゲット)にカーソル41を合わせる。ターゲット選択のため、タッチパネル31またはジョイスティック32を使用する。
  S102では、ロックオンボタン33を押して、ターゲットとする被写体を確定する。またはクリアボタン34を押して、ターゲットの設定を解除する。
 S103では、選択したターゲットまでの距離を測定する。例えば、レンズ位置をスキャンしてそのフォーカス位置(合焦位置)から求めることができる。
  S104では、シャッターボタン30が押されるのを待つ。また、シャッターボタンが押されるまでS101に戻り上記操作を繰り返し、他のターゲットを選択しその距離を測定する。
 S105では、複数のターゲットが存在する場合、制御部11はカメラからの距離が最遠のターゲットと最近のターゲットとを決定し、それらの位置が被写界深度Dに入るようにフォーカス位置と絞り量を調整する(図3参照)。
 S106では、絞り量に合わせてシャッター速度とISO感度を設定する。
  S107では、被写体からの光を取り込み撮影する。
 このように実施例1によれば、簡単な操作でピントを合わせたい複数のターゲットを選択することができ、使い勝手が向上する。また、メインセンサ15の他にサブセンサ22を設けたので、選択したターゲットがファインダ40から外れてもピント合わせ対象であることを記憶しており、ピントボケによる撮影ミスを防止する効果がある。
 なお、上記実施例では、撮像素子としてCCDなどの撮像センサ15を用いる場合を述べたが、撮像センサ15の代わりにフィルム(感光材)を用いた撮像方式でも構わない。この場合にも、サブセンサによる被写体追尾機能により、同様の効果を得ることができる。
 実施例2では、奥行きのある被写体、すなわち、同一被写体においてカメラからの距離が異なる場合の撮影について述べる。カメラの構成は図1と同様である。
 図9は、奥行きのある被写体の撮影方法を示す図である。ここでは被写体として「花」を撮影する場合で説明する。
 (a)は、奥行きのある被写体(花)50の画像を示す。
  (b)は、通常の方法でカメラに取り込んだ被写体の画像(ファインダなどのモニター画像)を示す。花全体にピントを合わせても、花の一部51にしかピントが合わず、他の部分(破線で示す)52はピントがボケてしまう場合がある。
 (c)では、(b)の画像から被写体50の輪郭形状53を抽出する。そのため、ファインダ視認画像を2値化処理することで、被写体オブジェクト特有の輪郭形状を抽出する。輪郭形状は閉じた曲線であり、この内側がピント合わせのターゲット領域となる。この例では「花びら」の輪郭形状を抽出している。そして、抽出した輪郭形状をファインダ画像に重ねて強調して表示する。例えば、輪郭線の太さを太くしたり色を変えることで、被写体のどの部分がターゲットに選択されているかを、ユーザは容易に知ることができる。
 (d)では、輪郭形状に囲まれた各被写体部分がカメラ1の被写界深度Dに含まれるようにカメラのフォーカスと絞りを調整する。これは、前記図3で説明した調整と同様である。その結果、輪郭形状53の内部の被写体部分はピントが合った状態で撮影することができる。
 図10は、実施例2における撮影動作を示すフローチャートである。以下、前記図1等を参照して説明する。
 S201では、ビューファインダ9の視野画像の2値化処理を行う。例えば、撮像センサ4からの信号をDSP5で2値化処理を行う。
 S202では、2値化処理信号を閾値と比較してエッジ位置の検出することで、被写体オブジェクトの輪郭形状53を抽出する。抽出した輪郭形状53は、ビューファインダ9の視野画像に重ねて強調表示する。
  S203では、ユーザは表示された輪郭形状53を確認し、シャッターボタン30を押す。
 S204では、制御部11はレンズ2をフォーカススキャンして、輪郭形状53内の各被写体部分のカメラからの距離を測定する。そして、カメラからの最遠距離と最近距離を求める。
 S205では、制御部11は最遠距離と最近距離の被写***置が被写界深度Dに入るように、フォーカス位置と絞り量を調整する(図3参照)。
 S206では、絞り量に合わせてシャッター速度とISO感度を設定する。
  S207では、被写体からの光を取り込み撮影する。
 このように実施例2によれば、奥行きのある被写体であっても、被写体特有の輪郭形状の内部ではピントを合わせた状態で撮影することができる。また、ピントを合わせる範囲(輪郭形状)をファインダに強調表示するので、ユーザの確認が容易で撮影ミスを防止する効果がある。
 1,1’:カメラ、
 2,12:撮影レンズ、
 3,13:絞り、
 4,15:撮像センサ、
 5:信号処理部(DSP)、
 6:コーデック、
 7:メモリ、
 8:液晶ディスプレイ、
 9:電子ビューファインダ、
 10,18:接眼レンズ、
 11:制御部、
 14:レフレクスミラー、
 16:コンデンサレンズ、
 17:ペンタプリズム、
 19:オートフォーカス(AF)センサ、
 20:露出センサ、
 21:対物レンズ、
 22:サブセンサ、
 30:シャッターボタン、
 31:タッチパネル、
 32:ジョイスティック、
 33:ロックオンボタン、
 34:クリアボタン、
 40:ビューファインダ、
 41:カーソル、
 42:ロックオンマーク、
 50,100:被写体、
 51:ピントが合っている部分、
 52:ピントがボケている部分。

Claims (9)

  1.  被写界深度を調整して被写体を撮影するカメラにおいて、
     撮影レンズから絞りを介して取り込んだ被写体の画像を撮影する撮像センサと、
     前記取り込んだ被写体の画像をモニター表示するファインダと、
     撮影時にピントを合わせる被写体を選択するターゲット選択手段と、
     前記ターゲット選択手段により選択した被写体が被写界深度に入るように前記撮影レンズの位置と前記絞りの絞り量を調整する制御部と、を備え、
     前記ターゲット選択手段として、ユーザが前記ファインダで画像を見ながら指で所望の被写体を選択するタッチパネルまたはジョイスティックを設けたことを特徴とするカメラ。
  2.  請求項1に記載のカメラにおいて、
     前記ターゲット選択手段による操作では、前記ファインダ内に表示されたカーソルを移動させ所望の被写体に重ねることで被写体を選択し、選択された被写体には選択されたことを示すロックオンマークを表示することを特徴とするカメラ。
  3.  請求項1または2に記載のカメラにおいて、
     前記撮像センサの他に、対物レンズから取り込んだ前記被写体の画像を撮影するサブセンサを備え、
     前記ターゲット選択手段にて選択した被写体が前記ファインダから外れた場合でも、前記サブセンサにより該被写体を追尾し、該被写体が選択された被写体であることを記憶していることを特徴とするカメラ。
  4.  請求項1または2に記載のカメラにおいて、
     撮影時に、前記ターゲット選択手段にて選択した被写体が前記ファインダから外れた場合には、前記制御部は、前記ファインダから外れた被写体を除外し他の選択した被写体が被写界深度に入るように前記撮影レンズの位置と前記絞りの絞り量を調整することを特徴とするカメラ。
  5.  被写界深度を調整して被写体を撮影するカメラにおいて、
     撮影レンズから絞りを介して取り込んだ被写体の画像を撮影する撮像センサと、
     前記取り込んだ被写体の画像をモニター表示するファインダと、
     前記被写体の画像を解析して該被写体の輪郭形状を抽出する画像処理手段と、
     前記画像処理手段により抽出した輪郭形状内の被写体の最遠部と最近部が被写界深度に入るように前記撮影レンズの位置と前記絞りの絞り量を調整する制御部と、を備え、
     前記画像処理手段により抽出した輪郭形状を、前記ファインダ内の画像に重ねて強調して表示することを特徴とするカメラ。
  6.  被写界深度を調整して被写体を撮影する撮影方法において、
     撮影レンズから絞りを介して取り込んだ被写体の画像をファインダに表示する表示ステップと、
     撮影時にピントを合わせる被写体を選択するターゲット選択ステップと、
     前記ターゲット選択ステップにより選択した被写体が被写界深度に入るように前記撮影レンズの位置と前記絞りの絞り量を調整する調整ステップと、
     前記撮影レンズと前記絞りを調整した後、前記被写体の画像を撮像センサで撮影する撮影ステップと、を備え、
     前記ターゲット選択ステップでは、タッチパネルまたはジョイスティックを用いてユーザが操作することで、所望の被写体が選択されることを特徴とする撮影方法。
  7.  請求項6に記載の撮影方法において、
     前記ターゲット選択ステップでは、前記ファインダ内に表示されたカーソルを移動させ所望の被写体に重ねることで被写体を選択し、選択された被写体には選択されたことを示すロックオンマークを表示することを特徴とする撮影方法。
  8.  請求項6または7に記載の撮影方法において、
     前記ターゲット選択ステップにて選択した被写体が前記ファインダから外れた場合、前記撮像センサとは異なるサブセンサにより該被写体を追尾し、該被写体が選択された被写体であることを記憶していることを特徴とする撮影方法。
  9.  請求項6または7に記載の撮影方法において、
     撮影時に、前記ターゲット選択ステップにて選択した被写体が前記ファインダから外れた場合には、前記調整ステップでは、前記ファインダから外れた被写体を除外し他の選択した被写体が被写界深度に入るように前記撮影レンズの位置と前記絞りの絞り量を調整することを特徴とする撮影方法。
PCT/JP2014/076979 2014-10-08 2014-10-08 カメラ及び撮影方法 WO2016056089A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2014/076979 WO2016056089A1 (ja) 2014-10-08 2014-10-08 カメラ及び撮影方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2014/076979 WO2016056089A1 (ja) 2014-10-08 2014-10-08 カメラ及び撮影方法

Publications (1)

Publication Number Publication Date
WO2016056089A1 true WO2016056089A1 (ja) 2016-04-14

Family

ID=55652748

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/076979 WO2016056089A1 (ja) 2014-10-08 2014-10-08 カメラ及び撮影方法

Country Status (1)

Country Link
WO (1) WO2016056089A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107580176A (zh) * 2017-08-02 2018-01-12 努比亚技术有限公司 一种终端拍摄控制方法、摄像终端及计算机可读存储介质
CN112969023A (zh) * 2021-01-29 2021-06-15 北京骑胜科技有限公司 图像拍摄方法、设备、存储介质以及计算机程序产品

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004310086A (ja) * 2003-04-02 2004-11-04 Hewlett-Packard Development Co Lp 複数のユーザインタフェイスマーカを使用して被写界深度を制御する方法及び装置
JP2008256826A (ja) * 2007-04-03 2008-10-23 Nikon Corp カメラ
JP2009081786A (ja) * 2007-09-27 2009-04-16 Casio Comput Co Ltd 撮像装置、被写体分離方法、およびプログラム
JP2009229586A (ja) * 2008-03-19 2009-10-08 Fujinon Corp オートフォーカスシステム
JP2010128018A (ja) * 2008-11-25 2010-06-10 Sony Corp 撮像装置、撮像方法及びプログラム
JP2012170046A (ja) * 2010-11-02 2012-09-06 Olympus Corp 画像処理装置、それを備えた画像表示装置及び撮像装置、画像処理方法、並びに画像処理プログラム
JP2014039165A (ja) * 2012-08-16 2014-02-27 Canon Inc 追尾機能付き撮影装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004310086A (ja) * 2003-04-02 2004-11-04 Hewlett-Packard Development Co Lp 複数のユーザインタフェイスマーカを使用して被写界深度を制御する方法及び装置
JP2008256826A (ja) * 2007-04-03 2008-10-23 Nikon Corp カメラ
JP2009081786A (ja) * 2007-09-27 2009-04-16 Casio Comput Co Ltd 撮像装置、被写体分離方法、およびプログラム
JP2009229586A (ja) * 2008-03-19 2009-10-08 Fujinon Corp オートフォーカスシステム
JP2010128018A (ja) * 2008-11-25 2010-06-10 Sony Corp 撮像装置、撮像方法及びプログラム
JP2012170046A (ja) * 2010-11-02 2012-09-06 Olympus Corp 画像処理装置、それを備えた画像表示装置及び撮像装置、画像処理方法、並びに画像処理プログラム
JP2014039165A (ja) * 2012-08-16 2014-02-27 Canon Inc 追尾機能付き撮影装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107580176A (zh) * 2017-08-02 2018-01-12 努比亚技术有限公司 一种终端拍摄控制方法、摄像终端及计算机可读存储介质
CN112969023A (zh) * 2021-01-29 2021-06-15 北京骑胜科技有限公司 图像拍摄方法、设备、存储介质以及计算机程序产品

Similar Documents

Publication Publication Date Title
JP5082631B2 (ja) 撮影装置
WO2018101092A1 (ja) 撮像装置およびフリッカ判定方法
JP5896763B2 (ja) 光学機器および自動焦点調節を行う方法
JP2009192774A (ja) 焦点調節装置および撮像装置
JP2016213582A (ja) 観察装置
JP2014202875A (ja) 被写体追跡装置
JP2008187231A (ja) 画像追尾装置および撮像装置
JP2010109923A (ja) 撮像装置
JP5233458B2 (ja) 画像編集装置及び画像編集プログラム
JP2012208507A (ja) 画像追尾装置
JP2008271006A (ja) 画像追尾装置、画像追尾方法および撮像装置
WO2016056089A1 (ja) カメラ及び撮影方法
JP6346484B2 (ja) 画像処理装置およびその制御方法
JP2009010672A (ja) 焦点検出装置および撮像装置
JP5023750B2 (ja) 測距装置および撮像装置
JP2013186293A (ja) 画像生成装置および画像表示方法
JP5359150B2 (ja) 撮像装置
JP5590850B2 (ja) 撮像装置および撮像装置のフォーカス制御方法
JP2008298956A (ja) 撮像装置
JP2008111897A (ja) オートフォーカス装置および撮像装置
JP6699679B2 (ja) 撮像装置
JP2015187662A (ja) 焦点調節装置および撮像装置
JP2010054586A (ja) 焦点調節装置、撮像装置
JP2007114414A (ja) 撮像装置
JP2016170429A (ja) 画像処理装置、画像処理方法、プログラム、それを記憶した記憶媒体

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14903631

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14903631

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP