JP2012203352A - Photographic apparatus and live view image display method - Google Patents

Photographic apparatus and live view image display method Download PDF

Info

Publication number
JP2012203352A
JP2012203352A JP2011070509A JP2011070509A JP2012203352A JP 2012203352 A JP2012203352 A JP 2012203352A JP 2011070509 A JP2011070509 A JP 2011070509A JP 2011070509 A JP2011070509 A JP 2011070509A JP 2012203352 A JP2012203352 A JP 2012203352A
Authority
JP
Japan
Prior art keywords
point
live view
depth
view image
focus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
JP2011070509A
Other languages
Japanese (ja)
Inventor
Masataka Miyake
雅孝 三宅
Jun Anzai
潤 安齋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Original Assignee
Panasonic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp filed Critical Panasonic Corp
Priority to JP2011070509A priority Critical patent/JP2012203352A/en
Priority to PCT/JP2012/001739 priority patent/WO2012132277A1/en
Publication of JP2012203352A publication Critical patent/JP2012203352A/en
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0075Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for altering, e.g. increasing, the depth of field or depth of focus
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/18Focusing aids
    • G03B13/30Focusing aids indicating depth of field
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/32Means for focusing
    • G03B13/34Power focusing
    • G03B13/36Autofocus systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/261Image signal generators with monoscopic-to-stereoscopic image conversion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • H04N23/632Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/675Focus control based on electronic image sensor signals comprising setting of focusing regions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/958Computational photography systems, e.g. light-field imaging systems for extended depth of field imaging
    • H04N23/959Computational photography systems, e.g. light-field imaging systems for extended depth of field imaging by adjusting depth of field during image capture, e.g. maximising or setting range based on scene characteristics

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Studio Devices (AREA)
  • Exposure Control For Cameras (AREA)
  • Focusing (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Automatic Focus Adjustment (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a photographic apparatus and a live view image display method which are capable of easily taking a picture intended by a user in coordination between a focus point and degrees of defocusing.SOLUTION: In a preview image before auto-focusing, subjects A1 and A2 are at the same distance when viewed from a user, and subjects B1 and B2 are forward of the subjects A1 and A2, and a subject C is forward of the subjects B1 and B2. When the user half-depresses a shutter button with the subject A1 at the center point as a focus point, auto-focusing and automatic exposure are performed. That is, after the user focuses a camera on the subject A1 at the center point, the camera side performs distance measurement with respect to the other four points, namely, subjects A2, B1, B2, and C and determines a degree of defocusing on the basis of a relation to an aperture value (F number) of the camera. The degree of defocusing is represented to the user by 3D effects. That is, the greater the degree of defocusing is, the greater the stereoscopic depth is made.

Description

本発明は、撮影装置およびライブビュー画像表示方法に関し、特に、3Dレンズを搭載したカメラを用いて、フォーカス点およびボケ具合を連携させながら、ユーザの意図する写真を容易に写すことができる撮影装置およびライブビュー画像表示方法に関する。   The present invention relates to an imaging device and a live view image display method, and more particularly, to an imaging device capable of easily capturing a photograph intended by a user using a camera equipped with a 3D lens while linking a focus point and a blur condition. And a live view image display method.

従来、デジタルカメラを用いて被写体の撮影を行なう際、ユーザが被写体の合焦ポイントを指定して撮影できることはよく知られている。しかしながら、合焦したポイント以外の箇所の焦点が合っているか、言い換えるとピントのボケ具合を知るのは困難であった。これは、ピントの合う範囲、つまり被写界深度をライブビューで確認することが困難なことに由来する。   Conventionally, it is well known that when a subject is photographed using a digital camera, the user can designate and focus the subject on the subject. However, it is difficult to know whether or not the point other than the focused point is in focus, in other words, the degree of out of focus. This is because it is difficult to check the in-focus range, that is, the depth of field with live view.

そこで、オートフォーカス終了後のマニュアルフォーカス動作で、被写界深度に応じた撮影効果を簡易に確認するために、撮影時の絞り(F値)を固定して、ライブビューを表示する(絞り込み測光)技術が知られている(例えば、特許文献1参照)。   Therefore, in order to easily confirm the shooting effect according to the depth of field in the manual focus operation after the end of autofocus, the aperture (F value) at the time of shooting is fixed and the live view is displayed (aperture metering) The technique is known (for example, refer to Patent Document 1).

被写界深度とは、ピントが合う距離的な広さのことであり、被写界深度が浅いと、距離が異なる2つの被写体のうちどちらかだけにピントが合い、片方はボケてしまう。一方、被写界深度が深いと、近いものと遠いものを一緒に撮影した時、両方にピントが合う。   The depth of field is the distance in focus, and if the depth of field is shallow, only one of two subjects with different distances is in focus, and one of them is blurred. On the other hand, when the depth of field is deep, both close and far objects will be in focus when taken together.

この被写界深度は、被写体までの距離、絞り値等から算出可能なため、合焦する範囲を数値で表すことが可能である。このため、被写界深度を容易に確認するために、オートフォーカス時に絞り(F値)、および被写体までの距離から被写界深度を計算し、被写界深度をユーザに報知する技術が知られている。   Since the depth of field can be calculated from the distance to the subject, the aperture value, and the like, the range to be focused can be expressed by a numerical value. For this reason, in order to easily check the depth of field, a technique for calculating the depth of field from the aperture (F value) and the distance to the subject during autofocus and informing the user of the depth of field is known. It has been.

図7は、表示部701の下側に、被写界深度、すなわちピントの合う範囲を表すインジケータ702および被写界深度の範囲を文字で表した文字情報703を含む画像を被写体の撮像画像上に重ねて表示させたものである(例えば、特許文献2参照)。   FIG. 7 shows an image including an indicator 702 indicating the depth of field, that is, a focused range, and character information 703 that represents the range of the depth of field in characters on the captured image of the subject. (See, for example, Patent Document 2).

また、遠近競合する画像であっても、ユーザの意図通りとなるような合焦状態を実現して撮影を行なうことができるように、ユーザが複数の合焦ポイントを指定し、それらのポイントが全て合焦、またそれらのポイントにより規定されたエリア全体が合焦点するように、絞り(F値)を計算により設定する方法が知られている。   In addition, even in the case of images competing for near and far, the user designates a plurality of in-focus points so that the in-focus state as intended by the user can be realized, and these points are There is known a method of setting an aperture (F value) by calculation so that all are in focus and the entire area defined by those points is in focus.

図8(a)は、液晶表示(LCD)画面802上に指定した複数の合焦ポイント801,804で合焦できるように、設定するF値を変更する例であり、図8(b)は、液晶表示画面807上に指定した複数の合焦ポイント805,809で規定されるエリア806を合焦できるように、設定するF値を変更する例である(例えば、特許文献3参照)。   FIG. 8A shows an example in which the F value to be set is changed so that focusing can be performed at a plurality of focusing points 801 and 804 designated on a liquid crystal display (LCD) screen 802. FIG. This is an example of changing the F value to be set so that an area 806 defined by a plurality of focusing points 805 and 809 designated on the liquid crystal display screen 807 can be focused (see, for example, Patent Document 3).

また一方で最近の3D技術では、被写体を立体的に表示したり、その立体角度や立体の深さを変えることが可能となっている。   On the other hand, with recent 3D technology, it is possible to display a subject three-dimensionally, and to change the solid angle and depth of the solid.

特開2005−184657号公報JP 2005-184657 A 特開2003−319246号公報JP 2003-319246 A 特許第3607237号明細書Japanese Patent No. 3607237

デジタルカメラで被写体を撮影する場合、デジタルカメラに搭載された液晶表示画面において実際にプレビューで見える画像と、撮影した画像を印刷もしくは、パソコン(PC)等により表示した時に見える画像とでは、映り方が違っている。   When shooting a subject with a digital camera, the image that appears in the preview on the LCD screen mounted on the digital camera and the image that appears when the shot image is printed or displayed on a personal computer (PC), etc. Is different.

また、撮影時に被写体にオートフォーカス枠をあててフォーカスを合わせても、プレビュー画像では、オートフォーカス枠以外の箇所がどの程度ボケているか分からず、できあがる写真をイメージして、撮影することができない。   Also, even if an autofocus frame is placed on the subject at the time of shooting, the preview image does not know how much the area other than the autofocus frame is blurred, and the resulting photo cannot be photographed.

特許文献1に記載された解決法は、撮影時の絞りに対してライブビューで表示することを対策としているが、その場合、F値を大きくしていくと画面が暗くなり、ボケ具合が分りにくくなったり、実際の明るさとは違うため、意図した写真を取りづらくなる。   The solution described in Japanese Patent Laid-Open No. 2004-228867 is intended to display in live view with respect to the aperture at the time of shooting, but in that case, as the F value is increased, the screen becomes darker, and the degree of blur is apparent It becomes difficult and it is difficult to take the intended photo because it is different from the actual brightness.

また、特許文献2に記載された技術は、オートフォーカス時に絞り値(F値)、および被写体までの距離から被写界深度を計算して、その被写界深度をユーザに報知するものであり、図7に示すようにカメラからの距離が10cm〜30cmの範囲にピントがあっていることを示すことができるが、実際の写真のイメージが掴みにくい。   The technique described in Patent Document 2 calculates the depth of field from the aperture value (F value) and the distance to the subject during autofocus, and notifies the user of the depth of field. As shown in FIG. 7, it can be shown that the distance from the camera is in the range of 10 cm to 30 cm, but it is difficult to grasp the image of the actual photograph.

また、特許文献3に記載された技術は、ユーザが複数の合焦ポイントを指定し、それらのポイントが全て合焦、またそれらのポイントにより規定されたエリア全体が合焦点するように、絞り値(F値)を計算により設定するが、選択した合焦ポイントもしくは、それらによって規定されたエリアを合焦することのみであり、選択した合焦ポイント以外の部分、例えば図8における背景803,808の写り方がどのようになるかユーザには分からない。   In addition, the technique described in Patent Document 3 is such that the user designates a plurality of focusing points, all these points are in focus, and the entire area defined by these points is in focus. (F value) is set by calculation, but it is only to focus on the selected in-focus point or the area defined by them, and other parts than the selected in-focus point, for example, backgrounds 803 and 808 in FIG. The user does not know how the image will appear.

本発明は、上記従来の事情に鑑みてなされたものであって、3Dレンズを搭載したカメラを用いて、フォーカス点およびボケ具合を連携させながら、ユーザの意図する写真を容易に写すことができる撮影装置およびライブビュー画像表示方法を提供することを目的としている。   The present invention has been made in view of the above-described conventional circumstances, and can easily capture a photograph intended by a user using a camera equipped with a 3D lens while linking a focus point and a blur condition. An object is to provide a photographing apparatus and a live view image display method.

本発明の撮影装置は、被写体を撮像する撮像素子と、前記撮像素子に前記被写体の像を結像するレンズと、前記レンズの明るさを調節する絞りの絞り値を決定する絞り決定部と、合焦点を指定するAF制御部と、自装置から被写体の中における合焦点および他の点までの距離を検出するAF測距部と、前記AF測距部で検出された距離と前記絞り値に基づいて、各点の被写界深度を計算する被写界深度演算部と、前記被写界深度と飛び出し量との相関関係を記憶する変換テーブルと、前記変換テーブルに基づいて、前記被写界深度演算部で計算された他の点の被写界深度と前記合焦点の被写界深度との差分を飛び出し量に置き換えて、プレビュー画像として生成するプレビュー画像生成部と、を備えた撮影装置である。   An imaging device of the present invention includes an imaging element that images a subject, a lens that forms an image of the subject on the imaging element, an aperture determination unit that determines an aperture value of an aperture that adjusts the brightness of the lens, An AF control unit for specifying a focal point, an AF distance measuring unit for detecting the distance from the own apparatus to the focal point and other points in the subject, the distance detected by the AF distance measuring unit, and the aperture value A depth-of-field calculating unit that calculates the depth of field at each point, a conversion table that stores a correlation between the depth of field and the pop-out amount, and the object based on the conversion table. A preview image generation unit that generates a preview image by replacing the difference between the depth of field of another point calculated by the depth-of-field calculation unit and the depth of field of the focal point with the pop-out amount. Device.

本発明の撮影装置によれば、複数のポイントの距離を測定し、それが合焦ポイントを基準とした被写界深度に入っているか、また外れている場合は、そのはずれ程度に応じて、3Dの深さを変化させることにより、ユーザの意図する写真を容易に写すことができる。   According to the imaging device of the present invention, the distance of a plurality of points is measured, and if it is in the depth of field with reference to the in-focus point, or if it is off, depending on the degree of deviation, By changing the depth of 3D, a photograph intended by the user can be easily taken.

また、本発明のライブビュー画像表示方法は、シャッターの半押しが検出された場合に、表示画面の中心点でオートフォーカス/自動露出を行ない、前記表示画面にライブビュー画像を表示する方法であって、前記表示画面の中心点以外の他のポイントで距測を行なうステップと、前記各ポイントのボケ量を決定するステップと、前記各ボケ量に応じて3D画像を合成/表示するステップと、を有するライブビュー画像表示方法である。   In addition, the live view image display method of the present invention is a method of performing autofocus / automatic exposure at the center point of the display screen and displaying the live view image on the display screen when half-pressing of the shutter is detected. A distance measurement at a point other than the center point of the display screen, a step of determining a blur amount of each point, a step of synthesizing / displaying a 3D image according to each blur amount, A live view image display method.

本発明のライブビュー画像表示方法によれば、ボケ具合という分かり難さを、どの部分がどの程度ボケるのか、またボケの程度が同じ箇所はどこかを明確に認識でき、フォーカス点およびボケ具合を連携させながら、ユーザの意図する写真を容易に写すことができる。   According to the live view image display method of the present invention, it is possible to clearly recognize the degree of blurring, which part is blurred, and where the degree of blur is the same, and the focus point and the blur condition. It is possible to easily take a photograph intended by the user while linking the two.

また、本発明のライブビュー画像表示方法は、シャッターのリリースが検出され、さらに前記表示画面の左右フリックが検出された場合に、絞り値(F値)を変更するステップと、前記表示画面の中心枠のタッチが検出された場合に、前記絞り値(F値)を固定したまま、各ポイントの距離差分が最小となるフォーカス点を算出し、フォーカス点を移動するステップと、前記表示画面の中心枠以外のタッチが検出された場合に、前記絞り値(F値)を固定したまま、タッチ箇所にフォーカス点を移動するステップと、を有するライブビュー画像表示方法である。   The live view image display method of the present invention includes a step of changing an aperture value (F value) when a release of a shutter is detected and a left / right flick of the display screen is detected, and a center of the display screen When a touch of a frame is detected, a focus point that minimizes the distance difference between each point is calculated while the aperture value (F value) is fixed, and the focus point is moved; and the center of the display screen And a step of moving a focus point to a touch location while fixing the aperture value (F value) when a touch other than a frame is detected.

本発明のライブビュー画像表示方法によれば、ユーザはライブビューイメージを見ながら操作するのみで、カメラの設定を意識することなく、所望の撮影が可能となる。   According to the live view image display method of the present invention, a user can perform desired shooting without having to be conscious of camera settings only by operating while viewing a live view image.

また、本発明のライブビュー画像表示方法は、変更した絞り値(F値)が一定値以上となった場合に、その超過程度に応じて、3D画像の一部を動作させ、ユーザに警告を行なうステップ、を有するライブビュー画像表示方法である。   Also, the live view image display method of the present invention operates a part of a 3D image according to the degree of excess when the changed aperture value (F value) exceeds a certain value, and warns the user. Performing a live view image display method.

本発明のライブビュー画像表示方法によれば、ユーザの意図した画像を撮影するために、カメラを固定させる必要があることを注意喚起することで、撮影を確実に行なわせることが可能となる。   According to the live view image display method of the present invention, it is possible to surely perform shooting by alerting that the camera needs to be fixed in order to capture an image intended by the user.

また、本発明のライブビュー画像表示方法は、前記表示画面の上下フリックが検出された場合に、測距ポイントの領域の大きさを変化させ、前記測距ポイントの数を増減させるステップ、を有するライブビュー画像表示方法である。   Further, the live view image display method of the present invention includes a step of changing the size of the area of the distance measurement points and increasing or decreasing the number of the distance measurement points when an upper and lower flick of the display screen is detected. This is a live view image display method.

本発明のライブビュー画像表示方法によれば、測距点を増やすことで、撮影画像を分割した部分毎にボケの程度を調整することが可能となる。一方、測距点を減らすことで、大まかにボケの程度を設定することが可能となり、ユーザに設定の自由度を提供することが可能となる。   According to the live view image display method of the present invention, it is possible to adjust the degree of blur for each portion obtained by dividing the captured image by increasing the distance measuring points. On the other hand, by reducing the distance measurement points, it is possible to roughly set the degree of blur, and to provide the user with a degree of freedom of setting.

以上説明したように、本発明にかかる撮影装置およびライブビュー画像表示方法によれば、複数のポイントの距離を測定し、それが合焦ポイントを基準とした被写界深度に入っているかを明瞭に認識でき、また外れている場合は、そのはずれ程度に応じて、3Dの深さを変化させることにより、ユーザの意図する写真を容易に写すことができる。   As described above, according to the photographing apparatus and the live view image display method according to the present invention, the distance between a plurality of points is measured, and it is clearly determined whether the depth of field is in reference to the in-focus point. If the image is deviated, and if it is off, the photograph intended by the user can be easily taken by changing the 3D depth according to the degree of the deviation.

本発明の実施の形態にかかる撮影装置の概略構成を説明するための図である。It is a figure for demonstrating schematic structure of the imaging device concerning embodiment of this invention. 本発明の実施形態においてオートフォーカス前のプレビューイメージおよびオートフォーカス後のプレビューイメージを示す。5 shows a preview image before autofocus and a preview image after autofocus in the embodiment of the present invention. 本発明の実施形態においてユーザの意図した撮影ができるように調整する場合の説明図である。It is explanatory drawing in the case of adjusting so that imaging | photography which the user intended in embodiment of this invention can be performed. 本発明の実施形態においてシャッター速度が一定の値より遅くなった場合にユーザに警告する場合の説明図である。It is explanatory drawing in the case of warning a user when the shutter speed becomes slower than a certain value in the embodiment of the present invention. 本発明の実施形態においてユーザが画面を上下にフリックし、調整部分の大きさを変化させる場合の説明図である。It is explanatory drawing when the user flicks a screen up and down and changes the magnitude | size of an adjustment part in embodiment of this invention. 本発明の実施形態にかかるライブビュー画像表示方法を説明するためにフローチャートである。6 is a flowchart for explaining a live view image display method according to an embodiment of the present invention. 従来方法において、被写界深度および文字情報を含む画像を被写体の撮像画像上に重ねて表示した例である。In the conventional method, an image including depth of field and character information is displayed superimposed on a captured image of a subject. 従来方法において、LCD画面上に指定した複数の合焦ポイントで合焦できるように設定するF値を変更する例である。This is an example of changing the F value set so that focusing can be performed at a plurality of focusing points designated on the LCD screen in the conventional method.

図1は、本発明の実施の形態にかかる撮影装置の概略構成を説明するための図である。本実施形態の撮影装置は、ライブビュー画像を表示する液晶表示装置(LCD)101と、タッチおよびフリックに応じてライブビュー画像を調整するためのタッチパネル102と、3D画像を撮影する3Dレンズを含むレンズ103と、自動露出(AE)を制御するAE制御部104と、オートフォーカス(AF)における測距を制御するAF制御測距制御部105と、測距点までの距離を記憶する測距点距離記憶部106と、LCD101における測距ポイントの数を制御する測距数制御部107と、撮影装置の全体を制御する全体制御部108と、各測距ポイントの被写界深度を演算部する被写界深度演算部109と、タッチパネル102に対するタッチジェスチャを解読するタッチジェスチャ解読部110と、被写体に対して、設定した絞り値における被写界深度からの隔たり(ズレ量)を、3Dの立体深度に置き換えて表示させる3D画像生成部111と、自動計算した絞り値(F値)が限界値以上となった場合にユーザに警告を行なう基準となる絞り限界値を格納する絞り限界値テーブル112と、全体制御部108の制御のもとでシャッターを操作するシャッター操作部113とを有する。   FIG. 1 is a diagram for explaining a schematic configuration of a photographing apparatus according to an embodiment of the present invention. The photographing apparatus of the present embodiment includes a liquid crystal display (LCD) 101 that displays a live view image, a touch panel 102 that adjusts the live view image according to touch and flick, and a 3D lens that captures a 3D image. A lens 103, an AE control unit 104 that controls automatic exposure (AE), an AF control ranging control unit 105 that controls ranging in autofocus (AF), and a ranging point that stores the distance to the ranging point A distance storage unit 106, a distance measurement number control unit 107 that controls the number of distance measurement points on the LCD 101, an overall control unit 108 that controls the entire photographing apparatus, and a calculation unit for the depth of field of each distance measurement point. Depth of field calculation unit 109, touch gesture decoding unit 110 that decodes touch gesture on touch panel 102, and setting for the subject 3D image generation unit 111 that displays a difference (amount of deviation) from the depth of field in the aperture value replaced with a 3D stereoscopic depth and the automatically calculated aperture value (F value) exceeds a limit value A diaphragm limit value table 112 that stores a diaphragm limit value serving as a reference for warning the user, and a shutter operation unit 113 that operates the shutter under the control of the overall control unit 108.

本実施形態の撮影装置は、被写界深度および、3D技術を利用してユーザの意図する写真を容易に写すことができるようにするものである。このため、複数のポイントの距離を測定し、それが合焦ポイントを基準とした被写界深度に入っているのか、また外れている場合は、そのはずれ程度に応じて、3Dの深さを変化させる。なお、本実施形態の撮影装置では、ライブビューで見える映像は、実際の3D立体図とは違い、ピンボケの具合が同じ部分が、同じ3D深度を持つことになる。   The imaging device of this embodiment makes it possible to easily capture a photograph intended by a user by using depth of field and 3D technology. For this reason, measure the distance of multiple points, and if it is within the depth of field with reference to the in-focus point, or if it is off, the 3D depth is Change. Note that in the image capturing apparatus of the present embodiment, unlike the actual 3D three-dimensional view, the part that has the same degree of out-of-focus has the same 3D depth in the live view.

本実施形態の撮影装置は、ライブビュー時に、複数の測距点において、設定した絞り値における被写界深度からの隔たり(ズレ量)を、3Dの立体深度に置き換えて表示させる。この時、被写界深度とのズレ量が同じ、つまり同じ程度にボケる部分は、同じ量の3D深度を持たせることとする。なお、3D深度自体を変化させる技術は既存の技術を利用する。   In the live view, the photographing apparatus according to the present embodiment displays a distance (amount of deviation) from the depth of field at a set aperture value at a plurality of distance measuring points by replacing it with a 3D stereoscopic depth. At this time, the same amount of deviation from the depth of field, that is, a portion that is blurred to the same extent, has the same amount of 3D depth. The technology for changing the 3D depth itself uses an existing technology.

図2(a)は、オートフォーカス前のプレビューイメージを示し、図2(b)は、オートフォーカス後のプレビューイメージを示す。図2(a)に示すオートフォーカス前のプレビューイメージにおいて、被写体A1,A2はユーザからみて同じ距離にあり、被写体B1,B2はその手前にあり、被写体Cは更にその手前にある。   FIG. 2A shows a preview image before autofocus, and FIG. 2B shows a preview image after autofocus. In the preview image before autofocus shown in FIG. 2A, the subjects A1 and A2 are at the same distance as viewed from the user, the subjects B1 and B2 are in front, and the subject C is further in front.

ユーザが中心ポイントの被写体A1をフォーカスポイントとして、シャッターを半押しにすると、オートフォーカスおよび自動露出が行なわれる。すなわち、ユーザが中心ポイントの被写体A1にフォーカスを合わせて後、カメラ側では、他の4点、すなわち被写体A2,B1,B2,Cでも距離測定を行ない、カメラの絞り値(F値)との関係から、ピントのボケ具合を判断する(既存技術)。そのボケ具合を3D効果によりユーザに表現する。つまりボケが大きいほど、立体深度を深くしていく(図2(b)では、手前に3D深度をとっているが奥にとってもよい)。   When the user presses the shutter halfway with the subject A1 at the center point as the focus point, autofocus and automatic exposure are performed. That is, after the user focuses on the subject A1 at the center point, the camera side also measures distances at the other four points, that is, the subjects A2, B1, B2, and C, and determines the camera aperture value (F value). From the relationship, determine the degree of out-of-focus (existing technology). The degree of blur is expressed to the user by a 3D effect. In other words, the greater the blur, the deeper the three-dimensional depth (in FIG. 2 (b), the 3D depth is taken in front, but it may be in the back).

本実施形態の撮影装置によれば、ボケ具合という分かり難さを、どの部分がどの程度ボケるのか、またボケの程度が同じ箇所はどこかを明確に認識することができる。従来の技術では、ライブビュー表示部が通常は小さく、視認が難しく、特許文献2では数値のため実際の画像とのイメージがつき難く、特許文献3では合焦点以外のボケ具合が分らないが、本実施形態によれば、フォーカス点およびボケ具合を連携させながら、ユーザの意図する写真を容易に写すことができる。   According to the photographing apparatus of the present embodiment, it is possible to clearly recognize which part is blurred and how difficult it is to understand the degree of blur, and where the same degree of blur is. In the conventional technique, the live view display unit is usually small and difficult to view, and in Patent Document 2, it is difficult to attach an image with an actual image because of numerical values. In Patent Document 3, the degree of blur other than the in-focus point is not known. According to the present embodiment, a photograph intended by the user can be easily taken while linking the focus point and the degree of blur.

また、本実施形態の撮影装置は、ユーザが焦点を合わせたい部分や、ボケの程度を変更(調整)した場合、それに相応した絞り値(F値)を自動計算し、その絞り値にあわせて、3D立体深度を変化させる。   In addition, when the user changes (adjusts) the portion that the user wants to focus on or the degree of blur, the photographing apparatus of the present embodiment automatically calculates an aperture value (F value) corresponding to the portion and adjusts the aperture value accordingly. Change the 3D stereoscopic depth.

図3は、図2(a)、(b)のステップに対してユーザの意図した撮影ができるように調整する場合の説明図である。基本操作として、液晶表示画面にタッチすると、タッチしたポイントにオートフォーカス(AF)ポイントが変更され、液晶表示画面をフリックすると絞り値(F値)設定が変更される。   FIG. 3 is an explanatory diagram in the case of adjusting the steps shown in FIGS. 2A and 2B so that the photographing intended by the user can be performed. As a basic operation, when the liquid crystal display screen is touched, the autofocus (AF) point is changed to the touched point, and when the liquid crystal display screen is flicked, the aperture value (F value) setting is changed.

例えば、図3(a)は、図2(b)と同様にオートフォーカス後のプレビューイメージであり、被写体A1,A2はユーザからみて同じ距離にあり、被写体B1,B2はその手前にあり、被写体Cは更にその手前にあり、各被写体が3D表示されている。また、被写体A1をフォーカスしているため、被写体A1にフォーカスマーク(黒丸)が表示され、被写体A2,B1,B2,Cにフォーカス候補マーク(白丸)が表示されている。   For example, FIG. 3A is a preview image after auto-focusing as in FIG. 2B, where the subjects A1 and A2 are at the same distance from the user, and the subjects B1 and B2 are in front of the subject. C is further in front, and each subject is displayed in 3D. Since the subject A1 is focused, a focus mark (black circle) is displayed on the subject A1, and focus candidate marks (white circles) are displayed on the subjects A2, B1, B2, and C.

フォーカス点を変えたい時は、変更したい箇所をタッチすることでフォーカス点が変わり、相応して3D深度も全体的に変化する。この場合、絞り値(F値)は固定されたままであり、ユーザが選択した箇所にオートフォーカス点が変更される。   When you want to change the focus point, touch the point you want to change, the focus point changes, and the 3D depth changes accordingly. In this case, the aperture value (F value) remains fixed, and the autofocus point is changed to the location selected by the user.

例えば、図3(a)においてフォーカス点を被写体Cに変更する場合は、被写体Cをタッチすることにより、図3(b)に示すように、被写体Cにフォーカス点が移動する。すなわち、被写体Cにフォーカスマーク(黒丸)が付き、被写体A1,A2,B1,B2にフォーカス候補マーク(白丸)が表示される。   For example, when the focus point is changed to the subject C in FIG. 3A, when the subject C is touched, the focus point moves to the subject C as shown in FIG. That is, a focus mark (black circle) is attached to the subject C, and focus candidate marks (white circles) are displayed on the subjects A1, A2, B1, and B2.

一方、絞り値(F値)を変更せず、被写体に対して全体的にフォーカスを合わせたい時は、現フォーカス点をタッチすることで、各ポイントができるだけ被写界深度内に入るように自動的にフォーカス点が選択され、相応して3D深度も全体的に浅くなる。   On the other hand, when you want to focus on the subject as a whole without changing the aperture value (F value), touch the current focus point to automatically make each point within the depth of field as much as possible. Accordingly, the focus point is selected, and the 3D depth is correspondingly shallow as a whole.

例えば、図3(a)において全体的にフォーカスを合わせたい時は、現フォーカス点である被写体A1をタッチすることで、図3(c)に示すように、自動的にフォーカス点が被写体B2に選択され、相応して3D深度も全体的に変化する。   For example, when it is desired to focus on the whole in FIG. 3A, by touching the subject A1, which is the current focus point, the focus point is automatically set to the subject B2, as shown in FIG. 3C. And the corresponding 3D depth will change accordingly.

また、フォーカス点を変更せず、被写体に対して全体的にフォーカスを合わせたい、もしくはその逆の時は、画面を左右にフリックすることで、絞り値(F値)を変化させて、再度オートフォーカス(AF)を行なう。この場合、図3(d)に示すように、オートフォーカス点はそのまま(被写体A1)であり、絞り値(F値)が変更される。すなわち、全体的にフォーカスが合うようになり、3D深度が全体的に浅くなる。   If you want to focus on the subject as a whole without changing the focus point, or vice versa, flick the screen left and right to change the aperture value (F value) and auto Focus (AF) is performed. In this case, as shown in FIG. 3D, the autofocus point remains as it is (subject A1), and the aperture value (F value) is changed. That is, the focus is adjusted as a whole, and the 3D depth becomes shallow as a whole.

本実施形態の撮影装置によれば、ユーザは、ライブビューイメージを見ながら操作するのみで、カメラの設定を意識させることなく、所望の撮影が可能となる。   According to the photographing apparatus of the present embodiment, a user can perform desired photographing without being aware of camera settings only by operating while viewing a live view image.

また、本実施形態の撮影装置は、ユーザ操作(調整)の結果、自動計算した絞り値(F値)が一定値以上(大きくなった)となった場合、その超過程度に応じて、3D画像の一部を動作(回転)させ、ユーザに警告を行なう。   In addition, when the automatically calculated aperture value (F value) is equal to or greater than a certain value (increased) as a result of user operation (adjustment), the imaging apparatus according to the present embodiment performs a 3D image according to the degree of excess. A part of is operated (rotated) to warn the user.

すなわち、絞り値(F値)を大きくする(全体にピントをあわせる)と、その分シャッター速度が遅くなるため、手振れ問題が発生してくる。このため、ある限度を超えたら、手振れが発生することをユーザに知らしめる。   That is, when the aperture value (F value) is increased (the entire focus is adjusted), the shutter speed is reduced by that amount, so that a camera shake problem occurs. For this reason, if a certain limit is exceeded, the user is informed that camera shake will occur.

例えば、図4(a)に示すように被写体A1にフォーカスしている場合、シャッター速度が一定の値より遅くなった場合は、被写体A1の立体像の角度を変えて、ユーザに警告する。その変化の仕方は、手振れの度合いによって、速度を変える。図4(b)は、被写体A1の3D深度が時間と共に変動し、ユーザに警告を行なう様子を示す。   For example, as shown in FIG. 4A, when the subject A1 is focused, if the shutter speed becomes slower than a certain value, the angle of the stereoscopic image of the subject A1 is changed to warn the user. The speed of change varies depending on the degree of camera shake. FIG. 4B shows how the 3D depth of the subject A1 fluctuates with time and warns the user.

本実施形態の撮影装置によれば、ユーザの意図した画像を撮影するために、カメラを固定させる必要があることを注意喚起することで、撮影を確実に行なわせることが可能となる(ユーザが注意喚起を守ることにより、意図した画像をとることが可能となる)。   According to the photographing apparatus of the present embodiment, it is possible to reliably perform photographing by alerting that it is necessary to fix the camera in order to photograph an image intended by the user (the user can perform photographing). By protecting the alert, you can take the intended image).

また、本実施形態の撮影装置は、ユーザ操作(調整)によって、測距点を増減させる。図5は、ユーザが画面を上下にフリックし、測距ポイントを増減させることにより、調整部分の大きさを変化させる場合の説明図である。   In addition, the photographing apparatus according to the present embodiment increases or decreases the distance measuring points by user operation (adjustment). FIG. 5 is an explanatory diagram when the size of the adjustment portion is changed by flicking the screen up and down to increase or decrease the distance measurement points.

図5(a)は、オートフォーカス前のプレビューイメージ、図5(b)は、オートフォーカス後のプレビューイメージである。図5(a)において、図2(a)と同様に、被写体A1,A2はユーザからみて同じ距離にあり、被写体B1,B2はその手前にあり、被写体Cは更にその手前にある。   FIG. 5A shows a preview image before autofocus, and FIG. 5B shows a preview image after autofocus. In FIG. 5A, as in FIG. 2A, the subjects A1 and A2 are at the same distance from the user, the subjects B1 and B2 are in front, and the subject C is further in front.

次に、中心ポイントの被写体A1をフォーカスポイントとして、シャッターを半押しにすると、オートフォーカスおよび自動露出が行なわれ、ピントのボケ具合を判断し、図5(b)に示すように、そのボケ具合を3D効果によりユーザに表現する。   Next, when the subject A1 at the center point is set as the focus point and the shutter button is half-pressed, autofocus and automatic exposure are performed to determine the out-of-focus condition, and as shown in FIG. Is expressed to the user by the 3D effect.

次に、液晶表示画面を下フリックすることにより、図5(c)に示すように、被写体A2,B1が被写体Dにまとめられ、被写体B2,Cが被写体Eにまとめられ、ユーザの調整ポイントを大ぐくりする。また、上フリックではその逆に測距ポイントを増加させ、調整部分の大きさを細分する。   Next, by flicking down the liquid crystal display screen, the subjects A2 and B1 are grouped into the subject D, the subjects B2 and C are grouped into the subject E, as shown in FIG. I ’m going to do it. On the other hand, the upper flick increases the distance measuring point and subdivides the size of the adjustment portion.

本実施形態の撮影装置によれば、測距点を増やすことで、撮影画像を分割した部分毎にボケの程度を調整することが可能となる。一方、測距点を減らすことで、大まかにボケの程度を設定することが可能となり、ユーザに設定の自由度を提供することが可能となる。   According to the photographing apparatus of this embodiment, it is possible to adjust the degree of blur for each portion obtained by dividing the photographed image by increasing the distance measuring points. On the other hand, by reducing the distance measurement points, it is possible to roughly set the degree of blur, and to provide the user with a degree of freedom of setting.

図6は、本発明の実施形態にかかるライブビュー画像表示方法を説明するためにフローチャートである。ユーザが撮影を開始する場合、シャッター操作を検出し(ステップS601)、シャッターの半押しが検出された場合、液晶表示画面の中心点でのオートフォーカス(AF)/自動露出(AE)が行われる(ステップS603)。一方、ステップS601において、シャッターの全押しが検出されると即座にシャッターが切れ、撮影が行われる(ステップS631)。   FIG. 6 is a flowchart for explaining the live view image display method according to the embodiment of the present invention. When the user starts photographing, a shutter operation is detected (step S601), and when half-pressing of the shutter is detected, autofocus (AF) / automatic exposure (AE) at the center point of the liquid crystal display screen is performed. (Step S603). On the other hand, when full-pressing of the shutter is detected in step S601, the shutter is immediately released and shooting is performed (step S631).

次に、液晶表示画面の中心点以外の他ポイントでの距測が行われ(ステップS605)、各ポイントのボケ量を決定する(ステップS607)。そして、ボケ量に応じて3D画像を合成/表示する(ステップS609)。   Next, distance measurement is performed at points other than the center point of the liquid crystal display screen (step S605), and the amount of blur at each point is determined (step S607). Then, a 3D image is synthesized / displayed according to the amount of blur (step S609).

続いて、シャッター操作が検出され(ステップS611)、シャッターの全押しが検出された場合は、合焦してシャッターが切られ、撮影が行われる(ステップS631)。一方、シャッターのリリースを検出した場合は、画面操作が検出され(ステップS613)、フリックが検出された場合に絞り値(F値)が変更される(ステップS615)。   Subsequently, a shutter operation is detected (step S611), and when full-pressing of the shutter is detected, focusing is performed and the shutter is released, and shooting is performed (step S631). On the other hand, when the shutter release is detected, a screen operation is detected (step S613), and when a flick is detected, the aperture value (F value) is changed (step S615).

一方、ステップS613において、フリック以外の画面操作が検出された場合は、他の操作が判断され(ステップS617)、液晶表示画面の中心枠のタッチが検出された場合に、絞り値(F値)固定のまま、各ポイントの距離差分が最小となるフォーカス点を算出し、フォーカス点を移動する(ステップS619)。   On the other hand, if a screen operation other than a flick is detected in step S613, another operation is determined (step S617), and if a touch on the center frame of the liquid crystal display screen is detected, an aperture value (F value). The focus point that minimizes the distance difference between each point is calculated while the position is fixed, and the focus point is moved (step S619).

また、ステップS617において、中心枠のタッチ以外の操作が検出された場合は、更に操作が判断され(ステップS621)、液晶表示画面の他点のタッチが検出された場合に、絞り値(F値)固定のままタッチ箇所にフォーカス点を移動する(ステップS623)。   If an operation other than the touch on the center frame is detected in step S617, the operation is further determined (step S621). If a touch on another point on the liquid crystal display screen is detected, an aperture value (F value) is detected. ) The focus point is moved to the touched position while being fixed (step S623).

次に、各ポイントのボケ量を決定し(ステップS625)、ボケ量に応じて3D画像を合成/表示する(ステップS627)。そして、シャッター操作が検出され(ステップS629)、シャッターの半押しが検出された場合は、ステップ603に戻り、最初からやり直す。また、シャッターの全押しが検出された場合は、調整してシャッターを切り、撮影が行われる(ステップS631)。一方、シャッター操作が、全押しおよび半押し以外の操作である場合は、ステップS613に戻り、調整を継続する。   Next, the amount of blur at each point is determined (step S625), and a 3D image is synthesized / displayed according to the amount of blur (step S627). Then, a shutter operation is detected (step S629), and if half-pressing of the shutter is detected, the process returns to step 603 and starts again from the beginning. If full-pressing of the shutter is detected, adjustment is performed to release the shutter, and shooting is performed (step S631). On the other hand, if the shutter operation is an operation other than full pressing and half pressing, the process returns to step S613 to continue the adjustment.

以上説明したように、本実施形態にかかる撮影装置およびライブビュー画像表示方法によれば、複数のポイントの距離を測定し、それが合焦ポイントを基準とした被写界深度に入っているかを明瞭に認識でき、また外れている場合は、そのはずれ程度に応じて、3Dの深さを変化させることにより、ユーザの意図する写真を容易に写すことができる。   As described above, according to the imaging apparatus and the live view image display method according to the present embodiment, the distance between a plurality of points is measured, and whether or not it is within the depth of field with reference to the in-focus point. If it is clearly recognizable and deviated, the photograph intended by the user can be easily taken by changing the 3D depth according to the degree of deviation.

本発明は、3Dレンズを搭載したカメラを用いて、フォーカス点およびボケ具合を連携させながら、ユーザの意図する写真を容易に写すことができる撮影装置およびライブビュー画像表示方法として利用可能である。   INDUSTRIAL APPLICABILITY The present invention can be used as a photographing apparatus and a live view image display method that can easily take a photograph intended by a user while using a camera equipped with a 3D lens while linking a focus point and a blur condition.

101 LCD
102 タッチパネル
103 レンズ
104 AE制御部
105 AF制御測距制御部
106 測距点距離記憶部
107 測距数制御部
108 全体制御部
109 被写界深度演算部
110 タッチジェスチャ解読部
111 3D画像生成部
112 絞り限界値テーブル
113 シャッター操作部
701 表示部
702 インジケータ
703 文字情報
801,804,805,809 合焦ポイント
802,807 LCD画面
803,808 背景
806 合焦エリア
101 LCD
102 Touch Panel 103 Lens 104 AE Control Unit 105 AF Control Distance Measurement Control Unit 106 Distance Measurement Point Distance Storage Unit 107 Distance Measurement Number Control Unit 108 Overall Control Unit 109 Depth of Field Calculation Unit 110 Touch Gesture Decoding Unit 111 3D Image Generation Unit 112 Aperture limit value table 113 Shutter operation unit 701 Display unit 702 Indicator 703 Character information 801, 804, 805, 809 Focus point 802, 807 LCD screen 803, 808 Background 806 Focus area

Claims (5)

被写体を撮像する撮像素子と、
前記撮像素子に前記被写体の像を結像するレンズと、
前記レンズの明るさを調節する絞りの絞り値を決定する絞り決定部と、
合焦点を指定するAF制御部と、
自装置から被写体の中における合焦点および他の点までの距離を検出するAF測距部と、
前記AF測距部で検出された距離と前記絞り値に基づいて、各点の被写界深度を計算する被写界深度演算部と、
前記被写界深度と飛び出し量との相関関係を記憶する変換テーブルと、
前記変換テーブルに基づいて、前記被写界深度演算部で計算された他の点の被写界深度と前記合焦点の被写界深度との差分を飛び出し量に置き換えて、プレビュー画像として生成するプレビュー画像生成部と、
を備えた撮影装置。
An image sensor for imaging a subject;
A lens that forms an image of the subject on the image sensor;
An aperture determination unit that determines an aperture value of an aperture that adjusts the brightness of the lens;
An AF control unit for specifying a focal point;
An AF ranging unit for detecting the distance from the own device to the focal point and other points in the subject;
A depth-of-field calculating unit that calculates the depth of field of each point based on the distance detected by the AF distance measuring unit and the aperture value;
A conversion table for storing a correlation between the depth of field and the pop-out amount;
Based on the conversion table, the difference between the depth of field at another point calculated by the depth-of-field calculator and the depth of field at the focal point is replaced with the pop-out amount, and a preview image is generated. A preview image generation unit;
An imaging device with
シャッターの半押しが検出された場合に、表示画面の中心点でオートフォーカス/自動露出を行ない、前記表示画面にライブビュー画像を表示する方法であって、
前記表示画面の中心点以外の他のポイントで距測を行なうステップと、
前記各ポイントのボケ量を決定するステップと、
前記各ボケ量に応じて3D画像を合成/表示するステップと、
を有するライブビュー画像表示方法。
When a half-press of the shutter is detected, auto focus / automatic exposure is performed at the center point of the display screen, and a live view image is displayed on the display screen.
Performing a distance measurement at a point other than the center point of the display screen;
Determining the amount of blur at each point;
Composing / displaying a 3D image in accordance with each blur amount;
A live view image display method.
請求項2記載のライブビュー画像表示方法であって、
シャッターのリリースが検出され、さらに前記表示画面の左右フリックが検出された場合に、絞り値を変更するステップと、
前記表示画面の中心枠のタッチが検出された場合に、前記絞り値を固定したまま、各ポイントの距離差分が最小となるフォーカス点を算出し、フォーカス点を移動するステップと、
前記表示画面の中心枠以外のタッチが検出された場合に、前記絞り値を固定したまま、タッチ箇所にフォーカス点を移動するステップと、
を有するライブビュー画像表示方法。
The live view image display method according to claim 2,
Changing the aperture value when a shutter release is detected and a left / right flick of the display screen is detected;
When a touch of the center frame of the display screen is detected, calculating a focus point that minimizes the distance difference between the points while moving the focus value, and moving the focus point;
When a touch other than the center frame of the display screen is detected, a step of moving a focus point to the touch location while fixing the aperture value;
A live view image display method.
請求項3記載のライブビュー画像表示方法であって、
変更した絞り値が一定値以上となった場合に、その超過程度に応じて、3D画像の一部を動作させ、ユーザに警告を行なうステップ、
を有するライブビュー画像表示方法。
The live view image display method according to claim 3,
A step of operating a part of the 3D image and alerting the user when the changed aperture value is equal to or greater than a certain value,
A live view image display method.
請求項3記載のライブビュー画像表示方法であって、
前記表示画面の上下フリックが検出された場合に、測距ポイントの領域の大きさを変化させ、前記測距ポイントの数を増減させるステップ、
を有するライブビュー画像表示方法。
The live view image display method according to claim 3,
When an upper and lower flick of the display screen is detected, changing the size of the area of the distance measurement points, and increasing or decreasing the number of distance measurement points;
A live view image display method.
JP2011070509A 2011-03-28 2011-03-28 Photographic apparatus and live view image display method Ceased JP2012203352A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2011070509A JP2012203352A (en) 2011-03-28 2011-03-28 Photographic apparatus and live view image display method
PCT/JP2012/001739 WO2012132277A1 (en) 2011-03-28 2012-03-13 Imaging device and live view image display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011070509A JP2012203352A (en) 2011-03-28 2011-03-28 Photographic apparatus and live view image display method

Publications (1)

Publication Number Publication Date
JP2012203352A true JP2012203352A (en) 2012-10-22

Family

ID=46930070

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011070509A Ceased JP2012203352A (en) 2011-03-28 2011-03-28 Photographic apparatus and live view image display method

Country Status (2)

Country Link
JP (1) JP2012203352A (en)
WO (1) WO2012132277A1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109842760A (en) * 2019-01-23 2019-06-04 罗超 A kind of filming image and back method of simulation human eye view object
JP2020039135A (en) * 2016-01-28 2020-03-12 マクセル株式会社 Imaging apparatus
EP4304189A1 (en) * 2022-07-08 2024-01-10 Arnold & Richter Cine Technik GmbH & Co. Betriebs KG Camera assistance system

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9354488B2 (en) * 2014-05-23 2016-05-31 Howard Preston Methods, apparatuses, systems and software for focusing a camera
CN104125395A (en) * 2014-05-30 2014-10-29 深圳市中兴移动通信有限公司 Method and device for realizing automatic shooting
CN106464799A (en) * 2015-03-27 2017-02-22 华为技术有限公司 Automatic zooming method and device
CN105187719A (en) * 2015-08-21 2015-12-23 深圳市金立通信设备有限公司 Shooting method and terminal
CN112712536B (en) * 2020-12-24 2024-04-30 Oppo广东移动通信有限公司 Image processing method, chip and electronic device

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11266388A (en) * 1998-03-17 1999-09-28 Canon Inc Digital camera, photographing method and storage medium
JP2005136480A (en) * 2003-10-28 2005-05-26 Fuji Photo Film Co Ltd Photographing apparatus
JP2010177741A (en) * 2009-01-27 2010-08-12 Olympus Corp Image capturing apparatus
JP2011010194A (en) * 2009-06-29 2011-01-13 Nikon Corp Blurred image forming apparatus and camera provided with the same

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11266388A (en) * 1998-03-17 1999-09-28 Canon Inc Digital camera, photographing method and storage medium
JP2005136480A (en) * 2003-10-28 2005-05-26 Fuji Photo Film Co Ltd Photographing apparatus
JP2010177741A (en) * 2009-01-27 2010-08-12 Olympus Corp Image capturing apparatus
JP2011010194A (en) * 2009-06-29 2011-01-13 Nikon Corp Blurred image forming apparatus and camera provided with the same

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020039135A (en) * 2016-01-28 2020-03-12 マクセル株式会社 Imaging apparatus
US11221707B2 (en) 2016-01-28 2022-01-11 Maxell, Ltd. Imaging device
US11614822B2 (en) 2016-01-28 2023-03-28 Maxell, Ltd. Imaging device
CN109842760A (en) * 2019-01-23 2019-06-04 罗超 A kind of filming image and back method of simulation human eye view object
EP4304189A1 (en) * 2022-07-08 2024-01-10 Arnold & Richter Cine Technik GmbH & Co. Betriebs KG Camera assistance system

Also Published As

Publication number Publication date
WO2012132277A1 (en) 2012-10-04

Similar Documents

Publication Publication Date Title
WO2012132277A1 (en) Imaging device and live view image display method
US20140267869A1 (en) Display apparatus
JP5895270B2 (en) Imaging device
JP5231277B2 (en) Imaging apparatus and imaging method
JP2008070513A (en) Imaging device
JP2008070520A (en) Imaging apparatus
JP2007259108A (en) Photographic device
JP2010091669A (en) Imaging device
JP2013126177A (en) Display controller, imaging apparatus, and display control program
JP6432038B2 (en) Imaging device
JP6357646B2 (en) Imaging device
JP6326631B2 (en) Imaging device
JP2007266657A (en) Photographing apparatus
JP5153021B2 (en) Imaging apparatus, imaging method, and program
JP6032967B2 (en) IMAGING DEVICE, LENS DEVICE, AND IMAGING DEVICE CONTROL METHOD
JP5928016B2 (en) Imaging apparatus and imaging method
JP2009224882A (en) Image pickup device, display method of image pickup device, program, and computer readable recording medium
JP4674472B2 (en) Digital camera
JP2010282107A (en) Imaging apparatus and control method therefor
JP2008067168A (en) Digital camera
JP6089232B2 (en) Imaging device
JP2007264250A (en) Photographing device and program
JP5344770B2 (en) Imaging device
JP2009118515A (en) Electronic camera
JP2007199171A (en) Photographic device and photographic method

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120828

A045 Written measure of dismissal of application [lapsed due to lack of payment]

Free format text: JAPANESE INTERMEDIATE CODE: A045

Effective date: 20121225