JP6620394B2 - 制御装置、制御方法及びプログラム - Google Patents

制御装置、制御方法及びプログラム Download PDF

Info

Publication number
JP6620394B2
JP6620394B2 JP2014124439A JP2014124439A JP6620394B2 JP 6620394 B2 JP6620394 B2 JP 6620394B2 JP 2014124439 A JP2014124439 A JP 2014124439A JP 2014124439 A JP2014124439 A JP 2014124439A JP 6620394 B2 JP6620394 B2 JP 6620394B2
Authority
JP
Japan
Prior art keywords
image
depth
information
subject
focus position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014124439A
Other languages
English (en)
Other versions
JP2016004163A (ja
JP2016004163A5 (ja
Inventor
山本 耕司
耕司 山本
晶 岩瀬
晶 岩瀬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2014124439A priority Critical patent/JP6620394B2/ja
Priority to US15/314,774 priority patent/US10178299B2/en
Priority to PCT/JP2015/002913 priority patent/WO2015194130A1/en
Priority to CN201580031097.5A priority patent/CN106464810B/zh
Priority to EP15741605.8A priority patent/EP3132601A1/en
Publication of JP2016004163A publication Critical patent/JP2016004163A/ja
Publication of JP2016004163A5 publication Critical patent/JP2016004163A5/ja
Application granted granted Critical
Publication of JP6620394B2 publication Critical patent/JP6620394B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/675Focus control based on electronic image sensor signals comprising setting of focusing regions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Automatic Focus Adjustment (AREA)
  • Focusing (AREA)

Description

本開示は、制御装置、制御方法及びプログラムに関する。
従来、例えば下記の特許文献1には、電子カメラにおいて、合焦点の位置を示す情報を表示された画像に多重することが記載されている。また、下記の特許文献2には、特定した被写体部分における装置に対する奥行き方向の位置を3次元的に表現する所定の表示オブジェクトを、電子ビューファインダに表示中のスルー画像に重ねて描画することが記載されている。また、下記の特許文献3には、疑似空間を作成して立体的なアイコンで領域を指定することが記載されている。
特開2013−26744号公報 特開2010−10732号公報 特開2009−60338号公報
撮像装置などの装置で焦点を合わせる作業は、通常、2次元の表示画面上で被写***置を指定することによって行われる。例えば、画面上に複数の人物が写っており、特定の人物に焦点を合わせたい場合は、その特定の人物を画面上で指定することで、当該人物に焦点を合わせることができる。
しかしながら、焦点を合わせたい奥行き位置に被写体が存在しない場合、ユーザーが画面を参照しながら奥行き方向の位置を指定することには非常に困難が伴う。上記特許文献3に記載されているような立体的なアイコンを動かす手法では、直感的且つ容易に合焦させる位置を指定することは困難であった。
また、近時では、フルサイズの撮像素子の普及により被写界深度の浅い状況での撮影機会が増えているが、この様な状況下では撮影時に合焦位置を判別することが難しく、撮影した画像を注視しないと合焦位置が何処であったのか判別することが困難になっている。例えば、人物の顔を撮影する場合に、撮影時に画面を見ながら顔に焦点を合わせても、焦点が目の位置に合っているのか、鼻の位置に合っているのか、あるいは耳の位置にあっているのかが判別できない場合が生じていた。
そこで、焦点を合わせる位置を指定する際に、奥行き方向を含めて指定することを直感的且つ容易に行うことが求められていた。
本開示によれば、撮像画像内の被写体の奥行き情報を取得する奥行き情報取得部と、前記撮像画像又は前記撮像画像に対応する画像と前記奥行き情報から得られる合焦位置を指定するための情報とを重畳して表示する処理を行い、合焦位置と被写***置との関係に応じて前記合焦位置を指定するための情報の表示状態を変化させる表示処理部と、を備える、制御装置が提供される。
また、本開示によれば、撮像画像内の被写体の奥行き情報を取得することと、前記撮像画像又は前記撮像画像に対応する画像と前記奥行き情報から得られる合焦位置を指定するための情報とを重畳して表示することと、合焦位置と被写***置との関係に応じて前記合焦位置を指定するための情報の表示状態を変化させることと、を備える、制御方法が提供される。
また、本開示によれば、撮像画像内の被写体の奥行き情報を取得する手段、前記撮像画像又は前記撮像画像に対応する画像と前記奥行き情報から得られる合焦位置を指定するための情報とを重畳して表示する手段、合焦位置と被写***置との関係に応じて前記合焦位置を指定するための情報の表示状態を変化させる手段、としてコンピュータを機能させるためのプログラムが提供される。
以上説明したように本開示によれば、焦点を合わせる位置を指定する際に、奥行き方向を含めて指定することを直感的且つ容易に行うことが可能となる。
なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
本開示の各実施形態に係る撮像装置の概略構成を示す模式図である。 第1の実施形態において、撮像装置が撮像して表示部に表示された画像を示す模式図である。 AF用画像を詳細に示す模式図である。 AF用画像を詳細に示す模式図である。 AF用画像を詳細に示す模式図である。 編集装置の構成例を示す模式図である。 編集装置の構成例を示す模式図である。 第2の実施形態において、撮像装置が撮像して表示部に表示された画像を示す模式図である。 写す角度を変えた画像を示す模式図である。 被写界深度が深く、ボケの無い画像を示す模式図である。 撮像光学系の光軸に対して90°よりも小さい角度の方向に視点を移動して、その方向から被写体を見た状態を示す模式図である。 第3の実施形態において、撮像装置が撮像して表示部に表示された画像を示す模式図である。 画像上に奥行き方向の延びる線分が存在しない場合を示す模式図である。 画像上に奥行き方向の延びる線分が存在しない場合を示す模式図である。 線分L6,L7に合焦領域の深さ方向の解像度を表すグリッドを付加した例を示す模式図である。 第4の実施形態を説明するための模式図である。 第4の実施形態を説明するための模式図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は以下の順序で行うものとする。
1.第1の実施形態
1.1.撮像装置の構成例
1.2.奥行き情報を重畳した画像の例
1.3.撮像装置以外の装置への適用例
2.第2の実施形態
2.1.奥行き情報を重畳した画像の例
3.第3の実施形態
3.1.奥行き情報を重畳した画像の例
4.第4の実施形態
4.1.奥行き情報を重畳した画像の例
<1.第1の実施形態>
[1.1.撮像装置の構成例]
まず、図1を参照して、本開示の各実施形態に係る撮像装置2000の概略構成について説明する。図1に示すように、撮像装置2000は、撮像光学系100、撮像素子200、現像処理部300、デプスマップ作成部400、重畳用画像作成部500、被写界深度の深い画像作成部600、表示用重畳処理部700、表示部800、レンズ駆動用ドライバIC900、制御部1000、ユーザーインターフェース1100を有して構成されている。また、撮像装置2000は、撮像光学系110、撮像素子210を更に備えていても良い。
被写体像は、撮像光学系100によって撮像素子200の撮像面に合焦される。現像処理部300は、撮像素子200から得られた撮像のローデーターを現像処理して撮像画像の画像ファイルとし、表示用重畳処理部700へ送る。
被写界深度の深い画像作成部600は、撮像素子200から送られた画像のローデーターから、被写界深度の深い画像を作成し、重畳用画像作成部500へ送る。画像作成部60は、現像処理部300と同様にローデーターを現像処理する機能を備えている。画像作成部600は、現像処理部300で現像処理された撮像画像とは別に、この撮像画像よりも撮像光学系100の絞り径を小さくして撮像されたローデーターから被写界深度の深い画像を作成する。また、画像作成部600は、撮像装置2000が更に別の撮像光学系110及び撮像素子210を備える場合は、撮像光学系110及び撮像素子210を用いて別途撮像された画像から被写界深度の深い画像を生成することもできる。
デプスマップ作成部400は、撮像素子200から送られた画像のローデーターから、画素毎に被写体の奥行き方向の位置を示す情報が与えられたデプスマップを作成し、重畳用画像作成部500へ送る。デプスマップ作成部400は、撮像素子200が各画素の位相差情報を取得可能な位相差センサから構成されている場合は、撮像素子200から得られた位相差情報からデプスマップを作成する。また、デプスマップ作成部400は、撮像装置2000が2つの撮像光学系100,110と2つの撮像素子200,210を備えているステレオカメラの場合は、撮像素子200,210が撮像した各画素の視差からデプスマップを作成する。また、デプスマップ作成部400は、撮像装置2000が奥行き情報を計算するための情報を記録できるライトフィールドカメラの場合は、その情報に基づいてデプスマップを作成する。
重畳用画像作成部500は、画像作成部600から受け取った被写界深度の深い画像のデータとデプスマップから得られる合焦位置を指定するための情報とに基づいて、重畳用の画像データを作成し、表示用重畳処理部700へ送る。より詳細には、重畳用画像作成部500は、デプスマップから合焦位置を指定するための情報を作成し、被写界深度の深い画像3100と重畳して画像データを作成する。合焦位置を指定するための情報は、後で詳細に説明するが、合焦位置を示す仮想面、等高線、ワイヤーフレーム表示等から構成される。
表示用重畳処理部700は、現像処理部300から受け取った画像データと重畳用画像作成部500から受け取った画像データとを重畳し、表示用の画像データを作成する。表示部800は、表示用重畳処理部700から表示用の画像データを受け取り、表示を行う。
ユーザーインターフェース1100は、タッチセンサ(タッチパネル)、操作ボタン、キーボード、マウス等のユーザーによる操作入力が入力される構成要素である。ユーザーインターフェース1100からは、各種ユーザー設定、各種撮影操作等の情報が入力される。ユーザーは、合焦位置を指定するための表示を、ユーザーインターフェース1100のダイヤルを回す、十字キーを上下する、などの1つの動作で操作することができる。
制御部1000は、撮像装置2000の各構成要素を制御する。制御部1000は、操作ボタン等のユーザーインターフェース1100から各種ユーザー設定、各種撮影操作等の情報を受け取り、撮像装置2000の各構成要素を制御する。また、制御部1000は、レンズ駆動用ドライバIC900に指令を送り、撮像光学系100が所望のズーム位置、フォーカス位置となるように撮像光学系100を駆動する。
本実施形態では、デプスマップから得られる合焦位置を指定するための情報(奥行き位置を示す情報)を画像に重畳することで、撮像画像の奥行き方向の位置をユーザーが指定できるようにする。合焦位置を指定するための情報は、合焦位置と被写***置との関係に応じて表示状態が変化する。これにより、ユーザーは、画面上で合焦位置を容易に設定することが可能となり、ピント合わせの際の操作性を大幅に向上することができる。以下、詳細に説明する。
[1.2.奥行き情報を重畳した画像の例]
図2は、第1の実施形態において、撮像装置2000が撮像して表示部800に表示された画像を示す模式図である。図2に示すように、画像3000に対して、被写界深度の深いAF用画像3100がピクチャ・イン・ピクチャ(PinP)として重畳されている。画像3000は、現像処理部300によって現像処理が行われた撮像画像であり、ユーザーが所望の条件で被写体を撮像した画像である。本実施形態では、画像3000は被写界深度の浅い画像であるものとする。一方、AF用画像3100は、被写界深度の深い画像作成部600によって作成された画像とデプスマップから得られる合焦位置を指定するための情報とが重畳用画像作成部500によって重畳された画像である。AF用画像3100では、被写界深度が深いため、近距離から無限遠までの広い範囲で鮮明な画像が得られている。一方、画像3000は、ユーザーが所望の条件で被写体を撮像したものであり、被写界深度が浅く、一部の被写体のみにピントが有っており、他の被写体はボケている画像である。AF用画像3100は画像3000と比較してより鮮明な画像であるため、ユーザーは、AF用画像3100上で画像を確認しながら合焦操作を容易に行うことができる。図2に示す画像は、表示用重畳処理部700によって画像3000とAF用画像3100とが重畳されて表示部800から出力されたものである。
図3〜図5は、AF用画像3100を詳細に示す模式図である。AF用画像3100は、被写界深度の深い画像作成部600によって作成された被写界深度の深い画像を元に、デプスマップによる合焦位置を指定するための情報を付加することで、合焦位置が画面上のどの位置であるかが視覚的に判るように表示した画像である。図3に示す例では、合焦位置の仮想面を空間上に表示し、仮想面の奥と手前とで色(又は濃度)を変えるこことで合焦位置の仮想面を視覚的に把握できるようにしたものである。図3に示す例では、合焦位置の仮想面よりも奥の画像3110には所定の濃度(ドット)が付加されている。図3に示す濃度は、所定の色であっても良い。一方、合焦位置の仮想面よりも手前の画像3120は元画像のままであり、濃度は不可されていない。濃度の付加は、デプスマップの各画素の奥行き情報に基づいて行われ、この奥行き情報が合焦位置の仮想面よりも奥の画素には濃度が付加され、奥行き情報が合焦位置の仮想面よりも手前の画素には濃度が付加されない。合焦位置の仮想面の位置は、撮像光学系100のフォーカスレンズの位置に応じて制御部1000が取得する。制御部1000は、合焦位置の仮想面の位置を重畳用画像作成部500へ送る。重畳用画像作成部500は、合焦位置の仮想面の位置に応じて、仮想面よりも奥の画像3110に所定の濃度(ドット)を付加して画像データを作成する。図3に示す例では、奥行き情報に基づいて付加される濃度が重畳用画像作成部500によって重畳されるデプスマップによる合焦位置を指定するための情報に相当する。
これにより、AF用画像3100を視認したユーザーは、濃度が付加された画像3110の最も手前側が合焦位置であると認識することができる。合焦位置は、ユーザーインターフェース1100を操作して変化させることができる。合焦位置を変化させると、AF用画像3100上で合焦位置の仮想面の位置が変化する。合焦位置が手前側に変化した場合は、濃度が付加されていなかった手前側の画像3120に新たに濃度が付加されることになり、合焦位置が奥側に変化した場合は、元の合焦位置と新たな合焦位置との間の画像3110に付加されていた濃度が削除される。従って、ユーザーは、合焦位置を変化させた際に、濃度が新たに付加された領域、あるいは濃度が削除された領域を視認することで、AF用画像3100上で合焦位置を容易に判別することができる。このような手法によれば、例えば人の顔を撮影する場合に、合焦位置を変化させながら濃度の付加(または削除)された領域を観察することで、鼻にピントが合っているのか、耳にピントが合っているのか等を識別することが可能となり、より高精度に焦点を合わせることが可能となる。
ユーザーが合焦位置を所望の位置に変化させた後、合焦位置を決定する操作を行うことで、合焦位置が所望の位置に設定される。これにより、撮像光学系100のフォーカスレンズの位置が、ユーザーが設定した合焦位置に相当する位置へ駆動される。また、ユーザーがAF用画像3100上で合焦位置を変化させる操作と連動してフォーカスレンズの位置を駆動しても良い。制御部1000は、ユーザーインターフェース1100の操作によって設定された合焦位置の情報を取得し、取得した合焦位置の情報に基づいてレンズ駆動用ドライバIC900へ指令を送る。撮像光学系100のフォーカスレンズはレンズ駆動用ドライバIC900によって合焦位置に相当する位置へ駆動される。
図4に示す例では、等高線表示のような被写体距離を示す線3140を、画像作成部600によって作成された被写界深度の深い画像に重畳して表示している。この場合、合焦位置に相当する線140aは他の線3140と線種または色を変えておくことで、画面上に合焦位置を視覚的に判り易く示すことができる。図4に示す例では、合焦位置に相当する線を一点鎖線とし、他の線を破線として表示している。被写体距離を示す線3140の付加は、デプスマップの各画素の奥行き情報に基づいて行われ、各画素について、奥行き情報が等しい画素を結ぶことで、等高線表示のように被写体距離を表した複数の線3140を表示することができる。図4に示す例では、被写体距離を示す線3140が重畳用画像作成部500によって重畳されるデプスマップによる合焦位置を指定するための情報に相当する。
図4に示す例においても、ユーザーが被写体距離を示す任意の線3140を選択することで、合焦位置を選択した線3140の位置に変化させることができる。そして、合焦位置を所望の位置に変化させた後、合焦位置を決定する操作を行うことで、合焦位置が所望の位置に設定される。これにより、撮像光学系100のフォーカスレンズの位置が、ユーザーが設定した合焦位置に相当する位置へ駆動される。また、ユーザーがAF用画像3100上で合焦位置を変化させる操作と連動してフォーカスレンズの位置を駆動しても良い。
また、図5に示す例では、ワイヤーフレーム表示のような形式で合焦位置の範囲が示されている。図5において、最も手前の破線で囲まれた直方体3130の範囲が合焦位置に相当する。破線で囲まれた直方体3130の奥行き方向の厚さdは、被写界深度が深くなるほど増加するように表示が行われる。このため、制御部1000は、撮像光学系100から絞り径を取得し、重畳用画像作成部500へ送る。重畳用画像作成部500は、絞り径に応じて直方体3130の厚さdを設定して画像データを作成する。図5に示す例によれば、ユーザーは、合焦位置を被写界深度とともに認識することが可能である。図4と同様に、直方体3130の範囲を示す線の付加は、デプスマップの各画素の奥行き情報に基づいて行われ、複数の奥行き情報について、各奥行き情報が等しい画素を結ぶことで、図5に示すような直方体3130の範囲を表示することができる。図5に示す例では、直方体3130の範囲を示す線が重畳用画像作成部500によって重畳されるデプスマップによる情報に相当する。
図5に示す例においても、ユーザーが直方体3130の位置を所望の位置に変化させた後、合焦位置を決定する操作を行うことで、合焦位置が所望の位置に設定される。これにより、撮像光学系100のフォーカスレンズの位置が、ユーザーが設定した合焦位置に相当する位置へ駆動される。また、ユーザーがAF用画像3100上で合焦位置を変化させる操作と連動してフォーカスレンズの位置を駆動しても良い。また、ユーザーが直方体3130の幅dを変化させると、幅dの情報に基づいて制御部1000がレンズ駆動用ドライバIC900に指令を出し、撮像光学系100の絞りの径を変化させる。具体的には、幅dが大きくなるほど絞りの径が小さくなるように制御が行われる。これにより、画面上の操作で被写界深度を制御することもできる。
[1.3.撮像装置以外の装置への適用例]
上述した実施形態では、撮像装置2000を例に挙げて本開示に係る合焦位置の表示、合焦位置の操作について説明したが、予め撮像した画像を編集する編集装置4000に適用することもできる。この場合、図6に示す構成要素から編集装置4000が構成される。
編集装置400は、予め撮像された画像データをメモリ4100に格納している。編集装置4000は、メモリ4100に記憶された画像データに対して上述した処理と同様の処理を行うことで、図2に示す画像を表示部800に表示することができる。そして、ユーザーは、表示部800を参照しながらユーザーインターフェース1100を操作することで、合焦位置を所望の位置に設定することができる。
例えば、メモリ4100に格納された画像データがライトフィールドカメラで撮影されたデータである場合、各画素のデータに基づいて合焦位置を事後的に所望の位置に制御することができる。ここで、ライトフィールドカメラについて説明すると、ライトフィールドカメラは公知の技術であり、複数のマイクロレンズを備えるマイクロレンズアレイが撮像素子の前面に配置されているものである。各マイクロレンズは異なる焦点を有し、焦点イメージを再構築処理することで、撮像光学系のフォーカス位置を可変することなく、撮影後に様々な合焦位置の画像を得ることができる。例えば、1つのマイクロレンズがN個の画素をカバーしている場合、マイクロレンズに対して同じ位置にある画素を配列してできるN個の小画像は、主レンズをN個の部分開口に分割して取得されるN個のステレオ画像群を形成する。従って、ライトフィールドカメラによれば、視差からデプスマップを作成することも可能である。メモリ4100に格納された画像データがライトフィールドカメラで撮影されたデータである場合、画像データに図3〜図5で示したような合焦位置を指定する情報を重畳して表示することで、合焦位置を直感的かつ容易に所望の位置に制御することが可能である。なお、編集装置4000の場合、撮影後の画像データの合焦位置が変更されるのみであり、実際にフォーカスレンズを駆動することない。
また、図7に示すように、編集装置4000は、クラウド上のサーバに設けられていても良い。この場合、ユーザーは、撮像光学系100、及び撮像素子200を備えるカメラ、スマートフォン等の電子機器5000で撮像した画像データを送受信部5100から送り、画像データはネットワーク6000を介して編集装置4000へ送られる。編集装置4000の受信部4200は、電子機器5000から送られた画像データを受信する。編集装置4000は、受信した画像データに対して、図1と同様の処理を行う。送信部4300は、表示用重畳処理部700が重畳した表示用の画像データをネットワーク6000を介してユーザーの電子機器5000へ送り、この画像データは電子機器5000が備える表示部5200に表示される。また、撮像光学系100のフォーカスレンズの位置、及び、ユーザーインターフェース5300への操作入力は、ネットワーク6000を介して編集装置4000の制御部1000へ送られる。制御部1000は、フォーカスレンズの位置に応じて合焦位置を演算するとともに、合焦位置を変化させる操作が行われた場合は操作入力に応じて合焦位置を演算し、演算結果をネットワーク6000を介して電子機器5000へ送る。電子機器5000は、合焦位置の演算結果を受け取ると、これに基づいてレンズ駆動用ドライバIC5400を動作させ、撮像光学系100のフォーカスレンズを合焦位置へ駆動する。従って、表示装置800上に上述した各実施形態と同様に合焦位置の情報を表示することで、ユーザーは、画面上で操作しながら所望の位置に合焦位置を設定することが可能である。また、図7に示す構成の場合、主要な演算は全てクラウド上のサーバにおける編集装置400が行うため、電子機器5000を簡素に構成することができる。
以上説明したように第1の実施形態によれば、デプスマップから得られる合焦位置を指定するための情報を被写界深度が深いAF用画像3100に重畳して表示するようにしたため、ユーザーは、合焦位置を指定するための情報に基づいて合焦位置を容易に認識することが可能となる。また、合焦位置を指定するための情報に基づいて操作を行うことで、合焦位置を容易に変化させることが可能となる。従って、ユーザーは、奥行き方向の合焦位置を容易に指定することができ、視覚的に合焦位置を容易に判別することが可能となる。
また、画面上で合焦位置を指定する場合、被写体に対するピーキング(縁取り)等により合焦位置を表示すると、同一面上で合焦位置が表示されることになり、奥行き方向の位置精度を確認することが困難になる。本実施形態の手法によれば、合焦位置を指定するための奥行き情報を重畳し、奥行き情報によって合焦位置を表示するため、合焦位置の奥行き方向の位置精度を高い精度で確保して表示することが可能となる。
更に、撮像画像である被写界深度が浅い画像3000とは別に、画像3000よりも被写界深度の深いAF用画像3100を作成することにより、AF用画像3100を参照することで被写体の全体像を確実に把握することが可能となり、イメージした撮影を容易に行うことができる。また、被写界深度が浅い画像3000と被写界深度の深いAF用画像3100を同時に見ることで、撮影する場面の全体像を容易に把握することが可能である。
<2.第2の実施形態>
[2.1.奥行き情報を重畳した画像の例]
次に、本開示の第2の実施形態について説明する。図8は、第2の実施形態において、撮像装置2000が撮像して表示部800に表示された画像を示す模式図である。図8に示すように、被写界深度が浅い画像3000に対して、画像を写す角度を変えた画像3200がピクチャ・イン・ピクチャ(PinP)として重畳されている。
図9は、画像3200を示す模式図である。画像3200は、合焦位置を指定するため、撮像している画像3000の視点を横方向に移動して仮想的に作成したものである。画像3200は、デプスマップの情報に基づいて重畳用画像作成部500が作成する。表示用重畳処理部700は、画像3000と画像3200とを重畳する。図9に示す例では、画像3200は、撮像光学系100の光軸と直交する方向に視点を移動して、光軸と直交する方向から被写体を見た状態を示す画像として作成されている。画像3200の作成は、例えば公知のライトフィールド技術を用いて、デプスマップの情報に基づいて行うことができる。表示用重畳処理部700は、画像3000と画像3200を重畳する処理を行う。第2の実施形態においては、画像3200から被写体の奥行き方向の位置を判別することができるため、画像作成部600は被写界深度の深い画像を作成しなくても良い。画像3200を作成する際には、図10に示すような被写界深度が深く、ボケの無い画像3300を用いて作成を行う。画像3300は、第1の実施形態で説明した画像3100と同様に取得することができる。
画像3200は画像3300の視点を仮想的に変えるため、作成元の画像3300の画面上に移っていないものは表示されず、表示されない領域にはグレー等の色が付加される。画像3200は、画像3000に対して被写体を見る方向が異なっているため、ユーザーは、撮像光学系100の光軸方向と直交する方向から被写体の奥行き方向の位置を認識することが可能となる。従って、画像3200を参照することで、画像3000内の各被写体の奥行き方向の位置を視覚的に容易に認識することができる。
また、画像3200中には、合焦位置が太線3200aで示されている。また、太線3200aの幅(撮像光学系200の光軸の奥行き方向の幅)は、被写界深度の深さに応じて異なるように表示される。ユーザーは、太線3200aの位置とその幅から、合焦位置と被写界深度を認識することができる。第1の実施形態と同様に、合焦位置は、撮像光学系100のフォーカスレンズの位置に応じて制御部1000が取得する。制御部1000は、合焦位置を重畳用画像作成部500へ送る。重畳用画像作成部500は、合焦位置に応じて太線3200aの位置を設定して画像データを作成する。また、制御部1000は、撮像光学系100から絞り径を取得し、重畳用画像作成部500へ送る。重畳用画像作成部500は、絞り径に応じて太線3200aの幅を設定して画像データを作成する。
また、ユーザーは、ユーザーインターフェース1100を操作することで、合焦位置を示す太線3200の位置を矢印A1方向に変化させることができる。そして、第1の実施形態と同様に、ユーザーが太線3200の位置を操作して合焦位置を所望の位置に変化させた後、合焦位置を決定する操作を行うことで、合焦位置が所望の位置に設定される。これにより、撮像光学系100のフォーカスレンズの位置が、ユーザーが設定した合焦位置に相当する位置へ駆動される。また、ユーザーが太線3200aの位置を操作して合焦位置を変化させる操作と連動してフォーカスレンズの位置を駆動しても良い。更に、第1の実施形態と同様に、太線3200aの幅を操作することで被写界深度を変化させるようにしても良い。
また、図11に示す画像3400は、撮像光学系100の光軸に対して90°よりも小さい角度の方向に視点を移動して、その方向から被写体を見た状態を示す画像として作成したものである。この場合、光軸に対して90°よりも小さい角度の方向から被写体である「電車」が視認されるため、画像3400には「電車」の正面を斜め方向から見た状態が写っている。一方、画像3200は、撮像光学系100の光軸と直交する方向から被写体である「電車」を視認した画像であるため、画像3200に「電車」の正面は写っていない。図11の画像3400に示すように、光軸に対して90°よりも小さい角度の方向から被写体を視認した場合においても、被写体の奥行き方向の位置を視覚的に容易に認識することが可能である。
図11に示す画像3400は、撮像光学系100の光軸に対して90°よりも小さい角度から被写体を視認した画像であるため、図11に示すように、合焦指定位置は、合焦位置を示す面3400aとして表示される。画像3400においても、ユーザーは平面3400aの位置、光軸方向の幅を操作することで、合焦位置と被写界深度を所望の状態に調節することができる。
以上説明したように第2の実施形態によれば、画像を写す角度を変えた画像3200,3400を作成して被写界深度が浅い画像3000へ重畳して表示を行うようにした。これにより、ユーザーは撮像光学系100の光軸方向とは異なる方向から被写体の奥行き方向の位置を認識することが可能となる。また、画像3200,3400では、合焦指定位置が太線3200a又は面3400aで示されており、太線3200a又は面3400aの位置を操作することで合焦位置を調整することが可能となる。また、太線3200a又は面3400aの光軸方向の幅を調整することで、被写界深度を調整することも可能となる。
<3.第3の実施形態>
[3.1.奥行き情報を重畳した画像の例]
次に、本開示の第3の実施形態について説明する。図12は、第3の実施形態において、撮像装置2000が撮像して表示部800に表示された画像を示す模式図である。図12に示すように、画像3000の中から、被写体中で奥行き方向に延びる線分L1,L2を抽出し、線分L1,L2上にグリッド(目盛)を表示する。グリッドを表示するための処理は、デプスマップの各画素の奥行き情報に基づいて、重畳用画像作成部500が行う。グリッドとともに、撮像装置2000からの距離を示す数値を表示しても良い。表示用重畳処理部700は、画像3000とデプスマップから得られたグリッドを重畳する処理を行う。第3の実施形態においても、画像作成部600は被写界深度の深い画像を作成しなくても良いが、被写界深度の深い画像を作成してグリッドと重畳しても良い。第3の実施形態では、線分L1,L2上のグリッドが、デプスマップによる合焦位置を指定するための情報となる。第1及び第2の実施形態と同様に、制御部1000は、撮像光学系100のフォーカスレンズの位置に応じて合焦位置を取得する。制御部1000は、合焦位置を重畳用画像作成部500へ送る。重畳用画像作成部500は、合焦位置に応じて、線分L1、L2上に合焦位置を示すマークMを表示する。ユーザーは、線分L1、L2上でマークMの位置の操作を行うことで、このグリッドが付された線分L1,L2のどの位置を合焦の位置に指定するかを一次元的に操作することができる。
図12に示すように、画像3000上から被写体である「電車」の側面の辺に沿った線分L1,L2が抽出され、デプスマップの情報に基づいて抽出した線分にグリッドが付加される。ユーザーは、ユーザーインターフェース1100を操作して、抽出された複数の線分の中から所望の線分を選択して、付加されたグリッドを指定することで合焦位置(マークMの位置)を指定することができる。第1及び第2の実施形態と同様に、ユーザーによる合焦位置を指定する操作に基づいて、制御部1000がレンズ駆動用ドライバ900を制御することで、撮像光学系100のフォーカスレンズが指定された合焦位置に移動する。
図13、図14は、画像3000上に奥行き方向の延びる線分が存在しない場合を示している。この場合、図13及び図14に示すように、画像3000上の被写体の形状、輪郭とは直接関連しない任意の線分L3,L4,L5を画像3000上に付加する。線分L3,L4,L5は、予め定められた所定の位置に付加しても良いし、ユーザーが始点と終点を指定することで任意の位置に付加できるようにしても良い。線分L3,L4,L5は、画面端から無限遠に延在する線分とされ、図12と同様にグリッドが付加されている。図12と同様に、ユーザーは、画面3000上で線分L3,L4,L5上のグリッドの位置を指定することで、合焦位置を指定することができる。ユーザーの操作に基づいて制御部1000がレンズ駆動用ドライバ900を制御することで、撮像光学系100のフォーカスレンズが指定された合焦位置に移動する。
図15は、線分L6,L7に合焦領域の深さ方向の解像度を表すグリッドを付加した例を示す模式図である。被写体距離が所定の距離よりも遠い場合、被写体距離が無限遠の場合と同様に全てにピントが合うため、合焦領域の指定ができなくなる。図15に示す線分L6,L7に付されたグリッドは、遠くに行くほど目盛間隔が広くなり、図15中に示す領域Rではグリッドが付されておらず全て合焦となることを示している。従って、ユーザーは、L6,L7に付されたグリッドを視認することで、解像度が同じ奥行き方向の領域を認識することができ、領域R内の任意の位置を合焦位置として指定した場合は、領域Rの全域にピントが合うことを認識することができる。
以上説明したように第3の実施形態によれば、画像3000中で奥行き方向に延びる線分を設定し、線分上にグリッド(目盛)を表示し、グリッド上でユーザーが指定した位置を合焦指定位置とするようにした。これにより、ユーザーは、奥行き方向に延びる線分のグリッド上で指定することで、合焦位置を容易に設定することが可能となる。従って、画面内で2次元的に被写体を指定して合焦位置を指定する手法に比べ、より直観的且つ容易に合焦位置を指定することが可能となる。
<4.第4の実施形態>
[4.1.奥行き情報を重畳した画像の例]
次に、本開示の第4の実施形態について説明する。図16及び図17は、第4の実施形態を説明するための模式図である。図16に示すように、第4の実施形態では、第1〜第3の実施形態のいずれかのユーザーインターフェースを用いて、奥行き方向の任意の位置に合焦位置を示す直方体(ワイヤーフレーム)3500を予め設定しておく。図16に示す例では、第1の実施形態で説明した図5の例と同様に、直方体3500は奥行き方向に幅dを有している。直方体3500の奥行き方向の幅dは被写界深度の深さに対応している。制御部1000は、撮像光学系100のフォーカスレンズの位置に応じて合焦位置を取得し、また撮像光学系100の絞り径を取得する。制御部1000は、取得した合焦位置と絞り径を重畳用画像作成部500へ送る。重畳用画像作成部500は、取得した合焦位置に応じて、直方体3500の奥行き方向の位置を設定して表示する。また、重畳用画像作成部500は、絞り径に応じて直方体3500の幅dを設定して表示する。第4の実施形態においては、直方体3500が合焦位置を指定する情報に相当する。
図17に示すように、設定した直方体3500に動きのある被写体が到達した場合に、自動撮影を行う。重畳用画像作成部500は、直方体3500の奥行き方向の位置に動きのある被写体が到達したことを検出する。制御部1000は、直方体3500の奥行き方向の位置に動きのある被写体が到達したことを示す情報を重畳用画像作成部500から受け取る。制御部1000は、この情報を受け取ると、撮像素子200を制御して撮影を行う。これにより、合焦位置を示す直方体3500に動きのある被写体が到達した時点で自動的に撮影を行うことが可能であり、撮影者に向かって進んでくる被写体を容易に撮影することが可能となる。
なお、動きのある被写体は、撮像装置2000が画像認識技術により主要被写体として決定したものであっても良いし、ユーザーが主要被写体として決定したものであっても良い。
図17に示す例では、動きのある被写体として「電車」を示している。図17に示すように、被写体「電車」のうち、合焦位置を示す直方体3500に入った部分のみ被写体の色を変更させる。これにより、ユーザーは、被写体のどの部分が合焦領域を示す直方体3500に入ったかを視認することができる。また、自動撮影を行わない場合は、被写体である「電車」の前面が直方体3500内に入り、色が変わった瞬間にシャッターを押すことで、「電車」の前面にピントが合った画像を容易に撮影することが可能となる。上述した実施形態と同様に、直方体3500の位置はユーザーがユーザーインターフェース1100を操作することによって変更することができ、また直方体3500の幅dを変更することで被写界深度を調整することもできる。
以上説明したように第4の実施形態によれば、合焦位置を示す直方体3500を画像内に予め設定しておくことで、動きのある被写体が直方体3500に入った場合に自動撮影を行うことができる。従って、対象物体が無い空間に対していわゆる置きピンで合焦位置を指定することがきる。また、表示された被写体のうち合焦位置を示す直方体3500に入った部分のみ色を変更させることで、ユーザーは、被写体のどの部分が合焦領域を示す直方体に入ったかを視認することが可能となる。これにより、自動撮影を行わない場合においても、所望の被写体に確実にピントが合った画像を撮影することが可能となる。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
なお、以下のような構成も本開示の技術的範囲に属する。
(1) 撮像画像内の被写体の奥行き情報を取得する奥行き情報取得部と、
前記撮像画像又は前記撮像画像に対応する画像と前記奥行き情報から得られる合焦位置を指定するための情報とを重畳して表示する処理を行い、合焦位置と被写***置との関係に応じて前記合焦位置を指定するための情報の表示状態を変化させる表示処理部と、
を備える、制御装置。
(2) ユーザーの操作が入力される操作入力部を更に備え、
前記表示処理部は、ユーザーの操作に応じて合焦位置を変化させて表示する、前記(1)に記載の制御装置。
(3) 前記表示処理部は、前記奥行き情報に基づいて、合焦位置を示す線又は面を表示する処理を行う、請求項(1)又は(2)に記載の制御装置。
(4) 前記表示処理部は、前記合焦位置を示す線又は面に所定の色又は濃度を付加する処理を行う、前記(3)に記載の制御装置。
(5) 前記表示処理部は、前記合焦位置を示す線又は面に被写界深度に応じた幅を持たせる、前記(3)に記載の制御装置。
(6) 前記表示処理部は、前記合焦位置を示す線又は面に動きのある被写体が到達すると、被写体の前記合焦位置を示す線又は面に到達した部位の色又は濃度を変化させる、前記(5)に記載の制御装置。
(7) 前記表示処理部は、前記奥行き情報に基づいて、撮像位置から等距離にある線又は面を表示する処理を行う、前記(1)に記載の制御装置。
(8) 前記表示処理部は、前記撮像画像と前記奥行き情報とに基づいて、前記撮像画像とは異なる視点からの画像を前記合焦位置を指定するための情報として表示する処理を行う、前記(1)に記載の制御装置。
(9) 前記表示処理部は、前記奥行き情報に基づいて、撮像画像の手前から奥に延在する線分を合焦位置とともに表示する処理を行う、前記(1)に記載の制御装置。
(10) 前記線分は、奥行き位置を示すグリッドを含む、前記(9)に記載の制御装置。
(11) 前記線分は、被写体中で奥行き方向に延在するエッジ部分に対応する、前記(9)に記載の制御装置。
(12) 前記線分は、前記撮像画像又は前記撮像画像に対応する画像内の所定位置に予め設定されたものである、前記(9)に記載の制御装置。
(13) ユーザーの操作が入力される操作入力部を更に備え、
前記線分は、ユーザーが前記撮像画像又は前記撮像画像に対応する画像内に始点と終点を規定することで設定される、前記(9)に記載の制御装置。
(14) 前記撮像画像又は前記撮像画像に対応する画像を撮像する撮像素子と、
被写体像を前記撮像素子の撮像面に合焦させる撮像光学系と、
前記ユーザーの操作に応じて、前記合焦位置に応じて前記撮像光学系を駆動する駆動部と、
を更に備える、前記(2)に記載の制御装置。
(15) 前記撮像画像に対応する画像は、前記撮像画像よりも被写界深度が深い画像である、前記(1)〜(14)のいずれかに記載の制御装置。
(16) 撮像画像内の被写体の奥行き情報を取得することと、
前記撮像画像又は前記撮像画像に対応する画像と前記奥行き情報から得られる合焦位置を指定するための情報とを重畳して表示することと、
合焦位置と被写***置との関係に応じて前記合焦位置を指定するための情報の表示状態を変化させることと、
を備える、制御方法。
(17) 撮像画像内の被写体の奥行き情報を取得する手段、
前記撮像画像又は前記撮像画像に対応する画像と前記奥行き情報から得られる合焦位置を指定するための情報とを重畳して表示する手段、
合焦位置と被写***置との関係に応じて前記合焦位置を指定するための情報の表示状態を変化させる手段、
としてコンピュータを機能させるためのプログラム。
400 デプスマップ作成部
500 重畳用画像作成部
2000 撮像装置
4000 編集装置

Claims (17)

  1. 撮像画像内の所定の被写体の奥行き情報を取得する奥行き情報取得部と、
    前記撮像画像又は前記撮像画像に対応する画像と前記奥行き情報から得られる合焦位置に基づき設定される情報であって、所定の空間の奥行き方向の位置を表す情報とを重畳して表示する処理を行い、前記合焦位置に対するユーザーの合焦操作に応じて変動する関係であって、所定の空間の奥行き方向の位置と所定の被写体の奥行き方向の位置との関係に応じて、前記画像において前記合焦位置よりも奥の被写体が撮像された画像および前記合焦位置よりも手前の被写体が撮像された画像が異なる態様で表示されるよう、前記合焦位置よりも奥の被写体が撮像された画像に所定の処理を施す表示処理部と、
    を備える、制御装置。
  2. ユーザーの合焦操作が入力される操作入力部を更に備え、
    前記表示処理部は、ユーザーの合焦操作に応じて前記所定の空間の奥行き方向の位置を表す情報を変化させて表示する、請求項1に記載の制御装置。
  3. 前記表示処理部は、前記奥行き情報に基づいて、前記所定の処理として、前記所定の空間の奥行き方向の位置を表す情報を示す線又は面を表示する処理を行う、請求項1又は2に記載の制御装置。
  4. 前記表示処理部は、前記所定の空間の奥行き方向の位置を表す情報を示す線又は面に所定の色又は濃度を付加する処理を行う、請求項3に記載の制御装置。
  5. 前記表示処理部は、前記所定の空間の奥行き方向の位置を表す情報を示す線又は面に被写界深度に応じた幅を持たせる、請求項3に記載の制御装置。
  6. 前記表示処理部は、前記所定の空間の奥行き方向の位置を表す情報を示す線又は面に動きのある被写体が到達すると、被写体の前記所定の空間の奥行き方向の位置を表す情報を示す線又は面に到達した部位の色又は濃度を変化させる、請求項5に記載の制御装置。
  7. 前記表示処理部は、前記奥行き情報に基づいて、撮像位置から等距離にある線又は面を表示する処理を行う、請求項1に記載の制御装置。
  8. 前記表示処理部は、前記撮像画像と前記奥行き情報とに基づいて、前記撮像画像とは異なる視点からの画像を前記所定の空間の奥行き方向の位置を表す情報を指定するための情報として表示する処理を行う、請求項1に記載の制御装置。
  9. 前記表示処理部は、前記奥行き情報に基づいて、撮像画像の手前から奥に延在する線分を所定の空間の奥行き方向の位置を表す情報とともに表示する処理を行う、請求項1に記載の制御装置。
  10. 前記線分は、奥行き位置を示すグリッドを含む、請求項9に記載の制御装置。
  11. 前記線分は、被写体中で奥行き方向に延在するエッジ部分に対応する、請求項9に記載の制御装置。
  12. 前記線分は、前記撮像画像又は前記撮像画像に対応する画像内の所定位置に予め設定されたものである、請求項9に記載の制御装置。
  13. ユーザーの操作が入力される操作入力部を更に備え、
    前記線分は、ユーザーが前記撮像画像又は前記撮像画像に対応する画像内に始点と終点を規定することで設定される、請求項9に記載の制御装置。
  14. 前記撮像画像又は前記撮像画像に対応する画像を撮像する撮像素子と、
    被写体像を前記撮像素子の撮像面に合焦させる撮像光学系と、
    前記ユーザーの操作に応じた前記所定の空間の奥行き方向の位置に応じて前記撮像光学系を駆動する駆動部と、
    を更に備える、請求項2に記載の制御装置。
  15. 前記撮像画像に対応する画像は、前記撮像画像よりも被写界深度が深い画像である、請求項1〜14のいずれかに記載の制御装置。
  16. 撮像画像内の所定の被写体の奥行き情報を取得することと、
    前記撮像画像又は前記撮像画像に対応する画像と前記奥行き情報から得られる合焦位置に基づき設定される情報であって、所定の空間の奥行き方向の位置を表す情報とを重畳して表示することと、
    前記合焦位置に対するユーザーの合焦操作に応じて変動する関係であって、所定の空間の奥行き方向の位置と所定の被写体の奥行き方向の位置との関係に応じて、前記画像において前記合焦位置よりも奥の被写体が撮像された画像および前記合焦位置よりも手前の被写体が撮像された画像が異なる態様で表示されるよう、前記合焦位置よりも奥の被写体が撮像された画像に所定の処理を施すことと、
    を備える、制御方法。
  17. 撮像画像内の所定の被写体の奥行き情報を取得する手段、
    前記撮像画像又は前記撮像画像に対応する画像と前記奥行き情報から得られる合焦位置に基づき設定される情報であって、所定の空間の奥行き方向の位置を表す情報とを重畳して表示する手段、
    前記合焦位置に対するユーザーの合焦操作に応じて変動する関係であって、所定の空間の奥行き方向の位置と所定の被写体の奥行き方向の位置との関係に応じて、前記画像において前記合焦位置よりも奥の被写体が撮像された画像および前記合焦位置よりも手前の被写体が撮像された画像が異なる態様で表示されるよう、前記合焦位置よりも奥の被写体が撮像された画像に所定の処理を施す手段、
    としてコンピュータを機能させるためのプログラム。
JP2014124439A 2014-06-17 2014-06-17 制御装置、制御方法及びプログラム Active JP6620394B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2014124439A JP6620394B2 (ja) 2014-06-17 2014-06-17 制御装置、制御方法及びプログラム
US15/314,774 US10178299B2 (en) 2014-06-17 2015-06-10 Control device and control method
PCT/JP2015/002913 WO2015194130A1 (en) 2014-06-17 2015-06-10 Control device, control method, and program
CN201580031097.5A CN106464810B (zh) 2014-06-17 2015-06-10 控制装置、控制方法及程序
EP15741605.8A EP3132601A1 (en) 2014-06-17 2015-06-10 Control device, control method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014124439A JP6620394B2 (ja) 2014-06-17 2014-06-17 制御装置、制御方法及びプログラム

Publications (3)

Publication Number Publication Date
JP2016004163A JP2016004163A (ja) 2016-01-12
JP2016004163A5 JP2016004163A5 (ja) 2017-03-23
JP6620394B2 true JP6620394B2 (ja) 2019-12-18

Family

ID=53719884

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014124439A Active JP6620394B2 (ja) 2014-06-17 2014-06-17 制御装置、制御方法及びプログラム

Country Status (5)

Country Link
US (1) US10178299B2 (ja)
EP (1) EP3132601A1 (ja)
JP (1) JP6620394B2 (ja)
CN (1) CN106464810B (ja)
WO (1) WO2015194130A1 (ja)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104038699B (zh) * 2014-06-27 2016-04-06 努比亚技术有限公司 对焦状态的提示方法和拍摄装置
JP6504693B2 (ja) * 2015-01-06 2019-04-24 オリンパス株式会社 撮像装置、操作支援方法及び操作支援プログラム
JP6663193B2 (ja) * 2015-09-10 2020-03-11 キヤノン株式会社 撮像装置およびその制御方法
US9912860B2 (en) * 2016-06-12 2018-03-06 Apple Inc. User interface for camera effects
KR102423175B1 (ko) * 2017-08-18 2022-07-21 삼성전자주식회사 심도 맵을 이용하여 이미지를 편집하기 위한 장치 및 그에 관한 방법
US10984287B2 (en) * 2018-05-14 2021-04-20 Panasonic Intellectual Property Management Co., Ltd. Learning device, learning method, and storage medium
JP7158180B2 (ja) 2018-05-30 2022-10-21 キヤノン株式会社 画像処理装置、画像処理方法、プログラム、記憶媒体
JP7173841B2 (ja) 2018-11-14 2022-11-16 キヤノン株式会社 画像処理装置およびその制御方法ならびにプログラム
JP7198055B2 (ja) * 2018-11-16 2022-12-28 キヤノン株式会社 画像処理装置およびその制御方法ならびにプログラム
JP7293025B2 (ja) * 2019-07-29 2023-06-19 キヤノン株式会社 撮像装置およびその制御方法
WO2021252892A1 (en) * 2020-06-12 2021-12-16 Fyr, Inc. Systems and methods for producing a light field from a depth map
JP2023069737A (ja) * 2021-11-08 2023-05-18 東芝テック株式会社 無線タグ通信装置
US11632601B1 (en) * 2021-11-11 2023-04-18 Qualcomm Incorporated User interface for camera focus
US11488348B1 (en) * 2021-12-09 2022-11-01 Unity Technologies Sf Computing virtual screen imagery based on a stage environment, camera position, and/or camera settings

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5031049A (en) * 1984-05-25 1991-07-09 Canon Kabushiki Kaisha Automatic object image follow-up device
US7053953B2 (en) * 2001-12-21 2006-05-30 Eastman Kodak Company Method and camera system for blurring portions of a verification image to show out of focus areas in a captured archival image
JP4344299B2 (ja) * 2004-09-16 2009-10-14 富士通マイクロエレクトロニクス株式会社 撮像装置及びオートフォーカス合焦時間報知方法
JP4640198B2 (ja) * 2006-02-09 2011-03-02 カシオ計算機株式会社 電子カメラ、多数ポイント同時合焦枠表示方法、及びプログラム
JP5003358B2 (ja) 2007-08-31 2012-08-15 株式会社ニコン 表示装置、電子カメラおよび制御プログラム
JP5157673B2 (ja) * 2008-06-24 2013-03-06 カシオ計算機株式会社 撮像装置、及びフォーカス位置表示方法、フォーカス位置表示プログラム
JP5478935B2 (ja) * 2009-05-12 2014-04-23 キヤノン株式会社 撮像装置
US8363085B2 (en) * 2010-07-06 2013-01-29 DigitalOptics Corporation Europe Limited Scene background blurring including determining a depth map
JP2013026744A (ja) 2011-07-19 2013-02-04 Sanyo Electric Co Ltd 電子カメラ
JP5583242B2 (ja) * 2012-07-05 2014-09-03 キヤノン株式会社 画像処理装置およびその制御方法、並びにプログラム
JP6202910B2 (ja) * 2012-08-13 2017-09-27 キヤノン株式会社 映像処理装置およびその制御方法、プログラム
JP6007687B2 (ja) * 2012-09-11 2016-10-12 ソニー株式会社 撮像制御装置、撮像装置、および、撮像制御方法
JP2014096766A (ja) 2012-11-12 2014-05-22 Canon Inc 記録装置及び記録方法
CN104081755B (zh) * 2012-11-30 2018-02-02 松下知识产权经营株式会社 图像处理装置以及图像处理方法
US9066005B2 (en) * 2013-10-15 2015-06-23 Samsung Electronics Co., Ltd. Photographing device for displaying a manual focus guide and method thereof

Also Published As

Publication number Publication date
CN106464810A (zh) 2017-02-22
US20170201674A1 (en) 2017-07-13
US10178299B2 (en) 2019-01-08
EP3132601A1 (en) 2017-02-22
WO2015194130A1 (en) 2015-12-23
CN106464810B (zh) 2020-07-31
JP2016004163A (ja) 2016-01-12

Similar Documents

Publication Publication Date Title
JP6620394B2 (ja) 制御装置、制御方法及びプログラム
US10924658B2 (en) Information processing apparatus, electronic apparatus, server, information processing program, and information processing method
JP4637942B2 (ja) 3次元表示装置および方法並びにプログラム
JP5178553B2 (ja) 撮像装置
JP4657313B2 (ja) 立体画像表示装置および方法並びにプログラム
JP7494273B2 (ja) 表示制御装置、表示制御方法、およびプログラム
JP2016024489A (ja) 画像処理装置、撮像装置、画像処理方法及びプログラム
JP4895312B2 (ja) 3次元表示装置および方法並びにプログラム
JP5214547B2 (ja) 画像表示装置および方法並びにプログラム
JP5840022B2 (ja) 立体画像処理装置、立体画像撮像装置、立体画像表示装置
JP6104066B2 (ja) 画像処理装置および画像処理方法
WO2015141185A1 (ja) 撮像制御装置、撮像制御方法および記録媒体
JP4852169B2 (ja) 3次元表示装置および方法並びにプログラム
JP6515978B2 (ja) 画像処理装置および画像処理方法
JP6711428B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP2020182109A (ja) 情報処理装置、情報処理方法及びプログラム
JP2011102993A (ja) 立体画像表示装置および方法並びにプログラム
JP5385354B2 (ja) 3次元表示装置および方法並びにプログラム
JP2015056790A (ja) 画像処理装置、画像処理方法およびプログラム
JP2016054417A (ja) 立体画像処理装置、立体撮像装置、立体表示装置および立体画像処理プログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170215

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180409

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180925

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181126

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190208

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20190214

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190222

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190507

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190515

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190522

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190807

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20190820

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191023

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191105

R151 Written notification of patent or utility model registration

Ref document number: 6620394

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151