JP5874192B2 - 画像処理装置、画像処理方法、及びプログラム - Google Patents

画像処理装置、画像処理方法、及びプログラム Download PDF

Info

Publication number
JP5874192B2
JP5874192B2 JP2011087211A JP2011087211A JP5874192B2 JP 5874192 B2 JP5874192 B2 JP 5874192B2 JP 2011087211 A JP2011087211 A JP 2011087211A JP 2011087211 A JP2011087211 A JP 2011087211A JP 5874192 B2 JP5874192 B2 JP 5874192B2
Authority
JP
Japan
Prior art keywords
image
subject
input image
face
depth
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011087211A
Other languages
English (en)
Other versions
JP2012222641A5 (ja
JP2012222641A (ja
Inventor
純 鈴木
純 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2011087211A priority Critical patent/JP5874192B2/ja
Priority to US13/430,840 priority patent/US9179121B2/en
Priority to EP12161409.3A priority patent/EP2512144B1/en
Priority to EP17181162.3A priority patent/EP3255887B1/en
Priority to TW101111508A priority patent/TW201246914A/zh
Priority to CN201210096079.3A priority patent/CN102739958B/zh
Priority to KR1020120034576A priority patent/KR20120115944A/ko
Publication of JP2012222641A publication Critical patent/JP2012222641A/ja
Publication of JP2012222641A5 publication Critical patent/JP2012222641A5/ja
Priority to US14/869,412 priority patent/US9591291B2/en
Application granted granted Critical
Publication of JP5874192B2 publication Critical patent/JP5874192B2/ja
Priority to US15/417,893 priority patent/US9948921B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/296Synchronisation thereof; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • H04N13/225Image signal generators using stereoscopic image cameras using a single 2D image sensor using parallax barriers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/327Calibration thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Studio Devices (AREA)

Description

本開示は、画像処理装置、画像処理方法、及びプログラに関する。
画像処理装置として、例えば、人や風景等の被写体を撮像するスチルカメラやビデオカメラ等の撮像装置が知られている。この撮像装置の中には、被写体を撮影し、撮影した被写体の画像を表示部に立体(3次元)表示させものがある。このような表示を見て、ユーザは、奥行きがある画像を知覚する。
また、撮像装置においては、人の顔(特定の被写体)を検出し、検出した顔に対応した顔枠を表示部に表示させる技術が知られている(特許文献1参照)。ここで、顔枠は、2次元で表示部に表示される。
特開2009−290255号公報
ところで、表示部に画像を立体表示させる際に、顔枠(被写体枠)も表示させるニーズが存在する。しかし、上記の特許文献1の技術では、3次元の画像に2次元の顔枠を表示させるため、奥行きのある画像と奥行きの無い顔枠とが混在してしまい、ユーザは表示内容に違和感を抱くこととなる。
このため、表示部に画像を立体表示させる際に、画像中の特定の被写体に対応した被写体枠をユーザが違和感無く知覚できる画像処理装置、画像処理方法、及びプログラムの提供が求められている。
本開示によれば、視差が異なる第1入力画像及び第2入力画像の少なくともいずれか一方の入力画像中の所定の被写体を検出する被写体検出部と、検出された前記被写体に対応した被写体枠を、表示部に立体表示される前記第1入力画像と前記第2入力画像の間で奥行きがあるように、前記第1入力画像及び前記第2入力画像にそれぞれ合成する合成部と、を備える、画像処理装置が提供される。
また、本開示によれば、視差が異なる第1入力画像及び第2入力画像の少なくともいずれか一方の入力画像中の所定の被写体を検出することと、検出された前記被写体に対応した被写体枠を、表示部に立体表示される前記第1入力画像と前記第2入力画像の間で奥行きがあるように、前記第1入力画像及び前記第2入力画像にそれぞれ合成することと、を有する、画像処理方法が提供される。
また、本開示によれば、視差が異なる第1入力画像及び第2入力画像の少なくともいずれか一方の入力画像中の所定の被写体を検出することと、検出された前記被写体に対応した被写体枠を、表示部に立体表示される前記第1入力画像と前記第2入力画像の間で奥行きがあるように、前記第1入力画像及び前記第2入力画像にそれぞれ合成することと、をコンピュータに実行させるための、プログラムが提供される。
以上説明したように本開示によれば、表示部に画像を立体表示させる際に、画像中の特定の被写体に対応した被写体枠をユーザが違和感無く知覚できる。
撮像装置100の構成を示すブロック図である。 第1の顔枠合成処理を行う撮像装置100の機能ブロック図である。 第1の顔枠合成処理を説明するための模式図である。 立体画像を説明するための模式図である。 第2の顔枠合成処理を行う撮像装置100の機能ブロック図である。 第2の顔枠合成処理を説明するための模式図である。 第3の顔枠合成処理を行う撮像装置100の機能ブロック図である。 顔枠合成処理の選択処理を説明するためのフローチャートである。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は以下の順序で行うものとする。
1.画像処理装置の構成
2.顔枠合成処理
3.顔枠合成処理の選択処理
4.まとめ
<1.画像処理装置の構成>
本実施形態では、画像処理装置として撮像装置を例に挙げて、図1を参照しながら撮像装置100の構成について説明する。図1は、撮像装置100の構成を示すブロック図である。
撮像装置100は、例えば動画像を撮影できるビデオカメラ、又は静止画像を撮影できるデジタルカメラである。
図1に示すように、撮像装置100は、フォーカスレンズ101、ズームレンズ102、撮像素子103、アナログ信号処理部104、A/D変換部105、タイミングジェネレータ106、垂直ドライバ107、デジタル信号処理部108、制御部110、モータドライバ112、記録デバイス115、表示部116、操作部118、EEPROM119、ROM120、RAM121、検出部130を有する。
フォーカスレンズ101は、光軸方向の前後に移動して被写体のピントを調節する。ズームレンズ102は、光軸方向の前後に移動して被写体の大きさを変化して撮影する。撮像素子103は、例えばCCD素子又はCMOS素子であり、フォーカスレンズ101及びズームレンズ102から入射された光を電気信号に変換する。
アナログ信号処理部104は、撮像素子103から出力された電気信号のノイズを除去する処理等を行う。A/D変換部105は、撮像素子103によって生成された信号をデジタル信号に変換して、画像の生データを生成する。
タイミングジェネレータ106は、撮像素子103およびアナログ信号処理部104の処理タイミングの制御信号を生成して、処理タイミングを制御する。垂直ドライバ107は、撮像素子103を駆動する。デジタル信号処理部108は、生成された画像の生データに対して、光量のゲイン補正やホワイトバランスの調整等の画像処理を行う。
制御部110は、CPUを有し、撮像装置100の実行する各種の処理の制御をROM120などに格納されたプログラムに従って実行する。モータドライバ112は、フォーカスレンズ101に対応して設定されたフォーカスレンズ駆動モータ113、ズームレンズ102に対応して設定されたズームレンズ駆動モータ114を駆動する。
記録デバイス115は、デジタル信号処理部108によって画像処理が施された画像データを記憶する。表示部116は、ライブビュー表示や、画像処理が施された画像データの表示を行う。操作部118は、レリーズスイッチ、ズームボタン、各種の操作情報を入力する操作ボタン等を含む。
EEPROM119は、不揮発性メモリであり、画像データ、各種の補助情報、プログラムを格納する。ROM120は、制御部110が使用するプログラムや演算パラメータ等を格納する。RAM121は、制御部110において使用するプログラムや、その実行において適宜変化するパラメータ等を格納する。
検出部130は、センサ等を有し、レンズを介して入力される画像データの解析を行う。例えば、検出部130は、画像データの奥行きを検出する奥行き検出部として機能する。また、検出部130は、画像データ中の人物の顔を検出する顔検出部として機能する。なお、制御部110は、フォーカス位置を制御しており、検出部130によって検出された顔の位置と、フォーカス位置とが一致するか否かの判定を行う。
撮像装置100は、撮影した画像(動画像又は静止画像)を表示部116に立体表示(以下、3D表示とも呼ぶ)させることが可能である。具体的には、撮像装置100は、視差が異なる左目画像と右目画像を撮影し、撮影した左目画像(便宜上、左画像と呼ぶ)と右眼画像(便宜上、右画像と呼ぶ)を表示部116に表示させることで、立体表示を行う。これにより、ユーザは、表示部116に表示された画像を奥行きがある画像として知覚する。
なお、図1では、説明の便宜上、フォーカスレンズ101とズームレンズ102と撮像素子103(この3つを撮像部と呼ぶ)が、1つずつ表示されているが、立体表示を行う撮像装置100は、左画像の撮影用の撮像部と、右画像の撮影用の撮像部とを有する。この2つの撮像部によって、視差が異なる画像が撮像される。
<2.顔枠合成処理>
ところで、表示部116に画像を立体表示させる際に、顔枠も表示させるニーズが存在する。このようなニーズに対して、表示部116に画像を立体表示させる際に、顔枠をユーザが違和感無く知覚できることが求められる。このような要望に応えるべく、本実施形態に係る撮像装置100は、ユーザが知覚する被写体(例えば、顔)の奥行きと被写体枠(例えば、顔枠)の奥行きとが一致するように、顔枠合成処理を行う。
本実施形態では、顔枠合成処理として、まず、撮像装置100は、視差が異なる第1入力画像(例えば、左画像)及び第2入力画像(例えば、右画像)の少なくともいずれか一方の入力画像中の所定の被写体(例えば、顔)を検出する。次に、撮像装置100は、検出された顔に対応した顔枠を、表示部116に立体表示される左画像と右画像の間で奥行きがあるように、左画像及び右画像にそれぞれ合成する。このような顔枠合成処理によれば、ユーザが知覚する顔の奥行きと顔枠の奥行きとが一致するので、ユーザにとって見やすい表示を実現できる。
以下においては、顔枠合成処理として、第1の顔枠合成処理、第2の顔枠合成処理、及び第3の顔枠合成処理を例に挙げて、詳細に説明する。なお、本実施形態では、第1の顔枠合成処理が第1処理に該当し、第2の顔枠合成処理又は第3の顔枠合成処理が第2処理に該当する。
(第1の顔枠合成処理)
まず、第1の顔枠合成処理について説明する。第1の顔枠合成処理では、立体画像を構成する左画像と右画像に対して、それぞれ人物の顔検出を行い、左画像に対する顔検出に基いて左画像に顔枠を合成し、右画像の顔検出に基いて右画像に顔枠を合成する。
図2と図3を参照して、第1の顔枠合成処理について説明する。図2は、第1の顔枠合成処理を行う撮像装置100の機能ブロック図である。図3は、第1の顔枠合成処理を説明するための模式図である。
図2に示すように、撮像装置100は、画像処理部212と、顔検出部214と、顔枠合成部216と、画像処理部222と、顔検出部224と、顔枠合成部226と、画像合成部232を有する。なお、画像処理部212、222と顔枠合成部216、226と画像合成部232は、図1に示すデジタル信号処理部108によって実行され、顔検出部214、224は、検出部130によって実行される。
画像処理部212には、左画像の撮影用の撮像部から、立体画像を構成する左画像と右画像のうち左画像のデータが入力される。画像処理部212は、入力された左画像に対して各種の画像処理を行う。画像処理部212は、図3に示す画像処理後の左画像A1を、顔検出部214と顔枠合成部216に出力する。
顔検出部214は、画像処理部212から入力された左画像A1において人物の顔(顔に対応する領域)を検出する。左画像中に人物の顔が複数ある場合には、顔検出部214は、複数の顔を検出する。また、顔検出部214は、顔の位置も検出する。顔検出部214は、顔の検出結果を顔枠合成部216に出力する。
顔枠合成部216は、顔検出部214の検出結果に基づいて、画像処理部212から入力された左画像A1に顔枠F1を合成する。すなわち、顔枠合成部216は、人物の顔に対応した顔枠F1を左画像A1に合成して、図3に示す左画像A2を生成する。顔枠合成部216は、顔枠F1が合成された左画像A2を画像合成部232に出力する。
画像処理部222には、右画像の撮影用の撮像部から、立体画像を構成する右画像のデータが入力される。画像処理部222は、入力された右画像に対して各種の画像処理を行う。画像処理部222は、図3に示す画像処理後の右画像B1を、顔検出部224と顔枠合成部226に出力する。なお、右画像B1と左画像A1は、異なる撮像部から撮像されたものであるため、視差がある。
顔検出部224は、画像処理部222から入力された右画像B1において人物の顔(顔に対応する領域)を検出する。右画像中に人物の顔が複数ある場合には、顔検出部224は、複数の顔を検出する。顔検出部224は、顔の検出結果を顔枠合成部226に出力する。
顔枠合成部226は、顔検出部224の検出結果に基づいて、画像処理部222から入力された右画像B1に顔枠F2を合成する。すなわち、顔枠合成部226は、人物の顔に対応した顔枠F2を右画像B1に合成して、図3に示す右画像B2を生成する。顔枠合成部216は、顔枠F2が合成された右画像B2を画像合成部232に出力する。
画像合成部232は、顔枠合成部216から入力された左画像A2と、顔枠合成部226から入力された右画像B2とを、図3に示すように横に並べて1つのフレームC1に合成する(いわゆるサイド・バイ・サイド方式)。サイド・バイ・サイド方式において、フレームC1における左画像は、左画像A2の横幅を1/2に圧縮したものであり、フレームC1における右画像は、右画像B2の横幅を1/2に圧縮したものである。画像合成部232は、合成したフレームC1を表示部116(図1)に出力する。
表示部116は、入力されたフレームC1の左画像と右画像の横幅を2倍に伸ばして、順次表示する。左画像と右画像が順次表示される際に、ユーザは、例えばシャッターメガネを介して、右眼で右画像を視認し、左眼で左画像を視認する。なお、撮像装置100が、いわゆる偏光方式で画像を表示させて、ユーザに右画像と左画像を視認させても良い。そして、顔枠を含む右画像と左画像には視差あるため、ユーザは、図4に示すように、人物だけで無く、顔枠も奥行きがあるように知覚する。図4は、立体画像を説明するための模式図である。
第1の顔枠合成処理によれば、左画像と右画像に視差があるため、左画像に合成された顔枠F1と、右画像に合成された顔枠F2にも視差がある。そして、顔枠F1と顔枠F2の間の視差は、左画像と右画像の間の視差と同じであるため、ユーザが知覚する人物の顔の奥行きと顔枠の奥行きとが一致する。この結果、表示部116に画像を立体表示させる際に、ユーザは顔枠を違和感無く知覚できる。
(第2の顔枠合成処理)
次に、第2の顔枠合成処理について説明する。第2の顔枠合成処理は、まず、左画像と右画像の一方の画像(ここでは、左画像とする)に対して、顔検出及び奥行き検出を行う。次に、左画像の顔検出の結果に基づいて左画像に顔枠を合成し、左画像の顔枠と奥行き検出の結果に基づいて右画像に顔枠を合成する。
図5と図6を参照して、第2の顔枠合成処理について説明する。図5は、第2の顔枠合成処理を行う撮像装置100の機能ブロック図である。図6は、第2の顔枠合成処理を説明するための模式図である。
図5に示すように、撮像装置100は、画像処理部212と、顔検出部214と、奥行き検出部218と、画像処理部222と、画像合成部232を有する。なお、画像処理部212、222と画像合成部232は、図1のデジタル信号処理部108によって実行され、顔検出部214と奥行き検出部218は、検出部130によって実行される。
画像処理部212には、立体画像を構成する左画像と右画像のうち左画像のデータが入力される。画像処理部212は、入力された左画像に対して各種の画像処理を行う。画像処理部212は、図6に示す画像処理後の左画像A1を、顔検出部214と奥行き検出部218と画像合成部232に出力する。
顔検出部214は、画像処理部212から入力された左画像A1において人物の顔(顔に対応する領域)を検出する。顔検出部214は、顔の検出結果を画像合成部232に出力する。
奥行き検出部218は、左画像A1における顔等の被写体の奥行きを検出する。例えば、奥行き検出部218は、画像における被写体の輝度コントラスト情報を取得することで、被写体の奥行きを検出する。奥行き検出部218は、奥行きの検出結果を画像合成部232に出力する。
画像処理部222には、立体画像を構成する右画像のデータが入力される。画像処理部222は、入力された右画像に対して各種の画像処理を行う。画像処理部222は、図5に示す画像処理後の右画像B1を、画像合成部232に出力する。
画像合成部232は、顔検出部214の検出結果に基づいて、左画像A1で検出された顔に対応した顔枠F1を生成し、生成した顔枠F1を左画像A1に合成する。また、画像合成部232は、左画像A1で検出された顔に対応した顔枠F1と、奥行き検出部218が検出した奥行きとに基いて、右画像B1に対応した顔枠F2を生成する。具体的には、画像合成部232は、検出された奥行きによって視差を取得し、顔枠F1に対して取得した視差分だけずらすことで顔枠F2を生成する。そして、画像合成部232は、生成した顔枠F2を右画像B1に合成する(図6参照)。
ところで、第2の顔枠合成処理においては奥行き検出部218により検出された奥行きにより視差が求まるので、第1の顔枠合成処理とは異なり、第2の顔枠合成処理では右画像の顔検出は行われない。
また、画像合成部232は、顔枠F1が合成された左画像と顔枠F2が合成された右画像とを、図6に示すように横に並べて1つのフレームC1に合成する(前述したサイド・バイ・サイド方式)。画像合成部232は、合成したフレームC1を表示部116に出力する。
表示部116は、入力されたフレームC1の左画像と右画像の横幅を2倍に伸ばして、順次表示する。左画像と右画像が順次表示される際に、ユーザは、例えばシャッターメガネを介して、右眼で右画像を視認し、左眼で左画像を視認する。そして、顔枠を含む右画像と左画像には視差あるため、ユーザは、前述した図4に示すように、人物だけで無く、顔枠も奥行きがあるように知覚する。
第2の顔枠合成処理によれば、第1の顔枠合成処理と同様に、左画像に合成された顔枠F1と、右画像に合成された顔枠F2にも視差がある。そして、顔枠F1と顔枠F2の間の視差は、左画像と右画像の間の視差と同じであるため、ユーザが知覚する人物の顔の奥行きと顔枠の奥行きとが一致する。この結果、表示部116に画像を立体表示させる際に、ユーザは顔枠を違和感無く知覚できる。
また、第2の顔枠合成処理においては、上述したように右画像の顔検出が不要であるので、第1の顔枠合成処理に比べて処理量を低減でき、この結果処理時間を短縮することができる。
(第3の顔枠合成処理)
次に、第3の顔枠合成処理について説明する。第3の顔枠合成処理は、まず、左画像と右画像の一方の画像(ここでは、左画像とする)に対して顔検出を行う一方で、左画像と右画像の両方を用いて奥行き検出を行う。次に、左画像の顔検出に基いて左画像に顔枠を合成し、左画像の顔枠と、左画像及び右画像による奥行き検出との結果に基づいて、右画像に顔枠を合成する。
図7を参照して、第3の顔枠合成処理について説明する。図7は、第3の顔枠合成処理を行う撮像装置100の機能ブロック図である。
図7に示すように、撮像装置100は、画像処理部212と、顔検出部214と、奥行き検出部218と、画像処理部222と、画像合成部232を有する。なお、図7の画像処理部212、顔検出部214、及び画像処理部222は、それぞれ、図5の画像処理部212、顔検出部214、及び画像処理部222と同様な機能を有するので、説明は省く。
奥行き検出部218は、左画像A1のみに基いて奥行きを検出する第2の顔枠合成処理とは異なり、左画像A1及び右画像B1に基いて顔等の被写体の奥行きを検出する。例えば、奥行き検出部218は、左画像A1と右画像B1の対応する特定の部分を抽出してブロックマッチングすることで、被写体の奥行きを検出する。奥行き検出部218は、奥行きの検出結果を画像合成部232に出力する。
画像合成部232は、顔検出部214の検出結果に基づいて、左画像A1で検出された顔に対応した顔枠F1を生成し、生成した顔枠F1を左画像A1に合成する。また、画像合成部232は、左画像A1で検出された顔に対応した顔枠F1と、奥行き検出部218が検出した奥行きとに基いて、右画像B1に対応した顔枠F2を生成する。そして、画像合成部232は、生成した顔枠F2を右画像B1に合成する(図6参照)。なお、生成された顔枠F2は、奥行き検出部218により奥行きが考慮されているため、顔枠F1に対して視差を有する。
また、画像合成部232は、顔枠F1が合成された左画像と顔枠F2が合成された右画像とを、図6に示すように横に並べて1つのフレームC1に合成し、合成したフレームC1を表示部116に出力する。表示部116は、前述した図4に示すように、顔枠F1が合成された左画像と顔枠F2が合成された右画像とを順次表示することで、人物だけで無く、顔枠も奥行きがあるように表示される。
第3の顔枠合成処理によれば、第2の顔枠合成処理と同様に、左画像に合成された顔枠F1と、右画像に合成された顔枠F2にも視差がある。そして、顔枠F1と顔枠F2の間の視差は、左画像と右画像の間の視差と同じであるため、ユーザが知覚する人物の顔の奥行きと顔枠の奥行きとが一致する。この結果、表示部116に画像を立体表示させる際に、ユーザは顔枠を違和感無く知覚できる。
また、第3の顔枠合成処理によれば、左画像及び右画像に基いて奥行きを検出するので、左画像と右画像の一方の画像のみに基いて奥行きを検出する場合に比べて、より高精度に奥行きを検出可能である。
なお、上記では3つの顔枠合成処理を説明したが、撮像装置100が実行可能な顔枠合成処理は、これに限定されない。以下において、前述した図5を参照しながら、他の顔枠合成処理について説明する。
他の顔枠合成処理では、奥行き検出部218は、連続した2つの左画像を用いて奥行きを検出する。連続した2つの画像の間には、時間差があるため画像の変化がある。そこで、奥行き検出部218は、時間差がある2つの左画像から奥行きを検出する。例えば、奥行き検出部218は、2つの左画像の対応する特定の部分を抽出してブロックマッチングすることで、奥行きを検出する。そして、画像合成部232は、検出された奥行きと左画像の顔検出の結果に基づいて、右画像の顔枠を生成する。このように生成された右画像の顔枠も、前述した3つの顔枠合成処理と同様に、左画像の顔枠と視差が異なる。
<3.顔枠合成処理の選択処理>
上記では、撮像装置100が実行可能な複数の顔枠合成処理を説明したが、撮像装置100の制御部110は、被写体の撮影状態に応じて、複数の顔枠合成処理のうちの1つの顔枠合成処理を選択して実行する。これにより、リアルタイムで立体表示を行う際に、複数の顔枠合成処理の中から、奥行き検出等の検出精度や顔枠合成処理の処理時間を考慮した、最適な顔枠合成処理を実行できる。
例えば、制御部110は、同一の平面内において、検出された顔の位置がフォーカス位置(例えば、ファインダ内の中心位置)と一致するか否かに応じて、複数の顔枠合成処理のうちの1つの顔枠合成処理を選択して実行する。具体的には、制御部110は、同一の平面内において、検出された顔の位置がフォーカス位置と一致する場合には、第2の顔枠合成処理を選択して実行する。一方で、同一の平面内において、検出された顔の位置がフォーカス位置と一致しない場合には、制御部110は、第1の顔枠合成処理又は第3の顔枠合成処理を選択して実行する。
同一の平面内において、検出された顔の位置がフォーカス位置と一致した場合の奥行き検出の精度は、顔の位置がフォーカス位置と一致しない場合の奥行き検出の精度よりも高精度である。このため、顔の位置がフォーカス位置と一致する場合には、左画像と右画像のうちの一方の画像から奥行きを検出しても(第2の顔枠合成処理)、奥行き検出の精度が良く、処理時間も短くできる。一方で、顔の位置がフォーカス位置と一致しない場合には、左画像と右画像の両方を用いて奥行きを検出することで(第1の顔枠合成処理又は第3の顔枠合成処理)、奥行き検出の精度の低下を防止できる。
また、例えば、制御部110は、顔検出部214(顔検出部224)によって検出された顔の数に応じて、3つの顔枠合成処理のうちの1つの顔枠合成処理を選択して実行する。具体的には、制御部110は、検出された顔の数が所定数よりも多い場合には、第3の顔枠合成処理を選択して実行し、検出された顔の数が所定数よりも少ない場合には、第1の顔枠合成処理を選択して実行する。ここで、所定数は、以下のように定まる。奥行き検出部218による奥行き検出時間は、一定時間であるのに対して、顔検出部214による顔検出時間は、顔の数に比例して長くなる。所定数は、所定数の数の顔を検出する顔検出時間が奥行き検出時間よりも長くなる最小の数である。
顔の数に応じて、3つの顔枠合成処理のうちの1つの顔枠合成処理を選択して実行する場合には、以下のようなメリットがある。画像中の顔の数が多い程、制御部110の処理量が増える。第3の顔枠合成処理は、右画像の顔検出が不要であるので、検出された顔の数が多い程、右画像の顔検出を行う第1の顔枠合成処理に比べて処理量が少ない。このため、顔の数が多い場合には第3の顔枠合成処理を選択して実行することで、顔枠合成処理の処理量の増加を防止できる。一方で、顔の数が少ない場合には、第1の顔枠合成処理を実行することで、顔枠F1と顔枠F2の視差を精度良いものにできる。
(顔枠合成処理の選択処理の具体例)
図8を参照して、顔枠合成処理の選択処理の具体例について説明する。図8は、顔枠合成処理の選択処理を説明するためのフローチャートである。本処理は、制御部110がROM120等に記憶されたプログラムを実行することで、実現される。
図8のフローチャートは、顔検出部214が、入力された左画像の顔を検出したところから開始される。なお、以下の処理においては、第1の顔枠合成処理と第2の顔枠合成処理と第3の顔枠合成処理の中から、1つの顔枠合成処理を選択するものとする。
制御部110は、まず、顔検出部214によって検出された顔検出の精度が、良いか否かを判定する(ステップS102)。例えば、制御部110は、顔検出の精度の度合いを示す数値(閾値)等を予め把握しており、検出された精度が閾値よりも大きい場合には、精度が良いと判断し、検出された精度が閾値よりも小さい場合には、精度が悪いと判断する。
ステップS102で顔検出の精度が良いと判定された場合には(Yes)、制御部110は、検出された顔の数が1つで、かつ、検出された顔の位置とフォーカス位置が一致するか否かを判定する(ステップS104)。
ステップS104でYesと判定された場合には、制御部110は、図5に示す第2の顔枠合成処理を実行する(ステップS106)。これにより、奥行き検出の精度を高め、また、処理時間も短くできる。ステップS104でNoと判定された場合には、制御部110は、検出された顔の数が所定数よりも多いか否かを判定する(ステップS108)。
ステップS108で顔の数が所定数よりも多い場合には(Yes)、制御部110は、図7に示す第3の顔枠合成処理を選択して実行する(ステップS110)。このように、顔の数が多い場合には第3の顔枠合成処理を選択して実行することで、他の顔枠合成処理に比べて、顔枠合成処理の処理量の増加を防止できる。ステップS108で顔の数が所定数よりも少ない場合には(No)、制御部110は、図2に示す第1の顔枠合成処理を選択して実行する(ステップS112)。第1の顔枠合成処理を実行することで、顔枠F1と顔枠F2の視差を精度良いものにできる。
ステップS102で顔検出の精度が悪いと判定された場合には(No)、制御部110は、検出された顔の数が1つで、かつ、検出された顔の位置とフォーカス位置が一致するか否かを判定する(ステップS114)。
ステップS114でYesと判定された場合には、制御部110は、第2の顔枠合成処理を実行する(ステップS116)。これにより、奥行き検出の精度を高め、また、処理時間も短くできる。ステップS114でNoと判定された場合には、制御部110は、第3の顔枠合成処理を実行する(ステップS118)。これにより、奥行き検出の精度の低下を防止できる。
上述した本処理によれば、リアルタイムで立体表示を行う際に、複数の顔枠合成処理の中から、奥行き検出等の検出精度や顔枠合成処理の処理時間を考慮した、最適な顔枠合成処理を実行できる。
<4.まとめ>
上述したように、本実施形態に係る撮像装置100は、視差が異なる第1入力画像(例えば、左画像)及び第2入力画像(例えば、右画像)の少なくともいずれか一方の入力画像中の所定の被写体(例えば、顔)を検出する。次に、撮像装置100は、検出された顔に対応した顔枠を、表示部116に立体表示される左画像と右画像の間で奥行きがあるように、左画像及び右画像にそれぞれ合成する。
このような顔枠合成処理によれば、立体画像を構成する二つの画像のそれぞれに、二つの画像の視差に対応した2つの顔枠を合成させるので、ユーザが知覚する被写体の奥行きと被写体枠の奥行きとが一致する。この結果、表示部116に画像を立体表示させる際に、ユーザは被写体枠を違和感無く知覚できる。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本技術はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
上記では、被写体として人物の顔を例に挙げて説明したが、これに限定されない。例えば、被写体は、人物全体、ペット、植物等の特定の物体であっても良い。
また、上記では、画像処理装置として、ビデオカメラ等の撮像装置を例に挙げて説明したが、これに限定されない。例えば、画像処理装置は、画像データを表示部に立体表示させる機能を有すれば良く、例えば、携帯電話機、PDA、ゲーム機、電子辞書、ノートパソコン等であっても良い。また、画像処理装置は、外部の表示装置に画像を表示させても良い。
また、上記の実施形態のフローチャートに示されたステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的に又は個別的に実行される処理をも含む。また時系列的に処理されるステップでも、場合によっては適宜順序を変更することが可能であることは言うまでもない。
なお、本技術は以下のような構成も取ることができる。
(1)視差が異なる第1入力画像及び第2入力画像の少なくともいずれか一方の入力画像中の所定の被写体を検出する被写体検出部と、
検出された前記被写体に対応した被写体枠を、表示部に立体表示される前記第1入力画像と前記第2入力画像の間で奥行きがあるように、前記第1入力画像及び前記第2入力画像にそれぞれ合成する合成部と、
を備える、画像処理装置。
(2)前記被写体検出部は、前記被写体の顔を検出し、
前記被写体枠は、前記顔に対応した顔枠である、前記(1)に記載の画像処理装置。
(3)前記合成部は、
前記第1入力画像で検出された前記被写体に対応した第1被写体枠を、前記第1入力画像に合成すると共に、
前記第2入力画像で検出された前記被写体に対応した第2被写体枠を、前記第2入力画像に合成する、前記(1)又は(2)に記載の画像処理装置。
(4)前記第1入力画像に基いて、前記被写体の奥行きを検出する奥行き検出部を更に備え、
前記合成部は、
前記第1入力画像で検出された前記被写体に対応した第1被写体枠を、前記第1入力画像に合成すると共に、
前記第1被写体枠と前記奥行き検出部が検出した前記奥行きとに基いて生成した第2被写体枠を、前記第2入力画像に合成する、前記(1)又は(2)に記載の画像処理装置。
(5)前記第1入力画像及び前記第2入力画像に基いて、前記被写体の奥行きを検出する奥行き検出部を更に備え、
前記合成部は、
前記第1入力画像で検出された前記被写体に対応した第1被写体枠を、前記第1入力画像に合成すると共に、
前記第1被写体枠と前記奥行き検出部が検出した前記奥行きとに基いて生成した第2被写体枠を、前記第2入力画像に合成する、前記(1)又は(2)に記載の画像処理装置。
(6)前記第1入力画像に基いて、前記被写体の奥行きを検出する奥行き検出部と、
前記合成部が、前記第1入力画像で検出された前記被写体に対応した第1被写体枠を、前記第1入力画像に合成すると共に、前記第2入力画像で検出された前記被写体に対応した第2被写体枠を、前記第2入力画像に合成する第1処理と、
前記合成部が、前記第1入力画像で検出された前記被写体に対応した第1被写体枠を、前記第1入力画像に合成すると共に、前記第1被写体枠と前記奥行き検出部が検出した前記奥行きとに基いて生成した第2被写体枠を、前記第2入力画像に合成する第2処理と、
のいずれか一方を選択して実行する制御部と、
を更に備える、前記(1)〜(4)のいずれかに記載の画像処理装置。
(7)前記制御部は、
前記被写体検出部によって検出された前記被写体の数が所定数よりも多い場合には、前記第2処理を選択して実行し、
前記被写体検出部によって検出された前記被写体の数が所定数よりも少ない場合には、前記第1処理を選択して実行する、前記(6)に記載の画像処理装置。
(8)前記制御部は、
入力画像におけるフォーカス位置と、検出された前記顔の位置とを検出し、
前記フォーカス位置が前記被写体の位置と一致する場合には、前記第2処理を選択して実行し、
前記フォーカス位置が前記被写体の位置と一致しない場合には、前記第1処理を選択して実行する、前記(6)に記載の画像処理装置。
(9)視差が異なる第1入力画像及び第2入力画像の少なくともいずれか一方の入力画像中の所定の被写体を検出することと、
検出された前記被写体に対応した被写体枠を、表示部に立体表示される前記第1入力画像と前記第2入力画像の間で奥行きがあるように、前記第1入力画像及び前記第2入力画像にそれぞれ合成することと、
を有する、画像処理方法。
(10)視差が異なる第1入力画像及び第2入力画像の少なくともいずれか一方の入力画像中の所定の被写体を検出することと、
検出された前記被写体に対応した被写体枠を、表示部に立体表示される前記第1入力画像と前記第2入力画像の間で奥行きがあるように、前記第1入力画像及び前記第2入力画像にそれぞれ合成することと、
をコンピュータに実行させるための、プログラム。
100 撮像装置
101 フォーカスレンズ
102 ズームレンズ
103 撮像素子
104 アナログ信号処理部
105 A/D変換部
106 タイミングジェネレータ(TA)
107 垂直ドライバ
108 デジタル信号処理部
110 制御部
112 モータドライバ
113 フォーカスレンズ駆動モータ
114 ズームレンズ駆動モータ
115 記録デバイス
116 表示部
118 操作部
119 メモリ(EEPROM)
120 メモリ(ROM)
121 メモリ(RAM)
212 画像処理部
214 顔検出部
216 顔枠合成部
218 奥行き検出部
222 画像処理部
224 顔検出部
226 顔枠合成部
232 画像合成部
F1、F2 顔枠

Claims (7)

  1. 1入力画像に基づいて、所定の被写体を検出する被写体検出部と、
    前記第1入力画像に基づいて、前記被写体の奥行きを検出する奥行き検出部と、
    前記被写体に対応した第1被写体枠を、前記第1入力画像に合成すると共に、前記第1被写体枠と前記奥行きとに基づいて生成した第2被写体枠を、前記第1入力画像と視差が異なり前記奥行きの検出には用いない第2入力画像に合成する合成部と、
    を備える、画像処理装置。
  2. 前記被写体検出部は、前記被写体の顔を検出し、
    前記第1被写体枠および前記第2被写体枠は、前記顔に対応した顔枠である、請求項1に記載の画像処理装置。
  3. 記合成部が、
    前記第1入力画像から検出した前記被写体に対応した第1被写体枠を、前記第1入力画像に合成すると共に、前記第2入力画像から検出した前記被写体に対応した第2被写体枠を、前記第2入力画像に合成する第1処理と、
    前記合成部が、
    前記第1入力画像から検出した前記被写体に対応した第1被写体枠を、前記第1入力画像に合成すると共に、前記第1被写体枠と前記奥行きとに基づいて生成した第2被写体枠を、前記第2入力画像に合成する第2処理と、
    のいずれか一方を選択して実行する制御部
    を更に備える、請求項1または2に記載の画像処理装置。
  4. 前記制御部は、
    前記第1入力画像におけるフォーカス位置と、前記第1入力画像から検出した前記被写体の位置とを検出し、
    前記フォーカス位置が前記被写体の位置と一致する場合には、前記第2処理を選択して実行し、
    前記フォーカス位置が前記被写体の位置と一致しない場合には、前記第1処理を選択して実行する、請求項に記載の画像処理装置。
  5. 1入力画像に基づいて、所定の被写体を検出することと、
    前記第1入力画像に基づいて、前記被写体の奥行きを検出することと、
    前記被写体に対応した第1被写体枠を、前記第1入力画像に合成すると共に、前記第1被写体枠と前記奥行きとに基づいて生成した第2被写体枠を、前記第1入力画像と視差が異なり前記奥行きの検出には用いない第2入力画像に合成することと、
    を有する、画像処理方法。
  6. 1入力画像に基づいて、所定の被写体を検出することと、
    前記第1入力画像に基づいて、前記被写体の奥行きを検出することと、
    前記被写体に対応した第1被写体枠を、前記第1入力画像に合成すると共に、前記第1被写体枠と前記奥行きとに基づいて生成した第2被写体枠を、前記第1入力画像と視差が異なり前記奥行きの検出には用いない第2入力画像に合成することと、
    をコンピュータに実行させるための、プログラム。
  7. 視差が異なる第1入力画像及び第2入力画像中の特定の被写体に対応した情報を、前記第1入力画像から検出した前記被写体の奥行きに基づいて、前記第1入力画像及び前記第2入力画像の前記特定の被写体にそれぞれ合成する合成部、
    を備える、画像処理装置。
JP2011087211A 2011-04-11 2011-04-11 画像処理装置、画像処理方法、及びプログラム Expired - Fee Related JP5874192B2 (ja)

Priority Applications (9)

Application Number Priority Date Filing Date Title
JP2011087211A JP5874192B2 (ja) 2011-04-11 2011-04-11 画像処理装置、画像処理方法、及びプログラム
US13/430,840 US9179121B2 (en) 2011-04-11 2012-03-27 Imaging processing apparatus, image processing method, and program
EP12161409.3A EP2512144B1 (en) 2011-04-11 2012-03-27 Imaging processing apparatus, image processing method, and program
EP17181162.3A EP3255887B1 (en) 2011-04-11 2012-03-27 Imaging processing apparatus, image processing method, and program
TW101111508A TW201246914A (en) 2011-04-11 2012-03-30 Imaging processing apparatus, image processing method, and program
CN201210096079.3A CN102739958B (zh) 2011-04-11 2012-04-01 图像处理装置、图像处理方法
KR1020120034576A KR20120115944A (ko) 2011-04-11 2012-04-03 화상 처리 장치, 화상 처리 방법 및 프로그램
US14/869,412 US9591291B2 (en) 2011-04-11 2015-09-29 Imaging processing apparatus, image processing method, and program
US15/417,893 US9948921B2 (en) 2011-04-11 2017-01-27 Imaging processing apparatus, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011087211A JP5874192B2 (ja) 2011-04-11 2011-04-11 画像処理装置、画像処理方法、及びプログラム

Publications (3)

Publication Number Publication Date
JP2012222641A JP2012222641A (ja) 2012-11-12
JP2012222641A5 JP2012222641A5 (ja) 2014-05-22
JP5874192B2 true JP5874192B2 (ja) 2016-03-02

Family

ID=46062028

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011087211A Expired - Fee Related JP5874192B2 (ja) 2011-04-11 2011-04-11 画像処理装置、画像処理方法、及びプログラム

Country Status (6)

Country Link
US (3) US9179121B2 (ja)
EP (2) EP2512144B1 (ja)
JP (1) JP5874192B2 (ja)
KR (1) KR20120115944A (ja)
CN (1) CN102739958B (ja)
TW (1) TW201246914A (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5874192B2 (ja) * 2011-04-11 2016-03-02 ソニー株式会社 画像処理装置、画像処理方法、及びプログラム
JP6516410B2 (ja) * 2014-02-21 2019-05-22 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
CN103945133B (zh) * 2014-05-08 2017-04-26 山东神戎电子股份有限公司 一种可见光镜头的自动聚焦装置及方法
CN105376484A (zh) * 2015-11-04 2016-03-02 深圳市金立通信设备有限公司 一种图像处理方法及终端
CN107358638B (zh) * 2017-07-19 2020-11-27 智车优行科技(北京)有限公司 视差图计算方法和装置、电子设备、计算机存储介质
CN110225235B (zh) * 2018-03-01 2021-03-09 浙江宇视科技有限公司 变倍跟随方法及电动镜头
KR102316960B1 (ko) * 2019-11-28 2021-10-22 광운대학교 산학협력단 무인 항공기 영상 내 실시간 객체 검출 방법 및 장치
KR102393702B1 (ko) * 2021-10-18 2022-05-04 주식회사 스튜디오레논 딥러닝 기반 최적화된 연산을 통한 가상 캐릭터의 안면 이미지를 생성하는 방법 및 이를 위한 기록 매체 및 시스템

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7643025B2 (en) * 2003-09-30 2010-01-05 Eric Belk Lange Method and apparatus for applying stereoscopic imagery to three-dimensionally defined substrates
US7356408B2 (en) * 2003-10-17 2008-04-08 Fuji Jukogyo Kabushiki Kaisha Information display apparatus and information display method
JP2009047498A (ja) * 2007-08-17 2009-03-05 Fujifilm Corp 立体撮像装置および立体撮像装置の制御方法並びにプログラム
JP5115139B2 (ja) * 2007-10-17 2013-01-09 ソニー株式会社 構図判定装置、構図判定方法、プログラム
JP2009290255A (ja) 2008-05-27 2009-12-10 Sony Corp 撮像装置、および撮像装置制御方法、並びにコンピュータ・プログラム
JP4991685B2 (ja) * 2008-12-19 2012-08-01 富士フイルム株式会社 立体画像処理装置および立体画像処理方法
JP5620651B2 (ja) * 2009-06-26 2014-11-05 キヤノン株式会社 再生装置、撮像装置、及びその制御方法
JP5450200B2 (ja) * 2009-07-17 2014-03-26 富士フイルム株式会社 撮像装置、方法およびプログラム
US20110025830A1 (en) * 2009-07-31 2011-02-03 3Dmedia Corporation Methods, systems, and computer-readable storage media for generating stereoscopic content via depth map creation
JP5346266B2 (ja) * 2009-09-30 2013-11-20 富士フイルム株式会社 画像処理装置、カメラ及び画像処理方法
JP2011087211A (ja) 2009-10-19 2011-04-28 Sony Corp 復調装置および方法、並びに電子機器
US8913056B2 (en) * 2010-08-04 2014-12-16 Apple Inc. Three dimensional user interface effects on a display by using properties of motion
JP2012114896A (ja) * 2010-11-04 2012-06-14 Panasonic Corp 3d撮像装置及び3d再生装置
JP5874192B2 (ja) * 2011-04-11 2016-03-02 ソニー株式会社 画像処理装置、画像処理方法、及びプログラム

Also Published As

Publication number Publication date
EP3255887B1 (en) 2022-02-09
US20160021359A1 (en) 2016-01-21
TW201246914A (en) 2012-11-16
US20120256910A1 (en) 2012-10-11
US9179121B2 (en) 2015-11-03
CN102739958B (zh) 2017-05-17
US20170142409A1 (en) 2017-05-18
KR20120115944A (ko) 2012-10-19
EP2512144A1 (en) 2012-10-17
EP2512144B1 (en) 2017-08-30
CN102739958A (zh) 2012-10-17
US9591291B2 (en) 2017-03-07
EP3255887A1 (en) 2017-12-13
US9948921B2 (en) 2018-04-17
JP2012222641A (ja) 2012-11-12

Similar Documents

Publication Publication Date Title
JP5874192B2 (ja) 画像処理装置、画像処理方法、及びプログラム
US9007442B2 (en) Stereo image display system, stereo imaging apparatus and stereo display apparatus
US8885026B2 (en) Imaging device and imaging method
US20120263372A1 (en) Method And Apparatus For Processing 3D Image
JP5371845B2 (ja) 撮影装置及びその表示制御方法並びに3次元情報取得装置
EP2833638B1 (en) Image processing device, imaging device, and image processing method
JP5647740B2 (ja) 視差調節装置及び方法、撮影装置、再生表示装置
JP5295426B2 (ja) 複眼撮像装置、その視差調整方法及びプログラム
JP2013042301A (ja) 画像処理装置、画像処理方法及びプログラム
WO2012002157A1 (ja) 立体視用画像撮影装置およびその制御方法
JP2017041887A (ja) 画像処理装置、撮像装置、画像処理方法、及びプログラム
JP6155471B2 (ja) 画像生成装置、撮像装置および画像生成方法
US20120314038A1 (en) Stereoscopic image obtaining apparatus
WO2012043003A1 (ja) 立体画像表示装置および立体画像表示方法
JP5580486B2 (ja) 画像出力装置、方法およびプログラム
US20130076867A1 (en) Imaging apparatus
JP2016036081A (ja) 画像処理装置、方法及びプログラム並びに記録媒体
JPWO2012001958A1 (ja) 画像処理装置および方法並びにプログラム
JP2012028871A (ja) 立体画像表示装置、立体画像撮影装置、立体画像表示方法及び立体画像表示プログラム
WO2013136832A1 (ja) 立体画像表示制御装置および立体画像表示制御方法
JP2015139019A (ja) 画像合成装置及び画像合成プログラム
JP2011259405A (ja) 撮像装置および撮像方法
WO2012105122A1 (ja) 立体視用画像撮像装置およびその動作制御方法
WO2013001839A1 (ja) 撮像装置
JP2015046820A (ja) 撮像装置および撮影システム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140407

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140407

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141211

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141216

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150210

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20150818

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151111

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20151119

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151222

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160104

R151 Written notification of patent or utility model registration

Ref document number: 5874192

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees