JPWO2011162209A1 - 画像出力装置、方法およびプログラム - Google Patents

画像出力装置、方法およびプログラム Download PDF

Info

Publication number
JPWO2011162209A1
JPWO2011162209A1 JP2012521464A JP2012521464A JPWO2011162209A1 JP WO2011162209 A1 JPWO2011162209 A1 JP WO2011162209A1 JP 2012521464 A JP2012521464 A JP 2012521464A JP 2012521464 A JP2012521464 A JP 2012521464A JP WO2011162209 A1 JPWO2011162209 A1 JP WO2011162209A1
Authority
JP
Japan
Prior art keywords
parallax
output
representative
frame
stereoscopic image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012521464A
Other languages
English (en)
Other versions
JP5449551B2 (ja
Inventor
智紀 増田
智紀 増田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2012521464A priority Critical patent/JP5449551B2/ja
Publication of JPWO2011162209A1 publication Critical patent/JPWO2011162209A1/ja
Application granted granted Critical
Publication of JP5449551B2 publication Critical patent/JP5449551B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/189Recording image signals; Reproducing recorded image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

要約立体動画の出力条件に応じた視差調整に、立体動画の代表視差の遷移を反映させる。視差調整部63は、|基準フレームの代表視差−対象フレームの代表視差|<αであるか否かを判断する。Yesの場合はS5、Noの場合はS6に進む。αはシフト許容閾値として閾値設定部205から入力される。例えばα=0.75である。Noと判断された場合、フレーム間の代表視差の変動はある程度大きいことを意味する。この場合、S6に進み、対象フレームを基準フレームと異なる出力視差にシフトするための処理が行われる。

Description

本発明は、画像出力に関し、特に、立体動画の各立体画像フレームの両眼視差の調整に関する。
特許文献1及び2に開示の立体画像を処理装置は、二次元画像生成部、及び、ユーザに表示する立体画像の立体感を調整する立体感調整部を有する。かかる立体画像処理装置では、表示された被写体が限界視差に達すると、立体感調整部が応答し、取得された適正視差情報に従い、視差制御部が以降の立体表示において当該適正視差を実現するよう視差画像を生成する。このとき、視差の制御は、三次元データに遡ってカメラパラメータを最適設定することで実現する。また、二次元画像生成部は、適正視差を満たすデプスFxyを計算する。かかるFxyは、デプスの範囲をK1〜K2とし、各画素のデプス値をGxyしたとき、Fxy=J1+(Gxy−K1)×(J2−J1)/(K2−K1)にて求められる。なお、Fxyが整数にならない場合は、四捨五入や近置視差が小さくなるような処理が施される。
特開2004-221699号公報 特開2004-221700号公報
しかし、視差を用いた立体動画は、適切な視差量で表示しないと、視聴者の疲労を誘発するおそれがある。適切な視差量は表示するディスプレイのサイズや視聴者の立体融合限界などによって変化するため、かかる変化に対応させた視差調整を行う必要がある。
特許文献1では、適正視差を満たすデプスFxyを計算して四捨五入するため、フレーム間で視差が同じになり、フレーム遷移に伴う立体感の変化が感じられなかったり、逆にフレーム間で大きな視差の変化がつきすぎて視聴者に疲労を与えるおそれがある。例えば、図14Aのような撮影時の視差の遷移を、図14Bのような表示視差に調整した場合、隣接するフレーム間で視差が同じになって立体感がなくなったり、逆に隣接するフレーム間で大きな視差の変動が生じて視聴者が疲れる場合がある。
本発明は、立体動画の出力条件に応じた視差調整に、立体動画フレームを代表する視差(例えば、注目被写体等における代表的な視差)である代表視差の遷移を反映させることを目的とする。
本発明は、立体動画を構成する複数の立体画像フレームごとの代表視差を取得する代表視差取得部と、代表視差取得部の取得した立体画像フレームごとの代表視差に基づいて、立体動画の出力条件に応じた立体画像フレームごとの出力予定視差を決定する出力予定視差決定部と、出力予定視差決定部の決定した立体画像フレームごとの出力予定視差に基づいて、立体画像フレームごとの出力視差を調整する出力視差調整部と、出力視差調整部が出力視差を調整した立体画像フレームを順次出力する出力部と、を備え、出力予定視差決定部は、立体画像フレームの中から順次決定された基準フレームの代表視差に基づいて基準フレームの出力予定視差を決定し、かつ、基準フレームの直後の立体画像フレームである対象フレームの代表視差に基づいて対象フレームの出力予定視差を決定し、出力視差調整部は、基準フレームの代表視差と対象フレームの代表視差との差に基づいて基準フレームの出力視差と対象フレームの出力視差との差を調整する画像出力装置を提供する。
好ましくは、立体画像フレームごとの代表視差は、立体画像フレームの所定の領域内の平均視差である。
好ましくは、平均視差は、顔領域の平均視差、合焦評価値算出領域の平均視差または画像中央領域の平均視差である。
好ましくは、立体動画の出力条件として、許容される出力視差の幅である出力視差幅の上限および下限を取得する出力許容視差幅取得部を備える。
好ましくは、代表視差取得部の取得した各立体画像フレームの視差の最大値および最小値で規定される視差幅が、出力許容視差幅取得部の取得した出力許容視差幅に不適合の場合、視差幅を出力許容視差幅に調整する視差幅調整部を備える。
好ましくは、視差幅調整部は、代表視差取得部の取得した代表視差の最大値が、出力許容視差幅取得部の取得した出力許容視差幅の上限を超える場合、代表視差の最大値が出力許容視差幅の上限以下となるよう各立体画像フレームの代表視差を調整する。
好ましくは、視差幅調整部は、代表視差取得部の取得した視差の最小値が、出力許容視差幅取得部の取得した出力許容視差幅の下限未満の場合、視差の最小値が出力許容視差幅の下限以上となるよう各立体画像フレームの代表視差を調整する。
好ましくは、基準フレームと対象フレームは同一のシーンの中から決定される。
好ましくは、任意の値の代表視差に対応する段階的な出力予定視差を規定するテーブルを取得するテーブル取得部を備え、出力予定視差決定部は、代表視差取得部の取得した立体画像フレームごとの代表視差とテーブル取得部の取得したテーブルに従い、立体画像フレームごとの段階的な出力予定視差を決定する。
好ましくは、出力視差調整部は、基準フレームの代表視差と対象フレームの代表視差との差を所定の第1の閾値と比較し、差が所定の第1の閾値を超える場合、出力予定視差決定部の決定した基準フレームの出力予定視差よりも1段階大きい出力予定視差に向けて対象フレームの出力視差を調整する。
好ましくは、出力視差調整部は、差を所定の第2の閾値と比較し、差が所定の第2の閾値未満の場合、基準フレームの出力予定視差に向けて対象フレームの出力視差を調整する。
好ましくは、出力視差調整部は、差が所定の第1の閾値を超えずかつ所定の第2の閾値を下回らない場合、対象フレームの出力予定視差に向けて対象フレームの出力視差を調整する。
好ましくは、所定の第1の閾値と所定の第2の閾値は等しい。
本発明は、コンピュータが、立体動画を構成する複数の立体画像フレームごとの代表視差を取得するステップと、取得した立体画像フレームごとの代表視差に基づいて、立体動画の出力条件に応じた立体画像フレームごとの出力予定視差を決定するステップと、決定した立体画像フレームごとの出力予定視差に基づいて、立体画像フレームごとの出力視差を調整するステップと、出力視差を調整した立体画像フレームを順次出力するステップと、立体画像フレームの中から順次決定された基準フレームの代表視差に基づいて基準フレームの出力予定視差を決定し、かつ、基準フレームの直後の立体画像フレームである対象フレームの代表視差に基づいて対象フレームの出力予定視差を決定するステップと、基準フレームの代表視差と対象フレームの代表視差との差に基づいて基準フレームの出力視差と対象フレームの出力視差との差を調整するステップと、を実行する画像出力方法を提供する。
本発明は、この画像出力方法をコンピュータに実行させるための画像出力プログラムを提供する。
本発明によると、各立体画像フレーム間の出力視差の差が、立体画像フレーム間の代表視差の差異すなわち代表視差の推移に応じて調整される。各立体画像フレームの出力視差が、撮影時の代表視差の推移に近い状態を保ったまま適切な出力視差に調整されるので、立体動画の代表視差の推移を撮影した状態に近づけて出力することができる。
デジタルカメラの正面斜視図 デジタルカメラの背面斜視図 デジタルカメラのブロック図 開散方向の視差の限界の模式図 視差調整処理のフローチャート 立体動画視差−出力予定視差変換表の一例を示す図 視差幅調整処理のフローチャート 視差幅調整の模式図 負の方向への視差シフトの模式図 視差幅調整後の視差シフトの模式図 正の方向への視差シフトの模式図 表示再生装置のブロック図 撮影時の視差の推移を反映した出力視差の一例を示す図 従来の視差調整の一例を示す図
図1は、本発明の一実施形態であるデジタルカメラ10の外観構成を示す正面斜視図である。図2は、そのデジタルカメラの一例の外観構成を示す背面斜視図である。
デジタルカメラ10は、複数の撮像手段(図1では二つを例示)を備えており、同一被写体を複数視点(図1では左右二つの視点を例示)から撮影可能となっている。なお、本例では、説明の便宜のため二つの撮像手段を備えた場合を例に説明するが、本発明はこれに限定されず、三つ以上の撮像手段を備えた場合であっても同様に適用可能である。
本例のデジタルカメラ10のカメラボディ112は、矩形の箱状に形成されており、その正面には、図1に示すように、一対の撮影光学系11R、11Lと、ストロボ116が設けられている。また、カメラボディ112の上面には、レリーズボタン14、電源/モードスイッチ120、モードダイヤル122等が設けられている。また、カメラボディ112の背面には、図2に示すように、液晶表示装置(LCD)などで構成されたモニタ13、ズームボタン126、十字ボタン128、MENU/OKボタン130、DISPボタン132、BACKボタン134等が設けられている。モニタ13はデジタルカメラ10に内蔵されていてもよいし外部機器でもよい。
左右一対の撮影光学系11R、11Lは、それぞれ沈胴式のズームレンズ(図3の18R、18L)を含んで構成されており、デジタルカメラ10の電源をONすると、カメラボディ112から繰り出される。なお、撮影光学系におけるズーム機構や沈胴機構については、公知の技術なので、ここでは、その具体的な説明を省略する。
モニタ13は、半円筒状のレンズ群を有したいわゆるレンチキュラレンズが前面に配置されたカラー液晶パネル等の表示装置である。このモニタ13は、撮影済み画像を表示するための画像表示部として利用されるとともに、各種設定時にGUIとして利用される。また、撮影時には、撮像素子で捉えた画像がスルー表示され、電子ファインダとして利用される。なお、モニタ13の立体画像の表示方式は、パララックスバリア方式に限られない。例えば、アナグリフ方式、偏光フィルタ方式、液晶シャッタ方式など、めがねを利用した立体画像の表示方式でもよい。
レリーズボタン14は、いわゆる「半押し」と「全押し」とからなる二段ストローク式のスイッチで構成されている。デジタルカメラ10は、静止画撮影時(例えば、モードダイヤル122またはメニューによる静止画撮影モード選択時)、このレリーズボタン14を半押しすると撮影準備処理、すなわち、AE(Automatic Exposure:自動露出)、AF(Auto Focus:自動焦点合わせ)、AWB(Automatic White Balance:自動ホワイトバランス)の各処理を行い、全押しすると、画像の撮影・記録処理を行う。また、立体動画撮影時(例えば、モードダイヤル122またはメニューにより立体動画撮影モード選択時)、このレリーズボタン14を全押しすると、立体動画の撮影を開始し、再度全押しすると、撮影を終了する。なお、設定により、レリーズボタン14を全押ししている間、立体動画の撮影を行い、全押しを解除すると、撮影を終了するようにもできる。なお、静止画撮影専用のレリーズボタンおよび立体動画撮影専用のレリーズボタンを設けてもよい。
電源/モードスイッチ120(電源スイッチ及びモードスイッチ)は、デジタルカメラ10の電源スイッチとして機能するとともに、デジタルカメラ10の再生モードと撮影モードとを切り替える切替手段として機能する。モードダイヤル122は、撮影モードの設定に用いられる。デジタルカメラ10は、このモードダイヤル122を「2D静止画位置」にセットすることにより、2Dの静止画を撮影する2D静止画撮影モードに設定され、「3D静止画位置」にセットすることにより、3Dの静止画を撮影する3D静止画撮影モードに設定される。さらに、「3D動画位置」にセットすることにより、3Dの動画を撮影する3D動画撮影モードに設定される。
ズームボタン126は、撮影光学系11R、11Lのズーム操作に用いられ、望遠側へのズームを指示するズームテレボタンと、広角側へのズームを指示するズームワイドボタンとで構成されている。十字ボタン128は、上下左右4方向に押圧操作可能に設けられており、各方向の押圧操作に対して、カメラの設定状態に応じた機能が割り当てられる。MENU/OKボタン130は、メニュー画面の呼び出し(MENU機能)に用いられるとともに、選択内容の確定、処理の実行指示等(OK機能)に用いられる。DISPボタン132は、モニタ13の表示内容の切り替え指示等の入力に用いられ、BACKボタン134は入力操作のキャンセル等の指示の入力に用いられる。
図3は、デジタルカメラ10の要部を示すブロック図である。
デジタルカメラ10は、右視点用の撮影光学系11Rおよび撮像素子29Rを有する右視点用の撮像手段と、左視点用の撮影光学系および撮像素子29Lを有する左視点用の撮像手段を備える。
2つの撮影光学系11(11R、11L)は、それぞれ、ズームレンズ18(18R、18L)、フォーカスレンズ19(19R、19L)、および、絞り20(20R、20L)を有する。これらのズームレンズ18、フォーカスレンズ19、および、絞り20は、それぞれ、ズームレンズ制御部22(22R、22L)、フォーカスレンズ制御部23(23R、23L)、絞り制御部24(24R、24L)により駆動される。各制御部22、23、24は、ステッピングモータからなり、CPU26に接続された不図示のモータドライバから与えられる駆動パルスにより制御される。
2つの撮影光学系11(11R、11L)の背後には、それぞれ、CCDイメージセンサ(以下単に「CCD」という)29(29R、29L)が配置されている。なお、CCD29の代りに、MOS型のイメージセンサを用いるようにしてもよい。CCD29は、周知のように、複数の光電変換素子が並べられた光電変換面を有し、この光電変換面に撮影光学系11を介して被写体光が入射することにより、被写体像が結像される。CCD29には、CPU26によって制御されるタイミングジェネレータ:TG31(31R、31L)が接続され、このTG31から入力されるタイミング信号(クロックパルス)により、電子シャッタのシャッタ速度(各光電変換素子の電荷蓄積時間である)が決定される。
CCD29から出力された撮像信号は、アナログ信号処理回路33(33R、33L)に入力される。アナログ信号処理回路33は、相関二重サンプリング回路(CDS)、増幅器(AMP)などを有する。CDSは、撮像信号から各画素の蓄積電荷時間に対応したR、G、Bの画像データを生成する。AMPは、生成された画像データを増幅する。
AMPは、CCD29の感度を調節する感度調節手段として機能する。CCD29のISO感度は、AMPのゲインによって決定される。A/D変換器36(36R、36L)は、増幅された画像データをアナログからデジタルに変換する。A/D変換器36(36R、36L)から出力されたデジタルの画像データは、画像入力コントローラ38(38R、38L)を介して、作業用のメモリであるSDRAM39によりそれぞれ右の視点の画像データ、左の視点の画像データとして一時的に記憶される。
デジタル信号処理部41は、SDRAM39から画像データを読み出して、階調変換、ホワイトバランス補正、γ補正処理、YC変換処理などの各種画像処理を施し、この画像データを再度SDRAM39に記憶させる。デジタル信号処理部41による画像処理済みの画像データは、VRAM65にスルー画として取得されたのち、表示制御部42で映像出力用のアナログ信号に変換され、モニタ13に表示される。また、レリーズボタン14の全押しに伴って取得された画像処理済みの画像データは、圧縮伸張処理部43で所定の圧縮形式(例えばJPEG形式)で圧縮された後、メディア制御部15を経由して、記録用画像としてメモリカード16に記録される。
操作部25は、デジタルカメラ10の各種操作を行うためのものであり、図1および図2に示した各種のボタン・スイッチ120〜134から構成されている。
CPU26は、デジタルカメラ10を統括的に制御するために設けられている。CPU26は、フラッシュROM60やROM61に記憶された各種制御用のプログラムや設定情報、姿勢検出センサ73や操作部25からの入力信号などに基づいて、バッテリー70、電源制御部71、時計部72など各部を制御する。
また、デジタルカメラ10には、AE(Auto Exposure)/AWB(Auto White Balance)制御を行うAE/AWB制御部47、複数の立体画像フレームの各々の代表視差の検出を行う視差検出部49が設けられている。また、デジタルカメラ10は、フラッシュ5の発光タイミングや発光量を制御するフラッシュ制御部23を備える。
AE/AWB制御部47は、レリーズボタン14が半押しされたときに、CCD29により得られた画像(撮像画像)を解析して、被写体の輝度情報等に基づき、絞り20の絞り値およびCCD29の電子シャッタのシャッタ速度を算出する。そして、これらの算出結果に基づきAE/AWB制御部47は、絞り制御部24を介して絞り値を制御し、TG31を介してシャッタ速度を制御する。
例えば、ふたつの撮影光学系11R、11Lのうち一方の撮影光学系のCCD29Rまたは29Lにより得られた撮像画像(右視点画像または左視点画像)に基づいて、両方の撮影光学系11R、11Lの絞り値およびシャッタ速度を算出する。両方の撮影光学系11Rおよび11Lにより得られた撮像画像(右視点画像および左視点画像)に基づいて、それぞれの撮影光学系11R、11Lの絞り値およびシャッタ速度を算出してもよい。
AF制御部45は、レリーズボタン14が半押しされたときに、フォーカスレンズ19R、19Lを光軸方向に沿って移動させてコントラスト値を算出するAFサーチ制御、および、コントラスト値に基づく合焦レンズ位置にフォーカスレンズ19R、19Lを移動させる合焦制御を行う。ここで、「コントラスト値」は、CCD29R、29Lにより得られた撮像画像の所定の合焦評価値算出領域内の画像信号に基づいて算出される。「合焦レンズ位置」は、フォーカスレンズ19R、19Lが少なくとも主要被写体に合焦するフォーカスレンズ19R、19Lの位置である。
例えば、ふたつの撮影光学系11R、11Lのフォーカスレンズ19R、19Lのうち少なくとも一方を、モータドライバ27Rまたは27Lの駆動により移動させながら、一方の撮影光学系11Rまたは11Lの撮像画像(右視点画像または左視点画像)にて、コントラスト値を算出する。そのコントラスト値に基づき、ふたつの撮影光学系11R、11Lのフォーカスレンズ19R、19Lの合焦レンズ位置をそれぞれ決定し、モータドライバ27Rおよび27Lをそれぞれ駆動して、各フォーカスレンズ19R、19Lをそれぞれの合焦レンズ位置に移動させる。両方の撮影光学系11R、11LにてそれぞれAFサーチを行って、それぞれの合焦レンズ位置を決定してもよい。
姿勢検出センサ73は、撮影光学系11R、11Lが予め決められた姿勢に対して回転された方向および角度を検出する。
手ブレ制御部62は、撮影光学系11R、11Lに設けられた図示しない補正レンズをモータによって駆動することで、姿勢検出センサ73の検出した光軸のずれを補正して手ブレを防止する。
CPU26は、撮影光学系11R、11Lの被写体像に対応する左右の画像データから顔認識を行うよう顔認識部64を制御する。顔認識部64は、CPU26の制御に応じて顔認識を開始し、左右の画像データからそれぞれ顔認識を行う。顔認識部64は、顔認識の結果、左右の画像データからそれぞれから認識された顔領域の位置情報を含む顔領域情報をSDRAM39に記憶する。顔認識部64は、テンプレートマッチングなど公知の方法により、SDRAM39に記憶された画像から顔領域を認識することができる。なお被写体の顔領域とは、撮像画像中の人物や動物の顔領域が挙げられる。
顔対応判定部66は、右の画像データから認識された顔領域と左の画像データから認識された顔領域の対応関係を判定する。すなわち、顔対応判定部66は、左右の画像データからそれぞれから認識された顔領域の位置情報同士が最も近接する顔領域の組を特定する。そして、顔対応判定部66は、当該組を構成する顔領域同士の画像情報をマッチングし、両者の同一性の確度が所定の閾値を超えた場合、当該組を構成する顔領域同士は対応関係にあると判定する。
視差検出部49は、左右画像データの所定の領域間の代表視差を算出する。
例えば、代表視差の算出は、次のようにする。まず、視差検出部49は、組を構成する顔領域間で対応する特定の点(対応点)間の位置の差(対応点間距離)を算出する。そして、視差検出部49は、当該組の顔領域に含まれる点の視差の平均値を算出し、これを当該組の代表視差とする。視差検出部49は、対応関係にあると判定された顔領域が複数存在する場合、それらの顔領域のうち、主要な顔領域についてのみ代表視差の算出を行い、この主要な顔領域の代表視差をSDRAM39に記憶する。主要な顔領域とは、画面中央に最も近い顔領域、合焦評価値算出領域に最も近い顔領域、サイズの最も大きい顔領域などである。
あるいは、視差検出部49は、左右の画像で対応関係にある所定の領域、例えば、画像中央領域や合焦評価値算出領域内の対応点間の視差の平均値を算出し、これを当該組の代表視差とする。
対応関係にある所定の領域の位置情報とその代表視差は、左右の画像データと対応づけられてSDRAM39に記憶される。例えば、対応関係にある顔領域の位置情報とその代表視差は、画像データの付帯情報(ヘッダ、タグ、メタ情報など)として記憶される。画像データがメモリカード16に記録用画像として圧縮記録される際は、例えば、Exifなどのタグ情報として、この顔領域の位置情報と代表視差が合わせて記録用画像の付帯情報に記録される。
表示許容視差幅取得部204は、表示許容最小視差Dminおよび表示許容最大視差Dmaxを取得し、視差幅調整部202に入力する。取得の態様は任意であり、操作部25から入力されてもよいし、ROM61や立体動画データの付帯情報などから入力してもよいし、モニタ13から制御情報として入力されてもよい。
表示許容最大視差Dmaxは、開散方向の視差(モニタ13上の立体画像が引っ込む方向)の限界を規定する。図4Aに例示するように、人の目は外側には開かないので、瞳孔間距離を超える視差を有する左右像は融合せず、視聴者が1つの像として認識できないので、眼精疲労を引き起こす。子供の視聴者を考慮すると、瞳孔間距離は、約5cmであるので、この距離に相当するモニタ13のピクセル数が表示許容最大視差Dmaxとなる。例えば、モニタ13が16:9インチサイズのハイビジョンテレビであり、解像度が1920×1080とすると、モニタ13のサイズごとの表示許容最小視差Dminは、図4Bのようになる。デジタルカメラや携帯電話の内蔵画面のようにモニタ13のサイズが小さければ、開散方向の視差は問題となりにくいが、テレビのように表示面のサイズが大きいモニタ13の場合は、開散方向の視差が問題になる。
表示許容最小視差Dminは、過大視差(モニタ13上の立体画像が飛び出す方向)の限界を規定する。表示許容最小視差Dminは表示許容最大視差Dmaxと異なり瞳孔間距離から一意に決定することができない。例えば、表示許容最小視差Dminを決定する出力条件としては、(1)モニタ13のサイズ、(2)モニタ13の解像度、(3)観視距離(視聴者からモニタ13までの距離)、(4)視聴者個人の立体融合限界がある。
標準的な例として、(2)ハイビジョンテレビのモニタ13の解像度は1920×1080、(3)観視距離はモニタ13の画面高さの3倍である。これらを前提とすると、(4)一般的な立体融合限界は57ピクセル(視差角1度程度)である。閾値設定部205は、(1)〜(4)の情報をユーザ操作やモニタ13の設定情報などに基づいて外部から入力してもよい。例えば、ユーザは操作部25を介して、自分の観ているモニタ13の解像度、観視距離、立体融合限界を入力できる。ただし、(2)〜(4)について特に外部から入力がない場合、閾値設定部205は、上記標準的な例をROM61などから読み出して視差幅調整部202に入力する。
視差幅調整部202は、左右の画像データの代表視差の幅を、表示許容最小視差Dminから表示許容最大視差Dmaxまでの範囲からなる表示許容視差幅に収まる調整を行う。
閾値設定部205は、シフト許容閾値αおよびシフト禁止閾値βを視差調整部63に設定する。設定の態様は任意であり、ユーザ操作に基づくもの、ROM61の記録情報に基づくものなどがある。視差調整部63は、シフト許容閾値α、シフト禁止閾値β、後述の立体動画視差−出力視差変換表などに従って、左右の画像データの代表視差の値を調整する。
図5は視差調整処理のフローチャートを示す。この処理はCPU26によって制御される。この処理をCPU26に実行させるプログラムはROM61などのコンピュータ読み取り可能な記録媒体に記録されている。この処理は、画像データの付帯情報に上記の領域の位置情報と代表視差が記憶された後に実行される。
S1では、視差幅調整部202は、後述する視差幅調整処理を行う。視差幅調整処理では、必要に応じて、代表視差の視差幅の調整と代表視差のシフトが行われる。
S2では、視差調整部63は、視差幅調整処理後の立体画像フレームごとの代表視差をSDRAM39に確保する。
そして、視差調整部63は、視差調整の基準となる立体画像フレームである基準フレームを決定する。基準フレームは、立体画像の時間的な取得順序に従って決定される。例えば、視差調整部63は、S2〜S12のn回目のループの実行に際して、取得順序がn番目の立体画像フレームを基準フレームと決定する。視差調整部63は、基準フレームに対応する代表視差である基準視差をSDRAM39に確保する。
S3では、視差調整部63は、視差調整の対象となる立体画像フレームである対象フレームを決定する。例えば、視差調整部63は、S2〜S12のn回目のループの実行に際して、取得順序がn+1番目の立体画像フレームを対象フレームと決定する。視差調整部63は、対象フレームに対応する代表視差をSDRAM39に確保する。
S4では、視差調整部63は、|基準フレームの代表視差−対象フレームの代表視差|<αであるか否かを判断する。Yesの場合はS5、Noの場合はS6に進む。αはシフト許容閾値として閾値設定部205から入力される。例えばα=0.75である。Noと判断された場合、立体画像フレーム間の代表視差の変動はある程度大きいことを意味する。この場合、S6に進み、対象フレームを基準フレームと異なる出力視差にシフトするための処理が行われる。
S5では、視差調整部63は、|基準フレームの代表視差−対象フレームの代表視差|>βであるか否かを判断する。Yesの場合はS10、Noの場合はS8に進む。βはシフト禁止閾値として閾値設定部205から入力される。例えばβ=0.25である。Noと判断された場合、立体画像フレーム間の代表視差の変動が微小であることを意味する。この場合、S8に進み、対象フレームを基準フレームと同一の出力視差にシフトするための処理が行われる。
S6では、視差調整部63は、ROM61などに記憶されている立体動画視差−出力予定視差変換表をSDRAM39に読み出す。図6は立体動画視差−出力予定視差変換表の一例を示す。この表は、各立体画像フレームの任意の値の代表視差に対応する整数の出力予定視差を規定する。例えば、この表によると、M〜M+tの代表視差はNの出力予定視差,M〜M+2tの代表視差はN+1の出力予定視差に対応する。なお、画像の最小表示単位は1画素であるため、画素単位で出力予定視差を示すと整数となる。
視差調整部63は、ROM61などに記憶された立体動画視差−出力予定視差変換表に従って、基準フレームの代表視差に対応する出力予定視差を特定し、特定された出力予定視差を基準フレームの出力予定視差に決定する。同様に、視差調整部63は、立体動画視差−出力予定視差変換表に従って、対象フレームの代表視差に対応する出力予定視差を特定し、特定された出力予定視差を対象フレームの出力予定視差に決定する。
視差調整部63は、基準フレームの出力予定視差と対象フレームの出力予定視差とを比較し、両者が同一であるか否かを判断する。Yesの場合はS7、Noの場合はS10に進む。
S7では、視差調整部63は、対象フレームの出力視差を、基準フレームの出力予定視差+1と決定し、対象フレームの代表視差をこの出力視差(基準フレームの出力予定視差+1)にシフトする視差調整をする。すなわち、基準フレームと対象フレームの出力予定視差が同じでも、基準フレーム・対象フレーム間の代表視差の変動が大きい場合は、両者の出力視差を離し、元の代表視差の推移を出力視差に反映させる。この後処理はS11に進む。
S8はS6と同様の判断を行い、Yesの場合はS10、Noの場合はS9に進む。
S9では、視差調整部63は、対象フレームの出力視差を、基準フレームの出力予定視差と決定し、対象フレームの代表視差をこの出力視差(基準フレームの出力予定視差)にシフトする視差調整をする。すなわち、基準フレームと対象フレームの出力予定視差が異なっていても、基準フレーム・対象フレーム間の代表視差の変動が小さい場合は、対象フレームの出力視差を基準フレームの出力予定視差と同じにし、元の代表視差の推移を出力視差に反映させる。この後処理はS11に進む。
S10では、視差調整部63は、対象フレームの出力視差を、対象フレームの出力予定視差と決定し、対象フレームの視差をこの出力視差(対象フレームの出力予定視差)に調整する。S4からS10に至るまでのパターンは、(a)S4でYesかつS5でYes、(b)S4でYesかつS5でNoかつS8でYes、(c)S4でNoかつS6でNoの3つが存在する。(b)または(c)の場合は、基準フレーム・対象フレーム間の元の代表視差の変動の大小がそのまま出力視差の変動の大小に反映される。(a)は、元の代表視差の変動が大きくもなく小さくもないような中間的な変動に対応する対象フレームの出力視差の調整を、出力予定視差に委ねる方法である。なお、α=βの場合、(a)のパターンは論理的に生じなくなり、本処理はより簡略になる。例えば、α=β=0.5とすることが考えられる。
S11では、S2〜S10が、立体動画を構成する全立体画像フレームについて実行され、全立体画像フレームの視差調整が実行されたか否かを判断する。Yesの場合はS13に進み、Noの場合はS12に進む。
S12では、視差調整部63は、基準フレームをn+1番目の立体画像フレームに決定する。
S13では、表示制御部42は、調整された出力視差で各立体画像フレームを順次モニタ13に表示することで立体動画を再生する。なお、視差調整部63は、S7、S9またはS10において、最初の基準フレームの出力視差を基準フレームの出力予定視差にシフトする視差調整をする。2番目以降の基準フレームは対象フレームとして視差調整されるが、最初の基準フレームはこの視差調整がないからである。
図7は視差幅調整処理のフローチャートを示す。
S101では、視差幅調整部202は、SDRAM39またはメモリカード16に記憶された立体動画の各立体画像フレームの左右の画像データと、当該立体動画の付帯情報から、立体画像フレームごとの代表視差の読み出しを試みる。
S102では、表示許容視差幅取得部204は、表示許容視差幅をSDRAM39に取得する。表示許容視差幅は、表示許容最小視差Dminから表示許容最大視差Dmaxまでの範囲をいう。表示許容視差幅の取得元は、操作部25、内蔵のROM61、外部のモニタ13や電子機器などを含む。
S103では、視差幅調整部202は、各立体画像フレームの代表視差から、代表視差の最大値pmaxと代表視差の最小値pminを特定し、立体動画視差幅=pmax−pminを計算する。そして、視差幅調整部202は、立体動画視差幅<表示許容視差幅であるか否かを判断する。Yesの場合はS105に進み、Noの場合はS104に進む。
S104では、視差幅調整部202は、立体動画視差幅が表示許容視差幅に収まるよう各立体画像フレームの代表視差を調整する。例えば図8Aのように、立体動画視差幅が表示許容視差幅を超える場合、図8Bのように、立体動画視差幅が表示許容視差幅の範囲に収まるよう、各立体画像フレームの代表視差を一律な縮減率(X−Y)/Xで縮減する。
S105では、視差幅調整部202は、代表視差の最大値pmax>表示許容最大視差Dmaxであるか否かを判断する。Yesの場合はS107に進み、Noの場合はS106に進む。
S106では、視差幅調整部202は、代表視差の最小値pmin<表示許容最小視差Dminであるか否かを判断する。Yesの場合はS107に進み、Noの場合は視差調整処理のS2に進む。
S106では、視差幅調整部202は、立体動画視差幅が表示許容視差幅に収まるよう各立体画像フレームの代表視差をシフトする。
S103からS107に至るパターンは、(1)S103でYesかつS105でYes、(2)S103でNoかつS105でYes、(3)S103でYesかつS105でNoかつS106でYes、(4)S103でNoかつS105でNoかつS106でYes、の4パターンがある。
図9はパターン(1)すなわち視差幅調整のない場合の負の方向へのシフトを示す。
例えば図9Aのように、代表視差の最大値pmaxが表示許容最大視差Dmaxを超えるが、立体動画視差幅は表示許容視差幅未満の場合、図9Bのように、各立体画像フレームの代表視差を一律な幅W1だけ負の方向にシフトし、全ての立体画像フレームの代表視差を表示許容視差幅の範囲に収める調整を行う。ここでW1=pmin−Dminである。
図10はパターン(2)すなわち視差幅調整のない場合の負の方向へのシフトを示す。
図10Aないし前述の図8Bに示すように、視差幅調整後の代表視差の最大値pmaxが表示許容最大視差Dmaxを超える場合も、図10Bのように、各立体画像フレームの代表視差を一律な幅W2だけ負の方向にシフトする。ここでW2=pmin−Dminである。
図11はパターン(3)すなわち視差幅調整のない場合の正の方向へのシフトを示す。
あるいは、図11Aのように、代表視差の最小値pminが表示許容最小視差Dmin未満の場合、図11Bのように、各立体画像フレームの代表視差を一律な幅W3だけ正の方向にシフトする。ここでW2=Dmin−pminである。
パターン(4)の図示は省略するが、視差幅調整後の代表視差の最小値pminが表示許容最小視差Dmin未満の場合も、同様に各立体画像フレームの代表視差を一律な幅だけ正の方向にシフトする。
なお、上記の視差調整処理はシーンの変化が検出されるまで繰り返されるものとし、シーンの変化が検出されると、基準フレームおよび対象フレームをリセットし、そこから新たにS1を開始する。こうすれば、異なるシーンにまたがった基準フレームと対象フレームとの間でS5,6,6,8の判断が行われ、不適切な視差調整を防げる。シーンの変化の検出は公知の方法で行われる。シーンの変化は、合焦被写体の変化やパンニングなどで生じる。
例えば、視差調整部63は、異なる立体画像フレームa・b間での代表視差が閾値以上である場合、その立体画像フレームa・bの間でシーン変化を検出する。視差調整部63は、シーン変化直前の立体画像フレームaが最後の対象フレームに設定された場合は、S11でNoと判定しS12に進む。ただし、S12において、視差調整部63は、シーン変化直前の立体画像フレームaを基準フレームと決定せず、シーン変化直後の立体画像フレームbを基準フレームと決定する。また視差調整部63は、対象フレームは立体画像フレームbより後の立体画像フレームcとする。以下同様、視差調整部63は、前のシーン変化の直後の立体画像フレームから次のシーン変化の直前の立体画像フレームまでS2〜S12のループを繰り返す。
また、この処理を実行するのに必要なブロックは、デジタルカメラ以外の電子機器に備えられていてもよい。例えば、図12に示すような、CPU26、VRAM65、SDRAM39、フラッシュROM60、ROM61、圧縮伸張処理部43、メディア制御部15、視差検出部49、視差調整部63、画像入力部201(例えば画像入力コントローラ38、メディア制御部15など)、表示許容視差幅取得部204、閾値設定部205、画像出力部206(例えばモニタ13、メディア制御部15など)などの平面または立体画像を表示するブロックを備えた画像出力装置がこの処理を実行することもできる。
画像入力部201の入力する立体動画は、撮像手段から直接出力されたものに限られない。例えば、メディア制御部15がメモリカード16などのメディアから読み出したものや、ネットワーク経由で受信したものでもよい。
画像出力部206が視差調整の完了した画像を出力する先は、表示制御部42およびモニタ13に限られず、画像は視差調整後に即時に表示されなくてもよい。例えば、メディア制御部15は、立体画像フレームごとの調整後の代表視差すなわち出力視差を各立体画像フレームと対応づけた立体動画データとしてメモリカード16などのメディアに記録してもよい。あるいは、当該立体動画データをネットワーク経由で送信してもよい。
また、視差調整処理を動作させるか否かのモード設定やタイミングも任意である。例えば、撮影モードの開始時は視差調整処理を行わないが、レリーズボタン14が全押しされたときから視差調整処理を開始する。あるいは、メモリカード16の立体動画データをテレビなどの外部のモニタ13に表示する際に、視差調整処理を開始する。
以上の処理により、各立体画像フレームの代表視差が、撮影時の視差の推移(図13A参照)に近い状態を保ったまま適切な出力視差に調整される(図13B参照)。よって、立体動画の代表視差の推移を撮影した状態に近づけて再生することができる。
49:視差検出部、63:視差調整部、202:視差幅調整部、204:表示許容視差幅取得部、205:閾値設定部

Claims (15)

  1. 立体動画を構成する複数の立体画像フレームごとの代表視差を取得する代表視差取得部と、
    前記代表視差取得部の取得した立体画像フレームごとの代表視差に基づいて、前記立体動画の出力条件に応じた立体画像フレームごとの出力予定視差を決定する出力予定視差決定部と、
    前記出力予定視差決定部の決定した立体画像フレームごとの出力予定視差に基づいて、前記立体画像フレームごとの出力視差を調整する出力視差調整部と、
    前記出力視差調整部が出力視差を調整した立体画像フレームを順次出力する出力部と、
    を備え、
    前記出力予定視差決定部は、前記立体画像フレームの中から順次決定された基準フレームの代表視差に基づいて前記基準フレームの出力予定視差を決定し、かつ、前記基準フレームの直後の立体画像フレームである対象フレームの代表視差に基づいて前記対象フレームの出力予定視差を決定し、
    前記出力視差調整部は、前記基準フレームの代表視差と前記対象フレームの代表視差との差に基づいて前記基準フレームの出力視差と前記対象フレームの出力視差との差を調整する画像出力装置。
  2. 前記立体画像フレームごとの代表視差は、前記立体画像フレームの所定の領域内の平均視差である請求項1に記載の画像出力装置。
  3. 前記平均視差は、顔領域の平均視差、合焦評価値算出領域の平均視差または画像中央領域の平均視差である請求項2に記載の画像出力装置。
  4. 前記立体動画の出力条件として、許容される出力視差の幅である出力視差幅の上限および下限を取得する出力許容視差幅取得部を備える請求項1〜3のいずれかに記載の画像出力装置。
  5. 前記代表視差取得部の取得した各立体画像フレームの視差の最大値および最小値で規定される視差幅が、前記出力許容視差幅取得部の取得した出力許容視差幅に不適合な場合、前記視差幅を前記出力許容視差幅に調整する視差幅調整部を備える請求項4に記載の画像出力装置。
  6. 前記視差幅調整部は、前記代表視差取得部の取得した代表視差の最大値が、前記出力許容視差幅取得部の取得した出力許容視差幅の上限を超える場合、前記代表視差の最大値が前記出力許容視差幅の上限以下となるよう各立体画像フレームの代表視差を調整する請求項5に記載の画像出力装置。
  7. 前記視差幅調整部は、前記代表視差取得部の取得した視差の最小値が、前記出力許容視差幅取得部の取得した出力許容視差幅の下限未満となる場合、前記視差の最小値が前記出力許容視差幅の下限以上となるよう各立体画像フレームの代表視差を調整する請求項5または6に記載の画像出力装置。
  8. 前記基準フレームと前記対象フレームは同一のシーンの中から決定される請求項1〜7のいずれかに記載の画像出力装置。
  9. 前記代表視差に対応する段階的な出力予定視差を規定するテーブルを取得するテーブル取得部を備え、
    前記出力予定視差決定部は、前記代表視差取得部の取得した立体画像フレームごとの代表視差と前記テーブル取得部の取得したテーブルに従い、前記立体画像フレームごとの段階的な出力予定視差を決定する請求項1〜8のいずれかに記載の画像出力装置。
  10. 前記出力視差調整部は、前記基準フレームの代表視差と前記対象フレームの代表視差との差を所定の第1の閾値と比較し、前記差が前記所定の第1の閾値を超える場合、前記出力予定視差決定部の決定した基準フレームの出力予定視差よりも1段階大きい出力予定視差に向けて前記対象フレームの出力視差を調整する請求項9に記載の画像出力装置。
  11. 前記出力視差調整部は、前記差を所定の第2の閾値と比較し、前記差が前記所定の第2の閾値未満の場合、前記基準フレームの出力予定視差に向けて前記対象フレームの出力視差を調整する請求項10に記載の画像出力装置。
  12. 前記出力視差調整部は、前記差が前記所定の第1の閾値を超えずかつ前記所定の第2の閾値を下回らない場合、前記対象フレームの出力予定視差に向けて前記対象フレームの出力視差を調整する請求項11に記載の画像出力装置。
  13. 前記所定の第1の閾値と前記所定の第2の閾値は等しい請求項12に記載の画像出力装置。
  14. コンピュータが、
    立体動画を構成する複数の立体画像フレームごとの代表視差を取得するステップと、
    前記取得した立体画像フレームごとの代表視差に基づいて、前記立体動画の出力条件に応じた立体画像フレームごとの出力予定視差を決定するステップと、
    前記決定した立体画像フレームごとの出力予定視差に基づいて、前記立体画像フレームごとの出力視差を調整するステップと、
    前記出力視差を調整した立体画像フレームを順次出力するステップと、
    前記立体画像フレームの中から順次決定された基準フレームの代表視差に基づいて前記基準フレームの出力予定視差を決定し、かつ、前記基準フレームの直後の立体画像フレームである対象フレームの代表視差に基づいて前記対象フレームの出力予定視差を決定するステップと、
    前記基準フレームの代表視差と前記対象フレームの代表視差との差に基づいて前記基準フレームの出力視差と前記対象フレームの出力視差との差を調整するステップと、
    を実行する画像出力方法。
  15. 請求項14に記載の画像出力方法をコンピュータに実行させるための画像出力プログラム。
JP2012521464A 2010-06-25 2011-06-20 画像出力装置、方法およびプログラム Expired - Fee Related JP5449551B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012521464A JP5449551B2 (ja) 2010-06-25 2011-06-20 画像出力装置、方法およびプログラム

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2010145105 2010-06-25
JP2010145105 2010-06-25
JP2012521464A JP5449551B2 (ja) 2010-06-25 2011-06-20 画像出力装置、方法およびプログラム
PCT/JP2011/064068 WO2011162209A1 (ja) 2010-06-25 2011-06-20 画像出力装置、方法およびプログラム

Publications (2)

Publication Number Publication Date
JPWO2011162209A1 true JPWO2011162209A1 (ja) 2013-08-22
JP5449551B2 JP5449551B2 (ja) 2014-03-19

Family

ID=45371392

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012521464A Expired - Fee Related JP5449551B2 (ja) 2010-06-25 2011-06-20 画像出力装置、方法およびプログラム

Country Status (4)

Country Link
US (1) US8773506B2 (ja)
JP (1) JP5449551B2 (ja)
CN (1) CN102959967B (ja)
WO (1) WO2011162209A1 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2013128847A1 (ja) * 2012-03-02 2015-07-30 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 視差量調整装置、3次元画像生成装置、および視差量調整方法
WO2013145861A1 (ja) * 2012-03-30 2013-10-03 ソニー株式会社 画像処理装置、画像処理方法およびプログラム
JP6004741B2 (ja) * 2012-05-22 2016-10-12 キヤノン株式会社 画像処理装置およびその制御方法、撮像装置
WO2014204362A1 (en) * 2013-06-19 2014-12-24 Telefonaktiebolaget L M Ericsson (Publ) Depth range adjustment of a 3d video to match the depth range permissible by a 3d display device
US9473764B2 (en) 2014-06-27 2016-10-18 Microsoft Technology Licensing, Llc Stereoscopic image display
US9716876B2 (en) * 2015-04-01 2017-07-25 Sony Corporation Power efficient multiple camera system
WO2017149851A1 (ja) 2016-02-29 2017-09-08 富士フイルム株式会社 情報処理装置、情報処理方法、及びプログラム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7162083B2 (en) * 2001-07-06 2007-01-09 Vision Iii Imaging Inc. Image segmentation by means of temporal parallax difference induction
ATE433590T1 (de) * 2002-11-27 2009-06-15 Vision Iii Imaging Inc Abtastung der parallaxe durch manipulation der position der gegenstände in einer szene
JP2004221699A (ja) * 2003-01-09 2004-08-05 Sanyo Electric Co Ltd 立体画像処理方法および装置
JP2004221700A (ja) * 2003-01-09 2004-08-05 Sanyo Electric Co Ltd 立体画像処理方法および装置
US7586534B2 (en) * 2005-03-22 2009-09-08 Fujifilm Corporation Multi-eye image pickup device, adjusting method and device therefor, and image-area adjusting system and method
JP2009135686A (ja) * 2007-11-29 2009-06-18 Mitsubishi Electric Corp 立体映像記録方法、立体映像記録媒体、立体映像再生方法、立体映像記録装置、立体映像再生装置
JP4625517B2 (ja) * 2008-10-27 2011-02-02 富士フイルム株式会社 3次元表示装置および方法並びにプログラム
JP2011176541A (ja) * 2010-02-24 2011-09-08 Sony Corp 立体映像処理装置および方法、並びにプログラム

Also Published As

Publication number Publication date
CN102959967A (zh) 2013-03-06
US8773506B2 (en) 2014-07-08
US20130093848A1 (en) 2013-04-18
WO2011162209A1 (ja) 2011-12-29
CN102959967B (zh) 2015-07-01
JP5449551B2 (ja) 2014-03-19

Similar Documents

Publication Publication Date Title
US9560341B2 (en) Stereoscopic image reproduction device and method, stereoscopic image capturing device, and stereoscopic display device
US9077976B2 (en) Single-eye stereoscopic image capturing device
JP5449550B2 (ja) 立体画像表示装置、立体画像表示方法、立体画像表示プログラムおよび記録媒体
JP5449551B2 (ja) 画像出力装置、方法およびプログラム
WO2012023330A1 (ja) 画像処理装置、画像処理方法、画像処理プログラムおよび記録媒体
JP5336662B2 (ja) 画像処理装置、方法およびプログラム
US9310672B2 (en) Stereoscopic image capturing device and method of controlling thereof
JP5580486B2 (ja) 画像出力装置、方法およびプログラム
JP5571257B2 (ja) 画像処理装置、方法およびプログラム
JP5366693B2 (ja) 撮像装置、撮像装置の制御方法、及びコンピュータプログラム
WO2013031392A1 (ja) 立体撮像装置
JP2012044319A (ja) 画像処理装置、画像処理方法及び立体撮像装置

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131212

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131224

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5449551

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees