JP2013150071A - 符号化装置、符号化方法、プログラム及び記憶媒体 - Google Patents

符号化装置、符号化方法、プログラム及び記憶媒体 Download PDF

Info

Publication number
JP2013150071A
JP2013150071A JP2012007383A JP2012007383A JP2013150071A JP 2013150071 A JP2013150071 A JP 2013150071A JP 2012007383 A JP2012007383 A JP 2012007383A JP 2012007383 A JP2012007383 A JP 2012007383A JP 2013150071 A JP2013150071 A JP 2013150071A
Authority
JP
Japan
Prior art keywords
distance
imaging unit
imaging
image
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012007383A
Other languages
English (en)
Inventor
Masateru Kitago
正輝 北郷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2012007383A priority Critical patent/JP2013150071A/ja
Publication of JP2013150071A publication Critical patent/JP2013150071A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

【課題】多視点画像データ及びこの多視点画像データについての距離情報を、をより小さいデータ量の符号化データへと符号化する。
【解決手段】それぞれの入力画像について、入力画像を撮像した撮像部から各画素の被写体までの推定距離を示す距離画像を取得する。仮想空間内に、複数の撮像部の視点を現実と同様の配置で設定し、各撮像部に対応する距離画像の各画素を画素が示す距離だけ撮像部の視点から離間した位置に配置した場合に、各撮像部の視点から対応する距離画像までの距離と、撮像部と部分的に視野を共有する他撮像部に対応する距離画像から撮像部の視点までの距離と、の距離差が小さいほど信頼度が高くなるように、各撮像部についての信頼度を設定する。より大きい信頼度が設定された撮像部を選択する。選択した撮像部に対応する入力画像と距離画像とを符号化する。
【選択図】図5

Description

本発明は、複数の視点から撮影された画像及び距離情報の符号化技術に関し、特に多眼カメラによって撮影された画像の符号化技術に関する。
近年、映画業界を中心に3Dコンテンツの利用が活発である。より高い臨場感を求めて多視点撮影技術、多視点表示技術の開発が進んでいる。撮像装置においても、2視点撮影装置としてステレオカメラ、多視点撮影装置としてPlenopticカメラ、多眼カメラ、カメラアレイシステムなどが開発されている。
しかしながら、視点数の増加に伴い、処理しなければならない画像データ量も増大する。そのため、多視点画像データを効率的に取り扱えるフォーマット及び符号化方式が求められている。多視点画像の標準フォーマットとして、静止画像に関しては、2009年にCIPAによりMulti Picture Formatが制定された。また動画像に関しては、2009年にISO/IECとITU−Tとの共同により、H.264/MPEG−4が多視点映像に拡張されたMVC(Multiview Video Coding)が標準化された。さらに現在、MPEG−3DVC(3D Video Coding)の標準化作業が進行している。MPEG−3DVCは多視点の画像と共に奥行き情報を符号化する方式である。
より高い符号化効率を実現するため、奥行き情報を利用して視点方向の冗長性を符号化する技術も提案されている。例えば、動き補償予測、視差補償予測、奥行き予測、画面内予測を適応的に切り替えることにより、多視点映像の符号化効率の向上を図る技術が提案されている(特許文献1)。
特開2008−271217号公報
しかしながら、上述の方法は多視点画像の各視点についての画像データ(及び奥行き情報)を効率的に符号化するものであり、視点数が増えるに従って画像データ量が増加するという問題を完全に解決することはできない。
本発明は、多視点画像データ及びこの多視点画像データについての距離情報を、より小さいデータ量の符号化データへと符号化することを目的とする。
本発明の目的を達成するために、例えば、本発明の符号化装置は以下の構成を備える。すなわち、
複数の撮像部によって撮像されたそれぞれの撮像画像を入力画像として取得する第1の取得手段と、
それぞれの前記入力画像について、該入力画像を撮像した撮像部から各画素の被写体までの推定距離を示す距離画像を取得する第2の取得手段と、
仮想空間内に、前記複数の撮像部の視点を現実と同様の配置で設定し、各撮像部に対応する距離画像の各画素を該画素が示す距離だけ該撮像部の視点から離間した位置に配置した場合に、各撮像部の視点から対応する距離画像までの距離と、該撮像部と部分的に視野を共有する他撮像部に対応する距離画像から該撮像部の視点までの距離と、の距離差が小さいほど信頼度が高くなるように、各撮像部についての信頼度を設定する設定手段と、
より大きい前記信頼度が設定された撮像部を選択する選択手段と、
前記選択手段が選択した撮像部に対応する前記入力画像と前記距離画像とを符号化する符号化手段と、
を備えることを特徴とする。
多視点画像データ及びこの多視点画像データについての距離情報を、より小さいデータ量の符号化データへと符号化できる。
複数の撮像部を備えた符号化装置の一例を示した図である。 実施例1に係る符号化装置の内部構成を示すブロック図である。 実施例1に係る撮像部101〜109の内部構成を示す図である。 実施例1に係る画像処理部212の機能構成例を示すブロック図である。 実施例1の信頼度算出部403が行う処理のフローチャートである。 信頼度算出部403が行う処理を説明する為の図である。 信頼度算出部403が行う処理を説明する為の図である。 実施例1に係る処理のフローチャートである。
以下、添付図面を参照し、本発明の好適な実施形態について説明する。なお、以下で説明する実施形態は、本発明を具体的に実施した場合の一例を示すもので、特許請求の範囲に記載した構成の具体的な実施例の一つである。
実施例1では、多眼カメラで撮影された多視点画像の符号化を想定している。多視点画像のデータ量は多いため、符号化により多視点画像のデータ量を効率的に削減することが求められている。実施例1においては、ユースケースによって必要とする視点数が異なることに注目している。例えば画像のリフォーカス処理を行うときは、それぞれの視点についての画像を用いることが望ましい。一方で距離情報を用いた背景ぼかし処理は、1視点からの画像と距離情報とを用いて行うことができる。このようにユースケースが決まっている場合、ユースケースに適した数の視点についての画像及び距離情報を符号化すればよい。この場合、保存する画像及び距離情報の数を減らすことができるため、多眼カメラで撮影された多視点画像をよりデータ量の少ない符号化データへと符号化することができる。
具体的には上述の処理は以下のように行うことができる。まず、多眼カメラのそれぞれの撮像部で撮像された画像が取得される。そして、それぞれの画像についての距離情報が取得される。この距離情報は、それぞれの画像の各画素についての撮像部から被写体までの距離でありうる。この距離情報は撮像部から取得されてもよいし、後述するようにそれぞれの画像間の比較により算出されてもよい。そして、ユーザの指示に従う数の画像が選択され、選択された画像とこの画像についての距離情報とが符号化される。
多視点画像から1つ以上の視点を選択するとき、どのような基準で選択するかが問題となる。本実施例では、それぞれの画像についての距離情報の信頼度に従って画像が選択される。距離情報を正確に決定することは容易ではないため、視点ごとに距離情報の精度が異なることがありうる。したがって、どの視点についての距離情報を用いるかに依存して、距離情報を用いた画像処理(例えば背景ぼかし処理)の結果が異なることがありうる。より精度が高い距離情報を用いることにより、より良好な画像処理結果が得られるものと考えられる。そこで本実施例においては、それぞれの画像についての距離情報の信頼度(精度)が求められ、信頼度がより高い距離情報と対応する画像とが符号化される。
図1は、実施例1に係る符号化装置が符号化する画像を撮影する撮像装置を示す。撮像装置は複数の撮像部を備える。撮像装置は例えば、多眼カメラでありうる。実施例1において撮像装置はさらに、撮影した画像を符号化する。すなわちこの撮像装置は、実施例1に係る符号化装置として動作する。しかしながら、画像の符号化は撮像装置とは別の装置によって行われてもよい。すなわち、本実施例に係る符号化処理はCPU201のようなプロセッサとRAM202のようなメモリを備えるコンピュータによって実現されうる。例えば、ROM203のようなコンピュータ読み取り可能な記憶媒体に格納されたコンピュータプログラムをRAM202に読み出し、このコンピュータプログラムに従ってCPU201を動作させることにより、本実施例に係る処理は実現されうる。しかしながら本実施例に係る符号化処理は、図2及び図4に示す各処理部を実現する専用のハードウェアを備える符号化装置によって行われてもよい。
図1において、100は符号化装置の筺体である。筐体100は、撮像を行う9個の撮像部101〜109及び撮影ボタン110を備えている。9個の撮像部101〜109は、正方格子上に均等に配置されている。本実施例において撮像部101〜109は、24ビットカラー画像(撮像画像)を撮像するものとする。
ユーザが撮影ボタン110を押下すると、撮像部101〜109は被写体からの光をセンサ(撮像素子)で受光し、受光した信号をA/D変換する。こうして、撮像部101〜109のそれぞれによって、カラー画像(デジタルデータ)が同時に取得される。このような多眼方式の撮像装置(符号化装置)により、同一の被写体を複数の視点から撮像して得られるカラー画像群を得ることができる。
本実施例に係る符号化装置は9個の撮像部を備えるが、撮像部の数は9個には限定されない。すなわち、複数の撮像部を備える撮像装置によって得られた画像について、本実施例の処理を適用することができる。3つ以上の撮像部を備えることにより、後述するように信頼度に従って画像を選択することができる。また、図1において撮像部101〜109は、正方格子上に均等に配置されている。しかしながら、撮像部の配置は任意である。例えば、それぞれの撮像部を放射状又は直線状に配置してもよいし、まったくランダムに配置してもよい。
図2は、本実施例に係る符号化装置の内部構成の一例を示すブロック図である。図2には本実施例に係る符号化装置が有する主要な構成を示すが、本実施例に係る符号化装置は他の構成を有していてもよいし、一部の構成を有さなくてもよい。
201は中央処理装置(CPU)であり、以下に述べる各部を統括的に制御する。202はRAMであり、CPU201の主メモリ又はワークエリア等として機能する。203はROMであり、CPU201で実行される制御プログラム等を格納している。204は各種データの転送経路となるバスである。例えば、撮像部101〜109によって取得されたデジタルデータはこのバス204を介して所定の処理部に送られる。
205はユーザの指示を受け取る操作部である。206は撮像画像及び文字などを表示する表示部である。表示部206はタッチスクリーン機能を有していてもよい。この場合表示部206は、操作部205の代わりに、タッチスクリーンにより入力されたユーザ指示を受け取ることができる。207は表示制御部であり、表示部206に表示される撮影画像や文字の表示制御を行う。
208は撮像制御部であり、CPU201の指示に基づいて撮像部101〜109を制御する。例えば撮像制御部208は、フォーカスを合わせる、シャッターを開く・閉じる、絞りを調節するなどの制御を行うことができる。209はデジタル信号処理部であり、バス204を介して受け取ったデジタルデータに対し、ホワイトバランス処理、ガンマ処理、ノイズ低減処理などの各種画像処理を行う。210はエンコーダ部であり、デジタルデータを所定のファイルフォーマットに変換する処理を行う。エンコーダ部210の詳細については後述する。
211は外部メモリ制御部である。外部メモリ制御部211は、PCやその他のメディア(例えば、ハードディスク、メモリーカード、CFカード、SDカード、USBメモリ)を接続するためのインターフェースである。212は画像処理部である。画像処理部212は、撮像部101〜109で取得されたカラー画像群、又はデジタル信号処理部209から出力されるカラー画像群について、距離情報及び距離情報の信頼度を算出する。そして画像処理部212は、算出された信頼度に基づいて符号化対象とするカラー画像を選択する。画像処理部212の詳細については後述する。
図3は、撮像部101〜109の内部構成を示す。撮像部101〜109は、レンズ301〜303、絞り304、シャッター305、光学ローパスフィルタ306、iRカットフィルタ307、カラーフィルタ308、センサ309及びA/D変換部310を含む。図3には撮像部101〜109が有する主要な構成を示すが、撮像部101〜109は他の構成を有していてもよいし、一部の構成を有さなくてもよい。
レンズ301〜303はそれぞれ、ズームレンズ301、フォーカスレンズ302、及びぶれ補正レンズ303である。センサ309は、例えばCMOSやCCDなどのセンサ(撮像素子)である。センサ309で被写体からの光量を検知すると、検知された光量がA/D変換部310によってデジタル値に変換され、デジタルデータとなってバス204に出力される。
図4を用いて、本実施例に係る画像処理部212について説明する。図4に示すように画像処理部212は、画像取得部401、距離情報推定部402、信頼度算出部403、及び視点選択部404を有している。以下で、これらの各部について説明する。画像取得部401は、撮像部101〜109のそれぞれで取得されたカラー画像を取得する(第1の取得)。あるいは、デジタル信号処理部209は撮像部101〜109のそれぞれで取得されたカラー画像を画像処理してもよく、画像取得部401はデジタル信号処理部209から画像処理後の画像を取得してもよい。このように画像取得部401は、それぞれが撮像部101〜109に対応する、9視点からの画像群を取得する。以下では画像取得部401が取得した9視点からの画像群を、それぞれ撮像部101〜109の入力画像と呼ぶ。画像取得部401は、9視点からの入力画像群を距離情報推定部402に送る。
距離情報推定部402は、9視点からの入力画像群それぞれについて、カメラから被写体までの距離を表す距離情報を推定する(第2の取得)。この距離情報は、入力画像を撮像した撮像部から各画素の被写体までの推定距離を、画素毎に示す。すなわち、この距離情報は距離画像として記録されうる。そして距離情報推定部402は、9視点からの入力画像群と対応する距離情報とを信頼度算出部403に送出する。
本実施例に係る距離情報推定方法について簡単に説明する。まず距離情報推定部402は、入力画像のそれぞれに平滑化フィルタを適用する。本実施例において距離情報推定部402は、エッジ保持型の平滑化フィルタを用いる。以下で、撮像部101〜109の入力画像にフィルタ処理を行うことにより得られる画像を、それぞれ撮像部101〜109のフィルタ画像と呼ぶ。
次に距離情報推定部402は、フィルタ画像を複数の小領域に分割する。具体的には距離情報推定部402は、以下のように処理を行うことができる。まず距離情報推定部402は、画素を1つずつ別々の小領域に割り当てる。その後距離情報推定部402は、複数の小領域を統合する。具体的には距離情報推定部402は、小領域を1つ選択し、選択された小領域についての平均色を算出する。例えば、選択された小領域を構成する画素の画素値の平均を平均色として算出することができる。そして距離情報推定部402は、選択された小領域についての平均色と、近隣の小領域の平均色とを比較し、色差が所定値以下である場合にはこれらの小領域を統合する。ただしこの時、統合後の小領域の大きさ(画素数)が一定範囲内に収まるようにする。
本実施例では、色差が6以下である場合に小領域を統合するものとする。また、色差はRGBそれぞれについての画素値の差の二乗和の平方根とする。もっとも、色差は他の方法を用いて求めてもよく、例えばL*a*b*表色系における色値を算出し、同様の方法で色差を算出してもよい。また本実施例では、小領域の大きさが100〜1600画素となるように統合を行う。
9視点からのフィルタ画像それぞれについて領域分割を行った後、距離情報推定部402は、それぞれのフィルタ画像の小領域毎に初期視差量を算出する。具体的には距離情報推定部402は、以下のように処理を行うことができる。まず距離情報推定部402は、初期視差量算出の対象となるフィルタ画像の視点を基準視点として選択する。ここでは、距離情報推定部402は撮像部105を基準視点として選択したものとする。
次に距離情報推定部402は、基準視点の周囲の視点を参照視点として選択する。本実施例においては基準視点の上下左右の撮像部を参照視点として選択する。すなわち距離情報推定部402は、撮像部102、104、106、108を参照視点として選択する。もし距離情報推定部402が撮像部107を基準視点として選択している場合、撮像部104、108が参照視点として選択される。また、撮像部108が基準視点として選択された場合、撮像部105、107、109が参照視点として選択される。本実施例において距離情報推定部402はこのように、基準視点である撮像部に隣接する撮像部を、参照視点として選択する。
そして距離情報推定部402は、基準視点のフィルタ画像に含まれる各小領域について、参照視点のフィルタ画像との比較を行う。こうして距離情報推定部402は、基準視点のフィルタ画像に含まれる各小領域について初期視差量を算出する。具体的には距離情報推定部402は、基準視点のフィルタ画像に含まれる各小領域を順次選択し、選択された小領域について以下のように処理を行うことができる。
まず、距離情報推定部402は、適当な視差量を設定し、参照視点のフィルタ画像中において、選択された小領域に対応する小領域を決定する。ここで、基準視点のフィルタ画像中の選択された小領域の位置を、設定された視差量だけシフトすることによって得られる位置が、選択された小領域に対応する小領域の位置である。そして距離情報推定部402は、それぞれの画素ごとに、選択された小領域内の画素と、対応する小領域の画素との色差を算出する。さらに距離情報推定部402は、算出された色差のヒストグラムを参照して、最頻値を持つ画素の数を記録する。距離情報推定部402は、視差量の設定値を変化させながら、最頻値を持つ画素の数を記録することを繰り返す。そして、この最頻値を持つ画素の数が最も多くなる視差量を、初期視差量として選択する。
本実施例においては、視差量は縦方向と横方向との双方について設定するものとする。また、参照視点が複数存在する場合、それぞれの参照視点を用いて初期視差量が算出されうる。この場合距離情報推定部402は、1つの参照視点のみを用いて初期視差量を算出してもよい。別の例において距離情報推定部402は、それぞれの参照視点を用いて算出された初期視差量の統計値、例えば平均値、を初期視差量として以下で用いてもよい。
さらに距離情報推定部402は、こうして算出された初期視差量をリファインしてもよい。例えば、色が類似した近隣の小領域群は似た視差量を持つ可能性が高い。また、視差量の差が小さい近隣の小領域群は似た視差量を持つ可能性が高い。これらの条件に基づいて距離情報推定部402は、小領域間の色差及び視差量の差などを用いて反復的に視差量を調整することができる。最後に距離情報推定部402は、視差量を距離情報に変換することにより距離情報を算出する。視差量から距離情報への変換は、例えば撮像部101〜109の焦点距離などを示す情報を参照して行うことができる。
以上のように説明した距離推定方法により、各入力画像の各ピクセルに対応した距離情報を算出できる。それぞれの撮像部101〜109を順番に基準視点として選択して以上のような距離情報算出処理を行うことにより、撮像部101〜109の入力画像のそれぞれについての距離情報を算出することができる。しかしながら距離の推定方法は上述の方法には限定されず、公知の方法を含む他の方法を用いてもよい。また、本実施例においては距離情報推定部402が入力画像を用いて距離情報を算出するが、距離情報推定部402は距離情報を受信してもよい。例えば、撮像部101〜109が被写体との距離を測定することにより距離情報を作成し、この距離情報を距離情報推定部402が受信してもよい。
信頼度算出部403は、撮像部101〜109のそれぞれについて、対応する距離情報の信頼度を設定する。そして信頼度算出部403は、撮像部101〜109のそれぞれについての、入力画像、距離情報、及び信頼度を視点選択部404に送信する。信頼度算出部403の詳しい構成については後述する。以下において、視点についての信頼度とは、その視点に対応する距離情報の信頼度のことを意味する。
視点選択部404は、信頼度に従って、撮像部101〜109の中から符号化対象とする視点を選択する。例えば視点選択部404は、より高い信頼度が設定された撮像部を選択すればよい。ここで視点選択部404は、最も信頼度が高い撮像部を符号化対象として選択してもよい。また視点選択部404は、より信頼度が高い複数の撮像部を符号化対象として選択してもよい。しかしながら視点選択部404は最も信頼度が高い撮像部を符号化対象として選択する必要はない。例えば視点選択部404は、予め決定された撮像部の組み合わせのうち、合計の信頼度が最も高くなる組み合わせを、符号化対象として選択してもよい。いくつかの互いにより離れた撮像部の組み合わせを、この予め決定された撮像部の組み合わせとして用いることにより、符号化後のデータにはより情報量が多くかつ正確な情報が含まれることとなる。
視点選択部404は、符号化対象とする撮像部についての入力画像と距離情報とをエンコーダ部210に送る。エンコーダ部210は、受け取った入力画像と距離情報とを符号化する。符号化は任意の方法により行うことができる。エンコーダ部210はさらに、多眼カメラの属性情報を取得してこれを符号化してもよい。多眼カメラの属性情報の例としては、以下のものが挙げられる。
・多眼カメラの撮像部数
・距離情報を符号化しているか否かを示すフラグ
・符号化対象とする撮像部数
・符号化対象とする撮像部の位置
・符号化対象とする撮像部の回転方向
・符号化対象とする撮像部の焦点距離
・符号化対象とする撮像部の画角
・符号化対象とする撮像部についての距離範囲
本実施例においてエンコーダ部210は第1の符号化部と第2の符号化部とを有する。第1の符号化部は受け取った入力画像を符号化する。また第2の符号化部は、受け取った距離情報を符号化する。第1の符号化部と第2の符号化部とは異なる符号化方式を用いて符号化を行ってもよい。本実施例では、入力画像及び距離情報は共にJPEG方式で符号化されるものとする。また距離情報が必要ではないときは、入力画像のみを符号化してもよい。この場合、多眼カメラの属性情報は距離情報を符号化しているかのフラグを有さなくてもよい。
次に、図8のフローチャートを参照して本実施例に係る処理について説明する。ステップS801において画像取得部401は、撮像部101〜109の入力画像を取得する。ステップS802において距離情報推定部402は、撮像部101〜109の入力画像のそれぞれについて上述のように距離情報を算出する。ステップS803において信頼度算出部403は、撮像部101〜109のそれぞれについて、対応する距離情報の信頼度を算出する。ステップS803の処理については後に詳しく述べる。ステップS804において視点選択部404は、上述のように符号化対象とする撮像部を選択する。ステップS805においてエンコーダ部210は、上述のように選択された撮像部についての入力画像及び距離情報を符号化する。
ここでステップS803の処理について、図5のフローチャートを参照して説明する。ステップS803において信頼度算出部403は、撮像部101〜109を順番に基準視点(着目撮像部)として選択する。そして、基準視点の入力画像について後述するステップS501〜S513の処理を行うことによって、基準視点についての信頼度を算出する。それぞれの撮像部についてステップS501〜S513の処理を繰り返すことにより、それぞれの撮像部101〜109についての信頼度を算出することができる。
ステップS501において信頼度算出部403は、基準視点の周囲の視点を参照視点(他撮像部)として選択する。ここで、基準視点は参照視点と部分的に視野を共有している。すなわち基準視点の入力画像及び参照視点の入力画像には、同じ被写体が含まれている。この場合、基準視点は参照視点と部分的に視野を共有するものと考えられる。
本実施例では基準視点の上下左右の撮像部を参照視点として選択する。ここでは、撮像部105が基準視点として選択されているものとする。この場合信頼度算出部403は、撮像部102、104、106、108を参照視点として選択する。もし信頼度算出部403が撮像部107を基準視点として選択している場合、撮像部104、108が参照視点として選択される。また、撮像部108が基準視点として選択された場合、撮像部105、107、109が参照視点としとて選択される。このように本実施例において、参照視点の数は2〜4となる。信頼度算出部403は、距離情報推定部402によって距離情報を算出するために選択された参照視点を、ステップS501において信頼度を算出するために選択してもよい。
ステップS502において信頼度算出部403は、全ての参照視点についての処理を行ったか否かを判定する。全ての参照視点についての処理を行っている場合、処理はステップS513に進む。全ての参照視点についての処理を行っていない場合、処理はステップS503に進む。
ステップS503において信頼度算出部403は、未処理の参照視点を1つ選択する。このときの選択の順序は任意である。ステップS504で信頼度算出部403は、選択された参照視点の入力画像の全画素についての処理を行ったか否かを判定する。全画素についての処理を完了している場合、処理はステップS502に戻る。全画素についての処理を完了していない場合、処理はステップS505に進む。
ステップS505において信頼度算出部403は、選択された参照視点の入力画像のうち、未処理の画素(着目画素)を1つ選択する。このときの選択の順序は任意である。例えば、入力画像の左上から右下に向かって順番に画素を選択することができる。
ステップS506において信頼度算出部403は、選択された画素を、距離情報を参照して、3D空間上(仮想空間内)に投影する。以下に図6を参照して、ステップS506の処理についてより詳しく説明する。
図6(a)は、撮像部105が基準視点であり、撮像部104、106が参照視点である場合の、3D空間上の配置を示す。上述のように撮像部105が基準視点である場合、参照視点は102、104、106、108であるが、説明を簡単にするために撮像部104、106のみが参照視点であるものとする。撮像部104、106は、現実空間上と同様の配置で、3D空間上に配置される。
オブジェクト601は、撮像部104の入力画像の各画素を距離情報に従って3D空間上に投影することによって得られるオブジェクトである。具体的には、撮像部104の入力画像の各画素を、各画素に対応する方向へ、各画素に対応する距離だけ撮像部104から離れた位置に配置することにより、オブジェクト601が得られる。各画素に対応する距離は、距離情報を参照することにより得ることができる。また各画素に対応する方向は、例えば撮像部104の画角を示す情報及び入力画像の解像度を参照して決定することができる。同様にオブジェクト602は、撮像部105の入力画像の各画素を距離情報に従って3D空間上に投影することによって得られるオブジェクトである。さらにオブジェクト603は、撮像部106の入力画像の各画素を距離情報に従って3D空間上に投影することによって得られるオブジェクトである。
ステップS506において信頼度算出部403は、選択された画素を、選択された画素に対応する方向604に投影する。投影された画素の位置を示す3D点605は、撮像部104から、選択された画素に対応する距離だけ離れている。すなわち3D点605は、上述のオブジェクト601上に存在する。もし撮像部106が参照視点である場合、信頼度算出部403は、選択された画素を、選択された画素に対応する方向611に投影する。投影された画素の位置を示す3D点610は、撮像部106から、選択された画素に対応する距離だけ離れている。
図6(b)は、撮像部108が基準視点であり、撮像部107、109が参照視点である場合の、3D空間上の配置を示す。図6(a)の場合と同様に、オブジェクト614、615、616は、それぞれ撮像部107、108、109の入力画像の各画素を3D空間上に投影することによって得られる。この場合、撮像部107が参照視点である時に信頼度算出部403は、選択された画素を、選択された画素に対応する方向617に投影する。投影された画素の位置を示す3D点618は、撮像部107から、選択された画素に対応する距離だけ離れている。また撮像部109が参照視点である時に信頼度算出部403は、選択された画素を、選択された画素に対応する方向624に投影する。投影された画素の位置を示す3D点623は、撮像部109から、選択された画素に対応する距離だけ離れている。
ステップS507において信頼度算出部403は、基準視点から、ステップS506において投影された画素へと向かう方向を決定する。例えば図6(a)において、撮像部104が参照視点である場合、この方向は基準視点105から3D点605へと向かう方向607である。また、撮像部106が参照視点である場合、この方向は基準視点105から3D点610へと向かう方向608である。図6(b)の場合、撮像部107が参照視点であれば、この方向は基準視点108から3D点618へと向かう方向620である。また、撮像部109が参照視点である場合、この方向は基準視点108から3D点623へと向かう方向621である。
ステップS508において信頼度算出部403は、ステップS507で決定された方向の画像が、基準視点の入力画像に含まれているか否かを判定する。具体的には、基準視点の入力画像の焦点距離などを参照することにより、信頼度算出部403は基準視点の入力画像の画角を知ることができる。そして信頼度算出部403は、ステップS507で決定された方向が基準視点の入力画像の画角内にある場合に、ステップS507で決定された方向の画像が基準視点の入力画像に含まれていると判定することができる。含まれている場合、処理はステップS509に進む。含まれていない場合、処理はステップS504に戻る。
ステップS509において信頼度算出部403は、ステップS507で決定された方向に対応する、基準視点の入力画像中の画素位置を特定する。ステップS507の処理は、基準視点の入力画像の焦点距離及び入力画像の解像度などを参照して行うことができる。ステップS509において算出される画素位置は、入力画像を構成する画素の間であってもよい。
ステップS510において信頼度算出部403は、ステップS505で選択された画素が、基準視点のオクルージョン領域中にあるか否かを判定する。基準視点のオクルージョン領域とは、基準視点からは被写体の影に隠れて見えない部分のことをいう。参照視点の入力画像のうちのオクルージョン領域の範囲は、信頼度算出部403が判定することができる。画素がオクルージョン領域中にあるか否かは公知の画像処理技術を用いて判定することができるため、本明細書では詳細には説明しない。
ステップS510の処理について、図7を参照して説明する。図7において、基準視点は撮像部105であり、参照視点は撮像部106である。オブジェクト701は、撮像部105の入力画像の各画素を距離情報に従って3D空間上に投影することによって得られるオブジェクトである。またオブジェクト702は、撮像部106の入力画像の各画素を距離情報に従って3D空間上に投影することによって得られるオブジェクトである。ステップS506において信頼度算出部403は、選択された画素を、選択された画素に対応する方向704に投影している。投影された画素の位置を示す3D点706は、撮像部106から、選択された画素に対応する距離だけ離れている。ステップS507において信頼度算出部403は、基準視点から、投影された画素へと向かう方向703を決定している。また3D点705は基準視点から方向703上にあり、3D点705の位置は、撮像部105から、ステップS509において算出された画素位置の画素に対応する距離だけ離れている。オクルージョン領域中では、対応する3D点705、706は異なるオブジェクトを表している。本実施例においては、このような場合には3D点705、706についての距離情報は信頼度算出のために用いない。
ステップS510においてオクルージョン領域中にあると判定した場合、処理はステップS504に戻る。ステップS510においてオクルージョン領域中にないと判定した場合、処理はステップS511に進む。この処理によって、参照視点の入力画像のうち、基準視点のオクルージョン領域外にある画素を用いて信頼度を算出することができる。もっとも、ステップS510の処理を行うことは必須ではない。オクルージョン領域の計算は画素単位で行ってもようし、小領域単位で行ってもよい。小領域単位で計算する場合、基準視点の入力画像と参照視点の入力画像とについて対応する領域の特徴が大きく違う場合に、この小領域はオクルージョン領域にあるものと考えることができる。
本実施例ではステップS505で選択された画素が、基準視点のオクルージョン領域中にある場合に、この画素についての距離情報を信頼度算出のために用いない。しかしながら、いずれかのオクルージョン領域に関係する距離情報は信頼度算出のために用いないように、信頼度算出部403を構成することもできる。例えば別の実施例においては、ステップS509において算出された画素位置が、参照視点のオクルージョン領域中にある場合に、この画素についての距離情報は信頼度算出のために用いられない。
ステップS511において信頼度算出部403は、ステップS509で特定された画素位置についての、距離情報が示す基準視点からの距離(第2の距離)を取得する。ステップS509で特定された画素位置が入力画像を構成する画素の間である場合、信頼度算出部403は距離情報を補間することによって基準視点からの距離を取得することができる。
ステップS512において信頼度算出部403は、ステップS511で取得された距離と、ステップS505で選択された画素についての基準視点からの距離(第1の距離)と、の差分を算出する。そして信頼度算出部403は、算出された差分をメモリ(不図示)に格納する。その後処理は、ステップS504に戻る。
図6(A)を参照してステップS511及びステップS512の処理を詳しく説明する。3D点606、609は、ステップS509において算出された画素位置の画素を、ステップS507で決定された方向607、608へと投影した場合の画素位置を示す。ステップS511で取得された距離は、3D点606、609と撮像部105との間の距離に対応する。またステップS505で選択された画素についての基準視点からの距離は、3D点605、610と撮像部105との間の距離に対応する。したがって、ステップS512で算出される差分は、距離612、613に対応する。
ここで3D点605、609は、オブジェクト601、603上の点である。オブジェクト601、603は、撮像部104、106に対応する距離情報に従って得られるものである。すなわち、距離情報が距離画像として表されている場合、オブジェクト601、603は、撮像部104、106に対応する距離画像の各画素をその画素が示す距離だけ撮像部から離間させて配置することにより得られる。このように3D点605、609と撮像部105との間の距離は、仮想空間中に配置された撮像部104、106に対応する距離画像と、撮像部105との間の距離に対応する。
同様に3D点606、610は、オブジェクト602上の点である。オブジェクト602は、撮像部105に対応する距離情報に従って得られるものである。すなわち、距離情報が距離画像として表されている場合、オブジェクト602は、撮像部105に対応する距離画像の各画素をその画素が示す距離だけ撮像部から離間させて配置することにより得られる。このように3D点606、610と撮像部105との間の距離は、仮想空間中に配置された撮像部105に対応する距離画像と、撮像部105との間の距離に対応する。
また、3D点606は、撮像部105から3D点605へと向かう方向上に位置する。このように本実施例において信頼度算出部は、基準視点からみて距離画像が重なっている部分についての、基準視点からみた距離画像間の距離差を算出する。具体的には、基準視点である撮像部105に対応する距離画像と、参照視点である撮像部104、106に対応する距離画像と、の距離差を算出している。特に本実施例においては、基準画像と参照画像との間で共有している視野部分についての距離情報を用いて、距離差が算出される。
同様に図6(B)の場合、3D点619、626は、ステップS509において算出された画素位置の画素を、ステップS507で決定された方向620、621へと投影した場合の画素位置を示す。ステップS511で取得された距離は、3D点619、626と撮像部105との間の距離に対応する。またステップS505で選択された画素についての基準視点からの距離は、3D点618、623と撮像部105との間の距離に対応する。したがって、ステップS512で算出される距離差は、距離625、626に対応する。
図6の例では、図6(b)の方が図6(a)より距離差が小さい。距離差が小さいことは、基準画像についての距離情報が示す距離が、参照画像についての距離情報が示す距離により近いことを示し、このことは距離情報の精度が高いことを示唆する。したがってステップS512で算出される距離差が小さいほど、基準画像についての距離情報はより信頼性が高いものと判定できる。
ステップS513において信頼度算出部403は、ステップS512でメモリに記録された距離差に従って、基準視点についての信頼度を算出する。信頼度算出部は、基準視点に対応する距離画像と、参照視点に対応する距離画像と、の距離差が小さいほど信頼度が高くなるように、基準視点についての信頼度を算出する。本実施例において信頼度算出部は、ステップS512でメモリに記録された距離差の平均値を信頼度として用いる。この場合、信頼度がより小さいことは、信頼度がより高いことを意味する。しかしながら信頼度は他の方法で求めてもよく、距離差の他の統計値(例えば最大値)を信頼度として求めてもよい。
本実施例では、撮像部101〜109で撮像される画像がカラー画像であることを前提に各部の構成や処理を説明した。しかしながら、撮像部101〜109で撮像される画像の一部又は全部はモノクロ画像であってもよい。この場合、撮像部101〜109からはカラーフィルタ308を省くことができる。
本実施例において説明した信頼度の算出方法は一例にすぎず、各撮像部又は撮像装置からみた距離画像間の距離差が小さいほど基準視点についての信頼度が高くなるような、他の方法を採用することもできる。例えば本実施例では、3D点605と3D点606との間の距離を用いて信頼度を算出した。しかしながら代わりに、撮像部104と3D点605との間の距離と、撮像部105と3D点606との間の距離との差分を用いて、同様に信頼度を算出することもできる。また、オブジェクト(距離画像)601と、オブジェクト602とについて、撮像部105(又は撮像部101〜109が配置されている平面)からみて重なり合っている部分についての平均間隔を算出してもよい。この平均間隔を用いても、同様に信頼度を算出することができる。
実施例1においては、距離情報の信頼度に従って符号化対象となる撮像部を選択した。実施例2ではさらに、オクルージョンの度合いに従って符号化対象となる撮像部を選択する。ある入力画像についてオクルージョンの度合いが大きい場合、この入力画像は他の画像には写っていない被写体を多く含んでいるものと考えられる。本実施例では、このような入力画像についても符号化の対象とする。
以下で、実施例2に係る符号化装置及びその処理方法について説明する。実施例2に係る符号化装置の構成は実施例1と同様であり、説明は省略する。また、実施例2に係る符号化装置が備える画像処理部212の構成も、実施例1と同様であるから、説明は省略する。
実施例2に係る処理は、図8及び図5に示す実施例1に係る処理と同様であるが、ステップS510、ステップS513、及びステップS804の処理が実施例1とは異なる。
ステップS510において、ステップS505で選択された画素が基準視点のオクルージョン領域中にあると判定された場合、信頼度算出部403は、ステップS505で選択された画素についてのオクルージョン量を算出する。そして、処理はステップS504に戻る。オクルージョン領域中にないと判定された場合、実施例1と同様に、処理はステップS511に進む。
図7を参照してオクルージョン量について説明する。図7に示される各要素は、実施例1に関連して既に説明した。本実施例で信頼度算出部403は、3D点705、706間の距離をオクルージョン量として算出し、算出されたオクルージョン量をメモリ(不図示)に記録する。
ステップS513において信頼度算出部403は、ステップS512でメモリに記録された距離差に従って、基準視点についての信頼度を算出する。本実施例において信頼度算出部403はさらに、ステップS509でメモリに記録されたオクルージョン量に従って、基準視点の入力画像についてのオクルージョン量(オクルージョンの度合い)を算出する。本実施例において信頼度算出部は、ステップS509でメモリに記録されたオクルージョン量の平均値を、基準視点の入力画像についてのオクルージョン量として算出する。しかしながら、記録されたオクルージョン量の他の統計値(例えば最大値)を、基準視点の入力画像についてのオクルージョン量として求めてもよい。
ステップS804において視点選択部404は、実施例1と同様に信頼度に従って、撮像部101〜109の中から符号化対象とする撮像部を選択する。本実施例において視点選択部404はさらに、ステップS513で求められたオクルージョン量に応じて、符号化対象とする撮像部を選択する。具体的には、ステップS513で求められたオクルージョン量が設定された閾値よりも大きい場合に、対応する撮像部を符号化対象として選択することができる。
本実施例においては視点選択部404は、実施例1と同様に信頼度に従って符号化対象とする撮像部を選択した後に、オクルージョン量に応じて符号化対象とする撮像部を追加的に選択する。しかしながら、信頼度とオクルージョン量とに従って符号化対象とする撮像部を決めるのであれば、他の方法を用いてもよい。例えば、符号化対象とする撮像部の数が一定となるように、視点選択部404は符号化対象とする撮像部を選択してもよい。
本実施例においては、オクルージョンの度合いを、上述のように3D点の間の距離に従って算出した。この3D点の間の距離はそれぞれの入力画像についての距離情報の誤差に対応し、この誤差が大きいほどオクルージョンの度合いは大きいものと考えられる。しかしながらオクルージョンの度合いは本実施例のように算出される必要はない。例えば、オクルージョンの度合いとして、オクルージョン領域の大きさ、前景オブジェクトに隠れている背景オブジェクトの大きさを表す指標を用いてもよい。すなわち、より大きいオクルージョン領域を有する入力画像を撮像した撮像部を、符号化対象とする撮像部として選択してもよい。ここでオクルージョン領域の大きさとは、他の撮像部のいずれによっても撮像されない領域の大きさを指してもよいし、他の撮像部のいずれかによっては撮像されない領域の大きさを指してもよい。例えば、オクルージョン領域として特定された領域の大きさ(画素数)を指標として用いることができる。
(他の実施形態)
本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)をネットワーク又は各種記憶媒体を介してシステム或いは装置に供給する。そして、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムコードを読み出して実行する。この場合、そのプログラム、及び該プログラムを記憶した記憶媒体は本発明を構成することになる。

Claims (8)

  1. 複数の撮像部によって撮像されたそれぞれの撮像画像を入力画像として取得する第1の取得手段と、
    それぞれの前記入力画像について、該入力画像を撮像した撮像部から各画素の被写体までの推定距離を示す距離画像を取得する第2の取得手段と、
    仮想空間内に、前記複数の撮像部の視点を現実と同様の配置で設定し、各撮像部に対応する距離画像の各画素を該画素が示す距離だけ該撮像部の視点から離間した位置に配置した場合に、各撮像部の視点から対応する距離画像までの距離と、該撮像部と部分的に視野を共有する他撮像部に対応する距離画像から該撮像部の視点までの距離と、の距離差が小さいほど信頼度が高くなるように、各撮像部についての信頼度を設定する設定手段と、
    より大きい前記信頼度が設定された撮像部を選択する選択手段と、
    前記選択手段が選択した撮像部に対応する前記入力画像と前記距離画像とを符号化する符号化手段と、
    を備えることを特徴とする符号化装置。
  2. 前記設定手段は、
    前記仮想空間における、前記信頼度を設定する着目撮像部の視点と、前記他撮像部に対応する距離画像の着目画素との間の距離を、第1の距離として取得する手段と、
    前記仮想空間における、前記着目撮像部の視点から前記着目画素へと向かう方向を決定する手段と、
    前記決定された方向に対応する、前記着目撮像部によって撮像された入力画像中の画素を特定する手段と、
    前記距離画像を参照して、前記特定された画素に対応する距離画像の画素と、前記着目撮像部の視点との間の距離を、第2の距離として取得する手段と、
    前記第1の距離と前記第2の距離との差分を用いて前記距離差を算出する手段と、
    を備えることを特徴とする、請求項1に記載の符号化装置。
  3. 前記設定手段はオクルージョン領域を特定する手段をさらに備え、前記着目画素は、前記他撮像部に対応する距離画像のうち前記着目撮像部のオクルージョン領域外から選択されることを特徴とする、請求項2に記載の符号化装置。
  4. 前記設定手段は、前記信頼度を設定する撮像部に隣接する撮像部を、前記他撮像部として選択することを特徴とする、請求項1乃至3の何れか1項に記載の符号化装置。
  5. 前記選択手段は、より大きいオクルージョン領域を有する入力画像を撮像した撮像部をさらに選択することを特徴とする、請求項1乃至4の何れか1項に記載の符号化装置。
  6. 符号化装置が行う符号化方法であって、
    第1の取得手段が、複数の撮像部によって撮像されたそれぞれの撮像画像を入力画像として取得する第1の取得工程と、
    第2の取得手段が、それぞれの前記入力画像について、該入力画像を撮像した撮像部から各画素の被写体までの推定距離を示す距離画像を取得する第2の取得工程と、
    設定手段が、仮想空間内に、前記複数の撮像部の視点を現実と同様の配置で設定し、各撮像部に対応する距離画像の各画素を該画素が示す距離だけ該撮像部の視点から離間した位置に配置した場合に、各撮像部の視点から対応する距離画像までの距離と、該撮像部と部分的に視野を共有する他撮像部に対応する距離画像から該撮像部の視点までの距離と、の距離差が小さいほど信頼度が高くなるように、各撮像部についての信頼度を設定する設定工程と、
    選択手段が、より大きい前記信頼度が設定された撮像部を選択する選択工程と、
    符号化手段が、前記選択工程で選択した撮像部に対応する前記入力画像と前記距離画像とを符号化する符号化工程と、
    を備えることを特徴とする符号化方法。
  7. コンピュータを、請求項1乃至5の何れか1項に記載の符号化装置の各手段として機能させるための、コンピュータプログラム。
  8. 請求項7に記載のコンピュータプログラムを格納した、コンピュータが読み取り可能な記憶媒体。
JP2012007383A 2012-01-17 2012-01-17 符号化装置、符号化方法、プログラム及び記憶媒体 Pending JP2013150071A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012007383A JP2013150071A (ja) 2012-01-17 2012-01-17 符号化装置、符号化方法、プログラム及び記憶媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012007383A JP2013150071A (ja) 2012-01-17 2012-01-17 符号化装置、符号化方法、プログラム及び記憶媒体

Publications (1)

Publication Number Publication Date
JP2013150071A true JP2013150071A (ja) 2013-08-01

Family

ID=49047189

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012007383A Pending JP2013150071A (ja) 2012-01-17 2012-01-17 符号化装置、符号化方法、プログラム及び記憶媒体

Country Status (1)

Country Link
JP (1) JP2013150071A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015087851A (ja) * 2013-10-29 2015-05-07 日本電信電話株式会社 画像処理装置及び画像処理プログラム
JP2017028606A (ja) * 2015-07-27 2017-02-02 キヤノン株式会社 撮像装置
JP2017524917A (ja) * 2014-07-09 2017-08-31 ソフトキネティック センサーズ エヌブイ 飛行時間データをビニングするための方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015087851A (ja) * 2013-10-29 2015-05-07 日本電信電話株式会社 画像処理装置及び画像処理プログラム
JP2017524917A (ja) * 2014-07-09 2017-08-31 ソフトキネティック センサーズ エヌブイ 飛行時間データをビニングするための方法
JP2017028606A (ja) * 2015-07-27 2017-02-02 キヤノン株式会社 撮像装置

Similar Documents

Publication Publication Date Title
JP6021541B2 (ja) 画像処理装置及び方法
JP5954668B2 (ja) 画像処理装置、撮像装置および画像処理方法
US9076267B2 (en) Image coding device, integrated circuit thereof, and image coding method
US9619886B2 (en) Image processing apparatus, imaging apparatus, image processing method and program
GB2500758A (en) Generating three dimensional images from two dimensional images using auto-focus, auto-exposure or auto-white balance statistics
WO2019124248A1 (ja) 画像処理装置、コンテンツ処理装置、コンテンツ処理システム、および画像処理方法
CN112352264A (zh) 图像处理装置和图像处理方法
US10037335B1 (en) Detection of 3-D videos
JP2013025649A (ja) 画像処理装置及び画像処理方法、プログラム
US20140192163A1 (en) Image pickup apparatus and integrated circuit therefor, image pickup method, image pickup program, and image pickup system
JP6128748B2 (ja) 画像処理装置及び方法
JP6021489B2 (ja) 撮像装置、画像処理装置およびその方法
KR102265109B1 (ko) 영상 처리 방법 및 장치
JP2015171097A (ja) 画像処理装置及びその制御方法
JP2013150071A (ja) 符号化装置、符号化方法、プログラム及び記憶媒体
JP2009258005A (ja) 三次元測定装置及び三次元測定方法
CN110995982B (zh) 图像处理装置及其控制方法、摄像装置、以及记录介质
US20200267374A1 (en) Data recording apparatus, image capturing apparatus, data recording method, and storage medium
JP6732440B2 (ja) 画像処理装置、画像処理方法、及びそのプログラム
US10382676B2 (en) Image display apparatus, image capturing apparatus, image display method, and storage medium
JP5869839B2 (ja) 画像処理装置およびその制御方法
JP2015233270A (ja) 撮像装置およびその制御方法
JP2014164497A (ja) 画像処理装置、画像処理方法及びプログラム
US10911780B2 (en) Multi-viewpoint image coding apparatus, multi-viewpoint image coding method, and storage medium
JP2014049895A (ja) 画像処理方法