JP6309210B2 - 深さ映像生成方法及び装置、深さ映像処理方法及び装置 - Google Patents

深さ映像生成方法及び装置、深さ映像処理方法及び装置 Download PDF

Info

Publication number
JP6309210B2
JP6309210B2 JP2013117744A JP2013117744A JP6309210B2 JP 6309210 B2 JP6309210 B2 JP 6309210B2 JP 2013117744 A JP2013117744 A JP 2013117744A JP 2013117744 A JP2013117744 A JP 2013117744A JP 6309210 B2 JP6309210 B2 JP 6309210B2
Authority
JP
Japan
Prior art keywords
depth
depth image
value
light
different modulation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013117744A
Other languages
English (en)
Other versions
JP2013253971A (ja
Inventor
旭 崔
旭 崔
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2013253971A publication Critical patent/JP2013253971A/ja
Application granted granted Critical
Publication of JP6309210B2 publication Critical patent/JP6309210B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/254Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Graphics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)

Description

本発明は、深さ映像生成方法及び装置、深さ映像処理方法及び装置に関し、互いに異なる変調周波数の光を用いて深さ映像を生成し、生成された深さ映像を処理する方法に関する。
深さ映像を生成する方法として、光が被写体に反射して戻ってくる時間を用いて被写体までの距離を算出する方法がある。現在、この方法を用いて深さ映像を生成するToF(Time−of−Flight)カメラが広く用いられている。ToFカメラは、周波数が変調された光が被写体に反射される過程で発生した位相の遅延を用いて被写体までの距離を算出する。ToFカメラで測定できる最大距離は、撮影に用いられる変調周波数(modulation frequency)によって決定される。ToFカメラは、測定できる最大距離よりも遠方に位置する被写体を測定可能な距離にあると見なして深さ映像を撮影する。
深さ映像で遠距離の深さ値を復元する方法として、1枚の深さ映像を用いる方法と複数の深さ映像を用いる方法がある。1枚の深さ映像を用いる方法は、深さ映像の不連続な部分で、小さい深さ値を有するピクセルのモード値(Number of Mods)を大きい深さ値を有するピクセルのモード値より1だけ大きくする方法である。複数の深さ映像を用いる方法には、カメラを動かしながら撮影した複数の深さ映像を用いる方法と、時間差をもって互いに異なる変調周波数の光で撮影した複数の深さ映像を用いる方法がある。
本発明の目的は、互いに異なる変調周波数の光を用いて深さ映像を生成し、生成された深さ映像を処理する方法を提供する。
一実施形態に係る深さ映像生成方法は、互いに異なる変調周波数の光を被写体に照射するステップと、前記被写体に反射された互いに異なる変調周波数の光を検出するステップと、前記互いに異なる変調周波数の光を用いて被写体までの距離に関連する深さ映像を生成するステップとを含む。
一実施形態に係る深さ映像生成装置は、互いに異なる変調周波数の光を被写体に照射する照射部と、前記被写体に反射された互いに異なる変調周波数の光を検出する検出部と、前記互いに異なる変調周波数の光を用いて被写体までの距離に関連する深さ映像を生成する生成部とを備える。
一実施形態に係る深さ映像処理方法は、互いに異なる変調周波数に基づいて深さ映像を分離するステップと、前記分離された深さ映像を補間して深さ値を復元するステップと、前記深さ値が復元された深さ映像を用いて遠距離の深さ値を調整するステップとを含む。
一実施形態に係る深さ映像処理方法は、前記深さ値が調整された深さ映像を合成するステップをさらに含んでもよい。
本発明によると、深さ映像の深さ値を調整可能にすることができる。
一実施形態に係る深さ映像を処理するためのシステムの全体的な構成を示す図である。 一実施形態に係る深さ映像生成装置の細部構成を示す図である。 一実施形態に係る深さ映像処理装置の細部構成を示す図である。 一実施形態に係る互いに異なる変調周波数で動作する光源が配列された一例を示す図である。 一実施形態に係る互いに異なる変調周波数で動作する光源が配列された一例を示す図である。 一実施形態に係る互いに異なる変調周波数で動作する光源が配列された一例を示す図である。 一実施形態に係る互いに異なる変調周波数に対応するピクセルが配列された一例を示す図である。 一実施形態に係る互いに異なる変調周波数に対応するピクセルが配列された一例を示す図である。 一実施形態に係る互いに異なる変調周波数に対応するピクセルが配列された一例を示す図である。 一実施形態に係る深さ映像生成装置が生成した深さ映像の一例を示す図である。 一実施形態に係る深さ映像を互いに異なる変調周波数に対応するピクセル領域に分離する一例を示す図である。 一実施形態に係る深さ映像を補間して深さ値を復元する一例を説明するための図である。 一実施形態に係る深さ値が復元されたピクセル領域の一例を示す図である。 一実施形態に係るピクセルの深さ値を復元して深さ映像を表現する一例を示す図である。 一実施形態に係る遠距離の深さ値を調整して深さ映像を表現する一例を示す図である。 一実施形態に係る深さ映像のピクセルのうち補間されないピクセルの深さ値を組み合わせる一例を示す図である。 一実施形態に係る遠距離の深さ値が調整された深さ映像を合成する一例を示す図である。 一実施形態に係る深さ映像を生成する動作を示すフローチャートである。 一実施形態に係る深さ映像を処理する動作を示すフローチャートである。
以下、実施形態を添付する図面を参照しながら詳細に説明する。一実施形態に係る深さ映像生成方法は、深さ映像生成装置によって行われてもよい。また、一実施形態に係る深さ映像処理方法は、深さ映像処理装置によって行われてもよい。各図面に提示された同一の参照符号は同一の部材を示す。
図1は、一実施形態に係る深さ映像を処理するためのシステムの全体的な構成を示す図である。図1に示すように、深さ映像を処理するためのシステムは深さ映像生成装置110と深さ映像処理装置120を備える。
深さ映像生成装置110は、互いに異なる変調周波数の光を用いて被写体までの距離に関連する深さ映像を生成する。深さ映像生成装置110は、深さ映像を生成して深さ映像生成装置110から被写体までの距離がどの程度であるかを決定する。
光の変調周波数は、深さ映像生成装置110が測定できる最大距離(rmax)を決定してもよい。例えば、深さ映像生成装置110が変調周波数30MHzの光を用いて被写体を撮影する場合、深さ映像生成装置110は、測定できる最大距離として5mを有してもよい。反対に、深さ映像生成装置110が30MHzと異なる変調周波数を用いて被写体を撮影する場合には、深さ映像生成装置110は測定できる最大距離が5mとは異なることがある。
深さ映像処理装置120は、深さ映像生成装置110が互いに異なる変調周波数に基づいて生成した深さ映像を処理する。深さ映像処理装置120は、深さ映像生成装置110が生成した1個の深さ映像を用いて深さ映像に表現された遠距離の深さ値を調整する。これによって、深さ映像処理装置120は、深さ映像生成装置110または被写体が動いている状況で撮影された深さ映像に関しても遠距離の深さ値を調整することができる。ここで、「遠距離」は、深さ映像生成装置110が一般的に測定できる最大距離を超過する範囲の距離を示す。「遠距離の深さ値」は一般的に測定できる最大距離を超過する距離の深さ値を示す。
深さ映像処理装置120は、深さ映像に表現された遠距離の深さ値を調整して実際の被写体までの距離と深さ映像に表現された深さ値をマッチングする。また、深さ映像処理装置120は、互いに異なる変調周波数に基づいて生成された深さ映像を合成してもよく、これによって高画質の深さ値を有する深さ映像を表現することができる。
図2は、一実施形態に係る深さ映像生成装置の細部構成を示す図である。図2に示すように、深さ映像生成装置210は、照射部220、検出部230、及び生成部240を備える。
照射部220は、互いに異なる変調周波数の光を被写体に照射する。すなわち、照射部220は、任意の周波数に変調された光を被写体に照射する。または、照射部220は、互いに異なる変調周波数で動作する少なくとも1つの光源から出力された光を被写体に照射してもよい。互いに異なる変調周波数で動作する光源は、水平構造、垂直構造、または、格子構造のいずれか1つの構造で構成されてもよい。すなわち、互いに異なる変調周波数で動作する光源は、空間的に互いに混合された構造を有し得る。
検出部230は、被写体に反射された互いに異なる変調周波数の光を検出する。検出部230は、互いに異なる変調周波数に対応する少なくとも1つのピクセル(または、ピクセルの配列)を用いて光を検出してもよい。互いに異なる変調周波数に対応するピクセルは、水平構造、垂直構造、または格子構造のいずれか1つの構造で構成されてもよい。互いに異なる変調周波数に対応するピクセルは、空間的に互いに混合された構造を有し得る。ピクセルの配列は、第1変調周波数の光を検出するように構成された複数の第1ピクセルと、第2変調周波数の光を検出するように構成された複数の第2ピクセルとを含む。
一定の変調周波数に対応するそれぞれのピクセルにおいて、それぞれ対応する変調周波数の光がサンプリングされてもよい。
生成部240は、互いに異なる変調周波数の光を用いて被写体までの距離に関連する深さ映像を生成する。具体的に、生成部240は、被写体に照射された光の強度と被写体に反射された光の強度を用いて被写体までの距離を算出する。または、生成部240は、被写体に照射された光と被写体に反射された光との位相差を用いて被写体までの距離を算出してもよい。生成部240は、距離値に基づいて映像の明暗を調整する方式に基づいて深さ映像を生成してもよい。
図3は、一実施形態に係る深さ映像処理装置の細部構成を示す図である。図3に示すように、深さ映像処理装置310は、分離部320、復元部330、調整部340、及び合成部350を備える。
分離部320は、互いに異なる変調周波数に基づいて深さ映像を分離する。または、分離部320は、深さ映像を互いに異なる変調周波数に対応するピクセル領域に分離してもよい。例えば、分離部320は、1つの深さ映像を生成したピクセル領域で同一の変調周波数に対応するピクセルを分離し、新しいピクセル領域に生成してもよい。新しく生成されたピクセル領域は、深さ値を有しないピクセルを含んでもよい。
復元部330は、互いに異なる変調周波数に基づいて分離された深さ映像を補間して深さ値を復元する。すなわち、復元部330は、互いに異なる変調周波数ごとに分離された深さ映像で深さ値が存在しない現在ピクセルの深さ値を復元する。具体的に、復元部330は、周辺ピクセルの深さ値を用いて深さ値が存在しない現在ピクセルの深さ値を復元してもよい。または、復元部330は、深さ値が存在しない現在ピクセルと周辺ピクセルとの間の距離に基づいた加重値を考慮し、現在ピクセルの深さ値を復元してもよい。
復元部330は、分離部320が新しく生成したピクセル領域で深さ値が存在しないピクセルの深さ値を生成することによって、変調周波数ごとに独立したピクセル領域を生成してもよい。
調整部340は、深さ値が復元された深さ映像を用いて遠距離の深さ値を調整する。具体的に、調整部340は、分離された深さ映像それぞれで同一の位置に対応するピクセルの3次元座標値の差を用いて遠距離の深さ値を調整する。
遠距離に存在する被写体の深さ値は、位相ラッピング(phase wrapping)の現象により実際の深さ値と異なることがある。例えば、深さ映像生成装置が測定できる最大距離よりも遠く位置している被写体を撮影する場合、位相ラッピングの現象が発生する。この場合、深さ映像に表現された被写体の深さ値は、実際の深さ値よりも小さいことがある。これは深さ映像生成装置が測定できる最大距離よりも遠方に位置する被写体を測定可能な距離にあると見なして撮影するためである。但し、位相ラッピングが発生した回数を利用すれば、位相ラッピング現象が反映された深さ値を実際深さ値に補正することができる。
数式(1)は、3次元空間上で相似三角形の公式を用いて位相ラッピングが発生する前の深さ値を算出する形に定義される。ここで、
は深さ映像の任意のピクセルiで変調周波数fに測定した3次元座標値であり、
は位相ラッピングが発生する前の3次元座標値である。そして、niは0を含む正の整数であり、任意のピクセルiで位相ラッピングが発生した回数を示す。また、cは光の速度であり、
は、深さ映像生成装置が変調周波数fの光を用いて測定できる最大距離である。
は3次元空間上の原点から
までの距離を示す。
分離された深さ映像で位置が同一のピクセルは同じ地点の距離を測定しているため、
は同じ値を有し得る。ここで、niとmiは0を含む正の整数である。正確なniとmiの値は、
の距離差で定義される
の値を最小化してもよい。
数式(2)は、
の最小値を算出する形に定義される。ここで、Di(ni)は
の最小値を示す。miが0からM(任意の正の整数)までの値を有すると仮定すれば、
の値を最小化するniはDi(ni)の値を最小化してもよい。
niが0からN(任意の正の整数)までの値を有すると仮定すると、数式(3)はDi(ni)の値を最小化するniを算出する形に定義される。すなわち、数式(3)はDi(ni)の値を用いてniを算出する形に定義される。
調整部340は、また、分離された深さ映像それぞれで同一の位置に対応するピクセルの深さ値と周辺ピクセルの深さ値に基づいた加重値を考慮して遠距離の深さ値を調整する。数式(3)におけるni値は、深さ映像に存在するノイズによって誤った値に算出されることもある。これを補完しようと調整部340は下記の数式(4)を用いる。
数式(4)は、深さ映像に含まれたノイズによってniが間違って算出されることを防ぐために、周辺ピクセルの深さ値に基づいた加重値を考慮してniを算出する形に定義される。すなわち、数式(4)は、周辺ピクセルの深さ値に基づいた加重値を考慮し、算出された
の値を最小化するniを算出する形に定義される。
任意のピクセルiの周辺ピクセルがピクセルiのniに対応するn値をもってniとnの値が同一であると仮定すれば、数式(4)を用いてniを算出することができる。ここで、Niはピクセルiを含む周辺ピクセルの集合であり、wijは任意のピクセルiで測定された深さ値とピクセルiの周辺ピクセルのピクセルjで測定された深さ値の類似程度に応じて決定される加重値である。
そして、調整部340は、分離された深さ映像それぞれで全てのピクセルの3次元座標値の差に基づいた費用関数の値を最小化して遠距離の深さ値を調整する。例えば、調整部340は、数式(5)と数式(6)のような費用関数の値を最小化するniを算出して遠距離の深さ値を調整する。
数式(5)と数式(6)において、Vはピクセルiのni値とni値に対応するピクセルjのnj値の類似度に基づいて決定される関数に定義される。V関数は隣接する2つのピクセル間の深さ値を類似にする目的関数であり、映像の全体単位に最適化を行うとき用いられる。
以上のniを算出する過程はmiを算出する場合にも適用することができる。
調整部340は、上記の数式(4)、数式(5)、または数式(6)を用いてniの値を算出してもよく、実際の被写体までの距離は、ピクセルで測定された深さ値rにni
の積を合わせて算出してもよい。
合成部350は、遠距離の深さ値が調整された深さ映像を合成する。具体的に、合成部350は、分離された深さ映像のピクセルのうち補間されないピクセルの深さ値を組み合わせて深さ映像を合成する。言い換えれば、調整部340が深さ値が復元された深さ映像を用いて遠距離の深さ値を調整した後、合成部350は、初めから深さ値が存在するピクセルを組み合わせてもよい。合成部350は、前述した過程によって被写体の境界付近で深さ値の正確性を向上したり、深さ映像のノイズを最小化することができる。
図4A〜図4Cは、一実施形態に係る互いに異なる変調周波数で動作する光源が配列された一例を示す図である。図4A〜図4Cに示すように、深さ映像生成装置410は、任意の変調周波数f1で動作する光源420と任意の変調周波数f2で動作する光源430を含む。変調周波数f1で動作する光源420は変調周波数f1の光を被写体に照射してもよく、変調周波数f2で動作する光源430は変調周波数f2の光を被写体に照射してもよい。
光源420、430は、配列方法によって図4Aに示す水平構造、図4Bに示す垂直構造、または、図4Cに示す格子構造に配列されてもよい。但し、光源420、430の配列方式は上記の実施形態に限定されず、様々な形態を有してもよい。
図5A〜図5Cは、一実施形態に係る互いに異なる変調周波数に対応するピクセルが配列された一例を示す図である。図5A〜図5Cに示すように、深さ映像生成装置は、任意の変調周波数f1に対応するピクセル510と任意の変調周波数f2に対応するピクセル520を含む。光源で照射された光は、被写体に反射してピクセル510、520で検出される。変調周波数f1に対応するピクセル510で変調周波数f1の光が検出されてもよく、変調周波数f2に対応するピクセル520で変調周波数f2の光が検出されてもよい。
ピクセル510、520は、配列方法によって図5Aに示す水平構造、図5Bに示す垂直構造、または、図5Cに示す格子構造に配列されてもよい。但し、ピクセル510、520の配列方式は上記の実施形態に限定されず、様々な形態を有してもよい。
図6は、一実施形態に係る深さ映像生成装置が生成した深さ映像の一例を示す図である。図6に示すように、深さ映像生成装置が生成した深さ映像は、被写体までの距離を映像の明暗を調整して表現したことが分かる。図6に示す深さ映像は、測定された被写体までの距離が近いほど明暗が濃く表現される。
深さ映像生成装置が生成した深さ映像は、ピクセルで測定した光量に基づいて算出された深さ値が混合された形態であってもよい。生成された深さ映像には、位相ラッピングの現象により実際の深さ値と異なる深さ値を有する領域が存在してもよい。ここで、間違って算出された深さ値を実際の深さ値に補正するための処理過程が求められる。
図7は、一実施形態に係る深さ映像を互いに異なる変調周波数に対応するピクセル領域に分離する一例を示す図である。図7に示すように、深さ映像処理装置は、互いに異なる変調周波数を用いて生成された深さ映像のピクセル領域710を互いに異なる変調周波数に対応するピクセル領域720、730に分離してもよい。
深さ映像生成装置が生成した深さ映像のピクセル領域710は、変調周波数f1に対応するピクセル740と変調周波数f2に対応するピクセル760を含む。深さ映像処理装置は、変調周波数f1と変調周波数f2を基準にしてピクセル領域710を分離してもよく、変調周波数に応じて分離されたピクセル領域720、730は深さ値が存在しないピクセル750を含んでもよい。
すなわち、新しく分離されたピクセル領域720、730において異なる変調周波数に対応するピクセルは、深さ値が存在しないピクセル750で構成されてもよい。
図8は、一実施形態に係る深さ映像を補間して深さ値を復元する一例を説明するための図である。図8に示すように、深さ映像処理装置は、深さ値が存在しないピクセル820の深さ値を周辺ピクセル810、830を用いて算出する。例えば、深さ映像処理装置は、深さ値が存在しないピクセル820と周辺ピクセル810、830間の距離に基づいた加重値を考慮してピクセル820の深さ値を算出する。但し、ここで、周辺ピクセルは上の実施形態に限定されず、深さ値が存在しないピクセル820と隣接する全てのピクセルが当該する。
ピクセル820の深さ値はの下記の数式(7)と数式(8)を用いて算出される。
数式(7)は、変調周波数f1に対応する任意のピクセルiで測定したZ軸方向の深さ値
を算出するための式に定義される。数式(8)は、変調周波数f2に対応する任意のピクセルjで測定したZ軸方向の深さ値
を算出するための式に定義される。ここで、Z軸方向は深さ映像生成装置の正面を示す方向であり、wijはピクセルiの深さ値を生成するためにピクセルjの深さ値に適用する加重値である。
Z軸方向の深さ値が算出されれば、3次元ポイントの残りX、Y方向の座標はカメラ行列の固有パラメータを用いて算出してもよい。
図9は、一実施形態に係る深さ値が復元されたピクセル領域の一例を示す図である。図9に示すように、深さ映像処理装置は、深さ値が存在しないピクセル950の深さ値を復元して全体領域で深さ値を有するピクセル領域930、940を生成する。
ピクセル領域910は、変調周波数f1に対応するピクセル960と深さ値を有しないピクセル950を共に含んでもよい。また、ピクセル領域920は、変調周波数f2に対応するピクセル970と深さ値を有しないピクセル950を共に含んでもよい。深さ映像処理装置は、周辺ピクセルの深さ値を用いて深さ値を復元したり、深さ値が存在しないピクセル950と周辺ピクセルとの間の距離に基づいた加重値を考慮してピクセル950の深さ値を復元する。
図10は、図9に示すピクセル領域910、920、930、940を深さ映像に表した一例を示す図である。図10に示す深さ映像1010は図9に示すピクセル領域910に対応する。図9に示すピクセル領域910、920は深さ値を有しないピクセル950を含む。したがって、図9に示すピクセル領域910、920の深さ値を表した深さ映像1010、1020には深さ値が表現されない領域1050が存在する。
深さ映像処理装置は、深さ値が存在しないピクセルの深さ値を復元して全体領域で深さ値を有する深さ映像を表す。深さ値が存在しないピクセルの深さ値を復元して全体領域で深さ値を有する深さ映像が、図10に示す深さ映像1030、1040に図示されている。深さ値の復元過程を経て生成された深さ映像1030、1040は、深さ値が表現されていない領域1050でも深さ値を有することができる。
図11は、一実施形態に係る遠距離の深さ値を調整して深さ映像を表現する一例を示す図である。
深さ映像処理装置は、互いに異なる変調周波数に基づいて分離された深さ映像で深さ値が存在しないピクセルの深さ値を復元する。深さ値の復元された深さ映像1110が図11に図示されている。図11に示す深さ映像1110、1120では被写体までの測定された距離が近いほど明暗が濃く表現されている。深さ映像1110で領域1130が実際の被写体との距離が異なるように測定された領域であれば、これを実際深さ値に調整する必要がある。
すなわち、深さ映像1110で領域1130は、測定された距離よりも遠方に被写体が位置するにも関わらず、被写体が近いところに位置するものと表現されることがある。深さ映像処理装置はこの補正のために、分離された深さ映像それぞれで同一の位置に対応するピクセルの3次元座標値の差を用いて遠距離の深さ値を調整する。または、深さ映像処理装置は、分離された深さ映像それぞれで同一の位置に対応するピクセルの深さ値と周辺ピクセルの深さ値に基づいた加重値を考慮して遠距離の深さ値を調整してもよい。
上記のような方法によって遠距離の深さ値を調整した結果が深さ映像1120に図示されている。深さ映像1120では、領域1130の深さ値が調整されて表現されている。すなわち、深さ映像1120では、実際深さ値に応じて明暗の表現が修正されて領域1130の明暗が明るく表現されている。
図12は、一実施形態に係る深さ映像のピクセルのうち補間されないピクセルの深さ値を組み合わせる一例を示す図である。図12に示すように、深さ映像処理装置は、分離された深さ映像のピクセル領域1210、1220のうち補間されないピクセルの深さ値を組み合わせて新しいピクセル領域1230を合成する。すなわち、深さ映像処理装置は、深さ値が復元された深さ映像を用いて遠距離の深さ値を調整した後、初めから深さ値が存在していたピクセルを組み合わせる。補間されないピクセルの深さ値を組み合わせて生成されたピクセル領域1230は、周辺ピクセルの深さ値に基づいて遠距離の深さ値が復元されたピクセルに構成されてもよい。
図13は、図12に示すピクセル領域を深さ映像で表現した一例を示す図である。図13における各深さ映像1310、1320、1330は図12に示す各ピクセル領域1210、1220、1330に対応する。
深さ映像処理装置は、補間されないピクセルの深さ値を組み合わせて境界付近で深さ値の正確性を向上することができる。例えば、深さ値が存在しないピクセルの深さ値を補間する過程において境界付近の深さ値は大きい誤差を有することがある。しかし、深さ映像処理装置は、深さ値が復元されていないピクセルの深さ値を組み合わせる方式を用いて境界付近で深さ値をより正確に表現することができる。また、深さ映像処理装置は上記の方法を用いて深さ映像のノイズを最小化することができる。
深さ映像1310、1320では深さ値が復元されたピクセルによって境界付近で誤差を有することがある。具体的に、境界付近における深さ値の変化は相対的に他の領域よりも大きいことがある。ここで、周辺ピクセルの深さ値を用いて深さ値が存在しないピクセルの深さ値を復元する過程を行うと、深さ映像で境界付近ピクセルの深さ値に誤差が発生することがある。
このような誤差を減少するために深さ映像処理装置は深さ値が復元されていないピクセルの深さ値を組み合わせて境界付近で誤差の減少された深さ映像1330を表現することができる。また、上記の過程によって深さ映像処理装置は高画質の深さ値を有する深さ映像を表現することができる。
図14は、一実施形態に係る深さ映像を生成する動作を示すフローチャートである。
ステップS1410において、深さ映像生成装置は互いに異なる変調周波数の光を被写体に照射する。または、深さ映像生成装置は、互いに異なる変調周波数で動作する少なくとも1つの光源から出力された光を被写体に照射してもよい。互いに異なる変調周波数で動作する光源は、水平構造、垂直構造、または格子構造のいずれか1つの構造に構成されてもよい。
ステップS1420において、深さ映像生成装置は、被写体に反射された互いに異なる変調周波数の光を検出する。または、深さ映像生成装置は、互いに異なる変調周波数に対応する少なくとも1つのピクセルを用いて光を検出してもよい。互いに異なる変調周波数に対応するピクセルは、水平構造、垂直構造、または格子構造のいずれか1つの構造に構成されてもよい。
ステップS1430において、深さ映像生成装置は、互いに異なる変調周波数の光を用いて被写体までの距離に関連する深さ映像を生成する。深さ映像生成装置は、被写体に照射された光の強度と被写体で反射された光の強度を用いて被写体までの距離を算出することができる。
図15は、一実施形態に係る深さ映像を処理する動作を示すフローチャートである。
ステップS1510において、深さ映像処理装置は、互いに異なる変調周波数に基づいて深さ映像を分離する。例えば、深さ映像処理装置は、それぞれの異なる変調周波数の信号を検出する空間上と混合されたピクセルによって取得された一枚の二重周波数(dual−frequency)深さ映像を用いて互いに異なる変調周波数で取得された2つの深さ映像を生成してもよい。または、深さ映像処理装置は、深さ映像を互いに異なる変調周波数に対応するピクセル領域に分離してもよい。
ステップS1520において、深さ映像処理装置は、互いに異なる変調周波数に基づいて分離された深さ映像を補間して深さ値を復元する。具体的に、深さ映像処理装置は、互いに異なる変調周波数ごとに分離された深さ映像で深さ値が存在しない現在ピクセルの深さ値を復元する。または、深さ映像処理装置は、深さ値が存在しない現在ピクセルの周辺ピクセルを用いて現在ピクセルの深さ値を復元したり、深さ値が存在しない現在ピクセルと周辺ピクセルとの間の距離に基づいた加重値を考慮して現在ピクセルの深さ値を復元してもよい。
ステップS1530において、深さ映像処理装置は、深さ値が復元された深さ映像を用いて遠距離の深さ値を調整する。具体的に、深さ映像処理装置は、分離された深さ映像それぞれで同一の位置に対応するピクセルの3次元座標値の差を用いて遠距離の深さ値を調整する。そして、深さ映像処理装置は、分離された深さ映像それぞれで同一の位置に対応するピクセルの深さ値と周辺ピクセルの深さ値に基づいた加重値を考慮して遠距離の深さ値を調整する。また、深さ映像処理装置は、分離された深さ映像それぞれで全てのピクセルの3次元座標値の差に基づいた費用関数の値を最小化して遠距離の深さ値を調整してもよい。
ステップS1540において、深さ映像処理装置は、遠距離の深さ値が調整された深さ映像を合成する。具体的に、深さ映像処理装置は、分離された深さ映像のピクセルのうち、補間されないピクセルの深さ値を組み合わせて深さ映像を合成することができる。深さ映像処理装置は、これによって境界付近で深さ値の正確性を向上させ得る。
実施形態に係る方法は、多様なコンピュータ手段を介して様々な処理を実行することができるプログラム命令の形態で実現され、コンピュータ読取可能な記録媒体に記録されてもよい。コンピュータ読取可能な媒体は、プログラム命令、データファイル、データ構造などのうちの1つまたはその組合せを含んでもよい。媒体に記録されるプログラム命令は、本発明の目的のために特別に設計されて構成されたものでもよく、コンピュータソフトウェア分野の技術を有する当業者にとって公知のものであり、使用可能なものであってもよい。コンピュータ読取可能な記録媒体の例としては、ハードディスク、フロッピー(登録商標)ディスク及び磁気テープのような磁気媒体、CD−ROM、DVDのような光記録媒体、光ディスクのような光磁気媒体、及びROM、RAM、フラッシュメモリなどのようなプログラム命令を保存して実行するように特別に構成されたハードウェア装置が含まれてもよい。プログラム命令の例としては、コンパイラによって生成されるような機械語コードだけでなく、インタプリタなどを用いてコンピュータによって実行され得る高級言語コードを含む。上述したハードウェア装置は、本発明の動作を行うために1つ以上のソフトウェアのレイヤで動作するように構成されてもよい。
上述したように、本発明を限定された実施形態と図面によって説明したが、本発明は、上記の実施形態に限定されることなく、本発明が属する分野における通常の知識を有する者であれば、このような実施形態から多様な修正及び変形が可能である。
したがって、本発明の範囲は、開示された実施形態に限定されるものではなく、特許請求の範囲だけではなく特許請求の範囲と均等なものなどによって定められるものである。
110、210、410 深さ映像生成装置
120、310 深さ映像処理装置
220 照射部
230 検出部
240 生成部
320 分離部
330 復元部
340 調整部
350 合成部
420、430 光源
510、520、740、750、760、810、820、830、950、960 ピクセル
710、720、730、910、920、930、940、1210、1220、1330 ピクセル領域
1010、1020、1030、1040、1110、1120、1310、1320、1330 深さ映像
1130 領域

Claims (17)

  1. 互いに異なる変調周波数で作動する少なくとも1つの光源から出力された互いに異なる変調周波数の光を被写体に照射するステップと、
    互いに異なる変調周波数で作動するピクセルのうち少なくとも1つのピクセルを用いて前記被写体に反射された互いに異なる変調周波数の光を検出するステップと、
    前記互いに異なる変調周波数の光を用いて被写体までの距離に関連する深さ映像を生成するステップと、
    を含み、
    前記生成された深さ映像は、互いに異なる変調周波数で取得したイメージ領域を含むことを特徴とする深さ映像生成方法。
  2. 前記光を被写体に照射するステップは、水平構造、垂直構造、及び格子構造のうち少なくとも1つの構造に構成された光源から出力された光を被写体に照射することを特徴とする請求項に記載の深さ映像生成方法。
  3. 前記互いに異なる変調周波数の光を検出するステップは、水平構造、垂直構造、及び格子構造のうち少なくとも1つの構造に構成されたピクセルを用いて光を検出することを特徴とする請求項1乃至のいずれか一項に記載の深さ映像生成方法。
  4. 前記被写体までの距離に関連する深さ映像を生成するステップは、前記被写体に照射された光の強度と前記被写体で反射された光の強度を用いて、前記被写体までの距離を算出することを特徴とする請求項1乃至のいずれか一項に記載の深さ映像生成方法。
  5. 互いに異なる変調周波数に基づいて深さ映像を分離するステップと、
    前記分離された深さ映像を補間して深さ値を復元するステップと、
    前記深さ値が復元された深さ映像を用いて遠距離の深さ値を調整するステップと、
    前記遠距離の深さ値が調整された前記分離された深さ映像を合成するステップと、
    を含み、
    前記深さ映像は、互いに異なる変調周波数それぞれで取得したイメージ領域を含み、
    前記遠距離は、前記変調周波数の光を用いて測定できる最大距離よりも遠いため、前記遠距離に存在する被写体の深さ値を測定するときには位相ラッピング現象が発生することを特徴とする深さ映像処理方法。
  6. 前記深さ映像を分離するステップは、前記深さ映像を互いに異なる変調周波数に対応するピクセル領域に分離することを特徴とする請求項に記載の深さ映像処理方法。
  7. 前記深さ映像を分離するステップは、第1変調周波数と第2変調周波数で取得されたイメージの部分を含む1つの深さ映像から第1変調周波数によって取得された第1深さ映像、及び第2変調周波数によって取得された第2深さ映像を抽出することを特徴とする請求項または請求項に記載の深さ映像処理方法。
  8. 前記深さ値を復元するステップは、前記互いに異なる変調周波数ごとに分離された深さ映像で深さ値が存在しない現在ピクセルの深さ値を前記現在ピクセルの周辺ピクセルを用いて復元することを特徴とする請求項乃至のいずれか一項に記載の深さ映像処理方法。
  9. 前記深さ値を復元するステップは、前記深さ値が存在しない現在ピクセルと周辺ピクセルとの間の距離に基づいた加重値を考慮して現在ピクセルの深さ値を復元することを特徴とする請求項に記載の深さ映像処理方法。
  10. 前記遠距離の深さ値を調整するステップは、前記分離された深さ映像それぞれで同一の位置に対応するピクセルの3次元座標値の差を用いて遠距離の深さ値を調整することを特徴とする請求項乃至のいずれか一項に記載の深さ映像処理方法。
  11. 前記遠距離の深さ値を調整するステップは、前記分離された深さ映像それぞれで同一の位置に対応するピクセルの深さ値と周辺ピクセルの深さ値に基づいた加重値を考慮して遠距離の深さ値を調整することを特徴とする請求項乃至10のいずれか一項に記載の深さ映像処理方法。
  12. 前記遠距離の深さ値を調整するステップは、前記分離された深さ映像それぞれで全てのピクセルの3次元座標値の差に基づいた費用関数の値を最小化して遠距離の深さ値を調整することを特徴とする請求項乃至11のいずれか一項に記載の深さ映像処理方法。
  13. 前記深さ値が調整された深さ映像を合成するステップをさらに含むことを特徴とする請求項乃至12のいずれか一項に記載の深さ映像処理方法。
  14. 前記深さ映像を合成するステップは、前記分離された深さ映像のピクセルのうち補間されないピクセルの深さ値を組み合わせることを特徴とする請求項13に記載の深さ映像処理方法。
  15. 互いに異なる変調周波数で作動する少なくとも1つの光源から出力された互いに異なる変調周波数の光を被写体に照射する照射部と、
    互いに異なる変調周波数で作動するピクセルのうち少なくとも1つのピクセルを用いて前記被写体に反射された互いに異なる変調周波数の光を検出する検出部と、
    前記互いに異なる変調周波数の光を用いて被写体までの距離に関連する深さ映像を生成する生成部と、
    を備え
    前記生成された深さ映像は、互いに異なる変調周波数で取得したイメージ領域を含むことを特徴とする深さ映像生成装置。
  16. 前記検出部は、ピクセルの配列を用いて被写体から反射された互いに異なる変調周波数の光を検出し、
    前記ピクセルの配列は、第1変調周波数の光を検出するように構成された複数の第1ピクセルと第2変調周波数の光を検出するように構成された複数の第2ピクセルとを含むことを特徴とする請求項15に記載の深さ映像生成装置。
  17. 前記第1ピクセル及び前記第2ピクセルは、格子構造で交代に配列されたことを特徴とする請求項16に記載の深さ映像生成装置。
JP2013117744A 2012-06-05 2013-06-04 深さ映像生成方法及び装置、深さ映像処理方法及び装置 Active JP6309210B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020120060616A KR101871235B1 (ko) 2012-06-05 2012-06-05 깊이 영상 생성 방법 및 장치, 깊이 영상 처리 방법 및 장치
KR10-2012-0060616 2012-06-05

Publications (2)

Publication Number Publication Date
JP2013253971A JP2013253971A (ja) 2013-12-19
JP6309210B2 true JP6309210B2 (ja) 2018-04-11

Family

ID=48700266

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013117744A Active JP6309210B2 (ja) 2012-06-05 2013-06-04 深さ映像生成方法及び装置、深さ映像処理方法及び装置

Country Status (5)

Country Link
US (1) US10091491B2 (ja)
EP (1) EP2672290B1 (ja)
JP (1) JP6309210B2 (ja)
KR (1) KR101871235B1 (ja)
CN (1) CN103473794B (ja)

Families Citing this family (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150037366A (ko) * 2013-09-30 2015-04-08 삼성전자주식회사 깊이 영상의 노이즈를 저감하는 방법, 이를 이용한 영상 처리 장치 및 영상 생성 장치
TWI519884B (zh) * 2014-01-23 2016-02-01 鈺創科技股份有限公司 產生深度資訊的裝置、產生深度資訊的方法和立體攝影機
KR102307610B1 (ko) * 2014-01-29 2021-10-05 엘지이노텍 주식회사 깊이 정보 추출 장치
KR102101864B1 (ko) * 2014-01-29 2020-04-20 엘지이노텍 주식회사 깊이 정보 추출 장치
US9523765B2 (en) * 2014-07-14 2016-12-20 Omnivision Technologies, Inc. Pixel-level oversampling for a time of flight 3D image sensor with dual range measurements
KR102364084B1 (ko) * 2014-10-21 2022-02-17 엘지전자 주식회사 이동단말기 및 그 제어방법
US9823352B2 (en) 2014-10-31 2017-11-21 Rockwell Automation Safety Ag Absolute distance measurement for time-of-flight sensors
WO2017006546A1 (ja) * 2015-07-03 2017-01-12 パナソニックIpマネジメント株式会社 距離測定装置および距離画像合成方法
CN106527761A (zh) * 2015-09-10 2017-03-22 义明科技股份有限公司 非接触式光学感测装置及三维空间物件深度位置感测方法
KR102372088B1 (ko) 2015-10-29 2022-03-08 삼성전자주식회사 영상 획득 장치 및 영상 획득 방법
CN108663682A (zh) * 2017-03-28 2018-10-16 比亚迪股份有限公司 障碍物测距***及具有其的车辆和tof测距方法
CN107608080A (zh) * 2017-10-31 2018-01-19 深圳增强现实技术有限公司 智能ar眼镜及智能ar眼镜景深信息获取方法
US11180373B2 (en) 2017-11-29 2021-11-23 Samsung Electronics Co., Ltd. Nanocrystalline graphene and method of forming nanocrystalline graphene
WO2019132777A1 (en) * 2017-12-27 2019-07-04 Ams Sensors Singapore Pte. Ltd. Optoelectronic modules and methods for operating the same
US10382736B1 (en) * 2018-02-09 2019-08-13 Infineon Technologies Ag Two frequency time-of-flight three-dimensional image sensor and method of measuring object depth
CN108717326A (zh) * 2018-05-11 2018-10-30 深圳增强现实技术有限公司 一种基于ar眼镜的防干扰的手势识别方法及ar眼镜
KR102532605B1 (ko) 2018-07-24 2023-05-15 삼성전자주식회사 나노결정질 그래핀 캡층을 포함하는 인터커넥트 구조체 및 이 인터커넥트 구조체를 포함하는 전자 소자
US11217531B2 (en) 2018-07-24 2022-01-04 Samsung Electronics Co., Ltd. Interconnect structure having nanocrystalline graphene cap layer and electronic device including the interconnect structure
KR20200011821A (ko) 2018-07-25 2020-02-04 삼성전자주식회사 탄소물 직접 성장방법
CN108833889B (zh) * 2018-08-22 2020-06-23 Oppo广东移动通信有限公司 控制方法及装置、深度相机、电子装置及可读存储介质
US10708514B2 (en) * 2018-08-30 2020-07-07 Analog Devices, Inc. Blending depth images obtained with multiple exposures
CN110956657B (zh) * 2018-09-26 2023-06-30 Oppo广东移动通信有限公司 深度图像获取方法及装置、电子设备及可读存储介质
KR102601607B1 (ko) 2018-10-01 2023-11-13 삼성전자주식회사 그래핀의 형성방법
KR102668245B1 (ko) * 2018-10-29 2024-05-23 삼성전자주식회사 3차원 깊이 측정 장치 및 방법
CN111989735B (zh) * 2019-03-21 2022-05-17 京东方科技集团股份有限公司 显示装置、电子设备及显示装置的驱动方法
KR20200126721A (ko) 2019-04-30 2020-11-09 삼성전자주식회사 그래핀 구조체 및 그래핀 구조체의 형성방법
CN110673114B (zh) * 2019-08-27 2023-04-18 三赢科技(深圳)有限公司 校准三维相机深度的方法、装置、计算机装置及存储介质
US11619723B2 (en) * 2019-09-23 2023-04-04 Microsoft Technology Licensing, Llc Multiple-mode frequency sharing for time-of-flight camera
CN111445404B (zh) * 2020-03-23 2024-06-25 上海数迹智能科技有限公司 一种基于双频和概率模型的相位去模糊方法
KR20220075016A (ko) * 2020-11-26 2022-06-07 삼성전자주식회사 이미징 장치
CN112526546B (zh) * 2021-02-09 2021-08-17 深圳市汇顶科技股份有限公司 深度信息确定方法及装置
CN113238215A (zh) * 2021-07-09 2021-08-10 武汉市聚芯微电子有限责任公司 一种测距方法及ToF测距装置、存储介质

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5699444A (en) 1995-03-31 1997-12-16 Synthonics Incorporated Methods and apparatus for using image data to determine camera location and orientation
US6122042A (en) * 1997-02-07 2000-09-19 Wunderman; Irwin Devices and methods for optically identifying characteristics of material objects
US6424422B1 (en) 1998-06-18 2002-07-23 Minolta Co., Ltd. Three-dimensional input device
JP2002526989A (ja) 1998-09-28 2002-08-20 スリーディーヴィー システムズ リミテッド カメラを用いた距離測定
US7841533B2 (en) * 2003-11-13 2010-11-30 Metrologic Instruments, Inc. Method of capturing and processing digital images of an object within the field of view (FOV) of a hand-supportable digitial image capture and processing system
KR100513055B1 (ko) 2003-12-11 2005-09-06 한국전자통신연구원 변이지도 및 깊이지도의 융합을 통한 3차원 장면 모델생성 장치 및 그 방법
JP4631606B2 (ja) 2005-03-07 2011-02-16 日本電信電話株式会社 画像の奥行分布推定方法及び装置及びプログラム
KR100748719B1 (ko) 2005-07-14 2007-08-13 연세대학교 산학협력단 다중 스테레오 카메라를 이용한 3차원 모델링 장치 및 그방법
US7551771B2 (en) * 2005-09-20 2009-06-23 Deltasphere, Inc. Methods, systems, and computer program products for acquiring three-dimensional range information
US7791715B1 (en) * 2006-10-02 2010-09-07 Canesta, Inc. Method and system for lossless dealiasing in time-of-flight (TOF) systems
US7923801B2 (en) 2007-04-18 2011-04-12 Invisage Technologies, Inc. Materials, systems and methods for optoelectronic devices
US8525287B2 (en) * 2007-04-18 2013-09-03 Invisage Technologies, Inc. Materials, systems and methods for optoelectronic devices
KR100930286B1 (ko) 2007-12-24 2009-12-09 연세대학교 산학협력단 변이 추정 시의 비용 함수 연산 방법 및 가려진 영역 처리방법
JP5173665B2 (ja) 2008-08-08 2013-04-03 キヤノン株式会社 画像撮影装置およびその距離演算方法と合焦画像取得方法
JP2012501608A (ja) * 2008-08-28 2012-01-19 メサ・イメージング・アー・ゲー デイジーチェーン構成の電荷格納領域を有する復調ピクセルおよびそれを操作する方法
KR101020999B1 (ko) 2009-01-05 2011-03-09 엘지이노텍 주식회사 촬영 장치 및 이의 영상 제어방법
KR101626072B1 (ko) 2009-11-13 2016-06-13 삼성전자주식회사 영상 보정 장치 및 영상 보정 방법
KR20110064622A (ko) 2009-12-08 2011-06-15 삼성전자주식회사 티오에프 카메라를 이용한 3차원 에지 추출 방법 및 장치
US8320621B2 (en) * 2009-12-21 2012-11-27 Microsoft Corporation Depth projector system with integrated VCSEL array
US8514269B2 (en) * 2010-03-26 2013-08-20 Microsoft Corporation De-aliasing depth images
KR101666854B1 (ko) 2010-06-14 2016-10-17 삼성전자주식회사 복수 개의 깊이 영상에 기초한 깊이 영상 접힘 제거 장치 및 방법
KR101666020B1 (ko) * 2010-06-25 2016-10-25 삼성전자주식회사 깊이 영상 생성 장치 및 그 방법
US9753128B2 (en) * 2010-07-23 2017-09-05 Heptagon Micro Optics Pte. Ltd. Multi-path compensation using multiple modulation frequencies in time of flight sensor
JP6073786B2 (ja) * 2010-07-29 2017-02-01 ワイカトリンク リミテッド 対象物の距離特性および/または輝度特性を測定する装置および方法
WO2013129387A1 (ja) * 2012-03-01 2013-09-06 日産自動車株式会社 距離計測装置及び距離計測方法

Also Published As

Publication number Publication date
CN103473794B (zh) 2018-05-29
EP2672290A3 (en) 2014-03-12
EP2672290B1 (en) 2023-10-04
US20130321584A1 (en) 2013-12-05
KR20130136872A (ko) 2013-12-13
JP2013253971A (ja) 2013-12-19
EP2672290A2 (en) 2013-12-11
CN103473794A (zh) 2013-12-25
US10091491B2 (en) 2018-10-02
KR101871235B1 (ko) 2018-06-27

Similar Documents

Publication Publication Date Title
JP6309210B2 (ja) 深さ映像生成方法及び装置、深さ映像処理方法及び装置
EP3293698B1 (en) Time-of-flight measuring apparatus and image processing method for reducing blur of depth image therein
KR101389841B1 (ko) 파노라마 영상 데이터 제공 방법 및 장치
KR101863626B1 (ko) 영상 처리 장치 및 방법
JP6187640B2 (ja) 画像合成方法及び装置
JP5452116B2 (ja) 高解像度映像取得装置およびその方法
JP6476831B2 (ja) 視差演算システム、情報処理装置、情報処理方法及びプログラム
KR20100085675A (ko) 깊이 정보를 이용한 깊이 노이즈 필터링 방법 및 장치
KR101181199B1 (ko) 배경 지형 장면의 입체 이미지 생성 방법, 시스템 및 이를 위한 기록매체
JPWO2017159312A1 (ja) 画像処理装置、撮像装置、および画像処理方法、並びにプログラム
KR20130003135A (ko) 다시점 카메라를 이용한 라이트 필드 형상 캡처링 방법 및 장치
WO2014108976A1 (ja) 物体検出装置
KR102076494B1 (ko) 3차원 데이터 처리 장치 및 방법
JP2017083427A5 (ja)
JP5307953B1 (ja) 立体画像処理装置、立体画像処理方法、および立体画像処理プログラム
KR20150133591A (ko) 3차원 영상 획득 방법, 장치 및 컴퓨터 판독 가능한 기록 매체
KR102039741B1 (ko) 영상 워핑을 위한 장치 및 방법
KR20130006246A (ko) 깊이 영상 변환 장치 및 방법
JP6016403B2 (ja) 画像処理装置、画像処理方法
KR20090082816A (ko) 평행한 레이저 빔을 이용한 다중 카메라 교정 방법 및시스템
KR20160098543A (ko) 다중 입력 영상 보정 장치 및 방법
JP2014016792A (ja) 画像処理装置および方法、並びにプログラム
KR20130122419A (ko) 깊이 에지를 사용한 영상 합성 장치 및 방법
KR101501591B1 (ko) 로컬 워핑과 텍스쳐 합성을 이용한 스테레오 영상의 초점 보정 방법 및 그 장치
JP2013172367A (ja) 画像処理装置、画像処理方法およびコンピュータプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160603

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170613

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170912

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180220

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180314

R150 Certificate of patent or registration of utility model

Ref document number: 6309210

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250