JP6216143B2 - 画像処理装置、その制御方法、およびプログラム - Google Patents

画像処理装置、その制御方法、およびプログラム Download PDF

Info

Publication number
JP6216143B2
JP6216143B2 JP2013086916A JP2013086916A JP6216143B2 JP 6216143 B2 JP6216143 B2 JP 6216143B2 JP 2013086916 A JP2013086916 A JP 2013086916A JP 2013086916 A JP2013086916 A JP 2013086916A JP 6216143 B2 JP6216143 B2 JP 6216143B2
Authority
JP
Japan
Prior art keywords
image
arbitrary viewpoint
block
input
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013086916A
Other languages
English (en)
Other versions
JP2014026641A (ja
JP2014026641A5 (ja
Inventor
靖浩 伊藤
靖浩 伊藤
陽輔 佐藤
陽輔 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013086916A priority Critical patent/JP6216143B2/ja
Priority to US13/901,834 priority patent/US9092840B2/en
Publication of JP2014026641A publication Critical patent/JP2014026641A/ja
Publication of JP2014026641A5 publication Critical patent/JP2014026641A5/ja
Application granted granted Critical
Publication of JP6216143B2 publication Critical patent/JP6216143B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Image Processing (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Image Analysis (AREA)

Description

本発明は、複数視点より撮像された複数の画像から任意視点における画像を生成する、画像処理装置、その制御方法、およびプログラムに関する。
異なる複数視点より撮像された全周画像(視点から360°の全周囲が記録された画像)を用いて、任意視点から撮像した場合に得られる画像を生成する技術(任意視点映像生成技術)が提案されている。一般に、このような任意視点画像生成処理を行なう技術としては、特許文献1や非特許文献1などが知られている。
特開平11−175762号公報
視点位置に応じた3次元メッシュモデルの逐次生成による全方位動画像からの自由視点画像生成(「画像の認識・理解シンポジウム(MIRU2009)」−2009年7月)
特許文献1には、複数の撮像装置から取得した複数の全周画像を用いて、任意視点からの画像を生成する構成が記載されている。特許文献1で示される技術では、入力画像から抽出される特徴点を用いて、任意視点画像を生成する際に用いる視差情報を算出している。より具体的には、一方の入力画像視点とその入力画像上の特徴点を結ぶ視線方向をマッチングの基準として、他方の入力画像から抽出される特徴点をマッチングさせていた。ここで、マッチングにより得られる特徴点間の位置ずれ量に関する情報が視差情報として検出される。このように、視差情報は、一方の入力画像の視点とその入力画像上の特徴点とを結ぶ視線方向を基準として検出されるため、この視線方向以外の画像領域において視差情報を検出することは困難であった。
また、非特許文献1に示される技術では、視差情報により任意視点映像を生成する際に、視差が検出されない画像領域においては、隣接する特徴点位置における視差情報を用いて、画像情報を補償していた。用いた視差情報は幾何的に正確ではなく、このため、任意視点映像の画質が低かった。
本発明は、上記課題に鑑みてなされたものであり、複数の入力画像から生成される任意視点画像の画質を向上させることを目的とする。
上記の目的を達成するための、本発明の一態様による画像処理装置は以下の構成を有する。すなわち、
複数の入力画像を用いて任意視点の画像を生成する画像処理装置であって、
前記任意視点と該任意視点の画像上の画素位置を通る第一の直線に沿う点が前記複数の入力画像の各々に投影される投影位置の画像情報を取得する取得手段と、
前記第一の直線に沿って、前記任意視点からの複数の距離に複数の点を設定し、各距離において前記複数の入力画像から前記取得手段により取得された画像情報についてマッチング評価値を算出し、当該マッチング評価値に基づく、前記画素位置における前記複数の入力画像の視差情報を算出する算出手段と、
前記画素位置の画像情報を、該画素位置に対する視差情報を用いて前記複数の入力画像から算出することにより、前記任意視点の画像を生成する生成手段と、
前記任意視点の画像を分割して得られた任意視点ブロックに含まれる複数の画素位置と前記任意視点を通る複数の第一の直線に沿う前記任意視点からの距離が等しい複数の点を設定し、前記複数の点と前記入力画像の視点を通る複数の第二の直線が前記入力画像の投影面と交わる複数の投影位置の画像情報を前記取得手段を用いて得ることにより、前記任意視点ブロックに対応した前記入力画像におけるブロック画像を決定する決定手段と、を有し、
前記取得手段は、前記第一の直線に沿う点と前記入力画像の視点を通る第二の直線が、前記入力画像の投影面と交わる位置を前記投影位置に決定し、前記投影位置における画像情報を、前記入力画像の該投影位置に隣接する画素の情報を用いて補間することにより生成し、
前記算出手段は、前記決定手段により決定されたブロック画像の情報に基づいて前記任意視点ブロックに対する視差情報を、該任意視点ブロックの中の全ての画素位置に対する視差情報として算出する
本発明によれば、複数の入力画像から生成される任意視点画像の画質を向上させることができる。
実施形態による任意視点画像の生成を説明する模式図。 実施形態のコンピュータのハードウェア構成例を示す図。 実施形態の入力装置を示す模式図。 実施形態の入力画像の投影形状を示す模式図。 実施形態による全体の処理を示すフローチャート。 実施形態による視差マップ生成処理を示すフローチャート。 実施形態による入力画像を用いたブロック分割処理を説明する図。 実施形態による処理を示すフローチャート。 実施形態による処理を示すフローチャート。 実施形態による画素補間生成処理を示す模式図。 実施形態による処理を示すフローチャート。 実施形態2による視差マップ生成処理を示すフローチャート。 実施形態2によるコンピュータグラフィックス用光源画像生成処理の概要を示す図。 実施形態2による視差マップ生成処理内のブロック画像解像度決定の概要を示す図。
以下、添付の図面を参照して本発明の好適な実施形態について説明する。
[実施形態1]
本実施形態の概要として、図を用いて本発明の従来技術に対する差異・特徴を説明する。図1は、特許文献1に記載された技術と本実施形態との違いを説明するための模式図である。一般的に、視差情報(視差ベクトル)を算出するためには、複数の画像を用いて、画像データの対応位置を特定する必要がある。特許文献1に記載の技術および本実施形態では、3次元空間における3次元モデルに基づいて、その視差情報を算出する。
なお、本実施形態においては、2次元空間における2次元モデルを併用して説明を行なう。以下の説明において、3次元空間の所定の位置に視点が配置される全周画像は、XZ平面上に配置されるものとする。また、説明中で用いられる光線関数は以下の直線関数である。
R(t)=O+tD 数1
数1において、tはスカラーで表される距離パラメータであり、R(t)、O、Dはベクトルである。3次元空間における3次元モデルでは、ベクトルは3次元ベクトルであり、座標値や方向を示すために用いられる。2次元空間における2次元モデルではベクトルは2次元ベクトルであり、同様に座標値や方向を示すために用いられる。
図1(A)は、特許文献1に記載されている、視差情報の算出方法を示す模式図である。図1(A)において、101、102は入力画像を表す。特許文献1においては、これらの入力画像のうち一つを選択する。ここでは、入力画像101を選択し、さらに、入力画像101の投影面に対応した所定の円周上の一点p1_i1を選択する。なお、円周上の点には、画像情報が記録されている。入力画像101は、円中心O_1が定義されており、当該円中心O_1の座標値O1と所定の一点p1_i1より、以下の数2で表される直線R1を描くことができる。数2において、D1は円中心O_1と点p1_i1より算出される方向ベクトルであり、大きさが1の単位方向ベクトルである。t1は距離パラメータである。
R1(t1)=O1+t1×D1 数2
数2において、t1に所定の値を入力することで、数1で表される直線上の点を特定できる。例えば、点p1_i1が図1(A)のように特定されるときはt1=1である。また、点p1_i2、p1_i3、p1_i4が図1(A)のように特定されるときは、それぞれt1=a、t1=b、t1=c(1<a<b<c)である。
次に、平面上の特徴点p1_i2の、入力画像102における投影位置p2_i2を算出する。まず、投影位置p2_i2と円中心O_2を通る直線R2は数2のように表される。ここでO2は円中心O_2のの座標値あり、D2は円中心O_2と点p1_i2より算出される単位方向ベクトルである。t2は距離パラメータである。
R2(t2)=O2+t2×D2 数3
数3を数4のように式変形することで、投影位置p2_i2を得る。数4において、standは入力されたベクトルの単位ベクトルを返す関数(R’=stand(R))である。
D2=stand(R2(t2)−O2) 数4
ここで単位ベクトルとstandについて補足する。ベクトルRに対してその単位ベクトルR’は、R’=R/|R|=R/rと表される。ここで、r=|R|はベクトルRの長さである。
xyzの3次元空間を扱うときは、R=xI+yJ+zKと表すことができる。I、J、Kはそれぞれ、x、y、zの各軸方向の単位ベクトルである。ベクトルの長さは|R|=sqrt(x+y+z)と表される。sqrtは入力された値の平方根を返す関数である。したがって、単位ベクトルR’は以下の数5で表される。
R’=stand(R)=x/|R|I+y/|R|J+z/|R|K 数5
xzの2次元平面を扱うときは、R=xI+zKと表すことができる。ベクトルの長さは|R|=sqrt(x+z)と表される。したがって、単位ベクトルR’は以下の数6で表される。
R’=stand(R)=x/|R|I+z/|R|K 数6
次に、点p1_i1に記録されている画像情報と投影位置p2_i2に記録されている画像情報とのマッチング評価値を算出する。このマッチング評価値をi(1−2)とする。なお、マッチング評価値についての詳細は後述する。同様に、特徴点p1_i3についても、入力画像102における投影位置p2_i3を算出する。そして、点p1_i1に記録されている画像情報と投影位置p2_i3に記録されている画像情報とのマッチング評価値i(1−3)を算出する。特徴点p1_i4についても同様にして、マッチング評価値i(1−4)を算出する。
上述のようにして算出されたマッチング評価値i(1−2)、i(1−3)、i(1−4)を比較することにより、視差が算出される。この特許文献1に記載の視差とは、具体的には、マッチング評価値が一番高かった平面上の特徴点(p1_i2、p1_i3、p1_i4のいずれか)までの円中心O_1からの距離である。
視差がi(1−2)と算出された場合、任意視点画像103からは、任意視点画像103の円中心O_3と特徴点p1_i2を結ぶ直線上の投影位置p3_i2に画像情報が記録されるのが幾何的に妥当である。ここで、投影位置p3_i2は以下のように算出される。まず、投影位置p3_i2と円中心O_3を通る直線R3は数7のように表され、ここで、O3は円中心O_3の座標値あり、D3は円中心O_3と特徴点p1_i2より算出される単位方向ベクトルである。t3は距離パラメータである。
R3(t3)=O3+t3×D3 数7
数7を数8のように式変形することで、投影位置p3_i2を得る。
D3=stand(R3(t3)−O3) 数8
同様にして、投影位置p3_i3と投影位置p3_i4も算出できる。
このように、特許文献1に記載の技術では、入力画像101の円中心O_1を通る数2で表される直線R1に視差が算出される。このため、任意視点画像103における投影位置は、入力画像101と入力画像102の視差に依存してしまい、一意に特定されない。
一方、図1(B)は、本実施形態による視差情報の算出方法を示す模式図である。本実施形態においては、まず任意視点画像106が選択される。選択された任意視点画像106において、投影面に対応した所定の円周上の一点p6_i1(画素位置)が選択される。任意視点画像106は、円中心O_6(任意視点)が定義されており、円中心O_6の座標値O6と円周上の所定の一点p6_i1により、以下の数9で表される直線を描くことができる。数9において、D6は円中心O_6と点p6_i1より算出される単位方向ベクトルである。また、t6は距離パラメータであり、t6に所定の値を入力することで、数9で表される直線上の点を特定できる。
R6(t6)=O6+t6×D6 数9
例えば、点p6_i1が図1(B)のように特定されているときはt6=1である。また、点p6_i2、p6_i3、p6_i4が図1(B)のように特定されているときは、それぞれt6=d、t6=e、t6=f(1<d<e<f)である。
次に、平面上の一点p6_i2について、入力画像107における投影位置p7_i2を以下の数10、数11を用いて算出する。ここでO7は、入力画像107の投影面に対応した円の円中心O_7の座標値あり、D7は円中心O_7と点p6_i2より算出される単位方向ベクトルである。D7は入力画像107における円中心O_7から距離1の位置に形成される画像平面上の投影位置p7_i2に一致する。t7は距離パラメータである。
R7(t7)=O7+t7×D7 数10
D7=stand(R7(t7)−O7) 数11
同様に、入力画像108において、平面上の一点p6_i2に対する投影位置p8_i2を以下の数12、数13を用いて算出する。O8は入力画像107の投影面に対応した円の円中心O_8の座標値あり、D8は円中心O_8と点p6_i2より算出される単位方向ベクトルである。D8は入力画像108における円中心O_8から距離1の位置に形成される画像平面上の投影位置p8_i2に一致する。t8は距離パラメータである。
R8(t8)=O8+t8×D8 数12
D8=stand(R8(t8)−O8) 数13
次に、入力画像107の投影位置p7_i2に記録されている画像情報と、入力画像108の投影位置p8_i2に記録されている画像情報とのマッチング評価値を算出する。そのマッチング評価値をi(6−2)とする。同様に、点p6_i3についても、入力画像107における投影位置p7_i3と、入力画像108における投影位置p8_i3を算出し、この2つの投影位置に記録されている画像情報のマッチング評価値を算出する。そのマッチング評価値をi(6−3)とする。点p6_i4についても同様にして、マッチング評価値i(6−4)を算出する。
上述のように算出された評価値i(6−2)、i(6−3)、i(6−4)を比較することで、点p6_i1(画素位置)における視差が算出される。本実施形態による視差とは、具体的には、マッチング評価値が一番高かった平面上の一点までの円中心O_6からの距離である。評価値i(6−2)、i(6−3)、i(6−4)のいずれが最大の評価値となっても、任意視点画像106の円中心O_6と点p6_i2〜4を結ぶ直線上の点p6_i1の位置に画像情報が記録されるのが幾何的に妥当である。このように、本実施形態では任意視点画像106の円中心O_6を通る数9で表される直線R6に視差が算出される。このため、任意視点画像106における投影位置は、視差に依存せず一意に特定される。なお、入力画像107、108、および、これらから生成される任意視点画像106は、静止画像であっても動画像であってもよい。
(画像処理装置)
図2は、本実施形態によるコンピュータのハードウェア構成の一例を示す図である。CPU(Central Proccesing Unit)201は、外部記憶装置(ハードディスク)207に格納されているOS(Operating System)、アプリケーションプログラム等を実行して画像処理装置200の動作を制御する。なお、CPU201は、対応する処理プログラムを実行する。また、RAM(Random Access Memory)203にプログラムの実行に必要な情報、ファイル等を一時的に格納する制御を行う。ROM(Read Only Memory)202は、基本I/Oプログラム等のプログラムが記憶されている。RAM203は、CPU201の主メモリ、ワークエリア等として機能する。ネットワークI/F204は、PAN(Personal Area Network)、LAN(Local Area Network)、WAN(Wide Area Network)に接続して外部装置と通信するためのインタフェースである。入力装置205は、ユーザーからの入力を受け付けるマウス、キーボードの他、被写体の画像を撮影して画像入力を行うための撮像装置を含むことができる。当該撮像装置を有することにより、画像処理装置200はデジタルカメラ、或いは、デジタルビデオカメラとして機能することができる。
入力装置205における撮像装置は、図3の模式図で示される。撮像装置は、カメラボディ部301、第一の撮像レンズ部302、第二の撮像レンズ部303により構成される。第一の撮像レンズ部302および第二の撮像レンズ部303は、画角180°以上の超広角レンズ相当の光学系を備えている。本発明において、レンズの数は構成要件ではなく、視点の数が構成要件となる。視点の数は2つ以上の複数である。本実施形態では視点は2つとする。また、入力装置205における撮像装置は、図4に示されるような、401で示される全周画像を、複数入力するものとする。全周画像401は、球面に投影された画像であり、球面は視点位置402を中心として、所定の半径403を持つ球の表面である。
図2に戻り、出力装置206は、液晶ディスプレイのような表示装置である。外部記憶装置207は、アプリケーションプログラム、ドライバプログラム、OS(Operating System)、制御プログラム、本実施形態に対応する処理を実行するための処理プログラム等を格納している。システムバス208は、装置内のデータの流れを司る。
(画像処理方法)
図5は、CPU201が実行する本実施形態の画像処理プログラム(以下、本処理(メインプロセス)プログラムという)を説明するフローチャートである。このフローチャートで表される本処理プログラムは、通常、外部記憶装置207に記録されており、処理を開始するにあたりCPU201が外部記憶装置207から読み込んで、RAM203に展開し、実行する。
S501は、処理条件入力ステップである。CPU201は、本処理プログラムが必要とする情報を入力する。入力情報は、本処理プログラムが外部記憶装置207から読み込むことや、ネットワークI/F204を介すことによって取得することができる。また、入力装置205を介して、ユーザーによる入力を読み込むようにしても良い。
本実施形態では、入力情報として、図4に示されるような、視点402に対して全周囲の画像を用いるものとし、異なる2視点以上の全周囲の画像が入力される。また、各視点の視点位置、視線方向も入力する。視点位置や視線方向が固定されている場合や、事前に視点位置や視線方向の変動が取得できる場合は、外部記憶装置207から読み込むようにする。
ここで、入力する画像の投影面について説明する。一般的には撮像時において、シーンは平面に投影されて画像に記録されることが多い。このことを鑑みて、本実施形態では、平面の投影面を持つ画像を入力可能とする。また、更に平面の投影面に投影変換できる、平面以外の別の投影面を持つ画像を入力可能する。そのような投影面として円筒面・球面・複数の平面が挙げられる。本実施形態では、円筒面の投影面を持つ画像を入力する。このように、多くの投影面形状を入力可能とすることで、本実施形態の画像処理装置は、より広範な画像を扱うことが可能な、汎用的な構成とすることができる。なお、各視点の画像を撮影するときの撮像設定(ISO感度、露光時間、絞り値、ピント)は、同じとする。このように撮像設定を同じにすることで、後に説明する画像同士を比較する処理の精度を上げることができる。ただし、画像間で撮像設定は同じでなくても、本実施形態では良いものとする。
また、入力情報として、本実施形態の概要で述べた、数1において距離パラメータt1の取る値を設定する。すなわち、距離パラメータのステップts、距離パラメータの上限値t_end、距離パラメータの下限値t_startを入力する。これらを用いた処理については後述する。
S501ではさらに、任意視点画像の視点位置を入力し、任意視点画像の投影面を設定する。ここで、任意視点画像の投影面について説明する。本実施形態の画像処理装置は、最終的な出力である任意視点画像において、平面の投影面を持つ画像を出力可能とする。また、更に平面の投影面に投影変換できる、平面以外の別の投影面を持つ画像を出力可能とする。そのような投影面として円筒面・球面・複数の平面が挙げられる。以下では、円筒面の投影面を持つ画像を出力する場合を説明する。
S502は、視差マップ生成ステップである。CPU201は、S501で設定された任意視点画像を所定のブロックに分割し、入力された全周囲の画像を用いて、そのブロック単位の視差情報(深度情報)を算出する。そして、算出した視差情報を、任意視点画像上における分割したブロックにマッピングすることで、視差マップを生成する。
視差マップ生成ステップS502について、図6を用いて説明する。なお、以下の説明では、図6に示されるフローチャートを本サブフローチャート−1と称する。
S601は、ブロック生成ステップであり、CPU201は、任意視点画像における所定の画像領域を指定する。本実施形態では、円筒座標系に投影された任意視点画像を生成する。円筒座標系は球座標系に投影変換できる。また、球座標系は円筒座標系に投影変換できる。このことを利用して、円筒座標系における任意視点画像の視差マップを生成する。
S602は、探索基準ブロック更新ステップである。S602の処理について、図7を用いて説明する。図7に示される模式図は、円筒座標系の平面展開図である。円筒座標系の投影面は平面に展開可能であり、画像領域を分割することでブロックが生成される。本実施形態では等間隔の正方形にブロック分割される。x方向をM+1、y方向をN+1に分割することで、総ブロック数が(M+1)×(N+1)になるように円筒座標系の平面展開図をブロック分割する。生成したブロック群において、処理対象のブロックを指示するポインタが更新される。図7(A)ではm行n列のブロックが選択されている。図7(A)のように選択された後、図7(B)のように、mp+1行nq+1列のブロックを選択するように、図7(A)で選択されていたm行n列のブロックに対して異なるブロックが選択される。なお、ブロックの選択順は特に規定されるものではないが、以前選択したブロックが再び選択されることはない。
S603は、光源推定距離パラメータ更新ステップである。数14で表されるように、第一の光線関数(第一の直線)の距離パラメータtを、距離パラメータのステップtsだけ更新する。距離パラメータtが取り得る値の範囲は、距離パラメータの上限値t_end、距離パラメータの下限値t_startによって決まる。すなわち、t_start≦t≦t_endの関係を有する。ここでt_startは0以上の値を取り、t_endは無限大より小さい値を取る。
t=t+ts 数14
距離パラメータtの初期値は、距離パラメータtが取り得る値の範囲内で所望の値を取ることができる。また、tsは定数と変数のいずれかを取ることができる。tsが変数を取る場合、ts=f(x)=ax+bのような関数の形をとっても良いし、ts0=0、ts1=1、ts2=2、ts3=3、ts4=5、ts5=7・・・のように配列に格納された値を順次参照するようにしてもよい。
S604は、ブロック画像生成ステップである。本ステップでは、以下の3つの処理が行なわれる。
(1)第一の光線関数(第一の直線)を用いた平面上の所定の一点Pの算出
(2)平面上の所定の一点Pと入力画像の視点による第二の光線関数(第二の直線)の算出
(3)第二の光線関数と入力画像の投影面との交わる点における画素の補間生成
上記S604における処理(1)〜(3)について、図8を用いて説明する。
図8は、図6におけるS604の処理を詳細化させた処理フローチャートである。なお、以下の説明では、図8に示される処理フローチャートを本サブフローチャート−2と称する。また、本サブフローチャート−2の処理の説明を補足するため、図9の模式図を用いる。なお、以下では、入力画像107から得られるブロック画像BK1の生成方法について述べる。同様の方法で入力画像108から得られるブロック画像BK2については説明を省略する。
図9(A)は、任意視点画像106の円筒座標系の平面展開図(任意視点ブロック画像)であり、総ブロック数(M+1)×(N+1)のうち、m行n列のブロックが選択されている状態であり、その様子が網掛け部分によって図示されている。それぞれのブロックは複数の画素によって構成される。例えば、本実施形態では、1ブロックは3×3の9画素によって構成されている。
図9(B)は、3次元空間上に仮想的に配置された光源から射出される光が、二つの異なる視点へ到達する際の、光線のベクトルを模式的に示した図である。なお、図9(B)において図1(B)と同一の内容については、図1(B)と同じ参照番号が付されている。また、図9(C)は、入力画像107の円筒座標系の平面展開図である。図9(C)では、第二の光線関数と入力画像の投影面との交わる点の集合により構成されるブロック画像BK1が示されている。
S801は、ブロック画素座標値更新ステップである。図9(A)におけるブロックは3×3の9画素で構成されており、CPU201はこれらの画素の一つずつについて処理を行なうため、3×3の9画素のうち一つを選択する。
S802は、第一光線ベクトル算出ステップである。図9(A)で示されるm行n列目のブロック内において、隣り合う画素の座標値(画素位置)であるC6_1とC6_1_1は、図9(B)で示される3次元空間上では、それぞれ異なる単位方向ベクトルp6_i1とp6_i1_1となる。円中心O_6と画素の座標値から単位方向ベクトルは一意に決まる。これらの単位方向ベクトルを用いて、ブロック内の画素ごとにそれぞれ第一の光線関数を算出する。このように、光線関数に用いる単位方向ベクトルと画像中の画素の座標値を画像の中心位置を用いて相互に変換することが本処理の特徴である。
単位方向ベクトルp6_i1_1を選択した場合の第一の光線関数の算出について、図9(B)を用いて説明する。数9において、距離パラメータをt6=fとするとき、円中心O_6と単位方向ベクトルp6_i1_1によって以下の数15で示される3次元空間上の位置が算出される。
p6_i4_1=O6+t6×p6_i1_1 数15
後述のS805によりS801とS802が繰り返されることにより、m行n列目のブロック内の9画素のすべてについて、単位方向ベクトルと円中心O_6を用いてそれぞれ第一の光線関数が算出される。
図9(B)に示されるように、位置p6_i4とp6_i4_1により、円中心O_6を中心とする距離fの円弧が形成されるのがわかる。なお、実際には、3次元空間上で処理を行なうので、球面の一部が形成されることになる。
S803は、補間画素投影座標値算出ステップである。位置p6_i4_1と入力画像107の円中心O_7から算出される第二の光線関数より、単位方向ベクトルp7_i4_1は以下のように求められる。
p7_i4_1=stand(p6_i4_1−O7) 数16
CPU201は、得られた単位方向ベクトルp7_i4_1と円中心O_7から図9(C)のように、画素の座標値C7_1_1を特定する。図9(C)は入力画像107を平面に展開した模式図である。ブロック画像BK1はこのようして特定された画素の座標値から構成される。
S804は、補間画素生成ステップである。画素座標値C7_1_1は、小数精度の座標値となるため、CPU201は、入力画像107を構成する整数精度の座標値を持つ画素を用いて、画素値を補間生成する。画素の補間生成方法としては、最近傍補間法、バイリニア補間法、バイキュービック補間法など、周知の補間技術が適用可能である。最近傍補間法を用いて画素座標値C7_1_1における画素値を補間生成する場合、入力画像107における画素のうち、その配置座標が画素座標値C7_1_1に最も近い画素を、画素座標値C7_1_1における画素値として出力する。
図10では、バイキュービック補間法における入力画素の選定方法を図示している。図10において、Dで表される画素座標値C7_1_1が整数値をとるように、小数値を切り捨てることで、(xint、yint)で示される入力画素を特定する。特定された入力画素を基準にして、Cで示される画素座標値C7_1_1の周囲の近傍16点を選定することで、Dをバイキュービック補間法するための入力画素を得る。複数の入力画素を得た後は、バイキュービック補間関数を適応して補間画素値を算出する。バイリニア補間法についても画素座標値C7_1_1に最近傍に隣接する入力画素の座標値から、複数の画素値を得ることで、バイリニア補間関数を適用して補間画素値を算出する。
S805は、ブロック画像生成終了判定ステップである。S801でブロック内の全ての画素が選択されたらS605へ処理を進め、全て選択されていなければS801へ処理を進める。
以上が図8に示される本サブフローチャート−2(図6のS604)の処理である。本サブフローチャート−2の終了によりブロック画像BK1が生成される。また、同様に入力画像108を用いてブロック画像BK2が生成される。
図6に戻り、S605は、マッチング評価値算出ステップである。CPU201は、入力画像107のブロック画像BK1と入力画像108のブロック画像BK2のマッチングを行なう。本実施形態では、マッチング評価値として、数17で示されるSAD値(差分絶対値和)を算出する。なお、数17において、本実施形態ではM=N=3である(ブロックサイズに一致する)。g(x)はブロック画像BK1の画像平面を表し、h(x)はブロック画像BK2の画像平面を表す。
Figure 0006216143
また、上記の他にも相関係数や、最小二乗マッチング法を適用してもよい。
CPU201は、マッチング演算により算出されるマッチング評価値(SAD値)を出力する。そして、後述するS606でマッチング終了と判定されるまで、S603で距離パラメータt6が更新され、S605で新たなマッチング評価値の算出と比較が行われる。
マッチング演算にSAD値を用いている場合、CPU201は、以前のマッチング演算結果の中で最も高くマッチングした(最も低い値を示した)マッチング評価値SADpreと、今回のマッチング評価値SADcurを用いて、以下の比較結果Resultを算出する。
Figure 0006216143
Result=0の場合、以前に演算したマッチング評価値の中で最もマッチングした評価値の方が信頼できる値であると判断して、今回のマッチング評価値は破棄する。Result=1の場合、以前に演算した全てのマッチング評価値よりも、今回のマッチング評価値の方がマッチングしている。すなわち、今回のマッチング演算に用いたブロック画像を算出するために用いた視差情報が、より正しい視差情報であると判断する。視差情報については、後述する。そして、距離パラメータt6が更新された新たなマッチング評価値との比較で用いるため、数19に示されるように、今回のマッチング演算結果を、最もマッチングしたマッチング評価値をSADpreに設定する。
Figure 0006216143
また、Result=1の場合は、以前に演算したマッチング評価値の中で最もマッチングした評価値と今回のマッチング評価値が同じである場合も含まれる。この場合、任意視点に最も近い点についてのマッチング評価値をSADpreに設定する。
比較結果を得ると同時に、今回のマッチング演算に用いたブロック画像(BK1とBK2)を算出するために用いた、視差情報を保持する。保持する視差情報には、距離パラメータt6(本実施形態ではt6=f)が含まれる。また、ブロック画像BK1とブロック画像BK2を算出するに用いた単位方向ベクトルp6_i1やp6_i1_1も含まれる。また、単位方向ベクトルp6_i1と、隣り合う画素の座標値から変換される単位方向ベクトルの差分が含まれるようにしても良い。隣り合う画素からそれぞれ変換される2つの単位方向ベクトルの差分は、単位方向ベクトルp6_i1とp6_i1_1の差を算出することで得られる。または、ブロック画像BK1とブロック画像BK2を直接保持するようにしてもよい。
S606は、マッチング終了判定ステップである。距離パラメータt6には、ステップts、下限値t_start、上限値t_endにより、取り得る値が定められている。上限値または下限値を超える値が距離パラメータt6に設定される場合、マッチングを終了して、S607へ処理を進める。他方、距離パラメータt6に設定される値が取り得る値の範囲内である場合はS603へ処理を進める。このようにして、マッチング終了と判定されたときに保持されている視差情報は、S605によるマッチング評価の最も高い視差情報であり、この視差情報がS602で選択された探索基準ブロックに対応する視差情報に決定される。
S607は、視差情報マッピングステップである。CPU201は、S605で保持した視差情報をメモリに保持する。本実施形態では、図9(A)に示すように、総ブロック数(M+1)×(N+1)であり、m行n列のブロックについては、m行n列のメモリ位置にマッピングされる。こうして、S602で選択された探索基準ブロックに視差情報が対応付けられる。
S608は、視差マップ生成終了判定ステップである。S602で総ブロック数(M+1)×(N+1)のブロックが全て選択されたら、本サブフローチャート−1の処理は終了であり、そうでなければS602へ処理を進める。以上が、図6に示される本サブフローチャート−1(図5のS502)の処理である。
図5に戻り、S503は、任意視点画像生成ステップである。S502で算出された視差マップを用いて任意視点画像106を補間生成する。図11を用いて本実施形態における任意視点画像の生成方法を説明する。図11は、図5におけるS503の処理を詳細化させた処理フローチャート図である。なお、以下の説明では、図11に示されるフローチャートを本サブフローチャート−3と称する。
S1101は、探索基準ブロック更新ステップである。処理内容は、図6におけるS602と同じである。S1102は、視差情報取得ステップである。S502で算出された視差マップから、当該ブロックに相当する視差情報を取得する。本実施形態では、総ブロック数(M+1)×(N+1)である。以下、ブロックを補間生成する処理について、m行n列のメモリ位置にマッピングされているm行nのブロックの場合を例として説明する。
S1103は、ブロック画像生成である。CPU201は、取得された視差情報(距離パラメータt6、単位方向ベクトルp6_i1、単位方向ベクトルp6_i1_1)から、m行n列のブロック画像(ブロック画像BK1、ブロック画像BK2)を生成する。詳細な処理内容は、既に述べた図6におけるS604の処理内容と同じである。なお、前述したように、S605において評価の最も高い視差情報としてブロック画像BK1、BK2を保持しておいてもよい。
S1104は、ブロック画像マッピングステップある。CPU201は、m行n列のブロックの座標位置にブロック画像を複写する。ブロック画像は、入力画像107と108について、それぞれBK1、BK2と2つあるので、ブロック画像の複写においては、これらブロック画像(BK1、BK2)を加算平均処理して任意視点のブロック画像を生成する。
ここで、BK1とBK2の加重平均処理について説明する。BK1は、BK1(x、y)で表される2次元の画素配列である。同様にBK2は、BK2(x、y)で表される2次元の画素配列である。新たに生成されるブロック画像BK3の2次元の画素配列BK3(x,y)は、以下の数20で表されるように生成される。AおよびBはA+B=1になるように実数の範囲で値を設定してよい。例えば、入力画像107と任意視点画像106の視点位置間の距離をK、入力画像108と任意視点画像106の視点位置間の距離をLとした場合に、A=L/(K+L)、B=K/(K+L)のように、距離に逆比例する重みづけを行なうことが考えられる。なお、BK1(x、y)は、BK3(x、y)を通る第1の光線関数上の視差情報により決定される点と入力画像107の視点とにより得られる第2の光線関数が入力画像投影面と交わる点である。同様に、BK2(x、y)は、BK3(x、y)を通る第1の光線関数上の視差情報により決定される点と入力画像108の視点とにより得られる第2の光線関数が入力画像投影面と交わる点である。
BK3(x、y)=A×BK1(x、y)+B×BK2(x、y) 数20
S1105は、ブロック更新終了判定ステップである。CPU201は、S1102で総ブロック数(M+1)×(N+1)のブロックが全て選択されたら本サブフローチャート−3の処理は終了であり、そうでなければS1101へ処理を進める。
以上が、図5に示される本処理プログラムの処理である。以上の説明から明らかなように、本実施形態においては、視差情報を算出するのに、入力画像の特徴点を必要としない。また、入力画像に基づく光線関数を用いて視差を算出するのではなく、任意視点映像に基づく光線関数を用いて視差を算出するので、任意視点画像の画素の配置座標値が幾何的に正確となる視差情報を算出することが可能になる。
以上のように、上記実施形態によれば、入力画像に特徴点が存在しない画像領域においても、幾何的に正確な視差情報を算出することが可能になり、任意視点画像の画質を向上させることができる。
なお、上記実施形態では、2つの入力画像から任意視点の画像を生成する例を説明したが、3つ以上の入力画像を用いて任意視点の画像を生成できる構成としてもよいことは明らかである。
また、上記実施形態では、視差情報(視差ベクトル)を全てのブロックについて決定する視差情報マッピングを行ない(図6)、その後、視差情報を読み出しながら任意視点画像を生成する(図11)が、これに限られるものではない。たとえば、静止画像を処理する場合は、図6のステップS607において1つのブロックに関して視差情報(任意視点からの距離)が確定しているので、この時点で該1つのブロックについてステップS1103、S1104を実行するようにしてもよい。このようにすれば、全ブロックに対応した視差マップを保持しておくことが不要になる。他方、視差マップを生成し、保持しておけば、入力画像の視点および任意視点の3者の位置関係が変化しない限り、生成した視差マップを利用して任意視点からの画像を生成することができる。また、動画像を処理する場合は、保持された視差マップを用いて、入力画像の各フレームから任視点画像の各フレームを生成できる。
[実施形態2]
本発明の実施形態1では、視差情報を生成し、その視差情報から任意視点を生成した。本実施形態では、コンピュータグラフィックス(CG)のレンダリングに用いられる周囲環境光画像を、複数の視点画像をもとに、任意位置で生成する例を示す。
一般的に、CGのレンダリングを行う場合には、物体などのオブジェクトデータと、光源データが必要になる。特に、光源データについては、あるオブジェクトが光源となる場合と、レンダリングする周囲環境の明るさを画像として保持し、その画像を光源データとしてレンダリングする場合とがある。ここで、視点画像を周囲の明るさ画像とみなしたものを、周囲環境光画像と呼ぶ。周囲環境光画像は、レンダリング対象となる被写***置に応じて取得する必要がある。
例えば、図13(A)に示すように、あるオブジェクト(被写体)1301および1302からなるシーンを、視点1303から、周囲環境光画像を光源としてレンダリングする場合、周囲環境光画像は1304に示す様に位置Tを中心とした全周囲の画像が必要となる。また、周囲環境光画像1304は、図13(B)に示すように、被写体が位置Tにある場合は周囲環境光画像1304となる。一方で、被写体が位置Aにある場合は周囲環境光画像1305、また、位置Bにある場合は周囲環境光画像1306となる。すなわち、被写体の位置に応じた周囲環境光画像が必要となる。そのため、任意の位置で周囲光環境画像を用いたCGレンダリングを行うためには、無数の周囲環境光画像が必要となる。ここで、本実施形態によれば、位置Aの周囲環境光画像1305と、位置Cの周囲環境光画像1306から、位置Tの周囲環境光画像1304を生成することができる。つまり、任意の周囲環境光画像を、少なくとも2か所の視点画像より生成可能となる。そのため、無数の周囲環境光画像を用意することなく、任意位置での周囲環境光画像を用いてのCGレンダリングが可能となる。
また、周囲環境光画像を生成するにあたり、光源としての寄与が高いのは画像の明るい部分、すなわち、画素値の高い部分である。そこで、補間元の視点画像ブロックのうち、平均画素値の高い部分については詳細にブロック画像を生成し、平均画素値の低い部分については粗いブロック画像を生成する。このようにすることで、周囲環境光画像の生成を高速に行うことができる。
以下、図を用いて、本実施形態の処理と実施形態1の処理との違いについて述べる。本実施形態では、実施形態1と比較して、図5におけるS502処理の内容が異なる。具体的には、生成する視差マップのうち、CGレンダリングにおける周囲環境光源としての寄与が大きいと考えられる平均画素値の高いブロック画像は通常通り詳細な視差マップを作成し、平均画素値の低いブロックは、視差マップを粗く作成する。
図12は、実施形態2における、視差マップ生成処理(周囲環境光生成処)の概要を示すフローチャートである。以下、図12のフローチャートを本サブフローチャート4とする。なお、図12のS1024〜S1210は、図6のS602〜S607と同様の処理を行うので、説明を省略する。
まず、S1201で、任意視点画像における所定の画像領域を指定する。ここでは、図14(A)に示すように、画像領域は(N+1)×(M+1)個のブロックに分割され、(m,n)、(mp+1,np+1)で囲まれる位置の画素値が明るくなっていると仮定する。また、各ブロックは、図9と同様、縦3画素、横3画素で区切られているとする。なお、ブロックの個数やブロック内の画素数は、特に上記の数に規定されるものではない。
次に、S1202で、各ブロック画像の平均画素値を計算する。具体的には、以下のようにして平均画素値Aimgを求める。
Aimg=(1/nimg)ΣIimg 数21
ここで、nimgはある視点画像ブロックの画素数、Iimgはある視点画像ブロックの画素値である。例えば、ある視点画像から周囲環境光画像を作成する場合は、それぞれの視点画像に対応するブロック画像がBk(m,n)、平均画素値はAimg(m,n)、となる。
次に、S1203で、ブロック画像の解像度を決定する。ここで、各ブロック画像の平均画素値Aimg(m,n)が所定の閾値を超えた場合には、図14(B)に示す様に、そのようなブロックの解像度を縦3画素、横3画素とする。超えなかった場合は、図14(B)に示す様に、そのようなブロックの解像度を1画素とし、画素値として中心1画素を代表値とする。なお、本実施形態では、ブロック画像の平均画素値と比較する所定の閾値を1つと設定し、また、閾値以上であればブロック内画素値を3x3画素、閾値より小さければ1画素、と設定したが、閾値の数や、ブロック内の画素数はこれに限定するものではない。その後、S1204〜S1210においてそれぞれの処理が行われる。
以上のようにして、本サブフローチャート4を行うことによって、視点画像のうち、画素値の高い部分、すなわち、光源としての寄与が高い部分に関して優先的に計算を行うためのブロック画像を生成することができる。
以上のように、本実施形態によれば、CGレンダリングのための任意位置での周囲環境光画像を高速に生成することができる。
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。

Claims (9)

  1. 複数の入力画像を用いて任意視点の画像を生成する画像処理装置であって、
    前記任意視点と該任意視点の画像上の画素位置を通る第一の直線に沿う点が前記複数の入力画像の各々に投影される投影位置の画像情報を取得する取得手段と、
    前記第一の直線に沿って、前記任意視点からの複数の距離に複数の点を設定し、各距離において前記複数の入力画像から前記取得手段により取得された画像情報についてマッチング評価値を算出し、当該マッチング評価値に基づく、前記画素位置における前記複数の入力画像の視差情報を算出する算出手段と、
    前記画素位置の画像情報を、該画素位置に対する視差情報を用いて前記複数の入力画像から算出することにより、前記任意視点の画像を生成する生成手段と、
    前記任意視点の画像を分割して得られた任意視点ブロックに含まれる複数の画素位置と前記任意視点を通る複数の第一の直線に沿う前記任意視点からの距離が等しい複数の点を設定し、前記複数の点と前記入力画像の視点を通る複数の第二の直線が前記入力画像の投影面と交わる複数の投影位置の画像情報を前記取得手段を用いて得ることにより、前記任意視点ブロックに対応した前記入力画像におけるブロック画像を決定する決定手段と、を有し、
    前記取得手段は、前記第一の直線に沿う点と前記入力画像の視点を通る第二の直線が、前記入力画像の投影面と交わる位置を前記投影位置に決定し、前記投影位置における画像情報を、前記入力画像の該投影位置に隣接する画素の情報を用いて補間することにより生成し、
    前記算出手段は、前記決定手段により決定されたブロック画像の情報に基づいて前記任意視点ブロックに対する視差情報を、該任意視点ブロックの中の全ての画素位置に対する視差情報として算出することを特徴とする画像処理装置。
  2. 前記算出手段は、前記複数の点のうち最も高いマッチング評価値が得られた距離に基づいて前記視差情報を算出する、ことを特徴とする請求項1に記載の画像処理装置。
  3. 前記算出手段は、最も高いマッチング評価値が前記第一の直線に沿う2つ以上の点について算出された場合は、前記任意視点に最も近い距離に基づいて前記視差情報を算出することを特徴とする請求項1または2に記載の画像処理装置。
  4. 前記生成手段は、前記複数の入力画像から取得された複数の画像情報を加重平均することにより前記画素位置の画像情報を生成することを特徴とする請求項1乃至3のいずれか1項に記載の画像処理装置。
  5. 前記入力画像の投影面は、平面、球面、円筒面のいずれかであることを特徴とする請求項1乃至4のいずれか1項に記載の画像処理装置。
  6. 複数の入力画像を用いて任意視点の画像を生成する画像処理装置の制御方法であって、 取得手段が、前記任意視点と該任意視点の画像上の画素位置を通る第一の直線に沿う点が前記複数の入力画像の各々に投影される投影位置の画像情報を取得する取得工程と、
    算出手段が、前記第一の直線に沿って、前記任意視点からの複数の距離に複数の点を設定し、各距離において前記複数の入力画像から前記取得手段により取得された画像情報についてマッチング評価値を算出し、当該マッチング評価値に基づく、前記画素位置における前記複数の入力画像の視差情報を算出する算出工程と、
    生成手段が、前記画素位置の画像情報を、該画素位置に対する視差情報を用いて前記複数の入力画像から算出することにより、前記任意視点の画像を生成する生成工程と、
    決定手段が、前記任意視点の画像を分割して得られた任意視点ブロックに含まれる複数の画素位置と前記任意視点を通る複数の第一の直線に沿う前記任意視点からの距離が等しい複数の点を設定し、前記複数の点と前記入力画像の視点を通る複数の第二の直線が前記入力画像の投影面と交わる複数の投影位置の画像情報を前記取得手段を用いて得ることにより、前記任意視点ブロックに対応した前記入力画像におけるブロック画像を決定する決定工程と、を有し、
    前記取得手段は、前記第一の直線に沿う点と前記入力画像の視点を通る第二の直線が、前記入力画像の投影面と交わる位置を前記投影位置に決定し、前記投影位置における画像情報を、前記入力画像の該投影位置に隣接する画素の情報を用いて補間することにより生成し、
    前記算出手段は、前記決定手段により決定されたブロック画像の情報に基づいて前記任意視点ブロックに対する視差情報を、該任意視点ブロックの中の全ての画素位置に対する視差情報として算出することを特徴とする画像処理装置の制御方法。
  7. 請求項6に記載された制御方法の各工程をコンピュータに実行させるためのプログラム。
  8. 前記任意視点ブロックに含まれる前記複数の画素位置、および画素数が、前記任意視点ブロックの画素値によって決定されることを特徴とする請求項1に記載の画像処理装置。
  9. 前記任意視点ブロックの画素値は、前記任意視点ブロックの平均画素値であることを特徴とする請求項8に記載の画像処理装置。
JP2013086916A 2012-06-20 2013-04-17 画像処理装置、その制御方法、およびプログラム Active JP6216143B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2013086916A JP6216143B2 (ja) 2012-06-20 2013-04-17 画像処理装置、その制御方法、およびプログラム
US13/901,834 US9092840B2 (en) 2012-06-20 2013-05-24 Image processing apparatus, control method of the same and non-transitory computer-readable storage medium

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2012139158 2012-06-20
JP2012139158 2012-06-20
JP2013086916A JP6216143B2 (ja) 2012-06-20 2013-04-17 画像処理装置、その制御方法、およびプログラム

Publications (3)

Publication Number Publication Date
JP2014026641A JP2014026641A (ja) 2014-02-06
JP2014026641A5 JP2014026641A5 (ja) 2016-06-09
JP6216143B2 true JP6216143B2 (ja) 2017-10-18

Family

ID=49774513

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013086916A Active JP6216143B2 (ja) 2012-06-20 2013-04-17 画像処理装置、その制御方法、およびプログラム

Country Status (2)

Country Link
US (1) US9092840B2 (ja)
JP (1) JP6216143B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6100089B2 (ja) 2013-05-17 2017-03-22 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
JP2017069926A (ja) * 2015-10-02 2017-04-06 ソニー株式会社 画像処理装置、および画像処理方法、並びにプログラム

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11175762A (ja) * 1997-12-08 1999-07-02 Katsushi Ikeuchi 光環境計測装置とそれを利用した仮想画像への陰影付与装置及び方法
JP2002216163A (ja) * 2001-01-12 2002-08-02 Oojisu Soken:Kk 任意視点によるパノラマ画像の生成方法、コンピュータプログラム及び記録媒体
US6975756B1 (en) * 2002-03-12 2005-12-13 Hewlett-Packard Development Company, L.P. Image-based photo hulls
JP2004246667A (ja) * 2003-02-14 2004-09-02 Keiogijuku 自由視点動画像データ生成方法およびその処理をコンピュータに実行させるためのプログラム
JP4055010B2 (ja) * 2003-09-26 2008-03-05 セイコーエプソン株式会社 画像処理システム、プロジェクタ、プログラム、情報記憶媒体および画像処理方法
JP4440067B2 (ja) * 2004-10-15 2010-03-24 キヤノン株式会社 立体表示のための画像処理プログラム、画像処理装置および立体表示システム
RU2438179C1 (ru) * 2007-10-15 2011-12-27 Ниппон Телеграф Энд Телефон Корпорейшн Устройство и способ для формирования изображения, программа для его реализации и носитель информации, который хранит программу

Also Published As

Publication number Publication date
JP2014026641A (ja) 2014-02-06
US20130343636A1 (en) 2013-12-26
US9092840B2 (en) 2015-07-28

Similar Documents

Publication Publication Date Title
US10643347B2 (en) Device for measuring position and orientation of imaging apparatus and method therefor
JP4052331B2 (ja) 仮想視点画像生成方法及び3次元画像表示方法並びに装置
JP4216824B2 (ja) 3次元モデル生成装置、3次元モデル生成方法および3次元モデル生成プログラム
JP6716996B2 (ja) 画像処理プログラム、画像処理装置、及び画像処理方法
JP2007000205A (ja) 画像処理装置及び画像処理方法並びに画像処理プログラム
JP2019510311A (ja) 平面の鏡を用いたステレオ画像システムを較正するための方法およびコンピュータプログラム製品
JP2011129082A (ja) 3次元物体認識装置及び3次元物体認識方法
JP6902881B2 (ja) 情報処理装置及び三次元モデルの生成方法
US20160005221A1 (en) Photometric optimization with t-splines
JP2016085379A (ja) 制御装置、制御方法、及び、プログラム
JP2016122444A (ja) 焦点スタックから適応スライス画像を生成する方法および装置
JP2019040229A (ja) 画像処理装置、画像処理方法及びプログラム
CN113643414A (zh) 一种三维图像生成方法、装置、电子设备及存储介质
JP6411188B2 (ja) ステレオマッチング装置とステレオマッチングプログラムとステレオマッチング方法
CN110738730A (zh) 点云匹配方法、装置、计算机设备和存储介质
JP6216143B2 (ja) 画像処理装置、その制御方法、およびプログラム
JP6991700B2 (ja) 情報処理装置、情報処理方法、プログラム
JP7298687B2 (ja) 物体認識装置及び物体認識方法
JP7195785B2 (ja) 3次元形状データを生成する装置、方法、及びプログラム
JP6843552B2 (ja) 画像処理装置、画像処理方法およびプログラム。
JP2015197374A (ja) 3次元形状推定装置及び3次元形状推定方法
CN116188349A (zh) 图像处理方法、装置、电子设备及存储介质
JP6384961B2 (ja) カメラキャリブレーション装置、カメラキャリブレーション方法、カメラキャリブレーションプログラム及び記録媒体
US20150163477A1 (en) Systems and methods for calculating epipolar constraints between generalized cameras
JP2005140623A (ja) 画像計測方法、装置、プログラム及び記録媒体

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160405

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160405

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170302

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170331

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170519

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170616

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170622

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170825

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170922

R151 Written notification of patent or utility model registration

Ref document number: 6216143

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151