JP2011070579A - 撮影画像表示装置 - Google Patents

撮影画像表示装置 Download PDF

Info

Publication number
JP2011070579A
JP2011070579A JP2009223242A JP2009223242A JP2011070579A JP 2011070579 A JP2011070579 A JP 2011070579A JP 2009223242 A JP2009223242 A JP 2009223242A JP 2009223242 A JP2009223242 A JP 2009223242A JP 2011070579 A JP2011070579 A JP 2011070579A
Authority
JP
Japan
Prior art keywords
image
coordinate
dimensional
camera
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009223242A
Other languages
English (en)
Inventor
Motonobu Tonomura
元伸 外村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP2009223242A priority Critical patent/JP2011070579A/ja
Publication of JP2011070579A publication Critical patent/JP2011070579A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

【課題】観察方向が定まっている被写体について、当該方向から観察した二次元画像を自動生成して表示する。
【解決手段】同一被写体を撮影点Q1,Q2からカメラで撮影し、撮影画像P1,P2を得る。画像P1を解析して、被写体上で着目対象となる基準平面Rを認識し、画像P1上で、基準平面R上の4点S31〜S34に対応する点S11〜S14を求める。両画像P1,P2の特徴を比較し、画像P2上で点S11〜S14に対応する点S21〜S24を求める。画像P1,P2上の8個の点S11〜S24と、カメラの設置位置・向きの情報から、基準平面R上の点S31〜S34の三次元座標値を求める。各点S11〜S24と各点P31〜S34との座標値に基づき、xy座標系上の画像P1,P2をuv座標系上の画像に変換する変換式を導出し、当該式を用いて、uv座標系上に画像P1,P2の変換像を求め、これらを合成して表示画像を得る。
【選択図】図6

Description

本発明は、撮影画像表示装置に関し、特に、複数のカメラを用いて、それぞれ異なる方向から撮影した被写体の撮影像に基づいて、当該被写体を所定の仮想方向から観察した画像を生成して表示する撮影画像表示装置に関する。
複数のカメラを用いて、同一の被写体をそれぞれ異なる方向から撮影すれば、それぞれ異なる二次元撮影画像を得ることができる。このように、三次元空間において、同一の対象物を異なる方向から観察した場合に得られる撮影画像と当該対象物との相互関係は、一般にエピポーラ幾何と呼ばれる幾何学によって解析されている。このエピポーラ幾何を利用すれば、複数の二次元撮影画像に基づいて、三次元の被写体像を復元することも可能であり、任意の仮想視点から当該被写体を観察した二次元画像を作成することも可能である。
たとえば、下記の特許文献1には、複数のカメラを所定位置に配置して、被写体に対する死角を排除した複数枚の撮影画像を得た上で、これら撮影画像に基づいて、当該被写体の完全な仮想三次元像を復元する技術が開示されている。この技術を用いれば、ユーザの要望に応じて、被写体を任意の視点から観察した二次元画像を作成することが可能である。また、下記の非特許文献1には、同一人物を2方向から撮影した2枚の顔写真に基づいて、当該人物を任意の方向から観察した二次元画像を作成する技術が提案されている。
特許第3300334号公報
向井康博 他「2枚の顔写真を用いた任意方向の顔画像の生成」:情報処理学会論文誌 Vol. 37, No. 4 pp. 635-644, Apr. 1996
上述したように、同一の被写体に対して、異なる複数の方向から撮影した二次元撮影画像を得ることができれば、これらの撮影画像に基づいて、被写体の三次元像を復元することができ、ユーザの指定する任意の仮想視点から観察した被写体の二次元画像を作成し、これを表示することが可能である。このように、従来の技術では、ユーザが希望する任意の仮想視点の位置から観察した二次元画像を表示することができるため、極めて自由度の高い画像表示が可能になるメリットは得られる。しかしながら、ユーザ自身(もしくは、何らかの外部装置)が仮想視点の位置を指定する必要があるため、適切な観察方向が予め決まっているような被写体の場合でも、観察方向を指定する操作負担が課せられ、利便性が損なわれるという問題がある。
たとえば、車両のナンバープレートの部分を被写体とする場合、「ナンバープレート上の文字を認識する」という一般的な用途では、「ナンバープレートを正面から観察する方向」が適切な観察方向になる。また、不審人物の侵入を監視するようなシステムでは、「被写体となる人物の顔を正面から観察する方向」が適切な観察方向になる。
このように、その用途に応じて、特定の被写体についての適切な観察方向が予め定まっている場合であっても、従来提案されている技術では、ユーザ自身もしくは何らかの外部装置によって観察方向を指示する必要があるため、煩雑な指定操作が必要になる。
たとえば、車両のナンバープレートを正面から観察した二次元画像を表示させたい場合を考えよう。この場合、道路や駐車場のゲートのように、被写体となる車両の向きが定まっている環境では、1台のカメラで車両のほぼ正面からの撮影を行えば十分である。しかしながら、車両の向きが定まらない広場などでは、複数台のカメラで撮影を行った後、従来提案されている技術により、ユーザが「ナンバープレートを正面から観察できる方向」を指定する操作を行う必要がある。また、不審者の監視システムであれば、ユーザが「人物を正面から観察できる方向」を指定する操作を行う必要がある。
そこで本発明は、用途に応じて適切な観察方向が予め定まっている被写体について、当該適切な観察方向から観察した状態を示す二次元画像を自動的に生成し、これを表示することができる撮影画像表示装置を提供することを目的とする。
(1) 本発明の第1の態様は、異なる方向から撮影した被写体の撮影画像に基づいて、当該被写体を所定の仮想方向から観察した画像を生成して表示する撮影画像表示装置において、
互いに異なる位置に設置され、同一の被写体を撮影可能な方向に向けられた第1のカメラおよび第2のカメラと、
第1のカメラによる撮影で得られたデジタル画像もしくは当該デジタル画像に所定の変換処理を加えた画像を第1の撮影画像として入力し、第2のカメラによる撮影で得られたデジタル画像もしくは当該デジタル画像に所定の変換処理を加えた画像を第2の撮影画像として入力する画像入力部と、
入力された第1の撮影画像および第2の撮影画像を格納する撮影画像格納部と、
第1の撮影画像を解析することにより、被写体上の着目対象となる基準平面上の点として予め設定されている4つの基準点にそれぞれ対応する点を、第1の撮影画像上において4つの第1対応点として抽出する第1対応点抽出部と、
第1の撮影画像の特徴と第2の撮影画像の特徴とを比較することにより、両画像上の各点間の対応関係を求め、第2の撮影画像上において、4つの第1対応点にそれぞれ対応する4つの第2対応点を抽出する第2対応点抽出部と、
第1のカメラおよび第2のカメラの設置位置および向きの情報と、4つの第1対応点および4つの第2対応点の二次元座標値と、に基づいて、各対応点に対応する被写体上での4つの基準点の三次元座標値を求める基準点座標算出部と、
4つの基準点を含む基準平面上もしくはこの基準平面を予め定められた所定方向に所定の回転角度だけ回転させた平面上に、二次元uv座標系を定義し、第1の撮影画像および第2の撮影画像の少なくとも一方を変換対象画像として選択し、この変換対象画像上に二次元xy座標系を定義したときに、二次元uv座標系上の任意の座標値(u,v)と、当該座標値で示される点に対応する二次元xy座標系上の点の座標値(x,y)と、の関係を定める座標変換式の係数値を、4つの基準点の座標値と、4つの第1対応点もしくは4つの第2対応点の座標値との対応関係を用いて算出する係数値算出部と、
係数値算出部によって算出された係数値によって規定される座標変換式を用いて、二次元xy座標系上の変換対象画像を二次元uv座標系上の表示対象画像に変換する画像変換部と、
画像変換部によって変換された表示対象画像を格納する表示対象画像格納部と、
表示対象画像をモニタ画面に表示する画像出力部と、
を設けたものである。
(2) 本発明の第2の態様は、上述した第1の態様に係る撮影画像表示装置において、
第1対応点抽出部が、第1の撮影画像上の直線部を探索し、探索された直線部によって囲まれた四角形を基準平面と認識し、当該四角形の4頂点を4つの第1対応点として抽出するようにしたものである。
(3) 本発明の第3の態様は、上述した第1の態様に係る撮影画像表示装置において、
第1対応点抽出部が、第1の撮影画像から人間の顔面を探索し、探索された顔面における右眼中心点、左眼中心点、唇の右端点、唇の左端点を含む面を基準平面と認識し、これらの各点を4つの第1対応点として抽出するようにしたものである。
(4) 本発明の第4の態様は、上述した第1の態様に係る撮影画像表示装置において、
第1対応点抽出部が、第1のカメラおよび第2のカメラの設置位置および向きの情報と、第1の撮影画像上の二次元被写体情報と、第2の撮影画像上の二次元被写体情報と、に基づいて、被写体の三次元形状モデルを作成し、当該三次元形状モデル上での所定の平面を基準平面と認識し、当該基準平面上の任意の4点に対応する4つの点を第1対応点として抽出するようにしたものである。
(5) 本発明の第5の態様は、上述した第1〜第4の態様に係る撮影画像表示装置において、
基準点座標算出部に、第1のカメラおよび第2のカメラの設置位置および向きの情報を、外部からの設定操作により格納する機能をもたせ、当該格納情報を用いて、4つの基準点の三次元座標値を求めるようにしたものである。
(6) 本発明の第6の態様は、上述した第1〜第4の態様に係る撮影画像表示装置において、
基準点座標算出部に、撮影画像格納部に格納されているテスト用被写体を撮影した第1の撮影画像と第2の撮影画像とに基づいて、第1のカメラおよび第2のカメラの設置位置および向きの情報を自動取得する機能をもたせるようにしたものである。
(7) 本発明の第7の態様は、上述した第1〜第6の態様に係る撮影画像表示装置において、
係数値算出部が、二次元uv座標系と二次元xy座標系との間のスケーリングファクターを任意に設定することにより、座標値(u,v)と座標値(x,y)との関係を定める座標変換式として、
x=(h11・u+h12・v+h13)/(h31・u+h32・v+1)
y=(h21・u+h22・v+h23)/(h31・u+h32・v+1)
なる式を定義し、この2本の式に、4つの基準点についての二次元uv座標系の座標値(u,v)と4つの第1対応点の二次元xy座標系の座標値(x,y)とをそれぞれ代入して得られる8本の連立方程式を用いて、8個の係数h11,h12,h13,h21,h22,h23,h31,h32を算出するようにしたものである。
(8) 本発明の第8の態様は、上述した第1〜第7の態様に係る撮影画像表示装置において、
係数値算出部が、第1の撮影画像および第2の撮影画像の双方を変換対象画像として選択し、これら変換対象画像上にそれぞれ第1および第2の二次元xy座標系を定義し、二次元uv座標系上の任意の座標値(u,v)と、当該座標値で示される点に対応する第1および第2の二次元xy座標系上の点の座標値(x,y)と、の関係を定める座標変換式の係数値を、4つの基準点の座標値と、4つの第1対応点および4つの第2対応点の座標値との対応関係を用いて算出し、
画像変換部が、係数値算出部によって算出された係数値によって規定される第1の座標変換式を用いて、第1の二次元xy座標系上の第1の撮影画像を二次元uv座標系上の第1の準備画像に変換するとともに、係数値算出部によって算出された係数値によって規定される第2の座標変換式を用いて、第2の二次元xy座標系上の第2の撮影画像を二次元uv座標系上の第2の準備画像に変換し、第1の準備画像と第2の準備画像とを合成することにより、表示対象画像を生成するようにしたものである。
(9) 本発明の第9の態様は、上述した第8の態様に係る撮影画像表示装置において、
画像変換部が、第1の準備画像と第2の準備画像とを合成する際に、第1の準備画像上の座標値(u,v)で示される位置の画素の画素値をI1(u,v)、第2の準備画像上の座標値(u,v)で示される位置の画素の画素値をI2(u,v)、表示対象画像上の座標値(u,v)で示される位置の画素の画素値をI(u,v)としたときに、所定の重み係数α(0≦α≦1)を用いて、
I(u,v)=(1−α)・I1(u,v)+α・I2(u,v)
なる合成演算を行うようにしたものである。
(10) 本発明の第10の態様は、上述した第9の態様に係る撮影画像表示装置において、
uv平面上の所定の代表点と第1のカメラを設置した撮影点とを結ぶ直線とuv平面とのなす鋭角θ1と、この代表点と第2のカメラを設置した撮影点とを結ぶ直線とuv平面とのなす鋭角θ2と、を比べ、重み係数αを、
θ1>θ2であればα<0.5に設定し、両角度の差が大きければ大きいほど、αが小さくなるように設定し、
θ1<θ2であればα>0.5に設定し、両角度の差が大きければ大きいほど、αが大きくなるように設定し、
θ1=θ2であればα=0.5に設定するようにしたものである。
(11) 本発明の第11の態様は、上述した第9の態様に係る撮影画像表示装置において、
表示対象画像上の座標値(u,v)で示される位置にある着目画素の画素値I(u,v)を決定する際に、当該着目画素の配置点と第1のカメラを設置した撮影点とを結ぶ直線とuv平面とのなす鋭角θ1と、この配置点と第2のカメラを設置した撮影点とを結ぶ直線とuv平面とのなす鋭角θ2と、を比べ、画素値I(u,v)を決定する際に用いる重み係数αを、
θ1>θ2であればα<0.5に設定し、両角度の差が大きければ大きいほど、αが小さくなるように設定し、
θ1<θ2であればα>0.5に設定し、両角度の差が大きければ大きいほど、αが大きくなるように設定し、
θ1=θ2であればα=0.5に設定するようにしたものである。
(12) 本発明の第12の態様は、上述した第10または第11の態様に係る撮影画像表示装置において、
α=(θ2−θ1)/π+1/2
なる演算式により重み係数αを設定するようにしたものである。
(13) 本発明の第13の態様は、上述した第9の態様に係る撮影画像表示装置において、
画像変換部が、
第1のカメラおよび第2のカメラの設置位置および向きの情報と、第1の撮影画像上の二次元画像情報と、第2の撮影画像上の二次元画像情報と、に基づいて、被写体および障害物の三次元形状モデルを作成し、基準平面の手前に存在する障害物を認識する処理を行い、
表示対象画像上の座標値(u,v)で示される位置にある着目画素の画素値I(u,v)を決定する際に、当該着目画素が、障害物により第1の準備画像上でのみ隠面となっている領域内の画素である場合には、画素値I(u,v)を決定する際に用いる重み係数αをα=1に設定し、障害物により第2の準備画像上でのみ隠面となっている領域内の画素である場合には、画素値I(u,v)を決定する際に用いる重み係数αをα=0に設定するようにしたものである。
(14) 本発明の第14の態様は、上述した第1〜第13の態様に係る撮影画像表示装置において、
画像変換部が、二次元xy座標系上の変換対象画像を二次元uv座標系上の表示対象画像もしくは準備画像に変換する際に、座標値(u,v)を引数として座標値(x,y)を求める座標変換式を用い、変換対象画像上の座標値(x,y)で示される位置の近傍に存在する複数の画素の画素値を用いた補間演算によって求められる補間値を、座標値(u,v)で示される位置に配置された画素の画素値とするようにしたものである。
(15) 本発明の第15の態様は、上述した第1〜第14の態様に係る撮影画像表示装置において、
係数値演算部が、基準平面を予め定められた所定の軸回りに、予め定められた所定の回転角γだけ回転させた平面上に、二次元uv座標系を定義するようにしたものである。
(16) 本発明の第16の態様は、上述した第1〜第15の態様に係る撮影画像表示装置において、
互いに異なる位置に設置され、同一の被写体を撮影可能な方向に向けられた複数M台(M≧3)のカメラを設け、
これらM台のカメラの中の任意の2台の組み合わせを、第1のカメラおよび第2のカメラとして採用し、表示対象画像を作成する機能をもたせるようにしたものである。
(17) 本発明の第17の態様は、上述した第1〜第16の態様に係る撮影画像表示装置において、
第1のカメラおよび第2のカメラとして、魚眼レンズもしくは全方位ミラーを装着したカメラを用い、
第1のカメラおよび第2のカメラによる撮影によって得られた歪曲円形画像内の所定の切出中心点近傍の画像を、所定の座標変換式を用いて平面正則画像に変換する魚眼画像変換部を更に設け、
画像入力部が、魚眼画像変換部によって変換された平面正則画像を、それぞれ第1の撮影画像および第2の撮影画像として入力するようにしたものである。
(18) 本発明の第18の態様は、上述した第1〜第17の態様に係る撮影画像表示装置における各カメラ以外の構成要素を、コンピュータにプログラムを組み込むことにより構成するようにしたものである。
(19) 本発明の第19の態様は、上述した第1〜第17の態様に係る撮影画像表示装置における各カメラ以外の構成要素を、半導体集積回路により構成するようにしたものである。
(20) 本発明の第20の態様は、上述した第2の態様に係る撮影画像表示装置を利用して、車両のナンバープレートの撮影表示装置を構成するようにし、
各カメラを、被写体となる車両のナンバープレートを撮影可能な位置および向きに設置し、
第1対応点抽出部が、ナンバープレートの表面を着目対象となる基準平面として、ナンバープレートを構成する四角形の4頂点を4つの第1対応点として抽出し、
画像出力部が、ナンバープレートを正面方向から観察した画像を表示対象画像として出力するようにしたものである。
(21) 本発明の第21の態様は、上述した第3の態様に係る撮影画像表示装置を利用して、監視システムを構成するようにし、
各カメラを、被写体となる人間の顔面を撮影可能な位置および向きに設置し、
画像出力部が、人間の顔面を正面方向から観察した画像を表示対象画像として出力するようにしたものである。
(22) 本発明の第22の態様は、異なる方向から撮影した被写体の撮影画像に基づいて、当該被写体を所定の仮想方向から観察した画像を生成して表示する撮影画像表示方法において、
第1のカメラおよび第2のカメラを、互いに異なる位置に、かつ、同一の被写体を撮影可能な方向に向けて設置するカメラ設置段階と、
コンピュータが、第1のカメラによる撮影で得られたデジタル画像もしくは当該デジタル画像に所定の変換処理を加えた画像を第1の撮影画像として入力し、第2のカメラによる撮影で得られたデジタル画像もしくは当該デジタル画像に所定の変換処理を加えた画像を第2の撮影画像として入力する画像入力段階と、
コンピュータが、第1の撮影画像を解析することにより、被写体上の着目対象となる基準平面上の点として予め設定されている4つの基準点にそれぞれ対応する点を、第1の撮影画像上において4つの第1対応点として抽出する第1対応点抽出段階と、
コンピュータが、第1の撮影画像の特徴と第2の撮影画像の特徴とを比較することにより、両画像上の各点間の対応関係を求め、第2の撮影画像上において、4つの第1対応点にそれぞれ対応する4つの第2対応点を抽出する第2対応点抽出段階と、
コンピュータが、第1のカメラおよび第2のカメラの設置位置および向きの情報と、4つの第1対応点および4つの第2対応点の二次元座標値と、に基づいて、各対応点に対応する被写体上での4つの基準点の三次元座標値を求める基準点座標算出段階と、
コンピュータが、4つの基準点を含む基準平面上もしくはこの基準平面を予め定められた所定方向に所定の回転角度だけ回転させた平面上に、二次元uv座標系を定義し、第1の撮影画像および第2の撮影画像の少なくとも一方を変換対象画像として選択し、この変換対象画像上に二次元xy座標系を定義したときに、二次元uv座標系上の任意の座標値(u,v)と、当該座標値で示される点に対応する二次元xy座標系上の点の座標値(x,y)と、の関係を定める座標変換式の係数値を、4つの基準点の座標値と、4つの第1対応点もしくは4つの第2対応点の座標値との対応関係を用いて算出する係数値算出段階と、
コンピュータが、係数値算出段階で算出された係数値によって規定される座標変換式を用いて、二次元xy座標系上の変換対象画像を二次元uv座標系上の表示対象画像に変換する画像変換段階と、
コンピュータが、画像変換段階によって変換された表示対象画像をモニタ画面に表示する画像出力段階と、
を行うようにしたものである。
本発明の撮影画像表示装置によれば、同一の被写体を2台のカメラにより異なる方向から撮影することにより得られる2枚の撮影画像に基づいて、被写体上で着目対象となる基準平面を認識し、当該基準平面を予め設定された所定方向から観察した二次元画像を生成するようにしたため、用途に応じて適切な観察方向が予め定まっている被写体について、当該適切な観察方向から観察した状態を示す二次元画像を自動的に生成し、これを表示することができるようになる。
本発明の基本的実施形態に係る撮影画像表示装置の構成を示すブロック図である。 図1に示す装置の撮影画像格納部120内に格納された第1の撮影画像P1および第2の撮影画像P2の一例を示す平面図である。 図2に示す第1の撮影画像P1および第2の撮影画像P2から、それぞれ第1の対応点S11〜S14および第2の対応点S21〜S24を抽出した状態を示す平面図である。 一般的なエピポーラ幾何の基本概念を示す空間配置図である。 被写体上に得られた基準点S31〜S34の一例を示す正面図である。 第1の撮影画像P1,第2の撮影画像P2,基準平面Rの位置関係を示す配置図である。 撮影画像の投影面の位置と撮影画像のスケーリングとの関係を示す斜視図である。 撮影画像の投影面πをZ=1で示される平面上に配置した状態を示す斜視図である。 三次元空間上に配置された三次元XYZ座標系と三次元UVW座標系との位置関係を示す斜視図である。 図9に示すXYZ座標系上の1点p(x,y,1)とUVW座標系上の1点q(u,v,1)との関係を示す座標変換式を示す図である。 図10に示す座標変換式の変形態様を示す図である。 xy座標系上に得られた4つの対応点とuv座標系上に得られた4つの基準点とを示す平面図である。 図10に示す座標変換式に基づいて得られる行列式を示す図である。 図13に示す行列式における係数h11〜h32を決定することによって得られる座標変換式を示す図である。 図1に示す装置の画像変換部170による変換処理を示す平面図である。 図1に示す装置の画像変換部170による、2つの撮影画像の合成を伴う変換処理を示す平面図である。 図16に示す変換処理において、2つの撮影画像の合成方法の一例を示す平面図である。 図16に示す変換処理において、2つの撮影画像の合成方法の別な一例を示す平面図である。 図18に示す合成方法による合成対象となる2つの撮影画像を示す平面図である。 図1に示す装置の第1対応点抽出部130によって抽出された第1対応点の別な一例を示す平面図である。 基準平面Rを所定の回転角γだけ回転させた平面上にuv座標系を定義した例を示す斜視図である。 魚眼カメラによる撮影で得られる歪曲円形画像Sと平面正則画像Tとの関係を示す斜視図である。 魚眼カメラによる撮影で得られた歪曲円形画像Sを平面正則画像Tに変換するための座標変換式を示す図である。 魚眼カメラを用いた実施形態に係る撮影画像表示装置の構成を示すブロック図である。 4台のカメラを用いた実施形態における各カメラの配置を示す斜視図である。
以下、本発明を図示する実施形態に基づいて説明する。
<<< §1.本発明の基本的実施形態 >>>
図1は、本発明の基本的実施形態に係る撮影画像表示装置の構成を示すブロック図である。この実施形態では、2台のカメラ10,20によって、被写体30を撮影する例が示されている。ここでは、被写体30が車両である場合、特に、車両のナンバープレートの部分を被写体として、これを撮影し、モニタ画面上に表示する実施例を述べることにする。
モニタ画面上において、「ナンバープレート上の文字を認識する」という一般的な用途では、当然ながら、「ナンバープレートを正面から観察する方向」が適切な観察方向になる。したがって、この図1に示す装置は、2台のカメラ10,20によって、互いに異なる方向から撮影した被写体30の撮影画像に基づいて、被写体30を所定の仮想方向、すなわち、ナンバープレートの正面方向から観察した画像を生成して表示する装置ということになる。
ここに示す実施例の場合、第1のカメラ10および第2のカメラ20は、通常の平面静止画像を撮影することが可能なデジタルカメラであり、図示のとおり、互いに異なる位置に設置され、同一の被写体30を撮影可能な方向に向けられている。図では、被写体30となる車両が正面向き配置され、その正面像を左斜め方向から撮影する位置に第1のカメラ10が設置され、右斜め方向から撮影する位置に第2のカメラ20が設置された例が示されているが、実際には、必ずしもこのような位置関係に配置されている必要はない。
車両のナンバープレートの文字を自動的に読み取るシステムは、既に実用化されており、高速道路を走行中の車両のナンバーや、駐車場のゲートを通過する車両のナンバーを自動的に読み取る装置として利用されている。このように、車両の進行方向が定まっている環境であれば、1台のカメラで車両の正面を所定方向から撮影した画像が得られれば、ナンバーの読み取りには十分である。本発明に係る装置は、被写体30の向きが定まらないような環境において利用した場合に、その本領を発揮することになる。
この装置では、まず、第1のカメラ10による撮影で得られたデジタル画像および第2のカメラ20による撮影で得られたデジタル画像は、図示のとおり、画像入力部110によって入力され、撮影画像格納部120内に、それぞれ第1の撮影画像P1および第2の撮影画像P2として格納される。なお、必要があれば、この画像入力時に、各カメラの撮影で得られたデジタル画像に対して、所定の変換処理を加えるようにしてもかまわない。たとえば、魚眼カメラを用いた場合には、歪曲円形画像を平面正則画像に変換する処理が必要になる(詳しくは、§4の変形例で述べる)。また、デジタルビデオカメラを用いた場合には、同時点で撮影されたフレーム画像が、それぞれ第1の撮影画像P1および第2の撮影画像P2として取り込まれ、以下に述べる静止画像に対する処理が、時系列に沿って連続して実行されることになる。
図2は、この撮影画像格納部120内に格納された第1の撮影画像P1および第2の撮影画像P2の一例を示す平面図である。図2(a) に示す第1の撮影画像P1は、被写体30となる車両正面のナンバープレート付近を斜め左方向から撮影した画像であり、図2(b) に示す第2の撮影画像P2は、被写体30となる車両正面のナンバープレート付近を斜め右方向から撮影した画像である。なお、実際の撮影画像には、ナンバープレートだけでなく、車両のボディー前面部分が写っていることになるが、ここでは、説明の便宜上、ナンバープレートの部分のみを図示することにする。
本発明の重要な特徴は、この撮影画像表示装置に対して、予め「被写体のどの部分をどの方向から観察した二次元画像を表示せよ」という情報を設定しておき、当該設定どおりの表示を行わせる点にある。具体的には、ここに例示する実施形態の場合、「ナンバープレートの部分を、その正面方向から観察した二次元画像を表示せよ」という情報を設定しておくことになる。そのために、本発明では、被写体上で着目対象となる基準平面なるものを定義する。上例の場合、ナンバープレートの表面が基準平面として定義される。
更に、この基準平面上に4つの基準点を定義する。この4つの基準点は、基準平面を規定する点であるので、基準平面上の任意の点(ただし、一直線上にのる3点を含んでいてはならない)であってかまわない。ただ、後述するように、撮影画像から、この4つの基準点に対応する対応点を抽出する処理を行う必要があるので、実用上は、そのような抽出処理が容易に行えるような特徴的な点を基準点に定義するのが好ましい。たとえば、ナンバープレートの表面を基準平面とする場合であれば、ナンバープレートを構成する矩形の4頂点を基準点と定義するのが最適である。そこで、以下の説明では、予め、この4頂点が基準点として定義されている例を述べることにする。
なお、平面は一直線上にない3点によって規定することができるので、基準平面を規定するためには3つの基準点が定義されていれば十分である。しかしながら、§2で詳述するように、本発明では、座標変換式の係数を求めるための連立方程式を解くために、4つの基準点が必要になる。
図1に示す第1対応点抽出部130は、第1の撮影画像P1を解析することにより、被写体30上の着目対象となる基準平面上の点として予め設定されている4つの基準点にそれぞれ対応する点を、第1の撮影画像P1上において4つの第1対応点として抽出する処理を行う。すなわち、第1対応点抽出部130内には、予め、被写体30上の着目対象となる基準平面上の点として、4つの基準点に関する情報が設定されており、第1の撮影画像P1を解析することにより、この4つの基準点にそれぞれ対応する点を認識する処理を行うことになる。
ここでは、ナンバープレートを構成する矩形の4頂点を基準点として認識するような設定がなされていたとしよう。この場合、図2(a) に示す第1の撮影画像P1を解析することにより、図3(a) に示すような4つの対応点S11〜S14が抽出されることになる。具体的には、第1対応点抽出部130は、まず、第1の撮影画像P1上の直線部を探索し、探索された直線部によって囲まれた四角形を基準平面と認識し、当該四角形の4頂点を4つの第1対応点S11〜S14として抽出する処理を行えばよい。
一般に、画像に含まれる直線を認識する方法としては、画素値ヒストグラムを算出する手法や画素値の濃度勾配を算出する手法などの様々な方法が知られており、実用化されている。また、このような直線の認識法を利用して四角形を認識する方法も公知の方法であり、実際に様々な分野で利用されている。したがって、本明細書では、撮影画像上から四角形の4頂点を抽出する具体的な処理方法についての説明は省略する。
要するに、第1対応点抽出部130は、予め設定された所定の解析アルゴリズムに基づいて、第1の撮影画像P1に対する解析を行い、4つの第1対応点S11〜S14を抽出する処理を実行すればよい。ここで重要な点は、抽出された4つの第1対応点S11〜S14が、被写体上の着目対象となる基準平面上に位置する4つの基準点に対応する点になっていることである。上例の場合、基準平面は被写体30のナンバープレートの表面であり、4つの基準点はこのナンバープレートを構成する矩形の4頂点であるから、4つの第1対応点S11〜S14は、第1の撮影画像P1に写っているナンバープレートを構成する四角形の4頂点ということになる。
一方、第2対応点抽出部140は、第2の撮影画像P2上で、4つの基準点に対応する4つの対応点(第2対応点)を抽出する処理を行う。その結果、図3(b) に示すような4つの第2対応点S21〜S24が抽出されることになる。ただ、この第2対応点S21〜S24の抽出には、前述した第1対応点S11〜S14の抽出とは異なる方法が採られる。すなわち、第2対応点抽出部140は、第1の撮影画像P1の特徴と第2の撮影画像P2の特徴とを比較することにより、両画像上の各点間の対応関係を求め、第2の撮影画像P2上において、4つの第1対応点S11〜S14にそれぞれ対応する4つの第2対応点S21〜S24を抽出する処理を行う。
一般に、同一の被写体を異なる方向から撮影した2枚の撮影画像があれば、両画像を構成する画素間の対応関係を求めることができる。たとえば、図2(a) ,(b) に示すような2枚の撮影画像が与えられた場合、写っている被写体は同一であるから、たとえば、それぞれの画像について、水平方向に走査したときの画素値の濃度勾配の変化および垂直方向に走査したときの画素値の濃度勾配の変化などの特徴を解析すれば、近傍の特徴が類似する2点が互いに対応する点であることを認識可能である。このように、同一の被写体を異なる方向から撮影した2枚の撮影画像について、両画像を構成する各点間の対応関係を求める手法は、公知の手法であり、様々な分野において利用されている(たとえば、毎日コミュニケーションズ社刊「OpenCVプログラミングブック」(2009年)、カットシステム社刊「実践OpenCV−映像処理&解析」(2009年)、オライリージャパン社刊「詳解OpenCV」(2009年)などの専門書を参照)。したがって、本明細書では、より詳細な処理方法についての説明は省略する。
結局、図3(a) に示す4つの第1対応点S11〜S14は、図2(a) に示す第1の撮影画像P1に対して所定のアルゴリズムに基づく解析(四角形の認識)を行うことによって抽出された点であるのに対して、図3(b) に示す4つの第2対応点S21〜S24は、図2(a) ,(b) に示す両画像P1,P2の特徴を比較することにより、画像P1上の各点が、画像P2上のどの点に対応するかを示す対応関係を求め、当該対応関係を用いて、図3(a) に示す4つの第1対応点S11〜S14について対応する画像P2上の点として抽出されることになる。このような方法を採るのは、第1対応点S11〜S14に対応する、より正確な点として、第2対応点S21〜S24を抽出することができるためである。
さて、こうして、図3(a) ,(b) に示すように、第1の撮影画像P1上に4つの第1対応点S11〜S14が定まり、第2の撮影画像P2上に4つの第2対応点S21〜S24が定まったら、これら8点の情報は、基準点座標算出部150へ与えられる。基準点は、被写体30上の基準平面上に定義された4つの点であるが、その情報は、各撮影画像P1,P2上に、対応点S11〜S14,S21〜S24の位置として二次元情報として記録されているだけである。基準点座標算出部150は、この二次元情報に基づいて、三次元空間上での4つの基準点の位置、すなわち、各基準点の三次元情報を復元する処理を行うことになる。
一般に、三次元空間において、同一の被写体を異なる方向から観察した場合に得られる2枚の撮影画像と当該被写体との対応関係は、エピポーラ幾何と呼ばれる幾何学を利用することによって求めることができる。
図4は、一般的なエピポーラ幾何の基本概念を示す空間配置図である。この図では、被写体上の特徴点ξを、2つの異なる視点Q1,Q2から観察することにより得られる2枚の投影像が示されている。投影面π1上に得られる投影像は、第1の視点Q1から観察した場合に得られる像であり、特徴点ξは投影点ξ1に投影されることになる。一方、投影面π2上に得られる投影像は、第2の視点Q2から観察した場合に得られる像であり、特徴点ξは投影点ξ2に投影されることになる。
ここで、2つの視点Q1,Q2を結ぶ直線Bは、ベースラインと呼ばれており、このベースラインBと投影面π1,π2との交点は、エピポールe1,e2と呼ばれる。また、投影点ξ1とエピポールe1とを結ぶ直線E1や、投影点ξ2とエピポールe2とを結ぶ直線E2は、エピポーラ線と呼ばれ、3点ξ,Q1,Q2を通る平面は、エピポーラ平面EPと呼ばれている。
この図4を、同一被写体に対する2台のカメラによる撮影系と考えると、視点Q1,Q2は、それぞれ各カメラが設置された撮影点ということになる。厳密に言えば、視点Q1は、第1のカメラ10のレンズの焦点が置かれた第1の撮影点となり、視点Q2は、第2のカメラ20のレンズの焦点が置かれた第2の撮影点となる。また、第1の投影面π1は、第1のカメラ10の光軸に直交する撮像面であり、当該撮像面π1上に投影された被写体像が、第1の撮影画像P1に相当する。同様に、第2の投影面π2は、第2のカメラ20の光軸に直交する撮像面であり、当該撮像面π2上に投影された被写体像が、第2の撮影画像P2に相当する。
結局、図に示す投影点ξ1は、被写体上の特徴点ξに対応する第1の撮影画像P1上の対応点となり、投影点ξ2は、被写体上の特徴点ξに対応する第2の撮影画像P2上の対応点となる。ここで、各撮影点Q1,Q2の位置が固定されていれば、三角測量の原理により、投影点ξ1,ξ2の位置に基づいて、被写体上の特徴点ξの三次元空間上での位置を求めることができる。すなわち、2点Q1,ξ1を結ぶ直線と、2点Q2,ξ2を結ぶ直線との交点として、特徴点ξの三次元空間上での位置を決定することができる。
実際には、投影点ξ1,ξ2の位置は、撮像面π1,π2上に定義された二次元座標系上の座標値として与えられるが、撮像面π1,π2は、各カメラの光軸に直交する投影面であるから、各カメラの設置位置、その向き、ズーム倍率が定まれば、三次元空間上での撮像面π1,π2の位置を決めることができ、投影点ξ1,ξ2の三次元座標値を決定することができる。なお、2台のカメラのズーム倍率を同一に設定しておけば(通常は、そのような設定を行うことになろう)、カメラのズーム倍率は、単に復元される被写体の像の大きさを決定するパラメータになるだけであり、被写体の形状を復元する際に必須の情報にはならない。したがって、実用上は、第1のカメラ10および第2のカメラ20の設置位置および向きの情報が得られれば、互いに対応する投影点ξ1,ξ2の位置の情報に基づいて、特徴点ξの三次元空間上での座標を決定することができる。
図1に示す基準点座標算出部150は、第1のカメラ10および第2のカメラ20の設置位置および向きの情報と、第1対応点抽出部130から与えられた4つの第1対応点S11〜S14の二次元座標値と、第2対応点抽出部140から与えられた4つの第2対応点S21〜S24の二次元座標値と、に基づいて、これら各対応点に対応する被写体30上での4つの基準点S31〜S34の三次元座標値を求める処理を行う。図5は、被写体30上に得られた基準点S31〜S34の一例を示す正面図である。この図では、説明の便宜上、被写体30の全体像が描かれているが、基準点座標算出部150によって実際に算出されるのは、この被写体30上の4つの基準点S31〜S34の三次元座標値のみである。この4つの基準点S31〜S34は、前述したとおり、被写体30上の着目対象面(この例では、ナンバープレートの表面)として設定された基準平面R上の点になる。
各カメラの設置位置および向きの情報と、第1対応点S11〜S14の二次元座標値と、第2対応点S21〜S24の二次元座標値と、に基づいて、4つの基準点S31〜S34の三次元座標値が求まる理由は、図4に示すエピポーラ幾何の原理から容易に理解できよう。たとえば、図3(a) ,(b) に示す撮影画像P1,P2を、図4に示す撮像面π1,π2上に得られた画像として、図3(a) ,(b) に示す互いに対応する点S11,S21を、図4に示す投影点ξ1,ξ2とすれば、図4に示す特徴点ξとして、図5に示す基準点S31の三次元座標値が得られることになる。他の基準点S32,S33,S34についても同様である。
なお、第1のカメラ10および第2のカメラ20の設置位置および向きの情報は、各カメラを定位置へ設置する作業が完了した後、ユーザが基準点座標算出部150に対して、当該情報を設定する操作を行うことにより、基準点座標算出部150内に格納することができる。このような運用を採る場合は、基準点座標算出部150に、第1のカメラ10および第2のカメラ20の設置位置および向きの情報を、外部からの設定操作により格納する機能をもたせておき、当該格納情報を用いて、4つの基準点の三次元座標値を求めるようにすればよい。このような運用手法は、一般に「キャリブレーション」と呼ばれている。
一方、基準点座標算出部150に、撮影画像格納部120に格納されているテスト用被写体を撮影した第1の撮影画像P1と第2の撮影画像P2とに基づいて、第1のカメラ10および第2のカメラ20の設置位置および向きの情報を自動取得する機能をもたせておくことも可能である。すなわち、所定のテスト用被写体についての2つの撮影画像に基づいて、撮影に用いた2台のカメラの設置位置および向きを推定するアルゴリズムを実行するプログラムを基準点座標算出部150に組み込んでおき、各カメラを定位置へ設置する作業が完了した後、当該テスト用被写体についての試験撮影を行えば、これら試験撮影の結果を利用して、2台のカメラの設置位置および向きの情報を自動取得することが可能になる。
このような運用手法は、一般に「ノンキャリブレーション」と呼ばれている。この運用手法は、カメラの設置位置や向きを頻繁に変更して利用するような場合に便利である。なお、テスト用被写体の撮影画像に基づいて、カメラの設置位置および向きの情報を自動取得するアルゴリズムも、既に実用化されている公知のアルゴリズムであるため、ここでは詳しい説明は省略する。
さて、こうして、4つの基準点S31〜S34の三次元座標値が求まれば、グローバルな三次元座標系上において、第1の撮影画像P1上の4つの第1対応点S11〜S14、第2の撮影画像P2上の4つの第2対応点S21〜S24、基準平面R上の4つの基準点S31〜S34の12個の点の位置が定まることになる。図6は、三次元空間上に配置された第1の撮影画像P1,第2の撮影画像P2,基準平面Rの位置関係を示す配置図である。
ここで、点S11,S21,S31は互いに対応する点であり、点S12,S22,S32は互いに対応する点であり、点S13,S23,S33は互いに対応する点であり、点S14,S24,S34は互いに対応する点である。これら空間上の位置が既知の各点の対応関係を利用すれば、第1の撮影画像P1上の任意の点pと基準平面R上の点qとの間の一般的な対応関係を示す座標変換式を定義することができ、同様に、第2の撮影画像P2上の任意の点pと基準平面R上の点qとの間の一般的な対応関係を示す座標変換式を定義することができる。
ここでは、図示のとおり、第1の撮影画像P1(第1のカメラの撮像面π1)上に第1の二次元xy座標系を定義し、第1の撮影画像P1上の任意の点pの位置を座標(x,y)で示すこととし、同様に、第2の撮影画像P2(第2のカメラの撮像面π2)上に第2の二次元xy座標系を定義し、第2の撮影画像P2上の任意の点pの位置を座標(x,y)で示すことにする。第1の二次元xy座標系と第2の二次元xy座標系とは、いずれも各撮影画像上においてのみ定義されるローカル座標系であり、両者の座標は全く独立したものである。一方、図示のとおり、4つの基準点S31〜S34を含む基準平面R上にも、ローカルな二次元uv座標系を定義し、この基準平面R上の任意の点qの位置を座標(u,v)で示すことにする。
この3つのローカル二次元座標系は、前述したグローバルな三次元座標系の所定位置に配置された座標系であり、このグローバル座標系上において、各座標系の位置は既知のものとなっている。すなわち、第1のカメラの撮像面π1は、第1のカメラ10の光軸に対して直交する投影面として定義される面であり、第1のカメラ10が設置されている撮影点Q1の位置とその光軸の向きが決まれば、グローバル座標系における、撮像面π1の位置を定めることができる。理論的には、第1のカメラ10のズーム倍率に応じて、撮像面π1の位置は光軸に沿って平行移動することになるが、§2で詳述するように、カメラのズーム倍率は、像の大きさを決めるスケーリングファクターになるため、実用上は任意に設定してかまわない。
同様に、第2のカメラの撮像面π2についても、第2のカメラ20が設置されている撮影点Q2の位置とその光軸の向きが決まれば、グローバル座標系におけるその位置を定めることができる。また、基準平面Rは、4つの基準点S31〜S34を含む平面であるから、基準点座標算出部150によって算出された基準点S31〜S34の三次元座標値に基づいて、そのグローバル座標系における位置を定めることができる。
図6において、基準平面Rは、三次元空間上に復元された被写体上の着目対象となる平面であり、上例の場合、ナンバープレートの表面に相当する。したがって、この基準平面R上に定義された二次元uv座標系上に、被写体の像を復元することができれば、当該復元画像は、「ナンバープレートを正面から観察した画像」になり、本発明が目的とする表示対象画像(用途に応じて適切な観察方向が予め定まっている被写体について、当該適切な観察方向から観察した状態を示す二次元画像)になる。すなわち、ナンバープレートを、図6に示す仮想視点E(基準平面Rに直交する線上の点)から観察した場合の正面像が得られることになる。
二次元uv座標系上に被写体30の像を復元するには、第1の撮影画像P1を用いてもよいし、第2の撮影画像P2を用いてもよい。第1の撮影画像P1を用いる場合には、第1の撮影画像P1を変換対象画像として、第1の二次元xy座標系上の点p(x,y)と二次元uv座標系上の点q(u,v)との対応関係を示す座標変換式「(u,v)=f(x,y)」を用いた変換を行い、第2の撮影画像P2を用いる場合には、第2の撮影画像P2を変換対象画像として、第2の二次元xy座標系上の点p(x,y)と二次元uv座標系上の点q(u,v)との対応関係を示す座標変換式「(u,v)=g(x,y)」を用いた変換を行うことになる。
図1に示す係数値算出部160は、上記関数fもしくはgに含まれる係数の値を算出する機能を有する。すなわち、第1の撮影画像P1もしくは第2の撮影画像P2を変換対象画像として、この変換対象画像上に二次元xy座標系を定義したときに、二次元uv座標系上の任意の座標値(u,v)と、当該座標値で示される点に対応する二次元xy座標系上の点の座標値(x,y)と、の関係を定める座標変換式の係数値を、4つの基準点の座標値と、4つの第1対応点もしくは4つの第2対応点の座標値との対応関係を用いて算出する処理を行う。
要するに、第1の撮影画像P1を変換対象画像とする場合は、「二次元uv座標系上の任意の座標値(u,v)」と、「当該座標値で示される点q(u,v)に対応する第1の二次元xy座標系上の点p(x,y)の座標値(x,y)」と、の関係を定める座標変換式「(u,v)=f(x,y)」の係数値を、4つの基準点S31〜S34の座標値と、4つの第1対応点S11〜S14の座標値との対応関係を用いて算出することになる。また、第2の撮影画像P2を変換対象画像とする場合は、「二次元uv座標系上の任意の座標値(u,v)」と、「当該座標値で示される点q(u,v)に対応する第2の二次元xy座標系上の点p(x,y)の座標値(x,y)」と、の関係を定める座標変換式「(u,v)=g(x,y)」の係数値を、4つの基準点S31〜S34の座標値と、4つの第2対応点S21〜S24の座標値との対応関係を用いて算出することになる。この係数値算出部160によって行われる具体的な関数式についての係数値の算出方法については、§2で詳述する。
図1に示す画像変換部170は、係数値算出部160によって算出された係数値によって規定される座標変換式「(u,v)=f(x,y)」もしくは「(u,v)=g(x,y)」を用いて、第1の二次元xy座標系もしくは第2の二次元xy座標系上の変換対象画像、すなわち、撮影画像格納部120に格納されている第1の撮影画像P1もしくは第2の撮影画像P2を、二次元uv座標系上の表示対象画像P3に変換する処理を行う。この変換処理により、図6に示す二次元uv座標系上に、表示対象画像P3が得られることになる。この表示対象画像P3は、上述したとおり、元の被写体30の基準平面Rを復元した像になり、この基準平面Rを正面から観察した状態を示す画像になる。
図1に示すとおり、こうして画像変換部170による変換処理によって作成された表示対象画像P3は、表示対象画像格納部180に格納され、画像出力部190によってモニタ装置へと出力され、モニタの画面上に表示される。結局、モニタ画面上には、図5に示すナンバープレートの部分の正面画像が表示されることになる。このように、本発明に係る撮影画像表示装置によれば、ユーザが、観察方向に関して何ら指示操作を行わなくても、用途に応じて適切な観察方向が予め定まっている被写体について、当該適切な観察方向から観察した状態を示す二次元画像が自動的に生成され、モニタ画面上に表示されることになる。
以上、図1のブロック図を参照しながら、本発明の基本的実施形態に係る撮影画像表示装置の構成を説明したが、実際には、この撮影画像表示装置におけるカメラ10,20以外の構成要素、すなわち、画像入力部110,撮影画像格納部120,第1対応点抽出部130,第2対応点抽出部140,基準点座標算出部150,係数値算出部160,画像変換部170,表示対象画像格納部180,画像出力部190の部分は、コンピュータに専用のプログラムを組み込むことによって構成することができる。また、LSIなどの半導体集積回路によって構成することもできる。
<<< §2.係数値算出部における具体的な処理 >>>
ここでは、図1に示す装置における係数値算出部160が行う具体的な処理を説明する。§1で述べたとおり、ここで算出する係数値は、図6に示す第1の二次元xy座標系上の点p(x,y)と二次元uv座標系上の点q(u,v)との対応関係を示す座標変換式「(u,v)=f(x,y)」の関数fに含まれる係数の値、もしくは、第2の二次元xy座標系上の点p(x,y)と二次元uv座標系上の点q(u,v)との対応関係を示す座標変換式「(u,v)=g(x,y)」の関数gに含まれる係数の値である。いずれも、座標値(x,y)と座標値(u,v)との間の変換式に関するものであるから、ここでは、関数fについての説明を行うことにする。
関数fが定まれば、第1の二次元xy座標系上の任意の点p(x,y)の座標(x,y)を、二次元uv座標系上の座標(u,v)に変換することができるので、第1の撮影画像P1上の任意の点p(x,y)に位置する画素を、二次元uv座標系上の座標変換点q(u,v)の位置にプロットすることができ、第1の撮影画像P1を二次元uv座標系上の表示対象画像に変換することができる。この変換処理は、§1で述べたとおり、画像変換部170によって実行される。
関数fに含まれる係数値は、第1の二次元xy座標系上の4点S11〜S14の既知座標値と、二次元uv座標系上の4点S31〜S34の既知座標値とを用いた演算によって算出される。もっとも、理論的には、関数fに含まれるすべての係数値を定めるためには、これら8個の点の座標値だけでは十分ではない。そこで、本発明では、「二次元uv座標系と二次元xy座標系との間のスケーリングファクターは、任意に設定できる。」という前提を置く工夫をすることにより、8個の点の座標値を用いて係数値を算出できるようにしている。
図6において、グローバル座標系上での撮影点Q1,Q2の位置、撮像面π1,π2の位置、基準平面Rの位置を完全に定めることができれば、基準平面R上に実寸台の被写体30を復元することができるので、二次元uv座標系上には、表示対象画像として、実寸台の画像を得ることができる。しかしながら、実用上、実寸台の表示対象画像を得ることに、技術的な意味はない。実際には、表示対象画像は、デジタル画像データとして得られるので、所定ピッチの画素配列として得られることになる。したがって、画素ピッチの設定次第で、得られる画像データのサイズ(縦横の画素数)は変わってしまう。また、この表示対象画像をモニタ画面上に表示する場合も、用いるモニタ装置が対応する画素サイズなどの条件により、表示される画像の最終的なサイズは変わってしまう。
結局、基準平面R上に実寸台の被写体像を復元することは意味がないので、二次元xy座標系上の各撮影画像と二次元uv座標系上の表示対象画像との間のスケーリングファクターは、任意に設定できることになる。
さて、図7は、三次元XYZ座標系における撮影画像の投影面の位置と撮影画像のスケーリングとの関係を示す斜視図である。図に示す投影面πa,πbは、いずれもXY平面に平行な投影面であり、投影面πaは、Z=zaで示される平面上に配置され、投影面πbは、Z=zbで示される平面上に配置されている。ここで、この座標系の原点Oの位置に視点Q1をとって、被写体上の特徴点ξを観察すると、図示のとおり、投影面πa上には投影点ξaが形成され、投影面πb上には投影点ξbが形成される。このようにして、各投影面πa,πb上には、それぞれ被写体の個々の点が投影され、被写体全体の投影像が形成されることになるが、投影面πa上に形成される投影像と投影面πb上に形成される投影像とは相似形になる。別言すれば、投影面πa上に形成される投影像をzb/za倍に拡大すれば、投影面πb上に形成される投影像が得られる。
結局、投影面πをZ軸方向に平行移動させることは、投影像のスケーリングファクターを変化させることと等価であり、スケーリングファクターを任意に設定できるのであれば、投影面πのZ軸方向の位置も任意に設定できることになる。そこで、図8に示すように、投影面πを、Z=1で示される平面上に配置することにし、この投影面π上に二次元xy座標系を定義することにする。この二次元xy座標系上の任意の点pは、二次元座標値p(x,y)で示されることになるが、三次元XYZ座標系では、三次元座標値p(x,y,1)で示されることになる。
一方、図9に示すように、三次元グローバル空間上に、三次元XYZ座標系とともに、これとは全く別な三次元UVW座標系(原点O′)を定義してみる。XYZ座標系とUVW座標系とは、全く独立した座標系であり、各原点O,O′の位置や各座標軸の向きは、それぞれ独立して設定されている。そして、XYZ座標系上には、図8で示したように、Z=1で示される平面上に配置された投影面πを定義し、この投影面π上に二次元xy座標系を定義する。一方、UVW座標系上には、W=1で示される平面上に配置された基準平面Rを定義し、この基準平面R上に二次元uv座標系を定義する。この二次元uv座標系上の任意の点qは、二次元座標値q(u,v)で示されることになるが、三次元UVW座標系では、三次元座標値q(u,v,1)で示されることになる。
さて、上述したように、XYZ座標系とUVW座標系とは、位置や向きを任意に設定可能な相互に全く独立した座標系であるから、図6に示す第1の二次元xy座標系(第1の撮影画像P1が形成されている投影面π1上の座標系)および二次元uv座標系(基準平面R上の座標系)を、図9のモデルに示す二次元xy座標系および二次元uv座標系に置き換えて考えることが可能である。ただ、スケーリングファクターに関しては、完全な整合性はとれない。図6に示す投影面π1と視点Q1との距離は、撮影に用いた第1のカメラ10のズーム倍率に基づいて決定されるものであるのに対して、図9のモデルに示す投影面πと視点Q1(原点O)との距離は1に固定されてしまっている。しかしながら、上述したとおり、実用上、スケーリングファクターは、任意に設定できるため、図9のモデルに示す座標系を前提として座標変換式を定義しても何ら支障は生じない。
ここで定義すべき座標変換式は、図9に示す三次元XYZ座標系上の任意の点p(x,y,1)と三次元UVW座標系上の点q(u,v,1)との対応関係を示す式である。一般に、2つの異なる三次元座標系間の座標変換式は、ホモグラフィー行列Hを用いて表現され、三次元XYZ座標系上の座標値(x,y,z)と三次元UVW座標系上の座標値(u,v,w)との間の座標変換式は、
[x y z]=H[u v w]
なる行列式で表される。ここで、Hは、3行3列のホモグラフィー行列であり、右肩にTを付した行列は転置行列を示している(明細書中では、文字列のみで行列表現を行う便宜上、列ベクトルを行ベクトルの転置形式で示すことにする)。
図9に示すモデルでは、上式において、z=1、w=1に固定することができるので、
[x y 1]=H[u v 1]
なる式を用いればよい。ここでは、更に、xy座標系とuv座標系との間のスケーリングファクターを任意に設定できるという利点を利用して、任意のスケーリング係数σを導入し、図10に式(1)として示すように
[x y 1]=H[u v 1]・σ
なる式を立てることにする。ここで、3行3列のホモグラフィー行列Hの各要素をh11,h12,h13,h21,h22,h23,h31,h32,h33とすれば、上式は、図10の式(2)のように表すことができる。
この式(2)に示す行列式を3本の式に分けると、
x=h11・uσ+h12・vσ+h13・σ
y=h21・uσ+h22・vσ+h23・σ
1=h31・uσ+h32・vσ+h33・σ
となる。この第3式をσについて解くと、
σ=1/(h31・u+h32・v+h33)
となるので、このσを第1式および第2式に代入して整理すると、図10に式(3)および式(4)として示すように、
x=(h11・u+h12・v+h13)/(h31・u+h32・v+h33)
y=(h21・u+h22・v+h23)/(h31・u+h32・v+h33)
なる式が得られる。
この2つの式の分母分子をh33で除すると、
x=(h11/h33・u+h12/h33・v+h13/h33)
/(h31/h33・u+h32/h33・v+h33/h33)
y=(h21/h33・u+h22/h33・v+h23/h33)
/(h31/h33・u+h32/h33・v+h33/h33)
となるので、h11/h33,h12/h33,h13/h33,h21/h33,h22/h33,h23/h33,h31/h33,h32/h33を、それぞれh11′,h12′,h13′,h21′,h22′,h23′,h31′,h32′とおけば、
x=(h11′・u+h12′・v+h13′)/(h31′・u+h32′・v+1)
y=(h21′・u+h22′・v+h23′)/(h31′・u+h32′・v+1)
と変形できる。ここで、h11′〜h32′を新たにh11〜h32とおけば、
x=(h11・u+h12・v+h13)/(h31・u+h32・v+1)
y=(h21・u+h22・v+h23)/(h31・u+h32・v+1)
なる式が得られることになる。結局、図10の式(3)および式(4)において、便宜上、h33=1とおいて、図10に示す式(5)および式(6)を導くことができる。
図10の式(5)の分母を両辺に乗じれば、図11に示すように、式(7)が得られ、その左辺の一部を右辺へ移項すると式(8)が得られる。同様に、図10の式(6)の分母を両辺に乗じれば、図11に示すように、式(9)が得られ、その左辺の一部を右辺へ移項すると式(10)が得られる。結局、図9に示すモデルを用いた場合、座標値(x,y)と座標値(u,v)との間の座標変換式は、図11の式(8)および式(10)に示すように、
x=h11・u+h12・v+h13−h31・x・u−h32・x・v
y=h21・u+h22・v+h23−h31・y・u−h32・y・v
となる。
これら2つの式は、二次元xy座標系上の任意の座標値(x,y)と二次元uv座標系上の任意の座標値(u,v)との関係を示す式であり、図9に示すグローバル座標系上に配置された2つの三次元座標系モデルを前提として導出された式である。このモデルでは、二次元xy座標系は、三次元XYZ座標系上の所定位置に定義された二次元座標系であり、二次元uv座標系は、三次元UVW座標系上の所定位置に定義された二次元座標系である。そして、二次元xy座標は、第1のカメラの撮像面π1上に定義された座標であり、そこには、第1の撮影画像P1が配置されている。また、二次元uv座標は、基準平面R(被写体30上の着目対象面)上に定義された座標であり、そこには、表示対象画像P3が形成されることになる。
したがって、これら2つの式を用いれば、座標値(u,v)と座標値(x,y)との間の相互変換を行うことができ、二次元xy座標上の第1の撮影画像P1を、二次元uv座標上の表示対象画像P3に変換することができる。ただ、これらの式を座標変換式として用いるためには、8個の係数h11〜h32の値を定める必要がある。§1で述べたとおり、係数値算出部160は、8個の点の座標値を用いて、これら8個の係数値を算出する処理を行う。
図12は、この算出処理に利用される8個の点を示す平面図である。図12(a) は、第1の二次元xy平面上に配置された4つの第1対応点S11〜S14を示す図である。ここでは、これらの各対応点が、xy座標系において、それぞれS11(x1,y1),S12(x2,y2),S13(x3,y3),S14(x4,y4)なる座標で示される点であるものとしよう。これら4つの第1対応点S11〜S14は、第1対応点抽出部130によって抽出され、その座標値が求められている。
一方、図12(b) は、二次元uv平面上に配置された4つの基準点S31〜S34を示す図である。ここでは、これらの各基準点が、uv座標系において、それぞれS31(u1,v1),S32(u2,v2),S33(u3,v3),S34(u4,v4)なる座標で示される点であるものとしよう。これら4つの基準点S31〜S34の座標値は、基準点座標算出部150によって算出されている。
しかも、対応点S11(x1,y1)は基準点S31(u1,v1)に対応する点であり、対応点S12(x2,y2)は基準点S32(u2,v2)に対応する点であり、対応点S13(x3,y3)は基準点S33(u3,v3)に対応する点であり、対応点S14(x4,y4)は基準点S34(u4,v4)に対応する点である。したがって、これら対応関係にある座標値(x,y)および座標値(u,v)の組み合わせは、図11に示す式(8)および式(10)を満足する。そこで、上記4通りの組み合わせを式(8)および式(10)に代入すれば、合計8本の連立方程式が得られる。
図13は、この8本の連立方程式を行列式の形で示した図である。たとえば、左側の8行8列の行列式の第1行目の各項は、図11の式(8)に、x=x1,u=u1,v=v1を代入することにより得られる項であり、第2行目の各項は、図11の式(10)に、y=y1,u=u1,v=v1を代入することにより得られる項である。すなわち、この行列式の第1行目および第2行目の各項は、対応点S11(x1,y1)と基準点S31(u1,v1)との対応関係を示す項になる。同様に、第3行目および第4行目の各項は、対応点S12(x2,y2)と基準点S32(u2,v2)との対応関係を示す項であり、第5行目および第6行目の各項は、対応点S13(x3,y3)と基準点S33(u3,v3)との対応関係を示す項であり、第7行目および第8行目の各項は、対応点S14(x4,y4)と基準点S34(u4,v4)との対応関係を示す項である。
この図13の行列式で示される8本の連立方程式において、各座標値は既知数になるので、未知数は8個の係数h11〜h32の8個になる。したがって、この8本の連立方程式を解く演算を実行すれば、8個の係数h11〜h32の値を算出することができる。係数値算出部160は、このような演算によって、係数値h11〜h32を算出することになる。
要するに、係数値算出部160は、二次元uv座標系と二次元xy座標系との間のスケーリングファクターを任意に設定することにより、座標値(u,v)と座標値(x,y)との関係を定める座標変換式として、図10の式(5),式(6)に示すように、
x=(h11・u+h12・v+h13)/(h31・u+h32・v+1)
y=(h21・u+h22・v+h23)/(h31・u+h32・v+1)
なる式を定義し、この2本の式に、4つの基準点についての二次元uv座標系の座標値(u,v)と4つの第1対応点の二次元xy座標系の座標値(x,y)とをそれぞれ代入して得られる8本の連立方程式を用いて、8個の係数h11,h12,h13,h21,h22,h23,h31,h32を算出することになる。
以上の説明は、図6に示す3つの二次元座標系において、第1の二次元xy座標系上の座標値(x,y)と二次元uv座標系上の座標値(u,v)との間の座標変換式の係数を、4つの第1対応点S11〜S14の座標値と4つの基準点S31〜S34の座標値とに基づいて算出する方法についてのものであり、この方法で算出された座標変換式「(u,v)=f(x,y)」を用いると、第1の撮影画像P1を表示対象画像P3に変換することが可能になる。
一方、全く同様の方法により、第2の二次元xy座標系上の座標値(x,y)と二次元uv座標系上の座標値(u,v)との間の座標変換式の係数を、4つの第2対応点S21〜S24の座標値と4つの基準点S31〜S34の座標値とに基づいて算出することも可能であり、この方法で算出された座標変換式「(u,v)=g(x,y)」を用いると、第2の撮影画像P2を表示対象画像P3に変換することが可能になる。
実用上は、係数値算出部160によって、上記2通りの方法を実行し、§3で述べるように、座標変換式「(u,v)=f(x,y)」を用いた第1の撮影画像P1から表示対象画像P3への変換と、座標変換式「(u,v)=g(x,y)」を用いた第2の撮影画像P2から表示対象画像P3への変換と、の双方を行うことができるようにするのが好ましい。
<<< §3.画像変換部における具体的な処理 >>>
ここでは、図1に示す装置における画像変換部170が行う具体的な処理を説明する。§1で述べたとおり、この画像変換部170は、図14に式(12)として示すように、係数値算出部160によって算出された係数値によって規定される座標変換式「(u,v)=f(x,y)」もしくは「(u,v)=g(x,y)」を用いて、撮影画像格納部120に格納されている第1の撮影画像P1もしくは第2の撮影画像P2を、表示対象画像P3に変換する処理を行う。図15は、この変換処理を示す平面図である。
図示のとおり、第1の撮影画像P1は、第1のカメラの撮像面π1上に定義された第1の二次元xy座標系上に配置され、座標変換式「(u,v)=f(x,y)」によって、二次元uv座標系上(基準平面R上)に配置された表示対象画像P3に変換することができる。同様に、第2の撮影画像P2は、第2のカメラの撮像面π2上に定義された第2の二次元xy座標系上に配置され、座標変換式「(u,v)=g(x,y)」によって、二次元uv座標系上(基準平面R上)に配置された表示対象画像P3に変換することができる。これは、上記座標変換式によって、二次元xy座標系上の任意の点p(x,y)を、二次元uv座標系上の点q(u,v)に変換することができるためである。
ただ、撮影画像P1,P2も、表示対象画像P3も、所定ピッチで画素を配置した画素配列によって構成されているため、実際には、撮影画像P1,P2上の任意の1画素を、表示対象画像P3上の1つの画素に必ずしも正確に対応させることはできない。そこで実用上は、まず、二次元uv座標系上に所望のピッチで画素配列(表示対象画像P3を構成するための画素配列)を定義し、当該画素配列を構成する個々の画素の画素値を、二次元xy座標系上の撮影画像P1もしくはP2の画素値を参照することにより決定する方法を採る。
すなわち、画像変換部170は、二次元xy座標系上の変換対象画像(撮影画像P1もしくはP2)を二次元uv座標系上の表示対象画像P3に変換する際に、座標値(u,v)を引数として座標値(x,y)を求める座標変換式を用い、変換対象画像上の座標値(x,y)で示される位置の近傍に存在する複数の画素の画素値を用いた補間演算によって求められる補間値を、座標値(u,v)で示される位置に配置された画素の画素値とする処理を行えばよい。
このように、所定の座標値(x,y)の近傍に存在する複数の画素の画素値を読み出し、これらの画素値についての補間値を求める補間演算を行う方法としては、たとえば、バイリニア補間法、バイキュービック・スプライン補間法など、様々な方法が公知であるため、ここでは詳しい説明は省略する。もちろん、そのような補間を行わずに、座標値(x,y)で示される位置に最も近い画素の画素値をそのまま用いる方法を採ることも可能である。
結局、実際には、画像変換部170が行う画像変換処理には、座標値(u,v)を引数として座標値(x,y)を求める形式の座標変換式が用いられることになるので、「(u,v)=f(x,y)」もしくは「(u,v)=g(x,y)」なる形式の代わりに、関数f,gの逆関数f−1,g−1を用いた「(x,y)=f−1(u,v)」もしくは「(x,y)=g−1(u,v)」なる形式の座標演算式が用いられることになる。図11の式(8),式(10)によって示される座標変換式は、このような形式の式になっている。
さて、図15に示すように、表示対象画像P3は、第1の撮影画像P1を座標変換式「(u,v)=f(x,y)」によって変換することによって得ることもできるし、第2の撮影画像P2を座標変換式「(u,v)=g(x,y)」によって変換することによって得ることもできる。そして、幾何学的には、いずれの変換方法を採った場合でも、得られる表示対象画像P3に違いはない。したがって、理論的には、画像変換部170は、第1の撮影画像P1および第2の撮影画像P2の一方を変換対象画像として選択し、この変換対象画像について、上記座標変換式を用いた変換処理を施し、表示対象画像P3を得る処理を行えばよい。
しかしながら、実用上は、各撮影画像P1,P2には、物理的な制約に基づく解像度が存在し、これらの画像には、有限個の画素の情報しか含まれていない。このため、実際には、両撮影画像P1,P2に基づく変換結果は正確には一致しない。したがって、実用上は、第1の撮影画像P1および第2の撮影画像P2の双方を変換対象画像として選択し、この双方の変換対象画像について、上記座標変換式を用いた変換処理を施し、表示対象画像P3を得る処理を行うのが好ましい。
そのためには、まず、係数値算出部160により、第1の撮影画像P1および第2の撮影画像P2の双方を変換対象画像として選択し、これら変換対象画像上にそれぞれ第1および第2の二次元xy座標系を定義し、二次元uv座標系上の任意の座標値(u,v)と、当該座標値で示される点に対応する第1および第2の二次元xy座標系上の点の座標値(x,y)と、の関係を定める座標変換式fおよびgの係数値を、4つの基準点S31〜S34の座標値と、4つの第1対応点S11〜S14および4つの第2対応点S21〜S24の座標値との対応関係を用いて算出するようにする。
そして、画像変換部170が、図16に示すように、係数値算出部160によって算出された係数値によって規定される第1の座標変換式(関数f)を用いて、図の左下に示す第1の二次元xy座標系上の第1の撮影画像P1を、その上方に示す二次元uv座標系上の第1の準備画像Paに変換するとともに、係数値算出部160によって算出された係数値によって規定される第2の座標変換式(関数g)を用いて、図の右下に示す第2の二次元xy座標系上の第2の撮影画像P2を、その上方に示す二次元uv座標系上の第2の準備画像Pbに変換し、最後に、第1の準備画像Paと第2の準備画像Pbとを合成することにより、図の上方に示す表示対象画像P3を生成する処理を行うようにすればよい。
なお、前述したように、実際には、第1の撮影画像P1から第1の準備画像Paへの変換処理は、第1の準備画像Paを構成する画素配列上の座標値(u,v)に配置された画素q1(u,v)について、座標値(u,v)を引数として座標値(x,y)を求める形式の座標変換式「(x,y)=f−1(u,v)」を用いた演算によって対応する座標値(x,y)を求め、当該座標値p(x,y)で示される位置の近傍に存在する複数の画素の画素値を用いた補間演算によって求められる補間値を、画素q1(u,v)の画素値とする処理を行うことになる。
同様に、第2の撮影画像P2から第2の準備画像Pbへの変換処理は、第2の準備画像Pbを構成する画素配列上の座標値(u,v)に配置された画素q2(u,v)について、座標値(u,v)を引数として座標値(x,y)を求める形式の座標変換式「(x,y)=g−1(u,v)」を用いた演算によって対応する座標値(x,y)を求め、当該座標値p(x,y)で示される位置の近傍に存在する複数の画素の画素値を用いた補間演算によって求められる補間値を、画素q2(u,v)の画素値とする処理を行うことになる。
こうして、第1の準備画像Paと第2の準備画像Pbとが得られたら、両画像を合成することにより、図の上方に示す表示対象画像P3を生成する処理を行うようにすればよい。両画像の合成方法は、両画像の特徴を融合させるような方法であれば、どのような方法を採ってもかまわないが、一般的には、αブレンドと呼ばれている方法を採ればよい。
具体的には、図16に示すように、第1の準備画像Pa上の座標値(u,v)で示される位置の任意の画素q1(u,v)の画素値をI1(u,v)、第2の準備画像Pb上の同じ座標値(u,v)で示される位置の画素q2(u,v)の画素値をI2(u,v)、表示対象画像P3上の同じ座標値(u,v)で示される位置の画素q(u,v)の画素値をI(u,v)としたときに、所定の重み係数α(0≦α≦1)を用いて、図16に式(13)として示すように、
I(u,v)=(1−α)・I1(u,v)+α・I2(u,v)
なる合成演算を行い、画素q(u,v)の画素値I(u,v)を決定するようにすればよい。
ここで、重み係数αは、画像合成を行う上で、第1の準備画像Paと第2の準備画像Pbとのいずれを重視するかを定めるパラメータであり、0≦α≦1の範囲の値となる。重み係数αが小さければ小さいほど、第1の準備画像Paを重視した合成が行われ、大きければ大きいほど、第2の準備画像Pbを重視した合成が行われる。α=0に設定すると、表示対象画像P3は第1の準備画像Paに等しくなり、α=1に設定すると、表示対象画像P3は第2の準備画像Pbに等しくなる。α=0.5に設定しておけば、両画像の平均画像が表示対象画像P3として得られる。
重み係数αの値は、たとえば、常にα=0.5にする、というように固定しておいてもよいが、より好ましくは、表示対象画像P3が得られるuv座標平面と各カメラの撮像面(被写体の投影面)との位置関係に基づいて、その都度、最適値を定めるようにするのが好ましい。
たとえば、図1の上部に示す例の場合、被写体30の着目対象となるナンバープレートを、左斜め45°および右斜め45°程度の角度から2台のカメラ10,20で撮影しているため、図2(a) ,(b) に示すように、ほぼ対称となる撮影画像P1,P2が得られている。このような場合は、α=0.5に設定し、両画像の重みを等しく設定すればよい。ところが、図1の上部に示す例において、被写体30の向きがやや左向きであったとすると、第1の撮影画像P1は、車両の正面に近い方向から撮影した画像となり、第2の撮影画像P2は、車両の側面に近い方向から撮影した画像となるので、着目対象となるナンバープレートの解像度に関しては、撮影画像P1の方が撮影画像P2よりも高くなる。このような場合は、α<0.5に設定し、撮影画像P1をより重視した合成を行うようにするのが好ましい。
図17は、重み係数αの値を設定する具体的な方法の一例を示す上面図である。ここで、点Q1,Q2は、2台のカメラの撮影点であり、投影面π1,π2は、これら2台のカメラの撮像面である。第1の撮影画像P1は投影面π1上に形成され、第2の撮影画像P2は投影面π2上に形成される。一方、uv平面は、被写体30上の基準平面R上に定義された座標平面であり、表示対象画像P3が形成される平面である。
ここで、このuv平面上に所定の代表点K(たとえば、第1の準備画像Paもしくは第2の準備画像Pbの中心点)を定義することとし、図示のとおり、代表点Kと第1のカメラ10を設置した撮影点Q1とを結ぶ直線L1とuv平面とのなす鋭角θ1と、代表点Kと第2のカメラ20を設置した撮影点Q2とを結ぶ直線L2とuv平面とのなす鋭角θ2とを求める。そうすると、角θ1,θ2は、それぞれ各カメラ10,20の代表点Kを撮影する向きを示すパラメータとなり、角度が大きいほど、カメラは代表点Kの正面に配置されていることになる。したがって、角θ1,θ2を比較し、角度がより大きいカメラ(より正面に近い配置がなされているカメラ)による撮影画像をより重視した合成を行えば、より好ましい結果が得られると考えられる。
そこで、撮影点Q1,Q2,代表点K,uv平面の三次元空間上での座標位置に基づいて角θ1,θ2を算出し、重み係数αを、θ1>θ2であればα<0.5に設定し、両角度の差が大きければ大きいほど、αが小さくなるように設定し、θ1<θ2であればα>0.5に設定し、両角度の差が大きければ大きいほど、αが大きくなるように設定し、θ1=θ2であればα=0.5に設定するようにすればよい。具体的には、たとえば、図17の下段に示すように、α=(θ2−θ1)/π+1/2なる演算式により重み係数αを設定すればよい。この演算式によれば、θ1=90°、θ2=0°という極端な場合には、α=0となり、θ1=0°、θ2=90°という極端な場合には、α=1となる。
なお、図示の便宜上、図17では、各要素の配置を二次元の平面図として示しているが、実際には、各要素は三次元空間に配置されており、角θ1,θ2は、この三次元空間上における直線と平面とのなす角として与えられる。
このように、代表点Kに対するカメラの向きによって重み係数αを設定する方法では、表示対象画像P3を構成するすべての画素の画素値を求める合成演算に、同一の重み係数αの値を用いることになるが、その代わりに、個々の画素ごとに、用いる重み係数αの値を変えるようにしてもかまわない。
たとえば、図17に示す例の場合、代表点Kに基づいて共通の重み係数αの値を決定すると、uv平面上の点ξ10に配置された画素についても、点ξ20に配置された画素についても、共通したαを用いた合成演算が行われることになる。ところが、図示のとおり、配置点ξ10に関しては、2点Q1,ξ10を結ぶ直線とuv平面とのなす鋭角θ1と、2点Q2,ξ10を結ぶ直線とuv平面とのなす鋭角θ2とを比較すると、θ1>θ2であるから、投影面π1上の投影点ξ11に配置された画素の画素値と、投影面π2上の投影点ξ12に配置された画素の画素値と、に基づいて、点ξ10上に配置された画素の画素値を決定する際には、前者をより重視した合成を行うべきである。
これに対して、配置点ξ20に関しては、2点Q1,ξ20を結ぶ直線とuv平面とのなす鋭角θ1と、2点Q2,ξ20を結ぶ直線とuv平面とのなす鋭角θ2とを比較すると、θ1<θ2であるから、投影面π1上の投影点ξ21に配置された画素の画素値と、投影面π2上の投影点ξ22に配置された画素の画素値と、に基づいて、点ξ20上に配置された画素の画素値を決定する際には、後者をより重視した合成を行うべきである。
そこで、各画素ごとに独立した重み係数αを決定して合成演算を行うのであれば、表示対象画像P3上の座標値(u,v)で示される位置にある着目画素の画素値I(u,v)を決定する際に、当該着目画素の配置点(たとえば、ξ10やξ20)と第1のカメラ10を設置した撮影点Q1とを結ぶ直線とuv平面とのなす鋭角θ1と、当該配置点と第2のカメラ20を設置した撮影点Q2とを結ぶ直線とuv平面とのなす鋭角θ2と、を比べ、画素値I(u,v)を決定する際に用いる重み係数αを、θ1>θ2であればα<0.5に設定し、両角度の差が大きければ大きいほど、αが小さくなるように設定し、θ1<θ2であればα>0.5に設定し、両角度の差が大きければ大きいほど、αが大きくなるように設定し、θ1=θ2であればα=0.5に設定すればよい。この場合にも、具体的には、たとえば、図17の下段に示すように、α=(θ2−θ1)/π+1/2なる演算式により重み係数αを設定すればよい。
ここでは、重み係数αを決定する際に考慮すべき、もうひとつの要素を述べておく。それは、被写体30上の着目対象となる基準平面Rの手前に存在する障害物である。図18は、uv平面の手前に障害物40が存在する例を示す平面図である。表示対象画像P3は、この障害物40の奥に位置する被写体30上の基準平面Rの画像であるから、障害物40の画像は、本来、排除されなければならない。ところが、図示の例の場合、投影面π1上には、この障害物40の投影像が形成されるため、図示する平面図において、投影点ξ31とξ41との間には、本来の被写体ではなく、障害物40の像が得られることになる。これに対して、投影面π2上には、障害物40の投影像は形成されず、図示する平面図において、投影点ξ32とξ42との間には、本来の被写体の像が得られることになる。
このような場合、図示する平面図において、uv平面上の配置点ξ30とξ40との間に位置する画素の画素値を決める際には、投影面π1上の第1の撮影画像P1を用いるべきではない。被写体の配置点ξ30とξ40との間に対応する領域は、投影面π1上に得られる第1の撮影画像P1上では障害物40による隠面となっているのに対して、投影面π2上に得られる第2の撮影画像P2上では隠面にはなっていない。したがって、この例では、uv平面上に形成される表示対象画像P3のうち、配置点ξ30とξ40との間に対応する領域に位置する画素の画素値I(u,v)を決定する際には、α=1に設定し、第2の撮影画像P2のみを考慮するようにすればよい。
図19は、図18に示す合成方法による合成対象となる2つの撮影画像を示す平面図である。図19(a) は、第1の撮影画像P1を示し、図19(b) は、第2の撮影画像P2を示す。いずれの撮影画像にも、本来の被写体30となるナンバープレートと障害物40としての猫が写っているが、第1の撮影画像P1では、被写体30の前方に位置する障害物40によって被写体30の一部が隠面となり、当該部分に関する画像情報は欠落してしまっている。これに対して、第2の撮影画像P2では、障害物40によって被写体30は隠れておらず、すべての画像情報が維持されている。
このような場合、第1の撮影画像P1において隠面となっている領域内に関しては、画素値I(u,v)を決定する際に用いる重み係数αをα=1に設定し、第2の撮影画像P2の情報のみを用いて画素値の決定を行うようにすればよい。
要するに、画像変換部170は、表示対象画像P3上の座標値(u,v)で示される位置にある着目画素の画素値I(u,v)を決定する際に、当該着目画素が、障害物40により第1の準備画像Pa上でのみ隠面となっている領域内の画素である場合には、画素値I(u,v)を決定する際に用いる重み係数αをα=1に設定し、逆に、障害物40により第2の準備画像Pb上でのみ隠面となっている領域内の画素である場合には、画素値I(u,v)を決定する際に用いる重み係数αをα=0に設定すればよい。
なお、図18において、uv平面上に形成される各準備画像Pa,Pb上で、障害物によって隠面となる領域を認識するためには、三次元空間上において、基準平面の手前に存在する障害物40を認識する必要がある。この障害物40の三次元空間上での位置認識は、第1のカメラ10および第2のカメラ20の設置位置および向きの情報と、第1の撮影画像P1上の二次元画像情報と、第2の撮影画像P2上の二次元画像情報と、に基づいて、被写体30および障害物40の三次元形状モデルを作成すればよい。このような三次元形状モデルの作成方法は、既に述べたとおり、エピポーラ幾何を用いた方法として公知である。
以上、画像変換部170における具体的な画像変換処理の方法を、各撮影画像P1,P2がモノクロ画像である場合について説明したが、これらの画像がカラー画像である場合には、同様の処理を個々の原色ごとに行えばよい。たとえば、1つの画素がRGBの三原色の画素値を有している場合、原色Rの画素値、原色Gの画素値,原色Bの画素値のそれぞれについて、上述した処理を行えば、カラーの表示対象画像P3を得ることができる。
<<< §4.その他の変形例 >>>
最後に、本発明のいくつかの変形例を示しておく。
<4−1.様々な被写体の認識>
これまで、被写体上の着目対象を車両のナンバープレートとし、このナンバープレートの表面を基準平面Rに設定し、このナンバープレートを構成する四角形の4つの頂点を4つの基準点とする例を述べた。しかしながら、本発明は、このような車両のナンバープレートを着目対象とする場合に限定されるものではなく、何らかの基準平面Rと、当該基準平面R上に位置する4つの基準点を定義できる被写体であれば、どのような被写体についても適用可能である。
基準平面Rおよび4つの基準点としての最も典型的な例は、上例のナンバープレートのような四角形とその4頂点である。一般的な車両には、ナンバープレート以外にも、ボディーや窓など、四角形として把握できる構造部が存在するので、これらの構造部を被写体上の着目対象とすれば、本発明により、当該着目対象を正面から観察した状態を示す画像を自動的に表示させることが可能である。車両に限らず、多くの工業製品には、四角形の構造部が含まれているので、本発明は、このような工業製品を被写体とする分野にも広く利用することができる。
既に述べたとおり、四角形の4頂点を4つの基準点として設定した場合、第1対応点抽出部130は、第1の撮影画像P1上の直線部を探索し、探索された直線部によって囲まれた四角形を基準平面と認識し、当該四角形の4頂点を4つの第1対応点として抽出することができる。なお、複数の四角形が認識された場合は、各四角形の縦横比率や面積を認識することにより、着目対象を特定することも可能である。
また、本発明は、人間の顔面を被写体として、顔面を正面から観察した画像を自動的に表示する不審者監視システムなどにも利用することができる。一般に、人間の顔面には、図20に示す例のように、右眼中心点S1、左眼中心点S2、唇の右端点S3、唇の左端点S4という4つの特徴点を定義することができ、人物の二次元撮影画像から、このような4つの特徴点を認識する方法は、既に公知の技術として、デジタルカメラなどの顔面認識処理などで実用化されている。また、人間の顔面は、ほぼ左右対称であることから、上記4つの特徴点は同一平面上に位置する。したがって、上記4つの特徴点を被写体上の4つの基準点と定義し、この4つの基準点を含む平面を基準平面Rと定義すれば、人間の顔面を被写体として、本発明を適用することが可能である。
この場合、第1対応点抽出部130は、第1の撮影画像P1から、公知の顔面認識技術を利用して人間の顔面を探索し、探索された顔面における右眼中心点S1、左眼中心点S2、唇の右端点S3、唇の左端点S4を含む面を基準平面Rと認識し、これら各点を4つの第1対応点S11〜S14として抽出する処理を行えばよい。三次元空間上において、人間の顔の表面は、基準平面R上に正確にのっているわけではないが、ほぼ基準平面Rに沿った面になるため、この基準平面R上に表示対象画像P3を形成するようにしても、実用的な支障は生じない。
これまで述べた実施形態を、このようにして人間の顔面に適用すれば、右眼中心点S1、左眼中心点S2、唇の右端点S3、唇の左端点S4という4つの特徴点を含む基準平面Rに対して垂直方向から観察した状態の表示対象画像P3を得ることができるので、結局、人物の顔面の正面像を表示させることができる。これは、不審人物の特定などの用途に非常に便利である。一般に、人間の空間内での向き、特に顔面の向きは、車両の向きなどに比べて極めて自由度が高く、カメラによる人物の撮影画像には、様々な方向を向いた顔面が写っている。本発明によれば、人物がどの方向を向いていたとしても、2台のカメラにその顔面が写っていれば、当該人物の正面像が自動的に表示されることになる。したがって、本発明は、不審者監視システムなどへの利用にも適している。
これまで述べてきた実施例は、いずれも特定の被写体のもつ固有の特徴に基づいて、基準平面Rを定義した例である。たとえば、ナンバープレートであれば、「外形が矩形の板状プレート」という固有の特徴を有しており、当該固有の特徴を利用して、基準平面を構成する4つの基準点(矩形の4頂点)を予め定義しておくことができた。同様に、人間の顔面であれば、「両目と唇」という固有の特徴を有しており、当該固有の特徴を利用して、基準平面を構成する4つの基準点(両目の中心点と両唇端)を予め定義しておくことができた。
しかしながら、本発明を実施する上では、必ずしもこのような特定の被写体のもつ固有の特徴に基づいて、基準平面Rを定義する必要はなく、単に、「被写体上で認識された平面を基準平面Rとして、当該平面上の任意の4点を基準点とする」という運用を行うことも可能である。すなわち、既に述べたとおり、エピポーラ幾何を利用すれば、第1のカメラ10および第2のカメラ20の設置位置および向きの情報と、第1の撮影画像P1上の二次元被写体情報と、第2の撮影画像P2上の二次元被写体情報と、に基づいて、被写体30の三次元形状モデルを作成することができる。そこで、第1対応点抽出部130に、当該三次元形状モデルを作成し、この三次元形状モデル上での所定の平面を基準平面Rと認識し、当該基準平面R上の任意の4点に対応する4つの点を第1対応点として抽出する機能をもたせておけば、どのような被写体であっても、平面部分を有していれば、当該平面部分を着目対象として、これを正面から観察した状態の画像を表示させることができる。
<4−2.斜め方向からの観察>
これまで述べてきた実施形態では、いずれも被写体上の着目対象をその正面方向から観察した画像を表示することを前提としてきた。そのため、図9に示すモデルでは、被写体30の着目対象となる基準平面R上に二次元uv座標系を定義し、当該座標系上に表示対象画像を得る演算を行った。一般に、車両のナンバープレートや人物の顔面の場合、これを正面から観察した画像を表示するのが好ましい。すなわち、車両ナンバーの特定や人物の特定などの用途では、ナンバープレートや人物の顔面を正面から観察した状態を表示するのが適切であり、正面方向、すなわち、基準平面Rに直交する方向が適切な観察方向ということになる。
しかしながら、用途によっては、必ずしも基準平面Rに対して直交する方向が適切な観察方向とは限らない。たとえば、同じ車両を被写体とする場合であっても、車種を確認する用途の場合、車両を正面から観察した画像よりも、斜め前方、もしくは、斜め後方から観察した画像を表示させた方が、車両全体の特徴を把握しやすい。したがって、車両の車種確認という用途では、適切な観察方向は、斜め前方、もしくは、斜め後方ということになる。この場合、ナンバープレートの表面を基準平面Rとして設定したのであれば、適切な観察方向は、この基準平面Rに直交する方向ではなく、たとえば、基準平面Rに対して斜め45°に交差する方向ということになる。
そこで、上例のように、基準平面Rに対する斜め方向を適切な観察方向として設定するのであれば、図9に示すモデルの代わりに、図21に示すモデルを用いるようにすればよい。この図21に示すモデルでは、基準平面R(たとえば、ナンバープレートの表面)をv軸まわりに所定の回転角γ(たとえば、γ=45°)だけ回転させた平面上にuv座標系を定義している。もちろん、回転軸は必ずしもv軸にする必要はなく、任意の軸を回転軸に設定してかまわない。
このように、二次元uv座標系を回転させて定義すると、得られる表示対象画像P3は、被写体の三次元画像を当該uv平面上に投影した画像になる。そのような投影画像は、被写体の三次元形状モデルを作成することにより得ることができる。この場合、二次元uv座標系上に形成される表示対象画像P3上の座標値(u,v)と、当該座標値で示される表示対象画像P3上の点に対応する二次元xy座標系上の点の座標値(x,y)と、の関係を定める座標変換式は、これまでの実施形態で述べた式とは若干異なることになる。もっとも、図21に示すとおり、基準平面R上に定義された二次元座標系とこれを回転角γだけ回転させて得られる二次元uv座標系との関係は、幾何学的に決定できるので、上記座標変換式も、これまで述べた座標変換式に若干の修正を加えることにより得られる。係数値算出部160は、このような修正を加えた後の座標変換式の各係数値を算出すればよい。
<4−3.魚眼カメラの採用>
これまで述べてきた実施形態は、第1のカメラ10および第2のカメラ20として、一般的な平面デジタルカメラを用いた例であるが、1台のカメラによって、より広い視野を確保するためには、魚眼レンズを装着した魚眼カメラ(魚眼レンズの代わりに全方位ミラーを装着したカメラも、ここでは、魚眼カメラと呼ぶことにする)を用いることができる。
魚眼レンズを用いると、メカニカルな動作機構なしに、半球状の全方位を示す円形画像を得ることができ、1台のカメラでかなり広い視野をカバーすることができる。ただ、魚眼カメラによる撮影画像は、通常の平面カメラによる撮影画像とは異なり、歪曲円形画像になるため、これを利用する際には、この歪曲円形画像の一部分を切り出して、通常の平面正則画像へ変換する変換処理が必要になる。
図22は、魚眼レンズを用いた撮影により得られた歪曲円形画像の一般的な特徴と、その一部分を切り出して、平面正則画像に変換する処理の基本原理を説明するための斜視図であり、正射影方式の魚眼レンズを用いた撮影により歪曲円形画像Sが形成された基本モデルが示されている。一般に、魚眼レンズは、その投影方式によって複数の種類に分けられるが、この図22に示すモデルは、正射影方式の魚眼レンズについてのものである。
ここでは、三次元XYZ直交座標系におけるXY平面上に歪曲円形画像Sが形成された例が示されており、図示のとおり、Z軸を図の上方にとり、Z軸の正の領域側にドーム状の仮想球面H(半球)が定義されている。また、この仮想球面Hの左上には、二次元uv直交座標系が配置されている。なお、ここに示す三次元XYZ直交座標系や二次元uv直交座標系は、魚眼カメラによる撮影で得られた歪曲円形画像Sを平面正則画像Tに変換するための座標変換を説明するための座標系であり、これまで述べてきた図9に示すモデルなどに示されている三次元XYZ座標系や二次元uv座標系とは全く無関係な別な座標系である。
XY平面上に形成された歪曲円形画像Sは、座標系の原点Oを中心とした半径Rの円を構成する画像であり、Z軸の正の領域側における180°の画角をもった領域に存在する像を歪ませて記録したものに相当する。歪曲円形画像Sには、Z軸の正の領域側に存在するすべての像が記録されることになるが、その中心部分と周囲部分とでは、像の縮尺倍率が異なっており、記録された像の形状は歪んだものになる。
実際の魚眼レンズは、複数の凸レンズや凹レンズを組み合わせた光学系によって構成されるが、その光学的な特性は、図22に示すような仮想球面Hによってモデル化できることが知られている。すなわち、歪曲円形画像Sの上面に、半径Rをもったドーム状の仮想球面H(半球)を配置したモデルを考えれば、正射影方式の魚眼レンズの光学的特性は、仮想球面H上の任意の点Q(x,y,z)に対して法線方向から入射する光線L(図の一点鎖線)は、Z軸に平行な光線として、XY平面上の点S(x,y)へ向かう振る舞いをする、と考えてよい。逆言すれば、図22において、歪曲円形画像S上の点S(x,y)に位置する画素は、図22に示す入射光線Lの延長線上に存在する物体上の1点を示していることになる。
もちろん、実際の魚眼レンズで生じている光学的現象は、複数の凸レンズや凹レンズによる屈折により、撮像対象となる物体の特定の点が、XY平面上の特定の点S(x,y)上に結像する現象ということになるが、画像変換処理などを行う上では、図22に示すような仮想球面Hを用いたモデルに置き換えた議論を行っても何ら支障はない。ここで行う画像変換の目的は、歪曲円形画像S上の一部分を切り出して、平面正則画像Tに変換する処理を行うことである。
ここでは、たとえば、図示する点P(x,y)を切出中心点として、歪曲円形画像S上の近傍領域の画像を平面正則画像に変換することを考えてみよう。いま、図示のとおり、この切出中心点P(x,y)を通りZ軸に平行な直線と仮想球面Hとの交点をQ(x,y,z)とする。この交点Qは、いわば切出中心点P(x,y)の真上の点であり、ここでは球面上対応点と呼ぶ。同様に、点Q(x,y,z)は、点S(x,y)についての球面上対応点ということになる。
続いて、原点Oと球面上対応点Q(x,y,z)とを結ぶ方向に、図示のように、視線ベクトルnを定義し、この視線ベクトルn上に二次元uv座標系の原点Gを定義する。ここで、原点Gの座標は(xg,yg,zg)であり、2点OG間の距離がm・rであるとする。rは、歪曲円形画像Sの半径(仮想球面Hの半径)であり、mは、原点Gと原点Oとの距離が、この半径rの何倍であるかを示す倍率パラメータである。二次元uv座標系は、原点Gを通り、視線ベクトルnに垂直な平面上に定義される。図示のとおり、二次元uv座標系は、互いに直交するu軸とv軸とを有しているが、回転基準軸Jとu軸とのなす角をφとする。ここで、回転基準軸Jは、原点Gを通り、XY平面に平行であり、かつ、視線ベクトルnに直交する軸として定義される。
角度φを増減すると、視線ベクトルnを中心軸として、二次元uv座標系が回転することになり、当該角度φは、一般に平面傾斜角と呼ばれている。また、球面上対応点Q(x,y,z)は、視線ベクトルnの方向を決定する点であり、図示のとおり、方位角αと天頂角βとによって特定することができる。ここで、方位角α(0≦α<360°)は、切出中心点P(x,y)とXY座標系の原点Oとを結ぶ直線とY軸とのなす角になり、天頂角β(0≦β≦90°)は、視線ベクトルnとZ軸とのなす角(鋭角)になる。
結局、二次元uv座標系の位置および向きは、方位角α,天頂角β,平面傾斜角φ,倍率パラメータmを決定することにより一意に定まる。ここで行う変換処理は、XY平面上に形成されている歪曲円形画像Sの切出中心点P(x,y)の近傍領域の部分画像を、uv平面上の平面正則画像Tに変換することである。そのためには、歪曲円形画像S上の任意の点S(x,y)と、これに対応する平面正則画像T上の点T(u,v)との関係を示す座標変換式が必要になる。
このような座標変換式は、図23に示す式(14)および式(15)となることが知られている。これらの式において、rは歪曲円形画像Sの半径(仮想球面Hの半径)であり、撮影に用いた魚眼レンズに固有の値になる。また、A〜Fは、式(16)〜式(21)に示すように、方位角α,天頂角β,平面傾斜角φに基づいて求まる係数であり、一般に回転係数と呼ばれている。そして、wは、式(22)に示すように、w=m・rで与えられる値であり、図22に示す原点Oと原点Gとの距離に相当する値である。mを増減すると、uv座標系が視線ベクトルnに沿った方向に平行移動することになり、このmの値は、得られる平面正則画像Tの倍率を決定するスケーリングファクターになる。
結局、本発明を実施する際に、一般的な平面デジタルカメラを用いる代わりに、魚眼レンズもしくは全方位ミラーを装着した魚眼カメラを用いた場合は、撮影によって得られた歪曲円形画像S内の所定の切出中心点P(x,y)の近傍の画像を、図23に示す座標変換式を用いて(この式は、正射影方式の場合の変換式であり、他の射影方式の場合は、まず正射影方式へ変換してから、この変換式を用いればよい)平面正則画像Tに変換し、得られた平面正則画像Tを、これまで述べた実施形態における第1の撮影画像P1および第2の撮影画像P2として利用すればよい。
図24は、このような魚眼カメラを用いた実施形態に係る撮影画像表示装置の構成を示すブロック図である。図1に示す装置との相違は、2台のカメラとして、第1の魚眼カメラ15および第2の魚眼カメラ25を用いている点と、新たに魚眼画像変換部200を設けた点である。
魚眼画像変換部200は、第1の魚眼カメラ15および第2の魚眼カメラ25による撮影によって得られた歪曲円形画像S内の所定の切出中心点P(x,y)の近傍の画像を、図23に示す座標変換式を用いて平面正則画像Tに変換する処理を行う。画像入力部110は、こうして魚眼画像変換部200によって変換された平面正則画像Tを、それぞれ第1の撮影画像P1および第2の撮影画像P2として入力することになる。
<4−4.3台以上のカメラの利用>
これまで述べてきた実施形態は、2台のカメラのみを用いて撮影画像表示装置を構成した例であるが、本発明に係る装置は、3台以上のカメラを用いて構成することも可能である。すなわち、互いに異なる位置に設置され、同一の被写体を撮影可能な方向に向けられた複数M台(M≧3)のカメラを用意し、これらM台のカメラの中の任意の2台の組み合わせを、これまで述べてきた実施形態における第1のカメラ10および第2のカメラ20として採用し、表示対象画像を作成する機能をもたせておけばよい。
図25は、4台のカメラを用いた実施形態における各カメラの配置を示す斜視図である。この例では、被写体35としての車両が進入する円形の撮影対象エリア50の周囲に、4本の支柱61〜64を配置し、各支柱61〜64にそれぞれ魚眼カメラ71〜74を設けている。これら4台の魚眼カメラ71〜74は、いずれも同一の被写体35を撮影可能な方向に向けられている。
この例の場合、この4台の魚眼カメラ71〜74による撮影で得られた歪曲円形画像のそれぞれについて、所定の切出中心点(たとえば、円形の撮影対象エリア50の中心点に対応する位置)を設定し、前述した方法で、それぞれ平面正則画像を作成している。そして、隣接する一対のカメラをそれぞれ1グループとして、これまで述べてきた実施形態の処理を実行し、表示対象画像を作成するようにしている。
具体的には、カメラ71と72を第1グループ、カメラ72と73を第2グループ、カメラ73と74を第3グループ、カメラ74と71を第4グループとして、それぞれのグループで、これまで述べた方法により、表示対象画像を作成する。その結果、合計4枚の表示対象画像が得られることになるので、モニタ画面上には、この4枚の表示対象画像すべてを画面分割して表示するようにしてもよいし、時分割で画面を切り替えながら表示するようにしてもよい。
あるいは、4枚の表示画像の中の1枚もしくは数枚を選択して表示してもよい。たとえば、車両のナンバープレートの部分を着目対象として、このナンバープレートを正面から観察した状態の画像を自動的に表示させたい場合、上記グループのうちのいくつかでは、ナンバープレートの認識(4つの対応点の抽出)に失敗する可能性がある。このように、認識に失敗した場合は、当該グループについては表示を中止し、認識に成功したグループについての結果のみを選択して表示させればよい。あるいは、個々のグループごとに、4つの対応点を抽出して、ナンバープレートを構成する四角形が認識できたら、当該四角形の面積が最も大きなグループを選択して、当該グループの結果のみを表示するようなことも可能である。
図25では、4台の魚眼カメラを用いる例を示したが、もちろん、カメラの台数は4台に限定されるものではなく、必要に応じて、任意の台数を設置することができ、また、これら複数のカメラの中の任意の2台を組み合わせてグループを構成することができる。また、上例では、魚眼カメラを用いる例を示したが、もちろん、通常の平面カメラを複数台配置した場合にも、上例と同様の処理を行うことができる。
10:第1のカメラ
15:第1の魚眼カメラ
20:第2のカメラ
25:第2の魚眼カメラ
30,35:被写体
40:障害物
50:撮影対象エリア
61〜64:支柱
71〜74:魚眼カメラ
110:画像入力部
120:撮影画像格納部
130:第1対応点抽出部
140:第2対応点抽出部
150:基準点座標算出部
160:係数値算出部
170:画像変換部
180:表示対象画像格納部
190:画像出力部
200:魚眼画像変換部
A〜F:回転係数
B:ベースライン
E:仮想視点
E1,E2:エピポーラ線
EP:エピポーラ平面
e1,e2:エピポール:
f:座標(x,y)を座標(u,v)に変換する関数
G(xg,yg,zg):二次元uv座標系の原点
g:座標(x,y)を座標(u,v)に変換する関数
H:ホモグラフィー行列/仮想球面
h11〜h33:係数(ホモグラフィー行列の要素)
I(u,v):画素q(u,v)の画素値
I1(u,v):画素q1(u,v)の画素値
I2(u,v):画素q2(u,v)の画素値
J:回転基準軸
K:uv平面上の代表点
L:入射光線
L1:2点(K,Q1)を結ぶ直線
L2:2点(K,Q2)を結ぶ直線
m:倍率パラメータ
n:視線ベクトル
O:三次元XYZ座標系の原点
O′:三次元UVW座標系の原点
P1:第1の撮影画像
P2:第2の撮影画像
P3:表示対象画像
P(x,y):切出中心点
p:xy平面上の1点
Q1:第1の撮影点(視点)
Q2:第2の撮影点(視点)
Q(x,y,z):球面上対応点
Q(x,y,z):球面上対応点
q:uv平面上の1点
q(u,v):表示対象画像P3上の画素
q1(u,v):第1の準備画像Pa上の画素
q2(u,v):第2の準備画像Pb上の画素
R:基準平面
r:歪曲円形画像Sの半径(仮想球面Hの半径)
S:歪曲円形画像
S1〜S4:顔面基準点
S11〜S14:第1対応点
S21〜S24:第2対応点
S31〜S34:被写体上の基準点
S(x,y):歪曲円形画像S内の点
T:平面正則画像
T(u,v):平面正則画像T内の点
U:三次元UVW座標系の座標軸
u:二次元uv座標系の座標軸/座標値
u1〜u4:4つの基準点のu座標値
V:三次元UVW座標系の座標軸
v:二次元uv座標系の座標軸/座標値
v1〜v4:4つの基準点のv座標値
W:三次元UVW座標系の座標軸
w:W軸上の座標値
X:三次元XYZ座標系の座標軸
x:二次元xy座標系の座標軸/その座標値
x1〜x4:4つの第1対応点のx座標値
Y:三次元XYZ座標系の座標軸
y:二次元xy座標系の座標軸/その座標値
y1〜y4:4つの第1対応点のy座標値
Z:三次元XYZ座標系の座標軸
z,za,zb:Z軸上の座標値
α:重み係数/方位角
β:天頂角
γ:回転角
θ11〜θ22:角度
ξ:被写体上の特徴点
ξ1:投影面(撮像面)π1上への投影点
ξ2:投影面(撮像面)π2上への投影点
ξ10,ξ20,ξ30,ξ40:uv平面上の着目画素の配置点
ξ11,ξ21,ξ31,ξ41:第1の投影面π1上の投影点
ξ12,ξ22,ξ32,ξ42:第2の投影面π2上の投影点
ξa:投影面πa上への投影点
ξb:投影面πb上への投影点
π,πa,πb:XY平面に平行な投影面
π1:第1の投影面/第1のカメラの撮像面
π2:第2の投影面/第2のカメラの撮像面
σ:スケーリング係数
φ:平面傾斜角

Claims (22)

  1. 異なる方向から撮影した被写体の撮影画像に基づいて、当該被写体を所定の仮想方向から観察した画像を生成して表示する撮影画像表示装置であって、
    互いに異なる位置に設置され、同一の被写体を撮影可能な方向に向けられた第1のカメラおよび第2のカメラと、
    前記第1のカメラによる撮影で得られたデジタル画像もしくは当該デジタル画像に所定の変換処理を加えた画像を第1の撮影画像として入力し、前記第2のカメラによる撮影で得られたデジタル画像もしくは当該デジタル画像に所定の変換処理を加えた画像を第2の撮影画像として入力する画像入力部と、
    入力された前記第1の撮影画像および前記第2の撮影画像を格納する撮影画像格納部と、
    前記第1の撮影画像を解析することにより、被写体上の着目対象となる基準平面上の点として予め設定されている4つの基準点にそれぞれ対応する点を、前記第1の撮影画像上において4つの第1対応点として抽出する第1対応点抽出部と、
    前記第1の撮影画像の特徴と前記第2の撮影画像の特徴とを比較することにより、両画像上の各点間の対応関係を求め、前記第2の撮影画像上において、前記4つの第1対応点にそれぞれ対応する4つの第2対応点を抽出する第2対応点抽出部と、
    前記第1のカメラおよび前記第2のカメラの設置位置および向きの情報と、前記4つの第1対応点および前記4つの第2対応点の二次元座標値と、に基づいて、前記各対応点に対応する前記被写体上での4つの基準点の三次元座標値を求める基準点座標算出部と、
    前記4つの基準点を含む基準平面上もしくはこの基準平面を予め定められた所定方向に所定の回転角度だけ回転させた平面上に、二次元uv座標系を定義し、前記第1の撮影画像および前記第2の撮影画像の少なくとも一方を変換対象画像として選択し、この変換対象画像上に二次元xy座標系を定義したときに、前記二次元uv座標系上の任意の座標値(u,v)と、当該座標値で示される点に対応する前記二次元xy座標系上の点の座標値(x,y)と、の関係を定める座標変換式の係数値を、前記4つの基準点の座標値と、前記4つの第1対応点もしくは前記4つの第2対応点の座標値との対応関係を用いて算出する係数値算出部と、
    前記係数値算出部によって算出された係数値によって規定される座標変換式を用いて、前記二次元xy座標系上の前記変換対象画像を前記二次元uv座標系上の表示対象画像に変換する画像変換部と、
    前記画像変換部によって変換された表示対象画像を格納する表示対象画像格納部と、
    前記表示対象画像をモニタ画面に表示する画像出力部と、
    を備えることを特徴とする撮影画像表示装置。
  2. 請求項1に記載の撮影画像表示装置において、
    第1対応点抽出部が、第1の撮影画像上の直線部を探索し、探索された直線部によって囲まれた四角形を基準平面と認識し、当該四角形の4頂点を4つの第1対応点として抽出することを特徴とする撮影画像表示装置。
  3. 請求項1に記載の撮影画像表示装置において、
    第1対応点抽出部が、第1の撮影画像から人間の顔面を探索し、探索された顔面における右眼中心点、左眼中心点、唇の右端点、唇の左端点を含む面を基準平面と認識し、前記各点を4つの第1対応点として抽出することを特徴とする撮影画像表示装置。
  4. 請求項1に記載の撮影画像表示装置において、
    第1対応点抽出部が、第1のカメラおよび第2のカメラの設置位置および向きの情報と、前記第1の撮影画像上の二次元被写体情報と、前記第2の撮影画像上の二次元被写体情報と、に基づいて、被写体の三次元形状モデルを作成し、当該三次元形状モデル上での所定の平面を基準平面と認識し、当該基準平面上の任意の4点に対応する4つの点を第1対応点として抽出することを特徴とする撮影画像表示装置。
  5. 請求項1〜4のいずれかに記載の撮影画像表示装置において、
    基準点座標算出部が、第1のカメラおよび第2のカメラの設置位置および向きの情報を、外部からの設定操作により格納する機能を有し、当該格納情報を用いて、4つの基準点の三次元座標値を求めることを特徴とする撮影画像表示装置。
  6. 請求項1〜4のいずれかに記載の撮影画像表示装置において、
    基準点座標算出部が、撮影画像格納部に格納されているテスト用被写体を撮影した第1の撮影画像と第2の撮影画像とに基づいて、第1のカメラおよび第2のカメラの設置位置および向きの情報を自動取得する機能を有することを特徴とする撮影画像表示装置。
  7. 請求項1〜6のいずれかに記載の撮影画像表示装置において、
    係数値算出部が、二次元uv座標系と二次元xy座標系との間のスケーリングファクターを任意に設定することにより、座標値(u,v)と座標値(x,y)との関係を定める座標変換式として、
    x=(h11・u+h12・v+h13)/(h31・u+h32・v+1)
    y=(h21・u+h22・v+h23)/(h31・u+h32・v+1)
    なる式を定義し、この2本の式に、4つの基準点についての二次元uv座標系の座標値(u,v)と4つの第1対応点の二次元xy座標系の座標値(x,y)とをそれぞれ代入して得られる8本の連立方程式を用いて、8個の係数h11,h12,h13,h21,h22,h23,h31,h32を算出することを特徴とする撮影画像表示装置。
  8. 請求項1〜7のいずれかに記載の撮影画像表示装置において、
    係数値算出部が、第1の撮影画像および第2の撮影画像の双方を変換対象画像として選択し、これら変換対象画像上にそれぞれ第1および第2の二次元xy座標系を定義し、二次元uv座標系上の任意の座標値(u,v)と、当該座標値で示される点に対応する前記第1および第2の二次元xy座標系上の点の座標値(x,y)と、の関係を定める座標変換式の係数値を、4つの基準点の座標値と、4つの第1対応点および4つの第2対応点の座標値との対応関係を用いて算出し、
    画像変換部が、前記係数値算出部によって算出された係数値によって規定される第1の座標変換式を用いて、前記第1の二次元xy座標系上の前記第1の撮影画像を前記二次元uv座標系上の第1の準備画像に変換するとともに、前記係数値算出部によって算出された係数値によって規定される第2の座標変換式を用いて、前記第2の二次元xy座標系上の前記第2の撮影画像を前記二次元uv座標系上の第2の準備画像に変換し、前記第1の準備画像と前記第2の準備画像とを合成することにより、表示対象画像を生成することを特徴とする撮影画像表示装置。
  9. 請求項8に記載の撮影画像表示装置において、
    画像変換部が、第1の準備画像と第2の準備画像とを合成する際に、前記第1の準備画像上の座標値(u,v)で示される位置の画素の画素値をI1(u,v)、前記第2の準備画像上の座標値(u,v)で示される位置の画素の画素値をI2(u,v)、表示対象画像上の座標値(u,v)で示される位置の画素の画素値をI(u,v)としたときに、所定の重み係数α(0≦α≦1)を用いて、
    I(u,v)=(1−α)・I1(u,v)+α・I2(u,v)
    なる合成演算を行うことを特徴とする撮影画像表示装置。
  10. 請求項9に記載の撮影画像表示装置において、
    uv平面上の所定の代表点と第1のカメラを設置した撮影点とを結ぶ直線とuv平面とのなす鋭角θ1と、前記代表点と第2のカメラを設置した撮影点とを結ぶ直線とuv平面とのなす鋭角θ2と、を比べ、重み係数αを、
    θ1>θ2であればα<0.5に設定し、両角度の差が大きければ大きいほど、αが小さくなるように設定し、
    θ1<θ2であればα>0.5に設定し、両角度の差が大きければ大きいほど、αが大きくなるように設定し、
    θ1=θ2であればα=0.5に設定することを特徴とする撮影画像表示装置。
  11. 請求項9に記載の撮影画像表示装置において、
    表示対象画像上の座標値(u,v)で示される位置にある着目画素の画素値I(u,v)を決定する際に、当該着目画素の配置点と第1のカメラを設置した撮影点とを結ぶ直線とuv平面とのなす鋭角θ1と、前記配置点と第2のカメラを設置した撮影点とを結ぶ直線とuv平面とのなす鋭角θ2と、を比べ、前記画素値I(u,v)を決定する際に用いる重み係数αを、
    θ1>θ2であればα<0.5に設定し、両角度の差が大きければ大きいほど、αが小さくなるように設定し、
    θ1<θ2であればα>0.5に設定し、両角度の差が大きければ大きいほど、αが大きくなるように設定し、
    θ1=θ2であればα=0.5に設定することを特徴とする撮影画像表示装置。
  12. 請求項10または11に記載の撮影画像表示装置において、
    α=(θ2−θ1)/π+1/2
    なる演算式により重み係数αを設定することを特徴とする撮影画像表示装置。
  13. 請求項9に記載の撮影画像表示装置において、
    画像変換部が、
    第1のカメラおよび第2のカメラの設置位置および向きの情報と、第1の撮影画像上の二次元画像情報と、第2の撮影画像上の二次元画像情報と、に基づいて、被写体および障害物の三次元形状モデルを作成し、基準平面の手前に存在する障害物を認識する処理を行い、
    表示対象画像上の座標値(u,v)で示される位置にある着目画素の画素値I(u,v)を決定する際に、当該着目画素が、前記障害物により第1の準備画像上でのみ隠面となっている領域内の画素である場合には、前記画素値I(u,v)を決定する際に用いる重み係数αをα=1に設定し、前記障害物により第2の準備画像上でのみ隠面となっている領域内の画素である場合には、前記画素値I(u,v)を決定する際に用いる重み係数αをα=0に設定することを特徴とする撮影画像表示装置。
  14. 請求項1〜13のいずれかに記載の撮影画像表示装置において、
    画像変換部が、二次元xy座標系上の変換対象画像を二次元uv座標系上の表示対象画像もしくは準備画像に変換する際に、座標値(u,v)を引数として座標値(x,y)を求める座標変換式を用い、変換対象画像上の前記座標値(x,y)で示される位置の近傍に存在する複数の画素の画素値を用いた補間演算によって求められる補間値を、前記座標値(u,v)で示される位置に配置された画素の画素値とすることを特徴とする撮影画像表示装置。
  15. 請求項1〜14のいずれかに記載の撮影画像表示装置において、
    係数値演算部が、基準平面を予め定められた所定の軸回りに、予め定められた所定の回転角γだけ回転させた平面上に、二次元uv座標系を定義することを特徴とする撮影画像表示装置。
  16. 請求項1〜15のいずれかに記載の撮影画像表示装置において、
    互いに異なる位置に設置され、同一の被写体を撮影可能な方向に向けられた複数M台(M≧3)のカメラを備え、
    これらM台のカメラの中の任意の2台の組み合わせを、第1のカメラおよび第2のカメラとして採用し、表示対象画像を作成する機能を有することを特徴とする撮影画像表示装置。
  17. 請求項1〜16のいずれかに記載の撮影画像表示装置において、
    第1のカメラおよび第2のカメラとして、魚眼レンズもしくは全方位ミラーを装着したカメラを用い、
    前記第1のカメラおよび第2のカメラによる撮影によって得られた歪曲円形画像内の所定の切出中心点近傍の画像を、所定の座標変換式を用いて平面正則画像に変換する魚眼画像変換部を更に備え、
    画像入力部が、前記魚眼画像変換部によって変換された平面正則画像を、それぞれ第1の撮影画像および第2の撮影画像として入力することを特徴とする撮影画像表示装置。
  18. 請求項1〜17のいずれかに記載の撮影画像表示装置における各カメラ以外の構成要素としてコンピュータを機能させるためのプログラム。
  19. 請求項1〜17のいずれかに記載の撮影画像表示装置における各カメラ以外の構成要素として機能する半導体集積回路。
  20. 請求項2に記載の撮影画像表示装置を含み、
    各カメラが、被写体となる車両のナンバープレートを撮影可能な位置および向きに設置されており、
    第1対応点抽出部が、前記ナンバープレートの表面を着目対象となる基準平面として、前記ナンバープレートを構成する四角形の4頂点を4つの第1対応点として抽出し、
    画像出力部が、前記ナンバープレートを正面方向から観察した画像を表示対象画像として出力することを特徴とする車両のナンバープレートの撮影表示装置。
  21. 請求項3に記載の撮影画像表示装置を含み、
    各カメラが、被写体となる人間の顔面を撮影可能な位置および向きに設置されており、
    画像出力部が、前記人間の顔面を正面方向から観察した画像を表示対象画像として出力することを特徴とする監視システム。
  22. 異なる方向から撮影した被写体の撮影画像に基づいて、当該被写体を所定の仮想方向から観察した画像を生成して表示する撮影画像表示方法であって、
    第1のカメラおよび第2のカメラを、互いに異なる位置に、かつ、同一の被写体を撮影可能な方向に向けて設置するカメラ設置段階と、
    コンピュータが、前記第1のカメラによる撮影で得られたデジタル画像もしくは当該デジタル画像に所定の変換処理を加えた画像を第1の撮影画像として入力し、前記第2のカメラによる撮影で得られたデジタル画像もしくは当該デジタル画像に所定の変換処理を加えた画像を第2の撮影画像として入力する画像入力段階と、
    コンピュータが、前記第1の撮影画像を解析することにより、被写体上の着目対象となる基準平面上の点として予め設定されている4つの基準点にそれぞれ対応する点を、前記第1の撮影画像上において4つの第1対応点として抽出する第1対応点抽出段階と、
    コンピュータが、前記第1の撮影画像の特徴と前記第2の撮影画像の特徴とを比較することにより、両画像上の各点間の対応関係を求め、前記第2の撮影画像上において、前記4つの第1対応点にそれぞれ対応する4つの第2対応点を抽出する第2対応点抽出段階と、
    コンピュータが、前記第1のカメラおよび前記第2のカメラの設置位置および向きの情報と、前記4つの第1対応点および前記4つの第2対応点の二次元座標値と、に基づいて、前記各対応点に対応する前記被写体上での4つの基準点の三次元座標値を求める基準点座標算出段階と、
    コンピュータが、前記4つの基準点を含む基準平面上もしくはこの基準平面を予め定められた所定方向に所定の回転角度だけ回転させた平面上に、二次元uv座標系を定義し、前記第1の撮影画像および前記第2の撮影画像の少なくとも一方を変換対象画像として選択し、この変換対象画像上に二次元xy座標系を定義したときに、前記二次元uv座標系上の任意の座標値(u,v)と、当該座標値で示される点に対応する前記二次元xy座標系上の点の座標値(x,y)と、の関係を定める座標変換式の係数値を、前記4つの基準点の座標値と、前記4つの第1対応点もしくは前記4つの第2対応点の座標値との対応関係を用いて算出する係数値算出段階と、
    コンピュータが、前記係数値算出段階で算出された係数値によって規定される座標変換式を用いて、前記二次元xy座標系上の前記変換対象画像を前記二次元uv座標系上の表示対象画像に変換する画像変換段階と、
    コンピュータが、前記画像変換段階によって変換された表示対象画像をモニタ画面に表示する画像出力段階と、
    を有することを特徴とする撮影画像表示方法。
JP2009223242A 2009-09-28 2009-09-28 撮影画像表示装置 Pending JP2011070579A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009223242A JP2011070579A (ja) 2009-09-28 2009-09-28 撮影画像表示装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009223242A JP2011070579A (ja) 2009-09-28 2009-09-28 撮影画像表示装置

Publications (1)

Publication Number Publication Date
JP2011070579A true JP2011070579A (ja) 2011-04-07

Family

ID=44015777

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009223242A Pending JP2011070579A (ja) 2009-09-28 2009-09-28 撮影画像表示装置

Country Status (1)

Country Link
JP (1) JP2011070579A (ja)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013162416A (ja) * 2012-02-07 2013-08-19 Sharp Corp 撮像装置、画像処理装置、画像処理方法及びプログラム
JP2017028510A (ja) * 2015-07-23 2017-02-02 日本放送協会 多視点映像生成装置及びそのプログラム、並びに、多視点映像生成システム
US20170337707A1 (en) * 2016-05-20 2017-11-23 National Chiao Tung University Method and system for transforming between physical images and virtual images
JP2018156192A (ja) * 2017-03-15 2018-10-04 株式会社東芝 画像処理装置、画像処理システム、画像処理方法、およびプログラム
CN109523462A (zh) * 2018-11-14 2019-03-26 北京奇艺世纪科技有限公司 一种vr视频截屏图像的获取方法及装置
CN111091595A (zh) * 2019-12-23 2020-05-01 吉林省广播电视研究所(吉林省广播电视局科技信息中心) 斜视三维测绘方法及测绘***
WO2020138120A1 (ja) * 2018-12-26 2020-07-02 日本電気株式会社 情報処理装置、情報処理方法及び記録媒体
CN111798476A (zh) * 2020-06-08 2020-10-20 国网江西省电力有限公司电力科学研究院 一种高压隔离开关导电臂轴线提取方法
CN112710608A (zh) * 2020-12-16 2021-04-27 深圳晶泰科技有限公司 实验观测方法及***
JP2021168463A (ja) * 2020-04-08 2021-10-21 ペキン シャオミ パインコーン エレクトロニクス カンパニー, リミテッド 全方位視差ビューの合成方法、装置および記憶媒体
CN113813170A (zh) * 2021-08-30 2021-12-21 中科尚易健康科技(北京)有限公司 多摄像头理疗***的摄像头之间目标点转换方法
CN113993747A (zh) * 2019-09-13 2022-01-28 马瑞利株式会社 显示装置及显示方法
CN115665312A (zh) * 2022-12-27 2023-01-31 天津华慧智能科技有限公司 使用手机自动计算车身和标线关系判断停车精准度的方法
WO2023206475A1 (zh) * 2022-04-29 2023-11-02 北京小米移动软件有限公司 图像处理方法、装置、电子设备及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001268594A (ja) * 2000-03-15 2001-09-28 Infiniteface.Com Inc 三次元ビューティーシミュレーション用クライアントサーバシステム
JP2002324249A (ja) * 2001-02-26 2002-11-08 Nabura:Kk 画像表示システム及び方法
JP2005269010A (ja) * 2004-03-17 2005-09-29 Olympus Corp 画像生成装置、画像生成プログラム、及び画像生成方法
JP2006350852A (ja) * 2005-06-17 2006-12-28 Nabura:Kk 画像生成システム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001268594A (ja) * 2000-03-15 2001-09-28 Infiniteface.Com Inc 三次元ビューティーシミュレーション用クライアントサーバシステム
JP2002324249A (ja) * 2001-02-26 2002-11-08 Nabura:Kk 画像表示システム及び方法
JP2005269010A (ja) * 2004-03-17 2005-09-29 Olympus Corp 画像生成装置、画像生成プログラム、及び画像生成方法
JP2006350852A (ja) * 2005-06-17 2006-12-28 Nabura:Kk 画像生成システム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
CSNG200800812030; 冨山仁博、片山美和、久富健介、岩舘祐一: '多視点映像生成技術の研究とアプリケーション' 情報処理学会研究報告 2008-CVIM-162 第2008巻、第27号, 20080310, p207-214, 社団法人情報処理学会 *
JPN6013027817; 冨山仁博、片山美和、久富健介、岩舘祐一: '多視点映像生成技術の研究とアプリケーション' 情報処理学会研究報告 2008-CVIM-162 第2008巻、第27号, 20080310, p207-214, 社団法人情報処理学会 *

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013162416A (ja) * 2012-02-07 2013-08-19 Sharp Corp 撮像装置、画像処理装置、画像処理方法及びプログラム
JP2017028510A (ja) * 2015-07-23 2017-02-02 日本放送協会 多視点映像生成装置及びそのプログラム、並びに、多視点映像生成システム
US20170337707A1 (en) * 2016-05-20 2017-11-23 National Chiao Tung University Method and system for transforming between physical images and virtual images
US10403002B2 (en) * 2016-05-20 2019-09-03 National Chiao Tung University Method and system for transforming between physical images and virtual images
JP2018156192A (ja) * 2017-03-15 2018-10-04 株式会社東芝 画像処理装置、画像処理システム、画像処理方法、およびプログラム
CN109523462A (zh) * 2018-11-14 2019-03-26 北京奇艺世纪科技有限公司 一种vr视频截屏图像的获取方法及装置
JP7248039B2 (ja) 2018-12-26 2023-03-29 日本電気株式会社 情報処理装置、情報処理方法及びプログラム
EP3905657A4 (en) * 2018-12-26 2022-01-26 NEC Corporation INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD AND RECORDING MEDIA
CN113454978B (zh) * 2018-12-26 2023-08-18 日本电气株式会社 信息处理设备、信息处理方法和存储介质
CN113454978A (zh) * 2018-12-26 2021-09-28 日本电气株式会社 信息处理设备、信息处理方法和记录介质
WO2020138120A1 (ja) * 2018-12-26 2020-07-02 日本電気株式会社 情報処理装置、情報処理方法及び記録媒体
JPWO2020138120A1 (ja) * 2018-12-26 2021-10-28 日本電気株式会社 情報処理装置、情報処理方法及びプログラム
CN113993747B (zh) * 2019-09-13 2023-06-06 马瑞利株式会社 显示装置及显示方法
CN113993747A (zh) * 2019-09-13 2022-01-28 马瑞利株式会社 显示装置及显示方法
CN111091595B (zh) * 2019-12-23 2023-06-02 吉林省广播电视研究所(吉林省广播电视局科技信息中心) 斜视三维测绘方法及测绘***
CN111091595A (zh) * 2019-12-23 2020-05-01 吉林省广播电视研究所(吉林省广播电视局科技信息中心) 斜视三维测绘方法及测绘***
US11245886B2 (en) 2020-04-08 2022-02-08 Beijing Xiaomi Pinecone Electronics Co., Ltd. Method and apparatus for synthesizing omni-directional parallax view, and storage medium
JP2021168463A (ja) * 2020-04-08 2021-10-21 ペキン シャオミ パインコーン エレクトロニクス カンパニー, リミテッド 全方位視差ビューの合成方法、装置および記憶媒体
CN111798476A (zh) * 2020-06-08 2020-10-20 国网江西省电力有限公司电力科学研究院 一种高压隔离开关导电臂轴线提取方法
CN111798476B (zh) * 2020-06-08 2023-10-20 国网江西省电力有限公司电力科学研究院 一种高压隔离开关导电臂轴线提取方法
CN112710608A (zh) * 2020-12-16 2021-04-27 深圳晶泰科技有限公司 实验观测方法及***
CN112710608B (zh) * 2020-12-16 2023-06-23 深圳晶泰科技有限公司 实验观测方法及***
CN113813170A (zh) * 2021-08-30 2021-12-21 中科尚易健康科技(北京)有限公司 多摄像头理疗***的摄像头之间目标点转换方法
CN113813170B (zh) * 2021-08-30 2023-11-24 中科尚易健康科技(北京)有限公司 多摄像头理疗***的摄像头之间目标点转换方法
WO2023206475A1 (zh) * 2022-04-29 2023-11-02 北京小米移动软件有限公司 图像处理方法、装置、电子设备及存储介质
CN115665312A (zh) * 2022-12-27 2023-01-31 天津华慧智能科技有限公司 使用手机自动计算车身和标线关系判断停车精准度的方法

Similar Documents

Publication Publication Date Title
JP2011070579A (ja) 撮影画像表示装置
WO2021120407A1 (zh) 一种基于多对双目相机的视差图像拼接与可视化方法
JP5739584B2 (ja) 車両周辺視角化のための3次元映像合成装置およびその方法
JP4828779B2 (ja) 高速デジタルパンチルトズームビデオ
US7215364B2 (en) Digital imaging system using overlapping images to formulate a seamless composite image and implemented using either a digital imaging sensor array
EP2820593B1 (en) Method and system for adaptive perspective correction of ultra wide-angle lens images
WO2019049421A1 (ja) キャリブレーション装置、キャリブレーションシステム、およびキャリブレーション方法
Sturm Multi-view geometry for general camera models
US8326077B2 (en) Method and apparatus for transforming a non-linear lens-distorted image
JP5872818B2 (ja) 測位処理装置、測位処理方法、および画像処理装置
JPWO2018235163A1 (ja) キャリブレーション装置、キャリブレーション用チャート、チャートパターン生成装置、およびキャリブレーション方法
JP2013038775A (ja) 高速反射屈折式ライトフィールドレンダリングのための光線画像モデル化
CN107451952B (zh) 一种全景视频的拼接融合方法、设备以及***
TW201619910A (zh) 監控系統及其影像處理方法
JP2013512612A (ja) 光フィールドデータを利用した映像処理装置及び方法
TWI602154B (zh) 環景影像的拼接方法及其系統
JP6683307B2 (ja) 多数のカメラを用いた最適の球形映像獲得方法
US20060008268A1 (en) Three-dimensional image processing apparatus, optical axis adjusting method, and optical axis adjustment supporting method
EP3606059B1 (en) Projector calibration method and projection system using the same
JP2014010783A (ja) 画像処理装置、画像処理方法およびプログラム
CN113538587A (zh) 一种相机坐标变换方法、终端以及存储介质
TWI615808B (zh) 全景即時影像處理方法
JP2019525509A (ja) 水平視差ステレオパノラマ取込方法
CN113647093A (zh) 图像处理装置、3d模型生成方法和程序
CN111583117A (zh) 一种适用于太空复杂环境的快速全景拼接方法及装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120727

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130530

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130611

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130730

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130910

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131108

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20131203