JP5961945B2 - 画像処理装置、その画像処理装置を有するプロジェクタ及びプロジェクタシステム、並びに、画像処理方法、そのプログラム、及び、そのプログラムを記録した記録媒体 - Google Patents

画像処理装置、その画像処理装置を有するプロジェクタ及びプロジェクタシステム、並びに、画像処理方法、そのプログラム、及び、そのプログラムを記録した記録媒体 Download PDF

Info

Publication number
JP5961945B2
JP5961945B2 JP2011178809A JP2011178809A JP5961945B2 JP 5961945 B2 JP5961945 B2 JP 5961945B2 JP 2011178809 A JP2011178809 A JP 2011178809A JP 2011178809 A JP2011178809 A JP 2011178809A JP 5961945 B2 JP5961945 B2 JP 5961945B2
Authority
JP
Japan
Prior art keywords
image
plane
projector
distance
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011178809A
Other languages
English (en)
Other versions
JP2013042411A (ja
Inventor
信一 住吉
信一 住吉
長谷川 史裕
史裕 長谷川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2011178809A priority Critical patent/JP5961945B2/ja
Priority to CN201280039743.9A priority patent/CN103765870B/zh
Priority to PCT/JP2012/070784 priority patent/WO2013024882A1/en
Priority to AU2012295789A priority patent/AU2012295789B2/en
Priority to EP12823869.8A priority patent/EP2745504B1/en
Priority to US14/238,689 priority patent/US9759548B2/en
Publication of JP2013042411A publication Critical patent/JP2013042411A/ja
Application granted granted Critical
Publication of JP5961945B2 publication Critical patent/JP5961945B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/14Measuring arrangements characterised by the use of optical techniques for measuring distance or clearance between spaced objects or spaced apertures
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/168Driving aids for parking, e.g. acoustic or visual feedback on parking space
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • H04N9/3185Geometric adjustment, e.g. keystone or convergence
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3191Testing thereof
    • H04N9/3194Testing thereof including sensor feedback
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/48Details of cameras or camera bodies; Accessories therefor adapted for combination with other photographic or optical apparatus
    • G03B17/54Details of cameras or camera bodies; Accessories therefor adapted for combination with other photographic or optical apparatus with projector
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/14Details
    • G03B21/53Means for automatic focusing, e.g. to compensate thermal effects

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Geometry (AREA)
  • Projection Apparatus (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)
  • Image Processing (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、画像処理装置、その画像処理装置を有するプロジェクタ及びプロジェクタシステム、並びに、画像処理方法、そのプログラム及びそのプログラムを記録した記録媒体に関する。
プロジェクタは、画像をスクリーン等の対象物に投影する装置である。画像を投影する際、プロジェクタと対象物との傾斜角によって、投影される画像に台形歪みが生ずる場合がある。プロジェクタには、投影する画像の台形歪みを解消するために、画像処理装置により、投影する画像を予め補正(変形)するものがある。
ここで、画像処理装置には、プロジェクタと対象物との離間距離及び傾斜角に基づいて、投影する画像を補正するものがある。
特許文献1は、所定のパターンである複数の対象点を投射対象物上に面状に投射し、その対象点までの距離に基づいて、投射対象物と背景との境界線(投射対象物の外形)を検出し、その境界線に対応するように、投射画像(投影する画像)を補正する技術を開示している。
プロジェクタで画像を投影するとき、多くの場合、所定の間、連続して画像を投影する。プロジェクタは、画像の投影中において、対象物またはプロジェクタが移動した場合に、投影する画像を補正するため、再度、離間距離及び傾斜角を測定する。
特許文献1に開示されている技術は、対象物までの距離に基づいて、投射画像を台形補正することができる。しかし、距離を測定するためにプロジェクタによる画像の投影を一時中断し、再度、所定のパターン等を投影する場合があった。
本発明は、画像を投影中に、対象物とプロジェクタとの位置に関する関係が変化した場合において、画像を投影する動作を中断することなく、投影する画像を補正することができる画像処理装置を提供することを課題とする。
上記課題を解決するために、請求項1に係る本発明は、画像が投影されている対象物を含む領域を撮像して、画像データを取得する撮像手段と、前記画像データに基づき、前記対象物と前記撮像手段との離間距離に関する距離データを算出する測距手段と、前記距離データから、前記対象物に対応する平面を推定する平面推定手段と、前記距離データと前記平面に関する情報とに基づき、投影する画像の補正に関する情報を算出する補正情報算出手段と、を有することを特徴とする画像処理装置を提供する。
本発明によれば、画像処理装置において、画像が投影されている対象物に対応する平面を推定することにより、投影する画像の補正に関する情報を算出することができる。
画像処理装置の一例を示す概略構成図である。 画像処理装置の機能の一例を示す機能ブロック図である。 平面を推定する動作の一例を示すフローチャートである。 投影対象物を撮像する動作の一例を説明する図である。 平面を推定する方法を説明する図である。 補正情報を算出する動作の一例を示すフローチャートである。 仮想カメラから仮想画像データを取得する動作を説明する図である。 仮想画像データの一例を説明する図である。 台形補正変換行列の算出を説明する図である。 実施例1のプロジェクタの概略構成図である。 実施例1のプロジェクタの投影動作の一例を示すフローチャートである。 実施例1の投影された画像の特徴点及び対応点の抽出を説明する図である。 実施例1の投影する画像の補正を説明する図である。 実施例2のプロジェクタの概略構成図である。 実施例2のドットパターンを説明する図である。 実施例3のプロジェクタの概略構成図である。 実施例3のポリゴンメッシュを説明する図である。 実施例3の法線ベクトルから平面を推定する方法を説明する図である。 実施例4のプロジェクタシステムの概略構成図である。 実施例4の画像を投影する動作の例を説明する図である。
対象物を含む領域を撮像した画像を画像処理することにより、投影する画像の補正に関する情報を算出する画像処理装置を用いて、本発明を詳細に説明する。
(画像処理装置の構成)
図1は、画像処理装置の一例を示す概略構成図である。
図1において、画像処理装置100は、制御手段110、撮像手段120、測距手段130、平面推定手段140、及び、補正情報算出手段150を含む。
画像処理装置100は、撮像手段120により画像が投影される対象物(以下、投影対象物という。)を含む領域を撮像して画像データを取得し、測距手段130により撮像手段120から投影対象物までの距離に関する距離データを算出する。また、画像処理装置100は、平面推定手段140により投影対象物に対応する平面を推定し、推定した平面に関する情報と算出した距離データとに基づいて、投影する画像の補正(拡大縮小及び台形補正等の画像処理、以下、補正という。)に関する情報を算出する。
ここで、投影対象物は、スクリーン、壁、及び、ホワイトボートなど、その外形表面に画像を投影することができるものを用いることができる。
制御手段110は、画像処理装置100全体の制御を行う手段である。制御手段110は、外部から入力された情報等に基づき、撮像手段120等を制御する。また、制御手段110は、外部から入力された情報等に基づき、画像処理装置100の画像処理の結果に関する情報を出力する制御を行う。
撮像手段120は、投影対象物を含む領域の像を撮像素子(イメージセンサ)に結像し、その撮像素子の画素出力信号(電気信号)から画像に関する画像データを取得する手段である。撮像手段120は、本実施形態では、ステレオカメラ、及び、撮像画像生成手段を含む。
ステレオカメラは、2つの撮像レンズ及び2つの撮像素子を備え、投影対象物を2つの撮像レンズ等で同時に撮影する。ここで、撮像レンズは、投影対象物の像を撮像素子に入射するものである。撮像素子は、複数の受光素子が格子状に配列された受光面を有し、撮像レンズを透過して入射した像をその受光面上に結像するものである。
撮像画像生成手段は、撮像素子の画素出力信号に基づき、投影対象物を含む領域の画像に関する画像データを生成する。
測距手段130は、画像処理装置100(撮像手段120)から投影対象物までの距離を測定する手段である。測距手段130は、本実施形態では、撮像手段120が取得した2つ画像データに基づいて、三角測量の原理により、画像処理装置100(撮像手段120)から投影対象物までの距離を算出する。詳細は後述の(測距する動作)で説明する。
平面推定手段140は、測距手段130が算出した距離データに基づいて、投影対象物に対応する平面を再帰的に近似する。ここで、平面を再帰的に近似するとは、複数の位置に基づいて平面を近似的に推定した後、その推定した平面から所定の距離を離れた位置を除外して、平面を推定し直す方法(回帰分析法)である。詳細は後述の(平面を推定する動作)で説明する。
補正情報算出手段150は、平面推定手段140が推定した平面に関する情報等に基づいて、投影する画像の補正に関する情報を算出する。詳細は後述の(補正情報を算出する動作)で説明する。
なお、以後の説明では、画像に関するデータとして、「コンテンツ画像データAimg」とは、PCなどから投影手段(プロジェクタなど)に入力する画像に関する画像データである。
「カメラ画像データCimg」とは、投影されたコンテンツ画像データAimgを撮像手段120によって撮像した画像に関する画像データである。カメラ画像データCimgは、撮像手段120の受光素子が受光した光の明暗等の電気信号(画素出力信号)をデジタル処理して、生成される。
「仮想画像データVimg」とは、投影対象物の外形表面(投影される面)の法線方向(以下、正面方向という。)から撮像したと仮定した場合の、カメラ画像データCimgに関する画像データである。仮想画像データVimgは、補正情報算出手段150が算出した法線ベクトルに関する情報に基づいて、後述する透視投影変換行列Pを用いて、生成される。
「プロジェクタ画像データPimg」とは、仮想画像データVimgの台形歪み等を解消するために、コンテンツ画像データAimgを補正した画像データである。プロジェクタ画像データPimgは、補正情報算出手段150が算出した補正に関する情報に基づいて、後述する台形補正変換行列Hppを用いて、生成される。
(画像処理装置の機能)
画像処理装置の機能の一例を、図2を用いて、説明する。図2は、画像処理装置の機能ブロック図である。
図2において、制御手段110は、画像処理の動作を開始するため、撮像手段120に撮像の開始を指示する信号を出力する。
撮像手段120は、ステレオカメラによって、投影対象物を含む領域の像を撮像し、2つのカメラ画像データCimgを取得する。また、撮像手段120は、取得したカメラ画像データCimgを測距手段130に出力する。
測距手段130は、2つのカメラ画像データCimgに基づいて、投影対象物の外形表面上の複数の位置(以下、対応点という。)に対応する距離データを算出する。また、測距手段130は、距離データを平面推定手段140及び補正情報算出手段150に出力する。ここで、距離データとは、画像処理装置から投影対象物(対応点)までの距離に関するデータである。測距する方法の詳細は、後述の(測距する動作)で説明する。
平面推定手段140は、測距手段130が算出した距離データから、投影対象物に対応する平面として、回帰平面データを算出する。また、平面推定手段140は、回帰平面データを補正情報算出手段150に出力する。ここで、回帰平面データとは、三次元空間の複数の位置を含む平面に関するデータである。推定する方法の詳細は、後述の(平面を推定する動作)で説明する。
補正情報算出手段150は、測距手段130の距離データ及び平面推定手段140の回帰平面データに基づいて、コンテンツ画像データAimgの補正に関する情報を算出する。具体的には、補正情報算出手段150は、距離データ及び回帰平面データに基づいて、後述する凸包データC1(図8(b))を算出する。また、補正情報算出手段150は、凸包データに基づいて、仮想画像データVimgの台形歪み等をキャンセル(解消)するために、コンテンツ画像データAimgを補正するために必要な台形補正変換行列など(以下、補正に関する情報という。)を算出する。算出する方法の詳細は、後述の(補正情報を算出する動作)で説明する。
また、補正情報算出手段150は、制御手段110によって、図示しない投影手段等に補正に関する情報を出力する。
(測距する動作)
測距手段が、撮像手段のステレオカメラにより、撮像手段(画像処理装置)から対応点(投影対象物)までの距離に関する距離データを算出する動作を説明する。
ここで、ステレオカメラとは、第1のカメラ(基準カメラ)及び第2のカメラ(参照カメラ)を有し、第1のカメラ及び第2のカメラは第1の撮像レンズ及び第2の撮像レンズ、並びに、第1の撮像レンズ及び第2の撮像レンズの背面側の方向(投影対象物の方向と反対側の方向)に配置された第1の撮像素子及び第2の撮像素子を有する。なお、撮像素子は、エリアセンサ、面センサ、及び、二次元センサ等を用いることができる。
第1の撮像レンズと第2の撮像レンズとは、所定の間隔D(以下、基線長という。)で並設され、第1の撮像レンズの光軸と第2の撮像レンズの光軸とは平行である。また、第1の撮像素子等は、正面側(背面側の反対側)の表面上に、対象物の像を結像する受光面を備える。第1の撮像レンズ等の光軸等は、第1の撮像素子等の受光面の対角線の中心と一致するように位置決めされている。
第1の撮像レンズを透過して入射した投影対象物の第1の像と第2の撮像レンズを透過して入射した投影対象物の第2の像とは、視差△だけ変位して、それぞれの受光面に結像される。撮像素子は、第1の像及び第2の像の光による明暗等を電荷の量に光電変換し、画素出力信号として、測距手段に出力する。このとき、測距手段は、画素出力信号を比較し、受光面の受光素子(画素)の位置(座標)から視差△を検出する。ここで、視差△、基線長D、画像処理装置と投影対象物との離間距離L、及び、撮像レンズの焦点距離fとすると、L>>fを条件に、数1が成り立つ(三角測量の原理)。
Figure 0005961945
この場合、Dとfは既知である。
測距手段は、検出した視差△から、数1により、離間距離Lを算出する。
次に、測距手段が、対応点の絶対座標(XYZ座標)を算出する動作を、具体的に説明する。ここで、X軸を基線長Dの方向、Y軸をX軸に直交する撮像素子の受光面上の方向、Z軸をX軸及びY軸に直交する方向(ステレオカメラの光軸方向)とする。また、第1のカメラ(添え字r)及び第2のカメラ(添え字l)の受光面に対する相対座標(xyz座標)を数2とする。
Figure 0005961945
このとき、視差△を数3となる。
Figure 0005961945
次に、対応点の座標P(絶対座標)を数4とする。
Figure 0005961945
このとき、対応点の座標Pは、数1乃至数3より、数5となる。
Figure 0005961945
以上により、測距手段は、撮像手段のステレオカメラを用いて、投影対象物の外形表面上の対応点の三次元座標(絶対座標)を算出し、その算出した三次元座標を対応点に関する距離データとして取得することができる。
(平面を推定する動作)
平面推定手段等が、投影対象物に対応する平面を推定する動作について、図3乃至図5を用いて説明する。図3は、平面推定手段等が平面を推定する動作の一例を示すフローチャートである。図4は、撮像手段が投影対象物を撮像する動作の一例を説明する図である。図5は、回帰分析によって、平面を推定する方法を説明する図である。
図3において、撮像手段は、投影対象物を含む領域を撮像し、カメラ画像データCimgを取得する(ステップS101)。ここで、撮像手段が撮像する動作を、図4を用いて、具体的に説明する。
図4は、投影対象物を撮像する動作を示す。図4(a)は、画像が投影されている投影対象物などを正面方向から見た説明図である。図4(b)は、画像が投影されている投影対象物などを鉛直上方から見た説明図である。図中の○印は、投影対象物(スクリーン)A1表面上の位置(特徴点)を示す。図中の△印は、発表者A2の位置(特徴点)を示す。図中の×印は、投影対象物の背後の壁A3表面上の位置(特徴点)を示す。
図4において、発表者A2は、投影対象物A1の正面方向に立っている。また、壁A3が、投影対象物A1の背面方向(正面方向と反対側の方向)に近接している。このとき、プロジェクタに内蔵された撮像手段は、プロジェクタ(投影手段)などによりコンテンツ画像データAimgが投影された投影対象物A1を含む領域を撮像し、カメラ画像データCimgを取得する。
図3のステップS101において、カメラ画像データCimgの取得を完了すると、撮像手段は、カメラ画像データCimgを測距手段に出力する。その後、ステップS102に進む。
ステップS102において、測距手段は、撮像手段から出力されたカメラ画像データCimgに基づいて、投影対象物を含む領域の特徴点(図4(a)及び(b)の○、△、及び、×)を抽出する。測距手段が特徴点を抽出する動作を具体的に説明する。
測距手段は、まず、ステレオカメラが取得した2つのカメラ画像データCimgの一方(以下、撮像データAという。)について、任意の画素を選択点として選択する。次に、測距手段は、撮像データAから、選択点とその選択点の周囲の8画素との画像情報(色、明るさ、及び、エッジ強度など)を比較する。このとき、選択点の画像情報が、その周囲の8画素の画像情報より、すべて大きい場合またはすべて小さい場合、その選択点を特徴点(x,y)として抽出する。また、測距手段は、その特徴点を中心とする一辺が15画素四方の範囲を、テンプレートブロックAとして抽出する。
特徴点の抽出を完了すると、ステップS103に進む。
なお、特徴点を抽出する方法は、上記の方法に限定されるものではない。上記の方法以外でも、投影対象物の表面上の特徴ある点を抽出できる方法であれば、いずれの方法も用いることができる。また、特徴点の具体例は、後述する実施例1及び実施例2において、説明する。
ステップS103において、測距手段は、ステップS102で抽出された特徴点に基づいて、対応点を抽出する。測距手段が対応点を抽出する動作を、具体的に説明する。
測距手段は、ステレオカメラが撮像した2つのカメラ画像データCimgの他方(以下、撮像データBという。)について、任意の画素を選択点(x,y)として選択する。また、測距手段は、その選択点を中心とする一辺が15画素四方の範囲を、テンプレートブロックBとして選択する。次に、測距手段は、テンプレートブロックA及びテンプレートブロックBの画像情報の総和を算出し、両者の総和を比較する。比較方法は、SAD及びSSDなどの方法を用いることができる。
なお、SAD(Sum of Absolute Distance)とは、総和の比較において、絶対値の差分の総和を求める方法である。SSD(Squared Sum of Differences)とは、差分の2乗の総和を求める方法である。
次に、テンプレートブロックAとテンプレートブロックBとの比較の結果において、画像情報の総和の差分が最小値となるテンプレートブロックBの選択点(x,y)を選択する。このとき、その差分が所定の値以下であるとき、撮像データAの特徴点(x,y)と撮像データBの選択点(x,y)とが対応付けられ、その特徴点(x,y)(選択点(x,y))を対応点(xAB,yAB)として抽出する。
ここで、所定の値とは、投影対象物と画像処理装置との離間距離、または、被写界深度に対応する値とすることができる。また、所定の値を、数値計算及び実験等により定められる値とすることができる。
測距手段は、対応点の抽出として、撮像データAから抽出されたすべての特徴点について、撮像データBの選択点と比較する。このとき、測距手段は、複数の対応点(以下、三次元点群という。)を抽出することになる。
対応点の抽出を完了すると、ステップS104に進む。
ステップS104において、測距手段は、ステップS103で抽出された三次元点群の距離に関する距離データを算出する。距離データを算出する動作は、(測距する動作)と同様のため、説明を省略する。距離データの算出を完了すると、ステップS105に進む。
ステップS105において、平面推定手段は、測距手段が算出した距離データに基づいて、投影対象物に対応する平面の情報として、回帰平面データを算出する。回帰平面データを算出する方法について、図5を用いて、具体的に説明する。
図5(a)は、回帰分析をした後の回帰平面P1を示す。図5(b)は、後述のステップS109で推定した平面から最も離れた対応点を除外した後の回帰平面P2を示す。
図5(a)において、ステップS102乃至ステップS104により、三次元点群としてn個の対応点(XABi,YABi,ZABi)(i=1〜n)が算出されている(図中の○、△、及び×)。
平面推定手段は、回帰分析によって、三次元点群から回帰平面を算出するため、回帰平面の方程式をz=ax+by+cと定義する。このとき、回帰平面と三次元点群とは、数6が成り立つ。
Figure 0005961945
ここで、数6の変数は、数7である。
Figure 0005961945
数7において、eは残差を示す。
次に、正規方程式は、数8となる。
Figure 0005961945
よって、βは、数9となる。
Figure 0005961945
以上より、最小二乗法などを用いて、残差eの平方和が最小となる定数(パラメータ)a、b、及び、cを算出することにより、回帰平面(図5(a)のP1及びP2)を求めることができる。平面推定手段は、回帰平面データとして、回帰平面の方程式(z=ax+by+c)の定数a、b、及び、cを取得する。回帰平面データの取得が完了すると、ステップS106に進む。
次に、図3のステップS106において、回帰平面と三次元点群との距離DABiを算出し、回帰平面から最も離れた三次元点群の対応点PMAX(XABD,YABD,ZABD)とその距離DMAXを抽出する(図5(a)のPMAX)。具体的には、対応点(XABi,YABi,ZABi)から、平面(αx+βy+γz+δ=0)までの距離を、数10より、算出する。
Figure 0005961945
回帰平面と三次元点群のすべての点との距離を算出し、その距離の絶対値が最大となる対応点を選択する。最も離れた対応点PMAX(XABD,YABD,ZABD)の抽出を完了すると、ステップS107に進む。
ステップS107において、対応点PMAX(XABD,YABD,ZABD)に関する距離DMAXと所定の距離とを比較する。距離DMAXが所定の距離以下の場合は、ステップS108に進む。距離DMAXが所定の距離を越える場合は、ステップS109に進む。
ここで、所定の距離とは、投影対象物と画像処理装置との離間距離に対応する値とすることができ、数値計算及び実験等により、その距離を定めることができる。また、被写界深度に対応する値とすることができる。
ステップS108において、算出した回帰平面(ステップS105)を投影対象物に対応する平面と推定し、回帰平面データとして記憶する。その後、図中の「END」に進み、平面の推定を終了する。
ステップS109において、対応点PMAX(XABD,YABD,ZABD)を三次元点群から除外する。除外を完了すると、ステップS105に戻り、ステップS105乃至S107を繰り返し、再度、回帰平面P2を推定する(図5(b))。
以上より、本発明の画像処理装置は、画像処理装置から投影対象物までの距離を測定し、回帰分析によって、投影対象物に対応する平面を推定することができる。また、本発明の画像処理装置は、平面からの距離が所定の距離を越える対応点を除外することによって、画像処理装置と投影対象物との間に障害物があるとき、あるいは、投影対象物の背後に壁などが近接しているときでも、投影対象物に対応する平面を推定することができる。
なお、平面を推定する動作において、除外する対応点は障害物及び背後の壁などに関するものに限定されるものではなく、投影対象物以外のものを含むことができる。また、平面を推定する際に用いる三次元点群は、(測距する動作)で抽出した三次元点群から「ランダムに選択した複数の点」と「ランダムに選択した複数の点」以外の点群とから成る平面の定数(パラメータ)を算出し、その定数の差分が小さい点群を用いて、平面を推定することができる。
(補正情報を算出する動作)
補正情報算出手段が、補正の情報を算出する動作ついて、図6乃至図9を用いて、説明する。
図6は、補正情報を算出する動作の一例を示すフローチャートである。図7は、仮想カメラから仮想画像データを取得する動作を説明する図である。図8は、仮想画像データを説明する図である。図9は、台形補正変換行列の算出を説明する図である。
図6において、補正情報算出手段は、平面推定手段が推定した平面の正面方向から撮像したと仮定した場合の、カメラ画像データCimgに関する画像データ(仮想画像データVimg)を算出する(ステップS201)。補正情報算出手段が仮想画像データVimgを算出する動作を、図7を用いて、具体的に説明する。
図7は、推定した平面における三次元点群Pgrpの中心(重心)位置Cgからその平面の法線方向Nの延長線上に仮想カメラ(撮像手段を含むプロジェクタなど)PRJvを配置したと仮定することを示す。
図7において、実際のカメラ(撮像手段を含むプロジェクタなど)PRJrが、コンテンツ画像データAimgを投影する。このとき、実際のカメラPRJrに搭載された撮像手段がカメラ画像データCimgを取得し、測距手段が三次元点群Pgrpの距離データを取得し、平面推定手段が平面P2を推定する。
補正情報算出手段は、平面P2の法線方向Nの延長線上の仮想カメラPRJvから撮像される仮想画像データVimgを算出する。具体的には、補正情報算出手段は、透視投影変換行列Pを用いて、三次元点群Pgrpを二次元の平面(仮想カメラPRJvから撮像される仮想画像データVimgに対応する平面)に投影して、仮想画像データVimgを算出する。
ここで、透視投影変換行列Pとは、内部パラメータをAとし、外部パラメータである回転行列をR、平行移動ベクトルをtとすると、数11となる。
Figure 0005961945
ここで、内部パラメータAとは、仮想カメラPRJvの光軸座標、撮像素子の行と列のスケール、焦点距離fなどを用いて定められる行列(3×3)である。回転行列Rとは、実際のカメラPRJrから仮想カメラPRJvまでの回転を示す行列(3×3)である。平行移動ベクトルtとは、実際のカメラPRJrから仮想カメラPRJvまでの平行移動を示すベクトル(3×1)である。
仮想画像データVimgの算出を完了すると、ステップS202に進む。
次に、図6のステップS202において、補正情報算出手段は、算出した仮想画像データVimgにおける凸包データを算出する。ここで、凸包データとは、三次元点群において、平面推定手段が推定した平面上にある測距手段が算出した複数の対応点を包み込む多角形(以下、凸包という。)に関するデータである。凸包データを算出する方法を、図8を用いて、具体的に説明する。
図8は、仮想カメラPRJvが取得する仮想画像データVimgを説明する図である。図8(a)は、仮想画像データVimgにおける対応点を説明する図である。図8(b)は、凸包データ及び後述する台形補正矩形を説明する図である。
図8(a)において、補正情報算出手段は、仮想カメラPRJvが取得した仮想画像データVimgにおいて、測距手段が算出した距離データに基づいて、平面推定手段が推定した平面上にある複数の対応点(図中の○、図7の三次元点群Pgrp)を抽出する。次に、図8(b)において、補正情報算出手段は、抽出した複数の対応点について、その対応点を包み込む凸包に関する凸包データを算出する。このとき、凸包は、図中の○印を含む多角形C1である。
凸包データの算出を完了すると、ステップS203に進む。
次に、図6のステップS203において、補正情報算出手段は、仮想画像データVimgにおける台形補正矩形を算出する。ここで、台形補正矩形とは、ステップ202で算出した凸包C1に包含される最大面積の矩形である。補正情報算出手段は、アスペクト比を固定して、凸包C1が包含する台形補正矩形C2を算出する(図8(b))。アスペクト比は、プロジェクタ画像データPimgに関する画像のアスペクト比と同一とすることができる。例えば、1600×1200ピクセルの画像を投影する場合は、アスペクト比を4:3とすることができる。
台形補正矩形の算出を完了すると、ステップS204に進む。
図6のステップS204において、補正情報算出手段は、台形補正矩形C2内の任意の4点(図8(b)のMV1乃至MV4)を特徴点として選択する。ここで、任意の4点は、仮想画像データVimgに関する投影光の4隅の点とすることができる。この場合、特徴点が少ない(または、特徴点を抽出できない)画像を投影しているときでも、4隅の点を特徴点として抽出することができる。特徴点の選択を完了すると、ステップS205に進む。
ステップS205において、補正情報算出手段は、特徴点(MV1乃至MV4)に対応するコンテンツ画像データAimgの対応点を抽出する。対応点を抽出する動作は、(測距する動作)と同様のため、説明を省略する。対応点の抽出を完了すると、ステップS206に進む。
ステップS206において、補正情報算出手段は、射影変換行列Hcpを算出する。具体的には、仮想画像データVimgに関する画像上の特徴点mVi(xVi、yVi)に対応するコンテンツ画像データAimgに関する画像上の4点の対応点をmai=(xai、yai)(i=1〜4)とすると、射影変換行列Hcpと数12が成り立つ。
Figure 0005961945
ここで、数12の右辺と左辺とは、同次座標系で等しい(全成分の定数倍以外は等しい)ことを示す。また、射影変換行列Hcpは次式である。
Figure 0005961945
このとき数12は、数14と表すことができる。
Figure 0005961945
数14の第3成分を1にあわせるため、右辺を正規化すると、数15となる。
Figure 0005961945
ここで、h乃至hは未知係数である。仮想画像データVimgに関する画像上の特徴点MVi(xVi、yVi)に対応するコンテンツ画像データAimgに関する画像上の対応点Mai(xai、yai)の4つの組合せを得ることで、h乃至hを算出することができる。その結果、h乃至hを用いて、射影変換行列Hcpを算出することができる。
射影変換行列Hcpの算出を完了すると、ステップS207に進む。
ステップS207において、補正情報算出手段は、ステップS203の台形補正矩形C2の4隅に対応するコンテンツ画像データAimgに関する4つの補正点を算出する。補正点を算出する方法を、図9を用いて、具体的に説明する。
図9は、仮想画像データVimgとプロジェクタ画像データPimgの関係を説明する図である。図9(a)は、仮想画像データVimgに関する画像上の台形補正矩形の4隅の点を説明する図である。図9(b)は、コンテンツ画像データAimgに関する画像上の4つの補正点を説明する図である。
図9(a)において、ステップS203で算出した台形補正矩形C2の4隅の点(図中のURv、ULv、DRv、及び、DLv)を抽出する。次に、図9(b)において、4隅の点に対応するコンテンツ画像データAimgに関する画像上の4つの補正点(図中のURva、ULva、DRva、及び、DLva)を、ステップS206で算出した射影変換行列Hcpを用いて、算出する。
4つの補正点の算出を完了すると、ステップS208に進む。
図6のステップS208において、補正情報算出手段は、コンテンツ画像データAimgに関する画像の4隅の点(図9(b)のURa等)を、ステップS207で算出した4つの補正点(URva等)に変形(補正)する台形補正変換行列Hppを算出する。台形補正変換行列Hppを算出する方法は、ステップS206と同様のため、説明を省略する。
台形補正変換行列Hppの算出を完了すると、台形補正変換行列Hppを補正に関する情報として記憶し、図中の「END」に進み、補正情報を算出する動作を終了する。
なお、この台形補正変換行列Hppに基づいて、コンテンツ画像データAimgを補正し、台形歪み等がキャンセル(解消)されたプロジェクタ画像データPimgを生成することができる。
以上より、補正情報算出手段は、距離データ、回帰平面データ、及び、凸包データ等に基づいて、投影される画像の台形歪み等を解消するために必要な補正に関する情報を算出することができる。
(プログラム、及び、そのプログラムを記録した記録媒体)
本発明のプログラムPrは、撮像手段により、画像が投影されている対象物を含む領域を撮像して、画像データを取得する工程と、画像データに基づき、撮像手段と対象物との離間距離に関する距離データを算出する工程と、距離データから、対象物に対応する平面を推定する工程と、距離データと平面に関する情報とに基づき、投影する画像の補正に関する情報を算出する工程と、を実行する。
この構成によれば、本発明の画像処理装置と同等の効果が得られる。
また、本発明は、プログラムPrを記録したコンピュータによって読み取り可能な記録媒体Mdとしてもよい。このプログラムPrを記録した記録媒体Mdとしては、フレキシブルディスク、CD−ROM、及び、メモリーカード等、コンピュータ読み取り可能な媒体を利用することができる。
(実施例)
プロジェクタの実施例を用いて、本発明の画像処理装置及び画像処理方法を説明する。
本発明の画像処理装置等は、プロジェクタに用いられる画像処理装置等に限定されるものではない。プロジェクタ以外でも、対象物を含む領域を撮像した画像を画像処理することにより、投影する画像の補正に関する情報を算出するものであれば、いずれにも用いることができる。
実施例1のプロジェクタを用いて、本発明を説明する。
(プロジェクタの構成)
図10は、本実施例のプロジェクタの概略構成図の一例である。
図10において、プロジェクタ200は、本実施例では、投影手段210、オートフォーカス手段220、及び、投影用画像生成手段230を含む。また、プロジェクタ200は、画像処理装置として、制御手段110、撮像手段120、測距手段130、平面推定手段140、補正情報算出手段150、及び、位置移動判断手段160を含む。
プロジェクタ200は、投影対象物に画像を投影し、投影対象物を含む領域を撮像し、投影対象物に対応する平面を推定する。また、プロジェクタは、推定した平面等に基づいて、投影用レンズのフォーカスを調整し、投影する画像を補正する。
ここで、投影手段210とは、プロジェクタの投影用レンズから投影対象物に画像を投影する手段である。オートフォーカス手段220とは、投影対象物にプロジェクタの投影用レンズのフォーカスを合わせる手段である。投影用画像生成手段230とは、プロジェクタが投影する画像を生成する手段である。
画像処理装置の位置移動判断手段160は、プロジェクタと投影対象物との位置に関する関係が変化したか否か(プロジェクタ及び/または投影対象物が移動したか否か)を判断する手段である。画像処理装置の制御手段110等は、図1と同様のため、説明を省略する。
(投影を校正する動作)
プロジェクタが、投影する画像を校正する動作について、図11乃至図13を用いて説明する。図11は、本実施例のプロジェクタの投影動作の一例を示すフローチャートである。図12は、投影された画像の特徴点及び対応点の抽出を説明する図である。図13は、投影する画像の補正を説明する図である。

図11において、プロジェクタの制御手段は、操作パネル等からの入力により、画像を投影する動作の校正を開始するため、投影手段等に動作の指示を出力する(ステップS301)。その後、ステップS302に進む。
ステップS302において、投影手段は、コンテンツ画像データAimgをプロジェクタ画像データPimgとして、投影用レンズから投影対象物に画像を投影する。その後、ステップS303に進む。
ステップS303において、撮像手段は、投影対象物を含む領域を撮像し、カメラ画像データCimgを取得する。取得を完了すると、ステップS304に進む。
ステップS304において、測距手段は、カメラ画像データCimgに基づいて、プロジェクタ(撮像手段)から投影対象物(対応点)までの距離を算出する。距離を算出する方法を、図12を用いて、具体的に説明する。
図12は、投影する画像の特徴点及び対応点を示す。図12(a)は、コンテンツ画像データAimgに関する画像を示す。図12(b)は、撮像手段のステレオカメラの基準カメラが取得したカメラ画像データCimgに関する画像を示す。図12(c)は、参照カメラが取得したカメラ画像データCimgに関する画像を示す。
図12(a)において、コンテンツ画像データAimgに関する画像の特徴点を示す(図中の○)。測距手段は、基準カメラ及び参照カメラのカメラ画像データCimgに関する画像から、特徴点(図12(a))に対応する対応点(図12(b)及び図12(c)の○)に関する視差△を算出する。次に、測距手段は、対応点の絶対座標(XYZ座標)を算出し、第1の距離データDd1を取得する。ここで、対応点の絶対座標を算出する方法は、前述の(測距する動作)と同様であるため、説明を省略する。第1の距離データDd1の取得を完了すると、ステップS305に進む。
図11のステップS305において、平面推定手段は、取得した第1の距離データDd1に基づいて、投影対象物に対応する平面を推定する。ここで、平面の推定方法は、前述の(平面を推定する動作)と同様であるため、説明を省略する。平面の推定を完了すると、ステップS306に進む。
ステップS306において、制御手段は、投影する動作の校正が、初回(プロジェクタの電源を入れてから最初の校正)であるか否かを判断する。初回の場合は、ステップS307に進む。それ以外の場合は、ステップS312に進む。
ステップS307において、補正情報算出手段は、撮像手段が取得したカメラ画像データCimgと平面推定手段が推定した平面に基づいて、仮想画像データVimgを算出する。また、補正情報算出手段は、仮想画像データVimgと距離データとに基づいて、プロジェクタ画像データPimgの補正に関する情報(台形補正変換行列Hppなど)を算出する。補正に関する情報を算出する方法を、図13を用いて、具体的に説明する。
図13は、投影する画像の補正する動作を説明する図である。図13(a)は、補正前の仮想画像データVimgに関する画像を示す。図13(b)は、補正後のプロジェクタ画像データPimgに関する画像を示す。図13(c)は、補正後の仮想画像データVimgに関する画像を示す。
図13(a)において、補正情報算出手段は、カメラ画像データCimgと推定した平面に基づいて、仮想画像データVimgに関する画像を生成する。また、補正情報算出手段は、仮想画像データVimgに関する画像に基づいて、凸包C1及び台形補正矩形C2を算出する。次に、図13(b)において、補正情報算出手段は、凸包C1及び台形補正矩形C2に基づいて、射影変換行列Hcp及び台形補正変換行列Hppを算出する。ここで、射影変換行列Hcp等を算出する方法は、前述の(補正情報を算出する動作)と同様であるため、説明を省略する。
算出を完了すると、ステップS308に進む。
図11のステップS308において、オートフォーカス手段は、算出した第1の距離データDd1(ステップS304)及び/または推定した平面(ステップS305)に関する情報に基づいて、投影用レンズの移動により、投影対象物に投影用レンズのフォーカスを合わせる。ここで、合焦方法について、投影された領域の中心に位置に対する投影対象物の距離に関する第1の距離データDd1を測距手段により算出し、その算出した第1の距離データDd1に基づいて、フォーカスを調整することができる。中心の位置は、三次元点群のX座標とY座標の最大値と最小値を示す点(位置)の平均値としてもよい。または、三次元点群のすべての点の平均値(または重心)としてもよい。
合焦を完了すると、ステップS309に進む。
図11のステップS309において、投影用画像生成手段は、投影するプロジェクタ画像データPimgに関する画像を補正する。具体的には、投影用画像生成手段は、算出した台形補正変換行列Hppに基づいて、コンテンツ画像データAimgに関する画像を補正(変形)し、台形歪み等が解消されるプロジェクタ画像データPimgに関する画像を生成する(図13(b))。この補正後のプロジェクタ画像データPimgを投影したときの仮想画像データVimgに関する画像が図13(c)であり、投影対象物の正面方向から見た場合に台形歪みがキャンセル(解消)された画像となる。
補正を完了すると、ステップS310に進む。
ステップS310において、制御手段は、所定の時間間隔を測定するタイムカウンタなどにより、所定の時間を経過したか否かを判断する。所定の時間を経過するとタイムカウンタなどをリセットし、ステップS311に進む。所定の時間の未経過のときは、所定の時間を経過するまで待機する。
ステップS311において、制御手段は、プロジェクタが使用中か否かを判断する。プロジェクタが使用中の場合は、所定の時間間隔で投影する動作を校正するため、ステップS303に戻る。それ以外の場合は、図中の「END」に進み、校正等の動作を終了する。
ステップS312において、位置移動判断手段は、プロジェクタと投影対象物との位置に関する関係の変化量を算出する。具体的には、位置移動判断手段は、平面推定手段により新たに平面を推定し、前回推定した平面と新たに推定した平面の比較に基づいて、位置に関する関係(離間距離、水平角、仰角など)の変化量を算出することができる。また、位置移動判断手段は、推定した平面に基づく台形補正矩形の重心(中心)の位置の移動量を変化量とすることができる。
算出を完了すると、ステップS313に進む。
ステップS313において、位置移動判断手段は、プロジェクタと投影対象物との位置に関する関係が変化したか否かを判断する。具体的には、位置移動判断手段は、ステップS312で算出した変化量において、所定の変化量を超える場合に位置に関する関係が変化したと判断することができる。ここで、所定の変化量とは、プロジェクタと投影対象物との離間距離、または、被写界深度に対応する値とすることができる。また、所定の変化量を、数値計算及び実験等により定められる値とすることができる。
その後、位置に関する関係が変化したと判断した場合は、ステップS314に進む。位置に関する関係が変化していないと判断した場合は、ステップS310に進む。
ステップS314において、補正情報算出手段は、ステップS307と同様の補正に関する情報を算出する。算出を完了すると、ステップS315に進む。
ステップS315において、オートフォーカス手段は、ステップS309と同様の合焦をする。合焦を完了すると、ステップS316に進む。
ステップS316において、投影用画像生成手段は、ステップS308と同様のプロジェクタ画像データPimgに関する画像を補正する。補正を完了すると、ステップS303に戻る。
以上より、本実施例のプロジェクタは、画像を投影中に、プロジェクタと投影対象物との位置に関する関係が変化した場合において、画像を投影する動作を中断することなく、投影する画像(プロジェクタ画像データPimgに関する画像)を補正することができる。また、プロジェクタは、所定の時間間隔で平面推定手段が推定する複数の平面の位置を比較することにより、プロジェクタと投影対象物との位置に関する関係が変化したか否かを判断することができる。さらに、プロジェクタは、位置に関する関係が変化したと判断した場合に、画像を投影する動作を中断することなく、投影する画像を補正することができる。
実施例2のプロジェクタを用いて、本発明を説明する。
(プロジェクタの構成)
図14は、本実施例のプロジェクタの概略構成図の一例である。
図14において、プロジェクタ300の構成は、実施例1(図10)と同様のため、説明を省略する。
(特徴点を抽出する動作)
プロジェクタの測距手段が、特徴点を抽出する動作について説明する。基本的な動作は、前述の(測距する動作)と同様のため、説明を省略する。
本実施例では、投影する画像(プロジェクタ画像データPimgに関する画像)に、パターン画像を電子透かしとして埋め込み、そのパターン画像を特徴点として抽出する。ここで、パターン画像は、ドットパターンなどを用いることができる。
パターン画像に基づいて、特徴点を抽出する動作を、図15を用いて、具体的に説明する。
図15は、パターン画像としてドットパターンを用いる例である。図15(a)は、電子透かしとして埋め込むドットパターンDpを示す。図15(b)は、特徴点を抽出するときの探索パターンSpを示す。図15(c)は、ドットパターンが埋め込まれた画像を示す。
図15(c)より、ドットパターンDp(図15(a))が埋め込まれて投影された画像(カメラ画像データCimg)において、ドットパターンDpに対応する画素とその周囲の画素とでは画像情報(色、明るさ、及び、エッジ強度など)が異なり、ドットパターンDpに対応する画素は孤立点となる。本実施例では、図15(b)において、探索パターンSpを用いて、この孤立点Lpを抽出し、特徴点とする。これにより、特徴点が少ない(または抽出できない)画像を投影する場合に、パターン画像(ドットパターン)を電子透かしとして投影することで、特徴点を抽出することができる。
実施例3のプロジェクタを用いて、本発明を説明する。
(プロジェクタの構成)
図16は、本実施例のプロジェクタの概略構成図の一例である。
図16において、プロジェクタ400の構成は、実施例1及び実施例2と同様のため、説明を省略する。
(法線ベクトルにより平面を推定する動作)
平面推定手段が、ポリゴンメッシュにより法線ベクトルを算出し、その法線ベクトルに基づいて、投影対象物に対応する平面を推定する動作を説明する。基本的な動作は、前述の(平面を推定する動作)と同様のため、説明を省略する。
本実施例では、測距手段が算出した三次元点群の絶対座標(第2の距離データD2)から、三次元点群に対応するポリゴンメッシュを算出する。ここで、ポリゴンメッシュとは、三角形などの多角形の組み合わせにより、物体を表現する要素である。図17は、ポリゴンメッシュで表現した三次元点群を示す。本実施例では、三角形のポリゴンメッシュで、三次元点群を表現する。
次に、ポリゴンメッシュで表現した三次元点群から、投影対象物に対応する平面を推定する動作を、図18を用いて、説明する。
図18は、三次元点群の絶対座標(第2の距離データD2)に基づいて算出されたポリゴンメッシュの法線ベクトルを示す。本実施例では、ポリゴンメッシュの各要素の法線ベクトルを求め、各要素の法線ベクトルを平均した法線ベクトルNを算出し、平均した法線ベクトルNに垂直な平面を投影対象物に対応する平面と推定する。また、平均した法線ベクトルNと各要素の法線ベクトルとを比較することにより、投影対象物の投影可能範囲(スクリーンの範囲など)を検知することができる。
具体的には、各要素の法線ベクトルの向きと平均した法線ベクトルNのベクトルの向きとの差分が所定の範囲外となる各要素の法線ベクトル(図中のD1及びD2)に関する対応点を検出し、検知された対応点の位置を投影対象物の外形に位置する対応点とする。これにより、(平面を推定する動作)の再帰的な近似による推定をする必要がなく、一度の算出で平面の推定及び投影対象物の投影可能範囲(外形)を算出することができる。
また、撮像された画像の中心近傍におけるポリゴンメッシュから、順次、平均の法線ベクトルを算出し、順次算出される平均の法線ベクトルと算出する法線ベクトルとの差分が所定の値を超える場合に、投影対象物の外形に位置すると推定することもできる。
さらに、法線ベクトルは、数16で算出してもよい。
Figure 0005961945
数16において、Hはステレオカメラ(撮像手段)の基準カメラ及び参照カメラが撮影した画像における射影変換行列、N及びNは基準カメラ及び参照カメラの内部パラメータ、R及びtは基準カメラ及び参照カメラの相対的な位置と姿勢を表す回転及び平行移動ベクトル、zはステレオカメラから投影対象物までの距離、Nは推定する平面の基準カメラに対する法線ベクトルである。
実施例4のプロジェクタシステムを用いて、本発明を説明する。
(プロジェクタシステムの構成)
図19は、本実施例のプロジェクタシステムの概略構成図の一例である。
図19において、プロジェクタシステム500は、プロジェクタ510及び外部手段520を有する。プロジェクタ510の基本的な構成は、実施例1乃至実施例3と同様のため、説明を省略する。
プロジェクタ510は、本実施例では、通信手段511を有する。また、外部手段520は、同様に、通信手段521を有する。プロジェクタ510と外部手段520とは、通信手段511及び通信手段521により、相互に有線または無線で通信することができる。外部手段520は、クラウドコンピューティングなどを利用することができる。
外部手段520は、撮像手段120を有する。外部手段520は、撮像手段120により撮像した画像に関するデータをプロジェクタ510に出力することができる。
(撮像する動作)
投影対象物と近い位置に配置して使用するプロジェクタ(短焦点プロジェクタ、至近プロジェクタなど)においては、広角レンズ(画角の広いレンズ、焦点距離が短いレンズなど)を利用して、投影した画像を撮像する。この場合、撮像した画像のザイデル収差(球面収差、コマ収差、非点収差、像面湾曲、及び、歪曲収差など)を補正する必要がある。
本実施例のプロジェクタシステム500は、投影対象物と近い位置に配置して使用するプロジェクタにおいて、外部手段520の撮像手段120を利用することにより、ザイデル収差の補正を必要としないプロジェクタシステム(撮像手段)とすることができる。
また、プロジェクタシステム500は、外部手段520の撮像手段120を利用することで、プロジェクタ510を小型化、軽量化、及び、簡素化することができる。
さらに、外部手段520は、PC等の撮像手段を利用することができる。プロジェクタ510を用いて発表等する場合では、発表時に使用するPC等が撮像手段を有するものがある。外部手段520は、発表時に使用するPC等が有する撮像手段とすることができる。
120 : 撮像手段
130 : 測距手段
140 : 平面推定手段
150 : 補正情報算出手段
160 : 位置移動判断手段
210 : 投影手段
230 : 投影用画像生成手段
100 : 画像処理装置
200、300、400: プロジェクタ
500 : プロジェクタシステム
Pr : プログラム
Md : 記録媒体
Dp : パターン画像(ドットパターン)
Dd1: 第1の距離データ
Dd2: 第2の距離データ
特開2005−229415号公報

Claims (8)

  1. 画像が投影されている対象物を含む領域を撮像して、画像データを取得する撮像手段と、
    前記画像データに基づき、前記対象物と前記撮像手段との離間距離に関する距離データを算出する測距手段と、
    前記距離データから、前記対象物に対応する平面を推定する平面推定手段と、
    前記撮像手段と前記対象物との位置に関する関係が変化したか否かを判断する位置移動判断手段と、
    前記距離データと前記平面に関する情報とに基づき、投影する画像の補正に関する情報を算出する補正情報算出手段と、を有し、
    前記撮像手段は、所定の時間間隔で、前記領域を撮像して、複数の画像データを取得し、
    前記測距手段は、前記複数の画像データから、前記所定の時間間隔に対応する複数の第1の距離データを算出し、
    前記平面推定手段は、前記第1の距離データから、複数の3次元の平面を推定し、
    前記位置移動判断手段は、前記複数の3次元の平面において、前記所定の時間間隔に対応する一の平面と他の平面とを比較することにより、前記撮像手段と前記対象物との位置に関する関係が変化したか否かを判断し、
    前記補正情報算出手段は、前記位置移動判断手段が前記位置に関する関係が変化したと判断した場合に、変化した後の位置に関する関係に基づいて、前記補正に関する情報を算出する、ことを特徴とする画像処理装置。
  2. 前記投影する画像は、パターン画像を含み、
    前記測距手段は、前記パターン画像を抽出し、前記パターン画像に対応する距離データを算出することを特徴とする請求項1に記載の画像処理装置。
  3. 前記測距手段は、前記領域に対応する複数の第2の距離データを算出し、
    前記平面推定手段は、前記第2の距離データに基づき、複数の法線ベクトルを算出し、
    前記法線ベクトルから前記平面を推定する、
    ことを特徴とする請求項1に記載の画像処理装置。
  4. 請求項1乃至のいずれか一項に記載の画像処理装置と、
    前記補正に関する情報に基づき、投影する画像を補正する投影用画像生成手段と、
    前記投影用画像生成手段が補正した前記投影する画像を投影する投影手段と、
    を有する、
    ことを特徴とするプロジェクタ。
  5. 前記投影用画像生成手段は、無線または有線により、前記プロジェクタと通信することを特徴とする請求項に記載のプロジェクタを有するプロジェクタシステム。
  6. 撮像手段により、画像が投影されている対象物を含む領域を撮像して、画像データを取得する工程と、
    前記画像データに基づき、前記撮像手段と前記対象物との離間距離に関する距離データを算出する工程と、
    前記距離データから、前記対象物に対応する平面を推定する工程と、
    前記距離データと前記平面に関する情報とに基づき、投影する画像の補正に関する情報を算出する工程と、
    前記画像データを取得する工程は、所定の時間間隔で、前記領域を撮像して、複数の画像データを取得する工程を含み、
    前記距離データを算出する工程は、前記複数の画像データから、前記所定の時間間隔に対応する複数の第1の距離データを算出する工程を含み、
    前記平面を推定する工程は、前記第1の距離データから、前記所定の時間間隔に対応する複数の3次元の平面を推定する工程を含み、
    前記複数の3次元の平面において、前記所定の時間間隔に対応する一の平面と他の平面とを比較することにより、前記撮像手段と前記対象物との位置に関する関係が変化したか否かを判断する工程と、
    前記判断する工程において、前記位置に関する関係が変化したと判断した場合に、変化した後の位置に関する関係に基づいて、前記補正に関する情報を算出する工程と、
    を有することを特徴とする画像処理方法。
  7. 請求項に記載の画像処理方法をコンピュータに実行させるためのプログラム。
  8. 請求項に記載のプログラムを記録したコンピュータ読み取り可能な記録媒体。
JP2011178809A 2011-08-18 2011-08-18 画像処理装置、その画像処理装置を有するプロジェクタ及びプロジェクタシステム、並びに、画像処理方法、そのプログラム、及び、そのプログラムを記録した記録媒体 Active JP5961945B2 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2011178809A JP5961945B2 (ja) 2011-08-18 2011-08-18 画像処理装置、その画像処理装置を有するプロジェクタ及びプロジェクタシステム、並びに、画像処理方法、そのプログラム、及び、そのプログラムを記録した記録媒体
CN201280039743.9A CN103765870B (zh) 2011-08-18 2012-08-09 图像处理装置、包括图像处理装置的投影仪和投影仪***、图像处理方法
PCT/JP2012/070784 WO2013024882A1 (en) 2011-08-18 2012-08-09 Image processing apparatus, projector and projector system including image processing apparatus, image processing method
AU2012295789A AU2012295789B2 (en) 2011-08-18 2012-08-09 Image processing apparatus, projector and projector system including image processing apparatus, image processing method
EP12823869.8A EP2745504B1 (en) 2011-08-18 2012-08-09 Image projector, image processing method, computer program and recording medium
US14/238,689 US9759548B2 (en) 2011-08-18 2012-08-09 Image processing apparatus, projector and projector system including image processing apparatus, image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011178809A JP5961945B2 (ja) 2011-08-18 2011-08-18 画像処理装置、その画像処理装置を有するプロジェクタ及びプロジェクタシステム、並びに、画像処理方法、そのプログラム、及び、そのプログラムを記録した記録媒体

Publications (2)

Publication Number Publication Date
JP2013042411A JP2013042411A (ja) 2013-02-28
JP5961945B2 true JP5961945B2 (ja) 2016-08-03

Family

ID=47715198

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011178809A Active JP5961945B2 (ja) 2011-08-18 2011-08-18 画像処理装置、その画像処理装置を有するプロジェクタ及びプロジェクタシステム、並びに、画像処理方法、そのプログラム、及び、そのプログラムを記録した記録媒体

Country Status (6)

Country Link
US (1) US9759548B2 (ja)
EP (1) EP2745504B1 (ja)
JP (1) JP5961945B2 (ja)
CN (1) CN103765870B (ja)
AU (1) AU2012295789B2 (ja)
WO (1) WO2013024882A1 (ja)

Families Citing this family (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11321772B2 (en) 2012-01-12 2022-05-03 Kofax, Inc. Systems and methods for identification document processing and business workflow integration
WO2014116882A1 (en) * 2013-01-23 2014-07-31 Leap Motion, Inc. Systems and methods of tracking object movements in three-dimensional space
US10783615B2 (en) 2013-03-13 2020-09-22 Kofax, Inc. Content-based object detection, 3D reconstruction, and data extraction from digital images
US11620733B2 (en) 2013-03-13 2023-04-04 Kofax, Inc. Content-based object detection, 3D reconstruction, and data extraction from digital images
US10127636B2 (en) * 2013-09-27 2018-11-13 Kofax, Inc. Content-based detection and three dimensional geometric reconstruction of objects in image and video data
JP2014179698A (ja) * 2013-03-13 2014-09-25 Ricoh Co Ltd プロジェクタ及びプロジェクタの制御方法、並びに、その制御方法のプログラム及びそのプログラムを記録した記録媒体
JP6221287B2 (ja) * 2013-03-22 2017-11-01 セイコーエプソン株式会社 プロジェクター及びプロジェクターの制御方法
JP6394081B2 (ja) 2013-08-13 2018-09-26 株式会社リコー 画像処理装置、画像処理システム、画像処理方法、及びプログラム
KR20150058660A (ko) * 2013-11-19 2015-05-29 삼성전자주식회사 이미지 처리 장치, 이의 동작 방법, 및 이를 포함하는 시스템
JP2015103922A (ja) 2013-11-22 2015-06-04 株式会社リコー 画像投影装置、画像投影方法及びプログラム
JP6550688B2 (ja) * 2014-01-22 2019-07-31 株式会社リコー 投影装置
JP6618249B2 (ja) * 2014-02-18 2019-12-11 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 投影システムおよび半導体集積回路
JP2015173428A (ja) 2014-02-19 2015-10-01 株式会社リコー 投影システム及び投影方法
JP2016014712A (ja) * 2014-07-01 2016-01-28 キヤノン株式会社 シェーディング補正値算出装置およびシェーディング補正値算出方法
CN104460197A (zh) * 2014-11-25 2015-03-25 深圳先进技术研究院 一种可自动校正几何失真的投影机及其校正方法
CN104486573B (zh) * 2014-12-22 2017-11-28 联想(北京)有限公司 一种信息处理方法和电子设备
JP6651388B2 (ja) * 2015-03-06 2020-02-19 国立大学法人 筑波大学 ジェスチャモデリング装置、ジェスチャモデリング方法、ジェスチャモデリングシステム用のプログラム、およびジェスチャモデリングシステム
DE102015210879A1 (de) * 2015-06-15 2016-12-15 BSH Hausgeräte GmbH Vorrichtung zur Unterstützung eines Nutzers in einem Haushalt
US10467465B2 (en) 2015-07-20 2019-11-05 Kofax, Inc. Range and/or polarity-based thresholding for improved data extraction
US10455216B2 (en) 2015-08-19 2019-10-22 Faro Technologies, Inc. Three-dimensional imager
US10444006B2 (en) 2015-08-19 2019-10-15 Faro Technologies, Inc. Three-dimensional imager
EP3346699B1 (en) * 2015-09-01 2023-02-01 NEC Platforms, Ltd. Projection device, projection method and projection program
JP6512058B2 (ja) * 2015-10-08 2019-05-15 富士通株式会社 投影装置、映像投影方法及び映像投影用コンピュータプログラム
CN106990663A (zh) * 2017-06-05 2017-07-28 电子科技大学中山学院 一种便携式可折叠三维户型投影装置
JP7148229B2 (ja) * 2017-07-31 2022-10-05 株式会社トプコン 三次元点群データの縦断面図作成方法,そのための測量データ処理装置,および測量システム
US10803350B2 (en) 2017-11-30 2020-10-13 Kofax, Inc. Object detection and image cropping using a multi-detector approach
WO2020013021A1 (ja) * 2018-07-13 2020-01-16 株式会社ニコン 検出装置、処理装置、検出方法、及び処理プログラム
KR102640871B1 (ko) 2018-10-30 2024-02-27 삼성전자주식회사 증강 현실을 이용한 영상 데이터를 제공하는 전자 장치 및 그 제어 방법
CN110677634B (zh) * 2019-11-27 2021-06-29 成都极米科技股份有限公司 投影仪的梯形校正方法、装置、***及可读存储介质
CN111669557B (zh) * 2020-06-24 2022-05-13 歌尔光学科技有限公司 投影图像校正方法和校正装置

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4048870B2 (ja) * 2002-08-06 2008-02-20 セイコーエプソン株式会社 プロジェクタシステム
JP2004088169A (ja) * 2002-08-22 2004-03-18 Nisca Corp 画像表示装置
JP3994950B2 (ja) * 2003-09-19 2007-10-24 ソニー株式会社 環境認識装置及び方法、経路計画装置及び方法、並びにロボット装置
JP3880582B2 (ja) 2004-02-13 2007-02-14 Necビューテクノロジー株式会社 複数のカメラを備えたプロジェクタ
JP3994290B2 (ja) * 2005-01-17 2007-10-17 セイコーエプソン株式会社 画像処理システム、プロジェクタ、プログラム、情報記憶媒体および画像処理方法
JP2006304100A (ja) * 2005-04-22 2006-11-02 Olympus Corp マルチプロジェクションシステム及び監視方法
JP2007094036A (ja) * 2005-09-29 2007-04-12 Casio Comput Co Ltd 投影装置、投影方法及びプログラム
JP5266953B2 (ja) * 2008-08-19 2013-08-21 セイコーエプソン株式会社 投写型表示装置および表示方法
JP2011133273A (ja) * 2009-12-22 2011-07-07 Canon Inc 推定装置及びその制御方法、プログラム
JP5994301B2 (ja) 2011-06-20 2016-09-21 株式会社リコー 画像処理装置、情報処理装置、方法、プログラムおよび記録媒体
JP2013033206A (ja) 2011-07-06 2013-02-14 Ricoh Co Ltd 投影型表示装置、情報処理装置、投影型表示システム、およびプログラム

Also Published As

Publication number Publication date
EP2745504A4 (en) 2014-09-10
JP2013042411A (ja) 2013-02-28
CN103765870B (zh) 2017-04-12
AU2012295789A1 (en) 2014-02-13
AU2012295789B2 (en) 2015-08-13
EP2745504B1 (en) 2022-10-05
WO2013024882A1 (en) 2013-02-21
US9759548B2 (en) 2017-09-12
US20140204204A1 (en) 2014-07-24
CN103765870A (zh) 2014-04-30
EP2745504A1 (en) 2014-06-25

Similar Documents

Publication Publication Date Title
JP5961945B2 (ja) 画像処理装置、その画像処理装置を有するプロジェクタ及びプロジェクタシステム、並びに、画像処理方法、そのプログラム、及び、そのプログラムを記録した記録媒体
JP5834615B2 (ja) プロジェクタ、その制御方法、そのプログラム、及び、そのプログラムを記録した記録媒体
JP6394081B2 (ja) 画像処理装置、画像処理システム、画像処理方法、及びプログラム
JP4911230B2 (ja) 撮影装置、並びに制御プログラム及び制御方法
JP5849522B2 (ja) 画像処理装置、プロジェクタ、プロジェクタシステム、画像処理方法、そのプログラム、及び、そのプログラムを記録した記録媒体
US8441518B2 (en) Imaging apparatus, imaging control method, and recording medium
JP2012088114A (ja) 光学情報処理装置、光学情報処理方法、光学情報処理システム、光学情報処理プログラム
JP5672112B2 (ja) ステレオ画像較正方法、ステレオ画像較正装置及びステレオ画像較正用コンピュータプログラム
CN107808398B (zh) 摄像头参数算出装置以及算出方法、程序、记录介质
US10205928B2 (en) Image processing apparatus that estimates distance information, method of controlling the same, and storage medium
JP2011049733A (ja) カメラキャリブレーション装置および映像歪み補正装置
JP6282377B2 (ja) 3次元形状計測システムおよびその計測方法
JP2016217833A (ja) 画像処理システム及び画像処理方法
US20170289516A1 (en) Depth map based perspective correction in digital photos
JP7504688B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP2007033087A (ja) キャリブレーション装置及び方法
KR101996226B1 (ko) 피사체의 3차원 위치 측정 장치 및 그 방법
JP2008224323A (ja) ステレオ写真計測装置、ステレオ写真計測方法及びステレオ写真計測用プログラム
JP6789899B2 (ja) 計測装置および計測装置の作動方法
JP5727969B2 (ja) 位置推定装置、方法、及びプログラム
KR101583662B1 (ko) 광각 카메라 영상의 특징점 검출 방법
KR20140068444A (ko) 다층 평면 물체 영상을 이용하여 카메라를 보정하기 위한 장치 및 그 방법
JP2009282742A (ja) 人物検出装置及び人物検出方法並びにプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140711

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151027

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151217

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160531

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160613

R151 Written notification of patent or utility model registration

Ref document number: 5961945

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151