JP7001966B2 - 画像処理装置および方法 - Google Patents

画像処理装置および方法 Download PDF

Info

Publication number
JP7001966B2
JP7001966B2 JP2018508961A JP2018508961A JP7001966B2 JP 7001966 B2 JP7001966 B2 JP 7001966B2 JP 2018508961 A JP2018508961 A JP 2018508961A JP 2018508961 A JP2018508961 A JP 2018508961A JP 7001966 B2 JP7001966 B2 JP 7001966B2
Authority
JP
Japan
Prior art keywords
image
projector
corner
corrected
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018508961A
Other languages
English (en)
Other versions
JPWO2017169725A1 (ja
Inventor
清登 染谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Sony Group Corp
Original Assignee
Sony Corp
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp, Sony Group Corp filed Critical Sony Corp
Publication of JPWO2017169725A1 publication Critical patent/JPWO2017169725A1/ja
Application granted granted Critical
Publication of JP7001966B2 publication Critical patent/JP7001966B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • H04N9/3185Geometric adjustment, e.g. keystone or convergence
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/74Projection arrangements for image reproduction, e.g. using eidophor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3191Testing thereof
    • H04N9/3194Testing thereof including sensor feedback

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Geometry (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Projection Apparatus (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Image Analysis (AREA)

Description

本開示は、画像処理装置および方法に関し、特に、特殊デバイスでなくても、同期することなしにオンラインセンシングを行うことができるようにした画像処理装置および方法に関する。
プロジェクタ(およびカメラ)の姿勢を推定するためには、プロジェクタ(投影画像)とカメラ(撮像画像)との間で対応点を求める必要があった。プロジェクタ・カメラ間の対応点を検出するためには、プロジェクタから投影しようとしている画像をカメラで撮像する必要がある。静止画像(パタン画像や静止画映像)であれば、常に同じ映像が投影されているので、撮像タイミングが適当であっても所望の画像を撮像し、対応点を検出することができる。
例えば、コンテンツ等の画像を投影しながらその対応点を求める技術であるオンラインセンシングは、入力映像を投影している最中に対応点検出ができるので、外乱によってプロジェクタの姿勢が変化しても自動的に正しい映像提示位置に更新することができる(特許文献1参照)。
特開2009-135921号公報
しかしながら、動画像は、毎フレームで画像中の内容が変化するので、対応点検出するためには、プロジェクタの投影とカメラの撮像が同期する必要があった。
補足としてIR光源などの可視光以外の光を利用すれば、IRパタンを静止画にできるので同期していなくてもオンラインセンシングを実現できる。しかしながら、プロジェクタまたはIR光源を持つプロジェクタという追加デバイスが必要となった。
本開示は、このような状況に鑑みてなされたものであり、特殊デバイスでなくても、同期することなしにオンラインセンシングを行うことができるものである。
本技術の一側面の画像処理装置は、プロジェクタの姿勢推定結果を示す姿勢推定情報に基づいて入力画像を補正して、補正画像を生成する補正部と、前記補正部により補正された補正画像が、前記プロジェクタから投影された画像である投影画像を撮像して生成された撮像画像の画隅点と、前記補正画像の画隅点との対応付けを行い、画隅対応点を検出する画隅対応検出部と、前記画隅対応検出部により検出された画隅対応点に基づいて、前記プロジェクタの姿勢推定を行い、前記姿勢推定情報を生成する姿勢推定部と、前記入力画像から黒帯の検出を行う黒帯検出部とを備え、前記黒帯検出部により黒帯が検出された場合、前記補正画像の画隅点は、前記黒帯でない領域から求められる
本技術の一側面においては、プロジェクタの姿勢推定結果を示す姿勢推定情報に基づいて入力画像が補正されて、補正画像が生成され、補正された補正画像が、前記プロジェクタから投影された画像である投影画像が撮像されて生成された撮像画像の画隅点と、前記補正画像の画隅点との対応付けが行われて、画隅対応点が検出され、検出された画隅対応点に基づいて、前記プロジェクタの姿勢推定が行われて、前記姿勢推定情報が生成される。そして、前記入力画像から黒帯の検出が行われ、黒帯が検出された場合、前記補正画像の画隅点が、前記黒帯でない領域から求められる
本技術によれば、特殊デバイスでなくても、同期することなしにオンラインセンシングを行うことができる。
なお、本明細書に記載された効果は、あくまで例示であり、本技術の効果は、本明細書に記載された効果に限定されるものではなく、付加的な効果があってもよい。
対応点検出の様子の例を示す図である。 ISLの例を説明する図である。 動画像の中での特徴点同士の対応付けを行う方法を説明する図である。 本技術を適用した投影撮像装置の構成例を示すブロック図である。 補正画像と画隅情報の例を示す図である。 画隅対応点検出部の構成例を示すブロック図である。 画隅検出部の構成例を示すブロック図である。 撮像画像と画隅情報の例を示す図である。 投影撮像装置の投影撮像処理について説明するフローチャートである。 投影撮像処理について説明する工程図である。 本技術を適用した投影撮像装置の構成例を示すブロック図である。 黒帯領域が含まれる映像の例を示す図である。 複数のプロジェクタを大画面配置で利用する場合の例を説明する図である。 対応点が4点未満の場合の例を説明する図である。 本技術を適用したコンピュータのハードウエア構成例を示すブロック図である。
以下、本開示を実施するための形態(以下実施の形態とする)について説明する。
<背景>
プロジェクタおよびカメラの姿勢を推定するためには、プロジェクタ・カメラ間の対応点を検出する必要がある。この対応点検出処理は、一般的にStructured Light(SL:構造化光)と呼ばれる。
例えば、図1の例のように、プロジェクタ11から所定の絵柄の標準化光パタン12をスクリーン13に投影し、カメラ14によりその投影された標準化光パタン12を撮像して撮像画像15を得る。そして、その標準化光パタン12の絵柄に基づいて標準化光パタン12と撮像画像15との対応点を求め、その対応点に基づいて三角測量等によりプロジェクタ11とカメラ14の姿勢(位置関係)やスクリーン13の形状等を求め、その結果に基づいてプロジェクタおよびカメラの姿勢を推定することができる。
このようにプロジェクタ・カメラ間の対応点を検出するためには、プロジェクタから投影しようとしている画像(GrayCodeやDotおよびCheckerなどのパタン画像や、入力画像など)をカメラで撮像する必要がある。静止画像(パタン画像や静止画映像)であれば、常に同じ映像が投影されているので、撮像タイミングを合わせなくても、所望の画像が撮像でき、対応点を検出することができる。
動画像投影中に対応点を検出して、プロジェクタとカメラの姿勢を推定する方法をオンラインセンシングと呼ぶことにする。オンラインセンシングでの対応点検出には、動画像内に人間の目では知覚されないパタンを重畳して対応点検出を行うImperceptible Structured Light(図2)や動画像内の特徴点を検出して特徴点同士の対応付けを行う方法(図3)などが挙げられる。
ISL方式は、所定のパタンの画像である構造化光パタンをポジ・ネガ反転させて投影画に埋め込み、人間に知覚されないように投影する技術である。
図2に示されるように、プロジェクタは、入力画像のあるフレームに対して所定の構造化光パタンを足すことにより、入力画像に構造化光パタンのポジ画像を合成したフレーム画像を生成し、入力画像のその次のフレームに対して構造化光パタンを引くことにより、入力画像に構造化光パタンのネガ画像を合成したフレーム画像を生成する。そしてプロジェクタは、それらのフレームを連続投影する。高速に切り替えられたポジ・ネガの2フレームは、積分効果により人間の目には足し合わされて知覚される。その結果、投影画像を視るユーザにとって、入力画像に埋め込まれた構造化光パタンを認識することが困難になる。
これに対して、カメラは、それらのフレームの投影画像を撮像し、両フレームの撮像画像の差分を求めることにより、撮像画像に含まれる構造化光パタンのみを抽出する。この抽出された構造化光パタンを用いて対応点検出が行われる。
このように、ISL方式では撮像画像の差分を求めるだけで容易に構造化パタンを抽出することができるので、投影する画像に依存せずに安定した精度で対応点検出を行うことができる。
図3に示されるように、動画像の中の特徴点を検出し、特徴点同士の対応付けを行う方法もある。時刻t1において、投影撮像装置21のプロジェクタ(投影部)22とカメラ(撮像部)23は、姿勢RT_t1である。このとき、プロジェクタ22は、スクリーン24に投影画像25_t1を投影し、カメラ23は、投影画像25_t1を撮像し、撮像画像26_t1を生成する。
その後、時刻t2において、投影撮像装置21のプロジェクタ(投影部)22とカメラ(撮像部)23の姿勢変化があり、投影撮像装置21のプロジェクタ(投影部)22とカメラ(撮像部)23は、姿勢RT_t2である。このとき、プロジェクタ22は、スクリーン24に投影画像25_t2を投影し、カメラ23は、投影画像25_t2を撮像し、撮像画像26_t2を生成する。
このように、入力映像を投影している最中に、生成された時刻t1での撮像画像26_t1と、時刻t2での撮像画像26_t2において対応点が検出されるので、外乱によってプロジェクタの姿勢が変化しても自動的に正しい映像提示位置に更新できる利点がある。(前述のパタン画像を投影する必要はない)。
しかしながら、動画像は、毎フレームで画像中の内容が変化するので、対応点を検出するためには、プロジェクタ投影とカメラの撮像を同期させる必要がある。なお、補足として、IR光源などの可視光以外の光を利用すれば、例えばIRパタンを静止画にできるので同期していなくてもオンラインセンシングを実現することができる。しかし、プロジェクタまたはIR光源を持つプロジェクタが必要となってしまう。
そこで、本技術においては、画像の4隅において対応点を検出し、それに基づいて姿勢を推定し、推定した姿勢情報に基づいて、入力画像を補正するようにしたので、プロジェクタとカメラとが同期するような特殊デバイスでなくても、オンラインセンシングを行うことができる。
<投影撮像装置の構成例>
図4は、本技術を適用した投影撮像装置の構成例を示すブロック図である。
図4の例において、投影撮像装置101は、幾何補正部111、画隅対応点検出部112、姿勢推定部113、スクリーン再構成部114、プロジェクタ115、およびカメラ116を含むように構成されている。入力映像は、幾何補正部111に入力される。
幾何補正部111は、入力映像を補正し、プロジェクタの姿勢情報と平面スクリーン情報から、入力映像が正しく見えるように入力映像を補正して、補正画像を生成し、生成した補正画像を、プロジェクタ115に出力する。その際、幾何補正部111は、入力映像の画隅4点が、補正画像のどの点に対応するかを求め、それらの点を画隅情報とし、画隅対応点検出部112に供給する。
例えば、投影開始時など、入力映像が、幾何補正されずに、プロジェクタ115からそのまま投影される場合、プロジェクタ解像度での4隅の点が画隅情報となる。具体的には、プロジェクタ115の解像度が1280×720解像度であれば、画隅情報は、[0,0],[0,1280],[1280,720],[0,720]となる。一方、入力映像が正しくみえるように幾何補正されて投影される場合、図5に示されるように、画隅情報は補正画像の内部に存在することとなる。
図5は、補正画像121であり、その内部に位置する画隅122-1乃至122-4が画隅情報となる。
プロジェクタ115は、補正画像を、スクリーンに投影する。
カメラ116は、プロジェクタ115からスクリーンに投影されている投影画像を撮像し、撮像画像を生成して、画隅対応点検出部112に供給する。
なお、プロジェクタ115も、カメラ116も複数台であってもよい。また、プロジェクタ115に対して、カメラ116が1台であってもよいし、複数のプロジェクタ115に対して、カメラ116が1台であってもよいし、複数のカメラ116に対して、プロジェクタ115が1台であってもよい。
画隅対応点検出部112は、カメラ116により撮像された撮像画像から入力画像の画隅を検出する。画隅検出方法の1例として、後述する図7のように、入力映像の4本の画枠をハフ変換などで検出して、2本の画枠直線の交点を画隅とするなどの方法が挙げられる。そして、画隅対応点検出部112は、プロジェクタ115から投影する補正画像の画隅4点と、カメラ116により撮像された撮像画像からの画隅4点との対応付けを行うことで、4点の画隅対応点を検出する。
図6は、画隅対応点検出部の構成例を示すブロック図である。
図6の例において、画隅対応点検出部112は、画隅検出部141および対応点検出部142を含むように構成されている。
画隅検出部141は、カメラ116により撮像された撮像画像から入力画像の画隅を検出し、検出された撮像画像からの画隅4点を、対応点検出部142に供給する。
対応点検出部142は、プロジェクタ115に投影する補正画像の画隅4点と、カメラ116により撮像された撮像画像からの画隅4点との対応付けを行うことで、4点の画隅対応点を検出する。対応点検出部142は、検出した4点の画隅対応点を、姿勢推定部113およびスクリーン再構成部114に供給する。
図7は、画隅検出部の構成例を示すブロック図である。
図7の例において、画隅検出部141は、エッジ検出部151、ハフ変換部152、クラスタリング部153、はずれ線除去部154、および画枠検出部155を含むように構成されている。
エッジ検出部151には、カメラ116により撮像された撮像画像161が入力される。エッジ検出部151は、撮像画像161からエッジを検出し、エッジ検出画像162を生成し、生成したエッジ検出画像162をハフ変換部152に供給する。
ハフ変換部152は、エッジ検出画像162をハフ変換し、直線検出を行う。ハフ変換部152は、ハフ変換画像163を生成し、生成したハフ変換画像163をクラスタリング部153に供給する。
クラスタリング部153は、ハフ変換画像163において検出された直線のクラス分類を行い、クラスタリング後の画像164をはずれ線除去部154に供給する。はずれ線除去部154は、クラスタリング後の画像164において、クラス分類からはずれた直線を除去し、はずれ線除去後の画像165を画枠検出部155に供給する。
画枠検出部155は、はずれ線除去後の画像165から画枠直線を検出する。画枠検出部155は、さらに、2本の画枠直線の交点を画隅として、入力映像の4つの画隅を検出し、画隅が検出された画像166を、対応点検出部142に出力する。
図8は、撮像画像171であり、その内部に位置する画隅172-1乃至172-4が画隅情報となる。
姿勢推定部113は、4点の画隅対応点から、プロジェクタ115とカメラ116の相対姿勢を推定し、推定したプロジェクタの姿勢情報を、スクリーン再構成部114および幾何補正部111に供給する。
スクリーン再構成部114は、4点の画隅対応点と姿勢情報を参照して、スクリーン形状推定と、平面スクリーンとの位置合わせを行い、その結果をスクリーン情報として、幾何補正部111に供給する。
次に、図9のフローチャートを参照して、投影撮像装置101の投影撮像処理を説明する。なお、図9の説明の際には、適宜、図10の工程図が参照される。
ステップS101において、幾何補正部111は、入力映像を補正し、プロジェクタの姿勢情報と平面スクリーン情報から、入力映像が正しく見えるように入力映像を補正して、補正画像を生成する。
その際、ステップS102において、幾何補正部111は、入力映像の画隅4点が、補正画像のどの点に対応するかを求め、求められたそれらの点を画隅情報とし、画隅対応点検出部112に供給する。なお、例えば、投影開始時など、入力映像が、幾何補正されずに、プロジェクタ115からそのまま投影される場合、プロジェクタ解像度での4隅の点が画隅情報となる。
幾何補正部111は、生成した補正画像を、プロジェクタ115に出力するので、ステップS103において、プロジェクタ115は、補正画像を、スクリーンに投影する。
ステップS104において、カメラ116は、プロジェクタ115からスクリーンに投影されている投影画像を撮像し、撮像画像を生成して、画隅対応点検出部112に供給する。
画隅対応点検出部112は、カメラ116により撮像された撮像画像から入力画像の画隅を検出する。そして、ステップS105において、画隅対応点検出部112は、プロジェクタ115に投影する補正画像の画隅4点と、カメラ116により撮像された撮像画像からの画隅4点との対応付けを行うことで、4点の画隅対応点を検出する。
すなわち、ステップS103乃至S105においては、図10のAの例に示されるように、SLによるプロジェクタ・カメラ間の対応点検出として、プロジェクタ115によりSLパタンの入力映像211を出力して、投影画像212がスクリーン201に投影される。そして、投影画像212と、カメラ116によりスクリーン201に投影された投影画像212が撮像されて、撮像画像213が生成される。画隅対応点検出部112により、入力映像211と、撮像画像213との画隅の対応点が検出される。
対応点検出部142は、検出した4点の画隅対応点を、姿勢推定部113およびスクリーン再構成部114に供給する。
ステップS106において、姿勢推定部113は、姿勢推定を行う。すなわち、姿勢推定部113は、図10のBに示されるように、4点の画隅対応点から、プロジェクタ115とカメラ116に相対姿勢を推定する。姿勢推定部113は、推定されたプロジェクタ115とカメラ116に相対姿勢情報を、スクリーン再構成部114および幾何補正部111に供給する。
ステップS107において、スクリーン再構成部114は、スクリーンとの位置合わせを行う。すなわち、スクリーン再構成部114は、図10のCに示されるように、4点の画隅対応点と、プロジェクタ115とカメラ116に相対姿勢情報を参照して、スクリーン201の形状推定と、スクリーン201との位置合わせを行い、その結果をスクリーン情報として、幾何補正部111に供給する。
ステップS108において、幾何補正部111は、補正画像を生成する。すなわち、幾何補正部111は、図10のDに示されるように、プロジェクタ115とカメラ116に相対姿勢情報とスクリーン201の情報とから、入力映像が正しく見えるように入力映像を補正して、補正画像221を生成し、生成した補正画像221を、プロジェクタ115に出力する。その後、処理は、ステップS102に戻り、それ以降の処理が繰り返される。
以上のように、本技術においては、画枠や画隅の特徴は、動画像であっても維持されるので、プロジェクタとカメラが同期しなくても対応点検出が可能となる。
<本技術の変形例>
図11は、本技術を適用した投影撮像装置の他の構成例を示すブロック図である。
図11の投影撮像装置101は、幾何補正部111、画隅対応点検出部112、姿勢推定部113、幾何補正部111、プロジェクタ115およびカメラ116を備える点は、図4の投影撮像装置101と共通している。
一方、図11の投影撮像装置101は、撮像トリガ制御部251が追加された点が、図4の投影撮像装置101と異なっている。
すなわち、入力映像によっては画枠が正しく検出されないことがある。一例としては、夜景画像などは映像の上限レベルが低いため、上端画枠が検出されないことが多い。これに対して、撮像トリガ制御部251は、入力映像の素性を解析して、カメラ112の撮像開始のトリガを制御する。
例えば、撮像トリガ制御部251は、入力映像を先読みして数フレームに渡って入力映像の画枠が検出できそうな場合、カメラ116に対して撮像トリガを送信する。画枠が検出できるか否かの判定は、画端のレベル値を解析したり、入力映像のメタ情報(夜景シーンなどの苦手とするシーンか否か)を利用する。
他に映画などの一般的なアスペクトと異なる入力映像は、映像の上下または左右に黒帯領域が追加されている。このような入力映像の場合、全編を通して黒帯が追加されている可能性が高いので、映像の画枠を検出することが困難である。
そこで、図12に示されるように、入力映像261の素性を解析する変形例として黒帯領域262-1および262-2(図12の例の場合、映像の上下)の情報を渡すことで、入力映像261から、黒帯でない領域の4隅263-1乃至263-4の情報を画隅情報として算出することができる。
黒帯領域が含まれる映像を撮像した場合、画隅対応点検出部112での画隅検出結果は、黒帯領域を除いた実際の映像の枠を検出し、4つの枠の交点から算出できる。
以上から、画隅の4点ではないが、プロジェクタ・カメラ間の4点の対応点が得られたことになるので、オンラインセンシングを成立させることができる。
さらに、2台以上のプロジェクタを大画面スクリーンへの配置(大画面配置)で利用する場合、それぞれのプロジェクタは、入力映像の一部分を投影することになる。例えば、2台を横に並べる場合、プロジェクタの光が重なっている部分は、入力映像の同じ領域を投影し、光が重なっていない部分は、入力映像中の異なる領域を投影することになる。
例えば、図13の例においては、左側に配置されるプロジェクタ115-0は、入力映像301L中の互いに異なる領域311Lおよび重なる領域312Lを投影する。右側に配置されるプロジェクタ115-1は、入力映像301R中の互いに異なる領域311Rおよび重なる領域312Rを投影する。なお、重なる領域312Lと重なる領域312Rは、同じ領域を表している。
そして、プロジェクタ115-0からの投影と、プロジェクタ115-1からの投影とを結合することで、スクリーンに、互いに異なる領域311および互いに重なる領域312からなる映像301が投影される。
ここで、プロジェクタ単体の場合は、入力映像の画隅4点をスクリーンに投影することになるため、カメラで撮像した撮像画像にも画隅4点が存在し、プロジェクタとカメラの対応点が4組得られる。平面スクリーン上の4点の対応点が得られれば、姿勢推定部113でホモグラフィ変換などを利用することにより、カメラ116とプロジェクタ115の姿勢を推定できる。
しかしながら、複数のプロジェクタを大画面配置で利用する場合、各プロジェクタは、入力映像の画隅4点すべてを投影するわけではないので、必ずしも4組の対応点を得ることはできない。すなわち、4組以下の対応点しか得ることができない。
図13の例においては、各プロジェクタで左端または右端の2点ずつ(互いに異なる領域311Lの左端,311Rの右端の2点ずつ)しか対応点は得られない。一般に各プロジェクタの姿勢を4点未満の対応点から推定するのは、困難である。
そこで、対応点が4点未満の場合は、画枠情報を利用することにする。考え方としては、プロジェクタから投影する補正画像の画枠とカメラで撮像した撮像画像の画枠を合わせることで、姿勢を推定する。ここで補正画像をプロジェクタとカメラの姿勢情報を使って、カメラで撮像されるであろう画像をsim画像と定義する。図14の場合、補正画像352-0のsim画像362-0と、補正画像352-1のsim画像362-1が示されている。
図14に示されるように、例えば、補正画像352-0の下端画枠353-0がある姿勢によって、カメラ116で撮像されるであろうsim画像362-0の下端画枠363-0と撮像画像361から検出した下端画枠361Aとの一致度を計算する。同様に、補正画像352-1の下端画枠353-1がある姿勢によって、カメラ116で撮像されるであろうsim画像362-1の下端画枠363-1と撮像画像361から検出した下端画枠361Aとの一致度を計算する。
一致度とは、それぞれ画枠の重なり具合を意味する。前記姿勢推定部は、一致度の評価として、例えば、画枠を表す直線のパラメータがどれだけ近いかを評価したり、sim画像と撮像画像の画枠内のエッジ点をマッチングするなどを行う。
撮像画像361のすべての画枠(図14の場合、上下左右端)と、sim画像362-0のすべての画枠(図14の場合、上下左端)またはsim画像362-1のすべての画枠(図14の場合、上下右端)の一致度が最も高くなるように、プロジェクタ115-0および115-1とカメラ116の姿勢を少しずつ変えていきながら、最適な姿勢を探索する。探索方法としては、BundleAdjustmentなどの非線形最適化による探索などが考えられる。
また、画枠を合わせる方法は、プロジェクタ単体でも適用できる方法なので、上述してきた画隅対応点と合わせて利用することが可能である。当然、入力映像が動画像であっても、画枠の特徴は維持されるので、非同期のオンラインセンシングが成立する。
以上により、可視のプロジェクタとカメラが同期するような特殊デバイスがなくてもオンラインセンシングを行うことができる。
<パーソナルコンピュータ>
上述した一連の処理は、ハードウエアにより実行することもできるし、ソフトウエアにより実行することもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウエアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な汎用のパーソナルコンピュータなどが含まれる。
図15は、上述した一連の処理をプログラムにより実行するパーソナルコンピュータのハードウエアの構成例を示すブロック図である。
パーソナルコンピュータ500において、CPU(Central Processing Unit)501,ROM(Read Only Memory)502,RAM(Random Access Memory)503は、バス504により相互に接続されている。
バス504には、さらに、入出力インタフェース505が接続されている。入出力インタフェース505には、入力部506、出力部507、記憶部508、通信部509、及びドライブ510が接続されている。
入力部506は、キーボード、マウス、マイクロホンなどよりなる。出力部507は、ディスプレイ、スピーカなどよりなる。記憶部508は、ハードディスクや不揮発性のメモリなどよりなる。通信部509は、ネットワークインタフェースなどよりなる。ドライブ510は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブルメディア511を駆動する。
以上のように構成されるパーソナルコンピュータ500では、CPU501が、例えば、記憶部508に記憶されているプログラムを、入出力インタフェース505及びバス504を介して、RAM503にロードして実行する。これにより、上述した一連の処理が行われる。
コンピュータ(CPU501)が実行するプログラムは、リムーバブルメディア511に記録して提供することができる。リムーバブルメディア511は、例えば、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)等)、光磁気ディスク、もしくは半導体メモリなどよりなるパッケージメディア等である。また、あるいは、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
コンピュータにおいて、プログラムは、リムーバブルメディア511をドライブ510に装着することにより、入出力インタフェース505を介して、記憶部508にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部509で受信し、記憶部508にインストールすることができる。その他、プログラムは、ROM502や記憶部508に、あらかじめインストールしておくことができる。
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要な段階で処理が行われるプログラムであっても良い。
また、本明細書において、記録媒体に記録されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
また、本明細書において、システムとは、複数のデバイス(装置)により構成される装置全体を表すものである。
例えば、本開示は、1つの機能を、ネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
また、以上において、1つの装置(または処理部)として説明した構成を分割し、複数の装置(または処理部)として構成するようにしてもよい。逆に、以上において複数の装置(または処理部)として説明した構成をまとめて1つの装置(または処理部)として構成されるようにしてもよい。また、各装置(または各処理部)の構成に上述した以外の構成を付加するようにしてももちろんよい。さらに、システム全体としての構成や動作が実質的に同じであれば、ある装置(または処理部)の構成の一部を他の装置(または他の処理部)の構成に含めるようにしてもよい。つまり、本技術は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示はかかる例に限定されない。本開示の属する技術の分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
なお、本技術は以下のような構成も取ることができる。
(1) プロジェクタの姿勢推定結果を示す姿勢推定情報に基づいて入力画像を補正して、補正画像を生成する補正部と、
前記補正部により補正された補正画像が、前記プロジェクタから投影された画像である投影画像を撮像して生成された撮像画像の画隅点と、前記補正画像の画隅点の対応付けを行い、画隅対応点を検出する画隅対応検出部と、
前記画隅対応検出部により検出された画隅対応点に基づいて、前記プロジェクタの姿勢推定を行い、前記姿勢推定情報を生成する姿勢推定部と
を備える画像処理装置。
(2) 前記補正部により補正された補正画像が前記プロジェクタから投影された画像である投影画像を撮像して撮像画像を生成する撮像部を
さらに備える前記(1)に記載の画像処理装置。
(3) 前記入力画像を先読みして、画枠が検出可能な場合、前記撮像部に対して撮像トリガを送信する撮像トリガ制御部を
さらに備える前記(1)または(2)に記載の画像処理装置。
(4) 前記入力画像から黒帯の検出を行う黒帯検出部
をさらに備え、
前記黒帯検出部により黒帯が検出された場合、前記補正画像の画隅点は、前記黒帯でない領域から求められる
前記(1)乃至(3)のいずれかに記載の画像処理装置。
(5) 前記補正画像の画隅点が4点未満の場合、前記補正画像の画枠と前記撮像画像の画枠との一致度を評価することで、前記姿勢推定部は、前記プロジェクタの姿勢推定を行う
前記(4)に記載の画像処理装置。
(6) 前記姿勢推定部は、前記一致度の評価として、画枠を表す直線のパラメータがどれだけ近いかを評価することで、前記プロジェクタの姿勢推定を行う
前記(5)に記載の画像処理装置。
(7) 前記姿勢推定部は、前記一致度の評価として、前記補正画像を前記姿勢推定情報を使って、前記撮像部により撮像されるであろう画像と、前記撮像画像との画枠内のエッジ点をマッチングすることで、前記プロジェクタの姿勢推定を行う
前記(5)に記載の画像処理装置。
(8) 画像処理装置が、
プロジェクタの姿勢推定結果を示す姿勢推定情報に基づいて入力画像を補正して、補正画像を生成し、
補正された補正画像が、前記プロジェクタから投影された画像である投影画像を撮像して生成された撮像画像の画隅点と、前記補正画像の画隅点との対応付けを行い、画隅対応点を検出し、
検出された画隅対応点に基づいて、前記プロジェクタの姿勢推定を行い、前記姿勢推定情報を生成する
画像処理方法。
(9) プロジェクタの姿勢推定結果を示す姿勢推定情報に基づいて入力画像を補正して、補正画像を生成する補正部と、
前記補正部により補正された補正画像が、前記プロジェクタから投影された画像である投影画像を撮像して生成された撮像画像の画隅点と、前記補正画像の画隅点との対応付けを行い、画隅対応点を検出する画隅対応検出部と、
前記画隅対応検出部により検出された画隅対応点に基づいて、前記プロジェクタの姿勢推定を行い、前記姿勢推定情報を生成する姿勢推定部と
して、コンピュータを機能させるプログラム。
101 投影撮像装置, 111 幾何補正部, 112 画隅対応点検出部, 113 姿勢推定部, 114 スクリーン再構成部,115,115-0,115-1 プロジェクタ, 116 カメラ, 141 画隅検出部, 142 対応点検出部, 151 エッジ検出部, 152 ハフ変換部, 153 クラスタリング部, 154 はずれ線除去部, 155 画枠検出部, 251 撮像トリガ制御部

Claims (7)

  1. プロジェクタの姿勢推定結果を示す姿勢推定情報に基づいて入力画像を補正して、補正画像を生成する補正部と、
    前記補正部により補正された補正画像が前記プロジェクタから投影された画像である投影画像を撮像して生成された撮像画像の画隅点と、前記補正画像の画隅点との対応付けを行い、画隅対応点を検出する画隅対応検出部と、
    前記画隅対応検出部により検出された画隅対応点に基づいて、前記プロジェクタの姿勢推定を行い、前記姿勢推定情報を生成する姿勢推定部と
    前記入力画像から黒帯の検出を行う黒帯検出部と
    を備え、
    前記黒帯検出部により黒帯が検出された場合、前記補正画像の画隅点は、前記黒帯でない領域から求められる
    画像処理装置。
  2. 前記補正部により補正された補正画像が前記プロジェクタから投影された画像である投影画像を撮像して撮像画像を生成する撮像部を
    さらに備える請求項1に記載の画像処理装置。
  3. 前記入力画像を先読みして、画枠が検出可能な場合、前記撮像部に対して撮像トリガを送信する撮像トリガ制御部を
    さらに備える請求項2に記載の画像処理装置。
  4. 前記補正画像の画隅点が4点未満の場合、前記補正画像の画枠と前記撮像画像の画枠との一致度を評価することで、前記姿勢推定部は、前記プロジェクタの姿勢推定を行う
    請求項2に記載の画像処理装置。
  5. 前記姿勢推定部は、前記一致度の評価として、画枠を表す直線のパラメータがどれだけ近いかを評価することで、前記プロジェクタの姿勢推定を行う
    請求項4に記載の画像処理装置。
  6. 前記姿勢推定部は、前記一致度の評価として、前記補正画像を前記姿勢推定情報を使って、前記撮像部により撮像されるであろう画像と、前記撮像画像との画枠内のエッジ点をマッチングすることで、前記プロジェクタの姿勢推定を行う
    請求項4に記載の画像処理装置。
  7. 画像処理装置が、
    プロジェクタの姿勢推定結果を示す姿勢推定情報に基づいて入力画像を補正して、補正画像を生成し、
    補正された補正画像が、前記プロジェクタから投影された画像である投影画像を撮像して生成された撮像画像の画隅点と、前記補正画像の画隅点との対応付けを行い、画隅対応点を検出し、
    検出された画隅対応点に基づいて、前記プロジェクタの姿勢推定を行い、前記姿勢推定情報を生成し
    前記入力画像から黒帯の検出を行い、
    黒帯が検出された場合、前記補正画像の画隅点は、前記黒帯でない領域から求められる
    画像処理方法。
JP2018508961A 2016-03-28 2017-03-14 画像処理装置および方法 Active JP7001966B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016064243 2016-03-28
JP2016064243 2016-03-28
PCT/JP2017/010109 WO2017169725A1 (ja) 2016-03-28 2017-03-14 画像処理装置および方法

Publications (2)

Publication Number Publication Date
JPWO2017169725A1 JPWO2017169725A1 (ja) 2019-02-07
JP7001966B2 true JP7001966B2 (ja) 2022-01-20

Family

ID=59964334

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018508961A Active JP7001966B2 (ja) 2016-03-28 2017-03-14 画像処理装置および方法

Country Status (3)

Country Link
US (1) US10536677B2 (ja)
JP (1) JP7001966B2 (ja)
WO (1) WO2017169725A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018173797A1 (ja) * 2017-03-23 2018-09-27 ソニー株式会社 プロジェクタ、投影方法、画像処理システム、および方法
CN110084860A (zh) * 2019-05-24 2019-08-02 深圳市速杰电子有限公司 一种投影仪镜头畸变矫正***及方法
KR20190103085A (ko) * 2019-08-15 2019-09-04 엘지전자 주식회사 지능형 진단 디바이스
CN112804509B (zh) * 2021-03-26 2023-03-24 歌尔光学科技有限公司 投影仪的组装方法、投影仪的组装设备和可读存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006060447A (ja) 2004-08-19 2006-03-02 Seiko Epson Corp スクリーンの一部の辺を用いたキーストーン補正
JP2009135921A (ja) 2007-11-06 2009-06-18 Panasonic Corp 画像投影装置及び画像投影方法
JP2011141600A (ja) 2010-01-05 2011-07-21 Canon Inc 画像処理装置及び方法、並びに、プログラム
WO2013038656A1 (ja) 2011-09-15 2013-03-21 日本電気株式会社 投影像自動補正システム、投影像自動補正方法およびプログラム
JP2015118252A (ja) 2013-12-18 2015-06-25 株式会社リコー 画像投影装置、画像投影システムおよび画像投影方法
JP2017005601A (ja) 2015-06-15 2017-01-05 株式会社Jvcケンウッド 映像信号処理装置及び投射型表示装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7857461B2 (en) 2007-11-06 2010-12-28 Panasonic Corporation Projector and projection method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006060447A (ja) 2004-08-19 2006-03-02 Seiko Epson Corp スクリーンの一部の辺を用いたキーストーン補正
JP2009135921A (ja) 2007-11-06 2009-06-18 Panasonic Corp 画像投影装置及び画像投影方法
JP2011141600A (ja) 2010-01-05 2011-07-21 Canon Inc 画像処理装置及び方法、並びに、プログラム
WO2013038656A1 (ja) 2011-09-15 2013-03-21 日本電気株式会社 投影像自動補正システム、投影像自動補正方法およびプログラム
JP2015118252A (ja) 2013-12-18 2015-06-25 株式会社リコー 画像投影装置、画像投影システムおよび画像投影方法
JP2017005601A (ja) 2015-06-15 2017-01-05 株式会社Jvcケンウッド 映像信号処理装置及び投射型表示装置

Also Published As

Publication number Publication date
JPWO2017169725A1 (ja) 2019-02-07
US10536677B2 (en) 2020-01-14
WO2017169725A1 (ja) 2017-10-05
US20190110032A1 (en) 2019-04-11

Similar Documents

Publication Publication Date Title
JP7001966B2 (ja) 画像処理装置および方法
KR101758684B1 (ko) 객체 추적 장치 및 방법
KR102399017B1 (ko) 이미지 생성 방법 및 장치
US10115178B2 (en) Image processing apparatus, image capturing apparatus, image processing method, and storage medium
US20140037212A1 (en) Image processing method and device
US20150084992A1 (en) Information processing apparatus, method of controlling information processing apparatus, and recording medium
JP6157165B2 (ja) 視線検出装置及び撮像装置
JP2008040710A (ja) 顔検出装置、撮像装置および顔検出方法
US10878265B2 (en) Image processing device and image processing method for setting important areas in an image
JP5087037B2 (ja) 画像処理装置、方法及びプログラム
US9762773B2 (en) Image processing apparatus and method for increasing sharpness of images
TW201304529A (zh) 影像處理裝置及其影像處理方法
US10404912B2 (en) Image capturing apparatus, image processing apparatus, image capturing system, image processing method, and storage medium
US20080226159A1 (en) Method and System For Calculating Depth Information of Object in Image
JP2016063248A (ja) 画像処理装置および画像処理方法
JP2015088040A (ja) 認証装置、認証方法、及びプログラム
US9785839B2 (en) Technique for combining an image and marker without incongruity
US20190306417A1 (en) Image processing apparatus, image capturing apparatus, image processing method, and storage medium
JP2017212638A (ja) 表示装置、表示装置の制御方法、及びプログラム
US10880457B2 (en) Image processing apparatus, image capturing apparatus, image processing method, and storage medium
WO2013088657A1 (ja) 投射型投影装置、光防眩方法、および光防眩用プログラム
JP6996493B2 (ja) 画像処理装置および方法
JPWO2018155269A1 (ja) 画像処理装置および方法、並びにプログラム
JP2014021901A (ja) 被写体検出装置、被写体検出方法及びプログラム
JP2017157043A (ja) 画像処理装置、撮像装置、及び、画像処理方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200303

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210525

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210607

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211125

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211208