JP5769751B2 - 画像処理装置、画像処理方法及びプログラム - Google Patents

画像処理装置、画像処理方法及びプログラム Download PDF

Info

Publication number
JP5769751B2
JP5769751B2 JP2013074267A JP2013074267A JP5769751B2 JP 5769751 B2 JP5769751 B2 JP 5769751B2 JP 2013074267 A JP2013074267 A JP 2013074267A JP 2013074267 A JP2013074267 A JP 2013074267A JP 5769751 B2 JP5769751 B2 JP 5769751B2
Authority
JP
Japan
Prior art keywords
image data
unit
identification information
information
mixed reality
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013074267A
Other languages
English (en)
Other versions
JP2014199532A (ja
JP2014199532A5 (ja
Inventor
知彦 高山
知彦 高山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013074267A priority Critical patent/JP5769751B2/ja
Priority to US14/226,726 priority patent/US9501870B2/en
Publication of JP2014199532A publication Critical patent/JP2014199532A/ja
Publication of JP2014199532A5 publication Critical patent/JP2014199532A5/ja
Application granted granted Critical
Publication of JP5769751B2 publication Critical patent/JP5769751B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2215/00Indexing scheme for image rendering
    • G06T2215/16Using real world measurements to influence rendering

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)
  • Television Receiver Circuits (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

本発明は、撮像された画像データに仮想画像データを合成して複合現実画像データを生成する技術に関するものである。
近年、現実世界と仮想世界とをリアルタイム且つシームレスに融合させる技術として複合現実感、所謂、MR(Mixed Reality)技術が知られている。MR技術の一つに、ビデオシースルー型HMD(Head Mounted Display)を利用して複合現実画像をHMD使用者が観察することができる技術が知られている。複合現実画像は、HMD使用者の視線位置から観察される被写体と略一致する被写体をビデオカメラ等で撮像し、その撮像画像データにCG(Computer Graphics)を重畳表示して作り出される。
ビデオシースルー型HMDに取り付けられている撮像ユニットは、HMD使用者の視線位置と略一致する外界の観察画像データを撮像する。撮像ユニットは、ステレオ画像データを生成するための右目用と左目用との二組の撮像素子及び光学系、並びに、画像処理を行うためのDSP(Digital Signal Processor)を備える。表示ユニットは、HMD使用者の視線位置から観察される被写体と略一致する被写体にCGが合成された複合現実画像データを表示する。また、表示ユニットは、撮像ユニットと同様に左右構成であり、右目用と左目用との二組の表示デバイス及び光学系から構成される。
ここで、外界と複合現実画像データとの関係について説明する。上述した表示ユニットは、外部装置から入力された画像データをそのまま表示する構成となっている。従って、外界が夕暮れどきであれ、真昼の非常に明るいときであれ、木陰の少し薄暗い環境のときであれ、表示ユニットに映し出される複合現実画像データは、HMD使用者の外界環境に影響されない、一様に明るさ調整及び色調整された画像データであるのが一般的である。そのため、HMD使用者が感じる周囲環境の明るさ及び色感覚と、実際の外界環境との間に乖離が生じる場合があった。
光学シースルー型HMDの場合にも同様に、この影響を無視することはできない。光学シースルー型HMDにおいて外界シースルー画像にCGを重畳させる場合、CGのみが一様に明るさ調整及び色調整されているため、CGと外界シースルー画像との明るさ及び色のバランスが異なる。そのため、外界環境によっては、CGが外界シースルー画像に対して不自然な明るさ及び色となり、臨場感が損なわれる場合が発生するという課題があった。
これに対し、特許文献1には、明るい環境下では、撮像ユニットのシャッタスピードを短く、且つ、表示ユニットの照明光源の点灯時間を長くし、一方、暗い環境下では、シャッタスピードを長く、且つ、照明光源の点灯時間を短くする技術が開示されている。これにより、特許文献1に開示される技術は、様々な外界環境においても、表示ユニットの表示明るさをシースルー光に合わせた明るさに保つことを図っている。また、特許文献1に開示される技術は、撮像ユニットのシャッタスピードを外界の明るさに合わせて変更することにより、ある範囲に明るさを保って撮像することを図っている。
特許文献2には、センサにより外界の色温度を検出し、検出した色温度に合わせて表示ユニットに表示する表示画像データのカラーバランスを調整する技術が開示されている。これにより、特許文献2に開示される技術によれば、シースルー光とのアンバランスの少ない表示画像データを生成することを図っている。
特開2002−244077号公報 特許第03423402号公報
しかしながら、特許文献1及び2に開示される技術は、外界の照明環境に合わせて表示画像データの明るさ及び色を調整する技術であり、ビデオシースルー型HMDにおいて、外界の照明環境と一致した複合現実画像データを表示させることはできない。
そこで、本発明の目的は、外界の照明環境と一致させた複合現実画像データを生成することにある。
本発明の画像処理装置は、撮像装置により撮像された現実空間の画像データを撮像した時の前記現実空間の照明環境を示す照明環境情報を取得する取得手段と、前記取得手段で取得された照明環境情報に基づいて、前記画像データを標準画像データに変換する第1の変換手段と、前記標準画像データと仮想画像データとが合成された標準複合現実画像データを生成する生成手段と、前記生成手段によって生成された標準複合現実画像データを、前記照明環境情報に基づいて前記現実空間の照明環境に対応する複合現実画像データに変換する第2の変換手段と、前記第2の変換手段によって変換された前記現実空間の照明環境に対応する複合現実画像データを出力する出力手段とを有することを特徴とする。
本発明によれば、外界の照明環境と一致させた複合現実画像データを生成することが可能となる。
本発明の第1の実施形態に係るビデオシースルー型HMDを利用した複合現実システムの機能的な構成を示す図である。 本発明の第1の実施形態に係るビデオシースルー型HMDにおける、標準照明環境処理部、局所照明環境処理部及びその周辺の詳細な構成を示す図である。 RGB画像フォーマットにおけるRGB信号強度と色温度との対応関係を示す図である。 本発明の第1の実施形態に係るビデオシースルー型HMDにおける標準照明環境処理部の処理を示すフローチャートである。 本発明の第1の実施形態における局所照明環境処理部107の画像データの流れを示すフローチャートである。 本発明の第1の実施形態におけるビデオシースルー型HMDの局所照明環境処理部によるタイミング調整処理を示すフローチャートである。 本発明の第1の実施形態における局所照明環境処理の画像データの流れと情報の流れとの時間関係を示すタイムチャートである。 照明環境情報のデータ構造を示す図である。 撮像デバイス特性及び表示デバイス特性を説明するための図である。 本発明の第2の実施形態に係るビデオシースルー型HMDを利用した複合現実システムの機能的な構成を示す図である。 本発明の第2の実施形態におけるビデオシースルー型HMDのより詳細な構成を示す図である。 本発明の第2の実施形態における画像合成処理及び局所照明環境処理の画像データの流れと情報の流れとの時間関係を示すタイムチャートである。 本発明の第2の実施形態における複合現実システムの変形例を説明するための図である。
以下、本発明を適用した好適な実施形態を、添付図面を参照しながら詳細に説明する。
先ず、本発明の第1の実施形態について説明する。図1は、第1の実施形態に係るビデオシースルー型HMD(Head Mounted Display)101を利用した複合現実システムの機能的な構成を示す図である。図1において、101は、第1の実施形態に係るビデオシースルー型HMDである。ビデオシースルー型HMD101は、撮像ユニット103、標準照明環境処理部104、画像出力部105、画像入力部106、局所照明環境処理部107及び表示ユニット108を備える。なお、ビデオシースルー型HMD101は、複合現実画像処理装置の例となる構成である。
撮像ユニット103は、HMD使用者の視線位置と略一致する外界の画像データ(以下、撮像画像データと称す)を撮像する。撮像ユニット103は、ステレオ画像データを生成するための、右目用と左目用との二組の撮像素子及び光学系、並びに、画像処理を行うためのDSPを備える。撮像素子には、CCDやCMOSに代表される固体撮像素子が使用される。
表示ユニット108は、撮像画像データとCGとが合成された複合現実画像データ(MR画像データ)を表示する。表示ユニット108は、撮像ユニット103と同様に左右構成であり、右目用と左目用との二組の表示デバイス及び光学系を備える。なお、表示デバイスには、小型の液晶ディスプレイやMEMS(Micro Electro Mechanical Systems)による網膜スキャンタイプのデバイスが使用される。
画像出力部105は、装置間のインタフェースに合わせて出力画像データのフォーマットを変換する。画像入力部106は、装置間のインタフェースに合わせて入力画像データのフォーマットを変換する。画像出力部105及び画像入力部106のインタフェースとしては、リアルタイム性が求められ且つ大容量の伝送が可能な、例えば、USBやIEEE1394等のメタル線又はGigabitEthernet(登録商標)等の光ファイバが使用される。
図1において、102は画像処理装置である。画像処理装置102は、画像出力部105、画像入力部106、位置姿勢計測部109、撮像画像格納部110、コンテンツDB111、CG描画部112及び画像合成部113を備える。なお、画像処理装置102は、PCやワークステーション等の高性能な演算処理機能やグラフィック生成及び表示機能を有する情報処理装置によって構成することができる。
位置姿勢計測部109は、HMD使用者の位置及び姿勢のうちの少なくとも何れか一方を示す位置姿勢情報を計測する。即ち、位置姿勢計測部109は、画像入力部106から入力された撮像画像データからマーカや自然特徴を抽出し、それらを用いて位置姿勢情報を計測する。計測された位置姿勢情報は、描画される仮想画像データ(CG)の形状を計算に使用するため、CG描画部112に対して随時出力される。
コンテンツDB111は、仮想画像データのコンテンツを蓄積するデータベースである。CG描画部112は、位置姿勢計測部109で計測された位置姿勢情報と、コンテンツDB111に蓄積されるコンテンツとに基づいて、仮想画像データの描画を行う。撮像画像格納部110は、画像入力部106から入力された撮像画像データを格納する。画像合成部113は、撮像画像データと仮想画像データとを合成する。仮想画像データを重畳する対象である撮像画像データは、仮想画像データを描画するための位置姿勢情報が検出された撮像画像データであることが望ましい。但し、システム間の伝送遅延やCG描画の処理時間等のためにリアルタイム性が損なわれる場合、仮想画像データが生成されたタイミングにおいて最も新しく更新された撮像画像データに対して重畳処理を行う構成であってもよい。このときのCG描画には位置姿勢情報として予測値を用いれば、撮像画像データと仮想画像データとの時間ずれを抑制することができる。
以上を踏まえ、簡略的に画像データの流れについて説明する。撮像ユニット103から出力される撮像画像データは、標準照明環境処理部104で処理された後、画像処理装置102に出力され、撮像画像格納部110において格納される。そして、撮像画像格納部110に格納された撮像画像データは、画像合成部113で仮想画像データが重畳される。これにより、複合現実画像データが生成される。生成された複合現実画像データは、ビデオシースルー型HMD101に出力され、局所照明環境処理部107で処理された後、表示ユニット108にて表示される。
図2は、ビデオシースルー型HMD101における、標準照明環境処理部104、局所照明環境処理部107及びその周辺の詳細な構成を示す図である。
撮像ユニット103では、極力、見た目そのままの状態になるように撮像画像データを撮像する。外界が暗ければ、撮像画像データは暗くなり、外界が明るければ、撮像画像データは明るくなる。また、外界の色温度が高ければ、撮像画像データの色温度も高くなり、外界の色温度が低ければ、撮像画像データの色温度も低くなる。このように撮像ユニット103は、極力、外界環境と一致する撮像画像データとなるような撮像処理を行う。これは、撮像デバイスで光電変換を行ったアナログ信号をそのままAD変換した画像データが外界環境と一致する撮像画像データとなることを意味するわけではない。撮像デバイスへは多くの光を導くことでアナログノイズを低減し、後述する撮像デバイス特性補正部201で輝度の補正を実施することが望ましい。また、カラーフィルタ等に起因する色の補正も実施することが望ましい。撮像ユニット103では、ユニット全体として撮像画像データの環境を外界環境と一致させるための処理を行う。201は、撮像ユニット103の構成要素である撮像デバイス特性補正部である。撮像デバイス特性補正部201は、個々の撮像デバイスに依存する特性を補正する。
図2に示すように、標準照明環境処理部104は、照明環境情報抽出部202、画像識別情報源203、輝度変換部204及び色変換部205を備える。照明環境情報抽出部202は、撮像画像データから色温度情報及び輝度情報といった外界の照明環境を示す情報(以下、照明環境情報と称す)を画像処理により抽出する。そして、照明環境情報抽出部202は、画像識別情報源203に含まれる画像識別情報と合わせて局所照明環境処理部107に対して出力する。ここで、輝度情報は、例えばYUVフォーマットの撮像画像データにおけるY信号を示す情報である。色温度情報は、例えばRGBフォーマットの撮像画像データにおけるRGB信号強度の比率から算出される色温度を示す情報である。上述した処理とともに、照明環境情報抽出部202は、電子透かし技術で画像識別情報を撮像画像データに埋め込み、輝度変換部204に対して出力する。なお、画像識別情報は、撮像画像データの属性として付加されていればよい。そのため、画像識別情報を画像データのヘッダに付加してもよく、システム構成により画像識別情報の合成方法や付加方法が異なってもよい。
画像識別情報源203は、画像識別情報の集合である。画像識別情報は、少なくとも、撮像画像データが撮像された時点から、その撮像画像データに仮想画像データが重畳される時点までの画像データを識別することができる情報であればよい。そのため、撮像画像データを撮像してから、当該撮像画像データに仮想画像データが重畳されるまでに10フレーム分の時間が必要であるとすると、10フレーム分の画像識別情報を用意すればよいため、画像識別情報は4ビットでよい。このように、画像識別情報は画像データを一意に特定することができればよく、簡単には、撮像画像データへの単なるナンバリングでも実現できるし、撮像画像データが撮像された時刻のタイムスタンプとしても実現することができる。実際には、撮像画像データの撮像から、当該撮像画像データに仮想画像データが重畳されるまでの時間の揺らぎや、画像識別情報を撮像画像データが撮像された日時情報としても用いる等の要素を考慮して、画像識別情報の実現手段及び情報量は決定される。
輝度変換部204は、撮像画像データの輝度を変換する。輝度変換部204は、例えばYUVフォーマットの撮像画像データにおけるY信号を調整する処理を行う。Y信号が8ビット、10進数で0〜255の範囲で表現されている場合、例えば、中心値の127付近に調整される。このとき、RGBフォーマットに変換したときにRGBそれぞれの値が定義域内に収まるようにする。RGBそれぞれの信号が8ビットで表現され、以下のRGB−YUV変換式を用いる場合、輝度変換部204は、RGBそれぞれの信号が10進数で0〜255の範囲に収まるようにY信号の調整を行う。
R=Y+1.40200V
G=Y−0.344114U−0.71414V
B=Y+1.77200U
Y信号の調整値は、撮像画像データが明る過ぎず、暗過ぎずに見た目に心地よいと感じる値を選ぶのが望ましく、撮像対象、撮像画像データの観察環境及びアプリケーション等を考慮して決められる。輝度変換の前後で必要に応じて画像データのフォーマット変換が行われる。ここでの輝度変換の処理は、デジタル信号レベルで行う明るさ調整を意味する。
色変換部205は、撮像画像データの色温度を変換する。色変換部205は、例えば、RGBフォーマットの撮像画像データにおけるRGB信号強度の比率が1:1:1となるよう調整する処理を行う。RGB信号の調整比率は、撮像画像データの観察環境及びアプリケーション等を考慮して選ばれたsRGB等の規格で定義されている色温度に対応する比率としてもよい。なお、色温度をRGB信号強度の比率から色温度を算出する方法については、図3を用いて後述する。色変換の前後で必要に応じて撮像画像データのフォーマット変換が行われる。色変換部205における色変換は、デジタル信号レベルで行うホワイトバランス調整を意味する。
図2に示すように、局所照明環境処理部107は、照明環境情報処理部206、画像識別情報抽出部207、タイミング調整部208、画像格納部209、輝度変換部210及び色変換部211を備える。
照明環境情報処理部206は、照明環境情報を格納するための格納部(不図示)を含み、照明環境情報抽出部202から入力される照明環境情報を順次格納する。また、照明環境情報処理部206は、タイミング調整部208から画像識別情報を入力することにより、当該画像識別情報に一致する照明環境情報を読み出し、読み出し成功信号(ACK)をタイミング調整部208に対して出力する。それとともに、照明環境情報処理部206は、画像識別情報及び照明環境情報に含まれる輝度情報を輝度変換部210に対して出力するとともに、画像識別情報及び照明環境情報に含まれる色温度情報を色変換部211に対して出力する。
画像識別情報抽出部207は、複合現実画像データから画像識別情報を抽出する。この画像識別情報は、照明環境情報抽出部202において撮像画像データに埋め込まれた画像識別情報である。複合現実画像データから抽出された画像識別情報は、タイミング調整部208に対して出力される。また、画像識別情報抽出部207は、複合現実画像データを、抽出した画像識別情報と一体として画像格納部209に格納する。
タイミング調整部208は、画像識別情報抽出部207から入力した画像識別情報を照明環境情報処理部206に対して出力する。照明環境情報処理部206は、当該画像識別情報に一致する照明環境情報の読み出しが成功すれば、読み出し成功信号(ACK)をタイミング調整部208に対して出力する。タイミング調整部208は、ACK確認後に、画像格納部209からの複合現実画像データの読み出しタイミングを調整する。即ち、タイミング調整部208は、読み出された照明環境情報を用いた処理が輝度変換部210において実行可能な状態になるタイミングで、画像格納部209からの複合現実画像データの読み出しが行われるように調整する。この調整により、輝度変換部210及び色変換部211では、照明環境情報を用いた輝度変換及び色変換を極力少ない遅延で順次行えるようになる。
画像格納部209は、複合現実画像データを格納するラインバッファ又はフレームバッファから構成される。画像格納部209は、画像識別情報抽出部207により抽出された画像識別情報とともに複合現実画像データを格納する。輝度変換部210は、複合現実画像データの輝度を変換する。処理内容は、輝度変換部204による撮像画像データの輝度変換と同様であるが、調整値には、照明環境情報の輝度情報が用いられる。輝度変換部210は、画像格納部209から複合現実画像データとともに画像識別情報を読み出し、照明環境情報の画像識別情報と比較してエラーチェックを行うこともできる。この輝度変換により、複合現実画像データの輝度は、撮像画像データにおける輝度変換部204での変換処理前の輝度と略一致することになる。
色変換部211は、複合現実画像データの色温度を変換する。処理内容は、色変換部205による撮像画像データの色変換と同様であるが、色変換部211は、照明環境情報の色温度情報に基づいたRGB信号の調整を行う。色変換部211は、輝度変換部210から複合現実画像データとともに画像識別情報を入力し、照明環境情報の画像識別情報と比較してエラーチェックを行うこともできる。この色変換処理により、複合現実画像データの色温度は、撮像画像データにおける色変換部205での変換処理前の色温度と略一致することになる。
表示ユニット108は、入力された複合現実画像データをその輝度や色味を保持したまま表示する。入力された複合現実画像データが暗ければ、HMD観察画像データは暗くなり、入力された複合現実画像データが明るければ、HMD観察画像データは明るくなる。また、入力された複合現実画像データの色温度が高ければ、HMD観察画像データの色温度も高くなり、入力された複合現実画像データの色温度が低ければ、HMD観察画像データの色温度も低くなる。表示ユニット108は、後述する表示デバイス特性補正部212で表示デバイス固有の特性を抑制し、表示ユニット108に入力された複合現実画像データがHMD観察画像データとなるように処理を行う。212は、表示ユニット108の構成要素である表示デバイス特性補正部である。表示デバイス特性補正部212は、個々の表示デバイスに依存する特性を補正する。
図3は、RGB画像フォーマットにおけるRGB信号強度と色温度との対応関係を示す図である。色温度6500Kを基準とし、色温度6500Kで白色板を撮像したときのRGB信号比率が1:1:1となるようにRGB信号ゲインが調整される。これを、基準色温度6500Kでの白色RGB信号ゲインと称す。このRGB信号ゲインを保ったまま、同じ白色板を様々な色温度で撮像したときの各色温度に対するRGB信号強度の関係を図3に示している。様々な外界環境での色温度を求める際には、先ず、基準色温度6500Kにおける白色RGB信号ゲインでのRGB信号強度が算出される。次に、このRGB信号強度の比率と図3に示す対応関係とから色温度を求めることができる。R/G対B/Gが4対1の場合、図3より色温度は約3500Kとなる。ここで比率を用いるのは、画像データの明るさ程度によりRGB信号強度全体にバイアスがかかる影響を考慮してのことであるが、事前に輝度調整を行えばRGB信号強度から色温度を求めることもできる。なお、図3を用いて説明した方法は、色温度をRGB信号強度の比率から算出する方法であり、画像データから色温度を算出する方法の一例である。
図4は、ビデオシースルー型HMD101における標準照明環境処理部104の処理を示すフローチャートである。以下、図4を参照しながら、標準照明環境処理部104の処理について説明する。なお、図4並びに後述する図5及び図6に示す処理は、ビデオシースルー型HMD101内において、CPUがROM等の記録媒体から必要なプログラム及びデータを読み込んで実行することにより実現する処理である。
ステップS401において、照明環境情報抽出部202は、撮像ユニット103の撮像デバイス特性補正部201から撮像画像データを入力する。ステップS402において、照明環境情報抽出部202は、入力した撮像画像データから色温度情報及び輝度情報を含む照明環境情報を抽出する。抽出された照明環境情報は、画像識別情報源203からの画像識別情報とともに照明環境情報処理部206に対して出力される。
ステップS403において、照明環境情報抽出部202は、画像識別情報源203から供給される画像識別情報を撮像画像データに合成又は付加する。電子透かし技術で画像識別情報を撮像画像データに合成してもよいし、撮像画像データのヘッダに画像識別情報を付加するようにしてもよい。画像識別情報が合成又は付加された撮像画像データは、輝度変換部204に対して出力される。
ステップS404において、輝度変換部204は、撮像画像データの輝度変換を行う。輝度変換後の撮像画像データは、色変換部205に対して出力される。ステップS405において、色変換部205は、撮像画像データの色変換を行う。色変換後の撮像画像データは、ビデオシースルー型HMD101の画像出力部105に対して出力される。
次に、図5及び図6を参照しながら、ビデオシースルー型HMD101における局所照明環境処理部107の処理について説明する。図5は、局所照明環境処理部107における画像データの流れを示すフローチャートである。
ステップS501において、画像識別情報抽出部207は、画像入力部106から複合現実画像データを入力する。ステップS502において、画像識別情報抽出部207は、複合現実画像データから画像識別情報を抽出する。画像識別情報が抽出された複合現実画像データは、画像識別情報とともに画像格納部209に対して出力される。また、抽出された画像識別情報は、タイミング調整部208に対しても出力される。
ステップS503において、画像格納部209は、画像識別情報と複合現実画像データとを対応付けて格納する。ステップS504において、輝度変換部210は、画像格納部209から複合現実画像データを読み出す。即ち、画像格納部209は、タイミング調整部208から画像識別情報及び画像読み出し許可を入力することに応じて、当該画像識別情報に対応する複合現実画像データを読み出しができる状態にする。輝度変換部210は、画像格納部209からの複合現実画像データの読み出しが可能になった時点で、当該表示画像データを読み出す。
ステップS505において、輝度変換部210は、複合現実画像データの輝度変換を行う。調整値には、照明環境情報処理部206からの照明環境情報に含まれる輝度情報が用いられる。輝度変換後の表示画像データは、色変換部211に対して出力される。ステップS506において、色変換部211は、表示画像データの色変換を行う。即ち、色変換部211は、照明環境情報処理部206からの照明環境情報に含まれる色温度情報に基づいたRGB信号の調整を行う。色変換後の表示画像データは、表示ユニット108の表示デバイス特性補正部212に対して出力される。
図6は、ビデオシースルー型HMD101の局所照明環境処理部107によるタイミング調整処理を示すフローチャートである。
ステップS601において、画像識別情報抽出部207は、複合現実画像データから画像識別情報を抽出する。抽出された画像識別情報は、タイミング調整部208に対して出力される。ステップS602において、タイミング調整部208は、画像識別情報抽出部207から入力した画像識別情報を、照明環境情報処理部206に対して出力する。
ステップS603において、照明環境情報処理部206は、タイミング調整部208から入力した画像識別情報に一致する照明環境情報を格納部から読み出す。照明環境情報処理部206は、照明環境情報抽出部202から入力した画像識別情報及び照明環状情報を一纏まりにして格納している。照明環境情報の読み出しに成功すれば、照明環境情報処理部206は、タイミング調整部208に対して読み出し成功信号(ACK)を出力する。照明環境情報処理部206は、ACKを出力すると同時に、輝度変換部210及び色変換部211それぞれに対して照明環境情報及び画像識別情報を出力する。
ステップS604において、タイミング調整部208は、ACKを入力したか否かを判定する。タイムアウト時間を超えてもACKを入力していない場合、処理はステップS602に戻り、タイミング調整部208は、照明環境情報処理部206に対して1フレーム前の複合現実画像データの画像識別情報を出力する。一方、タイムアウト時間内にACKを入力した場合、処理はステップS605に移行する。
ステップS605において、輝度変換部210は、照明環境情報処理部206からの照明環境情報を用いた輝度変換処理が実行可能状態になるタイミングで、画像入力レディー信号を画像識別情報とともにタイミング調整部208に対して出力する。
ステップS606において、タイミング調整部208は、画像識別情報及び画像入力レディー信号の入力をトリガとして、画像格納部209に対して当該画像識別情報に対応する複合現実画像データの読み出し許可を指示する。輝度変換部210は、画像格納部209からの画像読み出しが可能になった時点で復号現実画像データの読み出しを行う。
以上のステップS601からS606までの処理により、輝度変換部210及び色変換部211では、照明環境情報を用いた輝度変換処理及び色変換処理を極力少ない遅延で順次行えるようになる。
図7は、第1の実施形態における局所照明環境処理の画像データの流れと情報の流れとの時間関係を示すタイムチャートである。図7に示すようは、本実施形態では、画像識別情報抽出部207において複合現実画像データが入力され、当該複合現実画像データから画像識別情報が抽出される。その後、画像格納部209において複合現実画像データが格納される。画像格納部209において複合現実画像データが格納される一方で、タイミング調整部208における当該複合現実画像データの画像識別情報の出力処理、照明環境情報処理部206における当該画像識別情報の読み出し処理、並びに、タイミング調整部208におけるACK入力処理及び画像入力レディー信号取得処理が行われる。そして、画像格納部209において複合現実画像データが格納された後であって、且つ、タイミング調整部208における画像入力レディー信号取得処理の後、輝度変換部210における輝度変換処理、及び、色変換部211における色変換処理が実行される。
図8は、照明環境情報のデータ構造を示す図である。図8(a)に示すように、照明環境情報は、画像識別情報(日時情報)、色温度情報及び輝度情報から構成される。
図8(b)は、画像識別情報(日時情報)のデータ構造例を示している。図8(b)に示すように、画像識別情報(日時情報)は、撮像画像データが撮像された時点を示す情報であり、日付と時刻とに大別され、日付は西暦、月及び日から成り、時刻は時、分、秒及びミリ秒から成る。ここでは、全40ビットでの構成例を示している。
画像識別情報(日時情報)は、撮像画像データが撮像された時点から、その撮像画像データに仮想画像データが重畳される時点までの画像データを識別可能な情報であればよい。そのため、上述したように、この時間間隔が10フレーム分に相当する場合は、10フレーム分の画像データをそれぞれ識別できればよい。しかし、実際には、仮想画像データ生成に要する時間の揺らぎや、画像識別情報を撮像画像データの属性情報としても用いる等の要素を考慮して、画像識別情報のデータ構造が決定される。仮想画像データ生成に要する時間の揺らぎのために、上述した識別すべき時間間隔が120フレームから180フレーム程度で一定ではない場合には、マージンを持たせたデータ構造、例えば、240フレーム分の画像データを識別することができるデータ構造にするのが望ましい。画像識別情報を撮像画像データの属性情報としても用いる場合には、図8(b)のデータ構造に加えて、解像度、画像フォーマット及びシャッタスピード等の属性情報を追加したデータ構造とするのが望ましい。図8(c)及び図8(d)はそれぞれ、色温度情報及び輝度情報のデータ構造例を示している。色温度情報は、図8(c)に示すように、色温度自体を示す情報である。輝度情報は、図8(d)に示すように、画像データをYUVフォーマットで表現したときのY信号を示す情報である。
図9は、撮像デバイス特性及び表示デバイス特性を説明するための図である。撮像デバイス特性の代表例としては、受光周波数特性及び感度特性が挙げられる。
図9(a)は、撮像デバイスの受光周波数特性の一例を示している。撮像デバイスに使用されているカラーフィルタや周辺部材の吸収及び散乱の影響により、撮像デバイスが受光できる周波数特性は、撮像デバイス毎に異なる。これは、撮像画像データの色味に影響を与える。
図9(b)は、撮像デバイスの感度特性の一例を示している。撮像デバイスはベイヤー配列であり、白色撮像時における画面中央部の信号出力(VGr、VGb、VR、VB)を測定しているものとする。RGB単色それぞれの光強度が同じならば、光電変換後の電気信号の強度もRGBそれぞれで同じとなるように、電気信号のゲインを調整する必要がある。これは、撮像画像データの輝度に影響を与えることになる。
撮像デバイス特性は、上記受光周波数特性及び感度特性に限定されるものではなく、IRフィルタ、アナログ伝送特性等、撮像ユニット103内の他の要素も考えられる。撮像デバイス特性補正部201は、撮像ユニット103の構成要素に依存する特性の補正(色味、輝度等)を行う。
表示デバイス特性の代表例としては、光源の発光周波数特性及び輝度特性が挙げられる。図9(c)は、光源の発光周波数特性の一例を示している。光源としてRGB3色のLEDを使用している場合のRGBそれぞれの発光周波数に対応する。これは、複合現実画像データの色味に影響を与える。
図9(d)は、光源の輝度特性の一例を示している。RGB単色それぞれの光強度を調整しようとするならば、LEDに流れる電流をRGBそれぞれで調整する必要がある。これは、複合現実画像データの輝度に影響を与える。
表示デバイス特性は、上記光源の発光周波数特性及び輝度特性に限定されるものではなく、表示パネルの液晶フィルタ特性、レンズ特性等、表示ユニット108内の他の要素も考えられる。表示デバイス特性補正部212は、表示ユニット108の構成要素に依存する特性(色味、輝度等)の補正を行う。
以上のように、本実施形態によれば、撮像画像データから抽出された照明環境情報を利用して複合現実画像データを動的に外界の照明環境に合った画像データにすることができる。従って、HMD使用者が感じる周囲環境の明るさ及び色感覚と、実際の外界環境とを略一致させることができ、複合現実空間への没入感を高めることができる。
また、ビデオシースルー型HMD101から画像処理装置102に出力される撮像画像データは、撮像デバイス依存の特性がキャンセルされ、且つ、明るさ及びホワイトバランスが調整された画像データである。そのため、カラーマッチングの基本的な考えを踏襲している、位置姿勢検出のための撮像画像データからのマーカ抽出が容易になる、仮想画像データ描画時の光源色温度や輝度をシステム毎に変更する必要がない、圧縮による画像データの欠落が軽減される、等の利点がある。また、表示ユニット108では、複合現実画像データから表示デバイス依存の特性がキャンセルされるため、表示デバイスに依存しない規格に沿った画像データとすることが可能となる。さらに、ビデオシースルー型HMD101自体の構成要素とは別のセンサを必要とせず、撮像画像データと複合現実画像データとの対応関係を利用しているため、構成が容易となる。
次に、本発明の第2の実施形態について説明する。図10は、第2の実施形態に係るビデオシースルー型HMD1001を利用した複合現実システムの機能的な構成を示す図である。図10において、1001は、第2の実施形態に係るビデオシースルー型HMDである。ビデオシースルー型HMD1001は、撮像ユニット103、標準照明環境処理部104、撮像画像格納部110、画像入力部106、時間整合部1004、画像合成部113、局所照明環境処理部107、表示ユニット108、位置姿勢計測部109、I/F部1003及び画像出力部105を備える。
また、図10において、1002は画像処理装置である。画像処理装置1002は、I/F部1003、コンテンツDB111、CG描画部112及び画像出力部105を備える。画像処理装置1002は、パソコンやワークステーション等の高性能な演算処理機能やグラフィック生成及び表示機能を有する装置で構成することができる。1005は外部出力装置である。これは、PDP、有機ELディスプレイ及び液晶ディスプレイ等の表示装置である。なお、図10において、図1と同じ構成には図1と同じ符号を付している。
第1の実施形態では、撮像画像データをビデオシースルー型HMD1001から画像処理装置102に対して出力させている。これに対し、第2の実施形態では、位置姿勢情報及び画像識別情報をビデオシースルー型HMD1001から画像処理装置1002に対して出力させ、撮像画像データと画像識別情報とを一纏めにしてビデオシースルー型HMD1001の撮像画像格納部110に格納させる。第1の実施形態は、既存の画像処理装置が有する機能を用いて実現できるため、ビデオシースルー型HMD101を簡単に構成することができるという利点がある。一方、第2の実施形態では、ビデオシースルー型HMD1001と画像処理装置1002との間の通信容量を削減することができ、且つ、画像データ出力による遅延を小さくすることができるという利点がある。
画像処理装置1002は、位置姿勢情報から仮想画像データを生成し、その仮想画像データを画像識別情報とともにビデオシースルー型HMD1001に対して出力する。画像識別情報は、電子透かし技術で仮想画像データに埋め込まれるか、仮想画像データのヘッダに付加される。撮像画像データと仮想画像データとの合成は、ビデオシースルー型HMD1001で行われ、その合成画像データである複合現実画像データが表示ユニット108で表示される。
撮像画像データと仮想画像データとの合成がビデオシースルー型HMD1001で行われるため、その撮像画像データと仮想画像データとの時間ずれを無くすための時間整合処理をビデオシースルー型HMD1001で行う必要がある。そこで、第2の実施形態では、時間整合部1004を新たに設け、撮像画像データと時間軸で一致する仮想画像データの合成を画像合成部113において行えるようにする。時間整合部1004は、画像合成部113の時間整合処理とともに局所照明環境処理部107の時間整合処理を行う。
第2の実施形態では、ビデオシースルー型HMD1001が画像合成部113を有しているため、複合現実画像データはビデオシースルー型HMD1001のみが有する構成となる。また、複合現実画像データをHMD使用者以外にも観察できるようにするために、画像合成部113からは局所照明環境処理部107だけでなく画像出力部105に対しても複合現実画像データが出力される。外部出力装置1005に対しては、画像出力部105から複合現実画像データが出力される。この構成により、外部出力装置1005に対して出力される複合現実画像データは、HMD使用者の観察環境に依存しない画像データにすることができる。複合現実画像データをsRGB等の規格に則った画像データとしておくことにより、外部出力装置1005側でその観察環境に適した画像データに変換することができる。
図11は、第2の実施形態におけるビデオシースルー型HMD1001のより詳細な構成を示す図である。なお、図11において、図2と同様の構成には同じ符号を付している。
図11において、103は撮像ユニットであり、図2の撮像ユニット103と同様の機能を有する。標準照明環境処理部104は、照明環境情報抽出部202、画像識別情報源203、輝度変換部204及び色変換部205を備える。画像識別情報源203、輝度変換部204及び色変換部205は、図2の画像識別情報源203、輝度変換部204及び色変換部205と同様の機能を有する。
照明環境情報抽出部202は、撮像画像データから色温度情報及び輝度情報を含む照明環境情報を画像処理により抽出し、画像識別情報源203からの画像識別情報と合わせて局所照明環境処理部107に対して出力する。それとともに、照明環境情報抽出部202は、画像識別情報を撮像画像データに付加し、輝度変換部204に対して出力する。本実施形態では、ビデオシースルー型HMD1001から画像処理装置1002に対しては、撮像画像データを送信しない構成である。従って、後段の撮像画像格納部110で画像識別情報と撮像画像データとを一体で保存することを考えると、画像識別情報を撮像画像データに埋め込むのではなく、別体で取り扱うことが好ましい。
110は、画像識別情報とそれに対応する撮像画像データとを一体で格納する撮像画像格納部である。109は、標準照明環境処理部104から入力される撮像画像データからマーカや自然特徴を抽出して、HMD使用者の視点位置における位置姿勢情報を計測する位置姿勢計測部である。位置姿勢計測部109は、計測した位置姿勢情報と、当該位置姿勢情報に対応する画像識別情報とを一纏まりにして、I/F部1003に対して出力する。1003は、一纏まりにされた位置姿勢情報及び画像識別情報を画像処理装置1002に対して送信するI/F部である。
局所照明環境処理部107は、照明環境情報処理部206、輝度変換部210及び色変換部211を備える。図2の局所照明環境処理部107の構成要素であった画像識別情報抽出部207及びタイミング調整部208は、図11では、時間整合部1004として別ブロックで構成されている。局所照明環境処理だけみれば、局所照明環境処理部107は、図2と同様の機能及び処理内容である。但し、図11で独立したブロックとして構成されている時間整合部1004は、画像合成部113における画像合成処理での時間整合処理でも機能するよう拡張している。
時間整合部1004は、画像識別情報抽出部207及びタイミング調整部208を備える。時間整合部1004は、画像合成部113の時間整合処理とともに局所照明環境処理部107での時間整合処理も行う。
207は、仮想画像データから画像識別情報を抽出する画像識別情報抽出部である。この画像識別情報は、照明環境情報抽出部202において撮像画像データに付加された画像識別情報である。抽出された画像識別情報は、タイミング調整部208に対して出力される。また、仮想画像データは、抽出された画像識別情報とともに画像合成部113に対して出力される。
113は、仮想画像データとその画像識別情報に一致する撮像画像データとを撮像画像格納部110から読み出し、仮想画像データと撮像画像データとの合成処理を行う画像合成部である。合成処理後の複合現実画像データは、輝度変換部210及び画像出力部105に対して出力される。
図12は、第2の実施形態における画像合成処理及び局所照明環境処理の画像データの流れと情報の流れとの時間関係を示すタイムチャートである。図12に示すように、タイミング調整部208における当該複合現実画像データの画像識別情報の出力処理、照明環境情報処理部206における当該画像識別情報の読み出し処理、並びに、タイミング調整部208におけるACK入力処理及び画像入力レディー信号取得処理が、画像合成部113において仮想画像データと撮像画像データとの合成処理が行われるタイミングで行われる点が第1の実施形態と異なる。
本実施形態によれば、ビデオシースルー型HMD1001から外部出力装置1005に出力される複合現実画像データは、デバイス依存の特性がキャンセルされ、且つ、明るさ、ホワイトバランスが調整された画像データである。従って、表示デバイスに依存しない規格に則った複合現実画像データとすることができる。カラーマッチングの基本的考えを踏襲しているため、外部出力装置1005の外部環境及びデバイス特性に合わせた表示を行うことができるという利点がある。
図13は、第2の実施形態における複合現実システムの変形例を説明するための図である。即ち、図13(a)は、第2の実施形態における複合現実システムの変形例の構成を示しており、図13(b)は、セレクタ1301の切り替え処理を示している。図13(a)に示す複合現実システムは、図10に示す複合現実システムの構成にセレクタ1301を追加したものである。
ビデオシースルー型HMD1001に複合現実画像データではなく、撮像画像データのみを表示する場合、セレクタ1301を図13(b)における(2)へ切り替えることにより、撮像ユニット103から表示ユニット108に画像データが流れるようにする。このとき、撮像ユニット103、セレクタ1301及び表示ユニット108以外の構成を実質的に動作させることなく、低消費電力モードに切り替えることが可能となる。撮像ユニット103は、撮像画像データの環境を外界環境と一致させるための処理を行い、表示ユニット108は、入力された複合現実画像データをその輝度や色味を保持したまま表示するため、HMD使用者は外界環境と一致する画像が観察できる。また、仮想画像データを撮像画像データに重畳させるときは、図13(b)において、セレクタ1301が図13(b)における(1)に切り替えられる。この場合、図10に示した第2の実施形態における複合現実システムと同様の機能及び処理となる。
以上により、ビデオシースルー型HMD101に仮想画像データを重畳することなく、撮像画像データのみを表示する場合には、複合現実画像データを動的に外界の照明環境に合った画像データすることができる。さらに、システムの処理遅延、処理負荷及び消費電力を抑えることができる。
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
101、1001:ビデオシースルー型HMD、102、1002:画像処理装置、103:撮像ユニット、104:標準照明環境処理部、105:画像出力部、106:画像入力部、107:局所照明環境処理部、108:表示ユニット、109:位置姿勢計測部、110:撮像画像格納部、111:コンテンツDB、112:CG描画部、113:画像合成部、201:撮像デバイス特性補正部、202:照明環境情報抽出部、203:画像識別情報源、204:輝度変換部、205:色変換部、206:照明環境情報処理部、207:画像識別情報抽出部、208:タイミング調整部、209:画像格納部、210:輝度変換部、211:色変換部、212:表示デバイス特性補正部、1003:I/F部、1004:時間整合部、1005:外部出力装置、1301:セレクタ

Claims (17)

  1. 撮像装置により撮像された現実空間の画像データを撮像した時の前記現実空間の照明環境を示す照明環境情報を取得する取得手段と、
    前記取得手段で取得された照明環境情報に基づいて、前記画像データを標準画像データに変換する第1の変換手段と、
    前記標準画像データと仮想画像データとが合成された標準複合現実画像データを生成する生成手段と、
    前記生成手段によって生成された標準複合現実画像データを、前記照明環境情報に基づいて前記現実空間の照明環境に対応する複合現実画像データに変換する第2の変換手段と、
    前記第2の変換手段によって変換された前記現実空間の照明環境に対応する複合現実画像データを出力する出力手段とを有することを特徴とする画像処理装置。
  2. 前記取得手段は、前記照明環境情報として、前記画像データに含まれるRGB信号強度の比率に基づいて色温度情報を取得することを特徴とする請求項1に記載の画像処理装置。
  3. 前記第1の変換手段は、前記取得された色温度情報に基づいて、前記標準画像データの所定の色温度になるように前記画像データに含まれるRGB信号強度を変換し、
    前記第2の変換手段は、前記取得された色温度情報に基づいて、前記画像データの色温度になるように前記複合現実画像データに含まれるRGB信号強度を変換することを特徴とする請求項2に記載の画像処理装置。
  4. 前記取得手段は、前記照明環境情報として、前記画像データに含まれる輝度情報を取得することを特徴とする請求項1に記載の画像処理装置。
  5. 前記第1の変換手段は、前記取得された輝度情報に基づいて、所定の輝度になるように前記画像データに含まれる輝度を変換し、
    前記第2の変換手段は、前記取得された輝度情報に基づいて、前記画像データの輝度になるように前記複合現実画像データに含まれる輝度を変換することを特徴とする請求項4に記載の画像処理装置。
  6. 前記撮像装置により撮像された前記画像データに対し、前記撮像装置の特性を補正する第1の補正手段を更に有し、
    前記取得手段は、前記第1の補正手段により補正された前記画像データから前記照明環境情報を取得することを特徴とする請求項1乃至5の何れか1項に記載の画像処理装置。
  7. 前記生成手段により生成された前記標準複合現実画像データを、前記第2の変換手段による変換処理が施される前に出力する第2の出力手段を更に有することを特徴とする請求項1乃至6の何れか1項に記載の画像処理装置。
  8. 前記第2の変換手段によって変換された前記現実空間の照明環境に対応する複合現実画像データに対し、前記複合現実画像データが表示される表示手段の特性を補正する第2の補正手段を更に有することを特徴とする請求項1乃至7の何れか1項に記載の画像処理装置。
  9. 前記取得手段は、更に、前記画像データの識別情報を、前記画像データに合成又は付加し、
    前記第1の変換手段は、前記識別情報が合成又は付加された画像データから、前記識別情報が合成又は付加された標準画像データに変換し、
    前記生成手段は、前記識別情報が合成又は付加された標準画像データと仮想画像データとを合成することにより、前記識別情報が合成又は付加された標準複合現実画像データを生成し、
    前記第2の変換手段は、前記画像データの識別情報が合成又は付加された前記標準複合現実画像データを、前記識別情報に対応する識別情報の前記照明環境情報に基づいて変換することを特徴とする請求項1乃至8の何れか1項に記載の画像処理装置。
  10. 前記識別情報は、前記画像データが前記撮像装置により撮像された時点を示す情報を含むことを特徴とする請求項9に記載の画像処理装置。
  11. 前記標準画像データから抽出される前記現実空間中の特徴に基づいて、前記撮像装置の位置姿勢を計測する計測手段を更に備え、
    前記仮想画像データは、前記計測手段により計測された位置姿勢に基づいて生成された画像データであることを特徴とする請求項1乃至10の何れか1項に記載の画像処理装置。
  12. 前記撮像装置は、頭部装着型表示装置に備え付けられていることを特徴とする請求項1乃至11の何れか1項に記載の画像処理装置。
  13. 撮像手段により撮像された画像データから、現実空間の照明環境を示す照明環境情報を抽出する抽出手段と、
    前記画像データの識別情報に対応する識別情報の前記照明環境情報に基づいて、前記画像データに対して仮想画像データが合成されるとともに前記画像データの識別情報が合成又は付加された複合現実画像データを、前記現実空間の照明環境に対応する画像データに変換する変換手段とを有することを特徴とする画像処理装置。
  14. 前記識別情報は、前記画像データが前記撮像手段により撮像された時点を示す情報を含むことを特徴とする請求項13に記載の画像処理装置。
  15. 画像処理装置によって実行される画像処理方法であって、
    撮像装置により撮像された現実空間の画像データを撮像した時の、前記現実空間の照明環境を示す照明環境情報を取得する取得ステップと、
    前記取得ステップで取得された照明環境情報に基づいて、前記画像データを標準画像データに変換する第1の変換ステップと、
    前記標準画像データと仮想画像データとが合成された標準複合現実画像データを生成する生成ステップと、
    前記生成ステップによって生成された標準複合現実画像データを、前記照明環境情報に基づいて前記現実空間の照明環境に対応する複合現実画像データに変換する第2の変換ステップと、
    前記第2の変換ステップによって変換された前記現実空間の照明環境に対応する複合現実画像データを出力する出力ステップとを含むことを特徴とする画像処理方法。
  16. 画像処理装置によって実行される画像処理方法であって、
    撮像手段により撮像された画像データから、現実空間の照明環境を示す照明環境情報を抽出する抽出ステップと、
    前記画像データの識別情報に対応する識別情報の前記照明環境情報に基づいて、前記画像データに対して仮想画像データが合成されるとともに前記画像データの識別情報が合成又は付加された複合現実画像データを、前記現実空間の照明環境に対応する画像データに変換する変換ステップとを含むことを特徴とする画像処理方法。
  17. コンピュータを、請求項1乃至14の何れか1項に記載の画像処理装置の各手段として機能させるためのプログラム。
JP2013074267A 2013-03-29 2013-03-29 画像処理装置、画像処理方法及びプログラム Expired - Fee Related JP5769751B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2013074267A JP5769751B2 (ja) 2013-03-29 2013-03-29 画像処理装置、画像処理方法及びプログラム
US14/226,726 US9501870B2 (en) 2013-03-29 2014-03-26 Mixed reality image processing apparatus and mixed reality image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013074267A JP5769751B2 (ja) 2013-03-29 2013-03-29 画像処理装置、画像処理方法及びプログラム

Publications (3)

Publication Number Publication Date
JP2014199532A JP2014199532A (ja) 2014-10-23
JP2014199532A5 JP2014199532A5 (ja) 2014-12-18
JP5769751B2 true JP5769751B2 (ja) 2015-08-26

Family

ID=51620351

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013074267A Expired - Fee Related JP5769751B2 (ja) 2013-03-29 2013-03-29 画像処理装置、画像処理方法及びプログラム

Country Status (2)

Country Link
US (1) US9501870B2 (ja)
JP (1) JP5769751B2 (ja)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2533573A (en) * 2014-12-22 2016-06-29 Nokia Technologies Oy Image processing method and device
EP3251098A4 (en) * 2015-01-30 2018-07-11 Ent. Services Development Corporation LP Dynamic modulation for near eye display
WO2016139882A1 (en) * 2015-03-03 2016-09-09 Canon Kabushiki Kaisha Transfer control apparatus, control method, and mixed-reality presentation apparatus
JP2016167794A (ja) 2015-03-03 2016-09-15 キヤノン株式会社 伝送制御装置および制御方法、並びに、複合現実感提示装置
US20170161950A1 (en) * 2015-12-08 2017-06-08 GM Global Technology Operations LLC Augmented reality system and image processing of obscured objects
US20170161949A1 (en) * 2015-12-08 2017-06-08 GM Global Technology Operations LLC Holographic waveguide hud side view display
JP2017116562A (ja) * 2015-12-21 2017-06-29 セイコーエプソン株式会社 表示装置、表示装置の制御方法、及び、プログラム
JP6143242B1 (ja) * 2016-02-15 2017-06-07 株式会社菊池製作所 画像表示装置
KR102417177B1 (ko) * 2016-02-18 2022-07-05 애플 인크. 인사이드-아웃 위치, 사용자 신체 및 환경 추적을 갖는 가상 및 혼합 현실을 위한 머리 장착 디스플레이
JP6855313B2 (ja) * 2017-05-01 2021-04-07 キヤノン株式会社 画像表示システム、画像表示装置および画像表示方法
US10267960B1 (en) 2018-02-05 2019-04-23 GM Global Technology Operations LLC Cloaking device and apparatus
US10872582B2 (en) 2018-02-27 2020-12-22 Vid Scale, Inc. Method and apparatus for increased color accuracy of display by compensating for observer's color vision properties
US11494953B2 (en) * 2019-07-01 2022-11-08 Microsoft Technology Licensing, Llc Adaptive user interface palette for augmented reality

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3423402B2 (ja) * 1994-03-14 2003-07-07 キヤノン株式会社 映像表示装置
JP4009812B2 (ja) * 1999-08-18 2007-11-21 富士ゼロックス株式会社 画像処理装置、コンピュータ読取可能な記憶媒体、及び画像処理方法
JP3658330B2 (ja) 2001-02-21 2005-06-08 キヤノン株式会社 複合表示装置及びそれを用いたヘッドマウントディスプレイ装置
JP2008216343A (ja) * 2007-02-28 2008-09-18 Canon Inc 画像表示装置、プログラム、及び、記憶媒体
US20120147163A1 (en) * 2010-11-08 2012-06-14 DAN KAMINSKY HOLDINGS LLC, a corporation of the State of Delaware Methods and systems for creating augmented reality for color blindness
US9164723B2 (en) * 2011-06-30 2015-10-20 Disney Enterprises, Inc. Virtual lens-rendering for augmented reality lens
WO2013031807A1 (ja) * 2011-09-02 2013-03-07 シャープ株式会社 立体画像生成方法、立体画像生成装置、およびそれを備える表示装置
KR101502782B1 (ko) * 2012-06-27 2015-03-16 삼성전자 주식회사 영상 왜곡 보정 장치, 이를 포함하는 의료 영상 장치 및 영상 왜곡 보정 방법
US9330431B2 (en) * 2012-12-19 2016-05-03 Jeffrey Huang System and method for synchronizing, merging, and utilizing multiple data sets for augmented reality application
KR102053618B1 (ko) * 2013-04-11 2019-12-09 엘지디스플레이 주식회사 전자 디바이스, 디스플레이 제어 장치 및 방법

Also Published As

Publication number Publication date
JP2014199532A (ja) 2014-10-23
US20140292811A1 (en) 2014-10-02
US9501870B2 (en) 2016-11-22

Similar Documents

Publication Publication Date Title
JP5769751B2 (ja) 画像処理装置、画像処理方法及びプログラム
US11494960B2 (en) Display that uses a light sensor to generate environmentally matched artificial reality content
KR102415631B1 (ko) 촬상장치, 제어방법, 기록 매체, 및 정보처리장치
US10855930B2 (en) Video system, video processing method, program, camera system, and video converter
JP6460014B2 (ja) 信号処理装置、信号処理方法およびカメラシステム
KR102318013B1 (ko) 복수의 이미지들을 합성하는 전자장치 및 방법
EP3402179B1 (en) Image-capturing system, image-capturing method, and program
JP2014216734A (ja) 撮像装置及び撮像システム
JP2015231103A (ja) 画像処理装置、画像処理システム、撮像装置、および画像処理方法
JP4522307B2 (ja) 画像撮像装置、画像撮像方法
JP2018117276A (ja) 映像信号処理装置、映像信号処理方法およびプログラム
WO2017002544A1 (ja) 画像処理装置および撮像システム
KR101753261B1 (ko) 촬영 시스템 및 그 영상품질 동기화 방법
JP2016208306A (ja) 画像処理装置及びこれを備えた撮像システムならびに画像処理方法
JP2016042629A (ja) 撮影装置、撮影方法、およびプログラム
JP6904684B2 (ja) 画像処理装置、画像処理方法、およびプログラム
JP2018186514A (ja) 画像処理装置及びこれを備えた撮像システムならびに画像処理方法
JP6137910B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP2020119096A (ja) 画像処理装置、画像処理方法、および、プログラム
JP5904754B2 (ja) 情報処理システム、情報処理装置、それらの制御方法、およびプログラム
JP2010062668A (ja) 画像処理装置、画像処理方法、プログラム、及び、撮像装置
JP7058946B2 (ja) 情報処理装置、情報処理システム、情報処理方法及びプログラム
JP6210772B2 (ja) 情報処理装置、撮像装置、制御方法、及びプログラム
JP2011165091A (ja) 色調調整装置、色調調整方法およびプログラム
JP2009164985A (ja) 撮像装置および撮像方法、表示制御装置および表示制御方法、プログラム、並びに記録媒体

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141029

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141029

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150106

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150306

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150526

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150623

R151 Written notification of patent or utility model registration

Ref document number: 5769751

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees