JP7005134B2 - 画像処理装置、画像処理方法及びプログラム - Google Patents

画像処理装置、画像処理方法及びプログラム Download PDF

Info

Publication number
JP7005134B2
JP7005134B2 JP2016211904A JP2016211904A JP7005134B2 JP 7005134 B2 JP7005134 B2 JP 7005134B2 JP 2016211904 A JP2016211904 A JP 2016211904A JP 2016211904 A JP2016211904 A JP 2016211904A JP 7005134 B2 JP7005134 B2 JP 7005134B2
Authority
JP
Japan
Prior art keywords
image
image processing
rendering
rendering method
virtual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016211904A
Other languages
English (en)
Other versions
JP2018073104A (ja
JP2018073104A5 (ja
Inventor
靖己 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016211904A priority Critical patent/JP7005134B2/ja
Publication of JP2018073104A publication Critical patent/JP2018073104A/ja
Publication of JP2018073104A5 publication Critical patent/JP2018073104A5/ja
Application granted granted Critical
Publication of JP7005134B2 publication Critical patent/JP7005134B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Description

本発明は、使用者の頭部等に装着されて画像を表示する画像表示装置の技術に関する。
近年、現実世界と仮想世界をリアルタイムにシームレスに融合させる技術として複合現実感、いわゆるMR(Mixed Reality)技術が知られている。MR技術の1つに、ビデオシースルーHMD(Head Mounted Display)を利用するものが知られている。この技術では、HMD装着者(ユーザ)によって観察される現実空間をカメラ(撮像部)で撮像する。また、撮像部の位置と方向とに基づいて、CG(Computer Graphics)によりレンダリング(描画)された仮想画像を生成する。そして、撮像画像と仮想画像とを合成した合成画像を液晶や有機EL等の表示デバイスに表示して、その合成画像をユーザが観察できるようにする。
特許文献1には、CGのレンダリングにおける処理負荷を軽減する手法が開示されている。具体的には、ユーザの視線方向を検出し、ユーザが注視していると推定される領域では高解像度にレンダリング行い、それ以外の領域では低解像度にレンダリングを行うことが記載されている。
特開平9 - 305156 号公報 特表2012-515579号公報
佐藤、内山、田村、"複合現実感における位置合わせ手法"、日本VR学会論文誌、VOL.8、NO.2、PP.171-180、2003
しかしながら、特許文献1に開示される方法のように、解像度を低解像度にしてレンダリングするだけでは、処理負荷の軽減の効果が十分でなかった。
上記課題を解決するために、本発明の画像処理装置は、生成すべき仮想画像においてユーザが注視する焦点の位置を導出する導出手段と、前記焦点の位置から予め定められた所定の距離の範囲に当該焦点を含む仮想物体の全体が収まる場合は、当該予め定められた所定の距離をそのまま設定し、前記範囲に前記仮想物体の全体が収まらない場合は、当該全体が収まるように前記所定の距離を変更して当該変更後の所定の距離を設定する設定手段と、前記焦点の位置からの距離が前記設定された所定の距離より短い画素の領域を第1のレンダリング手法によりレンダリング処理して、仮想画像を生成する第1の生成手段と、前記焦点の位置からの距離が前記設定された所定の距離より長い画素の領域を、前記第1のレンダリング手法よりも1画素あたりの処理量が低い第2のレンダリング手法によりレンダリング処理して、仮想画像を生成する第2の生成手段と備え、前記第1の生成手段は、前記第1のレンダリング手法により生成される仮想物体の詳細度が、前記第2のレンダリング手法により生成される仮想物体の詳細度よりも高くなるようにレンダリング処理を行うことを特徴とする
以上の構成によれば、本発明は、CGのレンダリングにおける処理負荷を軽減することができるようになる。
第1の実施形態に係る画像処理システムの機能構成を示す概略ブロック図。 第1の実施形態に係る画像処理装置の処理を示すフローチャート。 第1の実施形態において複合現実感を体験している際の複合現実空間と焦点位置とを示す図。 第1の実施形態において複合現実感を体験している際に表示装置に表示される映像を示す図。
[第1の実施形態]
以下、本発明の第1の実施形態の詳細について図面を参照しつつ説明する。図1は、本実施形態に係る画像処理システムの機能構成を示す概略ブロック図である。図1に示すように、本実施形態に係るシステムは、画像処置装置1000と、外部表示装置1300と、撮像装置を備える頭部装着表示装置(以下、HMD)1200とで構成されている。
画像処理装置1000は、撮像画像取得部1010、位置姿勢取得部1020、焦点算出部1030、データ記憶部1040、処理決定部1050を有する。さらに、仮想空間生成部1060、レンダリング実行部1070、画像生成部1080、画像出力部1090を有している。ここで、画像処理装置1000とHMD1200とは、データ通信が可能なように接続されており、その接続は有線、無線のいずれであっても構わない。また、ここでは、画像処理装置1000とHMD1200とが別体として構成されているが、HMD1200が画像処理装置1000の各機能部の構成を備えることにより、画像処理装置1000とHMD1200とが一体に構成されていてもよい。
画像処理装置1000は、情報処理装置は、CPU、ROM、RAM、HDD等のハードウェア構成を備え、CPUがROMやHD等に格納されたプログラムを実行することにより、例えば、後述する各機能構成やフローチャートの処理が実現される。RAMは、CPUがプログラムを展開して実行するワークエリアとして機能する記憶領域を有する。ROMは、CPUが実行するプログラム等を格納する記憶領域を有する。HDは、CPUが処理を実行する際に要する各種のプログラム、後述する各処理に必要なデータ等を含む各種のデータを格納する記憶領域を有する。
先ず、画像処理装置1000の詳細について説明する。撮像画像取得部1010は、HMD1200の撮像装置1220(右目用撮像装置1220Rおよび左目用撮像装置1220Lにより構成)により撮像された右目用の現実空間の撮像画像、左目用の現実空間の撮像画像を取得する。そして、取得したそれぞれの現実空間画像を位置姿勢取得部1020及びデータ記憶部1040に送る。
位置姿勢取得部1020は、撮像画像取得部1010から取得した撮像画像から撮像装置の位置姿勢(位置および方向)を算出し、視点位置姿勢情報を取得する。このとき、撮像装置ではなく、観察者の頭の中心、撮像装置1220Lと撮像装置1220Rの中心であってもよい。視点位置姿勢情報を計測する方法に関しては、撮像画像からマーカを検出して視点位置姿勢を求める方法であってもよいし、撮像画像から抽出される自然特徴に基づいて視点位置姿勢を求める方法であってもよい。視点位置姿勢情報を計測する方法は、非特許文献1に開示される方法など種々の方法が知られており、本実施形態は特定の方法に限定されるものではない。また、撮像装置の位置姿勢を計測する具体的な構成についても、撮像画像から求めるものに限定されるものではなく、例えば、磁気式センサー、光学式センサーを利用することもできる。求められた視点位置姿勢情報は、データ記憶部1040に記憶される。
焦点算出部1030は、視線検出装置1330から取得した視線情報から、生成する仮想画像上の焦点(ユーザの注視している位置)の位置を算出する。焦点の算出の詳細については、後述する。そして、焦点算出部1030は、算出した焦点の位置に基づいて画像内の焦点領域とそれ以外の領域(焦点外領域)を特定する。特定された焦点領域と焦点外領域の報はデータ記憶部1040に記憶される。このように、本実施形態の焦点算出部1030は、焦点の位置を導出する導出手段と、導出した焦点の位置に基づいて焦点領域と焦点外領域とを特定する特定する特定手段との2つの機能部として作用する。
処理決定部1050は、焦点算出部1030により特定された焦点領域とそれ以外の領域(焦点外領域)の各領域において、仮想空間情報と仮想画像生成処理(CGのレンダリング処理)とを決定する。仮想空間生成部1060は、処理決定部1050で決定された仮想空間情報に従って、仮想空間の生成を行う。なお、仮想空間情報および仮想空間の生成処理の詳細については、後述する。
次に、レンダリング実行部1070は、処理決定部1050が決定した各領域の仮想画像生成処理に従ってレンダリング処理を実行し、仮想空間生成部1060により作成された仮想空間の視点から見える仮想空間の画像(仮想画像)を生成する。そして、画像生成部1080は、レンダリング実行部1070により生成された仮想画像と撮像画像取得部1010から取得した現実空間の撮像画像とを合成することにより、合成画像を生成する。画像出力部1090は、画像生成部1080により生成された合成画像をHMD1200に出力する
次に、HMD1200の詳細について説明する。HMD1200は、ユーザの頭部に装着されて使用される頭部装着型の表示装置であり、液晶、有機ELなどで構成されている表示装置1210、ビデオカメラなどの撮像装置1220、視線検出装置1330を有する。表示装置1210R,Lは、画像処理装置1000から受信した合成画像を表示することにより、ユーザにMR空間の画像を観察させる。表示装置1210、撮像装置1220、視線検出装置1330はそれぞれ右目用と左目用とを備えているが、基本的に同じ処理内容であるため、本実施形態では敢えて分けて説明する必要が無い限り、符号のR、Lは省略して説明する。
外部表示装置1300は、HMD1200を装着した以外の人間が、画像処理装置1000により生成された合成画像を観察するための表示装置であり、具体的には液晶ディスプレイなどである。
次に、本実施形態に係る画像処理装置1000による処理の詳細について説明する。図2は、画像処理装置1000が合成画像を生成するための処理を示すフローチャートである。
まず、ステップS2010において、撮像画像取得部1010がHMD1200の撮像装置1220から撮像画像を取得する。次に、ステップS2020において、位置姿勢取得部1020が、撮像画像から撮像装置1220の位置姿勢情報を計測する。撮像装置の位置姿勢を取得(推定)する方法は、上述したように、例えば非特許文献1に記載の方法を用いる。
続いて、ステップS2020において、焦点算出部1030は、ユーザの焦点位置(注視している位置)の算出(推定)を行う。焦点の算出は、例えば、特許文献2などの周知の方法を用いればよく、本実施形態は特定の焦点算出方法に限定されるものではない。
図3は、ユーザがHMD1200を通して複合現実感を体験する際の複合現実空間と焦点位置とを示す図である。同図において、ユーザ2000は、HMD1200を装着して複合現実感を体験している。仮想物体2100,2200,2300は、ユーザ2000が観察している仮想の物体である。視錐台2400はユーザ2000の視錐台であり、前方クリップ面2600は視錐台2400の前方クリップ面、後方クリップ面2700は視錐台2400の後方クリップ面である。視線2010はユーザ2000の視線であり、焦点2020は視線2010と仮想物体2200との交点、焦点2030は視線2010と前方クリップ面と交わる前方クリップ面上の点である。
ステップS2020で、焦点算出部1030は、視線2010と前方クリップ面2600との交点(焦点2030)に対応する仮想空間(仮想画像)上の位置を、算出すべき焦点の位置として求める。
次に、ステップS2030において、焦点算出部1030が、ステップ2020で求めた焦点2030の位置に基づいて焦点領域と焦点外領域とを設定(特定)する。焦点領域および焦点外領域の設定の方法について、図4を用いて説明する。
図4は、ユーザがHMD1200を装着して図3に示した複合現実感を体験している際に、表示装置1210に表示される映像を示す図である。距離Rは予め定められた所定の距離であり、領域4100は焦点2030から所定の距離以下の領域、領域4200は焦点2030から所定の距離より離れた領域である。
ステップS2030では、焦点算出部1030が、領域4100のように焦点2030から距離R以下の領域を焦点領域、領域4200のように焦点2030から距離Rより離れた領域を焦点外領域として設定(特定)する。なお、当該ステップにおいて、所定の距離Rにより焦点領域を設定すると仮想物体2200が焦点領域に収まらない場合には、焦点算出部1030は、仮想物体2200が領域4100に収まるように距離Rを変更する。
ステップS2040では、CPUが、生成すべき仮想画像(描画領域)上の1ピクセルを選定し、これを描画ピクセルとして設定する。このとき、1ピクセルの設定順に関しては、描画領域の左上から順に設定してもよいし、左下から順に設定してもよい。また、モンテカルロ法等の方式により設定してもよく、その設定順は特に限定されるものではない。
次に、ステップS2050では、CPUが、ステップS2040で設定した描画ピクセルが焦点領域に含まれているかを判断する。そして、描画ピクセルが焦点領域に含まれている場合(Yes)には処理をステップS2060に移し、描画ピクセルが焦点領域に含まれていない場合(NO)、すなわち焦点外領域に含まれている場合には処理をステップS2080に移す。
ステップS2060では、処理決定部1050が焦点領域の仮想空間情報を決定し、ステップS2080では、処理決定部1050が焦点外領域の仮想空間情報を決定する。本実施形態では、仮想空間情報として各領域に含まれる仮想物体のポリゴン数を決定する。ステップS2060では、処理決定部1050が、第1の詳細度(第1のポリゴン密度)により焦点領域4100に含まれる仮想物体2200のポリゴン数を決定する。また、ステップS2080では、処理決定部1050が第2の詳細度(第2のポリゴン密度)で焦点外領域4200に含まれる仮想物体2100および2300のポリゴン数を決定する。ここで、第2の詳細度は第1の詳細度よりも粗く、すなわち、第2の詳細度であるポリゴン密度は第1の詳細度であるポリゴン密度よりも低く設定されている。以上のようにして、ステップS2060、S2080では、処理決定部1050が焦点領域および焦点外領域の仮想空間情報を決定する。
なお、ここでは、焦点領域と焦点外領域それぞれに含まれる仮想物体の詳細度を異ならせるためにポリゴン密度を異ならせる例を示したが、これ以外の方法で詳細度を異ならせるようにしてもよい。例えば、バンプマッピング等の既知の手法を用いることにより、仮想物体の見た目の詳細度を異ならせるようにすることもできる。
次に、ステップ2065では、処理決定部1050が焦点領域の仮想画像生成処理を決定し、ステップS2085では、処理決定部1050が焦点外領域の仮想画像生成処理を決定する。本実施形態では、仮想画像生成処理としてCGレンダリング手法を決定する。ステップS2065では、処理決定部1050が焦点領域のCGレンダリング手法(第1のレンダリング手法)をレイトレースレンダリングに設定する。また、ステップS2085では、処理決定部1050が焦点外領域のCGレンダリング手法(第2のレンダリング手法)をラスタライゼーションに設定する。
なお、第1、第2のレンダリング手法は上述の方法に限定されるものではなく、他の既知のレンダリング手法を用いるようにしてもよい。また、ここでは、焦点領域に含まれる仮想物体が焦点外領域よりも精細に描画されるように、焦点領域と焦点外領域とでレンダリング手法を異ならせるようにしているが、本実施形態はこれに限定されない。例えば、焦点領域と焦点外領域とで、レンダリングの際にマッピングを行う、行わないで差をつけたり、シェーディングを付加するか否かで差をつけたり、影を付加するか否かで差をつけたりしてもよい。
次に、ステップS2070では、レンダリング実行部が第1の詳細度および第1のレンダリング手法でレンダリングを実行し、ステップS2090では、レンダリング実行部が第2の詳細度および第2のレンダリング手法でレンダリングを実行する。
ステップ2100において、CPUが、描画領域内の全ての画素で処理が終了しているかを判断し、処理が終了していい画素があれば処理をステップS2040に戻す。一方、描画領域内の全ての画素で処理が終了し、仮想画像の生成が完了している場合には、処理をステップS2110に移す。
ステップS2110では、画像生成部1080が生成された仮想画像と、撮像装置1220により撮像された撮像画像と、を合成して、合成画像を生成する。なお、本実施形態では、描画領域の全画素についてレンダリングが終了してから、合成画像の生成を開始しているが、全画素のレンダリング終了する前に、レンダリングと並行して合成画像を生成するようにしてもよい。すなわち、ステップS2070とS2100との間や、ステップS2090とS2100との間で、レンダリングの終了した描画ピクセルと、その対応する撮像画像の画素とを順次合成していくことにより、合成画像を生成するようにしてもよい。
以上により、本実施形態の画像処理装置1000により合成画像が生成される。生成された合成画像は、画像出力部1090により、HMD1200や外部表示装置1300に出力される。
上述の本実施形態によれば、焦点領域に含まれる仮想物体の仮想物体生成処理(CGレンダリング処理)は、焦点外領域に比べて、1画素あたりの描画のための処理量が高くなるものの、詳細で精細に仮想物体を描画することが可能となる。なお、上述の例では、仮想空間情報とCGレンダリング手法の両方を、焦点領域と焦点外領域とで異ならせる例を示したが、いずれか一方のみであってもよい。
[変形例]
上述の実施形態では、焦点領域を設定するための距離Rは予め決められた値として説明をしたが、この値ユーザにより変更可能なようにしてもよい。その際には、画像処理装置1000に接続されたマウスやキーボードなどの入力手段を用いて、距離Rの値を設定できるようにすればよい。これにより、使用するユーザに合った焦点領域が設定されるようになる。
また、上述の実施形態では、HMD1200に視線検出装置1330を備え、この視線検出装置1330により検出された視線を用いて焦点を求めるようにしている。しかし、MR体験中のユーザは主に表示装置1210の中心を注視することが多いことから、HMD1200に視線検出装置1330を備えずに、常に表示装置1210の中心位置を焦点として設定するようにしてもよい。
また、上述の実施形態では、MR画像を生成、表示する画像処理システムを例に説明をしたが、VR(Virtual Reality)画像を生成、表示する画像処理システムであってもよい。
[その他の実施形態]
画像処理装置が備える各部の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより、上記各部による処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。
なお、この各装置が備える各部は、専用のハードウェアにより実現されるものであってもよい。または、各装置に備えられた各部はメモリおよびCPU(中央演算装置)により構成され、前記各部の機能を実現するためのプログラムをメモリにロードして実行することによりその機能を実現させるものであってもよい。
1000 画像処理装置
1010 撮像画像取得部
1020 位置姿勢取得部
1030 焦点算出部
1040 データ記憶部
1050 処理決定部
1060 仮想空間生成部
1070 レンダリング実行部
1080 画像生成部
1090 画像出力部

Claims (11)

  1. 生成すべき仮想画像においてユーザが注視する焦点の位置を導出する導出手段と、
    前記焦点の位置から予め定められた所定の距離の範囲に当該焦点を含む仮想物体の全体が収まる場合は、当該予め定められた所定の距離をそのまま設定し、前記範囲に前記仮想物体の全体が収まらない場合は、当該全体が収まるように前記所定の距離を変更して当該変更後の所定の距離を設定する設定手段と、
    前記焦点の位置からの距離が前記設定された所定の距離より短い画素の領域を第1のレンダリング手法によりレンダリング処理して、仮想画像を生成する第1の生成手段と、
    前記焦点の位置からの距離が前記設定された所定の距離より長い画素の領域を、前記第1のレンダリング手法よりも1画素あたりの処理量が低い第2のレンダリング手法によりレンダリング処理して、仮想画像を生成する第2の生成手段とを有し
    前記第1の生成手段は、前記第1のレンダリング手法により生成される仮想物体の詳細度が、前記第2のレンダリング手法により生成される仮想物体の詳細度よりも高くなるようにレンダリング処理を行うことを特徴とする画像処理装置。
  2. 前記第1の生成手段は、前記第1のレンダリング手法により生成される仮想物体のポリゴン密度が、前記第2のレンダリング手法により生成される仮想物体のポリゴン密度よりも高くなるようにレンダリング処理を行うことを特徴とする請求項に記載の画像処理装置。
  3. 前記第1のレンダリング手法はレイトレースレンダリングであり、前記第2のレンダリング手法はラスタライゼーションであることを特徴とする請求項1または2に記載の画像処理装置。
  4. 前記第1のレンダリング手法では、マッピング、シェーディングの付加、影の付加のいずれか1つを行うことを特徴とする請求項1からのいずれか1項に記載の画像処理装置。
  5. 前記導出手段は、視線検出装置が検出した前記ユーザの視線の情報に基づいて、前記焦点の位置を導出することを特徴とする請求項1からのいずれか1項に記載の画像処理装置。
  6. 前記導出手段は、前記仮想画像の中心を前記焦点の位置として導出することを特徴とする請求項1からのいずれか1項に記載の画像処理装置。
  7. 撮像装置により現実空間が撮像された撮像画像を取得する第1の取得手段と、
    前記撮像装置の位置と方向に係る情報を取得する第2の取得手段と、
    前記取得された撮像画像と、前記取得した位置と方向に係る情報に基づいて前記第1及び第2の生成手段により生成された仮想画像と、に基づいて、合成画像を生成する合成手段と、を更に有することを特徴とする請求項1からのいずれか1項に記載の画像処理装置。
  8. 前記生成された合成画像を表示装置に出力する出力手段を更に有することを特徴とする請求項に記載の画像処理装置。
  9. 前記表示装置は前記ユーザの頭部に装着されて使用される頭部装着型の表示装置であることを特徴とする請求項に記載の画像処理装置。
  10. 生成すべき仮想画像においてユーザが注視する焦点の位置を導出するステップと、
    前記焦点の位置から予め定められた所定の距離の範囲に当該焦点を含む仮想物体の全体が収まる場合は、当該予め定められた所定の距離をそのまま設定し、前記範囲に前記仮想物体の全体が収まらない場合は、当該全体が収まるように前記所定の距離を変更して当該変更後の所定の距離を設定するステップと、
    前記焦点の位置からの距離が前記設定された所定の距離より短い画素の領域を第1のレンダリング手法によりレンダリング処理して、仮想画像を生成するステップと、
    前記焦点の位置からの距離が前記設定された所定の距離より長い画素の領域を、前記第1のレンダリング手法よりも1画素あたりの処理量が低い第2のレンダリング手法によりレンダリング処理して、仮想画像を生成するステップとを有し
    前記第1のレンダリング手法では、当該第1のレンダリング手法により生成される仮想物体の詳細度が、前記第2のレンダリング手法により生成される仮想物体の詳細度よりも高くなるようにレンダリング処理を行うことを特徴とする画像処理方法。
  11. コンピュータを請求項1からのいずれか1項に記載の画像処理装置として機能させるためのプログラム。
JP2016211904A 2016-10-28 2016-10-28 画像処理装置、画像処理方法及びプログラム Active JP7005134B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016211904A JP7005134B2 (ja) 2016-10-28 2016-10-28 画像処理装置、画像処理方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016211904A JP7005134B2 (ja) 2016-10-28 2016-10-28 画像処理装置、画像処理方法及びプログラム

Publications (3)

Publication Number Publication Date
JP2018073104A JP2018073104A (ja) 2018-05-10
JP2018073104A5 JP2018073104A5 (ja) 2019-12-05
JP7005134B2 true JP7005134B2 (ja) 2022-01-21

Family

ID=62114213

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016211904A Active JP7005134B2 (ja) 2016-10-28 2016-10-28 画像処理装置、画像処理方法及びプログラム

Country Status (1)

Country Link
JP (1) JP7005134B2 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002135782A (ja) 2000-10-27 2002-05-10 Canon Inc デジタルカメラ、画像処理装置及びその方法並びに記憶媒体
JP2004056335A (ja) 2002-07-18 2004-02-19 Sony Corp 情報処理装置および方法、表示装置および方法、並びにプログラム
JP2006053694A (ja) 2004-08-10 2006-02-23 Riyuukoku Univ 空間シミュレータ、空間シミュレート方法、空間シミュレートプログラム、記録媒体
JP2009104249A (ja) 2007-10-19 2009-05-14 Canon Inc 画像処理装置、画像処理方法
JP2013061882A (ja) 2011-09-14 2013-04-04 Fujitsu Ltd 描画装置、描画方法及び描画プログラム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04302381A (ja) * 1991-03-29 1992-10-26 Koudo Eizou Gijutsu Kenkyusho:Kk 高速画像生成装置
JP3061704B2 (ja) * 1993-08-31 2000-07-10 株式会社日立製作所 情報処理装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002135782A (ja) 2000-10-27 2002-05-10 Canon Inc デジタルカメラ、画像処理装置及びその方法並びに記憶媒体
JP2004056335A (ja) 2002-07-18 2004-02-19 Sony Corp 情報処理装置および方法、表示装置および方法、並びにプログラム
JP2006053694A (ja) 2004-08-10 2006-02-23 Riyuukoku Univ 空間シミュレータ、空間シミュレート方法、空間シミュレートプログラム、記録媒体
JP2009104249A (ja) 2007-10-19 2009-05-14 Canon Inc 画像処理装置、画像処理方法
JP2013061882A (ja) 2011-09-14 2013-04-04 Fujitsu Ltd 描画装置、描画方法及び描画プログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
青竹 雄介, 福島 省吾, 吉川 榮和,視覚特性を利用したCG作成アルゴリズムの検討,電子情報通信学会技術研究報告,日本,社団法人電子情報通信学会,1998年06月06日,Vol.98, No.100,pp.1-6

Also Published As

Publication number Publication date
JP2018073104A (ja) 2018-05-10

Similar Documents

Publication Publication Date Title
JP6747504B2 (ja) 情報処理装置、情報処理方法、及びプログラム
US9014414B2 (en) Information processing apparatus and information processing method for processing image information at an arbitrary viewpoint in a physical space or virtual space
JP4810295B2 (ja) 情報処理装置及びその制御方法、画像処理装置、プログラム、記憶媒体
US8860847B2 (en) Computer-readable storage medium having stored thereon image generation program, capturing apparatus, capturing system, and image generation method for creating an image
KR20180082253A (ko) 영상 출력 방법 및 이를 지원하는 전자 장치
CN116485929A (zh) 增强现实***和操作增强现实***的方法
KR102539427B1 (ko) 화상 처리장치, 화상 처리방법, 및 기억매체
JP2006285609A (ja) 画像処理方法、画像処理装置
KR101892735B1 (ko) 직관적인 상호작용 장치 및 방법
JP6294054B2 (ja) 映像表示装置、映像提示方法及びプログラム
JP6858007B2 (ja) 画像処理システム、画像処理方法
JP2010226390A (ja) 撮像装置および撮像方法
US11474595B2 (en) Display device and display device control method
JP4745724B2 (ja) 画像処理方法、画像処理装置
JP7005134B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP2018063567A (ja) 画像処理装置、画像処理方法およびプログラム
KR101817952B1 (ko) 투과형 헤드 마운티드 디스플레이 장치 및 상기 장치에서의 화면 심도 제어 방법
JP4217661B2 (ja) 画像処理方法、画像処理装置
JP5539486B2 (ja) 情報処理装置及び情報処理方法
EP4261768A1 (en) Image processing system and method
JP2023113484A (ja) 画像処理装置、画像処理方法およびプログラム
JP2021086287A (ja) 情報処理システム、情報処理装置、及び情報処理方法
JP6700804B2 (ja) 情報処理装置、情報処理方法、およびプログラム
JP2021096772A (ja) 画像処理装置、画像処理方法、システム
WO2021260368A1 (en) Visual assistance

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191018

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191018

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201222

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210212

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210629

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210827

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211207

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220105