JP2007004713A - 画像処理方法、画像処理装置 - Google Patents
画像処理方法、画像処理装置 Download PDFInfo
- Publication number
- JP2007004713A JP2007004713A JP2005187081A JP2005187081A JP2007004713A JP 2007004713 A JP2007004713 A JP 2007004713A JP 2005187081 A JP2005187081 A JP 2005187081A JP 2005187081 A JP2005187081 A JP 2005187081A JP 2007004713 A JP2007004713 A JP 2007004713A
- Authority
- JP
- Japan
- Prior art keywords
- image
- orientation
- virtual object
- virtual
- collision
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- Studio Devices (AREA)
Abstract
【課題】 仮想物体同士の衝突が生じた場合には、この衝突を後に再現可能とすべく、この衝突に係る情報を記録する為の技術を提供すること。
【解決手段】 カメラ位置姿勢取得部190は観察者の視点の位置姿勢を取得し、仮想物体生成部106は複数の仮想物体を配置した仮想空間を、取得した位置姿勢を有する視点から見た場合に見える画像を生成し、仮想物体干渉検出部107が仮想物体同士の衝突を検知すると、仮想物***置姿勢記録部108は、この衝突に係る情報を記録する。
【選択図】 図1
【解決手段】 カメラ位置姿勢取得部190は観察者の視点の位置姿勢を取得し、仮想物体生成部106は複数の仮想物体を配置した仮想空間を、取得した位置姿勢を有する視点から見た場合に見える画像を生成し、仮想物体干渉検出部107が仮想物体同士の衝突を検知すると、仮想物***置姿勢記録部108は、この衝突に係る情報を記録する。
【選択図】 図1
Description
本発明は、仮想物体に対する処理技術に関するものである。
バーチャルリアリティ(VR)システムは、コンピュータの作り出す三次元コンピュータグラフィックス(CG)をユーザに提示することで、仮想の空間をあたかも現実であるかのように感じさせるシステムである。また近年、現実世界の映像に三次元CGを合成することで、現実世界にはない情報をユーザに提示する技術の開発もなされており、それらはAR(Augumented Reality, 拡張現実感)システムやMR(Mixed Reality, 複合現実感)システムと呼ばれている。
MRシステムでは、現実の物体に三次元CGを重ねることが可能であり、例えば、特許文献1に示されるシステムでは、現実物体に仮想物体を重畳することで、ユーザが自由に仮想物体を操ることができるようになっている。
特開2005−108108号公報
しかしながら、今までのシステムは、仮想物体の移動時に他の仮想物体との干渉(衝突)を検出し、干渉状況を記録するシステムではなかった。そのため仮想物体同士で干渉が起きても起きたタイミングや正確な位置姿勢を把握することが困難であった。
本発明は以上の問題に鑑みて成されたものであり、仮想物体同士の衝突が生じた場合には、この衝突を後に再現可能とすべく、この衝突に係る情報を記録する為の技術を提供することを目的とする。
本発明の目的を達成するために、例えば、本発明の画像処理方法は以下の構成を備える。
即ち、観察者の視点の位置姿勢を取得する取得工程と、
複数の仮想物体を仮想空間中に配置する配置工程と、
前記複数の仮想物体を配置した仮想空間を、前記取得工程で取得した位置姿勢を有する視点から見た場合に見える画像を生成する生成工程と、
前記生成工程で生成した画像を外部に出力する出力工程と、
仮想物体同士の衝突を検知すると、当該衝突に係る情報をメモリに記録する記録工程と
を備えることを特徴とする。
複数の仮想物体を仮想空間中に配置する配置工程と、
前記複数の仮想物体を配置した仮想空間を、前記取得工程で取得した位置姿勢を有する視点から見た場合に見える画像を生成する生成工程と、
前記生成工程で生成した画像を外部に出力する出力工程と、
仮想物体同士の衝突を検知すると、当該衝突に係る情報をメモリに記録する記録工程と
を備えることを特徴とする。
本発明の目的を達成するために、例えば、本発明の画像処理装置は以下の構成を備える。
即ち、観察者の視点の位置姿勢を取得する取得手段と、
複数の仮想物体を仮想空間中に配置する配置手段と、
前記複数の仮想物体を配置した仮想空間を、前記取得手段が取得した位置姿勢を有する視点から見た場合に見える画像を生成する生成手段と、
前記生成手段が生成した画像を外部に出力する出力手段と、
仮想物体同士の衝突を検知すると、当該衝突に係る情報を記録する記録手段と
を備えることを特徴とする。
複数の仮想物体を仮想空間中に配置する配置手段と、
前記複数の仮想物体を配置した仮想空間を、前記取得手段が取得した位置姿勢を有する視点から見た場合に見える画像を生成する生成手段と、
前記生成手段が生成した画像を外部に出力する出力手段と、
仮想物体同士の衝突を検知すると、当該衝突に係る情報を記録する記録手段と
を備えることを特徴とする。
本発明の構成により、仮想物体同士の衝突が生じた場合には、この衝突を後に再現可能とすべく、この衝突に係る情報を記録することができる。
以下添付図面を参照して、本発明を好適な実施形態に従って詳細に説明する。
[第1の実施形態]
図1は、現実空間に仮想空間を重畳させた複合現実空間を観察者に体感させるためのシステムの機能構成を示すブロック図である。同図に示す如く、本実施形態に係るシステムはシステム制御部101、仮想物体移動インターフェース140、ビデオシースルー型HMD132で構成されている。
図1は、現実空間に仮想空間を重畳させた複合現実空間を観察者に体感させるためのシステムの機能構成を示すブロック図である。同図に示す如く、本実施形態に係るシステムはシステム制御部101、仮想物体移動インターフェース140、ビデオシースルー型HMD132で構成されている。
先ず、ビデオシースルー型HMD132について説明する。ビデオシースルー型HMD132は、同図に示す如く、画像入力部135、画像表示部136、カメラ133,画像出力部134により構成されている。
カメラ133は、現実空間の動画像を撮像するものであり、撮像した各フレームの画像は画像出力部134によりシステム制御部101に送出される。なお、カメラ133を以下では「観察者の視点」と呼称する場合がある。
画像入力部135は、システム制御部101から送出される画像信号を受け、受けた画像信号に従った画像を画像表示部136に表示する。画像表示部136は、ビデオシースルー型HMD132を頭部に装着している観察者の眼前に位置するようにビデオシースルー型HMD132に取り付けられているので、この観察者はシステム制御部101から送出される画像信号に基づいた画像を観察することになる。
なお、このビデオシースルー型HMD132の位置姿勢は後述する処理でもってシステム制御部101が取得する。
次に、仮想物体移動インターフェース140について説明する。仮想物体移動インターフェース140は、観察者が手に保持してその位置や姿勢を自在に変化させることができるものであり、その位置や姿勢は後述する処理でもってシステム制御部101が取得する。本実施形態ではこの仮想物体移動インターフェース140の位置姿勢に1つ以上の仮想物体を配置する。
次に、システム制御部101について説明する。同図に示す如く、システム制御部101は画像入力部102、画像合成部103、画像出力部104、仮想物***置姿勢制御部105、仮想物体生成部106、仮想物体干渉検出部107、仮想物***置姿勢記録部108、カメラ位置姿勢取得部109、画像保存部110により構成されてる。
画像入力部102は、ビデオシースルー型HMD132の画像出力部134から出力された現実空間の画像を受け、これを画像合成部103に出力する。
カメラ位置姿勢取得部109は、視点の位置姿勢を取得する処理を行う。視点の位置姿勢を取得するための処理については様々なものが考えられ、特に限定するものではないが、例えば以下のような方法を用いることができる。
先ず、磁気センサをカメラ133との位置姿勢関係(バイアス)が既知の位置姿勢でもってビデオシースルー型HMD132に取り付け、この磁気センサでもって、磁界の発信源の位置を原点とし、この原点で互いに直交する3軸をそれぞれx軸、y軸、z軸とする座標系(センサ座標系)における自身の位置姿勢を計測する。この場合、カメラ位置姿勢取得部190は、この磁気センサから出力される「磁気センサのセンサ座標系における位置姿勢を示す信号」を受け、これをデータとして取得する。そして、このデータに、上記バイアスのデータを加算することで、センサ座標系における視点の位置姿勢を求めることができる。
一方、仮想物***置姿勢制御部105は、仮想物体移動インターフェース140の位置姿勢を取得する。仮想物体移動インターフェース140の位置姿勢の取得方法については様々な方法があり、例えば、以下のような方法を用いることができる。
先ず、仮想物体移動インターフェース140に磁気センサを取り付けておき、この磁気センサでもって、センサ座標系における自身の位置姿勢を計測する。この場合、仮想物***置姿勢制御部105は、仮想物体移動インターフェース140から出力される「仮想物体移動インターフェース140のセンサ座標系における位置姿勢を示す信号」を受け、これをデータとして取得する。
また、画像入力部102が画像出力部134から受けた画像を用いて仮想物体移動インターフェース140の位置姿勢を求めることで、この位置姿勢を取得する方法もあるが、何れにせよ、仮想物***置姿勢制御部105は、仮想物体移動インターフェース140の位置姿勢を取得する。
また、仮想物***置姿勢制御部105は、仮想空間中に配置する複数の仮想物体のそれぞれの位置や姿勢のデータを保持しており、仮想物体移動インターフェース140の位置姿勢を取得すると、この仮想物体移動インターフェース140に関連付けられた仮想物体の位置姿勢を、取得した位置姿勢でもって更新する処理を行う。
仮想物体移動インターフェース140に関連付けられていない仮想物体についてはその位置姿勢を固定させておいても良いし、予め定められた運動規則に従って位置姿勢を更新するようにしても良い。何れにせよ、仮想物体移動インターフェース140に関連付けられている仮想物体、関連付けられていない仮想物体のそれぞれの位置姿勢はこの仮想物***置姿勢制御部105によって管理されている。
仮想物***置姿勢記録部108には、カメラ位置姿勢取得部190が取得した視点の位置姿勢、仮想物***置姿勢制御部105が管理する各仮想物体の位置姿勢が順次入力されるので、入力された視点の位置姿勢、各仮想物体の位置姿勢を、現在時刻と共にセットにして記録する処理を行う。
仮想物体干渉検出部107は、仮想物***置姿勢制御部105が管理している「各仮想物体の位置姿勢」を参照し、仮想物体同士の衝突を検知する処理を行う。例えば、仮想物体移動インターフェース140に関連付けられた仮想物体が、関連付けられていない仮想物体と衝突しているのかをチェックする。仮想物体同士が衝突しているのか否かをチェックする処理については周知のものであるので、詳細な説明は省略するが、例えば、仮想物体同士の位置間の距離が所定距離以内であれば衝突していると判定するようにしても良いし、仮想物体がポリゴンでもって構成されている場合には、ポリゴン毎に交差判定を行い、交差しているポリゴンが存在する場合には衝突していると判定するようにしても良い。
そして仮想物体干渉検出部107が、衝突している仮想物体が存在していると判断した場合には、その旨を仮想物***置姿勢記録部108、及び画像合成部103に通知する。
仮想物***置姿勢記録部108は、衝突している仮想物体を検知した旨の通知を仮想物体干渉検出部107から受けると、更に以下の各情報の記録処理を行う。
・ 衝突したそれぞれの仮想物体を識別する為の情報(例えば、識別番号などのID)
・ 衝突したそれぞれの仮想物体の衝突部分を示す情報(例えば、衝突しているポリゴンを識別する番号、衝突しているパーツを示す情報)
即ち、仮想物***置姿勢記録部108は常に上記セットデータを記録する処理を行っているのであるが、衝突を検知した旨の通知を仮想物体干渉検出部107から受けた場合には、このセットデータに加え、上記2つの情報(「衝突したそれぞれの仮想物体を識別する為の情報」、「衝突したそれぞれの仮想物体の衝突部分を示す情報」)を記録する。
・ 衝突したそれぞれの仮想物体の衝突部分を示す情報(例えば、衝突しているポリゴンを識別する番号、衝突しているパーツを示す情報)
即ち、仮想物***置姿勢記録部108は常に上記セットデータを記録する処理を行っているのであるが、衝突を検知した旨の通知を仮想物体干渉検出部107から受けた場合には、このセットデータに加え、上記2つの情報(「衝突したそれぞれの仮想物体を識別する為の情報」、「衝突したそれぞれの仮想物体の衝突部分を示す情報」)を記録する。
従って、衝突を検知した旨の通知を仮想物体干渉検出部107から受けた場合には、仮想物***置姿勢記録部108は、視点の位置姿勢、各仮想物体の位置姿勢、現在時刻、衝突したそれぞれの仮想物体を識別する為の情報、衝突したそれぞれの仮想物体の衝突部分を示す情報、のセットデータを記録する処理を行う。
なお、記録する情報はこれに限定するものではなく、この衝突時における仮想空間の画像を再現するのに必要な情報であればよい。
仮想物体生成部106は、先ず、仮想物***置姿勢制御部105が管理するそれぞれの仮想物体の位置姿勢でもって、それぞれの仮想物体を配置する。そして、各仮想物体を配置した仮想空間を、カメラ位置姿勢取得部190が取得した位置姿勢を有する視点から見た場合に見える画像を生成する処理を行う。なお、所定の位置姿勢を有する視点から見える仮想空間の画像を生成するための処理については周知のものであるので、これに関する説明は省略する。
仮想物体生成部106が生成した仮想空間の画像は画像合成部103に出力する。画像合成部103は、画像入力部102から受けた現実空間の画像上に、仮想物体生成部106が生成した仮想空間の画像を重畳させることで、複合現実空間の画像を生成し、画像出力部104によってビデオシースルー型HMD132の画像入力部135に出力する。画像入力部135は受けた複合現実空間の画像を表示部136に表示するので、ビデオシースルー型HMD132を頭部に装着した観察者の眼前には複合現実空間の画像が表示されることになる。
一方、画像合成部103は、衝突している仮想物体を検知した旨の通知を仮想物体干渉検出部107から受けると、生成した複合現実空間の画像を画像保存部110に記録する処理を行う。
即ち、システム制御部101は、視点から見える仮想空間の画像を生成し、これを視点から見える現実空間の画像上に重畳させてビデオシースルー型HMD132に出力する処理を行う一方で、仮想物体同士で衝突が生じた場合には、この衝突の様子を示す画像を再現する為に必要な情報を記録する。
ここで、仮想物体同士の衝突について説明する。図2は、仮想物体同士の衝突を説明するために例として用いる2つの仮想物体を示す図である。同図において202,203は共に仮想物体であり、仮想物***置姿勢制御部105が管理する位置姿勢でもって配置される。以下の説明では、仮想物体203は、仮想物体移動インターフェース140に関連付けられているとする。即ち、仮想物体203は仮想物体移動インターフェース140の位置姿勢でもって配置されるものであり、観察者がこの仮想物体移動インターフェース140を手に持ってその位置姿勢を変化させると、それに追従して仮想物体203の位置姿勢も変化する。また、仮想物体202の位置姿勢は固定されているものとする。
図3は、図2に示した2つの仮想物体の衝突について説明する図である。ここでは、仮想物体203が、図3(a)→図3(b)→図3(c)→図3(d)に示す順に、その位置を移動させたとする。そして、図3(b)に示す時点、図3(c)に示す時点で、仮想物体203は仮想物体202と衝突したとする。
この場合、仮想物***置姿勢記録部108は先ず、図3(b)に示した状態における仮想物体202,203のそれぞれの位置姿勢、衝突部分を示す情報、視点の位置姿勢、現在時刻、仮想物体202,203を識別する為の情報、を記録すると共に、画像合成部103は、図3(b)に示した画像を画像保存部110に記録する処理を行う。
その後、仮想物***置姿勢記録部108は、図3(c)に示した状態における仮想物体202,203のそれぞれの位置姿勢、衝突部分を示す情報、視点の位置姿勢、現在時刻、仮想物体202,203を識別する為の情報、を記録すると共に、画像合成部103は、図3(c)に示した画像を画像保存部110に記録する処理を行う。
図4は、以上説明した一連の処理、即ち、仮想物体同士の衝突を検知した場合に、この衝突に係る情報を記録するための処理のフローチャートである。
カメラ位置姿勢取得部190は順次視点の位置姿勢を取得しているので、仮想物***置姿勢記録部108は、カメラ位置姿勢取得部190が取得した位置姿勢を記録する処理を行う(ステップS401)。続いて、仮想物***置姿勢記録部108は、仮想物***置姿勢制御部105が管理している各仮想物体の位置姿勢を、ステップS401で記録したデータとセットにして記録する処理を行う(ステップS402)。なお、ステップS401,ステップS402の何れかでは現在時刻もセットにして記録する。
次に、仮想物体干渉検出部107は、仮想物体同士の衝突をチェックし(ステップS403)、仮想物体同士の衝突を検知していない場合には処理をステップS401に戻すのであるが、検知した場合には処理をステップS404に進め、検知した旨を仮想物***置姿勢記録部108に通知するので、仮想物***置姿勢記録部108は、干渉に係る情報、即ち本実施形態の場合には、衝突したそれぞれの仮想物体を識別するための情報、それぞれの仮想物体で衝突した部分を示す情報をステップS401,S402で記録したデータとセットにして記録する処理を行う(ステップS404)。
次に、仮想物体生成部106、画像合成部103によって上述のようにして複合現実空間の画像を生成するのであるが、仮想物体干渉検出部107から、衝突を検知した旨の通知を受けた場合には、この生成した複合現実空間の画像を画像保存部110に記録する処理を行う(ステップS405)。
そして本処理を終了する指示が入力されない限りは処理をステップS405を介してステップS401に戻し、以降の処理を繰り返す。
なお、以上の処理において、ビデオシースルー型HMD132の代わりに光学シースルー型のHMDを用いても良く、その場合には、システム制御部101において画像入力部102、画像合成部103は省略することができ、仮想物体生成部106が生成した仮想空間の画像は画像出力部104を介して光学シースルー型HMDに対して出力されると共に、仮想物体の衝突を検知した旨の通知を受けた場合には、この仮想空間の画像を画像保存部110に記録することになる。
[第2の実施形態]
図5は、システム制御部101に適用可能なコンピュータのハードウェア構成を示すブロック図である。
図5は、システム制御部101に適用可能なコンピュータのハードウェア構成を示すブロック図である。
501はCPUで、RAM502やROM503に格納されているプログラムやデータを用いて本コンピュータ全体の制御を行うと共に、システム制御部101が行う上記各処理を実行する。
502はRAMで、外部記憶装置506からロードされたプログラムやデータを一時的に記憶するためのエリア、I/F(インターフェース)507を介して外部から受信したデータを一時的に記録するためのエリア、CPU501が各種の処理を実行するために用いるワークエリアなど、各種のエリアを適宜提供することができる。
503はROMで、ブートプログラムや本コンピュータの設定データなどを格納する。
504は操作部で、キーボードやマウスなどにより構成されており、本コンピュータの操作者が操作することで、各種の指示をCPU501に対して入力することができる。
505は表示部で、CRTや液晶画面などにより構成されており、CPU501による処理結果を画像や文字などでもって表示することができる。
506は外部記憶装置であって、ハードディスクドライブ装置に代表される大容量情報記憶装置であって、ここにOS(オペレーティングシステム)や、CPU501に、上記システム制御部101が行う上記各処理を実行させるためのプログラムやデータが保存されており、これらはCPU501による制御に従って適宜RAM502にロードされる。
507はI/Fであって、ここに上記ビデオシースルー型HMD132や仮想物体移動インターフェース140が接続されることになる。なお、ビデオシースルー型HMD132や仮想物体移動インターフェース140の位置姿勢の取得方法によっては、このI/F507には更にデバイス(例えば磁気センサの制御装置、磁気センサ本体)を接続する必要がある。
508は上述の各部を繋ぐバスである。
即ち、図5に示した構成を備えるコンピュータを上記システム制御部101に適用する場合、図1に示したシステム制御部101を構成する各部において、情報を記録するためのメモリとしてはRAM502や外部記憶装置506が用いられ、それ以外の部分(画像入力部102、画像合成部103、画像出力部104、仮想物***置姿勢制御部105、仮想物体生成部106、仮想物体干渉検出部107、仮想物***置姿勢記録部108、カメラ位置姿勢取得部109)については、プログラムでもって構成し、これを外部記憶装置506からRAM502に適宜ロードし、ロードしたプログラムをCPU501が実行することで、CPU501は、画像入力部102、画像合成部103、画像出力部104、仮想物***置姿勢制御部105、仮想物体生成部106、仮想物体干渉検出部107、仮想物***置姿勢記録部108、カメラ位置姿勢取得部109の各部の上記動作を実行することになる。
[その他の実施形態]
本発明の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記録媒体(または記憶媒体)を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムコードを読み出し実行することによっても、達成されることは言うまでもない。この場合、記録媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記録した記録媒体は本発明を構成することになる。
本発明の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記録媒体(または記憶媒体)を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムコードを読み出し実行することによっても、達成されることは言うまでもない。この場合、記録媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記録した記録媒体は本発明を構成することになる。
また、コンピュータが読み出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
さらに、記録媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた後、そのプログラムコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
本発明を上記記録媒体に適用する場合、その記録媒体には、先に説明したフローチャートに対応するプログラムコードが格納されることになる。
Claims (6)
- 観察者の視点の位置姿勢を取得する取得工程と、
複数の仮想物体を仮想空間中に配置する配置工程と、
前記複数の仮想物体を配置した仮想空間を、前記取得工程で取得した位置姿勢を有する視点から見た場合に見える画像を生成する生成工程と、
前記生成工程で生成した画像を外部に出力する出力工程と、
仮想物体同士の衝突を検知すると、当該衝突に係る情報をメモリに記録する記録工程と
を備えることを特徴とする画像処理方法。 - 更に、前記視点から見える現実空間の画像を取得する第2の取得工程を備え、
前記出力工程では、前記生成工程で生成した画像上を、前記第2の取得工程で取得した画像上に重畳させて出力することを特徴とする請求項1に記載の画像処理方法。 - 前記記録工程では、前記衝突を検知した時刻、前記取得工程で取得した前記視点の位置姿勢、衝突した仮想物体のそれぞれの位置姿勢、衝突した仮想物体を識別する情報、衝突した部位を示す情報、前記第2の取得工程で取得した画像上に前記生成工程で生成した画像上を重畳させた画像を前記メモリに記録することを特徴とする請求項2に記載の画像処理方法。
- 観察者の視点の位置姿勢を取得する取得手段と、
複数の仮想物体を仮想空間中に配置する配置手段と、
前記複数の仮想物体を配置した仮想空間を、前記取得手段が取得した位置姿勢を有する視点から見た場合に見える画像を生成する生成手段と、
前記生成手段が生成した画像を外部に出力する出力手段と、
仮想物体同士の衝突を検知すると、当該衝突に係る情報を記録する記録手段と
を備えることを特徴とする画像処理装置。 - コンピュータに請求項1乃至3の何れか1項に記載の画像処理方法を実行させることを特徴とするプログラム。
- 請求項5に記載のプログラムを格納したことを特徴とする、コンピュータ読み取り可能な記憶媒体。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005187081A JP2007004713A (ja) | 2005-06-27 | 2005-06-27 | 画像処理方法、画像処理装置 |
US11/429,543 US7773098B2 (en) | 2005-05-11 | 2006-05-05 | Virtual reality presentation apparatus and method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005187081A JP2007004713A (ja) | 2005-06-27 | 2005-06-27 | 画像処理方法、画像処理装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007004713A true JP2007004713A (ja) | 2007-01-11 |
Family
ID=37690236
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005187081A Withdrawn JP2007004713A (ja) | 2005-05-11 | 2005-06-27 | 画像処理方法、画像処理装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2007004713A (ja) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2008082007A1 (ja) | 2006-12-29 | 2008-07-10 | Kyowa Chemical Industry Co., Ltd. | 抗菌性粒子、その製造方法および抗菌性組成物 |
JP2008230296A (ja) * | 2007-03-16 | 2008-10-02 | Mazda Motor Corp | 車両用運転支援システム |
JP2008276530A (ja) * | 2007-04-27 | 2008-11-13 | Canon Inc | 干渉計算装置およびその制御方法 |
JPWO2013022021A1 (ja) * | 2011-08-09 | 2015-03-05 | 株式会社ニコン | 電子機器 |
JP2017016376A (ja) * | 2015-06-30 | 2017-01-19 | キヤノン株式会社 | 情報処理装置、情報処理方法、プログラム |
JP2019008623A (ja) * | 2017-06-27 | 2019-01-17 | キヤノン株式会社 | 情報処理装置、及び、情報処理装置の制御方法、コンピュータプログラム、記憶媒体 |
JP2019040357A (ja) * | 2017-08-24 | 2019-03-14 | キヤノンマーケティングジャパン株式会社 | 画像処理装置、画像処理方法、コンピュータプログラム |
JP2019113938A (ja) * | 2017-12-21 | 2019-07-11 | 株式会社コーエーテクモゲームス | 情報処理装置、表示制御プログラム及び表示制御方法 |
JP2020024752A (ja) * | 2013-12-25 | 2020-02-13 | キヤノンマーケティングジャパン株式会社 | 情報処理装置及びその制御方法、プログラム |
JP2020091928A (ja) * | 2015-06-30 | 2020-06-11 | キヤノン株式会社 | 情報処理装置、情報処理方法、プログラム |
JP2020187778A (ja) * | 2020-07-15 | 2020-11-19 | キヤノンマーケティングジャパン株式会社 | 情報処理装置、情報処理システム、その制御方法及びプログラム |
-
2005
- 2005-06-27 JP JP2005187081A patent/JP2007004713A/ja not_active Withdrawn
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2008082007A1 (ja) | 2006-12-29 | 2008-07-10 | Kyowa Chemical Industry Co., Ltd. | 抗菌性粒子、その製造方法および抗菌性組成物 |
JP2008230296A (ja) * | 2007-03-16 | 2008-10-02 | Mazda Motor Corp | 車両用運転支援システム |
JP2008276530A (ja) * | 2007-04-27 | 2008-11-13 | Canon Inc | 干渉計算装置およびその制御方法 |
JPWO2013022021A1 (ja) * | 2011-08-09 | 2015-03-05 | 株式会社ニコン | 電子機器 |
JP2020024752A (ja) * | 2013-12-25 | 2020-02-13 | キヤノンマーケティングジャパン株式会社 | 情報処理装置及びその制御方法、プログラム |
JP7079231B2 (ja) | 2013-12-25 | 2022-06-01 | キヤノンマーケティングジャパン株式会社 | 情報処理装置及び情報処理システム及び制御方法、プログラム |
US10410420B2 (en) | 2015-06-30 | 2019-09-10 | Canon Kabushiki Kaisha | Information processing apparatus, information processing method, and storage medium |
JP2017016376A (ja) * | 2015-06-30 | 2017-01-19 | キヤノン株式会社 | 情報処理装置、情報処理方法、プログラム |
JP2020091928A (ja) * | 2015-06-30 | 2020-06-11 | キヤノン株式会社 | 情報処理装置、情報処理方法、プログラム |
JP2019008623A (ja) * | 2017-06-27 | 2019-01-17 | キヤノン株式会社 | 情報処理装置、及び、情報処理装置の制御方法、コンピュータプログラム、記憶媒体 |
JP2019040357A (ja) * | 2017-08-24 | 2019-03-14 | キヤノンマーケティングジャパン株式会社 | 画像処理装置、画像処理方法、コンピュータプログラム |
JP2019113938A (ja) * | 2017-12-21 | 2019-07-11 | 株式会社コーエーテクモゲームス | 情報処理装置、表示制御プログラム及び表示制御方法 |
JP2020187778A (ja) * | 2020-07-15 | 2020-11-19 | キヤノンマーケティングジャパン株式会社 | 情報処理装置、情報処理システム、その制御方法及びプログラム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7068562B2 (ja) | 拡張現実データを記録するための手法 | |
JP2007004713A (ja) | 画像処理方法、画像処理装置 | |
JP4227561B2 (ja) | 画像処理方法、画像処理装置 | |
US6822643B2 (en) | Image-display control apparatus | |
JP5709440B2 (ja) | 情報処理装置、情報処理方法 | |
US20090102845A1 (en) | Image processing apparatus and image processing method | |
JP2006127158A (ja) | 画像処理方法、画像処理装置 | |
JP2009123018A (ja) | 画像処理装置、画像処理方法 | |
JP2009025918A (ja) | 画像処理装置、画像処理方法 | |
JP2005227876A (ja) | 画像処理方法、画像処理装置 | |
JP2006252468A (ja) | 画像処理方法、画像処理装置 | |
JP2005339377A (ja) | 画像処理方法、画像処理装置 | |
JP2006215750A (ja) | 画像処理方法、画像処理装置 | |
JP3848092B2 (ja) | 画像処理装置及び方法、並びにプログラム | |
JP4208601B2 (ja) | 表示制御方法、及び表示制御装置 | |
JP4689344B2 (ja) | 情報処理方法、情報処理装置 | |
JP6698971B2 (ja) | 仮想物体表示制御装置、仮想物体表示システム、仮想物体表示制御方法、及び仮想物体表示制御プログラム | |
JP7279113B2 (ja) | 画像処理装置、画像処理方法、コンピュータプログラム | |
JP4217661B2 (ja) | 画像処理方法、画像処理装置 | |
JP2006343954A (ja) | 画像処理方法、画像処理装置 | |
JP5683402B2 (ja) | 画像合成装置及び画像合成方法 | |
JP2007004716A (ja) | 画像処理方法、画像処理装置 | |
JP2019040356A (ja) | 画像処理装置、画像処理方法、コンピュータプログラム | |
JP2006268351A (ja) | 画像処理方法、画像処理装置 | |
JP2006277350A (ja) | 情報処理方法、情報処理装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20080902 |