JP2020098381A - 測位方法及び現実感提示装置 - Google Patents

測位方法及び現実感提示装置 Download PDF

Info

Publication number
JP2020098381A
JP2020098381A JP2018235246A JP2018235246A JP2020098381A JP 2020098381 A JP2020098381 A JP 2020098381A JP 2018235246 A JP2018235246 A JP 2018235246A JP 2018235246 A JP2018235246 A JP 2018235246A JP 2020098381 A JP2020098381 A JP 2020098381A
Authority
JP
Japan
Prior art keywords
image
images
virtual position
environment
virtual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018235246A
Other languages
English (en)
Inventor
永明 周
yong ming Zhou
永明 周
上欽 蘇
Shang-Chin Su
上欽 蘇
孟豪 ▲呉▼
孟豪 ▲呉▼
Meng-Hau Wu
峰森 朱
feng sen Zhu
峰森 朱
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
XRspace Co Ltd
Original Assignee
XRspace Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by XRspace Co Ltd filed Critical XRspace Co Ltd
Priority to JP2018235246A priority Critical patent/JP2020098381A/ja
Publication of JP2020098381A publication Critical patent/JP2020098381A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

【課題】 現実感提示装置に適用される測位方法を提供する【解決手段】 現実感提示装置に適用される測位方法が、現実環境の複数の第1の画像を収集し、複数の第1の画像に従って現実環境に対応する仮想環境を構築するステップと、現実感提示装置により、現実環境の第2の画像を取得するステップと、複数の第1の画像及び第2の画像に従って、第2の画像に対応する仮想環境における初期仮想位置を計算するステップと、現実感提示装置により、現実感提示装置の特定アプリケーションが開始されるときに初期仮想位置からの視点で仮想環境を表示するステップとを含み、初期仮想位置は、現実感提示装置が第2の画像を捕捉する現実環境における初期現実場所に対応する。【選択図】 図1

Description

本開示は、測位方法及び現実感提示装置に関し、より詳細には、現実の場所に対応する初期仮想位置を計算できる測位方法及び現実感提示装置に関する。
技術の進化及び発展により、コンピュータゲーム及びユーザの間の対話の需要は増加している。人間‐コンピュータ対話技術、例えば、体性感覚ゲーム、仮想現実(VR)環境、拡張現実(AR)環境、複合現実(MR)環境、及び拡大現実(XR)環境は、その生理学的及び娯楽的機能のため人気となっている。
ユーザ又はプレーヤは、仮想環境においてゲームをプレーすることがあり、仮想環境は、現実環境をエミュレートするように構築されることがある。従来技術では、現実環境をエミュレートする仮想環境を伴うゲームについて、ユーザ/プレーヤは、ゲームを開始するために予め定義された場所にとどまる必要があり、これは、ユーザ/プレーヤに対して不便をもたらす。すなわち、ユーザ/プレーヤは、現実環境において任意の現実の場所でゲームを開始することができず、ユーザ/プレーヤは、自分が望む任意の場所でゲームを開始する自分の自由を失っている。
ゆえに、本開示の目的は、測位(positioning)方法及び現実感提示装置を提供することである。
本開示の実施例は、測位方法を開示する。測位方法は、現実環境の複数の第1の画像を収集し、複数の第1の画像に従って現実環境に対応する仮想環境を構築するステップと、現実感提示装置により、現実環境の第2の画像を取得するステップと、複数の第1の画像及び第2の画像に従って、第2の画像に対応する仮想環境における初期仮想位置を計算するステップと、現実感提示装置により、現実感提示装置の特定アプリケーションが開始されるときに初期仮想位置からの視点で仮想環境を表示するステップとを含み、初期仮想位置は、現実感提示装置が第2の画像を捕捉する現実環境における初期現実場所に対応する。
本開示の別の実施例は、ユーザに対する仮想環境を表示できる現実感提示装置を開示し、仮想環境は、現実環境、現実感提示装置から捕捉された複数の第1の画像に基づいて構築される。当該現実感提示装置は、現実環境から第2の画像を捕捉するように構成された画像捕捉モジュールと、複数の第1の画像に従って現実環境に対応する仮想環境を構築するステップ、及び複数の第1の画像及び第2の画像に従って第2の画像に対応する仮想環境における初期仮想位置を計算するステップを実行するように構成された処理ユニットと、当該現実感提示装置の特定アプリケーションが開始されるときに初期仮想位置からの視点で仮想環境を表示するように構成された表示画面とを含み、初期仮想位置は、当該現実感提示装置が第2の画像を捕捉する現実環境における初期現実場所に対応する。
本開示の別の実施例は、ユーザに対する仮想環境を表示できるシステムを開示し、仮想環境は、現実環境、現実感提示装置から捕捉された複数の第1の画像に基づいて構築される。当該システムは、現実感提示装置であって、現実環境から第2の画像を捕捉するように構成された画像捕捉モジュール、及び、現実感提示装置の特定アプリケーションが開始されるときに初期仮想位置からの視点で仮想環境を表示するように構成された表示画面、を含む現実感提示装置と、複数の第1の画像に従って現実環境に対応する仮想環境を構築するステップ、及び、複数の第1の画像及び第2の画像に従って第2の画像に対応する仮想環境における初期仮想位置を計算するステップを実行するように構成されたリモートコンピューティング装置とを含み、初期仮想位置は、現実感提示装置が第2の画像を捕捉する現実環境における初期現実場所に対応する。
本発明の上記及び他の目的が、様々な図表及び図面に例示される好適な実施例の下記詳細な説明を読んだ当業者に疑いなく明らかになるであろう。
本開示の実施例による現実感提示装置の概略図である。 図1に示される現実感提示装置の外観図である。 本開示の実施例による処理の概略図である。 本開示の実施例によるシステムの概略図である。
図1は、本開示の実施例による現実感提示装置(reality presenting device)10の機能ブロック図である。図2は、現実感提示装置10の例示的な外観図である。現実感提示装置10は、仮想現実(virtual reality;VR)装置、拡張現実(augmented reality;AR)装置、複合現実(mixed reality;MR)装置、又は拡大現実(extended reality;XR)装置でもよい。従来技術における現実感提示装置と異なり、現実感提示装置10は、仮想環境を単に構築することに追加で、現実の環境における現実の場所に対応する仮想環境における仮想位置を計算することができる。現実感提示装置10は、画像捕捉モジュール12、処理ユニット14、及び表示画面16を含む。画像捕捉モジュール12は、レンズ及び光感知画素アレイを含んでもよく、画像を捕捉するように構成される。画像捕捉モジュール12により生成される画像は、2次元(2D)画像、例えばRGB画像、及び/又は、赤外線(IR)を介して取得できる深度情報を含む3次元(3D)画像を含んでもよい。処理ユニット14は、例えば、アプリケーションプロセッサ、マイクロコントローラ、又は特定用途向け集積回路(ASIC)でもよく、これらに限定されない。表示画面は、ユーザ/プレーヤに対する現実感又は仮想環境を表示するように構成される。
図3は、本発明の実施例による処理30の概略図である。処理30は以下のステップを含む。
ステップ302:現実環境の複数の第1の画像を捕捉する。
ステップ304:複数の第1の画像に従って現実環境に対応する仮想環境を構築する。
ステップ306:現実環境の第2の画像を捕捉する。
ステップ308:複数の第1の画像及び第2の画像に従って、第2の画像に対応する仮想環境における初期仮想位置を計算する。
ステップ310:現実感提示装置の特定アプリケーションが開始されるときに初期仮想位置からの視点で仮想環境を表示する。
ステップ302及びステップ304(これらはオフライン段階でもよい)において、画像捕捉モジュール12は、現実環境RENから複数の第1の画像IMGを捕捉し、現実環境RENに対応する仮想環境VENが、複数の第1の画像IMGに基づいて構築される。実施例において、仮想環境VENは、処理ユニット14により構築されてもよい。現実環境RENは、例えば、現実の生活におけるオフィス、リビングルーム、会議室などでもよい。仮想環境VENは、現実感提示装置10により表示される複数のVR画像、例えば、VR360°画像を含んでもよく、それにより、ユーザ/プレーヤが図2に示される現実感提示装置10を装着したとき、ユーザ/プレーヤは複数のVR画像を知覚し、自分が仮想環境VENに没入しているように感じることになる。別の実施例において、複数の第1の画像IMGのうち全部又は一部が、画像捕捉モジュール12とは別のソース、例えば、クラウドデータベース又はインターネットから収集できる。
実施例において、ユーザ/プレーヤは、現実環境RENを歩き回ってもよく、画像捕捉装置12は、様々なピクチャ、すなわち複数の第1の画像IMGを撮影し、それにより、処理ユニット14は、複数の第1の画像IMGに従って現実環境RENに対応する仮想環境VENを構築することができる。実施例において、ユーザ/プレーヤは、現実環境RENにおける複数の予め定義された場所に立ってもよく、画像捕捉装置12は、異なる視点でピクチャを撮影してもよく、それにより、複数の第1の画像IMGが捕捉される。そして、処理ユニット14は、複数の第1の画像IMGに従って現実環境RENに対応する仮想環境VENを構築することができる。現実環境RENから捕捉された複数の第1の画像IMGに従って現実環境RENに対応する仮想環境VENを構築する詳細は当該分野で知られており、これは簡潔さのため述べられない。
ステップ306において、仮想環境VENが構築された後、画像捕捉モジュール12は現実環境RENの第2の画像IMGを捕捉し、これはリアルタイム段階であり得る。ステップ306は、ユーザ/プレーヤが仮想環境VENに入るのを開始するとき/前、例えば、ユーザ/プレーヤが現実感提示装置10をオンにする(電源オンする)とき、あるいは、特定のソフトウェアアプリケーション、例えば、仮想現実を伴うゲームが開始されるとき/前に実行されてもよい。
ステップ308において、第2の画像IMGに対応する仮想環境VENにおける初期仮想位置VPが、複数の第1の画像IMG及び第2の画像IMGに従って計算される。
実施例において、ステップ308は処理ユニット14により実行されてもよい。
ステップ308の詳細は当該分野で知られている。例えば、第2の画像IMGを複数の第1の画像IMGと比較することが実行されてもよく、複数の第1の画像IMGの、第2の画像IMGに対する複数の相関係数cが取得されてもよい。
例えば、複数の第1の画像IMGは、第1の画像IMG1,1、・・・、IMG1,Nを含んでもよく、複数の相関係数cは、相関係数c、・・・、cを含んでもよい。各相関係数cは、第2の画像IMG及び/に対する第1の画像IMG1,nの、定量化された相関を表す。相関係数cがより高いほど、第1の画像IMG1,nと第2の画像IMGとの間の相関がより大きい。すなわち、相関係数cがより高いことは、第1の画像IMG1,nと第2の画像IMGとがより相関していることを示す。
複数の相関係数cを取得する詳細は限定されない。例えば、複数の第1の画像IMGに対しての、及び同様に第2の画像IMGに対しての特徴抽出演算(feature extraction operation)が実行されてもよい。当該分野で知られる特徴抽出演算には特徴識別及び出現数累算を含む。特定の特徴について、特定の特徴が、特定の幾何学形状に従っているとして識別されてもよい。特定の特徴が画像内に出現するかどうか(すなわち、特徴識別)が決定されてもよく、さらに、特定の特徴が画像内に何回出現するか(すなわち、出現数累算)が累算されてもよい。累算結果は、特定の特徴の出現回数又は出現数である。具体的に、特定の特徴が画像内に出現するかどうかを決定することは、画像内の画像の一部又は画像オブジェクトが特定の幾何学形状に従うかどうかを決定することでもよく、これは、何らかの機械学習又はコンピュータビジョン方法を使用することにより達成されてもよい。これらがする場合、特定の特徴が1回出現したと認識される。
別の視点において、複数の特徴に関しての特徴識別(すなわち、或る特徴が画像内に出現するかどうかを決定するための)及び出現数累算(すなわち、或る特徴が画像内に何回出現するかを累算するための)が、定量化ベクトルを取得するために実行されてもよい。定量化ベクトルは、複数の特徴に対応する複数の出現数を含む。例えば、画像上の第1の特徴、第2の特徴、及び第3の特徴に対する特徴識別及び出現数累算を実行した後、画像に対応する定量化ベクトルが取得されてもよい。定量化ベクトルは、例えば、[2,3,1]であり得る。これは、第1の特徴が画像内に2回出現し、第2の特徴が画像内に3回出現し、第1の特徴が画像内に1回出現することを意味する。例示的に、第1の特徴は円形形状に従ってもよく、第2の特徴は三角形形状に従ってもよく、第3の特徴は長方形形状に従ってもよい。
特徴抽出演算の詳細は当該分野で知られており、これは簡潔さのためここで述べられない。
手短に言えば、複数の特徴、例えばK個の特徴に関して、特徴抽出演算が複数の第1の画像IMGに対して実行されて複数の第1の定量化ベクトルQVを取得してもよく、これはオフラインで行うことができ、さらに、第2の画像IMGに対して特徴抽出演算を実行して第2の定量化ベクトルQVを取得し、これはリアルタイムで行うことができる。
具体的に、複数の第1の定量化ベクトルQVは、第1の画像IMG1,1、・・・、IMG1,Nに対応する第1の定量化ベクトルQV1,1、・・・、QV1,nを含んでもよく、各々の第1の定量化ベクトルQV1,nは、K個の特徴に対応する複数の出現数appnn,1、・・・、appnn,Kを含み、出現数appnn,kは、特徴kが第1の画像IMG1,n内にappnn,k回出現することを示す。数学的に、第1の定量化ベクトルQVは、QV1,n=[appnn,1,・・・,appnn,K]として表されてもよい。
同様に、第2の定量化ベクトルQVは、K個の特徴に対応する複数の出現数apn、・・・、apnを含み、QV=[apn1,・・・,apn]と表すことができ、出現数apnは、特徴kが第2の画像IMG内にapn回出現することを示す。
実施例において、第1の画像IMG1,1、・・・、IMG1,Nに対応する相関係数c、・・・、cが計算されてもよい。実施例において、第2の画像IMG及び/に対する第1の画像IMG1,nの間の相関係数cは、c=(QV1,n ・QV)/(|QV1,n|・|QV|)として計算されてもよく、(・)は転置演算であり、|・|はノルム演算である。相関係数cがより大きいほど、第1の画像IMG1,nと第2の画像IMGとはより相関している。
実施例において、第1の画像IMG1,1、・・・、IMG1,N内の少なくとも一のフィルタされた画像IMGが選択される。フィルタされた画像IMGは、フィルタされた画像IMGに対応する少なくとも一のフィルタされた相関係数cが特定の閾TH値より大きい(例えば、相関係数cが0.8より大きい)ように選択され、フィルタされた画像IMGは、仮想環境VENにおける少なくとも一の仮想位置VPに対応し、仮想位置VPは、現実感提示装置10がフィルタされた画像IMGを捕捉する現実環境RENにおける少なくとも一の現実場所に対応する。
さらに、1つの特定のフィルタされた画像IMG がフィルタされた画像IMGの中から選択され、特定のフィルタされた画像IMG に対応する特定の仮想位置VP が計算される。仮想位置VP は、現実感提示装置10又は画像捕捉モジュール12が第1の画像IMG を捕捉する現実環境RENにおける現実場所RL に対応する。さらに、(仮想位置VP内の)仮想位置VP に相対する相対仮想位置RVP が、(フィルタされた画像IMG内の)特定のフィルタされた画像IMG 及び第2の画像IMGに従って計算される。特定のフィルタされた画像IMG 及び第2の画像IMGに従い、特定のフィルタされた画像IMG に対応する相対仮想位置RVP が計算される。フィルタされた画像IMGから特定のフィルタされた画像IMG を選択することは、インライア(inliers)の数及びアウトライア(outlier)の数を数え、比較することにより達成でき、これに限定されない。相対仮想位置RVP を計算することは当該分野で知られており、これは簡潔さのためここで述べられない。ゆえに、初期仮想位置VPIは、VPI=VP +RVP として計算されてもよい。
別の実施例において、第1の画像IMG1,1、・・・、IMG1,N内のフィルタされた画像IMG を取得してもよく、フィルタされた画像IMG に対応する相関係数c が相関係数c、・・・、cの中の最大相関係数であるように、取得されてもよい。具体的に、相関係数c、・・・、cが計算された後、処理ユニット14は、相関係数c、・・・、cに対してソート演算を実行し、相関係数c が相関係数c、・・・、cの最大値であるように相関係数c を選択してもよく、すなわち、相関係数c は、c =max(c,・・・,c)として表されてもよい。手短に言えば、相関係数c に対応するフィルタされた画像IMG が取得でき、フィルタされた画像IMG は、第1の画像IMG1,1、・・・、IMG1,Nの中で第2の画像IMGに対して最も相関している第1の画像である。
別の視点において、第1の画像IMG に対応する/従った仮想環境VENにおける仮想位置VP が取得されてもよい。仮想位置VP は、現実感提示装置10又は画像捕捉モジュール12が第1の画像IMG を捕捉する現実環境RENにおける現実場所RL に対応する。処理ユニット14が仮想位置VP を取得する方法は限定されない。実施例において、ユーザ/プレーヤは予め定義された現実場所RL’に立ってもよく、現実場所RL’に対応する仮想位置VP’が計算されてもよい。現実場所RL’で捕捉された第1の画像IMG が最も第2の画像IMGに相関した第1の画像である場合、仮想位置VP が仮想位置VP’として取得される。
第2の画像IMGに対応する仮想環境VENにおける初期仮想位置VPが、第1の画像IMG 及び第2の画像IMGに従って計算されてもよい。初期仮想位置VPを計算する方法は限定されない。実施例において、仮想位置VP に関連した相対仮想位置RVPが、第1の画像IMG 及び第2の画像IMGに従って計算されてもよく、さらに、仮想位置VP 及び相対仮想位置RVPに従って初期仮想位置VPを計算する。仮想位置VP 、相対仮想位置RVP、及び初期仮想位置VPがベクトル形式で表され、2D空間における座標を表すと仮定し、初期仮想位置VPは、VP=VP +RVPとして表されてもよい。
換言すると、ユーザ/プレーヤが現実環境RENにおいてどこに位置するとしても、現実感提示装置10は、現実環境RENにおける現実場所に対応する仮想環境VENにおける仮想位置を取得することができる。
ユーザ/プレーヤが現実環境RENに対応する仮想環境VENを伴うゲームをプレーする実施例において、ユーザ/プレーヤは、現実環境RENにおいて任意の所で現実感提示装置10を電源オンすることができ、処理ユニット14は、ユーザ/プレーヤ及び現実感提示装置10が位置する現実場所RLに対応する初期仮想位置VPを計算することになる。現実感提示装置10は、初期仮想位置VPに従ってVR360°画像を生成してもよく、それにより、ユーザ/プレーヤは、仮想環境VENにおける初期仮想位置VPからの視点を見ることになり、これは、現実環境RENにおける現実場所RLからの視点と同様(又は同一)である。
ステップ310において、表示画面16は、ユーザ/プレーヤが特定のソフトウェアアプリケーションを開始したときに、初期仮想位置VPからの視点で、仮想環境VENを表示する。特定のソフトウェアアプリケーションは、仮想現実を伴うゲームでもよい。換言すると、表示画面16は、初期仮想位置VPの視点における仮想環境VENに対応する複数のVR画像を表示してもよい。初期仮想位置VPは、現実感提示装置10又は画像捕捉モジュール12が第2の画像IMGを捕捉する現実環境RENにおける現実場所RLに対応する。ユーザ/プレーヤが特定のソフトウェアアプリケーションを開始したとき、ユーザ/プレーヤは仮想環境VENの複数のVR画像を知覚することになり、ユーザ/プレーヤは仮想環境VENに没入し、ちょうど自分が現実環境RENにおける現実場所RLにいるように仮想環境VENを体験する。
処理30を実行することにより、ユーザ/プレーヤにより体験される仮想環境VENと現実環境RENとの間に有意な差が存在しない。ゆえに、ユーザ/プレーヤにより体験される没入感がさらに強化される。
上記で述べられた実施例は、とりわけ、本発明の概念を例示するために利用される。当業者は、このことに応じて及び本明細書で限定されない修正及び変更を行うことができる。例えば、処理30は、現実感提示装置10により単に実行されてもよい。すなわち、ステップ304及びステップ308は、現実感提示装置10の処理ユニット14により実行されてもよく、これはここで限定されない。処理30は、システムにより実行されてもよい。
図4は、本開示の実施例によるシステム41の概略図である。システム41は、現実感提示装置40及びリモートコンピューティング装置43を含む。現実感提示装置40及びリモートコンピューティング装置43は、無線接続又は無線インターフェースを通して接続されてもよい。現実感提示装置40は、画像捕捉モジュール42及び表示画面46を含む。リモートコンピューティング装置43は、クラウドコンピューティング装置、エッジコンピューティング装置、又はクラウドコンピューティング装置及びエッジコンピューティング装置の組み合わせでもよく、これらは、コンピュータ又はサーバでもよい。処理30はシステム41により実行されてもよく、その場合、ステップ302及びステップ306は画像捕捉モジュール42により実行されてもよく、ステップ304及びステップ308はリモートコンピューティング装置43により実行されてもよく、ステップ310は表示画面46により実行されてもよく、このこともまた本開示の範囲内である。
要約すると、本開示は、ユーザ/プレーヤ及び現実感提示装置が位置する現実の場所に対応する初期仮想位置を計算することができる。従来技術と比較して、ユーザ/プレーヤは、現実の環境における任意の現実の場所で仮想環境を伴うゲームを開始することができる。ユーザ/プレーヤにより体験される仮想環境VENと現実環境RENとの間に有意な差がない。ゆえに、ユーザ/プレーヤにより体験される没入感がさらに強化される。
当業者は、本発明の教示を保有する間、装置及び方法についての多数の修正及び変更がなされ得ることを容易に観察するであろう。したがって、上記開示は、別記の請求項の範囲及び境界によってのみ限定されるとみなされるべきである。

Claims (18)

  1. 現実環境の複数の第1の画像を収集し、前記複数の第1の画像に従って前記現実環境に対応する仮想環境を構築するステップと、
    現実感提示装置により、前記現実環境の第2の画像を取得するステップと、
    前記複数の第1の画像及び前記第2の画像に従って、前記第2の画像に対応する前記仮想環境における初期仮想位置を計算するステップと、
    前記現実感提示装置により、前記現実感提示装置の特定アプリケーションが開始されるときに前記初期仮想位置からの視点で前記仮想環境を表示するステップと、
    を含み、
    前記初期仮想位置は、前記現実感提示装置が前記第2の画像を捕捉する前記現実環境における初期現実場所に対応する、測位方法。
  2. 前記第2の画像を前記複数の第1の画像と比較し、前記第2の画像に対する前記複数の第1の画像の複数の相関係数を取得するステップと、
    前記複数の第1の画像内の少なくとも一のフィルタされた画像を、前記少なくとも一のフィルタされた画像に対応する少なくとも一のフィルタされた相関係数が特定の閾値より大きいように、取得するステップであって、前記少なくとも一のフィルタされた画像は、前記仮想環境における少なくとも一の仮想位置に対応し、前記少なくとも一の仮想位置は、前記現実感提示装置が前記少なくとも一のフィルタされた画像を捕捉する前記現実環境における少なくとも一の現実場所に対応する、ステップと、
    前記少なくとも一のフィルタされた画像及び前記第2の画像に従って前記初期仮想位置を計算するステップと、
    をさらに含む請求項1に記載の測位方法。
  3. 前記第2の画像を前記複数の第1の画像と比較し、前記第2の画像に対する前記複数の第1の画像の複数の相関係数を取得するステップは、
    前記複数の第1の画像に対応する複数の第1の定量化ベクトルを取得するステップと、
    前記第2の画像に対応する第2の定量化ベクトルを取得するステップと、
    前記第2の定量化ベクトルに対する前記複数の第1の定量化ベクトルの複数の第1の相関係数を計算するステップと、
    前記複数の相関係数を前記複数の第1の相関係数として取得するステップと、
    を含む、請求項2に記載の測位方法。
  4. 前記複数の第1の画像に対応する複数の第1の定量化ベクトルを取得するステップは、
    前記複数の第1の画像に対して特徴抽出演算を実行して前記複数の第1の定量化ベクトルを取得するステップ、を含み、
    前記複数の第1の画像内の第1の画像に対応する定量化ベクトルは、前記第1の画像内の複数の特徴に対応する複数の出現数を示す、請求項3に記載の測位方法。
  5. 前記第2の画像に対応する第2の定量化ベクトルを取得するステップは、
    前記第2の画像に対して特徴抽出演算を実行して前記第2の定量化ベクトルを取得するステップ、を含み、
    前記第2の定量化ベクトルは、前記第2の画像内の複数の特徴に対応する複数の出現数を示す、請求項3に記載の測位方法。
  6. 前記少なくとも一のフィルタされた画像及び前記第2の画像に従って、前記仮想環境における前記第2の画像に対応する前記初期仮想位置を計算するステップは、
    前記少なくとも一のフィルタされた画像及び前記第2の画像に従って、前記少なくとも一の仮想位置内の仮想位置に関連した相対仮想位置を計算するステップと、
    前記仮想位置及び前記相対仮想位置に従って前記第2の画像に対応する前記初期仮想位置を計算するステップと、
    を含む、請求項2に記載の測位方法。
  7. ユーザに対する仮想環境を表示できる現実感提示装置であって、前記仮想環境は、現実環境から捕捉された複数の第1の画像に基づいて構築され、当該現実感提示装置は、
    前記現実環境から第2の画像を捕捉するように構成された画像捕捉モジュールと、
    前記複数の第1の画像に従って前記現実環境に対応する前記仮想環境を構築するステップ、及び
    前記複数の第1の画像及び前記第2の画像に従って前記第2の画像に対応する前記仮想環境における初期仮想位置を計算するステップ
    を実行するように構成された処理ユニットと、
    当該現実感提示装置の特定アプリケーションが開始されるときに前記初期仮想位置からの視点で前記仮想環境を表示するように構成された表示画面と、を含み、
    前記初期仮想位置は、当該現実感提示装置が前記第2の画像を捕捉する前記現実環境における初期現実場所に対応する、現実感提示装置。
  8. 前記処理ユニットは、
    前記第2の画像を前記複数の第1の画像と比較し、前記第2の画像に対する前記複数の第1の画像の複数の相関係数を取得するステップと、
    前記複数の第1の画像内の少なくとも一のフィルタされた画像を、前記少なくとも一のフィルタされた画像に対応する少なくとも一のフィルタされた相関係数が特定の閾値より大きいように、取得するステップであって、前記少なくとも一のフィルタされた画像は、前記仮想環境における少なくとも一の仮想位置に対応し、前記少なくとも一の仮想位置は、前記現実感提示装置が前記少なくとも一のフィルタされた画像を捕捉する前記現実環境における少なくとも一の現実場所に対応する、ステップと、
    前記少なくとも一のフィルタされた画像及び前記第2の画像に従って前記初期仮想位置を計算するステップと、
    を実行するようにさらに構成される、請求項7に記載の現実感提示装置。
  9. 前記処理ユニットは、前記第2の画像を前記複数の第1の画像と比較し、前記第2の画像に対する前記複数の第1の画像の複数の相関係数を取得するために、
    前記複数の第1の画像に対応する複数の第1の定量化ベクトルを取得するステップと、
    前記第2の画像に対応する第2の定量化ベクトルを取得するステップと、
    前記第2の定量化ベクトルに対する前記複数の第1の定量化ベクトルの複数の第1の相関係数を計算するステップと、
    前記複数の相関係数を前記複数の第1の相関係数として取得するステップと、
    を実行するようにさらに構成される、請求項8に記載の現実感提示装置。
  10. 前記処理ユニットは、前記複数の第1の画像に対応する複数の第1の定量化ベクトルを取得するために、
    前記複数の第1の画像に対して特徴抽出演算を実行して前記複数の第1の定量化ベクトルを取得するステップ、を実行するようにさらに構成され、
    前記複数の第1の画像内の第1の画像に対応する定量化ベクトルは、前記第1の画像内の複数の特徴に対応する複数の出現数を示す、請求項9に記載の現実感提示装置。
  11. 前記処理ユニットは、前記第2の画像に対応する第2の定量化ベクトルを取得するために、
    前記第2の画像に対して特徴抽出演算を実行して前記第2の定量化ベクトルを取得するステップ、を実行するようにさらに構成され、
    前記第2の定量化ベクトルは、前記第2の画像内の複数の特徴に対応する複数の出現数を示す、請求項9に記載の現実感提示装置。
  12. 前記処理ユニットは、前記少なくとも一のフィルタされた画像及び前記第2の画像に従って、前記仮想環境における前記第2の画像に対応する前記初期仮想位置を計算するために、
    前記少なくとも一のフィルタされた画像及び前記第2の画像に従って、前記少なくとも一の仮想位置内の仮想位置に関連した相対仮想位置を計算するステップと、
    前記仮想位置及び前記相対仮想位置に従って前記第2の画像に対応する前記初期仮想位置を計算するステップと、
    を実行するようにさらに構成される、請求項8に記載の現実感提示装置。
  13. ユーザに対する仮想環境を表示できるシステムであって、前記仮想環境は、現実環境から捕捉された複数の第1の画像に基づいて構築され、当該システムは、
    現実感提示装置であって、
    前記現実環境から第2の画像を捕捉するように構成された画像捕捉モジュール、及び、
    前記現実感提示装置の特定アプリケーションが開始されるときに初期仮想位置からの視点で前記仮想環境を表示するように構成された表示画面、
    を含む現実感提示装置と、
    前記複数の第1の画像に従って前記現実環境に対応する前記仮想環境を構築するステップ、及び、
    前記複数の第1の画像及び前記第2の画像に従って前記第2の画像に対応する前記仮想環境における前記初期仮想位置を計算するステップ
    を実行するように構成されたリモートコンピューティング装置と、を含み、
    前記初期仮想位置は、前記現実感提示装置が前記第2の画像を捕捉する前記現実環境における初期現実場所に対応する、システム。
  14. 前記リモートコンピューティング装置は、
    前記第2の画像を前記複数の第1の画像と比較し、前記第2の画像に対する前記複数の第1の画像の複数の相関係数を取得するステップと、
    前記複数の第1の画像内の少なくとも一のフィルタされた画像を、前記少なくとも一のフィルタされた画像に対応する少なくとも一のフィルタされた相関係数が特定の閾値より大きいように、取得するステップであって、前記少なくとも一のフィルタされた画像は、前記仮想環境における少なくとも一の仮想位置に対応し、前記少なくとも一の仮想位置は、前記現実感提示装置が前記少なくとも一のフィルタされた画像を捕捉する前記現実環境における少なくとも一の現実場所に対応する、ステップと、
    前記少なくとも一のフィルタされた画像及び前記第2の画像に従って前記初期仮想位置を計算するステップと、
    を実行するようにさらに構成される、請求項13に記載のシステム。
  15. 前記リモートコンピューティング装置は、前記第2の画像を前記複数の第1の画像と比較し、前記第2の画像に対する前記複数の第1の画像の複数の相関係数を取得するために、
    前記複数の第1の画像に対応する複数の第1の定量化ベクトルを取得するステップと、
    前記第2の画像に対応する第2の定量化ベクトルを取得するステップと、
    前記第2の定量化ベクトルに対する前記複数の第1の定量化ベクトルの複数の第1の相関係数を計算するステップと、
    前記複数の相関係数を前記複数の第1の相関係数として取得するステップと、
    を実行するようにさらに構成される、請求項14に記載のシステム。
  16. 前記リモートコンピューティング装置は、前記複数の第1の画像に対応する複数の第1の定量化ベクトルを取得するために、
    前記複数の第1の画像に対して特徴抽出演算を実行して前記複数の第1の定量化ベクトルを取得するステップ、を実行するようにさらに構成され、
    前記複数の第1の画像内の第1の画像に対応する定量化ベクトルは、前記第1の画像内の複数の特徴に対応する複数の出現数を示す、請求項15に記載のシステム。
  17. 前記リモートコンピューティング装置は、前記第2の画像に対応する第2の定量化ベクトルを取得するために、
    前記第2の画像に対して特徴抽出演算を実行して前記第2の定量化ベクトルを取得するステップ、を実行するようにさらに構成され、
    前記第2の定量化ベクトルは、前記第2の画像内の複数の特徴に対応する複数の出現数を示す、請求項15に記載のシステム。
  18. 前記リモートコンピューティング装置は、前記少なくとも一のフィルタされた画像及び前記第2の画像に従って、前記仮想環境における前記第2の画像に対応する前記初期仮想位置を計算するために、
    前記少なくとも一のフィルタされた画像及び前記第2の画像に従って、前記少なくとも一の仮想位置内の仮想位置に関連した相対仮想位置を計算するステップと、
    前記仮想位置及び前記相対仮想位置に従って前記第2の画像に対応する前記初期仮想位置を計算するステップと、
    を実行するようにさらに構成される、請求項14に記載のシステム。
JP2018235246A 2018-12-17 2018-12-17 測位方法及び現実感提示装置 Pending JP2020098381A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018235246A JP2020098381A (ja) 2018-12-17 2018-12-17 測位方法及び現実感提示装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018235246A JP2020098381A (ja) 2018-12-17 2018-12-17 測位方法及び現実感提示装置

Publications (1)

Publication Number Publication Date
JP2020098381A true JP2020098381A (ja) 2020-06-25

Family

ID=71106848

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018235246A Pending JP2020098381A (ja) 2018-12-17 2018-12-17 測位方法及び現実感提示装置

Country Status (1)

Country Link
JP (1) JP2020098381A (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017227975A (ja) * 2016-06-20 2017-12-28 株式会社Cygames 複合現実環境を作成するためのシステム等
WO2018031621A1 (en) * 2016-08-11 2018-02-15 Magic Leap, Inc. Automatic placement of a virtual object in a three-dimensional space
WO2018064627A1 (en) * 2016-09-30 2018-04-05 Sony Interactive Entertainment Inc. Wireless head mounted display with differential rendering and sound localization
WO2018116790A1 (ja) * 2016-12-22 2018-06-28 株式会社Cygames 不整合検出システム、複合現実システム、プログラム及び不整合検出方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017227975A (ja) * 2016-06-20 2017-12-28 株式会社Cygames 複合現実環境を作成するためのシステム等
WO2018031621A1 (en) * 2016-08-11 2018-02-15 Magic Leap, Inc. Automatic placement of a virtual object in a three-dimensional space
WO2018064627A1 (en) * 2016-09-30 2018-04-05 Sony Interactive Entertainment Inc. Wireless head mounted display with differential rendering and sound localization
WO2018116790A1 (ja) * 2016-12-22 2018-06-28 株式会社Cygames 不整合検出システム、複合現実システム、プログラム及び不整合検出方法

Similar Documents

Publication Publication Date Title
JP6644833B2 (ja) アルベドモデルにより拡張現実コンテンツをレンダリングするシステムおよび方法
US10460512B2 (en) 3D skeletonization using truncated epipolar lines
CN107340870B (zh) 一种融合vr和ar的虚拟现实展示***及其实现方法
CN109615703B (zh) 增强现实的图像展示方法、装置及设备
US9654734B1 (en) Virtual conference room
CN108282648B (zh) 一种vr渲染方法、装置、穿戴式设备及可读存储介质
JP7423683B2 (ja) 画像表示システム
KR20170031733A (ko) 디스플레이를 위한 캡처된 이미지의 시각을 조정하는 기술들
US20190371072A1 (en) Static occluder
CN112950751B (zh) 姿态动作的展示方法及装置、存储介质、***
KR20170134513A (ko) 오브젝트를 표시하는 방법
CN111679742A (zh) 基于ar的交互控制方法、装置、电子设备及存储介质
WO2020061432A1 (en) Markerless human movement tracking in virtual simulation
CN109840946B (zh) 虚拟对象显示方法及装置
CN111448568A (zh) 基于环境的应用演示
CN113795863A (zh) 用于图像的深度图的处理
Khattak et al. A real-time reconstructed 3D environment augmented with virtual objects rendered with correct occlusion
CN112905014A (zh) Ar场景下的交互方法、装置、电子设备及存储介质
US20200184675A1 (en) Positioning Method and Reality Presenting Device
CN109426336A (zh) 一种虚拟现实辅助选型设备
JP2020098381A (ja) 測位方法及び現実感提示装置
EP3506629A1 (en) Multi-camera display
KR20220083552A (ko) 착용형 ar 장치를 위한 다중 객체의 6 자유도 추정과 보정 및 이를 적용한 ar 서비스 방법
EP3671658A1 (en) Positioning method and reality presenting device
Rafighi et al. Automatic and adaptable registration of live RGBD video streams

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181217

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200303

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200525

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20201027