JP2023151126A - 映像投影システム及び映像投影方法 - Google Patents

映像投影システム及び映像投影方法 Download PDF

Info

Publication number
JP2023151126A
JP2023151126A JP2022060570A JP2022060570A JP2023151126A JP 2023151126 A JP2023151126 A JP 2023151126A JP 2022060570 A JP2022060570 A JP 2022060570A JP 2022060570 A JP2022060570 A JP 2022060570A JP 2023151126 A JP2023151126 A JP 2023151126A
Authority
JP
Japan
Prior art keywords
real
space
image
virtual reality
virtual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2022060570A
Other languages
English (en)
Other versions
JP7281576B1 (ja
Inventor
篤史 松ヶ谷
Atsushi Matsugaya
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2022060570A priority Critical patent/JP7281576B1/ja
Application granted granted Critical
Publication of JP7281576B1 publication Critical patent/JP7281576B1/ja
Publication of JP2023151126A publication Critical patent/JP2023151126A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

【課題】仮想現実空間と現実空間との間でよりシームレスな体験をユーザに提供すること。【解決手段】仮想現実空間上の仮想オブジェクトと現実空間上の現実オブジェクトとの対応付けを行うオブジェクト制御装置と、仮想現実空間上の第1仮想オブジェクトに対応する現実空間上の第1現実オブジェクトに対して、第1仮想オブジェクトについて仮想現実空間上で知覚される第1仮想現実空間映像に基づいた第1現実空間映像を投影する映像投影装置と、を備える。【選択図】図1

Description

本発明は、映像投影システム及び映像投影方法に関する。
近年、ユーザに対して仮想現実(Virtual Reality:VR)や拡張現実(Augmented Reality:AR)を用いたサービスを提供するためのサービスシステムが知られている(例えば、特許文献1参照)。特許文献1には、現実空間の位置に応じて仮想現実空間又は拡張現実空間でサービスを提供する仮想現実又は拡張現実サービス提供システムが記載されている。
また、映像投影技術として「ダイナミックプロジェクションマッピング(動的プロジェクションマッピング)」が知られている。ダイナミックプロジェクションマッピングは、映像を投影する動く対象物に追従し、対象物の表面に一致させながら継続的に映像投影する技術である。ダイナミックプロジェクションマッピングによれば、動く対象物にぴったり貼りついているような映像を投影することができる。これにより、対象物の形状はそのままに、対象物において現実とは異なる表面であると見る者に知覚させることができる。
特許第6417467号公報
「動きに貼り付く映像技術「ダイナミックプロジェクションマッピング」の変遷」、ITmedia NEWS、2021年3月31日、インターネット<URL:https://www.itmedia.co.jp/news/articles/2103/31/news174.html>
従来、仮想現実空間(メタバースと称される場合もある)を体験したユーザが現実空間に戻ると、それまで体験していた仮想現実空間の世界とは独立した世界になるため、ユーザの満足度が十分に上がらない可能性があった。
本発明は、このような事情を考慮してなされたものであり、その目的は、仮想現実空間と現実空間との間でよりシームレスな体験をユーザに提供することにある。
(1)本発明の一態様は、仮想現実空間上の仮想オブジェクトと現実空間上の現実オブジェクトとの対応付けを行うオブジェクト制御装置と、前記仮想現実空間上の第1仮想オブジェクトに対応する現実空間上の第1現実オブジェクトに対して、前記第1仮想オブジェクトについて前記仮想現実空間上で知覚される第1仮想現実空間映像に基づいた第1現実空間映像を投影する映像投影装置と、を備える映像投影システムである。
(2)本発明の一態様は、現実空間上の第2現実オブジェクトに投影された第2現実空間映像に基づいて、前記第2現実オブジェクトに対応する第2仮想オブジェクトを前記仮想現実空間上に表示する仮想現実空間制御装置、をさらに備える上記(1)の映像投影システムである。
(3)本発明の一態様は、現実空間において前記第2現実オブジェクトの周辺の状況を示す周辺情報を取得する現実周辺情報取得装置をさらに備え、前記仮想現実空間制御装置は、前記仮想現実空間において、前記第2仮想オブジェクトを表示すると共に前記周辺情報に基づいた情報を前記仮想現実空間上で知覚し得る出力方法で出力する、上記(2)の映像投影システムである。
(4)本発明の一態様は、前記現実空間映像の投影は、前記現実オブジェクトの表面への投影により行われる、上記(1)から(3)のいずれかの映像投影システムである。
(5)本発明の一態様は、前記現実空間映像の投影は、拡張現実により行われる、上記(1)から(3)のいずれかの映像投影システムである。
(6)本発明の一態様は、前記現実オブジェクトは、拡張現実空間を構築するための現実空間上の基準点に使用される、上記(5)の映像投影システムである。
(7)本発明の一態様は、ユーザの属性情報を格納するユーザデータベースをさらに備え、前記映像投影装置は、前記第1現実空間映像を知覚するユーザの前記属性情報に基づいて、当該属性情報に合わせた前記第1現実空間映像を前記第1現実オブジェクトに投影する、上記(1)から(6)のいずれかの映像投影システムである。
(8)本発明の一態様は、オブジェクト制御装置が、仮想現実空間上の仮想オブジェクトと現実空間上の現実オブジェクトとの対応付けを行うステップと、映像投影装置が、前記仮想現実空間上の第1仮想オブジェクトに対応する現実空間上の第1現実オブジェクトに対して、前記第1仮想オブジェクトについて前記仮想現実空間上で知覚される第1仮想現実空間映像に基づいた第1現実空間映像を投影するステップと、を含む映像投影方法である。
本発明によれば、仮想現実空間と現実空間との間でよりシームレスな体験をユーザに提供することができるという効果が得られる。
一実施形態に係る映像投影システムの構成例を示すブロック図である。 一実施形態に係る映像投影装置1の構成例を示すブロック図である。 一実施形態に係る仮想現実空間制御装置4の構成例を示すブロック図である。 一実施形態に係るオブジェクト制御装置6の構成例を示すブロック図である。 一実施形態に係る映像投影方法の概念図である。 一実施形態に係る映像投影方法の手順の例を示すシーケンス図である。
以下、図面を参照し、本発明の実施形態について説明する。
図1は、一実施形態に係る映像投影システムの構成例を示すブロック図である。図1において、映像投影システムは、映像投影装置1と、ARデバイス2と、現実周辺情報取得装置3と、仮想現実空間制御装置4と、VRデバイス5と、オブジェクト制御装置6と、ユーザデータベース7とを備える。これら各装置は、インターネット等の通信ネットワークNWを介して、外部の装置との間でデータを送受する。
映像投影装置1は、現実のオブジェクト(現実オブジェクト)200に対して、現実に知覚することができる映像(現実空間映像)を投影する。現実オブジェクト200は、映像投影装置1が映像を投影する対象物である。現実オブジェクト200は、動く対象物である。映像投影装置1は、ダイナミックプロジェクションマッピングにより、動く現実オブジェクト200に追従し、現実オブジェクト200の表面に一致させながら継続的に現実空間映像を投影する。
映像投影装置1は、通信ネットワークNWを介してARデバイス2との間でデータを送受する。ARデバイス2は、拡張現実(AR)に対応したデバイスである。ARデバイス2は、例えばメガネ形状のデバイス(ARグラス)である。ARデバイス2は、ユーザに対して拡張現実空間を見せることができる。ARデバイス2は、映像投影装置1から受信する現実空間映像を現実オブジェクト200に重畳して表示する。現実オブジェクト200は、拡張現実空間を構築するための現実空間上の基準点に使用される。これにより、ARデバイス2は、ユーザに対して、映像投影装置1から受信する現実空間映像が現実オブジェクト200に重畳して表示された拡張現実空間を見せることができる。
現実周辺情報取得装置3は、現実オブジェクト200の周辺の状況を示す周辺情報を取得する。周辺情報は、例えば天候や雑踏などの状況を示す情報である。例えば、現実周辺情報取得装置3は、所定の情報配信サーバから周辺情報を取得する。例えば、現実周辺情報取得装置3は、カメラやマイクロフォンや各種のセンサなどの情報検知機器を備え、当該情報検知機器が検知した情報から周辺情報を取得する。
仮想現実空間制御装置4は、仮想現実(VR)の空間(仮想現実空間)のサービス(仮想現実空間サービス)を提供するための情報処理を実行する。仮想現実空間サービスとして、仮想のオブジェクト(仮想オブジェクト)を仮想現実空間上に表示させるサービスを提供する。仮想オブジェクトは、例えばユーザの分身として仮想現実空間上に表示されるキャラクター(アバター)である。また、仮想現実空間サービスにより、ユーザは、仮想現実空間上の自分のアバターを移動させたり向きを変えたり等の所定の操作を行うことができる。
仮想現実空間制御装置4は、通信ネットワークNWを介して、ユーザが使用するVRデバイス5との間でデータを送受する。VRデバイス5は、例えばヘッドマウントディスプレー(HMD)である。ヘッドマウントディスプレーは、装着者に対して、コンピューターグラフィックス(CG)により作られた仮想現実空間を、リアルな空間(実空間)のように見せることができる。また、ヘッドマウントディスプレーが備える各種センサーによって動きや傾きなどが検出され、装着者が仮想現実空間上を移動しているように見せたり、仮想現実空間上のオブジェクトを見る方向を変えたりすることができる。ユーザは、ヘッドマウントディスプレーが備える操作部を使用して、仮想現実空間上の自分のアバターを移動させたり向きを変えたり等の所定の操作を行うことができる。ヘッドマウントディスプレーが備える操作部は、例えば、ヘッドマウントディスプレー本体とは別個の装置として構成されるものであって、ヘッドマウントディスプレー本体との間で近距離無線通信を行う。
オブジェクト制御装置6は、通信ネットワークNWを介して、映像投影装置1及び仮想現実空間制御装置4との間でデータを送受する。オブジェクト制御装置6は、仮想現実空間上の仮想オブジェクトと現実空間上の現実オブジェクトとの対応付けを行う。
ユーザデータベース7は、映像投影システムが提供する映像投影サービスに登録された各ユーザに関する情報(ユーザ情報)を格納する。ユーザ情報は、ユーザの属性情報(ユーザ属性情報)を含む。ユーザ属性情報は、例えばユーザの嗜好を示す嗜好情報(ユーザ嗜好情報)を含む。
図2は、本実施形態に係る映像投影装置1の構成例を示すブロック図である。図2において、映像投影装置1は、通信部10と、投影制御部11と、投影部12と、を備える。
映像投影装置1の各機能は、映像投影装置1がCPU(Central Processing Unit:中央演算処理装置)及びメモリ等のコンピュータハードウェアを備え、CPUがメモリに格納されたコンピュータプログラムを実行することにより実現される。なお、映像投影装置1として、汎用のコンピュータ装置を使用して構成してもよく、又は、専用のハードウェア装置として構成してもよい。
通信部10は、通信ネットワークNWを介して、外部の装置との間でデータを送受する。
投影制御部11は、現実オブジェクト200に対して現実空間映像を投影する制御を行う。投影制御部11は、ダイナミックプロジェクションマッピングにより、動く現実オブジェクト200に追従し、現実オブジェクト200の表面に一致させながら継続的に現実空間映像を投影するように、制御を行う。
投影部12は、投影制御部11によって制御される現実空間映像を現実オブジェクト200に投影する。
また、投影制御部11は、ARデバイス2に対して、現実オブジェクト200に重畳して表示される現実空間映像を送信する。
図3は、本実施形態に係る仮想現実空間制御装置4の構成例を示すブロック図である。図3において、仮想現実空間制御装置4は、通信部40と、仮想オブジェクト制御部41と、仮想現実空間映像処理部42と、を備える。
仮想現実空間制御装置4の各機能は、仮想現実空間制御装置4がCPU及びメモリ等のコンピュータハードウェアを備え、CPUがメモリに格納されたコンピュータプログラムを実行することにより実現される。なお、仮想現実空間制御装置4として、汎用のコンピュータ装置を使用して構成してもよく、又は、専用のハードウェア装置として構成してもよい。例えば、仮想現実空間制御装置4は、インターネット等の通信ネットワークに接続されるサーバコンピュータを使用して構成されてもよい。また、仮想現実空間制御装置4の各機能はクラウドコンピューティングにより実現されてもよい。また、仮想現実空間制御装置4は、単独のコンピュータにより実現するものであってもよく、又は仮想現実空間制御装置4の機能を複数のコンピュータに分散させて実現するものであってもよい。また、仮想現実空間制御装置4として、例えばWWWシステム等を利用してウェブサイトを開設するように構成してもよい。
通信部40は、通信ネットワークNWを介して、外部の装置との間でデータを送受する。
仮想オブジェクト制御部41は、オブジェクト制御装置6との間で、仮想現実空間上の仮想オブジェクトと現実空間上の現実オブジェクトとを対応付ける制御を行う。
仮想現実空間映像処理部42は、ユーザに対して仮想現実空間を見せるための仮想現実空間映像をVRデバイス5へ送信する。仮想現実空間映像は、例えばヘッドマウントディスプレーで表示されることにより、コンピューターグラフィックスにより作られた仮想現実空間を装着者に対して実空間のように見せることができる映像である。
図4は、本実施形態に係るオブジェクト制御装置6の構成例を示すブロック図である。図4において、オブジェクト制御装置6は、通信部60と、オブジェクト対応付け制御部61と、を備える。
オブジェクト制御装置6の各機能は、オブジェクト制御装置6がCPU及びメモリ等のコンピュータハードウェアを備え、CPUがメモリに格納されたコンピュータプログラムを実行することにより実現される。なお、オブジェクト制御装置6として、汎用のコンピュータ装置を使用して構成してもよく、又は、専用のハードウェア装置として構成してもよい。例えば、オブジェクト制御装置6は、インターネット等の通信ネットワークに接続されるサーバコンピュータを使用して構成されてもよい。また、オブジェクト制御装置6の各機能はクラウドコンピューティングにより実現されてもよい。また、オブジェクト制御装置6は、単独のコンピュータにより実現するものであってもよく、又はオブジェクト制御装置6の機能を複数のコンピュータに分散させて実現するものであってもよい。また、オブジェクト制御装置6として、例えばWWWシステム等を利用してウェブサイトを開設するように構成してもよい。
通信部60は、通信ネットワークNWを介して、外部の装置との間でデータを送受する。
オブジェクト対応付け制御部61は、仮想現実空間制御装置4との間で、仮想現実空間上の仮想オブジェクトと現実空間上の現実オブジェクトとを対応付ける制御を行う。
図5は、本実施形態に係る映像投影方法の概念図である。図5において、仮想現実空間上には仮想オブジェクト100が表示されている。仮想オブジェクト100は、例えばユーザのアバターである。また、現実空間には現実オブジェクト200が実在している。現実オブジェクト200は、例えばロボットである。当該ロボットは、自律的に動くロボットであってもよく、又は人の操作によって動くロボットであってもよい。
オブジェクト制御装置6(オブジェクト対応付け制御部61)は、仮想現実空間制御装置4(仮想オブジェクト制御部41)との間で、仮想オブジェクト100と現実オブジェクト200との対応付けを行う。また、映像投影装置1には、映像を投影する対象物として現実オブジェクト200が設定される。
仮想現実空間制御装置4(仮想現実空間映像処理部42)は、仮想現実空間上に表示される仮想オブジェクト100の映像(仮想現実空間映像)を映像投影装置1へ送信する。映像投影装置1は、仮想現実空間制御装置4から受信した仮想オブジェクト100の映像に基づいた現実空間映像を、ダイナミックプロジェクションマッピングにより現実オブジェクト200に投影する。映像投影装置1は、ダイナミックプロジェクションマッピングにより、動く現実オブジェクト200に追従し、現実オブジェクト200の表面に一致させながら継続的に当該現実空間映像を投影する。
これにより、現実空間に実在するユーザ210に対して、現実オブジェクト200(例えばロボット)があたかも仮想オブジェクト100(例えば仮想現実空間上のアバター)に変身したと知覚させることができる。
また、映像投影装置1は、ARデバイス2に対して、現実オブジェクト200に重畳して表示される当該現実空間映像を送信する。ARデバイス2は、映像投影装置1から受信する当該現実空間映像を現実オブジェクト200(例えばロボット)に重畳して表示する。現実オブジェクト200は、拡張現実空間を構築するための現実空間上の基準点に使用される。これにより、ARデバイス2は、ユーザに対して、映像投影装置1から受信する当該現実空間映像が現実オブジェクト200(例えばロボット)に重畳して表示された拡張現実空間を見せることができる。例えば、ARグラスを装着したユーザに対して、仮想現実空間上のアバターが現実空間のロボット上にマッピングされ、あたかもそこに飛び出してきたかのように知覚させることができる(疑似ホログラム)。
次に図6を参照して本実施形態に係る映像投影方法の手順を説明する。図6は、本実施形態に係る映像投影方法の手順の例を示すシーケンス図である。
オブジェクト制御装置6には、現実オブジェクト200(例えばロボット)の情報(現実空間上の位置や姿勢など)と、当該現実オブジェクト200に映像を投影する映像投影装置1の通信アドレスとが予め設定される。また、オブジェクト制御装置6には、現実オブジェクト200に対応付ける仮想オブジェクト100(例えば仮想現実空間上のアバター)を示す識別情報(仮想オブジェクトID)が予め設定される。
(ステップS101) オブジェクト制御装置6のオブジェクト対応付け制御部61は、仮想現実空間制御装置4(仮想オブジェクト制御部41)に対して仮想オブジェクトID及び映像投影装置1の通信アドレスを通知し、仮想現実空間制御装置4(仮想オブジェクト制御部41)との間で、当該仮想オブジェクトIDの仮想オブジェクト100と現実オブジェクト200との対応付けを行う。仮想オブジェクト制御部41は、当該仮想オブジェクトIDを現実オブジェクト200に対応付ける仮想オブジェクト100の仮想オブジェクトID(現実対応付け仮想オブジェクトID)に設定すると共に、オブジェクト制御装置6から通知された映像投影装置1の通信アドレスを当該現実対応付け仮想オブジェクトIDに関連付けて記録する。
(ステップS102) オブジェクト制御装置6のオブジェクト対応付け制御部61は、映像投影装置1に対して、現実オブジェクト200の情報(現実空間上の位置や姿勢など)を通知する。映像投影装置1の投影制御部11は、オブジェクト制御装置6から通知された現実オブジェクト200の情報に基づいて、ダイナミックプロジェクションマッピングにより映像を投影する対象物として現実オブジェクト200を設定する。
(ステップS103) 仮想現実空間制御装置4の仮想現実空間映像処理部42は、仮想現実空間上に表示される現実対応付け仮想オブジェクトIDの仮想オブジェクト100の映像(仮想現実空間映像)を、当該現実対応付け仮想オブジェクトIDに関連付けられた映像投影装置1の通信アドレスを宛先アドレスにして送信する。
(ステップS104) 映像投影装置1の投影制御部11は、仮想現実空間制御装置4から受信する仮想オブジェクト100の映像に基づいた現実空間映像を、ダイナミックプロジェクションマッピングにより現実オブジェクト200に投影する制御を行う。投影制御部11は、ダイナミックプロジェクションマッピングにより、動く現実オブジェクト200に追従し、現実オブジェクト200の表面に一致させながら継続的に当該現実空間映像を投影するように、制御を行う。映像投影装置1の投影部12は、投影制御部11によって制御される当該現実空間映像を現実オブジェクト200に投影する。これにより、現実空間に実在するユーザ210に対して、現実オブジェクト200(例えばロボット)があたかも仮想オブジェクト100(例えば仮想現実空間上のアバター)に変身したと知覚させることができる。
また、映像投影装置1の投影制御部11は、ARデバイス2に対して、現実オブジェクト200に重畳して表示される当該現実空間映像を送信する。ARデバイス2は、映像投影装置1から受信する当該現実空間映像を現実オブジェクト200(例えばロボット)に重畳して表示する。現実オブジェクト200は、拡張現実空間を構築するための現実空間上の基準点に使用される。これにより、例えば、ARグラスを装着したユーザに対して、仮想現実空間上のアバターが現実空間のロボット上にマッピングされ、あたかもそこに飛び出してきたかのように知覚させることができる。
なお、映像投影装置1の投影制御部11は、現実オブジェクト200に投影される現実空間映像を知覚するユーザのユーザ属性情報に基づいて、当該ユーザ属性情報に合わせた現実空間映像を現実オブジェクト200に投影してもよい。当該ユーザは、映像投影装置1に予め設定される。ユーザ属性情報は、ユーザデータベース7から取得される。例えば、仮想オブジェクト100が「犬」の仮想オブジェクトである場合、投影制御部11は、仮想オブジェクト100の映像(犬のアバターの映像)に基づいた現実空間映像として、当該ユーザのユーザ属性情報に示される好みの犬種の映像を現実オブジェクト200に投影する制御を行う。当該犬種の映像は、所定の映像データベース(図示せず)から取得される。
また、上述した実施形態では、現実オブジェクト200(第1現実オブジェクト)に対して仮想オブジェクト100(第1仮想オブジェクト)の映像(第1仮想現実空間映像)に基づいた現実空間映像(第1現実空間映像)を投影したが、第1現実オブジェクトとは異なる現実オブジェクト200(第2現実オブジェクト)に投影された現実空間映像(第2現実空間映像)に基づいて当該現実オブジェクト200(第2現実オブジェクト)に対応する仮想オブジェクト(第2仮想オブジェクト)を仮想現実空間上に表示するようにしてもよい。
仮想現実空間制御装置4は、映像投影装置1から第2現実オブジェクトに投影された第2現実空間映像を受信する。仮想現実空間制御装置4の仮想現実空間映像処理部42は、当該第2現実空間映像に基づいて当該第2現実オブジェクトに対応する第2仮想オブジェクトを仮想現実空間上に表示する。
また、仮想現実空間制御装置4の仮想現実空間映像処理部42は、仮想現実空間において、第2仮想オブジェクトを表示すると共に、第2現実オブジェクトの周辺の状況を示す周辺情報に基づいた情報を仮想現実空間上で知覚し得る出力方法で出力してもよい。第2現実オブジェクトの周辺の状況を示す周辺情報は、現実周辺情報取得装置3から取得される。例えば、仮想現実空間映像処理部42は、第2現実オブジェクト周辺の天候を示す周辺情報に基づいた降雨の情報を、仮想現実空間上で知覚し得る映像や音で出力する。例えば、仮想現実空間映像処理部42は、第2現実オブジェクト周辺の雑踏を示す周辺情報に基づいた人込みの情報を、仮想現実空間上で知覚し得る映像や音で出力する。
上述した実施形態によれば、仮想現実空間と現実空間との間でよりシームレスな体験をユーザに提供することができるという効果が得られる。
なお、これにより、例えば仮想現実空間サービスを提供するシステムにおける総合的なサービス品質の向上を実現することができることから、国連が主導する持続可能な開発目標(SDGs)の目標9「レジリエントなインフラを整備し、持続可能な産業化を推進するとともに、イノベーションの拡大を図る」に貢献することが可能となる。
以上、本発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、本発明の要旨を逸脱しない範囲の設計変更等も含まれる。
例えば、仮想現実空間制御装置4が仮想オブジェクト100(例えばアバター)を操作することに連動して現実オブジェクト200(例えばロボット)が操作されるように構成してもよい。具体的には、現実オブジェクト200は、通信ネットワークNWに接続し、通信ネットワークNWを介して仮想現実空間制御装置4との間でデータを送受する。仮想現実空間制御装置4は、仮想オブジェクト100に対する操作データを、現実オブジェクト200に対応する操作データに変換して現実オブジェクト200へ送信する。現実オブジェクト200は、仮想現実空間制御装置4から受信した操作データに従って動作する。これにより、仮想オブジェクト100(例えばアバター)の動作に連動して動作する現実オブジェクト200(例えばロボット)に対して、当該仮想オブジェクト100の映像に基づいた現実空間映像が投影されるので、ユーザに対して、仮想現実空間と現実空間との間のより一層のシームレスな体験を提供することができる。なお、仮想オブジェクト100に対する操作データを現実オブジェクト200に対応する操作データに変換する機能は、現実オブジェクト200が備えてもよく、又は仮想現実空間制御装置4や現実オブジェクト200とは別個に当該変換機能を備えた装置を設けてもよい。
なお、現実オブジェクト200を操作することに連動して仮想オブジェクト100が操作されるように構成してもよい。オブジェクト制御装置6が現実オブジェクト200に対する操作データを仮想オブジェクト100に対する操作データに変換して仮想現実空間制御装置4へ送信する。仮想現実空間制御装置4は、受信した操作データに従って操作した仮想オブジェクト100の映像を映像投影装置1へ送信する。なお、現実オブジェクト200に対する操作データを仮想オブジェクト100に対する操作データに変換する機能は、現実オブジェクト200が備えてもよく、又は仮想現実空間制御装置4が備えてもよく、又は仮想現実空間制御装置4や現実オブジェクト200とは別個に当該変換機能を備えた装置を設けてもよい。
また、上述した各装置の機能を実現するためのコンピュータプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行するようにしてもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものであってもよい。また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、フラッシュメモリ等の書き込み可能な不揮発性メモリ、DVD(Digital Versatile Disc)等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。
さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(例えばDRAM(Dynamic Random Access Memory))のように、一定時間プログラムを保持しているものも含むものとする。
また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。
また、上記プログラムは、前述した機能の一部を実現するためのものであってもよい。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。
1…映像投影装置、2…ARデバイス、3…現実周辺情報取得装置、4…仮想現実空間制御装置、5…VRデバイス、6…オブジェクト制御装置、7…ユーザデータベース、NW…通信ネットワーク、10,40,60…通信部、11…投影制御部、12…投影部、41…仮想オブジェクト制御部、42…仮想現実空間映像処理部、61…オブジェクト対応付け制御部
(1)本発明の一態様は、仮想現実空間上の仮想オブジェクトと現実空間上の現実オブジェクトとの対応付けを行うオブジェクト制御装置と、前記仮想現実空間上の第1仮想オブジェクトに対応する現実空間上の第1現実オブジェクトに対して、前記第1仮想オブジェクトについて前記仮想現実空間上で知覚される第1仮想現実空間映像に基づいた第1現実空間映像を投影する映像投影装置と、を備え、前記第1仮想オブジェクトは、装着者に拡張現実空間を見せることができるARデバイスを装着したユーザに関連する仮想オブジェクトであり、前記映像投影装置は、前記ARデバイスに対して、前記第1現実オブジェクトに重畳して表示される前記第1現実空間映像を送信する、映像投影システムである。
(2)本発明の一態様は、前記ユーザに関連する仮想オブジェクトは、前記ユーザの分身であるアバターである、上記(1)の映像投影システムである。
(3)本発明の一態様は、仮想現実空間制御装置をさらに備え、前記映像投影装置は、現実空間上の第2現実オブジェクトに第2現実空間映像を投影し、前記第2現実オブジェクトの投影に用いられた前記第2現実空間映像を前記仮想現実空間制御装置へ送信し、前記仮想現実空間制御装置は、前記映像投影装置から受信した前記第2現実空間映像に基づいて、前記第2現実オブジェクトに対応する第2仮想オブジェクトを前記仮想現実空間上に配置する、上記(1)又は(2)のいずれか1項に記載の映像投影システムである。
(4)本発明の一態様は、現実空間において前記第2現実オブジェクトの周辺の状況を示す周辺情報を取得する現実周辺情報取得装置をさらに備え、前記仮想現実空間制御装置は、前記仮想現実空間において、前記第2仮想オブジェクトを配置すると共に前記周辺情報に基づいた情報を前記仮想現実空間上で知覚し得る出力方法で出力する、上記()の映像投影システムである。
)本発明の一態様は、前記第1現実オブジェクトは、前記拡張現実空間を構築するための現実空間上の基準点に使用される、上記(1)から()のいずれかの映像投影システムである。
)本発明の一態様は、ユーザの属性情報を格納するユーザデータベースをさらに備え、前記映像投影装置は、前記第1現実空間映像を知覚するユーザの前記属性情報に基づいて、当該属性情報に合わせた前記第1現実空間映像を前記第1現実オブジェクトに投影する、上記(1)から()のいずれかの映像投影システムである。
)本発明の一態様は、オブジェクト制御装置が、仮想現実空間上の仮想オブジェクトと現実空間上の現実オブジェクトとの対応付けを行うステップと、映像投影装置が、前記仮想現実空間上の第1仮想オブジェクトに対応する現実空間上の第1現実オブジェクトに対して、前記第1仮想オブジェクトについて前記仮想現実空間上で知覚される第1仮想現実空間映像に基づいた第1現実空間映像を投影するステップと、を含む映像投影方法であって、前記第1仮想オブジェクトは、装着者に拡張現実空間を見せることができるARデバイスを装着したユーザに関連する仮想オブジェクトであり、前記映像投影装置は、前記ARデバイスに対して、前記第1現実オブジェクトに重畳して表示される前記第1現実空間映像を送信する、映像投影方法である。
(1)本発明の一態様は、仮想現実空間上の仮想オブジェクトと現実空間上の現実オブジェクトとの対応付けを行うオブジェクト制御装置と、前記仮想現実空間上の第1仮想オブジェクトに対応する現実空間上の第1現実オブジェクトに対して、前記第1仮想オブジェクトについて前記仮想現実空間上で知覚される第1仮想現実空間映像に基づいた第1現実空間映像を投影する映像投影装置と、を備え、前記第1仮想オブジェクトは、装着者に拡張現実空間を見せることができるARデバイスを装着したユーザに関連する仮想オブジェクトであり、前記映像投影装置は、前記ARデバイスに対して、前記第1現実オブジェクトに重畳して表示される前記第1現実空間映像を送信する、映像投影システムである。
(2)本発明の一態様は、前記ユーザに関連する仮想オブジェクトは、前記ユーザの分身であるアバターである、上記(1)の映像投影システムである。
(3)本発明の一態様は、仮想現実空間制御装置をさらに備え、前記映像投影装置は、現実空間上の第2現実オブジェクトに第2現実空間映像を投影し、前記第2現実オブジェクトの投影に用いられた前記第2現実空間映像を前記仮想現実空間制御装置へ送信し、前記仮想現実空間制御装置は、前記映像投影装置から受信した前記第2現実空間映像に基づいて、前記第2現実オブジェクトに対応する第2仮想オブジェクトを前記仮想現実空間上に配置前記仮想現実空間制御装置は、前記第2仮想オブジェクトが配置された仮想現実空間をVRデバイスのユーザに見せるための仮想現実空間映像を、前記VRデバイスへ送信する、上記(1)又は(2)のいずれか1項に記載の映像投影システムである。
(4)本発明の一態様は、現実空間において前記第2現実オブジェクトの周辺の状況を示す周辺情報を取得する現実周辺情報取得装置をさらに備え、前記仮想現実空間制御装置は、前記仮想現実空間において、前記第2仮想オブジェクトを配置すると共に前記周辺情報に基づいた情報を前記仮想現実空間上で知覚し得る出力方法で出力する、上記(3)の映像投影システムである。
(5)本発明の一態様は、前記第1現実オブジェクトは、前記拡張現実空間を構築するための現実空間上の基準点に使用される、上記(1)から(4)のいずれかの映像投影システムである。
(6)本発明の一態様は、ユーザの属性情報を格納するユーザデータベースをさらに備え、前記映像投影装置は、前記第1現実空間映像を知覚するユーザの前記属性情報に基づいて、当該属性情報に合わせた前記第1現実空間映像を前記第1現実オブジェクトに投影する、上記(1)から(5)のいずれかの映像投影システムである。

Claims (8)

  1. 仮想現実空間上の仮想オブジェクトと現実空間上の現実オブジェクトとの対応付けを行うオブジェクト制御装置と、
    前記仮想現実空間上の第1仮想オブジェクトに対応する現実空間上の第1現実オブジェクトに対して、前記第1仮想オブジェクトについて前記仮想現実空間上で知覚される第1仮想現実空間映像に基づいた第1現実空間映像を投影する映像投影装置と、
    を備える映像投影システム。
  2. 現実空間上の第2現実オブジェクトに投影された第2現実空間映像に基づいて、前記第2現実オブジェクトに対応する第2仮想オブジェクトを前記仮想現実空間上に表示する仮想現実空間制御装置、
    をさらに備える請求項1に記載の映像投影システム。
  3. 現実空間において前記第2現実オブジェクトの周辺の状況を示す周辺情報を取得する現実周辺情報取得装置をさらに備え、
    前記仮想現実空間制御装置は、前記仮想現実空間において、前記第2仮想オブジェクトを表示すると共に前記周辺情報に基づいた情報を前記仮想現実空間上で知覚し得る出力方法で出力する、
    請求項2に記載の映像投影システム。
  4. 前記現実空間映像の投影は、前記現実オブジェクトの表面への投影により行われる、
    請求項1から3のいずれか1項に記載の映像投影システム。
  5. 前記現実空間映像の投影は、拡張現実により行われる、
    請求項1から3のいずれか1項に記載の映像投影システム。
  6. 前記現実オブジェクトは、拡張現実空間を構築するための現実空間上の基準点に使用される、
    請求項5に記載の映像投影システム。
  7. ユーザの属性情報を格納するユーザデータベースをさらに備え、
    前記映像投影装置は、前記第1現実空間映像を知覚するユーザの前記属性情報に基づいて、当該属性情報に合わせた前記第1現実空間映像を前記第1現実オブジェクトに投影する、
    請求項1から6のいずれか1項に記載の映像投影システム。
  8. オブジェクト制御装置が、仮想現実空間上の仮想オブジェクトと現実空間上の現実オブジェクトとの対応付けを行うステップと、
    映像投影装置が、前記仮想現実空間上の第1仮想オブジェクトに対応する現実空間上の第1現実オブジェクトに対して、前記第1仮想オブジェクトについて前記仮想現実空間上で知覚される第1仮想現実空間映像に基づいた第1現実空間映像を投影するステップと、
    を含む映像投影方法。
JP2022060570A 2022-03-31 2022-03-31 映像投影システム及び映像投影方法 Active JP7281576B1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022060570A JP7281576B1 (ja) 2022-03-31 2022-03-31 映像投影システム及び映像投影方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022060570A JP7281576B1 (ja) 2022-03-31 2022-03-31 映像投影システム及び映像投影方法

Publications (2)

Publication Number Publication Date
JP7281576B1 JP7281576B1 (ja) 2023-05-25
JP2023151126A true JP2023151126A (ja) 2023-10-16

Family

ID=86395917

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022060570A Active JP7281576B1 (ja) 2022-03-31 2022-03-31 映像投影システム及び映像投影方法

Country Status (1)

Country Link
JP (1) JP7281576B1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016136311A1 (ja) * 2015-02-27 2016-09-01 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
JP2017138907A (ja) * 2016-02-05 2017-08-10 凸版印刷株式会社 三次元仮想空間提示システム、三次元仮想空間提示方法及びプログラム
JP2018056924A (ja) * 2016-09-30 2018-04-05 匡佑 安本 画像表示装置、及びこれを用いた仮想現実インタフェースデバイス
WO2018167918A1 (ja) * 2017-03-16 2018-09-20 Necディスプレイソリューションズ株式会社 プロジェクタ、マッピング用データ作成方法、プログラム及びプロジェクションマッピングシステム
JP2022024189A (ja) * 2018-09-27 2022-02-09 株式会社Preferred Networks 学習用データ作成方法、学習用データ作成装置及びプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016136311A1 (ja) * 2015-02-27 2016-09-01 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
JP2017138907A (ja) * 2016-02-05 2017-08-10 凸版印刷株式会社 三次元仮想空間提示システム、三次元仮想空間提示方法及びプログラム
JP2018056924A (ja) * 2016-09-30 2018-04-05 匡佑 安本 画像表示装置、及びこれを用いた仮想現実インタフェースデバイス
WO2018167918A1 (ja) * 2017-03-16 2018-09-20 Necディスプレイソリューションズ株式会社 プロジェクタ、マッピング用データ作成方法、プログラム及びプロジェクションマッピングシステム
JP2022024189A (ja) * 2018-09-27 2022-02-09 株式会社Preferred Networks 学習用データ作成方法、学習用データ作成装置及びプログラム

Also Published As

Publication number Publication date
JP7281576B1 (ja) 2023-05-25

Similar Documents

Publication Publication Date Title
JP7445642B2 (ja) クロスリアリティシステム
JP7013420B2 (ja) モバイルデバイスの位置特定
US10055888B2 (en) Producing and consuming metadata within multi-dimensional data
CN103180893B (zh) 用于提供三维用户界面的方法和***
RU2621644C2 (ru) Мир массового одновременного удаленного цифрового присутствия
CN115398314A (zh) 使用多分辨率帧描述符进行地图处理的交叉现实***
CN115461787A (zh) 具有快速定位的交叉现实***
JP6462059B1 (ja) 情報処理方法、情報処理プログラム、情報処理システム、および情報処理装置
KR20140033144A (ko) 용적 방식 비디오 표현 기법
JP2016522463A5 (ja)
US10379345B2 (en) Virtual expansion of desktop
JP2018525721A (ja) コンテンツ閲覧
JP2023130426A (ja) 複合現実における空間命令およびガイド
CN110622110B (zh) 提供沉浸式现实内容的方法和装置
US20190035152A1 (en) Augmented reality sensor
US20180290057A1 (en) Dynamic scaling of augmented reality-based game
CN112272817B (zh) 用于在沉浸式现实中提供音频内容的方法和装置
CN113544748A (zh) 交叉现实***
KR20180134521A (ko) 실 공간 기반의 가상 콘텐츠 제공 방법 및 이를 위한 장치
CN106687944A (zh) 使用语言生成进行的基于活动的文本重写
JP7281576B1 (ja) 映像投影システム及び映像投影方法
JP2020509706A (ja) 仮想現実映像の再生方法及びこれを用いたプログラム
KR20200144702A (ko) 증강 현실 미디어 콘텐츠의 적응적 스트리밍 시스템 및 적응적 스트리밍 방법
TWI718551B (zh) 線上內容立體顯示方法與系統
JP2023518882A (ja) 拡張現実コンテンツ提供のための装置および方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220527

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20220527

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220809

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221006

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230130

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230425

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230515

R150 Certificate of patent or registration of utility model

Ref document number: 7281576

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150