JP7413122B2 - 画像生成システム、画像生成装置及び画像生成方法 - Google Patents

画像生成システム、画像生成装置及び画像生成方法 Download PDF

Info

Publication number
JP7413122B2
JP7413122B2 JP2020060666A JP2020060666A JP7413122B2 JP 7413122 B2 JP7413122 B2 JP 7413122B2 JP 2020060666 A JP2020060666 A JP 2020060666A JP 2020060666 A JP2020060666 A JP 2020060666A JP 7413122 B2 JP7413122 B2 JP 7413122B2
Authority
JP
Japan
Prior art keywords
user
display image
display
information
target object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020060666A
Other languages
English (en)
Other versions
JP2021162876A (ja
Inventor
裕史 井上
乘 西山
雄宇 志小田
剛仁 寺口
翔太 大久保
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Renault SAS
Original Assignee
Renault SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Renault SAS filed Critical Renault SAS
Priority to JP2020060666A priority Critical patent/JP7413122B2/ja
Publication of JP2021162876A publication Critical patent/JP2021162876A/ja
Application granted granted Critical
Publication of JP7413122B2 publication Critical patent/JP7413122B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、画像生成システム、画像生成装置及び画像生成方法に関するものである。
ユーザのコンピュータゲームの能力値等に基づいて、ユーザの頭部や視線の動きを含むユーザ姿勢情報を他のユーザに公開すると決定された場合に、ユーザ姿勢情報に基づき、仮想現実空間においてユーザを表すアバター画像を表示する技術が知られている(特許文献1)。
特開2017-102639号公報
しかしながら、特許文献1記載の技術では、ユーザが手で物を取り扱った場合、ユーザが触れている物が他のユーザに表示されないため、他のユーザは、ユーザのアバター画像から、ユーザが何に触れているのかが理解できないという問題がある。
本発明が解決しようとする課題は、ユーザが手で物を取り扱った場合、ユーザが何に触れているのかを他のユーザが理解できる画像生成システム、画像生成装置及び画像生成方法を提供することである。
本発明は、ユーザの情報及びユーザが存在する空間内の情報を含む空間情報を取得し、ユーザの情報に基づきユーザを表す第1表示画像を生成し、空間情報に基づいて、ユーザの周囲に位置する対象物を特定し、空間情報に基づいて、ユーザの体の一部が対象物に接触したか否かを判定し、ユーザの体の一部が対象物に接触したと判定される場合には、対象物を表す第2表示画像を生成し、他ユーザに第1表示画像及び前記第2表示画像を表示することによって上記課題を解決する。
本発明によれば、ユーザが手で物を取り扱った場合、ユーザが何に触れているのかを他のユーザが理解できる。
図1は、本実施形態にかかる表示画像生成システムの一例を示す構成図である。 図2は、本実施形態が適用される場面の一例を示す図である。 図3は、本実施形態にかかる表示端末に表示される表示画面の一例を示す図である。 図4は、本実施形態にかかる表示画像生成制御の一例を示すフローチャートである。 図5は、本実施形態にかかる表示画像生成制御の一例を示すフローチャートである。
以下、本発明に係る表示画像生成システムの一実施形態を図面に基づいて説明する。
図1は、本願発明の実施形態にかかる表示画像生成システム1の一例を示すブロック図である。図1に示すように、本実施形態における表示画像生成システム1は、コントローラ10と、センサ群11と、空間検出カメラ12と、ユーザ表示端末13と、他ユーザ表示端末14とを含む。本実施形態では、ユーザが車両100内にいて、他ユーザが車両100とは異なる他の空間(例えば、他ユーザの自室)にいて、それぞれユーザはユーザ表示端末13を装着し、他ユーザは他ユーザ表示端末14を装着している場面を想定している。このとき、ユーザは、ユーザ表示端末13を介して、車両100内の実際の光景に、隣に座っている他ユーザのアバターが表示されている拡張現実(AR)空間を見ている。一方で、他ユーザは、他ユーザ表示端末14を介して、自分が車両100内でユーザの隣に座っているかのような仮想現実(VR)空間を見ている。なお、これに限らず、ユーザが車両内ではなく、自室にいて、ユーザ表示端末13を装着している場面に適用されることとしてもよい。また、本実施形態では、コントローラ10、センサ群11及び空間検出カメラ12は車両100に設置されていることとしている。そして、コントローラ10は、センサ群11、空間検出カメラ12及びユーザ表示端末13と、有線ケーブルによって通信可能に接続していて、コントローラ10と他ユーザ表示端末14は、無線通信によって通信可能に接続されている。
コントローラ10は、ユーザが存在する車両100内の空間情報を取得し、空間情報に基づき、他ユーザに表示するための画像を生成して、生成した画像を他ユーザ表示端末14に送信する。コントローラ10は、ハードウェア及びソフトウェアを有するコンピュータを備えており、このコンピュータはプログラムを格納したROM(Read Only Memory)と、ROMに格納されたプログラムを実行するCPU(Central Processing Unit)と、アクセス可能な記憶装置として機能するRAM(Random Access Memory)を含むものである。コントローラ10は、機能ブロックとして、情報取得部101と、対象物特定部102と、接触状態判定部103と、表示画像制御部104と、情報共有制御部105と、通信部106とを備え、上記各部の機能を実現する又は各処理を実行するためのソフトウェアと、ハードウェアとの協働により各機能を実行する。また、コントローラ10が生成する画像は、例えば、車両内の情報に基づき構築された仮想現実空間を表す画像であり、ユーザの顔や身体などを視覚的に表現したアバター画像を含むものである。コントローラ10で生成された画像は、他ユーザ表示端末14を介して他ユーザに表示される。なお、本実施形態では、コントローラ10が、車両100内の空間情報を取得し、空間情報に基づき、画像を生成し、他ユーザ表示端末14に画像を送信することとしているが、これに限らず、例えば、他ユーザ表示端末14が車両100内の空間情報を直接取得し、空間情報に基づき生成した画像を表示することとしてもよい。
情報取得部101は、ユーザの情報及びユーザが存在する車両100内の情報を含む空間情報を取得する。ユーザの情報は、センサ群11が取得したユーザの姿勢情報及びユーザのアバター画像情報を含む。センサ群11が取得するユーザの姿勢情報としては、例えば、ユーザの視線や顔の向き、手の動きに関する情報である。また、情報取得部101は、空間検出カメラ12が取得した車両100内の空間内情報を取得する。空間内情報は、ユーザの周囲に位置する対象物を含む。
対象物特定部102は、取得した車両100内の空間内情報に基づき、ユーザの周囲にある対象物を特定する。具体的には、対象物特定部102は、画像認識により、空間内情報に含まれる画像データから、対象物の特徴を抽出し、対象物の種別を識別する。対象物の種別は、例えば、ノートパソコンやPCの操作系であるキーボードやマウス、スマートフォン、タブレット端末、リモコン等の操作デバイスが挙げられる。操作デバイスは、外部からの入力に基づいて所定の機能を実行させる装置である。操作デバイス以外の対象物の種別は、コップや文房具等の手で動かすものが挙げられる。また、このとき、対象物特定部102は、識別した対象物の種別に基づいて、対象物が操作デバイスであるか否かを特定する。さらに、対象物特定部102は、対象物が操作デバイスである場合には、操作デバイスである対象物に表示画面(ディスプレイ)が備えられているか否かを特定する。
接触状態判定部103は、対象物特定部102が特定した対象物について、当該対象物にユーザの体の一部が接触したか否かを判定する。対象物にユーザの体の一部が接触した状態とは、ユーザが対象物を操作している状態または手で動かしている状態であり、例えば、PCやスマートフォンを操作することや、コップを手で持っていることを指す。体の一部とは、例えば、手や頭部を含む。まず、接触状態判定部103は、情報取得部101により取得されたユーザの情報と、対象物特定部102による対象物認識に基づいて、ユーザの体の一部が対象物に接触したか否かを判定する。そして、接触状態判定部103は、判定結果の情報を表示画像制御部104に出力する。具体的には、接触状態判定部103は、情報取得部101により取得されたユーザの情報と、対象物特定部102による対象物認識に基づいて、画像認識によりユーザの体の一部と対象物を特定し、特定されたユーザの体の一部と対象物との距離を測定する。そして、接触状態判定部103は、当該距離が所定値未満またはゼロである場合に、ユーザの体の一部が対象物に接触したと判定する。接触状態判定部103は、当該距離が所定値以上である場合には、ユーザの体の一部が対象物に接触したと判定しない。例えば、まず、接触状態判定部103は、画像認識により、手の特徴を抽出して、ユーザの手を特定し、対象物を特定し、対象物とユーザの手との間の距離を測定する。そして、当該距離が所定値未満またはゼロである場合に、ユーザの手が対象物に接触したと判定する。また、対象物が操作デバイスである場合には、操作デバイスとコントローラ10とを接続させて、操作デバイスに操作入力があれば、入力信号を操作デバイスから接触状態判定部103に出力させることとしてもよい。入力方法は、例えば、キーボードのタイピングやマウス操作、タッチパネルへのタッチが挙げられる。そして、接触状態判定部103が、入力信号を受けると、ユーザの体の一部が対象物に接触したと判定する。
また、本実施形態では、接触状態判定部103は、所定の時間間隔でユーザの体の一部が対象物に接触したか否かを判定する。また、ユーザの体の一部が対象物に接触したと判定された場合には、接触状態判定部103は、ユーザの体の一部が対象物に接触したと判定された後所定時間内にユーザの体の一部が対象物に接触したか否かを判定する。所定時間は、後述する第2表示画像が表示されている時間である。接触状態判定部103は、当該所定時間内にユーザの体の一部が対象物に接触したと判定されなかった場合には、ユーザの体の一部が対象物に接触したと判定されなかったことを示す判定結果の情報を表示画像制御部104に出力する。すなわち、接触状態判定部103は、当該所定時間の間は、所定の時間間隔ごとに判定結果を出力するのではなく、当該所定時間の間、所定の時間間隔ごとに実行される判定において一度も、ユーザの体の一部が対象物に接触したと判定されなかったときに、当該所定時間内にユーザの体の一部が対象物に接触したと判定されなかったということを示す判定結果の情報を出力する。これにより、第2表示画像が表示されている所定時間の間は、ユーザの体の一部が対象物に接触していない瞬間があったとしても、第2表示画像の表示を維持し続けることができる。これは、第2表示画像が表示されているときに、消えたり表示されたりすることが頻繁に繰り返されるのを防止するためである。また、第2表示画像が表示されていない時には、接触状態判定部103は、所定の時間間隔の判定において、ユーザの体の一部が対象物に接触したと判定されない場合には、その都度、判定結果の情報を出力する。また、接触状態判定部103は、当該所定時間内に、ユーザの体の一部が対象物に接触したと判定された場合には、所定時間内であっても、判定結果を出力する。
表示画像制御部104は、情報取得部101が取得した車両100内の空間情報に基づき表示画像を生成する。例えば、仮想現実空間画像であり、車両100内の空間情報に基づき構築された仮想現実空間を示す画像を生成する。また、ユーザのアバター画像を表す第1表示画像を生成する。表示画像制御部104は、情報取得部101が取得したユーザの姿勢情報に基づいて第1表示画像を生成する。例えば、表示画像制御部104は、ユーザの姿勢情報によって示される方向にユーザのアバターの視線や顔が向いていて、ユーザの姿勢情報によって示される位置に手が位置しているユーザのアバター画像を生成する。なお、表示画像制御部104は、アバター画像を生成し、アバター画像と、情報取得部101が取得したユーザの姿勢情報をそれぞれ他ユーザ表示端末14に送信し、他ユーザ端末出力部141において、アバター画像を、ユーザの姿勢情報に基づいて制御して表示することとしてもよい。
また、表示画像制御部104は、ユーザの周囲に存在する対象物を表す対象物画像を第2表示画像として生成する。対象物特定部102により特定された対象物の種別に応じて、対象物を表す画像の種類を選択し、選択した画像を、第2表示画像として生成する。このとき、対象物特定部102により、対象物が操作デバイスであると特定され、操作デバイスに表示画面が備えられていると特定される場合には、取得された表示画面に表示されている画像を含む第2表示画像を生成する。具体的には、対象物画像における表示画面の位置に対応させて操作デバイスの表示画面を表示させた第2表示画像を生成する。操作デバイスの表示画面とは、例えば、PCやスマートフォンのディスプレイである。また、対象物特定部102により、対象物が操作デバイスであると特定できない場合、例えば、画像認識により、対象物の種別が識別できない場合、あるいは、対象物の種別が操作デバイスに該当しない種別である場合、表示画像制御部104は、対象物の形状を模した第2表示画像を生成する。具体的には、表示画像制御部104は、情報取得部101が取得した対象物の3次元データに基づいて対象物の形状を模した第2表示画像を生成する。
また、本実施形態では、表示画像制御部104は、接触状態判定部103によりユーザの体の一部が対象物に接触したと判定される場合に、第2表示画像を生成し、ユーザの体の一部が対象物に接触したと判定されない場合には、第2表示画像を生成しない。具体的には、表示画像制御部104は、接触状態判定部103からの判定結果の情報の出力を受けて、ユーザの体の一部が対象物に接触したと判定されたことを示す情報であれば、第2表示画像を生成し、ユーザの体の一部が対象物に接触したと判定されないことを示す情報であれば、第2表示画像を生成しない。また、表示画像制御部104は、接触状態判定部103によりユーザの体の一部が対象物に接触した後所定時間の間にユーザの体の一部が対象物に接触したと判定されなかった場合には、第2表示画像を生成しない。これにより、第2表示画像が表示された後は、ユーザの体の一部が対象物に接触したと判定されない場合であっても、所定時間の間は、第2表示画像を表示し続け、所定時間経過後に第2表示画像を表示しないようにできる。
情報共有制御部105は、空間内の風景及び対象物の表示画面の共有可否を決定する。具体的には、情報共有制御部105は、ユーザ表示端末13のユーザ端末出力部132を介して、ユーザに、共有可否の選択肢を提示する。そして、ユーザから取得した情報に基づいて、空間内の風景及び対象物の表示画面の共有可否を決定する。例えば、車両内の風景すべてを他ユーザに表示して共有するか否かを選択肢として提示し、ユーザが、ユーザ端末入力部131を介して、共有すると入力した場合には、情報共有制御部105は、空間内の風景を共有することを決定する。また、情報共有制御部105は、他ユーザ表示端末14の表示画面上における対象物の再現性を示す再現度を決定する。再現度は、対象物に対して第2表示画像が一致する度合いであり、つまり、第2表示画像が対象物にどれだけ近いかを表す指標である。再現度は、複数の区分に段階を分けて設定されていて、再現度の区分は、例えば、対象物全体の実写画像、対象物の一部の実写画像、対象物の形象を描写した画像、対象物の形状のみを模した画像といった区分が挙げられる。対象物の一部の実写画像の例としては、実写画像のうち対象物の表示画面部分以外を写す画像である。情報共有制御部105は、第2表示画像における対象物の再現度に関する情報をユーザから取得し、取得した情報に基づき、再現度を決定する。具体的には、情報共有制御部105は、再現度の選択肢をユーザに提示する。そして、ユーザが選択した再現度に応じた第2表示画像を生成することを決定する。例えば、情報共有制御部105は、再現度の選択肢として、対象物の表示画面部分を含む、すなわち、対象物の表示画面に表示されている画像情報を含む第2表示画像を表示するか否かの選択肢をユーザに提示し、ユーザが、ユーザ端末入力部131を介して、表示すると入力した場合には、対象物の表示画面の画像情報を含む第2表示画像を生成することを決定する。そして、情報共有制御部105は、表示画像の共有可否及び対象物の再現度を決定した場合、表示画像の共有可否及び対象物の再現度の情報を表示画像制御部104に出力する。そして、当該情報を取得した表示画像制御部は、表示画像の共有可否及び対象物の再現度に応じた表示画像を生成する。
通信部106は、他ユーザ表示端末14と通信を行い、各種情報の送受信を行う。例えば、通信部106は、他ユーザ表示端末14に、表示画像制御部104により生成された表示画像や第2表示画像の位置情報を送信する。具体的には、通信部106は、ユーザの体の一部が対象物に接触したと判定された場合には、第1表示画像と、第2表示画像、第2表示画像の位置情報を送信する。通信部106は、ユーザの体の一部が対象物に接触したと判定されない場合には、第1表示画像のみを送信する。また、通信部106は、ユーザの体の一部が対象物に接触したと判定された後所定時間内にユーザの体の一部が対象物に接触したと判定されない場合には、第1表示画像のみを送信し、第2表示画像を送信しない。
センサ群11は、姿勢検出カメラ111と、加速度センサ112と、ジャイロセンサ113とを備え、ユーザの姿勢情報を取得する。例えば、姿勢検出カメラ111は、ユーザの目の前に設置され、ユーザの眼球の動きを追跡して、ユーザの視線がどちらの方向に向けられているかを検出する。また、姿勢検出カメラ111を用いて、ユーザの頭の向きを検出することとしてもよい。例えば、室内の固定位置に設置された赤外線センサを用いて、ユーザ表示端末13の表面に設けられた赤外線発光体又は赤外線反射マーカーを検知することにより、ユーザ表示端末13を装着したユーザの頭の向きを特定する。なお、姿勢検出カメラ111は、ユーザ表示端末13に備えられていることとしてもよく、例えば、姿勢検出カメラ111を用いたSLAMやステレオ視により姿勢推定を行うことや、姿勢検出カメラ111で認識したマーカから姿勢推定を行うこととしてもよい。また、センサ群11の加速度センサ112やジャイロセンサ113は、ユーザの姿勢情報を取得する。例えば、ユーザの手のARトラッカーに備わる加速度センサ112やジャイロセンサ113がユーザの手の動きを検出する。また、加速度センサ112とジャイロセンサ113はユーザ表示端末13に備えられるものとしてもよく、加速度センサ112及びジャイロセンサ113はユーザの頭部が向いている方向を検知する。センサ群11で取得されたユーザの姿勢情報は、情報取得部101に送信される。
空間検出カメラ12は、車両100の空間内情報を取得する。空間内情報は、ユーザや、ユーザの周囲に存在する対象物に関する情報を含む。また、空間検出カメラ12は、ユーザの周囲に存在する対象物の3次元データを取得する。例えば、空間検出カメラ12として、Depthカメラを用いることにより、3次元計測を行うこととしてもよいし、ステレオ配置した空間検出カメラ12を用いて、3次元計測を行うこととしてもよい。空間検出カメラ12が取得した情報は、コントローラ10の情報取得部101に送信される。
ユーザ表示端末13は、ユーザの頭部に装着される表示装置であり、例えば、ARヘッドマウントディスプレイである。ユーザ表示端末13は、少なくともユーザ端末入力部131と、ユーザ端末出力部132を備える。なお、ユーザ表示端末13は、センサ群11を構成するカメラや加速度センサ、ジャイロセンサを有することとしてもよい。
ユーザ端末入力部131は、ユーザによる入力情報を取得する。ユーザ端末入力部131は、例えば、マイクであり、音声によってユーザが情報を入力する。本実施形態では、例えば、ユーザが、車両100の空間内の情報をどこまで他ユーザと共有するかに関する情報を入力する。
ユーザ端末出力部132は、ユーザの視界に画像を表示する。例えば、ユーザ端末出力部132は、非透過型ディスプレイである。ユーザはユーザ端末出力部132の表示画面に映し出された画像を見ることができる。例えば、ユーザが乗車している車両の車内の情報に基づき構築した、車内の実風景を背景画像として生成して表示させる。あるいは、ユーザ端末出力部132は、透過型ディスプレイであり、この場合には、ユーザは、ディスプレイの先に見える実風景を直接見ることができ、さらに、ディスプレイ上に表示画像を表示することで、拡張現実(AR)を見ることができる。
他ユーザ表示端末14は、ユーザとは異なる他の空間にいる他ユーザが装着している表示装置であり、例えば、VRヘッドマウントディスプレイである。他ユーザ表示端末14は、少なくとも他ユーザ端末出力部141と、他ユーザ端末通信部142とを備える。本実施形態では、他ユーザ表示端末14に表示される表示画像は、例えば、ユーザが乗車している車両内の空間を表す仮想現実空間画像である。仮想現実空間画像は、ユーザのアバター画像を含む。他ユーザは、他ユーザ表示端末14を介して、ユーザのアバターが隣に座っている車内の様子を仮想現実空間として見ることができる。
他ユーザ端末出力部141は、他ユーザ端末通信部142により取得された画像情報に基づき、表示画面に画像を表示する。取得される画像情報としては、ユーザを表すアバター画像である第1表示画像、対象物を表す第2表示画像、車両内を表す画像(背景画像)である。また、他ユーザ端末出力部141は第2表示画像の位置情報を取得する。他ユーザ端末出力部141は、ユーザのアバター画像である第1表示画像を表示し、対象物の位置情報に基づいて、対象物を表示する。具体的には、他ユーザ端末出力部141は、ユーザの体の一部が対象物に接触したと判定される場合には、第1表示画像を表示し、ユーザの体の一部が対象物に接触したと判定された後所定時間の間、ユーザのアバターに対する対象物の位置情報に基づいて、第2表示画像を表示する。また、他ユーザ端末出力部141は、ユーザの体の一部が対象物に接触したと判定されない場合には、第1表示画像のみを表示する。また、他ユーザ端末出力部141は、ユーザの体の一部が対象物に接触したと判定された後所定時間内にユーザの体の一部が対象物に接触したと判定されない場合には、第1表示画像のみを表示し、第2表示画像を表示しない。すなわち、他ユーザ端末出力部141は、ユーザの体の一部が対象物に接触したと判定された場合には、所定時間の間、ユーザの体の一部が対象物に接触したと判定されないという判定結果が出たとしても、第2表示画像の表示を維持する。
ここで、図2及び3を用いて、他ユーザ端末出力部141が表示する画像の一例を説明する。図2は、本実施形態における適用状況を示している図であり、ユーザ40は、ユーザ表示端末13を装着しながら車両100に乗車していて、他ユーザアバター20が隣に座っているような拡張現実を見ている。他ユーザ表示端末14を装着している他ユーザの視点では、他ユーザアバター20の位置から隣の席にユーザ40が座っているように見えている。そして、図3が、他ユーザ表示端末14で表示されている画像、すなわち、他ユーザに見えている表示画像の一例である。まず、図3のパターン1は、車内の風景(背景画像)にユーザを表すアバターである第1表示画像が重畳表示されている仮想現実空間を表す図である。例えば、このとき、実際には、ユーザが膝の上にノートパソコンを乗せて、キーボードのタイピングをしていた場合、タイピングの動作を行うユーザのアバターが表示されることになるが、他ユーザには、ノートパソコンが表示されないため、ユーザが何もない空間に対して手を動かしている様子が表示されることになる。これに対して、図3のパターン2は、車内外の風景にユーザを表すアバターである第1表示画像と対象物を表す第2表示画像が重畳表示されている仮想現実空間を表す図である。このとき、タイピングされているノートパソコンが対象物として表示されているため、他ユーザには、ユーザがノートパソコンに対して手を動かしている様子が表示されることになる。したがって、他ユーザは、ユーザが何を操作しているのかが分かる。また、図3のパターン3は、対象物を表す第2表示画像の上に、対象物であるノートパソコンのモニター画面を表す画像が重畳表示されている仮想現実空間を表す図である。これにより、他ユーザは、ユーザが見ている表示画面を見ることができ、表示画面が表示されていない場合よりも、より自然に見える。なお、本実施形態では、図2で示される場面に限らず、例えば、ユーザ40が運転席に座っていて、他ユーザのアバターが助手席に座り、助手席からの視点で、他ユーザが車内を見ていることとしてもよい。また、本実施形態では、ユーザが車内にいる場面を想定しているが、これに限らず、例えば、ユーザと他ユーザがそれぞれ自室にいて、同じ仮想現実空間を共有している場面を想定することとしてもよい。その場合には、双方に相手の手の動きや取り扱っている対象物の画像を表示する。
他ユーザ端末通信部142は、コントローラ10の通信部106と通信可能に接続されていて、通信部106から、表示画像制御部104で生成された画像及び第2表示画像の位置情報を受信する。
図4は、本発明の実施形態に係る画像生成制御の一連の手順を示すフローチャートである。本実施形態では、他ユーザが他ユーザ表示端末14を起動させて、VRシステムを利用開始すると、ステップS101からフローを開始する。例えば、他ユーザが他ユーザ表示端末14を頭部に装着し、スタートボタンを押すことで起動させる。また、コントローラ10は、フローに従って実行される画像生成制御を所定の時間間隔で繰り返し実行する。本実施形態では、コントローラ10は、ユーザやユーザの周囲にある対象物を含む車内の風景に関して、他ユーザにどの範囲まで表示するかの共有可能範囲や対象物の再現性を示す再現度に応じて、表示画像の表示形態を制御する。具体的には、まず、ユーザやユーザの周囲にある対象物を含む車内の風景すべてを共有可能であるか否かを判定する。そして、車内の風景すべてを共有可能としていない場合には、ユーザのアバター画像である第1表示画像を表示することをベースに、対象物をどの程度の再現度で表示するかに関する情報を取得する。そして、当該情報に基づいて、表示画像の表示形態を制御する。
ステップS101では、コントローラ10は、ユーザを含む車両内の空間情報を取得する。具体的には、まず、情報取得部101は、センサ群11により取得されたユーザ姿勢情報を取得する。また、情報取得部101は、空間検出カメラ12により取得された車両内情報を取得する。車両内情報は、例えば、ユーザの周囲にある対象物を含む。
ステップS102では、情報共有制御部105は、他ユーザに車両内の実風景すべてを共有するか否かを判定する。例えば、情報共有制御部105は、予めユーザが入力する共有可能範囲の設定に基づき、車両内の実風景すべてを共有可能と設定されている場合には、他ユーザに車両内の実風景を共有すると判定する。あるいは、情報共有制御部105は、ユーザ表示端末13のユーザ端末出力部132を介して、ユーザに、車両内の実風景すべてを他ユーザに共有するか否かの選択肢を表示し、ユーザに選択肢を選択させることで判定を行う。具体的には、選択肢を表示されたユーザがユーザ端末入力部131を介して選択肢を選択する入力を行うと、情報共有制御部105は、当該入力情報に基づいて、他ユーザに車両内の実風景すべてを共有してよいか否かを判定する。ユーザ端末入力部131は、例えば、マイクであり、ユーザは音声で回答する。そして、他ユーザに車両内の実風景すべてを共有すると判定される場合には、ステップS113に進む。他ユーザに車両内の実風景すべてを共有すると判定されない場合には、ステップS103に進む。
ステップS103では、表示画像制御部104は、ステップS101で取得されたユーザの情報に基づき、ユーザを表す第1表示画像を生成する。具体的には、表示画像制御部104は、ユーザの視線の方向、頭部の向き、ユーザの手の動きに関するユーザの姿勢情報に基づき、ユーザのアバター画像を第1表示画像として生成する。
ステップS104では、対象物特定部102は、空間検出カメラ12から取得した空間情報に基づいて、ユーザの周囲にある対象物を特定する。対象物は、ユーザが手で動かしたり操作したりするものであり、例えば、ノートパソコンやPCの操作系であるキーボードやマウス、スマートフォン、タブレット端末、コップ等が挙げられる。対象物特定部102は、画像認識により、ユーザの周囲にある対象物の特徴を抽出し、対象物の種別を特定する。
ステップS105では、接触状態判定部103は、ステップS104で特定された対象物にユーザの体の一部が接触したか否かを判定する。例えば、情報取得部101が取得した空間情報から、ユーザの体の一部が対象物に接触したか否かを判定する。ユーザの体の一部が対象物に接触したと判定される場合には、ステップS106に進む。ユーザの体の一部が対象物に接触したと判定されない場合には、ステップS114に進む。
ステップS106では、対象物特定部102は、対象物が操作デバイスであるか否かを特定する。操作デバイスは、例えば、ノートパソコンやPCの操作系であるキーボードやマウス、スマートフォン、タブレット端末である。対象物特定部102は、ステップS104で特定された対象物の種別が操作デバイスに該当するものであれば、対象物を操作デバイスであると特定する。対象物が操作デバイスであると特定できる場合には、ステップS107に進む。対象物が操作デバイスであると特定できない場合には、ステップS109に進む。対象物が操作デバイスであると特定できない場合とは、例えば、対象物が操作デバイス以外の種別に該当すると特定された場合や、対象物の識別ができず、操作デバイスであるか否かの特定自体ができない場合を含む。
ステップS107では、対象物特定部102は、対象物に表示画面があるか否かを特定する。対象物特定部102は、画像認識により、空間検出カメラ12が撮像した画像データから、表示画面の特徴を抽出し、表示画面があるか否かを特定する。対象物に表示画面があると特定される場合には、ステップS108に進む。対象物に表示画面があると特定されない場合には、ステップS110に進む。
ステップS108では、情報共有制御部105は、第2表示画像における対象物の再現度として、表示画面を共有するか否かを決定する。ステップS102と同様に、情報共有制御部105は、予めユーザが設定している設定情報に基づいて決定することとしてもよいし、ユーザに選択肢を提示してユーザが選択する入力情報に基づき決定することとしてもよい。具体的には、対象物の表示画面に表示されている画像情報を含む第2表示画像を他ユーザに表示するか否かを決定する。情報共有制御部105は、ユーザに、対象物の表示画面を共有するか否かの選択肢を提示し、ユーザの選択に基づいて、対象物の表示画面の画像情報を含めた第2表示画像を表示するか否かを決定する。対象物の表示画面の画像情報を含めた第2表示画像を表示すると決定される場合には、ステップS111に進む。対象物の表示画面の画像情報を含めた第2表示画像を表示すると決定されない場合には、ステップS110に進む。
ステップS109では、表示画像制御部104は、対象物が操作デバイスであると特定できない場合には、対象物の形状を模した第2表示画像を生成する。表示画像制御部104は、情報取得部101が取得した対象物の3次元データに基づいて、対象物の形状を特定し、対象物の形状を表す第2表示画像を生成する。また、表示画像制御部104は、空間検出カメラ12により取得された空間情報から、ユーザと対象物との相対的な位置関係を示す位置情報を第2表示画像の位置情報として生成する。具体的には、表示画像制御部104は、3次元空間の座標で示されるユーザと対象物との相対的位置情報を、表示端末の表示画面上の2次元座標に変換して、第2表示画像の位置情報を生成する。対象物の形状を表す第2表示画像及び第2表示画像の位置情報が生成されると、ステップS113に進む。
ステップS110では、表示画像制御部104は、対象物に表示画面があると判定されない、または対象物の表示画面を他ユーザに共有すると判定されない場合には、表示画面の画像情報を含まない第2表示画像を生成する。表示画像制御部104は、特定された対象物の種別に応じて、対象物を表す画像を生成する。また、予め対象物の種別ごとに用意された画像から選択することで第2表示画像を生成することとしてもよい。また、表示画像制御部104は、情報取得部101により取得された空間情報から、ユーザと対象物との相対的な位置関係を示す位置情報を第2表示画像の位置情報として生成する。具体的には、表示画像制御部104は、3次元空間の座標で示されるユーザと対象物との相対的位置情報を、表示端末の表示画面上の2次元座標に変換して、第2表示画像の位置情報を生成する。第2表示画像及び第2表示画像の位置情報が生成されると、ステップS113に進む。
ステップS111では、表示画像制御部104は、情報共有制御部105により、対象物の表示画面の画像情報を含めた第2表示画像を表示すると決定されると、表示画面の画像情報を含む第2表示画像を生成する。具体的には、表示画像制御部104は、第2表示画像における対象物の表示画面に対応する位置を特定し、当該位置に対象物の表示画面に表示される画像を重畳させて、表示画面の画像情報を含む第2表示画像を生成する。また、表示画像制御部104は、情報取得部101により取得した空間情報から、ユーザと対象物との相対的な位置関係を示す位置情報を第2表示画像の位置情報として生成する。具体的には、表示画像制御部104は、3次元空間の座標で示されるユーザと対象物との相対的位置情報を、表示端末の表示画面上の2次元座標に変換して、第2表示画像の位置情報を生成する。第2表示画像及び第2表示画像の位置情報が生成されると、ステップS113に進む。
ステップS112では、表示画像制御部104は、情報取得部101により取得された車両内の空間情報に基づいて、車両内の風景画像(背景画像)を生成する。また、情報取得部101により取得されたユーザの情報に基づいて、ユーザを表す第1表示画像を生成する。
ステップS113では、コントローラ10は、第2表示画像を含む表示画像を他ユーザ表示端末14に表示させる。具体的には、まず、通信部106は、各ステップで生成された情報及び画像を他ユーザ表示端末14に送信する。他ユーザ表示端末14が送信する画像及び情報は、第1表示画像、第2表示画像及び第2表示画像の位置情報を含む。例えば、車両内の風景画像(背景画像)を表示せず、第1表示画像と第2表示画像のみを表示する場合には、他ユーザ端末通信部142を介してこれらの情報を受信した他ユーザ端末出力部141は、第1表示画像を表示画面に表示する。そして、第2表示画像の位置情報に基づいて、第2表示画像を表示させる。このとき表示される第2表示画像は、ステップS109で生成された対象物の形状を模した第2表示画像、ステップS110で生成された対象物を表す第2表示画像、またはステップS111で生成された対象物の表示画面を含む第2表示画像である。本実施形態では、ステップS113で第2表示画像を含む表示画像が所定時間表示される。そして、コントローラ10は、第2表示画像が表示されると、図5に示される制御フローを実行する。
ステップS114では、コントローラ10は、第1表示画像を含む表示画像を他ユーザ表示端末14に表示させる。このとき表示される第1表示画像は、ステップS103で生成された第1表示画像、またはステップS112で生成された第1表示画像及び風景画像である。ステップS114で第1表示画像を含む表示画像を表示させると、制御フローを終了させる。
図5は、ユーザの体の一部が対象物に接触したと判定された場合の制御に係るフローチャートを示した図である。図4のステップS113で第2表示画像を含む表示画像が表示されると、コントローラ10は、ステップS201から制御を実行する。
ステップS201では、コントローラ10は、ユーザの体の一部が対象物に接触したか否かを判定する。判定方法は、ステップS105で実行される判定方法と同様である。ユーザの体の一部が対象物に接触したと判定されない場合には、ステップS202に進む。また、ユーザの体の一部が対象物に接触したと判定される場合には、ステップS204に進む。
ステップS202では、コントローラ10は、ユーザの体の一部が対象物に接触したと判定されてから所定時間が経過したか否かを判定する。所定時間は、第2表示画像を含む表示画像が表示されている時間である。所定時間が経過したと判定される場合には、ステップS203に進む。所定時間が経過したと判定されない場合には、ステップS201に戻り、以下、フローを繰り返す。
ステップS203では、コントローラ10は、第1表示画像を含む表示画像を他ユーザ表示端末14に表示し、第2表示画像を表示しない。これにより、第2表示画像が表示された場合には、所定時間の間は、ユーザの体の一部が対象物に接触したと判定されない場合でも、第2表示画像を表示し続けて、所定時間が経過したときに、第2表示画像の表示を止めて、第1表示画像のみを表示する。ステップS203で第1表示画像を含む表示画像を表示させると、制御フローを終了させる。
ステップS204では、コントローラ10は、第2表示画像を含む表示画像を他ユーザ表示端末14に表示する。ステップS204で第2表示画像を含む表示画像を表示させると、制御フローを終了させる。
以上のように、本実施形態では、ユーザを示す画像を含む表示画像を他ユーザに表示する表示端末と、表示画像を生成し、表示端末に表示画像を送信する送信部を備えたコントローラとを備える表示画像生成システムにおいて、コントローラは、ユーザの情報及びユーザが存在する空間内の情報を含む空間情報を取得する情報取得部と、情報取得部により取得された空間情報に基づいて、ユーザの周囲に位置する対象物を特定する対象物特定部と、空間情報に基づいて、ユーザの体の一部が対象物に接触したか否かを判定する判定部と、ユーザの情報に基づきユーザを表す第1表示画像を生成し、判定部によりユーザの体の一部が対象物に接触したと判定される場合には、対象物を表す第2表示画像を生成する表示画像制御部と、第1表示画像及び第2表示画像を表示端末に送信する送信部とを有する。これにより、ユーザが手で物を取り扱った場合、ユーザが何に触れているのかを他のユーザが理解できる。
また、本実施形態では、ユーザの体の一部が対象物に接触したと判定されない場合には、少なくとも第1表示画像を送信し、第2表示画像を送信しない。これにより、ユーザが手で物を取り扱っていない場合には、ユーザの周囲にある物であっても、他ユーザに共有せず、不要な表示を抑制できる。
また、本実施形態では、ユーザの体の一部が対象物に接触したと判定された後所定時間内にユーザの体の一部が対象物に接触したと判定されない場合には、少なくとも第1表示画像を送信し、第2表示画像を送信しない。これにより、第2表示画像が表示された後一定時間の間は、ユーザの体の一部が対象物に接触したと判定されない場合であっても、第2表示画像を表示し続けることができる。
また、本実施形態では、表示端末の画面上における対象物の再現性を示す再現度の情報を、ユーザから取得し、再現度に応じた第2表示画像を生成する。これにより、ユーザの意思に即した再現度で第2表示画像を生成することができる。
また、本実施形態では、対象物にディスプレイが備わっていると特定される場合には、ディスプレイに表示される画像情報を含む第2表示画像を生成する。これにより、対象物にディスプレイが備わっている場合には、ディスプレイに表示された内容を含めて他ユーザがユーザの動作を理解することができ、適切に会話を行うことができる。
さらに、本実施形態では、ユーザと対象物との相対的な位置情報を取得し、位置情報に基づき、表示端末の表示画面上における第1表示画像と第2表示画像との相対的な画像位置情報を生成し、画像位置情報を表示端末に送信し、画像位置情報に基づき、第1表示画像及び前記第2表示画像を表示する。これにより、他ユーザに表示される表示画面上のユーザと対象物との位置関係が正確になり、ユーザの動作がより違和感のないものになる。
なお、以上に説明した実施形態は、本発明の理解を容易にするために記載されたものであって、本発明を限定するために記載されたものではない。したがって、上記の実施形態に開示された各要素は、本発明の技術的範囲に属する全ての設計変更や均等物をも含む趣旨である。
1…表示画像生成システム
10…コントローラ
101…情報取得部
102…対象物特定部
103…接触状態判定部
104…表示画像制御部
105…情報共有制御部
106…通信部
11…センサ群
12…空間検出カメラ
13…ユーザ表示端末
131…ユーザ端末入力部
132…ユーザ端末出力部
14…他ユーザ表示端末
141…他ユーザ端末出力部
142…他ユーザ端末通信部

Claims (8)

  1. ユーザを示す画像を含む表示画像を他ユーザに表示する表示端末と、
    前記表示画像を生成し、前記表示端末に前記表示画像を送信する送信部を備えたコントローラとを備える表示画像生成システムにおいて、
    前記コントローラは、
    前記ユーザの情報及び前記ユーザが存在する空間内の情報を含む空間情報を取得する情報取得部と、
    前記情報取得部により取得された前記空間情報に基づいて、前記ユーザの周囲に位置する対象物の種別を特定する対象物特定部と、
    前記空間情報に基づいて、前記ユーザの体の一部が前記対象物に接触したか否かを判定する判定部と、
    前記ユーザの情報に基づき前記ユーザを表す第1表示画像を生成し、前記判定部により前記ユーザの体の一部が前記対象物に接触したと判定される場合には、前記対象物の種別に応じて、前記対象物を表す第2表示画像を生成する表示画像制御部と、を備え、
    前記送信部は、前記第1表示画像及び前記第2表示画像を前記表示端末に送信することを特徴とする表示画像生成システム。
  2. 請求項1に記載の表示画像生成システムであって、
    前記送信部は、前記ユーザの体の一部が前記対象物に接触したと判定されない場合には、少なくとも前記第1表示画像を送信し、前記第2表示画像を送信しないことを特徴とする表示画像生成システム。
  3. 請求項1に記載の表示画像生成システムであって、
    前記送信部は、前記ユーザの体の一部が前記対象物に接触したと判定された後所定時間内に前記ユーザの体の一部が前記対象物に接触したと判定されない場合には、少なくとも前記第1表示画像を送信し、前記第2表示画像を送信しないことを特徴とする表示画像生成システム。
  4. ユーザを示す画像を含む表示画像を他ユーザに表示する表示端末と、
    前記表示画像を生成し、前記表示端末に前記表示画像を送信する送信部を備えたコントローラとを備える表示画像生成システムにおいて、
    前記コントローラは、
    前記ユーザの情報及び前記ユーザが存在する空間内の情報を含む空間情報を取得する情報取得部と、
    前記情報取得部により取得された前記空間情報に基づいて、前記ユーザの周囲に位置する対象物を特定する対象物特定部と、
    前記空間情報に基づいて、前記ユーザの体の一部が前記対象物に接触したか否かを判定する判定部と、
    前記ユーザの情報に基づき前記ユーザを表す第1表示画像を生成し、前記判定部により前記ユーザの体の一部が前記対象物に接触したと判定される場合には、前記対象物を表す第2表示画像を生成する表示画像制御部と、を備え、
    前記表示画像制御部は、
    前記表示端末の画面上における前記対象物の再現性を示す再現度の情報を、前記ユーザから取得し、
    前記再現度に応じた前記第2表示画像を生成し、
    前記送信部は、前記第1表示画像及び前記第2表示画像を前記表示端末に送信することを特徴とする表示画像生成システム。
  5. 請求項4に記載の表示画像生成システムであって、
    前記表示画像制御部は、
    前記対象物にディスプレイが備わっていると特定される場合には、前記ディスプレイに表示される画像情報を含む前記第2表示画像を生成することを特徴とする表示画像生成システム。
  6. ユーザを示す画像を含む表示画像を他ユーザに表示する表示端末と、
    前記表示画像を生成し、前記表示端末に前記表示画像を送信する送信部を備えたコントローラとを備える表示画像生成システムにおいて、
    前記コントローラは、
    前記ユーザの情報及び前記ユーザが存在する空間内の情報を含む空間情報を取得する情報取得部と、
    前記情報取得部により取得された前記空間情報に基づいて、前記ユーザの周囲に位置する対象物を特定する対象物特定部と、
    前記空間情報に基づいて、前記ユーザの体の一部が前記対象物に接触したか否かを判定する判定部と、
    前記ユーザの情報に基づき前記ユーザを表す第1表示画像を生成し、前記判定部により前記ユーザの体の一部が前記対象物に接触したと判定される場合には、前記対象物を表す第2表示画像を生成する表示画像制御部と、を備え、
    前記情報取得部は、前記ユーザと前記対象物との相対的な位置情報を取得し、
    前記表示画像制御部は、前記位置情報に基づき、前記表示端末の表示画面上における前記第1表示画像と前記第2表示画像との相対的な画像位置情報を生成し、
    前記送信部は、前記第1表示画像、前記第2表示画像及び前記画像位置情報を前記表示端末に送信し、
    前記表示端末は、前記画像位置情報に基づき、前記第1表示画像及び前記第2表示画像を表示することを特徴とする表示画像生成システム。
  7. ユーザの情報及び前記ユーザが存在する空間内の情報を含む空間情報に基づき、前記ユーザを示す画像を含む表示画像を生成し、他ユーザに前記表示画像を表示する表示画像生成装置であって、
    前記空間情報を取得する情報取得部と、
    前記情報取得部により取得された前記空間情報に基づいて、前記ユーザの周囲に位置する対象物の種別を特定する対象物特定部と、
    前記空間情報に基づいて、前記ユーザの体の一部が前記対象物に接触したか否かを判定する判定部と、
    前記ユーザの情報に基づき前記ユーザを表す第1表示画像を生成し、前記判定部により前記ユーザの体の一部が前記対象物に接触したと判定される場合には、前記対象物の種別に応じて、前記対象物を表す第2表示画像を生成する表示画像制御部と、
    前記第1表示画像及び前記第2表示画像を表示する表示部とを備える表示画像生成装置。
  8. 表示画像生成装置を用いて、ユーザの情報及び前記ユーザが存在する空間内の情報を含む空間情報に基づき、前記ユーザを示す画像を含む表示画像を生成し、他ユーザに前記表示画像を表示する表示画像生成方法であって、
    前記表示画像生成装置は、
    前記空間情報を取得し、
    前記ユーザの情報に基づき前記ユーザを表す第1表示画像を生成し、
    取得された前記空間情報に基づいて、前記ユーザの周囲に位置する対象物の種別を特定し、
    前記空間情報に基づいて、前記ユーザの体の一部が前記対象物に接触したか否かを判定し、
    前記ユーザの体の一部が前記対象物に接触したと判定される場合には、前記対象物の種別に応じて、前記対象物を表す第2表示画像を生成し、
    前記第1表示画像及び前記第2表示画像を表示する表示画像生成方法。
JP2020060666A 2020-03-30 2020-03-30 画像生成システム、画像生成装置及び画像生成方法 Active JP7413122B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020060666A JP7413122B2 (ja) 2020-03-30 2020-03-30 画像生成システム、画像生成装置及び画像生成方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020060666A JP7413122B2 (ja) 2020-03-30 2020-03-30 画像生成システム、画像生成装置及び画像生成方法

Publications (2)

Publication Number Publication Date
JP2021162876A JP2021162876A (ja) 2021-10-11
JP7413122B2 true JP7413122B2 (ja) 2024-01-15

Family

ID=78003356

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020060666A Active JP7413122B2 (ja) 2020-03-30 2020-03-30 画像生成システム、画像生成装置及び画像生成方法

Country Status (1)

Country Link
JP (1) JP7413122B2 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017102639A (ja) 2015-12-01 2017-06-08 株式会社コロプラ アバター表示システム、ユーザ端末、及びプログラム
JP2019021324A (ja) 2017-07-19 2019-02-07 株式会社コロプラ 仮想空間を提供するコンピュータで実行されるプログラム、方法、および当該プログラムを実行する情報処理装置
WO2019039229A1 (ja) 2017-08-22 2019-02-28 キヤノン株式会社 情報処理装置、システム、画像処理方法、コンピュータプログラム、及び記憶媒体
WO2019130991A1 (ja) 2017-12-26 2019-07-04 株式会社Nttドコモ 情報処理装置
JP2019122496A (ja) 2018-01-12 2019-07-25 株式会社バンダイナムコスタジオ シミュレーションシステム及びプログラム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6392945B1 (ja) * 2017-07-19 2018-09-19 株式会社コロプラ 仮想空間を提供するコンピュータで実行されるプログラム、方法、および当該プログラムを実行する情報処理装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017102639A (ja) 2015-12-01 2017-06-08 株式会社コロプラ アバター表示システム、ユーザ端末、及びプログラム
JP2019021324A (ja) 2017-07-19 2019-02-07 株式会社コロプラ 仮想空間を提供するコンピュータで実行されるプログラム、方法、および当該プログラムを実行する情報処理装置
WO2019039229A1 (ja) 2017-08-22 2019-02-28 キヤノン株式会社 情報処理装置、システム、画像処理方法、コンピュータプログラム、及び記憶媒体
WO2019130991A1 (ja) 2017-12-26 2019-07-04 株式会社Nttドコモ 情報処理装置
JP2019122496A (ja) 2018-01-12 2019-07-25 株式会社バンダイナムコスタジオ シミュレーションシステム及びプログラム

Also Published As

Publication number Publication date
JP2021162876A (ja) 2021-10-11

Similar Documents

Publication Publication Date Title
CN110647237B (zh) 在人工现实环境中基于手势的内容共享
JP2022535316A (ja) スライドメニューを有する人工現実システム
EP3250983B1 (en) Method and system for receiving gesture input via virtual control objects
US9829989B2 (en) Three-dimensional user input
CN113826058B (zh) 具有自触觉虚拟键盘的人工现实***
JP6057396B2 (ja) 3次元ユーザインタフェース装置及び3次元操作処理方法
CN114995594A (zh) 使用姿势和多dof控制器与3d虚拟对象的交互
EP3364272A1 (en) Automatic localized haptics generation system
KR20220012990A (ko) 인공 현실 시스템들을 위한 팔 응시-구동 사용자 인터페이스 요소 게이팅
KR20220016984A (ko) 디지트-매핑된 자가-햅틱 입력 방법을 갖는 인공 현실 시스템
KR20220018561A (ko) 사용자 인터페이스 요소들을 게이팅하기 위한 개인 어시스턴트 요소를 갖는 인공 현실 시스템들
KR20220018562A (ko) 인공 현실 시스템을 위한 모서리-식별 제스처-구동 사용자 인터페이스 요소 게이팅
US11803233B2 (en) IMU for touch detection
US11145126B1 (en) Movement instruction using a mirror in an artificial reality environment
US11501552B2 (en) Control apparatus, information processing system, control method, and program
US11073902B1 (en) Using skeletal position to predict virtual boundary activation
US11195320B2 (en) Feed-forward collision avoidance for artificial reality environments
CN117784926A (zh) 控制装置、控制方法和计算机可读存储介质
JP7413122B2 (ja) 画像生成システム、画像生成装置及び画像生成方法
JP2016224595A (ja) システム、方法、およびプログラム
US20210096652A1 (en) Finger Orientation Touch Detection
JP6628331B2 (ja) プログラムおよび画像表示システム
CN116204060A (zh) 鼠标指针基于手势的移动和操纵
CN115004132A (zh) 信息处理装置、信息处理***和信息处理方法
CN115803786A (zh) 信息处理装置、信息处理方法和程序

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221108

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230704

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230719

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230922

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231128

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231227

R150 Certificate of patent or registration of utility model

Ref document number: 7413122

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150