JP7177054B2 - ユーザ頭部回転ガイド付きヘッドマウントディスプレイ - Google Patents

ユーザ頭部回転ガイド付きヘッドマウントディスプレイ Download PDF

Info

Publication number
JP7177054B2
JP7177054B2 JP2019529870A JP2019529870A JP7177054B2 JP 7177054 B2 JP7177054 B2 JP 7177054B2 JP 2019529870 A JP2019529870 A JP 2019529870A JP 2019529870 A JP2019529870 A JP 2019529870A JP 7177054 B2 JP7177054 B2 JP 7177054B2
Authority
JP
Japan
Prior art keywords
hmd
orientation
user
head
wearer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019529870A
Other languages
English (en)
Other versions
JP2020501263A (ja
Inventor
マーク ベンソン、サイモン
ジョン ホール、サイモン
ウォード-フォクストン、ニコラス
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Interactive Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment Inc filed Critical Sony Interactive Entertainment Inc
Publication of JP2020501263A publication Critical patent/JP2020501263A/ja
Application granted granted Critical
Publication of JP7177054B2 publication Critical patent/JP7177054B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • G06F3/0325Detection arrangements using opto-electronic means using a plurality of light emitters or reflectors or a plurality of detectors forming a reference frame from which to derive the orientation of the object, e.g. by triangulation or on the basis of reference deformation in the picked up image
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/212Input arrangements for video game devices characterised by their sensors, purposes or types using sensors worn by the player, e.g. for measuring heart beat or leg activity
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • A63F13/26Output arrangements for video game devices having at least one additional display device, e.g. on the game controller or outside a game booth
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • A63F13/5255Changing parameters of virtual cameras according to dedicated instructions from a player, e.g. using a secondary joystick to rotate the camera around a player's character
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/537Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
    • A63F13/5375Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen for graphically or textually suggesting an action, e.g. by displaying an arrow indicating a turn in a driving game
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2250/00Miscellaneous game characteristics
    • A63F2250/49Miscellaneous game characteristics with provisions for connecting to a part of the body
    • A63F2250/497Head
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8082Virtual reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0141Head-up displays characterised by optical features characterised by the informative content of the display

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Computer Hardware Design (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Cardiology (AREA)
  • General Health & Medical Sciences (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Health & Medical Sciences (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本開示は、仮想現実システムおよび方法に関する。
本明細書で提供される「背景」の説明は、本開示の文脈を一般的に提示することを目的としている。本背景技術の欄に記載されている限りにおいて、出願時の先行技術として適格ではない可能性がある当該説明の態様と同様に、本発明者らの研究は、明示的にも暗示的にも本開示に対する先行技術として認められない。
ヘッドマウントディスプレイ(HMD)は、HMD装着者が仮想環境を見る仮想現実システムで使用するための頭部装着可能装置の一例である。HMDにおいて、頭部にまたはヘルメットの一部として着用することができる画像またはビデオ表示装置が提供される。片目または両目のいずれかに小型の電子ディスプレイデバイスが設けられる。
表示された画像を現実世界のビューに重ね合わせることが可能なHMDがある。この種のHMDは、光学シースルーHMDと呼ぶことができ、一般に、ディスプレイデバイスをユーザの目の真正面以外のどこかに配置することを必要とする。そしてユーザが見ることができるように表示画像を偏向させる何らかの方法が必要になる。これは、ユーザが鏡を通して見ることができるようにするだけでなく、ディスプレイデバイスの出力の反射を見ることもできるように、ユーザの目の前に配置された部分反射鏡を使用することによって可能である。EP?A?1731943およびUS?A?2010/0157433に開示されている別の構成では、全反射を利用する導波路構成を使用して、表示画像をユーザの頭の側面に配置されたディスプレイデバイスから伝達する。それにより、ユーザは表示画像を見ることができるが、それでもなお導波路を通して現実世界のビューを見ることができる。ここでもやはり、これらの種類の構成のいずれにおいても、リラックスした視聴を可能にするために適切なサイズおよび距離でユーザが虚像を見られるように、ディスプレイの虚像が(既知の技法を使用して)作成される。例えば、物理的なディスプレイデバイスが非常に小さく(例えば、10mm×10mm)、ユーザの目からほんの数ミリメートル離れていても、(例えば)ユーザから20mの距離で5m×5mの知覚サイズを有するものとしてユーザに知覚されるように、虚像を構成してもよい。
しかしながら、他のHMDは、ユーザが表示画像を見ることのみを可能にし、それはHMDがユーザを取り巻く現実世界の環境を見えなくするということである。このタイプのHMDでは、ユーザがリラックスした方法で焦点を合わせられるように、仮想表示画像を適切な距離で-たとえば、上述の光学シースルーHMDと同様の仮想距離および知覚サイズで-配置する適切なレンズまたは他の光学部品と関連づけて、実際のディスプレイデバイスをユーザの目の前に配置することができる。このタイプのデバイスは、映画または同様の記録されたコンテンツを視聴するために、あるいはユーザを取り囲む仮想空間を表現するいわゆる仮想現実コンテンツを視聴するために使用してもよい。しかしながら、もちろん、例えば前向きカメラを使用してディスプレイデバイス上に表示するための画像を生成することによって、このタイプのHMD上に現実世界のビューを表示することも可能である。
HMDおよびバーチャルリアリティの当初の開発はおそらくこれらのデバイスの軍用および専門的用途によって推進されたが、HMDは、例えばコンピュータゲームまたは家庭用コンピュータ用途において、カジュアルユーザによる使用のためにより一般的になりつつある。
前述の段落は一般的な紹介として提供されたものであり、添付の特許請求の範囲を限定することを意図するものではない。記載された実施の形態は、さらなる利点と共に、添付の図面と併せて以下の詳細な説明を参照することによって最もよく理解されるであろう。
本開示の様々な態様および特徴は、添付の特許請求の範囲および添付の説明の本文内に定義されており、少なくともディスプレイなどのヘッドマウント可能装置およびヘッドマウント可能装置の操作方法、ならびにコンピュータプログラムを含む。
本開示およびその付随する多くの利点のより完全な理解は、添付の図面と関連して考慮されるとき、以下の詳細な説明を参照することによってよりよく理解されるにしたがって、容易に得られるであろう。
ユーザによって装着されたHMDを概略的に示す図である。 HMDの概略平面図である。 HMDによる虚像の形成を概略的に示す図である。 HMDで使用するための他の種類のディスプレイを概略的に示す図である。 一対の立体画像を概略的に示す図である。 ソニー(登録商標)プレイステーション3(登録商標)ゲーム機に接続されたHMDを装着しているユーザを概略的に示す図である。 同上 HMDのユーザの視野の変化を概略的に示す図である。 動き検知を有するHMDを概略的に示す図である。 同上 オプティカルフロー検出に基づく位置センサを概略的に示す図である。 HMDの検出位置または位置の変化に応じて実行される画像処理を概略的に示す図である。 仮想現実システムを概略的に示す図である。 HMDの概略側面図である。 HMDの概略正面図である。 カメラの概略図である。 ハンドヘルドコントローラの概略図である。 HMDを装着しているユーザの、カメラに対する向きを概略的に表す図である。 同上 同上 図17aの構成のキャプチャ画像を概略的に表す図である。 図18aの構成のキャプチャ画像を概略的に表す図である。 図19aの構成のキャプチャ画像を概略的に表す図である。 制御技術を表す概略フローチャートである。 方法を示す概略フローチャートである。 方法を示す概略フローチャートである。 HMDを着用しているユーザを概略的に示す図である。 方法を示す概略フローチャートである。 表示画像の例を概略的に示す図である。 同上
ここで図1を参照すると、ユーザ10は(一般的な頭部装着可能装置または仮想現実装置の一例として)HMD20を装着している。HMDは、この例では後部ストラップおよび上部ストラップから形成されたフレーム40と、ディスプレイ部分50とを備える。
図1のHMDは、他の図面に関連して以下に説明されるが、この最初の説明を明確にするために図1には示されていないさらなる特徴を含んでもよいことに留意されたい。
図1のHMDは、完全に(または少なくとも実質的に完全に)周囲の環境がユーザの視界に入らないようにする。ユーザが見ることができるのは、HMD内に表示された一対の画像だけである。
HMDには、ユーザの左右の耳70にはまるヘッドホンオーディオトランスデューサまたはイヤホン60が関連付けられている。イヤホン60は、外部ソースから提供されるオーディオ信号を再生する。この外部ソースはユーザの目に表示するためのビデオ信号を提供するビデオ信号ソースと同じであってもよい。ブームマイクロホン75は、ユーザの口に向かって延びるようにHMDに取り付けられる。
ユーザがHMDによって表示されるものだけを見ることができ、イヤホンおよび関連する電子機器のノイズ遮断またはアクティブノイズキャンセレーションの特性の制限下で、イヤホンを介して提供されるものだけを聞くことができるという事実の組み合わせは、このHMDは、いわゆる「フルイマージョン(完全没入)」HMDと見なすことができることを意味する。しかしながら、いくつかの実施の形態では、HMDはフルイマージョンHMDではなく、ユーザがユーザの周囲を見るおよび/または聞くための少なくともいくつかの機能を提供してもよいことに留意されたい。このことは、ディスプレイ構成にある程度の透明度または部分的な透明度を提供すること、および/またはHMDのディスプレイを介して(カメラ、例えばHMDに取り付けられたカメラを使用して取り込まれた)外部のビューを投影することによって、および/またはイヤホンを通り過ぎる周囲音の伝達を可能にすることによって、および/または周囲音に依存して(イヤホンへの伝達のための)入力音声信号を生成するためのマイクロホンを提供することによって、可能である。
使用中、前面カメラ122は、HMDの前面に画像を取り込むことができる。Bluetooth(登録商標)アンテナ124は、通信設備を提供してもよく、または近くのBluetooth送信機の方向の検出を可能にするために単に指向性アンテナとして配置されてもよい。
動作中、ビデオ信号はHMDによる表示のために提供される。これは、ビデオゲーム機または(パーソナルコンピュータなどの)データ処理装置などの外部ビデオ信号源80によって提供することができ、その場合、信号は、有線または無線接続82によってHMDに送信することができる。適切な無線接続の例は、ブルートゥース(登録商標)接続を含む。イヤホン60のためのオーディオ信号は、同じ接続によって搬送することができる。同様に、HMDからビデオ(オーディオ)信号源に渡される任意の制御信号は、同じ接続によって搬送されてもよい。さらに、(1つまたは複数の電池を含む、および/または商用電源コンセントに接続可能である)電源83をケーブル84によってHMDに接続することができる。なお、電源83と映像信号源80とは別々のユニットとしてもよいし、同一の物理的装置として構成してもよい。電源とビデオ(そして実際にはオーディオ)の信号供給用に別々のケーブルがあってもよく、あるいは単一のケーブルで運ぶために結合されてもよい(例えばUSBケーブルのように別々の導体を使って、あるいは、物理的な通信回線の同じ集合体の上でデータがバランスの取れた信号として伝送され、電力が直流として伝送される「パワーオーバーイーサネット(登録商標)(PoE)」構成に似た方法で)。ビデオおよび/またはオーディオ信号は、例えば光ファイバケーブルによって搬送されてもよい。他の実施の形態では、ユーザに提示するための画像信号および/または音声信号を生成することに関連する機能の少なくとも一部は、HMD自体の一部を形成する回路および/または処理によって実行されてもよい。HMD自体の一部として電源を提供してもよい。
本開示のいくつかの実施の形態は、HMDを電源および/またはビデオ(および/またはオーディオ)信号源などの別の装置にリンクする少なくとも1つの電気ケーブルおよび/または光ケーブルを有するHMDに適用可能である。したがって、本開示の実施の形態は、例えば、以下を含むことができる:
(a)(HMD構成の一部として)それ自身の電源を有するが、ビデオおよび/またはオーディオ信号源へのケーブル接続を有するHMD;
(b)単一の物理的なケーブルまたは複数の物理的なケーブルとして具体化された、電源およびビデオおよび/またはオーディオ信号源へのケーブル接続を有するHMD;
(c)(HMD構成の一部として)それ自体のビデオおよび/またはオーディオ信号源と、電源へのケーブル接続とを有するHMD;または
(d)ビデオおよび/またはオーディオ信号源への無線接続と、電源へのケーブル接続とを有するHMD。
1つ以上のケーブルが使用される場合、ケーブル82および/または84がHMDに入るまたはHMDに結合する物理的位置は、技術的観点からは特に重要ではない。審美的に、そしてケーブルが操作中にユーザの顔をこするのを避けるために、ケーブルは(通常の操作で着用したときのユーザの頭の向きに対して)HMDの側面または背面でHMDに入るかまたは結合するであろう。したがって、図1のHMDに対するケーブル82、84の位置は単に概略図として扱われるべきである。
したがって、図1の構成は、観察者の頭部に装着され、片目または両目の表示位置を画定し、使用時には観察者のそれぞれの目の前に配置されるフレームと、それぞれの目の表示位置に対して搭載され、ビデオ信号源から観察者の目へのビデオ信号のビデオ表示の虚像を提供するディスプレイ要素とを備えるヘッドマウントディスプレイシステムの例を提供する。
図1は、HMDの一例を示す。他のフォーマットも可能である。例えば、HMDは、従来の眼鏡に関連したものにより類似したフレーム、すなわち表示部分からユーザの耳の後部の上部へと延びて、おそらく耳の後ろで丸くなっている実質的に水平な脚を使用することができる。他の(完全没入ではない)例では、外部環境に対するユーザのビューは、実際には完全には遮られていなくてもよく、表示された画像は、(ユーザの観点から)外部環境に重ね合わせるように配置することができる。そのような構成の一例を、図4を参照して以下に説明する。
図1の例では、各ユーザの目に対して別々のそれぞれの表示が提供されている。これがどのように達成されるかについて概略平面図が図2として提供され、これはユーザの目の位置100およびユーザの鼻の相対位置110を示す。ディスプレイ部分50は、概略的には、ユーザの目から周辺光を遮蔽するための外部シールド120と、一方の目が他方の目用のディスプレイを見るのを防ぐ内部シールド130とを含む。ユーザの顔、外部シールド120、および内部シールド130の組み合わせは、各眼に1つずつ、2つの区画140を形成する。各区画には、ディスプレイ要素150と1つ以上の光学要素160が設けられている。ディスプレイ要素と光学要素とが協働してユーザに表示を提供する方法について、図3を参照しながら説明する。
図3を参照すると、ディスプレイ要素150は、(この例では)光学要素160(凸レンズとして概略的に示されているが複合レンズまたは他の要素を含み得る)によって屈折された表示画像を生成して虚像170を生成する。この虚像は、ディスプレイ要素150によって生成された実際の画像よりも大きくかつかなり離れているようにユーザに見える。一例として、虚像は、1mを超える見かけの画像サイズ(画像の対角線)を有し、ユーザの目から(またはHMDのフレームから)1mを超える距離に配置されてもよい。一般論として、HMDの目的に応じて、虚像をユーザからかなりの距離を置いて配置することが望ましい。例えば、HMDが映画などを視聴するためのものである場合、そのような視聴中にユーザは目をリラックスさせることが望ましく、それは少なくとも数メートルの(虚像までの)距離を必要とする。図3では、(線180などの)実線は実光線を示すのに使用され、(線190などの)破線は仮想光線を示すのに使用される。
別の構成が図4に示されている。この構成は、外部環境に対するユーザの視界が完全には遮られていないことが望まれる場合に使用することができる。しかしながら、それはまた、ユーザの外界の視界が完全に遮られているHMDにも適用可能である。図4の構成では、ディスプレイ要素150と光学要素200は協働して鏡210に投影される像を提供し、鏡210はその像をユーザの目の位置220に向けて偏向させる。ユーザは、虚像がユーザの前にあり、ユーザから適切な距離にある位置230に位置していると知覚する。
ユーザの外界の視界が完全に遮られているHMDの場合、ミラー210は実質的に100%の反射ミラーとすることができる。その場合、図4の構成は、ディスプレイ要素および光学要素をユーザの頭の重心およびユーザの目の側部の近くに配置することができるという利点を有し、これにより、ユーザが着用するのにかさばらないHMDを生成することができる。あるいは、HMDが外部環境のユーザの視界を完全に遮らないように設計されている場合、ミラー210が部分的に反射するようにして、ユーザが、ミラー210を介して、現実の外部環境に仮想画像を重畳させて、外部環境を見るようにすることができる。
ユーザの眼ごとに別々のディスプレイが設けられている場合、立体画像を表示することができる。左右の目に表示するための一対の立体画像の一例を図5に示す。これらの画像は、互いに対して横方向のずれを示し、画像特徴のずれは、画像をキャプチャしたカメラの(実際のまたはシミュレートされた)横方向の間隔、カメラの角度の収束、およびカメラ位置からの各画像特徴の(実際のまたはシミュレートされた)距離に依存する。
図5の横方向変位は、実際には反対方向にもなり得ることに留意されたい。すなわち、描かれる左目画像は実際には右目画像であり、描かれるような右目画像は実際には左目画像であり得る。これは、ある立体視ディスプレイは、ユーザが立体視ウインドウを通して向こうのシーンを見ているという考えをシミュレートするために、右目画像では右に、左目画像では左にオブジェクトを移動させる傾向があるからである。しかしながら、あるHMDは、図5に示される配置を使用する。これは、ユーザが一対の双眼鏡を通してシーンを見ているという印象をユーザに与えるからである。これら2つの配置の間の選択はシステム設計者の裁量にある。
状況によっては、HMDは単に映画などを見るために使用してもよい。この場合、ユーザがユーザの頭部を例えば左右に回転させても、表示される画像の見かけ上の視点に変更は必要ない。しかしながら、バーチャルリアリティ(VR)または拡張現実(AR)システムに関連するもののような他の用途では、ユーザの視点は、ユーザが位置する現実空間または仮想空間に関して動きを追跡する必要がある。
図6は、バーチャルリアリティシステムの一例を概略的に示し、特に、ベースデバイスの一例であるソニー(登録商標)プレイステーション3(登録商標)ゲームコンソール300に接続されたHMDを装着しているユーザを示す。ゲーム機300は、主電源310と(任意に)主表示画面(図示せず)とに接続されている。ケーブルは、上述のケーブル82、84として機能し(したがって、電源ケーブルと信号ケーブルの両方として機能し)、HMD20をゲームコンソール300にリンクし、例えば、コンソール300のUSBソケット320に差し込まれる。本実施の形態では、ケーブル82、84の機能を満たす単一の物理ケーブルが提供されていることに留意されたい。図6において、ユーザはまた、一対のハンドヘルドコントローラ330を保持するように示されており、一対のハンドヘルドコントローラ330は、例えば、ゲーム機300と無線で通信して現在実行されているゲームプログラムに関するゲーム操作を制御する(またはその制御に寄与する)Sony(登録商標)Move(登録商標)コントローラであってもよい。
HMD20内のビデオディスプレイは、ゲームコンソール300によって生成された画像を表示するように構成され、HMD20内のイヤホン60は、ゲームコンソール300によって生成された音声信号を再生するように構成される。USBタイプのケーブルが使用される場合、これらの信号は、それらがHMD20に到達したときにデジタル形式であるため、HMD20は、再生のために少なくともオーディオ信号をアナログ形式に変換し戻すためのデジタル-アナログ変換器(DAC)を備えることになる。
HMD20に搭載されたカメラ122からの画像は、ケーブル82、84を介してゲーム機300に戻される。同様に、動きセンサまたは他のセンサがHMD20に設けられている場合、これらのセンサからの信号は、HMD20において少なくとも部分的に処理されてもよく、および/またはゲームコンソール300において少なくとも部分的に処理されてもよい。そのような信号の使用および処理は以下にさらに説明される。
ゲームコンソール300からのUSB接続もまた、USB規格に従って、HMD20に電力を供給する。
図6はまた、テレビジョンまたは他の公然と見ることのできるディスプレイなどの別個のディスプレイ305(HMD装着者以外の視聴者がディスプレイ305によって表示された画像を見ることができることを意味する)および装置の動作中に(たとえば)ユーザ(HMD装着者など)に向けられるカメラ315を示す。適切なカメラの例は、プレイステーションアイカメラであるが、より一般的には一般的な「ウェブカメラ」であり、有線(USBなど)または無線(WiFi(登録商標)またはブルートゥースなど)でコンソール300に接続される。
ディスプレイ305は、いわゆる「ソーシャルスクリーン」の機能を提供するように(ゲームコンソールの制御下で)構成されてもよい。HMDを使用してコンピュータゲームをプレイすることは、HMDの着用者にとっては非常に魅力的であり得るが、付近の他の人々にとっては(特に彼ら自身がHMDを着用していない場合)それほどではない。動作中のHMDの数がユーザの数より少ないユーザのグループに改善された体験を提供するために、ソーシャルスクリーン上に画像を表示することができる。ソーシャルスクリーン上に表示される画像は、HMDを装着しているユーザに表示されるものと実質的に類似しているので、HMD装着者が見るように、ソーシャルスクリーンの視聴者は仮想環境(またはそのサブセット、あるバージョンまたは表現)を見ることができる。他の例では、ソーシャルスクリーンは、進行中のコンピュータゲームを通じたHMD装着者の現在の進捗に関する情報などの他の資料を表示することができる。例えば、HMD装着者は一人称視点からゲーム環境を見ることができる一方、ソーシャルスクリーンはHMD装着者のアバタの活動および動きの第三者表示、または仮想環境の大部分の概観を提供することができる。これらの例では、画像生成器(例えば、ゲームコンソールの機能の一部)は、ヘッドマウントディスプレイとは別のディスプレイによる表示のためにいくつかの仮想環境画像を生成するように構成される。
図7は、HMD20がケーブルリンク82、84によって接続されたベースデバイスまたは中間デバイス350として機能するいわゆる「ブレイクアウトボックス」にゲームコンソールが(有線または無線リンクによって)接続されている同様の構成(仮想現実システムの別の例)を概略的に示す。ブレイクアウトボックスには、この点に関してさまざまな機能がある。1つの機能は、(例えば)電力制御、輝度制御、入力ソースセレクタ、音量制御などHMDの動作に関連するいくつかのユーザ制御のために、ユーザに近い場所を提供することである。別の機能は、(議論される実施の形態に従ってそれが必要とされる場合)HMD用のローカル電源を提供することである。別の機能は、局部的なケーブル固定点を提供することである。この最後の機能では、ブレイクアウトボックス350を地面または家具に固定することは想定していないが、ゲームコンソール300からの非常に長いトレーリングケーブルを有するのではなく、ブレイクアウトボックスが局所的に重りの付いた地点を提供することにより、ブレイクアウトボックスに連結するケーブル82、84がブレイクアウトボックスの位置の周りを移動する傾向をHMD20がもつようにすることができる。これにより、非常に長いトレーリングケーブルを使用しなくても済むようになり、ユーザの安全性と快適性を向上させることができる。
HMDが相互接続されたデバイスの集合または群の一部を形成してもよい(換言すると、データ転送または信号転送の目的のために相互接続されているが、必ずしも物理的なケーブルで接続されているわけではない)ことを仮定すると、全体的な効果を変えることなく、本願に記載された様々な技術における処理の局在化を変えることができることが理解できる。したがって、HMDなどの1つのデバイスにおいて行われると説明されている処理は、ゲーム機(ベースデバイス)またはブレイクアウトボックスなどの別のデバイスに委譲することができる。処理タスクはデバイス間で共有することができる。必要に応じて、処理が行われることになっているソース信号を別のデバイスに配信することができ、あるいはそれらのソース信号の処理からの処理結果を別のデバイスに送信することができる。したがって、特定のデバイスで行われる処理への言及はすべてこの文脈で理解されるべきである。同様に、2つのデバイス間の相互作用が基本的に対称的である場合、例えば1つのデバイス上のカメラまたはセンサが他のデバイスの信号または特徴を検出する場合、文脈がこれを禁じない限り、2つのデバイスは機能を喪失せずに相互に入れ替えることができる。
上述のように、仮想現実(VR)または拡張現実(AR)システムに関連するものなどHMDのいくつかの用途では、ユーザの視点は、ユーザが位置する現実空間または仮想空間に関して動きを追跡する必要がある。
この追跡は、HMDの動きを検出し、見かけの視点が動きを追跡するように表示画像の見かけの視点を変化させることによって実行される。
図8は、VRまたはARシステムにおけるユーザの頭の動きの影響を概略的に示す。
図8を参照すると、仮想環境は、ユーザの周りの(仮想)球状シェル250によって表される。これは仮想表示画面(VDS)の例である。この配置を二次元の紙の図面上に表現する必要があるため、シェルは、表示された虚像をユーザから分離するのと等価なユーザからの距離にある円の一部によって表される。ユーザは最初第1の位置260にあり、仮想環境の一部270に向いている。ユーザのHMDのディスプレイ要素150に表示される画像に表されるのはこの部分270である。図面から分かるように、HMD装着者がHMDの向きに従ってVDSの現在の部分を見ることができるように、VDSがHMD装着者の空間内の位置の周りの(仮想的な意味の)3次元空間に存在する。
次にユーザが自分の頭を新しい位置および/または向き280に移動させる状況を考える。仮想現実または拡張現実表示の正しい感覚を維持するために、仮想環境の表示された部分も移動し、その結果、移動の終わりに、新しい部分290がHMDによって表示される。
したがって、この配置では、仮想環境内の見かけの視点は頭の動きと共に動く。例えば、図8に示すように頭部が右側に回転すると、見かけの視点もまたユーザの視点から右側に移動する。表示されたオブジェクト300のような表示されたオブジェクトの観点から状況が考えられる場合、これは頭の動きと反対方向に事実上動くであろう。したがって、頭の動きが右向きである場合、見かけの視点は右に移動するが、仮想環境内で静止している表示オブジェクト300などのオブジェクトは表示画像の左に向かって移動し、最終的に表示画像の左手側から消える。仮想環境の表示された部分が右側に移動したのに対して表示オブジェクト300は仮想環境内で移動しなかったという単純な理由からである。
図9aおよび図9bは、動き検知を伴うHMDを概略的に示す。2つの図面は、図2に示されているものと同じ形式である。すなわち、図面はHMDの概略平面図であり、ディスプレイ要素150および光学要素160は単純な箱型で表されている。図を明確にするために、図2の多くの特徴は示されていない。両図は、観察者の頭部の動きを検出するための動き検出器を有するHMDの例を示す。
図9aでは、前方カメラ322がHMDの前面に設けられる。これは、上述したカメラ122と同じカメラでもよく、または追加のカメラでもよい。これは必ずしもユーザに表示するための画像を提供するわけではない(ただし、拡張現実の構成ではそれも可能である)。その代わりに、本実施の形態におけるその主な目的は、動き検知を可能にすることである。カメラ322によってキャプチャされた画像をモーションセンシングに使用するための技術は、図10に関連して以下に説明される。これらの構成では、動き検出器は、フレームと共に動くように取り付けられたカメラと、画像間の動きを検出するためにカメラによってキャプチャされた連続画像を比較するように動作可能である画像比較器とを含む。
図9bはハードウェア動き検出器332を利用する。これは、HMD内またはHMD上のどこにでも取り付けることができる。適切なハードウェア動作検出器の例は、圧電加速度計または光ファイバジャイロスコープである。ハードウェア動き検出とカメラベースの動き検出の両方を同じデバイスで使用することができ、その場合、一方のセンシング構成を他方のセンシング構成が利用できないときのバックアップとして使用することができる。また、一方のセンシング構成(カメラなど)が表示された画像の見かけの視点を変更するためのデータを提供することができる一方、他方のセンシング構成(加速度計など)は画像安定化のためのデータを提供することができる。
図10は、図9aのカメラ322を用いた動き検出の一例を概略的に示す。
カメラ322はビデオカメラであり、例えば毎秒25画像の画像キャプチャレートで画像をキャプチャする。各画像がキャプチャされると、その画像は格納のために画像ストア400に渡され、また画像比較器410によって画像ストアから検索された先行画像と比較される。この比較は、先行画像がキャプチャされた時点から実質的に全体の画像が移動したかどうかを確かめるために既知のブロックマッチング技術(いわゆる「オプティカルフロー」検出)を使用する。局所化された動きは、カメラ322の視野内の動いている物体を示すかもしれないが、実質的に画像全体の大域的な動きは、キャプチャされたシーンにおける個々の特徴よりもむしろカメラの動きを示す傾向がある。本事例では、カメラがHMDに取り付けられているため、カメラの動きはHMDの動きに対応し、ひいてはユーザの頭の動きに対応する。
画像比較器410によって検出されるような、ある画像と次の画像の間の変位は、動き検出器420によって動きを示す信号に変換される。必要ならば、動き信号は積分器430によって位置信号に変換される。
上述のように、HMDに関連付けられたビデオカメラによってキャプチャされた画像間で画像間の動きを検出することによる動き検出の代替として、またはそれに加えて、HMDは、加速度計などメカニカルまたは半導体検出器332を用いて頭部の動きを検出することができる。ビデオベースのシステムの応答時間がせいぜい画像キャプチャレートの逆数であると仮定すると、これは実際、動きの表示に関してより速い応答を与えることができる。したがって、場合によっては、検出器332は、より高い周波数の動き検出で使用するのにより適している。しかしながら、他の例では、例えば、高画像レートカメラ(例えば、200Hzのキャプチャレートカメラ)が使用される場合、カメラベースのシステムがより適切であり得る。図10に関して、動き検出器420に直接入力を提供するために、検出器332はカメラ322、画像記憶装置400および比較器410の代わりになることができる。あるいは、検出器332が動き検出器420の代わりにもなり、物理的な動きを示す出力信号を直接提供することもできる。
他の位置または動き検出技術ももちろん可能である。例えば、HMDが可動パンタグラフアームによって定点(例えば、データ処理装置上または家具上)に連結される機械的構成を使用することができ、位置および方位センサは、パンタグラフアームのたわみにおける変化を検出する。他の実施の形態では、HMD上および固定点上に取り付けられた1つまたは複数の送信機および受信機のシステムを使用して、三角測量技法によるHMDの位置および向きの検出を可能にすることができる。例えば、HMDは1つまたは複数の指向性送信機を搭載することができ、既知または固定点に関連付けられた受信機のアレイは1つまたは複数の送信機からの相対信号を検出することができる。あるいは、送信機を固定し、受信機をHMD上に置くこともできる。送信機および受信機の例には、赤外線変換器、超音波変換器および無線周波数変換器が含まれる。無線周波数変換器は、ブルートゥース(登録商標)リンクなどの、HMDへのおよび/またはHMDからの無線周波数データリンクの一部を形成することもできるという点で、二重の目的を有することができる。
図11は、HMDの検出位置または位置の変化に応答して実行される画像処理を概略的に示す。
図10に関連して上述したように、仮想現実および拡張現実配置などのいくつかの用途では、HMDのユーザに表示されるビデオの見かけの視点は、ユーザの頭の実際の位置または向きの変化に応答して変化する。
図11を参照すると、これは、動きおよび/または現在位置を示すデータを必須の画像位置検出器460に供給する動きセンサ450(図10の構成および/または図9bの動き検出器332など)によって達成される。画像位置検出器460は、HMDの実際の位置を表示に必要な画像を定義するデータに変換する。画像生成器480は、必要に応じて画像ストア470に格納されている画像データにアクセスし、HMDによる表示のために適切な視点から必要な画像を生成する。外部ビデオ信号源は、画像生成器480の機能を提供し、検出された動きの方向に観察者の見かけの視点を変えるために、検出された動きの方向とは反対方向に表示画像を移動させるように表示画像の視点を変更することによって観察者の頭部の運動の低周波数成分を補償するコントローラとして働くことができる。
図12は、HMD1200、1つまたは複数のユーザコントロール1210、ゲームエンジン1220、画像プロセッサ1230、カメラ1240、および任意選択で上述したタイプのソーシャルスクリーン1250を含む仮想現実システムまたは装置を概略的に示す。
使用中、ユーザはHMD1200を装着し、1つまたは複数の制御装置またはコントローラ1210を操作することができる。適切なユーザコントロールの例は、図6および図7に示されるコントローラ330を含む。ゲームエンジン1220は、有線または無線接続1260を介して画像および音声コンテンツなどの他のコンテンツをHMDに提供し、接続1260を介してまたはカメラ1240を介してコントローラ1210から入力を受け取る。
カメラ1240は、使用中のHMDおよび/またはコントローラに向けられる。したがって、カメラ1240は、HMD1200の現在位置および/または向き、ならびにコントローラ1210の現在位置および/または向きをキャプチャすることができ、これらのそれぞれは、キャプチャされた画像から画像プロセッサ1230によって検出される。これらのキャプチャされた位置および/または向きは、ゲーム制御動作などのゲームエンジン1220のデータ処理動作を制御するために使用することができる。
したがって、例では、ゲームエンジン1220への様々な種類の制御入力がある。たとえば、カメラ1240によってキャプチャされたキャプチャ画像から画像プロセッサ1230によって導出された制御入力1270、および/または、有線または無線接続1260を介して制御1210から受信された制御入力などである。画像プロセッサ1230は、カメラ1240によってキャプチャされた1つまたは複数の画像から、(i)HMD1200の現在の向きおよび(ii)HMD1200の現在位置のうちの1つまたは複数を検出するための画像プロセッサの一例を提供する。ゲームエンジン1220は、画像プロセッサによる検出に従ってデータ処理機能を指示するデータプロセッサの一例を提供する。いくつかの例では、データ処理機能はゲームプレイ機能である。
以下に論じるように、図12の装置によって実行することができるさらなる機能は、基本向きに対するHMDの現在の向きを検出することである。いくつかの例では、HMDの基本向きは、カメラ1240に面する向きであるが、他の基本向きを使用することもできる。ゲームエンジンは、HMDにコンテンツを提供して基本向きへの動きを開始することができる。この構成の例は以下に詳細に説明される。
したがって、例示的構成では、図12は、HMD1200と、HMDの基本方位からのHMDの現在の向きの偏差を検出するための検出器(1230、1220)と、HMDの向きを基本向きに向けて変えるようにHMDの着用者に自分の頭を向けるように促すためにHMDの着用者に提示するためのコンテンツ(後述する)を生成するための生成器1220と、を備える仮想現実装置を提供する。
HMDの現在の向きおよび/または位置を検出するための例示的な技法について、図13から図15を参照しながら説明する。特に、図13はHMDの概略側面図、図14はHMDの概略正面図、図15はカメラ1240のようなカメラの概略図である。
図13を参照すると、HMD1300はユーザの頭1310上に示されており、HMDをユーザの頭に保持する1つまたは複数のストラップは概略破線1320で示されている。同図では、ユーザはページの右側を向いているように表される。
1つ以上の光学的に検出可能な特徴がHMD上に提供される。図13の例では、光学的に検出可能な特徴は、この例では発光ダイオード(LED)1330として設けられている複数の発光体である。同様に、図14の正面図(ユーザの頭部はHMDの正面図1410に対する破線1400として示されているため、この例ではユーザはページの外を見ているように示されている)において、さらなるLEDがある。実際、HMDがユーザの頭の周りで湾曲する構成例では、LED1420または1430は、側面図から図13で見えるもののうちのいくつかと同じである。さらなるLED1440がHMDの中央に向かって設けられる。
これらのLEDは、カメラ1240によって光学的に検出可能であるように構成することができる。いくつかの例では、これは、カメラ1240によってキャプチャされた画像によって表されるシーン内の光の輝点を検出することによるものである。他の例では、1つまたは複数のLEDの色は、ゲームエンジン1220の制御下で選択可能であり、例えば、非対称の(左から右への)照明パターンを提供し、かつ/または同じキャプチャ画像に存在する複数のHMDユーザを区別することを可能にする。さらなる例では、LEDの時間ベースの変調を使用して、ここでもシステムに複数のユーザを区別する能力を与え、非対称の照明パターンを与え、および/またはLEDの存在の検出を支援することができる。これらの技術のうちの任意の1つまたは複数を組み合わせることができる。
HMDの前面および側面にLEDが存在すると、カメラに面する好ましいまたは基本的な向きが生じる。しかしながら、他の基本向きも使用可能である。例えば、マーキングおよび/またはLEDがHMDストラップに設けられている場合、基本向きは、ユーザの頭がカメラから背けられていることである。マーキングおよび/またはLEDがHMDの上部ストラップまたは表面に設けられている場合、好ましい向きはHMDの上にカメラがあることである。マーキングやLEDは必須ではなく、システムは、その代わりに(または同様に)HMDの形状および/または構成、および/またはユーザの頭部の外観などの他の特徴を認識することができることに留意されたい。
カメラ1240は、深度カメラの機能を提供するために、横方向に間隔を置いて配置されたカメラの立体視ペア1510、1520を有するカメラ構成1500として図15に概略的に示されている。図15の立体カメラは深度カメラの一例に過ぎない。いわゆる構造化赤外光(例えば、赤外線センサを使用して深さ情報を取得することができる赤外線の投影グリッド)を使用するものなどの他の種類のカメラも、キャプチャされた画像内の画像素材の深さパラメータを検出するための深度カメラとして機能することができる。他の深度カメラ技術は、超音波深度検出を使用する構成を含むことができる。
深度検出の態様はHMDの位置の検出に関するものであるのに対して、現在の向きの検出は深度機能を持たないカメラによって実行することができることが理解されよう。したがって、いくつかの例は深度カメラを提供するが、これは、HMDの現在の向きのHMDの基本向きからの偏差の検出に関する事例の不可欠な特徴ではない。
向きの検出およびその基本向きからの偏差については、図17Aから図19Bを参照して以下に説明する。
図16は、1つまたは複数のボタン1600と、照明部分1610とを備えるハンドヘルドコントローラの概略図である。ユーザがボタン1600のうちの1つまたは複数を押すと、リンク1260によって信号をゲームエンジン1220に送ることができる。照明部分1610の位置は、カメラ1240によってキャプチャされた画像から検出することができる。ここでも、例えば、検出を支援したり、複数のゲームコントローラを互いに区別したりするのを助けるために、ゲームエンジン1220によって色、明るさ、および時間変調(またはこれらのうちの任意の1つもしくは複数)を制御することができる。
図17A、図18A、および図19Aは、HMDを装着しているユーザのカメラに対する向きを概略的に表し、図17B、図18B、および図19Bは、それぞれ図17A、図18A、および図19Aの構成のキャプチャされた画像を概略的に表す。
図17Aでは、HMD1710を装着してカメラ1720、例えば上述のカメラ1240に面しているユーザ1700の平面図(すなわち、下向きの概略図)が示されている。図17Bは、HMDを装着しているユーザの頭部の画像または画像の一部の概略図を示し、カメラに面するHMDに特有の発光体1730のパターンは画像プロセッサ1230によって検出される。
図18Aでは、ユーザは頭をわずかに片側に向けているので、(図18Bに概略的に示すように)カメラ1720によってキャプチャされたビューは、ユーザが自分の頭を横に向けたことを示すLED1730の特徴的なパターンを表し、描画されたパターンの非対称性によって、ユーザがどちらの方向を向いたかを示す。
図19Aでは、ユーザは、カメラ1720に対して自分の頭を側面に90度回転させている。図19Bに概略的に示されるキャプチャ画像は、ユーザが自分の頭をカメラ1720から十分に背けたことを示す、より少数のLEDを示す。
特に、完全没入型のバーチャルリアリティシステムでは、ユーザがそうしているとは必ずしも認識せずに、ユーザがカメラ1240から顔を背けるように移動することは十分にありうる。例示的な実施の形態は、例えばゲームプレイ状況において、ユーザのHMDの使用を必ずしも邪魔することなく、便利で邪魔しない方法で、カメラに面する方向である基本方向(図17A)に戻るようにユーザに促す技術を提供する。
図20を参照すると、ゲームエンジン1220によって使用される制御技術を表す概略フローチャートは、以下のステップを含む。ステップ2000において(カメラ1240によって)HMDの画像を検出する。ステップ2020においてHMDの3D位置を検出し、ステップ2220において(画像プロセッサ1230によって)HMDの向きを検出する。ステップ2030において、検出された3D位置および検出された向きに応答してゲームエンジン1220によってゲームプレイを制御するなどのデータ処理機能を制御する。上述したように、3D位置の検出は任意選択であり、ステップ2010、2020は画像プロセッサ1230によっていずれかの順序で又は実際には両方一緒に実行することができることにも留意されたい。
図21は、画像プロセッサ1230および/またはゲームエンジン1220が、(ステップ2100において)HMDがその向きを基本向きに向かって変更するために移動すべき方向を検出し、ステップ2110において、ゲームエンジンが生成器として機能し、HMDの着用者に提示するためのコンテンツを生成し、HMDの着用者に頭を回転させてHMDの向きを基本向きに変更するように促す方法を示す概略フローチャートである。
図18Bおよび図19Bに示す例では、カメラに面する方向などの基本方向に戻るための基本方向の変化が、矢印1800、1900によって概略的に示されている。
図22は、これを達成するための例示的構成のより詳細を提供する概略フローチャートである。
ステップ2200において、画像プロセッサおよび/またはゲームエンジンは、HMDがカメラに面していないことを検出する、または言い換えると、HMDの現在の向きとHMDの基本向きとの偏差を検出する。ステップ2200において、検出器は、基本方位からの閾値偏差(±10度など)未満の偏差を破棄するように構成することができることに留意されたい。
ステップ2210において、画像プロセッサおよび/またはゲームエンジンは、HMDの向きを基本向きに向けて変更するために移動するのに必要な方向を検出する。上述したように、これは、例えば、現在検出されている向きを基本向きの変化にマッピングすることによって達成することができる。言い換えれば、図18Bを参照すると、この検出は、ユーザが図18Aによって表される方向に頭を向けたことであり、したがって必要な変化は、矢印1800によって示される反対方向の変化である。ユーザがHMDの向きを基本向きから変えたという事実は、図17Bに示す照明のパターンまたは他の検出可能なマーカがないことによって検出可能である。変化の感知または方向は、残りの可視照明マーカおよび照明マーカの非対称性を含むそれらの相対的な構成から検出することができる(たとえば、HMDの各側端の照明マーカが異なる色を有する場合、キャプチャされた画像に残っている色は、ユーザがHMDをどちらの方向に向けたかを示す)。他の例では、HMDが最後にカメラに面していた以降のHMDの動きが追跡され検出される(例えば、HMD1200から接続1260を介してゲームエンジンに送信される)ように、図9A、図9B、図10および図11の任意の動き検出技術を使用することができる。その結果、対面向きに戻るために必要な方向は、その最後の機会以降に検出された正味の動きの反対方向から導き出される。
ステップ2220において、ゲームエンジンは、HMDの着用者に頭を回転させてHMDの向きを基本向きに変更するように促すためにHMDの着用者に提示するコンテンツを生成することによってプロンプトを生成する。このプロンプトは、HMDの装着者に提示されるか、またはステップ2220において適用される。
次に、ステップ2230において、生成器によって生成されたコンテンツをHMDの装着者に提示した後、検出器(画像プロセッサおよび/またはゲームエンジン)は、HMDの向きのさらなる変化または後続の変化を検出し、検出された向きの変化が、基本向きに向かう方向または基本向きから離れる方向にあるかどうかを検出するように構成される。検出された向きの変化が「正しい」感覚の場合、すなわちそれが基本向きに向かっている場合、ステップ2240において、画像プロセッサおよび/またはゲームエンジンは基本向きに到達したかどうかを検出する。そうである場合、プロセスはステップ2250で終了し、そうでない場合、ステップ2220でプロンプト(または別のプロンプト)が適用される。
しかし、ステップ2230において、ユーザがHMDの向きを変えたが「誤った」方向にある、すなわち基本向きから離れていることを検出した場合、検出器(画像プロセッサおよび/またはゲームエンジン)はステップ2210における方向検出に誤りがあった可能性があることを検出することができ、ステップ2240において検出された方向を逆転させ、次回のステップ2220において反対の感覚または方向になるようにユーザにプロンプトを適用する。したがって、検出された向きの変化が基本向きから離れる方向にあるとき、生成器は生成される内容を変えるように構成される。
ユーザにHMDの向きを変更するように促すことができるコンテンツをユーザに提供するための技術が、図23から図26を参照してここで説明される。
図23は、HMD2310を装着しているユーザ2300(ページから外に向いている)を概略的に表す。HMDは、非対称に配置されたコンテンツ提供要素2320、2330を含む。いくつかの例では、これらは振動要素である。他の例では、これらは、HMDの着用者に見える照明デバイスである。さらなる実施の形態において、これらの両方を提供することができる。
図23の例では、コンテンツの生成および提供、ならびにユーザへのコンテンツの提示は、以下を含むことができる。
a)要素2320、2330が振動デバイスを含む場合、生成器は、生成されるコンテンツとして、1つ以上の振動デバイスが振動するように制御するための信号を生成するように構成される。これらの例では、ユーザがユーザの頭の片側または他の側に感じる軽いバズのような振動によって、ユーザに自分の頭をその方向に向けるように指示することができる(または実際には、異なる構成は、ユーザが自分の頭部を振動から離れるように回転させるように促されることを意味してもよい。利用する構成をユーザに示すことができるか、あるいはユーザはそれを試行錯誤によって単に学ぶことができる)。
b)要素2320、2330がHMDの装着者に見える1つまたは複数の照明装置を含む場合、生成器は、生成されるコンテンツとして、1つまたは複数の照明装置が点灯するように制御するための信号を生成するように構成することができる。ここでもまた、利用する構成が事前にユーザに提示されるか、試行錯誤によってユーザによって学習された状態で、ユーザは、照明された照明装置からの光に向かって頭を向けるか、実際にはその光から頭を背けるように促される。
c)これらは両方とも同じHMDで使用することができる。
図24は、HMDの装着者に頭を向けるように促すように仮想環境を修正する方法を示す概略フローチャートである。
ステップ2400において、必要な移動方向が検出される(図22のステップ2210に対応する)。
次に、ステップ2410において、ゲームエンジンは、HMDを着用しているユーザによる仮想環境の現在のビューを検出する。これは、ゲームを表す仮想環境でも別の種類の仮想環境でもよい。しかし、図8を参照して上述したように、ユーザは現在のビュー(図8では仮想環境250のビュー270または290として示されている)を持つ。その仮想環境内で、ステップ2420において、ゲームエンジンはプロンプトまたはキャラクタまたは他のアイテムをシーンに導入することができる。
ステップ2420は、ユーザに関心のあるアイテム(例えば、ゲーム環境では、賞品または友好的なアバタ)を、ユーザの現在の視点の片側(しかし、依然として現在ユーザには見えている)に導入し、導入されたアイテムやキャラクタに目を向けるようにユーザに促す方向に移動させることを含むことができる。他の例では、仮想環境においてユーザが避けたいと思うアイテムまたはキャラクタをユーザの現在の視点の片側に導入して、その方向から離れる(したがって、HMDの基本方向に向かう)ようにユーザに促すことができる。例えば、危険または敵を仮想環境に持ち込むことができる。
図25は、上述した図5に示したものと同様の表示画像の例を概略的に示しており、仮想キャラクタ2500がユーザの現在の視点の片側に導入されている。仮想キャラクタ2500が敵である場合、ユーザは、敵2500から遠ざかるように頭を左2510に向ける可能性が高い。仮想キャラクタ2500が友人であると知覚される場合、ユーザは、仮想キャラクタ2500に向かう方向に自分の頭を右2520に向ける可能性が高い。バーチャルハザードまたはバーチャル賞品を含む例にも、同様の取り決めが適用される。
図26には、再び左右の目に対する表示例が示されており、ここでは、ユーザが自分の頭を向けるべき方向を示すより単純な指示2600が片方または両方の目に設けられている。これは仮想環境内で提供することができるが、ユーザがどの方向を向くべきかに関してユーザが疑うことがないように描かれた矢印のような直接的な指示として提供することができる。いくつかの例では、指示2600にしたがうユーザは、例えば、仮想賞金、またはカメラが要求する向きでのゲーム環境内の他の利益の存在によって報酬を受けることができる。
したがって、これらの構成は、HMDが仮想環境の表現を表示するように構成され、生成器(例えば、画像プロセッサおよび/またはゲームエンジン)が、HMDによる仮想環境の現在のビュー、およびHMDの現在の向きに対するHMDの基本向きの方向に依存して、生成されるコンテンツとして、仮想環境内の位置における1つまたは複数の特徴または関心点を生成する(または「生み出す」)ように構成される例を提供する。
例示的な実施の形態は、ゲーム機などの汎用コンピューティングシステム上で動作するコンピュータソフトウェアによって実装することができることが理解されよう。これらの例では、コンピュータによって実行されたときにコンピュータに上述の方法のいずれかを実行させるコンピュータソフトウェアは、本開示の実施の形態と見なされる。同様に、本開示の実施の形態は、そのようなコンピュータソフトウェアを記憶する非一時的な機械可読記憶媒体によって提供される。
上記の教示に照らして、本開示の多数の修正および変形が可能であることもまた明らかであろう。したがって、添付の特許請求の範囲内で、本明細書に具体的に記載されているのとは別の方法で本開示を実施することができることを理解されたい。

Claims (13)

  1. ヘッドマウントディスプレイ(HMD)と、
    前記HMDの基本向きからの前記HMDの現在の向きの偏差を検出する検出部と、
    前記HMDの装着者に自分の頭部を回転させるように促して前記HMDの向きを前記基本向きに変更するために前記HMDの装着者に提示するコンテンツを生成する生成部とを備え、
    前記HMDは前記装着者の頭部の片側またはその反対側に備えられた1以上の振動デバイスを含み、
    前記生成部は、生成される前記コンテンツとして、前記装着者に自分の頭部を振動の方向に向けるようにまたは振動の方向から離れるように回転させるように促すために、前記装着者の頭部の片側またはその反対側に備えられた前記1以上の振動デバイスが振動するように制御するための信号を生成するように構成され
    前記検出部は、前記生成部によって生成された前記コンテンツの提示の後、前記HMDの向きの変化を検出するように構成され、
    検出された前記HMDの向きの前記変化が、前記基本向きから離れる方向にある場合、前記生成部は、検出された前記HMDの向きの前記変化の方向を逆転させるように前記HMDの装着者に促す内容に、生成された前記コンテンツを変更するように構成される、
    仮想現実装置。
  2. 1以上の画像をキャプチャするためのカメラをさらに備え、
    前記HMDの前記基本向きは、前記カメラに対面する向きである、
    請求項1に記載の装置。
  3. 前記カメラによってキャプチャされた1以上の画像から、(i)前記HMDの現在の向き、および(ii)前記HMDの現在の位置の内、1つ以上を検出する画像プロセッサと、
    前記画像プロセッサによる検出にしたがって、データ処理機能を指示するデータプロセッサとをさらに備える、
    請求項2に記載の装置。
  4. 前記データ処理機能はゲームプレイ機能である、請求項3に記載の装置。
  5. 前記カメラは深度カメラである、請求項3または4に記載の装置。
  6. 前記HMDは1以上の光学的に検出可能な特徴を有する、請求項2から5のいずれかに記載の装置。
  7. 前記1以上の光学的に検出可能な特徴は、複数の発光体を含む、請求項6に記載の装置。
  8. 前記HMDは、前記HMDの装着者に見える1以上の照明デバイスを含み、
    前記生成部は、生成される前記コンテンツとして、前記1以上の照明デバイスが照明するように制御するための信号を生成するように構成される、
    請求項1から7のいずれかに記載の装置。
  9. 前記HMDは、仮想環境の表現を表示するように構成され、
    前記生成部は、生成される前記コンテンツとして、前記HMDによる前記仮想環境の現在のビュー、および前記HMDの現在の向きに対する前記HMDの前記基本向きの方向に依存して、前記仮想環境の位置において1以上の特徴を生成するように構成される、
    請求項1から8のいずれかに記載の装置。
  10. 前記検出部は、閾値偏差未満の偏差を破棄するように構成される、請求項1からのいずれかに記載の装置。
  11. ヘッドマウントディスプレイ(HMD)の基本向きからの前記HMDの現在の向きの偏差を検出するステップと、
    前記HMDの装着者に自分の頭部を回転させるように促して前記HMDの向きを前記基本向きに変更するために前記HMDの装着者に提示するコンテンツを生成するステップとを備え、
    前記HMDは前記装着者の頭部の片側またはその反対側に備えられた1以上の振動デバイスを含み、
    前記生成するステップは、生成される前記コンテンツとして、前記装着者に自分の頭部を振動の方向に向けるようにまたは振動の方向から離れるように回転させるように促すために、前記装着者の頭部の片側またはその反対側に備えられた前記1以上の振動デバイスが振動するように制御するための信号を生成するように構成され
    前記検出するステップは、前記生成するステップによって生成された前記コンテンツの提示の後、前記HMDの向きの変化を検出するように構成され、
    検出された前記HMDの向きの前記変化が、前記基本向きから離れる方向にある場合、前記生成するステップは、検出された前記HMDの向きの前記変化の方向を逆転させるように前記HMDの装着者に促す内容に、生成された前記コンテンツを変更するように構成される、
    方法。
  12. コンピュータによって実行されたとき、請求項1の方法をコンピュータに実行させる、コンピュータソフトウェア。
  13. 請求項1に記載のコンピュータソフトウェアを格納する非一時的で機械読み取り可能な記録媒体。
JP2019529870A 2016-12-09 2017-12-06 ユーザ頭部回転ガイド付きヘッドマウントディスプレイ Active JP7177054B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
GB1620985.0A GB2557593A (en) 2016-12-09 2016-12-09 Virtual reality
GB1620985.0 2016-12-09
PCT/GB2017/053676 WO2018104732A1 (en) 2016-12-09 2017-12-06 Head mounted display with user head rotation guidance

Publications (2)

Publication Number Publication Date
JP2020501263A JP2020501263A (ja) 2020-01-16
JP7177054B2 true JP7177054B2 (ja) 2022-11-22

Family

ID=58222112

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019529870A Active JP7177054B2 (ja) 2016-12-09 2017-12-06 ユーザ頭部回転ガイド付きヘッドマウントディスプレイ

Country Status (5)

Country Link
US (1) US11507201B2 (ja)
EP (1) EP3552052A1 (ja)
JP (1) JP7177054B2 (ja)
GB (1) GB2557593A (ja)
WO (1) WO2018104732A1 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2557593A (en) 2016-12-09 2018-06-27 Sony Interactive Entertainment Inc Virtual reality
GB2572382B (en) * 2018-03-28 2020-10-07 Sony Interactive Entertainment Inc Data processing
US10986270B2 (en) * 2018-06-18 2021-04-20 Magic Leap, Inc. Augmented reality display with frame modulation functionality
US11624909B2 (en) 2018-06-18 2023-04-11 Magic Leap, Inc. Head-mounted display systems with power saving functionality
CN114236843B (zh) * 2021-12-24 2023-01-31 上海摩软通讯技术有限公司 可穿戴设备
CN114838763B (zh) * 2022-04-20 2023-11-17 青岛虚拟现实研究院有限公司 障碍物检测的方法及vr眼镜和存储介质
WO2024129121A1 (en) * 2022-12-14 2024-06-20 Google Llc Gesture input for head-mounted device

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006087709A1 (en) 2005-02-17 2006-08-24 Lumus Ltd. Personal navigation system
JP2013258614A (ja) 2012-06-13 2013-12-26 Sony Computer Entertainment Inc 画像生成装置および画像生成方法
US20150094142A1 (en) 2013-09-30 2015-04-02 Sony Computer Entertainment Inc. Camera based safety mechanisms for users of head mounted displays
JP2015232783A (ja) 2014-06-09 2015-12-24 株式会社バンダイナムコエンターテインメント プログラムおよび画像生成装置
JP5981006B1 (ja) 2015-09-14 2016-08-31 株式会社コロプラ 視線誘導のためのコンピュータ・プログラム
JP2016192027A (ja) 2015-03-31 2016-11-10 株式会社コロプラ ポジショントラッキング領域表示システム、及び方法
WO2016185634A1 (ja) 2015-05-21 2016-11-24 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5981006A (ja) * 1982-10-28 1984-05-10 Sakurai Seisakusho:Kk 竪型切削盤
JP3363837B2 (ja) * 1999-06-11 2003-01-08 キヤノン株式会社 ユーザインタフェース装置および情報処理方法
US7418170B2 (en) 2004-03-29 2008-08-26 Sony Corporation Optical device and virtual image display device
JP4674634B2 (ja) * 2008-12-19 2011-04-20 ソニー株式会社 頭部装着型ディスプレイ
US9498720B2 (en) * 2011-09-30 2016-11-22 Microsoft Technology Licensing, Llc Sharing games using personal audio/visual apparatus
US9311883B2 (en) * 2011-11-11 2016-04-12 Microsoft Technology Licensing, Llc Recalibration of a flexible mixed reality device
JP5663102B2 (ja) * 2011-12-12 2015-02-04 パイオニア株式会社 表示装置、表示方法及び表示プログラム
JPWO2013179426A1 (ja) * 2012-05-30 2016-01-14 パイオニア株式会社 表示装置、ヘッドマウントディスプレイ、表示方法及び表示プログラム、並びに記録媒体
JP5580855B2 (ja) * 2012-06-12 2014-08-27 株式会社ソニー・コンピュータエンタテインメント 障害物回避装置および障害物回避方法
US9709806B2 (en) * 2013-02-22 2017-07-18 Sony Corporation Head-mounted display and image display apparatus
KR102271727B1 (ko) * 2013-03-15 2021-06-30 매직 립, 인코포레이티드 디스플레이 시스템 및 방법
US9563331B2 (en) * 2013-06-28 2017-02-07 Microsoft Technology Licensing, Llc Web-like hierarchical menu display configuration for a near-eye display
KR102119659B1 (ko) * 2013-09-23 2020-06-08 엘지전자 주식회사 영상표시장치 및 그것의 제어 방법
US9766463B2 (en) * 2014-01-21 2017-09-19 Osterhout Group, Inc. See-through computer display systems
US20160187651A1 (en) * 2014-03-28 2016-06-30 Osterhout Group, Inc. Safety for a vehicle operator with an hmd
US9652893B2 (en) * 2014-04-29 2017-05-16 Microsoft Technology Licensing, Llc Stabilization plane determination based on gaze location
KR20160027627A (ko) * 2014-09-01 2016-03-10 삼성전자주식회사 정보 제공 방법 및 이를 지원하는 전자 장치
JP6474278B2 (ja) * 2015-02-27 2019-02-27 株式会社ソニー・インタラクティブエンタテインメント 画像生成システム、画像生成方法、プログラム及び情報記憶媒体
JP2016205865A (ja) * 2015-04-16 2016-12-08 株式会社パンタグラフ 誘導システム、携帯端末、およびプログラム
EP3112985A1 (en) 2015-06-30 2017-01-04 Nokia Technologies Oy An apparatus for video output and associated methods
US20170053545A1 (en) * 2015-08-19 2017-02-23 Htc Corporation Electronic system, portable display device and guiding device
US10113877B1 (en) * 2015-09-11 2018-10-30 Philip Raymond Schaefer System and method for providing directional information
CN108292040B (zh) * 2015-09-30 2020-11-06 索尼互动娱乐股份有限公司 优化头戴式显示器屏幕上的内容定位的方法
US9648438B1 (en) * 2015-12-16 2017-05-09 Oculus Vr, Llc Head-related transfer function recording using positional tracking
KR102524641B1 (ko) * 2016-01-22 2023-04-21 삼성전자주식회사 Hmd 디바이스 및 그 제어 방법
US10229541B2 (en) * 2016-01-28 2019-03-12 Sony Interactive Entertainment America Llc Methods and systems for navigation within virtual reality space using head mounted display
US20180143693A1 (en) * 2016-11-21 2018-05-24 David J. Calabrese Virtual object manipulation
GB2557593A (en) 2016-12-09 2018-06-27 Sony Interactive Entertainment Inc Virtual reality
GB2558284B (en) * 2016-12-23 2021-12-08 Sony Interactive Entertainment Inc Virtual reality

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006087709A1 (en) 2005-02-17 2006-08-24 Lumus Ltd. Personal navigation system
JP2013258614A (ja) 2012-06-13 2013-12-26 Sony Computer Entertainment Inc 画像生成装置および画像生成方法
US20150094142A1 (en) 2013-09-30 2015-04-02 Sony Computer Entertainment Inc. Camera based safety mechanisms for users of head mounted displays
JP2015232783A (ja) 2014-06-09 2015-12-24 株式会社バンダイナムコエンターテインメント プログラムおよび画像生成装置
JP2016192027A (ja) 2015-03-31 2016-11-10 株式会社コロプラ ポジショントラッキング領域表示システム、及び方法
WO2016185634A1 (ja) 2015-05-21 2016-11-24 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置
JP5981006B1 (ja) 2015-09-14 2016-08-31 株式会社コロプラ 視線誘導のためのコンピュータ・プログラム

Also Published As

Publication number Publication date
GB201620985D0 (en) 2017-01-25
EP3552052A1 (en) 2019-10-16
GB2557593A (en) 2018-06-27
US20200089333A1 (en) 2020-03-19
JP2020501263A (ja) 2020-01-16
US11507201B2 (en) 2022-11-22
WO2018104732A1 (en) 2018-06-14

Similar Documents

Publication Publication Date Title
JP7177054B2 (ja) ユーザ頭部回転ガイド付きヘッドマウントディスプレイ
US9423880B2 (en) Head-mountable apparatus and systems
EP3008698B1 (en) Head-mountable apparatus and systems
US10078366B2 (en) Head-mountable apparatus and system
US20140362370A1 (en) Directional light beams for angle detection
US11045733B2 (en) Virtual reality
EP3673348B1 (en) Data processing device, method and non-transitory machine-readable medium for detecting motion of the data processing device
JP7193539B2 (ja) データ処理
GB2517008A (en) Head-mountable apparatus and systems
GB2558283A (en) Image processing
GB2571286A (en) Virtual reality
US10902617B2 (en) Data processing for position detection using optically detectable indicators
GB2558279A (en) Head mountable display system
WO2018115842A1 (en) Head mounted virtual reality display
WO2018115843A1 (en) Head mountable display system
WO2018096315A1 (en) Virtual reality

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200911

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211116

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220114

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220614

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220912

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20220912

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20220922

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20220927

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221018

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221110

R150 Certificate of patent or registration of utility model

Ref document number: 7177054

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150