JP2021114310A - Information processor and warning presentation method - Google Patents

Information processor and warning presentation method Download PDF

Info

Publication number
JP2021114310A
JP2021114310A JP2021065802A JP2021065802A JP2021114310A JP 2021114310 A JP2021114310 A JP 2021114310A JP 2021065802 A JP2021065802 A JP 2021065802A JP 2021065802 A JP2021065802 A JP 2021065802A JP 2021114310 A JP2021114310 A JP 2021114310A
Authority
JP
Japan
Prior art keywords
warning
information processing
image
user
play area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021065802A
Other languages
Japanese (ja)
Other versions
JP7080373B2 (en
Inventor
渉一 池上
Shoichi Ikegami
渉一 池上
祐志 中村
Yuji Nakamura
祐志 中村
善彦 諏訪
Yoshihiko Suwa
善彦 諏訪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment LLC
Original Assignee
Sony Interactive Entertainment LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment LLC filed Critical Sony Interactive Entertainment LLC
Priority to JP2021065802A priority Critical patent/JP7080373B2/en
Publication of JP2021114310A publication Critical patent/JP2021114310A/en
Priority to JP2022084313A priority patent/JP7481395B2/en
Application granted granted Critical
Publication of JP7080373B2 publication Critical patent/JP7080373B2/en
Priority to JP2024033525A priority patent/JP2024061769A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)
  • Studio Devices (AREA)

Abstract

To provide an information processor and a warning presentation method capable of presenting images free from restriction by an HMD (head mounted display) due to actual restriction conditions.SOLUTION: In an actual space including a user 120, the information processor sets a boundary of a play area 184 using boundaries 182a and 182b in a field of vision through an imaging apparatus 12 according to a predetermined rule. When the user gets out of the play area 184, a warning situation determination part determines that warning situation has occurred and superimpose a warning image over a display image. The information processor determines whether to set a margin area between the boundaries 182a and 182b in the field of vision and the boundary of the play area 184, or whether to change the width of the margin area depending on the direction and a situation in the actual space.SELECTED DRAWING: Figure 7

Description

本発明は、撮影画像に基づき情報処理を行う情報処理装置および、それが行う警告提示方法に関する。 The present invention relates to an information processing apparatus that performs information processing based on captured images and a warning presenting method that is performed by the information processing apparatus.

ゲーム機に接続されたヘッドマウントディスプレイ(以下、「HMD」と呼ぶ)を頭部に装着して、表示された画面を見ながらゲームプレイすることが行われている(例えば特許文献1参照)。例えばユーザの頭部の位置や姿勢を取得し、顔の向きに応じて視野を変化させるように仮想世界の画像を表示すれば、あたかも仮想世界に入り込んだような状況を演出できる。ユーザの位置や姿勢は一般的に、ユーザを撮影した可視光や赤外線の画像の解析結果や、HMDに内蔵したモーションセンサの計測値などに基づいて取得される。 A head-mounted display (hereinafter referred to as “HMD”) connected to a game machine is attached to the head, and the game is played while looking at the displayed screen (see, for example, Patent Document 1). For example, if the position and posture of the user's head are acquired and the image of the virtual world is displayed so as to change the field of view according to the orientation of the face, it is possible to produce a situation as if the user has entered the virtual world. The position and posture of the user are generally acquired based on the analysis results of visible light or infrared images taken by the user, the measured values of the motion sensor built in the HMD, and the like.

特許第5580855号明細書Japanese Patent No. 5580855

撮影画像に基づき何らかの情報処理を行う技術は、ユーザなどの対象物がカメラの画角内にいることを前提としている。しかしながらHMDを装着した状態では、ユーザは外界を見ることができないため、方向感覚を失ったり、ゲームに没頭するあまり実空間で思わぬ位置に移動していたりすることがあり得る。これによりカメラの画角から外れると、情報処理が破綻したり精度が悪化したりするうえ、ユーザ自身がその原因に気づかないことも考えられる。カメラとの位置関係など現実世界の事情をユーザに意識させるほど情報処理の精度を保てるが、同時にHMDを利用し構築される仮想空間の世界観を阻害しやすくなる、というジレンマが生じる。 Technology that performs some kind of information processing based on captured images is based on the premise that an object such as a user is within the angle of view of the camera. However, when the HMD is worn, the user cannot see the outside world, so that he / she may lose his / her sense of direction or move to an unexpected position in the real space so much that he / she is absorbed in the game. If the angle of view of the camera deviates from this, the information processing may be disrupted or the accuracy may be deteriorated, and the user may not be aware of the cause. The accuracy of information processing can be maintained so that the user is aware of the situation in the real world such as the positional relationship with the camera, but at the same time, a dilemma arises in which the world view of the virtual space constructed by using the HMD is easily obstructed.

本発明はこうした課題に鑑みてなされたものであり、その目的は、HMDで実現される娯楽性と情報処理の精度のバランスを最適化できる技術を提供することにある。 The present invention has been made in view of these problems, and an object of the present invention is to provide a technique capable of optimizing the balance between entertainment and information processing accuracy realized by an HMD.

本発明のある態様は情報処理装置に関する。この情報処理装置は、実空間における対象物の位置を検出し、当該対象物に基づき情報処理を行う情報処理部と、情報処理の結果として表示すべき画像のデータを生成する画像生成部と、あらかじめ設定されたプレイエリアに基づいてユーザへの警告の必要性を判定し、画像生成部に警告画像を重畳させる警告状況判定部と、画像生成部が生成した画像のデータを表示装置に出力する出力部と、を備え、出力部は、障害物がないかの確認をユーザに促す確認画面を前記表示装置に出力し、ユーザから前記確認をした旨の入力がなされたあと、警告状況判定部は、前記警告の必要性の判定処理を開始することを特徴とする。 One aspect of the present invention relates to an information processing device. This information processing device has an information processing unit that detects the position of an object in real space and performs information processing based on the object, and an image generation unit that generates image data to be displayed as a result of the information processing. A warning status determination unit that determines the necessity of warning to the user based on a preset play area and superimposes a warning image on the image generation unit, and an image data generated by the image generation unit are output to the display device. The output unit includes an output unit, and the output unit outputs a confirmation screen prompting the user to confirm whether or not there is an obstacle to the display device, and after the user inputs that the confirmation has been made, the warning status determination unit Is characterized in that the determination process of the necessity of the warning is started.

本発明の別の態様も情報処理装置に関する。この情報処理装置は、実空間における対象物の位置を検出し、当該対象物に基づき情報処理を行う情報処理部と、情報処理の結果として表示すべき画像のデータを生成する画像生成部と、あらかじめ設定されたプレイエリアに基づいてユーザへの警告の必要性を判定し、画像生成部に警告画像を重畳させる警告状況判定部と、画像生成部が生成した画像のデータを表示装置に出力する出力部と、を備え、出力部は、障害物がないかの確認をユーザに促す確認画面を前記表示装置に出力し、ユーザから確認をした旨の入力がなされたあと、情報処理部は、位置の検出処理を開始することを特徴とする。 Another aspect of the present invention also relates to an information processing device. This information processing device has an information processing unit that detects the position of an object in real space and performs information processing based on the object, and an image generation unit that generates image data to be displayed as a result of information processing. A warning status determination unit that determines the necessity of warning to the user based on a preset play area and superimposes a warning image on the image generation unit, and an image data generated by the image generation unit are output to the display device. The information processing unit is provided with an output unit, and the output unit outputs a confirmation screen prompting the user to confirm whether or not there is an obstacle to the display device. It is characterized in that the position detection process is started.

本発明のさらに別の態様は警告提示方法に関する。この警告提示方法は情報処理装置が、実空間における対象物の位置を検出し、当該対象物に基づき情報処理を行うステップと、情報処理の結果として表示すべき画像のデータを生成するステップと、あらかじめ設定されたプレイエリアに基づいてユーザへの警告の必要性を判定するステップと、判定に応じて表示すべき画像に警告画像を重畳するステップと、生成された画像のデータを表示装置に出力するステップと、を含み、出力するステップは、障害物がないかの確認をユーザに促す確認画面を表示装置に出力し、判定するステップは、ユーザから確認をした旨の入力がなされたあと、警告の必要性の判定処理を開始することを特徴とする。 Yet another aspect of the present invention relates to a warning presentation method. This warning presentation method includes a step in which an information processing device detects the position of an object in real space and performs information processing based on the object, and a step of generating image data to be displayed as a result of the information processing. A step of determining the necessity of warning to the user based on a preset play area, a step of superimposing a warning image on an image to be displayed according to the determination, and outputting the generated image data to a display device. The step of including and the step of outputting outputs a confirmation screen to the display device prompting the user to confirm whether there is an obstacle, and the step of determining is after the user inputs that the confirmation has been made. It is characterized in that the determination process of the necessity of a warning is started.

本発明のさらに別の態様も警告提示方法に関する。この警告提示方法は情報処理装置が、実空間における対象物の位置を検出し、当該対象物に基づき情報処理を行うステップと、情報処理の結果として表示すべき画像のデータを生成するステップと、あらかじめ設定されたプレイエリアに基づいてユーザへの警告の必要性を判定するステップと、判定に応じて表示すべき画像に警告画像を重畳するステップと、生成された画像のデータを表示装置に出力するステップと、を含み、出力するステップは、障害物がないかの確認をユーザに促す確認画面を前記表示装置に出力し、情報処理を行うステップは、ユーザから確認をした旨の入力がなされたあと、位置の検出処理を開始することを特徴とする。 Yet another aspect of the present invention also relates to a warning presentation method. This warning presentation method includes a step in which an information processing device detects the position of an object in real space and performs information processing based on the object, and a step of generating image data to be displayed as a result of the information processing. A step of determining the necessity of warning to the user based on a preset play area, a step of superimposing a warning image on an image to be displayed according to the determination, and outputting the generated image data to the display device. In the step of including and outputting, a confirmation screen prompting the user to confirm whether or not there is an obstacle is output to the display device, and in the step of performing information processing, the user inputs that the confirmation has been performed. After that, the position detection process is started.

なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、コンピュータプログラム、コンピュータプログラムを記録した記録媒体などの間で変換したものもまた、本発明の態様として有効である。 It should be noted that any combination of the above components and the conversion of the expression of the present invention between a method, a device, a system, a computer program, a recording medium on which a computer program is recorded, and the like are also effective as aspects of the present invention. ..

本発明によると、HMDを装着したユーザが、現実世界での拘束条件をできるだけ意識することなく表現世界を楽しむことができる。 According to the present invention, the user wearing the HMD can enjoy the expression world without being conscious of the constraint conditions in the real world as much as possible.

本実施の形態を適用できる情報処理システムの構成例を示す図である。It is a figure which shows the configuration example of the information processing system to which this embodiment can be applied. 本実施の形態におけるHMDの外観形状の例を示す図である。It is a figure which shows the example of the appearance shape of the HMD in this embodiment. 本実施の形態における情報処理装置の内部回路構成を示す図である。It is a figure which shows the internal circuit structure of the information processing apparatus in this embodiment. 本実施の形態におけるHMDの内部回路構成を示す図である。It is a figure which shows the internal circuit structure of the HMD in this embodiment. 本実施の形態における情報処理装置の機能ブロックの構成を示す図である。It is a figure which shows the structure of the functional block of the information processing apparatus in this embodiment. 本実施の形態において撮影画像から取得できる情報を説明するための図である。It is a figure for demonstrating the information which can be acquired from the photographed image in this embodiment. 本実施の形態における警告状況判定部が警告の必要性を判定するときに参照する、プレイエリアの設定例を模式的に示す図である。It is a figure which shows typically the setting example of the play area which is referred to when the warning situation determination part in this Embodiment determines the necessity of a warning. 本実施の形態におけるプレイエリアの設定の別の例を模式的に示す図である。It is a figure which shows another example of the setting of the play area in this embodiment schematically. 本実施の形態においてマージン領域の有無による処理への影響を説明するための図である。It is a figure for demonstrating the influence on the processing by the presence or absence of a margin area in this embodiment. 本実施の形態において画像平面におけるプレイエリアの設定手法を説明するための図である。It is a figure for demonstrating the setting method of the play area in the image plane in this embodiment. 本実施の形態において、警告が必要であると判定した際に生成される表示画面を例示する図である。It is a figure which illustrates the display screen generated when it is determined that the warning is necessary in this embodiment. 本実施の形態において情報処理装置がユーザの動きに応じた出力データを生成する処理手順を示すフローチャートである。It is a flowchart which shows the processing procedure which the information processing apparatus generates the output data according to the movement of a user in this embodiment. 本実施の形態における警告画像の表示/非表示の状態遷移を模式的に示す図である。It is a figure which shows typically the state transition of the display / non-display of a warning image in this embodiment.

図1は本実施の形態を適用できる情報処理システムの構成例を示す。情報処理システム8は、対象物を撮影する撮像装置12、撮影した画像に基づき情報処理を行う情報処理装置10、情報処理の結果として得られた画像を表示する平板型ディスプレイ16およびHMD18、ユーザが操作する入力装置14を含む。 FIG. 1 shows a configuration example of an information processing system to which this embodiment can be applied. The information processing system 8 includes an image pickup device 12 that captures an object, an information processing device 10 that performs information processing based on the captured image, a flat plate display 16 and an HMD 18 that display images obtained as a result of information processing, and a user. Includes an input device 14 to operate.

情報処理装置10と、撮像装置12、入力装置14、平板型ディスプレイ16、HMD18とは、有線ケーブルで接続されても、Bluetooth(登録商標)など既知の無線通信技術により接続されてもよい。また情報処理装置10が実施する情報処理によっては、平板型ディスプレイ16はなくてもよい。またこれらの装置の外観形状は図示するものに限らない。さらにこれらのうち2つ以上の装置を一体的に備えた装置としてもよい。例えば情報処理装置10、入力装置14、平板型ディスプレイ16を、それらを備えた携帯端末などで実現してもよい。 The information processing device 10, the image pickup device 12, the input device 14, the flat plate display 16, and the HMD 18 may be connected by a wired cable or by a known wireless communication technique such as Bluetooth (registered trademark). Further, depending on the information processing performed by the information processing apparatus 10, the flat plate display 16 may not be provided. Further, the external shape of these devices is not limited to those shown in the figure. Further, it may be a device in which two or more of these devices are integrally provided. For example, the information processing device 10, the input device 14, and the flat plate display 16 may be realized by a mobile terminal provided with them.

撮像装置12は、ユーザなどの対象物を所定のフレームレートで撮影するカメラと、その出力信号にデモザイク処理など一般的な処理を施すことにより撮影画像の出力データを生成し、情報処理装置10に送出する機構とを有する。カメラはCCD(Charge Coupled Device)センサやCMOS(Complementary Metal Oxide Semiconductor)センサなど、一般的なデジタルカメラ、デジタルビデオカメラで利用されている可視光センサを備える。撮像装置12が備えるカメラは1つのみでもよいし、図示するように2つのカメラを既知の間隔で左右に配置したいわゆるステレオカメラでもよい。 The image pickup device 12 generates output data of a captured image by performing a camera that shoots an object such as a user at a predetermined frame rate and general processing such as demosaic processing on the output signal, and causes the information processing device 10 to generate output data. It has a mechanism to send out. The camera is equipped with a visible light sensor used in general digital cameras and digital video cameras such as a CCD (Charge Coupled Device) sensor and a CMOS (Complementary Metal Oxide Semiconductor) sensor. The image pickup apparatus 12 may have only one camera, or may be a so-called stereo camera in which two cameras are arranged on the left and right at known intervals as shown in the figure.

あるいは単眼のカメラと、赤外線などの参照光を対象物に照射しその反射光を測定する装置との組み合わせで撮像装置12を構成してもよい。ステレオカメラや反射光の測定機構を導入した場合、対象物の位置を3次元の実空間に対し求めることができ、情報処理装置10による情報処理や表示装置による画像表示をより多様化させることができる。ステレオカメラが左右の視点から撮影したステレオ画像を用いて、三角測量の原理により被写体のカメラからの距離を特定する手法、反射光の測定によりTOF(Time of Flight)やパターン照射の方式で被写体のカメラからの距離を特定する手法はいずれも広く知られている。 Alternatively, the imaging device 12 may be configured by combining a monocular camera and a device that irradiates an object with reference light such as infrared rays and measures the reflected light. When a stereo camera or a reflected light measurement mechanism is introduced, the position of the object can be obtained in a three-dimensional real space, and the information processing by the information processing device 10 and the image display by the display device can be further diversified. can. Using stereo images taken by the stereo camera from the left and right viewpoints, the distance from the camera of the subject is specified by the principle of triangulation, and the TOF (Time of Flight) or pattern irradiation method is used to measure the reflected light of the subject. All methods for determining the distance from the camera are widely known.

以後では主に、撮像装置12がステレオ画像を撮影する態様について説明するが、上記のとおり本実施の形態をそれに限る主旨ではなく、撮像装置12には少なくとも一つのカメラが含まれていればよい。情報処理装置10は、撮像装置12から送信されたデータを用いて必要な情報処理を行い、画像や音声などの出力データを生成する。ここで情報処理装置10が行う処理の内容は特に限定されず、ユーザが求める機能やアプリケーションの内容などによって適宜決定してよい。 Hereinafter, a mode in which the image pickup apparatus 12 captures a stereo image will be mainly described, but as described above, the present embodiment is not limited thereto, and the image pickup apparatus 12 may include at least one camera. .. The information processing device 10 performs necessary information processing using the data transmitted from the image pickup device 12, and generates output data such as an image and a sound. Here, the content of the processing performed by the information processing device 10 is not particularly limited, and may be appropriately determined depending on the function required by the user, the content of the application, and the like.

情報処理装置10は例えば、撮影画像に対し一般的な顔検出や追跡処理を施すことにより、対象物であるユーザの動作を反映させたキャラクタが登場するゲームを進捗させたり、ユーザの動きをコマンド入力に変換して情報処理を行ったりする。このとき入力装置14に設けたマーカーを利用して入力装置14の動きを取得してもよい。またHMD18の外面に設けた複数のマーカーを追跡することにより、HMD18を装着したユーザの頭部の位置や姿勢を特定し、それに対応して動く視点から見た仮想世界をHMD18に表示させてもよい。情報処理装置10が生成した出力データは、少なくともHMD18に送信される。 For example, the information processing device 10 performs general face detection and tracking processing on a captured image to advance a game in which a character reflecting the movement of the user, which is an object, appears, or commands the movement of the user. It converts to input and processes information. At this time, the movement of the input device 14 may be acquired by using the marker provided on the input device 14. Further, by tracking a plurality of markers provided on the outer surface of the HMD18, the position and posture of the head of the user wearing the HMD18 can be specified, and the virtual world seen from the viewpoint of moving correspondingly can be displayed on the HMD18. good. The output data generated by the information processing device 10 is transmitted to at least the HMD 18.

HMD18は、ユーザが頭に装着することによりその眼前に位置する有機ELパネルなどの表示パネルに画像を表示する表示装置である。例えば左右の視点から見た視差画像を生成し、表示画面を2分割してなる左右の領域にそれぞれ表示させることにより、画像を立体視させてもよい。ただし本実施の形態をこれに限る主旨ではなく、表示画面全体に1つの画像を表示させてもよい。HMD18はさらに、ユーザの耳に対応する位置に音声を出力するスピーカーやイヤホンを内蔵していてもよい。 The HMD 18 is a display device that displays an image on a display panel such as an organic EL panel located in front of the user when the user wears it on his / her head. For example, the image may be viewed stereoscopically by generating a parallax image viewed from the left and right viewpoints and displaying the display screen in the left and right regions divided into two. However, the present embodiment is not limited to this, and one image may be displayed on the entire display screen. The HMD 18 may further include a speaker or earphone that outputs sound at a position corresponding to the user's ear.

平板型ディスプレイ16は、2次元の画像を出力するディスプレイおよび音声を出力するスピーカーを有するテレビでよく、例えば液晶テレビ、有機ELテレビ、プラズマテレビ、PCディスプレイ等である。あるいはタブレット端末や携帯端末のディスプレイおよびスピーカーであってもよい。入力装置14は、ユーザが操作することにより、処理の開始、終了、機能の選択、各種コマンド入力などの要求を受け付け、情報処理装置10に電気信号として供給する。 The flat-panel display 16 may be a television having a display that outputs a two-dimensional image and a speaker that outputs audio, and is, for example, a liquid crystal television, an organic EL television, a plasma television, a PC display, or the like. Alternatively, it may be a display and a speaker of a tablet terminal or a mobile terminal. The input device 14 receives requests such as start and end of processing, selection of functions, and input of various commands by the user's operation, and supplies the information processing device 10 as an electric signal.

入力装置14は、ゲームコントローラ、キーボード、マウス、ジョイスティック、平板型ディスプレイ16の表示画面上に設けたタッチパッドなど、一般的な入力装置のいずれか、またはそれらの組み合わせによって実現してよい。入力装置14はさらに、所定の色で発光する素子またはその集合からなる発光マーカーを備えていてもよい。この場合、情報処理装置10がマーカーの動きを、撮影画像を用いて追跡することにより、入力装置14自体の動きをユーザ操作とすることができる。なお入力装置14を、発光マーカーとそれを把持する機構のみで構成してもよい。 The input device 14 may be realized by any or a combination of general input devices such as a game controller, a keyboard, a mouse, a joystick, and a touch pad provided on the display screen of the flat plate display 16. The input device 14 may further include a light emitting marker composed of an element or a set thereof that emits light in a predetermined color. In this case, the information processing device 10 tracks the movement of the marker using the captured image, so that the movement of the input device 14 itself can be controlled by the user. The input device 14 may be composed of only a light emitting marker and a mechanism for gripping the light emitting marker.

図2はHMD18の外観形状の例を示している。この例においてHMD18は、出力機構部102および装着機構部104で構成される。装着機構部104は、ユーザが被ることにより頭部を一周し装置の固定を実現する装着バンド106を含む。装着バンド106は各ユーザの頭囲に合わせて長さの調節が可能な素材または構造とする。例えばゴムなどの弾性体としてもよいし、バックルや歯車などを利用してもよい。 FIG. 2 shows an example of the external shape of the HMD 18. In this example, the HMD 18 is composed of an output mechanism unit 102 and a mounting mechanism unit 104. The mounting mechanism unit 104 includes a mounting band 106 that goes around the head and realizes fixing of the device when the user wears it. The wearing band 106 is made of a material or structure whose length can be adjusted according to the head circumference of each user. For example, it may be an elastic body such as rubber, or a buckle, a gear, or the like may be used.

出力機構部102は、HMD18をユーザが装着した状態において左右の目を覆うような形状の筐体108を含み、内部には装着時に目に正対するように表示パネルを備える。そして筐体108の外面には、発光マーカー110a、110b、110c、110d、などを設ける。発光マーカーの数や配置は特に限定されないが、本実施の形態では出力機構部102の筐体前面の4隅に設ける。 The output mechanism 102 includes a housing 108 having a shape that covers the left and right eyes when the HMD 18 is worn by the user, and includes a display panel inside so as to face the eyes when the HMD 18 is worn. Light emitting markers 110a, 110b, 110c, 110d, etc. are provided on the outer surface of the housing 108. The number and arrangement of the light emitting markers are not particularly limited, but in the present embodiment, they are provided at the four corners of the front surface of the housing of the output mechanism 102.

さらに、装着バンド106後方の両側面にも発光マーカー110e、110fを設ける。このように発光マーカーを配置することにより、撮像装置12に対しユーザが横を向いたり後ろを向いたりしても、撮影画像における発光マーカーの像の数や位置に基づきそれらの状況を特定できる。なお発光マーカー110c、110dは出力機構部102の下側、発光マーカー110e、110fは装着バンド106の外側にあり、図2の視点からは本来は見えないため、外周を点線で表している。 Further, light emitting markers 110e and 110f are also provided on both side surfaces behind the mounting band 106. By arranging the light emitting markers in this way, even if the user turns sideways or backwards with respect to the imaging device 12, the situation can be specified based on the number and position of the light emitting markers in the captured image. The light emitting markers 110c and 110d are on the lower side of the output mechanism 102, and the light emitting markers 110e and 110f are on the outside of the mounting band 106. Since they are not originally visible from the viewpoint of FIG. 2, the outer periphery is represented by a dotted line.

図3は情報処理装置10の内部回路構成を示している。情報処理装置10は、CPU(Central Processing Unit)22、GPU(Graphics Processing Unit)24、メインメモリ26を含む。これらの各部は、バス30を介して相互に接続されている。バス30にはさらに入出力インターフェース28が接続されている。入出力インターフェース28には、USBやIEEE1394などの周辺機器インターフェースや、有線又は無線LANのネットワークインターフェースからなる通信部32、ハードディスクドライブや不揮発性メモリなどの記憶部34、平板型ディスプレイ16やHMD18へデータを出力する出力部36、撮像装置12、入力装置14、およびHMD18からデータを入力する入力部38、磁気ディスク、光ディスクまたは半導体メモリなどのリムーバブル記録媒体を駆動する記録媒体駆動部40が接続される。 FIG. 3 shows the internal circuit configuration of the information processing device 10. The information processing device 10 includes a CPU (Central Processing Unit) 22, a GPU (Graphics Processing Unit) 24, and a main memory 26. Each of these parts is connected to each other via a bus 30. An input / output interface 28 is further connected to the bus 30. The input / output interface 28 includes data to a peripheral device interface such as USB or IEEE1394, a communication unit 32 composed of a wired or wireless LAN network interface, a storage unit 34 such as a hard disk drive or a non-volatile memory, a flat plate display 16 or an HMD 18. The output unit 36 that outputs the data, the image pickup device 12, the input device 14, the input unit 38 that inputs data from the HMD 18, and the recording medium drive unit 40 that drives a removable recording medium such as a magnetic disk, an optical disk, or a semiconductor memory are connected. ..

CPU22は、記憶部34に記憶されているオペレーティングシステムを実行することにより情報処理装置10の全体を制御する。CPU22はまた、リムーバブル記録媒体から読み出されてメインメモリ26にロードされた、あるいは通信部32を介してダウンロードされた各種プログラムを実行する。GPU24は、ジオメトリエンジンの機能とレンダリングプロセッサの機能とを有し、CPU22からの描画命令に従って描画処理を行い、表示画像を図示しないフレームバッファに格納する。そしてフレームバッファに格納された表示画像をビデオ信号に変換して出力部36に出力する。メインメモリ26はRAM(Random Access Memory)により構成され、処理に必要なプログラムやデータを記憶する。 The CPU 22 controls the entire information processing apparatus 10 by executing the operating system stored in the storage unit 34. The CPU 22 also executes various programs read from the removable recording medium, loaded into the main memory 26, or downloaded via the communication unit 32. The GPU 24 has a geometry engine function and a rendering processor function, performs drawing processing according to a drawing command from the CPU 22, and stores a display image in a frame buffer (not shown). Then, the display image stored in the frame buffer is converted into a video signal and output to the output unit 36. The main memory 26 is composed of a RAM (Random Access Memory) and stores programs and data required for processing.

図4はHMD18の内部回路構成を示している。HMD18は、CPU50、メインメモリ52、表示部54、音声出力部56を含む。これらの各部はバス58を介して相互に接続されている。バス58にはさらに入出力インターフェース60が接続されている。入出力インターフェース60には、有線又は無線LANのネットワークインターフェースからなる通信部62、加速度センサ64、発光部66が接続される。 FIG. 4 shows the internal circuit configuration of the HMD 18. The HMD 18 includes a CPU 50, a main memory 52, a display unit 54, and an audio output unit 56. Each of these parts is connected to each other via a bus 58. An input / output interface 60 is further connected to the bus 58. A communication unit 62, an acceleration sensor 64, and a light emitting unit 66, which are network interfaces of a wired or wireless LAN, are connected to the input / output interface 60.

CPU50は、バス58を介してHMD18の各部から取得した情報を処理し、出力データを表示部54や音声出力部56に供給する。メインメモリ52はCPU50における処理に必要なプログラムやデータを格納する。ただし実行するアプリケーションや装置の設計によっては、情報処理装置10がほぼ全ての処理を行い、HMD18では情報処理装置10から送信されたデータを出力するのみで十分な場合がある。この場合、CPU50やメインメモリ52は、より簡易なデバイスで置き換えることができる。 The CPU 50 processes the information acquired from each unit of the HMD 18 via the bus 58, and supplies the output data to the display unit 54 and the audio output unit 56. The main memory 52 stores programs and data required for processing in the CPU 50. However, depending on the design of the application or device to be executed, the information processing device 10 may perform almost all processing, and the HMD 18 may suffice to output the data transmitted from the information processing device 10. In this case, the CPU 50 and the main memory 52 can be replaced with a simpler device.

表示部54は、液晶パネルや有機ELパネルなどの表示パネルで構成され、HMD18を装着したユーザの眼前に画像を表示する。上述したように左右の目に対応する領域に一対の視差画像を表示することにより立体視を実現してもよい。表示部54はさらに、HMD18装着時に表示パネルとユーザの目との間に位置し、ユーザの視野角を拡大する一対のレンズを含んでもよい。 The display unit 54 is composed of a display panel such as a liquid crystal panel or an organic EL panel, and displays an image in front of the eyes of a user wearing the HMD 18. As described above, stereoscopic vision may be realized by displaying a pair of parallax images in the regions corresponding to the left and right eyes. The display unit 54 may further include a pair of lenses that are located between the display panel and the user's eyes when the HMD 18 is attached and that expand the user's viewing angle.

音声出力部56は、HMD18の装着時にユーザの耳に対応する位置に設けたスピーカーやイヤホンで構成され、ユーザに音声を聞かせる。出力される音声のチャンネル数は特に限定されず、モノラル、ステレオ、サラウンドのいずれでもよい。通信部62は、情報処理装置10や平板型ディスプレイ16との間でデータを送受するためのインターフェースであり、例えばBluetooth(登録商標)などの既知の無線通信技術を用いて実現できる。 The voice output unit 56 is composed of speakers and earphones provided at positions corresponding to the user's ears when the HMD 18 is worn, and allows the user to hear the voice. The number of audio channels to be output is not particularly limited, and may be monaural, stereo, or surround. The communication unit 62 is an interface for transmitting and receiving data to and from the information processing device 10 and the flat plate display 16, and can be realized by using a known wireless communication technology such as Bluetooth (registered trademark).

加速度センサ64は、所定軸方向の重力加速度を計測することによりHMD18の傾きを検出する。HMD18にはさらに、ジャイロセンサなどその他の各種センサを設けてよい。センサによる測定値は通信部62を介して情報処理装置10に送信される。発光部66は、所定の色で発光する素子またはその集合であり、図2で示したようにHMD18の外面の複数箇所に設ける。これをマーカーとして追跡することによりHMD18の位置を取得するほか、撮影画像におけるその像の数や位置関係からHMD18の姿勢を取得する。 The acceleration sensor 64 detects the inclination of the HMD 18 by measuring the gravitational acceleration in a predetermined axial direction. The HMD 18 may be further provided with various other sensors such as a gyro sensor. The measured value by the sensor is transmitted to the information processing device 10 via the communication unit 62. The light emitting unit 66 is an element or a set thereof that emits light in a predetermined color, and is provided at a plurality of locations on the outer surface of the HMD 18 as shown in FIG. In addition to acquiring the position of the HMD 18 by tracking this as a marker, the posture of the HMD 18 is acquired from the number and positional relationship of the images in the captured image.

情報処理装置10は、加速度センサ64および発光部66といった複数の手段により得られた情報を統合することにより、より高い精度でユーザの頭の位置や姿勢を取得することができる。一方、本実施の形態では、場合によっては加速度センサ64を省略することもできる。 The information processing device 10 can acquire the position and posture of the user's head with higher accuracy by integrating the information obtained by a plurality of means such as the acceleration sensor 64 and the light emitting unit 66. On the other hand, in the present embodiment, the acceleration sensor 64 may be omitted in some cases.

図5は情報処理装置10の機能ブロックの構成を示している。図5に示す各機能ブロックは、ハードウェア的には、図3に示したCPU、GPU、各種メモリ、データバスなどの構成で実現でき、ソフトウェア的には、記録媒体などからメモリにロードした、データ入力機能、データ保持機能、画像処理機能、通信機能などの諸機能を発揮するプログラムで実現される。したがって、これらの機能ブロックがハードウェアのみ、ソフトウェアのみ、またはそれらの組合せによっていろいろな形で実現できることは当業者には理解されるところであり、いずれかに限定されるものではない。 FIG. 5 shows the configuration of the functional block of the information processing device 10. Each functional block shown in FIG. 5 can be realized by the configuration of the CPU, GPU, various memories, data bus, etc. shown in FIG. 3 in terms of hardware, and is loaded into the memory from a recording medium or the like in terms of software. It is realized by a program that exerts various functions such as data input function, data retention function, image processing function, and communication function. Therefore, it is understood by those skilled in the art that these functional blocks can be realized in various forms by hardware only, software only, or a combination thereof, and is not limited to any of them.

情報処理装置10は、入力装置14およびHMD18からの入力情報を取得する入力情報取得部72、撮像装置12から撮影画像のデータを取得する撮影画像取得部74、ゲームなどコンテンツに応じた情報処理を行う情報処理部76、出力すべきデータを生成する出力データ生成部78、情報処理や画像の生成に必要なデータを格納したコンテンツデータ記憶部84を含む。情報処理装置10はさらに、撮影画像に基づきユーザの位置情報を取得する位置情報取得部80、ユーザの位置に基づき警告が必要な状況を判定する警告状況判定部82、判定に必要な実空間上の領域に係る設定情報を格納したエリア設定情報記憶部85、および、出力すべきデータをHMD18に送信する出力データ送信部86を含む。 The information processing device 10 performs information processing according to contents such as an input information acquisition unit 72 that acquires input information from the input device 14 and the HMD 18, a captured image acquisition unit 74 that acquires captured image data from the imaging device 12, and a game. It includes an information processing unit 76 that performs information processing, an output data generation unit 78 that generates data to be output, and a content data storage unit 84 that stores data necessary for information processing and image generation. The information processing device 10 further includes a position information acquisition unit 80 that acquires the user's position information based on the captured image, a warning status determination unit 82 that determines a situation in which a warning is required based on the user's position, and a real space required for determination. The area setting information storage unit 85 that stores the setting information related to the area of No. 1 and the output data transmission unit 86 that transmits the data to be output to the HMD 18 are included.

入力情報取得部72は、ユーザ操作の内容を入力装置14から取得する。ここでユーザ操作とは、実行するアプリケーションやコンテンツの選択、処理の開始/終了、コマンド入力など、一般的な情報処理装置でなされるものでよい。入力情報取得部72は入力装置14から取得した情報を、その内容に応じて撮影画像取得部74または情報処理部76に供給する。入力情報取得部72はさらに、HMD18の加速度センサ64から計測値を受信し、情報処理部76に供給する。 The input information acquisition unit 72 acquires the content of the user operation from the input device 14. Here, the user operation may be performed by a general information processing device such as selection of an application or content to be executed, start / end of processing, command input, and the like. The input information acquisition unit 72 supplies the information acquired from the input device 14 to the captured image acquisition unit 74 or the information processing unit 76 according to the content thereof. The input information acquisition unit 72 further receives the measured value from the acceleration sensor 64 of the HMD 18 and supplies it to the information processing unit 76.

撮影画像取得部74は、ステレオ画像など、撮像装置12が動画撮影して得られる撮影画像のデータを所定のレートで取得する。撮影画像取得部74はさらに、入力情報取得部72が取得したユーザからの処理開始/終了要求に従い、撮像装置12における撮影の開始/終了を制御したり、情報処理部76における処理の結果に応じて、撮像装置12から取得するデータの種類を制御したりしてもよい。 The captured image acquisition unit 74 acquires data of a captured image, such as a stereo image, obtained by capturing a moving image by the imaging device 12 at a predetermined rate. The captured image acquisition unit 74 further controls the start / end of shooting in the imaging device 12 according to the processing start / end request from the user acquired by the input information acquisition unit 72, and responds to the processing result in the information processing unit 76. Alternatively, the type of data acquired from the image pickup apparatus 12 may be controlled.

位置情報取得部80は、撮影画像から所定の対象物の像を検出することにより、ユーザの位置情報を所定のレートで取得する。例えばHMD18や入力装置14に設けた発光マーカーの像に基づきユーザの頭部や手の実空間での位置を取得する。あるいはユーザの体の一部を、輪郭線を利用して追跡したり、顔や特定の模様を有する対象物をパターンマッチングにより認識したりする画像解析技術を組み合わせてもよい。また撮像装置12の構成によっては上述のとおり、赤外線の反射を計測することによりユーザの距離を特定してもよい。 The position information acquisition unit 80 acquires the user's position information at a predetermined rate by detecting an image of a predetermined object from the captured image. For example, the positions of the user's head and hands in the real space are acquired based on the images of the light emitting markers provided on the HMD 18 and the input device 14. Alternatively, an image analysis technique that tracks a part of the user's body using contour lines or recognizes a face or an object having a specific pattern by pattern matching may be combined. Further, depending on the configuration of the image pickup apparatus 12, the user's distance may be specified by measuring the reflection of infrared rays as described above.

情報処理部76は、ユーザが指定したゲームなどの電子コンテンツを処理する。この処理には、位置情報取得部80が取得した、ユーザの位置情報の利用が含まれる。情報処理部76は必要に応じて、HMD18の加速度センサによる計測結果などを統合することにより、ユーザの姿勢を特定してもよい。なお上述のように、入力装置14を介したユーザ操作やユーザの動きに応じて、情報処理部76が行う後段の情報処理の内容は特に限定されない。 The information processing unit 76 processes electronic contents such as games specified by the user. This process includes the use of the user's position information acquired by the position information acquisition unit 80. The information processing unit 76 may specify the posture of the user by integrating the measurement results of the acceleration sensor of the HMD 18 and the like, if necessary. As described above, the content of the information processing in the subsequent stage performed by the information processing unit 76 is not particularly limited according to the user operation via the input device 14 and the movement of the user.

出力データ生成部78は、情報処理部76からの要求に従い、情報処理の結果として出力すべき画像や音声のデータを生成する。例えばユーザの頭部の位置や姿勢に対応する視点から見た仮想世界を左右の視差画像として生成する。この視差画像をHMD18において左右の目の前に表示させたり、仮想世界での音声を出力したりすれば、ユーザはあたかも仮想世界に入り込んだような感覚を得られる。情報処理部76における情報処理や出力データ生成部78におけるデータ生成処理に必要なプログラムや画像・音声のデータはコンテンツデータ記憶部84に格納しておく。 The output data generation unit 78 generates image and audio data to be output as a result of information processing in accordance with the request from the information processing unit 76. For example, a virtual world viewed from a viewpoint corresponding to the position and posture of the user's head is generated as a left-right parallax image. By displaying this parallax image in front of the left and right eyes on the HMD 18 or outputting the sound in the virtual world, the user can feel as if he / she has entered the virtual world. The program and image / audio data required for information processing in the information processing unit 76 and data generation processing in the output data generation unit 78 are stored in the content data storage unit 84.

警告状況判定部82は、位置情報取得部80が取得したユーザの位置情報に基づき、警告を与える状況の発生を常時監視し、その発生を判定する。具体的には、実世界の3次元空間に直接的あるいは間接的に設定したプレイエリアに対する内外判定を実施し、ユーザがプレイエリアから出たときに警告が必要であると判定する。本実施の形態では、撮影画像を利用して位置情報を取得するため、ユーザがカメラの画角内にいることを前提として情報処理が進捗する。 The warning status determination unit 82 constantly monitors the occurrence of a situation that gives a warning based on the user's location information acquired by the location information acquisition unit 80, and determines the occurrence. Specifically, the inside / outside determination is performed for the play area set directly or indirectly in the three-dimensional space of the real world, and it is determined that a warning is required when the user leaves the play area. In the present embodiment, since the position information is acquired using the captured image, the information processing progresses on the premise that the user is within the angle of view of the camera.

ところが図2に示したようなHMDを装着したユーザには、周囲の状況、ひいては自分が画角内にいるかどうかが認識しづらい。正常な情報処理を継続するためには、そのような実世界に係る情報を何らかの手段により与える必要があるが、コンテンツが表現する世界観を損なうことになりかねない。そのための方策として、画角から出そうなときのみユーザに警告を与えることが考えられる。しかしながらこのタイミングが早すぎれば、少しの移動で頻繁に警告が与えられ、実質的に可動範囲を狭めてしまうことになる。一方で、タイミングが遅いと画角から外れることを免れず、位置情報が得られない期間が発生し得る。 However, it is difficult for the user wearing the HMD as shown in FIG. 2 to recognize the surrounding situation and, by extension, whether or not he / she is within the angle of view. In order to continue normal information processing, it is necessary to provide such information related to the real world by some means, but it may impair the world view expressed by the content. As a measure for that, it is conceivable to give a warning to the user only when the angle of view is likely to come out. However, if this timing is too early, a warning will be given frequently with a small movement, and the movable range will be substantially narrowed. On the other hand, if the timing is late, the angle of view is inevitably deviated, and there may be a period during which position information cannot be obtained.

そこで本実施の形態では上述のとおり、警告を発生させるタイミングを実世界でプレイエリアとして設定した領域に対する内外判定により判断し、さらにプレイエリアと画角との関係を調整することにより、可動範囲と処理精度のバランスを状況に応じて最適化する。プレイエリアの設定情報はあらかじめ、エリア設定情報記憶部85に格納しておく。具体的な設定内容については後に述べる。警告状況判定部82は、警告が必要と判定したとき、その旨を出力データ生成部78に通知する。 Therefore, in the present embodiment, as described above, the timing of generating the warning is determined by determining the inside and outside of the area set as the play area in the real world, and further, the relationship between the play area and the angle of view is adjusted to obtain the movable range. Optimize the balance of processing accuracy according to the situation. The play area setting information is stored in the area setting information storage unit 85 in advance. The specific setting contents will be described later. When the warning status determination unit 82 determines that a warning is necessary, the warning status determination unit 82 notifies the output data generation unit 78 to that effect.

このとき出力データ生成部78は、警告を表す部品画像を表示画像に追加で描画する。警告状況判定部82はまた、ユーザが正常な位置に戻るなどして、警告の必要がなくなったことを判定し、その旨を出力データ生成部78に通知する。これに応じて出力データ生成部78は、警告を表す部品画像を非表示とする。なお警告は画像のみならず、音声を伴っていてもよい。出力データ送信部86は、出力データ生成部78が生成した出力データを順次取得し、必要に応じて成形したうえ、HMD18に送信する。 At this time, the output data generation unit 78 additionally draws a component image representing a warning on the display image. The warning status determination unit 82 also determines that the warning is no longer necessary, such as when the user returns to a normal position, and notifies the output data generation unit 78 to that effect. In response to this, the output data generation unit 78 hides the component image representing the warning. The warning may be accompanied by sound as well as an image. The output data transmission unit 86 sequentially acquires the output data generated by the output data generation unit 78, shapes the output data as necessary, and transmits the output data to the HMD 18.

図6は、本実施の形態において撮影画像から取得できる情報を説明するための図である。同図においてユーザ120は、入力装置14を把持しHMD18を装着している。入力装置14は、操作に適した持ち方で把持したときに撮像装置12に正対する位置に発光マーカー122を備える。HMD18の発光マーカーは図2で示したとおりである。撮像装置12をステレオカメラとした場合、ステレオ画像における像の視差に基づき、撮像装置12の撮像面から各発光マーカーまでの距離Zが求められる。また、どちらかの撮影画像の画像平面(XY平面)における発光マーカーの像の位置は、撮像装置12からの見かけ上の位置を表している。 FIG. 6 is a diagram for explaining information that can be acquired from the captured image in the present embodiment. In the figure, the user 120 holds the input device 14 and wears the HMD 18. The input device 14 includes a light emitting marker 122 at a position facing the image pickup device 12 when gripped in a way suitable for operation. The emission marker of HMD18 is as shown in FIG. When the image pickup device 12 is a stereo camera, the distance Z from the image pickup surface of the image pickup device 12 to each light emitting marker is obtained based on the parallax of the image in the stereo image. Further, the position of the image of the light emitting marker on the image plane (XY plane) of either captured image represents the apparent position from the image pickup apparatus 12.

これらの情報を統合する、具体的にはXY平面における位置を撮像装置12からの距離Zを用いて逆射影することにより、実世界の3次元空間における各発光マーカーの位置が求められる。さらにHMD18の発光マーカーの像の数や位置関係からHMD18の実空間における姿勢(ベクトルva)が、入力装置14の発光マーカー122の像の形状から入力装置14の実空間における姿勢(ベクトルvb)が求められる。 By integrating these information, specifically, by back-projecting the position in the XY plane using the distance Z from the image pickup apparatus 12, the position of each light emitting marker in the three-dimensional space in the real world can be obtained. Further, the attitude (vector va) of the HMD 18 in the real space is determined from the number and positional relationship of the light emitting marker images of the HMD 18, and the attitude (vector vb) of the input device 14 in the real space is determined from the shape of the image of the light emitting marker 122 of the input device 14. Desired.

情報処理装置10の情報処理部76は、これらの装置の実空間における位置および姿勢に基づき、ユーザ120の顔の向きに応じて視野が変化する仮想世界や、入力装置14の動きに応じて画像内のオブジェクトが動く様を表現することができる。なおマーカーの見かけ上の大きさによって撮像装置12からの距離を推定したり、奥行き方向の動きが必要ない情報処理を行ったりする場合は、撮像装置12はステレオカメラでなくてよい。参照光を利用した距離測定技術を導入する場合も同様である。また必ずしもHMD18と入力装置14の双方を追跡しなくてもよい。 The information processing unit 76 of the information processing device 10 has an image in a virtual world in which the field of view changes according to the orientation of the face of the user 120 or an image in response to the movement of the input device 14 based on the position and posture of these devices in the real space. It is possible to express how the objects inside move. The image pickup device 12 does not have to be a stereo camera when the distance from the image pickup device 12 is estimated from the apparent size of the marker or when information processing that does not require movement in the depth direction is performed. The same applies when introducing a distance measurement technique using reference light. Also, it is not always necessary to track both the HMD 18 and the input device 14.

このように発光マーカーの像を利用する場合、直接得られるのは、厳密にはHMD18や入力装置14の発光マーカーの位置である。ただしHMD18はユーザが頭部に装着しているため、ユーザの頭部の位置と捉えることもできる。発光マーカー以外の被写体を拠り所として位置を特定する場合も、厳密にはそれらの被写体の位置が求められ、ユーザの重心位置などはそれらの情報から必要に応じて推定される。 When the image of the light emitting marker is used in this way, strictly speaking, the position of the light emitting marker of the HMD 18 or the input device 14 is directly obtained. However, since the HMD 18 is worn by the user on the head, it can be regarded as the position of the user's head. Strictly speaking, even when the position is specified based on a subject other than the light emitting marker, the position of the subject is obtained, and the position of the center of gravity of the user is estimated from the information as needed.

以後の説明で「ユーザの位置」とは、ユーザ自身の位置でもよいし、位置取得の拠り所となる被写体の位置でもよい。また入力装置14がプレイエリア外に出ても、HMD18が出ていなければ警告の必要はないとするなど、被写体の性質や状況に応じて判定基準に係る規則を設けてもよい。 In the following description, the "user's position" may be the position of the user himself / herself or the position of the subject on which the position acquisition is based. Further, even if the input device 14 goes out of the play area, a warning may not be required if the HMD 18 does not come out, and rules related to the determination criteria may be provided according to the nature and situation of the subject.

図7は、警告状況判定部82が警告の必要性を判定するときに参照する、プレイエリアの設定例を模式的に示している。同図は実空間を俯瞰した状態を示しており、撮像装置12に正対するようにユーザ120が存在している。撮像装置12のカメラの水平画角θによって、点線で示した視野の境界面182a、182bが定まる。ステレオカメラの場合、両者の画角の積集合とする。このような視野の垂直方向の境界面を基準として、プレイエリア184の境界面を所定の規則で設定する。警告状況判定部82はユーザがプレイエリア184の外に出たとき、警告の必要が発生したと判定する。 FIG. 7 schematically shows a play area setting example that the warning status determination unit 82 refers to when determining the necessity of a warning. The figure shows a bird's-eye view of the real space, and the user 120 exists so as to face the image pickup apparatus 12. The horizontal angle of view θ h of the camera of the image pickup apparatus 12 determines the boundary surfaces 182a and 182b of the field of view shown by the dotted lines. In the case of a stereo camera, it is the intersection of the angles of view of both. The boundary surface of the play area 184 is set according to a predetermined rule with reference to the boundary surface in the vertical direction of the visual field. When the user goes out of the play area 184, the warning status determination unit 82 determines that the need for a warning has occurred.

図示する例では、撮像装置12からの距離ZがZ1≦Z<Z3の範囲において、視野の境界面182a、182bより内側にプレイエリア184を設定している。撮像装置12に近いZ1≦Z<Z2の範囲では、カメラの光軸を中心に距離Zに比例するように幅を増加させ、Z2≦Z<Z3の範囲では一定の幅Wを有するように設定している。Z1≦Z<Z2の範囲のプレイエリアの境界を決定づける垂直面186a、186bはすなわち、奥行き方向の位置によらず撮影画像上で左右の端より所定量、内側に結像する位置に対応する。したがって少なくとも垂直面186a、186bより内側をプレイエリアとすることで、画像上で当該所定量分をマージン領域として、ユーザが画角から外れる前の余裕を見たタイミングで警告を与えることができる。 In the illustrated example, the play area 184 is set inside the boundary surfaces 182a and 182b of the visual field in the range where the distance Z from the image pickup apparatus 12 is Z1 ≦ Z <Z3. In the range of Z1 ≦ Z <Z2 close to the image pickup device 12, the width is increased so as to be proportional to the distance Z around the optical axis of the camera, and in the range of Z2 ≦ Z <Z3, it is set to have a constant width W. is doing. The vertical planes 186a and 186b that determine the boundary of the play area in the range of Z1 ≦ Z <Z2 correspond to positions formed inward by a predetermined amount from the left and right edges on the captured image regardless of the position in the depth direction. Therefore, by setting at least the inside of the vertical surfaces 186a and 186b as the play area, it is possible to give a warning at the timing when the user has a margin before deviating from the angle of view by using the predetermined amount as the margin area on the image.

撮像装置12に近くなるほど、視野が狭くなるため可動範囲も狭くなる。そのため撮像装置12に近い範囲では垂直面186a、186bより内側とする条件を最大限活用することで、警告を出さずにすむ範囲を広くとる。一方、撮像装置12から離れた位置では視野が広がるため、画角から外れたか否かを基準とした場合、垂直面186a、186bより内側をプレイエリアとすれば、より広い範囲で警告を出さずにすむ。しかしながら図示する例では、情報処理の適性や周囲の物の存在などを考慮して、それより狭い幅Wでプレイエリアを限定している。 The closer to the image pickup device 12, the narrower the field of view and therefore the narrower the movable range. Therefore, by making maximum use of the condition that the vertical planes 186a and 186b are inside the range close to the image pickup apparatus 12, the range in which the warning is not issued is widened. On the other hand, since the field of view is widened at a position away from the image pickup device 12, if the play area is set inside the vertical planes 186a and 186b based on whether or not the angle of view is deviated, a warning is not issued in a wider range. I live in. However, in the illustrated example, the play area is limited by a narrower width W in consideration of the suitability of information processing and the existence of surrounding objects.

このようにプレイエリア184は、画角からの逸脱可能性を低める以外に、適正な可動範囲を設定する役割も同時に備えることができる。またプレイエリアをカメラからの距離範囲に応じて異なる規則で設定することにより、視野の狭い領域では可動範囲を優先し、視野の広い領域ではコンテンツの事情などその他の要素を優先させる、といった優先順位の変化に適応できる。 As described above, the play area 184 can simultaneously have a role of setting an appropriate movable range in addition to reducing the possibility of deviation from the angle of view. In addition, by setting the play area according to different rules according to the distance range from the camera, the movable range is prioritized in the narrow field of view, and other factors such as the content situation are prioritized in the wide field of view. Can adapt to changes in.

図8は、プレイエリアの設定の別の例を模式的に示している。同図は実空間をユーザの左側面から見た状態を示しており、撮像装置12に正対するようにユーザ120が存在している。撮像装置12のカメラの垂直画角θによって、点線で示した視野の境界面192a、192bが定まる。このような視野の水平方向の境界面を基準として、撮像装置12からの距離ZがZ1≦Z<Z3の範囲にプレイエリアの境界面を設定する。 FIG. 8 schematically shows another example of setting the play area. The figure shows a state in which the real space is viewed from the left side surface of the user, and the user 120 exists so as to face the image pickup apparatus 12. The vertical angle of view θ v of the camera of the image pickup apparatus 12 determines the boundary surfaces 192a and 192b of the field of view shown by the dotted lines. With reference to the horizontal boundary surface of the field of view, the boundary surface of the play area is set in the range where the distance Z from the image pickup apparatus 12 is Z1 ≦ Z <Z3.

同図の例では、Z1≦Z<Z3の範囲にわたり、視野の境界面192a、192bをプレイエリア194の境界面と一致させている。すなわち図7で示したプレイエリアと比較し、視野の境界面との間にマージン領域を設定しない。つまり撮影画像上で上下の端より所定量、内側に結像する水平面196a、196bのような余裕分をも設けず、撮影画像の上端から下端に対応する領域をプレイエリアとしている。このようにすると、画角から外れるのと同時に警告が与えられる結果となるため、微小時間であっても位置取得が不能となる可能性が高くなる。一方で、より広い範囲で警告を出さずにすむことになる。 In the example of the figure, the boundary surfaces 192a and 192b of the visual field are aligned with the boundary surface of the play area 194 over the range of Z1 ≦ Z <Z3. That is, as compared with the play area shown in FIG. 7, a margin area is not set between the play area and the boundary surface of the visual field. That is, the play area is a region corresponding to the upper end to the lower end of the captured image without providing a predetermined amount of margin such as the horizontal planes 196a and 196b that are imaged inward from the upper and lower edges on the captured image. If this is done, a warning will be given at the same time as the angle of view deviates, so there is a high possibility that the position acquisition will not be possible even for a short time. On the other hand, it is not necessary to issue a warning in a wider range.

このような設定は、画角が狭いカメラにおいて有効である。画角が狭い場合、図7に示すようにマージン領域を設定すると、少しの動きで警告が頻繁に出てしまうことがあり得る。そのため多少の情報処理の精度悪化を犠牲にしても、広いプレイエリアを確保することにより快適性を優先できる。例えば水平画角は広く、垂直画角は狭い特性を有するカメラを使用する場合、図7および図8で示したように、実空間での方向に応じて視野の境界面に対するプレイエリアの境界面の位置関係を異ならせれば、情報処理精度と快適な操作環境とのバランスを好適にとることができる。 Such a setting is effective for a camera having a narrow angle of view. When the angle of view is narrow, if the margin area is set as shown in FIG. 7, a warning may be issued frequently with a small amount of movement. Therefore, comfort can be prioritized by securing a wide play area even if the accuracy of information processing is slightly deteriorated. For example, when using a camera having a wide horizontal angle of view and a narrow vertical angle of view, as shown in FIGS. 7 and 8, the boundary surface of the play area with respect to the boundary surface of the field of view depending on the direction in the real space. By making the positional relationship of the above different, it is possible to strike a good balance between information processing accuracy and a comfortable operating environment.

図9は、マージン領域の有無による処理への影響を説明するための図である。同図上段の(a)は視野に対しマージン領域を設けてプレイエリアを設定した場合、下段の(b)は視野とプレイエリアを一致させた場合の、ユーザの動きと各処理のタイムチャートである。すなわち右側に模式的に示すように、撮像装置12に対し白抜きで示したプレイエリアを設定するが、(a)は黒色で示す視野外の領域との間に網掛けで示したマージン領域を設けている。タイムチャートにおける「位置」の段の白、網掛け、黒の矩形はそれぞれ、ユーザがプレイエリア、マージン領域、視野外にいる時間を表す。 FIG. 9 is a diagram for explaining the influence of the presence or absence of the margin region on the processing. The upper part (a) of the figure shows the movement of the user and the time chart of each process when the play area is set by providing a margin area for the field of view, and the lower part (b) shows the movement of the user when the field of view and the play area are matched. be. That is, as schematically shown on the right side, a play area shown in white is set for the image pickup device 12, but in (a), a shaded margin area is set between the image pickup device 12 and the non-field-of-view area shown in black. It is provided. The white, shaded, and black rectangles in the "position" column of the time chart represent the play area, margin area, and time out of the field of view, respectively.

比較のため両者の設定において、ユーザが時刻t2で視野外に出るとし、警告を同じ時間だけ表示した結果、ユーザがプレイエリアに戻るとしている。このようなユーザの動きに対し、位置情報取得部80が位置情報を取得できる期間を「位置取得」の段に、警告表示がなされる期間を「警告」の段に、矩形で表している。(a)の場合、視野外へ出る時刻t2より前の時刻t1でプレイエリアから出るため、その時点から時刻t3でプレイエリアへ戻るまでの間、警告が表示される。一方(b)の場合、マージン領域を設定しないため、視野外へ出ている時刻t2から時刻t4までの間に警告が表示される。 For comparison, in both settings, it is assumed that the user goes out of the field of view at time t2, and as a result of displaying the warning for the same time, the user returns to the play area. In response to such a user's movement, the period during which the position information acquisition unit 80 can acquire the position information is represented by a rectangle in the "position acquisition" column, and the period during which the warning is displayed is represented by the "warning" column. In the case of (a), since the player leaves the play area at time t1 before the time t2 when he / she goes out of the field of view, a warning is displayed from that time until he / she returns to the play area at time t3. On the other hand, in the case of (b), since the margin area is not set, a warning is displayed between the time t2 and the time t4 when the player is out of the field of view.

図示するように、(a)においては、警告が表示された後も位置情報を取得できるため、当該情報を根拠としてプレイエリア外にいることが保障される。(b)の場合、警告と同時に位置情報も取得できなくなるため、警告を表示している期間においてその妥当性が保障されない。したがって、例えば視野境界においてオクルージョンなどでユーザの像が検出されなかったことを、視野外に出たと誤認し警告を表示させてしまう可能性がある。 As shown in the figure, in (a), since the position information can be acquired even after the warning is displayed, it is guaranteed that the player is out of the play area based on the information. In the case of (b), since the location information cannot be acquired at the same time as the warning, its validity is not guaranteed during the period when the warning is displayed. Therefore, for example, if the image of the user is not detected due to occlusion at the boundary of the visual field, it may be mistaken as having gone out of the visual field and a warning may be displayed.

また(a)と(b)で警告が表示されてから同じタイミングでプレイエリアに戻っても、(b)では位置情報を取得できない期間が長くなる。図示する例では、(a)においても視野外へ出る期間が発生しているが、マージン領域の幅によっては、ユーザが視野外へ出る前に警告表示に応じて戻る可能性があるため、(b)の場合と比較し位置情報を取得できない期間が発生しにくい。一方で、同じように移動しても(a)の場合はより早い時刻t1で警告が表示されるため、ユーザに対する拘束条件が厳しくなる。これらの特性を踏まえ、警告を出さずにすむ領域を極限まで広げたいか、そのようにせずとも領域に余裕があるか、など、状況に応じた優先順位によって最適なプレイエリアを設定することが望ましい。 Further, even if the player returns to the play area at the same timing after the warnings are displayed in (a) and (b), the period in which the position information cannot be acquired in (b) becomes long. In the illustrated example, the period of going out of the field of view also occurs in (a), but depending on the width of the margin area, the user may return in response to the warning display before going out of the field of view. Compared to the case of b), the period during which the position information cannot be acquired is less likely to occur. On the other hand, even if the user moves in the same manner, in the case of (a), a warning is displayed at an earlier time t1, so that the constraint condition for the user becomes strict. Based on these characteristics, it is possible to set the optimum play area according to the priority according to the situation, such as whether you want to expand the area where you do not need to issue a warning to the limit, or whether there is room in the area without doing so. desirable.

なおマージン領域を設けるか否かのみならず、マージン領域の幅やプレイエリアの形状も、想定される状況や実空間での方向に応じて最適化してよい。例えばゲームなどコンテンツの内容や環境によって想定されるユーザの姿勢、具体的には立って遊ぶか座って遊ぶか、机に向かっているかソファに座っているか、といった状況に応じて、同じ画角でもプレイエリアの形状を変化させてよい。 Not only whether or not the margin area is provided, but also the width of the margin area and the shape of the play area may be optimized according to the assumed situation and the direction in the real space. For example, depending on the content of the content such as a game and the user's posture expected depending on the environment, specifically, whether to play standing or sitting, facing a desk or sitting on a sofa, even with the same angle of view. The shape of the play area may be changed.

また図7、図8の設定を同時に適用した場合、設定されるプレイエリアはカメラからの距離Zに対し四辺形の断面を有するような形状であったが、本実施の形態をそれに限る主旨ではなく、円筒形など任意の形状でよい。また光軸が水平方向にない場合、カメラからの距離Zは床面と水平でなくなる。このときプレイエリアの形状は、光軸方向の距離で定義してもよいし、実空間での水平方向の距離で定義してもよい。カメラの光軸と実空間の水平面とのなす角度を、撮像装置12に内蔵させた加速度センサなどにより計測すれば、座標変換は容易に実現できる。3次元空間での領域を設定するための具体的なデータ形式については、様々考えられることは当業者には理解されるところである。 Further, when the settings of FIGS. 7 and 8 are applied at the same time, the set play area has a shape having a quadrilateral cross section with respect to the distance Z from the camera. It may be any shape such as a cylindrical shape. If the optical axis is not in the horizontal direction, the distance Z from the camera will not be horizontal to the floor surface. At this time, the shape of the play area may be defined by the distance in the optical axis direction or by the distance in the horizontal direction in the real space. Coordinate transformation can be easily realized by measuring the angle formed by the optical axis of the camera and the horizontal plane in the real space with an acceleration sensor or the like built in the image pickup apparatus 12. It will be understood by those skilled in the art that various possible data formats for setting an area in a three-dimensional space can be considered.

一方で、プレイエリアに対応する領域を画像平面で規定することにより、プレイエリアを間接的に設定してもよい。図10は、画像平面におけるプレイエリアの設定手法を説明するための図である。同図は被写空間に対向するカメラの視野、ひいては撮影画像の平面を表しており、上段(a)が単眼カメラ、下段(b)がステレオカメラの場合である。単眼カメラの場合、撮影画像300の平面に対し、所定幅xを有する左右両端をマージン領域とし、それを除く領域302をプレイエリア対応領域として定義する。 On the other hand, the play area may be indirectly set by defining the area corresponding to the play area on the image plane. FIG. 10 is a diagram for explaining a method of setting a play area on an image plane. The figure shows the field of view of the camera facing the subject space, and thus the plane of the captured image. The upper row (a) is a monocular camera, and the lower row (b) is a stereo camera. In the case of a monocular camera, the left and right ends having a predetermined width x with respect to the plane of the captured image 300 are defined as margin areas, and the area 302 excluding the margin areas is defined as a play area corresponding area.

この領域302により規定される3次元空間での領域は、奥行き方向の距離Zに比例して水平方向の幅が増加する領域304である。すなわち水平方向に着目した場合、領域302を設定することにより、図8で示した垂直面186a、186bの内側をプレイエリアとして設定したことになる。このように画像平面上でプレイエリア対応領域302を設定した場合、実空間でのプレイエリアの断面は、距離Zに応じたサイズの相似形となるため、実空間に直接設定する場合と比較して設定形状の自由度が少なくなる。 The region in the three-dimensional space defined by the region 302 is a region 304 in which the width in the horizontal direction increases in proportion to the distance Z in the depth direction. That is, when focusing on the horizontal direction, by setting the area 302, the inside of the vertical surfaces 186a and 186b shown in FIG. 8 is set as the play area. When the play area corresponding area 302 is set on the image plane in this way, the cross section of the play area in the real space has a similar figure of the size corresponding to the distance Z, so that it is compared with the case where the play area corresponding area 302 is set directly in the real space. Therefore, the degree of freedom of the set shape is reduced.

一方、撮影画像上での像とプレイエリア対応領域302との内外判定により直接、警告の必要性を判定できるため、ユーザの位置情報を介するより誤差の生じる余地が少なくなる。図示する例は水平方向にマージン領域を設けた場合であったが、垂直方向にマージン領域を設ける場合も同様である。また上述と同様の理由により、マージン領域を設けるか否か、およびその幅xの調整を、方向によって独立に行ってよい。それらの要素をコンテンツの内容や状況に応じて変化させてもよい。 On the other hand, since the necessity of the warning can be directly determined by the inside / outside determination of the image on the captured image and the play area corresponding area 302, there is less room for error than through the position information of the user. The example shown is the case where the margin area is provided in the horizontal direction, but the same applies to the case where the margin area is provided in the vertical direction. Further, for the same reason as described above, whether or not the margin region is provided and the width x thereof may be adjusted independently depending on the direction. These elements may be changed according to the content and situation of the content.

(b)で示したステレオカメラの場合、ユーザがカメラの視野の左端にいるか右端にいるかにより、先に視野から外れるカメラが異なる。例えばユーザがカメラの視野の右端近傍にいる場合、図示するように、右視点のカメラの画像306bにおける像308bより、左視点のカメラの画像306aにおける像308aの方が右端に近くなる。したがってこのままユーザが右方向に移動した場合、左視点のカメラの視野から先に外れることになる。ユーザがカメラの視野の左端近傍にいる場合は逆に、右視点のカメラの視野から先に外れる。 In the case of the stereo camera shown in (b), the camera that first deviates from the field of view differs depending on whether the user is at the left end or the right end of the field of view of the camera. For example, when the user is near the right end of the field of view of the camera, as shown in the figure, the image 308a in the image 306a of the left viewpoint camera is closer to the right end than the image 308b in the image 306b of the camera of the right viewpoint. Therefore, if the user moves to the right as it is, the user will be out of the field of view of the camera from the left viewpoint first. On the contrary, when the user is near the left end of the field of view of the camera, the user goes out of the field of view of the camera in the right viewpoint first.

したがってステレオカメラのどちらにも写るような視野内にプレイエリアを設定する場合、左視点のカメラの撮影画像平面における、右端の所定幅xのマージン領域を除く領域310aと、右視点のカメラの撮影画像平面における、左端の所定幅xのマージン領域を除く領域310bとを、プレイエリア対応領域として同時に設定する。そしてどちらかの画像において、ユーザの像がプレイエリア対応領域から出たことをもって、警告の必要性を判定する。 Therefore, when setting the play area within the field of view that can be captured by both stereo cameras, the area 310a excluding the margin area of the predetermined width x at the right end on the image plane captured by the camera of the left viewpoint and the image taken by the camera of the right viewpoint. The area 310b on the image plane excluding the margin area of the predetermined width x at the left end is simultaneously set as the play area corresponding area. Then, in either image, the necessity of the warning is determined when the image of the user comes out of the play area corresponding area.

図11は、警告状況判定部82が、警告が必要であると判定した際に生成される表示画面を例示している。表示画面200は、ゲーム画面などコンテンツの画像に警告を表す警告画像202を追加した構成を有する。警告画像202は図示する例では、「Out of play area」なる文字情報によりプレイエリアの外に出たことを表している。さらに危険を表すマークも含めることで緊急性を表現している。 FIG. 11 illustrates a display screen generated when the warning status determination unit 82 determines that a warning is necessary. The display screen 200 has a configuration in which a warning image 202 indicating a warning is added to an image of contents such as a game screen. In the illustrated example, the warning image 202 indicates that the user has gone out of the play area by the character information "Out of play area". Furthermore, the urgency is expressed by including a mark indicating danger.

ただし警告画像202の形態をこれに限る主旨ではなく、色や形状を工夫することで図形やマークのみで表したり、そのような図形やマークと文字情報を組み合わせたりしてもよい。また警告画像202をコンテンツごとに、あるいはその時点での表示の内容に応じて、変化させてもよい。ユーザに気づきを与える性質上、警告画像202はコンテンツの画像に重畳表示することを基本とする。一方で、コンテンツの画像が奥行き感を伴う仮想世界であった場合は特に、奥行き感のない部品画像が突然、目前に出現することにより、ユーザが驚いたり不快な気持ちになったりすることが考えられる。 However, the form of the warning image 202 is not limited to this, and it may be represented only by a figure or a mark by devising a color or a shape, or the character information may be combined with such a figure or a mark. Further, the warning image 202 may be changed for each content or according to the content of the display at that time. Due to the nature of giving notice to the user, the warning image 202 is basically superimposed and displayed on the image of the content. On the other hand, especially when the image of the content is a virtual world with a sense of depth, it is conceivable that the user may be surprised or uncomfortable by the sudden appearance of a component image without a sense of depth. Be done.

そこで図示するように警告画像202の周縁を、ブラー処理やαブレンディングなどによってぼかす。警告画像202全体を半透明としてもよい。これにより前面にありながらも背後に表現されている仮想世界との親和性を高められる。また突然視線を遮られた感覚を与えないよう、視点を避けた位置に警告画像202を表示することが望ましい。例えばユーザの視線に合わせて視野を変化させる表示形態では、必然的に視点が画面中央に固定されるため、画面中央から所定距離以上、離れた位置に表示する。 Therefore, as shown in the figure, the peripheral edge of the warning image 202 is blurred by blurring or α-blending. The entire warning image 202 may be translucent. This enhances the affinity with the virtual world that is expressed in the background while being in the foreground. Further, it is desirable to display the warning image 202 at a position away from the viewpoint so as not to give a feeling that the line of sight is suddenly blocked. For example, in a display mode in which the field of view is changed according to the user's line of sight, the viewpoint is inevitably fixed at the center of the screen, so that the display is performed at a position separated from the center of the screen by a predetermined distance or more.

また人は目線を上げるより下げる方が楽に行えるため、表示形態によらず、画面の下半分の領域(上下方向の中心線Cより下の領域)に警告画像202を表示することにより、注視点をコンテンツの画像から無理なく移動させていくことができる。これらのことにより、突然出現した画像に目の焦点が合わず認識するのに時間を要したり、細かい眼球の動きにより酔ってしまったりするのも防止できる。 In addition, since it is easier for a person to lower the line of sight than to raise the line of sight, the warning image 202 is displayed in the lower half area of the screen (the area below the center line C in the vertical direction) regardless of the display form. Can be easily moved from the image of the content. As a result, it is possible to prevent the suddenly appearing image from being out of focus and taking a long time to be recognized, or being intoxicated by fine eye movements.

次にこれまで述べた構成によって実現できる、情報処理装置10の動作について説明する。図12は、本実施の形態において情報処理装置がユーザの動きに応じた出力データを生成する処理手順を示すフローチャートである。このフローチャートは、ユーザが入力装置14を介して情報処理装置10に処理の開始を要求したときなどに開始される。 Next, the operation of the information processing apparatus 10 that can be realized by the configuration described so far will be described. FIG. 12 is a flowchart showing a processing procedure in which the information processing apparatus generates output data according to the movement of the user in the present embodiment. This flowchart is started when the user requests the information processing device 10 to start processing via the input device 14.

まず情報処理装置10の撮影画像取得部74は、撮像装置12に撮影の開始を要求し、それに応じて撮像装置12が撮影し出力した撮影画像のデータの取得を開始する(S10)。一方、警告状況判定部82は、エリア設定情報記憶部85からプレイエリアに係る設定情報を読み出す(S12)。このとき、ユーザが選択するなどした実施すべきコンテンツに対応づけられた設定情報を選択してもよい。また撮影画像を解析するなどしてユーザが着座しているか否かや、周囲の状況などを特定し、それらの情報によって設定情報を選択してもよい。 First, the captured image acquisition unit 74 of the information processing device 10 requests the imaging device 12 to start photographing, and accordingly, starts acquiring the captured image data captured and output by the imaging device 12 (S10). On the other hand, the warning status determination unit 82 reads the setting information related to the play area from the area setting information storage unit 85 (S12). At this time, the setting information associated with the content to be executed, such as the user's selection, may be selected. Further, it is possible to specify whether or not the user is seated by analyzing the captured image, the surrounding situation, and the like, and select the setting information based on the information.

次に情報処理部76は、撮影画像取得部74が取得したリアルタイムの撮影画像をHMD18に出力するように、出力データ生成部78に要求する。撮影画像をHMD18に表示させることにより、周囲に障害物がないかの確認をユーザに促す(S14、S16)。このとき出力データ生成部78は、「危ない物はありませんか?」といった文字情報と、ユーザが確認した旨を入力するためのGUI(Graphical User Interface)を撮影画像に重畳表示する。これによりユーザは事前にカメラの画角を認識できるため、プレイエリアと同等の領域を念頭に置いた動きができる。 Next, the information processing unit 76 requests the output data generation unit 78 to output the real-time captured image acquired by the captured image acquisition unit 74 to the HMD 18. By displaying the captured image on the HMD 18, the user is urged to confirm that there are no obstacles in the surroundings (S14, S16). At this time, the output data generation unit 78 superimposes and displays text information such as "Are there any dangerous objects?" And a GUI (Graphical User Interface) for inputting that the user has confirmed. As a result, the user can recognize the angle of view of the camera in advance, so that the user can move with an area equivalent to the play area in mind.

プレイエリアを知ることで自分の可動範囲が明確になり、周囲に存在する物が障害物となり得るかの判断も可能になる。ユーザが必要に応じて物を退かせたうえで、確認した旨の入力を行うことを条件に以後の処理を行うようにすれば、カメラの視野外への逸脱監視と同時に、障害物への衝突監視も行っていることになる。ユーザから確認の入力がない間は撮影画像を表示し続ける(S16のN、S14)。 By knowing the play area, your range of movement becomes clear, and you can also judge whether objects around you can be obstacles. If the user retracts the object as necessary and then performs the subsequent processing on the condition that the confirmation is input, the deviation from the camera's field of view can be monitored and the obstacle can be detected at the same time. Collision monitoring is also being carried out. While there is no confirmation input from the user, the captured image is continuously displayed (N, S14 in S16).

ユーザから確認の入力がなされたら(S16のY)、位置情報取得部80は、撮影画像に基づきユーザの位置情報の取得を開始する(S18)。そして当該情報を用いて情報処理部76が情報処理を行い、出力データ生成部78がその結果としてコンテンツの表示画像を描画する(S20)。一方、警告状況判定部82は、ユーザがプレイエリアを出たか否かを監視する(S22)。ユーザがプレイエリアから出たとする判定は、厳密にはユーザが装着しているHMD18、あるいはユーザが把持する入力装置14に設けたマーカーがプレイエリアから出たときに行う。 When the confirmation is input from the user (Y in S16), the position information acquisition unit 80 starts acquiring the user's position information based on the captured image (S18). Then, the information processing unit 76 performs information processing using the information, and the output data generation unit 78 draws a display image of the content as a result (S20). On the other hand, the warning status determination unit 82 monitors whether or not the user has left the play area (S22). Strictly speaking, the determination that the user has left the play area is performed when the marker provided on the HMD 18 worn by the user or the input device 14 held by the user leaves the play area.

ただし当該判定の基準は、ユーザの位置情報取得手段によって様々であってよい。例えばステレオ画像におけるユーザの像自体からデプスマップを作成するなどして位置情報とする場合は、ユーザの重心がプレイエリアから出たときとしてもよい。輪郭線を追跡している場合も同様である。また顔検出処理などのパターンマッチングにより追跡している場合は、プレイエリア内で顔が認識されなくなったときなどでもよい。 However, the criteria for the determination may vary depending on the user's location information acquisition means. For example, when the depth map is created from the user's image itself in the stereo image to be used as the position information, the center of gravity of the user may be out of the play area. The same applies when tracking the contour line. Further, when tracking is performed by pattern matching such as face detection processing, it may be when the face is no longer recognized in the play area.

ユーザがプレイエリアから出ていなければ(S22のN)、出力データ送信部86は、S20で描画されたコンテンツの画像をそのままHMD18に出力する(S26)。ユーザがプレイエリアから出た場合(S22のY)、警告状況判定部82が出力データ生成部78にその旨を通知することにより、出力データ生成部78がコンテンツの画像に警告画像を重畳させる(S24)。そして出力データ送信部86は、警告画像が重畳された画像をHMD18に出力する(S26)。なおS26の処理では、同時に音声のデータも出力してよい。 If the user is not out of the play area (N in S22), the output data transmission unit 86 outputs the image of the content drawn in S20 to the HMD 18 as it is (S26). When the user leaves the play area (Y in S22), the warning status determination unit 82 notifies the output data generation unit 78 to that effect, so that the output data generation unit 78 superimposes the warning image on the content image (Y). S24). Then, the output data transmission unit 86 outputs an image on which the warning image is superimposed to the HMD 18 (S26). In the process of S26, audio data may be output at the same time.

ユーザにより処理の停止要求があるなど処理を終了させる必要が生じない期間、位置情報に基づきコンテンツの画像を描画し、必要に応じて警告画像を重畳させてHMD18に出力する処理を、所定のレートで繰り返す(S28のN、S20〜S26)。そして処理を終了させる必要が生じたら、全ての処理を終了させる(S28のY)。 During the period when it is not necessary to end the process such as when the user requests to stop the process, the process of drawing the image of the content based on the position information, superimposing the warning image as necessary, and outputting it to the HMD 18 is performed at a predetermined rate. Repeat with (N of S28, S20 to S26). Then, when it becomes necessary to end the processing, all the processing is terminated (Y in S28).

なお同図のフローチャートでは、ユーザがプレイエリア外にいる期間と、警告画像を重畳させている期間が一致している。すなわちユーザがプレイエリア内に戻ったことをきっかけに警告画像が非表示となる。一方、警告画像を非表示とする条件を、表示する条件と独立に設けてもよい。図13は、警告画像の表示/非表示の状態遷移を模式的に示している。まず警告画像が表示されていない状態から表示された状態とするときの判定基準はこれまで述べたように、ユーザがプレイエリアから出たこととする(右方向矢印)。 In the flowchart of the figure, the period during which the user is outside the play area and the period during which the warning image is superimposed are the same. That is, the warning image is hidden when the user returns to the play area. On the other hand, the condition for hiding the warning image may be provided independently of the condition for displaying the warning image. FIG. 13 schematically shows a state transition in which a warning image is displayed / hidden. First, as described above, the criterion for changing from the state where the warning image is not displayed to the state where the warning image is displayed is that the user has left the play area (arrow to the right).

一方、警告画像が表示されている状態から表示されない状態とするときの判定基準は、プレイエリアに入ったことではなく、別途設定した条件を満たしたときとする(左方向矢印)。例えば、プレイエリアより狭い範囲として警告非表示エリアを設定しておき、当該エリアに入ったときに警告画像を非表示とする。あるいはプレイエリアに入ってから所定時間経過したときとする。このようにすることで、一旦、表示された警告は非表示とされにくくなる。結果として、ユーザがプレイエリアの境界近傍にいるときなどに、僅かな動きでプレイエリアに対する内外判定結果が切り替わり、警告が表示されたり消えたりを繰り消すチャタリングを防止できる。 On the other hand, the criterion for changing from the state in which the warning image is displayed to the state in which the warning image is not displayed is not that the player has entered the play area but that the condition that has been set separately is satisfied (arrow to the left). For example, a warning non-display area is set as a range narrower than the play area, and the warning image is hidden when entering the area. Alternatively, it is assumed that a predetermined time has passed since entering the play area. By doing so, the warning once displayed is less likely to be hidden. As a result, when the user is near the boundary of the play area, the inside / outside determination result for the play area is switched with a slight movement, and chattering in which the warning is displayed and disappears can be prevented.

以上述べた本実施の形態によれば、撮影画像における像に基づきユーザの位置情報を取得し、その結果を利用して情報処理を行うシステムにおいて、実世界の3次元空間にプレイエリアを設定し、ユーザが当該プレイエリアから出たときにその旨の警告を表示などでユーザに提示する。これによりユーザがHMDを装着して外界が見えなかったり、表示されている仮想世界に没頭したりして、いつの間にかカメラの視野から外れ、情報処理に破綻を来すことを防止できる。 According to the present embodiment described above, in a system that acquires user's position information based on an image in a captured image and processes information using the result, a play area is set in a three-dimensional space in the real world. , When the user leaves the play area, a warning to that effect is displayed to the user. As a result, it is possible to prevent the user from wearing the HMD and not being able to see the outside world or being immersed in the displayed virtual world, which unknowingly goes out of the field of view of the camera and causes a failure in information processing.

ここでプレイエリアは、カメラの視野を基準として設定する。このときプレイエリアを、視野に対しマージン領域を見込んで内側に設定するか、視野と同一とするか、またマージン領域を見込む場合はその幅、といった要素を最適化する。このようにマージン領域を調整することは、警告なしに移動できる範囲を規定していると同時に、ユーザが視野外に出てしまい位置情報が取得できなくなる頻度、ひいては位置情報取得精度を調整していることに他ならない。そのため、多少の位置情報取得精度の悪化を犠牲にしても極力広い範囲の移動を許容するか、範囲を限定的としても位置情報取得精度を維持するか、といった優先順位と合致した設定が可能となる。 Here, the play area is set with reference to the field of view of the camera. At this time, the elements such as whether the play area is set inside the field of view in anticipation of the margin area, the same as the field of view, and the width of the margin area when the margin area is expected are optimized. Adjusting the margin area in this way defines the range in which the user can move without warning, and at the same time, adjusts the frequency with which the user goes out of the field of view and cannot acquire the position information, and by extension, the accuracy of the position information acquisition. It is nothing but being. Therefore, it is possible to make settings that match the priority order, such as whether to allow movement in a wide range as much as possible at the expense of some deterioration in position information acquisition accuracy, or to maintain position information acquisition accuracy even if the range is limited. Become.

このような優先順位は、カメラの水平/垂直画角、情報処理の内容、ユーザやその周囲の状況などに依存して変化するため、それぞれに対し設定を最適化することにより、位置情報の取得精度とユーザの快適性を両立させることができる。またプレイエリアの形状は特に限定されないため、形状やサイズを適切に設定すれば、カメラの視野からの逸脱防止以外に、ゲームなどのコンテンツから想定される移動量の適正値の遵守や、周囲の障害物への衝突回避など役割を同時に果たすことができる。 Since such priority changes depending on the horizontal / vertical angle of view of the camera, the content of information processing, the user and the surrounding conditions, etc., the position information can be acquired by optimizing the settings for each. It is possible to achieve both accuracy and user comfort. In addition, the shape of the play area is not particularly limited, so if the shape and size are set appropriately, in addition to preventing deviation from the field of view of the camera, observing the appropriate value of the amount of movement expected from content such as games and surroundings It can play a role at the same time, such as avoiding collisions with obstacles.

警告を表示する際は、ゲーム画面など本来の表示画像上に、警告を表す部品画像を重畳表示する。このとき、周縁をぼかしたり半透明にしたりすることで、本来の表示画像との親和性を高め、突然、関連性のない画像が出現することによる違和感を少なくする。また、視点から所定の距離を設けたり画面の下半分の位置に表示させたりすることにより、視線が遮られることによる不快感や酔いの発生が抑制され、負担なく視線を合わせ、状況を認識させることができる。 When displaying a warning, a component image representing the warning is superimposed and displayed on the original display image such as a game screen. At this time, by blurring the periphery or making it translucent, the affinity with the original display image is enhanced, and the discomfort caused by the sudden appearance of an unrelated image is reduced. In addition, by setting a predetermined distance from the viewpoint or displaying it at the position of the lower half of the screen, the occurrence of discomfort and sickness due to the line of sight being blocked is suppressed, and the line of sight is aligned without burden to recognize the situation. be able to.

以上、本発明を実施の形態をもとに説明した。上記実施の形態は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。 The present invention has been described above based on the embodiments. The above-described embodiment is an example, and it is understood by those skilled in the art that various modifications are possible for each of these components and combinations of each processing process, and that such modifications are also within the scope of the present invention. be.

8 情報処理システム、 10 情報処理装置、 12 撮像装置、 14 入力装置、 16 平板型ディスプレイ、 18 HMD、 22 CPU、 24 GPU、 26 メインメモリ、 72 入力情報取得部、 74 撮影画像取得部、 76 情報処理部、 78 出力データ生成部、 80 位置情報取得部、 82 警告状況判定部、 85 エリア設定情報記憶部、 86 出力データ送信部。 8 Information processing system, 10 Information processing device, 12 Imaging device, 14 Input device, 16 Flat plate display, 18 HMD, 22 CPU, 24 GPU, 26 Main memory, 72 Input information acquisition unit, 74 Captured image acquisition unit, 76 Information Processing unit, 78 output data generation unit, 80 position information acquisition unit, 82 warning status determination unit, 85 area setting information storage unit, 86 output data transmission unit.

Claims (16)

実空間における対象物の位置を検出し、当該対象物に基づき情報処理を行う情報処理部と、
前記情報処理の結果として表示すべき画像のデータを生成する画像生成部と、
あらかじめ設定されたプレイエリアに基づいてユーザへの警告の必要性を判定し、前記画像生成部に警告画像を重畳させる警告状況判定部と、
前記画像生成部が生成した画像のデータを表示装置に出力する出力部と、
を備え、
前記出力部は、障害物がないかの確認をユーザに促す確認画面を前記表示装置に出力し、
ユーザから前記確認をした旨の入力がなされたあと、前記警告状況判定部は、前記警告の必要性の判定処理を開始することを特徴とする情報処理装置。
An information processing unit that detects the position of an object in real space and processes information based on the object.
An image generation unit that generates image data to be displayed as a result of the information processing,
A warning status determination unit that determines the necessity of warning to the user based on a preset play area and superimposes a warning image on the image generation unit.
An output unit that outputs image data generated by the image generation unit to a display device, and an output unit.
With
The output unit outputs a confirmation screen prompting the user to confirm that there are no obstacles to the display device.
An information processing device characterized in that the warning status determination unit starts a determination process of the necessity of the warning after the user inputs that the confirmation has been made.
実空間における対象物の位置を検出し、当該対象物に基づき情報処理を行う情報処理部と、
前記情報処理の結果として表示すべき画像のデータを生成する画像生成部と、
あらかじめ設定されたプレイエリアに基づいてユーザへの警告の必要性を判定し、前記画像生成部に警告画像を重畳させる警告状況判定部と、
前記画像生成部が生成した画像のデータを表示装置に出力する出力部と、
を備え、
前記出力部は、障害物がないかの確認をユーザに促す確認画面を前記表示装置に出力し、
ユーザから前記確認をした旨の入力がなされたあと、前記情報処理部は、前記位置の検出処理を開始することを特徴とする情報処理装置。
An information processing unit that detects the position of an object in real space and processes information based on the object.
An image generation unit that generates image data to be displayed as a result of the information processing,
A warning status determination unit that determines the necessity of warning to the user based on a preset play area and superimposes a warning image on the image generation unit.
An output unit that outputs image data generated by the image generation unit to a display device, and an output unit.
With
The output unit outputs a confirmation screen prompting the user to confirm that there are no obstacles to the display device.
An information processing device characterized in that the information processing unit starts a position detection process after an input to the effect that the confirmation has been made is made by the user.
前記警告状況判定部は、前記プレイエリアの外に前記対象物が出る際にユーザへの警告が必要と判定することを特徴とする請求項1または2に記載の情報処理装置。 The information processing device according to claim 1 or 2, wherein the warning status determination unit determines that a warning to the user is necessary when the object comes out of the play area. 前記出力部は、前記確認画面にリアルタイムの撮影画像を含めることを特徴とする請求項1から3のいずれかに記載の情報処理装置。 The information processing device according to any one of claims 1 to 3, wherein the output unit includes a real-time captured image in the confirmation screen. ユーザから前記確認をした旨の入力がなされたあと、前記警告状況判定部は、前記警告の必要性の判定処理を開始することを特徴とする請求項2に記載の情報処理装置。 The information processing apparatus according to claim 2, wherein the warning status determination unit starts a determination process for determining the necessity of the warning after the user inputs that the confirmation has been made. 前記警告状況判定部は、前記対象物を検出するための撮像装置を構成するステレオカメラが撮影したステレオ画像に基づき、前記対象物の、光軸方向の距離を取得することを特徴とする請求項1から5のいずれかに記載の情報処理装置。 A claim, wherein the warning status determination unit acquires a distance of the object in the optical axis direction based on a stereo image taken by a stereo camera constituting an imaging device for detecting the object. The information processing apparatus according to any one of 1 to 5. 前記ステレオカメラの光軸方向は実空間の水平方向にないことを特徴とする請求項6に記載の情報処理装置。 The information processing apparatus according to claim 6, wherein the direction of the optical axis of the stereo camera is not in the horizontal direction of the real space. 前記警告状況判定部は、前記撮像装置の光軸が実空間の水平方向にない場合、当該光軸方向の距離に対し前記プレイエリアの形状を定義することにより、前記プレイエリアと前記対象物との位置関係を取得することを特徴とする請求項6または7に記載の情報処理装置。 When the optical axis of the imaging device is not in the horizontal direction of the real space, the warning status determination unit defines the shape of the play area with respect to the distance in the optical axis direction, thereby causing the play area and the object. The information processing apparatus according to claim 6 or 7, wherein the positional relationship of the above is acquired. 前記警告状況判定部は、実空間の水平方向の距離に対し前記プレイエリアの形状を定義し、前記撮像装置の光軸が前記水平方向にない場合、前記光軸と前記水平方向とのなす角度の計測値に基づく座標変換により、前記プレイエリアと前記対象物との位置関係を取得することを特徴とする請求項6または7に記載の情報処理装置。 The warning status determination unit defines the shape of the play area with respect to the horizontal distance in the real space, and when the optical axis of the image pickup device is not in the horizontal direction, the angle formed by the optical axis and the horizontal direction. The information processing apparatus according to claim 6 or 7, wherein the positional relationship between the play area and the object is acquired by coordinate conversion based on the measured values of the above. 前記警告状況判定部は、前記対象物を検出するための撮像装置による撮影画像平面で前記プレイエリアに対応する領域を規定したうえ、当該撮影画像上での前記対象物の像の位置に基づき前記警告の必要性を判定することを特徴とする請求項1から5のいずれかに記載の情報処理装置。 The warning status determination unit defines a region corresponding to the play area in the image plane captured by the imaging device for detecting the object, and based on the position of the image of the object on the captured image. The information processing apparatus according to any one of claims 1 to 5, wherein the necessity of warning is determined. 前記警告状況判定部は、前記撮像装置を構成するステレオカメラの双方に写る空間に対応する領域を、当該ステレオカメラが撮影するステレオ画像のそれぞれに設定することにより、どちらか一方の画像において前記対象物の像が設定領域から出たことをもって、前記警告の必要があると判定することを特徴とする請求項10に記載の情報処理装置。 The warning status determination unit sets the area corresponding to the space captured by both of the stereo cameras constituting the image pickup apparatus to each of the stereo images captured by the stereo camera, whereby the target in either image. The information processing apparatus according to claim 10, wherein it is determined that the warning is necessary when an image of an object comes out of the setting area. 前記警告状況判定部は、前記対象物を検出するための撮像装置を構成するステレオカメラの画角の積集合の境界面を基準として、前記プレイエリアの境界面を設定することを特徴とする請求項1から8のいずれかに記載の情報処理装置。 The claim situation determination unit sets the boundary surface of the play area with reference to the boundary surface of the product set of the angles of view of the stereo camera constituting the imaging device for detecting the object. Item 4. The information processing apparatus according to any one of Items 1 to 8. 実空間における対象物の位置を検出し、当該対象物に基づき情報処理を行うステップと、
前記情報処理の結果として表示すべき画像のデータを生成するステップと、
あらかじめ設定されたプレイエリアに基づいてユーザへの警告の必要性を判定するステップと、
前記判定に応じて前記表示すべき画像に警告画像を重畳するステップと、
生成された画像のデータを表示装置に出力するステップと、
を含み、
前記出力するステップは、障害物がないかの確認をユーザに促す確認画面を前記表示装置に出力し、
前記判定するステップは、ユーザから前記確認をした旨の入力がなされたあと、前記警告の必要性の判定処理を開始することを特徴とする、情報処理装置による警告提示方法。
Steps to detect the position of an object in real space and perform information processing based on the object,
The step of generating image data to be displayed as a result of the information processing, and
Steps to determine the need for warning to the user based on a preset play area,
A step of superimposing a warning image on the image to be displayed according to the determination,
Steps to output the generated image data to the display device,
Including
In the output step, a confirmation screen prompting the user to confirm whether there is an obstacle is output to the display device.
The determination step is a method of presenting a warning by an information processing device, which comprises starting a determination process of the necessity of the warning after the user inputs that the confirmation has been made.
実空間における対象物の位置を検出し、当該対象物に基づき情報処理を行うステップと、
前記情報処理の結果として表示すべき画像のデータを生成するステップと、
あらかじめ設定されたプレイエリアに基づいてユーザへの警告の必要性を判定するステップと、
前記判定に応じて前記表示すべき画像に警告画像を重畳するステップと、
生成された画像のデータを表示装置に出力するステップと、
を含み、
前記出力するステップは、障害物がないかの確認をユーザに促す確認画面を前記表示装置に出力し、
前記情報処理を行うステップは、ユーザから前記確認をした旨の入力がなされたあと、前記位置の検出処理を開始することを特徴とする、情報処理装置による警告提示方法。
Steps to detect the position of an object in real space and perform information processing based on the object,
The step of generating image data to be displayed as a result of the information processing, and
Steps to determine the need for warning to the user based on a preset play area,
A step of superimposing a warning image on the image to be displayed according to the determination,
Steps to output the generated image data to the display device,
Including
In the output step, a confirmation screen prompting the user to confirm whether there is an obstacle is output to the display device.
The step of performing information processing is a method of presenting a warning by an information processing apparatus, which comprises starting a detection process of the position after an input to the effect that the confirmation has been made is made by the user.
実空間における対象物の位置を検出し当該対象物に基づき情報処理を行う機能と、
前記情報処理の結果として表示すべき画像のデータを生成する機能と、
あらかじめ設定されたプレイエリアに基づいてユーザへの警告の必要性を判定し、前記画像のデータを生成する機能にその旨を通知することにより警告画像を重畳させる機能と、
生成された画像のデータを表示装置に出力する機能と、
をコンピュータに実現させ、
前記出力する機能は、障害物がないかの確認をユーザに促す確認画面を前記表示装置に出力し、
前記警告画像を重畳させる機能は、ユーザから前記確認をした旨の入力がなされたあと、前記警告の必要性の判定処理を開始することを特徴とするコンピュータプログラム。
A function that detects the position of an object in real space and processes information based on the object,
A function to generate image data to be displayed as a result of the information processing, and
A function of determining the necessity of a warning to the user based on a preset play area and notifying the function of generating the image data to that effect, and a function of superimposing the warning image.
A function to output the generated image data to the display device,
To the computer,
The output function outputs a confirmation screen prompting the user to confirm that there are no obstacles to the display device.
The function of superimposing the warning image is a computer program characterized in that the process of determining the necessity of the warning is started after the user inputs that the confirmation has been made.
実空間における対象物の位置を検出し当該対象物に基づき情報処理を行う機能と、
前記情報処理の結果として表示すべき画像のデータを生成する機能と、
あらかじめ設定されたプレイエリアに基づいてユーザへの警告の必要性を判定し、前記画像のデータを生成する機能にその旨を通知することにより警告画像を重畳させる機能と、
生成された画像のデータを表示装置に出力する機能と、
をコンピュータに実現させ、
前記出力する機能は、障害物がないかの確認をユーザに促す確認画面を前記表示装置に出力し、
前記情報処理を行う機能は、ユーザから前記確認をした旨の入力がなされたあと、前記位置の検出処理を開始することを特徴とするコンピュータプログラム。
A function that detects the position of an object in real space and processes information based on the object,
A function to generate image data to be displayed as a result of the information processing, and
A function of determining the necessity of a warning to the user based on a preset play area and notifying the function of generating the image data to that effect, and a function of superimposing the warning image.
A function to output the generated image data to the display device,
To the computer,
The output function outputs a confirmation screen prompting the user to confirm that there are no obstacles to the display device.
The function of performing information processing is a computer program characterized in that the position detection process is started after the user inputs that the confirmation has been made.
JP2021065802A 2019-11-28 2021-04-08 Information processing device and warning presentation method Active JP7080373B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2021065802A JP7080373B2 (en) 2019-11-28 2021-04-08 Information processing device and warning presentation method
JP2022084313A JP7481395B2 (en) 2019-11-28 2022-05-24 Information processing device and warning presentation method
JP2024033525A JP2024061769A (en) 2019-11-28 2024-03-06 Information processing device and warning presentation method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019214957A JP6867464B2 (en) 2019-11-28 2019-11-28 Information processing device and warning presentation method
JP2021065802A JP7080373B2 (en) 2019-11-28 2021-04-08 Information processing device and warning presentation method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2019214957A Division JP6867464B2 (en) 2019-11-28 2019-11-28 Information processing device and warning presentation method

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022084313A Division JP7481395B2 (en) 2019-11-28 2022-05-24 Information processing device and warning presentation method

Publications (2)

Publication Number Publication Date
JP2021114310A true JP2021114310A (en) 2021-08-05
JP7080373B2 JP7080373B2 (en) 2022-06-03

Family

ID=70107459

Family Applications (4)

Application Number Title Priority Date Filing Date
JP2019214957A Active JP6867464B2 (en) 2019-11-28 2019-11-28 Information processing device and warning presentation method
JP2021065802A Active JP7080373B2 (en) 2019-11-28 2021-04-08 Information processing device and warning presentation method
JP2022084313A Active JP7481395B2 (en) 2019-11-28 2022-05-24 Information processing device and warning presentation method
JP2024033525A Pending JP2024061769A (en) 2019-11-28 2024-03-06 Information processing device and warning presentation method

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2019214957A Active JP6867464B2 (en) 2019-11-28 2019-11-28 Information processing device and warning presentation method

Family Applications After (2)

Application Number Title Priority Date Filing Date
JP2022084313A Active JP7481395B2 (en) 2019-11-28 2022-05-24 Information processing device and warning presentation method
JP2024033525A Pending JP2024061769A (en) 2019-11-28 2024-03-06 Information processing device and warning presentation method

Country Status (1)

Country Link
JP (4) JP6867464B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023149126A1 (en) * 2022-02-04 2023-08-10 株式会社ソニー・インタラクティブエンタテインメント Information processing device and information processing method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005165848A (en) * 2003-12-04 2005-06-23 Canon Inc Method and device for presenting augmented reality
JP2013164737A (en) * 2012-02-10 2013-08-22 Nec Corp Obstacle alarm display system, information processor, obstacle alarm display method, and obstacle alarm display program
JP2014157433A (en) * 2013-02-15 2014-08-28 Ricoh Co Ltd Parallax detection device and parallax detection method
US20150094142A1 (en) * 2013-09-30 2015-04-02 Sony Computer Entertainment Inc. Camera based safety mechanisms for users of head mounted displays

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007156561A (en) * 2005-11-30 2007-06-21 Canon Inc Augmented reality presenting method and system
JP6237000B2 (en) * 2013-08-29 2017-11-29 セイコーエプソン株式会社 Head-mounted display device
JP2015116336A (en) * 2013-12-18 2015-06-25 マイクロソフト コーポレーション Mixed-reality arena
JP6039594B2 (en) * 2014-02-20 2016-12-07 株式会社ソニー・インタラクティブエンタテインメント Information processing apparatus and information processing method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005165848A (en) * 2003-12-04 2005-06-23 Canon Inc Method and device for presenting augmented reality
JP2013164737A (en) * 2012-02-10 2013-08-22 Nec Corp Obstacle alarm display system, information processor, obstacle alarm display method, and obstacle alarm display program
JP2014157433A (en) * 2013-02-15 2014-08-28 Ricoh Co Ltd Parallax detection device and parallax detection method
US20150094142A1 (en) * 2013-09-30 2015-04-02 Sony Computer Entertainment Inc. Camera based safety mechanisms for users of head mounted displays

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
WAPA2: "「ひと味違う体験が可能「WiiSportsの裏技集」」", [ONILNE], HATENA BLOG, JPN6022004717, 10 December 2006 (2006-12-10), JP, ISSN: 0004702553 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023149126A1 (en) * 2022-02-04 2023-08-10 株式会社ソニー・インタラクティブエンタテインメント Information processing device and information processing method

Also Published As

Publication number Publication date
JP7481395B2 (en) 2024-05-10
JP7080373B2 (en) 2022-06-03
JP2020057400A (en) 2020-04-09
JP2024061769A (en) 2024-05-08
JP2022111143A (en) 2022-07-29
JP6867464B2 (en) 2021-04-28

Similar Documents

Publication Publication Date Title
JP6363587B2 (en) Information processing apparatus and warning presenting method
WO2017077918A1 (en) Information processing apparatus, information processing system, and information processing method
US11865448B2 (en) Information processing apparatus and user guide presentation method
JP6465672B2 (en) Information processing apparatus and information processing method
US20170324899A1 (en) Image pickup apparatus, head-mounted display apparatus, information processing system and information processing method
JP2017174125A (en) Information processing apparatus, information processing system, and information processing method
KR102642775B1 (en) Information processing devices, information processing methods, and programs
JP6975309B2 (en) Image processing device and image processing method
JP2024050696A (en) Information processing device, user guide presentation method, and head-mounted display
JP2024061769A (en) Information processing device and warning presentation method
JP6634654B2 (en) Information processing apparatus and warning presentation method
JP7349256B2 (en) Image generation device and information presentation method
JP6530453B2 (en) Game program and game system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210408

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220112

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220405

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220426

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220524

R150 Certificate of patent or registration of utility model

Ref document number: 7080373

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150