JP2022110509A - 情報処理装置及びプログラム - Google Patents
情報処理装置及びプログラム Download PDFInfo
- Publication number
- JP2022110509A JP2022110509A JP2021005971A JP2021005971A JP2022110509A JP 2022110509 A JP2022110509 A JP 2022110509A JP 2021005971 A JP2021005971 A JP 2021005971A JP 2021005971 A JP2021005971 A JP 2021005971A JP 2022110509 A JP2022110509 A JP 2022110509A
- Authority
- JP
- Japan
- Prior art keywords
- information
- user
- content
- processor
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 59
- 230000003190 augmentative effect Effects 0.000 claims abstract description 36
- 238000000034 method Methods 0.000 claims description 16
- 238000003384 imaging method Methods 0.000 claims description 10
- 230000004044 response Effects 0.000 claims description 8
- 238000001514 detection method Methods 0.000 claims description 6
- 230000000007 visual effect Effects 0.000 claims description 5
- 238000010586 diagram Methods 0.000 description 52
- 210000003811 finger Anatomy 0.000 description 34
- 230000006870 function Effects 0.000 description 23
- 238000012545 processing Methods 0.000 description 20
- 238000004891 communication Methods 0.000 description 13
- 238000010191 image analysis Methods 0.000 description 13
- 230000015654 memory Effects 0.000 description 11
- 230000033001 locomotion Effects 0.000 description 9
- 238000004458 analytical method Methods 0.000 description 8
- 230000008859 change Effects 0.000 description 7
- 230000003111 delayed effect Effects 0.000 description 6
- 238000013459 approach Methods 0.000 description 3
- 230000014509 gene expression Effects 0.000 description 3
- 239000011521 glass Substances 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 230000009471 action Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 210000004247 hand Anatomy 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000007480 spreading Effects 0.000 description 2
- 210000003813 thumb Anatomy 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 210000000988 bone and bone Anatomy 0.000 description 1
- 210000000845 cartilage Anatomy 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 210000004932 little finger Anatomy 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000004984 smart glass Substances 0.000 description 1
- 238000002834 transmittance Methods 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B7/00—Signalling systems according to more than one of groups G08B3/00 - G08B6/00; Personal calling systems according to more than one of groups G08B3/00 - G08B6/00
- G08B7/06—Signalling systems according to more than one of groups G08B3/00 - G08B6/00; Personal calling systems according to more than one of groups G08B3/00 - G08B6/00 using electric transmission, e.g. involving audible and visible signalling through the use of sound and light sources
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0141—Head-up displays characterised by optical features characterised by the informative content of the display
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B2027/0178—Eyeglass type
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2354/00—Aspects of interface with display user
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Health & Medical Sciences (AREA)
- Optics & Photonics (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
【課題】情報の存在を検知すると同時にその情報の内容が拡張現実の画像として視界前方に表示される場合に比して、その時々のユーザの希望を反映した表示を可能にする。【解決手段】情報処理装置は、プロセッサを有し、プロセッサは、予め定めた情報の存在が検出された場合、拡張現実の画像として、情報の内容をユーザの視界前方に表示する前に、情報の内容の表示の可否をユーザに問い合わせ、問い合わせに対するユーザの指示に従って、拡張現実の画像による情報の内容の表示を制御する。【選択図】図7
Description
本発明は、情報処理装置及びプログラムに関する。
現在、データ処理により作成した情報を現実世界に重ね合わせて表示することで、視覚的に現実を拡張する技術が実用化されている。この技術は、拡張現実(Augmented Reality=AR)と呼ばれる。
拡張現実の画像(以下「AR画像」ともいう)の表示が可能なデバイスには、メガネ型のデバイスがある。メガネ型のデバイスは、AR画像を表示しない場合、メガネと同様の使い方が可能である。
AR画像の表示が可能なデバイスの普及に伴い、デバイスを装着しているユーザの視界前方に情報の内容を表すAR画像が表示される機会も増加すると予測される。
AR画像の表示が可能なデバイスの普及に伴い、デバイスを装着しているユーザの視界前方に情報の内容を表すAR画像が表示される機会も増加すると予測される。
一方で、ユーザの周囲の環境やユーザの動作状態は同じでも、その時々により、存在を検出した情報の内容の表示を望む場合と情報の内容の表示までは望まない場合があると予想される。例えばその時点では、情報の内容を確認する余裕はないが、後で情報の内容を確認したい場合がある。
本発明は、情報の存在を検知すると同時にその情報の内容が拡張現実の画像として視界前方に表示される場合に比して、その時々のユーザの希望を反映した表示を可能にすることを目的とする。
請求項1に記載の発明は、プロセッサを有し、前記プロセッサは、予め定めた情報の存在が検出された場合、拡張現実の画像として、前記情報の内容をユーザの視界前方に表示する前に、当該情報の内容の表示の可否をユーザに問い合わせ、問い合わせに対するユーザの指示に従って、拡張現実の画像による前記情報の内容の表示を制御する、情報処理装置である。
請求項2に記載の発明は、前記プロセッサは、前記問い合わせに視覚以外の方法を使用する、請求項1に記載の情報処理装置である。
請求項3に記載の発明は、前記プロセッサは、前記問い合わせに音を使用する、請求項2に記載の情報処理装置である。
請求項4に記載の発明は、前記プロセッサは、前記問い合わせに振動を使用する、請求項2に記載の情報処理装置である。
請求項5に記載の発明は、前記プロセッサは、前記問い合わせに、前記情報の検出を示す第2の拡張現実の画像を使用する、請求項1に記載の情報処理装置である。
請求項6に記載の発明は、前記プロセッサは、前記第2の拡張現実の画像としてマークを表示する、請求項5に記載の情報処理装置である。
請求項7に記載の発明は、前記プロセッサは、検出した情報の内容に応じて前記マークを選択する、請求項6に記載の情報処理装置である。
請求項8に記載の発明は、前記プロセッサは、ユーザから前記情報の内容の表示が指示された場合、当該情報の内容の表示を許可する、請求項1に記載の情報処理装置である。
請求項9に記載の発明は、前記プロセッサは、ユーザから前記情報の内容の不表示が指示された場合、当該情報の内容の表示を許可しない、請求項8に記載の情報処理装置である。
請求項10に記載の発明は、前記プロセッサは、ユーザから前記情報の内容の音声による出力が指示された場合、当該情報の内容を音声により出力させる、請求項8又は9に記載の情報処理装置である。
請求項11に記載の発明は、前記プロセッサは、ユーザからの指示が予め定めた時間内にない場合、前記情報の内容に対応する前記画像の表示を許可しない、請求項8に記載の情報処理装置である。
請求項12に記載の発明は、前記プロセッサは、ユーザのジェスチャを撮像した画像によりユーザの指示を検知する、請求項1に記載の情報処理装置である。
請求項13に記載の発明は、前記プロセッサは、ユーザの手を撮像した画像によりユーザの指示を検知する、請求項12に記載の情報処理装置である。
請求項14に記載の発明は、前記プロセッサは、前記指示に関連付けて、前記情報の内容を表示する条件を受け付けた場合、当該条件を満たす時点に、当該情報の内容に対応する前記画像の表示を許可する、請求項1又は8に記載の情報処理装置である。
請求項15に記載の発明は、前記条件は、前記指示の度にユーザから受け付ける、請求項14に記載の情報処理装置である。
請求項16に記載の発明は、前記プロセッサは、前記条件がユーザにより事前に設定されている場合、当該条件を前記情報の内容に対応する前記画像の表示に適用する、請求項14に記載の情報処理装置である。
請求項17に記載の発明は、前記プロセッサは、ユーザの周囲を撮像した画像内に、前記情報の内容が含まれる場合、当該情報の内容の表示の可否をユーザに問い合わせる、請求項1に記載の情報処理装置である。
請求項18に記載の発明は、拡張現実の画像をユーザの視界前方に表示するデバイスは、当該デバイスを装着したユーザの視界前方を撮像する撮像部を有し、前記情報は、当該撮像部で撮像された画像内から検出される、請求項17に記載の情報処理装置である。
請求項19に記載の発明は、前記撮像部が撮像する範囲は、ユーザの視野よりも広く設定される請求項18に記載の情報処理装置である。
請求項20に記載の発明は、前記プロセッサは、外部の装置から前記情報の受信を検出した場合、当該情報の内容の表示の可否をユーザに問い合わせる、請求項1に記載の情報処理装置である。
請求項21に記載の発明は、前記情報は、ユーザが特定の場所を通過した場合に、通過した場所にある外部の装置から与えられる、請求項20に記載の情報処理装置である。
請求項22に記載の発明は、コンピュータに、予め定めた情報の存在が検出された場合、拡張現実の画像として、前記情報の内容をユーザの視界前方に表示する前に、当該情報の内容の表示の可否をユーザに問い合わせる機能と、問い合わせに対するユーザの指示に従って、拡張現実の画像による前記情報の内容の表示を制御する機能とを実現させるためのプログラムである。
請求項2に記載の発明は、前記プロセッサは、前記問い合わせに視覚以外の方法を使用する、請求項1に記載の情報処理装置である。
請求項3に記載の発明は、前記プロセッサは、前記問い合わせに音を使用する、請求項2に記載の情報処理装置である。
請求項4に記載の発明は、前記プロセッサは、前記問い合わせに振動を使用する、請求項2に記載の情報処理装置である。
請求項5に記載の発明は、前記プロセッサは、前記問い合わせに、前記情報の検出を示す第2の拡張現実の画像を使用する、請求項1に記載の情報処理装置である。
請求項6に記載の発明は、前記プロセッサは、前記第2の拡張現実の画像としてマークを表示する、請求項5に記載の情報処理装置である。
請求項7に記載の発明は、前記プロセッサは、検出した情報の内容に応じて前記マークを選択する、請求項6に記載の情報処理装置である。
請求項8に記載の発明は、前記プロセッサは、ユーザから前記情報の内容の表示が指示された場合、当該情報の内容の表示を許可する、請求項1に記載の情報処理装置である。
請求項9に記載の発明は、前記プロセッサは、ユーザから前記情報の内容の不表示が指示された場合、当該情報の内容の表示を許可しない、請求項8に記載の情報処理装置である。
請求項10に記載の発明は、前記プロセッサは、ユーザから前記情報の内容の音声による出力が指示された場合、当該情報の内容を音声により出力させる、請求項8又は9に記載の情報処理装置である。
請求項11に記載の発明は、前記プロセッサは、ユーザからの指示が予め定めた時間内にない場合、前記情報の内容に対応する前記画像の表示を許可しない、請求項8に記載の情報処理装置である。
請求項12に記載の発明は、前記プロセッサは、ユーザのジェスチャを撮像した画像によりユーザの指示を検知する、請求項1に記載の情報処理装置である。
請求項13に記載の発明は、前記プロセッサは、ユーザの手を撮像した画像によりユーザの指示を検知する、請求項12に記載の情報処理装置である。
請求項14に記載の発明は、前記プロセッサは、前記指示に関連付けて、前記情報の内容を表示する条件を受け付けた場合、当該条件を満たす時点に、当該情報の内容に対応する前記画像の表示を許可する、請求項1又は8に記載の情報処理装置である。
請求項15に記載の発明は、前記条件は、前記指示の度にユーザから受け付ける、請求項14に記載の情報処理装置である。
請求項16に記載の発明は、前記プロセッサは、前記条件がユーザにより事前に設定されている場合、当該条件を前記情報の内容に対応する前記画像の表示に適用する、請求項14に記載の情報処理装置である。
請求項17に記載の発明は、前記プロセッサは、ユーザの周囲を撮像した画像内に、前記情報の内容が含まれる場合、当該情報の内容の表示の可否をユーザに問い合わせる、請求項1に記載の情報処理装置である。
請求項18に記載の発明は、拡張現実の画像をユーザの視界前方に表示するデバイスは、当該デバイスを装着したユーザの視界前方を撮像する撮像部を有し、前記情報は、当該撮像部で撮像された画像内から検出される、請求項17に記載の情報処理装置である。
請求項19に記載の発明は、前記撮像部が撮像する範囲は、ユーザの視野よりも広く設定される請求項18に記載の情報処理装置である。
請求項20に記載の発明は、前記プロセッサは、外部の装置から前記情報の受信を検出した場合、当該情報の内容の表示の可否をユーザに問い合わせる、請求項1に記載の情報処理装置である。
請求項21に記載の発明は、前記情報は、ユーザが特定の場所を通過した場合に、通過した場所にある外部の装置から与えられる、請求項20に記載の情報処理装置である。
請求項22に記載の発明は、コンピュータに、予め定めた情報の存在が検出された場合、拡張現実の画像として、前記情報の内容をユーザの視界前方に表示する前に、当該情報の内容の表示の可否をユーザに問い合わせる機能と、問い合わせに対するユーザの指示に従って、拡張現実の画像による前記情報の内容の表示を制御する機能とを実現させるためのプログラムである。
請求項1記載の発明によれば、表示の対象とする情報の検知と同時に拡張現実の画像による表示が実行される場合に比して、その時々のユーザの希望を反映した表示を可能にできる。
請求項2記載の発明によれば、視覚情報を用いずに、検出された情報の拡張現実による表示の可否を問い合わせることができる。
請求項3記載の発明によれば、問い合わせの段階でのユーザの視界を確保できる。
請求項4記載の発明によれば、問い合わせの段階でのユーザの視界を確保できる。
請求項5記載の発明によれば、情報の内容を拡張現実の画像として表示する場合に比して、表示を簡易化できる。
請求項6記載の発明によれば、情報の内容を拡張現実の画像として表示する場合に比して、表示を簡易化できる。
請求項7記載の発明によれば、検出された情報の内容のユーザによる予測を支援できる。
請求項8記載の発明によれば、ユーザによる表示の指示があった場合に限り、情報の内容をユーザの視界前方に表示できる。
請求項9記載の発明によれば、ユーザが望まない情報により視界が妨げずに済む。
請求項10記載の発明によれば、検出された情報の内容を音声によりユーザに伝達できる。
請求項11記載の発明によれば、ユーザからの指示が無くても拡張現実の画像の表示を停止できる。
請求項12記載の発明によれば、問い合わせに対する指示の手法を多様化できる。
請求項13記載の発明によれば、ユーザの手を指示に使用できる。
請求項14記載の発明によれば、ユーザが望むタイミングに情報を表示できる。
請求項15記載の発明によれば、その時時のユーザの状況に応じて表示のタイミングを指示できる。
請求項16記載の発明によれば、表示の条件については毎回の指示を省略できる。
請求項17記載の発明によれば、ユーザに問い合わせる情報をユーザの身の回りに関連する情報に限定できる。
請求項18記載の発明によれば、表示の可否を問い合わせる情報を、ユーザの視界前方で検出される情報に限定できる。
請求項19記載の発明によれば、ユーザの視野に含まれない位置にある情報の存在をユーザに通知できる。
請求項20記載の発明によれば、表示の可否を問い合わせる情報をユーザの身の回り以外まで拡張できる。
請求項21記載の発明によれば、特定の場所に紐付けられた情報の表示の可否をユーザに問い合わせできる。
請求項22記載の発明によれば、表示の対象とする情報の検知と同時に拡張現実の画像による表示が実行される場合に比して、その時々のユーザの希望を反映した表示を可能にできる。
請求項2記載の発明によれば、視覚情報を用いずに、検出された情報の拡張現実による表示の可否を問い合わせることができる。
請求項3記載の発明によれば、問い合わせの段階でのユーザの視界を確保できる。
請求項4記載の発明によれば、問い合わせの段階でのユーザの視界を確保できる。
請求項5記載の発明によれば、情報の内容を拡張現実の画像として表示する場合に比して、表示を簡易化できる。
請求項6記載の発明によれば、情報の内容を拡張現実の画像として表示する場合に比して、表示を簡易化できる。
請求項7記載の発明によれば、検出された情報の内容のユーザによる予測を支援できる。
請求項8記載の発明によれば、ユーザによる表示の指示があった場合に限り、情報の内容をユーザの視界前方に表示できる。
請求項9記載の発明によれば、ユーザが望まない情報により視界が妨げずに済む。
請求項10記載の発明によれば、検出された情報の内容を音声によりユーザに伝達できる。
請求項11記載の発明によれば、ユーザからの指示が無くても拡張現実の画像の表示を停止できる。
請求項12記載の発明によれば、問い合わせに対する指示の手法を多様化できる。
請求項13記載の発明によれば、ユーザの手を指示に使用できる。
請求項14記載の発明によれば、ユーザが望むタイミングに情報を表示できる。
請求項15記載の発明によれば、その時時のユーザの状況に応じて表示のタイミングを指示できる。
請求項16記載の発明によれば、表示の条件については毎回の指示を省略できる。
請求項17記載の発明によれば、ユーザに問い合わせる情報をユーザの身の回りに関連する情報に限定できる。
請求項18記載の発明によれば、表示の可否を問い合わせる情報を、ユーザの視界前方で検出される情報に限定できる。
請求項19記載の発明によれば、ユーザの視野に含まれない位置にある情報の存在をユーザに通知できる。
請求項20記載の発明によれば、表示の可否を問い合わせる情報をユーザの身の回り以外まで拡張できる。
請求項21記載の発明によれば、特定の場所に紐付けられた情報の表示の可否をユーザに問い合わせできる。
請求項22記載の発明によれば、表示の対象とする情報の検知と同時に拡張現実の画像による表示が実行される場合に比して、その時々のユーザの希望を反映した表示を可能にできる。
以下、図面を参照して、本発明の実施の形態を説明する。
<実施の形態1>
<システムの全体構成>
図1は、実施の形態1で使用する情報処理システム1の使用例を説明する図である。
図1に示す情報処理システム1は、通信網30経由で相互に接続されたサーバ10とxRデバイス20とで構成されている。
ここで「接続された」とは、通信が可能な状態をいう。
<実施の形態1>
<システムの全体構成>
図1は、実施の形態1で使用する情報処理システム1の使用例を説明する図である。
図1に示す情報処理システム1は、通信網30経由で相互に接続されたサーバ10とxRデバイス20とで構成されている。
ここで「接続された」とは、通信が可能な状態をいう。
図1の場合、サーバ10には、1台のxRデバイス20が接続されているが、複数台のxRデバイス20が接続されていてもよい。
また、複数台のサーバ10に1台のxRデバイス20が接続されてもよいし、複数台のサーバ10と複数台のxRデバイス20が接続されてもよい。
図1における通信網30には、例えば無線LAN(=Local Area Network)、インターネット、4G、5G等の移動通信システム、ブルートゥースを使用する。
また、複数台のサーバ10に1台のxRデバイス20が接続されてもよいし、複数台のサーバ10と複数台のxRデバイス20が接続されてもよい。
図1における通信網30には、例えば無線LAN(=Local Area Network)、インターネット、4G、5G等の移動通信システム、ブルートゥースを使用する。
本実施の形態で使用するサーバ10は、xRデバイス20との連携を通じて、情報提供サービスを実現する情報処理装置として機能する。
本実施の形態で使用するxRデバイス20は、ユーザが頭部に装着するメガネ型のデバイスである。本実施の形態で使用するxRデバイス20には、フレームの中央部分にカメラ21が取り付けられている。
カメラ21は、ユーザの視界前方を撮像する「撮像部」として用いられる。カメラ21の視野角は人の視野角とほぼ同じ又は人の視野角以上とする。
もっとも、カメラ21は、パノラマ画像その他の広角画像の撮像が可能なデバイスでもよく、全天球や半天球の画像の撮像が可能なデバイスでもよい。パノラマ画像は、水平方向について360°を撮像する画像でもよい。
本実施の形態で使用するxRデバイス20は、ユーザが頭部に装着するメガネ型のデバイスである。本実施の形態で使用するxRデバイス20には、フレームの中央部分にカメラ21が取り付けられている。
カメラ21は、ユーザの視界前方を撮像する「撮像部」として用いられる。カメラ21の視野角は人の視野角とほぼ同じ又は人の視野角以上とする。
もっとも、カメラ21は、パノラマ画像その他の広角画像の撮像が可能なデバイスでもよく、全天球や半天球の画像の撮像が可能なデバイスでもよい。パノラマ画像は、水平方向について360°を撮像する画像でもよい。
カメラ21付きのxRデバイス20は、ARグラスやMR(=Mixed Reality)グラスとも呼ばれる。本実施の形態では、メガネ型のデバイスを総称して「xRデバイス」という。もっとも、xRデバイス20の外観は、図1に示すメガネ型に限らず、帽子のように頭部に被るヘッドマウント型でもよい。
本実施の形態では、AR画像として2次元の画像を想定するが、3次元の画像でもよい。3次元の画像とは、画素毎に距離の情報が記録された画像をいい、「距離画像」とも呼ばれる。なお、3次元の画像の取得には、カメラ21としてステレオカメラを用いてもよく、LiDAR(=Light Detection and Ranging)を用いてもよい。
本実施の形態では、AR画像として2次元の画像を想定するが、3次元の画像でもよい。3次元の画像とは、画素毎に距離の情報が記録された画像をいい、「距離画像」とも呼ばれる。なお、3次元の画像の取得には、カメラ21としてステレオカメラを用いてもよく、LiDAR(=Light Detection and Ranging)を用いてもよい。
<サーバの構成>
図2は、実施の形態1で使用するサーバ10のハードウェア構成の一例を説明する図である。
図2に示すサーバ10は、データ処理部100と、ハードディスクドライブ(すなわち「HDD」)110と、通信モジュール120とを有している。
ここでの通信モジュール120には、通信網30を介した通信に使用するプロトコルに準拠したデバイスが使用される。
サーバ10には、ディスプレイ、キーボード、マウス等を追加で設けることも可能である。
図2は、実施の形態1で使用するサーバ10のハードウェア構成の一例を説明する図である。
図2に示すサーバ10は、データ処理部100と、ハードディスクドライブ(すなわち「HDD」)110と、通信モジュール120とを有している。
ここでの通信モジュール120には、通信網30を介した通信に使用するプロトコルに準拠したデバイスが使用される。
サーバ10には、ディスプレイ、キーボード、マウス等を追加で設けることも可能である。
データ処理部100は、プロセッサ101と、ROM(=Read Only Memory)102と、RAM(=Random Access Memory)103とを有している。
ROM102とRAM103は、いずれも半導体メモリである。ROM102には、BIOS(=Basic Input Output System)等が記憶されている。RAM103は、プログラムの実行に使用される主記憶装置として用いられる。RAM103には、例えばDRAM(=Dynamic RAM)を使用する。
ROM102とRAM103は、いずれも半導体メモリである。ROM102には、BIOS(=Basic Input Output System)等が記憶されている。RAM103は、プログラムの実行に使用される主記憶装置として用いられる。RAM103には、例えばDRAM(=Dynamic RAM)を使用する。
プロセッサ101は、例えばCPU(=Central Processing Unit)で構成される。プロセッサ101は、プログラムの実行を通じて各種の機能を実現する。
図2に示すプロセッサ101には、プログラムの実行により実現される機能の一部として、画像解析部101Aと、問い合わせ制御部101Bと、出力制御部101Cとを表している。
画像解析部101Aは、ユーザの視線の方向(以下「視界前方」ともいう)を撮像した画像を解析する機能に対応する。
画像解析部101Aには、予め定めた情報の存在を検出する第1の解析機能と、ユーザに情報を出力するタイミングを検出する第2の解析機能とを有している。
図2に示すプロセッサ101には、プログラムの実行により実現される機能の一部として、画像解析部101Aと、問い合わせ制御部101Bと、出力制御部101Cとを表している。
画像解析部101Aは、ユーザの視線の方向(以下「視界前方」ともいう)を撮像した画像を解析する機能に対応する。
画像解析部101Aには、予め定めた情報の存在を検出する第1の解析機能と、ユーザに情報を出力するタイミングを検出する第2の解析機能とを有している。
第1の解析機能は、例えばユーザの視線の方向を撮像した画像に含まれる様々な情報の中から、提供の対象として予め定められた情報の存在を検出するために用いられる。
本実施の形態の場合、提供の対象とする情報は、問い合わせ対象テーブル112に登録されている。
第2の解析機能は、例えばユーザの視線の方向を撮像した画像の風景や環境が、情報を提供するタイミングに該当することを検出するために用いられる。本実施の形態の場合、情報を提供するタイミングは、提供タイミングテーブル113に登録されている。
本実施の形態の場合、提供の対象とする情報は、問い合わせ対象テーブル112に登録されている。
第2の解析機能は、例えばユーザの視線の方向を撮像した画像の風景や環境が、情報を提供するタイミングに該当することを検出するために用いられる。本実施の形態の場合、情報を提供するタイミングは、提供タイミングテーブル113に登録されている。
問い合わせ制御部101Bは、提供の対象とする情報の存在が検出された場合に、検出された情報の内容をユーザの視界前方に表示する前に、ユーザに対して表示の可否を問い合わせる処理と、問い合わせに対するユーザからの応答を受け付ける処理とを制御する機能に対応する。
問い合わせ制御部101Bは、提供の対象とする情報の存在を、画像解析部101Aの解析の結果を通じて知る場合とxRデバイス20からの通知により知る場合がある。
本実施の形態の場合、画像中に含まれる文字を認識した結果は、xRデバイス20から与えられる。もっとも、サーバ10による画像の解析により、画像中に含まれる文字を認識してもよい。
問い合わせ制御部101Bは、提供の対象とする情報の存在を、画像解析部101Aの解析の結果を通じて知る場合とxRデバイス20からの通知により知る場合がある。
本実施の形態の場合、画像中に含まれる文字を認識した結果は、xRデバイス20から与えられる。もっとも、サーバ10による画像の解析により、画像中に含まれる文字を認識してもよい。
出力制御部101Cは、第2の解析機能により出力のタイミングに該当する場面が検出された場合に、対応する情報の内容の出力を制御する機能に対応する。
本実施の形態の場合、情報の内容の出力は、AR画像の表示と音声による出力のいずれかによる。
AR画像による出力の場合、本実施の形態における出力制御部101Cは、情報の内容に応じたAR画像の生成や出力する位置の制御等を実行する。なお、音声による出力の場合、本実施の形態における出力制御部101Cは、情報の内容に対応する音声ファイルを生成する。
本実施の形態の場合、情報の内容の出力は、AR画像の表示と音声による出力のいずれかによる。
AR画像による出力の場合、本実施の形態における出力制御部101Cは、情報の内容に応じたAR画像の生成や出力する位置の制御等を実行する。なお、音声による出力の場合、本実施の形態における出力制御部101Cは、情報の内容に対応する音声ファイルを生成する。
ハードディスクドライブ110は、磁気ディスクを記録媒体とする補助記憶装置である。本実施の形態では、補助記憶装置としてハードディスクドライブ110を使用するが、不揮発性の書き換えが可能な半導体メモリを使用してもよい。ハードディスクドライブ110には、オペレーションシステムやアプリケーションプログラムがインストールされる。
以下では、オペレーションシステムやアプリケーションプログラムを区別せず「プログラム」という。
以下では、オペレーションシステムやアプリケーションプログラムを区別せず「プログラム」という。
図2に示すハードディスクドライブ110には、画像データ111と、問い合わせ対象テーブル112と、提供タイミングテーブル113とが記録されている。
本実施の形態の場合、画像データ111は、カメラ21(図1参照)により撮像され、撮像と同時にxRデバイス20(図1参照)からアップロードされる。
本実施の形態の場合、画像データ111として動画像を使用する。もっとも、予め定めた周期で撮像された静止画像でもよい。撮像の周期は、例えば5秒とする。また、画像データ111は、頭の向きの変化が検知された場合に撮像してもよい。頭の向きの変化は、例えば加速度の変化により検出が可能である。
本実施の形態の場合、画像データ111は、カメラ21(図1参照)により撮像され、撮像と同時にxRデバイス20(図1参照)からアップロードされる。
本実施の形態の場合、画像データ111として動画像を使用する。もっとも、予め定めた周期で撮像された静止画像でもよい。撮像の周期は、例えば5秒とする。また、画像データ111は、頭の向きの変化が検知された場合に撮像してもよい。頭の向きの変化は、例えば加速度の変化により検出が可能である。
図3は、問い合わせ対象テーブル112の一例を説明する図である。図3に示す問い合わせ対象テーブル112は、「対象」と、「内容」と、「ユーザの設定」で構成されている。
図3では、「対象」の例として、「場所」、「ジャンル」、「掲示板・案内」、「看板」を例示している。また、「場所」の例として、「AB店」、「駅」、「図書館」を例示している。また、「ジャンル」の例として、「服」と「車」を例示している。
図3では、「対象」の例として、「場所」、「ジャンル」、「掲示板・案内」、「看板」を例示している。また、「場所」の例として、「AB店」、「駅」、「図書館」を例示している。また、「ジャンル」の例として、「服」と「車」を例示している。
各内容には「ユーザの設定」の有無が記録されている。
ここでの「ユーザの設定」は、情報提供サービスを利用するユーザ毎に紐付けられている。従って、ある情報が検出された場合でも、ユーザにより、提供の対象となる場合と提供の対象にならない場合がある。
図3の場合、「AB店」、「駅」、「服」、「交通機関」、「規制情報」、「広告」に関する情報は、提供の対象である。一方、「図書館」、「車」、「案内地図」、「店名」に関する情報は、提供の対象から除外されている。
この設定は、いつでも変更が可能である。
ここでの「ユーザの設定」は、情報提供サービスを利用するユーザ毎に紐付けられている。従って、ある情報が検出された場合でも、ユーザにより、提供の対象となる場合と提供の対象にならない場合がある。
図3の場合、「AB店」、「駅」、「服」、「交通機関」、「規制情報」、「広告」に関する情報は、提供の対象である。一方、「図書館」、「車」、「案内地図」、「店名」に関する情報は、提供の対象から除外されている。
この設定は、いつでも変更が可能である。
図4は、提供タイミングテーブル113の一例を説明する図である。図4に示す提供タイミングテーブル113は、「タイミング」と、「設定」と、「出力の形態」と、「備考」で構成されている。
図4では、「タイミング」の例として、「すぐ」、「立ち止まったとき」、「周囲が混雑していないとき」、「周囲に走行中の車がいないとき」、「目的地」、「登録地」、「自宅」、「時刻指定」、「経過時間指定」、「特定のホームページを端末で閲覧しているとき」を例示している。
図4では、「タイミング」の例として、「すぐ」、「立ち止まったとき」、「周囲が混雑していないとき」、「周囲に走行中の車がいないとき」、「目的地」、「登録地」、「自宅」、「時刻指定」、「経過時間指定」、「特定のホームページを端末で閲覧しているとき」を例示している。
図4の場合、「すぐ」と「立ち止まったとき」は、出力のタイミングから除外されている。これらのタイミングでの出力を希望する場合には、ユーザが個別に指定する必要がある。他のタイミングは、出力のタイミングとして設定されている。
なお、図4の場合、「目的地」として「AB店」が具体的に指定されている。ユーザにより目的地が指定されていない場合、目的地の欄は空である。
また、図4の場合、「登録地」として「駅」、「AB店」、「公共施設」が設定されている。
なお、図4の場合、「目的地」として「AB店」が具体的に指定されている。ユーザにより目的地が指定されていない場合、目的地の欄は空である。
また、図4の場合、「登録地」として「駅」、「AB店」、「公共施設」が設定されている。
図4では、「出力の形態」として「音声」と「AR画像」が用意され、個々のタイミング毎に設定されている。例えば「すぐ」と「時刻指定」と「経過時間指定」には「音声」が設定され、他のタイミングには「AR画像」が設定されている。
これらの設定は、情報の内容の提供がユーザから許可された場合に、出力の形態について何らの指示がなかった場合に用いられる。なお、ユーザの指示した出力の形態と設定されている出力の形態が異なる場合には、ユーザの指示を優先する。
これらの設定は、情報の内容の提供がユーザから許可された場合に、出力の形態について何らの指示がなかった場合に用いられる。なお、ユーザの指示した出力の形態と設定されている出力の形態が異なる場合には、ユーザの指示を優先する。
図4の場合、「備考」の欄には、出力のタイミングを検知する方法が記載されている。例えば「目的地」に到着したことは「店舗の情報と比較」により検出される。店舗の情報として、対象とする店舗の外観を用いる場合には、画像データ111(図2参照)との比較により目的地への到着が判定される。また、店舗の情報として、店舗の座標値を用いる場合、GPS信号等を用いて測位された現在地との比較により目的地への到着が判定される。「自宅」への到着も同様である。図4では、GPS情報を用いることが記載されている。
また、「時刻指定」については「19時」がユーザにより指定されている。同様に、「経過時間指定」については「30分後」がユーザにより指定されている。
各時刻や時間は、問い合わせに対する応答として登録することも可能であるが、事前に登録しておくことも可能である。
また、「特定のホームページを端末で閲覧しているとき」については、特定のホームページとして「AB店」、「CD店」等が登録されている。特定のホームページの閲覧は、カメラ21(図1参照)で撮像された画像データ111(図2参照)の解析により検出される。
各時刻や時間は、問い合わせに対する応答として登録することも可能であるが、事前に登録しておくことも可能である。
また、「特定のホームページを端末で閲覧しているとき」については、特定のホームページとして「AB店」、「CD店」等が登録されている。特定のホームページの閲覧は、カメラ21(図1参照)で撮像された画像データ111(図2参照)の解析により検出される。
<xRデバイスの構成>
図5は、実施の形態1で使用するxRデバイス20のハードウェア構成の一例を説明する図である。
図5に示すxRデバイス20は、データ処理部200と、カメラ21と、ARモジュール220と、マイク230と、スピーカ240と、慣性センサ250と、測位センサ260と、振動子270と、通信モジュール280とを有している。
図5は、実施の形態1で使用するxRデバイス20のハードウェア構成の一例を説明する図である。
図5に示すxRデバイス20は、データ処理部200と、カメラ21と、ARモジュール220と、マイク230と、スピーカ240と、慣性センサ250と、測位センサ260と、振動子270と、通信モジュール280とを有している。
データ処理部200は、プロセッサ201と、ROM202と、RAM203と、フラッシュメモリ204とを有している。
ROM202とRAM203とフラッシュメモリ204は、いずれも半導体メモリである。ROM202には、BIOS等が記憶される。RAM203は、プログラムの実行に使用される主記憶装置である。RAM203には、例えばDRAMを使用する。
フラッシュメモリ204は、ファームウェア、プログラムやデータファイルの記録に用いられる。フラッシュメモリ204は、補助記憶装置として用いられる。
ROM202とRAM203とフラッシュメモリ204は、いずれも半導体メモリである。ROM202には、BIOS等が記憶される。RAM203は、プログラムの実行に使用される主記憶装置である。RAM203には、例えばDRAMを使用する。
フラッシュメモリ204は、ファームウェア、プログラムやデータファイルの記録に用いられる。フラッシュメモリ204は、補助記憶装置として用いられる。
プロセッサ201は、例えばCPUで構成される。プロセッサ201は、プログラムの実行を通じて各種の機能を実現する。
図2に示すプロセッサ101には、プログラムの実行により実現される機能の一部として、文字認識部201Aを表している。
文字認識部201Aは、ユーザの視線の方向を撮像した画像に含まれる文字を認識する機能に対応する。
図2に示すプロセッサ101には、プログラムの実行により実現される機能の一部として、文字認識部201Aを表している。
文字認識部201Aは、ユーザの視線の方向を撮像した画像に含まれる文字を認識する機能に対応する。
本実施の形態における文字認識部201Aは、認識した文字列をテキスト列に変換して出力する。本実施の形態の場合、文字認識は、プロセッサ201により完結的に実行されるが、文字認識の機能を有する他の装置との連携によりテキスト列を出力してもよい。文字の認識には人工知能の技術を応用してもよい。
因みに、他の装置には、サーバ10(図1参照)を用いてもよい。その場合、サーバ10に、文字認識部201Aも設けてもよい。
また、他の装置として、文字の認識に特化したサーバを用いてもよい。
因みに、他の装置には、サーバ10(図1参照)を用いてもよい。その場合、サーバ10に、文字認識部201Aも設けてもよい。
また、他の装置として、文字の認識に特化したサーバを用いてもよい。
カメラ21には、例えばCMOSイメージセンサやCCDイメージセンサが使用される。カメラ21の個数は単数でも複数でもよい。図5の例では、カメラ21は1つである。
例えば2つのカメラ21を使用する場合、2つのカメラ21は、フレームのフロント部分の両端に配置する。2つのカメラ21を用いることでステレオ撮像が可能になり、被写体までの距離の測定や被写体間の前後関係の推定が可能になる。
例えば2つのカメラ21を使用する場合、2つのカメラ21は、フレームのフロント部分の両端に配置する。2つのカメラ21を用いることでステレオ撮像が可能になり、被写体までの距離の測定や被写体間の前後関係の推定が可能になる。
ARモジュール220は、現実の風景にAR画像を合成した拡張現実の視認を実現するモジュールであり、光学部品と電子部品で構成される。
ARモジュール220の代表的な方式には、ユーザの眼の前方にハーフミラーを配置する方式、ユーザの眼の前方に体積ホログラムを配置する方式、ユーザの眼の前方にブレーズド回折格子を配置する方式がある。
ARモジュール220の代表的な方式には、ユーザの眼の前方にハーフミラーを配置する方式、ユーザの眼の前方に体積ホログラムを配置する方式、ユーザの眼の前方にブレーズド回折格子を配置する方式がある。
マイク230は、ユーザの音声や周囲の音を電気信号に変換するデバイスである。
スピーカ240は、電気信号を音に変換して出力するデバイスである。なお、スピーカ240は、骨伝導スピーカや軟骨伝導スピーカでもよい。
なお、スピーカ240は、ワイヤレスイヤホンのように、xRデバイス20とは独立のデバイスでもよい。この場合、スピーカ240は、xRデバイス20とブルートゥース等により接続する。
慣性センサ250は、例えば6軸センサで構成される。6軸センサは、3軸の加速度センサと3軸の角速度センサで構成される。慣性センサ25の出力により、xRデバイス20を装着しているユーザの動きが推定される。本実施の形態では、慣性センサ250の出力により、ユーザが立ち止まったことを検出する。
スピーカ240は、電気信号を音に変換して出力するデバイスである。なお、スピーカ240は、骨伝導スピーカや軟骨伝導スピーカでもよい。
なお、スピーカ240は、ワイヤレスイヤホンのように、xRデバイス20とは独立のデバイスでもよい。この場合、スピーカ240は、xRデバイス20とブルートゥース等により接続する。
慣性センサ250は、例えば6軸センサで構成される。6軸センサは、3軸の加速度センサと3軸の角速度センサで構成される。慣性センサ25の出力により、xRデバイス20を装着しているユーザの動きが推定される。本実施の形態では、慣性センサ250の出力により、ユーザが立ち止まったことを検出する。
測位センサ260は、例えば3つ以上のGPS(=Global Positioning System)衛星から発信されたGPS信号の受信により、自端末の位置を測位するGPSモジュールである。GPS衛生から発信されたGPS信号の受信による測位は屋外に限られる。
また、測位センサ260として、屋内用の測位モジュールを別途用意してもよい。屋内用の測位モジュールには、例えばBLE(=Bluetooth Low Energy)ビーコンを受信して自端末の位置を測位するモジュール、WiFi(登録商標)信号を受信して自端末の位置を測位するモジュール、自律航法により自端末の位置を測位するモジュール、IMES(=Indoor Messaging System)信号を受信して自端末の位置を測位するモジュールがある。
また、測位センサ260として、屋内用の測位モジュールを別途用意してもよい。屋内用の測位モジュールには、例えばBLE(=Bluetooth Low Energy)ビーコンを受信して自端末の位置を測位するモジュール、WiFi(登録商標)信号を受信して自端末の位置を測位するモジュール、自律航法により自端末の位置を測位するモジュール、IMES(=Indoor Messaging System)信号を受信して自端末の位置を測位するモジュールがある。
振動子270は、連続した振動又は断続した振動を発生するデバイスである。本実施の形態の場合、振動子270の振動は、例えば提供が可能な情報の存在の検出をユーザに通知する目的で使用される。
通信モジュール280は、通信網30のプロトコルに準拠したデバイスを使用する他、外部の機器との通信にも使用する。外部の機器との通信には、例えばWifi(登録商標)やブルートゥース(登録商標)を使用する。
通信モジュール280は、通信網30のプロトコルに準拠したデバイスを使用する他、外部の機器との通信にも使用する。外部の機器との通信には、例えばWifi(登録商標)やブルートゥース(登録商標)を使用する。
図6は、ARモジュール220の概念的な構成例を説明する図である。図6に示すARモジュール220は、ユーザの眼の前方にブレーズド回折格子を配置する方式に対応する。
図6に示すARモジュール220は、導光板221と、マイクロディスプレイ222と、映像光L2が入力される回折格子223Aと、映像光L2が出力される回折格子223Bとを有している。
図6に示すARモジュール220は、導光板221と、マイクロディスプレイ222と、映像光L2が入力される回折格子223Aと、映像光L2が出力される回折格子223Bとを有している。
導光板221は、メガネのレンズに相当する。導光板221は、例えば85%以上の透過率を有する。このため、ユーザは、導光板221を透過して前方の景色を直接視認することが可能である。外光L1は、導光板221及び回折格子223Bを透過するように直進し、ユーザの眼Eに入射する。
マイクロディスプレイ222は、ユーザに視認させるAR画像が表示される表示デバイスである。マイクロディスプレイ222に表示されたAR画像の光は、映像光L2として導光板221に投影される。映像光L2は、回折格子223Aにより屈折され、導光板221の内部を反射しながら回折格子223Bに達する。回折格子223Bは、映像光L2をユーザの眼Eの方向に屈折する。
これにより、ユーザの眼Eには、外光L1と映像光L2が同時に入射される。その結果、ユーザは、視線の前方にAR画像の存在を認識する。
これにより、ユーザの眼Eには、外光L1と映像光L2が同時に入射される。その結果、ユーザは、視線の前方にAR画像の存在を認識する。
<処理動作>
以下では、図7及び図8を使用して、サーバ10とxRデバイス20との連携により実行される処理動作について説明する。
図7は、実施の形態1における処理動作の一部分を説明するフローチャートである。また、図8は、実施の形態1における処理動作の残りを説明するフローチャートである。
図7及び図8に示す処理動作は一例である。また、各図における記号のSはステップを意味する。
本実施の形態の場合、図7及び図8に示す処理動作は、サーバ10(図2参照)のプロセッサ101(図2参照)によるプログラムの実行を通じて実現されるものとする。
以下では、図7及び図8を使用して、サーバ10とxRデバイス20との連携により実行される処理動作について説明する。
図7は、実施の形態1における処理動作の一部分を説明するフローチャートである。また、図8は、実施の形態1における処理動作の残りを説明するフローチャートである。
図7及び図8に示す処理動作は一例である。また、各図における記号のSはステップを意味する。
本実施の形態の場合、図7及び図8に示す処理動作は、サーバ10(図2参照)のプロセッサ101(図2参照)によるプログラムの実行を通じて実現されるものとする。
プロセッサ101は、ユーザの前方を撮像しているカメラ21(図1参照)の画像データを即時に取得する(ステップ1)。本実施の形態の場合、カメラ21から出力される画像データは、撮像とほぼ同時に、サーバ10にアップロードされる。また、カメラ21が撮像する画角によっては、ユーザの前方以外の風景も含まれる。
次に、プロセッサ101は、画像データを解析して予め定めた情報を検出する(ステップ2)。予め定めた情報は、問い合わせ対象テーブル112(図3参照)との照合により検出される。このため、問い合わせの対象として設定されていない情報は、ステップ2における検出とはみなさない。
次に、プロセッサ101は、画像データを解析して予め定めた情報を検出する(ステップ2)。予め定めた情報は、問い合わせ対象テーブル112(図3参照)との照合により検出される。このため、問い合わせの対象として設定されていない情報は、ステップ2における検出とはみなさない。
プロセッサ101は、予め定めた情報が検出された場合、情報の内容の表示の可否をユーザに問い合わせる(ステップ3)。本実施の形態の場合、問い合わせには、視覚を用いない手法、例えば音や音声を使用する。音や音声は、xRデバイス20(図5参照)のスピーカ240(図5参照)から出力される。
次に、プロセッサ101は、予め定めた時間内に指示を検知したか否かを判定する(ステップ4)。
次に、プロセッサ101は、予め定めた時間内に指示を検知したか否かを判定する(ステップ4)。
本実施の形態の場合、ユーザからの指示として音声を想定する。予め定めた時間は、好ましくはユーザ毎に設定される。もっとも、ユーザの設定が無い場合には、初期値を使用する。予め定めた時間には、例えば10秒を使用する。
なお、ユーザが問い合わせに気づかない場合も考慮して、1回目の時間の経過時には、ステップ3の問い合わせを再度実行してもよい。
なお、ユーザが問い合わせに気づかない場合も考慮して、1回目の時間の経過時には、ステップ3の問い合わせを再度実行してもよい。
予め定めた時間が経過してもユーザの指示が検知されない場合、プロセッサ101は、ステップ4で否定結果を得る。この場合には、表示を希望しないユーザによる消極的な否定が含まれる。いわゆる無視である。
ステップ4で否定結果が得られた場合、プロセッサ101は、検出された情報の内容をユーザに提供することなく、処理を終了する。
ステップ4で否定結果が得られた場合、プロセッサ101は、検出された情報の内容をユーザに提供することなく、処理を終了する。
これに対し、予め定めた時間内にユーザの指示が検知された場合、プロセッサ101は、ステップ4で肯定結果を得る。
ステップ4で肯定結果が得られた場合、プロセッサ101は、AR画像による表示の指示があったか否かを判定する(ステップ5)。
ステップ5で肯定結果が得られた場合、プロセッサ101は、「すぐに表示」が指示されたか否かを判定する(ステップ6)。ここでの指示は、ユーザから、その都度、与えられる場合もあれば、提供タイミングテーブル113に設定されている場合もある。
ステップ4で肯定結果が得られた場合、プロセッサ101は、AR画像による表示の指示があったか否かを判定する(ステップ5)。
ステップ5で肯定結果が得られた場合、プロセッサ101は、「すぐに表示」が指示されたか否かを判定する(ステップ6)。ここでの指示は、ユーザから、その都度、与えられる場合もあれば、提供タイミングテーブル113に設定されている場合もある。
ステップ6で肯定結果が得られた場合、プロセッサ101は、AR画像を表示する(ステップ7)。このAR画像には、検出された情報の内容が含まれる。
これに対し、ステップ6で否定結果が得られた場合、プロセッサ101は、ユーザの停止が表示の条件か否かを判定する(ステップ8)。この場合も、ユーザの停止、すなわち立ち止まったら表示するとの指示が、その都度、ユーザから与えられる場合もあれば、提供タイミングテーブル113に設定されている場合もある。
これに対し、ステップ6で否定結果が得られた場合、プロセッサ101は、ユーザの停止が表示の条件か否かを判定する(ステップ8)。この場合も、ユーザの停止、すなわち立ち止まったら表示するとの指示が、その都度、ユーザから与えられる場合もあれば、提供タイミングテーブル113に設定されている場合もある。
ステップ8で肯定結果が得られた場合、プロセッサ101は、ユーザが停止したか否かを判定する(ステップ9)。
本実施の形態の場合、ステップ9で否定結果が得られている間、プロセッサ101は、ステップ9の判定を繰り返す。
やがて、ユーザが立ち止まり、ステップ9で肯定結果が得られると、プロセッサ101は、AR画像を表示する(ステップ10)。なお、ステップ9の判定が繰り返されている間に出力の条件が変更された場合には、変更後の条件の到来が判定される。例えばステップ9の判定が繰り返されている間に、ユーザから「すぐに表示」の指示があった場合には、即座にAR画像を表示する。
本実施の形態の場合、ステップ9で否定結果が得られている間、プロセッサ101は、ステップ9の判定を繰り返す。
やがて、ユーザが立ち止まり、ステップ9で肯定結果が得られると、プロセッサ101は、AR画像を表示する(ステップ10)。なお、ステップ9の判定が繰り返されている間に出力の条件が変更された場合には、変更後の条件の到来が判定される。例えばステップ9の判定が繰り返されている間に、ユーザから「すぐに表示」の指示があった場合には、即座にAR画像を表示する。
ステップ8でも否定結果が得られた場合、すなわちユーザの指示の内容が「すぐに表示」でもなく、「ユーザの停止が表示の条件」でもない場合、プロセッサ101は、ユーザが指定したタイミングが到来したか否かを判定する(ステップ11)。
このタイミングは、ユーザから、その都度、具体的に指示される場合と、提供タイミングテーブル113に設定されている場合がある。
いずれにしても、ステップ11で否定結果が得られている間、プロセッサ101は、ステップ11の判定を繰り返す。
やがて、提供のタイミングが到来すると、プロセッサ101は、AR画像を表示する(ステップ12)。なお、ステップ11の判定が繰り返されている間に出力の条件が変更された場合には、変更後の条件の到来が判定される。例えばステップ11の判定が繰り返されている間に、ユーザから「すぐに表示」の指示があった場合には、即座にAR画像を表示する。
このタイミングは、ユーザから、その都度、具体的に指示される場合と、提供タイミングテーブル113に設定されている場合がある。
いずれにしても、ステップ11で否定結果が得られている間、プロセッサ101は、ステップ11の判定を繰り返す。
やがて、提供のタイミングが到来すると、プロセッサ101は、AR画像を表示する(ステップ12)。なお、ステップ11の判定が繰り返されている間に出力の条件が変更された場合には、変更後の条件の到来が判定される。例えばステップ11の判定が繰り返されている間に、ユーザから「すぐに表示」の指示があった場合には、即座にAR画像を表示する。
続いて、ステップ5で否定結果が得られた場合を説明する。この場合の処理動作を図8に示す。
ステップ5で否定結果が得られた場合、プロセッサ101は、音声による提供の指示があったか否かを判定する(ステップ21)。
ユーザが明示的に「不要」等の音声を発した場合、プロセッサ101は、ステップ21で否定結果を得る。この場合、プロセッサ101は、検出された情報の内容をユーザに提供することなく、処理を終了する。
ステップ5で否定結果が得られた場合、プロセッサ101は、音声による提供の指示があったか否かを判定する(ステップ21)。
ユーザが明示的に「不要」等の音声を発した場合、プロセッサ101は、ステップ21で否定結果を得る。この場合、プロセッサ101は、検出された情報の内容をユーザに提供することなく、処理を終了する。
これに対し、ステップ21で肯定結果が得られた場合、プロセッサ101は、情報の内容を音声ファイルに変換する(ステップ22)。
続いて、プロセッサ101は、「すぐに再生」が指示されたか否かを判定する(ステップ23)。ここでの指示は、その都度、ユーザから与えられる場合もあれば、提供タイミングテーブル113に設定されている場合もある。
続いて、プロセッサ101は、「すぐに再生」が指示されたか否かを判定する(ステップ23)。ここでの指示は、その都度、ユーザから与えられる場合もあれば、提供タイミングテーブル113に設定されている場合もある。
ステップ23で肯定結果が得られた場合、プロセッサ101は、音声ファイルを再生する(ステップ24)。この場合、xRデバイス20(図5参照)のスピーカ240(図5参照)から音声が出力される。
これに対し、ステップ23で否定結果が得られた場合、プロセッサ101は、ユーザの停止が再生の条件か否かを判定する(ステップ25)。この場合も、ユーザの停止、すなわち立ち止まったら再生するとの指示が、その都度、ユーザから与えられる場合もあれば、提供タイミングテーブル113に設定されている場合もある。
これに対し、ステップ23で否定結果が得られた場合、プロセッサ101は、ユーザの停止が再生の条件か否かを判定する(ステップ25)。この場合も、ユーザの停止、すなわち立ち止まったら再生するとの指示が、その都度、ユーザから与えられる場合もあれば、提供タイミングテーブル113に設定されている場合もある。
ステップ25で肯定結果が得られた場合、プロセッサ101は、ユーザが停止したか否かを判定する(ステップ26)。
本実施の形態の場合、ステップ26で否定結果が得られている間、プロセッサ101は、ステップ26の判定を繰り返す。なお、ステップ26の判定が繰り返されている間に出力の条件が変更された場合には、変更後の条件の到来が判定される。例えばステップ26の判定が繰り返されている間に、ユーザから「すぐに再生」の指示があった場合には、即座に音声が再生される。
やがて、ユーザが立ち止まり、ステップ26で肯定結果が得られると、プロセッサ101は、音声ファイルを再生する(ステップ27)。
本実施の形態の場合、ステップ26で否定結果が得られている間、プロセッサ101は、ステップ26の判定を繰り返す。なお、ステップ26の判定が繰り返されている間に出力の条件が変更された場合には、変更後の条件の到来が判定される。例えばステップ26の判定が繰り返されている間に、ユーザから「すぐに再生」の指示があった場合には、即座に音声が再生される。
やがて、ユーザが立ち止まり、ステップ26で肯定結果が得られると、プロセッサ101は、音声ファイルを再生する(ステップ27)。
ステップ25でも否定結果が得られた場合、すなわちユーザの指示の内容が「すぐに再生」でもなく、「ユーザの停止が再生の条件」でもない場合、プロセッサ101は、ユーザが指定したタイミングが到来したか否かを判定する(ステップ28)。このタイミングは、その都度、ユーザから具体的に指示される場合と、提供タイミングテーブル113に設定されている場合がある。
いずれにしても、ステップ28で否定結果が得られている間、プロセッサ101は、ステップ28の判定を繰り返す。
やがて、提供のタイミングが到来すると、プロセッサ101は、音声ファイルを再生する(ステップ29)。なお、ステップ28の判定が繰り返されている間に再生の条件が変更された場合には、変更後の条件の到来が判定される。例えばステップ28の判定が繰り返されている間に、ユーザから「すぐに再生」の指示があった場合には、即座に音声を再生する。
やがて、提供のタイミングが到来すると、プロセッサ101は、音声ファイルを再生する(ステップ29)。なお、ステップ28の判定が繰り返されている間に再生の条件が変更された場合には、変更後の条件の到来が判定される。例えばステップ28の判定が繰り返されている間に、ユーザから「すぐに再生」の指示があった場合には、即座に音声を再生する。
<情報の内容の提示例>
以下では、図9~図21を使用して、本実施の形態による情報の内容の提示例を説明する。
以下では、図9~図21を使用して、本実施の形態による情報の内容の提示例を説明する。
<例1>
ここでは、駅構内の電光掲示板に掲載されている運行情報の内容を、AR画像としてユーザに提供する場面を想定する。
図9は、xRデバイス20を装着したユーザが駅に向かう場面を説明する図である。(A)は改札機41へ向かうユーザを示し、(B)はxRデバイス20からの問い合わせの例を示す。
ここでは、駅構内の電光掲示板に掲載されている運行情報の内容を、AR画像としてユーザに提供する場面を想定する。
図9は、xRデバイス20を装着したユーザが駅に向かう場面を説明する図である。(A)は改札機41へ向かうユーザを示し、(B)はxRデバイス20からの問い合わせの例を示す。
図9の場合、改札機41の奥にはホームにつながる階段42があり、階段42と改札機41との間に電光掲示板43が配置されている。電光掲示板43は天井からぶら下がっている。
xRデバイス20のカメラ21は、ユーザの前方を撮像している。このため、ユーザが改札機41に向かう途中で、カメラ21が電光掲示板43を撮像する。この例の場合、カメラ21で撮像された画像は、撮像と同時にサーバ10(図1参照)にアップロードされ、画像解析される。
xRデバイス20のカメラ21は、ユーザの前方を撮像している。このため、ユーザが改札機41に向かう途中で、カメラ21が電光掲示板43を撮像する。この例の場合、カメラ21で撮像された画像は、撮像と同時にサーバ10(図1参照)にアップロードされ、画像解析される。
画像解析の結果、電車の遅延を知らせる運行情報の存在が検出されると、図9(B)に示すように、xRデバイス20からユーザに対し、情報の内容の表示の可否を問い合わせる音声が出力される。なお、運行情報の存在を知らせることは、問い合わせ対象テーブル112(図3参照)に登録されている。因みに、問い合わせの対象に登録されていない情報は、カメラ21(図1参照)により撮像された画像内に含まれていても、問い合わせは実行されない。
図9(B)の例では、「情報を表示しますか?」との音声が出力されている。本実施の形態の場合、問い合わせの段階では、情報の内容については何ら提供されず、単に、AR画像として表示が可能な情報が検出された事実だけが示される。
このように、本実施の形態では、情報が検出されるたびに、検出された情報の内容を全てユーザに提供するのではなく、その表示の可否を問合わせる。
このように、本実施の形態では、情報が検出されるたびに、検出された情報の内容を全てユーザに提供するのではなく、その表示の可否を問合わせる。
情報の内容を表示する前に問い合わせを行う理由には、例えば人混みの中を歩いている場合や周囲の安全を確かめる必要がある場合のように、AR画像の即座の表示をユーザが望まない場合があるためである。もっとも、本実施の形態の場合、一律にAR画像の表示を禁止するのではなく、ユーザが望む場合には、即座のAR画像の表示も可能である。
すなわち、本実施の形態の手法は、カメラ21により取得される周囲の環境やユーザの動作だけでは判断がつかないユーザの都合の確認により、AR画像の表示、非表示、表示のタイミング等を決定する。
すなわち、本実施の形態の手法は、カメラ21により取得される周囲の環境やユーザの動作だけでは判断がつかないユーザの都合の確認により、AR画像の表示、非表示、表示のタイミング等を決定する。
図10は、問い合わせに対するユーザの指示の例を説明する図である。(A)と(B)はタイミングの指定付きで表示を許可する場合であり、(C)と(D)は表示を許可しない場合である。
図10(A)の場合、ユーザは「立ち止まったら」と指示している。この指示は、ユーザの行動や動作の特定を通じ、AR画像を出力するタイミングを指定する。
図10(A)の場合、ユーザは「立ち止まったら」と指示している。この指示は、ユーザの行動や動作の特定を通じ、AR画像を出力するタイミングを指定する。
因みに、ユーザが立ち止まったことは、xRデバイス20に設けられている慣性センサ250(図5参照)の出力波形から判定が可能である。また、GPS信号等による測位センサ260(図5参照)の出力から判定することも可能である。また、カメラ21で撮像された画像から立ち止まったことを判定することも可能である。
この指示は、ステップ9(図7参照)で肯定結果が得られる場合に当たる。
この指示は、ステップ9(図7参照)で肯定結果が得られる場合に当たる。
図10(B)の場合、ユーザは「ホームに上ったら」と指示している。この指示は、ユーザの周囲の環境の特定を通じ、AR画像を出力するタイミングを指定する。
これらの指示の場合、条件を満たすまで、運行情報の内容がAR画像により提供されることはない。この指示は、ステップ11(図7参照)で否定結果が得られる場合に当たる。
図10(C)の場合、ユーザは「不要です」と指示している。この指示は、言葉による積極的な否定の例である。
これらの指示の場合、条件を満たすまで、運行情報の内容がAR画像により提供されることはない。この指示は、ステップ11(図7参照)で否定結果が得られる場合に当たる。
図10(C)の場合、ユーザは「不要です」と指示している。この指示は、言葉による積極的な否定の例である。
図10(D)の場合、ユーザは無言のまま、又は、許可や不許可に関連する言葉を発しない。問い合わせに対する明示的な指示が無いまま予め定めた時間が経過すると、ステップ4(図7参照)で否定結果が得られる。この状態は、消極的な否定の例である。
いずれにしても、ユーザがホームに到着するまで停止せずに移動する場合、ユーザが改札機41に近づく間も、ユーザが改札機41を通過する場合も、ユーザが階段を上がってホームに向かう間も、AR画像がユーザの視界前方に表示されることはない。
いずれにしても、ユーザがホームに到着するまで停止せずに移動する場合、ユーザが改札機41に近づく間も、ユーザが改札機41を通過する場合も、ユーザが階段を上がってホームに向かう間も、AR画像がユーザの視界前方に表示されることはない。
図11は、AR画像による運行情報の内容の提供例を説明する図である。(A)はユーザがホーム51上で立ち止まり、横浜方面の電車52を見ている様子を示し、(B)はユーザが視認している拡張現実の風景を示している。
図11の場合、ユーザがホーム51上で立ち止まっている。このため、「立ち止まったら」の条件も「ホームに上がったら」の条件も満たしている。
一般には、「ホームに上ったら」の条件が先に満たされるので、カメラ21で撮像された画像の解析によりユーザがホーム上にいることが判明した時点で、検出された情報の内容がAR画像として表示される。
図11の場合、ユーザがホーム51上で立ち止まっている。このため、「立ち止まったら」の条件も「ホームに上がったら」の条件も満たしている。
一般には、「ホームに上ったら」の条件が先に満たされるので、カメラ21で撮像された画像の解析によりユーザがホーム上にいることが判明した時点で、検出された情報の内容がAR画像として表示される。
図11の例では、ユーザの視線方向が横浜方面に向かう電車52であることが画像より認識が可能であるので、ユーザの視線方向に停車している電車に関連する運行情報だけが表示されている。具体的には、「横浜方面 大雨の影響により30分遅延」という具合に運行情報の具体的な内容がテキストにより提示される。
なお、運行情報の存在を検出してから条件を満たすまでの間に情報が更新されている可能性がある。そこで、xRデバイス20のプロセッサ201(図5参照)には、運行情報を表示する前に最新の情報をインターネット上から取得し、ホーム上では最新の運行情報をAR画像として表示してもよい。最新の運行情報は、利用する路線の鉄道事業者のホームページから取得してもよいし、運行情報をサービスとして提供する事業者のホームページ等から取得してもよい。
なお、ネットワーク環境が悪く、前述したホームページ等へのアクセスが困難な場合には、サーバ10(図1参照)で生成されたAR画像をそのまま出力してもよい。その場合には、情報の内容を取得した時刻や取得からの経過時間などを一緒にAR画像として表示してもよい。
また、xRデバイス20の文字認識部201A(図5参照)において、ホーム上に設置されている電光掲示板から最新の運行情報の内容を認識し得た場合には、電光掲示板から認識された文字情報をAR画像として表示してもよい。
以上の機能により、運行情報の内容を、ユーザが指定したタイミングで眼の前に表示することが可能になる。
また、xRデバイス20の文字認識部201A(図5参照)において、ホーム上に設置されている電光掲示板から最新の運行情報の内容を認識し得た場合には、電光掲示板から認識された文字情報をAR画像として表示してもよい。
以上の機能により、運行情報の内容を、ユーザが指定したタイミングで眼の前に表示することが可能になる。
図12は、AR画像による運行情報の内容の他の提供例を説明する図である。(A)はユーザがホーム51上で立ち止まり、品川方面の電車52を見ている様子を示し、(B)はユーザが視認している拡張現実の風景を示している。
図12には、図11との対応部分に対応する符号を付して示している。
図12の場合、ユーザは、図11とは反対方向に向かう電車52を見ている。このため、AR画像として表示される運行情報の内容も視線の先にある電車52の行き先に関する内容となっている。具体的には「品川方面 混雑の影響により50分遅延」なる内容が示されている。
図12には、図11との対応部分に対応する符号を付して示している。
図12の場合、ユーザは、図11とは反対方向に向かう電車52を見ている。このため、AR画像として表示される運行情報の内容も視線の先にある電車52の行き先に関する内容となっている。具体的には「品川方面 混雑の影響により50分遅延」なる内容が示されている。
このように、情報の内容が特定の方向、場所、領域等に関連し、かつ、画像の解析により特定されたユーザの視線の方向がこれらの方向、場所、領域等に関連する場合、ユーザには、視線の方向に関連付けられている情報の内容がAR画像として表示される。
この機能をサーバ10やxRデバイス20に設けることにより、表示される内容とユーザの視線の方向とのミスマッチが少なくなる。
勿論、カメラ21で撮像された画像を解析しても情報の内容との関連性が分からない場合もある。このような場合には、横浜方面の電車を見ている場合でも品川方面の電車を見ている場合でも、横浜方面と品川方面の両方に関する遅延情報がAR画像として表示される。
この機能をサーバ10やxRデバイス20に設けることにより、表示される内容とユーザの視線の方向とのミスマッチが少なくなる。
勿論、カメラ21で撮像された画像を解析しても情報の内容との関連性が分からない場合もある。このような場合には、横浜方面の電車を見ている場合でも品川方面の電車を見ている場合でも、横浜方面と品川方面の両方に関する遅延情報がAR画像として表示される。
図13は、AR画像による運行情報の内容の他の提供例を説明する図である。(A)はユーザがホーム51の中央で立ち止まり、ホームの奥方向を見ている様子を示し、(B)はユーザが視認している拡張現実の風景を示している。
図13の場合、視線の方向はホームと平行であり、画像の解析だけでは、どちらの方面に向かう電車に乗るかも不明である。
そこで、図13の例では、電光掲示板が設置される高さに合わせて、より目立つように、横浜方面に向かう電車に関する運行情報と、品川方面に向かう電車に関する運行情報との両方がAR画像として表示されている。
図13の場合、視線の方向はホームと平行であり、画像の解析だけでは、どちらの方面に向かう電車に乗るかも不明である。
そこで、図13の例では、電光掲示板が設置される高さに合わせて、より目立つように、横浜方面に向かう電車に関する運行情報と、品川方面に向かう電車に関する運行情報との両方がAR画像として表示されている。
<例2>
ここでは、商業ビルの入口付近に掲載されている広告の内容を、AR画像としてユーザに提供する場面を想定する。
図14は、xRデバイス20を装着したユーザが商業ビル61に向かう場面を説明する図である。(A)は商業ビル61に向かうユーザを示し、(B)はxRデバイス20からの問い合わせの例を示し、(C)はユーザからの指示の例を示す。
図14の場合、商業ビル61の入口62は、建物の右側に位置し、看板63は建物の左側に並んで配置されている。
ここでは、商業ビルの入口付近に掲載されている広告の内容を、AR画像としてユーザに提供する場面を想定する。
図14は、xRデバイス20を装着したユーザが商業ビル61に向かう場面を説明する図である。(A)は商業ビル61に向かうユーザを示し、(B)はxRデバイス20からの問い合わせの例を示し、(C)はユーザからの指示の例を示す。
図14の場合、商業ビル61の入口62は、建物の右側に位置し、看板63は建物の左側に並んで配置されている。
ユーザは入口62を目指して歩いているので、看板63の存在に気づきにくい状況である。
xRデバイス20のカメラ21は、ユーザの前方を撮像している。このため、商業ビル61の入口62に向かう途中で、カメラ21には看板63が映り込む。この例の場合も、カメラ21で撮像される画像は、撮像と同時にサーバ10(図1参照)にアップロードされ、画像解析される。
xRデバイス20のカメラ21は、ユーザの前方を撮像している。このため、商業ビル61の入口62に向かう途中で、カメラ21には看板63が映り込む。この例の場合も、カメラ21で撮像される画像は、撮像と同時にサーバ10(図1参照)にアップロードされ、画像解析される。
画像解析の結果、看板63の存在が検出されると、図14(B)に示すように、xRデバイス20からユーザに対し、情報の内容の表示の可否を問い合わせる音声が出力される。
図14(B)の例では、「情報を表示しますか?」との音声が出力される。
なお、情報の内容や音声の出力回数に応じて表現を変更することも可能である。前者の方法では、表現の違いで情報の内容を予測することが可能になる。もっとも、表現が多すぎると、情報の内容の予測は難しくなる。後者の例では、問い合わせの内容が単調になるのを避けることが可能になる。
図14(C)の例では、前述した例1とは異なり、ユーザは「今すぐ」と指示している。
図14(B)の例では、「情報を表示しますか?」との音声が出力される。
なお、情報の内容や音声の出力回数に応じて表現を変更することも可能である。前者の方法では、表現の違いで情報の内容を予測することが可能になる。もっとも、表現が多すぎると、情報の内容の予測は難しくなる。後者の例では、問い合わせの内容が単調になるのを避けることが可能になる。
図14(C)の例では、前述した例1とは異なり、ユーザは「今すぐ」と指示している。
図15は、AR画像による広告の内容の提供例を説明する図である。図15には、図14との対応部分に対応する符号を付して示している。
「今すぐ」との指示を受け付けたxRデバイス20は、画像の解析により生成されたAR画像をサーバ10(図1参照)から取得し、ユーザの前方に表示する。
この例では、ユーザと看板63との距離が遠く、看板63に記載されている内容が分からない段階でも、広告の内容をユーザに気づかせることが可能になる。
「今すぐ」との指示を受け付けたxRデバイス20は、画像の解析により生成されたAR画像をサーバ10(図1参照)から取得し、ユーザの前方に表示する。
この例では、ユーザと看板63との距離が遠く、看板63に記載されている内容が分からない段階でも、広告の内容をユーザに気づかせることが可能になる。
図16は、情報の内容の表示は許可されているが、ユーザの周囲が混雑しているためにAR画像が表示されない場合を説明する図である。図16には、図15との対応部分に対応する符号を付して示している。
図15の例の場合、ユーザの視線の方向には商業ビル61だけがあり、他の通行人などはいない例であった。しかし、図16の例では、他の通行人がユーザの視線の先にいる。
例えばAR画像の表示の条件として「周囲が混雑していないとき」がユーザにより設定されている場合(図4参照)、xRデバイス20は、看板63の内容をAR画像として表示せず、ステップ11(図7参照)により、ユーザが設定している他のタイミングが到来した時点でAR画像を表示する。
図15の例の場合、ユーザの視線の方向には商業ビル61だけがあり、他の通行人などはいない例であった。しかし、図16の例では、他の通行人がユーザの視線の先にいる。
例えばAR画像の表示の条件として「周囲が混雑していないとき」がユーザにより設定されている場合(図4参照)、xRデバイス20は、看板63の内容をAR画像として表示せず、ステップ11(図7参照)により、ユーザが設定している他のタイミングが到来した時点でAR画像を表示する。
<例3>
ここでは、例1や例2に対する変形例について説明する。
図17は、情報の提供の例を説明する図である。(A)は問い合わせに対するユーザの指示の例であり、(B)は情報の内容を音声により提供する例である。
図17(A)の場合もユーザの指示は音声により行われている。この例のユーザは、xRデバイス20からの問い合わせに対して「音声で、すぐに」と指示している。
その結果、図17(B)の例では、ユーザからの指示を受け付けた直後に、xRデバイス20から「○○ビルの限定エリアのご紹介」との音声がスピーカ240(図5参照)から出力されている。
ここでは、例1や例2に対する変形例について説明する。
図17は、情報の提供の例を説明する図である。(A)は問い合わせに対するユーザの指示の例であり、(B)は情報の内容を音声により提供する例である。
図17(A)の場合もユーザの指示は音声により行われている。この例のユーザは、xRデバイス20からの問い合わせに対して「音声で、すぐに」と指示している。
その結果、図17(B)の例では、ユーザからの指示を受け付けた直後に、xRデバイス20から「○○ビルの限定エリアのご紹介」との音声がスピーカ240(図5参照)から出力されている。
この指示は、ステップ23(図8参照)で肯定結果が得られた場合に当たる。
この例では、情報の内容を音声によりユーザに提供する方法が採用されるので、ユーザの視界がAR画像により妨げられることもない。このため、ユーザの周囲に他の通行人がいる場合でも、ユーザは、視線の先にある商業ビル61について掲載されている看板63の内容を知ることが可能になる。
この例では、情報の内容を音声によりユーザに提供する方法が採用されるので、ユーザの視界がAR画像により妨げられることもない。このため、ユーザの周囲に他の通行人がいる場合でも、ユーザは、視線の先にある商業ビル61について掲載されている看板63の内容を知ることが可能になる。
図18は、問い合わせと指示の他の例を説明する図である。(A)はxRデバイス20からの問い合わせの例を示し、(B)はユーザからの指示の例を示す。
図18(A)の例では、前述した他の例とは異なり、問い合わせ内に情報の対象を含めている。すなわち「店の情報を表示しますか?」のように、「情報を表示しますか?」の前に「店の」を追加している。これにより、ユーザは、情報の内容までは分からないが、情報の対象については見当を付けることが可能になる。
図18(A)の例では、前述した他の例とは異なり、問い合わせ内に情報の対象を含めている。すなわち「店の情報を表示しますか?」のように、「情報を表示しますか?」の前に「店の」を追加している。これにより、ユーザは、情報の内容までは分からないが、情報の対象については見当を付けることが可能になる。
また、「店の」の他に、駅その他の場所を追加してもよいし、「交通に関する」や「規制に関する」等のように情報の種類を示唆する内容としてもよい。
いずれにしても、問い合わせの段階では、可能な限り内容を単純化することで、ユーザの負担を少なくする。
問い合わせの内容を詳しくすると、情報の内容を提供するのと変わりがなくなるためである。問い合わせの段階では、提供が可能な情報の存在が伝わればよい。その意味では、問い合わせは「情報を表示する?」や「表示する?」でもよい。
図18(B)のユーザは、「店についたら表示して」と指示を与えている。なお、指示の他の例には、「3時になったら」や「30分後に」や「自宅に戻ったら」等もある。
いずれにしても、問い合わせの段階では、可能な限り内容を単純化することで、ユーザの負担を少なくする。
問い合わせの内容を詳しくすると、情報の内容を提供するのと変わりがなくなるためである。問い合わせの段階では、提供が可能な情報の存在が伝わればよい。その意味では、問い合わせは「情報を表示する?」や「表示する?」でもよい。
図18(B)のユーザは、「店についたら表示して」と指示を与えている。なお、指示の他の例には、「3時になったら」や「30分後に」や「自宅に戻ったら」等もある。
<例4>
ここでは、カメラ21(図1参照)が撮像する画像内に複数の情報が存在する場合について説明する。
図19は、買い物に向かう途中で情報の存在が検出された場合を説明する図である。(A)は商業ビルに向かう途中で駅の方向に顔を向けた様子を示し、(B)はカメラ21が撮像する範囲とユーザが認識している範囲との違いを示す。
図19(A)の場合、ユーザは左側から右側に移動している。移動の方向である右側には商業ビルがあり、そこがユーザの目的地である。目的地であることは事前に、問い合わせ対象テーブル112に登録されていている場合もあれば、登録されていない場合もある。
ここでは、カメラ21(図1参照)が撮像する画像内に複数の情報が存在する場合について説明する。
図19は、買い物に向かう途中で情報の存在が検出された場合を説明する図である。(A)は商業ビルに向かう途中で駅の方向に顔を向けた様子を示し、(B)はカメラ21が撮像する範囲とユーザが認識している範囲との違いを示す。
図19(A)の場合、ユーザは左側から右側に移動している。移動の方向である右側には商業ビルがあり、そこがユーザの目的地である。目的地であることは事前に、問い合わせ対象テーブル112に登録されていている場合もあれば、登録されていない場合もある。
図19(A)におけるユーザは、駅前を通り過ぎながら駅の改札の方向に顔を向けている。
図19(B)には、カメラ21が撮像した範囲を太い破線で示し、ユーザが認識している範囲を細い破線で示している。ユーザの視野は左右それぞれ100°と言われるが、明瞭に認識が可能な範囲(すなわち有効視野)は4°~20°と呼ばれている。その意味で、カメラ21が撮像する範囲は、有効視野より広ければよく、必ずしも人の視野角以上でなくてもよい。
歩きながら横を向いて駅の方向を見る場合、視野内に電光掲示板43と看板63が含まれていても注視しない限り、文字等を読み取ることはない。このため、運行情報や広告の内容には気づかない。
図19(B)には、カメラ21が撮像した範囲を太い破線で示し、ユーザが認識している範囲を細い破線で示している。ユーザの視野は左右それぞれ100°と言われるが、明瞭に認識が可能な範囲(すなわち有効視野)は4°~20°と呼ばれている。その意味で、カメラ21が撮像する範囲は、有効視野より広ければよく、必ずしも人の視野角以上でなくてもよい。
歩きながら横を向いて駅の方向を見る場合、視野内に電光掲示板43と看板63が含まれていても注視しない限り、文字等を読み取ることはない。このため、運行情報や広告の内容には気づかない。
一方、カメラ21が撮像した範囲には、電光掲示板43と看板63が含まれており、文字も画像として撮像される。撮像された画像は、xRデバイス20からサーバ10(図1参照)にアップロードされ、画像解析される。
画像解析の結果、運行情報の存在と広告の存在とが検出される。その後、xRデバイス20からユーザに対し、情報の内容の表示の可否の問い合わせが出力される。
図20は、xRデバイス20からの問い合わせの出力とユーザからの指示の様子を説明する図である。(A)はxRデバイス20からの問い合わせの例を示し、(B)はタイミングの指定付きで表示を許可する場合の例を示す。
画像解析の結果、運行情報の存在と広告の存在とが検出される。その後、xRデバイス20からユーザに対し、情報の内容の表示の可否の問い合わせが出力される。
図20は、xRデバイス20からの問い合わせの出力とユーザからの指示の様子を説明する図である。(A)はxRデバイス20からの問い合わせの例を示し、(B)はタイミングの指定付きで表示を許可する場合の例を示す。
図20(A)の場合も、問い合わせ内に情報の対象を含めている。図20(A)の例では、「駅と店の情報を表示しますか?」が出力されている。
このため、ユーザは、駅と店の情報の存在に気づくことになる。
図20(B)の場合、ユーザは歩行中であるので、「店についたら表示して」と指示している。
図21は、ユーザが目的地に近づいた場合の情報の提示の例を説明する図である。(A)は目的地である商業ビル61の入口62に向かって歩くユーザを示し、(B)は情報の内容の提示の例を示す。
このため、ユーザは、駅と店の情報の存在に気づくことになる。
図20(B)の場合、ユーザは歩行中であるので、「店についたら表示して」と指示している。
図21は、ユーザが目的地に近づいた場合の情報の提示の例を説明する図である。(A)は目的地である商業ビル61の入口62に向かって歩くユーザを示し、(B)は情報の内容の提示の例を示す。
図21(A)に示すように、駅前を通過したユーザは、目的地である商業ビル61の入口62に向かって歩いている。このとき、ユーザの視線の前方には、図21(B)に示すように、検出された情報の内容である広告文がAR画像として表示されている。この表示を見たユーザは、これから入って行く商業ビル61に関する広告を事前に知ることになる。
<実施の形態2>
本実施の形態では、指示にジェスチャを用いる例を説明する。
図22は、手の指の本数により情報の内容の表示を指示する例を説明する図である。(A)はxRデバイス20からの問い合わせの例を示し、(B)はジェスチャにより「すぐ表示」を指示する例を示し、(C)は情報の内容がAR画像により表示される例を示す。
図22(A)では、xRデバイス20から音声による問い合わせが出力されている。図22(B)では、ユーザが人差し指を上に向けている。この例の場合、指の本数は1本である。
本実施の形態では、指示にジェスチャを用いる例を説明する。
図22は、手の指の本数により情報の内容の表示を指示する例を説明する図である。(A)はxRデバイス20からの問い合わせの例を示し、(B)はジェスチャにより「すぐ表示」を指示する例を示し、(C)は情報の内容がAR画像により表示される例を示す。
図22(A)では、xRデバイス20から音声による問い合わせが出力されている。図22(B)では、ユーザが人差し指を上に向けている。この例の場合、指の本数は1本である。
「すぐ表示」の指示には、1本の指が割り当てられている。なお、本数が1本であればよいので、使用する指は人差し指である必要はない。例えば親指でもよいし、小指でもよい。
また、この例の場合、指の向きには意味はなく、指先の方向は左方向でも下向きでも構わない。なお、指の本数は、カメラ21で撮像された画像の解析により検出される。
図22(C)では、運行情報である「横浜方面 大雨の影響により30分遅延」と「品川方面 混雑の影響により50分遅延」が表示されている。
また、この例の場合、指の向きには意味はなく、指先の方向は左方向でも下向きでも構わない。なお、指の本数は、カメラ21で撮像された画像の解析により検出される。
図22(C)では、運行情報である「横浜方面 大雨の影響により30分遅延」と「品川方面 混雑の影響により50分遅延」が表示されている。
図23は、手の指の本数により情報の内容の表示を指示する他の例を説明する図である。(A)はxRデバイス20からの問い合わせの例を示し、(B)はジェスチャにより「後で表示」を指示する例を示し、(C)は情報の内容がAR画像により表示される例を示す。
図23(A)の場合も、xRデバイス20から音声により問い合わせが出力されている。図23(B)では、ユーザが人差し指と中指でV字を作っている。この場合、指の本数は2本である。なお、2本の指の表示に用いる指の組み合わせは、人差し指と中指に限らない。例えば親指と人差し指でもよい。
図23(A)の場合も、xRデバイス20から音声により問い合わせが出力されている。図23(B)では、ユーザが人差し指と中指でV字を作っている。この場合、指の本数は2本である。なお、2本の指の表示に用いる指の組み合わせは、人差し指と中指に限らない。例えば親指と人差し指でもよい。
図23(B)の例では、「後で」の指示に、2本の指が割り当てられている。このため、2本の指をカメラ21の前にかざすことで、時間差での表示の指示を与えている。
図23(C)の場合、提供タイミングテーブル113(図4参照)に登録されているタイミングで情報の内容が表示される。例えば目的に到着したタイミングに、運行情報である「横浜方面 大雨の影響により30分遅延」と「品川方面 混雑の影響により50分遅延」が表示される。
図23(C)の場合、提供タイミングテーブル113(図4参照)に登録されているタイミングで情報の内容が表示される。例えば目的に到着したタイミングに、運行情報である「横浜方面 大雨の影響により30分遅延」と「品川方面 混雑の影響により50分遅延」が表示される。
図24は、手の指の本数により情報の内容の表示を指示する他の例を説明する図である。(A)はxRデバイス20からの問い合わせの例を示し、(B)はジェスチャにより「不要」を指示する例を示し、(C)は情報の内容が表示されない例を示す。
図24(A)の場合も、xRデバイス20から音声により問い合わせが出力されている。図24(B)では、ユーザが拳を作っている。この場合、指の本数は0本である。図24(B)の場合、「不要」の指示に、0本の指が割り当てられている。なお、ジェスチャの無い状態が予め定めた時間以上続いた場合も「不要」とみなされる。
不要であるので、図24(C)のユーザの視線の前方にはAR画像が表示されていない。
図24(A)の場合も、xRデバイス20から音声により問い合わせが出力されている。図24(B)では、ユーザが拳を作っている。この場合、指の本数は0本である。図24(B)の場合、「不要」の指示に、0本の指が割り当てられている。なお、ジェスチャの無い状態が予め定めた時間以上続いた場合も「不要」とみなされる。
不要であるので、図24(C)のユーザの視線の前方にはAR画像が表示されていない。
なお、問い合わせに対する指示は、指の本数に限らない。
例えば指の向きを指示に用いてもよい。例えば指先を左に向けると「今すぐ表示」、上に向けると「後で表示」、下に向けると「不要」とする。
この他、指や手の動きを指示に用いてもよい。例えば指や手を上に上げると「今すぐ表示」、前方に突き出すと「後で表示」、左右に手を動かすと「不要」とする。また、手を握る動作や手を広げる動作を指示に用いてもよいし、手を握る動作と手を広げる動作の繰り返しの回数を指示に用いてもよい。
例えば指の向きを指示に用いてもよい。例えば指先を左に向けると「今すぐ表示」、上に向けると「後で表示」、下に向けると「不要」とする。
この他、指や手の動きを指示に用いてもよい。例えば指や手を上に上げると「今すぐ表示」、前方に突き出すと「後で表示」、左右に手を動かすと「不要」とする。また、手を握る動作や手を広げる動作を指示に用いてもよいし、手を握る動作と手を広げる動作の繰り返しの回数を指示に用いてもよい。
また、指や手の動きの速さを組み合わせてもよい。例えば指や手を速く上げると「今すぐ表示」、ゆっくり上げると「後で表示」としてもよい。
また、指で作る形を指示に用いてもよい。例えばリングの形には「今すぐ表示」、C字の形には「後で表示」を割り当ててもよい。
また、右手を用いると「今すぐ表示」とし、左手を用いると「後で表示」としてもよい。勿論、指示の割当を左右反対としてもよい。
また、右手と左手の両方を指示に用いてもよい。例えば両手で円の形状を作ると「今すぐ表示」、ハートの形状を作ると「後で表示」としてもよい。
また、指で作る形を指示に用いてもよい。例えばリングの形には「今すぐ表示」、C字の形には「後で表示」を割り当ててもよい。
また、右手を用いると「今すぐ表示」とし、左手を用いると「後で表示」としてもよい。勿論、指示の割当を左右反対としてもよい。
また、右手と左手の両方を指示に用いてもよい。例えば両手で円の形状を作ると「今すぐ表示」、ハートの形状を作ると「後で表示」としてもよい。
<実施の形態3>
本実施の形態では、xRデバイス20に設けられたボタンを指示に用いる例を説明する。
図25は、xRデバイス20に設けられたボタンの操作と指示の関係を説明する図である。(A)はボタン付きのxRデバイス20を示し、(B)は「すぐ表示」を指示する例を示し、(C)は「後で表示」を指示する例を示す。
図25(A)に示すxRデバイス20には、つるの部分にボタン22が配置されている。ボタン22は、機械式のボタンでもよいし、接触を検知するセンサでもよい。
本実施の形態では、xRデバイス20に設けられたボタンを指示に用いる例を説明する。
図25は、xRデバイス20に設けられたボタンの操作と指示の関係を説明する図である。(A)はボタン付きのxRデバイス20を示し、(B)は「すぐ表示」を指示する例を示し、(C)は「後で表示」を指示する例を示す。
図25(A)に示すxRデバイス20には、つるの部分にボタン22が配置されている。ボタン22は、機械式のボタンでもよいし、接触を検知するセンサでもよい。
図25(B)に示すボタン22の1回タップには「今すぐ表示」が割り当てられ、図25(C)に示すボタン22の2回タップには「後で表示」が割り当てられている。
勿論、タップの回数と指示の内容の割当は一例である。また、接触を検知するセンサを用いる場合には、指が接触している時間の長さを指示の内容に割り当ててもよい。例えば接触の時間が1秒未満であれば「今すぐ表示」とみなし、接触の時間が1秒以上であれば「後で表示」とみなす。
ボタン22を用いた指示は、周囲に人が多く、声による指示やジェスチャによる指示が適さない場合に好適である。
勿論、タップの回数と指示の内容の割当は一例である。また、接触を検知するセンサを用いる場合には、指が接触している時間の長さを指示の内容に割り当ててもよい。例えば接触の時間が1秒未満であれば「今すぐ表示」とみなし、接触の時間が1秒以上であれば「後で表示」とみなす。
ボタン22を用いた指示は、周囲に人が多く、声による指示やジェスチャによる指示が適さない場合に好適である。
<実施の形態4>
本実施の形態では、問い合わせにAR画像を使用する例を説明する。
図26は、AR画像を用いた問い合わせの例を説明する図である。(A)は問い合わせにテキストを用いる例であり、(B)は問い合わせにマークを用いる例である。
図26(A)の場合、問い合わせに短い文がAR画像として表示される。この場合、ユーザの視線の前方にテキストが表示されることになるが、問い合わせに用いるテキストの長さは、情報の内容を表示する場合に比して短くなるように用意される。短文による問い合わせは、ユーザの視界を邪魔しない。このテキストを表示するAR画像は、第2の拡張現実の画像の一例である。
本実施の形態では、問い合わせにAR画像を使用する例を説明する。
図26は、AR画像を用いた問い合わせの例を説明する図である。(A)は問い合わせにテキストを用いる例であり、(B)は問い合わせにマークを用いる例である。
図26(A)の場合、問い合わせに短い文がAR画像として表示される。この場合、ユーザの視線の前方にテキストが表示されることになるが、問い合わせに用いるテキストの長さは、情報の内容を表示する場合に比して短くなるように用意される。短文による問い合わせは、ユーザの視界を邪魔しない。このテキストを表示するAR画像は、第2の拡張現実の画像の一例である。
図26(B)の場合、問い合わせにマークが用いられるので、ユーザの視界の邪魔になり難い。
図26(B)の例では、マークの色や形状により情報の内容が示唆されている。例えば赤色の丸型のマークは、重要度が高い交通機関の情報を意味し、青色の丸型のマークは、交通機関の広告を意味する。また、赤色の正方形のマークは広告を意味する。
図26(B)では、マークとしてアイコンを用いる場合も例示している。図26(B)の例は、電車型のアイコンであり、交通機関の情報が存在することを表している。
これらのマークを確認したユーザは、表示を許可するか否かの指示を与える。ここでのマークを表示するAR画像も、第2の拡張現実の画像の一例である。
図26(B)の例では、マークの色や形状により情報の内容が示唆されている。例えば赤色の丸型のマークは、重要度が高い交通機関の情報を意味し、青色の丸型のマークは、交通機関の広告を意味する。また、赤色の正方形のマークは広告を意味する。
図26(B)では、マークとしてアイコンを用いる場合も例示している。図26(B)の例は、電車型のアイコンであり、交通機関の情報が存在することを表している。
これらのマークを確認したユーザは、表示を許可するか否かの指示を与える。ここでのマークを表示するAR画像も、第2の拡張現実の画像の一例である。
なお、図26(B)の例では、情報の内容に応じたマークを用いているが、単純に表示の許可を求める情報の存在を伝えるだけのマークでもよい。
また、図26(B)では、マークの例として、形状やアイコンを例示しているが、記号、符号、印を用いてもよい。
また、問い合わせをAR画像として表示する場合には、視界の真ん中を避けて表示してもよい。問い合わせの段階では、ユーザの関心も不明であるので、ユーザの視界を邪魔しないように、視野の周辺に表示する。もっとも、視野の周辺に近いほど気づきにくくもなるので、視野の中央に配置することも可能である。問い合わせにAR画像を使用する場合には、AR画像を表示する位置を事前にユーザが指定することが望ましい。
また、図26(B)では、マークの例として、形状やアイコンを例示しているが、記号、符号、印を用いてもよい。
また、問い合わせをAR画像として表示する場合には、視界の真ん中を避けて表示してもよい。問い合わせの段階では、ユーザの関心も不明であるので、ユーザの視界を邪魔しないように、視野の周辺に表示する。もっとも、視野の周辺に近いほど気づきにくくもなるので、視野の中央に配置することも可能である。問い合わせにAR画像を使用する場合には、AR画像を表示する位置を事前にユーザが指定することが望ましい。
<実施の形態5>
図27は、問い合わせに振動を使用する例を説明する図である。
本実施の形態で使用するxRデバイス20は、情報の内容の表示について問い合わせる場合、振動子270(図5参照)を振動させる。
本実施の形態で使用するxRデバイス20は、問い合わせ対象テーブル112(図3参照)に登録した情報の検出を振動でユーザに通知する。
図27は、問い合わせに振動を使用する例を説明する図である。
本実施の形態で使用するxRデバイス20は、情報の内容の表示について問い合わせる場合、振動子270(図5参照)を振動させる。
本実施の形態で使用するxRデバイス20は、問い合わせ対象テーブル112(図3参照)に登録した情報の検出を振動でユーザに通知する。
なお、振動の種類を情報の内容に応じて変更してもよい。例えば交通機関の運行情報であれば振動を1回とし、広告であれば振動を2回としてもよい。また、振動の強弱や長さ等で規定される振動のパターンを変えてもよい。
図27では、xRデバイス20に設けられている振動子270を振動させることで、情報の内容の表示の可否をユーザに問い合わせているが、振動子270は、xRデバイス20とは独立したデバイスでもよい。例えばポケットに入れて使用するデバイスでもよい。この場合、振動子270とxRデバイス20は、ブルートゥース等により接続されている。
図27では、xRデバイス20に設けられている振動子270を振動させることで、情報の内容の表示の可否をユーザに問い合わせているが、振動子270は、xRデバイス20とは独立したデバイスでもよい。例えばポケットに入れて使用するデバイスでもよい。この場合、振動子270とxRデバイス20は、ブルートゥース等により接続されている。
<実施の形態6>
図28は、実施の形態6で使用するxRデバイス20Aの外観例を説明する図である。図28には、図1との対応部分に対応する符号を付して示している。
本実施の形態で使用するxRデバイス20Aには、サーバ10(図1参照)の機能が設けられている。すなわち、xRデバイス20Aは、単独で、前述した実施の形態の機能を実行する。
図28は、実施の形態6で使用するxRデバイス20Aの外観例を説明する図である。図28には、図1との対応部分に対応する符号を付して示している。
本実施の形態で使用するxRデバイス20Aには、サーバ10(図1参照)の機能が設けられている。すなわち、xRデバイス20Aは、単独で、前述した実施の形態の機能を実行する。
図29は、実施の形態6で使用するxRデバイス20Aのハードウェア構成の一例を説明する図である。図29には、図2と図5の対応部分に対応する符号を付して示している。
図29に示すプロセッサ201は、画像解析部101A、問い合わせ制御部101B、出力制御部101C、文字認識部201Aとして機能する。
フラッシュメモリ204には、画像データ111、問い合わせ対象テーブル112、提供タイミングテーブル113が記憶されている。
図29に示すプロセッサ201は、画像解析部101A、問い合わせ制御部101B、出力制御部101C、文字認識部201Aとして機能する。
フラッシュメモリ204には、画像データ111、問い合わせ対象テーブル112、提供タイミングテーブル113が記憶されている。
本実施の形態で使用するxRデバイス20Aは、単独でAR画像として表示する情報の検出、問い合わせ、出力のタイミングの制御を実行する。このため、xRデバイス20Aは、サーバ10との通信が途絶えた状況でも、サービスの提供が可能である。
本実施の形態におけるxRデバイス20Aは、情報処理装置の一例である。
本実施の形態におけるxRデバイス20Aは、情報処理装置の一例である。
<実施の形態7>
図30は、実施の形態7で使用する情報処理システム1Aの使用例を説明する図である。図30には、図1との対応部分に対応する符号を付している。
図30で使用するxRデバイス20Cには、カメラ21が一体的に取り付けられていない点で、実施の形態1のxRデバイス20(図1参照)と相違する。
本実施の形態の場合、カメラ21は例えば着脱式であり、ユーザの衣類や帽子に取り付けられている。ただし、カメラ21が撮像する方向は、ユーザの視線の方向に揃えられている。
なお、カメラ21は、xRデバイス20Cと無線により接続されている。例えばブルートゥースにより接続されている。
ここでのxRデバイス20Cは、スマートグラスとも呼ばれる。
図30は、実施の形態7で使用する情報処理システム1Aの使用例を説明する図である。図30には、図1との対応部分に対応する符号を付している。
図30で使用するxRデバイス20Cには、カメラ21が一体的に取り付けられていない点で、実施の形態1のxRデバイス20(図1参照)と相違する。
本実施の形態の場合、カメラ21は例えば着脱式であり、ユーザの衣類や帽子に取り付けられている。ただし、カメラ21が撮像する方向は、ユーザの視線の方向に揃えられている。
なお、カメラ21は、xRデバイス20Cと無線により接続されている。例えばブルートゥースにより接続されている。
ここでのxRデバイス20Cは、スマートグラスとも呼ばれる。
<実施の形態8>
図31は、実施の形態8で使用する情報処理システム1Bの使用例を説明する図である。図31には、図1との対応部分に対応する符号を付している。
図31に示す情報処理システム1Bでは、サーバ10(図1参照)に設けていた機能を、xRデバイス20と連携する携帯型の端末40に搭載する。
図31は、実施の形態8で使用する情報処理システム1Bの使用例を説明する図である。図31には、図1との対応部分に対応する符号を付している。
図31に示す情報処理システム1Bでは、サーバ10(図1参照)に設けていた機能を、xRデバイス20と連携する携帯型の端末40に搭載する。
図31の場合、端末40としてスマートフォンを例示している。端末40は、図29に示すハードウェア構成を有している。少なくとも、端末40のプロセッサ201には、画像解析部101A、問い合わせ制御部101B、出力制御部101C、文字認識部201Aを設ける。また、フラッシュメモリ204には、画像データ111、問い合わせ対象テーブル112、提供タイミングテーブル113を記憶する。
図31の例では、端末40としてスマートフォンを例示したが、端末40は、時計型やブレスレッド型等のウェアラブル端末でもよく、ノート型のコンピュータやタブレット型のコンピュータでもよい。
端末40は、情報処理装置の一例である。
端末40は、情報処理装置の一例である。
<実施の形態9>
本実施の形態では、xRデバイス20の位置情報を用いて情報の提供を受ける場合について説明する。
本実施の形態の場合、xRデバイス20の測位センサ260(図5参照)で測位された位置の情報に紐付けられている情報が存在する場合、ユーザに対して問い合わせが実行される。このため、本実施の形態で使用するxRデバイス20では、カメラ21(図1参照)を必要としない。
本実施の形態では、xRデバイス20の位置情報を用いて情報の提供を受ける場合について説明する。
本実施の形態の場合、xRデバイス20の測位センサ260(図5参照)で測位された位置の情報に紐付けられている情報が存在する場合、ユーザに対して問い合わせが実行される。このため、本実施の形態で使用するxRデバイス20では、カメラ21(図1参照)を必要としない。
図32は、実施の形態9における処理動作の一部分を説明するフローチャートである。図32には、図7との対応部分に対応する符号を付して示す。
図32に示す処理動作も、サーバ10(図1参照)が実行する。
サーバ10のプロセッサ101(図2参照)は、ユーザの現在の位置を取得する(ステップ31)。前述したように、本実施の形態では、測位センサ260で測位された位置の情報がサーバ10にアップロードされる。
図32に示す処理動作も、サーバ10(図1参照)が実行する。
サーバ10のプロセッサ101(図2参照)は、ユーザの現在の位置を取得する(ステップ31)。前述したように、本実施の形態では、測位センサ260で測位された位置の情報がサーバ10にアップロードされる。
次に、プロセッサ101は、ユーザの現在の位置に紐付けられている情報を検出する(ステップ32)。なお、ハードディスクドライブ110(図2参照)には、事前に登録された店、施設、交通機関、看板、広告等の情報に位置の情報が対応付けられて記憶されている。
ユーザの位置に対応する情報が存在する場合、プロセッサ101は、情報の内容の表示の可否をユーザに問い合わせる(ステップ33)。
ユーザの位置に対応する情報が存在する場合、プロセッサ101は、情報の内容の表示の可否をユーザに問い合わせる(ステップ33)。
以後の処理動作は、実施の形態1におけるステップ4(図7参照)以下と同じである。因みに、ステップ5(図7参照)で否定結果が得られた場合、ステップ21(図8参照)以降が実行される。
本実施の形態の場合、ユーザの視線の方向をカメラ21(図1参照)で撮像する必要がない。このため、xRデバイス20(図1参照)にはカメラ21が不要となる。
本実施の形態の場合、ユーザの視線の方向をカメラ21(図1参照)で撮像する必要がない。このため、xRデバイス20(図1参照)にはカメラ21が不要となる。
<他の実施の形態>
(1)以上、本発明の実施の形態について説明したが、本発明の技術的範囲は前述した実施の形態に記載の範囲に限定されない。前述した実施の形態に、種々の変更又は改良を加えたものも、本発明の技術的範囲に含まれることは、特許請求の範囲の記載から明らかである。
(1)以上、本発明の実施の形態について説明したが、本発明の技術的範囲は前述した実施の形態に記載の範囲に限定されない。前述した実施の形態に、種々の変更又は改良を加えたものも、本発明の技術的範囲に含まれることは、特許請求の範囲の記載から明らかである。
(2)前述の実施の形態では、カメラ21(図1参照)がユーザの視線の方向を撮像することを前提としたが、カメラ21が撮像する範囲はユーザの周囲であればよい。ユーザの周囲を撮像することで、ユーザの視線の方向とは異なる場所に存在する情報の内容をAR画像や音声で提供することが可能になる。
(3)前述の実施の形態では、ユーザの周囲を撮像した画像に含まれる情報やユーザの位置に紐付けられている情報が予め定めた条件を満たす場合にユーザに表示の可否を問い合わせているが、受信したメールやアラーム等の内容の表示の可否を問い合わせてもよい。ここでのメールやアラーム等を送信するサーバは、外部の装置の一例である。メールやアラーム等の通知は、ユーザの位置や周囲の環境とは独立に発生する。
この他、外部の装置には、例えば改札機、街中に配置されたデジタルサイネージ、ゲームの登場人物等をAR画像としてユーザの端末に表示させるサーバがある。ここでの通知は、ユーザの位置に紐付けられた情報の内容の通知である。ここでの改札機が設けられている場所、デジタルサイネージの端末が設けられている場所、ゲームの登場人物等を出現する場所は、特定の場所の一例である。
この他、外部の装置には、例えば改札機、街中に配置されたデジタルサイネージ、ゲームの登場人物等をAR画像としてユーザの端末に表示させるサーバがある。ここでの通知は、ユーザの位置に紐付けられた情報の内容の通知である。ここでの改札機が設けられている場所、デジタルサイネージの端末が設けられている場所、ゲームの登場人物等を出現する場所は、特定の場所の一例である。
(4)前述の実施の形態1では、文字認識部201A(図5参照)をxRデバイス20(図1参照)に設けているが、サーバ10(図1参照)に設けてもよい。また、画像解析部101A、問い合わせ制御部101B、出力制御部101Cの全てをサーバ10に設けているが、これらの一部又は全部をxRデバイス20に設けてもよい。他の実施の形態についても同様である。
(5)前述の実施の形態では、情報の内容をAR画像又は音声により出力しているが、AR画像と音声の両方を用いて出力してもよい。
(6)前述した各実施の形態におけるプロセッサは、広義的な意味でのプロセッサを指し、汎用的なプロセッサ(例えばCPU等)の他、専用的なプロセッサ(例えばGPU(=Graphical Processing Unit)、ASIC(=Application Specific Integrated Circuit)、FPGA(=Field Programmable Gate Array)、プログラム論理デバイス等)を含む。
また、前述した各実施の形態におけるプロセッサの動作は、1つのプロセッサが単独で実行してもよいが、物理的に離れた位置に存在する複数のプロセッサが協働して実行してもよい。また、プロセッサにおける各動作の実行の順序は、前述した各実施の形態に記載した順序のみに限定されるものでなく、個別に変更してもよい。
また、前述した各実施の形態におけるプロセッサの動作は、1つのプロセッサが単独で実行してもよいが、物理的に離れた位置に存在する複数のプロセッサが協働して実行してもよい。また、プロセッサにおける各動作の実行の順序は、前述した各実施の形態に記載した順序のみに限定されるものでなく、個別に変更してもよい。
1、1A、1B…情報処理システム、10…サーバ、20、20A、20B、20C…xRデバイス、21…カメラ、22…ボタン、30…通信網、40…端末、41…改札機、42…階段、43…電光掲示板、51…ホーム、52…電車、61…商業ビル、62…入口、63…看板、101A…画像解析部、101B…問い合わせ制御部、101C…出力制御部、112…問い合わせ対象テーブル、113…提供タイミングテーブル、201A…文字認識部
Claims (22)
- プロセッサを有し、
前記プロセッサは、
予め定めた情報の存在が検出された場合、拡張現実の画像として、前記情報の内容をユーザの視界前方に表示する前に、当該情報の内容の表示の可否をユーザに問い合わせ、
問い合わせに対するユーザの指示に従って、拡張現実の画像による前記情報の内容の表示を制御する、
情報処理装置。 - 前記プロセッサは、前記問い合わせに視覚以外の方法を使用する、
請求項1に記載の情報処理装置。 - 前記プロセッサは、前記問い合わせに音を使用する、
請求項2に記載の情報処理装置。 - 前記プロセッサは、前記問い合わせに振動を使用する、
請求項2に記載の情報処理装置。 - 前記プロセッサは、前記問い合わせに、前記情報の検出を示す第2の拡張現実の画像を使用する、
請求項1に記載の情報処理装置。 - 前記プロセッサは、前記第2の拡張現実の画像としてマークを表示する、
請求項5に記載の情報処理装置。 - 前記プロセッサは、検出した情報の内容に応じて前記マークを選択する、
請求項6に記載の情報処理装置。 - 前記プロセッサは、ユーザから前記情報の内容の表示が指示された場合、当該情報の内容の表示を許可する、
請求項1に記載の情報処理装置。 - 前記プロセッサは、ユーザから前記情報の内容の不表示が指示された場合、当該情報の内容の表示を許可しない、
請求項8に記載の情報処理装置。 - 前記プロセッサは、ユーザから前記情報の内容の音声による出力が指示された場合、当該情報の内容を音声により出力させる、
請求項8又は9に記載の情報処理装置。 - 前記プロセッサは、ユーザからの指示が予め定めた時間内にない場合、前記情報の内容に対応する前記画像の表示を許可しない、
請求項8に記載の情報処理装置。 - 前記プロセッサは、ユーザのジェスチャを撮像した画像によりユーザの指示を検知する、
請求項1に記載の情報処理装置。 - 前記プロセッサは、ユーザの手を撮像した画像によりユーザの指示を検知する、
請求項12に記載の情報処理装置。 - 前記プロセッサは、前記指示に関連付けて、前記情報の内容を表示する条件を受け付けた場合、当該条件を満たす時点に、当該情報の内容に対応する前記画像の表示を許可する、
請求項1又は8に記載の情報処理装置。 - 前記条件は、前記指示の度にユーザから受け付ける、
請求項14に記載の情報処理装置。 - 前記プロセッサは、前記条件がユーザにより事前に設定されている場合、当該条件を前記情報の内容に対応する前記画像の表示に適用する、
請求項14に記載の情報処理装置。 - 前記プロセッサは、ユーザの周囲を撮像した画像内に、前記情報の内容が含まれる場合、当該情報の内容の表示の可否をユーザに問い合わせる、
請求項1に記載の情報処理装置。 - 拡張現実の画像をユーザの視界前方に表示するデバイスは、当該デバイスを装着したユーザの視界前方を撮像する撮像部を有し、前記情報は、当該撮像部で撮像された画像内から検出される、
請求項17に記載の情報処理装置。 - 前記撮像部が撮像する範囲は、ユーザの視野よりも広く設定される
請求項18に記載の情報処理装置。 - 前記プロセッサは、外部の装置から前記情報の受信を検出した場合、当該情報の内容の表示の可否をユーザに問い合わせる、
請求項1に記載の情報処理装置。 - 前記情報は、ユーザが特定の場所を通過した場合に、通過した場所にある外部の装置から与えられる、
請求項20に記載の情報処理装置。 - コンピュータに、
予め定めた情報の存在が検出された場合、拡張現実の画像として、前記情報の内容をユーザの視界前方に表示する前に、当該情報の内容の表示の可否をユーザに問い合わせる機能と、
問い合わせに対するユーザの指示に従って、拡張現実の画像による前記情報の内容の表示を制御する機能と
を実現させるためのプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021005971A JP2022110509A (ja) | 2021-01-18 | 2021-01-18 | 情報処理装置及びプログラム |
US17/398,785 US11527065B2 (en) | 2021-01-18 | 2021-08-10 | Information processing apparatus, information processing method, and non-transitory computer readable medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021005971A JP2022110509A (ja) | 2021-01-18 | 2021-01-18 | 情報処理装置及びプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022110509A true JP2022110509A (ja) | 2022-07-29 |
Family
ID=82405744
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021005971A Pending JP2022110509A (ja) | 2021-01-18 | 2021-01-18 | 情報処理装置及びプログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US11527065B2 (ja) |
JP (1) | JP2022110509A (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11252262B2 (en) | 2019-10-28 | 2022-02-15 | Facebook Technologies, Llc | Coordination among artificial reality links |
US20230393657A1 (en) * | 2022-06-02 | 2023-12-07 | Google Llc | Attention redirection of a user of a wearable device |
Family Cites Families (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120249797A1 (en) * | 2010-02-28 | 2012-10-04 | Osterhout Group, Inc. | Head-worn adaptive display |
JP5638365B2 (ja) * | 2010-06-08 | 2014-12-10 | 株式会社ソニー・コンピュータエンタテインメント | コンテンツ保護システム |
US9213405B2 (en) * | 2010-12-16 | 2015-12-15 | Microsoft Technology Licensing, Llc | Comprehension and intent-based content for augmented reality displays |
JP6065370B2 (ja) * | 2012-02-03 | 2017-01-25 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
JP5935640B2 (ja) * | 2012-10-01 | 2016-06-15 | ソニー株式会社 | 情報処理装置、表示制御方法及びプログラム |
US10269179B2 (en) * | 2012-10-05 | 2019-04-23 | Elwha Llc | Displaying second augmentations that are based on registered first augmentations |
US9092600B2 (en) * | 2012-11-05 | 2015-07-28 | Microsoft Technology Licensing, Llc | User authentication on augmented reality display device |
JP6160154B2 (ja) * | 2013-03-22 | 2017-07-12 | セイコーエプソン株式会社 | 頭部装着型表示装置を利用した情報表示システム、頭部装着型表示装置を利用した情報表示方法、および、頭部装着型表示装置 |
KR20150107464A (ko) * | 2014-03-14 | 2015-09-23 | 삼성전자주식회사 | 컨텐츠 처리 장치 및 그 이벤트 제공 방법 |
JP6574558B2 (ja) * | 2014-10-14 | 2019-09-11 | キヤノン株式会社 | 情報処理装置、情報処理装置の制御方法、及びプログラム |
JP6424100B2 (ja) | 2015-01-29 | 2018-11-14 | 株式会社ゼンリンデータコム | ナビゲーションシステム、ナビゲーション装置、グラス型デバイス及び装置間連携方法 |
US20160343168A1 (en) * | 2015-05-20 | 2016-11-24 | Daqri, Llc | Virtual personification for augmented reality system |
JP2017174018A (ja) | 2016-03-22 | 2017-09-28 | Line株式会社 | 表示制御方法、プログラム、及び端末 |
US10025376B2 (en) * | 2016-04-27 | 2018-07-17 | Rovi Guides, Inc. | Methods and systems for displaying additional content on a heads up display displaying a virtual reality environment |
EP3448538A1 (en) * | 2016-04-29 | 2019-03-06 | Hewlett-Packard Development Company, L.P. | Guidance information relating to a target image |
US10242643B2 (en) * | 2016-07-18 | 2019-03-26 | Microsoft Technology Licensing, Llc | Constrained head-mounted display communication |
US20180059773A1 (en) * | 2016-08-29 | 2018-03-01 | Korea Automotive Technology Institute | System and method for providing head-up display information according to driver and driving condition |
CN109804357A (zh) * | 2016-10-07 | 2019-05-24 | 索尼公司 | 服务器、客户端、控制方法和存储介质 |
US10937391B2 (en) * | 2016-12-05 | 2021-03-02 | Case Western Reserve University | Systems, methods, and media for displaying interactive augmented reality presentations |
US12020667B2 (en) * | 2016-12-05 | 2024-06-25 | Case Western Reserve University | Systems, methods, and media for displaying interactive augmented reality presentations |
JP2019101743A (ja) * | 2017-12-01 | 2019-06-24 | ソニー株式会社 | 情報処理装置、情報処理方法及びプログラム |
KR102532300B1 (ko) * | 2017-12-22 | 2023-05-15 | 삼성전자주식회사 | 어플리케이션 실행 방법 및 이를 위한 장치 |
KR102551550B1 (ko) * | 2018-04-20 | 2023-07-06 | 삼성전자주식회사 | 오브젝트에 대한 정보를 검색하기 위한 전자 장치 및 이의 제어 방법 |
US10748001B2 (en) * | 2018-04-27 | 2020-08-18 | Microsoft Technology Licensing, Llc | Context-awareness |
US10607083B2 (en) * | 2018-07-19 | 2020-03-31 | Microsoft Technology Licensing, Llc | Selectively alerting users of real objects in a virtual environment |
US11172189B1 (en) * | 2018-12-28 | 2021-11-09 | Facebook, Inc. | User detection for projection-based augmented reality system |
JP7296626B2 (ja) * | 2019-08-26 | 2023-06-23 | 株式会社Agama-X | 情報処理装置及びプログラム |
US11574640B2 (en) * | 2020-07-13 | 2023-02-07 | Google Llc | User-assigned custom assistant responses to queries being submitted by another user |
US11282285B1 (en) * | 2021-01-08 | 2022-03-22 | International Business Machines Corporation | Real-world object location identification using 5G network technology |
-
2021
- 2021-01-18 JP JP2021005971A patent/JP2022110509A/ja active Pending
- 2021-08-10 US US17/398,785 patent/US11527065B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US20220230015A1 (en) | 2022-07-21 |
US11527065B2 (en) | 2022-12-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11095781B1 (en) | Image and augmented reality based networks using mobile devices and intelligent electronic glasses | |
US10132633B2 (en) | User controlled real object disappearance in a mixed reality display | |
US9836889B2 (en) | Executable virtual objects associated with real objects | |
KR101591579B1 (ko) | 증강 현실 시스템들에서 실세계 표면들에의 가상 이미지들의 앵커링 | |
US9380177B1 (en) | Image and augmented reality based networks using mobile devices and intelligent electronic glasses | |
RU2670784C2 (ru) | Ориентация и визуализация виртуального объекта | |
US9285871B2 (en) | Personal audio/visual system for providing an adaptable augmented reality environment | |
US9390561B2 (en) | Personal holographic billboard | |
CN105278670B (zh) | 眼佩戴型终端及控制眼佩戴型终端的方法 | |
WO2018179644A1 (ja) | 情報処理装置、情報処理方法及び記録媒体 | |
JP6263098B2 (ja) | 仮想音源を提供情報位置に配置する携帯端末、音声提示プログラム及び音声提示方法 | |
US20130083007A1 (en) | Changing experience using personal a/v system | |
US20130083008A1 (en) | Enriched experience using personal a/v system | |
CN103091844A (zh) | 将头戴式显示连接到外部显示和其他通信网络 | |
TW201435654A (zh) | 可穿戴基於行爲的視覺系統 | |
JP2017103598A (ja) | 情報処理装置、情報処理方法、およびプログラム | |
KR20150068489A (ko) | 이미지화된 오브젝트 특성들에 기초한 증강 현실 | |
JP2015228201A (ja) | ウェアラブルメガネを用いたディスプレイ装置及びその作動方法 | |
US11527065B2 (en) | Information processing apparatus, information processing method, and non-transitory computer readable medium | |
KR20200060361A (ko) | 정보 처리 장치, 정보 처리 방법, 및 프로그램 | |
US10771707B2 (en) | Information processing device and information processing method | |
Chatzopoulos et al. | Hyperion: A wearable augmented reality system for text extraction and manipulation in the air | |
JP2023531849A (ja) | オーディオ認識を行う拡張現実デバイスおよびその制御方法 | |
WO2023196203A1 (en) | Traveling in time and space continuum | |
KR20230070308A (ko) | 웨어러블 장치를 이용한 제어가능한 장치의 위치 식별 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20231219 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240625 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240628 |