JP2017123050A - 情報処理装置、情報処理方法、プログラム、及びサーバ - Google Patents

情報処理装置、情報処理方法、プログラム、及びサーバ Download PDF

Info

Publication number
JP2017123050A
JP2017123050A JP2016001672A JP2016001672A JP2017123050A JP 2017123050 A JP2017123050 A JP 2017123050A JP 2016001672 A JP2016001672 A JP 2016001672A JP 2016001672 A JP2016001672 A JP 2016001672A JP 2017123050 A JP2017123050 A JP 2017123050A
Authority
JP
Japan
Prior art keywords
information
real object
display
tag
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016001672A
Other languages
English (en)
Inventor
栗屋 志伸
Yukinobu Kuriya
志伸 栗屋
荘太 松澤
Sota Matsuzawa
荘太 松澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2016001672A priority Critical patent/JP2017123050A/ja
Priority to PCT/JP2016/078813 priority patent/WO2017119160A1/ja
Priority to US16/062,899 priority patent/US20180374270A1/en
Publication of JP2017123050A publication Critical patent/JP2017123050A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/216Input arrangements for video game devices characterised by their sensors, purposes or types using geographical information, e.g. location of the game device or player using GPS
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • A63F13/35Details of game servers
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • A63F13/5255Changing parameters of virtual cameras according to dedicated instructions from a player, e.g. using a secondary joystick to rotate the camera around a player's character
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/537Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
    • A63F13/5372Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen for tagging characters, objects or locations in the game scene, e.g. displaying a circle under the character controlled by the player
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/65Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/803Driving vehicles or craft, e.g. cars, airplanes, ships, robots or tanks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/24Querying
    • G06F16/245Query processing
    • G06F16/2457Query processing with adaptation to user needs
    • G06F16/24573Query processing with adaptation to user needs using data annotations, e.g. user-defined metadata
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/147Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/451Execution arrangements for user interfaces
    • G06F9/453Help systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/01Social networking
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • G09G3/002Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to project the image of a two-dimensional display, such as an array of light emitting or modulating elements or a CRT
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/02Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the way in which colour is displayed
    • G09G5/026Control of mixing and/or overlay of colours in general
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/011Emotion or mood input determined on the basis of sensed human body parameters such as pulse, heart rate or beat, temperature of skin, facial expressions, iris, voice pitch, brain activity patterns
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/16Use of wireless transmission of display information

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Business, Economics & Management (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • General Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • Strategic Management (AREA)
  • Human Resources & Organizations (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Economics (AREA)
  • Optics & Photonics (AREA)
  • Computer Graphics (AREA)
  • Computational Linguistics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Library & Information Science (AREA)
  • Databases & Information Systems (AREA)
  • Environmental & Geological Engineering (AREA)
  • Data Mining & Analysis (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

【課題】移動する実物体に関連付いた情報の表示を、当該実物体の位置に応じて変化させる。
【解決手段】
実物体の位置情報と関連付けて管理されるタグ情報の表示を制御する表示制御部、を備え、前記表示制御部は、前記タグ情報の表示が前記実物体の位置情報の変化に応じて変化するように、前記タグ情報の表示を制御する、情報処理装置を提供する。また、収集した実物体の位置情報に基づいて、前記実物体の位置情報の更新を管理するオブジェクト管理部と、前記実物体の位置情報と、前記実物体の位置情報と関連付けて管理されるタグ情報と、を情報処理装置に送信させる制御部と、を備える、サーバを提供する。
【選択図】図1

Description

本開示は、情報処理装置、情報処理方法、プログラム、及びサーバに関する。
近年、位置情報を取得することができる情報処理端末が広く普及している。また、位置情報を利用した種々のサービスが提案されている。例えば、特許文献1には、ユーザの入力情報を位置情報と関連付けて地図イメージ上に表示させる情報処理方法が開示されている。
特開2015−003046号公報
しかし、上記のようなサービスでは、情報を関連付ける対象として、位置が変化する実物体は想定されていない。このため、上記のようなサービスでは、ユーザが、移動する実物体に関連付いた情報を確認することが困難であった。
そこで本開示では、移動する実物体に関連付いた情報の表示を、当該実物体の位置に応じて変化させることが可能な、新規かつ改良された情報処理装置、情報処理方法、プログラム、及びサーバを提案する。
本開示によれば、実物体の位置情報と関連付けて管理されるタグ情報の表示を制御する表示制御部、を備え、前記表示制御部は、前記タグ情報の表示が前記実物体の位置情報の変化に応じて変化するように、前記タグ情報の表示を制御する、情報処理装置が提供される。
また、本開示によれば、収集した実物体の位置情報に基づいて、前記実物体の位置情報の更新を管理するオブジェクト管理部と、前記実物体の位置情報と、前記実物体の位置情報と関連付けて管理されるタグ情報と、を情報処理装置に送信させる制御部と、を備える、サーバが提供される。
以上説明したように本開示によれば、移動する実物体に関連付いた情報の表示を、当該実物体の位置に応じて変化させることが可能となる。なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
本開示のタグ情報の表示制御に係るシステム構成例。 本開示に係るタグ情報の表示制御について説明するための図。 本開示に係るタグ情報の表示制御について説明するための図。 本開示に係る情報処理装置の機能ブロック図。 本開示に係るサーバの機能ブロック図。 本開示に係る実物体の機能ブロック図。 第1の実施形態に係るオブジェクト管理部のテーブル例。 同実施形態に係るユーザ管理部のテーブル例。 同実施形態のバトルゲームに係るタグ情報の表示制御について説明するための図。 同実施形態に係るタグ情報の簡素表示について説明するための図。 同実施形態に係る実物体の特定について説明するための図。 同実施形態に係るアバターとしてのタグ表示について説明するための図。 同実施形態に係るバトルコマンドの認識について説明するための図。 同実施形態の登録制御に係るシーケンス図。 同実施形態の位置情報の更新制御に係るシーケンス図。 同実施形態の実物体に関する情報リストの取得制御に係るシーケンス図。 同実施形態のバトル制御に係るシーケンス図。 同実施形態のタグ設定の制御に係るシーケンス図。 第2の実施形態に係る爆弾ゲームについて説明するための図。 第3の実施形態に係る取集ゲームについて説明するための図。 第4の実施形態に係る評価機能について説明するための図。 第5の実施形態に係る言語案内について説明するための図。 本開示に係る情報処理装置及びサーバのハードウェア構成例を示す図。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は以下の順序で行うものとする。
1.本開示に係るタグ表示の制御
1.1.拡張現実とは
1.2.本開示に係るシステム構成例
1.3.タグ表示の制御に係る概要
1.4.本開示に係る情報処理装置10
1.5.本開示に係るサーバ20
1.6.本開示に係る実物体30
1.7.本開示に機能構成の変形
2.第1の実施形態(実物体30を争奪するバトルゲーム)
2.1.第1の実施形態に係るバトルゲームの概要
2.2.サーバ20が管理する情報の一例
2.3.バトルゲームに係る情報の表示制御
2.4.表示情報の簡素化
2.5.攻撃対象となる実物体30の特定
2.6.実物体30の特定に係る表示制御
2.7.バトルに係る入力の制御
2.8.本実施形態に係る制御の流れ
2.9.第1の実施形態のまとめ
3.第2の実施形態(実物体30を用いた爆弾ゲーム)
3.1.第2の実施形態に係る爆弾ゲームの概要
3.2.第2の実施形態に係る爆弾ゲームの詳細
3.3.第2の実施形態のまとめ
4.第3の実施形態(実物体30を集める収集ゲーム)
4.1.第3の実施形態に係る収集ゲームの概要
4.2.第2の実施形態に係る収集ゲームの詳細
4.3.第3の実施形態のまとめ
5.第4の実施形態(実物体30を利用した評価機能)
5.1.第4の実施形態に係る評価機能の概要
5.2.第4の実施形態に係る評価機能の詳細
5.3.第4の実施形態のまとめ
6.第5の実施形態(実物体30を利用した言語案内)
6.1.第5の実施形態に係る言語案内の概要
6.2.第5の実施形態に係る言語案内の詳細
6.3.第5の実施形態のまとめ
7.ハードウェア構成例
7.1.共通の構成要素
7.2.情報処理装置10に固有の構成要素
8.まとめ
<1.本開示に係るタグ表示の制御>
[1.1.拡張現実とは]
近年、現実空間に付加的な情報を重畳してユーザに提示する拡張現実(AR:Augmented Reality)と呼ばれる技術が注目されている。AR技術においてユーザに提示される情報は、テキストやアイコン、アニメーションなどの様々な形態の仮想オブジェクトとして可視化される。仮想オブジェクトは、当該仮想オブジェクトが関連付いた実物体の位置に応じて、配置される。一般的に、仮想オブジェクトは、情報処理端末のディスプレイ上に表示される。
AR技術を応用したアプリケーションでは、例えば、現実空間に存在する建物、道路などの実物体に、ナビゲーション情報や広告などの付加情報を関連付けて、ユーザに提示することが可能である。しかし、上記のようなアプリケーションでは、付加情報を関連付ける対象として、位置が変化しない実物体が想定されていた。本開示に係る情報処理装置及びサーバは、上記の点に着目して発想されたものであり、移動する実物体に関連付いた付加情報を表示させることを可能とする。また、本開示に係る情報処理装置及びサーバは、移動する実物体に対して、新たな付加情報を関連付けること、を可能とする。以降の説明においては、本開示に係る情報処理装置及びサーバの特徴を挙げながら、当該特徴が奏する効果について述べる。
[1.2.本開示に係るシステム構成例]
まず、図1を参照して、本開示に係る情報システムの構成例について説明する。図1を参照すると、本開示に係る情報システムは、情報処理装置10、サーバ20、及び実物体30を備える。また、各構成要素は、ネットワーク40を介して、互いに通信することが可能である。ここで、情報処理装置10は、実物体30に関連付いた付加情報(以下、タグ情報、とも呼ぶ)をユーザに提示するための装置である。また、情報処理装置10は、実物体30に関連付ける新たなタグ情報を設定し、サーバ20に送信することができる。サーバ20は、実物体30から位置情報を取得し、サーバ20の保有する実物体30の位置情報を更新する機能を有する。また、サーバ20は、情報処理装置10と通信を行いながら、提供するアプリケーションの様態に応じた種々の処理を実行する。実物体30は、移動する実物体、または第三者により移動され得る実物体として想定される。実物体30は、位置情報をサーバ20に送信する機能や、情報処理装置10に対し、実物体30の識別情報を提供する機能を有してもよい。
以降における、本開示に係るタグ表示制御の説明では、情報処理装置10としてヘッドマウントディスプレイ(HMD)を、実物体30として車両を例に説明するが、本開示に係る情報処理装置10及び実物体30は、係る例に限定されない。本開示に係る情報処理装置10は、例えば、携帯電話、スマートフォン、タブレット、またはPC(Personal Computer)であってもよい。また、情報処理装置10は、眼鏡やコンタクト型のウェアラブル装置、通常の眼鏡に装着して利用する情報処理装置などであってもよい。また、本開示に係る実物体30は、GPSセンサを備えた船舶、動物、椅子などの物体であってもよい。
[1.3.タグ表示の制御に係る概要]
続いて、図2及び図3を参照して、本開示に係るタグ表示の制御について、概要を説明する。本開示に係る情報処理装置及びサーバは、移動する実物体に関連付いた付加情報を表示させることができる。また、本開示に係る情報処理装置及びサーバは、移動する実物体に対して、新たな付加情報を関連付けることができる。図2は、ユーザがHMDなどの情報処理装置10を介して得る視覚情報のイメージ図である。図2には、実物体30を含む現実空間の視覚情報と、情報処理装置10により表示制御されたタグ表示T1が示されている。本例においては、タグ表示T1は、「安全運転中」、というテキスト情報として示されている。
本例において、実物体30は、GPS(Global Positioning System)やWi−Fiなどを用いて取得した位置情報を、サーバ20に送信している。サーバ20は、取得した実物体30の位置情報と、当該実物体30に関連付いたタグ情報と、を情報処理装置10に送信する。情報処理装置10は、取得した実物体30の位置情報と、当該実物体30に関連付いたタグ情報と、を基に、タグ表示T1の表示位置を制御する。
また、サーバ20は実物体30の新たな位置情報を取得すると、サーバ20に保持する当該実物体30の位置情報を更新し、更新した位置情報を情報処理装置10に送信する。情報処理装置10は、取得した実物体30の新たな位置情報に基づいて、タグ表示T1の表示位置を制御する。なお、サーバ20は、実物体30の位置情報を更新した際、再度、当該実物体30に関連付いたタグ情報を取得しなおして、情報処理装置10に送信してもよい。
次に、実物体30へのタグ情報の追加に係る処理について、説明する。情報処理装置10は、ユーザからの入力情報を、対象となる実物体30の識別情報とともに、サーバ20に送信する。サーバ20は、取得した内容を基に、当該ユーザからの入力情報と、対象となる実物体30と、の紐付けを行い、新たなタグ情報として設定する。設定が完了すると、サーバ20は、当該新たなタグ情報と、実物体30の位置情報と、を情報処理装置10に送信する。また、情報処理装置10は、取得したタグ情報と、実物体30の位置情報と、を基に、新たなタグ表示の表示位置を制御する。なお、情報処理装置10は、ユーザからの入力情報をサーバ20に送信せずに、タグ表示を生成して表示位置を制御することもできる。
以上、本開示に係るタグ表示の制御について、概要を説明した。ここで、図3を参照すると、図2の状態と比較して、実物体30の位置及びタグ表示T1の表示位置が変化していることがわかる。さらには、新たなタグ表示T2として、「ナイス!」、というテキスト情報が追加されている。すなわち、図3は、実物体30の移動に、タグ表示T1の表示位置が追従したことを示している。なお、タグ表示T2は、ユーザが新たに実物体30に関連づけたタグ情報から生成されたタグ表示の例を示す。
以上、説明したように、本開示に係る情報処理装置10は、移動する実物体30の位置情報と、実物体30に関連付いたタグ情報と、を基にタグ表示の表示位置を制御することができる。また、情報処理装置10は、移動する実物体30に対し、新たなタグ情報を付加することができる。
[1.4.本開示に係る情報処理装置10]
次に、本開示に係る情報処理装置について詳細に説明する。上記で説明したとおり、本開示に係る情報処理装置10は、実物体30に関連付いたタグ情報の表示を制御する機能を有する。また、情報処理装置10は、実物体30に対し、新たなタグ情報を付加する機能を有する。以下、図4を参照して、本開示に係る情報処理装置10の機能構成例について説明する。
(通信部110)
通信部110は、サーバ20や実物体30との情報通信を行う機能を有する。具体的には、通信部110は、サーバ20から、実物体30の位置情報や、実物体30に関連付いたタグ情報などを受信する。また、通信部110は、後述する入力制御部150により設定されたタグ情報や、情報処理装置10の位置情報をサーバ20に送信する。また、通信部110は、近距離無線通信により、実物体30から識別情報や位置情報などを取得する機能を有してもよい。
(記憶部120)
記憶部120は、情報処理装置10の各構成要素が用いるプログラムや各種情報を格納する機能を有する。具体的には、記憶部120は、情報処理装置10の識別情報や、後述するタグ情報のフィルタリング機能に関する設定情報、過去に設定されたタグ情報などを記憶する。
(対象管理部130)
対象管理部130は、サーバ20から取得した実物体30の位置情報と、実物体30に関連付いたタグ情報と、を管理する。また、対象管理部130は、入力制御部150により設定されたタグ情報と、対象となる実物体30と、の紐付けを行う機能を有する。
(表示制御部140)
表示制御部140は、実物体の位置情報と関連付けて管理されるタグ情報の表示を、実物体の位置情報の変化に応じて変化するように、制御する。具体的には、表示制御部140は、対象管理部130が管理する情報と、後述するセンサ部160から取得した情報処理装置10の位置情報及び方向情報と、に基づいて、実物体30に関連付いたタグ情報の表示を制御する。また、表示制御部140は、センサ部160からの情報を基にして、実物体30の位置を詳細に特定する機能を有する。表示制御部140は、例えば、画像認識やSLAM(Simultaneous Localization And Mapping)などの技術を用いて、実物体30の詳細位置を特定したり、対象となる実物体30を認識したりすることができる。また、表示制御部140は、タグ情報の種類に応じて、表示させるタグ情報をフィルタリングする機能を有する。なお、表示制御部140により制御されるタグ情報の表示は、ディスプレイ装置での表示に限定されない。表示制御部140は、例えば、プロジェクタのような映写機器を制御して、プロジェクションマッピングによるタグ表示を制御してもよい。
(入力制御部150)
入力制御部150は、タグ情報の内容を設定する機能を有する。ここで、タグ情報の設定対象となる実物体30は、センサ部160が取得した情報に基づいて特定される。タグ情報の内容として設定される情報は、タッチパネルや各種のボタンから入力される情報であってもよいし、音声やジェスチャによる入力であってもよい。入力制御部150は、センサ部160が取得したユーザの音声やジェスチャ情報を基に、入力内容を認識し、タグ情報として設定することができる。また、入力制御部150は、過去に設定したタグ情報の傾向や、センサ部160から取得した情報を基に、設定するタグ情報を推定する機能を有する。入力制御部150は、例えば、センサ部160から取得したユーザの心拍数や血圧、呼吸や発汗に関する情報などから、設定するタグ情報を推定できる。
(センサ部160)
センサ部160は、各種のセンサ含み、センサの種類に応じた情報を収集する機能を有する。センサ部160は、例えば、GPSセンサ、加速度センサ、ジャイロセンサ、地磁気センサ、赤外線センサ、気圧センサ、光センサ、温度センサ、及びマイクロフォンなどを含んでもよい。また、センサ部160は、ユーザの生体情報を取得するための各種のセンサを含んでもよい。ユーザの生体情報は、例えば、心拍、血圧、体温、呼吸、眼球運動、皮膚電気抵抗、筋電位、及び脳波などを含んでもよい。
[1.5.本開示に係るサーバ20]
次に、本開示に係るサーバ20について詳細に説明する。上記で説明したとおり、本開示に係るサーバ20は、実物体30から位置情報を取得し、サーバ20の保有する実物体30の位置情報を更新する機能を有する。また、サーバ20は、情報処理装置10と通信を行いながら、提供するアプリケーションの様態に応じた種々の処理を実行する。本開示に係るサーバ20は、複数の情報処理装置から構成されてもよいし、冗長化や仮想化が図られてもよい。サーバ20の構成は、アプリケーションの仕様や運用に係る条件などにより、適宜変更され得る。以下、図5を参照して、本開示に係るサーバ20の機能構成例について説明する。
(通信部210)
通信部210は、情報処理装置10や実物体30との情報通信を行う機能を有する。具体的には、通信部210は、実物体30から位置情報を取得し、実物体30の位置情報と、実物体30に関連付いたタグ情報と、を情報処理装置10に送信する。また、通信部210は、情報処理装置10から種々の処理要求を受け付け、アプリケーションの様態に応じた処理結果を、情報処理装置10に送信する。
(ユーザ管理部220)
ユーザ管理部220は、情報処理装置10に関する情報と、情報処理装置10を使用するユーザに関する情報を管理する機能を有する。ユーザ管理部220は、情報処理装置10及びユーザに関する情報を記憶するデータベースであってもよい。ユーザ管理部220は、例えば、情報処理装置10の位置情報や、ユーザの識別情報などを記憶する。また、ユーザ管理部220は、アプリケーションの様態に応じて、情報処理装置10及びユーザに係る種々の情報を管理する。
(オブジェクト管理部230)
オブジェクト管理部230は、実物体30に関する情報を管理する機能を有する。オブジェクト管理部230は、実物体30に関する情報を記憶するデータベースであってもよい。オブジェクト管理部230は、例えば、実物体30の位置情報や、実物体30に関連付いたタグ情報を記憶する。また、オブジェクト管理部230は、アプリケーションの様態に応じて、実物体30に係る種々の情報を記憶する。
(タグ紐付部240)
タグ紐付部240は、実物体30と、タグ情報と、の紐付けを行う機能を有する。タグ紐付部240は、情報処理装置10から取得した実物体30の識別情報と新たに設定されたタグ情報とを紐付け、オブジェクト管理部230に記憶させる。サーバ20が、タグ情報の新規設定に関する機能を有する場合、タグ紐付部240は、当該機能から取得したタグ情報を、対象の実物体30と紐付けてもよい。
(制御部250)
制御部250は、サーバ20の各構成要素を制御し、処理を実行させる機能を有する。制御部250は、例えば、情報処理装置10や実物体30からの新規情報登録に係る要求に基づいて、ユーザ管理部220やオブジェクト管理部230を制御する。また、制御部250は、提供するアプリケーションの様態に応じた種々の処理を実行する。
以上、本開示に係るサーバ20の機能構成例について説明したが、本開示に係るサーバ20は上記の例に限定されず、図5に示す以外の構成をさらに備えてもよい。例えば、サーバ20は、情報処理装置10が有するタグ情報の推定やタグ情報のフィルタリングに係る機能を有してもよい。この場合、サーバ20は、情報処理装置10から、当該処理に必要な情報を取得することで、処理を実行することができる。サーバ20の機能は、アプリケーションの様態やタグ情報のデータ量などに応じて変更され得る。
[1.6.本開示に係る実物体30]
次に、本開示に係る実物体30について詳細に説明する。本開示に係る実物体30は、車両等の移動する実物体、または第三者により移動され得る実物体、と定義することができる。以下、図6を参照しながら、本開示に係る実物体30の機能構成について説明する。
(通信部310)
通信部310は、サーバ20や情報処理装置10との情報通信を行う機能を有する。具体的には、通信部310は、後述する位置情報取得部320が取得した実物体30の位置情報をサーバ20に送信する。なお、サーバ20への位置情報の送信に関しては、定期的に行われてもよいし、不定期に行われてもよい。位置情報の送信が不定期に行われる場合、実物体30の位置情報が変化したタイミングで情報の送信が行われてもよい。また、通信部310は、近距離無線通信により、情報処理装置10に実物体30の識別情報や位置情報などを送信する機能を有してもよい。近距離無線通信には、Bluetooth(登録商標)やRFID(Radio Frequency IDentification)による通信が含まれてもよい。
(位置情報取得部320)
位置情報取得部320は、実物体30の位置情報を取得する機能を有する。位置情報取得部320は、例えば、GPS、Wi−fiなどを利用して実物体30の位置情報を取得する。
[1.7.本開示に機能構成の変形]
以上、本開示に係る情報処理装置10、サーバ20、及び実物体30を利用したタグ表示の制御について、説明した。上述した機能構成はあくまで一例であり、提供するアプリケーションの様態に応じて、適宜変更され得る。例えば、実物体30の位置情報は、当該実物体を識別した情報処理装置10により、サーバ20に送信されてもよい。情報処理装置10による実物体30の識別は、QRコード(登録商標)を利用した識別情報の取得や、画像認識技術によって実現されてもよい。また、例えば、実物体30が、位置情報を取得することが可能な装置を所持する人間である場合、実物体30の通信部310は、情報処理装置10の通信部110と、人体通信による情報通信を行ってもよい。
以降、上記で説明した情報処理装置10、サーバ20、及び実物体30を利用した本開示に係る各実施形態について、詳細に説明する。
<2.第1の実施形態>
[2.1.第1の実施形態に係るバトルゲームの概要]
次に、図7〜図18を参照して、本開示の第1の実施形態に係るバトルゲームについて説明する。同実施形態に係るバトルゲームは、実物体30をターゲットとした、争奪ゲームである。ユーザは、複数のチームに分かれ、世界中の実物体30を奪い合い、チームごとの獲得ポイントで勝敗を競う。なお、以降の説明においては、争奪の対象となる実物体30を、車両を例に説明する。
まず、ゲームに参加するユーザは、ユーザ登録時に、参加するチームの決定を行う。なお、参加チームは、ユーザの登録処理を行うサーバ20により決定されてもよい。ユーザは、HMDなどの情報処理装置10を介して、実物体30に関連付いたタグ表示を確認し、相手チームの実物体30に対し攻撃を仕掛けることができる。
各ユーザは、それぞれ体力や攻撃力(ステータス)を有しており、また、実物体30にも、獲得難易度やレア度などのタグ情報が関連付いている。バトルの勝敗は、攻撃を仕掛けたユーザと、実物体30を所有するユーザのステータス、及び実物体30のタグ情報に応じて、決定する。ここで、攻撃を仕掛けたユーザが勝利した場合、対象の実物体30を、元の所有者から奪うことができる。また、バトルに勝利したユーザには、特典として、ステータスの上昇や、ゲーム上で利用できるアイテムなどが与えられてもよい。さらには、バトルに勝利したユーザは、自分のステータスと引き換えに、実物体30に新たな獲得難易度を設定することができる。また、バトルに勝利したユーザは、実物体30に関連付ける自由タグを設定できる。バトルの詳細な説明については、後述する。
なお、チームごとの獲得ポイントは、各チームに所属するユーザの所有する実物体30の獲得難易度の総和によって求められる。チームごとの獲得ポイントは、週や月などの所定の期間毎に集計され、当該期間ごとにチームの勝敗が決定されてもよい。
[2.2.サーバ20が管理する情報の一例]
ここで、図7及び図8を参照して、本実施形態に係るバトルゲームに用いられる各種の情報について説明する。図7は、サーバ20のオブジェクト管理部230が管理する実物体30に関する情報の一例である。図7を参照すると、オブジェクト管理部230は、実物体30の識別情報と位置情報に関連付けて、獲得難易度、メーカ、モデル、高級度、自由タグ、及びレア度などのタグ情報を管理している。
獲得難易度は、実物体30の体力に該当する項目であり、攻撃を仕掛けたユーザは、ユーザの攻撃力に乱数を掛けた数値を、獲得難易度から差し引くことができる。攻撃の結果、実物体30の獲得難易度が0以下になると、攻撃を仕掛けたユーザの勝利となる。獲得難易度は、バトルに勝利したユーザが設定できるタグ情報であり、ユーザは自分のステータスと引き換えに、実物体30の新たな獲得難易度を設定することができる。獲得難易度を高く設定することで、他のユーザから攻撃を受けた際に、実物体30を奪われる可能性を低く抑えることができる。
メーカ、モデル、高級度は、実物体30に関する製品情報である。当該情報は、実物体30を製造するメーカから提供される情報であってもよい。また、図7に示す一例において、モデルは、セダンやワゴンなどの車両の種類によって示されているが、モデルに関する情報は、各メーカが展開する製品名称であってもよい。
自由タグは、実物体30を所有するユーザにより設定されるタグ情報であり、バトルに勝利した際、攻撃を仕掛けたユーザが設定を行うことができる。自由タグは、他ユーザに対する簡易メッセージであってもよい。
レア度は、実物体30の希少性を示す値である。レア度は、例えば、オブジェクト管理部230に管理される、同一モデルの実物体30の数から算出されてもよい。すなわち、全体に対し、同一モデルの数が少ない実物体30のレア度は高く、同一モデルが多く登録されている実物体30のレア度は低く設定される。なお、図7に示す一例においては、レア度はアルファベットにより示されている。ここで、レア度は、S>A>B>C>D>E、の順に低くなる値であってもよい。また、レア度は数値により表されてもよい。
所有者は、実物体30を所有するユーザを示す項目である。図8を参照すると、ID「O0001」に紐付けられた実物体30は、ID「U1256」に紐付けられたユーザにより所有されていることがわかる。
以上、本実施形態に係るオブジェクト管理部230が管理する実物体30に関する情報について説明した。なお、オブジェクト管理部230で管理される上記の情報は、複数のテーブルに分散されて記憶されてもよい。また、上記に示す以外の情報が併せて管理されてもよい。例えば、オブジェクト管理部230は、実物体30のモデルごとに車両の画像情報を管理してもよい。
続いて、本実施形態に係るユーザ管理部220が管理するユーザ(情報処理装置10)に関する情報について説明する。図8は、ユーザ管理部220が管理するユーザ情報の一例である。図8を参照すると、ユーザ管理部220は、ユーザの識別情報と位置情報に関連付けて、チーム、体力、攻撃力、及びランキングに関する情報を記憶している。
チームは、ユーザの所属するゲーム上の勢力を表している。図8に示す一例においては、AまたはBの2つのチームが設定されているが、チームは3つ以上あってもよいし、バトルゲームが個人ごとの獲得ポイントにより競われる場合は設定されなくてもよい。
体力及び攻撃力は、ユーザのステータス情報を示す。体力は、バトル相手からの反撃により削られ、0以下になるとユーザの敗北が決定する。攻撃力は、上述したように、攻撃対象となる実物体30の獲得難易度の値を奪う強さを示す。
ランキングは、ゲーム内におけるユーザの順位を示す値である。ランキングはユーザごとの獲得ポイントを基に定められる。また、ランキングは、チーム内における獲得ポイントの個人ランキングであってもよいし、すべてのチームにおける獲得ポイントの個人ランキングであってもよい。
以上、本実施形態に係るユーザ管理部220が管理するユーザ(情報処理装置10)に関する情報について説明した。なお、ユーザ管理部220で管理される上記の情報は、複数のテーブルに分散されて記憶されてもよい。また、上記に示す以外の情報が併せて管理されてもよい。例えば、ユーザ管理部220は、ユーザの防御力や命中率などのステータスをさらに管理し、ゲームに複雑性を持たせてもよい。
[2.3.バトルゲームに係る情報の表示制御]
以上、本実施形態に係るバトルゲームの概要について説明した。続いて、バトルゲームに係る情報の表示制御について、説明する。図9は、情報処理装置10を介して、ユーザが得る視覚情報を示している。図9を参照すると、ユーザは、実物体30a〜30cを含む現実空間の情報と、表示制御部140により制御されるタグ表示T11〜T13及びウィンドウW11〜W14と、を知覚している。本例では、実物体30a〜30cは移動する車両であり、位置情報をサーバ20に送信している。
また、タグ表示T11〜T13は実物体30a〜30cにそれぞれ関連付いたタグ表示を示している。タグ表示T11〜T13は、表示制御部140により制御される。なお、表示制御部140は、実物体30a〜30cの位置情報の変化をサーバ20から取得し、タグ表示T11〜T13の表示位置を制御してもよい。また、表示制御部140は、センサ部160から取得した実物体30a〜30cに関する情報を基に、SLAMなどの画像認識技術を用いて、タグ表示T11〜T13の表示位置を制御してもよい。
ここで、図9に示されるタグ表示T11〜T13について、詳細に説明する。タグ表示T11〜T13は、実物体30に関連付いたタグ情報を基に生成されている。タグ表示T11を参照すると、実物体30aの所有者、レア度、難易度、及び自由タグ、がテキスト情報として表示されている。ユーザは上記の各情報を確認することで、実物体30aに対し攻撃を仕掛けるか、を判断できる
次に、タグ表示T12を参照すると、タグ表示T12には、タグ表示T11と同一の項目が表示されているが、タグ表示T12の背景は、タグ表示T11とは異なる形式で表示されている。上記のように、表示制御部140は、実物体30に関連付いたタグ情報に応じて、タグ表示の表示形式を変化させてもよい。本例においては、表示制御部140は、実物体30に設定されたレア度に応じて、タグ表示の表示形式を制御している。タグ表示T11及びT12を比較すると、実物体30aのレア度がDであるのに対し、実物体30bのレア度はAであることがわかる。ユーザは、タグ表示T12の表示形式を確認することで、実物体30bのレア度が高いことを直観的に認識できる。タグ表示の表示形式には、色、形状、大きさ、またはパターンなどが含まれてもよい。
次に、タグ表示T13を参照すると、タグ表示T11及びT12とは異なり、「戦闘中!」、というテキスト情報が表示されている。本例において、当該メッセージは、実物体30cが他のユーザにより攻撃を受けている(バトル中である)ことを示している。上記のように、表示制御部140は、サーバ20から実物体30に係る処理の状況を取得して、タグ表示を制御できる。また、表示制御部140は、図9に示すように、タグ表示T13の表示形式を制御することで、ユーザに、実物体30cが攻撃対象とならない旨を示してもよい。
また、本実施形態に係る表示制御部140は、ユーザの設定や状態などの各種の条件に応じて、表示させるタグ情報をフィルタリングする機能有してもよい。例えば、ユーザがタグ情報を表示させる条件として、所定のレア度を設定している場合、表示制御部140は、所定の値以上のレア度が関連付いた実物体30に係るタグ表示のみを表示させてもよい。
また、表示制御部140は、センサ部160が取得したユーザの情動に関する情報に基づいて、表示させるタグ情報をフィルタリングさせてもよい。例えば、ユーザの情動に関する情報がユーザの興奮状態を示す場合、表示制御部140は、色が赤い車両に関連付いたタグ情報のみを表示させるように制御してもよい。なお、ユーザの情動に関する情報は、例えば、ユーザの心拍数、血圧、眼球運動に関する情報などを含んでもよい。
続いて、図9に示されるウィンドウW11〜W14について、詳細に説明する。ウィンドウW11〜W14は、バトルゲームに関する情報をユーザに提示するためのエリアである。ウィンドウW11には、ユーザに対するアプリケーションからのメッセージが表示される。本例において、ウィンドウW11には、ユーザが所有する実物体30が他のユーザにより攻撃されている旨、が表示されている。上記のように、表示制御部140は、サーバ20から取得した各種の情報を、実物体30に関連付いたタグ表示とは区別して表示させることができる。
ウィンドウW12は、情報処理装置10及び実物体30の位置情報を地図上に表示するエリアである。本例では、情報処理装置10の位置(ユーザの位置)が黒い丸、実物体30の位置が白い三角形または白い星型のマークで示されている。ここで、表示制御部140は、実物体30のレア度に応じて、実物体30を示すマークを変化させてもよい。例えば、実物体30のレア度が所定のレア度以上であるとき、表示制御部140は、実物体30を白い星型のマークとして、地図上に表示させてもよい。また、表示制御部140は、サーバ20から取得した実物体30以外の情報を地図上に表示するよう制御することもできる。本例においては、バトルゲーム内で使われるアイテムがハート型のマークで地図上に示されている。バトルゲーム内で使われるアイテムとは、例えば、ユーザの体力を回復させるものであってもよい。
ウィンドウW13は、ユーザの体力や攻撃力などのステータス、ランキングなどのユーザ(情報処理装置10)に関する情報を表示するためのエリアである。表示制御部140は、サーバ20から取得したユーザに関する各種の情報を、ウィンドウW13に表示させることができる。なお、本例においては、ユーザの体力がHP、攻撃力がATKとして表されている。表示制御部140は、ユーザが所属するチームに関する情報をサーバ20から取得し、ウィンドウW13に表示させてもよい。
ウィンドウW14は、バトルゲームに係る各種の制御画面に遷移するためのアイコンの一例である。このように、表示制御部140は、ユーザがバトルゲームに係る処理を行うための表示インターフェースを制御してもよい。なお、バトルゲームに係る各種の制御画面には、ユーザ情報の設定画面や他のユーザとのコミュニケーションを行うための画面などが想定される。
以上、説明したとおり、同実施形態に係る表示制御部140は、実物体30に関連付いたタグ情報の他、ユーザ(情報処理装置10)に関する情報や、バトルゲームに関する処理についての情報の表示を制御することができる。
[2.4.表示情報の簡素化]
続いて、表示制御部140による、表示情報の簡素化に係る制御について説明する。本実施形態に係る表示制御部140は、種々の条件に応じて、タグ情報を簡素化して表示する機能を有する。タグ情報を簡素化して表示することにより、ユーザが、実物体30に関連付いたタグ情報を直観的に捉えることが可能となる。表示制御部140は、例えば、アイコンや色の変化を用いて、表示情報の簡素化をはかってもよい。
以降、図10を参照して、表示制御部140による、表示情報の簡素化について詳細に説明する。図10には、図9で示した例と同様に、実物体30a〜30cを含む現実空間の情報と、表示制御部140により制御されるタグ表示T11〜T13及びウィンドウW11〜W14が示されている。
図9及び図10を比較すると、図10におけるタグ表示T11〜T13及びウィンドウW11〜W14は、図9におけるタグ表示T11〜T13及びウィンドウW11〜W14と比べ、情報が簡素化されていることがわかる。本実施形態に係る実物体30は移動する車両であり、また、タグ表示は実物体30の位置情報の変化に追従して表示される。このため、実物体30の移動速度が速い場合、ユーザがタグ表示の内容を確認する前に、実物体30及びタグ表示がユーザの視界から消失してしまう可能性がある。
本実施形態に係る表示制御部140は、上記の状況を考慮して、実物体30の移動速度に基づいて、タグ表示を簡素化して表示させることができる。ここで、実物体30の移動速度は、サーバ20が実物体30の位置情報の変化から算出した値であってもよいし、情報処理装置10が、センサ部160から取得した実物体30に係る情報から算出した値であってもよい。
図10を参照すると、タグ表示T11には、実物体30aに関連付いた難易度の数字を示す、350、のみが表示されている。また、タグ表示T12には、タグ表示T11と同様に、実物体30bの難易度の数字を示す、1000、が表示されているのに加え、星型のアイコンがあわせて表示されている。本例では、星型のアイコンは実物体30bのレア度が高いことを示している。また、タグ表示T13には、戦闘中である旨のテキスト表示に代わり、戦闘を示すアイコンが表示されている。上記のように、表示制御部140は、表示させる情報量を簡素化しながらも、直観的にユーザに情報を伝えるように、タグ表示を制御することが可能である。また、表示制御部140は、タグ表示の色を変化させることで、情報の簡素化を図ってもよい。表示制御部140は、例えば、獲得難易度の値に応じて、タグ表示の色を変化させてもよい。当該制御を行うことで、ユーザは、タグ表示中の文字を視認できない場合でも、タグ表示の色で、タグ情報の内容を識別することができる。
なお、表示制御部140は、ユーザ(情報処理装置10)の移動速度に基づいて、表示させる情報を簡素化させることもできる。当該制御を行うことで、ユーザが知覚する現実空間の視覚情報に与える影響をより小さく抑え、ユーザの移動時における安全性を確保することができる。この際、表示制御部140は、タグ表示T11〜T13と同様に、ウィンドウW11〜W14を簡素化して表示させてもよい。また、ウィンドウW11〜W14の表示位置は、ユーザの視界の隅に移動するように制御されてもよい。ユーザ(情報処理装置10)の移動速度は、センサ部160から取得される情報に基づいて算出され得る。
さらに、表示制御部140は、実物体30に関連付いたタグ情報の情報量を考慮して、表示させる情報を簡素化させることもできる。例えば、認識する実物体30の数が多い場合、関連付いたタグ情報の数が多い場合、タグ情報の情報量が大きい場合、などに、表示制御部140は、タグ表示を簡素化して表示させてもよい。
[2.5.攻撃対象となる実物体30の特定]
以上、本実施形態に係る表示制御部140による情報の表示制御について述べた。続いて、図11を参照して、本実施形態のバトルゲームに係る、攻撃対象となる実物体30の特定について、説明する。
本実施形態に係るバトルゲームでは、移動する車両である実物体30に関連付いたタグ表示を確認したユーザが、実物体30に対する攻撃を仕掛けることで、バトルが開始される。本実施形態に係る表示制御部140は、センサ部160から取得した情報に基づいて、攻撃対象となる実物体30を特定する機能を有する。
本実施形態に係る表示制御部140は、センサ部160が含むセンサの種類に応じた種々の方法により、対象となる実物体30を特定することができる。例えば、センサ部160がマイクロフォンを含む場合、表示制御部140は、音声認識により、対象となる実物体30を特定してもよい。この際、入力される音声情報は、ユーザによる、実物体30を所有するユーザ名や実物体30のモデル名の読み上げであってもよい。また、センサ部160が、タッチパネルなどの入力デバイスにおけるユーザからの入力を検出する場合、表示制御部140は、当該入力情報により対象となる実物体30を特定してもよい。
また、センサ部160が、ユーザの視線情報を検出する場合、表示制御部140は、当該ユーザの視線情報に基づいて、対象となる実物体30を特定してもよい。この際、表示制御部140は、ユーザの視線が所定の時間以上、実物体30に定まっていることに基づいて、当該実物体30を対象として特定することができる。また、センサ部160が、ユーザのジェスチャを検出する場合、表示制御部140は、当該ユーザのジェスチャ情報に基づいて、対象となる実物体30を特定してもよい。例えば、表示制御部140は、ユーザの指が所定の時間以上、実物体30を指していることに基づいて、当該実物体30を対象として特定することができる。
さらには、表示制御部140は、ユーザの視線情報及びジェスチャ情報の両方に基づいて、対象となる実物体30を特定してもよい。図11は、ユーザの視線情報及びジェスチャ情報に基づいた実物体30の特定について、説明するための図である。
図11に示す一例において、ユーザP11は、実物体30aに対し視線を定めている。ここで、視線Eは、ユーザP11の視線を表す。また、視線Eの先には、ガイドG11が示されている。ガイドG11は、表示制御部140が、センサ部160が検出したユーザの視線Eの情報に基づいて制御する、ユーザへの付加情報である。ユーザP11は、ガイドG11を確認し、ガイドG11に重なるように指F1を動かすジェスチャを行うことで、対象として特定したい実物体30aを指定する。ここで、表示制御部140は、視線Eの方向上に指F1が重なっていることに基づいて、実物体30aを対象として特定することができる。上記で説明したように、ユーザの視線情報及びジェスチャ情報の両方を用いることで、表示制御部140は、より精度の高い対象の特定を実現できる。
[2.6.実物体30の特定に係る表示制御]
次に、図12を参照して、攻撃対象となる実物体30の特定に係る表示制御について説明する。本実施形態に係る表示制御部140は、攻撃対象となる実物体30を特定すると、実物体30のアバターとしての役割を果たすタグ表示を新たに表示させる。また、表示制御部140は、実物体30の特定後、実物体30に関連付いたタグ表示が、実物体30を追従しないように制御する。すなわち、表示制御部140は、当該タグ表示の表示位置を、実物体30を特定した際の状態に維持させる。本実施形態に係る実物体30は、移動する車両であるため、対象として特定した後にも移動を続け、ユーザの視界から消失する可能性がある。このため、表示制御部140は、攻撃対象となる実物体30を特定した際に、アバターの役割を果たす新たなタグ表示を表示させることで、以降の実物体30の移動にかかわらず、ユーザがバトルを続行することを可能にする。
図12は、図9の示す状況において、実物体30aが、攻撃対象として特定された状態を示している。図12を参照すると、実物体30a及び30bの位置が、図9の状態から変化していることがわかる。また、図9に示されていた実物体30cは、ユーザの視界から消失している。
さらに、図12には、図中の中央に、新たなタグ表示T14が表示されている。タグ表示T14は、攻撃対象として特定された実物体30aのアバターとしての役割を果たすタグ表示である。アバターの役割を果たすタグ表示T14は、図12に示されるように、実物体30aに変形やデフォルメを加えたイメージで表示されてもよい。また、タグ表示T14は、ユーザからの攻撃や、バトル相手からの反撃に応じた変化を行うアニメーションとして表示されてもよい。表示制御部140は、サーバ20のオブジェクト管理部に記憶される情報を取得して、タグ表示T14として表示させることができる。また、タグ表示T14は、情報処理装置10により撮影された実物体30aの画像を基に加工されたイメージであってもよい。
また、図12に示すように、表示制御部140は、実物体30aに関連付いたタグ表示T11を実物体30aの移動に追従させず、アバターの役割を果たすタグ表示T14に対応づけて表示させる。また、この際、表示制御部140は、実物体30aを対象として特定する前と比べ、タグ表示T11に表示させる内容を増加させてもよい。図12に示す一例では、タグ表示T11には、高級度、メーカ、及びモデルに関するタグ情報が追加で表示されている。また、表示制御部140は、攻撃対象として特定した実物体30a以外の実物体に関連付いたタグ表示を行わないように制御してもよい。また、表示制御部140は、ウィンドウW11に実物体30aが攻撃対象として特定された旨を表示させてもよい。
[2.7.バトルに係る入力の制御]
次に、図13を参照して、本実施形態のバトルに係る入力の制御について、説明する。本実施形態のバトルに係る入力は、入力制御部150により制御される。具体的には、入力制御部150は、バトル中における攻撃の入力や、バトル終了後におけるタグ情報の設定を制御する。本実施形態に係る入力制御部150は、センサ部160から取得した情報に基づいて、各種の入力制御を行う。
図13は、入力制御部150がユーザのジェスチャを入力情報として認識する例を示している。図13には、アバターとしてのタグ表示T14と、タグ表示T14を取り囲むユーザの指F1、及びタグ表示T11の周囲に表示されるガイドG12が示されている。ガイドG12は、表示制御部140により制御される、ユーザへの付加情報を示す。
入力制御部150は、センサ部160が検出したユーザのジェスチャに基づいて、ユーザからのバトルコマンドを認識することができる。ここで、バトルコマンドは、予め定められたジェスチャによる、実物体30に対する攻撃指示や、バトル相手からの反撃に対する防御指示であってもよい。図13に示す一例では、入力制御部150は、タグ表示T14を囲うジェスチャを、攻撃指示として認識している。
入力制御部150は、ユーザからのバトルコマンドを認識すると、当該バトルコマンドの内容を、通信部110を介してサーバ20に送信する。また、この際、入力制御部150は、認識したバトルコマンドの情報を表示制御部140に引き渡してもよい。表示制御部140は、当該バトルコマンドの内容に応じて、ガイドG12を含む表示の制御を行うことができる。また、表示制御部140は、バトルコマンドが認識された旨を、ウィンドウW11に表示させてもよい。
なお、図13では、入力制御部150が、ユーザのジェスチャ情報を基にバトルコマンドを認識する例を示したが、入力制御部150は、ジェスチャ以外の情報を基にバトルコマンドを認識してもよい。入力制御部150は、例えば、センサ部160が取得したユーザの音声情報を基に、バトルコマンドを認識してもよい。本実施形態に係る入力制御部150によるバトルコマンドの認識は、センサ部160が取得する情報に応じて、適宜変更され得る。
以上、本実施形態に係るバトルコマンドの認識について、説明した。続いて、入力制御部150による、バトル終了後のタグ情報の設定について述べる。本実施形態に係るバトルゲームでは、バトルの終了後、バトルに勝利したユーザが、実物体30に関連付けるタグ情報として、自由タグや、新たな獲得難易度を設定することができる。
バトルコマンドの認識と同様に、入力制御部150は、センサ部160が検出したユーザからの入力情報に基づいて、自由タグや獲得難易度の設定を行うことができる。例えば、入力制御部150は、ユーザの音声情報を基に上記のタグを設定してもよい。
また、本実施形態に係る入力制御部150は、ユーザが設定するタグ情報の内容を推定し、新たなタグ情報として設定してもよい。入力制御部150は、例えば、ユーザが過去に設定したタグ情報の傾向、ユーザのジェスチャ情報、及びセンサ部160が取得したユーザの情動に関する情報、などを基に、設定するタグ情報の内容を推定してもよい。ユーザが過去に設定したタグ情報の傾向を基にタグ情報を推定する場合、入力制御部150は、記憶部120から当該情報を取得し、推定を実施することができる。また、ユーザの情動に関する情報は、ユーザの心拍数、血圧、眼球運動などの情報を含んでもよい。
また、入力制御部150は、設定するタグ情報を複数パターン推定し、ユーザに設定候補として提示してもよい。この場合、入力制御部150は、ユーザが選択したパターンに該当する内容を、新たなタグ情報として設定し、対象管理部130に引き渡してもよい。対象管理部130は、入力制御部150から引き受けたタグ情報を、対象となる実物体30と関連付けて、サーバ20に送信する。
[2.8.第1の実施形態に係る制御の流れ]
以上、本実施形態に係るバトルゲームにおける情報処理装置10、サーバ20、及び実物体30の特徴について述べた。続いて、図14〜図18を参照して、同実施形態のバトルゲームに係る制御の流れについて説明する。なお、以下の説明において、情報処理装置10、サーバ20、及び実物体30の間の通信は、各装置が備える通信部110、210、及び310を介して行われるものとし、図示及び説明中の記載を省略する。
(ユーザ情報の新規登録の流れ)
まず、図14を参照して、ユーザ(情報処理装置10)情報の新規登録の流れについて説明する。図14を参照すると、ユーザ情報の新規登録において、まず情報処理装置10の入力制御部150は、サーバ20の制御部250にユーザ情報の登録要求を行う(S5001)。この際、入力制御部150から送信される情報には、ユーザの個人情報や、情報処理装置10の位置情報などが含まれてもよい。続いて、サーバ20の制御部250は、取得したユーザ情報の登録要求に基づいて、ユーザ管理部220に対し、ユーザ情報の登録を要求する(S5002)。
制御部250からの要求を受けたユーザ管理部220は、制御部250から引き渡されたユーザに関する情報を、新規のIDと紐付けて、ユーザ情報の登録処理を行う(S5003)。続いて、ユーザ管理部220は、登録処理の結果を制御部250に返す(S5004)。制御部250は、ユーザ管理部220から取得した登録処理の結果が正常である場合、情報処理装置10にユーザ情報の登録通知を送信する(S5005)。なお、ユーザ管理部220から取得した登録処理の結果に異常が認められる場合、制御部250は、当該登録処理の結果に応じたメッセージを作成し、情報処理装置10に送信してもよい。
(実物体30の新規登録の流れ)
引き続き、図14を参照して、実物体30の情報の新規登録の流れについて説明する。図14を参照すると、実物体30の新規登録において、まず実物体30の位置情報取得部320は、サーバ20の制御部250に実物体30の登録要求を行う(S5011)。この際、位置情報取得部320から送信される情報には、実物体30のメーカやモデルに関する情報、実物体30の位置情報などが含まれてもよい。続いて、サーバ20の制御部250は、取得した実物体30の登録要求に基づいて、オブジェクト管理部230に対し、実物体30の登録を要求する(S5012)。
制御部250からの要求を受けたオブジェクト管理部230は、制御部250から引き渡された実物体30に関する情報を、新規のIDと紐付けて、実物体30の登録処理を行う(S5013)。続いて、オブジェクト管理部230は、登録処理の結果を制御部250に返す(S5014)。制御部250は、オブジェクト管理部230から取得した登録処理の結果が正常である場合、実物体30に登録通知を送信する(S5015)。なお、オブジェクト管理部230から取得した登録処理の結果に異常が認められる場合、制御部250は、当該登録処理の結果に応じたメッセージを作成し、実物体30に送信してもよい。
(情報処理装置10の位置情報更新の流れ)
次に、図15を参照して、情報処理装置10の位置情報の更新に係る流れを説明する。まず、情報処理装置10の対象管理部130は、サーバ20の制御部250に位置情報の更新を要求する(S5021)。次に、制御部250は、取得した要求に基づいて、ユーザ管理部220に対し、情報処理装置10の位置情報の更新を要求する(S5022)。
要求を受けたユーザ管理部220は、制御部250から引き渡された情報処理装置10の新たな位置情報に基づいて、情報処理装置10の位置情報を更新する(S5023)。続いて、ユーザ管理部220は、更新処理の結果を制御部250に返し処理を終了する(S5024)。なお、ユーザ管理部220から取得した更新処理の結果に異常が認められる場合、制御部250は、当該更新処理の結果に応じたメッセージを作成し、情報処理装置10に送信してもよい。
(実物体30の位置情報更新の流れ)
引き続き、図15を参照して、実物体30の位置情報の更新に係る流れを説明する。まず、実物体30の位置情報取得部320は、サーバ20の制御部250に位置情報の更新を要求する(S5031)。次に、制御部250は、取得した要求に基づいて、オブジェクト管理部230に対し、実物体30の位置情報の更新を要求する(S5032)。
要求を受けたオブジェクト管理部230は、制御部250から引き渡された実物体30の新たな位置情報に基づいて、実物体30の位置情報を更新する(S5033)。続いて、オブジェクト管理部230は、更新処理の結果を制御部250に返し処理を終了する(S5034)。なお、オブジェクト管理部230から取得した更新処理の結果に異常が認められる場合、制御部250は、当該更新処理の結果に応じたメッセージを作成し、実物体30に送信してもよい。
(タグ情報の取得の流れ)
次に図16を参照して、実物体30に関連付いたタグ情報の取得の流れについて説明する。まず、情報処理装置10の対象管理部130は、サーバ20のタグ紐付部240に対し、実物体30の情報リストを要求する(S5041)。次に、タグ紐付部240は取得した要求に基づいて、ユーザ管理部220に、ユーザ情報の取得を要求する(S5042)。要求を受けたユーザ管理部220は、タグ紐付部240から引き渡されたユーザの識別情報に基づいて、ユーザ情報の検索を行う(S5043)。続いて、ユーザ管理部220は、取得したユーザ情報をタグ紐付部240に引き渡す(S5044)。
次に、タグ紐付部240は、取得したユーザ(情報処理装置10)の位置情報に基づいて、オブジェクト管理部230に、実物体30に関する情報の取得を要求する(S5045)。要求を受けたオブジェクト管理部230は、タグ紐付部240から引き渡された情報処理装置10の位置情報に基づいて、情報処理装置10の近隣に存在する実物体30の情報を検索する(S5046)。続いて、オブジェクト管理部230は、取得した実物体30の情報をタグ紐付部240に引き渡す(S5047)。
次に、実物体30の情報を取得したタグ紐付部240は、取得した実物体30の情報リストを情報処理装置10の対象管理部130に送信する(S5048)。なお、オブジェクト管理部230から取得した実物体30の情報取得結果に異常が認められる場合、制御部250は、当該情報取得結果に応じたメッセージを作成し、情報処理装置10に送信してもよい。次に、対象管理部130は、取得した実物体30の情報リストを表示制御部140に引き渡し(S5049)、処理を終了する。
以上、実物体30に関連付いたタグ情報の取得の流れについて説明した。上記のように、サーバ20は、情報処理装置10の位置情報に基づいて、当該情報処理装置10の近隣に存在する実物体30の情報を取得することができる。当該処理により、サーバ20が情報処理装置10に送信する実物体30の情報量を低減する効果が期待できる。
(バトル制御の流れ)
次に、図17を参照して、本実施形態に係るバトル制御の流れについて説明する。まず、実物体30に攻撃を仕掛けるユーザ(攻撃者)は、情報処理装置10aにバトルの開始を指示する入力を行う。バトルの開始指示を認識した情報処理装置10aの入力制御部150は、サーバ20の制御部250に、バトルの開始を要求する(S5051)。
次に、制御部250は、ユーザ管理部220に対し、攻撃者及び攻撃対象とされた実物体30の所有者に関する情報の取得を要求する(S5052)。要求を受けたユーザ管理部220は、制御部250から引き渡されたユーザの識別情報を基に、当該ユーザの情報を検索する(S5053)。この際、取得されるユーザ情報には、攻撃者及び所有者のステータス情報が含まれる。続いて、ユーザ管理部220は、取得したユーザ情報を制御部250に返す(S5054)。
次に、制御部250は、オブジェクト管理部230に、攻撃対象とされた実物体30の情報の取得を要求する(S5055)。要求を受けたオブジェクト管理部230は、制御部250から引き渡された実物体30の識別情報を基に、当該実物体30の情報を検索する(S5056)。この際、取得される情報には、実物体30に関連付いた獲得難易度やレア度が含まれる。続いて、オブジェクト管理部230は、取得した実物体30に関する情報を制御部250に返す(S5057)。
ユーザ情報及び実物体30に関する情報の取得が正常に完了した場合、制御部250は、攻撃者及び所有者の有する情報処理装置10の表示制御部140に、バトルの開始を通知する(S5058a及びS5058b)。次に、攻撃者の有する情報処理装置10aの入力制御部150は、ユーザの入力に基づいて攻撃指示を認識し、サーバ20の制御部250に攻撃処理を依頼する(S5059)。攻撃依頼を受けた制御部250は、当該攻撃に基づいたバトル判定を実施する(S5060)。具体的には、制御部250は、攻撃者の攻撃力に乱数を掛けた値を、攻撃対象とされた実物体30の獲得難易度から減算する処理を実施する。ここでは、当該処理後に、実物体30の獲得難易度が0以下にならなかった場合を想定して、説明を続ける。
続いて、制御部250は、上記のバトル判定の結果を、攻撃者及び所有者の情報処理装置10の表示制御部140に送信する(S5061a及びS5061b)。次に、所有者の有する情報処理装置10bの表示制御部140は、ユーザの入力に基づいて攻撃指示を認識し、サーバ20の制御部250に攻撃処理を依頼する(S5062)。なお、ここで、所定の時間内に情報処理装置10bからの攻撃依頼が確認できない場合、制御部250は、当該攻撃依頼を待たずに、以降の処理を行ってもよい。制御部250が上記のように処理を行うことで、所有者がバトルゲームに参加できない場合でも、攻撃者はゲームを続行することができる。
次に、攻撃依頼を受けた制御部250は、当該攻撃に基づいたバトル判定を実施する(S5063)。具体的には、制御部250は、所有者の攻撃力に乱数を掛けた値を、攻撃者の体力から減算する処理を実施する。ここでは、当該処理後に、攻撃者の体力が0以下にならなかった場合を想定して、説明を続ける。
続いて、制御部250は、上記のバトル判定の結果を、攻撃者及び所有者の情報処理装置10の表示制御部140に送信する(S5064a及びS5064b)。以降、攻撃者の体力または実物体30の獲得難易度のいずれかが0以下となるまで、上記で説明したステップS5059〜S5063が繰り返し処理される。
(バトル終了後におけるタグ情報設定の流れ)
次に、図18を参照して、バトル終了後におけるタグ情報設定の流れについて、説明する。バトルが終了すると、サーバ20の制御部250は、バトルの結果に基づいて、ユーザ情報を更新するよう、ユーザ管理部220に要求する(S5071)。具体的には、制御部250は、バトルに伴って消耗した攻撃者の体力を更新するように、ユーザ管理部220に要求する。また、制御部250は、バトルの勝利者の体力及び攻撃力を加算するように要求する。この際、体力及び攻撃力の加算値は、攻撃対象とされた実物体30の獲得難易度やレア度に基づいて算出されてもよい。
要求を受けたユーザ管理部220は、制御部250から引き渡された情報を基に、ユーザ情報を更新する(S5072)。続いて、ユーザ管理部220は、制御部250に、ユーザ情報の更新結果を返す(S5073)。この際、制御部250は、更新の結果に応じたメッセージを作成し、攻撃者及び所有者の有する情報処理装置10に送信してもよい。
次にバトルの勝利者は、実物体30に関連付けるタグ情報の設定を行う。ここでは、攻撃者がバトルに勝利したものして説明する。バトルの勝利者である攻撃者は、実物体30に関連付ける新たな獲得難易度及び自由タグを情報処理装置10aに入力する。当該入力を認識した入力制御部150は、認識した内容に基づくタグ情報の設定を、対象管理部130に引き渡す(S5074)。ここで、入力制御部150は、過去の傾向やセンサ部160から取得した情報を基に新たなタグ情報を推定し、対象管理部130に引き渡してもよい。入力制御部150がタグ情報の推定を行うことで、ユーザの入力負担を軽減することができる。対象管理部130は、入力制御部150から引き渡されたタグ情報と、対象となる実物体30と、を関連付けて、サーバ20の制御部250にタグ情報の設定を要求する(S5075)。
タグ設定の要求を受けた制御部250は、要求の内容に基づいて、実物体30の情報を更新するように、オブジェクト管理部230に要求する(S5076)。オブジェクト管理部230は、制御部250から引き渡された情報を基に、実物体30の情報を更新する。具体的には、オブジェクト管理部230は、制御部250から引き渡された情報に基づいて、実物体30の新たな獲得難易度、自由タグ、及び所有者を設定する(S5077)。続いて、オブジェクト管理部230は、更新処理の結果を制御部250に返す(S5078)。制御部250は、オブジェクト管理部230から取得した更新処理の結果が正常である場合、表示制御部140に、実物体30の更新通知を送信する(S5079)。なお、オブジェクト管理部230から取得した設定処理の結果に異常が認められる場合、制御部250は、当該更新処理の結果に応じたメッセージを作成し、表示制御部140に送信してもよい。
[2.9.第1の実施形態のまとめ]
以上、本開示の第1の実施形態に係るバトルゲームについて説明した。上記で説明したように、本実施形態に係るバトルゲームは、移動する実物体30をターゲットとした、争奪ゲームである。ユーザは、情報処理装置10を介して、実物体30に関連付いたタグ表示を確認し、攻撃指示などの処理を行うことができる。また、ユーザは、実物体30に新たなタグ情報を設定することができる。
なお、本実施形態においては、実物体30を移動する車両を例に説明したが、本実施形態に係る実物体30は係る例に限定されない。本実施形態に係る実物体30は、電車や飛行機であってもよいし、位置情報をサーバ20に送信する装置を備えた動物であってもよい。上記で説明した情報処理装置10、サーバ20、及び実物体30の有する機能により、本実施形態のバトルゲームは、適宜変更され得る。
<3.第2の実施形態>
[3.1.第2の実施形態に係る爆弾ゲームの概要]
次に、図19を参照して、本開示の第2の実施形態に係る爆弾ゲームについて、説明する。本実施形態に係る爆弾ゲームは、実物体30に、タグ情報として、カウントダウンする時間情報を設定することで、当該実物体30を時限爆弾として機能させる対戦ゲームである。
実物体30は、関連付いた時間情報がカウントダウンにより尽きたとき、爆発を起こす想定であり、当該爆発の際、所定の範囲内にいるユーザは、爆発に巻き込まれたとして、ゲームから脱落する。ユーザは、実物体30が爆発する前に、当該実物体30を移動させることで、爆発を免れたり、敵チームのユーザが爆発に巻き込まれるように仕掛けたりすることができる。以下の説明においては、第1の実施形態との差異について重点的に説明し、共通する情報処理装置10、サーバ20、及び実物体30の機能については、説明を省略する。
[3.2.第2の実施形態に係る爆弾ゲームの詳細]
第2の実施形態に係る実物体30は、ユーザにより移動され得る物体として定義される。本実施形態に係る実物体30は、例えば、位置情報をサーバ20に送信する装置を備えた、椅子や本、ボールであってもよい。ユーザは2つのチームに分かれ、相手チームのユーザを爆発に巻き込むことを目的に、実物体30を移動し合う。ゲームに用いられる実物体30は、複数個あってもよい。
図19は、本実施形態に係る爆弾ゲームにおいて、ユーザが情報処理装置10を介して得る視界情報のイメージ図である。図19を参照すると、ユーザは、実物体30dや人物P21及びP22を含む現実空間の情報と、表示制御部140により制御されるタグ情報T21〜T25及びウィンドウW21〜W22と、を知覚している。
図19に示す一例では、実物体30dは椅子として示されている。また、実物体30dには、タグ表示T21が関連付いている。タグ表示21は、実物体30dに関連付いた時間情報を基に、表示制御部140により制御されている。本例において、タグ表示T21は、爆弾を模したイメージで表示されており、イメージ上には数字の3が示されている。当該数字は爆発までの秒数を示すものであり、ユーザは当該数字を確認することで、実物体30dの爆発までの残り時間を把握することができる。
また、実物体30dには、爆発の範囲を示すタグ表示T25が関連付いている。表示制御部は、実物体30に関連付いた爆発範囲に関するタグ情報を基に、タグ表示T25の表示制御を行う。
人物P21及びP22は、ゲームの参加者を示す。人物P21及びP22には、所属するチームを示すタグ表示T22及びT23がそれぞれ関連付いている。また、人物P21には、「Danger!」、というテキスト情報によるタグ表示T24が関連付いている。タグ表示T24は、実物体30dの爆発範囲内に位置するユーザに警告を示すタグ表示である。このように、本実施形態に係る爆弾ゲームでは、情報処理装置10を所持した人物を、実物体30として扱うこともできる。
ウィンドウW21及びW22は、ユーザに対しゲームに関する各種の情報を提示するためのエリアである。図19に示す一例においては、ウィンドウW21には、他のユーザが爆発に巻き込まれた旨のメッセージが表示されている。また、ウィンドウW22には、チームごとの生存者数が表示されている。表示制御部140は、サーバ20から取得した情報を基に、ウィンドウW21及びW22の表示を制御する。
実物体30dに関連付いた時間情報がカウントダウンにより尽きると、サーバ20の制御部250は、ユーザ管理部220からゲームに参加するユーザの位置情報を取得し、実物体30dに関連付いた爆発範囲に関するタグ情報を基に、各ユーザの当たり判定を行う。また、制御部250は、ユーザが爆発に巻き込まれた数に応じて、実物体30dの爆発範囲を広げる処理を行ってもよい。制御部250は、上記の処理を繰り返し、いずれかのチームの生存ユーザが0人になったことにも基づいて、ゲームを終了させる。
[3.3.第2の実施形態のまとめ]
以上、本開示の第2の実施形態に係る爆弾ゲームについて説明した。上記で説明したように、本実施形態に係る爆弾ゲームは、ユーザによって移動され得る実物体30を爆弾に見立てる、対戦ゲームである。本実施形態に係る爆弾ゲームでは、情報処理装置10を所持するユーザを、実物体30として扱うことができる。
なお、本実施形態においては、実物体30を、椅子を例に説明したが、本実施形態に係る実物体30は係る例に限定されない。本実施形態に係る実物体30は、ユーザにより投げ合われるボールであってもよい。本実施形態に係る爆弾ゲームは、実物体30としてボールを用いることで、爆発範囲を伴う雪合戦のようなゲームに応用されてもよい。
<4.第3の実施形態>
[4.1.第3の実施形態に係る収集ゲームの概要]
次に、図20を参照して、本開示の第3の実施形態に係る収集ゲームについて、説明する。本実施形態に係る収集ゲームは、対象となる実物体30を認識することでポイントを収集するゲームである。ユーザは種々の実物体30を認識することで、実物体30に関連付いたポイントを獲得することができる。ユーザは、獲得したポイントの合計や、所定のポイントを獲得するまでの時間などを競いあってもよい。以下の説明においては、第1及び第2の実施形態との差異について重点的に説明し、共通する情報処理装置10、サーバ20、及び実物体30の機能については、説明を省略する。
[4.2.第3の実施形態に係る収集ゲームの詳細]
図20は、本実施形態に係る収集ゲームにおいて、ユーザが情報処理装置10を介して得る視界情報のイメージ図である。図20を参照すると、ユーザは、実物体30e〜30gを含む現実空間の情報と、表示制御部140により制御されるタグ情報T31〜T33及びウィンドウW31〜W33と、を知覚している。
図20に示す一例において、収集の対象となる実物体30e〜30gは、それぞれ車両、飛行機、電車として示されている。また、実物体30e〜30gには、それぞれポイント情報に関するタグ表示T31〜T33が関連付いて表示されている。また、実物体30fに関連付いたタグ表示T32は、他のタグ表示T31及びT33とは異なる表示形式で表示されている。このように、表示制御部140は、実物体30に関連付いたポイントの高さに基づいて、タグ表示の表示形式を制御してもよい。
ウィンドウW31〜W33は、ユーザに対しゲームに関する各種の情報を提示するためのエリアである。図20に示す一例においては、ウィンドウW31には、他のユーザのポイント獲得状況に関するメッセージが表示されている。また、ウィンドウW32には、ユーザ(情報処理装置10)と実物体30との相対的な位置を示すイメージが表示されている。W32において、黒い丸はユーザの位置を表し、白い三角形及び星型のマークは、ユーザから見た実物体30の相対的な位置を表している。表示制御部140は、所定の値以上のポイントが関連付いた実物体30を、星型のマークで示してもよい。このように、第3の実施形態では、第1の実施形態とは異なり、あえて実物体30の曖昧な位置を示すことで、ゲームの難易度を上げることができる。また、ウィンドウW33には、ユーザが獲得したポイントの合計値が示されている。
本実施形態に係る収集ゲームでは、第1の実施形態で説明した実物体30の特定方法のほか、ユーザが実際に実物体30に乗車、搭乗したことに基づいて、獲得ポイントが加算されてもよい。この場合、サーバ20の制御部250は、実物体30の位置情報と、ユーザ(情報処理装置10)の位置情報と、の差が所定の値以下であるとき、ユーザが実物体30に乗車または搭乗した、と判断してもよい。また、実物体30に乗車または搭乗したユーザの所持する情報処理装置10が、近距離無線通信により実物体30からの識別情報を受信し、当該情報をサーバ20に送信してもよい。
獲得ポイントが実物体30への乗車または搭乗に基づいて加算される場合、サーバ20に登録されるユーザのうち、最も早く実物体30に乗車または搭乗したユーザに、高い獲得ポイントが与えられる、としてもよい。また、本実施形態に係る収集ゲームをチームに分かれて競う場合には、実物体30に同時に乗車または搭乗するユーザの数に応じて、獲得ポイントにボーナスが加算されてもよい。
さらに、本実施形態に係る収集ゲームは、企業のキャンペーンと連動することも可能である。例えば、ユーザは連携を行う企業の営業車を所定の数以上、特定することで、通常よりも高い獲得ポイントを得ることができる。また、ユーザは、獲得ポイントに加え、または獲得ポイントに代えて、他の特典を得ることができてもよい。ここで、他の特典とは、連携する企業の販売する製品であってもよいし、他のアプリケーションのコンテンツをダウンロードするためのキー情報などであってもよい。
[4.3.第3の実施形態のまとめ]
以上、本開示の第3の実施形態に係る収集ゲームについて、説明した。上記で説明したように、本実施形態に係る収集ゲームは、ユーザが実物体30を認識することで得られる獲得ポイントを競うゲームである。また、本実施形態に係る収集ゲームでは、ユーザが実際に実物体30に乗車または搭乗したことに基づいて、獲得ポイントを付与することもできる。
なお、本実施形態においては、実物体30を、車両、電車、飛行機などの乗り物を例に説明したが、本実施形態に係る実物体30は係る例に限定されない。本実施形態に係る実物体30は、例えば、位置情報をサーバ20に送信する装置を備えた動物であってもよい。実物体30として上記のような動物を利用することで、本実施形態に係る収集ゲームは、動物園などのイベントとして、催されてもよい。
<5.第4の実施形態>
[5.1.第4の実施形態に係る評価機能の概要]
次に、図21を参照して、本開示の第4の実施形態に係る評価機能について説明する。本実施形態に係る評価機能では、ユーザが情報処理装置10を介して、実物体30や実物体30の所有者に対する評価を行うこと、を特徴とする。また、ユーザは、情報処理装置10、サーバ20、及び実物体30を介して、他のユーザに対し、自分に関する事柄について評価を求めることができる。以下の説明においては、第1〜第3の実施形態との差異について重点的に説明し、共通する情報処理装置10、サーバ20、及び実物体30の機能については、説明を省略する。
[5.2.第4の実施形態に係る評価機能の詳細]
図21は、本実施形態に係る評価機能を利用する際に、ユーザが情報処理装置10を介して得る視界情報のイメージ図である。図21を参照すると、ユーザは、人物P41〜P43を含む現実空間の情報と、表示制御部140により制御されるタグ情報T41と、を知覚している。
図21に示す一例において、実物体30hは、人物P41が所有するウェアラブル型の装置として示されている。また、実物体30hには、タグ情報T41が関連付いている。このように、本実施形態に係る実物体30は、ユーザが所持する情報機器であってもよい。また実物体30は、情報処理装置10と同一の装置であってもよい。表示制御部140は、ユーザが所持する実物体30に関連付いたタグ表示を、当該実物体30に追従させることで、間接的にタグ表示をユーザに追従させることができる。
本実施形態に係るタグ表示には、実物体30または実物体30を所持するユーザの評価に関する情報が表示される。図21に示されるタグ表示T41には、「新しい服!」、というテキスト情報と、評価された人数を示す、「Good:15」、との2つの情報が表示されている。ここで、上記のテキスト情報は、実物体30hを所有する人物P41により設定されたタグ情報であってもよい。本実施形態に係る評価機能では、実物体30を所持するユーザが、当該実物体30に対しタグ情報を設定することで、他のユーザに対し、自分に関する事柄についての評価を求めることができる。
また、ユーザは、情報処理装置10を介して、他のユーザが設定した評価要求に関するタグ情報を確認し、評価を入力することができる。図21に示す一例においては、人物P42が情報処理装置10(図示しない)を介して、人物P41(実物体30h)に対する評価を行っている。なお、ユーザは評価時にコメントをタグ情報として付加することもできる。
また、本実施系形態に係る評価機能では、タグ表示のフィルタリングが、より詳細に行われてもよい。多くのユーザが評価機能を利用する場合、表示制御部140により制御されるタグ情報の量が膨大となり、ユーザが、確認したいタグ表示を確認することが困難となる。このため、ユーザは、興味のあるタグ情報のみを表示させるように、情報処理装置10を設定することができる。当該設定に関する情報は、記憶部120に記憶されてもよい。表示制御部140は、記憶部120に設定された情報に基づいて、表示させるタグ表示をフィルタリングすることができる。例えば、図21に示す例において、人物P43が所持する実物体30(図示しない)にタグ情報が関連付いている場合でも、当該タグ情報がユーザの設定した情報に該当しない場合、表示制御部140は、当該タグ情報を表示させないでよい。
また、表示制御部140は、実物体30との距離に基づいて、フィルタリングを実行してもよい。例えば、表示制御部140は、情報処理装置10の位置情報を基に、所定の距離に存在する実物体30に関連付いたタグ情報のみを表示させることができる。また、表示制御部140は、実物体30との距離に基づいて、タグ表示の情報量を制御してもよい。表示制御部140は、情報処理装置10と実物体30との距離が近いほど、より詳細な情報をタグ表示に含ませてもよい。
[5.3.第4の実施形態のまとめ]
以上、本開示の第4の実施形態に係る評価機能について説明した。上記で説明したように、本実施形態に係る評価機能を用いることで、ユーザが情報処理装置10を介して、実物体30や実物体30の所有者に対する評価を行うことができる。また、ユーザは、情報処理装置10、サーバ20、及び実物体30を介して、他のユーザに対し、自分に関する事柄について評価を求めることができる。
なお、本実施形態においては、個人が評価機能を利用する場合を例に説明したが、本実施形態に係る評価機能の利用は、係る例に限定されない。例えば、企業が本実施形態に係る評価機能を利用することで、消費者からの評価をリアルタイムに収集することも可能である。また、本実施形態に係る評価機能は、評価を行ったユーザに対して特典を与えるキャンペーンなどとの連携も想定される。
<6.第5の実施形態>
[6.1.第5の実施形態に係る言語案内の概要]
次に、図22を参照して、本開示の第5の実施形態に係る言語案内について、説明する。本実施形態に係る言語案内では、タグ情報のフィルタリング機能を利用することで、外国人旅行者などに対し、ユーザの言語に基づいた情報を提供することが可能となる。以下の説明においては、第1〜第4の実施形態との差異について重点的に説明し、共通する情報処理装置10、サーバ20、及び実物体30の機能については、説明を省略する。
[6.2.第5の実施形態に係る言語案内の詳細]
図22は、本実施形態に係る言語案内を利用する際に、ユーザが情報処理装置10を介して得る視界情報のイメージ図である。図22を参照すると、ユーザは、実物体30iや人物P51を含む現実空間の情報と、表示制御部140により制御されるタグ情報T51〜T55と、を知覚している。
図22を参照すると、タクシーとして示される実物体30iには、タグ表示T51及びT52が関連付いている。また、人物P51が所持する実物体30jには、タグ表示T53が関連付いている。また、ホテルの看板に設置された実物体30kには、タグ表示T54及びT55が関連付いている。
上記で説明したように、本実施形態に係る言語案内では、タグ情報のフィルタリング機能を利用することで、表示させるタグ情報の言語種類をフィルタリングすることができる。図22に示す一例では、ユーザは、所持する情報処理装置10に、フィルタリング言語として英語を設定している。表示制御部140は、フィルタリング言語の設定に基づいて、表示させるタグ情報の制御を行う。このため、図22に示されるタグ情報T51〜T55は、いずれも英語により記載されたテキスト情報である。
ここで、各々のタグ表示について、詳細に説明する。タグ表示T51は、タクシーとして示される実物体30iに関連付いた、英語話者であるユーザに対する広告の一種である。英語話者であるユーザは、移動する実物体30iに関連付いたタグ表示T51を確認することにより、享受できるサービスの内容を知ることができる。また、英語話者であるユーザは、タグ表示が関連付いたタクシー(実物体30)を直観的に認識することができ、母国語によるサービスを受けられる車両を見分けることができる。また、タグ表示T52は、他のユーザにより関連付けられた評価コメントであり、英語話者であるユーザは、他のユーザからのコメントを参考に、サービスを受ける車両を選ぶこともできる。
タグ表示T53は、人物P51が所持するスマートフォンとして示される実物体30jに関連付いている。ここで、人物P51は、警察官や警備員、又は店のスタッフであってもよい。英語話者であるユーザは、人物P51が所持する実物体30jに関連付いたタグ表示T53を確認することにより、人物P51が英語を話せることを認識できる。
タグ表示T54は、ホテルの看板に設定された実物体30kに関連付いた、英語話者であるユーザに対する広告の一種である。英語話者であるユーザは、実物体30kに関連付いたタグ表示T54を確認することにより、英語によるサービスを受けられるホテルであること、を認識できる。また、タグ表示T55は、他のユーザにより関連付けられた評価コメントであり、英語話者であるユーザは、他のユーザからのコメントを参考に、宿泊するホテルを選択することもできる。なお、図22に示すように、表示制御部140は、タグ表示T52及びT55のような他のユーザからの評価に関するタグ情報を、他のタグ情報とは異なる表示形式で表示させてもよい。
[6.3.第5の実施形態のまとめ]
以上、本開示の第5の実施形態に係る言語案内について説明した。上記で説明したように、本実施形態に係る言語案内では、タグ情報のフィルタリング機能を利用することで、ユーザの言語に基づいた情報を提供することが可能となる。
なお、本実施形態においては、フィルタリング言語として一種類の言語を設定する場合について述べたが、本実施形態に係る言語案内は係る例に限定されない。本実施形態に係る言語案内では、フィルタリング言語として複数の言語を設定してもよい。例えば、フィルタリング言語を英語と日本語に設定することで、英語話者であるユーザに対する日本語教育を行う応用も可能である。
<7.ハードウェア構成例>
[7.1.共通の構成要素]
次に、図23を参照して、本開示に係る情報処理装置10、及びサーバ20のハードウェア構成例について説明する。まず、情報処理装置10、及びサーバ20の共通する構成要素について説明する。図23は、本開示に係る情報処理装置10、及びサーバ20のハードウェア構成例を示すブロック図である。
(CPU871)
CPU871は、例えば、演算処理装置又は制御装置として機能し、ROM872、RAM873、記憶部880、又はリムーバブル記録媒体901に記録された各種プログラムに基づいて各構成要素の動作全般又はその一部を制御する。
(ROM872、RAM873)
ROM872は、CPU871に読み込まれるプログラムや演算に用いるデータ等を格納する手段である。RAM873には、例えば、CPU871に読み込まれるプログラムや、そのプログラムを実行する際に適宜変化する各種パラメータ等が一時的又は永続的に格納される。
(ホストバス874、ブリッジ875、外部バス876、インターフェース877)
CPU871、ROM872、RAM873は、例えば、高速なデータ伝送が可能なホストバス874を介して相互に接続される。一方、ホストバス874は、例えば、ブリッジ875を介して比較的データ伝送速度が低速な外部バス876に接続される。また、外部バス876は、インターフェース877を介して種々の構成要素と接続される。
(入力部878)
入力部878には、例えば、マウス、キーボード、タッチパネル、ボタン、スイッチ、及びレバー等が用いられる。さらに、入力部878としては、赤外線やその他の電波を利用して制御信号を送信することが可能なリモートコントローラ(以下、リモコン)が用いられることもある。
(出力部879)
出力部879には、例えば、CRT(Cathode Ray Tube)、LCD、又は有機EL等のディスプレイ装置、スピーカ、ヘッドホン等のオーディオ出力装置、プリンタ、携帯電話、又はファクシミリ等、取得した情報を利用者に対して視覚的又は聴覚的に通知することが可能な装置である。
(記憶部880)
記憶部880は、各種のデータを格納するための装置である。記憶部880としては、例えば、ハードディスクドライブ(HDD)等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス、又は光磁気記憶デバイス等が用いられる。
(ドライブ881)
ドライブ881は、例えば、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリ等のリムーバブル記録媒体901に記録された情報を読み出し、又はリムーバブル記録媒体901に情報を書き込む装置である。
(リムーバブル記録媒体901)
リムーバブル記録媒体901は、例えば、DVDメディア、Blu−ray(登録商標)メディア、HD DVDメディア、各種の半導体記憶メディア等である。もちろん、リムーバブル記録媒体901は、例えば、非接触型ICチップを搭載したICカード、又は電子機器等であってもよい。
(接続ポート882)
接続ポート882は、例えば、USB(Universal Serial Bus)ポート、IEEE1394ポート、SCSI(Small Computer System Interface)、RS−232Cポート、又は光オーディオ端子等のような外部接続機器902を接続するためのポートである。
(外部接続機器902)
外部接続機器902は、例えば、プリンタ、携帯音楽プレーヤ、デジタルカメラ、デジタルビデオカメラ、又はICレコーダ等である。
(通信部883)
通信部883は、ネットワーク903に接続するための通信デバイスであり、例えば、有線又は無線LAN、Bluetooth(登録商標)、又はWUSB(Wireless USB)用の通信カード、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ、又は各種通信用のモデム等である。
[7.2.情報処理装置10に固有の構成要素]
以上、本開示に係る情報処理装置10、及びサーバ20に共通する構成要素について説明した。続いて、情報処理装置10に固有の構成要素について説明する。なお、下記に示す各構成要素は、必ずしも情報処理装置10に固有でなくてもよく、サーバ20に備えられてもよい。
(センサ部884)
センサ部884は、複数のセンサを含み、各センサが取得する情報を管理する。センサ部884は、例えば、地磁気センサと、加速度センサと、ジャイロセンサと、気圧センサと、光センサと、を含む。なお、ここで示すハードウェア構成は一例であり、構成要素の一部が省略されてもよい。また、センサ部884のハードウェア構成は、ここで示される構成要素以外の構成要素をさらに含んでもよい。
(地磁気センサ)
地磁気センサは、地磁気を電圧値として検出するセンサである。地磁気センサは、X軸方向、Y軸方向、及びZ軸方向の地磁気をそれぞれ検出する3軸地磁気センサであってよい。
(加速度センサ)
加速度センサは、加速度を電圧値として検出するセンサである。加速度センサは、X軸方向に沿った加速度、Y軸方向に沿った加速度、及びZ軸方向に沿った加速度をそれぞれ検出する3軸加速度センサであってよい。
(ジャイロセンサ)
ジャイロセンサは、物体の角度や角速度を検出する計測器の一種である。ジャイロセンサは、X軸、Y軸、及びZ軸周りの回転角の変化する速度(角速度)を電圧値として検出する3軸ジャイロセンサであってよい。
(気圧センサ)
気圧センサは、周囲の気圧を電圧値として検出するセンサである。気圧センサは、気圧を所定のサンプリング周波数で検出することができる。
(光センサ)
光センサは、光などの電磁気的エネルギーを検出するセンサである。ここで、光センサは、可視光を検出するセンサであってもよいし、不可視光を検出するセンサであってもよい。
<8.まとめ>
以上、説明したように本開示に係る情報処理装置10は、移動する実物体30に関連付いたタグ情報の表示を制御する機能を有する。また、情報処理装置10は、移動する実物体30に対し、新たなタグ情報を付加する機能を有する。また、本開示に係るサーバ20は、実物体30から位置情報を取得し、サーバ20に保有する実物体30の位置情報を更新する機能を有する。また、サーバ20は、情報処理装置10と通信を行いながら、提供するアプリケーションの様態に応じた種々の処理を実行する。係る構成によれば、移動する実物体に関連付いた情報の表示を、当該実物体の位置に応じて変化させることが可能となる。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
例えば、上記実施形態では、情報処理装置10の表示制御部140が、タグ情報の表示制御を行っているが、本技術は係る例に限定されない。タグ情報の表示制御は、サーバ20により実現されてもよい。この場合、サーバ20は、情報処理装置10の位置情報や方向情報を取得することで、実物体30と関連付いたタグ情報の表示位置を制御する表示制御部として機能することができる。また、サーバ20は、情報処理装置10に表示させるタグ表示以外の情報表示を制御してもよい。サーバ20は、例えば、サーバ20による処理の結果に関するメッセージを情報処理装置10に表示させる制御を行ってもよい。さらには、サーバ20は、情報処理装置10のセンサ部から取得した情報に基づいて、表示させるタグのフィルタリングや、ユーザが実物体30に新たに設定するタグ情報の推定を行ってもよい。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
実物体の位置情報と関連付けて管理されるタグ情報の表示を制御する表示制御部、
を備え、
前記表示制御部は、前記タグ情報の表示が前記実物体の位置情報の変化に応じて変化するように、前記タグ情報の表示を制御する、
情報処理装置。
(2)
1つ以上のセンサを含むセンサ部、
をさらに備え、
前記表示制御部は、前記実物体の位置情報の変化と、前記センサ部により収集される前記情報処理装置の位置情報及び方向情報の変化と、に応じて、前記タグ情報の表示位置を制御する、
前記(1)に記載の情報処理装置。
(3)
前記表示制御部は、前記タグ情報の表示が前記実物体に追従するように、前記タグ情報の表示位置を制御する、
前記(1)または(2)に記載の情報処理装置。
(4)
前記表示制御部は、前記タグ情報の表示が、前記センサ部により収集される前記実物体の移動速度に応じて変化するように、前記タグ情報の表示を制御する、
前記(2)に記載の情報処理装置。
(5)
前記表示制御部は、前記実物体の移動速度が所定の速度を超えていることに基づいて、前記タグ情報の表示内容を制限する、
前記(2)〜(4)のいずれかに記載の情報処理装置。
(6)
前記表示制御部は、前記センサ部により収集された情報から実物体を特定した場合、当該実物体のアバターとしての役割を果たすタグ情報を表示させ、当該実物体に関連付いたタグ情報の表示位置を維持させる、
前記(1)〜(5)のいずれかに記載の情報処理装置。
(7)
前記表示制御部は、前記タグ情報の表示が、前記実物体と前記情報処理装置との距離に応じて変化するように、前記タグ情報の表示を制御する、
前記(1)〜(6)のいずれかに記載の情報処理装置。
(8)
前記表示制御部は、前記実物体と前記情報処理装置との距離が所定の距離を超えていることに基づいて、前記タグ情報の表示内容を制御する、
前記(1)〜(7)のいずれかに記載の情報処理装置。
(9)
前記表示制御部は、前記タグ情報の内容に応じて、表示させるタグ情報のフィルタリングを行う、
前記(1)〜(8)のいずれかに記載の情報処理装置。
(10)
前記実物体の位置情報と前記タグ情報とを関連付けて管理する対象管理部、
をさらに備える、
前記(2)に記載の情報処理装置。
(11)
前記タグ情報の内容を設定する入力制御部、
をさらに備える、
前記(10)に記載の情報処理装置。
(12)
前記対象管理部は、前記入力制御部により設定されたタグ情報を、前記実物体と関連付ける、
前記(11)に記載の情報処理装置。
(13)
前記入力制御部は、前記センサ部により収集されるユーザに関する情報から推定した内容を、前記タグ情報の内容として設定し、
前記センサ部により収集される情報は、ユーザの視線、ユーザのジェスチャ、及びユーザの情動を含む、
前記(11)または(12)に記載の情報処理装置。
(14)
前記対象管理部は、前記入力制御部により設定されたタグ内容と、前記センサ部により収集された情報から特定した前記実物体と、を関連付け、
前記前記センサ部により収集された情報は、ユーザの視線、ユーザのジェスチャ、音声情報、前記実物体の画像情報を含む、
前記(12)に記載の情報処理装置。
(15)
前記対象管理部は、前記入力制御部により設定されたタグ内容と、前記センサ部により収集された情報からSLAM技術を用いて特定した前記実物体と、を関連付ける、
前記(12)に記載の情報処理装置。
(16)
前記対象管理部は、前記入力制御部により設定されたタグ内容と、近距離無線通信を介して収集された前記実物体に係る情報から特定した前記実物体と、を関連付ける、
前記(12)に記載の情報処理装置。
(17)
前記情報処理装置は、ヘッドマウントディスプレイである、
前記(1)〜(16)のいずれかにに記載の情報処理装置。
(18)
プロセッサが、実物体の位置情報と関連付けて管理されるタグ情報の表示を制御することと、
前記タグ情報の表示が前記実物体の位置情報の変化に応じて変化するように、前記タグ情報の表示を制御することと、
を含む、情報処理方法。
(19)
コンピュータを、
実物体の位置情報と関連付けて管理されるタグ情報の表示を制御する表示制御部、
を備え、
前記表示制御部は、前記タグ情報の表示が前記実物体の位置情報の変化に応じて変化するように、前記タグ情報の表示を制御する、
情報処理装置、
として機能させるためのプログラム。
(20)
収集した実物体の位置情報に基づいて、前記実物体の位置情報の更新を管理するオブジェクト管理部と、
前記実物体の位置情報と、前記実物体の位置情報と関連付けて管理されるタグ情報と、を情報処理装置に送信させる制御部と、
を備える、
サーバ。
10 情報処理装置
20 サーバ
30 実物体
110 通信部
120 記憶部
130 対象管理部
140 表示制御部
150 入力制御部
160 センサ部
210 通信部
220 ユーザ管理部
230 オブジェクト管理部
240 タグ紐付部
250 制御部
310 通信部
320 位置情報取得部

Claims (20)

  1. 実物体の位置情報と関連付けて管理されるタグ情報の表示を制御する表示制御部、
    を備え、
    前記表示制御部は、前記タグ情報の表示が前記実物体の位置情報の変化に応じて変化するように、前記タグ情報の表示を制御する、
    情報処理装置。
  2. 1つ以上のセンサを含むセンサ部、
    をさらに備え、
    前記表示制御部は、前記実物体の位置情報の変化と、前記センサ部により収集される前記情報処理装置の位置情報及び方向情報の変化と、に応じて、前記タグ情報の表示位置を制御する、
    請求項1に記載の情報処理装置。
  3. 前記表示制御部は、前記タグ情報の表示が前記実物体に追従するように、前記タグ情報の表示位置を制御する、
    請求項2に記載の情報処理装置。
  4. 前記表示制御部は、前記タグ情報の表示が、前記センサ部により収集される前記実物体の移動速度に応じて変化するように、前記タグ情報の表示を制御する、
    請求項2に記載の情報処理装置。
  5. 前記表示制御部は、前記実物体の移動速度が所定の速度を超えていることに基づいて、前記タグ情報の表示内容を制限する、
    請求項4に記載の情報処理装置。
  6. 前記表示制御部は、前記センサ部により収集された情報から実物体を特定した場合、当該実物体のアバターとしての役割を果たすタグ情報を表示させ、当該実物体に関連付いたタグ情報の表示位置を維持させる、
    請求項2に記載の情報処理装置。
  7. 前記表示制御部は、前記タグ情報の表示が、前記実物体と前記情報処理装置との距離に応じて変化するように、前記タグ情報の表示を制御する、
    請求項2に記載の情報処理装置。
  8. 前記表示制御部は、前記実物体と前記情報処理装置との距離が所定の距離を超えていることに基づいて、前記タグ情報の表示内容を制御する、
    請求項7に記載の情報処理装置。
  9. 前記表示制御部は、前記タグ情報の内容に応じて、表示させるタグ情報のフィルタリングを行う、
    請求項1に記載の情報処理装置。
  10. 前記実物体の位置情報と前記タグ情報とを関連付けて管理する対象管理部、
    をさらに備える、
    請求項2に記載の情報処理装置。
  11. 前記タグ情報の内容を設定する入力制御部、
    をさらに備える、請求項10に記載の情報処理装置。
  12. 前記対象管理部は、前記入力制御部により設定されたタグ情報を、前記実物体と関連付ける、
    請求項11に記載の情報処理装置。
  13. 前記入力制御部は、前記センサ部により収集されるユーザに関する情報から推定した内容を、前記タグ情報の内容として設定し、
    前記センサ部により収集される情報は、ユーザの視線、ユーザのジェスチャ、及びユーザの情動を含む、
    請求項11に記載の情報処理装置。
  14. 前記対象管理部は、前記入力制御部により設定されたタグ内容と、前記センサ部により収集された情報から特定された前記実物体と、を関連付け、
    前記前記センサ部により収集された情報は、ユーザの視線、ユーザのジェスチャ、音声情報、前記実物体の画像情報を含む、
    請求項12に記載の情報処理装置。
  15. 前記対象管理部は、前記入力制御部により設定されたタグ内容と、前記センサ部により収集された情報からSLAM技術を用いて特定された前記実物体と、を関連付ける、
    請求項12に記載の情報処理装置。
  16. 前記対象管理部は、前記入力制御部により設定されたタグ内容と、近距離無線通信を介して収集された前記実物体に係る情報から特定された前記実物体と、を関連付ける、
    請求項12に記載の情報処理装置。
  17. 前記情報処理装置は、ヘッドマウントディスプレイである、
    請求項1に記載の情報処理装置。
  18. プロセッサが、実物体の位置情報と関連付けて管理されるタグ情報の表示を制御することと、
    前記タグ情報の表示が前記実物体の位置情報の変化に応じて変化するように、前記タグ情報の表示を制御することと、
    を含む、情報処理方法。
  19. コンピュータを、
    実物体の位置情報と関連付けて管理されるタグ情報の表示を制御する表示制御部、
    を備え、
    前記表示制御部は、前記タグ情報の表示が前記実物体の位置情報の変化に応じて変化するように、前記タグ情報の表示を制御する、
    情報処理装置、
    として機能させるためのプログラム。
  20. 収集した実物体の位置情報に基づいて、前記実物体の位置情報の更新を管理するオブジェクト管理部と、
    前記実物体の位置情報と、前記実物体の位置情報と関連付けて管理されるタグ情報と、を情報処理装置に送信させる制御部と、
    を備える、
    サーバ。
JP2016001672A 2016-01-07 2016-01-07 情報処理装置、情報処理方法、プログラム、及びサーバ Pending JP2017123050A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2016001672A JP2017123050A (ja) 2016-01-07 2016-01-07 情報処理装置、情報処理方法、プログラム、及びサーバ
PCT/JP2016/078813 WO2017119160A1 (ja) 2016-01-07 2016-09-29 情報処理装置、情報処理方法、プログラム、及びサーバ
US16/062,899 US20180374270A1 (en) 2016-01-07 2016-09-29 Information processing device, information processing method, program, and server

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016001672A JP2017123050A (ja) 2016-01-07 2016-01-07 情報処理装置、情報処理方法、プログラム、及びサーバ

Publications (1)

Publication Number Publication Date
JP2017123050A true JP2017123050A (ja) 2017-07-13

Family

ID=59273602

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016001672A Pending JP2017123050A (ja) 2016-01-07 2016-01-07 情報処理装置、情報処理方法、プログラム、及びサーバ

Country Status (3)

Country Link
US (1) US20180374270A1 (ja)
JP (1) JP2017123050A (ja)
WO (1) WO2017119160A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109189210A (zh) * 2018-08-06 2019-01-11 百度在线网络技术(北京)有限公司 混合现实交互方法、装置及存储介质
WO2019207954A1 (ja) * 2018-04-25 2019-10-31 ソニー株式会社 情報処理装置、情報処理方法、情報処理プログラム
JP2020198065A (ja) * 2019-06-03 2020-12-10 アイドス インタラクティブ コープ 拡張現実のバーチャルエージェントとのコミュニケーション
WO2023119527A1 (ja) * 2021-12-22 2023-06-29 マクセル株式会社 携帯情報端末および情報処理方法
US11818516B2 (en) 2020-09-10 2023-11-14 Seiko Epson Corporation Information generation method using projection image and taken image, information generation system, and non-transitory computer-readable storage medium storing program

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6643417B2 (ja) * 2018-08-02 2020-02-12 Hapsモバイル株式会社 システム、制御装置及び軽航空機
CN112702643B (zh) * 2019-10-22 2023-07-21 上海哔哩哔哩科技有限公司 弹幕信息显示方法、装置、移动终端

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4701479B2 (ja) * 2000-07-05 2011-06-15 ソニー株式会社 リンク情報表示装置及びその表示方法
WO2006025137A1 (ja) * 2004-09-01 2006-03-09 Sony Computer Entertainment Inc. 画像処理装置、ゲーム装置および画像処理方法
JP4909176B2 (ja) * 2007-05-23 2012-04-04 キヤノン株式会社 複合現実感提示装置及びその制御方法、コンピュータプログラム
KR20120040573A (ko) * 2010-10-19 2012-04-27 주식회사 팬택 이동식 태그를 이용한 증강 현실 제공 장치 및 방법
JP5732988B2 (ja) * 2011-04-08 2015-06-10 ソニー株式会社 画像処理装置、表示制御方法及びプログラム
US10509466B1 (en) * 2011-05-11 2019-12-17 Snap Inc. Headwear with computer and optical element for use therewith and systems utilizing same
US8332424B2 (en) * 2011-05-13 2012-12-11 Google Inc. Method and apparatus for enabling virtual tags
US8306977B1 (en) * 2011-10-31 2012-11-06 Google Inc. Method and system for tagging of content
JP6121647B2 (ja) * 2011-11-11 2017-04-26 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
JP2013105345A (ja) * 2011-11-14 2013-05-30 Sony Corp 情報登録装置、情報登録方法、情報登録システム、情報提示装置、情報提示方法、情報提示システムおよびプログラム
JP2013225245A (ja) * 2012-04-23 2013-10-31 Sony Corp 画像処理装置、画像処理方法及びプログラム
US9104467B2 (en) * 2012-10-14 2015-08-11 Ari M Frank Utilizing eye tracking to reduce power consumption involved in measuring affective response
JP5954169B2 (ja) * 2012-12-28 2016-07-20 株式会社デンソー 制御装置
US9524282B2 (en) * 2013-02-07 2016-12-20 Cherif Algreatly Data augmentation with real-time annotations
JP2014165706A (ja) * 2013-02-26 2014-09-08 Sony Corp 信号処理装置および記憶媒体
US20150009117A1 (en) * 2013-07-03 2015-01-08 Richard R. Peters Dynamic eye trackcing data representation
KR102173699B1 (ko) * 2014-05-09 2020-11-03 아이플루언스, 인크. 안구 신호들의 인식 및 지속적인 생체 인증을 위한 시스템과 방법들
US10152825B2 (en) * 2015-10-16 2018-12-11 Fyusion, Inc. Augmenting multi-view image data with synthetic objects using IMU and image data

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019207954A1 (ja) * 2018-04-25 2019-10-31 ソニー株式会社 情報処理装置、情報処理方法、情報処理プログラム
CN109189210A (zh) * 2018-08-06 2019-01-11 百度在线网络技术(北京)有限公司 混合现实交互方法、装置及存储介质
US11138777B2 (en) 2018-08-06 2021-10-05 Baidu Online Network Technology (Beijing) Co., Ltd. Mixed reality interaction method, apparatus, device and storage medium
JP2020198065A (ja) * 2019-06-03 2020-12-10 アイドス インタラクティブ コープ 拡張現実のバーチャルエージェントとのコミュニケーション
JP7440223B2 (ja) 2019-06-03 2024-02-28 スクウェア エニックス、リミテッド 拡張現実のバーチャルエージェントとのコミュニケーション
US11818516B2 (en) 2020-09-10 2023-11-14 Seiko Epson Corporation Information generation method using projection image and taken image, information generation system, and non-transitory computer-readable storage medium storing program
WO2023119527A1 (ja) * 2021-12-22 2023-06-29 マクセル株式会社 携帯情報端末および情報処理方法

Also Published As

Publication number Publication date
WO2017119160A1 (ja) 2017-07-13
US20180374270A1 (en) 2018-12-27

Similar Documents

Publication Publication Date Title
WO2017119160A1 (ja) 情報処理装置、情報処理方法、プログラム、及びサーバ
CN103092338B (zh) 用个性化虚拟数据更新打印内容
US20170103440A1 (en) Wearable augmented reality eyeglass communication device including mobile phone and mobile computing via virtual touch screen gesture control and neuron command
US20170115742A1 (en) Wearable augmented reality eyeglass communication device including mobile phone and mobile computing via virtual touch screen gesture control and neuron command
CN102958573A (zh) 虚拟和基于地点的多玩家游戏
KR20150126938A (ko) 증강 및 가상 현실을 위한 시스템 및 방법
CN107004373A (zh) 信息处理装置、信息处理方法以及计算机程序
WO2015025251A1 (en) Wearable augmented reality eyeglass communication device including mobile phone and mobile computing via virtual touch screen gesture control and neuron command
US20120315983A1 (en) Account management of computer system
CN106104423A (zh) 姿势参数调节
CN111450538B (zh) 虚拟道具的转移***、方法、装置、设备及介质
US11755111B2 (en) Spatially aware computing hub and environment
US11358052B2 (en) Method and system by which computer advances game on basis of user position information
CN108242007A (zh) 服务提供方法及装置
CN105745662A (zh) 持久用户标识
JP7011383B2 (ja) ユーザの位置情報に基づきコンピュータがゲームを進行させる方法およびシステムならびに当該方法をコンピュータに実行させるプログラム
CN108986188A (zh) Ar影像生成装置
US20220327646A1 (en) Information processing apparatus, information processing system, information processing method, and program
US20230185364A1 (en) Spatially Aware Computing Hub and Environment
US20230020633A1 (en) Information processing device and method for medium drawing in a virtual system
US20230162433A1 (en) Information processing system, information processing method, and information processing program
WO2018171196A1 (zh) 一种控制方法、终端及***
JP2022513754A (ja) 仲介拡張物理的相互作用のためのシステム及び方法
WO2018122709A1 (en) Wearable augmented reality eyeglass communication device including mobile phone and mobile computing via virtual touch screen gesture control and neuron command
US10099124B2 (en) Non-transitory computer-readable storage medium having information processing program stored therein, information processing apparatus, information processing system, and information processing method