JP2015527627A - マルチ画像インタラクティブゲーミングデバイス - Google Patents

マルチ画像インタラクティブゲーミングデバイス Download PDF

Info

Publication number
JP2015527627A
JP2015527627A JP2015514615A JP2015514615A JP2015527627A JP 2015527627 A JP2015527627 A JP 2015527627A JP 2015514615 A JP2015514615 A JP 2015514615A JP 2015514615 A JP2015514615 A JP 2015514615A JP 2015527627 A JP2015527627 A JP 2015527627A
Authority
JP
Japan
Prior art keywords
user
controller
camera
image
color
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015514615A
Other languages
English (en)
Other versions
JP6039796B2 (ja
Inventor
ミカロブ アントン
ミカロブ アントン
マークス リチャード
マークス リチャード
ラーセン エリック
ラーセン エリック
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Interactive Entertainment Inc
Sony Computer Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment Inc, Sony Computer Entertainment Inc filed Critical Sony Interactive Entertainment Inc
Publication of JP2015527627A publication Critical patent/JP2015527627A/ja
Application granted granted Critical
Publication of JP6039796B2 publication Critical patent/JP6039796B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/219Input arrangements for video game devices characterised by their sensors, purposes or types for aiming at specific areas on the display, e.g. light-guns
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/23Input arrangements for video game devices for interfacing with the game device, e.g. specific interfaces between game controller and console
    • A63F13/235Input arrangements for video game devices for interfacing with the game device, e.g. specific interfaces between game controller and console using a wireless connection, e.g. infrared or piconet
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/24Constructional details thereof, e.g. game controllers with detachable joystick handles
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/428Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving motion or position input signals, e.g. signals representing the rotation of an input controller or a player's arm motions sensed by accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • A63F13/5252Changing parameters of virtual cameras using two or more virtual cameras concurrently or sequentially, e.g. automatically switching between fixed virtual cameras when a character changes room or displaying a rear-mirror view in a car-driving game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/843Special adaptations for executing a specific game genre or game mode involving concurrently two or more players on the same game device, e.g. requiring the use of a plurality of controllers or of a specific view of game data for each player
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/22Setup operations, e.g. calibration, key configuration or button assignment
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/424Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving acoustic input signals, e.g. by using the results of pitch or rhythm extraction or voice recognition
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1087Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera
    • A63F2300/1093Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera using visible light
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/6045Methods for processing data by generating or executing the game program for mapping control signals received from the input arrangement into game commands
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/6063Methods for processing data by generating or executing the game program for sound processing
    • A63F2300/6072Methods for processing data by generating or executing the game program for sound processing of an input signal, e.g. pitch and rhythm extraction, voice recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10152Varying illumination

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Processing (AREA)
  • Endoscopes (AREA)
  • Position Input By Displaying (AREA)

Abstract

画像捕捉デバイスは、筐体と、筐体の前面に沿って画定される第1のカメラと、第1の露出設定で、ユーザとのインタラクションの間に、インタラクティブ環境の画像を捕捉するように、第1のカメラを制御するように構成される、第1のカメラコントローラと、筐体の前面に沿って画定される第2のカメラと、第1の露出設定よりも低い第2の露出設定で、ユーザとのインタラクションの間に、インタラクティブ環境の画像を捕捉するように、第2のカメラを制御するように構成される、第2のカメラコントローラとを含み、第2のカメラからの捕捉された画像は、インタラクティブ環境において照射された物体を識別および追跡するように分析される。【選択図】 図1A

Description

優先権の主張
本出願は、2012年6月4日に出願された米国仮出願第61/655,459号、名称「Multi-Image Interactive Gaming Device」、2013年3月15日に出願された米国特許出願第13/842,573号、名称「Multi-Image Interactive Gaming Device」、2013年3月15日に出願された米国特許出願第13/842,872号、名称「MANAGING CONTROLLER PAIRING IN A MULTIPLAYER GAME」への優先権を主張し、これらの各々の開示は、本明細書において参照することにより組み込まれる。
関連出願
本出願は、2012年6月30日に出願された米国出願第13/539,311号、名称「Gaming Controller」に関連する。
本出願は、2010年7月20日に発行された米国特許第7,760,248号、名称「Selective Sound Source Listening in Conjunction with Computer Interactive Processing」に関連する。
本出願は、2012年12月21日に出願された米国仮出願第61/745,281号、名称「Automatic Generation of Suggested Mini-Games for Cloud-Gaming Based on Recorded Gameplay」に関連する。
これらの出願の開示は、全ての目的のために、それらの全体として参照することにより本明細書に組み込まれる。
本発明は、インタラクティブプログラムとインターフェース接続するためのコントローラに関する。
ビデオゲーム産業は、長年にわたって多くの変化を見てきた。演算能力が拡大するにつれて、ビデオゲームの開発者は、演算能力のこれらの増大を利用したゲームソフトウエアを同じように作成してきた。この目的のため、ビデオゲーム開発者は、非常に現実的なゲーム経験を生成するために、洗練された動作および数学を組み込んだゲームをコーディングしてきた。
例となるゲーム用のプラットフォームには、Sony Playstation(登録商標)、Sony Playstation2(登録商標)(PS2)、およびSony Playstation3(登録商標)(PS3)があり得るが、これらの各々は、ゲーム機という形で売られている。公知のとおり、ゲーム機は、モニタ(通常はテレビ)に接続して、手持ち式コントローラを介してユーザとの対話あるいはインタラクションを可能とするように設計される。手持ち式コントローラの一例は、(株)ソニー・コンピュータエンタテインメントによって製造されるDUALSHOCK(登録商標)3ワイヤレスコントローラである。
本発明の実施形態は、上記背景のもとになされたものである。
本発明の実施形態は、ビデオゲームといったインタラクティブアプリケーションとインターフェース接続するためのシステムおよび方法を提供する。本発明のいくつかの独創的な実施形態を、以下に説明する。
一実施形態において、インタラクティブアプリケーションに対して入力を提供するための画像捕捉デバイスが提供される。画像捕捉デバイスは、筐体と、筐体の前面に沿って画定される第1のカメラと、第1の露出設定で、ユーザのインタラクションの間に、インタラクティブ環境の画像を捕捉するように、第1のカメラを制御するように構成される、第1のカメラコントローラと、筐体の前面に沿って画定される第2のカメラと、第1の露出設定よりも低い第2の露出設定で、ユーザとのインタラクションの間に、インタラクティブ環境の画像を捕捉するように、第2のカメラを制御するように構成される、第2のカメラコントローラとを含み、第2のカメラからの捕捉された画像は、インタラクティブ環境において照射された物体を識別および追跡するように分析される。
一実施形態において、第1のカメラからの捕捉された画像は、ユーザを識別および追跡するように分析される。
一実施形態において、ユーザを識別および追跡することは、ユーザの顔を識別および追跡することを含む。
一実施形態において、第1のカメラおよび第2のカメラは、筐体の前面に沿って水平に整合される。
一実施形態において、画像捕捉デバイスは、インタラクティブ環境からの音声を捕捉するためのマイクロホンアレイをさらに含む。
一実施形態において、第1のカメラコントローラは、ユーザとのインタラクションの前に、インタラクティブ環境の画像を捕捉するように、第1のカメラを制御するように構成され、ユーザとのインタラクションの前に捕捉される画像は、第1の露出設定を判定するように分析される。
一実施形態において、第2のカメラコントローラは、ユーザとのインタラクションの前に、インタラクティブ環境の画像を捕捉するように、第2のカメラを制御するように構成され、ユーザとのインタラクションの前に捕捉される画像は、第2の露出設定を判定するように分析される。
別の実施形態において、インタラクティブアプリケーションとのインタラクションを容易にするためのシステムが提供され、該システムは、画像捕捉デバイスであって、第1のカメラと、第2のカメラと、第1の露出設定で、ユーザとのインタラクションの間に、インタラクティブ環境の画像を捕捉するように、第1のカメラを制御するように構成される、第1のカメラコントローラと、第1の露出設定よりも低い第2の露出設定で、ユーザとのインタラクションの間に、インタラクティブ環境の画像を捕捉するように、第2のカメラを制御するように構成される、第2のカメラコントローラとを含む、画像捕捉デバイスと、画像捕捉デバイスに接続されるコンピューティングデバイスであって、該コンピューティングデバイスは、インタラクティブアプリケーションを実行するように構成され、該コンピューティングデバイスは、インタラクティブ環境において照射された物体を識別および追跡するように、第2のカメラからの捕捉された画像を分析するように構成される、コンピューティングデバイスと、を含む。
一実施形態において、コンピューティングデバイスは、ユーザを識別および追跡するように、第1のカメラからの捕捉された画像を分析するように構成される。
一実施形態において、ユーザを識別および追跡することは、ユーザの顔を識別および追跡することを含む。
一実施形態において、第1のカメラおよび第2のカメラは、筐体の前面に沿って水平に整合される。
一実施形態において、システムは、インタラクティブ環境からの音声を捕捉するためのマイクロホンアレイをさらに含む。
一実施形態において、第1のカメラコントローラは、ユーザとのインタラクションの前に、インタラクティブ環境の画像を捕捉するように、第1のカメラを制御するように構成され、ユーザとのインタラクションの前に捕捉される画像は、第1の露出設定を判定するように分析される。
一実施形態において、第2のカメラコントローラは、ユーザとのインタラクションの前に、インタラクティブ環境の画像を捕捉するように、第2のカメラを制御するように構成され、ユーザとのインタラクションの前に捕捉される画像は、第2の露出設定を判定するように分析される。
別の実施形態において、インタラクティブアプリケーションとのインタラクションのための方法が提供され、以下の方法動作:第1の露出設定で、ユーザとのインタラクションの間に、インタラクティブ環境からの画像を捕捉すること、第1の露出設定よりも低い第2の露出設定で、ユーザとのインタラクションの間に、インタラクティブ環境からの画像を捕捉すること、インタラクティブ環境において照射された物体を識別および追跡するように、第2の露出設定において捕捉される画像を分析することを含む。
一実施形態において、該方法は、ユーザを識別および追跡するように、第1の露出設定において捕捉される画像を分析することをさらに含む。
一実施形態において、ユーザを識別および追跡することは、ユーザの顔を識別および追跡することを含む。
一実施形態において、該方法は、ARタグを識別および追跡するように、第1の露出設定において捕捉される画像を分析することをさらに含む。
一実施形態において、該方法は、インタラクティブ環境からの音声を捕捉することをさらに含む。
一実施形態において、該方法は、ユーザとのインタラクションの前に、インタラクティブ環境の画像を捕捉することと、第1の露出設定または第2の露出設定のうちの1つ以上を判定するように、ユーザとのインタラクションの前に捕捉される画像を分析することと、をさらに含む。
別の実施形態において、インタラクティブアプリケーションとのマルチプレイヤインタラクションを管理するための方法が提供され、以下の方法動作:第1のコントローラの位置を判定すること、第2のコントローラの位置を判定すること、第1のユーザのバイオメトリック識別子の位置を判定すること、第2のユーザのバイオメトリック識別子の位置を判定すること、第1のコントローラの位置および第1のユーザのバイオメトリック識別子の位置に基づいて、第1のコントローラを第1のユーザと対にすること、第2のコントローラの位置および第2のユーザのバイオメトリック識別子の位置に基づいて、第2のコントローラを第2のユーザと対にすることを含み、該方法は、プロセッサによって実行される。
一実施形態において、第1のコントローラの位置を判定することは、第1のコントローラの照射された部分を識別することを含み、第2のコントローラの位置を判定することは、第2のコントローラの照射された部分を識別することを含む。
一実施形態において、第1のコントローラの照射された部分を識別することは、第1のコントローラの照射された部分によって定義される第1の色を識別することを含み、第2のコントローラの照射された部分を識別することは、第2のコントローラの照射された部分によって定義される第2の色を識別することを含み、第2の色は、第1の色とは異なる色である。
一実施形態において、該方法は、第1のコントローラの第2のユーザとの以前の対を判定することと、第2のコントローラの第1のユーザとの以前の対を判定することと、第1のコントローラの照射された部分を第1の色から第2の色に変更することと、第2のコントローラの照射された部分を第2の色から第1の色に変更することと、をさらに含む。
一実施形態において、第1のユーザのバイオメトリック識別子は、第1のユーザの顔、声、サイズ、または指紋のうちの1つ以上によって定義され、第1のユーザのバイオメトリック識別子は、第2のユーザの顔、声、サイズ、または指紋のうちの1つ以上によって定義される。
一実施形態において、第1のユーザのバイオメトリック識別子の位置を判定することは、第1のコントローラの近傍性を判定することと、第1のユーザのバイオメトリック識別子を識別するように、第1のコントローラの近傍性を検索することと、を含み、第2のユーザのバイオメトリック識別子の位置を判定することは、第2のコントローラの近傍性を判定することと、第2のユーザのバイオメトリック識別子を識別するように、第2のコントローラの近傍性を検索することと、を含む。
一実施形態において、該方法は、インタラクティブアプリケーションの分割画面表示を提示することをさらに含み、分割画面表示は、第1のユーザに対して定義される第1の表示、および第2のユーザに対して定義される第2の表示を含み、分割画面表示における第1の表示および第2の表示の位置は、第1のコントローラの位置、第2のコントローラの位置、第1のユーザのバイオメトリック識別子の位置、および第2のユーザのバイオメトリック識別子のうちの1つ以上に基づいて判定される。
一実施形態において、本開示の方法のうちのいずれかは、コンピュータで読み取り可能な媒体上で具現化されるプログラム命令の形態で定義される。
別の実施形態において、インタラクティブアプリケーションとのマルチプレイヤインタラクションを管理するための方法が提供され、以下の方法動作:インタラクティブ環境の画像を捕捉すること、第1のコントローラの位置を判定するように、捕捉された画像を分析すること、第2のコントローラの位置を判定するように、捕捉された画像を分析すること、第1のユーザのバイオメトリック識別子の位置を判定するように、捕捉された画像を分析すること、第2のユーザのバイオメトリック識別子の位置を判定するように、捕捉された画像を分析すること、第1のコントローラの位置および第1のユーザのバイオメトリック識別子の位置に基づいて、第1のコントローラを第1のユーザと対にすること、第2のコントローラの位置および第2のユーザのバイオメトリック識別子の位置に基づいて、第2のコントローラを第2のユーザと対にすることを含み、該方法は、プロセッサによって実行される。
一実施形態において、第1のコントローラの位置を判定するように、捕捉された画像を分析することは、第1のコントローラの照射された部分を識別することを含み、第2のコントローラの位置を判定するように、捕捉された画像を分析することは、第2のコントローラの照射された部分を識別することを含む。
一実施形態において、第1のコントローラの照射された部分を識別することは、第1のコントローラの照射された部分によって定義される第1の色を識別することを含み、第2のコントローラの照射された部分を識別することは、第2のコントローラの照射された部分によって定義される第2の色を識別することを含み、第2の色は、第1の色とは異なる色である。
一実施形態において、該方法は、第1のコントローラの第2のユーザとの以前の対を判定することと、第2のコントローラの第1のユーザとの以前の対を判定することと、第1のコントローラの照射された部分を第1の色から第2の色に変更することと、第2のコントローラの照射された部分を第2の色から第1の色に変更することと、をさらに含む。
一実施形態において、第1のユーザのバイオメトリック識別子は、第1のユーザの顔によって定義され、第1のユーザのバイオメトリック識別子は、第2のユーザの顔によって定義される。
一実施形態において、第1のユーザのバイオメトリック識別子の位置を判定するように、捕捉された画像を分析することは、第1のコントローラの近傍性を判定することと、第1のユーザのバイオメトリック識別子を識別するように、第1のコントローラの近傍性を検索することと、を含み、第2のユーザのバイオメトリック識別子の位置を判定するように、捕捉された画像を分析することは、第2のコントローラの近傍性を判定することと、第2のユーザのバイオメトリック識別子を識別するように、第2のコントローラの近傍性を検索することと、を含む。
一実施形態において、該方法は、インタラクティブアプリケーションの分割画面表示を提示することをさらに含み、分割画面表示は、第1のユーザに対して定義される第1の表示、および第2のユーザに対して定義される第2の表示を含み、分割画面表示における第1の表示および第2の表示の位置は、第1のコントローラの位置、第2のコントローラの位置、第1のユーザのバイオメトリック識別子の位置、および第2のユーザのバイオメトリック識別子のうちの1つ以上に基づいて判定される。
別の実施形態において、クラウド処理サーバ上で実行するインタラクティブアプリケーションとのマルチプレイヤインタラクションを管理するための方法が提供され、以下の方法動作:インタラクティブ環境から捕捉される画像データを受信すること、第1のコントローラの位置、第2のコントローラの位置、第1のユーザのバイオメトリック識別子の位置、および第2のユーザのバイオメトリック識別子の位置を判定するように、捕捉された画像データを処理すること、第1のコントローラの位置および第1のユーザのバイオメトリック識別子の位置に基づいて、第1のコントローラを第1のユーザと対にすること、第2のコントローラの位置および第2のユーザのバイオメトリック識別子の位置に基づいて、第2のコントローラを第2のユーザと対にすることを含み、該方法は、プロセッサによって実行される。
一実施形態において、第1のコントローラの位置を判定することは、第1のコントローラの照射された部分を識別するように、捕捉された画像データを分析することを含み、第2のコントローラの位置を判定することは、第2のコントローラの照射された部分を識別するように、捕捉された画像データを分析することを含む。
一実施形態において、第1のコントローラの照射された部分を識別することは、第1のコントローラの照射された部分によって定義される第1の色を識別することを含み、第2のコントローラの照射された部分を識別することは、第2のコントローラの照射された部分によって定義される第2の色を識別することを含み、第2の色は、第1の色とは異なる色である。
一実施形態において、該方法は、第1のコントローラの第2のユーザとの以前の対を判定することと、第2のコントローラの第1のユーザとの以前の対を判定することと、第1のコントローラの照射された部分を第1の色から第2の色に変更するように、命令を送信することと、第2のコントローラの照射された部分を第2の色から第1の色に変更するように、命令を送信することと、をさらに含む。
本発明の他の態様は、本発明の原理を例として示す添付図面と併せて、以下の発明を実施するための形態を読めば明らかであろう。
本発明は、以下の添付図面と併せて、以下の説明を参照することによって、最良に理解され得る。
本発明の実施形態に従う、複数のプレイヤがビデオゲームとインタラクションを行っている、インタラクティブ環境を例解する。 本発明の実施形態に従う、画像捕捉デバイスを例解する。 本発明の実施形態に従う、画像捕捉デバイスの概略図である。 本発明の実施形態に従う、高露出カメラによって捕捉されるインタラクティブ環境の画像を例解する。 本発明の実施形態に従う、低露出カメラによって捕捉されるインタラクティブ環境の画像を例解する。 本発明の実施形態に従う、インタラクティブ環境におけるアプリケーションとインタラクションするためのコントローラを動作させる複数のユーザを例解する。 本発明の実施形態に従う、ビデオゲームとインタラクションを行う2人のプレイヤを例解する。 本発明の実施形態に従う、インタラクティブ環境において、モーションコントローラ212を動作させるユーザを例解する。 本発明の実施形態に従う、ディスプレイ上でレンダリングされるインタラクティブアプリケーションとインタラクションを行うユーザを例解する。 本発明の一実施形態に従う、ビデオゲームとのインタラクションを提供するために使用され得る、ハードウェアおよびユーザインターフェースを例解する。 本発明の一実施形態に従う、命令を処理するために使用され得る、追加のハードウェアを例解する。 本発明の一実施形態に従う、それぞれのユーザA〜ユーザEが、インターネットを介してサーバ処理に接続されるゲームクライアント1102とインタラクションを行う、場面A〜場面Eの例示的な例解図である。 情報サービスプロバイダアーキテクチャの実施形態を例解する。
以下の実施形態は、インタラクティブプログラムとインターフェース接続するための方法および装置を説明する。
しかしながら、本発明は、これらの具体的な詳細のうちの一部または全部なしでも実践され得ることが当業者には明らかであろう。本発明を不必要に分かりにくくすることがないように、公知の処理動作を詳細に説明していない例もある。
図1Aは、本発明の実施形態に従う、複数のプレイヤがビデオゲームとインタラクションを行っている、インタラクティブ環境を例解する。コンピューティングデバイス100は、ディスプレイ102上でビデオゲームをレンダリングするための画像データおよびオーディオデータを提供する。コンピューティングデバイス100は、汎用コンピュータ、ゲーミングコンソール、またはビデオゲームの画像データおよびオーディオデータをディスプレイ102に提供するように構成される任意の他のタイプのデバイスであり得る。ビデオゲームは、コンピューティングデバイス100上で実行させることができるか、または遠隔で実行されてもよく、コンピューティングデバイス100が、レンダリングのための画像データおよびオーディオデータを提供するため、ならびにユーザからの入力を受信および伝送するための端末として作用する。画像捕捉デバイス104は、2つのカメラ:高露出カメラ106および低露出カメラ108を含む。高露出カメラ106は、高量のインタラクティブ環境の詳細の捕捉を可能にするように設定される露出レベルにおいて、インタラクティブ環境の画像を捕捉するように構成される。概略的には、高露出カメラ106の露出レベルは、インタラクティブ環境からの光強度の全体的なダイナミックレンジに基づいて判定し、詳細の最大の捕捉を可能にするように最適化することができる。対照的に、低露出カメラ108は、比較的低量のインタラクティブ環境の詳細を捕捉するように設定されるより低い露出レベルにおいて、インタラクティブ環境の画像を捕捉するように構成される。大まかに言えば、低露出カメラ108の露出レベルは、インタラクティブ環境からの光強度の全体的なダイナミックレンジに基づいて判定することができるが、より少ない詳細を伴う画像の捕捉を可能にする、より低いレベルに設定される。低露出カメラ108の露出レベルは、高露出カメラ106のそれよりも低いレベルに設定されるため、低露出カメラ108からの捕捉された画像は、より低い光強度を有するインタラクティブ環境の領域から、より少ない詳細を提供するか、または詳細を全く提供しないであろう。
図1Bは、高露出カメラ106および低露出カメラ108を含む、画像捕捉デバイス104を例解する。一部の実施形態において、高露出カメラ106はまた、低露出カメラ108よりも高い解像度のカメラである。高露出カメラ106および低露出カメラ108の両方の解像度はまた、画像捕捉デバイス104の動作中に設定されてもよい。このため、高露出カメラはまた、より低い解像度を有する低露出カメラ108と比較して、より高い解像度を有する結果として、より多くの詳細を捕捉し、より多量のデータを生成し得る。高露出カメラ106および低露出カメラ108は、既知の距離分、互いから離すことができ、かつ提携して立体画像捕捉を可能にするように、動作させてもよい。カメラ間の距離は既知であるため、立体画像捕捉に基づいて、3次元効果を提供することができる。一実施形態において、高露出カメラ106および低露出カメラ108は、約6〜10センチメートルの距離分、互いから離される。他の実施形態において、カメラは、10センチメートル超、互いから離される。
一部の実施形態において、高低露出カメラは各々、同じハードウェア能力を有するが、一方が、他方よりも高い露出または解像度を達成するように、異なる様態で動作するように制御される。
加えて、画像捕捉デバイス104は、マイクロホン109A、109B、109C、および109Dを含む、マイクロホンアレイを含んでもよい。マイクロホンアレイは、インタラクティブ環境からの音声を捕捉するために利用することができる。加えて、マイクロホンアレイのマイクロホンの各々からの音声は、インタラクティブ環境における音声の位置を判定するように分析することができる。特定の音声ゾーンは、音声が捕捉されるインタラクティブ環境内で画定することができる。音声ゾーンは、本明細書の他の場所で説明されるように、インタラクションのゾーンに従って判定されてもよい。例として、所与のインタラクティブゾーンから捕捉される音声は、特定のユーザと関連付けられ、インタラクティブゾーンの外側から生じる音声を除外して、そのユーザのゲームプレイのために処理され得る。
図1Cは、本発明の実施形態に従う、画像捕捉デバイス104の概略図を例解する。画像捕捉デバイス104は、カメラコントローラ121によって制御される、高および低露出カメラ106および108をそれぞれ含む。カメラコントローラ121は、画像捕捉のフレームレート、各捕捉のシャッタースピードまたは時間、解像度、アパーチャ、および種々の他の画像捕捉特性といった、カメラの種々の設定を制御することができる。画像プロセッサ122は、オンボード画像処理、例えば、生データ変換、画像データ圧縮または変換を実施する。マイクロホンコントローラ123は、マイクロホン109A〜Dの感度を制御する。一実施形態において、マイクロホンコントローラ123はまた、各マイクロホンの方向を制御する。オーディオプロセッサ124は、オーディオデータのオンボード処理、例えば、アナログ〜デジタル変換、オーディオデータ圧縮を実施する。一部の実施形態において、オーディオプロセッサ124は、インタラクティブ環境における音声源の識別を実施するように構成することができるか、またはインタラクティブ環境における1つ以上の指定されたゾーンからではない音声を低減もしくは排除するように、マイクロホンアレイからの着信オーディオ信号を処理するように構成されてもよい。
画像捕捉デバイスは、CPU124に動作的に接続され、これは、ゲームコンソールもしくはローカルコンピューティングデバイスのプロセッサであり得るか、またはクラウドコンピューティングデバイスといったリモートコンピューティングデバイスのプロセッサであり得る。CPU124は、本明細書で説明される原理および方法に従って、処理および分析のために、高および低露出カメラの画像ストリーム、ならびにマイクロホンアレイからのオーディオストリームを受信することができる。
図2は、高露出カメラ106によって捕捉されるインタラクティブ環境の画像130を例解する。インタラクティブ環境において、ランプ132、写真134、窓136、カウチ138、および植物140を含む、複数の物体が存在し、これらは全て、画像130において可視的である。ユーザ142は、照射された追跡特性146を含む、コントローラ144を動作させる。ユーザ142およびコントローラ144もまた、捕捉された画像130において可視的である。
図3は、低露出カメラ108によって捕捉される同じインタラクティブ環境の画像150を例解する。画像150において、低露出カメラ108の露出レベルは、高露出カメラ106のそれよりも低いため、インタラクティブ環境において高い光強度を生成する最も明るい物体のみが、可視的である。示されるように、ランプ132の点灯された部分、窓136、およびコントローラ144の照射された追跡特性146のみが、これらの物体がインタラクティブ環境において最も高い光強度を生成するため、画像150において可視的である。
本発明の実施形態に従って、低露出カメラ108からの捕捉された画像は、コントローラ144の照射された追跡特性146の検出および追跡のために利用することができる。低露出カメラ108からの画像は、高露出カメラ106からのものよりも低い露出設定において捕捉されるため、それらは、ほとんどの状況で、同じインタラクティブ環境の高露出カメラによって捕捉される画像よりも少ないデータを有する。このため、照射された追跡特性146が、低露出カメラ108からの捕捉された画像において検出されるのに十分に明るい(十分に高い光強度を生成する)と仮定すると、これらの画像の分析に基づく、照射された追跡特性の検出および追跡は、より高い露出画像の分析に基づいて必要とされるであろうものよりも少ない処理を必要とする。
また、本発明の実施形態に従って、低露出カメラ108は、高露出カメラ106のものよりも小さいアパーチャを利用し得、それによって、高露出カメラ106のより大きいアパーチャで可能なものよりもより広い深度範囲にわたってより鋭い被写界深度を提供する。これは、コントローラ144の追跡特性146の正確な検出および追跡をさらに強化し、より大きいアパーチャを利用して捕捉されるより高い露出画像の分析から得られるであろうものに勝る、深度検出の特に改善された正確性を提供する。
低露出カメラ108からの捕捉された画像の分析に基づく、照射された追跡特性146の検出および追跡のためには、照射された追跡特性146が、インタラクティブ環境において最も明るい物体のうちのより明るいものの中にあることが望ましいことが理解されよう。確実にこの状況にするために、一実施形態において、インタラクティブ環境の全体的なダイナミックレンジが判定され、次いで、照射された追跡特性146の光強度が、インタラクティブ環境においてより明るい又は最も明るい物体の中にあるように、調節される。照射された追跡特性146の光強度が、インタラクティブ環境において最も明るい物体になるように調節される場合、低露出カメラ108の露出設定は、低露出カメラ108によって捕捉される画像からのインタラクティブ環境の残りを排除する値に設定することができ、それによって、照射された追跡特性146が、本質的に、かかる画像における唯一の検出可能な物体であるため、かかる画像に基づく、照射された追跡特性146の検出および追跡の処理を簡略化する。
しかしながら、例えば、インタラクティブ環境におけるユーザもしくは他者にとって、気をそらすものとならないように、または視覚的に場違いに見えないように、照射された追跡特性146をインタラクティブ環境における最も明るい物体になるように設定しないこともまた望ましい場合がある。このため、種々の実施形態において、照射された追跡特性146の光強度レベルは、インタラクティブ環境の全体的なダイナミックレンジの最も高い値に等しく(即ち、インタラクティブ環境における最も明るい物体(複数を含む)に等しく)定義することができる。別の実施形態において、照射された追跡特性146の光強度レベルは、ダイナミックレンジの上限のある割合内、例えば、インタラクティブ環境のダイナミックレンジの上位n%内になるように設定することができる。一部の実施形態において、照射された追跡特性108の光強度レベルは、照射された追跡特性が、インタラクティブ環境の最も高い光強度値中の光強度を有するように、インタラクティブ環境に対する中央光強度値に基づいて設定することができる。
一部の実施形態において、インタラクティブ環境の全体的なダイナミックレンジに対する照射された追跡特性108の光強度値は、インタラクティブ環境の光強度特性に基づいて設定することができる。例えば、一実施形態において、インタラクティブ環境の全体的な周囲照明条件が低いと判定される場合、照射された追跡特性108の光強度は、インタラクティブ環境から検出される最大光強度よりも低いように設定される。一方、インタラクティブ環境の全体的な周囲照明条件が高いと判定される場合、照射された追跡特性108の光強度は、インタラクティブ環境からの最大の検出された光強度以上であるように設定される。これが可能でない場合、照射された追跡特性の光強度は、その最大の可能な値に設定される。このように、低い周囲照明条件が検出される時、照射された追跡特性108の光強度は、低い周囲光環境において視覚上目立ちすぎないように調節される。一方、高い周囲照明条件が検出される時、高い周囲照明条件下では、明るい物体は、知覚においてそれほど目立たないため、照射された追跡特性108の光強度は、全体的なインタラクティブ環境に対してより明るいように調節される。
図4は、本発明の実施形態に従う、インタラクティブ環境において、アプリケーションとインタラクションを行うためのコントローラを動作させる複数のユーザを例解する。例解される場面において、ユーザ110は、照射された追跡特性164を有するコントローラ116を動作させ、ユーザ112は、照射された追跡特性174を有するコントローラ118を動作させ、ユーザ114は、照射された追跡特性184を有するコントローラ120を動作させる。本明細書で説明される原理に従って、インタラクティブ環境の画像は、高露出カメラ106および低露出カメラ108によって捕捉される。コントローラの例としては、(株)ソニー・コンピュータエンタテインメントによって製造される、PlayStation Moveモーションコントローラといったモーションコントローラが挙げられる。
一実施形態において、高露出カメラ106からのインタラクティブ環境の捕捉された画像は、プレイヤの位置を判定するように分析される。より具体的には、捕捉された画像は、ユーザの顔を含む顔領域を判定するように分析することができる。例解される実施形態において、顔領域166は、ユーザ110の顔を含み、顔領域176は、ユーザ112の顔を含み、顔領域186は、ユーザ114の顔を含む。識別された顔領域は、高露出カメラ106からの捕捉された画像の分析に基づいて、追跡することができる。例解される顔領域は、例として示されているに過ぎず、採用される顔認識方法の仕様に従って、種々の形状およびサイズを有し得ることが理解されよう。顔領域は、ユーザの頭部全体を含んでもよく、または、ユーザの頭部の選択された特性、例えば、目、鼻、および口を含むが、ユーザの顔および頭部の他の特性を除く領域のみを含んでもよい。
低露出カメラ108からのインタラクティブ環境の捕捉された画像は、コントローラの照射された追跡特性の配向および3次元位置、ならびにその結果として、コントローラ自体の位置を検出するように分析される。大まかに言えば、捕捉された画像における照射された追跡特性の配向およびサイズは、インタラクティブ環境内のその配向および位置、ならびにその結果として、照射された追跡特性が関連付けられるコントローラの配向および位置を判定するように分析することができる。照射された追跡特性164、174、および184は、異なる色、パターン、または他の差別特性を表示して、低露出カメラ108を介したそれらの識別および追跡を容易にするように構成されてもよい。
一部の実施形態において、各コントローラは、的確なインタラクティブ入力をアプリケーションに提供する目的のために、特定のユーザと関連付けられるか、対にされる。例えば、マルチプレイヤビデオゲームにおいて、何人かのユーザが存在し得、そのユーザの各々は、関連付けられたキャラクタ、アバタ、物体、またはビデオゲームにおける他の代表的なエンティティによって、ビデオゲーム内で表される。多くのかかるビデオゲームにおいて、各ユーザは、彼らの代表的なエンティティの制御を担い、そのため各コントローラは、特定のユーザと関連付けられる。コントローラをユーザと関連付ける従来の方法は、概して、面倒なメニューおよび手順を通じた選択を慎重に示すことをユーザに要求し、しばしば、実際のゲームプレイを遅延させる、厳密な手順への順守を要求してきた。しかしながら、本明細書で説明される原理に従って、コントローラをユーザと関連付けるために、著しく煩わしさがより低い方法を採用することができる。
一実施形態において、各コントローラは、その照射された追跡特性に、固有の色といった固有の特性を表示させるように構成される。これに基づき、各コントローラは、低露出カメラによる捕捉された画像の分析に基づいて識別される。例として図4を参照すると、コントローラ116が、照射された追跡特性164の検出に基づいて識別される時、コントローラに近接する顔検索領域168が定義され、その中で顔認識プロセスが適用される。顔検索領域168は、ユーザの顔が、コントローラがインタラクションのためにユーザによって動作させられている場合に存在すると合理的に予測され得るインタラクティブ環境の領域として定義される。顔検索領域は、例として、コントローラからの規定の距離、またはコントローラの周囲で配向される規定の領域形状に基づいて判定することができる。例解される実施形態において、顔検索領域168への顔認識プロセスの適用は、ユーザ110の顔を含む顔領域166の識別をもたらす。したがって、ユーザ110の識別された顔は、コントローラ116と関連付けられる。同様に、コントローラ118および120は、それぞれ、それらの照射された追跡特性174および184に基づいて識別することができる。次いで、顔検索領域178および188は、それぞれ、コントローラ118および120に対して定義される。これらの顔検索領域に顔認識プロセスを適用することにより、ユーザ112の顔領域176、およびユーザ114の顔領域186を識別する。したがって、ユーザ112の顔領域176は、コントローラ118と関連付けられ、顔領域186は、ユーザ114と関連付けられる。本開示の方法の適用は、暗い環境におけるコントローラおよびユーザの識別および関連付けを改善することができる。ユーザの顔に対して、捕捉された領域全体を検索する代わりに、限られた検索領域、および最初に、コントローラ位置の識別に基づいて検索するために識別される。また、ユーザが経時的に移動するにつれて、彼らの顔領域および彼らの関連付けられたコントローラを追跡することができる。
別の実施形態において、ユーザの顔およびコントローラは、インタラクティブ環境において各々識別され、顔は、高露出カメラからの捕捉された画像への顔認識プロセスの適用に基づいて識別され、コントローラは、低露出カメラからの捕捉された画像の分析に基づいて識別される。各コントローラまたは識別された顔に対して、対応する最も近い識別された顔またはコントローラがそれらと関連付けられる。一実施形態において、コントローラの識別された顔との関連付けは、コントローラおよび顔が、既定の距離よりも離れていない場合に行われ得る。他の実施形態において、2つの顔が所与のコントローラから等距離にある時、所与のコントローラに対して縦方向により近い顔が選好されてもよい。または、他の顔が考慮から排除され得るように、所与のコントローラを関連付ける前に、他のコントローラおよび顔が、最初に関連付けられてもよい。
本開示の方法に従って、コントローラの近傍内に見出されない顔は、コントローラと関連付けられないことが理解されよう。かつ、それに近接して識別される顔が無いコントローラは、いずれのユーザの顔とも関連付けられない。このため、ビデオゲームに参加していないユーザ、または使用されていないコントローラは、ビデオゲームとのインタラクションの目的のために、関連付けられないか、または不適切に起動されない。
一実施形態において、各ユーザの顔のプロフィール写真が保存される。所与のユーザのプロフィール写真は、高露出カメラ108によって撮影されるその後の捕捉された画像において、ユーザを認識するために利用される。上で示されるように、各コントローラは、その照射された追跡特性を介して、異なる色といった異なる特性を表示するように構成される。インタラクティブ環境において顔が検出される各ユーザに対して、最も近い識別されたコントローラがそのユーザに割り当てられる。このため、続けて図4を参照すると、ユーザ110は、顔領域166の顔認識に基づいて識別され、コントローラ116は、例えば、照射された追跡特性164によって表示される固有の色に基づいて識別される。次いで、ユーザ110に対して最も近い識別されたコントローラである、コントローラ116は、インタラクティブアプリケーションとのインタラクションの目的のために、ユーザ110と関連付けられる。同様に、コントローラ118および120の各々は、それぞれ、それらの照射された追跡特性174および184に固有の色を表示されるように構成される。次いで、顔領域176および186の顔認識に基づいて、ユーザ112および114が識別される。次いで、識別されたコントローラ118は、それが、ユーザ112に対して最も近いコントローラであると判定されるため、ユーザ112と関連付けられ、一方で、コントローラ120は、それが、ユーザ114に対して最も近いコントローラであると判定されるため、ユーザ114と関連付けられる。
種々の実施形態において、どのコントローラをどのユーザと関連付けるかを識別する方法は、種々の技術を採用することができることが理解されよう。例えば、「最も近い」コントローラは、ユーザに対するコントローラの予想される位置を判定または推定するように、顔認識と関連して体認識に部分的に基づいて判定することができる。予想される位置は、例えば、ユーザの中央部の近傍内のユーザのほぼ前の領域である可能性がある。ユーザの腕または他の体の特性の認識は、コントローラ関連付けプロセスの正確性を強化し得る。
特定のコントローラを特定のユーザと適切に関連付ける/割り当てるように、顔認識およびコントローラ認識を利用することによって、面倒な初期化手順を回避する。さらに、ユーザがコントローラを何らかの理由で切り替える(例えば、ユーザがゲームから休憩し、後にプレイを再開するが、プロセス中のコントローラを切り替える)場合、さらなるユーザ入力を必要とすることなく、正しいコントローラを、適切なユーザに迅速に割り当てることができる。したがって、一実施形態において、コントローラ割当プロセスは、インタラクティブビデオゲームの開始中だけでなく、インタラクションにおける休憩または一時停止後にも実行される。これは、例えば、ユーザがゲームプレイを一時停止または再開する時、セクションもしくはレベル間でビデオゲームが遷移する時、またはユーザがコントローラを切り替え得る任意の他の休憩もしくは期間に行われ得る。
別の実施形態に従って、あるインタラクティブビデオゲームにおいて、プレイヤは、ゲームプレイの特定のインタラクティブゾーンに割り当てられてもよい。例として、各インタラクティブゾーンは、インタラクティブゾーンにおいて検出されるユーザとのインタラクションを通じて制御される特定のキャラクタまたはエンティティに対応してもよい。しかしながら、ユーザがゾーンを切り替える場合、特定のユーザとユーザのエンティティとの間の対応は、破棄される。したがって、本明細書で説明される原理に従って、ユーザの顔およびコントローラが特定のインタラクティブゾーンにおいて認識される時、そのインタラクティブゾーンを、ユーザおよびコントローラと関連付けることができる。ユーザがゾーンまたはコントローラを切り替える場合、インタラクティブゾーンおよびコントローラのユーザへの割り当ては、ユーザの顔およびコントローラの更新された検出に基づいて切り替えることができる。
本明細書で説明されるようなコントローラ追跡と組み合わせて顔認識を利用することは、追加の機能性および利益を提供することができる。例えば、続けて図4を参照すると、コントローラインタラクティブゾーン168を、ユーザ110に対して判定することができる。コントローラインタラクティブゾーン168は、ユーザ110に割り当てられるコントローラ116が位置すると予想され得る、インタラクティブ環境の領域である。コントローラインタラクティブゾーン168は、例として、ユーザ110の手が届く推定または他の因子に基づいて、判定することができる。例解される実施形態において、コントローラインタラクティブゾーン178および188は、それぞれ、ユーザ112および114に対して判定される。
本発明の実施形態は、このように、特定のユーザとコントローラを対にすることの基礎として、顔認識を参照して説明されているが、他の実施形態において、他の形態のバイオメトリック識別を代用することができるか、または顔認識と組み合わせて利用することができることが、当業者によって理解されよう。他のバイオメトリック識別子は、人物の声、人物のサイズもしくは体重、指紋等の識別を含んでもよい。一実施形態において、ユーザの声は、ユーザの名前といった何かを言うことをユーザに要求すること、ならびにユーザを識別するように、記憶されたユーザの発話プロフィールに対して記録された発話を記録および分析することによって、識別されてもよい。この点において、ユーザの発話プロフィールは、ユーザにテキストの規定の部分を読ませることによって生成されてもよい。別の実施形態において、ユーザの指紋は、ユーザに、ユーザのコントローラデバイスのタッチセンサー式の部分上にユーザの指を置かせ、得られた指紋をユーザに対してすでに記憶されたものと照合することによって、得ることができる。
本明細書で論じられるように、種々のコントローラの照射された部分は、インタラクティブ環境からの捕捉された画像の分析に基づくそれらの識別を容易にする、異なる色を有するように構成することができる。ゲームプレイの経過中に、ユーザのグループは、ユーザのゲームプレイを一時停止し、ユーザのコントローラを下に置く場合があり、ユーザが戻ってくる時、ユーザのうちのいくらかまたは全てが、ユーザのゲームプレイを一時停止する前に、ユーザが使用していたものとは異なるコントローラを手に取る場合がある。しかしながら、異なるコントローラを手に取るにもかかわらず、ユーザの各々が、ユーザのコントローラと関連付けられる同じ色(この色がまた、ユーザのゲームプレイと関連付けられ得るため)を有することが依然として望ましくあり得る。したがって、一実施形態において、コントローラがユーザと対にされる時、ゲームプレイセッション中の以前の対が存在したかどうか、およびそれが現在判定された対と一致したかどうかが判定される。ユーザの以前のコントローラの対とユーザの現在のコントローラの対との間に不一致が検出される場合、一実施形態において、一度、全ての残りのコントローラが、それらのそれぞれのユーザと対にされる時、ユーザのコントローラ色は、ゲームプレイを一時停止する前にユーザが動作させていたコントローラによって呈される以前の色に変更される。
単純な2プレイヤの実施例が、上で説明される概念を例解する役割を果たすであろう。例えば、第1のプレイヤが、赤色を有するように照射される部分を伴う第1のコントローラを動作させ、第2のプレイヤが、青色を有するように照射される部分を伴う第2のコントローラを動作させると仮定する。すでに説明されるように、バイオメトリック識別と組み合わせたコントローラ識別に基づいて、第1のコントローラは、第1のプレイヤと対にされ、第2のコントローラは、第2のプレイヤと対にされる。加えて、プレイされているビデオゲームにおいて、赤色は、第1のプレイヤと関連付けられ、青色は、第2のプレイヤと関連付けられる。この色関連付けは、プレイヤが、ユーザのコントローラとそれらが制御するビデオゲームの要素との間の関係を理解するための直観的な機構を提供する。例として、第1のユーザによって制御されるアバタまたはキャラクタは、それが第1のコントローラ(赤に照射される)によって制御されることを示す赤色のマーカを特徴とする場合があり、一方、第2のユーザによって制御されるアバタまたはキャラクタは、それが第2のコントローラ(青に照射される)によって制御されることを示す青色のマーカを特徴とする場合がある。
しかしながら、第1のプレイヤおよび第2のプレイヤが、何らかの形でコントローラを切り替える(例えば、ゲームプレイから休憩を取り、後に戻ってくる)場合、対にするプロセスは、どのコントローラをどのユーザと対にするかを判定するように繰り返すことができる。この場合、青のコントローラは、ここで、第1のユーザと対にされ、赤のコントローラは、第2のユーザと対にされない。ユーザへの色のこの関連付けは、以前の関連付けと一致しないため、一度、どのコントローラがどのユーザによって動作させられているかを識別する意味で、コントローラがユーザと対にされると、コントローラによって呈される色は、ユーザへの色の以前の関連付けに一致するように変更することができる。この場合、第2のコントローラ(ここでは第1のユーザによって動作させられる)の色は、青から赤に変更され、第1のユーザを赤色のコントローラに復元し、第1のコントローラ(ここでは第2のユーザによって動作させられる)の色は、赤から青に変更され、第2のユーザを青色のコントローラに復元する。
図5は、本発明の実施形態に従う、ビデオゲームとインタラクションを行う2人のプレイヤを例解する。例解される実施形態において、プレイヤ190および192は、それぞれ、コントローラ194および196を動作させる。ビデオゲームは、分割画面モードでディスプレイ102上にレンダリングされる。表示を容易にするために、ユーザ190がインタラクティブ環境内の左に位置付けられ、ユーザ192が右に位置付けられる際、ビデオゲーム表示は、ユーザ190に対するビデオゲームが、ディスプレイ102の左部分198にレンダリングされ、ユーザ192のビデオゲーム表示が、ディスプレイ102の右部分200にレンダリングされるように、分割画面モード内で割り当てられる。しかしながら、ユーザ190および192が場所を切り替える場合、コントローラ認識または顔認識に基づいて、ユーザが場所を切り替えたことを判定することができ、ビデオゲーム表示を分割画面の反対側に再割り当てすることができる。このため、ユーザ190および192が場所を切り替えた場合、ユーザの顔またはコントローラが検出および認識され、ユーザ192に対するビデオゲーム表示は、ここで、左部分198に示され、一方で、ユーザ190に対するビデオゲーム表示は、右部分200に示される。前述の実施形態は、対応する左および右の分割画面部分とともに2人のユーザに関して説明されているが、任意の数のユーザ、および本発明の実施形態に従って、互いに割り当てられ得る、対応する分割画面部分が存在することが当業者によって理解されよう。
図6は、本発明の実施形態に従う、インタラクティブ環境において、モーションコントローラ212を動作させるユーザ210を例解する。モーションコントローラ212は、画像捕捉デバイス104の低露出カメラ108によって捕捉される画像の分析に基づいて追跡される、照射された追跡特性214を含む。加えて、ユーザ210は、拡張現実(AR)タグ216を保持している。ARタグは、画像捕捉デバイス104の高露出カメラ106からの捕捉された画像の分析に基づいて、識別および追跡される。一実施形態において、ARタグは、ディスプレイ102上に表示されるユーザのビデオにおいて、物体218と置き換えられる。コントローラ212は、表示されたビデオにおいて、物体220と置き換えられる。異なる露出レベルおよび/または解像度で動作するように構成される2つのカメラの適用は、照射された追跡特性およびARタグの同時識別および追跡を可能にする。ARタグに加えて、種々の他の拡張現実方法を、画像捕捉デバイス104の高露出カメラ106からの捕捉された画像の分析に基づいて適用することができることが理解されよう。これは、照射された追跡特性の同時追跡と組み合わせて、強化されたユーザとのインタラクション的経験を提供することができる。
図7は、本発明の実施形態に従う、ディスプレイ102上にレンダリングされるインタラクティブアプリケーションとインタラクションを行うユーザ210を例解する。コントローラ212は、他の場所で説明される方法および原理に従って、ユーザ210と関連付けられ、本開示である。一実施形態において、ジェスチャ領域230は、ユーザ210に対して識別される。ジェスチャ領域230は、インタラクティブアプリケーションとのインタラクションのために、ユーザ210によるジェスチャを検出するように分析される。一実施形態において、ジェスチャ検出は、高露出カメラからの捕捉された画像の分析に基づき、一方で、コントローラ212の追跡は、説明されるように、低露出カメラからの捕捉された画像の分析に基づく。ジェスチャ領域は、コントローラの位置に近接した領域であると判定され得る。一実施形態において、ジェスチャ領域は、コントローラを保持しているユーザの手を識別すること、およびコントローラに近接した領域を識別することによって判定されるが、コントローラを保持していないユーザの手が位置するコントローラの側部上の点の周囲で中心化される。なお別の実施形態において、ジェスチャ領域は、ユーザが、ユーザの両手によって保持されるように設計されるコントローラを動作させている時、ユーザは、かかる領域においてジェスチャし得るため、コントローラの側部の上またはそこまでの領域として定義される。
一部の実施形態において、注記されたように、画像捕捉デバイス104は、照射された物体の高品質の画像捕捉および高忠実度追跡を達成するように、異なる様態で動作させられる、2つのカメラを含むことができる。2つのカメラは、一方が、より高い解像度および露出で高品質画像を生成しつつ、他方が、より低い解像度および露出で低品質画像を生成するように、動作させられてもよい。さらに、カメラの各々の個々のフレームレートは、異なってもよい。例として、高品質カメラは、より高い露出を達成するために、より長い露出時間を必要とし得、したがって、より低いフレームレートを必要とする。一方で、低品質カメラは、比較的より低い露出を達成するために、より短い露出時間を必要とし得、したがって、追跡目的にとって有益であるより速いフレームレートを提供する。
図8は、本発明の一実施形態に従う、ビデオゲームとのインタラクションを提供するために使用され得るハードウェアおよびユーザインターフェースを例解する。図8は、本発明の実施形態に従う、基本コンピューティングデバイスで実行されるコンピュータプログラムと制御デバイスをインターフェース接続させるために互換性があり得るコンソールである、Sony(登録商標)Playstation3(登録商標)娯楽デバイスの全体的なシステムアーキテクチャを概略的に例解する。システムユニット700には、システムユニット700に接続可能な種々の周辺デバイスが提供される。システムユニット700は、Cellプロセッサ728、Rambus(登録商標)ダイナミックランダムアクセスメモリ(XDRAM)ユニット726、専用のビデオランダムアクセスメモリ(VRAM)ユニット732を持つReality Synthesizerグラフィックスユニット730、およびI/Oブリッジ734を備える。システムユニット700はまた、I/Oブリッジ734を介してアクセス可能な、ディスク740aから読み取るBlu Ray(登録商標)Disk BD−ROM(登録商標)光ディスク読み取り装置740および取り外し可能なスロットインハードディスクドライブ(HDD)736を備える。任意に、システムユニット700はまた、同様にI/Oブリッジ734を介してアクセス可能な、コンパクトフラッシュ(登録商標)メモリカード、Memory Stick(登録商標)メモリカード、および類似物から読み取るメモリカード読み取り装置738を備える。
I/Oブリッジ734はさらに、6つのユニバーサルシリアルバス(USB)2.0ポート724、ギガビットイーサネット(登録商標)ポート722、IEEE802.11b/g無線ネットワーク(Wi−Fi)ポート720、および最大で7つのBluetooth(登録商標)接続部をサポート可能なBluetooth(登録商標)無線リンクポート718に接続する。
動作に際して、I/Oブリッジ734は、1つ以上のゲームコントローラ702〜703からのデータを含む、全ての無線データならびにUSBおよびイーサネット(登録商標)のデータを取り扱う。例えば、ユーザがゲームをプレイしているとき、I/Oブリッジ734は、Bluetooth(登録商標)リンクを介してゲームコントローラ702〜703からデータを受信して、これをCellプロセッサ728に出力するが、このプロセッサはこれに応じてゲームの現在の状態を更新する。
無線のUSBポートおよびイーサネット(登録商標)ポートはさらに、遠隔制御機器704、キーボード706、マウス708、Sony Playstation Portable(登録商標)娯楽デバイスなどの携帯式娯楽デバイス710、EyeToy(登録商標)ビデオカメラ712などのビデオカメラ、マイクロホンヘッドセット714、およびマイクロホン715などの、ゲームコントローラ702〜703以外の他の周辺デバイスに対する接続性を提供する。したがって、このような周辺デバイスは、原則として、無線でシステムユニット700に接続され得るが、例えば、携帯式娯楽デバイス710は、Wi−Fiアドホック接続部を介して通信し得るが、一方、マイクロホンヘッドセット714は、Bluetooth(登録商標)リンクを介して通信し得る。
これらのインターフェースをこのように提供することは、Playstation3もまた、デジタルビデオ記録装置(DVR)、セットトップボックス、デジタルカメラ、携帯式メディアプレイヤ、ボイスオーバーアイピー電話、モバイル電話、印刷機、およびスキャナなどの他の周辺デバイスと潜在的に互換性があることを意味する。
加えて、レガシーメモリカード読み取り装置716は、USBポート724を介してシステムユニットに接続されて、Playstation(登録商標)またはPlaystation2(登録商標)デバイスによって使用される種類のメモリカード748の読み取りを可能とし得る。
ゲームコントローラ702〜703は、Bluetooth(登録商標)リンクを介してシステムユニット700と無線で通信するように、またはUSBポートに接続され、これによりゲームコントローラ702〜703のバッテリを充電するための電力を提供するようにも動作可能である。ゲームコントローラ702〜703はまた、メモリ、プロセッサ、メモリカード読み取り装置、フラッシュメモリなどの永久メモリ、照射される球形セクションなどの発光体、LED、または赤外線、超音波通信用のマイクロホンおよびスピーカー、音響室、デジタルカメラ、内部クロック、ゲーム機に対面する球形セクションなどの認識可能な形状、およびBluetooth(登録商標)、WiFi(商標)等のプロトコルを使用する無線通信体を含むことができる。
ゲームコントローラ702は、二本の手で使用されるように設計されたコントローラであり、ゲームコントローラ703は、付属品付きの一本の手で用いるコントローラである。1つ以上のアナログ式のジョイスティックおよび従来型の制御ボタンに加えて、ゲームコントローラは、3次元位置の判定の影響を受けやすい。その結果、ゲームコントローラのユーザの身振りおよび運動は、従来型のボタンまたはジョイスティックコマンドに加えてまたはこれらの代わりにゲームに対する入力として解釈され得る。任意に、Playstation(商標)Portableデバイスなどの他の無線でイネーブルされる周辺デバイスをコントローラとして使用され得る。Playstation(商標)Portableデバイスの場合、さらなるゲームまたは制御情報(例えば、制御命令または生命体の数)は、デバイスの画面上に提供され得る。ダンスマット(図示せず)、ライトガン(図示せず)、ハンドルおよびペダル(図示せず)、または迅速応答クイズゲーム(これも図示せず)用の1つもしくは複数の大型ボタンなどの特注のコントローラなどの他の代替のまたは補足の制御デバイスもまた、使用され得る。
遠隔制御機器704もまた、Bluetooth(登録商標)リンクを介してシステムユニット700と無線で通信するように動作可能である。遠隔制御機器704は、Blu Ray(登録商標)Disk BD−ROM読み取り装置540の動作と、ディスクコンテンツのナビゲーションとに適した制御機器を備える。
Blu Ray(登録商標)Disk BD−ROM読み取り装置740は、従来型の事前記録済みまたは記録可能なCDに加えてPlaystationデバイスおよびPlaystation2デバイスと互換性のあるCD−ROMおよびいわゆるSuper Audio CDを読み取るように動作可能である。読み取り装置740はまた、従来型の事前記録済みまたは記録可能なDVDに加えてPlaystation2デバイスおよびPlaystation3デバイスと互換性のあるDVD−ROMを読み取るように動作可能である。読み取り装置740はまた、Playstation3デバイスと互換性のあるBD−ROMならびに従来型の事前記録済みおよび記録可能なBlu−Rayディスクを読み取るようにさらに動作可能である。
システムユニット700は、Reality Synthesizerグラフィックスユニット730を介してPlaystation3によって生成されたまたは復号化されたオーディオおよびビデオを、オーディオコネクタおよびビデオコネクタを介して、ディスプレイ744および1つ以上のラウドスピーカ746を有するモニタまたはテレビなどのディスプレイおよび音声出力デバイス742に対して供給するように動作可能である。オーディオコネクタ750は、従来型のアナログ式およびデジタル式の出力部を含み、一方、ビデオコネクタ752は、コンポーネントビデオ、Sビデオ、複合ビデオ、および1つ以上の高解像度マルチメディアインターフェース(HDMI(登録商標))出力部を種々に含み得る。その結果、ビデオ出力は、PALもしくはNTSCまたは720p、1080i、もしくは1080p高解像度などの形態であり得る。
オーディオ処理(生成、復号化など)は、Cellプロセッサ728によって実行される。Playstation3デバイスのオペレーティングシステムDolby(登録商標)5.1サラウンドサウンド、Dolby(登録商標)シアターサラウンド(DTS)、およびBlu−Ray(登録商標)ディスクからの7.1サラウンドサウンドの復号化をサポートする。
本実施形態において、ビデオカメラ712は、1つの電荷結合デバイス(CCD)、LEDインジケータ、およびハードウェアベースのリアルタイムデータ圧縮・符号化装置を備え、これにより、圧縮されたビデオデータが、システムユニット700によって復号化されるように画像内ベースのMPEG(エムペグ)基準などの適切な様式で伝送されるようにする。カメラLEDインジケータは、システムユニット700からの適切な制御データに応答して照射して、例えば、照明の状態が悪いことを知らせるように配置される。ビデオカメラ712の実施形態は、USB、Bluetooth(登録商標)、またはWiFiの通信ポートを介してシステムユニット700に種々に接続し得る。ビデオカメラの実施形態は、1つ以上の関連付けられたマイクロホンを含み得、またオーディオデータを伝送することが可能である。ビデオカメラの実施形態において、CCDは、高解像度ビデオ捕捉にとって適切な解像度を有し得る。使用中、ビデオカメラで捕捉された画像は、例えば、ゲーム内に取り込まれるまたはゲーム制御入力として解釈され得る。別の実施形態において、このカメラは、赤外線を検出するのに適切な赤外線カメラである。
一般に、システムユニット700の通信ポートのうちの1つを介してビデオカメラまたは遠隔制御機器などの周辺デバイスでデータ通信を成功裏に発生させるためには、デバイスドライバなどの適切なソフトウエアを提供すべきである。デバイスドライバ技術は、公知であり、ここでは詳細には説明しないが、当業者であれば、デバイスドライバまたは類似のソフトウエアインターフェースがここに記述された実施形態で必要とされ得ることは理解しえるであろう。
図9は、本発明の一実施形態に従う、命令を処理するために使用され得る追加のハードウェアを例解する。Cellプロセッサ728は、4つの基本的部品、即ち、メモリコントローラ860およびデュアルバスインターフェースコントローラ870A、Bを含む外部入力および出力構造体と;パワープロセッシングエレメント850と呼ばれる主プロセッサと;相乗処理要素(SPE)810A〜Hと呼ばれる8個のコプロセッサと;要素相互接続バス880と呼ばれるこれらの部品を接続する円形データバスと;を備えるアーキテクチャを有する。Cellプロセッサの合計の浮動小数点性能は、Playstation2デバイスのEmotion Engineの6.2GFLOPSと比較して218GFLOPSである。
パワープロセッシングエレメント(PPE)850は、3.2GHzという内部クロックで走行する双方向同時マルチスレッドPower570に準拠したPower PCコア(PPU)855に基づいている。これは、512kBレベル2(L2)キャッシュおよび32kBレベル1(L1)キャッシュを備える。PPE850は、1クロックサイクル当たり8つの単一位置演算が可能であり、つまり、3.2GHzで25.6GFLOPSということである。PPE850の主要な役割は、計算負荷のほとんどを取り扱う相乗処理要素810A〜Hに対するコントローラとして機能することである。動作中、PPE850は、ジョブの待ち行列を維持して、相乗処理要素810A〜Hに対するジョブをスケジューリングして、これらの進行を監視する。その結果、各々の相乗処理要素810A〜Hは、ジョブを取ってきて、これを実行し、PPE850と同期することが役割であるカーネルを走行させる。
各々の相乗処理要素(SPE)810A〜Hは、それぞれの相乗処理ユニット(SPU)820A〜Hと、それぞれの動的メモリアクセスコントローラ(DMAC)842A〜H、それぞれのメモリ管理ユニット(MMU)844A〜H、およびバスインターフェース(図示せず)を含むそれぞれのメモリフローコントローラ(MFC)840A〜Hと、を備える。各々のSPU820A〜Hは、3.2GHzでクロック動作するRISCプロセッサであり、原理上4GBまで拡張可能な256kBのローカルRAM830A〜Hを備える。各々のSPEは、理論的には25.6GFLOPSという単精度性能を提供する。SPUは、1つのクロックサイクルで、4個の単精度浮動小数点要素、4個の32ビットの数、8個の16ビットの整数、または16個の8ビットの整数を演算することができる。同じクロックサイクルで、これはまた、メモリ動作を実行することができる。SPU820A〜Hは、システムメモリXDRAM726を直接的にアクセスすることはなく、SPU820A〜Hによって形成される64ビットアドレスは、MFC840A〜Hに送られ、これが、これのDMAコントローラ842A〜Hに対して、要素相互接続バス880およびメモリコントローラ860を介してメモリにアクセスするように命令する。
要素相互接続バス(EIB)880は、上記のプロセッサ要素、即ちPPE850、メモリコントローラ860、デュアルバスインターフェース870A,B、および8個のSPE810A〜Hの合計12個の関係物を接続するCellプロセッサ728の内部にある論理的に円形の通信バスである。関係物は、1クロックサイクル当たり8バイトという速度でバスに対して同時に読み出しおよび書き込みされる。すでに注記したように、各々のSPE810A〜Hは、より長い読み出しまたは書き込みのシーケンスをスケジュールするためのDMAC842A〜Hを備える。EIBは、それぞれ時計回り方向と反時計回り方向にそれぞれ2チャネルずつで、4つのチャネルを備える。その結果、12個の関係物に対して、いずれかの2つの関係物同士間での最長の段階的なデータフローは、適切な方向に6段階となる。したがって、12スロットに対する理論的なピークの瞬間的なEIB帯域幅は、関係物同士間での調停を通じて完全に利用した場合には、1クロックあたり96Bである。これは、3.2GHzというクロック速度で307.2GB/s(ギガバイト/秒)という理論的ピークの帯域幅と同じである。
メモリコントローラ860は、Rambus社が開発したXDRAMインターフェース862を備える。このメモリコントローラは、25.6GB/秒という理論的ピークの帯域幅を持つRambus XDRAM726とインターフェース接続する。
デュアルバスインターフェース870A、Bは、Rambus FlexIO(登録商標)システムインターフェース872A、Bを備える。このインターフェースは、各々が8ビット幅で、5つの経路が内向きで7つの経路が外向きの12個のチャネルに構成される。これは、コントローラ870Aを介するCellプロセッサとI/Oブリッジ734との間、および、コントローラ870Bを介するCellプロセッサとReality Simulatorグラフィックスユニット730との間で、62.4GB/秒(外向きに36.4GB/s、内向きに26GB/s)という理論的ピークの帯域幅を提供する。
Cellプロセッサ728からReality Simulatorグラフィックスユニット730に送られるデータは、一般的には、表示リストを含むが、これは、頂点を引き、ポリゴンに質感を付け、照明条件を指定する、などのためのコマンドのシーケンスである。
図10は、本発明の一実施形態に従う、それぞれのユーザA〜ユーザEがインターネットを介してサーバ処理に接続されるゲームクライアント1102とインタラクションを行う、場面A〜場面Eの例示的な例解図である。ゲームクライアントは、ユーザがインターネットを介してサーバアプリケーションおよび処理に接続することを可能にするデバイスである。ゲームクライアントは、ユーザが、これに限られないが、ゲーム、映画、音楽、および写真などのオンラインの娯楽コンテンツにアクセスして再生することを可能にする。加えて、ゲームクライアントは、VOIP、テキストチャットプロトコル、および電子メールなどのオンライン通信アプリケーションへのアクセスを提供することができる。
ユーザは、コントローラを介してゲームクライアントとインタラクションを行う。一部の実施形態において、コントローラは、ゲームクライアント固有のコントローラであり、一方、コントローラがキーボードとマウスの組み合わせである実施形態もある。一実施形態において、ゲームクライアントは、オーディオ信号およびビデオ信号を出力して、モニタ/テレビおよび関連付けられたオーディオ装置を介してマルチメディア環境を作成することが可能なスタンドアロンデバイスである。例えば、ゲームクライアントは、これに限られないが、シンクライアント、内部PCI−expressカード、外部PCI−expressデバイス、ExpressCardデバイス、内部、外部、もしくは無線USBデバイス、またはFirewireデバイス等であり得る。他の実施形態において、ゲームクライアントは、テレビ、またはDVR、Blu−Rayプレイヤ、DVDプレイヤ、もしくはマルチチャネル受信機といった他のマルチメディアデバイスと統合される。
図10の場面A内では、ユーザAは、ゲームクライアント1102Aと対になっているコントローラ1106Aを使用して、モニタ1104A上に表示されるクライアントアプリケーションとインタラクションを行う。同様に、場面B内では、ユーザBが、ゲームクライアント1102Bと対になっているコントローラ1106Bを使用して、モニタ1104B上に表示される別のクライアントアプリケーションとインタラクションを行っている。場面Cは、ユーザCが、ゲームクライアント1102Cからのゲームおよび友達リストを表示するモニタを見ているところをその背後から見た図を示す。図10は、単一のサーバ処理モジュールを示しているが、一実施形態において、世界中に複数のサーバ処理モジュールが存在する。各々のサーバ処理モジュールは、ユーザセッション制御用のサブモジュール、共有/通信ロジック、ユーザの地理的位置、および負荷均衡処理サービスを含む。さらに、サーバ処理モジュールは、ネットワーク処理および分散ストレージを含む。
ゲームクライアント1102は、サーバ処理モジュールに接続するとき、ユーザセッション制御を使用して、ユーザを認証する。認証されたユーザは、関連付けられた仮想化された分散ストレージおよび仮想化されたネットワーク処理を有することができる。ユーザの仮想化された分散ストレージの一部として記憶することができる例示的な項目としては、これらに限定されないが、ゲーム、ビデオ、および音楽等といった購入された媒体が挙げられる。加えて、分散ストレージは、複数のゲームのゲームステータス、個々のゲームに対するカスタム化された設定、およびゲームクライアントに対する一般的設定を保存することができる。一実施形態において、サーバ処理のユーザの地理的位置モジュールを使用して、ユーザの地理的位置およびこれらのそれぞれのゲームクライアントを判定する。ユーザの地理的位置を、共有/通信ロジックと負荷均衡処理サービスの双方によって使用して、複数のサーバ処理モジュールの地理的位置および処理需要に基づいて性能を最適化することができる。ネットワーク処理とネットワークストレージのどちらかまたは双方を仮想化することは、ゲームクライアントからの処理タスクを、稼働していないサーバ処理モジュールに動的に移すことを可能にし得る。したがって、ロードバランシングあるいは負荷均衡を使用して、ストレージからのリコールと、サーバ処理モジュールとゲームクライアントとの間のデータ伝送との双方と関連付けられる持ち時間を最小化することができる。
サーバ処理モジュールは、サーバアプリケーションAおよびサーバアプリケーションBというインスタンスを有する。サーバ処理モジュールは、サーバアプリケーションXおよびサーバアプリケーションXによって示されるように複数のサーバアプリケーションをサポートすることが可能である。一実施形態において、サーバ処理は、あるクラスタ内の複数のプロセッサがサーバアプリケーションを処理することを可能にするクラスタ計算アーキテクチャに基づく。別の実施形態において、異なるタイプのマルチコンピュータ処理スキームを応用して、サーバアプリケーションを処理する。これは、サーバ処理をスケールして、複数のクライアントアプリケーションおよび対応するサーバアプリケーションを実行するより多くのゲームクライアントに対応することを可能にする。代替的に、サーバ処理をスケールして、より需要があるグラフィックス処理またはゲーム、ビデオ圧縮、もしくはアプリケーションの複雑性によって必要とされる増大する計算需要に対応することができる。一実施形態において、サーバ処理モジュールは、サーバアプリケーションを介して大多数の処理を実施する。これは、グラフィックスプロセッサ、RAM、および汎用プロセッサなどの比較的高価な部品を中心に置くことを可能にし、ゲームクライアントの経費が軽減される。処理されたサーバアプリケーションデータは、インターネットを介して対応するゲームクライアントに送り返されて、モニタ上に表示される。
場面Cは、ゲームクライアントおよびサーバ処理モジュールによって実行可能な例示のアプリケーションを示す。例えば、一実施形態において、ゲームクライアント1102Cは、ユーザCが、ユーザA、ユーザB、ユーザD、およびユーザEを含む仲間リスト1120を作成して閲覧することを可能にする。場面Cに示すように、ユーザCは、それぞれのユーザのリアルタイム画像かアバタかのどちらかをモニタ1104C上で見ることが可能である。サーバ処理は、ゲームクライアント1102Cのそれぞれのアプリケーションを、しかもユーザA、ユーザB、ユーザD、およびユーザEのそれぞれのゲームクライアント1102で実行する。サーバ処理はアプリケーションがゲームクライアントBによって実行されていることを認識しているため、ユーザAに対する仲間リストは、どのゲームをユーザBがプレイしているかを示すことができる。またさらに、一実施形態において、ユーザAは、ユーザBから直接に実際のゲーム内ビデオを閲覧することができる。これは、ユーザBに対する処理済みのサーバアプリケーションデータを、ゲームクライアントBに加えてゲームクライアントAに対して単に送り返すだけで可能とされる。
仲間からのビデオを閲覧することが可能であることに加えて、通信アプリケーションは、仲間同士間でのリアルタイム通信を可能にすることができる。前の例に当てはめると、これは、ユーザAが、ユーザBのリアルタイムビデオを見ながら激励またはヒントを提供することを可能にする。一実施形態において、インタラクティブリアルタイム音声通信が、クライアント/サーバアプリケーションを介して確立される。別の実施形態において、クライアント/サーバアプリケーションは、テキストチャットを可能とする。さらに別の実施形態において、クライアント/サーバアプリケーションは、音声をテキストに変換して、仲間の画面上に表示されるようにする。
場面Dおよび場面Eは、それぞれゲーム機1110Dおよび1110Eとインタラクションを行うそれぞれのユーザDおよびユーザEを示す。各々のゲーム機1110Dおよび1110Eは、サーバ処理モジュールに接続され、ネットワークを示すが、ここで、サーバ処理モジュールは、ゲーム機とゲームクライアントとの双方に対するゲームプレイを統合する。
図11は、情報サービスプロバイダアーキテクチャの実施形態を例解する。情報サービスプロバイダ(ISP)1370は、地理的に分散されネットワーク1386を介して接続されるユーザ1382に対して多量の情報サービスを配送する。ISPは、株価最新情報などのたった1つのタイプのサービスまたは放送メディア、ニュース、スポーツ、ゲームなどの様々なサービスを配送することができる。加えて、各々のISPが提供するサービスが動的である、即ち、サービスは、任意の時点で追加したり取り除いたりすることが可能である。したがって、特定のタイプのサービスを特定の個人に提供するISPは、時間の経過とともに変化し得る。例えば、ユーザは、居住地にいながら、自身に近接しているISPからサービスを受け得るし、またユーザは、自身が異なる都市に旅行するときに異なるISPからサービスを受け得る。居住地のISPは、必要とされる情報およびデータを新しいISPに転送し、これによりユーザ情報は、ユーザの「あとを追って」新しい都市まで行って、このデータをユーザにとってより近いものとしてアクセスしやすくする。別の実施形態において、マスター・サーバ関係は、ユーザの情報を管理するマスターISPとマスターISPの制御下にあるユーザと直接インターフェース接続するサーバISPとの間で確立され得る。クライアントが世界中を移動する間に、ユーザにサービスするより良い位置にあるISPをこれらのサービスを配送するISPとするために、データが1つのISPから別のISPに転送される実施形態もある。
ISP1370は、アプリケーションサービスプロバイダ(ASP)1372を含むが、これは、ネットワークを介してコンピュータベースのサービスを顧客に提供する。ASPモデルを使用して提供されるソフトウエアもまた、時として、オンデマンドソフトウエアまたはソフトウエアアズアサービス(SaaS)と呼ばれる。特定のアプリケーションプログラム(顧客関係管理など)に対してアクセスする簡単な形態は、HTTPなどの標準のプロトコルを使用することである。アプリケーションソフトウエアは、ベンダーのシステム上に常駐して、ベンダーが提供する特殊目的のクライアントソフトウエアによってHTMLを使用してウェブブラウザまたはシンクライアントなどの他の遠隔のインターフェースを介してユーザによってアクセスされる。
広い地理的エリアにわたって届けられるサービスはしばしば、クラウドコンピューティングを使用する。クラウドコンピューティングは、動的にスケール可能で、かつしばしば仮想化される資源がインターネットを介してサービスとして提供されるコンピューティングのスタイルである。ユーザは、彼らをサポートする「クラウド」中では技術のインフラストラクチャの専門家である必要はない。クラウドコンピューティングは、インフラストラクチャアズアサービス(IaaS)、プラットフォームアズアサービス(PaaS)、およびソフトウエアアズアサービス(SaaS)といった、異なるサービスに分割することができる。クラウドコンピューティングはしばしば、ウェブブラウザからアクセスされる共通のビジネスアプリケーションをオンラインで提供する一方で、ソフトウエアおよびデータはサーバに記憶される。クラウドという用語は、インターネットがコンピュータネットワーク図でどのように表現されるかに基づいたインターネットの比喩的表現であり、かつこれが隠蔽する複雑なインフラストラクチャの抽象概念である。
さらに、ISP1370は、一人のおよび複数参加型ビデオゲームをプレイするためにゲームクライアントが使用するゲーム処理サーバ(GPS)1374を含む。インターネット上でプレイされるほとんどのゲームは、ゲームサーバに対する接続を介して動作する。一般的に、ゲームは、プレイヤからデータを収集してこれを他のプレイヤに配信する専用のサーバアプリケーションを使用する。これは、ピアツーピア配置より効率的かつ効果的であるが、サーバアプリケーションをホストするために個別のサーバを必要とする。別の実施形態において、GPSは、プレイヤとこれらのそれぞれのゲームプレイ用デバイスとの間に通信を確立して、中央のGPSに依存することなく、情報を交換する。
専用のGPSは、クライアントとは独立に走行するサーバである。このようなサーバは、通常は、データセンターに置かれた専用のハードウェア上で動作して、より多くの帯域幅および専用の処理能力を提供する。専用のサーバは、ほとんどのPCベースの複数参加型ゲームの場合にゲームサーバをホストする好ましい方法である。大規模複数参加型オンラインゲームは、ゲーム製品を所有するソフトウエア会社が通常はホスト役を務める専用のサーバ上を走行し、彼らがコンテンツを制御し、かつ更新することを可能にする。
放送処理サーバ(BPS)1376は、オーディオ信号またはビデオ信号を視聴者に配信する。非常に狭い範囲の視聴者に対する放送は時としてナローキャスティングと呼ばれる。放送配信の最後の行程は、信号がどのようにして聴取者または観察者に届くかであり、ラジオ局またはテレビ局の場合のように放送でアンテナまたは受信機に届いたり、または、局を介してケーブルTVまたはケーブルラジオ(または「無線ケーブル」)を介してまたはネットワークから直接に届いたりし得る。インターネットもまた、ラジオまたはテレビを受信者に届け、特にマルチキャストによって、信号および帯域幅を共有することを可能にする。歴史的に、放送は、全国放送または地域放送など、地理的な領域によって境界を区切られてきた。しかしながら、高速インターネットの普及によって、コンテンツを世界中のほとんどどの国にも到達させることができるため、放送は地理によって境界を区切られることはない。
ストレージサービスプロバイダ(SSP)1378は、コンピュータ記憶空間および関連する管理サービスを提供する。SSPはまた、定期的なバックアップおよびアーカイビングを提供する。記憶をサービスとして提供することによって、ユーザは、必要に応じてより多くの記憶を注文することができる。別の主要な利点は、SSPがバックアップサービスを含み、ユーザが、自身のコンピュータのハードドライブが故障しても自身のデータをすべて失うことはないということである。さらに、複数のSSPは、ユーザデータの全てのまたは部分的なコピーを有して、ユーザがどこにいるかまたはデータにアクセスするために使用されているデバイスとは無関係に、ユーザが効率的な方法でデータにアクセスすることを可能にすることができる。例えば、ユーザが移動中であるときに、ユーザは、ホームコンピュータ中の、および携帯電話の中の個人的なファイルにアクセスすることができる。
通信プロバイダ380は、ユーザに対して接続性を提供する。通信プロバイダの1つの種類は、インターネットにアクセスするインターネットサービスプロバイダ(ISP)である。ISPは、ダイアルアップ、DSL、ケーブルモデム、無線、または専用高速相互接続などのインターネットプロトコルデータグラムを配送するのに適したデータ伝送技術を使用してその顧客を接続する。通信プロバイダはまた、電子メール、インスタントメッセージ、およびSMS文章作成などのメッセージサービスを提供することができる。別のタイプの通信プロバイダは、インターネットに直接的なバックボーンアクセスをすることによって、帯域幅またはネットワークアクセスを売却するネットワークサービスプロバイダ(NSP)である。ネットワークサービスプロバイダは、電気通信会社、データ通信業者、無線通信プロバイダ、インターネットサービスプロバイダ、高速インターネットアクセスを提供するケーブルTVオペレータから成ることがあり得る。
データ交換1388は、ISP1370内部のいくつかのモジュールを相互接続し、かつネットワーク1386を介してこれらのモジュールをユーザ1382に接続する。データ交換1388は、ISP1370のすべてのモジュールが近接している小さいエリアをその範囲とすることができるか、または、異なるモジュールが地理的に分散している大きい地理的エリアをその範囲とすることができる。例えば、データ交換1388は、データセンターの保管庫内の高速のギガビットイーサネット(登録商標)(またはこれより高速)または大陸間仮想エリアネットワーク(VLAN)を含むことができる。
ユーザ1382は、少なくともCPU、ディスプレイ、およびI/Oを含むクライアントデバイス1384で遠隔サービスにアクセスする。クライアントデバイスは、PC、携帯電話、ネットブック、PDAなどであり得る。一実施形態において、ISP1370は、クライアントが使用するデバイスのタイプを認識して、採用する通信方法を調整する。クライアントデバイスが、htmlといった標準の通信方法を使用して、ISP1370にアクセスする場合もある。
本発明の実施形態は、手持ち式デバイス、マイクロプロセッサシステム、マイクロプロセッサベースもしくはプログラム可能な消費者向け電子機器、ミニコンピュータ、メインフレームコンピュータ、および類似物を含む種々のコンピュータシステム構成で実行され得る。本発明はまた、有線ベースのもしくは無線のネットワークを介してリンクされる遠隔処理デバイスによってタスクが実施される分散計算環境下で実行可能である。
上記の実施形態を念頭に置いて、本発明は、コンピュータシステムに記憶されるデータを伴う種々のコンピュータで実行される動作を採用することができることを理解すべきである。これらの動作は、物理量を物理的に操作することを必要とするものである。本発明の一部を成す本明細書で説明する動作はいずれも、有用な機械動作である。本発明はまた、これらの動作を実施するデバイスまたは装置に関する。装置は、必要とされる目的のために特別に構築することができる、即ち、装置は、コンピュータ中に記憶されるコンピュータプログラムによって選択的に起動されるまたは構成される汎用コンピュータであり得る。特に、種々の汎用機械を、本明細書における教示に従って書かれたコンピュータプログラムで使用することができる、即ち、必要な動作を実施するためにより特殊化された装置を構築することがより便利であり得る。
本発明はまた、コンピュータで読み取り可能な媒体上のコンピュータで読み取り可能なコードとして具現化することができる。コンピュータで読み取り可能な媒体は、データを記憶することが可能ないずれかのデータ記憶デバイスであり、このデータは、この後でコンピュータシステムによって読み出すことができる。コンピュータで読み取り可能な媒体の例には、ハードドライブ、ネットワーク接続ストレージ(NAS)、リードオンリーメモリ、ランダムアクセスメモリ、CD−ROM、CD−R、CD−RW、磁気テープ、および他の光学および非光学データ記憶デバイスが含まれる。コンピュータで読み取り可能な媒体は、コンピュータで読み取り可能なコードが記憶されて、分散的に実行されるように、ネットワーク結合されたコンピュータシステム上で分散されるコンピュータで読み取り可能な有形媒体を含むことができる。
方法動作を特定の順序で説明したが、他の日常業務動作を動作と動作の間で実施し得るか、または動作を、互いに少し異なる時点で発生するように調整し得るか、もしくはシステムに分散することができ、これにより、オーバーレイ動作の処理が所望の方法で実施されるかぎり、処理と関連付けられる種々の間隔で処理動作が発生することを可能にすることが理解されるべきである。
前述の本発明を明瞭に理解されるように幾分詳細に説明したが、ある変更および修正を添付クレームの範囲内で実行可能であることが明らかであろう。したがって、本実施形態は、例解的であって制限的ではないと考慮されるべきであり、本発明は、本明細書で記載する詳細に限定されることはなく、添付の特許請求の範囲およびその均等の範囲内で修正可能なものである。

Claims (40)

  1. インタラクティブアプリケーションに対して入力を提供するための画像捕捉デバイスであって、
    筐体と、
    前記筐体の前面に沿って画定される第1のカメラと、
    第1の露出設定で、ユーザとのインタラクションの間に、インタラクティブ環境の画像を捕捉するように、前記第1のカメラを制御するように構成される、第1のカメラコントローラと、
    前記筐体の前記前面に沿って画定される第2のカメラと、
    前記第1の露出設定よりも低い第2の露出設定で、前記ユーザとのインタラクションの間に、前記インタラクティブ環境の画像を捕捉するように、前記第2のカメラを制御するように構成される、第2のカメラコントローラと、を備え、前記第2のカメラからの前記捕捉された画像は、前記インタラクティブ環境において照射された物体を識別および追跡するように分析される、画像捕捉デバイス。
  2. 前記第1のカメラからの前記捕捉された画像は、ユーザを識別および追跡するように分析される、請求項1に記載の画像捕捉デバイス。
  3. 前記ユーザを識別および追跡することは、前記ユーザの顔を識別および追跡することを含む、請求項2に記載の画像捕捉デバイス。
  4. 前記第1のカメラおよび前記第2のカメラは、前記筐体の前記前面に沿って水平に整合される、請求項1に記載の画像捕捉デバイス。
  5. 前記インタラクティブ環境からの音声を捕捉するためのマイクロホンアレイをさらに備える、請求項1に記載の画像捕捉デバイス。
  6. 前記第1のカメラコントローラは、前記ユーザとのインタラクションの前に、前記インタラクティブ環境の画像を捕捉するように、前記第1のカメラを制御するように構成され、前記ユーザとのインタラクションの前に捕捉される前記画像は、前記第1の露出設定を判定するように分析される、請求項1に記載の画像捕捉デバイス。
  7. 前記第2のカメラコントローラは、前記ユーザとのインタラクションの前に、前記インタラクティブ環境の画像を捕捉するように、前記第2のカメラを制御するように構成され、前記ユーザとのインタラクションの前に捕捉される前記画像は、前記第2の露出設定を判定するように分析される、請求項1に記載の画像捕捉デバイス。
  8. インタラクティブアプリケーションとのインタラクションを容易にするためのシステムであって、
    画像捕捉デバイスであって、第1のカメラと、第2のカメラと、第1の露出設定で、ユーザとのインタラクションの間に、インタラクティブ環境の画像を捕捉するように、前記第1のカメラを制御するように構成される、第1のカメラコントローラと、前記第1の露出設定よりも低い第2の露出設定で、前記ユーザとのインタラクションの間に、前記インタラクティブ環境の画像を捕捉するように、前記第2のカメラを制御するように構成される、第2のカメラコントローラとを含む、画像捕捉デバイスと、
    前記画像捕捉デバイスに接続されるコンピューティングデバイスであって、前記コンピューティングデバイスは、前記インタラクティブアプリケーションを実行するように構成され、前記コンピューティングデバイスは、前記インタラクティブ環境において照射された物体を識別および追跡するように、前記第2のカメラからの前記捕捉された画像を分析するように構成される、コンピューティングデバイスと、を備える、システム。
  9. 前記コンピューティングデバイスは、ユーザを識別および追跡するように、前記第1のカメラからの前記捕捉された画像を分析するように構成される、請求項8に記載のシステム。
  10. 前記ユーザを識別および追跡することは、前記ユーザの顔を識別および追跡することを含む、請求項9に記載のシステム。
  11. 前記第1のカメラおよび前記第2のカメラは、前記筐体の前記前面に沿って水平に整合される、請求項8に記載のシステム。
  12. 前記インタラクティブ環境からの音声を捕捉するためのマイクロホンアレイをさらに備える、請求項8に記載のシステム。
  13. 前記第1のカメラコントローラは、前記ユーザとのインタラクションの前に、前記インタラクティブ環境の画像を捕捉するように、前記第1のカメラを制御するように構成され、前記ユーザとのインタラクションの前に捕捉される前記画像は、前記第1の露出設定を判定するように分析される、請求項8に記載のシステム。
  14. 前記第2のカメラコントローラは、前記ユーザとのインタラクションの前に、前記インタラクティブ環境の画像を捕捉するように、前記第2のカメラを制御するように構成され、前記ユーザとのインタラクションの前に捕捉される前記画像は、前記第2の露出設定を判定するように分析される、請求項8に記載のシステム。
  15. インタラクティブアプリケーションとのインタラクションのための方法であって、
    第1の露出設定で、ユーザとのインタラクションの間に、インタラクティブ環境からの画像を捕捉することと、
    前記第1の露出設定よりも低い第2の露出設定で、前記ユーザとのインタラクションの間に、前記インタラクティブ環境からの画像を捕捉することと、
    前記インタラクティブ環境において照射された物体を識別および追跡するように、前記第2の露出設定において捕捉される前記画像を分析することと、を含む、方法。
  16. ユーザを識別および追跡するように、前記第1の露出設定において捕捉される前記画像を分析することをさらに含む、請求項15に記載の方法。
  17. 前記ユーザを識別および追跡することは、前記ユーザの顔を識別および追跡することを含む、請求項16に記載の方法。
  18. ARタグを識別および追跡するように、前記第1の露出設定において捕捉される前記画像を分析することをさらに含む、請求項15に記載の方法。
  19. 前記インタラクティブ環境からの音声を捕捉することをさらに含む、請求項15に記載の方法。
  20. 前記ユーザとのインタラクションの前に、前記インタラクティブ環境の画像を捕捉することと、
    前記第1の露出設定または前記第2の露出設定のうちの1つ以上を判定するように、前記ユーザとのインタラクションの前に捕捉される前記画像を分析することと、をさらに含む、請求項15に記載の方法。
  21. インタラクティブアプリケーションとのマルチプレイヤインタラクションを管理するための方法であって、
    第1のコントローラの位置を判定することと、
    第2のコントローラの位置を判定することと、
    第1のユーザのバイオメトリック識別子の位置を判定することと、
    第2のユーザのバイオメトリック識別子の位置を判定することと、
    前記第1のコントローラの前記位置および前記第1のユーザの前記バイオメトリック識別子の前記位置に基づいて、前記第1のコントローラを前記第1のユーザと対にすることと、
    前記第2のコントローラの前記位置および前記第2のユーザの前記バイオメトリック識別子の前記位置に基づいて、前記第2のコントローラを前記第2のユーザと対にすることと、を含み、
    前記方法は、プロセッサによって実行される、方法。
  22. 前記第1のコントローラの前記位置を判定することは、前記第1のコントローラの照射された部分を識別することを含み、
    前記第2のコントローラの前記位置を判定することは、前記第2のコントローラの照射された部分を識別することを含む、請求項21に記載の方法。
  23. 前記第1のコントローラの前記照射された部分を識別することは、前記第1のコントローラの前記照射された部分によって定義される第1の色を識別することを含み、
    前記第2のコントローラの前記照射された部分を識別することは、前記第2のコントローラの前記照射された部分によって定義される第2の色を識別することを含み、前記第2の色は、前記第1の色とは異なる色である、請求項22に記載の方法。
  24. 前記第1のコントローラの前記第2のユーザとの以前の対を判定することと、
    前記第2のコントローラの前記第1のユーザとの以前の対を判定することと、
    前記第1のコントローラの前記照射された部分を、前記第1の色から前記第2の色に変更することと、
    前記第2のコントローラの前記照射された部分を、前記第2の色から前記第1の色に変更することと、をさらに含む、請求項23に記載の方法。
  25. 前記第1のユーザの前記バイオメトリック識別子は、前記第1のユーザの顔、声、サイズ、または指紋のうちの1つ以上によって定義され、
    前記第1のユーザの前記バイオメトリック識別子は、前記第2のユーザの顔、声、サイズ、または指紋のうちの1つ以上によって定義される、請求項21に記載の方法。
  26. 前記第1のユーザの前記バイオメトリック識別子の前記位置を判定することは、前記第1のコントローラの近傍性を判定することと、前記第1のユーザの前記バイオメトリック識別子を識別するように前記第1のコントローラの前記近傍性を検索することと、を含み、
    前記第2のユーザの前記バイオメトリック識別子の前記位置を判定することは、前記第2のコントローラの近傍性を判定することと、前記第2のユーザの前記バイオメトリック識別子を識別するように前記第2のコントローラの前記近傍性を検索することと、を含む、請求項21に記載の方法。
  27. 前記インタラクティブアプリケーションの分割画面表示を提示することをさらに含み、前記分割画面表示は、前記第1のユーザに対して定義される第1の表示、および前記第2のユーザに対して定義される第2の表示を含み、
    前記分割画面表示における前記第1の表示および前記第2の表示の位置は、前記第1のコントローラの前記位置、前記第2のコントローラの前記位置、前記第1のユーザの前記バイオメトリック識別子の前記位置、または前記第2のユーザの前記バイオメトリック識別子のうちの1つ以上に基づいて判定される、請求項21に記載の方法。
  28. 前記方法は、コンピュータで読み取り可能な媒体上で具現化されるプログラム命令の形態で定義される、請求項21に記載の方法。
  29. 前記方法は、コンピュータで読み取り可能な媒体上で具現化されるプログラム命令の形態で定義される、請求項22に記載の方法。
  30. インタラクティブアプリケーションとのマルチプレイヤインタラクションを管理するための方法であって、
    インタラクティブ環境の画像を捕捉することと、
    第1のコントローラの位置を判定するように、前記捕捉された画像を分析することと、
    第2のコントローラの位置を判定するように、前記捕捉された画像を分析することと、
    第1のユーザのバイオメトリック識別子の位置を判定するように、前記捕捉された画像を分析することと、
    第2のユーザのバイオメトリック識別子の位置を判定するように、前記捕捉された画像を分析することと、
    前記第1のコントローラの前記位置および前記第1のユーザの前記バイオメトリック識別子の前記位置に基づいて、前記第1のコントローラを前記第1のユーザと対にすることと、
    前記第2のコントローラの前記位置および前記第2のユーザの前記バイオメトリック識別子の前記位置に基づいて、前記第2のコントローラを前記第2のユーザと対にすることと、を含み、
    前記方法は、プロセッサによって実行される、方法。
  31. 前記第1のコントローラの前記位置を判定するように、前記捕捉された画像を分析することは、前記第1のコントローラの照射された部分を識別することを含み、
    前記第2のコントローラの前記位置を判定するように、前記捕捉された画像を分析することは、前記第2のコントローラの照射された部分を識別することを含む、請求項30に記載の方法。
  32. 前記第1のコントローラの前記照射された部分を識別することは、前記第1のコントローラの前記照射された部分によって定義される第1の色を識別することを含み、
    前記第2のコントローラの前記照射された部分を識別することは、前記第2のコントローラの前記照射された部分によって定義される第2の色を識別することを含み、前記第2の色は、前記第1の色とは異なる色である、請求項31に記載の方法。
  33. 前記第1のコントローラの前記第2のユーザとの以前の対を判定することと、
    前記第2のコントローラの前記第1のユーザとの以前の対を判定することと、
    前記第1のコントローラの前記照射された部分を、前記第1の色から前記第2の色に変更することと、
    前記第2のコントローラの前記照射された部分を、前記第2の色から前記第1の色に変更することと、をさらに含む、請求項32に記載の方法。
  34. 前記第1のユーザの前記バイオメトリック識別子は、前記第1のユーザの顔によって定義され、
    前記第1のユーザの前記バイオメトリック識別子は、前記第2のユーザの顔によって定義される、請求項30に記載の方法。
  35. 前記第1のユーザの前記バイオメトリック識別子の前記位置を判定するように、前記捕捉された画像を分析することは、前記第1のコントローラの近傍性を判定すること、および前記第1のユーザの前記バイオメトリック識別子を識別するように前記第1のコントローラの前記近傍性を検索することを含み、
    前記第2のユーザの前記バイオメトリック識別子の前記位置を判定するように、前記捕捉された画像を分析することは、前記第2のコントローラの近傍性を判定すること、および前記第2のユーザの前記バイオメトリック識別子を識別するように前記第2のコントローラの前記近傍性を検索することを含む、請求項30に記載の方法。
  36. 前記インタラクティブアプリケーションの分割画面表示を提示することをさらに含み、前記分割画面表示は、前記第1のユーザに対して定義される第1の表示、および前記第2のユーザに対して定義される第2の表示を含み、
    前記分割画面表示における前記第1の表示および前記第2の表示の位置は、前記第1のコントローラの前記位置、前記第2のコントローラの前記位置、前記第1のユーザの前記バイオメトリック識別子の前記位置、または前記第2のユーザの前記バイオメトリック識別子のうちの1つ以上に基づいて判定される、請求項30に記載の方法。
  37. クラウド処理サーバ上で実行するインタラクティブアプリケーションとのマルチプレイヤインタラクションを管理するための方法であって、
    インタラクティブ環境から捕捉される画像データを受信することと、
    第1のコントローラの位置、第2のコントローラの位置、第1のユーザのバイオメトリック識別子の位置、および第2のユーザのバイオメトリック識別子の位置を判定するように、前記捕捉された画像データを処理することと、
    前記第1のコントローラの前記位置および前記第1のユーザの前記バイオメトリック識別子の前記位置に基づいて、前記第1のコントローラを前記第1のユーザと対にすることと、
    前記第2のコントローラの前記位置および前記第2のユーザの前記バイオメトリック識別子の前記位置に基づいて、前記第2のコントローラを前記第2のユーザと対にすることと、を含み、
    前記方法は、プロセッサによって実行される、方法。
  38. 前記第1のコントローラの前記位置を判定することは、前記第1のコントローラの照射された部分を識別するように、前記捕捉された画像データを分析することを含み、
    前記第2のコントローラの前記位置を判定することは、前記第2のコントローラの照射された部分を識別するように、前記捕捉された画像データを分析することを含む、請求項37に記載の方法。
  39. 前記第1のコントローラの前記照射された部分を識別することは、前記第1のコントローラの前記照射された部分によって定義される第1の色を識別することを含み、
    前記第2のコントローラの前記照射された部分を識別することは、前記第2のコントローラの前記照射された部分によって定義される第2の色を識別することを含み、前記第2の色は、前記第1の色とは異なる色である、請求項38に記載の方法。
  40. 前記第1のコントローラの前記第2のユーザとの以前の対を判定することと、
    前記第2のコントローラの前記第1のユーザとの以前の対を判定することと、
    前記第1のコントローラの前記照射された部分を、前記第1の色から前記第2の色に変更するように、命令を送信することと、
    前記第2のコントローラの前記照射された部分を、前記第2の色から前記第1の色に変更するように、命令を送信することと、をさらに含む、請求項39に記載の方法。
JP2015514615A 2012-06-04 2013-06-04 マルチ画像インタラクティブゲーミングデバイス Active JP6039796B2 (ja)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US201261655459P 2012-06-04 2012-06-04
US61/655,459 2012-06-04
US13/842,872 2013-03-15
US13/842,573 US9724597B2 (en) 2012-06-04 2013-03-15 Multi-image interactive gaming device
US13/842,573 2013-03-15
US13/842,872 US10150028B2 (en) 2012-06-04 2013-03-15 Managing controller pairing in a multiplayer game
PCT/IB2013/001882 WO2013182914A2 (en) 2012-06-04 2013-06-04 Multi-image interactive gaming device

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2016216520A Division JP6448603B2 (ja) 2012-06-04 2016-11-04 マルチ画像インタラクティブゲーミングデバイス

Publications (2)

Publication Number Publication Date
JP2015527627A true JP2015527627A (ja) 2015-09-17
JP6039796B2 JP6039796B2 (ja) 2016-12-07

Family

ID=49670903

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2015514615A Active JP6039796B2 (ja) 2012-06-04 2013-06-04 マルチ画像インタラクティブゲーミングデバイス
JP2016216520A Active JP6448603B2 (ja) 2012-06-04 2016-11-04 マルチ画像インタラクティブゲーミングデバイス

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2016216520A Active JP6448603B2 (ja) 2012-06-04 2016-11-04 マルチ画像インタラクティブゲーミングデバイス

Country Status (6)

Country Link
US (4) US10150028B2 (ja)
EP (2) EP3072563B1 (ja)
JP (2) JP6039796B2 (ja)
KR (1) KR101922058B1 (ja)
CN (1) CN104363970B (ja)
WO (1) WO2013182914A2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022220048A1 (ja) * 2021-04-13 2022-10-20 株式会社ソニー・インタラクティブエンタテインメント システム、情報処理方法および情報処理プログラム

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9342516B2 (en) * 2011-05-18 2016-05-17 Microsoft Technology Licensing, Llc Media presentation playback annotation
TWI479362B (zh) * 2012-09-19 2015-04-01 Wistron Corp 雙模式遙控方法
US9571816B2 (en) * 2012-11-16 2017-02-14 Microsoft Technology Licensing, Llc Associating an object with a subject
US9251701B2 (en) 2013-02-14 2016-02-02 Microsoft Technology Licensing, Llc Control device with passive reflector
US9389765B2 (en) * 2013-03-12 2016-07-12 Google Inc. Generating an image stream
US9129478B2 (en) * 2013-05-20 2015-09-08 Microsoft Corporation Attributing user action based on biometric identity
US9384013B2 (en) 2013-06-03 2016-07-05 Microsoft Technology Licensing, Llc Launch surface control
US9579567B2 (en) * 2013-06-03 2017-02-28 Microsoft Technology Licensing, Llc Managing controller pairings
TWI504292B (zh) * 2013-06-19 2015-10-11 D Link Corp Network camera with network repeater function and its setting method
US9595146B2 (en) * 2013-11-18 2017-03-14 Microsoft Technology Licensing, Llc Persistent user identification
US9937415B1 (en) 2013-12-17 2018-04-10 Amazon Technologies, Inc. Virtual controller for touchscreen
US9277056B2 (en) * 2014-01-07 2016-03-01 Crestron Electronics Inc. Conference room audio/video cable interface device
JP5878938B2 (ja) * 2014-01-29 2016-03-08 株式会社ソニー・コンピュータエンタテインメント 配信システム、配信方法、配信プログラム
USD788777S1 (en) 2014-06-12 2017-06-06 Crestron Electronics Inc. Cable management hub
USD821183S1 (en) 2014-06-12 2018-06-26 Crestron Electronics, Inc. Cable management hub
US9746921B2 (en) * 2014-12-31 2017-08-29 Sony Interactive Entertainment Inc. Signal generation and detector systems and methods for determining positions of fingers of a user
CN105138123B (zh) * 2015-08-24 2018-10-26 小米科技有限责任公司 设备控制方法及装置
US10076711B2 (en) 2015-09-15 2018-09-18 Square Enix Holdings Co., Ltd. Remote rendering server with broadcaster
JP2017183825A (ja) * 2016-03-28 2017-10-05 京セラ株式会社 ヘッドマウントディスプレイ
CN105892665B (zh) * 2016-03-31 2019-02-05 联想(北京)有限公司 信息处理方法及电子设备
CN109314741A (zh) * 2016-06-01 2019-02-05 夏普株式会社 摄像处理装置、电子设备、摄像处理方法、摄像处理装置控制程序
US10249090B2 (en) * 2016-06-09 2019-04-02 Microsoft Technology Licensing, Llc Robust optical disambiguation and tracking of two or more hand-held controllers with passive optical and inertial tracking
TWI637363B (zh) * 2017-07-26 2018-10-01 銘傳大學 擴增實境之人機互動系統
US10338695B1 (en) * 2017-07-26 2019-07-02 Ming Chuan University Augmented reality edugaming interaction method
US11599192B2 (en) * 2018-04-26 2023-03-07 Sony Interactive Entertainment Inc. Image presentation apparatus, image presentation method, recording medium, and program
SG10201804153SA (en) * 2018-05-16 2018-11-29 Voyager Innovations Inc System and method for determining an outcome associated with an event
US10868950B2 (en) * 2018-12-12 2020-12-15 Karl Storz Imaging, Inc. Systems and methods for operating video medical scopes using a virtual camera control unit
US11474620B2 (en) * 2019-03-01 2022-10-18 Sony Interactive Entertainment Inc. Controller inversion detection for context switching
US20210208673A1 (en) * 2020-01-03 2021-07-08 Facebook Technologies, Llc Joint infrared and visible light visual-inertial object tracking
US11790627B2 (en) * 2022-01-20 2023-10-17 Lenovo Global Technology (United States) Inc. Using an object key to deprioritize processing of relative regions
WO2024085368A1 (ko) * 2022-10-18 2024-04-25 삼성전자 주식회사 전자 장치 및 그 동작 방법

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005081677A2 (en) * 2003-08-26 2005-09-09 Geometrix, Inc. Passive stereo sensing for 3d facial shape biometrics
WO2006086508A2 (en) * 2005-02-08 2006-08-17 Oblong Industries, Inc. System and method for genture based control system
JP2008015942A (ja) * 2006-07-07 2008-01-24 Sony Computer Entertainment Inc ユーザインタフェースプログラム、装置および方法、情報処理システム
US20100303297A1 (en) * 2009-05-30 2010-12-02 Anton Mikhailov Color calibration for object tracking
US20120056982A1 (en) * 2010-09-08 2012-03-08 Microsoft Corporation Depth camera based on structured light and stereo vision
JP2012507068A (ja) * 2008-10-27 2012-03-22 株式会社ソニー・コンピュータエンタテインメント 視覚情報を通信するためのコントロールデバイス
US20120124456A1 (en) * 2010-11-12 2012-05-17 Microsoft Corporation Audience-based presentation and customization of content

Family Cites Families (74)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5354063A (en) * 1992-12-04 1994-10-11 Virtual Golf, Inc. Double position golf simulator
US5574511A (en) * 1995-10-18 1996-11-12 Polaroid Corporation Background replacement for an image
US6270413B1 (en) * 1996-07-03 2001-08-07 Sega Enterprises, Ltd. Display method for games displays
US20020036617A1 (en) * 1998-08-21 2002-03-28 Timothy R. Pryor Novel man machine interfaces and applications
US7657910B1 (en) * 1999-07-26 2010-02-02 E-Cast Inc. Distributed electronic entertainment method and apparatus
EP1107166A3 (en) * 1999-12-01 2008-08-06 Matsushita Electric Industrial Co., Ltd. Device and method for face image extraction, and recording medium having recorded program for the method
JP2001334064A (ja) 2000-05-29 2001-12-04 Oki Electric Ind Co Ltd 遊技システム
US20020085097A1 (en) * 2000-12-22 2002-07-04 Colmenarez Antonio J. Computer vision-based wireless pointing system
US7623115B2 (en) * 2002-07-27 2009-11-24 Sony Computer Entertainment Inc. Method and apparatus for light input device
US7760248B2 (en) 2002-07-27 2010-07-20 Sony Computer Entertainment Inc. Selective sound source listening in conjunction with computer interactive processing
JP2004223110A (ja) * 2003-01-27 2004-08-12 Nintendo Co Ltd ゲーム装置、ゲームシステムおよびゲームプログラム
US10279254B2 (en) * 2005-10-26 2019-05-07 Sony Interactive Entertainment Inc. Controller having visually trackable object for interfacing with a gaming system
US7874917B2 (en) * 2003-09-15 2011-01-25 Sony Computer Entertainment Inc. Methods and systems for enabling depth and direction detection when interfacing with a computer program
US8323106B2 (en) * 2008-05-30 2012-12-04 Sony Computer Entertainment America Llc Determination of controller three-dimensional location using image analysis and ultrasonic communication
JP4130820B2 (ja) * 2004-08-27 2008-08-06 株式会社豊田中央研究所 顔中心位置検出装置及び方法並びにプログラム
US7351148B1 (en) * 2004-09-15 2008-04-01 Hasbro, Inc. Electronic sequence matching game and method of game play using same
JP4849829B2 (ja) 2005-05-15 2012-01-11 株式会社ソニー・コンピュータエンタテインメント センタ装置
US8427426B2 (en) * 2005-05-27 2013-04-23 Sony Computer Entertainment Inc. Remote input device
JP3934151B2 (ja) * 2005-06-22 2007-06-20 松下電器産業株式会社 画像生成装置および画像生成方法
US8147332B2 (en) 2005-10-21 2012-04-03 Broadcom Corporation Method of indicating the ordinal number of a player in a wireless gaming system
EP2296079A3 (en) * 2005-10-26 2011-04-13 Sony Computer Entertainment Inc. System and method for interfacing with a computer program
JP4798705B2 (ja) 2006-03-23 2011-10-19 任天堂株式会社 位置算出装置、位置算出プログラム、ゲーム装置、およびゲームプログラム
KR100776801B1 (ko) * 2006-07-19 2007-11-19 한국전자통신연구원 화상 처리 시스템에서의 제스처 인식 장치 및 방법
JP4142073B2 (ja) * 2006-10-13 2008-08-27 株式会社コナミデジタルエンタテインメント 表示装置、表示方法、ならびに、プログラム
JP4925817B2 (ja) 2006-12-28 2012-05-09 株式会社コナミデジタルエンタテインメント シューティング玩具
US20080166052A1 (en) * 2007-01-10 2008-07-10 Toshinobu Hatano Face condition determining device and imaging device
JP5042651B2 (ja) 2007-01-31 2012-10-03 株式会社バンダイナムコゲームス プログラム、情報記憶媒体及びゲーム装置
KR101378880B1 (ko) * 2007-07-13 2014-03-28 엘지전자 주식회사 카메라를 구비한 휴대 단말기
JP2011502698A (ja) 2007-11-15 2011-01-27 エルゴワークス インターナショナル, エルエルシー. 動力源を有するゲームコントローラ
WO2009067670A1 (en) * 2007-11-21 2009-05-28 Gesturetek, Inc. Media preferences
CN101925915B (zh) * 2007-11-21 2016-06-22 高通股份有限公司 设备访问控制
US20090221368A1 (en) 2007-11-28 2009-09-03 Ailive Inc., Method and system for creating a shared game space for a networked game
US20100272365A1 (en) * 2007-11-29 2010-10-28 Koji Yamamoto Picture processing method and picture processing apparatus
US8535130B2 (en) * 2008-02-14 2013-09-17 Peter Ciarrocchi Amusement pod entertainment center
US8620213B2 (en) * 2009-12-24 2013-12-31 Sony Computer Entertainment Inc. Wireless device pairing methods
US9167071B2 (en) * 2008-06-24 2015-10-20 Sony Computer Entertainment Inc. Wireless device multimedia feed switching
US8913176B2 (en) * 2008-09-05 2014-12-16 Lg Electronics Inc. Mobile terminal and method of performing multi-focusing and photographing image including plurality of objects using the same
CN101874234B (zh) * 2008-09-29 2014-09-24 松下电器产业株式会社 用户接口装置、用户接口方法、以及记录媒体
US8221229B2 (en) * 2008-10-27 2012-07-17 Sony Computer Entertainment Inc. Spherical ended controller with configurable modes
JP4911165B2 (ja) * 2008-12-12 2012-04-04 カシオ計算機株式会社 撮像装置、顔検出方法及びプログラム
AU2008264197B2 (en) * 2008-12-24 2012-09-13 Canon Kabushiki Kaisha Image selection method
EP2207342B1 (en) * 2009-01-07 2017-12-06 LG Electronics Inc. Mobile terminal and camera image control method thereof
US9189082B2 (en) * 2009-04-08 2015-11-17 Qualcomm Incorporated Enhanced handheld screen-sensing pointer
US8393964B2 (en) * 2009-05-08 2013-03-12 Sony Computer Entertainment America Llc Base station for position location
US8142288B2 (en) * 2009-05-08 2012-03-27 Sony Computer Entertainment America Llc Base station movement detection and compensation
US8953029B2 (en) * 2009-05-08 2015-02-10 Sony Computer Entertainment America Llc Portable device interaction via motion sensitive controller
US20100332229A1 (en) * 2009-06-30 2010-12-30 Sony Corporation Apparatus control based on visual lip share recognition
EP2327460B1 (en) * 2009-07-24 2022-01-12 Nintendo Co., Ltd. Game system and controller
US8843857B2 (en) * 2009-11-19 2014-09-23 Microsoft Corporation Distance scalable no touch computing
CN102301693B (zh) * 2009-12-01 2014-09-24 松下电器产业株式会社 识别用摄像装置以及其控制方法
US8334842B2 (en) * 2010-01-15 2012-12-18 Microsoft Corporation Recognizing user intent in motion capture system
US9106086B2 (en) 2010-03-11 2015-08-11 Qualcomm Incorporated Detection and protection of devices within a wireless power system
US8405736B2 (en) * 2010-04-07 2013-03-26 Apple Inc. Face detection using orientation sensor data
CN102959941B (zh) * 2010-07-02 2015-11-25 索尼电脑娱乐公司 信息处理***、信息处理装置及信息处理方法
JP5058316B2 (ja) 2010-09-03 2012-10-24 株式会社東芝 電子機器、画像処理方法、及び画像処理プログラム
JP5625643B2 (ja) * 2010-09-07 2014-11-19 ソニー株式会社 情報処理装置、および情報処理方法
KR20120068253A (ko) 2010-12-17 2012-06-27 삼성전자주식회사 사용자 인터페이스의 반응 제공 방법 및 장치
US8497838B2 (en) 2011-02-16 2013-07-30 Microsoft Corporation Push actuation of interface controls
US8672754B2 (en) * 2011-02-23 2014-03-18 Disney Enterprises, Inc. System and method for number of players determined using facial recognition
US9129181B1 (en) * 2011-03-03 2015-09-08 Vaidhi Nathan Object detection, location, and/or tracking with camera and lighting system
US9317111B2 (en) * 2011-03-30 2016-04-19 Elwha, Llc Providing greater access to one or more items in response to verifying device transfer
US8686943B1 (en) * 2011-05-13 2014-04-01 Imimtek, Inc. Two-dimensional method and system enabling three-dimensional user interaction with a device
JP2012248070A (ja) * 2011-05-30 2012-12-13 Sony Corp 情報処理装置、メタデータ設定方法、及びプログラム
RU2455676C2 (ru) * 2011-07-04 2012-07-10 Общество с ограниченной ответственностью "ТРИДИВИ" Способ управления устройством с помощью жестов и 3d-сенсор для его осуществления
US20130102387A1 (en) * 2011-10-21 2013-04-25 Microsoft Corporation Calculating metabolic equivalence with a computing device
US9148637B2 (en) * 2011-11-04 2015-09-29 Microsoft Technology Licensing, Llc Face detection and tracking
US9162144B2 (en) * 2011-12-05 2015-10-20 Microsoft Technology Licensing, Llc Portable device pairing with a tracking system
US9342139B2 (en) * 2011-12-19 2016-05-17 Microsoft Technology Licensing, Llc Pairing a computing device to a user
KR101885295B1 (ko) * 2011-12-26 2018-09-11 엘지전자 주식회사 전자기기 및 그 제어방법
US8984622B1 (en) * 2012-01-17 2015-03-17 Amazon Technologies, Inc. User authentication through video analysis
US9070019B2 (en) * 2012-01-17 2015-06-30 Leap Motion, Inc. Systems and methods for capturing motion in three-dimensional space
US20130182079A1 (en) * 2012-01-17 2013-07-18 Ocuspec Motion capture using cross-sections of an object
US9092675B2 (en) * 2012-03-29 2015-07-28 The Nielsen Company (Us), Llc Methods and apparatus to count people in images
US9754154B2 (en) * 2013-02-15 2017-09-05 Microsoft Technology Licensing, Llc Identification using depth-based head-detection data

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005081677A2 (en) * 2003-08-26 2005-09-09 Geometrix, Inc. Passive stereo sensing for 3d facial shape biometrics
WO2006086508A2 (en) * 2005-02-08 2006-08-17 Oblong Industries, Inc. System and method for genture based control system
JP2008015942A (ja) * 2006-07-07 2008-01-24 Sony Computer Entertainment Inc ユーザインタフェースプログラム、装置および方法、情報処理システム
JP2012507068A (ja) * 2008-10-27 2012-03-22 株式会社ソニー・コンピュータエンタテインメント 視覚情報を通信するためのコントロールデバイス
US20100303297A1 (en) * 2009-05-30 2010-12-02 Anton Mikhailov Color calibration for object tracking
US20120056982A1 (en) * 2010-09-08 2012-03-08 Microsoft Corporation Depth camera based on structured light and stereo vision
US20120124456A1 (en) * 2010-11-12 2012-05-17 Microsoft Corporation Audience-based presentation and customization of content

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022220048A1 (ja) * 2021-04-13 2022-10-20 株式会社ソニー・インタラクティブエンタテインメント システム、情報処理方法および情報処理プログラム
JP7513564B2 (ja) 2021-04-13 2024-07-09 株式会社ソニー・インタラクティブエンタテインメント システム、情報処理方法および情報処理プログラム

Also Published As

Publication number Publication date
KR20150024385A (ko) 2015-03-06
US10315105B2 (en) 2019-06-11
WO2013182914A2 (en) 2013-12-12
JP6039796B2 (ja) 2016-12-07
EP2858728B1 (en) 2016-08-17
US20190262699A1 (en) 2019-08-29
EP3072563B1 (en) 2018-08-15
US20130324244A1 (en) 2013-12-05
CN104363970A (zh) 2015-02-18
US20130324243A1 (en) 2013-12-05
KR101922058B1 (ko) 2019-02-20
EP2858728A2 (en) 2015-04-15
US10150028B2 (en) 2018-12-11
CN104363970B (zh) 2020-02-11
US20170333786A1 (en) 2017-11-23
EP3072563A1 (en) 2016-09-28
US11065532B2 (en) 2021-07-20
JP2017047251A (ja) 2017-03-09
JP6448603B2 (ja) 2019-01-09
WO2013182914A3 (en) 2014-07-17
US9724597B2 (en) 2017-08-08

Similar Documents

Publication Publication Date Title
JP6448603B2 (ja) マルチ画像インタラクティブゲーミングデバイス
US11442532B2 (en) Control of personal space content presented via head mounted display
US10610778B2 (en) Gaming controller
US10207185B2 (en) Using connection quality history to optimize user experience
TWI565504B (zh) 遊戲控制器
JP2015506739A (ja) ビデオゲームのための方向性入力
US11771981B2 (en) Sharing buffered gameplay in response to an input request

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160307

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160614

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160815

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161004

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161104

R150 Certificate of patent or registration of utility model

Ref document number: 6039796

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250