JP2010533006A - 仮想世界とコミュニケーションを取るためのシステムおよび方法 - Google Patents

仮想世界とコミュニケーションを取るためのシステムおよび方法 Download PDF

Info

Publication number
JP2010533006A
JP2010533006A JP2009551806A JP2009551806A JP2010533006A JP 2010533006 A JP2010533006 A JP 2010533006A JP 2009551806 A JP2009551806 A JP 2009551806A JP 2009551806 A JP2009551806 A JP 2009551806A JP 2010533006 A JP2010533006 A JP 2010533006A
Authority
JP
Japan
Prior art keywords
user
communication device
real
communication
virtual world
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009551806A
Other languages
English (en)
Other versions
JP2010533006A5 (ja
Inventor
ギロ、トマス
グッドウィン、ミッチェル
ワウガマン、スコット
ザレウスキー、ゲイリー
バス、アティラ
Original Assignee
ソニー コンピュータ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー
ソニー コンピュータ エンタテインメント ヨーロッパ リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from GBGB0703974.6A external-priority patent/GB0703974D0/en
Priority claimed from GB0704225A external-priority patent/GB2447094B/en
Priority claimed from GB0704227A external-priority patent/GB2447020A/en
Priority claimed from GB0704246A external-priority patent/GB2447096B/en
Priority claimed from GB0704235A external-priority patent/GB2447095B/en
Application filed by ソニー コンピュータ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー, ソニー コンピュータ エンタテインメント ヨーロッパ リミテッド filed Critical ソニー コンピュータ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー
Priority claimed from PCT/US2008/055037 external-priority patent/WO2008109299A2/en
Publication of JP2010533006A publication Critical patent/JP2010533006A/ja
Publication of JP2010533006A5 publication Critical patent/JP2010533006A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/12
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/131Protocols for games, networked simulations or virtual reality
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/23Input arrangements for video game devices for interfacing with the game device, e.g. specific interfaces between game controller and console
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/61Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor using advertising information
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/70Game security or game management aspects
    • A63F13/79Game security or game management aspects involving player-related data, e.g. identities, accounts, preferences or play histories
    • A63F13/795Game security or game management aspects involving player-related data, e.g. identities, accounts, preferences or play histories for finding other players; for building a team; for providing a buddy list
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/105Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals using inertial sensors, e.g. accelerometers, gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1081Input via voice recognition
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1087Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/30Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device
    • A63F2300/308Details of the user interface
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/40Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterised by details of platform network
    • A63F2300/406Transmission via wireless network, e.g. pager or GSM
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/40Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterised by details of platform network
    • A63F2300/407Data transfer via internet
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/50Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers
    • A63F2300/55Details of game data or player data management
    • A63F2300/5506Details of game data or player data management using advertisements
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/6063Methods for processing data by generating or executing the game program for sound processing
    • A63F2300/6072Methods for processing data by generating or executing the game program for sound processing of an input signal, e.g. pitch and rhythm extraction, voice recognition
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/807Role playing or strategy games

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Business, Economics & Management (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Marketing (AREA)
  • Economics (AREA)
  • Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Finance (AREA)
  • Theoretical Computer Science (AREA)
  • Strategic Management (AREA)
  • Development Economics (AREA)
  • Accounting & Taxation (AREA)
  • Processing Or Creating Images (AREA)
  • Information Transfer Between Computers (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephonic Communication Services (AREA)
  • Position Input By Displaying (AREA)
  • Storage Device Security (AREA)

Abstract

仮想世界と通信するためのシステムおよび方法が開示されている。仮想世界はシミュレートされた公共空間と、シミュレートされたひとつ以上の私的空間と、を含んでもよい。各私的空間は、ある特定のユーザに関連付けられてもよい。ユーザの仮想世界とのやりとりは、アバターのひとつ以上の動作によって表されてもよい。仮想世界のなかに通信装置がシミュレートされてもよい。シミュレートされた通信装置と現実の通信装置との間で通信が行われてもよい。仮想世界はひとつ以上のプロセッサによって生成されてもよい。そのプロセッサは仮想世界のなかに通信装置をシミュレートし、そのシミュレートされた通信装置と現実の通信装置との間で通信を行わせる。アバターを使用した仮想世界通信のためのシステムおよび方法、カスタムアバタージェスチャのためのシステムおよび方法、ユーザの感情の状態をアバターにマッピングするためのシステムおよび方法、および仮想および現実の通信装置間で通信をルーティングするためのシステムおよび方法もまた開示される。
【選択図】図2E

Description

(関連出願の参照)
本願は、譲受人を同じくする同時係属中の英国特許出願番号0703974.6、名称「ENTERTAINMENT DEVICE」、2007年3月1日出願、の優先権の利益を享受する。この出願は本明細書において参照により開示される。
本願は、譲受人を同じくする同時係属中の英国特許出願番号0704225.2、名称「ENTERTAINMENT DEVICE AND METHOD」、2007年3月5日出願、の優先権の利益を享受する。この出願は本明細書において参照により開示される。
本願は、譲受人を同じくする同時係属中の英国特許出願番号0704235.1、名称「ENTERTAINMENT DEVICE AND METHOD」、2007年3月5日出願、の優先権の利益を享受する。この出願は本明細書において参照により開示される。
本願は、譲受人を同じくする同時係属中の英国特許出願番号0704227.8、名称「ENTERTAINMENT DEVICE AND METHOD」、2007年3月5日出願、の優先権の利益を享受する。この出願は本明細書において参照により開示される。
本願は、譲受人を同じくする同時係属中の英国特許出願番号0704246.8、名称「ENTERTAINMENT DEVICE AND METHOD」、2007年3月5日出願、の優先権の利益を享受する。この出願は本明細書において参照により開示される。
本願は、同時係属中の米国仮特許出願番号60/892,397、名称「VIRTUAL WORLD COMMUNICATION SYSTEMS AND METHODS」、2007年3月1日出願、の優先権の利益を享受する。この出願は本明細書において参照により開示される。
本願は、譲受人を同じくする同時係属中の米国特許出願番号11/682,281、発明者Tomas Gillo他、名称「SYSTEM AND METHOD FOR COMMUNICATING WITH AVIRTUAL WORLD」、2007年3月5日出願、と関連する。この出願は本明細書において参照により開示される。
本願は、譲受人を同じくする同時係属中の米国特許出願番号11/682,284、発明者Tomas Gillo他、名称「SYSTEM AND METHOD FOR ROUTING COMMUNICATIONS AMONG REAL AND VIRTUAL COMMUNICATION DEVICES」、2007年3月5日出願、と関連する。この出願は本明細書において参照により開示される。
本願は、譲受人を同じくする同時係属中の米国特許出願番号11/682,287、発明者Tomas Gillo他、名称「SYSTEM AND METHOD FOR COMMUNICATING WITH AN AVATAR」、2007年3月5日出願、と関連する。この出願は本明細書において参照により開示される。
本願は、譲受人を同じくする同時係属中の米国特許出願番号11/682,292、発明者Tomas Gillo他、名称「MAPPING USER EMOTIONAL STATE TO AVATAR IN A VIRTUAL WORLD」、2007年3月5日出願、と関連する。この出願は本明細書において参照により開示される。
本願は、譲受人を同じくする同時係属中の米国特許出願番号11/682,298、発明者Tomas Gillo他、名称「AVATAR CUSTOMIZATION」、代理人事件番号SCEA0701JDI05、2007年3月5日出願、と関連する。この出願は本明細書において参照により開示される。
本願は、譲受人を同じくする同時係属中の米国特許出願番号11/682,299、名称「AVATAR EMAIL AND METHODS FOR COMMUNICATING BETWEEN REAL AND VIRTUAL WORLDS」、2007年3月5日出願、と関連する。この出願は本明細書において参照により開示される。
(技術分野)
本発明は、双方向的なコンピュータエンタテイメントに関し、特に仮想世界のユーザ間のコミュニケーションに関する。
仮想世界とは、ユーザがひとつ以上のコンピュータプロセッサを介して互いにやりとりできるシミュレートされた環境である。ユーザはいわゆるアバターとしてビデオスクリーンに表れる。シミュレートされた環境とアバターとの間の相互作用の度合いは、例えば物理的シミュレーションやユーザ間の情報交換などの相互作用を支配するひとつ以上のコンピュータアプリケーションによって実現される。
仮想世界のユーザ間のやりとりの性質はその仮想世界を実現しているシステムの制約によってしばしば制限される。
本発明の実施の形態はこのような点に鑑み創作されたものである。
本発明の教示するところは、添付図面とあわせて以下の詳細な説明を考慮することにより容易に理解されるであろう。
本発明の実施の形態と共同して使用されてもよい、仮想世界を表す世界地図の例を示すスクリーンショットである。 本発明の実施の形態と共同して使用されてもよい、仮想世界のなかの公共空間の例を示すスクリーンショットである。 本発明の実施の形態と共同して使用されてもよい、仮想世界のなかの私的空間の例を示すスクリーンショットである。 本発明の実施の形態に係る仮想通信装置の例を示すスクリーンショットである。 本発明の実施の形態に係る仮想世界システムを模式的に示す図である。 本発明の実施の形態に係るマルチメディア処理装置の実施態様を示す機能ブロック図である。このマルチメディア処理装置によって、ユーザは仮想世界を認知し、それとやりとりを行いうる。 本発明の実施の形態と共同して使用されてもよいマルチメディア処理装置の実施態様を示す機能ブロック図である。 本発明の実施の形態と共同して使用されてもよいマルチメディア処理システムの実施態様を示す。 図2C−2Dは、本発明の実施の形態と共に使用される、マイクロホンのアレイを含む撮像装置を示す。 本発明の実施の形態に係る、現実の通信装置と仮想通信装置との間のコールルーティングの例を示すブロック図である。 本発明の実施の形態にしたがった現実の通信装置と仮想通信装置との間の通信の例を図で示す。 本発明の実施の形態に係る、仮想世界とやりとりするために使用されうるビデオゲーム装置を示すブロック図である。 本発明の実施の形態に係るビデオゲーム装置のセルプロセッサによる実施態様を示すブロック図である。
以下の記述においては、例示のために多くの特定的な詳細を含むが、本発明の範囲内において、以下の詳細について多くの変形や変更が可能であることは、当業者には理解されるところである。したがって、下記に示す本発明の実施例は、請求項に記載の発明の一般性を失わせるものでも制約を設けるものでもない。
本発明の実施の形態によると、ユーザは仮想世界とやりとりしてもよい。ここで仮想世界という用語は、現実のもしくは架空の環境を表すものを意味する。この環境はひとつ以上のプロセッサによってシミュレートされた相互作用則を有する。現実のユーザはひとつ以上の表示装置を介してこの環境を認識し、および/または、現実のユーザはひとつ以上のユーザインタフェースを介してこの環境とやりとりする。ここでユーザインタフェースという用語は、ユーザが仮想世界へ入力を送るために、もしくは仮想世界からの出力を受けるために使用される現実の装置を指す。仮想世界は、ひとつ以上のプロセッサモジュールによってシミュレートされてもよい。複数のプロセッサモジュールは、ネットワークを介して互いにリンクされてもよい。ユーザは、ユーザインタフェース装置を介して仮想世界とやりとりしてもよい。このユーザインタフェース装置は、ネットワークを介して複数のプロセッサモジュールおよび他のユーザインタフェース装置と通信できる。仮想世界のある側面は、コンピュータモニタ、テレビモニタ、もしくは同様のディスプレイなどのグラフィックス用のディスプレイにグラフィックスの形でユーザに示されてもよい。仮想世界の他の側面は、スピーカからの音声の形でユーザに示されてもよく、この場合スピーカは、グラフィックス用のディスプレイと共に設けられてもよい。
例として、仮想世界はシミュレートされた公共空間とひとつ以上のシミュレートされた私的空間とを備えてもよい。ある実施の形態では、そのような公共空間および私的空間は、仮想世界の模式的な表現もしくは地図を示すグラフィックス用のディスプレイを介してユーザに示されてもよい。例として、図1Aに示されるように、世界地図10は「ホーム」位置11を示してもよい。ホーム位置11は、ある特定のユーザに限られた仮想世界中の私的空間であってもよい。他のユーザは、そのホーム位置11に関連付けられたユーザからの招待がある場合にのみそのホーム位置11を「訪れる」ことができる。世界地図10は、種々の他の位置12をも示してもよい。ユーザは、例えばカーソルで選ぶことによってもしくは同様のグラフィカルユーザインタフェースによってそれらの位置12を訪れることができる。ベンダがこれらの位置のスポンサーとなってもよく、これらの位置は地図上で、対応する会社のロゴや他のよく知られたシンボルによって表されてもよい。そのような位置は仮想世界のユーザによって訪問されてもよい。仮想世界は固定量の仮想「不動産」を有してもよいし、有さなくてもよい。好適な実施の形態では、仮想不動産の量は固定されていない。
本発明のある実施の形態では、仮想世界はここで「ロビー」と称される複数の公共空間を有してもよい。各ロビーはそれに付随した別個のチャットチャネルを有してもよい。これによりそのロビーにいるユーザは互いにやりとりできる。各ロビーは、ホテルやオフィスビルや共同住宅や映画館や他の公共の建物などの公共の建物におけるロビーの外観を有してもよい。図1Bは、そのようなロビーのスクリーンショットを示す。ロビーはユーザがそれを用いてやりとりできる物を含んでもよい。そのような物は例えばゲームである。図1Bに見られる通り、仮想世界の部分部分は3次元(3D)グラフィックスの形でユーザに示される。ここで3次元(3D)の形という用語は、長さ、幅、および深さ(もしくは少なくとも深さの錯覚)を有する表現を指す。ロビーは「スクリーン」13を含んでもよい。このスクリーン13は、写真や記録されたビデオやストリーミングビデオを見せるために使用されうる空間中の領域である。
仮想世界のなかではユーザはアバターによって表示されてもよい。仮想世界のなかの各アバターは、個々のユーザに独自のものとして関連付けられてもよい。ユーザの名前もしくは仮名がアバターの隣に表示されてもよく、それによってユーザは容易に互いを認識しうる。あるユーザの仮想世界とのやりとりは、ひとつ以上の対応するアバター動作によって表されてもよい。異なる複数のユーザが公共空間のなかでアバターを通じて互いにやりとりしてもよい。ユーザを表すアバターは、人間、動物もしくは物体と似た外観を有しうる。人間の形をしたアバターは、ユーザと同じ性もしくは異なる性を有してもよい。ユーザがアバターを仮想世界の他の物体と共に見ることができるように、アバターがディスプレイに表示されてもよい。あるいはまた、ディスプレイは世界をアバターの視点から表示し、そのアバターそのものは表示しなくてもよい。ユーザからの(もしくはアバターからの)仮想世界の見え方は、仮想カメラの視野であると考えてもよい。ここで仮想カメラは、仮想世界のなかの3次元シーンを2次元画像に描画するのに使用されうる仮想世界のなかの視点を指す。ユーザは、自己のアバターを介し、個々のロビーに関連付けられたチャットチャネルを用いて互いにやりとりしてもよい。ユーザは、他のユーザとチャットするために自己のユーザインタフェースを介してテキストを入力してもよい。すると、そのテキストがユーザのアバターの上もしくは隣に表れてもよい。その表れ方は、例えば漫画様のふきだしの形であり、しばしばチャットバブルと呼ばれる。そのようなチャットは、しばしばクイックチャットと呼ばれる、予め用意されたフレーズを用いるチャットシステムを使用することで簡単化されてもよい。クイックチャットでは、ユーザはメニューからひとつ以上のチャットフレーズを選択してもよい。
本発明の実施の形態では、特定のユーザもしくはユーザグループに関連付けられていないという意味、かつどのユーザもしくはユーザグループも他のユーザをその公共空間から排除できないという意味で公共空間は公共である。これと比較して各私的空間は複数のユーザのなかのある特定のユーザに関連付けられる。私的空間に関連付けられた特定のユーザが他のユーザによるその私的空間へのアクセスを制限できるという意味で、私的空間は私的である。私的空間は、よく見られる私的な不動産の外観を有してもよい。例えば、図1Cに見られるように、私的空間は共同住宅もしくは個人宅に似せて設けられてもよい。私的空間には、仮想のものが含まれてもよい。仮想のものの例には、家具15、装飾16、および仮想ラジオや仮想ビデオスクリーンなどの仮想通信装置17が含まれるが、それに限定されない。
本発明のある実施の形態では、仮想世界のユーザは、仮想通信装置を用いて通信してもよい。ここで仮想通信装置という用語は一般的に、仮想世界を構成するシステムの資産を使用して生成される、現実世界の装置の仮想世界におけるシミュレーションを指す。例として、図1Dに示される通り、仮想通信装置18は、ユーザによる装置の操作が簡単になるような形でディスプレイに表示される。図1Dに示される例では、仮想通信装置はソニープレイステーションポータブル(PSP)などの携帯型のゲームコンソールの外観を有する。仮想世界とやりとりするためにユーザが使用する現実のコントローラのボタンは、仮想通信装置の対応するボタン19もしくは他の制御にマッピングされてもよく、この場合ユーザと仮想通信装置との間のやりとりが容易となる。
仮想通信装置は、それに付随した仮想世界のなかでの位置を有してもよく、その位置は固定されていても可動とされていてもよい。仮想世界のなかでシミュレートされた通信装置のインタフェースをシミュレートし、そのシミュレートされたインタフェースをそれを介してやりとりするためにユーザに提示することによって通信装置がシミュレートされてもよい。例として、その仮想の装置は仮想世界において、ユーザに認知されうる形もしくは外観を有してもよい。この形もしくは外観は、ユーザのやりとりを容易にするように、対応する現実世界の装置のそれを模倣するものであってもよい。例えば、仮想の電話機は、ユーザがコントローラを使用して操作するボタンを有するものとして表示されてもよい。その仮想の電話機はさらに、スピーカ、送話口、およびおそらくはグラフィックスディスプレイスクリーンを有するものとして表示されてもよい。シミュレートされた通信装置は、シミュレートされたハンドヘルド通信装置であってもよく、そのようなシミュレートされたハンドヘルド通信装置は例えば、シミュレートされた電話機、シミュレートされた移動電話機(例えば、セルラー電話機もしくはコードレス電話機)、シミュレートされたボイスオーバーインターネットプロトコル(VoIP)電話機、シミュレートされた携帯型テキストメッセージ装置、シミュレートされた携帯型電子メール装置、シミュレートされた携帯型ゲーム装置、シミュレートされたツーウェイラジオ、もしくは他のシミュレートされたハンドヘルド装置である。
本発明の実施の形態によると、仮想通信装置が仮想世界のなかでシミュレートされ、そのシミュレートされた通信装置と現実の通信装置との間で通信が行われてもよい。その現実の通信装置は、現実のハンドヘルド通信装置であってもよく、そのような現実のハンドヘルド通信装置は例えば、電話機、移動電話機(例えば、セルラー電話機もしくはコードレス電話機)、ボイスオーバーインターネットプロトコル(VoIP)電話機、携帯型テキストメッセージ装置、携帯型電子メール装置、携帯型ゲーム装置、ツーウェイラジオ、もしくは他のハンドヘルド装置である。現実の通信装置は、他の現実の通信装置と仮想世界とは独立したひとつ以上の通信チャネルを通じて通信することが好ましい。ここで「仮想世界とは独立した通信チャネル」という用語は、そのチャネルを通じて通信が行われるために仮想世界の存在が必要とされない通信チャネルを意味する。例えば、仮想世界によって提供される通信資産を介して現実のセルラー電話機に電話をかける(もしくはその反対)のために仮想電話機が使用されうる。しかしながら、その現実のセルラー電話機は、たとえ仮想世界が存在しなくとも、他の現実のセルラー電話機もしくは電話機に電話をかけることができる。ある実施の形態では、現実の電話機は、シミュレートされた電話機から電話を受けた際には特有の呼び出し音を生成してもよい。また代替的な実施の形態では、シミュレートされた通信装置および現実の通信装置は、互いにテキストメッセージかつ/またはビデオ画像を用いて通信してもよい。
図1Eは、仮想世界をシミュレートするために使用されうるシステム20の例を示すブロック図である。システム20は、シミュレーションサーバ22とビューサーバ24とを含む。各シミュレーションサーバ22は、仮想世界のある部分をシミュレートするコード化されたインストラクションを実行するひとつ以上のプロセッサモジュールを含んでもよい。例として、各シミュレーションサーバは、デュアルコア、クアッドコアもしくはセルプロセッサなどの複数コアプロセッサをひとつ以上含んでもよい。限られた数のシミュレーションサーバ22とひとつのビューサーバ24とが図1Eに示されているが、この設定は任意の数のサーバの場合に自由に拡張されうる。シミュレーションサーバ22の数とビューサーバ24の数とは両方とも増減されてもよい。例えば、ひとつのシミュレーションサーバ22が多くのビューサーバ24を受け入れてもよいし、多くのシミュレーションサーバ22がひとつのビューサーバ24を受け入れてもよい。シミュレーションサーバ24をより多く加えることにより、仮想世界をより大きくかつ/またはより良くシミュレーションすることができる。ビューサーバ24をより多く加えることにより、システム20はより多くのユーザを取り扱うことができる。無論システム20は、シミュレーションサーバ22およびビューサーバ24の両方をより多く加えることによって、より大きくてより良いシミュレーションとより多くのユーザの受け入れの両方を実現できる。理論的にはシミュレーションサーバ22の数は無限大まで増やすことができる。しかしながらネットワークの帯域幅が限られていることに鑑みると、計算とネットワークの帯域幅による制限のために、ビューサーバ14の数はあるユーザ数を越えると有限の上限値に達すると考えるのが妥当であろう。
本発明の実施の形態に限定を行うものではなく例示を目的として、以下にセルプロセッサに関する例が説明される。セルプロセッサについては、例えばセルブロードバンドエンジンアーキテクチャ(Cell Broadband Engine Architecture)、著作権者インターナショナルビジネスマシーンコーポレーション(International Business Machines Corporation)、株式会社ソニー・コンピュータエンタテインメント(Sony Computer Entertainment Incorporated)、株式会社東芝(Toshiba Corporation)、2005年8月8日発行、に詳細が記載されている。この書物の複写物はhttp://cell.scei.co.JP/からダウンロード可能である。この書物は本明細書において参照により開示される。典型的なセルプロセッサは、パワープロセッサユニット(PPU)と、シナジスティックプロセシングユニット(SPU)と称される8つまでの付加的なプロセッサとを有する。各SPUは、典型的には主プロセッサと補助プロセッサとを含むひとつのチップ、もしくはそのチップの一部である。全てのSPUおよびPPUは、例えばメモリフローコントローラ(MFC)を通じて主メモリにアクセス可能である。SPUは主プロセッサで走っているプログラムと共同して並列的な操作処理を行うことができる。SPUは小さなローカルメモリ(典型的にはおよそ256キロバイト)を有し、このローカルメモリはソフトウエアによって管理されなければならない。つまり、コードおよびデータはローカルSPUメモリへ手動で移送されなければならず、またローカルSPUメモリから手動で移送されなければならない。高い性能を得るためには、このコードおよびデータはSPUソフトウエアによって管理されなければならない(PPUソフトウエアの関与は最小化されなければならない)。SPUからのコードおよびデータを管理する技術は多くある。そのような技術の例が、米国特許出願番号11/238,077、発明者John P. Bates、Payton White、Attila Vass、名称「CELL PROCESSOR APPARATUS AND METHODS」、2005年9月27日出願、および、米国特許出願番号11/238,095、発明者Richard B. StensonおよびJohn P. Bates、名称「CELL PROCESSOR TASK AND DATA MANAGEMENT」、2005年9月27日出願、および、米国特許出願11/238,086、発明者Tatsuya Iwamoto、名称「CELL PROCESSOR TASK AND DATA MANAGEMENT」、2005年9月27日出願、および、米国特許出願番号11/238,087、発明者John P. Bates、Payton R. White、Richard B. Stenson、Howard Berkey、Attila Vass、Mark Cerny、John Morgan、名称「SPU TASK MANAGER FOR CELL PROCESSOR」、2005年9月27日出願、および、米国特許出願番号11/257,761、発明者Tatsuya Iwamoto、名称「SECURE OPERATION OF CELL PROCESSORS」、2005年10月24日出願、および、米国特許出願番号11/461,390、発明者John P. Bates、Keisuke Inoue、Mark Cerny、名称「CELL PROCESSOR METHODS AND APPARATUS」、2006年7月31日出願、に記載されている。これら全ての出願は本明細書において参照により開示される。
シミュレーションサーバ22は高速データ移送リンク26を介して互いにおよびビューサーバ24と通信してもよい。例としては、そのデータ移送リンクは、毎秒10ギガビットのイーサネット(登録商標)接続であってもよい。シミュレーションサーバ22は互いに離れて設置されているかもしくは互いに近接して設置されてもよい。データ移送を最適化するためには、シミュレーションサーバ22を、例えば同じ部屋もしくは同じサーバラックに収納するなど互いに物理的にとても近くに設置することが望ましい。ビューサーバ24は、シミュレーションサーバ22からシミュレーションデータを受け取り、広域ネットワーク(wide area network)30を通じて離れて散らばっているクライアント装置28にビューデータを送る。この広域ネットワークは例えばインターネットや他の広域ネットワークである。クライアント装置28は、ネットワーク30を通じて通信できる任意の適切な装置であってもよい。ネットワーク30を通じた通信は、高速データリンク26を通じた通信よりも遅くてもよい。
例として、クライアント装置28は、ソニープレイステーション3などのビデオゲームコンソール装置であってもよい。あるいはまた、クライアント装置28はハンドヘルドからワークステーションなどまでのあらゆるコンピュータ装置であってもよい。日本国の東京都にあるソニー・コンピュータエンタテインメント製のプレイステーションポータブルなどのハンドヘルドビデオゲーム装置は、他のハンドヘルド装置のなかでも本発明の実施の形態においてクライアント装置28として特に用いられうる例である。クライアント装置28はビューサーバ24に、他のクライアントのアバターやシミュレートされた環境との所望のやりとりに関するインストラクションを送ってもよい。例えば、クライアントユーザが彼もしくは彼女のアバターをシミュレートされた環境の別の位置に動かしたいと思うかもしれない。各クライアント装置28はインストラクションをビューサーバ24のひとつに送る。このインストラクションはそのビューサーバによって中継され、やりとりをシミュレートするために必要な計算を行うシミュレーションサーバに届けられる。
他の装置29もまたネットワーク30を通じて互いに通信してもよい。そのような他の装置の例は、電話機、セルラー電話機、ボイスオーバーインターネットプロトコル(VoIP)電話機、パーソナルコンピュータ、携帯型ウェブブラウザ、携帯型電子メール装置、テキストメッセージ装置、携帯型ゲーム装置などを含む。そのような他の装置29間の通信は、仮想世界を生成するシミュレーションサーバ22およびビューサーバ26とは独立したものであってもよい。他の装置29はシステム20の一部とは考えられてはいないものの、それらの装置はネットワーク30を介してシステム20とやりとりを行ってもよい。
クライアント装置28のユーザはたいていその周辺の物に興味がある。ビューサーバ24は、各クライアント28がその周辺物についての関連データを適切な順序で確実に受け取れるようにする。ビューサーバ24は、クライアントが何を必要としているかを、クライアントのアバターの位置や向きや動きなどに基づいて決定する。例として、各ビューサーバは、公共空間や私的空間を表示するためにクライアント装置が使用するコードかつ/またはデータを生成してもよい。
複雑なシミュレートされた世界を実現するために、クライアントとサーバの間で、もしくはクライアント装置と他のクライアント装置との間で、ピアツーピア通信が行われることが望ましい。たとえば、同じ公共空間内のユーザ間の音声/ビデオ(A/V)チャットは、それらのユーザ間の直接のピアツーピア通信によって実現されてもよい。そのようなピアツーピア通信によると、サーバの負荷を低減できる。本発明の実施の形態では、ピアリブ(Peerlib)を使用してネットワークアドレストランスレータ(NATs)を横断し、同じ公共空間内のユーザ間のピアツーピア接続を確立する。NATを横断することは、たとえば米国特許出願番号11/245,853、発明者Yutaka Takeda、名称「METHOD FOR PEER− TO−PEER COMMUNICATION TRAVERSING NETWORK ADDRESS TRANSLATORS OF TYPE SYMMETRIC」、2005年10月4日出願、に記載されている。この出願は本明細書において参照により開示される。
図1Fは、クライアント装置28として使用されうるマルチメディア処理システム100およびシステム20によって生成される仮想世界とのユーザインタフェースのひとつの実施態様を示す。処理システム100は、静止画や動画や音楽や放送やゲームなどの複数のメディアにまたがる複数のコンテンツを処理することができる複合装置を含んでもよい。複数のコンテンツの処理とは、プレゼンテーション、記録、およびマルチメディア処理システム100によって行われる他の関連タスクを含む。例として、マルチメディア処理システム100は、マルチメディア処理装置102と、ディスプレイ104(例えば、モニタもしくはテレビ)と、コントローラ114と、を備える。コントローラ114のボタンは、図1Dおよび上で説明された仮想コントローラ18の対応するボタン19にマッピングされてもよい。
マルチメディア処理装置102は、放送メディアやインターネット(もしくは他のネットワーク)のメディアや光学ディスク110やメモリカード112などの種々のメディア源からマルチメディアコンテンツを受け取ってもよい。放送メディアからのコンテンツは、放送データチャネル106を通じて受信されてもよい。一方、インターネットのメディアからのコンテンツはネットワークデータチャネル108を通じて受信されうる。放送およびネットワークデータチャネル106、108は、無線チャネル、有線チャネルのいずれであってもよい。放送メディアおよびインターネットのメディアからのコンテンツは、マルチメディア処理装置102によって記録、保存されてもよい。受信されたコンテンツは、仮想世界とのやりとりに使用されるだけでなく、マルチメディア処理装置102の種々の機能(例えば、ゲーム)によって使用されてもよい。
受信されたマルチメディアコンテンツは、ディスプレイ104に表示されてもよい。ディスプレイは、静止画像や動画像を表示するための陰極線管(CRT)やフラットスクリーンなどのビデオモニタを含んでもよい。ディスプレイ104は、ユーザに音声を提供するために、ひとつ以上の音声スピーカをさらに含んでもよい。コントローラ114は、ユーザにマルチメディア処理に関する種々のインストラクションを入力せしめ、かつ、ユーザにマルチメディア処理装置102の機能を制御せしめる。
システム100は、ディスプレイ104によって提供される可視画像かつ/または可聴音声をもってユーザのやりとりを容易にするために、音声入力およびビデオ入力を含んでもよい。そのような入力は、カメラなどのビデオ撮像装置116およびマイクロホンなどの音声信号取得装置118を含んでもよい。ビデオ撮像装置116は、ディスプレイ104の上に載置されてもよく、またはディスプレイ104と一体化されてもよい。また、ビデオ撮像装置116は、マルチメディア処理装置102と、ケーブルによって、もしくは光学データリンク(例えば、赤外線)や無線周波数データリンク(例えば、ブルートゥース)などの空中接続(over−the−air connections)によって接続されてもよい。撮像装置116は、ディスプレイ104の前付近の画像を取得できるような他のいかなる近隣位置に置かれてもよいことは理解されるべきである。これらの動きややりとりを捉える技術は種々あるが、そのような技術の例が、英国特許出願GB0304024.3(PCT/GB2004/000693)およびGB 0304022.7 (PCT/GB2004/000703)に記載されている。このそれぞれは2003年2月21日に出願されており、本明細書において参照により開示される。撮像装置116は、例えばUSB2.0型のカメラなどのデジタルカメラであってもよい。そのようなカメラは、約75度の視野と、1.5程度のF値と、を有してもよく、また、毎秒約120フレームまでのフレームレートで画像を取得しうる。例として、ビデオ撮像装置は、カリフォルニア州フリーモントにあるロジテック(Logitech)社から購入可能なアイトイカメラ(EyeToy Camera)であってもよい。メディア処理装置102は、ゲームコンソール、テレビ、デジタルビデオレコーダ(DVR)、ケーブルセットトップボックス(cable set−top−box)、ホームメディアサーバ、もしくはユーザからの制御にしたがって自身を描画しうる装置を含む家庭用電気機器であってもよい。代替的な実施の形態では、撮像装置は3次元(3D)カメラであってもよい。ここで3Dカメラ(もしくはゼッドカメラ(zed camera))とは、画像中の物体の深さを決定することを容易にする撮像装置を指す。この文脈において用語「深さ」とは、画像平面と垂直な方向における物体の位置を指す。
図2Aは、マルチメディア処理装置102の実施態様を示す機能ブロック図である。示される実施態様においては、マルチメディア処理装置102は、コントローラ114と、ビデオ撮像装置116と、音声信号取得装置118と、データ入力/出力(I/O)部200と、ディスプレイ出力部202と、ディスプレイ制御部204と、保持部208と、ゲーム/仮想世界プロセッサ206と、を含む。例として、ゲーム/仮想世界プロセッサ206は、セルプロセッサなどの並列プロセッサであってもよく、またそれを含んでもよい。この並列プロセッサは、ひとつ以上のシナジスティックプロセシングユニット(SPU)と結合されたパワープロセシングユニット(PPU)を有する。セルプロセッサについては、例えば米国特許出願番号11/238,077に記載されており、この出願は本明細書において参照により開示される。マルチメディア処理装置102はさらに、データ入力機能、データ維持機能、画像処理機能、描画機能、および他の関係する機能などの種々の機能を実現するためのプログラムおよびインストラクションを含む。
コントローラ114は、ユーザの入力から4つの向き(つまり、上向き、下向き、左向き、および右向き)のひとつもしくは組み合わせを決定する向き決定部222と、ユーザの入力からインストラクションを決定するインストラクション決定部224と、を含んでもよい。インストラクションは、マルチメディアコンテンツを示すためのコマンド、その提示を終了させるためのコマンド、メニュー画面を呼び出すためのコマンド、および他の関係するコマンドかつ/またはインストラクションを発行するためのコマンドを含んでもよい。コントローラ114、ビデオ撮像装置116および音声信号取得装置118からの出力は、ディスプレイ出力部202と、ディスプレイ制御部204と、ゲーム/仮想世界プロセッサ206と、に振り向けられる。
図1Bおよび図2Aに示される実施態様では、向き決定部222およびインストラクション決定部224は、方向およびインストラクションを起動、感知、および決定するためのボタン、回路、およびプログラムの組み合わせで構成されてもよい。ボタンは十字キーもしくはジョイスティックを含みうる。メニュー画面を呼び出すためのインストラクションに関連したボタンはトグル式に設定されてもよく、この場合、そのボタンが押される度にメニュー画面が表示モードと非表示モードとの間で切り替えられる。
ある実施態様では、向き決定部222はボタンの斜めの動きを、動きの向きを2つの向きのうちの一方と定めるバイナリコマンドとして決定してもよい。ここでは、上向きと右向きとの間の斜めの動きは、上向きかもしくは右向きのいずれか一方と定められうる。別の実施態様では、向き決定部222はボタンの斜めの動きを、動きの向きを測定精度の範囲内におけるある特定の向きに定めるアナログコマンドとして決定してもよい。ここでは、上向きと右向きとの間の斜めの動きは、北西向きと定められうる。後述される通り、方向性の動きは、ユーザとビデオ撮像装置116とディスプレイ制御204との間のやりとりを通じて決定されてもよい。
データI/O部200は、放送チャネル106を介して放送コンテンツを入力する放送入力部212と、ネットワークチャネル108を介してウェブコンテンツなどのデータを入出力するネットワーク通信部214と、ディスク110に保持されるデータを入力するディスク読み取り部216と、メモリカード112にデータを入力しかつ/またはメモリカード112からデータを出力するメモリカード読み取り部218と、を含んでもよい。データI/O部200の出力は、ディスプレイ出力部202と、ディスプレイ制御部204と、ゲームプロセッサ206と、保持部208と、に振り向けられてもよい。
ディスプレイ出力部202は、復号部232と、合成部234と、出力バッファ236と、オンスクリーンバッファ238と、を含んでもよい。復号部232は、データI/O部200もしくは保持部208から受け取る入力データを復号する。ここで、入力データは、放送コンテンツ、映画、および音楽を含んでもよい。合成部234は、コントローラ114から受け取るユーザの方針/インストラクションに基づいて復号された入力データを処理する。合成部234の出力は出力バッファ236に保持される。オンスクリーンバッファ238は、ディスプレイ制御部204によって生成されるメニュー画面の画像データを保持してもよい。ディスプレイ出力部202の出力は、ディスプレイ104に伝送される。
ディスプレイ制御部204は、メニューマネジャ242と、エフェクトプロセッサ244と、コンテンツ制御部246と、画像生成部248と、を含んでもよい。メニューマネジャ242は、保持部208およびデータI/O部200から受け取り、メニュー画面に示されるメディア体およびマルチメディアコンテンツを管理する。エフェクトプロセッサ244は、メニュー画面のアイコンおよびアイコンアレイの操作を処理する。エフェクトプロセッサ244は、メニュー画面に表示されるべき種々の動作およびエフェクトを管理する。コンテンツ制御部246は、メディア体およびマルチメディアコンテンツの処理、およびデータI/O部、保持部208、およびゲーム/仮想世界プロセッサ206からのデータの取り扱いを制御する。画像生成部248は、メディアアイコンアレイおよびコンテンツアイコンアレイを含むメニュー画面を生成する。
ゲーム/仮想世界プロセッサ206は、データI/O部200もしくは保持部208から読み出されたデータを使用して、ゲームかつ/または仮想世界プログラムを実行する。ゲーム/仮想世界プロセッサ206は、ゲームプログラムを実行し、もしくはコントローラ114から受け取るユーザインストラクションに基づき、ユーザの仮想世界とのやりとりを容易にする。実行されたゲームプログラムまたは仮想世界とのやりとりのディスプレイデータは、ディスプレイ出力部202へ伝送される。
本発明の実施の形態では、ビデオ撮像装置116および音声信号取得装置118からの信号は、ユーザがディスプレイ104に表される画像とやりとりし、それを操作することを可能とする。特に、本発明の実施の形態は、ユーザがオブジェクトをディスプレイ104上のある位置から別の位置へ「グラブ(grab)」して「ドラッグ(drag)」することを可能としてもよい。図2Bに示される通り、ビデオ撮像装置116は、ユーザUの像Iに向けられそれを撮像する。そして像Iは、アルファブレンディング(alpha blending)として知られている技術を用いて、ディスプレイ104上で他の像からなる背景の上に表示されてもよい。
「アルファブレンディング」という用語は一般に、2つの色の凸結合を指し、コンピュータグラフィックスの分野における透過性効果のためのものである。カラーコードにおける値アルファ(alpha)は0.0から1.0の範囲にあってもよく、0.0は十分に透明な色を示し、1.0は十分に不透明な色を示す。例として、色Value1が色Value0の背景の上に描かれた場合、その結果として得られる色の値(Value)は以下の式で与えられてもよい。
Value = Value0 (1.0 - alpha) + Value1 (alpha)
32ビットRGBAに見られるように、アルファ成分は、赤緑青の3成分を均等に混合するために使用される。あるいはまた、スペクトルカラーフィルタリング(spectral color filtering)における原色のそれぞれに対応して3つのアルファ値が指定される。
ユーザの手hが認識されると、エフェクトプロセッサは、ユーザの手の変位の向きを、通常はコントローラ114から受け取るような向きの入力と関連付けてもよい。変位の大きさで速さの入力を制御できるようにされてもよい。
ある実施の形態では、像Iは、ユーザの頭Hと手hとを含んでもよい。像Iとのユーザのやりとりを容易にするために、ユーザの像IはユーザUの鏡像として画面に表示されてもよいことを注意しておく。ここでは、ユーザUが手hをユーザの左側に動かした場合、手の像Iもまたユーザの左側に動く。エフェクトプロセッサ244は、ユーザの手hを認識し、また手の像Ihの縦横比(高さと幅の比)の変化を認識するよう構成されてもよい。縦横比のこの変化は、コントローラ114にユーザがディスプレイ上のオブジェクト140を「グラブした(grabbed)」もしくは「クリックした(clicked)」ことを知らせるために使用されてもよい。そしてエフェクトプロセッサ244は、選択されたオブジェクトをユーザの手hの像Iの動きに合わせて動かしうる。ある実施の形態では、ユーザは変形可能な「C」字形状のオブジェクト142を握ってもよい。この変形可能な「C」字形状のオブジェクト142には、ビデオ撮像装置116からの像を解釈する際に、エフェクトプロセッサ244がより容易に認識可能な色がつけられる。ここで「クラム(clam)」と呼ぶこととするオブジェクト142の変形は、ディスプレイ104上のオブジェクトを「グラブ(grab)」もしくは「クリック(click)」するためのコマンドとして認識される縦横比の変化を提供しうる。
ユーザUがディスプレイ104上のオブジェクト140を操作するのに左手を使用しているか右手を使用しているかをエフェクトプロセッサ244が認識できることが、しばしば望まれる。例えば、ディスプレイ104上のオブジェクトを左手で操作している場合、オブジェクトがユーザの頭Hの左側に表れることが多くの場合望ましい。このような場合、コントローラはユーザの手h、頭H、腕A、および腰Cをそのそれぞれに対応する像I、I、I、およびIによって認識するソフトウエアを含んでもよい。この情報をもとにコントローラ114は、ユーザUが左手を使用しているか右手を使用しているかを決めることができる。例えば、ユーザの手hが頭Hの左側にあり、腕Aは腰と交差していない場合、ユーザUは左手を使用していると決めることができる。同様に、ユーザの手hが頭の左側にあり、腕は腰と交差している場合、ユーザUは右手を使用していると決めることができる。
本発明のある実施の形態では、撮像装置116および音声信号取得装置118はひとつの機器として統合されてもよい。例えば、図2Cおよび図2Dは、マルチメディア処理システム100で使用されてもよい撮像装置120を示す。装置120は、例えばデジタルカメラ(もしくは3Dカメラ)である光学撮像装置122と、ひとつ以上のマイクロホン124とを含む。マイクロホン124はアレイ状に配置され、かつ互いに既知の距離だけ離されて配置されてもよい。例示であり一般性を失わない範囲において、マイクロホン124は直線アレイ状に間隔を置いて配置され、隣接するマイクロホンは中心間の距離にして約2センチメートルだけ離されてもよい。個々のマイクロホンは、約16キロヘルツの共振周波数を有してもよい。このようなマイクロホンアレイは、装置102の動作および仮想世界とのやりとりと共同して、ひとつ以上の音源の位置を探して追跡するために使用されてもよい。このようなマイクロホンアレイの音源位置発見および追跡のための使用については、例えば米国特許出願11/381,724、11/381,725、および11/381,729、2006年5月4日出願、に記載されている。これらは本明細書において参照により開示される。
本発明のある実施の形態では、マイクロホン124が撮像装置122と共に動くことが望ましい。例えば、マイクロホン124はフレーム126に取り付けられてもよい。このフレーム126は、マイクロホンと撮像装置、例えばレンズ128、との位置関係を固定されたものとする。複数のマイクロホンが水平な直線状に配列されているように示されているが、それらは代替的には垂直に向けられてもよく、また斜めに向けられてもよく、また2次元的に配列されてもよい。
ある実施の形態では、装置120は可視LED130および赤外線LED132を含んでもよい。これらは撮像装置122の視野にある物体を照らすために使用されうる。赤外線像の取得を容易とするため、レンズ128は、可視光および選択された赤外領域の周波数(例えば、940nm程度の周波数)を通過させるいわゆる「デイ−ナイト(day−night)」コーティングを含んでもよい。
例として、彼もしくは彼女のアバターに仮想携帯電話をとらせて番号をダイアルさせ、現実のもしくは仮想の電話へ現実に電話をかけさせるように、システム20の要素および装置102は設定されてもよい。その電話を受ける側が仮想世界の他のユーザである場合、システム20および装置102は、そのユーザの仮想電話に接続するよう適切にプログラムされていてもよい。ここでこの接続は、例えばその電話がなされる時点でそのユーザがオンラインであり仮想世界とやりとりを行っている場合にはVoIPを介して行われる。システム20の要素および装置102は、デフォルトでは受け側の仮想電話(もしあれば)にその電話をルーティングするよう設定されていてもよい。受け側がオンラインでない場合、その電話は受け側の現実の通信装置へ再ルーティングされてもよい。現実の通信装置の例は、電話(例えば、固定電話回線、携帯電話、もしくはVoIP電話)、もしくはボイスメール(これは現実のもしくは仮想の電話に伴われうる)、もしくは携帯型ゲーム装置およびそのようなものを含むVoIP対応の任意のネットワーク装置を含んでもよいが、それに限定されない。あるいはまた、電話はデフォルトでユーザの現実の通信装置にルーティングされてもよい。そのような実施の形態では、システム20の要素および装置102は、仮想世界と現実の通信装置との間の賢い双方向ルーティングを可能とするように使用されてもよい。
例示を目的とし一般性を失わない範囲で、現実の装置と仮想の装置との間の通信は、図2Eおよび図2Fを参照して理解されうる。図2Eに示されるように、2人以上のユーザ251、252は、図1Eに関して上述した通り、例えばシステム20を介しネットワーク30を通じて仮想世界とやりとりしてもよい。個々のユーザは、クライアント装置253、254を介してネットワーク30を通じてシステム20と結びついてもよい。これらのクライアント装置253、254は、例えば図1Fおよび2Aに関して上述した通りに適切に設定されてもよい。個々のクライアント装置253、254は、仮想通信装置255、256を生成するのに適切なハードウエアかつ/またはソフトウエアを含んでもよい。装置アバターは仮想世界のなかでは仮想通信装置を表してもよい。装置アバターは、例えば上述の通りに現実の装置の外観を有してもよい。あるいはまた、ユーザは全く任意のかつ/または架空の外観を有するように装置アバターをカスタマイズしてもよい。個々のユーザ251、252は、固定電話257、258および携帯電話259、260などの現実の通信装置を使用することができてもよい。本発明の実施の形態は、任意の数のユーザおよび任意の数の現実のかつ/または仮想の通信装置で実現されうることは、当業者であれば分かる。
個々のクライアント装置253、254は、現実の装置と仮想の装置との間の電話のルーティングを容易とするための設定可能なルータ261、262を備えてもよい。ルータ261、262は、サーバ、ピアツーピアネットワーク、それらの組み合わせ等のなかにソフトウエアもしくはハードウエアの形で存在してもよい。図2Eに示される例ではルータ261、262はクライアント装置253、254上に設けられているが、これは唯一の可能な配置構成ではない。代替的にはルータ261、262は、シミュレーションサーバ22上、ビューサーバ24上、もしくはネットワーク30に接続された他の装置上など、いかなる場所に設けられてもよい。ルータ261、262は種々の装置からおよび複数の手段でアクセスされうる。これは、仮想電話もしくは通信装置、現実の通信装置、ネットワークウェブページ、および同様のものを含むがそれらに限定されない。個々のルータ261、262は、ルーティング機能を制御するためにひとつ以上のルーティングの優先度を有してもよい。ルータ261、262は、通信ソース(source)または通信ターゲット(target)においてルーティング優先処理を実行してもよい。本実施の形態で使用されている意味において通信「ソース」とは一般的に、通信を発する側(例えば、電話の「発信者(caller)」もしくはテキストメッセージまたは電子メールの「送信者(sender)」)を指す。本実施の形態で使用されている意味において通信「ターゲット」とは一般的に、通信の受け側を指す。ソースおよびターゲットは仮想世界のユーザでなくてもよいことが示される。
例として、第1のユーザ251が第2のユーザ252と例えば仮想通信装置255を使用して通信することを所望する場合を考える。この場合、第1のユーザ251は電話のソースであり、第2のユーザ252は電話のターゲットである。第1のユーザのルータ261は、第2のユーザ252の仮想通信装置256へ優先的に接続を試みるよう設定されていてもよい。そのユーザがオンラインでなく仮想世界を使用していない場合、第1のユーザのルータ261は、第2のユーザの固定電話258へ接続を試みてもよい。そしてそれが失敗した場合は、ルータ261は、第2のユーザ252の携帯電話260に接続を試みてもよい。代替的な例では、第2のユーザのルータ260は第1のユーザ251から通信を受けた場合に、自身のルーティング優先処理を実行してもよいことが示される。例えば、第2のユーザのルータ262は、第1のユーザ251からの電話を優先的に第2のユーザの携帯電話260にルーティングし、次いで第2のユーザの固定電話258にルーティングし、次いで第2のユーザの仮想装置256にルーティングしてもよい。
好適な実施の形態では、個々のユーザ251、252はそのユーザの現実のおよび仮想の通信装置のそれぞれに対応するひとつの電話番号を有してもよい。ルータ261、262は、ユーザが有する異なる装置のなかのあるひとつのユーザの番号に電話を自動的にルーティングしてもよい。そのようなルーティングは、ユーザの優先度、ユーザの行動、もしくはそれらのある組み合わせに基づいてもよい。ルータ261、262は通信ソースの正体かつ/または通信ターゲットの正体に依存して異なる優先度を有するようにプログラムされてもよいことが示される。
例えば、あるモードでは、第1のユーザのルータ261は、第1のユーザの番号に電話をかけるソースからの電話を受けうる。そのモードでは、第1のユーザ251は、第1のユーザ251がオンラインであることを示す情報をルータ261に提供してもよい。そのような情報は、例えばコントローラ114を使用してマルチメディア処理装置102のなかにプログラムされてもよい。あるいはまた、ルータ261は、第1のユーザ251がオンラインであるかどうかをチェックしてもよい。もしそうであれば、ルータ261はその「電話」を第1のユーザの仮想通信装置255へルーティングしてもよい。この仮想通信装置255は、たとえ第1のユーザ251が第2のユーザのクライアント装置254を介してオンラインであったとしても「鳴る」ように設定されていてもよい。
他のモードでは、ルータ261は、第1のユーザ251がオンラインであるかどうか、およびターゲット(例えば、第2のユーザ252)がオフラインであるかどうかについての情報を得てもよいし、そうであるかどうかを決めるためにチェックを行ってもよい。この場合、第1のユーザのルータ261は、固定電話258や携帯電話260などの第2のユーザの現実の通信装置へ「電話」をルーティングしてもよい。
他のモードでは、第1のユーザのルータ261は、第1のユーザ251がオンラインであるかどうか、および第2のユーザ252がオンラインであるかどうかについての情報を得てもよいし、そうであるかどうかを決めてもよい。この場合、「テキストメッセージ」が仮想世界のなかで、例えば第2のユーザのアバターやターゲットの第2のユーザの仮想装置256へ、ルーティングされてもよい。
他のモードでは、ルータ261は、第2のユーザ252がオンラインであるかどうかについての情報を得てもよいし、そうであるかどうかを決めるためにチェックを行ってもよい。第2のユーザ252がオフラインである場合、「テキストメッセージ」が、固定電話258や携帯電話260などの第2のユーザに関連付けられた現実世界の装置にルーティングされてもよい。
上記の例に関して多くの他の置換もまた可能である。例えば、上記の例で、ソースは仮想世界のなかから電話をかけてもよいし、アバター仮想装置を通じて仮想世界のなかで電話をかけてもよいし、任意のVoIP装置またはサービスを通じてもしくは任意の現実の電話線および電話ソースを通じて電話をかけてもよい。
他の設定では、ユーザがオンライン時にアバター電話ではなく現実の携帯電話が鳴って欲しいなどのユーザの優先度に基づき、上述の賢いルーティングが行われてもよい。他の設定では、ステートコントロール(STATE CONTROLS)に基づき、上述の賢いルーティングが行われてもよい。このステートコントロールでは、ある状況の下でのみアプリケーションの設定に依存して電話がアバター電話もしくは現実の電話にルーティングされる。例えば、ターゲットがオンラインゲームに参加しており邪魔されたくない場合、電話はターゲットの現実のもしくは仮想のボイスメールへルーティングされてもよい。さらに別の設定では、電話は仮想装置へルーティングされ、そこでもしその装置が鳴らなかった場合は、仮想ボイスメールへ行く代わりに電話は現実の電話などの現実の装置へ再ルーティングされてもよい。
図2Fに示されるように、本発明の実施の形態は、第1のユーザ251が第2のユーザ252へ固定電話257などの現実の電話を使用して電話をかける状況を許す。第1のユーザ251はその電話に向けて話をし、第1のユーザのアバター263が第2のユーザの仮想通信装置256に表れる。このアバター263は、第2のユーザ252が所有するマルチメディア処理装置102に接続されたディスプレイ104に表示される。ディスプレイ104上には、第1のユーザの名前266もまた第1のユーザのアバター263の近くに表示されてもよい。第1のユーザの発言265は、装置102、シミュレーションサーバ22、ビューサーバ24、もしくは他の装置に実装されていてもよい音声認識ソフトウエアかつ/またはハードウエアを使用してテキストに変換されてもよい。その結果得られるテキストはディスプレイ104上で第1のユーザのアバター263の近くのふきだし(text bubbles)264として表示されてもよい。オーディオスピーカ267は、第1のユーザと第2のユーザとの間の通信の間、第1のユーザの発言265の可聴音声を再生してもよい。
同じルーティング処理が、テキストメッセージングや電子メールなどの他のタイプのメッセージングに対して使用されうることが示される。このシステムのひとつの利点は、現実の電話かつ/またはテキストメッセージが、あるユーザから別のユーザへ、現実の通信装置で発生する長距離電話料金や他の電話料金を避けうる形でルーティングされうるということである。受け手側の(ユーザの)現実の電話機もしくはテキストメッセージ装置は、システム20によって維持されている仮想世界とのやりとりを容易とするためのミドルウエアを備えてもよい。
ある実施の形態では、ユーザは現実の通信装置を使用して仮想世界のコンテンツにアクセスできてもよい。例えば、携帯電話や携帯型インターネット装置などがユーザのアバター、公共空間、もしくは私的空間に変更を加えるために使用されてもよい。あるいはまた、現実の通信装置は仮想通信装置のコンテンツに離れた場所からアクセスするために使用されてもよい。特に、現実の通信装置は、シミュレートされた通信装置とユーザとの間のインタフェースとして使用されてもよい。例えば、仮想通信装置がユーザの私的空間内に配された仮想デジタルビデオレコーダ(DVR)であったとする。ユーザは現実の携帯電話および電子プログラミングガイドを使用して現実のもしくは仮想の出来事を記録するために仮想DVRにアクセスしてもよい。
上述した通り、現実の通信装置と仮想通信装置との間で通信を行うことは、ビデオ通信を含んでもよい。ある実施の形態によると、ビデオ通信の間現実の通信装置にアバターの像が表示されてもよい。仮想世界を生成するシステムは、アバター像を、そのアバターに関連付けられたユーザによって生成された現実のもしくは合成された音声にリップシンクさせてもよい。例えば、ユーザは現実の装置へ送るべき音声メッセージをビデオメッセージの一部として記録してもよい。システムはビデオメッセージを音声メッセージをしゃべるアバターと共に生成してもよい。この場合、そのアバターの唇の動きはメッセージ中のユーザの発言と同期している。あるいはまた、ユーザは仮想の装置にメッセージのテキストを入力してもよい。システムはそのテキストからアバターに対して音声を合成し、アバターのビデオ画像を生成してもよい。この場合、アバターの唇の動きは合成された音声と同期している。他の実施の形態では、ユーザは例えばビデオ撮像装置116および音声信号取得装置118を使用して、音声およびビデオメッセージを記録してもよい。
ある実施の形態では、アバター14は、ある感情を伝えるためのアニメーション、顔色の変化、音、パーティクル(particle)もしくはチャットバブルの変化を通じて感情を表現してもよい。このようなアバターによる感情の表現(しばしば「エモーツ(emotes)」と呼ばれる)は、予めプログラムされ、ユーザコマンドによってトリガされてもよい。本発明のある実施の形態では、仮想世界とのやりとりのなかでユーザが示した感情は、ユーザのアバターによって表される感情にマッピングされてもよい。ある実施の形態では、ユーザはアバターに反映されうる感情状態を選択してもよい。例として、アバターエモーツは装置102によってユーザに提供されるメニューから選択されてもよい。例えば、ユーザが「嬉しい(happy)」を選択した場合、ユーザのアバターは笑みを浮かべた形で表されてもよい。ユーザが「悲しい(sad)」を選択した場合、アバターはしかめづらを表してもよい。このようなメニュー駆動の感情は、ユーザが素早く使用したい場合にはややぎこちないかもしれない。そこで、ある実施の形態では、装置102はリアルタイムでユーザの感情の状態を検出し、その状態を反映するように適切にユーザのアバターの特徴に変化を加えてもよい。このようなリアルタイムでのユーザの感情の状態の追跡は、例えばユーザのアバターの像が現実の装置に表示されるビデオ通信の間、アバターにユーザの感情の状態をマッピングする際に特に有用である。
限定しない例として、装置102は、撮像装置116を使用してユーザUのひとつ以上の画像を取得し、ユーザのひとつ以上の顔色を解析することによって、ユーザの感情の状態をリアルタイムで追跡してもよい。ゲーム/仮想世界プロセッサ206は、ユーザの唇、目、まぶた、まゆげ、ほほ、歯、もしくは小鼻などの顔色、もしくは姿勢や腕や手の置き方などのボディーランゲージを使用してこれらの画像を解析しユーザの感情の状態を決めるようプログラムされてもよい。このような顔色かつ/またはボディーランゲージ解析は、3Dカメラを使用して画像を生成することによって強化されうる。
あるいはまた、ユーザの発話もしくは音声信号取得装置118によって検出される他の発声のなかに示されるユーザの声の抑揚を解析することによって、ユーザの感情状態はリアルタイムで追跡されてもよい。ユーザがテキストを介して通信する場合は、感情状態を示すある言葉、フレーズ、もしくは言語パターンについてテキストを解析することによって感情が追跡されてもよい。加えて、心電計(EKG)データ、脳波(EEG)データ、皮膚電気反射データ、もしくはサーモグラフィデータなどの他の生物測定学的データを使用してユーザの感情の状態が追跡されてもよい。このようなデータは、コントローラ114に設けられた適切なセンサを通じて取得され、プロセッサ206に導入されている適切に設定されたソフトウエア、ハードウエア、もしくはファームウエアによって解析されてもよい。サーモグラフィデータは、撮像装置116が赤外線画像を取得可能な場合にも得られる。
ユーザの感情の状態がいったん決定されてしまうと、その感情の状態を示すボディーランゲージと顔色の種々の組み合わせがアバターのアニメーションによって表されるエモーツに反映されてもよい(例えば、歯をむき出して拳を振り上げた様子は怒りを示す)。
ある実施の形態では、ユーザは自己のアバターに対してカスタマイズされたジェスチャもしくは「エモーツ」を使用したいと思うかもしれない。これを容易とするため、アバターに対してひとつ以上のカスタムジェスチャが生成されてもよい。これらのカスタムジェスチャは、ユーザのアバターがコマンドに基づきジェスチャを行うことができるように、ひとつ以上のユーザインタフェース信号と関連付けられてもよい。例として、カスタムジェスチャは、ユーザがジェスチャを行う際にユーザの身体の動きもしくはユーザの表情のマッピングを記録しデジタル化するためのモーションキャプチャもしくはパフォーマンスキャプチャ技術を使用して生成されてもよい。ある実施の形態では、撮像装置116がこの目的のために使用されうる。あるいはまた、商業的なモーションキャプチャスタジオもしくはパフォーマンスキャプチャスタジオがこの目的のために使用されてもよい。
モーションキャプチャでは、ユーザもしくは他のパフォーマは各関節にマーカを付け、そのマーカの位置もしくはマーカ間の角度によって動きを認識させてもよい。音声マーカ、慣性マーカ、LEDマーカ、磁気マーカ、もしくは反射性マーカ、あるいはそれらの任意の組み合わせが、最適には所望の動きの速さの少なくとも2倍の速さで、ミリメートル以下の位置精度で、追跡される。モーションキャプチャコンピュータソフトウエアは、位置、角度、速さ、加速度、および力積を記録し、動きの正確なデジタル表現を提供する。例として、光学的なモーションキャプチャシステムは、重なり合う映像を提供するよう較正されたひとつ以上のカメラの間でマーカの3D位置を三角測量してもよい。受動的な光学システムは、カメラのレンズの近くで生成される光を反射する再帰反射性材料で覆われたマーカを使用してもよい。明るいマーカだけがサンプルされ肌や生地を無視できるように、カメラの感度は大抵のカメラが有する狭い範囲の光感度を利用して調整されうる。あるいはまた、マーカそのものが電源を有し自身から光を放つ能動的な光学システムが使用されてもよい。電源は個々のマーカに順番に提供されてもよく、その場合キャプチャシステムと同期してもよい。これによりフレームレートを犠牲にして、所与のキャプチャフレームに対して個々のマーカを独立して認識できる。
パフォーマンスキャプチャは、パフォーマンスの双方向的な性質により、通常のモーションキャプチャとは異なる。パフォーマンスキャプチャでは、参照する動きのデータを取得し後に動きを一緒に編集するのではなく、体や手や表情を全て一度に取得する。
ジェスチャのためのユーザの体の動きかつ/または表情がデジタル化されると、そのデジタル化されたジェスチャは、そのジェスチャをアバターが行うようにアバターのアニメーションに関するコード化されたインストラクションもしくは他のユーザインタフェース信号を生成するために使用されてもよい。そのコードや他のユーザインタフェース信号は、一人以上の他のユーザに配布されてもよい。一人以上の他のユーザは、カスタムジェスチャを行うように自己のアバターをカスタマイズできる。カスタマイズされたアバタージェスチャは、カスタマイズされたアバターの服、履き物、ヘアスタイル、民族的な特徴、および他のカスタムアバター特徴と組み合わされて、社会のなかである特定のグループに属していることを示す手段とされてもよい。ある実施の形態では、例えば不必要に他のユーザを刺激したり法を犯したりすることを避けるために、カスタムジェスチャの使用を加減することが望ましい。ここで加減するもしくは加減(moderating or moderation)は、仮想世界のなかで受け入れられうる行動に対してある程度の規制を課すことを指す。このような加減はビューサーバ24によって実装されうる。このビューサーバ24は、カスタムジェスチャが無礼でないかもしくは他の不適切さはないかについて解析してもよい。
カスタムジェスチャの表示を加減することは、所定の基準にしたがって、ある特定のユーザについてアバターにカスタムジェスチャを行わせることを制限すること、またはある特定のユーザがカスタムジェスチャを行うアバターを知覚できなくすることを含んでもよい。この所定の基準は、ユーザの年齢や、ジェスチャの視聴者や、宗教的な、民族的な、もしくは視聴者の他の帰属先に基づいて視聴者が侮辱と感じる感受性を含んでもよい。
本発明の代替的な実施の形態によると、上述のシステムおよび方法は、仮想世界を使用する通信を実現するように変更されてもよい。特にアバターと電子メールの発信元とが関連付けられてもよい。ユーザは仮想世界のなかで電子メールを生成し、自己のアバターのひとつ以上の画像をその電子メールに関連付けてもよい。その電子メールは仮想世界から現実の装置へ送られてもよい。アバターの画像は電子メールの届け先において、例えば電子メールの添付を自己解凍することによって提示されてもよい。電子メールは、例えば仮想世界のなかの仮想通信装置を使用して生成されてもよい。限定を加えるものではない例として、電子メールの届け先は、例えば電子メールメッセージを受信するように構成された任意の現実の装置である現実の通信装置であってもよい。現実の通信装置は、他の現実の通信装置と仮想世界とは独立したひとつ以上の通信チャネルを通じて通信してもよい。
例示であり一般性を失わない範囲において、仮想世界は複数のユーザ間のやりとりを容易にするシミュレートされた公共空間とひとつ以上のシミュレートされた私的空間とを含んでもよい。私的空間の各々は、複数のユーザのなかの個々のユーザに例えば上述のように関連付けられる。
記録されたもしくは合成された音声と電子メールとが関連付けられ、その音声が届け先でひとつ以上の画像と共に提供されてもよい。アバター画像は、特に電子メールのために生成されるアバターのアニメーションを含んでもよい。そのアニメーションは届け先で、例えば電子メールの添付を自己解凍することによって提示されてもよい。加えて、ひとつ以上のジェスチャがアバターのアニメーションに例えば上述のようにマッピングされてもよい。電子メールメッセージの発信元の音声かつ/またはビデオを記録しその音声かつ/またはビデオのひとつ以上の特徴要素をアニメーション中のアバターのひとつ以上の特徴要素にマッピングすることによって、ジェスチャはマッピングされてもよい。
ある実施の形態では、テーマとアニメーションのなかでの仮想カメラの動きとが関連付けられてもよい。限定を加えるものではない例として、テーマは、仮想カメラのアングルの選択やトラッキングやパンや傾斜やズームやクローズアップや擬似光などを含んでもよい。仮想カメラの位置は固定されてもよいし動いてもよい。加えて、テーマはアバターに対して背景描写を選択することを含んでもよい。
ある実施の形態では、電子メールを作成することは、例えば上述のように発信元の感情の状態を追跡し、その感情の状態をテーマにマッピングすることを含んでもよい。例えば、穏やかなもしくは静かな感情の状態は、固定されたカメラ位置もしくは仮想カメラの比較的遅い移動によって特徴付けられるテーマにマッピングされてもよい。動揺もしくは興奮の感情の状態は、がたがたしたカメラの動きや極度のクローズアップや厳しいカメラのアングルなどによって特徴付けられるテーマにマッピングされてもよい。
上述のタイプのアバター電子メール通信は、例えば図1Eのシステム20かつ/または図1Fおよび図2Aのマルチメディア装置102を適切に設定することによって、実現されうる。
本発明の実施形態によれば、上述のタイプの仮想世界システムおよび方法は、クライアント装置28および例えばシステム20の要素によって生成される仮想世界とやりとりするためのユーザインタフェースとしてコンソールビデオゲーム装置を使用することで実装されうる。図3に示される通り、コンソールビデオゲーム装置300は、プロセッサ301とメモリ302(例えば、RAM、DRAM、ROMなど)を備える。加えて、ビデオゲーム装置300は、並列処理が実装されるのであれば、複数のプロセッサ301を備えてもよい。メモリ302はデータとゲームプログラムコード304を備え、上述のように仮想世界とのユーザのやりとりを容易とする部分を備える。具体的には、メモリ302は上述したような保存コントローラ経路情報を含む慣性信号データ306を備えてもよい。メモリ302は、保存ジェスチャデータ308、例えば、ゲームプログラム304に関連した一つ以上のジェスチャを表すデータなどを含んでもよい。プロセッサ302上で実行されるコード化されたインストラクションは、上述のように構成され機能する複数入力型ミキサ305を使用してもよい。
システム300はまた、入出力(I/O)要素311、電源(P/S)312、クロック(CLK)313およびキャッシュ314などの公知のサポート機能310を備えてもよい。装置300は任意に、プログラムおよび/またはデータ保存のためのディスクドライブ、CD−ROMドライブ、テープドライブなどの大容量記憶装置315を備えてもよい。コントローラは任意に、装置300とユーザとのやりとりを容易にするために、ディスプレイ部316と入力部318を備えてもよい。ディスプレイ部316は、テキスト、数値、グラフ記号や画像を表示する陰極線管(CRT)、またはフラットパネルスクリーンの形であってもよい。ユーザインタフェース318は、キーボード、マウス、ジョイスティック、ライトペンや他の装置を備えてもよい。また、ユーザ入力318は分析対象の信号を直接取り込むために、マイクロホン、ビデオカメラ、またはその他の信号変換装置を備えてもよい。装置300は、仮想世界のサーバや他の同様に設定された装置とインターネットなどのネットワークを介して通信できるようにネットワークインタフェース319を含んでもよい。装置300のプロセッサ301、メモリ302、ユーザ入力318、ネットワークインタフェース319および他の部品は図3に示すように、システムバス320を介して、互いに信号(例えばコード化されたインストラクションおよびデータ)を交換してもよい。
マイクロホン配列322は、入出力装置311を介してシステム300に接続されてもよい。マイクロホン配列は、約2〜約8個のマイクロホン、好ましくは約4個を、隣接するマイクロホンとは約4cm未満、好ましくは約1〜2cmの距離離間して備えてもよい。好適には、配列322のマイクロホンは無指向性マイクロホンである。オプションである撮像装置323(例えばデジタルカメラ)は、入出力装置311を介して装置300に接続されてもよい。撮像装置の位置決めを制御するために、一つ以上の位置決めアクチュエータ325がカメラに機械的に接続されてもよい。これらのアクチュエータ325は、入出力装置311を介してプロセッサ301との間で信号を交換してもよい。
本明細書では、「入出力装置」という用語は、概して装置300との間および周辺装置との間でデータを送受信するプログラム、操作または装置のいずれかを指す。すべてのデータ送受信は、ある装置からの出力と別の装置への入力と考えてよい。周辺装置には、キーボードやマウスなどの入力専用装置、プリンタなどの出力専用装置に加えて、入力装置および出力装置の両方として作動できる書き込み可能CD-ROMなどの装置が含まれてもよい。「周辺装置」という用語には、マウス、キーボード、プリンタ、モニタ、マイクロホン、ゲームコントローラ、カメラ、外部Zipドライバまたはスキャナなどの外部装置に加えて、CD−ROMドライブ、CD−Rドライブまたは内部モデムなどの内部装置、または、フラッシュメモリリーダ/ライタやハードドライブなどの他の周辺装置が含まれる。
本発明のある実施形態では、装置300は、有線(例えばUSBケーブル)または無線、例えば赤外線もしくはラジオ周波数(ブルートゥースなど)接続の使用、を通じて入出力装置311を介してプロセッサに接続されたコントローラ330を具備してもよい。コントローラ330は、ビデオゲームプレイ中に通常使用されるコントロール信号を提供するアナログジョイスティックコントロール331と既知のボタン333を具備してもよい。そのようなビデオゲームは、メモリ302、または大容量記憶装置315に関連する他のプロセッサ読み取り可能媒体に保存されるプログラム304からの、プロセッサ読み取り可能データおよび/またはインストラクションとして実装されてもよい。
ジョイスティックコントロール331は、通常、コントロールスティックを左右に動かすとX軸沿いの動きの信号を発信し、前後(上下)に動かすとY軸沿いの信号を発信するように構成されていてもよい。3次元の動き用に構成されたジョイスティックでは、スティックを左(反時計回り)または右(時計回り)に捻るとZ軸沿いの動きの信号を発信してもよい。これらX,Y,Zの3軸は、特に航空機に関する場合に、それぞれロール、ピッチ、ヨーと呼ばれることがある。
従来の特徴に加えて、コントローラ330は、一つ以上の慣性センサ332を備えてもよい。慣性センサ332は、慣性信号を介して位置情報および/または方向情報をプロセッサ301に提供できる。方向情報には、コントローラ330の傾き、ロールまたはヨーなどの角度情報が含まれていてもよい。例示として、慣性センサ332には、任意の数の加速度計、ジャイロスコープまたは傾斜センサ、またはこれらの任意の組み合わせが含まれていてもよい。好適な実施形態では、慣性センサ332には、傾斜およびロール軸に対するジョイスティックコントローラの方向を検知するように適応された傾斜センサ、ヨー軸沿いの加速度を検知するように適応された第1の加速度計、およびヨー軸に対する角加速度を検知するように適応された第2の加速度計を備える。加速度計は、例えば、一つ以上のばねで取り付けられた質量と一つ以上の方向に対する質量の変位を検知するセンサとを備えるMEMS装置として実装されてもよい。質量の変位に依存するセンサからの信号は、ジョイスティックコントローラ330の加速度決定に用いられてもよい。そのような技術は、メモリ302に保存されプロセッサ301によって実行されるゲームプログラム304からのインストラクションによって実現される。
例示として、慣性センサ332として適した加速度計は、例えば、ばねなどで、フレームに3〜4点で伸縮自在に接続された単一の質量であってもよい。ピッチ軸とロール軸は、ジョイスティックコントローラ330に設けられたフレームと交差する面に存在する。フレーム(およびジョイスティックコントローラ330)がピッチ軸、ロール軸の回りを回転するにつれて、質量が重力の影響下で変位し、ばねがピッチ角および/またはロール角に依存する態様で伸縮する。質量の変位が検知され、ピッチ量および/またはロール量に依存した信号に変換される。ヨー軸回りの角加速度またはヨー軸沿いの線形加速度は、ばねの伸縮または質量の動きの特徴的なパターンを生成し、それらのパターンは検知されて角加速度量または線形加速度量に応じた信号に変換される。そのような加速度計装置は、質量の動きおよびばねの伸縮力を追跡することによって、傾斜、ヨー軸回りのロール角加速度およびヨー軸沿いの線形加速度を計測できる。質量の位置および/またはそれに働く力を追跡する方法には多くの違った方法があり、それらの方法には、抵抗歪みゲージ、音響センサ、磁気センサ、ホール効果素子、圧電素子、容量センサなどが含まれる。
また、ジョイスティックコントローラ330は、発光ダイオード(LED)などの光源334を一つ以上含んでもよい。光源334は、コントローラを他のコントローラと識別するために用いられる。例えば、一つ以上のLEDがあれば、LEDのパターンコードをぱっと光らせたり保持することで識別できる。例示として、ジョイスティックコントローラ330上に5個のLEDが直線または2次元模様で設けることができる。LEDを直線状に配列することが好ましいが、他の方法として、四角形またはアーチ状に配置して、撮像装置323で得られたLEDパターン画像の分析時に、LED配列の画面の決定を容易にするようになされてもよい。さらに、LEDパターンコードは、ゲームプレイ中のジョイスティックコントローラ330の位置決定にも使用できる。例えば、LEDは、コントローラの傾斜、ヨーおよびロールの特定を助けることができる。この検出パターンによって、例えば飛行機ゲームなどのゲームで、ユーザによりよい感情を提供できる。撮像装置323は、ジョイスティックコントローラ330と光源334を含む像を撮影してもよい。そのような画像を分析すると、ジョイスティックコントローラの位置および/または方向が決定できる。そのような分析は、メモリ302に保存されプロセッサ301で実行されるプログラムコードインストラクション304によって実現されてもよい。撮像装置323による光源334の撮像を容易にするために、光源334は、ジョイスティックコントローラ330の複数の異なる端部、例えば、前方と後方に配置してもよい(影として示す)。そのような配置することによって、撮像装置323は、ユーザのジョイスティックコントローラ330の保持の仕方に応じたジョイスティックコントローラ330の種々の方向に対して、光源334の像を得ることができる。
さらに、光源334は、例えば、パルスコード、振幅変調または周波数変調フォーマットでテレメトリ信号をプロセッサ301に提供してもよい。そのようなテレメトリ信号は、いずれのジョイスティックボタンが押されているか、および/またはどれ位強くボタンが押されているかを表してもよい。テレメトリ信号は、例えばパルス符号化、パルス幅変調、周波数変調または光強度(振幅)変調などによって、光信号に符号化されてもよい。プロセッサ301は、光信号からテレメトリ信号を復号化し、復号化されたテレメトリ信号に応じてゲームコマンドを実行してもよい。テレメトリ信号は、撮像装置323で得られたジョイスティックコントローラ330の画像の分析から復号化されてもよい。または、装置301は、光源334からのテレメトリ信号受信専用の独立した光学センサを具備してもよい。コンピュータプログラムとのインタフェースにおける強度決定に併せてのLEDの使用は、例えば、2006年5月4日出願の米国特許出願番号11/429,414、名称「USE OF COMPUTER IMAGE AND AUDIO PROCESSING IN DETERMINING AN INTENSITY AMOUNT WHEN INTERFACING WITH A COMPUTER PROGRAM」(代理人事件番号SONYP052)、発明者Richard L. Marks他に開示されており、その開示内容は全体として、参照により本明細書に援用される。また、光源334を含む画像の分析は、テレメトリおよびジョイスティックコントローラ330の位置および/または方向の決定にも用いることができる。そのような技術は、メモリ302に保存されプロセッサ301によって実行されるプログラム304のインストラクションによって実現されてもよい。
プロセッサ301は、撮像装置323で検出された光源334からの光信号、および/またはマイクロホン配列322によって検出された音響信号からの音源場所と音源特性情報と共に、慣性センサ332からの慣性信号を用いて、コントローラ330および/またはユーザの場所および/または方向に関する情報を推測してもよい。例えば、「音響レーダ」の音源場所およびその特性は、マイクロホン配列322と共に用いられて、ジョイスティックコントローラの動きが(慣性センサ332および/または光源334を通して)独立に追跡されている間、移動音源を追跡する。音響レーダにおいて、較正済み聴取領域が実行時間中に選択されてもよい。較正済み聴取領域以外の音源から発生した音はフィルタされて除かれてもよい。較正済み聴取領域は、撮像装置323の焦点または視野にある音量に対応した聴取領域を含んでいてもよい。音響レーダの例は、米国特許出願番号11/381,724、発明者Xiadong Mao、名称「METHODS AND APPARATUS FOR TARGETED SOUND DETECTION AND CHARACTERIZATION」、2006年5月4日出願、に開示されており、その開示内容は参照により本明細書に援用される。
コントロール信号をプロセッサ301に供給するための種々の形態を種々組み合わせたものも、本発明の実施形態と併せて用いられてもよい。そのような技術は、メモリ302に保存されプロセッサ301で実行されるプログラムコードインストラクション304によって実現されてもよく、また、任意に、実行時間中は較正済み聴取領域を選択し、較正済み聴取領域以外の音源から発生した音はフィルタをかけて除くための一つ以上のプロセッサを指揮する一以上の指令を含んでもよい。較正済み聴取領域は、撮像装置323の焦点または視野にある音量に対応した聴取領域を含んでいてもよい。
プログラム304は任意に、マイクロホン配列322のマイクロホンM…Mから離散時間領域入力信号Xm(t)を生成し、聴取セクタを決定し、有限インパルス応答フィルタ係数を選択するセミブラインド(semi−blind)音源分離において聴取セクタを用いて、入力信号Xm(t)から異なる音源を分離する一つ以上のプロセッサを指揮する一以上のインストラクションを含んでもよい。プログラム304は、基準マイクロホンMからの入力信号X(t)以外の選択入力信号Xm(t)に、一つ以上の非整数遅延(fractional delay)を適用するインストラクションをさらに備えてもよい。マイクロホン配列からの離散時間領域出力信号y(t)の信号対雑音比を最適化するために、各非整数遅延が選択されてもよい。非整数遅延は、基準マイクロホンMからの信号が、配列の他のマイクロホンからの信号に対して最初であるように選択されてもよい。プログラム304は、非整数遅延Δを、y(t+Δ)=X(t+Δ)*b+X(t−1+Δ)*b+X(t−2+δ)*b+…+X(t−N+Δ)bとなるようにマイクロホン配列の出力信号y(t)に導入するインストラクションを含んでもよい。ここで、Δは0〜±1である。そのような技術の例は、2006年5月4日出願の米国特許出願番号11/381,729、名称「ULTRA SMALL MICROPHONE ARRAY」、発明者Xiadong Mao、に詳細に開示されており、その開示内容は参照により本明細書に援用される。
プログラム304は、実行されると、システム300に、音源を含んだ事前較正済み聴取領域を選択させる一つ以上のインストラクションを含んでもよい。そのようなインストラクションによって、音源が最初の領域内にあるか、またはその領域の特定の側にあるか否かを装置が判断するようになされていてもよい。音源が初期設定領域内に存在しない場合、インストラクションは、実行時に、初期設定領域の特定の側にある別の領域を選択してもよい。別の領域は、最適値に最も近い入力信号の減衰によって特徴付けられてもよい。これらのインストラクションは、実行されると、マイクロホン配列322からの入力信号の減衰と最適値への減衰を計算してもよい。インストラクションは、実行されると、装置300が、一つ以上の領域に対する入力信号の減衰値を決定し、減衰が最適値に最も近い領域を選択するようになされてもよい。そのような技術の例は、2006年5月4日出願の米国特許出願番号11/381,725、名称「METHOD AND APPARATUS FOR TARGETED SOUND DETECTION」、発明者Xiadong Maoに開示されており、その開示内容は参照により本明細書に援用される。
慣性センサ332からの信号は追跡情報入力の一部を提供し、撮像装置323による一つ以上の光源334の追跡から生成された信号は追跡情報入力の別の部分を提供する。例示として、またいかなる限定を行うことなく、そのような「混合モード」の信号は、フットボールタイプのビデオゲームで用いられ、ここでは、クォータバックが頭を左に動かすフェイントをかけた後ボールを右に投げる。具体的には、コントローラ330を保持したゲームプレイヤは、頭を左に向け、フットボールでするように、コントローラを右に振って投げる動作をしながら声を出す。「音響レーダ」プログラムコードと併せて、マイクロホン配列320はユーザの声を追跡できる。撮像装置323は、ユーザの頭の動きや、または、音やコントローラを必要としない他のコマンドを追跡できる。センサ332はジョイスティックコントローラ(フットボールを表す)の動きを追跡してもよい。撮像装置323はまた、コントローラ330の光源334を追跡してもよい。ユーザは、ジョイスティックコントローラ330の加速度がある量、および/またはある方向に達したとき、またはコントローラ330のボタンを押してトリガされるキーコマンドに基づいて、「ボール」を投げることができる。
本発明のある実施形態では、加速度計またはジャイロスコープなどからの慣性信号は、コントローラ330の位置決めに用いられてもよい。具体的には、加速度計からの加速度信号は、速度変化を決定するために一旦時間積分されてもよく、速度は位置変化を決定するために時間積分されてもよい。ある時刻における初期位置と速度が既知であれば、これらの値と速度および位置変化とを用いて絶対位置を決定できる。慣性センサを用いた位置決定は、撮像装置323や光源334を用いる方法よりも早く行えるが、慣性センサ332は「ドリフト」として知られるタイプの誤差が起こりやすい。これは、時間と共に累積される誤差によって、慣性信号から計算されるジョイスティック330の位置(透視図で示す)とジョイスティックコントローラの実際の位置との間で不一致Dが生じうる現象である。本発明の実施形態では、様々な方法でそのような誤差を処理できる。
例えば、コントローラ330の初期位置を現在の計算位置と等しくなるように設定することにより、ドリフトを手動でキャンセルすることができる。ユーザは、コントローラ330の一つ以上のボタンを使って、初期位置を再設定するコマンドをトリガできる。あるいはまた、画像ベースのドリフトであれば、撮像装置323から得られた基準となる画像から決定される位置に現在位置を再設定することによりキャンセルすることができる。そのような画像ベースのドリフトに対する補償は、例えば、ユーザがジョイスティックコントローラ330の一つ以上のボタンをトリガするときに、手動で行うことができる。または、画像ベースのドリフトに対する補償は、例えば、一定の間隔で、またはゲームプレイに応じて自動的に行える。そのような技術は、メモリ302に保存されプロセッサ301によって実行されるプログラムコードインストラクション304によって実現される。
ある実施形態では、慣性センサ信号の誤りデータを補正することが望ましい。例えば、慣性センサ332からの信号をオーバーサンプリングし、オーバーサンプリングされた信号から移動平均(sliding average)を計算して、慣性センサ信号から誤りデータを取り除くことができる。ある状況では、信号をオーバーサンプリングし、高い値および/または低い値をデータポイントの一部のサブセットから除き、残りのデータポイントから移動平均を計算することが望ましい。また、慣性センサからの信号を調節して誤りデータから優位性を除去または軽減する他のデータサンプリング技術やデータ処理技術も使用できる。いずれの技術を選択するかは、信号の性質、信号に対しての計算、ゲームプレイの性質、またはこれらの複数の組み合わせに依存する。そのような技術は、メモリ302に保存されプロセッサ301によって実行されるプログラム304のインストラクションによって実現される。
プロセッサ301は、上述のように、データ306と、メモリ302に保存、検索されプロセッサモジュール301によって実行されるプログラム304のプログラムコードインストラクションとに応じて、慣性信号データ306の分析を実行する。加えて、プロセッサは、プログラム304の一部として、上述の仮想世界シミュレーション機能を実装してもよい。特に、プログラム304は、種々の上述の仮想世界と通信するための方法かつ/または上述の3次元仮想世界とやりとりするための方法かつ/または上述のアバター電子メール通信の全てまたは一部を実装してもよい。プログラム304のコード部分は、アセンブリ、C++、JAVA(登録商標)またはその他の多くの言語などの多くの異なるプログラム言語のいずれにも準拠してよい。プロセッサモジュール301は、プログラムコード304などのプログラムを実行するときに専用コンピュータとなる汎用コンピュータを形成する。ここでは、プログラムコード304はソフトウェアに組み込まれ、汎用コンピュータで実行されるように説明したが、当業者には、タスク管理方法は、別の方法として、特定用途向け集積回路(ASIC)やその他のハードウェア回路などのハードウェアを用いて実現されることは理解されるであろう。このように、本発明の実施形態は、全体であれ一部分であれ、ソフトウェア、ハードウェアおよびその両方の組み合わせで実現されることは理解されるべきである。
ある実施形態では、とりわけ、プログラムコード304は、ひとつ以上のプロセッサに慣性センサ332からの信号を解析させて位置かつ/または方向情報を生成させ、その情報をビデオゲームのプレイ中や仮想世界との通信中、3次元仮想世界とやりとりの間に使用せしめる、プロセッサ読み取り可能なインストラクションセットを備えてもよい。プログラムコード304は、実行されると、撮像装置323に、前方の視野を監視し、視野内の一つ以上の光源334を特定し、光源334からの光の変化を検出させ、変化の検出に応じてプロセッサ301に対する入力コマンドをトリガさせる、一つ以上のインストラクションを含んだプロセッサ実行可能インストラクションを任意に備えてもよい。ゲームコントローラのアクションをトリガするために撮像装置と共にLEDを使用することは、2004年1月16日出願の米国特許出願番号10/759,782の「METHOD AND APPARATUS FOR LIGHT INPUT DEVICE」、発明者Richard L. Marksに開示されており、その開示内容は参照により本明細書に援用される。
プログラムコード304は、実行されると上述のように、ゲームシステムへの入力として、慣性センサからの信号と一つ以上の光源を追跡する撮像装置からの信号とを用いる一つ以上のインストラクションを含むプロセッサ実行可能なインストラクションを、任意に含んでもよい。プログラムコード304は、実行されると、慣性センサ332のドリフトを補償する一つ以上のインストラクションを含むプロセッサ実行可能なインストラクションを、任意に備えてもよい。
本発明の実施形態をビデオゲームコントローラ330に関連する例として記述したが、システム300を含む本発明の実施形態は、慣性センシング能力を有し、かつ無線であれそれ以外の方法であれ慣性センサ信号送信能力を有するユーザにより操作される本体、成型品、ノブ、または構造物などのいずれにも使用することができる。
例示として、本発明の実施形態は、並列処理システムに実装することができる。このような並列処理システムは、通常、別々のプロセッサを用いて並列にプログラムの一部を実行するように構成される複数のプロセッサを備える。例示として、また限定を行うことなく、図4は本発明の実施形態によるあるタイプのセルプロセッサ400を示す。セルプロセッサ400は、図3のプロセッサ301として、または図1Eのシミュレーションサーバ22やビューサーバ24のなかに使用することができる。図4の例では、セルプロセッサ400は、メインメモリ402、パワープロセッサ要素(power processor element:PPE)404、および多数のシナジスティックプロセッサ要素(synergistic processor element:SPE)406を備える。図4の例では、セルプロセッサ400は、1個のPPE404と8個のSPE406とを備える。このような構成では、7個のSPE406が並列処理に用いられ、1個は他の7個の一つが故障したときのバックアップとして確保されている。あるいはまた、セルプロセッサは、複数のPPEからなる複数のグループ(PPEグループ)と、複数のSPEからなる複数のグループ(SPEグループ)とを備えてもよい。そのような場合、1グループ内の各ユニットでハードウェアリソースが共有される。しかしながら、SPEとPPEは、ソフトウェアにとって独立要素であるように見える必要がある。このように、本発明の実施形態は、図4に示される構成での使用に限定されるものではない。
メインメモリ402は、通常、汎用の不揮発性記憶装置に加えて、システム構成、データ同期転送、メモリーマップドI/O、およびI/Oサブシステムなどの機能に用いられる専用のハードウェアレジスタまたはアレイも備える。本発明の実施形態では、ビデオゲームプログラム403がメインメモリ402内に常駐してもよい。ビデオプログラム403は、図4、図5A、図5Bおよび図5Cについて上述したような、またはこれらの組み合わせで構成される慣性、画像および音響分析部を含んでもよい。プログラム403はPPE上で走ってもよい。プログラム403は、SPEおよび/またはPPEで実行される複数の信号処理タスクに分割されてもよい。
例示として、PPE404は、関連するキャッシュL1およびL2を持った64ビットのパワーPCプロセッサユニット(PPU)であってもよい。PPE404は、システム管理リソース(例えば、メモリ保護テーブルなど)にアクセス可能な汎用処理装置である。ハードウェアリソースは、PPEに見られるように実アドレス空間に明示的にマップされてもよい。したがって、PPEは適当な実効アドレス値を用いて、直接これらのリソースのいずれにでもアドレス指定できる。PPE404の主な機能は、セルプロセッサ400のSPE406に対するタスク管理とタスク割り当てである。
図4では1個のPPEだけが示されているが、セルブロードバンドエンジンアーキテクチャ(CBEA)などのセルプロセッサ実装では、セルプロセッサ400は、複数のPPEが存在するPPEグループに系統だてられた複数のPPEを有してもよい。これらのPPEグループはメインメモリ402へのアクセスを共有してもよい。さらに、セルプロセッサ400は二つ以上のSPEを備えてもよい。SPEグループもメインメモリ402へのアクセスを共有してもよい。このような構成も本発明の範囲内である。
SPE406のそれぞれは、SPUと独自のローカル記憶領域LSとを含む。ローカル記憶領域LSは、メモリ記憶内の一つ以上の分離領域を備えており、それぞれの領域は専用のSPUと関連付けられている。各SPUは、独自の関連付けられた記憶領域内からのインストラクション(データロードとデータ保存操作とを含む)だけを実行するように構成されてもよい。そのような構成では、ローカル記憶領域LSとシステム400のそれ以外の間とのデータ転送は、メモリフローコントローラ(MFC)からダイレクトメモリアクセス(DMA)コマンドを出すことによって行われ、(個々のSPEの)ローカル記憶領域との間でデータ転送される。なんらシステム管理機能を果たさないSPUは、PPE404よりは簡単な構造のコンピュータ装置である。SPUは、一般にSIMD(single instruction, multiple data)機能を有し、通常はデータ処理を行い、割り当てられたタスクを行うために(PPEにより設定されたアクセス特性にしたがって)要求されたデータ転送を開始する。SPUの目的は、より高いコンピュータ装置密度を要求するアプリケーションを可能として、提供された命令セットを有効に利用できるようにすることである。PPE404で管理されるシステムにおけるかなり多くのSPEは、広範囲のアプリケーションにおいて費用効果の高い処理を可能にする。
各SPE406は、メモリ保護情報とアクセス許可情報を保持し処理できる関連メモリ管理ユニットを備えた専用のメモリフローコントローラ(MFC)を備えている。MFCは、セルプロセッサのメイン記憶とSPEのローカル記憶間でのデータ転送、保護および同期化のための主要な方法を提供する。MFCコマンドは実行される転送を記述する。データ転送コマンドは、MFCダイレクトメモリアクセス(DMA)コマンド(またはMFCDMA命令)と呼ばれることがある。
各MFCは、同時に複数のDMA転送をサポートし、複数のMFCコマンドを維持、処理してもよい。各MFCDMAデータ転送コマンド要求は、ローカルストレージアドレス(LSA)と有効アドレス(EA)の両方を伴ってもよい。ローカルストレージアドレスは、関連するSPEのローカルストレージアドレスだけに直接アドレス指定できる。実効アドレスは、例えば、実アドレス空間に名前を変えられれば、すべてのSPEローカルストレージ領域を含むメイン記憶を参照できるなどの、もっと一般的なアプリケーションを備えてもよい。
SPE406同士の間、および/またはSPE406とPPE404との間の通信を容易にするために、SPE406とPPE404は、シグナリングイベントに関する信号通知レジスタを備えてもよい。PPE404とSPE406は、PPE404がSPE406にメッセージを送信するルータのように働くスター構成(topology)によって接続されてもよい。代替的に、各SPE406とPPE404は、メールボックスと呼ばれる一方向信号通知レジスタを有してもよい。メールボックスは、SPE406によって使用されOSの同期操作を主催する。
セルプロセッサ400は、マイクロホン配列412、任意の撮像装置413およびゲーム/仮想世界コントローラ730などの周辺装置とインタフェースできる入出力(I/O)機能を備えてもよい。コントローラユニット730は慣性センサ732と光源734を備えてもよい。さらに、要素相互接続バス410は、上記に挙げた種々の部品を接続できる。各SPEおよびPPEは、バスインタフェースユニット(BIU)を介してバス410にアクセスできる。セルプロセッサ400は、通常プロセッサに見られる二つのコントローラと、バス410とメインメモリ402の間のデータ流れを制御するメモリインタフェースコントローラ(MIC)と、I/O408とバス410の間のデータ流れを制御するバスインタフェースコントローラ(BIC)とを備えてもよい。MIC、BIC,BIUおよびバス410に対する要件は、実装が異なると大きく変わるが、当業者はそれらの機能および実装回路については精通しているだろう。
セルプロセッサ400は、内部割り込みコントローラ(IIC)を備えてもよい。IIC装置は、PPEに提示される割り込みの優先権を管理する。IICによって、セルプロセッサ400の他の要素からの割り込みを、メインシステムの割り込みコントローラを用いずに処理できる。IICは第2レベルのコントローラと考えることもできる。メインシステムの割り込みコントローラは、セルプロセッサの外部で発生した割り込みを処理してもよい。
本発明の実施形態では、仮想世界とのやりとりを容易とするための計算は、PPE404および/または一つ以上のSPE406を用いて並列に実行されてもよい。各計算は、異なるSPE406がそれらが使用可能となるにつれて請け負う一つ以上の別々のタスクとして実行されてもよい。
上記は、本発明の好適な実施形態に関する完全な記述であるが、種々の変形、変更および等価物を用いることが可能である。したがって、本発明の技術範囲は、上記の内容を参照して決定されるべきではなく、その代わりに、添付の特許請求の範囲およびそれらの等価物の全範囲と併せて決定されるべきである。本明細書で説明した好適なまたはそれ以外のすべての特徴は、本明細書に記載された他の好適なまたはそれ以外のいかなる特徴とも組み合わせることができる。特許請求の範囲においては、不定冠詞“A”または“An”は、特にそうでないと明確に述べられた場合を除いて、冠詞に続く品目の一つ以上の数量を指す。添付の特許請求の範囲は、”means for”の句を使って明確にそのような限定が行われない限り、ミーンズプラスファンクションの限定が含まれると解釈されるべきではない。

Claims (169)

  1. 仮想世界とコミュニケーションを取るための方法であって、前記仮想世界は複数のユーザ間のやりとりを容易にするシミュレートされた公共空間とひとつ以上のシミュレートされた私的空間とを含み、私的空間の各々は前記複数のユーザのなかの個々のユーザに関連付けられ、前記方法は、
    前記仮想世界のなかで通信装置をシミュレートすることと、
    前記シミュレートされた通信装置と現実の通信装置との間で通信を行うこと、を含む方法。
  2. 前記現実の通信装置は、他の現実の通信装置と前記仮想世界とは独立したひとつ以上の通信チャネルを通じて通信する、請求項1に記載の方法。
  3. 前記通信装置をシミュレートすることは、
    前記シミュレートされた通信装置のインタフェースを前記仮想世界のなかでシミュレートすることと、
    そこでやりとりを行わせるために、前記シミュレートされたインタフェースをユーザに提示することと、を含む、請求項1に記載の方法。
  4. 前記公共空間は、ロビーに似せて設けられる、請求項1に記載の方法。
  5. 前記ひとつ以上の私的空間は、部屋に似せて設けられたひとつ以上の私的空間を含む、請求項1に記載の方法。
  6. 前記シミュレートされた通信装置は、シミュレートされたハンドヘルド通信装置である、請求項1に記載の方法。
  7. 前記シミュレートされたハンドヘルド通信装置は、シミュレートされた電話機、シミュレートされた移動電話機、シミュレートされたテキストメッセージ装置、シミュレートされた電子メール装置、もしくはシミュレートされたツーウェイラジオである、請求項6に記載の方法。
  8. 前記現実の通信装置は、現実のハンドヘルド通信装置である、請求項1に記載の方法。
  9. 前記現実のハンドヘルド通信装置は、現実の電話機、現実の移動電話機、現実のテキストメッセージ装置、現実の電子メール装置、もしくは現実のツーウェイラジオである、請求項8に記載の方法。
  10. 前記シミュレートされた通信装置と前記現実の通信装置との間で通信を行うことは、現実の電話機とシミュレートされた電話機との間で電話をかけ合うことを含む、請求項1に記載の方法。
  11. 前記シミュレートされた通信装置と前記現実の通信装置との間で通信を行うことは、前記シミュレートされた通信装置と前記現実の通信装置との間でひとつ以上のテキストメッセージを送り合うことを含む、請求項1に記載の方法。
  12. 前記仮想世界の個々のユーザにアバターを関連付けることと、
    その個々のユーザの前記仮想世界とのやりとりを、ひとつ以上の対応するアバター動作によって表現すること、とをさらに含む請求項1に記載の方法。
  13. 前記シミュレートされた通信装置と前記現実の通信装置との間で通信を行うことは、仮想通信装置コンテンツに前記現実の通信装置を用いてアクセスすることを含む、請求項1に記載の方法。
  14. 前記仮想世界は、3次元の仮想世界である、請求項1に記載の方法。
  15. 前記シミュレートされた通信装置と現実の通信装置との間で通信を行うことは、前記現実の通信装置を前記シミュレートされた通信装置とユーザとの間のインタフェースとして使用することを含む、請求項1に記載の方法。
  16. 前記シミュレートされた通信装置と現実の通信装置との間で通信を行うことは、
    通信の受け側が前記仮想世界のユーザであるかどうかを決定することと、
    前記受け側が通信時に前記仮想世界とやりとりを行っているかどうかを決定することと、
    前記受け側が通信時に前記仮想世界とやりとりを行っている場合に、前記受け側が前記仮想世界とやりとりを行うために使用している現実の装置上でシミュレートされた通信装置を介して前記受け側に連絡することと、を含む、請求項1に記載の方法。
  17. 前記シミュレートされた通信装置と現実の通信装置との間で通信を行うことは、
    通信の受け側が前記仮想世界のユーザであるかどうかを決定することと、
    前記受け側が通信時に前記仮想世界とやりとりを行っているかどうかを決定することと、
    前記受け側が通信時に前記仮想世界とやりとりを行っていない場合に、現実の通信装置もしくは前記受け側が前記仮想世界とやりとりを行うために使用している現実の装置上でシミュレートされた通信装置に前記受け側へのメッセージを残すことと、を含む、請求項1に記載の方法。
  18. 前記シミュレートされた通信装置と現実の通信装置との間で通信を行うことは、
    通信の受け側が前記仮想世界のユーザであるかどうかを決定することと、
    前記受け側が通信時に前記仮想世界とやりとりを行っているかどうかを決定することと、
    前記受け側が通信時に前記仮想世界とやりとりを行っていない場合に、前記受け側に現実の通信装置を介して連絡することと、を含み、
    前記現実の通信装置は、他の現実の通信装置と前記仮想世界とは独立したひとつ以上の通信チャネルを通じて通信する、請求項1に記載の方法。
  19. 仮想世界とコミュニケーションを取るための方法であって、前記仮想世界は複数のユーザ間のやりとりを容易にするシミュレートされた公共空間とひとつ以上のシミュレートされた私的空間とを含み、私的空間の各々は前記複数のユーザのなかの個々のユーザに関連付けられ、前記方法は、
    前記仮想世界の個々のユーザにアバターを関連付けることと、
    その個々のユーザの前記仮想世界とのやりとりを、ひとつ以上の対応するアバター動作によって表現することと、
    前記仮想世界と現実の通信装置との間で通信を行うことと、を含み、
    前記現実の通信装置は、他の現実の通信装置と前記仮想世界とは独立したひとつ以上の通信チャネルを通じて通信する、方法。
  20. 前記現実世界と前記仮想世界との間で通信を行うことは、前記現実の装置を介して前記アバター、前記公共空間もしくは前記私的空間に関連したひとつ以上の特性を変化させることを含む、請求項19に記載の方法。
  21. 前記仮想世界と現実の通信装置との間で通信を行うことは、前記現実の通信装置と前記仮想世界のなかでシミュレートされた通信装置との間で通信を行うことを含む、請求項19に記載の方法。
  22. 前記シミュレートされた通信装置と前記現実の通信装置との間で通信を行うことは、前記シミュレートされた通信装置と前記現実の通信装置との間でひとつ以上のテキストメッセージを送り合うことを含む、請求項21に記載の方法。
  23. 前記仮想世界と前記現実の通信装置との間で通信を行うことは、前記シミュレートされた通信装置と前記現実の通信装置との間に音声通信を確立することを含む、請求項21に記載の方法。
  24. 前記シミュレートされた通信装置と前記現実の通信装置との間に音声通信を確立することは、シミュレートされた電話機と現実の電話機との間で電話をかけ合うことを含む、請求項23に記載の方法。
  25. 前記現実の電話機は、前記シミュレートされた通信装置から電話を受けた際には特有の呼び出し音を生成し、
    前記特有の呼び出し音は、他から電話を受けた際に前記現実の電話機が生成する通常の呼び出し音とは異なる、請求項24に記載の方法。
  26. 前記シミュレートされた通信装置は、シミュレートされたビデオレコーダである、請求項21に記載の方法。
  27. 前記現実の通信装置と前記シミュレートされた通信装置との間で通信を行うことは、前記現実の通信装置を前記シミュレートされたビデオレコーダとユーザとの間のインタフェースとして使用することを含む、請求項26に記載の方法。
  28. 前記現実の通信装置をインタフェースとして使用することは、前記シミュレートされたビデオレコーダを現実のもしくはシミュレートされたビデオイベントを前記現実の通信装置を使用して記録するよう設定することを含む、請求項26に記載の方法。
  29. 前記現実の通信装置は、電話機、携帯電話機、携帯型ゲーム機、携帯情報端末、もしくは携帯型電子メール装置である、請求項28に記載の方法。
  30. 前記現実の通信装置と前記仮想通信装置との間で通信を行うことは、ビデオ通信を含む、請求項21に記載の方法。
  31. ビデオ通信は、そのビデオ通信の間、前記現実の通信装置に前記アバターの画像を表示することを含む、請求項30に記載の方法。
  32. 前記アバターを、そのアバターに関連付けられたユーザによって生成された現実のもしくは合成された音声にリップシンクさせることをさらに含む請求項31に記載の方法。
  33. 前記ユーザが示す感情を前記アバターが表す感情にマッピングすることをさらに含む請求項32に記載の方法。
  34. 前記ユーザが示す感情をマッピングすることは、前記ユーザのひとつ以上の画像を取得し、前記ユーザのひとつ以上の顔色を解析することを含む、請求項33に記載の方法。
  35. 前記ビデオ通信中に前記ユーザのひとつ以上の画像を取得し前記ユーザのひとつ以上の顔色を解析することは、3次元カメラを使用することを含む、請求項34に記載の方法。
  36. 前記ユーザが示す感情をマッピングすることは、前記ユーザの声の抑揚を解析することを含む、請求項33に記載の方法。
  37. 前記ユーザが示す感情をマッピングすることは、前記ビデオ通信のユーザ部分の間、前記ユーザの感情の状態を示す生物測定学的データを解析することを含む請求項33に記載の方法。
  38. 前記生物測定学的データは、心電計(EKG)データ、脳波(EEG)データ、皮膚電気反射データ、もしくはサーモグラフィデータを含む、請求項37に記載の方法。
  39. 前記ユーザが示す感情をマッピングすることは、前記ビデオ通信のユーザ部分の間、リアルタイムで前記ユーザの感情の状態を追跡することを含む、請求項33に記載の方法。
  40. 仮想世界とコミュニケーションを取るためのシステムであって、当該システムは仮想世界を生成するひとつ以上のプロセッサを備え、
    前記仮想世界は複数のユーザ間のやりとりを容易にするシミュレートされた公共空間とひとつ以上のシミュレートされた私的空間とを含み、私的空間の各々は前記複数のユーザのなかの個々のユーザに関連付けられ、
    前記ひとつ以上のプロセッサはさらに、
    前記仮想世界のなかで通信装置をシミュレートし、
    前記シミュレートされた通信装置と現実の通信装置との間で通信を行う、システム。
  41. 前記現実の通信装置は、他の現実の通信装置と前記仮想世界とは独立したひとつ以上の通信チャネルを通じて通信する、請求項40に記載のシステム。
  42. 前記公共空間は、ロビーに似せて設けられる、請求項40に記載のシステム。
  43. 前記ひとつ以上の私的空間は、部屋に似せて設けられたひとつ以上の私的空間を含む、請求項40に記載のシステム。
  44. 前記シミュレートされた通信装置は、シミュレートされたハンドヘルド通信装置である、請求項40に記載のシステム。
  45. 前記シミュレートされたハンドヘルド通信装置は、シミュレートされた電話機、シミュレートされた移動電話機、シミュレートされたテキストメッセージ装置、シミュレートされた電子メール装置、もしくはシミュレートされたツーウェイラジオである、請求項44に記載のシステム。
  46. 前記現実の通信装置は、現実のハンドヘルド通信装置である、請求項40に記載のシステム。
  47. 前記現実のハンドヘルド通信装置は、現実の電話機、現実の移動電話機、現実のテキストメッセージ装置、現実の電子メール装置、もしくは現実のツーウェイラジオである、請求項46に記載のシステム。
  48. 前記シミュレートされた通信装置は、現実の電話機と通信するシミュレートされた電話機である、請求項40に記載のシステム。
  49. 前記シミュレートされた通信装置は、ひとつ以上のテキストメッセージによって現実のテキストメッセージ装置と通信するシミュレートされたテキストメッセージ装置である、請求項40に記載のシステム。
  50. 前記シミュレートされた通信装置は、
    通信の受け側が前記仮想世界のユーザであるかどうかを決定し、
    前記受け側が通信時に前記仮想世界とやりとりを行っているかどうかを決定し、
    前記受け側が通信時に前記仮想世界とやりとりを行っている場合に、前記受け側が前記仮想世界とやりとりを行うために使用している現実の装置上でシミュレートされた通信装置を介して前記受け側に連絡する、請求項40に記載のシステム。
  51. 前記シミュレートされた通信装置は、
    通信の受け側が前記仮想世界のユーザであるかどうかを決定し、
    前記受け側が通信時に前記仮想世界とやりとりを行っているかどうかを決定し、
    前記受け側が通信時に前記仮想世界とやりとりを行っていない場合に、現実の通信装置もしくは前記受け側が前記仮想世界とやりとりを行うために使用している現実の装置上でシミュレートされた通信装置に前記受け側へのメッセージを残す、請求項40に記載のシステム。
  52. 前記シミュレートされた通信装置は、
    通信の受け側が前記仮想世界のユーザであるかどうかを決定し、
    前記受け側が通信時に前記仮想世界とやりとりを行っているかどうかを決定し、
    前記受け側が通信時に前記仮想世界とやりとりを行っていない場合に、前記受け側に現実の通信装置を介して連絡し、
    前記現実の通信装置は、他の現実の通信装置と前記仮想世界とは独立したひとつ以上の通信チャネルを通じて通信する、請求項40に記載のシステム。
  53. 前記ひとつ以上のプロセッサはさらに、
    前記仮想世界の個々のユーザにアバターを関連付け、
    その個々のユーザの前記仮想世界とのやりとりを、ひとつ以上の対応するアバター動作によって表現する、請求項40に記載のシステム。
  54. 前記ひとつ以上のプロセッサは、前記現実の通信が仮想通信装置コンテンツにアクセスできるように構成される、請求項40に記載のシステム。
  55. 前記仮想世界は、3次元の仮想世界である、請求項40に記載のシステム。
  56. 前記ひとつ以上のプロセッサは、前記現実の通信装置が前記シミュレートされた通信装置とユーザとの間のインタフェースとして使用されうるように構成される、請求項40に記載のシステム。
  57. 前記ひとつ以上のプロセッサはセルプロセッサを含む、請求項40に記載のシステム。
  58. 前記現実の通信装置は、電話機、携帯電話機、携帯情報端末、カメラ、ボイスレコーダ、携帯型電子メール装置、携帯型インターネットアクセス装置、携帯型ゲーム機、もしくはパーソナルコンピュータである、請求項40に記載のシステム。
  59. 前記ひとつ以上のプロセッサと接続されたユーザインタフェースをさらに備え、
    前記ユーザインタフェースは、前記ユーザと前記仮想世界との間のやりとりを容易にする、請求項40に記載のシステム。
  60. 仮想世界とコミュニケーションを取るためのシステムであって、当該システムは仮想世界を生成するひとつ以上のプロセッサを備え、
    前記仮想世界は複数のユーザ間のやりとりを容易にするシミュレートされた公共空間とひとつ以上のシミュレートされた私的空間とを含み、私的空間の各々は前記複数のユーザのなかの個々のユーザに関連付けられ、
    前記ひとつ以上のプロセッサはさらに、
    前記仮想世界の個々のユーザにアバターを関連付け、
    その個々のユーザの前記仮想世界とのやりとりを、ひとつ以上の対応するアバター動作によって表現し、
    前記仮想世界と現実の通信装置との間で通信を行い、
    前記現実の通信装置は、他の現実の通信装置と仮想世界を生成する前記ひとつ以上のプロセッサとは独立したひとつ以上の通信チャネルを通じて通信する、システム。
  61. 前記ひとつ以上のプロセッサは、前記現実の装置によって生成される信号に応答して前記アバター、前記公共空間もしくは前記私的空間に関連したひとつ以上の特性を変化させる、請求項60に記載のシステム。
  62. 前記ひとつ以上のプロセッサは、前記現実の通信装置と前記仮想世界のなかでシミュレートされた通信装置との間の通信を容易にする、請求項60に記載のシステム。
  63. 前記ひとつ以上のプロセッサは、前記現実の通信装置と前記シミュレートされた通信との間の通信をひとつ以上のテキストメッセージによって容易にする、請求項62に記載のシステム。
  64. 前記ひとつ以上のプロセッサは、前記現実の通信装置と前記シミュレートされた通信との間の通信を、前記シミュレートされた通信装置と前記現実の通信装置との間の音声通信によって容易にする、請求項62に記載のシステム。
  65. 前記シミュレートされた通信装置と前記現実の通信装置との間の音声通信は、シミュレートされた電話機と現実の電話機との間の電話を含む、請求項64に記載のシステム。
  66. 前記現実の電話機は、前記シミュレートされた通信装置から電話を受けた際には特有の呼び出し音を生成し、
    前記特有の呼び出し音は、他から電話を受けた際に前記現実の電話機が生成する通常の呼び出し音とは異なる、請求項65に記載のシステム。
  67. 前記シミュレートされた通信装置は、シミュレートされたビデオレコーダである、請求項62に記載のシステム。
  68. 前記ひとつ以上のプロセッサは、前記現実の通信装置が前記シミュレートされたビデオレコーダとユーザとの間のインタフェースとして使用されうるように構成される、請求項67に記載のシステム。
  69. 前記ひとつ以上のプロセッサは、前記現実の通信装置が前記シミュレートされたビデオレコーダを現実のもしくはシミュレートされたビデオイベントを記録するよう設定するのに使用されうるように構成される、請求項67に記載のシステム。
  70. 前記現実の通信装置は、電話機、携帯電話機、携帯情報端末、カメラ、ボイスレコーダ、携帯型電子メール装置、携帯型インターネットアクセス装置、携帯型ゲーム機、もしくはパーソナルコンピュータである、請求項69に記載のシステム。
  71. 前記現実の通信装置と前記仮想通信装置との間で通信を行うことは、ビデオ通信を含む、請求項70に記載のシステム。
  72. ビデオ通信は、そのビデオ通信の間、前記現実の装置に前記アバターの画像を表示することを含む、請求項71に記載のシステム。
  73. 前記ひとつ以上のプロセッサは、前記アバターを、そのユーザによって生成された現実のもしくは合成された音声にリップシンクさせる、請求項72に記載のシステム。
  74. 前記ユーザが示す感情を前記アバターが表す感情にマッピングする手段をさらに備える請求項73に記載のシステム。
  75. 前記ユーザが示す感情をマッピングする手段は、前記ユーザのひとつ以上の画像を取得する手段と、前記ユーザのひとつ以上の顔色を解析する手段と、を含む、請求項74に記載のシステム。
  76. 前記ビデオ通信中に前記ユーザのひとつ以上の画像を取得する手段は、3次元カメラを含む、請求項75に記載のシステム。
  77. 前記ユーザが示す感情をマッピングすることは、前記ユーザの声の抑揚を解析することを含む、請求項76に記載のシステム。
  78. 前記ユーザが示す感情をマッピングする手段は、前記ビデオ通信のユーザ部分の間、前記ユーザの感情の状態を示す生物測定学的データを解析する手段を含む、請求項76に記載のシステム。
  79. 前記生物測定学的データは、心電計(EKG)データ、脳波(EEG)データ、皮膚電気反射データ、もしくはサーモグラフィデータを含む、請求項78に記載のシステム。
  80. 前記ユーザが示す感情をマッピングする手段は、前記ビデオ通信のユーザ部分の間、リアルタイムで前記ユーザの感情の状態を追跡する手段を含む、請求項74に記載のシステム。
  81. 前記ひとつ以上のプロセッサは、前記現実の通信が仮想通信装置コンテンツにアクセスできるように構成される、請求項60に記載のシステム。
  82. 前記仮想世界は3次元の仮想世界である、請求項60に記載のシステム。
  83. 前記ひとつ以上のプロセッサは、前記現実の通信装置が前記シミュレートされた通信装置とユーザとの間のインタフェースとして使用されうるように構成される、請求項60に記載のシステム。
  84. 前記ひとつ以上のプロセッサは、セルプロセッサを含む、請求項60に記載のシステム。
  85. 前記現実の通信装置は、電話機、携帯電話機、携帯情報端末、カメラ、ボイスレコーダ、携帯型電子メール装置、携帯型インターネットアクセス装置、携帯型ゲーム機、もしくはパーソナルコンピュータである、請求項60に記載のシステム。
  86. 前記ひとつ以上のプロセッサと接続されたユーザインタフェースをさらに備え、
    前記ユーザインタフェースは、前記ユーザと前記仮想世界との間のやりとりを容易にする、請求項60に記載のシステム。
  87. 3次元の仮想世界とユーザとのやりとりの方法であって、前記仮想世界はひとつ以上の公共空間とひとつ以上の私的空間とを備え、前記ユーザは前記仮想世界ではアバターによって表現され、前記ユーザは前記アバターをユーザインタフェースを介して操作することができ、前記方法は、
    a)前記インタフェースを介して前記ユーザの感情の状態を検出することと、
    b)前記ユーザの感情の状態を前記アバターの他のユーザによって知覚されうるひとつ以上の特徴にマッピングすることと、を含み、
    前記他のユーザが前記ユーザの感情の状態を前記アバターを知覚することで知覚することができる、方法。
  88. 前記ひとつ以上の特徴は、前記アバターのひとつ以上の顔色を含む、請求項87に記載の方法。
  89. 前記ひとつ以上の特徴は、前記アバターのひとつ以上のボディーランゲージを含む、請求項87に記載の方法。
  90. 前記ひとつ以上の特徴は、前記アバターのひとつ以上の顔色およびボディーランゲージを含む、請求項87に記載の方法。
  91. 前記ユーザの感情の状態を検出することは、前記ユーザのひとつ以上の顔色を追跡することを含む、請求項87に記載の方法。
  92. ひとつ以上の顔色を追跡することは、3次元カメラを使用して前記ひとつ以上の顔色を追跡することを含む、請求項91に記載の方法。
  93. 前記ユーザの感情の状態を検出することは、前記ユーザのひとつ以上のボディーランゲージを追跡することを含む、請求項87に記載の方法。
  94. 前記ユーザの感情の状態を検出することは、前記ユーザの声の抑揚を解析することを含む、請求項87に記載の方法。
  95. 前記ユーザの感情の状態を検出することは、前記ユーザによって生成されたテキストを解析することを含む、請求項87に記載の方法。
  96. 前記ユーザの感情の状態を検出することは、前記ユーザの生物測定を解析することを含む、請求項87に記載の方法。
  97. 前記生物測定は、心電計(EKG)データ、脳波(EEG)データ、皮膚電気反射データ、もしくはサーモグラフィデータを含む、請求項96に記載の方法。
  98. 3次元の仮想世界とユーザとのやりとりの方法であって、前記仮想世界はひとつ以上の公共空間とひとつ以上の私的空間とを備え、前記ユーザは前記仮想世界ではアバターによって表現され、前記ユーザは前記アバターをユーザインタフェースを介して操作することができ、前記方法は、
    前記アバターに対するカスタムジェスチャを生成することと、
    前記ジェスチャにひとつ以上のユーザインタフェース信号を関連付けることと、を含む方法。
  99. 前記ユーザインタフェース信号をひとつ以上の他のユーザに配ることをさらに備え、
    前記他のユーザは自己のアバターを前記カスタムジェスチャを行うようにカスタマイズできる、請求項98に記載の方法。
  100. 前記カスタムジェスチャを生成することは、そのジェスチャを行う行為者をモーションキャプチャすることもしくはパフォーマンスキャプチャすることを含む、請求項98に記載の方法。
  101. 前記行為者は前記ユーザである、請求項100に記載の方法。
  102. 前記仮想空間のなかでの前記アバターによる前記カスタムジェスチャの表現を穏当なものとすることをさらに含む請求項98に記載の方法。
  103. 前記カスタムジェスチャの表現を穏当なものとすることは、所定の基準に基づいて、特定のユーザがアバターに前記カスタムジェスチャを行わせることのできる範囲を制限すること、もしくは所定の基準に基づいて、前記特定のユーザが前記カスタムジェスチャを行うアバターを知覚できる範囲を制限することを含む、請求項102に記載の方法。
  104. 前記所定の基準は、前記ユーザの年齢、前記ジェスチャを見る人の年齢、もしくは宗教、民族もしくは見る人の他の帰属先に基づき見る人が侮辱と感じうる感受性を含む、請求項103に記載の方法。
  105. 前記アバターのひとつ以上の他の特徴をカスタマイズし、前記ユーザかつ/またはアバターをあるソーシャルグループに結び付けることをさらに含む請求項98に記載の方法。
  106. 前記アバターのひとつ以上の他の特徴をカスタマイズすることは、前記アバターの衣服、履き物、髪型もしくは民族的特徴をカスタマイズすることを含む、請求項105に記載の方法。
  107. 現実の通信装置および仮想通信装置の間で通信をルーティングするための方法であって、
    前記仮想世界のユーザを仮想通信装置およびひとつ以上の現実の通信装置に関連付けることと、
    前記ユーザ宛の通信を受けた場合に前記仮想通信装置および前記ひとつ以上の現実の通信装置の間でルーティング優先処理を実行することと、を含む方法。
  108. 前記ユーザが前記ルーティング優先処理を実行する、請求項107に記載の方法。
  109. 前記通信の発信元が前記ルーティング優先処理を実行する、請求項107に記載の方法
  110. 前記ルーティング優先処理は前記ユーザの好みに基づく、請求項107に記載の方法。
  111. 前記ルーティング優先処理は前記ユーザの行動に基づく、請求項107に記載の方法。
  112. 前記ルーティング優先処理は前記通信ソースの正体に依存する、請求項107に記載の方法。
  113. 前記ルーティング優先処理は前記通信ターゲットの正体に依存する、請求項107に記載の方法。
  114. 前記ルーティング優先処理は、ひとつ以上のステートコントロールに基づき、
    前記ステートコントロールは、所定の状況においてのみ前記通信を前記現実のもしくは仮想通信装置へルーティングする、請求項107に記載の方法。
  115. 前記ルーティング優先処理にしたがって前記ユーザ宛の通信をルーティングすることをさらに含む請求項107に記載の方法。
  116. 前記通信をルーティングすることは、
    前記ユーザが前記仮想世界において「オンライン」であるかどうかを決定することと、
    前記ユーザがオンラインである場合に、前記通信を前記仮想通信装置へルーティングすることと、を含む、請求項115に記載の方法。
  117. 前記通信をルーティングすることは、
    前記ユーザが前記仮想世界において「オンライン」であるかどうかを決定することと、
    前記ユーザがオンラインでない場合に、前記通信をひとつ以上の前記現実の通信装置へルーティングすることと、を含む、請求項115に記載の方法。
  118. 前記通信をルーティングすることは、
    前記ユーザが前記仮想世界において「オンライン」であるかどうかを決定することと、
    前記ユーザがオンラインである場合に、テキストメッセージを前記仮想通信装置または前記ユーザに関連付けられたアバターのいずれか一方へルーティングすることと、を含む、請求項115に記載の方法。
  119. 前記ユーザ宛の前記通信は前記仮想世界のなかから発信される、請求項115に記載の方法。
  120. 前記シミュレートされた通信装置と現実の通信装置との間で通信を行うことは、ソースからターゲットへ通信を伝達することを含み、
    アバターは前記ソースと関連付けられ、
    当該方法はさらに、前記通信の間、前記仮想世界において前記アバターを前記ターゲットに表示することを含む、請求項107に記載の方法。
  121. 前記通信は現実の通信装置から発信される、請求項120に記載の方法。
  122. 前記通信の間、前記ソースからの音声を前記ターゲットに提示することをさらに含む請求項120に記載の方法。
  123. 前記通信の間、前記ソースからのテキストを前記ターゲットに提示することをさらに含む請求項120に記載の方法
  124. 前記ソースからのテキストを提示することは、前記ソースからの発話音声をテキストに翻訳することと、前記ターゲットにその結果得られるテキストを提示することとを含む、請求項123に記載の方法。
  125. 前記結果として得られるテキストアバターを提示することは、前記結果として得られるテキストを前記アバターの近くのひとつ以上のふきだしに表示することを含む、請求項124に記載の方法。
  126. 現実の通信装置および仮想通信装置の間で通信をルーティングするためのシステムであって、
    仮想世界を生成するひとつ以上のプロセッサを備え、
    前記ひとつ以上のプロセッサは、仮想通信装置を生成し、設定可能なルータを実現し、
    前記設定可能なルータは、ひとつ以上の現実の通信装置と前記仮想通信装置との間の通信におけるルーティングを容易とする、システム。
  127. 前記ルータは、前記仮想通信装置もしくは前記ひとつ以上の現実の通信装置からアクセス可能である、請求項126に記載のシステム。
  128. 前記ひとつ以上の現実の通信装置は、ひとつ以上のネットワークウェブページを含む、請求項127に記載のシステム。
  129. 前記ルータは、前記仮想通信装置に関連付けられたユーザに基づいて通信をルーティングする、請求項126に記載のシステム。
  130. 前記ルータは、前記通信の発信元に基づいて通信をルーティングする、請求項126に記載のシステム。
  131. 前記ルータは、前記仮想通信装置に関連付けられたユーザのひとつ以上の好みに基づいて通信をルーティングする、請求項126に記載のシステム。
  132. 前記ルータは、前記仮想通信装置に関連付けられたユーザのひとつ以上の行動に基づいて通信をルーティングする、請求項126に記載のシステム。
  133. 前記ルータは、前記通信のソースの正体に基づいて通信をルーティングする、請求項126に記載のシステム。
  134. 前記ルータは、前記通信のターゲットの正体に基づいて通信をルーティングする、請求
    項126に記載のシステム。
  135. 前記ルータは、ひとつ以上のステートコントロールに基づいて通信をルーティングし、
    前記ステートコントロールは、所定の状況においてのみ前記通信を前記現実のもしくは仮想通信装置へルーティングする、請求項126に記載のシステム。
  136. 前記ルータは、
    前記ユーザが前記仮想世界において「オンライン」であるかどうかを決定し、
    前記ユーザがオンラインである場合に、前記通信を前記仮想通信装置へルーティングする、請求項126に記載のシステム。
  137. 前記ルータは、
    前記ユーザが前記仮想世界において「オンライン」であるかどうかを決定し、
    前記ユーザがオンラインでない場合に、前記通信をひとつ以上の前記現実の通信装置へルーティングする、請求項126に記載のシステム。
  138. 前記ルータは、
    前記ユーザが前記仮想世界において「オンライン」であるかどうかを決定し、
    前記ユーザがオンラインである場合に、テキストメッセージを前記仮想通信装置または前記ユーザに関連付けられたアバターのいずれか一方へルーティングする、請求項126に記載のシステム。
  139. 前記ルータはソースからターゲットへ通信を伝達し、前記通信の間、前記仮想世界において前記アバターを前記ターゲットに表示し、
    前記アバターは前記ソースと関連付けられる、請求項126に記載のシステム。
  140. 前記ひとつ以上のプロセッサは、前記通信の間、前記ソースからの音声を前記ターゲットに提示する、請求項139に記載のシステム。
  141. 前記ひとつ以上のプロセッサは、前記通信の間、前記ソースからのテキストを前記ターゲットに提示する、請求項139に記載のシステム。
  142. 前記ひとつ以上のプロセッサは、前記ソースからの発話音声をテキストに翻訳し、前記ターゲットにその結果得られるテキストを提示する、請求項141に記載のシステム。
  143. 前記結果として得られるテキストアバターを提示することは、前記結果として得られるテキストを前記アバターの近くのひとつ以上のふきだしに表示することを含む、請求項142に記載の方法。
  144. 仮想世界を用いて通信するための方法であって、
    アバターを電子メールの発信元に関連付けることと、
    前記仮想世界のなかで電子メールを生成することと、
    アバターのひとつ以上の画像を前記電子メールに関連付けることと、
    前記電子メールを現実の装置に送ることと、
    前記ひとつ以上の画像を前記電子メールの届け先で提示することと、を含む方法。
  145. 記録されたもしくは合成された音声を前記電子メールに関連付けることと、
    前記届け先で前記音声を前記ひとつ以上の画像と共に提示することと、をさらに含む請求項144に記載の方法。
  146. ひとつ以上の画像を関連付けることは、前記アバターのアニメーションを生成することを含む、請求項144に記載の方法。
  147. 前記ひとつ以上の画像を提示することは、前記届け先で前記アニメーションを提示することを含む、請求項146に記載の方法。
  148. ひとつ以上の画像を関連付けることは、前記アバターの前記アニメーションにひとつ以上のジェスチャをマッピングすることをさらに含む、請求項146に記載の方法。
  149. ひとつ以上のジェスチャをマッピングすることは、
    前記電子メールメッセージの発信元の音声かつ/またはビデオを記録することと、
    前記音声かつ/またはビデオのひとつ以上の特徴を前記アニメーション中の前記アバターのひとつ以上の特徴にマッピングすることと、を含む、請求項148に記載の方法。
  150. テーマを前記アニメーション中の仮想カメラの動きに関連付けることをさらに含む、請求項146に記載の方法。
  151. 前記テーマは仮想カメラの固定位置を含む、請求項150に記載の方法。
  152. 前記テーマは仮想カメラの動きを含む、請求項150に記載の方法。
  153. 前記電子メールを生成することは、前記発信元の感情の状態を追跡することと、前記テーマを感情の状態にマッピングすることと、を含む、請求項150に記載の方法。
  154. 電子メールを生成することは、前記仮想世界のなかで仮想通信装置を使用することを含む、請求項144に記載の方法。
  155. 前記仮想世界は、複数のユーザ間のやりとりを容易にするシミュレートされた公共空間とひとつ以上のシミュレートされた私的空間とを含み、
    私的空間の各々は前記複数のユーザのなかの個々のユーザに関連付けられる、請求項144に記載の方法。
  156. 前記届け先は、現実の通信装置である、請求項144に記載の方法。
  157. 前記現実の通信装置は、他の現実の通信装置と前記仮想世界とは独立したひとつ以上の通信チャネルを通じて通信する、請求項156に記載の方法。
  158. 仮想世界を用いて通信するためのシステムであって、ひとつ以上のプロセッサを備え、前記ひとつ以上のプロセッサは、
    仮想世界を生成し、
    アバターを電子メールの発信元に関連付け、
    前記仮想世界のなかで電子メールを生成し、
    アバターのひとつ以上の画像を前記電子メールに関連付け、
    前記電子メールを現実の装置に送り、
    前記ひとつ以上の画像を前記電子メールの届け先で提示する、システム。
  159. 前記仮想世界は、複数のユーザ間のやりとりを容易にするシミュレートされた公共空間とひとつ以上のシミュレートされた私的空間とを含み、
    私的空間の各々は前記複数のユーザのなかの個々のユーザに関連付けられる、請求項158に記載のシステム。
  160. 前記ひとつ以上のプロセッサは、
    記録されたかつ/または合成された音声を前記電子メールに関連付け、
    前記届け先で前記音声を前記ひとつ以上の画像と共に提示する、請求項158に記載のシステム。
  161. 前記ひとつ以上のプロセッサは、前記アバターのアニメーションを生成する、請求項158に記載のシステム。
  162. 前記ひとつ以上のプロセッサは、前記届け先で前記アニメーションを提示する、請求項161に記載のシステム。
  163. 前記ひとつ以上のプロセッサは、前記アバターの前記アニメーションにひとつ以上のジェスチャをマッピングする、請求項162に記載のシステム。
  164. 前記ひとつ以上のプロセッサは、
    前記電子メールメッセージの発信元の音声かつ/またはビデオを記録し、
    前記音声かつ/またはビデオのひとつ以上の特徴を前記アニメーション中の前記アバターのひとつ以上の特徴にマッピングする、請求項163に記載のシステム。
  165. 前記ひとつ以上のプロセッサは、テーマを前記アニメーション中の仮想カメラの動きに関連付ける、請求項161に記載のシステム。
  166. 前記テーマは仮想カメラの固定位置を含む、請求項165に記載のシステム。
  167. 前記テーマは仮想カメラの動きを含む、請求項165に記載のシステム。
  168. 前記ひとつ以上のプロセッサは、前記発信元の感情の状態を追跡し、前記テーマを感情の状態にマッピングする、請求項165に記載のシステム。
  169. 前記ひとつ以上のプロセッサは、前記仮想世界のなかに仮想通信装置を生成し、ユーザに前記仮想通信装置を用いて前記電子メールを生成させる、請求項158に記載のシステム。
JP2009551806A 2007-03-01 2008-02-26 仮想世界とコミュニケーションを取るためのシステムおよび方法 Pending JP2010533006A (ja)

Applications Claiming Priority (13)

Application Number Priority Date Filing Date Title
US89239707P 2007-03-01 2007-03-01
GBGB0703974.6A GB0703974D0 (en) 2007-03-01 2007-03-01 Entertainment device
GB0704225A GB2447094B (en) 2007-03-01 2007-03-05 Entertainment device and method
GB0704227A GB2447020A (en) 2007-03-01 2007-03-05 Transmitting game data from an entertainment device and rendering that data in a virtual environment of a second entertainment device
US11/682,281 US8425322B2 (en) 2007-03-01 2007-03-05 System and method for communicating with a virtual world
US11/682,299 US8502825B2 (en) 2007-03-01 2007-03-05 Avatar email and methods for communicating between real and virtual worlds
US11/682,287 US20080215971A1 (en) 2007-03-01 2007-03-05 System and method for communicating with an avatar
US11/682,292 US20080215972A1 (en) 2007-03-01 2007-03-05 Mapping user emotional state to avatar in a virtual world
US11/682,284 US7979574B2 (en) 2007-03-01 2007-03-05 System and method for routing communications among real and virtual communication devices
GB0704246A GB2447096B (en) 2007-03-01 2007-03-05 Entertainment device and method
US11/682,298 US8788951B2 (en) 2007-03-01 2007-03-05 Avatar customization
GB0704235A GB2447095B (en) 2007-03-01 2007-03-05 Entertainment device and method
PCT/US2008/055037 WO2008109299A2 (en) 2007-03-01 2008-02-26 System and method for communicating with a virtual world

Publications (2)

Publication Number Publication Date
JP2010533006A true JP2010533006A (ja) 2010-10-21
JP2010533006A5 JP2010533006A5 (ja) 2012-02-16

Family

ID=39738577

Family Applications (5)

Application Number Title Priority Date Filing Date
JP2009551806A Pending JP2010533006A (ja) 2007-03-01 2008-02-26 仮想世界とコミュニケーションを取るためのシステムおよび方法
JP2009551722A Pending JP2010535362A (ja) 2007-03-01 2008-02-27 仮想世界のユーザの意見および反応のモニタリング
JP2009551726A Pending JP2010535363A (ja) 2007-03-01 2008-02-27 仮想世界のアバター制御、インタラクティビティおよび通信インタラクティブメッセージング
JP2009551727A Pending JP2010535364A (ja) 2007-03-01 2008-02-27 インタラクティブにユーザ制御されたアバターアニメーション
JP2014039137A Active JP5756198B2 (ja) 2007-03-01 2014-02-28 インタラクティブにユーザ制御されたアバターアニメーション

Family Applications After (4)

Application Number Title Priority Date Filing Date
JP2009551722A Pending JP2010535362A (ja) 2007-03-01 2008-02-27 仮想世界のユーザの意見および反応のモニタリング
JP2009551726A Pending JP2010535363A (ja) 2007-03-01 2008-02-27 仮想世界のアバター制御、インタラクティビティおよび通信インタラクティブメッセージング
JP2009551727A Pending JP2010535364A (ja) 2007-03-01 2008-02-27 インタラクティブにユーザ制御されたアバターアニメーション
JP2014039137A Active JP5756198B2 (ja) 2007-03-01 2014-02-28 インタラクティブにユーザ制御されたアバターアニメーション

Country Status (3)

Country Link
EP (4) EP2132650A4 (ja)
JP (5) JP2010533006A (ja)
WO (1) WO2008108965A1 (ja)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015116308A (ja) * 2013-12-18 2015-06-25 三菱電機株式会社 ジェスチャ登録装置
CN106464707A (zh) * 2014-04-25 2017-02-22 诺基亚技术有限公司 虚拟现实实体与真实实体之间的交互
JP2017528834A (ja) * 2014-09-11 2017-09-28 ノキア テクノロジーズ オサケユイチア 画像を表示するための方法、装置およびコンピュータ・プログラム
JP6263252B1 (ja) * 2016-12-06 2018-01-17 株式会社コロプラ 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
JP2019130295A (ja) * 2018-12-28 2019-08-08 ノキア テクノロジーズ オサケユイチア 仮想現実エンティティと現実エンティティの間のインタラクション
US10559305B2 (en) 2016-05-06 2020-02-11 Sony Corporation Information processing system, and information processing method
JP2020146469A (ja) * 2020-04-20 2020-09-17 株式会社トプコン 眼科検査システム及び眼科検査装置
JP2023039987A (ja) * 2018-05-24 2023-03-22 株式会社ユピテル システム及びプログラム等
WO2023068067A1 (ja) * 2021-10-18 2023-04-27 ソニーグループ株式会社 情報処理装置、情報処理方法およびプログラム
JP7323315B2 (ja) 2019-03-27 2023-08-08 株式会社コーエーテクモゲームス 情報処理装置、情報処理方法及びプログラム
WO2023244073A1 (ko) * 2022-06-17 2023-12-21 주식회사 메타캠프 다채널 구조 및 채널 동기화를 위한 메타버스 서비스장치 및 그 장치의 구동방법
WO2024004609A1 (ja) * 2022-06-28 2024-01-04 ソニーグループ株式会社 情報処理装置、情報処理方法、および記録媒体

Families Citing this family (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10489795B2 (en) 2007-04-23 2019-11-26 The Nielsen Company (Us), Llc Determining relative effectiveness of media content items
US8407605B2 (en) 2009-04-03 2013-03-26 Social Communications Company Application sharing
US7769806B2 (en) 2007-10-24 2010-08-03 Social Communications Company Automated real-time data stream switching in a shared virtual area communication environment
US8397168B2 (en) * 2008-04-05 2013-03-12 Social Communications Company Interfacing with a spatial virtual communication environment
EP2279472A4 (en) 2008-04-05 2013-11-20 Social Communications Co APPARATUS AND METHODS BASED ON A SHARED VIRTUAL SPACE COMMUNICATION ENVIRONMENT
US20100093439A1 (en) * 2008-10-15 2010-04-15 Nc Interactive, Inc. Interactive network game and methods thereof
US20100099495A1 (en) * 2008-10-16 2010-04-22 Nc Interactive, Inc. Interactive network game and methods thereof
US9853922B2 (en) 2012-02-24 2017-12-26 Sococo, Inc. Virtual area communications
JP5229484B2 (ja) 2009-01-28 2013-07-03 任天堂株式会社 情報処理システム、プログラムおよび情報処理装置
JP5527721B2 (ja) 2009-01-28 2014-06-25 任天堂株式会社 プログラムおよび情報処理装置
JP5813912B2 (ja) * 2009-01-28 2015-11-17 任天堂株式会社 プログラム、情報処理装置、および情報処理システム
JP5690473B2 (ja) 2009-01-28 2015-03-25 任天堂株式会社 プログラムおよび情報処理装置
US9542010B2 (en) * 2009-09-15 2017-01-10 Palo Alto Research Center Incorporated System for interacting with objects in a virtual environment
JP5134143B2 (ja) * 2009-09-30 2013-01-30 楽天株式会社 Webページにおけるオブジェクト変位方法
US20120192088A1 (en) * 2011-01-20 2012-07-26 Avaya Inc. Method and system for physical mapping in a virtual world
CN106984041B (zh) * 2011-02-11 2021-07-06 漳州市舟锋电子科技有限公司 一种人机互动控制***
US20120277001A1 (en) * 2011-04-28 2012-11-01 Microsoft Corporation Manual and Camera-based Game Control
JP2013003778A (ja) * 2011-06-15 2013-01-07 Forum8 Co Ltd 3次元空間情報処理システム、3次元空間情報処理端末、3次元空間情報処理サーバ、3次元空間情報処理端末プログラム、3次元空間情報処理サーバプログラム、及び3次元空間情報処理方法
WO2013181026A1 (en) 2012-06-02 2013-12-05 Social Communications Company Interfacing with a spatial virtual communications environment
CN104516618B (zh) * 2013-09-27 2020-01-14 中兴通讯股份有限公司 界面功能解析显示方法及装置
WO2016068581A1 (en) * 2014-10-31 2016-05-06 Samsung Electronics Co., Ltd. Device and method of managing user information based on image
US9786125B2 (en) 2015-06-17 2017-10-10 Facebook, Inc. Determining appearances of objects in a virtual world based on sponsorship of object appearances
US10861056B2 (en) 2015-06-17 2020-12-08 Facebook, Inc. Placing locations in a virtual world
US10339592B2 (en) 2015-06-17 2019-07-02 Facebook, Inc. Configuring a virtual store based on information associated with a user by an online system
US10943100B2 (en) 2017-01-19 2021-03-09 Mindmaze Holding Sa Systems, methods, devices and apparatuses for detecting facial expression
EP3571627A2 (en) 2017-01-19 2019-11-27 Mindmaze Holding S.A. Systems, methods, apparatuses and devices for detecting facial expression and for tracking movement and location including for at least one of a virtual and augmented reality system
US10515474B2 (en) 2017-01-19 2019-12-24 Mindmaze Holding Sa System, method and apparatus for detecting facial expression in a virtual reality system
JP7070435B2 (ja) 2017-01-26 2022-05-18 ソニーグループ株式会社 情報処理装置、情報処理方法、及びプログラム
WO2018146558A2 (en) 2017-02-07 2018-08-16 Mindmaze Holding Sa Systems, methods and apparatuses for stereo vision and tracking
JP6821461B2 (ja) * 2017-02-08 2021-01-27 株式会社コロプラ 仮想空間を介して通信するためにコンピュータで実行される方法、当該方法をコンピュータに実行させるプログラム、および、情報制御装置
CN110313019B (zh) 2017-02-24 2023-07-04 索尼公司 信息处理设备、信息处理方法和计算机可读介质
JP6651479B2 (ja) * 2017-03-16 2020-02-19 株式会社コロプラ 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるプログラム
US11328533B1 (en) 2018-01-09 2022-05-10 Mindmaze Holding Sa System, method and apparatus for detecting facial expression for motion capture
JP7302956B2 (ja) * 2018-09-19 2023-07-04 株式会社バンダイナムコエンターテインメント コンピュータシステム、ゲームシステム及びプログラム
WO2021033261A1 (ja) * 2019-08-20 2021-02-25 日本たばこ産業株式会社 コミュニケーション支援方法、プログラムおよびコミュニケーションサーバ
JP7190051B2 (ja) * 2019-08-20 2022-12-14 日本たばこ産業株式会社 コミュニケーション支援方法、プログラムおよびコミュニケーションサーバ
KR102212511B1 (ko) * 2019-10-23 2021-02-04 (주)스코넥엔터테인먼트 가상 현실 제어 시스템
EP3846008A1 (en) * 2019-12-30 2021-07-07 TMRW Foundation IP SARL Method and system for enabling enhanced user-to-user communication in digital realities
JP6932224B1 (ja) * 2020-06-01 2021-09-08 株式会社電通 広告表示システム
JP7254112B2 (ja) * 2021-03-19 2023-04-07 本田技研工業株式会社 仮想体験提供装置、仮想体験提供方法、及びプログラム
WO2023281755A1 (ja) * 2021-07-09 2023-01-12 シャープNecディスプレイソリューションズ株式会社 表示制御装置、表示制御方法、及びプログラム
WO2023149255A1 (ja) * 2022-02-02 2023-08-10 株式会社Nttドコモ 表示制御装置

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1146248A (ja) * 1997-07-25 1999-02-16 Fujitsu Ltd パーソナル通信分散制御方式
JP2001154966A (ja) * 1999-11-29 2001-06-08 Sony Corp コンピュータ・ネットワーク上で構築・提供される共有仮想空間上で複数ユーザが参加可能な仮想会話を支援する会話支援システム及び会話支援方法、並びに、プログラム記憶媒体
JP2003324522A (ja) * 2002-05-02 2003-11-14 Nippon Telegr & Teleph Corp <Ntt> Ip/pstn統合制御装置、通信方法、プログラムおよび記録媒体
JP2004021606A (ja) * 2002-06-17 2004-01-22 Nec Corp 仮想空間提供サーバを用いたインターネットサービス提供システム
JP2004130139A (ja) * 2001-05-18 2004-04-30 Sony Computer Entertainment Inc エンタテインメントシステム、通信システム、通信プログラム、通信プログラムを格納したコンピュータ読み取り可能な記録媒体、及び通信方法
WO2006042139A2 (en) * 2004-10-08 2006-04-20 Sonus Networks, Inc. Common telephony services to multiple devices associated with multiple networks
JP2006186893A (ja) * 2004-12-28 2006-07-13 Matsushita Electric Ind Co Ltd 音声対話制御装置
WO2006080080A1 (ja) * 2005-01-28 2006-08-03 Fujitsu Limited 電話管理システムおよび電話管理方法
US20070002835A1 (en) * 2005-07-01 2007-01-04 Microsoft Corporation Edge-based communication

Family Cites Families (57)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5734373A (en) * 1993-07-16 1998-03-31 Immersion Human Interface Corporation Method and apparatus for controlling force feedback interface systems utilizing a host computer
CA2141144A1 (en) * 1994-03-31 1995-10-01 Joseph Desimone Electronic game utilizing bio-signals
GB9505916D0 (en) * 1995-03-23 1995-05-10 Norton John M Controller
JP3091135B2 (ja) * 1995-05-26 2000-09-25 株式会社バンダイ ゲーム装置
US5823879A (en) * 1996-01-19 1998-10-20 Sheldon F. Goldberg Network gaming system
JP3274603B2 (ja) * 1996-04-18 2002-04-15 エヌイーシーソフト株式会社 音声集計システムおよび音声集計方法
JP3757584B2 (ja) * 1997-11-20 2006-03-22 株式会社富士通ゼネラル 広告効果確認システム
JP3276068B2 (ja) * 1997-11-28 2002-04-22 インターナショナル・ビジネス・マシーンズ・コーポレーション オブジェクトの選択方法およびそのシステム
US6195104B1 (en) * 1997-12-23 2001-02-27 Philips Electronics North America Corp. System and method for permitting three-dimensional navigation through a virtual reality environment using camera-based gesture inputs
JP2000187435A (ja) * 1998-12-24 2000-07-04 Sony Corp 情報処理装置、携帯機器、電子ペット装置、情報処理手順を記録した記録媒体及び情報処理方法
JP2000311251A (ja) * 1999-02-26 2000-11-07 Toshiba Corp アニメーション作成装置および方法、記憶媒体
WO2000063874A1 (en) * 1999-04-20 2000-10-26 John Warren Stringer Human gestural input device with motion and pressure
JP4034002B2 (ja) * 1999-04-22 2008-01-16 三菱電機株式会社 分散仮想空間情報管理伝送方法
AU5012600A (en) * 1999-05-14 2000-12-05 Graphic Gems Method and apparatus for a multi-owner, three-dimensional virtual world
WO2000070557A2 (en) * 1999-05-14 2000-11-23 Graphic Gems Method and apparatus for registering lots in a shared virtual world
JP2000325653A (ja) * 1999-05-19 2000-11-28 Enix Corp 携帯型ビデオゲーム装置およびプログラムを格納した記録媒体
JP2001153663A (ja) * 1999-11-29 2001-06-08 Canon Inc 物体の移動方向判別装置及びそれを備える撮影装置、ナビゲーションシステム、サスペンションシステム、ゲームシステム並びにリモートコントローラシステム
JP3623415B2 (ja) * 1999-12-02 2005-02-23 日本電信電話株式会社 仮想空間通信システムにおけるアバタ表示装置、アバタ表示方法および記憶媒体
JP2001236290A (ja) * 2000-02-22 2001-08-31 Toshinao Komuro アバタを利用したコミュニケーション・システム
KR100366384B1 (ko) * 2000-02-26 2002-12-31 (주) 고미드 사용자간의 커뮤니케이션을 기반으로 하는 정보 검색 방법및 시스템
JP2001325501A (ja) * 2000-03-10 2001-11-22 Heart Gift:Kk オンラインギフト方法
JP3458090B2 (ja) * 2000-03-15 2003-10-20 コナミ株式会社 メッセージ交換機能を備えたゲームシステム、そのゲームシステムで使用するゲーム装置、メッセージ交換システム、およびコンピュータ読取可能な記憶媒体
JP2001321568A (ja) * 2000-05-18 2001-11-20 Casio Comput Co Ltd ゲーム装置、ゲーム方法及び情報記録媒体
TWI221574B (en) * 2000-09-13 2004-10-01 Agi Inc Sentiment sensing method, perception generation method and device thereof and software
JP2002136762A (ja) * 2000-11-02 2002-05-14 Taito Corp 潜在映像を用いたアドベンチャーゲーム
JP3641423B2 (ja) * 2000-11-17 2005-04-20 Necインフロンティア株式会社 広告情報提供システム
AU2002219857A1 (en) * 2000-11-27 2002-06-03 Butterfly.Net, Inc. System and method for synthesizing environments to facilitate distributed, context-sensitive, multi-user interactive applications
US7377852B2 (en) * 2000-12-20 2008-05-27 Aruze Co., Ltd. Server providing competitive game service, program storage medium for use in the server, and method of providing competitive game service using the server
JP2002197376A (ja) * 2000-12-27 2002-07-12 Fujitsu Ltd ユーザに応じてカストマイズされた仮想世界を提供する方法および装置
JP4613295B2 (ja) * 2001-02-16 2011-01-12 株式会社アートディンク 仮想現実再生装置
EP1386472A4 (en) * 2001-02-27 2009-05-27 Anthrotronix Inc ROBOTIC APPARATUS AND WIRELESS TELECOMMUNICATIONS SYSTEM
US7667705B2 (en) * 2001-05-15 2010-02-23 Nintendo Of America Inc. System and method for controlling animation by tagging objects within a game environment
JP3425562B2 (ja) * 2001-07-12 2003-07-14 コナミ株式会社 キャラクタ操作プログラム、キャラクタ操作方法及びビデオゲーム装置
JP3732168B2 (ja) * 2001-12-18 2006-01-05 株式会社ソニー・コンピュータエンタテインメント 仮想世界におけるオブジェクトの表示装置、表示システム及び表示方法、ならびにそれらを利用可能な仮想世界における地価及び広告料の設定方法
JP2003210834A (ja) * 2002-01-17 2003-07-29 Namco Ltd 制御情報、情報記憶媒体、およびゲーム装置
JP2003259331A (ja) * 2002-03-06 2003-09-12 Nippon Telegraph & Telephone West Corp 3次元コンテンツ配信装置、3次元コンテンツ配信プログラム、プログラム記録媒体、及び3次元コンテンツ配信方法
JP2004046311A (ja) * 2002-07-09 2004-02-12 Nippon Telegr & Teleph Corp <Ntt> 3次元仮想空間におけるジェスチャ入力方法およびその装置
US20040029625A1 (en) * 2002-08-07 2004-02-12 Ed Annunziata Group behavioral modification using external stimuli
US20060158515A1 (en) * 2002-11-07 2006-07-20 Sorensen Christopher D Adaptive motion detection interface and motion detector
JP3952396B2 (ja) * 2002-11-20 2007-08-01 任天堂株式会社 ゲーム装置および情報処理装置
JP2004237022A (ja) * 2002-12-11 2004-08-26 Sony Corp 情報処理装置および方法、プログラム、並びに記録媒体
JP3961419B2 (ja) * 2002-12-27 2007-08-22 株式会社バンダイナムコゲームス ゲーム装置、ゲーム制御プログラムおよびそのプログラムが記録された記録媒体
GB0306875D0 (en) * 2003-03-25 2003-04-30 British Telecomm Apparatus and method for generating behavior in an object
JP4442117B2 (ja) * 2003-05-27 2010-03-31 ソニー株式会社 情報登録方法、情報登録装置、および情報登録プログラム
US7725419B2 (en) * 2003-09-05 2010-05-25 Samsung Electronics Co., Ltd Proactive user interface including emotional agent
JP2005100053A (ja) * 2003-09-24 2005-04-14 Nomura Research Institute Ltd アバター情報送受信方法、プログラム及び装置
JP2005216004A (ja) * 2004-01-29 2005-08-11 Tama Tlo Kk プログラムおよび通信方法
JP4559092B2 (ja) * 2004-01-30 2010-10-06 株式会社エヌ・ティ・ティ・ドコモ 携帯通信端末及びプログラム
US20060013254A1 (en) * 2004-06-07 2006-01-19 Oded Shmueli System and method for routing communication through various communication channel types
JP2006034436A (ja) * 2004-07-23 2006-02-09 Smk Corp エキササイズ器具を用いたバーチャルゲームシステム
WO2006056231A1 (en) * 2004-11-29 2006-06-01 Nokia Corporation Mobile gaming with external devices in single and multiplayer games
JP2006185252A (ja) * 2004-12-28 2006-07-13 Univ Of Electro-Communications インタフェース装置
JP2006211005A (ja) * 2005-01-25 2006-08-10 Takashi Uchiyama テレビ電話広告システム
JP4322833B2 (ja) * 2005-03-16 2009-09-02 株式会社東芝 無線通信システム
US20060252538A1 (en) * 2005-05-05 2006-11-09 Electronic Arts Inc. Analog stick input replacement for lengthy button push sequences and intuitive input for effecting character actions
EP2352149B1 (en) * 2005-05-05 2013-09-04 Sony Computer Entertainment Inc. Selective sound source listening in conjunction with computer interactive processing
JP2006004421A (ja) * 2005-06-03 2006-01-05 Sony Corp データ処理装置

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1146248A (ja) * 1997-07-25 1999-02-16 Fujitsu Ltd パーソナル通信分散制御方式
JP2001154966A (ja) * 1999-11-29 2001-06-08 Sony Corp コンピュータ・ネットワーク上で構築・提供される共有仮想空間上で複数ユーザが参加可能な仮想会話を支援する会話支援システム及び会話支援方法、並びに、プログラム記憶媒体
JP2004130139A (ja) * 2001-05-18 2004-04-30 Sony Computer Entertainment Inc エンタテインメントシステム、通信システム、通信プログラム、通信プログラムを格納したコンピュータ読み取り可能な記録媒体、及び通信方法
JP2003324522A (ja) * 2002-05-02 2003-11-14 Nippon Telegr & Teleph Corp <Ntt> Ip/pstn統合制御装置、通信方法、プログラムおよび記録媒体
JP2004021606A (ja) * 2002-06-17 2004-01-22 Nec Corp 仮想空間提供サーバを用いたインターネットサービス提供システム
WO2006042139A2 (en) * 2004-10-08 2006-04-20 Sonus Networks, Inc. Common telephony services to multiple devices associated with multiple networks
JP2006186893A (ja) * 2004-12-28 2006-07-13 Matsushita Electric Ind Co Ltd 音声対話制御装置
WO2006080080A1 (ja) * 2005-01-28 2006-08-03 Fujitsu Limited 電話管理システムおよび電話管理方法
US20070002835A1 (en) * 2005-07-01 2007-01-04 Microsoft Corporation Edge-based communication

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015116308A (ja) * 2013-12-18 2015-06-25 三菱電機株式会社 ジェスチャ登録装置
CN106464707A (zh) * 2014-04-25 2017-02-22 诺基亚技术有限公司 虚拟现实实体与真实实体之间的交互
JP2017523816A (ja) * 2014-04-25 2017-08-24 ノキア テクノロジーズ オサケユイチア 仮想現実エンティティと現実エンティティの間のインタラクション
US10916057B2 (en) 2014-09-11 2021-02-09 Nokia Technologies Oy Method, apparatus and computer program for displaying an image of a real world object in a virtual reality enviroment
JP2017528834A (ja) * 2014-09-11 2017-09-28 ノキア テクノロジーズ オサケユイチア 画像を表示するための方法、装置およびコンピュータ・プログラム
US11646026B2 (en) 2016-05-06 2023-05-09 Sony Group Corporation Information processing system, and information processing method
US11074916B2 (en) 2016-05-06 2021-07-27 Sony Corporation Information processing system, and information processing method
US10559305B2 (en) 2016-05-06 2020-02-11 Sony Corporation Information processing system, and information processing method
US10777199B2 (en) 2016-05-06 2020-09-15 Sony Corporation Information processing system, and information processing method
JP6263252B1 (ja) * 2016-12-06 2018-01-17 株式会社コロプラ 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
JP2018089227A (ja) * 2016-12-06 2018-06-14 株式会社コロプラ 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
JP2023039987A (ja) * 2018-05-24 2023-03-22 株式会社ユピテル システム及びプログラム等
JP7308573B2 (ja) 2018-05-24 2023-07-14 株式会社ユピテル システム及びプログラム等
JP2019130295A (ja) * 2018-12-28 2019-08-08 ノキア テクノロジーズ オサケユイチア 仮想現実エンティティと現実エンティティの間のインタラクション
JP7323315B2 (ja) 2019-03-27 2023-08-08 株式会社コーエーテクモゲームス 情報処理装置、情報処理方法及びプログラム
JP2020146469A (ja) * 2020-04-20 2020-09-17 株式会社トプコン 眼科検査システム及び眼科検査装置
WO2023068067A1 (ja) * 2021-10-18 2023-04-27 ソニーグループ株式会社 情報処理装置、情報処理方法およびプログラム
WO2023244073A1 (ko) * 2022-06-17 2023-12-21 주식회사 메타캠프 다채널 구조 및 채널 동기화를 위한 메타버스 서비스장치 및 그 장치의 구동방법
WO2024004609A1 (ja) * 2022-06-28 2024-01-04 ソニーグループ株式会社 情報処理装置、情報処理方法、および記録媒体

Also Published As

Publication number Publication date
EP2118840A4 (en) 2010-11-10
JP2014149836A (ja) 2014-08-21
JP5756198B2 (ja) 2015-07-29
JP2010535363A (ja) 2010-11-18
EP2126708A4 (en) 2010-11-17
JP2010535364A (ja) 2010-11-18
JP2010535362A (ja) 2010-11-18
EP2132650A4 (en) 2010-10-27
EP2126708A1 (en) 2009-12-02
EP2132650A2 (en) 2009-12-16
EP2118757A1 (en) 2009-11-18
EP2118840A1 (en) 2009-11-18
WO2008108965A1 (en) 2008-09-12
EP2118757A4 (en) 2010-11-03

Similar Documents

Publication Publication Date Title
JP2010533006A (ja) 仮想世界とコミュニケーションを取るためのシステムおよび方法
US8425322B2 (en) System and method for communicating with a virtual world
WO2008109299A2 (en) System and method for communicating with a virtual world
US10203838B2 (en) Avatar personalization in a virtual environment
US20190004639A1 (en) Providing living avatars within virtual meetings
US20170236330A1 (en) Novel dual hmd and vr device with novel control methods and software
JP4696184B1 (ja) 画像表示システム、画像表示装置および画像表示方法
JP2022130508A (ja) 配信ユーザの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画をライブ配信する動画配信システム、動画配信方法及び動画配信プログラム
JP2019510321A (ja) 仮想現実用パススルーカメラのユーザインターフェイス要素
JP6514397B1 (ja) システム、プログラム、方法、および情報処理装置
JP6290467B1 (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるプログラム
CN113518264A (zh) 互动方法、装置、终端及存储介质
JP2020120336A (ja) プログラム、方法、および情報処理装置
JP7394158B2 (ja) ヘッドマウントデバイスを介して仮想空間を提供するためにコンピュータで実行されるプログラムおよび方法ならびに情報処理装置
JP2001160154A (ja) 仮想空間通信システムにおけるアバタ表示装置、アバタ表示方法および記憶媒体
WO2021257868A1 (en) Video chat with spatial interaction and eye contact recognition
US20230308495A1 (en) Asymmetric Presentation of an Environment
JP6951394B2 (ja) 視聴ユーザからのメッセージを含む動画を配信する動画配信システム
CN113508354A (zh) 显示环境的表示
CN112115398A (zh) 虚拟空间提供***、虚拟空间提供方法以及程序
JP7356827B2 (ja) プログラム、情報処理方法、及び情報処理装置
JP7329209B1 (ja) 情報処理システム、情報処理方法およびコンピュータプログラム
JP7379427B2 (ja) 配信ユーザの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画をライブ配信する動画配信システム、動画配信方法及び動画配信プログラム
JP2023134045A (ja) 通信装置、通信システム、表示方法、及びプログラム
CN116954412A (zh) 虚拟角色的显示方法、装置、设备及存储介质

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110222

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110222

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111209

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20111209

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20120110

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120228

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120515

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120731

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130122