JP7381556B2 - メディアコンテンツ計画システム - Google Patents

メディアコンテンツ計画システム Download PDF

Info

Publication number
JP7381556B2
JP7381556B2 JP2021501059A JP2021501059A JP7381556B2 JP 7381556 B2 JP7381556 B2 JP 7381556B2 JP 2021501059 A JP2021501059 A JP 2021501059A JP 2021501059 A JP2021501059 A JP 2021501059A JP 7381556 B2 JP7381556 B2 JP 7381556B2
Authority
JP
Japan
Prior art keywords
experience
observer
space
user
scene
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021501059A
Other languages
English (en)
Other versions
JP2021519481A (ja
JPWO2019183676A5 (ja
Inventor
クック,ルーシー
Original Assignee
スペースドラフト・プロプライエタリー・リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from AU2018901016A external-priority patent/AU2018901016A0/en
Application filed by スペースドラフト・プロプライエタリー・リミテッド filed Critical スペースドラフト・プロプライエタリー・リミテッド
Publication of JP2021519481A publication Critical patent/JP2021519481A/ja
Publication of JPWO2019183676A5 publication Critical patent/JPWO2019183676A5/ja
Application granted granted Critical
Publication of JP7381556B2 publication Critical patent/JP7381556B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/44Browsing; Visualisation therefor
    • G06F16/444Spatial browsing, e.g. 2D maps, 3D or virtual spaces
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/63Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor by the player, e.g. authoring using a level editor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/002Programmed access in sequence to a plurality of record carriers or indexed parts, e.g. tracks, thereof, e.g. for editing
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/34Indicating arrangements 
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
    • H04N13/279Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals the virtual viewpoint locations being selected by the viewers or determined by tracking
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8082Virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/024Multi-user, collaborative environment
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Processing Or Creating Images (AREA)

Description

本発明は、メディアコンテンツ計画システムに関し、メディアコンテンツ計画システムに関する。コンテンツ計画システムは、仮想現実、拡張現実、および複合現実のコンテンツ、ならびに動画ゲーム開発のための特定のアプリケーションを有する。
映画などの動画コンテンツの制作では、映画を制作して映画に関連付けられたストーリーが実際にはうまくいかないと後で判断するよりも、映画を制作する前に映画を概念化し、計画を立てる方が安いので、映画を制作する前に映画を概念化し、計画を立てることが望ましい。
典型的には、この「事前映像化」ステップは、脚本、および/または、コンピュータ生成アニメーションを使用して、映画の「青写真」を最初に作ることによって達成される。
しかし、観察者体験(observer experience)は典型的には定義した時刻に発生せず、典型的にはユーザによって制御された観察者の位置に依存し、観察者に関する任意の位置から生じる可能性があるので、仮想現実(VR:virtual reality)、拡張現実(AR:augmented reality)、および複合現実(MR:mixed reality)のコンテンツ制作者がVR/AR/MRのコンテンツを適切に概念化し、計画を立てるのは難しい。
本発明の第1の態様によれば、メディアコンテンツ計画システムを提供し、
メディアコンテンツプロジェクトの場面を示す情報を記憶するように配置された(arranged)データ記憶デバイスと、
ユーザインターフェースであって、
メディアコンテンツプロジェクトの場面の位置、および/または、メディアコンテンツプロジェクト内の場面のそれぞれの発生タイミングを示す場面の印(scene indicia)を表示すること、
ユーザが場面の印を選択し、選択した場面の印について、場面における観察者体験の少なくとも2次元空間内の所望の位置を表す観察者に関する少なくとも2次元空間内の位置おいて、観察者の記号、および、場面に関連付けられた観察者体験を示す情報を表示できるようにすること、
選択した場面について、場面に関連付けられることになる観察者体験についてのユーザによる選択、および、観察者に関する観察者体験の少なくとも2次元空間内の位置についての選択を容易にすること
を行うように配置された、ユーザインターフェースと、
を備え、
システムは、
選択した観察者体験、
観察者体験に関連付けられた場面、および
観察者に関する観察者体験の少なくとも2次元空間内の位置
を示す観察者体験データレコードを記憶するように配置される。
システムは、開世界(open world)プロジェクトまたは閉世界(closed world)プロジェクトについてのユーザによる選択を容易にするように配置されてもよい。
開世界プロジェクトについて、システムは、開世界旅行(journey)プロジェクトまたはフリーローミング開世界プロジェクトについてのユーザによる選択を容易にするように配置されてもよい。
1つの実施形態において、メディアコンテンツは、閉世界プロジェクトであり、ユーザインターフェースは、メディアコンテンツの一部を形成することになる場面、および、観察者に場面を提示する順序についてのユーザによる選択を容易にするように配置される。ユーザインターフェースは、メディアコンテンツの場面を提示するタイミングについてのユーザによる選択を容易にするようにさらに配置されてもよい。
1つの実施形態において、メディアコンテンツは、開世界プロジェクトであり、ユーザインターフェースは、メディアコンテンツの一部を形成することになる場面についてのユーザによる選択を容易にするように配置される。
1つの実施形態において、システムは、世界概観を表示するように配置され、世界概観は、メディアコンテンツ内の場面の所望の位置を表す世界空間上の位置の少なくとも1つの場面を示す少なくとも1つの場面アイコンを含む世界空間を含む。
1つの実施形態において、世界空間は、世界概観を表すための定義した形状を含む。
1つ代替実施形態において、世界空間は、コンピュータ生成空間メッシュに応じて定義される。空間メッシュは、実際の現実世界空間を表すことができ、空間メッシュは、LIDAR、マーターポートスキャナ、または他の任意のスキャンデバイスを使用して生成されてもよい。
1つの実施形態において、システムは、メディアコンテンツ内の場面の所望の位置を表す位置において、場面アイコンを世界空間にユーザが追加できるようにし、場面アイコンに関連付けるために少なくとも1つの観察者体験をユーザが選択できるようにする。
1つの実施形態において、システムは、場面のための体験空間を表示するように配置され、体験空間は、観察者の記号、および、場面における観察者体験の所望の位置を表す観察者に関する位置の少なくとも1つの観察者体験を示す少なくとも1つの体験ピンを含む。
1つの実施形態において、システムは、場面における観察者体験の所望の位置を表す観察者に関する位置において、体験ピンを体験空間にユーザが追加できるようにし、体験ピンに関連付けられた観察者体験のタイプをユーザが選択できるようにする。
1つの実施形態において、体験空間は、観察者の記号を取り囲む少なくとも1つの環状部分を含み、環状部分は、場面における観察者体験の少なくとも2次元空間内の所望の位置を表す観察者に関する2次元空間内の位置において、体験ピンを体験空間に追加するためにユーザによって使用することができる。
1つの実施形態において、体験空間は、観察者の記号を取り囲む球体を含み、球体は、場面における観察者体験の少なくとも2次元空間内の所望の位置を表す観察者に関する3次元空間内の位置において、体験ピンを体験空間に追加するためにユーザによって使用することができる。
1つの実施形態において、システムは、メモを場面にユーザが追加できるように配置される。
1つの実施形態において、システムは、代表画像をメディアコンテンツプロジェクトにユーザが追加できるように配置される。代表画像は、360°画像または2D画像であってもよい。
1つの実施形態において、システムは、メディアコンテンツプロジェクトのための視点をユーザが選択できるように配置される。
1つの実施形態において、システムは、
複数のキャラクタを作成すること、および
各キャラクタのための観察者体験データを作成すること
をユーザが行えるように配置される。
1つの実施形態において、システムは、観察者体験データレコードに関連付けられることになる時刻値をユーザが選択できるように配置される。
1つの実施形態において、少なくとも1つの場面は、複数の関連付けられた観察者体験データレコードを含み、各観察者体験データレコードは、それぞれの観察者体験データレコードに関連付けられた観察者体験を場面における異なる時刻に観察者が利用できるように、異なる時刻に関連付けられる。
1つの実施形態において、システムは、選択した他のユーザとメディアコンテンツプロジェクトをユーザが共有できるように配置される。
1つの実施形態において、観察者体験は、触感体験、視覚体験、および/または音響体験のいずれか1つまたは複数を含む。
1つの実施形態において、システムは、ユーザインターフェースデバイス、および、ユーザインターフェースデバイスと通信するリモートコンピューティングデバイスを備える。
1つの実施形態において、リモートコンピューティングデバイスは、ユーザインターフェースを示すデータをユーザインターフェースデバイスに供給するように配置されたサーバを備える。ユーザインターフェースを示すデータは、ウェブページを示すデータを含むことができる。
観察者体験データは、リモートコンピューティングデバイスおよび/またはユーザインターフェースデバイスに記憶されてもよい。
1つの実施形態において、ユーザインターフェースデバイスは、ヘッドマウントデバイス(HMD)を備え、ヘッドマウントデバイス(HMD)は、WebVRをサポートするツールを含むことができる。
本発明の第2の態様によれば、メディアコンテンツを計画する方法が提供され、方法は、
メディアコンテンツプロジェクトの場面を示す情報を記憶することと、
メディアコンテンツプロジェクトの場面の位置、および/または、メディアコンテンツプロジェクト内の場面のそれぞれの発生タイミングを示す場面の印を表示することと、
ユーザによる場面の印の選択を容易にし、選択した場面の印について、場面における観察者体験の少なくとも2次元空間内の所望の位置を表す観察者に関する少なくとも2次元空間内の位置において、観察者の記号、および、場面に関連付けられた観察者体験を示す情報を表示することと、
選択した場面の印について、場面に関連付けられることになる観察者体験についてのユーザによる選択、および、観察者に関する観察者体験の少なくとも2次元空間内の位置についての選択を容易にすることと、
記憶することであって、
選択した観察者体験、
観察者体験に関連付けられた場面、および
観察者に関する観察者体験の少なくとも2次元空間内の位置
を示す観察者体験データレコードを記憶することと
を含む。
本発明の第3の態様によれば、メディアコンテンツを計画するためのシステムのためのユーザインターフェースが提供され、ユーザインターフェースは、
メディアコンテンツプロジェクトの場面の位置、および/または、メディアコンテンツプロジェクト内の場面のそれぞれの発生タイミングを示す記憶した場面の印を表示することと、
ユーザが場面の印を選択し、選択した場面の印について、
観察者の記号、および
場面における観察者体験の少なくとも2次元空間内の所望の位置を表す観察者に関する少なくとも2次元空間内の位置における、メディアコンテンツの場面に関連付けられた観察者体験
を示す記憶した情報を表示できるようにすることと、
場面に関連付けられることになる観察者体験についてのユーザによる選択、および、観察者に関する観察者体験の少なくとも2次元空間内の位置についての選択を容易にすることと
を行うように配置される。
本発明の第4の態様によれば、メディアコンテンツ計画システムが提供され、
メディアコンテンツプロジェクトの場面を示す情報を記憶するように配置されたデータ記憶デバイス
を備え、
システムは、ユーザインターフェースデバイスに表示するために情報をユーザインターフェースデバイスに通信するように配置され、情報は、
メディアコンテンツプロジェクトの場面の位置、および/または、メディアコンテンツプロジェクトの場面のそれぞれの発生タイミングを示す場面の印、
場面に関連付けられた観察者体験、ならびに
観察者体験の観察者に関する少なくとも2次元空間内の位置であって、観察者体験の位置が、場面における観察者体験の2次元空間内の所望の位置を表す、位置
を示し、
システムは、ユーザによる場面の印の選択を示す情報を受け取り、選択した場面の印について、場面に関連付けられることになる観察者体験についてのユーザによる選択を示す情報、および、観察者に関する観察者体験の少なくとも2次元空間内の位置についてのユーザによる選択を示す情報を受け取るように配置され、
システムは、
選択した観察者体験、
観察者体験に関連付けられた場面、および
観察者に関する観察者体験の少なくとも2次元空間内の位置
を示す観察者体験データレコードを記憶するように配置される。
本発明は、次に、添付の図面を参照しながら、ほんの一例として説明されることになる。
本発明の1つの実施形態によるメディアコンテンツ計画システムの概略ブロック図である。 図1に示したシステムと共に使用するためのユーザコンピューティングデバイスの機能構成要素の概略ブロック図である。 図1に示したシステムによってユーザコンピューティングデバイス上でユーザに提示される画面の図表示の図である。 図1に示したシステムによってユーザコンピューティングデバイス上でユーザに提示される画面の図表示の図である。 図1に示したシステムによってユーザコンピューティングデバイス上でユーザに提示される画面の図表示の図である。 図1に示したシステムによってユーザコンピューティングデバイス上でユーザに提示される画面の図表示の図である。 図1に示したシステムによってユーザコンピューティングデバイス上でユーザに提示される画面の図表示の図である。 図1に示したシステムによってユーザコンピューティングデバイス上でユーザに提示される画面の図表示の図である。 図1に示したシステムによってユーザコンピューティングデバイス上でユーザに提示される画面の図表示の図である。 図1に示したシステムによってユーザコンピューティングデバイス上でユーザに提示される画面の図表示の図である。 図1に示したシステムによってユーザコンピューティングデバイス上でユーザに提示される画面の図表示の図である。 図1に示したシステムによってユーザコンピューティングデバイス上でユーザに提示される画面の図表示の図である。 図1に示したシステムによってユーザコンピューティングデバイス上でユーザに提示される画面の図表示の図である。
本明細書において、「閉世界」とは、観察者が自由に歩き回ることができないと定義した空間環境であり、世界の場面は、例えば360°動画などの定義した構造で観察者に提示され、開世界とは、定義した旅行に従って、または任意の方向に自由に、観察者が歩き回ることができる環境であるということが理解されよう。
図面の図1および図2を参照すると、メディアコンテンツ計画システム10を示しており、このメディアコンテンツ計画システム10は、実際のメディアコンテンツの制作前に、没入型メディア体験を概念化し、計画を立てるためにメディア制作者が使用できる、メディアコンテンツ、特に、仮想現実(VR)、拡張現実(AR)、および複合現実(MR)のコンテンツの試作段階の青写真の作成を容易にするように配置され(arranged)ている。このシステムは、リニアではない複合現実体験に適用してもよい。
このシステムは、VR/AR/MRコンテンツの青写真を作成することによって時間および空間内でVR/AR/MRの参加者に示されるようにアイデアを表示するために、3Dアイデアのマッピングを容易にするように配置される。システムは、ユーザが、VR/AR/MR世界の構造の表現および所望の内容の発展に時間を費やし、共同制作のために、制作したVR/AR/MR世界の意図した体験を他の人と共有できるようにする。
閉世界の実装形態では、システムは、並べられた場面の連続の作成を容易にし、ユーザが、各場面における観察者体験の相対位置をプロットし、音響体験、視覚体験、および/または触感体験など、それぞれの位置で発生する特定の観察者体験を判定できるようにする。例えば、各場面において、システムは、2D空間または3D空間における観察者の音響体験、視覚体験、および/または触感体験の相対位置をユーザがプロットできるようにする。
開世界の実装形態では、システムは、3D世界空間の作成を容易にし、世界空間内の場面の相対位置をユーザがプロットできるようにし、2D空間または3D空間内の場面位置のそれぞれにおける観察者体験の相対位置をユーザがプロットできるようにし、音響体験、視覚体験、および/または触感体験など、それぞれの場面位置において発生する特定の観察者体験をユーザが判定できるようにする。
このようにして、システムは、体験した時間および空間内でVR/AR/MR観察者にコンテンツのアイデアが見えるように、コンテンツのアイデアをマッピングする。各観察者はキャラクタに相当してもよく、したがって、システムは、各キャラクタの異なる体験および/または異なる視点を定義するために使用することができる
この例では、システム10は、通信ネットワーク18を通じて通信するように配置されたスマートフォン12、タブレット型コンピュータ14、およびパーソナルコンピューティングデバイス16を含むユーザコンピューティングデバイスによってアクセス可能なサーバ20の形のリモートコンピューティングデバイスを使用して実現される。
この例では、ユーザコンピューティングデバイス12、14、16は、システム10に関連付けられた画面を提示するように配置されたユーザインターフェースをユーザに提供してユーザから入力を受け取りやすくするのに役立ち、システムの機能構成要素22は、サーバ20で実質的に実現される。しかし、他の実装形態が可能であるということが理解されよう。例えば、ユーザコンピューティングデバイス12、14、16は、例えば、ユーザデバイス12、14、16にアプリケーションをダウンロードすること、またはそうでなければ、インストールすることによって、スタンドアロンデバイスとしてシステムの機能構成要素22を実質的に実現するように配置されてもよく、または、システム10の機能構成要素22は、部分的にユーザコンピューティングデバイス12、14、16によって、かつ、部分的にサーバ20によって実現されてもよい。
この例では、通信ネットワーク18はインターネットを含むが、有線および/またはワイヤレスの通信経路を含む任意の適切な通信ネットワークを想定するということが理解されよう。プログラムを実行すること、ユーザに情報を表示すること、および、ユーザから入力を受け取ることができる任意の適切なコンピューティングデバイスを想定するということも理解されよう。
サーバ20において所望の機能を実現するために、この例では、サーバ20は、少なくとも1つの専用ソフトウェアアプリケーションを含むように配置されるが、機能は、専用ハードウェア、または、専用のハードウェアとソフトウェアの組合せを使用して実現することができるということが理解されよう。
サーバ20によって実現される機能構成要素22は、例えばSQLプロトコルを使用して実現されたローカルデータ記憶デバイス、および/または、クラウドベースのデータ記憶装置を含むことができるデータ記憶デバイス26に記憶したデータを管理するように配置されたデータベース管理システム(DBMS)24と、例えば、ユーザコンピューティングデバイス12、14、16からユーザログイン詳細を受け取り、データ記憶デバイス26に記憶した参照ログイン詳細30で、受け取ったログイン詳細を検証することによってユーザログイン処理を管理するように配置されたログインアプリケーション28と、閉世界プロジェクトの機能を実現するように配置された閉世界アプリケーション32と、開世界プロジェクトの機能を実現するように配置された開世界アプリケーション32と、2D空間内の場面における観察者のための観察者体験の相対位置をユーザが選択できるようにする2Dピンアプリケーション36と、3D空間内の場面における観察者のための観察者体験の相対位置をユーザが選択できるようにする3Dピンアプリケーション38を含む。
この例では、データ記憶デバイス26は、SQLプロトコルに従って構成することができる複数のリレーショナルデータベースにシステム10によって使用されるデータを記憶するように配置される。データベースは、
プロジェクト名、プロジェクトタイプ(閉世界、開世界での旅行、または開世界でのフリーローミング)、および場面位置を含むVR/AR/MRプロジェクトを示すデータを記憶するように配置されたプロジェクトデータベース40と、
場面位置のそれぞれにおける観察者体験の相対位置、ならびに、音響体験、視覚体験、および/または触感体験など、それぞれの場面位置において発生する観察者体験のタイプを示すデータを記憶するように配置された体験データベース42と、
場面位置にリンクされた観察者の触感体験に関連付けられた触覚または嗅覚などの触感情報を示すデータを記憶するように配置された触感データベース44と、
場面位置にリンクされた観察者の動画体験に関連付けられた動画情報を示すデータを記憶するように配置された動画データベース46と、
例えば、従来の音響、および/または、アンビソニックス(ambisonic)/空間音響といった、場面位置にリンクされた観察者の音響体験に関連付けられた音響情報を示すデータを記憶するように配置された音響データベース48と、
場面位置にリンクされた観察者の画像体験に関連付けられた画像情報を示すデータを記憶するように配置された画像データベース50と、
システムに関連付けられた登録ユーザを示すデータを記憶するように配置されたユーザデータベース52と、
例えば、.OBJフォーマットで3Dファイルを記憶するように配置された3Dファイルデータベース53と
を含む。
ユーザコンピューティングデバイス12、14、16の構成の例、この例ではタブレット型コンピュータ14を図2に示す。
ユーザコンピューティングデバイス14は、ユーザコンピューティングデバイス14における動作を制御し、協調させるように配置されたプロセッサ60と、所望の機能を実現するためにプロセッサ60によって使用されるプログラムおよびデータを記憶するように配置されたデータ記憶デバイス62と、使用中のプログラムおよび/またはデータを一時的に記憶するためにプロセッサによって使用されるメモリ64とを含む。
ユーザコンピューティングデバイス14は、ユーザコンピューティングデバイス14がユーザからの入力を受け取れるように配置された、この例ではタッチスクリーンの形の、ディスプレイ68およびユーザインターフェース70をさらに含む。
ユーザコンピューティングデバイス12、14、16上でユーザに表示された画面に関する実装形態の例を図3から図13に示す。この例では、コンピューティングデバイス12、14、16は、ディスプレイ68に重ねられたタッチスクリーン70の形のユーザインターフェースを有するタブレット型コンピュータ14である。したがって、コンピューティングデバイス14への入力は、タップ、スワイプ、および、他の任意のデバイスが認識できるジェスチャを使用してタッチスクリーン70をタッチすることによって主に行われる。しかし、この例は、他のコンピューティングデバイス上の実装形態に等しく適用できるということが理解されよう。例えば、ユーザコンピューティングデバイスは、ヘッドマウントデバイス(HMD)およびWebVRをサポートするツールを含んでもよい。
ユーザは、最初に、ユーザコンピューティングデバイス14によって実現されたユーザインターフェースにユーザログイン詳細を入力することによってシステム10にログインし、システム10は、ログイン詳細をログインアプリケーション28に通信し、ログインアプリケーション28で入力したログイン詳細を、ユーザに関連付けられた記憶済参照ログイン詳細30と比較することによって入力したログイン詳細を検証する。
ユーザインターフェースは、サーバ20と通信するように配置されたユーザコンピューティングデバイス12、14、16にインターフェースアプリケーションをインストールすることによって、ユーザコンピューティングデバイス12、14、16上に実装してもよく、ユーザインターフェースは、例えば、要求に応じて、図3から図13に示した画面に対応するウェブページを提供することによって、ウェブブラウザを介してユーザインターフェースデバイスに実装してもよく、または、ユーザインターフェースは、他の任意の方式で実装してもよいということが理解されよう。
図3に示すように、ユーザがログインに成功した後、ユーザに対し、作成したプロジェクト82を示す情報をユーザに表示するホームページ80が提示される。各表示したプロジェクト82は、プロジェクト名84、プロジェクトに関連付けられた世界環境のタイプ(閉世界または開世界)を示す世界タイプの印86、および、選択されたユーザがプロジェクト作成処理で協働作業できるように、選択されたユーザにプロジェクトへのリンクを提供するために使用できる共有アイコン88を含む。
ホームページ80は、新しいプロジェクトを作成するために使用できる新プロジェクト作成ボタン90をさらに含む。
新プロジェクト作成ボタン90をアクティブにすると、図4に示すような、新プロジェクト作成画面94が表示される。同様かつ類似の特徴は同様の参照番号で示す。
新プロジェクト作成画面94は、プロジェクトに関連付けられた世界環境のタイプ、すなわち、閉世界環境、開世界旅行環境、またはフリーローミング開世界環境をユーザが選択できるようにする世界タイプ選択フィールド96と、選択した世界のタイプを表す世界タイプアイコン98と、プロジェクトタイトルを受け取るためのプロジェクト名フィールド100と、プロジェクトタグラインを受け取るためのプロジェクトタグラインフィールド102と、プロジェクトに関連付けられた説明情報を受け取るための説明フィールド104とを含む。
新プロジェクト作成画面94は、プロジェクトを表す画像の選択および表示を容易にするために使用できる参照画像フィールド106と、アクティブになると、プロジェクトデータベース40内に新しいプロジェクトレコードを作成させる作成ボタン110とをさらに含む。作成ボタン110がアクティブになると、図6、図12、または図13に示すような、プロジェクトに関連付けられた関連プロジェクト概観画面120、230、260がさらに表示される。
ホームページ80上、または新プロジェクト作成画面94上の共有アイコン88を選択すると、図5に示すような、プロジェクトの協働作業を行うために選択されたユーザのユーザインターフェースにプロジェクト共有画面111が表示される。
共有プロジェクト画面111は、アクティブになると、図6、図12、または図13に示すような、プロジェクトに関連付けられた関連プロジェクト概観画面120、230、260が表示させるプロジェクトオープンボタン112を含む。
この例では、ユーザは、閉世界環境を選択し、したがって、図6に示すような、プロジェクトに関連付けられた閉プロジェクト概観画面120が表示される。
閉プロジェクト概観画面120は、世界タイプの間をユーザが切り替えできるようにする世界タイプセレクタ113-閉世界セレクタ114、開世界旅行セレクタ116、およびフリーローミング開世界セレクタ117、ならびに、観察者の視点、この例では第1の人物の視点の選択を容易にするように配置された視点セレクタ118を含む。
現在のプロジェクトは閉世界プロジェクトなので、閉プロジェクト概観画面120は、一連の定義した場面128を閉世界体験中に観察者に提示するタイミングを定義するタイムライン122を示す。タイムラインは、非表示/表示ボタン124を使用して表示にしても、非表示にしてもよい。
場面128は、場面グループ126内にまとめられ、各場面グループ126は、プロジェクトに関連付けられたストーリーの異なる部分、この例では「セットアップ」、「対立」、および「解決」を表す。新場面グループ126は、場面グループ追加ボタン130を使用して追加される。同様に、新場面128は、場面追加ボタン132を使用して追加される。
各場面128には、関連付けられたメモアイコン134があり、選択すると、図7に示すようなメモ画面140が表示される。
メモ画面140は、場面タイトル142を含み、例えば編集ツール144を使用して、場面についてのメモを内容フィールド146に追加するために使用することができる。
場面128を選択すると、図8に示すような、2D体験位置画面150(以下、「プレート画面(plate screen)」)が表示される。プレート画面150は、場面128で発生させることができる観察者に関する体験位置、ならびに、音響体験、動画体験、および/または触感体験など、発生させる観察者体験のタイプを選択するために使用することができる。
プレート画面150は、観察者アイコン156を取り囲むいくつかの同心環部分154を含む体験空間、この例ではプレートエリア152を含む。プレートエリア152における使い捨てアイテム(disposable)は、観察者156に関する観察者体験を表すピン158である。プレート画面150を使用すると、ユーザは、観察者156に関する所望の体験位置、および、観察者体験のタイプを選択することができる。この例では、利用できる観察者体験は、動画体験、画像体験、音響体験、および触感体験を含む。
各ピン158は、例えば、視覚ピンアイコン160、音響ピンアイコン162、または触感ピンアイコン164といった、ピンタイプアイコンを含む。ピンのタイプは、ピンタイプセレクタ166、この例では、視覚ピンセレクタ168、音響ピンセレクタ170、および触感ピンセレクタ172を使用して選択する。
プレート画面150は、体験選択モデルのタイプを選択するために使用できる体験モデルセレクタ174をさらに含み、体験選択モデルのタイプは、この例では、場面で発生させることができる観察者に関する体験位置をユーザが2Dで選択できる、図8および図9に示すような2D体験選択モデル、ならびに、場面で発生させることができる観察者に関する体験位置をユーザが3Dで選択できる、図11に示すような3D体験選択モデルである。
プレート画面150は、例えば、全てのピン158、触感ピンのみ、音響ピンのみ、または動画ピンのみといった、プレートエリア152に表示されるピン158のタイプを選択するために使用できるピン閲覧セレクタ176をさらに含む。
プレート画面150は、表示されたプレートエリア152に関連付けられた場面、この例では、「古い友人と話す」というタイトルが付いた場面のタイトルを識別する場面識別子178と、ストーリータイムラインにおける前の場面にナビゲートするために使用できる前場面ナビゲーションボタン180と、ストーリータイムラインにおけるその後の場面にナビゲートするために使用できる次場面ナビゲーションボタン182とをさらに含む。
プレート画面150は、プレートエリア152のピン158によって表された体験および相対体験位置に対応する場面の関連時刻を示すための現在時刻マーカ186を含むタイムライン184をさらに含む。
場面の中に複数のプレート画面150を作成することができ、各プレート画面150は、場面における異なる時刻に対応し、各プレート画面150は、観察者156に関する異なるピン158および/または異なるピン位置を潜在的に含む。例えば、図8に示したように、場面「古い友人と話す」に関連付けられたさらなるプレート画面150が示され、さらなるプレート画面150は、図8に示したプレート画面150より後の場面における時刻188を表す。このようにして、場面の間に、観察者は、観察者に関する異なる位置にリンクされた異なる体験をすることができる。
ユーザがピンセレクタ166を選択し、その後、プレートエリア152上の位置を選択すると、選択したタイプのピン158がプレートエリア152に追加される。その後、ピンを選択すると、プレート画面150の上にピン追加ウィンドウ190が表示される。ピン追加ウィンドウ190は、関連体験を示す情報を追加するため、または、関連体験を示す情報へのリンクを追加するために使用する。
この例では、ピン追加画面190は、ピン158に関連付けられるように選択した動画の位置を示す情報を追加するために使用できる動画リンクボックス194と、ピン158に関連付けられるように選択した画像の位置を示す情報を追加するために使用できる画像リンクボックス196と、ピン158に関連付けられるように選択した音響の位置を示す情報を追加するために使用できる音響リンクボックス198と、ピン158に関連付けられるように選択したドキュメントの位置を示す情報を追加するために使用できるドキュメントリンクボックス200とを含む。
ピン追加画面190は、ピン158にメモを追加するために使用できるメモ追加フィールド202、アクション位置フィールド204、キャラクタ遭遇フィールド206、および、次場面トリガポイントフィールド208をさらに含む。他の場面に場面をリンクするための場面リンクインジケータ210をさらに含んでもよい。
アクション位置フィールド204、キャラクタ遭遇フィールド206、および次場面トリガポイントフィールド208は、体験の中のリニアではない遭遇および対話を、ユーザが追跡し、ログ記録し、グループ化できるようにする。例えば、ユーザは、非時系列の他の世界および場面にリンクするユーザに対する機会を作り出すことができ、または、ユーザは、メディアコンテンツに関連付けられた異なるキャラクタに対する異なる視点および/もしくは異なる体験を定義することができる。
図8および図9に示すような2D体験選択モデルへの代替として、図11に示すような3D体験選択モデルを使用することができ、ユーザは、場面で発生させることができる観察者に関する体験位置を3Dで選択することができる。同様かつ類似の特徴は同様の参照番号で示す。
3D体験選択モデルは、体験モデルセレクタ174を使用して「閉」ではなく、「3D球体」を選択することによって選択することができ、これにより、3D体験位置画面220(以下、「球体空間画面」)が表示される。球体空間画面220は、場面で発生させることができる観察者に関する3Dの体験位置、ならびに、音響体験、動画体験、および/または触感体験など、発生させる観察者体験のタイプを選択するために使用することができる。
観察者に関する2Dの体験位置を表すためのプレートエリア152の代わりに、球体体験空間222は、観察者に関する3Dの体験位置を表すために提供される。
プレート画面150と同様に、球体空間画面220を使用して、ユーザは、観察者156に関する所望の体験位置、および観察者体験のタイプを選択することができる。この例で利用できる観察者体験は、動画体験、画像体験、音響体験、および触感体験を含む。所望の3D位置におけるピン158の追加を容易にするために、球体空間画面220は、ナビゲーションツール224を含む。
図4および図6を参照すると、閉世界の代わりに、新プロジェクト作成画面94上の世界タイプ選択フィールド96を使用して開世界旅行を選択した場合、または、閉プロジェクト概観画面120上で開世界旅行セレクタ116を選択した場合、開世界旅行概観画面230が、図12に示すように表示される。同様かつ類似の特徴は同様の参照番号で示す。
開世界旅行概観画面230は、観察者に対して基礎となる方向を定義するが、観察者が旅行中に歩き回れるという意味で旅行として構造化された世界空間内の場面の相対位置を定義するため、場面位置のそれぞれにおける観察者体験の相対位置を定義するため、ならびに、音響体験、視覚体験、および/または触感体験など、それぞれの場面位置で発生させる特定の観察者体験を定義するために使用される。
定義した構造およびタイミングに従って観察者に場面が提示される図6から図11に関して説明された閉世界プロジェクトとは異なり、図12に表した開世界旅行では、観察者には、観察者の移動、およびしたがって、利用できる場面に関する観察者の位置に対して、ならびに、場面において観察者に提供された結果として起こる体験に対して、少なくともいくらかの制御権があるということが理解されよう。
図12に示したように、開世界旅行概観画面230は、観察者156が利用できるローミング空間を表す旅行空間232を含む。ユーザは、例えば、タッチスクリーン上で位置を選択することによって、場面の所望の位置に対応する観察者156に関する位置において、旅行空間232に場面アイコンを追加することによって場面を追加することができる。
場面は、いくつかの場面グループ240、242、244にグループ化することができ、各場面グループは、異なる場面アイコンに割り当てられる。この例では、場面アイコンは、メイン場面アイコン234、サイドミッションアイコン236、および写真ミッションアイコン238を含む。
利用可能な場面の場面タイトル246、248、250は、開世界旅行概観画面230上で、複数の場面グループ242、242、244内に示すことができ、場面グループは、非表示/表示ボタン254を使用して非表示にしても、表示にしてもよい。
開世界旅行概観画面230は、場面グループ240、242、244に場面を追加するために使用することができる場面追加ボタン256をさらに含む。
この例では、旅行空間232上の場面アイコン234、236、238を選択すると、関連場面タイトル246、248、250が、関連場面グループ240、242、244内で強調される。場面タイトル246、248、250を選択すると、図8および図9に示したプレート画面150が表示され、ユーザは、場面に対する観察者156に関する所望の体験位置、および、観察者体験のタイプを定義することができるようになる。プレート画面150において、ユーザは、2Dではなく、観察者に関する3Dの体験位置を定義することが望まれる場合、体験モデルセレクタ174を使用して、「閉」ではなく、「3D球体」を選択することができる。
図4および図6を参照すると、新プロジェクト作成画面94上の世界タイプ選択フィールド96を使用してフリーローミング開世界を選択した場合、または、閉プロジェクト概観画面120上でフリーローミング世界セレクタ117を選択した場合、フリーローミング開世界概観画面260が、図13に示したように表示される。同様かつ類似の特徴は同様の参照番号で示す。
フリーローミング開世界概観画面260は、構造化された旅行ではなく、フリーローミング空間として構造化された世界空間内の場面の相対位置を定義するために、フリーローミング開世界概観画面260を使用することを除いて、開世界旅行概観画面230に似ている。開世界旅行概観画面230と同様に、フリーローミング開世界概観画面260は、観察者に関する場面の位置を定義するために使用し、図8、図9、および図11に示したプレート画面150または球体画面220を通じて、場面位置のそれぞれにおける観察者体験の相対位置、ならびに、音響体験、視覚体験、および/または触感体験など、それぞれの場面位置で発生させる特定の観察者体験を定義するために使用する。
フリー世界ローミングプロジェクトによって、場面は、定義した構造に従って観察者に提示されず、代わりに、観察者には、観察者の移動、ならびに従って、利用可能な場面に関する観察者の位置、および、場面において観察者に提供される結果として起こる体験に対する十分な制御権があるということが理解されよう。
図13に示したように、フリーローミング開世界概観画面260は、観察者156が利用できるローミング空間、この例では、立方体として示したフリーローミング空間262を表すフリーローミング空間262を含む。ユーザは、例えば、タッチスクリーン上で位置を選択することによって、場面の所望の位置に対応する位置において、フリーローミング空間262に場面アイコンを追加することによって場面を追加することができる。
変形形態において、フリーローミング空間を表すために定義した形状を使用する代わりに、フリーローミング空間は、任意の形状を有することができるコンピュータ生成空間メッシュに応じて定義してもよい。例えば、空間メッシュは、実際の現実世界の空間を表すことができ、空間メッシュは、LIDARまたはマーターポートスキャナを使用して生成してもよい。
使用中のメディアコンテンツ計画システムの例を次に説明することになる。
第1の例では、動画の定義した場面および定義した時刻において、定義した動画、音響、および/または触感の応答がある360°動画を作成することをユーザが望む。
システム10を使用して、必要であれば、ユーザは、最初に、触感、動画、音響、および/または画像のデータベース44、46、48、50に触感、動画、音響、および画像の体験情報を追加し、次に、ホームページ80上の新プロジェクト作成ボタン90を選択し、図4に示した新プロジェクト作成画面94上の世界タイプ選択フィールド96内の「閉」を選択することによって閉世界プロジェクトを作成する。ユーザは、新プロジェクト作成画面94上のプロジェクト名、タグライン、説明、および参照画像フィールド100、102、104、106を使用して、プロジェクト名、タグライン、説明、および参照画像をさらに追加することができる。
作成ボタン110を選択した後、閉世界プロジェクト概観画面120は、図6に示したように表示される。
閉世界プロジェクト概観画面120を使用して、ユーザは、場面グループ126と、場面タイトル128と、視点セレクタ118を使用した観察者の視点と、場面グループ126および場面128の順序およびタイミングとを定義することができる。ユーザは、メモアイコン134およびメモ画面140を使用して、場面128にメモをさらに追加することができる。
ユーザは、さらに、図8および図9に示すようなプレート画面150を使用して、場面128で発生させる観察者体験、および、観察者に関する体験位置を定義することができる。ユーザが3D空間内に観察者体験を定義したいと思った場合、ユーザは、体験モデルセレクタ174で3D球体を選択し、図11に示すような球体画面22を表示する。
プレート画面150または球体画面220を使用して、ユーザは、時刻マーカ186によって示された定義時刻における、観察者体験の所望の位置に対応する観察者156に関する位置において、関連するプレートエリア152または球体空間222にピン158を追加し、ユーザは、ピン追加ウィンドウ190を使用して、各ピン158に対応するユーザ体感のタイプを選択する。例えば、体験は、場面における定義した時刻に、定義した場面における観察者156の背後で発生する爆発であってもよい。この体験について、ユーザは、観察者156の背後の位置に対応する位置において、プレートエリア152または球体空間222にピンを追加することになり、ユーザは、ピン追加ウィンドウ190を使用して、ピン158に対する、関連動画、および任意選択として、爆発に関連付けられた触感応答を識別することになる。
後で発生する場面におけるその後の観察者体験は、タイムライン184上で異なる時刻を選択し、異なる時刻における、所望の観察者体験の所望の位置に対応する観察者156に関する位置において、さらなるプレートエリア152または球体空間222にピン158を追加することによって、追加することができる。
第2の例では、ユーザが、ゲーム世界内の定義した場面位置における定義した場面において、および、観察者156に関する場面における定義した位置において、定義した動画、音響、および/または触感の応答が発生するフリーローミングゲーム世界を作成することを望む。
システム10を使用して、必要であれば、ユーザは、最初に、触感、動画、音響、および/または画像のデータベース44、46、48、50に触感、動画、音響、および画像の体験情報を追加し、次に、ホームページ80上の新プロジェクト作成ボタン90を選択し、図4に示した新プロジェクト作成画面94上の世界タイプ選択フィールド96内のフリーローミング開世界を選択することによって、フリー世界ローミングプロジェクトを作成する。ユーザは、新プロジェクト作成画面94上のプロジェクト名、タグライン、説明、および参照画像フィールド100、102、104、106を使用して、プロジェクト名、タグライン、説明、および参照画像をさらに追加することができる。
作成ボタン110選択した後、フリーローミング開世界概観画面260が、図13に示したように表示される。
フリーローミング開世界概観画面260を使用して、ユーザは、
場面タイプを定義し、場面タイプを場面グループ240、242、244にグループ化すること、
場面タイトル246、248、250を定義すること、
視点セレクタ118を使用して観察者の視点を定義すること、および
フリーローミング空間262の関連位置に場面アイコン234、236、238を追加することによって、フリーローミング空間262に関する場面の位置を定義すること
ができる。
ユーザは、さらに、場面246、248、250を選択して、図8および図9に示すようなプレート画面150を表示することによって、各場面で発生させる観察者体験、および、観察者に関する体験位置を定義することができる。
ユーザが3D空間内に観察者体験を定義したいと思った場合、ユーザは、体験モデルセレクタ174で3D球体を選択し、図11に示すような球体画面220を表示する。
プレート画面150または球体画面220を使用して、ユーザは、時刻マーカ186によって示された定義時刻における、所望の観察者体験の所望の位置に対応する観察者156に関する位置において、関連するプレートエリア152または球体空間222にピン158を追加し、ユーザは、ピン追加ウィンドウ190を使用して、各ピン158に対応するユーザ体感のタイプを選択する。
後で発生する場面におけるその後の観察者体験は、タイムライン184上で異なる時刻を選択し、異なる時刻における、所望の観察者体験の所望の位置に対応する観察者156に関する位置において、さらなるプレートエリア152または球体空間222にピン158を追加することによって、追加することができる。
任意の従来技術の公開が本明細書で参照される場合、このような参照は、オーストラリアまたは他のいずれかの国において、当技術分野における共通の一般的知識の一部をこの公開が形成すると認めることと等しいわけではないということが理解されよう。
以下の特許請求の範囲において、および、本発明の前の説明において、言語または必要な暗示を表現することにより別途文脈が必要とする場合を除き、単語「備える(comprise)」または「備える(comprises)」もしくは「備える(comprising)」などの変形形態は、包括的な意味で、すなわち、述べた特徴の存在を指定するために使用されるが、本発明の様々な実施形態におけるさらなる特徴の存在または追加を排除するために使用しない。
当業者に明らかになるような変更形態および変形形態は、本発明の範囲内にあるものと判断する。

Claims (30)

  1. メディアコンテンツ計画システムであって、
    メディアコンテンツプロジェクトの場面を示す情報を記憶するように配置されたデータ記憶デバイスと、
    ユーザインターフェースであって、
    メディアコンテンツプロジェクトの場面の位置、および/または、前記メディアコンテンツプロジェクト内の前記場面のそれぞれの発生タイミングを示す場面の印を表示すること、
    表示のための体験空間をユーザが選択できるようにすることであって、前記体験空間が、定義した時刻に関連付けられ、観察者の記号を含む、選択できるようにすること、
    前記場面に関連付けられた観察者体験を示す少なくとも1つの体験アイコンを前記ユーザが選択できるようにすること、
    前記ユーザが、各体験アイコンを配列する前記体験空間における位置を選択し、各体験アイコンの前記体験空間における位置の選択に応答して、前記それぞれの選択した位置に、前記体験空間における各体験アイコンを表示できるようにすることであって、各選択した位置が、前記定義した時刻における前記場面における観察者体験の前記観察者に関する少なくとも2次元空間内の所望の位置を表す、表示できるようにすること、
    表示のための少なくとも1つのさらなる体験空間を前記ユーザが選択できるようにすることであって、各さらなる体験空間が、前記定義した時刻より後の前記場面における時刻に対応するさらに定義した時刻に関連付けられた、選択できるようにすること、
    前記ユーザが、体験アイコンを配列する前記体験空間におけるさらなる位置を選択し、前記さらなる体験空間におけるさらなる位置の選択に応答して、前記選択したさらなる位置に、前記さらなる体験空間における前記体験アイコンを表示できるようにすることであって、前記選択したさらなる位置が、前記さらなる定義した時刻における前記体験アイコンに関連付けられた前記観察者体験の前記観察者に関する少なくとも2次元空間内の所望のさらなる位置を表す、表示できるようにすること
    を行うように配置された、ユーザインターフェースと
    を備え、
    前記システムが、
    前記または各選択した観察者体験、
    各観察者体験に関連付けられた前記場面、および
    各体験空間のための、前記観察者に関する各観察者体験の前記観察者に関する少なくとも2次元空間内の前記選択した位置
    を示すデータを記憶するように配置された、
    メディアコンテンツ計画システム。
  2. 前記システムは、前記体験アイコンに関連付けられた観察者体験のタイプを前記ユーザが選択できるようにする、請求項1に記載のシステム。
  3. 前記体験空間は、前記観察者の前記記号を取り囲む少なくとも1つの環状部分を含み、前記環状部分は、前記場面における観察者体験の前記観察者の周囲の少なくとも2次元空間内の前記所望の位置を表す前記観察者の周囲の2次元空間内の位置において、体験アイコンを前記体験空間に追加するために前記ユーザによって使用することができる、請求項1または2に記載のシステム。
  4. 前記体験空間は、前記観察者の前記記号を取り囲む球体を含み、前記球体は、前記場面における観察者体験の前記観察者の周囲の少なくとも2次元空間内の前記所望の位置を表す前記観察者の周囲の3次元空間内の位置において、体験アイコンを前記体験空間に追加するために前記ユーザによって使用することができる、請求項1または2に記載のシステム。
  5. 前記観察者体験は、触感体験、視覚体験、および/または音響体験のいずれか1つまたは複数を含む、請求項1から4のいずれか一項に記載のシステム。
  6. メディアコンテンツを計画する方法であって、
    メディアコンテンツプロジェクトの場面を示す情報を記憶するステップと、
    前記メディアコンテンツプロジェクトの場面の位置、および/または、前記メディアコンテンツプロジェクト内の前記場面のそれぞれの発生タイミングを示す場面の印を表示するステップと、
    場面を表す場面の印をユーザが選択できるようにするステップと、
    表示のための体験空間を前記ユーザが選択できるようにするステップであって、前記体験空間が、定義した時刻に関連付けられ、観察者の記号を含む、ステップと、
    前記場面に関連付けられた観察者体験を示す少なくとも1つの体験アイコンを前記ユーザが選択できるようにするステップと、
    前記ユーザが、各体験アイコンを配列することになる前記体験空間における位置を選択し、各体験アイコンの前記体験空間における位置の選択に応答して、前記それぞれの選択した位置に、前記体験空間における各体験アイコンを表示できるようにするステップであって、各選択した位置が、前記定義した時刻における前記場面における観察者体験の前記観察者に関する少なくとも2次元空間内の所望の位置を表す、ステップと、
    表示のための少なくとも1つのさらなる体験空間を前記ユーザが選択できるようにするステップであって、各さらなる体験空間が、前記定義した時刻より後の前記場面における時刻に対応するさらなる定義した時刻に関連付けられた、ステップと、
    前記ユーザが、体験アイコンを配列することになる前記体験空間におけるさらなる位置を選択し、前記さらなる体験空間における位置の選択に応答して、前記選択したさらなる位置に、前記さらなる体験空間における前記体験アイコンを表示できるようにするステップであって、前記選択した位置が、前記さらなる定義した時刻における前記体験アイコンに関連付けられた前記観察者体験の前記観察者に関する少なくとも2次元空間内の所望のさらなる位置を表す、ステップと、
    記憶するステップであって、
    前記または各選択した観察者体験、
    各観察者体験に関連付けられた前記場面、および
    各体験空間のための、前記観察者に関する各観察者体験の前記観察者に関する少なくとも2次元空間内の前記選択した位置
    を示すデータを記憶するステップと
    を含む、方法。
  7. 前記体験アイコンに関連付けられた観察者体験のタイプを前記ユーザが選択できるようにするステップを含む、請求項6に記載の方法。
  8. 前記体験空間は、前記観察者の前記記号を取り囲む少なくとも1つの環状部分を含み、前記環状部分は、前記場面における観察者体験の前記観察者の周囲の少なくとも2次元空間内の前記所望の位置を表す前記観察者の周囲の2次元空間内の位置において、体験アイコンを前記体験空間に追加するために前記ユーザによって使用することができる、請求項6または7に記載の方法。
  9. 前記体験空間は、前記観察者の前記記号を取り囲む球体を含み、前記球体は、前記場面における観察者体験の前記観察者の周囲の少なくとも2次元空間内の前記所望の位置を表す前記観察者の周囲の3次元空間内の位置において、体験アイコンを前記体験空間に追加するために前記ユーザによって使用することができる、請求項6または7に記載の方法。
  10. 前記観察者体験が、触感体験、視覚体験、および/または音響体験のいずれか1つまたは複数を含む、請求項6から9のいずれか一項に記載の方法。
  11. メディアコンテンツを計画するためのシステムのプロセッサにより実行される方法であって、前記システムはユーザインターフェースを備え、前記方法は、
    メディアコンテンツプロジェクトの場面の位置、および/または、前記メディアコンテンツプロジェクト内の前記場面のそれぞれの発生タイミングを示す場面の印を前記ユーザインターフェースに表示することと、
    表示のための体験空間をユーザが選択できるようにすることであって、前記体験空間が、定義した時刻に関連付けられ、観察者の記号を含む、前記ユーザインターフェース上で選択できるようにすることと、
    場面に関連付けられた観察者体験を示す少なくとも1つの体験アイコンを前記ユーザが前記ユーザインターフェース上で選択できるようにすることと、
    前記ユーザが、各体験アイコンを配列することになる前記体験空間における位置を選択し、各体験アイコンの前記体験空間における位置の選択に応答して、前記それぞれの選択した位置に、前記体験空間における各体験アイコンを前記ユーザインターフェース上に表示できるようにすることであって、各選択した位置が、前記定義した時刻における前記場面における観察者体験の前記観察者に関する少なくとも2次元空間内の所望の位置を表す、表示できるようにすることと、
    表示のための少なくとも1つのさらなる体験空間を前記ユーザが前記ユーザインターフェース上で選択できるようにすることであって、各さらなる体験空間が、前記定義した時刻より後の前記場面における時刻に対応するさらなる定義した時刻に関連付けられた、選択できるようにすることと、
    前記ユーザが、体験アイコンを配列することになる前記体験空間におけるさらなる位置を選択し、各体験アイコンの前記体験空間におけるさらなる位置の選択に応答して、前記それぞれの選択したさらなる位置に、前記さらなる体験空間における各体験アイコンを前記ユーザインターフェース上に表示できるようにすることであって、前記選択したさらなる位置が、前記さらなる定義した時刻における前記体験アイコンに関連付けられた前記観察者体験の前記観察者に関する少なくとも2次元空間内の所望のさらなる位置を表す、表示できるようにすることと
    含む方法
  12. 前記メディアコンテンツプロジェクトは、閉世界プロジェクトであり、前記ユーザインターフェースは、前記メディアコンテンツプロジェクトの一部を形成することになる場面、および、観察者に前記場面を提示する順序についての前記ユーザによる選択を容易にするように配置された、請求項11に記載の方法。
  13. 前記ユーザインターフェースは、前記メディアコンテンツプロジェクトの場面を提示する前記タイミングについての前記ユーザによる選択を容易にするように配置された、請求項12に記載の方法。
  14. 前記メディアコンテンツプロジェクトは、開世界プロジェクトであり、前記ユーザインターフェースは、前記メディアコンテンツプロジェクトの一部を形成することになる場面についての前記ユーザによる選択を容易にするように配置された、請求項11から13のいずれか一項に記載の方法。
  15. 前記ユーザインターフェースは、世界外観を表示するように配置され、前記世界外観は、前記メディアコンテンツプロジェクト内の前記場面の前記所望の位置を表す世界空間上の位置の少なくとも1つの場面を示す少なくとも1つの場面アイコンを含む前記世界空間を含む、請求項11から14のいずれか一項に記載の方法。
  16. 前記世界空間は、コンピュータ生成空間メッシュに応じて定義される、請求項15に記載の方法。
  17. 前記空間メッシュは、実際の現実世界空間を表し、前記空間メッシュは、スキャンデバイスを使用して生成される、請求項16に記載の方法。
  18. 前記ユーザインターフェースは、前記体験アイコンに関連付けられた観察者体験のタイプを前記ユーザが選択できるように構成される、請求項11から17のいずれか一項に記載の方法。
  19. 前記体験空間は、前記観察者の前記記号を取り囲む少なくとも1つの環状部分を含み、前記環状部分は、前記場面における観察者体験の前記観察者の周囲の少なくとも2次元空間内の前記所望の位置を表す前記観察者の周囲の2次元空間内の位置において、体験アイコンを前記体験空間に追加するために前記ユーザによって使用することができる、請求項18に記載の方法。
  20. 前記体験空間は、前記観察者の前記記号を取り囲む球体を含み、前記球体は、前記場面における観察者体験の前記観察者の周囲の少なくとも3次元空間内の前記所望の位置を表す前記観察者の周囲の3次元空間内の位置において、体験アイコンを前記体験空間に追加するために前記ユーザによって使用することができる、請求項19に記載の方法。
  21. 前記ユーザインターフェースは、メモを場面に前記ユーザが追加できるように配置された、請求項11から20のいずれか一項に記載の方法。
  22. 前記ユーザインターフェースは、前記メディアコンテンツプロジェクトのための視点をユーザが選択できるように配置された、請求項11から21のいずれか一項に記載の方法。
  23. 前記ユーザインターフェースが、
    複数のキャラクタを作成すること、および
    各キャラクタのための観察者体験データを作成すること
    を前記ユーザが行えるように配置された、請求項11から22のいずれか一項に記載の方法。
  24. 前記ユーザインターフェースは、選択した他のユーザと前記メディアコンテンツプロジェクトを前記ユーザが共有できるように配置された、請求項11から23のいずれか一項に記載の方法。
  25. 前記観察者体験が、触感体験、視覚体験、および/または音響体験のいずれか1つまたは複数を含む、請求項11から24のいずれか一項に記載の方法。
  26. 前記ユーザインターフェースは、ユーザインターフェースデバイス上で実現された、請求項11から25のいずれか一項に記載の方法。
  27. 前記ユーザインターフェースデバイスは、前記ユーザインターフェースを示すデータをリモートサーバから受け取るように配置された、請求項26に記載の方法。
  28. メディアコンテンツ計画システムであって、
    メディアコンテンツプロジェクトの場面を示す情報を記憶するように配置されたデータ記憶デバイス
    を備え、
    前記システムは、ユーザインターフェースデバイスに表示するために情報を前記ユーザインターフェースデバイスに通信するように配置され、前記情報が、
    メディアコンテンツプロジェクトの場面の位置、および/または、前記メディアコンテンツプロジェクトの前記場面のそれぞれの発生タイミングを示す場面の印、
    場面に関連付けられ、観察者の記号を含む体験空間であって、定義した時刻に関連付けられた、体験空間、ならびに
    前記体験空間における少なくとも1つの体験アイコンであって、各体験アイコンが、観察者体験の観察者に関する少なくとも2次元空間内の位置を示し、前記体験空間における各体験アイコンの前記位置が、前記場面における前記観察者体験の前記観察者に関する2次元空間内の所望の位置を表す、少なくとも1つの体験アイコン
    を示し、
    前記システムが、定義した時刻に関連付けられた体験空間についてのユーザによる選択を示す情報を受け取り、前記場面に関連付けられることになる観察者体験についての前記ユーザによる選択を示す情報を受け取り、前記観察者に関する少なくとも2次元空間内の前記観察者体験に関連付けられた体験アイコンを配列することになる前記体験空間における位置についての前記ユーザによる選択を示す情報を受け取るように配置され、各体験アイコンの前記体験空間における位置の選択に応答して、前記システムが、前記それぞれの選択した位置に、前記体験空間における各体験アイコンを表示するために、前記ユーザインターフェースデバイスによって使用できる情報を前記ユーザインターフェースデバイスに通信するように配置され、
    前記システムが、前記定義した時刻より後の前記場面における時刻に対応するさらなる定義した時刻に関連付けられた少なくとも1つのさらなる体験空間についてのユーザによる選択を示す情報を受け取り、前記観察者に関する少なくとも2次元空間内の前記観察者体験に関連付けられた前記体験アイコンを配列することになる前記体験空間におけるさらなる位置についての前記ユーザによる選択を示す情報を受け取るように配置され、前記体験アイコンの前記体験空間におけるさらなる位置の選択に応答して、前記システムが、前記それぞれの選択したさらなる位置に、前記さらなる体験空間における前記体験アイコンを表示するために、前記ユーザインターフェースデバイスによって使用できる情報を前記ユーザインターフェースデバイスに通信するように配置され、
    前記システムが、
    前記選択した観察者体験、
    各観察者体験に関連付けられた前記場面、および
    各体験空間のための、前記観察者に関する各観察者体験の前記観察者に関する少なくとも2次元空間内の前記選択した位置
    を示すデータを記憶するように配置された、
    メディアコンテンツ計画システム。
  29. 前記システムは、前記体験アイコンに関連付けられた観察者体験のタイプについての前記ユーザによる選択を示す情報を受け取るように配置された、請求項28に記載のシステム。
  30. プロジェクト計画システムであって、
    プロジェクトを示す情報を記憶するように配置されたデータ記憶デバイスと、
    ユーザインターフェースであって、
    表示のための体験空間をユーザが選択できるようにすることであって、前記体験空間が、定義した時刻に関連付けられた、選択できるようにすること、
    前記プロジェクトにおける体験を示す少なくとも1つの体験アイコンを前記ユーザが選択できるようにすること、
    前記ユーザが、各体験アイコンを配列することになる前記体験空間における位置を選択し、各体験アイコンの前記体験空間における位置の選択に応答して、前記それぞれの選択した位置に、前記体験空間における各体験アイコンを表示できるようにすることであって、各選択した位置が、前記定義した時刻における体験の少なくとも2次元空間内の所望の位置を表す、表示できるようにすること、
    表示のための少なくとも1つのさらなる体験空間を前記ユーザが選択できるようにすることであって、各さらなる体験空間が、前記定義した時刻より後の時刻に対応するさらなる定義した時刻に関連付けられた、選択できるようにすること
    を行うように配置され、
    各さらなる体験空間が、前記ユーザが、体験アイコンを配列することになる前記体験空間におけるさらなる位置を選択し、前記さらなる体験空間におけるさらなる位置の選択に応答して、前記選択したさらなる位置に、前記さらなる体験空間における前記体験アイコンを表示できるようにし、前記選択したさらなる位置が、前記さらなる定義した時刻における前記体験アイコンに関連付けられた前記体験の少なくとも2次元空間内の所望のさらなる位置を表す、
    ユーザインターフェースと
    を備え、
    前記システムが、
    前記または各選択した体験、および
    各体験空間のための、各体験の少なくとも2次元空間内の前記選択した位置
    を示すデータを記憶するように配置された、
    プロジェクト計画システム。
JP2021501059A 2018-03-27 2019-03-27 メディアコンテンツ計画システム Active JP7381556B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
AU2018901016 2018-03-27
AU2018901016A AU2018901016A0 (en) 2018-03-27 A media content planning system
PCT/AU2019/050274 WO2019183676A1 (en) 2018-03-27 2019-03-27 A media content planning system

Publications (3)

Publication Number Publication Date
JP2021519481A JP2021519481A (ja) 2021-08-10
JPWO2019183676A5 JPWO2019183676A5 (ja) 2022-04-01
JP7381556B2 true JP7381556B2 (ja) 2023-11-15

Family

ID=68062393

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021501059A Active JP7381556B2 (ja) 2018-03-27 2019-03-27 メディアコンテンツ計画システム

Country Status (6)

Country Link
US (2) US11360639B2 (ja)
EP (1) EP3776491A4 (ja)
JP (1) JP7381556B2 (ja)
AU (1) AU2019240763A1 (ja)
CA (1) CA3092884A1 (ja)
WO (1) WO2019183676A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11074400B2 (en) * 2019-09-30 2021-07-27 Dropbox, Inc. Collaborative in-line content item annotations
JP7407150B2 (ja) * 2021-08-17 2023-12-28 任天堂株式会社 ゲームプログラム、ゲーム装置、ゲームシステム、およびゲーム処理方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030058238A1 (en) 2001-05-09 2003-03-27 Doak David George Methods and apparatus for constructing virtual environments
US20080300053A1 (en) 2006-09-12 2008-12-04 Brian Muller Scripted interactive screen media
US20090219291A1 (en) 2008-02-29 2009-09-03 David Brian Lloyd Movie animation systems
US20120162210A1 (en) 2010-12-24 2012-06-28 Dassault Systemes Creation of a playable scene with an authoring system
US20160227262A1 (en) 2014-05-28 2016-08-04 Lucasfilm Entertainment Company Ltd. Switching modes of a media content item

Family Cites Families (85)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5689669A (en) * 1994-04-29 1997-11-18 General Magic Graphical user interface for navigating between levels displaying hallway and room metaphors
US6016147A (en) * 1995-05-08 2000-01-18 Autodesk, Inc. Method and system for interactively determining and displaying geometric relationships between three dimensional objects based on predetermined geometric constraints and position of an input device
CA2180899A1 (en) * 1995-07-12 1997-01-13 Yasuaki Honda Synchronous updating of sub objects in a three dimensional virtual reality space sharing system and method therefore
US5737533A (en) * 1995-10-26 1998-04-07 Wegener Internet Projects Bv System for generating a virtual reality scene in response to a database search
US6219045B1 (en) * 1995-11-13 2001-04-17 Worlds, Inc. Scalable virtual world chat client-server system
WO1997042601A1 (en) * 1996-05-06 1997-11-13 Sas Institute, Inc. Integrated interactive multimedia process
JPH10309381A (ja) * 1997-05-13 1998-11-24 Yoshimasa Tanaka 移動体用遊戯装置
US6271843B1 (en) * 1997-05-30 2001-08-07 International Business Machines Corporation Methods systems and computer program products for transporting users in three dimensional virtual reality worlds using transportation vehicles
US6243091B1 (en) * 1997-11-21 2001-06-05 International Business Machines Corporation Global history view
US6079982A (en) * 1997-12-31 2000-06-27 Meader; Gregory M Interactive simulator ride
US6362817B1 (en) * 1998-05-18 2002-03-26 In3D Corporation System for creating and viewing 3D environments using symbolic descriptors
US6119147A (en) * 1998-07-28 2000-09-12 Fuji Xerox Co., Ltd. Method and system for computer-mediated, multi-modal, asynchronous meetings in a virtual space
US6414679B1 (en) * 1998-10-08 2002-07-02 Cyberworld International Corporation Architecture and methods for generating and displaying three dimensional representations
US6396522B1 (en) * 1999-03-08 2002-05-28 Dassault Systemes Selection navigator
AU3932300A (en) * 1999-04-06 2000-10-23 Microsoft Corporation Method and apparatus for providing a three-dimensional task gallery computer interface
US7119819B1 (en) * 1999-04-06 2006-10-10 Microsoft Corporation Method and apparatus for supporting two-dimensional windows in a three-dimensional environment
GB9930850D0 (en) * 1999-12-24 2000-02-16 Koninkl Philips Electronics Nv 3D environment labelling
US6621508B1 (en) * 2000-01-18 2003-09-16 Seiko Epson Corporation Information processing system
US9129034B2 (en) * 2000-02-04 2015-09-08 Browse3D Corporation System and method for web browsing
KR20000030430A (ko) * 2000-02-29 2000-06-05 김양신 3차원 그래픽 가상공간을 이용한 인터넷 광고시스템
JP4479051B2 (ja) * 2000-04-28 2010-06-09 ソニー株式会社 情報処理装置および方法、並びに記録媒体
US6784901B1 (en) * 2000-05-09 2004-08-31 There Method, system and computer program product for the delivery of a chat message in a 3D multi-user environment
US7788323B2 (en) * 2000-09-21 2010-08-31 International Business Machines Corporation Method and apparatus for sharing information in a virtual environment
US7168051B2 (en) * 2000-10-10 2007-01-23 Addnclick, Inc. System and method to configure and provide a network-enabled three-dimensional computing environment
US7176942B2 (en) * 2001-03-23 2007-02-13 Dassault Systemes Collaborative design
US7038694B1 (en) * 2002-03-11 2006-05-02 Microsoft Corporation Automatic scenery object generation
US20040113887A1 (en) * 2002-08-27 2004-06-17 University Of Southern California partially real and partially simulated modular interactive environment
US8458028B2 (en) * 2002-10-16 2013-06-04 Barbaro Technologies System and method for integrating business-related content into an electronic game
US20050128212A1 (en) * 2003-03-06 2005-06-16 Edecker Ada M. System and method for minimizing the amount of data necessary to create a virtual three-dimensional environment
US7467356B2 (en) * 2003-07-25 2008-12-16 Three-B International Limited Graphical user interface for 3d virtual display browser using virtual display windows
JP3931336B2 (ja) * 2003-09-26 2007-06-13 マツダ株式会社 車両用情報提供装置
US7382288B1 (en) * 2004-06-30 2008-06-03 Rockwell Collins, Inc. Display of airport signs on head-up display
US7542040B2 (en) * 2004-08-11 2009-06-02 The United States Of America As Represented By The Secretary Of The Navy Simulated locomotion method and apparatus
KR20070086037A (ko) * 2004-11-12 2007-08-27 목3, 인크. 장면 간 전환 방법
US7933395B1 (en) * 2005-06-27 2011-04-26 Google Inc. Virtual tour of user-defined paths in a geographic information system
US7817150B2 (en) * 2005-09-30 2010-10-19 Rockwell Automation Technologies, Inc. Three-dimensional immersive system for representing an automation control environment
EP1868149B1 (en) * 2006-06-14 2019-08-07 Dassault Systèmes Improved computerized collaborative work
KR100809479B1 (ko) * 2006-07-27 2008-03-03 한국전자통신연구원 혼합 현실 환경을 위한 얼굴 착용형 디스플레이 장치
US20080030429A1 (en) * 2006-08-07 2008-02-07 International Business Machines Corporation System and method of enhanced virtual reality
JP4861105B2 (ja) * 2006-09-15 2012-01-25 株式会社エヌ・ティ・ティ・ドコモ 空間掲示板システム
US20080125218A1 (en) * 2006-09-20 2008-05-29 Kelly James Collins Method of use for a commercially available portable virtual reality system
US20090300528A1 (en) * 2006-09-29 2009-12-03 Stambaugh Thomas M Browser event tracking for distributed web-based processing, spatial organization and display of information
US20090113305A1 (en) * 2007-03-19 2009-04-30 Elizabeth Sherman Graif Method and system for creating audio tours for an exhibition space
US8443284B2 (en) * 2007-07-19 2013-05-14 Apple Inc. Script-integrated storyboards
US9387402B2 (en) * 2007-09-18 2016-07-12 Disney Enterprises, Inc. Method and system for converting a computer virtual environment into a real-life simulation environment
US8368721B2 (en) * 2007-10-06 2013-02-05 Mccoy Anthony Apparatus and method for on-field virtual reality simulation of US football and other sports
US7844724B2 (en) * 2007-10-24 2010-11-30 Social Communications Company Automated real-time data stream switching in a shared virtual area communication environment
US20110041083A1 (en) * 2007-12-12 2011-02-17 Oz Gabai System and methodology for providing shared internet experience
US8296196B2 (en) * 2008-05-15 2012-10-23 International Business Machines Corporation Tag along shopping
US8531522B2 (en) * 2008-05-30 2013-09-10 Verint Systems Ltd. Systems and methods for video monitoring using linked devices
US8229800B2 (en) * 2008-09-13 2012-07-24 At&T Intellectual Property I, L.P. System and method for an enhanced shopping experience
US8539359B2 (en) * 2009-02-11 2013-09-17 Jeffrey A. Rapaport Social network driven indexing system for instantly clustering people with concurrent focus on same topic into on-topic chat rooms and/or for generating on-topic search results tailored to user preferences regarding topic
US8411086B2 (en) * 2009-02-24 2013-04-02 Fuji Xerox Co., Ltd. Model creation using visual markup languages
US20100274567A1 (en) * 2009-04-22 2010-10-28 Mark Carlson Announcing information about payment transactions of any member of a consumer group
US20100274627A1 (en) * 2009-04-22 2010-10-28 Mark Carlson Receiving an announcement triggered by location data
US20110010636A1 (en) * 2009-07-13 2011-01-13 International Business Machines Corporation Specification of a characteristic of a virtual universe establishment
US20160182971A1 (en) * 2009-12-31 2016-06-23 Flickintel, Llc Method, system and computer program product for obtaining and displaying supplemental data about a displayed movie, show, event or video game
US8631334B2 (en) * 2009-12-31 2014-01-14 International Business Machines Corporation Virtual world presentation composition and management
KR101721539B1 (ko) * 2010-02-11 2017-03-30 삼성전자주식회사 휴대 단말기의 ui 제공 방법 및 장치
US20110210962A1 (en) * 2010-03-01 2011-09-01 Oracle International Corporation Media recording within a virtual world
US9378296B2 (en) * 2010-08-24 2016-06-28 International Business Machines Corporation Virtual world construction
US8910032B2 (en) * 2011-01-28 2014-12-09 Apple Inc. Media-editing application with automatic background rendering capabilities
US8606611B1 (en) * 2011-10-13 2013-12-10 Intuit Inc. Scheduling via multiple dimensions including worker, time, and location
US9632685B2 (en) * 2012-05-31 2017-04-25 Eric Qing Li Method of navigating through a media program displayed on a portable electronic device in a magnified time scale
US9215368B2 (en) * 2012-12-02 2015-12-15 Bachir Babale Virtual decals for precision alignment and stabilization of motion graphics on mobile video
CN104102678B (zh) * 2013-04-15 2018-06-05 腾讯科技(深圳)有限公司 增强现实的实现方法以及实现装置
WO2015006784A2 (en) * 2013-07-12 2015-01-15 Magic Leap, Inc. Planar waveguide apparatus with diffraction element(s) and system employing same
US10228242B2 (en) * 2013-07-12 2019-03-12 Magic Leap, Inc. Method and system for determining user input based on gesture
US9996797B1 (en) * 2013-10-31 2018-06-12 Leap Motion, Inc. Interactions with virtual objects for machine control
JP6259368B2 (ja) * 2013-11-28 2018-01-10 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 携帯端末の制御方法
KR20160001266A (ko) * 2014-06-27 2016-01-06 엘지전자 주식회사 이동단말기 및 그 제어방법
US9817627B2 (en) * 2014-08-04 2017-11-14 At&T Intellectual Property I, L.P. Method and apparatus for presentation of media content
US9696795B2 (en) * 2015-02-13 2017-07-04 Leap Motion, Inc. Systems and methods of creating a realistic grab experience in virtual reality/augmented reality environments
US20160330522A1 (en) * 2015-05-06 2016-11-10 Echostar Technologies L.L.C. Apparatus, systems and methods for a content commentary community
US10235808B2 (en) * 2015-08-20 2019-03-19 Microsoft Technology Licensing, Llc Communication system
US9928656B2 (en) * 2015-09-11 2018-03-27 Futurewei Technologies, Inc. Markerless multi-user, multi-object augmented reality on mobile devices
EP3151243B1 (en) * 2015-09-29 2021-11-24 Nokia Technologies Oy Accessing a video segment
US20170185261A1 (en) * 2015-12-28 2017-06-29 Htc Corporation Virtual reality device, method for virtual reality
US9824500B2 (en) * 2016-03-16 2017-11-21 Microsoft Technology Licensing, Llc Virtual object pathing
US20180096532A1 (en) * 2016-10-03 2018-04-05 Honeywell International Inc. System and method for virtual reality simulation of vehicle travel
US20180095618A1 (en) * 2016-10-04 2018-04-05 Facebook, Inc. Controls and Interfaces for User Interactions in Virtual Spaces
US10678842B2 (en) * 2017-03-21 2020-06-09 EarthX, Inc. Geostory method and apparatus
CN109143576B (zh) * 2017-06-27 2021-01-22 京东方科技集团股份有限公司 显示***及其显示方法、交通工具
KR102556889B1 (ko) * 2017-12-22 2023-07-17 매직 립, 인코포레이티드 혼합 현실 시스템에서 가상 콘텐츠를 관리하고 디스플레이하기 위한 방법들 및 시스템
US10901687B2 (en) * 2018-02-27 2021-01-26 Dish Network L.L.C. Apparatus, systems and methods for presenting content reviews in a virtual world

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030058238A1 (en) 2001-05-09 2003-03-27 Doak David George Methods and apparatus for constructing virtual environments
US20080300053A1 (en) 2006-09-12 2008-12-04 Brian Muller Scripted interactive screen media
US20090219291A1 (en) 2008-02-29 2009-09-03 David Brian Lloyd Movie animation systems
US20120162210A1 (en) 2010-12-24 2012-06-28 Dassault Systemes Creation of a playable scene with an authoring system
JP2012138087A (ja) 2010-12-24 2012-07-19 Dassault Systemes オーサリングシステムによる再生可能なシーンの生成
US20160227262A1 (en) 2014-05-28 2016-08-04 Lucasfilm Entertainment Company Ltd. Switching modes of a media content item

Also Published As

Publication number Publication date
WO2019183676A1 (en) 2019-10-03
US11360639B2 (en) 2022-06-14
JP2021519481A (ja) 2021-08-10
CA3092884A1 (en) 2019-10-03
US20220300145A1 (en) 2022-09-22
US20210004143A1 (en) 2021-01-07
EP3776491A1 (en) 2021-02-17
EP3776491A4 (en) 2021-07-28
AU2019240763A1 (en) 2020-10-01

Similar Documents

Publication Publication Date Title
US10657716B2 (en) Collaborative augmented reality system
US20200371665A1 (en) Collaborative augmented reality system
Fairbairn et al. The use of VRML for cartographic presentation
US20200089744A1 (en) Map notes
CN108961418A (zh) 一种基于虚拟三维空间的知识可视化界面***和方法
JP2002366972A (ja) 擬似3次元空間表現システム、擬似3次元空間構築システム、ゲームシステム、及び電子地図提供システム
US20220300145A1 (en) Media content planning system
KR102082313B1 (ko) 가상 현실을 이용한 역사체험 교육시스템
JP7337428B1 (ja) 対象物の双方向な三次元表現の制御方法、制御装置及び記録媒体
US20220254114A1 (en) Shared mixed reality and platform-agnostic format
US20190172260A1 (en) System for composing or modifying virtual reality sequences, method of composing and system for reading said sequences
EP4209978A1 (en) Adaptable presentation format for virtual reality constructs
JP2005044102A (ja) 画像再生方法及び画像再生装置
Shumaker et al. Virtual, Augmented and Mixed Reality
KR101505174B1 (ko) 이미지를 활용하는 학습 시뮬레이션 모델 방법 및 장치
WO2019190722A1 (en) Systems and methods for content management in augmented reality devices and applications
Shumaker Virtual, Augmented and Mixed Reality: Designing and Developing Augmented and Virtual Environments: 5th International Conference, VAMR 2013, Held as Part of HCI International 2013, Las Vegas, NV, USA, July 21-26, 2013, Proceedings, Part I
US20230418430A1 (en) Simulated environment for presenting virtual objects and virtual resets
US20230419627A1 (en) Object modeling based on properties and images of an object
Bakaoukas Virtual reality reconstruction applications standards for maps, artefacts, archaeological sites and monuments
JP2004054828A (ja) 画像処理装置
JP7388065B2 (ja) 画像出力装置及びプログラム
Shepard Map-based Input with Google Fusion Tables
WO2023250265A1 (en) Reset modeling based on reset and object properties
JP2022090849A (ja) 画像出力装置及びプログラム

Legal Events

Date Code Title Description
A529 Written submission of copy of amendment under article 34 pct

Free format text: JAPANESE INTERMEDIATE CODE: A529

Effective date: 20201124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220324

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220324

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230222

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230222

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230519

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230720

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231017

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231027

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231102

R150 Certificate of patent or registration of utility model

Ref document number: 7381556

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150