JP2019179080A - 情報処理装置、情報処理方法およびプログラム - Google Patents

情報処理装置、情報処理方法およびプログラム Download PDF

Info

Publication number
JP2019179080A
JP2019179080A JP2018066734A JP2018066734A JP2019179080A JP 2019179080 A JP2019179080 A JP 2019179080A JP 2018066734 A JP2018066734 A JP 2018066734A JP 2018066734 A JP2018066734 A JP 2018066734A JP 2019179080 A JP2019179080 A JP 2019179080A
Authority
JP
Japan
Prior art keywords
user
display area
window
information processing
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018066734A
Other languages
English (en)
Inventor
高橋 慧
Kei Takahashi
高橋  慧
石川 毅
Takeshi Ishikawa
毅 石川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2018066734A priority Critical patent/JP2019179080A/ja
Priority to PCT/JP2019/005205 priority patent/WO2019187732A1/ja
Priority to US16/982,870 priority patent/US11477433B2/en
Publication of JP2019179080A publication Critical patent/JP2019179080A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/282Image signal generators for generating image signals corresponding to three or more geometrical viewpoints, e.g. multi-view systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/003Details of a display terminal, the details relating to the control arrangement of the display terminal and to the interfaces thereto
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/14Display of multiple viewports
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/37Details of the operation on graphic patterns
    • G09G5/377Details of the operation on graphic patterns for mixing or overlaying two or more graphic patterns
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
    • H04N13/279Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals the virtual viewpoint locations being selected by the viewers or determined by tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/66Transforming electric information into light information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/20Details of the management of multiple sources of image data

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Optics & Photonics (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Studio Devices (AREA)

Abstract

【課題】ユーザによって操作されるカメラワークの撮影映像と、ユーザ以外の主体によって操作されるカメラワークの撮影映像とをより適切に切り替えることを可能にする。【解決手段】ユーザの動作に関する情報を取得する取得部と、前記ユーザの動作に関する情報に基づいて、前記ユーザによって操作される第1のカメラワークに対応する第1の表示領域と、前記ユーザ以外の主体によって操作される第2のカメラワークに対応する第2の表示領域の切り替えを制御する制御部と、を備える、情報処理装置が提供される。【選択図】図11

Description

本開示は、情報処理装置、情報処理方法およびプログラムに関する。
近年、撮影技術または情報処理技術の進展に伴い、映像コンテンツの表示に関する様々な技術が開発されている。例えば、以下の特許文献1には、ユーザ視点の第1の画像の表示制御を行う第1の表示制御モードと、ユーザが撮影された第2の画像の表示制御を行う第2の表示制御モードとを切り替える技術が開示されている。
特開2014−115457号公報
しかし、特許文献1の技術等によっては、ユーザによって操作されるカメラワークの撮影映像と、ユーザ以外の主体によって操作されるカメラワークの撮影映像とを適切に切り替えることはできなかった。
そこで、本開示は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、ユーザによって操作されるカメラワークの撮影映像と、ユーザ以外の主体によって操作されるカメラワークの撮影映像とをより適切に切り替えることが可能な、新規かつ改良された情報処理装置、情報処理方法およびプログラムを提供することにある。
本開示によれば、ユーザの動作に関する情報を取得する取得部と、前記ユーザの動作に関する情報に基づいて、前記ユーザによって操作される第1のカメラワークに対応する第1の表示領域と、前記ユーザ以外の主体によって操作される第2のカメラワークに対応する第2の表示領域の切り替えを制御する制御部と、を備える、情報処理装置が提供される。
また、本開示によれば、ユーザの動作に関する情報を取得することと、前記ユーザの動作に関する情報に基づいて、前記ユーザによって操作される第1のカメラワークに対応する第1の表示領域と、前記ユーザ以外の主体によって操作される第2のカメラワークに対応する第2の表示領域の切り替えを制御することと、を有する、コンピュータにより実行される情報処理方法が提供される。
また、本開示によれば、ユーザの動作に関する情報を取得することと、前記ユーザの動作に関する情報に基づいて、前記ユーザによって操作される第1のカメラワークに対応する第1の表示領域と、前記ユーザ以外の主体によって操作される第2のカメラワークに対応する第2の表示領域の切り替えを制御することと、をコンピュータに実現させるためのプログラムが提供される。
以上説明したように本開示によれば、ユーザによって操作されるカメラワークの撮影映像と、ユーザ以外の主体によって操作されるカメラワークの撮影映像とをより適切に切り替えることが可能になる。
なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
本実施形態に係るHMD100の一例を示す図である。 ユーザによって操作される第1のカメラワークと、ユーザ以外の主体によって操作される第2のカメラワークの一例を示す図である。 ウィンドウの表示態様の一例を示す図である。 ウィンドウの表示態様の一例を示す図である。 ウィンドウの表示態様の一例を示す図である。 ウィンドウの表示態様の一例を示す図である。 ウィンドウの表示態様の一例を示す図である。 ウィンドウの表示態様の一例を示す図である。 ウィンドウの表示態様の一例を示す図である。 ウィンドウの表示態様の一例を示す図である。 本実施形態に係るHMD100の機能構成例を示すブロック図である。 映像コンテンツの進行もしくは内容の制御例を示す図である。 映像コンテンツの進行もしくは内容の制御例を示す図である。 ウィンドウの切り替えに関する処理フローの一例を示すフローチャートである。 ウィンドウの制御に関する処理フローの一例を示すフローチャートである。 映像コンテンツの進行の制御に関する処理フローの一例を示すフローチャートである。 本実施形態に係るHMD100を具現する情報処理装置900のハードウェア構成例を示すブロック図である。 コントローラ200の一例を示す図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は以下の順序で行うものとする。
1.背景
2.機能概要
3.機能構成例
4.処理フローの例
5.ハードウェア構成例
6.備考
7.まとめ
<1.背景>
まず、本開示の背景について説明する。
例えば、ユーザがテレビやヘッドマウントディスプレイ(以降、「HMD」と呼称する)等を用いて映像コンテンツを視聴する場合、製作者によって操作されるカメラワークの撮影映像のみが提供されるとユーザの欲求が満たされない場合がある。例えば、ユーザが撮影映像中のあるオブジェクトに興味をもち当該オブジェクトを注視していても、製作者によって操作されるカメラワークは、ユーザの興味を考慮することなく撮影を行うため、ユーザは当該オブジェクトをよく見ることができない場合がある(例えば、当該オブジェクトが画角から外れる等)。
他方、自由視点技術等によって実現される、ユーザによって操作されるカメラワークの撮影映像のみが提供されると、ユーザは常に(または頻繁に)移動操作を行わなければ所望の撮影映像を見ることができないため、ユーザへの負荷が高くなり、長時間の視聴には適さない。特に、映像コンテンツがサッカー中継等である場合のように、被写体が移動する空間が広くなるほど、ユーザへの負荷はより高くなる。そこで、ユーザによって操作されるカメラワークの撮影映像と、製作者によって操作されるカメラワークの撮影映像とを適切に切り替えることが求められている。
しかし、上記のとおり、特許文献1の技術等によっては、ユーザによって操作されるカメラワークの撮影映像と、製作者によって操作されるカメラワークの撮影映像とを適切に切り替えることはできなかった。
本件の開示者は、上記事情に鑑みて、本開示を創作するに至った。本開示は、ユーザの動作に基づいてユーザによって操作される第1のカメラワークの撮影映像を表示する第1のウィンドウと、ユーザ以外の主体によって操作される第2のカメラワークの撮影映像を表示する第2のウィンドウの切り替えを制御する。以降では、本開示を詳細に説明していく。
<2.機能概要>
上記では、本開示の背景について説明した。続いて、本開示の機能概要について説明する。
本開示は、様々な装置やシステムに適用され得るところ、以降では、一例として、本開示が図1に示すような遮蔽型のHMD100に適用された場合について説明する。HMD100は、ユーザの頭部に装着され、撮影映像を眼前のディスプレイに表示する情報処理装置である。なお、HMD100の形状は図1に示された形状に限定されない。例えば、必ずしもユーザの視界全体が覆われていなくてもよい。
HMD100は、全天球映像が表示される映像コンテンツ(以降、「全天球映像コンテンツ」と呼称する)、または、自由視点映像が表示される映像コンテンツ(以降、「自由視点映像コンテンツ」と呼称する)等を提供する。なお、HMD100が提供する映像コンテンツは、撮影と並行してリアルタイムに提供されるコンテンツ、または、過去に収録されたコンテンツのうちのいずれでもよい。また、HMD100が提供する映像コンテンツの内容も特に限定されず、例えば、ゲーム、映画またはミュージックビデオ等を含むとする。
そして、HMD100は、ユーザの所定の動作に基づいて、ユーザによって操作される第1のカメラワークに対応する第1の表示領域と、ユーザ以外の主体(例えば、映像コンテンツの製作者等)によって操作される第2のカメラワークに対応する第2の表示領域の切り替えを制御する。なお、ユーザに提供される映像コンテンツは実写間を撮像した映像に限られず、予め任意に作成された仮想空間の映像であっても良い。この場合、ユーザに対して提供される仮想空間の一部の領域もまた撮影映像として見做され得る。すなわち、本開示において第1の表示領域は、ユーザによって操作される第1のカメラワークの撮影映像(実空間映像の一部または仮想空間映像の一部)を示す表示領域として見做され得る。一方、第2の表示領域は、ユーザ以外の主体によって操作される第2のカメラワークの撮影映像(実空間映像の一部または仮想空間映像の一部)を表示する表示領域として見做され得る。本開示において、これらの撮影映像を表示する表示領域を、便宜上、第1のウィンドウ、第2のウィンドウという場合がある。なお、本開示において、上記表示領域がHMDのスクリーン全体(ユーザの視界)を占める場合も、便宜上、第1の(第2の)ウィンドウと称する点に留意されたい。すなわち、本開示におけるウィンドウとは、平面的な表示領域やユーザが視認可能な境界を有する表示領域に限定されない点に留意されたい。
例えば、HMD100が卓球の試合に関する自由視点映像コンテンツを提供する場合を一例として考える。このとき、図2の2Aには、ユーザ以外の主体によって操作される第2のカメラワーク10が示されている。ユーザ以外の主体が当該映像コンテンツの製作者である場合、製作者は、試合展開に応じてより適切な映像が撮影されるように第2のカメラワーク10を決定する。なお、ユーザ以外の主体は、映像コンテンツの製作者に限定されない。例えば、ユーザ以外の主体は、ユーザ以外の他のユーザ(例えば、卓球の試合を観戦している他のユーザ、相手選手を応援している他のユーザ、または、芸能人等のようにカリスマ性を有するユーザ等)であり、第2のカメラワーク10は他のユーザの視点と同期していてもよい。また、ユーザ以外の主体は、映像コンテンツソフトウェア自体であり、第2のカメラワーク10は、映像コンテンツソフトウェアが空間メタ情報(例えば、選手もしくはボールの位置に関する情報等)を解析することで自律的に制御するものであってもよい。なお、自由視点映像コンテンツが提供される場合、第2のカメラワーク10(換言すると、カメラの位置)は、製作者等のユーザ以外の主体によって操作されるが、撮影映像の内容(換言すると、カメラが撮影する方向もしくは画角等)はユーザの操作によって制御され得るとする。
他方、図2の2Bには、ユーザによって操作される第1のカメラワーク11が示されている。HMD100は、ユーザの眼球を撮影可能な態様で設置されたカメラ(以降、「内向きカメラ」と呼称する)、ジャイロセンサ、加速度センサまたは方位センサ等を備えている。そして、HMD100は、これらのセンサによって取得される各種センサ情報を解析することで、HMD100を装着しているユーザの頭部の姿勢または視線を認識することができる。そして、ユーザは、HMD100を装着した状態で、頭部の姿勢や視線を変えたり、移動したりすることによって、第1のカメラワーク11(換言すると、ユーザの視点)を変更し、所望の映像をディスプレイに表示させることができる。
そして、HMD100は、ユーザの所定の動作に基づいて、第1のカメラワーク11の撮影映像を表示する第1のウィンドウと、第2のカメラワーク10の撮影映像を表示する第2のウィンドウを切り替える。例えば、図3に示すように、HMD100は、第1のウィンドウまたは第2のウィンドウのいずれか一方のウィンドウ12をHMD100のディスプレイ全体に表示している状態で、ユーザによって所定の動作が行われた場合に、他方のウィンドウに切り替えてもよい。
また、HMD100は、図3以外にも様々な態様で第1のウィンドウと第2のウィンドウの切り替えを行うことができる。例えば、図4に示すように、HMD100は、第1のウィンドウまたは第2のウィンドウをユーザの視界に同時に提供し、ユーザによって所定の動作が行われた場合に、第1のウィンドウと第2のウィンドウを切り替えてもよい。より具体的には、HMD100は、一方のウィンドウ13に対して、他方のウィンドウ14を重畳的に表示している状態で、所定の動作が行われた場合に、第1のウィンドウと第2のウィンドウを切り替えてもよい。これによって、ユーザは、2種類のウィンドウが存在することを認識することができ、必要に応じてこれらのウィンドウを切り替えることができる。
また、図5に示すように、HMD100は、第1のウィンドウまたは第2のウィンドウのいずれか一方のウィンドウ15に対して、他方のウィンドウ16を重畳的に表示する際に、他方のウィンドウ16の位置、大きさまたは形状等を制御することで、ユーザがより見易い映像を表示してもよい。より具体的には、HMD100は、ウィンドウ15に表示されているオブジェクト(図中における選手)に重畳しないようにウィンドウ16の位置、大きさまたは形状等を制御してもよい。これによって、ユーザは、より簡単にウィンドウ15およびウィンドウ16を見比べることができ、より簡単にオブジェクトを見ることができる。また、ユーザは、所望の撮影映像を表示する第1のウィンドウが表示された状態でも、第2のウィンドウに表示される(製作者等から提供される)重要なシーンを見逃さない。なお、ウィンドウ16は、単に重畳的に表示されるだけでなく、あたかもウィンドウ15の世界に設置された仮想的なディスプレイに見えるような態様で表示されてもよい(例えば、ディスプレイにおけるウィンドウ16の表示位置がユーザの視界と連動する等)。
また、図6に示すように、HMD100は、第1のウィンドウまたは第2のウィンドウのいずれか一方のウィンドウ17に表示されている重要度の高いオブジェクト(以降、「重要オブジェクト」と呼称する)に重畳しないように他方のウィンドウ23の位置、大きさまたは形状等を制御してもよい。なお、重要オブジェクトは、ウィンドウ17において相対的に高い表示優先度を有するオブジェクトとして見做されてもよい。より具体的には、図6における重要オブジェクトが選手18、選手19、ボール20、卓球台21および審判22である場合、HMD100は、これらの各重要オブジェクトに重畳しないようにウィンドウ23の位置、大きさまたは形状等を決定しv、ウィンドウ23を重畳的に表示してもよい。これによって、ユーザは、より簡単に重要オブジェクトを見ることができる。
また、図7の7Aに示すように、重畳的に表示されるウィンドウ24が任意のオブジェクト25に対して中途半端に重畳している場合(例えば、ウィンドウ24がオブジェクト25における所定の割合以上かつ所定の割合以下の領域に重畳している場合)、HMD100は、7Bに示すように、オブジェクト25の大分部(例えば、オブジェクト25における所定の割合以上の領域)が隠れるようにウィンドウ24の位置、大きさまたは形状等を決定し、ウィンドウ24を重畳的に表示してもよい。ウィンドウ24が任意のオブジェクト25に対して中途半端に重畳している場合、ユーザは不快感を覚える可能性があるため、上記の対応により、HMD100は、ユーザに与える不快感を軽減させることができる。
また、図8の8Aに示すように、第1のウィンドウまたは第2のウィンドウのいずれか一方のウィンドウ26に、他方のウィンドウ27を重畳的に表示できる十分な広さの領域が無い場合、HMD100は、8Bに示すように、ウィンドウ26に対応する撮影映像を縮小することで、ウィンドウ27を表示する領域(面積)を確保してもよい。なお、HMD100は、ウィンドウ27を表示できる十分な広さの領域を確保できれば、ウィンドウ26に対応する撮影映像の縮小ではなく、ウィンドウ26に対応するカメラの画角を広げたり、ウィンドウ26に対応するカメラの位置を後ろに変更したりしてもよい。
また、図9に示すように、HMD100は、第1のウィンドウまたは第2のウィンドウのいずれか一方のウィンドウ28に複数のカメラをそれぞれ示す複数のオブジェクト30(図中には、オブジェクト30a〜オブジェクト30cが示されている)を表示してもよい。ユーザは、複数のオブジェクト30の中から所望のオブジェクト30を選択することで、選択したオブジェクト30に対応するカメラからの撮影映像をディスプレイに表示させることができる。なお、ユーザが選択したオブジェクト30に対応するカメラからの撮影映像は、ウィンドウ28およびウィンドウ29のいずれに表示されてもよい。また、HMD100は、図9に示すように、重畳的に表示されているウィンドウ29に対応するカメラを示すオブジェクト30に所定のマーク31を付加してもよい。これによって、ユーザは、ウィンドウ29に表示されている映像の撮影位置を認識することができる。
なお、HMD100は、複数のカメラをそれぞれ示す複数のオブジェクト30を、重畳的に表示されているウィンドウ29中に表示してもよい。そして、HMD100は、ウィンドウ28に対応するカメラを示すオブジェクト30に所定のマーク31を付加してもよい。
また、会場全体(例えば、卓球の試合会場等)を上方向から俯瞰する映像(以降、「俯瞰映像」と呼称する)が用意され、俯瞰映像中にカメラを示すオブジェクトが表示されてもよい。ユーザは、俯瞰映像中のオブジェクトの中から所望のオブジェクトを選択することで、選択したオブジェクトに対応するカメラからの撮影映像をディスプレイに表示させることができる。
なお、上記で説明したディスプレイの表示態様はあくまで例であり、適宜柔軟に変更され得る。
ここで、ウィンドウの切り替えのトリガとなるユーザの所定の動作について説明すると、第2のウィンドウ(製作者等により提供される撮影映像が表示されるウィンドウ)が第1のウィンドウ(ユーザ所望の撮影映像が表示されるウィンドウ)よりも大きい状態から、第1のウィンドウが第2のウィンドウよりも大きい状態への切り替えについては、例えば、ユーザが立ち上がる動作、ユーザが首を動かす動作、ユーザが所定のコントローラを持ち上げる動作、ユーザが所定のコントローラのボタンを押下する動作、ユーザが一定以上の時間にわたり特定の被写体を注視し続ける動作、または、ユーザが一定以上の時間にわたり第1のウィンドウ(または、図9の、カメラを示すオブジェクト30のいずれか)を注視し続ける動作等が含まれる。なお、ディスプレイ全体に第2のウィンドウが表示されている状態から、ディスプレイ全体に第1のウィンドウが表示される状態への切り替えについても同様である(この場合、切り替え前のディスプレイには、第2のウィンドウしか表示されていないため、ユーザが一定以上の時間にわたり第1のウィンドウを注視し続ける動作は含まれない)。
反対に、第1のウィンドウが第2のウィンドウよりも大きい状態から、第2のウィンドウが第1のウィンドウよりも大きい状態への切り替えについては、例えば、ユーザが座る動作、ユーザが首を動かす動作、ユーザが所定のコントローラを置く動作、ユーザが所定のコントローラのボタンを押下する動作、ユーザが一定以上の時間にわたり特定の被写体を注視し続ける動作、ユーザが一定以上の時間にわたり第2のウィンドウ(または、図9の、カメラを示すオブジェクト30のいずれか)を注視し続ける動作、または、ユーザが一定以上の時間にわたり移動操作を行わないこと等が含まれる。なお、ディスプレイ全体に第1のウィンドウが表示されている状態から、ディスプレイ全体に第2のウィンドウが表示される状態への切り替えについても同様である(この場合、切り替え前のディスプレイには、第1のウィンドウしか表示されていないため、ユーザが一定以上の時間にわたり第2のウィンドウを注視し続ける動作は含まれない)。
なお、ウィンドウの切り替え方法は上記に限定されない。例えば、図10の10Aに示すように、自由視点映像コンテンツがディスプレイに表示されている状態で、ユーザが壁へ入り込む動作をした場合(10Aの矢印方向に移動した場合)、10Bに示すように、複数のカメラからの撮影映像をそれぞれ示す複数のウィンドウ32(図中には、ウィンドウ32a〜ウィンドウ32cが示されている)が表示されている空間への遷移が行われてもよい。そして、ユーザは、複数のウィンドウ32のいずれかに入り込む動作(または、一定以上の時間にわたり複数のウィンドウ32のいずれかを注視し続ける動作等)をすることで、ディスプレイに所望のウィンドウ32を表示させることができる。自由視点映像コンテンツにおいては、カメラによって撮影されない範囲にユーザが入り込む(めり込む)ことができてしまう場合がある。この場合、従来、ディスプレイ全体を暗転させる等の対応がとられていたが、この対応ではユーザが不快感を覚える可能性がある。その点、HMD100は、上記の対応をとることによって、暗転等によりユーザが不快感を覚えることを防止し、かつ、ユーザがより簡単に所望のウィンドウを選択することを可能にする。
また、HMD100は、ユーザの動作に基づいて映像コンテンツの進行もしくは内容を制御することもできる。例えば、ユーザが撮影映像中の任意のオブジェクトを一定以上の時間にわたり注視し続けた場合、HMD100は、映像コンテンツの進行を一時的に中断したり、進行速度を遅くしたりすることができる。詳細については後述する。
<3.機能構成例>
上記では、本開示の機能概要について説明した。続いて、図11を参照して、HMD100の機能構成例について説明する。
図11に示すように、HMD100は、センサ部110と、操作入力部120と、制御部130と、表示部140と、スピーカ150と、通信部160と、記憶部170と、を備える。
(センサ部110)
センサ部110は、ユーザまたは周辺環境に関する各種センサ情報を取得する取得部として機能する機能構成である。例えば、センサ部110は、内向きカメラ111、ジャイロセンサ112、加速度センサ113および方位センサ114を備える。なお、センサ部110は、外向きカメラ、マイクロホン、測位センサまたはTOF(Time-of-Flight)センサ等を含むその他のセンサを備えていてもよい。また、各センサは複数あってもよい。また、これらの各センサがHMD100以外の外部装置(または、外部システム)に備えられており、各種センサ情報は外部装置から取得されてもよい。センサ部110は、取得した各種センサ情報を制御部130へ提供する。
(内向きカメラ111)
内向きカメラ111は、撮像レンズ、絞り、ズームレンズ、およびフォーカスレンズ等により構成されるレンズ系、レンズ系に対してフォーカス動作やズーム動作を行わせる駆動系、レンズ系で得られる撮像光を光電変換して撮像信号を生成する固体撮像素子アレイ等を各々備える機能構成である。固体撮像素子アレイは、例えばCCD(Charge Coupled Device)センサアレイや、CMOS(Complementary
Metal Oxide Semiconductor)センサアレイにより実現されてもよい。
(ジャイロセンサ112)
ジャイロセンサ112は、例えば3軸ジャイロセンサにより実現され、角速度(回転速度)を検出する機能構成である。
(加速度センサ113)
加速度センサ113は、例えば3軸加速度センサ(Gセンサとも呼称される)により実現され、移動時の加速度を検出する機能構成である。
(方位センサ114)
方位センサ114は、例えば3軸地磁気センサ(コンパス)により実現され、絶対方向(方位)を検出する機能構成である。
(操作入力部120)
操作入力部120は、ユーザによる入力を受ける機能構成であり、ユーザの動作に関する情報を取得する取得部としても機能する。例えば、操作入力部120はマウス、キーボード、タッチパネル、ボタン、スイッチまたはマイクロホン等の入力手段を備えており、ユーザはこれらを用いて各種の入力を行うことができる。操作入力部120は、入力された内容を制御部130に提供する。なお、操作入力部120が備える入力手段はこれらに限定されない。
(制御部130)
制御部130は、HMD100が行う処理全般を統括的に制御する機能構成である。例えば、制御部130は、制御情報を生成することによって、表示部140またはスピーカ150等を含む各機能構成の起動や停止を制御することができる。なお、制御部130の制御内容はこれに限定されない。例えば、制御部130は、HMD100を含む任意の情報処理装置によって一般的に行われる処理を制御してもよい。本実施形態においては、制御部130は、認識エンジン131、切替制御部132、ウィンドウ制御部133およびコンテンツ制御部134を備える。
(認識エンジン131)
認識エンジン131は、センサ部110により取得された各種センサ情報を用いてユーザまたは周辺の各種状況を認識する機能構成である。より具体的には、認識エンジン131は、頭部姿勢認識エンジン131aおよび視線認識エンジン131bを含む。なお、認識エンジン131は、Depth認識エンジン、SLAM(Simultaneous
Localization and Mapping)認識エンジン、音声認識エンジン、位置認識エンジンまたは行動認識エンジン等を含むその他の認識エンジンを備えていてもよい。
(頭部姿勢認識エンジン131a)
頭部姿勢認識エンジン131aは、センサ部110により取得された各種センサ情報を用いて、ユーザの頭部の姿勢(身体に対する顔の向きまたは傾きを含む)を認識する機能構成である。例えば頭部姿勢認識エンジン131aは、ジャイロセンサ112により取得されたジャイロ情報、加速度センサ113により取得された加速度情報または方位センサ114により取得された方位情報の少なくともいずれかを解析して、ユーザの頭部の姿勢を認識し得る。なお頭部姿勢の認識アルゴリズムは一般的に知られているアルゴリズムを用いてもよく、本実施形態では特に限定しない。
(視線認識エンジン131b)
視線認識エンジン131bは、センサ部110により取得された各種センサ情報を用いて、ユーザの視線検出を行う機能構成である。例えば、視線認識エンジン131bは、内向きカメラ111により取得されたユーザの眼の撮影映像を解析して、ユーザの視線方向を認識する。なお、視線検出のアルゴリズムは特に限定されないが、視線認識エンジン131bは、例えば、目頭と虹彩の位置関係、または角膜反射(プルキニエ像等)と瞳孔の位置関係に基づいて視線検出を実現し得る。また、視線認識エンジン131bは、のHMD100の正面を視線方向とみなしてもよい。
(切替制御部132)
切替制御部132は、ウィンドウの切り替えを制御する機能構成である。より具体的には、上記の認識エンジン131が各種センサ情報を解析することでユーザによる所定の動作を検出した場合、または、操作入力部120から所定の入力が行われた場合、切替制御部132は、ユーザによって操作される第1のカメラワークの撮影映像を表示する第1のウィンドウと、ユーザ以外の主体(例えば、映像コンテンツの製作者等)によって操作される第2のカメラワークの撮影映像を表示する第2のウィンドウを切り替える。なお、ウィンドウの切り替えのトリガとなるユーザの所定の動作例については上述のとおりである。切替制御部132は、ウィンドウの切り替えを行う旨を通知する制御情報を生成し、ウィンドウ制御部133へ提供する。
(ウィンドウ制御部133)
ウィンドウ制御部133は、ディスプレイに表示されるウィンドウを制御する機能構成である。より具体的には、ウィンドウの切り替えを行う旨を通知する制御情報が切替制御部132から提供された場合、ウィンドウ制御部133は、例えば、上記の図3〜図8で説明した表示態様のうち、いずれの態様でウィンドウを表示させるかを決定する。ウィンドウの表示態様の決定方法は特に限定されない。例えば、ウィンドウの表示態様は予め決定されていてもよいし、ユーザ入力等に基づいて決定されてもよい。
そして、ウィンドウ制御部133は、決定した表示態様を実現するための各種処理を行う。例えば、ウィンドウの表示態様が図5に示したものである場合、ウィンドウ制御部133は、所定の画像解析処理等によってウィンドウ15に表示されているオブジェクト(図中における選手)を認識し、当該オブジェクトに重畳しないようにウィンドウ16の位置、大きさまたは形状等を決定する。そして、ウィンドウ制御部133は、決定に基づいて制御情報を生成し、表示部140に提供することで図5の表示態様を実現する。なお、ウィンドウ16の形状は、例えば、四角形を含む多角形、楕円形を含む円形、その他任意の形状(例えば、星形等)を含む。
また、ウィンドウの表示態様が図6に示したものである場合、ウィンドウ制御部133は、所定の画像解析処理等によってウィンドウ17における重要オブジェクトの表示有無および表示位置を認識する。例えば、ウィンドウ制御部133は、ウィンドウ17に表示されている各オブジェクトの特徴量を抽出し、事前に抽出された重要オブジェクトの特徴量と比較することで重要オブジェクトの表示有無および表示位置を認識する。そして、ウィンドウ制御部133は、重要オブジェクトに重畳しないようにウィンドウ23の位置、大きさまたは形状等を決定する。なお、重要オブジェクトの決定方法は特に限定されない。例えば、重要オブジェクトは、予め決定されていてもよいし、ユーザが注視しているオブジェクトやユーザが指定したオブジェクトであってもよい。また、重要オブジェクトは、あるオブジェクト全体ではなく一部分だけを指してもよい。
また、ウィンドウの表示態様が図7に示したものである場合、ウィンドウ制御部133は、所定の画像解析処理等によってウィンドウ24が任意のオブジェクト25に対して中途半端に重畳していないかを確認する。より具体的には、ウィンドウ制御部133は、ウィンドウ24がオブジェクト25における所定の割合以上かつ所定の割合以下の領域に重畳していないかを確認する。ウィンドウ24が任意のオブジェクト25に対して中途半端に重畳している場合、ウィンドウ制御部133は、オブジェクト25の大分部が隠れるようにウィンドウ24の位置、大きさまたは形状等を決定する。より具体的には、ウィンドウ制御部133は、オブジェクト25における所定の割合以上の領域が隠れるようにウィンドウ24の位置、大きさまたは形状等を決定する。なお、オブジェクト25の、ウィンドウ24に収まりきらない部分については、ぼかし加工が施されたり、削除されたりしてもよい。
また、ウィンドウの表示態様が図8に示したものである場合、ウィンドウ制御部133は、ウィンドウ26において、オブジェクト(重要オブジェクト等を指し、背景等を除く)が表示されておらず、かつ、ウィンドウ27を重畳的に表示可能な十分な広さの領域を探索する。より具体的には、ウィンドウ制御部133は、ウィンドウ26において、オブジェクトが表示されておらず、かつ、ウィンドウ27を重畳的に表示可能な所定値以上の面積を有する領域を探索する。このような領域が存在しない場合、ウィンドウ制御部133は、ウィンドウ26に対応する撮影映像を縮小することで、ウィンドウ27を表示する領域を確保する。なお、上記のとおり、ウィンドウ27を表示する領域を確保可能であれば、撮影映像の縮小以外の対応がとられてもよい。
なお、ウィンドウ制御部133によるウィンドウの制御内容は上記に限定されない。例えば、上記の制御内容は複数組み合わされてもよい。
また、ウィンドウが重畳的に表示される場合、ユーザにとって当該ウィンドウの境界が分かりづらくなる場合がある。そこで、ウィンドウ制御部133は、重畳的に表示させるウィンドウの周辺領域をぼかしたり、ウィンドウの周辺領域の輝度を下げたり、ウィンドウに枠を設けたりすることでウィンドウの境界を明確にしてもよい。
(コンテンツ制御部134)
コンテンツ制御部134は、ユーザの動作に基づいて映像コンテンツの進行もしくは内容を制御する機能構成である。より具体的には、上記の認識エンジン131が各種センサ情報を解析することでユーザの所定の動作を検出した場合、または、ユーザが操作入力部120から所定の入力をする動作を行った場合、コンテンツ制御部134は、映像コンテンツの進行もしくは内容を変更する。
映像コンテンツの進行の変更についてより具体的に説明すると、コンテンツ制御部134は、各種パラメータを変更することで、映像コンテンツの進行速度を早くしたり、遅くしたり、中断したりすること等を行う。
例えば、HMD100を装着したユーザが、ある街の全天球映像を見ながら散策することができる録画された街歩きコンテンツを視聴する場合において、図12の12Aに示すように、撮影映像中のオブジェクト(図中では、看板)に対応する領域33を注視していることが認識エンジン131によって認識されたとする。この場合、ユーザは領域33に対応するオブジェクトに対して興味を示していると考えられるため、例えば、街歩きコンテンツが進行し、12Bに示すように、領域33に対応するオブジェクトがディスプレイの中央付近の表示されたタイミングで、コンテンツ制御部134は、再生を一時中断したり、再生速度を遅くしたりしてもよい。これによって、ユーザは当該オブジェクトをよく見ることができる。
また、ユーザが首を盛んに動かして周囲を見回していることが認識エンジン131によって認識された場合、コンテンツ制御部134は、ユーザが撮影映像中で何かを探索していると判断して、再生を中断したり、再生速度を遅くしたりしてもよい。また、ユーザが視聴動作としては不自然な動作(例えば、HMD100を外す動作等)をしていることが認識エンジン131によって認識された場合、コンテンツ制御部134は、ユーザが映像コンテンツの視聴を中断していると判断し、再生を一時中断してもよい。また、複数人のユーザが同期して映像コンテンツを視聴している際に、その中のいずれかのユーザが上記のような動作をした場合には、全ユーザが視聴している映像コンテンツの再生が一時中断されたり、再生速度が遅くされたりしてもよい。
そして、ユーザが上記の動作を止めた場合、または、再生の一時中断等が行われてから一定以上の時間が経過した場合等に、コンテンツ制御部134は、再生を再開したり、再生速度を通常の速度に戻したりしてもよい。
映像コンテンツの内容の変更についてより具体的に説明すると、例えば、HMD100を装着したユーザが、自由視点のスポーツコンテンツを視聴する場合において、図13の13Aに示すように、撮影映像中のオブジェクト(図中では、選手)に対応する領域34を注視していることが認識エンジン131によって認識されたとする。この場合、ユーザは領域34に対応するオブジェクトに対して興味を示していると考えられるため、例えば、コンテンツ制御部134は、13Bに示すように、当該オブジェクトが画角から外れないように各種パラメータ(例えば、画角、視点、拡大もしくは縮小倍率等)を決定してもよい。これによって、ユーザは当該オブジェクトをよく見続けることができる。
また、ユーザが、自由視点の街歩きコンテンツを視聴する場合において、撮影映像中のオブジェクトに対応する領域を注視していることが認識エンジン131によって認識されたとする。この場合、コンテンツ制御部134は、視点の移動を一時中断したり、当該オブジェクトが良く見えるように視点を移動したり、当該オブジェクトが時間の経過と共に消滅したり変化したりするものである場合には、消滅または変化のタイミングを遅らせたりしてもよい。また、首の動きが少ない等、ユーザが映像コンテンツに飽きてきたことが認識エンジン131によって認識された場合、コンテンツ制御部134は視点の移動を行ってもよい。
また、コンテンツ制御部134は、映像コンテンツで発生するイベントの内容等を制御してもよい。例えば、HMD100を装着したユーザが、自由視点のゲームコンテンツをプレイする場合において、映像中のオブジェクトに対応する領域または特定の方向を注視していることが認識エンジン131によって認識されたことをトリガに、コンテンツ制御部134は所定のイベントを発生させてもよい。また、ユーザが反対の方向を注視し続けている場合には、コンテンツ制御部134は、所定のイベントの発生を遅らせたり、別のイベントを発生させたりしてもよい。また、ユーザが、動いている複数のオブジェクトの中からいずれのオブジェクトを追尾対象として選択するかに基づいて、コンテンツ制御部134は発生させるイベント(またはその後のストーリー)を決定してもよい。
なお、上記はあくまで一例であり、映像コンテンツの制御内容は適宜変更され得る。例えば、コンテンツ制御部134は、ユーザによる発話もしくはジェスチャ等に基づいて映像コンテンツの進行もしくは内容を制御してもよい。また、例えば、第1のウィンドウ(ユーザ所望の撮影映像が表示されるウィンドウ)から第2のウィンドウ(製作者等により提供される撮影映像が表示されるウィンドウ)への切り替えが行われる間に、コンテンツ制御部134は、第1のウィンドウの表示によってユーザが見逃したシーンをハイライトシーンとして提供してもよい。また、ユーザが一度HMD100を外した後に再びHMD100を装着した場合、コンテンツ制御部134は、ユーザがHMD100を外した際に一時中断したシーンから少し巻き戻して(所定の時間だけ巻き戻して)再生を再開してもよい。
また、全天球映像コンテンツが撮影される際に、カメラが回転すると撮影映像も回転したものとなる。ユーザが、このように回転した撮影映像を見ると不快感を覚える可能性があるため、コンテンツ制御部134は、所定の画像処理を施すことで撮影映像の回転を補正し固定化した後の映像をユーザに提供してもよい。撮影映像の回転の補正方法は特に限定されない。
(表示部140)
表示部140は、ディスプレイ等であり、制御部130の制御に従って、各種情報を表示する機能構成である。例えば、表示部140は、制御部130の切替制御部132によって切り替えられ、かつ、ウィンドウ制御部133によって指定された態様で第1のウィンドウまたは第2のウィンドウを表示する。また、表示部140は、コンテンツ制御部134によって進行もしくは内容が制御された映像コンテンツを各ウィンドウに表示する。
(スピーカ150)
スピーカ150は、制御部130の制御に従って、音声信号を再生する機能構成である。
(通信部160)
通信部160は、有線もしくは無線により他の装置との間でデータの送受信を行う機能構成である。通信部160は、例えば有線LAN(Local Area Network)、無線LAN、Wi−Fi(Wireless Fidelity、登録商標)、赤外線通信、Bluetooth(登録商標)、近距離もしくは非接触通信等の方式で、外部機器と直接もしくはネットワークアクセスポイントを介して無線通信する。
(記憶部170)
記憶部170は、上述した制御部130が各機能を実行するためのプログラム、パラメータまたは画像データ等を記憶する機能構成である。例えば記憶部170には、表示部140が表示する映像コンテンツに関する画像データ等が記憶されている。
以上、HMD100の機能構成例について説明した。なお、図11を用いて説明した上記の機能構成はあくまで一例であり、HMD100の機能構成は係る例に限定されない。例えば、HMD100は、図11に示す機能構成の全てを必ずしも備えなくてもよい。また、HMD100の機能構成は、仕様や運用に応じて柔軟に変形可能である。
<4.処理フローの例>
上記では、HMD100の機能構成例について説明した。続いて、HMD100の処理フローの例について説明する。
(ウィンドウの切り替えに関する処理フロー)
まず、図14を参照して、HMD100によるウィンドウの切り替えに関する処理フローについて説明する。
ステップS1000では、HMD100の表示部140が、製作者によって操作される第2のカメラワークの撮影映像を表示する第2のウィンドウを表示していたとする。ステップS1004にて、認識エンジン131がセンサ部110からの各種センサ情報に基づいてユーザによる所定の動作を検出した場合(ステップS1004/Yes)、ステップS1008にて、切替制御部132が、ユーザによって操作される第1のカメラワークの撮影映像を表示する第1のウィンドウへの切り替えを行う。ここで、切替制御部132は、ディスプレイ全体を第1のウィンドウに切り替えてもよいし、第1のウィンドウと、第1のウィンドウに重畳するように第2のウィンドウが表示されたディスプレイに切り替えてもよい。
ステップS1012にて、認識エンジン131がセンサ部110からの各種センサ情報に基づいて、ユーザが一定以上の時間にわたり移動操作を行っていないことを認識した場合(ステップS1012/Yes)、ステップS1016にて、切替制御部132は、第2のウィンドウへの切り替えを行う。ここでも上記と同様に、切替制御部132は、ディスプレイ全体を第2のウィンドウに切り替えてもよいし、第2のウィンドウと、第2のウィンドウに重畳するように第1のウィンドウが表示されたディスプレイに切り替えてもよい。なお、図14に示す処理フローは、映像コンテンツが起動している間に繰り返し行われることを想定している。
なお、ウィンドウの切り替えに関する処理フローは上記に限定されない。例えば、ステップS1004にて、認識エンジン131がユーザによる所定の動作を検出した場合だけでなく、ユーザが操作入力部120から所定の入力を行った場合等においても、切替制御部132はウィンドウの切り替えを行ってもよい。その他、フローチャートは、適宜変更され得る。
(ウィンドウの制御に関する処理フロー)
続いて、図15を参照して、HMD100によるウィンドウの制御に関する処理フローについて説明する。より具体的には、図15には、第1のウィンドウまたは第2のウィンドウのいずれか一方のウィンドウに対して、他方のウィンドウが重畳的に表示される場合において、重畳的に表示される他方のウィンドウの表示制御に関する処理フローが示されている。当該処理フローは、例えば、図14のステップS1008またはステップS1016におけるウィンドウの切り替えの際に実行され得る。
ステップS1100では、HMD100のウィンドウ制御部133がウィンドウの表示態様を決定する。より具体的には、ウィンドウ制御部133が、第1のウィンドウまたは第2のウィンドウのいずれか一方のウィンドウに対して、他方のウィンドウを重畳的に表示する旨を決定する。ステップS1104では、ウィンドウ制御部133が、ディスプレイにおいて重要オブジェクトが表示されていない領域を探索する。
そして、ウィンドウ制御部133が、ディスプレイにおいて重要オブジェクトが表示されていない十分な広さの領域(所定値以上の面積を有する領域)を検出することができない場合(ステップS1108/No)、ステップS1112にて、ウィンドウ制御部133は、より大きなウィンドウ(例えば、図8におけるウィンドウ26)に対応するカメラの位置を後ろに変更する。これによって、ウィンドウ制御部133が、十分な広さの領域(所定値以上の面積を有する領域)を検出することができた場合(ステップS1108/Yes)、ステップS1116にて、ウィンドウ制御部133は、検出された領域へ重畳的にウィンドウを表示させる旨の制御情報を生成し、表示部140へ提供することで、表示部140が検出された領域へ重畳的にウィンドウを表示する。
なお、ウィンドウの制御に関する処理フローは上記に限定されない。例えば、ステップS1112にて、ウィンドウ制御部133は、より大きなウィンドウに対応するカメラの位置を後ろに変更するのではなく、より大きなウィンドウに対応する撮影映像を縮小すること等によって十分な広さの領域を確保してもよい。その他、フローチャートは、適宜変更され得る。
(映像コンテンツの進行の制御に関する処理フロー)
続いて、図16を参照して、HMD100による映像コンテンツの進行の制御に関する処理フローについて説明する。
ステップS1200では、HMD100のコンテンツ制御部134が全天球映像コンテンツを再生しているとする。ステップS1204にて、認識エンジン131がセンサ部110からの各種センサ情報に基づいてユーザが撮影映像中の任意のオブジェクトを注視していることを検出した場合(ステップS1204/Yes)、ステップS1208にて、コンテンツ制御部134は、全天球映像コンテンツの再生を一時中断する。
ステップS1212にて、ユーザがオブジェクトへの注視を止めたことを認識エンジン131が検出した場合(ステップS1212/Yes)、ステップS1216にて、コンテンツ制御部134は、全天球映像コンテンツの再生を再開する。
なお、映像コンテンツの進行の制御に関する処理フローは上記に限定されない。例えば、ステップS1208にて、コンテンツ制御部134は、全天球映像コンテンツの再生速度を遅くしてもよい。また、コンテンツ制御部134は、ユーザの動作に基づいて、映像コンテンツの進行だけでなく映像コンテンツの内容を制御してもよい。
また、図14〜図16に示したフローチャートにおける各ステップは、必ずしも記載された順序に沿って時系列に処理する必要はない。すなわち、フローチャートにおける各ステップは、記載された順序と異なる順序で処理されても、並列的に処理されてもよい。
<5.ハードウェア構成例>
上記では、HMD100の処理フローの例について説明した。続いて、HMD100のハードウェア構成例について説明する。上記で説明してきた各種処理は、ソフトウェアと、以下に説明するハードウェアとの協働により実現される。
図17は、HMD100を具現する情報処理装置900のハードウェア構成例を示すブロック図である。情報処理装置900は、CPU(Central Processing Unit)901と、ROM(Read Only Memory)902と、RAM(Random Access Memory)903と、ホストバス904と、ブリッジ905と、外部バス906と、インタフェース907と、入力装置908と、出力装置909と、ストレージ装置(HDD)910と、ドライブ911と、通信装置912とを備える。
CPU901は、演算処理装置および制御装置として機能し、各種プログラムに従って情報処理装置900の動作全般を制御する。また、CPU901は、マイクロプロセッサであってもよい。ROM902は、CPU901が使用するプログラムや演算パラメータ等を記憶する。RAM903は、CPU901の実行において使用するプログラムや、その実行において適宜変化するパラメータ等を一時記憶する。これらはCPUバスなどから構成されるホストバス904により相互に接続されている。当該CPU901、ROM902およびRAM903の協働により、制御部130の機能が実現される。
ホストバス904は、ブリッジ905を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス906に接続されている。なお、必ずしもホストバス904、ブリッジ905および外部バス906を分離構成する必要はなく、1つのバスにこれらの機能を実装してもよい。
入力装置908は、マウス、キーボード、タッチパネル、ボタン、マイクロホン、スイッチおよびレバーなどユーザが情報を入力するための操作入力部120や、各種センサ情報を入力するセンサ部110として機能し、入力に基づいて入力信号を生成し、CPU901に出力する入力制御回路などから構成されている。
出力装置909は、例えば、CRT(Cathode Ray Tube)ディスプレイ装置、液晶ディスプレイ(LCD)装置、OLED(Organic Light Emitting Diode)装置およびランプなどの表示装置を含む。さらに、出力装置909は、スピーカおよびヘッドホンなどの音声出力装置を含む。出力装置909は、映像データ等の各種情報をイメージまたはテキストで表示する。一方、音声出力装置は、音声データ等を音声に変換して出力する。当該出力装置909により、表示部140またはスピーカ150の機能が実現される。
ストレージ装置910は、記憶部170の一例として構成されたデータ格納用の装置である。ストレージ装置910は、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置および記憶媒体に記録されたデータを削除する削除装置などを含んでもよい。ストレージ装置910は、例えば、HDD(Hard Disk Drive)で構成される。このストレージ装置910は、ハードディスクを駆動し、CPU901が実行するプログラムや各種データを格納する。
ドライブ911は、記憶媒体用リーダライタであり、情報処理装置900に内蔵、あるいは外付けされる。ドライブ911は、装着されている磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリ等のリムーバブル記憶媒体913に記録されている情報を読み出して、RAM903に出力する。また、ドライブ911は、リムーバブル記憶媒体913に情報を書き込むこともできる。
通信装置912は、例えば、通信網914に接続するための通信デバイス等で構成された通信インタフェースである。当該通信装置912により、通信部160の機能が実現される。
なお、情報処理装置900のハードウェア構成は、図17に示す構成に限られない。例えば、情報処理装置900は、接続されている外部の通信デバイスを介して通信を行う場合には、通信装置912を備えていなくてもよい。また、通信装置912は、複数の通信方式によって通信を行うことが可能な構成であってもよい。また、例えば、図17に示す構成の一部または全部は、1または2以上のIC(Integrated Circuit)で実現されてもよい。
<6.備考>
上記では、HMD100のハードウェア構成例について説明した。続いて、図18を参照して、本実施形態において使用可能なコントローラ200の具体例について説明する。例えば、ユーザは、コントローラ200を用いて、第1のウィンドウと第2のウィンドウの切り替え等を制御することができる。
当該コントローラ200は、ユーザが片手で把持可能な小型のコントローラであり、図18に示すように、上方向ボタン210と、下方向ボタン220と、Enterボタン230と、UPボタン240と、を備える。
(上方向ボタン210、下方向ボタン220)
上方向ボタン210または下方向ボタン220は、切り替え先のウィンドウを選択するボタンである。例えば、図9のカメラを示すオブジェクト30がディスプレイに表示されている場合、ユーザは、上方向ボタン210または下方向ボタン220を押下することで、順方向または逆方向に各オブジェクト30を選択すること(例えば、フォーカスを移動させること)ができる。
(Enterボタン230)
Enterボタン230は、切り替え先のウィンドウを決定し切り替えを実行するボタンである。例えば、ユーザは、上方向ボタン210または下方向ボタン220を用いて切り替え先のウィンドウを選択した状態(例えば、所望のカメラを示すオブジェクト30がフォーカスされている状態)で、Enterボタン230を押下することで、切り替え先のウィンドウを決定し切り替えを実行する。
(UPボタン240)
UPボタン240は、俯瞰映像へ移動するボタンである。例えば、ユーザは、UPボタン240を押下することで、映像コンテンツの会場全体(例えば、卓球の試合会場等)を上方向から俯瞰する映像をディスプレイに表示させることができる。そして、この俯瞰映像には、複数のカメラをそれぞれ示す複数のオブジェクトが表示されており、ユーザは、上記の各ボタンを押下することで切り替え先のウィンドウの選択、決定およびウィンドウの切り替えを実行することができる。
なお、上記はあくまで一例であり、コントローラ200における各ボタンの機能は適宜変更され得る。例えば、上方向ボタン210または下方向ボタン220は、切り替え先のウィンドウの選択ではなく、順方向または逆方向にウィンドウの切り替えを実行してもよい。また、切り替え先のウィンドウの選択は、カメラを示すオブジェクトの注視等によって実現されてもよい。
<7.まとめ>
以上で説明してきたように、本開示は、ユーザの動作に基づいて、ユーザによって操作される第1のカメラワークの撮影映像を表示する第1のウィンドウと、ユーザ以外の主体によって操作される第2のカメラワークの撮影映像を表示する第2のウィンドウの切り替えを制御することができる。
また、本開示は、様々な態様で第1のウィンドウまたは第2のウィンドウを表示させることができ、仮に、第1のウィンドウまたは第2のウィンドウのいずれか一方に対して、他方を重畳的に表示する場合、それぞれのウィンドウの表示態様を適切に制御することができる。さらに、本開示は、ユーザの動作に基づいて映像コンテンツの進行もしくは内容を制御することもできる。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
また、上記のとおり、本開示は、HMD100以外の様々な装置やシステムに適用され得る。例えば、本開示は、テレビ、スマートフォン、平面ディスプレイ装置または3Dディスプレイ装置等(特に、視線トラッキング機能付きの装置等)に適用されてもよい。また、本開示は、網膜直描方式のHMDや、プロジェクションマッピングを利用した映像提供に適用されてもよい。この場合、本開示の表示領域は、それぞれユーザの網膜及び実空間の所定の面に対応する。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
ユーザの動作に関する情報を取得する取得部と、
前記ユーザの動作に関する情報に基づいて、前記ユーザによって操作される第1のカメラワークに対応する第1の表示領域と、前記ユーザ以外の主体によって操作される第2のカメラワークに対応する第2の表示領域の切り替えを制御する制御部と、を備える、
情報処理装置。
(2)
前記制御部は、前記第1の表示領域と前記第2の表示領域を前記ユーザの視界に同時に提供するよう表示装置を制御する、
前記(1)に記載の情報処理装置。
(3)
前記制御部は、前記第1の表示領域または前記第2の表示領域のいずれか一方の表示領域に対して、他方の表示領域を重畳的に表示させる、
前記(2)に記載の情報処理装置。
(4)
前記制御部は、前記他方の表示領域の位置、大きさまたは形状を制御する、
前記(3)に記載の情報処理装置。
(5)
前記制御部は、前記一方の表示領域において相対的に高い表示優先度を有するオブジェクトに重畳させないように前記他方の表示領域を表示させる、
前記(4)に記載の情報処理装置。
(6)
前記制御部は、前記一方の表示領域に表示されているオブジェクトにおける所定の割合以上の領域に重畳させるように前記他方の表示領域を表示させる、
前記(4)に記載の情報処理装置。
(7)
前記制御部は、前記一方の表示領域に対応するカメラの位置を後退させること、前記カメラの画角を広げること、または、前記カメラの撮影映像を縮小することによって前記他方の表示領域を表示するための表示面積を確保する、
前記(3)から(6)のいずれか1項に記載の情報処理装置。
(8)
前記制御部は、前記第1のカメラワークもしくは前記第2のカメラワークに対応するオブジェクトを、前記一方の表示領域もしくは前記他方の表示領域に表示させる、
前記(3)から(7)のいずれか1項に記載の情報処理装置。
(9)
前記ユーザの動作は、前記ユーザが立ち上がる動作、前記ユーザが座る動作、前記ユーザが首を動かす動作、前記ユーザが所定のコントローラを持ち上げる動作、前記ユーザが前記コントローラを置く動作、前記ユーザが前記コントローラのボタンを押下する動作、前記ユーザが一定以上の時間にわたり特定の被写体を注視し続ける動作、前記ユーザが一定以上の時間にわたり前記一方の表示領域もしくは前記他方の表示領域を注視し続ける動作、前記ユーザが前記一方の表示領域もしくは前記他方の表示領域に入り込む動作、または、前記ユーザが一定以上の時間にわたり移動操作を行わないことを含む、
前記(3)から(8)のいずれか1項に記載の情報処理装置。
(10)
前記第2の表示領域は、前記第1の表示領域内に表示されるウィンドウである、
前記(1)から(9)のいずれか1項に記載の情報処理装置。
(11)
前記ユーザ以外の主体は、映像コンテンツの製作者、前記ユーザ以外の前記映像コンテンツを視聴するユーザ、または、映像コンテンツソフトウェアを含む、
前記(1)から(10)のいずれか1項に記載の情報処理装置。
(12)
前記映像コンテンツは、自由視点映像コンテンツまたは全天球映像コンテンツを含む、
前記(11)に記載の情報処理装置。
(13)
前記制御部は、前記ユーザの動作に関する情報に基づいて映像コンテンツの進行もしくは内容を制御する、
前記(1)から(12)のいずれか1項に記載の情報処理装置。
(14)
前記情報処理装置は、遮蔽型のヘッドマウントディスプレイを含む、
前記(1)から(13)のいずれか1項に記載の情報処理装置。
(15)
ユーザの動作に関する情報を取得することと、
前記ユーザの動作に関する情報に基づいて、前記ユーザによって操作される第1のカメラワークに対応する第1の表示領域と、前記ユーザ以外の主体によって操作される第2のカメラワークに対応する第2の表示領域の切り替えを制御することと、を有する、
コンピュータにより実行される情報処理方法。
(16)
ユーザの動作に関する情報を取得することと、
前記ユーザの動作に関する情報に基づいて、前記ユーザによって操作される第1のカメラワークに対応する第1の表示領域と、前記ユーザ以外の主体によって操作される第2のカメラワークに対応する第2の表示領域の切り替えを制御することと、
をコンピュータに実現させるためのプログラム。
100 HMD
110 センサ部
111 内向きカメラ
112 ジャイロセンサ
113 加速度センサ
114 方位センサ
120 操作入力部
130 制御部
131 認識エンジン
131a 頭部姿勢認識エンジン
131b 視線認識エンジン
132 切替制御部
133 ウィンドウ制御部
134 コンテンツ制御部
140 表示部
150 スピーカ
160 通信部
170 記憶部
200 コントローラ
210 上方向ボタン
220 下方向ボタン
230 Enterボタン
240 UPボタン

Claims (16)

  1. ユーザの動作に関する情報を取得する取得部と、
    前記ユーザの動作に関する情報に基づいて、前記ユーザによって操作される第1のカメラワークに対応する第1の表示領域と、前記ユーザ以外の主体によって操作される第2のカメラワークに対応する第2の表示領域の切り替えを制御する制御部と、を備える、
    情報処理装置。
  2. 前記制御部は、前記第1の表示領域と前記第2の表示領域を前記ユーザの視界に同時に提供するよう表示装置を制御する、
    請求項1に記載の情報処理装置。
  3. 前記制御部は、前記第1の表示領域または前記第2の表示領域のいずれか一方の表示領域に対して、他方の表示領域を重畳的に表示させる、
    請求項2に記載の情報処理装置。
  4. 前記制御部は、前記他方の表示領域の位置、大きさまたは形状を制御する、
    請求項3に記載の情報処理装置。
  5. 前記制御部は、前記一方の表示領域において相対的に高い表示優先度を有するオブジェクトに重畳させないように前記他方の表示領域を表示させる、
    請求項4に記載の情報処理装置。
  6. 前記制御部は、前記一方の表示領域に表示されているオブジェクトにおける所定の割合以上の領域に重畳させるように前記他方の表示領域を表示させる、
    請求項4に記載の情報処理装置。
  7. 前記制御部は、前記一方の表示領域に対応するカメラの位置を後退させること、前記カメラの画角を広げること、または、前記カメラの撮影映像を縮小することによって前記他方の表示領域を表示するための表示面積を確保する、
    請求項3に記載の情報処理装置。
  8. 前記制御部は、前記第1のカメラワークもしくは前記第2のカメラワークに対応するオブジェクトを、前記一方の表示領域もしくは前記他方の表示領域に表示させる、
    請求項3に記載の情報処理装置。
  9. 前記ユーザの動作は、前記ユーザが立ち上がる動作、前記ユーザが座る動作、前記ユーザが首を動かす動作、前記ユーザが所定のコントローラを持ち上げる動作、前記ユーザが前記コントローラを置く動作、前記ユーザが前記コントローラのボタンを押下する動作、前記ユーザが一定以上の時間にわたり特定の被写体を注視し続ける動作、前記ユーザが一定以上の時間にわたり前記一方の表示領域もしくは前記他方の表示領域を注視し続ける動作、前記ユーザが前記一方の表示領域もしくは前記他方の表示領域に入り込む動作、または、前記ユーザが一定以上の時間にわたり移動操作を行わないことを含む、
    請求項3に記載の情報処理装置。
  10. 前記第2の表示領域は、前記第1の表示領域内に表示されるウィンドウである、
    請求項1に記載の情報処理装置。
  11. 前記ユーザ以外の主体は、映像コンテンツの製作者、前記ユーザ以外の前記映像コンテンツを視聴するユーザ、または、映像コンテンツソフトウェアを含む、
    請求項1に記載の情報処理装置。
  12. 前記映像コンテンツは、自由視点映像コンテンツまたは全天球映像コンテンツを含む、
    請求項11に記載の情報処理装置。
  13. 前記制御部は、前記ユーザの動作に関する情報に基づいて映像コンテンツの進行もしくは内容を制御する、
    請求項1に記載の情報処理装置。
  14. 前記情報処理装置は、遮蔽型のヘッドマウントディスプレイを含む、
    請求項1に記載の情報処理装置。
  15. ユーザの動作に関する情報を取得することと、
    前記ユーザの動作に関する情報に基づいて、前記ユーザによって操作される第1のカメラワークに対応する第1の表示領域と、前記ユーザ以外の主体によって操作される第2のカメラワークに対応する第2の表示領域の切り替えを制御することと、を有する、
    コンピュータにより実行される情報処理方法。
  16. ユーザの動作に関する情報を取得することと、
    前記ユーザの動作に関する情報に基づいて、前記ユーザによって操作される第1のカメラワークに対応する第1の表示領域と、前記ユーザ以外の主体によって操作される第2のカメラワークに対応する第2の表示領域の切り替えを制御することと、
    をコンピュータに実現させるためのプログラム。
JP2018066734A 2018-03-30 2018-03-30 情報処理装置、情報処理方法およびプログラム Pending JP2019179080A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018066734A JP2019179080A (ja) 2018-03-30 2018-03-30 情報処理装置、情報処理方法およびプログラム
PCT/JP2019/005205 WO2019187732A1 (ja) 2018-03-30 2019-02-14 情報処理装置、情報処理方法およびプログラム
US16/982,870 US11477433B2 (en) 2018-03-30 2019-02-14 Information processor, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018066734A JP2019179080A (ja) 2018-03-30 2018-03-30 情報処理装置、情報処理方法およびプログラム

Publications (1)

Publication Number Publication Date
JP2019179080A true JP2019179080A (ja) 2019-10-17

Family

ID=68060518

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018066734A Pending JP2019179080A (ja) 2018-03-30 2018-03-30 情報処理装置、情報処理方法およびプログラム

Country Status (3)

Country Link
US (1) US11477433B2 (ja)
JP (1) JP2019179080A (ja)
WO (1) WO2019187732A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021172027A1 (ja) * 2020-02-25 2021-09-02 株式会社コロプラ プログラム、情報処理方法、及び情報処理装置
JP2023522654A (ja) * 2020-05-11 2023-05-31 株式会社ソニー・インタラクティブエンタテインメント 複数のカメラからの合成入力を使用してビデオを生成するための仮想カメラ位置のユーザ選択

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111240482B (zh) * 2020-01-10 2023-06-30 北京字节跳动网络技术有限公司 一种特效展示方法及装置

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10201958A (ja) * 1996-11-21 1998-08-04 Konami Co Ltd ビデオゲームシステムにおける得点場面再生装置、該再生方法及び得点場面再生プログラムを記憶した媒体
JP2002336542A (ja) * 2001-05-14 2002-11-26 Yukes:Kk ビデオゲーム装置、ビデオゲーム画面制御プログラム及びその記録媒体
CN102710976B (zh) * 2005-07-22 2014-12-10 袋鼠传媒股份有限公司 用于增强观众参与现场体育赛事的体验的设备和方法
JP2008186324A (ja) * 2007-01-31 2008-08-14 Namco Bandai Games Inc プログラム、情報記憶媒体及びゲーム装置
JP2010141662A (ja) * 2008-12-12 2010-06-24 Panasonic Corp 画像表示装置、テレビ会議装置、および画像表示方法
US8555169B2 (en) * 2009-04-30 2013-10-08 Apple Inc. Media clip auditioning used to evaluate uncommitted media content
JP5300777B2 (ja) * 2010-03-31 2013-09-25 株式会社バンダイナムコゲームス プログラム及び画像生成システム
JP5652046B2 (ja) * 2010-08-10 2015-01-14 株式会社セガ ビデオゲーム装置、ビデオゲーム制御方法、制御プログラム、および、記録媒体
EP3550527B1 (en) * 2013-04-04 2021-07-07 Sony Corporation Information processing device, information processing method and program
JP5884816B2 (ja) * 2013-12-16 2016-03-15 コニカミノルタ株式会社 透過型hmdを有する情報表示システム及び表示制御プログラム
JP2015187797A (ja) * 2014-03-27 2015-10-29 シャープ株式会社 画像データ生成装置および画像データ再生装置
JP6130478B1 (ja) * 2015-12-15 2017-05-17 株式会社コロプラ プログラム及びコンピュータ
TWI626851B (zh) * 2017-03-14 2018-06-11 宏正自動科技股份有限公司 影像切換裝置、影像切換系統及影像切換方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021172027A1 (ja) * 2020-02-25 2021-09-02 株式会社コロプラ プログラム、情報処理方法、及び情報処理装置
JP7438786B2 (ja) 2020-02-25 2024-02-27 株式会社コロプラ プログラム、情報処理方法、及び情報処理装置
JP2023522654A (ja) * 2020-05-11 2023-05-31 株式会社ソニー・インタラクティブエンタテインメント 複数のカメラからの合成入力を使用してビデオを生成するための仮想カメラ位置のユーザ選択
JP7462069B2 (ja) 2020-05-11 2024-04-04 株式会社ソニー・インタラクティブエンタテインメント 複数のカメラからの合成入力を使用してビデオを生成するための仮想カメラ位置のユーザ選択

Also Published As

Publication number Publication date
WO2019187732A1 (ja) 2019-10-03
US11477433B2 (en) 2022-10-18
US20210058609A1 (en) 2021-02-25

Similar Documents

Publication Publication Date Title
US10666856B1 (en) Gaze-directed photography via augmented reality feedback
CN110506249B (zh) 信息处理设备、信息处理方法和记录介质
US9838597B2 (en) Imaging device, imaging method, and program
JP2019510321A (ja) 仮想現実用パススルーカメラのユーザインターフェイス要素
JP2020080543A (ja) 撮像装置、方法及びプログラム
WO2019187732A1 (ja) 情報処理装置、情報処理方法およびプログラム
US20230094522A1 (en) Devices, methods, and graphical user interfaces for content applications
US10771707B2 (en) Information processing device and information processing method
US20210004081A1 (en) Information processing apparatus, information processing method, and program
CN109644235B (zh) 用于提供混合现实图像的方法、设备和计算机可读介质
JP6292658B2 (ja) 頭部装着型映像表示システム及び方法、頭部装着型映像表示プログラム
US20230336865A1 (en) Device, methods, and graphical user interfaces for capturing and displaying media
CN110895433B (zh) 用于增强现实中用户交互的方法和装置
KR20180094875A (ko) 정보 처리 장치, 정보 처리 방법, 및 프로그램
WO2019171802A1 (ja) 情報処理装置、情報処理方法およびプログラム
KR101810671B1 (ko) 전방향 영상의 방향 정보를 생성하는 방법 및 이러한 방법을 수행하는 장치
WO2018216402A1 (ja) 情報処理装置、情報処理方法、及びプログラム
JP2017126899A (ja) 画像処理装置および画像処理方法
JP5971298B2 (ja) 表示装置、表示方法
WO2019044135A1 (ja) 情報処理装置、情報処理方法、およびプログラム
KR20180102482A (ko) 전방향 영상의 방향 정보를 생성하는 방법 및 이러한 방법을 수행하는 장치
WO2020184188A1 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
WO2019138682A1 (ja) 情報処理装置、情報処理方法及びプログラム
US10783853B2 (en) Image provision device, method and program that adjusts eye settings based on user orientation
WO2023233488A1 (ja) 情報処理装置および情報処理方法