JP2018526847A - コンテンツ配信 - Google Patents

コンテンツ配信 Download PDF

Info

Publication number
JP2018526847A
JP2018526847A JP2017565065A JP2017565065A JP2018526847A JP 2018526847 A JP2018526847 A JP 2018526847A JP 2017565065 A JP2017565065 A JP 2017565065A JP 2017565065 A JP2017565065 A JP 2017565065A JP 2018526847 A JP2018526847 A JP 2018526847A
Authority
JP
Japan
Prior art keywords
display
visual content
secondary visual
viewer
content
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017565065A
Other languages
English (en)
Other versions
JP6567696B2 (ja
Inventor
ユッシ レッパネン
ユッシ レッパネン
アンッティ エロネン
アンッティ エロネン
アルト レフティニエミ
アルト レフティニエミ
Original Assignee
ノキア テクノロジーズ オーユー
ノキア テクノロジーズ オーユー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ノキア テクノロジーズ オーユー, ノキア テクノロジーズ オーユー filed Critical ノキア テクノロジーズ オーユー
Publication of JP2018526847A publication Critical patent/JP2018526847A/ja
Application granted granted Critical
Publication of JP6567696B2 publication Critical patent/JP6567696B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1423Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/12Synchronisation between the display unit and other units, e.g. other display units, video-disc players
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/4104Peripherals receiving signals from specially adapted client devices
    • H04N21/4122Peripherals receiving signals from specially adapted client devices additional display device, e.g. video projector
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • H04N21/4316Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations for displaying supplemental content in a region of the screen, e.g. an advertisement in a separate window
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4318Generation of visual interfaces for content selection or interaction; Content or additional data rendering by altering the content in the rendering process, e.g. blanking, blurring or masking an image region
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/488Data services, e.g. news ticker
    • H04N21/4886Data services, e.g. news ticker for displaying a ticker, e.g. scrolling banner for news, stock exchange, weather data
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/12Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels
    • G09G2340/125Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels wherein one of the images is motion video
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Marketing (AREA)
  • Business, Economics & Management (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

好適な実施形態は、第1ディスプレイが一次ビジュアルコンテンツと二次ビジュアルコンテンツとを表示している間、第1ディスプレイに対する視聴者の注視方向をモニタリングすることと、前記第1ディスプレイによって表示されている前記二次ビジュアルコンテンツの方に視聴者の視線が向かっているかどうか判断することと、前記第1ディスプレイとは異なる第2ディスプレイによって、前記二次ビジュアルコンテンツを拡張させることとを含む。【選択図】図7

Description

本発明の実施形態はコンテンツ配信に関連するものである。特に、本発明の実施形態は、拡張現実ディスプレイを使ったコンテンツ配信に関するものである。
背景
拡張現実はコンピュータ媒介現実の一形態であり、そこではユーザが、部分的にリアルかつ人工的/ヴァーチャルな環境を視覚的に経験する。拡張現実では、物理的にリアルな世界環境の現実のシーンが、装置によって視聴者に対して表示される、一つ以上のヴァーチャルな視覚的要素によって補足される。
摘要
本発明の様々な実施形態(必ずしも全ての実施形態ではない)によれば、次のような方法が提供される。この方法は、第1ディスプレイが一次ビジュアルコンテンツと二次ビジュアルコンテンツとを表示している間、前記第1ディスプレイに向いている視聴者の注視方向をモニタリングすることと、前記第1ディスプレイに表示された前記二次ビジュアルコンテンツの方に前記視聴者の視線が向かっているかを判断することと、前記第1ディスプレイとは異なる第2ディスプレイによって、前記二次ビジュアルコンテンツを拡張することとを含む。
本発明の様々な実施形態(必ずしも全ての実施形態ではない)によれば、次のような装置が提供される。この装置は、第1ディスプレイが一次ビジュアルコンテンツと二次ビジュアルコンテンツとを表示している間、前記第1ディスプレイに向いている視聴者の注視方向をモニタリングする手段と、前記第1ディスプレイによって表示された前記二次ビジュアルコンテンツの方に視聴者の視線が向かっているか判断する手段と、前記第1ディスプレイとは異なる第2ディスプレイによって、前記二次ビジュアルコンテンツを拡張する手段とを備える。
本発明の様々な実施形態(必ずしも全ての実施形態ではない)によれば、少なくとも1つのプロセッサで実行されると、次の処理を実行させるコンピュータプログラムコードが提供される。この処理は、第1ディスプレイが一次ビジュアルコンテンツと二次ビジュアルコンテンツとを表示している間、前記第1ディスプレイに向いている視聴者の注視方向をモニタリングすることと、前記第1ディスプレイに表示された前記二次ビジュアルコンテンツの方に前記視聴者の視線が向かっているか判断することと、前記第1ディスプレイとは異なる第2ディスプレイによって、前記二次ビジュアルコンテンツを拡張することとを含む。
一つ以上のコンピュータが、前記コンピュータプログラムコードを備えている。一つ以上のコンピュータプログラムが、一つ以上の持続性コンピュータ可読媒体に記憶されている。
本発明の様々な実施形態(必ずしも全ての実施形態ではない)によれば、少なくとも1つのプロセッサと、コンピュータプログラムコードを記憶している一つ以上のメモリとを備える装置を提供する。前記コンピュータプログラムコードは、少なくとも1つのプロセッサと協働し、第1ディスプレイが一次ビジュアルコンテンツと二次ビジュアルコンテンツとを表示している間、前記第1ディスプレイに向かっている視聴者の注視方向をモニタリングすることと、前記第1ディスプレイに表示された前記二次ビジュアルコンテンツの方に前記視聴者の視線が向かっているか判断することと、前記第1ディスプレイとは異なる第2ディスプレイによって前記二次ビジュアルコンテンツを拡張することとを、少なくとも前記装置に遂行させるように構成される。
本発明の様々な実施形態(但し必ずしも全ての実施形態ではない)によれば、装置の発明を特定する請求項に特定されるような例が提供される。
前述の詳細な説明を理解するために有用な種々の実施例の理解に資するべく、例として次の添付図面を参照する。
現実空間及び現実空間の視聴者を描いたものである。 視聴者が見ている現実空間のシーンを描いたものである。 拡張現実空間及び拡張現実空間の視聴者を描いたものである。 視聴者が見ている拡張現実空間のシーンを描いたものである。 装置の概略図を描いたものである。 装置の一例の斜視図を描いたものである。 目に見える、拡張現実空間を新規作成及び更新する方法を描いたものである。 現実空間の視聴者が見ている現実のシーンの一例を描いたものである。ここでは、現実のシーンを表示している第1ディスプレイが、一次ビジュアルコンテンツと二次ビジュアルコンテンツとを表示している。 コンテンツ配信の方法を描いたものである。 図7の現実のシーンを描いたものである。ここでは、ニュースティッカーアイテムの形態をとっている二次ビジュアルコンテンツに視聴者の視線が向かっている。 二次ビジュアルコンテンツが、第1ディスプレイとは異なる第2ディスプレイによって拡張されている、拡張現実シーンを描いたものである。 二次ビジュアルコンテンツが第2ディスプレイによって拡張されている、図9の拡張現実のシーンを描いたものである。 拡張された二次ビジュアルコンテンツが、第2ディスプレイに表示されなくなった後の現実のシーンを描いたものである。
詳細説明
本発明の実施形態はコンテンツ配信に関するものであり、特に、拡張現実ディスプレイを使用したコンテンツ配信に関するものである。
本発明の実施形態では、第1ディスプレイが一次ビジュアルコンテンツと二次ビジュアルコンテンツとを表示している間、第1ディスプレイに向かう視聴者の注視方向がモニタリングされている。一次ビジュアルコンテンツは、例えば、ニュース番組等のテレビ番組でもよい。また、二次ビジュアルコンテンツは、ニュースティッカー等の通知でもよい。
本発明の実施形態は、視聴者の視線が二次ビジュアルコンテンツに向かっていることを手がかりに、二次ビジュアルコンテンツが視聴者の注意を引いているかどうかを判断する。この場合、二次ビジュアルコンテンツが第2ディスプレイによって拡張され、できれば動画ビデオの形態でさらなる情報を視聴者に提供する。第2ディスプレイは、例えば、拡張現実ディスプレイであってもよい。
本発明の実施形態の技術的効果は、合理的で効率の高い方法でコンテンツ(二次ビジュアルコンテンツ)を提供することである。図を参照しながら、本発明の 実施形態のさらに詳細な説明を以下に示す。
図1Aは、現実空間の現実の物体11a、11b、11c及び視聴者18を含む現実空間10を描いたものである。「現実空間」という表現は、実在し、物理的で、3次元環境であることを指す。
視聴者18は、現実の視点14を有している。現実の視点14は、視聴者18によって変化する場合がある。例えば、現実の視点14の現実の位置13は視聴者18の位置であり、視聴者18の物理的な位置を変更することで変化しうる。視点14は、視聴者18の注視方向15に対応している。注視方向15は、例えば、視聴者18が頭の位置を変えたり、または、(頭の位置を変えるのと同時または別々に)目の位置を変えたりすることによって変化しうる。
図1Bは、図1Aの視聴者18が見ている現実のシーン12を描いたものである。「現実のシーン」という表現は、視聴者による特定の視点から見られている現実空間を指す。
図2Aは拡張現実空間20を描いたものであり、ここで、視聴者18が見ている現実空間10は、拡張現実ディスプレイによって拡張されている。この例において、拡張現実空間20は現実空間10からの現実の物体11a、11b、11c、及び、一以上の補足的、ヴァーチャル的、視覚的な要素21を含んでいる。視覚的な要素21はコンピュータで生成された要素であり、視聴者18によって目視可能である。視覚的な要素21は他の視聴者には見えても、見えなくてもよく、現実空間10を拡張するために使用する拡張現実ディスプレイに依存する。拡張現実空間は一部は実在する空間、一部は人工的/ヴァーチャルな空間である。
図2Bは、図2Aの視聴者18が見ている拡張現実シーン22を描いたものである。「拡張現実シーン」は一部は実在するシーンであり、一部は人工的/ヴァーチャルなシーンである。
図3は電子的な拡張現実ディスプレイ装置の形態をとった装置200の概略図を描いたものである。拡張現実ディスプレイ装置200は、例えば、ウェアラブル、ヘッドマウントな拡張現実ディスプレイ装置であってもよい。ウェアラブル、ヘッドマウントな拡張現実ディスプレイ装置200の斜視図を図4に示す。
他の実施形態では、装置200はヘッドマウントなディスプレイ装置でなくてもよい。具体例として、ホログラフィックディスプレイ装置がある。この場合も、ヘッドマントであっても、ヘッドマントでなくてもよい。
装置200はさらに装置100を備え、装置100も同様に、少なくとも1つのプロセッサ112とメモリ114を備える。装置100は、チップまたはチップセット等を備えていてもよい。
プロセッサ112は、メモリ114から読み出し、かつメモリ114へ書き込むように構成される。プロセッサ112は出力インタフェースと入力インタフェースを備えてもよい。データおよび/または命令は、プロセッサ112によって出力インタフェースを介して出力され、入力インタフェースを介してプロセッサ112に入力される。
メモリ114は、コンピュータプログラムコード/命令118であって、プロセッサ112にロードされるときに装置100/200の動作を制御する命令を含むコンピュータプログラム116を格納する。コンピュータプログラムコード命令118は、図5及び図7に例示した方法を装置100/200に遂行させることができる論理とルーチンを提供する。プロセッサ112は、メモリ114を読み取ることによりコンピュータプログラム116をロードして実行することができる。
図3に描かれるように、コンピュータプログラム116は、任意の適切な配信機構40を介して装置100/200に提供されてもよい。配信機構40は、例えば、非一時的なコンピュータ読取り可能記憶媒体、コンピュータプログラム製品、メモリデバイス、記録媒体、例えば、コンパクトディスク・リードオンリーメモリ(CD−ROM:compact disc read−only memory)またはデジタル多用途ディスク(DVD:digital versatile disc)、及び/またはコンピュータプログラム116を有形に具現した製造品であってもよい。配信機構40は、コンピュータプログラム116を確実に転送するように構成された信号であってもよい。信号は、例えば、(無線周波数の通信等)無線通信を介して、または、一以上のプロトコルに準拠した有線回線を介して送信される。装置200は、コンピュータデータ信号としてコンピュータプログラム116を伝達または伝送してもよい。
メモリ114は単独要素又は回路として示されているが、物理的に異なる複数の要素又は回路として実装されてもよい。こうした要素の一部または全部は組込み型でも着脱可能型でもよく、および/または永久/半永久/動的/キャッシュの記憶方式でもよい。
プロセッサ112は単独要素又は回路として示されているが、物理的に異なる複数の要素又は回路として実装されてもよい。こうした要素の一部または全部は組込み型でも着脱可能型でもよい。プロセッサ112はシングルコアのプロセッサでもよいし、マルチコアのプロセッサであってもよい。プロセッサ112は、例えば、中央処理装置(CPU)及び/またはグラフィック処理装置(GPU)を備えていてもよい。
実施例では、装置200はさらに拡張現実ディスプレイ202、一以上の追跡センサ204、一以上の現実空間センサ205、一以上の受信機206を備える。装置200の要素は、協働しうるように互いに接続される。またこれらの間には、様々な中間要素やその組合せが存在しうる(中間要素が存在しない場合もある)。装置200の要素100、202、204、205、206は同一筐体に備えられていてもよいし、別々に備えられていてもよい。
プロセッサ112は、拡張現実ディスプレイ202を制御するように構成されている。拡張現実ディスプレイ202は、ヴァーチャル、視覚的な要素を表示するように構成され、現実世界の物体及び拡張現実空間/現実のシーンを補足する。拡張現実ディスプレイ202は、例えば、少なくとも部分的に透過的/シースルーであってもよい。この場合、視聴者はディスプレイ202越しに現実の物体をみることができる。拡張現実ディスプレイ202は、例えば、有機発光ダイオード技術または液晶ディスプレイ技術を備えていてもよい。上述のように、拡張現実ディスプレイ202はホログラフィックディスプレイであってもよい。
一以上の追跡センサ204は、プロセッサ112への入力データの提供をするように構成されており、これにより、プロセッサ112は視聴者の視線をモニタリングすることができる。追跡センサ204は、(拡張現実ディスプレイ装置200の着用者等)視聴者の頭の動きを追跡したり、及び/または、視聴者の目の動きを追跡することにより、視聴者の視線を追跡するように構成されうる。
いくつかの例では、一以上の追跡センサ204がプロセッサ112に入力データの提供を行い、プロセッサ112が複数の視聴者の視線をモニタリングするように構成してもよい。例えば、プロセッサ112は入力データを使用し、拡張現実ディスプレイ202と異なるディスプレイの1名以上の視聴者の視線をモニタリングすることができる。
頭の動きを追跡するためのセンサは、例えば、一以上のジャイロスコープ、一以上の磁気計、一以上の加速度計及び/またはカメラを備える。目の動きを追跡するためのセンサは、例えば、一以上のカメラを備えてもよい。
一以上の現実空間センサ205は、プロセッサ112にデータ提供するように構成されている。一以上の現実空間センサ205は、一以上の赤外線センサ、超音波センサ、及び/または一以上のカメラ等、現実空間及び現実空間に実在する物体を検知及びマッピングするための一以上のセンサを備えることも可能である。
追跡センサ204及び現実空間センサ205は、実在する物体と視聴者との間の相対的な動き(視聴者の頭の動き、および/または視聴者の目の動き等)を検知するように構成されていてもよい。
一以上の受信機206は、データを受信し、プロセッサ112に対応する入力データを提供するように構成されている。一以上の受信機206は、一以上の無線受信機および/または一以上の有線受信機を備えることができる。このような無線受信機は、例えば、一以上の長距離用セルラー方式受信機または短距離用無線受信機の形態をとった無線周波数受信機を備えることができる。これらの受信機は、例えば、IEEE(Institute of Electrical and Electronic Engineers)の無線LANネットワーク802.11プロトコルまたはBluetooth(登録商標)プロトコルに準拠して動作してもよい。
装置200は、一以上の無線送信機および/または一以上の有線送信機をさらに備えることができる。上記送信機は、一以上の送受信機の一部を形成することにより、一以上の受信機206と一以上の構成要素を共有することができる。
図5は、目に見える、拡張現実空間を新規作成及び更新する方法を描いたものである。プロセッサ112はメモリ114にモデル117を蓄える。メモリ114は周期的に更新される。モデル117は、一以上の補助的、視覚的なヴァーチャル要素と共に、現実空間とそこに実在する物体のマップを含んでもよい。実施例では、図5のブロック501において、プロセッサ112はセンサ204、205によって提供される入力データに基づいてモデル117を生成する。プロセッサ112は、ブロック502において、拡張現実ディスプレイ202を制御することによってモデル117を適用し、視覚的なヴァーチャル要素を表示する。ブロック503では、センサ204、205が、視聴者の視点または現実空間にマッピングされた実在する物体に対して変化があるか否かを判断し、プロセッサ112に関連性のある入力データを提供する。ブロック504では、プロセッサ112が、拡張現実ディスプレイ202に表示されている視覚的なヴァーチャル要素に変化がある否か、変化がある場合にはそれらの変化が何かを判断する。その後、本方法はブロック501に戻る。ここで、ブロック503でのセンサ204、205からの入力データ、及び、ブロック504で判断されたヴァーチャルコンテンツの変化に基づいて、モデル117が更新される。
本発明の実施形態に従うさらなる方法を、図6〜11を参照しながら説明する。
図6は、キャビネット39の上に置かれた、実在する、有形の第1ディスプレイ51(実施例では、デバイス/テレビジョンセット45の部分を形成する)を含む現実のシーン12aを描いている。テレビジョンセット45は、図3及び図4に図示した装置200の一部を形成しない。
図6において、第1ディスプレイ51は一次ビジュアルコンテンツ52と二次ビジュアルコンテンツ53、54、55を同時に表示している。図示した実施例では、一次ビジュアルコンテンツ52は、テレビのニュース放送の形態をとった動画コンテンツである。動画コンテンツは、実質上、第1ディスプレイ51全体を使っている。
図示した実施例では、二次ビジュアルコンテンツ53−55である複数のアイテムがある。別の実施例では、二次ビジュアルコンテンツは1つのみであってもよい。第1、第2、第3の二次ビジュアルコンテンツ53−55が図示されている。二次ビジュアルコンテンツ53−55のそれぞれのアイテムは、実施例では、ニュースティッカーをいう形態をとった通知である。
実施例では、二次ビジュアルコンテンツ53−55は、一次ビジュアルコンテンツ52よりサイズが小さく、またオーバーレイ表示されている。二次ビジュアルコンテンツ53−55は、図6で参照符号70が付された矢印によって示されているように、第1ディスプレイ45を右から左に横切るように移動している。二次ビジュアルコンテンツ53−55それぞれのアイテムは、第1ディスプレイ51の右端47から第1ディスプレイ51に入り、第1ディスプレイ51の左端46から第1ディスプレイ51を出ていく。
他の実施例では、二次ビジュアルコンテンツ53−55は別の方向に移動してもよい。移動方向は、上述かつ図示したように一次元であってもよいし、多次元であってもよい。
装置200のプロセッサ112は、現実空間センサ205によって提供された入力データから、第1ディスプレイ51の存在を確認することができる。例えば、プロセッサ112は、カメラによって提供される入力データに対して画像処理を施し、第1ディスプレイ51の存在を確認することができる。
プロセッサ112は、現実空間センサ205によって提供される入力データを処理し、第1ディスプレイ51上の一次ビジュアルコンテンツ52の存在、並びに、二次ビジュアルコンテンツ53−55(それぞれ)の存在及び(変化している)位置を判断するように構成されていてもよい。
図7のブロック701では、第1ディスプレイ51が一次ビジュアルコンテンツ51及び二次ビジュアルコンテンツ53−55を表示している間、装置100/200のプロセッサ112が第1ディスプレイ51に向かう視聴者の注視方向をモニタリングする。これに関連し、第1ディスプレイ51が一次ビジュアルコンテンツ52及び二次ビジュアルコンテンツ53−55を表示している間、プロセッサ112、コンピュータプログラムコード118、コンピュータプログラムコード118を記憶するメモリ114は、第1ディスプレイ51に向かう視聴者の注視方向をモニタリングする手段を提供すると考えることができる。
例えば、視聴者は、装置200のユーザであってもよい。例えば、視聴者は、図4に示したヘッドマウントの着用者であってもよい。装置200がシースルー/透過的なディスプレイ202を備えている場合、現実のシーン12aはディスプレイ202越しに見ることができる。
プロセッサ112は、追跡センサ204及び現実空間センサ205によって提供される入力データを使用して、第1ディスプレイ51に向かう視聴者の注視方向をモニタリングすることができる。
上述したとおり、プロセッサ112は追跡センサ204によって提供される入力データを処理することによって、視聴者の注視方向を判断することができる。これは、視聴者18の頭の動き及び/または目の動きを追跡することを含む。
図7のブロック702では、プロセッサ112は、参照符号54が付された二次ビジュアルコンテンツのアイテムの方に視聴者の視線が向かっているかどうかを判断する。これに関連し、プロセッサ112、コンピュータプログラムコード118、コンピュータプログラムコード118が記憶されているメモリ114は、視聴者の視線が二次ビジュアルコンテンツの方に向かっているかどうか判断する手段を提供すると考えることができる。視聴者の視線が向かっている位置は、図8の斜線部分によって確認される。
図7のブロック703において、視聴者の視線が二次ビジュアルコンテンツ54の第2のアイテムの方に向いていることを確認後、プロセッサ112は二次ビジュアルコンテンツ(第2のアイテム)54を装置200の拡張現実ディスプレイ202によって拡張する。これに関連し、プロセッサ112、コンピュータプログラムコード118、コンピュータプログラムコード118を記憶するメモリ114は、拡張現実ディスプレイ202によって二次ビジュアルコンテンツ54を拡張する手段を提供すると考えることができる。
図9は、二次ビジュアルコンテンツ54の第2のアイテムが、第1ディスプレイ51の縁(例えば、左端46)に隣接する位置から拡張される工程を描いたものである。すなわち、図9は、拡張現実のシーン20aを描いたものである。
プロセッサ112は、二次ビジュアルコンテンツ54の第2のアイテムが移動中、そのアイテムの方に視聴者の視線が向かっているという判断、および、二次ビジュアルコンテンツ54の第2のアイテムが第1ディスプレイ51の端46に到達したという判断に基づいて、二次ビジュアルコンテンツ54の第2のアイテムをサイズ的に拡張させることができる。
いくつかの実施形態では、視聴者の視線が所定時間以上、二次ビジュアルコンテンツ54の第2のアイテムの方を向いていないと判断された場合には、プロセッサ112による二次ビジュアルコンテンツ54の拡張をしないようにしてもよい。
プロセッサ112は、例えば、二次ビジュアルコンテンツ54の第2のアイテムが第1ディスプレイ51の縁にたどり着く前に、視聴者の視線がそのアイテムの方を向いていたかを判断することができる。このときプロセッサ112は、前記アイテムが第1ディスプレイ51の縁にたどり着くまで、前記アイテムを拡張し始めなくともよい。上記のような例では、拡張現実ディスプレイ202によって二次ビジュアルコンテンツ54の第2のアイテムが拡張されている間、前記アイテムの動きは、視聴者18には、その拡張前の前記アイテムの動きと連続したものとしてとらえられる。また実際には、拡張している第2のアイテム54は、実施例では第1ディスプレイ51の縁(左端46)からスライドして出てくるように見える。
ディスプレイに二次ビジュアルコンテンツが表示されている間、視聴者の視線が二次ビジュアルコンテンツのアイテムの方に向いていないとプロセッサ112が判断した場合には、拡張はされなくてもよい。例えば、図の例では、二次ビジュアルコンテンツ53である1番目のアイテムは拡張されることなく、第1ディスプレイ51の縁(左端46)に到達し、第1ディスプレイ51から出ていく。
第1ディスプレイ51から出ていく二次ビジュアルコンテンツのアイテムは、二次ビジュアルコンテンツの他のアイテムと入れ替わることができる。例えば、二次ビジュアルコンテンツ53である1番目のアイテムが、第1ディスプレイの左端46から出て行った場合、二次ビジュアルコンテンツである4番目のアイテム56が第1ディスプレイ51の右端47から入ってくる。
拡張された二次ビジュアルコンテンツは、図2A及び2Bに示した視覚的、ヴァーチャル的な要素21の一例である。図9に示したように、プロセッサ112は、拡張現実ディスプレイ202を制御して二次ビジュアルコンテンツを拡張する場合、プロセッサ112は繰り返し図5に示した方法を実行し、拡張現実シーン20aの更新モデルを提供する。
図10は、装置200の拡張現実ディスプレイ202によって拡張された後の二次ビジュアルコンテンツ54の第2のアイテムを描いたものである。例えば、装置200がヘッドマウント拡張現実ディスプレイ装置である場合、拡張された二次ビジュアルコンテンツ54は、装着者のヘッドマウント拡張現実ディスプレイ装置でのみ見えて、第1ディスプレイ51の他の視聴者には見えない。
図示した例では、拡張された二次ビジュアルコンテンツ54は、第1ディスプレイ51の左端46に隣接して表示されている。
例えば、二次ビジュアルコンテンツ53−55が右から左に動く代わりに、第1ディスプレイ51の上端から下端に動く場合等は、二次ビジュアルコンテンツ54の第2のアイテムは、それが拡張している間、第1ディスプレイ51の下端からスライドして出ていってもよい。二次ビジュアルコンテンツ54の第2のアイテムの拡張は、視聴者18には、拡張前の第2のアイテム54の動きと連続しているように見えるであろう。また、拡張された第2のアイテム54は、第1ディスプレイ51の下端に隣接して表示されるであろう。
二次ビジュアルコンテンツ54の第2のアイテムが拡張されている間、二次ビジュアルコンテンツ57、58である5番目及び6番目のアイテムは、第1ディスプレイ51を横切る二次ビジュアルコンテンツの一連の動きの結果として、図10の第1ディスプレイに表示される。
二次ビジュアルコンテンツ54である拡張された第2のアイテムは、例えば、拡張前に提供された通知に関するさらなる情報を提供することができる。例えばそれは、通知で特定されたテーマに関連する動画であってもよい。二次ビジュアルコンテンツ54の第2のアイテムが完全に拡張した後、プロセッサ112は、拡張現実ディスプレイ202による動画コンテンツの再生をスタートさせることができる。
いくつかの実施形態では、プロセッサ112は、拡張された二次ビジュアルコンテンツである第2のアイテム54が拡張現実ディスプレイ202によって再生されている間、一次ビジュアルコンテンツ52を一時停止させることができる。これは、例えば、装置200の送信機に一次ビジュアルコンテンツ52を一時停止させるための(有線または無線)信号を送信させてもよい。
代替的に、プロセッサ112が(例えば、追跡センサ204によって提供された入力データから)、まだ視聴者の視線が第1ディスプレイ51に表示されている一次ビジュアルコンテンツ52の方にも向いていると判断した場合、拡張現実ディスプレイ202による二次ビジュアルコンテンツである拡張された第2のアイテム54の再生を開始させても、一次ビジュアルコンテンツ51の一時停止をしないようにすることもできる。
プロセッサ112は、拡張された二次ビジュアルコンテンツ54が再生されている間、視聴者の視線をモニタリングし続けることができる。拡張された二次ビジュアルコンテンツ54が再生されている間、視聴者の視線がコンテンツ54から(例えば、一定時間以上)逸れた場合、プロセッサ112は拡張現実ディスプレイ202から拡張された二次ビジュアルコンテンツ54を消去し、一次ビジュアルコンテンツ52が一時停止になっていた場合には、コンテンツ52の再生を再開させる。図11は、拡張された二次ビジュアルコンテンツ54の再生が終了し、一次ビジュアルコンテンツ52の再生が再開したのちの現実のシーン12aを描いたものである。図11は、二次ビジュアルコンテンツ58、59、60である6番目、7番目、8番目のアイテムが第1ディスプレイ51に表示されているのを描いたものである。
本発明の実施形態は、合理的かつ効率的な方法でコンテンツを視聴者に提供することができる。視聴者が興味のあるコンテンツのみを拡張し、視聴者が最も興味のあるコンテンツを見せることができる。
「コンピュータ可読記憶媒体」や「コンピュータプログラム製品」,「有形物として具現化されたコンピュータプログラム」等の用語や、「コンピュータ」、「プロセッサ」等の用語は、様々なアーキテクチャを有するコンピュータだけでなく、特殊回路もカバーものと理解すべきである。こうしたコンピュータのアーキテクチャには、シングル/マルチプロセッサ・アーキテクチャや、直列(ノイマン型)/並列アーキテクチャ等がある。特殊回路にはフィールドプログラマブルゲートアレイ(FPGA)や特定用途向け集積回路(ASIC)、シグナルプロセッシングデバイス、その他の処理回路等がある。コンピュータプログラムや命令,コード等の用語は、プログラマブルプロセッサやファームウェア用のソフトウェアもカバーするものと理解すべきである。こうしたものとして例えば、プロセッサに対する命令や、固定機能デバイス,ゲートアレイ,プログラマブルロジックデバイス等の構成設定といったハードウェアデバイスのプログラマブルコンテンツ等がある。
なお本願において使用される「回路(circuitry)」との語句は、次の全てを表す:
(a)ハードウェアのみの回路実装(アナログおよび/またはデジタル回路のみの実装等);
(b)回路とソフトウェア(および/またはファームウェア)の組合せ、例えば(適用可能である場合):(i)一つまたは複数のプロセッサ、または(ii)一つまたは複数のプロセッサ/ソフトウェア(デジタルシグナルプロセッサを含む)、ソフトウェア、一つまたは複数のメモリの一部(これらは協働して、携帯電話やサーバなどの装置に様々な機能を実行させる);
(c)一つまたは複数のマイクロプロセッサやその一部等の回路であって、動作するためにソフトウェアやファームウェアを必要とする回路(ソフトウェアやファームウェアは物理的に存在しなくてもよい)。
この「回路」の定義は、本願において当該用語を使う全ての場合において適用される。特許請求の範囲においても同様である。さらなる例として、本願で使用される場合、「回路(circuitry)」という用語は、単独(または複数)のプロセッサだけの実装やプロセッサの一部,付随するソフトウェアおよび/またはファームウェアによる実装も網羅するものである。「回路」という用語はまた、例えば、特許請求の範囲に記載される特定の要素をその範囲に含むことが可能な場合がある。例えば、携帯電話のベースバンド集積回路やアプリケーション処理集積回路を意味してもよく、サーバやセルラネットワークデバイス、その他のネットワークデバイスにおける同様の集積回路を意味してもよい。
図5及び図7に示すブロックは、方法のステップ、コンピュータプログラム116のコード区分の何れか又は全てを表わしてもよい。ブロックを特定の順序で図示することは、必須順序又は推奨順序の存在を必ずしも示唆していない。こうしたブロックの順序や配置構成は変更することができる。また、一部のブロックを省略することも可能である。
本願明細書及び図面において、本発明の様々な実施形態が様々な実施例と共に紹介されてきたが、当然のごとく、特許請求の範囲に特定される発明の範囲を逸脱することなく、紹介された実施形態を変形することができる。例えば、二次ビジュアルコンテンツは、第1ディスプレイ51の中で移動する必要はなく、第1ディスプレイ51の特定の位置にのみ表示され、移動することなく消えてもよい。
上述した実装では、二次ビジュアルコンテンツ53−60であるアイテムが第1ディスプレイ51(の左端46から)出ていくときは、二次ビジュアルコンテンツ53−60のうちの異なるアイテム(右端47から入っていたアイテム)と入れ替わった。他の実装では、上記のようにしなくてもよい。例えば、二次ビジュアルコンテンツ53−60のうちの特定のアイテムが第1ディスプレイから(例えば、左端46から)出ていく場合、(例えば、右端47から)第1ディスプレイ51に再度入ってもよい。二次ビジュアルコンテンツ53−60のうちの一つ以上のアイテムが、繰り返し、第1ディスプレイ51から出たり入ったりしてもよい。
これまでに記述してきた事項は、明示的に記述された組合せだけでなく、それ以外の組合せで用いられてもよい。
特定の事項を参照して種々の機能を記述してきたが、こうした機能は、記述の有無を問わずその他の事項によって遂行可能であってもよい。
特定の実施形態を参照して種々の事項を記述してきたが、こうした事項は、記述の有無を問わずその他の実施形態で用いられてもよい。
前述のように本明細書において、とりわけ重要であると考えられる本発明のこうした事項に注目するように努めてきた。しかし、前述した特許されうる全ての事項およびそれらの組合せに対して、参照された添付の図面にそうした事項が特段強調されていたかどうかにかかわらず、本出願人はその保護を求めるものである点を理解されたい。

Claims (16)

  1. 第1ディスプレイが一次ビジュアルコンテンツと二次ビジュアルコンテンツとを表示している間、前記第1ディスプレイに向かう視聴者の注視方向をモニタリングすることと、
    前記第1ディスプレイによって表示される前記二次ビジュアルコンテンツの方に前記視聴者の視線が向いているか判断することと、
    前記第1ディスプレイとは異なる第2のディスプレイによって前記二次ビジュアルコンテンツを拡張することと、
    を含む方法。
  2. 前記二次ビジュアルコンテンツは、前記二次ビジュアルコンテンツの拡張前に、前記第1ディスプレイ上で移動する、請求項1に記載の方法。
  3. 前記二次ビジュアルコンテンツは通知である、請求項2に記載の方法。
  4. 前記通知はニュースティッカーである、請求項3に記載の方法。
  5. 前記拡張された前記二次ビジュアルコンテンツは動画コンテンツである、請求項1から請求項4のいずれかに記載の方法。
  6. 前記第2ディスプレイが拡張現実ディスプレイである、請求項1から請求項5のいずれかに記載の方法。
  7. 前記拡張された前記二次ビジュアルコンテンツが前記拡張現実ディスプレイによって表示され、それによって、前記拡張された前記二次ビジュアルコンテンツが前記第1ディスプレイに隣接する位置に表れて前記拡張現実ディスプレイの視聴者に見えるようになる、請求項6に記載の方法。
  8. 前記二次ビジュアルコンテンツは、拡張される前に前記第1ディスプレイの端部付近まで前記第1ディスプレイ上を移動し、前記拡張された前記二次ビジュアルコンテンツは、前記第1ディスプレイの前記端部に隣接して表示される、請求項7に記載の方法。
  9. 前記拡張された前記二次ビジュアルコンテンツは、前記拡張現実ディスプレイの視聴者にとって、前記第1ディスプレイの端部からスライドして出ていくように見えるようにされた後、前記第1ディスプレイの前記端部に隣接して表示される、請求項8に記載の方法。
  10. 前記一次ビジュアルコンテンツは動画コンテンツである、請求項1から請求項9のいずれかに記載の方法。
  11. 前記拡張された前記二次ビジュアルコンテンツは動画コンテンツであり、前記一次ビジュアルコンテンツを一時停止することと、前記二次ビジュアルコンテンツの拡張に従って、前記二次ビジュアルコンテンツの前記動画コンテンツの再生を開始することとをさらに含む、請求項10に記載の方法。
  12. 前記拡張された前記二次ビジュアルコンテンツは動画コンテンツであり、前記一次ビジュアルコンテンツの方にさらに視聴者の視線が向かっているか判断することと、前記二次ビジュアルコンテンツの拡張に従って前記二次ビジュアルコンテンツの前記動画コンテンツの再生を開始することと、前記一次ビジュアルコンテンツの一時停止を控えることとをさらに含む、請求項10に記載の方法。
  13. 装置の少なくとも1つのプロセッサによって実行されると、前記装置に、請求項1から12に記載の方法を遂行させるように構成されるプログラム命令を備える、コンピュータプログラム。
  14. 第1ディスプレイが一次ビジュアルコンテンツと二次ビジュアルコンテンツとを表示している間、前記第1ディスプレイに向かう視聴者の注視方向をモニタリングする手段と、
    前記第1ディスプレイによって表示される前記二次ビジュアルコンテンツの方に前記視聴者の視線が向いているか判断する手段と、
    前記第1ディスプレイとは異なる第2のディスプレイによって前記二次ビジュアルコンテンツを拡張する手段と、
    を含む装置。
  15. 請求項2から12のいずれかに記載の方法を遂行する手段を備える、請求項14に記載の装置。
  16. 処理手段及び記憶手段を備える装置であって、前記記憶手段はプログラム命令を格納し、前記プログラム命令は、前記処理手段に実行されると、前記装置に、請求項1から12に記載の方法を遂行させるように構成される、装置。
JP2017565065A 2015-06-22 2016-06-21 コンテンツ配信 Active JP6567696B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP15173208.8 2015-06-22
EP15173208.8A EP3109733B1 (en) 2015-06-22 2015-06-22 Content delivery
PCT/FI2016/050448 WO2016207485A1 (en) 2015-06-22 2016-06-21 Content delivery

Publications (2)

Publication Number Publication Date
JP2018526847A true JP2018526847A (ja) 2018-09-13
JP6567696B2 JP6567696B2 (ja) 2019-08-28

Family

ID=53546104

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017565065A Active JP6567696B2 (ja) 2015-06-22 2016-06-21 コンテンツ配信

Country Status (6)

Country Link
US (1) US10928893B2 (ja)
EP (1) EP3109733B1 (ja)
JP (1) JP6567696B2 (ja)
MX (1) MX2017016889A (ja)
PH (1) PH12017502318A1 (ja)
WO (1) WO2016207485A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10928893B2 (en) 2015-06-22 2021-02-23 Nokia Technologies Oy Content delivery

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112667190A (zh) * 2015-12-18 2021-04-16 麦克赛尔株式会社 头戴式显示器装置
EP3287868B1 (en) 2016-08-26 2020-10-14 Nokia Technologies Oy Content discovery
US20210326094A1 (en) * 2020-04-17 2021-10-21 Michael E. Buerli Multi-device continuity for use with extended reality systems
TWI745955B (zh) * 2020-05-06 2021-11-11 宏碁股份有限公司 擴增實境系統與其錨定顯示方法

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11243512A (ja) * 1997-10-07 1999-09-07 Masanobu Kujirada 親子連携型表示システム
JP2008186305A (ja) * 2007-01-30 2008-08-14 Kyocera Corp 情報報知装置及び情報報知方法
JP2009260902A (ja) * 2007-04-22 2009-11-05 Toshihiko Okabe リンク情報付きコンテンツの送受信システム、表示装置、中継装置、方法、プログラム及び記録媒体
JP2010527171A (ja) * 2007-04-19 2010-08-05 マイクロソフト コーポレーション インタラクティブ・ティッカー
JP2011519541A (ja) * 2008-05-01 2011-07-07 アルカテル−ルーセント ユーザアクセス可能なコンテンツ内のメタデータ可用性の表示の円滑化
US20120127284A1 (en) * 2010-11-18 2012-05-24 Avi Bar-Zeev Head-mounted display device which provides surround video
US20130187835A1 (en) * 2012-01-25 2013-07-25 Ben Vaught Recognition of image on external display
US20140002490A1 (en) * 2012-06-28 2014-01-02 Hugh Teegan Saving augmented realities
EP2804093A1 (en) * 2013-05-13 2014-11-19 Sony Corporation A method for stabilization and a system thereto

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6577329B1 (en) 1999-02-25 2003-06-10 International Business Machines Corporation Method and system for relevance feedback through gaze tracking and ticker interfaces
JP2003330591A (ja) * 2002-05-08 2003-11-21 Toshiba Corp 情報処理装置およびコンピュータの操作方法
US7570227B2 (en) * 2003-10-17 2009-08-04 Palo Alto Research Center Incorporated Systems and methods for managing seams
US9658687B2 (en) * 2011-09-30 2017-05-23 Microsoft Technology Licensing, Llc Visual focus-based control of coupled displays
US8638344B2 (en) * 2012-03-09 2014-01-28 International Business Machines Corporation Automatically modifying presentation of mobile-device content
US9699485B2 (en) * 2012-08-31 2017-07-04 Facebook, Inc. Sharing television and video programming through social networking
US10359841B2 (en) * 2013-01-13 2019-07-23 Qualcomm Incorporated Apparatus and method for controlling an augmented reality device
US20150312558A1 (en) * 2014-04-29 2015-10-29 Quentin Simon Charles Miller Stereoscopic rendering to eye positions
US20160259405A1 (en) * 2015-03-03 2016-09-08 Microsoft Technology Licensing, Llc Eye Gaze for Automatic Paging
EP3109733B1 (en) 2015-06-22 2020-07-22 Nokia Technologies Oy Content delivery

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11243512A (ja) * 1997-10-07 1999-09-07 Masanobu Kujirada 親子連携型表示システム
JP2008186305A (ja) * 2007-01-30 2008-08-14 Kyocera Corp 情報報知装置及び情報報知方法
JP2010527171A (ja) * 2007-04-19 2010-08-05 マイクロソフト コーポレーション インタラクティブ・ティッカー
JP2009260902A (ja) * 2007-04-22 2009-11-05 Toshihiko Okabe リンク情報付きコンテンツの送受信システム、表示装置、中継装置、方法、プログラム及び記録媒体
JP2011519541A (ja) * 2008-05-01 2011-07-07 アルカテル−ルーセント ユーザアクセス可能なコンテンツ内のメタデータ可用性の表示の円滑化
US20120127284A1 (en) * 2010-11-18 2012-05-24 Avi Bar-Zeev Head-mounted display device which provides surround video
US20130187835A1 (en) * 2012-01-25 2013-07-25 Ben Vaught Recognition of image on external display
US20140002490A1 (en) * 2012-06-28 2014-01-02 Hugh Teegan Saving augmented realities
EP2804093A1 (en) * 2013-05-13 2014-11-19 Sony Corporation A method for stabilization and a system thereto

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10928893B2 (en) 2015-06-22 2021-02-23 Nokia Technologies Oy Content delivery

Also Published As

Publication number Publication date
WO2016207485A1 (en) 2016-12-29
US10928893B2 (en) 2021-02-23
PH12017502318A1 (en) 2018-06-25
JP6567696B2 (ja) 2019-08-28
MX2017016889A (es) 2018-05-14
EP3109733B1 (en) 2020-07-22
US20160370858A1 (en) 2016-12-22
EP3109733A1 (en) 2016-12-28

Similar Documents

Publication Publication Date Title
JP6567696B2 (ja) コンテンツ配信
US10055888B2 (en) Producing and consuming metadata within multi-dimensional data
US10725297B2 (en) Method and system for implementing a virtual representation of a physical environment using a virtual reality environment
US11636644B2 (en) Output of virtual content
US9024844B2 (en) Recognition of image on external display
KR20150091474A (ko) 멀티 디스플레이 장치 상에서의 로우 레이턴시 이미지 디스플레이 기법
US9535250B2 (en) Head mounted display device and method for controlling the same
US11119567B2 (en) Method and apparatus for providing immersive reality content
CN109298777B (zh) 虚拟现实体验控制***
US20140270693A1 (en) Information processing device, storage medium having moving image data stored thereon, information processing system, storage medium having moving image reproduction program stored thereon, and moving image reproduction method
JP6495538B2 (ja) イメージコンテンツ検索
US20230351644A1 (en) Method and device for presenting synthesized reality companion content
US11321926B2 (en) Method and device for content placement
KR102475188B1 (ko) 하나의 가상 콘텐츠의 콘텐츠 포즈 결정 방법
US20220012951A1 (en) Generating Adapted Virtual Content to Spatial Characteristics of a Physical Setting
JP7400810B2 (ja) 情報処理装置、情報処理方法、及び記録媒体
US20230244308A1 (en) Method And Device For Managing Attention Accumulators
KR20230066986A (ko) 혼합 현실과 상호작용하기 위한 방법 및 이를 위한 장치
WO2023212571A1 (en) Systems, methods, and media for displaying interactive extended reality content

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181114

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190326

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190329

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190717

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190731

R150 Certificate of patent or registration of utility model

Ref document number: 6567696

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250