JP2020010318A - 一群のデバイスにより視覚コンテンツ及び又はオーディオコンテンツを同期的に再生するための方法およびシステム - Google Patents

一群のデバイスにより視覚コンテンツ及び又はオーディオコンテンツを同期的に再生するための方法およびシステム Download PDF

Info

Publication number
JP2020010318A
JP2020010318A JP2019097326A JP2019097326A JP2020010318A JP 2020010318 A JP2020010318 A JP 2020010318A JP 2019097326 A JP2019097326 A JP 2019097326A JP 2019097326 A JP2019097326 A JP 2019097326A JP 2020010318 A JP2020010318 A JP 2020010318A
Authority
JP
Japan
Prior art keywords
devices
group
content
visual
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019097326A
Other languages
English (en)
Other versions
JP7069085B2 (ja
Inventor
アイネッケ,ニルス
Einecke Nils
メンツェル,シュテファン
Menzel Stefan
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Research Institute Europe GmbH
Original Assignee
Honda Research Institute Europe GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Research Institute Europe GmbH filed Critical Honda Research Institute Europe GmbH
Publication of JP2020010318A publication Critical patent/JP2020010318A/ja
Application granted granted Critical
Publication of JP7069085B2 publication Critical patent/JP7069085B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1423Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/003Details of a display terminal, the details relating to the control arrangement of the display terminal and to the interfaces thereto
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/12Synchronisation between the display unit and other units, e.g. other display units, video-disc players
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/14Display of multiple viewports
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1423Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
    • G06F3/1446Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display display composed of modules, e.g. video walls
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2356/00Detection of the display position w.r.t. other display screens

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Mobile Radio Communication Systems (AREA)
  • Processing Or Creating Images (AREA)
  • Studio Devices (AREA)
  • Stereophonic System (AREA)

Abstract

【課題】一群のデバイスにおいて視覚コンテンツ及び又はオーディオコンテンツの同期処理を可能にする。【解決手段】群1のデバイス2、3、4、5の全体が一緒になって視覚コンテンツ及び又はオーディオコンテンツの一貫性のある印象を生み出すように、その群のデバイスのそれぞれが、空間内における当該デバイスの位置に応じてそのコンテンツの一部を再生する。当該コンテンツは、その群のデバイスによって協調的な態様で再生される。【選択図】図1

Description

本発明は、一般に、一群のデバイスにより視覚コンテンツ及び又はオーディオ(音響)コンテンツを同期的に再生するための方法およびシステムに関する。本発明は、コンピュータおよびコンピュータアプリケーションを用いて、好ましくは一組の固定されたコンピューティングユニットとデバイス(好ましくは、モバイルデバイス)を用いて、例えば視覚コンテンツまたはオーディオコンテンツなどの、位置制約のあるデジタルコンテンツ(location−bound digital content)を処理して同期的に再生する。
最先端のデバイスの多くは、高性能なコンピューティングユニットと、内部センサ(例えば、全地球測位システム(GPS:global positioning system)、慣性測定装置(IMU:inertial measurement unit)、内蔵カメラ、内蔵マイクロホンなど)のセットとを備えている。それらのデバイスは、通常、再生デバイスとして使用されるように構成される。すなわち、それらのデバイスは、デジタルコンテンツを再生するためのディスプレイ及び又はスピーカを備える。上述した一般的な構成は、特に、最新のモバイルデバイスも表している。それらのモバイルデバイスは、携帯することができるので、ユーザに対して視覚コンテンツ及び又はオーディオコンテンツを再生するよう操作され得る。通常、それぞれの再生デバイスは、ユーザに対する再生及び伝達の対象となる単一種類の視覚コンテンツ及び又はオーディオコンテンツを参照するか、または仮想コンテンツの一部を参照する。
特許文献1には、GPS情報を必要とすることなく画像のジオローカライゼーションを行うための手法が記載されている。その基本的な考え方は、地球規模の3次元データベースを使用することである。画像を撮影する位置、したがってカメラの位置が、このデータベースに対して決定される。カメラの位置を決定するための他の方法が、特許文献2において開示されている。ここには、パノラマ画像を用いてカメラの位置を決定するための手法が記載されている。その考え方は、パノラマ表示の特徴を、環境の3次元モデルからの特徴と比較することである。パノラマ表示は単一のカメラ画像よりも多くの特徴を包含しているため、ローカライゼーションの品質が大きく改善される。
特許文献3には、地理位置情報に基づいて画像を閲覧するためのシステムが記載されている。正確な検索キーワードに基づいて表示する画像を選択する代わりに、このシステムのユーザは、撮影された単一カメラの画像の位置を含むマップを取得できる。これにより、ユーザは、より簡単に特定の表示を選択することができる。とはいえ、再生の際には、1つのデバイスにつき1つの視覚コンテンツしか再生できない。
最後に、特許文献4は、複数のユーザによってプレイされる狩猟ゲーム、または捜索救助のシナリオにおけるような、協力行動(collaborative actions)を実現するためのモバイルデバイスのアドホックネットワークを開示している。その考え方は、参加中の各ユーザの位置および活動地域(狩猟、捜索)の情報を、他のユーザに配布することである。これにより、例えば、すべてのユーザおよびユーザの活動地域をマップ上に表示して、ユーザ間におけるより良い協力の実現を可能とする。しかし、この手法は、単に他のプレイヤーの情報を伝えることを意図したものであり、異なるデバイスにおいて共通に単一のコンテンツを再生するものではない。
米国特許出願公開第2014/0314322(A1)号 米国特許出願公開第2012/0300020(A1)号 米国特許出願公開第2012/0169734(A1)号 米国特許第9,417,691(B2)号
したがって、本発明の目的は、一群のデバイスにおいて視覚コンテンツ及び又はオーディオコンテンツの同期処理を可能にすることである。その一群のデバイスの全体が一緒になって視覚コンテンツ及び又はオーディオコンテンツの一貫性のある印象を生み出すように、その一群のデバイスのそれぞれが、空間内における当該デバイスの位置に応じてそのコンテンツの一部を再生し、当該コンテンツが、その群のデバイスによって協調的な態様で再生される。
この目的は、独立クレームに従う方法およびシステムによって実現される。さらに有利な態様および特徴が、従属クレームにおいて定義される。
本発明に従う、一群のデバイスにより共通に且つ同期的に視覚コンテンツ及び又はオーディオコンテンツを再生するための本方法は、以下のステップを含む。まず、その一群のデバイスの、各々の空間的位置が決定される。これらデバイスの空間的位置を把握しているということは、具体的には、それらのデバイスの互いに対する相対的な位置(好ましくは、向きを含む)が既知であるということを意味する。次に、それらの位置に基づいて、視覚コンテンツ及び又はオーディオコンテンツは、それぞれがその一群のデバイスの一つにより再生されるように専用化された複数の部分コンテンツに分割される。その後、専用化された部分コンテンツは、それぞれ関連するデバイスへタイムスタンプと共に送信され、その一群のデバイスによって共通的に且つ同期的に再生される。その結果、これら部分コンテンツの再生は、1つの大きな再生デバイスであるかのような印象を生み出す。「分割」という用語は、一のデバイスに対応する仮想コンテンツの一部分が、その仮想コンテンツの全体から抽出されることを意味していることに留意されたい。このことは、また、視覚的なものの場合には、仮想コンテンツの全てがその一群のデバイスに対して配布されるわけではないことをも意味する。それらデバイスのディスプレイ間には、ギャップが存在するためである。
これは、特に、異なる複数のデバイスが一つの画像または動画(ビデオ)の部分(部分コンテンツ)をそれぞれ表示するような、視覚コンテンツの場合において明らかである。すなわち、その画像のそれぞれの部分が、一群のデバイスの全体にまたがって広がる仮想表示エリア内における個々のデバイスの位置に対応するように、分割が実行される。本発明の方法、および従って対応するシステムは、それらのデバイスを予め定めて配置しておくことを要しない。上記分割には、各デバイスの位置を決定する際に生成された位置情報を用いるので、本方法は、動的配置を行うような場合に特に有用である。その一例は、互いに対して様々な相対位置に配される可能性のある携帯電話などの、複数のモバイルデバイスであり得る。
本方法においては、一のデバイスが群に加わるか又は離脱する際には必ず、視覚コンテンツ及び又はオーディオコンテンツを分割するステップを繰り返し実行することが好ましい。本発明の意味においては、群から離脱するということは、その群の他のデバイスとの関係がもはや推定できないような形で、当該離脱したデバイスの位置が変化することを意味する。これは、デバイス間距離の関係に基づいて判断され得る。例えば、あるデバイスとその群の他の全てのデバイスとの間の最短距離が、その群の他のデバイス同士の平均距離の倍数を超えた場合に、そのデバイスは、その群から離れたと判断することができる。逆に、これと同じ閾値を用いて、新しいデバイスがその群に加わったことを判断するものとすることができる。近接性の尺度になるその他のしきい値も、使用され得る。
本発明は、有利には、画像、ビデオ、録音、3次元物体ファイル、または仮想3次元空間のうちの1つである、視覚コンテンツ及び又はオーディオコンテンツに関する。
さらに、デバイスの内蔵カメラによって撮影された画像に基づいて上記空間的位置の決定が実行されることが好ましい。通常使用される位置決めシステムを利用できない場合にも、そのような決定が可能であるということは、大きな利点になる。したがって、デバイス自体によって撮影された画像に基づく位置決定は、衛星信号に基づくローカライゼーションが失敗することがある建物内で使用できる。さらに、本発明の実装に特に役立つモバイルデバイスは、ほとんどの場合、内蔵カメラを備えており、撮影された画像の解析による位置決定を可能にする。
デバイスのカメラによって撮影された画像は、有利には、既知の位置を持つ1つまたは複数のマーカーを含み、空間的位置の決定は、画像内のそれらのマーカーに基づいて実行される。そのようなマーカーを画像内で検出するのは容易であり、マーカーの位置は、例えば、正確な位置情報に関連付けられたマーカーの情報をデバイスからアクセスできるデータベースに格納しておくことでアプリオリ(a priori)に知られるので、位置決定の精度を容易に向上させることができる。
好ましい一実施形態によれば、各デバイスは、位置決定用の画像を撮影し、それらの画像を中央プロセッサに送信する。中央プロセッサは、デバイスの空間的位置を計算し、位置情報をデバイスに返送する。撮影された画像の送信は、例えば移動しないコンピュータ内の中央プロセッサの使用を可能にする。「中央プロセッサ」は、少なくともその群の複数のデバイスについての位置を計算する一つのプロセッサとして理解されるべきである。中央プロセッサの計算能力は、それらのデバイス間で共有される。複数の中央プロセッサを使用して、その群のデバイス全体の位置情報を計算してもよい。デバイスの外部にある少なくとも1つのそのような中央プロセッサを使用することには、エネルギー消費が重要な問題とならず、したがって、非常に高性能なプロセッサを使用できる、という利点がある。本発明は、特に動的構成(つまり、デバイスの位置および数が変化する構成)に対処するものであるので、そのような中央プロセッサを使用することには、デバイスの配置の変化に対する応答時間を短くすることができる、という大きな利点がある。
空間的位置を決定する他の方法は、位置が既知であるビーコンノードから放出されたビーコン(ビーコン信号)を用いる。そのようなビーコン信号の解析は、光条件が厳しく、撮影された画像に基づくローカライゼーション(位置特定)が困難であるような状況において、有利に使用され得る。ビーコンを測定するためのセンサは、デバイスに含まれる。
空間的位置の初期決定(初期特定)が行われた後に、デバイスの慣性測定装置(IMU)によって記録されたデータに基づいてデバイスの空間的位置の更新及び又は精度向上が実行されることが、さらに好ましい。そうすれば、初期空間的位置の計算が上述したようにリモートの中央プロセッサによって実行される場合において、このプロセッサとの接続が中断されたとしても、重大問題とはならない。その一方で、デバイスの位置を計算するための第2の方法を用いることで、位置誤差が低減される。
その群のデバイスの各々の空間的位置を決定するための様々な異なる方法の全部または一部が組み合わせられ得ることは明らかである。
本発明の一の他の態様によれば、一の専用のデバイスが、その内蔵カメラによって少なくとも1つの画像を記録して、局所座標系を登録する。上記少なくとも1つの画像は、それぞれが自身の内蔵カメラによって撮影した画像をそれら自身が記録するその群の他のデバイスと共有される。他のデバイスの各々は、受信された画像、受信された局所座標系、および自身が記録した画像に基づいて、自身の空間的位置を計算し、その空間的位置を上記専用のデバイスに送信する。その群のデバイスの全部又は少なくとも複数の位置を計算する一の中央プロセッサを設ける場合とは異なり、この方法には、一の専用のデバイスの画像、または当該デバイスが撮影した複数の画像のみを、他の参加している(または参加を要求している)デバイスに送信すればよい、という利点がある。デバイスの各々は、自身の位置を決定するべく、適切なアルゴリズムを自身で計算するよう構成される。
デバイスの内蔵カメラによって撮影された画像に基づくデバイスの空間的位置の決定は、8点アルゴリズム、5点アルゴリズム、RANSAC、バンドル調整、およびこれらの組み合わせのうちの少なくとも1つを適用することにより、基本行列及び又は基礎行列の計算に基づいて行われるものとすることができる。
これに代えて、デバイスの内蔵カメラによって撮影された画像に基づくデバイスの空間的位置の決定は、Structure from Motionアルゴリズムまたは多視点幾何アルゴリズムの計算に基づく。
その群のデバイスの分布が解析され、再生される視覚コンテンツの少なくとも1つの特徴が最適化されるように、視覚コンテンツの分割が上記分布にマッピングされることが好ましい。その群のデバイス全体にまたがって広がる仮想表示領域に再生される画像またはビデオの相対位置をこの分布に適合させることによって、視聴者が受ける印象が大幅に改善される。すなわち、その群のデバイスによって生成される仮想ディスプレイに対する視覚コンテンツの最良の相対位置を用いて、複数のデバイスのディスプレイの不均等配置についての最良の利用状態を実現する。
上記デバイスの分布に対する、上記画像についてのこのような最適化されたマッピングを実現するために、視覚コンテンツの、局所構造周波数(a local structure frequency)、明度、輝度、および色のうちの少なくとも1つに基づいて、当該視覚コンテンツの特徴が計算される。
視覚コンテンツの特徴は、具体的には、視覚コンテンツの局所構造周波数、明度、輝度、または色のうちの1つまたは複数の、ヒストグラムまたはクラスターモデルに基づいて算出されるものとすることができ、クラスターの類似性またはヒストグラムの類似性に関して最適化が実行される。クラスターまたはヒストグラムの類似性は、具体的には、Earth Mover’s Distanceまたはユークリッド距離に基づいて計算されるものとすることができる。
最適化の結果として、その群のデバイスのうちの1つまたは複数の位置をどのように変更すればマッピングのさらなる改善となるのか、を特定することができる。したがって、クラスターまたはヒストグラムの類似性を改善することとなるこれらデバイスの空間的位置を指す方向に関する情報を、その群のデバイスに送信することが好ましい。本発明を利用する多くの状況では、ユーザは携帯電話などのモバイルデバイスを保持する。視覚コンテンツの再生の改善につながる移動方向が提示された後に、ユーザは、それに応じてデバイスを移動することができ、このようにして、改善に積極的に参加することができる。より多くのデバイスが参加するほど、結果が良くなる。
その群のデバイスにまたがって広がる領域として決定される仮想表示領域を、まず決定することが、特に有利である。そのような仮想表示領域を決定した後に、仮想表示領域内のデバイスの位置およびデバイスのサイズに基づいて、視覚コンテンツが分割される。デバイスのサイズは、デバイスごとにアプリオリに設定されたサイズであるものとすることができる。これに代えて、このサイズは、各デバイスにより与えられる情報に基づいて、デバイスごとに決定されるものとすることができる。例えば、あるデバイスをその群に登録したい場合には、そのデバイスがディスプレイのサイズを少なくとも含んだディスプレイに関する情報を必ず送信しなければならないものとすることができる。
また、オーディオコンテンツを再生する場合も、その群のデバイスにまたがって広がる仮想表示領域(又は、仮想提示領域)を、最初に決定することが有利である。次に、仮想表示領域内のデバイスの位置に基づいて、オーディオコンテンツが分割される。
オーディオコンテンツは音楽であるものとすることができ、オーディオコンテンツの各部分が1つの楽器に対応し得る。オーディオコンテンツのそのような再生は、通常のステレオ再生とは異なり、各楽器(または、オーケストラ全体のうちのサブグループを形成する複数の楽器等)を1つのデバイスによって個別に再生できるため、オーケストラが存在している印象を生み出す。したがって、音の発生源が、はるかに現実に対応している。
他の態様によれば、オーディオコンテンツの各部分は、その群のデバイス全体によって音響ビーム形成(audio beamforming)または波動場合成(wave field synthesis)が実現されるように、個別に処理される。
角点を含む仮想表示領域を決定するための好ましい方法は、凸包アルゴリズムを使用して角点を算出することである。
他の有利な態様によれば、部分コンテンツのすべてが、その群のデバイスの各々に送信される。コンテンツの各部分ごとに、それらに関連付けられたデバイスを識別するための情報が付加され、各デバイスは、自身に専用化された部分コンテンツを再生する。この方法には、コンテンツを個々のデバイスに対して処理する必要がない、という利点がある。複数の部分コンテンツは、ブロードキャストされるものとすることができ、各デバイスは、そのデバイスに関連する部分についてのみ、さらなる処理を行う。
望ましくは、再生の同期は、ネットワークタイムプロトコルに基づいて行われる。ネットワークタイムプロトコルを用いることにより、その群のすべてのデバイスに共通する時間基準の使用が可能となり、したがって、仮想コンテンツの同期的な再生の基盤がシンプルな方法で提供される。
視覚コンテンツ及び又はオーディオコンテンツを同期的に再生するための本方法に対応するシステムは、一群のデバイスと、少なくとも複数のこれらデバイスによって共通に使用される中央プロセッサと、を備えており、これらのデバイスおよびプロセッサは、上述した方法のステップを実行するように構成され、上記プロセッサは、仮想コンテンツの分割を実行するように構成されている。
分割を実行するプロセッサは、部分コンテンツの再生に使用されるすべてのデバイスから分離したプロセッサであってもよいが、共通して使用されるプロセッサがその群のデバイスのうちの1つに含まれているものとしてもよい。その利点は、参加しているデバイスの各々と通信する必要がある分離した中央プロセッサがなくても、そのような再生システムを確立できることである。デバイスのうちの1つのプロセッサが分割を実行するように構成されているため、コンテンツ再生のためのアドホックな、本発明の方法に沿ったシステムを、任意の場所で確立することができる。
以下、添付の図面に示した好ましい実施形態に関連して、本発明を説明する。
仮想コンテンツと、一群のモバイルデバイスによる当該仮想コンテンツの再生と、について示す図である。 アドホックな大表示画面を形成するモバイルデバイスの、整列配置および非整列配置を示す図である。 デバイスの所与の配置に対して仮想表示領域を決定する他の方法を示す図である。 可能性のあるアドホックなディスプレイ用の仮想コンテンツのヒストグラムを示す図である。 現実世界でのアドホックな画面の3つの例示的な形状を示す図である。 主要な方法のステップを含む簡易フローチャートを示す図である。
以下、本発明の実施形態について説明するが、一部の実施形態に関してはその詳細のみを説明する。したがって、本発明の全体的な理解を促すために、まず、本発明のアイデアについて説明する。概して、適応化が可能な全体としてのデバイスにおいて視覚コンテンツ及び又はオーディオコンテンツの同期的な再生を行う。そのような視覚コンテンツ及び又はオーディオコンテンツは、以下では、仮想コンテンツとも称され得る。このシステムは、一群のデバイスを備え、各デバイスは、当該デバイスに内蔵されたディスプレイ及び又はスピーカを用いて視覚コンテンツ及び又はオーディオコンテンツを再生できるように構成される。もちろん、本発明は、再生用の複数の静止したデバイスと共に用いられるものとすることができるが、ここでは、一の仮想コンテンツを共通して再生するその群に属するモバイルデバイスが動的に変化し得るものとするので、主な利用分野は、モバイルデバイスと共に用いる場合である。以下では、専らそのようなモバイルデバイスに関して説明を行うが、それらのすべての態様および特徴は、モバイルデバイス以外にも適用され得ることは明らかである。
本発明に従う各モバイルデバイスは、モバイルデバイス全体におけるその空間的位置によって、その群に属しているとして識別されて登録され、当該空間的位置に応じて仮想コンテンツの一のコンテンツ部分(以下、部分コンテンツという)が割り当てられる。その群の各モバイルデバイス上でのコンテンツ(仮想コンテンツの部分)の再生を同期させることによって、仮想コンテンツが表示される際には、その仮想コンテンツの全体ではなくとも当該仮想コンテンツ全体のほとんどの部分が再生される。モバイルデバイスは、リアルタイム方式で、仮想コンテンツを共通して再生するその群に参加するか、またはその群から離脱することができる。そのような参加または離脱は、必要であれば、その一群のデバイスよって確立された仮想ディスプレイのサイズを適合させるべく処理され、仮想コンテンツの部分コンテンツも適合される。例えば画像またはビデオ(動画)などの視覚的なもの(以下、映像ともいう)の場合、モバイルデバイスの各々は、そのモバイルデバイスのディスプレイサイズにまで拡大または縮小された、1ピクセル(またはサブピクセル)に至るまでの小さな上記映像の一部のみを処理するものとすることができ、それらモバイルデバイスの全体が、当該映像の小部分(部分コンテンツ)のみを表示する。オーディオ(音または音響)の場合、モバイルデバイスのそれぞれは、空間内の一の特定位置に対して予め定められたオーディオの一部分を再生するか、または、空間内の一の特定位置に対して予め定められた音配置(audio arrangement)の一の楽器を再生するものとすることができる。
図1は、本発明の原理を示している。右側の複数のデバイスの群1は、映像およびオーディオの再生体験のための、いわゆる大きいアドホックな画面を作成する。この例では、群1は、11個のいわゆるスマートフォンをモバイルデバイスとして含んでいる。当然ながら、デバイスの数は11個以下に制限されず、さらに多くのデバイスがその群1に存在してもよい。単に説明の目的で、図面においては、図2bに示されている長方形の仮想表示領域7の角に最も近いモバイルデバイス2、3、4、および5について、参照番号が示されている。仮想表示領域7は、群1のモバイルデバイス2、3、4、および5にまたがって広がる領域である。仮想表示領域7は、図1の左側に示されているような視覚コンテンツを再生するために使用されるものとする。この例示的な実施形態では、複数の物体を含む画像を示している。本発明によれば、図1の右側からわかるように、画像の複数の部分がモバイルデバイス2、3、4、5のディスプレイに表示される。デバイスのディスプレイ間に隙間があるため、デバイスの群1は視覚コンテンツ全体の一部のみを再生することとなるが、その群1内のモバイルデバイス2、3、4、5の密度が十分に大きい限り、仮想コンテンツに似せた表示を行うには十分である。
群1のデバイスによって仮想コンテンツを再生するための本発明の一の実施形態は、各デバイスの位置を計算するステップと、当該位置によって各デバイスを登録するステップと、再生される部分コンテンツをデバイスごとに準備するステップと、部分コンテンツに対応するデータを各デバイスに送信するステップと、部分コンテンツを各デバイス上で再生するステップとを繰り返すことを含む。例えばビデオの同期的な再生が可能になるように、仮想コンテンツを再生するすべてのデバイスに共通する時間基準が使用される。本発明の一の態様は、参加しているデバイスの数が変化する状態において、再生されるコンテンツを適合することである。すでに上述したように、これは、群1を現在形成しているデバイスが仮想表示領域7におけるそれらデバイスの現在の位置に対応した仮想コンテンツの一部を再生するように、再生すべき仮想コンテンツを常に分割できるよう、デバイスの空間的位置が反復的に決定されることを意味する。デバイス位置の反復決定は、離脱又は参入するデバイスの識別に用いられるだけでなく、その群1(したがって、仮想表示領域7)内のデバイス位置の変化を識別するのにも用いられ得る。
可能性のある適用シナリオとして、ミュージックショーまたはスポーツイベントが想定され得る。この場合、観客席にいる訪問者は、例えばディスプレイの方向が向かい側の観客席にいる訪問者の方へ向くようにモバイルデバイス2、3、4、5を保持するものとすることができる。これにより、それらディスプレイの全体が大きなアドホック画面を形成し、当該大きなアドホック画面上に、画像またはライブビデオの画面が表示される。モバイルデバイス2、3、4、5を追加または削除することにより、仮想コンテンツのサイズおよび位置が、これらデバイスの全体に応じて適合される。
上記繰り返しステップの各々において、大きなアドホック画面への参加を要求するモバイルデバイス2、3、4、5は、空間における自身の位置を登録し及び提供する必要がある。標準的な解決策として、例えば座席または座席券に付されたバーコードなどのローカル識別子のスキャンを利用することができるが、ローカル識別子はデバイスの位置を固定し、再生中におけるオンラインでの適合を妨げる。好ましい適用領域であって上述において既に説明した動的な解決策では、必要とされる解像度、および屋内又は屋外のいずれのシナリオかに応じて、その他のさまざまな方法が適用される。使用可能であれば全地球的航法衛星システム(GNSS:Global Navigation Satellite System)、慣性測定装置(IMU)センサ、及び又はビーコンシステムが位置情報を提供する。特に屋内シナリオの場合に、位置の精度を向上させるため、これに加えて又はスタンドアロンの代替策として、モバイルデバイス2、3、4、5のカメラを用いて画像を記録し、複数のモバイルデバイス2、3、4、5の記録画像を処理して、群1の又は参加を要求している各モバイルデバイス2、3、4、5の位置が算出される。この場合、モバイルデバイス2、3、4、5のカメラは、起動されて環境内の物体(例えば、再生モードにおいてディスプレイが向けられるべき方向にある物体)に向けて配置される。空間内におけるモバイルデバイスの位置を算出するため、記録された画像が中央処理装置に送信される。そのような処理装置は、単一のプロセッサとして実現されるものとすることもできるし、あるいは複数のプロセッサとして実現されてもよい。いずれの場合でも、処理装置は、その群1のモバイルデバイス2、3、4、5と情報を交換可能である必要がある。その群1の配置全体の複雑さに応じて、群1のデバイスのうちの一のプロセッサを中央処理装置として使用すると有利である。この場合、群1の一のデバイスに含まれる中央処理装置は、デバイスのうちの1つに局所座標系を割り当て、記録された画像に基づき、他のすべての参加しているデバイスの相対位置をこの局所座標系に従って算出する。このプロセスを支援するために、参加を要求しているモバイルデバイス2、3、4、5のそれぞれに物体を含む画像を送信し、画像が確実にオーバラップするようにカメラの焦点をこの物体に合わせるようユーザに要求することもできる。
従来技術において通常は一般的に知られているように、3次元空間内のカメラの位置は、異なるカメラからの画像間、またはカメラの異なる姿勢からの画像間で一致するピクセルを検出し、検出された対応関係を用いて基本行列または基礎行列を計算することによって算出される。これらの行列は、画像が撮影されたカメラの姿勢間の、相対的な向きおよび並進移動を表している。基本行列または基礎行列を計算するための方法は、例えば、8点アルゴリズムまたは5点アルゴリズムあるいはこれらの変形である。より安定した結果を得るために、多くの場合、ランダムサンプルコンセンサス(RANSAC:random sample consensus)およびバンドル調整も使用される。RANSACは、外れ値を除外することによってモデルパラメータを推定することができ、一方、バンドル調整は、多くの異なる画像(したがって、カメラの姿勢)の推定を組み合わせ、共通する妥当な解に最適化することによって、堅牢性を向上させる。デバイスの各々の空間的位置を決定するための計算は、次のように、分散的態様で実行され得る。
(a)位置情報を要求しているモバイルデバイス2、3、4、5が、他の参加しているデバイスと共に1つまたは複数の記録された画像を共有し、それらのデバイスのサブセット上で位置が算出され、位置情報が返送されるか、または、
(b)モバイルデバイス2、3、4、5が、それらに記録されている画像および位置情報を、位置情報を要求しているデバイスと共有し、位置を要求しているモバイルデバイス2、3、4、5上で計算が実行される。
画像の共有が、必ずしも、その群1に現在含まれているすべてのデバイスに対して実行されないということに注意するべきである。デバイス(またはそれらの画像)のサブセットのみをローカライゼーションに使用することも可能であり、データトラフィックの観点からは合理的でもある。複数のカメラのセットの位置は、それらのカメラから撮影された画像のセットから算出され、Structure from Motionアルゴリズムまたは複数のカメラの登録が、この計算を実現するために適用され得る。
空間的位置を決定する代替のまたは追加の方法は、ビーコンノードから放出されたビーコン信号(ビーコンまたはショートビーコン)を使用することに依拠する。
ビーコンノードは、既知の位置に配置される。各ビーコンは、既定のビーコン信号(例えば無線ビーコン信号または可視光通信(VLC:visual light communication)を介したビーコン信号)を送信する。ビーコンを測定するためのセンサがデバイス(モバイルデバイス2、3、4、5)に備えられ得る。センサは、例えば、無線受信器またはVLC受信器であり得る。受信されたビーコン信号が評価され、デバイスの現在の位置を少なくとも含み且つ好ましくはデバイスの現在の向きに関する情報をさらに含む姿勢情報が、受信されたビーコン信号から算出され得る。
ビーコンノードは、無線アクセスポイントであり得る。受信されたビーコン信号の解析は、受信信号強度インジケータ(RSSI:Received Signal Strength Indicator)およびラテレーション(トリラテレーション)に基づくローカライゼーション、フィンガープリンティングに基づくローカライゼーション、到着角(AoA:Angle of Arrival)に基づくローカライゼーション、または経過時間(ToF:Time of Flight)に基づくローカライゼーションなどの、既存のローカライゼーション手法を用いて実行できる。これらの手法を組み合わせて、計算されたデバイス位置の精度を向上させることができる。
受信されたビーコン信号の解析および位置の算出は、これらのデバイス(具体的には、モバイルデバイス2、3、4、5)のうちの少なくとも1つにおいて、または中央処理装置において、実行され得る。
ビーコン信号のそのような解析は、光条件が厳しくて、撮影された画像のみに基づくローカライゼーションが困難であるか、または精度が低いローカライゼーション結果しか得られないような状況および環境において、有利である。
3次元再構築(3D reconstruction)の分野における最先端のアルゴリズムは、インターネットからの構造化されていない画像を用いて建物の3次元モデルを再構築することができる。この文脈において「構造化されていない」とは、カメラの位置が不明であり、画像の撮影に使用されたカメラの仕様も不明である画像を意味する。3次元構築の処理の際、建物の3次元形状への正確な寄与を算出するべく、各カメラの3次元位置が推定される。この3次元再構築手法は、群1の中で仮想コンテンツの一部を再生することとなるデバイスの位置を決定するのに用いられる。インターネットの画像データの代わりに、モバイルデバイスのカメラからの画像がシステムに入力される。カメラと当該カメラが搭載されているデバイスとの間の関係は既知であるので、この手法を用いることによってデバイスのカメラの位置と向きが全体フレームの中で推定される。既知のアルゴリズムにおいて3次元モデルを再構築する手順については説明を省略する。いくつかのシナリオにおいては、モバイルデバイス2、3、4、5の位置の推定を改善するために、既知の3次元位置および方位を持つ追加の視覚的マーカーを使用することが、有益であり得る。そのようなマーカーは、簡単に検出されるように、正方形または円形の標準的な黒色または白色のパターンである。
登録されたデバイスの情報(すなわち、モバイルデバイスの識別子および空間内の位置、ならびに、好ましくはサイズ、および場合によっては内蔵ディスプレイの解像度)に基づいて、コンテンツの配分が計算される。コンテンツの配分は、部分コンテンツの同期再生が仮想コンテンツの全体的印象を与えるように、群1の個々のデバイスによって再生される部分コンテンツを決定する必要があることを意味する。デバイスの位置に関する情報により、そのデバイスが仮想表示領域内で果たす役割についての認識が可能となる。
標準的な方法で、それらデバイスの現実空間の位置が平坦な平面に投影され、モバイルデバイスの投影された位置の凸包が計算される。仮想表示領域7を定義するための多くのさまざまな解決策が存在するが、ほとんどの場合、長方形の仮想表示領域7が好ましい。図2および3は、仮想表示領域7を決定する方法の好ましい例を示している。
図2aでは、コンテンツが、長方形の4つの辺を定義するモバイルデバイス2、3、4、5に切り抜かれ、各デバイスが規則的に配置されている。一方、最も現実的な状況では、デバイスは規則的に配置されず、ほとんどランダムに配置される。それが、図2bに示されている。再生に参加しているすべてのデバイスの空間的位置を1つの共通の平面に投影した後に、平面に投影された位置にまたがって広がる長方形の仮想表示領域7が、決定される。これを実行するための1つの方法は、その群1のデバイスの上端、下端、左端、および右端の座標を決定することである。示されている例では、デバイス2、3、4、および5がそれらの座標を定義しており、さらに、破線で示されている広がった長方形を定義している。
他の方法は、まず凸包を平面内のデバイスの投影に合わせ、次に、図3に示されているように、凸包8内で合わせられた最大の長方形を決定することによって、最大の領域に広がるように、長方形を平面に合わせることである。仮想表示領域7の長方形は、その群1のモバイルデバイス2、3、4、5の位置によって与えられる外側境界に合わせるように長方形を最大化することによって、計算される。
さらに高度な手法では、コンテンツを分割する際に仮想コンテンツが考慮され得る。ここで、画像およびビデオフレームが、デバイスの位置に関して、特にモバイルデバイス2、3、4、5の密度に関して、解析されて処理される。一例として、仮想コンテンツとして再生される画像が大きい暗い領域を含んでいる場合、暗い領域がモバイルデバイス2、3、4、5の密度の低い領域に一致するような方法で、再生される画像の位置が整列されるように、仮想画像を分割することによって、生成される部分コンテンツが決定される。この決定は、例えば、元の画像(仮想コンテンツ)のヒストグラムと、デバイスの分布にマッピングされた再生される可能性がある画像のヒストグラムと、を算出することにより実行され得る。分割は、さまざまなマッピングに対して、すなわち群1のデバイスを基準にした再生される画像のさまざまな位置に対して実行される。それらの可能性のある分割の結果ごとに、ヒストグラムが算出される。それらのヒストグラムの、再生される仮想コンテンツのヒストグラムからの距離が、ユークリッド距離またはEarth Mover’s Distance(EMD)を用いて算出され得る。すなわち、再生される仮想コンテンツの、仮想表示領域7に対する相対的な位置を変えることにより、コンテンツの位置、したがってコンテンツの分割を、最適化することができる。再生される仮想コンテンツの位置を、仮想表示領域7を基準にして変えることによって、コンテンツの位置、したがってコンテンツの分割を最適化できる。ヒストグラムの距離が最小になる位置が、最終的に再生に使用される。
他の変形は、クラスターモデル(例えば、混合ガウス分布)を用いて密度をモデル化することである。混合ガウス分布間の距離は、クラスターの中心(例えば、ガウス分布の中心点)間の距離により算出され得る。それらの距離を用いて、仮想コンテンツをモバイルデバイス2、3、4、5の分布に最適にマッピングするように、最適化アルゴリズムが実装される。
ただし、再生中のデバイス全体に対して仮想コンテンツの相対位置を最適化するだけでなく、仮想表示領域7内のデバイスの位置を最適化するものとすることもできる。群1のデバイスを保持しているユーザがこれを行えるようにするため、中央処理装置によって提供されたマーカーが、モバイルデバイスのディスプレイ上で視覚化されるものとすることができ、これにより、デバイスの分布を改善してコンテンツのマッピングがより改善されるように、ユーザに対し特定の方向へ移動する動機を与えることができる。マッピングプロセスからそのようなマーカーの情報を生成するために、ヒストグラムの変化に対する特定のデバイスの影響が用いられる。視覚的マーカーの代替として、モバイルデバイスの振動が用いられる。
図4a、4b、および4cは、マッピングプロセスを示している。図4aは、特定の視覚コンテンツ(例えば、画像、ビデオ)を示しており、領域Aがより関心を引くコンテンツを含んでおり、関心を引く強さは、局所構造の周波数(例えば、フーリエ変換によって計算される)、明度、彩度、輝度などであり得る。図4bは、仮想表示領域7内のモバイルデバイス2、3、4、5の分布を示している。領域Bは、モバイルデバイス2、3、4、5の密度がより高い。したがって、図4aの仮想コンテンツの位置は、仮想コンテンツ内のあまり関心を引かない領域がモバイルデバイス2、3、4、5の密度が低い領域(図4bの領域Bの外側の領域)内で再生されるように、仮想表示領域7を基準にして配置されることとなる。最後に、図4cは、均等に分布しているモバイルデバイス2、3、4、5を示している。仮想画像およびデバイスの分布の図の下方に、対応するヒストグラムが図示されている。これらのヒストグラムから、中央の図に示すシナリオにおけるデバイスの分布は、視覚的に関心を引くコンテンツがより多く表示されるため、有利であることがわかる。図示左のヒストグラムと図示中央のヒストグラムとの間、および図示左のヒストグラムと図示右のヒストグラムとの間のユークリッド距離またはEarth Mover’s Distanceの計算から、図示左のホストグラムと図示中央のヒストグラムとの間でより良い値が得られることとなる。したがって、図4cの図示右の分布状態にあるデバイス上に、位置を変更する動機をそのデバイスのユーザに与えるためのマーカーが視覚化され得る。その結果、分布が図4bに示された分布に近づくこととなる。
適用シナリオに応じて、前処理ステップをモバイルデバイスの位置に適用してから、コンテンツの配分を計算することが有利である。モバイルデバイスが図5aに示されているような平坦な平面に配置される場合、前処理ステップが省略され、深度座標が規定されたしきい値未満である限り、その深度座標が無視される(すなわち、しきい値の範囲内にないすべてのモバイルデバイスは、大きなアドホック画面では無視される)。大きなアドホック画面の形状にとって現実世界の幾何学的レイアウトが重要であるようなシナリオの場合には、そのレイアウトの形状が仮想表現として事前に格納され、その仮想表現を用いてモバイルデバイスの位置が平坦な平面にマッピングされる。その後、仮想コンテンツの分割が計算され、部分コンテンツがデバイスに送信される。
一例として、スタジアムまたは室内競技場内の観客席の場合、参加しているモバイルデバイス2、3、4、5の計算(すなわち、モバイルデバイス2、3、4、5が、仮想表示領域7からの距離に関して規定されたしきい値の範囲内であるか否かの計算)を可能にするために、図5bに示されているような観客席の円筒形状が既知である必要がある。そのような場合、モバイルデバイス2、3、4、5の空間的位置が算出され、次に、それらの位置は、現実世界の形状の仮想表現を用いてマッピングされ、それらのマッピングされた位置は、正常登録のために規定されたしきい値未満であることが検証され、正常登録されたデバイスに対して仮想コンテンツが分割されて最終的に配分される。「正常登録された」という表現は、登録されたデバイスの全体がデバイスの群1を形成するということを意味する。上記円筒形状は単なる例であり、同じ方法が、図5cに示されている任意の形状などの、さらに複雑な形状を有する配置に対しても有効である。
モバイルデバイス2、3、4、5の配置に応じて、モバイルデバイスの分布密度を測定する中間ステップが導入されるものとすることができ、密度の低い領域内のモバイルデバイスが除外され得る。モバイルデバイス2、3、4、5のうち、他のモバイルデバイス2、3、4、5までの距離が大きく孤立したモバイルデバイスは、コンテンツが何も表示されない領域を導入することとなるので、大きなアドホック画面の体験全体を悪化させ得るためである。コンテンツの配分に基づいて、コンテンツが各モバイルデバイス2、3、4、5に送信されて、再生される。
特にビデオコンテンツまたはオーディオコンテンツが含まれている場合、同期的送信であることが望ましい。ネットワークタイムプロトコルを有利に利用することができ、またはGNSS信号を使用できる場合は、それらの信号を介して地球時間を提供できる。タイミング情報が、デバイスに送信される部分コンテンツに追加され、各デバイスは、この情報に基づいて、そのデバイスに専用化された部分コンテンツを他のデバイスと同期して再生する。このようにして、例えばビデオの異なる部分が、同期的に再生される。
その群1のデバイスの現在の位置に加えて、アドホックなディスプレイへの参加を要求しているデバイスの現在の位置を繰り返しチェックすることによって、群1のデバイスによって確立された大きなアドホック画面の最大限の適合性が実現される。場合によっては、群1のデバイスの位置がある程度固定されているか、または位置の大きい変化が発生することが想定され得る。これは、例えば訪問者がスタジアムから離れる場合であり得る。しかし、そのような場合でも、デバイスの位置が仮想表示領域7から離脱する程度にまで変化したかどうかを判定するために、デバイスのローカライゼーションを定期的に繰り返す必要がある。
一方で、新しいモバイルデバイス2、3、4、5が参加を要求することがある。そのような要求が行われた場合、または仮想表示領域7の端に近い1つのモバイルデバイス2、3、4、5がその群1から離れた場合、仮想表示領域7は適合化が必要となり得る。すなわち、位置の変化の観察から仮想表示領域7の変更が必要であると決定された場合、上述において説明した仮想表示領域7の決定およびコンテンツの分割が繰り返される。
それらの変更イベントは、大きなアドホック画面の仮想表示領域7に参入するかまたは大きなアドホック画面の仮想表示領域7から離脱するモバイルデバイス2、3、4、5によってトリガーされ得る。領域の外側境界のモバイルデバイス2、3、4、5が変化する場合、大きなアドホック画面の外側境界を再計算して部分コンテンツを調整する必要があり、それらの部分コンテンツがモバイルデバイス2、3、4、5に送信される。すなわち、参入する新しいデバイスによりアドホック画面の面積が増える場合や、離脱するデバイスによりアドホック画面の面積が減る場合があり得る。領域内のモバイルデバイスが変化する場合、モバイルデバイス2、3、4、5の密度が、規定された密度しきい値と比較される。モバイルデバイス2、3、4、5の数および分布が十分である場合、それらのデバイスはその群1に属し、仮想コンテンツが分割されて送信される際にはそれらのデバイスが考慮される。密度が十分でない場合、大きなアドホック画面の外側境界が調整され、分割が更新されてデバイスへ送信される。十分に大きなしきい値を規定すること及び又は静的なモバイルデバイスを指定された外側境界に配置することによって、境界が継続的に変化するのを防止することができる。
上述した説明はすべて、視覚コンテンツが再生される場合の例を用いている。ただし、すでに導入部で述べたように、本発明は、オーディオコンテンツの再生、またはオーディオコンテンツと視覚コンテンツの組み合わせの再生にも適している。オーディオコンテンツとビデオコンテンツとを組み合わせたものが仮想コンテンツである場合の、オーディオコンテンツおよびビデオコンテンツの分割は、時間的関係が維持される限り、個別に実行されるものとすることができる。
オーディオコンテンツは、例えば、ギター、ベース、ドラム、ボーカルなどに分離された、別々のオーディオトラック上で利用できるものであるものとすることができ、特定の位置(例えば、画面の左側にあるギター、中央部分にあるドラム、および右側にあるベース)に配分される。
オーディオコンテンツが伝達される場合、複数のデバイスの配置は、モバイルデバイスの内蔵スピーカを用いたビーム形成および波動場合成(wave field synthesis)の手法の利用を可能にする。前者の手法は、知覚される音質を調節することができ、例えば、特定の位置で知覚される音の大きさを増やしながら、他の位置での音の大きさを減らすことができる。どちらの場合も、部分コンテンツは、仮想(オーディオ)コンテンツから生成され、群1内の個々のデバイスに対して決定された空間的位置に基づいて再生される。このように実行すれば、マイクロホンの入力を考慮して、反射に起因する音のアーチファクトの影響を減らすこともできる。マイクロホンの測定を用いて、環境音の特性を推定することができ、したがって、放出されるオーディオをそれに応じて修正し、例えば、反射の影響を減らすことができる。
波動場合成は、ホイヘンス−フレネルの原理に基づく。この原理は、任意の波面が球面波の重ね合わせで表現され得ることを示している。この原理を使用して、仮想音源または仮想音響環境を生成することができる。
オーディオビーム形成および波動場合成は両方とも、音質を改善するため、または単一のデバイスまたは同期されていないデバイスでは不可能なオーディオの印象を生み出すように知覚されるオーディオの印象を形成するべく、放出されるオーディオ信号を変更するものであり、本発明についての好ましい拡張である。
最後に、図6は、上述において詳細に説明した本方法のステップを要約したフローチャートである。

Claims (25)

  1. デバイスの群(1)によって視覚データ及び又はオーディオデータを同期的に再生するための方法であって、
    − 前記群(1)の前記デバイスの各々の空間的位置を決定するステップと、
    − 前記視覚コンテンツ及び又はオーディオコンテンツを部分コンテンツに分割するステップであって、部分コンテンツのそれぞれは、前記デバイスの前記空間的位置に基づいて、前記群(1)の1つのデバイスによって再生されるように専用化されたものである、ステップと、
    − 前記専用化された部分コンテンツを、タイムスタンプと共に、それらに関連付けられたデバイスに送信するステップと、
    − 前記送信された部分をデバイスの前記群(1)によって共通して同期的に再生するステップと含む、
    方法。
  2. デバイスが群(1)に参入するとき又は群(1)から離脱するときに必ず、前記視覚コンテンツ及び又はオーディオコンテンツを分割する前記ステップが繰り返し実行されることを特徴とする、請求項1に記載の方法。
  3. 前記視覚コンテンツ及び又はオーディオコンテンツは、画像、ビデオ、録音、3次元物体ファイル、または仮想3次元空間のうちの1つであることを特徴とする、請求項1または2に記載の方法。
  4. 前記群(1)の前記デバイスの各々の前記空間的位置の前記決定は、前記デバイスのカメラによって撮影された画像に基づいて実行されることを特徴とする、請求項1から3のいずれか一項に記載の方法。
  5. 前記デバイスのカメラによって撮影された前記画像は、既知の位置を持つ1つまたは複数のマーカーを含んでおり、前記空間的位置の前記決定は、前記画像内の前記マーカーに基づいて実行されることを特徴とする、請求項4に記載の方法。
  6. 位置決定のために画像を撮影する各デバイスは、それらの画像を中央プロセッサに送信し、前記中央プロセッサは、前記デバイスの前記空間的位置を計算して、位置情報を前記デバイスに返送することを特徴とする、請求項4または5に記載の方法。
  7. 前記空間的位置の前記決定は、既知の位置を持つビーコンノードから放出されるビーコンに基づいて実行されることを特徴とする、請求項1から6のいずれか一項に記載の方法。
  8. 前記空間的位置の最初の決定が行われた後に、前記デバイスの慣性測定装置(IMU)によって記録されたデータに基づいて前記空間的位置の更新及び又は改良が実行されることを特徴とする、請求項4から7のいずれか一項に記載の方法。
  9. 1つの専用デバイスが、内蔵カメラによって少なくとも1つの画像を記録して局所座標系を登録し、前記少なくとも1つの画像は、それぞれが自身の内蔵カメラによって撮影した画像を自身で記録する前記群の他のデバイスと共有され、前記他のデバイスの各々は、前記受信された画像、前記受信された局所座標系、および前記自身で記録した画像に基づいてその空間的位置を算出し、その空間的位置を前記専用デバイスへ送信する、ことを特徴とする、請求項1から8のいずれか一項に記載の方法。
  10. 前記デバイスの内蔵カメラによって撮影された画像に基づく前記デバイスの空間的位置の前記決定は、8点アルゴリズム、5点アルゴリズム、RANSAC、バンドル調整、およびこれらの組み合わせ、のうちの少なくとも1つを適用することによる、基本行列及び又は基礎行列の計算に基づく、ことを特徴とする、請求項4から9のいずれか一項に記載の方法。
  11. 前記デバイスの内蔵カメラによって撮影された画像に基づく前記デバイスの空間的位置の前記決定は、Structure from Motionアルゴリズムまたは多視点幾何アルゴリズムの計算に基づくことを特徴とする、請求項4から10のいずれか一項に記載の方法。
  12. 前記群(1)の前記デバイスの分布が解析され、前記視覚コンテンツの前記分割は、再生される前記視覚コンテンツの少なくとも1つの特徴が最適化されるように、前記分布にマッピングされることを特徴とする、請求項1から11のいずれか一項に記載の方法。
  13. 前記視覚コンテンツの局所構造の周波数、明度、輝度、および色のうちの少なくとも1つに基づいて、前記視覚コンテンツの前記特徴が計算されることを特徴とする、請求項12に記載の方法。
  14. 前記視覚コンテンツの前記特徴は、前記視覚コンテンツの局所構造の周波数、明度、輝度、または色のうちの1つまたは複数のヒストグラムまたはクラスターモデルに基づいて計算され、前記最適化は、クラスターまたはヒストグラムの類似性について実行されることを特徴とする、請求項12または13に記載の方法。
  15. 前記クラスターまたはヒストグラムの類似性は、Earth Mover’s Distanceまたはユークリッド距離に基づいて算出されることを特徴とする、請求項14に記載の方法。
  16. クラスターまたはヒストグラムの類似性の改善をもたらす前記デバイスの空間的位置に向かう方向に関する情報が、前記群の前記デバイスに送信されることを特徴とする、請求項14または15に記載の方法。
  17. 前記群(1)の前記デバイスにまたがって広がる仮想表示領域(7)が決定され、前記仮想表示領域内(7)の前記デバイスの前記位置および前記デバイスのサイズに基づいて、前記視覚コンテンツが分割されることを特徴とする、請求項1から16のいずれか一項に記載の方法。
  18. 前記群(1)の前記デバイスにまたがって広がる仮想表示領域(7)が決定され、前記仮想表示領域内(7)の前記デバイスの前記位置に基づいて、前記オーディオコンテンツが分割されることを特徴とする、請求項1から17のいずれか一項に記載の方法。
  19. 前記オーディオコンテンツは音楽であり、前記オーディオコンテンツの各部分が1つの楽器に対応することを特徴とする、請求項18に記載の方法。
  20. 前記オーディオコンテンツの部分は、前記群(1)の前記デバイス全体によってオーディオビーム形成または波動場合成が実現されるように、個別に処理されることを特徴とする、請求項1から19のいずれか一項に記載の方法。
  21. 前記群(1)の前記デバイスにまたがって広がる仮想表示領域(7)は、凸包アルゴリズムを使用して算出される角点によって決定されることを特徴とする、請求項1から20のいずれか一項に記載の方法。
  22. 前記部分コンテンツは、すべて前記群(1)の前記デバイスの各々に送信され、前記部分コンテンツのそれぞれには、関連付けられたデバイスを識別できるようにするための情報が付加され、各デバイスはその専用化された部分コンテンツを再生する、
    ことを特徴とする、請求項1から21のいずれか一項に記載の方法。
  23. 再生の同期は、ネットワークタイムプロトコルに基づく、
    ことを特徴とする、請求項1から22のいずれか一項に記載の方法。
  24. 視覚コンテンツ及び又はオーディオコンテンツを同期的に再生するためのシステムであって、前記システムは、デバイスの群および前記デバイスによって共通して使用されるプロセッサを備えており、前記デバイスおよびプロセッサは、請求項1から23のいずれか一項の前記方法のステップを実行するように構成されており、前記プロセッサは前記分割を実行するよう構成されている、システム。
  25. 前記共通して使用されるプロセッサは、前記群(1)の前記デバイスのうちの1つに含まれる、
    ことを特徴とする、請求項24に記載のシステム。
JP2019097326A 2018-05-28 2019-05-24 一群のデバイスにより視覚コンテンツ及び又はオーディオコンテンツを同期的に再生するための方法およびシステム Active JP7069085B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP18174573.8 2018-05-28
EP18174573.8A EP3576417B1 (en) 2018-05-28 2018-05-28 Method and system for reproducing visual and/or audio content synchronously by a group of devices

Publications (2)

Publication Number Publication Date
JP2020010318A true JP2020010318A (ja) 2020-01-16
JP7069085B2 JP7069085B2 (ja) 2022-05-17

Family

ID=62455372

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019097326A Active JP7069085B2 (ja) 2018-05-28 2019-05-24 一群のデバイスにより視覚コンテンツ及び又はオーディオコンテンツを同期的に再生するための方法およびシステム

Country Status (3)

Country Link
US (1) US10809960B2 (ja)
EP (1) EP3576417B1 (ja)
JP (1) JP7069085B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11863622B2 (en) * 2017-02-07 2024-01-02 Drumwave Inc. Cross-device data distribution with modular architecture
US11550532B1 (en) * 2021-08-16 2023-01-10 Honda Motor Co., Ltd Modular display assembly for vehicles

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001022936A (ja) * 1999-07-08 2001-01-26 Fujitsu Ltd 3次元形状生成装置
JP2005099064A (ja) * 2002-09-05 2005-04-14 Sony Computer Entertainment Inc 表示システム、表示制御装置、表示装置、表示方法、およびユーザインタフェイス装置
JP2010097491A (ja) * 2008-10-17 2010-04-30 Pfu Ltd 情報処理装置、方法およびプログラム
JP2012103888A (ja) * 2010-11-10 2012-05-31 Nec Casio Mobile Communications Ltd 仮想空間共有システム、携帯端末、及び仮想空間共有方法
JP2012137581A (ja) * 2010-12-27 2012-07-19 Canon Marketing Japan Inc 画像表示制御サーバ
JP2012178064A (ja) * 2011-02-25 2012-09-13 Nintendo Co Ltd 画像処理システム、画像処理方法、画像処理装置、および画像処理用プログラム
JP2012252519A (ja) * 2011-06-02 2012-12-20 Nippon Telegr & Teleph Corp <Ntt> 分類システム及び分類方法
US20140302773A1 (en) * 2013-04-05 2014-10-09 Nokia Corporation Method and apparatus for creating a multi-device media presentation
JP2015099346A (ja) * 2013-11-19 2015-05-28 韓國電子通信研究院Electronics and Telecommunications Research Institute マルチスクリーンディスプレイシステム及びこのための映像信号補正方法
JP2017130146A (ja) * 2016-01-22 2017-07-27 キヤノン株式会社 画像管理装置、画像管理方法及びプログラム
JP2017212731A (ja) * 2016-05-24 2017-11-30 日本放送協会 音響処理装置、音響処理方法およびプログラム
JP2018503165A (ja) * 2014-12-04 2018-02-01 マイクロソフト テクノロジー ライセンシング,エルエルシー 複合現実の可視化および方法
WO2018055860A1 (ja) * 2016-09-20 2018-03-29 ソニー株式会社 情報処理装置と情報処理方法およびプログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8160400B2 (en) 2005-11-17 2012-04-17 Microsoft Corporation Navigating images using image based geometric alignment and object based controls
US9417691B2 (en) 2010-03-26 2016-08-16 Nokia Technologies Oy Method and apparatus for ad-hoc peer-to-peer augmented reality environment
US20120300020A1 (en) 2011-05-27 2012-11-29 Qualcomm Incorporated Real-time self-localization from panoramic images
US9324151B2 (en) 2011-12-08 2016-04-26 Cornell University System and methods for world-scale camera pose estimation
US9600220B2 (en) * 2013-02-18 2017-03-21 Disney Enterprises, Inc. Multi-device display configuration
WO2016155767A1 (en) * 2015-03-30 2016-10-06 Siemens Aktiengesellschaft Method and system for determining an orientation of a mobile device

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001022936A (ja) * 1999-07-08 2001-01-26 Fujitsu Ltd 3次元形状生成装置
JP2005099064A (ja) * 2002-09-05 2005-04-14 Sony Computer Entertainment Inc 表示システム、表示制御装置、表示装置、表示方法、およびユーザインタフェイス装置
JP2010097491A (ja) * 2008-10-17 2010-04-30 Pfu Ltd 情報処理装置、方法およびプログラム
JP2012103888A (ja) * 2010-11-10 2012-05-31 Nec Casio Mobile Communications Ltd 仮想空間共有システム、携帯端末、及び仮想空間共有方法
JP2012137581A (ja) * 2010-12-27 2012-07-19 Canon Marketing Japan Inc 画像表示制御サーバ
JP2012178064A (ja) * 2011-02-25 2012-09-13 Nintendo Co Ltd 画像処理システム、画像処理方法、画像処理装置、および画像処理用プログラム
JP2012252519A (ja) * 2011-06-02 2012-12-20 Nippon Telegr & Teleph Corp <Ntt> 分類システム及び分類方法
US20140302773A1 (en) * 2013-04-05 2014-10-09 Nokia Corporation Method and apparatus for creating a multi-device media presentation
JP2015099346A (ja) * 2013-11-19 2015-05-28 韓國電子通信研究院Electronics and Telecommunications Research Institute マルチスクリーンディスプレイシステム及びこのための映像信号補正方法
JP2018503165A (ja) * 2014-12-04 2018-02-01 マイクロソフト テクノロジー ライセンシング,エルエルシー 複合現実の可視化および方法
JP2017130146A (ja) * 2016-01-22 2017-07-27 キヤノン株式会社 画像管理装置、画像管理方法及びプログラム
JP2017212731A (ja) * 2016-05-24 2017-11-30 日本放送協会 音響処理装置、音響処理方法およびプログラム
WO2018055860A1 (ja) * 2016-09-20 2018-03-29 ソニー株式会社 情報処理装置と情報処理方法およびプログラム

Also Published As

Publication number Publication date
EP3576417B1 (en) 2021-05-26
US10809960B2 (en) 2020-10-20
JP7069085B2 (ja) 2022-05-17
EP3576417A1 (en) 2019-12-04
US20190361657A1 (en) 2019-11-28

Similar Documents

Publication Publication Date Title
US11210858B2 (en) Systems and methods for enhancing augmented reality experience with dynamic output mapping
US11528576B2 (en) Distributed audio capturing techniques for virtual reality (VR), augmented reality (AR), and mixed reality (MR) systems
US9544706B1 (en) Customized head-related transfer functions
EP3400705B1 (en) Active speaker location detection
US9749738B1 (en) Synthesizing audio corresponding to a virtual microphone location
US9128897B1 (en) Method and mechanism for performing cloud image display and capture with mobile devices
US10438405B2 (en) Detection of planar surfaces for use in scene modeling of a captured scene
JP7069085B2 (ja) 一群のデバイスにより視覚コンテンツ及び又はオーディオコンテンツを同期的に再生するための方法およびシステム
JP6410769B2 (ja) 情報処理システム及びその制御方法、コンピュータプログラム
JP2019022151A (ja) 情報処理装置、画像処理システム、制御方法、及び、プログラム
US10979806B1 (en) Audio system having audio and ranging components
US11430178B2 (en) Three-dimensional video processing
KR20200143293A (ko) 실시간 다원 ar 방송을 위한 증강 현실 영상 생성 방법 및 장치
JP2008203991A (ja) 画像処理装置
JP2019033497A (ja) 情報処理システム及びその制御方法、コンピュータプログラム
JP2022097382A (ja) 情報処理システム、情報処理方法および情報処理プログラム
CN117762374A (zh) 一种音频播放方法、装置、虚拟现实设备及存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190912

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201020

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210824

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211104

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220405

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220502

R150 Certificate of patent or registration of utility model

Ref document number: 7069085

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150