JP6702196B2 - 情報処理装置、情報処理方法およびプログラム - Google Patents

情報処理装置、情報処理方法およびプログラム Download PDF

Info

Publication number
JP6702196B2
JP6702196B2 JP2016562332A JP2016562332A JP6702196B2 JP 6702196 B2 JP6702196 B2 JP 6702196B2 JP 2016562332 A JP2016562332 A JP 2016562332A JP 2016562332 A JP2016562332 A JP 2016562332A JP 6702196 B2 JP6702196 B2 JP 6702196B2
Authority
JP
Japan
Prior art keywords
space
landmark
image data
image
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2016562332A
Other languages
English (en)
Other versions
JPWO2016088437A1 (ja
Inventor
卓 青木
卓 青木
象 村越
象 村越
亮 向山
亮 向山
吉洋 中西
吉洋 中西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JPWO2016088437A1 publication Critical patent/JPWO2016088437A1/ja
Application granted granted Critical
Publication of JP6702196B2 publication Critical patent/JP6702196B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • G01B11/03Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness by measuring coordinates of points
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Processing Or Creating Images (AREA)
  • Studio Devices (AREA)

Description

本開示は、情報処理装置、情報処理方法およびプログラムに関する。
カメラで画像を撮影するにあたり、例えば視点の異なる複数のカメラを撮影に用いるなどして、表現力の高い画像を得るための技術が種々提案されている。特許文献1は、そのような技術の一例である。
特開2003−179800号公報
例えば特許文献1に記載された技術では、空間内のいずれかの位置を対象にして、複数のカメラで撮影された画像を組み合わせた表現力の高い画像が生成される。この場合、画像は適切に生成されても、対象になる位置の選定が適切でなければ、ユーザにとって魅力的な画像にはなりにくい。他の技術でも同様に、表現力が高く、かつユーザにとって魅力的な画像を得るためには、空間内で対象になる位置を適切に決定することが重要になる。しかしながら、そのような位置を適切に決定するための技術は、これまでに十分に提案されているとは必ずしもいえない。
そこで、本開示では、画像生成の対象になる空間内の位置を適切に決定することを可能にする、新規かつ改良された情報処理装置、情報処理方法およびプログラムを提案する。
本開示によれば、空間内に存在する複数の視点からの視対象位置を示す情報を収集する機能と、上記視対象位置の密度に応じて上記空間内の位置を評価する機能とを実現するプロセッサを備える情報処理装置が提供される。
また、本開示によれば、空間内に存在する複数の視点からの視対象位置を示す情報を収集することと、プロセッサが、上記視対象位置の密度に応じて上記空間内の位置を評価することとを含む情報処理方法が提供される。
また、本開示によれば、空間内に存在する複数の視点からの視対象位置を示す情報を収集する機能と、上記視対象位置の密度に応じて上記空間内の位置を評価する機能とをプロセッサに実現させるためのプログラムが提供される。
以上説明したように本開示によれば、画像生成の対象になる空間内の位置を適切に決定することができる。
なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
本開示の一実施形態における空間視聴率推定のための処理を示す概略的なフローチャートである。 本開示の一実施形態における空間視聴率推定について概念的に説明するための図である。 本開示の一実施形態における視対象位置推定の他の例を示す図である。 本開示の一実施形態における画像の収集の例について概念的に説明するための図である。 本開示の一実施形態における画像の収集の別の例について概念的に説明するための図である。 本開示の一実施形態における画像の収集のさらに別の例について概念的に説明するための図である。 本開示の一実施形態における画像の収集のさらに別の例について概念的に説明するための図である。 本開示の一実施形態に係るシステムの構成例を示す図である。 本開示の一実施形態における処理の例を示すフローチャートである。 本開示の実施形態に係る情報処理装置のハードウェア構成例を示すブロック図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書および図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は以下の順序で行うものとする。
1.空間視聴率の推定
2.画像の収集および自由視点画像の生成
3.システム構成例
4.処理フローの例
5.ハードウェア構成
6.補足
(1.空間視聴率の推定)
本開示の一実施形態では、空間内に存在する複数の視点からの視対象位置(visual target position)の密度に基づいて空間視聴率(spatial rating)が推定される。空間視聴率は、空間内のそれぞれの位置がどの程度の注目を集めているかを示す。例えば競技場のような空間を想定する場合、複数の視点は、例えば競技場にいる観客の視点を含みうる。また、複数の視点は、例えば競技場に設置されたカメラの視点を含んでもよい。これらの視点からの視対象位置は、例えば視線上の位置である。観客やカメラからの視線が集中している位置、つまり空間視聴率が高い位置は、競技場の中で特に注目されていると推定される。本実施形態では、このような空間視聴率に基づいて、自由視点画像を提供するための3次元点群(ポイントクラウド)データを生成する。なお、本明細書において、画像は動画像(映像)および静止画像を含む。
図1は、本開示の一実施形態における空間視聴率推定のための処理を示す概略的なフローチャートである。図1を参照すると、本実施形態では、まず、視聴者位置を推定する(S101)。ここで、視聴者は、空間内に存在する視点を有する主体、例えば観客やカメラを意味する。視聴者位置は、例えば視聴者から提供される視点画像に基づいて自己位置推定を実施することによって推定される。画像に基づく自己位置推定には、例えばSLAM(Simultaneous Localization and Mapping)などの技術を利用することができる。自己位置推定にあたっては、空間内にあるランドマークの情報や、空間の3次元モデルなどの情報が利用されてもよい。あるいは、視聴者位置は、視聴者自身から提供される情報に基づいて推定されてもよい。この場合、例えば、GNSS(Global Navigation Satellite Systems)、Wi−Fiなどの基地局からの電波を利用した測位、または空間特有の位置表現(例えば、競技場などのチケット情報によって示される観客席の位置)などが利用されうる。
次に、視線を推定する(S103)。簡便な方法としては、視聴者から提供される視点画像の中心方向を視線方向とみなしてもよい。例えば視聴者がウェアラブルカメラを装用した観客であるような場合には、より詳細な視点の推定が可能である。この場合、例えば、観客が外向きのカメラで撮影した視点画像とともに提供する、内向きのカメラで撮影した眼の画像が利用される。より具体的には、黒眼の中心位置から視線を推定したり、眼球モデルの姿勢から視線を推定したりすることが可能である。
次に、上記のS101およびS103で推定された視聴者位置および視線に基づいて、視聴者の視対象位置を推定する(S105)。視対象位置は、例えば視聴者位置から発した視線上の位置として特定される。例えば、空間の3次元モデルを利用して、視線が地面または床面に交わった位置を視対象位置として推定してもよい。あるいは、カメラなどで焦点距離が利用可能な場合には、焦点距離に基づいて視線上の視対象位置を推定してもよい。なお、S105における視対象位置の推定までの処理は、例えば各視聴者に対応するクライアント装置で実行されてもよいし、クライアント装置から画像などのデータを収集するサーバで実行されてもよい。
次に、上記のS105で推定された視対象位置に基づいて、空間視聴率が推定される。上述の通り、空間視聴率は、空間内における視対象位置の密度に基づいて推定される。この時点までに、各視聴者の視対象位置、つまり空間内に存在する複数の視点からの視対象位置を示す情報は、空間視聴率を推定するサーバによって収集されている。空間視聴率は、例えば、空間内を所定のサイズに区分したグリッドごとに算出されてもよいし、互いに近接する視対象位置を含むクラスタごとに算出されてもよい。
上述の通り、以上のような処理によって推定された空間視聴率は、自由視点画像を提供するためのポイントクラウドデータを生成するために利用される。より具体的には、例えば、空間視聴率(視対象位置の密度)が閾値を超えた位置について、ポイントクラウドデータが生成される。なお、ポイントクラウドデータを用いる方法以外にも自由視点画像を提供するための手法は多くあり、そのような手法で自由視点画像を提供するためのデータが、空間資料率に基づいて生成されてもよい。自由視点画像を提供するための技術については、例えば特開2007−133660号公報などに記載されている。
自由視点画像は、空間内の任意の位置を、任意の角度から観察することを可能にする。しかしながら、位置を限定せずに自由視点画像が提供された場合、例えば撮影された画像を事後的に視聴するユーザは、どの位置を見ればよいかがわからないため、必ずしもユーザによりよい体験が提供できるとは限らない。また、利用可能な画像のすべてを利用して自由視点画像を提供しようとすると、データが膨大になる。そこで、本実施形態では、空間視聴率に基づいて自由視点画像を提供する対象になる位置を限定することで、ユーザにとって見やすい形で自由視点画像を提供するとともに、自由視点画像を提供するためのデータが不必要に膨大になるのを防ぐ。
図2は、本開示の一実施形態における空間視聴率推定について概念的に説明するための図である。図2に示されるように、本実施形態では、まず、空間SP(図示された例では競技場)内に存在する視聴者位置110を推定する。上記の通り、視聴者位置110は、視点画像を提供する観客や、カメラの位置でありうる。次に、視線115が推定される。視線115は、例えば視点画像の中心方向に沿うとみなされてもよいし、視聴者が観客である場合には、視線検出の技術を利用して検出されてもよい。視線115の推定結果に基づいて、空間SP内の視対象位置120が推定される。視対象位置120は、図示された例のように、視線115が地面(または床面)に交わった位置として推定されてもよい。空間視聴率は、視対象位置120の密度に応じて推定される。図示された例では、視対象位置120が集中している位置P1や位置P2において、比較的高い空間視聴率が推定される。
図3は、本開示の一実施形態における視対象位置推定の他の例を示す図である。上記の例では、視対象位置が視聴者から提供された視点画像に基づいて推定されたが、図3に示される例では、視点画像とは別に、環境設置カメラ130によって撮影された画像132に基づいて、視聴者位置110および視線115が推定される。画像132には、観客である視聴者(VIEWER)が被写体として含まれている。このような画像132を解析することによって、画像中の視聴者位置や視聴者の顔の向き、眼の向きなどを特定し、これらに基づいて視線115を推定してもよい。視聴者の検出や、顔の向き、眼の向きなどの特定には、画像に関する機械学習の結果が利用されてもよい。
(2.画像の収集および自由視点画像の生成)
図4は、本開示の一実施形態における画像の収集の例について概念的に説明するための図である。図4に示されるように、本実施形態では、空間SP(図示された例では競技場)内に配置された視点210のそれぞれにおいて撮影された画像のうち、空間視聴率に基づいて選定された位置220を含む画像が、自由視点画像の生成のために収集される。視点210は、例えばウェアラブルカメラを装用したり、モバイルカメラ(通常のデジタルカメラまたはスマートフォンなどに搭載されるカメラなど)で撮影を実行したりしている観客(プロフェッショナルのカメラマンであってもよい)の位置でありうる。また、視点210は、中継などのために固定設置されたカメラの位置を含んでもよい。
例えば、上述のように、本実施形態では、空間視聴率の推定のために、視点210において撮影された画像が利用されうる。この画像を、そのまま自由視点画像の生成のための画像として利用してもよい。空間視聴率が高い位置220では、より多くの視点210からの画像が存在するため、自由視点画像の生成のために十分な数の画像が得られやすい。あるいは、空間視聴率の推定に用いられたか否かに関わらず、利用可能な画像がすべて収集され、空間視聴率が高い位置220を含む画像が事後的に選別されてもよい。例えば、図3に示したように視対象位置を視点画像とは別の画像によって推定するような場合、別途収集された視点画像から、視対象位置の密度に基づいて推定された空間視聴率が高い位置220を含む画像が事後的に選別されうる。
図5は、本開示の一実施形態における画像の収集の別の例について概念的に説明するための図である。図5に示された例では、環境設置カメラ230によって、空間視聴率が高い位置220を含む画像が収集される。環境設置カメラ230は、空間視聴率の推定結果に基づいてリアルタイムで制御されてもよい。この場合、例えば、環境設置カメラ230は、所定の範囲の中で向きを変えられるように配置され、それぞれの環境設置カメラ230が撮影可能な空間SP内の領域は部分的に重複する。
図示された例では、多くの視対象位置120が集中し、空間視聴率が高いと推定される領域R1については、複数の環境設置カメラ230a,230bによって、いずれも高解像度で(ズームインして)撮影が実行されている。また、いくつかの視対象位置120が散在し、空間視聴率が中程度と推定される領域R2については、単一の環境設置カメラ230cによって、高解像度で(ズームインして)撮影が実行されている。視対象位置120がなく、空間視聴率が低いと推定される領域R3については、単一の環境設置カメラ230dによって、低解像度で(ズームアウトして)撮影が実行されている。
上記のような図5の例では、環境設置カメラ230を設置するコストはかかるものの、自由視点画像の生成のための画像を、安定して、かつ所望の品質で得ることができる。なお、空間視聴率と環境設置カメラ230の動作との関係は、上記の例には限られない。例えば、空間視聴率が低いと推定される領域についても、突発的に注目すべきイベントが生じる可能性がある場合には、少なくとも2つの環境設置カメラ230で撮影が実行されてもよい。また、そのようなイベントが生じる可能性がない場合には、空間視聴率が低いと推定される領域については撮影を実行しなくてもよい。
図6および図7は、本開示の一実施形態における画像の収集のさらに別の例について概念的に説明するための図である。図6および図7に示された例では、撮影用のUAV(Unmanned aerial vehicle)によって、図5に示した例と同様の画像の収集が実施される。UAV240は、空間SPの上空(または空間SPの内部)を飛行し、空間SP内の画像を撮影する。図6に示された例では、UAV240a,240bによって領域R1が、UAV240cによって領域R2が、UAV240dによって領域R3が、それぞれ撮影されている。
UAV240は、例えば図5に示された環境設置カメラ230と同様に、撮影の向きを変えたり、ズームイン/アウトしたりすることが可能である。さらに、UAV240は、空間SPの上空または内部を、自由に移動することができる。従って、例えば、空間視聴率が高いと推定される位置または領域については、より多くのUAV240を集中させて撮影を実行することが可能になる。また、例えば図7に示した例のように、空間視聴率に応じてUAV240の位置を変更しつつ、それぞれのUAV240の撮影範囲242が、空間SPの全体をカバーするようにUAV240の配置を調整することもできる。
(3.システム構成例)
図8は、本開示の一実施形態に係るシステムの構成例を示す図である。図8を参照すると、システム10は、カメラ300と、視聴者端末400と、サーバ500と、ユーザ端末600とを含む。なお、本明細書において、視聴者は空間内に存在する視点を有する主体を意味し、ユーザは視聴者の視対象位置の密度に応じて推定された空間視聴率に基づいて提供される自由視点画像を閲覧する主体を意味する。以下、それぞれの
カメラ300は、例えば視聴者によって装着または携帯される端末(視聴者端末400であってもよい)に搭載される。あるいは、カメラ300は、自動的に撮影を実行する主体、すなわち本明細書でいう視聴者そのものであってもよい。カメラ300は、少なくとも1つの撮像素子を含む撮像部を備え、外向きカメラ画像310を取得する。さらに、カメラ300が視聴者によって装着される端末に搭載されるような場合、別の撮像素子を含む撮像部によって、内向きカメラ画像320が取得されてもよい。
視聴者端末400は、カメラ300とともに視聴者によって使用される、または視聴者そのものである端末装置である。視聴者端末400は、例えば後述する情報処理装置のハードウェア構成によって実現され、CPU(Central Processing unit)などのプロセッサがメモリまたはストレージに格納されたプログラムに従って動作することによって実現される視聴者位置推定部410、視線推定部420、および視対象位置推定部430を含みうる。一例として、視聴者端末400は、スマートフォン、デジタルカメラ、タブレット、パーソナルコンピュータなどとして実現されうる。
視聴者位置推定部410は、例えば、カメラ300によって取得された外向きカメラ画像310に基づいて、SLAMなどの技術を利用して視聴者位置を推定する。このとき、視聴者位置推定部410は、サーバ500から提供される、ランドマーク550や3次元モデル570などの情報を利用してもよい。あるいは、視聴者位置推定部410は、GNSSデータ560のような測位情報、またはチケット情報などに基づいて視聴者位置を推定してもよい。この場合、視聴者位置の推定には、必ずしも外向きカメラ画像310が用いられなくてもよい。
視線推定部420は、例えば、カメラ300によって取得された内向きカメラ画像320に基づいて、視聴者の視線を推定する。上述のように、簡便な方法としては、視点画像、すなわち外向きカメラ画像310の中心方向を視線方向とみなすことができるため、そのような場合は視線推定部420は存在しなくてもよい。例えば内向きカメラ画像320が取得可能である場合、視線推定部420は、内向きカメラ画像320に含まれる眼の画像に基づいて、黒眼の中心位置から視線を推定したり、眼球モデルの姿勢から視線を推定したりすることが可能である。
視対象位置推定部430は、視聴者位置推定部410によって推定された視聴者位置と、視線推定部420によって推定された視線とに基づいて、視聴者の視対象位置を推定する。視対象位置推定部430は、例えば、サーバ500から提供される空間の3次元モデル570に基づいて視対象位置を推定する。視対象位置推定部430は、推定された視対象位置を示す情報、例えば3次元モデル570において定義される空間内の座標を、サーバ500にアップロードする。
サーバ500は、カメラ300および/または視聴者端末400とネットワークで接続された、1または複数のサーバ装置によって構成される。サーバ装置は、例えば後述する情報処理装置のハードウェア構成によって実現される。サーバ500は、サーバ装置のCPUなどのプロセッサがメモリまたはストレージに格納されたプログラムに従って動作することによって実現される空間視聴率推定部520およびポイントクラウド生成部540を含みうる。また、サーバ500を実現するサーバ装置のメモリまたはストレージには、視対象位置データ510、画像データ530、ランドマーク550、および3次元モデル570のデータが格納されうる。
サーバ500は、視聴者端末400から提供される視対象位置の情報を、視対象位置データ510として収集する。なお、後述するように、視聴者位置の推定、視線の推定、および/または視対象位置の推定をサーバで実施することも可能であるが、いずれの場合も、サーバ装置のプロセッサは、空間内に存在する複数の視点からの視対象位置を示す情報を収集する。この情報は、例えば図示された例のように推定された視対象位置自体を示す情報であってもよく、推定された視聴者位置や視線を示す情報であってもよく、外向きカメラ画像310および/または内向きカメラ画像320であってもよい。
空間視聴率推定部520は、視対象位置データ510に基づいて空間視聴率を推定する。空間視聴率は、視対象位置の密度に応じて算出され、空間内の位置を評価(rate)する指標の一例である。従って、空間視聴率推定部520は、視対象位置の密度に応じて空間内の位置を評価しているともいえる。ここで、サーバ500は、カメラ300からアップロードされた外向きカメラ画像310を取得し、画像データ530として蓄積している。ポイントクラウド生成部540は、空間視聴率に応じて、画像データ530から自由視点画像を提供するためのポイントクラウドデータを生成する。ポイントクラウドデータは、ユーザ端末600に配信される。
ここで、サーバ500において実現されるポイントクラウド生成部540は、視対象位置の密度に応じて空間内の位置を評価した結果に基づいて、空間内を撮影することによって得られる画像データの編集を実行する機能の一例である。例えば、ポイントクラウド生成部540は、自由視点画像を提供するためのポイントクラウドデータを、視対象位置の密度に応じた指標である空間視聴率に応じて選択的に生成する。選択的に生成するとは、例えば、空間視聴率が高い位置または領域ではポイントクラウドデータを生成し、空間視聴率が低い位置または領域ではポイントクラウドデータを生成しないことを含みうる。
なお、例えば、上記で図5〜図7を参照して説明した例のような場合、サーバ500を実現するサーバ装置のプロセッサは、さらに、空間視聴率に基づいて、空間内を撮影することによって得られる画像データの取得の制御を実行する機能を実現してもよい。上記の例でいえば、環境設置カメラ230やUAV240による画像の撮影を制御する機能が、サーバ装置のプロセッサによって実現されうる。この場合、例えば、画像の撮影の対象になる空間内の位置の制御が、環境設置カメラ230の向きの変更や、UAV240の移動などによって実施されうる。また、画像の撮影の対象になる範囲の制御が、環境設置カメラ230やUAV240に搭載されたカメラのズームイン/ズームアウトなどによって実施されてもよい。
ユーザ端末600は、自由視点画像を閲覧するユーザによって使用される端末装置である。ユーザ端末600は、例えば後述する情報処理装置のハードウェア構成によって実現され、CPUなどのプロセッサがメモリまたはストレージに格納されたプログラムに従って動作することによって実現される自由視点画像生成部610を含みうる。一例として、ユーザ端末600は、テレビ、レコーダ、パーソナルコンピュータ、タブレット、スマートフォンなどとして実現されうる。
自由視点画像生成部610は、サーバ500から提供されるポイントクラウドデータに基づいて、自由視点画像を生成する。ここで、自由視点画像は、ユーザの操作入力による視点指定620に従って生成されうる。自由視点画像を閲覧するユーザは、視点指定620に限らず、ズームイン/アウトなどを操作入力によって指定することも可能でありうる。なお、生成された自由視点画像は、ユーザ端末600自身が有するディスプレイに表示されてもよいし、外部接続されるディスプレイに出力されてもよい。
以上、本実施形態に係るシステムの構成例について説明した。なお、説明された構成は一例であり、様々な変形が可能である。例えば、上記で視聴者端末400およびユーザ端末600に含まれるものとして説明された機能は、サーバ500で実現されてもよい。例えば、カメラ300が外向きカメラ画像310および内向きカメラ画像320をサーバ500にアップロードし、視聴者位置推定部410、視線推定部420、および視対象位置推定部430がサーバ500で実現される場合、システム10は視聴者端末400を含まなくてもよい。また、サーバ500が自由視点画像生成部610を実現し、視点指定620などに従って生成された自由視点画像を、ユーザのもとにある表示装置に配信してもよい。
(4.処理フローの例)
図9は、本開示の一実施形態における処理の例を示すフローチャートである。図9では、上記で図8を参照して説明したシステム10において実行される処理の例が示されている。
まず、視聴者端末400における視聴者位置推定の処理として、カメラ300において取得された外向きカメラ画像310から、ランドマークが検出される(S201)。ランドマークは、例えば、空間内に設置され、画像において目印になりうるオブジェクトである。例えば、ランドマークは、競技場のフィールドに引かれたラインや、競技のためのポール、劇場のステージや案内表示など、視聴者位置推定のために設置されたものでなくてもよい。あるいは、ランドマークは、視聴者位置推定のために設置されたものであってもよい。この場合、ランドマークは、例えば、さまざまな視点から撮影された画像に移りやすい位置に、それぞれが一意に識別できるようなテクスチャをもって配置されうる。
外向きカメラ画像310からランドマークが検出されたか否かの判定(S203)において、ランドマークが検出された場合、ランドマークを使った視聴者位置推定が実施される(S205)。この場合、例えば、空間の3次元モデルにおいて予め設定されたランドマークの座標を基準にして、SLAMの技術を利用して視聴者位置が推定される。一方、ランドマークが検出されなかった場合、GNSSデータを使った視聴者位置推定が実施される(S207)。なお、GNSSデータに代えて、他の測位情報などに基づいて視聴者位置が推定されてもよい。また、測位情報などによって十分に高い精度の視聴者位置推定が可能である場合には、優先的に測位情報などによる視聴者位置推定が実施されてもよい。
視聴者位置推定に続いて、内向きカメラ画像320を用いた視線推定が実施される(S209)。なお、上記のように、例えば内向きカメラ画像320が利用可能ではないような場合には、外向きカメラ画像310の中心方向を視線方向とみなしてもよい。さらに、推定された視聴者位置および視線に基づく視対象位置推定が実施される(S211)。図8に示した例におけるシステム10では、視聴者端末400において推定された視対象位置の情報と、カメラ300において取得された外向きカメラ画像310とが、サーバ500にアップロードされる(S213)。既に述べたように、S201〜S211の処理はサーバ500で実行されてもよく、その場合は、カメラ300からサーバ500に、外向きカメラ画像310(付加的に、内向きカメラ画像320)がアップロードされるだけであってもよい。
サーバ500では、空間視聴率推定部520が、アップロードされた情報に基づいて、空間内のグリッド、またはクラスタにおける視対象位置の密度を計算する(S215)。図示された例では、視対象位置の密度が、グリッドまたはクラスタの空間視聴率に相当する。さらに、サーバ500では、ポイントクラウド生成部540が、視対象位置の密度が算出されたグリッドまたはクラスタごとのループ処理(S217)において、密度が閾値を超えるか否かを判定し(S219)、密度が閾値を超える場合には当該グリッドまたはクラスタについてのポイントクラウドデータを生成する(S221)。以上のような処理によって生成されたポイントクラウドデータはユーザに配信され(S223)、ユーザによる視点の選択(S225)などに応じて、自由視点画像が生成される(S227)。
(5.ハードウェア構成)
次に、図10を参照して、本開示の実施形態に係る情報処理装置のハードウェア構成について説明する。図10は、本開示の実施形態に係る情報処理装置のハードウェア構成例を示すブロック図である。図示された情報処理装置900は、例えば、上記の実施形態における視聴者端末、サーバ装置、および/またはユーザ端末を実現しうる。
情報処理装置900は、CPU(Central Processing unit)901、ROM(Read Only Memory)903、およびRAM(Random Access Memory)905を含む。また、情報処理装置900は、ホストバス907、ブリッジ909、外部バス911、インターフェース913、入力装置915、出力装置917、ストレージ装置919、ドライブ921、接続ポート923、通信装置925を含んでもよい。さらに、情報処理装置900は、必要に応じて、撮像装置933、およびセンサ935を含んでもよい。情報処理装置900は、CPU901に代えて、またはこれとともに、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、またはFPGA(Field-Programmable Gate Array)などの処理回路を有してもよい。
CPU901は、演算処理装置および制御装置として機能し、ROM903、RAM905、ストレージ装置919、またはリムーバブル記録媒体927に記録された各種プログラムに従って、情報処理装置900内の動作全般またはその一部を制御する。ROM903は、CPU901が使用するプログラムや演算パラメータなどを記憶する。RAM905は、CPU901の実行において使用するプログラムや、その実行において適宜変化するパラメータなどを一次記憶する。CPU901、ROM903、およびRAM905は、CPUバスなどの内部バスにより構成されるホストバス907により相互に接続されている。さらに、ホストバス907は、ブリッジ909を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス911に接続されている。
入力装置915は、例えば、マウス、キーボード、タッチパネル、ボタン、スイッチおよびレバーなど、ユーザによって操作される装置である。入力装置915は、例えば、赤外線やその他の電波を利用したリモートコントロール装置であってもよいし、情報処理装置900の操作に対応した携帯電話などの外部接続機器929であってもよい。入力装置915は、ユーザが入力した情報に基づいて入力信号を生成してCPU901に出力する入力制御回路を含む。ユーザは、この入力装置915を操作することによって、情報処理装置900に対して各種のデータを入力したり処理動作を指示したりする。
出力装置917は、取得した情報をユーザに対して視覚や聴覚、触覚などの感覚を用いて通知することが可能な装置で構成される。出力装置917は、例えば、LCD(Liquid Crystal Display)または有機EL(Electro-Luminescence)ディスプレイなどの表示装置、スピーカまたはヘッドフォンなどの音声出力装置、もしくはバイブレータなどでありうる。出力装置917は、情報処理装置900の処理により得られた結果を、テキストもしくは画像などの映像、音声もしくは音響などの音声、またはバイブレーションなどとして出力する。
ストレージ装置919は、情報処理装置900の記憶部の一例として構成されたデータ格納用の装置である。ストレージ装置919は、例えば、HDD(Hard Disk Drive)などの磁気記憶部デバイス、半導体記憶デバイス、光記憶デバイス、または光磁気記憶デバイスなどにより構成される。ストレージ装置919は、例えばCPU901が実行するプログラムや各種データ、および外部から取得した各種のデータなどを格納する。
ドライブ921は、磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリなどのリムーバブル記録媒体927のためのリーダライタであり、情報処理装置900に内蔵、あるいは外付けされる。ドライブ921は、装着されているリムーバブル記録媒体927に記録されている情報を読み出して、RAM905に出力する。また、ドライブ921は、装着されているリムーバブル記録媒体927に記録を書き込む。
接続ポート923は、機器を情報処理装置900に接続するためのポートである。接続ポート923は、例えば、USB(Universal Serial Bus)ポート、IEEE1394ポート、SCSI(Small Computer System Interface)ポートなどでありうる。また、接続ポート923は、RS−232Cポート、光オーディオ端子、HDMI(登録商標)(High-Definition Multimedia Interface)ポートなどであってもよい。接続ポート923に外部接続機器929を接続することで、情報処理装置900と外部接続機器929との間で各種のデータが交換されうる。
通信装置925は、例えば、通信ネットワーク931に接続するための通信デバイスなどで構成された通信インターフェースである。通信装置925は、例えば、LAN(Local Area Network)、Bluetooth(登録商標)、Wi−Fi、またはWUSB(Wireless USB)用の通信カードなどでありうる。また、通信装置925は、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ、または、各種通信用のモデムなどであってもよい。通信装置925は、例えば、インターネットや他の通信機器との間で、TCP/IPなどの所定のプロトコルを用いて信号などを送受信する。また、通信装置925に接続される通信ネットワーク931は、有線または無線によって接続されたネットワークであり、例えば、インターネット、家庭内LAN、赤外線通信、ラジオ波通信または衛星通信などを含みうる。
撮像装置933は、例えば、CMOS(Complementary Metal Oxide Semiconductor)またはCCD(Charge Coupled Device)などの撮像素子、および撮像素子への被写体像の結像を制御するためのレンズなどの各種の部材を用いて実空間を撮像し、撮像画像を生成する装置である。撮像装置933は、静止画を撮像するものであってもよいし、また動画を撮像するものであってもよい。
センサ935は、例えば、加速度センサ、角速度センサ、地磁気センサ、照度センサ、温度センサ、気圧センサ、または音センサ(マイクロフォン)などの各種のセンサである。センサ935は、例えば情報処理装置900の筐体の姿勢など、情報処理装置900自体の状態に関する情報や、情報処理装置900の周辺の明るさや騒音など、情報処理装置900の周辺環境に関する情報を取得する。また、センサ935は、人工衛星からの信号を受信して装置の緯度、経度および高度を測定するGNSS(Global Navigation Satellite Systems)受信機を含んでもよい。
以上、情報処理装置900のハードウェア構成の一例を示した。上記の各構成要素は、汎用的な部材を用いて構成されていてもよいし、各構成要素の機能に特化したハードウェアにより構成されていてもよい。かかる構成は、実施する時々の技術レベルに応じて適宜変更されうる。
(6.補足)
本開示の実施形態は、例えば、上記で説明したような情報処理装置、システム、情報処理装置またはシステムで実行される情報処理方法、情報処理装置を機能させるためのプログラム、およびプログラムが記録された一時的でない有形の媒体を含みうる。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
例えば、上記で説明された実施形態では、視対象位置の密度に応じた空間内の位置の評価結果(空間視聴率)が、自由視点画像の提供のためのポイントクラウドデータの生成のために利用されたが、本開示の実施形態はこのような例には限られない。例えば、空間視聴率が高い位置は、撮影された画像を閲覧されるユーザの興味が高い位置と推定されることから、そのようなユーザの興味に応じて画像を記録するためのさまざまな処理が、空間視聴率に応じて実施されてもよい。
より具体的には、例えば、空間視聴率が高い位置を撮影した画像については高画質(大きな画像サイズおよび/または高いビットレート)で保存し、そうでない位置を撮影した画像については低画質(小さな画像サイズおよび/または低いビットレート)で記録することによって、データを記録するためのリソースを有効に活用する構成が採用されてもよい。
また、例えば、空間視聴率が高い位置であっても、自由視点画像を生成するために十分な画像が取得できなかった場合、または、画像を閲覧するユーザが、空間視聴率が低いために自由視点画像を生成するためのデータ(例えばポイントクラウドデータ)が生成されなかった位置を指定した場合、利用可能な画像を用いて、当該位置を撮影した複数の視点画像を単純に切り替えて閲覧することが可能であってもよい。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)空間内に存在する複数の視点からの視対象位置を示す情報を収集する機能と、
前記視対象位置の密度に応じて前記空間内の位置を評価する機能と
を実現するプロセッサを備える情報処理装置。
(2)前記プロセッサは、
前記空間内を撮影することによって得られる画像データを取得する機能と、
前記空間内の位置を評価した結果に基づいて、前記画像データの編集を実行する機能と
をさらに実現する、前記(1)に記載の情報処理装置。
(3)前記画像データの編集は、自由視点画像を提供するためのデータの生成を含む、前記(2)に記載の情報処理装置。
(4)前記画像データの編集は、前記視対象位置の密度に応じて選択的に前記自由視点画像を提供するためのデータを生成することを含む、前記(3)に記載の情報処理装置。
(5)前記画像データの編集は、前記視対象位置の密度に応じて記録される前記画像データの品質を変化させることを含む、前記(2)〜(4)のいずれか1項に記載の情報処理装置。
(6)前記画像データの編集は、前記視対象位置の密度に応じて記録される前記画像データを選別することを含む、前記(2)〜(5)のいずれか1項に記載の情報処理装置。
(7)前記視対象位置は、前記画像データに基づいて推定される、前記(2)〜(6)のいずれか1項に記載の情報処理装置。
(8)前記プロセッサは、
前記空間内を撮影することによって得られる画像データを取得する機能と、
前記空間内の位置を評価した結果に基づいて、前記画像データの取得の制御を実行する機能と
をさらに実現する、前記(1)〜(7)のいずれか1項に記載の情報処理装置。
(9)前記画像データの取得の制御は、前記撮影の対象になる位置の制御を含む、前記(8)に記載の情報処理装置。
(10)前記画像データの取得の制御は、前記撮影の対象になる範囲の制御を含む、前記(8)または(9)に記載の情報処理装置。
(11)前記視対象位置は、前記空間内を前記複数の視点から撮影することによって得られる画像データに基づいて推定される、前記(1)に記載の情報処理装置。
(12)前記プロセッサは、
前記視対象位置を示す情報に基づいて前記視対象位置を推定する機能
をさらに実現する、前記(11)に記載の情報処理装置。
(13)前記視対象位置を示す情報は、前記画像データを含む、前記(12)に記載の情報処理装置。
(14)前記視対象位置を示す情報は、前記画像データに基づいて推定された前記複数の視点の位置を示す情報を含む、前記(12)に記載の情報処理装置。
(15)前記視対象位置を示す情報は、前記複数の視点からの視線を示す情報をさらに含む、前記(14)に記載の情報処理装置。
(16)前記視対象位置の密度は、前記空間内に設定されるグリッドごとに評価される、前記(1)〜(15)のいずれか1項に記載の情報処理装置。
(17)前記視対象位置の密度は、互いに近接する前記視対象位置を含むクラスタごとに評価される、前記(1)〜(15)のいずれか1項に記載の情報処理装置。
(18)空間内に存在する複数の視点からの視対象位置を示す情報を収集することと、
プロセッサが、前記視対象位置の密度に応じて前記空間内の位置を評価することと
を含む情報処理方法。
(19)空間内に存在する複数の視点からの視対象位置を示す情報を収集する機能と、
前記視対象位置の密度に応じて前記空間内の位置を評価する機能と
をプロセッサに実現させるためのプログラム。
10 システム
300 カメラ
400 視聴者端末
500 サーバ
510 視対象位置データ
520 空間視聴率推定部
530 画像データ
540 ポイントクラウド生成部
600 ユーザ端末
610 自由視点画像生成部

Claims (11)

  1. ランドマークが設置された空間内に存在する複数の視点の位置を示す情報を、前記ランドマークに基づいて収集する機能と、
    前記ランドマークが設置された空間内に存在する複数の視点からの視対象位置を示す情報を、前記複数の視点の位置に基づいて収集する機能と、
    前記視対象位置の密度に応じて前記ランドマークが設置された空間内の位置を評価する機能と
    前記ランドマークが設置された空間内を撮影することによって得られる画像データを取得する機能と、
    前記ランドマークが設置された空間内の位置を評価した結果に基づいて、前記画像データの取得の制御を実行する機能と、
    前記ランドマークが設置された空間内の位置を評価した結果に基づいて、前記画像データの編集を実行する機能と
    を実現するプロセッサを備え
    前記画像データの編集は、前記ランドマークが設置された空間内の自由視点画像を提供するためのデータの生成を含む、
    情報処理装置。
  2. 前記画像データの編集は、前記視対象位置の密度に応じて選択的に前記自由視点画像を提供するためのデータを生成することを含む、請求項に記載の情報処理装置。
  3. 前記画像データの編集は、前記視対象位置の密度に応じて記録される前記画像データの品質を変化させることを含む、請求項1または2に記載の情報処理装置。
  4. 前記画像データの編集は、前記視対象位置の密度に応じて記録される前記画像データを選別することを含む、請求項からのいずれか1項に記載の情報処理装置。
  5. 前記視対象位置は、前記画像データに基づいて推定される、請求項からのいずれか1項に記載の情報処理装置。
  6. 前記画像データの取得の制御は、前記撮影の対象になる位置の制御を含む、請求項1〜5のいずれか1項に記載の情報処理装置。
  7. 前記画像データの取得の制御は、前記撮影の対象になる範囲の制御を含む、請求項1〜5のいずれか1項に記載の情報処理装置。
  8. 前記視対象位置の密度は、前記ランドマークが設置された空間内に設定されるグリッドごとに評価される、請求項1からのいずれか1項に記載の情報処理装置。
  9. 前記視対象位置の密度は、互いに近接する前記視対象位置を含むクラスタごとに評価される、請求項1からのいずれか1項に記載の情報処理装置。
  10. ランドマークが設置された空間内に存在する複数の視点の位置を示す情報を、前記ランドマークに基づいて収集することと、
    前記ランドマークが設置された空間内に存在する複数の視点からの視対象位置を示す情報を、前記複数の視点の位置に基づいて収集することと、
    プロセッサが、前記視対象位置の密度に応じて前記ランドマークが設置された空間内の位置を評価することと
    前記ランドマークが設置された空間内を撮影することによって得られる画像データを取得することと、
    前記ランドマークが設置された空間内の位置を評価した結果に基づいて、前記画像データの取得の制御を実行することと、
    前記ランドマークが設置された空間内の位置を評価した結果に基づいて、前記画像データの編集を実行することと
    を含み、
    前記画像データの編集は、前記ランドマークが設置された空間内の自由視点画像を提供するためのデータの生成を含む、
    情報処理方法。
  11. ランドマークが設置された空間内に存在する複数の視点の位置を示す情報を、前記ランドマークに基づいて収集する機能と、
    前記ランドマークが設置された空間内に存在する複数の視点からの視対象位置を示す情報を、前記複数の視点の位置に基づいて収集する機能と、
    前記視対象位置の密度に応じて前記ランドマークが設置された空間内の位置を評価する機能と、
    前記ランドマークが設置された空間内を撮影することによって得られる画像データを取得する機能と、
    前記ランドマークが設置された空間内の位置を評価した結果に基づいて、前記画像データの取得の制御を実行する機能と、
    前記ランドマークが設置された空間内の位置を評価した結果に基づいて、前記画像データの編集を実行する機能と
    をプロセッサに実現させ
    前記画像データの編集は、前記ランドマークが設置された空間内の自由視点画像を提供するためのデータの生成を含む、
    プログラム。
JP2016562332A 2014-12-04 2015-09-25 情報処理装置、情報処理方法およびプログラム Expired - Fee Related JP6702196B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2014245901 2014-12-04
JP2014245901 2014-12-04
PCT/JP2015/077216 WO2016088437A1 (ja) 2014-12-04 2015-09-25 情報処理装置、情報処理方法およびプログラム

Publications (2)

Publication Number Publication Date
JPWO2016088437A1 JPWO2016088437A1 (ja) 2017-09-14
JP6702196B2 true JP6702196B2 (ja) 2020-05-27

Family

ID=56091394

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016562332A Expired - Fee Related JP6702196B2 (ja) 2014-12-04 2015-09-25 情報処理装置、情報処理方法およびプログラム

Country Status (4)

Country Link
US (1) US10190869B2 (ja)
EP (1) EP3229459B1 (ja)
JP (1) JP6702196B2 (ja)
WO (1) WO2016088437A1 (ja)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106454069B (zh) * 2016-08-31 2019-11-08 歌尔股份有限公司 一种控制无人机拍摄的方法、装置和可穿戴设备
JP6434947B2 (ja) * 2016-09-30 2018-12-05 キヤノン株式会社 撮像システム、画像処理装置、画像処理方法、及びプログラム
KR102458807B1 (ko) 2016-11-04 2022-10-25 딥마인드 테크놀로지스 리미티드 신경망을 이용한 장면 이해 및 생성
WO2018088037A1 (ja) * 2016-11-14 2018-05-17 ソニー株式会社 可動型撮像装置の制御装置、可動型撮像装置の制御方法及びプログラム
US20180232574A1 (en) * 2017-02-14 2018-08-16 The Board Of Trustees Of The Leland Junior University Systems and Methods for Transmitting and Receiving Data Using Machine Learning Classification
JP7104504B2 (ja) * 2017-10-18 2022-07-21 キヤノン株式会社 画像処理システム、画像処理装置、画像伝送方法、及び、プログラム
JP6433559B1 (ja) 2017-09-19 2018-12-05 キヤノン株式会社 提供装置および提供方法、プログラム
US11575825B2 (en) * 2017-10-17 2023-02-07 Nikon Corporation Control apparatus, control system, and control program
WO2019092790A1 (ja) * 2017-11-07 2019-05-16 ヤマハ株式会社 撮像システム、制御装置、撮像装置、撮像装置の制御方法およびプログラム
JP6415675B1 (ja) * 2017-12-04 2018-10-31 キヤノン株式会社 生成装置、生成方法及びプログラム
JP6921031B2 (ja) * 2018-04-27 2021-08-18 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 制御装置及び撮影方法
JP7193938B2 (ja) * 2018-07-04 2022-12-21 キヤノン株式会社 情報処理装置及びその制御方法、プログラム
JP2020136776A (ja) * 2019-02-14 2020-08-31 キヤノン株式会社 画像生成システムおよび画像生成方法、制御装置および制御方法
JP7504634B2 (ja) 2019-06-21 2024-06-24 キヤノン株式会社 画像提供システム、その制御方法、プログラムおよび記憶媒体
JP7305461B2 (ja) * 2019-06-28 2023-07-10 キヤノン株式会社 画像提供システム、画像提供装置、その制御方法、及びプログラム
WO2020256120A1 (ja) * 2019-06-21 2020-12-24 キヤノン株式会社 画像提供システム及びその制御方法
EP4083991A4 (en) 2019-12-23 2023-06-28 Sony Group Corporation Image generation device, image generation method, and image generation program
CN116171573A (zh) * 2020-07-21 2023-05-26 索尼集团公司 信息处理设备、信息处理方法和程序

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003179800A (ja) 2001-12-13 2003-06-27 Sony Corp 多視点画像生成装置、画像処理装置、および方法、並びにコンピュータ・プログラム
JP2005100367A (ja) * 2003-09-02 2005-04-14 Fuji Photo Film Co Ltd 画像生成装置、画像生成方法、及び画像生成プログラム
JP2005109757A (ja) * 2003-09-29 2005-04-21 Fuji Photo Film Co Ltd 画像撮像装置、画像処理装置、画像撮像方法、及びプログラム
JP2007235399A (ja) 2006-02-28 2007-09-13 Matsushita Electric Ind Co Ltd 自動撮影装置
JP5200821B2 (ja) * 2008-09-25 2013-06-05 カシオ計算機株式会社 撮像装置及びそのプログラム

Also Published As

Publication number Publication date
EP3229459B1 (en) 2022-08-24
US20170322017A1 (en) 2017-11-09
US10190869B2 (en) 2019-01-29
JPWO2016088437A1 (ja) 2017-09-14
EP3229459A4 (en) 2018-08-15
WO2016088437A1 (ja) 2016-06-09
EP3229459A1 (en) 2017-10-11

Similar Documents

Publication Publication Date Title
JP6702196B2 (ja) 情報処理装置、情報処理方法およびプログラム
US10679676B2 (en) Automatic generation of video and directional audio from spherical content
US10721439B1 (en) Systems and methods for directing content generation using a first-person point-of-view device
US9729788B2 (en) Image generation apparatus and image generation method
RU2683262C2 (ru) Устройство обработки информации, способ обработки информации и программа
EP2779620B1 (en) Image generation device, and image generation method
US9894272B2 (en) Image generation apparatus and image generation method
US10284776B2 (en) Image generation apparatus and image generation method
JP6897728B2 (ja) 画像処理装置、画像処理方法およびプログラム
EP2998935B1 (en) Image processing device, image processing method, and program
JPWO2014103731A1 (ja) 画像処理装置および方法、並びにプログラム
JP6359704B2 (ja) イベントに関連付けられる情報を人に供給するための方法
CN112839165B (zh) 人脸跟踪摄像的实现方法、装置、计算机设备和存储介质
US11195295B2 (en) Control system, method of performing analysis and storage medium
JP2016194783A (ja) 画像管理システム、通信端末、通信システム、画像管理方法、及びプログラム
JP2010130403A (ja) 映像制御装置およびそれを備えた撮像装置、表示装置
KR20150114589A (ko) 피사체 재구성을 위한 장치 및 방법
Matsumoto et al. Image processing device and method to obtain a 360 image without remapping
JP2015056727A (ja) 装置、方法、プログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180813

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180813

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190208

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20190214

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190222

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190515

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190522

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191023

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191212

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200407

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200420

R151 Written notification of patent or utility model registration

Ref document number: 6702196

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees