JP2019079298A - 情報処理装置、表示制御方法、及び、プログラム - Google Patents

情報処理装置、表示制御方法、及び、プログラム Download PDF

Info

Publication number
JP2019079298A
JP2019079298A JP2017206013A JP2017206013A JP2019079298A JP 2019079298 A JP2019079298 A JP 2019079298A JP 2017206013 A JP2017206013 A JP 2017206013A JP 2017206013 A JP2017206013 A JP 2017206013A JP 2019079298 A JP2019079298 A JP 2019079298A
Authority
JP
Japan
Prior art keywords
virtual viewpoint
image
processing apparatus
information
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017206013A
Other languages
English (en)
Other versions
JP7140487B2 (ja
Inventor
友里 吉村
Yuri Yoshimura
友里 吉村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017206013A priority Critical patent/JP7140487B2/ja
Priority to US16/165,899 priority patent/US10917622B2/en
Publication of JP2019079298A publication Critical patent/JP2019079298A/ja
Application granted granted Critical
Publication of JP7140487B2 publication Critical patent/JP7140487B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • H04N13/117Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/183On-screen display [OSD] information, e.g. subtitles or menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/324Colour aspects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/361Reproducing mixed stereoscopic images; Reproducing mixed monoscopic and stereoscopic images, e.g. a stereoscopic image overlay window on a monoscopic image background
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30221Sports video; Sports image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Human Computer Interaction (AREA)
  • Processing Or Creating Images (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

【課題】 複数のカメラを備えた画像処理システムにおいて仮想カメラ情報を可視化する。【解決手段】 第1仮想視点を設定する設定手段と、前記設定手段により設定された前記第1仮想視点に基づく仮想視点画像と、前記第1仮想視点とは異なる第2仮想視点に関する情報とを表示部に表示させる表示制御手段と、を有することを特徴とする情報処理装置。【選択図】 図1

Description

本発明は、仮想視点画像に関するものである。
複数の撮像装置を異なる位置に設置して多視点で同期撮影し、当該撮影により得られた複数の画像を用いて、撮像装置の設置位置から撮影した画像だけでなく、視点を任意に変更可能な仮想視点画像を生成する技術がある。
仮想視点画像は、サーバなどの画像処理部が複数のカメラにより撮影された画像を集約し、三次元モデルを生成し、レンダリングなどの処理を施すことで生成され、閲覧のためにユーザ端末に伝送される。
特許文献1には、同一の範囲を取り囲むように複数の撮像装置を配置して、その同一の範囲を撮影した画像を用いて、任意の視点の設定に対応する仮想視点画像を生成、表示する技術が開示されている。
特開2014−215828号公報
例えば、スポーツ競技を撮像した画像から、ユーザにより設定された視点に応じた仮想視点画像を生成することにより、ユーザは、自身の好みの視点で試合を観戦することができる。しかしながら、仮想視点の設定に慣れていないユーザでは、どの視点からスポーツ競技などの視聴対象を閲覧すれば、臨場感あふれる仮想視点画像を生成できるのかが分かり難い恐れがある。また、仮想視点の設定に慣れていないユーザでは、多くの他のユーザが閲覧しているような着目すべきイベントやオブジェクトを写すことができる仮想視点の位置を認識することができず、着目すべきイベントやオブジェクトを見逃してしまう恐れがあった。なお、仮想視点画像に係る視聴対象は、スポーツ競技に限らず、コンサートや他のイベントでも同様な問題が生じ得る。
本発明は、
第1仮想視点を設定する設定手段と、
前記設定手段により設定された前記第1仮想視点に基づく仮想視点画像と、前記第1仮想視点とは異なる第2仮想視点に関する情報とを表示部に表示させる表示制御手段と、
を有することを特徴とする。
本発明によれば、例えば、他のユーザが閲覧している仮想視点画像の仮想視点に関する情報をユーザに容易に認識させることができる。
画像処理システム100の構成を示す図である。 仮想カメラ可視化情報の一例を示す図である。 仮想カメラ可視化情報の一例を示す図である。 仮想カメラ可視化情報作成処理の流れを示すフローチャートである。 仮想カメラ可視化情報の一例を示す図である。 ユーザ端末の表示画面の一例を示す図である。 レコメンド処理の流れを示すフローチャートである。 仮想カメラ可視化情報作成処理の流れを示すフローチャートである。 仮想カメラ可視化情報の一例を示す図である。 仮想カメラ可視化情報の一例を示す図である。 画像処理システムの各装置のハードウェア構成を示す図である。 画像処理装置の処理の流れを示すフローチャートである。 ユーザ端末の処理の流れを示すフローチャートである。
以下に図面を参照してこの発明の実施例を詳細に説明する。ただし、本発明は以下に記載されている実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形及び変更が可能である。
(画像処理システム)
図面を参照して実施形態を説明する。図1は、本実施形態の画像処理システムの概略の一例を示す図である。図1に示す画像処理システム100は、例えば、競技等を実際に行うフィールドと、観客席を有するスタジアムやコンサートホールに設置される複数のカメラにより撮影された撮影画像を用いて仮想視点画像を生成するシステムである。仮想視点画像は、複数の視点から撮影した複数の画像を用いて生成される画像であって、任意の視点や任意の視線方向からの仮想的な撮影結果を表現する画像である。画像処理システム100は、画像処理装置3、ユーザ端末4a〜4z及び記憶装置5を有する。
記憶装置5は、例えば、スタジアムに設置した複数のカメラの撮影により得た複数の画像や撮影対象であり、被写空間である例えばスタジアムやフィールドに関する情報など様々な情報を記憶する装置である。画像処理装置3は、複数のユーザにより設定された仮想視点画像に係る視点を可視化するための情報を生成したり、仮想視点画像を生成したりする情報処理装置である。画像処理装置3は、決定した視点の位置から仮想的な撮影結果を表現する仮想視画像を生成する。また、画像処理装置3は、決定した視線の方向に仮想的なカメラを向けた場合の撮影結果を表現する仮想視画像を生成してもよい。画像処理装置3は、記憶装置5に蓄積された複数のカメラの撮影により得た複数の画像を用いて仮想視点画像を生成する。画像処理装置3は、生成した仮想視点画像をユーザ端末4a〜4zの何れかに伝送する。
ユーザ端末4a〜4zは、画像処理装置3から出力される仮想視点画像をユーザ端末4a〜4zが備える表示画面に表示する。また、ユーザ端末4a〜4zは、ユーザの入力に基づいて、例えば、仮想視点画像に係る視点の位置の設定や移動、仮想視点画像に係る視線方向の設定や変更および視点の切り替えの指示を受け付ける。そして、ユーザ端末4a〜4zは、その内容を示す伝送信号を仮想視点情報として画像処理装置3へ伝送する。なお、特別な説明がない場合は、ユーザ端末4aからユーザ端末4zまでの26台のユーザ端末を区別せずユーザ端末4と記載する。また、特別な説明がない場合は、ユーザ端末4の構成要素についても区別せず記載する。なお、ユーザ端末の台数として26台と記載しているが、あくまでも一例であり、台数をこれに限定するものではない。なお、本実施形態では、特に断りがない限り、画像という文言が、動画と静止画の概念を含むものとして説明する。すなわち、本実施形態の画像処理システム100は、静止画及び動画の何れについても処理可能である。
画像処理システム100の各装置(画像処理装置3、ユーザ端末4a〜4z及び記憶装置5)のハードウェア構成の一例を、図11を用いて説明する。装置1200は、CPU1201、ROM1202、RAM1203、補助記憶装置1204、表示部1205、操作部1206、通信部1207、及びバス1208を有する。
CPU1201は、ROM1202やRAM1203に格納されているコンピュータプログラムやデータを用いて装置1200の全体を制御する。ROM1202は、変更を必要としないプログラムやパラメータを格納する。RAM1203は、補助記憶装置1204から供給されるプログラムやデータ、及び通信部1207を介して外部から供給されるデータなどを一時記憶する。補助記憶装置1204は、例えばハードディスクドライブ等で構成され、静止画や動画などのコンテンツデータを記憶する。
表示部1205は、例えば液晶ディスプレイ等で構成され、ユーザが装置1200を操作するためのGUI(Graphical User Interface)などを表示する。操作部1206は、例えばキーボードやマウス等で構成され、ユーザによる操作を受けて各種の指示をCPU1201に入力する。通信部1207は、外部の装置と通信を行う。例えば、装置1200が外部の装置と有線で接続される場合には、LANケーブル等が通信部1207に接続される。なお、装置1200が外部の装置と無線通信する機能を有する場合、通信部1207はアンテナを備える。バス1208は、装置1200の各部を繋いで情報を伝達する。
本実施形態では表示部1205と操作部1206は装置1200の内部に存在するが、装置1200は表示部1205及び操作部1206の少なくとも一方を備えていなくてもよい。また、表示部1205及び操作部1206の少なくとも一方が装置1200の外部に別の装置として存在していて、CPU1201が、表示部1205を制御する表示制御部、及び操作部1206を制御する操作制御部として動作してもよい。
なお、CPU1201は、単数もしくは複数のCPUにより構成されていてもよいし、マルチコアのCPUであってもよい。また、CPU1201の代わりに、または、CPU1201と共に、ASIC、FPGAまたはGPUなどのハードウェアを有していてもよい。この場合、ASIC、FPGAまたはGPUなどのハードウェアが、CPU1201が行うべき処理の一部または全てを行ってもよい。また、装置1200の処理のうち一部をハードウェアで行い、別の一部の処理を、CPUを用いたソフトウェア処理によって実現するようにしてもよい。なお、画像処理システム100のすべての装置が同様の構成である必要がなく、装置に応じて、一部の構成を有さなくてもよいし、他の構成を有していてもよい。
画像処理システム100の各装置の機能構成を、図1を用いて説明する。図1に示す各装置機能構成は、各装置のCPU1201が、ROM1202やRAM1203に格納されているコンピュータプログラムを実行し、情報の演算及び各ハードウェアを制御することで実現される。なお、図1に示す各構成の一部またはすべてを、専用のハードウェアにより実現されてもよい。専用のハードウェアは、例えば、ASIC、FPGAまたはGPU等である。
記憶装置5の構成について説明する、記憶装置5は、画像保持部51及び被写体情報保持部52を有する。画像保持部51は、競技フィールド等を取り囲むように設置された複数台のカメラによって同期撮影された複数の画像を保持する。なお、画像保持部51は、撮影画像に対して前景背景分離処理が行われた画像を記憶してもよい。前景背景分離処理では、画像からボールや選手などの特定の人物である所定のオブジェクト(以下前景オブジェクト)の領域を前景領域として抽出し、画像から前景領域を抽出した残りの画像を背景領域としてもよい。また、前景領域を示す画像を前景画像及び背景領域を示す画像を背景画像とも呼ぶ。被写体情報保持部52は、被写空間に関する情報を保持する。被写体情報保持部52は、例えば、撮影対象である競技場のフィールドや観客席など、仮想視点画像内に背景として映りこむ物体(背景オブジェクト)の3次元モデル情報や、仮想視点を設定可能な範囲を示す3次元空間情報などを記憶する。なお、記憶装置5の上述の機能構成の一部乃至全てが、画像処理装置3またはユーザ端末4が有していてもよい。
続いて、画像処理装置3の構成について説明する。画像処理装置3は、仮想視点画像生成部301、取得部302、保持部303、可視化情報生成部304、表示画像生成部305、管理部306および通信部307を有している。仮想視点画像生成部301は、画像保持部51から取得した複数の画像に基づいて仮想視点画像を生成する。仮想視点画像生成部301は、画像保持部51から取得した複数の画像から三次元モデルを生成し、取得部302から取得した仮想視点画像に係る視点でテクスチャをマッピングするモデルベースレンダリングにより仮想視点画像を生成してもよい。モデルベースレンダリングは、視体積交差法、MULTI−VIEW−STEREO(MVS)などの三次元形状復元手法により得られた対象の三次元形状(モデル)を利用する。そして、モデルベースレンダリングは、生成した三次元形状を用いて、仮想視点画像に係る視点から仮想的なカメラにより撮影された画像を生成する技術である。なお、仮想視点画像を生成する方式は、例えば、イメージベースレンダリングなどの他の方式を用いてもよい。イメージベースレンダリングは、モデリング(幾何学図形を使用して物体の形状を作成する過程)をしないで、複数視点の撮影画像から仮想視点画像を生成するレンダリング方法である。
仮想視点画像生成部301は、生成する仮想視点画像に写される前景オブジェクトおよび背景オブジェクトの座標を算出し、当該座標についてテクスチャマッピング、レンダリングを実行する。仮想視点画像生成部301は、前景オブジェクトに関する座標値を前景座標、背景オブジェクトに関する座標値を背景座標として後述の保持部303において保持する。
取得部302は、生成する仮想視点画像に係る視点の位置及び/または視線の方向を取得する。なお、本実施形態において、生成する仮想視点画像を撮影する仮想的なカメラを見立て、生成する仮想視点画像に係る視点の位置及び/または視線の方向を設定することを、仮想カメラの位置姿勢を設定するとも呼ぶ。また、仮想カメラの位置姿勢の連続的な遷移を仮想カメラパスと呼ぶ。即ち、画像処理装置3は、設定した仮想カメラパスに基づいて、複数の仮想視点画像を生成し得る。また、画像処理装置3は、設定した仮想カメラパスに基づいて生成した複数の仮想視点画像を一つの動画として生成し得る。
取得部302は、ユーザ端末4からユーザの操作に基づく仮想視点情報を取得した場合、仮想視点情報に対応する位置と方向を出力する仮想視点画像に係る視点や視線の方向として決定する。仮想視点情報には、位置情報と方向情報とが少なくとも含まれる。
取得部302は、ユーザの指示内容に基づき、時間的に連続する仮想カメラパスまたは静止画に係る仮想カメラの位置姿勢を取得する。なお、取得部302は、仮想カメラパスを、仮想カメラパラメータを設定することにより特定する。仮想カメラパラメータとは、フレーム番号ないしタイムコードと関連づけられた、仮想カメラの位置及び/または向きを含む。取得部302は、仮想カメラパラメータとして、仮想カメラの画角、焦点距離またはズーム倍率なども設定してもよい。取得部302は、被写体情報保持部52から得た被写空間情報を参照し、仮想視点を設定可能な範囲に仮想カメラパスを設定する。
保持部303は、仮想視点画像生成部301から受け取った前景座標および背景座標、取得部302で算出された仮想カメラパスパラメータを、後述の管理部306から得るユーザ情報と関連付けて蓄積していく。
可視化情報生成部304は、保持部303に蓄積された複数のユーザが設定した仮想カメラに関する情報を、ユーザが総括的、直観的に認識、把握出来るように可視化するため、グラフィックデータ、あるいはテキストデータを生成する。仮想カメラ情報可視化処理の詳細については後述する。
表示画像生成部305は、ユーザ端末4の表示部402に表示される表示画像を生成する。ここで生成される表示画像は、仮想視点画像生成部301で生成された仮想視点画像や可視化情報生成部304で生成された仮想カメラ可視化情報作成結果に基づく情報である。
表示画像生成部305は、仮想視点画像生成部301で生成された仮想視点画像や可視化情報生成部304で生成された仮想カメラ可視化情報をそのままユーザ端末4で表示可能なデータとして生成してもよい。また、表示画像生成部305は、これらの情報を重ね合わせた新たな画像を生成してもよい。また、表示画像生成部305は、仮想視点画像生成部301で生成された仮想視点画像や可視化情報生成部304で生成された仮想カメラ情報可視化結果にさらなる情報を付加した表示画像を生成してもよい。表示画像生成部305が付加する情報としては、例えば、撮影対象となるスポーツ競技の選手名を表すテキストデータ、ボールの軌跡を示すグラフィックデータであってもよい。また、表示画像生成部305が付加する情報は、ユーザから所定の入力を受け付けるためのインターフェース表示データなど、種々の情報であってもよい。表示画像生成部305は、ユーザ端末4に送信する最終状態の表示画像を生成する。
管理部306は、各ユーザを特定するためのユーザID、各ユーザに関するアカウント情報または各ユーザの属性情報などのユーザ情報を、ユーザ端末4から通信部307を介して受け取り、保持する。なお、ユーザ情報はユーザ端末4とは異なる装置から取得してもよい。また、管理部306は、画像処理装置3とユーザ端末4との間で送受信される画像やカメラパスを設定するための仮想視点情報などの各種情報をユーザ情報と関連付けて管理してもよい。通信部307は、ユーザ端末4との間で非図示のネットワーク等を介してやり取りされる、画像、音声、テキストデータや、仮想カメラパスを設定するための指示等の各種情報の送受信を行う。
続いて、ユーザ端末4の構成について説明する。ユーザ端末4は、端末通信部401、表示部402、仮想カメラパス設定部403および発信部404を有する。端末通信部401は、画像処理装置3との間で、種々の情報の送受信を行う。表示部402は、画像処理装置3から受信した情報や種々な情報を表示する。仮想カメラパス設定部403は、ユーザから仮想カメラパスに対する指示を受け付け、指示に基づく仮想カメラパスを設定するための仮想視点情報を、端末通信部401を介して画像処理装置3に送信する。なお、仮想カメラパス設定部403は、例えば、「注目すべきイベントが発生している箇所を視聴する」などのユーザからの指示を受け付けた場合、この指示に基づいて、仮想視点画像に係る位置の座標や視線方向を計算して取得する構成としてもよい。また、仮想カメラパス設定部403は、例えば、「特定の選手に注目した仮想視点画像を視聴する」などのユーザからの指示を受け付けた場合、この指示に基づいて、仮想視点画像に係る位置の座標や視線方向を計算して取得する構成としてもよい。また、仮想カメラパス設定部403は、例えば、「ボールの一定の範囲を視聴する」などのユーザからの指示を受け付けた場合、この指示に基づいて、仮想視点画像に係る位置の座標や視線方向を計算して取得する構成としてもよい。
発信部404は、画像処理装置3に対し、ユーザを特定するためのユーザID、ユーザに関するアカウント情報またはユーザの属性情報などのユーザ情報を、端末通信部401を介して画像処理装置3に送信する。
なお、図1に示した画像処理システム100の構成は一例に過ぎず、画像処理システム100は、上述の構成要素の一部を備える他の装置を有してもよい。また、画像処理装置3は、複数の装置であってもよい。
以上の構成を有する画像処理システム100の動作について説明を行う。まず、画像処理装置3の動作について図12のフローチャートを用いて説明する。図12のフローチャートに示す処理は、画像処理装置3がユーザ端末4から情報を受信した場合に開始される。また、後述するフローチャートに示す処理は、画像処理装置3のCPU1201がプログラムを実行することで情報の演算や各ハードウェアを制御することで実現される。なお、後述するフローチャートの少なくとも一部のステップが専用のハードウェアにより実行されてもよい。専用のハードウェアは、例えば、ASIC、FPGAまたはGPUである。
画像処理装置3は、ユーザ端末4から受信した情報が仮想カメラの位置姿勢を特定するための仮想視点情報であるか否かを判定する(S1301)。S1301において、画像処理装置3は、ユーザ端末4から受信した情報が仮想視点情報であると判定されなった場合、ユーザ端末4から受信した情報が仮想カメラ可視化情報の取得要求である否かを判定する(S1302)。S1302において、画像処理装置3は、ユーザ端末4から受信した情報が仮想カメラ可視化情報の取得要求ではいと判定された場合、処理を終了する。なお、画像処理装置3は、取得した情報に応じた処理を行う構成としてもよい。
S1301において、ユーザ端末4から受信した情報が仮想視点情報であると判定された場合、画像処理装置3は、受信した仮想視点情報に基づく仮想カメラパスパラメータを設定する(S1303)。画像処理装置3は、生成する仮想視点画像に係る撮影時間とそれらに対応付ける視点の位置及び/または視線の方向を設定する。なお、画像処理装置3は、時間的に連続する仮想カメラパスのパラメータを設定してもよいし、静止画である仮想視点画像に係る視点の位置及び/または視線の方向に関するパラメータを設定してもよい。
画像処理装置3は、設定した仮想カメラパスパラメータに従った仮想視点画像を生成する(S1304)。S1304では、画像処理装置3は、上述の通り、複数のカメラにより撮影された画像を用いて三次元モデルを生成し、レンダリングなどの処理を施すことで仮想視点画像を生成する。画像処理装置3は、生成した仮想視点画像をユーザ端末4に送信する(S1305)。
一方、S1302において、ユーザ端末4から受信した情報が仮想カメラ可視化情報取得要求である場合、仮想カメラ可視化情報を生成する(S1306)。この処理の詳細は後述する。画像処理装置3は、生成した仮想カメラ可視化情報をユーザ端末4に送信する(S1307)。
続いて、ユーザ端末4の動作について図13のフローチャートを用いて説明する。図13のフローチャートに示す処理は、ユーザ端末4がユーザからの指示操作を受け付けた場合に開始される。また、後述するフローチャートに示す処理は、ユーザ端末4のCPU1201がプログラムを実行することで情報の演算や各ハードウェアを制御することで実現される。なお、後述するフローチャートの少なくとも一部のステップが専用のハードウェアにより実行されてもよい。専用のハードウェアは、例えば、ASIC、FPGAまたはGPUである。
ユーザ端末4は、ユーザから受け付けた指示操作が、仮想カメラパスを設定するための指示操作であるか否かを判定する(S1401)。S1401では、ユーザ端末4は、ユーザから受け付けた指示操作が、仮想カメラパスを設定するための指示操作ではないと判定された場合、ユーザから受け付けた指示操作が仮想カメラ可視化情報の表示を指示する操作であるか否かを判定する(S1402)。S1402において、ユーザ端末4は、ユーから受け付けた指示操作が、仮想カメラ可視化情報の表示を指示する操作ではないと判定された場合、処理を終了する。なお、ユーザ端末4は、受け付けた指示操作に応じた処理を行う構成としてもよい。
S1401において、ユーザから受け付けた指示操作が、仮想カメラパスを設定するための指示操作と判定された場合を説明する。この場合、ユーザ端末4は、ユーザから受け付けた指示操作に基づく仮想カメラパスを特定するための仮想視点情報を画像処理装置3に送信する(S1403)。ユーザ端末4は、送信した仮想視点情報に基づく仮想視点画像を画像処理装置3から受信したか否かを判定する。ユーザ端末4は、画像処理装置3から仮想視点画像を受信した場合、受信した仮想視点画像を表示する(S1404)。
一方、S1402において、ユーザから受け付けた指示操作が、仮想カメラ可視化情報の表示を指示する操作であると判定された場合、ユーザ端末4は、仮想カメラ可視化情報の取得要求を画像処理装置3に送信する(S1406)。ユーザ端末4は、仮想カメラ可視化情報の取得要求を送信した場合、仮想カメラ可視化情報を画像処理装置3から受信したか否かを判定する。ユーザ端末4は、画像処理装置3から仮想カメラ可視化情報を受信した場合、受信した仮想カメラ可視化情報を表示する(S1408)。
(仮想カメラ可視化情報作成処理)
続いて、S1306の可視化情報生成部304による仮想カメラ可視化情報作成処理の詳細について、具体例を用いて説明する。図2は、可視化情報生成部304により作成される仮想カメラ可視化情報の一例である。図2および図3は、撮影対象のあるシーンにおいて、4人のユーザ(ユーザIDをu、u=1〜4とする)がそれぞれ個別に設定した仮想カメラC1〜C4(Cu、u=1〜4)の位置及び画界を図示した仮想カメラ可視化情報の一例である。図2及び図3において、撮影対象領域であるフィールドやスタジアムを表すCG(コンピュータグラフィック)や仮想視点画像上の対応する位置に仮想カメラC1〜C4を示すオブジェクトが表示される。図2及び図3において、Aは、後述する着目オブジェクト可視化情報の生成対象となるエリアを示す情報である。エリアAは、撮影対象がサッカーなどの球技である場合、フィールド面からボールが飛びあがりうる範囲の高さを持つ3次元空間に設定されてもよい。エリアAは、3次元座標XYZの3方向それぞれについて所定の数にブロック分割されている。以下で分割ブロックという場合には、このエリアAの分割によるブロックを指す。Bは仮想カメラを設定可能な範囲を示す情報である。またP〜Tは、選手やボールなどの前景オブジェクトである。
図2及び図3に示す仮想カメラ可視化情報は、仮想視点画像上に仮想カメラを示すオブジェクトを重畳することで生成されてもよい。また、仮想カメラ可視化情報を重畳する仮想視点画像に係る視点の位置は、ユーザ端末4において任意に変更可能であってもよい。また、画像処理装置3は、ユーザ端末4が表示させている仮想視点画像に係る視点の位置に基づいて、仮想カメラ可視化情報に含まれる仮想視点画像の視点の位置を決定してもよい。例えば、画像処理装置3は、ユーザ端末4が表示させている仮想視点画像の視線方向と、仮想カメラ可視化情報に含まれる仮想視点画像の視線の方向を同一にしてもよい。ユーザ端末4が表示させている仮想視点画像と、仮想カメラ可視化情報との位置関係を把握しやすくなる。また、画像処理装置3は、仮想カメラ可視化情報に含まれる仮想視点画像の視点の位置を、ユーザ端末4が表示させる仮想視点画像に係る視点の位置からフィールドに対して離れた位置にしてもよい。このようにすることで、ユーザに他のユーザの仮想カメラの位置を俯瞰して把握させることができる。
また、図3は、図2の仮想カメラ可視化情報を上から俯瞰したものである。仮想カメラ可視化情報は、図2及び図3に示す通り、仮想カメラの位置を俯瞰してユーザに把握させるために、仮想カメラの位置を設定可能な範囲より広い範囲を視点の位置として設定可能であってもよい。
また、仮想カメラ可視化情報の表示形態を図2に示す例と図3に示す例とを含む複数の表示形態のうちから任意に切り替えて表示してもよい。また、ユーザ端末4は、仮想カメラ可視化情報として、図2に示す例と図3に示す例とを含む複数の表示形態を同時に表示してもよい。また、仮想カメラC1〜C4の位置を、カメラを模したオブジェクトにより示してもよい。
また、図2及び図3は、一例に過ぎず、他の情報を仮想カメラ可視化情報として含んでもよいし、図2及び図3に示した一部の情報を仮想カメラ可視化情報は含まなくてもよい。例えば、仮想カメラ可視化情報は、仮想カメラと関連づけてその仮想カメラを設定したユーザを識別するため識別情報であるユーザIDを含む構成としてもよい。また、ユーザ端末4に表示される仮想カメラ可視化情報には、エリアAまたはエリアBを示す情報は含まれなくてもよい。また、ユーザ端末4は、図2及び図3に表示される仮想カメラ可視化情報の一部をユーザの操作に応じて表示したり、非表示にしたりしてもよい。ユーザ端末4は、例えば、仮想カメラC1〜C4の画界を示す情報をユーザの操作に応じて表示したり、非表示にしたりしてもよい。また、ユーザ端末4は、図2及び図3に示す仮想カメラ可視化情報を仮想視点画像とともに表示してもよい。
続いて、仮想カメラ可視化情報の一例である着目オブジェクト可視化情報について説明する。着目オブジェクト可視化情報を生成する処理の流れについて図4に示すフローチャートを用いて説明する。
S1001では、画像処理装置3は、仮想カメラC1の画界に含まれる前景オブジェクトの座標を示す前景座標を、保持部303から取得する。S1002では、前景座標を含む分割ブロックを判定し、該当分割ブロックについては、各分割ブロックに付与されているカウント数N(初期値ゼロ)に1を加える(S1003)。画像処理装置3は、仮想カメラを識別するための変数をインクリメントし(S1005)、次の仮想カメラにおいてもS1003におけるカウントを行う。そして、画像処理装置3は、すべての仮想カメラに対してカウント処理を行うまでS1003の処理を続ける(S1004)。図2及び図3に示したシーンにおけるカウント処理の結果の一例を図5に示す。図5は、上面側から簡略化を行ったカウント値を示す情報である。
画像処理装置3は、すべての仮想カメラに対してカウント処理を完了した場合、S1006において、カウント数に対応する各分割ブロックの表示色を決定する。画像処理装置3は、カラーヒートマップの要領で、各分割ブロックの表示色を決定してもよい。例えば、画像処理装置3は、例えば最もカウント数が大きい分割ブロックを赤、最もカウント数が小さい分割ブロックを青とし、その間は赤側から橙、黄、緑、等の順に、あらかじめ定めた段階分けルールに従って、表示色を決定してもよい。なお、色は例示であり、異な色を用いてもよい。ここでカウント数N=0は無色としてもよいし、カウント数の大小を、単一色相の濃淡や、テクスチャの違いで表現してもよい。また全分割ブロックの表示色を決定した結果に対して、色の境界が滑らかになるように、分割ブロックの矩形境界線を無視するような境界処理を行ってもよい。また、分割ブロック内の前景オブジェクトの輪郭線に一致させて境界処理を行ってもよい。
画像処理装置3は、着目オブジェクト可視化情報として、分割ブロック内にカウント数をそのまま数値テキストとして表示するようにしてもよい。また、画像処理装置3は、着目オブジェクト可視化情報として、動きのあるアニメーショングラフィックを各分割ブロック内に表示し、その動きの激しさでカウント数の大小を表現してもよい。またそれら複数の表現方法を組み合わせてもよい。また、画像処理装置3は、着目オブジェクト可視化情報を半透明にして他の情報の視認性が保つようにしてもよい。
着目オブジェクト可視化情報の表示例を図5(b)に示す。図5(b)ではテクスチャの密度でカウント数の大小を表現し、表示の境界を滑らかに補正している。また、上述の例では、ユーザにより設定された視点に応じた仮想視点画像に写るオブジェクトを色やアニメーションなどにより強調表示する着目オブジェクト可視化情報を表示する。また、また、上述の例では、オブジェクトを写す仮想視点画像を設定したユーザ数に応じた色やアニメーションを表示する。このような着目オブジェクト可視化情報を表示することで、どこにより多くの仮想カメラが向けられているか及び各ユーザがどのオブジェクトに着目しているかを容易に認識させることが可能になる。なお、着目オブジェクト可視化情報の表示例は、これらに限らず、例えば、アイコンや文字情報が用いられてもよい。
(仮想カメラ可視化情報に基づくレコメンド処理)
続いて、仮想カメラ可視化情報に基づくレコメンド処理の流れについて図7に示すフローチャートを用いて説明する。仮想カメラ可視化情報に基づくレコメンド処理では、多くのユーザとは異なるエリアを見ているユーザに対して、より多くの他の仮想カメラが写しているエリアをレコメンド情報として伝える処理である。また、ユーザからの要求があれば、より多くの他の仮想カメラが写しているエリア、すなわち多くのユーザの注目が集まっているエリアに仮想カメラを移動させる処理である。
まず、画像処理装置3は、処理対象のユーザの仮想カメラの画角内の前景オブジェクトの全ユーザの閲覧数(図4の処理のカウント値に対応)N1maxと、エリアA全体内のうち最大のカウント数(Nmax)を比較する(S1007)。S1007の比較の結果がN1max ≪ Nmaxだった場合、画像処理装置3は、レコメンド画像を生成し、生成したレコメンド画像をユーザ端末4に送信する(S1008)。ここでN1maxがNmaxより十分小さいかどうかの判定基準は、例えばNmaxの一定割合以下の数値であるかどうかなど、あらかじめ任意に定める。なお、図2に示す例ではユーザ数が4であるため、N1maxとNmaxの差は小さいが、以下ではN1max ≪ Nmaxと判断するものとして説明を行う。
ユーザ端末4は、画像処理装置3から受信したレコメンド画像を表示する。ここで、図6を用いてレコメンド画像の表示例について説明する。図6(a)は、ユーザ端末4aの表示部402で仮想視点画像を表示している際の表示画面である。図6(a)では、ユーザ端末4aのユーザであるユーザ1が指示した仮想カメラパスに基づく仮想視点画像(仮想カメラC1の画像)が表示されている。画像処理装置3は、図6(a)の仮想視点画像を表示しているユーザ端末4aを処理対象としてS1007の処理を行った場合、N1max ≪ Nmaxとなったと判断する。即ち、画像処理装置3は、ユーザ端末4aが表示している仮想視点画像に写るオブジェクトの全ユーザの閲覧数は、他のユーザ端末らが最も写しているオブジェクトの閲覧数に対して極端に少ないと判定する。そこで、画像処理装置3は、ユーザ端末4aに対するレコメンド画像を生成し、ユーザ端末4aに送信する。画像処理装置3の表示画像生成部305にて生成され、ユーザ端末4において表示されるレコメンド画像の一例が図6(b)である。図6(b)では、ユーザ端末4aが表示する仮想視点画像に重畳してレコメンド画像が表示される。図6(b)では、仮想視点画像の右上の領域に、エリアAのカウント数を示すグラフィックと、“recommend”というタイトルテキストが表示される。ユーザ端末4は、このときユーザ1の注意を引くために、レコメンド画像を点滅表示させてもよい。ここで、レコメンド画像は、エリアAの輪郭をワイヤーフレームで描いた3次元斜視図と示してもよい。また、レコメンド画像は、ユーザ1が今見ている仮想カメラC1との位置関係を把握しやすいよう、その斜視方向は仮想カメラC1の視線方向と近い方向であってもよい。また、レコメンド画像は、その斜視方向からみた仮想視点画像に情報を重層したものでもよい。
画像処理装置3は、レコメンド画像に基づく仮想カメラの位置変更をユーザ端末4が行うか否かを判定する(S1010)。画像処理装置3は、ユーザ端末4からレコメンド画像に基づく仮想カメラの位置変更の要求を受信したか否かを判定する。ユーザ端末4は、レコメンド画像に対してタップや選択決定などの所定の指示操作が行われた場合、画像処理装置3に、レコメンド画像に基づく仮想カメラの位置変更の要求を送信する。
レコメンド画像に基づく仮想カメラの位置変更をユーザ端末4が行うと判定した場合(S1010でYes)、画像処理装置3の可視化情報生成部304は、処理対象のユーザ端末4の現在の仮想カメラ位置を取得する。そして、画像処理装置3は、現在の仮想カメラ位置を示す情報をレコメンド画像に描画する(S1011)。画像処理装置3は、ユーザ1に現在仮想カメラ位置を認識するために、仮想カメラC1の視点の位置を表現する描画情報を生成する。図6において、ユーザ端末4aは、画像処理装置3からの描画情報に基づいて、仮想カメラC1の視点の位置を示す情報である“Your View”のテキストとともに、仮想カメラC1が写す前景オブジェクトを点滅させる。続いて、画像処理装置3は、レコメンド画像を拡大表示させるための情報をユーザ端末4に送信する(S1012)。
図6(c)においてユーザ端末4aにおいて拡大表示されるレコメンド画像の表示例を示す。図6(c)では、仮想カメラC1の視点の位置を示す情報である、仮想カメラC1が写す前景オブジェクトを縞模様で表現している。仮想カメラC1の視点の位置を示す情報は、点滅表示したり、仮想カメラC1が写す前景オブジェクトの色を変えたり、仮想カメラC1が写す前景オブジェクトを丸や四角などの曲線で囲んだりして表示されてもよい。また、仮想カメラC1の視点の位置を示す情報は、仮想カメラC1の位置自体に丸やカメラアイコン等の図形を表示させるなど、様々な方法で仮想カメラC1の現在位置を表現する情報であってもよい。
続いて、画像処理装置3は、仮想カメラパス変更指示をユーザ端末4から受信したか否かを判定する(S1013)。ユーザ端末4は、例えば、レコメンド画像内で、レコメンド画像内のカウント数が高いエリアに対し、タップや選択決定など指示操作が行われた場合、仮想カメラパス変更指示を画像処理装置3に送信する。仮想カメラパス変更指示を受信した場合(S1013でYes)、画像処理装置3の取得部302は、選択されたエリアを写す位置まで仮想カメラC1を移動させる仮想カメラパスを自動算出し、その仮想カメラパスのパラメータを取得する(S1014)。画像処理装置3は、仮想カメラのズーム倍率は変えず、仮想カメラを平行移動させるように仮想カメラパスを自動算出するようにしてもよい。S1014では、ユーザが仮想カメラの位置を正しく認識し続けることを容易にするために、現在の位置からレコメンドする位置までの移動を仮想視点画像において写す仮想カメラパスを算出してもよい。また、現在の仮想カメラの位置は固定したまま、視線方向を回転させて選択エリアを写す仮想カメラパスであってもよい。また、画像処理装置3は、現在の位置から選択されたエリアを写す位置に移動するのではなく、現在の位置からその位置に仮想カメラの位置を切り替える仮想カメラパスを算出してもよい。なお、ユーザ端末4が仮想カメラパスを自動算出する構成としてもよい。また、画像処理装置3またはユーザ端末4は、仮想カメラ可視化情報に示される仮想カメラを選択し、選択した仮想カメラの位置を生成する仮想視点画像に係る視点として決定してもよい。
画像処理装置3は、レコメンド画像の表示を終了させる指示をユーザ端末4に送信する(S1015)。ユーザ端末4は、レコメンド画像の表示を終了させる。画像処理装置3は、S1014で算出した仮想カメラパスに応じた仮想視点画像を生成することで仮想カメラを移動させる(S1016)。図6(d)では、レコメンドに基づく仮想カメラの移動を行った後にユーザ端末4に表示される仮想視点画像の表示例を示す。
以上説明した仮想カメラ可視化情報に基づくレコメンド処理により、ユーザは他の多くのユーザが注目しているエリアがあることを知り、自らもそのエリアを見たいと思えば、そのエリアに仮想カメラを向けるまたは移動させることが可能となる。なお、図6の例では高カウントエリアをユーザが選択するとしたが、逆に低カウントエリアを選択するなど、どのエリアに仮想カメラを移動させるかをユーザが任意に選択してもよい。また図7に示す処理では、N1max ≪ Nmaxの場合に自動でレコメンド画像を表示する構成としたが、ユーザによる任意のタイミングでの指示操作に応じてレコメンド画像を表示する構成としてもよい。
続いて、仮想カメラ可視化情報の変形例について説明する。仮想カメラ可視化情報作成処理の変形例の流れを図8に示すフローチャートに基づいて説明する。図8に示す処理では、仮想カメラを矢印または四角錐で表現した可視化情報を生成する。
まず画像処理装置3の可視化情報生成部304は、仮想カメラCuの位置、視線方向及び画角の情報を保持部303から取得する(S2001)。続いてS2002で、画像処理装置3の可視化情報生成部304は、仮想カメラCuの情報を矢印化または四角錐化する。仮想カメラを示す情報を矢印化する場合、画像処理装置3は、その矢印の始点座標は仮想カメラCuの位置座標、向きは仮想カメラCuの視線方向とする。また矢印の長さは、始点から一定長とする。図9に仮想カメラを可視化する情報として矢印を用いた場合の例を示す。図9では矢印が線ではなく、立体的な例を示している。なお図9では、仮想カメラ情報を可視化しようとする範囲であるエリアAは、エリアB(仮想カメラを設定可能な範囲)と一致する例を示す。
また、仮想カメラを示す情報を四角錐として表現する場合、頂点座標は仮想カメラCuの位置座標、頂点から底面中央点の向きは仮想カメラCuの視線方向、対向する2組の三角形側面の開き角度は、それぞれ仮想カメラCuの水平画角、垂直画角とする。また四角錐の頂点から底面までの距離は、頂点から一定長とする。図10に仮想カメラを可視化する情報として四角錐を用いた場合の例を示す。図10では四角錐の全稜線を表示しているが、画界が無限遠まで広がる様子を表現するために、底面を表示させず、頂点から底面に向けてグラデーション上に四角錐を消失させるような表現をしてもよい。またエリアAの境界まで伸びる四角錐としてもよい。
また、これらの図9または図10に示した情報とともに、前景オブジェクトにS1006において生成される情報を付加してもよい。また、仮想カメラを示す情報を上述の例には限定されず、その他のアイコン、文字情報または記号など他の情報を用いられてもよい。
以上の本実施形態では、どの位置にどの向きの仮想カメラが存在するか及び各仮想カメラが広角かズームか、どのような画角になっているかを直接的に表現することが出来る。なお、仮想カメラ可視化情報は、カウント数のグラフィック化、仮想カメラそのものを表す矢印や四角錐などの可視化手法のうち任意の手法を組み合わせてもよい。例えばカウント数グラフィックと四角錐を合わせて表示すれば、注目されているエリアがどこであるかと同時に、どの方向からどのような画角で注目されているかを知ることが出来る。
また可視化情報生成部304は、可視化情報生成の際に、管理部306から得られるユーザ情報をもとにユーザをカテゴライズし、そのユーザカテゴリごとに可視化情報を生成してもよい。ユーザカテゴリの例としては、年代、性別、出身地、現住エリアに始まり、特定スポーツの経験値や応援チーム、仮想カメラ操作経験値など、様々なカテゴリ分けが考えられる。またユーザカテゴリ別の可視化結果の表示手法としては、単にカテゴリごとに表示を切り替えるようにしてもよいし、全カテゴリを同時に表示するなかで、色分けやテクスチャの違いによって区別がつくようにしてもよい。あるいはユーザカテゴリ名称そのものを、仮想カメラを示す情報の近傍にテキストで表示してもよい。即ち、可視化情報生成部304は、保持部303で保持するすべてのユーザに関する仮想カメラの位置を示す情報を生成する必要はなく、一人以上の一部のユーザに関する仮想カメラ可視化情報を生成してもよい。
また、ある時点で同時に存在する複数のユーザの仮想カメラ情報を可視化するとしてきたが、ユーザが、例えば1つの試合を通してどのエリアをよく見ていたかを示す仮想カメラ可視化情報を生成し、表示してもよい。た複数のユーザに関しても継時方向に仮想カメラ情報を蓄積し、可視化してもよい。この場合、上述のレコメンド処理において、例えば、ユーザ端末4aのユーザaが設定した第1仮想視点に基づく第1仮想視点画像を表示している際に、ユーザaが過去に設定した第2仮想視点に関する仮想カメラ可視化情報をユーザ端末4aは表示してもよい。
以上、上述した実施形態によれば、カウント数を算出してグラフィック化したり、仮想カメラを矢印や四角錐として表現したりするので、他のユーザが着目している領域を容易に把握することができる。またユーザは、他のユーザの仮想カメラの位置を参照しながら、任意の場所に仮想カメラを移動可能である。またユーザは、他のユーザの仮想カメラの位置に自身の仮想カメラを移動することができる。
なお、画像処理装置3が仮想カメラ可視化情報を生成する構成として説明したが、ユーザ端末4が生成する構成としてもよい。この場合、画像処理装置3は、保持部303が保持している仮想カメラの座標情報などをユーザ端末4に送信し、ユーザ端末4が受信した情報に基づいて仮想カメラ可視化情報を生成するようにしてもよい。
なお、上述のレコメンド処理において、多くのユーザとは異なるエリアを見ているユーザに対して、より多くの他の仮想カメラが写しているエリアを推奨する例を示したがこれに限らない。例えば、他のユーザと同じエリアを見ているユーザに対して、他のユーザも同様のエリアを仮想カメラで写していることを通知する仮想カメラ可視化情報をユーザ端末4は表示してもよい。即ち、例えば、画像処理装置3は、ユーザaが設定した第1仮想視点に基づく第1仮想視点画像を表示しているユーザ端末4aに対して、第1仮想視点と同じ位置であり、ユーザ端末4bのユーザbが設定した第2仮想視点に関する仮想カメラ可視化情報を通知してもよい。
本発明の実施形態について詳述したが、本発明は上述の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形及び変更が可能である。
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
100 画像処理システム
51 画像保持部
52 被写体情報保持部
3 画像処理装置
301 仮想視点画像生成部
302 取得部
303 保持部
304 可視化情報生成部
305 表示画像生成部
306 管理部
307 通信部
4 ユーザ端末
401 端末通信部
402 表示部
403 仮想カメラパス設定部
404 発信部

Claims (19)

  1. 第1仮想視点を設定する設定手段と、
    前記設定手段により設定された前記第1仮想視点に基づく仮想視点画像と、前記第1仮想視点とは異なる第2仮想視点に関する情報とを表示部に表示させる表示制御手段と、
    を有することを特徴とする情報処理装置。
  2. 前記第1仮想視点の変更操作に応じて前記第1仮想視点を変更する変更手段を有することを特徴とする請求項1に記載の情報処理装置。
  3. 前記変更手段は、前記第1仮想視点の位置を前記第2仮想視点の位置に変更することを特徴とする請求項2に記載の情報処理装置。
  4. 前記設定手段は、前記情報処理装置のユーザからの操作に応じて前記第1仮想視点を設定し、
    前記第2仮想視点は、前記ユーザと異なる人物が設定した仮想視点であることを特徴とする請求項1から3までのいずれか1項に記載の情報処理装置。
  5. 前記第2仮想視点は、複数の仮想視点であることを特徴とする請求項1から4までのいずれか1項に記載の情報処理装置。
  6. 前記第2仮想視点に関する情報は、前記第2仮想視点の位置を表す画像であることを特徴とする請求項1から5までのいずれか1項に記載の情報処理装置。
  7. 前記第2仮想視点に関する情報は、前記第2仮想視点の位置及び向きを表す画像であることを特徴とする請求項1から5までのいずれか1項に記載の情報処理装置。
  8. 前記画像は、前記第2仮想視点の位置及び向きを表すオブジェクトを含むことを特徴とする請求項7に記載の情報処理装置。
  9. 前記画像は、前記仮想視点画像を生成するための複数の撮影画像の撮影対象領域を示すオブジェクトを含むことを特徴とする請求項6から8までのいずれか1項に記載の情報処理装置。
  10. 前記第2仮想視点の位置及び向きを表すオブジェクトは、カメラを示すオブジェクト、矢印を示すオブジェクトまたは四角錐を示すオブジェクトであることを特徴とする請求項8に記載の情報処理装置。
  11. 前記第2仮想視点の位置及び向きを表すオブジェクトが矢印を示すオブジェクトである場合、当該矢印が示す向きが、前記第2仮想視点の視線の方向を示すことを特徴とする請求項10に記載の情報処理装置。
  12. 前記第2仮想視点の位置及び向きを表すオブジェクトが四角錐を示すオブジェクトである場合、当該四角錐の頂点から底面中央点への向きが、前記第2仮想視点の視線の方向を示すことを特徴とする請求項10に記載の情報処理装置。
  13. 前記第2仮想視点に関する情報は、前記第2仮想視点に基づく仮想視点画像に写るオブジェクトを強調表示する画像であることを特徴とする請求項1に記載の情報処理装置。
  14. 前記画像は、前記第2仮想視点に基づく仮想視点画像に写るオブジェクトを色またはアニメーションにより強調表示する画像であることを特徴とする請求項13に記載の情報処理装置。
  15. 前記画像は、前記第1仮想視点及び第2仮想視点とは異なる第3仮想視点に基づく仮想視点画像またはコンピュータグラフィックに前記第2仮想視点の位置及び向きを表すオブジェクトを重畳した画像であることを特徴とする請求項8に記載の情報処理装置。
  16. 前記第2仮想視点に関する情報は、前記第2仮想視点の位置、向き及び画角を表す画像であることを特徴とする請求項1から5までのいずれか1項に記載の情報処理装置。
  17. 前記表示制御手段は、前記第2仮想視点を設定した人物の識別情報を前記表示部に表示させることを特徴とする請求項1から16のいずれか1項に記載の情報処理装置。
  18. 第1仮想視点を設定する第1情報処理装置において設定する設定工程と、
    前記設定工程において設定された前記第1仮想視点とは異なる第2仮想視点に関する情報を前記第1情報処理装置と異なる第2情報処理装置から前記第1情報処理装置に送信する送信工程、
    前記第1仮想視点に基づく仮想視点画像と、前記送信工程において送信される前記第2仮想視点に関する情報とを前記第1情報処理装置において表示させる表示制御手工程と、
    を有することを特徴とする表示制御方法。
  19. コンピュータを請求項1から17のいずれか1項に記載の情報処理装置として動作させるためのプログラム。
JP2017206013A 2017-10-25 2017-10-25 情報処理装置、表示制御方法、及び、プログラム Active JP7140487B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017206013A JP7140487B2 (ja) 2017-10-25 2017-10-25 情報処理装置、表示制御方法、及び、プログラム
US16/165,899 US10917622B2 (en) 2017-10-25 2018-10-19 Information processing apparatus, display control method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017206013A JP7140487B2 (ja) 2017-10-25 2017-10-25 情報処理装置、表示制御方法、及び、プログラム

Publications (2)

Publication Number Publication Date
JP2019079298A true JP2019079298A (ja) 2019-05-23
JP7140487B2 JP7140487B2 (ja) 2022-09-21

Family

ID=66169602

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017206013A Active JP7140487B2 (ja) 2017-10-25 2017-10-25 情報処理装置、表示制御方法、及び、プログラム

Country Status (2)

Country Link
US (1) US10917622B2 (ja)
JP (1) JP7140487B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021199735A1 (ja) * 2020-03-30 2021-10-07 ソニーグループ株式会社 情報処理装置、画像処理システム、情報処理方法
WO2024070762A1 (ja) * 2022-09-29 2024-04-04 ソニーグループ株式会社 情報処理装置、情報処理方法、プログラム

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107924690B (zh) * 2015-09-02 2021-06-25 交互数字Ce专利控股公司 用于促进扩展场景中的导航的方法、装置和***
WO2018147329A1 (ja) * 2017-02-10 2018-08-16 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 自由視点映像生成方法及び自由視点映像生成システム
US10602117B1 (en) * 2017-09-11 2020-03-24 Bentley Systems, Incorporated Tool for onsite augmentation of past events
US11023729B1 (en) * 2019-11-08 2021-06-01 Msg Entertainment Group, Llc Providing visual guidance for presenting visual content in a venue
US11790535B2 (en) 2020-05-12 2023-10-17 True Meeting Inc. Foreground and background segmentation related to a virtual three-dimensional (3D) video conference
US11575856B2 (en) 2020-05-12 2023-02-07 True Meeting Inc. Virtual 3D communications using models and texture maps of participants
US11570404B2 (en) 2020-05-12 2023-01-31 True Meeting Inc. Predicting behavior changes of a participant of a 3D video conference
US11805157B2 (en) 2020-05-12 2023-10-31 True Meeting Inc. Sharing content during a virtual 3D video conference
US11870939B2 (en) 2020-05-12 2024-01-09 True Meeting Inc. Audio quality improvement related to a participant of a virtual three dimensional (3D) video conference
US11765332B2 (en) 2021-03-02 2023-09-19 True Meeting Inc. Virtual 3D communications with participant viewpoint adjustment

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006107281A (ja) * 2004-10-07 2006-04-20 Queen Mary & Westfield College コミュニケーション支援装置
JP2008005450A (ja) * 2006-06-20 2008-01-10 Kubo Tex Corp 3次元仮想空間を利用したビデオカメラのリアルタイム状態把握、制御の方法
JP2014215828A (ja) * 2013-04-25 2014-11-17 シャープ株式会社 画像データ再生装置、および視点情報生成装置
WO2016009864A1 (ja) * 2014-07-18 2016-01-21 ソニー株式会社 情報処理装置、表示装置、情報処理方法、プログラム、および情報処理システム

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5439890B2 (ja) * 2009-03-25 2014-03-12 富士通株式会社 画像処理方法、画像処理装置及びプログラム
US8694553B2 (en) * 2010-06-07 2014-04-08 Gary Stephen Shuster Creation and use of virtual places
US8947511B2 (en) * 2010-10-01 2015-02-03 At&T Intellectual Property I, L.P. Apparatus and method for presenting three-dimensional media content
US8705892B2 (en) * 2010-10-26 2014-04-22 3Ditize Sl Generating three-dimensional virtual tours from two-dimensional images
US9030522B2 (en) * 2011-06-24 2015-05-12 At&T Intellectual Property I, Lp Apparatus and method for providing media content
US9602766B2 (en) * 2011-06-24 2017-03-21 At&T Intellectual Property I, L.P. Apparatus and method for presenting three dimensional objects with telepresence
US8928729B2 (en) * 2011-09-09 2015-01-06 Disney Enterprises, Inc. Systems and methods for converting video
JP5160680B1 (ja) * 2011-10-26 2013-03-13 株式会社コナミデジタルエンタテインメント 画像処理装置、画像処理装置の制御方法、及びプログラム
US20130246182A1 (en) * 2012-03-16 2013-09-19 Augme Technologies, Inc. Apparatuses, methods and systems for acquiring information from objects in a virtual space
DE102012204541B4 (de) * 2012-03-21 2024-01-25 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Vorrichtung zur Bildverarbeitung von Bilddaten
US9092908B2 (en) * 2012-07-13 2015-07-28 Google Inc. Sharing photo albums in three dimensional environments
US8983662B2 (en) * 2012-08-03 2015-03-17 Toyota Motor Engineering & Manufacturing North America, Inc. Robots comprising projectors for projecting images on identified projection surfaces
US20140280502A1 (en) * 2013-03-15 2014-09-18 John Cronin Crowd and cloud enabled virtual reality distributed location network
US9838506B1 (en) * 2013-03-15 2017-12-05 Sony Interactive Entertainment America Llc Virtual reality universe representation changes viewing based upon client side parameters
US20140282113A1 (en) * 2013-03-15 2014-09-18 John Cronin Personal digital assistance and virtual reality
US20140280503A1 (en) * 2013-03-15 2014-09-18 John Cronin System and methods for effective virtual reality visitor interface
US10533850B2 (en) * 2013-07-12 2020-01-14 Magic Leap, Inc. Method and system for inserting recognized object data into a virtual world
DE112014004305B4 (de) * 2013-09-19 2020-09-10 Fujitsu Ten Limited Bildgenerierungsvorrichtung; Bildanzeigesystem; Bildgenerierungsverfahren und Bildanzeigeverfahren
US9437159B2 (en) * 2014-01-25 2016-09-06 Sony Interactive Entertainment America Llc Environmental interrupt in a head-mounted display and utilization of non field of view real estate
US9959591B2 (en) * 2014-07-31 2018-05-01 Seiko Epson Corporation Display apparatus, method for controlling display apparatus, and program
US10019054B2 (en) * 2015-12-30 2018-07-10 Thunder Power New Energy Vehicle Development Company Limited Remote driving with a virtual reality system
US9568995B1 (en) * 2015-12-30 2017-02-14 Thunder Power Hong Kong Ltd. Remote driving with a virtual reality system
US10235010B2 (en) * 2016-07-28 2019-03-19 Canon Kabushiki Kaisha Information processing apparatus configured to generate an audio signal corresponding to a virtual viewpoint image, information processing system, information processing method, and non-transitory computer-readable storage medium
MX2019006160A (es) * 2016-11-29 2020-02-07 Walmart Apollo Llc Representacion virtual de la actividad dentro de un entorno.

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006107281A (ja) * 2004-10-07 2006-04-20 Queen Mary & Westfield College コミュニケーション支援装置
JP2008005450A (ja) * 2006-06-20 2008-01-10 Kubo Tex Corp 3次元仮想空間を利用したビデオカメラのリアルタイム状態把握、制御の方法
JP2014215828A (ja) * 2013-04-25 2014-11-17 シャープ株式会社 画像データ再生装置、および視点情報生成装置
WO2016009864A1 (ja) * 2014-07-18 2016-01-21 ソニー株式会社 情報処理装置、表示装置、情報処理方法、プログラム、および情報処理システム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021199735A1 (ja) * 2020-03-30 2021-10-07 ソニーグループ株式会社 情報処理装置、画像処理システム、情報処理方法
WO2024070762A1 (ja) * 2022-09-29 2024-04-04 ソニーグループ株式会社 情報処理装置、情報処理方法、プログラム

Also Published As

Publication number Publication date
JP7140487B2 (ja) 2022-09-21
US20190124316A1 (en) 2019-04-25
US10917622B2 (en) 2021-02-09

Similar Documents

Publication Publication Date Title
JP7140487B2 (ja) 情報処理装置、表示制御方法、及び、プログラム
JP7366611B2 (ja) 画像処理装置、画像処理方法、及び、プログラム
CN113891060B (zh) 自由视点视频重建方法及播放处理方法、设备及存储介质
JP7301507B2 (ja) 情報処理装置、情報処理方法、及びプログラム
US20160071314A1 (en) Method for visualising surface data together with panorama image data of the same surrounding
JP2018073105A (ja) 画像処理装置、画像処理システム、画像処理方法及びプログラム
JP7422468B2 (ja) 情報処理装置、情報処理方法、及び、プログラム
JP7446754B2 (ja) 画像処理装置、画像処理方法、及びプログラム
EP3621300B1 (en) Display control device and display control method
JP6812181B2 (ja) 画像処理装置、画像処理方法、及び、プログラム
WO2022001865A1 (zh) 深度图及视频处理、重建方法、装置、设备及存储介质
US11468258B2 (en) Information processing apparatus, information processing method, and storage medium
KR20230152589A (ko) 화상 처리 시스템, 화상 처리방법, 및 기억매체
WO2022176720A1 (ja) 情報処理装置、情報処理方法、およびプログラム
JP2020135290A (ja) 画像生成装置、画像生成方法、画像生成システム、及びプログラム
JP2020102687A (ja) 情報処理装置、画像処理装置、画像処理方法、及びプログラム
JP2021144522A (ja) 画像処理装置、画像処理方法、プログラム、及び画像処理システム
JP6910405B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP2019053738A (ja) 画像処理装置、画像処理システム、画像処理方法及びプログラム
US20240046552A1 (en) Generation apparatus, generation method, and non-transitory computer-readable storage medium
JP7073917B2 (ja) 情報処理装置およびプログラム
EP4295930A1 (en) Image processing system, image processing method, and computer program
US20230334767A1 (en) Image processing apparatus, image processing method, and storage medium
CN116962660A (zh) 图像处理***、图像处理方法和存储介质
JP2024022484A (ja) 生成装置、生成方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201020

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210622

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210706

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210902

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220118

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220317

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220809

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220908

R151 Written notification of patent or utility model registration

Ref document number: 7140487

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151