JP2021192273A - 情報処理装置、情報処理方法及びプログラム - Google Patents

情報処理装置、情報処理方法及びプログラム Download PDF

Info

Publication number
JP2021192273A
JP2021192273A JP2021143033A JP2021143033A JP2021192273A JP 2021192273 A JP2021192273 A JP 2021192273A JP 2021143033 A JP2021143033 A JP 2021143033A JP 2021143033 A JP2021143033 A JP 2021143033A JP 2021192273 A JP2021192273 A JP 2021192273A
Authority
JP
Japan
Prior art keywords
virtual viewpoint
viewpoint image
image
display control
size
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021143033A
Other languages
English (en)
Other versions
JP7263456B2 (ja
Inventor
泰夫 奥谷
Yasuo Okuya
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2021143033A priority Critical patent/JP7263456B2/ja
Publication of JP2021192273A publication Critical patent/JP2021192273A/ja
Application granted granted Critical
Publication of JP7263456B2 publication Critical patent/JP7263456B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/2224Studio circuitry; Studio devices; Studio equipment related to virtual studio applications
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/005General purpose rendering architectures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • H04N13/117Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/102Programmed access in sequence to addressed parts of tracks of operating record carriers
    • G11B27/105Programmed access in sequence to addressed parts of tracks of operating record carriers of operating discs

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Image Generation (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

【課題】オペレータによる仮想視点の操作時の被写体の撮り逃しを低減し、スムーズなカメラワークを実現することを目的とする。【解決手段】ユーザの操作に応じて仮想視点を受け付ける受付手段と、受付手段が受け付けた仮想視点に基づいて、撮像画像から生成された第1の仮想視点画像と、第1の仮想視点画像に比べて画角の大きい第2の仮想視点画像とが表示画面上に表示されるよう制御する表示制御手段とを有する。【選択図】図2

Description

本発明は、表示制御装置、表示制御方法及びプログラムに関する。
近年、複数のカメラを異なる位置に設置して多視点で同期撮影し、当該撮影により得られた複数視点画像を用いて、カメラ設置位置の画像だけでなく任意の視点からなる仮想視点画像を生成する技術が注目されている。複数視点画像に基づく仮想視点画像の生成及び閲覧は、複数のカメラが撮影した画像をサーバー等の画像処理部に集約し、画像処理部にて、仮想視点に基づくレンダリング等の処理を施し、ユーザ端末に仮想視点画像を表示することで実現できる。
上記のように仮想視点画像を用いたサービスでは、例えば、サッカーやバスケットボールの試合を撮影した映像から、映像制作者によって迫力のある視点のコンテンツを制作できる。また、コンテンツを視聴しているユーザ自身が自由に視点を移動しながら、試合観戦したりすることができるようにすれば、従来の撮影画像と比較してユーザに高臨場感を与えることができる。特許文献1には、複数のカメラが被写体を取り囲むように配置して被写体を撮影した画像を用いて、任意の仮想視点画像を生成及び表示することが開示されている。
特開2014−215828号公報
しかしながら、特許文献1の技術においては、仮想視点を選手の近くに寄りすぎるとボールや選手を見失う等のリスクがある。仮想視点の操作を行なうオペレータは、自ら操作した仮想視点に基づく仮想視点画像を見ながら次のカメラアングルを決めると、仮想視点画像の外で起きる事象に気付き難い。そのため、ボールや選手の急な動きに追従できず、撮り逃しやスムーズなカメラワークが行なえない場合があった。
本発明はこのような問題点に鑑みなされたもので、仮想視点を設定するオペレータが特定の被写体を見逃す可能性を低減することを目的とする。
そこで、本発明は、表示制御装置であって、ユーザの操作に応じて仮想視点を受け付ける受付手段と、前記仮想視点に基づいて、撮像画像から生成された第1の仮想視点画像と、前記第1の仮想視点画像に比べて画角の大きい第2の仮想視点画像とを表示画面上に表示されるよう制御する表示制御手段とを有することを特徴とする。
本発明によれば、仮想視点を設定するオペレータが特定の被写体を見逃す可能性を低減することができる。
画像生成システムの全体構成を示す図である。 表示制御装置の機能構成を示すブロック図である。 情報処理を示すフローチャートである。 画角の説明図である。 第2の実施形態に係る表示制御装置の機能構成図である。 第2の実施形態に係る情報処理を示すフローチャートである。 表示サイズ決定処理を示すフローチャートである。 表示サイズ決定処理の説明図である。 表示サイズ決定処理の説明図である。 表示サイズ決定処理を示すフローチャートである。 表示サイズ決定処理を示すフローチャートである。 拡張用仮想視点画像を生成する処理の説明図である。 第3の実施形態に係る表示制御装置の機能構成図である。 情報処理を示すフローチャートである。 進める時間を決定する処理を示すフローチャートである。 進める時間を決定する処理の説明図である。 第4の実施形態に係る情報処理を示すフローチャートである。 設定画面の表示例を示す図である。
以下、本発明の実施形態について図面に基づいて説明する。
図1は、本実施形態に係る画像生成システムの全体構成を示す図である。画像生成システムは、表示制御装置100、画像生成装置110及び複数の撮像装置109を有している。撮像装置109は、画像を撮像し、撮像画像を画像生成装置110に送信する。画像生成装置110は、撮像装置109から受信した撮像画像から、仮想視点画像を生成する。表示制御装置100は、仮想視点画像を表示し、オペレータからの操作に応じて、撮像画像に対する、放送用の仮想視点を決定する。表示制御装置100、画像生成装置110及び複数の撮像装置109は、ネットワークを介して接続している。
表示制御装置100は、CPU101と、ROM102と、RAM103と、HDD104と、表示部105と、通信I/F106と、操作部107と、を有している。CPU101は、各種処理のための演算や論理判断等を行い、システムバス108に接続された各構成要素を制御する。表示制御装置100には、プログラムメモリとデータメモリを含むメモリが搭載されている。ROM102は、プログラムメモリであって、後述する各種処理手順を含むCPU101による制御のためのプログラムを格納する。RAM103は、データメモリであり、CPU101の上記プログラムのワーク領域、エラー処理時のデータの退避領域、上記制御プログラムのロード領域等を有する。なお、表示制御装置100に接続された外部記憶装置等からRAM103にプログラムをロードすることで、プログラムメモリを実現しても構わない。
HDD104は、本実施形態に係る複数の電子データやプログラムを記憶しておくためのハードディスクである。同様の役割を果たすものとして外部記憶装置を用いてもよい。ここで、外部記憶装置は、例えば、メディア(記録媒体)と、当該メディアへのアクセスを実現するための外部記憶ドライブとで実現することができる。このようなメディアとしては、例えば、フレキシブルディスク(FD)、CD−ROM、DVD、USBメモリ、MO、フラッシュメモリ等が知られている。また、外部記憶装置は、ネットワークで接続されたサーバー装置等であってもよい。なお、後述する表示制御装置100の機能や処理は、CPU101がROM102又はHDD104に格納されているプログラムを読み出し、このプログラムを実行することにより実現されるものである。
表示部105は、仮想視点を指定する設定画面を表示するためのディスプレイ、プロジェクタ、HMD(ヘッドマウントディスプレイ)等の表示デバイスである。設定画面上には、画像生成装置110が生成した仮想視点画像が表示される。通信I/F106は、公知の通信技術によって、画像生成装置110や外部記憶装置と有線あるいは無線で接続し、双方向に情報の送受信を行うことを可能とする。操作部107は、オペレータが仮想視点を表示制御装置100に入力するためのデバイスである。ジョイスティック、ゲームパッド、タッチパネル、キーボード、マウス等の入力デバイスである。
図2は、表示制御装置100の機能構成を示すブロック図である。表示制御装置100は、放送用仮想視点決定部111、放送用仮想視点保持部112、オペレータ用仮想視点決定部113、拡張用仮想視点決定部114、画像受信部115、表示制御部116、視点出力部117及び入力部118を有する。これらの各機能部は、CPU101が、ROM102に格納されたプログラムをRAM103に展開し、後述する各フローチャートに従った処理を実行することで実現されている。ただし、図2の構成の一部又は全部が、専用のハードウェアにより実現されるようにしても良い。この場合、CPU101により当該専用のハードウェアの動作が制御され、後述する各フローチャートに従った処理が実行される。以下、各要素について説明する。
放送用仮想視点決定部111は、オペレータが操作部107を使って入力する仮想視点を、入力部118を介して受け取る。そして、放送用仮想視点決定部111は、処理時点において設定されている仮想視点情報と、入力部118を介して受け付けた仮想視点から新しい仮想視点情報を決定する。そして、放送用仮想視点決定部111は、決定した放送用仮想視点を示す仮想視点情報を放送用仮想視点保持部112に保持すると共に視点出力部117に出力する。放送用仮想視点保持部112は、放送用仮想視点決定部111が決定した放送用仮想視点を示す仮想視点情報を保持する。ここで仮想視点情報は、仮想視点の3次元の位置及び3軸の回転角、画角を含むものとする。本実施形態においては、例えばサッカーのフィールドの中心を原点とする世界座標を用いるものとするが、その他任意の座標系を用いることもよいものである。以下、仮想視点情報を単に仮想視点と称する。また、オペレータは、入力時点における仮想視点からの移動量(位置及び回転の変化量)で新たな仮想視点を指定してもよい。
オペレータ用仮想視点決定部113は、放送用仮想視点保持部112が保持する放送用仮想視点からオペレータ用仮想視点を決定し、視点出力部117にオペレータ用仮想視点を出力する。拡張用仮想視点決定部114は、放送用仮想視点保持部112が保持する放送用仮想視点から拡張用仮想視点を決定し、視点出力部117に拡張用仮想視点を出力する。
上記で説明したとおり、仮想視点には放送用仮想視点、オペレータ用仮想視点、拡張用仮想視点の3種類がある。放送用仮想視点は、放送に用いる画像を生成するための仮想視点である。オペレータ用仮想視点は、放送に用いる画像と同じ仮想視点で、画角も同じである。よって、オペレータ用仮想視点決定部113は放送用仮想視点決定部111で代用してもよい。一方、拡張用仮想視点は、放送に用いる画像と同じ仮想視点で、画角は放送用(オペレータ用)よりも広い画角である。なお、拡張用仮想視点を放送用仮想視点よりも後ろ(仮想視点の光軸上)に配置し画角を同じにしてもよい。
画像受信部115は、画像生成装置110が生成した仮想視点画像を受信する。表示制御部116は、表示部105の仮想視点を指定する設定画面上に、オペレータ用仮想視点画像と拡張用仮想視点画像を、両画像の中心を一致させた状態で表示する。なお、オペレータ用仮想視点画像と拡張用仮想視点画像の仮想視点は同一であるが、画角は、拡張用仮想視点画像の画角がオペレータ用仮想視点の画角に比べて大きい。このため、拡張用仮想視点画像の撮影範囲は、オペレータ用仮想視点の撮影範囲を含み、これより、も広い範囲となる。なお、他の例としては、オペレータ用仮想視点画像と拡張用仮想視点画像は画角が同一であってもよい。この場合、オペレータ用仮想視点画像と拡張用仮想視点画像の仮想視点は、いずれも仮想的な同一の光軸上の位置で、かつ、光軸上で異なる位置にあるものとする。
表示制御部116は、さらにオペレータ用仮想視点画像と拡張用仮想視点画像の境界に境界を示す枠線を表示する。なお、表示制御部116は、オペレータ用仮想視点画像と拡張用仮想視点画像をオペレータが識別可能なように、異なる表示方法で表示すればよく、そのための具体的な処理は実施形態に限定されるものではない。例えば、表示制御部116は、オペレータ用仮想視点画像を白黒画像、拡張用仮想視点画像をカラー画像として表示してもよい。また、表示制御部116は、オペレータ用仮想視点画像と拡張用仮想視点画像を異なるアルファ値で表示してもよい。
視点出力部117は、放送用仮想視点決定部111、オペレータ用仮想視点決定部113、拡張用仮想視点決定部114が決定した仮想視点を通信I/F106を介して画像生成装置110に出力する。入力部118は、操作部107をオペレータが操作することで生じる入力デバイスの移動量を検出し、仮想視点に変換する。
なお、他の例としては、表示制御装置100と画像生成装置110は、一体に設けられていてもよい。この場合、表示制御装置100は、視点出力部117及び画像受信部115を有さなくてもよい。そして、表示制御装置100は、仮想視点画像生成部と、放送用仮想視点画像を放送システムに出力する画像出力部とを有するものとする。
図3は、表示制御装置100による情報処理を示すフローチャートである。S301において、入力部118は、オペレータ(ユーザ)が操作部107を操作することで入力される操作内容を仮想視点に変換することにより、仮想視点を受け付ける(受付処理)。放送用仮想視点決定部111は、放送用仮想視点保持部112が保持している、処理時点において設定されている放送用仮想視点と入力部118が受け付けた仮想視点とに基づいて、新しい放送用仮想視点を算出する。放送用仮想視点決定部111は、算出した放送用仮想視点を放送用仮想視点保持部112に記録する。例えば、処理時点において設定されている放送用仮想視点が(X座標、Y座標、Z座標、X軸回転、Y軸回転、Z軸回転、画角)=(5、10、100、0、45、30、30)であるとする。また、入力部118が受け付けた仮想視点が(0、0、−50、0、0、10、10)であるとする。この場合、新しい放送用仮想視点は、(5、10、50、0、45、40、40)となる。なお、この例における、入力部118が受け付けた仮想視点は、Z軸方向に−50移動、Z軸の周りを10度回転、画角を10度拡げることを意味する。
次に、S302において、オペレータ用仮想視点決定部113は、放送用仮想視点保持部112が保持する新しい放送用仮想視点に基づきオペレータ用仮想視点を決定する。オペレータは、放送用仮想視点画像と同じ画像をオペレータの端末装置上で確認し、この画像を見ながら次の操作内容を決定する。そのため、放送用仮想視点とオペレータ用仮想視点は同一であることが望ましい。よって、この処理自体を省略し、オペレータ用仮想視点画像を生成する際に放送用仮想視点を利用してもよい。
次に、S303において、拡張用仮想視点決定部114は、放送用仮想視点保持部112が保持する新しい放送用仮想視点に基づき拡張用仮想視点を決定する。拡張用仮想視点決定部114はさらに、拡張用仮想視点に対する画角を決定する(画角決定処理)。本実施形態においては、拡張用仮想視点決定部114は、オペレータ用仮想視点と同一の仮想視点を拡張用仮想視点として決定する。さらに、拡張用仮想視点決定部114は、オペレータ用仮想視点に対する画角に比べて大きい画角を、拡張用仮想視点に対する画角として決定する。
拡張用仮想視点画像はオペレータ用仮想視点画像と仮想視点(視点の位置及び撮影方向)が同一であることが望ましい。これにより、表示制御部116が画像の中心を一致させて表示する場合に、ある領域の物体がオペレータ用仮想視点画像と拡張用仮想視点画像の両方に表示されてしまう問題を回避できる。また同時に、ある領域の物体がどちらにも表示されない問題も回避できる。一方で、画角を広げることにより、オペレータは、放送用仮想視点画像においては撮影範囲外に位置するような注目物体や事象についても把握することができる。
なお、拡張用仮想視点に対する画角は、設定画面に表示されるオペレータ用仮想視点画像と拡張用仮想視点画像の表示サイズの比によって一意に決定される。ここで図4を用いて、拡張用仮想視点に対する画角の導出方法を説明する。図4(a)は、オペレータ用仮想視点画像401と、拡張用仮想視点画像402とが表示された設定画面400の一例を示す図である。表示制御部116は、オペレータ用仮想視点画像401と、拡張用仮想視点画像402の中心位置を一致させた状態でオペレータ用仮想視点画像401の周囲に拡張用仮想視点画像402を表示させる。ここで、オペレータ用仮想視点画像401の表示サイズをl画素、拡張用仮想視点画像402の表示サイズをm画素とする。ここで、m>lであり、表示制御部116は、オペレータ用仮想視点画像401の周囲に、拡張用仮想視点画像402を表示するよう制御する。
図4(b)は、拡張用仮想視点に対する画角とオペレータ用仮想視点の画角の関係を示す図である。点Aは、オペレータ用と拡張用の仮想視点であり、両者は一致している。オペレータ用仮想視点と拡張用仮想視点それぞれの画角をα、βとすると、(式1)の関係が成り立つ。

l:m=tan(α/2):tan(β/2) …(式1)

なお、αはオペレータが入力する値である。(式1)より、張用仮想視点の画角βは、(式2)により求めることができる。なお、m/lが表示サイズ比となる。

β=2*arctan(tan(α/2)*m/l) …(式2)

ここでは、説明を簡単にするため横方向の画素数を用いて説明したが、縦方向も同様に算出できる。
図3に戻り、CPU101は、S303の処理の後、処理をS304へ進める。S304において、視点出力部117は、放送用仮想視点、オペレータ用仮想視点、拡張用仮想視点をそれぞれ画像生成装置110に出力する。画像生成装置110は、放送用仮想視点、オペレータ用仮想視点、拡張用仮想視点に基づき、放送用仮想視点画像、オペレータ用仮想視点画像、拡張用仮想視点画像を生成し、オペレータ用仮想視点画像と拡張用仮想視点画像を画像受信部115に出力する。なお、放送用仮想視点画像は放送システム(図示せず)に送られるものとする。画像受信部115は、画像生成装置110が生成したオペレータ用仮想視点画像と拡張用仮想視点画像を受信し、処理をS305へ進める。
S305において、表示制御部116、画像受信部115が受信したオペレータ用仮想視点画像と拡張用仮想視点画像を設定画面上に表示するよう制御する。本処理は、第1の仮想視点画像と、第1の仮想視点画像に比べて仮想的な撮影範囲の広い、第2の仮想視点画像とが表示画面上に表示されるよう制御する表示制御処理の一例である。表示制御部116は、表示に際しては、図4(a)に示したように、拡張用仮想視点画像の中心とオペレータ用仮想視点画像の中心が一致するように両画像を同時に表示する。このとき、表示制御部116は、オペレータ用仮想視点画像が前面に来るように制御する。さらに、表示制御部116は、オペレータ用仮想視点画像401と拡張用仮想視点画像402とを識別可能とすべく、両画像401、401の境界位置に太線を描画する。
以上で、表示制御装置100による情報処理が終了する。表示制御装置100が、上記S301からS305の処理を繰り返すことにより、オペレータの操作に応じて、リアルタイムに放送用仮想視点画像を生成することが可能となる。
なお、本実施形態においては、S302でオペレータ用仮想視点を決定するが、オペレータ用仮想視点と放送用仮想視点は同じであるため、このステップを省略してもよい。その場合、その他の処理では、オペレータ用仮想視点の代わりに放送用仮想視点を用いればよい。また、S305において、拡張用仮想視点画像はオペレータ用仮想視点画像が前面にくるため表示されない領域がある。これに対応し、画像生成装置110は、拡張用仮想視点画像については、表示される部分の画像だけを画像生成装置110に生成させることとしてもよい。これにより、計算量の軽減や通信負荷の軽減が可能である。
以上説明したように、本実施形態に係る表示制御装置100は、仮想視点を指定する設定画面上にオペレータ用仮想視点画像と拡張用仮想視点画像を同時に表示する。さらに、オペレータ用仮想視点画像と拡張用仮想視点画像の仮想視点の光軸は一致し、両画像の中心を一致させた状態で配置されている。このため、拡張用仮想視点画像とオペレータ用仮想視点画像の境界部に歪みが生じるのを防ぎ、両画像をシームレスに表示することができる。これにより、オペレータがオペレータ用仮想視点画像の周辺で起きる事象に気付きやすくなり、ボールや選手の急な動きに追従できる。したがって、オペレータによる仮想視点の操作時の被写体の撮り逃しを低減し、スムーズなカメラワークを実現することができる。
第1の変形例としては、表示制御部116は、オペレータ用仮想視点画像の周囲に拡張用視点画像を表示すればよく、表示画面において、必ずしも両画像の中心は一致しなくともよい。
第2の変形例としては、拡張用仮想視点画像は、オペレータ用仮想視点画像に比べて、仮想的な撮影範囲が広くなるような仮想視点画像であればよく、拡張用仮想視点画像のオペレータ用仮想視点画像との関係は実施形態に限定されるものではない。例えば、両画像の仮想視点の位置や撮影方向は必ずしも同一である必要はない。なお、拡張用仮想視点画像の仮想的な撮影範囲は、オペレータ用仮想視点画像の仮想的な撮影範囲を含むことが望ましい。
また、第3の変形例としては、オペレータ用仮想視点画像と拡張用仮想視点画像の表示サイズが固定でない場合もある。この場合、拡張用仮想視点決定部114は、拡張用仮想視点画像の画角を決定する際に、両画像の表示サイズ比を考慮することなく、オペレータ用仮想視点画像の画角に基づいて拡張用仮想視点画像の画角を決定してもよい。
また、第4の変形例としては、画像生成システムは、画角に替えて仮想視点画像を変更することにより、オペレータ用仮想視点画像から、拡張用仮想視点画像を生成してもよい。すなわち、この場合には、表示制御装置100は、オペレータ用仮想視点画像の画角を拡張用仮想視点画像の画角として決定し、オペレータ用仮想視点よりも後方の位置を拡張用仮想視点として決定する。ここで、後方とは、オペレータ仮想視点画像の仮想的な撮影方向と逆向きの方向である。また、画像生成システムは、仮想視点と画角の両方を変更することにより、拡張用仮想視点画像を生成してもよい。なお、いずれの場合も、実施形態において説明した拡張用仮想視点画像と同一の仮想視点画像が生成されるように、拡張用視点画像の画角や仮想視点を制御するものとする。
(第2の実施形態)
次に、第2の実施形態に係る画像生成システムについて説明する。第1の実施形態においては、オペレータ用仮想視点画像の表示サイズが固定であったのに対し、第2の実施形態においては、表示制御装置100は、オペレータ用仮想視点画像の表示サイズを適宜変更する。例えば、フィールド全体が映るようなワイドアングルの場合、拡張用仮想視点画像の必要性は少ない。一方で、特定の選手にクローズアップするアングルの場合は、オペレータがオペレータ用仮想視点画像の周辺で起きる事象に気付き難くなる。なぜなら拡張用仮想視点画像の画角もオペレータ用仮想視点画像の画角に応じて狭くなるためである。これは第1の実施形態において説明した(式2)より自明である。そこで、本実施形態に係る画像生成システムにおいては、オペレータ用仮想視点画像の表示サイズを可変にすることとした。
以下、第2の実施形態に係る画像生成システムについて、第1の実施形態に係る画像生成システムと異なる点について説明する。図5は、第2の実施形態における表示制御装置100の機能構成図である。図1と同じ機能を持つモジュールには同じ番号を付与し、説明を省略する。図5において、接近度算出部301は、仮想視点と被写体との近付き具合を接近度という尺度で算出する。接近度は、仮想視点と被写体の物理的な距離が短くなるにつれて大きくなり、両者の物理的な距離が長くなるにつれて小さくなる。さらに、接近度は、仮想視点画像中の被写体の占める割合が大きくなる程大きくなり、被写体の割合が小さくなる程小さくなる。本実施形態では、接近度を0から1の値にスケーリングした場合について説明するが、これに限定されるものではなく、任意の値を使ってもよいし、接近度という尺度を用いずに表示サイズの制御を行なってもよい。
画像判別部302は、画像種別を判別する。本実施形態においては、画像種別は、撮像画像の対象となる競技の種類であるものとする。競技の種類は、事前に与えてもよいし、オペレータが入力することとする。他の例としては、表示制御装置100が、認識技術を用いて、撮像画像から競技の種類を推定してもよい。
背景画像取得部303は、ある仮想視点における背景画像を取得する。ここでいう背景画像とは、選手やボール等リアルタイムに動き回る物体がいない状態での仮想視点画像である。試合前に撮像装置109が複数の画像を撮影し、これを画像生成装置110が背景画像として保持しているものとする。これにより、画像生成装置110は、任意の仮想視点における背景画像を生成することができる。
占有率算出部304は、仮想視点画像における被写体の占める割合を算出する。背景差分算出部305は、仮想視点画像と背景画像の差分を取る。被写***置取得部306は、被写体につけた位置センサや画像認識による位置認識に基づいて被写体の位置を取得する。距離算出部307は、仮想視点の位置と被写体の位置から仮想視点と被写体の間の距離を算出する。オペレータ用仮想視点画像保持部308は、オペレータ用仮想視点画像を保持する。
図6は、第2の実施形態に係る情報処理を示すフローチャートである。図3に示す処理と同じ処理には、同じ番号を付し、説明を省略する。CPU101は、S303の処理の後、処理をS601へ進める。S601において、表示制御部116は、オペレータ用仮想視点画像の表示サイズを決定し、その後処理をS304へ進める。
図7は、表示サイズ決定処理(S601)における詳細な処理を示すフローチャートである。S701において、画像判別部302は、撮像画像の種別、すなわち競技の種類を判定する。競技の種類は、サッカー、ラグビー、野球、バスケットボール等である。なお、言うまでもないことであるが、本表示制御装置100を含む画像生成システムはスポーツ以外にも適用できるため、結婚式、コンサート、演劇等を含んでもよい。この場合、画像判別部302は、結婚式、コンサートといった内容を撮像画像の種別として特定する。
表示制御装置100には、競技の種類毎に、接近度に対する競技係数が予めHDD104等に設定されているものとする。そして、接近度算出部301は、競技の種類に応じて、競技係数を特定する。ここで、競技係数は、接近度の計算に用いられる。競技係数の例としては、フィールドが広いサッカーやラグビーは0.8、フィールドが狭いバスケットボールは0.5、更に狭い卓球は0.3等とする。つまり、競技係数は、オペレータ用仮想視点画像の周辺を広く見る必要がある競技程大きく、そうでない競技程小さい値となるような値である。
次に、S702において、背景差分算出部305は、オペレータ用仮想視点画像保持部308が保持するオペレータ用仮想視点画像を取得する。次に、S703において、背景画像取得部303は、オペレータ用仮想視点と同じ仮想視点の背景画像を取得する。先に説明した通り、試合前に撮像装置109を用いて複数の画像を撮影しておくことで、任意の仮想視点における背景画像を生成することができる。仮想視点は放送用仮想視点保持部112が保持する仮想視点を用いる。視点出力部117は、この仮想視点を画像生成装置110に送る。画像生成装置110は、事前に撮影した背景画像をもとに仮想視点画像を生成する。背景画像取得部303は、画像受信部115を介して、画像生成装置110が生成した仮想視点の背景画像を取得する。
次に、S704において、背景差分算出部305は、オペレータ用仮想視点画像と背景画像の差分を取る。次に、S705において、占有率算出部304は、背景差分算出部305が算出した背景差分とオペレータ用仮想視点画像の領域の比(占有率)を求める。背景差分算出部305が算出した背景差分は選手やボール等の被写体に相当し、オペレータ用仮想視点画像に対し被写体画像が占める割合が占有率となる。
次に、S706において、接近度算出部301は、競技係数及び占有率に基づいて、接近度を計算する。接近度算出部301は、例えば、(式3)により接近度を算出する。競技係数及び占有率も0から1までの値としておくことで接近度も0から1の範囲に納まる。

接近度=競技係数*占有率 …(式3)
次に、S707において、表示制御部116は、接近度に基づいて、オペレータ用仮想視点画像の表示サイズを決定する。図8及び図9を参照しつつ、S707の処理について説明する。図8のグラフは、接近度とオペレータ用仮想視点画像の表示サイズの関係を示している。図8のグラフの横軸は接近度、縦軸はオペレータ用仮想視点画像の表示サイズである。グラフの全体の傾向としては、接近度が増加するにしたがい、オペレータ用仮想視点画像の表示サイズは小さくなる。表示制御部116は、図8に示すグラフ(関数)に従い、接近度からオペレータ用仮想視点画像の表示サイズを決定する。
図8に示すグラフにおいて、接近度が0から0.1までの間では、オペレータ用仮想視点画像の表示サイズは拡張用仮想視点画像の表示サイズと等しいサイズとなる。この場合、図9(a)に示すように、オペレータ用仮想視点画像901と拡張用仮想視点画像902の表示サイズは等しくなる。すなわち、拡張用仮想視点画像902は表示されない。これは、フィールド全体を撮像するようなワイドなアングルの場合であり、拡張用仮想視点画像902が不要なためである。
接近度が0.1から0.2までの間では、オペレータ用仮想視点画像の表示サイズは、接近度の増加に応じて減少する。この場合、図9(b)に示すように、オペレータ用仮想視点画像911の表示サイズは、拡張用仮想視点画像902の表示サイズに比べて小さくなる。
接近度が0.2から0.7までの間では、接近度の増加に関係なく、オペレータ用仮想視点画像の表示サイズは一定とする。この場合、図9(c)に示すように、拡張仮想視点画像922の表示サイズに対するオペレータ用仮想視点画像921の表示サイズの比は、図9(b)に示す表示サイズの比に比べてさらに小さくなる。接近度が0.7から0.8までの間では、接近度の増加に応じてオペレータ用仮想視点画像の表示サイズが減少する。この場合、図9(d)に示すように、拡張仮想視点画像932の表示サイズに対するオペレータ用仮想視点画像931の表示サイズの比は、図9(c)に示す状態におけるサイズ比に比べてさらに小さくなる。
このように、接近度が大きくなるに従い、オペレータ用仮想視点画像の表示サイズを小さくすることで、拡張用仮想視点画像の表示スペースを確保する。これにより、オペレータは、オペレータ用仮想視点画像の周辺で起きる事象に気付き易くなり、ボールや選手の急な動きに追従できる。
接近度が0.8から1.0までの間では、接近度の増加に関係なく、オペレータ用仮想視点画像の表示サイズは一定となる。この場合、図9(e)に示すように、拡張仮想視点画像942の表示サイズに対するオペレータ用仮想視点画像941の表示サイズの比は、図9(d)に示す状態におけるサイズ比に比べてさらに小さくなる。0.8から1.0の間で表示サイズを一定としたのは、表示サイズが小さくなり過ぎて、オペレータが画像を確認するのに支障が生じるのを防ぐためである。
選手等をクローズアップするアングルの場合には、図9(d)や図9(e)に示すように、拡張用仮想視点画像の画角は、比較的広い画角となる。このため、オペレータは、オペレータ用仮想視点画像で起きる事象に気付きやすくなる。
第1の実施形態においては、オペレータ用仮想視点画像の表示サイズは固定で図9(c)に対応する値であるとし、αとmは第1の実施形態におけるものと同一の値とする。この場合、第2の実施形態においては、オペレータ用仮想視点画像の表示サイズは、接近度が大きくなるにつれて第1の実施形態の表示サイズlよりも小さくなることがわかる。第1の実施形態において説明した(式1)において、arctanは単調増加関数なので、拡張用仮想視点の画角βは、第1の実施形態の場合と比べると大きくなることが分かる。なお、第2の実施形態に係る画像生成システムのこれ以外の構成及び処理は、第1の実施形態に係る画像生成システムの構成及び処理と同様である。
以上のように、第2の実施形態に係る画像生成システムにおいては、表示サイズが固定された拡張用仮想視点画像に対し、その内側に表示するオペレータ用仮想視点画像の表示サイズを、状況に応じて適宜変更することができる。これにより、オペレータ用仮想視点画像の周囲で起きる事象等をより確実に表示させることができる。
なお、接近度を算出する処理は実施形態に限定されるものではない。第1の変形例としては、表示制御装置100は、競技の種類を考慮することなく、占有率に基づいて接近度を算出してもよい。すなわち、表示制御装置100は、占有率に基づいて、オペレータ用仮想視点画像の表示サイズを決定してもよい。
また、接近度を算出する処理の第2の変形例としては、表示制御装置100は、被写体と仮想視点の間の距離に基づいて、接近度を算出してもよい。図10は、第2の変形例に係る表示サイズ決定処理(S601)における詳細な処理を示すフローチャートである。
S1001において、画像判別部302が競技の種類を判定する。次に、S1002において、被写***置取得部306は、被写体の位置を取得する。被写体の位置の取得方法としては既知の手法を用いる。例えば、選手に付けた位置センサを利用する場合や、画像認識を利用して選手の位置を算出してもよい。あるいは、放送用仮想視点画像の中心の位置を世界座標に変換し、被写体の位置として用いてもよい。
次に、S1003において、距離算出部307は、放送用仮想視点保持部112が保持する仮想視点情報から仮想視点の位置を取得する。次に、S1004において、距離算出部307は、仮想視点の位置と被写***置取得部306が取得した被写***置に基づいて両者の距離を算出する。距離は、世界座標のユークリッド距離を用いるものとする。次に、S1005において、接近度算出部301は、ズーム倍率を取得する、なお、ズーム倍率は画角から算出可能であり、放送用仮想視点保持部112に保持されている画角を用いる。画角が広いとズーム倍率が低く、画角が狭いとズーム倍率が高いという関係がある。
次に、S1006において、接近度算出部301は、競技係数、距離、ズーム倍率に基づいて接近度を算出する。接近度算出部301は、例えば、(式4)のように、0から1の間でスケーリングした接近度を算出する。

接近度=競技係数*ズーム倍率/距離 …(式4)

距離が分母にあるのは、距離が大きくなるにしたがい接近度が低くなるためである。次に、S1007において、表示制御部116は、接近度に基づいて、オペレータ用仮想視点画像の表示サイズを決定する。本処理は、S707における処理と同様である。
また、接近度を算出する処理の第3の変形例としては、表示制御装置100は、複数の要因に基づいて、接近度を算出してもよい。図11は、第3の変形例に係る表示サイズ決定処理(S601)における詳細な処理を示すフローチャートである。第3の変形例においては、複数の要因の一例として、競技の種類、仮想視点の位置、ズーム倍率、画角、仮想視点と被写体との距離、画像上での被写体の移動速度に基づいて、接近度を算出する。なお、表示制御装置100は、これらの要因のうち少なくとも1つに基づいて接近度を算出してもよい。また他の例としては、表示制御装置100は、過去の手本となるカメラワークの結果とともにこれら要因の値を保存しておき、数量化I類等の統計的手法を用いてこれらのルールを導出してもよい。
S1101において、接近度算出部301は、接近度sを0に設定する。次に、S1102において、画像判別部302は、競技の種類を取得する。画像判別部302は、競技の種類がサッカーの場合は(S1102でYes)、処理をS1103へ進める。画像判別部302は、競技の種別がサッカーでない場合には(S1102でNo)、処理をS1104へ進める。
S1103において、接近度算出部301は、接近度s=s+0.1とする。次に、S1104において、接近度算出部301が、放送用仮想視点保持部112が保持する仮想視点から位置を取得し、位置がフィールド内か否かを判定する。接近度算出部301は、位置がフィールド内の場合には(S1104でYes)、処理をS1105へ進める。接近度算出部301は、位置がフィールド外の場合には(S1104でNo)、処理をS1106へ進める。S1105において、接近度算出部301は、接近度s=s+0.1とする。
次に、S1106において、接近度算出部301は、放送用仮想視点保持部112から画角を取得し、ズーム倍率を算出する。そして、接近度算出部301は、ズーム倍率が2以上の場合は(S1106でYes)、処理をS1107へ進める。接近度算出部301は、ズーム倍率が2未満の場合には(S1106でNo)、処理をS1108へ進める。S1107において、接近度算出部301は、接近度s=s+0.4とする。次に、S1108において、接近度算出部301は、放送用仮想視点保持部112が保持する仮想視点から画角を取得する。そして、接近度算出部301は、画角が30度未満の場合は(S1108でYes)、処理をS1109へ進める。接近度算出部301は、画角が30度以上の場合は(S1108でNo)、処理をS1110へ進める。S1109において、接近度算出部301は、接近度s=s+0.4とする。
次に、S1110において、距離算出部307は、被写体までの距離を算出する。具体的には、距離算出部307は、図10を参照しつつ説明したS1002〜S1004の処理と同様の処理を行う。距離算出部307は、距離が10m未満の場合は(S1110でYes)、処理をS1111へ進める。距離算出部307は、距離が10m以上の場合には(S1110でNo)、処理をS1112へ進める。S1111において、接近度算出部301は、接近度s=s+0.6とする。
次に、S1112において、占有率算出部304は、被写体の画像に占める割合である占有率を算出する。具体的には、占有率算出部304は、図7を参照しつつ説明したS702〜S705の処理と同様の処理を行う。占有率算出部304は、占有率が30%以上の場合は(S1112でYes)、処理をS1113へ進める。占有率算出部304は、占有率が30%未満の場合は(S1112でNo)、処理をS1114へ進める。
S1113において、接近度算出部301は、接近度s=s+0.3とする。次に、S1114において、接近度算出部301は、1フレーム前と処理時点におけるオペレータ用仮想視点画像における、被写体の画像中での移動距離を算出する。なお、処理時点におけるオペレータ用仮想視点画像(フレーム)と、その1フレーム前のオペレータ用仮想視点画像(フレーム)とが、オペレータ用仮想視点画像保持部308に保持されているものとする。接近度算出部301は、被写体の位置は被写***置取得部306から取得し、取得した被写体の位置を少なくとも1フレームの間保持しておくものとする。
次に、接近度算出部301は、被写体の位置(世界座標)から画像中での位置を求める。画像の仮想視点が既知であるため、簡単な幾何的計算で求めることができる。1フレーム前と処理時点の仮想視点は、放送用仮想視点保持部112に保持されているものとし、それを利用する。接近度算出部301は、2次元のユークリッド距離を用いて1フレーム当たりの画像中の移動距離を算出し、これを移動速度とする。接近度算出部301は、移動速度が画像の横幅の1/3以上である場合は(S1114でYes)、処理をS1115へ進める。接近度算出部301は、移動速度が画像の横幅の1/3未満である場合は(S1114でNo)、処理をS1116へ進める。S1115において、接近度算出部301は、接近度s=s+0.2とする。
次に、S1116において、接近度算出部301は、接近度の値の比較を行う。接近度算出部301は、接近度sが1より大きい場合は(S1116でYes)、処理をS1117へ進める。接近度算出部301は、接近度sが1以下の場合は(S1116でNo)、処理をS1118へ進める。S1117において、接近度算出部301は、接近度s=1.0とする。次に、S1118において、表示制御部116は、オペレータ用仮想視点画像の表示サイズを決定する。本処理は、S707における処理と同様である。
このように、本例の表示制御装置100は、状況に応じてオペレータ用仮想視点画像の表示サイズを制御する。これにより、オペレータは、クローズアップのアングルでも周辺で起きる事象に気付き易くなる。また、ワイドなアングルではオペレータ用仮想視点画像の視認性をより高めることができる。
(第3の実施形態)
次に、第3の実施形態に係る画像生成システムについて説明する。第3の実施形態に係る画像生成システムにおいては、表示制御装置100は、撮像時刻(撮像タイミング)の異なるオペレータ用仮想視点画像と拡張用仮想視点画像とを同時に表示する。本実施形態に係る表示制御装置100は、第1の時刻における撮像画像から得られたオペレータ用仮想視点画像と、第1の時刻よりも後の時刻である第2の時刻における撮像画像から得られた拡張用仮想視点画像とを同時に表示する。但し、両画像に対応する撮像時刻が異なればよく、撮像時刻の関係は実施形態に限定されるものではない。
以下、第3の実施形態に係る画像生成システムについて、他の実施形態に係る画像生成システムと異なる点について説明する。図12は、オペレータ用仮想視点画像よりも時間を進めた拡張用仮想視点画像を生成する処理の説明図である。放送システムでは、ライブ放送中に、放送してはいけないものが放送されないように撮像装置109の撮像時刻から数秒のバッファ時間を設けることが一般的である。撮像時刻をTb、所定時点の時刻をTcとすると、処理時点の時刻Tcには時刻Tbに撮像された映像が放送される。つまり、バッファ時間はTc−Tbとなる。
本実施形態に係る画像生成システムは、このバッファ時間を利用する。ここでは撮像装置109で撮像した画像をすぐに仮想視点画像生成に利用できるものとする。実際には若干のタイムラグが生じるがここでは説明を簡単にするため、タイムラグはないものとして説明する。第1の実施形態及び第2の実施形態の表示制御装置100は、撮像時刻Tbに撮像された画像に基づいて、オペレータ用仮想視点画像及び拡張用仮想視点画像を生成する。一方で、本実施形態に係る表示制御装置100は、バッファ時間を設け、時刻Tbから処理時点の時刻Tcまでに撮り貯めた画像群1201を利用することが可能である。
1202は、第1の実施形態および第2の実施形態において、仮想視点を指定する設定画面上に表示されるオペレータ用仮想視点画像と拡張用仮想視点画像がどの撮像画像を利用しているかを矢印で表現している。オペレータ用仮想視点画像1204と拡張用仮想視点画像1205とも時刻Tbに撮像された画像が使われている。
一方、1203は、本実施形態において設定画面上に表示されるオペレータ用仮想視点画像と拡張用仮想視点画像がどの撮像画像を利用しているかを矢印で表現している。オペレータ用仮想視点画像1206は時刻Tbに撮像された画像が使われており、拡張用仮想視点画像1207は、時刻Tb+tに撮像された画像が使われている。このように、バッファ時間を導入している画像生成システムにおいては、オペレータ用仮想視点画像と拡張用仮想視点画像を生成する際に用いる画像の撮像時刻を変えることが可能である。
図12を参照しつつ説明した通り、オペレータ用仮想視点画像を基準に考えると拡張用仮想視点画像には、基準時よりも後(未来)に起こる事象を表示することが可能である。すなわち、オペレータは、オペレータ用仮想視点画像の周辺で起きる未来の事象を知ることができ、これから確実に起きるボールや選手の急な動きを知った上でカメラワークを行うことが可能になる。図13は、第3の実施形態に係る表示制御装置100の機能構成図である。本実施形態に係る表示制御装置100は、図5を参照しつつ説明した第2の実施形態に係る表示制御装置100の機能構成において、接近度算出部301に替えて、時間制御部1301を有している。時間制御部1301は、進める時間を決定する。
図14は、第3の実施形態に係る表示制御装置100による情報処理を示すフローチャートである。図3、図6に示す処理と同じ処理には同じ番号を付与し、説明を省略する。CPU101は、S303の処理の後、処理をS601へ進め、S601の処理の後、処理をS1401へ進める。S1401において、時間制御部1301は、進める時間を決定する。なお、他の例としては、進める時間は予め設定されているものとする。また、他の例としては、オペレータが操作部107を介して、進める時間を入力してもよい。例えば、入力デバイスとしてダイヤルを用いてもよい。ダイヤルを右に回すと時間を進め、左に回すと時間を戻すように入力部118で割り付けることで、ユーザが進める時間を入力することが可能になる。言うまでもないことであるが、入力デバイスは任意のものでよく、例えばタッチパネルやマウスを使ってGUIで実現してもよい。
次に、S304において、視点出力部117が、放送用仮想視点、オペレータ用仮想視点、拡張用仮想視点をそれぞれ画像生成装置110に出力する。その際、視点出力部117は、拡張用仮想視点に関しては、進める時間情報も合わせて出力する。画像生成装置110は、放送用仮想視点、オペレータ用仮想視点、拡張用仮想視点に基づき、放送用仮想視点画像、オペレータ用仮想視点画像、拡張用仮想視点画像を生成し、オペレータ用仮想視点画像と拡張用仮想視点画像を画像受信部115に出力する。画像生成装置110は、拡張用仮想視点画像を生成する際に、進める時間情報に基づいて、仮想視点画像生成に利用する撮像画像を選択する。
図15は、進める時間を決定する処理(S1401)における詳細な処理を示すフローチャートである。時間制御部1301は、複数の要因に基づいて、進める時間を決定する。本実施形態においては、時間制御部1301は、競技の種類、仮想視点の位置、ズーム倍率、画角、仮想視点と被写体との距離、画像上での被写体の移動速度に基づいて、進める時間を決定する。言うまでもないことであるが、これ以外の要因を用いてもよいし、この中の要因のすべてを必ずしも用いる必要はない。また、過去の手本となるカメラワークの結果とともにこれら要因の値を保存しておき、数量化I類等の統計的手法を用いてこれらのルールを導出してもよい。
S1501において、時間制御部1301は、進める時間t=0(単位ミリ秒)を設定する。次に、S1502において、画像判別部302は、競技の種類を取得する。画像判別部302は、競技の種類がサッカーの場合は(S1502でYes)、処理をS1503へ進める。画像判別部302は、競技の種類がサッカーでない場合には(S1502でNo)、処理をS1504へ進める。S1503において、時間制御部1301は、進める時間t=t+10とする。
次に、S1504において、時間制御部1301は、放送用仮想視点保持部112が保持する仮想視点の置を取得し、位置がフィールド内か否かを判定する。時間制御部1301は、フィールド内の場合は(S1504でYes)、処理をS1505へ進める。時間制御部1301は、フィールド外の場合は(S1504でNo)、処理を1506へ進める。S1505において、時間制御部1301は、進める時間t=t+30とする。次に、S1506において、時間制御部1301は、放送用仮想視点保持部112が保持する仮想視点から画角を取得し、ズーム倍率を算出する。時間制御部1301は、ズーム倍率が2以上の場合は(1506でYes)、処理をS1507へ進める。時間制御部1301は、ズーム倍率が2未満の場合は(S1506でNo)、処理をS1508へ進める。S1507において、時間制御部1301は、進める時間t=t+50とする。
次に、S1508において、時間制御部1301は、放送用仮想視点保持部112が保持する画角を取得する。時間制御部1301は、画角が30度未満の場合は(S1508でYes)、処理をS1509へ進める。時間制御部1301は、画角が30度以上の場合は(S1508でNo)、処理をS1510へ進める。S1509において、時間制御部1301は、進める時間t=t+50とする。次に、S1510において、距離算出部307が、被写体までの距離を算出する。本処理は、図11を参照しつつ説明したS1110の処理と同様である。距離算出部307は、距離が10m未満の場合は(S1510でYes)、処理をS1511へ進める。距離算出部307は、距離が0m以上の場合は(S1510でNo)、処理をS1512へ進める。S1511において、時間制御部1301は、進める時間t=t+30とする。
次に、S1512において、占有率算出部304は、被写体の画像に占める割合である占有率を算出する。本処理は、図11を参照しつつ説明したS1112の処理と同様である。占有率算出部304は、占有率が30%以上の場合は(S1512でYes)、処理をS1513へ進める。占有率算出部304は、占有率が30%未満の場合は(S1512でNo)、処理をS1514へ進める。S1513において、時間制御部1301は、進める時間t=t+30とする。次に、S1514において、時間制御部1301は、被写体の移動距離を算出する。本処理は、図11を参照しつつ説明したS1114の処理と同様である。時間制御部1301は、移動速度が画像の横幅の1/3以上である場合は(S1514でYes)、処理をS1515へ進める。接近度算出部301は、移動速度が画像の横幅の1/3未満である場合は(S1514でNo)、処理をS1516へ進める。S1515において、時間制御部1301は、進める時間t=t+20とする。
次に、S1516において、時間制御部1301は、進める時間の値の比較を行う。時間制御部1301は、進める時間tがTc−Tbより大きい場合は(S1516でYes)、処理をS1517へ進める。時間制御部1301は、時間tがTc−Tb以下の場合は(S1516でNo)、処理を終了する。なお、Tcは、処理時点の時刻、Tbは、放送用仮想視点画像の生成に用いる画像の撮像時刻である。S1517においては、時間制御部1301は、進める時間t=Tc−Tbとする。以上で、進める時間を決定する処理が終了する。なお、第3の実施形態に係る画像生成システムのこれ以外の構成及び処理は、他の実施形態に係る画像生成システムの構成及び処理と同様である。
以上のように、第3の実施形態に係る画像生成システムにおいては、オペレータ用仮想視点画像とは撮像時刻の異なる撮像画像から得られたオペレータ用仮想視点画像と、拡張用仮想視点画像とを同時に表示する。これにより、オペレータは、オペレータ用仮想視点画像を確認しつつ、オペレータ用仮想視点画像とは異なる撮像時刻に生じた事象等についても確認することができる。
(第4の実施形態)
次に、第4の実施形態に係る画像生成システムについて説明する。第4の実施形態に係る画像生成システムにおいても、表示制御装置100は、第1の時刻における撮像画像から得られたオペレータ用仮想視点画像と、第2の時刻における撮像画像から得られた拡張用仮想視点画像とを同時に表示する。但し、第4の実施形態の表示制御装置100は、複数の時間を進めた拡張用仮想視点画像を解析して選手やボール等の被写体の検出結果に基づいて設定画面上に表示する拡張用仮想視点画像を決定する。
図16は、拡張用仮想視点画像を解析して選手やボールを抽出した結果に基づいて進める時間を決定する処理の説明図である。図16(a)は、時系列の拡張用仮想視点画像を示す図である。1601は、時刻Tb+0.1(秒)における拡張用仮想視点画像である。仮想視点は時刻Tbにおけるオペレータ用仮想視点と同じである。つまり、オペレータにとっては、0.1秒後の未来が表示されることになる。同様に、1602から1605は、それぞれ時刻Tb+0.2からTb+0.5における拡張用仮想視点画像である。
1606と1607はボールである。ボールは拡張用仮想視点画像の左から進入し下に抜けていくことがわかる。ここでは、初めてボールが現れる拡張用仮想視点画像1603を設定画面に表示するものとする。図16(b)は、時刻Tbにおける設定画面1610の表示例を示す図である。1608は時刻Tbにおけるオペレータ用仮想視点画像である。1603は、時刻Tb+0.3における拡張用仮想視点画像である。
図17は、第4の実施形態に係る情報処理を示すフローチャートである。図13と同じ処理には同じ番号を付与し、説明を省略する。CPU101は、S303の処理の後、処理をS601へ進める。その後、処理をS304へ進める。S304において、視点出力部117は、放送用、オペレータ用、拡張用それぞれの仮想視点を出力する。そして、画像生成装置110は、仮想視点画像を生成する。このとき、視点出力部117は、時刻TbからTcまでの間を0.1秒刻みで指定し、画像生成装置110は、指定に応じて、0.1秒刻みの複数の拡張用仮想視点画像を生成する。なお、ここで生成された複数の拡張用仮想視点画像を候補画像と称する。ただし、仮想視点は時刻Tbのものを用いる。なお、ここでは、0.1秒刻みを一例として挙げたがこれに限定されるものではなく、任意の間隔で指定してもよいものである。
S304の処理ののち、CPU101は、処理をS1701へ進める。S1701において、被写***置取得部306は、時刻TbからTcまでの拡張用仮想視点画像の候補画像(0.1秒刻み)から被写体を検出する。そして、被写***置取得部306は、時間的に最初に被写体(選手またはボール)が現れた候補画像を設定画面上に表示する拡張用仮想視点画像として決定し(画像決定処理)、その後処理をS305へ進める。なお、第4の実施形態に係る画像生成システムのこれ以外の構成及び処理は、他の実施形態に係るが図生成システムの構成及び処理と同様である。
以上のように、第4の実施形態に係る画像生成システムにおいては、適切な撮像時刻に対応する拡張用仮想視点画像を、オペレータ用仮想視点画像と同時に表示することができる。これにより、オペレータは、オペレータ用仮想視点画像を確認しつつ、オペレータ用仮想視点画像とは異なる撮像時刻に生じた事象等についても確認することができる。
以上で説明した例は、拡張用仮想視点画像を1つ選択して、表示するものであるが、オペレータ用仮想視点画像と同時に表示する拡張用仮想視点画像の数は複数であってもよい。
図18は、図16(a)に示す、被写体が存在する1603と1604を重畳した1609を示す設定画面1800の表示例を示す図である。ここでは、時間的な違いを表現するためにより遠い未来の被写体を薄く表示している。言うまでもないことであるが、時間的な違いの表現方法はこれに限定されるものではなく、アルファ値、文字、色等任意の表現手段で表現してもよいものとする。
この場合も、表示制御装置100による情報処理は、第4の実施形態において図17を参照しつつ説明した情報処理と基本的には同じである。違いは以下の2つである。1点目は、S1701において、被写***置取得部306が、被写体が存在する拡張用仮想視点画像をすべて選択する点である。2点目は、S305において、表示制御部116が、被写体が存在する複数の拡張用仮想視点画像を重畳してオペレータ用仮想視点画像とともに表示する点である。
また、本実施形態においては、S601においてオペレータ用仮想視点画像の表示サイズを決定することとしたが、本処理は省略し、表示サイズを制御しないこととしてもよい。
以上、上述した各実施形態によれば、オペレータによる仮想視点の操作時の被写体の撮り逃しを低減し、スムーズなカメラワークを実現することができる。
以上、本発明の好ましい実施形態について詳述したが、本発明は係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。
<その他の変形例>
以上本発明に係る実施形態を説明したが、必ずしも放送を前提とした表示制御装置である必要はない。例えば、一般ユーザがSNSにアップロードするための映像コンテンツを生成する場合に、放送用仮想視点の代わりにコンテンツ用仮想視点を決定する装置であってもよい。また、この場合、放送システムに対して出力する必要はなく、ユーザが使用しているパーソナルコンピュータに保存したり、SNSのサーバーにアップロードしたりしてもよい。
また、先に説明したように、表示制御装置は、通常のパーソナルコンピュータ等の汎用表示制御装置であって、それ上で動作するコンピュータプログラムで実現できるものである。よって、本発明はコンピュータプログラムをその範疇とすることは明らかである。本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
100 表示制御装置
109 撮像装置
110 画像生成装置
本発明は、情報処理装置、情報処理方法及びプログラムに関する。
そこで、本発明は、情報処理装置であって、第1の仮想視点画像を生成するために使用される第1の仮想視点の位置を決定する第1の決定手段と、前記第1の決定手段により決定される前記第1の仮想視点の位置に基づいて、第2の仮想視点画像を生成するために使用される第2の仮想視点の位置を決定する第2の決定手段と、前記第1の決定手段により決定される前記第1の仮想視点の位置に基づいて生成される前記第1の仮想視点画像と、前記第2の決定手段により決定される前記第2の仮想視点の位置に基づいて生成される前記第2の仮想視点画像とが、1つ以上の表示手段に表示されるように制御する表示制御手段とを有することを特徴とする。

Claims (18)

  1. ユーザの操作に応じて仮想視点を受け付ける受付手段と、
    前記仮想視点に基づいて、撮像画像から生成された第1の仮想視点画像と、前記第1の仮想視点画像に比べて仮想的な撮影範囲の広い、第2の仮想視点画像とが表示画面上に表示されるよう制御する表示制御手段と
    を有することを特徴とする表示制御装置。
  2. 前記第1の仮想視点画像及び前記第2の仮想視点画像は、仮想視点が同一で、かつ画角の異なる画像であることを特徴とする請求項1に記載の表示制御装置。
  3. 前記第1の仮想視点画像及び前記第2の仮想視点画像は、画角が同一で、かつ仮想的な同一の光軸上の異なる位置を仮想視点とする画像であることを特徴とする請求項1に記載の表示制御装置。
  4. 前記表示制御手段は、前記第1の仮想視点画像の中心位置と前記第2の仮想視点画像の中心位置を一致させた状態で前記第1の仮想視点画像と前記第2の仮想視点画像とが表示されるように制御することを特徴とする請求項2又は3に記載の表示制御装置。
  5. 前記表示制御手段は、前記第1の仮想視点画像と前記第2の仮想視点画像とが識別可能に表示されるよう制御することを特徴とする請求項1乃至4の何れか1項に記載の表示制御装置。
  6. 前記表示制御手段は、前記第1の仮想視点画像の周囲に前記第2の仮想視点画像を表示することを特徴とする請求項1に記載の表示制御装置。
  7. 前記第1の仮想視点画像の画角に基づいて、前記第2の仮想視点画像の画角を決定する画角決定手段をさらに有することを特徴とする請求項1乃至6の何れか1項に記載の表示制御装置。
  8. 前記画角決定手段は、さらに、前記第1の仮想視点画像の表示サイズと、第2の仮想視点画像の表示サイズと、に基づいて、前記第2の仮想視点画像の画角を決定することを特徴とする請求項7に記載の表示制御装置。
  9. 前記第1の仮想視点画像における被写体の画像の占有率を特定する特定手段と、
    前記占有率に基づいて定まる、前記第1の仮想視点画像の第1のサイズに比べて大きい第2のサイズを、前記第2の仮想視点画像の表示サイズとして決定するサイズ決定手段とをさらに有し、
    前記表示制御手段は、前記第1のサイズの前記第1の仮想視点画像と、前記第2のサイズの前記第2の仮想視点画像と、が表示画面上に表示されるよう制御することを特徴とする請求項1に記載の表示制御装置。
  10. 仮想視点と前記第1の仮想視点画像の被写体の位置との間の距離を特定する特定手段と、
    前記距離に基づいて定まる、前記第1の仮想視点画像の第1のサイズに比べて大きい第2のサイズを、前記第2の仮想視点画像の表示サイズとして決定するサイズ決定手段と
    をさらに有し、
    前記表示制御手段は、前記第1のサイズの前記第1の仮想視点画像と、前記第2のサイズの前記第2の仮想視点画像と、が表示画面上に表示されるよう制御することを特徴とする請求項1に記載の表示制御装置。
  11. 前記第1の仮想視点画像の被写体の移動速度を特定する特定手段と、
    前記移動速度に基づいて定まる、前記第1の仮想視点画像の第1のサイズに比べて大きい第2のサイズを、前記第2の仮想視点画像の表示サイズとして決定するサイズ決定手段と
    をさらに有し、
    前記表示制御手段は、前記第1のサイズの前記第1の仮想視点画像と、前記第2のサイズの前記第2の仮想視点画像と、が表示画面に表示されるよう制御することを特徴とする請求項1に記載の表示制御装置。
  12. 前記サイズ決定手段は、さらに前記撮像画像の種別に基づいて、前記第2のサイズを決定することを特徴とする請求項9乃至11の何れか1項に記載の表示制御装置。
  13. 前記第2の仮想視点画像は、前記第1の仮想視点画像に対応する撮像画像と異なるタイミングにおいて撮像された撮像画像から生成された画像であることを特徴とする請求項1乃至12の何れか1項に記載の表示制御装置。
  14. 前記第2の仮想視点画像は、前記第1の仮想視点画像に対応する撮像画像よりも後のタイミングにおいて撮像された撮像画像から生成された画像であることを特徴とする請求項13に記載の表示制御装置。
  15. 前記第1の仮想視点画像に対応する撮像画像と異なるタイミングにおいて撮像された撮像画像から生成された、第2の仮想視点画像の複数の候補画像から被写体を検出する検出手段と、
    前記検出手段による検出結果に基づいて、複数の前記候補画像から前記第2の仮想視点画像を決定する画像決定手段と
    をさらに有し、
    前記表示制御手段は、前記画像決定手段により決定された前記第2の仮想視点画像が表示画面上に表示されるよう制御することを特徴とする請求項13又は14に記載の表示制御装置。
  16. 前記表示制御手段は、対応する撮像画像の撮像タイミングの異なる複数の第2の仮想視点画像を重畳して、前記第1の仮想視点画像と共に表示画面上に表示されるよう制御することを特徴とする請求項13乃至15の何れか1項に記載の表示制御装置。
  17. 表示制御方法であって、
    ユーザの操作に応じて仮想視点を受け付ける受付ステップと、
    前記仮想視点に基づいて、撮像画像から生成された第1の仮想視点画像と、前記第1の仮想視点画像に比べて仮想的な撮影範囲の広い、第2の仮想視点画像とが表示画面上に表示されるよう制御する表示制御ステップと
    を含むことを特徴とする表示制御方法。
  18. コンピュータに、請求項17に記載の表示制御方法の各ステップを実行させるためのプログラム。
JP2021143033A 2016-09-01 2021-09-02 情報処理装置、情報処理方法及びプログラム Active JP7263456B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021143033A JP7263456B2 (ja) 2016-09-01 2021-09-02 情報処理装置、情報処理方法及びプログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016170932A JP6938123B2 (ja) 2016-09-01 2016-09-01 表示制御装置、表示制御方法及びプログラム
JP2021143033A JP7263456B2 (ja) 2016-09-01 2021-09-02 情報処理装置、情報処理方法及びプログラム

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2016170932A Division JP6938123B2 (ja) 2016-09-01 2016-09-01 表示制御装置、表示制御方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2021192273A true JP2021192273A (ja) 2021-12-16
JP7263456B2 JP7263456B2 (ja) 2023-04-24

Family

ID=59772395

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2016170932A Active JP6938123B2 (ja) 2016-09-01 2016-09-01 表示制御装置、表示制御方法及びプログラム
JP2021143033A Active JP7263456B2 (ja) 2016-09-01 2021-09-02 情報処理装置、情報処理方法及びプログラム

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2016170932A Active JP6938123B2 (ja) 2016-09-01 2016-09-01 表示制御装置、表示制御方法及びプログラム

Country Status (3)

Country Link
US (2) US11132807B2 (ja)
EP (1) EP3291549B1 (ja)
JP (2) JP6938123B2 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111176593A (zh) * 2018-11-09 2020-05-19 上海云绅智能科技有限公司 一种延展画面的投影方法及***
JP2022051972A (ja) * 2019-02-06 2022-04-04 ソニーグループ株式会社 情報処理装置および方法、並びにプログラム
JP7349793B2 (ja) 2019-02-15 2023-09-25 キヤノン株式会社 画像処理装置および画像処理方法、プログラム
JP7353782B2 (ja) * 2019-04-09 2023-10-02 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム
WO2020262391A1 (ja) * 2019-06-28 2020-12-30 富士フイルム株式会社 表示制御装置、表示制御方法、及びプログラム
JP7291224B2 (ja) * 2019-07-26 2023-06-14 富士フイルム株式会社 情報処理装置、情報処理方法、及びプログラム
JP7322320B2 (ja) * 2020-08-14 2023-08-07 トップゴルフ スウェーデン エービー 仮想時間同期を使用した三次元オブジェクト追跡の前の二次元画像データのモーションベースの前処理
CN112604282B (zh) * 2020-12-25 2022-09-02 珠海金山数字网络科技有限公司 虚拟镜头控制方法及装置
WO2023085139A1 (ja) * 2021-11-12 2023-05-19 ソニーグループ株式会社 データ処理装置、データ処理方法、およびプログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005319040A (ja) * 2004-05-07 2005-11-17 Nintendo Co Ltd キャラクタの動きを反映した拡大画像表示システム
JP2008033840A (ja) * 2006-07-31 2008-02-14 Xing Inc 動画表示装置、動画表示方法、及びコンピュータプログラム
JP2013012180A (ja) * 2011-06-03 2013-01-17 Nintendo Co Ltd 情報処理システム、情報処理装置、情報処理プログラム、および動画再生制御方法
JP2014067120A (ja) * 2012-09-25 2014-04-17 Fujitsu Ten Ltd 画像生成装置、画像表示システム、および、画像生成方法

Family Cites Families (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5850352A (en) * 1995-03-31 1998-12-15 The Regents Of The University Of California Immersive video, including video hypermosaicing to generate from multiple video views of a scene a three-dimensional video mosaic from which diverse virtual video scene images are synthesized, including panoramic, scene interactive and stereoscopic images
US6124862A (en) * 1997-06-13 2000-09-26 Anivision, Inc. Method and apparatus for generating virtual views of sporting events
US20020113865A1 (en) * 1997-09-02 2002-08-22 Kotaro Yano Image processing method and apparatus
JP2000348165A (ja) * 1999-06-04 2000-12-15 Mitsubishi Electric Corp 情景表示装置
JP4198449B2 (ja) * 2002-02-22 2008-12-17 富士フイルム株式会社 デジタルカメラ
GB2400513B (en) * 2003-03-14 2005-10-05 British Broadcasting Corp Video processing
US8446509B2 (en) * 2006-08-09 2013-05-21 Tenebraex Corporation Methods of creating a virtual window
US8277316B2 (en) * 2006-09-14 2012-10-02 Nintendo Co., Ltd. Method and apparatus for using a common pointing input to control 3D viewpoint and object targeting
NZ598897A (en) * 2006-12-04 2013-09-27 Lynx System Developers Inc Autonomous systems and methods for still and moving picture production
CA2675359A1 (en) * 2007-01-11 2008-07-17 360 Replays Ltd. Method and system for generating a replay video
EP2415252B1 (en) * 2009-04-02 2013-06-19 Koninklijke KPN N.V. Method and device for playing out a gap filling content during content switching
US10440329B2 (en) * 2009-05-22 2019-10-08 Immersive Media Company Hybrid media viewing application including a region of interest within a wide field of view
WO2011096252A1 (ja) * 2010-02-02 2011-08-11 コニカミノルタホールディングス株式会社 画像処理システム、画像処理方法、およびプログラム
US8958018B2 (en) * 2010-12-22 2015-02-17 Google Technology Holdings LLC Remote control device and method for controlling operation of a media display system
US8928729B2 (en) * 2011-09-09 2015-01-06 Disney Enterprises, Inc. Systems and methods for converting video
US9268406B2 (en) * 2011-09-30 2016-02-23 Microsoft Technology Licensing, Llc Virtual spectator experience with a personal audio/visual apparatus
US9403090B2 (en) * 2012-04-26 2016-08-02 Riot Games, Inc. Video game system with spectator mode hud
US8834268B2 (en) * 2012-07-13 2014-09-16 Red 5 Studios, Inc. Peripheral device control and usage in a broadcaster mode for gaming environments
JP6186689B2 (ja) * 2012-09-26 2017-08-30 セイコーエプソン株式会社 映像表示システム
US10165157B2 (en) * 2013-02-19 2018-12-25 Disney Enterprises, Inc. Method and device for hybrid robotic/virtual pan-tilt-zoom cameras for autonomous event recording
KR20140106927A (ko) * 2013-02-27 2014-09-04 한국전자통신연구원 파노라마 생성 장치 및 방법
JP2014215828A (ja) 2013-04-25 2014-11-17 シャープ株式会社 画像データ再生装置、および視点情報生成装置
EP3005677A4 (en) * 2013-05-26 2016-04-13 Pixellot Ltd METHOD AND SYSTEM FOR LOW COST TELEVISION PRODUCTION
US9451162B2 (en) * 2013-08-21 2016-09-20 Jaunt Inc. Camera array including camera modules
US9918110B2 (en) * 2013-12-13 2018-03-13 Fieldcast Llc Point of view multimedia platform
EP3014578B1 (en) * 2014-04-30 2018-08-01 Intel Corporation System for and method of generating user-selectable novel views on a viewing device
US9684056B2 (en) * 2014-05-29 2017-06-20 Abdullah I. Khanfor Automatic object tracking camera
JP6357023B2 (ja) * 2014-06-06 2018-07-11 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理装置の制御方法および情報処理システム
US9959591B2 (en) * 2014-07-31 2018-05-01 Seiko Epson Corporation Display apparatus, method for controlling display apparatus, and program
EP3629587A1 (en) * 2015-03-27 2020-04-01 Twitter, Inc. Live video streaming services
CN107735152B (zh) * 2015-06-14 2021-02-02 索尼互动娱乐股份有限公司 用于虚拟现实(vr)观看的扩展视野重新渲染
US9782678B2 (en) * 2015-12-06 2017-10-10 Sliver VR Technologies, Inc. Methods and systems for computer video game streaming, highlight, and replay
CN114681914A (zh) * 2016-03-16 2022-07-01 思奇里兹平台股份有限公司 流式传输视频数据的管理

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005319040A (ja) * 2004-05-07 2005-11-17 Nintendo Co Ltd キャラクタの動きを反映した拡大画像表示システム
JP2008033840A (ja) * 2006-07-31 2008-02-14 Xing Inc 動画表示装置、動画表示方法、及びコンピュータプログラム
JP2013012180A (ja) * 2011-06-03 2013-01-17 Nintendo Co Ltd 情報処理システム、情報処理装置、情報処理プログラム、および動画再生制御方法
JP2014067120A (ja) * 2012-09-25 2014-04-17 Fujitsu Ten Ltd 画像生成装置、画像表示システム、および、画像生成方法

Also Published As

Publication number Publication date
US20210390721A1 (en) 2021-12-16
EP3291549B1 (en) 2022-10-12
EP3291549A1 (en) 2018-03-07
US20180061071A1 (en) 2018-03-01
JP2018036956A (ja) 2018-03-08
US11132807B2 (en) 2021-09-28
JP6938123B2 (ja) 2021-09-22
JP7263456B2 (ja) 2023-04-24

Similar Documents

Publication Publication Date Title
JP6938123B2 (ja) 表示制御装置、表示制御方法及びプログラム
JP6950013B2 (ja) 画像処理装置、画像処理方法及びプログラム
US10771760B2 (en) Information processing device, control method of information processing device, and storage medium
US10659769B2 (en) Image processing apparatus, image processing method, and storage medium
US11086395B2 (en) Image processing apparatus, image processing method, and storage medium
US20190289275A1 (en) Information processing apparatus and information processing method
JP7023696B2 (ja) 情報処理装置、情報処理方法及びプログラム
KR20100043138A (ko) 화상 처리 장치, 동화상 재생 장치, 이들에서의 처리 방법 및 프로그램
KR102382247B1 (ko) 화상 처리 장치, 화상 처리 방법 및 컴퓨터 프로그램
JP6632681B2 (ja) 制御装置、制御方法、及びプログラム
US20180089842A1 (en) Image processing apparatus, image processing method, and storage medium
JP7476375B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP2020140285A (ja) 情報処理装置、情報処理装置の制御方法、及び、プログラム
US11622099B2 (en) Information-processing apparatus, method of processing information, and program
US20230353717A1 (en) Image processing system, image processing method, and storage medium
WO2018234622A1 (en) METHOD OF DETECTING EVENTS OF INTEREST
JP2022073651A (ja) 情報処理装置、情報処理方法およびプログラム
JP7198043B2 (ja) 画像処理装置、画像処理方法
US20220239892A1 (en) Information processing apparatus, information processing method, and storage medium
US20240037843A1 (en) Image processing apparatus, image processing system, image processing method, and storage medium
JP7434385B2 (ja) 制御装置、制御方法、及びプログラム
US20240173602A1 (en) Image processing system, control method, and storage medium
JP2023019727A (ja) 撮影制御システム及びその動作方法
JP2023167486A (ja) 画像処理装置、画像処理方法およびプログラム
JP6089549B2 (ja) 情報処理装置、情報処理システム、およびプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211001

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211001

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220823

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220913

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221110

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221227

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230227

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230314

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230412

R151 Written notification of patent or utility model registration

Ref document number: 7263456

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151