JP2021056767A - 画像生成システム、画像処理装置、情報処理装置、画像生成方法、及びプログラム - Google Patents

画像生成システム、画像処理装置、情報処理装置、画像生成方法、及びプログラム Download PDF

Info

Publication number
JP2021056767A
JP2021056767A JP2019179295A JP2019179295A JP2021056767A JP 2021056767 A JP2021056767 A JP 2021056767A JP 2019179295 A JP2019179295 A JP 2019179295A JP 2019179295 A JP2019179295 A JP 2019179295A JP 2021056767 A JP2021056767 A JP 2021056767A
Authority
JP
Japan
Prior art keywords
image
information
processing device
subject
virtual viewpoint
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019179295A
Other languages
English (en)
Other versions
JP7458731B2 (ja
Inventor
梅村 直樹
Naoki Umemura
直樹 梅村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019179295A priority Critical patent/JP7458731B2/ja
Publication of JP2021056767A publication Critical patent/JP2021056767A/ja
Application granted granted Critical
Publication of JP7458731B2 publication Critical patent/JP7458731B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

【課題】ユーザに所望の仮想視点画像を、より少ない情報量で提供する。【解決手段】本発明の画像生成システムは、仮想視点の移動経路に関する情報を生成する情報処理装置(202)と、複数の撮影装置により撮影された画像及び仮想視点の移動経路に基づいて仮想視点画像を生成する画像処理装置(201)を備え、画像処理装置は、撮影された画像に基づいて、被写体の位置情報を含む被写体情報を生成する被写体情報生成部(2014)と、被写体情報を情報処理装置へ送信する通信部(2015)と、仮想視点の移動経路に関する情報に基づいて、仮想視点画像を生成する仮想視点画像生成部(2016)を有し、情報処理装置は、被写体の位置を認識できる画像を表示する表示部(2024)と、仮想視点の移動経路に関する情報を生成するカメラパス生成部(2022)と、仮想視点の移動経路に関する情報を画像処理装置へ送信する通信部(2021)を有する。【選択図】図2

Description

本発明は、仮想視点画像を生成するための技術に関する。
近年、複数のカメラを異なる位置に配置して複数視点で同期撮影し、その撮影により得られた複数視点画像を用いて、カメラの配置位置における画像だけでなく任意の視点からなる仮想視点画像を生成する技術が注目されている。この複数視点画像に基づく仮想視点画像の生成及び閲覧は、複数のカメラで撮影した画像をサーバ等の画像処理部に集約し、その画像処理部において、仮想視点に基づくレンダリング等の処理を施し、さらにユーザ端末に仮想視点画像を表示することで実現される。
そして、このような仮想視点画像を用いたサービスでは、例えば、サッカー、バスケットボール等における特定のシーンを様々な角度から視聴することができるため、従来の撮影画像と比較して、ユーザに高臨場感を与えることができる。
但し、この仮想視点画像の生成を、当初は、仮想視点画像を生成するシステムへのアクセス権限を有するシステム管理者が行っており、そのため、ユーザは、その生成された仮想視点画像を閲覧するだけでユーザの要望に沿った仮想視点画像を視聴できなかった。
そこで、この要望に応えるために、ユーザ端末からシステムに対して仮想視点画像の生成に関する要求を送信し、システムから仮想視点画像の生成に必要な画像が供給されると、ユーザ端末において仮想視点画像を生成する技術が提案されている(特許文献1)。
特開2011―233141号公報
しかしながら、複数のユーザ端末からシステムに対して仮想視点画像の生成に関する要求があると、システムとユーザ端末の間の伝送路の帯域を十分に確保することができない。また、ユーザ端末で仮想視点画像を生成するためには、複数のカメラで撮影した画像をユーザ端末に送らなければならず、データ量が膨大になり、たとえ伝送路の帯域を確保できても、ユーザ端末の記憶容量が十分でない場合、データを全て保存できない。加えて、この場合に、ユーザ端末のCPU(中央演算処理装置)の処理能力が高い必要があり、処理能力が十分でない場合、仮想視点映像の生成に多大な時間を要することになる。
本発明は、上記課題に鑑みてなされたものであり、その目的は、ユーザに所望の仮想視点画像を、より少ない情報量で提供することである。
本発明の画像生成システムは、仮想視点の移動経路に関する情報を生成する情報処理装置と、複数の撮影装置により撮影された画像及び前記仮想視点の移動経路に基づいて仮想視点画像を生成する画像処理装置とを備え、前記画像処理装置は、前記複数の撮影装置のうちの少なくとも一つの撮影装置により撮影された画像に基づいて、撮影対象領域に存在する被写体の位置情報を少なくとも含む被写体情報を生成する第1の生成手段と、前記第1の生成手段により生成された前記被写体情報を前記情報処理装置へ送信する第1の送信手段と、前記情報処理装置から送信された前記仮想視点の移動経路に関する情報に基づいて、仮想視点画像を生成する第2の生成手段と、を有し、前記情報処理装置は、前記画像処理装置から送信された前記被写体情報に基づいて、前記撮影対象領域における被写体の位置をユーザが認識することが可能な画像を表示する表示手段と、ユーザの入力に基づいて、前記仮想視点の移動経路に関する情報を生成する第3の生成手段と、前記第3の生成手段により生成された前記仮想視点の移動経路に関する情報を前記画像処理装置へ送信する第2の送信手段と、を有することを特徴とする。
本発明によれば、ユーザに所望の仮想視点画像を、より少ない情報量で提供することができる。
仮想視点映像生成システムの概略図である。 仮想視点映像生成システムの機能構成を示す図である。 ユーザ端末のハードウェア構成を示す図である。 撮影対象を示す図である。 画像処理装置とユーザ端末間の仮想視点映像の生成に関する処理の手順を示すシーケンス図である。 被写体情報の内容を示す図である。 被写体情報の内容を具体的に示した図である。 ユーザ端末に表示される画面の一例である。 被写体における体の向きを示した図である。 被写体情報の1つである関節位置を示した模式図である。 被写体における体の向きを示した図である。 ユーザ端末に予め記憶されている映像データの一例である。 ユーザ端末に表示される画面の一例である。
以下、本発明の実施形態について、図面を参照して説明する。なお、以下の実施形態は本発明を限定するものではなく、本実施形態で説明されている特徴の組み合わせの全てが本発明の解決手段に必須のものとは限らない。その他、補足として、同一の構成については、同じ符号を付して説明する。
また、本実施形態において生成される仮想視点画像は、動画(映像)であっても、静止画であってもよく、ここでは、仮想視点画像として、仮想視点映像を例に説明するものとする。この点、以下の各実施形態においても同様とする。
図1は、本実施形態に係る仮想視点映像生成システム(画像生成システム)の概略図である。図1において、符号100はサッカーグランド、符号101から符号120はカメラ(撮影装置、撮像装置)であり、カメラ101−120はサッカーグランド100の周りを取り囲むように配置されている。なお、本実施形態では、図1に示されるように、カメラの台数を20台としているが、台数は必ずしもこれに限られない。
図2は、仮想視点映像生成システムの機能構成を示す図である。図2に示されるように、仮想視点映像生成システムは、カメラ101−120、画像処理装置201、ユーザ端末202を備える。なお、画像処理装置201とユーザ端末202は、所定の通信回線(ネットワーク)を介して接続される。
カメラ101−120(図2において、カメラ103からカメラ119は不図示)の各々は、カメラの撮像部1011、撮像部1011で撮影した映像データを外部機器に伝送する映像送信部1012を備える。
画像処理装置201は、カメラ101−120と接続され、カメラ101−120で撮影した映像を受信し、仮想視点映像を生成する。画像処理装置201は、映像受信部2011、被写体モデル生成部2012、記憶部2013、被写体情報生成部2014、通信部2015、仮想視点映像生成部2016、仮想視点映像出力部2017、制御部2018を備える。
映像受信部2011は、各々のカメラから送信される映像データを受信する。被写体モデル生成部2012は、映像受信部2011により受信された複数の映像から被写体の形状を推定し、モデルの生成を行う。記憶部2013は、カメラから受信した映像データやその他の機能部により生成された各種データを記憶する。
被写体情報生成部2014は、後述の被写体の位置情報等の被写体情報を生成する。通信部2015は、後述のユーザ端末との間でデータの送受信を行う。仮想視点映像生成部2016は、後述のユーザ端末からの要求に応じて、カメラパスデータ等を用いることで仮想視点映像を生成する。
仮想視点映像出力部2017は、仮想視点映像生成部2016で生成された仮想視点映像を出力する。仮想視点映像出力部2017は、例えば、仮想視点映像を蓄積する蓄積装置、映像を表示する映像表示装置等に出力する。制御部2018は、画像処理装置201全体を制御する。
ユーザ端末202は、データ処理装置(情報処理装置)である。ユーザ端末202は、通信部2021、カメラパス生成部2022、映像再生部2023、仮想視点映像表示部2024、データ記憶部2025、端末制御部2026、仮想視点生成リクエスト送信部2027を備える。
通信部2021は、画像処理装置201との間で通信を行う。カメラパス生成部2022は、仮想視点映像を生成するための仮想カメラの変遷(移動経路)を生成する。映像再生部2023は、通信部2021で受信したデータを再生可能な画像データに変換する。仮想視点映像表示部2024は、映像再生部2023で変換された映像を表示する。
データ記憶部2025は、予め被写体に関する情報を記憶したり、また、画像処理装置201から受信したデータを書き込んだりする。ここで、被写体に関する情報とは、画像処理装置201から送信される被写体の個別情報等の簡易データとその簡易データに対応する被写体の簡易映像等であり、データ記憶部2025に、それらが対応付けられて記憶されている。被写体の個別情報は、例えば、選手名、背番号等の情報であり、その他、被写体を区別するための記号や静止画であってもよい。
端末制御部2026は、ユーザ端末202全体を制御する。仮想視点生成リクエスト送信部2027は、画像処理装置201に仮想視点映像の生成の開始を通知する信号を生成する。この仮想視点生成リクエスト送信部2027により、ユーザは、ユーザ端末において、所定の開始ボタンを押下することで、又は、表示画面上で開始を選択することで、仮想視点映像の生成のリクエストを行うことができる。
図3は、ユーザ端末(データ処理装置)202のハードウェア構成を示す図である。なお、画像処理装置201のハードウェア構成も、以下で説明するユーザ端末202のハードウェア構成と同様である。ユーザ端末202は、CPU311、ROM312、RAM313、補助記憶装置314、表示部315、操作部316、通信I/F317、及びバス318を備える。
CPU311は、ROM312やRAM313に格納されているコンピュータプログラムやデータを用いてユーザ端末202の全体を制御することで、図2に示されるユーザ端末202の各機能を実現する。なお、ユーザ端末202に、CPU311と異なる1又は複数の専用のハードウェアを実装させ、CPU311により実行される処理の少なくとも一部を専用のハードウェアに実行させてもよい。補足として、専用のハードウェアには、例えば、ASIC(特定用途向け集積回路)、FPGA(フィールドプログラマブルゲートアレイ)、及びDSP(デジタルシグナルプロセッサ)等がある。
ROM312は、内容を変更する必要のないプログラム等を格納する。RAM313は、補助記憶装置314から供給されるプログラムやデータ、及び通信I/F317を介して外部から供給されるデータ等を一時的に記憶する。補助記憶装置314は、例えば、ハードディスクドライブ等で構成され、画像データや音声データなどの種々のデータを記憶する。
表示部315は、例えば、液晶ディスプレイやLED等で構成され、ユーザがユーザ端末202を操作するためのGUI(Graphical User Interface)等を表示する。操作部316は、例えば、キーボード、マウス、ジョイスティック、タッチパネル等であり、ユーザによる操作を受けて、各種の指示をCPU311に入力する。なお、この場合、CPU311は、表示部315を制御する表示制御部、及び操作部316を制御する操作制御部として動作する。
通信I/F317は、ユーザ端末202の外部の装置との通信に用いられる。例えば、ユーザ端末202が外部の装置と有線で接続される場合には、通信用のケーブルが通信I/F317に接続される。また、ユーザ端末202が外部の装置と無線で接続(通信)される場合には、通信I/F317は所定のアンテナを備える。バス318は、ユーザ端末202の各々のブロックを相互に接続することで、情報を伝達させる。
なお、本実施形態では、ユーザ端末202の内部に表示部315と操作部316を搭載した仕様としているが、表示部315と操作部316の少なくとも一方に関して、ユーザ端末202とは別の装置として、ユーザ端末202に接続するようにしてもよい。
図4は、撮影対象であるサッカーグラウンドであり、図4(a)は上述の図1のサッカーグランドを真上から見た図であり、図4(b)はユーザ400の視点から見た図である。図4において、2チームのうち、一方のチームの選手を白丸、他方のチームの選手を黒丸で示している。
図4では、図4(a)に示されるように、サッカーグランドのグランドの長辺方向をx方向、短辺方向をy方向としたxy座標で示す。また、図4(b)に示されるように、地面に対して垂直な方向をz方向とする。このように、サッカーグランドの空間をxyz座標系で示すことで、サッカーグランド及びその周囲の空間を立体空間の座標点で表すことができる。そのため、被写体の位置情報も座標として示すことができる。
補足として、図4において、図4(a)に示される各選手の位置が、図4(b)のように位置付けられている。これは、ユーザ端末の仮想視点映像表示部2024の表示画面においても同様で、映像再生部2023により各被写体の位置とユーザ400の位置から被写体が表示される位置を計算することで実現される。
図5は、画像処理装置201とユーザ端末202間の仮想視点映像の生成に関する処理の手順を示すシーケンス図である。なお、シーケンス図の説明において、記号「S」は、ステップを表すものとする。
S501において、ユーザ端末202は、画像処理装置201に対して、仮想視点映像の生成に関するリクエストを送信する。S502において、画像処理装置201は、ユーザ端末202からの仮想視点映像の生成に関するリクエストに応じて、被写体情報生成部2014によりユーザ端末202に送信するための被写体情報を生成する。
S503において、画像処理装置201は、S502で生成された被写体情報をユーザ端末202に送信する。S504において、ユーザ端末202は、受信した被写体情報に基づいて、仮想視点映像表示部2024に表示するための映像を生成する。
S505において、ユーザ端末202は、ユーザにより、S504で生成され、仮想視点映像表示部2024に表示された被写体映像(被写体画像)が確認され、指示がなされると、カメラパス生成部2022でカメラパスデータを生成する。なお、ユーザは、カメラパス生成部2022に対して、例えば、ジョイスティック、3次元マウス、キーボード等を用いて指示を行う。また、カメラパスデータは、カメラの移動経路に関するデータであり、より詳細には、仮想視点映像を生成するための仮想カメラの位置、向き、傾き、画角、ズーム値等のデータを含む。ここで、仮想カメラとは、撮像領域の周囲に実際に設置された複数のカメラとは異なる仮想的なカメラであって、仮想視点画像の生成に係る仮想視点を便宜的に説明するための概念である。即ち、仮想視点画像は、撮像領域に関連付けられる仮想空間内に設定された仮想視点から撮像した画像であるとみなすことができる。そして、仮想的な当該撮像における視点の位置及び向きは仮想カメラの位置及び向きとして表すことができる。言い換えれば、仮想視点画像は、空間内に設定された仮想視点の位置にカメラが存在するものと仮定した場合に、そのカメラにより得られる撮像画像を模擬した画像であると言える。また上述のカメラパスとは、経時的な仮想視点の変遷を示す。
S506において、ユーザ端末202は、通信部2021を介して、画像処理装置201にS505で生成されたカメラパスデータを送信する。S507において、画像処理装置201は、通信部2015を介してカメラパスデータを受信すると、ユーザ端末202に仮想視点映像の生成を行うことを通知する。
S508において、画像処理装置201は、S506でユーザ端末202から送信されたカメラパスデータに基づいて、仮想視点映像生成部2016により仮想視点映像を生成する。仮想視点映像出力部2017は、その生成された仮想視点映像を外部装置に出力する。なお、仮想視点映像の出力に関して、ユーザ端末202からの要求に応じて外部装置に送信してもよいし、画像処理装置201に保存しておいて、ユーザ端末202を操作するユーザが仮想視点映像を見たいときに外部の表示装置に表示するようにしてもよい。また、仮想視点映像出力部2017により仮想視点映像に圧縮等を行い、データ量を低減した後に、通信部2015、通信部2021を介して仮想視点映像表示部2024に出力してもよい。
S509において、仮想視点映像生成部2016は、ユーザ端末202にS508で仮想視点映像の生成が終了したことを通知する。これにより、図5に示される処理を終了する。
次に、図6を用いて、被写体情報生成部2014により生成される被写体情報について説明を補足する。図6は、上述の図5のS502で被写体情報生成部2014により生成される被写体情報の内容を示した表である。
図6の表において、1行目は、図4(b)に示されるように、xyz座標で示した被写体の座標位置(x1,y1,z1)であり、被写体毎に示される。2行目は、個別名称であり、被写体毎に被写体名や背番号等を付与することで、被写体の位置と個別名称を対応させる。
3行目は、体の向きであり、図4(a)に示したxy座標の+x方向を基準にどちらの方向に体が向いているかを示す情報である。4行目は、顔の向きであり、3行目の体の向きと同様に、図4(a)に示したxy座標の+x方向を基準にどちらの方向に顔が向いているかを示す情報である。
5行目は、足の位置であり、図3(b)のxyz座標において足の位置に座標を割り振ったものである。6行目は、被写体の大きさであり、ユーザ毎の位置座標がわかる場合にそのユーザの位置と各被写体との距離から被写体の大きさの大小を表示するときに示すものである。なお、ユーザがスタジアム内にいない場合やユーザの位置がわからない場合には、スタジアム内において適当な位置を設定し、その設定した位置と被写体の位置の関係から大きさの大小を決定する。
7行目は、被写体の姿勢である。例えば、サッカーにおいて、ゴールキーパーが味方の攻撃時等に立っている場合とゴールキーパーがシュートに対して横飛びしてセービングを行っている場合とではゴールキーパー(被写体)の姿勢は異なり、ここでは、このような被写体の姿勢を示す。後述する被写体の関節の位置情報により姿勢も表すことが可能となる。
8行目は、被写体の関節位置であり、被写体の姿勢を示すために用いられる位置情報であり、体の各々の関節及びその他、適当な部位に座標位置情報を持たせることで、被写体の姿勢を含めた詳細な動きを示すことができる。
図7は、表1の内容を具体的に示した表であり、この表に示されるデータはユーザ端末に記憶される。図7に示される表2では、サッカーを例に用いており、チームAの選手とチームBの選手を各々、3名ずつ示している。なお、表2に関して、後述の図面について説明するときに記載するが、チーム名、個別名称、選手番号に関する情報は、データ記憶部2025に予め記憶されている。また、後述の図12に示される簡易映像データと表2の個別名称、選手番号とは関連付けされている。
なお、ユーザ端末202が画像処理装置201から受信する被写体情報は、この表2の項目のうち、座標位置と向きに関する情報であり、ユーザ端末202は、これらの情報を受信することにより表2の座標位置と向きの値が確定する。また、表2(図7)において、手の位置、足の位置の欄は空欄として示しており、腰、肩、顔の座標位置と同様に、xyz座標の点で受信することができるが、ここでは省略している。
ここで、図8は、上述の図5のS504で生成され、仮想視点映像表示部2024に表示される画面の一例であり、各被写体の座標位置を受信することによって図8に示されるような位置に各選手(各被写体)を表示することができる。
図9は、図4(a)で示したxy座標の+x方向を基準として、被写体情報の1つである被写体における体の向き(図6に示される表1の上から3行目)を示した図である。図9において、被写体Aから被写体Eで示される被写体は、各々、+x方向、+xと−y方向の中間方向、−y方向、−x方向、+y方向を向いている。
+x方向を被写体の体の向きが0度の方向とし、また、この0度を基点として時計回りに角度が増加するように359度まで設定すると、被写体Aは0度、被写体Bは45度、被写体Cは90度、被写体Dは180度、被写体Eは270度の方向を向いている。
なお、ユーザ端末202は、必ずしも360段階に対応する映像データを揃えている必要はない。したがって、例えば、15度間隔で被写体の映像を保持している場合に、0度から15度、16度から30度までは、各々、同じ映像に置き換えることで対応してもよい。加えて、ここでは、被写体の体の向きを360段階で示すものとして説明したが、必ずしもこれに限定されない。
図10は、表1(図6)の被写体情報の1つである関節位置を示した模式図である。図10(a)は人体を真正面から見た図であり、図10(b)は図10(a)の人体の頭部を真上から見た図である。同様に、図10(c)は図10(a)の人体の肩の部分を真上から見た図であり、図10(d)は人体の腰の部分を真上から見た図である。
符号1001から符号1019は関節及びその他の部位を示しており、また、頭部の前後を示すために、体の前方部(各部に垂直となる部分)の位置に、符号1020として、ポイントを付与している。同様に、肩、腰の前後を示すために、体の前方部の位置に、各々、符号1020、符号1021、符号1022として、ポイントを付与している。これらの部位の位置情報に基づいて、被写体の顔の向き、上半身の向き、下半身の向き、足の位置等の情報をユーザ端末202に送信することで、ユーザ端末202の仮想視点映像表示部2024において被写体の向きを表示することができる。
図11は、図9と同様に、図4(a)で示したxy座標の+x方向を基準に被写体を配置した概略図であり、図8及び後述の図13の被写体800の各部位の向きを示したものである。図11において、符号400は図4で示したユーザであり、−x軸と−y軸の真ん中方向(図11において、135度の方向)からxy座標の原点方向を向いているものとする。
図11において、符号1101は被写体800の全体像、符号1102は被写体800の頭部を抜き出して表示したもの、符号1103は被写体800の上半身(肩)を表示したもの、符号1104は被写体800の下半身(腰及び足)を表示したものである。また、符号1001から符号1022までのポイント(部位)は、図10で示した関節及びその他の部位と同じ部位を示している。
符号1102において、符号1001から符号1003で示されるポイントの位置から被写体800の顔の向きは135度であることがわかる。なお、ここでの角度は、図9と同様に示される。また、符号1103から被写体800の上半身の向きは180度、符号1104から被写体800の下半身の向きは210度である。加えて、符号1016から符号1019は両足の位置を示しており、これらの位置は、図6(表1)において、体の向き、顔の向き、足の位置及び被写体の姿勢に関連し、被写体情報として生成される。図9に示した体の向き、図10に示した間接位置、図11で示した顔の向き等の情報のすべてもしくは一部を用いて図8の画面における被写体が表示される。
図12は、ユーザ端末202のデータ記憶部2025に予め記憶されている映像データの一例であり、図8及び後述の図13の被写体800を示したものである。図12(a)から図12(d)は、左斜め前方、正面、右斜め前方、後ろ正面から見た被写体を各々、模式的に示している。また、図12(e)は、図11で示した被写体800の顔の向き1102、上半身の向き1103、下半身の向き1104及び両足の位置をユーザ400から見たときの模式図である。
ユーザ端末202は、図11のような被写体の各々の向きを示すデータから角度情報とデータ記憶部2025に記憶してあった被写体の角度情報に対応する体の各部の映像情報を読み出して、図12(e)のような被写体映像を生成する。
なお、図12(a)から図12(d)では、ユーザ端末202のデータ記憶部2025に部位1から部位4を繋げた全体像を記憶するように示しているが、必ずしもこれに限定されない。したがって、例えば、実際に記憶している映像データは、部位1から部位4までの部位毎に分かれたデータであってもよく、また、ここには示していないが、両腕、両足及びつま先からかかとの部位のデータも持ち合わせていてもよい。
図13は、図8で示した被写体800を図12(e)の模式図に置き換えたものであり、図8と同様に、映像再生部2023で変換(生成)され、仮想視点映像表示部2024に表示される映像で、カメラパスデータを生成するために用いられる。
図13において、図13(a)は被写体800をそのまま置き換えただけの映像であり、図13(b)は図13(a)の映像に被写体800の名前を重畳して表示させたものである。また、図13(c)は図13(a)の映像に被写体800の背番号を重畳して表示させたものである。なお、図10においては、被写体800のみを置き換えているが、実際には全ての選手の情報を受信して全ての選手を置き換えるものとする。
以上、説明したように、画像処理装置からユーザ端末に送信する被写体情報のデータを上述の図6(表1)に示した内容(情報)にすることで、実際の被写体の映像データよりも少ない情報量でユーザ端末202に被写体映像を表示させることができる。さらに、ユーザは、ユーザ端末を用いて、仮想視点映像の生成に必要なカメラパスデータを生成することができる。
なお、図6(表1)の被写体情報の各々は、ユーザ端末202と画像処理装置201間のデータ伝送帯域に応じて、送受信するデータ量を調整してもよいし、ユーザの課金条件によって送受信するデータ量を変更してもよい。例えば、被写体の平面座標位置、被写体のz方向の位置、被写体の大きさ、被写体の個別情報、被写体の体方向、被写体の姿勢、被写体の関節位置、被写体視線方向等を階層的に管理し、課金条件に応じて選択するようにしてもよい。また、図2のデータ記憶部2025に記憶するデータも単なるシンボル、チームマーク、事前に撮影した静止画等も選択して記憶しておいてもよい。
このように、本実施形態によれば、画像処理装置201は、各カメラによる撮像画像に基づいて、撮影対象領域内に存在する被写体の位置情報を含む被写体情報を生成し、ユーザ端末202に送信する。ユーザ端末202は、受信した被写体情報に基づいて、被写体の位置をユーザが認識できる程度の簡易的な画像を生成して表示する。ユーザは、この表示を見ながらユーザ端末202を操作することにより、所望のカメラパスを設定することができる。そして設定されたカメラパスに基づくカメラパスデータがユーザ端末202から画像処理装置201に送信され、画像処理装置201において、当該カメラパスデータと、撮像画像とに基づいて仮想視点映像が生成される。このようにすることにより、画像処理装置201とユーザ端末202間では被写体情報やカメラパスデータが送受信されるだけで済むので、伝送路の帯域が小さい場合でも低負荷、かつ効率よくデータの送受信を行うことができる。また、ユーザ端末202では、カメラパスを設定するために用いられる簡易な画像を生成するだけでよく、最終的な仮想視点映像は画像処理装置201で生成されるので、ユーザ端末202の処理負荷が軽減でき、仮想視点映像の生成時間も抑制することができる。
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
201 画像処理装置
2014 被写体情報生成部
2016 仮想視点映像生成部
2017 仮想視点映像出力部
202 情報処理装置
2022 カメラパス生成部

Claims (12)

  1. 仮想視点の移動経路に関する情報を生成する情報処理装置と、
    複数の撮影装置により撮影された画像及び前記仮想視点の移動経路に基づいて仮想視点画像を生成する画像処理装置と
    を備え、
    前記画像処理装置は、
    前記複数の撮影装置のうちの少なくとも一つの撮影装置により撮影された画像に基づいて、撮影対象領域に存在する被写体の位置情報を少なくとも含む被写体情報を生成する第1の生成手段と、
    前記第1の生成手段により生成された前記被写体情報を前記情報処理装置へ送信する第1の送信手段と、
    前記情報処理装置から送信された前記仮想視点の移動経路に関する情報に基づいて、仮想視点画像を生成する第2の生成手段と、
    を有し、
    前記情報処理装置は、
    前記画像処理装置から送信された前記被写体情報に基づいて、前記撮影対象領域における被写体の位置をユーザが認識することが可能な画像を表示する表示手段と、
    ユーザの入力に基づいて、前記仮想視点の移動経路に関する情報を生成する第3の生成手段と、
    前記第3の生成手段により生成された前記仮想視点の移動経路に関する情報を前記画像処理装置へ送信する第2の送信手段と、
    を有することを特徴とする画像生成システム。
  2. 前記第3の生成手段は、前記表示手段により表示された画像を確認したユーザによる入力に基づいて、前記仮想視点の移動経路に関する情報を生成することを特徴とする請求項1に記載の画像生成システム。
  3. 前記被写体情報は、少なくとも被写体の向きに関する情報並びに前記被写体の個別情報を含むことを特徴とする請求項1又は2に記載の画像生成システム。
  4. 前記情報処理装置は、
    前記被写体の個別情報及び当該被写体を模式的に示した画像を予め記憶する記憶手段と、
    前記被写体情報と、前記記憶手段により記憶された前記被写体の個別情報または当該被写体を模式的に示した画像に基づいて、前記画像を生成する生成手段と、
    をさらに有し、
    前記表示手段は、前記生成手段により生成された画像を生成することを特徴とする請求項1から3のいずれか1項に記載の画像生成システム。
  5. 前記第1の送信手段は、前記情報処理装置と接続するための所定の通信回線のデータ伝送帯域に応じて、送信するデータ量を調整することを特徴とする請求項1から4のいずれか1項に記載の画像生成システム。
  6. 前記第1の送信手段は、ユーザの課金条件に応じて、前記情報処理装置と接続するための所定の通信回線において送信するデータ量を調整することを特徴とする請求項1から4のいずれか1項に記載の画像生成システム。
  7. 前記情報処理装置は、前記第2の送信手段により、前記画像処理装置に前記仮想視点画像の生成に関するリクエストを送信し、
    前記画像処理装置は、前記リクエストに基づいて、前記第1の生成手段により前記被写体情報を生成することを特徴とする請求項1から6のいずれか1項に記載の画像生成システム。
  8. 複数の撮影装置により撮影された画像及び仮想視点の移動経路に基づいて仮想視点画像を生成する画像処理装置であって、
    前記複数の撮影装置のうちの少なくとも一つの撮影装置により撮影された画像に基づいて、撮影対象領域に存在する被写体の位置情報を少なくとも含む被写体情報を生成する第1の生成手段と、
    前記第1の生成手段により生成された前記被写体情報を情報処理装置へ送信する送信手段と、
    前記情報処理装置から送信された前記仮想視点の移動経路に関する情報に基づいて、仮想視点画像を生成する第2の生成手段と、
    を備えることを特徴とする画像処理装置。
  9. 画像処理装置から送信された被写体情報に基づいて、撮影対象領域における被写体の位置をユーザが認識することが可能な画像を表示する表示手段と、
    ユーザの入力に基づいて、仮想視点の移動経路に関する情報を生成する生成手段と、
    前記生成手段により生成された前記仮想視点の移動経路に関する情報を前記画像処理装置へ送信する送信手段と、
    を備えることを特徴とする情報処理装置。
  10. コンピュータを、請求項8に記載の画像処理装置の各手段として機能させるためのプログラム。
  11. コンピュータを、請求項9に記載の情報処理装置の各手段として機能させるためのプログラム。
  12. 仮想視点の移動経路に関する情報を生成する情報処理装置と、複数の撮影装置により撮影された画像及び前記仮想視点の移動経路に基づいて仮想視点画像を生成する画像処理装置とを備えた画像生成方法であって、
    前記画像処理装置により、前記複数の撮影装置のうちの少なくとも一つの撮影装置により撮影された画像に基づいて、撮影対象領域に存在する被写体の位置情報を少なくとも含む被写体情報を生成する第1の生成ステップと、
    前記画像処理装置により、前記第1の生成ステップにおいて生成された前記被写体情報を前記情報処理装置へ送信する第1の送信ステップと、
    前記情報処理装置により、前記画像処理装置から送信された前記被写体情報に基づいて、前記撮影対象領域における被写体の位置をユーザが認識することが可能な画像を表示する表示ステップと、
    前記情報処理装置により、ユーザの入力に基づいて、前記仮想視点の移動経路に関する情報を生成する第2の生成ステップと、
    前記情報処理装置により、前記第2の生成ステップにおいて生成された前記仮想視点の移動経路に関する情報を前記画像処理装置へ送信する第2の送信ステップと、
    前記画像処理装置により、前記情報処理装置から送信された前記仮想視点の移動経路に関する情報に基づいて、仮想視点画像を生成する第3の生成ステップと、
    を含むことを特徴とする画像生成方法。
JP2019179295A 2019-09-30 2019-09-30 画像生成システム、画像処理装置、情報処理装置、画像生成方法、及びプログラム Active JP7458731B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019179295A JP7458731B2 (ja) 2019-09-30 2019-09-30 画像生成システム、画像処理装置、情報処理装置、画像生成方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019179295A JP7458731B2 (ja) 2019-09-30 2019-09-30 画像生成システム、画像処理装置、情報処理装置、画像生成方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2021056767A true JP2021056767A (ja) 2021-04-08
JP7458731B2 JP7458731B2 (ja) 2024-04-01

Family

ID=75270835

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019179295A Active JP7458731B2 (ja) 2019-09-30 2019-09-30 画像生成システム、画像処理装置、情報処理装置、画像生成方法、及びプログラム

Country Status (1)

Country Link
JP (1) JP7458731B2 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016025633A (ja) * 2014-07-24 2016-02-08 ソニー株式会社 情報処理装置、管理装置、情報処理方法、およびプログラム
JP2018046448A (ja) * 2016-09-15 2018-03-22 キヤノン株式会社 画像処理装置および画像処理方法
JP2018113683A (ja) * 2017-01-06 2018-07-19 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
JP2018207336A (ja) * 2017-06-06 2018-12-27 キヤノン株式会社 情報処理装置、情報処理システム、情報処理方法及びプログラム
JP2019057070A (ja) * 2017-09-20 2019-04-11 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム
JP2019152903A (ja) * 2018-02-28 2019-09-12 キヤノン株式会社 情報処理装置およびその制御方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016025633A (ja) * 2014-07-24 2016-02-08 ソニー株式会社 情報処理装置、管理装置、情報処理方法、およびプログラム
JP2018046448A (ja) * 2016-09-15 2018-03-22 キヤノン株式会社 画像処理装置および画像処理方法
JP2018113683A (ja) * 2017-01-06 2018-07-19 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
JP2018207336A (ja) * 2017-06-06 2018-12-27 キヤノン株式会社 情報処理装置、情報処理システム、情報処理方法及びプログラム
JP2019057070A (ja) * 2017-09-20 2019-04-11 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム
JP2019152903A (ja) * 2018-02-28 2019-09-12 キヤノン株式会社 情報処理装置およびその制御方法

Also Published As

Publication number Publication date
JP7458731B2 (ja) 2024-04-01

Similar Documents

Publication Publication Date Title
US10574889B2 (en) Information processing device, information processing method, and program
JP6918455B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP3363861B2 (ja) 複合現実感提示装置及び複合現実感提示方法並びに記憶媒体
US11627251B2 (en) Image processing apparatus and control method thereof, computer-readable storage medium
US20040041822A1 (en) Image processing apparatus, image processing method, studio apparatus, storage medium, and program
JP6348623B2 (ja) 三次元モデルの作成方法、三次元モデル作成装置、三次元モデル作成システム、及び三次元モデル作成用プログラム
US10896322B2 (en) Information processing device, information processing system, facial image output method, and program
JP2019054488A (ja) 提供装置および提供方法、プログラム
US20180011317A1 (en) Virtual object display system, and display control method and display control program for the same
WO2020100770A1 (ja) 情報処理システム、情報処理方法、およびプログラム
CN110955329A (zh) 传输方法以及电子设备和计算机存储介质
JP2017033294A (ja) 3次元描画システム及び3次元描画プログラム
WO2017061890A1 (en) Wireless full body motion control sensor
US20180161676A1 (en) Information processing apparatus, image generating method, and program
JP2020042407A (ja) 情報処理装置、情報処理方法及びプログラム
CN110060349B (zh) 一种扩展增强现实头戴式显示设备视场角的方法
JP7401199B2 (ja) 情報処理装置、情報処理方法、およびプログラム
JP2021056767A (ja) 画像生成システム、画像処理装置、情報処理装置、画像生成方法、及びプログラム
CN114143460A (zh) 视频显示方法、装置及电子设备
JP6684336B1 (ja) データ補正装置およびプログラム
CN117409175B (zh) 一种视频录制方法、***、电子设备及介质
US20240046552A1 (en) Generation apparatus, generation method, and non-transitory computer-readable storage medium
WO2017098999A1 (ja) 情報処理装置、情報処理システム、情報処理装置の制御方法、及び、コンピュータープログラム
US20240119676A1 (en) Image generation method, apparatus, and system, and computer-readable storage medium
JP7344084B2 (ja) コンテンツ配信システム、コンテンツ配信方法、およびコンテンツ配信プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220921

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231019

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231031

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231228

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240220

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240319

R151 Written notification of patent or utility model registration

Ref document number: 7458731

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151