JP2018191254A - 画像処理装置、画像処理方法、情報処理装置、撮像装置および画像処理システム - Google Patents

画像処理装置、画像処理方法、情報処理装置、撮像装置および画像処理システム Download PDF

Info

Publication number
JP2018191254A
JP2018191254A JP2017094877A JP2017094877A JP2018191254A JP 2018191254 A JP2018191254 A JP 2018191254A JP 2017094877 A JP2017094877 A JP 2017094877A JP 2017094877 A JP2017094877 A JP 2017094877A JP 2018191254 A JP2018191254 A JP 2018191254A
Authority
JP
Japan
Prior art keywords
image
camera
information
virtual viewpoint
captured image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017094877A
Other languages
English (en)
Other versions
JP6871801B2 (ja
Inventor
松崎 英一
Eiichi Matsuzaki
英一 松崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017094877A priority Critical patent/JP6871801B2/ja
Priority to US15/974,134 priority patent/US20180330163A1/en
Publication of JP2018191254A publication Critical patent/JP2018191254A/ja
Application granted granted Critical
Publication of JP6871801B2 publication Critical patent/JP6871801B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/98Detection or correction of errors, e.g. by rescanning the pattern or by human intervention; Evaluation of the quality of the acquired patterns
    • G06V10/993Evaluation of the quality of the acquired pattern
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • G06V20/42Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items of sport video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/16Image acquisition using multiple overlapping images; Image stitching

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Quality & Reliability (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Processing Or Creating Images (AREA)

Abstract

【課題】仮想視点画像の生成に用いるべきでない不適画像が含まれる場合であっても、仮想視点画像を生成できるようにする【解決手段】画像処理装置は、複数の撮像手段により得られた複数の撮像画像と仮想視点の位置および方向とに基づいて仮想視点画像を生成するための生成処理の一部を、当該撮像画像に対して行って処理済み情報を取得する。また当該撮像画像が仮想視点画像の生成に適しているか否かを判定する。そして、前記撮像画像が仮想視点画像の生成に適していると判定された場合には上記の処理済み情報を送信し、前記仮想視点画像の生成に適していないと判定された場合には、所定の不適情報を送信する。【選択図】 図6

Description

本発明は、画像処理装置、画像処理方法、情報処理装置、撮像装置および画像処理システムに関する。
昨今、複数のカメラを異なる位置に設置して同期撮影を行い、当該撮影により得られた複数視点画像を用いて仮想視点コンテンツを生成する技術が注目されている。このような仮想視点コンテンツを生成する技術によれば、例えば、サッカーやバスケットボールのハイライトシーンを様々な角度から視聴することが出来るため、通常の画像と比較してユーザに高臨場感を与えることが出来る。複数視点画像に基づく仮想視点コンテンツの生成は、複数のカメラが撮影した画像をサーバなどの画像処理部に集約し、この画像処理部にて三次元モデル生成、レンダリングなどの処理を施すことで実現される。特許文献1には、複数のカメラで同一の範囲を取り囲むように配置して、その同一の範囲を撮影した画像を用いて、仮想視点画像を生成することが開示されている。
特開2014−215828号公報
上記のような複数のカメラによる撮像画像の中には、仮想視点画像の生成のために用いるべきでない画像(不適画像)が存在する恐れがある。不適画像の例としては、例えば、カメラレンズに付着した異物が映り込んだ画像、カメラ前の観客が立ち上がった際に映り込んだ画像、及び、カメラ前の応援団が振る旗が映り込んだ画像などがある。複数のカメラの撮像画像に不適画像が含まれる場合であっても、仮想視点画像の生成を可能とするシステムが望まれる。
本発明は、上記の課題に鑑みてなされたものであり、仮想視点画像の生成のために設置された複数のカメラによる複数の撮像画像に、仮想視点画像の生成に用いるべきでない不適画像が含まれる場合であっても、仮想視点画像を生成できるようにすることを目的とする。
上記の目的を達成するための本発明の一態様による画像処理装置は以下の構成を備える。すなわち、
撮像手段が撮像した撮像画像を取得する取得手段と、
複数の撮像手段により得られた複数の画像と仮想視点の位置および方向とに基づいて仮想視点画像を生成するための生成処理の一部を、前記撮像画像に行って処理済み情報を得る処理手段と、
前記撮像画像が前記仮想視点画像の生成に適しているか否かを判定する判定手段と、
前記判定手段により前記撮像画像が前記生成に適していると判定された場合には前記処理済み情報を送信し、前記判定手段により前記撮像画像が前記仮想視点画像の生成に適していないと判定された場合には、前記撮像画像が仮想視点画像の生成に適しないことを示す不適情報を送信する送信手段と、を備える。
本発明によれば、仮想視点画像の生成のために設置された複数のカメラによる複数の撮像画像に、仮想視点画像の生成に用いるべきでない不適画像が含まれる場合であっても、仮想視点画像を生成できる。
実施形態による仮想視点コンテンツを生成する画像処理システムの構成図。 カメラアダプタの構成例を示すブロック図。 第1実施形態のカメラアダプタにおける画像情報の処理を説明する図。 自カメラ画像、オブジェクト抽出画像、背景画像の例を示す図。 自カメラ画像、オブジェクト抽出画像、背景画像の例を示す図。 第1実施形態に係るカメラアダプタの処理を示すフローチャート。 仮想カメラ画像生成の処理を示すシーケンス図。 仮想カメラ操作UIによる処理を示すフローチャート。 仮想カメラ操作UI330での表示画面の一例を示す図。 仮想カメラの操作の一例を示す図。 第2実施形態のカメラアダプタにおける画像情報の処理を説明する図。 第2実施形態のカメラアダプタの処理を示すフローチャート。 第3実施形態のカメラアダプタの処理を示すフローチャート。
<第1実施形態>
図1は、画像処理システム100の構成例を示すブロック図である。画像処理システム100では、競技場(スタジアム)やコンサートホールなどの施設に設置された複数のカメラ及びマイクを用いて撮影及び集音が行われる。画像処理システム100は、センサシステム110a〜センサシステム110z、画像コンピューティングサーバ200、コントローラ300、スイッチングハブ180、及びエンドユーザ端末190を有する。カメラアダプタ120a〜120z、画像コンピューティングサーバ200、コントローラ300は、それぞれCPU、メモリを含むコンピュータ装置である。以下に説明されるカメラアダプタ120a〜120z、画像コンピューティングサーバ200、コントローラ300の動作は、それぞれの装置においてCPUがメモリに格納されたプログラムを実行することにより実現され得る。あるいは、各動作の一部または全体が専用のハードウエアにより実現されてもよい。
コントローラ300は制御ステーション310と仮想カメラ操作UI330を有する情報処理装置である。制御ステーション310は画像処理システム100を構成するそれぞれのブロックに対してネットワーク310a〜310c、180a、180b、及びデイジーチェーン170a〜170yを通じて動作状態の管理及びパラメータ設定制御などを行う。ここで、ネットワークはEthernet(登録商標)であるIEEE標準準拠のGbE(ギガビットイーサーネット)や10GbEでもよいし、インターコネクトInfiniband、産業用イーサーネット等を組合せて構成されてもよい。また、これらに限定されず、他の種別のネットワークであってもよい。
センサシステム110a〜センサシステム110zで得られた26セットの画像及び音声をセンサシステム110zから画像コンピューティングサーバ200へ送信する動作を説明する。本実施形態の画像処理システム100は、センサシステム110a〜センサシステム110zがデイジーチェーン170a〜170yにより接続されている。
本明細書において、特別な説明がない場合は、センサシステム110aからセンサシステム110zまでの26セットのシステムを区別せずセンサシステム110と記載する。それぞれのセンサシステム110内の装置についても同様に、特に区別する必要がない場合は、マイク111、カメラ112、雲台113、外部センサ114、及びカメラアダプタ120と記載する。なお、センサシステムの台数として26セットと記載しているが、あくまでも一例であり、台数をこれに限定するものではない。尚、本実施形態では、特に断りがない限り、画像という文言が、映像、動画、静止画の概念を含むものとして説明する。すなわち、本実施形態の画像処理システム100は、静止画及び動画の何れについても処理可能である。また、本実施形態では、画像処理システム100により提供される仮想視点コンテンツには、仮想視点画像と仮想視点音声が含まれる例を中心に説明するが、これに限らない。例えば、仮想視点コンテンツに音声が含まれていなくても良い。また例えば、仮想視点コンテンツに含まれる音声が、仮想視点に最も近いマイクにより集音された音声であっても良い。また、本実施形態では、説明の簡略化のため、部分的に音声についての記載を省略しているが、基本的に画像と音声は共に処理されるものとする。
本実施形態のセンサシステム110a〜センサシステム110zは、それぞれ1台ずつのカメラ112a〜カメラ112zを有する。即ち、画像処理システム100は、被写体を複数の方向から撮影するための複数のカメラを有する。複数のセンサシステム110同士はデイジーチェーンにより接続される。この接続形態により、撮影画像の4Kや8Kなどへの高解像度化及び高フレームレート化に伴う画像データの大容量化において、接続ケーブル数の削減や配線作業の省力化ができる効果がある。尚、これに限らず、接続形態として、センサシステム110a〜110zの各々がスイッチングハブ180に接続されて、スイッチングハブ180を経由してセンサシステム110間のデータ送受信を行うスター型のネットワーク構成としてもよい。
センサシステム110aはマイク111a、カメラ112a、雲台113a、外部センサ114a、及びカメラアダプタ120aを有する。尚、この構成に限定されるものではなく、センサシステム110aは、少なくとも1台のカメラアダプタ120a、1台のカメラ112aまたは1台のマイク111aを有していれば良い。例えば、センサシステム110aは1台のカメラアダプタ120aと、複数のカメラ112aで構成されてもよいし、1台のカメラ112aと複数のカメラアダプタ120aで構成されてもよい。即ち、画像処理システム100内の複数のカメラ112と複数のカメラアダプタ120はN対M(NとMは共に1以上の整数)で対応する。
外部センサ114aは、カメラ112aの振動を表す情報を取得する。外部センサ114aは、たとえばジャイロなどで構成され得る。外部センサ114aにより取得された振動情報は、カメラアダプタ120aにおいて、カメラ112aにて撮影された画像の振動を抑えるために用いることができる。マイク111aにて集音された音声と、カメラ112aにて撮影された画像は、カメラアダプタ120aにおいて後述の画像処理が施された後、デイジーチェーン170aを通してセンサシステム110bのカメラアダプタ120bに伝送される。同様にセンサシステム110bは、集音された音声と撮影された画像を、センサシステム110aから取得した画像及び音声と合わせてセンサシステム110cに伝送する。
なお、センサシステム110は、マイク111、カメラ112、雲台113、外部センサ114、及びカメラアダプタ120以外の装置を含んでいてもよい。また、カメラ112とカメラアダプタ120が一体となって構成されていてもよい。さらに、カメラアダプタ120の機能の少なくとも一部をフロントエンドサーバ230が有していてもよい。本実施形態では、センサシステム110b〜110zについては、センサシステム110aと同様の構成を有する。なお、すべてのセンサシステム110が同じ構成である必要はなく、其々のセンサシステム110が異なる構成でもよい。
センサシステム110a〜センサシステム110zが取得した画像及び音声は、センサシステム110zから180bを用いてスイッチングハブ180に伝わり、その後、画像コンピューティングサーバ200へ伝送される。尚、本実施形態では、カメラ112とカメラアダプタ120が分離された構成としているが、同一筺体で一体化されていてもよい。その場合、マイク111は一体化されたカメラ112に内蔵されてもよいし、カメラ112の外部に接続されていてもよい。
次に、画像コンピューティングサーバ200の構成及び動作について説明する。本実施形態の画像コンピューティングサーバ200は、センサシステム110zから取得したデータ(センサシステム110a〜センサシステム110zで取得された画像及び音声)の処理を行う。画像コンピューティングサーバ200はフロントエンドサーバ230、データベース250、バックエンドサーバ270、タイムサーバ290を有する。
タイムサーバ290は時刻及び同期信号を配信する機能を有し、スイッチングハブ180を介してセンサシステム110a〜センサシステム110zに時刻及び同期信号を配信する。時刻と同期信号を受信したカメラアダプタ120a〜120zは、カメラ112a〜112zを時刻と同期信号をもとにゲンロック(Genlock)を行うことで画像フレーム同期を実現する。即ち、タイムサーバ290は、複数のカメラ112の撮影タイミングを同期させる。これにより、画像処理システム100は同じタイミングで撮影された複数の撮影画像に基づいて仮想視点画像を生成できるため、撮影タイミングのずれによる仮想視点画像の品質低下を抑制できる。尚、本実施形態ではタイムサーバ290が複数のカメラ112の時刻同期を管理するものとするが、これに限らず、時刻同期のための処理を各々のカメラ112又は各々のカメラアダプタ120が独立して行ってもよい。
フロントエンドサーバ230は、センサシステム110zから取得した画像及び音声から、セグメント化された伝送パケットを再構成してデータ形式を変換した後に、カメラの識別子やデータ種別、フレーム番号に応じてデータベース250に書き込む。バックエンドサーバ270では、仮想カメラ操作UI330から受け付けた視点に基づいて、データベース250から対応する画像及び音声データを読み出し、レンダリング処理を行って仮想視点画像を生成する。
尚、画像コンピューティングサーバ200の構成は上記に限らない。例えば、フロントエンドサーバ230、データベース250、及びバックエンドサーバ270のうち少なくとも2つが一体となって構成されていてもよい。また、フロントエンドサーバ230、データベース250、及びバックエンドサーバ270の少なくとも何れかが複数含まれていてもよい。また、画像コンピューティングサーバ200内の任意の位置に上記の装置以外の装置が含まれていてもよい。さらに、画像コンピューティングサーバ200の機能の少なくとも一部をエンドユーザ端末190や仮想カメラ操作UI330が有していてもよい。
レンダリング処理された画像は、バックエンドサーバ270からエンドユーザ端末190に送信される。これにより、エンドユーザ端末190を操作するユーザは視点の指定に応じた画像の閲覧及び音声の視聴が出来る。すなわち、バックエンドサーバ270は、複数のカメラ112により撮影された撮影画像(複数視点画像)と視点情報とに基づく仮想視点コンテンツを生成する。より具体的には、バックエンドサーバ270は、例えば複数のカメラアダプタ120により複数のカメラ112による撮影画像から抽出された所定領域の画像データと、ユーザ操作により指定された視点に基づいて、仮想視点コンテンツを生成する。バックエンドサーバ270は、生成した仮想視点コンテンツをエンドユーザ端末190に提供する。カメラアダプタ120による所定領域の抽出の詳細については後述する。
本実施形態における仮想視点コンテンツは、仮想的な視点から被写体を撮影した場合に得られる画像としての仮想視点画像を含むコンテンツである。言い換えると、仮想視点画像は、指定された視点における見えを表す画像であるとも言える。仮想的な視点(仮想視点)は、ユーザにより指定されても良いし、画像解析の結果等に基づいて自動的に指定されても良い。すなわち仮想視点画像には、ユーザが任意に指定した視点に対応する任意視点画像(自由視点画像)が含まれる。また、複数の候補からユーザが指定した視点に対応する画像や、装置が自動で指定した視点に対応する画像も、仮想視点画像に含まれる。
尚、本実施形態では、仮想視点コンテンツに音声データ(オーディオデータ)が含まれる場合の例を中心に説明するが、必ずしも音声データが含まれていなくても良い。また、バックエンドサーバ270は、仮想視点画像をH.264やHEVCに代表される標準技術により圧縮符号化したうえで、MPEG−DASHプロトコルを使ってエンドユーザ端末190へ送信してもよい。また、仮想視点画像は、非圧縮でエンドユーザ端末190へ送信されてもよい。圧縮符号化を行う前者はエンドユーザ端末190としてスマートフォンやタブレットを想定しており、後者は非圧縮画像を表示可能なディスプレイを想定している。すなわち、バックエンドサーバ270は、エンドユーザ端末190の種別に応じて画像フォーマットを切り替え可能である。また、画像の送信プロトコルはMPEG−DASHに限らず、例えば、HLS(HTTP Live Streaming)やその他の送信方法が用いられても良い。尚本構成に限らず、例えば、仮想カメラ操作UI330がセンサシステム110a〜110zから直接に画像を取得する事も可能である。
このように、画像処理システム100においては、複数のカメラ112により被写体を複数の方向から撮影して得られた画像データに基づいて、バックエンドサーバ270が仮想視点画像を生成する。尚、本実施形態における画像処理システム100は、上記で説明した物理的な構成に限定される訳ではなく、論理的に構成されていてもよい。
次に、本実施形態におけるカメラアダプタ120の構成例について図2を用いて説明する。カメラアダプタ120は、画像入力部121、データ受信部122、判定部123、分離部124、生成部125、記憶部126、符号化部127、及びデータ送信部128を有する。
画像入力部121は、SDI(Serial Digital Interface)等の規格に対応した入力インタフェースである。画像入力部121は、カメラアダプタ120に接続された撮像部としてのカメラ112が撮像した撮像画像(自カメラ画像)を受信し、記憶部126に書き込む。また、画像入力部121は、SDIに重畳される補助データ(Ancillary Data)を捕捉する。補助データには、ズーム率、露出、色温度などといったカメラパラメータやタイムコードなどが含まれる。補助データは、カメラアダプタ120に含まれる各処理ブロックで使用される。
データ受信部122は、上流のセンサシステム110におけるカメラアダプタ120と接続される。上流側のカメラアダプタ120で生成された前景画像(以後、上流前景画像)、背景画像(以後、上流背景画像)、三次元モデル情報(以後、上流三次元モデル情報)などを受信する。データ受信部122は、受信したデータを記憶部126へ書き込む。なお、前景画像(上流前景画像)は、オブジェクト抽出画像(上流オブジェクト抽出画像)ともいう。
判定部123は、自カメラ画像が仮想視点コンテンツを生成するのに不向きな画像であるか否かを判定する。以下、仮想視点コンテンツを生成するのに不向きな画像を不適画像と称する。判定部123は、記憶部126に格納されている自カメラ画像や上流オブジェクト抽出画像、分離部124が生成した背景画像などを用いて判定する。判定結果は、カメラアダプタ120に含まれる各処理ブロックに通知されるとともに、ネットワークを介してコントローラ300に通知される。以下、不適画像と判定されたことを示す情報を不適情報と称する。
分離部124は、自カメラ画像を前景画像と背景画像に分離する。すなわち、カメラアダプタ120に含まれる分離部124は、複数のカメラ112のうち対応するカメラ112による撮影画像から所定領域を抽出する。所定領域は例えば撮影画像に対応するオブジェクト検出の結果により得られる前景画像であり、この抽出により分離部124は、撮影画像を前景画像と背景画像に分離する。尚、オブジェクトとは、例えば人物である。但し、オブジェクトが特定人物(選手、監督、及び/又は審判など)であっても良いし、ボールやゴールなど画像パターンが予め定められている物体であっても良い。また、オブジェクトとして動体が検出されるようにしても良い。
以上のように、人物等の重要なオブジェクトを含む前景画像とそのようなオブジェクトを含まない背景領域を分離して処理することで、画像処理システム100において生成される仮想視点画像の上記のオブジェクトに該当する部分の画像の品質を向上できる。なお、背景画像に人物が含まれることもある。背景画像に含まれる人物として典型的な例は、観客である。また、審判をオブジェクトとして抽出しないケースも考えられる。また、前景と背景の分離をそれぞれのカメラアダプタ120で行うことで、複数のカメラ112を備えた画像処理システム100における負荷を分散させることができる。なお、所定領域は前景画像に限らず、例えば背景画像であってもよい。
生成部125は、分離部124で分離された前景画像および記憶部126に格納されている上流前景画像を利用し、例えばステレオカメラの原理を用いて三次元モデルに関わる画像情報(以後、三次元モデル情報と呼ぶ)を生成する。記憶部126は、ハードディスクなどの磁気ディスク、不揮発性メモリや揮発性メモリなどの記憶装置である。記憶部126は、自カメラ画像、前景画像、背景画像、プログラム、データ受信部122を経由して上流のカメラアダプタから受信した画像群、などを記憶する。以上、分離部124で生成された前景画像および背景画像と、生成部125で生成された三次元モデル情報は、仮想視点コンテンツの生成に用いられる。すなわち、分離部124、生成部125は、複数の撮像装置により得られた複数の撮像画像を用いて仮想視点画像を生成するための生成処理の一部を、取得された撮像画像に行って処理済み情報を得る処理部の一例である。実施形態において、処理済み情報とは、前景画像、背景画像、三次元モデル情報である。
符号化部127は、自カメラで撮影された画像の圧縮符号化処理を行う。圧縮符号化処理はJPEGやMPEGに代表される標準技術を使って行われる。データ送信部128は、下流のセンサシステム110におけるカメラアダプタ120と接続され、符号化処理後の自カメラ画像や前景画像、背景画像、三次元モデル情報、上流のカメラアダプタから受信した画像群などを送信する。
次に、センサシステム110bのカメラアダプタ120bにて画像情報が処理される様子について図3を使用して説明する。経路401は、カメラ112bから入力される画像情報が処理される経路を示し、経路402は、カメラアダプタ120aから受信したデータが処理される経路を示す。
カメラ112bから入力される画像情報は画像入力部121を介してカメラアダプタ120bに入力され、一旦、カメラアダプタ120bの記憶部126に保存される(経路401)。保存された画像情報は、たとえば、図2で説明した判定部123、分離部124、生成部125、符号化部127での処理に使用される。分離部124、生成部125、符号化部127にて生成された画像情報も記憶部126に記憶される。カメラアダプタ120aからのデータは、データ受信部122を介してカメラアダプタ120bに入力され、一旦、記憶部126に保存される(経路402)。記憶部126に保存されたカメラアダプタ120aからのデータは、たとえば、生成部125での三次元モデル情報生成等に使用される。記憶部126に保存されている自カメラ画像から生成した前景画像、背景画像、三次元モデル情報、及び上流のカメラアダプタ120aから受信した画像群は、データ送信部128を介して下流のカメラアダプタ120cへ出力される(経路401,402)。
次に、図4と図5に示す画像群と、図6に示すフローチャート図を用いて、判定部123にて自カメラ画像が仮想視点コンテンツを生成するのに不向きな画像(不適画像)であると判定された場合のカメラアダプタ120の処理について説明する。
図4は、カメラ112aにて撮影される画像、及びカメラアダプタ120aにて生成される前景画像(オブジェクト画像)と背景画像の一例を示したものである。図4(a)に示すカメラ112aにて撮影される自カメラ画像500には、グランド511と、選手512、選手513、選手514、及びボール515のオブジェクトが含まれている。分離部124では、図4(A)に示す自カメラ画像500から図4(b)に示す前景画像510と図4(c)に示す背景画像520を分離、生成し、記憶部126に保存する。前景画像510には、選手512、選手513、選手514、及びボール515のオブジェクトのみが含まれており、背景部分516は、例えば黒などの単色で塗り潰されているものとする。一方、背景画像520には自カメラ画像500から選手512、選手513、選手514、及びボール515のオブジェクトが除かれ、グランド511が再現されて含まれている。
カメラアダプタ120にて撮影された画像が処理される様子を、図6に示すフローチャートを用いて以下に説明する。まず、図4に示したように、カメラ112から得られた画像が不適画像ではない場合について説明する。
カメラアダプタ120において、カメラ112による撮影を実行するための指示(撮影指示)を受け付けると(S601)、画像入力部121はカメラ112からの画像(自カメラ画像)を1フレーム分取得する(S602)。なお、撮影指示は、たとえばデータ受信部122から受け付けることができる。分離部124は、自カメラ画像から前景画像510と背景画像520を生成する画像処理を実行し、生成した前景画像と背景画像を記憶部126に保存する(S603)。次に、判定部123は、自カメラ画像が仮想視点コンテンツを生成するのに不向きな不適画像であるかどうかの判定を行う(S604)。不適画像でなければ(S604でNO)、符号化部127がS604で取得された前景画像510と背景画像520に圧縮符号化処理を施す(S605)。データ送信部128は、圧縮符号化された前景画像510と背景画像520を、音声データとともに伝送プロトコル規定のパケットサイズにセグメント化した上で、後段のセンサシステムへ出力する(S606)。
以上が、カメラ112から得られた画像が不適画像ではなかった場合の処理例である。次に、カメラ112から得られた画像が不適画像であった場合の処理例を、図5および図6を参照して説明する。
図5は、自カメラ画像が不適画像と判定される場合の画像例((a)自カメラ画像、bB)前景画像、(c)背景画像)を示す図である。図5(a)に示すカメラ112bにて撮影される自カメラ画像600には、図4(a)で示したカメラ112aの自カメラ画像500と同様にグランド511と、選手512、513、514、及びボール515のオブジェクトと、旗517が含まれている。分離部124では、図5(a)に示す自カメラ画像600から図5(b)に示す前景画像610と図5(c)に示す背景画像620が生成され、記憶部126に保存される。前景画像610には、旗517、選手512、選手513、選手514、及びボール515のオブジェクトのみが含まれており、背景部分616は、例えば黒などの単色で塗り潰されているものとする。背景画像620には自カメラ画像600から旗517、選手512、選手513、選手514、及びボール515のオブジェクトが除かれ、グランド511が再現されて含まれている。
図5の例では、カメラ112にて撮影された自カメラ画像600には、カメラ112bの近くで振られている旗517が撮影されている。このため、その旗517が選手512と重なってしまい、選手512が隠れてしまっている。これが原因で、カメラアダプタ120bにて生成される前景画像610を用いて仮想視点コンテンツ、特に選手512の仮想視点コンテンの生成を行おうとした場合、破綻したコンテンツとなってしまう。そこで判定部123では自カメラ画像600が不適画像であると判断する(S604でNO)。自カメラ画像600が不適画像と判定されると、符号化部127はカメラ112からの自カメラ画像に圧縮符号化処理を施す(S607)。圧縮符号化された画像は、音声データと判定部123による不適情報とともに伝送プロトコル規定のパケットサイズにセグメント化した上でデータ送信部128を介して出力される(S608)。このように、本実施形態のカメラアダプタ120は、自カメラ画像を不適画像と判定した場合において、不適情報に加えて自カメラ画像(不適画像)を下流のカメラアダプタ120へ送信する。そして不適画像は、コントローラ300にて表示される。このような構成によれば、コントローラ300のユーザは、不適画像がどのような画像なのか、といったことや、なぜ不適画像と判定されているのかを目視によって確認することができるという効果がある。また、ユーザは、不適画像であるという判定結果が誤りである場合には、不適画像の判定を取り消すことができる。ただし、カメラアダプタ120が不適画像を送信することや、不適画像の判定の取消しは、いずれも必須の構成ではない。
S608において、データ送信部128から送信される圧縮符号化された撮像画像(不適画像)の送信データ量を、処理済み情報(前景画像、背景画像、三次元モデル情報)の送信データ量よりも低減させることが好ましい。他のカメラからの画像情報(処理済み情報)を優先的に伝送させることができるからである。これは、たとえば、符号化部127において、不適画像を圧縮することで実現できる。あるいは、データ送信部128が、不適画像を、処理済み情報のフレームレートよりも低い、フレームレートで送信することでも実現できる。あるいは、これらを組み合わせてもよい。不適画像の圧縮のためのパラメータは、あらかじめ定められたパラメータであっても良いし、圧縮後のデータ量があらかじめ定められたデータ量以下になるように動的にパラメータが決定されても良い。
判定部123において、自カメラ画像が仮想視点コンテンツを生成するのに不向きな画像(不適画像)であるか否かの判定は、例えば、図4に示した画像が上流のカメラアダプタにより得られた画像であるすると、次のように行われる。すなわち、判定部123は、上流のカメラアダプタから送られてくる前景画像(図4(b))と自カメラ画像から生成された前景画像(図5(b))との比較を行う。不適画像か否かは、例えば、画素値が不一致となる画素の数、画素値の統計情報(例えば輝度ヒストグラム等)の差分、自カメラ画像から生成された前景画像の大きさの変化、などから判断することができる。また、これらのうちの2つ以上の判定方法を組み合わせてもよい。また、不適画像の判定は、旗や観客などの画像パターンを予め記録しておき、撮像画像に対する当該画像パターンの検出結果に基づいてなされるようにしても良い。また、不適画像の判定方法の他の例として、時間的に前の撮像画像との差分に基づいて判定されるようにしても良い。例えば、第1時刻に撮像された第1撮像画像と、第1時刻より後の第2時刻に撮像された第2撮像画像とを比較し、平均輝度や色が大きく異なっている場合には第2撮像画像が不適画像であると判定されるようにしても良い。また例えば、センサシステム110に備わる外部センサ114(例えば振動センサ)のセンシング結果に基づいて、不適画像であるか否かが判定されるようにしても良い。
仮想視点コンテンツを生成するのに不向きな画像として、図5では旗517により選手512が隠れてしまう一例を示したが、このように障害物がオブジェクトの前に写りこんでしまうケース以外に次のようなケースも考えられる。たとえば、カメラ112のレンズにごみや水滴が付着した場合、カメラ112の故障によりカメラ112から全面黒の画像しか出力されない場合、カメラ112内の同期信号が乱れて垂直方向に流れる画像またはノイズのみが出力された場合、などが想定される。
図1に戻り、画像コンピューティングサーバ200では、センサシステム110zから取得したデータをデータベース250に蓄積する。バックエンドサーバ270は、仮想カメラ操作UI330から視点の指定を受け付け、受け付けた視点に基づいてレンダリング処理を行って仮想視点画像を生成し、エンドユーザ端末190へ生成した仮想視点画像を送信する。仮想カメラ操作UI330は、バックエンドサーバ270から仮想視点画像を受信し、これを表示する。
図7は、オペレータが入力装置を操作して仮想カメラの画像を表示するまでの仮想カメラ操作UI330、バックエンドサーバ270、データベース250で実行される処理のシーケンスを示す。仮想カメラ操作UI330は、撮像装置を含む複数のセンサシステムから得られた複数の撮像画像に基づいて仮想視点画像を生成する生成処理により得られた仮想視点画像を、表示装置に表示させる表示制御を行う。ここで、仮想視点を生成する生成処理は、バックエンドサーバ270で実行される。
まず、オペレータが仮想カメラを操作するために仮想カメラ操作UI330を操作する(S700)。仮想カメラ操作UI330の入力装置として例えば、ジョイスティック、ジョグダイヤル、タッチパネル、キーボード、マウスなどを用いることができる。仮想カメラ操作UI330は、入力された仮想カメラの位置や姿勢を表す仮想カメラパラメータを計算する(S701)。仮想カメラパラメータには、仮想カメラの位置と姿勢などを示す外部パラメータ、および仮想カメラのズーム倍率などを示す内部パラメータが含まれる。仮想カメラ操作UI330は、計算した仮想カメラパラメータをバックエンドサーバ270に送信する(S702)。
バックエンドサーバ270は、仮想カメラパラメータを受信するとデータベース250に対して三次元モデル情報群を要求する(S703)。データベース250は、この要求に応じて前景オブジェクトの位置情報を含む三次元モデル情報群をバックエンドサーバ270に送信する(S704)。バックエンドサーバ270は、仮想カメラパラメータと三次元モデル情報に含まれるオブジェクトの位置情報より仮想カメラの視野に入るオブジェクト群を幾何学的に算出する(S705)。バックエンドサーバ270は、算出したオブジェクト群の前景画像と三次元モデル情報と、背景画像と音声データ群をデータベース250に要求する(S706)。データベース250は、要求に応じてデータをバックエンドサーバ270に送信する(S707)。
バックエンドサーバ270は、データベース250から受信した前景画像、三次元モデル情報から仮想視点の前景画像、背景画像を生成し、合成して仮想カメラの全景画像を生成する(S708)。また、音声データ群から仮想カメラの位置に応じた音声データの合成を行い、仮想カメラの全景画像と統合して仮想視点コンテンツを生成する。バックエンドサーバ270は、生成した仮想カメラの画像と音声を仮想カメラ操作UI330に送信する(S709)。仮想カメラ操作UI330は、バックエンドサーバ270から受信した画像と音声を再生、表示する。こうして、仮想カメラ操作UI330における仮想コンテンツの再生が実現される。
上記の例によれば、カメラ112bの近くで振られている旗が、カメラ112bで撮影される画像において選手を隠してしまっていた(図5)。このため、カメラアダプタ120bは、その画像が仮想視点コンテンツを生成するのに不向きな不適画像であると判断し、音声データとともに不適情報と圧縮処理が施された自カメラ画像(不適画像)が出力される。この結果、画像コンピューティングサーバ200では、センサシステム110bからの画像を除いたデータをデータベース250から読み出し、バックエンドサーバ270にてレンダリング処理を行って仮想視点画像を生成することとなる。生成される仮想視点画像は、センサシステム110bからの画像を用いずに生成されることとなるため、解像感や鮮鋭感などが劣化する。すなわち、不適画像が発生した場合の仮想視点画像は、すべてのカメラ画像を用いて生成された仮想視点画像よりも画質が劣化したものとなってしまう。したがって、不適画像の発生に対して適切で迅速な対策が要求される。このような要求に応じるべく、本実施形態では、不適画像が発生したカメラの特定と、不適画像の観察を可能としている。
図8は、コントローラ300において、自カメラ画像が仮想視点画像生成には不向きな不適画像であると判定したセンサシステム110が存在する場合の処理を示したフローチャートである。図8では、仮想カメラの画像表示に替えて、センサシステムで不適画像と判断された画像を仮想カメラ操作UI330において表示させる処理が示されている。
まず、制御ステーション310は仮想カメラ操作UI330、バックエンドサーバ270、データベース250に対し、仮想カメラの画像表示開始を指示することで、図7に示した処理により仮想カメラの画像表示が開始される(S801)。制御ステーション310はネットワーク180bを介して送られてくるセンサシステム110a〜センサシステム110zの情報に不適画像の発生を示す不適情報を発信したセンサシステム110があるかどうかを判断する(S802)。不適情報を発信したセンサシステムがない場合には、制御ステーション310は仮想カメラの画像表示を継続する(S802でNO)。不適情報が検出された場合(S802でYES)、仮想カメラ操作UI330は不適情報を発信したセンサシステムを示す情報を表示し(S803)、オペレータに対し不適情報が発信されたことを通知する。
図9に、仮想カメラ操作UI330の有する表示画面上に表示される画像の一例を示す。図9(a)に示す表示画面例は、下記の3つの部分から構成されている。第1は仮想カメラの画像を表示する画像表示部901である。第2はネットワーク180bを介して制御ステーション310が受けたセンサシステム110a〜センサシステム110zの情報を表示するセンサシステム管理表示部(以下、管理表示部902)である。第3は仮想カメラの操作を行う仮想カメラ操作領域903である。
仮想カメラ操作UI330は、バックエンドサーバ270から入力される仮想カメラの画像を順次、画像表示部901に表示することで、オペレータが画像コンピューティングサーバ200にて生成された仮想カメラの画像を確認することができる。この状態でオペレータは仮想カメラ操作領域903にて仮想カメラ931を操作することで自由な視点からの画像を得ることが可能となる。
図10は仮想カメラ931を操作する一例を示した模式図である。オペレータは仮想カメラ931の1フレームごと位置や姿勢を、仮想カメラパス1001して指定する。仮想カメラ操作UI330は指定された仮想カメラパス1001の情報から仮想カメラパラメータを算出し、バックエンドサーバ270へ送信する。ここで仮想カメラ931の位置に対応する時間は1フレームごとに限ったものではなく、オペレータにより任意の時間に設定が可能なものとする。また、仮想カメラ931の操作はオペレータが手動で行う以外に予め決められている仮想カメラパスで自動操縦させることを選択可能である。たとえば、GUI(Graphic User Interface)のボタン(図9(a)では、自動操縦ボタン932と手動操縦ボタン933)を設けることで手動操縦と自動操縦とを切り換えることを可能とすることもできる。
図9(a)に戻り、センサシステム110bから不適情報が発信された際の管理表示部902の表示の一例を示す。本例では管理表示部902には、接続されているセンサシステムとそれらの同期状態(SYNC)、及び時刻情報が時間(H)と分(M)と秒(S)で表示され、更に不適情報の発信有無が画像状態欄に表示される。図9(a)では、センサシステム110bから不適情報が発信されたため、センサシステム110bの画像状態がNGとして表示されている。更に本例では、仮想視点コンテンツを生成するのに不向きな画像であると判断された自カメラ画像(不適画像)を仮想カメラの画像表示に代えて表示させることができる。仮想カメラ操作UI330は、これを指示するための表示ボタン921をセンサシステム管理表示と併せて表示する(S803)。管理表示部902の画像状態の欄の「NG」、表示ボタン921の出現により、仮想カメラ操作UI330は不適情報を受信したことを報知する。
図8において、オペレータ(ユーザ)により表示ボタン921が選択されると(S804)、仮想カメラ操作UI330はバックエンドサーバ270に対し、センサシステム110bの不適画像の送信要求を出力する(S805)。バックエンドサーバ270は仮想カメラ操作UI330からセンサシステム110bの不適画像の送信要求を受信すると、データベース250へセンサシステム110bの不適画像出力を要求する(S805)。データベース250からセンサシステム110bの不適画像が送信されると、その画像情報を仮想カメラ操作UI330へ送信する。
仮想カメラ操作UI330はデータベース250からセンサシステム110bの不適画像が送信されるのを待ち(S806)、不適画像の受信が完了すると仮想カメラの画像表示に代えてセンサシステム110bの不適画像を表示する(S807)。仮想カメラ操作UI330では手動操縦ボタン933又は自動操縦ボタン932が操作されるまでセンサシステム110bの不適画像の表示を続ける(S808でNO)。オペレータにより手動操縦ボタン933又は自動操縦ボタン932が操作された場合に、画像表示部901における表示を仮想カメラ画像に切り替える(S808でYES、S801)。
なお、仮想カメラ画像に切り替えるタイミングはオペレータによる操作に限ったものでは無く、センサシステム110bから不適情報の発信が所定時間検出できなかったことにより仮想カメラ画像に切り替えるとしても良い。また、S804において、オペレータが表示ボタン921を選択しなかった場合は、処理はS802に戻って不適情報の受信を待つこととなる。
本例では、仮想カメラ操作UI330が表示画面を備え、そこに仮想視点コンテンツを生成するのに不向きな画像であると判断されたカメラ画像を表示してオペレータが確認できるとしたが、これに限定されない。エンドユーザ端末190を使って仮想視点コンテンツを生成するのに不向きな画像であると判断されたカメラ画像を表示することも可能である。さらに、エンドユーザ端末190を使って仮想視点コンテンツを生成するのに不向きな画像であると判断されたカメラ画像を表示する場合は、エンドユーザ端末190に操作UI部を実装してもよい。
また、本例ではセンサシステム110から不適情報が発信された場合、仮想カメラ操作UI330の表示画面上の管理表示部902の該当するセンサシステムの画像状態欄に「NG」と表示するとしている。しかしながら、不適画像と判断した理由をセンサシステム110は把握しているため、その判断理由を例えば数字に割り当てて不適情報として送信し、仮想カメラ操作UI330にてその番号を表示するとしても良い。たとえば、前景画像の面積が上流のセンサシステムから送信されてきた前景画像の面積に対して大きいため不適画像と判断された場合を「1」、カメラ112の故障が検出された場合を「2」などとすることができる。
図9(b)は、表示ボタン921の操作に応じて仮想カメラの画像表示に替えてカメラ112bにて撮影された不適画像が表示された様子を示している。また、図9(b)では、管理表示部902において、不適情報として得られた「1」が表示されている。このように表示することで、仮想カメラ操作UI330ではオペレータは不適画像を表示した際に不適画像と判断された原因を特定しやすくなる。
以上に述べたように、第1実施形態によれば、カメラで撮影した画像が仮想視点コンテンツを生成するのに不向きな画像(不適画像)であると判断された場合、不適情報とともにカメラで撮影された画像が画像コンピューティングサーバ200へ伝送される。仮想カメラ操作UI330では、オペレータの指示により、生成された仮想視点コンテンツに代えて不適画像の表示を行うことで、不向きな画像と判断された画像を確認することが可能となる。それにより、ユーザは、仮想視点画像生成において不向きと判定された判定された原因を早急に把握し、対策を講じることが可能となる。
<第2実施形態>
第1実施形態では、カメラアダプタ120が、自カメラ画像が仮想視点コンテンツを生成するのに不向きな不適画像であるか否かを判定し、不適画像と判断された場合に、不適情報とともにその不適画像をサーバへ伝送する。これにより、仮想カメラ操作UI330において、生成された仮想視点コンテンツに替えて不適画像の表示を行うことが可能とした。第2実施形態では、カメラで撮影した画像が仮想視点コンテンツを生成するのに不向きな画像であるか否かを判定し、所定期間にわたって不向きな画像と判断された場合に、不適情報とともにカメラで撮影された画像をサーバへ伝送する。なお、第2実施形態の画像処理システム100の構成は第1実施形態と同様である。
図11は、第2実施形態において、カメラアダプタ120bで画像情報の処理される様子について説明した図である。図11では、図3で説明した第1実施形態におけるカメラアダプタ120bでの画像情報の経路401,402に、上流からの画像情報をバイパスする経路403が加わっている。すなわち、第2実施形態のカメラアダプタ120bは、カメラアダプタ120aから受信したデータを記憶部126に保存せずに、無条件に受信したデータを次のカメラアダプタ120cへ転送する機能を備える。以下、本機能をバイパス機能と呼ぶ。バイパス機能は、例えばカメラアダプタ120bがカメラの状態が撮影停止中やキャリブレーション中、エラー処理中であったり、画像入力部121や記憶部126の処理に動作不良など発生したりした場合に機能する。この場合、経路403に示すように、データ受信部122を介して受信した画像群はそのままデータ送信部128へ出力され、下流のカメラアダプタ120cへ転送される。
図11には明記していないが、画像入力部121や記憶部126がエラーや停止状態にあることを検知するサブCPUをカメラアダプタ120bに配備し、サブCPUがエラー検知を行った場合にバイパス制御にする処理を加えても良い。これにより各機能ブロックのフォールト状態とバイパス制御を独立して制御できる効果がある。また、カメラ112の状態がキャリブレーション状態から撮影中に遷移した場合や、画像入力部121や記憶部126などの動作不良から復旧した場合に通常の伝送モードに遷移するとしてもよい。本機能により、不慮の故障などが発生しデータルーティングに係わる判断ができない場合でも次のカメラアダプタ120cへデータを転送する事ができる。
図12は、第2実施形態におけるカメラアダプタ120での処理を示したフローチャート図である。
本例では、カメラアダプタ120は計時を行うタイマ(不図示)を有しており、処理の開始時にタイマがクリアされる(S1201)。S1202〜S1204の処理は、第1実施形態のS601〜S603と同様である。すなわち、カメラアダプタ120は、撮影指示に応じて(S1202)、カメラ112からの画像(自カメラ画像)を1フレーム分取得し(S1203)、前景画像と背景画像を生成し、生成した画像群を記憶部126に保存する(S1204)。
判定部123は、自カメラ画像が仮想視点コンテンツを生成するのに不向きな不適画像であるかどうかの判定を行う(S1205)。不適画像ではないと判断された場合には、データ送信部128を、通常処理モードに設定する(S1206)。すなわち、カメラ112から入力される画像情報の処理される経路401と、上流のカメラアダプタ120から受信したデータの処理される経路402とを用いた伝送を行うように設定する。そして、前景画像と背景画像に圧縮処理を施し(S1207)、音声データとともに伝送プロトコル規定のパケットサイズにセグメント化した上でデータ送信部128を介して出力する(S1208)。
S1205で不適画像であると判断された場合には、カメラアダプタ120bは、タイマによる計時を開始し(S1209)、所定の時間が経過したかどうか判断する(S1210)。S1210で所定時間が経過していないと判断された場合には、カメラアダプタ120bは、データ受信部122より受信した画像群をそのままデータ送信部128を介して伝送する経路403を用いるバイパス処理モードに設定する(S1211)。これにより、カメラアダプタ120bは、カメラアダプタ120aから受信したデータを記憶部126に保存せずに、無条件に次のカメラアダプタ120cへ転送する。
S1210で所定時間が経過していると判断された場合には、カメラアダプタ120bは、タイマによる計時を停止するとともにタイマの値をクリアする(S1212)。そして、カメラアダプタ120bは、データ送信部128を、カメラ112から入力される画像情報と上流のカメラアダプタ120から受信したデータを経路401と経路402を用いて伝送する通常処理モードに設定する(S1213)。この通常処理モードにおいて、第1実施形態のS605〜S606と同様の処理であるS1214〜S1215が実行される。すなわち、カメラアダプタ120bは、カメラ112bからの自カメラ画像(不適画像)に圧縮符号化処理を施す(S1214)。そして、カメラアダプタ120bは、圧縮符号化された画像(不適画像)を音声データと不適情報とともに伝送プロトコルにより規定されるパケットサイズにセグメント化した上でデータ送信部128を介して出力する(S1215)。
以上に述べたように、第2実施形態によれば、所定期間にわたってカメラで撮影した画像が不適画像であると判断された場合に、不適画像が不適情報とともにサーバへ伝送される。それ以外の期間はバイパスモードとなり、不適切な画像であると判断されたカメラアダプタで撮影された画像は画像コンピューティングサーバへ伝送されない。そのため、バイパスモード処理中は伝送帯域を他の画像伝送に活用することが可能となる。例えば前景画像や背景画像の圧縮率を下げて、画質の向上を図ることが可能となる。
<第3実施形態>
第1実施形態および第2実施形態のカメラアダプタ120は、不適画像とともに不適情報を送信した。第3実施形態では、自カメラ画像が不適画像であると判断された場合に、まず、カメラアダプタ120は、不適情報を画像コンピューティングサーバ200へ送信する。そして、仮想カメラ操作UI330へのオペレータの操作により不適画像の表示が指示された場合に、不適情報を出力したセンサシステム110に対して不適画像の送信要求を出力する。この要求を受けたカメラアダプタ120は、不適情報とともに不適画像と判定された自カメラ画像を送信する。仮想カメラ操作UI330では、カメラアダプタ120から送信された自カメラ画像(不適画像)を、仮想視点コンテンツに代えて表示する。
図13は、第3実施形態におけるカメラアダプタでの処理を示したフローチャートである。S1301〜S1306の処理は第1実施形(図6)のS601〜S606と同様である。
カメラアダプタ120では、カメラ112からの画像の撮影指示がされると(S1301)、自カメラ画像を1フレーム分取得する(S1302)。分離部124は前景画像と背景画像を生成する画像処理を実行し、生成した画像群を記憶部126に保存する(S1303)。次に判定部123では、自カメラ画像が仮想視点コンテンツを生成するのに不向きな不適画像であるかどうかの判定を行う(S1304)。不適画像でないと判断された場合には、符号化部127は、前景画像と背景画像に圧縮符号化処理を施す(S1305)。データ送信部128は、符号化された前景画像と背景画像のデータを音声データとともに伝送プロトコル規定のパケットサイズにセグメント化して出力する(S1306)。
一方、S1304で不適画像であると判断された場合には、データ送信部128は、判定部123から出力される不適情報を伝送プロトコル規定のパケットサイズにセグメント化した上でデータ送信部128を介して出力する(S1307)。これにより仮想カメラ操作UI330では、図9(a)に示した管理表示部902がセンサシステム管理情報を表示し、センサシステムから不適情報が送信されたことを通知する。図9(a)の画面においてオペレータにより表示ボタン921が選択されると、制御ステーション310は、不適情報を発生したセンサシステム110に対して不適画像送信要求を、ネットワーク310aを介して出力する。
不適情報を送信しているカメラアダプタ120において、制御ステーション310から不適画像送信要求が出力されたことを検出すると(S1308でYES)、自カメラ画像(すなわち不適画像)を送信する。具体的には、符号化部127がカメラ112からの自カメラ画像に圧縮処理を施し(S1309)、データ送信部128が、圧縮された自カメラ画像を、音声データとともに伝送プロトコル規定のパケットサイズにセグメント化して出力する(S1310)。
制御ステーション310では不適情報を出力したカメラアダプタ120から不適画像が送信されたことを検出すると、その画像データを保持する。仮想カメラ操作UI330は、表示画面上に、バックエンドサーバ270から出力される仮想カメラの画像表示に替えて受信した不適画像を表示する。
以上に述べたように、第3実施形態によれば、カメラアダプタ120は自カメラ画像が仮想視点コンテンツを生成するのに不向きな不適画像である場合に、まず、不適情報を出力する。そして、オペレータの指示により不適画像の表示が支持された場合に、制御ステーション310が不適情報を出力したセンサシステムに対して不適画像の送信を要求する。したがって、不適画像の送信が必要時に限られるので、データ転送量を減らすことができる。また、サーバへ本発明のための処理を追加することなく不適画像の表示を行うことが可能となる。
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
100:画像処理システム、110a〜110z:センサシステム、111a〜111z:マイク、112a〜112z:カメラ、113a〜113z:雲台、114a〜114z:外部センサ、120a〜120z:カメラアダプタ、121:画像入力部、122:データ受信部、123:判定部、124:分離部、125:生成部、126:記憶部、127:符号化部、128:データ送信部

Claims (17)

  1. 撮像手段が撮像した撮像画像を取得する取得手段と、
    複数の撮像手段により得られた複数の画像と仮想カメラの位置及び姿勢とに基づいて仮想視点画像を生成するための生成処理の一部を、前記撮像画像に行って処理済み情報を得る処理手段と、
    前記撮像画像が前記仮想視点画像の生成に適しているか否かを判定する判定手段と、
    前記判定手段により前記撮像画像が前記生成に適した画像であると判定された場合には前記処理済み情報を送信し、前記判定手段により前記撮像画像が前記生成に適していないと判定された場合には、前記撮像画像が仮想視点画像の生成に適しないことを示す不適情報を送信する送信手段と、を備えることを特徴とする画像処理装置。
  2. 前記送信手段は、前記判定手段により前記撮像画像が前記仮想視点画像の生成に適していないと判定された場合には、前記不適情報に加えて、前記撮像画像を送信することを特徴とする請求項1に記載の画像処理装置。
  3. 前記処理手段は、前記撮像画像から抽出したオブジェクト画像の情報を前記処理済み情報として生成し、
    前記判定手段は、前記オブジェクト画像に基づいて、前記撮像画像が前記仮想視点画像の生成に適しているか否かを判定することを特徴とする請求項1又は2に記載の画像処理装置。
  4. 前記送信手段は、前記処理済み情報として、前記オブジェクト画像と背景画像を圧縮して送信することを特徴とする請求項3に記載の画像処理装置。
  5. 前記送信手段は、前記撮像画像の送信データ量を前記処理済み情報の送信データ量よりも低減させることを特徴とする請求項2に記載の画像処理装置。
  6. 前記送信手段は、前記撮像画像を圧縮することを特徴とする請求項5に記載の画像処理装置。
  7. 前記送信手段は、前記撮像画像を、前記処理済み情報のフレームレートよりも低いフレームレートで送信することを特徴とする請求項5または6に記載の画像処理装置。
  8. 前記送信手段は、前記撮像画像が前記生成処理に適していない状態が所定時間にわたって継続した場合に前記不適情報を送信することを特徴とする請求項1乃至6のいずれか1項に記載の画像処理装置。
  9. 前記送信手段は、前記判定手段により前記撮像画像が前記生成に適していないと判定された場合に前記不適情報を送信すると共に、外部からの要求に応じて前記不適情報に対応する撮像画像を送信することを特徴とする請求項1乃至6のいずれか1項に記載の画像処理装置。
  10. 前記判定手段は、各々が撮像手段を有する複数の画像処理装置がデイジーチェーンにより接続されている場合において、上流側の画像処理装置から受信したオブジェクト画像と、前記撮像画像から分離されたオブジェクト画像に基づいて前記撮像画像が前記仮想視点画像の生成に適しているか否かを判定することを特徴とする請求項1乃至9のいずれか1項に記載の画像処理装置。
  11. 請求項1乃至10のいずれか1項に記載の画像処理装置と、
    前記撮像手段と、を備えることを特徴とする撮像装置。
  12. 各々が撮像装置を含む複数のセンサシステムから得られた複数の撮像画像と、仮想カメラの位置及び姿勢とに基づいて仮想視点画像を生成する生成処理により得られた仮想視点画像を、表示装置に表示させる表示制御手段と、
    前記複数のセンサシステムのうち、前記仮想視点画像の生成に適さない撮像画像を撮像した撮像装置を有するセンサシステムが送信した不適情報を受信する受信手段と、を備え、
    前記表示制御手段は、前記不適情報に対応する撮像画像を取得し、表示装置に表示させる、ことを特徴とする情報処理装置。
  13. 仮想カメラの位置と姿勢を指示する指示手段をさらに備え、
    前記生成処理では、前記指示手段により指示された仮想カメラの位置と姿勢に基づく仮想視点画像を生成することを特徴とする請求項12に記載の情報処理装置。
  14. 前記不適情報を受信したことを報知する報知手段をさらに備えることを特徴とする請求項12または13に記載の情報処理装置。
  15. 複数の撮像装置から得られた画像と仮想カメラの位置及び姿勢とに基づいて仮想視点画像を生成するための生成処理を行う画像処理システムであって、

    前記生成処理の一部を、撮像手段から取得した撮像画像に行って処理済み情報を得る処理手段と、
    前記撮像画像が前記仮想視点画像の生成に適しているか否かを判定する判定手段と、
    前記判定手段により適していると判定された場合には前記処理済み情報を送信し、前記判定手段により適していないと判定された場合には、前記撮像画像が生成に適しないことを示す不適情報を送信する送信手段と、を各々が有する複数のセンサシステムと、
    前記複数のセンサシステムから送信された処理済み情報を受信し、受信した処理済み情報に基づいて仮想視点画像を生成するサーバ装置と、
    前記サーバ装置により生成された仮想視点画像を表示装置に表示させる情報処理装置と、を備え、前記情報処理装置は、前記不適情報に対応する撮像画像を取得し、表示装置に表示させる、ことを特徴とする画像処理システム。
  16. 撮像手段が撮像した撮像画像を取得する取得工程と、
    複数の撮像装置により得られた複数の画像と仮想カメラの位置及び姿勢とに基づいて仮想視点画像を生成するための生成処理の一部を、前記撮像画像に行って処理済み情報を得る処理工程と、
    前記撮像画像が前記仮想視点画像の生成に適しているか否かを判定する判定工程と、
    前記判定工程において前記撮像画像が前記生成に適した画像であると判定された場合には前記処理済み情報を送信し、前記判定工程において前記撮像画像が前記生成処理に適していないと判定された場合には、前記撮像画像が前記仮想視点画像の生成に適しないことを示す不適情報を送信する送信工程と、を有することを特徴とする画像処理方法。
  17. コンピュータを請求項1乃至10のうち何れか1項に記載の画像処理装置の各手段として動作させるためのプログラム。
JP2017094877A 2017-05-11 2017-05-11 画像処理装置、画像処理方法、情報処理装置、撮像装置および画像処理システム Active JP6871801B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017094877A JP6871801B2 (ja) 2017-05-11 2017-05-11 画像処理装置、画像処理方法、情報処理装置、撮像装置および画像処理システム
US15/974,134 US20180330163A1 (en) 2017-05-11 2018-05-08 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017094877A JP6871801B2 (ja) 2017-05-11 2017-05-11 画像処理装置、画像処理方法、情報処理装置、撮像装置および画像処理システム

Publications (2)

Publication Number Publication Date
JP2018191254A true JP2018191254A (ja) 2018-11-29
JP6871801B2 JP6871801B2 (ja) 2021-05-12

Family

ID=64097232

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017094877A Active JP6871801B2 (ja) 2017-05-11 2017-05-11 画像処理装置、画像処理方法、情報処理装置、撮像装置および画像処理システム

Country Status (2)

Country Link
US (1) US20180330163A1 (ja)
JP (1) JP6871801B2 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102178239B1 (ko) * 2017-12-14 2020-11-12 캐논 가부시끼가이샤 3차원 모델의 생성 장치, 생성 방법, 및 프로그램
JP2020010300A (ja) * 2018-07-12 2020-01-16 キヤノン株式会社 映像生成装置、映像生成装置の制御方法及びプログラム
JP7250493B2 (ja) * 2018-12-03 2023-04-03 キヤノン株式会社 画像処理装置、三次元形状データの生成方法およびプログラム
JP2020134973A (ja) * 2019-02-12 2020-08-31 キヤノン株式会社 素材生成装置、画像生成装置および画像処理装置
WO2021117482A1 (ja) * 2019-12-09 2021-06-17 ソニーグループ株式会社 情報処理装置および方法、プログラム、並びに、情報処理システム
JP7324251B2 (ja) * 2021-07-09 2023-08-09 キヤノン株式会社 情報処理装置および情報処理方法、映像表示システム、プログラム
JP7459199B1 (ja) * 2022-09-20 2024-04-01 キヤノン株式会社 画像処理システム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004246667A (ja) * 2003-02-14 2004-09-02 Keiogijuku 自由視点動画像データ生成方法およびその処理をコンピュータに実行させるためのプログラム
JP2016119513A (ja) * 2014-12-18 2016-06-30 ヤフー株式会社 画像処理装置、画像処理方法及び画像処理プログラム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7522186B2 (en) * 2000-03-07 2009-04-21 L-3 Communications Corporation Method and apparatus for providing immersive surveillance
US7085409B2 (en) * 2000-10-18 2006-08-01 Sarnoff Corporation Method and apparatus for synthesizing new video and/or still imagery from a collection of real video and/or still imagery
KR100779634B1 (ko) * 2003-06-20 2007-11-26 니폰 덴신 덴와 가부시끼가이샤 가상시점 화상 생성방법 및 3차원 화상 표시방법 및 장치
US9041722B2 (en) * 2007-11-16 2015-05-26 Sportvision, Inc. Updating background texture for virtual viewpoint animations

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004246667A (ja) * 2003-02-14 2004-09-02 Keiogijuku 自由視点動画像データ生成方法およびその処理をコンピュータに実行させるためのプログラム
JP2016119513A (ja) * 2014-12-18 2016-06-30 ヤフー株式会社 画像処理装置、画像処理方法及び画像処理プログラム

Also Published As

Publication number Publication date
US20180330163A1 (en) 2018-11-15
JP6871801B2 (ja) 2021-05-12

Similar Documents

Publication Publication Date Title
JP6871801B2 (ja) 画像処理装置、画像処理方法、情報処理装置、撮像装置および画像処理システム
CN109275358B (zh) 根据用户所选择的视点从具有菊花链连接的照相机阵列生成虚拟图像的方法和设备
CN109565580B (zh) 信息处理设备、图像生成方法、控制方法和程序
KR102121931B1 (ko) 제어 디바이스, 제어 방법 및 저장 매체
KR102208473B1 (ko) 상이한 프레임 레이트들로 전경 화상 및 배경 화상을 송신하는 카메라 어레이로부터, 유저에 의해 선택된 시점으로부터의 가상 화상을 생성하는 방법 및 장치
CN109565582B (zh) 控制装置及其控制方法和计算机可读存储介质
JP6894687B2 (ja) 画像処理システム、画像処理装置、制御方法、及び、プログラム
US20200204784A1 (en) Information processing apparatus and control method therefor
JP7042571B2 (ja) 画像処理装置およびその制御方法、プログラム
JP2019022151A (ja) 情報処理装置、画像処理システム、制御方法、及び、プログラム
JP2018191251A (ja) 情報処理システム、情報処理方法、およびプログラム
JP2019008429A (ja) 画像処理装置、画像処理システム、画像処理方法及びプログラム
JP2019134428A (ja) 制御装置、制御方法、及び、プログラム
JP2021119459A (ja) 生成装置、生成方法
JP7297969B2 (ja) 情報処理装置、プログラム、生成方法、及び、システム
JP7204789B2 (ja) 制御装置、制御方法、及び、プログラム
JP2019075740A (ja) 画像処理システム、画像処理装置、画像伝送方法、及び、プログラム
JP7134636B2 (ja) 制御装置、制御方法及びプログラム
JP2021093648A (ja) 画像データ処理装置、画像データ処理方法、及びプログラム
JP2019080183A (ja) 画像伝送装置、画像伝送方法、及びプログラム
JP2018191236A (ja) 情報処理システム、情報処理方法、装置およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200501

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210303

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210319

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210416

R151 Written notification of patent or utility model registration

Ref document number: 6871801

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151