JP2018191236A - 情報処理システム、情報処理方法、装置およびプログラム - Google Patents

情報処理システム、情報処理方法、装置およびプログラム Download PDF

Info

Publication number
JP2018191236A
JP2018191236A JP2017094561A JP2017094561A JP2018191236A JP 2018191236 A JP2018191236 A JP 2018191236A JP 2017094561 A JP2017094561 A JP 2017094561A JP 2017094561 A JP2017094561 A JP 2017094561A JP 2018191236 A JP2018191236 A JP 2018191236A
Authority
JP
Japan
Prior art keywords
image
information processing
subject
camera
photographing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017094561A
Other languages
English (en)
Inventor
友里 吉村
Yuri Yoshimura
友里 吉村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017094561A priority Critical patent/JP2018191236A/ja
Publication of JP2018191236A publication Critical patent/JP2018191236A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

【課題】被写体の画像の伝送を、被写体の位置に応じて制御する。【解決手段】カメラアダプタ120a〜120zは、被写体の実空間における位置に基づいて、カメラ112a〜112zで撮影された撮影画像に含まれる当該被写体の領域の画像を含むデータの伝送を制御する。【選択図】図1

Description

本発明は、情報処理システム、情報処理方法、装置およびプログラムに関するものである。
相互に異なる位置に設置された複数のカメラが同期して撮影を行い、当該撮影により得られる複数の視点で撮影された画像を用いて仮想視点コンテンツを生成する技術がある。かかる技術によれば、例えば、サッカーやバスケットボールのハイライトシーンを様々な角度から視聴することが出来るため、通常の画像と比較してユーザに高臨場感を与えることが出来る。
ところで、かかる技術では、撮影された画像から被写体の領域を切り出して伝送することが行われることがある。カメラで撮影された画像から必要な領域を切り出して伝送する技術として、特許文献1に記載の技術がある。特許文献1には、次の技術が開示されている。即ち、駅のホームに停車中の列車の乗降扉付近を含む領域を、列車の外側から撮影することが出来るように複数の監視カメラを設置する。当該複数の監視カメラで撮影された画像から、乗降扉付近の画像だけを切り出して伝送、集約する。
特開2014−192844号公報
しかしながら、特許文献1に記載の技術は、比較的位置が変動しない乗降扉付近の画像を伝送するものである。従って、特許文献1に記載の技術は、被写体の存在位置が変動し得る場合の被写体の画像の伝送については考慮されていない。
本発明は、このような問題点に鑑みてなされたものであり、被写体の画像の伝送を、被写体の位置に応じて制御することを目的とする。
本発明の情報処理システムは、撮影画像に含まれる被写体の領域の画像を取得する取得手段と、前記被写体の位置に基づいて、前記撮影画像に含まれる当該被写体の領域の画像を含むデータの伝送を制御する制御手段と、を有することを特徴とする。
本発明によれば、被写体の画像の伝送を、被写体の位置に応じて制御することが出来る。
画像処理システムの構成を示す図である。 カメラアダプタの構成を示す図である。 画像処理部の構成を示す図である。 全共通被写範囲を示す平面図である。 全共通被写範囲を示す斜視図である。 図4から上流側の3台のカメラに対応する部分を取り出して示す図である。 前景画像の一例を示す図である。 伝送調整処理の第1の例を示すフローチャートである。 下接カメラへ伝送されるオブジェクトの第1の例を示す図である。 伝送調整処理の第1の例を示すフローチャートである。 下接カメラへ伝送されるオブジェクトの第2の例を示す図である。
以下に図面を参照して、実施形態を詳細に説明する。
複数の視点で撮影された画像に基づく仮想視点コンテンツの生成および閲覧を行う際には、まず、複数のカメラで撮影された画像をサーバ等の画像処理部に集約する。次に、画像処理部は、複数のカメラで撮影された画像を用いて、三次元モデルの生成と、レンダリング等の処理とを行うことにより仮想視点コンテンツを生成し、ユーザ端末に伝送する。被写体の中でも選手等、動きがある被写体の三次元モデルを、撮影画像から逐次生成する代表的な方法として、ステレオマッチングが挙げられる。
ステレオマッチングを行うためには被写体を構成する各面の要素が、少なくとも2台のカメラで撮影される必要がある。そのため、被写体の面の欠落のない三次元モデルを生成するためには、その被写体が、全てのカメラそれぞれの撮影可能な撮影範囲である被写範囲(被写界)の共通範囲(以下、必要に応じて全共通被写範囲と称する)に存在しなければならない。逆に言えば、全共通被写範囲の外側に位置する被写体の画像は、完全な三次元モデルの生成には寄与しないデータである。
ただし、仮想視点コンテンツの内容によっては被写体の半面のみの三次元モデルがあれば良い等、完全な三次元モデルが必要でない場合も考えられる。しかしながら、そのような場合においてもやはり、特に1台のカメラからのみしか撮影されていない被写体の画像は三次元モデルの生成に使用することが出来ない。それら三次元モデルの生成に寄与しない画像データを画像処理部に伝送することは、カメラと画像処理部との間の伝送負荷を不要に圧迫する。
もし、三次元モデルの生成に寄与しない画像を含んだまま伝送負荷を下げようとすれば、三次元モデルの生成に必要な画像を含めて比較的高い圧縮等を行うことになり、全体的な画質の劣化を招く。
そこで、本実施形態では、複数の視点で撮影された撮影画像に含まれる被写体の領域のそれぞれについて、三次元モデルの生成に必要か否かを判定し、その判定の結果に合わせて伝送や画質を制御する場合を例に挙げて説明する。このようにすることによって、伝送負荷を低減しつつ、三次元モデルの生成に必要な画像の画質を高く保持することが出来る。
<第1の実施形態>
まず、第1の実施形態を説明する。
(画像処理システム)
図1は、画像処理システム100の構成の一例を示す図である。本実施形態では、競技場(スタジアム)やコンサートホール等の施設に、複数のカメラおよび複数のマイクを設置する場合を例に挙げて説明する。画像処理システム100は、複数のカメラおよび複数のマイクを用いて、撮影および集音を行う。画像処理システム100は、センサシステム110a〜110z、画像コンピューティングサーバ200、コントローラ300、スイッチングハブ180、およびエンドユーザ端末190を有する。本実施形態では、例えば、画像処理システム100により情報処理システムの一例が実現される。
コントローラ300は、制御ステーション310と仮想カメラ操作UI330とを有する。制御ステーション310は、画像処理システム100を構成するそれぞれのブロックに対して、ネットワーク310a〜310c、180a〜180b、170a〜170yを通じて、動作状態の管理およびパラメータの設定等を行う。ここで、ネットワークは、Ethernet(登録商標)であるIEEE標準準拠のGbE(ギガビットイーサーネット)や10GbEでも良いし、インターコネクト(Infiniband等)や産業用イーサーネット等を組み合せて構成されても良い。また、ネットワークは、これらに限定されず、他の種別のネットワークであっても良い。
最初に、センサシステム110a〜110zの26セットで得られる画像および音声を、センサシステム110zから画像コンピューティングサーバ200へ送信する動作の一例を説明する。本実施形態では、センサシステム110a〜110zがデイジーチェーンで相互に接続される場合を例に挙げて説明する。
本実施形態において、特別な説明がない場合には、センサシステム110a〜110zの26セットを区別せず、センサシステム110と記載する。各センサシステム110内の装置やネットワークについても同様に、特別な説明がない場合には、これらを区別せず、マイク111、カメラ112、雲台113、外部センサ114、カメラアダプタ120、およびネットワーク170と記載する。
尚、本実施形態では、センサシステム110の数を26セットとするが、これは一例であり、センサシステム110の数は26セットに限定されない。また、本実施形態では、特に断りがない限り、画像は、動画および静止画の概念を含むものとして説明する。即ち、本実施形態の画像処理システム100は、静止画および動画の何れについても処理することが可能である。また、本実施形態では、画像処理システム100により提供される仮想視点コンテンツに、仮想視点画像と仮想視点音声とが含まれる例を中心に説明する。しかしながら、仮想視点コンテンツは、これに限定されない。例えば、仮想視点コンテンツに音声が含まれていなくても良い。また、例えば、仮想視点コンテンツに含まれる音声が、仮想視点に最も近い位置にあるマイクにより集音された音声であっても良い。また、本実施形態では、説明の簡略化のため、部分的に音声についての詳細な説明を省略するが、基本的に音声は画像と共に処理されるものとする。
センサシステム110a〜110zは、それぞれ1台ずつのカメラ112a〜112zを有する。即ち、画像処理システム100は、被写体を複数の方向から撮影するための複数のカメラを有する。複数のセンサシステム110同士は、デイジーチェーンで相互に接続される。この接続形態により、複数のセンサシステム110の接続に使用するケーブル数の削減や配線作業の省力化が可能になる。特に、この接続形態は、撮影画像の4Kや8K等への高解像度化や、高フレームレート化に伴う画像データの大容量化が図られる場合に有効である。
尚、複数のセンサシステム110の接続形態は、デイジーチェーンに限定されない。例えば、スター型のネットワークを用いて良い。スター型のネットワークを用いる場合、全てのセンサシステム110a〜110zがスイッチングハブ180に接続される。この場合、スイッチングハブ180を経由してセンサシステム110a〜110z間のデータ送受信が行われる。
また、図1では、デイジーチェーン接続となるようにセンサシステム110a〜110zの全てがカスケード接続される構成を示した。しかしながら、必ずしも、センサシステム110a〜110zの全てがカスケード接続される必要はない。例えば、複数のセンサシステム110を複数のグループに分割しても良い。このようにする場合、分割したグループ単位でデイジーチェーン接続となるようにセンサシステム110を接続しても良い。また、分割したグループ単位の終端となるカメラアダプタ120をスイッチングハブ180に接続し、スイッチングハブ180が、各カメラ112で撮影された画像を画像コンピューティングサーバ200に出力しても良い。このような構成は、画像処理システム100をスタジアムに適用する場合に特に有効である。例えば、スタジアムが複数のフロアを有し、フロア毎にセンサシステム110を配備する場合が考えられる。このような場合に前述した構成を採用すれば、例えば、フロア毎、或いは、スタジアムの半周毎に、カメラ112で撮影された画像を画像コンピューティングサーバ200へ入力することが出来る。従って、全てのセンサシステム110を1つのデイジーチェーンで接続する配線が困難な場所でも、センサシステム110の設置の簡便化と、システムの柔軟化とを図ることが出来る。
また、デイジーチェーンで接続されて画像コンピューティングサーバ200へ画像を出力するカメラアダプタ120が1つであるか2つ以上であるかに応じて、画像コンピューティングサーバ200での画像処理の制御が切り替えられる。即ち、センサシステム110が複数のグループに分割されているか否かに応じて、画像コンピューティングサーバ200での画像処理の制御が切り替えられる。画像コンピューティングサーバ200へ画像を出力するカメラアダプタ120が1つの場合、デイジーチェーンで接続されたセンサシステム110間で画像が伝送され、終端のカメラアダプタ120から画像コンピューティングサーバ200に画像が伝送される。そして、画像コンピューティングサーバ200で競技場の全周の画像が生成される。このため、画像コンピューティングサーバ200において競技場の全周の画像データが揃うタイミングは同期がとられている。即ち、センサシステム110がグループに分割されていなければ、画像コンピューティングサーバ200において必要な画像データが揃うタイミングの同期をとることが出来る。
一方、画像コンピューティングサーバ200へ画像を出力するカメラアダプタ120が複数になる(センサシステム110がグループに分割される)場合、其々のデイジーチェーンのレーン(経路)によって、伝送時の画像データの遅延が異なる場合がある。そのため、画像コンピューティングサーバ200は、競技場の全周の画像データが揃うまで待って、各画像データの同期をとることによって、画像データの集結をチェックしながら後段の画像処理を行う必要がある。
本実施形態では、センサシステム110aは、マイク111a、カメラ112a、雲台113a、外部センサ114a、およびカメラアダプタ120aを有する。尚、センサシステム110aの構成は、この構成に限定されない。センサシステム110aは、少なくとも1台のカメラアダプタ120aと、少なくとも1台のカメラ112aとを有していれば良い。例えば、センサシステム110aは、1台のカメラアダプタ120aと、複数のカメラ112aとで構成されても良いし、1台のカメラ112aと複数のカメラアダプタ120aとで構成されても良い。即ち、画像処理システム100a内の少なくとも1つのカメラ112aと少なくとも1つのカメラアダプタ120aは、N対M(NとMは共に1以上の整数)で対応する。また、センサシステム110aは、マイク111a、カメラ112a、雲台113a、およびカメラアダプタ120a以外の装置を含んでいても良い。また、カメラ112aとカメラアダプタ120aとが同一筐体で一体となって構成されていても良い。更に、カメラアダプタ120aの機能の少なくとも一部をフロントエンドサーバ230が有していても良い。本実施形態では、センサシステム110b〜110zの構成は、センサシステム110aの構成と同じであるので、センサシステム110b〜110zの詳細な説明を省略する。尚、センサシステム110b〜110zは、センサシステム110aと同じ構成に限定されず、其々のセンサシステム110が異なる構成でも良い。
カメラ112aにて撮影された画像は、カメラアダプタ120aにおいて後述の画像処理が施された後、ネットワーク170aを介してセンサシステム110bのカメラアダプタ120bに伝送される。マイク111aにて集音された音声も、ネットワーク170aを介してセンサシステム110bのカメラアダプタ120bに伝送される。センサシステム110bは、マイク111bにて集音された音声と、カメラ112bにて撮影された画像とを、センサシステム110aから取得した画像および音声と合わせてセンサシステム110cに伝送する。
センサシステム110c〜110zでも前述した動作を続ける。これにより、センサシステム110a〜110zで取得された画像および音声は、センサシステム110zからネットワーク180bを介してスイッチングハブ180に伝送され、スイッチングハブ180から画像コンピューティングサーバ200へ伝送される。
尚、本実施形態では、カメラ112a〜112zとカメラアダプタ120a〜120zとが分離された構成を例に挙げて示す。しかしながら、前述したようにこれらは、同一筺体で一体化されていても良い。その場合、マイク111a〜111zは、カメラアダプタ120a〜120zと一体化されたカメラ112a〜112zに内蔵されていても良いし、カメラ112a〜112zの外部に接続されていても良い。
次に、画像コンピューティングサーバ200の構成および動作の一例について説明する。本実施形態の画像コンピューティングサーバ200は、センサシステム110zから取得したデータの処理を行う。画像コンピューティングサーバ200は、フロントエンドサーバ230、データベース250、バックエンドサーバ270、およびタイムサーバ290を有する。
タイムサーバ290は、時刻および同期信号を配信する機能を有する。タイムサーバ290は、スイッチングハブ180を介してセンサシステム110a〜110zに時刻および同期信号を配信する。時刻および同期信号を受信したカメラアダプタ120a〜120zは、時刻および同期信号に基づいてカメラ112a〜112zにより撮影された画像データをGenlockさせ画像データのフレーム同期を行う。即ち、タイムサーバ290は、複数のカメラ112a〜112zの撮影タイミングを同期させる。これにより、画像処理システム100は、同じタイミングで撮影された複数の画像に基づいて仮想視点画像を生成することが出来るため、撮影タイミングのずれによる仮想視点画像の品質の低下を抑制することが出来る。尚、本実施形態では、タイムサーバ290が複数のカメラ112の時刻同期を管理するものとする。しかしながら、必ずしも、タイムサーバ290が複数のカメラ112の時刻同期を管理する必要はない。例えば、時刻同期のための処理を各カメラ112または各カメラアダプタ120が独立して行っても良い。
フロントエンドサーバ230は、センサシステム110zから取得した画像データおよび音声データから、セグメント化された伝送パケットを再構成してデータ形式を変換する。フロントエンドサーバ230は、データ形式を変換した画像データおよび音声データを、カメラの識別子、データ種別、およびフレーム番号等と関連付けてデータベース250に書き込む。
バックエンドサーバ270は、仮想カメラ操作UI330から仮想的な視点の指定を受け付ける。バックエンドサーバ270は、仮想カメラ操作UI330から受け付けられた視点に基づいて、仮想カメラ操作UI330から受け付けられた視点に対応する画像データおよび音声データをデータベース250から読み出す。バックエンドサーバ270は、データベース250から読み出した画像データおよび音声データに対してレンダリング処理を行って仮想視点画像を生成する。
尚、画像コンピューティングサーバ200の構成はこれに限らない。例えば、フロントエンドサーバ230、データベース250、およびバックエンドサーバ270のうち少なくとも2つが一体となって構成されていても良い。また、フロントエンドサーバ230、データベース250、およびバックエンドサーバ270の少なくとも1つが複数含まれていても良い。また、画像コンピューティングサーバ200内の任意の位置に、前述した装置以外の装置が含まれていても良い。更に、画像コンピューティングサーバ200の機能の少なくとも一部をエンドユーザ端末190や仮想カメラ操作UI330が有していても良い。
レンダリング処理された仮想視点画像は、バックエンドサーバ270からエンドユーザ端末190に送信される。エンドユーザ端末190を操作するユーザは、視点の指定に応じた画像の閲覧および音声の視聴が出来る。即ち、バックエンドサーバ270は、複数のカメラ112により撮影された画像(複数の仮想視点画像)と仮想視点情報とに基づく仮想視点コンテンツを生成する。具体的に、バックエンドサーバ270は、例えば、複数のカメラ112により撮影された画像データから複数のカメラアダプタ120により抽出された所定領域の画像データと、ユーザの操作により指定された視点とに基づいて、仮想視点コンテンツを生成する。そして、バックエンドサーバ270は、生成した仮想視点コンテンツをエンドユーザ端末190に提供する。カメラアダプタ120による所定領域の抽出の詳細については後述する。
本実施形態における仮想視点コンテンツは、仮想的な視点から被写体を撮影した場合に得られる画像としての仮想視点画像を含むコンテンツである。言い換えると、仮想視点画像は、仮想カメラ操作UI330により指定された視点における見えを表す画像であるとも言える。視点は、ユーザにより指定されても良いし、画像解析の結果等に基づいて自動的に指定されても良い。即ち、仮想視点画像には、ユーザが任意に指定した視点に対応する画像(自由視点画像)が含まれる。また、複数の候補からユーザが指定した視点に対応する画像や、装置が自動で指定した視点に対応する画像も、仮想視点画像に含まれる。尚、本実施形態では、仮想視点コンテンツに音声データ(オーディオデータ)が含まれる場合の例を中心に説明するが、仮想視点コンテンツに音声データが含まれていなくても良い。
また、バックエンドサーバ270は、仮想視点画像をH.264やHEVCに代表される標準技術により圧縮符号化したうえで、MPEG−DASHプロトコルを使ってエンドユーザ端末190へ送信しても良い。また、仮想視点画像は、非圧縮でエンドユーザ端末190へ送信されても良い。圧縮符号化を行う前者の手法は、エンドユーザ端末190としてスマートフォンやタブレットを想定している。後者の手法は、エンドユーザ端末190として非圧縮画像を表示可能なディスプレイを想定している。即ち、エンドユーザ端末190の種別に応じて画像フォーマットの切り替えが可能である。また、画像の送信プロトコルはMPEG−DASHに限らず、例えば、HLS(HTTP Live Streaming)やその他の送信方法を用いても良い。
このように、画像処理システム100は、映像収集ドメイン、データ保存ドメイン、および映像生成ドメインという3つの機能ドメインを有する。映像収集ドメインは、センサシステム110a〜110zを含む。データ保存ドメインは、データベース250、フロントエンドサーバ230、およびバックエンドサーバ270を含む。映像生成ドメインは、仮想カメラ操作UI330およびエンドユーザ端末190を含む。尚、画像処理システム100の構成は、このような構成に限定されない。例えば、仮想カメラ操作UI330が直接センサシステム110a〜110zから画像データを取得する事も可能である。しかしながら、本実施形態では、センサシステム110a〜110zから直接画像データを取得する方法ではなく、映像収集ドメインと映像生成ドメインとの間にデータ保存ドメインを配置する。具体的に、フロントエンドサーバ230は、センサシステム110a〜110zで生成された画像データ、音声データ、およびそれらのデータのメタ情報を、データベース250の共通スキーマおよびデータ型に変換する。これにより、センサシステム110a〜110zのカメラ112a〜112zが他機種のカメラに変わっても、カメラの差分をフロントエンドサーバ230が吸収し、他機種のカメラにより撮影された画像データをデータベース250に登録することが出来る。このことによって、カメラ112が他機種のカメラに変わった場合に、仮想カメラ操作UI330が適切に動作しない虞を低減することが出来る。
また、本実施形態では、仮想カメラ操作UI330は、直接データベース250にアクセスせずにバックエンドサーバ270を介してアクセスする。画像生成処理に係わる共通処理をバックエンドサーバ270で行い、操作UIに係わるアプリケーションの差分部分の処理を仮想カメラ操作UI330で行う。このことにより、仮想カメラ操作UI330を開発する際に、UI(ユーザインターフェース)となる操作デバイスや、生成したい仮想視点画像を操作するUIの機能に対する開発に注力する事が出来る。また、バックエンドサーバ270は、仮想カメラ操作UI330からの要求に応じて画像生成処理に係わる共通処理を追加または削除することも可能である。このことによって仮想カメラ操作UI330から要求に柔軟に対応することが出来る。
このように、画像処理システム100においては、被写体を複数の方向から撮影するための複数のカメラ112により撮影された画像データに基づいて、バックエンドサーバ270により仮想視点画像が生成される。尚、本実施形態における画像処理システム100は、前述した物理的な構成に限定される訳ではなく、論理的に構成されていても良い。
本実施形態では、例えば、カメラアダプタ120a〜120zを用いることにより、複数の情報処理装置の一例が実現される。また、仮想カメラ操作UI330は、被写体に対する視点を設定する。また、バックエンドサーバ270は、複数の方向から撮影された複数の撮影画像に含まれる被写体の領域の画像を用いて、仮想カメラ操作UI330により設定された視点から見た場合の当該被写体の画像を生成する。
(カメラアダプタ)
次に、本実施形態におけるカメラアダプタ120の機能ブロックの一例について図2を利用して説明する。図2は、カメラアダプタ120の機能的な構成の一例を示す図である。
カメラアダプタ120は、ネットワークアダプタ6110、伝送部6120、画像処理部6130、および外部機器制御部6140を有する。
ネットワークアダプタ6110は、データ送受信部6111および時刻制御部6112を有する。
データ送受信部6111は、ネットワーク170、291、310aを介して、他のカメラアダプタ120、フロントエンドサーバ230、タイムサーバ290、および制御ステーション310とデータ通信を行う。例えば、データ送受信部6111は、カメラ112により撮影された画像から前景背景分離部6131により分離された前景画像と背景画像とを、別のカメラアダプタ120に対して出力する。前景画像および背景画像の出力先となるカメラアダプタ120は、画像処理システム100内のカメラアダプタ120のうち、データルーティング処理部6122の処理に応じて予め定められた順序において次の順序のカメラアダプタ120である。各カメラアダプタ120が前景画像と背景画像とを出力することで、複数の視点から撮影された前景画像と背景画像に基づいて仮想視点画像が生成される。尚、撮影画像から分離された前景画像を出力して背景画像を出力しないカメラアダプタ120が存在しても良い。
時刻制御部6112は、例えばIEEE1588規格のOrdinay Clockに準拠し、タイムサーバ290との間で送受信したデータのタイムスタンプを保存する機能と、タイムサーバ290と時刻同期を行う機能とを有する。尚、時刻同期のためのプロトコルは、IEEE1588に限定されず、例えば、他のEtherAVB規格や、独自のプロトコルでも良い。本実施形態では、ネットワークアダプタ6110としてNIC(Network Interface Card)を利用するが、ネットワークアダプタ6110は、NICに限定されず、他のInterfaceを利用しても良い。また、IEEE1588は、IEEE1588−2002、IEEE1588−2008のように標準規格として更新されている。後者は、PTPv2(Precision Time Protocol Version2)とも呼ばれる。
伝送部6120は、ネットワークアダプタ6110を介してスイッチングハブ180等に対するデータの伝送を制御する機能を有し、以下の機能部を有する。
データ圧縮・伸張部6121は、データ送受信部6111を介して送受信されるデータに対して所定の圧縮方式、圧縮率、およびフレームレートを適用した圧縮を行う機能と、圧縮されたデータを伸張する機能とを有する。
データルーティング処理部6122は、後述するデータルーティング情報保持部6125が保持するデータを利用し、データ送受信部6111が受信したデータおよび画像処理部6130で処理されたデータのルーティング先を決定する機能を有する。また、データルーティング処理部6122は、決定したルーティング先へデータを送信する機能を有する。データルーティング処理部6122は、自身が属するカメラアダプタ120に対応するカメラ112と同一の注視点にフォーカスされたカメラ112に対応するカメラアダプタ120をルーティング先として決定するのが好ましい。これらのカメラ112で撮影される画像はフレーム相関が高いため、このようにしてルーティング先を決定することが画像処理を行う上で好適だからである。複数のカメラアダプタ120それぞれのデータルーティング処理部6122によるルーティング先の決定に応じて、前景画像や背景画像をリレー形式で出力するカメラアダプタ120の順序が定まる。
時刻同期制御部6123は、IEEE1588規格のPTP(Precision Time Protocol)に準拠し、タイムサーバ290と時刻同期に係わる処理を行う機能を有する。尚、時刻同期を行うためのプロトコルは、PTPに限定されず、他の同様のプロトコルを利用して時刻同期を行っても良い。
画像・音声伝送処理部6124は、画像データおよび音声データを、データ送受信部6111を介して他のカメラアダプタ120またはフロントエンドサーバ230へ転送するためのメッセージを作成する機能を有する。メッセージには、画像データおよび音声データと、各データのメタ情報とが含まれる。本実施形態のメタ情報には、画像の撮影をした時および音声のサンプリングをした時のタイムコードまたはシーケンス番号と、データ種別と、カメラ112、マイク111の個体を示す識別子等が含まれる。尚、画像・音声伝送処理部6124により送信される画像データおよび音声データは、データ圧縮・伸張部6121でデータ圧縮されていても良い。
また、画像・音声伝送処理部6124は、他のカメラアダプタ120からデータ送受信部6111を介してメッセージを受け取る。そして、画像・音声伝送処理部6124は、他のカメラアダプタ120から受け取ったメッセージに含まれるデータ種別に応じて、伝送プロトコルに規定されるパケットサイズにフラグメントされたデータ情報を画像データ、音声データに復元する。尚、データを復元した際にデータが圧縮されている場合、データ圧縮・伸張部6121が当該データに対する伸張処理を行う。
データルーティング情報保持部6125は、データ送受信部6111で送受信されるデータの送信先を決定するためのアドレス情報を保持する機能を有する。
画像処理部6130は、カメラ制御部6141の制御によりカメラ112が撮影した画像データ、および他のカメラアダプタ120から受け取った画像データに対して処理を行う機能を有し、以下の機能部を有する。
前景背景分離部6131は、カメラ112が撮影した画像データを前景画像と背景画像とに分離する機能を有する。即ち、前景背景分離部6131は、自身が属するカメラアダプタ120に対応するカメラ112により撮影された画像データから所定領域を抽出する。所定領域は、例えば、撮影画像に対するオブジェクトの検出結果として得られる前景画像の領域である。前景背景分離部6131は、この所定領域の抽出結果に基づいて、撮影画像を前景画像と背景画像とに分離する。尚、オブジェクトとは、例えば、人物などの被写体である。ただし、オブジェクトは、特定人物(選手、監督、及び/又は審判等)であっても良いし、ボールやゴール等、画像パターンが予め定められている物体であっても良い。また、オブジェクトとして、動体が検出されるようにしても良い。人物等の重要なオブジェクトを含む前景画像と、そのようなオブジェクトを含まない背景領域とを分離して処理することで、画像処理システム100において生成される仮想視点画像のオブジェクトに該当する部分の画像の品質を向上することが出来る。また、前景領域と背景領域との分離を複数のカメラアダプタ120それぞれが行うことで、複数のカメラ112を備えた画像処理システム100における負荷を分散させることが出来る。尚、所定領域は、前景画像に限定されず、例えば、背景画像であっても良い。
三次元情報処理部6132は、前景背景分離部6131で分離された前景画像と、他のカメラアダプタ120から受け取った前景画像と、制御ステーション310が有する撮影空間情報と、を用いて、三次元的画像情報処理を行う機能を有する。三次元的画像情報処理には、例えば、ステレオマッチング等が利用される。
画質調整部6133は、前景背景分離部6131で分離された前景画像および背景画像の少なくとも何れか一方の画質を調整する機能を有する。画質とは、例えば、解像度、色階調、コントラスト、彩度、輝度、および明度の少なくとも何れか1つである。
キャリブレーション制御部6134は、キャリブレーションに必要な画像データを、カメラ制御部6141を介してカメラ112から取得し、キャリブレーションに係わる演算処理を行うフロントエンドサーバ230に送信する機能を有する。尚、本実施形態では、キャリブレーションに係わる演算処理をフロントエンドサーバ230で行う場合を例に挙げて説明する。しかしながら、当該演算処理を行うノードはフロントエンドサーバ230に限定されない。例えば、制御ステーション310やカメラアダプタ120(他のカメラアダプタ120を含む)等、他のノードで当該演算処理が行われても良い。また、キャリブレーション制御部6134は、カメラ制御部6141を介してカメラ112から取得した画像データに対して、予め設定されたパラメータに応じて撮影中のキャリブレーション(動的キャリブレーション)を行う機能を有する。
外部機器制御部6140は、カメラアダプタ120に接続される機器を制御する機能を有し、以下の機能部を有する。
カメラ制御部6141は、カメラ112と接続し、カメラ112の制御、カメラ112で撮影された画像データの取得、同期信号の提供、および時刻設定等を行う機能を有する。
カメラ112の制御には、例えば、撮影パラメータ(画素数、色深度、フレームレート、およびホワイトバランスの設定等)の設定および参照が含まれる。さらに、カメラ112の制御には、カメラ112の状態(撮影中、停止中、同期中、およびエラー等)の取得と、撮影の開始および停止と、ピント調整等が含まれる。尚、取り外し可能なレンズがカメラ112に装着されている場合には、カメラアダプタ120がレンズに接続し、直接レンズの調整を行っても良い。また、カメラアダプタ120がカメラ112を介してズーム等のレンズ調整を行っても良い。
同期信号の提供は、時刻同期制御部6123で得られる、タイムサーバ290と同期した時刻を利用し、撮影タイミング(制御クロック)をカメラ112に提供することで行われる。
時刻設定は、時刻同期制御部6123で得られる、タイムサーバ290と同期した時刻を、例えばSMPTE12Mのフォーマットに準拠したタイムコードで提供することで行われる。これにより、カメラ112から受け取る画像データに、カメラ制御部6141から提供されるタイムコードが付与されることになる。尚、タイムコードのフォーマットはSMPTE12Mに限定されず、他のフォーマットであっても良い。また、カメラ制御部6141は、カメラ112に対するタイムコードの提供をせず、カメラ112から受け取った画像データに自身がタイムコードを付与しても良い。
マイク制御部6142は、マイク111と接続し、マイク111の制御と、マイク111での収音の開始および停止と、マイク111で収音された音声データの取得等を行う機能を有する。
マイク111の制御には、例えば、ゲイン調整や、マイク111の状態の取得等が含まれる。また、マイク制御部6142は、音声データをサンプリングするタイミングとタイムコードをマイク111に対して提供する。例えば、タイムサーバ290からの時刻情報が例えば48KHzのワードクロックに変換されてマイク111に供給されることにより、音声データのサンプリングのタイミングとなるクロック情報がマイク111に供給される。
雲台制御部6143は、雲台113と接続し、雲台113の制御を行う機能を有する。雲台113の制御には、例えば、パン・チルト制御や、雲台113の状態の取得等が含まれる。
センサ制御部6144は、外部センサ114と接続し、外部センサ114がセンシングしたセンサ情報を取得する機能を有する。例えば、外部センサ114としてジャイロセンサが利用される場合、センサ制御部6144は、振動を表す情報を取得する。画像処理部6130は、前景背景分離部6131での処理に先立って、センサ制御部6144により取得された振動情報を用いて、振動を抑えた画像データを生成する。例えば、カメラ112が8Kカメラであるとする。この場合、画像処理部6130は、カメラ112で撮影された画像データを、振動情報を考慮して、元の8Kサイズよりも小さいサイズで切り出して、当該カメラ112と隣接する位置に設置されたカメラ112の画像との位置合わせを行う。これにより、画像処理部6130は、建造物の躯体振動が各カメラ112に異なる周波数で伝搬しても、カメラアダプタ120に配備された本機能で、各カメラ112で撮影された画像データの位置合わせを行うことが出来る。その結果、画像処理部6130は、電子的に防振された画像データを生成することが出来、画像コンピューティングサーバ200におけるカメラ112の台数分の位置合わせの処理負荷を軽減する効果が得られる。尚、センサシステム110のセンサは外部センサ114に限定されず、カメラアダプタ120に内蔵されたセンサであっても同様の効果が得られる。
(画像処理部6130)
図3は、カメラアダプタ120内部の画像処理部6130の機能的な構成の一例を示す図である。
キャリブレーション制御部6134は、カメラ制御部6141から入力された画像データに対して、色補正処理やブレ補正処理(電子防振処理)等を行う。色補正処理は、カメラ112毎の色のばらつきを抑えるための処理である。ブレ補正処理は、カメラ112の振動に起因するブレに対して画像の位置を安定させるための処理である。
前景背景分離部6131の機能的な構成の一例について説明する。
前景分離部5001は、カメラ112で撮影された画像データであって、位置合わせが行われた画像データと、背景画像5002とを比較した結果に基づいて、当該画像データから前景画像を分離する。背景更新部5003は、背景画像5002と、カメラ112で撮影された画像データであって、位置合わせが行われた画像データとを用いて新しい背景画像を生成し、背景画像5002を新しい背景画像に更新する。背景切出部5004は、背景画像5002の一部を切り出す制御を行う。背景切出部5004は、切り出した背景画像5002に対する画質調整が必要である場合、当該背景画像5002を画質調整部6133に出力し、そうでない場合、当該背景画像5002を伝送部6120に出力する。
次いで三次元情報処理部6132の機能的な構成の一例について説明する。
三次元モデル情報受信部5005は、仮想視点画像を得るためにフロントエンドサーバ230内で生成される三次元モデルに関する情報を制御ステーション310から受信する。当該受信する情報の一つは、画像処理システム100が有する全てのカメラ112の全共通被写範囲を表す三次元データである。即ち、全てのカメラ112の全共通被写範囲を表す三次元データは、全てのカメラ112が撮影可能な被写空間(被写界)の乗算(論理積の演算)を行うことにより求められる空間である。全共通被写範囲は、カメラ112に固有の内部パラメータ(焦点距離、画像中心、およびレンズ歪みパラメータ等)と、カメラ112の位置姿勢を表す外部パラメータ(回転行列および位置ベクトル等)とに依存する。全共通被写範囲は、制御ステーション310にて算出される。尚、カメラ112の内部パラメータおよび外部パラメータの変更が撮影中に生じた場合、全共通被写範囲は、随時制御ステーション310にて再計算される。
他カメラ前景受信部5006は、他のカメラアダプタ120で画像データから分離された前景画像を受信する。
前景位置判定部5007は、前景分離部5001で分離された前景画像と、他のカメラアダプタ120で画像データから分離された前景画像とを用いて、ステレオマッチングの原理等を用い、前景画像が被写空間のどのエリアに存在する画像かを判定する。前景位置判定部5007は、この判定の結果に基づいて、前景画像をそのまま伝送部6120に送信する処理と、画質調整部6133に送信する処理と、どちらにも送信しない処理(即ち前景画像データを削除する処理)と、の何れかの処理を行う。前景位置判定部5007で行われる処理の一例の詳細については後述する。
本実施形態では、例えば、ステレオマッチングの原理等を用いて、前景画像が被写空間のどのエリアに存在する画像かを判定することにより、複数の撮影画像に含まれる被写体の画像を用いて、当該被写体の実空間における位置を特定する。また、上接カメラで得られる前景画像と自カメラで得られる前景画像とのマッチングする範囲の三次元座標を算出することにより、前記複数の撮影画像に含まれる被写体の画像を用いて、当該被写体の領域の画像の三次元座標を導出する。
画質調整部6133は、前景位置判定部5007、背景切出部5004により伝送前に画質調整を実行すると判定された前景画像、背景画像を受信する。画質調整部6133は、解像度、色階調、コントラスト、彩度、輝度、および明度等の画質調整を実行し、画質調整した画像データを伝送部6120に送信する。
(伝送調整処理)
以下に、本実施形態の伝送調整処理の一例を、具体例を用いて説明する。
図4は、全共通被写範囲の一例を示す平面図である。図4は、フィールド400と、その周囲の或る高さ位置に設置された8台のカメラ112a〜112hとを、上方から見た様子の概略を示す。カメラ112a〜112hの光軸中心は、全て共通の注視点6301に向いている。各カメラ112a〜112hは、水平画角θa〜θhとなる焦点距離にそれぞれ設定されている。また、フィールド400上にはオブジェクトP〜Uが存在する。ここでは、説明を簡単にするために、オブジェクトP〜Uが立方体の物体であるものとする。図4において、全てのカメラ112a〜112hの全共通被写範囲は、全共通被写範囲Aになる。図5は、全共通被写範囲の一例を示す斜視図である。図5では、図4に示すフィールド400を俯瞰した様子の概略を示す。図5に示すように、全共通被写範囲Aは、実際には、三次元の多面体の領域である。
全共通被写範囲Aの内側に存在するオブジェクトR、Sの全ての面は、カメラ112a〜112hのうち2台以上のカメラで撮影される。このため、カメラ112a〜112hから得られる、オブジェクトR、Sに対応する前景画像をフロントエンドサーバ230に集結する。従って、フロントエンドサーバ230は、ステレオマッチングの原理を用いることで、360°どこから見ても欠落のないオブジェクトR、Sの三次元モデルを生成することが可能である。一方、全共通被写範囲Aの外側に存在するオブジェクトP、Q、T、Uには、一台のカメラからしか撮影されない面が存在する。換言すると、全共通被写範囲Aの外側に存在するオブジェクトP、Q、T、Uは、カメラ112a〜112hのうち少なくとも一台において撮影可能な範囲に存在しない。従って、オブジェクトP、Q、T、Uについては、或る視点から見た場合に欠落のある三次元モデルしか生成されない。本実施形態では、三次元モデルが確実に不完全となる範囲、即ち、全共通被写範囲Aの外側に存在するオブジェクトに対応する前景画像を各カメラアダプタ120で随時判定し、他のカメラアダプタ120に伝送しない。このようにすることで、デイジーチェーン接続を行う場合のデータの伝送負荷を低減することが出来る。
図6は、図4に示した8台のカメラ112a〜112hのうち、デイジーチェーンの上流側にある3台のカメラ112a〜112cだけを取り出して示す図である。図7(a)〜(c)は、それぞれ、カメラ112a、112b、112cで撮影された画像データから得られる、背景画像を分離した後の前景画像の一例を示す図である。図7(a)〜(c)では、画像間でのオブジェクトの共通面を識別するため、各オブジェクトP〜Uの図6における左側の面に丸印を描き加えている。また、図8は、三次元情報処理部6132により実行される伝送調整処理の一例を説明するフローチャートである。尚、以下では、デイジーチェーンにおいて連続する3台のカメラを、デイジーチェーンの上流側から上接カメラ、自カメラ、下接カメラと称する。
まず、デイジーチェーンの最上流のカメラアダプタ120aについては、図8のフローチャートによる処理を実行せずに、データ送受信部6111は、全ての前景画像を下接カメラであるカメラ112cに伝送する(図7(a)を参照)。2台目のカメラ112bにおける前景位置判定部5007は、上接カメラであるカメラ112aで撮影された画像データから得られる前景画像と自カメラであるカメラ112bで撮影された画像データから得られる前景画像とを比較する。前景位置判定部5007は、この比較の結果に基づいて、これらの前景画像間の対応点のマッチングを行う。尚、上接カメラであるカメラ112aで撮影された画像データから得られる前景画像は、他カメラ前景受信部5006で受信される。また、以下の説明では、上接カメラで撮影された画像データから得られる前景画像を、必要に応じて上接カメラで得られる前景画像と称し、自カメラで撮影された画像データから得られる前景画像を、必要に応じて自カメラで得られる前景画像と称する。
本実施形態では、前景位置判定部5007は、上接カメラで得られる前景画像と、自カメラで撮影された画像データから得られる前景画像とを取得することにより、撮影画像に含まれる被写体の領域の画像を取得する。また、例えば、前景画像は、被写体の領域の画像の一例である。また、例えば、上接カメラで得られる前景画像と、自カメラで得られる前景画像は、複数の方向から撮影された複数の撮影画像に含まれる被写体の領域の画像の一例である。また、例えば、上接カメラであるカメラ112aに対応するカメラアダプタ120aは、予め決められた順序において当該情報処理装置の1つ前の順序になる前記情報処理装置の一例である。また、下接カメラであるカメラ112cに対応するカメラアダプタ120cは、予め決められた順序において当該情報処理装置の次の順序になる前記情報処理装置の一例である。
前景位置判定部5007は、上接カメラであるカメラ112aで得られる前景画像と自カメラであるカメラ112bで得られる前景画像とのマッチングする範囲を判定する(S1001)。これらの前景画像のうち、マッチングする範囲については、S1002の処理が実行され、マッチングしない範囲については、S1006の処理が実行される。即ち、自カメラで得られる前景画像と、上接カメラで得られる前景画像とに、マッチングする範囲とマッチングしない範囲とが含まれる場合、これらの前景画像については、S1002以降の処理と、S1006以降の処理との双方の処理が行われる。
S1002において、前景位置判定部5007は、ステレオマッチングの原理を用いて、上接カメラで得られる前景画像と自カメラで得られる前景画像とのマッチングする範囲の三次元座標を算出する(S1002)。
次に、前景位置判定部5007は、S1002で得られた三次元座標に基づいて、上接カメラで得られる前景画像と自カメラで得られる前景画像とのマッチングする範囲が、全共通被写範囲Aの内側にあるか否かを判定する(S1003)。全共通被写範囲Aは、制御ステーション310から受信されるものである。
この判定の結果、上接カメラで得られる前景画像と自カメラで得られる前景画像とのマッチングする範囲が全共通被写範囲Aの内側にある場合(S1003でYesの場合)、前景位置判定部5007は、次の処理を行う。即ち、前景位置判定部5007は、上接カメラで得られる前景画像と自カメラで得られる前景画像とのマッチングする範囲を、下接カメラであるカメラ112cに対応するカメラアダプタ120cへ伝送すると決定する(S1004)。
本実施形態では、前景位置判定部5007は、S1004において、少なくとも2つの撮影装置における被写範囲の共通領域に被写体の領域がある場合、前記撮影画像に含まれる当該被写体の領域の画像を伝送する。
一方、上接カメラで得られる前景画像と自カメラで得られる前景画像とのマッチングする範囲が全共通被写範囲Aの内側にない場合(S1003でNoの場合)、前景位置判定部5007は、次の処理を行う。即ち、前景位置判定部5007は、上接カメラで得られる前景画像の、自カメラで得られる前景画像とマッチングする範囲が、全共通被写範囲Aの内側にない場合、当該範囲の画像を伝送しないと決定する(S1005)。また、前景位置判定部5007は、自カメラで得られる前景画像の、上接カメラで得られる前景画像とマッチングする範囲が、全共通被写範囲Aの内側にない場合、当該範囲の画像を伝送すると決定する(S1005)。ただし、前景位置判定部5007は、当該範囲の画像の伝送を、下接カメラであるカメラ112cに対応するカメラアダプタ120cまでに制限する(S1005)。
この時点で、自カメラで得られる前景画像の、上接カメラで得られる前景画像とマッチングする範囲であって、全共通被写範囲Aの内側にない範囲の画像を非伝送としてもよい。しかしながら、本実施形態では、下接カメラであるカメラ112cに対応するカメラアダプタ120cまでは、当該画像を伝送する。このようにすれば、下接カメラにおける前景画像の対応点のマッチング探索の精度を維持することが出来るからである。ただし、当該画像は、下接カメラであるカメラ112cよりも下流側にあるカメラ112d〜112hに対応するカメラアダプタ120d〜120hには伝送されない。具体的に、カメラアダプタ120cの前景位置判定部5007は、当該画像をカメラアダプタ120dに伝送しないと決定する。なお、S1005において、カメラアダプタ120は、全共通被写範囲Aの内側にない前景画像を圧縮やリサイズして伝送してもよい。このように、全共通被写範囲Aの内側にない前景画像のデータ量を削減して伝送することによる伝送の制限を行うことで、システムの伝送負荷を抑えつつ、より広い範囲で被写体が存在する仮想視点画像を生成することができる。
本実施形態では、前景位置判定部5007は、S1003〜S1005において、前記被写体の実空間における位置に基づいて、前記撮影画像に含まれる当該被写体の領域の画像を含むデータの伝送を制御する。前景位置判定部5007は、S1005において、前記撮影画像に含まれる当該被写体の領域の画像を伝送しないことと、前記撮影画像に含まれる当該被写体の領域の画像の伝送先を制限することとの何れかを、当該撮影画像を撮影した撮影装置に応じて選択する。
一方、上接カメラであるカメラ112aで得られる前景画像と自カメラであるカメラ112bで得られる前景画像との、マッチングしない範囲については、S1006の処理が行われる。即ち、前景位置判定部5007は、上接カメラであるカメラ112aで得られる前景画像と自カメラであるカメラ112bで得られる前景画像とに対し、非マッチング回数nに1を加算する(S1006)。非マッチング回数nの初期値は0(ゼロ)である。
本実施形態では、例えば、非マッチング回数により計数値の一例が実現される。また、前景位置判定部5007は、S1006において、前記撮影画像に含まれる被写体の領域の画像が、当該撮影画像と異なる前記撮影画像に含まれる被写体の領域の画像とマッチングしない場合、当該マッチングしない画像に対する計数値を更新する。
次に、前景位置判定部5007は、上接カメラであるカメラ112aで得られる前景画像と自カメラであるカメラ112bで得られる前景画像との、マッチングしない範囲に対する非マッチング回数nを判定する(S1007)。上接カメラであるカメラ112aで得られる前景画像と自カメラであるカメラ112bで得られる前景画像との、マッチングしない範囲のうち、非マッチング回数nが2となる範囲については、S1008の処理が行われる。一方、上接カメラであるカメラ112aで得られる前景画像と自カメラであるカメラ112bで得られる前景画像との、マッチングしない範囲のうち、非マッチング回数nが2でない範囲(1である範囲)については、S1004の処理が行われる。
S1008において、前景位置判定部5007は、次の処理を行う。即ち、前景位置判定部5007は、上接カメラであるカメラ112aで得られる前景画像と自カメラであるカメラ112bで得られる前景画像との、マッチングしない範囲のうち、非マッチング回数nが2となる範囲を伝送しないと決定する(S1008)。
本実施形態では、例えば、S1008が、前記マッチングしない画像に対する前記計数値が所定値よりも大きい場合、当該画像を伝送しないと決定することの一例である。なお、カメラアダプタ120は、S1006及びS1007の処理を行わず、上接カメラで得られる前景画像と自カメラで得られる前景画像とでマッチングしないすべての前景画像の伝送を制限する構成としてもよい。
一方、処理がS1004に進むと、前景位置判定部5007は、次の処理を行う。即ち、前景位置判定部5007は、上接カメラであるカメラ112aで得られる前景画像と自カメラであるカメラ112bで得られる前景画像との、マッチングしない範囲のうち、非マッチング回数nが2でない範囲を伝送すると決定する(S1004)。ここでは、カメラ112a、112bの2台のみについてしか処理を行っていないため、非マッチング回数nが2となることはない。よって、上接カメラであるカメラ112aで得られる前景画像と自カメラであるカメラ112bで得られる前景画像との、マッチングしない範囲の全てが伝送される。
本実施形態では、例えば、S1004が、前記マッチングしない画像に対する前記計数値が所定値よりも小さい場合、当該画像を伝送すると決定することの一例である。また、例えば、S1004、S1007、S1008により、前記マッチングしない画像に対する前記計数値に基づいて、当該画像を含むデータの伝送を制御することの一例が実現される。また、例えば、S1001〜S1008により、前記複数の撮影画像に含まれる被写体の領域の画像がマッチングするか否かに基づいて、前記撮影画像に含まれる当該被写体の領域の画像を含むデータの伝送を制御することの一例が実現される。
図9は、下接カメラへ伝送されるオブジェクトの一例を説明する図である。
図9の上段は、図7(a)および図7(b)に示す前景画像に対してS1001〜S1007の処理を実行した結果を示す。図9の上段の左側は、図7(a)に対応し、図9の上段の右側は、図7(b)に対応する。図9の上段において、全共通被写範囲Aの内側と判定されて下接カメラであるカメラ112cへの伝送が決定される前景画像の範囲は、黒塗りの範囲となる。また、図9の上段において、全共通被写範囲Aの外側と判定されて下接カメラであるカメラ112cまでのみを限定して伝送される前景画像の範囲は、縦縞の範囲である。また、図9の上段において、非伝送となる前景画像は、破線で囲まれた範囲となる。また、図9の上段において、非マッチング回数nが1であることにより伝送される前景画像の範囲は、斜線の範囲となる。
続く3台目のカメラ112cにおいて、上接カメラをカメラ112bとし、自カメラをカメラ112cとして、自カメラをカメラ112bとする場合と同様に図8のフローチャートによる処理を実行した結果を、図9の下段に示す。図9の下段の左側は、図7(b)に対応し、図9の下段の右側は、図7(c)に対応する。図9の下段における面の塗り分けは、図9の上段における面の塗り分けと同じである。ここで、図9の下段の左側において、破線の斜線となっているオブジェクトQの面は、カメラ112bにしか写りこんでいないため、非マッチング回数nが2となり、非伝送と決定された面である。
また、2台目のカメラ112bが自カメラである時点では、オブジェクトUは、全共通被写範囲Aの外側であるが、下接カメラであるカメラ112cまでのみ伝送するとしたオブジェクトである。このオブジェクトUの前景画像の一部の範囲(図9の上段の右側の縦縞の範囲)は、3台目のカメラ112cが自カメラである時点で、自カメラであるカメラ112cで得られる前景画像とマッチングせず、非伝送と決定される。従って、このオブジェクトUの前景画像の一部の範囲(図9の上段の右側の縦縞の範囲)は、4台目のカメラ以降には伝送されない。もし、自カメラであるカメラ112cで得られる前景画像の前方に別のオブジェクトや障害物が存在する等してオブジェクトUが写っておらず、当該前景画像と上接カメラで得られる前景画像との対応点のマッチングが取れなかったとする。このような場合にも、以降のカメラ112d〜112hには被写オブジェクトUの前景画像は伝送されない。
ここで、図9の下段の左側に注目する。全共通被写範囲Aの内側に存在するオブジェクトR、Sの前景画像のみが伝送対象として残る。一方、全共通被写範囲Aの外側に位置する被写オブジェクトQ、T、Uの前景画像は非伝送となる。このように、デイジーチェーンにおいて連続する3台のカメラ112間で、前景画像を上流から下流に向かって伝送する中で、前後のカメラで得られる前景画像を比較し、全共通被写範囲Aにあるか否かの判定と非マッチング回数nのカウントとを行う。このようにすることにより、全共通被写範囲Aの内側に存在するオブジェクトの前景画像のみを選別して伝送することが可能である。尚、デイジーチェーンの1台目のカメラ112aで得られる前景画像については、カメラ112aを自カメラとし、デイジーチェーンの終端に位置するカメラ112hを上接カメラとすることで、フロントエンドサーバ230において、位置の判定が可能になる。
以上のように本実施形態では、デイジーチェーン接続において連続する2つのカメラ(自カメラ、上接カメラ)で得られる前景画像の範囲のうち、相互にマッチングし、且つ、全共通被写範囲Aの内側にある範囲を、下流側のカメラ(下接カメラ)に伝送する。また、連続する2つのカメラ(自カメラ、上接カメラ)で得られる前景画像の、相互にマッチングする範囲のうち、全共通被写範囲Aの外側にある範囲については、以下のようにして伝送の要否を決定する。即ち、自カメラで得られる前景画像の範囲を伝送し、上接カメラで得られる前景画像の範囲を伝送しない。また、非マッチング回数nが1になる前景画像の範囲については、下流側のカメラ(下接カメラ)に伝送するが、非マッチング回数nが2になる前景画像の範囲については、下流側のカメラ(下接カメラ)に伝送しない。従って、複数の視点で撮影された画像を用いて被写体の画像(三次元モデル)を生成するに際し、前景画像を的確に抽出し、当該前景画像の位置に応じて画質を最適化しながら伝送負荷を低減することが可能になる。
<第2の実施形態>
次に、第2の実施形態を説明する。第1の実施形態では、連続する2つのカメラ(自カメラ、上接カメラ)で得られる前景画像の、相互にマッチングする範囲のうち、全共通被写範囲Aの外側にある範囲であって、上接カメラで得られる前景画像の範囲を伝送しない。これに対し、本実施形態では、このような前景画像の範囲のデータ量を低減してから伝送する。このように本実施形態と第1の実施形態とは、連続する2つのカメラ(自カメラ、上接カメラ)で得られる前景画像の、相互にマッチングする範囲のうち、全共通被写範囲Aの外側にある範囲についての処理が主として異なる。従って、本実施形態の説明において、第1の実施形態と同一の部分については、図1〜図9に付した符号と同一の符号を付す等して詳細な説明を省略する。
図10は、三次元情報処理部6132により実行される伝送調整処理の一例を説明するフローチャートである。図11は、下接カメラへの伝送されるオブジェクトの一例を説明する図である。図10において、図8のフローチャートと同一の処理を行うステップについては、図8に付した符号と同一の符号を付している。また、図11における面の塗り分けは、図9における面の塗り分けと同じである。従って、これらの詳細な説明を省略する。
本実施形態では、前景位置判定部5007は、以下の処理を行う。即ち、前景位置判定部5007は、自カメラにより得られる前景画像の、上接カメラにより得られる前景画像とマッチングする範囲のうち、全共通被写範囲Aの外側の範囲の画像を、画質を下げてから伝送すると決定する(S2005)。ここで、画質を下げることは、画質調整部6133にて実行される。また、画質を下げることは、例えば、解像度を下げること、色階調数を下げること、コントラストを下げること、カラー画像をモノクロ化すること等により実現される。尚、S2005でも図8のS1005と同様、前景位置判定部5007は、自カメラで得られる前景画像の、上接カメラで得られる前景画像とマッチングする範囲が、全共通被写範囲Aの内側にない場合、当該範囲の画像を伝送すると決定する。下接カメラにおける前景画像の対応点のマッチング探索の精度を維持するためである。ただし、当該範囲の画像は、下接カメラよりも下流側にあるカメラ112dに対応するカメラアダプタ120には伝送されない。
本実施形態では、前景位置判定部5007は、S2005において、少なくとも2つの撮影装置における被写範囲の共通領域に被写体の領域がない場合、前記撮影画像に含まれる当該被写体の領域の画像を、当該画像のデータ量を少なくして伝送すると決定する。また、S2005において、少なくとも2つの撮影装置における被写範囲の共通領域に被写体の領域がない場合、前記撮影画像に含まれる当該被写体の領域の画像の伝送先を制限すると決定される。
図7に示した前景画像に対して図10のフローチャートによる処理を適用しながらフロントエンドサーバ230まで伝送することにより得られる前景画像を図11に示す。ここでは、フロントエンドサーバ230が、1台目のカメラ112aで得られる画像に対して、終端に位置するカメラ112hで得られる前景画像を用いて図10のフローチャートによる処理を適用した結果を示す(図11の上段の左側を参照)。図11において、ドット模様で示す範囲は、画質を下げた上で伝送される範囲である。図11に示すように、全共通被写範囲Aの外側にあるが、対応点のマッチングがとれ、且つ、三次元座標の算出が可能なオブジェクトT、Uの前景画像については画質を下げて伝送される。
一方、オブジェクトTの、図4の上側および右側の面は、カメラ112gからしか撮影されない。また、オブジェクトUの、図4の右側の面は、カメラ112fからしか撮影されない。このため、フロントエンドサーバ230は、これら面の三次元モデルを生成することが出来ない。即ち、フロントエンドサーバ230には、オブジェクトT、Uの略半分のみの低画質のモデルが存在することになる。そのような画像データは、360°自由なカメラワークに対応する完全な仮想視点データとは言えない。しかしながら、仮想視点コンテンツの生成において、例えば、前ボケや後ボケ(画像上でコンテンツの注目点となるメインオブジェクトの前後に存在する、大きくボケた画像)等を表現するためには利用可能である。メインオブジェクトの画質が保たれているなかで、その周囲のオブジェクトの画像がボケた画像であれば、(そのモデルの一部が欠落していても)視聴者に違和感を与えることや画質の低下を感じさせることを抑制することが出来る。
一方、図11の上段において、被写オブジェクトP、Qの、図11に示す面は非伝送となる。これら面は、それぞれ、カメラ112a、112bの1台にしか写りこんでいないため、非マッチング回数nが2となり、非伝送と決定される。これらの面は、フロントエンドサーバ230まで伝送したとしてもステレオマッチングによる三次元モデル化が出来ない。このため、伝送負荷の低減効果の向上のため、第1の実施形態と同様に非伝送とするのが好ましい。こうして、フロントエンドサーバ230には、図11の下段に示すようなオブジェクトR、S、T、Uが伝送される。ただし、前述したようにオブジェクトT、Uは、画質が落とされて伝送される。
以上のように本実施形態では、全共通被写範囲Aの外側にあっても、マッチングがとれ、且つ、三次元座標の算出が可能なオブジェクトT、Uの前景画像については画質を下げて伝送する。従って、第1の実施形態で説明した効果に加え、伝送負荷を低減しながらも仮想視点コンテンツの表現の幅を広げることが可能になるという効果が得られる。
本実施形態では、画質を調整することにより伝送負荷を下げる場合を例に挙げて説明した(S2005を参照)。しかしながら、伝送する画像のデータ量を低減することが出来れば、必ずしも画質を下げる必要はない。例えば、該当する前景画像の範囲のデータ圧縮・伸張部6121における圧縮率を上げることにより、伝送負荷を下げてもよい。また、該当する前景画像の範囲のみの伝送フレームレートを下げてもよい。また、これらの制御の少なくとも2つを組み合わせて伝送負荷を下げてもよい。
また、第1、第2の実施形態では、全共通被写範囲Aの内側にある前景画像の範囲を判定する場合を例に挙げて説明した。しかしながら、必ずしも、前景画像の位置の判定をこのようにして行う必要はない。例えば、三次元座標の算出の際の誤差の吸収のため、全共通被写範囲Aを任意の割合で拡大した三次元空間の内側にある前景画像の範囲を判定しても良い。逆に、より限られた範囲の高画質の保持のため、或いは伝送負荷の削減効果を高めるため、全共通被写範囲Aの一部の三次元空間の内側にある前景画像を判定しても良い。また、オブジェクトの三次元モデルに対して要求される完成率、即ち、オブジェクトの表面の何割の三次元モデルを生成するか、の設定に応じて、全数ではない一定数以上のカメラ112の共通被写範囲を算出しても良い。この場合、当該一定数以上のカメラ112の共通被写範囲の内側にある前景画像の範囲を判定することになる。更に、共通被写度(何台のカメラの共通被写範囲か)や、最も注目したい範囲からの距離に応じて、段階的に前景画像の画質調整や圧縮率を調整しても良い。
尚、前述した実施形態は、何れも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明はその技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することが出来る。
(その他の実施例)
本発明は、前述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
110a〜110z:センサシステム、112a〜112z:カメラ、120a〜120z:カメラアダプタ、170a〜170y:ネットワーク

Claims (27)

  1. 撮影画像に含まれる被写体の領域の画像を取得する取得手段と、
    前記被写体の位置に基づいて、前記撮影画像に含まれる当該被写体の領域の画像を含むデータの伝送を制御する制御手段と、を有することを特徴とする情報処理システム。
  2. 前記被写体の実空間における位置を特定する特定手段を更に有し、
    前記取得手段は、複数の方向から撮影された複数の撮影画像に含まれる被写体の領域の画像を取得し、
    前記特定手段は、前記複数の撮影画像に含まれる被写体の画像を用いて、当該被写体の実空間における位置を特定することを特徴とする請求項1に記載の情報処理システム。
  3. 前記特定手段は、前記複数の撮影画像に含まれる被写体の画像を用いて、当該被写体の領域の画像の三次元座標を導出し、導出した前記被写体の領域の画像の三次元座標に基づいて、当該被写体の実空間における位置を特定することを特徴とする請求項2に記載の情報処理システム。
  4. 前記制御手段は、被写界を複数の方向から撮影するための複数の撮影手段のうち、少なくとも2つの撮影手段における被写範囲の共通領域に被写体が位置するか否かに基づいて、前記撮影画像に含まれる当該被写体の領域の画像を含むデータの伝送を制御することを特徴とする請求項1〜3の何れか1項に記載の情報処理システム。
  5. 前記制御手段は、被写界を複数の方向から撮影するための複数の撮影手段のうち、少なくとも2つの撮影手段における被写範囲の共通領域に被写体の領域がある場合、前記撮影画像に含まれる当該被写体の領域の画像を伝送すると決定することを特徴とする請求項4に記載の情報処理システム。
  6. 前記制御手段は、被写界を複数の方向から撮影するための複数の撮影手段のうち、少なくとも2つの撮影手段における被写範囲の共通領域に被写体の領域がない場合、前記撮影画像に含まれる当該被写体の領域の画像を伝送しないと決定することを特徴とする請求項4または5に記載の情報処理システム。
  7. 前記制御手段は、被写界を複数の方向から撮影するための複数の撮影手段のうち、少なくとも2つの撮影手段における被写範囲の共通領域に被写体の領域がない場合、前記撮影画像に含まれる当該被写体の領域の画像を、当該画像のデータ量を少なくして伝送すると決定することを特徴とする請求項4または5に記載の情報処理システム。
  8. 前記画像のデータ量を少なくすることは、前記画像の画質、フレームレート、および圧縮率の少なくとも1つを変更することにより行われることを特徴とする請求項7に記載の情報処理システム。
  9. 前記制御手段は、被写界を複数の方向から撮影するための複数の撮影手段のうち、少なくとも2つの撮影手段における被写範囲の共通領域に被写体の領域がない場合、前記撮影画像に含まれる当該被写体の領域の画像の伝送先を制限すると決定することを特徴とする請求項4または5に記載の情報処理システム。
  10. 前記制御手段は、被写界を複数の方向から撮影するための複数の撮影手段のうち、少なくとも2つの撮影手段における被写範囲の共通領域に被写体の領域がない場合、前記撮影画像に含まれる当該被写体の領域の画像を伝送しないことと、前記撮影画像に含まれる当該被写体の領域の画像の伝送先を制限することとの何れかを、当該撮影画像を撮影した撮影手段に応じて選択することを特徴とする請求項4または5に記載の情報処理システム。
  11. 前記取得手段は、複数の方向から撮影された複数の撮影画像に含まれる被写体の領域の画像を取得し、
    前記制御手段は、前記複数の撮影画像に含まれる被写体の領域の画像がマッチングするか否かに基づいて、前記撮影画像に含まれる当該被写体の領域の画像を含むデータの伝送を制御することを特徴とする請求項1〜10の何れか1項に記載の情報処理システム。
  12. 前記撮影画像に含まれる被写体の領域の画像が、当該撮影画像と異なる前記撮影画像に含まれる被写体の領域の画像とマッチングしない場合、当該マッチングしない画像に対する計数値を更新する更新手段を更に有し、
    前記制御手段は、前記マッチングしない画像に対する前記計数値に基づいて、当該画像を含むデータの伝送を制御することを特徴とする請求項11に記載の情報処理システム。
  13. 前記制御手段は、前記マッチングしない画像に対する前記計数値が所定値よりも大きい場合、当該画像を伝送しないと決定することを特徴とする請求項12に記載の情報処理システム。
  14. 前記制御手段は、前記マッチングしない画像に対する前記計数値が所定値よりも小さい場合、当該画像を伝送すると決定することを特徴とする請求項12または13に記載の情報処理システム。
  15. 前記取得手段と前記制御手段と前記更新手段とをそれぞれが有する複数の情報処理装置を更に有することを特徴とする請求項12〜14の何れか1項に記載の情報処理システム。
  16. 前記情報処理装置が有する前記制御手段は、予め決められた順序において当該情報処理装置の次の順序になる前記情報処理装置への、前記撮影画像に含まれる被写体の領域の画像を含むデータの伝送を制御し、
    前記情報処理装置が有する前記取得手段は、当該情報処理装置に接続される撮影手段により撮影された撮影画像に含まれる前記被写体の領域の画像と、予め決められた順序において当該情報処理装置の1つ前の順序になる前記情報処理装置の前記制御手段による制御に基づいて伝送された前記被写体の領域の画像と、を取得し、
    前記情報処理装置が有する前記更新手段は、当該情報処理装置に接続される撮影手段により撮影された撮影画像に含まれる前記被写体の領域の画像と、予め決められた順序において当該情報処理装置の1つ前の順序になる前記情報処理装置の前記制御手段による制御に基づいて伝送された前記被写体の領域の画像と、がマッチングしない場合、当該画像に対する計数値を更新することを特徴とする請求項15に記載の情報処理システム。
  17. 前記取得手段と前記制御手段とをそれぞれが有する複数の情報処理装置を更に有することを特徴とする請求項1〜11の何れか1項に記載の情報処理システム。
  18. 前記情報処理装置が有する前記制御手段は、予め決められた順序において当該情報処理装置の次の順序になる前記情報処理装置への、前記撮影画像に含まれる被写体の領域の画像を含むデータの伝送を制御し、
    前記情報処理装置が有する前記取得手段は、当該情報処理装置に接続される撮影手段により撮影された撮影画像に含まれる前記被写体の領域の画像と、予め決められた順序において当該情報処理装置の1つ前の順序になる前記情報処理装置の前記制御手段による制御に基づいて伝送された前記被写体の領域の画像と、を取得することを特徴とする請求項17に記載の情報処理システム。
  19. 前記情報処理装置が有する前記制御手段は、被写界を複数の方向から撮影するための複数の撮影手段のうち、少なくとも2つの撮影手段における被写範囲の共通領域に被写体の領域がない場合、当該情報処理装置に接続される撮影手段により撮影された撮影画像に含まれる当該被写体の領域の画像を、予め決められた順序において当該情報処理装置の1つ後の順序になる前記情報処理装置まで送信すると決定することを特徴とする請求項16または18に記載の情報処理システム。
  20. 前記複数の情報処理装置は、デイジーチェーン接続されることを特徴とする請求項15〜19の何れか1項に記載の情報処理システム。
  21. 前記被写体に対する視点を設定する設定手段と、
    複数の方向から撮影された複数の撮影画像に含まれる被写体の領域の画像を用いて、前記設定手段により設定された視点から見た場合の当該被写体の画像を生成する生成手段と、を更に有することを特徴とする請求項1〜20の何れか1項に記載の情報処理システム。
  22. 撮影画像に含まれる被写体の領域の画像を取得する取得工程と、
    前記被写体の位置に基づいて、前記撮影画像に含まれる当該被写体の領域の画像を含むデータの伝送を制御する制御工程と、を有することを特徴とする情報処理方法。
  23. 請求項1〜21の何れか1項に記載の情報処理システムをコンピュータとして機能させることを特徴とするプログラム。
  24. 複数の撮影装置により撮影された撮影画像を用いて仮想視点画像を生成するシステムにおける、前記複数の撮影装置のうちの第1撮影装置により撮影された撮影画像を伝送する装置であって、
    前記第1撮影装置により撮影された撮影画像を取得手段と、
    前記取得手段により取得された撮影画像に含まれる所定の被写体が前記複数の撮影装置のうちの第2撮影装置による撮影範囲に存在しない場合、前記所定の被写体を含む画像の伝送を制限する制御手段と、を有することを特徴とする装置。
  25. 前記制御手段は、前記所定の被写体を含む画像の伝送を行わないことを特徴とする請求項24に記載の装置。
  26. 前記制御手段は、前記所定の被写体を含む画像を、前記複数の撮影装置のうちの第3撮影装置により撮影された撮影画像を伝送する他の装置に伝送し、前記仮想視点画像を生成する他の装置には伝送しないことを特徴とする請求項24に記載の装置。
  27. 前記制御手段は、前記所定の被写体を含む画像の画質を下げて伝送することを特徴とする請求項24に記載の装置。
JP2017094561A 2017-05-11 2017-05-11 情報処理システム、情報処理方法、装置およびプログラム Pending JP2018191236A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017094561A JP2018191236A (ja) 2017-05-11 2017-05-11 情報処理システム、情報処理方法、装置およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017094561A JP2018191236A (ja) 2017-05-11 2017-05-11 情報処理システム、情報処理方法、装置およびプログラム

Publications (1)

Publication Number Publication Date
JP2018191236A true JP2018191236A (ja) 2018-11-29

Family

ID=64479145

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017094561A Pending JP2018191236A (ja) 2017-05-11 2017-05-11 情報処理システム、情報処理方法、装置およびプログラム

Country Status (1)

Country Link
JP (1) JP2018191236A (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09116892A (ja) * 1995-10-20 1997-05-02 Fujitsu General Ltd 映像監視装置
JP2004514205A (ja) * 2000-11-07 2004-05-13 ザクセル システムズ インク インタネット仮想テレプレゼンスシステム
JP2004246667A (ja) * 2003-02-14 2004-09-02 Keiogijuku 自由視点動画像データ生成方法およびその処理をコンピュータに実行させるためのプログラム
JP2008167127A (ja) * 2006-12-28 2008-07-17 Mitsubishi Electric Corp 映像配信方法及び映像配信装置
JP2008236642A (ja) * 2007-03-23 2008-10-02 Hitachi Ltd 物体追跡装置
JP2012011989A (ja) * 2010-07-05 2012-01-19 Saxa Inc 駅ホームの監視カメラシステム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09116892A (ja) * 1995-10-20 1997-05-02 Fujitsu General Ltd 映像監視装置
JP2004514205A (ja) * 2000-11-07 2004-05-13 ザクセル システムズ インク インタネット仮想テレプレゼンスシステム
JP2004246667A (ja) * 2003-02-14 2004-09-02 Keiogijuku 自由視点動画像データ生成方法およびその処理をコンピュータに実行させるためのプログラム
JP2008167127A (ja) * 2006-12-28 2008-07-17 Mitsubishi Electric Corp 映像配信方法及び映像配信装置
JP2008236642A (ja) * 2007-03-23 2008-10-02 Hitachi Ltd 物体追跡装置
JP2012011989A (ja) * 2010-07-05 2012-01-19 Saxa Inc 駅ホームの監視カメラシステム

Similar Documents

Publication Publication Date Title
JP7121470B2 (ja) 画像処理システム、制御方法、及び、プログラム
RU2704244C1 (ru) Способ генерирования изображения виртуальной точки обзора и устройство обработки изображений
RU2718119C1 (ru) Устройство обработки информации, способ генерации изображения, способ управления и носитель данных
KR102129792B1 (ko) 정보 처리 장치, 화상 생성 방법, 제어 방법 및 프로그램
KR102121931B1 (ko) 제어 디바이스, 제어 방법 및 저장 매체
RU2713238C1 (ru) Устройство управления, способ управления и программа
JP6894687B2 (ja) 画像処理システム、画像処理装置、制御方法、及び、プログラム
JP2018112997A (ja) 画像処理装置及びその方法、プログラム、画像処理システム
US10812770B2 (en) Image processing system, image processing apparatus, image processing method, and program
US11095871B2 (en) System that generates virtual viewpoint image, method and storage medium
US11677925B2 (en) Information processing apparatus and control method therefor
JP7042571B2 (ja) 画像処理装置およびその制御方法、プログラム
JP2019022151A (ja) 情報処理装置、画像処理システム、制御方法、及び、プログラム
JP6871801B2 (ja) 画像処理装置、画像処理方法、情報処理装置、撮像装置および画像処理システム
JP2019050451A (ja) 画像処理装置及びその制御方法及びプログラム及び画像処理システム
US11050992B2 (en) Control apparatus, image processing system, control method, and medium
JP2018191251A (ja) 情報処理システム、情報処理方法、およびプログラム
JP2019008429A (ja) 画像処理装置、画像処理システム、画像処理方法及びプログラム
JP2019134428A (ja) 制御装置、制御方法、及び、プログラム
JP2019140483A (ja) 画像処理システム、画像処理システムの制御方法、伝送装置、伝送方法及びプログラム
JP2020092301A (ja) 画像処理装置、画像処理システム、画像処理方法、及びプログラム
JP7104504B2 (ja) 画像処理システム、画像処理装置、画像伝送方法、及び、プログラム
JP2023075859A (ja) 情報処理装置、情報処理方法、及び、プログラム
JP2018191236A (ja) 情報処理システム、情報処理方法、装置およびプログラム
JP2021077120A (ja) 画像処理システム、制御装置およびその制御方法、画像伝送方法、プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200424

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210316

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210514

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20211026