JP2018073061A - 三次元動画生成装置、三次元動画データの配信装置、三次元動画生成方法、及び三次元動画生成プログラム - Google Patents

三次元動画生成装置、三次元動画データの配信装置、三次元動画生成方法、及び三次元動画生成プログラム Download PDF

Info

Publication number
JP2018073061A
JP2018073061A JP2016210877A JP2016210877A JP2018073061A JP 2018073061 A JP2018073061 A JP 2018073061A JP 2016210877 A JP2016210877 A JP 2016210877A JP 2016210877 A JP2016210877 A JP 2016210877A JP 2018073061 A JP2018073061 A JP 2018073061A
Authority
JP
Japan
Prior art keywords
frame data
data
moving image
dimensional
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016210877A
Other languages
English (en)
Inventor
和久 野▲崎▼
Kazuhisa Nozaki
和久 野▲崎▼
利傑 矯
Riketsu Kyo
利傑 矯
裕介 増本
Yusuke Masumoto
裕介 増本
晶子 米谷
Akiko Yonetani
晶子 米谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Information Services International Dentsu Ltd
Original Assignee
Information Services International Dentsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Information Services International Dentsu Ltd filed Critical Information Services International Dentsu Ltd
Priority to JP2016210877A priority Critical patent/JP2018073061A/ja
Publication of JP2018073061A publication Critical patent/JP2018073061A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

【課題】複数の三次元画像センサで撮影されたフレームデータ群を合成して三次元動画像を生成する技術を提供する。【解決手段】同一の被写体を撮影する複数の三次元画像センサからフレームデータ群を受信し、前記複数の三次元画像センサのうちの第1の三次元画像センサから受信されたフレームデータ群に含まれる各フレームデータを第2の三次元画像センサから受信されたフレームデータ群に含まれるフレームデータと比較し、統一された座標系上において前記比較されたフレームデータ中の被写体の所定部位の位置が所定の許容値の範囲で合致するフレームを選択する選択部と、前記選択されたフレームデータを合成して、合成フレームデータを作成し、時間的に連続する前記合成フレームデータを三次元動画データとして出力する。【選択図】図1

Description

本件は、三次元動画像を生成する技術に関する。
近年、三次元画像をコンピュータで扱う技術が種々提案されている。例えば、三次元座標上に配列される点群やメッシュ、面(サーフェス)によって物体の三次元形状を示し、当該物体の全周を観察できるようにする技術が知られている。
例えば、対象の物体(被写体)を撮影するカメラと、当該カメラで撮影した被写体像における各画素の位置(座標)を求めるための測定部を備えた三次元画像センサを用い、この三次元画像センサを被写体の周囲に複数配置して、複数の位置から被写体を撮影し、各画素の三次元座標上の位置を求めて合成する技術が提案されている。
再表2013/187204号公報 特表2013−539608号公報
三次元データを生成する処理は、上記のように複数のセンサのデータを合成することになるため、負荷の高い処理であった。特に、三次元の動画像を生成しようとすると、複数の動画像をフレーム毎に合成することになるので、容易に処理できるものではなかった。
例えば、複数の三次元画像センサから同じ時刻に出力されたフレーム同士を合成しようとしても、これらのフレームが同じタイミングで撮影されたものであるとは限らない。これは、各三次元画像センサが被写体を撮影をしてからフレームを出力するまでの時間が三次元画像センサ毎に僅かに異なるためである。同じタイミングで撮影されたフレームでないと、動きのある被写体がブレてしまうため、適切に合成することができない。
また、各三次元画像センサが被写体を撮影をしてからフレームを出力するまでの時間は、一定でないため、一度、各三次元画像センサの撮影タイミングを合わせたとしても、その後に同じ時刻で出力されるフレームが同じタイミングで撮影されたものであるとは限らない。このため、フレームを合成して三次元動画像を生成するのが難しいという問題があった。なお、各三次元画像センサで撮影したフレームの内容を人が確認し、同じタイミングで撮影されたと判断したフレーム同士を合成して三次元動画像を作成することもできるが、多大な時間がかかるため、例えば、被写体を撮影しながらリアルタイムで三次元動画像を配信するようなことはできなかった。
そこで、本発明は、複数の三次元画像センサで撮影されたフレームデータ群を合成して三次元動画像を生成する技術の提供を目的とする。
上記課題を解決するため、本発明の三次元動画生成装置は、同一の被写体を撮影する複数の三次元画像センサからフレームデータ群を受信するフレーム取得部と、前記複数の三次元画像センサのうちの第1の三次元画像センサから受信されたフレームデータ群に含ま
れる各フレームデータを第2の三次元画像センサから受信されたフレームデータ群に含まれるフレームデータと比較し、統一された座標系上において前記比較されたフレームデータ中の被写体の所定部位の位置が所定の許容値の範囲で合致するフレームを選択する選択部と、前記選択されたフレームデータを合成して、合成フレームデータを作成する合成部と、時間的に連続する前記合成フレームデータを三次元動画データとして出力する出力部と、を備える。
また、上記課題を解決するため、本発明の三次元動画データの配信システムは、前記三次元動画生成装置によって作成された前記三次元動画データの配信要求を受け付ける配信受付部と、前記配信要求を受け付けたときに、前記三次元動画データを前記要求元に配信するデータ配信部と、を備える。
前記三次元動画データの配信システムは、前記三次元画像センサによる前記被写体の撮影と並行して、前記データ配信部が、所定量毎に分割された前記三次元動画データを所定の時間間隔で前記要求元へ追加データとして送信しても良い。
また、上記課題を解決するため、本発明の三次元動画生成方法は、同一の被写体を撮影する複数の三次元画像センサからフレームデータ群を受信するステップと、前記複数の三次元画像センサのうちの第1の三次元画像センサから受信されたフレームデータ群に含まれる各フレームデータを第2の三次元画像センサから受信されたフレームデータ群に含まれるフレームデータと比較し、統一された座標系上において前記比較されたフレームデータ中の被写体の所定部位の位置が所定の許容値の範囲で合致するフレームを選択するステップと、前記選択されたフレームデータを合成して、合成フレームデータを作成するステップと、時間的に連続する前記合成フレームデータを三次元動画データとして出力するステップと、をコンピュータが実行する。
また、本発明は、上記三次元動画生成方法をコンピュータに実行させるための三次元動画生成プログラムであっても良い。更に、前記三次元動画プログラムは、コンピュータが読み取り可能な記憶媒体に記録されていても良い。
本発明は、複数の三次元画像センサで撮影されたフレームデータ群を合成して三次元動画像を生成する技術を提供できる。
図1は、三次元動画配信システムの概略図である。 図2は、三次元動画配信システムの機能ブロック図である。 図3は、計測部の説明図である。 図4は、骨格情報の説明図である。 図5Aは、三次元画像センサの配置を示す図である。 図5Bは、フレームを同一の時間軸上に並べて絞り込む例を示す図である。 図6Aはキャリブレーション用のパターンの説明図である。 図6Bはキャリブレーション用のパターンの説明図である。 図7は、キャリブレーション時に各三次元画像センサで撮影される画像の説明図である。 図8は、三次元動画データの例を示す図である。 図9は、三次元動画生成装置の構成図である。 図10は、画像サーバの構成図である。 図11は、ユーザ端末の構成図である。 図12は、三次元動画生成装置による三次元動画データの生成方法の説明図である。 図13は、画像サーバが、三次元動画データをユーザ端末へ配信する処理の説明図である。 図14は、三次元動画データの表示例を示す図である。 図15は、図14の部分拡大図である。 図16は、複数のコンピュータで三次元動画生成装置を構成した例を示す図である。 図17は、撮影範囲を重複させて複数の三次元画像センサを配置した例を示す図である。 図18は、同期して撮影させたフレームデータの取得処理の一例を示す図である。 図19は、非同期で撮影させたフレームデータの取得処理の一例を示す図である。
以下、図面を参照して本発明の実施の形態について説明する。以下の実施の形態の構成は例示であり、本発明は実施の形態の構成に限定されない。
《システム構成》
図1は、三次元動画配信システムの概略図、図2は、三次元動画配信システムの機能ブロック図、図3は、計測部の説明図、図4は、骨格情報の説明図、図5Aは、三次元画像センサの配置を示す図、図6Aはキャリブレーション用のパターンの説明図、図7は、キャリブレーション時に各三次元画像センサで撮影される画像の説明図、図8は、三次元動画データの例を示す図、図9は、三次元動画生成装置の構成図、図10は、画像サーバの構成図、図11は、ユーザ端末の構成図である。
本例の三次元動画配信システム100は、図1に示されるように、撮影装置1や画像サーバ2を備えている。
撮影装置1は、被写体を撮影して三次元動画データを生成し、画像サーバ2へ登録する。画像サーバ2は、撮影装置1によって登録された三次元動画データをユーザ端末3へ配信する。
本例の画像サーバ2は、インターネット等のネットワーク4を介して三次元画像データを配信する所謂ウェブサーバとして機能する。なお、三次元動画データを配信する手段は、World Wide Webに限らず、電子メールや専用のアプリケーションソフトウェアであっても良い。また、本例では、撮影装置1と画像サーバ2が別体に構成されたが、撮影装置1と画像サーバ2が一体的に構成され、三次元動画データを生成する機能と、三次元画像データを配信する機能を備えた装置とされても良い。
本例において被写体とは、三次元画像データを生成する対象の物体である。例えば、主に人を撮影する場合に、人が立っている床や背景として写り込む周囲の物体など、人と共に三次元画像データを生成する物体を被写体とする。なお、これに限らず、撮影装置1で撮影する物体のうち、人などの特定の物体を被写体としても良い。
撮影装置1は、図5Aに示されるように複数の三次元画像センサ11で被写体を撮影し、各三次元画像センサ11から受信したフレームデータ群を合成して三次元動画データを生成する。このとき、複数の三次元画像センサから同じ時刻に出力されたフレーム同士を合成しようとしても、これらのフレームが同じタイミングで撮影されたものであるとは限
らない。このため、本例の撮影装置1は、一つの三次元画像センサから受信されたフレームデータ群に含まれる各フレームデータを他の三次元画像センサから受信されたフレームデータ群に含まれるフレームデータと比較する。そして、統一された座標系上において比較されたフレームデータ中の被写体の所定部位の位置が合致するフレームを選択し、選択されたフレームデータを合成して、三次元動画データを生成する。このように、本例の撮影装置1は、複数の三次元画像センサで撮影したフレーム中の被写体の位置によって、同じタイミングで撮影されたフレームを選択し、これらを合成することで、三次元動画像を生成することができる。これによりフレームの選択及び合成を人手を介さずに行うことができるため、本例の三次元動画配信システムは、三次元画像センサで被写体を撮影しながらリアルタイムに三次元動画データを配信することができる。なお、これらフレームの選択や合成、三次元動画データの配信の詳細については後述する。
撮影装置1は、図2に示されるように、三次元画像センサ11や三次元動画生成装置10を備えている。この三次元画像センサ11は、カメラ11Aや、計測部11B、骨格情報生成部11Cを備えている。
カメラ11Aは、撮影レンズによってCMOSイメージセンサ等の撮像素子上に被写体像を形成し、撮像素子によって被写体像を電気信号に変換し、動画情報として出力する。この動画情報は、例えば1/30fpsといった所定の周期で撮影されたフレーム(1コマの画像)のデータを含む。なお、各フレーム(Color Frame)のデータ(フレームデー
タとも称す)は、画素毎に色情報を有する。また、各フレームデータは、前記色情報に加え、画素毎に輝度情報を有しても良い。即ち、本例において、動画情報は、所定周期で取得された一連のフレームデータからなるフレームデータ群である。
計測部11Bは、被写体の形状が特定できるように所定の密度で細分化した被写体の部位毎に位置を計測する。本例では、図3に示されるように、ToF(Time Of Flight )
距離画像センサを用い、光源16から被写体へ計測光を照射し、被写体で反射された計測光を光学系17で結像させ、受光素子18の受光面上に被写体像を形成する。
このとき、光源16から照射される計測光は、強度が変調されており、受光素子18で受光される反射光と比べると、この変調された強度の位相が被写体と受光素子との距離(光路長)に応じてシフトする。例えば、被写体と受光素子との距離が長くなると、位相の遅延(シフト量)が大きくなる。そこで、演算部19は、受光素子18の各画素で受光した反射光における位相のシフト量に基づいて、被写体との距離を画素毎に求め、距離情報として出力する。この距離情報は、例えば1/30fpsといった所定の周期(フレームレート)で撮影されたフレーム(1コマの画像)毎に求められ、各フレームの距離情報(Depth Frame)のデータ(フレームデータ)がフレームデータ群として出力される。
計測部11Bは、ToF距離画像センサに限らず、三次元レーザースキャナで対象物体をスキャンするものや、ステレオカメラで対象物体を撮影し、視差に基づいて画像中の物体との距離を求めるもの、所定のパターン光を対象物体に投影し、対象物体上に投影されたパターンの変化に応じて対象物体との距離を求めるものであっても良い。
図2の骨格情報生成部11Cは、カメラ11Aで撮影した動画情報や計測部11Bの計測結果に基づいて、被写体のうち、動きのある物体(以下、動体とも称する)の骨格情報を生成する。なお、動体は、動物や着ぐるみ、ロボット、乗り物、ボール等、画像内で少なくとも一部が動くものであれば良い。また、骨格情報とは、動体を動作部位毎に特定し、各動作部位の位置を示す情報である。
例えば、動体が人の場合、図4に示されるように、頭A1、右肩A2、左肩A3、肩中
央(首の付け根)A4、首A21、右肘A5、右手首A6、右手A7、右手先端A22、右手親指A23、左肘A8、左手首A9、左手A10、左手先端A24、左手親指A25、脊柱A11、腰A12、右股関節A13、右膝A14、右足首A15、右足先A16、左股関節A17、左膝A18、左足首A19、左足先A20を動作部位として特定する。
この動作部位の特定は、例えば、人の頭、上腕、前腕、手、胴など、認識すべき部位の標準的な形状や大きさを標準データとして予め記憶しておき、ToF距離画像センサの受光素子18で撮影した画像から標準データと適合する部位をパターンマッチングによって特定する。また、上腕と前腕の接続部を肘、上腕の胴側の付け根を肩のように、パターンマッチングした部位の位置関係から動作部位を求めても良い。更に、頭に目や鼻、口が存在する場合、目や鼻、口が存在する側面を人の正面と認識し、この正面に向かって左側に位置する肩を右肩、正面に向かって右側に位置する手を左手のように、動作部位の左右を認識しても良い。
なお、動作部位は、肩、肘、膝、手首等を含むため、関節とも称される。但し、本例動作部位は、頭や手、足先等も含むため、厳密に関節に限定されるものではない。なお、図4では、人の例を示したが、犬や猫、鳥など、他の動物の場合には、その動物の種類に応じて、動作部位を設定してよい。また、着ぐるみのように、デフォルメされたものや、仮想のものは、その動作や特徴によって、任意に動作部位を設定してよい。更に、ボールや車等のように関節が存在しないものは、全体を動作部位としてもよい。
そして、骨格情報生成部11Cは、各動作部位A1〜A25の位置情報を求める。例えば、受光素子18(図3)の各画素は、受光面上に配列されており、この受光面上の各画素の位置は、被写体が存在する空間における位置と対応している。このため、骨格情報生成部11Cは、各動作部位が撮影された画素の受光面上の位置および当該画素における被写体との距離に基づき、被写体が存在する三次元空間内における各動作部位の三次元座標を求める。なお、各動作部位の三次元座標は、画素毎に求めなくてもよく、本例では各動作部位の基準となる一点の三次元座標を求めている。例えば、頭A1であれば頭頂部、肩中央A4であれば首の付け根の中心等である。骨格情報生成部11Cは、これら動作部位A1〜A25毎の位置情報を骨格情報として出力する。この骨格情報は、例えば1/30fpsといった所定の周期で撮影されたフレーム(1コマの画像)毎に求められ、時間的に連続する各フレームの骨格情報(Body Frame)のデータが一連のフレームデータ群として出力される。
上記三次元画像センサ11は、図5Aに示されるように、被写体の周囲に複数台設けられ、各三次元画像センサ11で取得したフレームデータ群が三次元動画生成装置10に入力される。図5Aでは、被写体を撮影する方向を異ならせて4台の三次元画像センサ11を設けた例を示している。なお、各三次元画像センサを区別して説明する場合には、三次元画像センサ11−1〜11−4のように枝番を付して示し、共通の事項を説明する場合には、単に三次元画像センサ11と示す。
また、三次元動画生成装置10は、フレーム取得部15や、フレーム選択部12、合成部13、出力部14を備えている。
フレーム取得部15は、同一の被写体を撮影する複数の三次元画像センサ11からフレームデータ群を受信する。
フレーム選択部12は、複数の三次元画像センサ11から取得したフレームデータ群のうち、各三次元画像センサ11において同一のタイミングで撮影されたと見なせるフレームを選択する。例えば、先ず、各三次元画像センサ11で夫々撮影したフレームを撮影時
刻に基づいて同一の時間軸上に並べた場合に、所定期間内に撮影されたフレームを選択候補として絞り込む。そして、フレーム選択部12は、選択候補のうち、第一の三次元画像センサ11から受信されたフレームデータ群に含まれる各フレームデータを第二の三次元画像センサ11から受信されたフレームデータ群に含まれるフレームデータと比較し、統一された座標系上において前記比較されたフレームデータ中の被写体の所定部位の位置が所定の許容値の範囲で合致するフレームを選択する。
図5Bは、フレームを同一の時間軸上に並べて絞り込む例を示す図である。先ず、フレーム選択部12は、各三次元画像センサ11から取得した画像の撮影時刻を同一の時間軸で表すようにする。例えば、三次元画像センサ11が各フレームの撮影タイミング(撮影時刻等)を記録し、フレームデータに付して三次元動画生成装置10へ送信する場合には、三次元動画生成装置10が各三次元画像センサ11へ統一した時間情報を通知し、各三次元画像センサ11が、この統一した時間情報に基づいてフレームデータに撮影タイミングの情報を付すことで各三次元画像センサの時間軸を統一する。
また、各三次元画像センサが画像を撮影し、フレームデータとして三次元動画生成装置10が取得するまでのタイムラグを予め求めておき、三次元動画生成装置10が、フレームデータの取得時間に基づいて各フレームの撮影時間を推定してもよい。そして、フレーム選択部12は、図5Bに示すように、各三次元画像センサ11から取得したフレームF11〜16,F21〜25,F31〜38,F41〜46を撮影時間に基づいて並べた場合に、所定の範囲内のフレーム同士を選択候補とする。図5Bの例では、三次元画像センサ11−1のフレームを基準として、前後1/15秒内に他の三次元画像センサ11−2〜11−4で撮影されたフレームを選択候補とする。なお、三次元画像センサ11−1のフレームを基準とすることに限らず、他の三次元画像センサ11−2〜11−4のフレームの何れかを基準としてもよい。基準のフレームを設けず、1/30秒毎など、所定の期間内に撮影されたフレーム同士を選択候補としてもよい。この選択候補を絞り込むための所定期間は、任意に設定してよいが、短くなり過ぎると候補となるフレームが少なくなり合成できない可能性が高くなり、所定期間が長すぎると処理負荷が増すため、例えばフレームレートの1/4倍〜2倍に設定してもよい。
更に、フレーム選択部12は、各三次元画像センサ11−1〜11−4から受信した骨格情報(フレームデータ群)に含まれる人(動体)の頭の位置を統一された座標系における座標(以下、統一系座標とも称する)に変換する。そして、フレーム選択部12は、第一の三次元画像センサ11−1のフレームデータにおける人の頭の位置と他の第二の三次元画像センサ11−2〜11−4のフレームデータにおける人の頭の位置が、統一された座標系上で所定の許容値の範囲で合致するフレームを選択する。
なお、フレーム選択部12は、複数の三次元画像センサ11−1〜11−4で撮影する撮影範囲の位置関係を予め取得し、この位置関係に基づいて、各三次元画像センサ11−1〜11−4から取得したフレームデータ群の三次元座標を統一系座標に変換する。例えば、図6Aに示されるように、床等の基準面にキャリブレーション用のパターン91を配置し、三次元画像センサ11−1〜11−4で撮影する。パターン91は、頂点P1〜P4を有する矩形状であり、色の濃淡が異なる正方形が市松状に配列されている。なお、図6Aでは、網掛けのある正方形が濃色の正方形を示し、網掛けのない正方形が淡色の正方形を示している。また、これら濃淡の正方形は、頂点P1から頂点P2の方向に4列並べられ、頂点P1から頂点P4の方向に3行並べられている。
このパターン91を各三次元画像センサ11−1〜11−4で撮影した場合の画像が、図7(A)〜図7(D)である。図7(A)〜図7(D)に示されるように、濃淡の正方形の配列によってパターン91の向きが特定できるため、三次元動画生成装置10は、各
三次元画像センサ11−1〜11−4で撮影した場合の画像において、パターン91の基準となる位置、例えば頂点P1〜P4を求める。そして、頂点P1を原点、頂点P1から頂点P2の方向をX軸、頂点P1から頂点P4の方向をZ軸、頂点P1から垂直方向をY軸とし、これを統一された座標系として定める。この統一された座標系と三次元画像センサ11−1〜11−4で得られる座標との差異(対応関係)を予め求めておくことで、三次元動画生成装置10は、三次元画像センサ11−1〜11−4で得た座標を前記対応関係に基づいて統一系座標に変換することができる。
なお、図6Aでは、平面状のパターン91を示したが、これに限らず、図6Bに示すように立体的なパターン93を用いてキャリブレーションを行ってもよい。図6Bのパターン93は、頂点P11〜P18を有する直方体(6面体)であり、底面以外の5面に色の濃淡が異なる正方形が市松状に配列されている。このパターン93を各三次元画像センサ11−1〜11−4で撮影した場合、前述のパターン91と同様に濃淡の正方形の配列によってパターン93の向きが特定できるため、三次元動画生成装置10は、各三次元画像センサ11−1〜11−4で撮影した場合の画像において、パターン93の基準となる位置、例えば頂点P11〜P18を求める。
そして、頂点P11を原点、頂点P11から頂点P12の方向をX軸、頂点P11から頂点P15の方向をZ軸、頂点P11から頂点P13への垂直方向をY軸とし、これを統一された座標系として定める。この統一された座標系と三次元画像センサ11−1〜11−4で得られる座標との差異(対応関係)を予め求めておくことで、三次元動画生成装置10は、三次元画像センサ11−1〜11−4で得た座標を前記対応関係に基づいて統一系座標に変換する。これにより、図6Aに示した一つの面を基準にする場合と比べ、高さ方向において各三次元画像センサ11で取得した画像の座標を精度良く合わせることができる。
また、図2の合成部13は、フレーム選択部12で選択されたフレームデータを合成して、合成フレームデータを作成する。例えば、合成部13は、計測部11Bで取得した距離情報(Depth Frame)から画素毎の三次元座標を求め、この三次元座標を統一系座標に
変換する。また、合成部13は、この画素毎の情報に、カメラ11Aで撮影したフレーム(Color Frame)に基づいて色情報を追加する。図8は、画素毎に位置情報(統一系座標
)と色情報を持つデータの例を示す。合成部13は、この画素毎に位置情報と色情報を有するフレームデータを合成し、合成フレームデータとする。そして、各三次元画像センサ11により所定周期(フレームレート)で撮影された一連のフレームデータを順次合成し、一連の合成フレームデータを作成して三次元動画データとする。
出力部14は、時間的に連続する前記合成フレームデータを三次元動画データとして出力する。本例の出力部14は、三次元動画データを画像サーバ2へ送信する。なお、三次元画像センサ11による撮影を長時間連続して行う場合には、三次元動画データを所定量毎に分割して画像サーバ2へ送信しても良い。例えば、撮影時間(再生時間)や、データ量、フレーム数などに応じて分割する。なお、三次元動画データを分割する場合、フレーム取得部15でフレームデータ群を受信してから、フレーム選択部12で選択された前記フレームデータを合成部13で合成して三次元動画データを作成するまでにかかる時間(以下、データ処理時間とも称する)よりも分割された前記三次元動画データの再生時間が長くなるように、三次元動画データを分割してもよい。
画像サーバ2は、データ受付部21や、配信受付部22と、データ配信部23を備えている。
データ受付部21は、三次元動画生成装置から三次元動画データを受信し、特定のアド
レス、例えばURLと対応付けて記憶する。
配信受付部22は、ユーザ端末3から、URL等によって指定されたコンテンツの配信要求を受信し、受信したURLが前記三次元動画データと対応するものであれば、当該三次元動画データの配信要求を受け付けたことをデータ配信部23へ通知する。
データ配信部23は、配信要求を受け付けたことを通知されると、三次元動画データを表示する表示プログラムとともに前記三次元動画データを要求元のユーザ端末3に配信する。また、データ配信部23は、三次元画像センサ11による前記被写体の撮影と並行して、所定量毎に分割された三次元動画データを所定の時間間隔で前記要求元のユーザ端末3へ追加データとして送信する。なお、所定の時間間隔とは、例えば、前記所定量毎に分割された三次元動画データの再生時間に相当する時間である。
ユーザ端末3は、配信要求部31、データ受信部32、表示制御部33を備えている。
配信要求部31は、ユーザの操作によって指定された配信要求を画像サーバ2へ送信する。例えば、ユーザによって、三次元動画データに対応するURLが入力された場合や、このURLを指定するハイパーリンクが選択された場合に、配信要求部31は、当該URLを配信要求として画像サーバ2へ送信する。
データ受信部32は、画像サーバ2から三次元動画データや当該三次元動画データを表示する表示プログラムを受信する。
表示制御部33は、画像サーバ2から受信した三次元動画データを表示装置に表示させる。本例の三次元動画データは、図8に示されるように、位置情報(統一系座標)及び色情報を有する点の集合のデータ、即ち点群データである。表示制御部33は、点群データの各位置情報が示す位置に色情報が示す色の点を描画することで、三次元画像を表示する。また、この表示を所定のフレームレートで更新することで、動画として表示する。ここで、三次元動画データは、被写体の全周(360°)にわたってデータを有しているため、ユーザ等によって視点の位置が指定された場合には、この視点から視た場合の画像が表示される。
次に、三次元動画生成装置10、画像サーバ2、ユーザ端末3の構成について説明する。
三次元動画生成装置10は、汎用又は専用のコンピュータである、汎用のコンピュータとして、例えば、パーソナルコンピュータ(PC)やワークステーションを適用できる。専用コンピュータとして、例えばサーバマシンを適用できる。但し、三次元動画生成装置10は、後述する機能を提供できる限り、上記例示のコンピュータに制限されない。
三次元動画生成装置10は、図9に示すように、例えば、CPU111にバスを介して接続されたメモリ112,入力装置113,出力装置114,及び通信インタフェース(通信IF)115を含む。
メモリ112は、主記憶装置と補助記憶装置とを含む。主記憶装置は、CPU111の作業領域,プログラムやデータの記憶領域,通信データのバッファ領域として使用される。主記憶装置は、例えば、Random Access Memory(RAM),或いはRAMとRead Only Memory(ROM)との組み合わせで形成される。
補助記憶装置は、CPU111によって実行されるプログラム,及びプログラムの実行に際して使用されるデータを記憶する。補助記憶装置は、例えば、ハードディスクドライ
ブ(HDD),Solid State Drive(SSD),フラッシュメモリ,Electrically Erasable Programmable Read-Only Memory(EEPROM)などである。また、補助記憶装置は、三次元動画生成装置10に対して着脱自在な可搬性記憶媒体を含む。可搬性記憶媒体は、例えばUniversal Serial Bus(USB)メモリである。また、補助記憶装置は、CD−ROMやDVD−ROM,DVD−Rなどのディスク記憶媒体及びディスク記憶媒体のドライブ装置を含む。ディスク記憶媒体は可搬性記憶媒体の一つである。
入力装置113は、三次元動画生成装置10に情報やデータを入力するために使用される。入力装置113は、例えば、ボタン、キー、マウスなどのポインティングデバイス,タッチパネルなどを含む。入力装置113は、マイクロフォンのような音声入力装置を含み得る。
出力装置114は、情報やデータを出力する。出力装置は、例えば表示装置、プリンター、記憶メディアへの書き込み装置等である。出力装置114は、スピーカのような音声出力装置を含み得る。通信IF115は、ネットワーク4に接続され、他の装置との通信を行うためのインタフェースである。通信IF115は、例えばLocal Area Network(LAN)カードである。
CPU111は、本例において処理装置に相当する。CPU111は、MPU(Micro Processor Unit)、マイクロプロセッサ、プロセッサとも呼ばれる。CPU111は、単一のプロセッサに限定される訳ではなく、マルチプロセッサ構成であってもよい。また、単一のソケットで接続される単一のCPUがマルチコア構成を有していても良い。上記各部の少なくとも一部の処理は、CPU以外のプロセッサ、例えば、Digital Signal Processor(DSP)、Graphics Processing Unit(GPU)、数値演算プロセッサ、ベクトルプロセッサ、画像処理プロセッサ等の専用プロセッサで行われても良い。また、上記各部の少なくとも一部の処理は、集積回路(IC)、その他のデジタル回路であっても良い。また、上記各部の少なくとも一部にアナログ回路が含まれても良い。集積回路は、LSI,Application Specific Integrated Circuit(ASIC),プログラマブルロジックデバイス(PL
D)を含む。PLDは、例えば、Field-Programmable Gate Array(FPGA)を含む。上記各
部は、プロセッサと集積回路との組み合わせであっても良い。組み合わせは、例えば、MCU(Micro Controller Unit),SoC(System-on-a-chip),システムLSI,チッ
プセットなどと呼ばれる。
CPU111は、メモリ112に記憶されたプログラムを主記憶装置にロードして実行する。メモリ112には、オペレーティングシステム及びアプリケーションプログラムがインストールされている。
CPU111は、プログラムを実行することによって、前記フレーム取得部15や、フレーム選択部12、合成部13、出力部14として動作する。
画像サーバ2は、図10に示すように、例えば、CPU211にバスを介して接続されたメモリ212,入力装置213,出力装置214,及び通信インタフェース(通信IF)215を含む。CPU211,メモリ212,入力装置213,出力装置214,通信IF215については、CPU111,メモリ112,入力装置113及び出力装置114,通信IF115と同様のものを適用可能であるので、重ねての説明は省略する。
画像サーバ2は、三次元動画生成装置10から、三次元動画データを受信して、メモリ212に格納する。これに限らず、画像サーバ2は、三次元動画データを外部の装置に格納しても良い。画像サーバ2は、例えば、1又は複数のサーバマシン、又は、PC(Personal Computer)等の汎用コンピュータによって実現される。
画像サーバ2のCPU211は、プログラムを実行することによって、前記データ受付部21や、配信受付部22と、データ配信部23として動作する。これより、画像サーバ2は、HTTPサーバとして動作する。
ユーザ端末3は、ネットワーク4に接続する機能を持つ端末であり、例えば、スマートフォン,フィーチャーフォン,無線LAN端末,タブレット端末のような無線通信機能を備えた携帯端末、PC等の汎用コンピュータである。また、ユーザ端末3は、PCやタブレット端末のように情報処理を主体とした装置に限らず、画像サーバ2から画像データを受信して表示出力できるものであればよい。例えば、ヘッドマウントディスプレイやメガネ型ディスプレイ、テレビ、デジタルサイネージ、ゲーム機、プロジェクターであってもよい。ユーザ端末3は、図11に示すように、例えば、CPU311にバスを介して接続されたメモリ312,入力装置313,出力装置314,及び通信インタフェース(通信IF)315、無線モジュール316を含む。CPU311,メモリ312,入力装置313,出力装置314,通信IF315については、CPU111,メモリ112,入力装置113及び出力装置114,通信IF115と同様のものを適用可能であるので、重ねての説明は省略する。
ユーザ端末3のCPU311は、プログラムを実行することによって、前記配信要求部31や、データ受信部32、表示制御部33として動作する。本例において、配信要求部31やデータ受信部32は、所謂ウェブブラウザと称されるプログラムを実行することによって動作する。また、予めユーザ端末にインストールされたプログラムによって動作するものでも良いし、三次元動画データと共に配信されるプログラムを実行することによって動作するものでもよい。
上記三次元動画生成装置10,画像サーバ2,ユーザ端末3は、図1に示すようにネットワーク4に接続され、これら各装置間における情報の伝達は、ネットワーク4を介したデータ通信で実現される。ネットワーク4の種類は、例えば、3G(3rd Generation)ネットワーク、インターネット、電話網、及び、専用網等であり、各データ通信に応じて、適宜選択される。なお、画像サーバ2からユーザ端末3への三次元動画データの配信は、ネットワーク4を介した通信に限らず、電波等による放送であっても良い。
《処理方法》
図12は、三次元動画生成装置10による三次元動画データの生成方法の説明図である。なお、三次元動画データの生成に先立って三次元画像センサ11−1〜11−4は、図5Aに示されるように被写体の四方に配置され、キャリブレーションを行って、各三次元画像センサ11−1〜11−4で得られる座標と統一系座標との対応関係を求めておく。
操作者等による開始の指示を受けると、三次元動画生成装置10は、図12の処理を実行し、先ず三次元画像センサ11による撮影を開始させ、カメラ11A及び計測部11Bによって作成されたフレームデータ群を取得する(ステップS10)。
また、三次元動画生成装置10は、骨格情報生成部11Cで生成された骨格情報を取得し、骨格情報に基づいてフレームデータ群に含まれる各フレームデータ中の被写体(動体)の所定部位の位置を取得する(ステップS20)。なお、所定部位の位置は、骨格情報に含まれる部位(関節)の位置そのもの(例えば図4の頭A1)であっても良いし、骨格情報から類推した位置であってもよい。本例では、骨格情報に基づいて、人の頭頂の位置を所定部位として取得している。
例えば、頭A1を頭の中心とし、被写体の顎の位置を求めて、頭A1に対して顎と反対
の位置を頭頂と推定する。同様に頭A1に対して首A21と反対側で所定距離にある位置を頭頂としてもよい。また、人に限らず、操作者が、着ぐるみ、ボール等のように対象とする動体の種類を三次元動画生成装置10に予め設定しておき、撮影装置1は、設定された物体の標準データと各三次元画像センサで取得したフレームデータを比較して、標準データと合致するものを動体として特定しても良い。そして、人の場合は、頭(頭頂部)、ボールの場合は中心点などのように、動体の種類に応じて基準とする部位を定めておき、この所定部位の位置を求める。これに限らず、当該フレームデータをそれ以前に撮影されたフレームデータと比較して異なる部分を動体として特定し、この動体の上端や中心等を所定部位とし、この所定部位の位置を求めるようにしてもよい。
なお、本例では、三次元画像センサ11側の骨格情報生成部11Cで骨格情報を生成したが、これに限らず、三次元動画生成装置10側で骨格情報を生成しても良い。例えば、フレーム取得部15が、カメラ11A及び計測部11Bによって作成されたフレームデータ群を取得し、このフレームデータ群に基づき、前述の骨格情報生成部11Cと同様に骨格情報を生成し、更に所定部位の位置を求めるようにしてもよい。本例において、所定部位は、撮影装置1から取得したフレームデータ群の座標系に対して統一された座標系において移動する動体の部分である。即ち、所定部位は、動体である被写体の部位である。なお、この動体は、常に動いているものに限らず、予め操作者が動体として設定した標準データと合致する部位であればよい。
次に三次元動画生成装置10は、各三次元画像センサ11から得たフレームデータのうち、図5Bのように統一した時間軸において所定期間内に撮影されたフレームデータを選択候補として絞り込む。例えば、第一の三次元画像センサ11−1で取得したフレームデータを基準として前後所定時間(例えば1/15秒)以内に第2の三次元画像センサ11−2〜11−4で撮影されたフレームデータを選択候補とする。
そして、三次元動画生成装置10は、選択候補としたフレームデータのうち、第1の三次元画像センサ11−1から得たフレームデータ中の被写体の所定部位の位置と、第2の三次元画像センサ11−2〜11−4から得たフレームデータの被写体の所定部位の位置とを比較し、統一された座標系上において、これら所定部位の位置が所定の許容値の範囲で合致するフレームデータを第2の三次元画像センサ11−2〜11−4から夫々一つずつ選択する(ステップS30)。
なお、被写体中の動体(人)は、複数であってもよく、複数の人が認識された場合、それぞれの人の頭の位置を比較する。また、本例では、比較する所定部位の種類を一つとしたが、これに限らず、人の頭と肩と足等のように、ステップS20で複数種類の所定部位の位置を求め、ステップS30で、これら複数種類の所定部位の位置を比較してフレームデータを選択してもよい。また、これら複数の所定部位に優先度を設定し、最も優先度の高い部位(例えば頭)が各フレームで認識されていない場合には、次に優先度の高い部位(例えば足先)で位置を比較するようにしても良い。
また、優先度の高い部位の位置が合致するフレームが複数存在する場合に、次に優先度の高い部位の位置が合致するフレームを選択するようにしても良い。更に、人が静止し、第1の三次元画像センサ11−1から得たフレームデータと合致するフレームデータが、各第2の三次元画像センサ11−2〜11−4において複数存在する場合や、一時的にフレーム中に人がいない(動くものがない)ために所定部位が検出できない場合、撮影時刻が第一の三次元画像センサ11−1で取得したフレームデータと最も近いものを選択する。なお、人(動体)のデータを背景と分離して合成している場合、人がフレーム中にいなければ、合成の処理を行わなくてもよい。
次に、三次元動画生成装置10は、ステップS30で選択したフレームデータについて、図8に示すように画素毎に位置情報と色情報を求める(ステップS40)。そして、三次元動画生成装置10は、この画素毎に位置情報と色情報を有するフレームデータを合成し、合成フレームデータとする(ステップS50)。
三次元動画生成装置10は、ステップS50で合成した合成フレームデータが所定量に達したか否かを判定し(ステップS60)、所定量に達していなければステップS30に戻り、ステップS30〜S50の処理を繰り返す。一方、ステップS60で所定量に達したと判定した場合には、この所定量の合成フレームデータを三次元動画データとし、この三次元動画データを所定のデータフォーマットに変換する(ステップS70)。例えば、図8に示されるようにテキストデータとなっている位置情報及び色情報をバイナリデータに変換する。そして、三次元動画生成装置10は、変換後の(ステップS)て画像サーバ2へ送信する(ステップS80)。このように、本例では、生成した三次元動画データを所定量毎に分割して送信する。
図13は、画像サーバ2が、三次元動画データをユーザ端末3へ配信する処理の説明図である。なお、画像サーバ2は、前述のように三次元動画生成装置10によって生成された三次元動画データを受信し、メモリ212に格納している。
先ず、ユーザの操作によって、三次元動画データに対応するURLが入力された場合や、このURLを指定するハイパーリンクが選択された場合に、ユーザ端末3は、画像サーバ2へ配信要求を送信する(ステップS110)。
画像サーバ2は、ユーザ端末3から配信要求を受信し(ステップS120)、受信したURLが三次元動画データと対応するものであれば、当該三次元動画データ及び三次元動画データを表示する表示プログラムをメモリ212から読み出す(ステップS130)。
そして、画像サーバ2は、三次元動画データ及び表示プログラムを要求元のユーザ端末3に配信する(ステップS140)。
ユーザ端末3は、この三次元動画データ及び表示プログラムを受信し(ステップS150)、この表示プログラムに従って三次元動画像を表示装置上に表示(再生)させる(ステップS160)。このように本例では、三次元動画像を表示するプログラムを三次元動画像とともに配信するので、ユーザ側で特殊なプログラムを用意しなくても三次元動画像を表示できる。また、データの送受信は、一般的なHTTPプロトコルを用いることができるため、所謂ウェブブラウザで三次元動画像を要求し、このウェブブラウザが表示するコンテンツの一部として三次元動画データの表示、即ち三次元動画の再生を行うことができる。なお、この三次元動画データは、ストリーミング用のプロトコル又はプログレッシブダウンロード方式によって配信されており、三次元動画データをダウンロードしながら再生することが可能となっている。なお、三次元動画データの配信及び再生は、ストリーミングに限定されるものではなく、全データをユーザ端末3にダウンロードした後に、再生を行うものであってもよい。
また、ユーザ端末3は、三次元動画データの再生を開始して所定時間経過後、或は三次元動画データの再生が終了する時刻の所定時間前の時刻に達した場合に次の三次元動画データの配信を要求する(ステップS170)。即ち、現在再生中の三次元動画データの再生が終了する前に次のデータのダウンロードを要求する。
画像サーバ2は、ユーザ端末3から追加の配信要求を受信した場合(ステップS180)、当該要求元へ前回送信した三次元動画データの次の三次元動画データをメモリ212
から読み出し(ステップS190)、要求元のユーザ端末へ送信する(ステップS200)。なお、本例では、ユーザ端末3から追加の配信要求を受けて、この応答として追加の三次元動画データを送信する例を示したが、これに限らず、要求元のユーザ端末3に対して次の三次元動画データを提供するURLへリダイレクトさせることや、ウェブソケットを用いて画像サーバ2側から前記要求元のユーザ端末3へ所定の時間間隔で追加のデータをプッシュ送信してもよい。
ユーザ端末3は、追加の三次元動画データを受信した場合(ステップS210)、前回の三次元動画データに続けて次の三次元動画データをシームレスに表示(再生)させる(ステップS220)。
図14は、三次元動画データの表示例を示す図、図15は、図14中の破線92で示した部分の拡大図である。ユーザ端末3は、三次元動画データの各点(画素)の位置情報が示す座標に色情報が示す色の点を表示装置上に描画することで、図14に示されるような三次元画像を表示する。また、この表示を所定のフレームレートで更新することで、動画として表示する。
なお、図7に示されるように、被写体を見る方向によってパースが異なるので、ユーザ端末3は、ユーザによって指定された視点から視た場合のパースで表示するように、各画素の表示位置を調整している。本例では、被写体を四方から撮影し、三次元動画データが、被写体の全周(360°)にわたるデータを有しているため、ユーザによって周方向の何処に視点が指定されても、この視点から視た場合の画像を表示することができる。なお、三次元動画データは、被写体の全周のデータを有するものに限定されるものではなく、正面を中心に180°など、所要のデータを有するものであれば良い。
また、視点を被写体に近づけることで、被写体を大きく表示させる、即ちズームインすることができ、視点を被写体から遠ざけることで、被写体を小さく表示させる、即ちズームアウトすることができる。
これによりユーザは、任意に視点を変えて、好みの視点からの画像を鑑賞することができる。なお、図13のステップS220にて、追加の三次元動画データを表示する場合、ユーザ端末3は、前回の三次元動画データの再生が終了する際の視点の設定を引き継ぎ、同じ視点で追加の三次元動画データの再生を開始する。これにより、分割した三次元動画をシームレスに再生できる。
なお、本例では、三次元動画データに基づいて点群を表示させたが、これに限らず、三次元動画データが示す各点を頂点とするメッシュや面(サーフェス)を表示するようにしてもよい。
《実施形態の効果》
本例の三次元動画生成装置10は、一つの三次元画像センサ11−1から受信されたフレームデータ群に含まれる各フレームデータを他の三次元画像センサ11−2〜11−4から受信されたフレームデータ群に含まれるフレームデータと比較する。そして、統一された座標系上において比較されたフレームデータ中の被写体の所定部位の位置が合致するフレームを選択し、選択されたフレームデータを合成して、三次元動画データを生成する。このように、本例の三次元動画生成装置10は、複数の三次元画像センサで撮影したフレーム中の被写体の位置によって、同じタイミングで撮影されたフレームを選択し、これらを合成することで、三次元動画像を生成することができる。これによりフレームの選択及び合成を人手を介さずに行うことができるため、本例の三次元動画配信システムは、三次元画像センサで被写体を撮影しながらリアルタイムに三次元動画データを配信すること
ができる。
《変形例》
上記の実施形態では、三次元動画生成装置10を一台のコンピュータで構成したが、三次元動画生成装置10を複数台のコンピュータで構成してもよい。図16の例では、四台のフレーム取得装置10Aと、一台のフレーム合成装置10Bで三次元動画生成装置10を構成している。フレーム取得装置10A及びフレーム合成装置10Bは、それぞれ図9と同様にCPUやメモリ等を有するコンピュータである。
四台のフレーム取得装置10Aは、それぞれ三次元画像センサ11と接続し、三次元画像センサ11からフレームデータ群を受信するフレーム取得部15の機能を有する。また、各フレーム取得装置10Aは、取得したフレームデータの撮影時刻を統一した時間軸に基づく時間に変換すると共に、フレームデータ中の点群の座標を統一した座標系に変換する。更に、各フレーム取得装置10Aは、各フレームデータにおける被写体(動体)の所定部位の位置(座標)を求める。
そして、フレーム合成装置10Bは、フレーム選択部12、合成部13、出力部14を備え、各フレーム取得装置10Aからフレームデータ群を取得し、前述と同様に同一のタイミングで撮影されたフレームを選択し、合成して出力する。
このように図16の例では、複数の三次元画像センサ11からフレームデータを取得して、統一した時間軸に従って記録し、統一した座標系に変換して、被写体の所定部位の位置を求めるまでの処理を複数のフレーム取得装置10Aで分散して行うので、三次元動画データの生成を遅滞なく行うことができる。なお、図16では、五台のコンピュータで三次元動画生成装置10を構成したが、図16のフレーム合成装置10Bとフレーム取得装置10Aのうち一つを一台のコンピュータで構成し、四台のコンピュータで三次元動画生成装置10を構成してもよい。
なお、フレーム取得装置10A及びフレーム合成装置10Bの時間を統一するためには、例えば、フレーム合成装置10Bが、自己の時間情報を各フレーム取得装置10Aに通知し、同一の時間情報を設定させることで統一させる。このとき例えばSNTP(Simple
Network Time Protocol)を用いてフレーム合成装置10Bとフレーム取得装置10Aの時刻を同期させることで、ネットワークの遅延を補償してもよい。また、このようにフレーム合成装置10Bに合わせるものに限らず、フレーム取得装置10A及びフレーム合成装置10Bがそれぞれ、NTPサーバにアクセスして、NTPサーバの時刻(例えば協定世界時)に合わせることで、時間情報(時間軸)を統一してもよい。
図17は、撮影範囲を重複させて複数の三次元画像センサを配置した例を示す図である。図17(A)の例では、図5Aの三次元画像センサ11−1〜11−4に加えて、三次元画像センサ11−5〜11−8を配置した例を示している。
図17(A)の例において、三次元画像センサ11−1と三次元画像センサ11−5とは、ほぼ同じ範囲を撮影するように撮影範囲を重複させて設けられている。このように同じ範囲を撮影する三次元画像センサ11を複数配置した、即ち撮影範囲を重複させた三次元画像センサ11を複数配置したことで、一つの三次元画像センサ11で撮影したフレームデータが合成に用いられなくても他の三次元画像センサ11で撮影したフレームデータを用いることができる可能性があるため、合成したフレームの欠損(コマ落ち)を抑えることができる。なお、同じ範囲を撮影するように複数の三次元画像センサを配置する構成に限らず、各三次元画像センサ11の撮影範囲を異ならせて、一部を重複させるように配置してもよい。
図17(B)では、撮影範囲のほぼ半分を隣接する三次元画像センサ11と重複させて八台の三次元画像センサ11−1〜11−8を配置している。この場合、三次元画像センサ11−2で撮影したフレームデータが、合成できなくても、撮影範囲が重複する三次元画像センサ11−5,11−6で撮影したフレームデータが合成できれば、三次元画像センサ11−2の撮影範囲をカバーできるため、フレームの欠損を抑えることができる。
図18は、フレームデータの取得処理の一例を示す図である。図18の例では、三次元動画生成装置10(図16ではフレーム合成装置10B)が、各三次元画像センサ11へ一斉に撮影タイミングを指示し(ステップS301)、この撮影指示に応じて各三次元センサ11がそれぞれ撮影を行い(ステップS302)、フレームデータを三次元動画生成装置10へ送信する(ステップS303)。
三次元動画生成装置10は、取得したフレームデータを記憶すると共に、各撮影指示と対応するフレームデータの組み合わせ(対応関係)を記憶する(ステップS304)。
三次元動画生成装置10は、上記のように各三次元画像センサ11−1〜11−4からフレームデータを取得した後、同様に次の撮影指示(ステップS301)〜記憶(ステップS304)を行う。即ち三次元動画生成装置10は、各三次元画像センサ11−1〜11−4からのフレームデータが全て取得できるまで、次の撮影指示を行わない。そして、このステップS301〜ステップS304の処理を終了の指示があるまで繰り返す。このように、逐次、撮影指示を行うことで、各三次元画像センサ11−1〜11−4の撮影タイミングを同期させ、ほぼ同じタイミングで撮影したフレームデータの組み合わせを得ることができるので、この組み合わせに基づいて合成する候補を絞り込むことができる。なお、各撮影指示に応じて撮影されたフレームデータは、ほぼ同じタイミングで撮影されているはずであるが、この撮影指示を受けて実際に撮影を行い、フレームデータを出力するまでの時間は、三次元画像センサ毎に差があり、単純に同じ撮影指示に応じて撮影されたフレームデータを合成しても、正しい三次元画像データが得られるとは限らない。このため第一の三次元画像センサ11−1で撮影したフレームデータと同じ撮影指示及び前後所定数(例えば1〜2回)の撮影指示に応じて第二の三次元画像センサで撮影されたフレームデータを選択候補とする。
そして、図12に示したように、フレーム選択部12が、前述と同様に選択候補のフレームデータのうち、所定部位の位置が合致するフレームデータを選択し、これを合成部13が合成する。
なお、図18では、四台の三次元画像センサ11を用いた例を示したが、図17のように三次元画像センサ11の撮影範囲を重複させて設けた構成であってもよい。この場合、第一の三次元画像センサ11−1で撮影したフレームデータと同じ撮影指示に応じて第二の三次元画像センサ11−2〜11−8で撮影されたフレームデータのみを選択候補としてもよい。
図18では、三次元動画生成装置10が、各三次元画像センサ11−1〜11−4に撮影指示を逐次送信することで撮影タイミングを同期させたが、これに限らず、各三次元画像センサ11−1〜11−4に非同期で撮影を行わせてもよい。図19は、非同期で撮影させたフレームデータを取得する処理の例を示す図である。
図19の例では、三次元動画生成装置10(図16ではフレーム合成装置10B)が、各三次元画像センサ11へ一斉に撮影タイミングを指示し(ステップS401)、この撮影指示に応じて各三次元センサ11がそれぞれ撮影を行い(ステップS402)、フレー
ムデータを三次元動画生成装置10へ送信する(ステップS403)。そして、各三次元センサ11は、それぞれ所定の周期(例えば30fps)で撮影のステップS402から送信のステップS403を繰り返す。
一方、三次元動画生成装置10は、各三次元センサ11−1〜11−4からフレームデータを受信して記憶する(ステップS404)。なお、この処理は、各三次元センサ11−1〜11−4について同様に実行されるので、図19では、三次元センサ11−1からフレームデータを受信して記憶するステップS404を例示し、他の三次元センサ11−2〜11−4からフレームデータを受信して記憶するステップS404を省略して示した。そして、三次元動画生成装置10が終了指示(ステップS405)を行うと、各三次元センサ11−1〜11−4が撮影を終了する。
このように、非同期で撮影を行わせたフレームデータを取得した場合でも、三次元動画生成装置10は、図12に示したように、被写体の所定部位の位置に基づいて、同時に撮影されたフレームデータを選択し、合成に用いることができる。
図18の取得手法であれば、同期をとって撮影を行うので、図12のステップS20で選択候補とするフレームデータを絞り込むことができ、ステップS30でフレームデータを選択する処理負荷を抑えることができる。一方、図19の取得手法では、各三次元センサ11が同期による待ち時間をとることなく撮影を行うので、フレームレートを比較的高く維持することができる。
《その他》
本発明は、上述の図示例にのみ限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々変更を加え得ることは勿論である。
1 撮影装置
2 画像サーバ
3 ユーザ端末
4 ネットワーク
10 三次元動画生成装置
11 三次元画像センサ
11A カメラ
11B 計測部
11C 骨格情報生成部
12 フレーム選択部
13 合成部
14 出力部
15 フレーム取得部
21 データ受付部
22 配信受付部
23 データ配信部
31 配信要求部
32 データ受信部
33 表示制御部

Claims (5)

  1. 同一の被写体を撮影する複数の三次元画像センサからフレームデータ群を受信するフレーム取得部と、
    前記複数の三次元画像センサのうちの第1の三次元画像センサから受信されたフレームデータ群に含まれる各フレームデータを第2の三次元画像センサから受信されたフレームデータ群に含まれるフレームデータと比較し、統一された座標系上において前記比較されたフレームデータ中の動体である被写体の所定部位の位置が所定の許容値の範囲で合致するフレームを選択する選択部と、
    前記選択されたフレームデータを合成して、合成フレームデータを作成する合成部と、
    時間的に連続する前記合成フレームデータを三次元動画データとして出力する出力部と、
    を備える三次元動画生成装置。
  2. 請求項1に記載の三次元動画生成装置によって作成された前記三次元動画データの配信要求を受け付ける配信受付部と、
    前記配信要求を受け付けたときに、前記三次元動画データを要求元に配信するデータ配信部と、
    を備える三次元動画データの配信装置。
  3. 前記三次元画像センサによる前記被写体の撮影と並行して、前記データ配信部が、所定量毎に分割された前記三次元動画データを所定の時間間隔で前記要求元へ追加データとして送信する請求項2に記載の三次元動画データの配信装置。
  4. 同一の被写体を撮影する複数の三次元画像センサからフレームデータ群を受信するステップと、
    前記複数の三次元画像センサのうちの第1の三次元画像センサから受信されたフレームデータ群に含まれる各フレームデータを第2の三次元画像センサから受信されたフレームデータ群に含まれるフレームデータと比較し、統一された座標系上において前記比較されたフレームデータ中の被写体の所定部位の位置が所定の許容値の範囲で合致するフレームを選択するステップと、
    前記選択されたフレームデータを合成して、合成フレームデータを作成するステップと、
    時間的に連続する前記合成フレームデータを三次元動画データとして出力するステップと、
    をコンピュータが実行する三次元動画生成方法。
  5. 同一の被写体を撮影する複数の三次元画像センサからフレームデータ群を受信するステップと、
    前記複数の三次元画像センサのうちの第1の三次元画像センサから受信されたフレームデータ群に含まれる各フレームデータを第2の三次元画像センサから受信されたフレームデータ群に含まれるフレームデータと比較し、統一された座標系上において前記比較されたフレームデータ中の被写体の所定部位の位置が所定の許容値の範囲で合致するフレームを選択するステップと、
    前記選択されたフレームデータを合成して、合成フレームデータを作成するステップと、
    時間的に連続する前記合成フレームデータを三次元動画データとして出力するステップと、
    をコンピュータに実行させるための三次元動画生成プログラム。
JP2016210877A 2016-10-27 2016-10-27 三次元動画生成装置、三次元動画データの配信装置、三次元動画生成方法、及び三次元動画生成プログラム Pending JP2018073061A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016210877A JP2018073061A (ja) 2016-10-27 2016-10-27 三次元動画生成装置、三次元動画データの配信装置、三次元動画生成方法、及び三次元動画生成プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016210877A JP2018073061A (ja) 2016-10-27 2016-10-27 三次元動画生成装置、三次元動画データの配信装置、三次元動画生成方法、及び三次元動画生成プログラム

Publications (1)

Publication Number Publication Date
JP2018073061A true JP2018073061A (ja) 2018-05-10

Family

ID=62115376

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016210877A Pending JP2018073061A (ja) 2016-10-27 2016-10-27 三次元動画生成装置、三次元動画データの配信装置、三次元動画生成方法、及び三次元動画生成プログラム

Country Status (1)

Country Link
JP (1) JP2018073061A (ja)

Similar Documents

Publication Publication Date Title
JP7452596B2 (ja) 通信端末、表示方法、プログラム及び画像通信システム
JP5035372B2 (ja) 三次元モデリング装置、三次元モデリング方法、ならびに、プログラム
WO2021104037A1 (zh) 数据处理方法、装置、电子设备及存储介质
CN108292489A (zh) 信息处理装置和图像生成方法
US8724849B2 (en) Information processing device, information processing method, program, and information storage medium
JP2014238731A (ja) 画像処理装置、画像処理システム、および画像処理方法
JP5927856B2 (ja) 画像処理装置、画像処理方法及びプログラム
US10901213B2 (en) Image display apparatus and image display method
JP2017069718A (ja) 撮像装置、情報処理装置、表示装置、情報処理システム、画像データ送出方法、および画像表示方法
JP2014126906A (ja) 表示制御装置、表示制御システム、表示制御方法及びプログラム
JP5892060B2 (ja) 表示制御装置、表示制御システム、表示制御方法及びプログラム
WO2017134770A1 (ja) 映像同期装置
JP2018198025A (ja) 画像処理装置、画像処理装置の制御方法及びプログラム
JP2007102478A (ja) 画像処理装置、画像処理方法、及び半導体集積回路
JPWO2018033952A1 (ja) パノラマ画像合成解析システム、パノラマ画像合成解析方法及びプログラム
JP6930423B2 (ja) 受信装置、受信方法および送受信システム
JP2018073061A (ja) 三次元動画生成装置、三次元動画データの配信装置、三次元動画生成方法、及び三次元動画生成プログラム
US20240015264A1 (en) System for broadcasting volumetric videoconferences in 3d animated virtual environment with audio information, and procedure for operating said device
JP2014225868A (ja) 撮像装置
JP7225016B2 (ja) Ar空間画像投影システム、ar空間画像投影方法及びユーザ端末
JP3631117B2 (ja) 映像処理装置及びその方法並びに記憶媒体
WO2022181378A1 (ja) 画像処理装置、画像処理方法、及びプログラム
JP5015109B2 (ja) 情報処理装置、情報処理方法、プログラム及び情報記憶媒体
JP7357554B2 (ja) 同期制御装置、同期制御装置の制御方法、システム
JP3927965B2 (ja) 映像処理装置及びその方法