JP2011149952A - モデル入力装置およびモデル生成システム - Google Patents

モデル入力装置およびモデル生成システム Download PDF

Info

Publication number
JP2011149952A
JP2011149952A JP2011053245A JP2011053245A JP2011149952A JP 2011149952 A JP2011149952 A JP 2011149952A JP 2011053245 A JP2011053245 A JP 2011053245A JP 2011053245 A JP2011053245 A JP 2011053245A JP 2011149952 A JP2011149952 A JP 2011149952A
Authority
JP
Japan
Prior art keywords
model
light
unit
data
input device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011053245A
Other languages
English (en)
Inventor
Yukinori Matsumoto
幸則 松本
Kota Fujimura
恒太 藤村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2011053245A priority Critical patent/JP2011149952A/ja
Publication of JP2011149952A publication Critical patent/JP2011149952A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

【課題】高精度に対象物の動立体モデル(三次元動画像データ)を取得することができるモデル入力装置およびモデル生成システムを提供する。
【解決手段】モデル入力装置は、対象物の色彩データを取得する撮影部10cと、可視光以外の波長を有する光を前記対象物へ照射する照射部10aと、前記対象物で反射された前記光を受光する受光部10bと、内部に前記撮影部と前記照射部と前記受光部とを備えるユニット10と、前記撮影部で得られた前記色彩データと前記受光部で得られた反射光に関する情報とをコンピュータへ出力可能なインターフェースと、を備える。
【選択図】図1

Description

本発明はモデル入力装置およびモデル生成システム、特に動く対象物についての複数枚の画像データから対象物の動き立体モデル(三次元モデル)を生成する三次元モデリング技術に関する。
従来より、動きデータを獲得する方法として、モーションキャプチャシステムが実用化されており、映画製作などに応用されている。これは、主に人の動きデータを獲得することを目的とし、人の関節にマーカあるいはセンサをつけ、人の動きに応じてその位置を検出することで、人の骨格の動きデータを得るものである。
より具体的には、モーションキャプチャシステムは2種類に分けられ、磁気センサを用いるもの、および光学的手法によるものが存在する。磁気センサを用いるものは、関節に磁気センサを取り付け、空間内の磁場に基づいて各センサは自身の位置を得る。人間の動きにしたがって、各センサの位置が変わり、これが関節の動きデータとして獲得されるものである。但し、この手法では、各センサにケーブルを接続する必要があり、これが人の動きを不自由にするという問題がある。また、磁場を乱す環境では正確に動きデータが得られないと言う問題もある。
一方、光学式では、たとえばLEDを関節にマーカとして取り付ける。これを複数のカメラにて観測し、三角測量原理で各LEDの位置を検出する。但し、この手法では、データ入力空間を暗めにしなければならず、また、リアルタイムでの動きデータ獲得は難しいと言う問題がある。
さらに、磁気式あるいは光学式のいずれの方法においても、動きデータのみ獲得するものであり、動いている物体(人)自体の三次元形状データを得るものではない。
特開平11−219422号公報 特開2001−082940号公報 特開平11−175692号公報
これに対し、CMU(カーネギーメロン大学)では、複数カメラを配置した空間内で人が動作し、ステレオ法によって対象物体(人)の動き付き三次元データを得る方法を発表している。
しかしながら、この方法でも、動き付き三次元データは得られるものの、
(1)受動的ステレオ法に基づいているため、対象物に十分なテクスチャ情報がない場合、きわめて精度の悪い形状データとなる
(2)三次元データの羅列を得ているため、獲得データ量はきわめて多大となるという問題を有しており、実際の応用分野に適切なデータを提供しているとは言えない。
本発明は、上記従来技術の有する課題に鑑みなされたものであり、その目的は、対象物体の表面色彩に影響されることなく、高精度に対象物の動立体モデル(三次元動画像データ)を取得することができるモデル入力装置およびモデル生成システムを提供することにある。
上記目的を達成するために、本発明のモデル入力装置は、対象物の色彩データを取得する撮影部(例えば、カラーカメラ10c)と、可視光以外の波長を有する光を前記対象物へ照射する照射部(例えば、プロジェクタ10a)と、前記対象物で反射された前記光を受光する受光部(例えば、近赤外カメラアレイ10b)と、内部に前記撮影部と前記照射部と前記受光部とを備えるユニット(例えば、入力ユニット10)と、前記撮影部で得られた前記色彩データと前記受光部で得られた反射光に関する情報とをコンピュータへ出力可能なインターフェース(例えば、インターフェースI/F)と、を備えることを特徴とする。
本装置において、前記撮影部と前記照射部とは可及的に離して前記ユニットに配置されることが好適である。
本装置において、前記反射光に関する情報に基づいて、三次元形状データと動きデータを取得することもできる。
本装置において、前記受光部は、可視光以外の波長を有する光を受光可能な素子が複数個配列されることが好適である。
また、本発明のモデル生成システムは、対象物の色彩データを取得する撮影部(例えば、カラーカメラ10c)と、可視光以外の波長を有する光を前記対象物へ照射する照射部(例えば、プロジェクタ10a)と、前記対象物で反射された前記光を受光する受光部(例えば、近赤外カメラアレイ10b)と、内部に前記撮影部と前記照射部と前記受光部とを備えるユニット(例えば、入力ユニット10)と、前記撮影部で得られた前記色彩データと前記受光部で得られた反射光に関する情報とをコンピュータへ出力可能なインターフェース(例えば、インターフェースI/F)と、を備えるモデル入力装置と、前記インターフェースを介して前記モデル入力装置と接続され、三次元形状データが登録された三次元形状データベースを有し、前記反射光に関する情報に基づく動きデータと前記三次元形状データベースに登録された前記三次元形状データとを合成するモデル合成装置(例えば、コンピュータ18)と、を備えることを特徴とする。
本システムにおいて、前記モデル合成装置は、前記撮影部で取得された前記色彩データを記憶する画像メモリをさらに有することもできる。
本システムにおいて、前記モデル合成装置は、前記反射光に関する情報に基づく三次元形状データと前記反射光に関する情報と同時刻に取得された色彩データとを合成することが好適である。
本システムにおいて、前記モデル合成装置と接続され、前記モデル合成装置にて合成された動立体モデルを出力する出力装置(例えば、出力装置20)をさらに備えることもできる。
ここで、前記三次元形状データであるボクセルデータは連続した時間にわたって取得され、前記骨格データを生成する手段は、ある時刻に取得された前記ボクセルデータの細線化処理を少なくとも複数時刻にわたって実行することにより前記骨格データを生成することが好適である。
また、前記剛体グループに区分する手段は、前記骨格データの動きの方向及び大きさが略同一である骨格要素を同一剛体グループに属するとして区分することができる。また、前記剛体グループに区分する手段は、前記骨格データの動きの方向及び大きさを前記細線化処理後の一部の連続したボクセル座標の1次関数として記述し、この1次関数記述との誤差が一定値以下となる連続したボクセルを同一剛体グループに属するとして区分することもできる。
また、本装置において、さらに、前記骨格データ及び剛体グループ毎の運動パラメータを前記三次元形状データ及び色彩データとは別に記憶する手段とを有することが好適である。
ここで、前記骨格データ及び剛体グループ毎の運動パラメータと、異なる対象物について得られた前記三次元形状データ及び色彩データとを合成する手段とを有することもできる。
以上説明したように、本発明によれば、対象物体の表面色彩に影響されることなく、高精度に対象物の動立体モデル(三次元動画像データ)を取得することができる。
実施形態の構成図である。 図1におけるコンピュータの構成図である。 ステレオ法の原理説明図(その1)である。 ステレオ法の原理説明図(その2)である。 ステレオ法の原理説明図(その3)である。 三次元データの計算処理を示す説明図である。 細線化処理説明図である。
以下、図面に基づき本発明の実施形態について説明する。
<第1実施形態>
まず、本実施形態の基本概念について説明する。対象物体の表面色彩に左右されず精度良く三次元動画データを入力するためには、受動的手法ではなく、能動的手法が有効である。すなわち、何らかのパタン光を対象物に照射し、これを観測することで対象物の形状を得る方法である。ここで使用されるパタンとして、スリット光などの構造化光やランダム光などが代表的である。
いま、全周囲の動きつき三次元データを獲得することを前提にした場合、一方向だけでなく、複数の方向から同時にパタンを照射する必要がある。ここで、スリット光などの構造化光はパタンそのものに意味があるため、これを複数方向から同時に同じ対象物に照射すると互いのパタン光が干渉しあい、その結果、誤った形状データをえることになる。
一方、ランダム光の場合、パタンそのものには意味をもたない。したがって、複数方向からの同時照射を行っても問題ない。ただし、入力カメラは複数必要であり、これらでステレオ法を適用すればよい。
加えて、対象物体に対し全方向からの色彩(テクスチャ)データを獲得するためには、複数方向からカラーカメラにて対象物を撮影する必要がある。また、このテクスチャデータ獲得は、上記の三次元データ入力と同時に行わなければならないが、上記のパタン光はカラーカメラで撮影される画像には写るべきではない。なぜなら、このパタン光は本来の対象物の持つ色彩以外の不要な情報を与えるためである。
以上のことから、下記のものから構成される入力ユニットを用いることが好適となる。
(a)可視光以外、例えば近赤外線によるランダムパタン照射プロジェクタ
(b)近赤外カメラアレイ
(c)カラーカメラ
そして、このユニットを対象物に対して複数配置することにより、対象物全周囲の動きつき三次元データ入力が可能となる。
図1には、本実施形態の動立体モデル生成装置の構成が示されている。図1(A)は動立体モデル作成装置の入力ユニットであり、図1(B)は動立体モデル生成装置の全体構成図である。
入力ユニット10は、近赤外線によるランダムパタンを照射するプロジェクタ10a、プロジェクタ10aから照射され対象物で反射されたランダムパタンを受光する近赤外カメラアレイ10b及び対象物の色彩テクスチャを取得するためのカラーカメラ10cから構成される。
そして、このような入力ユニットを複数、例えば図1(B)に示されるように入力ユニット10、12、14、16と4つ、対象物(例えば人)の周囲に配置し、それぞれのユニット内の近赤外カメラアレイ10bで得られた近赤外画像及びカラーカメラ10cで得られたカラー画像を処理用コンピュータ18に供給する。なお、各ユニット内の近赤外カメラアレイ10b及びカラーカメラ10cの相対的位置関係は既知で固定であり、また、各ユニット間の相対的位置関係も予め正確に算出しておく。さらに、配置された全ユニット間にて近赤外カメラアレイ10bは相互に同期することが望ましく、カラーカメラ10cも同期することが望ましい。
図2には、図1におけるコンピュータ18の構成ブロック図が示されている。入出力インターフェースI/F、CPU、ROM、画像メモリ、三次元形状データベース及び骨格データベースを有して構成される。
近赤外カメラ及びカラーカメラで得られた画像データはインターフェースI/Fからコンピュータ18に取り込まれ、画像メモリに記憶される。
CPUは、画像メモリに記憶された画像データから後述する処理を実行して三次元形状データ及び色彩データを取得し、三次元形状データベースに登録する。本実施形態では、動きのある三次元物体をモデリングするため、三次元形状データベースには時間的に連続した三次元形状データが記憶される。ある時刻における三次元形状データをフレームと言うことができる。また、CPUは三次元形状データベースに記憶された三次元形状データ及び色彩データから骨格データ及びその動きデータを分離抽出し、骨格データベースに登録する。
ROMは、後述するモデリング処理を実行するための処理プログラムを格納し、CPUはこのROMに記憶されたプログラムを読み出し順次実行することで動きのある三次元物体をモデリングする。なお、この実施例ではプログラムをROMに格納しているが、この他ハードディスク、CD−ROMなど他の記憶媒体に格納されていてもよい。
以上の装置によってある時刻に入力された対象物の画像データの処理の流れを示すと以下の通りである。
(1)部分奥行きデータの獲得
(2)全三次元データの計算
(3)テクスチャ付き三次元データの獲得
これらの処理について順次説明する。
<部分奥行きデータの獲得>
部分奥行きデータの獲得とは、各ユニットにおいて獲得される部分的三次元データを獲得することである。ここでは、対象物に対し、近赤外線プロジェクタ10aからランダムパタンが照射されている。この画像を近赤外線カメラアレイ10bにて撮影したものが入力画像になる。良く知られたマルチベースラインステレオなどの方法により、対象物のうち、全カメラの共通視野部分についてはカメラアレイ10bからの距離データ(奥行きデータ)を求めることができる。
マルチベースラインステレオの原理は以下のとおりである。今、図3に示されるように対象物100の周囲に3つのカメラA、B、Cを配置し、それぞれのカメラで得られた画像が画像102(カメラAの画像)、画像104(カメラBの画像)、画像106(カメラCの画像)であるとする。カメラAの画像102における点aの対応点として、カメラBの画像104における対応点候補は図4に示されるようにb1、b2、b3のように複数存在する。これらの対応点候補それぞれに応じて奥行きがz1、z2、z3と計算される。この段階ではどれが正しい奥行き候補かは特定できない。しかしながら、3つ以上のカメラを用いた場合、これらの複数候補から絞込みを行うことができる。たとえば、図5のようにカメラCが存在した場合、CにおいてもカメラAの画像102の点aに対応する対応点候補が複数存在し、それぞれの奥行きが存在する。しかし、これらの候補のうち、正しい対応点候補については奥行き値が一致するはずである。すなわち、複数カメラを用いて対応点候補を得た後、これらのなかで奥行きが一致するもの(図中Q)を最終的に真の対応点とし、その点の奥行き値を最終的な奥行きデータとする。但し、これらの奥行きデータは、この時点では各ユニットから見た部分的な情報に過ぎない。次に、これらを統合する必要がある。
<全三次元データの計算>
入力ユニットが図1(B)に示されるように4つの入力ユニット10、12、14、16から構成されている場合、4つのユニットの視野に共通な空間が存在する。そして、対象物はこの共通空間に存在すると仮定することができる。さもなければ、対象物の少なくとも一部分についてデータが獲得できなくなるからである。そして、この共通空間をボクセル空間、すなわち微小な立方体の集合で表現する。
上述した部分奥行きデータの獲得処理により、各ユニット毎に部分奥行きデータが算出される。各ユニットからの奥行きデータをDz、ボクセル空間の各ボクセルとユニット間の距離をDvとすると、これらの部分奥行きデータは以下の処理により統合される。
(1)図6に示されるように、各ユニットについて、かつ、全ボクセルについてDv>Dzであれば、そのボクセルに1点を加える。つまり、全ボクセルのうち、奥行きデータ以遠にあるボクセルについて1点を加える。4つのユニットについて行うことで、各ボクセルは0〜4のいずれかの値をとることになる。ちなみに、0は奥行きデータより手前に位置するボクセルであり、物体の外に対応するボクセルである。
(2)4点を獲得したボクセルのみを抽出し、これらを対象物に対応したボクセルとみなす。
なお、入力ユニットをn個用いた場合には、ステップ(2)にてn点を獲得したボクセルを抽出すればよい。また、nが大きい場合、ステップ(2)にて(n−1)点、さらにより一般的には(n−m)点(n>m)を獲得したボクセルを抽出してもよい。
以上の処理により対象物に相当するボクセルを抽出し、ボクセル空間で表現されたデータをポリゴン表現に変換する。
<テクスチャつき三次元データの獲得>
各ポリゴンに対し、割り当てる色彩データ(テクスチャデータ)を、同じ時刻にカラーカメラ10cによって撮影した画像を参照して獲得する。
以上の3つの処理をすべての時刻に関して行うことで、精度の良い三次元動画像データを求めることができる。
そして、算出された三次元動画像データは三次元形状データベースに登録され、必要に応じてCPUがこれを読み出し、出力装置20に出力することができる。
<第2実施形態>
上述した第1実施形態では、三次元画像データの羅列を求めていた。しかし、この羅列から、さらに動きデータと形状データを分離することにより、三次元動画像データをきわめて少ないデータ量で表現可能となる、また、動きデータのみを取り出し別の形状データに適用可能になる、等の利点が発生する。
そこで、本実施形態では、動きデータと形状データを分離する方法について説明する。なお、装置の構成は図1及び図2と同様であり、すべての画像は1/30秒毎に同期して撮影され、これら同時刻に撮影された画像を同一時刻フレームと呼ぶことにする。同時刻フレームの情報を使って、各フレームでの三次元データ(形状+色彩)を求めることになる。
処理の流れは以下の通りである。
(1)各フレームでの骨格データ生成
(2)フレーム間での骨格データ比較
(3)最終骨格データ生成
以下、これらの処理について順次説明する。
<各フレーム間での骨格データ生成>
第1実施形態で述べたように、各フレームでの三次元形状データについては、一旦ボクセルデータとして表現される。ここで、画像処理分野で良く知られた細線化処理を行う。細線化処理については、例えば、「コンピュータ画像処理入門」(田村秀行著、日本工業技術センタ編)に記載されている。細線化とは、与えられた図形から線幅を狭めて幅1の中心線を抽出する操作であり、「画像中の境界点の中から消去可能要素でありかつ線の端点ではない画素をすべて消去する」アルゴリズムを基本とする。この基本アルゴリズムを画像全体の画素に施す1回の操作とし、これを消去される画素がなくなるまで反復することで実行することができる。
なお、一般に細線化処理はピクセル空間で表現された二次元画像を対象に行われるが、これを三次元画像すなわちボクセル空間に拡張することは容易である。この細線化処理の結果が、対象物、例えば人間の骨格に相当する。
図7には、細線化処理された対象物(人)が模式的に示されている。図7(A)はボクセルデータを二次元的に表現したものであり、図7(B)はこのボクセルデータを細線化処理したものである。図7(B)の実線は、単位ボクセルが連結したものである。
<フレーム間での骨格データ比較>
ここでは、細線化処理の結果得られた点列の位置を、連続したフレーム間で比較し、点列の動きを求める。
具体的には、以下の処理となる。
(1)点列の特徴点(端点、分岐点)を求める。
(2)隣接フレームで近傍の特徴点の対応づけを行う。
(3)特徴点間の点列について、対応づけを行う。
ここでは、対象物の動きは連続しており、また、その動きは撮影時間間隔に対し十分緩やかであると仮定している。したがって、隣接フレーム間において、上記特徴点は十分に近傍に存在するという前提となっている。(1)での点列の特徴点は、前フレームにおける各特徴点の近傍について、次フレームでの対応点を探索すれば良い。これが(2)の処理になる。そして、特徴点の間に挟まれた点列について、それぞれ対応づけをする。
ここで、特徴点間の距離は、本来同じであるが、画像処理誤差などから必ずしも実際には一致しない。このため、ほぼ平均的に割り当てるなどの方法を用いることが好適である。
<最終骨格データ生成>
ここでは、すべての点のフレーム間対応関係に基づき、それぞれのフレーム間での移動ベクトルを計算する。そして、点のグルーピングを行う。具体的には隣接点において移動ベクトルが同じ方向であり、かつ大きさがほぼ等しいものについては同じグループであるとする。そして、さらに同じグループのものは剛体運動となるという制約を満たすかどうかの判定を行う。これは、例えば、腕を曲げるという動きをした場合において、下腕と上腕とで各々の骨格に属する点列は同じ剛体運動を行うが、別骨格のものは異なる剛体運動をすることに相当する。したがって、グループピングとは、点列を複数の剛体グループに分離すると表現することもできる。最後に、これらグループ分けされた点列について、剛体運動パラメータ(並進と回転)を決定する。
以上のようにして、自動的に骨格とその動きデータを抽出することができる。
そして、抽出された骨格と動きデータは図2における骨格データベースに登録される。得られた骨格データと動きデータは、CGなどで生成された類似骨格を持つ別のデータに適用し、同様の動きをつけることができるため、極めて有用となる。
また、骨格データベースに登録されている骨格と動きデータを読み出し、分離された形状データを他の対象物についての形状データに置き換えて合成することで、コンピュータ上で任意の形状を有する対象物に同じような動きをさせることも可能となる。すなわち、骨格と動きデータをΦ、形状データをΨとした場合、元の動立体モデルはΦ+Ψであるが、Ψの代わりに予め三次元形状データベースに登録されている他の対象物についての三次元形状データΩを用いてΦ+Ωを生成することで、Ωの形状にΦの動きをさせることができる。
以上では、自動的に骨格データを求める方法について述べたが、あるフレームにおいて、手動で骨格を割り当て、以後、これを基本に骨格の動きを追跡して動きデータを得ても良い。
10、12、14、16 入力ユニット、18 コンピュータ、20 出力装置。

Claims (8)

  1. 対象物の色彩データを取得する撮影部と、
    可視光以外の波長を有する光を前記対象物へ照射する照射部と、
    前記対象物で反射された前記光を受光する受光部と、
    内部に前記撮影部と前記照射部と前記受光部とを備えるユニットと、
    前記撮影部で得られた前記色彩データと前記受光部で得られた反射光に関する情報とをコンピュータへ出力可能なインターフェースと、
    を備えることを特徴とするモデル入力装置。
  2. 請求項1記載のモデル生成装置において、
    前記撮影部と前記照射部とは可及的に離して前記ユニットに配置されることを特徴とするモデル入力装置。
  3. 請求項1記載のモデル生成装置において、
    前記反射光に関する情報に基づいて、三次元形状データと動きデータを取得することを特徴とするモデル入力装置。
  4. 請求項1記載のモデル生成装置において、
    前記受光部は、可視光以外の波長を有する光を受光可能な素子が複数個配列されることを特徴とするモデル入力装置。
  5. 対象物の色彩データを取得する撮影部と、可視光以外の波長を有する光を前記対象物へ照射する照射部と、前記対象物で反射された前記光を受光する受光部と、内部に前記撮影部と前記照射部と前記受光部とを備えるユニットと、前記撮影部で得られた前記色彩データと前記受光部で得られた反射光に関する情報とをコンピュータへ出力可能なインターフェースと、を備えるモデル入力装置と、
    前記インターフェースを介して前記モデル入力装置と接続され、三次元形状データが登録された三次元形状データベースを有し、前記反射光に関する情報に基づく動きデータと前記三次元形状データベースに登録された前記三次元形状データとを合成するモデル合成装置と、
    を備えることを特徴とするモデル生成システム。
  6. 請求項5記載のモデル生成システムにおいて、
    前記モデル合成装置は、前記撮影部で取得された前記色彩データを記憶する画像メモリをさらに有することを特徴とするモデル生成システム。
  7. 請求項5記載のモデル生成システムにおいて、
    前記モデル合成装置は、前記反射光に関する情報に基づく三次元形状データと前記反射光に関する情報と同時刻に取得された色彩データとを合成することを特徴とするモデル生成システム。
  8. 請求項5記載のモデル生成システムにおいて、 前記モデル合成装置と接続され、前記モデル合成装置にて合成された動立体モデルを出力する出力装置をさらに備えることを特徴とするモデル生成システム。
JP2011053245A 2011-03-10 2011-03-10 モデル入力装置およびモデル生成システム Pending JP2011149952A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011053245A JP2011149952A (ja) 2011-03-10 2011-03-10 モデル入力装置およびモデル生成システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011053245A JP2011149952A (ja) 2011-03-10 2011-03-10 モデル入力装置およびモデル生成システム

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2001255670A Division JP4761670B2 (ja) 2001-08-27 2001-08-27 動立体モデル生成装置及び方法

Publications (1)

Publication Number Publication Date
JP2011149952A true JP2011149952A (ja) 2011-08-04

Family

ID=44537031

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011053245A Pending JP2011149952A (ja) 2011-03-10 2011-03-10 モデル入力装置およびモデル生成システム

Country Status (1)

Country Link
JP (1) JP2011149952A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9922451B2 (en) 2015-03-05 2018-03-20 Seiko Epson Corporation Three-dimensional image processing apparatus and three-dimensional image processing system
JP2020060451A (ja) * 2018-10-10 2020-04-16 日野自動車株式会社 荷室監視システム及び荷室監視方法

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6198236A (ja) * 1984-10-19 1986-05-16 三菱電機株式会社 人物同定方法
JPH06209923A (ja) * 1993-01-13 1994-08-02 Terumo Corp 体格測定装置
JPH0850660A (ja) * 1994-08-05 1996-02-20 Atr Tsushin Syst Kenkyusho:Kk 像の実時間認識合成装置
JPH10149445A (ja) * 1996-11-19 1998-06-02 Image Joho Kagaku Kenkyusho 身体動作解析可視化装置
JPH11175692A (ja) * 1997-12-05 1999-07-02 Hitachi Denshi Ltd 関節の動きデータ収集装置
JPH11183143A (ja) * 1997-12-24 1999-07-09 Anima Kk 動的形状計測装置
JPH11219422A (ja) * 1998-02-02 1999-08-10 Hitachi Ltd 顔による個人同定通信方法
JPH11326057A (ja) * 1998-05-20 1999-11-26 Kao Corp 三次元物体の計測方法及び装置
JP2001082940A (ja) * 1999-09-14 2001-03-30 Sanyo Electric Co Ltd 立体モデル生成装置及び方法
JP2003061936A (ja) * 2001-08-27 2003-03-04 Sanyo Electric Co Ltd 動立体モデル生成装置及び方法

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6198236A (ja) * 1984-10-19 1986-05-16 三菱電機株式会社 人物同定方法
JPH06209923A (ja) * 1993-01-13 1994-08-02 Terumo Corp 体格測定装置
JPH0850660A (ja) * 1994-08-05 1996-02-20 Atr Tsushin Syst Kenkyusho:Kk 像の実時間認識合成装置
JPH10149445A (ja) * 1996-11-19 1998-06-02 Image Joho Kagaku Kenkyusho 身体動作解析可視化装置
JPH11175692A (ja) * 1997-12-05 1999-07-02 Hitachi Denshi Ltd 関節の動きデータ収集装置
JPH11183143A (ja) * 1997-12-24 1999-07-09 Anima Kk 動的形状計測装置
JPH11219422A (ja) * 1998-02-02 1999-08-10 Hitachi Ltd 顔による個人同定通信方法
JPH11326057A (ja) * 1998-05-20 1999-11-26 Kao Corp 三次元物体の計測方法及び装置
JP2001082940A (ja) * 1999-09-14 2001-03-30 Sanyo Electric Co Ltd 立体モデル生成装置及び方法
JP2003061936A (ja) * 2001-08-27 2003-03-04 Sanyo Electric Co Ltd 動立体モデル生成装置及び方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9922451B2 (en) 2015-03-05 2018-03-20 Seiko Epson Corporation Three-dimensional image processing apparatus and three-dimensional image processing system
JP2020060451A (ja) * 2018-10-10 2020-04-16 日野自動車株式会社 荷室監視システム及び荷室監視方法
JP7191630B2 (ja) 2018-10-10 2022-12-19 日野自動車株式会社 荷室監視システム及び荷室監視方法

Similar Documents

Publication Publication Date Title
KR102647351B1 (ko) 3차원의 포인트 클라우드를 이용한 모델링 방법 및 모델링 장치
JP4761670B2 (ja) 動立体モデル生成装置及び方法
Pan et al. ProFORMA: Probabilistic Feature-based On-line Rapid Model Acquisition.
US10225473B2 (en) Threshold determination in a RANSAC algorithm
EP2751777B1 (en) Method for estimating a camera motion and for determining a three-dimensional model of a real environment
JP5061350B2 (ja) モーションキャプチャシステム、及びモーションキャプチャシステムにおける特徴点の三次元再構成法
Hoppe et al. Online Feedback for Structure-from-Motion Image Acquisition.
JP2019194616A (ja) 画像に基づく位置検出方法、装置、機器及び記憶媒体
Santos et al. 3D plant modeling: localization, mapping and segmentation for plant phenotyping using a single hand-held camera
GB2315124A (en) Real time tracking of camera pose
EP3382645B1 (en) Method for generation of a 3d model based on structure from motion and photometric stereo of 2d sparse images
JP6409433B2 (ja) 画像生成装置、画像検出システム及び画像生成方法
CN111080776B (zh) 人体动作三维数据采集和复现的处理方法及***
JP6541920B1 (ja) 情報処理装置、プログラム及び情報処理方法
US9245375B2 (en) Active lighting for stereo reconstruction of edges
Hafeez et al. Image based 3D reconstruction of texture-less objects for VR contents
JP2010211732A (ja) 物体認識装置および方法
JP2011149952A (ja) モデル入力装置およびモデル生成システム
JP2010238134A (ja) 画像処理装置及びプログラム
KR102075079B1 (ko) 하이브리드 카메라 기반 동작 추적 장치 및 그 방법
JPH0273471A (ja) 三次元形状推定方法
Amplianitis et al. Calibration of a multiple stereo and rgb-d camera system for 3d human tracking
JP6641313B2 (ja) 領域抽出装置及びプログラム
Pan et al. Rapid 3D modelling from live video
Lacher 3D breast surface reconstructions from consumer-grade RGB-D cameras

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110330

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20111118

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20111130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130402

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20130425

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20130426

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130530

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130625

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20130704

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20130704