JP4761670B2 - 動立体モデル生成装置及び方法 - Google Patents
動立体モデル生成装置及び方法 Download PDFInfo
- Publication number
- JP4761670B2 JP4761670B2 JP2001255670A JP2001255670A JP4761670B2 JP 4761670 B2 JP4761670 B2 JP 4761670B2 JP 2001255670 A JP2001255670 A JP 2001255670A JP 2001255670 A JP2001255670 A JP 2001255670A JP 4761670 B2 JP4761670 B2 JP 4761670B2
- Authority
- JP
- Japan
- Prior art keywords
- data
- dimensional
- motion
- skeleton
- dimensional shape
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Description
【発明の属する技術分野】
本発明は動立体モデル作成装置及び方法、特に動く対象物についての複数枚の画像データから対象物の動き立体モデル(三次元モデル)を生成する三次元モデリング技術に関する。
【0002】
【従来の技術】
従来より、動きデータを獲得する方法として、モーションキャプチャシステムが実用化されており、映画製作などに応用されている。これは、主に人の動きデータを獲得することを目的とし、人の関節にマーカあるいはセンサをつけ、人の動きに応じてその位置を検出することで、人の骨格の動きデータを得るものである。
【0003】
より具体的には、モーションキャプチャシステムは2種類に分けられ、磁気センサを用いるもの、および光学的手法によるものが存在する。磁気センサを用いるものは、関節に磁気センサを取り付け、空間内の磁場に基づいて各センサは自身の位置を得る。人間の動きにしたがって、各センサの位置が変わり、これが関節の動きデータとして獲得されるものである。但し、この手法では、各センサにケーブルを接続する必要があり、これが人の動きを不自由にするという問題がある。また、磁場を乱す環境では正確に動きデータが得られないと言う問題もある。
【0004】
一方、光学式では、たとえばLEDを関節にマーカとして取り付ける。これを複数のカメラにて観測し、三角測量原理で各LEDの位置を検出する。但し、この手法では、データ入力空間を暗めにしなければならず、また、リアルタイムでの動きデータ獲得は難しいと言う問題がある。
【0005】
さらに、磁気式あるいは光学式のいずれの方法においても、動きデータのみ獲得するものであり、動いている物体(人)自体の三次元形状データを得るものではない。
【0006】
【発明が解決しようとする課題】
これに対し、CMU(カーネギーメロン大学)では、複数カメラを配置した空間内で人が動作し、ステレオ法によって対象物体(人)の動き付き三次元データを得る方法を発表している。
【0007】
しかしながら、この方法でも、動き付き三次元データは得られるものの、
(1)受動的ステレオ法に基づいているため、対象物に十分なテクスチャ情報がない場合、きわめて精度の悪い形状データとなる
(2)三次元データの羅列を得ているため、獲得データ量はきわめて多大となるという問題を有しており、実際の応用分野に適切なデータを提供しているとは言えない。
【0008】
本発明は、上記従来技術の有する課題に鑑みなされたものであり、その目的は、対象物体の表面色彩に影響されることなく、高精度に対象物の動立体モデル(三次元動画像データ)を取得することができる装置及び方法を提供することにある。
【0009】
【課題を解決するための手段】
上記目的を達成するために、本発明は、三次元物体の三次元形状データ及び色彩データ並びに動きデータを生成する動立体モデル生成装置であって、動きのある前記三次元物体に対してパタン光を照射する照射手段と、前記三次元物体から反射した前記パタン光を順次受光することにより前記三次元形状データ及び動きデータを取得するパタン光受光手段と、前記三次元物体を撮影することにより前記色彩データを取得する撮影手段と、同時刻に取得された前記三次元形状データと前記色彩データとを合成する処理手段とを有し、前記パタン光は、前記撮影手段の感度波長以外の波長を有することを特徴とする。
【0010】
本装置において、前記パタン光は、ランダムパタン光であることが好適である。また、本装置において、前記パタン光は、近赤外波長であることが好適である。また、本装置において、さらに、合成された前記三次元形状データから骨格データを生成する手段と、前記骨格データの動きから前記骨格データを複数の剛体グループに区分する手段と、前記剛体グループ毎に運動パラメータを算出する手段とを有することができる。
【0011】
ここで、前記三次元形状データであるボクセルデータは連続した時間にわたって取得され、前記骨格データを生成する手段は、ある時刻に取得された前記ボクセルデータの細線化処理を少なくとも複数時刻にわたって実行することにより前記骨格データを生成することが好適である。
【0012】
また、前記剛体グループに区分する手段は、前記骨格データの動きの方向及び大きさが略同一である骨格要素を同一剛体グループに属するとして区分することができる。
【0013】
また、前記剛体グループに区分する手段は、前記骨格データの動きの方向及び大きさを前記細線化処理後の一部の連続したボクセル座標の1次関数として記述し、この1次関数記述との誤差が一定値以下となる連続したボクセルを同一剛体グループに属するとして区分することもできる。
【0014】
また、本装置において、さらに、前記骨格データ及び剛体グループ毎の運動パラメータを前記三次元形状データ及び色彩データとは別に記憶する手段とを有することが好適である。
【0015】
ここで、前記骨格データ及び剛体グループ毎の運動パラメータと、異なる対象物について得られた前記三次元形状データ及び色彩データとを合成する手段とを有することもできる。
【0016】
また、本発明は、三次元物体の三次元形状データ及び色彩データ並びに動きデータを生成する動立体モデル生成方法を提供する。この方法は、動きのある前記三次元物体に対してパタン光を照射するステップと、前記三次元物体から反射した前記パタン光を順次受光することにより前記三次元形状データ及び動きデータを取得するステップと、前記三次元物体を撮影することにより前記色彩データを取得するステップと、同時刻に取得された前記三次元形状データと前記色彩データとを合成するステップとを有し、前記パタン光は可視光波長以外の波長を有することを特徴とする。
【0017】
本方法において、前記パタン光は、ランダムパタン光であることが好適である。また、本方法において、前記パタン光は、近赤外波長であることが好適である。また、本方法において、さらに、合成された前記三次元形状データから骨格データを生成するステップと、前記骨格データの動きから前記骨格データを複数の剛体部分に区分するステップと、前記剛体部分毎に運動パラメータを算出するステップとを有することが好適である。
【0018】
ここで、前記骨格データを生成するステップは、ある時刻に取得された前記ボクセルデータを少なくとも複数時刻にわたって細線化するステップを含むことができる。
【0019】
また、前記剛体部分に区分するステップでは、前記骨格データの動きの方向及び大きさに基づき区分することができる。
【0020】
また、前記剛体部分に区分するステップでは、前記骨格データの動きの方向及び大きさを前記細線化処理後の一部の連続したボクセル座標の1次関数として記述し、この1次関数記述との誤差が一定値以下となる連続したボクセルを同一剛体グループに属するとして区分することもできる。
【0021】
また、本方法において、さらに、前記骨格データ及び剛体部分毎の運動パラメータを前記三次元形状データ及び色彩データとは分離してコンピュータのメモリに記憶するステップとを有することができる。
【0022】
本方法において、さらに、前記骨格データ及び剛体部分毎の運動パラメータと、予め前記メモリに記憶された異なる対象物について得られた前記三次元形状データ及び色彩データとを合成するステップとを有することもできる。
【0023】
【発明の実施の形態】
以下、図面に基づき本発明の実施形態について説明する。
【0024】
<第1実施形態>
まず、本実施形態の基本概念について説明する。対象物体の表面色彩に左右されず精度良く三次元動画データを入力するためには、受動的手法ではなく、能動的手法が有効である。すなわち、何らかのパタン光を対象物に照射し、これを観測することで対象物の形状を得る方法である。ここで使用されるパタンとして、スリット光などの構造化光やランダム光などが代表的である。
【0025】
いま、全周囲の動きつき三次元データを獲得することを前提にした場合、一方向だけでなく、複数の方向から同時にパタンを照射する必要がある。ここで、スリット光などの構造化光はパタンそのものに意味があるため、これを複数方向から同時に同じ対象物に照射すると互いのパタン光が干渉しあい、その結果、誤った形状データをえることになる。
【0026】
一方、ランダム光の場合、パタンそのものには意味をもたない。したがって、複数方向からの同時照射を行っても問題ない。ただし、入力カメラは複数必要であり、これらでステレオ法を適用すればよい。
【0027】
加えて、対象物体に対し全方向からの色彩(テクスチャ)データを獲得するためには、複数方向からカラーカメラにて対象物を撮影する必要がある。また、このテクスチャデータ獲得は、上記の三次元データ入力と同時に行わなければならないが、上記のパタン光はカラーカメラで撮影される画像には写るべきではない。なぜなら、このパタン光は本来の対象物の持つ色彩以外の不要な情報を与えるためである。
【0028】
以上のことから、下記のものから構成される入力ユニットを用いることが好適となる。
【0029】
(a)可視光以外、例えば近赤外線によるランダムパタン照射プロジェクタ
(b)近赤外カメラアレイ
(c)カラーカメラ
そして、このユニットを対象物に対して複数配置することにより、対象物全周囲の動きつき三次元データ入力が可能となる。
【0030】
図1には、本実施形態の動立体モデル生成装置の構成が示されている。図1(A)は動立体モデル作成装置の入力ユニットであり、図1(B)は動立体モデル生成装置の全体構成図である。
【0031】
入力ユニット10は、近赤外線によるランダムパタンを照射するプロジェクタ10a、プロジェクタ10aから照射され対象物で反射されたランダムパタンを受光する近赤外カメラアレイ10b及び対象物の色彩テクスチャを取得するためのカラーカメラ10cから構成される。
【0032】
そして、このような入力ユニットを複数、例えば図1(B)に示されるように入力ユニット10、12、14、16と4つ、対象物(例えば人)の周囲に配置し、それぞれのユニット内の近赤外カメラアレイ10bで得られた近赤外画像及びカラーカメラ10cで得られたカラー画像を処理用コンピュータ18に供給する。なお、各ユニット内の近赤外カメラアレイ10b及びカラーカメラ10cの相対的位置関係は既知で固定であり、また、各ユニット間の相対的位置関係も予め正確に算出しておく。さらに、配置された全ユニット間にて近赤外カメラアレイ10bは相互に同期することが望ましく、カラーカメラ10cも同期することが望ましい。
【0033】
図2には、図1におけるコンピュータ18の構成ブロック図が示されている。入出力インターフェースI/F、CPU、ROM、画像メモリ、三次元形状データベース及び骨格データベースを有して構成される。
【0034】
近赤外カメラ及びカラーカメラで得られた画像データはインターフェースI/Fからコンピュータ18に取り込まれ、画像メモリに記憶される。
【0035】
CPUは、画像メモリに記憶された画像データから後述する処理を実行して三次元形状データ及び色彩データを取得し、三次元形状データベースに登録する。本実施形態では、動きのある三次元物体をモデリングするため、三次元形状データベースには時間的に連続した三次元形状データが記憶される。ある時刻における三次元形状データをフレームと言うことができる。また、CPUは三次元形状データベースに記憶された三次元形状データ及び色彩データから骨格データ及びその動きデータを分離抽出し、骨格データベースに登録する。
【0036】
ROMは、後述するモデリング処理を実行するための処理プログラムを格納し、CPUはこのROMに記憶されたプログラムを読み出し順次実行することで動きのある三次元物体をモデリングする。なお、この実施例ではプログラムをROMに格納しているが、この他ハードディスク、CD−ROMなど他の記憶媒体に格納されていてもよい。
【0037】
以上の装置によってある時刻に入力された対象物の画像データの処理の流れを示すと以下の通りである。
【0038】
(1)部分奥行きデータの獲得
(2)全三次元データの計算
(3)テクスチャ付き三次元データの獲得
これらの処理について順次説明する。
【0039】
<部分奥行きデータの獲得>
部分奥行きデータの獲得とは、各ユニットにおいて獲得される部分的三次元データを獲得することである。ここでは、対象物に対し、近赤外線プロジェクタ10aからランダムパタンが照射されている。この画像を近赤外線カメラアレイ10bにて撮影したものが入力画像になる。良く知られたマルチベースラインステレオなどの方法により、対象物のうち、全カメラの共通視野部分についてはカメラアレイ10bからの距離データ(奥行きデータ)を求めることができる。
【0040】
マルチベースラインステレオの原理は以下のとおりである。今、図3に示されるように対象物100の周囲に3つのカメラA、B、Cを配置し、それぞれのカメラで得られた画像が画像102(カメラAの画像)、画像104(カメラBの画像)、画像106(カメラCの画像)であるとする。カメラAの画像102における点aの対応点として、カメラBの画像104における対応点候補は図4に示されるようにb1、b2、b3のように複数存在する。これらの対応点候補それぞれに応じて奥行きがz1、z2、z3と計算される。この段階ではどれが正しい奥行き候補かは特定できない。しかしながら、3つ以上のカメラを用いた場合、これらの複数候補から絞込みを行うことができる。たとえば、図5のようにカメラCが存在した場合、CにおいてもカメラAの画像102の点aに対応する対応点候補が複数存在し、それぞれの奥行きが存在する。しかし、これらの候補のうち、正しい対応点候補については奥行き値が一致するはずである。すなわち、複数カメラを用いて対応点候補を得た後、これらのなかで奥行きが一致するもの(図中Q)を最終的に真の対応点とし、その点の奥行き値を最終的な奥行きデータとする。但し、これらの奥行きデータは、この時点では各ユニットから見た部分的な情報に過ぎない。次に、これらを統合する必要がある。
【0041】
<全三次元データの計算>
入力ユニットが図1(B)に示されるように4つの入力ユニット10、12、14、16から構成されている場合、4つのユニットの視野に共通な空間が存在する。そして、対象物はこの共通空間に存在すると仮定することができる。さもなければ、対象物の少なくとも一部分についてデータが獲得できなくなるからである。そして、この共通空間をボクセル空間、すなわち微小な立方体の集合で表現する。
【0042】
上述した部分奥行きデータの獲得処理により、各ユニット毎に部分奥行きデータが算出される。各ユニットからの奥行きデータをDz、ボクセル空間の各ボクセルとユニット間の距離をDvとすると、これらの部分奥行きデータは以下の処理により統合される。
【0043】
(1)図6に示されるように、各ユニットについて、かつ、全ボクセルについてDv>Dzであれば、そのボクセルに1点を加える。つまり、全ボクセルのうち、奥行きデータ以遠にあるボクセルについて1点を加える。4つのユニットについて行うことで、各ボクセルは0〜4のいずれかの値をとることになる。ちなみに、0は奥行きデータより手前に位置するボクセルであり、物体の外に対応するボクセルである。
【0044】
(2)4点を獲得したボクセルのみを抽出し、これらを対象物に対応したボクセルとみなす。
【0045】
なお、入力ユニットをn個用いた場合には、ステップ(2)にてn点を獲得したボクセルを抽出すればよい。また、nが大きい場合、ステップ(2)にて(n−1)点、さらにより一般的には(n−m)点(n>m)を獲得したボクセルを抽出してもよい。
【0046】
以上の処理により対象物に相当するボクセルを抽出し、ボクセル空間で表現されたデータをポリゴン表現に変換する。
【0047】
<テクスチャつき三次元データの獲得>
各ポリゴンに対し、割り当てる色彩データ(テクスチャデータ)を、同じ時刻にカラーカメラ10cによって撮影した画像を参照して獲得する。
【0048】
以上の3つの処理をすべての時刻に関して行うことで、精度の良い三次元動画像データを求めることができる。
【0049】
そして、算出された三次元動画像データは三次元形状データベースに登録され、必要に応じてCPUがこれを読み出し、出力装置20に出力することができる。
【0050】
<第2実施形態>
上述した第1実施形態では、三次元画像データの羅列を求めていた。しかし、この羅列から、さらに動きデータと形状データを分離することにより、三次元動画像データをきわめて少ないデータ量で表現可能となる、また、動きデータのみを取り出し別の形状データに適用可能になる、等の利点が発生する。
【0051】
そこで、本実施形態では、動きデータと形状データを分離する方法について説明する。なお、装置の構成は図1及び図2と同様であり、すべての画像は1/30秒毎に同期して撮影され、これら同時刻に撮影された画像を同一時刻フレームと呼ぶことにする。同時刻フレームの情報を使って、各フレームでの三次元データ(形状+色彩)を求めることになる。
【0052】
処理の流れは以下の通りである。
【0053】
(1)各フレームでの骨格データ生成
(2)フレーム間での骨格データ比較
(3)最終骨格データ生成
以下、これらの処理について順次説明する。
【0054】
<各フレーム間での骨格データ生成>
第1実施形態で述べたように、各フレームでの三次元形状データについては、一旦ボクセルデータとして表現される。ここで、画像処理分野で良く知られた細線化処理を行う。細線化処理については、例えば、「コンピュータ画像処理入門」(田村秀行著、日本工業技術センタ編)に記載されている。細線化とは、与えられた図形から線幅を狭めて幅1の中心線を抽出する操作であり、「画像中の境界点の中から消去可能要素でありかつ線の端点ではない画素をすべて消去する」アルゴリズムを基本とする。この基本アルゴリズムを画像全体の画素に施す1回の操作とし、これを消去される画素がなくなるまで反復することで実行することができる。
【0055】
なお、一般に細線化処理はピクセル空間で表現された二次元画像を対象に行われるが、これを三次元画像すなわちボクセル空間に拡張することは容易である。この細線化処理の結果が、対象物、例えば人間の骨格に相当する。
【0056】
図7には、細線化処理された対象物(人)が模式的に示されている。図7(A)はボクセルデータを二次元的に表現したものであり、図7(B)はこのボクセルデータを細線化処理したものである。図7(B)の実線は、単位ボクセルが連結したものである。
【0057】
<フレーム間での骨格データ比較>
ここでは、細線化処理の結果得られた点列の位置を、連続したフレーム間で比較し、点列の動きを求める。
【0058】
具体的には、以下の処理となる。
【0059】
(1)点列の特徴点(端点、分岐点)を求める。
【0060】
(2)隣接フレームで近傍の特徴点の対応づけを行う。
【0061】
(3)特徴点間の点列について、対応づけを行う。
【0062】
ここでは、対象物の動きは連続しており、また、その動きは撮影時間間隔に対し十分緩やかであると仮定している。したがって、隣接フレーム間において、上記特徴点は十分に近傍に存在するという前提となっている。(1)での点列の特徴点は、前フレームにおける各特徴点の近傍について、次フレームでの対応点を探索すれば良い。これが(2)の処理になる。そして、特徴点の間に挟まれた点列について、それぞれ対応づけをする。
【0063】
ここで、特徴点間の距離は、本来同じであるが、画像処理誤差などから必ずしも実際には一致しない。このため、ほぼ平均的に割り当てるなどの方法を用いることが好適である。
【0064】
<最終骨格データ生成>
ここでは、すべての点のフレーム間対応関係に基づき、それぞれのフレーム間での移動ベクトルを計算する。そして、点のグルーピングを行う。具体的には隣接点において移動ベクトルが同じ方向であり、かつ大きさがほぼ等しいものについては同じグループであるとする。そして、さらに同じグループのものは剛体運動となるという制約を満たすかどうかの判定を行う。これは、例えば、腕を曲げるという動きをした場合において、下腕と上腕とで各々の骨格に属する点列は同じ剛体運動を行うが、別骨格のものは異なる剛体運動をすることに相当する。したがって、グループピングとは、点列を複数の剛体グループに分離すると表現することもできる。最後に、これらグループ分けされた点列について、剛体運動パラメータ(並進と回転)を決定する。
【0065】
以上のようにして、自動的に骨格とその動きデータを抽出することができる。
【0066】
そして、抽出された骨格と動きデータは図2における骨格データベースに登録される。得られた骨格データと動きデータは、CGなどで生成された類似骨格を持つ別のデータに適用し、同様の動きをつけることができるため、極めて有用となる。
【0067】
また、骨格データベースに登録されている骨格と動きデータを読み出し、分離された形状データを他の対象物についての形状データに置き換えて合成することで、コンピュータ上で任意の形状を有する対象物に同じような動きをさせることも可能となる。すなわち、骨格と動きデータをΦ、形状データをΨとした場合、元の動立体モデルはΦ+Ψであるが、Ψの代わりに予め三次元形状データベースに登録されている他の対象物についての三次元形状データΩを用いてΦ+Ωを生成することで、Ωの形状にΦの動きをさせることができる。
【0068】
以上では、自動的に骨格データを求める方法について述べたが、あるフレームにおいて、手動で骨格を割り当て、以後、これを基本に骨格の動きを追跡して動きデータを得ても良い。
【0069】
【発明の効果】
以上説明したように、本発明によれば、対象物体の表面色彩に影響されることなく、高精度に対象物の動立体モデル(三次元動画像データ)を取得することができる。
【図面の簡単な説明】
【図1】 実施形態の構成図である。
【図2】 図1におけるコンピュータの構成図である。
【図3】 ステレオ法の原理説明図(その1)である。
【図4】 ステレオ法の原理説明図(その2)である。
【図5】 ステレオ法の原理説明図(その3)である。
【図6】 三次元データの計算処理を示す説明図である。
【図7】 細線化処理説明図である。
【符号の説明】
10、12、14、16 入力ユニット、18 コンピュータ、20 出力装置。
Claims (4)
- 三次元物体の三次元形状データ及び色彩データ並びに動きデータを生成する動立体モデル生成装置であって、前記三次元物体を撮影することにより前記色彩データを取得する撮影手段と、動きのある前記三次元物体に対して前記撮影手段の感度波長以外の波長を有するパタン光を照射する照射手段と、前記三次元物体から反射した前記パタン光を順次受光することにより前記三次元形状データ及び動きデータを取得するパタン光受光手段と、同時刻に取得された前記三次元形状データと前記色彩データとを合成する処理手段と、を有する動立体モデル生成装置において、
合成された前記三次元形状データから骨格データを生成する手段と、
前記骨格データの動きの方向及び大きさから略同一である骨格要素を同一剛体グループに属するとして複数の剛体グループに区分する手段と、
前記剛体グループ毎に運動パラメータを算出する手段と、
を有することを特徴とする動立体モデル生成装置。 - 請求項1に記載の装置において、
前記骨格データ及び剛体グループ毎の運動パラメータを前記三次元形状データ及び色彩データとは別に記憶する手段を有することを特徴とする動立体モデル生成装置。 - 請求項2記載の装置において、
前記骨格データ及び剛体グループ毎の運動パラメータと異なる対象物について得られた前記三次元形状データ及び色彩データとを合成する手段を有することを特徴とする動立体モデル生成装置。 - 三次元物体の三次元形状データ及び色彩データ並びに動きデータを生成する動立体モデル生成方法であって、前記三次元物体を撮影することにより前記色彩データを取得するステップと、動きのある前記三次元物体に対して可視光波長以外の波長を有するパタン光を照射するステップと、前記三次元物体から反射した前記パタン光を順次受光することにより前記三次元形状データ及び動きデータを取得するステップと、同時刻に取得された前記三次元形状データと前記色彩データとを合成するステップと、を有する動立体モデル作成方法において、
合成された前記三次元形状データから骨格データを生成するステップと、
前記骨格データの動きの方向及び大きさから略同一である骨格要素を同一剛体グループに属するとして複数の剛体グループに区分するステップと、
前記剛体部分毎に運動パラメータを算出するステップと、
を有することを特徴とする動立体モデル生成方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001255670A JP4761670B2 (ja) | 2001-08-27 | 2001-08-27 | 動立体モデル生成装置及び方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001255670A JP4761670B2 (ja) | 2001-08-27 | 2001-08-27 | 動立体モデル生成装置及び方法 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011053245A Division JP2011149952A (ja) | 2011-03-10 | 2011-03-10 | モデル入力装置およびモデル生成システム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2003061936A JP2003061936A (ja) | 2003-03-04 |
JP4761670B2 true JP4761670B2 (ja) | 2011-08-31 |
Family
ID=19083599
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001255670A Expired - Fee Related JP4761670B2 (ja) | 2001-08-27 | 2001-08-27 | 動立体モデル生成装置及び方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4761670B2 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104949632A (zh) * | 2015-07-07 | 2015-09-30 | 北京博维恒信科技发展有限公司 | 物体表面形状三维扫描*** |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
SI21521A (sl) * | 2003-06-12 | 2004-12-31 | Univerza V Ljubljani | Naprava za ugotavljanje oblike in dimenzij trodimenzionalnega merjenca |
JP2006214735A (ja) * | 2005-02-01 | 2006-08-17 | Viewplus Inc | 複合ステレオビジョン装置 |
US7515734B2 (en) * | 2006-03-27 | 2009-04-07 | Eyecue Vision Technologies Ltd. | Device, system and method for determining compliance with a positioning instruction by a figure in an image |
US8284194B2 (en) | 2006-09-21 | 2012-10-09 | Thomson Licensing | Method and system for three-dimensional model acquisition |
US11007070B2 (en) | 2008-11-09 | 2021-05-18 | 3D Systems, Inc. | Modular custom braces, casts and devices and methods for designing and fabricating |
JP5440363B2 (ja) * | 2010-04-27 | 2014-03-12 | カシオ計算機株式会社 | 情報処理装置及び方法、並びにプログラム |
WO2011137596A1 (zh) * | 2010-05-07 | 2011-11-10 | 深圳泰山在线科技有限公司 | 结构光测量方法以及*** |
JP5644468B2 (ja) * | 2010-12-20 | 2014-12-24 | 株式会社ニコン | 撮像装置および撮像装置の制御プログラム |
JP2011149952A (ja) * | 2011-03-10 | 2011-08-04 | Sanyo Electric Co Ltd | モデル入力装置およびモデル生成システム |
JP6041127B2 (ja) * | 2011-08-29 | 2016-12-07 | 国立大学法人北海道大学 | 柱状物体抽出方法、柱状物体抽出プログラム、及び柱状物体抽出装置 |
EP3014332A4 (en) | 2013-06-28 | 2017-01-25 | Intel Corporation | Mems scanning mirror light pattern generation |
US9467680B2 (en) | 2013-12-12 | 2016-10-11 | Intel Corporation | Calibration of a three-dimensional acquisition system |
US10852131B2 (en) | 2015-08-19 | 2020-12-01 | Sony Corporation | Information processing apparatus and information processing method |
US10659764B2 (en) | 2016-06-20 | 2020-05-19 | Intel Corporation | Depth image provision apparatus and method |
US10609359B2 (en) | 2016-06-22 | 2020-03-31 | Intel Corporation | Depth image provision apparatus and method |
JP2019060709A (ja) * | 2017-09-26 | 2019-04-18 | 株式会社フリックフィット | 三次元形状測定装置 |
US11055907B2 (en) | 2018-02-20 | 2021-07-06 | Panasonic Intellectual Property Management Co., Ltd. | Three-dimensional data distribution device and three-dimensional data distribution method |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6198236A (ja) * | 1984-10-19 | 1986-05-16 | 三菱電機株式会社 | 人物同定方法 |
JPH06209923A (ja) * | 1993-01-13 | 1994-08-02 | Terumo Corp | 体格測定装置 |
JP2670663B2 (ja) * | 1994-08-05 | 1997-10-29 | 株式会社エイ・ティ・アール通信システム研究所 | 像の実時間認識合成装置 |
JPH10149445A (ja) * | 1996-11-19 | 1998-06-02 | Image Joho Kagaku Kenkyusho | 身体動作解析可視化装置 |
JPH11175692A (ja) * | 1997-12-05 | 1999-07-02 | Hitachi Denshi Ltd | 関節の動きデータ収集装置 |
JP3045490B2 (ja) * | 1997-12-24 | 2000-05-29 | アニマ株式会社 | 動的形状計測装置 |
JPH11219422A (ja) * | 1998-02-02 | 1999-08-10 | Hitachi Ltd | 顔による個人同定通信方法 |
JPH11326057A (ja) * | 1998-05-20 | 1999-11-26 | Kao Corp | 三次元物体の計測方法及び装置 |
JP2001082940A (ja) * | 1999-09-14 | 2001-03-30 | Sanyo Electric Co Ltd | 立体モデル生成装置及び方法 |
-
2001
- 2001-08-27 JP JP2001255670A patent/JP4761670B2/ja not_active Expired - Fee Related
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104949632A (zh) * | 2015-07-07 | 2015-09-30 | 北京博维恒信科技发展有限公司 | 物体表面形状三维扫描*** |
Also Published As
Publication number | Publication date |
---|---|
JP2003061936A (ja) | 2003-03-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4761670B2 (ja) | 動立体モデル生成装置及び方法 | |
KR102647351B1 (ko) | 3차원의 포인트 클라우드를 이용한 모델링 방법 및 모델링 장치 | |
Pan et al. | ProFORMA: Probabilistic Feature-based On-line Rapid Model Acquisition. | |
EP2751777B1 (en) | Method for estimating a camera motion and for determining a three-dimensional model of a real environment | |
US8698899B2 (en) | Motion capture system and method for three-dimensional reconfiguring of characteristic point in motion capture system | |
CN106997605B (zh) | 一种通过智能手机采集脚型视频和传感器数据获取三维脚型的方法 | |
CN111063021A (zh) | 一种空间运动目标的三维重建模型建立方法及装置 | |
Santos et al. | 3D plant modeling: localization, mapping and segmentation for plant phenotyping using a single hand-held camera | |
GB2315124A (en) | Real time tracking of camera pose | |
US20020164067A1 (en) | Nearest neighbor edge selection from feature tracking | |
WO2010004466A1 (en) | Three dimensional mesh modeling | |
He | Generation of Human Body Models | |
De Aguiar et al. | Marker-less 3D feature tracking for mesh-based human motion capture | |
JP2011149952A (ja) | モデル入力装置およびモデル生成システム | |
D'Apuzzo et al. | Least squares matching tracking algorithm for human body modeling | |
JP2009048305A (ja) | 形状解析プログラム及び形状解析装置 | |
JP2002008014A (ja) | 3次元形状抽出方法及び装置並びに記録媒体 | |
KR102075079B1 (ko) | 하이브리드 카메라 기반 동작 추적 장치 및 그 방법 | |
JPH0273471A (ja) | 三次元形状推定方法 | |
Pan et al. | Rapid 3D modelling from live video | |
Amplianitis et al. | Calibration of a multiple stereo and rgb-d camera system for 3d human tracking | |
Wang et al. | Markerless body motion capturing for 3d character animation based on multi-view cameras | |
Fazakas et al. | 3D reconstruction system for autonomous robot navigation | |
Szmuc et al. | A novel method for fast generation of 3D objects from multiple depth sensors | |
JPH1040385A (ja) | 物体形状復元装置及びその方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080319 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20101220 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110111 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110310 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110510 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110607 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140617 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140617 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |