JP5206366B2 - 3次元データ作成装置 - Google Patents
3次元データ作成装置 Download PDFInfo
- Publication number
- JP5206366B2 JP5206366B2 JP2008302126A JP2008302126A JP5206366B2 JP 5206366 B2 JP5206366 B2 JP 5206366B2 JP 2008302126 A JP2008302126 A JP 2008302126A JP 2008302126 A JP2008302126 A JP 2008302126A JP 5206366 B2 JP5206366 B2 JP 5206366B2
- Authority
- JP
- Japan
- Prior art keywords
- data
- dimensional
- image
- facial expression
- facial
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
Description
このような方法の例として、モデルを被写体として写真撮影し、または平行線スクリーン(縞模様)などをモデルに投影して写真撮影し、この写真像を、粘土など材料表面上に投影して、それをなぞるように、手動で彫塑加工して、像を制作する方法などが、提案されている(例えば、特許文献1参照)。同特許文献1には、被写物の周囲に、多数のカメラと投光機と多数の平行線を描いたスクリーンを配して、被写物に平行線スクリーンを投影したときの画像を多数のカメラで撮影した後、相似位置の投光機で原型の材料面上に、前記撮影された写真画像と前記平行線スクリーンを投影し、材料上でのスクリーンと写真上の線条が相重なるように、材料を加工する立体写真像製作方法が開示されている。
また、請求項3に記載の発明では、前記第1の3次元形状データ生成プログラムは、3次元データ作成装置を、前記画像データ取得手段によって取得した複数枚の多視点画像の画像データと前記カメラ情報取得手段によって取得されたカメラ情報を元に3次元形状データを生成する3次元形状データ生成手段として機能することを特徴とする請求項1に記載の3次元データ作成装置を提供する。
なお、プロセスP1で郵送等の方法で委託者から写真や人物画等を受け取った場合は、このプロセス2で受託者側のオペレータの指示操作に基づいて3次元データ作成装置1の画像入力処理部14で写真等の読取および画像データ作成を行うと共に受付登録、委託者の認証、課金処理を行ない、画像データをRAM等の一時記憶メモリに記憶する。
3次元データ作成装置1のCPU11は、3次元データ作成プログラム23により図7のステップS2〜S9に示すような動作(図2のステップP3の動作に相当する機能)を実行し加工用3次元モデルデータ作成プログラム24により、図7のステップS10〜S11に示すような動作(図2のステップP5の動作に相当する機能)を実行し、3次元データ出力プログラム25により、図7のステップS10〜S13に示すような動作(図2のステップP6の動作に相当する機能)を実行する。つまり、3次元データ作成装置1の動作は制御プログラム群21の制御下でCPU21によって保存メモリ2から取り出され、RAM12の実行プログラム領域に記憶される受託管理プログラム群22、3次元データ作成プログラム23、加工用3次元モデルデータ作成プログラム24、および3次元データ出力プログラム25に基づいて実行される。
多視点画像からの人物の顔の特徴部位の抽出についても公知の画像処理技術、例えば、「Lucas-Kanade法(勾配法)」や、「Kanade-Lucas-Tomasiトラッカー法」などを摘要して特徴点の移動や相違を追跡し、対応点を探索することによって行うことができる。
図10において、図6のステップS5で検出した顔の表情データを、表情とAUの組み合わせ表データ32−2の表情データと比較して、AU(表情動作単位)の組み合わせを得る。つまり、検出された顔の表情を、例えば、「驚き」=AU1(内眉を上げる)+AU2(外眉を上げる)+AU5(上瞼を上げる)+AU26(口を開ける)といった表情動作単位AUで表現する(ステップS7−1)。
特に、複数枚の撮影画像から3次元形状データを生成する方法について、以下に詳しく説明する。
カメラを基準とした3次元空間座標を「カメラ(Camera)座標」と、2次元画像を表現する「画像(Image)座標」とを、カメラ座標系(X,Y,Z)の原点(0,0,0)を光軸上のカメラ中心とし、撮像画像面に平行なX軸、Y軸と光軸方向のZ軸との正規直交座標系として設定すると、カメラ座標が(X,Y,Z)Tである3次元空間の点と、その透視射影として得られる2次元画像の画像座標(x、y)Tには、次式が成り立つ。
x=l×X/Z、y=l×Y/Z(ただし、l:カメラの焦点距離) ・・・(1)
そこで、非特許文献1にあるように、カメラの位置や姿勢、視点方向などに関する外部情報、すなわち、カメラ運動情報を入力するか、参照マーカーなど人工的特徴を付加することによって、カメラ運動情報を求めやすくする方法がある。
まず、複数の画像間における点特徴(輝度や色、輪郭形状、テクスチャーなど)の対応付けを行なう。3次元空間では遠く離れた点も、2次元画像では近くに投影されることがある。2次元画像におけるわずかな誤差が3次元空間での認識や理解に重大な影響を及ぼすので、複数の画像間における点の対応を精度良く行なう必要がある。
例えば、複数のフレーム画像間における対応や追跡には、一般に、見え方(局所画像)、または、エッジ(輪郭)、色ヒストグラムなどの画像特徴の類似(相関)や相違に基づいて、隣接する他フレーム画像との間で、最も類似する領域を探索し、探索された点へ対象物が移動したと判定する方法(ブロックマッチング)が良く用いられる。
差分二乗和(二乗誤差)ε(d)=Σ{It(x+d)−It-1(x)}2、もしくは、
差分絶対値和ε(d)=Σ|It(x−d)−It-1(x)|、もしくは、
相互相関γ(d)=Σ{It(x−d)−I ̄ t}{It-1(x)−I ̄ t-1}/|It(x−d)−I ̄ t||It-1(x)−I ̄ t-1| ・・・(2)
などを計算し、その中から、
相違度最小d^=mind{ε(d)}、または、類似度(相関)最大d^=maxd{γ(d)}
・・・(3)
となる変位dを求めれば良い。しかし、これを全探索すると、計算量が多くなったり、変位量が離散的で連続しないなどの難点があった。局所画像を回転や拡大縮小してマッチングする場合には、さらに膨大な計算が必要になる。
ε=Σ{I(x+δx,y+δy,t+δt)−I(x,y,t)}2 ・・・(4)
とすると、この第1項のテーラー展開は、
I(x+δx,y+δy,t+δt)
=I(x,y,t)+δx{∂I(x,y,t)/δx}+δy{∂I(x,y,t)/δy}+δt{∂I(x,y,t)/δt}+・・・
このとき、2次以降の項を、変位が微小であるとして無視できる(x周辺で線形近似できる)とすると、
δx=dx、δy=dy、δt=1として、
ε=Σ{dxIx(x,y,t)+dyIy(x,y,t)+It(x,y,t)}2
・・・(5)
ただし、上式で、Ix(x,y,t)=∂I(x,y,t)/δx、Iy(x,y,t)=∂I(x,y,t)/δy、It(x,y,t)=∂I(x,y,t)/δt
相違度最小の変位d^=mindεは、∂ε/∂dx=0、∂ε/∂dy=0となるdを求めれば良いので、
∂ε/∂dx=Σ2Ix(x,y,t){dxIx(x,y,t)+dyIy(x,y,t)+It(x,y,t)}=0、
∂ε/∂dy=Σ2Iy(x,y,t){dxIx(x,y,t)+dyIy(x,y,t)+It(x,y,t)}=0 ・・・(6)
ここで、
・・・(7)
とおくと、ATAd−ATb=0 → ATAd=ATb
・・・(8)
となるので、ATAが正則なとき、d^は解を持ち、
d^=mindε=(ATA)-1 ATb ・・・(9)
となり、全探索しなくても、相違度最小となる変位量を求めることができる。
特徴点検出と上記のような追跡法とを統合した手法は、「Kanade-Lucas-Tomasi(KLT)トラッカー」と呼ばれる。
(C−1):カメラ位置情報や参照マーカーを用いる方法;
例えば、全周囲360度からの多視点角度から、または、周囲に配した複数台のカメラから撮影した画像データを入力して、対象物の3次元形状データを作成するソフトウェアが各種開発されている。
これらでは、予めカメラを所定の位置や角度に配して撮影したカメラ位置情報が既知のカメラで撮影された複数枚の多視点画像を用いるか、または、例えば、非特許文献1などにあるように、回転台に印刷された参照マーカーと、回転台に載せた対象物体とを一緒に撮影した複数枚のカメラ画像から、撮影時のカメラ位置を自動計算する。
図7のステップS8でカメラ情報が既知の場合には、図12で、CPU11は、座標系におけるカメラの3次元位置パラメータ(回転成分α,β,γと平行移動成分(x,y,z)をHough変換などに基づいてカメラ位置を計算する。つまり、撮影された画像から、参照マーカーを抽出し、抽出された参照マーカーの任意の3点と、あらかじめ登録されている参照マーカー中の任意の3点の位置関係を組合せて決定される連立方程式を解くことにより、位置パラメータを計算する(ステップS9−1−1)。
複数の多視点からの画像に対して、「視体積交差法」を用いても、3次元形状モデルの生成を行うことができる。視体積交差法では、実空間内に設置した複数(位置)のカメラで撮影した画像から、物体のシルエットを抽出し、空間に逆投影し、シルエットの交わりを計算することによって、3次元モデルを求める。複数の多視点画像から3次元モデルを生成する手順をフローチャートに示す。
図7のステップS8でカメラ情報が未知の場合には、図13で、CPU11は、まず、形状を構成する3次元空間(ボクセル空間)を立方体格子に分割し(ステップS9−2−1)、視体積交差法により、多視点が像のシルエット画像を入力して各ボクセルに対して正射影による逆投影を行う(ステップS9−2−2)。
「視体積交差法」に基づいて3次元モデルを復元する原理について簡単に説明する。
視体積とは、視点を頂点と、対象物のシルエットを断面とする錐体のことで、「視体積交差法」は、全ての視点における対象物の視体積の共通部分を求めることにより、対象物の形状を復元する手法である。
ここで、3次元空間を、射影グリッド空間(PGS:Projective Grid Space)として考え、空間中のボクセルA(p,q,r)は、基底カメラ1から撮影画像1上の点a1(p,q)へ、基底カメラ2からの撮影画像2上の点a2(r,s)へ、投影されるものと定義する。
1) まず、空間上のA(p,q,r)に対する画像1上の投影点a1については、射影グリッド空間PGSの定義より、a1(p,q)に投影される。
2) 次に、画像2上の投影点a2については、F行列F21を用いて画像2にエピポーラ線L21として投影すると、a2はL21上に存在するため、直線L21は次式で定義できる。
・・・(10)
a2のx座標は射影グリッド空間PGSの定義よりrであるから、y座標sも定まる。
3) そして、基底カメラ以外のカメラからの撮影画像(または、基底位置以外からのカメラ画像)iに対する投影点の座標xi,yiは、次のようにして定まる。
基底カメラ2への投影と同様に、Fi1を用いて点a1を画像i上に直線Li1として投影する。
またFi2を用いて、点a2を画像i上に直線Li2として投影する。
4) 2本のエピポーラ線Li1、Li2の交点が、画像iの投影点の座標である。
5) この処理を、全視点の画像に対して行なう。
このようにして、注目ボクセルに対する全視点の画像の座標値を求めることができ、3次元モデルが復元できる。
上記のような参照マーカー等を用いずに、複数の多視点カメラ画像データや連続動画像データだけから3次元形状データを生成する方法として、因子分解法がある。
一般に、カメラ位置や視点方向の制限も設けずに、対象物周囲の任意の複数枚の2次元画像から、対象物の3次元形状を求めるには、膨大な計算処理が必要で、解も不安定になる。「因子分解法(Factorization)」(Tomasi and Kanade(金出武雄)、1992年)では、実際のカメラモデルである透視射影をアフィン射影で近似することにより、問題を簡略化し、数値計算を高速かつ解を安定化させることができる。また、複数のアフィン近似射影画像から、カメラ運動と対象物体の立体形状とを同時に復元できる優れた方法として知られている。
図7のステップS8でカメラ情報が未知の場合には、図14で、CPU11は、まず、各画像から、対象とする人物の輪郭外形や顔の特徴部位を表す線分や、曲線、特徴点を抽出する(ステップ9−3−1)。
画像がf枚、特徴点がP個与えられるとき、P個の3次元座標のF個のアフィン射影によるFP個の画像座標が得られるとすると、因子分解法では、このFP個の条件を行列の形に並べて、複数の2次元画像からの3次元形状復元問題を単純な形で表現することができる。すなわち、
(計測行列)=(運動行列)×(形状行列) ・・・(11)
ここで、計測行列はFP個の画像座標を並べた2F×P行列、運動行列はF個のアフィン射影の表現行列を並べた2F×3行列、形状行列はP個の特徴点の3次元座標を並べた3×P行列である。つまり、複数の2次元画像からの3次元形状の復元問題は、計測行列の因子分解に帰着できる。
ただし、画像座標が正規直交基底による表現であるため、正しい復元解を得るには、画像座標の基底が正規直交基底となるように分解する必要がある。アフィン射影モデル(Mundy and Zisserman,1992)は、校正されていないカメラに対するモデルとして、Xfpからxfpへの変換が次式のアフィン射影の形で表される。
xfp=Af Xfp+uf ・・・(12)
ここで、Afとufは未知パラメータである。アフィン射影モデルでは、Afには何の仮定もされていないので、対象物のアフィン空間における位置関係を知ること(アフィン復元)はできても、対象物体の対象物体の長さや角度など計量情報を知ること(ユークリッド復元)はできない。
(Bfは既知) ・・・(13)
以上の仮定より、
(ここで、l:焦点距離) ・・・(14)
このような仮定を加えたアフィン射影モデルを、「計量アフィン射影」(MAP:Metric Affine Projection)モデルと呼ぶ。また、AfをMAP行列と呼ぶ。
世界座標におけるカメラの向きを表す行列(カメラの基底行列)をC=(if,jf,kf)T、
また、第p特徴点の世界座標をsp、第f画像のカメラ座標系における空間座標をXfpとすると、
sp=tf+Cf T Xfp ・・・(15)
この表現を、ある特徴点s*からの相対座標s* p=sp−s*、t* f=tf−s*で表すと、
s* p=t* f+Cf T Xfp、Xfp=Cf(s* p−t* f) ・・・(16)
上記のMAPモデルを世界座標系で表すと、
(ここで、l:焦点距離) ・・・(17)
P個の点特徴の画像がF枚得られたとき、複数の2次元画像から、カメラの運動情報と物体の3次元形状情報とを復元する問題は、上式(17)から{Cf}と、{s* p}を求める問題になる。
・・・(18)
と定義すると、
W*=M(2F×3行列)・S*(3×P行列) ・・・(19)
が成立する。
Mには、カメラ運動に関する未知数{Cf}(f=1〜F)および{λ* f}(f=1〜F)のみが、S*には、3次元形状に関する未知数{s* p}(p=1〜P)のみが含まれていることから、計測行列W*を、運動行列Mと形状行列S*の積に分解することができれば、カメラの運動情報と物体の3次元形状とが復元できる。
Mf Mf T=Af Af T=(1/λ2* f)Bf Bf T ・・・(20)
実際の因子分解法のアルゴリズムでは、「Affine復元」、「Euclid復元」の順に、計測行列W*を分解して、カメラの運動情報と物体の3次元形状情報を復元する。
まず、特異的分解(SVD)などにより、計測行列W*を、M^(2F×3)と、S^*(3×P)の積に一時的に(暫定的に)分解して、Affine復元する。
・・・(21)
このとき、M、S*、と暫定解のM^、S^*の間には、
M=M^A、 S*=A-1・S^*(ただし、A-1はAの逆行列) ・・・(22)
の関係を満たす3×3可逆行列Aが存在するので、この暫定的な分解によって、運動と形状がアフィン復元されていることになる。
M^f Q M^f T=Af Af T =(1/λ2* f) Bf Bf T ・・・(23)
ここで、式(14)における未知量は{λ* f}(f=1〜F)とQとであり、Bfは既知であるから、
Bfの特異値分解をBf=RfΣfDfとすると、Rf、Σfは既知であり、
P^f=(p^f,q^f)T=Rf TM^f、Pf=Rf TMf ・・・(24)
とおくと、式(14)の拘束条件は、
P^f Q P^f T=(1/λ2* f) Σ2 f ・・・(25)
と単純になる。このとき、
p^f TQ p^f=p2 f/λ2* f、p^f TQ q^f=0、q^f TQ q^f=q2 f/λ2* f、
すなわち、(p^f TQ p^f)/(p2 f)=(q^f TQ q^f)/(q2 f)=1/λ2* f、p^f TQ q^f=0、 ・・・(26)
よって、次式のように、{λ* f}を含まない、Qに関する線型同次連立方程式が得られる。
q2 f(p^f TQ p^f)−p2 f(q^f TQ q^f)=0、p^f TQ q^f=0、
・・・(27)
この連立方程式を解くことによって、{λ* f}による定数倍の不定性を除いて、3×3の正値対称行列であるQを一意的に求めることができる。
Aの一般解は、A=LTUとなり、
運動行列M、形状行列S*の一般解は、M=M^LTU、S*=UTL S^* ・・・(28)
で求まる。
1) まず、特異的分解(SVD)などにより、計測行列W*を、M^(2F×3)と、S^*(3×P)の積に一時的に(暫定的に)分解して、Affine復元する。
また、対称行列(symmetric matrix)とは、正方行列Aのうち、Aの転置行列ATがA自身と一致する行列をいう。
図15は、3次元データ作成装置1の3次元形状データ作成動作の一変形例を示すフローチャートであり、図7のステップS6〜Sの動作をステップS6’〜S9’に置き換えて、より簡易に3次元形状データ作成が可能なように構成した例である。
2 データベース
3、8 3次元画像加工装置
4 通信ネットワーク
11 CPU
22 3次元データ作成プログラム
31 顔や頭部の3次元標準モデルデータ
32 顔の表情変化の3次元標準モデルデータ
33 服装、髪型等の3次元標準モデルデータ
Claims (6)
- 立体像の標準モデルデータからなるデータベースと、
複数枚の多視点画像の画像データを取得する画像データ取得手段と、
3次元データ作成装置を、前記複数枚の多視点画像から3次元形状データを生成する3次元形状データ生成手段として機能させる3次元形状データ生成プログラムと、
前記画像データ取得手段により取得した複数枚の画像データからそれぞれ人物領域を抽出し、抽出した人物領域から検出した顔の特徴部位と前記データベースの標準モデルデータとの対応点を取得してから、前記3次元形状データ生成プログラムにより3次元形状データを得る3次元データ作成制御手段と、
前記3次元形状データを補正して顔の表情変化モデルデータを得る表情変化補正手段と、
を備え、
前記表情変化補正手段は、表情の種類と表情動作単位の組合せを対応付けた対応表データと、表情動作単位と顔の筋肉の収縮部位を対応付けた対応表データを含み、顔の表情を表情単位動作の組合せで表現し、各表上単位動作を対応する部位の顔の筋肉の収縮に変換することにより、喜怒哀楽を示している表情のデータを中立顔のデータに補正する、または中立顔のデータを喜怒哀楽を示している表情のデータに補正する、
ことを特徴とする3次元データ作成装置。 - 前記画像データ取得手段は、取得する画像データの撮影位置や撮影方向等のカメラ情報が既知の場合にそのカメラ情報を取得するカメラ情報取得手段を含み、
前記立体像の標準モデルデータは、人物の顔および頭部の標準モデルデータ、表情変化の標準モデルデータを含み、
前記3次元データ作成制御手段は、抽出した人物領域から検出した顔の特徴部位と前記人物の顔の標準モデルデータとの対応点から表情データを取得し、表情データにおける顔の表情と前記標準モデルデータの表情とを比較して表情データにおける顔の表情の変化が閾値より大きい場合には前記表情変化のモデルデータに基づいて顔の表情を所定の表情に補正し、前記カメラ情報取得手段によりカメラ情報が既知の場合には3次元形状データ生成プログラムに含まれている第1の3次元形状データ生成プログラムにより前記人物の3次元形状データを生成し、カメラ情報が未知の場合には3次元形状データ生成プログラムに含まれている第2の3次元形状データ生成プログラムにより前記人物の3次元形状データを生成する、
ことを特徴とする請求項1に記載の3次元データ作成装置。 - 前記第1の3次元形状データ生成プログラムは、3次元データ作成装置を、前記画像データ取得手段によって取得した複数枚の多視点画像の画像データと前記カメラ情報取得手段によって取得されたカメラ情報を元に3次元形状データを生成する3次元形状データ生成手段として機能することを特徴とする請求項1に記載の3次元データ作成装置。
- 前記第2の3次元形状データ生成プログラムは、3次元データ作成装置を、前記画像データ取得手段によって取得した複数枚の多視点画像の画像データを元に視体積交差法によって3次元形状データを生成する3次元形状データ生成手段として機能することを特徴とする請求項1に記載の3次元データ作成装置。
- 前記第2の3次元形状データ生成プログラムは、3次元データ作成装置を、前記画像データ取得手段によって取得した複数枚の多視点画像の画像データを元に因子分解法によって3次元形状データを生成する3次元形状データ生成手段として機能することを特徴とする請求項1に記載の3次元データ作成装置。
- 前記立体像の標準モデルデータは、人物の顔および頭部の標準モデルデータ、表情変化の標準モデルデータ、服装および髪型の標準モデルデータを含み、
前記3次元データ作成制御手段は、抽出した人物領域から検出した顔の特徴部位を元に各画像データから頭部の形および顔貌の特徴を抽出し、前記人物の顔および頭部の標準モデルデータを検索して頭部の形および顔貌の特徴に最も類似する3次元モデルデータを取得し、取得した3次元モデルデータの曲面上に前記複数枚の多視点画像の画像データを射影変換して顔および頭部の3次元形状データを生成する、
ことを特徴とする請求項1に記載の3次元データ作成装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008302126A JP5206366B2 (ja) | 2008-11-27 | 2008-11-27 | 3次元データ作成装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008302126A JP5206366B2 (ja) | 2008-11-27 | 2008-11-27 | 3次元データ作成装置 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2010128742A JP2010128742A (ja) | 2010-06-10 |
JP2010128742A5 JP2010128742A5 (ja) | 2012-01-12 |
JP5206366B2 true JP5206366B2 (ja) | 2013-06-12 |
Family
ID=42329097
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008302126A Expired - Fee Related JP5206366B2 (ja) | 2008-11-27 | 2008-11-27 | 3次元データ作成装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5206366B2 (ja) |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2437220A1 (en) * | 2010-09-29 | 2012-04-04 | Alcatel Lucent | Method and arrangement for censoring content in three-dimensional images |
JP5894426B2 (ja) * | 2011-12-13 | 2016-03-30 | パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America | 計測対象抽出装置、顔形状推定装置、計測対象抽出方法および顔形状推定方法 |
KR101711684B1 (ko) * | 2012-12-14 | 2017-03-03 | 한국전자통신연구원 | 3d 아바타 출력 장치 및 방법 |
JP6046501B2 (ja) * | 2013-01-17 | 2016-12-14 | エヌ・ティ・ティ・コミュニケーションズ株式会社 | 特徴点出力装置、特徴点出力プログラム、特徴点出力方法、検索装置、検索プログラムおよび検索方法 |
KR101694300B1 (ko) * | 2014-03-04 | 2017-01-09 | 한국전자통신연구원 | 3d 개인 피규어 생성 장치 및 그 방법 |
CN105303384A (zh) * | 2014-07-21 | 2016-02-03 | 上海羽舟网络科技有限公司 | 一种产品的3d展示方法及*** |
KR102357340B1 (ko) * | 2014-09-05 | 2022-02-03 | 삼성전자주식회사 | 얼굴 인식 방법 및 장치 |
JP6436743B2 (ja) * | 2014-11-26 | 2018-12-12 | キヤノン株式会社 | 画像情報処理装置、画像情報処理方法およびプログラム、並びに撮像装置 |
JP6608165B2 (ja) * | 2015-05-12 | 2019-11-20 | 国立大学法人京都大学 | 画像処理装置及び方法、並びにコンピュータプログラム |
JP6191727B1 (ja) * | 2016-05-06 | 2017-09-06 | 富士ゼロックス株式会社 | 造形用画像管理システム、造形用画像管理装置、造形用画像管理プログラム |
WO2019186787A1 (ja) * | 2018-03-28 | 2019-10-03 | 三菱電機株式会社 | 画像処理装置、画像処理方法、及び画像処理プログラム |
CN108985241B (zh) * | 2018-07-23 | 2023-05-02 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置、计算机设备及存储介质 |
JP6574295B1 (ja) * | 2018-10-10 | 2019-09-11 | 株式会社ネイン | 情報処理システム、情報処理方法およびコンピュータプログラム |
JP7487266B2 (ja) | 2022-08-15 | 2024-05-20 | キヤノン株式会社 | 画像処理装置、画像処理方法及びプログラム |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09135447A (ja) * | 1995-11-07 | 1997-05-20 | Tsushin Hoso Kiko | 知的符号化/復号方法、特徴点表示方法およびインタラクティブ知的符号化支援装置 |
JP2001141425A (ja) * | 1999-11-12 | 2001-05-25 | Laboratories Of Image Information Science & Technology | 3次元形状計測装置 |
JP3575679B2 (ja) * | 2000-03-31 | 2004-10-13 | 日本電気株式会社 | 顔照合方法と該照合方法を格納した記録媒体と顔照合装置 |
JP2004264937A (ja) * | 2003-02-28 | 2004-09-24 | Sanyo Electric Co Ltd | 三次元モデリング方法および装置 |
JP4552431B2 (ja) * | 2003-12-08 | 2010-09-29 | 日本電気株式会社 | 画像照合装置、画像照合方法及び画像照合プログラム |
JP2006069358A (ja) * | 2004-09-01 | 2006-03-16 | Fuji Heavy Ind Ltd | 車両の運転支援装置 |
JP4474546B2 (ja) * | 2004-10-05 | 2010-06-09 | 国立大学法人東京農工大学 | 顔形状モデリングシステムおよび顔形状モデリング方法 |
JP2007004578A (ja) * | 2005-06-24 | 2007-01-11 | Nippon Telegr & Teleph Corp <Ntt> | 三次元形状取得方法、三次元形状取得装置、及びプログラムの記録媒体 |
JPWO2007043712A1 (ja) * | 2005-10-14 | 2009-04-23 | 国立大学法人 長崎大学 | 感情評価方法および感情表示方法、並びに、それらのための、プログラム、記録媒体およびシステム |
JP4966816B2 (ja) * | 2007-10-25 | 2012-07-04 | 株式会社日立製作所 | 視線方向計測方法および視線方向計測装置 |
-
2008
- 2008-11-27 JP JP2008302126A patent/JP5206366B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2010128742A (ja) | 2010-06-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5206366B2 (ja) | 3次元データ作成装置 | |
US10636206B2 (en) | Method and system for generating an image file of a 3D garment model on a 3D body model | |
US10867453B2 (en) | Method and system for generating an image file of a 3D garment model on a 3D body model | |
Hasler et al. | Multilinear pose and body shape estimation of dressed subjects from image sets | |
JP4950787B2 (ja) | 画像処理装置及びその方法 | |
KR101007276B1 (ko) | 3차원 안면 인식 | |
CN108475439B (zh) | 三维模型生成***、三维模型生成方法和记录介质 | |
JP5018721B2 (ja) | 立体模型の作製装置 | |
JP2011521357A (ja) | ビデオ画像を利用したモーションキャプチャのシステム、方法、及び装置 | |
US11315313B2 (en) | Methods, devices and computer program products for generating 3D models | |
WO2018075053A1 (en) | Object pose based on matching 2.5d depth information to 3d information | |
Ye et al. | Free-viewpoint video of human actors using multiple handheld kinects | |
Figueroa et al. | From sense to print: Towards automatic 3D printing from 3D sensing devices | |
CN111553284A (zh) | 人脸图像处理方法、装置、计算机设备和存储介质 | |
CN107578469A (zh) | 一种基于单张照片的3d人体建模方法及装置 | |
Song et al. | Data-driven 3-D human body customization with a mobile device | |
CN114022542A (zh) | 一种基于三维重建的3d数据库制作方法 | |
Kang et al. | Appearance-based structure from motion using linear classes of 3-d models | |
CN110490973B (zh) | 一种模型驱动的多视图鞋模型三维重建方法 | |
KR101673144B1 (ko) | 부분 선형화 기반의 3차원 영상 정합 방법 | |
WO2023102646A1 (en) | A method to register facial markers | |
Zhang et al. | Development of an automatic 3D human head scanning-printing system | |
Patterson et al. | Landmark-based re-topology of stereo-pair acquired face meshes | |
Lu et al. | Parametric 3D visualization modeling of the human body based on 2D photos | |
JP6719168B1 (ja) | 教師データとしてのデプス画像にラベルを付与するプログラム、装置及び方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20111116 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20111116 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120802 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120911 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20121107 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130122 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130204 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20160301 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5206366 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |