JP2000259831A - 表情検出装置 - Google Patents

表情検出装置

Info

Publication number
JP2000259831A
JP2000259831A JP11058785A JP5878599A JP2000259831A JP 2000259831 A JP2000259831 A JP 2000259831A JP 11058785 A JP11058785 A JP 11058785A JP 5878599 A JP5878599 A JP 5878599A JP 2000259831 A JP2000259831 A JP 2000259831A
Authority
JP
Japan
Prior art keywords
muscle
facial
frame
expression
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP11058785A
Other languages
English (en)
Inventor
Naohiro Otsuka
尚宏 大塚
Atsushi Otani
淳 大谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Media Integration and Communication Research Laboratories
Original Assignee
ATR Media Integration and Communication Research Laboratories
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Media Integration and Communication Research Laboratories filed Critical ATR Media Integration and Communication Research Laboratories
Priority to JP11058785A priority Critical patent/JP2000259831A/ja
Publication of JP2000259831A publication Critical patent/JP2000259831A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

(57)【要約】 【課題】 顔動画像を用いて、実時間で表情の変化を検
出することができる表情検出装置を提供することを目的
とする。 【解決手段】 特徴点追跡部3は、第1フレームの画像
を用いて、頭部領域の特徴点を選択する。そして、各フ
レームごとに特徴点を追跡する。ドロネー網構成部4
は、各フレームごとに特徴点を頂点としてドロネー網を
構成する。筋肉収縮率算出部5は、ドロネー網を用いて
表情筋モデルを特徴点の移動に基づき変位させることに
より表情筋モデルの変化を求める。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、画像処理に関し、
さらに詳しくは、顔面の特徴点の変化に基づき表情筋の
収縮率を算出して表情を検出する表情検出装置に関す
る。
【0002】
【従来の技術】遠隔地のユーザが仮想的なシーンを介し
て通信する場合に、ユーザの表情や身体をコンピュータ
グラフィックにより描写することは、アイコンタクトや
高精度の画像の生成が可能となるという利点がある。さ
らに、システムが表情およびジェスチャの意味を理解し
て、標準的な動きに変換したり形成することができれ
ば、コミュニケーションの円滑化を図ることが可能とな
る。
【0003】本出願人は、不特定多数の人物の顔動画像
から、その表情を認識することができる表情認識方法を
提案している(「顔動画像からの表情認識方法(特開平
10−255043号公報)」)。この手法では、顔動
画像から特徴ベクトルを抽出するステップと、各表情ご
とに複数の隠れマルコフモデルを作成するステップと、
隠れマルコフモデルによって特徴ベクトルを生成する確
率を算出するステップとを有し、最大の確率を算出した
隠れマルコフモデルに対応する表情を認識結果として出
力する。
【0004】
【発明が解決しようとする課題】しかしながら、上述し
た従来の手法では、基本的な6表情(怒り、嫌悪、恐
れ、悲しみ、幸福、驚き)の分別を目的とするものであ
り、表情の変化を検出することができないという問題が
ある。さらに、表情やジェスチャを理解するためには、
人の顔や身体の動きを精密にかつ実時間で高速に検出す
ることが要求される。
【0005】本発明は、このような問題を解決するため
になされたものであり、その目的は実時間で表情の変化
を検出することができる表情検出装置を提供することで
ある。
【0006】
【課題を解決するための手段】請求項1に係る表情検出
装置は、表情筋をモデル化した表情筋モデルを用いて表
情筋の収縮に起因する表情動作を検出する表情検出装置
であって、第1フレームの画像を用いて、頭部領域にお
ける特徴点を選択する選択手段と、連続する各フレーム
の画像において、特徴点を追跡する追跡手段と、各フレ
ームの画像ごとに、特徴点の変位に応じて表情筋モデル
を変化させることにより、表情筋の収縮率を算出する収
縮率算出手段とを備える。
【0007】請求項2に係る表情検出装置は、請求項1
に係る表情検出装置であって、表情筋は、第1の表情筋
と、第1の表情筋と異なる第2の表情筋とを含み、表情
筋モデルは、第1の表情筋に対応する線分モデルと、第
2の表情筋に対応する楕円モデルとを含み、収縮率算出
手段は、各フレームの画像ごとに、特徴点に基づきドロ
ネー網を構成する構成手段と、第1の表情筋の収縮率を
算出する第1の算出手段と、第2の表情筋の収縮率を算
出する第2の算出手段とを含み、第1の算出手段は、各
フレームの画像ごとに、対応するドロネー網を用いて線
分モデルの座標を変化させる第1の変位手段と、各フレ
ームの画像ごとに、第1フレームの画像における線分モ
デルの長さと変化後の線分モデルの長さとの比を求める
手段とを含み、第2の算出手段は、各フレームの画像ご
とに、対応するドロネー網を用いて楕円モデルの座標を
変化させる第2の変位手段と、各フレームの画像ごと
に、第1フレームの画像における楕円モデルの周長と変
化後の楕円モデルの周長さとの比を求める手段とを含
む。
【0008】請求項3に係る表情検出装置は、請求項1
に係る表情検出装置であって、選択手段は、第1フレー
ムの画像を構成するピクセルごとに、輝度勾配の相関行
列を算出する手段と、各相関行列における第1固有値と
第1固有値より小さい第2固有値とを算出する手段と、
第2固有値の大きい順に、所定数のピクセルを特徴点と
して選択する手段とを含む。
【0009】
【発明の実施の形態】以下、本発明の実施の形態を図面
を参照して詳しく説明する。なお、図中同一符号は同一
または相当部分を示す。
【0010】本発明の実施の形態に係る表情検出装置に
ついて図1を用いて説明する。図1は、本発明の実施の
形態における表情検出装置1の全体構成を示す概略ブロ
ック図である。図1を参照して、表情検出装置1は、画
像入力部2、特徴点追跡部3、ドロネー網構成部4、筋
肉収縮率算出部5、出力部6、ビデオカメラ7および表
示装置8を備える。表情検出装置1は、ビデオカメラ7
から受ける顔動画像に基づき、表情の変化を検出する。
【0011】図1に示す表情検出装置1の処理の概要
を、図2を用いて説明する。図2は、図1に示す表情検
出装置1の処理の概要を説明するためのフローチャート
である。図2を参照して、ステップS1−1では、画像
入力部2を用いて、ビデオカメラ7から顔動画像を取込
む。ステップS1−2では、特徴点追跡部3において、
顔画上の特徴点を検出し、連続するフレームでの特徴点
の位置を追跡する。ステップS1−3では、ドロネー網
構成部4により、各フレームごとに、特徴点を用いてド
ロネー網を構成する。ステップS1−4では、筋肉収縮
率算出部5において、表情筋の収縮率を算出する。ステ
ップS1−5では、出力部6により、筋肉収縮率算出部
5の処理結果を外部(たとえば、表示装置8)に出力す
る。
【0012】次に、図1に示す特徴点追跡部3について
説明する。特徴点追跡部3は、顔面上の特徴点を選択す
る処理と、特徴点を追跡して変位ベクトルを求める処理
とを行なう。
【0013】ここで、特徴点追跡部3における特徴点の
選択処理を図3を用いて説明する。図3は、図1に示す
特徴点追跡部3における特徴点の選択処理について説明
するためのフローチャートである。図3を参照して、ス
テップS2−1では、第1フレームの画像を用いて、各
ピクセルごとに輝度勾配の勾配ベクトルを算出する。ス
テップS2−2では、各ピクセルごとに輝度勾配の相関
行列を求める。相関行列は、式(1)で表現される。
【0014】
【数1】
【0015】ここで、記号gx 、gy は、それぞれ正方
形の画面上でのx、y方向の輝度勾配の平均値を示して
いる。
【0016】ステップS2−3では、ピクセルを相関行
列の第2固有値の大きさ順に並べる。ここで相関行列の
第2固有値とは、式(1)の相関行列における固有値の
うち小さい方の値を言う。ステップS2−4では、第2
固有値の大きいピクセルから所定数のピクセルまでを特
徴点として選択する。
【0017】図4は、特徴点の選択処理の結果を説明す
るための図である。図4では、顔面上にマークされた点
Fが、特徴点を示している。図4に示すように、特徴点
追跡部3により、複数のピクセルが特徴点として選択さ
れる。
【0018】次に、図1に示す特徴点追跡部3における
特徴点の追跡処理を図5を用いて説明する。図5は、図
1に示す特徴点追跡部3における特徴点の追跡処理につ
いて説明するためのフローチャートである。図3の手法
により第1フレームの画像から顔面上の特徴点を選択し
た後、図5に示す手法を用いて連続するフレームにおけ
る特徴点の位置を追跡する。図5を参照して、ステップ
S3−1では、特徴点ごとに勾配ベクトルを算出する。
ステップS3−2では、特徴点ごとに式(1)を用いて
輝度勾配の相関行列を計算する。ステップS3−3で
は、相関行列の第2固有値を求め、第2固有値が所定の
しきい値よりも大きいか否かを判定する。第2固有値が
所定のしきい値(たとえば、“0”)よりも大きい場合
(追跡成功)、ステップS3−4に移る。ステップS3
−4では、式(2)および式(3)を用いて特徴点の変
位ベクトルd=[dx 、dy ]を求める。
【0019】
【数2】
【0020】ここで、記号I(X)、J(X)は、輝度
分布をそれぞれ表わしている。第2固有値が所定のしき
い値よりも小さい場合(追跡失敗)、ステップS3−5
に移り、特徴点でないピクセルのうち第2固有値の大き
いピクセルを、順に新たな特徴点として選択する。
【0021】次に、図1に示すドロネー網構成部4につ
いて説明する。ドロネー網構成部4では、各フレームご
とに、特徴点を結合してドロネー網(Delaunay triangu
lation)を構成する。ドロネー網の詳細については、文
献1(Lawson,C.L.,Transforming triangulations,Disc
rete Math.,3(1972)pp365-372 )および文献2(de Ber
g ,M.,van Kreveld,M.,Overmars,M.,Schwarzkopf,O.:Co
mputational Geometry,Chapter 9.Springer-Verlag(199
7))に詳細が示されている。
【0022】ドロネー網とは、任意の位置に配置された
点を頂点とするように三角形で平面を埋め尽くした図形
であって、頂点の接続関係を変化させたときに三角形の
最小角がこれ以上小さくならない図形を言う。図6は、
ドローネ網構成部4における処理の結果を説明するため
の図であり、図4に対応している。図6では、顔面上に
マークされた特徴点Fを線分で結ぶことにより、網目状
のドローネ網が構成されている。上述したように、全フ
レームに対してドロネー網を構成する。なお、ドロネー
網を構成するアルゴリズムとしては、特徴点の個数がN
個のときに、Nlog(N)のオーダの計算量のものが
最も高速であり、当該アルゴリズムを使用する。
【0023】任意の点の関数値を求める際、任意の点が
含まれる三角形(ドロネー網)の頂点の関数値から線形
補間により任意の点の関数値を求めると誤差が小さくな
る。すなわち、線形内挿の精度が最大となる。本発明の
実施の形態においては、ドロネー網を、表情筋モデルを
構成する点の動き(変位ベクトル)を周辺の特徴点の動
き(変位ベクトル)から線形補間により求めるために用
いる。
【0024】ここで、ドロネー網を用いて点の動きを算
出する処理について、図7を用いて説明する。図7は、
ドロネー網を用いて点の動きを算出する処理の概要を説
明するための図である。図7において、記号a、b、c
は、三角形(ドロネー網)の頂点を構成する点であり、
点p0は、頂点a、b、cからなる三角形に含まれる任
意の点を表わす。この場合、線形補間により、点p0の
速度Uは、式(4)で表わされる。
【0025】 U=αUa+βUb+γUc …(4) ここで、記号Ua、Ub、Ucはそれぞれ、頂点a、
b、cの速度を表わしている。また、α、β、γはそれ
ぞれ、図7に示すように点p0の重心座標を表わしてい
る。
【0026】次に、図1に示す筋肉収縮率算出部5につ
いて説明する。筋肉収縮率算出部5では、表情動作を引
起す表情筋(線形筋、楕円筋、関節筋)の収縮率を算出
することにより、表情の変化を検出する。
【0027】図8は、基本的な表情動作について説明す
るための図である。図8に示すように、基本的な表情動
作として、19種類の動作が挙げられる。内部の眉の引
上げ(AU1)、外部の眉の引上げ(AU2)、眉の引
下げ(AU4)、鼻の脇に皺を寄せる(AU9)、唇を
引上げる(AU10)、鼻の下にしわを寄せる(AU1
1)、唇の端を引上げる(AU12)、頬を膨らます
(AU13)、唇の端を引下げる(AU15)、下唇を
引下げる(AU16)、あごの先を引上げる(AU1
7)、唇を左右に伸ばす(AU20)唇を結ぶ(AU2
3)、口を閉じる(AU24)、口を開く(AU2
5)、あごを下げて口を開く(AU26)、および口を
尖らす(AU28)である。これらの表情動作は基本的
な6表情の構成要素であり、これらの組合わせによりほ
ぼすべての表情を表現することが可能である。
【0028】図9は、図1に示す筋肉収縮率算出部5の
要部の構成を示すブロック図である。図9を参照して、
筋肉収縮率算出部5は、線形筋対応収縮率算出部10、
楕円筋対応収縮率算出部12、関節筋対応収縮率算出部
14および出力部16を備える。線形筋対応収縮率算出
部10では、特徴点の動きから線形筋モデルの変化を算
出することにより線形筋の収縮率を算出する。楕円筋対
応収縮率算出部12では、特徴点の動きから楕円筋モデ
ルの変化を算出することにより楕円筋の収縮率を算出す
る。関節筋対応収縮率算出部14では、特徴点の変化か
らあごの回転角の変化量を求めて、関節筋の収縮率を算
出する。これらの収縮率によって、表情動作の程度が表
現される。なお、総称的に、線形筋モデルおよび楕円筋
モデルを表情筋モデルと称す。
【0029】次に、線形筋対応収縮率算出部10につい
て説明する。顔面の多くの筋肉は、一端を頭蓋骨に接合
し、他端を皮膚に接合する線形筋である。筋肉の収縮に
伴い線形筋で接合した皮膚は、頭蓋骨と接合した側に移
動する。そこで、線形筋を線分で近似する(線形筋モデ
ル)。図10は、表情筋モデルと表情動作との関係を説
明するための図である。図10において、表情動作AU
1、AU2、…が指示す線分が線形筋モデルである。た
とえば、額の表情筋が収縮することにより、表情動作A
U1、AU2に代表されるように複数の表情が表出され
る。
【0030】線形筋対応収縮率算出部10では、特徴点
の動きから線分(線形筋モデル)の長さの変化量を算出
することにより線形筋の収縮率を算出する。なお、線形
筋モデルの初期状態の長さは、第1フレームにおける線
形筋モデルの座標に基づき決定する。
【0031】図11は、線形筋対応収縮率算出部10の
構成の概要を示すブロック図である。図11を参照し
て、線形筋対応収縮率算出部10は、データ入力部2
0、線形補間実行部22、比計算部24および収縮率出
力部25を含む。
【0032】データ入力部20には、特徴点の追跡結果
から得られる各特徴点の変位ベクトルと線形筋モデル
(線分)の2つの端点の座標とが与えられる。線形補間
実行部22は、各フレームごとに、ドロネー網を用いて
線形筋モデルの端点の変位ベクトルを算出し、変化後の
線分(2つの端点間)の距離を求める。比計算部24
は、初期状態の線分の長さと変化後の線分の長さとの比
を算出する。収縮率出力部26は、比計算部24の処理
結果を外部に出力する。
【0033】図12は、線形筋対応収縮率算出部10の
処理の概要を説明するためのフローチャートである。図
12を参照して、ステップS4−1では、ドロネー網を
用いて線分の端点について近傍の3つの特徴点を選択
し、3つの特徴点の変位ベクトルから線形補間により端
点における変位ベクトルを算出する。ステップS4−2
では、端点の座標に算出された変位ベクトルを加える。
これにより、線分の端点の座標を更新する。そして、更
新した座標を用いて2つの端点間の距離を求める。な
お、ステップS4−1およびS4−2は、線形補間実行
部22において処理する。ステップS4−3では、第1
フレームにおける線分の長さとステップS4−2で求め
た端点間の距離との比を算出する。当該比を、線形筋の
収縮率とする。
【0034】次に、楕円筋対応収縮率算出部12につい
て説明する。顔面の楕円筋は目および口の周辺について
おり、楕円筋の収縮に伴い目および口が閉じる。そこ
で、楕円筋を楕円で近似する(楕円筋モデル)。図10
において、表情動作AU23、AU24、…が指示す楕
円が楕円筋モデルである。たとえば、口のまわりの楕円
筋が収縮することにより、表情動作AU23、AU2
4、AU25、AU28に代表されるように複数の表情
が表出される。
【0035】楕円筋対応収縮率算出部12では、特徴点
の動きから楕円(楕円筋モデル)の周の長さの変化量を
算出することにより楕円筋の収縮率を算出する。なお、
楕円筋モデルの初期状態の周長は、第1フレームにおけ
る楕円筋モデルの周長に基づき決定する。
【0036】図13は、楕円筋対応収縮率算出部12の
構成の概要を示すブロック図である。図13を参照し
て、楕円筋対応収縮率算出部12は、データ入力部3
0、線形補間実行部32、比計算部34および収縮率出
力部36を含む。
【0037】データ入力部30には、特徴点の追跡結果
から得られる各特徴点の変位ベクトルと楕円筋モデル
(楕円)の周上の複数の点の座標とが与えられる。線形
補間実行部32では、各フレームごとに、ドロネー網を
用いて楕円筋モデルの周上の複数の点の変位ベクトルを
算出し、変化後の周長を求める。比計算部34は、初期
状態の楕円の周長と変化後の周長との比を算出する。収
縮率出力部36は、比計算部34の処理結果を外部に出
力する。
【0038】図14は、楕円筋対応収縮率算出部12の
処理の概要を説明するためのフローチャートである。図
14を参照して、ステップS5−1では、ドロネー網を
用いて、楕円周上の複数の点の座標のそれぞれについて
近傍の3つの特徴点を選択する。そして、楕円周上の複
数の点のそれぞれに対して、3つの特徴点の変位ベクト
ルから線形補間により変位ベクトルを算出する。ステッ
プS5−2では、楕円周上の複数点の座標のそれぞれ
に、算出した変位ベクトルをそれぞれ加える。これによ
り、楕円周上の複数点の座標を更新する。そして、更新
した楕円周上の複数点を順につないだ線の長さの総和を
求める。当該総和を新たな楕円の周長とする。なお、ス
テップS5−1およびS5−2は、線形補間実行部32
において処理する。ステップ5−3では、第1フレーム
における楕円の周長とステップS5−2で求めた楕円の
周長との比を算出する。当該比を、楕円筋の収縮率とす
る。
【0039】次に、関節筋対応収縮率算出部14につい
て説明する。関節筋は、あごの開閉に関与する。そこ
で、特徴点のうち最も下側に位置する特徴点の回転角の
変化量から、関節筋の収縮率を算出する。頭部を図15
に示すように円柱と仮定する。図15において、記号V
は特徴点を、円柱Hは頭部モデルを、記号Φは回転軸を
それぞれ表わしている。頭部(円柱H)は回転軸Φを中
心として回転する。
【0040】図16は、関節筋対応収縮率算出部14の
構成の概要を示すブロック図である。図16を参照し
て、関節筋対応収縮率算出部14は、データ入力部4
0、回転角変化量算出部42、変化量積算部44および
あご回転角出力部46を含む。
【0041】データ入力部40には、特徴点の追跡結果
から得られる各特徴点の変位ベクトルが与えられる。回
転角変化量算出部42では、頭部領域の特徴点のうち最
も下側に位置する特徴点の回転角の変化量を求める。変
化量積算部44では、あごの回転角の変化量を積算す
る。あご回転角出力部46は、変化量積算部44の処理
結果を外部に出力する。
【0042】図17は、関節筋対応収縮率算出部14の
処理の概要を説明するためのフローチャートである。図
17を参照して、ステップS6−1では、まず頭部領域
の下端の特徴点を選択する。ステップS6−2では、頭
部領域の下端に位置する特徴点の変位ベクトルの平均値
から、式(5)を用いてあごの回転角の変化量ρを求め
る。
【0043】
【数3】
【0044】ここで、記号Vzは、頭部を円柱と仮定し
た場合における特徴点のZ座標であり、△VT は、顔の
対称軸方向への特徴点の移動量をそれぞれ表わしてい
る。なお、ステップS6−1およびS6−2は、回転角
変化量算出部42において処理する。ステップS6−3
では、あごの回転角の変化量(式(5))を第1フレー
ムから処理対象としているフレームまで積算する。積算
した結果を、あごの回転角とする。
【0045】このように、線形筋対応収縮率算出部1
0、楕円筋対応収縮率算出部12、および関節筋対応収
縮率算出部14により、19種類の表情動作に対応する
表情筋の収縮率が算出される。したがって、各表情筋の
収縮率に基づき表情動作の程度および表情動作の変化の
度合いを求めることができる。
【0046】表情動作と基本的な6表情とは図18に示
す関係にある。当該関係については、文献3(Pelacha
u,C.,Badler,N.I.,Steedman,M.:Generating facial exp
ressions for speech,Cognitive Science,20(1)(1996)p
p1-46)に詳細が記載されている。たとえば、驚きは、
表情動作AU1、AU2、AU5およびAU26の足し
合わせにより実現される。したがって、図18に示す関
係を本装置に適用することにより、表情および表情の変
化を検出することが可能となる。
【0047】なお、本発明の実施の形態では顔面上の特
徴点の動きから表情筋の収縮率を推定して個別の表情動
作の変化を求めている。この手法は、特徴点の動きから
頭部の動きを推定する手法と組合せることにより、表情
筋の位置を組合せて表情筋の位置を追従させることによ
り、頭部の動きもある場合にも容易に拡張することが可
能となる。
【0048】今回表示された実施の形態は、すべての点
で例示であって制限的なものではないと考えられるべき
である。本発明の範囲は上記した実施の形態の説明では
なくて特許請求の範囲によって示され、特許請求の範囲
と均等の意味および範囲内でのすべての変更が含まれる
ことが意図される。
【0049】
【発明の効果】以上のように、本発明の表情検出装置に
よれば、基本的な6表情(怒り、嫌悪、恐れ、悲しみ、
幸福、驚き)の分別のみならず、表情動作を精密に検出
することが可能となる。これにより、実時間で表情の変
化が検出可能となり、さらに表情の検出力を向上させる
ことが可能となる。
【0050】また、表情変化を画像情報で送信するのに
対して、収縮率を表情パラメータ(約数10個)として
送ることにより情報量の圧縮が可能となる。
【図面の簡単な説明】
【図1】本発明の実施の形態における表情検出装置1の
全体構成を示す概略ブロック図である。
【図2】図1に示す表情検出装置1の処理の概要を説明
するためのフローチャートである。
【図3】図1に示す特徴点追跡部3における特徴点の選
択処理について説明するためのフローチャートである。
【図4】特徴点の選択処理の結果について説明するため
の図である。
【図5】図1に示す特徴点追跡部3における特徴点の追
跡処理について説明するためのフローチャートである。
【図6】ドロネー網構成部4における処理の結果を説明
するための図である。
【図7】ドロネー網を用いて点の動きを算出する処理の
概要を説明するための図である。
【図8】基本的な表情動作について説明するための図で
ある。
【図9】図1に示す筋肉収縮率算出部5の要部の構成を
示すブロック図である。
【図10】表情筋モデルと表情動作との関係を説明する
ための図である。
【図11】線形筋対応収縮率算出部10の構成の概要を
示すブロック図である。
【図12】線形筋対応収縮率算出部10の処理の概要を
説明するためのフローチャートである。
【図13】楕円筋対応収縮率算出部12の構成の概要を
示すブロック図である。
【図14】楕円筋対応収縮率算出部12の処理の概要を
説明するためのフローチャートである。
【図15】関節筋対応収縮率算出部14における頭部モ
デルについて説明するための図である。
【図16】関節筋対応収縮率算出部14の構成の概要を
示すブロック図である。
【図17】関節筋対応収縮率算出部14の処理の概要を
説明するためのフローチャートである。
【図18】表情動作と基本的な6表情との関係を説明す
るための図である。
【符号の説明】
1 表情検出装置 2 画像入力部 3 特徴点追跡部 4 ドロネー網構成部 5 筋肉収縮率算出部 6 出力部 7 ビデオカメラ 8 表示装置 10 線形筋対応収縮率算出部 12 楕円筋対応収縮率算出部 14 関節筋対応収縮率算出部 20、30、40 データ入力部 22、32 線形補間実行部 24、34 比計算部 26、36 収縮率出力部 42 回転角変化量算出部 44 変化量積算部 46 あご回転角出力部
───────────────────────────────────────────────────── フロントページの続き (72)発明者 大谷 淳 京都府相楽郡精華町大字乾谷小字三平谷5 番地 株式会社エイ・ティ・アール知能映 像通信研究所内 Fターム(参考) 5B057 AA07 CA13 CB13 CB16 CD18 CG06 CH01 DB03 DC05 5L096 AA09 BA02 BA18 CA02 CA04 DA01 EA02 EA23 FA12 FA34 FA45 FA67 FA68 GA09 HA04

Claims (3)

    【特許請求の範囲】
  1. 【請求項1】 表情筋をモデル化した表情筋モデルを用
    いて前記表情筋の収縮に起因する表情動作を検出する表
    情検出装置であって、 第1フレームの画像を用いて、頭部領域における特徴点
    を選択する選択手段と、 連続する各フレームの画像において、前記特徴点を追跡
    する追跡手段と、 各フレームの画像ごとに、前記特徴点の変位に応じて前
    記表情筋モデルを変化させることにより、前記表情筋の
    収縮率を算出する収縮率算出手段とを備える、表情検出
    装置。
  2. 【請求項2】 前記表情筋は、 第1の表情筋と、 前記第1の表情筋と異なる第2の表情筋とを含み、 前記表情筋モデルは、 前記第1の表情筋に対応する線分モデルと、 前記第2の表情筋に対応する楕円モデルとを含み、 前記収縮率算出手段は、 各フレームの画像ごとに、前記特徴点に基づきドロネー
    網を構成する構成手段と、 前記第1の表情筋の収縮率を算出する第1の算出手段
    と、 前記第2の表情筋の収縮率を算出する第2の算出手段と
    を含み、 前記第1の算出手段は、 各フレームの画像ごとに、対応する前記ドロネー網を用
    いて前記線分モデルの座標を変化させる第1の変位手段
    と、 各フレームの画像ごとに、前記第1フレームの画像にお
    ける前記線分モデルの長さと前記変化後の線分モデルの
    長さとの比を求める手段とを含み、 前記第2の算出手段は、 各フレームの画像ごとに、対応する前記ドロネー網を用
    いて前記楕円モデルの座標を変化させる第2の変位手段
    と、 各フレームの画像ごとに、前記第1フレームの画像にお
    ける前記楕円モデルの周長と前記変化後の楕円モデルの
    周長さとの比を求める手段とを含む、請求項1記載の表
    情検出装置。
  3. 【請求項3】 前記選択手段は、 前記第1フレームの画像を構成するピクセルごとに、輝
    度勾配の相関行列を算出する手段と、 各前記相関行列における第1固有値と前記第1固有値よ
    り小さい第2固有値とを算出する手段と、 前記第2固有値の大きい順に、所定数のピクセルを前記
    特徴点として選択する手段とを含む、請求項1記載の表
    情検出装置。
JP11058785A 1999-03-05 1999-03-05 表情検出装置 Pending JP2000259831A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP11058785A JP2000259831A (ja) 1999-03-05 1999-03-05 表情検出装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP11058785A JP2000259831A (ja) 1999-03-05 1999-03-05 表情検出装置

Publications (1)

Publication Number Publication Date
JP2000259831A true JP2000259831A (ja) 2000-09-22

Family

ID=13094241

Family Applications (1)

Application Number Title Priority Date Filing Date
JP11058785A Pending JP2000259831A (ja) 1999-03-05 1999-03-05 表情検出装置

Country Status (1)

Country Link
JP (1) JP2000259831A (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020046515A (ko) * 2000-12-14 2002-06-21 오지수 웹과 오프라인에서 실시간 평면/입체 랜더링 기술
KR20020048462A (ko) * 2000-12-16 2002-06-24 오지수 웹과 오프라인에서 실시간 2d / 3d 렌더링기술
JP2006155084A (ja) * 2004-11-26 2006-06-15 Olympus Corp 情報端末装置及び状態表示システム
EP1921498A2 (en) 2006-10-31 2008-05-14 Sony Corporation Image storage device, imaging device, image storage method and program
US8407055B2 (en) 2005-08-05 2013-03-26 Sony Corporation Information processing apparatus and method for recognizing a user's emotion
CN110263671A (zh) * 2019-05-30 2019-09-20 量子动力(深圳)计算机科技有限公司 一种可快速标定肌肉特征的面具及其加工方法
WO2021171538A1 (ja) * 2020-02-28 2021-09-02 三菱電機株式会社 表情認識装置及び表情認識方法

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020046515A (ko) * 2000-12-14 2002-06-21 오지수 웹과 오프라인에서 실시간 평면/입체 랜더링 기술
KR20020048462A (ko) * 2000-12-16 2002-06-24 오지수 웹과 오프라인에서 실시간 2d / 3d 렌더링기술
JP2006155084A (ja) * 2004-11-26 2006-06-15 Olympus Corp 情報端末装置及び状態表示システム
JP4573634B2 (ja) * 2004-11-26 2010-11-04 オリンパス株式会社 情報端末装置及び状態表示システム
US8407055B2 (en) 2005-08-05 2013-03-26 Sony Corporation Information processing apparatus and method for recognizing a user's emotion
EP1921498A2 (en) 2006-10-31 2008-05-14 Sony Corporation Image storage device, imaging device, image storage method and program
EP1921498A3 (en) * 2006-10-31 2008-12-17 Sony Corporation Image storage device, imaging device, image storage method and program
US8254639B2 (en) 2006-10-31 2012-08-28 Sony Corporation Image storage device, imaging device, image storage method, and program
CN110263671A (zh) * 2019-05-30 2019-09-20 量子动力(深圳)计算机科技有限公司 一种可快速标定肌肉特征的面具及其加工方法
CN110263671B (zh) * 2019-05-30 2023-03-31 量子动力(深圳)计算机科技有限公司 一种可快速标定肌肉特征的面具及其加工方法
WO2021171538A1 (ja) * 2020-02-28 2021-09-02 三菱電機株式会社 表情認識装置及び表情認識方法

Similar Documents

Publication Publication Date Title
US11379996B2 (en) Deformable object tracking
Mao et al. Using Kinect for real-time emotion recognition via facial expressions
Terzopoulos et al. Analysis and synthesis of facial image sequences using physical and anatomical models
Wang et al. Video analysis of human dynamics—a survey
Chen et al. 3D model-based continuous emotion recognition
CN110083202A (zh) 与近眼显示器的多模交互
KR102441171B1 (ko) 다시점 얼굴 영상 기반 사용자 모니터링 장치 및 방법
CN114219878A (zh) 虚拟角色的动画生成方法及装置、存储介质、终端
JP2008102902A (ja) 視線方向の推定装置、視線方向の推定方法およびコンピュータに当該視線方向の推定方法を実行させるためのプログラム
Velloso et al. AutoBAP: Automatic coding of body action and posture units from wearable sensors
CN111479087A (zh) 3d监控场景控制方法、装置、计算机设备及存储介质
Kowalski et al. Holoface: Augmenting human-to-human interactions on hololens
JP2000259831A (ja) 表情検出装置
Jazouli et al. A $ P recognizer for automatic facial emotion recognition using Kinect sensor
Otsuka et al. Extracting facial motion parameters by tracking feature points
CN116645717A (zh) 一种基于PCANet+和LSTM的微表情识别方法及***
EP4123588A1 (en) Image processing device and moving-image data generation method
CN115937432A (zh) 基于多模态输入的人体动作重建***及方法
JP5092093B2 (ja) 画像処理装置
TWI240891B (en) Method of controlling the computer mouse by tracking user's head rotation and eyes movement
JP6461394B1 (ja) 画像生成装置及び画像生成プログラム
Bevacqua et al. Multimodal sensing, interpretation and copying of movements by a virtual agent
Tao et al. Tracking facial features using probabilistic network
CN111784808A (zh) 一种基于交叉映射的面部动画构建方法
Hou et al. Smooth adaptive fitting of 3D face model for the estimation of rigid and nonrigid facial motion in video sequences

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20030708