JP2627487B2 - 像の実時間認識合成装置 - Google Patents
像の実時間認識合成装置Info
- Publication number
- JP2627487B2 JP2627487B2 JP6120013A JP12001394A JP2627487B2 JP 2627487 B2 JP2627487 B2 JP 2627487B2 JP 6120013 A JP6120013 A JP 6120013A JP 12001394 A JP12001394 A JP 12001394A JP 2627487 B2 JP2627487 B2 JP 2627487B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- data
- image data
- model
- real
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 230000015572 biosynthetic process Effects 0.000 title claims description 19
- 238000003786 synthesis reaction Methods 0.000 title claims description 19
- 230000033001 locomotion Effects 0.000 claims description 38
- 230000002194 synthesizing effect Effects 0.000 claims description 19
- 230000005540 biological transmission Effects 0.000 claims description 6
- 238000005516 engineering process Methods 0.000 claims description 5
- 238000013507 mapping Methods 0.000 claims description 4
- 238000001514 detection method Methods 0.000 claims description 3
- 238000012545 processing Methods 0.000 description 12
- 238000010586 diagram Methods 0.000 description 11
- 230000008921 facial expression Effects 0.000 description 9
- 239000003550 marker Substances 0.000 description 9
- 230000014509 gene expression Effects 0.000 description 6
- 238000000034 method Methods 0.000 description 5
- 238000004891 communication Methods 0.000 description 3
- 210000003128 head Anatomy 0.000 description 3
- 241001465754 Metazoa Species 0.000 description 1
- XUIMIQQOPSSXEZ-UHFFFAOYSA-N Silicon Chemical compound [Si] XUIMIQQOPSSXEZ-UHFFFAOYSA-N 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 210000003205 muscle Anatomy 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
Landscapes
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Processing Or Creating Images (AREA)
- Image Generation (AREA)
- Color Television Systems (AREA)
Description
【0001】
【産業上の利用分野】この発明は、人物などの像の動
作、姿勢などの実時間認識合成装置に関し、特に送信側
の像モデルを3次元ワイヤフレームモデルにカラーテク
スチャマッピングしたものにより構成し、この像モデル
を、コンピュータグラフィックス技術を用いて、生成さ
れた仮想空間に配置し、受信側の立体ディスプレイに、
像の動きを再現して立体表示する像の実時間認識合成装
置に関する。
作、姿勢などの実時間認識合成装置に関し、特に送信側
の像モデルを3次元ワイヤフレームモデルにカラーテク
スチャマッピングしたものにより構成し、この像モデル
を、コンピュータグラフィックス技術を用いて、生成さ
れた仮想空間に配置し、受信側の立体ディスプレイに、
像の動きを再現して立体表示する像の実時間認識合成装
置に関する。
【0002】
【従来の技術】従来の像の実時間認識合成装置は、たと
えば1993年1月25日発行、電子情報通信学会技術
研究報告p.23〜28、「臨場感通信会議における3
次元画像の実時間表示」において開示されている。以下
その装置について説明する。
えば1993年1月25日発行、電子情報通信学会技術
研究報告p.23〜28、「臨場感通信会議における3
次元画像の実時間表示」において開示されている。以下
その装置について説明する。
【0003】図6は、従来の実時間認識合成装置の構成
図であり、図7は図6の表情検出器103の具体例であ
る。図中の矢印はデータの送られる方向を示している。
図であり、図7は図6の表情検出器103の具体例であ
る。図中の矢印はデータの送られる方向を示している。
【0004】実時間認識合成装置は、大きくは送信側の
システム11と受信側のシステム13とから構成されて
いる。送信側のシステム11は、実空間1中の送信側の
人物3の体の動きを検出する体の動き検出器101と、
表情を検出する表情検出器103とから構成されてい
る。体の動き検出器101として、たとえばVPL社の
データグローブや、 Polhemus の磁気センサなどが使用
される。体の動き検出器101によって得られたデータ
は、体の動きパラメータ21として受信側のシステム1
3中の画像合成部115へ送られる。
システム11と受信側のシステム13とから構成されて
いる。送信側のシステム11は、実空間1中の送信側の
人物3の体の動きを検出する体の動き検出器101と、
表情を検出する表情検出器103とから構成されてい
る。体の動き検出器101として、たとえばVPL社の
データグローブや、 Polhemus の磁気センサなどが使用
される。体の動き検出器101によって得られたデータ
は、体の動きパラメータ21として受信側のシステム1
3中の画像合成部115へ送られる。
【0005】また、表情検出器103は、図7に示すよ
うに顔209の表情筋の上の皮膚表面に、マーカー20
3を止着しこれを頭部に固定したカメラ201により画
像205としてとらえる装置である。画像205中のマ
ーカー203の移動量はトラッキングされ、表情の動き
パラメータ23として受信側システム13中の画像合成
手段115へ送られる。
うに顔209の表情筋の上の皮膚表面に、マーカー20
3を止着しこれを頭部に固定したカメラ201により画
像205としてとらえる装置である。画像205中のマ
ーカー203の移動量はトラッキングされ、表情の動き
パラメータ23として受信側システム13中の画像合成
手段115へ送られる。
【0006】一方、受信側システム13には、予め送信
側の人物3をワイヤフレームモデルとカラーテクスチャ
によりモデル化した人物モデルデータベース111が用
意されている。3次元ワイヤフレームモデルは人体の表
面を三角形のパッチで近似したものであり、カラーテク
スチャは、人体表面の色彩情報である。
側の人物3をワイヤフレームモデルとカラーテクスチャ
によりモデル化した人物モデルデータベース111が用
意されている。3次元ワイヤフレームモデルは人体の表
面を三角形のパッチで近似したものであり、カラーテク
スチャは、人体表面の色彩情報である。
【0007】画像合成部115において、人物モデルデ
ータベース111中の3次元ワイヤフレームモデルとカ
ラーテクスチャにより構成された人物モデルデータと、
送信されてきた体の動きパラメータ21および表情の動
きパラメータ23とが合成される。合成は、人物モデル
データの3次元ワイヤフレームモデルの各頂点座標を、
体の動きパラメータ21と表情の動きパラメータ23に
合わせ、移動させることにより行なわれる。
ータベース111中の3次元ワイヤフレームモデルとカ
ラーテクスチャにより構成された人物モデルデータと、
送信されてきた体の動きパラメータ21および表情の動
きパラメータ23とが合成される。合成は、人物モデル
データの3次元ワイヤフレームモデルの各頂点座標を、
体の動きパラメータ21と表情の動きパラメータ23に
合わせ、移動させることにより行なわれる。
【0008】合成された人物像5は、コンピュータグラ
フィックス技術を用いて生成された仮想空間7中に配置
される。受信側の立体ディスプレイ9には、人物像5を
含む仮想空間7が表示される。
フィックス技術を用いて生成された仮想空間7中に配置
される。受信側の立体ディスプレイ9には、人物像5を
含む仮想空間7が表示される。
【0009】
【発明が解決しようとする課題】しかしながら、このよ
うな像の実時間認識合成装置では、像の動きをすべて動
きパラメータとして送信するため、像の微妙な変化を認
識、合成できないという問題があった。特に、人物の表
情などを送信するとき、コミュニケーションに重要な役
割を持つ、目のまわりの表情な微妙な変化を、顔に止着
したマーカーの変位の計測のみから認識、合成すること
は困難である。
うな像の実時間認識合成装置では、像の動きをすべて動
きパラメータとして送信するため、像の微妙な変化を認
識、合成できないという問題があった。特に、人物の表
情などを送信するとき、コミュニケーションに重要な役
割を持つ、目のまわりの表情な微妙な変化を、顔に止着
したマーカーの変位の計測のみから認識、合成すること
は困難である。
【0010】この問題を解決するために、エッジ検出な
どの画像処理技術を用いることが考えられる。それによ
り計測するデータを増やし、像の微妙な変化をある程度
認識、合成することが可能であるが、画像処理量が膨大
な量になるため、高価な画像処理装置を必要とし、また
処理情報量が増えることにより、処理速度が遅くなり、
実時間認識ができなくなることが考えられる。
どの画像処理技術を用いることが考えられる。それによ
り計測するデータを増やし、像の微妙な変化をある程度
認識、合成することが可能であるが、画像処理量が膨大
な量になるため、高価な画像処理装置を必要とし、また
処理情報量が増えることにより、処理速度が遅くなり、
実時間認識ができなくなることが考えられる。
【0011】それゆえに、この発明の主たる目的は、像
の微妙な変化の再現が可能で、かつ通信データ量および
送信側の計測に必要な処理情報量および受信側の画像合
成に必要な処理情報量が十分に少なく、実用に適した像
の実時間認識合成装置を提供することである。
の微妙な変化の再現が可能で、かつ通信データ量および
送信側の計測に必要な処理情報量および受信側の画像合
成に必要な処理情報量が十分に少なく、実用に適した像
の実時間認識合成装置を提供することである。
【0012】
【課題を解決するための手段】前記目的を達成するた
め、本発明の像の実時間認識合成装置は、送信側の像モ
デルを、3次元ワイヤフレームモデルにカラーテクスチ
ャマッピングしたものにより像モデルデータとして構成
し、像モデルデータを、コンピュータグラフィックス技
術を用いて生成された仮想空間に配置し、受信側の立体
ディスプレイに、像の動きを再現して立体表示する、像
の実時間認識合成装置であって、像モデルデータを格納
する格納手段と、送信側の像モデルの動作などに基づ
く、動きパラメータを検出するパラメータ検出手段と、
送信側の像モデルの少なくとも一部を撮像して、画像デ
ータを検出する画像データ検出手段と、格納された像モ
デルデータと、検出された動きパラメータとを合成し
て、第1の画像データを生成する第1の合成手段と、格
納された像モデルデータと、検出された画像データとを
合成して、第2の画像データを生成する第2の合成手段
と、生成された第1の画像データと、生成された第2の
画像データとを合成して、第3の画像データを生成する
第3の合成手段と、生成された第3の画像データに基づ
いて、送信側の像モデルの動きを再現する像再現手段と
を備えることを特徴としている。
め、本発明の像の実時間認識合成装置は、送信側の像モ
デルを、3次元ワイヤフレームモデルにカラーテクスチ
ャマッピングしたものにより像モデルデータとして構成
し、像モデルデータを、コンピュータグラフィックス技
術を用いて生成された仮想空間に配置し、受信側の立体
ディスプレイに、像の動きを再現して立体表示する、像
の実時間認識合成装置であって、像モデルデータを格納
する格納手段と、送信側の像モデルの動作などに基づ
く、動きパラメータを検出するパラメータ検出手段と、
送信側の像モデルの少なくとも一部を撮像して、画像デ
ータを検出する画像データ検出手段と、格納された像モ
デルデータと、検出された動きパラメータとを合成し
て、第1の画像データを生成する第1の合成手段と、格
納された像モデルデータと、検出された画像データとを
合成して、第2の画像データを生成する第2の合成手段
と、生成された第1の画像データと、生成された第2の
画像データとを合成して、第3の画像データを生成する
第3の合成手段と、生成された第3の画像データに基づ
いて、送信側の像モデルの動きを再現する像再現手段と
を備えることを特徴としている。
【0013】
【作用】この発明による像の実時間認識合成装置は、以
下の作用を持つ。
下の作用を持つ。
【0014】まず送信側から送られる像の動きパラメー
タと、受信側に予め保存されている像モデルデータを合
成し、第1の画像データとする。特に微妙な像の再現が
必要な部分は、送信側から画像データとして別個に送信
し、その画像データを受信側で像モデルデータと合成す
ることにより、第2の画像データとする。そして第1の
画像データと第2の画像データを合成したものを第3の
画像データとする。第3の画像データは受信側のディス
プレイに実時間で再現される。
タと、受信側に予め保存されている像モデルデータを合
成し、第1の画像データとする。特に微妙な像の再現が
必要な部分は、送信側から画像データとして別個に送信
し、その画像データを受信側で像モデルデータと合成す
ることにより、第2の画像データとする。そして第1の
画像データと第2の画像データを合成したものを第3の
画像データとする。第3の画像データは受信側のディス
プレイに実時間で再現される。
【0015】
【実施例】図1は、この発明の一実施例の実時間認識合
成装置を示す構成図、図2は、図1の表情検出器103
の具体例である。
成装置を示す構成図、図2は、図1の表情検出器103
の具体例である。
【0016】図中の矢印は、データの送られる方向を示
している。実時間認識装置は、大きくは送信側システム
11と受信側システム13とから構成される。
している。実時間認識装置は、大きくは送信側システム
11と受信側システム13とから構成される。
【0017】送信側のシステム11は、実空間1中の送
信側の人物3の体の動きを検出する体の動き検出器10
1と、表情を検出する表情検出器103から構成されて
いる。体の動き検出器101として、たとえばVPL社
のデータグローブや、Polhemusの磁気センサが使用され
る。体の動き検出器101により得られたデータは、体
の動きパラメータ21として、受信側システム13へ送
信される。
信側の人物3の体の動きを検出する体の動き検出器10
1と、表情を検出する表情検出器103から構成されて
いる。体の動き検出器101として、たとえばVPL社
のデータグローブや、Polhemusの磁気センサが使用され
る。体の動き検出器101により得られたデータは、体
の動きパラメータ21として、受信側システム13へ送
信される。
【0018】表示検出器103は、図2に示すように、
頭部に固定されたカメラ201により表情を撮影する装
置である。カメラ201は、顔209および顔209の
表情筋の上の皮膚表面に止着されたマーカー203を撮
像する。撮像された画像データ205中で、マーカー2
03の移動方向、移動距離はトラッキングされ、顔マー
カーの動きパラメータ23として、受信側システム13
へと送られ、特に複雑な変化をする目のまわりのデータ
は、画像データ25として受信側のシステム13へ送ら
れる。
頭部に固定されたカメラ201により表情を撮影する装
置である。カメラ201は、顔209および顔209の
表情筋の上の皮膚表面に止着されたマーカー203を撮
像する。撮像された画像データ205中で、マーカー2
03の移動方向、移動距離はトラッキングされ、顔マー
カーの動きパラメータ23として、受信側システム13
へと送られ、特に複雑な変化をする目のまわりのデータ
は、画像データ25として受信側のシステム13へ送ら
れる。
【0019】受信側システム13には、予め送信側の人
物3を3次元ワイヤフレームモデルとカラーテクスチャ
とによりモデル化した人物モデルデータベース111が
用意されている。
物3を3次元ワイヤフレームモデルとカラーテクスチャ
とによりモデル化した人物モデルデータベース111が
用意されている。
【0020】3次元ワイヤフレームモデルは、人体の表
面を三角形のパッチで近似したものであり、カラーテク
スチャは人体表面の色彩情報であるる 体の動きパラメータ21と顔マーカーの動きパラメータ
23は、第1画像合成部105へ送られ、そこで人物モ
デルデータベース111から取出された3次元ワイヤフ
レームモデルおよびカラーテクスチャ27と合成され
る。合成は具体的には3次元ワイヤフレームモデルの頂
点座標を体の動きパラメータ21と顔マーカーの動きパ
ラメータ23に合せて変形させることによって行なわれ
る。これにより、人体の動きや顔マーカーの動きによる
形状変化を再現する。
面を三角形のパッチで近似したものであり、カラーテク
スチャは人体表面の色彩情報であるる 体の動きパラメータ21と顔マーカーの動きパラメータ
23は、第1画像合成部105へ送られ、そこで人物モ
デルデータベース111から取出された3次元ワイヤフ
レームモデルおよびカラーテクスチャ27と合成され
る。合成は具体的には3次元ワイヤフレームモデルの頂
点座標を体の動きパラメータ21と顔マーカーの動きパ
ラメータ23に合せて変形させることによって行なわれ
る。これにより、人体の動きや顔マーカーの動きによる
形状変化を再現する。
【0021】一方画像データ25は第2画像合成部10
7へ送られ人物モデルデータベース111から取出され
た3次元ワイヤフレームモデル29の所望の位置にマッ
ピングされる。マッピングはたとえばSilicon Graphics
社のワークステーションONYXにより行なわれる。第
1画像合成部105と第2画像合成部107により得ら
れた画像データ31,33は、各々第3画像合成部へ送
られ合成される。合成された人物像5は、コンピュータ
グラフィックス技術を用いて生成された仮想空間7中に
配置される。受信側の立体ディスプレイ9には、人物像
5を含む仮想空間7が表示される。
7へ送られ人物モデルデータベース111から取出され
た3次元ワイヤフレームモデル29の所望の位置にマッ
ピングされる。マッピングはたとえばSilicon Graphics
社のワークステーションONYXにより行なわれる。第
1画像合成部105と第2画像合成部107により得ら
れた画像データ31,33は、各々第3画像合成部へ送
られ合成される。合成された人物像5は、コンピュータ
グラフィックス技術を用いて生成された仮想空間7中に
配置される。受信側の立体ディスプレイ9には、人物像
5を含む仮想空間7が表示される。
【0022】また、第1画像合成部により合成された画
像の色調データ41と第2画像合成部により合成された
画像の色調データ43は各々色調検査部113に送られ
そこで比較される。その差が所定値より大きい場合、そ
の差の情報39を、人物モデルデータベース111へフ
ィードバックし、その差が小さくなるように人物モデル
データベース111中のカラーテクスチャを補正する。
像の色調データ41と第2画像合成部により合成された
画像の色調データ43は各々色調検査部113に送られ
そこで比較される。その差が所定値より大きい場合、そ
の差の情報39を、人物モデルデータベース111へフ
ィードバックし、その差が小さくなるように人物モデル
データベース111中のカラーテクスチャを補正する。
【0023】会議システムなどでは、照明条件などはあ
まり頻繁には変化しないので、この補正処理は数秒〜数
分に1回でよい。画像データ25は、1秒間に数枚〜数
十枚送られてくるため、画像データ25を補正するより
も、人物モデルデータベース111中のカラーテクスチ
ャを補正した方が、処理情報量を減らす上で有利であ
る。
まり頻繁には変化しないので、この補正処理は数秒〜数
分に1回でよい。画像データ25は、1秒間に数枚〜数
十枚送られてくるため、画像データ25を補正するより
も、人物モデルデータベース111中のカラーテクスチ
ャを補正した方が、処理情報量を減らす上で有利であ
る。
【0024】なお、図3から図5は、図1の実施例にお
いて第1画像合成部105により合成された画像と、第
2画像合成部107により合成された画像の境界での色
調の変化を目立たなくさせるために行なう処理を説明す
るための図である。
いて第1画像合成部105により合成された画像と、第
2画像合成部107により合成された画像の境界での色
調の変化を目立たなくさせるために行なう処理を説明す
るための図である。
【0025】図3において、人物モデルデータベース中
の人物モデルデータ207より取出された目のまわりの
3次元ワイヤフレームモデル29は、第2画像合成手段
107へ送られ、画像データ25と合成され、第2の画
像データ33となる。一方、人物モデルデータ207よ
り取出された目のまわりを除く部分の3次元ワイヤフレ
ームモデルおよびカラーテクスチャ27は、第1画像合
成手段105に送られ、体の動きパラメータ21および
顔マーカーの動きパラメータ23と合成され、第1の画
像データ31となる。この第1の画像データ31と第2
の画像データ33が第3画像合成手段109へ送られ、
人物像5が合成される。
の人物モデルデータ207より取出された目のまわりの
3次元ワイヤフレームモデル29は、第2画像合成手段
107へ送られ、画像データ25と合成され、第2の画
像データ33となる。一方、人物モデルデータ207よ
り取出された目のまわりを除く部分の3次元ワイヤフレ
ームモデルおよびカラーテクスチャ27は、第1画像合
成手段105に送られ、体の動きパラメータ21および
顔マーカーの動きパラメータ23と合成され、第1の画
像データ31となる。この第1の画像データ31と第2
の画像データ33が第3画像合成手段109へ送られ、
人物像5が合成される。
【0026】このとき、第1の画像データと第2の画像
データの境界部を目立たなくさせるために、各々には色
調調整部分504に対応するデータが含まれている。色
調調整部分504は、図4に示されているように第1の
画像データ31の領域と第2の画像データ33の領域と
が重なる領域である。
データの境界部を目立たなくさせるために、各々には色
調調整部分504に対応するデータが含まれている。色
調調整部分504は、図4に示されているように第1の
画像データ31の領域と第2の画像データ33の領域と
が重なる領域である。
【0027】図4において、第1の画像データ31の色
調調整部分504との境界点Aでの色調データ600、
第2の画像データ33の色調調整部分504との境界点
Bでの色調データ602が、図のような色調レベルであ
ったとすると、その色調調整部分504の領域では第1
の画像データ31の色調データ600は、色調調整部分
504の領域中を、第2の画像データ33の領域側へ進
むごとに線形的に減少させていき、色調調整部分504
の領域の第2の画像データ33の領域側の境界点Bの位
置で0にする。この線形的な色調データの減少を606
に示す。
調調整部分504との境界点Aでの色調データ600、
第2の画像データ33の色調調整部分504との境界点
Bでの色調データ602が、図のような色調レベルであ
ったとすると、その色調調整部分504の領域では第1
の画像データ31の色調データ600は、色調調整部分
504の領域中を、第2の画像データ33の領域側へ進
むごとに線形的に減少させていき、色調調整部分504
の領域の第2の画像データ33の領域側の境界点Bの位
置で0にする。この線形的な色調データの減少を606
に示す。
【0028】同様に第2の画像データ33の色調データ
602は、色調調整部分504の領域中を、第1の画像
データ31の領域側へ進むごとに、線形的に減少させて
いき、色調調整部分504の領域の第1の画像データ3
1の領域側の境界点Aの位置で0にする。この線形的な
色調データの減少を608に示す。
602は、色調調整部分504の領域中を、第1の画像
データ31の領域側へ進むごとに、線形的に減少させて
いき、色調調整部分504の領域の第1の画像データ3
1の領域側の境界点Aの位置で0にする。この線形的な
色調データの減少を608に示す。
【0029】そして、色調調整部分504の領域での色
調データは、第1の画像データの色調データ606と第
2の画像データの色調データ608を足し合せたもの
を、色調調整部分504での色調データ604とする。
この処理により第1の画像データ31と第2の画像デー
タ33の境界を目立たなくすることができる。
調データは、第1の画像データの色調データ606と第
2の画像データの色調データ608を足し合せたもの
を、色調調整部分504での色調データ604とする。
この処理により第1の画像データ31と第2の画像デー
タ33の境界を目立たなくすることができる。
【0030】図5に示すように、色調は第1の画像デー
タ31と第2の画像データ33の中でも場所により色調
レベルが異なる場合がある。その場合、その部分毎に図
4で示される色調調整処理をすれば良い。
タ31と第2の画像データ33の中でも場所により色調
レベルが異なる場合がある。その場合、その部分毎に図
4で示される色調調整処理をすれば良い。
【0031】なお、この実施例では画像データとして送
信する部位を、目の部分に設定したが、口など他の部分
でもよい。
信する部位を、目の部分に設定したが、口など他の部分
でもよい。
【0032】また、この実施例では人物像を例に挙げた
が、動物などでも実施が可能である。
が、動物などでも実施が可能である。
【0033】
【発明の効果】以上のようにこの発明によると、像の変
化の単純な部分は動きパラメータとして送信し、像の変
化の複雑な部分は画像データとして送信するため、送信
する情報量が少なく画像処理を高速で行なうことができ
る。また像の中で複雑な変化をする部分についての変化
を正確に再現することが可能である。
化の単純な部分は動きパラメータとして送信し、像の変
化の複雑な部分は画像データとして送信するため、送信
する情報量が少なく画像処理を高速で行なうことができ
る。また像の中で複雑な変化をする部分についての変化
を正確に再現することが可能である。
【図1】この発明の一実施例による実時間認識合成装置
の構成とデータの送られる方向を示した図である。
の構成とデータの送られる方向を示した図である。
【図2】図1の表情検出器の具体例を説明するための図
である。
である。
【図3】図1の受信側システムの画像合成方法を説明す
るための図である。
るための図である。
【図4】図1の第3画像合成部での第1の画像データ3
1と第2の画像データ33の境界部での色調調整の処理
を説明するための図である。
1と第2の画像データ33の境界部での色調調整の処理
を説明するための図である。
【図5】図4の処理方法を用いて図3の画像合成を具体
的に示した図である。
的に示した図である。
【図6】従来の実時間認識合成装置の構成と、データの
送られる方向を示した図である。
送られる方向を示した図である。
【図7】図6の表情検出器の具体例を説明するための図
である。
である。
3 送信側の人物 5 合成された人物像 7 仮想空間 9 ディスプレイ 21 体の動きパラメータ 23 顔マーカーの動きパラメータ 25 画像データ 111 人物モデルデータベース
───────────────────────────────────────────────────── フロントページの続き (72)発明者 北村 泰一 京都府相楽郡精華町大字乾谷小字三平谷 5番地 株式会社エイ・ティ・アール通 信システム研究所内 (56)参考文献 電子情報通信学会技術研究報告VO L.92,NO.443 P.23−28「臨場 感通信会議における3次元顔画像の実時 間表示」(1993.1.25)
Claims (1)
- 【請求項1】 送信側の像モデルを、3次元ワイヤフレ
ームモデルにカラーテクスチャマッピングしたものによ
り像モデルデータとして構成し、前記像モデルデータ
を、コンピュータグラフィックス技術を用いて生成され
た仮想空間に配置し、受信側の立体ディスプレイに、像
の動きを再現して立体表示する、像の実時間認識合成装
置であって、 前記像モデルデータを格納する格納手段と、 前記送信側の像モデルの動作などに基づく、動きパラメ
ータを検出するパラメータ検出手段と、 前記送信側の像モデルの少なくとも一部を撮像して、画
像データを検出する画像データ検出手段と、 前記格納された像モデルデータと、前記検出された動き
パラメータとを合成して、第1の画像データを生成する
第1の合成手段と、 前記格納された像モデルデータと、前記検出された画像
データとを合成して、第2の画像データを生成する第2
の合成手段と、 前記生成された第1の画像データと、前記生成された第
2の画像データとを合成して、第3の画像データを生成
する第3の合成手段と、 前記生成された第3の画像データに基づいて、前記送信
側の像モデルの動きを再現する像再現手段とを備えた、
像の実時間認識合成装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP6120013A JP2627487B2 (ja) | 1994-06-01 | 1994-06-01 | 像の実時間認識合成装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP6120013A JP2627487B2 (ja) | 1994-06-01 | 1994-06-01 | 像の実時間認識合成装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH07325936A JPH07325936A (ja) | 1995-12-12 |
JP2627487B2 true JP2627487B2 (ja) | 1997-07-09 |
Family
ID=14775746
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP6120013A Expired - Fee Related JP2627487B2 (ja) | 1994-06-01 | 1994-06-01 | 像の実時間認識合成装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2627487B2 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5362357B2 (ja) * | 2005-08-26 | 2013-12-11 | ソニー株式会社 | 顔の動きのデータの撮影及び処理 |
US7606392B2 (en) | 2005-08-26 | 2009-10-20 | Sony Corporation | Capturing and processing facial motion data |
-
1994
- 1994-06-01 JP JP6120013A patent/JP2627487B2/ja not_active Expired - Fee Related
Non-Patent Citations (1)
Title |
---|
電子情報通信学会技術研究報告VOL.92,NO.443 P.23−28「臨場感通信会議における3次元顔画像の実時間表示」(1993.1.25) |
Also Published As
Publication number | Publication date |
---|---|
JPH07325936A (ja) | 1995-12-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
AU2006282764B2 (en) | Capturing and processing facial motion data | |
EP1433335B1 (en) | 3d video conferencing system | |
JP4473754B2 (ja) | 仮想試着装置 | |
AU2005291927B2 (en) | System and method for tracking facial muscle and eye motion for computer graphics animation | |
JP5818773B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
US6580811B2 (en) | Wavelet-based facial motion capture for avatar animation | |
US5870136A (en) | Dynamic generation of imperceptible structured light for tracking and acquisition of three dimensional scene geometry and surface characteristics in interactive three dimensional computer graphics applications | |
CN116528141A (zh) | 经由光学捕获的个性化hrtfs | |
JPWO2006049147A1 (ja) | 三次元形状推定システム及び画像生成システム | |
JP2534617B2 (ja) | 人物像の実時間認識合成方法 | |
JP2802725B2 (ja) | 表情再現装置および表情再現に用いられるマトリックスの算出方法 | |
JP2670663B2 (ja) | 像の実時間認識合成装置 | |
JP5362357B2 (ja) | 顔の動きのデータの撮影及び処理 | |
JP2627487B2 (ja) | 像の実時間認識合成装置 | |
JP2002032788A (ja) | 仮想現実提供方法、仮想現実提供装置及び仮想現実提供プログラムを記録した記録媒体 | |
JP2014086773A (ja) | 映像コミュニケーションシステム及び映像コミュニケーション方法 | |
WO2022224732A1 (ja) | 情報処理装置及び情報処理方法 | |
JPH0475639A (ja) | 顔画像モデル生成装置 | |
JP2813971B2 (ja) | 状態再現方法 | |
JP3023903B2 (ja) | 画像生成方法および画像生成装置 | |
JP2024084157A (ja) | 情報処理装置及び情報処理方法 | |
JP2910256B2 (ja) | 動画像伝送装置及び動画像伝送方法 | |
Krnoul et al. | Face model reconstruction for Czech audio-visual speech synthesis | |
MXPA00010044A (en) | Wavelet-based facial motion capture for avatar animation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 19970114 |
|
LAPS | Cancellation because of no payment of annual fees |