JP2627487B2 - 像の実時間認識合成装置 - Google Patents

像の実時間認識合成装置

Info

Publication number
JP2627487B2
JP2627487B2 JP6120013A JP12001394A JP2627487B2 JP 2627487 B2 JP2627487 B2 JP 2627487B2 JP 6120013 A JP6120013 A JP 6120013A JP 12001394 A JP12001394 A JP 12001394A JP 2627487 B2 JP2627487 B2 JP 2627487B2
Authority
JP
Japan
Prior art keywords
image
data
image data
model
real
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP6120013A
Other languages
English (en)
Other versions
JPH07325936A (ja
Inventor
浩史 石井
弘美 田中
泰一 北村
Original Assignee
株式会社エイ・ティ・アール通信システム研究所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社エイ・ティ・アール通信システム研究所 filed Critical 株式会社エイ・ティ・アール通信システム研究所
Priority to JP6120013A priority Critical patent/JP2627487B2/ja
Publication of JPH07325936A publication Critical patent/JPH07325936A/ja
Application granted granted Critical
Publication of JP2627487B2 publication Critical patent/JP2627487B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)
  • Color Television Systems (AREA)

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】この発明は、人物などの像の動
作、姿勢などの実時間認識合成装置に関し、特に送信側
の像モデルを3次元ワイヤフレームモデルにカラーテク
スチャマッピングしたものにより構成し、この像モデル
を、コンピュータグラフィックス技術を用いて、生成さ
れた仮想空間に配置し、受信側の立体ディスプレイに、
像の動きを再現して立体表示する像の実時間認識合成装
置に関する。
【0002】
【従来の技術】従来の像の実時間認識合成装置は、たと
えば1993年1月25日発行、電子情報通信学会技術
研究報告p.23〜28、「臨場感通信会議における3
次元画像の実時間表示」において開示されている。以下
その装置について説明する。
【0003】図6は、従来の実時間認識合成装置の構成
図であり、図7は図6の表情検出器103の具体例であ
る。図中の矢印はデータの送られる方向を示している。
【0004】実時間認識合成装置は、大きくは送信側の
システム11と受信側のシステム13とから構成されて
いる。送信側のシステム11は、実空間1中の送信側の
人物3の体の動きを検出する体の動き検出器101と、
表情を検出する表情検出器103とから構成されてい
る。体の動き検出器101として、たとえばVPL社の
データグローブや、 Polhemus の磁気センサなどが使用
される。体の動き検出器101によって得られたデータ
は、体の動きパラメータ21として受信側のシステム1
3中の画像合成部115へ送られる。
【0005】また、表情検出器103は、図7に示すよ
うに顔209の表情筋の上の皮膚表面に、マーカー20
3を止着しこれを頭部に固定したカメラ201により画
像205としてとらえる装置である。画像205中のマ
ーカー203の移動量はトラッキングされ、表情の動き
パラメータ23として受信側システム13中の画像合成
手段115へ送られる。
【0006】一方、受信側システム13には、予め送信
側の人物3をワイヤフレームモデルとカラーテクスチャ
によりモデル化した人物モデルデータベース111が用
意されている。3次元ワイヤフレームモデルは人体の表
面を三角形のパッチで近似したものであり、カラーテク
スチャは、人体表面の色彩情報である。
【0007】画像合成部115において、人物モデルデ
ータベース111中の3次元ワイヤフレームモデルとカ
ラーテクスチャにより構成された人物モデルデータと、
送信されてきた体の動きパラメータ21および表情の動
きパラメータ23とが合成される。合成は、人物モデル
データの3次元ワイヤフレームモデルの各頂点座標を、
体の動きパラメータ21と表情の動きパラメータ23に
合わせ、移動させることにより行なわれる。
【0008】合成された人物像5は、コンピュータグラ
フィックス技術を用いて生成された仮想空間7中に配置
される。受信側の立体ディスプレイ9には、人物像5を
含む仮想空間7が表示される。
【0009】
【発明が解決しようとする課題】しかしながら、このよ
うな像の実時間認識合成装置では、像の動きをすべて動
きパラメータとして送信するため、像の微妙な変化を認
識、合成できないという問題があった。特に、人物の表
情などを送信するとき、コミュニケーションに重要な役
割を持つ、目のまわりの表情な微妙な変化を、顔に止着
したマーカーの変位の計測のみから認識、合成すること
は困難である。
【0010】この問題を解決するために、エッジ検出な
どの画像処理技術を用いることが考えられる。それによ
り計測するデータを増やし、像の微妙な変化をある程度
認識、合成することが可能であるが、画像処理量が膨大
な量になるため、高価な画像処理装置を必要とし、また
処理情報量が増えることにより、処理速度が遅くなり、
実時間認識ができなくなることが考えられる。
【0011】それゆえに、この発明の主たる目的は、像
の微妙な変化の再現が可能で、かつ通信データ量および
送信側の計測に必要な処理情報量および受信側の画像合
成に必要な処理情報量が十分に少なく、実用に適した像
の実時間認識合成装置を提供することである。
【0012】
【課題を解決するための手段】前記目的を達成するた
め、本発明の像の実時間認識合成装置は、送信側の像モ
デルを、3次元ワイヤフレームモデルにカラーテクスチ
ャマッピングしたものにより像モデルデータとして構成
し、像モデルデータを、コンピュータグラフィックス技
術を用いて生成された仮想空間に配置し、受信側の立体
ディスプレイに、像の動きを再現して立体表示する、像
の実時間認識合成装置であって、像モデルデータを格納
する格納手段と、送信側の像モデルの動作などに基づ
く、動きパラメータを検出するパラメータ検出手段と、
送信側の像モデルの少なくとも一部を撮像して、画像デ
ータを検出する画像データ検出手段と、格納された像モ
デルデータと、検出された動きパラメータとを合成し
て、第1の画像データを生成する第1の合成手段と、格
納された像モデルデータと、検出された画像データとを
合成して、第2の画像データを生成する第2の合成手段
と、生成された第1の画像データと、生成された第2の
画像データとを合成して、第3の画像データを生成する
第3の合成手段と、生成された第3の画像データに基づ
いて、送信側の像モデルの動きを再現する像再現手段と
を備えることを特徴としている。
【0013】
【作用】この発明による像の実時間認識合成装置は、以
下の作用を持つ。
【0014】まず送信側から送られる像の動きパラメー
タと、受信側に予め保存されている像モデルデータを合
成し、第1の画像データとする。特に微妙な像の再現が
必要な部分は、送信側から画像データとして別個に送信
し、その画像データを受信側で像モデルデータと合成す
ることにより、第2の画像データとする。そして第1の
画像データと第2の画像データを合成したものを第3の
画像データとする。第3の画像データは受信側のディス
プレイに実時間で再現される。
【0015】
【実施例】図1は、この発明の一実施例の実時間認識合
成装置を示す構成図、図2は、図1の表情検出器103
の具体例である。
【0016】図中の矢印は、データの送られる方向を示
している。実時間認識装置は、大きくは送信側システム
11と受信側システム13とから構成される。
【0017】送信側のシステム11は、実空間1中の送
信側の人物3の体の動きを検出する体の動き検出器10
1と、表情を検出する表情検出器103から構成されて
いる。体の動き検出器101として、たとえばVPL社
のデータグローブや、Polhemusの磁気センサが使用され
る。体の動き検出器101により得られたデータは、体
の動きパラメータ21として、受信側システム13へ送
信される。
【0018】表示検出器103は、図2に示すように、
頭部に固定されたカメラ201により表情を撮影する装
置である。カメラ201は、顔209および顔209の
表情筋の上の皮膚表面に止着されたマーカー203を撮
像する。撮像された画像データ205中で、マーカー2
03の移動方向、移動距離はトラッキングされ、顔マー
カーの動きパラメータ23として、受信側システム13
へと送られ、特に複雑な変化をする目のまわりのデータ
は、画像データ25として受信側のシステム13へ送ら
れる。
【0019】受信側システム13には、予め送信側の人
物3を3次元ワイヤフレームモデルとカラーテクスチャ
とによりモデル化した人物モデルデータベース111が
用意されている。
【0020】3次元ワイヤフレームモデルは、人体の表
面を三角形のパッチで近似したものであり、カラーテク
スチャは人体表面の色彩情報であるる 体の動きパラメータ21と顔マーカーの動きパラメータ
23は、第1画像合成部105へ送られ、そこで人物モ
デルデータベース111から取出された3次元ワイヤフ
レームモデルおよびカラーテクスチャ27と合成され
る。合成は具体的には3次元ワイヤフレームモデルの頂
点座標を体の動きパラメータ21と顔マーカーの動きパ
ラメータ23に合せて変形させることによって行なわれ
る。これにより、人体の動きや顔マーカーの動きによる
形状変化を再現する。
【0021】一方画像データ25は第2画像合成部10
7へ送られ人物モデルデータベース111から取出され
た3次元ワイヤフレームモデル29の所望の位置にマッ
ピングされる。マッピングはたとえばSilicon Graphics
社のワークステーションONYXにより行なわれる。第
1画像合成部105と第2画像合成部107により得ら
れた画像データ31,33は、各々第3画像合成部へ送
られ合成される。合成された人物像5は、コンピュータ
グラフィックス技術を用いて生成された仮想空間7中に
配置される。受信側の立体ディスプレイ9には、人物像
5を含む仮想空間7が表示される。
【0022】また、第1画像合成部により合成された画
像の色調データ41と第2画像合成部により合成された
画像の色調データ43は各々色調検査部113に送られ
そこで比較される。その差が所定値より大きい場合、そ
の差の情報39を、人物モデルデータベース111へフ
ィードバックし、その差が小さくなるように人物モデル
データベース111中のカラーテクスチャを補正する。
【0023】会議システムなどでは、照明条件などはあ
まり頻繁には変化しないので、この補正処理は数秒〜数
分に1回でよい。画像データ25は、1秒間に数枚〜数
十枚送られてくるため、画像データ25を補正するより
も、人物モデルデータベース111中のカラーテクスチ
ャを補正した方が、処理情報量を減らす上で有利であ
る。
【0024】なお、図3から図5は、図1の実施例にお
いて第1画像合成部105により合成された画像と、第
2画像合成部107により合成された画像の境界での色
調の変化を目立たなくさせるために行なう処理を説明す
るための図である。
【0025】図3において、人物モデルデータベース中
の人物モデルデータ207より取出された目のまわりの
3次元ワイヤフレームモデル29は、第2画像合成手段
107へ送られ、画像データ25と合成され、第2の画
像データ33となる。一方、人物モデルデータ207よ
り取出された目のまわりを除く部分の3次元ワイヤフレ
ームモデルおよびカラーテクスチャ27は、第1画像合
成手段105に送られ、体の動きパラメータ21および
顔マーカーの動きパラメータ23と合成され、第1の画
像データ31となる。この第1の画像データ31と第2
の画像データ33が第3画像合成手段109へ送られ、
人物像5が合成される。
【0026】このとき、第1の画像データと第2の画像
データの境界部を目立たなくさせるために、各々には色
調調整部分504に対応するデータが含まれている。色
調調整部分504は、図4に示されているように第1の
画像データ31の領域と第2の画像データ33の領域と
が重なる領域である。
【0027】図4において、第1の画像データ31の色
調調整部分504との境界点Aでの色調データ600、
第2の画像データ33の色調調整部分504との境界点
Bでの色調データ602が、図のような色調レベルであ
ったとすると、その色調調整部分504の領域では第1
の画像データ31の色調データ600は、色調調整部分
504の領域中を、第2の画像データ33の領域側へ進
むごとに線形的に減少させていき、色調調整部分504
の領域の第2の画像データ33の領域側の境界点Bの位
置で0にする。この線形的な色調データの減少を606
に示す。
【0028】同様に第2の画像データ33の色調データ
602は、色調調整部分504の領域中を、第1の画像
データ31の領域側へ進むごとに、線形的に減少させて
いき、色調調整部分504の領域の第1の画像データ3
1の領域側の境界点Aの位置で0にする。この線形的な
色調データの減少を608に示す。
【0029】そして、色調調整部分504の領域での色
調データは、第1の画像データの色調データ606と第
2の画像データの色調データ608を足し合せたもの
を、色調調整部分504での色調データ604とする。
この処理により第1の画像データ31と第2の画像デー
タ33の境界を目立たなくすることができる。
【0030】図5に示すように、色調は第1の画像デー
タ31と第2の画像データ33の中でも場所により色調
レベルが異なる場合がある。その場合、その部分毎に図
4で示される色調調整処理をすれば良い。
【0031】なお、この実施例では画像データとして送
信する部位を、目の部分に設定したが、口など他の部分
でもよい。
【0032】また、この実施例では人物像を例に挙げた
が、動物などでも実施が可能である。
【0033】
【発明の効果】以上のようにこの発明によると、像の変
化の単純な部分は動きパラメータとして送信し、像の変
化の複雑な部分は画像データとして送信するため、送信
する情報量が少なく画像処理を高速で行なうことができ
る。また像の中で複雑な変化をする部分についての変化
を正確に再現することが可能である。
【図面の簡単な説明】
【図1】この発明の一実施例による実時間認識合成装置
の構成とデータの送られる方向を示した図である。
【図2】図1の表情検出器の具体例を説明するための図
である。
【図3】図1の受信側システムの画像合成方法を説明す
るための図である。
【図4】図1の第3画像合成部での第1の画像データ3
1と第2の画像データ33の境界部での色調調整の処理
を説明するための図である。
【図5】図4の処理方法を用いて図3の画像合成を具体
的に示した図である。
【図6】従来の実時間認識合成装置の構成と、データの
送られる方向を示した図である。
【図7】図6の表情検出器の具体例を説明するための図
である。
【符号の説明】
3 送信側の人物 5 合成された人物像 7 仮想空間 9 ディスプレイ 21 体の動きパラメータ 23 顔マーカーの動きパラメータ 25 画像データ 111 人物モデルデータベース
───────────────────────────────────────────────────── フロントページの続き (72)発明者 北村 泰一 京都府相楽郡精華町大字乾谷小字三平谷 5番地 株式会社エイ・ティ・アール通 信システム研究所内 (56)参考文献 電子情報通信学会技術研究報告VO L.92,NO.443 P.23−28「臨場 感通信会議における3次元顔画像の実時 間表示」(1993.1.25)

Claims (1)

    (57)【特許請求の範囲】
  1. 【請求項1】 送信側の像モデルを、3次元ワイヤフレ
    ームモデルにカラーテクスチャマッピングしたものによ
    り像モデルデータとして構成し、前記像モデルデータ
    を、コンピュータグラフィックス技術を用いて生成され
    た仮想空間に配置し、受信側の立体ディスプレイに、像
    の動きを再現して立体表示する、像の実時間認識合成装
    置であって、 前記像モデルデータを格納する格納手段と、 前記送信側の像モデルの動作などに基づく、動きパラメ
    ータを検出するパラメータ検出手段と、 前記送信側の像モデルの少なくとも一部を撮像して、画
    像データを検出する画像データ検出手段と、 前記格納された像モデルデータと、前記検出された動き
    パラメータとを合成して、第1の画像データを生成する
    第1の合成手段と、 前記格納された像モデルデータと、前記検出された画像
    データとを合成して、第2の画像データを生成する第2
    の合成手段と、 前記生成された第1の画像データと、前記生成された第
    2の画像データとを合成して、第3の画像データを生成
    する第3の合成手段と、 前記生成された第3の画像データに基づいて、前記送信
    側の像モデルの動きを再現する像再現手段とを備えた、
    像の実時間認識合成装置。
JP6120013A 1994-06-01 1994-06-01 像の実時間認識合成装置 Expired - Fee Related JP2627487B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP6120013A JP2627487B2 (ja) 1994-06-01 1994-06-01 像の実時間認識合成装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP6120013A JP2627487B2 (ja) 1994-06-01 1994-06-01 像の実時間認識合成装置

Publications (2)

Publication Number Publication Date
JPH07325936A JPH07325936A (ja) 1995-12-12
JP2627487B2 true JP2627487B2 (ja) 1997-07-09

Family

ID=14775746

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6120013A Expired - Fee Related JP2627487B2 (ja) 1994-06-01 1994-06-01 像の実時間認識合成装置

Country Status (1)

Country Link
JP (1) JP2627487B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5362357B2 (ja) * 2005-08-26 2013-12-11 ソニー株式会社 顔の動きのデータの撮影及び処理
US7606392B2 (en) 2005-08-26 2009-10-20 Sony Corporation Capturing and processing facial motion data

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
電子情報通信学会技術研究報告VOL.92,NO.443 P.23−28「臨場感通信会議における3次元顔画像の実時間表示」(1993.1.25)

Also Published As

Publication number Publication date
JPH07325936A (ja) 1995-12-12

Similar Documents

Publication Publication Date Title
AU2006282764B2 (en) Capturing and processing facial motion data
EP1433335B1 (en) 3d video conferencing system
JP4473754B2 (ja) 仮想試着装置
AU2005291927B2 (en) System and method for tracking facial muscle and eye motion for computer graphics animation
JP5818773B2 (ja) 画像処理装置、画像処理方法及びプログラム
US6580811B2 (en) Wavelet-based facial motion capture for avatar animation
US5870136A (en) Dynamic generation of imperceptible structured light for tracking and acquisition of three dimensional scene geometry and surface characteristics in interactive three dimensional computer graphics applications
CN116528141A (zh) 经由光学捕获的个性化hrtfs
JPWO2006049147A1 (ja) 三次元形状推定システム及び画像生成システム
JP2534617B2 (ja) 人物像の実時間認識合成方法
JP2802725B2 (ja) 表情再現装置および表情再現に用いられるマトリックスの算出方法
JP2670663B2 (ja) 像の実時間認識合成装置
JP5362357B2 (ja) 顔の動きのデータの撮影及び処理
JP2627487B2 (ja) 像の実時間認識合成装置
JP2002032788A (ja) 仮想現実提供方法、仮想現実提供装置及び仮想現実提供プログラムを記録した記録媒体
JP2014086773A (ja) 映像コミュニケーションシステム及び映像コミュニケーション方法
WO2022224732A1 (ja) 情報処理装置及び情報処理方法
JPH0475639A (ja) 顔画像モデル生成装置
JP2813971B2 (ja) 状態再現方法
JP3023903B2 (ja) 画像生成方法および画像生成装置
JP2024084157A (ja) 情報処理装置及び情報処理方法
JP2910256B2 (ja) 動画像伝送装置及び動画像伝送方法
Krnoul et al. Face model reconstruction for Czech audio-visual speech synthesis
MXPA00010044A (en) Wavelet-based facial motion capture for avatar animation

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 19970114

LAPS Cancellation because of no payment of annual fees