JP2001092990A - 3次元仮想空間参加者表示方法、3次元仮想空間表示装置、および3次元仮想空間参加者表示プログラムを記録した記録媒体 - Google Patents

3次元仮想空間参加者表示方法、3次元仮想空間表示装置、および3次元仮想空間参加者表示プログラムを記録した記録媒体

Info

Publication number
JP2001092990A
JP2001092990A JP26565399A JP26565399A JP2001092990A JP 2001092990 A JP2001092990 A JP 2001092990A JP 26565399 A JP26565399 A JP 26565399A JP 26565399 A JP26565399 A JP 26565399A JP 2001092990 A JP2001092990 A JP 2001092990A
Authority
JP
Japan
Prior art keywords
face
virtual space
operator
display
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP26565399A
Other languages
English (en)
Inventor
Daisuke Minoura
大祐 箕浦
Shohei Sugawara
昌平 菅原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP26565399A priority Critical patent/JP2001092990A/ja
Publication of JP2001092990A publication Critical patent/JP2001092990A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

(57)【要約】 【課題】 3次元仮想空間システムにおいて操作者の表
情をリアルタイムに伝える。 【解決手段】 自情報受信部10は、視線方向、操作者
の音声、初期入力顔映像処理部13で作成された3次元
顔モデル、表示顔方向判定部14で決定された操作者の
実写顔映像または全ての方向から撮影された操作者の実
写顔映像をデータ送信部15から3次元仮想空間表示装
置の他者情報受信部20に送信する。他者情報受信部2
0では、表示顔方向判定部23で決定された方向の実写
顔映像または3次元CG顔モデルを顔映像表示部26また
は顔モデル表示部25により表示する。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、複数の参加者がそ
れぞれ複数の計算機端末を使い通信回線を介して通信
し、コンピュータグラフィックス技術を用いて構築され
た3次元仮想空間を複数の参加者が共有するシステムに
おける3次元仮想空間参加者表示方法に関する。
【0002】
【従来の技術】従来技術として情報処理学会第57回全
国大会、発表番号5M―8で発表された3次元仮想空間
参加者表示方法がある。この方法では、仮想空間の参加
者の全身を予め多方向から撮影したアバタテクスチャを
用意し、他の参加者から見える方向にふさわしいように
アバタテクスチャを切り替えて表示している。また、映
像処理の技術において、人物の顔を撮影した場合に映像
中の色成分を輝度、彩度、色相に分解し、色相において
肌色を表していると思われる領域を固定的に設定して、
映像中の背景から人物の顔領域を抽出する技術が広く使
われている。
【0003】
【発明が解決しようとする課題】従来の分身の表示方法
として、 1方向から撮影した顔の実映像をそのまま胴体CG映像
に接合して表示する方法と、 実映像を基に人手で3次元空間を板状の領域を作成
し、そこに実映像を貼り付けて分身の映像を作成し表示
する方法があった。
【0004】の方法は、他の参加者が横から見たと
き、その表情がわからない。
【0005】の方法は、人手で行うため数時間以上の
時間がかかりリアルタイムに表示することができないと
いう欠点があった。
【0006】本発明の目的は、3次元仮想空間において
操作者の表情をリアルタイムに伝えることができる3次
元仮想空間参加者表示方法、装置、および3次元仮想空
間参加者表示プログラムを記録した記録媒体を提供する
ことにある。
【0007】
【課題を解決するための手段】本発明は、仮想空間およ
び操作者の分身の状況に基づいいて、実写映像と3次元
胴体モデルの合成および実写顔映像から作成した3次元
顔モデルと3次元胴体モデルの合成のいずれかを選択し
て表示するものである。
【0008】実映像をそのまま表示する場合、複数方向
から顔画像を撮影し、操作者自身あるいは他の参加者の
視線方向に基づいて、表示する顔映像を選択する。これ
によって、操作者自身や他の参加者の視線方向によらず
に操作者の表情の表示が可能となる。
【0009】3次元顔モデルによって表示する場合、標
準的な骨格モデルを予め用意しておき、撮影した顔画像
をその骨格モデルに適用して顔モデルを作成して表示す
る。これにより、3次元顔モデル作成の自動化およびリ
アルタイム処理が可能となる。
【0010】
【発明の実施の形態】次に、本発明の実施の形態につい
て図面を参照して説明する。
【0011】図1(1)、(2)は本発明の一実施形態
の3次元仮想空間表示装置の送信側、受信側の処理構成
図である。
【0012】3次元仮想空間表装置は他の仮想空間利用
者が使用する端末に自分の情報を送信する自情報送信部
10と他の仮想空間利用者が使用する端末から各利用者
の情報を受信する他者情報受信部20を有している。自
情報送信部10は視線方向入力部11と顔映像撮影部1
2と顔表示方向判定部13と初期入力顔映像処理部14
とデータ送信部15と音声入力部16とを有している。
他者情報受信部20はデータ受信部21と顔表示方法判
定部22と表示顔方向判定部23と音圧検知部24と顔
モデル表示部25と顔映像表示部26を有している。
【0013】視線方向入力部11は操作者が仮想空間を
移動するためのマウス等の入力装置である。顔映像撮影
部12は操作者の実写顔映像を撮影する。初期入力顔映
像処理部13は顔映像撮影部12で操作者を撮影し、仮
想空間中で操作者に似せた3次元顔モデルを作成する。
表示顔方向判定部14はどのカメラから撮影された操作
者の顔の様子をその操作者以外の仮想空間利用者が使用
する端末に表示される仮想空間に表示させるか決定す
る。音声入力部16は操作者の発声を入力するための、
マイク等の入力装置である。データ送信部15は、視線
方向入力部11から入力された情報をもとに決定された
操作者の仮想空間における視点位置および視点方向、3
次元顔モデル、操作者の発した音声データ、およびすべ
ての方向から撮影された操作者の実写顔映像、あるいは
表示顔方向判定部14で決定された方向から撮影された
操作者の実写顔映像のみをこの操作者以外の仮想空間利
用者が使用する3次元仮想空間表示装置の他者情報受信
部20に送信する。
【0014】データ受信部21は他の仮想空間利用者が
使用する3次元仮想空間表示装置の自情報送信部10か
ら送信された視点位置および視点方向、他の仮想空間利
用者が発した音声データ、他の利用者すべての方向から
撮影された実写顔映像、あるいはそのうちの1枚の実写
顔映像、3次元顔モデルを受信する。顔表示方法判定部
22は予め設定した仮想空間の状況に応じて顔モデルを
表示するか顔映像を表示するかを決定する。顔映像表示
部26は、操作者の背景を除去し、胴体モデルと表示上
適切になるように表示するための顔映像の位置補正を行
い、顔映像を表示する。表示顔方向判定部23は他の仮
想空間利用者が使用する3次元仮想空間表示装置の自情
報送信部10から、全ての方向から撮影された操作者の
実写顔映像が送信されて来た場合にその相手との仮想空
間中の相対位置および方向の関係から判断してその利用
者がどの実写顔映像を表示するかを決定する。顔モデル
表示部25は他の仮想空間利用者が使用する3次元仮想
空間表示装置の初期入力顔映像処理部13で作成された
顔モデルを表示する。音圧検知部24は他の仮想空間利
用者から受信した音声データを検知し、その状態を顔モ
デル表示部25に伝達する。
【0015】ここで、表示顔方向判定部が送信側と受信
側にある理由を説明する。
【0016】まず、本発明の3次元仮想空間表示装置は
自情報送信部と他者情報送信部のペアで1セットとなっ
ている。
【0017】各参加者は自分の情報を他の参加者に送信
し、他の参加者から情報をもらって自端末上に他者のア
バタを表示する。自分の端末に自分のアバタは表示され
ない。自分の顔映像を他者に送信する場合に、全ての方
向から撮影した顔映像の全てを相手に送信し、自分との
相対位置および方向の関係から相手に表示すべき顔映像
を選択させる場合と、自分が相手との相対位置および方
向の関係を計算し、必要となるある角度から撮影された
顔映像のみを送信する場合がある。前者の場合は相手の
3次元仮想空間表示装置の他者情報受信部20にある表
示顔方向判定部23が必要となり、後者の場合は自分の
3次元仮想空間表示装置の自情報送信部10にある表示
顔方向判定部14が必要となる。
【0018】この機構は、仮想空間に参加する人数の規
模に応じて、各操作者の端末の計算機負荷と通信負荷を
適切な状態に保つために必要である。参加人数が少ない
時は自端末の計算負荷軽減および相手の仮想空間中での
動きに合わせて機敏に顔映像を切り替えるために全ての
顔映像を送って相手に顔方向を選択させる方法を採る。
参加人数が多い時は通信負荷軽減および相手情報の処理
負荷軽減のために、自端末で顔方向を判定し必要な角度
から撮影された顔映像のみを送信する。
【0019】図2は3次元仮想空間表示装置の操作者端
末の周囲の様子を示す図である。計算機の前に座ってい
る仮想空間に参加する操作者36の顔を撮影する5台の
カメラ31〜35が設置されている。これら5台のカメ
ラ31〜35は、操作者36の頭上から見た図である。
図3に示すように、正面を12時の方向としたときに、
9時、10時30分、1時30分、3時の5方向のそれ
ぞれ設置されており、それぞれの角度から操作者の顔を
撮影する。41〜45はそれぞれカメラ31〜35で撮
影した映像を示し、46は操作者の位置、47は観察さ
れる参加者の位置を示している。
【0020】図4は初期入力顔映像処理部13の処理の
詳細を示すフローチャートである。本処理部では操作者
に似せたモデルを作成する(ステップ51)。12時の
方向から撮影した顔映像を利用する。撮影時には図5に
見られるように顔の中心線と眼の高さを揃えるためのガ
イドライン61、62を表示し、操作者はそれに沿うよ
うに撮影位置を調節する。次に、撮影した映像から顔の
領域を抽出する(ステップ52)。映像全体を色相によ
る領域分けをし、ガイドライン61、62の交差部分を
含む領域を顔部分として抽出する。抽出した顔領域の中
でガイドライン61、62と交差する領域から両眼およ
び口の位置を特定する。撮影した映像中の両眼の距離、
および眼から口までの距離に基づいて、予め一般化3次
元頭部CGモデルの大きさを操作者の顔の縮尺に適合する
ように伸縮して調節する(ステップ53)。調節した顔
モデルに抽出した顔領域を貼り付ける(ステップ5
4)。以上のようにして作成された顔モデルは必要な状
況で顔モデル表示部25に表示される。
【0021】図6は顔映像表示部26の処理の詳細を示
すフローチャートである。まず、初期入力顔映像を第1
フレーム、初期入力顔映像を撮影した直後に撮影した顔
映像を第2フレームとする(ステップ71)。また、初
期入力顔映像が抽出した顔映像の平均色相を記録してお
く。図7に示すように第1フレームと第2フレームの差
分をとった差分映像を用意する。差分映像には第1フレ
ームと第2フレームの間で移動した被写体の情報のみが
残る。次に、第2フレームについて第1フレームと同様
の手法を用いて色相による領域分割を行う(ステップ7
2)。ここで、第1フレームの顔領域と重なりが大きい
領域、かつ第2フレームの領域の平均色相が記録した第
1フレームの平均色相に最も近い領域を第2フレームか
ら抽出し、第2フレームにおける顔領域とする(ステッ
プ73)。また、この抽出した領域の平均色相を新たに
次の処理のための第1フレームの平均色相として記録し
ておく。その後、差分映像と重なりが大きい領域のう
ち、第2フレームにおける顔領域と隣接する領域を抽出
する。以上の方法によって第2フレームから操作者の領
域を抽出する。抽出された領域は、アフィン変換(映像
解析ハンドブック東京大学出版会発行p.427)を用い
て位置の補正および大きさの補正を行った後表示する
(ステップ74〜76)。以上を顔表示処理の1サイク
ルとし、上記の第2フレームを新たに第1フレーム、上
記の第2フレームの直後に撮影された映像を新たに第2
フレームとして処理サイクルを繰り返す。
【0022】図8は表示顔方向判定部14、23の処理
の詳細である。角度θは参加者同士の正面方向がなす角
度である。θ<―112.5°、112.5°<θでは顔
表示方法判定部22の判断により、顔映像を表示せず顔
モデルを表示する。―90゜≦θ≦90゜のときは表示
顔方向判定部14の判断によって、相手との角度に見合
った顔映像を表示する。すなわち、―112.5°≦θ
<―67.5゜のときは図3の記号41が示す角度の顔
映像を、―67.5°≦θ<―22.5゜のときは図3の
記号42が示す角度の顔映像を、―22.5°≦θ<2
2.5゜のときは図3の記号43が示す角度の顔映像
を、22.5°≦θ<67.5゜のときは図3の記号44
が示す角度の顔映像を、22.5°≦θ<67.5゜のと
きは図3の記号44が示す角度の顔映像を、67.5°
≦θ≦112.5゜のときは図3の記号45が示す角度
の顔映像を表示する。
【0023】顔表示方法判定部22は、仮想空間に予め
設置した場所において顔映像を表示し、それ以外では顔
モデルを表示させる。それぞれの場合のアバタの表示方
法を図9に示す。顔映像を表示する場合は、胴体モデル
の上に顔表示用スクリーン93を立て、そのスクリーン
93に顔映像を添付する。スクリーン93は常に観察者
の方向を向くようにする。本実施形態では、用意された
会議室のテーブルについた参加者同士が互いに見る顔が
顔モデルから顔映像に切り替わるように設定した。
【0024】図10はCG顔モデル表示時のアバタを表
す。マイクを通じて入力された他の操作者の発声に応じ
て顔モデルの表示を切り替える。音圧検知部24は操作
者の発声状況を顔モデル表示部25に伝える。顔モデル
表示部25は発声が確認されるときは開口している顔モ
デル102を表示し、発声が確認されないときは閉口し
ている顔モデル101を表示するように切り替える。
【0025】図11(1)、(2)は本発明の実施形態
の仮想空間表示装置の構成図である。3次元仮想空間表
示装置の自情報送信部(図11(1))は入力装置11
1と撮影装置112とマイク13と記憶装置114と送
信装置115と記録媒体116とデータ処理装置117
から構成されている。入力装置111は視線方向を入力
するための、例えばマウスである。マイク13は図1中
の音声入力部16に相当する。撮影装置112は操作者
の顔を撮影するカメラである。記憶装置114はハード
ディスクである。送信装置115は実写顔映像、3次元
顔モデル等を仮想空間表示装置の他者情報受信部(図1
1(2))に送信するためのものである。記録媒体11
6は図1中の11、13〜15の各部からなる3次元仮
想空間表示プログラムが記録されている、フロッピィデ
ィスク、CD―ROM、光磁気ディスク等の記録媒体であ
る。データ処理装置117は記録媒体116から3次元
仮想空間参加者表示プログラムを読み込んで、これを実
行するCPUである。
【0026】3次元仮想空間表示装置の他者情報受信部
(図11(2))は受信装置121と記憶装置122と
表示装置123と記録媒体124とデータ処理装置12
5で構成されている。受信装置121は送信装置115
から送信されたデータを受信する。記憶装置122はハ
ードディスクである。表示装置123は他の操作者の実
写映像または3次元CG顔モデルを表示するディスプレ
イである。記録媒体124は図1中の21〜26の各部
からなる3次元仮想空間表示プログラムが記録されてい
る、フロッピィディスク、CD−ROM、光磁気ディス
ク等の記録媒体である。データ処理装置125は記録媒
体124から3次元仮想空間表示プログラムを組み込ん
で、これを実行するCPUである。
【0027】
【発明の効果】以上説明したように、本発明によれば、
操作者の顔の撮影における照明条件や背景条件によらず
に顔領域の抽出ができ、また3次元仮想空間においてリ
アルタイムに操作者の表情および視線方向を伝えること
ができる。
【図面の簡単な説明】
【図1】本発明の一実施形態の3次元仮想空間参加者表
示装置の処理構成図である。
【図2】操作者端末の前に座っている操作者の顔を撮影
するカメラ31〜35の配置を示す図である。
【図3】各カメラ31〜35で撮影される操作者の顔を
示す図である。
【図4】初期入力顔画像処理部13の処理を示すフロー
チャートである。
【図5】初期入力顔画像の撮影の様子を示す図である。
【図6】顔映像表示部26の処理を示すフローチャート
である。
【図7】顔映像処理の説明図である。
【図8】表示顔方向判定における参加者同士の位置関係
を示す図である。
【図9】仮想空間内のアバタの表示方法の説明図であ
る。
【図10】操作者の発声状況によるアバタの顔の表示方
法の違いを示す図である。
【図11】本発明の実施形態の3次元仮想空間表示装置
の構成図である。
【符号の説明】
10 3次元仮想空間表示装置の自情報送信部 11 視線方向入力部 12 顔表示撮影部 13 初期入力顔映像処理部 14 表示顔方向判定部 15 データ送信部 16 音声入力部 20 3次元仮想空間表示装置の他者情報受信部 21 データ受信部 22 顔表示方法判定部 23 表示顔方向判定部 24 音圧検知部 25 顔モデル表示部 26 顔映像表示部 31 操作者の右から顔を撮影するカメラ 32 操作者の右斜め前から顔を撮影するカメラ 33 操作者の正面からの顔を撮影するカメラ 34 操作者の左斜め前から顔を撮影するカメラ 35 操作者の左顔を撮影するカメラ 36 操作者 37 システム仮想空間表示装置 41 カメラ31で撮影した映像 42 カメラ32で撮影した映像 43 カメラ33で撮影した映像 44 カメラ34で撮影した映像 45 カメラ35で撮影した映像 46 観察者の位置 47 観察される参加者の位置 61 撮影時に顔の中心位置を調整するためのガイド
ライン 62 撮影時に目の高さを調整するためのガイドライ
ン 81 観察される操作者の位置および視線方向 82 観察者の位置および視線方向 91 CGモデルで顔を表示したアバタ 92 映像で顔を表示したアバタ 93 顔映像を表示するためのスクリーン 101 操作者が音を発していないときに他の利用者
の3次元仮想空間表示装置に表示されるアバタの顔 102 操作者が音を発しているときに他の利用者の
3次元仮想空間表示装置に表示されるアバタの顔 111 入力装置 112 撮影装置 113 マイク 114 記憶装置 115 送信装置 116 記録媒体 117 データ処理装置 121 受信装置 122 記憶装置 123 表示装置 124 記録媒体 125 データ処理装置

Claims (15)

    【特許請求の範囲】
  1. 【請求項1】 複数の利用者がそれぞれ計算機端末を使
    い通信回線を介して通信し、3次元仮想空間を共有する
    3次元仮想空間システムにおける3次元仮想空間参加者
    表示方法であって、仮想空間および操作者の分身の状況
    に応じて、実写顔映像と3次元CG胴体モデルの合成また
    は実写顔映像から作成した3次元CG顔モデルと3次元CG
    胴体モデルの合成によって操作者の分身を仮想空間中に
    表示する3次元仮想空間参加者表示方法。
  2. 【請求項2】 撮影した操作者の顔映像からリアルタイ
    ムに操作者自身の顔の画像を添付した3次元CG顔モデル
    を作成する、請求項1記載の3次元仮想空間参加者表示
    方法。
  3. 【請求項3】 撮影した映像から仮想空間表示装置の操
    作者以外の背景部分を除去し、操作者の頭部映像を3次
    元CGモデルの胴体と接合して表示する、請求項1または
    2記載の3次元仮想空間参加者表示方法。
  4. 【請求項4】 複数方向から顔を撮影し、参加者の操作
    によるその参加者の分身の首の振りに合わせて、あるい
    は他の参加者が見る方向に合わせてその顔の映像を表示
    する、請求項1から3のいずれか1項記載の3次元仮想
    空間参加者表示方法。
  5. 【請求項5】 操作者の発声の有無に応じて口が開閉し
    た3次元CG顔モデルを表示する、請求項1から4のいず
    れか1項記載の3次元仮想空間参加者表示方法。
  6. 【請求項6】 複数の利用者が通信回線を介して通信
    し、3次元仮想空間を共有する3次元仮想空間システム
    における3次元仮想空間表示装置おいて、 操作者の仮想空間における視線方向を入力する視線方向
    入力部と、 仮想空間中で、撮影された操作者に似せた3次元CG顔
    モデルを作成する初期入力顔映像処理部と、 操作者の実写顔映像を異なった方向から撮影する顔映像
    撮影部と、 操作者の音声を入力する音声入力部と、 どの顔映像撮影部から撮影された操作者の顔の様子を該
    操作者以外が使用する端末に表示される仮想空間に表示
    するかを決定する表示顔方向判定部と、 前記視線方向入力部で入力された視線方向、前記音声入
    力部で入力された音声、前記初期入力顔映像処理部で作
    成された3次元顔モデル、前記顔映像撮影部で撮影され
    た実写顔映像のうち、前記表示顔方向判定部で決定され
    た顔映像撮影部で撮影された実写顔映像、あるいは全て
    の方向から撮影された実写顔映像を3次元仮想空間表示
    装置の他者情報受信部に送信するデータ送信部を有する
    ことを特徴とする3次元仮想空間表示装置。
  7. 【請求項7】 請求項6記載の3次元仮想空間表示装置
    から送信されたデータを受信するデータ受信部と、 仮想空間および操作者の分身の状況に応じて、実写顔映
    像と3次元CG胴体モデルを合成したものを表示するか、
    実写顔映像から作成した3次元CG顔モデルと3次元CG胴
    体モデルを表示するかを決定する顔表示方法判定部と、 前者の顔表示方法が選択された場合に、操作者の背景を
    除去し、3次元CG胴体モデルと表示上適切な位置となる
    ように表示するための顔映像の位置補正を行い、顔映像
    を表示する顔映像表示部と、 請求項6の3次元仮想空間表示装置から、全ての方向か
    ら撮影された操作者の実写顔映像が送信されてきた場合
    に、仮想空間中での他の操作者の分身との相対位置およ
    び方向に基づいて、その相手のどの実写映像を表示する
    かを決定する表示顔方向判定部と、 前記顔表示方法判定部において後者の顔表示方法が選択
    された場合に、前記初期入力顔映像処理部で作成された
    顔モデルを表示する顔モデル表示部を有することを特徴
    とする3次元仮想空間表示装置。
  8. 【請求項8】 同じ仮想空間に参加する他の操作者の発
    声を検知し、前記顔モデル表示部に伝達する音圧検知部
    をさらに有し、前記顔モデル表示部は発声が伝達される
    と、開口している顔モデルを表示する、請求項7記載の
    装置。
  9. 【請求項9】 前記初期入力顔映像処理部は、操作者の
    顔を撮影し、撮影した映像から顔の領域を抽出し、抽出
    した顔領域の中で両眼および口の位置を特定し、撮影し
    た映像中の両眼の距離、および眼から口までの距離に基
    づいて、予め一般化3次元頭部CGモデルの大きさを操作
    者の顔の縮尺に適合するように伸縮して調節、調節した
    顔モデルに抽出した顔領域を貼り付ける、請求項6記載
    の装置。
  10. 【請求項10】 前記顔映像表示部は、まず、初期入力
    顔映像を第1フレーム、初期入力顔映像を撮影した直後
    に撮影した顔映像を第2フレームとし、初期入力顔映像
    から抽出した顔領域の平均色相を記録しておき、第1フ
    レームと第2フレームの差分をとった差分映像を用意
    し、第2フレームについて色相による領域分割を行い、
    第1フレームの顔領域と重なりが大きい領域、かつ第2
    フレームの領域の平均色相が記録した第1フレームの平
    均色相に最も近い領域を第2フレームから抽出し、第2
    フレームにおける顔領域と、この抽出した領域の平均色
    相を新たに次の処理のための第1フレームの平均色相と
    して記録しておき、その後、差分映像と重なりが大きい
    領域のうち、第2フレームにおける顔領域と隣接する領
    域を抽出し、抽出した領域に位置および大きさの補正を
    行った後表示することを、前記第2のフレームを新たに
    第1フレーム、前記第2フレームの直後に撮影された映
    像を新たに第2フレームとして繰り返す、請求項7また
    は8記載の装置。
  11. 【請求項11】 複数の利用者が通信回線を介して通信
    し、3次元仮想空間を共有する3次元仮想空間システム
    における3次元仮想空間表示プログラムであって、 操作者の仮想空間における視線方向を入力する視線方向
    入力処理と、 仮想空間中で、撮影された操作者に似せた3次元モデル
    を作成する初期入力顔映像処理と、 どの顔映像撮影部から撮影された操作者の顔の様子を該
    操作者以外が使用する端末に表示される仮想空間に表示
    するかを決定する表示顔方向判定処理と、 前記視線方向入力処理で入力された視線方向、前記初期
    入力顔映像処理で作成された3次元顔モデル、前記撮影
    された実写顔映像のうち、前記表示顔方向判定処理で決
    定された顔映像撮影部で撮影された実写顔映像、あるい
    は全ての方向から撮影された実写顔映像を3次元仮想空
    間表示装置の他者情報受信部に送信するデータ送信処理
    をコンピュータに実行させるための3次元仮想空間表示
    プログラムを記録した記録媒体。
  12. 【請求項12】 請求項11記載のデータ送信処理から
    送信されたデータを受信するデータ受信処理と、 仮想空間および操作者の分身の状況に応じて、実写顔映
    像と3次元CG胴体モデルを合成したものを表示するか、
    実写顔映像から作成した3次元CG顔モデルと3次元CG胴
    体モデルを表示するかを決定する顔表示方法判定処理
    と、 前者の顔表示方法が選択された場合に、操作者の背景を
    除去し、3次元CG胴体モデルと表示上適切な位置となる
    ように表示するための顔映像の位置補正を行い、顔映像
    を表示する顔映像表示処理と、 請求項11のデータ送信処理から全ての方向から撮影さ
    れた操作者の実写顔映像が送信されてきた場合に、仮想
    空間中での他の操作者の分身との相対位置および方向に
    基づいて、その相手のどの実写顔映像を表示するかを決
    定する表示顔方向判処理と、 前記顔表示方法判定処理において後者の顔表示方法が選
    択された場合に、前記初期入力顔映像処理で作成された
    顔モデルを表示する顔モデル表示処理をコンピュータに
    実行させるための3次元仮想空間表示プログラムを記録
    した記録媒体。
  13. 【請求項13】 前記顔モデル表示処理は、同じ仮想空
    間に参加する他の操作者の発声を検知し、前記顔モデル
    表示部に伝達する音圧検知部から発声が伝達されると、
    開口している顔モデルを表示する、請求項12記載の記
    録媒体。
  14. 【請求項14】 前記初期入力顔映像処理は、操作者の
    顔を撮影し、撮影した映像から顔の領域を抽出し、抽出
    した顔領域の中で両眼および口の位置を特定し、撮影し
    た映像中の両眼の距離、および眼から口までの距離に基
    づいて、予め一般化3次元頭部CGモデルの大きさを操作
    者の顔の縮尺に適合するように伸縮して調節、調節した
    顔モデルに抽出した顔領域を貼り付ける、請求項11記
    載の記録媒体。
  15. 【請求項15】 前記顔映像表示処理は、まず、初期入
    力顔映像を第1フレーム、初期入力顔映像を撮影した直
    後に撮影した顔映像を第2フレームとし、初期入力顔映
    像から抽出した顔領域の平均色相を記録しておき、第1
    フレームと第2フレームの差分をとった差分映像を用意
    し、第2フレームについて色相による領域分割を行い、
    第1フレームの顔領域と重なりが大きい領域、かつ第2
    フレームの領域の平均色相が記録した第1フレームの平
    均色相に最も近い領域を第2フレームから抽出し、第2
    フレームにおける顔領域と、この抽出した領域の平均色
    相を新たに次の処理のための第1フレームの平均色相と
    して記録しておく。その後、差分映像と重なりが大きい
    領域のうち、第2フレームにおける顔領域と隣接する領
    域を抽出し、抽出した領域に位置および大きさの補正を
    行った後表示することを、前記第2のフレームを新たに
    第1フレーム、前記第2フレームの直後に撮影された映
    像を新たに第2フレームとして繰り返す、請求項12ま
    たは13に記載の記録媒体。
JP26565399A 1999-09-20 1999-09-20 3次元仮想空間参加者表示方法、3次元仮想空間表示装置、および3次元仮想空間参加者表示プログラムを記録した記録媒体 Pending JP2001092990A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP26565399A JP2001092990A (ja) 1999-09-20 1999-09-20 3次元仮想空間参加者表示方法、3次元仮想空間表示装置、および3次元仮想空間参加者表示プログラムを記録した記録媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP26565399A JP2001092990A (ja) 1999-09-20 1999-09-20 3次元仮想空間参加者表示方法、3次元仮想空間表示装置、および3次元仮想空間参加者表示プログラムを記録した記録媒体

Publications (1)

Publication Number Publication Date
JP2001092990A true JP2001092990A (ja) 2001-04-06

Family

ID=17420133

Family Applications (1)

Application Number Title Priority Date Filing Date
JP26565399A Pending JP2001092990A (ja) 1999-09-20 1999-09-20 3次元仮想空間参加者表示方法、3次元仮想空間表示装置、および3次元仮想空間参加者表示プログラムを記録した記録媒体

Country Status (1)

Country Link
JP (1) JP2001092990A (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010017360A (ja) * 2008-07-10 2010-01-28 Sega Corp ゲーム装置、ゲーム制御方法、ゲーム制御プログラム、及び、該プログラムを記録した記録媒体
JP2010510587A (ja) * 2006-11-15 2010-04-02 アイアム・エンタープライジーズ 3次元モデルを創作し、製造し、流通させる方法
JP2012088777A (ja) * 2010-10-15 2012-05-10 Nintendo Co Ltd 画像処理プログラム、画像処理装置、画像処理システム、及び、画像処理方法
WO2012160899A1 (ja) * 2011-05-23 2012-11-29 ソニー株式会社 情報処理装置、情報処理方法及びコンピュータプログラム
WO2017094543A1 (ja) * 2015-12-02 2017-06-08 セイコーエプソン株式会社 情報処理装置、情報処理システム、情報処理装置の制御方法、及び、パラメーターの設定方法
CN113760083A (zh) * 2020-06-01 2021-12-07 张也弛 操作者目光在终端设备屏幕上落点位置的确定方法及装置

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010510587A (ja) * 2006-11-15 2010-04-02 アイアム・エンタープライジーズ 3次元モデルを創作し、製造し、流通させる方法
JP2010017360A (ja) * 2008-07-10 2010-01-28 Sega Corp ゲーム装置、ゲーム制御方法、ゲーム制御プログラム、及び、該プログラムを記録した記録媒体
JP2012088777A (ja) * 2010-10-15 2012-05-10 Nintendo Co Ltd 画像処理プログラム、画像処理装置、画像処理システム、及び、画像処理方法
US9737814B2 (en) 2010-10-15 2017-08-22 Nintendo Co., Ltd. Computer readable medium storing image processing program of synthesizing images
WO2012160899A1 (ja) * 2011-05-23 2012-11-29 ソニー株式会社 情報処理装置、情報処理方法及びコンピュータプログラム
WO2017094543A1 (ja) * 2015-12-02 2017-06-08 セイコーエプソン株式会社 情報処理装置、情報処理システム、情報処理装置の制御方法、及び、パラメーターの設定方法
CN113760083A (zh) * 2020-06-01 2021-12-07 张也弛 操作者目光在终端设备屏幕上落点位置的确定方法及装置

Similar Documents

Publication Publication Date Title
US11089266B2 (en) Communication processing method, terminal, and storage medium
JP4310916B2 (ja) 映像表示装置
US6583808B2 (en) Method and system for stereo videoconferencing
CN108076307B (zh) 基于ar的视频会议***和基于ar的视频会议方法
CN103595953B (zh) 一种控制视频拍摄的方法和装置
US20150215581A1 (en) Enhanced communication between remote participants using augmented and virtual reality
WO2017094543A1 (ja) 情報処理装置、情報処理システム、情報処理装置の制御方法、及び、パラメーターの設定方法
JP4144492B2 (ja) 画像表示装置
JP2000165831A (ja) 多地点テレビ会議システム
CN110401810B (zh) 虚拟画面的处理方法、装置、***、电子设备及存储介质
JP2010206307A (ja) 情報処理装置、情報処理方法、情報処理プログラム、およびネットワーク会議システム
WO2017141584A1 (ja) 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム
JPH08205197A (ja) ヒューマンインタフェース装置
JP3488096B2 (ja) 3次元共有仮想空間通信サービスにおける顔画像制御方法,3次元共有仮想空間通信用装置およびそのプログラム記録媒体
CN111163280B (zh) 非对称性视频会议***及其方法
JP3610423B2 (ja) 映像表示システムおよびその臨場感向上方法
JP2001136501A (ja) 視線一致テレビ会議装置
JP2003009108A (ja) 画像通信システム、画像通信装置、および画像通信方法
WO2016159165A1 (ja) 映像表示システム及び映像表示方法
JP2001092990A (ja) 3次元仮想空間参加者表示方法、3次元仮想空間表示装置、および3次元仮想空間参加者表示プログラムを記録した記録媒体
JP5813542B2 (ja) 画像コミュニケーションシステム、AR(AugmentedReality)動画生成装置及びプログラム
JP5894505B2 (ja) 画像コミュニケーションシステム、画像生成装置及びプログラム
JPH08256316A (ja) 通信会議システム
JP2001216531A (ja) 3次元仮想空間参加者表示方法及び3次元仮想空間表示装置
JPH09154114A (ja) 電子会議端末装置