JP4544262B2 - 仮想現実空間共有システムおよび方法、並びに、情報処理装置および方法 - Google Patents

仮想現実空間共有システムおよび方法、並びに、情報処理装置および方法 Download PDF

Info

Publication number
JP4544262B2
JP4544262B2 JP2007122110A JP2007122110A JP4544262B2 JP 4544262 B2 JP4544262 B2 JP 4544262B2 JP 2007122110 A JP2007122110 A JP 2007122110A JP 2007122110 A JP2007122110 A JP 2007122110A JP 4544262 B2 JP4544262 B2 JP 4544262B2
Authority
JP
Japan
Prior art keywords
facial expression
operator
virtual reality
client
reality space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007122110A
Other languages
English (en)
Other versions
JP2007207278A (ja
Inventor
有希 甲賀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2007122110A priority Critical patent/JP4544262B2/ja
Publication of JP2007207278A publication Critical patent/JP2007207278A/ja
Application granted granted Critical
Publication of JP4544262B2 publication Critical patent/JP4544262B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Information Transfer Between Computers (AREA)
  • Processing Or Creating Images (AREA)

Description

本発明はネットワークを介して複数の操作者が仮想現実空間を共有する仮想現実空間共有システムおよび方法、並びに、情報処理装置および方法に関し、特に各操作者の分身のオブジェクトを仮想現実空間内で動かすことのできる仮想現実空間共有システムおよび方法、並びに、情報処理装置および方法に関する。
従来、仮想現実空間を複数の操作者が共有し、その空間の中で各操作者の分身のオブジェクトを自由に動かして、操作者間でコミュニケーションを図ることのできる仮想現実空間共有システムがある(例えば特開平9−081782号公報)。このようなシステムでは、ある操作者が自身の分身のオブジェクトの表情や動きを変化させたい場合に、そのクライアント端末上で変化の指示を出す。そして、この指示を受け取ったサーバ側が、他のクライアント端末にそのオブジェクトの表情や動きの変化の指示を出し、これにより、他のクライアント端末が、それぞれの画面上で、対応するオブジェクトの表情や動きを変化させる。
しかし、このような従来の仮想現実空間共有システムでは、操作者が、クライアント端末上でマウスなどを使用して、希望する表情を選択し、指示するようになっていたため、操作が面倒であり、オブジェクトの表情の変化を自然に行うことができなかった。
本発明はこのような点に鑑みてなされたものであり、複雑な操作を行うことなく、オブジェクトの表情を操作者の意思通りに自然に変化させることのできるようにすることを目的とする。
本発明の一側面は、ネットワークを介して複数の操作者が仮想現実空間を共有できるとともに、各操作者の分身のオブジェクトを仮想現実空間内で動かせるようにした仮想現実空間共有システムにおいて、前記仮想現実空間を提供するサーバと、前記ネットワークを介して前記サーバから前記仮想現実空間の提供を受ける複数のクライアントとを有し、前記クライアントは、前記仮想現実空間内の各操作者の分身のオブジェクトを表示する表示手段と、前記クライアントの操作者の顔を撮影する撮影手段と、前記撮影手段により撮影された画像データから特徴部分の動きベクトルを検出する動きベクトル検出手段と、前記動きベクトル検出手段によって求められた動きベクトルと表情判断用データを比較して、前記クライアントの操作者の顔の表情と、前記表情の変化を判断する表情判断手段と、前記表情判断手段により前記表情の変化があったと判断された場合のみ、前記クライアントの操作者の顔の表情を示す表情コードを前記サーバに送信する第1の送信手段と、前記サーバから送信される前記表情コードおよび前記表情コードを出力したクライアントの識別情報を受信する第1の受信手段と、前記第1の受信手段により前記表情コードおよび前記識別情報が受信された場合、前記表示手段により表示される前記識別情報に対応するクライアントの操作者に対応する前記オブジェクトの画像を、前記表情コードに応じて変化させる第1の画像変化手段とを備え、前記サーバは、前記クライアントから送信される前記表情コードを受信する第2の受信手段と、前記第2の受信手段により前記表情コードが受信された場合、前記表情コードおよび前記表情コードを出力したクライアントの識別情報を他のクライアントに送信する第2の送信手段とを備える仮想現実空間共有システムである。
前記クライアントは、前記表情判断手段により前記表情の変化があったと判断された場合、前記表示手段により表示される前記クライアントの操作者に対応する前記オブジェクトの画像を、前記表情判断手段により判断された前記クライアントの操作者の顔の表情に応じて変化させる第2の画像変化手段をさらに備えることができる。
本発明の一側面は、また、ネットワークを介して複数の操作者が仮想現実空間を共有できるとともに、各操作者の分身のオブジェクトを仮想現実空間内で動かせるようにした、前記仮想現実空間を提供するサーバと、前記ネットワークを介して前記サーバから前記仮想現実空間の提供を受ける複数のクライアントとを有する仮想現実空間共有システムの仮想現実空間共有方法であって、前記クライアントにおいて、表示手段が、前記仮想現実空間内の各操作者の分身のオブジェクトを表示し、撮影手段が、前記クライアントの操作者の顔を撮影し、動きベクトル検出手段が、撮影された画像データから特徴部分の動きベクトルを検出し、表情判断手段が、求められた動きベクトルと表情判断用データを比較して、前記クライアントの操作者の顔の表情と、前記表情の変化を判断し、第1の送信手段が、前記表情の変化があったと判断された場合のみ、前記クライアントの操作者の顔の表情を示す表情コードを前記サーバに送信し、第1の受信手段が、前記サーバから送信される前記表情コードおよび前記表情コードを出力したクライアントの識別情報を受信し、第1の画像変化手段が、前記表情コードおよび前記識別情報が受信された場合、表示される前記識別情報に対応するクライアントの操作者に対応する前記オブジェクトの画像を、前記表情コードに応じて変化させ、前記サーバにおいて、第2の受信手段が、前記クライアントから送信される前記表情コードを受信し、第2の送信手段が、前記表情コードが受信された場合、前記表情コードおよび前記表情コードを出力したクライアントの識別情報を他のクライアントに送信する仮想現実空間共有方法である。
本発明の他の側面は、ネットワークを介して複数の操作者が仮想現実空間を共有できるとともに、各操作者の分身のオブジェクトを仮想現実空間内で動かせるようにした仮想現実空間共有システムにおいて、前記ネットワークを介して複数のクライアントに対して前記仮想現実空間を提供するサーバから、前記クライアントの1つとして前記仮想現実空間の提供を受ける情報処理装置であって、前記仮想現実空間内の各操作者の分身のオブジェクトを表示する表示手段と、自分自身の操作者の顔を撮影する撮影手段と、前記撮影手段により撮影された画像データから特徴部分の動きベクトルを検出する動きベクトル検出手段と、前記動きベクトル検出手段によって求められた動きベクトルと表情判断用データを比較して、自分自身の操作者の顔の表情と、前記表情の変化を判断する表情判断手段と、前記表情判断手段により前記表情の変化があったと判断された場合のみ、自分自身の操作者の顔の表情を示す表情コードを前記サーバに送信し、前記サーバを介して、他のクライアントにおいて表示される自分自身の操作者に対応するオブジェクトの画像を変化させる送信手段と、前記サーバから送信される前記表情コードおよび前記表情コードを出力した他のクライアントの識別情報を受信する受信手段と、前記受信手段により前記表情コードおよび前記識別情報が受信された場合、前記表示手段により表示される前記識別情報に対応するクライアントの操作者に対応する前記オブジェクトの画像を、前記表情コードに応じて変化させる第1の画像変化手段とを備える情報処理装置である。
前記表情判断手段により前記表情の変化があったと判断された場合、前記表示手段により表示される自分自身の操作者に対応する前記オブジェクトの画像を、前記表情判断手段により判断された自分自身の操作者の顔の表情に応じて変化させる第2の画像変化手段をさらに備えることができる。
本発明の他の側面は、また、ネットワークを介して複数の操作者が仮想現実空間を共有できるとともに、各操作者の分身のオブジェクトを仮想現実空間内で動かせるようにした仮想現実空間共有システムにおいて、前記ネットワークを介して複数のクライアントに対して前記仮想現実空間を提供するサーバから、前記クライアントの1つとして前記仮想現実空間の提供を受ける情報処理装置の情報処理方法であって、前記情報処理装置の表示手段が、前記仮想現実空間内の各操作者の分身のオブジェクトを表示し、前記情報処理装置の撮影手段が、自分自身の操作者の顔を撮影し、前記情報処理装置の動きベクトル検出手段が、撮影された画像データから特徴部分の動きベクトルを検出し、前記情報処理装置の表情判断手段が、求められた動きベクトルと表情判断用データを比較して、自分自身の操作者の顔の表情と、前記表情の変化を判断し、前記情報処理装置の送信手段が、前記表情の変化があったと判断された場合のみ、自分自身の操作者の顔の表情を示す表情コードを前記サーバに送信し、前記サーバを介して、他のクライアントにおいて表示される自分自身の操作者に対応するオブジェクトの画像を変化させ、前記情報処理装置の受信手段が、前記サーバから送信される前記表情コードおよび前記表情コードを出力した他のクライアントの識別情報を受信し、前記情報処理装置の第1の画像変化手段が、前記表情コードおよび前記識別情報が受信された場合、表示される前記識別情報に対応するクライアントの操作者に対応する前記オブジェクトの画像を、前記表情コードに応じて変化させる情報処理方法である。
本発明の一側面においては、クライアントにおいて、仮想現実空間内の各操作者の分身のオブジェクトが表示され、クライアントの操作者の顔が撮影され、撮影された画像データから特徴部分の動きベクトルが検出され、求められた動きベクトルと表情判断用データとが比較されて、クライアントの操作者の顔の表情と、表情の変化が判断され、表情の変化があったと判断された場合のみ、クライアントの操作者の顔の表情を示す表情コードがサーバに送信され、サーバから送信される表情コードおよび表情コードを出力したクライアントの識別情報が受信され、表情コードおよび識別情報が受信された場合、表示される識別情報に対応するクライアントの操作者に対応するオブジェクトの画像が、表情コードに応じて変化させられ、サーバにおいて、クライアントから送信される表情コードが受信され、表情コードが受信された場合、表情コードおよび表情コードを出力したクライアントの識別情報が他のクライアントに送信される。
本発明の他の側面においては、仮想現実空間内の各操作者の分身のオブジェクトが表示され、自分自身の操作者の顔が撮影され、撮影された画像データから特徴部分の動きベクトルが検出され、求められた動きベクトルと表情判断用データとが比較されて、自分自身の操作者の顔の表情と、表情の変化が判断され、表情の変化があったと判断された場合のみ、自分自身の操作者の顔の表情を示す表情コードがサーバに送信され、サーバから送信される表情コードおよび表情コードを出力した他のクライアントの識別情報が受信され、表情コードおよび識別情報が受信された場合、表示される識別情報に対応するクライアントの操作者に対応するオブジェクトの画像が、表情コードに応じて変化させられる。
本発明では、各クライアントの操作者の顔の表情を検出し、検出された表情に応じて各クライアントの画面上のオブジェクトの画像を変化させるようにしたので、複雑な操作を行うことなく、オブジェクトの表情を操作者の意思通りに自然に変化させることができる。よって、より現実味のあるコミュニケーションが図れる。
以下、本発明の一形態を図面を参照して説明する。
図1は本形態の仮想現実空間共有システムの機能の概念を示すブロック図である。ネットワーク1には、サーバ端末2、多数のクライアント端末3,4などが接続されている。各クライアント端末3,4には、CCDカメラや表情検出回路からなる表情検出手段3a,4aが設けられている。これら表情検出手段3a,4aは、各クライアント端末3,4の操作者3A,4Aの顔の表情が、例えば、笑顔、怒り顔、泣き顔、驚きの顔のいずれであるかを検出する。表情検出手段3a,4aによって検出された表情のデータは、表情データ送信手段3b,4bがサーバ側に送る。ただし、この場合、操作者3A,4Aの顔の表情に変化があったときのみ表情のデータを送信することが好ましい。
サーバ端末2側では、表情変化指令手段2aが、送信された表情のデータに基づいて、各クライアント端末3,4の画面3d,4d上の操作者に対応するオブジェクトの表情を変化させる指令を行う。これを受けた各クライアント端末3,4では、画像変化手段3c,4cが、サーバからの指令に応じて各自の画面3d,4d上のオブジェクトの画像を変化させる。ただし、サーバ端末2に表情のデータを送ったクライアント端末においては、サーバ端末2からの指令を待たずに、自身の画面上の表示を変化させることが好ましい。
図2は本形態の仮想現実空間共有システムの構成例を示すブロック図である。ここでは、例えば2台のサーバ端末12,13がインターネットなどのネットワーク11に接続されている。各サーバ端末12,13には、それぞれハードディスク装置などの記憶装置14,15が接続されている。記憶装置14,15には、仮想現実空間共有システムのプログラムが格納されており、ネットワーク11を介してクライアント端末16,17,18に仮想現実空間を提供できるようになっている。
仮想現実空間は、各クライアント端末16,17,18の後述のモニタ上で画像表示される。この仮想現実空間では、各クライアント端末16,17,18を操作する操作者の分身のオブジェクトが表示され、キーボードやマウスなどを操作することにより、空間内でその体の各部や顔の表情を自由に動かすことができる。また、操作者の分身のオブジェクト以外にも、背景の建物なども動かすことができる。
また、ネットワーク11には、複数のサービス提供者端末19,20が接続されている。サービス提供者端末19,20は、ネットワーク11を介して仮想現実空間の提供を受けるとともに、クライアント端末16,17,18に対して所定のサービスを提供できるようになっている。
次に、各端末の具体的な構成について説明する。
図3はサーバ端末12の具体的な構成を示すブロック図である。バス30には、CPU21、ROM22、RAM23、通信装置24、インタフェース25などが接続されている。CPU21は、ROM22に内蔵されたプログラムに従ってサーバ端末12全体の動作を制御する。RAM23には、CPU21が各種の処理を実行する上で必要なデータ、プログラムなどが適宜格納されるようになっている。通信装置24は、ネットワーク11との間でデータの授受を行う。
インタフェース25には、記憶装置14、表示装置26、マイク27、スピーカ28、入力装置29が接続されている。記憶装置14は、ハードディスク、光ディスク、光磁気ディスクなどであり、仮想現実空間の提供に必要なプログラムやデータが格納されている。表示装置26は、CRT、LCDなどからなり、サーバ端末12が提供する仮想現実空間の画像などが表示される。
マイク27からは、必要な音声信号が入力され、クライアント端末16,17,18やサービス提供者端末19,20に供給される。一方、クライアント端末16,17,18やサービス提供者端末19,20から供給された音声信号は、スピーカ28から出力される。
入力装置29には、マウス29a、キーボード29bが備えられている。これらマウス29a、キーボード29bによって、必要な指令が行われる。
なお、サーバ端末13の構成は、サーバ端末12とほぼ同じなのでここでは説明を省略する。
図4はクライアント端末16の具体的な構成を示すブロック図である。バス43には、CPU31、ROM32、RAM33、通信装置34、インタフェース35などが接続されている。CPU31は、ROM32に内蔵されたプログラムに従ってクライアント端末16全体の動作を制御する。また、ROM32には、後述する操作者の分身のオブジェクトの顔の画像データが格納されている。RAM33には、CPU31が各種の処理を実行する上で必要なデータ、プログラムなどが適宜格納されるようになっている。通信装置34は、ネットワーク11との間でデータの授受を行う。
インタフェース35には、表示装置36、マイク37、スピーカ38、記憶装置39、入力装置40が接続されている。表示装置36は、CRT、LCDなどからなり、CG(コンピュータ・グラフィック)の3次元画像や、通常のビデオカメラなどにより撮影された画像が表示される。マイク37からは、必要な音声信号が入力され、ネットワーク11を介してサーバ端末12,13に供給される。一方、サーバ端末12,13から供給された音声信号は、スピーカ38から出力される。記憶装置39は、ハードディスク、光ディスク、光磁気ディスクなどであり、仮想現実空間での各オブジェクトの移動操作などに必要なプログラムやデータが格納されている。
入力装置40には、マウス40a、キーボード40bが備えられている。マウス40aは、所定の位置を指定するときなどに使用される。キーボード40bは、所定の文字や記号などを入力するときに使用される。また、入力装置40には、視点入力装置40c、移動入力装置40dが設けられている。視点入力装置40cは、クライアント端末12の操作者の分身のオブジェクトの仮想現実空間内での視点を入力するときに使用される。これにより、オブジェクトの視点を上下左右に移動させたり、オブジェクトの視線の先の画像をズームすることができる。移動入力装置40dは、オブジェクトを前後左右に移動させるときに使用される。
また、インタフェース35には、CCDカメラ41および表情検出回路42が接続されている。CCDカメラ41は、クライアント端末16の操作者の顔を常時撮影している。この撮影された映像信号は、一定時間毎に表情検出回路42に取り込まれる。表情検出回路42は、この映像信号に基づいて、操作者の顔の表情を後述する手順により検出し、その結果をサーバ側に送る。
なお、クライアント端末17,18の構成は、クライアント端末16とほぼ同じなのでここでは説明を省略する。
また、サービス提供者端末19,20については、CCDカメラ41および表情検出回路42以外はクライアント端末16とほぼ同じ構成なので、ここでは説明を省略する。
次に、表情検出回路42の具体的な構成について説明する。
図5は表情検出回路42の具体的な構成を示すブロック図である。ローパスフィルタ(LPF)421は、CCDカメラ41から入力された映像信号の高域成分を除去する。人間の顔には毛穴、細かい皺などがあるため、CCDカメラ41からの映像信号には、高域成分が大量に含まれている。このため、ローパスフィルタ421は、この高域成分を除去する。エッジ検出回路422は、ローパスフィルタ421から出力されたアナログ信号をディジタル信号に変換し、そのディジタル信号からエッジ検出を行い、さらに、エッジのみにされた映像データを出力する。
パターンマッチング回路423は、メモリ424に予め格納されている操作者の顔の基本データとして、無表情の顔のデータを読み出し、エッジ検出回路422からのデータと比較してパターンマッチングを行い、操作者の撮影された顔の位置と大きさを調整する。すなわち、操作者は、仮想現実空間を利用している間、顔の位置が上下左右、または前後に動いてしまい、基本データの顔の座標位置や大きさが異なってしまう。これでは、正確に現在の顔の表情を捉えることができなくなる。したがって、パターンマッチング回路423では、エッジ検出回路422からの1フレーム分のデータを基本データと比較し、撮影された操作者の顔が基本データに対して前後、左右、上下にどれだけ移動しているかを検出する。そして、その移動量に基づいて撮影された操作者の顔のデータを基本データと同じ条件に補正する。
ところで、メモリ424には、基本データとして、操作者の無表情の顔のデータが格納されているが、顔の表情を特徴づける特徴部分の位置データも格納されている。
図6はメモリ424に格納された操作者の顔の基本データの一例を示す図である。顔の基本データ51は、メモリ424に格納されている。また、顔の表情を特徴づける特徴部分として、例えば、左眉左端(点P1)、左眉右端(点P2)、口角左(点P3)、口角右(点P4)、口中央上端(点P5)、右目尻(点P6)、左目尻(点P7)の各位置が格納されている。各点P1〜P7は、例えば、フレーム上のXY座標で格納されている。
図5に戻り、動きベクトル検出回路425は、パターンマッチング回路423によって大きさや位置が調整された操作者の顔のデータと、メモリ424の基本データ51とを比較し、操作者の顔のデータの図6で示した点P1〜P7に対応する点がどれだけ移動しているかを検出する。
図7はCCDカメラ41で撮像した操作者の顔のデータの一例を示す図である。ここでは、笑顔の状態の例を示す。操作者の顔のデータ52は、動きベクトル検出回路425によって、左眉左端(点P11)、左眉右端(点P12)、口角左(点P13)、口角右(点P14)、口中央上端(点P15)、右目尻(点P16)、左目尻(点P17)の各特徴部分が検出され、これらはそれぞれ基本データ51上の対応する点P1〜P7と比較される。これらの比較により、動きベクトル検出回路425は、各点P11〜P17が基本データの対応する点P1〜P7からどれだけ動いたかを示す動きベクトルを検出する。これは、各点を含む近辺のいくつかのピクセルを含むブロックのブロックマッチングを行うことで達成される。
図5に戻り、表情判断回路426は、動きベクトル検出回路425によって求められた動きベクトルと、表情テーブル427の表情判断用データとを比較して、現在の操作者の顔の表情を判断する。
図8は顔の表情を判断するための表情テーブル427の表情判断用データの一例を示す図である。表情判断用データ53は、図に示すように、判断すべき表情として「笑顔」、「怒り顔」、「泣き顔」、「驚きの顔」が用意され、それぞれに対して特徴部分の動きベクトルが適度な範囲で与えられている。表情判断回路426は、この表情判断用データ53の各表情において、動きベクトル検出回路425によって求められた各特徴部分の動きベクトルと最もマッチしている表情が、現在の操作者の顔の表情と判断する。すなわち、図7のデータ52であれば、「笑顔」と判断される。
こうして表情の判断を行った表情判断回路426は、今回判断された表情が前回の判断と異なる場合のみ、その表情を示す表情コードを図4で示したインタフェース25に出力し、CPU31に送る。CPU31は、自身のクライアント端末の表情コードが出力されると、その表情コードに対応したオブジェクトの画像データをROM32から読み出し、表示装置36に表示させる。この場合、オブジェクトの顔の表情の画像を各表情コードに応じてROM32に記憶しておき、表情コードが出力される毎に対応する表情の画像をROM32から読み出して、画面上のオブジェクトの顔の部分に貼り付け表示するようにしてもよいし、あるいは、表情コードに対応する顔および体全体の動作をROM32に記憶しておき、例えば「泣き顔」の場合には涙を拭く動作をさせるなど、表情コードに合わせてオブジェクトを動かすようにしてもよい。
このような画面の表示と同時に、CPU31は、表示コードを通信装置34、ネットワーク11を介してサーバ端末12に送る。これを受けたサーバ端末12は、ネットワーク11を介して他のクライアント端末17、18に、表情コードとその表示コードを出力したクライアントのIDを送る。
表情コードを受け取ったクライアント端末17、18は、その表情コードとクライアント端末16のIDに対応するオブジェクトをROMから読み出して各表示装置上で表示する。
図9は表情コードに関するクライアント端末側の処理手順を示すフローチャートである。〔S1〕自身の端末の表情検出回路42から表情コードが出力されたか否かを判断し、出力されればステップS2に進み、されなければステップS4に進む。〔S2〕表示装置36の画面上のオブジェクトの表情を、新たに出力された表情コードに対応する表情に切り換える。ただし、操作者自身のクライアント端末では、操作者の分身のオブジェクトは表示させず、操作者の視点からの仮想現実空間の景色のみを表示させるモードに設定されている場合には、当然、表情の切り換えは行われない。〔S3〕サーバ端末12側に表情コードを出力する。〔S4〕サーバ端末12から表情コードおよびクライアントIDが送られたかいなかを判断し、送られればステップS5に進み、送られなければ本フローチャートを終了する。〔S5〕サーバ端末12から送られたIDに対応するクライアント端末の分身のオブジェクトの表情を、同時に送られた表情コードに対応する表情に切り換える。
図10は表情コードに関するサーバ端末側の処理手順を示すフローチャートである。〔S11〕クライアント端末側から表情コードが入力されたか否かを判断し、入力されればステップS12に進み、入力されなければ本フローチャートを終了する。〔S12〕入力された表情コードを他のクライアント端末に送信する。
このように、本形態では、各クライアント端末16,17,18の操作者の顔の表情をCCDカメラ41などで撮影し、その表情の変化に応じて、仮想現実空間内の各操作者の分身のオブジェクトの顔の表情を変化させるようにしたので、複雑な操作を行うことなく、オブジェクトの表情を操作者の意思通りに自然に変化させることができる。よって、より現実味のあるコミュニケーションが図れる。
なお、本形態では、クライアント端末から表情コードが送られると、サーバ端末側では、他のクライアント端末に対して表情コードのみを送り、これを受けたクライアント端末側で送られた表情コードに対応する画像を自身のROM32から読み出して表示するようにしたが、全ての表示データをサーバ端末からクライアント端末に対して送信するようにしてもよい。
本形態の仮想現実空間共有システムの機能の概念を示すブロック図である。 本形態の仮想現実空間共有システムの構成例を示すブロック図である。 サーバ端末の具体的な構成を示すブロック図である。 クライアント端末の具体的な構成を示すブロック図である。 表情検出回路の具体的な構成を示すブロック図である。 メモリに格納された操作者の顔の基本データの一例を示す図である。 CCDカメラで撮像した操作者の顔のデータの一例を示す図である。 顔の表情を判断するための表情テーブルの表情判断用データの一例を示す図である。 表情コードに関するクライアント端末側の処理手順を示すフローチャートである。 表情コードに関するサーバ端末側の処理手順を示すフローチャートである。
符号の説明
22 カメラ, 23 メカキャプチャボタン, 28 LCD, 131 CPU, 136 表示制御部, 201 レンズ部, 202 CCD, 210 カメラ制御部, 211 レンズ部駆動回路, 221 EVFエリア, 227 ソフトキャプチャボタン, 260 スポット測光用ポインタ, 261 AF枠, 361 AE領域
1 ネットワーク、 2 サーバ端末、 2a 表情変化指令手段、 3 クライアント端末, 3A 操作者、 3a 表情検出手段、 3b 表情データ送信手段、 3c 画像変化手段、 3d モニタ、 11 ネットワーク、 12 , 13 サーバ端末、 14 , 15 記憶装置、 16 , 17 , 18 クライアント端末、 31 CPU、 32 ROM、 41 CCDカメラ、 42 表情検出回路。

Claims (6)

  1. ネットワークを介して複数の操作者が仮想現実空間を共有できるとともに各操作者の分身のオブジェクトを仮想現実空間内で動かせるようにした仮想現実空間共有システムにおいて、
    前記仮想現実空間を提供するサーバと、
    前記ネットワークを介して前記サーバから前記仮想現実空間の提供を受ける複数のクライアントとを有し、
    前記クライアントは、
    前記仮想現実空間内の各操作者の分身のオブジェクトを表示する表示手段と、
    前記クライアントの操作者の顔を撮影する撮影手段と、
    前記撮影手段により撮影された画像データから特徴部分の動きベクトルを検出する動きベクトル検出手段と、
    前記動きベクトル検出手段によって求められた動きベクトルと表情判断用データを比較して、前記クライアントの操作者の顔の表情と、前記表情の変化を判断する表情判断手段と、
    前記表情判断手段により前記表情の変化があったと判断された場合のみ、前記クライアントの操作者の顔の表情を示す表情コードを前記サーバに送信する第1の送信手段と、
    前記サーバから送信される前記表情コードおよび前記表情コードを出力したクライアントの識別情報を受信する第1の受信手段と、
    前記第1の受信手段により前記表情コードおよび前記識別情報が受信された場合、前記表示手段により表示される前記識別情報に対応するクライアントの操作者に対応する前記オブジェクトの画像を、前記表情コードに応じて変化させる第1の画像変化手段と
    を備え、
    前記サーバは、
    前記クライアントから送信される前記表情コードを受信する第2の受信手段と、
    前記第2の受信手段により前記表情コードが受信された場合、前記表情コードおよび前記表情コードを出力したクライアントの識別情報を他のクライアントに送信する第2の送信手段と
    を備える仮想現実空間共有システム。
  2. 前記クライアントは、
    前記表情判断手段により前記表情の変化があったと判断された場合、前記表示手段により表示される前記クライアントの操作者に対応する前記オブジェクトの画像を、前記表情判断手段により判断された前記クライアントの操作者の顔の表情に応じて変化させる第2の画像変化手段をさらに備える
    請求項1に記載の仮想現実空間共有システム。
  3. ネットワークを介して複数の操作者が仮想現実空間を共有できるとともに、各操作者の分身のオブジェクトを仮想現実空間内で動かせるようにした、前記仮想現実空間を提供するサーバと、前記ネットワークを介して前記サーバから前記仮想現実空間の提供を受ける複数のクライアントとを有する仮想現実空間共有システムの仮想現実空間共有方法であって、
    前記クライアントにおいて、
    表示手段が、前記仮想現実空間内の各操作者の分身のオブジェクトを表示し、
    撮影手段が、前記クライアントの操作者の顔を撮影し、
    動きベクトル検出手段が、撮影された画像データから特徴部分の動きベクトルを検出し、
    表情判断手段が、求められた動きベクトルと表情判断用データを比較して、前記クライアントの操作者の顔の表情と、前記表情の変化を判断し、
    第1の送信手段が、前記表情の変化があったと判断された場合のみ、前記クライアントの操作者の顔の表情を示す表情コードを前記サーバに送信し、
    第1の受信手段が、前記サーバから送信される前記表情コードおよび前記表情コードを出力したクライアントの識別情報を受信し、
    第1の画像変化手段が、前記表情コードおよび前記識別情報が受信された場合、表示される前記識別情報に対応するクライアントの操作者に対応する前記オブジェクトの画像を、前記表情コードに応じて変化させ、
    前記サーバにおいて、
    第2の受信手段が、前記クライアントから送信される前記表情コードを受信し、
    第2の送信手段が、前記表情コードが受信された場合、前記表情コードおよび前記表情コードを出力したクライアントの識別情報を他のクライアントに送信する
    仮想現実空間共有方法。
  4. ネットワークを介して複数の操作者が仮想現実空間を共有できるとともに、各操作者の分身のオブジェクトを仮想現実空間内で動かせるようにした仮想現実空間共有システムにおいて、前記ネットワークを介して複数のクライアントに対して前記仮想現実空間を提供するサーバから、前記クライアントの1つとして前記仮想現実空間の提供を受ける情報処理装置であって、
    前記仮想現実空間内の各操作者の分身のオブジェクトを表示する表示手段と、
    自分自身の操作者の顔を撮影する撮影手段と、
    前記撮影手段により撮影された画像データから特徴部分の動きベクトルを検出する動きベクトル検出手段と、
    前記動きベクトル検出手段によって求められた動きベクトルと表情判断用データを比較して、自分自身の操作者の顔の表情と、前記表情の変化を判断する表情判断手段と、
    前記表情判断手段により前記表情の変化があったと判断された場合のみ、自分自身の操作者の顔の表情を示す表情コードを前記サーバに送信し、前記サーバを介して、他のクライアントにおいて表示される自分自身の操作者に対応するオブジェクトの画像を変化させる送信手段と、
    前記サーバから送信される前記表情コードおよび前記表情コードを出力した他のクライアントの識別情報を受信する受信手段と、
    前記受信手段により前記表情コードおよび前記識別情報が受信された場合、前記表示手段により表示される前記識別情報に対応するクライアントの操作者に対応する前記オブジェクトの画像を、前記表情コードに応じて変化させる第1の画像変化手段と
    を備える情報処理装置。
  5. 前記表情判断手段により前記表情の変化があったと判断された場合、前記表示手段により表示される自分自身の操作者に対応する前記オブジェクトの画像を、前記表情判断手段により判断された自分自身の操作者の顔の表情に応じて変化させる第2の画像変化手段をさらに備える
    請求項4に記載の情報処理装置。
  6. ネットワークを介して複数の操作者が仮想現実空間を共有できるとともに、各操作者の分身のオブジェクトを仮想現実空間内で動かせるようにした仮想現実空間共有システムにおいて、前記ネットワークを介して複数のクライアントに対して前記仮想現実空間を提供するサーバから、前記クライアントの1つとして前記仮想現実空間の提供を受ける情報処理装置の情報処理方法であって、
    前記情報処理装置の表示手段が、前記仮想現実空間内の各操作者の分身のオブジェクトを表示し、
    前記情報処理装置の撮影手段が、自分自身の操作者の顔を撮影し、
    前記情報処理装置の動きベクトル検出手段が、撮影された画像データから特徴部分の動きベクトルを検出し、
    前記情報処理装置の表情判断手段が、求められた動きベクトルと表情判断用データを比較して、自分自身の操作者の顔の表情と、前記表情の変化を判断し、
    前記情報処理装置の送信手段が、前記表情の変化があったと判断された場合のみ、自分自身の操作者の顔の表情を示す表情コードを前記サーバに送信し、前記サーバを介して、他のクライアントにおいて表示される自分自身の操作者に対応するオブジェクトの画像を変化させ、
    前記情報処理装置の受信手段が、前記サーバから送信される前記表情コードおよび前記表情コードを出力した他のクライアントの識別情報を受信し、
    前記情報処理装置の第1の画像変化手段が、前記表情コードおよび前記識別情報が受信された場合、表示される前記識別情報に対応するクライアントの操作者に対応する前記オブジェクトの画像を、前記表情コードに応じて変化させる
    情報処理方法。
JP2007122110A 2007-05-07 2007-05-07 仮想現実空間共有システムおよび方法、並びに、情報処理装置および方法 Expired - Fee Related JP4544262B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007122110A JP4544262B2 (ja) 2007-05-07 2007-05-07 仮想現実空間共有システムおよび方法、並びに、情報処理装置および方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007122110A JP4544262B2 (ja) 2007-05-07 2007-05-07 仮想現実空間共有システムおよび方法、並びに、情報処理装置および方法

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP27154497A Division JP4032403B2 (ja) 1997-10-03 1997-10-03 仮想現実空間共有システム、仮想現実空間共有方法、クライアント、データ送信方法、および、データ送信プログラムを記録した記録媒体

Publications (2)

Publication Number Publication Date
JP2007207278A JP2007207278A (ja) 2007-08-16
JP4544262B2 true JP4544262B2 (ja) 2010-09-15

Family

ID=38486621

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007122110A Expired - Fee Related JP4544262B2 (ja) 2007-05-07 2007-05-07 仮想現実空間共有システムおよび方法、並びに、情報処理装置および方法

Country Status (1)

Country Link
JP (1) JP4544262B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101329935B1 (ko) * 2011-01-27 2013-11-14 주식회사 팬택 이종 마커를 이용해서 원격으로 증강현실 서비스를 공유하는 증강현실 시스템 및 그 방법

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101619512B1 (ko) 2010-06-14 2016-05-10 주식회사 비즈모델라인 증강현실 장치 간 정보 공유 방법

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05153581A (ja) * 1991-12-02 1993-06-18 Seiko Epson Corp 顔画像符号化方式
JPH05316491A (ja) * 1992-05-07 1993-11-26 Seiko Epson Corp 顔画像符号化方式
JPH07255044A (ja) * 1993-12-17 1995-10-03 Mitsubishi Electric Corp アニメーション式電子会議室及びビデオ会議システム及びビデオ会議方法
JPH08241430A (ja) * 1995-03-06 1996-09-17 Nippon Telegr & Teleph Corp <Ntt> 3次元仮想空間共有システム
JPH0981782A (ja) * 1995-07-12 1997-03-28 Sony Corp 3次元仮想現実空間共有方法、3次元仮想現実空間共有システム、情報記録媒体、情報記録方法、情報伝送媒体、情報伝送方法、情報処理方法、クライアント端末、並びに共有サーバ端末

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05153581A (ja) * 1991-12-02 1993-06-18 Seiko Epson Corp 顔画像符号化方式
JPH05316491A (ja) * 1992-05-07 1993-11-26 Seiko Epson Corp 顔画像符号化方式
JPH07255044A (ja) * 1993-12-17 1995-10-03 Mitsubishi Electric Corp アニメーション式電子会議室及びビデオ会議システム及びビデオ会議方法
JPH08241430A (ja) * 1995-03-06 1996-09-17 Nippon Telegr & Teleph Corp <Ntt> 3次元仮想空間共有システム
JPH0981782A (ja) * 1995-07-12 1997-03-28 Sony Corp 3次元仮想現実空間共有方法、3次元仮想現実空間共有システム、情報記録媒体、情報記録方法、情報伝送媒体、情報伝送方法、情報処理方法、クライアント端末、並びに共有サーバ端末

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101329935B1 (ko) * 2011-01-27 2013-11-14 주식회사 팬택 이종 마커를 이용해서 원격으로 증강현실 서비스를 공유하는 증강현실 시스템 및 그 방법

Also Published As

Publication number Publication date
JP2007207278A (ja) 2007-08-16

Similar Documents

Publication Publication Date Title
US11089266B2 (en) Communication processing method, terminal, and storage medium
JP3847753B2 (ja) 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス
EP2590396B1 (en) Information processing system and information processing method
JP6918455B2 (ja) 画像処理装置、画像処理方法及びプログラム
CN110427110B (zh) 一种直播方法、装置以及直播服务器
AU2021480445A1 (en) Avatar display device, avatar generation device, and program
CN112199016B (zh) 图像处理方法、装置、电子设备及计算机可读存储介质
CN109582122B (zh) 增强现实信息提供方法、装置及电子设备
CN113973190A (zh) 视频虚拟背景图像处理方法、装置及计算机设备
CN107948505B (zh) 一种全景拍摄方法及移动终端
JP7371264B2 (ja) 画像処理方法、電子機器及びコンピュータ可読記憶媒体
WO2020110323A1 (ja) 動画合成装置、動画合成方法及び記録媒体
CN111083371A (zh) 拍摄方法和电子设备
JP2020064426A (ja) コミュニケーションシステム及びプログラム
CN110086998B (zh) 一种拍摄方法及终端
CN113302908B (zh) 控制方法、手持云台、***及计算机可读存储介质
JP4544262B2 (ja) 仮想現実空間共有システムおよび方法、並びに、情報処理装置および方法
JP4689548B2 (ja) 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス
JP4032403B2 (ja) 仮想現実空間共有システム、仮想現実空間共有方法、クライアント、データ送信方法、および、データ送信プログラムを記録した記録媒体
CN111954058A (zh) 图像处理方法、装置、电子设备以及存储介质
KR20110090623A (ko) 얼굴추적이 가능한 홈네트워크 단말 및 그 단말에서의 얼굴추적방법
KR100659901B1 (ko) 이동 단말기의 아바타 움직임 제어 방법 및 그 이동 단말기
WO2022044357A1 (ja) 端末装置、方法、およびプログラム
JP4767331B2 (ja) 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス
CN117478931A (zh) 信息显示方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070531

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100330

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100520

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100608

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100621

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130709

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130709

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees