JP3517639B2 - 複合現実感提示装置及びその方法並びに記憶媒体 - Google Patents

複合現実感提示装置及びその方法並びに記憶媒体

Info

Publication number
JP3517639B2
JP3517639B2 JP2000294790A JP2000294790A JP3517639B2 JP 3517639 B2 JP3517639 B2 JP 3517639B2 JP 2000294790 A JP2000294790 A JP 2000294790A JP 2000294790 A JP2000294790 A JP 2000294790A JP 3517639 B2 JP3517639 B2 JP 3517639B2
Authority
JP
Japan
Prior art keywords
user
dolphin
virtual object
state
mixed reality
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2000294790A
Other languages
English (en)
Other versions
JP2002112286A (ja
Inventor
登志一 大島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2000294790A priority Critical patent/JP3517639B2/ja
Priority to US09/812,675 priority patent/US6685566B2/en
Priority to EP01303055A priority patent/EP1193651A3/en
Publication of JP2002112286A publication Critical patent/JP2002112286A/ja
Application granted granted Critical
Publication of JP3517639B2 publication Critical patent/JP3517639B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Human Computer Interaction (AREA)
  • Processing Or Creating Images (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • User Interface Of Digital Computer (AREA)
  • Farming Of Fish And Shellfish (AREA)

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、仮想物体の画像を
生成し、当該画像を現実空間に重畳してユーザに提示す
る複合現実感提示装置及びその方法並びに記憶媒体に関
するものである。
【0002】
【従来の技術】最近、仮想のペットを飼育する携帯型や
据え置き型のゲーム機が、一般の市場に販売されてい
る。この仮想のペットは、ゲーム機内で実行されるプロ
グラムコードと、このプログラムコードが用いるデータ
により構成され、プログラムが仮想ペットを表す画像を
所定の条件で変化させることにより、あたかも仮想ペッ
トが仮想空間内で自律的に行動し、ユーザからのメッセ
ージに応じて行動するかのようにユーザに見せる。
【0003】一方、ユーザが仮想ペットに対してメッセ
ージを入力する際、ユーザは、ゲーム機に接続された所
定のインターフェース(例えば、ボタン、レバーなどを
備えたパッド型インターフェース、キーボード、音声入
力マイクなど)を用いて何らかのメッセージ(例えば、
なでる、殴る、文字もしくは声を入力して話しかける
等)を仮想ペットに対して送る。
【0004】例えば、「なでる」行為を表すメッセージ
を、パッド型インターフェースを用いて仮想ペットに送
る場合、例えば、自分の手を表すカーソルを仮想ペット
が表示されるディスプレイの画面に表示し、このカーソ
ルを仮想ペットに重ね合わせ、所定のボタンを押すこと
で、仮想ペットに対して、ユーザは「なでる」行為を行
ったことになる。
【0005】以上の結果、仮想ペットは入力されたメッ
セージに応じた所定の動作(例えば、喜ぶ、起こる、泣
く等)を行い、ユーザは自身が仮想ペットに対して行っ
た動作(メッセージの入力)に対するペットの動作反応
を見ることで、仮想ペットとの仮想的なコミュニケーシ
ョンを楽しむ。
【0006】
【発明が解決しようとする課題】しかし仮想空間内に存
在するペットに対してコミュニケーションをとるために
メッセージを送る際、このメッセージを送る装置や方法
がペットに対して間接的であり、ペットの存在感の認知
を困難にさせる原因の一つとなる。
【0007】本発明は上述の問題点に鑑みてなされたも
のであり、ユーザの所定部位による所定動作により、仮
想物体の内部状態を遷移させることで、この仮想物体の
存在感の認知を容易にすることを目的とする。
【0008】
【課題を解決するための手段】本発明の目的を達成する
ために、例えば本発明の複合現実感提示装置は以下の構
成を備える。すなわち、仮想物体の画像を生成し、当該
画像を現実空間に重畳してユーザに提示する複合現実感
提示装置であって、ユーザの所定部位の位置姿勢を計測
する第1の計測手段と、前記ユーザの頭部の位置・姿勢
を計測する第2の計測手段と、前記仮想物体の内部状態
を管理する管理手段と、前記仮想物体の内部状態と前記
第1の計測手段による計測結果とに基づいて、前記所定
部位による所定動作を検知し、前記仮想物体の動作を決
定する検知手段と、前記検知手段による検知結果に応じ
て、前記仮想物体の内部状態を、当該内部状態とは別の
内部状態に遷移させる遷移手段と、前記ユーザの頭部の
位置・姿勢の計測結果と、前記決定された仮想物体の動
作に応じて仮想物体の映像を生成し、前記現実空間に重
畳する生成手段とを備えることを特徴とする。
【0009】
【0010】
【0011】
【0012】
【0013】
【発明の実施の形態】以下添付図面を参照して、本発明
をその好適な実施形態に従って詳細に説明する。
【0014】[第1の実施形態]本実施形態における複
合現実感提示装置は、仮想空間に存在するペットとして
イルカを用い、ユーザが手を使ってイルカに対して直接
メッセージを送り、このメッセージに応じた動作を行う
イルカを仮想物体画像として表示することで複合現実空
間内で見ることができる、すなわち複合現実感をユーザ
に体感させることができる。
【0015】なお、以下では仮想空間内におけるイルカ
の3次元モデルの生成方法としてはポリゴンを用いての
公知の方法で生成するが、他の方法を採用することも可
能である。なお、このイルカのモデルのデータ(イルカ
を構成する各ポリゴンデータ等)は後述のペット状態管
理部110内の不図示のメモリ内に格納されている。
【0016】図1に本実施形態における複合現実感提示
装置内部の概略構成をブロック図で示す。
【0017】101はCPUで、ROM111に格納さ
れたデータやプログラムコードを用いて、本装置全体の
制御を行うと共に、後述のペット状態管理部110内の
不図示のメモリや、RAM112に格納されたデータや
プログラムコードを用いて、後述する各画像処理や数値
計算等を行う。なお、上述の各データやプログラムコー
ドの所在は、上述の通りに限定されるものではなく、例
えば本装置全体の制御プログラムコードが外部記憶装置
113やRAM112に格納されていても良い。
【0018】102は頭部用位置姿勢センサで、ユーザ
の頭部に装着することにより、ユーザの頭部の絶対的な
位置、姿勢(絶対座標系におけるユーザの頭部の位置、
姿勢)を示す信号を後述の位置姿勢計測部103に出力
する。上記絶対座標系を以下、世界座標系と呼ぶことが
ある。
【0019】この世界座標系は、図2に示すとおり、適
当な位置を原点とし、z−x平面を水平面とする座標系
で、重力方向を−y方向とする。ここでは原点として、
後述する位置姿勢計測部103の位置を原点とするが、
この原点は任意に設定可能である。
【0020】ここで、ユーザの頭部のローカル座標系は
図3A、図3Bに示すとおりである。なお図3Aは、ユ
ーザの頭部の右側面からの図であり、図3Bは、ユーザ
の頭部の頭頂からの図である。
【0021】103は位置姿勢計測部であって、頭部用
位置姿勢センサ102から入力した上述の信号から、ユ
ーザの頭部の位置、姿勢を特定する。一方、後述の手の
位置姿勢センサ104より入力する信号から、世界座標
系におけるユーザの手の位置、姿勢を特定する。なお、
特定した上述のユーザの頭部の位置、姿勢のデータと、
ユーザの手の位置、姿勢のデータはCPU101に出力
される。
【0022】104は手の位置姿勢センサで、頭部用位
置姿勢センサ102と同じものを用いても良く、ユーザ
の手(イルカを登場させる部位。つまり、イルカの映像
を合成する部位)に装着することにより、世界座標系に
おけるユーザの手の位置、姿勢を示す信号を位置姿勢計
測部103に出力する。
【0023】手の位置姿勢センサ104がユーザの手の
位置、姿勢を計測する際、手のローカル座標系は図4に
示すとおりである。
【0024】上述の通り計測された世界座標系における
ユーザの頭部の位置、姿勢及び、ユーザの手の位置、姿
勢を以下の通り表す。
【0025】 時刻tにおけるユーザの頭部の位置:h!(t) h!(t)=( hx 、 hy 、 hz ) (1) ただし、h!はhのベクトル表記。
【0026】 時刻tにおけるユーザの頭部の姿勢: θr ロール角 θp ピッチ角 θy ヨー角(方位角) 時刻tにおけるユーザの手の位置:P!(t) (2) P!(t)=( Px 、 Py 、 Pz ) ただし、P!はPのベクトル表記。
【0027】時刻tにおけるユーザの手の姿勢: φr ロール角 φp ピッチ角 φy ヨー角(方位角) 以上のユーザの頭部の位置、姿勢のデータと、ユーザの
手の位置、姿勢のデータがCPU101に入力される。
ここでCPU101がこれらのデータから、ユーザの手
の動きを検知する方法について説明する。
【0028】ユーザの頭部の位置、方位角を基準とした
手の位置P'!は、(CPU101内で)以下の演算を
行うことで求めることができる。
【0029】 P'!=P!×T_(h!)×Ry_(θy) (3) 但し、T_は平行移動変換Tの逆変換、Ry_はy軸周り
の回転変換Ryの逆変換である。
【0030】又、ユーザの頭部の向きを基準とし、時刻
t+Δtにおける手の位置P’!の移動ベクトルd!は
以下のようにして求めることができる。
【0031】 d!=P'!(t+Δt)−P'!(t) (4) そして手の移動速度を示す速度ベクトルv!は以下のよ
うにして求めることができる。
【0032】v!=d!/Δt (5) その結果、この速度ベクトルv!のx、y、zの各方向
の成分vx、vy、vzにより、ユーザの頭部を基準と
した手の動きは以下のようにして検知することができ
る。
【0033】 vx>0:右に動いた vx<0:左に動いた vy>0:上に動いた vy<0:下に動いた vz>0:後に動いた vz<0:前に動いた しかし実際には、手の微妙な動きを検知する必要はない
ので、各方向成分vx、vy、vzに対する判断が、そ
の符号の正負でなく、所定の閾値以上か閾値より小さい
かで判断すると良い。つまり、この所定の閾値をεとす
ると、以下のようにして判断すれば良い。
【0034】 vx>ε:右に動いた vx<−ε:左に動いた vy>ε:上に動いた vy<−ε:下に動いた vz>ε:後に動いた vz<−ε:前に動いた なお、各方向成分でεの値を変えても良い。そしてこの
判断の結果、ユーザの手が動いた方向が分かれば、ユー
ザの手はその方向に「振った」と判断される。又同時
に、「振った」と判断した際に、所定の時間内に、−方
向と+方向に何回振ったかをカウントする。なお、所定
の時間の計測は、不図示のクロックタイマにより計測す
ることができる。
【0035】図1に戻って、105はヘッドマウントデ
ィスプレイ(以下、HMD)で、内部にCCD105b
と表示部105cを備え、後述の画像生成部106によ
り合成された映像(CCD105bで撮像された実写映
像と、仮想空間に存在するイルカの映像との合成映像)
を表示部105cに表示することで、このHMD105
を頭部に装着したユーザに、あたかも目の前にイルカが
存在するかのように感じさせ、その結果、現実空間内に
おけるイルカの存在感をより認知させることができる。
なお、HMD105には光学シースルーと、ビデオシー
スルーの2種類が存在し、その詳細については本実施形
態の範疇ではないのでここでは説明は省くが、本実施形
態ではビデオシースルー、つまり上述の通り、表示部1
05cにはCCD105bにより撮像された実写映像を
表示すると共に、画像生成部106で生成されたイルカ
の映像を合成して表示するHMDを用いる。なお、この
HMDは光学シースルーのタイプのHMDを用いること
も可能である。HMD105が光学シースルーのタイプ
のものであった場合、HMD105にはCCD105b
は備わっていない。
【0036】106は画像生成部で、HMD105がビ
デオシースルーのタイプのものであった場合、CCD1
05bから入力した実写映像に対して任意の画像処理
(ガンマ補正、階調変換など)を行ってもよい。そし
て、ユーザの目の位置から見えるイルカの位置、姿勢に
基づいて生成されたイルカの映像に、上述の実写映像,
あるいは任意の画像処理を施された実写映像を合成した
合成映像を表示部105cに出力する。
【0037】ユーザの目の位置から見えるイルカの位
置、姿勢はマトリクス(イルカの位置姿勢マトリクスM
d)で表現される。このマトリクスの生成にはまず、ユ
ーザの頭部の位置、姿勢のデータと、ユーザの手の位
置、姿勢のデータから夫々、ユーザの頭部の状態(位
置、姿勢)を示すマトリクスMhと、ユーザの手の状態
(位置、姿勢)を示すマトリクスMtを生成し、これら
のマトリクスを用いて生成するが、その生成方法に関し
ては公知の計算方法であるので、その説明は省略する。
なお、このマトリクスの生成(計算)はCPU101に
よって行われる。
【0038】一方、HMD105が光学シースルーのタ
イプのものであった場合、上述の通りHMD105には
CCD105cが備わっていないために、画像生成部1
06は、上述の方法により生成されるユーザの目の位置
から見えるイルカの映像のみを表示部105cに出力す
る。
【0039】107はスピーカで、後述する音声合成部
108で生成された音声を出力する。なお、このスピー
カ107から出力されるのは音声に限定されず、他にも
例えば、イルカが行う所定の動作に応じた効果音を出力
することが可能である。
【0040】108は音声合成部で、イルカが何か音声
を発したりする場合、その音声を生成する。また、上述
の通り、効果音を生成することも可能である。なお、イ
ルカが発生する際の各状況における音声データ、効果音
は、夫々の状況に関連づけてペット状態管理部110内
の不図示のメモリ内にテーブルデータとして格納されて
いる。音声データ、効果音に関しては詳しくは後述す
る。
【0041】109はデータ通信部で、ネットワークイ
ンターフェース回路、通信端子等を含み、他のユーザに
対して上述の複合現実感を体感させている複合現実感提
示装置に対して、データ通信を行うことができる。
【0042】110はペット状態管理部で、本実施形態
ではイルカの状態、例えば、後述するイルカとのコミュ
ニケーションレベルや、イルカの動作が記載された後述
のテーブル等を管理する。
【0043】111はROMで、上述の通り本装置全体
の制御を行うプログラムコードやデータを格納する。ま
た、本装置が起動する際に必要となる設定や、文字を表
示部に表示するための文字コードなども格納する。
【0044】112はRAMで、後述する外部記憶装置
113からロードしたプログラムコードやデータなど一
時的に格納するエリアを備えていると共に、CPU10
1が各種のプログラムコードを実行する際に使用するワ
ークエリアも備えている。
【0045】113はHDD等の外部記憶装置で、CD
−ROMやフロッピー(登録商標)ディスクなどの記憶
媒体からインストールされた各種のプログラムコードや
データなどを保存する。また、前述のRAM112内の
ワークエリアに不足が生じた場合、仮想的なワークエリ
アとしてのテンポラリファイルを、この外部記憶装置1
13内のエリアに作成することもできる。
【0046】上述の構成を備える複合現実感提示装置を
用いて、イルカをユーザの手に呼び出す方法について図
5A、図5B、図5C、図5Dを用いて説明する。な
お、本実施形態では、イルカに対するコミュニケーショ
ンにレベルを設け、レベル1ではイルカを呼び出して
1,2回のコミュニケーションをとるまでをコミュニケ
ーションレベル1とする。
【0047】<コミュニケーションレベル1>本実施形
態では、イルカを呼び出す方法として、「ユーザの手を
5秒以内に左右に5回以上振る。」と規定する。
【0048】ユーザが手を5秒以内に左右に5回以上振
ると、上述の説明の通り、ユーザの手の速度ベクトルが
CPU101により計算され、5秒以内にvxの値が閾
値(ε)以上変化した(「振った」と判断された)回数
がカウントされる。このとき、図5Aに示すとおり、ユ
ーザの手の位置に波の映像を合成した合成映像が画像生
成部106で生成され、この合成映像はHMD105の
表示部105cに表示される。
【0049】そして上述のカウント値が5以上になった
時点で、CPU101はペット状態管理部110内の不
図示のメモリに格納されたイルカが登場する際の動きの
データ(以下、モーションデータ)を読み出して、イル
カの動きを再生する。この動きは図5Bに示すとおり、
図5Aに示した波からイルカが顔を出す動きである。
【0050】ここで状況に応じたモーションデータの特
定方法について説明する。ペット状態管理部110内の
不図示のメモリ内には各状況に応じたイルカのモーショ
ンデータが格納されており、各モーションの長さはまち
まちである。
【0051】つまり、60フレームのモーションもあれ
ば、100フレームのモーションもある。ここで、フレ
ームとは、イルカの動きの最小単位であり、例えばモー
ションAが100フレームであった場合、1フレームは
この動きの100分の1の動きに相当する。
【0052】ペット状態管理部110内の不図示のメモ
リには図6に示すテーブルが格納されており、601は
各モーションを特定するための番号MT(モーション番
号)で、602は夫々のモーションを格納するテーブル
の先頭アドレスである。
【0053】図7はモーションデータを格納するペット
状態管理部110内の不図示のメモリ内のメモリ領域で
あり、例えばモーション番号0で特定されるモーション
データアドレスは、図6より0x005Aなので、CP
U101は図7のメモリ領域内で0x005Aから始ま
るデータを読み込めばよい。なお、図7に示したとお
り、モーションデータアドレス0x005Aから始まる
領域の先頭には、モーション番号0のモーションのフレ
ーム数が格納されている。よってCPU101は、この
フレーム数が格納された次のアドレスからフレーム数分
だけ、データ(モーションデータ)を読み込むことで、
イルカにモーション番号0で特定されるモーションを与
えることができる。
【0054】なお、モーションデータの内容としては、
所定の位置を原点としたローカル座標系(本実施形態で
はユーザの手の位置がこの原点となる)におけるイルカ
の位置、姿勢、イルカの様々な格好に応じたイルカの各
パーツ(尾ひれ、口、目など)の位置、姿勢等である。
【0055】以上の説明により、イルカのモーション番
号を特定することで、イルカに様々なモーションを与え
ることができる。
【0056】次に、モーション番号の特定は、イルカの
状態を示す番号S(状態番号)に応じて決まり、例え
ば、コミュニケーションレベル1ではイルカの状態とし
て、以下の3つを規定する。
【0057】S=1:水面から顔を出す。
【0058】 S=2:水面から飛び跳ねる(着水する)。
【0059】S=3:水中に引っ込む。
【0060】なお、水面にイルカが登場していない場合
の状態番号Sを0とする。また、状態番号は以上の4つ
に限定されるものではなく、このほかの状態を設けるこ
ともできる。そのためにはその状態に応じた状態番号S
を用意すればよい。
【0061】また、例として各モーション番号MTに応
じたモーションを、以下のように規定する。
【0062】MT=1:水面から顔を出す。
【0063】 MT=2:水面から飛び跳ねる(着水する)。
【0064】MT=3:水中に引っ込む。
【0065】なお、水面にイルカが登場していない場合
のモーション番号MTを0とする。また、各状態番号S
に応じたモーション番号の特定には、図8に示すテーブ
ルを用いる。同図では1つのイルカの状態に対して1つ
のモーションが対応しているが、1つのイルカの状態に
対して複数のイルカのモーションが存在する場合、例え
ば、S=4を「イルカが喜んでいる」状態と規定し、
「水面から顔を出して笑う」モーションを追加し、この
「水面から顔を出して笑う」モーションのモーション番
号MTをMT=4とした場合、図9に示すとおり、S=
4に対してMT=2,4としてもよい。この場合、イル
カの状態が「イルカが喜んでいる」状態であったときに
(S=4)、まずMT=2で示されるモーション「水面
から飛び跳ねる(着水する)」を実行した後に、MT=
4で示されるモーション「水面から顔を出して笑う」を
実行する。なお、この場合、2つのモーション(MT=
2,MT=4)間のつなぎのモーションは公知の方法に
より補間され、全体として滑らかなモーションとなる。
【0066】又、図8のように、1つのイルカの状態に
対して1つのモーションが割り当てられている場合、イ
ルカの状態番号Sをモーション番号MTとして用いても
良い。
【0067】なお、図8、図9に示したテーブルはペッ
ト状態管理部110内の不図示のメモリ内に格納され
る。
【0068】図5Bに戻って、イルカが図5Aの状態か
ら図5Bの状態に変化したとき、イルカの状態番号Sは
S:0→1となり、その結果、イルカのモーション番号
MTはMT:0→1となる。なお、このモーション番号
MTの変化に伴ったモーションの変化も、上述のモーシ
ョン補間により、滑らかになる。
【0069】そして図5Bに示した状態で、例として
「ユーザの手を3秒以内に左右に3回以上振ると、イル
カは引っ込む」としたとき、ユーザが手を3秒以内に3
回振ると、イルカを呼びだしたときと同じように、ユー
ザが手を左右に3回「振った」と判断され、イルカは引
っ込む。なお、このときにイルカの状態番号Sの変化は
S:1→3、モーション番号MTの変化はMT:1→3
となる。
【0070】また、図5Aの状態で、例として図5Cに
示すように、「ユーザが手を上下に2回振る」と、図5
Dに示すように「イルカがはねる」としたとき、ユーザ
が上下に2回手を振ったら、イルカの状態番号SはS:
0→2となり、モーション番号MTは、MT:0→2と
なる。また、図5Bの状態から図5Dの状態に変化する
場合も考えられ、その場合、状態番号SはS:1→2、
モーション番号MTはMT:1→2となる。
【0071】以上説明した、ユーザの動作に応じたイル
カの状態遷移則を図10に示す。なお同図において、
「水面から飛び跳ねる(着水する)」状態(S=2,M
T=2)から初期状態(S=0,MT=0)、もしく
は、「引っ込む」状態(S=3,MT=3)から初期状
態(S=0,MT=0)には無条件で状態遷移するもの
とする。
【0072】よって、以上のユーザの手の動きにより、
イルカの状態は遷移し、状態の遷移に応じたモーション
番号MTで特定されるモーションデータを再生すること
で、イルカに対する操作感(コミュニケーション)がよ
り直感的となる。
【0073】以上のユーザとイルカとのコミュニケーシ
ョンを、コミュニケーションレベル1と呼び、ユーザと
イルカとのコミュニケーションにおける前段のレベルで
ある。
【0074】<コミュニケーションレベル2>コミュニ
ケーションレベル1において、無条件の状態遷移を除く
状態遷移の回数が、例えば3回以上となった場合、コミ
ュニケーションレベル2に移行する。そして、コミュニ
ケーションレベル2に移行した場合、このレベルにおけ
るイルカの初期状態を「水面から顔を出す」(状態番号
S=1)とする。つまり、コミュニケーションレベル2
における初期状態は、図5Bに示した状態となる。
【0075】ここで、コミュニケーションレベル2にお
けるイルカの状態として、コミュニケーションレベル1
における3つに加えて更に以下の2つを例として規定す
る。
【0076】S=4:ユーザの方を見る。
【0077】S=5;あわてる。
【0078】又、イルカの各状態に応じたモーションの
番号(モーション番号)MTを、コミュニケーションレ
ベル1における3つに加えて、更に以下の2つを例とし
て規定する。
【0079】MT=4:ユーザの方を見る。
【0080】MT=5:あわてる。
【0081】ここで、図5Bに示した状態(S=1,M
T=1)で、例えば、「ユーザが手を2秒以内に前後も
しくは左右に2回以上振ると、イルカはユーザの方を見
る。」とすると、ユーザが手を2秒以内に前後もしくは
左右に2回以上振れば、状態番号S:1→4となり、モ
ーション番号MT:1→4となる。なお、ユーザが手を
2秒以内に前後もしくは左右に2回振ったと判断された
ときには、前述の通り、手の速度ベクトルvx、もしく
はvzが2秒以内に2回以上、閾値ε以上変化したと判
断された場合である。
【0082】又、イルカがユーザの方を見るためには、
MT=4で特定されるモーションを再生すると共に、イ
ルカをユーザの方に向けなくてはいけないので、イルカ
から見たユーザの方向が必要となる。この場合、状態番
号Sが4となった時点で、イルカの位置(ユーザの手の
位置)のデータ、とユーザの頭部の位置のデータを用い
てイルカの位置から見たユーザの頭部の位置への方向を
計算する。
【0083】また、S=1の状態で、例えば「ユーザが
手を(手のローカル座標系においてz軸周りに)30度
以上傾けると、イルカはあわてる」とすると、手の位置
姿勢センサ104が位置姿勢計測部103に出力したユ
ーザの手の位置、姿勢を示す信号に基づいて位置姿勢計
測部103が計測し、その結果手が30度以上傾いてい
た場合、イルカの状態番号SはS:1→5となり、それ
に伴って、モーション番号MTもMT:1→5となる。
【0084】以降、コミュニケーションレベル1と同じ
ように、ユーザの手の動きに応じてイルカの状態は遷移
し、それに伴ってイルカのモーションは変化するので、
コミュニケーションレベル1と同様に、ユーザはイルカ
に対する操作感(コミュニケーション)を直感的にとら
えることができる。
【0085】なお、以上説明したコミュニケーションレ
ベル2におけるユーザの動作に応じたイルカの状態遷移
則を図11に示す。同図において、「ユーザの方を見
る」状態(S=4)では、MT=4で特定される「ユー
ザの方を見る」モーションが終了すれば、無条件で初期
状態に戻る。また、「あわてる」状態(S=5)は、ユ
ーザの手の傾きが30度以上である間は、ずっと続いて
いており、「あわてる」モーションもその間はずっと続
いている。そして、ユーザの手の傾きが30度以内にな
り、且つ、「あわてる」モーションが終了したら、初期
状態に戻る。
【0086】また、コミュニケーションレベル2におい
て、コミュニケーションレベル1で示した状態番号と同
じ番号(例えばS=2)で示される状態となっても、コ
ミュニケーションレベル1と同じモーション(MT=
2)でなく、他のモーションを用いても良い。
【0087】以上のユーザのイルカとのコミュニケーシ
ョンを、コミュニケーションレベル2と呼び、ユーザと
イルカとの初歩的なコミュニケーションであり、こちら
からのコミュニケーションにイルカが行動で応じるレベ
ルである。
【0088】<コミュニケーションレベル3>コミュニ
ケーションレベル2において、無条件の状態遷移を除く
状態遷移の回数が、例えば5回以上となった場合、コミ
ュニケーションレベル3に移行する。そして、コミュニ
ケーションレベル3における初期状態もコミュニケーシ
ョンレベル2と同様に、「水面から顔を出す」(状態番
号S=1)とする。つまり、コミュニケーションレベル
3においても、その初期状態は、図5Bに示した状態と
なる。
【0089】コミュニケーションレベル3では、イルカ
は自発的にユーザに対して話しかけるようになり、イル
カが話す内容は予めテーブル(発声内容テーブル)とし
て複数格納しておき、例えばユーザが一定時間何もしな
ければ、ランダムにこのテーブルからイルカが話す内容
が選択され、この内容に基づいた音声データが音声合成
部108において生成され、スピーカ107からこの音
声データが音声として出力される。また、ちらちらとユ
ーザの方を見たりもする。なお、この発声内容テーブル
はペット状態管理部110内の不図示のメモリ内に格納
され、CPU101により参照される。
【0090】ここで、コミュニケーションレベル3にお
けるイルカの状態として、コミュニケーションレベル
1,2に加えて更に、2つを追加する。
【0091】S=6:うれしそうに笑う。
【0092】S=7:文句を言う。
【0093】又、イルカの各状態に応じたモーションの
番号(モーション番号)MTを、コミュニケーションレ
ベル1,2に加えて、更に2つ追加する。
【0094】MT=6:うれしそうに笑う MT=7:文句を言う。
【0095】図5Bに示した初期状態(S=1,MT=
1)で、例えば、「ユーザが手を3秒以内に前後もしく
は左右に3回振ると、イルカはうれしそうに笑う」とす
ると、ユーザが手を3秒以内に前後もしくは左右に3回
以上振れば、状態番号S:1→6となり、モーション番
号MT:1→6となる。なお、ユーザが手を3秒以内に
前後もしくは左右に3回振ったと判断されたときには、
状態番号S=4となるときに説明したように、手の速度
ベクトルvx、もしくはvzを用いて判断する。
【0096】また、イルカの笑う声(発声内容)は、上
述の発声内容テーブルを参照し、複数の笑う声からラン
ダムに選択して上述のとおり音声としてスピーカ107
に出力する。又、笑う声を選択する際には、例えば図1
3に示すように、状態番号Sを声の種類のグループ番号
1301とした構成をとる発声内容テーブルを作成す
る。そして、S=6の場合、グループ番号が6になるの
で、発声内容データのうち1304で示す範囲内の発声
内容データが候補として選択され、サブ番号1302
(S=6の場合、1〜3)をランダムに選択すること
で、笑う声のデータが特定される。S=7の場合も同様
に、1305で示される範囲内の発声内容データが候補
となり、そのうち、サブ番号1302をランダムに選択
することで、文句の発声内容が選択される。なお、この
テーブルには音声内容データ以外に効果音を同様に格納
してもよく、上述の説明による発声内容の特定方法を適
用しても良いことは明白である。なお図13に示したテ
ーブルはペット状態管理部110内の不図示のメモリ内
に格納される。
【0097】次にS=1の状態で、例えば「ユーザが手
を(手のローカル座標系においてz軸周りに)30度以
上傾けると、イルカは文句を言う」とすると、状態番号
S=5の時に説明したとおり、手の位置姿勢センサ10
4,位置姿勢計測部103によって、手の角度が計測さ
れ、計測された手の傾きが30度以上であった場合、イ
ルカの状態番号SはS:1→7となり、それに伴って、
モーション番号MTもMT:1→7となる。又、状態番
号S=7に応じた文句の内容が、上述の発生内容テーブ
ルに格納されているので、このテーブルから発生する内
容をランダムに選択し、この内容に基づいた音声データ
が音声合成部108によって生成され、スピーカ107
からこの音声データが音声として出力される。
【0098】以降、コミュニケーションレベル1、2と
同じように、ユーザの手の動きに応じてイルカの状態は
遷移し、それに伴ってイルカのモーションは変化するの
で、コミュニケーションレベル1、2と同様に、ユーザ
はイルカに対する操作感(コミュニケーション)を直感
的にとらえることができる。
【0099】以上説明した、コミュニケーションレベル
3におけるユーザの動作に応じたイルカの状態遷移則を
図12に示す。同図において、「うれしそうに笑う」状
態(S=6)において、イルカの「うれしそうに笑う」
モーション(MT=6)が終了すると、無条件に初期状
態(S=1,MT=1)に状態遷移する。なおこの状態
遷移に伴って、「うれしそうに笑う」声も停止する。
【0100】以上のユーザのイルカとのコミュニケーシ
ョンを、コミュニケーションレベル3と呼び、コミュニ
ケーションレベル2よりもユーザとイルカとのコミュニ
ケーションがインタラクティブに行われ、イルカが音声
を発するレベルである。
【0101】なお、コミュニケーションレベル3におい
てイルカの発声する内容は、スピーカ107を介して音
声として出力されたが、図13に示した発声内容データ
を音声データではなく、文字として同図に示したテーブ
ルに記載し、このテーブルを参照することで、イルカの
発声内容を吹き出しとして画像形式でHMD105に出
力し、表示部105cに表示しても良い。
【0102】<コミュニケーション終了>コミュニケー
ションレベルに関係なく、ユーザはイルカとのコミュニ
ケーションを終了することができる。その方法として例
えば、「ユーザの手を一定の高さ以上に上げ、左右に振
る(手を挙げて、バイバイとするような仕草)と、イル
カは水面下に消え、イルカとのコミュニケーションを終
了する。」とする。
【0103】その際、イルカは状態番号SをS=3(水
中に引っ込む)とし(モーション番号MTはMT=3と
なる)、その後、コミュニケーションレベル1において
も説明したとおり、無条件にS=0となる(モーション
番号MT=0となる)。
【0104】なお、コミュニケーションの終了はこれに
限らずに、ユーザが上述のコミュニケーション終了の動
作を行った場合、例えば「イルカがバイバイと手を振っ
て、水中に引っ込む。」とすると、この時のイルカの状
態番号SをS=99とし、これに応じたイルカのモーシ
ョン番号MTをMT=99とすることもできる。なお、
このモーション番号MT(=99)で特定されるモーシ
ョンは、「イルカがバイバイと手を振って、水中に引っ
込む。」となる。そして、モーション番号MT=99で
特定されるモーションが終了すると、無条件に状態番号
S、モーション番号MTは共に0となる。
【0105】<本実施形態における複合現実感提示装置
が行う処理>以上の各処理を行う本実施形態における複
合現実感提示装置が行う処理のフローチャートを図14
〜17に示す。なお、同図に示したフローチャートに従
ったプログラムコードはRAM112(もしくはROM
111でもよいが)に格納され、CPU101により読
み出され、実行される。
【0106】図14は、本実施形態における複合現実感
提示装置がメインに行う処理のフローチャートである。
【0107】まず、処理の初期化を行う。ここでは例え
ば、コミュニケーションレベルを1に設定したり、イル
カのモデルデータを読み出したり、イルカの状態番号
S、モーション番号MTを共に0にしたり、各コミュニ
ケーションレベルにおいて、状態遷移回数を0にしたり
する処理を行う(ステップS1401)。
【0108】次に、ユーザの頭部、手の状態を計測する
(ステップS1402)。計測の方法については上述の
通りで、計測された結果から、上述のマトリクスMh、
Mtを生成する。また、ユーザが所定時間内に手を左
右、上下に振った回数もカウントする。そして一定時間
手を「振った」と判定されなくなった場合、このカウン
ト数はリセットされる。
【0109】次に、コミュニケーションレベルに応じ
た、夫々のサブルーチン(ステップS1404,S14
05,S1406)へ処理を分岐させる(ステップS1
403)。
【0110】そして各コミュニケーションレベルにおけ
る処理の結果、決定したモーション番号MTに応じたモ
ーションを特定し、イルカの位置姿勢マトリクスMdを
生成すると共に(ステップS1407)、イルカのモデ
ルを表示させる(ステップS1408)。
【0111】そして、コミュニケーションを終了するか
否かを判断して、終了しないのであれば(上述の終了の
動作をユーザが行わなかったら)、処理をステップS1
402に移行する。
【0112】次に、図15に、コミュニケーションレベ
ル1における本実施形態における複合現実感提示装置が
行う処理のフローチャートを示す。なお、本フローチャ
ートにおける処理は、図10に示した状態遷移の処理で
もある。また以下で、ユーザが手を左右に振った回数を
示す変数としてNLR、上下に振った回数を示す変数とし
てNUPを用い、コミュニケーションレベル1における状
態遷移回数を示す変数をL1とする。
【0113】まず状態番号Sにより、イルカの各状態に
応じた処理に分岐させる(ステップS1501)。
【0114】まずS=0(登場していない)の場合につ
いて説明する。上述の通り、NLR≧5(ユーザの手を左
右に5回以上振る)ならば(ステップS1502)、S
=1,MT=1(水面から顔を出す)となり、状態遷移
回数を1つ加算(L1=L1+1)する(ステップS1
504)。一方、NLR<5で、NUP≧2(ユーザの手を
2回以上上下に振る)ならば(ステップS1503)、
S=2,MT=2(水面から飛び跳ねる(着水する))
となり、状態遷移回数を1つ加算する(ステップS15
05)。
【0115】S=1の場合は、NLR≧3ならば、S=
3,MT=3、L1=L1+1となる(ステップS15
07)。
【0116】S=2の場合は、イルカが水面から飛び跳
ねている状態なので、飛び跳ねているモーション(モー
ション番号MT=2)が終了したか否か(イルカが着水
したか否か)を判断して(ステップS1508)、終了
したら、S=0,MT=0となる(ステップS150
9)。なお、この状態遷移S:2→0は、無条件で行わ
れるために、状態遷移回数L1はカウントされない。
【0117】S=3(水中に引っ込む)の場合もS=2
の時と同様に、水中に引っ込むモーション(モーション
番号MT=3)が終了したか否かを判断し(ステップS
1510)、終了したら、S=0,MT=0となる(ス
テップS1511)。
【0118】そして次に、状態遷移回数L1≧3か否か
を判断し(ステップS1512)、L1<3ならば、処
理をステップS1501に移行し、L1≧3ならば、コ
ミュニケーションレベルを1つ上げ、コミュニケーショ
ンレベル2に移行する(ステップS1513)。
【0119】次に、図16に、コミュニケーションレベ
ル2における本実施形態における複合現実感提示装置が
行う処理のフローチャートを示す。なお、本フローチャ
ートにおける処理は、図11に示した状態遷移の処理で
もある。また、コミュニケーションレベル2における状
態遷移回数を示す変数をL2とする。
【0120】なお、本フローチャートに従った処理は、
図15に示したコミュニケーションレベル1における処
理と同様に、状態番号Sにより、イルカの各状態に応じ
た処理に分岐させ(ステップS1601)、上述の通
り、ユーザの手の動きに応じて、状態番号Sと、モーシ
ョン番号MTを変更させ、無条件の状態遷移でない場合
の状態遷移回数L2をカウントする。そしてこの状態遷
移回数L2がL2≧5ならば(ステップS1612)、
コミュニケーションレベルを1つ上げ、コミュニケーシ
ョンレベル3に移行する(ステップS1613)。
【0121】次に、図17に、コミュニケーションレベ
ル3における本実施形態における複合現実感提示装置が
行う処理のフローチャートを示す。なお、本フローチャ
ートにおける処理は、図12に示した状態遷移の処理で
もある。
【0122】なお、本フローチャートに従った処理は、
図15、16に示した夫々コミュニケーションレベル
1、2における処理と同様に、状態番号Sにより、イル
カの各状態に応じた処理に分岐させ(ステップS170
1)、上述の通り、ユーザの手の動きに応じて、状態番
号Sと、モーション番号MTを変更させる。また、コミ
ュニケーションレベル3においては、音声(もしくは効
果音でも良いが)の出力があり、ステップS1707,
ステップS1711において、夫々上述の通り、状態番
号Sをグループ番号とする図13に示したテーブルを用
いて、出力する音声を特定し、スピーカ107に出力す
る。
【0123】以上の説明により、本実施形態の複合現実
感提示装置及びその方法を用いることで、ユーザは自身
の手の動きによって、仮想物体としてのイルカに対して
メッセージを送ることができる。また、このユーザから
のメッセージを受けたイルカは、受けたメッセージに応
じた行動をとったり、音声を発したりし、ユーザはより
直感的にイルカとのコミュニケーションをとることがで
きる複合現実感を体感することができる。
【0124】[第2の実施形態]第1の実施形態では、
ユーザの手の状態を計測するセンサとして、位置、姿勢
のみであったが、ユーザの手に、例えば、光スイッチ、
データグローブ(これらをまとめて、以下では、手の開
閉センサと呼ぶ)などを装着することにより、ユーザの
指の状態(位置、姿勢)を計測することができ、例え
ば、「手を握る」、「手を開く」なども計測することが
できる。なお、この手の開閉センサは、位置姿勢計測部
103に接続することで、手の開閉センサから入力し
た、ユーザの手の開閉を示す信号を解析し、ユーザの手
の開閉の状態をマトリクスとして表現することができ
る。
【0125】又、このマトリクスを使えば、手を握るこ
とで、仮想空間におけるユーザの各指(もしくは各指の
各関節)の位置を特定することができ、この位置と、イ
ルカの位置情報から、ユーザの手とイルカとの接触の度
合いが計算できる。その結果、例えば、ユーザが手をだ
んだん握っていくことで、「イルカが苦しがる」とい
う、ユーザとイルカとの新たなコミュニケーションを、
ユーザに提供することができる。
【0126】そしてこの「イルカが苦しがる」状態を特
定する状態番号Sと、この状態の動きを示すモーショ
ン、このモーションを特定するモーション番号MTを新
たに用意し、モーションのデータを図7に示したペット
状態管理部110内の不図示のメモリ内に追加して格納
し、この格納したアドレスと共に、このモーションを特
定するモーション番号MTを図6に示すテーブルに追加
する。また、図8に示すテーブルに、この状態番号S
と、モーション番号MTを追加して格納する。このよう
にすることで、この状態に遷移する条件を設定すれば、
ユーザがこの条件を満たす行動を行うことで、イルカは
苦しがる。
【0127】もちろんこの手の開閉センサを用いた例は
これに限らず、他にもユーザが手を開くと「イルカは喜
ぶ」といった状態を生成することも、上述の説明によ
り、実現可能であることは明白である。
【0128】[第3の実施形態]第1の実施形態では、
一人のユーザとこのユーザが有するペット(イルカ)と
のコミュニケーションの為の複合現実感提示装置及びそ
の方法を示した。本実施形態では、複数のユーザが同空
間内に存在し、これら複数のユーザに対して第1の実施
形態で示した複合現実感を提供することができる複合現
実感提供システムを示す。
【0129】本実施形態における複合現実感提供システ
ムの概略構成を図18に示す。同図の通り、本実施形態
における複合現実感提供システムは、1つのサーバ(1
801)と4つの複合現実感提示装置(A,B,C,
D)から構成され、サーバと複合現実感提示装置との間
は、イーサネット(登録商標)などのネットワークで接
続されている。
【0130】サーバ1801には4つのポートがあり、
これら4つのポートP1,P2,P3,P4には夫々、
複合現実感提示装置A、B、C、Dが自身のデータ通信
部109を介して接続されている。又、図示していない
が、夫々の複合現実感提示装置A,B,C,Dを使用し
ているユーザを夫々以下、ユーザA、B、C、Dと呼
ぶ。
【0131】サーバ1801内の構成を以下に示す。
【0132】1803はCPUで、RAM1806、R
OM1804内に格納されているプログラムコードやデ
ータを用いて、サーバ1801全体の制御を行うと共
に、接続された4つの複合現実感提示装置A、B、C、
Dとの通信制御を行う。
【0133】1804はROMで、サーバ1801を制
御するプログラムコードやデータが格納されており、ま
た、文字コードなども格納している。
【0134】1805は外部記憶装置で、CD−ROM
やフロッピーディスクなどの記憶媒体からインストール
された各種のドライバやプログラムコードやデータなど
を保存する。
【0135】1806はRAMで、後述のテーブル18
02を格納すると共に、CPU1803が後述の各処理
を実行する際のワークエリアとしても用いられている。
【0136】1807はNCUで、上述の4つの複合現
実感提示装置A、B、C、Dとの通信を行うためのイン
ターフェースである。
【0137】1808は上述の各部を繋ぐバスである。
【0138】次にテーブル1802について説明する。
このテーブル1802には、各複合現実感提示装置を使
用しているユーザに関する情報(1802a〜1802
d)と、各ユーザのイルカに関する情報(1802e〜
1802g)が記載されている。また、所有フラグ18
02hは、イルカを所有しているユーザには1、所有し
ていないユーザには0が割り当てられる。
【0139】ここで、各装置を使用しているユーザに関
する情報として、ユーザの頭部及び手の位置は、全ユー
ザが存在する共通の空間内での絶対座標値であって、こ
の位置の計測のための原点は、第1の実施形態では、位
置姿勢計測部103の位置であった。しかし、本実施形
態における原点は全ユーザに共通でなくてはいけない。
よって、所定の1点を設定し、この1点の位置を原点と
する。
【0140】又、サーバ1801は、このテーブル18
02の他にも、第1の実施形態で説明したモーションデ
ータや、発声内容テーブルなどをRAM1802内に格
納している。
【0141】つまり、本実施形態における複合現実感提
示装置(複合現実感提示装置A,B,C,D)は、第1
の実施形態において説明した複合現実感提示装置からペ
ット状態管理部110を取り外した複合現実感提示装置
であって、各複合現実感提示装置から取り外されたペッ
ト状態管理部110内の情報の一部をテーブル化したも
のが、テーブル1802である。そして本実施形態にお
ける複合現実感提示装置A,B,C,Dは、このテーブ
ル1802を参照することで、各装置を使用しているユ
ーザの状態、イルカの状態を把握することができ、各装
置のユーザに対して第1の実施形態で説明した複合現実
感を体感させることができる。
【0142】また、テーブル1802はどの装置からも
参照することができるため、例えば装置Bを使用してい
るユーザBは、他のユーザが操作しているイルカを見る
ことができる。このことは、装置Bが、他のユーザのイ
ルカの情報をテーブル1802を参照することで把握で
きることに起因する。
【0143】<変形例1>本実施形態のシステムを用い
ることで、ユーザ同士でペットの交換を行うことができ
る。例えばユーザBが、ユーザCに対してペットを譲渡
する行為のことである。ここで、このペット交換を行う
ためのユーザがとるべき動作として、本実施形態では以
下のように規定する。
【0144】譲渡動作「交換を行うユーザ同士が互いの
手を20センチ程近づけ、ペットを譲渡するユーザ(ユ
ーザ甲)の手を、ペットを譲渡されるユーザ(ユーザ
乙)の手よりも5センチ程上に動かす。」 なお、以下のペット交換は、所有フラグが1のユーザか
ら所有フラグか0のユーザに対してのみ行われ得るもの
とする。しかし、テーブル1802の構成方法によって
は、個人で複数のイルカを所有することができる(本実
施形態の範疇ではないので、ここではその方法について
は省略する)。よって、その場合、ペット交換は任意の
ユーザ間で行うことができる。
【0145】ペット交換を行うユーザ同士が、この譲渡
動作を実行することで、ユーザ甲の手からペットが飛び
出て、ユーザ乙の手に飛び移り、ユーザ甲が所有してい
たペットがユーザ乙に譲渡される。
【0146】以下では具体的な説明のため、ユーザ甲を
ユーザB、ユーザ乙をユーザCとするが、これに限らず
に、ユーザ甲、乙がいずれのユーザであっても良いこと
は後述により明白である。。
【0147】本実施形態における複合現実感提供システ
ムが、このペット交換を実現する際に行う処理につい
て、図19A〜図19Dを用いて説明する。
【0148】まず、ペット交換を行う準備段階として、
図19Aに示すように、ユーザB、Cが互いの手を20
センチ程に近づける。互いの手の間の距離の計測方法と
しては、テーブル1802にはユーザB、Cの手の座標
値が記載されており、又常に更新されているので(装置
B、Cで計測された手の座標値をサーバ1801が読み
とってテーブル1802を更新する)、サーバ1801
はこの夫々のユーザB、Cの手の座標値から、互いの手
の間の距離をCPU1803により計算する。そして、
図19Aに示すように、互いの手の間の距離が20セン
チ程になったら、ユーザB、Cが使用する装置B、Cに
対して、サーバ1801はモード変更信号を出力する。
この信号を受けた装置B、Cは夫々ペット交換のモード
に変更される。詳細は後述する。
【0149】図19Aに示した状態から、図19Bに示
すように、ユーザCの手は動かさずに、ユーザBの手を
5センチ程上に移動させると、図19Cに示すように、
ユーザBの手の位置から、ユーザBのイルカがユーザC
の手の位置に飛び出す。
【0150】このときのユーザBのイルカの状態番号S
(ここでは50とする)と、この状態番号Sに応じたイ
ルカのモーションとして「20センチ前に飛び出す」モ
ーションと、このモーションを特定する番号MTを第2
の実施形態において説明したとおりに各テーブルに登録
し、上述の譲渡動作をS=50となるための条件とする
ことで、ユーザB、Cが夫々上述の譲渡動作を行った時
点で、図19Cに示した上述の譲渡が行われる。
【0151】また、この譲渡の後(図19D)、テーブ
ル1802において、ユーザBの所有フラグは0とな
り、ユーザCの所有フラグは1となる。又、ユーザBの
イルカに関する情報はそのままユーザCのイルカに関す
る情報として、図18においてユーザCの行にコピーさ
れる。
【0152】以上のペット交換を行う際、サーバ180
1が行う処理について、この処理のフローチャートを示
す図21を用いて説明する。なお同図に示されたフロー
チャートにプログラムコードはRAM1802内に格納
され、CPU1803により読み出され、実行される。
【0153】サーバ1801は常に各ユーザに関する情
報(頭部の位置姿勢、手の位置姿勢)を各ユーザの使用
する装置から読み出して、テーブル1802を定期的に
更新している(ステップS2101)。そして上述の通
り、それぞれの手の間隔が20センチ程となっているユ
ーザ2名をテーブル1802(手の状態が記載されてい
る列1802d)に基づいて探し、それぞれの手の間隔
が20センチ程となっているユーザ2名がいた場合(ス
テップS2102)、これらのユーザが使用している装
置に対して上述のモード変更信号を出力する(ステップ
S2103)。
【0154】次に、本実施形態における複合現実感提示
装置(上述の例ではユーザBが使用する装置)のメイン
の処理のフローチャートとして、図14に示したフロー
チャートにおいて、ステップS1401で更に、複合現
実感提示装置の動作モードをノーマルモード(図14に
示したフローチャートに従った処理を行うモード)に設
定し、ステップS1402の次の処理で、動作モード
が、ペット交換モードになっていないか否かを判断し、
ペット交換モードの場合には、新たに処理を図20に示
すフローチャートに移行するフローチャートとなる。な
お同図において、ユーザBの所有フラグをFs、ユーザ
Cの所有フラグをFrとする。
【0155】同図において、まず、イルカがユーザCの
手の位置に飛んでいるモーションの最中か否かを判断す
る(ステップS2001)。ここでモーションの最中で
ないならば、次に、イルカがユーザCの手の位置に飛ん
でいるモーションが終了したところか否かを判断する
(ステップS2002)。ここで、モーションが終了と
ころでない、つまり、イルカの譲渡をまだ行っていなけ
れば、テーブル1802を参照し、ユーザB、Cの所有
フラグを確認する。つまり、Fs(ユーザBの所有フラ
グ)が1で、Fr(ユーザCの所有フラグ)は0である
か否かを判断する(ステップS2003)。
【0156】次に、ユーザBの手の位置が、ユーザCの
手の位置よりも5センチ程上か否かを判断し(ステップ
S2004)、5センチ程上であった場合には、イルカ
の状態番号S及びモーション番号MTを設定(上記の例
ではS=50とそれに応じたモーション番号に設定)し
(ステップS2005)、処理をステップS1407に
移行する。つまり、設定したモーション番号に応じたモ
ーションを実行する。
【0157】なお、ステップS2002において、モー
ションが終了したら、サーバ1801に格納されている
テーブル1802に記載の所有フラグFs、Frの書き
換えを行う。つまり、Fs:1→0、Fr:0→1とす
る(ステップS2006)。
【0158】なお、以上の説明による本実施形態のフロ
ーチャート(図20を含む)に従ったプログラムコード
は、RAM112(もしくはROM111でもよいが)
に格納され、CPU101により読み出され、実行され
る。
【0159】以上の構成により、本実施形態におけるシ
ステムは、複数のユーザがイルカとのコミュニケーショ
ンをとる複合現実感を体感できるだけでなく、ユーザ間
で互いのイルカを見ることができたり、イルカの交換を
行うこともできる。また、テーブルなど比較的メモリの
容量を圧迫しかねないデータをサーバに格納すること
で、各複合現実感提示装置が負担するメモリ容量をより
少なくする事ができる。 [他の実施形態]本発明の目的は、前述した実施形態の
機能を実現するソフトウェアのプログラムコードを記録
した記憶媒体(または記録媒体)を、システムあるいは
装置に供給し、そのシステムあるいは装置のコンピュー
タ(またはCPUやMPU)が記憶媒体に格納されたプログラ
ムコードを読み出し実行することによっても、達成され
ることは言うまでもない。この場合、記憶媒体から読み
出されたプログラムコード自体が前述した実施形態の機
能を実現することになり、そのプログラムコードを記憶
した記憶媒体は本発明を構成することになる。また、コ
ンピュータが読み出したプログラムコードを実行するこ
とにより、前述した実施形態の機能が実現されるだけで
なく、そのプログラムコードの指示に基づき、コンピュ
ータ上で稼働しているオペレーティングシステム(OS)な
どが実際の処理の一部または全部を行い、その処理によ
って前述した実施形態の機能が実現される場合も含まれ
ることは言うまでもない。
【0160】さらに、記憶媒体から読み出されたプログ
ラムコードが、コンピュータに挿入された機能拡張カー
ドやコンピュータに接続された機能拡張ユニットに備わ
るメモリに書込まれた後、そのプログラムコードの指示
に基づき、その機能拡張カードや機能拡張ユニットに備
わるCPUなどが実際の処理の一部または全部を行い、そ
の処理によって前述した実施形態の機能が実現される場
合も含まれることは言うまでもない。
【0161】本発明を上記記憶媒体に適用する場合、そ
の記憶媒体には、先に説明した(図14〜図17に示
す)フローチャート、及び/又は第3の実施形態で説明
した図20を含むフローチャートに対応するプログラム
コードが格納されることになる。
【0162】
【発明の効果】以上の説明した通り、本発明によれば、
ユーザの所定の部位による所定の動作により、仮想物体
の状態を遷移させることで、この仮想物体の存在感の認
知を容易にすることができる。
【図面の簡単な説明】
【図1】本発明の第1の実施形態における複合現実感提
示装置の内部の概略構成を示すブロック図である。
【図2】世界座標系を示す図である。
【図3A】ユーザの頭部の右側面から見た場合の、ユー
ザの頭部のローカル座標系を示す図である。
【図3B】ユーザの頭部の頭頂から見た場合の、ユーザ
の頭部のローカル座標系を示す図である。
【図4】ユーザの手のローカル座標系を示す図である。
【図5A】コミュニケーションレベル1において、イル
カを呼び出す状態を示す図である。
【図5B】コミュニケーションレベル1において、イル
カが顔を出した状態を示す図である。
【図5C】ユーザが手を上下に振る様子を示す図であ
る。
【図5D】ユーザが図5Cに示した動作を行った結果、
イルカが飛び跳ねる状態を示す図である。
【図6】モーション番号と、この番号に応じたモーショ
ンが格納されたアドレスとが対応して記載されたテーブ
ルを示す図である。
【図7】モーションデータを格納するペット状態管理部
110内の不図示のメモリ内のメモリ領域を示す図であ
る。
【図8】状態番号と、モーション番号とが対応して記載
されたテーブルを示す図である。
【図9】一つの状態に対して、複数のモーションが存在
する場合を説明する図である。
【図10】コミュニケーションレベル1におけるユーザ
の動作に応じたイルカの状態遷移則を示す図である。
【図11】コミュニケーションレベル2におけるユーザ
の動作に応じたイルカの状態遷移則を示す図である。
【図12】コミュニケーションレベル3におけるユーザ
の動作に応じたイルカの状態遷移則を示す図である。
【図13】発声内容テーブルを示す図である。
【図14】本発明の第1の実施形態における複合現実感
提示装置がメインに行う処理のフローチャートである。
【図15】本発明の第1の実施形態における複合現実感
提示装置がメインが、コミュニケーションレベル1にお
いて行う処理のフローチャートである。
【図16】本発明の第1の実施形態における複合現実感
提示装置がメインが、コミュニケーションレベル2にお
いて行う処理のフローチャートである。
【図17】本発明の第1の実施形態における複合現実感
提示装置がメインが、コミュニケーションレベル3にお
いて行う処理のフローチャートである。
【図18】本発明の第3の実施形態における複合現実感
提供システムの概略構成を示す図である。
【図19A】ユーザB、Cが互いの手を近づけた状態を
示す図である。
【図19B】イルカの交換を行う際にユーザB、Cが行
う動作を示す図である。
【図19C】イルカの交換を行っている状態を示す図で
ある。
【図19D】イルカの交換を行った後の状態を示す図で
ある。
【図20】ペット交換を行う際に、ユーザBの複合現実
感提示装置が行う処理のフローチャートである。
【図21】ペット交換を行う際に、サーバ1801が行
う処理のフローチャートである。
───────────────────────────────────────────────────── フロントページの続き (58)調査した分野(Int.Cl.7,DB名) G06T 1/00 G06T 11/60 - 17/50 H04N 13/00 - 17/06

Claims (9)

    (57)【特許請求の範囲】
  1. 【請求項1】 仮想物体の画像を生成し、当該画像を現
    実空間に重畳してユーザに提示する複合現実感提示装置
    であって、 ユーザの所定部位の位置姿勢を計測する第1の計測手段
    と、前記ユーザの頭部の位置・姿勢を計測する第2の計測手
    段と、 前記仮想物体の内部状態を管理する管理手段と、 前記仮想物体の内部状態と前記第1の 計測手段による
    測結果に基づいて、前記所定部位による所定動作を検
    し、前記仮想物体の動作を決定する検知手段と、 前記検知手段による検知結果に応じて、前記仮想物体の
    内部状態を、当該内部状態とは別の内部状態に遷移させ
    る遷移手段と、前記ユーザの頭部の位置・姿勢の計測結果と、前記決定
    された仮想物体の動作に応じて仮想物体の映像を生成
    し、前記現実空間に重畳する生成 手段とを備えることを
    特徴とする複合現実感提示装置。
  2. 【請求項2】 更に、現実空間の映像を撮像する撮像手
    を備え、 前記生成手段は、前記仮想物体の映像を前記撮像された
    現実空間の映像に重畳することを特徴とする請求項1記
    載の複合現実感提示装置。
  3. 【請求項3】 前記管理手段は、前記所定部位による前
    記所定動作と、前記仮想物体の状態遷移に関する情報と
    を関連づけて複数管理、 前記遷移手段は、前記管理手段管理ている、前記所
    定部位による前記所定動作に応じた前記仮想物体の状態
    遷移に関する情報を参照することで、前記仮想物体の状
    態を遷移させることを特徴とする請求項1に記載の複合
    現実感提示装置。
  4. 【請求項4】 前記仮想物体が発する内容に関する情報
    は、当該内容を発声する音声のデータ、当該内容を示す
    文字のデータのいずれかを含むことを特徴とする請求項
    に記載の複合現実感提示装置。
  5. 【請求項5】 仮想物体の画像を生成し、当該画像を現
    実空間に重畳してユーザに提示する複合現実感提示方法
    であって、 ユーザの所定部位の位置姿勢を計測する第1の計測工程
    と、前記ユーザの頭部の位置・姿勢を計測する第2の計測工
    程と、 前記仮想物体の内部状態を管理する管理工程と、 前記仮想物体の内部状態と前記第1の 計測工程による
    測結果に基づいて、前記所定部位による所定動作を検
    し、前記仮想物体の動作を決定する検知工程と、 前記検知工程による検知結果に応じて、前記仮想物体の
    内部状態を、当該内部状態とは別の内部状態に遷移させ
    る遷移工程と、前記ユーザの頭部の位置・姿勢の計測結果と、前記決定
    された仮想物体の動作に応じて仮想物体の映像を生成
    し、前記現実空間に重畳する生成 工程とを備えることを
    特徴とする複合現実感提示方法。
  6. 【請求項6】 前記管理工程では、前記所定部位による
    前記所定動作と、前記仮想物体の状態遷移に関する情報
    とを関連づけて所定の管理手段に複数管理しており、 前記遷移工程では、前記所定の管理手段で管理されてい
    る、前記所定部位による前記所定動作に応じた前記仮想
    物体の状態遷移に関する情報を参照することで、前記仮
    想物体の状態を遷移させることを特徴とする請求項
    記載の複合現実感提示方法。
  7. 【請求項7】 更に、複数のユーザについて、前記頭部
    の位置姿勢および前記所定部位の位置姿勢を管理する工
    程を備え、 前記頭部の位置姿勢および前記所定部位の位置姿勢は、
    前記複数のユーザについて共通の空間内での座標値を用
    いて管理されることを特徴とする請求項5に記載の複合
    現実感提示方法。
  8. 【請求項8】 更に、複数のユーザについて、前記頭部
    の位置姿勢および前記所定部位の位置姿勢を管理する手
    段を備え、 当該手段は、前記複合現実感提示装置に接続されたサー
    バ装置として機能し、前記手段は、前記頭部の位置姿勢
    および前記所定部位の位置姿勢を、前記複数のユーザに
    ついて共 通の空間内での座標値を用いて管理することを
    特徴とする請求項1に記載の複合現実感提示装置。
  9. 【請求項9】 コンピュータに請求項7に記載の複合現
    実感提示方法を実行させる為のプログラムを格納する、
    コンピュータ読み取り可能な記憶媒体。
JP2000294790A 2000-09-27 2000-09-27 複合現実感提示装置及びその方法並びに記憶媒体 Expired - Fee Related JP3517639B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2000294790A JP3517639B2 (ja) 2000-09-27 2000-09-27 複合現実感提示装置及びその方法並びに記憶媒体
US09/812,675 US6685566B2 (en) 2000-09-27 2001-03-21 Compound reality presentation apparatus, method therefor, and storage medium
EP01303055A EP1193651A3 (en) 2000-09-27 2001-03-30 Compound reality presentation

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000294790A JP3517639B2 (ja) 2000-09-27 2000-09-27 複合現実感提示装置及びその方法並びに記憶媒体

Publications (2)

Publication Number Publication Date
JP2002112286A JP2002112286A (ja) 2002-04-12
JP3517639B2 true JP3517639B2 (ja) 2004-04-12

Family

ID=18777320

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000294790A Expired - Fee Related JP3517639B2 (ja) 2000-09-27 2000-09-27 複合現実感提示装置及びその方法並びに記憶媒体

Country Status (3)

Country Link
US (1) US6685566B2 (ja)
EP (1) EP1193651A3 (ja)
JP (1) JP3517639B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011008350A (ja) * 2009-06-23 2011-01-13 Canon Inc 画像処理方法及び画像処理装置

Families Citing this family (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6897880B2 (en) * 2001-02-22 2005-05-24 Sony Corporation User interface for generating parameter values in media presentations based on selected presentation instances
JP4054585B2 (ja) * 2002-02-18 2008-02-27 キヤノン株式会社 情報処理装置および方法
JP4351023B2 (ja) * 2002-11-07 2009-10-28 パナソニック株式会社 画像処理方法及びその装置
JP2005071256A (ja) * 2003-08-27 2005-03-17 Sony Corp 画像表示装置及び画像表示方法
JP4522129B2 (ja) * 2004-03-31 2010-08-11 キヤノン株式会社 画像処理方法および画像処理装置
US8585476B2 (en) 2004-11-16 2013-11-19 Jeffrey D Mullen Location-based games and augmented reality systems
US11428937B2 (en) 2005-10-07 2022-08-30 Percept Technologies Enhanced optical and perceptual digital eyewear
US9658473B2 (en) 2005-10-07 2017-05-23 Percept Technologies Inc Enhanced optical and perceptual digital eyewear
US20070081123A1 (en) 2005-10-07 2007-04-12 Lewis Scott W Digital eyewear
WO2007095314A2 (en) * 2006-02-14 2007-08-23 Jakks Pacific, Inc. Portable interactive game device with separate console for enhanced features and alternate display capability
JP4847192B2 (ja) * 2006-04-14 2011-12-28 キヤノン株式会社 画像処理システム、画像処理装置、撮像装置、及びそれらの制御方法
JP4883774B2 (ja) * 2006-08-07 2012-02-22 キヤノン株式会社 情報処理装置及びその制御方法、プログラム
JP4960768B2 (ja) * 2007-05-29 2012-06-27 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム
US8128500B1 (en) * 2007-07-13 2012-03-06 Ganz System and method for generating a virtual environment for land-based and underwater virtual characters
US9703369B1 (en) * 2007-10-11 2017-07-11 Jeffrey David Mullen Augmented reality video game systems
JP5403974B2 (ja) * 2008-09-09 2014-01-29 キヤノン株式会社 三次元cadシステム
JP5493456B2 (ja) * 2009-05-01 2014-05-14 ソニー株式会社 画像処理装置、画像処理方法、プログラム
JP5307060B2 (ja) * 2010-03-12 2013-10-02 株式会社コナミデジタルエンタテインメント 画像処理装置、画像処理方法、ならびに、プログラム
JP2012203786A (ja) * 2011-03-28 2012-10-22 Tomy Co Ltd 情報処理装置および情報処理プログラム
KR101279869B1 (ko) 2012-03-23 2013-06-28 국방과학연구소 두부 장착형 디스플레이를 이용한 비행 시뮬레이터 영상 시현 장치 및 방법
WO2013145614A1 (ja) * 2012-03-27 2013-10-03 パナソニック株式会社 情報処理装置、サーバ装置、情報処理方法、およびプログラム
US9741145B2 (en) * 2012-06-29 2017-08-22 Disney Enterprises, Inc. Augmented reality simulation continuum
JP5871345B2 (ja) * 2012-07-27 2016-03-01 Necソリューションイノベータ株式会社 3次元ユーザインタフェース装置及び3次元操作方法
JP2014187559A (ja) * 2013-03-25 2014-10-02 Yasuaki Iwai 仮想現実提示システム、仮想現実提示方法
EP2988275A4 (en) 2013-04-16 2016-11-30 Sony Corp INFORMATION PROCESSING DEVICE AND INFORMATION PROCESSING METHOD, DISPLAY DEVICE AND DISPLAY METHOD AND INFORMATION PROCESSING SYSTEM
US10955665B2 (en) * 2013-06-18 2021-03-23 Microsoft Technology Licensing, Llc Concurrent optimal viewing of virtual objects
US9710067B2 (en) 2013-09-05 2017-07-18 Atheer, Inc. Method and apparatus for manipulating content in an interface
US10921898B2 (en) 2013-09-05 2021-02-16 Atheer, Inc. Method and apparatus for manipulating content in an interface
US9703383B2 (en) * 2013-09-05 2017-07-11 Atheer, Inc. Method and apparatus for manipulating content in an interface
CN106233227B (zh) 2014-03-14 2020-04-28 索尼互动娱乐股份有限公司 具有体积感测的游戏装置
JP6164177B2 (ja) * 2014-07-31 2017-07-19 キヤノンマーケティングジャパン株式会社 情報処理装置、情報処理システム、その制御方法及びプログラム
KR20160024168A (ko) * 2014-08-25 2016-03-04 삼성전자주식회사 전자 장치의 디스플레이 제어 방법 및 전자 장치
JP2017182460A (ja) * 2016-03-30 2017-10-05 セイコーエプソン株式会社 頭部装着型表示装置、頭部装着型表示装置の制御方法、コンピュータープログラム
US10643390B2 (en) 2016-03-30 2020-05-05 Seiko Epson Corporation Head mounted display, method for controlling head mounted display, and computer program
JP6376251B2 (ja) * 2017-06-21 2018-08-22 キヤノンマーケティングジャパン株式会社 情報処理装置、情報処理システム、その制御方法及びプログラム
US11049325B2 (en) 2017-11-01 2021-06-29 Sony Corporation Information processing apparatus, information processing method, and program
US11514604B2 (en) 2017-12-15 2022-11-29 Sony Corporation Information processing device and information processing method
US10783712B2 (en) * 2018-06-27 2020-09-22 Facebook Technologies, Llc Visual flairs for emphasizing gestures in artificial-reality environments
US10712901B2 (en) 2018-06-27 2020-07-14 Facebook Technologies, Llc Gesture-based content sharing in artificial reality environments
US10635895B2 (en) 2018-06-27 2020-04-28 Facebook Technologies, Llc Gesture-based casting and manipulation of virtual content in artificial-reality environments
JP7166813B2 (ja) * 2018-07-06 2022-11-08 株式会社コロプラ 仮想体験を提供するためにコンピュータで実行される方法、プログラム及びコンピュータ
US20220327646A1 (en) * 2019-10-21 2022-10-13 Sony Group Corporation Information processing apparatus, information processing system, information processing method, and program

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6411266B1 (en) * 1993-08-23 2002-06-25 Francis J. Maguire, Jr. Apparatus and method for providing images of real and virtual objects in a head mounted display
US6278418B1 (en) * 1995-12-29 2001-08-21 Kabushiki Kaisha Sega Enterprises Three-dimensional imaging system, game device, method for same and recording medium

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011008350A (ja) * 2009-06-23 2011-01-13 Canon Inc 画像処理方法及び画像処理装置
US8994729B2 (en) 2009-06-23 2015-03-31 Canon Kabushiki Kaisha Method for simulating operation of object and apparatus for the same

Also Published As

Publication number Publication date
JP2002112286A (ja) 2002-04-12
EP1193651A2 (en) 2002-04-03
US6685566B2 (en) 2004-02-03
EP1193651A3 (en) 2005-09-28
US20020037768A1 (en) 2002-03-28

Similar Documents

Publication Publication Date Title
JP3517639B2 (ja) 複合現実感提示装置及びその方法並びに記憶媒体
US11450352B2 (en) Image processing apparatus and image processing method
JP6276882B1 (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
US6561906B2 (en) Game apparatus, method of reproducing movie images and recording medium recording program thereof
CN111158469A (zh) 视角切换方法、装置、终端设备及存储介质
JP4117682B2 (ja) 画像処理装置および方法、並びに提供媒体
KR100845390B1 (ko) 영상 처리기, 영상 처리 방법, 기록 매체, 및 반도체 장치
CN102622774B (zh) 起居室电影创建
KR100492215B1 (ko) 화상처리장치 및 게임기
US6697068B2 (en) Game screen display control method and character movement control method
JP3539553B2 (ja) アニメーション作成方法及びアニメーション作成装置並びにアニメーション作成プログラムを記録したコンピュータ読み取り可能な記録媒体
US20040110561A1 (en) Game apparatus storing game sound control program and game sound control thereof
WO2019130864A1 (ja) 情報処理装置、情報処理方法およびプログラム
JP7366611B2 (ja) 画像処理装置、画像処理方法、及び、プログラム
US20100079388A1 (en) Storage medium storing image processing program for implementing image processing according to input coordinate, and information processing device
JP7248437B2 (ja) プログラム、電子機器およびデータ記録方法
WO2018139203A1 (ja) 情報処理装置、情報処理方法、及びプログラム
JP2020087278A (ja) 動画合成装置、動画合成方法及び動画合成プログラム
EP3751422A1 (en) Information processing device, information processing method, and program
JP2008135923A (ja) リアルタイムに相互作用する映像の制作方法、映像の制作装置、および映像の制作システム
JP2004171543A (ja) 画像処理方法及びその装置
JP5373744B2 (ja) ゲーム装置、ゲーム装置の制御方法、及びプログラム
US20230315246A1 (en) Computer program, method, and server device
JP2020087429A (ja) 動画合成装置、動画合成方法及び動画合成プログラム
JP6398938B2 (ja) 投影制御装置、及びプログラム

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040106

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040126

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080130

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090130

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090130

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100130

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110130

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120130

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130130

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140130

Year of fee payment: 10

LAPS Cancellation because of no payment of annual fees