JP3381648B2 - キャラクター表示制御装置、キャラクター表示制御システム、及び記録媒体 - Google Patents
キャラクター表示制御装置、キャラクター表示制御システム、及び記録媒体Info
- Publication number
- JP3381648B2 JP3381648B2 JP35331498A JP35331498A JP3381648B2 JP 3381648 B2 JP3381648 B2 JP 3381648B2 JP 35331498 A JP35331498 A JP 35331498A JP 35331498 A JP35331498 A JP 35331498A JP 3381648 B2 JP3381648 B2 JP 3381648B2
- Authority
- JP
- Japan
- Prior art keywords
- character
- voice
- display control
- displayed
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
Description
想生物などのキャラクターを表示制御させるキャラクタ
ー表示制御装置、キャラクター表示制御システムおよび
このような表示制御装置に使用される記録媒体に関す
る。
生物などのキャラクターに対して、成長要素データをキ
ー操作で与えて、携帯型の電子機器の表示部に現在表示
されているキャラクターを変身成長させる、または
(2)動物、人間、仮想生物などのキャラクターに対し
て、成長要素データを与えたこと、および、予め定まら
れた時間が経過したことの双方が満たされたことを条件
として、携帯型の電子機器の表示部に現在表示されてい
るキャラクターを次の成長過程のキャラクターへ変身成
長させる、いわゆる携帯型の生物育成ゲーム装置を開発
し、提案している(特開平7―160853号、特開平
9―237328号など)。
ム装置が広く市場に受け入れられ、各社がこれを改善し
た製品を開発し、平成8年(1996年)11月頃か
ら、市場で販売した結果、爆発的な流行となってきてい
る。
従来の携帯型の生物育成ゲーム装置の場合、キャラクタ
ーを使用者の世話の仕方で育成してゆく点で、現実の動
物を育成することが困難となっている現実社会におい
て、現実の動物を育成していると同様な体験を味わうこ
とができることから、広く受け入れられているものの、
使用者の手入力にて世話を行わなければならないことも
あり、育成ゲームではありながら、遊技性に乏しいとい
う問題点がある。
ためになされたものである。
的であり、かつ変化に優れ、しかも遊技性に富んだキャ
ラクター表示制御装置、キャラクター表示制御システム
およびこのような表示制御装置に使用される記録媒体を
提供することである。
題を達成するために、次のような特徴を備えている。な
お、各要素毎に付した符号等は、後述する図面参照符号
等である。
ー表示制御装置の間で通信を行うキャラクター表示制御
システムにおいて、前記複数のキャラクター表示制御装
置のうち、一方のキャラクター表示制御装置に対して音
声を入力する音声入力手段(図2の3)と、この音声入
力手段により入力された音声を認識する音声認識手段
(図2の25)と、この音声認識手段により認識された
音声の内容と名前が一致するキャラクターが、他方のキ
ャラクター表示制御装置に表示されているのか否かを検
索する検索手段(図2の20;図18のステップS61
0、S611)と、この検索手段により表示されている
と検索された際は、その一方のキャラクター表示制御装
置に設けられている表示部に、前記名前が一致するキャ
ラクターを表示させる表示制御手段(図2の20,図2
0(B))と、を備えていることを特徴としている。
キャラクター表示制御装置の間で通信を行うキャラクタ
ー表示制御システムにおいて、音声入力手段は、前記複
数のキャラクター表示制御装置のうち、一方のキャラク
ター表示制御装置に対して音声を入力し、音声認識手段
は、この音声入力手段により入力された音声を認識し、
検索手段はこの音声認識手段により認識された音声の内
容と名前が一致するキャラクターが、他方のキャラクタ
ー表示制御装置に表示されているのか否かを検索し、表
示制御手段は、この検索手段により表示されていると検
索された際は、その一方のキャラクター表示制御装置に
設けられている表示部に、前記名前が一致するキャラク
ターを表示させる。
ャラクター表示制御装置のうち、一方のキャラクター表
示制御装置に対して音声を入力し、音声認識手段は、入
力された音声を認識し、検索手段はこの認識された音声
の内容と名前が一致または類似するキャラクターが、他
方のキャラクター表示制御装置に表示されているのか否
かを検索し、表示制御手段は、この検索手段により表示
されていると検索された際は、その一方のキャラクター
表示制御装置に設けられている表示部に、前記名前が一
致または類似するキャラクターを表示させることができ
るため、複数のキャラクター表示制御装置の間でキャラ
クターを移動させることができ遊技性を高いキャラクタ
ー表示制御システムを実現できる。
載のキャラクター表示制御システムにおいて、前記他方
のキャラクター表示制御装置は、前記名前が一致するキ
ャラクターを消去させる消去制御手段を備えていること
を特徴としている。
方のキャラクター表示制御装置の消去制御手段は、前記
名前が一致するキャラクターを消去させる。
ラクター表示制御装置において認識された音声の内容と
名前が一致または類似するキャラクターを、他方のキャ
ラクター表示制御装置から消去させることができるた
め、より遊技性を高めて、より実際の生物に近い感覚を
ユーザに与えることができる。
ー表示制御装置との間でゲームを行うために、ゲームで
使われるキャラクターが表示される表示部を有するキャ
ラクター表示制御装置において、音声を入力する音声入
力手段(図2の3)と、この音声入力手段により入力さ
れた音声を認識する音声認識手段(図2の25)と、こ
の音声認識手段により認識された音声の内容と名前が一
致するキャラクターが前記他方キャラクター表示制御装
置に現在表示されているのか否かを検索するための検索
データを送信する送信手段(図2の24;ステップS6
10)と、この送信手段により送信された検索データに
よる検索結果を受信する受信手段(図2の24;ステッ
プS611)と、この受信手段により受信された検索結
果を前記表示部に表示させる表示制御手段(図2の2
0;図18のステップS612,613,S616;図
19(B),(C);図20(B))と、を備えている
ことを特徴としている。
キャラクター表示制御装置との間でゲームを行うため
に、ゲームで使われるキャラクターが表示される表示部
を有するキャラクター表示制御装置において、音声入力
手段は、音声を入力し、音声認識手段は、この音声入力
手段により入力された音声を認識し、送信手段は、この
音声認識手段により認識された音声の内容と名前が一致
するキャラクターが前記他方のキャラクター表示制御装
置に表示されているのか否かを検索するための検索デー
タを送信し、受信手段は、この送信手段により送信され
た検索データに対する検索結果を受信し、表示制御手段
は、この受信手段により受信された検索データによる検
索結果を前記表示部に表示させる。
キャラクター表示制御装置との間でゲームを行うため
に、ゲームで使われるキャラクターが表示される表示部
を有するキャラクター表示制御装置を制御するために使
用される、読み出し可能なプログラムが記録されている
記録媒体において、前記プログラムは、外部から音声が
入力されると、これに応答して、この入力された音声を
認識し、この認識された音声の内容と名前が一致するキ
ャラクターが前記他方のキャラクター表示制御装置に表
示されているのか否かを検索するための検索データを送
信し、この送信された検索データによる検索結果を受信
し、この受信した検索結果を前記表示部に表示させる、
ことを特徴としている。
ら音声が入力されると、これに応答して、この入力され
た音声を認識し、この認識された音声の内容と名前が一
致するキャラクターが前記他方のキャラクター表示制御
装置に表示されているのか否かを検索するための検索デ
ータを送信し、この送信された検索データによる検索結
果を受信し、この受信した検索結果を表示部に表示させ
る。
と、これに応答して、この入力された音声を認識し、こ
の認識された音声の内容と名前が一致するキャラクター
が他方のキャラクター表示制御装置に表示されているの
か否かを検索するための検索データを送信し、この送信
された検索データによる検索結果を受信し、この受信さ
れた検索結果を表示部に表示させることができる。この
ため、物理的に距離がある他方のキャラクター表示制御
装置(相手先の装置)から一方のキャラクター表示制御
装置(自己の装置)の表示部へキャラクターを移動させ
たかのように表示させることができ、より遊技性を高め
ることができ、任意の複数のユーザとのコミュニケーシ
ョンツールとしての役割を果たせることができる。
〜図15を参照して本発明の第1の実施の形態に係るキ
ャラクター表示制御装置を詳細に説明する。
るキャラクター表示制御装置を適用した電子手帳1の概
略構成を示す図である。この図1において、電子手帳本
体1は、蝶番状部材1cを介して開閉自在に連結される
表示/操作/音声パネル1aとデータ入力パネル1bと
から構成されている。
ットマトリクス表示装置等で構成される表示部2、マイ
ク等で構成される音声入力部3、スピーカー等で構成さ
れる音声出力部4、各種操作キーが配置されている。
と、前記表示部2の真下には、電子手帳1の各種モード
を設定するモード設定スイッチMSが配設されている。
イッチ5、音声を登録する音声登録キー6、キャラクタ
ーの種別、住所、年齢等を登録する登録キー7、表示部
2に表示される各種データの指定等を行うカーソル移動
キー8等が配設されている。
ータを入力するテンキー9と、文字データを入力するア
ルファベットキー10が配設されている。
成を説明する。図2は、本実施例に係わるキャラクター
表示制御装置Sの回路構成の一例を示すブロック図であ
る。
(Central Processing Unit)20、ROM(Read On
ly Memory)21、RAM(Random Access Memory)
22、キー入力部1b(テンキー9,アルファベットキ
ー10)、振動発生部23、赤外線通信部24、音声入
力部3、音声認識部25、音声出力部(スピーカ)4、
音声発生部26、温度センサ27、計時部28、表示部
2、及び表示駆動回路29によって構成されている。
9,アルファベットキー10)から供給されるキー操作
信号に基づき、ROM21の所定の記憶領域に格納され
ている各種制御プログラムを読み出してRAM22に一
時格納し、当該プログラムに基づく各種処理を実行して
キャラクター表示制御装置Sの各部を集中制御する。す
なわち、CPU2は、前記読み出した所定プログラムに
基づいて各種処理を実行し、その処理結果をRAM22
に格納するとともに、表示駆動回路29を介して表示部
2に表示させる。
声パネル1aのカーソル移動キー8及びモード設定スイ
ッチMSの入力操作に従って、各種処理に対応する所定
のモードの設定を行う。ここで、CPU20は、キャラ
クター反応処理(図9)が設定された場合は、図9に従
って現在表示中の複数のキャラクターの内、特定のキャ
ラクターのみに対して声をかけると、そのキャラクター
のみが反応するキャラクター反応処理を実行し、キャラ
クター表情変更処理(図11〜図14)が設定された場
合は、図11〜図14に従って入力した音声の特性に応
じて現在表示中のキャラクターの表情または動作を変更
するキャラクター表情変更処理を実行し、キャラクター
移動処理(図18及び図21)が設定された場合は、図
18及び図21に従って一方のキャラクター表示制御装
置から他方のキャラクター表示制御装置へキャラクター
に声をかけて移動させるキャラクター移動処理を実行す
る。
ター表示制御装置Sの各種動作を制御するための各種制
御プログラム等を格納する他、個人データ用ROM21
a、挨拶データ用ROM21b、親密度用ROM21
c、画像ROM21d、音声振動用ROM21e、表示
順序用ROM21f、状態変化用ROM21g、呼掛回
数用ROM21h等の各種ROMを設けている。
部2に表示されるキャラクター(図10(A)参照)の
名前と、そのキャラクターの種別、年齢、体重、及びキ
ャラクター画像No等の特性、及びキャラクター同士の
親密度を対応づけて格納している。
「ポチ」は、種別「犬」、住所「○○○」、年齢「2才
(小犬)」、体重「50g」、キャラクター画像
「1」、ポチとの親密度「○」、タマとの親密度
「○」、及びグルタンとの親密度「×」と対応づけて格
納されている。
部により計時される現在時刻と、温度センサにより測定
される気温と、挨拶文(前段と後段)と、画像データN
o.とを対応づけて格納している。
刻「7時〜9時」と、挨拶前段「おはよう」と、気温
「−10℃以下」と、挨拶後段「超寒いね」と、画像N
o「90」が対応づけられて格納されている。
ザの口調と、親密度(M)と、当該親密度レベルを示す
ビットマップデータである親密度マークSMとを対応づ
けて格納している。
「元気!!」と、親密度M「+N(Nは整数)」と、親
密度マークSM(ハート型の記号表示が5つ)とが対応
づけて格納されている。
けるあらゆる処理において、表示部2に表示される全て
の画像データを前記画像Noと対応づけてビットマップ
データとして格納している。
1」は、「初期画面の画像」としての犬の画像を示す画
像データと対応づけられて格納されている。そして、画
像No「01」に対応する犬は、初期表示画面におい
て、個人データ用ROM22aに格納されている名前
「ポチ」を示すキャラクターK01の画像データとして
表示される。
1」は、「棒をとれ!」と命令された際の画像として犬
が後ろを向いた様子K30及び犬が棒をくわえている様
子K31を示す画像データと対応づけられて格納されて
いる。そして、後述する表示キャラクター反応処理(図
8)において、ユーザによって「棒をとれ!」と命令さ
れた場合に、一連の動作画像データとして画像No「3
0」及び画像No「31」に対応づけられた画像データ
K30,K31が順次表示される。
像Noと、当該画像Noが示すキャラクターが発声する
言葉として音声データ(PCMデータ)と、振動発声部
23を振動させるため振動指示データとを対応づけて格
納している。
o「01」は、音声データ「ワン!!」、及び振動指示
データ(図中では1度の振動(ブル)の振動状態を示す
表示)と対応づけられて格納されている。
けるあらゆる処理におけるキャラクターの動作と、当該
動作を表す一連の画像データ群を表示させる際の画像デ
ータの表示順序とを対応づけて格納している。
「「名前」をよばれた際」,「ジャンプと命令された
際」,…等の動作と、「1」,「2」,…等の画像デー
タの表示順序とが対応づけられて格納されている。例え
ば、「ジャンプ」と命令された際の動作として、まず、
画像No20または画像No22に対応する各画像デー
タが画像ROM21dがらよみだされ、犬または猫が両
腕をあげている様子K20またはK22を示す画像が表
示部2に表示される。次に、画像No21または画像N
o23に対応する各画像データK21またはK23が画
像ROM21dがらよみだされ、犬または猫ガチャがん
でいる様子を示す画像が表示部2に表示される。
Mと、親密度Mの値によって変化するキャラクターの顔
の表情とを対応づけて格納している。
OM21d内の画像No「01」に対応する犬の様子を
示す画像データK01は、状態変化用ROM21gにお
いて、親密度M「0」と対応づけられていて(K01
B)、親密度が高くなるにつれて対応する画像データが
変化し、親密度「+N」には、笑っている犬の様子を示
す画像データK01Aが、親密度「−N」には、さみし
げな犬の様子を示す画像データK01Cが対応づけられ
て格納されている。
ザが表示部に表示されているキャラクターに対して声を
かけた回数を示す変数NAと、声をかけた回数に応じて
変化するキャラクターが発声する言葉を示す音声データ
とを対応づけて格納している。
ば、NAの値「+N(Nは整数)」と、音声データ「最
高!!」とが、NAの値「+1」と、音声データ「はじ
めまして!」とが対応づけられて格納されている。
ンプログラム、入力指示、入力データ及び処理結果等を
一時格納する他、図7に示すように、表示部2に表示さ
せるべき被表示データがイメージデータとして書き込ま
れる表示レジスタ22a、計時部28により計時された
現在時刻データが順次更新されて格納される計時レジス
タ22b、温度センサ27により計測された気温データ
が順次更新されて格納される温度レジスタ22c、ユー
ザによって設定された設定時刻データ等を格納する設定
レジスタ22d、音声認識部25により認識した認識音
声データを格納する認識音声データレジスタ22e、及
び表示部2に表示中のキャラクターの画像Noを格納す
るキャラクターレジスタ22f等の各種レジスタを備え
ている。
タ22eに格納されている認識音声データの一例として
は、図7に示すように、「ポチ」、「棒をとれ!」、
「皆で」、及び「元気!!」等が挙げられる。
成されており、CPU20から入力される振動指示デー
タに従って振動を開始/停止する。
受光部から構成されている。発光部は赤外線ダイオード
を内部に含む送信回路等から構成されていて、CPU2
0からの指示により所定周波数の赤外線を発光する。受
光部は赤外線フォトトランジスタを内部に含む受信回路
等から構成され、他方キャラクター表示制御装置Sから
発光された赤外線を受光して、その受光状態を受信信号
としてCPU20に出力する。
をマイク等の音声入力部3によって電気信号に変換し、
この信号について音声スペクトラム短縮化等の分析処理
を行った後に、標準パターン等とのパターンマッチング
を行って音声認識結果を出力する音声認識装置等が適用
可能である。音声認識結果は、PCM(Pulse Code Mod
ulation)データとしてCPU20を介してRAM22
の前記認識音声データレジスタ22eに格納される。
音声データレジスタにPCM(Pulse Code Modulatio
n)データとして格納されている音声データに基づいて
音声を合成する音声合成チップ等で構成されている。
計測された現在の気温を示す気温データは、CPU20
を介してRAM22の温度レジスタ22cに送られて順
次更新セットされる。
れた現在時刻を示す現在時刻データは、CPU20を介
してRAM22の計時レジスタ22bに送られて順次更
新セットされる。例えば、所定周波数の電気信号を発振
する発振回路(図示省略)と該発振回路からの信号を分
周して所定周波数の信号を得る分周回路とから構成され
その信号をカウントすることによって現在時刻を計時す
る構成としてもよい。
ド設定処理の流れを示すフローチャートである。
操作/音声パネル1aのカーソル移動キー8及びモード
設定スイッチMSの入力操作に従って、各種処理に対応
する所定のモードの設定を行う(ステップS1)。ここ
で、CPU20は、キャラクター反応処理(図9)が設
定された場合は、図9に従って現在表示中の複数のキャ
ラクターの内、特定のキャラクターのみに対して声をか
けると、そのキャラクターのみが反応するキャラクター
反応処理を実行し、キャラクター表情変更処理(図11
〜図14)が設定された場合は、図11〜図14に従っ
て入力した音声の特性に応じて現在表示中のキャラクタ
ーの表情または動作を変更するキャラクター表情変更処
理を実行し、キャラクター移動処理(図18及び図2
1)が設定された場合は、図18及び図21に従って一
方のキャラクター表示制御装置から他方のキャラクター
表示制御装置へキャラクターに声をかけて移動させるキ
ャラクター移動処理を実行する。
ラクター反応処理の流れを示すフローチャートである。
M21からキャラクター反応処理用プログラムを読み出
してキャラクター反応処理を開始し、初期画面として画
像ROM21dから初期画面の画像データを読み出す
(ステップS101)(図10(A))。次いで、CP
U20は、ユーザの発声した音声を音声入力部3により
集音させて(ステップS102)、当該音声を電気信号
に変換させて、音声認識部25により当該信号について
音声スペクトラム短縮化等の分析処理を行った後に、標
準パターン等とのパターンマッチングを行って音声認識
させる(ステップS103)。次いで、CPU20は、
音声認識結果をPCMデータとしてRAM22の認識音
声データレジスタ22eに格納する(ステップS10
4)。
ジスタ22eに格納した認識音声データが現在表示部2
に表示されているキャラクターに対応する「名前」と一
致しているか否かを判別する(ステップS105)。一
致している場合は(ステップS105:YES)、CP
U20は、画像ROM21dから当該キャラクターの
「名前」を呼ばれた際の画像データを読み出し、表示画
面に表示されているキャラクターの内、呼ばれた「名
前」に対応するキャラクターの画像データと差し替え
て、呼ばれた「名前」に対応するキャラクターの画像デ
ータのみを変更する(ステップS106)(図10
(B))。それとともに、CPU20は、音声振動用R
OM21eから呼ばれた「名前」に対応しているキャラ
クターに対応する音声データ及び振動指示データを読み
出して、音声発声部26及び振動発生部23に出力し、
音声発声部26に音声を合成させるとともに、振動部発
生部23を振動させる(ステップS107)。
識音声データが認識音声データレジスタ22eに格納さ
れているか否かを判別する(ステップS108)。格納
されていない場合は(ステップS108:NO)、CP
U20は、ステップS102に戻り、格納されている場
合は(ステップ108:YES)、画像ROM21dか
ら前記動作に対応して格納されている一連の動作を示す
画像データ群を読み出し、さらに、表示順序用ROM2
1fから、前記動作に対応する画像表示順序を読み出
し、当該画像表示順序に従って前記画像データ群を表示
させる(ステップS109)(図10(C),図10
(D))。前記画像データ群を表示させる動作と同時
に、CPU20は、音声振動用ROM21eから前記画
像データ群に対応する音声データ及び振動指示データを
読み出して、音声発声部26及び振動発生部に出力し、
音声発声部26に音声を合成させるとともに、振動部発
生部23を振動させる(ステップS110)(図10
(C),図10(D))。
タレジスタ22eに格納した認識音声データが現在表示
部2に表示されているキャラクターに対応する「名前」
と一致していない場合は(ステップS105:NO)、
CPU20は、認識音声データレジスタ22eに格納し
た認識音声データが、「全員」またはこれに類似する言
葉(例えば、皆で)であるか否かを判別する(ステップ
S111)。「全員」またはこれに類似する言葉でない
場合は(ステップS111:NO)、CPU20は、ス
テップS102に戻り、「全員」またはこれに類似する
言葉である場合は(ステップS111:YES)、画像
ROM21dから表示部2に現在表示されている全ての
キャラクターに対する「名前」を呼ばれた際の画像を複
数読み出し、表示部2に現在表示されている全てのキャ
ラクターの画像データと差し替えて、現在表示されてい
る全てのキャラクターの画像データを同時に変更する
(ステップS112)。それとともに、CPU20は、
音声振動用ROM21eから現在表示されている全ての
キャラクターに対応する音声データ及び振動指示データ
を読み出して、音声発声部26及び振動発生部23に出
力し、音声発声部26に音声を合成させるとともに、振
動部発生部23を振動させる(ステップS113)。
識音声データが認識音声データレジスタ22eに格納さ
れているか否かを判別する(ステップS114)。格納
されていない場合は(ステップS114:NO)、CP
U20は、ステップS102に戻り、格納されている場
合は(ステップ114:YES)、画像ROM21dか
ら前記動作に対応して格納されている一連の動作を示す
画像データ群を複数読み出し、さらに、表示順序用RO
M21fから、前記動作に対応する画像表示順序を複数
読み出し、当該各画像表示順序に従って前記各画像デー
タ群を表示させる(ステップS115)。前記各画像デ
ータ群を表示させる動作と同時に、CPU20は、音声
振動用ROM21eから前記各画像データ群に含まれる
画像データの複数の画像Noに対応する音声データ及び
振動指示データを、各画像データ群毎に複数読み出し
て、音声発声部26及び振動発生部23に出力し、音声
発声部26に音声を合成させるとともに、振動部発生部
23を振動させる(ステップS116)。
処理の終了後、CPU20は、一連のキャラクター反応
処理を終了する。
いて、キャラクターの表示形態が変化する様子を示す図
である。
は現在表示されているキャラクターに対して「名前」が
呼ばれた際の表示画面を示し、(C)及び(D)は現在
表示されているキャラクターに対して動作命令「棒をと
れ!」がなされた際の一連の動作を示す画像の表示画面
を示している。
画面として名前「ポチ」に対応する画像データK1(片
腕を挙げている犬)及び名前「タマ」に対応する画像デ
ータK2(片腕を挙げている猫)が表示される。ここ
で、ユーザがマイク3に対して「ポチ」と発声すると、
現在表示されているキャラクターの内、名前「ポチ」に
対応する画像データK1のみが反応して他の画像データ
K10(両腕を挙げている犬)に変更されて表示される
(図10(B))。それとともに、スピーカ4から「ワ
ン」という音声が出力され、さらに、振動発生部23が
振動を開始する(「ブル」)(図10(B))。
とれ!」と発声すると、スピーカ4から「ワン」という
音声が出力され、振動発生部23が振動を開始するとと
もに(「ブル」)、図10(B)に示した反応した画像
データK10(両腕を挙げている犬)から、動作命令に
従った一連の動作画像データの内の前段の画像データK
30(後ろを向いた犬)に変更される(図10
(C))。それから、所定の時間が経過すると、図10
(D)に示すように、動作命令に従った一連の動作画像
データの内の後段の画像データK31(棒をくわえた
犬)に画像が変更されるとともに、スピーカ4から「ウ
グー」という音声が出力され、振動発生部23が振動を
開始する(ブール)。
る電子手帳1によれば、キャラクター反応処理におい
て、CPU20は、まず、ユーザの発声した音声を音声
入力部3により集音させて、当該音声を電気信号に変換
させて、音声認識部25により音声認識させる。次い
で、CPU20は、認識音声データが現在表示部2に表
示されているキャラクターに対応する「名前」と一致し
ている場合は、画像ROM21dから当該キャラクター
の「名前」を呼ばれた際の画像データを読み出し、表示
画面に表示されているキャラクターの内、呼ばれた「名
前」に対応するキャラクターの画像データのみを変更す
るとともに、CPU20は、音声発声部26に音声を合
成させ、振動部発生部23を振動させる。そして、CP
U20は、動作を命令する認識音声データが認識音声デ
ータレジスタ22eに格納されている場合は、画像RO
M21dから前記動作に対応して格納されている一連の
動作を示す画像データ群を読み出し、さらに、表示順序
用ROM21fから、前記動作に対応する画像表示順序
を読み出し、当該画像表示順序に従って前記画像データ
群を表示させる。前記画像データ群を表示させる動作と
同時に、CPU20は、音声発声部26に音声を合成さ
せるとともに、振動部発生部23を振動させる。
ャラクターの内、ユーザによって呼ばれた「名前」に対
応するキャラクターの画像データのみを変更するととも
に、音声を出力させたり、振動を発生させたりすること
ができるため、手入力によらず音声入力により表示画面
に表示されているキャラクターとコミュニケーションを
とることが可能となり、ユーザはより感情移入しやすく
なり、かつ、面白味を感じることができる。
クターの内、ユーザによって呼ばれた「名前」に対応す
るキャラクターのみに動作を命令することができ、当該
キャラクターは命令された動作に応じて表示画面上で一
連の動作を行うとともに、一連の動作に対応する音声や
振動を発生させることができ変化に優れているため、遊
戯性を高めることができる。
ャラクター表情変更処理の流れを示すフローチャートで
ある。図11において、まず、CPU20は、ROM2
1からキャラクター表情変更処理用プログラムを読み出
してキャラクター表情変更処理を開始し、表示部2に表
示されているキャラクターに対してユーザが発声した音
声を音声入力部3により集音させて(ステップS20
1)、当該音声を電気信号に変換させて、音声認識部2
5により当該信号について音声スペクトラム短縮化等の
分析処理を行った後に、標準パターン等とのパターンマ
ッチングを行って音声認識させる(ステップS20
2)。次いで、CPU20は、音声認識結果をPCMデ
ータとしてRAM22の認識音声データレジスタ22e
に格納(ステップS203)した後、親密度判定処理
(ステップS204)に移行する。その後、CPU20
は、ステップS204において判定した親密度Mの値に
応じて親密度マークSMを親密度用ROM21cから読
み出して表示部2に表示させるとともに(ステップS2
05)(図15参照)、親密度Mの値に応じてキャラク
ターの顔の表情及び表示形態が変化する画像データを状
態変化用ROM21gから読み出して表示部2に表示さ
せる(ステップS206)。例えば、親密度Mが「+
N」の場合は、「超にこにこ顔の画像データ」のキャラ
クターK03Xを、また、親密度Mが「−N」の場合
は、「超哀しい顔の画像データ」のキャラクターK03
Zを、表示部2に表示させる(図15参照)。その後、
CPU20は、一連のキャラクター表情変更処理を終了
する。
のステップS204において実行される親密度判定処理
の一例としての時刻変化親密度処理について詳細に説明
するフローチャートである。
AM22内の計時レジスタ22bから現在時刻データを
読み出し(ステップS301)、親密度Mを「0」とす
る(ステップS302)。次いで、CPU20は、予め
ユーザによって設定レジスタ22d(図7)に設定され
た設定時間(例えば、7時)のデータ及び所定時間(例
えば、1時間)のデータを、設定レジスタ22dから読
み出し、前記現在時刻データが設定時間のデータ(例え
ば、7時)から所定時間(例えば、1時間)経過したか
否かを判別する(ステップS303)。例えば、設定時
間が7時、所定時間が1時間と設定されている場合に、
7時30分にユーザが表示されているキャラクターに対
して声をかけたとすると、現在時刻は設定時刻から所定
時間経過していないと判別する。ステップS303にお
いて所定時間経過したと判別された場合は(ステップS
303:YES)、CPU20は、親密度Mの値をイン
クリメントする(ステップS304)。ステップS30
3において所定時間経過していないと判別された場合は
(ステップS303:NO)、CPU20は、親密度を
示す変数Mの値をデクリメントする(ステップS30
5)。ステップS304及びステップS305の処理が
終了後、CPU20は、一連の時間変化親密度処理を終
了させ、キャラクター表情変更処理(図11)のステッ
プS205に移行する。
(図11)のステップS204において実行される親密
度判定処理の一例としての口調変化親密度処理について
詳細に説明するフローチャートである。
ャラクター表情変更処理(図11)のステップS203
において音声認識結果として認識音声データレジスタ2
2eに格納されている認識音声データを読み出す(ステ
ップS401)。次いで、CPU20は、親密度用RO
M21cから当該認識音声データ(口調)に対応する親
密度Mを読み出し(ステップS402)、一連の口調変
化親密度処理を終了させ、キャラクター表情変更処理
(図11)のステップS205に移行する。
(図11)のステップS204において実行される親密
度判定処理の一例としての呼掛回数変化親密度処理につ
いて詳細に説明するフローチャートである。
ャラクター表情変更処理(図11)のステップS203
において音声認識結果として認識音声データレジスタ2
2eに格納されている認識音声データを読み出し、当該
認識音声データが表示部2に現在表示されているキャラ
クターに対応する「名前」であるか否かを判別する(ス
テップS501)。キャラクターに対応する「名前」で
ない場合は(ステップS501:NO)、CPU20
は、表示されているキャラクターの名前をユーザが呼ん
だ回数を示す変数NAの値(初期値:NA=0)をデク
リメントし(ステップS502)、キャラクターに対応
する「名前」である場合は(ステップS501:YE
S)、変数NAの値をインクリメントする(ステップS
503)。そして、CPU20は、呼掛回数ROM21
hから変数NAの値に対応する音声データを読み出し、
音声発生部26に出力して「初めまして!」,「最高!
!」,…等の音声を合成させる(ステップS504)。
ステップS502及びステップS504の処理が終了
後、CPU20は、親密度Mに呼掛回数を示す変数NA
の値を代入し(ステップS505)、一連の呼掛回数変
化親密度処理を終了させ、キャラクター表情変更処理
(図11)のステップS205に移行する。
(図11)において、キャラクターの表情及び表示形態
が変化する様子を示す図である。
際のキャラクターの表示例を示し、(B)は親密度Mが
「0」(初期値)の際のキャラクターの表示例を示し、
(C)は親密度Mが「−N」(最低値)の際のキャラク
ターの表示例を示している。
は、同図(A)に示すように、「超にこにこ顔」に対応
したキャラクターの画像K03X(笑顔で両腕を上げて
いるキャラクター)が表示され、当該キャラクター画像
の上部に親密度Mのレベルを示すハート型の記号表示
(親密度マークSM)が5つ表示される。
は、同図(B)に示すように、「普通の顔」に対応した
キャラクターの画像K03Y(普通の顔のキャラクタ
ー)が表示され、当該キャラクター画像の上部に親密度
Mのレベルを示すハート型の記号表示(親密度マークS
M)が3つ表示される。
は、同図(C)に示すように、「超哀しい顔」に対応し
たキャラクターの画像K03Z(哀しい顔のキャラクタ
ー)が表示されるが、当該キャラクター画像の上部に親
密度Mのレベルを示すハート型の記号表示(親密度マー
クSM)は1つも表示されない。
る電子手帳1によれば、キャラクター表情変更処理にお
いて、CPU20は、表示部2に表示されているキャラ
クターに対してユーザが発声した音声を音声入力部3に
より集音させて、音声認識部25により音声認識させ
る。次いで、CPU20は、親密度判定処理に移行す
る。CPU20は、親密度判定処理として、予めユーザ
によって設定された設定時間から所定時間経過する前
に、表示されているキャラクターに対してユーザが声を
かけたか否かによって親密度を判定する時間変化親密度
処理、表示されているキャラクターに対してユーザが声
をかけた口調によって親密度を判定する口調変化親密度
処理、または表示されているキャラクターに対してユー
ザが声をかけた呼掛回数によって親密度を判定する呼掛
回数親密度処理を実行する。その後、CPU20は、判
定した親密度Mの値に応じて親密度マークSMを表示部
2に表示させるとともに、親密度Mの値に応じてキャラ
クターの顔の表情及び表示形態が変化する画像データを
表示部2に表示させる。
性、例えば、呼び掛けた時刻と設定時間の時間差、音声
の口調、及び呼掛回数等に応じて表示部2に表示中のキ
ャラクターの顔の表情及び表示形態を変化させるととも
に、ユーザに対するキャラクターの親密度を親密度マー
クSM(ハート型の記号表示)を表示させることができ
るため、表示されているキャラクターの感情を知ること
ができて、現実の動物を育成しているのと同様な体験を
味わうことができ、ユーザはより感情移入しやすくな
り、かつより面白味を感じることができる。
2を参照して本発明の第2の実施の形態におけるキャラ
クター表示制御システム30について詳細に説明する。
図16は、本発明の第2の実施の形態としてのキャラク
ター表示制御システム30の全体構成を示す図である。
制御システム30は、送信側の電子手帳50及び受信側
の電子手帳80によって構成され、電子手帳50及び電
子手帳80は赤外線データ通信によりデータの送受信を
行っている。
使用して赤外線データ通信を行っているが、データ通信
用ケーブルを使用した有線接続によるデータ通信を行う
形態としてもよい。第2の実施の形態における電子手帳
50及び電子手帳80の構成は上記第1の実施の形態に
おける電子手帳1と同様の構成であるので同一符号を付
してその図示及び説明を省略するものとし、以下、上記
第1の実施の形態における電子手帳1との相異点につい
て説明する。
されたアプリケーションプログラム、入力指示、入力デ
ータ及び処理結果等を一時格納する他、表示部2に表示
させるべき被表示データがイメージデータとして書き込
まれる表示レジスタ22a、計時部28により計時され
た現在時刻データが順次更新されて格納される計時レジ
スタ22b、温度センサ27により計測された気温デー
タが順次更新されて格納される温度レジスタ22c、ユ
ーザによって設定された設定時刻データを格納する設定
レジスタ22d、音声認識部25により認識した認識音
声データを格納する認識音声データレジスタ22e、表
示部2に表示中のキャラクターの画像Noを格納するキ
ャラクターレジスタ22f等の各種レジスタと、他方キ
ャラクター表示制御装置から赤外線通信部24を介して
受信したデータを格納する受信データレジスタ22gと
を備えている。
2gに格納されている受信データの一例としては、図1
7に示すように、名前「タマ」、命令「頂戴」、及び画
像No「02」等が挙げられる。
けるキャラクター表示制御システム30の送信側の電子
手帳50におけるキャラクター移動処理について説明す
るフローチャートである。
ROM21からキャラクター移動処理用プログラムを読
み出してキャラクター移動処理を開始し、初期画面とし
て画像ROM21dから初期画面の画像データを読み出
して表示させる(ステップS601)(図19(A)参
照)。次いで、電子手帳50は、計時レジスタ22bか
ら現在時刻データを読み出し(ステップS602)、表
示部2に現在時刻GZを表示させるとともに(ステップ
S603)(図19(A)参照)、温度レジスタ22c
から現在の気温データを読み出し(ステップS60
4)、表示部2に現在の気温GKを表示させる(ステッ
プS605)。
た音声を音声入力部3により集音させて(ステップS6
06)、当該音声を電気信号に変換させて、音声認識部
25により当該信号について音声スペクトラム短縮化等
の分析処理を行った後に、標準パターン等とのパターン
マッチングを行って音声認識させて、音声認識結果をP
CMデータとしてRAM22の認識音声データレジスタ
22eに格納する(ステップS607)。
レジスタ22eに格納した認識音声データの内に「名
前」のデータがあるか否かを判別する(ステップS60
8)。「名前」のデータがない場合は(ステップS60
8:NO)、電子手帳50は、ステップS602に戻
り、「名前」のデータがある場合は(ステップS60
8:YES)、認識音声データレジスタ22eに格納し
た認識音声データの内に「頂戴」のデータがあるか否か
を判別する(ステップS609)。「頂戴」のデータが
ない場合は(ステップS609:NO)、電子手帳50
は、ステップS602に戻り、「頂戴」のデータがある
場合は(ステップS609:YES)、「名前」、「頂
戴」、「電子手帳50に表示中の第1のキャラクターの
画像No」の各データを赤外線通信部24を介して受信
側の電子手帳80に送信する(ステップS610)。
受信すると、該受信した「名前」データに対応するキャ
ラクターが表示されているか否かを検索し、表示されて
いると検索した場合に、電子手帳50に対して表示され
ている旨を示す信号を送信する。
帳80から送信された表示されている旨の信号を受信し
たか否かを判別する(ステップS611)。受信してい
ない場合は(ステップS611:NO)、電子手帳50
は、「相手先には該当する名前のキャラクターは不在で
す。」というメッセージM2を表示部2に表示させる
(ステップS612)。受信した場合は(ステップS6
11:YES)、電子手帳50は、「あと数秒後に訪問
します。」というメッセージを表示部2に表示させて
(ステップS613)、30秒経過したか否かを判別す
る(ステップS614)。30秒経過していない場合は
(ステップS614:NO)、電子手帳50は、再びス
テップS614に戻り、30秒経過している場合は(ス
テップS614:YES)、画像ROM21dからドア
を開けた背景画像を読み出し、表示部2に表示させると
ともに(図20(A))、音声振動用ROM21eから
ドアをノックする時の音声データ「トン、トン、ガチ
ャ」と、それに対応する振動指示データ「ブ、ブ、ブ
ー」を読み出し、音声発生部26及び振動発生部23に
出力して、音声「トン、トン、ガチャ」をスピーカから
出力させるとともに、振動発生部を振動させる(ステッ
プS615)。
って発声された「名前」に対応したキャラクターを画像
ROM21dから読み出し、表示部2に表示されている
キャラクターの隣に表示させる(ステップS616)
(図20(B))。そして、電子手帳50は、計時レジ
スタ22b及び温度レジスタ22cから現在時刻データ
及び温度データ読み出し(ステップS617)、当該現
在時刻及び温度に対応する「あいさつ」データを挨拶用
データROM21bから読み出して、音声発生部26に
送信して音声を合成する(ステップS618)。さら
に、電子手帳50は、音声振動用ROM21eから「あ
いさつ」データに対応する画像データまたは一連の動作
を示す画像データ群の画像Noと、振動指示データを読
み出し、読み出した画像Noに対応する画像を画像RO
M21dから読み出した表示部2に表示させるとともに
(ステップS619)(図20(C))、前記振動指示
データを振動発生部23に出力して振動させる(ステッ
プS620)。
dからドアを閉じた背景画像を読み出し、表示部2に表
示させるとともに(ステップS621)、音声振動用R
OM21eからドアを閉じる時の音声データ「ガチャ」
と、それに対応する振動指示データ「ブル」を読み出
し、音声発生部26及び振動発生部23に出力して、音
声「ガチャ」をスピーカから出力させるとともに、振動
発生部を振動させる(ステップS622)。ステップS
612またはステップS621の処理が終了後、電子手
帳50は、一連のキャラクター移動処理を終了する。
テム30の送信側の電子手帳50におけるキャラクター
移動処理において、受信側の電子手帳80に表示されて
いるキャラクターが訪問する前の表示画面の様子を示す
図である。
示例を示し、(B)は受信側の電子手帳80に表示され
ているキャラクターの訪問を待機している電子手帳50
の表示画面の表示例を示し、(C)はユーザが呼んだ
「名前」に対応するキャラクターが受信側の電子手帳8
0に表示されていない場合の電子手帳50の表示画面を
示している。
画面として閉じたドアK80、テーブルーK85、窓K
82等からなる室内の背景が表示されており、その中
に、キャラクターとして名前「ポチ」に対応する画像デ
ータK01(片腕を挙げている犬)のみが表示されてい
る。なお、現在時刻GZ、気温GK、…等のデータが壁
際に表示されている。ここで、ユーザがマイク3に対し
て電子手帳80の表示部に表示されているキャラクター
の「名前」(例えば、タマ)を発声した後、「頂戴」と
発声すると、同図(B)に示すように、表示画面の下部
にM1「あと数秒後に訪問します。」というメッセージ
が表示される。
示されていないキャラクターの「名前」(例えば、グル
タン)とユーザが発声した場合は、同図(C)に示すよ
うに、表示画面の下部にM2「相手先には該当する名前
のキャラクターは不在です。」というメッセージが表示
される。
テム30の送信側の電子手帳50におけるキャラクター
移動処理において、受信側の電子手帳80に表示されて
いるキャラクターが訪問した際の表示画面の様子を示す
図である。
し、(B)は受信側の電子手帳80に表示されているキ
ャラクター(タマ)が訪問した様子を示し、(C)は受
信側の電子手帳80に表示されているキャラクター(タ
マ)が訪問した後に、あいさつする様子を示している。
します。」というメッセージが表示されてから(図19
(B))しばらく時間が経過すると、同図(A)に示す
ように、初期画面では閉じていたドアが、音声「トン、
トン、ガチャ」が出力されるとともに、開かれる。そし
て、受信側の電子手帳80に表示されているキャラクタ
ー(タマ)K02が電子手帳50の表示画面にはじめか
ら表示されているキャラクター(ポチ)K01の隣に表
示される(図20(B))。その後、図20(C)に示
すように、訪問したキャラクター(タマ)K02の画像
が、寒がっている画像K92に変更されるとともに、ス
ピーカ4から音声「超寒いね!」が出力され、振動発生
部23が振動を開始する(ブルブルブルブル)。
けるキャラクター表示制御システム30の受信側の電子
手帳80におけるキャラクター移動処理について説明す
るフローチャートである。
送信側の電子手帳50から「名前」、「頂戴」、「電子
手帳50に表示中のキャラクターの画像No」の各デー
タを赤外線通信部24を介して受信したか否かを判別す
る(ステップS701)。受信していない場合は(ステ
ップS701:NO)、電子手帳80は、ステップS7
01に戻り、受信した場合は(ステップS701:YE
S)、当該受信した前記各データをRAM22内の受信
データレジスタ22gに格納する(ステップS70
2)。
キャラクターレジスタ22fに格納されている画像No
を検索し、受信した名前に対応したキャラクターが電子
手帳80の表示部に現在表示中であるか否かを判別する
(ステップS703)。現在表示中でない場合は(ステ
ップS703:NO)、電子手帳80は、ステップS7
01に戻り、現在表示中である場合は(ステップS70
3:YES)、個人データ用ROM21aに基づいて、
電子手帳50の表示部に表示中のキャラクターと、電子
手帳80の表示部に現在表示中のキャラクターとの間の
親密度が高いか否かを判別する(ステップS704)。
親密度が低いと判別した場合は(ステップS704:N
O)、電子手帳80は、表示部にM4「今日は自分の家
にいます。」のメッセージを表示させ(ステップS70
5)(図22(C))、親密度が高いと判別した場合は
(ステップS704:YES)、表示部に、例えば、M
3「ポチの家に行ってきます。」のメッセージを表示さ
せる(ステップS706)(図22(A))。そして、
電子手帳80は、前記「名前」に対応するキャラクター
が現在表示中の旨をあらわすデータを電子手帳50に対
して送信する(ステップS707)。
表示部に表示されているキャラクターを表示画面から消
去する(ステップS708)。ステップS708及びス
テップS705の処理が終了後、電子手帳80は、一連
のキャラクター移動処理を終了する。
テム30の受信側の電子手帳80におけるキャラクター
移動処理において、電子手帳80に表示されているキャ
ラクターの様子を示す図である。
ャラクター(タマ)が訪問する際の表示例を示し、
(B)電子手帳80に表示されているキャラクター(タ
マ)が訪問した後の表示例を示し、(C)電子手帳80
に表示されているキャラクター(タマ)が訪問を拒否し
た際の表示例を示している。
でユーザが電子手帳50のマイク3に対して、「タ
マ」、「頂戴」と発声し、電子手帳80に「タマ」に対
応するキャラクターK93が表示されいる場合は、「タ
マ」と「ポチ」は親密度が高いため、同図(A)に示す
ように、電子手帳80の表示部の下部にM3「ポチの家
に行ってきます。」というメッセージが表示され、しば
らくすると、同図(B)に示すように、電子手帳80の
表示部から「タマ」に対応するキャラクターK93が消
去される。
ている状態でユーザが電子手帳50のマイクに対して、
「タマ」、「頂戴」と発声し、電子手帳80に「タマ」
に対応するキャラクターK93が表示されいる場合は、
「タマ」と「グルタン」は親密度が低いため、同図
(C)に示すように、電子手帳80の表示部の下部にM
4「今日は自分の家にいます。」というメッセージが表
示される。
るによれば、キャラクター表示制御システム30は、キ
ャラクター移動処理において、送信側の電子手帳50
は、初期画面として室内の背景画面を表示させるととも
に、現在時刻及び現在の気温データを表示部2に表示さ
せる。その後、電子手帳50は、ユーザの発声した音声
を音声入力部3により集音させて、音声認識部25によ
り音声認識させて、RAM22の認識音声データレジス
タ22eに格納する。その後、電子手帳50は、認識音
声データレジスタ22eに格納した認識音声データの内
に「名前」のデータがある場合は、認識音声データレジ
スタ22eに格納した認識音声データの内に「頂戴」の
データがあるか否かを判別し、「頂戴」のデータがある
場合は、「名前」、「頂戴」、「電子手帳50に表示中
の第1のキャラクターの画像No」の各データを受信側
の電子手帳80に送信する。そして、電子手帳50は、
受信側の電子手帳80から送信された表示されている旨
の信号を受信した場合は、「あと数秒後に訪問しま
す。」というメッセージを表示部2に表示させて、30
秒経過した場合は、ドアを開けた背景画像を表示させる
とともに、ノックする時の音声と振動を発生させる。そ
して、電子手帳50は、前記ユーザによって発声された
「名前」に対応したキャラクターを画像ROM21dか
ら読み出し、表示部2に表示されているキャラクターの
隣に表示させる。そして、電子手帳50は、「名前」に
対応したキャラクターに当該現在時刻及び温度に応じて
「あいさつ」をさせるとともに、あいさつに応じた音声
と振動を発生させる。
信側電子手帳50から「名前」、「頂戴」、「電子手帳
50に表示中のキャラクターの画像No」の各データを
受信したか否かを判別し、受信した場合は、当該受信し
た前記各データをRAM22内の受信データレジスタ2
2gに格納する。そして、電子手帳80は、受信した名
前に対応したキャラクターが電子手帳80の表示部に現
在表示中である場合に、電子手帳50の表示部に表示中
のキャラクターと、電子手帳80の表示部に現在表示中
のキャラクターとの間の親密度が高いか否かを判別し、
親密度が高いと判別した場合は、表示部に、例えば、
「ポチの家に行ってきます。」のメッセージを表示させ
て、前記「名前」に対応するキャラクターが現在表示中
の旨の信号を送信側の電子手帳50に対して送信する。
その後、電子手帳80は、電子手帳80の表示部に表示
されているキャラクターを表示画面から消去する。
されているキャラクターの名前と、頂戴という言葉を、
送信側の電子手帳50のマイクに対して呼び掛けると、
受信側の電子手帳80に表示されているキャラクターを
消去して、送信側の電子手帳50に新たに表示させるこ
とができるため、任意の二つの電子手帳の間でキャラク
ターを移動させることができ遊技性を高めることができ
る。また、二つの電子手帳にそれぞれ表示されているキ
ャラクターの親密度の高さによって、二つの電子手帳の
間のキャラクター移動を禁止することができるため、ユ
ーザはキャラクターの感情を知ることができより面白味
を感じることができる。
化するあいさつを、画像または一連の動作を示す画像を
表示させることにより、移動してきたキャラクターにさ
せるとともに、あいさつを示す音声及び振動を発生させ
ることができるため、ユーザは移動してきたキャラクタ
ーが現在時刻を知っていて、さらに気温を感じているよ
うに錯覚するため、より身近に感じて親近感をもつこと
ができ、面白味を感じるだけでなく、より感情移入しや
すくなる。
5を参照して本発明のキャラクター表示制御装置を適用
した第3の実施の形態における腕装着型ゲーム装置10
0及びこの腕装着型ゲーム装置100を利用して構成さ
れるキャラクター表示制御システム200、300につ
いて詳細に説明する。
ての腕装着型ゲーム装置100を示す外観図であり、図
23(A)は上面図、図23(B)は側面図である。こ
の図23に示す腕装着型ゲーム装置100は、開閉部1
02を備える小型ゲーム装置本体101が、上下方向に
弾性変形するプロテクタ104によって、ユーザの腕に
着用するためのバンド103に装着されることによって
構成されている。
キャラクター表示制御装置Sを内蔵したゲーム装置であ
り、図23(A),(B)においては、図2に示す各構
成要素を示す部分に同一符号を付している。この小型ゲ
ーム装置本体101は、モード設定スイッチMSによっ
て選択されたモードに従って、キャラクター反応処理
(図9)、キャラクター表情変更処理(図11〜図1
4)、キャラクター移動処理(図18及び図21)等の
各処理を実行し、ユーザのカーソル移動キー8等の操作
に従う処理内容に基づくキャラクター等を表示部2に表
示するほか、例えば、現在時刻表示機能やストップウォ
ッチ機能等の各種時計機能を実現する時計モードや、カ
ーソル移動キー8をコントローラとして使用してゲーム
を行うゲームモード等の各種モードを有している。
1をバンド103に装着する前の状態あるいはバンド1
03から取り外した状態を示す図である。
を設けられた台座105が備えられており、また小型ゲ
ーム装置本体101の裏面側には台座105に設けられ
た凹部に対応する凸部(図示せず)が設けられている。
そして、小型ゲーム装置本体101をバンド103に装
着する際には、上下方向に弾性変形するプロテクタ10
4を適宜変形して台座105上に小型ゲーム装置本体1
01を装着する空間を確保した上で、小型ゲーム装置本
体101の凸部を台座105の凹部にはめ込むようにし
て台座105に対する小型ゲーム装置本体101の位置
を決定し、更に、プロテクタ104を所定の定位置に戻
すことによって小型ゲーム装置本体101を台座105
に固定する。
体101をゲーム装置201に装着して構成されるキャ
ラクター表示制御システム200の外観を示す斜視図で
ある。
外された状態においては、小型ゲーム装置本体101の
開閉部102を開閉することが可能となる。そして、こ
の開閉部102を開状態にすると、コネクタ部106が
露出され、このコネクタ部106をゲーム装置201に
設けられたコネクタ部(図示せず)と接続することによ
り、小型ゲーム装置本体101とゲーム装置201との
間のデータ通信が可能となる。
して、キャラクター移動処理(図18及び図21)が行
われる他、例えば、ゲーム装置201側にゲームを記憶
した記録媒体を装着し、この記録媒体に記憶されるゲー
ムプログラムを読み出して小型ゲーム装置本体101側
に転送する処理等が行われる。
置100どうしの間で赤外線通信部24を介してデータ
通信を行うキャラクター表示制御システム300を示す
模式図である。
装着型ゲーム装置100のそれぞれの赤外線通信部24
の通信窓を所定距離内において対面させることにより、
腕装着型ゲーム装置100どうしのデータ通信が可能と
なり、キャラクター移動処理(図18及び図21)が行
われる他、例えば、一方の腕装着型ゲーム装置100側
に記憶されたゲームプログラムを読み出して、他方の小
型ゲーム装置本体101側に転送する処理等が行われ
る。
制御システム300では、同図に示すように小型ゲーム
装置本体101をバンド103に装着したままの状態で
データ通信を行うことが可能であるため、図25(A)
に示す場合のように、小型ゲーム装置本体101をバン
ド103から取り外す手間を省くことができる。また、
それぞれの腕装着型ゲーム装置100がユーザの腕に着
用されている状態のままでもデータ通信を行うことが可
能である。
00、またはこの腕装着型ゲーム装置100を適用した
キャラクター表示制御システム200、キャラクター表
示制御システム300によれば、内蔵されたキャラクタ
ー表示制御装置Sによって前記第1または第2の実施の
形態において説明したような電子手帳1またはキャラク
ター表示システム30と同等の処理を実行することが可
能な小型ゲーム装置本体101を、バンド103によっ
てユーザの腕に装着したり、バンド103から取り外し
てユーザのポケットに入れて携帯することができるた
め、携帯性を向上させることができる。そして、携帯性
の向上によって、ユーザが常に腕装着型ゲーム装置10
0を携帯して、キャラクターと頻繁に接することができ
るようになるため、ユーザはキャラクターに対して更に
身近に感じて親近感をもつことができ、腕装着型ゲーム
装置100の遊技性を向上させることができる。また、
バンド103に装着する小型ゲーム装置本体101を、
例えば、他の種類のキャラクターを記憶した小型ゲーム
装置本体101に交換することもできるため、ユーザの
気分によって携帯するものを交換したり、友人同士で交
換したりすることが可能となり、更に興趣を喚起させる
ことができる。
して本発明のキャラクター表示制御装置を適用した第4
の実施の形態における腕装着型ゲーム装置400及びこ
の腕装着型ゲーム装置400を利用して構成されるキャ
ラクター表示制御システム500について詳細に説明す
る。
ーム装置100は、図25(A)に示すようなキャラク
ター表示制御システム200を構成する場合には、小型
ゲーム装置本体101をバンド103から取り外して使
用したが、本第4の実施の形態においては、小型ゲーム
装置本体をバンドから取り外さずにゲーム装置に装着可
能とする腕装着型ゲーム装置400について説明する。
ての腕装着型ゲーム装置400を示す外観図であり、図
26(A)は上面図、図26(B)は側面図、図26
(C)は、この腕装着型ゲーム装置400とゲーム装置
201とによって構成されるキャラクター表示制御シス
テム500を示す斜視図である。この図26に示す腕装
着型ゲーム装置400は、開閉部402を備える小型ゲ
ーム装置本体401が、バンド405上を図中の回動方
向A,B両方向に回動可能なように、回動支軸403に
よって、ユーザの腕に着用するためのバンド405に装
着されることによって構成されている。
キャラクター表示制御装置Sを内蔵したゲーム装置であ
り、図26(A),(B)においては、図2に示す各構
成要素を示す部分に同一符号を付している。この小型ゲ
ーム装置本体401は、図23に示す小型ゲーム装置本
体101と同等の機能を有し、モード設定スイッチMS
によって選択されたモードに従って、キャラクター反応
処理(図9)、キャラクター表情変更処理(図11〜図
14)、キャラクター移動処理(図18及び図21)等
の各処理を行う他、時計モードや、ゲームモード等の各
種モードを有している。
(A)に示すように、回動支軸403を回動の軸とし
て、バンド405に対して小型ゲーム装置本体401を
A,Bの各方向に回動可能であり、例えば、ユーザが小
型ゲーム装置本体401の時計モードを使用する場合に
は図中点線で示すように、バンド405の長手方向と小
型ゲーム装置本体401の長手方向をそろえて使用す
る。また、図26(C)に示すようなキャラクター表示
制御システム500を構成する場合には、バンド405
の長手方向と小型ゲーム装置本体401の長手方向が垂
直となるような状態で使用する。そして、腕装着型ゲー
ム装置400とゲーム装置201とによってキャラクタ
ー表示制御システム500を構成する際には、前記第3
の実施の形態における小型ゲーム装置本体101の場合
と同様に、小型ゲーム装置本体401の開閉部402を
開状態にすると、コネクタ部404が露出され、このコ
ネクタ部404をゲーム装置201に設けられたコネク
タ部(図示せず)と接続することにより、小型ゲーム装
置本体401とゲーム装置201との間のデータ通信が
可能となる。
して、キャラクター移動処理(図18及び図21)が行
われる他、例えば、ゲーム装置201側にゲームを記憶
した記録媒体を装着し、この記録媒体に記憶されるゲー
ムプログラムを読み出して小型ゲーム装置本体401側
に転送する処理等が行われる。
00、またはこの腕装着型ゲーム装置400を適用した
キャラクター表示制御システム500によれば、内蔵さ
れたキャラクター表示制御装置Sによって前記第1また
は第2の実施の形態において説明したような電子手帳1
またはキャラクター表示システム30と同等の処理を実
行することが可能な小型ゲーム装置本体401を、バン
ド405によってユーザの腕に装着して携帯することが
できるため、携帯性を向上させることができる。そし
て、携帯性の向上によって、ユーザが常に腕装着型ゲー
ム装置400を携帯して、キャラクターと頻繁に接する
ことができるようになるため、ユーザはキャラクターに
対して更に身近に感じて親近感をもつことができ、腕装
着型ゲーム装置400の遊技性を向上させることができ
る。また、バンド405に対する小型ゲーム装置本体4
01の方向をユーザの使用目的に応じて、変更すること
ができるため、腕装着型ゲーム装置400の操作性を向
上させることができる。
キャラクター表示制御装置のうち、一方のキャラクター
表示制御装置に対して音声を入力すると、この入力され
た音声を認識し、この認識された音声の内容と名前が一
致するキャラクターが、他方のキャラクター表示制御装
置に表示されているのか否かを検索し、この検索の結
果、表示されていると検索された際は、その一方のキャ
ラクター表示制御装置に設けられている表示部に、前記
名前が一致するキャラクターを表示させることができ
る。このため、複数のキャラクター表示制御装置の間で
キャラクターを移動させることができ遊技性を高いキャ
ラクター表示制御システムを実現することができる。
載の発明の効果に加えて、消去制御手段は、一方のキャ
ラクター表示制御装置において認識された音声の内容と
名前が一致するキャラクターを、他方のキャラクター表
示制御装置から消去させることができる。このため、よ
り遊技性を高めて、より実際の生物に近い感覚をユーザ
に与えることができる。
された音声を認識し、この認識された音声の内容と名前
が一致するキャラクターが他方のキャラクター表示制御
装置に表示されているのか否かを検索するための検索デ
ータを送信し、この送信された検索データによる検索結
果を受信し、この検索結果を表示部に表示させることが
できる。このため、物理的に距離がある他方のキャラク
ター表示制御装置(相手先の装置)から一方のキャラク
ター表示制御装置(自己の装置)の表示部へキャラクタ
ーを移動させたかのように表示させることができ、より
遊技性を高めることができ、任意の複数のユーザとのコ
ミュニケーションツールとしての役割を果たせることが
できる。
ー表示制御装置を適用した電子手帳1の概略構成を示す
図である。
の回路構成の一例を示すブロック図である。
個人データ用ROM21aのキャラクターの名前と、そ
のキャラクターの特性と、キャラクター同士の親密度の
格納状態を示す図である。同図(B)は、キャラクター
表示制御装置Sの挨拶データ用ROM21bの現在時刻
と、気温と、挨拶文(前段と後半)と、画像データN
o.の格納状態を示す図である。同図(C)は、キャラ
クター表示制御装置Sの音声親密度用ROM21cのユ
ーザの口調と、親密度(M)と、親密度マークSMの格
納状態を示す図である。
dにおいて全ての画像データと、画像Noとが対応づけ
られて格納されている格納状態を示す図である。
音声振動用ROM21eの画像Noと、音声データと、
振動指示データの格納状態を示す図である。同図(B)
は、キャラクター表示制御装置Sの表示順序用ROM2
1fのキャラクターの動作と、当該動作を表す一連の画
像データ群を表示させる際の画像データの表示順序の格
納状態を示す図である。
状態変化用ROM21gの親密度Mと、親密度Mの値に
よって変化するキャラクターの画像データの格納状態を
示す図である。同図(B)は、キャラクター表示制御装
置Sの呼掛回数用ROM21hの声をかけた回数を示す
変数NAと、声をかけた回数に応じて変化するキャラク
ターが発声する言葉を示す音声データの格納状態を示す
図である。
部構成を詳細に説明する図である。
り実行されるモード設定処理の流れを示すフローチャー
トである。
り実行されるキャラクター反応処理の流れを示すフロー
チャートである。
ラクターの表示形態が変化する様子を示す図である。
より実行されるキャラクター表情変更処理の流れを示す
フローチャートである。
プS204において実行される親密度判定処理の一例と
しての時刻変化親密度処理について詳細に説明するフロ
ーチャートである。
プS204において実行される親密度判定処理の一例と
しての口調変化親密度処理について詳細に説明するフロ
ーチャートである。
プS204において実行される親密度判定処理の一例と
しての呼掛回数変化親密度処理について詳細に説明する
フローチャートである。
て、キャラクターの表情及び表示形態が変化する様子を
示す図である。
ター表示制御システム30の全体構成を示す図である。
2の内部構成を詳細に説明する図である。
ター表示制御システム30の送信側の電子手帳50にお
けるキャラクター移動処理について説明するフローチャ
ートである。
の電子手帳50におけるキャラクター移動処理におい
て、受信側の電子手帳80に表示されているキャラクタ
ーが訪問する前の表示画面の様子を示す図である。
の電子手帳50におけるキャラクター移動処理におい
て、受信側の電子手帳80に表示されているキャラクタ
ーが訪問した際の表示画面の様子を示す図である。
ター表示制御システム30の受信側の電子手帳80にお
けるキャラクター移動処理について説明するフローチャ
ートである。
の電子手帳80におけるキャラクター移動処理におい
て、電子手帳80に表示されているキャラクターの様子
を示す図である。
ゲーム装置100を示す外観図であり、同図(A)は上
面図、同図(B)は側面図である。
ンド103に装着する前の状態あるいはバンド103か
ら取り外した状態を示す図である。
ゲーム装置201に装着して構成されるキャラクター表
示制御システム200の外観を示す斜視図である。同図
(B)は、腕装着型ゲーム装置100どうしの間で赤外
線通信部24を介してデータ通信を行うキャラクター表
示制御システム300を示す模式図である。
ゲーム装置400を示す外観図であり、同図(A)は上
面図、同図(B)は側面図、同図(C)は、この腕装着
型ゲーム装置400とゲーム装置201とによって構成
されるキャラクター表示制御システム500を示す斜視
図である。
Claims (4)
- 【請求項1】複数のキャラクター表示制御装置の間で通
信を行うキャラクター表示制御システムにおいて、 前記複数のキャラクター表示制御装置のうち、一方のキ
ャラクター表示制御装置に対して音声を入力する音声入
力手段と、 この音声入力手段により入力された音声を認識する音声
認識手段と、 この音声認識手段により認識された音声の内容と名前が
一致するキャラクターが、他方のキャラクター表示制御
装置に表示されているのか否かを検索する検索手段と、 この検索手段により表示されていると検索された際は、
その一方のキャラクター表示制御装置に設けられている
表示部に、前記名前が一致するキャラクターを表示させ
る表示制御手段と、 を備えていることを特徴とするキャラクター表示制御シ
ステム。 - 【請求項2】請求項1に記載のキャラクター表示制御シ
ステムにおいて、 前記他方キャラクター表示制御装置は、前記名前が一致
するキャラクターを消去させる消去制御手段を備えてい
ることを特徴とするキャラクター表示制御システム。 - 【請求項3】他方のキャラクター表示制御装置との間で
ゲームを行うために、ゲームで使われるキャラクターが
表示される表示部を有するキャラクター表示制御装置に
おいて、 音声を入力する音声入力手段と、 この音声入力手段により入力された音声を認識する音声
認識手段と、 この音声認識手段により認識された音声の内容と名前が
一致するキャラクターが前記他方のキャラクター表示制
御装置に表示されているのか否かを検索するための検索
データを送信する送信手段と、 この送信手段により送信された検索データに対する検索
結果を受信する受信手段と、 この受信手段により受信された検索結果を前記表示部に
表示させる制御手段と、 を備えていることを特徴とするキャラクター表示制御装
置。 - 【請求項4】他方のキャラクター表示制御装置との間で
ゲームを行うために、ゲームで使われるキャラクターが
表示される表示部を有するキャラクター表示制御装置を
制御するために使用される、読み出し可能なプログラム
が記録されている記録媒体において、 前記プログラムは、 外部から音声が入力されると、これに応答して、この入
力された音声を認識し、 この認識された音声の内容と名前が一致するキャラクタ
ーが前記他方キャラクター表示制御装置に表示されてい
るのか否かを検索するための検索データを送信し、 この送信された検索データによる検索結果を受信し、 この受信した検索結果を前記表示部に表示させる、 ことを特徴とする記録媒体。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP35331498A JP3381648B2 (ja) | 1998-12-11 | 1998-12-11 | キャラクター表示制御装置、キャラクター表示制御システム、及び記録媒体 |
CNB991260864A CN1192808C (zh) | 1998-12-11 | 1999-12-13 | 图样显示控制设备和图样显示控制*** |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP35331498A JP3381648B2 (ja) | 1998-12-11 | 1998-12-11 | キャラクター表示制御装置、キャラクター表示制御システム、及び記録媒体 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP11277192A Division JP2000176177A (ja) | 1999-01-01 | 1999-09-29 | 腕装着型電子ゲ―ム装置、及び腕装着型電子ゲ―ムシステム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2000181897A JP2000181897A (ja) | 2000-06-30 |
JP3381648B2 true JP3381648B2 (ja) | 2003-03-04 |
Family
ID=18430016
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP35331498A Expired - Fee Related JP3381648B2 (ja) | 1998-12-11 | 1998-12-11 | キャラクター表示制御装置、キャラクター表示制御システム、及び記録媒体 |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP3381648B2 (ja) |
CN (1) | CN1192808C (ja) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002282543A (ja) | 2000-12-28 | 2002-10-02 | Sony Computer Entertainment Inc | オブジェクトの音声処理プログラム、オブジェクトの音声処理プログラムを記録したコンピュータ読み取り可能な記録媒体、プログラム実行装置、及びオブジェクトの音声処理方法 |
JP2004053251A (ja) * | 2001-11-13 | 2004-02-19 | Equos Research Co Ltd | 車載装置、データ作成装置、及びデータ作成プログラム |
US7452273B2 (en) | 2001-12-12 | 2008-11-18 | Cantor Index, Llc | Method and apparatus for providing advice regarding gaming strategies |
US8734226B2 (en) | 2001-12-12 | 2014-05-27 | Bgc Partners, Inc. | Systems and methods for assisting in game play and wagering |
JP3500383B1 (ja) | 2002-09-13 | 2004-02-23 | コナミ株式会社 | ゲーム装置、ゲーム装置の制御方法及びプログラム |
CN1609950B (zh) * | 2003-10-20 | 2010-05-12 | 上海科技馆 | 用语音控制动物影像运动的方法及装置 |
JP5211435B2 (ja) * | 2006-03-29 | 2013-06-12 | ヤマハ株式会社 | アクセサリ、電子楽器、教習装置およびプログラム |
JP5097638B2 (ja) * | 2008-07-31 | 2012-12-12 | 富士通テン株式会社 | 車載ナビゲーション装置、ナビゲーションシステム、及びその制御方法 |
JP2012138035A (ja) * | 2010-12-28 | 2012-07-19 | Casio Comput Co Ltd | 画像表示装置及びプログラム |
KR102031599B1 (ko) * | 2015-01-20 | 2019-11-08 | 후아웨이 테크놀러지 컴퍼니 리미티드 | 멀티미디어 정보 표현 방법 및 단말기 |
US11185989B2 (en) | 2016-06-06 | 2021-11-30 | Sony Corporation | Virtual creature control system and virtual creature control method |
KR102014623B1 (ko) | 2016-07-19 | 2019-08-26 | 게이트박스 가부시키가이샤 | 화상 표시장치, 화제 선택 방법, 화제 선택 프로그램, 화상 표시 방법 및 화상 표시 프로그램 |
JP2018014575A (ja) * | 2016-07-19 | 2018-01-25 | Gatebox株式会社 | 画像表示装置、画像表示方法及び画像表示プログラム |
-
1998
- 1998-12-11 JP JP35331498A patent/JP3381648B2/ja not_active Expired - Fee Related
-
1999
- 1999-12-13 CN CNB991260864A patent/CN1192808C/zh not_active Expired - Fee Related
Non-Patent Citations (1)
Title |
---|
電撃NINTENDO64,日本,メディアワークス,1998年11月 1日,第3巻 第11号,第6〜9頁 |
Also Published As
Publication number | Publication date |
---|---|
JP2000181897A (ja) | 2000-06-30 |
CN1260225A (zh) | 2000-07-19 |
CN1192808C (zh) | 2005-03-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3381648B2 (ja) | キャラクター表示制御装置、キャラクター表示制御システム、及び記録媒体 | |
JP3855653B2 (ja) | 電子玩具 | |
KR100751957B1 (ko) | 전자페트장치, 정보처리장치 및 정보처리방법 | |
CN111524501B (zh) | 语音播放方法、装置、计算机设备及计算机可读存储介质 | |
US20050154594A1 (en) | Method and apparatus of simulating and stimulating human speech and teaching humans how to talk | |
KR20000072753A (ko) | 근거리 무선통신 수단을 내장한 지능형 장난감 | |
WO2007029603A1 (ja) | サーバ装置およびゲームシステム | |
KR20050100477A (ko) | 이동통신 단말기용 육성 시뮬레이션 방법 및 장치 | |
JP4182618B2 (ja) | 電気音響変換装置及び耳装着型電子装置 | |
JP3684420B1 (ja) | 電子楽器装置および仮想楽器の演奏方法並びに仮想楽器の演奏処理のプログラムおよびそのプログラムを記録した記録媒体 | |
JP2000176177A (ja) | 腕装着型電子ゲ―ム装置、及び腕装着型電子ゲ―ムシステム | |
JP2007258885A (ja) | 情報提供システム、情報提供サーバ及び携帯端末等 | |
JP3846085B2 (ja) | 電子ゲーム装置 | |
KR200260160Y1 (ko) | 키톤 갱신/출력 시스템 | |
EP0505304A2 (en) | Portable computer device for audible processing of electronic documents | |
JP2020003762A (ja) | 簡易操作声質変換システム | |
JP2000338859A (ja) | 電子機器の情報管理方法及び電子機器システム | |
JP3709798B2 (ja) | 占い及び作曲システム、占い及び作曲装置、占い及び作曲方法並びに記憶媒体 | |
KR20200085433A (ko) | 탈부착형 스피커를 포함한 음성합성 시스템 및 방법 | |
JP2006102270A (ja) | 情報処理方法および情報処理端末 | |
WO2006062274A1 (en) | Intelligent robot and mobile game method using the same | |
JP2006178049A (ja) | 音楽再生装置 | |
KR20030034739A (ko) | 음성단위모델데이터의 갱신방법 및 그 장치 | |
JP2001326744A (ja) | 携帯端末及びネットワークシステム | |
JP2004258502A (ja) | カラオケ演奏装置における効果音発生機構および使用方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20071220 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20081220 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20081220 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20091220 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101220 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101220 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111220 Year of fee payment: 9 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111220 Year of fee payment: 9 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121220 Year of fee payment: 10 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121220 Year of fee payment: 10 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131220 Year of fee payment: 11 |
|
LAPS | Cancellation because of no payment of annual fees |