JP3566646B2 - 音楽コミュニケーション装置 - Google Patents

音楽コミュニケーション装置 Download PDF

Info

Publication number
JP3566646B2
JP3566646B2 JP2000332156A JP2000332156A JP3566646B2 JP 3566646 B2 JP3566646 B2 JP 3566646B2 JP 2000332156 A JP2000332156 A JP 2000332156A JP 2000332156 A JP2000332156 A JP 2000332156A JP 3566646 B2 JP3566646 B2 JP 3566646B2
Authority
JP
Japan
Prior art keywords
input
sensor
sensors
sound
level
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2000332156A
Other languages
English (en)
Other versions
JP2002140070A (ja
Inventor
健二 間瀬
朋子 米澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2000332156A priority Critical patent/JP3566646B2/ja
Publication of JP2002140070A publication Critical patent/JP2002140070A/ja
Application granted granted Critical
Publication of JP3566646B2 publication Critical patent/JP3566646B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Electrophonic Musical Instruments (AREA)
  • Toys (AREA)
  • Reverberation, Karaoke And Other Acoustics (AREA)

Description

【0001】
【産業上の利用分野】
この発明は音楽コミュニケーション装置に関し、特にたとえば幼児あるいは高齢者の遊戯具に適用される、音楽コミュニケーション装置に関する。
【0002】
【従来の技術】
従来、この種の音楽コミュニケーション装置は存在しなかった。類似する従来技術として、人間の形を模した人形や動物などのキャラクタに置き換えたぬいぐるみの特定の部位を触ったり動かしたりすると、音声や音楽が出力されたり、特定の部位が一定の動きをしたりするような玩具があった。
【0003】
【発明が解決しようとする課題】
しかし、このような従来技術では、人形やぬいぐるみの特定の部位を触ったり動かしたりすると、予め記録された固定の音声(あいさつなどのメッセージ)や固定の音楽が出力されたり、特定の部位が一定の動きを繰り返したりしていただけなので、遊戯性に欠けるという問題があった。このため、幼児はすぐに飽きてしまっていた。
【0004】
それゆえに、この発明の主たる目的は、遊戯性に優れる、新規な音楽コミュニケーション装置を提供することである。
【0005】
【課題を解決するための手段】
この発明は、ユーザの表現を検知する複数のセンサを備え、複数のセンサからの入力によって複数の音楽的要素を制御する音楽コミュニケーション装置であって、複数のセンサの検知結果に応じて決まる複数のインタラクション状態レベルのそれぞれ毎に複数の音楽要素に対する各センサの役割を予め設定する役割設定手段を備え、少なくとも1つのセンサの役割がインタラクション状態レベル毎に異なるようにされ、さらに、複数のセンサの検知結果に応じて複数のインタラクション状態レベルのいずれかを設定する状態設定手段、および状態設定手段によって設定されたインタラクション状態レベルでのセンサの役割に従って複数のセンサからの入力に応じて音楽的要素が制御された音を出力する出力手段を備える、音楽コミュニケーション装置である。
【0006】
【作用】
この発明の音楽コミュニケーション装置では、ユーザの表現すなわち行為、ふるまいあるいは音声を検知するための複数のセンサ( 実施例で相当する部分は 14-54 である。以下、同様。 )が設けられる。役割設定手段 (66, 66b) が、たとえばROMのようなメモリに、各センサの検知結果に応じて決まるインタラクション状態レベルと、各状態レベルにおける複数のセンサの役割とを予め設定しておき、状態設定手段 (62, S1, S11, S25, S39, S51) が複数のセンサの検知結果に応じていずれかのインタラクション状態レベルを設定する。出力手段(62, 66, 66a, S9, S23, S37, S49, S61, 24)その設定されたインタラクション状態レベルでのセンサからの入力に応じた音を出力する。つまり、ユーザの表現に対して音声、和音のような音あるいは音楽などを出力することによって反応し、コミュニケーションすることができる。
【0008】
また、所定の段階に分けられた相互作用状態(インタラクション状態)を所定の段階(レベル)に設定し、センサからの入力すなわち検知結果に応じてインタラクション状態のレベルを維持または遷移し、インタラクション状態のレベルが遷移されたときに、役割を変更するようにすればよい。
【0009】
さらに、音変更手段が、センサからの入力すなわち検知結果に応じて音楽的要素(たとえば、音階、コード、リズム、メロディなど)を変更するので、単なる音声だけでなく、或る音階に沿った音、和音あるいは音楽を出力することができ、また音量を調整することができる。つまり、ユーザの表現すなわち接し方によっては、音楽が奏でられるような楽しいコミュニケーションを図ることができる。
【0010】
具体的には、音階変更手段がセンサからの入力に応じて音階を変更し、コード変更手段がセンサからの入力に応じてコードを変更する。また、リズム変更手段がセンサからの入力に応じてリズムを変更し、メロディ変更手段がセンサからの入力に応じてメロディを変更する。このような音楽的要素は、個別に変更されてもよく、また複合的に変更されてもよい。
【0011】
たとえば、このような音楽コミュニケーション装置は複数のセンサが所定の部位に配置されるぬいぐるみを本体とし、複数のセンサのそれぞれは、ぬいぐるみを通してユーザの表現を検知している。つまり、ユーザは、ぬいぐるみのキャラクタとコミュニケーションしているように感じることができる。
【0012】
【発明の効果】
この発明によれば、複数のセンサからの入力に応じた音が出力され、またユーザの表現によってセンサの役割が変更されるので、ユーザがすぐに飽きてしまうようなことがない。すなわち、遊戯性が高い。
【0013】
この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。
【0014】
【実施例】
図1(A)を参照して、この実施例の音楽コミュニケーション装置10はぬいぐるみ12を含み、ぬいぐるみ12は動物あるいはキャラクタを模した形状に形成される。ただし、この実施例では、ぬいぐるみ12は、たとえば熊を模した形状であり、頭部12a、耳部12b、鼻部12c、口部12d、胴体部12e、尻尾部12f、左腕部12g、右腕部12h、左脚部12iおよび右脚部12j等を有している。このような各部位(12a〜12j)のそれぞれには、後述する複数のセンサが設けられる(内蔵される)。
【0015】
なお、図1(A)および図1(B)においては、分かり易くするため、各センサはぬいぐるみ12の表面(外側)に示してあり、また一部のセンサは省略してある。
【0016】
具体的に説明すると、ぬいぐるみ12の頭部12aには、ぬいぐるみ12の表皮の内面に接するように配置された頭部タッチセンサ14が設けられる。この頭部タッチセンサ14には、少なくとも接触したかどうかおよび連続的な力の変化(押圧力)を検知できるピエゾ式の圧力センサが適用される。また、頭部12aに連続して設けられた耳部12bには、オーディオセンサとしてのマイク16が設けられる。さらに、鼻部12cには、イメージセンサとしてのCCDカメラ(以下、この実施例において、単に「カメラ」という。)18および赤外線センサのような頭部近接センサ20が設けられる。
【0017】
ただし、赤外線センサの出力は通常オンであり、人物や物等を検知した場合に、出力が停止される。
【0018】
そして、鼻部12cの下方に配置される口部12dには、上述の頭部タッチセンサ14と同じ圧力センサからなる口部タッチセンサ22が設けられる。また、同様に、口部12dには、音階の一音(ド、レ、ミ、ファ、…)あるいは音階に沿っていない一音(♯や♭つきの音)、異なる音階に沿ってフィルタをかけた人の声、和音あるいは音楽のような音を出力するためのスピーカ24が設けられる。このスピーカ24もまた、図1(A)で分かり易く説明するため、ぬいぐるみ12の表面に示してあるが、実際にはぬいぐるみ12の内部に設けられる。
【0019】
ただし、カメラ18は、レンズ(図示せず)がぬいぐるみ12から露出するように配置される。また、頭部近接センサ20も同様に、図示は省略するが、赤外線センサの検知部(発光部/受光部)がぬいぐるみ12から露出するように配置される。
【0020】
また、胴体部12eには、上述の頭部タッチセンサ14と同じ構成の腹部タッチセンサ26、ジャイロ(加速度計)28および内部温度センサ30が設けられる。図1(B)から分かるように、胴体部12eにはまた、上述した頭部タッチセンサ14と同じ背部タッチセンサ32および上述した頭部近接センサ20と同じ赤外線センサから構成された背部近接センサ34が設けられる。また、胴体部12eに含まれる尻部には、頭部近接センサ16と同じ尻部近接センサ36が設けられる。
【0021】
ただし、背部近接センサ34および尻部近接センサ36は、赤外線センサの検知部がぬいぐるみ12から露出するように配置される。
【0022】
さらに、胴体部12eに連続的に設けられる尻尾部12fには、外部温度センサ38が設けられる。この外部温度センサ38は、少なくとも温度検出部(図示せず)が尻尾部12fから露出するように配置される。また、図1(A)および図1(B)に示すように、左腕部12g、右腕部12h、左脚部12iおよび右脚部12jには、各部位(12g〜12j)が曲がっているかどうかおよび曲がり角度を検知できるピエゾ式のベンドを用いた左腕ベンド40、右腕ベンド42、左脚ベンド44および右脚ベンド46のそれぞれが設けられる。
【0023】
ただし、図1(A)および図1(B)からよく分かるように、各ベンド(40〜46)は、その一方端が胴体部12eまで延びて設けられる。
【0024】
また、図1(A)に示すように、左腕部12g、右腕部12h、左脚部12iおよび右脚部12jには、上述した圧力センサからなる左腕タッチセンサ48、右腕タッチセンサ50、左脚タッチセンサ52および右脚タッチセンサ54のそれぞれが設けられる。
【0025】
この音楽コミュニケーション装置10の電気的な構成は、図2のように示される。つまり、音楽コミュニケーション装置10はコンピュータ60を含み、コンピュータ60には上述したような各センサ(14〜22、26〜54)およびスピーカ22が接続される。
【0026】
また、コンピュータ60はCPU62を含み、CPU62は内部バス64を介してROM66、RAM68、カウンタ70およびタイマ72のそれぞれに接続される。
【0027】
なお、図2では省略するが、各センサ(マイク16およびカメラ18を除く。)はA/D変換器およびインターフェイスを介して内部バス64に接続される。また、図示は省略するが、マイク16はアンプ、A/D変換器およびインターフェイスを介して内部バス64に接続される。さらに、図示は省略するが、カメラ18はインターフェイスを介して内部バス64に接続される。さらにまた、図示は省略するが、スピーカ24は、アンプ、D/A変換器およびインターフェイスを介して内部バス64に接続される。
【0028】
ROM66にはメモリエリア66a〜66cが含まれており、メモリエリア66aには、ぬいぐるみ12(音楽コミュニケーション装置10)の相互作用状態(インタラクション状態)のレベルを維持または遷移させるとともに、それぞれのレベルで各センサからの入力に応じた音を生成するためのプログラムが記憶されている。
【0029】
なお、音を生成するためのプログラム(アプリケーションソフト)としては、マックOSで動くオプトコード社製の「MAX/MSP」(商品名)を用いることができる。
【0030】
また、メモリエリア66bには、インタラクション状態のレベルに応じた各センサの役割についてのマッピング(配置)が記憶される。このマッピングについては、後で詳細に説明する。
【0031】
さらに、メモリエリア66cには、予め収録しておいた人の声(音声)に対応する音声信号に対応するデータが記憶されている。
【0032】
ただし、この実施例では、音声信号は、異なる音程(音高N1、音高N2)にそってフィルタをかけられるため、異なる音程の音声信号が同時にスピーカ24から出力される。したがって、音高N1および音高N2のそれぞれを制御することによって、高音から低音までの幅で高い声や低い声を演出することができる。
【0033】
たとえば、この実施例では、インタラクション状態はレベル0〜レベル4の間で設定(遷移)され、レベル0〜レベル4のそれぞれに応じて各センサの役割が変更される。つまり、上述したメモリエリア66bには、図3〜図5に示すような各センサについての役割の配置が記憶される。
【0034】
具体的には、インタラクション状態がレベル0の場合には、図3の左欄に示すように、各センサの役割が決定される。ただし、横棒を引いている欄については、制御がないことを意味している。以下、この実施例において同じである。
【0035】
レベル0では、ぬいぐるみ12(音楽コミュニケーション装置10)は、単純な、加工を施していない呼吸音を出力し、注意(興味)を引かれた時に呼吸を止める。このような呼吸音のタイミング制御すなわち呼吸音の出力/停止がマイク16、カメラ18および頭部近接センサ20からの入力に応じて実行される。
【0036】
たとえば、ぬいぐるみ12(スピーカ24)から常に呼吸音が出力されており、ぬいぐるみ12(音楽コミュニケーション12)が興味を引かれた場合に、この実施例では、人物(ユーザ)が近づいた場合に、呼吸音が停止される。つまり、マイク16は常に能動化されており、CPU62はマイク16を介して入力される音声信号の信号レベル(音量)や音高(音楽でいう音符の音の高さ)の変化を検出し、信号レベルや周波数が変化した場合に、人が近づいたと判断する。つまり、人の声がした場合や扉を開閉するなどの物音がした場合に、人が近づいたと判断することができる。
【0037】
なお、音声信号の周波数を解析して、人の声を判断し、人の声である場合にのみ、人が近づいたと判断するようにしてもよい。
【0038】
また、カメラ18は常に能動化されており、CPU62はカメラ18を介して入力される映像信号から輝度レベルの変化を検出し、輝度レベルが変化した場合に、人が近づいたと判断する。このように、人が近づいたと判断できる具体例としては、ユーザが自身の顔や他の部位をぬいぐるみ12に接近あるいは接触した場合やぬいぐるみ12を置いている部屋の照明装置を明滅させた場合などが考えられる。
【0039】
さらに、頭部近接センサ20は、ユーザが自身の顔や他の部位をぬいぐるみ12の頭部12a、特に鼻部12cに接近あるいは接触した場合に検出信号を出力する。したがって、CPU62はこれに応じて人が近づいたと判断する。
【0040】
また、全体のテンポすなわちレベル0における呼吸音のテンポは、内部温度センサ30および外部温度センサ38からの入力に応じて換えられる。たとえば、CPU62は、内部温度センサ30および外部温度センサ38で検出されるぬいぐるみ12内部の温度と外部の温度との差分を検出し、差分が小さい場合には、呼吸音を出力するテンポを遅くし、逆に差分が大きい場合には、呼吸音を出力するテンポを速くすることができる。たとえば、テンポ(速さ)を所定の範囲に決定しておけば、温度の差分に応じて連続的な速度変化でテンポを変更することができる。
【0041】
なお、全体のテンポが変化した場合には、呼吸音、リズムの音、メロディ、コード(和音)の進行およびキー(音階の種類)の変化についてのテンポが変更される。また、上述したように、呼吸音を出力するテンポが変更されるが、呼吸音以外については適宜詳細に説明することとし、ここでは詳細な説明は省略する。
【0042】
次に、インタラクション状態がレベル1の場合には、ぬいぐるみ12(音声コミュニケーション装置10)は、予めROM66のメモリエリア66cに記憶しておいた音声信号をスピーカ22から出力し、ぬいぐるみ12を触ったり、ユーザがぬいぐるみ12に話しかけたりするなどのユーザの表現に対して返答(返事)する。そして、ユーザがぬいぐるみ12を触る時間が長くなるにつれて、返事の間隔を短くし、人が接触した部位のセンサからの入力回数が増えるにつれて次第に同期していく。つまり、ユーザがぬいぐるみ12に触れる回数が増えると、次第に返事の声をするまでの時間が短くなる。
【0043】
ただし、レベル1では、役割が配置されていないセンサからの入力があった場合には、その入力回数をカウンタ70でカウントするだけであり、出力する音の制御(変更)には利用されない。後述する、レベル2およびレベル3についても同様である。
【0044】
具体的には、各センサの役割が図3の右欄のように示され、各センサからの入力に応じて、会話(返事)速度、応答速度(返事をするまでの時間)および音量などを制御している。たとえば、カウンタ70によって、各センサからの入力回数がカウントされ、CPU62は、カウンタ70のカウント値が増加するに従ってスピーカ24から出力する音声信号の音量を大きくする。つまり、ユーザがぬいぐるみ12に触れる回数が増加すると、ぬいぐるみ12からの返事の声が大きくなる。
【0045】
また、左腕ベンド40からの入力があると、CPU62は、音声信号の音高N1を変更する。具体的には、左腕部12gの曲がり角度が大きくなるにつれて音高N1が大きくされ、逆に左腕部12gの曲がり角度が小さくなるにつれて音高N1が小さくされる。ただし、左腕部12gの上げ下げで音高N1を大きくしたり、小さくしたりすることもできる。
【0046】
さらに、右腕ベンド42からの入力があると、CPU62は、音声信号の音高N2を変更する。つまり、ユーザがぬいぐるみ12の右腕部12jを曲げるとその曲がり角度に応じて音高N2の大きさが変化する。音高N2の大きさの変化については、ユーザがぬいぐるみ12に左腕部12gを曲げた場合と同じであるため、重複した説明は省略する。
【0047】
つまり、ぬいぐるみ12が返事をする声を低い声から高い声の間で連続的に変化させることができる。なお、低い声と高い声とは音声信号をフィルタにかけるときの音高N1および音高N2によって決定される。
【0048】
そして、口部タッチセンサ22から入力があると、CPU62は、会話速度を速くする。つまり、ユーザがぬいぐるみ12に口部12dを触る(撫でる)と、ぬいぐるみ12が速くしゃべるようになる。
【0049】
また、少なくとも1つのセンサから入力があると、CPU62は、音声信号の出力タイミングすなわち出力のオン/オフを制御する。具体的には、ユーザがぬいぐるみ12に対して表現を示している間、すなわちぬいぐるみ12を触ったり、ぬいぐるみ12に声をかけたりしている間では、音声信号が出力される。一方、ユーザがぬいぐるみ12に対する表現を止めると、音声信号の出力が停止される。
【0050】
さらに、タイマ72によって、レベル1が設定されてから現時点までの時間(期間)がカウント(計測)され、CPU62は、タイマ72のタイマ値に従って遅延時間(応答速度)すなわち返事をするまでの時間や返事を止めるまでの時間を変更する。たとえば、タイマ値が大きくなるにつれて、応答速度が速くなるようにし、ユーザの入力に対して次第に同期(シンクロ)するようにすることができる。つまり、この遅延時間によって、上述した音声信号の出力をオン/オフする応答時間が規定される。
【0051】
このようにして、インタラクション状態とセンサの入力との両方によって、ぬいぐるみ12(音楽コミュニケーション装置10)のリアクションすなわち出力する音を生み出している。
【0052】
続いて、インタラクション状態がレベル2の場合には、ぬいぐるみ12(音声コミュニケーション10)は、レベル0における呼吸を和音にそった音高でフィルタをかけて出力する。また、レベル1における音声を音階にそった音高で出力する。そして、返事を次第に同期させて、さらに音楽を想起させる音を出力するとともに、その音のテンポや他の音楽的要素を変更する。
【0053】
具体的には、図4の左欄に示すように、各センサの役割が配置され、各センサからの入力に応じて、CPU62は、全体的なテンポ、音声および呼吸音の各要素を変更する。
【0054】
左腕ベンド40、右腕ベンド42、左脚ベンド44あるいは右脚ベンド46のいずれかから1秒毎の周期で入力があれば、全体のテンポが変更される。つまり、そのような入力が連続するにつれて、テンポが速くなる。つまり、ユーザがぬいぐるみ12の左腕部12g、右腕部12h、左足部12iあるいは右足部12jのいずれか1つあるいは2つの部位を掴んで、1秒周期で動かすと、次第に音声および呼吸音の出力間隔が短くされる。
【0055】
なお、1秒毎に入力があるかどうかは、左腕ベンド40、右腕ベンド42、左脚ベンド44および右腕ベンド46の出力を検出するとともに、タイマ72のタイマ値を検出することによって知ることができる。
【0056】
音声については、上述したように、レベル1の場合とほぼ同じであるため、重複した説明は省略する。つまり、音声の遅延時間は、テンポによって決定される点が、レベル1とは異なる。具体的には、テンポが速ければ、ユーザの表現に対して速く返事をし、テンポが遅ければ、ユーザの表現に対して少し遅れて返事をする。
【0057】
また、呼吸音については、CPU62は、左脚ベンド44および右脚ベンド46からの入力の平均値を算出し、平均値の大きさに応じて呼吸音の音量を調整する。つまり、ユーザがぬいぐるみ12の左脚部12iおよび右脚部12jを掴んで、それぞれが交差するように動かすとき、左脚部12iと右脚部12jとがなす角度の大きさで音量が変更される。つまり、角度が大きければ、音量が大きくされ、角度が小さければ、音量が小さくされる。さらに、左脚部12iおよび右脚部12jを動かす周期が1秒であれば、上述したように、呼吸音の出力間隔が短くされる。
【0058】
また、入力されたセンサの数をカウンタ70でカウントし、CPU62は、カウンタ70のカウント値に応じて音響が調整される。たとえば、閾値となるカウント値を予め設定しておき、カウンタ70のカウント値が設定した閾値を下回っている間はモノラルで呼吸音を出力し、カウンタ70のカウント値が閾値以上になると、ステレオの呼吸音を出力するようにすることができる。
【0059】
さらに、左腕タッチセンサ48および右腕タッチセンサ50の両方から入力があれば、つまりユーザがぬいぐるみ12の両腕を掴むと、CPU62は、ハーモニが構築された呼吸音をスピーカ24から出力する。また、左腕タッチセンサ48および右腕タッチセンサ50の両方から入力がある毎に、つまりユーザがぬいぐるみ12の両腕を掴んだり、離したりする毎に、異なるハーモニを構築することもできる。ただし、頭部近接センサ20から入力があれば、つまりユーザがぬいぐるみ12の両腕を掴んで、ユーザの顔や胴体をぬいぐるみ12の鼻部12cに近づけた場合には、構築されたハーモニが保持(固定)される。
【0060】
また、インタラクション状態がレベル3の場合には、ぬいぐるみ12(音声コミュニケーション装置10)は音楽的な操作を制御する。具体的には、各センサの役割配置は、図4の右欄のように示され、各センサからの入力に応じて、主として音楽的要素(音階、コード、メロディおよびリズムなど)が変更される。
【0061】
ただし、この実施例では、コード(和音)の種類は6種類である。また、音階の種類は、ハ長調、ニ長調、ホ長調、…、変ホ長調、変ト長調の12種類である。さらに、リズムの種類は4種類である。
【0062】
全体としては、CPU62は、いずれかの(任意の)センサからリズミカル(規則的)な入力を検知すると、テンポを変更する。つまり、ユーザがぬいぐるみ12を掴んで、ぬいぐるみ12自体をリズミカルに動かしたり、ぬいぐるみ12の一部の部位をリズミカルに動かしたり、また触ったりすると、全体のテンポが速くなる。ただし、テンポが速くなった後に、不規則な入力があれば、次第にテンポが遅くなる。また、入力がなくなると、テンポが一定の速さに固定(保持)される。
【0063】
ただし、CPU62は、ぬいぐるみ12自体をリズミカルに動かしたことは、ジャイロ28からの入力を検出することによって判断できる。
【0064】
また、左脚ベンド44からの入力があれば、CPU62は、スピーカ24から出力する音の音量を大きくする。一方、右脚ベンド46からの入力があれば、CPU62は、スピーカ24から出力する音の音量を小さくする。つまり、ユーザがぬいぐるみ12の左脚部12iおよび右脚部12jを曲げると、音量が大きくされたり、小さくされたりする。
【0065】
さらに、右腕ベンド42からの入力があれば、CPU62は、スピーカから出力される音のコードを変更する。上述したように、この実施例では、6種類のコードが用意されており、右腕ベンド42からの入力がある毎に、すなわちユーザがぬいぐるみ12の右腕部12hを曲げ延ばししたり、上げ下げしたりする毎に、コードの種類が更新される。
【0066】
このとき、コードは、上述したテンポに応じて更新速度を変更される。具体的には、右腕ベンド42からの入力があると、テンポで規定される速さで、コード(I) からコード(II)に更新される。つまり、テンポが速ければ、右腕ベンド42からの入力があると、すぐにコードの種類が更新されるが、テンポが遅ければ、入力から少し遅れてコードの種類が更新される。
【0067】
なお、テンポが速い場合には、右腕ベンド42からの入力があると、コード(I) からコード(III)のように間のコード(II)を飛ばして更新することもできる。
【0068】
また、右腕部12hを曲げる角度の大きさや右腕部12hを上げる角度の大きさでコードの種類を更新するようにすることもできる。
【0069】
また、頭部タッチセンサ14からの入力がたとえば1秒以上継続すれば、CPU62は、スピーカ24から出力する音のキー(音階)の種類を変更する。上述したように、この実施例では、12種類のキーを用いて、入力がある毎にキーが高くされる。つまり、ユーザがぬいぐるみ12の頭部12aを1秒以上触り続けると、または撫でると、キーがハ長調からニ長調に変更される。そして、頭部12aを触るのを止めると、ニ長調でキーが固定される。さらに、頭部12aを1秒以上触ると、キーがニ長調からホ長調に変更される。
【0070】
ただし、キーが変更される速さは、上述のテンポで規定され、頭部タッチセンサ14から1秒以上の入力があると、テンポが速い場合には、すぐにキーが変更され、テンポが遅い場合には、1秒以上の入力から少し遅れてキーが変更される。
【0071】
なお、テンポが速い場合には、キーがハ長調からホ長調のように間のニ長調を飛ばしてキーを変更することもできる。
【0072】
また、所定のキーが決定されると、音声や呼吸音はそのキーに沿って出力される。つまり、音声や呼吸音がそのキーの音を出力するようにフィルタリングされる。
【0073】
また、音声については、レベル1で示した場合とほぼ同じであるため、重複した説明は省略する。つまり、音高N1の変更が異なる点である。具体的には、レベル3が設定されてから30秒が経過するまでは、左腕タッチセンサ48が有効にされ、左腕タッチセンサ48からの入力があると、CPU62は、音声の音高N1を変更する。つまり、ユーザが左腕部12gを触っている時間が長くなるにつれて、音量が大きくされる。また、レベル3が設定されてから30秒が経過すると、左腕ベンド40が有効にされ、左腕ベンド40からの入力があると、CPU62は、後述するように、メロディ音の音高を変更する。
【0074】
呼吸音については、左腕タッチセンサ48からの入力があると、つまりユーザがぬいぐるみ12の左腕部12gを触ったり、掴んだりすると、CPU62は、呼吸音の音量を変更する。たとえば、左腕タッチセンサ48から継続して入力がある場合に音量を大きくしたり、左腕タッチセンサ48から入力される圧力の大きさが大きくなるにつれて音量を大きくしたりすることができる。逆に、左腕タッチセンサ48から入力される圧力の大きさが小さくなると、音量を小さくすることもできる。
【0075】
また、腹部タッチセンサ26からの入力あるいは左脚ベンド44および右脚ベンド46からの入力があると、CPU62は、呼吸音の音響を変更する。たとえば、ユーザがぬいぐるみ12の腹部を触ったり、撫でたりすると、腹部タッチセンサ26から入力があり、その入力がある毎に、呼吸音をモノラルからステレオにあるいはステレオからモノラルに変更することができる。また、ユーザがぬいぐるみ12の左脚部12iおよび右脚12jを曲げ延ばししたり、上げ下げしたりすると、左脚ベンド44および右脚ベンド46から入力があり、それらの入力の平均値を算出し、平均値が予め設定してある閾値を超えるかどうかでモノラルとステレオとを切り換える(変更する)こともできる。
【0076】
このように、センサの種類に応じた音響の変更を実行することができる。ただし、センサの種類すなわち左脚ベンド44および右脚ベンド46の別に拘わらず音響を変更することもできる。たとえば、腹部タッチセンサ26からの入力に応じて、モノラルからステレオに変更した後に、左脚ベンド44および右脚ベンド46からの入力に応じて、ステレオからモノラルに変更することもできる。逆に、左脚ベンド44および右脚ベンド46からの入力に応じて、モノラルからステレオに変更した後に、腹部タッチセンサ46からの入力に応じて、ステレオからモノラルに変更することもできる。
【0077】
さらに、背部タッチセンサ32からの入力があると、CPU62は、ハーモニを構築する。たとえば、ユーザがぬいぐるみ12の背中を触ったり、摩ったりすると、スピーカ24から出力される音にハーモニが構築される。
【0078】
メロディについては、左腕ベンド40からの入力があると、CPU62は、メロディの音高を変更する。たとえば、ユーザがぬいぐるみ12の左腕部12gを曲げると、メロディ音が高くされ、左腕部12gを延ばすとメロディ音が低くされる。ただし、曲げる角度に応じて連続的に音高は変更される。
【0079】
なお、ユーザが左腕部12gを上げたり下げたりしても、その上げ下げの角度で音高を連続的に変化させることもできる。
【0080】
また、頭部近接センサ20からの入力があると、つまりユーザがぬいぐるみ12にユーザの顔や胴体を近づけると、CPU62は、上述したメロディの音高を固定(保持)される。
【0081】
さらに、右腕タッチセンサ50からの入力があると、CPU62は、メロディ音の音量が変更される。たとえば、ユーザがぬいぐるみ12の右腕部12hを触る毎にメロディ音の音量が大きくされたり、右腕部12hを触る時間が長くなるにつれて、メロディ音の音量が大きくされたりする。
【0082】
ただし、右腕部12hを握る力に応じて音量を上げ下げすることができる。つまり、CPU62は、右腕タッチセンサ50から入力される圧力の大きさを検出し、圧力が大きくなると、音量を上げ、圧力が小さくなると、音量を下げる。
【0083】
さらに、リズムについては、上述の全体についてのテンポと同様に、いずれかのセンサからリズミカルな入力があると、CPU62は、予め用意してある4種類のリズムを変更する。たとえば、ユーザがぬいぐるみ12を触ったり、撫でたり、掴んだり、上げ下げしたりして、任意のセンサからリズミカルな入力があると、音がリズム(I) にそってスピーカ24から出力される。さらに、リズミカルな入力があると、音がリズム(II)にそってスピーカ24から出力される。
【0084】
このようなリズムの変更の速度は、全体のテンポで規定され、テンポが速ければ、リズミカルな入力があると、すぐにリズムが変更されるが、テンポが遅ければ、リズミカルな入力から遅れてリズムが変更される。
【0085】
なお、テンポが速い場合には、リズミカルな入力があると、リズム(I) からリズム(III)のように間のリズム(II)を飛ばして変更することもできる。
【0086】
つまり、インタラクション状態がレベル3の場合には、ユーザの表現に従って、音楽的な要素が操作(制御)され、単なる人の声による返事(音声)や呼吸音から和音のような音に変化され、さらにリズムやメロディに沿った音楽が奏でられるようになる。つまり、ユーザは、ぬいぐるみ12と楽しいコミュニケーションを図ることができる。
【0087】
さらに、インタラクション状態がレベル4では、単純にリズムと和音(もとは呼吸音)の音量バランスを調整し、ぬいぐるみ12(音楽コミュニケーション装置10)が暴走状態(制御不能状態)にされる。つまり、キーやコードがめちゃくちゃ(でたらめ)に変化し、不協和音のような不快な音が出力される。ただし、ユーザがぬいぐるみ12をなだめると、インタラクション状態がレベル3に戻り、制御可能となる。
【0088】
具体的には、図5に示すように、各センサの役割が配置される。なお、図中に×が示されている欄は、制御と無関係であることを示してある。
【0089】
全体については、CPU62は、各センサから入力に拘わらず、予めプログラミングされた所定のアルゴリズムに従ってランダムにキーの種類を変更する。
【0090】
また、呼吸音については、左腕タッチセンサ48からの入力があると、CPU62は、音量を変更する。たとえば、ユーザが左腕部12gを触ると、音量が大きくされる。ただし、レベル4では暴走状態であるため、左腕タッチセンサ48からの入力がない場合に、音量を増大させ、左腕タッチセンサ48からの入力があると、音量を小さくするようにしてもよい。
【0091】
また、上述したキーの種類の変更と同様に、CPU62は、各センサからの入力に拘わらず、予めプログラミングされた所定のアルゴリズムに従ってランダムにハーモニを構築する。たとえば、不協和音のような不快な音を出力することができる。
【0092】
さらに、リズムについては、右腕タッチセンサ50からの入力があると、CPU62は、リズムの音量を大きくする。ただし、レベル4では、暴走状態であるため、右腕タッチセンサ50からの入力がない場合に、リズムの音量を増大させ、右腕タッチセンサ50からの入力があると、リズムの音量を下げるようにすることもできる。
【0093】
ただし、このようにレベル4が設定され、暴走状態(発狂状態)になった場合には、ユーザがぬいぐるみ12をなだめたり、あやしたりすることにより、レベル3に戻すことができる。また、このように暴走状態になった場合には、ぬいぐるみ12を放置しておけば、所定時間(この実施例では、10秒)が経過したときに、初期の状態(レベル0)に戻すこともできる。
【0094】
上述したインタラクション状態のレベルは、ユーザがぬいぐるみ12にどのように接するかによって維持または遷移され、またそれぞれのレベルで決定されるセンサの役割配置でユーザの表現すなわち各センサからの入力に応じた音が出力される。
【0095】
具体的には、図2で示したCPU62は、図6〜図8に示すフロー図に従って処理する。ただし、CPU62は、音楽コミュニケーション装置10の主電源がオンにされると、ROM66のメモリエリア66aに記憶されたプログラムをRAM68のワーキングエリア68aにロードし、メモリエリア66bに記憶されたセンサの役割配置をワーキングエリア68bにロードし、そして、メモリエリア66cに記憶された音声信号に対応するデータをワーキングエリア68cにロードして、以下に示す処理を実行する。
【0096】
図6に示すように、CPU62は処理を開始すると、まず、ステップS1でインタラクション状態をレベル0に設定する。つまり、図3の左欄で示したようなセンサの役割を配置する。次に、ステップS3では、各センサからの入力をチェックする。
【0097】
続いて、ステップS5では、各センサからの入力があるかどうかを判断する。ステップS5で“NO”であれば、つまり入力がなければ、そのままステップS3に戻って、再度入力をチェックする。一方、ステップS5で“YES”であれば、つまり入力があれば、ステップS7で、タッチセンサ(14,22,26,32,48,50,52,54)、カメラ18あるいは頭部近接センサ20からの入力があるかどうかを判断する。ステップS7で“YES”であれば、つまりタッチセンサ、カメラ18あるいは頭部近接センサ20からの入力があれば、ステップS11に進む。
【0098】
ただし、図6では、ステップを省略してあるが、カメラ18あるいは頭部近接センサ20からの入力であれば、呼吸音を一旦停止してからステップS11に進む。
【0099】
一方、ステップS7で“NO”であれば、つまりタッチセンサ、カメラ18あるいは頭部近接センサ20からの入力がなければ、ステップS9では、上述したように、テンポに従った呼吸音の出力処理を実行してからステップS3に戻る。
【0100】
ステップS11では、インタラクション状態をレベル1に設定(遷移)する。つまり、各センサが図3の右欄で示した役割配置にされる。続くステップS13では、各センサからの入力をチェックし、ステップS15で抱き上げられたかどうかを判断する。具体的には、背部近接センサ34あるいは尻部近接センサ36からの入力が停止したかかどうかを判断する。
【0101】
なお、この実施例では、ぬいぐるみ12を座らせたり、仰向けに寝ころばせたりするように置くことを前提としたため、背部近接センサ34あるいは尻部近接センサ36を設けて、それぞれの入力をチェックするようにしているが、うつ伏せにぬいぐるみ12を置く場合も想定して、腹部に近接センサをさらに設けて、その近接センサの入力もチェックするようにしてもよい。
【0102】
ステップS15で“YES”であれば、つまり背部近接センサ34あるいは尻部近接センサ36からの入力が停止すれば、抱き上げられたと判断し、図7に示すステップS25に進む。一方、ステップS15で“NO”であれば、つまり背部近接センサ34あるいは尻部近接センサ36からの入力があれば、抱き上げられていないと判断し、ステップS17に進む。
【0103】
ステップS17では、頭部タッチセンサ14、腹部タッチセンサ26、背部タッチセンサ32、左腕タッチセンサ48、右腕タッチセンサ50、左脚タッチセンサ52および右脚タッチセンサ54からの入力があるかどうかを判断する。ステップS17で“YES”であれば、つまり口部タッチセンサ26を除くタッチセンサのいずれかからの入力があれば、ステップS19でその入力が8秒以上継続するかどうかを判断する。ステップS19で“YES”であれば、つまり入力が8秒以上継続すれば、図7に示すステップS25に進む。一方、ステップS19で“NO”であれば、つまり口部タッチセンサ22を除くタッチセンサからの入力が8秒に満たない場合には、そのままステップS13に戻って、再度入力をチェックする。
【0104】
また、ステップS17において“NO”であれば、つまりタッチセンサからの入力がなければ、ステップS21でタッチセンサ(口部タッチセンサ22の除く)以外のセンサからの入力があるかどうかを判断する。ステップS21で“NO”であれば、つまり口部タッチセンサ22を除くタッチセンサ以外のセンサからの入力がなければ、そのままステップS13に戻る。
【0105】
一方、ステップS21で“YES”であれば、つまり口部タッチセンサ22を除くタッチセンサ以外のセンサからの入力があれば、ステップS23で上述したようなレベル1に対応するセンサの役割に応じた音を出力する処理を実行してから、すなわちユーザの表現に対して返事をしてから、ステップS13に戻る。
【0106】
図7に示すステップS25では、インタラクション状態をレベル2に設定(遷移)する。そして、ステップS27では、各センサからの入力をチェックし、ステップS29でおろされたかどうかを判断する。ステップS29で“YES”であれば、つまり背部近接センサ34あるいは尻部近接センサ36からの入力があり、他のセンサからの入力がなければ、降ろされたと判断し、ステップS31でおろされてから2秒が経過したかどうかを判断する。
【0107】
ステップS31で“NO”であれば、つまりおろされてから2秒が経過してなければ、同じステップS31に戻って、2秒が経過するのを待つ。一方、ステップS31で“YES”であれば、つまりおろされてから2秒が経過すると、図6で示したステップS11に戻って、インタラクション状態をレベル1に設定する。つまり、インタラクション状態のレベルを遷移する。
【0108】
また、ステップS29で“NO”であれば、つまり背部近接センサ34あるいは尻部近接センサ36からの入力がなく、他のセンサからの入力があれば、おろされていないと判断し、ステップS33で入力があるかどうかを判断する。ステップS33で“NO”であれば、つまり入力がなければ、そのままステップS27に戻る。一方、ステップS33で“YES”であれば、つまり入力があれば、ステップS35でリズミカル(規則的)な入力かどうかを判断する。
【0109】
ステップS35で“NO”であれば、つまりリズミカルな入力でなければ、ステップS37で図4の左欄で示したセンサの役割に応じた音を出力してからステップS27に戻る。一方、ステップS35で“YES”であれば、つまりリズミカルな入力であれば、ステップS39でインタラクション状態をレベル3に設定(遷移)し、ステップS41で各センサからの入力をチェックする。
【0110】
続いて、ステップS43では、各センサからの入力があるかどうかを判断する。ステップS43で“NO”であれば、つまり各センサからの入力がなければ、ステップS45で入力がない状態が5秒経過したかどうかを判断する。ステップS45で“NO”であれば、つまり5秒が経過してなければ、そのままステップS43に戻って、各センサからの入力があるかどうかを判断する。一方、ステップS45で“YES”であれば、つまり入力がない状態が5秒経過すれば、ステップS25に戻って、インタラクション状態をレベル2に設定する。つまり、インタラクション状態のレベルを遷移する。
【0111】
一方、ステップS43において“YES”であれば、つまりいずれかのセンサから入力があれば、図8に示すステップS47でインタラクション状態をレベル4に設定するかどうかを判断する。ただし、この実施例では、或る規則(ルール)、確率あるいは乱数によって、インタラクション状態をレベル4にするかどうかを判断する。
【0112】
なお、他のレベル遷移と同様に、所定のセンサからの入力に応じてレベル4に遷移するようにしてもよい。たとえば、ユーザがぬいぐるみ12のいずれかの部位を叩いたり、不規則なリズムでぬいぐるみ12のいずれかの部位を触ったりするような場合に、インタラクション状態がレベル4に設定される。
【0113】
ステップS47で“NO”であれば、つまり図4の右欄で示したような各センサの役割で、音を出力してから図7で示したステップS41に戻って再度入力をチェックする。つまり、インタラクション状態がレベル3の場合には、ユーザの表現に従って、音楽的な要素が操作(制御)され、単なる人の声による返事から和音のような音に変化され、さらにリズムやメロディに沿った音楽が奏でられるようになる。
【0114】
一方、ステップS47で“YES”であれば、つまりインタラクション状態をレベル4にする場合には、ステップS51でインタラクション状態がレベル4に設定(遷移)される。そして、ステップS53で各センサからの入力がチェックをチェックする。続くステップS55では、なだめるあるいはあやす行為かどうかを判断する。たとえば、母親が子供をよしよしと言いながらあやすように、いずれかのセンサからリズミカル(規則的)な入力があるかどうかを判断する。つまり、レベル2からレベル3に遷移する場合と同様の入力があるかどうかを判断している。
【0115】
なお、“よしよし”のように、あやしたり、なだめたりするときの音声に対応する音声データを予め記憶しておき、ユーザの声をたとえばDPマッチング法やHMM法によって音声認識し、“よしよし”などの言葉が連続して入力されるかどうかを判断するようにしてもよい。
【0116】
また、リズミカルな入力と“よしよし”などの言葉の入力との両方に基づいて判断するようにしてもよい。
【0117】
ステップS55で“YES”であれば、つまりリズミカルな入力であれば、なだめるあるいはあやす行為であると判断し、図7で示したステップS39に戻ってインタラクション状態をレベル3に設定する。つまり、インタラクション状態が遷移される。
【0118】
一方、ステップS55で“NO”であれば、つまり不規則な入力であれば、なだめるあるいはあやす行為でないと判断し、ステップS57で放置されたかどうかを判断する。具体的には、背部近接センサ34あるいは尻部近接センサ36からの入力があり、他のセンサからの入力がないかどうかを判断する。 ステップS57で“YES”であれば、つまり放置されれば、ステップS59で放置されてから10秒が経過したかどうかを判断する。ステップS59で“NO”であれば、つまり放置されてから10秒が経過してなければ、同じステップS59に戻って10秒が経過するのを待つ。一方、ステップS59で“YES”であれば、つまり放置されてから10秒が経過すれば、ステップS1に戻ってインタラクション状態をレベル1に設定(遷移)する。つまり、初期の状態に戻る。
【0119】
一方、ステップS57で“NO”であれば、つまり放置されなければ、ステップS61で、図5で示したセンサの役割でユーザの表現に応じた音を出力してからステップS53に戻って、再度センサの入力をチェックする。ただし、制御不能状態であるため、でたらめにコードやキーが変化されるため、不協和音のような不快な音が出力される。
【0120】
この実施例によれば、ユーザの表現に応じてインタラクション状態のレベルが遷移されるとともに、インタラクション状態のレベルで決定されるセンサの役割でセンサの入力に応じた音が出力されるので、遊戯性に優れていると言える。したがって、この音楽コミュニケーション装置を玩具として提供した場合に、幼児等がすぐに飽きてしまうようなことがない。
【0121】
なお、この実施例では、タッチセンサとして圧力センサを用いるようにしたが、触ったかどうかを判断できる接触センサを用いるようにしてもよい。
【0122】
また、この実施例で用いたセンサの種類、個数あるいは役割の配置は単なる例示であり、設計者の意図によって任意に変更することができる。つまり、この実施例によって、限定されるべきではない。
【0123】
さらに、この実施例では、カメラから入力される映像信号の輝度レベルの変化に従って人が近づいたかどうかのみを判断するようにしたが、映像信号を解析することにより、ぬいぐるみ12(音楽コミュニケーション装置10)が置かれている場所の特定や近づいてきた人物を特定できるようにすることもできる。たとえば、図3〜図5で示したような役割配置を複数種類用意しておき、場所や人物を特定することによって、1種類の役割配置を選択するようにできる。また、人物を特定できるようにした場合には、ぬいぐるみ12のユーザ(主人)を特定した場合には、他の人物を特定した場合よりもレベル0からレベル3までの状態遷移を速くし、短時間で楽しいコミュニケーションを図れるようにすることもできる。
【図面の簡単な説明】
【図1】この発明の一実施例を示す図解図である。
【図2】図1実施例に示す音楽コミュニケーション装置の電気的な構成図である。
【図3】図1および図2に示す各センサの役割配置の一例を示す図解図である。
【図4】図1および図2に示す各センサの役割配置の他の一例を示す図解図である。
【図5】図1および図2に示す各センサの役割配置のその他の一例を示す図解図である。
【図6】図2に示すCPUの処理の一部を示すフロー図である。
【図7】図2に示すCPUの処理の他の一部を示すフロー図である。
【図8】図2に示すCPUの処理のその他の一部を示すフロー図である。
【符号の説明】
10 …音楽コミュニケーション装置
12 …ぬいぐるみ
14,22,26,32,48,50,52,54 …タッチセンサ
16 …マイク
18 …カメラ
20,34,36 …近接センサ
24 …スピーカ
30,38 …温度センサ
40,42,44,46 …ベンド
60 …コンピュータ
62 …CPU
66 …ROM
68 …RAM
70 …カウンタ
72 …タイマ

Claims (7)

  1. ユーザの表現を検知する複数のセンサを備え、前記複数のセンサからの入力によって複数の音楽的要素を制御する音楽コミュニケーション装置であって、
    前記複数のセンサの検知結果に応じて決まる複数のインタラクション状態レベルのそれぞれ毎に前記複数の音楽要素に対する各センサの役割を予め設定する役割設定手段を備え、少なくとも1つのセンサの役割が前記インタラクション状態レベルに応じて異なるようにされ、さらに
    前記複数のセンサの検知結果に応じて前記複数のインタラクション状態レベルのいずれかを設定する状態設定手段、および
    前記状態設定手段によって設定されたインタラクション状態レベルでの前記センサの役割に従って前記複数のセンサからの入力に応じて前記音楽的要素が制御された音を出力する出力手段を備える、音楽コミュニケーション装置。
  2. 前記役割設定手段は、前記少なくとも1つのセンサについて、或るインタラクション状態レベルでは前記役割を割り当て、別のシンタラクション状態レベルでは役割を割り当てない、請求項1記載の音楽コミュニケーション装置。
  3. 前記状態設定手段は前記複数のセンサのうち所定のセンサからの入力に応じて前記複数のインタラクション状態レベルの1つを設定する、請求項1または2記載の音楽コミュニケーション装置。
  4. 前記出力手段は、前記検知結果に応じて前記音楽的要素を変更する音変更手段を含む、請求項1ないし3のいずれかに記載の音楽コミュニケーション装置。
  5. 前記音変更手段は、前記検知結果に応じて音階を変更する音階変更手段、前記結検知結果に応じてコードを変更するコード変更手段、前記検知結果に応じてリズムを変更するリズム変更手段、前記検知結果に応じてメロディを変更するメロディ変更手段を少なくとも1つ含む、請求項4記載の音楽コミュニケーション装置。
  6. 前記複数のセンサが所定の部位に配置されるぬいぐるみをさらに備え、
    前記複数のセンサは、前記ぬいぐるみを通して前記表現を検知する、請求項1ないし5のいずれかに記載の音楽コミュニケーション装置。
  7. 前記状態設定手段は、前記複数のセンサのうち所定のセンサからの入力に応じて、前記ぬいぐるみが、抱き上げられたか、おろされたか、なだめられたか若しくはあやされたか、または放置されたかを判断し、その判断に基づいて1つのインタラクション状態レベルを設定する、請求項6記載の音楽コミュニケーション装置。
JP2000332156A 2000-10-31 2000-10-31 音楽コミュニケーション装置 Expired - Fee Related JP3566646B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000332156A JP3566646B2 (ja) 2000-10-31 2000-10-31 音楽コミュニケーション装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000332156A JP3566646B2 (ja) 2000-10-31 2000-10-31 音楽コミュニケーション装置

Publications (2)

Publication Number Publication Date
JP2002140070A JP2002140070A (ja) 2002-05-17
JP3566646B2 true JP3566646B2 (ja) 2004-09-15

Family

ID=18808397

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000332156A Expired - Fee Related JP3566646B2 (ja) 2000-10-31 2000-10-31 音楽コミュニケーション装置

Country Status (1)

Country Link
JP (1) JP3566646B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019160965A1 (en) * 2018-02-15 2019-08-22 Skyrocket LLC dba Skyrocket Toys LLC Interactive pet toy with pliable mounting apparatus
US20200345308A1 (en) * 2019-05-02 2020-11-05 University Of Central Florida Research Foundation Inc. Computer Analysis and Enhanced Visualization of Play Interactions

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3966227B2 (ja) * 2003-05-30 2007-08-29 ヤマハ株式会社 模擬エンジン音発生装置および車両運行システム
US9833698B2 (en) * 2012-09-19 2017-12-05 Disney Enterprises, Inc. Immersive storytelling environment
EP3331625B1 (en) * 2015-08-04 2019-11-13 Quick, Luther Gunther III Dub puppet
JP6176870B2 (ja) 2016-01-05 2017-08-09 株式会社セガ トイズ コーディング玩具、ブロック、ステージ、形象体玩具及びコーディング方法
JP7024754B2 (ja) * 2019-03-25 2022-02-24 カシオ計算機株式会社 制御装置、ロボット、制御方法およびプログラム
CN110124328A (zh) * 2019-05-06 2019-08-16 东莞市长利玩具制品有限公司 一种玩具娃娃

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3077192B2 (ja) * 1990-11-08 2000-08-14 ヤマハ株式会社 演奏環境に対応する電子楽器
JP3332174B2 (ja) * 1993-08-03 2002-10-07 ヤマハ株式会社 楽器用鍵盤装置
JP3579916B2 (ja) * 1994-04-18 2004-10-20 ヤマハ株式会社 自動伴奏装置
JPH0944151A (ja) * 1995-08-01 1997-02-14 Kawai Musical Instr Mfg Co Ltd 電子鍵盤楽器
JP3574264B2 (ja) * 1996-02-29 2004-10-06 株式会社河合楽器製作所 電子楽器
JPH1097244A (ja) * 1996-09-20 1998-04-14 Yamaha Corp 楽音制御装置
JP2000020079A (ja) * 1998-07-06 2000-01-21 Ricoh Co Ltd 音楽再生装置の入力装置
JP3632491B2 (ja) * 1999-03-26 2005-03-23 ヤマハ株式会社 楽音制御装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019160965A1 (en) * 2018-02-15 2019-08-22 Skyrocket LLC dba Skyrocket Toys LLC Interactive pet toy with pliable mounting apparatus
US20200345308A1 (en) * 2019-05-02 2020-11-05 University Of Central Florida Research Foundation Inc. Computer Analysis and Enhanced Visualization of Play Interactions
US11931183B2 (en) * 2019-05-02 2024-03-19 University Of Central Florida Research Foundation, Inc. Computer analysis and enhanced visualization of play interactions

Also Published As

Publication number Publication date
JP2002140070A (ja) 2002-05-17

Similar Documents

Publication Publication Date Title
JP3273550B2 (ja) 自動応答玩具
JP2003288238A (ja) 評価プログラム、その記録媒体、タイミング評価装置、タイミング評価システム
JP2002307354A (ja) 電子玩具
US7637794B2 (en) Breath-sensitive toy
JP3566646B2 (ja) 音楽コミュニケーション装置
JP2013099823A (ja) ロボット装置、ロボット制御方法、ロボット制御プログラム、およびロボットシステム
KR100332966B1 (ko) 음성인식 대화형 인형완구 및 그 제어방법
KR20140047273A (ko) 로봇
Yonezawa et al. Context-aware sensor-doll as a music expression device
TW200929108A (en) Limb interactively learning method and apparatus
JP2004034273A (ja) ロボット発話中の動作プログラム生成装置及びロボット
WO1999032203A1 (en) A standalone interactive toy
US9968862B2 (en) Interactive doll and a method to control the same
KR100883587B1 (ko) 지능형 완구 및 지능형 완구의 제어방법
TWI402784B (zh) Music detection system based on motion detection, its control method, computer program products and computer readable recording media
JP2003305677A (ja) ロボット装置およびロボット制御方法、記録媒体、並びにプログラム
JP2001162058A (ja) 自律移動型セラピー機器
JP3819281B2 (ja) 音楽コミュニケーションシステム
JP2003340760A (ja) ロボット装置およびロボット制御方法、記録媒体、並びにプログラム
JP4760824B2 (ja) 揺動型運動装置とこの装置用アダプタ
JPS6247387A (ja) 人形
Burlingham et al. The re-education of a retarded blind child
JP2017062296A (ja) 演奏技術描画評価システム
JP2003181784A (ja) 自動応答ロボット
JP2006212451A (ja) 仮想ペット装置及びその制御プログラム記録媒体

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20040220

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040302

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040427

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040608

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040610

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080618

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090618

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100618

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110618

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110618

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120618

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120618

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130618

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees