JP2005040440A - Sound reproducing device and control method - Google Patents

Sound reproducing device and control method Download PDF

Info

Publication number
JP2005040440A
JP2005040440A JP2003279348A JP2003279348A JP2005040440A JP 2005040440 A JP2005040440 A JP 2005040440A JP 2003279348 A JP2003279348 A JP 2003279348A JP 2003279348 A JP2003279348 A JP 2003279348A JP 2005040440 A JP2005040440 A JP 2005040440A
Authority
JP
Japan
Prior art keywords
user
sound
emotion
state
biological information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003279348A
Other languages
Japanese (ja)
Inventor
Kenichi Makino
堅一 牧野
Yoichiro Sako
曜一郎 佐古
Toshiro Terauchi
俊郎 寺内
Makoto Inoue
真 井上
Katsuya Shirai
克弥 白井
Yasushi Miyajima
靖 宮島
Motoyuki Takai
基行 高井
Akiko Inoue
亜紀子 井上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2003279348A priority Critical patent/JP2005040440A/en
Publication of JP2005040440A publication Critical patent/JP2005040440A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a sound reproducing device and its control method for the purpose of relaxation providing a heeling effect as well as a relaxing effect by predicting the state of a feeling, a mood, or the like of a user to present sound suitable for the user's state. <P>SOLUTION: This sound reproducing device predicts the user's emotion based on information taken in from a biological information sensor 2 for measuring biological information on the user, and reproduces sound corresponding to the emotion. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、リラクセーションを目的とした音響再生装置及びその制御方法に関し、特に使用者の感情や気分などの状態を予測して、使用者にリラックス効果や癒しの効果を与える技術に関する。   The present invention relates to a sound reproducing device for relaxation and a control method thereof, and more particularly to a technique for predicting a user's feelings and moods to give a user a relaxing effect and a healing effect.

従来、リラクセーションを目的とした音楽用コンパクトディスクや、安眠を目的として、脳波などに応じた音声を発生させるものなどがある。これらの手段では、使用者の状態に関係なく音を発生させていたが、この課題を解決するものとして、生体情報を基に音響を再生することで、相互作用的な音響提示を行うものが考案されている。   Conventionally, there are compact discs for music for relaxation, and those that generate sound according to brain waves for the purpose of sleep. In these means, sound is generated regardless of the state of the user, but as a solution to this problem, there is one that performs interactive sound presentation by reproducing sound based on biological information. It has been devised.

特許文献1には、上述した使用者の生体情報を音響にフィードバックさせることにより、相互作用的な音響提示手段を実現した音響再生装置について開示されている。
特開平5−176999号公報
Patent Document 1 discloses a sound reproducing apparatus that realizes interactive sound presentation means by feeding back the above-described user's biological information to sound.
JP-A-5-176999

しかし、上述した従来の音響再生装置では、使用者の生体情報として体動などの情報を取り込み、単にその計測値に対応した効果音を決定し再生するため、使用者の感情や気分を反映し難いという問題があった。   However, in the above-described conventional sound reproducing device, information such as body movement is captured as the user's biological information, and a sound effect corresponding to the measured value is simply determined and reproduced, so that the emotion and mood of the user are reflected. There was a problem that it was difficult.

本発明の目的は、使用者の感情や気分などの状態を予測することにより、使用者の状態により適した音響を提示することである。更に、使用者の状態に適した音響を提示することにより、リラックス効果だけでなく、癒しの効果を与えることである。   An object of the present invention is to present a sound more suitable for a user's state by predicting a state such as the user's emotion and mood. Furthermore, by presenting sound suitable for the user's condition, not only a relaxing effect but also a healing effect is provided.

本発明は、使用者の生体情報を計測する生体情報センサから取り込まれた情報に基づいて、使用者の情動を予測して、その情動に対応した音響を再生する。   The present invention predicts a user's emotion based on information captured from a biological information sensor that measures the user's biological information, and reproduces sound corresponding to the emotion.

このようにしたことで、使用者に対してリラックス効果とともに癒しの効果を与えることができるようになる。   By doing in this way, it becomes possible to give a healing effect to the user as well as a relaxing effect.

本発明によると、使用者の情動を推定して、それに対応する効果音を再生することにより、リラックス効果だけでなく、癒しの効果も期待できる。また、抱き枕などの移動可能な形状に構成することで、使用場所が限定されることなく、いつでもどこでも使用することができる。   According to the present invention, it is possible to expect not only a relaxing effect but also a healing effect by estimating a user's emotion and reproducing a sound effect corresponding to the emotion. Moreover, by using a movable shape such as a body pillow, the place of use is not limited and can be used anytime and anywhere.

以下、本発明の一実施の形態を、音源を内蔵した抱き枕を例にして、図1〜図5を参照して説明する。   Hereinafter, an embodiment of the present invention will be described with reference to FIGS. 1 to 5, taking a body pillow incorporating a sound source as an example.

図1は、抱き枕本体の内部を示した説明図である。抱き枕1の本体は、使用者が抱きかかえることが可能な大きさであれば、形状は特に問わない。ただし、材質は適度な柔軟性があり、抱き心地のよいものが望ましい。抱き枕1の内部には、使用者の生体情報を計測するための生体情報センサ2と、音響を提示するスピーカ3と、生体情報センサ2からの計測値に基づいて使用者への音響提示内容を決定し、スピーカ3へ出力する制御装置4を備える。   FIG. 1 is an explanatory view showing the inside of a body pillow body. The shape of the body of the body pillow 1 is not particularly limited as long as it can be held by the user. However, it is desirable that the material has an appropriate flexibility and is comfortable to hold. Inside the dakimakura 1, a biometric information sensor 2 for measuring the biometric information of the user, a speaker 3 for presenting sound, and sound presentation contents to the user based on measurement values from the biometric information sensor 2 And a control device 4 that outputs to the speaker 3.

生体情報センサ2は、圧力センサ、赤外線センサ、マイクなどであり、使用者の感情状態(情動)を判断できるものであればよい。これらのセンサは、より感度良くデータ取得できるよう、使用者に近接した抱き枕の本体外縁部に配置されている。更に、センサをマトリクス状に複数個取り付けることにより、使用者の姿勢によらずデータが取得可能であり、また使用者の姿勢そのものも推定可能なようにしておく。   The biological information sensor 2 is a pressure sensor, an infrared sensor, a microphone, or the like, as long as it can determine the emotional state (emotion) of the user. These sensors are arranged on the outer edge of the body of the body pillow close to the user so that data can be acquired with higher sensitivity. Furthermore, by attaching a plurality of sensors in a matrix, data can be acquired regardless of the posture of the user, and the posture of the user itself can be estimated.

図2に、制御装置4の構成例を示すブロック図を示す。制御装置4には、CPU(Central Processing Unit)11が備えられ、本装置の各機器の制御を行う。生体情報センサ2としては、赤外線センサ21や、圧力センサ22や、マイク23が抱き枕1の本体外縁部に配置されており、それらのセンサからの情報をA/D(アナログ/デジタル)変換器12−1,12−2,12−3を介してCPU11へ取り込む。音響データ再生回路13は、CPU11からの指示に従って音響データROM14に記録されている音響データから所定のデータを取り出し、再生するように構成されている。音響データ再生回路13によって再生された音響データは、D/A(デジタル/アナログ)変換器15によりデジタルからアナログに変換され、アンプ(増幅器)16を介してスピーカ3から提供される。CPU11には、処理内容を記述したプログラムを保存するROM(Read Only Memory)17と、プログラムの処理に必要なデータを保存するRAM(Random Access Memory)18が接続され、それらをもとに処理を行う。   FIG. 2 is a block diagram illustrating a configuration example of the control device 4. The control device 4 includes a CPU (Central Processing Unit) 11 and controls each device of the present device. As the biological information sensor 2, an infrared sensor 21, a pressure sensor 22, and a microphone 23 are disposed on the outer edge of the body of the body pillow 1, and information from these sensors is converted into an A / D (analog / digital) converter. The data is taken into the CPU 11 via 12-1, 12-2, 12-3. The acoustic data reproduction circuit 13 is configured to take out predetermined data from the acoustic data recorded in the acoustic data ROM 14 and reproduce it in accordance with an instruction from the CPU 11. The acoustic data reproduced by the acoustic data reproducing circuit 13 is converted from digital to analog by a D / A (digital / analog) converter 15 and provided from the speaker 3 via an amplifier (amplifier) 16. Connected to the CPU 11 are a ROM (Read Only Memory) 17 for storing a program describing processing contents and a RAM (Random Access Memory) 18 for storing data necessary for processing the program. Do.

次に、使用者の感情状態を推定する処理例について説明する。使用者は、抱き枕を抱えた状態で使用するため、抱き枕1の本体外縁部に配置された生体情報センサ2で計測された情報から、使用者の感情状態を推定することができる。   Next, a processing example for estimating the emotional state of the user will be described. Since the user uses the body while holding the body pillow, the emotional state of the user can be estimated from the information measured by the biological information sensor 2 disposed on the outer edge of the body of the body pillow 1.

まず、圧力センサ22により計測された情報から使用者の生体状態を推定する処理について図3を参照して説明する。計測された圧力センサの応答信号は、バンドパスフィルタ(BPF)によって周波数成分に応じて帯域分割される。分割された成分のうち、DC成分は使用者の姿勢や体動を推定するために用いる。即ち、圧力の静的な分布と、数十秒単位の比較的長期の時間的な変化を検出することにより、使用者が抱き枕本体を抱える強度や使用者の姿勢の変化を推定する。静的な圧力が強い場合は、使用者が抱き枕を強く抱えていて、時間的な変化が大きい場合は、使用者が頻繁に動いていると考えられる。また、0.5Hz未満程度のなだらかな周期成分を用いて、使用者の呼吸の周期を推定できる。同様に、0.5〜2Hz程度の周期成分により、使用者の脈拍を推定できる。また、呼吸や脈拍の成分が強く現れる圧力センサの位置を特定することにより、胸部や腹部の位置を同定することができるため、その位置の変化を検出することで、使用者の姿勢の推定に用いることもできる。   First, a process for estimating a user's biological state from information measured by the pressure sensor 22 will be described with reference to FIG. The measured response signal of the pressure sensor is band-divided according to the frequency component by a band pass filter (BPF). Of the divided components, the DC component is used to estimate the posture and body movement of the user. That is, by detecting a static pressure distribution and a relatively long-term temporal change of several tens of seconds, a change in strength of the user holding the body of the pillow and a change in the posture of the user is estimated. If the static pressure is strong, the user is holding the dakimakura strongly, and if the temporal change is large, the user is considered to move frequently. Moreover, the period of the user's breathing can be estimated using a gentle periodic component of less than about 0.5 Hz. Similarly, a user's pulse can be estimated by a periodic component of about 0.5 to 2 Hz. In addition, the position of the chest and abdomen can be identified by specifying the position of the pressure sensor where the respiratory and pulse components appear strongly, so by detecting the change in the position, the posture of the user can be estimated. It can also be used.

マイク23では、使用者の声を検出する他に、呼吸における息づかいを検出することができる。マイクで検出される使用者の音声について、音韻及び韻律の周波数パターンを解析することにより、使用者の気分の快、不快を推定することができる。また、マイク23で検出された息づかいの情報と、圧力センサ22で検出された呼吸の周期とを組み合わせることにより、呼吸の推定精度を向上させることができる。また、赤外線センサ21は、使用者が抱き枕1を抱えているかの判断に用いられる。   In addition to detecting the user's voice, the microphone 23 can detect breathing in breathing. By analyzing the phoneme and prosodic frequency patterns of the user's voice detected by the microphone, it is possible to estimate the comfort and discomfort of the user. Further, by combining the breathing information detected by the microphone 23 and the breathing cycle detected by the pressure sensor 22, the respiration estimation accuracy can be improved. The infrared sensor 21 is used to determine whether the user is holding the pillow 1.

次に、生体情報センサ2の計測値から推定された使用者の生体状態から、使用者の感情や気分などの状態(情動)を推定する処理例について説明する。本例では、使用者のある時刻Tにおける状態として、緊張度をS(T)、快感度をS(T)で表し、使用者の安静平時の状態を0とする数値で表す。緊張度S(T)は、呼吸周期及び脈拍周期が安静平時より長く、時間的な変化率が小さいときは弛緩(S(T)<0)、安静平時より短く、時間的な変化が大きい時は緊張(S(T)>0)のように推定する。快感度S(T)は、使用者の発生する声のトーンが低いときは不快(S(T)<0)、高いときは快(S(T)>0)のように推定する。また、笑い声が検出されれば(S(T)>0)、ため息が検出されれば(S(T)<0)と推定することもでき、これらを組み合わせて判断することもできる。 Next, a processing example for estimating a state (emotion) such as a user's emotion and mood from the user's biological state estimated from the measurement value of the biological information sensor 2 will be described. In this example, as the state at a certain time T of the user, the degree of tension is represented by S t (T), the pleasantness is represented by S f (T), and the state of the user at rest is represented by numerical values. The degree of tension S t (T) is longer when the respiratory cycle and the pulse cycle are longer than at rest, and when the rate of change with time is small, it is relaxed (S t (T) <0), shorter than at rest, and changes with time. When it is large, it is estimated as tension (S t (T)> 0). The pleasant sensitivity S f (T) is estimated as unpleasant (S f (T) <0) when the tone of the voice generated by the user is low, and pleasant (S f (T)> 0) when the tone is high. . Further, if a laughing voice is detected (S f (T)> 0), if a sigh is detected, it can be estimated as (S f (T) <0), and these can also be determined in combination.

図4に緊張度、快感度から使用者の情動を推定するための一例を示す。緊張度と快感度にはそれぞれ閾値を設け、プラス側の閾値をS+、S+、マイナス側の閾値をS−、S−とする。ここで、緊張度S(T)がS+より大きく、かつ快感度S(T)がS+より大きい場合は、「喜び」の状態にあると推定する。同様に、緊張度S(T)がS−より小さく、かつ快感度S(T)がS+より大きい場合は、「安らぎ」の状態、緊張度S(T)がS+より大きく、かつ快感度S(T)がS−より小さい場合は、「怒り」の状態、緊張度S(T)がS−より小さく、かつ快感度S(T)がS−より小さい場合は、「悲しみ」の状態と推定する。 FIG. 4 shows an example for estimating the user's emotion from the degree of tension and pleasure. Each of the tone and pleasure of providing a threshold value, S t + a threshold on the positive side, S f +, the threshold on the negative side S t -, S f - to. Here, when the degree of tension S t (T) is larger than S t + and the pleasantness sensitivity S f (T) is larger than S f +, it is estimated that the state is “joy”. Similarly, when the degree of tension S t (T) is smaller than S t − and the sensitivity S f (T) is larger than S f +, the state of “comfort” and the degree of tension S t (T) are St. If it is larger than + and the pleasure sensitivity S f (T) is smaller than S f −, the state of “anger”, the tension S t (T) is smaller than St − and the pleasure sensitivity S f (T) is smaller. If it is smaller than S f −, it is estimated that the state is “sad”.

なお、本実施の形態では、図4のように各閾値の中間の領域(図4の斜線を施していない領域)は、特に情動状態の区分をしていない。この領域に含まれた場合は、安静平時の状態あるいは一時的な誤判定がなされたものとして特に使用者の情動を判定しないようにしている。もちろん、これに限らず、プラス側、マイナス側の閾値を図4の原点近くに設定して、常にいずれかの情動区分に分類されるようにしてもよい。   In the present embodiment, as shown in FIG. 4, the middle region of each threshold (the region not shaded in FIG. 4) is not particularly divided into emotional states. If it is included in this area, the emotion of the user is not particularly determined as a resting state or a temporary misjudgment. Of course, the present invention is not limited to this, and the positive and negative thresholds may be set near the origin in FIG.

図5は、本実施の形態による制御装置4の主にCPU11で行う処理に関するフローチャートである。図5を参照しながら、制御装置4の動作例について説明する。ここで、使用者が抱き枕本体を抱えた状態における、使用者の動きの強度をM(T)、動きの頻度をM(T)とし、それぞれの平時の値を0とする。これらは、圧力センサ22の計測結果を基に数値化し、静的な圧力が強い場合はM(T)>0、時間的な変化の頻度が多い場合はM(T)>0のように推定する。 FIG. 5 is a flowchart relating to processing performed mainly by the CPU 11 of the control device 4 according to the present embodiment. An example of the operation of the control device 4 will be described with reference to FIG. Here, in a state where the user holds the body of the body pillow, the intensity of the user's movement is M v (T), the frequency of the movement is M i (T), and each normal value is 0. These are quantified based on the measurement result of the pressure sensor 22, and M v (T)> 0 when the static pressure is strong, and M i (T)> 0 when the frequency of change with time is high. To estimate.

まず、本装置が起動されると、タイマ(T)を0クリアする(ステップ101)。そして、使用者が抱き枕本体を抱えているかを判定する(ステップ102)。本体を抱えているかどうかは、例えば赤外線センサ21により、体温程度の温度を検出した場合は抱えているとか、圧力センサ22により静的な圧力を一定値以上検出した場合は、抱えているなどの方法により判断できる。ステップ102により、使用者が本体を抱えている場合は、処理を行い、抱えていない場合は、処理を終了する。   First, when this apparatus is activated, the timer (T) is cleared to 0 (step 101). Then, it is determined whether the user holds the body of the body pillow (step 102). Whether the body is held, for example, when the temperature is detected by the infrared sensor 21, or when the static pressure is detected by the pressure sensor 22 above a certain value, the body is held. It can be judged by the method. In step 102, if the user holds the main body, the process is performed, and if not, the process ends.

次に、使用者が睡眠中かどうかを判定する。睡眠中か否かを判定する処理の一例として、使用者の体動により判定する場合について説明する。使用者の動きの強度M(T)と、動きの頻度M(T)を用いて、それぞれのプラス側の閾値をM+、M+とし、マイナス側の閾値をM−、M−とする。まず、使用者の動きの強度がM−より小さく、かつ頻度がM−より少ないかを判定し(ステップ103)、小さい場合は、睡眠中ではないが、静かにしていると判断する。ステップ103において、静かでないと判断された場合は、使用者の動きの強度がM+より大きく、かつ頻度がM+より多いかを判定し(ステップ104)、大きい場合は、起きてよく動いており、抱き枕に対して積極的な働きかけをしていると判断する。ステップ104において、動いていないと判断された場合は、睡眠中と判定し、タイマ(T)をカウントアップして(ステップ105)、再度処理を繰り返す。なお、ここでは、睡眠中か否かの判定を使用者の体動により判定する場合について説明したが、体動の他にマイク23から検出される呼吸の状態により判定する方法や、体動と呼吸の状態を組み合わせて判定する方法などがある。 Next, it is determined whether the user is sleeping. As an example of processing for determining whether or not the user is sleeping, a case where determination is made based on the user's body movement will be described. Using the user's motion intensity M v (T) and the motion frequency M i (T), the positive thresholds are M v + and M i +, and the negative thresholds are M v −, Let M i −. First, it is determined whether the intensity of the user's movement is less than M v − and the frequency is less than M i − (step 103). If it is smaller, it is determined that the user is not sleeping but is quiet. If it is determined in step 103 that the user is not quiet, it is determined whether the strength of the user's movement is greater than M v + and the frequency is greater than M i + (step 104). It is determined that it is moving and is actively working on the body pillow. If it is determined in step 104 that it is not moving, it is determined that the user is sleeping, the timer (T) is counted up (step 105), and the process is repeated again. In addition, although the case where the determination whether it was during sleep was determined by the user's body movement was described here, a method for determining by the state of breathing detected from the microphone 23 in addition to the body movement, There is a method of determining by combining respiratory states.

このように判定した結果、睡眠中は音によるフィードバックは行わないが、それ以外の場合は、使用者の情動を推定し、その情動に応じたフィードバックを行う。情動の推定は、前記図4にて説明した方法で行うものとする。ステップ103にて静かにしていると判断された場合は、まず、使用者が「悲しみ」の状態にあるかを判定する(ステップ106)。その結果、「悲しみ」の状態であると判定された場合は、「励まし」の効果音を音響データROM14から抽出し、音響データ再生回路13にて再生する(ステップ107)。ステップ106にて「悲しみ」の状態でないと判定された場合は、使用者が「安らぎ」の状態であるかを判定し(ステップ108)、「安らぎ」の状態の場合は、「眠り」の効果音を再生する(ステップ109)。同様に、「安らぎ」の状態でない場合は、「怒り」の状態であるかを判定し(ステップ110)、「怒り」の状態の場合は、「なだめ」の効果音を再生する(ステップ111)。最後に、「喜び」の状態であるかを判定し(ステップ112)、「喜び」の状態の場合は、「喜び」の効果音を再生する(ステップ113)。   As a result of the determination as described above, feedback by sound is not performed during sleep. In other cases, the emotion of the user is estimated and feedback according to the emotion is performed. It is assumed that the emotion is estimated by the method described with reference to FIG. If it is determined in step 103 that the user is quiet, it is first determined whether the user is in a “sad” state (step 106). As a result, when it is determined that the state is “sad”, the sound effect of “encouragement” is extracted from the acoustic data ROM 14 and reproduced by the acoustic data reproduction circuit 13 (step 107). If it is determined in step 106 that the user is not in a “sadness” state, it is determined whether the user is in a “comfort” state (step 108). If the user is in a “comfort” state, the effect of “sleeping” is determined. A sound is reproduced (step 109). Similarly, if it is not in the “comfort” state, it is determined whether it is in the “anger” state (step 110), and if it is in the “anger” state, the sound effect of “sore” is reproduced (step 111). . Finally, it is determined whether or not the state is “joy” (step 112). If the state is “joy”, the sound effect of “joy” is reproduced (step 113).

このように、使用者の情動に応じた効果音を再生した後、タイマ(T)をカウントアップし(ステップ114)、効果音の効果を判定する(ステップ115)。効果の判定は、例えば快感度で行い、現在時刻Tの快感度S(T)と、その直前の時刻の快感度S(T−1)とを比較し、快感度S(T)がS(T−1)より大きい場合は、効果ありと判定する。効果がある場合は、同じ効果音を再生して再度タイマをカウントアップし、効果の判定を繰り返す。ステップ115において、効果なしと判定された場合は、再度最初から処理を行う。なお、ステップ112にて「喜び」の状態でなかった場合は、使用者の情動が不定であるため、音によるフィードバックは行わず、タイマ(T)をカウントアップして(ステップ105)、再度処理を繰り返す。 Thus, after reproducing the sound effect according to the emotion of the user, the timer (T) is counted up (step 114), and the effect of the sound effect is determined (step 115). Determination of effect is carried out, for example pleasure degree, the current time T of the pleasure of S f (T), and compares the time immediately before the pleasure of S f (T-1), pleasure of S f (T) Is greater than S f (T−1), it is determined that there is an effect. If there is an effect, the same sound effect is played, the timer is counted up again, and the effect determination is repeated. If it is determined in step 115 that there is no effect, the process is performed again from the beginning. If the state is not “joy” in step 112, the emotion of the user is indefinite, so no feedback is made by sound, the timer (T) is counted up (step 105), and the process is performed again. repeat.

以上説明したのと同様に、ステップ104においてよく動いていると判定された場合は、使用者が「喜び」の状態にあるかを判定する(ステップ116)。その結果、「喜び」の状態であると判定された場合は、アップテンポの音楽を音響データROM14から抽出し、音響データ再生回路13にて再生する(ステップ117)。ステップ116にて「喜び」の状態でないと判定された場合は、使用者が「悲しみ」の状態であるかを判定し(ステップ118)、「悲しみ」の状態の場合は、スローテンポな音楽を再生する(ステップ119)。   As described above, if it is determined in step 104 that the user is moving well, it is determined whether the user is in a “joy” state (step 116). As a result, if it is determined that the state is “joy”, uptempo music is extracted from the acoustic data ROM 14 and reproduced by the acoustic data reproduction circuit 13 (step 117). If it is determined in step 116 that the user is not in a “joy” state, it is determined whether the user is in a “sadness” state (step 118). If the user is in a “sadness” state, slow-tempo music is played. Playback is performed (step 119).

このように、使用者の情動に応じた音楽を再生した後、タイマ(T)をカウントアップし(ステップ120)、その効果を判定する(ステップ121)。効果の判定は、ステップ115と同様に快感度で行い、現在時刻Tの快感度S(T)が、その直前の時刻の快感度S(T−1)より大きい場合は、効果ありと判定する。効果がある場合は、同じ効果音を再生して再度タイマをカウントアップし、効果の判定を繰り返す。ステップ121において、効果なしと判定された場合は、再度最初から処理を行う。なお、ステップ118にて「悲しみ」の状態でなかった場合は、音によるフィードバックは行わず、タイマ(T)をカウントアップして(ステップ105)、再度処理を繰り返す。 As described above, after the music corresponding to the emotion of the user is reproduced, the timer (T) is counted up (step 120), and the effect is determined (step 121). The determination of the effect is performed with the same sensitivity as in step 115. If the sensitivity S f (T) at the current time T is greater than the sensitivity S f (T-1) at the time immediately before, the effect is determined. judge. If there is an effect, the same sound effect is reproduced, the timer is counted up again, and the effect determination is repeated. If it is determined in step 121 that there is no effect, the process is performed again from the beginning. If it is not in the “sadness” state in step 118, the feedback by sound is not performed, the timer (T) is counted up (step 105), and the process is repeated again.

なお、ステップ104にてよく動いていると判定された場合の処理として、「喜び」と「悲しみ」の状態に対応する音楽の再生について説明したが、ステップ108と同様に「安らぎ」の状態かを判定し、それに対応する音楽を再生する処理と、ステップ110と同様に「怒り」の状態かを判定し、それに対応する音楽を再生する処理を追加してもよい。   In addition, as a process in the case where it is determined that it is moving well in step 104, the music reproduction corresponding to the “joy” and “sadness” states has been described. And a process for reproducing the music corresponding thereto, and a process for judging whether the state is “angry” as in step 110 and reproducing the music corresponding thereto.

ここでは、使用者の情動を「喜び」、「安らぎ」、「怒り」、「悲しみ」に分類して説明したが、使用者の情動の種類については、生体情報センサ2の計測値によって判定できるものであれば、これ以外でもよい。また、それぞれの状態に応じた効果音を「喜び」、「眠り」、「なだめ」、「励まし」やアップテンポの音楽、スローテンポの音楽として説明したが、例えば、「喜び」の状態に対して「なだめ」の効果音とし、「悲しみ」の状態に対して「悲しみ」の効果音としてもよい。更に、効果音は、音楽や人間の声、動物の鳴き声、波や風の音などの環境音でもよい。   Here, the user's emotion has been classified and described as “joy”, “relaxation”, “anger”, and “sadness”, but the type of user emotion can be determined by the measurement value of the biological information sensor 2. Anything other than this may be used. In addition, the sound effects corresponding to each state have been described as “joy”, “sleep”, “nod”, “encouragement”, up-tempo music, and slow-tempo music. It is also possible to use “sadness” sound effects and “sadness” sound effects for the “sadness” state. Furthermore, the sound effects may be environmental sounds such as music, human voices, animal calls, waves and wind sounds.

また、上述した実施の形態では、抱き枕を例に説明したが、使用者が抱きかかえられる形状のものであれば、クッションやぬいぐるみなどでもよい。   Further, in the embodiment described above, the dakimakura has been described as an example, but a cushion, a stuffed toy, or the like may be used as long as the user can hold the pillow.

本発明の一実施の形態による抱き枕の本体内部の例を示す説明図である。It is explanatory drawing which shows the example inside the main body of the body pillow by one embodiment of this invention. 本発明の一実施の形態による音響再生装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the sound reproduction apparatus by one embodiment of this invention. 本発明の一実施の形態による圧力センサの応答信号の分離例を示す説明図である。It is explanatory drawing which shows the example of isolation | separation of the response signal of the pressure sensor by one embodiment of this invention. 本発明の一実施の形態による情動の判定例を示すグラフである。It is a graph which shows the example of determination of the emotion by one embodiment of this invention. 本発明の一実施の形態による音響再生装置の処理例を示すフローチャートである。It is a flowchart which shows the process example of the sound reproduction apparatus by one embodiment of this invention.

符号の説明Explanation of symbols

1…抱き枕、2…生体情報センサ、3…スピーカ、4…制御装置、11…CPU、12−1,12−2,12−3…A/D変換器、13…音響データ再生回路、14…音響データROM、15…D/A変換器、16…アンプ、17…ROM、18…RAM、21…赤外線センサ、22…圧力センサ、23…マイク  DESCRIPTION OF SYMBOLS 1 ... Dakimakura, 2 ... Biometric information sensor, 3 ... Speaker, 4 ... Control apparatus, 11 ... CPU, 12-1, 12-2, 12-3 ... A / D converter, 13 ... Acoustic data reproduction circuit, 14 ... Acoustic data ROM, 15 ... D / A converter, 16 ... amplifier, 17 ... ROM, 18 ... RAM, 21 ... infrared sensor, 22 ... pressure sensor, 23 ... microphone

Claims (4)

生体情報を計測する生体情報センサと、
音を再生するスピーカと、
前記生体情報センサからの計測情報を基に、使用者の情動を推定し、その情動に対応した効果音を選択し、音響データ再生回路によって再生する制御手段とを備えた
音響再生装置。
A biological information sensor for measuring biological information;
A speaker for playing sound,
A sound reproduction apparatus comprising: a control unit that estimates a user's emotion based on measurement information from the biological information sensor, selects a sound effect corresponding to the emotion, and reproduces the sound using a sound data reproduction circuit.
請求項1記載の音響再生装置において、
前記生体情報センサと、前記スピーカと、前記制御手段とを内蔵し、
前記生体情報センサを、本体外縁部に配置したことを特徴とする
音響再生装置。
The sound reproducing device according to claim 1,
Built-in the biological information sensor, the speaker, and the control means,
The sound reproducing apparatus, wherein the biological information sensor is disposed on an outer edge of the main body.
請求項2記載の音響再生装置において、
前記生体情報センサと、前記スピーカと、前記制御手段とを枕の内部に配置したことを特徴とする
音響再生装置。
The sound reproducing device according to claim 2,
The sound reproducing apparatus, wherein the biological information sensor, the speaker, and the control means are arranged inside a pillow.
使用者が睡眠中でないかを判定するステップと、
前記生体情報センサからの計測情報を基に使用者の情動を推定する情動推定ステップと、
推定した情動に対応した効果音を選択し、再生するステップとを有する
制御方法。
Determining whether the user is sleeping; and
An emotion estimation step for estimating a user's emotion based on measurement information from the biological information sensor;
And a step of selecting and reproducing a sound effect corresponding to the estimated emotion.
JP2003279348A 2003-07-24 2003-07-24 Sound reproducing device and control method Pending JP2005040440A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003279348A JP2005040440A (en) 2003-07-24 2003-07-24 Sound reproducing device and control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003279348A JP2005040440A (en) 2003-07-24 2003-07-24 Sound reproducing device and control method

Publications (1)

Publication Number Publication Date
JP2005040440A true JP2005040440A (en) 2005-02-17

Family

ID=34265480

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003279348A Pending JP2005040440A (en) 2003-07-24 2003-07-24 Sound reproducing device and control method

Country Status (1)

Country Link
JP (1) JP2005040440A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008108315A (en) * 2006-10-24 2008-05-08 Pioneer Electronic Corp Information reproducing device and information reproducing method or the like
JP5225495B1 (en) * 2012-10-02 2013-07-03 ケイ・アンド・アイ有限会社 Body pillow
JP2014502188A (en) * 2010-11-23 2014-01-30 コーニンクレッカ フィリップス エヌ ヴェ Respiratory pacing apparatus and method for pacing patient respiratory activity
WO2014061789A1 (en) * 2012-10-18 2014-04-24 ケイ・アンド・アイ有限会社 Huggable pillow
EP2805674A1 (en) * 2013-05-23 2014-11-26 Yamaha Corporation Sound generator device and sound generation method
JP2016171825A (en) * 2015-03-16 2016-09-29 株式会社国際電気通信基礎技術研究所 Sleep management device, sleep management program, sleep management method and sleep management system
WO2018061346A1 (en) * 2016-09-27 2018-04-05 ソニー株式会社 Information processing device
WO2018198708A1 (en) * 2017-04-26 2018-11-01 京セラ株式会社 Holding instrument, measurement device, and measurement method

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008108315A (en) * 2006-10-24 2008-05-08 Pioneer Electronic Corp Information reproducing device and information reproducing method or the like
JP2014502188A (en) * 2010-11-23 2014-01-30 コーニンクレッカ フィリップス エヌ ヴェ Respiratory pacing apparatus and method for pacing patient respiratory activity
US10004454B2 (en) 2010-11-23 2018-06-26 Koninklijke Philips N.V. Breath pacing device and method for packing the respiratory activity of a subject
JP5225495B1 (en) * 2012-10-02 2013-07-03 ケイ・アンド・アイ有限会社 Body pillow
WO2014061789A1 (en) * 2012-10-18 2014-04-24 ケイ・アンド・アイ有限会社 Huggable pillow
EP2805674A1 (en) * 2013-05-23 2014-11-26 Yamaha Corporation Sound generator device and sound generation method
US9978358B2 (en) 2013-05-23 2018-05-22 Yamaha Corporation Sound generator device and sound generation method
JP2016171825A (en) * 2015-03-16 2016-09-29 株式会社国際電気通信基礎技術研究所 Sleep management device, sleep management program, sleep management method and sleep management system
WO2018061346A1 (en) * 2016-09-27 2018-04-05 ソニー株式会社 Information processing device
WO2018198708A1 (en) * 2017-04-26 2018-11-01 京セラ株式会社 Holding instrument, measurement device, and measurement method
JP2018183461A (en) * 2017-04-26 2018-11-22 京セラ株式会社 Holding tool, measuring apparatus, and measuring method
US11426127B2 (en) 2017-04-26 2022-08-30 Kyocera Corporation Holding instrument, measurement apparatus and measurement method

Similar Documents

Publication Publication Date Title
JP4396175B2 (en) Content playback apparatus and content playback method
EP1629448B1 (en) Monitoring system capable of generating audible messages
US8979731B2 (en) Calming device
US9779751B2 (en) Respiratory biofeedback devices, systems, and methods
WO2016136450A1 (en) Sound source control apparatus, sound source control method, and computer-readable storage medium
US10831437B2 (en) Sound signal controlling apparatus, sound signal controlling method, and recording medium
JP2014053672A (en) Reproduction system
JP2005040440A (en) Sound reproducing device and control method
JP6707938B2 (en) Alarm device and program
WO2017002635A1 (en) Audio signal processing device, audio signal processing method, and recording medium
JP2011130099A (en) Device for generating sound environment for falling asleep or wake-up
WO2017061362A1 (en) Playback control device, playback control method and recording medium
JP2009195450A (en) Sleep induction promoting apparatus
JP6765084B2 (en) Action goal achievement support system, action goal achievement support method and action goal achievement support processing program
JP2018068962A (en) Sound sleep device
KR102039366B1 (en) Apparatus of outputting sound for giving comfort to newborn
JP6469779B2 (en) Laughter promotion program and laughter promotion device
JP2021173868A (en) Voice output system, environment control system and voice output method
JP6206913B2 (en) Laughter promotion program and laughter promotion device
JP2005066027A (en) Detection system of body response information during sleeping
JP2020085928A (en) Content reproduction system and program
JP2021071498A (en) Recording device
JP2008086669A (en) Method and device for evaluating video and sound to affect unborn child via pregnant woman
JP2017070342A (en) Content reproducing device and program thereof
JP2019207286A (en) Behavior inducement support system and program