JP2005040440A - Sound reproducing device and control method - Google Patents
Sound reproducing device and control method Download PDFInfo
- Publication number
- JP2005040440A JP2005040440A JP2003279348A JP2003279348A JP2005040440A JP 2005040440 A JP2005040440 A JP 2005040440A JP 2003279348 A JP2003279348 A JP 2003279348A JP 2003279348 A JP2003279348 A JP 2003279348A JP 2005040440 A JP2005040440 A JP 2005040440A
- Authority
- JP
- Japan
- Prior art keywords
- user
- sound
- emotion
- state
- biological information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
Description
本発明は、リラクセーションを目的とした音響再生装置及びその制御方法に関し、特に使用者の感情や気分などの状態を予測して、使用者にリラックス効果や癒しの効果を与える技術に関する。 The present invention relates to a sound reproducing device for relaxation and a control method thereof, and more particularly to a technique for predicting a user's feelings and moods to give a user a relaxing effect and a healing effect.
従来、リラクセーションを目的とした音楽用コンパクトディスクや、安眠を目的として、脳波などに応じた音声を発生させるものなどがある。これらの手段では、使用者の状態に関係なく音を発生させていたが、この課題を解決するものとして、生体情報を基に音響を再生することで、相互作用的な音響提示を行うものが考案されている。 Conventionally, there are compact discs for music for relaxation, and those that generate sound according to brain waves for the purpose of sleep. In these means, sound is generated regardless of the state of the user, but as a solution to this problem, there is one that performs interactive sound presentation by reproducing sound based on biological information. It has been devised.
特許文献1には、上述した使用者の生体情報を音響にフィードバックさせることにより、相互作用的な音響提示手段を実現した音響再生装置について開示されている。
しかし、上述した従来の音響再生装置では、使用者の生体情報として体動などの情報を取り込み、単にその計測値に対応した効果音を決定し再生するため、使用者の感情や気分を反映し難いという問題があった。 However, in the above-described conventional sound reproducing device, information such as body movement is captured as the user's biological information, and a sound effect corresponding to the measured value is simply determined and reproduced, so that the emotion and mood of the user are reflected. There was a problem that it was difficult.
本発明の目的は、使用者の感情や気分などの状態を予測することにより、使用者の状態により適した音響を提示することである。更に、使用者の状態に適した音響を提示することにより、リラックス効果だけでなく、癒しの効果を与えることである。 An object of the present invention is to present a sound more suitable for a user's state by predicting a state such as the user's emotion and mood. Furthermore, by presenting sound suitable for the user's condition, not only a relaxing effect but also a healing effect is provided.
本発明は、使用者の生体情報を計測する生体情報センサから取り込まれた情報に基づいて、使用者の情動を予測して、その情動に対応した音響を再生する。 The present invention predicts a user's emotion based on information captured from a biological information sensor that measures the user's biological information, and reproduces sound corresponding to the emotion.
このようにしたことで、使用者に対してリラックス効果とともに癒しの効果を与えることができるようになる。 By doing in this way, it becomes possible to give a healing effect to the user as well as a relaxing effect.
本発明によると、使用者の情動を推定して、それに対応する効果音を再生することにより、リラックス効果だけでなく、癒しの効果も期待できる。また、抱き枕などの移動可能な形状に構成することで、使用場所が限定されることなく、いつでもどこでも使用することができる。 According to the present invention, it is possible to expect not only a relaxing effect but also a healing effect by estimating a user's emotion and reproducing a sound effect corresponding to the emotion. Moreover, by using a movable shape such as a body pillow, the place of use is not limited and can be used anytime and anywhere.
以下、本発明の一実施の形態を、音源を内蔵した抱き枕を例にして、図1〜図5を参照して説明する。 Hereinafter, an embodiment of the present invention will be described with reference to FIGS. 1 to 5, taking a body pillow incorporating a sound source as an example.
図1は、抱き枕本体の内部を示した説明図である。抱き枕1の本体は、使用者が抱きかかえることが可能な大きさであれば、形状は特に問わない。ただし、材質は適度な柔軟性があり、抱き心地のよいものが望ましい。抱き枕1の内部には、使用者の生体情報を計測するための生体情報センサ2と、音響を提示するスピーカ3と、生体情報センサ2からの計測値に基づいて使用者への音響提示内容を決定し、スピーカ3へ出力する制御装置4を備える。
FIG. 1 is an explanatory view showing the inside of a body pillow body. The shape of the body of the
生体情報センサ2は、圧力センサ、赤外線センサ、マイクなどであり、使用者の感情状態(情動)を判断できるものであればよい。これらのセンサは、より感度良くデータ取得できるよう、使用者に近接した抱き枕の本体外縁部に配置されている。更に、センサをマトリクス状に複数個取り付けることにより、使用者の姿勢によらずデータが取得可能であり、また使用者の姿勢そのものも推定可能なようにしておく。 The biological information sensor 2 is a pressure sensor, an infrared sensor, a microphone, or the like, as long as it can determine the emotional state (emotion) of the user. These sensors are arranged on the outer edge of the body of the body pillow close to the user so that data can be acquired with higher sensitivity. Furthermore, by attaching a plurality of sensors in a matrix, data can be acquired regardless of the posture of the user, and the posture of the user itself can be estimated.
図2に、制御装置4の構成例を示すブロック図を示す。制御装置4には、CPU(Central Processing Unit)11が備えられ、本装置の各機器の制御を行う。生体情報センサ2としては、赤外線センサ21や、圧力センサ22や、マイク23が抱き枕1の本体外縁部に配置されており、それらのセンサからの情報をA/D(アナログ/デジタル)変換器12−1,12−2,12−3を介してCPU11へ取り込む。音響データ再生回路13は、CPU11からの指示に従って音響データROM14に記録されている音響データから所定のデータを取り出し、再生するように構成されている。音響データ再生回路13によって再生された音響データは、D/A(デジタル/アナログ)変換器15によりデジタルからアナログに変換され、アンプ(増幅器)16を介してスピーカ3から提供される。CPU11には、処理内容を記述したプログラムを保存するROM(Read Only Memory)17と、プログラムの処理に必要なデータを保存するRAM(Random Access Memory)18が接続され、それらをもとに処理を行う。
FIG. 2 is a block diagram illustrating a configuration example of the
次に、使用者の感情状態を推定する処理例について説明する。使用者は、抱き枕を抱えた状態で使用するため、抱き枕1の本体外縁部に配置された生体情報センサ2で計測された情報から、使用者の感情状態を推定することができる。
Next, a processing example for estimating the emotional state of the user will be described. Since the user uses the body while holding the body pillow, the emotional state of the user can be estimated from the information measured by the biological information sensor 2 disposed on the outer edge of the body of the
まず、圧力センサ22により計測された情報から使用者の生体状態を推定する処理について図3を参照して説明する。計測された圧力センサの応答信号は、バンドパスフィルタ(BPF)によって周波数成分に応じて帯域分割される。分割された成分のうち、DC成分は使用者の姿勢や体動を推定するために用いる。即ち、圧力の静的な分布と、数十秒単位の比較的長期の時間的な変化を検出することにより、使用者が抱き枕本体を抱える強度や使用者の姿勢の変化を推定する。静的な圧力が強い場合は、使用者が抱き枕を強く抱えていて、時間的な変化が大きい場合は、使用者が頻繁に動いていると考えられる。また、0.5Hz未満程度のなだらかな周期成分を用いて、使用者の呼吸の周期を推定できる。同様に、0.5〜2Hz程度の周期成分により、使用者の脈拍を推定できる。また、呼吸や脈拍の成分が強く現れる圧力センサの位置を特定することにより、胸部や腹部の位置を同定することができるため、その位置の変化を検出することで、使用者の姿勢の推定に用いることもできる。
First, a process for estimating a user's biological state from information measured by the
マイク23では、使用者の声を検出する他に、呼吸における息づかいを検出することができる。マイクで検出される使用者の音声について、音韻及び韻律の周波数パターンを解析することにより、使用者の気分の快、不快を推定することができる。また、マイク23で検出された息づかいの情報と、圧力センサ22で検出された呼吸の周期とを組み合わせることにより、呼吸の推定精度を向上させることができる。また、赤外線センサ21は、使用者が抱き枕1を抱えているかの判断に用いられる。
In addition to detecting the user's voice, the
次に、生体情報センサ2の計測値から推定された使用者の生体状態から、使用者の感情や気分などの状態(情動)を推定する処理例について説明する。本例では、使用者のある時刻Tにおける状態として、緊張度をSt(T)、快感度をSf(T)で表し、使用者の安静平時の状態を0とする数値で表す。緊張度St(T)は、呼吸周期及び脈拍周期が安静平時より長く、時間的な変化率が小さいときは弛緩(St(T)<0)、安静平時より短く、時間的な変化が大きい時は緊張(St(T)>0)のように推定する。快感度Sf(T)は、使用者の発生する声のトーンが低いときは不快(Sf(T)<0)、高いときは快(Sf(T)>0)のように推定する。また、笑い声が検出されれば(Sf(T)>0)、ため息が検出されれば(Sf(T)<0)と推定することもでき、これらを組み合わせて判断することもできる。 Next, a processing example for estimating a state (emotion) such as a user's emotion and mood from the user's biological state estimated from the measurement value of the biological information sensor 2 will be described. In this example, as the state at a certain time T of the user, the degree of tension is represented by S t (T), the pleasantness is represented by S f (T), and the state of the user at rest is represented by numerical values. The degree of tension S t (T) is longer when the respiratory cycle and the pulse cycle are longer than at rest, and when the rate of change with time is small, it is relaxed (S t (T) <0), shorter than at rest, and changes with time. When it is large, it is estimated as tension (S t (T)> 0). The pleasant sensitivity S f (T) is estimated as unpleasant (S f (T) <0) when the tone of the voice generated by the user is low, and pleasant (S f (T)> 0) when the tone is high. . Further, if a laughing voice is detected (S f (T)> 0), if a sigh is detected, it can be estimated as (S f (T) <0), and these can also be determined in combination.
図4に緊張度、快感度から使用者の情動を推定するための一例を示す。緊張度と快感度にはそれぞれ閾値を設け、プラス側の閾値をSt+、Sf+、マイナス側の閾値をSt−、Sf−とする。ここで、緊張度St(T)がSt+より大きく、かつ快感度Sf(T)がSf+より大きい場合は、「喜び」の状態にあると推定する。同様に、緊張度St(T)がSt−より小さく、かつ快感度Sf(T)がSf+より大きい場合は、「安らぎ」の状態、緊張度St(T)がSt+より大きく、かつ快感度Sf(T)がSf−より小さい場合は、「怒り」の状態、緊張度St(T)がSt−より小さく、かつ快感度Sf(T)がSf−より小さい場合は、「悲しみ」の状態と推定する。 FIG. 4 shows an example for estimating the user's emotion from the degree of tension and pleasure. Each of the tone and pleasure of providing a threshold value, S t + a threshold on the positive side, S f +, the threshold on the negative side S t -, S f - to. Here, when the degree of tension S t (T) is larger than S t + and the pleasantness sensitivity S f (T) is larger than S f +, it is estimated that the state is “joy”. Similarly, when the degree of tension S t (T) is smaller than S t − and the sensitivity S f (T) is larger than S f +, the state of “comfort” and the degree of tension S t (T) are St. If it is larger than + and the pleasure sensitivity S f (T) is smaller than S f −, the state of “anger”, the tension S t (T) is smaller than St − and the pleasure sensitivity S f (T) is smaller. If it is smaller than S f −, it is estimated that the state is “sad”.
なお、本実施の形態では、図4のように各閾値の中間の領域(図4の斜線を施していない領域)は、特に情動状態の区分をしていない。この領域に含まれた場合は、安静平時の状態あるいは一時的な誤判定がなされたものとして特に使用者の情動を判定しないようにしている。もちろん、これに限らず、プラス側、マイナス側の閾値を図4の原点近くに設定して、常にいずれかの情動区分に分類されるようにしてもよい。 In the present embodiment, as shown in FIG. 4, the middle region of each threshold (the region not shaded in FIG. 4) is not particularly divided into emotional states. If it is included in this area, the emotion of the user is not particularly determined as a resting state or a temporary misjudgment. Of course, the present invention is not limited to this, and the positive and negative thresholds may be set near the origin in FIG.
図5は、本実施の形態による制御装置4の主にCPU11で行う処理に関するフローチャートである。図5を参照しながら、制御装置4の動作例について説明する。ここで、使用者が抱き枕本体を抱えた状態における、使用者の動きの強度をMv(T)、動きの頻度をMi(T)とし、それぞれの平時の値を0とする。これらは、圧力センサ22の計測結果を基に数値化し、静的な圧力が強い場合はMv(T)>0、時間的な変化の頻度が多い場合はMi(T)>0のように推定する。
FIG. 5 is a flowchart relating to processing performed mainly by the CPU 11 of the
まず、本装置が起動されると、タイマ(T)を0クリアする(ステップ101)。そして、使用者が抱き枕本体を抱えているかを判定する(ステップ102)。本体を抱えているかどうかは、例えば赤外線センサ21により、体温程度の温度を検出した場合は抱えているとか、圧力センサ22により静的な圧力を一定値以上検出した場合は、抱えているなどの方法により判断できる。ステップ102により、使用者が本体を抱えている場合は、処理を行い、抱えていない場合は、処理を終了する。
First, when this apparatus is activated, the timer (T) is cleared to 0 (step 101). Then, it is determined whether the user holds the body of the body pillow (step 102). Whether the body is held, for example, when the temperature is detected by the
次に、使用者が睡眠中かどうかを判定する。睡眠中か否かを判定する処理の一例として、使用者の体動により判定する場合について説明する。使用者の動きの強度Mv(T)と、動きの頻度Mi(T)を用いて、それぞれのプラス側の閾値をMv+、Mi+とし、マイナス側の閾値をMv−、Mi−とする。まず、使用者の動きの強度がMv−より小さく、かつ頻度がMi−より少ないかを判定し(ステップ103)、小さい場合は、睡眠中ではないが、静かにしていると判断する。ステップ103において、静かでないと判断された場合は、使用者の動きの強度がMv+より大きく、かつ頻度がMi+より多いかを判定し(ステップ104)、大きい場合は、起きてよく動いており、抱き枕に対して積極的な働きかけをしていると判断する。ステップ104において、動いていないと判断された場合は、睡眠中と判定し、タイマ(T)をカウントアップして(ステップ105)、再度処理を繰り返す。なお、ここでは、睡眠中か否かの判定を使用者の体動により判定する場合について説明したが、体動の他にマイク23から検出される呼吸の状態により判定する方法や、体動と呼吸の状態を組み合わせて判定する方法などがある。
Next, it is determined whether the user is sleeping. As an example of processing for determining whether or not the user is sleeping, a case where determination is made based on the user's body movement will be described. Using the user's motion intensity M v (T) and the motion frequency M i (T), the positive thresholds are M v + and M i +, and the negative thresholds are M v −, Let M i −. First, it is determined whether the intensity of the user's movement is less than M v − and the frequency is less than M i − (step 103). If it is smaller, it is determined that the user is not sleeping but is quiet. If it is determined in
このように判定した結果、睡眠中は音によるフィードバックは行わないが、それ以外の場合は、使用者の情動を推定し、その情動に応じたフィードバックを行う。情動の推定は、前記図4にて説明した方法で行うものとする。ステップ103にて静かにしていると判断された場合は、まず、使用者が「悲しみ」の状態にあるかを判定する(ステップ106)。その結果、「悲しみ」の状態であると判定された場合は、「励まし」の効果音を音響データROM14から抽出し、音響データ再生回路13にて再生する(ステップ107)。ステップ106にて「悲しみ」の状態でないと判定された場合は、使用者が「安らぎ」の状態であるかを判定し(ステップ108)、「安らぎ」の状態の場合は、「眠り」の効果音を再生する(ステップ109)。同様に、「安らぎ」の状態でない場合は、「怒り」の状態であるかを判定し(ステップ110)、「怒り」の状態の場合は、「なだめ」の効果音を再生する(ステップ111)。最後に、「喜び」の状態であるかを判定し(ステップ112)、「喜び」の状態の場合は、「喜び」の効果音を再生する(ステップ113)。
As a result of the determination as described above, feedback by sound is not performed during sleep. In other cases, the emotion of the user is estimated and feedback according to the emotion is performed. It is assumed that the emotion is estimated by the method described with reference to FIG. If it is determined in
このように、使用者の情動に応じた効果音を再生した後、タイマ(T)をカウントアップし(ステップ114)、効果音の効果を判定する(ステップ115)。効果の判定は、例えば快感度で行い、現在時刻Tの快感度Sf(T)と、その直前の時刻の快感度Sf(T−1)とを比較し、快感度Sf(T)がSf(T−1)より大きい場合は、効果ありと判定する。効果がある場合は、同じ効果音を再生して再度タイマをカウントアップし、効果の判定を繰り返す。ステップ115において、効果なしと判定された場合は、再度最初から処理を行う。なお、ステップ112にて「喜び」の状態でなかった場合は、使用者の情動が不定であるため、音によるフィードバックは行わず、タイマ(T)をカウントアップして(ステップ105)、再度処理を繰り返す。
Thus, after reproducing the sound effect according to the emotion of the user, the timer (T) is counted up (step 114), and the effect of the sound effect is determined (step 115). Determination of effect is carried out, for example pleasure degree, the current time T of the pleasure of S f (T), and compares the time immediately before the pleasure of S f (T-1), pleasure of S f (T) Is greater than S f (T−1), it is determined that there is an effect. If there is an effect, the same sound effect is played, the timer is counted up again, and the effect determination is repeated. If it is determined in
以上説明したのと同様に、ステップ104においてよく動いていると判定された場合は、使用者が「喜び」の状態にあるかを判定する(ステップ116)。その結果、「喜び」の状態であると判定された場合は、アップテンポの音楽を音響データROM14から抽出し、音響データ再生回路13にて再生する(ステップ117)。ステップ116にて「喜び」の状態でないと判定された場合は、使用者が「悲しみ」の状態であるかを判定し(ステップ118)、「悲しみ」の状態の場合は、スローテンポな音楽を再生する(ステップ119)。
As described above, if it is determined in
このように、使用者の情動に応じた音楽を再生した後、タイマ(T)をカウントアップし(ステップ120)、その効果を判定する(ステップ121)。効果の判定は、ステップ115と同様に快感度で行い、現在時刻Tの快感度Sf(T)が、その直前の時刻の快感度Sf(T−1)より大きい場合は、効果ありと判定する。効果がある場合は、同じ効果音を再生して再度タイマをカウントアップし、効果の判定を繰り返す。ステップ121において、効果なしと判定された場合は、再度最初から処理を行う。なお、ステップ118にて「悲しみ」の状態でなかった場合は、音によるフィードバックは行わず、タイマ(T)をカウントアップして(ステップ105)、再度処理を繰り返す。
As described above, after the music corresponding to the emotion of the user is reproduced, the timer (T) is counted up (step 120), and the effect is determined (step 121). The determination of the effect is performed with the same sensitivity as in
なお、ステップ104にてよく動いていると判定された場合の処理として、「喜び」と「悲しみ」の状態に対応する音楽の再生について説明したが、ステップ108と同様に「安らぎ」の状態かを判定し、それに対応する音楽を再生する処理と、ステップ110と同様に「怒り」の状態かを判定し、それに対応する音楽を再生する処理を追加してもよい。
In addition, as a process in the case where it is determined that it is moving well in
ここでは、使用者の情動を「喜び」、「安らぎ」、「怒り」、「悲しみ」に分類して説明したが、使用者の情動の種類については、生体情報センサ2の計測値によって判定できるものであれば、これ以外でもよい。また、それぞれの状態に応じた効果音を「喜び」、「眠り」、「なだめ」、「励まし」やアップテンポの音楽、スローテンポの音楽として説明したが、例えば、「喜び」の状態に対して「なだめ」の効果音とし、「悲しみ」の状態に対して「悲しみ」の効果音としてもよい。更に、効果音は、音楽や人間の声、動物の鳴き声、波や風の音などの環境音でもよい。 Here, the user's emotion has been classified and described as “joy”, “relaxation”, “anger”, and “sadness”, but the type of user emotion can be determined by the measurement value of the biological information sensor 2. Anything other than this may be used. In addition, the sound effects corresponding to each state have been described as “joy”, “sleep”, “nod”, “encouragement”, up-tempo music, and slow-tempo music. It is also possible to use “sadness” sound effects and “sadness” sound effects for the “sadness” state. Furthermore, the sound effects may be environmental sounds such as music, human voices, animal calls, waves and wind sounds.
また、上述した実施の形態では、抱き枕を例に説明したが、使用者が抱きかかえられる形状のものであれば、クッションやぬいぐるみなどでもよい。 Further, in the embodiment described above, the dakimakura has been described as an example, but a cushion, a stuffed toy, or the like may be used as long as the user can hold the pillow.
1…抱き枕、2…生体情報センサ、3…スピーカ、4…制御装置、11…CPU、12−1,12−2,12−3…A/D変換器、13…音響データ再生回路、14…音響データROM、15…D/A変換器、16…アンプ、17…ROM、18…RAM、21…赤外線センサ、22…圧力センサ、23…マイク
DESCRIPTION OF
Claims (4)
音を再生するスピーカと、
前記生体情報センサからの計測情報を基に、使用者の情動を推定し、その情動に対応した効果音を選択し、音響データ再生回路によって再生する制御手段とを備えた
音響再生装置。 A biological information sensor for measuring biological information;
A speaker for playing sound,
A sound reproduction apparatus comprising: a control unit that estimates a user's emotion based on measurement information from the biological information sensor, selects a sound effect corresponding to the emotion, and reproduces the sound using a sound data reproduction circuit.
前記生体情報センサと、前記スピーカと、前記制御手段とを内蔵し、
前記生体情報センサを、本体外縁部に配置したことを特徴とする
音響再生装置。 The sound reproducing device according to claim 1,
Built-in the biological information sensor, the speaker, and the control means,
The sound reproducing apparatus, wherein the biological information sensor is disposed on an outer edge of the main body.
前記生体情報センサと、前記スピーカと、前記制御手段とを枕の内部に配置したことを特徴とする
音響再生装置。 The sound reproducing device according to claim 2,
The sound reproducing apparatus, wherein the biological information sensor, the speaker, and the control means are arranged inside a pillow.
前記生体情報センサからの計測情報を基に使用者の情動を推定する情動推定ステップと、
推定した情動に対応した効果音を選択し、再生するステップとを有する
制御方法。 Determining whether the user is sleeping; and
An emotion estimation step for estimating a user's emotion based on measurement information from the biological information sensor;
And a step of selecting and reproducing a sound effect corresponding to the estimated emotion.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003279348A JP2005040440A (en) | 2003-07-24 | 2003-07-24 | Sound reproducing device and control method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003279348A JP2005040440A (en) | 2003-07-24 | 2003-07-24 | Sound reproducing device and control method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2005040440A true JP2005040440A (en) | 2005-02-17 |
Family
ID=34265480
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003279348A Pending JP2005040440A (en) | 2003-07-24 | 2003-07-24 | Sound reproducing device and control method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2005040440A (en) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008108315A (en) * | 2006-10-24 | 2008-05-08 | Pioneer Electronic Corp | Information reproducing device and information reproducing method or the like |
JP5225495B1 (en) * | 2012-10-02 | 2013-07-03 | ケイ・アンド・アイ有限会社 | Body pillow |
JP2014502188A (en) * | 2010-11-23 | 2014-01-30 | コーニンクレッカ フィリップス エヌ ヴェ | Respiratory pacing apparatus and method for pacing patient respiratory activity |
WO2014061789A1 (en) * | 2012-10-18 | 2014-04-24 | ケイ・アンド・アイ有限会社 | Huggable pillow |
EP2805674A1 (en) * | 2013-05-23 | 2014-11-26 | Yamaha Corporation | Sound generator device and sound generation method |
JP2016171825A (en) * | 2015-03-16 | 2016-09-29 | 株式会社国際電気通信基礎技術研究所 | Sleep management device, sleep management program, sleep management method and sleep management system |
WO2018061346A1 (en) * | 2016-09-27 | 2018-04-05 | ソニー株式会社 | Information processing device |
WO2018198708A1 (en) * | 2017-04-26 | 2018-11-01 | 京セラ株式会社 | Holding instrument, measurement device, and measurement method |
-
2003
- 2003-07-24 JP JP2003279348A patent/JP2005040440A/en active Pending
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008108315A (en) * | 2006-10-24 | 2008-05-08 | Pioneer Electronic Corp | Information reproducing device and information reproducing method or the like |
JP2014502188A (en) * | 2010-11-23 | 2014-01-30 | コーニンクレッカ フィリップス エヌ ヴェ | Respiratory pacing apparatus and method for pacing patient respiratory activity |
US10004454B2 (en) | 2010-11-23 | 2018-06-26 | Koninklijke Philips N.V. | Breath pacing device and method for packing the respiratory activity of a subject |
JP5225495B1 (en) * | 2012-10-02 | 2013-07-03 | ケイ・アンド・アイ有限会社 | Body pillow |
WO2014061789A1 (en) * | 2012-10-18 | 2014-04-24 | ケイ・アンド・アイ有限会社 | Huggable pillow |
EP2805674A1 (en) * | 2013-05-23 | 2014-11-26 | Yamaha Corporation | Sound generator device and sound generation method |
US9978358B2 (en) | 2013-05-23 | 2018-05-22 | Yamaha Corporation | Sound generator device and sound generation method |
JP2016171825A (en) * | 2015-03-16 | 2016-09-29 | 株式会社国際電気通信基礎技術研究所 | Sleep management device, sleep management program, sleep management method and sleep management system |
WO2018061346A1 (en) * | 2016-09-27 | 2018-04-05 | ソニー株式会社 | Information processing device |
WO2018198708A1 (en) * | 2017-04-26 | 2018-11-01 | 京セラ株式会社 | Holding instrument, measurement device, and measurement method |
JP2018183461A (en) * | 2017-04-26 | 2018-11-22 | 京セラ株式会社 | Holding tool, measuring apparatus, and measuring method |
US11426127B2 (en) | 2017-04-26 | 2022-08-30 | Kyocera Corporation | Holding instrument, measurement apparatus and measurement method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4396175B2 (en) | Content playback apparatus and content playback method | |
EP1629448B1 (en) | Monitoring system capable of generating audible messages | |
US8979731B2 (en) | Calming device | |
US9779751B2 (en) | Respiratory biofeedback devices, systems, and methods | |
WO2016136450A1 (en) | Sound source control apparatus, sound source control method, and computer-readable storage medium | |
US10831437B2 (en) | Sound signal controlling apparatus, sound signal controlling method, and recording medium | |
JP2014053672A (en) | Reproduction system | |
JP2005040440A (en) | Sound reproducing device and control method | |
JP6707938B2 (en) | Alarm device and program | |
WO2017002635A1 (en) | Audio signal processing device, audio signal processing method, and recording medium | |
JP2011130099A (en) | Device for generating sound environment for falling asleep or wake-up | |
WO2017061362A1 (en) | Playback control device, playback control method and recording medium | |
JP2009195450A (en) | Sleep induction promoting apparatus | |
JP6765084B2 (en) | Action goal achievement support system, action goal achievement support method and action goal achievement support processing program | |
JP2018068962A (en) | Sound sleep device | |
KR102039366B1 (en) | Apparatus of outputting sound for giving comfort to newborn | |
JP6469779B2 (en) | Laughter promotion program and laughter promotion device | |
JP2021173868A (en) | Voice output system, environment control system and voice output method | |
JP6206913B2 (en) | Laughter promotion program and laughter promotion device | |
JP2005066027A (en) | Detection system of body response information during sleeping | |
JP2020085928A (en) | Content reproduction system and program | |
JP2021071498A (en) | Recording device | |
JP2008086669A (en) | Method and device for evaluating video and sound to affect unborn child via pregnant woman | |
JP2017070342A (en) | Content reproducing device and program thereof | |
JP2019207286A (en) | Behavior inducement support system and program |