JP6237449B2 - Sound processor - Google Patents

Sound processor Download PDF

Info

Publication number
JP6237449B2
JP6237449B2 JP2014093590A JP2014093590A JP6237449B2 JP 6237449 B2 JP6237449 B2 JP 6237449B2 JP 2014093590 A JP2014093590 A JP 2014093590A JP 2014093590 A JP2014093590 A JP 2014093590A JP 6237449 B2 JP6237449 B2 JP 6237449B2
Authority
JP
Japan
Prior art keywords
sound
unit
sound source
housing
acoustic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014093590A
Other languages
Japanese (ja)
Other versions
JP2015210473A (en
Inventor
茂彦 岩間
茂彦 岩間
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2014093590A priority Critical patent/JP6237449B2/en
Publication of JP2015210473A publication Critical patent/JP2015210473A/en
Application granted granted Critical
Publication of JP6237449B2 publication Critical patent/JP6237449B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Circuit For Audible Band Transducer (AREA)

Description

本発明は、周囲で発生した音解析の精度を向上させることができる音処理装置に関する。   The present invention relates to a sound processing apparatus capable of improving the accuracy of sound analysis generated around.

聴覚障害者は、自分の周囲で発生した音を認識することができないことがある。聴覚障害者以外でも、ヘッドホンを装着して作業をする場合等では、自分の周囲で発生した音を認識することができないことがある。   Hearing impaired people may not be able to recognize sounds generated around them. Even if the person is not a hearing impaired person, when working with headphones, the sound generated around him / her may not be recognized.

特開2011−165056号公報JP 2011-165056 A 特許第4119299号公報Japanese Patent No. 4119299

聴覚障害者等の人の周囲で音が発生したら、発生した音を解析して、どのような音が発生したかを人に知らせることができれば、音を認識することができない不自由さを軽減させることができる。   If sound is generated around a person with hearing impairment, etc., if the generated sound is analyzed and the sound can be informed to the person, the inconvenience that the sound cannot be recognized is reduced. Can be made.

本発明は、周囲で発生した音解析の精度を向上させることができる音処理装置を提供することを目的とする。   An object of this invention is to provide the sound processing apparatus which can improve the precision of the sound analysis which generate | occur | produced around.

本発明は、上述した従来の技術の課題を解決するため、筐体と、前記筐体に取り付けられた複数のマイクロホンと、前記複数のマイクロホンより出力された音響信号に基づいて、音源と前記筐体との位置関係を導出する音源方向導出部と、前記筐体の動きを検出する動き検出センサと、前記音源方向導出部によって導出された音源と前記筐体との位置関係と、前記動き検出センサによって検出された前記筐体の動きとに基づいて、前記選択音響信号の周波数または音量を補正する信号処理部とを備えることを特徴とする音処理装置を提供する。   In order to solve the above-described problems of the related art, the present invention provides a sound source and a housing based on a housing, a plurality of microphones attached to the housing, and acoustic signals output from the plurality of microphones. A sound source direction deriving unit for deriving a positional relationship with the body, a motion detection sensor for detecting movement of the housing, a positional relationship between the sound source derived by the sound source direction deriving unit and the housing, and the motion detection A sound processing apparatus comprising: a signal processing unit that corrects the frequency or volume of the selected acoustic signal based on the movement of the housing detected by a sensor.

本発明の音処理装置によれば、周囲で発生した音解析の精度を向上させることができる。   According to the sound processing apparatus of the present invention, it is possible to improve the accuracy of sound analysis generated around.

一実施形態の音処理装置を示すブロック図である。It is a block diagram which shows the sound processing apparatus of one Embodiment. 一実施形態の音処理装置を収納する筐体と、マイクロホンの指向性パターンを示す図である。It is a figure which shows the directivity pattern of the housing | casing which accommodates the sound processing apparatus of one Embodiment, and a microphone. 一実施形態の音処理装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the sound processing apparatus of one Embodiment. 一実施形態の音処理装置における周波数補正を説明するための図である。It is a figure for demonstrating the frequency correction in the sound processing apparatus of one Embodiment. 一実施形態の音処理装置における音量補正を説明するための図である。It is a figure for demonstrating the volume correction | amendment in the sound processing apparatus of one Embodiment. 筐体の移動に伴う音解析用チャンネルの切り替え動作を説明するための図であり、筐体の移動前の状態を示す概念図である。It is a figure for demonstrating the switching operation | movement of the channel for sound analysis accompanying the movement of a housing | casing, and is a conceptual diagram which shows the state before the movement of a housing | casing. 筐体の移動に伴う音解析用チャンネルの切り替え動作を説明するための図であり、筐体が移動している途中の状態を示す概念図である。It is a figure for demonstrating the switching operation | movement of the channel for sound analysis accompanying the movement of a housing | casing, and is a conceptual diagram which shows the state in the middle of the housing | casing moving. 筐体の移動に伴う音解析用チャンネルの切り替え動作を説明するための図であり、筐体の移動が完了した状態を示す概念図である。It is a figure for demonstrating the switching operation | movement of the channel for sound analysis accompanying the movement of a housing | casing, and is a conceptual diagram which shows the state which the movement of a housing | casing was completed.

以下、一実施形態の音処理装置について、添付図面を参照して説明する。図1に示すように、一実施形態の音処理装置は、マイクロホン1a,1bよりなる少なくとも2つのマイクロホン1を備える。マイクロホン1は3つ以上であることが好ましい。   Hereinafter, a sound processing apparatus according to an embodiment will be described with reference to the accompanying drawings. As shown in FIG. 1, the sound processing apparatus according to an embodiment includes at least two microphones 1 including microphones 1 a and 1 b. The number of microphones 1 is preferably three or more.

一実施形態の音処理装置は、図2に示す筐体100内に収納されている。図2に示すように、マイクロホン1a,1bは、例えば筐体100の2つの角部近傍に取り付けられている。マイクロホン1をマイクロホン1c,1dを加えた4つとする場合には、マイクロホン1a〜1dを4つの角部近傍に取り付ければよい。   The sound processing apparatus of one embodiment is accommodated in the housing 100 shown in FIG. As shown in FIG. 2, the microphones 1 a and 1 b are attached in the vicinity of two corners of the housing 100, for example. When the number of the microphones 1 is four including the microphones 1c and 1d, the microphones 1a to 1d may be attached near the four corners.

マイクロホン1a,1bが無指向性であれば、理想的には、マイクロホン1a,1bを中心とした円形の指向性を有することになる。しかしながら、マイクロホン1a,1bは筐体100に組み込まれていることから、筐体100による音の反射や吸収により理想的な指向性とはならない。   If the microphones 1a and 1b are non-directional, ideally, the microphones 1a and 1b have a circular directivity centered on the microphones 1a and 1b. However, since the microphones 1 a and 1 b are incorporated in the housing 100, ideal directivity is not achieved due to sound reflection and absorption by the housing 100.

マイクロホン1a,1bの指向性パターンD1a,D2aは、筐体100の外側の方向Dr1a1,Dr1b1で広く、筐体100の内側の方向Dr1a2,Dr1b2で狭い。指向性パターンD1a,D2aは必ずしも円形とはならないが、図2では便宜上、円形としている。   The directivity patterns D1a and D2a of the microphones 1a and 1b are wide in the directions Dr1a1 and Dr1b1 on the outside of the housing 100, and are narrow in the directions Dr1a2 and Dr1b2 on the inside of the housing 100. The directivity patterns D1a and D2a are not necessarily circular, but are circular for convenience in FIG.

図1において、マイクロホン1a,1bが集音することによって生成した音響信号は、チャンネル切り替え部2及び音源方向導出部3に入力される。チャンネル切り替え部2は、記憶部21,22と、読み出し制御部23と、スイッチ24とを有する。マイクロホン1aより出力された音響信号は記憶部21に入力され、マイクロホン1bより出力された音響信号は記憶部22に入力される。   In FIG. 1, an acoustic signal generated by collecting sounds by the microphones 1 a and 1 b is input to the channel switching unit 2 and the sound source direction deriving unit 3. The channel switching unit 2 includes storage units 21 and 22, a read control unit 23, and a switch 24. The acoustic signal output from the microphone 1 a is input to the storage unit 21, and the acoustic signal output from the microphone 1 b is input to the storage unit 22.

記憶部21は、マイクロホン1aより出力された音響信号を記憶する。記憶部22は、マイクロホン1bより出力された音響信号を記憶する。   The storage unit 21 stores the acoustic signal output from the microphone 1a. The storage unit 22 stores the acoustic signal output from the microphone 1b.

音源方向導出部3は、マイクロホン1a,1bより出力された音響信号に基づいて、音源の方向を判定する。マイクロホン1が2つの場合には、音源の方向を180度に限定すれば、音源の方向を判定することが可能である。マイクロホン1が3つ以上であれば、音源の方向を360度の範囲で判定することが可能となる。   The sound source direction deriving unit 3 determines the direction of the sound source based on the acoustic signals output from the microphones 1a and 1b. When there are two microphones 1, the direction of the sound source can be determined by limiting the direction of the sound source to 180 degrees. If there are three or more microphones 1, the direction of the sound source can be determined in a range of 360 degrees.

音源方向導出部3における音源の方向の判定に、特許文献2に記載されている技術を用いてもよい。   The technique described in Patent Document 2 may be used for determining the direction of the sound source in the sound source direction deriving unit 3.

動き検出センサ4は、筐体100の動きを検出する。動き検出センサ4は、筐体100の加速度を検出する加速度センサと、筐体100の角速度を検出する角速度センサ(ジャイロセンサ)との双方によって構成するのがよい。加速度センサは、3軸加速度センサであるのがよい。動き検出センサ4が加速度センサと角速度センサとを有することにより、筐体100の姿勢と筐体100の移動量を検出することが可能となる。   The motion detection sensor 4 detects the motion of the housing 100. The motion detection sensor 4 is preferably composed of both an acceleration sensor that detects the acceleration of the housing 100 and an angular velocity sensor (gyro sensor) that detects the angular velocity of the housing 100. The acceleration sensor may be a triaxial acceleration sensor. Since the motion detection sensor 4 includes the acceleration sensor and the angular velocity sensor, it is possible to detect the attitude of the casing 100 and the movement amount of the casing 100.

動き検出センサ4より出力された動き検出情報は、音源方向導出部3及び信号処理部5に入力される。   The motion detection information output from the motion detection sensor 4 is input to the sound source direction deriving unit 3 and the signal processing unit 5.

音源方向導出部3は、マイクロホン1a,1bより出力された音響信号と、動き検出センサ4より出力された動き検出情報とを用いて、音源の方向を判定することが好ましい。音源方向導出部3は、動き検出情報に基づいて筐体100の移動量を算出し、算出した移動量に基づいて筐体100の動きを予測して、音源の方向を判定することが好ましい。また、音源方向導出部3は、動き検出情報に基づいて音源と筐体100との位置関係を導出する。   The sound source direction deriving unit 3 preferably determines the direction of the sound source using the acoustic signals output from the microphones 1 a and 1 b and the motion detection information output from the motion detection sensor 4. It is preferable that the sound source direction deriving unit 3 calculates the movement amount of the housing 100 based on the motion detection information, predicts the movement of the housing 100 based on the calculated movement amount, and determines the direction of the sound source. The sound source direction deriving unit 3 derives the positional relationship between the sound source and the housing 100 based on the motion detection information.

音源方向導出部3は、チャンネル切り替え部2が、マイクロホン1a,1bより出力された音響信号よりいずれか1つの音響信号を選択して出力するためのチャンネル切り替え制御信号を生成する。チャンネル切り替え制御信号は、読み出し制御部23に入力される。   The sound source direction deriving unit 3 generates a channel switching control signal for the channel switching unit 2 to select and output any one of the acoustic signals output from the microphones 1a and 1b. The channel switching control signal is input to the read control unit 23.

チャンネル切り替え制御信号がマイクロホン1aより出力された音響信号を選択することを示すとき、読み出し制御部23は記憶部21に記憶された音響信号を読み出すように制御する。このとき、読み出し制御部23は、スイッチ24を端子Taに接続させるように制御する。よって、記憶部21より読み出された音響信号は、信号処理部5へと供給される。   When the channel switching control signal indicates that the acoustic signal output from the microphone 1 a is selected, the readout control unit 23 controls to read out the acoustic signal stored in the storage unit 21. At this time, the read control unit 23 controls the switch 24 to be connected to the terminal Ta. Therefore, the acoustic signal read from the storage unit 21 is supplied to the signal processing unit 5.

一方、チャンネル切り替え制御信号がマイクロホン1bより出力された音響信号を選択することを示すとき、読み出し制御部23は記憶部22に記憶された音響信号を読み出すように制御する。このとき、読み出し制御部23は、スイッチ24を端子Tbに接続させるように制御する。よって、記憶部22より読み出された音響信号は、信号処理部5へと供給される。   On the other hand, when the channel switching control signal indicates that the acoustic signal output from the microphone 1b is selected, the readout control unit 23 controls to read out the acoustic signal stored in the storage unit 22. At this time, the read control unit 23 controls the switch 24 to be connected to the terminal Tb. Therefore, the acoustic signal read from the storage unit 22 is supplied to the signal processing unit 5.

このように、チャンネル切り替え部2は、音源方向導出部3より出力されたチャンネル切り替え制御信号に基づいて、マイクロホン1a,1bより出力された2つの音響信号のうち、1つのマイクロホン1より出力された音響信号を選択して出力する。   As described above, the channel switching unit 2 is output from one microphone 1 out of the two acoustic signals output from the microphones 1 a and 1 b based on the channel switching control signal output from the sound source direction deriving unit 3. Select and output an acoustic signal.

チャンネル切り替え部2が選択したマイクロホン1のチャンネルを音解析用チャンネルと称することとする。チャンネル切り替え部2が出力する音解析用チャンネルの音響信号を選択音響信号と称することとする。   The channel of the microphone 1 selected by the channel switching unit 2 is referred to as a sound analysis channel. The sound signal of the sound analysis channel output by the channel switching unit 2 is referred to as a selected sound signal.

マイクロホン1が3つ以上の複数の場合も同様に、チャンネル切り替え部2は、複数のマイクロホン1より出力された音響信号それぞれを記憶部に記憶する。チャンネル切り替え部2は、チャンネル切り替え制御信号に基づいて、マイクロホン1の複数チャンネルよりいずれか1つの音解析用チャンネルを選択して、音解析用チャンネルの音響信号を選択音響信号として出力する。   Similarly, when the number of microphones 1 is three or more, the channel switching unit 2 stores each of the acoustic signals output from the plurality of microphones 1 in the storage unit. The channel switching unit 2 selects any one sound analysis channel from a plurality of channels of the microphone 1 based on the channel switching control signal, and outputs the sound signal of the sound analysis channel as a selected sound signal.

信号処理部5には、チャンネル切り替え部2より出力された選択音響信号の他に、音源方向導出部3より出力された音源の方向を示す情報と、動き検出センサ4より出力された動き検出情報とが入力される。   In addition to the selected acoustic signal output from the channel switching unit 2, the signal processing unit 5 includes information indicating the direction of the sound source output from the sound source direction deriving unit 3 and motion detection information output from the motion detection sensor 4. Are entered.

信号処理部5は、不要周波数帯域抑圧部51と、周波数補正部52と、音量補正部53とを有する。   The signal processing unit 5 includes an unnecessary frequency band suppression unit 51, a frequency correction unit 52, and a volume correction unit 53.

不要周波数帯域抑圧部51は、入力された選択音響信号の周波数帯域のうち、後段の音解析部6における音響信号の解析に不要な周波数帯域を抑圧する。周波数補正部52は、入力された選択音響信号の周波数を補正する。音量補正部53は、入力された選択音響信号の音量を補正する   The unnecessary frequency band suppression unit 51 suppresses a frequency band that is unnecessary for the analysis of the acoustic signal in the subsequent sound analysis unit 6 among the frequency bands of the input selected acoustic signal. The frequency correction unit 52 corrects the frequency of the input selected acoustic signal. The volume correction unit 53 corrects the volume of the input selected acoustic signal.

不要周波数帯域抑圧部51と周波数補正部52と音量補正部53とを設けることは必須ではないが、設けることが好ましい。不要周波数帯域抑圧部51のみを設けてもよい。不要周波数帯域抑圧部51に加えて、周波数補正部52及び音量補正部53を設けることが好ましい。周波数補正部52及び音量補正部53の具体的な動作は後述する。   Although it is not essential to provide the unnecessary frequency band suppression unit 51, the frequency correction unit 52, and the volume correction unit 53, it is preferable to provide them. Only the unnecessary frequency band suppression unit 51 may be provided. It is preferable to provide a frequency correction unit 52 and a volume correction unit 53 in addition to the unnecessary frequency band suppression unit 51. Specific operations of the frequency correction unit 52 and the volume correction unit 53 will be described later.

信号処理部5によって所定の信号処理が施された選択音響信号は、音解析部6に入力される。音辞書記憶部7には、複数の音響パターンを登録した音辞書が記憶されている。音響パターンとは、音の周波数、音量、周波数の変化の仕方、音が継続する時間等の1または複数の要素を任意に組み合わせたものである。   The selected acoustic signal that has been subjected to predetermined signal processing by the signal processing unit 5 is input to the sound analysis unit 6. The sound dictionary storage unit 7 stores a sound dictionary in which a plurality of acoustic patterns are registered. An acoustic pattern is an arbitrary combination of one or a plurality of elements such as sound frequency, volume, frequency change method, and sound duration.

音解析部6は、入力された選択音響信号の音響パターンと、音辞書記憶部7に記憶されている複数の音響パターンとを比較照合して、選択音響信号を解析する。音解析部6は、発生した音が何の音であるか、発生した音がどのような音であるかを特定する。   The sound analysis unit 6 compares the input acoustic pattern of the selected acoustic signal with a plurality of acoustic patterns stored in the sound dictionary storage unit 7 and analyzes the selected acoustic signal. The sound analysis unit 6 specifies what kind of sound the generated sound is and what kind of sound the generated sound is.

音解析部6にマイクロホン1a,1bより出力された2チャンネル双方の音響信号を入力してもよいが、本実施形態においては、1チャンネルの音解析用チャンネルの選択音響信号を入力するようにする。よって、音解析部6は、1チャンネルの音解析につき、処理負荷が最小限となる。   Both sound signals output from the microphones 1a and 1b may be input to the sound analysis unit 6, but in this embodiment, a selection sound signal of the sound analysis channel of one channel is input. . Therefore, the sound analysis unit 6 minimizes the processing load for sound analysis of one channel.

本実施形態においては、音辞書に登録されている音響パターンを、例えば、電話機,ドアホン,目覚まし時計,警報機等が発生させる音、爆発等の事故で発生する音とする。言葉のパターンを音辞書記憶部7に登録して、音解析部6が言葉を解析してもよい。   In the present embodiment, the acoustic patterns registered in the sound dictionary are, for example, sounds generated by telephones, door phones, alarm clocks, alarms, etc., and sounds generated by accidents such as explosions. The word pattern may be registered in the sound dictionary storage unit 7 and the sound analysis unit 6 may analyze the words.

音解析部6が選択音響信号の音響パターンと音辞書に登録されている複数の音響パターンとを比較照合した結果、選択音響信号の音響パターンが複数の音響パターンのいずれかと一致したら、音解析部6は一致した音響パターンのコードを制御部8に供給する。   If the sound analysis unit 6 compares the acoustic pattern of the selected acoustic signal with a plurality of acoustic patterns registered in the sound dictionary and the acoustic pattern of the selected acoustic signal matches any of the plurality of acoustic patterns, the sound analysis unit 6 supplies the control unit 8 with the code of the matched acoustic pattern.

制御部8は、表示制御部81と登録制御部82とを有する。制御部8には、音解析部6より出力されたコードと、音源方向導出部3より出力された音源の方向を示す情報とが入力される。   The control unit 8 includes a display control unit 81 and a registration control unit 82. The control unit 8 receives the code output from the sound analysis unit 6 and information indicating the direction of the sound source output from the sound source direction deriving unit 3.

表示制御部81は、コードと、音源の種別(例えば、電話機,ドアホン,目覚まし時計,警報機等)または音の種別(例えば、爆発音,ガラスが割れる音等)とを対応付けた情報を有する。   The display control unit 81 includes information in which a code is associated with a sound source type (for example, a telephone, a door phone, an alarm clock, an alarm), or a sound type (for example, an explosion sound, a sound that breaks glass). .

表示制御部81は、入力されたコードと音源の方向を示す情報とに基づいて、表示部10に、音源方向と音解析結果を示す情報を表示させるよう、表示駆動部9を制御する。表示駆動部9は、表示制御部81による表示制御に基づいて、表示部10に上記の情報を表示させる。表示部10は例えば液晶表示デバイスである。   The display control unit 81 controls the display driving unit 9 to display information indicating the sound source direction and the sound analysis result on the display unit 10 based on the input code and information indicating the direction of the sound source. The display driving unit 9 displays the above information on the display unit 10 based on display control by the display control unit 81. The display unit 10 is, for example, a liquid crystal display device.

図2に示すように、表示部10は筐体100に取り付けられている。本実施形態の音処理装置を使用するユーザは、表示部10を見ることにより、どの方向から何の音(どのような音)が発生したのかを確認することができる。   As shown in FIG. 2, the display unit 10 is attached to the housing 100. A user who uses the sound processing apparatus of the present embodiment can confirm what sound (what sound) is generated from which direction by looking at the display unit 10.

表示制御部81には、表示部10に、何の音(どのような音)が発生したのかの情報のみを表示させてもよい。例えば家屋内に設置されている電話機は、設置場所が固定されていることが多い。設置場所が固定された音源が発生させた音の情報を表示部10に表示させる場合には、音が発生した方向を表示させる必要はさほどない。よって、音が発生した方向の表示は省略可能である。   The display control unit 81 may display only information on what sound (what sound) is generated on the display unit 10. For example, a telephone set installed in a house often has a fixed installation location. When displaying information on the sound generated by the sound source having a fixed installation location on the display unit 10, it is not necessary to display the direction in which the sound is generated. Therefore, the display of the direction in which the sound is generated can be omitted.

一方、爆発音やガラスが割れる音等の音が発生する場所が特定されない音に関する情報を表示部10に表示させる場合には、表示制御部81は、表示部10に、どの方向から何の音(どのような音)が発生したのかの情報を表示させるのがよい。   On the other hand, in the case where information regarding the sound where the place where the sound is generated, such as explosion sound or glass breaking sound, is not specified, is displayed on the display unit 10, the display control unit 81 causes the display unit 10 to select what sound from which direction. It is preferable to display information on what kind of sound has occurred.

音解析部6が選択音響信号の音響パターンと音辞書に登録されている複数の音響パターンとを比較照合した結果、選択音響信号の音響パターンが複数の音響パターンのいずにも一致しない場合が起こり得る。即ち、選択音響信号の音響パターンが音辞書に登録されていない音響パターンである場合が発生する。   As a result of comparing and collating the acoustic pattern of the selected acoustic signal with the plurality of acoustic patterns registered in the sound dictionary, the sound analysis unit 6 may not match the acoustic pattern of the selected acoustic signal with any of the plurality of acoustic patterns. Can happen. That is, the case where the acoustic pattern of the selected acoustic signal is an acoustic pattern that is not registered in the sound dictionary occurs.

このような場合、音解析部6は、選択音響信号の音響パターンを音辞書に新たに登録させるようにするのがよい。   In such a case, it is preferable that the sound analysis unit 6 newly registers the acoustic pattern of the selected acoustic signal in the sound dictionary.

選択音響信号の音響パターンが音辞書に登録されていない音響パターンである場合、音解析部6及び制御部8は、具体的に次のように動作する。音解析部6は、選択音響信号の音響パターンを音辞書記憶部7に一時的に記憶(仮登録)させる。音解析部6は、選択音響信号の音響パターンが未登録であることを示すコードを制御部8に供給する。   When the acoustic pattern of the selected acoustic signal is an acoustic pattern that is not registered in the sound dictionary, the sound analysis unit 6 and the control unit 8 specifically operate as follows. The sound analysis unit 6 temporarily stores (temporarily registers) the sound pattern of the selected sound signal in the sound dictionary storage unit 7. The sound analysis unit 6 supplies the control unit 8 with a code indicating that the acoustic pattern of the selected acoustic signal is not registered.

表示制御部81は、未登録であることを示すコードに基づいて、表示部10に、音響パターンを新規登録するか否かを選択するメッセージを表示させるよう、表示駆動部9を制御する。表示駆動部9は、表示制御部81による表示制御に基づいて、表示部10に上記のメッセージを表示させる。   The display control unit 81 controls the display driving unit 9 to display a message for selecting whether or not to newly register an acoustic pattern on the display unit 10 based on a code indicating that it is not registered. The display driving unit 9 displays the above message on the display unit 10 based on the display control by the display control unit 81.

ユーザは、操作部11を操作して、音響パターンを新規登録するか否かを選択することができる。操作部11より音響パターンを新規登録する指示がされたら、登録制御部82は、選択音響信号の音響パターンを音辞書に本登録するよう音解析部6に指示する。   The user can select whether or not to newly register an acoustic pattern by operating the operation unit 11. When an instruction to newly register an acoustic pattern is given from the operation unit 11, the registration control unit 82 instructs the sound analysis unit 6 to fully register the acoustic pattern of the selected acoustic signal in the sound dictionary.

音解析部6は、仮登録した音響パターンに新たなコードを付与して、コードと音響パターンとを対応付けて音辞書に本登録させる。   The sound analysis unit 6 assigns a new code to the temporarily registered acoustic pattern and associates the code with the acoustic pattern so as to be registered in the sound dictionary.

操作部11より音響パターンを新規登録する指示がなされなかったら、登録制御部82は、音辞書記憶部7に一時記憶させた音響パターンを消去するよう音解析部6に指示する。音解析部6は、音辞書記憶部7に一時記憶させた音響パターンを消去する。   If an instruction to newly register an acoustic pattern is not given from the operation unit 11, the registration control unit 82 instructs the sound analysis unit 6 to delete the acoustic pattern temporarily stored in the sound dictionary storage unit 7. The sound analysis unit 6 erases the acoustic pattern temporarily stored in the sound dictionary storage unit 7.

図3に示すフローチャートを用いて、本実施形態の音処理装置の動作を改めて説明する。図3において、音処理装置が動作を開始すると、チャンネル切り替え部2及び音源方向導出部3は、ステップS101にて、各チャンネルのマイクロホン1a,1bより音響信号を取得する。チャンネル切り替え部2は、ステップS102にて、各チャンネルの音響信号を記憶部21,22に一時的に記憶させる。   The operation of the sound processing apparatus of this embodiment will be described again with reference to the flowchart shown in FIG. In FIG. 3, when the sound processing device starts operation, the channel switching unit 2 and the sound source direction deriving unit 3 acquire acoustic signals from the microphones 1a and 1b of the respective channels in step S101. In step S102, the channel switching unit 2 temporarily stores the acoustic signals of the respective channels in the storage units 21 and 22.

音源方向導出部3は、ステップS103にて、音源の方向を特定して、チャンネル切り替え制御信号をチャンネル切り替え部2(読み出し制御部23)に供給する。チャンネル切り替え部2は、ステップS104にて、音解析用チャンネルを選定して、選択音響信号を信号処理部5に供給する。   In step S103, the sound source direction deriving unit 3 specifies the direction of the sound source and supplies a channel switching control signal to the channel switching unit 2 (reading control unit 23). In step S104, the channel switching unit 2 selects a sound analysis channel and supplies the selected acoustic signal to the signal processing unit 5.

以上のステップS101〜S104の処理と並行して、動き検出センサ4は、ステップS201にて、筐体100の動きの検出を開始する。音源方向導出部3は、ステップS202にて、筐体100の移動量を算出する。   In parallel with the processes in steps S101 to S104, the motion detection sensor 4 starts detecting the motion of the housing 100 in step S201. The sound source direction deriving unit 3 calculates the amount of movement of the housing 100 in step S202.

音源方向導出部3は、ステップS105にて、音源と音解析用チャンネルとの相対位置を監視する。音源方向導出部3は、ステップS106にて、音源は、選定した音解析用チャンネルの集音領域内にあるか否かを判定する。音源が音解析用チャンネルの集音領域内にあるか否かの具体的な意味合いについては後述する。   In step S105, the sound source direction deriving unit 3 monitors the relative positions of the sound source and the sound analysis channel. In step S106, the sound source direction deriving unit 3 determines whether or not the sound source is within the sound collection region of the selected sound analysis channel. The specific meaning of whether or not the sound source is within the sound collection area of the sound analysis channel will be described later.

音源が選定した音解析用チャンネルの集音領域内になければ(NO)、音源方向導出部3は、ステップS107にて、チャンネル切り替え部2に音解析用チャンネルの切り替えを指示して、処理をステップS106に戻す。   If the sound source is not within the sound collection area of the selected sound analysis channel (NO), the sound source direction deriving unit 3 instructs the channel switching unit 2 to switch the sound analysis channel in step S107 and performs processing. Return to step S106.

音源が選定した音解析用チャンネルの集音領域内にあれば(YES)、チャンネル切り替え部2は、ステップS108にて、選定した音解析用チャンネルに対応した記憶部より音響信号(選択音響信号)を読み出して、信号処理部5に供給する。   If the sound source is within the sound collection area of the selected sound analysis channel (YES), in step S108, the channel switching unit 2 receives an acoustic signal (selected acoustic signal) from the storage unit corresponding to the selected sound analysis channel. Is supplied to the signal processing unit 5.

信号処理部5は、ステップS109にて、入力された選択音響信号を帯域制限し、必要に応じて周波数補正し、必要に応じて音量補正する。   In step S109, the signal processing unit 5 limits the band of the input selected acoustic signal, corrects the frequency as necessary, and corrects the volume as necessary.

周波数補正部52は、マイクロホン1(即ち、筐体100)が移動したとき、ドップラー効果により変化する音の周波数を補正する。音量補正部53は、筐体100が移動して音源とマイクロホン1との位置関係が変化したとき、マイクロホン1の指向性により変化する音量を補正する。   The frequency correction unit 52 corrects the frequency of the sound that changes due to the Doppler effect when the microphone 1 (that is, the casing 100) moves. The volume correction unit 53 corrects the volume that changes due to the directivity of the microphone 1 when the housing 100 moves and the positional relationship between the sound source and the microphone 1 changes.

ここで、図4を用いて、ステップS109における周波数補正について説明する。図4において、音源SSから発せられる音は一点鎖線にて示すように球面波であり、音源SSを中心とする球面上では音圧や粒子速度は一定である。マイクロホン1が、位置P0から位置P1、…位置Pnと移動していくとする。   Here, the frequency correction in step S109 will be described with reference to FIG. In FIG. 4, the sound emitted from the sound source SS is a spherical wave as indicated by the alternate long and short dash line, and the sound pressure and particle velocity are constant on the spherical surface centered on the sound source SS. Assume that the microphone 1 moves from position P0 to position P1,... Position Pn.

音源方向導出部3は、音源SSと位置P0との位置関係を求め、音源の方向を示す情報を信号処理部5に供給する。周波数補正部52は、動き検出センサ4より出力された動き検出情報に基づいて、マイクロホン1の移動角度θと移動速度Vmを求める。マイクロホン1の移動角度θと移動速度Vmを信号処理部5の外部で求めて、それらの情報を周波数補正部52に供給してもよい。   The sound source direction deriving unit 3 obtains the positional relationship between the sound source SS and the position P0 and supplies information indicating the direction of the sound source to the signal processing unit 5. The frequency correction unit 52 obtains the movement angle θ and the movement speed Vm of the microphone 1 based on the movement detection information output from the movement detection sensor 4. The movement angle θ and the movement speed Vm of the microphone 1 may be obtained outside the signal processing unit 5 and the information thereof may be supplied to the frequency correction unit 52.

マイクロホン1が静止していれば、音波の伝搬速度はVs(一般には340m/s)である。マイクロホン1が位置P0から位置P1へと移動するとき、音波とマイクロホン1との相対速度はVs−Vm・cosθとなる。   If the microphone 1 is stationary, the propagation speed of the sound wave is Vs (generally 340 m / s). When the microphone 1 moves from the position P0 to the position P1, the relative velocity between the sound wave and the microphone 1 is Vs−Vm · cos θ.

マイクロホン1で集音される音の周波数をfsr、音源SSより発せられる音の周波数をfsとすると、音の高さ(周波数)は、式(1)となる。   Assuming that the frequency of the sound collected by the microphone 1 is fsr and the frequency of the sound emitted from the sound source SS is fs, the pitch (frequency) of the sound is expressed by Equation (1).

fsr=fs(Vs−Vm・cosθ)/Vs …(1)   fsr = fs (Vs−Vm · cos θ) / Vs (1)

式(1)を書き換えると、式(2)となる。
fs=fsr・Vs/(Vs−Vm・cosθ) …(2)
When equation (1) is rewritten, equation (2) is obtained.
fs = fsr · Vs / (Vs−Vm · cos θ) (2)

周波数補正部52は、式(2)に基づいて、ドップラー効果により変化する音の周波数を補正することができる。筐体100が移動しても周波数補正部52が周波数を補正するので、音解析部6において音を誤って解析する可能性を低減させることができる。   The frequency correction unit 52 can correct the frequency of the sound that changes due to the Doppler effect based on the equation (2). Since the frequency correction unit 52 corrects the frequency even when the housing 100 moves, the possibility that the sound analysis unit 6 erroneously analyzes the sound can be reduced.

図5を用いて、ステップS109における音量補正について説明する。図2で説明したように、マイクロホン1は指向性を有するので、筐体100が移動すれば、マイクロホン1で集音される音量が変化することがある。   The volume correction in step S109 will be described with reference to FIG. As described with reference to FIG. 2, since the microphone 1 has directivity, the volume of sound collected by the microphone 1 may change when the housing 100 moves.

図5では、筐体100を簡略化して示している。図5に示すマイクロホン1はマイクロホン1aに相当する。   FIG. 5 shows the housing 100 in a simplified manner. The microphone 1 shown in FIG. 5 corresponds to the microphone 1a.

筐体100に組み込まれている状態でのマイクロホン1の指向性に起因して、マイクロホン1が集音する音量は、音が入射する方向によって異なることになる。音量補正部53は、音量のばらつきを補正するための補正係数を予め記憶している。   Due to the directivity of the microphone 1 in a state of being incorporated in the housing 100, the sound volume collected by the microphone 1 varies depending on the direction in which the sound enters. The volume correction unit 53 stores a correction coefficient for correcting the variation in volume in advance.

音量のばらつきを補正するための補正係数は、マイクロホン1の周方向の各方向でのマイクロホン1の感度に基づいて決定することができる。   A correction coefficient for correcting variation in volume can be determined based on the sensitivity of the microphone 1 in each circumferential direction of the microphone 1.

図2において、マイクロホン1aの感度が、相対的に、方向Dr1a1において最大の1、方向Dr1a2において最小の0.5であるとする。この場合、音源が方向Dr1a1に位置しているときは補正係数1を乗じ、音源が方向Dr1a2に位置しているときは補正係数2を乗じれば、マイクロホン1の指向性に起因する音量のばらつきを補正することができる。   In FIG. 2, it is assumed that the sensitivity of the microphone 1a is relatively 1 in the direction Dr1a1 and 0.5 in the direction Dr1a2. In this case, if the sound source is located in the direction Dr1a1 and multiplied by the correction coefficient 1, and if the sound source is located in the direction Dr1a2 and multiplied by the correction coefficient 2, the variation in volume caused by the directivity of the microphone 1 Can be corrected.

図5において、筐体100が、位置P00から位置P10、…位置Pn0と移動していくとする。位置P00において、筐体100は周方向に図示のような向きにあるとする。位置P10において、筐体100は、位置P00における向きと比較して図5の右回りに回転して、周方向に図示のような向きにあるとする。   In FIG. 5, it is assumed that the housing 100 moves from position P00 to position P10,... Position Pn0. At the position P00, the housing 100 is assumed to be oriented in the circumferential direction as illustrated. At the position P10, the casing 100 is rotated clockwise in FIG. 5 as compared with the orientation at the position P00, and is in the orientation as illustrated in the circumferential direction.

音量補正部53は、筐体100のそれぞれの位置(向き)で、音源SSと方向Dr1a1とがなす角度を求める。音量補正部53は、筐体100が位置P00に位置しているとき、音源SSと方向Dr1a1とがなす角度θP00を求める。音量補正部53は、筐体100が位置P10に位置しているとき、音源SSと方向Dr1a1とがなす角度θP10を求める。 The sound volume correction unit 53 obtains an angle formed by the sound source SS and the direction Dr1a1 at each position (orientation) of the housing 100. The volume correction unit 53 obtains an angle θ P00 formed by the sound source SS and the direction Dr1a1 when the housing 100 is located at the position P00. Sound volume corrector 53, when the housing 100 is positioned at the position P10, determining the angle theta P10 formed by the sound source SS and direction Dr1a1.

筐体100のそれぞれの位置における音源SSと方向Dr1a1とがなす角度を信号処理部5の外部で求めて、角度を示す情報を音量補正部53に供給してもよい。   The angle formed between the sound source SS and the direction Dr1a1 at each position of the housing 100 may be obtained outside the signal processing unit 5, and information indicating the angle may be supplied to the volume correction unit 53.

音量補正部53は、角度θP00,θP10…に対応した補正係数に基づいて、位置P00,P10…それぞれの位置において入力される選択音響信号の音量を補正する。 The volume correction unit 53 corrects the volume of the selected acoustic signal input at each of the positions P00, P10... Based on the correction coefficient corresponding to the angles θ P00 , θ P10 .

ところで、図5に示すように、音源SSとマイクロホン1との距離は位置P00,P10…で異なっている。厳密には、距離が異なれば音量も異なることになり、音源SSとマイクロホン1との距離に応じて音量は変化する。しかしながら、音源SSとマイクロホン1との距離を算出することはできないため、本実施形態では距離の違いによる音量の違いを無視することとする。   Incidentally, as shown in FIG. 5, the distance between the sound source SS and the microphone 1 differs at positions P00, P10. Strictly speaking, when the distance is different, the sound volume is also different, and the sound volume is changed according to the distance between the sound source SS and the microphone 1. However, since the distance between the sound source SS and the microphone 1 cannot be calculated, in this embodiment, the difference in volume due to the difference in distance is ignored.

音量補正部53は、筐体100の位置(向き)の変化を細かく検出して、選択音響信号の音量をその都度細かく補正するのがよい。   The volume correction unit 53 may finely detect changes in the position (orientation) of the housing 100 and finely correct the volume of the selected acoustic signal each time.

図3に戻り、音解析部6は、ステップS110にて、選択音響信号を解析する。音解析部6は、ステップS111にて、音辞書に登録されている音響パターンと一致するか否かを判定する。   Returning to FIG. 3, the sound analysis unit 6 analyzes the selected sound signal in step S110. In step S111, the sound analysis unit 6 determines whether or not the sound pattern matches the acoustic pattern registered in the sound dictionary.

音辞書に登録されている音響パターンと一致すれば(YES)、音解析部6は、ステップS112にて、一致した音響パターンのコードを出力する。表示制御部81は、ステップS113にて、音源方向と、音響パターンのコードが示す音解析結果とを表示部10に表示させて、処理を終了させる。   If it matches with the acoustic pattern registered in the sound dictionary (YES), the sound analysis unit 6 outputs the code of the matched acoustic pattern in step S112. In step S113, the display control unit 81 displays the sound source direction and the sound analysis result indicated by the code of the acoustic pattern on the display unit 10, and ends the process.

表示制御部81は、所定時間後に表示部10に表示させた情報を消去してもよいし、ユーザが操作部11を操作することによって情報の消去が指示されたら、情報を消去してもよい。   The display control unit 81 may erase the information displayed on the display unit 10 after a predetermined time, or may erase the information when the user instructs to erase the information by operating the operation unit 11. .

一方、ステップS111にて音辞書に登録されている音響パターンと一致しなければ(NO)、音解析部6は、ステップS114にて、選択音響信号の音響パターンを音辞書記憶部7に一時記憶させ、未登録の音響パターンであることを示すコードを出力する。   On the other hand, if it does not match the acoustic pattern registered in the sound dictionary in step S111 (NO), the sound analysis unit 6 temporarily stores the acoustic pattern of the selected acoustic signal in the sound dictionary storage unit 7 in step S114. And output a code indicating that it is an unregistered acoustic pattern.

表示制御部81は、ステップS115にて、音源方向と、音響パターンの音辞書への登録の要否を選択するメッセージを表示部10に表示させる。   In step S115, the display control unit 81 causes the display unit 10 to display a message for selecting the sound source direction and the necessity of registration of the acoustic pattern in the sound dictionary.

登録制御部82は、ステップS116にて、音辞書に登録する指示があったか否かを判定する。音辞書に登録する指示があれば(YES)、登録制御部82は、ステップS117にて、一時記憶した音響パターンに新たなコードを付与して音辞書に登録させて、処理を終了させる。   In step S116, the registration control unit 82 determines whether there is an instruction to register in the sound dictionary. If there is an instruction to register in the sound dictionary (YES), the registration control unit 82 adds a new code to the temporarily stored acoustic pattern and registers it in the sound dictionary in step S117, and ends the process.

音辞書に登録する指示がなければ(NO)、表示制御部81は、メッセージ等の表示を消去して、処理を終了させる。   If there is no instruction to register in the sound dictionary (NO), the display control unit 81 deletes the display of the message or the like and ends the process.

図6A〜図6Cを用いて、筐体100の移動に伴って、チャンネル切り替え部2が音解析用チャンネルをどのように切り替えるかについて説明する。ここでは、音源方向導出部3が筐体100の動きを予測し、チャンネル切り替え部2が予測結果に基づいて音解析用チャンネルを切り替える場合について説明する。   With reference to FIGS. 6A to 6C, how the channel switching unit 2 switches the sound analysis channel as the casing 100 moves is described. Here, a case where the sound source direction deriving unit 3 predicts the movement of the casing 100 and the channel switching unit 2 switches the sound analysis channel based on the prediction result will be described.

図6Aにおいて、ユーザ200は、体の前方(図6Aの下側)に位置するよう筐体100を所持している。集音領域R1aはマイクロホン1aによる集音領域であり、集音領域R1bはマイクロホン1bによる集音領域である。実際には、集音領域R1a,R1bは図示のように明確には区分けされないが、便宜上、区分けしている。   In FIG. 6A, the user 200 is carrying the housing | casing 100 so that it may be located in front of the body (lower side of FIG. 6A). The sound collection area R1a is a sound collection area by the microphone 1a, and the sound collection area R1b is a sound collection area by the microphone 1b. Actually, the sound collection areas R1a and R1b are not clearly divided as shown in the figure, but are divided for convenience.

集音領域R1aは、音源がマイクロホン1a側に位置しているとき、マイクロホン1aでの集音が適した角度領域である。集音領域R1bは、音源がマイクロホン1b側に位置しているとき、マイクロホン1bでの集音が適した角度領域である。   The sound collection region R1a is an angle region in which sound collection by the microphone 1a is suitable when the sound source is located on the microphone 1a side. The sound collection region R1b is an angle region in which sound collection by the microphone 1b is suitable when the sound source is located on the microphone 1b side.

音源が集音領域R1a内にあるとは、音源が集音領域R1aで示す角度領域内に位置することである。音源が集音領域R1b内にあるとは、音源が集音領域R1bで示す角度領域内に位置することである。   The sound source being in the sound collection region R1a means that the sound source is located in the angle region indicated by the sound collection region R1a. The sound source being in the sound collection region R1b means that the sound source is located in the angle region indicated by the sound collection region R1b.

図6Aに示すように、ユーザ200の右後方で所定の音が発生したとする。音源SSは集音領域R1a内にある。この場合、マイクロホン1aが音解析用チャンネルである。マイクロホン1aより出力された音響信号が記憶部21より読み出されて、音解析部6へと供給される。本実施形態の音処理装置は、上述のようにして、入力された音響信号の解析を開始する。   As shown in FIG. 6A, it is assumed that a predetermined sound is generated at the right rear of the user 200. The sound source SS is in the sound collection area R1a. In this case, the microphone 1a is a sound analysis channel. The acoustic signal output from the microphone 1 a is read from the storage unit 21 and supplied to the sound analysis unit 6. The sound processing apparatus of this embodiment starts the analysis of the input acoustic signal as described above.

図6Bに示すように、ユーザ200は、左回りに体の向きを変えたとする。音源SSは依然として集音領域R1a内にある。よって、マイクロホン1aが音解析用チャンネルのままである。   As shown in FIG. 6B, it is assumed that the user 200 changes the direction of the body counterclockwise. The sound source SS is still in the sound collection area R1a. Therefore, the microphone 1a remains as a sound analysis channel.

動き検出センサ4は、ユーザ200が体の向きを変えたことに伴う筐体100の動きを検出する。音源方向導出部3は、動き検出センサ4からの動き検出情報に基づいて、筐体100の動きを予測する。   The motion detection sensor 4 detects the motion of the housing 100 when the user 200 changes the body direction. The sound source direction deriving unit 3 predicts the motion of the housing 100 based on the motion detection information from the motion detection sensor 4.

図6Cに示すように、ユーザ200は、さらに左回りに体の向きを変えて、移動を停止させたとする。図6Cでは、音源SSは集音領域R1b内に移っている。この場合、マイクロホン1bが音解析用チャンネルとなる。   As illustrated in FIG. 6C, it is assumed that the user 200 further stops the movement by changing the direction of the body counterclockwise. In FIG. 6C, the sound source SS has moved into the sound collection region R1b. In this case, the microphone 1b is a sound analysis channel.

音源方向導出部3は、筐体100の動きを予測するので、図6Bから図6Cへと移行するときに、音源SSが集音領域R1a内から集音領域R1b内へと移るタイミングを事前に予測することが可能である。   Since the sound source direction deriving unit 3 predicts the movement of the casing 100, when moving from FIG. 6B to FIG. 6C, the timing at which the sound source SS moves from the sound collection region R1a to the sound collection region R1b is determined in advance. It is possible to predict.

よって、チャンネル切り替え部2は、音源SSが集音領域R1a内から集音領域R1b内へと移ると予測されるタイミングで、音解析用チャンネルをマイクロホン1aからマイクロホン1bへと切り替えることができる。   Therefore, the channel switching unit 2 can switch the sound analysis channel from the microphone 1a to the microphone 1b at a timing when the sound source SS is predicted to move from the sound collection region R1a to the sound collection region R1b.

このように、本実施形態によれば、音源SSが集音領域R1a内から集音領域R1b内へ、または、集音領域R1b内から集音領域R1a内へと移るタイミングにほぼ同期させて音解析用チャンネルを切り替えることが可能となる。   Thus, according to the present embodiment, the sound source SS is substantially synchronized with the timing at which the sound source SS moves from the sound collection area R1a to the sound collection area R1b or from the sound collection area R1b to the sound collection area R1a. It is possible to switch the analysis channel.

音源方向導出部3が筐体100の動きを予測し、チャンネル切り替え部2が予測結果に基づいて音解析用チャンネルを切り替えるようにすれば、タイミングよくチャンネルを切り替えることができる。そして、複数ある音解析用チャンネルの中から、最良の音質(比較的良好な音質)となるチャンネルからの音響信号を選択して音解析を行うことができる。   If the sound source direction deriving unit 3 predicts the movement of the casing 100 and the channel switching unit 2 switches the sound analysis channel based on the prediction result, the channel can be switched with good timing. Then, sound analysis can be performed by selecting an acoustic signal from a channel having the best sound quality (relatively good sound quality) from among a plurality of sound analysis channels.

音源方向導出部3によって音源SSと筐体100の位置関係を導出し、動き検出センサ4によって筐体100の動きを検出することで、筐体100の位置の変化を細かく検出することができる。そして、信号処理部5によって音響信号の周波数または音量を補正することで、音解析部6による音響信号の解析精度を向上させることが可能となる。   By deriving the positional relationship between the sound source SS and the housing 100 by the sound source direction deriving unit 3 and detecting the movement of the housing 100 by the motion detection sensor 4, changes in the position of the housing 100 can be detected in detail. Then, by correcting the frequency or volume of the acoustic signal by the signal processing unit 5, it is possible to improve the analysis accuracy of the acoustic signal by the sound analysis unit 6.

本発明は以上説明した本実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々変更可能である。図1に示す各部のうち、ソフトウェア(コンピュータプログラム)で構成可能な部分をソフトウェアで構成してもよい。ハードウェアとソフトウェアとの使い分けは任意である。   The present invention is not limited to the embodiment described above, and various modifications can be made without departing from the scope of the present invention. Of each unit shown in FIG. 1, a portion that can be configured by software (computer program) may be configured by software. Use of hardware and software is optional.

1,1a,1b マイクロホン
2 チャンネル切り替え部
3 音源方向導出部
4 動き検出センサ
6 音解析部
10 表示部
52 周波数補正部
53 音量補正部
81 表示制御部
100 筐体
1, 1a, 1b Microphone 2 Channel switching unit 3 Sound source direction deriving unit 4 Motion detection sensor 6 Sound analysis unit 10 Display unit 52 Frequency correction unit 53 Volume correction unit 81 Display control unit 100 Case

Claims (5)

筐体と、
前記筐体に取り付けられた複数のマイクロホンと、
前記複数のマイクロホンより出力された音響信号に基づいて、音源と前記筐体との位置関係を導出する音源方向導出部と、
前記筐体の動きを検出する動き検出センサと、
前記音源方向導出部によって導出された音源と前記筐体との位置関係と、前記動き検出センサによって検出された前記筐体の動きとに基づいて、前記音響信号の周波数または音量を補正する信号処理部と、
を備えることを特徴とする音処理装置。
A housing,
A plurality of microphones attached to the housing;
A sound source direction deriving unit for deriving a positional relationship between a sound source and the housing based on acoustic signals output from the plurality of microphones;
A motion detection sensor for detecting the motion of the housing;
Signal processing for correcting the frequency or volume of the acoustic signal based on the positional relationship between the sound source derived by the sound source direction deriving unit and the housing and the movement of the housing detected by the motion detection sensor And
A sound processing apparatus comprising:
前記信号処理部によって補正された音響信号に基づいて、前記音源または前記音響信号が何であるかを解析する音解析部と、
前記音解析部の解析結果を表示部に表示するように制御する表示制御部と、
を備えることを特徴とする請求項1記載の音処理装置。
A sound analysis unit that analyzes what the sound source or the acoustic signal is based on the acoustic signal corrected by the signal processing unit;
A display control unit for controlling the analysis result of the sound analysis unit to be displayed on the display unit;
The sound processing apparatus according to claim 1, further comprising:
前記表示制御部は、前記音源方向導出部によって導出された音源と前記筐体との位置関係を示す情報を前記表示部に表示するように制御することを特徴とする請求項2記載の音処理装置。   The sound processing according to claim 2, wherein the display control unit controls the display unit to display information indicating a positional relationship between the sound source derived by the sound source direction deriving unit and the housing. apparatus. 前記音源方向導出部によって導出された音源と前記筐体との位置関係と、前記動き検出センサによって検出された前記筐体の動きとに基づいて、前記複数のマイクロホンのうち選択された1つのマイクロホンより出力された音響信号を選択するチャンネル切り替え部をさらに備えることを特徴とする請求項1〜3のいずれか1項に記載の音処理装置。   One microphone selected from the plurality of microphones based on the positional relationship between the sound source derived by the sound source direction deriving unit and the housing and the movement of the housing detected by the motion detection sensor The sound processing apparatus according to claim 1, further comprising a channel switching unit that selects a sound signal output from the sound processing unit. 前記音源方向導出部は、前記動き検出センサによって検出された前記筐体の動きに基づいて前記筐体の動きを予測し、予測結果に基づくタイミングで選択する音響信号を切り替えるよう、チャンネル切り替え制御信号を前記チャンネル切り替え部に供給することを特徴とする請求項4記載の音処理装置。   The sound source direction deriving unit predicts the movement of the casing based on the movement of the casing detected by the motion detection sensor, and switches a channel switching control signal so as to switch an acoustic signal to be selected at a timing based on the prediction result. The sound processing apparatus according to claim 4, wherein the sound is supplied to the channel switching unit.
JP2014093590A 2014-04-30 2014-04-30 Sound processor Active JP6237449B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014093590A JP6237449B2 (en) 2014-04-30 2014-04-30 Sound processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014093590A JP6237449B2 (en) 2014-04-30 2014-04-30 Sound processor

Publications (2)

Publication Number Publication Date
JP2015210473A JP2015210473A (en) 2015-11-24
JP6237449B2 true JP6237449B2 (en) 2017-11-29

Family

ID=54612672

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014093590A Active JP6237449B2 (en) 2014-04-30 2014-04-30 Sound processor

Country Status (1)

Country Link
JP (1) JP6237449B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102061892B1 (en) * 2017-03-09 2020-02-04 이진경 Method and apparatus for identifying external audio signal

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63144698A (en) * 1986-12-08 1988-06-16 Nippon Telegr & Teleph Corp <Ntt> Microphone switching and sound collecting device
JP2007334149A (en) * 2006-06-16 2007-12-27 Akira Hata Head mount display apparatus for hearing-impaired persons
JP5240832B2 (en) * 2008-06-04 2013-07-17 Necカシオモバイルコミュニケーションズ株式会社 Sound input device, sound input method and program

Also Published As

Publication number Publication date
JP2015210473A (en) 2015-11-24

Similar Documents

Publication Publication Date Title
US20170013116A1 (en) Method, apparatus and computer-readable medium for travel path condition prompt
US9691251B2 (en) Lost child search system, recording medium, and lost child search method
US20060022958A1 (en) Touch-panel input device having a function for providing vibration and method for providing vibration in response to input operation
KR101696930B1 (en) Method for setting private mode in mobile terminal and mobile terminal using the same
US11669053B2 (en) Electronic device and computer-readable non-transitory recording medium
US10949644B2 (en) Fingerprint sensing method based on touch pressure in black screen mode of touch input device and touch input device for the same
US11059458B2 (en) System and method for cleaning obstructions for the sensors of an autonomous vehicle
JP2008158842A (en) Map display device
US20170139479A1 (en) Tactile sensation control system and tactile sensation control method
JP6237449B2 (en) Sound processor
KR20160090554A (en) Mobile terminal
US9989930B2 (en) Mobile electronic device, control method, and non-transitory storage medium
JP2011192231A (en) In-vehicle input device, and input program therefor
KR102419425B1 (en) Vibration Pattern Creating Method And Device Thereof
US20140210739A1 (en) Operation receiver
JP2014175932A (en) Electronic apparatus
KR20150082855A (en) Method for warning and detecting obstacle forward for when walking using smart phone, and smart phone of loading application of function the same
KR102341553B1 (en) Fingerprint sensing mehotd based on touch pressure in black screen mode of touch input apparatus and touch input appraratus for the same
US11068039B2 (en) Electronic apparatus, control method, and storage medium
US20120038555A1 (en) Method and Electronic Device With Motion Compensation
KR101779504B1 (en) Mobile terminal and control method for mobile terminal
KR101999339B1 (en) Device of window open and close of vehicle including input device having a plurality of sensors
KR20170082842A (en) Electronic device and method for noise control using electronic device
US10817059B2 (en) Method and apparatus for adaptive feedback
JP6543204B2 (en) Mobile terminal

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160929

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170925

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171003

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171016

R150 Certificate of patent or registration of utility model

Ref document number: 6237449

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150