JP2007036610A - Sound production device - Google Patents

Sound production device Download PDF

Info

Publication number
JP2007036610A
JP2007036610A JP2005216313A JP2005216313A JP2007036610A JP 2007036610 A JP2007036610 A JP 2007036610A JP 2005216313 A JP2005216313 A JP 2005216313A JP 2005216313 A JP2005216313 A JP 2005216313A JP 2007036610 A JP2007036610 A JP 2007036610A
Authority
JP
Japan
Prior art keywords
sound source
sound
signal
driver
source position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005216313A
Other languages
Japanese (ja)
Inventor
Hideki Sakanashi
英樹 阪梨
Satoshi Sekine
聡 関根
Takuro Sone
卓朗 曽根
Kazunobu Kondou
多伸 近藤
Jun Yamada
潤 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Yamaha Motor Co Ltd
Original Assignee
Yamaha Corp
Yamaha Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp, Yamaha Motor Co Ltd filed Critical Yamaha Corp
Priority to JP2005216313A priority Critical patent/JP2007036610A/en
Publication of JP2007036610A publication Critical patent/JP2007036610A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Headphones And Earphones (AREA)
  • Stereophonic System (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a sound production device capable of preventing a listener from failing to hear new sound or important sound when producing sound generated based on sound source signals generated from a plurality of sound sources from a headphone. <P>SOLUTION: The sound production device is applied to a two-wheeled motor vehicle BY and composed of the driver's headphone 11 mounted to a helmet 10, a driver's microphone 12, a driver unit 14, a portable telephone 16, a music player 17, a navigation device 18, a vehicle state detector 19, a traveling state detector 20, the other sound sources 21, and an in-vehicle unit 30 or the like. The sound production device decides a position (a virtual sound source position), where a sound image based on each sound source signal is localized, corresponding to the types of the sound source signals generated from each of the sound sources and the change of the types of the sound source signals. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、複数の音源からの音源信号に基づく音像を定位してヘッドホンから発音する発音装置(音響定位装置)に関する。   The present invention relates to a sound generation device (acoustic localization device) that localizes sound images based on sound source signals from a plurality of sound sources and generates sound from headphones.

従来から、自動二輪車の運転者用のヘルメット及び同乗者用のヘルメットにマイクロホンとスピーカを装備し、これらを使用して運転者と同乗者との間で無線通信による会話を行うことができるように構成した装置が知られている(例えば、特許文献1を参照。)。
特開2001−280982号
Conventionally, a motorcycle helmet and a passenger helmet are equipped with a microphone and a speaker so that a conversation between the driver and the passenger can be performed by wireless communication. A configured apparatus is known (for example, see Patent Document 1).
JP 2001-280982 A

更に、上記従来の装置によれば、運転者はスピーカから同乗者の音声のみでなく、通常の携帯電話の着信音や通話相手の音声、音楽及びナビゲーションシステムからの交通情報等、複数の音源からの音をも聴取することができる。   Further, according to the above-mentioned conventional apparatus, the driver can not only hear the passenger's voice from the speaker, but also from a plurality of sound sources such as a normal mobile phone ringtone, the voice of the other party, music, and traffic information from the navigation system. The sound of can be heard.

しかしながら、上記従来の装置によると、例えば、音楽を聴いている最中に同乗者による発言によって会話が開始されたり、音楽を聴いている最中に重要な交通情報が発せられたり、或いは、同乗者と会話している最中に警報が発せられるような場合等、継続的に発音されている音源からの音に加えて新たな音源からの音が発せられる場合、運転者は現時点まで聞いていた音に対して集中度合いを高めているので、新たな音源からの音を聞き逃してしまう可能性がある。また、上記従来の装置によると、音楽のみを聴いている場合と音楽を聴きながら同乗者等と会話を行う場合とで、音楽は同様に再生される。従って、音楽を聴きながら同乗者等と会話する場合、会話し難いといった問題も生じる。   However, according to the above-mentioned conventional apparatus, for example, a conversation is started by a speech by a passenger while listening to music, important traffic information is emitted while listening to music, or If a sound is emitted from a new sound source in addition to the sound from a continuously sounding source, such as when an alarm is issued during a conversation with the driver, the driver has been listening to the current time Since the degree of concentration is increased with respect to the sound, the sound from a new sound source may be missed. Further, according to the above-described conventional apparatus, music is reproduced in the same manner when listening only to music or when talking with a passenger while listening to music. Therefore, when talking to a passenger or the like while listening to music, there is a problem that it is difficult to talk.

本発明は、上記課題に対処するためになされたものであって、複数の音源からの音源信号に基づく音をヘッドホンから発生させる場合に好適な発音装置を提供することを目的の一つとしている。かかる目的を達成する本発明による発音装置は、
前記音源信号のそれぞれに基づく音像を定位させる位置である仮想音源位置についてのパターンを、同音源信号の種類及び同音源信号の種類の変化の少なくとも一方に対応付けて仮想音源位置パターンとして予め記憶するとともに、同音源信号の実際の種類及び同音源信号の実際の種類の変化の少なくとも一方と同記憶された仮想音源位置パターンとに基づいて、実際に発生している音源信号のそれぞれの仮想音源位置を決定する音源位置決定手段と、
前記決定されたそれぞれの仮想音源位置に同それぞれの仮想音源位置に対応する前記音源信号に基づく音像を定位させるように同音源信号を変換した出力信号を出力する音源位置定位手段と、
前記音源位置定位手段からの出力信号に基づいて実際の音を発生するヘッドホンと、
を備えている。
The present invention has been made to address the above-described problems, and an object of the present invention is to provide a sound generation device suitable for generating sound based on sound source signals from a plurality of sound sources from headphones. . A sound producing device according to the present invention that achieves such an object,
A pattern of a virtual sound source position, which is a position where a sound image based on each of the sound source signals is localized, is stored in advance as a virtual sound source position pattern in association with at least one of the type of the sound source signal and the change of the type of the sound source signal. In addition, each virtual sound source position of the sound source signal actually generated based on at least one of the actual type of the same sound source signal and the change of the actual type of the same sound source signal and the stored virtual sound source position pattern Sound source position determining means for determining
Sound source localization means for outputting an output signal obtained by converting the sound source signal so as to localize a sound image based on the sound source signal corresponding to the virtual sound source position corresponding to the determined virtual sound source position;
Headphones that generate actual sound based on an output signal from the sound source localization means;
It has.

これによれば、複数の音源のそれぞれから発生される「音を生成するための信号(音源信号)」に基づく音像を定位させる位置である仮想音源位置が、発生している音源信号の種類及び音源信号の種類の変化の少なくとも一方に基づいて、それぞれの音源信号に対して決定される。このとき、音源信号の種類及び音源信号の種類の変化の少なくとも一方に対応付けて記憶されている仮想音源位置パターンと、音源信号の実際の種類及び音源信号の実際の種類の変化の少なくとも一方と、に基づいて、実際に発生している音源信号のそれぞれに対する仮想音源位置が決定される。   According to this, the virtual sound source position, which is a position for localizing the sound image based on the “signal for generating sound (sound source signal)” generated from each of the plurality of sound sources, is the type of the generated sound source signal and A determination is made for each sound source signal based on at least one of the changes in the type of the sound source signal. At this time, the virtual sound source position pattern stored in association with at least one of the type of the sound source signal and the change of the type of the sound source signal, at least one of the actual type of the sound source signal and the change of the actual type of the sound source signal, , The virtual sound source position for each of the actually generated sound source signals is determined.

そして、決定されたそれぞれの仮想音源位置に、それぞれの仮想音源位置に対応する音源信号に基づく音像が定位せしめられる。従って、聴取者は、現時点でどの音源が音を発生させているのか、或いは、現時点においてどの音が重要であるのか等を容易に認識することができる。換言すると、聴取者は、複数の音源から発生される複数の音源信号に基づく音の中から、現時点で必要な音を直感的に選択して聴くことができる。   A sound image based on a sound source signal corresponding to each virtual sound source position is localized at each determined virtual sound source position. Therefore, the listener can easily recognize which sound source is generating sound at the present time, which sound is important at the present time, and the like. In other words, the listener can intuitively select and listen to a sound necessary at the present time from sounds based on a plurality of sound source signals generated from a plurality of sound sources.

更に、各音源信号の音像が定位されるから、聴取者に特定の音の方向及び/又は距離感を認識させることができる。従って、例えば、聴取者が自動二輪車や四輪車両の運転者であるとき、その運転者は、緊急車両や障害物等の接近の方向及び/又は距離を音により認識することが可能となる。加えて、上記構成によれば、仮想音源位置が仮想音源位置パターンに基づいて決定されるので、予め想定される状況に適切な仮想音源位置を簡単な構成により得ることができる。   Furthermore, since the sound image of each sound source signal is localized, it is possible to make the listener recognize the direction of the specific sound and / or the sense of distance. Therefore, for example, when the listener is a driver of a motorcycle or a four-wheel vehicle, the driver can recognize the approaching direction and / or distance of an emergency vehicle or an obstacle by sound. In addition, according to the above configuration, since the virtual sound source position is determined based on the virtual sound source position pattern, a virtual sound source position suitable for a situation assumed in advance can be obtained with a simple configuration.

この場合、前記音源位置決定手段は、前記音源信号に付随する付随情報にも基づいて前記仮想音源位置を決定するように構成されていてもよい。   In this case, the sound source position determining means may be configured to determine the virtual sound source position based also on accompanying information accompanying the sound source signal.

付随情報とは、例えば、前記音源信号に基づいて発生されるべき音の音量に関する情報、前記複数の音源の少なくとも一つの音源を基準としたときの発生すべき音の方向、或いは、その音の重要度等である。   The accompanying information is, for example, information on the volume of the sound to be generated based on the sound source signal, the direction of the sound to be generated with reference to at least one sound source of the plurality of sound sources, or the sound Importance.

更に、前記音源位置決定手段は、
前記一つの音源に対するヘッドホンの向きに基づいて前記仮想音源位置を決定するように構成されていてもよい。
Further, the sound source position determining means includes
The virtual sound source position may be determined based on a direction of headphones with respect to the one sound source.

これによれば、聴取者が如何なる方向を向いていても、音像を適切に定位させ、聴取者の注意を適切な方向に向けることが可能となる。   According to this, it is possible to properly localize the sound image and direct the listener's attention in an appropriate direction regardless of the direction the listener is facing.

また、上述した本発明の発音装置において、前記ヘッドホンは、二輪車用ヘルメット内に装備されたヘッドホンであることが好適である。   In the sound producing device of the present invention described above, it is preferable that the headphones are headphones mounted in a motorcycle helmet.

二輪車用ヘルメットは遮音性が高いので、本発明による発音装置を適用することにより、聴取者である運転者に音による情報を適切に与えることができる。   Since a motorcycle helmet has high sound insulation, it is possible to appropriately give sound information to a driver who is a listener by applying the sound generation device according to the present invention.

また、本発明の発音装置において、前記複数の音源は、携帯電話及び音楽プレーヤを含むことが望ましい。   In the sound generating device of the present invention, it is preferable that the plurality of sound sources include a mobile phone and a music player.

本発明によれば、例えば、音楽プレーヤによる音楽をヘッドホンにより再生しているときに携帯電話に着信があると、その着信を聴取者に確実に知らせることができる。或いは、音楽プレーヤによる音楽をヘッドホンにより再生しているときに携帯電話に着信があったとき、それ以降、携帯電話による通話に適した状態で音楽の再生を続けることも可能となる。   According to the present invention, for example, when an incoming call is received on a mobile phone while music from a music player is being reproduced by headphones, the listener can be surely notified of the incoming call. Alternatively, when an incoming call is received by the mobile phone while the music from the music player is being played back by the headphones, it is possible to continue playing the music in a state suitable for a call by the mobile phone thereafter.

(装置の構成)
以下、本発明による発音装置の実施形態について図面を参照しながら説明する。本明細書、特許請求の範囲及び図面において、「音源の位置(音源の仮想位置)」とは、「音源から出力される音を生成するための信号である音源信号の音像の位置(音像の仮想位置)」と同義として扱われる。
(Device configuration)
Hereinafter, embodiments of a sound producing device according to the present invention will be described with reference to the drawings. In the present specification, claims and drawings, “sound source position (sound source virtual position)” means “sound image signal position (sound image position of sound source signal that is a signal for generating sound output from the sound source”. Virtual position) ”.

この発音装置は、図1に示したように、自動二輪車BYに適用され、フルフェイス型の運転者用ヘルメット10に装着された運転者用ヘッドホン11と運転者用マイクロホン12と運転者用ヘルメット向き検出用地磁気センサ13、運転者ユニット14、車体向き検出用地磁気センサ15、携帯電話16、音楽プレーヤ17、ナビゲーション装置18、車両状態検出装置19、走行状態検出装置20、その他の音源21及び車載ユニット30からなっている。   As shown in FIG. 1, this sounding device is applied to a motorcycle BY, and is suitable for a driver's headphone 11, a driver's microphone 12, and a driver's helmet mounted on a full-face driver's helmet 10. Detection geomagnetic sensor 13, driver unit 14, vehicle body direction detection geomagnetic sensor 15, mobile phone 16, music player 17, navigation device 18, vehicle state detection device 19, travel state detection device 20, other sound source 21 and in-vehicle unit It consists of 30.

また、かかる自動二輪車BYに同乗者が搭乗した場合、上記発音装置は、同乗者用ヘルメット40に装着された同乗者用ヘッドホン41及び同乗者用マイクロホン42、並びに同乗者ユニット43を含む。   In addition, when a passenger gets on the motorcycle BY, the sounding device includes a passenger headphone 41 and a passenger microphone 42 mounted on the passenger helmet 40, and a passenger unit 43.

運転者用ヘッドホン11は、右スピーカ11R及び左スピーカ11Lからなっている(図2を参照。)。右スピーカ11Rは、運転者用ヘルメット10を装着した運転者の右耳近傍に位置されるように運転者用ヘルメット10の内側右方部に配設されている。左スピーカ11Lは、運転者用ヘルメット10を装着した運転者の左耳近傍に位置されるように運転者用ヘルメット10の内側左方部に配設されている。   The driver headphones 11 include a right speaker 11R and a left speaker 11L (see FIG. 2). The right speaker 11 </ b> R is disposed on the right side inside the driver helmet 10 so as to be positioned in the vicinity of the right ear of the driver wearing the driver helmet 10. The left speaker 11L is disposed on the inner left side of the driver helmet 10 so as to be positioned near the left ear of the driver wearing the driver helmet 10.

運転者用マイクロホン12は、運転者用ヘルメット10を装着した運転者の口の近傍に位置されるように運転者用ヘルメット10の内側前方下部に配設されている。運転者用ヘルメット向き検出用地磁気センサ13は、地磁気センサからなっていて、運転者用ヘルメット10の外側上部に配設されている。運転者用ヘルメット向き検出用地磁気センサ13は、運転者用ヘルメット10の方位(運転者用ヘルメット10の前後方向の軸の前方の方位)を検出するようになっている。   The driver microphone 12 is disposed on the lower front side inside the driver helmet 10 so as to be positioned in the vicinity of the mouth of the driver wearing the driver helmet 10. The driver's helmet orientation detection geomagnetic sensor 13 includes a geomagnetic sensor, and is disposed on the outer upper portion of the driver's helmet 10. The driver's helmet orientation detection geomagnetic sensor 13 detects the orientation of the driver's helmet 10 (the orientation ahead of the longitudinal axis of the driver's helmet 10).

運転者ユニット14は、所定の機能を達成する電気回路を収容している。運転者ユニット14は、図1に示したように、コードにより運転者用ヘッドホン11、運転者用マイクロホン12及び運転者用ヘルメット向き検出用地磁気センサ13と接続されている。運転者ユニット14は、運転者用ヘッドホン11を駆動して同運転者用ヘッドホン11から音を発生させるようになっている。運転者ユニット14は、運転者用マイクロホン12からの音声信号を入力するとともに、運転者用ヘルメット向き検出用地磁気センサ13が検出した運転者用ヘルメット10の方位を入力するようになっている。更に、運転者ユニット14は、車載ユニット30と無線通信により必要な情報を交換するようになっている。   The driver unit 14 houses an electric circuit that achieves a predetermined function. As shown in FIG. 1, the driver unit 14 is connected to a driver headphone 11, a driver microphone 12, and a driver's helmet orientation detection geomagnetic sensor 13 by a cord. The driver unit 14 drives the driver headphones 11 to generate sound from the driver headphones 11. The driver unit 14 inputs an audio signal from the driver microphone 12 and inputs the orientation of the driver helmet 10 detected by the driver helmet orientation detection geomagnetic sensor 13. Further, the driver unit 14 exchanges necessary information with the in-vehicle unit 30 by wireless communication.

車体向き検出用地磁気センサ15は、自動二輪車BYの車体に固定されている。車体向き検出用地磁気センサ15は、地磁気センサからなっていて、車体の前後方向の方位(車体の前後方向の軸の前方の方位)を検出するようになっている。携帯電話16は、この発音装置に専用のものではなく、一般に使用される携帯電話である。携帯電話16は、自動二輪車BYのハンドルに設けられた図示しない保持部に着脱可能に保持されている。   The body orientation detection geomagnetic sensor 15 is fixed to the body of the motorcycle BY. The vehicle body direction detection geomagnetic sensor 15 is composed of a geomagnetic sensor and detects the longitudinal direction of the vehicle body (the forward direction of the longitudinal axis of the vehicle body). The mobile phone 16 is not dedicated to this sounding device, but is a commonly used mobile phone. The mobile phone 16 is detachably held by a holding portion (not shown) provided on the handle of the motorcycle BY.

音楽プレーヤ17(例えば、MP3プレーヤ等)は、自動二輪車BYのハンドルに固定されている。音楽プレーヤ17は、音楽データを内部に格納していて、その音楽データに基づいて音楽を再生するための信号を出力するようになっている。   A music player 17 (for example, an MP3 player) is fixed to the handle of the motorcycle BY. The music player 17 stores music data therein, and outputs a signal for reproducing music based on the music data.

ナビゲーション装置18は、自動二輪車BYのハンドルに固定されている。ナビゲーション装置18は、GPS装置を内蔵している。GPS装置は、GPS(Global Positioning System)人工衛星から放射される自車位置検出用の航法電波を受信して自動二輪車BYの現在位置を取得するようになっている。ナビゲーション装置18は、現在位置から所定の操作により設定された目的地までの経路を計算により求め、経路案内を音声により行うための信号を出力するようになっている。   The navigation device 18 is fixed to the handle of the motorcycle BY. The navigation device 18 has a built-in GPS device. The GPS device is adapted to receive a navigation radio wave for detecting the position of the own vehicle radiated from a GPS (Global Positioning System) satellite and acquire the current position of the motorcycle BY. The navigation device 18 obtains a route from the current position to a destination set by a predetermined operation by calculation, and outputs a signal for performing route guidance by voice.

車両状態検出装置19は、自動二輪車BYのハンドル近傍の前部に固定されている。車両状態検出装置19は、自動二輪車BYの状態を検出する種々のセンサやスイッチ等(図示省略)と接続されている。車両状態検出装置19は、接続されたセンサからの信号に基づいて、自動二輪車BYの各部の異常状態を含む車両状態を検出するようになっている。車両状態検出装置19は、検出された車両状態を運転者に音声又は警告音により報知するための信号を必要に応じて出力するようになっている。   The vehicle state detection device 19 is fixed to the front part in the vicinity of the handle of the motorcycle BY. The vehicle state detection device 19 is connected to various sensors, switches, and the like (not shown) that detect the state of the motorcycle BY. The vehicle state detection device 19 detects a vehicle state including an abnormal state of each part of the motorcycle BY based on a signal from a connected sensor. The vehicle state detection device 19 outputs a signal for notifying the driver of the detected vehicle state by voice or warning sound as necessary.

車両状態検出装置19は、例えば、以下の機能を達成するようになっている。
(1)燃料残量検出センサからの信号に基づき車両状態として燃料残量を検出して報知する。
(2)方向指示器制御用スイッチと接続されていて、方向指示器が点滅されているか否か及び方向指示器が点滅されている場合に左右どちらの方向指示器が点滅しているかを検出して報知する。
(3)ブレーキ油圧センサと接続されていて、ブレーキ油圧が異常に低下したか否かを判定することにより、ブレーキシステムが異常となっていることを検出して報知する。
The vehicle state detection device 19 achieves, for example, the following functions.
(1) Based on the signal from the fuel remaining amount detection sensor, the remaining fuel amount is detected and notified as the vehicle state.
(2) Connected to the direction indicator control switch, detects whether the direction indicator is flashing and whether the left or right direction indicator is flashing when the direction indicator is flashing. To inform.
(3) It is connected to the brake oil pressure sensor, and by detecting whether or not the brake oil pressure has abnormally decreased, it is detected and notified that the brake system is abnormal.

走行状態検出装置20は、自動二輪車BYのハンドル近傍の前部に固定されている。走行状態検出装置20は、自動二輪車BYの状態を検出する種々のセンサやスイッチ等(図示省略)と接続されている。走行状態検出装置20は、接続されたセンサからの信号に基づいて、自動二輪車BYの現在の走行状態(例えば、エンジン回転速度、車両速度、自動二輪車BYの左右方向の加速度、自動二輪車の傾斜角度等)を検出するようになっている。更に、走行状態検出装置20は、車両外部の装置(例えば、路面や路側帯に配設された通信装置)と通信を行い、走行状態に関する情報(路面状態等)を取得するようになっている。走行状態検出装置20は、検出・取得した走行状態を運転者に音声により報知するための信号を必要に応じて出力するようになっている。   The traveling state detection device 20 is fixed to the front part in the vicinity of the handle of the motorcycle BY. The traveling state detection device 20 is connected to various sensors, switches, and the like (not shown) that detect the state of the motorcycle BY. Based on the signal from the connected sensor, the traveling state detection device 20 is configured to display the current traveling state of the motorcycle BY (for example, engine rotational speed, vehicle speed, acceleration in the horizontal direction of the motorcycle BY, and inclination angle of the motorcycle). Etc.) are detected. Further, the traveling state detection device 20 communicates with a device outside the vehicle (for example, a communication device disposed on a road surface or a roadside belt), and acquires information on the traveling state (road surface state or the like). . The driving state detection device 20 outputs a signal for notifying the driver of the detected / acquired driving state by voice as necessary.

その他の音源21は、自動二輪車BYのハンドル近傍の前部に固定されている。その他の音源21には、車両周辺警報装置(例えば、特開2001−1851号公報を参照。)或いは車両周辺音収集装置等が含まれる。その他の音源21は、所定の情報(警報音及び周辺音等)を音により運転者に知らせるための信号を出力するようになっている。   The other sound source 21 is fixed to the front part near the handle of the motorcycle BY. Other sound sources 21 include a vehicle surrounding alarm device (see, for example, Japanese Patent Application Laid-Open No. 2001-1851) or a vehicle surrounding sound collection device. The other sound source 21 outputs a signal for notifying the driver of predetermined information (alarm sound, ambient sound, etc.) by sound.

車載ユニット30は、自動二輪車BYのハンドルに固定されている。車載ユニット30は、コードにより、車体向き検出用地磁気センサ15、携帯電話16、音楽プレーヤ17、ナビゲーション装置18、車両状態検出装置19、走行状態検出装置20及びその他の音源21と接続されていて、これらの発生する信号を入力するようになっている。車載ユニット30は、更に、同乗者ユニット43と無線通信により必要な情報を交換するようになっている。車載ユニット30の詳細については後述する。   The in-vehicle unit 30 is fixed to the handle of the motorcycle BY. The in-vehicle unit 30 is connected to the vehicle body direction detection geomagnetic sensor 15, the mobile phone 16, the music player 17, the navigation device 18, the vehicle state detection device 19, the traveling state detection device 20, and other sound sources 21 by a cord. These generated signals are input. The in-vehicle unit 30 further exchanges necessary information with the passenger unit 43 through wireless communication. Details of the in-vehicle unit 30 will be described later.

同乗者ユニット43は、所定の機能を達成する電気回路を収容している。同乗者ユニット43は、コードにより同乗者用ヘッドホン41及び同乗者用マイクロホン42と接続されている。同乗者ユニット43は、同乗者用ヘッドホン41を駆動して同乗者用ヘッドホン41から音を発生させるようになっている。同乗者ユニット43は、同乗者用マイクロホン42からの音声信号を入力するようになっている。   The passenger unit 43 accommodates an electric circuit that achieves a predetermined function. The passenger unit 43 is connected to the passenger headphones 41 and the passenger microphone 42 by a cord. The passenger unit 43 drives the passenger headphones 41 to generate sound from the passenger headphones 41. The passenger unit 43 is adapted to input an audio signal from the passenger microphone 42.

図2に示したように、車載ユニット30は、会話用無線通信装置31、通信装置32、音源位置決定装置33及び音源定位装置(音像定位手段)34を備えている。   As shown in FIG. 2, the in-vehicle unit 30 includes a conversation wireless communication device 31, a communication device 32, a sound source position determination device 33, and a sound source localization device (sound image localization means) 34.

会話用無線通信装置31は、同乗者ユニット43と無線通信により信号の交換を行うようになっている。会話用無線通信装置31は、通信装置32、音源位置決定装置33及び音源定位装置34と接続されている。通信装置32は、無線通信により運転者ユニット14と信号の交換を行うようになっている。   The conversation wireless communication device 31 exchanges signals with the passenger unit 43 by wireless communication. The conversation wireless communication device 31 is connected to the communication device 32, the sound source position determination device 33, and the sound source localization device 34. The communication device 32 exchanges signals with the driver unit 14 by wireless communication.

より具体的に述べると、運転者ユニット14は、運転者用マイクロホン12から入力された運転者の音声信号を通信装置32に送信するようになっている。通信装置32は、運転者の音声信号を会話用無線通信装置31に送信するようになっている。会話用無線通信装置31は、通信装置32から受信した運転者の音声信号を無線通信により同乗者ユニット43に送信するようになっている。同乗者ユニット43は、会話用無線通信装置31から受信した運転者の音声信号を増幅し、増幅した音声信号を図1に示した同乗者用ヘッドホン41に出力するようになっている。以上の構成により、運転者の音声が同乗者用ヘッドホン41から出力される。   More specifically, the driver unit 14 is configured to transmit the driver's voice signal input from the driver microphone 12 to the communication device 32. The communication device 32 is configured to transmit the driver's voice signal to the conversation wireless communication device 31. The conversation wireless communication device 31 is configured to transmit the driver's voice signal received from the communication device 32 to the passenger unit 43 by wireless communication. The passenger unit 43 amplifies the driver's voice signal received from the conversation wireless communication device 31 and outputs the amplified voice signal to the passenger's headphones 41 shown in FIG. With the above configuration, the driver's voice is output from the passenger headphones 41.

一方、同乗者ユニット43は、図1に示した同乗者用マイクロホン42から入力された同乗者の音声信号を会話用無線通信装置31に送信するようになっている。会話用無線通信装置31は、同乗者ユニット43から受信した同乗者の音声信号を音源位置決定装置33及び音源定位装置34に送信するようになっている。後に詳述するように、音源位置決定装置33及び音源定位装置34は、会話用無線通信装置31から受信した同乗者の音声信号を含む信号を、通信装置32を介して運転者ユニット14に送信するようになっている。運転者ユニット14は、受信した信号を増幅し、増幅した信号を運転者用ヘッドホン11のスピーカ11R,11Lに出力するようになっている。以上の構成により、同乗者の音声が運転者用ヘッドホン11から出力される。   On the other hand, the passenger unit 43 is configured to transmit the passenger's voice signal input from the passenger microphone 42 shown in FIG. 1 to the wireless communication device 31 for conversation. The conversation wireless communication device 31 transmits the passenger's voice signal received from the passenger unit 43 to the sound source position determination device 33 and the sound source localization device 34. As will be described in detail later, the sound source position determination device 33 and the sound source localization device 34 transmit a signal including the passenger's voice signal received from the conversation wireless communication device 31 to the driver unit 14 via the communication device 32. It is supposed to be. The driver unit 14 amplifies the received signal and outputs the amplified signal to the speakers 11R and 11L of the driver headphone 11. With the above configuration, the passenger's voice is output from the driver headphones 11.

音源位置決定装置33は、会話用無線通信装置31に加え、車体向き検出用地磁気センサ15、携帯電話16、音楽プレーヤ17、ナビゲーション装置18、車両状態検出装置19、走行状態検出装置20、その他の音源21、通信装置32及び音源定位装置34と接続されている。音源位置決定装置33は、音源位置パターンデータベース33aを備えている。   The sound source position determination device 33 includes a radio communication device 31 for conversation, a geomagnetic sensor 15 for detecting the vehicle body direction, a mobile phone 16, a music player 17, a navigation device 18, a vehicle state detection device 19, a traveling state detection device 20, and the like. The sound source 21, the communication device 32, and the sound source localization device 34 are connected. The sound source position determination device 33 includes a sound source position pattern database 33a.

音源位置決定装置33は、携帯電話16、音楽プレーヤ17、ナビゲーション装置18、車両状態検出装置19、走行状態検出装置20、その他の音源21及び会話用無線通信装置31が出力する音源信号及び付随情報を表す信号を受信するようになっている。音源信号とは、ある音源から発生される信号であって、その音源による音を生成させるための信号である。音源位置決定装置33は、受信した音源信号のそれぞれに基づく音像を定位させる位置である仮想音源位置(音源の音像位置、音源に対する仮想音源位置)を、受信した音源信号及び付随情報を表す信号に基づき音源位置パターンデータベース33aを参照することにより決定し、その仮想音源位置を表す情報(音源位置情報)を音源定位装置34に出力するようになっている。   The sound source position determination device 33 includes a mobile phone 16, a music player 17, a navigation device 18, a vehicle state detection device 19, a running state detection device 20, other sound sources 21, and a sound source signal and accompanying information output by the conversation wireless communication device 31. The signal which represents is received. The sound source signal is a signal generated from a certain sound source, and is a signal for generating sound from the sound source. The sound source position determination device 33 converts the virtual sound source position (the sound image position of the sound source, the virtual sound source position with respect to the sound source), which is a position to localize the sound image based on each of the received sound source signals, into a signal representing the received sound source signal and accompanying information. Based on the sound source position pattern database 33a, the information representing the virtual sound source position (sound source position information) is output to the sound source localization device 34.

仮想音源位置とは、ある音源(音源からの音源信号に基づく音像)が、あたかも仮想音源位置に存在しているかのように聴取者である運転者に聴かせることができる音源の仮想的な位置である。従って、会話用無線通信装置(同乗者と言うこともできる。)31、携帯電話16、音楽プレーヤ17、ナビゲーション装置18、車両状態検出装置19、走行状態検出装置20及びその他の音源21は、複数の音源を構成している。   A virtual sound source position is a virtual position of a sound source that can be heard by a driver who is a listener as if a certain sound source (a sound image based on a sound source signal from the sound source) exists at the virtual sound source position. It is. Accordingly, there are a plurality of wireless communication devices for conversation (also referred to as passengers) 31, a mobile phone 16, a music player 17, a navigation device 18, a vehicle state detection device 19, a running state detection device 20, and other sound sources 21. The sound source is composed.

更に、音源位置決定装置33は、車体向き検出用地磁気センサ15の出力信号と、通信装置32を介して受信したヘルメット向き検出用地磁気センサ13の出力信号と、に応じて前記音源位置情報を決定(補正)するようになっている。   Furthermore, the sound source position determination device 33 determines the sound source position information according to the output signal of the vehicle body direction detection geomagnetic sensor 15 and the output signal of the helmet direction detection geomagnetic sensor 13 received via the communication device 32. (Correction).

音源定位装置34は、携帯電話16、音楽プレーヤ17、ナビゲーション装置18、車両状態検出装置19、走行状態検出装置20、その他の音源21、会話用無線通信装置31、通信装置32及び音源位置決定装置33と接続されている。   The sound source localization device 34 includes a mobile phone 16, a music player 17, a navigation device 18, a vehicle state detection device 19, a running state detection device 20, other sound sources 21, a conversation wireless communication device 31, a communication device 32, and a sound source position determination device. 33.

音源定位装置34は、携帯電話16、音楽プレーヤ17、ナビゲーション装置18、車両状態検出装置19、走行状態検出装置20、その他の音源21及び会話用無線通信装置31(即ち、複数の音源)が出力する信号(音源信号)を受信するとともに、音源位置決定装置33から音源位置情報を受信し、各音源信号に基づく音像を音源位置情報に応じた位置に定位させるための信号である音声定位信号(出力信号)を生成するようになっている。   The sound source localization device 34 outputs a mobile phone 16, a music player 17, a navigation device 18, a vehicle state detection device 19, a running state detection device 20, other sound sources 21, and a conversation wireless communication device 31 (ie, a plurality of sound sources). A sound localization signal (signal for receiving sound source position information from the sound source position determination device 33 and localizing a sound image based on each sound source signal to a position corresponding to the sound source position information. Output signal).

即ち、音源定位装置34は、前記決定されたそれぞれの仮想音源位置に同それぞれの仮想音源位置に対応する前記音源信号に基づく音像を定位させるように前記音源信号を変換した出力信号を出力する音源定位手段を構成している。   That is, the sound source localization device 34 outputs an output signal obtained by converting the sound source signal so that a sound image based on the sound source signal corresponding to each virtual sound source position is localized at each determined virtual sound source position. It constitutes a localization means.

更に、音源定位装置34は、音声定位信号を通信装置32を介して運転者ユニット14に送信するようになっている。運転者ユニット14は、受信した音声定位信号を増幅し、その増幅信号を運転者用ヘッドホン11のスピーカ11R,11Lに出力するようになっている。この結果、音源信号毎に定位された音がスピーカ11R,11Lから発生させられる。   Furthermore, the sound source localization device 34 is configured to transmit a voice localization signal to the driver unit 14 via the communication device 32. The driver unit 14 amplifies the received sound localization signal and outputs the amplified signal to the speakers 11R and 11L of the driver headphone 11. As a result, a sound localized for each sound source signal is generated from the speakers 11R and 11L.

ここで、音源定位装置34の構成について図3を参照しながら説明する。音源定位装置34は、A/D変換装置34a、先行音用のゲイン乗算器34b、マルチプレクサ34c、ディレイライン34d、バンドパスフィルタ34e、後行音用のゲイン乗算器34f、FIRフィルタ34g、加算器34h、D/Aコンバータ(DAC)34i等を備えている。なお、音源定位装置34及び音源位置定位方法(ヘッドホンを使用して複数の音の音像を三次元において定位する音像定位方法)は、例えば、特開2002−44796及び特開平10−23600等により周知である。   Here, the configuration of the sound source localization device 34 will be described with reference to FIG. The sound source localization device 34 includes an A / D conversion device 34a, a preceding sound gain multiplier 34b, a multiplexer 34c, a delay line 34d, a bandpass filter 34e, a subsequent sound gain multiplier 34f, an FIR filter 34g, and an adder. 34h, a D / A converter (DAC) 34i, and the like. Note that the sound source localization device 34 and the sound source localization method (sound image localization method in which sound images of a plurality of sounds are localized in three dimensions using headphones) are known from, for example, Japanese Patent Laid-Open Nos. 2002-44796 and 10-23600. It is.

AD変換装置34aは、複数の音源(携帯電話16、音楽プレーヤ17、ナビゲーション装置18、車両状態検出装置19、走行状態検出装置20、その他の音源21及び会話用無線通信装置31)のそれぞれに接続された複数のA/Dコンバータ(ADC)を有している。各ADCは、各音源からのアナログ信号をデジタル信号に変換して出力するようになっている。   The AD conversion device 34a is connected to each of a plurality of sound sources (mobile phone 16, music player 17, navigation device 18, vehicle state detection device 19, running state detection device 20, other sound source 21 and conversation wireless communication device 31). A plurality of A / D converters (ADCs). Each ADC converts an analog signal from each sound source into a digital signal and outputs the digital signal.

ゲイン乗算器34bは、上記複数の音源と同数のゲイン乗算器セットからなっている。各ゲイン乗算器セットは、第1チャンネルCh1乃至第8チャンネルCh8に対応する合計8個の増幅器を備えている。各ゲイン乗算器セットの8個の増幅器は、各ADCに接続されている。ゲイン乗算器34bは、音源位置決定装置33にも接続されている。ゲイン乗算器34bは、各ゲイン乗算器セットの増幅器のゲインを、音源位置決定装置33から出力される音源位置情報に基づいて変更するようになっている。   The gain multiplier 34b includes the same number of gain multiplier sets as the plurality of sound sources. Each gain multiplier set includes a total of eight amplifiers corresponding to the first channel Ch1 to the eighth channel Ch8. The eight amplifiers in each gain multiplier set are connected to each ADC. The gain multiplier 34 b is also connected to the sound source position determination device 33. The gain multiplier 34b changes the gain of the amplifier of each gain multiplier set based on the sound source position information output from the sound source position determination device 33.

マルチプレクサ34cの各チャンネルの入力端は、ゲイン乗算器34bの各増幅器と接続されている。マルチプレクサ34cの各チャンネルの出力端は、第1チャンネルCh1乃至第8チャンネルCh8のFIRフィルタ34g(実際には、左耳用FIRフィルタ34gL及び右耳用FIRフィルタ34gR)のそれぞれに接続されている。マルチプレクサ34cの出力端からFIRフィルタ34gの入力端に直接入力される信号は、「先行音」と称呼される。マルチプレクサ34cは、音源位置決定装置33にも接続されている。マルチプレクサ34cは、ゲイン乗算器34bの複数のゲイン乗算器セットのうちの一つを音源位置決定装置33から出力される音源位置情報に基づいて選択し、選択したゲイン乗算器セットの増幅器からの各チャンネルの信号を出力端から出力するようになっている。   The input end of each channel of the multiplexer 34c is connected to each amplifier of the gain multiplier 34b. The output terminal of each channel of the multiplexer 34c is connected to each of the FIR filters 34g (actually, the left ear FIR filter 34gL and the right ear FIR filter 34gR) of the first channel Ch1 to the eighth channel Ch8. A signal directly input from the output terminal of the multiplexer 34c to the input terminal of the FIR filter 34g is referred to as “preceding sound”. The multiplexer 34 c is also connected to the sound source position determination device 33. The multiplexer 34c selects one of a plurality of gain multiplier sets of the gain multiplier 34b based on the sound source position information output from the sound source position determination device 33, and each of the amplifiers of the selected gain multiplier set from the amplifiers. The channel signal is output from the output end.

ディレイライン34dは、複数のシフトレジスタを直列接続した多段シフトレジスタを第1チャンネルCh1乃至第8チャンネルCh8のチャンネル毎に備えている。ディレイライン34dは、各チャンネルの多段シフトレジスタの所定のレジスタとその所定のレジスタに続くレジスタとの間にタップを設けるようになっている。ディレイライン34dの各チャンネルの入力端は、マルチプレクサ34cの各チャンネルの出力端と接続されている。このマルチプレクサ34cの出力端からディレイライン34dの入力端に入力され、且つ、所定の時間だけディレイされて前記タップから取り出される信号は、「後行音」と称呼される。ディレイライン34dは、音源位置決定装置33にも接続されている。ディレイライン34dは、前記各チャンネルのタップの位置を、音源位置決定装置33から出力される音源位置情報に基づいて変更するようになっている。   The delay line 34d includes a multistage shift register in which a plurality of shift registers are connected in series for each of the first channel Ch1 to the eighth channel Ch8. The delay line 34d is provided with a tap between a predetermined register of the multistage shift register of each channel and a register subsequent to the predetermined register. The input end of each channel of the delay line 34d is connected to the output end of each channel of the multiplexer 34c. A signal that is input from the output end of the multiplexer 34c to the input end of the delay line 34d and is taken out from the tap after being delayed by a predetermined time is referred to as "following sound". The delay line 34d is also connected to the sound source position determination device 33. The delay line 34d changes the position of the tap of each channel based on the sound source position information output from the sound source position determination device 33.

ディレイライン34dの各チャンネルの前記タップは、バンドパスフィルタ34eの各チャンネルの入力端に接続されている。なお、図3において「8」が付されたラインは、8本のラインである。   The tap of each channel of the delay line 34d is connected to the input end of each channel of the band pass filter 34e. In FIG. 3, the lines with “8” are eight lines.

後行音用のゲイン乗算器34fは、第1チャンネルCh1乃至第8チャンネルCh8に対応する合計8個の増幅器を備えている。各チャンネルの増幅器の入力端は、バンドパスフィルタ34eの各チャンネルの出力端に接続されている。ゲイン乗算器34fの各チャンネルの増幅器の出力端は、図3及び表1に示したように、各チャンネルのFIRフィルタ34gの入力端とマルチプレクサ34cの各チャンネルの出力端との間に設けられた加算器の何れか一つに接続されている。これにより、先行音及び後行音(バンドパスフィルタ34e及び後行音用のゲイン乗算器34fを通過した後行音)は、各加算器にて加算されてからFIRフィルタ34gに入力される。

Figure 2007036610
The gain multiplier 34f for the subsequent sound includes a total of eight amplifiers corresponding to the first channel Ch1 to the eighth channel Ch8. The input end of each channel amplifier is connected to the output end of each channel of the bandpass filter 34e. As shown in FIG. 3 and Table 1, the output terminal of the amplifier of each channel of the gain multiplier 34f is provided between the input terminal of the FIR filter 34g of each channel and the output terminal of each channel of the multiplexer 34c. Connected to any one of the adders. As a result, the preceding sound and the following sound (the following sound passing through the band pass filter 34e and the gain multiplier 34f for the following sound) are added by each adder and then input to the FIR filter 34g.
Figure 2007036610

第1チャンネルCh1のFIRフィルタ34gLは、音が図4の#1の方向から聴取者の左耳に聞こえてくる場合の周波数特性を頭部伝達関数(Head Related Transfer Function; HRTF)によりシミュレートするようになっている。即ち、第1チャンネルCh1のFIRフィルタ34gLは、音が図4の#1の方向から聴取者の左耳に聞こえてくる場合の音の伝達特性である頭部伝達関数により、入力される信号を畳み込み演算するフィルタである。   The FIR filter 34gL of the first channel Ch1 simulates a frequency characteristic when sound is heard from the # 1 direction of the listener in the left ear of the listener by a head related transfer function (HRTF). It is like that. That is, the FIR filter 34gL of the first channel Ch1 receives an input signal by a head related transfer function that is a sound transfer characteristic when the sound is heard from the # 1 direction of the listener in the left ear of the listener. It is a filter that performs a convolution operation.

なお、図4においては、聴取者(運転者)の頭部は#1〜#8の位置により規定される立方体の中央部に存在し、聴取者は#1、#2、#6及び#5の位置により構成される面に正対している(この面の垂直方向を向いている)。#1乃至#4の位置により形成される面は聴取者の下方の面、#5乃至#8の位置により形成される面は聴取者の上方の面である。この立方体の向きは、聴取者の頭部の向き(運転者用ヘルメット10の前後方向前方の向き)の変化に伴って変化する。   In FIG. 4, the head of the listener (driver) exists in the center of the cube defined by the positions of # 1 to # 8, and the listeners are # 1, # 2, # 6 and # 5. It faces the surface formed by the position of (that faces in the vertical direction of this surface). The surface formed by the positions # 1 to # 4 is the lower surface of the listener, and the surface formed by the positions # 5 to # 8 is the upper surface of the listener. The orientation of the cube changes with a change in the orientation of the listener's head (the forward direction of the driver's helmet 10).

第1チャンネルCh1のFIRフィルタ34gRは、音が図4の#1の方向から聴取者の右耳に聞こえてくる場合の周波数特性を頭部伝達関数によりシミュレートするようになっている。即ち、第1チャンネルCh1のFIRフィルタ34gRは、音が図4の#1の方向から聴取者の右耳に聞こえてくる場合の音の頭部伝達関数により、入力される信号を畳み込み演算するフィルタである。   The FIR filter 34gR of the first channel Ch1 simulates the frequency characteristic when sound is heard from the right ear of the listener from the direction # 1 in FIG. 4 using the head-related transfer function. That is, the FIR filter 34gR of the first channel Ch1 performs a convolution operation on the input signal by the head-related transfer function of the sound when the sound is heard from the # 1 direction of the listener to the right ear of the listener. It is.

同様に、第2チャンネルCh2乃至第8チャンネルCh8のFIRフィルタ34gL及びFIRフィルタ34gRは、それぞれ図4の#2乃至#8の方向から聴取者の左右の耳への音の伝達を頭部伝達関数によりシミュレートするようになっている。各チャンネルのFIRフィルタ34gL及びFIRフィルタ34gRは、音源位置決定装置33にも接続されていて、音源位置決定装置33から出力される音源位置情報に基づいて、各フィルタの係数を変更するようになっている。   Similarly, the FIR filter 34gL and the FIR filter 34gR of the second channel Ch2 to the eighth channel Ch8 respectively transmit the sound from the directions # 2 to # 8 in FIG. 4 to the left and right ears of the listener. To simulate. The FIR filter 34gL and the FIR filter 34gR of each channel are also connected to the sound source position determination device 33, and change the coefficient of each filter based on the sound source position information output from the sound source position determination device 33. ing.

各チャンネルのFIRフィルタ34gL,34gRは、加算器34h(実際には、左耳用加算器34hL及び右耳用加算器34hR)の入力端に接続されている。これにより、各チャンネルのFIRフィルタ34gL,34gRから出力された信号は、加算器34hにより加算合成される。   The FIR filters 34gL and 34gR of each channel are connected to input terminals of an adder 34h (actually, a left ear adder 34hL and a right ear adder 34hR). Thereby, the signals output from the FIR filters 34gL and 34gR of each channel are added and synthesized by the adder 34h.

加算器34h(左耳用加算器34hL及び右耳用加算器34hR)の出力端は独立してDAC34iの入力端に接続されている。これにより、各加算器34hから出力された信号はアナログ信号に変換される。DAC34iの出力端は通信装置32に接続されている。これにより、アナログ信号に変換された左耳用及び右耳用の信号(音声定位信号)は、通信装置32を介して運転者ユニット14に送信される。   The output terminals of the adder 34h (the left ear adder 34hL and the right ear adder 34hR) are independently connected to the input terminal of the DAC 34i. Thereby, the signal output from each adder 34h is converted into an analog signal. The output end of the DAC 34 i is connected to the communication device 32. Thereby, the signals for the left ear and the right ear (audio localization signals) converted into analog signals are transmitted to the driver unit 14 via the communication device 32.

ところで、一般に、聴取者が先行音及び後行音のように互いに同一の2つの音を時間差をもって受聴した場合、聴取者は、より先に到達した音及び/又はよりレベルの大きい方の音の方向に、その音の音源が存在すると知覚する。この効果は、先行音効果(ハース効果)と呼ばれるよく知られた効果である。そこで、後行音を、先行音により定位される仮想音源の聴取者に関する点対称の位置に定位させると、先行音効果により先行音による定位位置を誤って聴取者に認識させることなく、先行音の方向感を一層強調することができる。   By the way, in general, when a listener listens to two sounds that are the same as each other, such as a preceding sound and a following sound, with a time difference, the listener can hear the sound that has reached earlier and / or the sound with the higher level. Perceive that sound source of the sound exists in the direction. This effect is a well-known effect called a precedence sound effect (Haas effect). Therefore, if the subsequent sound is localized at a point-symmetrical position with respect to the listener of the virtual sound source localized by the preceding sound, the preceding sound is not erroneously recognized by the listener due to the preceding sound effect. Can be further emphasized.

このことから、音源定位装置34においては、後行音用ゲイン乗算器34fの各チャンネルの増幅器の出力端は、マルチプレクサ34cとFIRフィルタ34gとを結ぶ先行音の各チャンネルの聴取者に関して点対称(反対側)となるチャンネルに加算器を介して接続される(表1を参照。)。   Therefore, in the sound source localization device 34, the output terminals of the amplifiers of the channels of the subsequent sound gain multiplier 34f are point-symmetric with respect to the listeners of the channels of the preceding sound connecting the multiplexer 34c and the FIR filter 34g ( The other channel is connected via an adder (see Table 1).

しかしながら、先行音と後行音との時間差及びレベル差が極端に小さいと、音像は頭内に定位してしまい、方向感が失われる。逆に、時間差が過大となると聴取者は受聴音を2つの別の音として知覚してしまう。また、レベル差が過大となると、前述した後行音の効果(先行音の方向感を強調する効果)が失われる。   However, if the time difference and level difference between the preceding sound and the following sound are extremely small, the sound image is localized in the head and the sense of direction is lost. Conversely, if the time difference is excessive, the listener perceives the received sound as two separate sounds. Further, if the level difference is excessive, the effect of the following sound (an effect of enhancing the direction feeling of the preceding sound) is lost.

このような観点に基づき、ディレイライン34d及びゲイン乗算器34fは、音源位置情報に応じて、上記時間差(タップ位置)及びレベル差(後行音に対するゲイン)を適切な値にそれぞれ設定するようになっている。   Based on this viewpoint, the delay line 34d and the gain multiplier 34f set the time difference (tap position) and the level difference (gain for the following sound) to appropriate values according to the sound source position information. It has become.

ここで、仮想音源位置が、上述した基本となる方向#1〜#8の間の方向である場合について説明する。今、仮想音源位置を、図5の(A)乃至(C)に示した空間上の任意の点Ptgtに設定するべきであると仮定する。この場合、仮想音源Ptgtは聴取者の左右の耳の中央の点Dから見て、#1、#2、#5及び#6から形成される正方形内にある。なお、図5の(B)及び(C)は、それぞれ図5の(A)の立方体の上面図及び側面図である。   Here, a case where the virtual sound source position is the direction between the basic directions # 1 to # 8 described above will be described. Now, it is assumed that the virtual sound source position should be set to an arbitrary point Ptgt on the space shown in (A) to (C) of FIG. In this case, the virtual sound source Ptgt is in a square formed by # 1, # 2, # 5, and # 6 when viewed from the central point D of the listener's left and right ears. 5B and 5C are a top view and a side view of the cube of FIG. 5A, respectively.

ここで、点Dと点Ptgtとを通る直線Lと、#1、#2、#5及び#6の位置により形成される面と、の交点を交点Crと称呼する。この場合、交点Crは横方向(水平方向、即ち、#1−#2又は#5−#6に沿った方向)において、辺#1−#2(図4及び図5の(A)に示した立方体の水平方向の一辺)をa:bにて内分した位置P1に存在している。更に、交点Crは縦方向(鉛直上下方向、即ち、#1−#5又は#2−#6に沿った方向)において、辺#1−#5(図4及び図5の(A)に示した立方体の鉛直上下方向の一辺)をc:dにて内分した位置P2に存在している。また、点Dから仮想音源Ptgtまでの距離L1は、点Dから交点Crまでの距離L2のx倍(音源距離比x=L1/L2)であるとする。   Here, the intersection of the straight line L passing through the point D and the point Ptgt and the surface formed by the positions of # 1, # 2, # 5 and # 6 is referred to as an intersection point Cr. In this case, the intersection point Cr is in the horizontal direction (the horizontal direction, that is, the direction along # 1- # 2 or # 5- # 6), and the side # 1- # 2 (shown in FIGS. 4 and 5A). The horizontal side of the cube is located at a position P1 internally divided by a: b. Further, the intersection Cr is in the vertical direction (vertical vertical direction, that is, the direction along # 1- # 5 or # 2- # 6), and is indicated by side # 1- # 5 (shown in FIGS. 4 and 5A). The vertical side of the cube) is located at a position P2 internally divided by c: d. The distance L1 from the point D to the virtual sound source Ptgt is assumed to be x times the distance L2 from the point D to the intersection Cr (sound source distance ratio x = L1 / L2).

このとき、音源位置決定装置33は、第1チャンネルCh1、第2チャンネルCh2、第5チャンネルCh5及び第6チャンネルCh6の各先行音に対するゲイン乗算器34bの各増幅器のゲインを、チャンネル間距離比(スピーカ間距離比a:b,c:d)及び音源距離比xから求められるゲインに設定する。具体的には、各チャンネルのゲインは、チャンネル間距離比a:b、c:dに逆比例し、音源距離比xの2乗に反比例するように定めれば良い。即ち、第nチャンネル(nは、1、2、5、6)の先行音に対するゲインkChnは、下記(1)式乃至(4)式により決定される。また、第mチャンネル(mは、3、4、7、8)のゲインkChmは、「0」に設定される。

Figure 2007036610
At this time, the sound source position determination device 33 calculates the gain of each amplifier of the gain multiplier 34b for each preceding sound of the first channel Ch1, the second channel Ch2, the fifth channel Ch5, and the sixth channel Ch6 as the interchannel distance ratio ( The gain is determined from the speaker distance ratios a: b, c: d) and the sound source distance ratio x. Specifically, the gain of each channel may be determined so as to be inversely proportional to the interchannel distance ratios a: b and c: d and inversely proportional to the square of the sound source distance ratio x. That is, the gain kChn for the preceding sound of the nth channel (n is 1, 2, 5, 6) is determined by the following equations (1) to (4). Further, the gain kChm of the m-th channel (m is 3, 4, 7, 8) is set to “0”.
Figure 2007036610

後行音の仮想音源Ptgt’は、前述したように、先行音により定位される仮想音源Ptgtの点Dに関する点対称の位置に定位される。後行音は、先行音に対して一定量の減衰量(ゲイン)とディレイ量(時間差)を有するように発音される。ディレイ量はディレイライン34dにより与えられる。第mチャンネル(mは、3、4、7、8)のゲインkCh’mは、上記先行音に対するゲインに応じて下記の(5)式乃至(8)式に基いて決定される。なお、係数pは先行音に対する減衰量を決定する係数であり、後行音用ゲイン乗算器34fにより与えられる。減衰量及びディレイ量は、音源位置には依存せず、聴取者の聴特性及び嗜好等に基づいて設定される。なお、第nチャンネル(nは、1、2、5、6)の後行音に対するゲインkCh’nは、「0」となる。

Figure 2007036610
As described above, the virtual sound source Ptgt ′ of the following sound is localized at a point-symmetrical position with respect to the point D of the virtual sound source Ptgt localized by the preceding sound. The following sound is pronounced so as to have a certain amount of attenuation (gain) and delay amount (time difference) with respect to the preceding sound. The amount of delay is given by the delay line 34d. The gain kCh′m of the m-th channel (m is 3, 4, 7, 8) is determined based on the following equations (5) to (8) according to the gain for the preceding sound. The coefficient p is a coefficient that determines the amount of attenuation with respect to the preceding sound, and is given by the gain multiplier for subsequent sound 34f. The attenuation amount and the delay amount do not depend on the sound source position, and are set based on the listener's listening characteristics and preferences. The gain kCh′n for the subsequent sound of the n-th channel (n is 1, 2, 5, 6) is “0”.
Figure 2007036610

運転者用ヘルメット10の向き(運転者用ヘッドホン11の向き)及び/又は仮想音源位置である点Ptgtが変化すると、点Ptgtと運転者用ヘッドホン11のなす角度も変化する。この場合においても、点Dと点Ptgtとを通る直線Lと、#1乃至#8の位置により形成される立方体の何れかの面とが交差し、その面上にて交点Crが求められる。   When the direction of the driver's helmet 10 (direction of the driver's headphones 11) and / or the point Ptgt which is the virtual sound source position changes, the angle formed by the point Ptgt and the driver's headphones 11 also changes. Also in this case, the straight line L passing through the point D and the point Ptgt intersects with any surface of the cube formed by the positions # 1 to # 8, and the intersection point Cr is obtained on the surface.

従って、音源位置決定装置33及び音源定位装置34は、その交点Crとその面を規定する#1乃至#8の位置のうちの4つの位置から、上述したチャンネル間距離比a:b,c:d及び音源距離比xを求め、各チャンネルの先行音ゲイン乗算器34bの各増幅器のゲイン及び後行音ゲイン乗算器34fの各増幅器のゲインを、これらにより定まるゲインに設定する。この結果、運転者用ヘッドホン11の向きにかかわらず、仮想音源位置を点Ptgtに常に定位させることができる。   Therefore, the sound source position determination device 33 and the sound source localization device 34 determine the above-described interchannel distance ratios a: b, c: from the four positions among the positions # 1 to # 8 that define the intersection Cr and its surface. d and the sound source distance ratio x are obtained, and the gain of each amplifier of the preceding sound gain multiplier 34b of each channel and the gain of each amplifier of the following sound gain multiplier 34f are set to gains determined by these. As a result, the virtual sound source position can always be localized at the point Ptgt regardless of the direction of the driver headphones 11.

音源位置決定装置33は、定位すべき音源を選択するようにマルチプレクサ34cに指示信号を送出するとともに、その選択する音源に対する仮想音源位置を先行音用のゲイン乗算器34b、ディレイライン34d、後行音用のゲイン乗算器34f及びFIRフィルタ34gに出力する。このような音源の選択が総ての音源信号に対して実行されることにより、総ての音源信号に基づく音像が定位される。   The sound source position determination device 33 sends an instruction signal to the multiplexer 34c so as to select the sound source to be localized, and the virtual sound source position for the sound source to be selected is set to the gain multiplier 34b for the preceding sound, the delay line 34d, and the succeeding sound source. This is output to the sound gain multiplier 34f and the FIR filter 34g. By selecting such a sound source for all sound source signals, a sound image based on all sound source signals is localized.

(作動の概要)
次に、上記のように構成された発音装置の作動の概要について説明する。この発音装置は、上述した音源から出力される音源信号の種類及び/又は音源信号の種類の変化に基づいて各音源信号に基づく音像の位置(仮想音源位置)を変化させる。先ず、理解を容易にするために、仮想音源位置がどのように変化されるかの一つの例について説明する。
(Overview of operation)
Next, an outline of the operation of the sounding device configured as described above will be described. This sounding device changes the position of the sound image (virtual sound source position) based on each sound source signal based on the type of the sound source signal output from the sound source and / or the change in the type of the sound source signal. First, in order to facilitate understanding, an example of how the virtual sound source position is changed will be described.

例えば、図6の(A)に示したように、運転者が音楽プレーヤ17の発生する音源信号のみに基づいて音楽を再生し、その音楽を聴いていたとする。この場合、音源位置決定装置33は、再生される音楽が運転者の頭部(運転者用ヘルメット10)全体に広がり、通常の音楽聴取時のような自然な感じで音楽が聞こえるように音楽プレーヤからの音源信号の音像に対する仮想音源位置を決定する。そして、音源定位装置34は、その仮想音源位置に音楽プレーヤ17からの音源信号に基づく音像を定位させる。この結果、運転者は、あたかも4つのスピーカ(前方左スピーカ、前方右スピーカ、後方左スピーカ及び後方右スピーカ)で囲まれた範囲内の適切な位置にて音楽を楽しんでいるかのように、音楽を聴くことができる。   For example, as shown in FIG. 6A, it is assumed that the driver plays music based only on the sound source signal generated by the music player 17 and listens to the music. In this case, the sound source position determination device 33 is a music player so that the music to be reproduced spreads over the entire driver's head (driver's helmet 10) and the music can be heard with a natural feeling as when listening to normal music. The virtual sound source position for the sound image of the sound source signal from is determined. The sound source localization device 34 then localizes the sound image based on the sound source signal from the music player 17 at the virtual sound source position. As a result, as if the driver enjoys music at an appropriate position within the range surrounded by four speakers (front left speaker, front right speaker, rear left speaker and rear right speaker). Can be heard.

かかる状態において、同乗者が同乗者用マイクロホン42及び同乗者ユニット43を使用して会話を開始した(発言を行った)と仮定する。即ち、タンデム会話が同乗者の発言により開始されたと仮定する。一般に、運転者は、音楽を聴いているときには音楽に注意が集中しているので、同乗者からの不意な発言を聞き逃す可能性が高い。そこで、音源位置決定装置33は、図6の(B)に示したように、同乗者の音声が運転者の直近で発せられたかのように音源である会話用無線通信装置31(音源としての同乗者)からの音源信号に基づく音像の位置(仮想音源位置)を決定する。同時に、音源位置決定装置33は、音楽プレーヤ17からの音源信号に基づく音楽が運転者用ヘルメット10の下方から聞こえるように音楽プレーヤ17からの音源信号に基づく音像の位置(仮想音源位置)を決定する。これにより、運転者には急に音楽が下方から聞こえ出し、且つ、同乗者の発言が耳元で聞こえるから、運転者が同乗者の最初の会話を聞き逃す可能性が低減する。   In this state, it is assumed that the passenger starts a conversation (speaks) using the passenger microphone 42 and the passenger unit 43. That is, it is assumed that the tandem conversation is started by the passenger's speech. In general, when a driver listens to music, attention is concentrated on the music, so there is a high possibility that the driver will miss an unexpected remark from the passenger. Therefore, as shown in FIG. 6B, the sound source position determination device 33 is a conversation wireless communication device 31 (sound riding as a sound source) that is a sound source as if the passenger's voice was emitted in the immediate vicinity of the driver. The position of the sound image (virtual sound source position) based on the sound source signal from the person) is determined. At the same time, the sound source position determination device 33 determines the position (virtual sound source position) of the sound image based on the sound source signal from the music player 17 so that the music based on the sound source signal from the music player 17 can be heard from below the helmet 10 for the driver. To do. As a result, the driver suddenly hears music from below and hears the passenger's remarks in his / her ear, so the possibility that the driver misses the passenger's first conversation is reduced.

その後、同乗者との会話が継続すると、音楽プレーヤ17と会話用無線通信装置31(同乗者)からの音源信号が継続する。即ち、音源の種類は変化しない。しかしながら、この場合、図6の(A)に示した音楽だけを再生している場合とは音源信号の種類(音源信号の種類の組合せ)が相違している。そこで、音源位置決定装置33は、図6の(C)に示したように、音楽プレーヤ17からの音源信号に基づく音楽が運転者用ヘルメット10の下方から聞こえるように音楽プレーヤ17からの音源信号に基づく音像の位置(仮想音源位置)を決定するとともに、同乗者の音声が運転者の直近ではなく運転者用ヘルメット10の上部全体にて聞こえるように会話用無線通信装置31からの音源信号に基づく音像の位置(仮想音源位置)を決定する。   Thereafter, when the conversation with the passenger continues, the sound source signals from the music player 17 and the wireless communication device for conversation 31 (passenger) continue. That is, the type of sound source does not change. However, in this case, the type of sound source signal (combination of the types of sound source signals) is different from the case where only the music shown in FIG. Therefore, as shown in FIG. 6C, the sound source position determination device 33 generates a sound source signal from the music player 17 so that music based on the sound source signal from the music player 17 can be heard from below the driver's helmet 10. The sound image position (virtual sound source position) is determined based on the sound source signal from the conversation wireless communication device 31 so that the passenger's voice can be heard not only in the vicinity of the driver but in the entire upper part of the driver helmet 10. The position of the sound image based on it (virtual sound source position) is determined.

このような状態が継続しているとき、その他の音源21の車両周辺音収集装置が緊急車両(例えば、救急車或いは消防車等)が右前方から接近してくることを検出し、その旨を警告するための音源信号を発生したと仮定する。この場合、音源位置決定装置33は、音楽プレーヤ17からの音源信号に基づく音楽を聞こえないようにし、会話用無線通信装置31からの音源信号に基づく同乗者の音声が運転者の直近で聞こえるようにし、且つ、その他の音源21からの音源信号に基づく警報(警告音)が運転者用ヘルメット10の右前方から聞こえるように、各音源信号に基づく音像の位置(仮想音源仮想)を決定する。これにより、運転者は、緊急車両の接近及び接近方向を確実に知ることができるとともに、同乗者との会話を継続することができる。   When such a state continues, the vehicle ambient sound collection device of the other sound source 21 detects that an emergency vehicle (for example, an ambulance or a fire engine) approaches from the right front, and warns that effect. It is assumed that a sound source signal for generating the sound is generated. In this case, the sound source position determination device 33 prevents the music based on the sound source signal from the music player 17 from being heard and allows the passenger's voice based on the sound source signal from the conversation wireless communication device 31 to be heard in the immediate vicinity of the driver. In addition, the position (virtual sound source virtual) of the sound image based on each sound source signal is determined so that an alarm (warning sound) based on the sound source signal from the other sound source 21 can be heard from the front right of the driver's helmet 10. Thus, the driver can surely know the approach and the approach direction of the emergency vehicle and can continue the conversation with the passenger.

以上に説明したように、音源位置決定装置33は、音源信号の種類(付随情報を含む。)及び音源信号の種類の変化の少なくとも一方に応じて各仮想音源位置を決定する。音源位置決定装置33は、実際には音源位置パターンデータベース33a内に、前記音源信号の種類(付随情報を含む。)及び同音源信号の種類の変化の少なくとも一方に対応する仮想音源位置パターンを予め記憶している。そして、音源位置決定装置33は、実際に入力される各音源からの音源信号の種類及び同音源信号の種類の変化と音源位置パターンデータベース33a内に記憶されている関係とに基づいて、実現すべき仮想音源位置のパターンを決定する。   As described above, the sound source position determination device 33 determines each virtual sound source position according to at least one of the type of the sound source signal (including accompanying information) and the change in the type of the sound source signal. The sound source position determination device 33 actually stores a virtual sound source position pattern corresponding to at least one of the type of the sound source signal (including accompanying information) and the change of the type of the sound source signal in advance in the sound source position pattern database 33a. I remember it. The sound source position determination device 33 is realized based on the type of the sound source signal from each sound source actually input and the change in the type of the sound source signal and the relationship stored in the sound source position pattern database 33a. The pattern of the virtual sound source position to be determined is determined.

ところで、図7の(A)に示したように、その他の音源21の車両周辺音収集装置が「緊急車両が自動二輪車BYの右前方から接近してくる」ことを検出し、その旨を警告するための音源信号を発生したと仮定する。このとき、運転者(運転者用ヘルメット10)が自動二輪車の車体の前後方向の軸の前方(この向きを、単に「自動二輪車の前後方向」又は「車体の向き」とも云う。)を向いていたとする。この場合、その他の音源21からの音源信号に基づく警告音の音像はヘルメット10(ヘッドホン11)の右前方に定位すればよい。   By the way, as shown in FIG. 7A, the vehicle ambient sound collection device of the other sound source 21 detects that the “emergency vehicle approaches from the right front of the motorcycle BY” and warns that effect. It is assumed that a sound source signal for generating the sound is generated. At this time, the driver (driver's helmet 10) is facing forward of the front-rear axis of the motorcycle body (this direction is also simply referred to as "the front-rear direction of the motorcycle" or "the body direction"). Suppose. In this case, the sound image of the warning sound based on the sound source signal from the other sound source 21 may be localized in the front right of the helmet 10 (headphone 11).

ところが、図7の(B)に示したように、運転者が自動二輪車の前後方向の軸の前方に対して平面視において90度だけ時計方向に回転した向き(即ち、右)を向いていたとすると、その他の音源21からの音源信号に基づく警告音の音像をヘルメット10(ヘッドホン11)の左前方に定位させるべきである。   However, as shown in FIG. 7 (B), the driver turned to the direction rotated in the clockwise direction by 90 degrees in the plan view with respect to the front of the front-rear axis of the motorcycle (that is, right). Then, the sound image of the warning sound based on the sound source signal from the other sound source 21 should be localized to the left front of the helmet 10 (headphone 11).

そこで、音源位置決定装置33は、運転者用ヘルメット向き検出用地磁気センサ13が検出した運転者用ヘルメット10の向き及び車体向き検出用地磁気センサ15が検出した自動二輪車BYの向きに基づいて、自動二輪車BYの前後方向の軸の前方に対する運転者用ヘルメット10の角度(少なくとも、自動二輪車BYの車体に固定された一つの音源に対する運転者用ヘッドホン11の向き)を決定し、その角度にも応じて各音源からの音源信号の仮想音源位置を運転者用ヘルメット10(運転者用ヘッドホン11)に対して何処にすべきかを決定する。これにより、上記例において、その他の音源21からの音源信号に基づく警告音の音像はヘルメット10(ヘッドホン11)の左前方に定位されるから、運転者が緊急車両の接近方向を誤って認識する可能性が低減できる。   Therefore, the sound source position determination device 33 automatically determines the direction of the motorcycle 10 detected by the driver helmet orientation detection geomagnetic sensor 13 and the direction of the motorcycle BY detected by the vehicle body orientation detection geomagnetic sensor 15. The angle of the driver's helmet 10 with respect to the front of the front-rear axis of the motorcycle BY (at least the direction of the driver's headphones 11 with respect to one sound source fixed to the vehicle body of the motorcycle BY) is determined, and the angle is also determined The position of the virtual sound source of the sound source signal from each sound source is determined with respect to the driver's helmet 10 (driver's headphones 11). Thereby, in the above example, the sound image of the warning sound based on the sound source signal from the other sound source 21 is localized to the left front of the helmet 10 (headphone 11), so that the driver erroneously recognizes the approaching direction of the emergency vehicle. The possibility can be reduced.

(実際の作動)
次に、上記発音装置の実際の作動について説明する。上述した音源位置決定装置33の機能は実際にはマイクロコンピュータのCPUが図8のフローチャートにより示した処理を一定時間の経過毎に行うことにより達成される。また、音源定位装置34の機能は、DSP(デジタルシグナルプロセッサ)が図9のフローチャートにより示した処理を一定時間の経過毎に行うことにより達成される。
(Actual operation)
Next, the actual operation of the sound generator will be described. The function of the sound source position determination device 33 described above is actually achieved by the CPU of the microcomputer performing the processing shown in the flowchart of FIG. 8 every elapse of a predetermined time. Further, the function of the sound source localization device 34 is achieved by a DSP (digital signal processor) performing the processing shown in the flowchart of FIG. 9 every elapse of a predetermined time.

以下、理解を容易にするため、図6に示した例のように状況が変化するものと仮定してCPUの作動について説明する。即ち、先ず、運転者用ヘッドホン11から何らの音も発生させられていない状況であったときに、運転者が所定の操作を行って音楽プレーヤ17によって音楽の再生を開始したと仮定する。   Hereinafter, for easy understanding, the operation of the CPU will be described on the assumption that the situation changes as in the example shown in FIG. That is, first, it is assumed that when no sound is generated from the driver headphones 11, the driver performs a predetermined operation and starts playing music by the music player 17.

このとき、音源位置決定装置のCPUが図8に示したステップ100から処理を開始すると、CPUはステップ105に進んで自動二輪車BYの前後方向に対する運転者用ヘルメット10の角度(運転者用ヘルメット10の向き)を、車体向き検出用地磁気センサ15が検出する車体の方位と運転者用ヘルメット向き検出用地磁気センサ13が検出する運転者用ヘルメット10の方位とに基づいて決定する。   At this time, when the CPU of the sound source position determination device starts the process from step 100 shown in FIG. 8, the CPU proceeds to step 105 and the angle of the driver helmet 10 with respect to the front-rear direction of the motorcycle BY (the driver helmet 10 Is determined based on the orientation of the vehicle body detected by the vehicle body direction detection geomagnetic sensor 15 and the orientation of the driver helmet 10 detected by the driver helmet orientation detection geomagnetic sensor 13.

次いで、CPUはステップ110に進み、音源の状況に変化があったか否か、即ち、その時点までの音源からの音源信号に加えて、別の音源からの音源信号が新たに発生したか否かを判定する。   Next, the CPU proceeds to step 110 to determine whether or not the state of the sound source has changed, that is, whether or not a sound source signal from another sound source is newly generated in addition to the sound source signal from the sound source up to that point. judge.

この場合、音楽プレーヤ17の音源信号が新たに発生されているから、音源の状況に変化があったことになる。従って、CPUはステップ110にて「Yes」と判定してステップ115に進み、この状況(何らの音も発生させられていないときに音楽プレーヤ17によって音楽の再生を開始した状況)に応じた音源位置パターンを音源位置パターンデータベース33aから読み出す。例えば、この音源位置パターンは、音楽プレーヤ17によって再生される音楽が、図6の(A)に示したように、自然な感じをもって聴くことが出来るパターンである。即ち、CPUは、実際に発生している音源信号及びその付随情報を表す信号に基づき、音源位置パターンデータベース33aを参照することにより、その音源信号の仮想音源位置を決定する。   In this case, since the sound source signal of the music player 17 is newly generated, the state of the sound source has changed. Therefore, the CPU makes a “Yes” determination at step 110 to proceed to step 115 where the sound source corresponding to this situation (a situation in which music playback is started by the music player 17 when no sound is generated). The position pattern is read from the sound source position pattern database 33a. For example, this sound source position pattern is a pattern in which music reproduced by the music player 17 can be heard with a natural feeling as shown in FIG. That is, the CPU determines the virtual sound source position of the sound source signal by referring to the sound source position pattern database 33a based on the sound source signal actually generated and the signal representing the accompanying information.

その後、CPUはステップ120に進み、ステップ115にて決定された各音源信号(この場合は、音楽プレーヤ17からの音源信号のみ)の仮想音源位置をステップ105にて決定した運転者用ヘルメット10の角度(向き)に基づいて補正することにより、最終的な各音源の仮想音源位置を決定する。次いで、CPUはステップ125に進み、ステップ120にて決定した各音源信号の仮想音源位置を音源定位装置(DSP)34に音源位置情報として出力し、ステップ195に進んで本ルーチンを一旦終了する。   Thereafter, the CPU proceeds to step 120 where the virtual sound source position of each sound source signal determined in step 115 (in this case, only the sound source signal from the music player 17) is determined in step 105. The final virtual sound source position of each sound source is determined by correcting based on the angle (orientation). Next, the CPU proceeds to step 125, outputs the virtual sound source position of each sound source signal determined in step 120 to the sound source localization device (DSP) 34 as sound source position information, proceeds to step 195, and once ends this routine.

その後、一定時間が経過すると、CPUはステップ100から本ルーチンの処理を再開する。現時点においては、音源信号は音楽プレーヤ17のみから発生している。従って、音源の状況は本ルーチンの処理を前回実行したときと変化していない。このため、CPUはステップ105に続くステップ110にて「No」と判定し、ステップ130に進んで「音源の状況が最後に変化してから所定時間が経過したか否か」を判定する。   Thereafter, when a certain time has elapsed, the CPU restarts the processing of this routine from step 100. At present, the sound source signal is generated only from the music player 17. Therefore, the state of the sound source has not changed from the previous execution of the routine. Therefore, the CPU makes a “No” determination at step 110 following step 105 to proceed to step 130 to determine “whether or not a predetermined time has elapsed since the state of the sound source last changed”.

現時点は、音楽プレーヤ17による再生を開始した直後であるから音源の状況が最後に変化してから所定時間は経過していない。従って、CPUはステップ130にて「No」と判定し、前述したステップ120及びステップ125を経てステップ195にて本ルーチンを一旦終了する。このように、CPUは音源の状況(即ち、音源信号の種類)が最後に変化してから所定時間が経過するまで、その音源の状況変化があったときの仮想音源位置を維持する。   Since the current time is immediately after the reproduction by the music player 17 is started, a predetermined time has not elapsed since the state of the sound source last changed. Therefore, the CPU makes a “No” determination at step 130 to temporarily end the present routine at step 195 through step 120 and step 125 described above. In this manner, the CPU maintains the virtual sound source position when the sound source status has changed until a predetermined time has elapsed since the last change of the sound source status (ie, the type of the sound source signal).

その後、時間が経過すると、CPUはステップ100、105及び110に続くステップ130にて「Yes」と判定してステップ135に進み、ステップ115と同様、現在の状況に合致する音源位置パターンを音源位置パターンデータベース33aから読み出す。この場合の状況とは、音楽プレーヤ17による音楽の再生のみが所定時間以上継続している状況である。但し、この場合の音源位置パターンは、図6の(A)に示した自然な感じをもって音楽を聴くことが出来るパターンであって、音源位置パターンは変化しない。その後、CPUは前述したステップ120及びステップ125を経てステップ195にて本ルーチンを一旦終了する。   Thereafter, when time elapses, the CPU makes a “Yes” determination at step 130 following steps 100, 105, and 110 to proceed to step 135. As with step 115, the sound source position pattern that matches the current situation is determined as the sound source position. Read from the pattern database 33a. The situation in this case is a situation where only music playback by the music player 17 continues for a predetermined time or more. However, the sound source position pattern in this case is a pattern in which music can be heard with a natural feeling shown in FIG. 6A, and the sound source position pattern does not change. Thereafter, the CPU temporarily ends this routine in step 195 through step 120 and step 125 described above.

次に、このような状況において、同乗者が発言を行うことによりタンデム会話が開始される。これにより、新たな音源(音源信号)が加わる。この場合、CPUはステップ100、105に続くステップ110にて「Yes」と判定し、ステップ115にて音源位置パターンを新たに検索する。このパターンは図6の(B)に示したパターンである。その後、CPUは前述したステップ120及びステップ125を経てステップ195にて本ルーチンを一旦終了する。   Next, in such a situation, the tandem conversation is started when the passenger speaks. Thereby, a new sound source (sound source signal) is added. In this case, the CPU makes a “Yes” determination at step 110 following steps 100 and 105, and newly searches for a sound source position pattern at step 115. This pattern is the pattern shown in FIG. Thereafter, the CPU temporarily ends this routine in step 195 through step 120 and step 125 described above.

その後、同乗者との会話が所定時間以上継続すると、CPUはステップ130に進んだとき、同ステップ130にて「Yes」と判定してステップ135に進み、その時点の状況に合致する音源位置パターンを音源位置パターンデータベースから読み出す。この時点の状況とは、音楽プレーヤ17による音楽の再生が行われ、且つ、同乗者との会話が所定時間以上継続している状況である。従って、この場合の音源位置パターンは、図6の(C)に示したパターンとなる。   Thereafter, if the conversation with the passenger continues for a predetermined time or more, when the CPU proceeds to step 130, the CPU determines “Yes” in step 130 and proceeds to step 135, and the sound source position pattern that matches the situation at that time Are read from the sound source position pattern database. The situation at this point is a situation in which music is played by the music player 17 and the conversation with the passenger continues for a predetermined time or more. Accordingly, the sound source position pattern in this case is the pattern shown in FIG.

次に、音楽プレーヤ17による音楽の再生及び同乗者との会話が継続しているときに、右前方から緊急車両が接近したためにその他の音源21が右前方から緊急車両が接近しているという情報を含んだ音源信号を発生する。この場合、音源の状況が変化するので、CPUはステップ110にて「Yes」と判定し、ステップ115乃至ステップ125を実行することにより、運転者用ヘルメット10に対して緊急用車両が接近してくる方向から警告音が聞こえるように、その他の音源21からの音源信号(警告音)の仮想音源位置を定める(図6の(D)を参照。)。そして、CPUは前述したステップ120及びステップ125を経てステップ195にて本ルーチンを一旦終了する。このようにして、CPUは、音源信号の種類、音源信号の種類の変化及び運転者用ヘルメット10の角度(向き)に基づいて、それぞれの音源からの音源信号に基づく音像を定位させる位置(仮想音源位置)を決定し、決定した仮想音源位置を音源位置情報として音源定位装置34に出力する。   Next, when music playback by the music player 17 and conversation with the passenger are continuing, the information that the emergency vehicle is approaching from the right front because the emergency vehicle approaches from the right front because the emergency vehicle has approached. A sound source signal including In this case, since the state of the sound source changes, the CPU makes a “Yes” determination at step 110 and executes steps 115 to 125 so that the emergency vehicle approaches the driver's helmet 10. The virtual sound source position of the sound source signal (warning sound) from the other sound sources 21 is determined so that the warning sound can be heard from the coming direction (see FIG. 6D). Then, the CPU temporarily ends this routine in step 195 through step 120 and step 125 described above. In this manner, the CPU localizes the sound image based on the sound source signal from each sound source based on the type of the sound source signal, the change in the type of the sound source signal, and the angle (orientation) of the driver helmet 10 (virtual). (Sound source position) is determined, and the determined virtual sound source position is output to the sound source localization device 34 as sound source position information.

一方、音源定位装置34のDSPは、図9に示したルーチンの処理を一定時間の経過毎にステップ200から開始し、ステップ210に進んで「CPUが出力している音源位置情報」に基づいて各音源信号の仮想音源位置に対するゲイン乗算器34bの各チャンネルの増幅器のゲイン、ディレイライン34dのタップ位置、ゲイン乗算器34fのゲイン(上述の係数p)及びFIRフィルタ34gの係数を決定する。   On the other hand, the DSP of the sound source localization device 34 starts the processing of the routine shown in FIG. 9 from step 200 every elapse of a predetermined time, and proceeds to step 210 based on “sound source position information output by the CPU”. The gain of the amplifier of each channel of the gain multiplier 34b with respect to the virtual sound source position of each sound source signal, the tap position of the delay line 34d, the gain (the above-mentioned coefficient p) of the gain multiplier 34f, and the coefficient of the FIR filter 34g are determined.

次いで、DSPはステップ220に進み、音源位置情報に基づいて、現時点において音源信号を発生している音源の一つを指定する信号をマルチプレクサ34cに出力し、その指定された音源からの信号であってAD変換装置34aによりデジタル信号に変換されている信号をゲイン乗算器34bに入力する。次に、DSPはステップ230に進み、ステップ220にて指定した音源に対するタップ位置をディレイライン34dに出力する。   Next, the DSP proceeds to step 220, and outputs a signal designating one of the sound sources that currently generate the sound source signal to the multiplexer 34c based on the sound source position information, and is a signal from the designated sound source. Then, a signal converted into a digital signal by the AD converter 34a is input to the gain multiplier 34b. Next, the DSP proceeds to step 230, and outputs the tap position for the sound source designated at step 220 to the delay line 34d.

その後、DSPはステップ240に進み、ステップ220にて指定した音源に対するゲイン乗算器34bの各チャンネルの増幅器のゲイン、ゲイン乗算器34fの各チャンネルの増幅器のゲイン及びFIRフィルタ34gの係数を、それぞれに出力する。以上によって、ステップ220にて指定した音源信号がその音源信号に対する仮想音源位置に定位される。   Thereafter, the DSP proceeds to step 240, and the gain of the amplifier of each channel of the gain multiplier 34b, the gain of the amplifier of each channel of the gain multiplier 34f, and the coefficient of the FIR filter 34g with respect to the sound source designated at step 220 are set. Output. As described above, the sound source signal designated in step 220 is localized at the virtual sound source position for the sound source signal.

次に、DSPはステップ250に進み、現時点において音源信号を発生している音源の総てに対して上記ステップ220乃至ステップ240の処理が完了したか否か(1サイクルが完了したか否か)を判定し、完了していなければステップ220に戻る。また、DSPは、1サイクルが完了していれば、ステップ295に進んで本ルーチンを一旦終了する。以上によって、現時点において発生している音源信号に基づく音像(音源)の総てが、音源位置情報に従う仮想音源位置に定位される。   Next, the DSP proceeds to step 250, and whether or not the processing of step 220 to step 240 has been completed for all the sound sources that are currently generating sound source signals (whether one cycle has been completed). If not completed, the process returns to step 220. If one cycle is completed, the DSP proceeds to step 295 to end the present routine tentatively. As described above, all sound images (sound sources) based on the sound source signal generated at the present time are localized at the virtual sound source positions according to the sound source position information.

以上、説明したように、本発明の一実施形態に係る発音装置によれば、複数の音源のそれぞれから発生される音を生成するための信号(音源信号)に対する仮想音源位置が、発生している音源信号の種類及び音源信号の種類の変化の少なくとも一方に基づいてそれぞれの音源信号に対して決定される。そして、決定されたそれぞれの仮想音源位置に、それぞれの仮想音源位置に対応する音源信号に基づく音像が定位せしめられる。従って、聴取者は、現時点でどの音源が音を発生させているのか、或いは、現時点においてどの音が重要であるのか等を容易に認識することができる。また、聴取者は、複数の音源から発生される複数の音源信号に基づく音の中から、現時点で必要な音を直感的に選択して聴くことができる。   As described above, according to the sound generation device according to the embodiment of the present invention, the virtual sound source position for the signal (sound source signal) for generating the sound generated from each of the plurality of sound sources is generated. Each sound source signal is determined based on at least one of the type of the sound source signal and the change in the type of the sound source signal. A sound image based on a sound source signal corresponding to each virtual sound source position is localized at each determined virtual sound source position. Therefore, the listener can easily recognize which sound source is generating sound at the present time, which sound is important at the present time, and the like. In addition, the listener can intuitively select and listen to a sound necessary at the present time from sounds based on a plurality of sound source signals generated from a plurality of sound sources.

更に、各音源信号の音像が定位されるから、聴取者に特定の音の方向及び距離感を認識させることができる。従って、例えば、聴取者が自動二輪車や四輪車両の運転者であるとき、その運転者は、緊急車両や障害物等の接近の方向及び距離を音により認識することが可能となる。   Furthermore, since the sound image of each sound source signal is localized, it is possible to make the listener recognize the specific sound direction and distance. Therefore, for example, when the listener is a driver of a motorcycle or a four-wheel vehicle, the driver can recognize the approach direction and distance of an emergency vehicle, an obstacle, and the like by sound.

加えて、上記発音装置は、前記音源信号に付随する付随情報(音源信号に基づいて発生されるべき音の音量に関する情報、発生すべき音の方向についての情報、その音の重要度等)にも基づいて仮想音源位置を定めることもできるので、より適切な音像定位を行うことができる。この場合、音源位置パターンデータベース33aには、前記音源信号の種類、同音源信号の種類の変化及び付随情報に対応する仮想音源位置パターンを予め記憶しておく。   In addition, the sounding device provides additional information accompanying the sound source signal (information about the volume of the sound to be generated based on the sound source signal, information about the direction of the sound to be generated, importance of the sound, etc.) Since the virtual sound source position can also be determined based on the above, more appropriate sound image localization can be performed. In this case, the sound source position pattern database 33a stores in advance virtual sound source position patterns corresponding to the types of the sound source signals, changes in the types of the sound source signals, and accompanying information.

なお、音源信号の種類とは、ある音源が意味内容を異にする二種以上の音源信号を出力しない場合(例えば、音楽プレーヤ17は、楽音であるという意味以外の意味を持った信号を出力しない)、音源の種類そのものと一致する。これに対し、携帯電話16は、少なくとも、着信を知らせるという意味を有する着信音に対応した音源信号と、着信を知らせるという意味以外の意味を有する通話相手の音声に対応した音源信号と、の2種類の音源信号を発生する。この場合、着信音に対応した音源信号と、通話相手の音声に対応した音源信号と、は種類が異なる音源信号として扱うことができる。   Note that the type of sound source signal means that when a certain sound source does not output two or more types of sound source signals having different semantic contents (for example, the music player 17 outputs a signal having a meaning other than the meaning of a musical sound). No), it matches the type of sound source itself. On the other hand, the mobile phone 16 includes at least a sound source signal corresponding to a ring tone having a meaning of notifying an incoming call, and a sound source signal corresponding to the voice of a call partner having a meaning other than the meaning of notifying an incoming call. Generates different types of sound source signals. In this case, the sound source signal corresponding to the ring tone and the sound source signal corresponding to the voice of the other party can be handled as different types of sound source signals.

また、付随情報には、例えば、車両状態検出装置19、走行状態検出装置20及びその他の音源である車両周辺警報装置21等が発生する「警告音を発生させるべき音源信号」に対して、その警告音をいずれの方向からどのくらいの距離感をもって運転者に聞かせるべきかの情報が含まれる。例えば、緊急車両や障害物が自動二輪車に接近している場合には、自動二輪車に対する緊急車両や障害物の方向や距離が警告音を生成させる音源信号についての付随情報となる。或いは、自動二輪車に異常が発生した場合、その異常個所の方から運転者に向けて警告音を発生させるための「異常個所が存在している方向や位置を表す情報」が、警告音を生成させる音源信号についての付随情報となる。   The accompanying information includes, for example, a “sound source signal for generating a warning sound” generated by the vehicle state detection device 19, the traveling state detection device 20, and other sound sources such as the vehicle periphery warning device 21. Information on how far the driver should hear the warning sound from what direction is included. For example, when an emergency vehicle or an obstacle is approaching a motorcycle, the direction and distance of the emergency vehicle or the obstacle with respect to the motorcycle is accompanying information about a sound source signal that generates a warning sound. Or, if an abnormality occurs in a motorcycle, “information indicating the direction and position where the abnormal part exists” is used to generate a warning sound from the abnormal part toward the driver. Accompanying information about the sound source signal to be generated.

更に、例えば、車両状態検出装置19が、方向指示器が点滅されている場合に、その旨を表す単純音を生成するための音源信号を出力するのであれば、左右何れの方向指示器が点滅しているかを表す情報が付随情報となる。   Furthermore, for example, if the vehicle state detection device 19 outputs a sound source signal for generating a simple sound indicating that when the direction indicator is blinking, either the left or right direction indicator blinks. The information indicating whether or not it is accompanying information.

なお、本発明は上記各実施形態に限定されることはなく、本発明の範囲内において種々の変形例を採用することができる。例えば、上記発音装置は、音像を定位させる位置(仮想音源位置)のみを変更しているが、音源信号の種類及び同音源信号の種類の変化等に基づいて仮想音源位置のみでなく各音源信号に基づく音の大きさを変更してもよい。   In addition, this invention is not limited to said each embodiment, A various modification can be employ | adopted within the scope of the present invention. For example, the sounding device changes only the position (virtual sound source position) where the sound image is localized, but based on the change in the type of the sound source signal and the type of the sound source signal, not only the virtual sound source position but also each sound source signal The volume of the sound based on may be changed.

また、ヘルメット10の車体に対する位置に応じて仮想音源位置を変更してもよい。更に、仮想音源位置を音源位置パターンデータベース33aに依ることなく、例えば、ニューラルネットワーク等の何らかの処理手法により自動的に決定してもよい。   Further, the virtual sound source position may be changed according to the position of the helmet 10 with respect to the vehicle body. Further, the virtual sound source position may be automatically determined by some processing technique such as a neural network, without depending on the sound source position pattern database 33a.

本発明の実施形態に係る発音装置の概略構成図である。It is a schematic block diagram of the sounding device which concerns on embodiment of this invention. 図1に示した発音装置の回路ブロック図である。FIG. 2 is a circuit block diagram of the sound producing device shown in FIG. 1. 図2に示した音源定位装置の回路ブロック図である。FIG. 3 is a circuit block diagram of the sound source localization apparatus shown in FIG. 2. 図1に示した発音装置による音像定位方法を説明するための図である。It is a figure for demonstrating the sound image localization method by the sound generator shown in FIG. (A)〜(C)は、図1に示した発音装置による音像定位方法を説明するための図である。(A)-(C) are the figures for demonstrating the sound image localization method by the sound generator shown in FIG. 図1に示した発音装置による音源定位パターンの一例を示した図である。It is the figure which showed an example of the sound source localization pattern by the sounding device shown in FIG. 運転者用ヘルメットの向きと警告音との関係を説明するための図である。It is a figure for demonstrating the relationship between the direction of a driver | operator's helmet, and a warning sound. 図2に示した音源位置決定装置が行う処理手順を示したフローチャートである。It is the flowchart which showed the process sequence which the sound source position determination apparatus shown in FIG. 2 performs. 図2に示した音源定位装置が行う処理手順を示したフローチャートである。It is the flowchart which showed the process sequence which the sound source localization apparatus shown in FIG. 2 performs.

符号の説明Explanation of symbols

10…運転者用ヘルメット、11…運転者用ヘッドホン、11R…右スピーカ、11L…左スピーカ、12…運転者用マイクロホン、13…運転者用ヘルメット向き検出用地磁気センサ、14…運転者ユニット、15…車体向き検出用地磁気センサ、16…携帯電話、17…音楽プレーヤ、18…ナビゲーション装置、19…車両状態検出装置、20…走行状態検出装置、21…音源、30…車載ユニット、31…会話用無線通信装置、32…通信装置、33…音源位置決定装置、33a…音源位置パターンデータベース、34…音源定位装置、34a…AD変換装置、34b…先行音用ゲイン乗算器、34c…マルチプレクサ、34d…ディレイライン、34e…バンドパスフィルタ、34f…後行音用ゲイン乗算器、34g…FIRフィルタ、34gL…左耳用FIRフィルタ、34gR…右耳用FIRフィルタ、34h…加算器、34hR…右耳用加算器、34hL…左耳用加算器、40…同乗者用ヘルメット、41…同乗者用ヘッドホン、42…同乗者用マイクロホン、43…同乗者ユニット。
DESCRIPTION OF SYMBOLS 10 ... Driver's helmet, 11 ... Driver's headphone, 11R ... Right speaker, 11L ... Left speaker, 12 ... Driver's microphone, 13 ... Driver's helmet direction detection geomagnetic sensor, 14 ... Driver unit, 15 DESCRIPTION OF TECHNOLOGY GROUND MAGNETIC SENSOR, 16 ... CELL PHONE, 17 ... MUSIC PLAYER, 18 ... NAVIGATION DEVICE, 19 ... VEHICLE STATUS DETECTION DEVICE, 20 ... TRAVEL STATE DETECTION DEVICE, 21 ... SOUND, SOUND Wireless communication device, 32 ... communication device, 33 ... sound source position determination device, 33a ... sound source position pattern database, 34 ... sound source localization device, 34a ... AD converter, 34b ... gain multiplier for preceding sound, 34c ... multiplexer, 34d ... Delay line, 34e: band pass filter, 34f: gain multiplier for subsequent sound, 34g: FIR filter 34gL ... FIR filter for left ear, 34gR ... FIR filter for right ear, 34h ... adder, 34hR ... adder for right ear, 34hL ... adder for left ear, 40 ... passenger helmet, 41 ... passenger Headphone, 42 ... Passenger microphone, 43 ... Passenger unit.

Claims (3)

音を生成するための信号である音源信号をそれぞれが発生する複数の音源と、
前記複数の音源からの音源信号のそれぞれに基づく音像を定位させる位置である仮想音源位置についてのパターンを、同音源信号の種類及び同音源信号の種類の変化の少なくとも一方に対応付けて仮想音源位置パターンとして予め記憶するとともに、同音源信号の実際の種類及び同音源信号の実際の種類の変化の少なくとも一方と同記憶された仮想音源位置パターンとに基づいて、実際に発生している音源信号のそれぞれの仮想音源位置を決定する音源位置決定手段と、
前記決定されたそれぞれの仮想音源位置に同それぞれの仮想音源位置に対応する前記音源信号に基づく音像を定位させるように同音源信号を変換した出力信号を出力する音源位置定位手段と、
前記音源位置定位手段からの出力信号に基づいて実際の音を発生するヘッドホンと、
を備えた発音装置。
A plurality of sound sources each generating a sound source signal, which is a signal for generating sound,
A virtual sound source position is obtained by associating a pattern of a virtual sound source position, which is a position to localize a sound image based on each of sound source signals from the plurality of sound sources, with at least one of the type of the same sound source signal and the change of the type of the same sound source signal. The sound source signal actually generated is stored based on the virtual sound source position pattern stored in advance and at least one of the actual type of the same sound source signal and the change of the actual type of the same sound source signal. Sound source position determining means for determining each virtual sound source position;
Sound source localization means for outputting an output signal obtained by converting the sound source signal so as to localize a sound image based on the sound source signal corresponding to the virtual sound source position corresponding to the determined virtual sound source position;
Headphones that generate actual sound based on an output signal from the sound source localization means;
Sound generator with
請求項1に記載の発音装置において、
前記ヘッドホンは、二輪車用ヘルメット内に装備されたヘッドホンである発音装置。
The sound generation device according to claim 1,
The headphone is a sound generating device which is a headphone provided in a motorcycle helmet.
請求項1又は請求項2に記載の発音装置において、
前記複数の音源は、携帯電話及び音楽プレーヤを含む発音装置。
The sound generation device according to claim 1 or 2,
The sound source includes a sound generator including a mobile phone and a music player.
JP2005216313A 2005-07-26 2005-07-26 Sound production device Pending JP2007036610A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005216313A JP2007036610A (en) 2005-07-26 2005-07-26 Sound production device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005216313A JP2007036610A (en) 2005-07-26 2005-07-26 Sound production device

Publications (1)

Publication Number Publication Date
JP2007036610A true JP2007036610A (en) 2007-02-08

Family

ID=37795326

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005216313A Pending JP2007036610A (en) 2005-07-26 2005-07-26 Sound production device

Country Status (1)

Country Link
JP (1) JP2007036610A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008216623A (en) * 2007-03-05 2008-09-18 Pioneer Electronic Corp Sound device and speech correcting method
JP2010041425A (en) * 2008-08-05 2010-02-18 Yamaha Corp Sound reproducing device and program
WO2017163572A1 (en) * 2016-03-24 2017-09-28 株式会社Jvcケンウッド Playback apparatus and playback method
WO2021161722A1 (en) * 2020-02-10 2021-08-19 ソニーグループ株式会社 Information processing device, information processing method, information processing program, and information processing system
WO2021246014A1 (en) * 2020-06-02 2021-12-09 本田技研工業株式会社 Vehicle
WO2022038931A1 (en) * 2020-08-20 2022-02-24 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Information processing method, program, and acoustic reproduction device
JP2022035024A (en) * 2020-08-20 2022-03-04 トヨタ自動車株式会社 Information processing device, information processing method, and information processing program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000355820A (en) * 1999-06-11 2000-12-26 Honda Motor Co Ltd Alarm system for two-wheeled vehicle
JP2004104684A (en) * 2002-09-12 2004-04-02 Fujitsu Ten Ltd Wireless headset device for two-wheeled vehicle
JP2004201195A (en) * 2002-12-20 2004-07-15 Pioneer Electronic Corp Headphone device
JP2005191668A (en) * 2003-12-24 2005-07-14 Pioneer Electronic Corp Utterance control apparatus, method therefor, program therefor, and recording medium with the program recorded thereon
JP2005530647A (en) * 2002-06-04 2005-10-13 エルビット・システムズ・リミテッド Methods and systems for the audio image processing field

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000355820A (en) * 1999-06-11 2000-12-26 Honda Motor Co Ltd Alarm system for two-wheeled vehicle
JP2005530647A (en) * 2002-06-04 2005-10-13 エルビット・システムズ・リミテッド Methods and systems for the audio image processing field
JP2004104684A (en) * 2002-09-12 2004-04-02 Fujitsu Ten Ltd Wireless headset device for two-wheeled vehicle
JP2004201195A (en) * 2002-12-20 2004-07-15 Pioneer Electronic Corp Headphone device
JP2005191668A (en) * 2003-12-24 2005-07-14 Pioneer Electronic Corp Utterance control apparatus, method therefor, program therefor, and recording medium with the program recorded thereon

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008216623A (en) * 2007-03-05 2008-09-18 Pioneer Electronic Corp Sound device and speech correcting method
JP2010041425A (en) * 2008-08-05 2010-02-18 Yamaha Corp Sound reproducing device and program
WO2017163572A1 (en) * 2016-03-24 2017-09-28 株式会社Jvcケンウッド Playback apparatus and playback method
WO2021161722A1 (en) * 2020-02-10 2021-08-19 ソニーグループ株式会社 Information processing device, information processing method, information processing program, and information processing system
WO2021246014A1 (en) * 2020-06-02 2021-12-09 本田技研工業株式会社 Vehicle
WO2022038931A1 (en) * 2020-08-20 2022-02-24 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Information processing method, program, and acoustic reproduction device
JP2022035024A (en) * 2020-08-20 2022-03-04 トヨタ自動車株式会社 Information processing device, information processing method, and information processing program
JP7347368B2 (en) 2020-08-20 2023-09-20 トヨタ自動車株式会社 Information processing device, information processing method, and information processing program

Similar Documents

Publication Publication Date Title
JP2007031875A (en) Direction information communicator
JP4916547B2 (en) Method for transmitting binaural information to a user and binaural sound system
EP2430753B1 (en) A method and apparatus for providing information about the source of a sound via an audio device
JP2007036610A (en) Sound production device
US20160014517A1 (en) Control Parameter Dependent Audio Signal Processing
US9479872B2 (en) Audio reproducing method and apparatus
WO2005090916A1 (en) Navigation device, navigation method, navigation program, and computer-readable recording medium
US20130158856A1 (en) Navigational soundscaping
JP2006019908A (en) Notification sound output device for vehicle, and program
CN101203071A (en) Stereophonic sound control apparatus and stereophonic sound control method
US20080118074A1 (en) Stereophonic sound control apparatus and stereophonic sound control method
CN108737930A (en) Audible prompting in Vehicular navigation system
JP2017138277A (en) Voice navigation system
JP2011172059A (en) Sound output system
US11388498B1 (en) Binaural hearing device with monaural ambient mode
WO2017163572A1 (en) Playback apparatus and playback method
JP2016157086A (en) Lyrics voice output device, lyrics voice output method, and program
KR101673787B1 (en) Sound output system for vehicle
JP2005047479A (en) On-vehicle five-channel audio device
JP3750198B2 (en) Sound image localization device
TW202107447A (en) A helmet and a method for playing desired sound in the same
JP2000065592A (en) Car audio system
JP7063353B2 (en) Voice navigation system and voice navigation method
JPH10304485A (en) Information service device
JPH1155799A (en) Audio reproducing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080421

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20091030

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091117

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100323