WO2023119416A1 - 雑音抑圧装置、雑音抑圧方法、プログラム - Google Patents

雑音抑圧装置、雑音抑圧方法、プログラム Download PDF

Info

Publication number
WO2023119416A1
WO2023119416A1 PCT/JP2021/047310 JP2021047310W WO2023119416A1 WO 2023119416 A1 WO2023119416 A1 WO 2023119416A1 JP 2021047310 W JP2021047310 W JP 2021047310W WO 2023119416 A1 WO2023119416 A1 WO 2023119416A1
Authority
WO
WIPO (PCT)
Prior art keywords
event
sound
user
noise
noise suppression
Prior art date
Application number
PCT/JP2021/047310
Other languages
English (en)
French (fr)
Inventor
伸 村田
洋平 脇阪
記良 鎌土
弘章 伊藤
Original Assignee
日本電信電話株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電信電話株式会社 filed Critical 日本電信電話株式会社
Priority to PCT/JP2021/047310 priority Critical patent/WO2023119416A1/ja
Publication of WO2023119416A1 publication Critical patent/WO2023119416A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones

Definitions

  • the present invention relates to active noise control technology.
  • Active noise control technology is a technology that suppresses noise in a specific location such as the surroundings of the user. audible to the user.
  • Active noise control technology consists of a reference microphone that picks up noise, an error microphone that picks up sound at the user's position, a noise signal that is the output of the reference microphone, and an error signal that is the output of the error microphone to cancel noise.
  • a system including a noise suppression device that generates an erasing sound signal and a speaker that emits a sound based on the erasing sound signal (hereinafter referred to as erasing sound) is generally used (see Non-Patent Document 1).
  • an error microphone installed near the user is used to measure the extent to which the noise picked up by the reference microphone is suppressed, while the speaker determines what kind of erasing sound can be emitted to suppress the noise. Repeat the action to decide.
  • An object of the present invention is to provide a noise suppression technique capable of
  • One aspect of the present invention allows the user to recognize that the event is occurring when the noise around the user includes a sound derived from a predetermined event (hereinafter referred to as event sound).
  • FIG. 1 is a block diagram showing the configuration of a noise suppression device 100;
  • FIG. 4 is a flowchart showing the operation of the noise suppression device 100;
  • 2 is a block diagram showing the configuration of a noise suppression device 200;
  • FIG. 4 is a flowchart showing the operation of the noise suppression device 200; It is a figure which shows an example of the functional structure of the computer which implement
  • the noise suppression device 100 allows the user to recognize that an event is occurring when the noise around the user includes a sound derived from a predetermined event (hereinafter referred to as event sound).
  • FIG. 1 is a block diagram showing the configuration of a noise suppression device 100.
  • FIG. 2 is a flow chart showing the operation of the noise suppression device 100.
  • the noise suppression device 100 includes a situation identification result generator 110 , a notification signal generator 120 , an erased sound signal generator 130 and a recorder 190 .
  • the recording unit 190 is a component that appropriately records information necessary for processing of the noise suppression device 100 .
  • the noise suppression device 100 connects with one or more sensors (not shown) to acquire data (hereinafter referred to as sensor data) used to identify the user's surroundings.
  • sensor data data
  • a microphone, a camera, or a vibration detection sensor can be used as the sensor.
  • the situation around the user is identified using the sounds, images, and vibrations around the user.
  • the noise suppression device 100 is connected to a situation presentation device (not shown) in order to make the user aware that an event has occurred.
  • a situation presentation device for example, a speaker, a display, or a mobile terminal such as a mobile phone or smart phone can be used. That is, the user is made to recognize that an event has occurred using sound, images, and vibrations.
  • the noise suppression device 100 uses one or more microphones (not shown, hereinafter referred to as a reference microphone) to acquire the noise around the user and one or more microphones (not shown, hereinafter referred to as a reference microphone) to acquire the sound heard by the user. , error microphone). Also, the noise suppression device 100 is connected to one or more speakers (not shown) to emit a sound based on the erasing sound signal, that is, the erasing sound.
  • the situation identification result generation unit 110 receives sensor data obtained using a sensor, generates and outputs a situation identification result indicating whether an event is occurring in the user's surroundings using the sensor data. .
  • the situation identification result generator 110 uses existing speech recognition technology to generate a situation identification result indicating to the user that a train is approaching the railroad crossing.
  • the situation identification result generation unit 110 uses existing image recognition technology to generate a situation identification signal indicating to the user that a train is approaching the railroad crossing. produce results.
  • the vibration detection sensor detects a sudden vibration
  • the situation identification result generating unit 110 generates a situation identification result indicating to the user that there is a possibility of collision with an obstacle.
  • the situation identification result generation unit 110 calculates, for example, a value indicating the degree of correlation between a reference sound for determining a sound originating from a predetermined event and noise around the user, and the value is greater than a predetermined threshold. Alternatively, if it is equal to or greater than a predetermined threshold, generate a situation identification result indicating that an event has occurred around the user; otherwise, generate a situation identification result indicating that an event has not occurred around the user. to generate Note that the reference sound may be recorded in the recording unit 190 in advance.
  • the notification signal generation unit 120 receives the situation identification result generated in S110, and if the situation identification result indicates that an event has occurred in the user's surroundings, it means that an event has occurred to the user.
  • a notification signal is generated and output.
  • the status presentation device receives the notification signal generated in S120, and presents the notification content to the user based on the notification signal. If the status presentation device is a speaker, the notification signal is a notification sound signal that informs the user that an event is occurring. Further, when the situation presentation device is a display, the notification signal is a signal of a notification video that notifies the user that an event has occurred. If the situation presentation device is a mobile terminal, the notification signal is a notification vibration signal that notifies the user that an event has occurred.
  • the erased sound signal generation unit 130 receives as input the noise signal around the user acquired using one or more reference microphones and the user's listening sound signal acquired using one or more error microphones, and generates a noise signal and the received sound signal, a noise-cancelling sound signal is generated and output.
  • the speaker receives the erased sound signal generated in S130 and emits a sound based on the erased sound signal.
  • the sound elimination signal generation unit 130 can also generate the sound elimination signal without using the noise signal.
  • the elimination sound signal generation unit 130 receives as input the user's listening signal acquired using one or more error microphones, generates an elimination sound signal for eliminating noise from the listening signal, and outputs the noise elimination signal. do.
  • the noise suppression device 200 allows the user to recognize that an event is occurring when the noise around the user includes a sound derived from a predetermined event (hereinafter referred to as event sound).
  • FIG. 3 is a block diagram showing the configuration of the noise suppression device 200.
  • FIG. 4 is a flow chart showing the operation of the noise suppression device 200.
  • the noise suppression device 200 includes a situation identification result generator 210 , an adjustment information generator 220 , an erased sound signal generator 230 and a recorder 290 .
  • the recording unit 290 is a component that appropriately records information necessary for processing of the noise suppression device 200 .
  • the noise suppression device 200 like the noise suppression device 100, is connected to one or more sensors (not shown) in order to acquire data (hereinafter referred to as sensor data) used to identify the user's surroundings.
  • the noise suppression device 200 includes one or more microphones (not shown, hereinafter referred to as reference microphones) to acquire noise around the user and one or more microphones to acquire the sound heard by the user. microphone (not shown, hereinafter referred to as an error microphone). Further, similarly to the noise suppression device 100, the noise suppression device 200 is connected to one or more speakers (not shown) to emit a sound based on the elimination sound signal, that is, the elimination sound.
  • noise suppression device 200 The operation of the noise suppression device 200 will be described according to FIG.
  • the situation identification result generation unit 210 receives sensor data acquired using a sensor, generates and outputs a situation identification result indicating the likelihood that an event has occurred in the user's surroundings using the sensor data.
  • the value of the situation identification result may be a binary value indicating that an event is occurring in the user's surroundings and a value indicating that an event is not occurring. may be a value that indicates the degree of correlation between the reference sound and the noise around the user. Note that the reference sound may be recorded in the recording unit 290 in advance.
  • the situation identification result generation unit 210 indicates the degree of correlation between the reference sound for determining the sound originating from the predetermined event and the noise around the user, for example.
  • the situation identification result generation unit 210 when the value of the situation identification result is a value indicating the degree of correlation, the situation identification result generation unit 210 generates, for example, a reference sound for determining a sound derived from a predetermined event and noise around the user. A value indicating the degree of correlation is calculated, and the value indicating the degree of correlation is used as the situation identification result.
  • the adjustment information generation unit 220 receives the situation identification result generated in S210 as an input, and determines the event sound cancellation sound relative to the noise cancellation sound determined according to the value of the situation identification result. It generates and outputs information (hereinafter referred to as adjustment information) regarding the size of the object. If the value of the situation identification result is a binary value indicating that an event has occurred around the user and a value that indicates that the event has not occurred, the value of the situation identification result indicates that the event has occurred around the user. When the value indicates that, the adjustment information generation unit 220 generates, as the adjustment information, information indicating that the event sound elimination sound is to be excluded from the elimination sounds.
  • the adjustment information generation unit 220 when the value of the situation identification result is a value indicating the degree of correlation between the reference sound for determining the sound derived from the predetermined event and the noise around the user, the adjustment information generation unit 220 generates the situation identification result is generated as adjustment information indicating that the ratio of excluding the event sound silence from the silence sound increases as the value of is increased.
  • the situation identification result generator 210 uses existing image recognition technology to notify the user that a train is approaching the railroad crossing. and a value indicating to the user that the train is not approaching the railroad crossing. If the situation identification result is a value that indicates to the user that a train is approaching a railroad crossing, the adjustment information generation unit 220 selects a sound for erasing a sound in a specific frequency band corresponding to the railroad crossing sound as an event sound erasing sound, Information indicating that the event sound erasing sound is to be excluded from the erasing sounds is generated as the adjustment information.
  • the erased sound signal generation unit 230 combines the user's surrounding noise signal obtained using one or more reference microphones, the user's listening sound signal obtained using one or more error microphones, and the adjustment information generated in S220. is input, and from the noise signal, the listening sound signal, and the adjustment information, an elimination sound signal for eliminating noise is generated and output.
  • the speaker receives the erased sound signal generated in S230 and emits a sound based on the erased sound signal.
  • the sound elimination signal generation unit 230 can also generate the sound elimination signal without using the noise signal.
  • the erased sound signal generation unit 230 receives the user's listening sound signal obtained using one or more error microphones and the adjustment information generated in S220, and from the listening sound signal and the adjustment information, Generate and output a cancellation sound signal that cancels noise.
  • FIG. 5 is a diagram showing an example of a functional configuration of a computer 2000 that implements each of the devices described above.
  • the processing in each device described above can be performed by causing the recording unit 2020 to read a program for causing the computer 2000 to function as each device described above, and causing the control unit 2010, the input unit 2030, the output unit 2040, and the like to operate.
  • the apparatus of the present invention includes, for example, a single hardware entity, which includes an input unit to which a keyboard can be connected, an output unit to which a liquid crystal display can be connected, and a communication device (for example, a communication cable) capable of communicating with the outside of the hardware entity.
  • a communication unit for example, a CPU (Central Processing Unit, which may include cache memory, registers, etc.), RAM and ROM as memory, an external storage device as a hard disk, and their input, output, and communication units , a CPU, a RAM, a ROM, and a bus for connecting data to and from an external storage device.
  • the hardware entity may be provided with a device (drive) capable of reading and writing a recording medium such as a CD-ROM.
  • a physical entity with such hardware resources includes a general purpose computer.
  • the external storage device of the hardware entity stores the programs necessary for realizing the functions described above and the data required for the processing of these programs (not limited to the external storage device; It may be stored in a ROM, which is a dedicated storage device). Data obtained by processing these programs are appropriately stored in a RAM, an external storage device, or the like.
  • each program stored in an external storage device or ROM, etc.
  • the data necessary for processing each program are read into the memory as needed, and interpreted, executed and processed by the CPU as appropriate.
  • the CPU realizes a predetermined function (each structural unit represented by the above, . . . unit, . . . means, etc.).
  • a program that describes this process can be recorded on a computer-readable recording medium.
  • Any computer-readable recording medium may be used, for example, a magnetic recording device, an optical disk, a magneto-optical recording medium, a semiconductor memory, or the like.
  • magnetic recording devices hard disk devices, flexible disks, magnetic tapes, etc., as optical discs, DVD (Digital Versatile Disc), DVD-RAM (Random Access Memory), CD-ROM (Compact Disc Read Only Memory), CD-R (Recordable) / RW (ReWritable), etc.
  • magneto-optical recording media such as MO (Magneto-Optical disc), etc. as semiconductor memory, EEP-ROM (Electronically Erasable and Programmable-Read Only Memory), etc. can be used.
  • this program is carried out, for example, by selling, transferring, lending, etc. portable recording media such as DVDs and CD-ROMs on which the program is recorded.
  • the program may be distributed by storing the program in the storage device of the server computer and transferring the program from the server computer to other computers via the network.
  • a computer that executes such a program for example, first stores the program recorded on a portable recording medium or the program transferred from the server computer once in its own storage device. When executing the process, this computer reads the program stored in its own storage device and executes the process according to the read program. Also, as another execution form of this program, the computer may read the program directly from a portable recording medium and execute processing according to the program, and the program is transferred from the server computer to this computer. Each time, the processing according to the received program may be executed sequentially. In addition, the above-mentioned processing is executed by a so-called ASP (Application Service Provider) type service, which does not transfer the program from the server computer to this computer, and realizes the processing function only by its execution instruction and result acquisition. may be It should be noted that the program in this embodiment includes information that is used for processing by a computer and that conforms to the program (data that is not a direct instruction to the computer but has the property of prescribing the processing of the computer, etc.).
  • ASP Application Service Provide
  • a hardware entity is configured by executing a predetermined program on a computer, but at least part of these processing contents may be implemented by hardware.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Computational Linguistics (AREA)
  • Quality & Reliability (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Soundproofing, Sound Blocking, And Sound Damping (AREA)

Abstract

ユーザの周囲の雑音を抑圧する処理の実行中であってもユーザが認識する必要がある特定のイベントが生じている場合にはユーザに当該イベントが生じていることを認識させることができる雑音抑圧技術を提供する。雑音抑圧装置は、ユーザの周囲の雑音に所定のイベントに由来する音(以下、イベント音という)が含まれる場合、前記ユーザに前記イベントが生じていることを認識させる。

Description

雑音抑圧装置、雑音抑圧方法、プログラム
 本発明は、アクティブノイズコントロール技術に関する。
 アクティブノイズコントロール技術は、ユーザの周囲など特定の位置での雑音を抑圧する技術であり、例えば車に組み込むことにより、車外部からの音を抑圧し、車中で例えば通話音声や音楽などの所望の音がユーザに聴こえるようにする。アクティブノイズコントロール技術では、雑音を収音する参照マイク、ユーザの位置での音を収音する誤差マイク、参照マイクの出力である雑音信号と誤差マイクの出力である誤差信号から雑音を消去するための消去音信号を生成する雑音抑圧装置、消去音信号に基づく音(以下、消去音という)を放音するスピーカを含むシステムが一般的に用いられている(非特許文献1参照)。当該システムでは、参照マイクで収音した雑音がどの程度抑圧されているかをユーザ付近に設置した誤差マイクにより計測しながら、スピーカにどのような消去音を放音させれば雑音が抑圧できるかを決定する動作を繰り返す。
梶川嘉延, "アクティブノイズコントロールの最近の話題と応用," 情報処理学会研究報告, Vol.2015-MUS-107, No.3, pp.1-6, 2015.
 しかし、外部からの音を完全に遮断してしまうと、ユーザにとって不都合な事態が生じてしまうこともある。例えば運転中に緊急車両のサイレンも遮断してしまうと、緊急車両の接近に気づくことができない、あるいは気づくのが遅れてしまうなどの事態が生じてしまう。そこで、外部からの音のすべてを遮断してしまうのではなく、外部の状況を認識するために必要な音についてはユーザが気づくことができるようにするのが好ましい。
 そこで本発明では、ユーザの周囲の雑音を抑圧する処理の実行中であってもユーザが認識する必要がある特定のイベントが生じている場合にはユーザに当該イベントが生じていることを認識させることができる雑音抑圧技術を提供することを目的とする。
 本発明の一態様は、ユーザの周囲の雑音に所定のイベントに由来する音(以下、イベント音という)が含まれる場合、前記ユーザに前記イベントが生じていることを認識させる。
 本発明によれば、ユーザの周囲の雑音を抑圧する処理の実行中であってもユーザが認識する必要がある特定のイベントが生じている場合にはユーザに当該イベントが生じていることを認識させることが可能となる。
雑音抑圧装置100の構成を示すブロック図である。 雑音抑圧装置100の動作を示すフローチャートである。 雑音抑圧装置200の構成を示すブロック図である。 雑音抑圧装置200の動作を示すフローチャートである。 本発明の実施形態における各装置を実現するコンピュータの機能構成の一例を示す図である。
 以下、本発明の実施の形態について、詳細に説明する。なお、同じ機能を有する構成部には同じ番号を付し、重複説明を省略する。
<第1実施形態>
 雑音抑圧装置100は、ユーザの周囲の雑音に所定のイベントに由来する音(以下、イベント音という)が含まれる場合、ユーザにイベントが生じていることを認識させる。
 以下、図1~図2を参照して、雑音抑圧装置100を説明する。図1は、雑音抑圧装置100の構成を示すブロック図である。図2は、雑音抑圧装置100の動作を示すフローチャートである。図1に示すように雑音抑圧装置100は、状況識別結果生成部110と、通知信号生成部120と、消去音信号生成部130と、記録部190を含む。記録部190は、雑音抑圧装置100の処理に必要な情報を適宜記録する構成部である。
 雑音抑圧装置100は、ユーザの周囲の状況を識別するために用いるデータ(以下、センサデータという)を取得するために1以上のセンサ(図示しない)と接続する。センサとして、例えば、マイク、カメラ、振動検知用センサを用いることができる。つまり、ユーザの周囲の音、映像、振動を用いてユーザの周囲の状況を識別する。また、雑音抑圧装置100は、ユーザにイベントが生じていることを認識させるために状況提示装置(図示しない)と接続する。状況提示装置として、例えば、スピーカ、ディスプレイ、携帯電話やスマートホンのようなモバイル端末を用いることができる。つまり、音、画像、振動を用いてユーザにイベントが生じていることを認識させる。
 雑音抑圧装置100は、ユーザの周囲の雑音を取得するために1以上のマイク(図示しない、以下、参照マイクという)と、ユーザの受聴音を取得するために1以上のマイク(図示しない、以下、誤差マイクという)と接続する。また、雑音抑圧装置100は、消去音信号に基づく音、すなわち消去音を放音するために1以上のスピーカ(図示しない)と接続する。
 図2に従い雑音抑圧装置100の動作について説明する。
 S110において、状況識別結果生成部110は、センサを用いて取得したセンサデータを入力とし、センサデータを用いてユーザの周囲においてイベントが生じているか否かを示す状況識別結果を生成し、出力する。例えばセンサデータが踏切音である場合、状況識別結果生成部110は、既存の音声認識技術を用いて、ユーザに踏切に電車が近づいていることを示す状況識別結果を生成する。また、例えばセンサデータが踏切が遮断する様子の映像や画像である場合、状況識別結果生成部110は、既存の画像認識技術を用いて、ユーザに踏切に電車が近づいていることを示す状況識別結果を生成する。また、例えば振動検知センサが突発的な振動があったことを検知した場合、状況識別結果生成部110は、ユーザに障害物に衝突した可能性があることを示す状況識別結果を生成する。
 状況識別結果生成部110は、例えば、所定のイベントに由来する音を判定するための基準音とユーザの周囲の雑音との相関の程度を示す値を計算し、当該値が所定の閾値より大きいあるいは所定の閾値以上である場合は、ユーザの周囲においてイベントが生じていることを示す状況識別結果を生成し、それ以外の場合は、ユーザの周囲においてイベントが生じていないことを示す状況識別結果を生成する。なお、当該基準音は、予め記録部190に記録しておくのでよい。
 S120において、通知信号生成部120は、S110で生成した状況識別結果を入力とし、状況識別結果がユーザの周囲においてイベントが生じていることを示すものである場合、ユーザにイベントが生じていることを知らせる通知信号を生成し、出力する。状況提示装置は、S120で生成した通知信号を入力とし、通知信号に基づいてユーザに通知内容を提示する。状況提示装置がスピーカである場合は、通知信号はユーザにイベントが生じていることを知らせる通知音の信号である。また、状況提示装置がディスプレイである場合は、通知信号はユーザにイベントが生じていることを知らせる通知映像の信号である。状況提示装置がモバイル端末である場合は、通知信号はユーザにイベントが生じていることを知らせる通知振動の信号である。
 S130において、消去音信号生成部130は、1以上の参照マイクを用いて取得したユーザの周囲の雑音信号と1以上の誤差マイクを用いて取得したユーザの受聴音信号とを入力とし、雑音信号と受聴音信号とから、雑音を消去する消去音信号を生成し、出力する。スピーカは、S130で生成した消去音信号を入力とし、消去音信号に基づく音を放音する。
 なお、消去音信号生成部130は、雑音信号を用いることなく、消去音信号を生成することもできる。この場合、S130において、消去音信号生成部130は、1以上の誤差マイクを用いて取得したユーザの受聴音信号を入力とし、受聴音信号から、雑音を消去する消去音信号を生成し、出力する。
 本発明の実施形態によれば、ユーザの周囲の雑音を抑圧する処理の実行中であってもユーザが認識する必要がある特定のイベントが生じている場合にはユーザに当該イベントが生じていることを認識させることが可能となる。
<第2実施形態>
 雑音抑圧装置200は、ユーザの周囲の雑音に所定のイベントに由来する音(以下、イベント音という)が含まれる場合、ユーザにイベントが生じていることを認識させる。
 以下、図3~図4を参照して、雑音抑圧装置200を説明する。図3は、雑音抑圧装置200の構成を示すブロック図である。図4は、雑音抑圧装置200の動作を示すフローチャートである。図3に示すように雑音抑圧装置200は、状況識別結果生成部210と、調整情報生成部220と、消去音信号生成部230と、記録部290を含む。記録部290は、雑音抑圧装置200の処理に必要な情報を適宜記録する構成部である。
 雑音抑圧装置200は、雑音抑圧装置100と同様、ユーザの周囲の状況を識別するために用いるデータ(以下、センサデータという)を取得するために1以上のセンサ(図示しない)と接続する。
 雑音抑圧装置200は、雑音抑圧装置100と同様、ユーザの周囲の雑音を取得するために1以上のマイク(図示しない、以下、参照マイクという)と、ユーザの受聴音を取得するために1以上のマイク(図示しない、以下、誤差マイクという)と接続する。また、雑音抑圧装置200は、雑音抑圧装置100と同様、消去音信号に基づく音、すなわち消去音を放音するために1以上のスピーカ(図示しない)と接続する。
 図4に従い雑音抑圧装置200の動作について説明する。
 S210において、状況識別結果生成部210は、センサを用いて取得したセンサデータを入力とし、センサデータを用いてユーザの周囲においてイベントが生じている確からしさを示す状況識別結果を生成し、出力する。状況識別結果の値は、ユーザの周囲においてイベントが生じていることを示す値と生じていないことを示す値との二値であってもよいし、所定のイベントに由来する音を判定するための基準音とユーザの周囲の雑音との相関の程度を示す値であってもよい。なお、当該基準音は、予め記録部290に記録しておくのでよい。状況識別結果の値が上記二値である場合、状況識別結果生成部210は、例えば、所定のイベントに由来する音を判定するための基準音とユーザの周囲の雑音との相関の程度を示す値を計算し、当該値が所定の閾値より大きいあるいは所定の閾値以上である場合は、ユーザの周囲においてイベントが生じていることを示す状況識別結果を生成し、それ以外の場合は、ユーザの周囲においてイベントが生じていないことを示す状況識別結果を生成する。また、状況識別結果の値が上記相関の程度を示す値である場合、状況識別結果生成部210は、例えば、所定のイベントに由来する音を判定するための基準音とユーザの周囲の雑音との相関の程度を示す値を計算し、当該相関の程度を示す値を状況識別結果とする。
 S220において、調整情報生成部220は、S210で生成した状況識別結果を入力とし、状況識別結果の値に応じて決定される雑音を消去する消去音に対するイベント音を消去するイベント音消去音の相対的な大きさに関する情報(以下、調整情報という)を生成し、出力する。状況識別結果の値がユーザの周囲においてイベントが生じていることを示す値と生じていないことを示す値との二値である場合、状況識別結果の値がユーザの周囲においてイベントが生じていることを示す値であるときは、調整情報生成部220は、消去音からイベント音消去音を除外することを示す情報を調整情報として生成する。また、状況識別結果の値が所定のイベントに由来する音を判定するための基準音とユーザの周囲の雑音との相関の程度を示す値である場合、調整情報生成部220は、状況識別結果の値が大きいほど、消去音からイベント音消音を除外する割合が大きくなるようにすることを示す情報を調整情報として生成する。
 例えばセンサデータが踏切が遮断しているか否かを判別するための映像や画像である場合、状況識別結果生成部210は、既存の画像認識技術を用いて、ユーザに踏切に電車が近づいていることを示す値とユーザに踏切に電車が近づいていないことを示す値との二値の状況識別結果を生成する。状況識別結果がユーザに踏切に電車が近づいていることを示す値である場合、調整情報生成部220は、踏切音に相当する特定の周波数帯の音を消去する音をイベント音消去音として、消去音からイベント音消去音を除外することを示す情報を調整情報として生成する。
 S230において、消去音信号生成部230は、1以上の参照マイクを用いて取得したユーザの周囲の雑音信号と1以上の誤差マイクを用いて取得したユーザの受聴音信号とS220で生成した調整情報とを入力とし、雑音信号と受聴音信号と調整情報とから、雑音を消去する消去音信号を生成し、出力する。スピーカは、S230で生成した消去音信号を入力とし、消去音信号に基づく音を放音する。
 なお、消去音信号生成部230は、雑音信号を用いることなく、消去音信号を生成することもできる。この場合、S230において、消去音信号生成部230は、1以上の誤差マイクを用いて取得したユーザの受聴音信号とS220で生成した調整情報とを入力とし、受聴音信号と調整情報とから、雑音を消去する消去音信号を生成し、出力する。
 本発明の実施形態によれば、ユーザの周囲の雑音を抑圧する処理の実行中であってもユーザが認識する必要がある特定のイベントが生じている場合にはユーザに当該イベントが生じていることを認識させることが可能となる。
<補記>
 図5は、上述の各装置を実現するコンピュータ2000の機能構成の一例を示す図である。上述の各装置における処理は、記録部2020に、コンピュータ2000を上述の各装置として機能させるためのプログラムを読み込ませ、制御部2010、入力部2030、出力部2040などに動作させることで実施できる。
 本発明の装置は、例えば単一のハードウェアエンティティとして、キーボードなどが接続可能な入力部、液晶ディスプレイなどが接続可能な出力部、ハードウェアエンティティの外部に通信可能な通信装置(例えば通信ケーブル)が接続可能な通信部、CPU(Central Processing Unit、キャッシュメモリやレジスタなどを備えていてもよい)、メモリであるRAMやROM、ハードディスクである外部記憶装置並びにこれらの入力部、出力部、通信部、CPU、RAM、ROM、外部記憶装置の間のデータのやり取りが可能なように接続するバスを有している。また必要に応じて、ハードウェアエンティティに、CD-ROMなどの記録媒体を読み書きできる装置(ドライブ)などを設けることとしてもよい。このようなハードウェア資源を備えた物理的実体としては、汎用コンピュータなどがある。
 ハードウェアエンティティの外部記憶装置には、上述の機能を実現するために必要となるプログラムおよびこのプログラムの処理において必要となるデータなどが記憶されている(外部記憶装置に限らず、例えばプログラムを読み出し専用記憶装置であるROMに記憶させておくこととしてもよい)。また、これらのプログラムの処理によって得られるデータなどは、RAMや外部記憶装置などに適宜に記憶される。
 ハードウェアエンティティでは、外部記憶装置(あるいはROMなど)に記憶された各プログラムとこの各プログラムの処理に必要なデータが必要に応じてメモリに読み込まれて、適宜にCPUで解釈実行・処理される。その結果、CPUが所定の機能(上記、…部、…手段などと表した各構成部)を実現する。
 本発明は上述の実施形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲で適宜変更が可能である。また、上記実施形態において説明した処理は、記載の順に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されるとしてもよい。
 既述のように、上記実施形態において説明したハードウェアエンティティ(本発明の装置)における処理機能をコンピュータによって実現する場合、ハードウェアエンティティが有すべき機能の処理内容はプログラムによって記述される。そして、このプログラムをコンピュータで実行することにより、上記ハードウェアエンティティにおける処理機能がコンピュータ上で実現される。
 この処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体としては、例えば、磁気記録装置、光ディスク、光磁気記録媒体、半導体メモリ等どのようなものでもよい。具体的には、例えば、磁気記録装置として、ハードディスク装置、フレキシブルディスク、磁気テープ等を、光ディスクとして、DVD(Digital Versatile Disc)、DVD-RAM(Random Access Memory)、CD-ROM(Compact Disc Read Only Memory)、CD-R(Recordable)/RW(ReWritable)等を、光磁気記録媒体として、MO(Magneto-Optical disc)等を、半導体メモリとしてEEP-ROM(Electronically Erasable and Programmable-Read Only Memory)等を用いることができる。
 また、このプログラムの流通は、例えば、そのプログラムを記録したDVD、CD-ROM等の可搬型記録媒体を販売、譲渡、貸与等することによって行う。さらに、このプログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することにより、このプログラムを流通させる構成としてもよい。
 このようなプログラムを実行するコンピュータは、例えば、まず、可搬型記録媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、一旦、自己の記憶装置に格納する。そして、処理の実行時、このコンピュータは、自己の記憶装置に格納されたプログラムを読み取り、読み取ったプログラムに従った処理を実行する。また、このプログラムの別の実行形態として、コンピュータが可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することとしてもよく、さらに、このコンピュータにサーバコンピュータからプログラムが転送されるたびに、逐次、受け取ったプログラムに従った処理を実行することとしてもよい。また、サーバコンピュータから、このコンピュータへのプログラムの転送は行わず、その実行指示と結果取得のみによって処理機能を実現する、いわゆるASP(Application Service Provider)型のサービスによって、上述の処理を実行する構成としてもよい。なお、本形態におけるプログラムには、電子計算機による処理の用に供する情報であってプログラムに準ずるもの(コンピュータに対する直接の指令ではないがコンピュータの処理を規定する性質を有するデータ等)を含むものとする。
 また、この形態では、コンピュータ上で所定のプログラムを実行させることにより、ハードウェアエンティティを構成することとしたが、これらの処理内容の少なくとも一部をハードウェア的に実現することとしてもよい。
 上述の本発明の実施形態の記載は、例証と記載の目的で提示されたものである。網羅的であるという意思はなく、開示された厳密な形式に発明を限定する意思もない。変形やバリエーションは上述の教示から可能である。実施形態は、本発明の原理の最も良い例証を提供するために、そして、この分野の当業者が、熟考された実際の使用に適するように本発明を色々な実施形態で、また、色々な変形を付加して利用できるようにするために、選ばれて表現されたものである。すべてのそのような変形やバリエーションは、公正に合法的に公平に与えられる幅にしたがって解釈された添付の請求項によって定められた本発明のスコープ内である。

Claims (7)

  1.  ユーザの周囲の雑音に所定のイベントに由来する音(以下、イベント音という)が含まれる場合、前記ユーザに前記イベントが生じていることを認識させる
     雑音抑圧装置。
  2.  請求項1に記載の雑音抑圧装置であって、
     センサを用いて取得したセンサデータから、前記ユーザの周囲において前記イベントが生じているか否かを示す状況識別結果を生成する状況識別結果生成部と、
     前記状況識別結果が前記ユーザの周囲において前記イベントが生じていることを示すものである場合、前記ユーザに前記イベントが生じていることを知らせる通知信号を生成する通知信号生成部と、
     1以上のマイクを用いて取得した前記ユーザの受聴音信号とから、前記雑音を消去する消去音信号を生成する消去音信号生成部とを含む
     ことを特徴とする雑音抑圧装置。
  3.  請求項1に記載の雑音抑圧装置であって、
     センサを用いて取得したセンサデータから、前記ユーザの周囲において前記イベントが生じている確からしさを示す状況識別結果を生成する状況識別結果生成部と、
     前記状況識別結果の値に応じて決定される前記雑音を消去する消去音に対する前記イベント音を消去するイベント音消去音の相対的な大きさに関する情報(以下、調整情報という)を生成する調整情報生成部と、
     1以上のマイクを用いて取得した前記ユーザの受聴音信号と前記調整情報とから、前記雑音を消去する消去音信号を生成する消去音信号生成部とを含む
     ことを特徴とする雑音抑圧装置。
  4.  請求項3に記載の雑音抑圧装置であって、
     前記状況識別結果の値は、前記ユーザの周囲において前記イベントが生じていることを示す値と生じていないことを示す値との二値であり、
     前記調整情報は、前記状況識別結果の値が前記ユーザの周囲において前記イベントが生じていることを示す値である場合、前記消去音から前記イベント音消去音を除外することを示す情報である
     ことを特徴とする雑音抑圧装置。
  5.  請求項3に記載の雑音抑圧装置であって、
     前記状況識別結果の値は、所定のイベントに由来する音を判定するための基準音と前記雑音との相関の程度を示す値であり、
     前記調整情報は、前記状況識別結果の値が大きいほど、前記消去音から前記イベント音消音を除外する割合が大きくなるようにすることを示す情報である
     ことを特徴とする雑音抑圧装置。
  6.  ユーザの周囲の雑音に所定のイベントに由来する音(以下、イベント音という)が含まれる場合、前記ユーザに前記イベントが生じていることを認識させる
     雑音抑圧方法。
  7.  請求項1ないし5のいずれか1項に記載の雑音抑圧装置としてコンピュータを機能させるためのプログラム。
PCT/JP2021/047310 2021-12-21 2021-12-21 雑音抑圧装置、雑音抑圧方法、プログラム WO2023119416A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/047310 WO2023119416A1 (ja) 2021-12-21 2021-12-21 雑音抑圧装置、雑音抑圧方法、プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/047310 WO2023119416A1 (ja) 2021-12-21 2021-12-21 雑音抑圧装置、雑音抑圧方法、プログラム

Publications (1)

Publication Number Publication Date
WO2023119416A1 true WO2023119416A1 (ja) 2023-06-29

Family

ID=86901628

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/047310 WO2023119416A1 (ja) 2021-12-21 2021-12-21 雑音抑圧装置、雑音抑圧方法、プログラム

Country Status (1)

Country Link
WO (1) WO2023119416A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004191871A (ja) * 2002-12-13 2004-07-08 Sumitomo Electric Ind Ltd 車内消音システム、騒音消去装置及び車内消音方法
JP2008158254A (ja) * 2006-12-25 2008-07-10 Sharp Corp 音響装置
WO2011030422A1 (ja) * 2009-09-10 2011-03-17 パイオニア株式会社 雑音低減装置
JP2011059376A (ja) * 2009-09-10 2011-03-24 Pioneer Electronic Corp 雑音低減装置付きヘッドフォン

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004191871A (ja) * 2002-12-13 2004-07-08 Sumitomo Electric Ind Ltd 車内消音システム、騒音消去装置及び車内消音方法
JP2008158254A (ja) * 2006-12-25 2008-07-10 Sharp Corp 音響装置
WO2011030422A1 (ja) * 2009-09-10 2011-03-17 パイオニア株式会社 雑音低減装置
JP2011059376A (ja) * 2009-09-10 2011-03-24 Pioneer Electronic Corp 雑音低減装置付きヘッドフォン

Similar Documents

Publication Publication Date Title
US20160360316A1 (en) Electronic device and vibration information generation device
JP2009113659A (ja) 車両用ノイズキャンセル装置
CN111801951B (zh) 啸叫抑制装置、其方法以及计算机可读取记录介质
WO2023119416A1 (ja) 雑音抑圧装置、雑音抑圧方法、プログラム
JP6726297B2 (ja) 処理装置、サーバ装置、出力方法及びプログラム
WO2023119406A1 (ja) 雑音抑圧装置、雑音抑圧方法、プログラム
CN109427324B (zh) 用于控制源自车辆外部来源的噪声的方法和***
WO2016140058A1 (ja) 音声信号再生装置、音声信号再生方法、プログラム、および記録媒体
CN102779525B (zh) 降噪方法及终端
WO2023013020A1 (ja) マスキング装置、マスキング方法、プログラム
US7873755B2 (en) Semiconductor device, reproduction device, and method for controlling the same
JP7487772B2 (ja) 通話環境生成方法、通話環境生成装置、プログラム
JP7456500B2 (ja) 消去フィルタ係数選択装置、消去フィルタ係数選択方法、プログラム
JP6538002B2 (ja) 目的音集音装置、目的音集音方法、プログラム、記録媒体
JP7485982B2 (ja) 処理装置、再生システム、処理方法および処理プログラム
WO2020234993A1 (ja) 通知装置、通知方法、プログラム
JP7447993B2 (ja) 消去フィルタ係数生成方法、消去フィルタ係数生成装置、プログラム
CN110515554B (zh) 内容写入方法、内容写入装置和电子设备
US11482234B2 (en) Sound collection loudspeaker apparatus, method and program for the same
WO2024003988A1 (ja) 制御装置、制御方法、およびプログラム
WO2023139753A1 (ja) 騒音抑圧装置、騒音抑圧方法、およびプログラム
CN117348832A (zh) 多媒体文件播放方法及***
US20190213994A1 (en) Voice output device, method, and program storage medium
US20220234500A1 (en) Alarm sound processing apparatus, alarm sound processing method, and program
CN112562755A (zh) 语音播放方法及装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21968853

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2023568819

Country of ref document: JP

Kind code of ref document: A