WO2001022790A2 - Method for operating a hearing-aid and a hearing aid - Google Patents

Method for operating a hearing-aid and a hearing aid Download PDF

Info

Publication number
WO2001022790A2
WO2001022790A2 PCT/CH2001/000007 CH0100007W WO0122790A2 WO 2001022790 A2 WO2001022790 A2 WO 2001022790A2 CH 0100007 W CH0100007 W CH 0100007W WO 0122790 A2 WO0122790 A2 WO 0122790A2
Authority
WO
WIPO (PCT)
Prior art keywords
hearing aid
unit
features
signal
auditory
Prior art date
Application number
PCT/CH2001/000007
Other languages
German (de)
French (fr)
Other versions
WO2001022790A3 (en
Inventor
Silvia Allegro
Michael BÜCHLER
Original Assignee
Phonak Ag
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Phonak Ag filed Critical Phonak Ag
Priority to CA002400089A priority Critical patent/CA2400089A1/en
Priority to JP2001526020A priority patent/JP2004500750A/en
Priority to DK01900013T priority patent/DK1247425T3/en
Priority to PCT/CH2001/000007 priority patent/WO2001022790A2/en
Priority to EP01900013A priority patent/EP1247425B1/en
Priority to DE50114066T priority patent/DE50114066D1/en
Priority to AU2001221398A priority patent/AU2001221398A1/en
Publication of WO2001022790A2 publication Critical patent/WO2001022790A2/en
Publication of WO2001022790A3 publication Critical patent/WO2001022790A3/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R25/00Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception
    • H04R25/40Arrangements for obtaining a desired directivity characteristic
    • H04R25/402Arrangements for obtaining a desired directivity characteristic using contructional means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2225/00Details of deaf aids covered by H04R25/00, not provided for in any of its subgroups
    • H04R2225/41Detection or adaptation of hearing aid parameters or programs to listening situation, e.g. pub, forest

Definitions

  • the present invention relates to a method for operating a hearing aid and a hearing aid.
  • the hearing program can be selected either via the remote control or via a switch on the hearing aid itself. Switching between different listening programs, however, is troublesome or difficult, if not impossible, for many users. It is not always easy for experienced hearing aid users to determine which program offers the best comfort and the best speech intelligibility at which time. Automatic detection of the acoustic surrounding situation and an associated automatic switching of the hearing program in the hearing aid is therefore desirable.
  • Modulation frequency analysis "(1997, DAGA 97, pages 608 to 609) and" Classification of acoustic signals based on the analysis of modulation spectra for use in digital hearing aids "(1998, DAGA 98, pages 402 to 403).
  • a similar approach is also given in an article by Edwards et al. entitled “Signal-processing algorithms for a new software-based, digital hearing device” (1998, The Hearing Journal 51, pages 44 to 52) .Other possible features are the level itself or the zero crossing rate as described, for example, in HL Hirsch, “Statistical Signal Characterization” (Artech House 1992). The features previously used for audio signal analysis are therefore purely technical.
  • the known methods for noise classification consisting of feature extraction and pattern recognition, have the disadvantages that, although a clear and robust identification of speech signals is fundamentally possible, several different acoustic environmental situations cannot be classified or can only be classified in an inadequate manner. Thus, it is possible with the known methods to distinguish pure speech signals from "non-speech" - ie all other acoustic environmental situations. However, this is not sufficient for an optimal listening program to be used for a current acoustic ambient situation. As a result, either the number of possible hearing programs is limited to the two automatically recognizable acoustic ambient situations, or the hearing aid wearer must recognize the uncovered acoustic ambient situations themselves and activate the associated hearing program manually.
  • Pattern identification methods can generally be used for noise classification.
  • So-called distance estimators, Bayes classifiers, fuzzy logic systems or neural networks are particularly suitable as pattern recognizers. Further information on the first two methods can be found in the publication "Pattern Classification and Scene Analysis” by Richard O. Duda and Peter E. Hart (John Wiley & Sons, 1973).
  • neural networks reference is made to the standard work by Christopher M. Bishop with the title “Neural Networks for Pattern Recognition” (1995, Oxford University Press). Furthermore, reference is made to the following publications: Ostendorf et. al. .
  • the present invention is therefore based on the object of initially specifying a method for operating a hearing aid which is considerably more robust and precise than the known methods.
  • the invention is based on an extraction of signal features and a subsequent separation of different noise sources as well as an identification of different noises, whereby Hidden Markov models are used in the identification phase in order to detect a current environmental situation or noises and / or a speaker or his words. This is the first time that dynamic properties of the classes of interest are taken into account, which significantly improves the accuracy of the method according to the invention in all areas of application, i.e. in the detection of the current environmental situation or noises as well as in the detection of a speaker and individual words.
  • auditory-based features are taken into account in the extraction phase. These auditory-based features are preferably determined using methods of Auditory Scene Analysis (ASA) determined.
  • ASA Auditory Scene Analysis
  • the features are grouped in the extraction phase with the help of the design principles, regardless of the context or depending on the context.
  • the invention is explained in more detail below with reference to a drawing, for example.
  • the single figure shows a block diagram of a hearing aid in which the method according to the invention is implemented.
  • hearing aid means both so-called hearing aids, which are used to correct a person's hearing impairment, and all other acoustic communication systems, such as radio devices ,
  • the hearing device 1 initially consists of two electro-acoustic transducers 2a, 2b and 6, namely one or more microphones 2a, 2b and a loudspeaker 6 - also referred to as a listener.
  • An actual main component of a hearing aid 1 is a transmission unit denoted by 4, in which the signal modifications — in the case of a hearing aid — are made to suit the user of the hearing aid 1.
  • the operations carried out in the transmission unit 4 are not only of the type specified
  • Target function of the hearing aid 1 dependent are also chosen in particular depending on the current acoustic environment.
  • z. B. already offered hearing aids, in which the device wearer can make a manual switch between different hearing programs on certain acoustic environmental situations are adapted.
  • Hearing aids are also known in which the acoustic ambient situation is recognized automatically.
  • European patent specifications with the publication numbers EP-B1-0 732 036 and EP-AI-0 814 636 and to the US patent with the publication number US-5 604 812, and to the brochure "Claro Autoselect" from Phonak hearing systems (28148 (GB) / 0300, 1999).
  • a signal analysis unit 7 and a signal identification unit 8 are provided in the hearing device 1.
  • a signal analysis unit 7 and a signal identification unit 8 are provided in the hearing device 1.
  • one or more analog / digital converters 3a, 3b are provided between the microphones 2a, 2b and the transmission unit 4 and a digital / analog converter 5 between the transmission unit 4 and the receiver 6.
  • the signal analysis unit 7 receives the same input signal as the transmission unit. Finally, the signal identification unit 8, which is connected to the output of the signal analysis unit 7, is connected to the transmission unit 4 and to a control unit 9.
  • a training unit is designated by 10, with the aid of which the determination of parameters required for the classification in the signal identification unit 8 in FIG an "off-line" operation is carried out.
  • the settings of the transmission unit 4 and the control unit 9 determined by the signal analysis unit 7 and the signal identification unit 8 can be overwritten by the user by means of a user input unit 11.
  • a preferred embodiment of the method according to the invention is based on the fact that characteristic features are extracted from an acoustic signal in an extraction phase, whereby instead of or in addition to technically based features - such as. B. the previously mentioned zero crossing rates, temporal level fluctuations, different modulation frequencies, or the level, the spectral focus, the amplitude distribution, etc. - also auditory-based features are used. These auditory-based features are determined with the help of Auditory Scene Analysis (ASA) and include in particular the loudness, the spectral shape (timbre), the harmonic structure (pitch), common settling and decay times (on- / offsets), coherent amplitude modulations , coherent frequency modulations, coherent frequency transitions, binaural effects, etc. B. in the works of A. Bregman, "Auditory Scene Analysis” (MIT Press, 1990) and W. A. Yost,
  • ASA Auditory Scene Analysis
  • the characterization of the tonality of the acoustic signal by analyzing the harmonic structure is given here, which is particularly suitable for the identification of tonal signals, such as speech and music.
  • the features are further grouped in the signal analysis unit 7 by means of shape principles.
  • the principles of Gestalt theory in which qualitative properties - such as continuity, closeness, similarity, common fate,
  • the grouping can - like incidentally also the feature extraction in the extraction phase - either be carried out context-independently, ie without adding additional knowledge (so-called "primitive” grouping), or it can be context-dependent in the sense of human auditory perception using additional information or hypotheses about the signal content occur (so-called “schema-based” grouping).
  • the context-dependent grouping is therefore adapted to the respective acoustic situation.
  • the second aspect of the inventive method described here relates to pattern recognition or signal identification, which is carried out in the identification phase.
  • the method of the Hidden Markov Models is used in the signal identification unit 8 for automatic classification of the acoustic environmental situation. This means that changes in the calculated characteristics over time can also be used for classification. Accordingly, dynamic and not only static properties of the environmental situations to be recognized or. Noise classes are taken into account. It is also possible to combine HMMs with other classifiers, e.g. B. in a multi-stage recognition process, to identify the acoustic environment.
  • the second aspect of the method mentioned ie the use of hidden Markov models, is suitable, ideal for determining a current acoustic environment or noise.
  • the recognition of a speaker as well as the detection of individual words or phrases can also be achieved with extremely good results, even on their own, ie without taking auditory-based features into account in the extraction phase or even without using ASA. (Auditory Scene Analysis) methods, which is used in a further embodiment to determine characteristic features.
  • the output signal of the signal identification unit 8 thus contains information about the type of acoustic environment (acoustic environment situation). This information is applied to the transmission unit 4, in which the most suitable program or the most suitable parameter set for the identified environmental situation is selected for the transmission. At the same time, the information of the control unit 9 determined in the signal identification 8 is applied for further functions where, depending on the situation, any function - e.g. an acoustic signal - can be triggered.
  • a complex procedure for determining the parameters necessary for the classification is necessary. This parameter determination is therefore preferably carried out in an "off-line" process, specifically for each class.
  • the actual identification of various acoustic environmental situations requires only little storage space and little computing capacity. It is therefore proposed to provide a training unit 9 which has sufficient computing power for parameter determination and which can be connected to the hearing aid 1 by suitable means for the purpose of data transfer.
  • suitable means can include, for example, a simple wire connection corresponding plugs.
  • Hearing aid users often also have the desire for the automatic detection of the environmental situation described above and the associated automatic detection
  • an input unit 11 is provided with which automatic reactions or automatic program selection can be overwritten.
  • Such an input unit 11 can, for. B. a switch on the hearing aid 1 or
  • Remote control which is operated by the user.

Landscapes

  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Neurosurgery (AREA)
  • Otolaryngology (AREA)
  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Circuit For Audible Band Transducer (AREA)

Abstract

The invention relates to a method for operating a hearing aid (1). The method is characterised in that characteristic features are extracted from an acoustic signal which has been recorded using at least one microphone (2a, 2b) and that said characteristic features are processed in an identification phase, using hidden Markov models, in particular for determining a current acoustic environmental scene or noises and/or for recognition of a speaker and words. The invention also relates to a hearing-aid.

Description

Verfahren zum Betrieb eines Hörgerätes und ein HörgerätMethod for operating a hearing aid and a hearing aid
Die vorliegende Erfindung betrifft ein Verfahren zum Betrieb eines Hörgerätes sowie ein Hörgerät.The present invention relates to a method for operating a hearing aid and a hearing aid.
Moderne Hörgeräte können heute mit Hilfe verschiedener Hδrprogramme - typischerweise sind dies zwei bis maximal drei Programme - unterschiedlichen akustischen UmgebungsSituationen angepasst werden. Damit soll dasToday, modern hearing aids can be adapted to different acoustic environments with the aid of different hearing programs - typically these are two to a maximum of three programs. This is supposed to
Hörgerät dem Benutzer in jeder Situation einen optimalen Nutzen bieten.Hearing aid to offer the user optimal benefit in every situation.
Die Wahl des Hδrprogramms kann entweder über die Fernbedienung oder über einen Schalter am Hörgerät selbst vorgenommen werden. Das Umschalten zwischen verschiedenen Hδrprogrammen ist jedoch für viele Benutzer lästig oder schwierig, wenn nicht sogar unmöglich. Welches Programm zu welchem Zeitpunkt den optimalen Komfort und die beste Sprachverständlichkeit bietet, ist auch für versierte Hörgeräteträger nicht immer einfach zu bestimmen. Ein automatisches Erkennen der akustischen Umgebungssituation und ein damit verbundenes automatisches Umschalten des Hδrprogramms im Hörgerät ist daher wünschenswert.The hearing program can be selected either via the remote control or via a switch on the hearing aid itself. Switching between different listening programs, however, is troublesome or difficult, if not impossible, for many users. It is not always easy for experienced hearing aid users to determine which program offers the best comfort and the best speech intelligibility at which time. Automatic detection of the acoustic surrounding situation and an associated automatic switching of the hearing program in the hearing aid is therefore desirable.
Es sind derzeit verschiedene Verfahren für die automatische Klassifizierung von akustischen Umgebungssituationen bekannt. Bei all diesen Verfahren werden aus dem Eingangssignal, das beim Hörgerät von einem oder mehreren Mikrophonen stammen kann, verschiedene Merkmale extrahiert. Basierend auf diesen Merkmalen trifft ein Mustererkenner unter Anwendung eines Algorithmus eine Entscheidung über die Zugehörigkeit des analysierten Eingangssignals zu einer bestimmten akustischen Umgebungssituation. Die verschiedenen bekannten Verfahren unterscheiden sich dabei einerseits durch die unterschiedlichen Merkmale, welche bei der Beschreibung der akustischen Umgebungssituation verwendet werden (Signalanalyse) , und andererseits durch den verwendeten Mustererkenner der die Merkmale klassifiziert (Signalidentifikation) .Various methods for the automatic classification of acoustic environmental situations are currently known. In all of these methods, various features are extracted from the input signal, which can come from one or more microphones in the hearing aid. Based on these features, a pattern recognizer uses an algorithm to make a decision about the belonging of the analyzed input signal to a certain acoustic environment. The different known methods differ on the one hand by the different features that are involved in the description of the acoustic surrounding situation are used (signal analysis), and on the other hand by the pattern recognizer used which classifies the characteristics (signal identification).
Für die Merkmalsextraktion in Audiosignalen wurde im Aufsatz von J. M. Kates mit dem Titel "Classification of Background Noises für Hearing-Aid Applications" (1995, Journal of the Acoustical Society of America 97(1), Seiten 461 bis 469) vorgeschlagen, eine Analyse der zeitlichen Pegelschwankungen und des Spektrums vorzunehmen. Des weiteren wurde in der Europäischen Patentschrift mit der Nummer EP-B1-0 732 036 eine Analyse des Amplitudenhistogramms zur Erreichung des gleichen Ziels vorgeschlagen. Schliesslich wurde die Merkmalsextraktion auch durch eine Analyse verschiedener Modulationsfrequenzen untersucht und angewendet. Diesbezüglich wird auf die beiden Aufsätze von Ostendorf et. al. mit den Titeln "Empirische Klassifizierung verschiedener akustischer Signale und Sprache mittels einerFor feature extraction in audio signals, an analysis of the was proposed in JM Kates' article entitled "Classification of Background Noises for Hearing-Aid Applications" (1995, Journal of the Acoustical Society of America 97 (1), pages 461 to 469) temporal level fluctuations and the spectrum. Furthermore, an analysis of the amplitude histogram was proposed in the European patent specification with the number EP-B1-0 732 036 in order to achieve the same goal. Finally, the feature extraction was also examined and applied by analyzing different modulation frequencies. In this regard, the two articles by Ostendorf et. al. with the titles "Empirical Classification of Different Acoustic Signals and Speech Using a
Modulationsfrequenzanalyse" (1997, DAGA 97, Seiten 608 bis 609) und "Klassifikation von akustischen Signalen basierend auf der Analyse von Modulationsspektren zur Anwendung in digitalen Hörgeräten" (1998, DAGA 98, Seiten 402 bis 403) verwiesen. Ein ähnlicher Ansatz ist auch in einem Aufsatz von Edwards et. al . mit dem Titel "Signal-processing algorithms for a new sofware-based, digital hearing device" (1998, The Hearing Journal 51, Seiten 44 bis 52) offenbart. Weitere mögliche Merkmale sind der Pegel selbst oder die Nulldurchgangsrate wie z.B. in H. L. Hirsch, "Statistical Signal Characterization" (Artech House 1992) beschrieben. Die bisher zur Audiosignalanalyse verwendeten Merkmale sind also rein technisch-basiert .Modulation frequency analysis "(1997, DAGA 97, pages 608 to 609) and" Classification of acoustic signals based on the analysis of modulation spectra for use in digital hearing aids "(1998, DAGA 98, pages 402 to 403). A similar approach is also given in an article by Edwards et al. entitled "Signal-processing algorithms for a new software-based, digital hearing device" (1998, The Hearing Journal 51, pages 44 to 52) .Other possible features are the level itself or the zero crossing rate as described, for example, in HL Hirsch, "Statistical Signal Characterization" (Artech House 1992). The features previously used for audio signal analysis are therefore purely technical.
Die bekannten Methoden zur Geräuschklassifikation, bestehend aus Merkmalsextraktion und Mustererkennung, weisen die Nachteile auf, dass, obwohl eine eindeutige und robuste Identifikation von Sprachsignalen grundsätzlich möglich ist, mehrere verschiedene akustische UmgebungsSituationen nicht oder nur in unzureichender Weise klassifiziert werden können. So ist es zwar mit den bekannten Verfahren möglich, reine Sprachsignale von "Nicht-Sprache" - d.h. allen anderen akustischen UmgebungsSituationen - unterscheiden zu können. Dies reicht jedoch nicht aus, damit ein für eine momentane akustische Umgebungssituation zu verwendendes optimales Horprogramm gewählt werden kann. Als Folge davon ist entweder die Anzahl möglicher Hόrprogramme auf die zwei automatisch erkennbaren akustischen UmgebungsSituationen beschränkt oder der Hörgeräteträger muss die nicht abgedeckten akustischen Umgebungssituationen selber erkennen und das dazugehörige Horprogramm von Hand aktivieren.The known methods for noise classification, consisting of feature extraction and pattern recognition, have the disadvantages that, although a clear and robust identification of speech signals is fundamentally possible, several different acoustic environmental situations cannot be classified or can only be classified in an inadequate manner. Thus, it is possible with the known methods to distinguish pure speech signals from "non-speech" - ie all other acoustic environmental situations. However, this is not sufficient for an optimal listening program to be used for a current acoustic ambient situation. As a result, either the number of possible hearing programs is limited to the two automatically recognizable acoustic ambient situations, or the hearing aid wearer must recognize the uncovered acoustic ambient situations themselves and activate the associated hearing program manually.
Grundsätzlich lassen sich für die Geräuschklassifizierung bekannte Musteridentifikationsmethoden verwenden. So eignen sich insbesondere sogenannte Abstandsschätzer, Bayes Klassifizierer, Fuzzy Logic Systeme oder Neuronale Netzwerke als Mustererkenner. Weitere Informationen zu den zwei erst genannten Methoden können der Druckschrift "Pattern Classification and Scene Analysis" von Richard O. Duda und Peter E. Hart (John Wiley & Sons, 1973) entnommen werden. Bezüglich Neuronalen Netzwerken wird auf das Standardwerk von Christopher M. Bishop mit dem Titel "Neural Networks for Pattern Recognition" (1995, Oxford University Press) verwiesen. Des weiteren wird auf die folgenden Publikationen verwiesen: Ostendorf et. al . ,Known pattern identification methods can generally be used for noise classification. So-called distance estimators, Bayes classifiers, fuzzy logic systems or neural networks are particularly suitable as pattern recognizers. Further information on the first two methods can be found in the publication "Pattern Classification and Scene Analysis" by Richard O. Duda and Peter E. Hart (John Wiley & Sons, 1973). Regarding neural networks, reference is made to the standard work by Christopher M. Bishop with the title "Neural Networks for Pattern Recognition" (1995, Oxford University Press). Furthermore, reference is made to the following publications: Ostendorf et. al. .
"Klassifikation von akustischen Signalen basierend auf der Analyse von Modulationsspektren zur Anwendung in digitalen Hörgeräten" (Zeitschrift für Audiologie, 1998, Seiten 148 bis 150) ; F. Feldbusch, "Geräuscheerkennung mittels Neuronaler Netzwerke" (1998, Zeitschrift für Audiologie, Seiten 30 bis 36) ; Europäische Patentanmeldung mit der Veröffentlichungsnummer EP-AI-0 814 636; und US-Patent mit der Verδffentlichungsnummer US-5 604 812. All die genannten Mustererkennungsmethoden haben jedoch den Nachteil, dass sie lediglich statische Eigenschaften der interessierenden Geräuschklassen modellieren."Classification of acoustic signals based on the analysis of modulation spectra for use in digital hearing aids" (Zeitschrift für Audiologie, 1998, pages 148 to 150); F. Feldbusch, "Noise detection using neural networks" (1998, Journal of Audiology, pages 30 to 36); European patent application with the Publication number EP-AI-0 814 636; and US Pat. No. 5,604,812. However, all of the pattern recognition methods mentioned have the disadvantage that they only model static properties of the noise classes of interest.
Der vorliegenden Erfindung liegt daher die Aufgabe zugrunde, zunächst ein Verfahren zum Betrieb eines Hörgerätes anzugeben, das gegenüber den bekannten Verfahren wesentlich robuster und genauer ist.The present invention is therefore based on the object of initially specifying a method for operating a hearing aid which is considerably more robust and precise than the known methods.
Diese Aufgabe wird durch die in Anspruch 1 angegebenen Massnahmen gelöst . Vorteilhafte Ausgestaltungen der Erfindung sowie ein Hörgerät sind in weiteren Ansprüchen angegeben.This object is achieved by the measures specified in claim 1. Advantageous refinements of the invention and a hearing aid are specified in further claims.
Die Erfindung basiert auf einer Extraktion von Signalmerkmalen und einer nachfolgenden Separation verschiedener Geräuschquellen sowie einer Identifikation verschiedener Geräusche, wobei Hidden Markov Modelle in der Identifikationsphase eingesetzt werden, um eine momentane Umgebungssituation bzw. Geräusche und/oder einen Sprecher bzw. dessen Worte zu detektieren. Damit werden erstmals dynamische Eigenschaften der interessierenden Klassen berücksichtigt, womit eine erhebliche Verbesserung der Genauigkeit des erfindungsgemässen Verfahrens in allen Anwendungsbereichen, d.h. bei der Detektion der momentanen UmgebungsSituation bzw. von Geräuschen als auch bei der Detektion eines Sprechers und einzelner Worte, erreicht worden ist.The invention is based on an extraction of signal features and a subsequent separation of different noise sources as well as an identification of different noises, whereby Hidden Markov models are used in the identification phase in order to detect a current environmental situation or noises and / or a speaker or his words. This is the first time that dynamic properties of the classes of interest are taken into account, which significantly improves the accuracy of the method according to the invention in all areas of application, i.e. in the detection of the current environmental situation or noises as well as in the detection of a speaker and individual words.
In einer weiteren Ausführungsform des erfindungsgemässen Verfahrens werden an Stelle von oder neben technischbasierten Merkmalen in der Extraktionsphase auditorisch- basierte Merkmale berücksichtigt. Diese auditorisch- basierten Merkmale werden vorzugsweise mit Methoden der Auditory Scene Analysis (ASA) ermittelt.In a further embodiment of the method according to the invention, instead of or in addition to technically based features, auditory-based features are taken into account in the extraction phase. These auditory-based features are preferably determined using methods of Auditory Scene Analysis (ASA) determined.
In einer noch weiteren Ausführungsform des erfindungsgemässen Verfahrens erfolgt in der Extraktionsphase eine Gruppierung der Merkmale mit Hilfe der Gestaltprinzipien kontextunabhängig oder kontextabhängig.In yet another embodiment of the method according to the invention, the features are grouped in the extraction phase with the help of the design principles, regardless of the context or depending on the context.
Die Erfindung wird nachfolgend anhand einer Zeichnung beispielsweise näher erläutert. Dabei zeigt die einzige Figur ein Blockschaltbild eines Hörgerätes, in dem das erfindungsgemässe Verfahren realisiert ist.The invention is explained in more detail below with reference to a drawing, for example. The single figure shows a block diagram of a hearing aid in which the method according to the invention is implemented.
In der einzige Figur ist mit 1 ein Hörgerät bezeichnet, wobei im folgenden unter dem Begriff "Hörgerät" sowohl sogenannte Hörhilfen, welche zur Korrektur eines geschädigten Hδrvermδgens einer Person eingesetzt werden, als auch alle anderen akustischen Kommunikationssysteme, wie zum Beispiel Funkgeräte, zu verstehen sind.In the single figure, 1 denotes a hearing aid, in the following the term “hearing aid” means both so-called hearing aids, which are used to correct a person's hearing impairment, and all other acoustic communication systems, such as radio devices ,
Das Hörgerät 1 besteht in bekannter Weise zunächst aus zwei elektro-akustischen Wandlern 2a, 2b und 6, nämlich einem oder mehreren Mikrophonen 2a, 2b und einem Lautsprecher 6 - auch etwa als Hörer bezeichnet. Ein eigentlicher Hauptbestandteil eines Hörgerätes 1 ist eine mit 4 bezeichnete Übertragungseinheit, in welcher die - im Falle einer Hörhilfe - auf den Benutzer des Hörgerätes 1 abgestimmten Signalmodifikationen vorgenommen werden. Die in der Übertragungseinheit 4 vorgenommenen Operationen sind jedoch nicht nur von der Art einer vorgegebenenIn a known manner, the hearing device 1 initially consists of two electro-acoustic transducers 2a, 2b and 6, namely one or more microphones 2a, 2b and a loudspeaker 6 - also referred to as a listener. An actual main component of a hearing aid 1 is a transmission unit denoted by 4, in which the signal modifications — in the case of a hearing aid — are made to suit the user of the hearing aid 1. However, the operations carried out in the transmission unit 4 are not only of the type specified
Zielfunktion des Hörgerätes 1 abhängig, sondern werden insbesondere auch in Abhängigkeit der momentanen akustischen Umgebungssituation gewählt. Aus diesem Grund wurden z. B. bereits Hörhilfen angeboten, bei denen der Geräteträger eine manuelle Umschaltung zwischen verschiedenen Hόrprogrammen vornehmen kann, die auf bestimmte akustische UmgebungsSituationen angepasst sind. Ebenso sind Hörhilfen bekannt, bei denen die Erkennung der akustischen UmgebungsSituation automatisch vorgenommen wird. Diesbezüglich sei nochmals auf die europäischen Patentschriften mit den Verδffentlichungsnummern EP-B1-0 732 036 und EP-AI-0 814 636 sowie auf das US Patent mit der Verδffentlichungsnummer US-5 604 812, und auf die Broschüre "Claro Autoselect" der Firma Phonak hearing Systems (28148 (GB)/0300, 1999) verwiesen.Target function of the hearing aid 1 dependent, but are also chosen in particular depending on the current acoustic environment. For this reason, z. B. already offered hearing aids, in which the device wearer can make a manual switch between different hearing programs on certain acoustic environmental situations are adapted. Hearing aids are also known in which the acoustic ambient situation is recognized automatically. In this regard, reference is once again made to the European patent specifications with the publication numbers EP-B1-0 732 036 and EP-AI-0 814 636 and to the US patent with the publication number US-5 604 812, and to the brochure "Claro Autoselect" from Phonak hearing systems (28148 (GB) / 0300, 1999).
Neben den erwähnten Bestandteilen - wie Mikrophone 2a, 2b, Übertragungseinheit 4 und Hörer 6 - ist im Hörgerät 1 eine Signalanalyseeinheit 7 und eine Signalidentifikationseinheit 8 vorgesehen. Handelt es sich beim Hörgerät 1 um eine Realisierung mittelsIn addition to the components mentioned - such as microphones 2a, 2b, transmission unit 4 and receiver 6 - a signal analysis unit 7 and a signal identification unit 8 are provided in the hearing device 1. Is the hearing aid 1 a realization by means of
Digitaltechnologie, so sind zwischen den Mikrophonen 2a, 2b und der Übertragungseinheit 4 ein oder mehrere Analog/Digital-Wandler 3a, 3b und zwischen der Übertragungseinheit 4 und dem Hörer 6 ein Digital/Analog- Wandler 5 vorgesehen. Obwohl die Realisierung inDigital technology, one or more analog / digital converters 3a, 3b are provided between the microphones 2a, 2b and the transmission unit 4 and a digital / analog converter 5 between the transmission unit 4 and the receiver 6. Although the realization in
Digitaltechnologie die bevorzugte Ausführungsform der vorliegenden Erfindung ist, ist grundsätzlich auch denkbar, dass alle Komponenten in Analogtechnologie realisiert sind. Diesfalls entfallen selbstverständlich die Wandler 3a, 3b und 5.Digital technology is the preferred embodiment of the present invention, it is also conceivable in principle that all components are realized in analog technology. In this case, of course, the transducers 3a, 3b and 5 are omitted.
Die Signalanalyseeinheit 7 ist mit dem gleichen Eingangssignal beaufschlagt wie die Übertragungseinheit . Schliesslich ist die Signalidentifikationseinheit 8, welche mit dem Ausgang der Signalanalyseeinheit 7 verbunden ist, mit der Übertragungseinheit 4 und mit einer Steuereinheit 9 verbunden.The signal analysis unit 7 receives the same input signal as the transmission unit. Finally, the signal identification unit 8, which is connected to the output of the signal analysis unit 7, is connected to the transmission unit 4 and to a control unit 9.
Mit 10 ist eine Trainingseinheit bezeichnet, mit Hilfe derer die Ermittlung von für die Klassifizierung in der Signalidentifikationseinheit 8 benötigten Parameter in einem "off-line" -Betrieb vorgenommen wird.A training unit is designated by 10, with the aid of which the determination of parameters required for the classification in the signal identification unit 8 in FIG an "off-line" operation is carried out.
Die durch die Signalanalyseeinheit 7 und die Signalidentifikationseinheit 8 ermittelten Einstellungen der Übertragungseinheit 4 und der Steuereinheit 9 können durch den Benutzer mittels einer Benutzereingabeeinheit 11 überschrieben werden.The settings of the transmission unit 4 and the control unit 9 determined by the signal analysis unit 7 and the signal identification unit 8 can be overwritten by the user by means of a user input unit 11.
Im folgenden wird das erfindungsgemässe Verfahren erläutert:The method according to the invention is explained below:
Eine bevorzugte Ausführungsform des erfindungsgemässen Verfahrens basiert darauf, dass in einer Extraktionsphase charakteristische Merkmale aus einem akustischen Signal extrahiert werden, wobei anstelle oder zusätzlich zu technisch-basierten Merkmalen - wie z. B. die früher erwähnten Nulldurchgangsraten, zeitlichen Pegelschwankungen, verschiedenen Modulationsfrequenzen, oder der Pegel, der spektrale Schwerpunkt, die Amplitudenverteilung, etc. - auch auditorisch-basierte Merkmale verwendet werden. Diese auditorisch-basierten Merkmale werden mit Hilfe der Auditory Scene Analysis (ASA) ermittelt und umfassen insbesondere die Lautheit, die spektrale Form (timbre) , die harmonische Struktur (pitch) , gemeinsame Einschwing- und Ausschwingzeiten (on-/offsets) , kohärente Amplitudenmodulationen, kohärente Frequenzmodulationen, kohärente Frequenzübergänge, binaurale Effekte, etc. Erläuterungen zur Auditory Scene Analysis sind z. B. in den Werken von A. Bregman, "Auditory Scene Analysis" (MIT Press, 1990) und W. A. Yost,A preferred embodiment of the method according to the invention is based on the fact that characteristic features are extracted from an acoustic signal in an extraction phase, whereby instead of or in addition to technically based features - such as. B. the previously mentioned zero crossing rates, temporal level fluctuations, different modulation frequencies, or the level, the spectral focus, the amplitude distribution, etc. - also auditory-based features are used. These auditory-based features are determined with the help of Auditory Scene Analysis (ASA) and include in particular the loudness, the spectral shape (timbre), the harmonic structure (pitch), common settling and decay times (on- / offsets), coherent amplitude modulations , coherent frequency modulations, coherent frequency transitions, binaural effects, etc. B. in the works of A. Bregman, "Auditory Scene Analysis" (MIT Press, 1990) and W. A. Yost,
"Fundamentals of Hearing - An Introduction" (Academic Press, 1977) zu finden. Angaben zu den einzelnen auditorisch-basierten Merkmalen findet man u.a. in W. A.Yost und S. Sheft, "Auditory Perception" (in "Human Psychophsics", herausgegeben von W. A. Yost, A. N. Popper und R. R. Fay, Springer 1993) , W. M. Hartmann, "Pitch, periodicity, and auditory organization" (Journal of the Acoustical Society of America, 100 (6) , Seiten 3491 bis 3502, 1996), sowie D. K. Mellinger und B. M. Mont-Reynaud, "Scene Analysis" (in "Auditory Computation" , herausgegeben von H. L. Hawkins, T. A. McMullen, A. N. Popper und R. R. Fay, Springer 1996) ."Fundamentals of Hearing - An Introduction" (Academic Press, 1977). Information on the individual auditory-based features can be found, inter alia, in WAYost and S. Sheft, "Auditory Perception" (in "Human Psychophsics", edited by WA Yost, AN Popper and RR Fay, Springer 1993), WM Hartmann, "Pitch, periodicity, and auditory organization "(Journal of the Acoustical Society of America, 100 (6), pages 3491 to 3502, 1996), and DK Mellinger and BM Mont-Reynaud," Scene Analysis "(in" Auditory Computation ", published by HL Hawkins, TA McMullen, AN Popper and RR Fay, Springer 1996).
Als Beispiel für die Verwendung von auditorisch-basierten Merkmalen bei der Signalanalyse sei an dieser Stelle die Charakterisierung der Tonalität des akustischen Signals durch die Analyse der harmonischen Struktur angegeben, was speziell für die Identifikation tonaler Signale, wie Sprache und Musik, geeignet ist.As an example of the use of auditory-based features in signal analysis, the characterization of the tonality of the acoustic signal by analyzing the harmonic structure is given here, which is particularly suitable for the identification of tonal signals, such as speech and music.
Bei einer weiteren Ausfύhrungsform des erfindungsgemässen Verfahrens ist es vorgesehen, in der Signalanalyseeinheit 7 des weiteren eine Gruppierung der Merkmale mittels Gestalt- Prinzipien vorzunehmen. Dabei werden die Prinzipien der Gestalttheorie, bei der qualitative Eigenschaften - wie Kontinuität, Nähe, Ähnlichkeit, gemeinsames Schicksal,In a further embodiment of the method according to the invention, it is provided that the features are further grouped in the signal analysis unit 7 by means of shape principles. The principles of Gestalt theory, in which qualitative properties - such as continuity, closeness, similarity, common fate,
Geschlossenheit, gute Fortsetzung und andere - untersucht werden, auf die auditorisch-basierten und eventuell technischen Merkmale zur Bildung von auditorischen Objekten angewendet . Die Gruppierung kann - wie übrigens auch die Merkmalsextraktion in der Extraktionsphase - entweder kontext-unabhängig, also ohne Hinzunahme von zusätzlichem Wissen, durchgeführt werden (sogenannt "primitive" Gruppierung) , oder sie kann kontext-abhängig im Sinne der menschlichen auditorischen Wahrnehmung unter Verwendung von zusätzlicher Information oder Hypothesen über den Signalgehalt erfolgen (sogenannt "schema-basierte" Gruppierung) . Die kontext-abhängige Gruppierung ist also der jeweiligen akustischen Situation angepasst . Für ausführliche Erläuterungen der Prinzipien der Gestalttheorie und der Gruppierung mittelsUnity, good continuation and others - are examined, applied to the auditory-based and possibly technical characteristics for the formation of auditory objects. The grouping can - like incidentally also the feature extraction in the extraction phase - either be carried out context-independently, ie without adding additional knowledge (so-called "primitive" grouping), or it can be context-dependent in the sense of human auditory perception using additional information or hypotheses about the signal content occur (so-called "schema-based" grouping). The context-dependent grouping is therefore adapted to the respective acoustic situation. For detailed explanations of the principles of Gestalt theory and grouping using
Gestaltprinzipien sei stellvertretend auf folgende Veröffentlichungen verwiesen: "Wahrnehmungspsychologie" von E. B. Goldstein (Spektrum Akademischer Verlag, 1997), "Neuronale Grundlagen der Gestaltwahrnehmung" von A. K. Engel und W. Singer (Spektrum der Wissenschaft, 1998, Seiten 66-73) , sowie "Auditory Scene Analysis" von A. Bregman (MIT Press, 1990) .Design principles are representative of the following Publications referenced: "Perception Psychology" by EB Goldstein (Spectrum Academic Publishing, 1997), "Neural Basics of Shape Perception" by AK Engel and W. Singer (Spectrum of Science, 1998, pages 66-73), and "Auditory Scene Analysis" by A. Bregman (MIT Press, 1990).
Der Vorteil der Anwendung dieser Gruppierungsverfahren liegt darin, dass die Merkmale des Eingangssignals weiter differenziert werden können. Insbesondere sind dadurchThe advantage of using these grouping methods is that the characteristics of the input signal can be further differentiated. In particular, are
Signalteile identifizierbar, welche von unterschiedlichen Klangquellen stammen. Dies ermöglicht, dass die extrahierten Merkmale einzelnen Geräuschquellen zugeordnet werden können, womit zusätzliches Wissen über die vorhandenen Geräuschquellen - und damit über die momentane UmgebungsSituation - erhalten wird.Signal parts identifiable that come from different sound sources. This enables the extracted features to be assigned to individual noise sources, which provides additional knowledge about the existing noise sources - and thus about the current environmental situation.
Der zweite Aspekt des hier beschriebenen erfindungsgemässen Verfahrens betrifft die Mustererkennung bzw. die Signalidentifikation, welche in der Identifikationsphase vorgenommen wird. In der bevorzugten Ausführungsform des erfindungsgemässen Verfahrens kommt in der Signalidentifikationseinheit 8 zur automatischen Klassifizierung der akustischen Umgebungssituation die Methode der Hidden Markov Modelle (HMM) zur Anwendung. Damit können auch zeitliche Änderungen der berechneten Merkmale zur Klassifizierung eingesetzt werden. Demzufolge können auch dynamische und nicht nur statische Eigenschaften der zu erkennenden Umgebungssituationen resp. Geräuschklassen berücksichtigt werden. Ebenfalls möglich ist die Kombination von HMMs mit anderen Klassifizierern, z. B. in einem mehrstufigen Erkennungsverfahren, zur Identifikation der akustischen Umgebung.The second aspect of the inventive method described here relates to pattern recognition or signal identification, which is carried out in the identification phase. In the preferred embodiment of the method according to the invention, the method of the Hidden Markov Models (HMM) is used in the signal identification unit 8 for automatic classification of the acoustic environmental situation. This means that changes in the calculated characteristics over time can also be used for classification. Accordingly, dynamic and not only static properties of the environmental situations to be recognized or. Noise classes are taken into account. It is also possible to combine HMMs with other classifiers, e.g. B. in a multi-stage recognition process, to identify the acoustic environment.
Erfindungsgemäss eignet sich der erwähnte zweite Aspekt des Verfahrens, d.h. die Verwendung von Hidden Markov Modellen, vorzüglich zur Bestimmung einer momentanen akustischen UmgebungsSituation bzw. von Geräuschen. Ebenfalls das Erkennen von einem Sprecher sowie die Detektion einzelner Worte oder Phrasen lassen sich mit äusserst guten Ergebnissen bewerkstelligen, und zwar auch für sich allein, d.h. auch ohne die Mitberücksichtigung von auditorisch- basierten Merkmalen in der Extraktionsphase bzw. auch ohne die Verwendung von ASA- (Auditory Scene Analysis) -Methoden, welche in einer weiteren Ausführungsform zur Bestimmung von charakteristischen Merkmalen eingesetzt wird.According to the invention, the second aspect of the method mentioned, ie the use of hidden Markov models, is suitable, ideal for determining a current acoustic environment or noise. The recognition of a speaker as well as the detection of individual words or phrases can also be achieved with extremely good results, even on their own, ie without taking auditory-based features into account in the extraction phase or even without using ASA. (Auditory Scene Analysis) methods, which is used in a further embodiment to determine characteristic features.
Das Ausgangssignal der Signalidentifikationseinheit 8 enthält somit Informationen über die Art der akustischen Umgebung (akustische Umgebungssituation) . Diese Information wird der Übertragungseinheit 4 beaufschlagt, in der das für die erkannte Umgebungssituation geeignetste Programm bzw. der geeignetste Parametersatz für die Übertragung ausgewählt wird. Gleichzeitig wird die in der Signalidentifikation 8 ermittelte Information der Steuereinheit 9 für weitere Funktionen beaufschlagt, wo je nach Situation eine beliebige Funktion - z.B. ein akustisches Signal - ausgelöst werden kann.The output signal of the signal identification unit 8 thus contains information about the type of acoustic environment (acoustic environment situation). This information is applied to the transmission unit 4, in which the most suitable program or the most suitable parameter set for the identified environmental situation is selected for the transmission. At the same time, the information of the control unit 9 determined in the signal identification 8 is applied for further functions where, depending on the situation, any function - e.g. an acoustic signal - can be triggered.
Werden in der Identifikationsphase Hidden Markov Modelle verwendet, so wird ein aufwendiges Verfahren zur Ermittlung der für die Klassifizierung notwendigen Parameter notwendig. Diese Parameterermittlung erfolgt daher vorzugsweise in einem "Off-line"-Verfahren, und zwar für jede Klasse allein. Die eigentliche Identifikation verschiedener akustischer Umgebungssituationen erfordert nur geringen Speicherplatz und wenig Rechenkapazität. Daher wird vorgeschlagen, eine Trainingseinheit 9 vorzusehen, die zur Parameterbestimmung ausreichend Rechenleistung aufweist und die mit geeigneten Mitteln mit dem Hörgerät 1 zum Zweck des Datentransfers verbindbar sind. Solche Mittel können beispielsweise eine einfache Drahtverbindung mit entsprechenden Steckern sein.If hidden Markov models are used in the identification phase, a complex procedure for determining the parameters necessary for the classification is necessary. This parameter determination is therefore preferably carried out in an "off-line" process, specifically for each class. The actual identification of various acoustic environmental situations requires only little storage space and little computing capacity. It is therefore proposed to provide a training unit 9 which has sufficient computing power for parameter determination and which can be connected to the hearing aid 1 by suitable means for the purpose of data transfer. Such means can include, for example, a simple wire connection corresponding plugs.
Mit dem erfindungsgemässen Verfahren ist es somit möglich, aus einer Vielzahl verschiedener Einstellmöglichkeiten und automatisch abrufbaren Aktionen die geeignetste auszuwählen, ohne dass der Benutzer des Gerätes selber tätig werden muss. Der Komfort für den Benutzer ist damit wesentlich verbessert, denn es wird unmittelbar nach dem Erkennen einer neuen akustischen Umgebungssituation das richtige Programm bzw. die entsprechende Funktion im Hörgerät 1 selbsttätig gewählt .With the method according to the invention, it is thus possible to select the most suitable from a large number of different setting options and actions which can be called up automatically, without the user of the device having to act himself. The convenience for the user is thus significantly improved, since the correct program or the corresponding function in the hearing aid 1 is automatically selected immediately after a new acoustic ambient situation is recognized.
Benutzer von Hörgeräten haben oft auch den Wunsch, die vorstehend beschriebene automatische Erkennung der Umgebungssituation und die damit verbundene automatischeHearing aid users often also have the desire for the automatic detection of the environmental situation described above and the associated automatic detection
Wahl des entsprechenden Programms auszuschalten. Aus diesem Grund ist eine Eingabeeinheit 11 vorgesehen, mit der automatische Reaktionen oder die automatische Programmwahl überschrieben werden kann. Eine solche Eingabeeinheit 11 kann z. B. ein Schalter am Hörgerät 1 oder eineSwitch off selection of the corresponding program. For this reason, an input unit 11 is provided with which automatic reactions or automatic program selection can be overwritten. Such an input unit 11 can, for. B. a switch on the hearing aid 1 or
Fernbedienung sein, welche durch den Benutzer betätigt wird.Remote control, which is operated by the user.
Andere Möglichkeiten wie z. B. eine sprachgesteuerte Benutzereingabe sind ebenfalls denkbar. Other options such as B. a voice-controlled user input are also conceivable.

Claims

Patentansprüche: claims:
1. Verfahren zum Betrieb eines Hörgerätes (1), wobei das Verfahren darin besteht,1. Method for operating a hearing aid (1), the method consisting in
- dass in einer Extraktionsphase charakteristische Merkmale aus einem mit mindestens einem Mikrophon (2a, 2b) aufgenommenen akustischen Signal extrahiert werden, und- that in an extraction phase characteristic features are extracted from an acoustic signal recorded with at least one microphone (2a, 2b), and
- dass in einer Identifikationsphase die charakteristischen Merkmale unter Verwendung der Hidden Markov Modelle insbesondere zur Bestimmung einer momentanen akustischen UmgebungsSituation bzw. von Geräuschen und/oder zur Sprecher- und Worterkennung verarbeitet werden.- That the characteristic features are processed in an identification phase using the hidden Markov models, in particular for determining a current acoustic ambient situation or for noises and / or for speaker and word recognition.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass in der Extraktionsphase zur Bestimmung der charakteristischen Merkmale ASA- (Auditory Scene Analysis) - Methoden verwendet werden.2. The method according to claim 1, characterized in that ASA (Auditory Scene Analysis) methods are used in the extraction phase to determine the characteristic features.
3. Verfahren nach Anspruch 1 oder 2 , dadurch gekennzeichnet, dass ein oder mehrere der folgenden auditorisch-basierten Merkmale bei der Merkmalsextraktion ermittelt werden: Lautheit, spektrale Form, harmonische Struktur, gemeinsame Ein- und Ausschwingvorgänge, kohärente Amplitudenmodulationen, kohärente Frequenzmodulationen, kohärente Frequenztransitionen und binaurale Effekte.3. The method according to claim 1 or 2, characterized in that one or more of the following auditory-based features are determined in the feature extraction: loudness, spectral shape, harmonic structure, common transient and decay processes, coherent amplitude modulations, coherent frequency modulations, coherent frequency transitions and binaural effects.
4. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass zusätzlich zu auditorisch- basierten Merkmalen auch beliebige andere Merkmale ermittelt werden.4. The method according to any one of the preceding claims, characterized in that in addition to auditory-based features, any other features are determined.
5. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass zur Bildung von auditorischen Objekten die auditorisch-basierten und die gegebenenfalls anderen Merkmale mit den Prinzipien der Gestalttheorie gruppiert werden.5. The method according to any one of the preceding claims, characterized in that the auditory-based and possibly other features are grouped with the principles of Gestalt theory to form auditory objects.
6. Verfahren nach Anspruch 5, dadurch gekennzeichnet, dass die Merkmalsextraktion und/oder die Gruppierung der Merkmale entweder kontext-unabhängig oder kontext-abhängig im Sinne der menschlichen auditorischen Wahrnehmung, unter Berücksichtigung von zusätzlicher Information oder6. The method according to claim 5, characterized in that the feature extraction and / or the grouping of the features either context-independently or context-dependent in the sense of human auditory perception, taking into account additional information or
Hypothesen über den Signalgehalt und somit der jeweiligen akustischen Situation angepasst, durchgeführt wird.Hypotheses about the signal content and thus adapted to the respective acoustic situation is carried out.
7. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass in der Identifikationsphase auf Daten zugegriffen wird, welche in einer "off-line"- Trainingsphase ermittelt wurden.7. The method according to any one of the preceding claims, characterized in that data is accessed in the identification phase, which were determined in an "off-line" training phase.
8. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass die Extraktionsphase und die Identifikationsphase kontinuierlich resp. in regelmässigen oder unregelmässigen Zeitabständen erfolgt.8. The method according to any one of the preceding claims, characterized in that the extraction phase and the identification phase continuously resp. takes place at regular or irregular intervals.
9. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass aufgrund einer ermittelten momentanen akustischen Umgebungssituation ein Programm bzw. eine Übertragungsfunktion zwischen mindestens einem Mikrophon (2a, 2b) und einem Hörer (6) im Hörgerät (1) eingestellt wird.9. The method according to any one of the preceding claims, characterized in that a program or a transfer function between at least one microphone (2a, 2b) and a handset (6) in the hearing aid (1) is set on the basis of a determined current acoustic environmental situation.
10. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass aufgrund einer ermittelten momentanen akustischen Umgebungssituation, einem detektierten Geräusch, einem detektierten Sprecher oder einem detektierten Wort eine bestimmte Funktion im Hörgerät (1) ausgelöst wird. 10. The method according to any one of the preceding claims, characterized in that a certain function in the hearing aid (1) is triggered on the basis of a determined current acoustic environmental situation, a detected noise, a detected speaker or a detected word.
11. Hörgerät (1) mit einer Übertragungseinheit (4), die eingangsseitig mit mindestens einem Mikrophon (2a, 2b) und ausgangsseitig mit einem Hörer (6) wirkverbunden ist, dadurch gekennzeichnet, dass das Eingangssignal der Übertragungseinheit (4) gleichzeitig einer Signalanalyseeinheit (7) zur Extraktion von Merkmalen beaufschlagt ist, dass die Signalanalyseeinheit (7) mit einer Signalidentifikationseinheit (8) wirkverbunden ist, in der unter Verwendung von Hidden Markov Modellen insbesondere eine momentanen akustischen Umgebungssituation bzw. Geräusche und/oder ein Sprecher bzw. dessen Worte bestimmt werden.11. Hearing aid (1) with a transmission unit (4) which is operatively connected on the input side to at least one microphone (2a, 2b) and on the output side to a receiver (6), characterized in that the input signal of the transmission unit (4) is simultaneously a signal analysis unit ( 7) for the extraction of features, the signal analysis unit (7) is operatively connected to a signal identification unit (8) in which, using hidden Markov models, in particular a current acoustic environment or noise and / or a speaker or his words is determined become.
12. Hörgerät nach Anspruch 11, dadurch gekennzeichnet, dass die Signalidentifikationseinheit (8) mit der Übertragungseinheit (4) zur Einstellung eines Programms bzw. einer Übertragungsfunktion wirkverbunden ist.12. Hearing aid according to claim 11, characterized in that the signal identification unit (8) is operatively connected to the transmission unit (4) for setting a program or a transmission function.
13. Hörgerät (1) nach Anspruch 11 oder 12, dadurch gekennzeichnet, dass eine Eingabeeinheit (11) vorgesehen ist, welche mit der Übertragungseinheit (4) wirkverbunden ist.13. Hearing aid (1) according to claim 11 or 12, characterized in that an input unit (11) is provided which is operatively connected to the transmission unit (4).
14. Hörgerät (1) nach einem der Ansprüche 11 bis 13, dadurch gekennzeichnet, dass eine Steuereinheit (9) vorgesehen ist, wobei die Signalidentifikationseinheit (8) mit der Steuereinheit (9) wirkverbunden ist.14. Hearing aid (1) according to one of claims 11 to 13, characterized in that a control unit (9) is provided, the signal identification unit (8) being operatively connected to the control unit (9).
15. Hörgerät (1) nach Anspruch 14, dadurch gekennzeichnet, dass die Eingabeeinheit (11) mit der Steuereinheit (9) wirkverbunden ist .15. Hearing aid (1) according to claim 14, characterized in that the input unit (11) is operatively connected to the control unit (9).
16. Hörgerät (1) nach einem der Ansprüche 11 bis 15, dadurch gekennzeichnet, dass beliebige Mittel zum Übertragen von Parametern von einer Trainingseinheit (10) zur Signalidentifikationseinheit (8) vorgesehen sind. 16. Hearing aid (1) according to one of claims 11 to 15, characterized in that any means for Transmission of parameters from a training unit (10) to the signal identification unit (8) are provided.
PCT/CH2001/000007 2000-07-12 2001-01-05 Method for operating a hearing-aid and a hearing aid WO2001022790A2 (en)

Priority Applications (7)

Application Number Priority Date Filing Date Title
CA002400089A CA2400089A1 (en) 2001-01-05 2001-01-05 Method for operating a hearing-aid and a hearing aid
JP2001526020A JP2004500750A (en) 2001-01-05 2001-01-05 Hearing aid adjustment method and hearing aid to which this method is applied
DK01900013T DK1247425T3 (en) 2001-01-05 2001-01-05 Method of operating a hearing aid and a hearing aid
PCT/CH2001/000007 WO2001022790A2 (en) 2001-01-05 2001-01-05 Method for operating a hearing-aid and a hearing aid
EP01900013A EP1247425B1 (en) 2001-01-05 2001-01-05 Method for operating a hearing-aid and a hearing aid
DE50114066T DE50114066D1 (en) 2001-01-05 2001-01-05 METHOD FOR OPERATING A HEARING DEVICE AND A HEARING DEVICE
AU2001221398A AU2001221398A1 (en) 2000-07-12 2001-01-05 Method for operating a hearing-aid and a hearing aid

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CH2001/000007 WO2001022790A2 (en) 2001-01-05 2001-01-05 Method for operating a hearing-aid and a hearing aid

Publications (2)

Publication Number Publication Date
WO2001022790A2 true WO2001022790A2 (en) 2001-04-05
WO2001022790A3 WO2001022790A3 (en) 2002-04-18

Family

ID=4358166

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CH2001/000007 WO2001022790A2 (en) 2000-07-12 2001-01-05 Method for operating a hearing-aid and a hearing aid

Country Status (6)

Country Link
EP (1) EP1247425B1 (en)
JP (1) JP2004500750A (en)
CA (1) CA2400089A1 (en)
DE (1) DE50114066D1 (en)
DK (1) DK1247425T3 (en)
WO (1) WO2001022790A2 (en)

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002005591A2 (en) * 2001-11-09 2002-01-17 Phonak Ag Method for operating a hearing device and hearing device
EP1320281A2 (en) 2003-03-07 2003-06-18 Phonak Ag Binaural hearing device and method for controlling a such a hearing device
EP1326478A2 (en) 2003-03-07 2003-07-09 Phonak Ag Method for producing control signals, method of controlling signal transfer and a hearing device
US6912289B2 (en) 2003-10-09 2005-06-28 Unitron Hearing Ltd. Hearing aid and processes for adaptively processing signals therein
EP1653773A2 (en) 2005-08-23 2006-05-03 Phonak Ag Method for operating a hearing aid and hearing aid
EP1858292A1 (en) 2006-05-16 2007-11-21 Phonak AG Hearing device and method of operating a hearing device
EP1670285A3 (en) * 2004-12-09 2008-08-20 Phonak Ag Method to adjust parameters of a transfer function of a hearing device as well as a hearing device
DE102007056221A1 (en) * 2007-11-27 2009-05-28 Siemens Ag Österreich Method for speech recognition
US7653205B2 (en) 2004-10-19 2010-01-26 Phonak Ag Method for operating a hearing device as well as a hearing device
US7680291B2 (en) 2005-08-23 2010-03-16 Phonak Ag Method for operating a hearing device and a hearing device
WO2011027004A2 (en) 2010-12-20 2011-03-10 Phonak Ag Method for operating a hearing device and a hearing device
EP2317777A1 (en) 2006-12-13 2011-05-04 Phonak Ag Method for operating a hearing device and a hearing device
US7957548B2 (en) 2006-05-16 2011-06-07 Phonak Ag Hearing device with transfer function adjusted according to predetermined acoustic environments
US8027495B2 (en) 2003-03-07 2011-09-27 Phonak Ag Binaural hearing device and method for controlling a hearing device system
US8111848B2 (en) 2003-03-07 2012-02-07 Phonak Ag Hearing aid with acoustical signal direction of arrival control
US8249284B2 (en) 2006-05-16 2012-08-21 Phonak Ag Hearing system and method for deriving information on an acoustic scene
US8873780B2 (en) 2010-05-12 2014-10-28 Phonak Ag Hearing system and method for operating the same
US9026821B2 (en) 2008-02-01 2015-05-05 Cochlear Limited Optimizing power consumption of a digital circuit

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103379418A (en) * 2003-06-24 2013-10-30 Gn瑞声达A/S A binaural hearing aid system with coordinated sound processing
JP5069696B2 (en) 2006-03-03 2012-11-07 ジーエヌ リザウンド エー/エス Automatic switching between omnidirectional and directional microphone modes of hearing aids

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0681411A1 (en) * 1994-05-06 1995-11-08 Siemens Audiologische Technik GmbH Programmable hearing aid
EP0881625A2 (en) * 1997-05-27 1998-12-02 AT&T Corp. Multiple models integration for multi-environment speech recognition
US6002776A (en) * 1995-09-18 1999-12-14 Interval Research Corporation Directional acoustic signal processor and method therefor
WO2001076321A1 (en) * 2000-04-04 2001-10-11 Gn Resound A/S A hearing prosthesis with automatic classification of the listening environment

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0681411A1 (en) * 1994-05-06 1995-11-08 Siemens Audiologische Technik GmbH Programmable hearing aid
US6002776A (en) * 1995-09-18 1999-12-14 Interval Research Corporation Directional acoustic signal processor and method therefor
EP0881625A2 (en) * 1997-05-27 1998-12-02 AT&T Corp. Multiple models integration for multi-environment speech recognition
WO2001076321A1 (en) * 2000-04-04 2001-10-11 Gn Resound A/S A hearing prosthesis with automatic classification of the listening environment

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
MELLINGER D K: "Feature-map methods for extracting sound frequency modulation" SIGNALS, SYSTEMS AND COMPUTERS, 1991. 1991 CONFERENCE RECORD OF THE TWENTY-FIFTH ASILOMAR CONFERENCE ON PACIFIC GROVE, CA, USA 4-6 NOV. 1991, LOS ALAMITOS, CA, USA,IEEE COMPUT. SOC, US, 4. November 1991 (1991-11-04), Seiten 795-799, XP010026410 ISBN: 0-8186-2470-1 *

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002005591A2 (en) * 2001-11-09 2002-01-17 Phonak Ag Method for operating a hearing device and hearing device
WO2002005591A3 (en) * 2001-11-09 2002-12-19 Phonak Ag Method for operating a hearing device and hearing device
US7925034B2 (en) 2001-11-09 2011-04-12 Phonak Ag Method for operating a hearing device as well as a hearing device
EP1320281A2 (en) 2003-03-07 2003-06-18 Phonak Ag Binaural hearing device and method for controlling a such a hearing device
EP1326478A2 (en) 2003-03-07 2003-07-09 Phonak Ag Method for producing control signals, method of controlling signal transfer and a hearing device
US8111848B2 (en) 2003-03-07 2012-02-07 Phonak Ag Hearing aid with acoustical signal direction of arrival control
US7286672B2 (en) 2003-03-07 2007-10-23 Phonak Ag Binaural hearing device and method for controlling a hearing device system
US8027495B2 (en) 2003-03-07 2011-09-27 Phonak Ag Binaural hearing device and method for controlling a hearing device system
US6912289B2 (en) 2003-10-09 2005-06-28 Unitron Hearing Ltd. Hearing aid and processes for adaptively processing signals therein
US7653205B2 (en) 2004-10-19 2010-01-26 Phonak Ag Method for operating a hearing device as well as a hearing device
US7995781B2 (en) 2004-10-19 2011-08-09 Phonak Ag Method for operating a hearing device as well as a hearing device
EP1670285A3 (en) * 2004-12-09 2008-08-20 Phonak Ag Method to adjust parameters of a transfer function of a hearing device as well as a hearing device
EP1653773A2 (en) 2005-08-23 2006-05-03 Phonak Ag Method for operating a hearing aid and hearing aid
US7680291B2 (en) 2005-08-23 2010-03-16 Phonak Ag Method for operating a hearing device and a hearing device
US7957548B2 (en) 2006-05-16 2011-06-07 Phonak Ag Hearing device with transfer function adjusted according to predetermined acoustic environments
US8249284B2 (en) 2006-05-16 2012-08-21 Phonak Ag Hearing system and method for deriving information on an acoustic scene
EP1858292A1 (en) 2006-05-16 2007-11-21 Phonak AG Hearing device and method of operating a hearing device
US8594337B2 (en) 2006-12-13 2013-11-26 Phonak Ag Method for operating a hearing device and a hearing device
EP2317777A1 (en) 2006-12-13 2011-05-04 Phonak Ag Method for operating a hearing device and a hearing device
DE102007056221A1 (en) * 2007-11-27 2009-05-28 Siemens Ag Österreich Method for speech recognition
DE102007056221B4 (en) * 2007-11-27 2009-07-09 Siemens Ag Österreich Method for speech recognition
EP2068305A1 (en) 2007-11-27 2009-06-10 Siemens AG Österreich Speech recognition method
US9026821B2 (en) 2008-02-01 2015-05-05 Cochlear Limited Optimizing power consumption of a digital circuit
US8873780B2 (en) 2010-05-12 2014-10-28 Phonak Ag Hearing system and method for operating the same
WO2011027004A2 (en) 2010-12-20 2011-03-10 Phonak Ag Method for operating a hearing device and a hearing device
US9363612B2 (en) 2010-12-20 2016-06-07 Sonova Ag Method for operating a hearing device and a hearing device

Also Published As

Publication number Publication date
CA2400089A1 (en) 2001-04-05
DE50114066D1 (en) 2008-08-14
WO2001022790A3 (en) 2002-04-18
EP1247425B1 (en) 2008-07-02
DK1247425T3 (en) 2008-10-27
EP1247425A2 (en) 2002-10-09
JP2004500750A (en) 2004-01-08

Similar Documents

Publication Publication Date Title
WO2001020965A2 (en) Method for determining a current acoustic environment, use of said method and a hearing-aid
EP1247425B1 (en) Method for operating a hearing-aid and a hearing aid
DE60120949T2 (en) A HEARING PROSTHESIS WITH AUTOMATIC HEARING CLASSIFICATION
EP1470735B1 (en) Method for determining an acoustic environment situation, application of the method and hearing aid
DE69816221T2 (en) LANGUAGE SPEED CHANGE METHOD AND DEVICE
DE3871711T2 (en) METHOD AND DEVICE FOR IMPROVING THE UNDERSTANDING OF VOICES IN HIGH NOISE ENVIRONMENT.
EP1307072B1 (en) Method for operating a hearing aid and hearing aid
DE102019200954A1 (en) Signal processing device, system and method for processing audio signals
EP3445067B1 (en) Hearing aid and method for operating a hearing aid
EP1404152B1 (en) Device and method for fitting a hearing-aid
EP1912474A1 (en) Method for operating a hearing aid and hearing aid
EP2405673B1 (en) Method for localising an audio source and multi-channel audio system
EP3386215B1 (en) Hearing aid and method for operating a hearing aid
DE102010041740A1 (en) Method for signal processing in a hearing aid device and hearing aid device
DE102019200956A1 (en) Signal processing device, system and method for processing audio signals
EP2077059B1 (en) Method for operating a hearing aid, and hearing aid
EP2200341B1 (en) Method for operating a hearing aid and hearing aid with a source separation device
DE19948907A1 (en) Signal processing in hearing aid
EP1432282B1 (en) Method for adapting a hearing aid to a momentary acoustic environment situation and hearing aid system
WO2008043758A1 (en) Method for operating a hearing aid, and hearing aid
EP2792165B1 (en) Adaptation of a classification of an audio signal in a hearing aid
EP1348315B1 (en) Method for use of a hearing-aid and corresponding hearing aid
EP2120484B1 (en) Method for operating a hearing device and hearing device
EP1303166B1 (en) Method of operating a hearing aid and assembly with a hearing aid
DE102004044565B4 (en) Method for limiting the dynamic range of audio signals and circuitry therefor

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A2

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BY BZ CA CH CN CR CU CZ DE DK DM DZ EE ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NO NZ PL PT RO RU SD SE SG SI SK SL TJ TM TR TT TZ UA UG US UZ VN YU ZA ZW

AL Designated countries for regional patents

Kind code of ref document: A2

Designated state(s): GH GM KE LS MW MZ SD SL SZ TZ UG ZW AM AZ BY KG KZ MD RU TJ TM AT BE CH CY DE DK ES FI FR GB GR IE IT LU MC NL PT SE TR BF BJ CF CG CI CM GA GN GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
AK Designated states

Kind code of ref document: A3

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BY BZ CA CH CN CR CU CZ DE DK DM DZ EE ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NO NZ PL PT RO RU SD SE SG SI SK SL TJ TM TR TT TZ UA UG US UZ VN YU ZA ZW

AL Designated countries for regional patents

Kind code of ref document: A3

Designated state(s): GH GM KE LS MW MZ SD SL SZ TZ UG ZW AM AZ BY KG KZ MD RU TJ TM AT BE CH CY DE DK ES FI FR GB GR IE IT LU MC NL PT SE TR BF BJ CF CG CI CM GA GN GW ML MR NE SN TD TG

WWE Wipo information: entry into national phase

Ref document number: 2001900013

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2400089

Country of ref document: CA

WWE Wipo information: entry into national phase

Ref document number: 2001221398

Country of ref document: AU

ENP Entry into the national phase

Ref country code: JP

Ref document number: 2001 526020

Kind code of ref document: A

Format of ref document f/p: F

WWP Wipo information: published in national office

Ref document number: 2001900013

Country of ref document: EP

REG Reference to national code

Ref country code: DE

Ref legal event code: 8642

WWG Wipo information: grant in national office

Ref document number: 2001900013

Country of ref document: EP