DE102012200745B4 - Verfahren und Hörvorrichtung zum Schätzen eines Bestandteils der eigenen Stimme - Google Patents

Verfahren und Hörvorrichtung zum Schätzen eines Bestandteils der eigenen Stimme Download PDF

Info

Publication number
DE102012200745B4
DE102012200745B4 DE102012200745.8A DE102012200745A DE102012200745B4 DE 102012200745 B4 DE102012200745 B4 DE 102012200745B4 DE 102012200745 A DE102012200745 A DE 102012200745A DE 102012200745 B4 DE102012200745 B4 DE 102012200745B4
Authority
DE
Germany
Prior art keywords
microphone
hearing
ear
signals
hearing device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE102012200745.8A
Other languages
English (en)
Other versions
DE102012200745A1 (de
Inventor
Vaclav Bouse
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sivantos Pte Ltd
Original Assignee
Siemens Medical Instruments Pte Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens Medical Instruments Pte Ltd filed Critical Siemens Medical Instruments Pte Ltd
Priority to DE102012200745.8A priority Critical patent/DE102012200745B4/de
Priority to EP12196705.3A priority patent/EP2620940A1/de
Priority to US13/746,515 priority patent/US20130188816A1/en
Publication of DE102012200745A1 publication Critical patent/DE102012200745A1/de
Application granted granted Critical
Publication of DE102012200745B4 publication Critical patent/DE102012200745B4/de
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R25/00Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception
    • H04R25/30Monitoring or testing of hearing aids, e.g. functioning, settings, battery power
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R25/00Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception
    • H04R25/43Electronic input selection or mixing based on input signal analysis, e.g. mixing or selection between microphone and telecoil or between microphones with different directivity characteristics

Landscapes

  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Otolaryngology (AREA)
  • Neurosurgery (AREA)
  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Headphones And Earphones (AREA)

Abstract

Verfahren zum Schätzen eines Bestandteils der eigenen Stimme eines Trägers einer Hörvorrichtung (12) gekennzeichnet durch – Platzieren eines ersten Mikrofons (16, 30) der Hörvorrichtung am Ausgang des Gehörgangs (10) eines Ohrs des Trägers oder außerhalb des Gehörgangs, – Platzieren eines zweiten Mikrofons (19, 33) der Hörvorrichtung in dem Gehörgang, so dass sich das zweite Mikrofon näher an dem Trommelfell (11) des Ohrs befindet als das erste Mikrofon, – Schätzen einer Phasendifferenz und einer Pegeldifferenz virtueller Mikrofonsignale der beiden Mikrofone zueinander anhand eines vorgegebenen Modells, – Gewinnen je eines zeitlichen Mikrofonsignals (m1, m2) durch jedes der beiden Mikrofone, – Transformieren der beiden zeitlichen Mikrofonsignale zu je einem t-f-Signal in die Zeit-Frequenz-Ebene, – Segmentieren der Zeit-Frequenz-Ebene in mehrere Regionen (24), – Ermitteln jeweils einer Regionphasendifferenz und einer Regionpegeldifferenz für jede der Regionen von einem der beiden t-f-Signale gegenüber dem anderen der beiden t-f-Signale, und – Gruppieren aller derjenigen der mehreren Regionen (24) der Zeit-Frequenz-Ebene zu einer Gruppe, deren Regionphasendifferenz im Wesentlichen mit der geschätzten Phasendifferenz und deren Regionpegeldifferenz im Wesentlichen mit der geschätzten Pegeldifferenz übereinstimmen, wobei die Signalanteile (25) der Gruppe als Schätzung für den Bestandteil der eigenen Stimme des Trägers dient.

Description

  • Die vorliegende Erfindung betrifft ein Verfahren zum Schätzen eines Bestandteils der eigenen Stimme eines Trägers einer Hörvorrichtung. Darüber hinaus betrifft die vorliegende Erfindung eine Hörvorrichtung, in die ein entsprechendes Verfahren implementiert ist. Des Weiteren betrifft die vorliegende Erfindung eine Hörvorrichtung, die ein Filter aufweist, welches nach dem obigen Verfahren erstellt wurde. Unter einer Hörvorrichtung wird hier jedes im oder am Ohr tragbare, einen Schallreiz erzeugende Gerät verstanden, insbesondere ein Hörgerät, ein Headset, Kopfhörer und dergleichen.
  • Hörgeräte sind tragbare Hörvorrichtungen, die zur Versorgung von Schwerhörenden dienen. Um den zahlreichen individuellen Bedürfnissen entgegenzukommen, werden unterschiedliche Bauformen von Hörgeräten wie Hinter-dem-Ohr-Hörgeräte (HdO), Hörgerät mit externem Hörer (RIC: receiver in the canal) und In-dem-Ohr-Hörgeräte (IdO), z. B. auch Concha-Hörgeräte oder Kanal-Hörgeräte (ITE, CIC), bereitgestellt. Die beispielhaft aufgeführten Hörgeräte werden am Außenohr oder im Gehörgang getragen. Darüber hinaus stehen auf dem Markt aber auch Knochenleitungshörhilfen, implantierbare oder vibrotaktile Hörhilfen zur Verfügung. Dabei erfolgt die Stimulation des geschädigten Gehörs entweder mechanisch oder elektrisch.
  • Hörgeräte besitzen prinzipiell als wesentliche Komponenten einen Eingangswandler, einen Verstärker und einen Ausgangswandler. Der Eingangswandler ist in der Regel ein Schallempfänger, z. B. ein Mikrofon, und/oder ein elektromagnetischer Empfänger, z. B. eine Induktionsspule. Der Ausgangswandler ist meist als elektroakustischer Wandler, z. B. Miniaturlautsprecher, oder als elektromechanischer Wandler, z. B. Knochenleitungshörer, realisiert. Der Verstärker ist üblicherweise in eine Signalverarbeitungseinheit integriert. Dieser prinzipielle Aufbau ist in 1 am Beispiel eines Hinter-dem-Ohr-Hörgeräts dargestellt. In ein Hörgerätegehäuse 1 zum Tragen hinter dem Ohr sind ein oder mehrere Mikrofone 2 zur Aufnahme des Schalls aus der Umgebung eingebaut. Eine Signalverarbeitungseinheit 3, die ebenfalls in das Hörgerätegehäuse 1 integriert ist, verarbeitet die Mikrofonsignale und verstärkt sie. Das Ausgangssignal der Signalverarbeitungseinheit 3 wird an einen Lautsprecher bzw. Hörer 4 übertragen, der ein akustisches Signal ausgibt. Der Schall wird gegebenenfalls über einen Schallschlauch, der mit einer Otoplastik im Gehörgang fixiert ist, zum Trommelfell des Geräteträgers übertragen. Die Energieversorgung des Hörgeräts und insbesondere die der Signalverarbeitungseinheit 3 erfolgt durch eine ebenfalls ins Hörgerätegehäuse 1 integrierte Batterie 5.
  • Bei zahlreichen Hörgeräteanwendungen ist es notwendig oder wünschenswert, die eigene Sprache bzw. Stimme des Trägers des Hörgeräts bzw. der Hörvorrichtung aus dem Schallumfeld extrahieren zu können. Eine beispielhafte Anwendung wäre die aktive Reduktion von Okklusionseffekten. Darüber hinaus kann auch ein Strahlformer anhand der eigenen Stimme gesteuert werden. Ferner ist es denkbar, dass die Raumimpulsantwort auf der Grundlage der eigenen Sprache geschätzt wird.
  • Die eigene Sprache bzw. Sprachanteile des Trägers der Hörvorrichtung können mit unterschiedlichen Verfahren geschätzt bzw. extrahiert werden. Ein sehr bekanntes Verfahren hierfür ist unter dem Namen CASA (Computational Auditory Scene Analysis) bekannt. Dieses CASA-Prinzip beruht also darauf, dass die aktuelle Hörsituation rechnerisch analysiert wird. Das CASA-Prinzip fußt auf dem ASA-Prinzip, dessen wichtigste Errungenschaften in der Arbeit von Bregman, A. S. (1994): „Auditory Scene Analysis: The Perceptual Organisation of Sound”, Bradford Books zusammengefasst ist. Der Stand der Entwicklungen bzgl. CASA ist wiedergegeben in dem Artikel Wang, D., Brown, G. J. (2006): „Computational Auditory Scene Analysis: Principals, Algorithms and Applications”, John Wiley & Sons-Verlag, ISBN 978-0-471-74109-1.
  • Monaurale CASA-Algorithmen arbeiten auf einem einzigen Signalkanal und versuchen die Quellen zu trennen. Zumindest soll Sprache abgetrennt werden. Zumeist beruhen sie auf sehr strengen Voraussetzungen bzgl. der Schallquellen. Eine dieser Voraussetzungen betrifft beispielsweise die Grundfrequenzschätzung. Darüber hinaus sind die monauralen CASA-Algorithmen prinzipiell nicht in der Lage, die räumliche Information eines Signals zu nutzen.
  • Mehrkanalige Algorithmen versuchen, die Signale auf der Grundlage der räumlichen Positionen der Quellen zu trennen. Bei diesem Ansatz ist die Konfiguration der Mikrofone wesentlich. Beispielsweise kann bei binauraler Konfiguration, d. h. wenn sich die Mikrofone an beiden Seiten des Kopfes befinden, aber keine zuverlässige Quellentrennung mit diesen Algorithmen durchgeführt werden.
  • Aus der Druckschrift DE 10 2005 032 274 A1 ist ein Hörinstrument bekannt, bei dem die eigene Stimme mit einer speziellen Analyseeinrichtung detektiert wird. Die Hörgerätealgorithmen werden in Abhängigkeit davon gesteuert. Dies kann durch ein Mikrofon im Gehörgang erreicht werden, dessen Signalpegel mit dem eines externen Mikrofons verglichen wird. Beispielsweise lässt sich hiermit die automatische Verstärkungsregelung eines Hörgeräts bei Präsenz der eigenen Stimme des Hörgeräteträgers einfrieren.
  • Die Aufgabe der vorliegenden Erfindung besteht darin, die eigene Stimme eines Trägers einer Hörvorrichtung zuverlässiger erkennen zu können.
  • Erfindungsgemäß wird diese Aufgabe gelöst durch ein Verfahren zum Schätzen eines Bestandteils der eigenen Stimme eines Trägers einer Hörvorrichtung durch
    • – Platzieren eines ersten Mikrofons der Hörvorrichtung am Ausgang des Gehörgangs eines Ohrs des Trägers oder außerhalb des Gehörgangs,
    • – Platzieren eines zweiten Mikrofons der Hörvorrichtung in dem Gehörgang, so dass sich das zweite Mikrofon näher an dem Trommelfell des Ohrs befindet als das erste Mikrofon,
    • – Schätzen einer Phasendifferenz und einer Pegeldifferenz virtueller Mikrofonsignale der beiden Mikrofone zueinander anhand eines vorgegebenen Modells,
    • – Gewinnen je eines zeitlichen Mikrofonsignals durch jedes der beiden Mikrofone,
    • – Transformieren der beiden zeitlichen Mikrofonsignale zu je einem t-f-Signal in die Zeit-Frequenz-Ebene,
    • – Segmentieren der Zeit-Frequenz-Ebene in mehrere Regionen,
    • – Ermitteln jeweils einer Regionphasendifferenz und einer Regionpegeldifferenz für jede der Regionen von einem der beiden t-f-Signale gegenüber dem anderen der beiden t-f-Signale, und
    • – Gruppieren aller derjenigen der mehreren Regionen der Zeit-Frequenz-Ebene zu einer Gruppe, deren Regionphasendifferenz im Wesentlichen mit der geschätzten Phasendifferenz und deren Regionpegeldifferenz im Wesentlichen mit der geschätzten Pegeldifferenz übereinstimmen, wobei die Signalanteile der Gruppe als Schätzung für den Bestandteil der eigenen Stimme des Trägers dient.
  • Darüber hinaus wird erfindungsgemäß eine Hörvorrichtung zur Durchführung des obigen Verfahrens bereitgestellt, wobei die Hörvorrichtung die beiden Mikrofone und eine Signalverarbeitungseinrichtung zum Transformieren, Segmentieren und Gruppieren aufweist.
  • In vorteilhafter Weise werden also zwei Mikrofone sehr speziell platziert. Das zweite Mikrofon wird im Gehörgang angeordnet, während das erste Mikrofon im Wesentlichen am Gehörgangsausgang oder außerhalb des Gehörgangs (z. B. in der Concha oder an der Pinna) angeordnet wird. Damit kann das im Gehörgang angeordnete Mikrofon deutlich mehr Schallanteile, die über Knochenleitung in den Gehörgang gelangen, aufnehmen als das äußere Mikrofon. Dadurch können charakteristische Informationen gewonnen werden, die auf der eigenen Stimme beruhen. Mit einem CASA-Algorithmus lässt sich dann die eigene Stimme, also die Stimme des Trägers der Hörvorrichtung, in der der CASA-Algorithmus läuft, zuverlässig schätzen bzw. extrahieren.
  • Vorzugsweise wird zu jedem der Mikrofonsignale mindestens ein weiteres, von der Phasendifferenz und der Pegeldifferenz verschiedenes Merkmal gewonnen und zu dem Segmentieren und/oder Gruppieren herangezogen. Obwohl das Gruppieren prinzipiell allein anhand der Phasendifferenz und der Pegeldifferenz möglich ist, ist es günstig, für das Gruppieren mindestens ein weiteres Merkmal zusätzlich heranzuziehen. Zum Segmentieren können grundsätzlich andere Merkmale besser geeignet sein.
  • Speziell kann das weitere Merkmal eine Veränderung oder eine Veränderungsgeschwindigkeit im Spektrum der Mikrofonsignale betreffen. Dies hat den Vorteil, dass beispielsweise rasche Pegelanstiege (ON-SETs) bei bestimmten Frequenzen gut erkannt werden können. Derartige Signalflanken eignen sich zum Segmentieren.
  • Das weitere Merkmal kann aber auch die Harmonizität (Grad für die akustische Periodizität) oder die Korrelation der beiden Mikrofonsignale umfassen. Mit der Harmonizität ist es leichter, direkt Sprachanteile erkennen zu können. Die Korrelation hat den Vorteil, dass ein Korrelat zwischen der extern hörbaren Sprache und der über Knochenleitung übertragenen Sprache zusätzlich zur sicheren Bestimmung der eigenen Sprache herangezogen werden kann.
  • Die Hörvorrichtung, die zum Schätzen eines Bestandteils der eigenen Sprache gemäß den obigen Prinzipien ausgebildet ist, kann ein Filter aufweisen, das anhand des Gruppierens bzw. einer entsprechenden Gruppierungsinformation der Signalverarbeitungseinrichtung gesteuert wird. In dem Filter werden dann die durch das Gruppieren festgelegten Regionen in der Zeit-Frequenz-Ebene genutzt, um entsprechende Signalanteile, die dann voraussichtlich von der eigenen Stimme stammen, zu extrahieren bzw. auszufiltern. Das Verfahren mit dem Segmentieren und Gruppieren kann bei Bedarf, z. B. bei jedem Anschalten des Hörgeräts wiederholt werden. Dies hat den Vorteil, dass das Filter dann ständig an die aktuellen Bedingungen (z. B. Sitz des Hörgeräts im oder am Ohr) angepasst werden kann.
  • Darüber hinaus kann aber auch eine Hörvorrichtung vorgesehen sein, die ein Filter aufweist, das zum Extrahieren der eigenen Stimme eines Trägers der Hörvorrichtung dient und das Signalbestandteile ausfiltert, die in die Gruppe der Regionen fallen, welche durch ein oben beschriebenes Verfahren bereits vorab gewonnen wurden. Der Unterschied zu der vorhergehenden Hörvorrichtung besteht also darin, dass das Filter nicht mehr variabel sein muss und somit kostengünstiger herzustellen ist.
  • Die Hörvorrichtung kann als In-dem-Ohr-Hörgerät ausgebildet sein. Alternativ kann die Hörvorrichtung auch als Hinter-dem-Ohr-Hörgerät ausgebildet sein, das ein Hörgerätegehäuse zum Tragen hinter dem Ohr und einen externen Hörer zum Tragen im Gehörgang oder einen Schallschlauch zum Übertragen von Schall von dem Hörgerätegehäuse in den Gehörgang aufweist, wobei das zweite Mikrofon an dem externen Hörer oder dem Schallschlauch und das erste Mikrofon in dem Hörgerätegehäuse angeordnet ist. Damit können die gängigsten Arten von Hörgeräten von der erfindungsgemäßen Art der Schätzung der eigenen Stimme profitieren.
  • Die vorliegende Erfindung wird anhand der beigefügten Zeichnungen näher erläutert, in denen zeigen:
  • 1 den prinzipiellen Aufbau eines Hörgeräts gemäß dem Stand der Technik;
  • 2 einem Querschnitt durch einen Gehörgang mit eingesetztem Hörgerät gemäß der vorliegenden Erfindung;
  • 3 ein Blockdiagramm eines CASA-Algorithmus;
  • 4 das Blockdiagramm von 3 mit interner Struktur;
  • 5 ein Zeit-Frequenz-Diagramm mit Nutzsignalregionen und
  • 6 eine Schnittansicht eines Ohrs mit erfindungsgemäß gestaltetem Hinter-dem-Ohr-Hörgerät.
  • Die nachfolgend näher geschilderten Ausführungsbeispiele stellen bevorzugte Ausführungsformen der vorliegenden Erfindung dar.
  • 2 zeigt schematisch einen Gehörgang 10 mit Trommelfell 11, wobei ein IdO-Hörgerät 12 in den Gehörgang 10 eingesetzt ist. Am Ausgang des Gehörgangs 10 befindet sich das Außenohr 13, das hier nicht vollständig eingezeichnet ist. Das Hörgerät 12 besitzt in dem in den Gehörgang 10 eingesetzten Zustand eine dem Trommelfell 11 zugewandte Seite 14 und eine vom Trommelfell abgewandte, nach außen gerichtete Seite 15.
  • Das Hörgerät 12 besitzt ein erstes Mikrofon 16 an der nach außen gewandten Seite 15. Dieses Mikrofon 16 ist lediglich symbolisch außerhalb des Hörgeräts 12 gezeichnet. Tatsächlich befindet sich das Mikrofon regelmäßig jedoch in dem Hörgerät oder zumindest an der Oberfläche des Hörgeräts.
  • Das erste Mikrofon 16 liefert ein Mikrofonsignal m1. Dieses erste Mikrofonsignal m1 wird für den nachfolgend beschriebenen CASA-Algorithmus verwendet. Es wird aber auch der üblichen Signalverarbeitungseinrichtung 17 des Hörgeräts 12 zur Verfügung gestellt. Diese übliche Signalverarbeitungseinrichtung 17 umfasst häufig einen Verstärker. Das Ausgangssignal der Signalverarbeitungseinrichtung 17 wird an einen Lautsprecher bzw. Hörer 18 weitergeleitet, der an der dem Trommelfell 11 zugewandten Seite 14 des Hörgeräts 12 angeordnet ist. Auch er ist hier nur symbolisch außerhalb des Hörgeräts 12 eingezeichnet und befindet sich meist jedoch im Hörgerätegehäuse.
  • Die Hörvorrichtung bzw. das Hörgerät 12 besitzt hier zusätzlich zu dem ersten Mikrofon 16 ein zweites Mikrofon 19. Dieses zweite Mikrofon 19 befindet sich ebenfalls auf der dem Trommelfell 11 zugewandten Seite 14 des Hörgeräts 12. Es nimmt somit Schall auf, der sich in dem Raum zwischen dem Hörgerät 12, dem Trommelfell 11 und der Wand des Gehörgangs 10 ergibt. In diesen oftmals abgeschlossenen Raum wird insbesondere auch der Schall der eigenen Stimme über Knochenleitung eingetragen. Das zweite Mikrofon 19 nimmt unter anderem diesen Schall auf und stellt im Hörgerät 12 ein zweites Mikrofonsignal m2 zur Verfügung. Dieses zweite Mikrofon 19 kann als im-Kanal-Mikrofon bezeichnet werden.
  • Mit einem in 3 symbolisch dargestellten CASA-System 20, das in das Hörgerät 12 integriert sein kann, wird die eigene Stimme bzw. Sprache, d. h. die Sprache des Hörgeräteträgers, geschätzt. Daher liefert das CASA-System 20 einen Schätzwert ν ~ für einen Bestandteil der eigenen Sprache.
  • In 4 ist das CASA-System 20 von 3 detailliert dargestellt. In dem CASA-System 20 werden die beiden Mikrofonsignale m1 und m2 einer Analyseeinheit 21 zugeführt. Diese Analyseeinheit 21 untersucht jedes der Mikrofonsignale m1 und m2 nach spezifischen Merkmalen. Dazu werden die zeitlichen Signale m1 und m2 in den Zeit-Frequenz-Bereich transformiert, wodurch sich sog. „t-f-Signale” ergeben, die auch als Kurzzeitspektren bezeichnet werden können. Die Transformation kann durch eine hochauflösende Filterbank durchgeführt werden. In der Analyseeinrichtung 21 werden dann für jeden Frequenzkanal jedes der beiden Mikrofonsignale m1 und m2 Merkmale extrahiert. Diese Merkmale sind insbesondere die Phasendifferenz und die Pegeldifferenz zwischen den beiden Mikrofonsignalen m1 und m2, also insbesondere die Phasen- und Pegeldifferenz in jedem Punkt der t-f-Ebene der t-f-Signale. Darüber hinaus können durch die Analyseeinrichtung 21 aber noch weitere Merkmale aus den Mikrofonsignalen m1 und m2 extrahiert werden. Eines dieser weiteren Merkmale kann so genannte „On-Sets” betreffen. Darunter sind beispielsweise schnelle Veränderungen in einem Spektrum zu verstehen, die sich typischerweise am Anfang eines Vokals ergeben. Solche On-Sets stellen meist steile Flanken in einem t-f-Diagramm dar und eignen sich zum Segmentieren der t-f-Signale.
  • Ein weiteres von der Analyseeinrichtung 21 extrahiertes Merkmal kann die Harmonizität sein, unter der der Grad der akustischen Periodizität verstanden wird. Die Harmonizität wird häufig zum Erkennen von Sprache herangezogen. Als noch weiteres Merkmal kann beispielsweise in der Analyseeinrichtung 21 die Korrelation der Mikrofonsignale m1 und m2 untersucht werden. Insbesondere kann beispielsweise die Korrelation zwischen dem über Knochenleitung in den Gehörgang übertragenen Schall und dem von außen an das Ohr herangeführten Schall analysiert werden. Auch daraus ergeben sich Hinweise auf die eigene Sprache.
  • Der Analyseeinrichtung 21 schließt sich ausgangsseitig eine Segmentierungseinrichtung 22 an. Diese segmentiert die Kurzzeitspektren der Mikrofonsignale m1 und m2. Dies bedeutet, dass die Segmentierungseinrichtung 22 Grenzen um Signalanteile in der t-f-Ebene auf die Art und Weise berechnet, dass damit gemäß 5 Regionen 24 definiert werden. In diesen Regionen 24 liegen t-f-Signalanteile einer einzigen Schallquelle. Die Regionen 24 in der t-f-Ebene für einzelne Quellen können auf verschiedene, bekannte Arten berechnet werden. Regionen, die einer definierten Quelle zugeordnet werden können, enthalten demnach einen Quellenschallanteil 25. Außerhalb dieser Regionen 24 befinden sich Störschallanteile 26, die nicht einer spezifischen Quelle zugeordnet werden können. Zu dem Zeitpunkt der Segmentierung ist aber noch nicht bekannt, welche Region 24 zu welcher spezifischen Quelle gehört. Die in 5 gezeigten Regionen 24 in der t-f-Ebene werden für beide Mikrofonsignale m1 und m2 gebildet.
  • Im Anschluss an die Segmentierungseinrichtung 22 folgt eine Gruppierungseinrichtung 23. In der Gruppierungseinrichtung 23 eines allgemeinen CASA-Systems werden die segmentierten Signalanteile, d. h. die Signalanteile 25 in den Regionen 24, in Signalströme organisiert, die den unterschiedlichen Schallquellen zugeordnet werden. Im vorliegenden Fall werden nur diejenigen Signalanteile zu einem Signalstrom synthetisiert, die zur eigenen Sprache des Hörgeräteträgers gehören. Bei dem Gruppieren können beliebige Regionen 24 der t-f-Ebene miteinander kombiniert werden.
  • Für das Gruppieren werden die Informationen der Phasendifferenz und der Pegeldifferenz herangezogen. Um anhand dieser Informationen entscheiden zu können, ob eine Region zur eigenen Stimme gehört, muss vorab rechnerisch die Phasendifferenz und die Pegeldifferenz der beiden Mikrofonsignale in einem Modell geschätzt werden. Anhand dieser Schätzwerte kann dann ermittelt werden, ob eine der segmentierten Regionen zu der eigenen Stimme gehört oder nicht. Liegt nämlich ermittelte Phasen- und Pegeldifferenz in einem vorgegebenen Toleranzbereich um die geschätzte Phase und Pegeldifferenz, so wird die betreffende Region zur eigenen Stimme gezählt.
  • Die Auswahl, ob eine Region 24 mit einer oder anderen mehreren Regionen 24 gruppiert wird, erfolgt in Abhängigkeit von der Phasendifferenz und der Pegeldifferenz zwischen den beiden Mikrofonsignalen m1 und m2. Für das Gruppieren können aber auch die oben aufgezählten weiteren Merkmale herangezogen werden. Eine so entstandene Gruppe repräsentiert also alle Anteile eines Kurzzeitspektrums, die zusammengefügt werden sollen, um hier aus der Vielfalt der Schallanteile nur die eigene Sprache bzw. eigene Stimme zu gewinnen. Die übrigen Signalanteile in dem Kurzzeitspektrum sollen nämlich unterdrückt werden.
  • Sind nun diejenigen Regionen 24 in der t-f-Ebene für die eigene Sprache identifiziert, so kann damit eine t-f-Filterung durchgeführt werden. Dazu gibt die Gruppierungseinrichtung 23 die entsprechende Gruppierungsinformation an ein Filter 27 in dem CASA-System 20 weiter. Das Filter 27 wird also mit der Gruppierungsinformation gesteuert bzw. parametrisiert. Das Filter 27 erhält die zeitlichen Mikrofonsignale m1 und m2, filtert die beiden Signale und gewinnt daraus eine Schätzung für die eigene Stimme bzw. einen Bestandteil ν ~ der eigenen Stimme. Dabei kann das Filter die Signalanteile der Regionen 24 beider t-f-Signale der zwei Mikrofone oder nur diejenigen von einem der t-f-Signale von einem Mikrofon zur Rekonstruktion der eigenen Stimme verwenden.
  • Aus den beiden Mikrofonsignalen m1 und m2, die von sehr spezifisch angeordneten Mikrofonen 16, 19 stammen, wird durch Segmentieren und Gruppieren also ein spezielles Filter bzw. eine spezielle Filterinformation gewonnen, mit dem bzw. der aus einer Hörsituation, die durch mehrere Schallquellen gekennzeichnet ist, die eigene Stimme herausgefiltert werden kann. Dadurch ist ein spezielles Signalmodell für die eigene Sprache hinfällig.
  • Das erfindungsgemäße System besitzt typischerweise eine Verarbeitungsverzögerung von wenigen 100 ms. Diese Verzögerung ist notwendig, um die Merkmale zu extrahieren und die Regionen zu gruppieren. Diese Verzögerung stellt aber in der Praxis kein Problem dar.
  • In 5 ist ein weiteres Ausführungsbeispiel hinsichtlich des Hardwareaufbaus eines erfindungsgemäßen Hörgeräts dargestellt. Bei dem Hörgerät handelt es sich hier um ein HdO-Hörgerät, dessen Hauptkomponente 28 hinter dem Ohr, insbesondere hinter der Pinna 29 getragen wird. Dieses HdO-Hörgerät besitzt an der Hauptkomponente 28 ein erstes Mikrofon 30. Außerdem besitzt das Hörgerät hier einen so genannten externen Hörer, der im Gehörgang 32 befestigt ist. Zusammen mit diesem externen Hörer 31 ist auch ein zweites Mikrofon 33 in dem Gehörgang 32 befestigt. Damit kann das erfindungsgemäße Extrahieren bzw. Schätzen eines Bestandteils der eigenen Stimme auch bei einem HdO-Hörgerät genutzt werden.
  • Bei der erfindungsgemäßen Hörvorrichtung kann somit erstmals das CASA-Prinzip auch zum Registrieren bzw. Extrahieren der eigenen Stimme eingesetzt werden, da durch die spezielle Platzierung der Mikrofone nun ausreichend räumliche Information von den Signalen vorhanden ist. Aus dieser räumlichen Information kann entsprechende Gruppierungsinformation gewonnen werden, so dass letztlich auf komplizierte Sprachmodelle verzichtet werden kann.

Claims (8)

  1. Verfahren zum Schätzen eines Bestandteils der eigenen Stimme eines Trägers einer Hörvorrichtung (12) gekennzeichnet durch – Platzieren eines ersten Mikrofons (16, 30) der Hörvorrichtung am Ausgang des Gehörgangs (10) eines Ohrs des Trägers oder außerhalb des Gehörgangs, – Platzieren eines zweiten Mikrofons (19, 33) der Hörvorrichtung in dem Gehörgang, so dass sich das zweite Mikrofon näher an dem Trommelfell (11) des Ohrs befindet als das erste Mikrofon, – Schätzen einer Phasendifferenz und einer Pegeldifferenz virtueller Mikrofonsignale der beiden Mikrofone zueinander anhand eines vorgegebenen Modells, – Gewinnen je eines zeitlichen Mikrofonsignals (m1, m2) durch jedes der beiden Mikrofone, – Transformieren der beiden zeitlichen Mikrofonsignale zu je einem t-f-Signal in die Zeit-Frequenz-Ebene, – Segmentieren der Zeit-Frequenz-Ebene in mehrere Regionen (24), – Ermitteln jeweils einer Regionphasendifferenz und einer Regionpegeldifferenz für jede der Regionen von einem der beiden t-f-Signale gegenüber dem anderen der beiden t-f-Signale, und – Gruppieren aller derjenigen der mehreren Regionen (24) der Zeit-Frequenz-Ebene zu einer Gruppe, deren Regionphasendifferenz im Wesentlichen mit der geschätzten Phasendifferenz und deren Regionpegeldifferenz im Wesentlichen mit der geschätzten Pegeldifferenz übereinstimmen, wobei die Signalanteile (25) der Gruppe als Schätzung für den Bestandteil der eigenen Stimme des Trägers dient.
  2. Verfahren nach Anspruch 1, wobei zu jedem der Mikrofonsignale (m1, m2) mindestens ein weiteres, von der Phasendifferenz und der Pegeldifferenz verschiedenes Merkmal gewonnen und zu dem Segmentieren und/oder Gruppieren herangezogen wird.
  3. Verfahren nach Anspruch 2, wobei das weitere Merkmal eine Veränderung oder eine Veränderungsgeschwindigkeit im Spektrum der Mikrofonsignale (m1, m2) betrifft.
  4. Verfahren nach Anspruch 2, wobei das weitere Merkmal die Harmonizität oder die Korrelation der beiden Mikrofonsignale (m1, m2) umfasst.
  5. Hörvorrichtung (12) zur Durchführung des Verfahrens nach einem der vorhergehenden Ansprüche, wobei die Hörvorrichtung die beiden Mikrofone (16, 19, 30, 33) und eine Signalverarbeitungseinrichtung (20) zum Transformieren, Segmentieren und Gruppieren umfasst.
  6. Hörvorrichtung nach Anspruch 5, die ein Filter (27) aufweist, das anhand des Gruppierens der Signalverarbeitungseinrichtung gesteuert wird.
  7. Hörvorrichtung nach Anspruch 5 oder 6, die als In-dem-Ohr-Hörgerät ausgebildet ist.
  8. Hörvorrichtung nach Anspruch 5 oder 6, die als Hinter-dem-Ohr-Hörgerät ausgebildet ist, das ein Hörgerätegehäuse zum Tragen hinter dem Ohr und einen externen Hörer (31) zum Tragen im Gehörgang (32) oder einen Schallschlauch zum Übertragen von Schall von dem Hörgerätegehäuse in dem Gehörgang aufweist, wobei das zweite Mikrofon (33) an dem externen Hörer oder dem Schallschlauch und das erste Mikrofon (30) in dem Hörgerätegehäuse angeordnet ist.
DE102012200745.8A 2012-01-19 2012-01-19 Verfahren und Hörvorrichtung zum Schätzen eines Bestandteils der eigenen Stimme Expired - Fee Related DE102012200745B4 (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE102012200745.8A DE102012200745B4 (de) 2012-01-19 2012-01-19 Verfahren und Hörvorrichtung zum Schätzen eines Bestandteils der eigenen Stimme
EP12196705.3A EP2620940A1 (de) 2012-01-19 2012-12-12 Verfahren und Hörvorrichtung zum Schätzen eines Bestandteils der eigenen Stimme
US13/746,515 US20130188816A1 (en) 2012-01-19 2013-01-22 Method and hearing apparatus for estimating one's own voice component

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102012200745.8A DE102012200745B4 (de) 2012-01-19 2012-01-19 Verfahren und Hörvorrichtung zum Schätzen eines Bestandteils der eigenen Stimme

Publications (2)

Publication Number Publication Date
DE102012200745A1 DE102012200745A1 (de) 2013-07-25
DE102012200745B4 true DE102012200745B4 (de) 2014-05-28

Family

ID=47594360

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102012200745.8A Expired - Fee Related DE102012200745B4 (de) 2012-01-19 2012-01-19 Verfahren und Hörvorrichtung zum Schätzen eines Bestandteils der eigenen Stimme

Country Status (3)

Country Link
US (1) US20130188816A1 (de)
EP (1) EP2620940A1 (de)
DE (1) DE102012200745B4 (de)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102060949B1 (ko) * 2013-08-09 2020-01-02 삼성전자주식회사 청각 기기의 저전력 운용 방법 및 장치
EP3522569A1 (de) * 2014-05-20 2019-08-07 Oticon A/s Hörgerät
US9843873B2 (en) 2014-05-20 2017-12-12 Oticon A/S Hearing device
US10299049B2 (en) 2014-05-20 2019-05-21 Oticon A/S Hearing device
US9897378B2 (en) 2015-10-08 2018-02-20 Nyc Designed Inspirations Llc Cosmetic makeup sponge/blender container
EP3550858B1 (de) 2015-12-30 2023-05-31 GN Hearing A/S Am kopf tragbares hörgerät
US10586552B2 (en) 2016-02-25 2020-03-10 Dolby Laboratories Licensing Corporation Capture and extraction of own voice signal
WO2018128577A2 (en) * 2017-01-03 2018-07-12 Earin Ab Wireless earbuds, and a storage and charging capsule therefor
SE542485C2 (en) 2017-01-03 2020-05-19 Earin Ab Charging and storage of wireless earbuds

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102005032274A1 (de) * 2005-07-11 2007-01-18 Siemens Audiologische Technik Gmbh Hörvorrichtung und entsprechendes Verfahren zur Eigenstimmendetektion

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7099821B2 (en) * 2003-09-12 2006-08-29 Softmax, Inc. Separation of target acoustic signals in a multi-transducer arrangement
US8175291B2 (en) * 2007-12-19 2012-05-08 Qualcomm Incorporated Systems, methods, and apparatus for multi-microphone based speech enhancement
DE102010026381A1 (de) * 2010-07-07 2012-01-12 Siemens Medical Instruments Pte. Ltd. Verfahren zum Lokalisieren einer Audioquelle und mehrkanaliges Hörsystem

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102005032274A1 (de) * 2005-07-11 2007-01-18 Siemens Audiologische Technik Gmbh Hörvorrichtung und entsprechendes Verfahren zur Eigenstimmendetektion

Also Published As

Publication number Publication date
EP2620940A1 (de) 2013-07-31
US20130188816A1 (en) 2013-07-25
DE102012200745A1 (de) 2013-07-25

Similar Documents

Publication Publication Date Title
DE102012200745B4 (de) Verfahren und Hörvorrichtung zum Schätzen eines Bestandteils der eigenen Stimme
EP3451705B1 (de) Verfahren und vorrichtung zum schnellen erkennen der eigenen stimme
EP2603018B1 (de) Hörvorrichtung mit Sprecheraktivitätserkennung und Verfahren zum Betreiben einer Hörvorrichtung
EP2405673B1 (de) Verfahren zum Lokalisieren einer Audioquelle und mehrkanaliges Hörsystem
DE102007017761B4 (de) Verfahren zur Anpassung eines binauralen Hörgerätesystems
EP2645743B1 (de) Hörvorrichtung für eine binaurale Versorgung und Verfahren zum Bereitstellen einer binauralen Versorgung
DE102010026884B4 (de) Verfahren zum Betreiben einer Hörvorrichtung mit zweistufiger Transformation
DE102013215131A1 (de) Verfahren zur Verfolgung einer Schallquelle
EP2109329A2 (de) Mehrstufiges Schätzverfahren zur Störgeräuschreduktion und Hörvorrichtung
DE102013201043A1 (de) Verfahren und Vorrichtung zum Bestimmen eines Verstärkungsfaktors eines Hörhilfegeräts
DE102006047694B4 (de) Verfahren zur Dynamikkompression eines Audiosignals und entsprechende Hörvorrichtung
EP2584795B1 (de) Verfahren zum Ermitteln einer Kompressionskennlinie
DE102007008739A1 (de) Hörvorrichtung mit Störsignaltrennung und entsprechendes Verfahren
EP2434781A1 (de) Verfahren zum Rekonstruieren eines Sprachsignals und Hörvorrichtung
EP2658289B1 (de) Verfahren zum Steuern einer Richtcharakteristik und Hörsystem
EP2373063A1 (de) Hörvorrichtung und Verfahren zum Einstellen derselben für einen rückkopplungsfreien Betrieb
EP2219389B1 (de) Vorrichtung und Verfahren zur Störgeräuschschätzung bei einer binauralen Hörgeräteversorgung
DE102010041644B4 (de) Verfahren zur Frequenzkompression mit harmonischer Korrektur und Vorrichtung
DE102013205790B4 (de) Verfahren zum Schätzen eines Nutzsignals und Hörvorrichtung
DE102007035173A1 (de) Verfahren zum Einstellen eines Hörsystems mit einem perzeptiven Modell für binaurales Hören und entsprechendes Hörsystem
DE102013207080B4 (de) Binaurale Mikrofonanpassung mittels der eigenen Stimme
DE102010011730A1 (de) Hörvorrichtung und Verfahren zum Erzeugen einer omnidirektionalen Richtcharakteristik
EP3863306A1 (de) Hörsystem mit mindestens einem im oder am ohr des nutzers getragenen hörinstrument sowie verfahren zum betrieb eines solchen hörsystems
DE102011087692B4 (de) Hörvorrichtung und Verfahren zur Verbesserung der Wahrnehmbarkeit eines Anteils eines Eingangssignals für einen Benutzer der Hörvorrichtung
EP1971186A2 (de) Verfahren zur Reduzierung von Störgeräuschen mit trainierbaren Modellen

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee

Effective date: 20140801