EP1062487B1 - Mikrophonanordnung für die spracherkennung unter variablen räumlichen bedingungen - Google Patents

Mikrophonanordnung für die spracherkennung unter variablen räumlichen bedingungen Download PDF

Info

Publication number
EP1062487B1
EP1062487B1 EP99914401A EP99914401A EP1062487B1 EP 1062487 B1 EP1062487 B1 EP 1062487B1 EP 99914401 A EP99914401 A EP 99914401A EP 99914401 A EP99914401 A EP 99914401A EP 1062487 B1 EP1062487 B1 EP 1062487B1
Authority
EP
European Patent Office
Prior art keywords
microphone
speech
correction unit
transmission channel
speaker
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
EP99914401A
Other languages
English (en)
French (fr)
Other versions
EP1062487A1 (de
Inventor
Ralf Kern
Karl-Heinz Pflaum
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens AG
Original Assignee
Siemens AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens AG filed Critical Siemens AG
Publication of EP1062487A1 publication Critical patent/EP1062487A1/de
Application granted granted Critical
Publication of EP1062487B1 publication Critical patent/EP1062487B1/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K15/00Acoustics not otherwise provided for
    • G10K15/08Arrangements for producing a reverberation or echo sound

Definitions

  • the invention relates to a device for speech recognition, where the language can be selected using a near-speaker Microphones converted into electrical signals and over one first transmission channel a detection system or by means of of a microphone far from the speaker converted into electrical signals and the detection system via a second transmission channel is fed, and in which the detection system speech elements recorded by the respective microphone with language elements previously learned in a training phase compares and generates a recognition signal if they match.
  • the invention further relates to a method for recognition of language.
  • recognizing speech for example over a phone, however, is such an assumption not practical, because today's telephone systems have the possibility switching between a telephone close to the speaker, where the microphone of the handset is near the mouth of the Speaker is held, and a microphone remote from the speaker, in which in a hands-free state the microphone voices in takes up a greater distance.
  • the typical distance for a microphone close to the speaker is in the range of 0 to 30 cm, i.e. it is mainly the direct sound in electrical signals changed. With the microphone far from the speaker, the distance is larger and mix sound elements due to echo effects, Wall reflections and direct sound. If now during used the microphone close to the speaker during the training phase and in the microphone away from the speaker is used later, the detection rate already drops due to the different Space transfer functions due to the different Transmission links.
  • Correction unit switched so the electrical signal modified that it contains space transfer properties. It becomes the language, which is via a microphone close to the speaker is entered, modified in the electrical signal so that it has the properties, like the language, which is beyond the speaker Microphone has been entered.
  • the correction unit are the room acoustic influences for one replicated relatively large voice transmission link. For example are reflected by the correction unit replicated on nearby objects and or reverberation in rooms.
  • Figure 1 shows a device for speech recognition in which the speech is entered by a person 10 using a telephone becomes.
  • first transmission channel 12 Speech through a microphone 14 near the speaker, for example with the handset.
  • the language is through the microphone 14 converted into an electrical signal and pre-amplified by an amplifier 16.
  • a correction unit 15 changes the electrical signal so that it has transmission properties of a room with a transmission link larger than the close range.
  • this forms Correction unit 15 the reverberation in rooms and / or the Shell reflections on nearby objects within the voice transmission path to.
  • sound reflections can, for example from a table top, from a screen or come from other objects.
  • the reverberation in rooms stems from reflections on relatively distant objects, such as from the walls of the room.
  • the electrical signal changed by the correction unit 15 passes through a compensation filter 18, which is used for compensation varying microphone and amplifier frequency response is used.
  • the electrical signal is then sent to a data processing system 17 fed, which the further digital processing for speech recognition.
  • the input of speech elements represented via a hands-free system.
  • the language the person 10 is through a special space transfer function RÜF changed, i.e. that of the speaker 10 on the microphone 20 incoming speech elements are, for example, due to sound reflections on nearby objects and by reverberating in Rooms and possibly superimposed by external noise.
  • the electrical signal of the microphone 20 remote from the speaker is pre-amplified by a preamplifier 22 and arrives at a Compensation filter 24 for compensation of varying microphone and amplifier frequency responses.
  • the filtered electrical Signal is the data processing system 17 for Speech recognition fed.
  • the correction unit 14 After in transmission channel 12 the correction unit 14 generates an electrical speech signal, which has the same spatial characteristics as that Speech signal of the second transmission channel 19, it plays for the speech recognition doesn't matter whether during the training phase or the same microphone during the recognition phase 14 or 20 is used.
  • the correction unit 15 So it is possible to use both the handset and the phone can also be used in handsfree mode.
  • Figure 2 shows a variant of the device of Figure 1.
  • the correction unit 15 designed as an adaptive filter, i.e. the filter parameters become dependent on the recorded audio signals varied.
  • the detection rate can be increased in this way.
  • the compensation filters 18 and 24 in the two Transmission channels 12 and 19 are designed as adaptive filters; their filter parameters are dependent on the recorded ones Audio signals set.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Cable Transmission Systems, Equalization Of Radio And Reduction Of Echo (AREA)
  • Measurement Of Mechanical Vibrations Or Ultrasonic Waves (AREA)
  • Interconnected Communication Systems, Intercoms, And Interphones (AREA)
  • Circuit For Audible Band Transducer (AREA)

Description

Die Erfindung betrifft eine Einrichtung zur Spracherkennung, bei der die Sprache wahlweise mittels eines sprechernahen Mikrofons in elektrische Signale gewandelt und über einen ersten Übertragungskanal einem Erkennungssystem oder mittels eines sprecherfernen Mikrofons in elektrische Signale gewandelt und über einen zweiten Übertragungskanal dem Erkennungssystem zugeführt wird, und bei der das Erkennungssystem die mittels des jeweiligen Mikrofons aufgenommenen Sprachelemente mit zuvor in einer Trainingsphase gelernten Sprachelementen vergleicht und bei Übereinstimmung ein Erkennungssignal erzeugt. Ferner betrifft die Erfindung ein Verfahren zum Erkennen von Sprache.
Bei der Erkennung von Sprache oder von Sprachelementen (Siehe Q. Lin et al: Robust distant-talking speech recognition, 1996 IEEE International Conference on acoustics, p. 21-24, Vol. 1 und US-A-5 267 323) besteht häufig die Schwierigkeit, daß die über ein Mikrofon eingegebenen Sprachelemente von variierenden raumakustischen Größen überlagert sind. Das Übertragungsverhalten des Raumes kann somit die Erkennungsrate des Erkennungssystems erheblich beeinflussen. Die bisher realisierten Einrichtungen und Verfahren zur Spracherkennung berücksichtigen die Änderung der Übertragungsfunktion des Raumes nicht. Im allgemeinen wird bei den bisherigen Einrichtungen und Verfahren davon ausgegangen, daß die Übertragungsfunktion bei der Übertragung von Sprache einer Person bis zur digitalen Aufzeichnung sowohl bei der Trainingsphase als auch bei der späteren Nutzung zur Spracherkennung, insbesondere bei sprecherabhängiger Spracherkennung, gleich bleibt. Bei der Erkennung von Sprache, beispielsweise über ein Telefon, ist eine solche Annahme jedoch praxisfremd, denn heutige Telefonsysteme haben die Möglichkeit der Umschaltung zwischen einem sprechernahen Telefon, bei dem das Mikrofon des Telefonhörers nahe dem Mund des Sprechers gehalten wird, und einem sprecherfernen Mikrofon, bei dem in einem Freisprechzustand das Mikrofon Stimmen in einem vergrößerten Abstand aufnimmt. Der typische Abstand für ein sprechernahes Mikrofon liegt im Bereich von 0 bis 30 cm, d.h. es wird überwiegend der Direktschall in elektrische Signale gewandelt. Beim sprecherfernen Mikrofon ist der Abstand größer und es vermischen Schallelemente infolge von Echoeffekten, Wandreflexionen und Direktschall. Wenn nun während der Trainingsphase das sprechernahe Mikrofon verwendet und im späteren Gebrauch das sprecherferne Mikrofon eingesetzt wird, so sinkt die Erkennungsrate bereits aufgrund der unterschiedlichen Raumübertragungsfunktionen infolge der unterschiedlichen Übertragungsstrecken.
Es ist Aufgabe der Erfindung, eine Einrichtung und ein Verfahren zur Spracherkennung anzugeben, das unabhängig vom Abstand des Sprechers zu einem Mikrofon mit hoher Zuverlässigkeit arbeitet.
Diese Aufgabe wird für eine Einrichtung durch die Merkmale des Anspruchs 1 und für ein Verfahren durch die Merkmale des Anspruchs 9 gelöst. Vorteilhafte Weiterbildungen sind in den abhängigen Ansprüchen angegeben.
Gemäß der Erfindung wird in den ersten Übertragungskanal eine Korrektureinheit geschaltet, die das elektrische Signal so abändert, daß es Raumübertragungseigenschaften enthält. Es wird also die Sprache, welche über ein sprechernahes Mikrofon eingegeben wird, im elektrischen Signal so abgeändert, daß es die Eigenschaften hat, wie die Sprache, welche über das sprecherferne Mikrofon eingegeben worden ist. Durch die Korrektureinheit werden also die raumakustischen Einflüsse für eine relativ große Sprachubertragungsstrecke nachgebildet. Beispielsweise werden durch die Korrektureinheit Schallreflexionen an nahen Objekten und oder das Nachhallen in Räumen nachgebildet.
Ein Ausführungsbeispiel der Erfindung wird im folgenden anhand der Zeichnung erläutert. Darin zeigt:
Figur 1
eine Einrichtung zur Spracherkennung, wobei die Sprache über ein Telefon eingegeben wird, und
Figur 2
eine Einrichtung nach Figur 1 mit adaptiven Filtern.
Figur 1 zeigt eine Einrichtung zur Spracherkennung, bei der die Sprache durch eine Person 10 mittels eines Telefons eingegeben wird. Im oberen, ersten Übertragungskanal 12 wird die Sprache durch ein sprechernahes Mikrofon 14, beispielsweise mit dem Handsprechapparat, eingegeben. Die Sprache wird durch das Mikrofon 14 in ein elektrisches Signal gewandelt und durch einen Verstärker 16 vorverstärkt. Eine Korrektureinheit 15 ändert das elektrische Signal derart ab, daß es Übertragungeigenschaften eines Raumes mit einer Übertragungsstrecke größer als der Nahbereich hat. Beispielsweise bildet diese Korrektureinheit 15 das Nachhallen in Räumen und/oder die Schalireflexionen an nahen Objekten innerhalb der Sprachübertragungsstrecke nach. Derartige Schallreflexionen können beispielsweise von einer Tischplatte, von einem Bildschirm oder von anderen Gegenständen herrühren. Das Nachhallen in Räumen rührt dagegen von Reflexionen an relativ weit entfernten Objekten, wie beispielsweise von den Wänden des Raumes. Das durch die Korrektureinheit 15 geänderte elektrische Signal durchläuft ein Kompensationsfilter 18, das zur Kompensation variierender Mikrofon- und Verstärker-Frequenzgähge dient. Das elektrische Signal wird dann einem Datenverarbeitungssystem 17 zugeführt, welches die weitere digitale Verarbeitung zur Spracherkennung vornimmt.
Im unteren Bildteil der Figur 1 ist die Eingabe von Spracheiementen über eine Freisprechanlage dargestellt. Die Sprache der Person 10 wird durch eine spezielle Raumübertragungsfunktion RÜF verändert, d.h. die vom Sprecher 10 am Mikrofon 20 ankommenden Sprachelemente sind beispielsweise durch Schallreflexionen an nahen Objekten und durch das Nachhallen in Räumen und gegebenenfalls durch Fremdgeräusche überlagert. Das elektrische Signal des sprecherfernen Mikrofons 20 wird durch einen Vorverstärker 22 vorverstärkt und gelangt zu einem Kompensationsfilter 24 zur Kompensation variierender Mikrofon- und Verstärkerfrequenzgänge. Das so gefilterte elektrische Signal wird der Datenverarbeitungsanlage 17 zur Spracherkennung zugeführt.
Beim Betrieb der in Figur 1 gezeigten Einrichtung werden während einer Trainingsphase Sprachproben in der Datenverarbeitungsanlage 17 abgespeichert. Beispielsweise kann mithilfe solcher Sprachproben ein persönliches Telefonbuch aufgebaut werden. Hierzu wird während der Trainingsphase der Name eines Teilnehmers mindestens zweimal gesprochen und mit der zum Namen gehörenden Telefonnummer in einem persönlichen Telefonbuch abgelegt. Nach Ablauf der Trainingsphase wird in der Nutzungsphase der Name erneut eingegeben, wobei die Datenverarbeitungsanlage 17 mithilfe von Erkennungsmethoden, beispielsweise der Spektralanalyse oder der LPC-Ceptralanalyse, versucht, diesen Namen aufgrund der zuvor abgespeicherten Namen wiederzuerkennen und bei positivem Resultat die unter diesem Namen gespeicherte Telefonnummer auszugeben und die Telefonverbindung aufzubauen. Nachdem im Übertragungskanal 12 die Korrektureinheit 14 ein elektrisches Sprachsignal erzeugt, welches dieselben Raumeigenschaften hat wie das Sprachsignal des zweiten Übertragungskanals 19, spielt es für die Spracherkennung keine Rolle, ob während der Trainingsphase oder während der Wiedererkennungsphase dasselbe Mikrofon 14 bzw. 20 verwendet wird. Durch die Korrektureinheit 15 ist es also möglich, das Telefon sowohl mit dem Handapparat als auch im Zustand Freisprechen zu benutzen.
Figur 2 zeigt eine Variante der Einrichtung nach Figur 1. Im Unterschied zur Einrichtung nach Figur 1 ist die Korrektureinheit 15 als adaptives Filter ausgebildet, d.h. die Filterparameter werden abhängig von den aufgenommenen Audiosignalen variiert. Auf diese Weise kann die Erkennungsrate erhöht werden. Auch die Kompensationsfilter 18 bzw. 24 in den beiden Übertragungskanälen 12 bzw. 19 sind als adaptive Filter ausgebildet; ihre Filterparameter werden abhängig von den aufgenommenen Audiosignalen eingestellt.

Claims (11)

  1. Einrichtung zur Spracherkennung,
    bei der die Sprache wahlweise mittels eines sprechernahen Mikrofons (14) in elektrische Signale gewandelt und über einen ersten Übertragungskanal (12) einem Erkennungssystem (17)
    oder mittels eines sprecherfernen Mikrofons (20) in elektrische Signale gewandelt und über einen zweiten Übertragungskanal (19) dem Erkennungssystem (17) zugeführt wird,
    und bei der das Erkennungssystem (17) die mittels des jeweiligen Mikrofons (14, 20) aufgenommenen Sprachelemente mit zuvor in einer Trainingsphase gelernten Sprachelementen vergleicht und bei Übereinstimmung ein Erkennungssignal erzeugt,
    dadurch gekennzeichnet, daß in den ersten Übertragungskanal (12) eine Korrektureinheit (15) geschaltet ist,
    welche das elektrische Signal so abändert, daß es Raumübertragungseigenschaften hat, wie sie bei der Aufnahme mit einem sprecherfernen Mikrofon auftreten.
  2. Einrichtung nach Anspruch 1, dadurch gekennzeichnet, daß die Korrektureinheit (15) Schallreflexionen an nahen Objekten nachbildet.
  3. Einrichtung nach Anspruch 1 oder 2, dadurch gekennzeichnet, daß die Korrektureinheit (15) das Nachhallen in Räumen nachbildet.
  4. Einrichtung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, daß die Korrektureinheit (15) als stationäres oder als adaptives Filter ausgebildet ist.
  5. Einrichtung nach Anspruch 4, dadurch gekennzeichnet, daß am adaptiven Filter (15) die Filterparameter abhängig von den aufgenommenen Audiosignalen eingestellt werden.
  6. Einrichtung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, daß der erste Übertragungskanal (12) und der zweite Übertragungskanal (19) jeweils einen Vorverstärker (16, 22) für das Mikrofon (14, 20) enthalten.
  7. Einrichtung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, daß jeder Übertragungskanal (12, 19) ein Kompensationsfilter (18, 24)) zur Kompensation variierender Mikrofon- und Verstärkerfrequenzgänge enthält.
  8. Einrichtung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, daß das Erkennungssystem (17) als Spracherkennungsverfahren die Spektralanalyse oder die LPC-Ceptralanalyse anwendet.
  9. Verfahren zum Erkennen von Sprache,
    bei dem die Sprache wahlweise mittels eines sprechernahen Mikrofons (14) in elektrische Signale gewandelt und über einen ersten Übertragungskanal (12) einem Erkennungssystem (17)
    oder mittels eines sprecherfernen Mikrofons (20) in elektrische Signale gewandelt und über einen zweiten Übertragungskanal (19) dem Erkennungssystem (17) zugeführt wird,
    und bei dem im Erkennungssystem (17) die mittels des jeweiligen Mikrofons (14, 20) aufgenommenen Sprachelemente mit zuvor in einer Trainingsphase gelernten Sprachelementen verglichen und bei Übereinstimmung ein Erkennungssignal erzeugt wird,
    dadurch gekennzeichnet, daß in den ersten Übertragungskanal (12) eine Korrektureinheit (15) geschaltet wird, wobei
    das elektrische Signal so abgeändert wird, daß es Raumübertragungseigenschaften hat, wie sie bei Aufnahme mit dem sprecherfernen Mikrofon auftreten.
  10. Verfahren nach Anspruch 9, dadurch gekennzeichnet, daß durch die Korrektureinheit (15) Schallreflexionen an nahen Objekten nachgebildet werden.
  11. Verfahren nach Anspruch 9 oder 10, dadurch gekennzeichnet, daß durch die Korrektureinheit (15) das Nachhallen in Räumen nachgebildet wird.
EP99914401A 1998-03-18 1999-02-03 Mikrophonanordnung für die spracherkennung unter variablen räumlichen bedingungen Expired - Lifetime EP1062487B1 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE19811879 1998-03-18
DE19811879A DE19811879C1 (de) 1998-03-18 1998-03-18 Einrichtung und Verfahren zum Erkennen von Sprache
PCT/DE1999/000289 WO1999048086A1 (de) 1998-03-18 1999-02-03 Mikrophonanordnung für die spracherkennung unter variablen räumlichen bedingungen

Publications (2)

Publication Number Publication Date
EP1062487A1 EP1062487A1 (de) 2000-12-27
EP1062487B1 true EP1062487B1 (de) 2003-06-11

Family

ID=7861400

Family Applications (1)

Application Number Title Priority Date Filing Date
EP99914401A Expired - Lifetime EP1062487B1 (de) 1998-03-18 1999-02-03 Mikrophonanordnung für die spracherkennung unter variablen räumlichen bedingungen

Country Status (6)

Country Link
US (1) US7043427B1 (de)
EP (1) EP1062487B1 (de)
AT (1) ATE242873T1 (de)
DE (2) DE19811879C1 (de)
ES (1) ES2201695T3 (de)
WO (1) WO1999048086A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101952884B (zh) * 2008-02-27 2012-04-04 索尼爱立信移动通讯有限公司 响应于目标说话人话音识别对麦克风信号进行自适应滤波的电子设备和方法

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19963142A1 (de) * 1999-12-24 2001-06-28 Christoph Bueltemann Verfahren und Vorrichtung zur sprachgesteuerten Bedienung eines Kiosksystems
DE10052991A1 (de) * 2000-10-19 2002-05-02 Deutsche Telekom Ag Verfahren zur Ermittlung raumakustischer und elektroakustischer Parameter
US20070239441A1 (en) * 2006-03-29 2007-10-11 Jiri Navratil System and method for addressing channel mismatch through class specific transforms
US20090018826A1 (en) * 2007-07-13 2009-01-15 Berlin Andrew A Methods, Systems and Devices for Speech Transduction
US8696458B2 (en) * 2008-02-15 2014-04-15 Thales Visionix, Inc. Motion tracking system and method using camera and non-camera sensors
US11012732B2 (en) 2009-06-25 2021-05-18 DISH Technologies L.L.C. Voice enabled media presentation systems and methods
US20150228274A1 (en) * 2012-10-26 2015-08-13 Nokia Technologies Oy Multi-Device Speech Recognition
US10229672B1 (en) 2015-12-31 2019-03-12 Google Llc Training acoustic models using connectionist temporal classification

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5267323A (en) * 1989-12-29 1993-11-30 Pioneer Electronic Corporation Voice-operated remote control system
DE4312155A1 (de) * 1993-04-14 1994-10-20 Friedrich Dipl Ing Hiller Verfahren und Vorrichtung zur Verbesserung der Erkennungsleistung und Erhöhung der Zuverlässigkeit bei der automatischen Spracherkennung in geräuschvoller Umgebung
US5528731A (en) * 1993-11-19 1996-06-18 At&T Corp. Method of accommodating for carbon/electret telephone set variability in automatic speaker verification
US5515445A (en) * 1994-06-30 1996-05-07 At&T Corp. Long-time balancing of omni microphones
US5737485A (en) * 1995-03-07 1998-04-07 Rutgers The State University Of New Jersey Method and apparatus including microphone arrays and neural networks for speech/speaker recognition systems
US5765124A (en) * 1995-12-29 1998-06-09 Lucent Technologies Inc. Time-varying feature space preprocessing procedure for telephone based speech recognition
US6275800B1 (en) * 1999-02-23 2001-08-14 Motorola, Inc. Voice recognition system and method
US6219645B1 (en) * 1999-12-02 2001-04-17 Lucent Technologies, Inc. Enhanced automatic speech recognition using multiple directional microphones

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101952884B (zh) * 2008-02-27 2012-04-04 索尼爱立信移动通讯有限公司 响应于目标说话人话音识别对麦克风信号进行自适应滤波的电子设备和方法

Also Published As

Publication number Publication date
EP1062487A1 (de) 2000-12-27
ATE242873T1 (de) 2003-06-15
US7043427B1 (en) 2006-05-09
ES2201695T3 (es) 2004-03-16
DE59905927D1 (de) 2003-07-17
DE19811879C1 (de) 1999-05-12
WO1999048086A1 (de) 1999-09-23

Similar Documents

Publication Publication Date Title
DE69635500T2 (de) Verfahren und Vorrichtung zur Erkennung eines nahen Sprachsignals
DE69632896T2 (de) Entzerrung von Sprachsignalen in einem Mobiltelefon
US6411927B1 (en) Robust preprocessing signal equalization system and method for normalizing to a target environment
EP0668007B1 (de) Mobilfunkgerät mit freisprecheinrichtung
DE69923346T2 (de) Vorrichtung und verfahren zur ip kommunikation mit sprachgeneriertem text
DE2207141A1 (de) Schaltungsanordnung zur unterdrueckung unerwuenschter sprachsignale mittels eines vorhersagenden filters
EP1912474A1 (de) Verfahren zum Betreiben einer Hörhilfe, sowie Hörhilfe
DE112015006800T5 (de) Verfahren und Kopfhörersatz zur Verbesserung einer Tonqualität
DE10043064B4 (de) Verfahren und Vorrichtung zur Elimination von Lautsprecherinterferenzen aus Mikrofonsignalen
EP1062487B1 (de) Mikrophonanordnung für die spracherkennung unter variablen räumlichen bedingungen
EP0775360B1 (de) Signalverarbeitungsverfahren und -anordnung zum ersetzen nichtkorrigierbarer blöcke in einem empfänger für blockweise kodierte audiosignale
DE2510731A1 (de) Elektrische schaltung fuer eine hoerhilfe
DE602004013425T2 (de) System und Verfahren zur Einstellung eines Audiosignals
DE102019208742B4 (de) Sprachübersetzungssystem zum Bereitstellen einer Übersetzung eines Spracheingabesignals eines Sprechers in ein anderssprachiges Sprachausgabesignal für einen Hörer sowie Übersetzungsverfahren für ein derartiges Sprachübersetzungssystem
WO2003037032A1 (de) Verfahren und vorrichtung zur störbefreiung eines redundanten akustischen signals
DE10025655B4 (de) Verfahren zum Entfernen einer unerwünschten Komponente aus einem Signal und System zum Unterscheiden zwischen unerwünschten und erwünschten Signalkomponenten
EP0311808A2 (de) Verfahren und Schaltungsanordnung zur Störgeräuschkompensation für ein Mikrofon
DE3734447C1 (de) Konferenz-Freisprecheinrichtung
DE102004044387B4 (de) Kommunikationssystem
DE3724346A1 (de) Schaltungsanordnung zur dynamiksteuerung
EP3763144B1 (de) Haupteinheit, system und verfahren für ein infotainmentsystem eines fahrzeugs
EP0156826A1 (de) Einrichtung zur sprachübertragung.
EP1501190B1 (de) Verfahren und Vorrichtung zum Entzerren eines mit einem äusseren Störsignal behafteten Audiosignals
EP1282297A2 (de) Verfahren und Anordnung zur Echo- und Störgeräuschunterdrückung
EP1359437A1 (de) Verfahren zum Bestimmen einer Position eines Benutzers eines Kommunikationsendgerätes

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

17P Request for examination filed

Effective date: 20000822

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AT BE DE ES FR GB IT NL

GRAH Despatch of communication of intention to grant a patent

Free format text: ORIGINAL CODE: EPIDOS IGRA

GRAH Despatch of communication of intention to grant a patent

Free format text: ORIGINAL CODE: EPIDOS IGRA

GRAA (expected) grant

Free format text: ORIGINAL CODE: 0009210

AK Designated contracting states

Designated state(s): AT BE DE ES FR GB IT NL

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: NL

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20030611

REG Reference to a national code

Ref country code: GB

Ref legal event code: FG4D

Free format text: NOT ENGLISH

REF Corresponds to:

Ref document number: 59905927

Country of ref document: DE

Date of ref document: 20030717

Kind code of ref document: P

GBT Gb: translation of ep patent filed (gb section 77(6)(a)/1977)
NLV1 Nl: lapsed or annulled due to failure to fulfill the requirements of art. 29p and 29m of the patents act
PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: AT

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20040203

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: BE

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20040228

REG Reference to a national code

Ref country code: ES

Ref legal event code: FG2A

Ref document number: 2201695

Country of ref document: ES

Kind code of ref document: T3

ET Fr: translation filed
PLBE No opposition filed within time limit

Free format text: ORIGINAL CODE: 0009261

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: NO OPPOSITION FILED WITHIN TIME LIMIT

26N No opposition filed

Effective date: 20040312

BERE Be: lapsed

Owner name: *SIEMENS A.G.

Effective date: 20040228

REG Reference to a national code

Ref country code: GB

Ref legal event code: 732E

Free format text: REGISTERED BETWEEN 20121025 AND 20121031

REG Reference to a national code

Ref country code: FR

Ref legal event code: TP

Owner name: SIEMENS ENTERPRISE COMMUNICATIONS GMBH & CO. K, DE

Effective date: 20130108

REG Reference to a national code

Ref country code: ES

Ref legal event code: PC2A

Owner name: SIEMENS ENTERPRISE COMMUNICATIONS GMBH & CO. KG

Effective date: 20130228

REG Reference to a national code

Ref country code: DE

Ref legal event code: R082

Ref document number: 59905927

Country of ref document: DE

Representative=s name: FRITZSCHE PATENT, DE

REG Reference to a national code

Ref country code: DE

Ref legal event code: R082

Ref document number: 59905927

Country of ref document: DE

Representative=s name: FRITZSCHE PATENTANWAELTE, DE

Effective date: 20130313

Ref country code: DE

Ref legal event code: R082

Ref document number: 59905927

Country of ref document: DE

Representative=s name: FRITZSCHE PATENT, DE

Effective date: 20130313

Ref country code: DE

Ref legal event code: R081

Ref document number: 59905927

Country of ref document: DE

Owner name: UNIFY GMBH & CO. KG, DE

Free format text: FORMER OWNER: SIEMENS AKTIENGESELLSCHAFT, 80333 MUENCHEN, DE

Effective date: 20130313

Ref country code: DE

Ref legal event code: R081

Ref document number: 59905927

Country of ref document: DE

Owner name: SIEMENS ENTERPRISE COMMUNICATIONS GMBH & CO. K, DE

Free format text: FORMER OWNER: SIEMENS AKTIENGESELLSCHAFT, 80333 MUENCHEN, DE

Effective date: 20130313

REG Reference to a national code

Ref country code: DE

Ref legal event code: R082

Ref document number: 59905927

Country of ref document: DE

Representative=s name: FRITZSCHE PATENT, DE

REG Reference to a national code

Ref country code: DE

Ref legal event code: R082

Ref document number: 59905927

Country of ref document: DE

Representative=s name: FRITZSCHE PATENTANWAELTE, DE

Effective date: 20131112

Ref country code: DE

Ref legal event code: R082

Ref document number: 59905927

Country of ref document: DE

Representative=s name: FRITZSCHE PATENT, DE

Effective date: 20131112

Ref country code: DE

Ref legal event code: R081

Ref document number: 59905927

Country of ref document: DE

Owner name: UNIFY GMBH & CO. KG, DE

Free format text: FORMER OWNER: SIEMENS ENTERPRISE COMMUNICATIONS GMBH & CO. KG, 81379 MUENCHEN, DE

Effective date: 20131112

REG Reference to a national code

Ref country code: FR

Ref legal event code: CD

Owner name: UNIFY GMBH & CO.KG, DE

Effective date: 20140429

REG Reference to a national code

Ref country code: ES

Ref legal event code: PC2A

Owner name: UNIFY GMBH & CO.KG

Effective date: 20140708

REG Reference to a national code

Ref country code: FR

Ref legal event code: PLFP

Year of fee payment: 18

PGFP Annual fee paid to national office [announced via postgrant information from national office to epo]

Ref country code: DE

Payment date: 20160218

Year of fee payment: 18

Ref country code: IT

Payment date: 20160222

Year of fee payment: 18

Ref country code: ES

Payment date: 20160223

Year of fee payment: 18

PGFP Annual fee paid to national office [announced via postgrant information from national office to epo]

Ref country code: FR

Payment date: 20160222

Year of fee payment: 18

Ref country code: GB

Payment date: 20160222

Year of fee payment: 18

REG Reference to a national code

Ref country code: DE

Ref legal event code: R082

Ref document number: 59905927

Country of ref document: DE

Representative=s name: FRITZSCHE PATENTANWAELTE, DE

Ref country code: DE

Ref legal event code: R081

Ref document number: 59905927

Country of ref document: DE

Owner name: UNIFY GMBH & CO. KG, DE

Free format text: FORMER OWNER: UNIFY GMBH & CO. KG, 81379 MUENCHEN, DE

REG Reference to a national code

Ref country code: DE

Ref legal event code: R119

Ref document number: 59905927

Country of ref document: DE

GBPC Gb: european patent ceased through non-payment of renewal fee

Effective date: 20170203

REG Reference to a national code

Ref country code: FR

Ref legal event code: ST

Effective date: 20171031

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: DE

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20170901

Ref country code: FR

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20170228

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: GB

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20170203

Ref country code: IT

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20170203

REG Reference to a national code

Ref country code: ES

Ref legal event code: FD2A

Effective date: 20180703

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: ES

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20170204