DE102014217681A1 - Sirenensignalquellenerfassung, -Erkennung und -Lokalisation - Google Patents

Sirenensignalquellenerfassung, -Erkennung und -Lokalisation Download PDF

Info

Publication number
DE102014217681A1
DE102014217681A1 DE102014217681.6A DE102014217681A DE102014217681A1 DE 102014217681 A1 DE102014217681 A1 DE 102014217681A1 DE 102014217681 A DE102014217681 A DE 102014217681A DE 102014217681 A1 DE102014217681 A1 DE 102014217681A1
Authority
DE
Germany
Prior art keywords
signal
microphone
siren
vehicle
siren signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102014217681.6A
Other languages
English (en)
Other versions
DE102014217681B4 (de
Inventor
c/o IMRA EUROPE S.A.S. Vrazic Sacha
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
IMRA Europe SAS
Original Assignee
IMRA Europe SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by IMRA Europe SAS filed Critical IMRA Europe SAS
Priority to DE102014217681.6A priority Critical patent/DE102014217681B4/de
Priority to US14/844,754 priority patent/US10049157B2/en
Priority to JP2015174968A priority patent/JP6627340B2/ja
Publication of DE102014217681A1 publication Critical patent/DE102014217681A1/de
Application granted granted Critical
Publication of DE102014217681B4 publication Critical patent/DE102014217681B4/de
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/68Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/683Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/68Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/686Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using information manually generated, e.g. tags, keywords, comments, title or artist information, time, location or usage information, user ratings
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/005Circuits for transducers, loudspeakers or microphones for combining the signals of two or more microphones

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Library & Information Science (AREA)
  • Acoustics & Sound (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Otolaryngology (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)
  • Traffic Control Systems (AREA)

Abstract

Ein System (20) umfasst eine Mikrofoneinheit (21), die in einem ersten Fahrzeug anzubringen ist, die ein Audiosignal von außerhalb des ersten Fahrzeugs empfängt, das Audiosignal verarbeitet und ein Mikrofonsignal ausgibt, eine Speichereinheit (22), die eine Datenbank speichert, die für jedes Sirenensignalmuster einer Vielzahl von Sirenensignalmustern, die durch zweite Fahrzeuge abgestrahlt werden, Komponenten von Sparse-Modellen enthält, die jeweils der Vielzahl der Sirenensignalmuster entsprechen, und eine Identifizierungseinheit (23), die das Mikrofonsignal mit den Komponenten der Sparse-Modelle vergleicht und beruhend auf einem Ergebnis des Vergleichs zumindest eines der zweiten Fahrzeuge erfasst, das ein Sirenensignalmuster der Vielzahl der Sirenensignalmuster abstrahlt. Gemäß einem Ausführungsbeispiel enthält das System (20) ferner eine Lokalisierungseinheit (24), die das zumindest eine zweite Fahrzeuge beruhend auf Unterschieden zwischen Zeitpunkten von zumindest drei Mikrofonsignalen lokalisiert, die aus der Mikrofoneinheit (21) ausgegeben werden.

Description

  • HINTERGRUND DER ERFINDUNG
  • Gebiet der Erfindung
  • Die vorliegende Erfindung bezieht sich auf eine Sirenensignalquellenerfassung, -Erkennung und -Lokalisation. Insbesondere bezieht sich die Erfindung auf eine Erfassung, Erkennung und Lokalisierung von Notfallfahrzeugen (EVs) unter Verwendung von Akustiksensoren.
  • Verwandter Stand der Technik
  • Für einen Fahrer eines Fahrzeugs oder im Allgemeinen für Fahrzeuginsassen ist das Einschätzen eines Notfallfahrzeugs (EV), das ein Sirenensignal ertönen lässt, schwierig und hängt von vielen Faktoren ab. Diese Faktoren enthalten Breitbandrauschquellen, die in der Fahrzeugumgebung vorhanden sind, wie Klimaanlage, Motorgeräusche, Straße-/Reifen- und Windgeräusche.
  • Zudem beinhalten Bewegungen von EVs, wenn sie zu einer Unfallstelle kommen oder diese verlassen, für einen Zuhörer (in einem "erfassenden Fahrzeug") eine Modifikation wahrgenommener Sirenensignalfrequenzen aufgrund des Dopplereffekts. Wenn sich ein EV dem erfassenden Fahrzeug nähert, hat das wahrgenommene Sirenensignal einen höheren Ton, und wenn das EV sich von dem erfassenden Fahrzeug entfernt, hat das wahrgenommene Sirenensignal eine geringere Tonhöhe als eine Tonhöhe in einem statischen EV-Fall.
  • Aufgrund dieser Faktoren ist es für einer Fahrer schwierig, ein EV zu erkennen und zu lokalisieren, und oft erkennt und lokalisiert der Fahrer ein EV erst in nächster Nähe und definitiv, wenn er es sieht.
  • Im Stand der Technik wird grundsätzlich eine einfache Frequenzerfassung für eine EV-Erkennung verwendet, die nicht robust ist.
  • KURZZUSAMMENFASSUNG DER ERFINDUNG
  • Die vorliegende Erfindung zielt auf eine robuste Erfassung von Sirenensignalen und eine zuverlässige Erkennung von EVs ab, die die Sirenensignale ertönen lassen.
  • Dies wird durch das System, das Verfahren und das Computerprogrammprodukt wie in den anliegenden Patentansprüchen definiert erreicht.
  • Erfindungsgemäß sind Mikrofone im Innern eines Fahrzeugs (beispielsweise eines Autos) montiert, und Notfallfahrzeuge (beispielsweise Polizei, Krankenwagen und Feuerwehr) werden selbst dann erkannt, wenn sie gleichzeitig Sirenensignale ertönen lassen, und ihre Richtung (in zwei Dimensionen) und Geschwindigkeit werden geschätzt.
  • In diesem Zusammenhang wird auf 1 Bezug genommen, die ein Szenario einer Intervention von EVs im Fall eines Unfalls veranschaulicht. Gemäß 1 treffen drei Typen von EV-Fahrzeugen an einem Unfallort aufeinander. Fahrer von Fahrzeugen, die an der Kreuzung vorhanden sind, können eine Mischung aus drei verschiedenen Sirenensignalen hören.
  • Das erfindungsgemäße System kann zum Unterstützen der Fahrer der Fahrzeuge verwendet werden, indem sie über das Vorhandensein, den Ort, die Geschwindigkeit, die Richtung und die Art der Notfallfahrzeuge informiert werden, beispielsweise damit ein frühes Fahrmanöver zum Freimachen der Spur bereitgestellt werden kann.
  • Gemäß einem Ausführungsbeispiel der Erfindung umfasst das System eine reduzierte Anzahl an Mikrofonen und einen digitalen Verarbeitungsabschnitt, der eine Basiserweiterungsfunktionsbestimmung, eine kombinierte Erfassung und Erkennung von Notfallfahrzeugen beruhend auf einem mehrskaligen Vergleichsausübungs-Algorithmus und eine mehrfache gleichzeitige EV-Lokalisierung beruhend auf einer Ankunftsrichtung-(DOA)Schätzung für die EVs enthält. Die Mikrofone sind in einem Fahrzeug angebracht, daher ist die Sirenensignalerfassung gegenüber einer für ein Fahrzeug nachteiligen Umgebung robust.
  • Zusätzlich ist eine kosteneffektive und raumsparende Lösung unter Verwendung einer verringerten Menge an Mikrofonen im Fahrzeug bereitgestellt, wobei die Einstellung verglichen mit herkömmlichen Systemen einfacher ist, bei denen Mikrofone außerhalb des Fahrzeugs angebracht sind, was schwierig und nicht zuverlässig ist.
  • Die Erfindung eignet sich für alles Straßenfahrzeuge (beispielsweise Autos, Lastwagen und Busse).
  • Im Folgenden wird die Erfindung anhand von Ausführungsbeispielen und Implementierungsbeispielen unter Bezugnahme auf die beiliegenden Zeichnungen beschrieben.
  • KURZBESCHREIBUNG DER ZEICHNUNGEN
  • 1 zeigt eine Darstellung, die ein EV-Interventionsszenario veranschaulicht.
  • 2 zeigt ein schematisches Blockschaltbild, das eine Architektur eines Systems gemäß einem Ausführungsbeispiel der Erfindung veranschaulicht.
  • 3 zeigt ein schematisches Blockschaltbild, das eine Architektur eines Systems gemäß einem Implementierungsbeispiel der Erfindung veranschaulicht.
  • Die 4A bis 4C und 5A bis 5C zeigen Darstellungen, die Beispiele erfindungsgemäßer Mikrofoneinstellungen veranschaulichen.
  • Die 6 und 7 zeigen Darstellungen, die Beispiele von Sirenensignalmustern veranschaulichen.
  • 8 zeigt eine schematische Darstellung, die eine Architektur von Sparse-Modellen von Sirenensignalmustern gemäß einem Implementierungsbeispiel der Erfindung veranschaulicht.
  • 9 zeigt eine Darstellung, die ein Beispiel einer Erweiterungsfunktion für die Sparse-Modelle veranschaulicht.
  • 10 zeigt eine Erweiterung der Sparse-Modelle mit Dopplerverschiebungen.
  • 11 veranschaulicht ein Beispiel für eine Beste-Funktion-Suche im Sirenensignalmuster 1.
  • 12 zeigt ein Ablaufdiagramm, das einen Prozess des Identifizierens von Sirenensignalmustern gemäß einem Ausführungsbeispiel der Erfindung veranschaulicht.
  • 13 zeigt ein schematisches Blockschaltbild einer Architektur zur mehrfachen gleichzeitigen EV-Lokalisierung gemäß einem Implementierungsbeispiel der Erfindung.
  • 14 zeigt ein schematisches Blockschaltbild, das eine Verarbeitung für eine mehrfache gleichzeitige EV-Lokalisierung gemäß einem Ausführungsbeispiel der Erfindung veranschaulicht.
  • 15 veranschaulicht Ergebnisse der Erkennung und Lokalisierung von EVs gemäß einem Ausführungsbeispiel der Erfindung.
  • 16 veranschaulicht eine EV-Geschwindigkeitsschätzung gemäß einem Ausführungsbeispiel der Erfindung.
  • BESCHREIBUNG DER AUSFÜHRUNGSBEISPIELE
  • Nachstehend werden Ausführungsbeispiele und Implementierungsbeispiele der Erfindung beschrieben.
  • 2 zeigt ein schematisches Blockschaltbild einer Architektur eines Systems 20 gemäß einem Ausführungsbeispiel der Erfindung.
  • Das System 20 umfasst eine in einem Fahrzeug (das auch als erstes Fahrzeug bezeichnet wird) anzubringende Mikrofoneinheit 21. Die Mikrofoneinheit 21 empfängt ein Audiosignal von außerhalb des ersten Fahrzeugs, verarbeitet das Audiosignal und gibt ein Mikrofonsignal aus. Hier wird angenommen, dass das Audiosignal im analogen Bereich verarbeitet wird, beispielsweise verstärkt und tiefpassgefiltert wird, und dann in den digitalen Bereich umgewandelt wird, sodass ein digitales Mikrofonsignal aus der Mikrofoneinheit 21 ausgegeben wird.
  • Gemäß dem in 3 gezeigten Implementierungsbeispiel ist die Mikrofoneinheit 21 eine nur drei Mikrofone enthaltende Einstellung im Fahrzeug (ein Drei-Mikrofone-Array) 31, das nachstehend näher beschrieben wird. Die Verwendung von mehreren Mikrofonen ist möglich, aber nicht erforderlich.
  • Gemäß 2 umfasst das System 20 ferner eine Speichereinheit 22, die eine Datenbank speichert, die für jedes Sirenensignalmuster einer Vielzahl von Sirenensignalmustern, die durch Fahrzeuge wie Notfallfahrzeuge (die nachstehend auch als zweite Fahrzeuge bezeichnet werden) abgestrahlt werden, Komponenten von Sparse-Modellen enthält, die jeweils der Vielzahl der Sirenensignalmuster entsprechen, was nachstehend näher beschrieben wird. Gemäß dem in 3 gezeigten Implementierungsbeispiel arbeitet die Sparse-Sirenenmodelldatenbank 32 als die Speichereinheit 22.
  • Das System 20 umfasst ferner eine Identifizierungseinheit 23, die das Mikrofonsignal mit den Komponenten der Sparse-Modelle vergleicht und beruhend auf einem Ergebnis des Vergleichs zumindest eines der zweiten Fahrzeuge erfasst, das ein Sirenensignalmuster der Vielzahl der Sirenensignalmuster ertönen lässt, was nachstehend näher beschrieben wird. Gemäß dem in 3 gezeigten Implementierungsbeispiel umfasst die Identifizierungseinheit 23 die Funktionen von Blöcken 34 bis 37.
  • Es wird angemerkt, dass obwohl die Mikrofoneinheit 21 in dem ersten Fahrzeug angebracht ist, die Speichereinheit 22 und die Identifizierungseinheit 23 sich an anderen Stellen befinden können, und eine Kommunikation unter den Einheiten drahtlos bewirkt werden kann.
  • Das System 20 umfasst ferner eine nachstehend zu beschreibende Lokalisierungseinheit 24.
  • Nun wird das in 3 gezeigte Implementierungsbeispiel näher beschrieben. Das in 3 veranschaulichte System umfasst die nur drei Mikrofone enthaltende Einstellung im Fahrzeug 31, einen Rauschenverringerungs- und Musikbeseitigungsblock 33, der nicht Teil des Gegenstands vorliegender Erfindung ist, und die Sparse-Sirenensignalmodelldatenbank 32, die Basiszerlegungen für einen Sirenensignalmuster- oder mathematischen Modell(Sparse-Modelle)-Block 34 enthält. Das System umfasst ferner einen adaptiven mehrskaligen Vergleichsausübungsblock 35, einen Klassifizierungsblock 36, der eine Entscheidung über einen EV-Typ ausführt (in der Praxis kann diese Entscheidung in dem mehrskaligen Vergleichsausübungsblock getroffen werden) und einen Mehrfach-Ankunftsrichtung(DOA)-Schätzblock 37, der eine Vielzahl von EVs, die gleichzeitig Sirenensignalmuster ertönen lassen, ortet und Ortsänderungen verfolgt.
  • 1) Mikrofoneinheit 21
  • Gemäß einem Implementierungsbeispiel der Erfindung wird eine kosteneffektive und raumsparende Lösung eines Arrays aus nur drei Mikrofonen 31 verwendet. Diese Mikrofone sind in einer zweidimensionalen Ebene angeordnet. Es gibt eine Vielzahl von Einstellmöglichkeiten. Als Beispiel sind drei mögliche Einstellungen in den 4A bis 4C und 5A bis 5C veranschaulicht.
  • Die 4A bis 4C zeigen eine Ebenendarstellung der Einstellungen 1 bis 3, und die 5A bis 5C zeigen eine Draufsicht derselben Einstellungen. Zur Vermeidung von räumlichem Aliasing sind die Entfernungen zwischen den Mikrofonen wichtig. Einige mögliche Werte für das Beispiel 1 sind d11 = 4.5cm; d21 = 4.5cm; d13 = 6.36cm.
  • Der Ort der Mikrofone im Innern des Fahrzeugs ist auch nicht besonders eingeschränkt. Die Drei-Mikrofoneinstellung kann klein genug sein, um leicht integriert zu werden.
  • 2) Rauschenverringerungs- und Musikbeseitigungsblock 33 (nicht Teil des Gegenstands folgender Erfindung)
  • Gibt es Hintergrundmusik/Radio, eine Navigationssystemstimme, oder wenn im Allgemeinen das Fahrzeugmultimediasystem läuft und ein Audiosignal emittiert, dann wird diese Interferenz beseitigt. Danach sind Fahrerkabinen- und Umgebungsrauschen reduziert. Die Algorithmen für die Musikbeseitigung und Fahrzeugrauschenverringerung sind nicht Teil des Gegenstands vorliegender Erfindung. Erfindungsgemäß wird angenommen, dass das aus der Mikrofoneinheit 21/dem Drei-Mikrofone-Array 31 ausgegebene Mikrofonsignal den Algorithmen zur Musikbeseitigung und Fahrzeugrauschenverringerung unterzogen wurde.
  • 3) Speichereinheit 22
  • Die Speichereinheit 22 speichert eine Datenbank (beispielsweise die Sirenendatenbank 32), die für jedes Sirenensignalmuster einer Vielzahl von Sirenensignalmustern Komponenten von Sparse-Modellen enthält, die jeweils der Vielzahl der Sirenensignalmuster entsprechen.
  • Das einfachste EV-Sirenensignalmuster ist aus einer Zwei-Töne-Melodie zusammengesetzt. Jeder Ton hat einen reichen Frequenzinhalt und dauert eine bestimmte Zeit lang. Dies gilt üblicherweise für Krankenwagen und die Feuerwehr. Komplexere EV-Sirenensignalmuster können aus Wobbelsignalmelodien zusammengesetzt sein, die auch einen reichen Frequenzinhalt und eine Dauer aufweisen. Dies wird oft für Polizeisirenen verwendet.
  • Diese zwei Punkte erklären, warum die Verwendung einer einfachen Frequenzerfassung zur Erkennung des EV-Typs überhaupt nicht robust ist.
  • Die Sirenensignalmuster können in jedem Land verschieden sein. Die Datenbank 32 der Sparse-Modelle kann alle erforderlichen Modelle enthalten oder an ein bestimmtes Zielland angepasst sein.
  • 6 zeigt ein Krankenwagensirenensignalmuster und ein Feuerwehrautosirenensignalmuster (diese Muster werden als Muster 1 bezeichnet). 6 stellt eine Zeit-Frequenz-Analyse von Sirenensignalen dar. Die X-Achse ist die Zeit und die Y-Achse ist der Frequenzinhalt in logarithmischem Maßstab. Beide Sirenensignalmuster sind zwei Töne, jedoch ist der Frequenzinhalt verschieden. Wie ersichtlich ist, ist der harmonische Inhalt nicht vernachlässigbar.
  • 7 zeigt mehrere Sirenensignalmuster 2 bis 4, die von der Polizei verwendet werden. Die Muster 2 bis 4 zeigen Wobbelmuster. 7 stellt eine Zeit-Frequenz-Analyse von Sirenensignalen dar. Die x-Achse ist die Zeit und die y-Achse ist der Frequenzinhalt in logarithmischem Maßstab. Wiederum ist ersichtlich, dass der harmonische Inhalt nicht vernachlässigbar ist. Es ist auch ersichtlich, dass das Muster 4 aus einer Mischung von zwei verschiedenen Wobbelmustern zusammengesetzt ist. Es ist nicht unüblich, dass das Polizeifahrzeug in einem Land verschiedene Sirenensignalmuster aufweist, wobei jedes sich auf einige Aktionen bezieht (beispielsweise ein Sirenenmuster für eine Notfallintervention, ein anderes, das einen Fahrer zum Anhalten des Autos auffordert, usw.). Daher kann das Identifizieren eines der zwei Sirenenmuster des Muster 4-Beispiels genügen, um es für ein Polizeifahrzeug zu halten, jedoch kann das Identifizieren der Mischung die Intention der Polizei ergeben.
  • Gemäß einem Ausführungsbeispiel der Erfindung sind Sirenensignale unter Verwendung eines Sparse-Ansatzes modelliert. Dies bedeutet, dass keine echten Aufzeichnungen von Sirenensignalen mit einigen Kandidatenaufzeichnungen verglichen werden, sondern Modelle unter Verwendung lediglich weniger Parameter und unter der Berücksichtigung gebildet werden, dass Modelle eine kompakte Stütze aufweisen (lediglich eine endliche Anzahl von Punkten sind nicht null).
  • Die Sirenensignalmuster sind reell, diskret (nach der Abtastung) und wie folgt modelliert:
    Figure DE102014217681A1_0002
    wobei Si das Sirenensignalmustermodell i (Krankenwagenmuster, Polizeimuster und Feuerwehrmuster) darstellt, Si,k das Sirenensignalmustermodell am k-ten Rest darstellt, K(n) die Anzahl von Kernelementen darstellt, die das Sirenenmodell bilden und von dem Zeitmoment n abhängt, N die Anzahl verschiedener Zeitmuster darstellt, die in dem Sirenensignal enthalten sind, gk,n die Komponenten des Sparse-Modells für das gegebene Sirenensignalmuster darstellt, k die Kernfunktionszahl darstellt, und <a, b> das innere Produkt zwischen a und b darstellt, das durch die folgende Definition gegeben ist: <a, b> = aTb = Σ M-1 / m=0ambm
  • Die Sirenensignalmuster sind sowohl in der Frequenz als auch in der Zeit modelliert.
  • Die Werte von gk,n, die Komponenten einer linearen Erweiterung des Sirenensignalmusters darstellen, werden in der Datenbank 32 gespeichert. Im Fall einer Fourier-Analyse werden die Sirenensignalmuster beispielsweise in durch Sinus und Kosinus gebildete Basisfunktionen zerlegt. Erfindungsgemäß kann die Zerlegung der Sirenensignalmuster mit einer beliebigen Funktion ausgeführt werden, die die Sirenensignalmuster treu beschreiben kann.
  • 8 zeigt eine Architektur der Datenbank 32 von Sparse-Sirenensignalmustermodellen. Wie es aus 8 ersichtlich ist, ist die Datenbank 32 aus Modellen für jedes EV-Sirenensignalmuster zusammengesetzt. Jedes Sirenensignalmustermodell ist durch eine Vielzahl von Kernfunktionen zusammengesetzt, die, wenn kombiniert, die Sirenensignale perfekt modellieren. Die Anzahl an Kernfunktionen zum perfekten Modellieren des Sirenensignals kann sich über die Zeit ändern.
  • Für das Polizeisirenensignalmuster 2 kann ein Erweiterungsmodell Expansionk,n, wobei k und n wie zuvor die Kernfunktionszahl und der Zeitmoment sind, beispielsweise durch folgende Form beschrieben werden: Expansion1,1 = α(l)(cos2πφ(l) + sin2πφ(l)) wobei φ(l) eine beliebige nicht lineare Funktion ist, die die Momentanfrequenz modelliert, l der diskrete Zeitmoment und α(l) eine Fensterfunktion zum Erreichen einer besseren Frequenzunterscheidung sind. Es kann sich um ein Bartlett-Hahn-Fenster handeln, das wie folgt beschrieben ist: α(l) = 0.62 – 0.48| l / M – 1 – 1 / 2| – 0.38cos( 2πl / M – 1) wobei M die Fensterlänge ist. Daher kann die Funktion φ(l) ein Polynom sein, wie beispielsweise φ(l) = {f0 + c1l + c2l2 + – / ... + cplp} oder logarithmisch, exponentiell oder ein beliebiger geeigneter Typ. Mit diesem Ansatz gibt es keine Beschränkung der Modellkomplexität. Allerdings ist auch die Länge der Funktion ein wichtiger Parameter. Die Länge einer Kernfunktion wird zum Maximieren der Zeit- und Frequenzauflösung angepasst. Jede Kernfunktion kann eine unterschiedliche Länge aufweisen.
  • 9 zeigt ein Beispiel einer Datenbankexpansionsfunktion, die ein Element des EV-Sirenensignals bildet.
  • Erweiterungsfunktionen werden für alle Ziel-EV-Sirenenmuster gefunden, allerdings sind sie noch nicht gegenüber dem Dopplereffekt robust. Wenn sich Quellen wie vorstehend angeführt bewegen, hat das wahrgenommene Sirenensignal einen unterschiedlichen Frequenzinhalt verglichen mit dem statischen Zustand. Gemäß einem Ausführungsbeispiel der Erfindung werden daher verwundene Versionen der definierten Modelle zu der Datenbank 32 hinzugefügt. Auf der linken Seite in 10 ist dargestellt, dass die Datenbank der Modelle für jedes Sirenensignalmuster und für alle Erweiterungsfunktionen des Sirenensignalmusters durch eine Dopplerverschiebung, wenn sich das das Sirenensignalmuster abstrahlende EV mit einer Geschwindigkeit von 150 km/h nähert und entfernt, abgeschlossen ist.
  • Die rechte Seite in 10 zeigt eine Zeit-Frequenz-Darstellung eines Sirenensignalmustermodells, wenn das EV statisch ist (untere Kurve), und wenn sich das EV mit 90 km/h nähert, ist das Modell mit höherem Frequenzinhalt verwunden.
  • Die Momentanfrequenz wird durch Ändern der berechneten Frequenz wie folgt modifiziert:
    Figure DE102014217681A1_0003
    wobei c die Schallgeschwindigkeit (beispielsweise 346 m/s) und VEV die EV-Geschwindigkeit in m/s ist. In diesen Ausdrücken ist fmodelstatic nicht auf einen einzelnen Frequenzwert beschränkt und ändert sich dem Sparse-Modell folgend mit der Zeit.
  • 4) Identifizierungseinheit 23 (mehrskaliger Vergleichausübungsblock 35 und Klassifizierungsblock 36)
  • Wie vorstehend angeführt wird erfindungsgemäß angenommen, dass Musik beseitigt und Fahrzeugumgebungsrauschen verringert ist. Mit dem Ausführungsbeispiel der Erfindung kann eine Klassifizierung (das heißt, eine Entscheidung, welches EV vorhanden ist) mit einem Vergleichsausübungs-Algorithmus erreicht werden.
  • Vergleichsausübung ist ein Algorithmus, der eine adaptive Zeit-Frequenz-Zerlegung eines Signals erzeugt. Erfindungsgemäß ist dieser Algorithmus zum Erreichen des Folgenden angepasst:
    • – Erfassung und Erkennung eines EV und
    • – Iteration, bis alle EVs gefunden sind.
    • – Übermittlung neumodellierter, erfasster und erkannter EVs zur Lokalisierungseinheit 24
  • Die Datenbank 32 der Erweiterungsfunktionen wird zum Erreichen der Erfassung und Erkennung des EVs verwendet. Eine rauschfreie Signalausgabe aus der Mikrofoneinheit (beispielsweise dem Drei-Mikrofone-Array 31) wird auf die in der Datenbank 32 enthaltenen Erweiterungsfunktionen projiziert, und eine Suche wird zum Auffinden bewirkt, welches Element das innere Produkt (Signal, Erweiterungsfunktion) maximiert.
  • Die Verarbeitungsschritte sind Folgende:
    • a. Ein Kriterium wird zum Kombinieren mehrfacher Erweiterungsfunktionen für die Erfassung verwendet. Ein möglicher (aber nicht darauf beschränkter) Kriteriumkandidat ist folgender:
      Figure DE102014217681A1_0004
      wobei Mp die verarbeitete Mikrofonsignalausgabe aus dem Drei-Mikrofone-Array 31 bei einer Iteration p ist, und gk,p die Erweiterungsfunktion bei der Iteration p ist. δ ist das pseudomomentane Kriterium. Dies bedeutet, dass als erstes Element der Erkennung ein Teil des Sirenensignalmusters erfasst wird, aber da das Sirenensignalmuster eine gewisse Länge hat, die Bestätigung des EV-Typs später gemacht wird.
    • b. Auffinden der besten Übereinstimmungskombination über die verwundene Erweiterungsfunktion. Dies ermöglicht auch eine Schätzung der Dopplerverschiebung. Die Erweiterungsfunktionsdatenbank 32 hat drei Dimensionen, das heißt, für alle Sirenensignalmuster: verwundene Frequenzinhalterweiterungsfunktionen und eine zeitadaptive Erweiterungsfunktion.
  • Die Liste möglicher Kandidaten ist durch folgende Gleichung gegeben:
    Figure DE102014217681A1_0005
    wobei P die Liste von Sirenensignalmusterkandidaten, δi,w,k das pseudomomentane Kriterium für das Sirenensignalmuster i, die verwundene Funktion w und die Zeitfunktion k ist. γ ist ein minimaler Schwellenwert, über dem ein Sirenensignalmusterkandidat liegen muss.
  • Folgende Darstellung dient der weiteren Beschreibung. 11 beschreibt graphisch, wie die Liste P erhalten wird. Wenn das Sirenensignal durch die Mikrofoneinheit 21 wahrgenommen wird, das heißt, wenn das Sirenensignal über einer minimalen Mikrofonempfindlichkeit liegt, ist nicht bekannt, zu welcher bestimmten Zeit das Sirenensignal abgestrahlt wird. Daher muss der adäquate Zeitmoment gefunden werden, was im linken Teil von 11 gezeigt ist.
  • Unter der Berücksichtigung, dass das erfassende Fahrzeug (erste Fahrzeug) sich bewegt, und auch das EV (zweite Fahrzeug) sich bewegt, muss gleichzeitig die verwundene Funktion gefunden werden, die das Sirenensignal für diese Zeitdauer am besten modelliert (die Zeitdauer hängt von der Erweiterungsfunktionslänge ab, die beispielsweise von 10 ms bis 1 s dauern kann).
  • Der vorstehende Vorgang wird für alle Sirenensignalmuster in der Datenbank wiederholt. Ist das Kriterium größer als ein gegebener Schwellenwert, wird der Kandidat behalten. An dieser Stufe wird angenommen, dass auch Interferenzen von Passagieren oder eine Fahrerunterhaltung möglich sind. Dies kann zu falschen Kandidaten in der Liste P führen, die in einem weiteren Schritt entfernt werden.
  • c. Auffinden der am besten übereinstimmenden Kombination über alle Sirenensignalmuster. Dies kann durch Maximieren der Kandidatenliste P über alle Sirenensignalmuster durchgeführt werden. Lediglich der beste Kandidat wird behalten. Daher ist die Gesamtmaximierung (die die vorherige Suche enthält) wie folgt gegeben:
    Figure DE102014217681A1_0006
  • wobei C der geschätzte EV-Sirenensignaltyp (das identifizierte Sirenensignalmuster) über die Liste P möglicher Sirenensignalmuster S und β der Schwellenwert sind. Ist C einmal gefunden, ist Folgendes bekannt:
    • – der Typ des EV
    • – der Moment, an dem das Sirenensignalmuster beginnt und endet (Zeitsegmentierung oder Erfassung)
    • – die Geschwindigkeit (oder relative Geschwindigkeit) des EVs und die Informationen, ob es sich nähert oder entfernt.
  • d. Da das erste EV (erstes Sirenensignalmuster) identifiziert ist, muss überprüft werden, ob es noch andere EVs (das heißt, manch andere Sirenensignalmuster) gibt, die gemischt sind. Es ist sehr wahrscheinlich, dass die Sirenensignalmuster einen überlappenden Frequenzinhalt aufweisen, selbst bei der Sparse-Zerlegung. Daher wird in einem nächsten Schritt das erfasste Signal von dem Mikrofonsignal unter Verarbeitung entfernt. Dies wird durch folgenden Ausdruck erreicht:
    Figure DE102014217681A1_0007
  • Dies bedeutet, dass zum Erhalten eines verarbeitenden Mikrofonsignals bei einer nächsten Algorithmusiteration Mp+1 der erfasste Sirenensignalmustertyp aus dem Mikrofonsignal entfernt ist.
  • Dieses Prinzip wird durch den in 12 gezeigten Prozess veranschaulicht. In Schritt S10 werden die vorstehend beschriebenen Schritte a.–c. für einen bestimmten Zeitabschnitt bei dem Mikrofonsignal über ein gegebenes Zeitfenster durchgeführt. In Schritt S11 wird überprüft, ob ein EV, das heißt, ein Sirenensignalmuster, erfasst/identifiziert wurde. Wenn Ja in Schritt S11, geht der Prozess zu Schritt S12 über, in dem der vorstehend beschriebene Schritt d. durchgeführt wird, und Schritt S13 folgt. Ansonsten endet der Prozess für den aktuellen Zeitabschnitt.
  • In Schritt S13 wird überprüft, ob es andere EVs, das heißt, andere Sirenensignale in dem Mikrofonsignal gibt. Liegt das verbleibende Mikrofonsignal über einem Schwellenwert, der berücksichtigt, dass es nur Rauschen gibt, kehrt der Algorithmus zu Schritt S10 zurück. Liegt das verbleibende Mikrofonsignal unter dem Schwellenwert, wird der Algorithmus für den aktuellen Zeitabschnitt angehalten und alle EV-Typen (mit den Zeitpunkten, Geschwindigkeit und Basisorientierung als sich nähernd oder entfernend) einer Verarbeitung auf höherer Stufe und der Lokalisierungseinheit 24 zugeführt, die eine präzise Mehrfachquellenlokalisierung durchführt.
  • 5) Mehrfache gleichzeitige EV-Lokalisierung (Lokalisierungseinheit 24)
  • Erfindungsgemäß gibt es zwei mögliche Ansätze zum Lokalisieren mehrfacher gleichzeitiger EVs:
    • – blind unter direkter Verwendung der Mikrofonsignale (nach Rauschreduktion und Musikbeseitigung), die aus der Mikrofoneinheit 21 ausgegeben werden
    • – unter Verwendung einer in dem vorherigen Schritt mit dem mehrskaligen Vergleichsausübungsalgorithmus durchgeführten Zerlegung.
  • Grundlegend ist die Algorithmusarchitektur für beide Fälle die gleiche. Der Unterschied liegt darin, dass bei einem vollständig blinden Ansatz eine maximale Anzahl gleichzeitiger Quellen, die lokalisiert werden können zwei ist (im Fall eines Drei-Mikrofone-Arrays). Wird die Zerlegung von dem Vergleichsausübungsprozess verwendet, können alle vorhandenen EVs lokalisiert werden.
  • Der Algorithmus verwendet eine Kombination adaptiver Filter zur Unterscheidung einer Richtung von Mikrofonpaaren und zum Trennen der linken und rechten Seite des gegebenen Paars.
  • 13 zeigt eine Architektur eines mehrfachen gleichzeitigen EV-Lokalisierungsprozesses gemäß einem Implementierungsbeispiel der Erfindung. Alle drei Mikrofone des Drei-Mikrofone-Arrays werden zum Maximieren der Lokalisierungspräzision verwendet. Drei verschiedene adaptive Filter werden zum Schätzen einer Verzögerung zwischen Signalen verwendet, die an den Mikrofonen ankommen. EVs befinden sich an einer minimalen Entfernung von zwei Metern vom erfassenden Fahrzeug (erstem Fahrzeug), und daher wird lediglich eine ebene Wellenausbreitung betrachtet.
  • Die adaptiven Filter werden in linke Abschnitt- und rechte Abschnittkoeffizienten getrennt. Spitzen in diesen Koeffizienten sind Verzögerungsschätzwerte zwischen Signalen an Mikrofonpaaren. Diese Spitzen werden zum Treffen einer Entscheidung über die Lokalisierung in zwei Dimensionen verwendet. Mögliche Mikrofonpaare sind (Mikrofon 1, Mikrofon 2), (Mikrofon 2, Mikrofon 3) und (Mikrofon 1, Mikrofon 3). Zwei Paare sind zum Lokalisieren eines EVs in zwei Dimensionen genug unter der Voraussetzung, dass das dritte Paar zum Vermeiden einer Mehrdeutigkeit verwendet werden kann.
  • Zum Lokalisieren aller EVs wird gemäß einem Ausführungsbeispiel der Erfindung ein kombinierter Ansatz angewendet, der den mehrskaligen Vergleichsausübungssignalzerlegungsprozess zusammen mit dem mehrfachen gleichzeitigen EV-Lokalisierungsprozess wie in 13 beschrieben verwendet. Das heißt, bei einer Drei-Mikrofone-Anordnung können erfindungsgemäß selbst vier oder mehr EVs, das heißt, jedes ein erkanntes Sirenensignalmuster abstrahlendes EV lokalisiert werden.
  • 14 zeigt ein schematisches Blockschaltbild einer Verarbeitung für eine mehrfache gleichzeitige EV-Lokalisierung gemäß einem Ausführungsbeispiel der Erfindung. In jedem Schritt des vorstehend beschriebenen mehrskaligen Vergleichsausübungsprozesses, der in den Blöcken 131 bis 133 in 14 durchgeführt wird, empfängt ein zweidimensionaler Quellenlokalisierungsblock 134, der als die Lokalisierungseinheit 24 dient, drei wie folgt definierte Eingangssignale:
    Figure DE102014217681A1_0008
    wobei S1, S2 und S3 die Ausgangssignale des vorstehend beschriebenen, in den Blöcken 131 bis 133 durchgeführten Vergleichsausübungsalgorithmus und die Eingänge von Block 134 sind. Diese Signale sind die rekonstruierten identifizierten Sirenenmustermikrofonsignale von Sparse-Modellen, und M1,p, M2,p and M3,p sind die zerlegten Mikrofonsignale an der p-ten Iteration. Jede Iteration p liefert ein erkanntes EV aus der Mischung.
  • Da aufgrund der kombinierten Verarbeitung lediglich ein EV auf einmal lokalisiert wird, ist die Präzision hoch und es gibt keine Mehrdeutigkeit bei der Lokalisierung in zwei Dimensionen. Die Lokalisierung aller vorhandenen EV-Quellen wird iterativ durchgeführt, sowie der Vergleichausübungsalgorithmus fortschreitet.
  • Laufen der mehrskalige Vergleichausübungsprozess, der EV-Typ-Klassifizierungsprozess und der mehrfache gleichzeitige EV-Lokalisierungsprozess gleichzeitig, solange die EVs die Sirenensignale abstrahlen und die Sirenensignale durch das erfassende Fahrzeuge wahrgenommen werden, kann der Fahrer des erfassenden Fahrzeugs zuverlässige Informationen über alle EVs zu dem Moment, zu dem sie auftreten, bezüglich ihres Typs, ihrer Geschwindigkeit, Lokalisierung und Informationen, ob sie sich nähern oder entfernen, erhalten.
  • 15 zeigt Ergebnisse für einen Fall, in dem es zwei Sirenensignalmuster abstrahlende EVs gibt, die separat und gleichzeitig auftreten. Es gibt ein Polizeisirenensignal und ein Krankenwagensirenensignal. Das Polizeisirenensignal wird erkannt und an einem Winkel um 72 Grad lokalisiert, was heißt, dass sich die Polizei hinter dem erfassenden Fahrzeug befindet. Sich zeitlich verändernde Augenblicke (Segmentation) und die Position sind in 15 gezeigt.
  • Das Krankenwagensirenensignal beginnt nach 30 Sekunden und wird an einem Winkel um 270 Grad lokalisiert, was heißt, dass sich der Krankenwagen vor und links vom erfassenden Fahrzeug befindet. Die Zeitmomente und die Position sind in 15 gezeigt. Das heißt, es treten gleichzeitige EV-Ereignisse auf und werden erkannt und lokalisiert.
  • 16 zeigt einen Fall, in dem ein Polizeiauto eine Kreuzung passiert und seine Geschwindigkeit unter Verwendung des vorstehend beschriebenen Prinzips geschätzt wird. Der linke Teil in 16 ist eine Zeit-Frequenz-Analyse eines rauschreduzierten Polizeisirenensignalmusters. Der rechte Teil in 16 zeigt Dopplerverschiebungsschätzwerte. Das Vorzeichen der Dopplerverschiebungen in der veranschaulichten Konvention informiert einfach über ein sich näherndes (negatives Vorzeichen) oder entfernendes (positives Vorzeichen) EV. In dem in 16 gezeigten Fall ist das Polizeiauto an der Kreuzung mit einer Geschwindigkeit von 17 km/h angekommen und beschleunigt beim Verlassen auf 47 km/h.
  • Gemäß einem Ausführungsbeispiel der Erfindung ist eine mehrfache gleichzeitige EV-Erkennung mit Geschwindigkeitsschätzung bereitgestellt, die eine Sparse-Darstellung von Sirenensignalmustern verwendet, die bei einem mehrskaligen Vergleichausübungsalgorithmus verwendet werden. Gemäß einem Ausführungsbeispiel der Erfindung ist eine mehrfache gleichzeitige EV-Lokalisierung beruhend auf einer Kombination von Vergleichausübungsiterationen und Verzögerungsschätzung zwischen Mikrofonpaaren bereitgestellt. Gemäß einem Implementierungsbeispiel wird eine Mikrofoneinstellung unter Verwendung von nur drei Mikrofonen in dem erfassenden Fahrzeug angewendet.
  • Es ist ersichtlich, dass die vorstehende Beschreibung die Erfindung veranschaulicht und die Erfindung nicht einschränkt. Der Fachmann erkennt verschiedene Modifikationen und Anwendungen, ohne vom Schutzbereich der Erfindung abzuweichen, wie er in den anliegenden Patentansprüchen definiert ist.
  • Ein System (20) umfasst eine Mikrofoneinheit (21), die in einem ersten Fahrzeug anzubringen ist, die ein Audiosignal von außerhalb des ersten Fahrzeugs empfängt, das Audiosignal verarbeitet und ein Mikrofonsignal ausgibt, eine Speichereinheit (22), die eine Datenbank speichert, die für jedes Sirenensignalmuster einer Vielzahl von Sirenensignalmustern, die durch zweite Fahrzeuge abgestrahlt werden, Komponenten von Sparse-Modellen enthält, die jeweils der Vielzahl der Sirenensignalmuster entsprechen, und eine Identifizierungseinheit (23), die das Mikrofonsignal mit den Komponenten der Sparse-Modelle vergleicht und beruhend auf einem Ergebnis des Vergleichs zumindest eines der zweiten Fahrzeuge erfasst, das ein Sirenensignalmuster der Vielzahl der Sirenensignalmuster abstrahlt. Gemäß einem Ausführungsbeispiel enthält das System (20) ferner eine Lokalisierungseinheit (24), die das zumindest eine zweite Fahrzeuge beruhend auf Unterschieden zwischen Zeitpunkten von zumindest drei Mikrofonsignalen lokalisiert, die aus der Mikrofoneinheit (21) ausgegeben werden.

Claims (19)

  1. System (20) mit einer Mikrofoneinheit (21), die in einem ersten Fahrzeug anzubringen ist, zum Empfangen eines Audiosignals von außerhalb des ersten Fahrzeugs, Verarbeiten des Audiosignals und Ausgeben eines Mikrofonsignals, einer Speichereinheit (22), die eine Datenbank speichert, die für jedes Sirenensignalmuster einer Vielzahl von Sirenensignalmustern, die durch zweite Fahrzeuge abgestrahlt werden, Komponenten von Sparse-Modellen enthält, die jeweils der Vielzahl der Sirenensignalmuster entsprechen, und einer Identifizierungseinheit (23) zum Vergleichen des Mikrofonsignals mit den Komponenten der Sparse-Modelle und zur Erfassung zumindest eines der zweiten Fahrzeuge, das ein Sirenensignalmuster der Vielzahl der Sirenensignalmuster abstrahlt, beruhend auf einem Ergebnis des Vergleichens.
  2. System nach Anspruch 1, wobei die Identifizierungseinheit zum Vergleichen des Mikrofonsignals mit den Komponenten der Sparse-Modelle an sich zeitlich verändernden Momenten des Mikrofonsignals, Identifizieren des durch das zumindest eine zweite Fahrzeug abgestrahlten Sirenensignalmusters beruhend auf einem Ergebnis des Vergleichs und Erkennen des zumindest einen zweiten Fahrzeugs beruhend auf dem identifizierten Sirenensignalmuster eingerichtet ist.
  3. System nach Anspruch 1 oder 2, wobei die Datenbank zumindest zwei verwundene Versionen der Sparse-Modelle enthält, und die Identifizierungseinheit zum Vergleichen des Mikrofonsignals mit den Komponenten jeder Version der Sparse-Modelle an sich zeitlich verändernden Momenten des Mikrofonsignals und beruhend auf dem Vergleichsergebnis Identifizieren des durch das zumindest eine zweite Fahrzeug abgestrahlten Sirenensignalmusters und Erkennen des zumindest einen zweiten Fahrzeugs beruhend auf dem identifizierten Sirenensignalmuster und/oder Erfassen eines Zeitmoments, an dem das identifizierte Sirenensignalmuster beginnt, und/oder Erfassen einer Geschwindigkeit des zumindest einen zweiten Fahrzeugs und/oder ob sich das zumindest eine zweite Fahrzeug dem ersten Fahrzeug nähert oder sich von diesem entfernt eingerichtet ist.
  4. System nach einem der Ansprüche 1 bis 3, wobei die Identifizierungseinheit zum Subtrahieren eines neumodellierten Sirenensignals, das anhand von dem identifizierten Sirenensignalmuster entsprechenden Sparse-Modellen neu modelliert ist, von dem Mikrofonsignal und Fortsetzen des Vergleichs des Mikrofonsignals, von dem das neu modellierte Sirenensignal entfernt wurde, mit den Komponenten der Sparse-Modelle eingerichtet ist.
  5. System nach einem der Ansprüche 1 bis 4, ferner mit einer Lokalisierungseinheit (24), wobei die Mikrofoneinheit zumindest drei Mikrofone umfasst, die jeweils ein Mikrofonsignal ausgeben, die Identifizierungseinheit zur Durchführung des Vergleichs für jedes der zumindest drei Mikrofonsignale und Ausgeben eines neumodellierten Sirenensignals anhand von dem identifizierten Signalmuster entsprechenden Sparse-Modellen zu einem Zeitpunkt eingerichtet ist, der dem Zeitpunkt des jeweiligen der zumindest drei Mikrofonsignale entspricht, zu der Lokalisierungseinheit eingerichtet ist, und die Lokalisierungseinheit zum Lokalisieren des zumindest einen zweiten Fahrzeugs beruhend auf Unterschieden zwischen Zeitpunkten der zumindest drei Mikrofonsignale eingerichtet ist.
  6. System nach einem der Ansprüche 1 bis 5, wobei die Mikrofoneinheit ein erstes Mikrofon, ein zweites Mikrofon und ein drittes Mikrofon umfasst, die in einer Ebene angeordnet sind und jeweils ein erstes Mikrofonsignal, zweites Mikrofonsignal und drittes Mikrofonsignal ausgeben, die Identifizierungseinheit zur Durchführung des Vergleichs des Mikrofonsignals jeweils für das erste Mikrofonsignal, das zweite Mikrofonsignal und das dritte Mikrofonsignal, Identifizieren des durch das zumindest eine zweite Fahrzeug abgestrahlten Sirenensignalmusters beruhend auf Ergebnissen des Vergleichs und Ausgeben eines neumodellierten Sirenensignals aus Sparse-Modellen, die dem identifizierten Sirenensignalmuster entsprechen, zu einem einem Zeitpunkt des ersten Mikrofonsignals entsprechenden ersten Zeitpunkt, Ausgeben eines neumodellierten Sirenensignals aus Sparse-Modellen zu einem einem Zeitpunkt des zweiten Mikrofonsignals entsprechenden zweiten Zeitpunkts und Ausgeben eines neumodellierten Sirenensignals aus Sparse-Modellen zu einem einem Zeitpunkt des dritten Mikrofonsignals entsprechenden dritten Zeitpunkt eingerichtet ist, und das System ferner eine Lokalisierungseinheit (24) zum Lokalisieren des zumindest einen zweiten Fahrzeugs beruhend auf Unterschieden zwischen dem ersten, zweiten und dritten Zeitpunkt eingerichtet ist.
  7. System nach Anspruch 5 oder 6, wobei die Lokalisierungseinheit zum Verfolgen von Änderungen des Orts des zumindest einen zweiten Fahrzeugs beruhend auf dem neumodellierten Sirenensignal eingerichtet ist, das durch die Identifizierungseinheit für jedes der zumindest drei Mikrofonsignale kontinuierlich ausgegeben wird.
  8. System nach einem der Ansprüche 1 bis 7, wobei die Identifizierungseinheit zum Vergleichen des Mikrofonsignals über ein vorbestimmtes Zeitfenster mit den Komponenten des bezüglich des vorbestimmten Zeitfensters erzeugten Sparse-Modells eingerichtet ist.
  9. Verfahren für ein System (20) mit einer Mikrofoneinheit (21), die in einem ersten Fahrzeug anzubringen ist, die ein Audiosignal von außerhalb des ersten Fahrzeugs empfängt, das Audiosignal verarbeitet und ein Mikrofonsignal ausgibt, und einer Speichereinheit (22), die eine Datenbank speichert, die für jedes Sirenensignalmuster einer Vielzahl von Sirenensignalmustern, die durch zweite Fahrzeuge abgestrahlt werden, Komponenten von Sparse-Modellen enthält, die jeweils der Vielzahl der Sirenensignalmuster entsprechen, mit Vergleichen des Mikrofonsignals mit den Komponenten der Sparse-Modelle und Erfassen zumindest eines der zweiten Fahrzeuge, das ein Sirenensignalmuster der Vielzahl der Sirenensignalmuster abstrahlt, beruhend auf einem Ergebnis des Vergleichs.
  10. Verfahren nach Anspruch 9, wobei das Vergleichen umfasst: Vergleichen des Mikrofonsignals mit den Komponenten der Sparse-Modelle zu kontinuierlichen Zeitmomenten des Mikrofonsignals, Identifizieren des durch das zumindest eine zweite Fahrzeug abgestrahlten Sirenensignalmusters beruhend auf einem Ergebnis des Vergleichs und Erkennen des zumindest einen zweiten Fahrzeugs beruhend auf dem identifizierten Sirenensignalmuster.
  11. Verfahren nach Anspruch 9 oder 10, wobei die Datenbank zumindest zwei verwundene Versionen der Sparse-Modelle enthält, und das Verfahren umfasst Vergleichen des Mikrofonsignals mit den Komponenten jeder Version der Sparse-Modelle an kontinuierlichen Zeitmomenten des Mikrofonsignals und beruhend auf dem Vergleichsergebnis Identifizieren des durch das zumindest eine zweite Fahrzeug abgestrahlten Sirenensignalmusters und Erkennen des zumindest einen zweiten Fahrzeugs beruhend auf dem identifizierten Sirenensignalmuster und/oder Erfassen eines Zeitmoments, an dem das identifizierte Sirenensignalmuster beginnt, und/oder Erfassen einer Geschwindigkeit des zumindest einen zweiten Fahrzeugs und/oder, ob das zumindest eine zweite Fahrzeug sich dem ersten Fahrzeug nähert oder sich von diesem entfernt.
  12. Verfahren nach einem der Ansprüche 9 bis 11, mit: Subtrahieren eines neumodellierten Sirenensignals, das aus Sparse-Modellen neumodelliert ist, die dem identifizierten Sirenensignalmuster entsprechen, von dem Mikrofonsignal und Fortsetzen des Vergleichs des Mikrofonsignals, von dem das neumodellierte Sirenensignal entfernt wurde, mit den Komponenten der Sparse-Modelle.
  13. Verfahren nach einem der Ansprüche 9 bis 12, wobei die Mikrofoneinheit zumindest drei Mikrofone umfasst, die jeweils ein Mikrofonsignal ausgeben, und das Verfahren umfasst Durchführen des Vergleichs für jedes der zumindest drei Mikrofonsignale und Ausgeben eines neumodellierten Sirenensignals aus Sparse-Modellen, die dem identifizierten Signalmuster entsprechen, zu einem Zeitpunkt, der dem Zeitpunkt des jeweiligen der zumindest drei Mikrofonsignale entspricht, und Lokalisieren des zumindest einen zweiten Fahrzeugs beruhend auf Unterschieden zwischen Zeitpunkten der zumindest drei Mikrofonsignale.
  14. Verfahren nach einem der Ansprüche 9 bis 13, wobei die Mikrofoneinheit ein erstes Mikrofon, ein zweites Mikrofon und ein drittes Mikrofon umfasst, die in einer Ebene angeordnet sind und jeweils ein erstes Mikrofonsignal, ein zweites Mikrofonsignal und ein drittes Mikrofonsignal ausgeben, und das Verfahren umfasst Durchführen des Vergleichs des Mikrofonsignals jeweils für das erste Mikrofonsignal, das zweite Mikrofonsignal und das dritte Mikrofonsignal, Identifizieren des durch das zumindest eine zweite Fahrzeug abgestrahlten Sirenensignalmusters beruhend auf Ergebnissen des Vergleichens, Ausgeben eines neumodellierten Sirenensignals aus Sparse-Modellen, die dem identifizierten Sirenensignalmuster entsprechen, zu einem ersten Zeitpunkt, der einem Zeitpunkt des ersten Mikrofonsignals entspricht, Ausgeben eines neumodellierten Sirenensignals aus Sparse-Modellen zu einem zweiten Zeitpunkt, der einem Zeitpunkt des zweiten Mikrofonsignals entspricht, und Ausgeben eines neumodellierten Sirenensignals aus Sparse-Modellen zu einem dritten Zeitpunkt, der einem Zeitpunkt des dritten Mikrofonsignals entspricht, und Lokalisieren des zumindest einen zweiten Fahrzeugs beruhend auf Unterschieden zwischen dem ersten, zweiten und dritten Zeitpunkt.
  15. Verfahren nach Anspruch 13 oder 14, ferner mit Verfolgen von Ortsänderungen des zumindest einen zweiten Fahrzeugs beruhend auf dem neumodellierten Sirenensignal, das kontinuierlich für jedes der zumindest drei Mikrofonsignale ausgegeben wird.
  16. Verfahren nach einem der Ansprüche 9 bis 15, wobei das Vergleichen umfasst Vergleichen des Mikrofonsignals über ein vorbestimmtes Zeitfenster mit den Komponenten des Sparse-Modells, das bezüglich des vorbestimmten Zeitfensters erzeugt ist.
  17. Computerprogrammprodukt mit einem Programm für eine Verarbeitungseinrichtung, das Softwarecodeabschnitte zur Durchführung der Schritte eines der Ansprüche 9 bis 16 umfasst, wenn das Programm auf der Verarbeitungseinrichtung läuft.
  18. Computerprogrammprodukt nach Anspruch 17, wobei das Computerprogrammprodukt ein computerlesbares Medium umfasst, auf dem die Softwarecodeabschnitte gespeichert sind.
  19. Computerprogrammprodukt nach Anspruch 17, wobei das Programm direkt in einen internen Speicher der Verarbeitungseinrichtung ladbar ist.
DE102014217681.6A 2014-09-04 2014-09-04 Sirenensignalquellenerfassung, -Erkennung und -Lokalisation Expired - Fee Related DE102014217681B4 (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE102014217681.6A DE102014217681B4 (de) 2014-09-04 2014-09-04 Sirenensignalquellenerfassung, -Erkennung und -Lokalisation
US14/844,754 US10049157B2 (en) 2014-09-04 2015-09-03 Siren signal source detection, recognition and localization
JP2015174968A JP6627340B2 (ja) 2014-09-04 2015-09-04 サイレン信号源の検出、認識及び位置特定

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102014217681.6A DE102014217681B4 (de) 2014-09-04 2014-09-04 Sirenensignalquellenerfassung, -Erkennung und -Lokalisation

Publications (2)

Publication Number Publication Date
DE102014217681A1 true DE102014217681A1 (de) 2016-03-10
DE102014217681B4 DE102014217681B4 (de) 2020-12-10

Family

ID=55358375

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102014217681.6A Expired - Fee Related DE102014217681B4 (de) 2014-09-04 2014-09-04 Sirenensignalquellenerfassung, -Erkennung und -Lokalisation

Country Status (3)

Country Link
US (1) US10049157B2 (de)
JP (1) JP6627340B2 (de)
DE (1) DE102014217681B4 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017200153A1 (de) * 2017-01-09 2018-07-12 Ford Global Technologies, Llc Verfahren zum Erfassen von Verkehrssituationen

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102014217681B4 (de) * 2014-09-04 2020-12-10 Imra Europe S.A.S. Sirenensignalquellenerfassung, -Erkennung und -Lokalisation
US9959342B2 (en) 2016-06-28 2018-05-01 Microsoft Technology Licensing, Llc Audio augmented reality system
JPWO2018180439A1 (ja) * 2017-03-30 2020-02-06 パナソニックIpマネジメント株式会社 音声発生位置検出システムおよび音声発生位置検出方法
US10319228B2 (en) 2017-06-27 2019-06-11 Waymo Llc Detecting and responding to sirens
PL422711A1 (pl) * 2017-08-31 2019-03-11 Adrian Połaniecki Sposób i urządzenie do detekcji, lokalizowania i identyfikacji pojazdów wytwarzających sygnały akustyczne, a także optyczne, zwłaszcza pojazdów uprzywilejowanych emitujących sygnały akustyczne i/lub świetlne
US20220363261A1 (en) * 2018-07-20 2022-11-17 Cerence Operating Company System and method for acoustic detection of emergency sirens
US10996327B2 (en) * 2018-07-20 2021-05-04 Cerence Operating Company System and method for acoustic detection of emergency sirens
WO2021138696A1 (en) * 2020-01-05 2021-07-08 Cerence Operating Company System and method for acoustic detection of emergency sirens
WO2021178754A1 (en) * 2020-03-06 2021-09-10 Cerence Operating Company System and method for integrated emergency vehicle detection and localization
CN111693937B (zh) * 2020-05-25 2023-04-28 西安交通大学 一种基于稀疏重构的无需网格化的近场信号源定位方法
US11958505B2 (en) 2020-07-21 2024-04-16 Waymo Llc Identifying the position of a horn honk or other acoustical information using multiple autonomous vehicles

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10060017A1 (de) * 2000-12-01 2002-06-13 Daimler Chrysler Ag Verfahren und Vorrichtung zur Bestimmung eines akustischen Signals einer Signalquelle
DE102007028400B3 (de) * 2007-06-15 2009-01-29 Navigon Ag Verfahren zur Signalisierung von vorfahrtsberechtigten Fahrzeugen an einen Fahrzeugführer
US8319620B2 (en) * 2008-06-19 2012-11-27 Personics Holdings Inc. Ambient situation awareness system and method for vehicles
DE102013016344A1 (de) * 2013-09-30 2014-04-10 Daimler Ag Verfahren zur Analyse und Bewertung eines Sondersignals sowie Verfahren zur Übertragung eines Sondersignals

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0193797A (ja) * 1987-10-05 1989-04-12 Nippon Denso Co Ltd 音波認識装置
JPH06245289A (ja) * 1993-02-17 1994-09-02 Fujitsu Ten Ltd 車載用電子装置
JP2840823B2 (ja) * 1996-06-14 1998-12-24 防衛庁技術研究本部長 目標自動類別識別装置
JP4676893B2 (ja) * 2006-01-27 2011-04-27 日本電信電話株式会社 信号到来方向推定装置、信号到来方向推定方法、信号到来方向推定プログラム及び記録媒体
US7969821B2 (en) * 2007-01-17 2011-06-28 Toyota Motor Engineering & Manufacturing North America, Inc. Method and system for locating a wave source within a defined area
JP2010011433A (ja) * 2008-05-30 2010-01-14 Nittobo Acoustic Engineering Co Ltd 音源分離及び表示方法並びにシステム
US8204718B2 (en) * 2009-12-29 2012-06-19 Mitsubishi Electric Research Laboratories, Inc. Method for reconstructing sparse streaming signals using greedy search
JP5702685B2 (ja) 2010-08-17 2015-04-15 本田技研工業株式会社 音源方向推定装置及び音源方向推定方法
JP5643686B2 (ja) 2011-03-11 2014-12-17 株式会社東芝 音声判別装置、音声判別方法および音声判別プログラム
JP5772151B2 (ja) 2011-03-31 2015-09-02 沖電気工業株式会社 音源分離装置、プログラム及び方法
DE102014217681B4 (de) * 2014-09-04 2020-12-10 Imra Europe S.A.S. Sirenensignalquellenerfassung, -Erkennung und -Lokalisation

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10060017A1 (de) * 2000-12-01 2002-06-13 Daimler Chrysler Ag Verfahren und Vorrichtung zur Bestimmung eines akustischen Signals einer Signalquelle
DE102007028400B3 (de) * 2007-06-15 2009-01-29 Navigon Ag Verfahren zur Signalisierung von vorfahrtsberechtigten Fahrzeugen an einen Fahrzeugführer
US8319620B2 (en) * 2008-06-19 2012-11-27 Personics Holdings Inc. Ambient situation awareness system and method for vehicles
DE102013016344A1 (de) * 2013-09-30 2014-04-10 Daimler Ag Verfahren zur Analyse und Bewertung eines Sondersignals sowie Verfahren zur Übertragung eines Sondersignals

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017200153A1 (de) * 2017-01-09 2018-07-12 Ford Global Technologies, Llc Verfahren zum Erfassen von Verkehrssituationen

Also Published As

Publication number Publication date
JP2016057295A (ja) 2016-04-21
US10049157B2 (en) 2018-08-14
US20160070788A1 (en) 2016-03-10
JP6627340B2 (ja) 2020-01-08
DE102014217681B4 (de) 2020-12-10

Similar Documents

Publication Publication Date Title
DE102014217681B4 (de) Sirenensignalquellenerfassung, -Erkennung und -Lokalisation
DE102015100134B4 (de) Verfahren zum Detektieren und Verfolgen von Objekten unter Verwendung mehrerer Radarsensoren
EP3175256B1 (de) Verfahren zum klassifizieren eines objektes in einem umgebungsbereich eines kraftfahrzeugs, fahrerassistenzsystem und kraftfahrzeug
DE102016118902A1 (de) Kollisionsvermeidung mit durch Kartendaten erweiterten auditorischen Daten
EP3540457A1 (de) Identifikation von objekten mittels radardaten
DE102013102153A1 (de) Verfahren zur Registrierung von Entfernungsbildern von mehreren LiDAR-Sensoren
DE102015109832A1 (de) Objektklassifizierung für Fahrzeugradarsysteme
DE102018111250A1 (de) Nachverarbeitung des radarsystems zur unterdrückung der nebenkeule
DE102018105875A1 (de) Verarbeitung von Radarsignalen
DE102018201605A1 (de) Verfahren und Vorrichtung zum Lokalisieren und Verfolgen akustischer aktiver Quellen
DE102019111577A1 (de) Filterung zum behandeln des range-walk-effekts in range-doppler-abbildungen
DE102016225494A1 (de) Verfahren und vorrichtung zum erfassen eines zielobjekts
DE102018106478A1 (de) Zielverfolgung unter verwendung von regionskovarianz
DE102019200141A1 (de) Verfahren zum Erfassen von Teilbereichen eines Objekts
DE112018003126T5 (de) Umgebungsüberwachungsradarvorrichtung
EP2758799B1 (de) Verfahren und vorrichtung zur extraktion von konturen aus sonarbildern
DE102012106790A1 (de) Verfahren zum ermitteln von streuzentren eines mittels radar erfassten objekts
DE112022004085T5 (de) Verfahren und Vorrichtung zum Erzeugen synthetischer Trainingsdaten für ein Ultraschallsensormodell
DE102021124796A1 (de) Verfahren zur Detektion von Störeinflüssen bei einem durch Interferenzen gestörten Radarsignal
DE102021128801A1 (de) Biologische Detektionsvorrichtung
DE102021124795A1 (de) Verfahren zur Rekonstruktion eines Spektrums aus einem durch Interferenzen gestörten Radarsignal
DE102019216373A1 (de) Verfahren zur Erfassung eines Zielobjekts
DE102017113635A1 (de) Klassifikation und Lokalisation eines Objektes durch eine Lidar-Sensorvorrichtung eines Kraftfahrzeugs
DE102018124055A1 (de) Verfahren zum Bestimmen eines Abstands eines Objekts in einem Ausschwingbereich eines Ultraschallsensors, Computerprogrammprodukt, elektronische Recheneinrichtung sowie Ultraschallsensor
DE102012012626B4 (de) Verfahren zur Hervorhebung und Detektion wiederholter Nutzsignalkomponenten innerhalb eines Quellsignals

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee