DE19634155B4 - Verfahren zur Simulation der akustischen Qualität eines Raumes und damit verbundener Audio-Digitaler Prozessor - Google Patents

Verfahren zur Simulation der akustischen Qualität eines Raumes und damit verbundener Audio-Digitaler Prozessor Download PDF

Info

Publication number
DE19634155B4
DE19634155B4 DE19634155A DE19634155A DE19634155B4 DE 19634155 B4 DE19634155 B4 DE 19634155B4 DE 19634155 A DE19634155 A DE 19634155A DE 19634155 A DE19634155 A DE 19634155A DE 19634155 B4 DE19634155 B4 DE 19634155B4
Authority
DE
Germany
Prior art keywords
sound
module
source
virtual
signals
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE19634155A
Other languages
English (en)
Other versions
DE19634155A1 (de
Inventor
Jean Marc Jot
Jean-Pascal Jullien
Olivier Warusfel
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Orange SA
Original Assignee
France Telecom SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by France Telecom SA filed Critical France Telecom SA
Publication of DE19634155A1 publication Critical patent/DE19634155A1/de
Application granted granted Critical
Publication of DE19634155B4 publication Critical patent/DE19634155B4/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S5/00Pseudo-stereo systems, e.g. in which additional channel signals are derived from monophonic signals by means of phase shifting, time delay or reverberation 
    • H04S5/005Pseudo-stereo systems, e.g. in which additional channel signals are derived from monophonic signals by means of phase shifting, time delay or reverberation  of the pseudo five- or more-channel type, e.g. virtual surround
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/305Electronic adaptation of stereophonic audio signals to reverberation of the listening space
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R27/00Public address systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/11Positioning of individual sound objects, e.g. moving airplane, within a sound field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • H04S3/02Systems employing more than two channels, e.g. quadraphonic of the matrix type, i.e. in which input signals are combined algebraically, e.g. after having been phase shifted with respect to each other

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Stereophonic System (AREA)

Abstract

Verfahren zur Erzeugung wenigstens eines Tonsignals, ausgehend von wenigstens einem Eingangssignal (E), das von einer oder mehreren Ursprungsschallquellen erhalten wird, so dass das erzeugte Signal die akustischen Eigenschaften eines virtuellen Raumes und die Lokalisierung einer virtuellen Schallquelle bezüglich eines oder mehrerer Hörer simuliert, dadurch gekennzeichnet, dass das Verfahren folgende Schritte umfasst:
1 – Festlegen (100) von Wahrnehmungsfaktoren wie Präsenz, Frühhall, Einhüllung, Nachhall, Lebendigkeit oder Intimität des virtuellen Raumes und von Parameterwerten für die Lokalisierung mit Hilfe einer gemeinsamen Regelungsschnittstelle, wobei die Wahrnehmungsfaktoren die akustischen Eigenschaften des virtuellen Raumes bezüglich der Wahrnehmung eines Hörers definieren und die Parameterwerte für die Lokalisierung die Lokalisierung (110) der virtuellen Schallquelle bezüglich eines oder mehrerer Hörer definieren,
2 – Umwandeln (140) der Wahrnehmungsfaktorwerte und der Parameterwerte für die Lokalisierung in Energiewerte, die als Funktion der Zeit und der Frequenz eine Impulsantwort definieren,
3 – Durchführen einer Kontextkompensation (150) durch Modifikation der Energiewerte...

Description

  • Die vorliegende Erfindung bezieht sich auf ein Verfahren zur Simulation der akustischen Eigenschaften eines Raumes. Diese Verfahren ermöglicht, die Lokalisierung einer Schallquelle zu kontrollieren oder zu reproduzieren, und die Transformation der von dieser Quelle ausgestrahlten Töne, die aus ihrer Projektion in einen reellen oder virtuellen Raum resultieren.
  • Mit diesem Verfahren ist ein Audio-Digitaler Prozessor verbunden, der ausgehend von einer Mehrzahl von Eingangssignalen ermöglicht, in Echtzeit einen Raumeffekt, die Lokalisierung der Schallquelle und die Wiedergabe der Signale über Kopfhörer oder verschiedene Lautsprechervorrichtungen zu kontrollieren und zu erzeugen. Mehrere Prozessoren können parallel geschaltet werden, um gleichzeitig mehrere verschiedene Schallquellen mit derselben Kopfhörer- oder Lautsprecheranordnung wiederzugeben.
  • Dank dieses Verfahrens und des damit verbundenen Prozessors ist es möglich, die von einer realen Schallquelle, einer Aufzeichnung oder einem Synthesator ausgehenden Signale zu modifizieren. Außerdem können das Verfahren und der Prozessor insbesondere bei der Schallaufzeichnung von Konzerten oder Schauspielen, bei der Herstellung von Aufzeichnungen für die Kino- oder Musikindustrie oder auch bei der Verwirklichung von interaktiven Simulationssystemen, wie etwa bei Flugsimulatoren oder bei Videospielen, angewendet werden. Des Verfahren nach der vorliegenden Erfindung erlaubt insbesondere, die Akustik eines Hörraums zu modifizieren, indem es exakt die Akustik eines anderen Raumes schafft, um den Hörern den Eindruck zu geben, daß zum Beispiel ein Konzert in diesem anderen Raum stattfindet.
  • Die folgenden Patentschriften beziehen sich auf die Ansteuerung von Panoramapotentiometern um dem Zuhörer den Eindruck einer im Raum lokalisierten Schallquelle zu vermitteln.
  • Die Patentschrift US-A-5 212 733 offenbart ein interaktives Audio-Mischsystem, bei dem Positionsinformation sowie weitere Parameter einzelner Schallquellen wie Verstärkung oder Hall mit Hilfe einer graphischen Benutzeroberfläche festgelegt werden. Die Positionsdaten und die weiteren Parameter werden zur Steuerung an angeschlossene Mischverstärker und Effektgeräte übermittelt, die das Ausgangssignal erzeugen.
  • US-A-5 636 283 beschreibt die Verarbeitung eines Tonsignals und die Ausgabe auf verschiedenen Lautsprechern zur Simulation einer beweglichen Schallquelle. Weitere Effekte wie Verzögerung oder Hall können positionsabhängig gesteuert werden.
  • US-A-5 105 462 offenbart monaurale Tonsignale mit vordefinierten Transferfunktionen frequenzabhängig zu verändern und auf zwei Lautsprechern auszugeben, so dass der Hörer den Eindruck erhält die Tonquelle im Raum lokalisieren zu können. Die nötigen Transferfunktionen sind empirisch ermittelt.
  • Weitere Patentschriften beziehen sich auf die Simulation von Raumeffekten.
  • US-A-5 142 586 beschreibt ein System zur Beschallung eines Raumes, bei dem über ein dichtes Netz von Lautsprechern und Mikrophonen in diesem Raum der Höreindruck eines anderen fiktiven Raumes erweckt wird, unabhängig von der Position des Hörers. Dazu werden Wandreflektionen und Hall des fiktiven Raumes an den Orten der Lautsprecher simuliert und im realen Raum eingespielt.
  • US-A-5 023 913 beschreibt ein System, das einen kontinuierlichen Übergang von einem Schallszenario auf ein anderes ermöglicht.
  • US-A-0 593 228 beschreibt ein System zur Simulation der akustischen Eigenschaften eines vorgegebenen geometrischen Raumes zur Ausgabe eines Tonsignals über Kopfhörer. Dabei werden für eine vorgegebene Position von Schallquelle und Hörer die direkten Schallwellen und die reflektierten Schallwellen erster und höherer Ordnung berechnet.
  • US-A-5 261 005 beschreibt ein System zur Errichtung einer Schallszene um einen Hörer bei dem ein Zweikanal-Tonsignal in ein Hauptsignal und ein Surround-Signal aufgeteilt wird und zu dem Hauptsignal und dem Surround-Signal vordefinierte Reflektionssignale beigefügt werden und auf, den Hörer umgebenden, Lautsprechern ausgegeben werden.
  • Veröffentlichungen aus jüngster Zeit zeigen ein gewisses Interesse an einer Möglichkeit der Beschreibung der akustischen Qualität im Rahmen von Wahrnehmungsfaktoren. Dies ist in einer Veröffentlichung mit dem Titel ”Some New Considerations an the Subjective Impression of Reverberance and ist Correlation With Objective Criteria”, ASA Konferenz, Cambridge, Mai 1994, und in der Veröffentlichung mit dem Titel ”Some Results an the Objective Characterisation of Room Acoustical Quality in both Laborstory and Real Environments”, Proc. I. O. A., Band 14, Teil 2, Seiten 77–84, 1992, beschrieben.
  • Die Veröffentlichung mit dem Titel ”The Simulation of Moving Sound Sources”, erschienen in dem Journal of Audio Engineering Society, Seiten 2 bis 6, 1971, beschreibt ein Programm, das erlaubt, die Lokalisierung und die Bewegung einer Schallquelle in einem virtuellen akustischen Raum zu kontrollieren. In dem Fall einer gleichzeitigen Wiedergabe mehrerer virtueller Schallquellen, mit 1 bis N numeriert, mit Hilfe einer Vorrichtung aus die Hörer umgebenden vier Lautsprechern, wird dieses Programm durch den in 11a dargestellten Prozessor ausgeführt. Die Herkunftsrichtung jeder Signalquelle wird mittels eines Panoramapotentiometers, ”Pan” bezeichnet, synthetisiert, was ermöglicht, die Signalquelle mittels eines Busses 1 mit Mehrkanalausgang und von Verstärkern 2 auf einen oder auf mehrere der vier Lautsprecher zu verteilen. Außerdem versorgen alle Signale, die von den Quellen 1 bis N herkommen, einen künstlichen Hallreflektor, mit ”Rev” bezeichnet, der für jeden der Lautsprecher ein Schallsignal ein unterschiedliches Schallsignal liefert. Verstär kungen d1 bis dN ermöglichen, die Amplitude des direkten Schalls jeder Schallquelle zu kontrollieren. Verstärkungen r1 bis rN ermöglichen, die Amplitude des Hallschalls jeder Schallquelle zu kontrollieren.
  • Dieses Programm besitzt jedoch einige Nachteile. Da es nicht erlaubt, die Amplituden und Richtungen der primären Reflexionen unabhängig von den Nachhall zu modifizieren, erlaubt es nämlich nicht, die Entfernung oder die Drehung einer Schallquelle in ihrer natürlichen akustischen Umgebung getreu wiederzugeben. Da die primären Reflexionen von allen Lautsprechern ausgestrahlt werden, ist es weiterhin notwendig, daß der Hörer oder die Hörer sich in der Nähe der Mitte der Vorrichtung befinden, damit die Herkunftsrichtung, die durch den direkten Schall bestimmt wird, getreu wiedergegeben wird. Wenn sich ein Hörer zu dicht bei einem der Lautsprecher befindet, können die primären Reflexionssignale von diesem Lautsprecher ihn vor dem direkten Schall erreichen und diese dann ihn wahrnehmbarer Weise ersetzen. Des weiteren stellt ein Prozessor, wie er in 11a dargestellt ist, ein heterogenes System dar, in dem die Lokalisierung der Schallquellen und der Halleffekt mittels unterschiedlicher Vorrichtungen wiedergegeben werden, um gleichzeitig die Richtungs- und Zeitaspekte der Schallquelle zu behandeln. Nun ist die Verwendung unterschiedlicher Vorrichtungen komplex und teuer und führt zu einer für den Benutzer umständlichen Benutzerschnittstelle.
  • Die Veröffentlichung mit dem Titel ”A general Model for spatial processing of sounds”, erschienen in Computer Music Journal, Band 7, Nr. 6, 1983, beschreibt eine Erweiterung des oben beschriebenen Programms. Diese Erweiterung erlaubt für jede virtuelle Schallquelle und für jeden Lautsprecher des Wiedergabesystems die Daten und die Amplituden der primären, künstlichen Reflexionen zu kontrollieren. Dadurch berücksichtigt sie die Geometrie der Lautsprecher, die Geometrie des virtuellen Raumes, die akustischen Absorptionseigenschaften der Luft und der Wände des virtuellen Raumes und schließlich die Position, die Richtwirkung und die Ausrichtung jeder virtuellen Schallquelle.
  • Der Nachteil dieses Verfahrens liegt in der Tatsache, daß es keine direkte und wirkungsvolle Kontrolle des von dem Hörer bei der Wiedergabe der Akustik verspürten Gefühls erlaubt. Dieses Gefühl kann in zwei Typen von Effekten unterteilt werden: die Lokalisierung der virtuellen Schallquelle hinsichtlich ihrer Richtung und ihres Abstands und die akustischen Eigenschaften, die als die Summe der zeitlichen, Frequenz- und Richtungseffekte definiert sind, die von dem virtuellen Raum auf die von den virtuellen Schallquellen ausgestahlen Schallsignale ausgeübt werden.
  • Wenn auch das Lokalisierungsgefühl durch dieses Verfahren kontrolliert werden kann, können hingegen die akustischen Eigenschaften nicht mittels der geometrischen und physikalischen Beschreibung des virtuellen Raums und der Schallquellen kontrolliert werden. Diese Lösung weist eine Reihe von Problemen in einem musikalischen und künstlerischen Zusammenhang auf. In der Tat ist die notwendige Kontrolle zur Aktualisierung der Daten und Amplituden der primären Reflexionen für jede Schallquelle und jeden Lautsprecher komplex und kostspielig im Hinblick auf die erforderlichen Rechenmittel. Weiterhin sind die Steuerungsparameter eines Prozessors zur Ausführung dieses Verfahren nicht für die Wahrnehmungsebene geeignet. Damit ein Steuerungsverfahren wirkungsvoll ist, muß es eine wechselseitige Beziehung zwischen den Parametern und dem wahrgenommen Effekt anstreben. Die Parameter eines Prozessors zur Ausübung des oben beschriebenen Verfahrens entsprechen nicht dieser Bedingung, da mehrere Regelungskonfigurationen denselben wahrgenommenen Effekt hervorrufen können. Der wahrgenommene Effekt bei der Änderung eines physikalischen oder geometrischen Parameters ist nicht genau vorhersehbar und existiert manchmal gar nicht. Schließlich erlaubt dieses Kontrollverfahren für die akustischen Eigenschaften nur physikalisch darstellbare Situationen wiederzugeben. Selbst wenn der modellierte Raum imaginär ist, legen die physikalischen Gesetze den aus führbaren akustischen Eigenschaften strenge Randbedingungen auf. Zum Beispiel führt in einem Raum mit gegebenen Volumen eine Modifikation der Absorptionkoeffizienten der Wände zum Erhöhen der Nachhalldauer des Raumes gleichzeitig zu einer Erhöhung der Intensität des Raumeffekts.
  • Bei der Verwendung solcher Verfahren, wie sie oben beschrieben wurden, bei eifern Konzert, resultieren die akustischen Eigenschaften der effektiv von einem Hörer wahrgenommenen Akustik aus der Verbindung von zwei in Reihe geschalteten Filterstufen. Diese beiden Filterstufen stellen von einem Bearbeitungsmodul 3 für Schallsignale durchgeführten Schalltransformationen, die die Lautsprecher versorgen, und von einem akustischen System 4, das Verstärker, Lautsprecher und den Hörraum umfaßt, erzeugte Schalltransformationen sicher, wie es 11b für ein System mit vier Lautsprechern zeigt. Die zweite Filterstufe hängt von dem Frequenzresponse der Lautsprecher und ihrer Kopplung mit dem Hörraum ab, die ihrerseits von der Richtwirkung, der Position und der Ausrichtung jedes der Lautsprecher abhängt.
  • Darüber hinaus zielen die bis heute vorgeschlagenen Techniken zum Kompensieren der Transformationen der von den Lautsprechern wiedergegebenen Signale auf eine Unterdrückung dieser Transformationen, indem in dem damit verbundenen akustischen Prozessor ein Korrektorfilter 5, auch inverses oder Ausgleichsfilter genannt, vor den Lautsprechern des aktustischen Systems 4 eingesetzt wird, wie es in 11c dargestellt ist. Die Verwendung dieser Techniken in einem typischen Hörraum, das heißt in einem relativ halligen Raum, ist sehr teuer, was die Rechenleistung angeht. Außerdem kann durch diese Ausgleichstechniken der Effekt des Hörraums nur an einem Punkt oder an einer begrenzten Zahl von Wahrnehmungspunkten wirkungsvoll ausgeglichen werden. Dieser Ausgleich funktioniert also nicht in einem ausgedehnten Wahrnehmungsbereich, wie etwa in dem Auditorium eines Konzertsaals.
  • Andere Veröffentlichungen jüngerer Zeit beschreiben eine perspektivische Lösung für die Charakterisierung der akustischen Eigenschaften von Räumen. Jedoch beschreibt keine dieser Veröffentlichungen die Verwirklichung eines Verfahren, das die Kontrolle der akustischen Eigenschaften eines Raumes mit Hilfe eines Schallsignalbearbeitungsmoduls und einer Wiedergabevorrichtung über Lautsprecher ermöglicht.
  • Die französische Patentanmeldung FR-A-2 688 371 beschreibt ein Verfahren und ein System zur künstlichen Verräumlichung Audio-Digitaler Signale, um einen Raumeffekt zu simulieren. Dazu werden Hallfilterstrukturen beschrieben, die die Wiedergaben des verzögerten Halls und von Vorechos ermöglichen. Jedoch sind in einem solchen System die Regelungsvorrichtungen für die akustischen Eigenschaften uneinheitlich, da sie verschiedene Lösungswege verwenden. So werden auf ein- und derselben Ebene Kontrollvorrichtungen für die Geometrie des Hörraums, für die Wahrnehmung des Schalls oder für die Signalverarbeitung verwendet. In diesem Fall besitzen die Hallfilter also keinen wahrnehmbaren Einfluß auf die Regelungen, da diese letzteren voneinander unabhängig bleiben, wobei mehrere von ihnen denselben Raumeffekt erzeugen können. Die Koexistenz von Parametern unterschiedlicher Natur ermöglicht nicht, den oben erwähnten Anforderungen an die Wahrnehmungsqualität zu genügen. Die akustischen Eigenschaften können also nicht direkt und wirkungsvoll kontrolliert werden.
  • Die vorliegende Erfindung erlaubt, alle oben beschriebenen Nachteile auszuräumen.
  • Die vorliegende Erfindung betrifft ein Verfahren zur Simulation der akustischen Eigenschaften, die von einer virtuellen Schallquelle erzeugt werden, und der Lokalisierung dieser Quelle bezüglich eines oder mehrerer Hörer ausgehend von einem Eingangssignal, das von einer oder mehreren Ursprungsschallquellen erhalten wird, wobei das Verfahren die Schritte wie im Anspruch 1 angegeben umfaßt:
    Dieses Verfahren ermöglicht, die akustischen Eigenschaften eines existierenden Raumes zu modifizieren, indem im Innern desselben die akustischen Eigenschaften eines virtuellen Raumes simuliert werden und gleichzeitig die zeitlichen Aspekte und die Richtungsaspekte dieser akustischen Eigenschaften wiedergegeben werden. Dank dieses Verfahrens betreffen die Regelungsvorrichtungen nur die Wahrnehmung des wiedergegebenen Effekts durch den Hörer ohne auf technische Parameter zurückzugreifen, die sich aus der Verarbeitung der Schallsignale, der Geometrie des virtuellen Raumes oder den physikalischen Eigenschaften seiner Wände ergeben.
  • Die Erfindung betrifft weiterhin einen virtuellen Akustikprozessor, der die Durchführung des erfindungsgemäßen Verfahrens ermöglicht. Diese Prozessor ist dadurch gekennzeichnet, daß er ein ”Raum-”Modul, der die Erzeugung eines künstlichen Halls ermöglicht, und ein ”Pan-”Modul umfaßt, der die Kontrolle der Lokalisierung und der Bewegung der Schallquelle und die Durchführung einer Formatumwandlung in einen anderen Wiedergabemodus ermöglicht.
  • In einer Mischanwendung, in der mehrere virtuelle Schallquellen gleichzeitig behandelt und über ein- und diesselbe Lautsprechervorrichtung wiedergegeben werden, können mehrere virtuelle akustische Prozessoren parallel geschaltet werden, wie es in 11d gezeigt ist.
  • In der einfachsten Konfiguration des Prozessors, wenn der Prozessor also nur den ”Raum-”Modul umfaßt, können die Ausgangssignale direkt über eine Lautsprechervorrichtung wiedergegeben werden, die mit dem Standardstereoformat 3/2 oder 3/4 kompatibel ist, wie es in den 11e beziehungsweise 11f gezeigt ist, das drei. vordere Kanäle mit zwei oder vier ”Umgebungs-”Kanälen verbindet, die eine Referenzhörposition E umgeben. In einer vollständigeren Konfiguration kann der Prozessor mit einem zweiten ”Pan-”Modul ausgestattet sein, das geeignet ist, lineare Kombinationen seiner Eingangssignale auf solche Weise durchzuführen, daß die Kontrolle der Lokalisierung der virtuellen Quelle und gleichzeitig die Durchführung einer Umwandlung von dem vorstehenden Standardformat in einen anderen Wiedergabemodus ermöglicht wird. Die möglichen Wiedergabemodi sind zum Beispiel der binaurale Wiedergabemodus über Kopfhörer, der stereophone Modus, der transaurale Modus über zwei Lautsprecher oder ein Mehrkanalmodus.
  • Wenn der Wiedergabemodus binaural ist, rekonstruiert der Prozessor die akustischen Informationen, die von zwei Mikrophonen aufgenommen worden wären, die sich in den Hörkanälen eines in dem virtuellen Hörfeld befindlichen Hörers befunden hätten, so daß eine dreidimensionale Kontrolle der Lokalisierung der Quelle ermöglicht wird, obwohl eine Übertragung nur über zwei Kanäle erfolgt.
  • Der transaurale Modus erlaubt die Wiedergabe desselben dreidimensionalen Effekts über zwei Lautsprecher, während der Stereomodus eine Tonaufnahme mit einem Mikrophonpaar simuliert. Wenn die akustische Wiedergabe in einem Mehrkanalmodus erfolgt, versorgt der Prozessor mehrere Lautsprecher, die den Hörbereich in einer horizontalen Ebene umgeben. Dieser Modus erlaubt das Errichten einer Schallszene, die nur wenig von der Position des Hörers abhängt, und die Wiedergabe eines diffusen Raumeffekts, der aus allen Richtungen kommt.
  • Somit kann der Prozessor nach der vorliegenden Erfindung so aufgebaut sein, daß er über verschiedene Lautsprechervorrichtungen oder bei verschiedenen Aufnahmeformaten die akustischen Eigenschaften, die von einer virtuellen Schallquelle erzeugt werden, und gleichzeitig die scheinbare Richtung der Position dieser Schallquelle bezüglich des Hörers kontrollieren und wiedergeben kann. Das in 11d dargestellte System stellt daher ein Mischpult dar, das nicht nur die Kontrolle der Richtung der Position jeder der N virtuellen Quellen ermöglicht sondern auch im Gegensatz zu einem herkömmlichen Mischpult, wie es in 11a dargestellt ist, die direkte Kontrolle der mit jeder der Quellen verbundenen akustischen Eigenschaften ermöglicht.
  • Wie weiter unten ausgeführt wird, umfassen die akustischen Eigenschaften, die von einer Schallquelle erzeugt werden, insbesondere die Wahrnehmung der Nähe oder der Ferne dieser Quelle.
  • In dem System, wie es in 11a dargestellt ist, ermöglicht ein traditionelles Mischpult die Kontrolle der Richtungseffekte, während ein externer Hallprozessor die Synthese der zeitlichen Effekte durchführt. Die Wahrnehmung der Entfernung der virtuellen Schallquellen kann nur mittels der Verstärkungswerte di und ri, die in dem Mischpult zugänglich sind, nicht mit Präzision kontrolliert werden, da die Entfernungswahrnehmung auch von der Einregelung des externen Hallprozessors abhängt. Folglich schränkt die Heterogenität des Systems die Möglichkeiten einer kontinuierlich Änderung des scheinbaren Abstands der virtuellen Schallquellen sehr stark ein.
  • Im Gegensatz dazu bietet ein Mischpult, in dem jeder Kanal mit einem Prozessor nach der vorliegenden Erfindung ausgestattet ist, seinem Benutzer ein mächtiges Werkzeug zum Aufbau virtueller Schallfelder, da jeder Prozessor gleichzeitig die Richtungseffekte und die Zeit- und Frequenzeffekte integriert, die die Wahrnehmung der Lokalisierung und der akustischen Eigenschaften jeder Schallquelle bestimmen.
  • Weitere Besonderheiten und Vorteile der vorliegenden Erfindung werden durch die Lektüre der nachfolgenden Beschreibung, die nur als nicht einschränkendes Beispiel dient, in Verbindung mit den beigefügten Zeichnungen deutlich.
  • 1 zeigt das Schema eines allgemeinen Aufbaus eines Prozessors nach der vorliegenden Erfindung.
  • 2 zeigt ein Schema, das den Einfluß einer Regelungsschnittstelle eines erfindungsgemäßen Prozessors auf die Schallbearbeitungsmodule darstellt.
  • Die 3a und 3b zeigen eine Standardantwort eines Raumes auf eine Schall impulsanregung, wobei sie deren Beschreibung in der Form einer energetischen Verteilung als Funktion der Zeit beziehungsweise der Frequenz zeigen.
  • 4 zeigt ein Organigramm, das die Verfahrensschritte des erfindungsgemäßen Verfahrens zeigt.
  • 5 zeigt ein detailliertes Organgramm, das die Verfahrensschritte der 4 zeigt.
  • 6 zeigt ein Schema einer Energiebilanz, die nützlich ist zum Aufstellen von Beziehungen, die die Durchführung einer Kontextkompensation ermöglichen.
  • 7 zeigt ein elektronisches Schema eines ”Quellen-”Moduls zur Schallbearbeitung.
  • 8 zeigt ein elektronisches Schema eines ”Raum-”Moduls zur Schallbearbei tung, das die Erzeugung einer virtuellen Akustik ermöglicht.
  • 9 zeigt ein elektronisches Schema eines ”Pan-”Moduls zur Schallbearbeitung.
  • 10 zeigt ein elektronisches Schema eines ”Ausgangs-”Moduls zur Schallbearbeitung.
  • Die 11a bis 11c, die schon beschrieben wurden, zeigen klassische virtuelle Akustikprozessoren nach dem Stand der Technik.
  • 11d, die schon beschrieben wurde, zeigt ein Mischpult, das mehrere virtuelle Akustikprozessoren nach der vorliegenden Erfindung in Parallelschaltung umfaßt.
  • 11e zeigt das Schema einer Lautsprecheranordnung, die mit dem Stereo-3/2-Format kompatibel ist.
  • 11f zeigt das Schema einer Lautsprecheranordnung, die mit dem Stereo-3/4-Format kompatibel ist.
  • Für ein besseres Verständnis der verschiedenen Verfahrensschritte des erfindungsgemäßen Verfahrens, wird zunächst der allgemeine Aufbau eines Prozessors beschrieben, der die Ausführung dieses Verfahrens ermöglicht. Ein Schema dieses allgemeinen Aufbaus ist in 1 gezeigt.
  • Entsprechend einer Ausführungsform umfaßt der erfindungsgemäße Prozessor zwei Stufen, eine hohe und eine tiefe. Die hohe oder obere Stufe ist für eine oder mehrere Schnittstellen 30, 40 reserviert, die ermöglichen, Werte von Wahrnehmungsfaktoren zu Regeln und diese Werte in eine Impulsantwort umzuwandeln, die durch ihre Energieverteilung als Funktion der Zeit und der Frequenz beschrieben wird. Die untere Stufe ist der Verarbeitung der Schallsignale ausgehend von Daten vorbehalten, die von der oder den Schnittstellen der oberen Stufe geliefert werden.
  • Die untere Stufe umfaßt also ein Modul 10 zur digitalen Bearbeitung von Schall signalen, das selbst einen oder mehrere sukzessive Module zur Schallbearbeitung umfaßt. In dem Beispiel der 1 und in den folgenden Beispielen gibt es vier Module: ein ”Quell” Modul 11, ein ”Raum-”Modul 12, ein ”Pan-”Modul 13 und ein ”Ausgangs-”Modul 14. Jeder dieser Module spielt ein wohldefinierte Rolle und arbeitet unabhängig von den anderen Modulen, um ausgehend von einem einzigen Eingangssignal E auf mehreren Ausgangskanälen die Wiedergabe von akustischen Eigenschaften zu ermöglichen und die Richtungslokalisierung der Quelle zu kontrollieren.
  • Der ”Quell-”Modul 11 ist fakultativ. Er bringt insbesondere feste spektrale Korrekturen bei einem Eingangsschallsignal E, das von einer beliebigen Schallquelle herkommt. Diese spektralen Korrekturen erlauben, zwischen seiner direkten ”Vorderseite”, die von der Quelle zu einem Hörer hin abgestrahlt wird, und seiner diffusen Mitte ”Omni”, die von der Quelle in alle Richtungen abgestrahlt wird, zu differenzieren.
  • Der ”Raum-”Modul 12 ist wichtig, da er die beiden von dem ”Quell-”Modul kommenden Signaltypen bearbeitet und einen künstlichen Halleffekt bewirkt, um einen virtuellen Raumeffekt zu erzeugen.
  • Der ”Pan-”Modul 13 ermöglicht gleichzeitig die Richtungslokalisierung der Schallquelle und die Durchführung einer Formatumwandlung in einen anderen Wiedergabemodus.
  • Der ”Ausgangs-”Modul 14 ist fakultativ und ermöglicht eine feste spektrale und zeitliche Korrektur in jedem der Ausgangskanäle.
  • In dem in 1 gezeigten Beispiel ist der ”Pan-”Modul eine Matrix mit 7 Eingängen, die den Ausgangssignalen des ”Raum-”Moduls entsprechen, und mit 8 Ausgängen. Dies bedeutet, daß der Wiedergabemodus für 8 Kanäle ausgelegt ist, die 8 Lautsprecher versorgen. In einem anderen Fall, zum Beispiel bei einer Wiedergabe über 4 Kanäle, wäre die Anzahl der Ausgänge des ”Pan-”Moduls gleich 4.
  • Die obere Stufe des Prozessors nach der vorliegenden Erfindung umfaßt vorzugsweise eine Softwareschnittstelle 30 und eine Regelungsschnittstelle 40. Die Regelungsschnittstelle 40 erlaubt, die zu simulierende Akustik als Funktion von Wahrnehmungsfaktoren zu definieren. Vorteilhafterweise umfaßt die Softwareschnittstelle 30 ein Programm, des mit der Regelungsschnittstelle 40 verbunden ist. Dieses Programm erlaubt, die Werte der Wahrnehmungsfaktoren, die mittels der Regelungsschnittstelle 40 festgelegt werden, in eine Impulsantwort umzuwandeln, die durch ihre energetische Verteilung als Funktion der Zeit und der Frequenz beschrieben wird. Die Wahrnehmungsfaktoren wirken unabhängig auf einen oder mehrere Energiewerte.
  • Eine Ausführungsvariante, die in 1 gezeigt ist, besteht darin, eine zweite Regelungsschnittstelle 20 in der unteren Stufe anzuordnen, um eine direkte Regelung der durch die Energie ausgedrückten Parameter, eine Kontrolle und eine Sichtbarmachung des oder der Bearbeitungsmodule zu ermöglichen. Die Regelungen der akustischen Eigenschaften mittels dieser zweiten Regelungsschnittstelle 20 erfolgen nicht in Abhängigkeit von Wahrnehmungsfaktoren sondern in Abhängigkeit von Energien. Weiterhin ist diese Schnittstelle 20 vollständig durchlässig für Kontrollbotschaften von der Regelungsschnittstelle 40 der oberen Stufe, sie erlaubt lediglich, eine direkte Kontrolle oder eine Sichtbarmachung der Werte der Parameter der oberen Stufe.
  • Weiterhin ist es ebenfalls möglich, eine zusätzliche Schnittstelle zur oberen Stufe hinzuzufügen, die geeignet ist, die Regelungsschnittstelle 40 durch eine Fernsteuerung 51 oder mittels eines automatischen Verfahrens 52 oder zum Beispiel durch eine gestische Kontrolle 53 zu kontrollieren und/oder zu steuern.
  • Der Einfluß der Regelungsschnittstelle 40 der oberen Stufe auf die einzelnen Bearbeitungsmodule 11, 12, 13 und 14 wird in Verbindung mit 2 besser verständlich.
  • Die Regelungsschnittstelle 40 ist vorzugsweise mit einem graphischen Kontrollbildschirm verbunden und umfaßt vorzugsweise vier Steuerungsbereiche, um eine Kontrolle der globalen akustischen Eigenschaften 42, der Lokalisierung 42 einer virtuellen Quelle, der Ausstrahlung 44 dieser virtuellen Quelle und schließlich der Konfiguration 41 des mit den Formaten oder Vorrichtungen der Tonaufnahme und/oder -wiedergabe verbundenen Wiedergabemodus zu ermöglichen.
  • Der Steuerungsbereich 41, der die Kontrolle der Konfiguration des Wiedergabemodus ermöglicht, ist im allgemeinen vor der ersten Verwendung des Prozessors zum Bearbeiten von Schallsignalen vorkonfiguriert. Das heißt, er ist insbesondere für einen speziellen Wiedergabemodus, wie zum Beispiel einen binauralen Modus, einen stereophonen oder einen Mehrkanalmodus, voreingestellt. In dem Fall einer Mehrkanalwiedergabe zum Beispiel vereinigt der Konfigurationssteuerungsbereich 41 alle Parameter, die die Positionen der Lautsprecher bezüglich einer Referenzhörposition beschreiben, und gibt sie an den ”Pan-”Modul 13 weiter. Diese Beschreibung ist mit spektralen und zeitlichen Korrekturen mittels Ausgleichsfilter 45, 46 verbunden, die auf jeden Ausgangskanal des ”Ausgangs-”Moduls 14 beziehungsweise jedem Eingangskanal des ”Quell-”Moduls 11 angewandt werden. Dieser Konfigurationssteuerungsbereich 41 beeinflußt also den ”Pan-”Modul 13, den ”Ausgangs-”Modul 14 und den ”Quell-”Modul 11 zur Signalbearbeitung der unteren Stufe.
  • Der Steuerungsbereich 42 für die Lokalisierung einer virtuellen Quelle umfaßt Azimut- und Aufrißwinkelwerte, die die Richtung der Quelle definieren und direkt zum ”Pan-”Modul 13 zur Signalbearbeitung der unteren Stufe übertragen werden. Letzterer Modul kennt somit im Falle einer Wiedergabe in einem Mehrkanalmodus die Position der virtuellen Quelle bezüglich der Position der Lautsprecher, die durch den Konfigurations steuerungsbereich 41 definiert wird. Dieser Steuerungsbereich 42 umfaßt außerdem den Wert eines in Meter angegebenen Abstands zwischen der virtuellen Quelle und einem an einer Referenzhörposition befindlichen Hörer. Dieser Abstand ermöglicht es, gleichzeitig die Dauer einer Vorverzögerung in dem ”Quell-”Modul der unteren Stufe zu kontrollieren, was eine natürliche Wiedergabe des Dopplereffekts ermöglicht, wenn sich der Abstand ändert. Bei der Umwandlung der Werte der Wahrnehmungsfaktoren in Energiewerte kann ein Benutzer des erfindungsgemäßen Prozessors außerdem auswählen, den Abstand mit einem Wahrnehmungsfaktor, der ”Präsenz der Quelle” genannt wird, des Steuerungsbereichs für die akustischen Eigenschaften 43 zu verbinden. Dieser Wahrnehmungsfaktor erzeugt allein einen überzeugenden Entfernungseffekt durch die Dämpfung des direkten Schalls und seiner primären Reflexionen. Diese Funktionen, die in 1 dargestellt sind, erlauben also, virtuelle Schalltrajektorien in einem beliebigen Raum wiederzugeben.
  • In dieser Steuerungschnittstelle sind die Kontrolle der Richtungslokalisierung der Schallquelle, die die Simulation einer Drehung der Quelle um den Hörer ermöglicht, und die Angabe der Anordnung der Lautsprecher fakultativ.
  • Der Steuerungsbereich 44 für die Ausstrahlung der Quelle ermöglicht, die Ausrichtung und die Richtwirkung der virtuellen Quelle zu regeln. Die Ausrichtung wird durch horizontale und vertikale Rotationswinkel definiert, die ”Drehung” beziehungsweise ”Neigung” genannt werden. Die Richtwirkung wird durch ein ”Achsen-”Spektrum, das den entlang einer Achse der Quelle emittierten Schall darstellt, und durch ein ”Omni-”Spektrum definiert, das den im Mittel in alle Richtungen von der Quelle abgestrahlten Schall darstellt. Diese Parameter beeinflussen direkt die globalen akustischen Eigenschaften, die vom Hörer wahrgenommen werden und müssen daher bewirken, daß die Anzeige der Wahrnehmungsfaktoren des Steuerungsbereichs 43 der akustischen Eigenschaften auf den neuesten Stand gebracht werden.
  • Schließlich erlaubt der Steuerungsbereich 43, der für die Kontrolle der akustischen Eigenschaften vorgesehen ist, in Abhängigkeit von Wahrnehmungsfaktoren die Transformation des von einer virtuellen Schallquelle ausgestrahlten Schallsignals für einen virtuellen Raum. Diese Steuerung umfaßt neun Wahrnehmungsfaktoren. Sechs dieser Faktoren hängen von der Position, der Richtwirkung und der Ausrichtung der Quelle ab: drei dieser Faktoren werden als Eigenschaften der Quelle wahrgenommen und sind die ”Präsenz der Quelle”, die ”Brillanz” und die ”Wärme”, während die anderen drei als mit dem Raum verbunden wahrgenommen werden. Diese sind die ”Präsenz des Raumes”, die ”Einhüllung” und der ”Frühhall”. Die drei letzten Wahrnehmungsfaktoren hängen nur von dem Raum ab und beschreiben die Halldauer in Abhängigkeit von der Frequenz und sind der ”Nachhall”, die ”Lebendigkeit” und die ”Intimität”.
  • Der Nachhall unterscheidet sich von den primären Reflexionen durch die Tatsache, daß er im wesentlichen bei Unterbrechungen der von der Quelle emittierten Schallnachrichten verspürt wird, während die primären. Reflexionen im Gegensatz dazu auch während kontinuierlicher musikalischer Passagen wahrgenommen werden
  • Die Wahrnehmungsfaktoren des Steuerungsbereichs 43 für die akustischen Eigenschalten, die in Wahrnehmungseinheiten auf einem Maßstab ausgedrückt werden, der die typische Empfindlichkeit von Hörern gegenüber Wahrnehmungsfaktoren berücksichtigt, sind auf bekannte Weise mit objektiven, meßbaren Kriterien verbunden. Die nachfolgende Tabelle zeigt die Beziehungen, die zwischen den objektiven Kriterien und den Wahrnehmungsfaktoren, die die akustischen Eigenschaften definieren, bestehen.
    Wahrnehmungsfaktor Bezeichnung Min Max Objektives Bezeichnungskriteriumum Min Max Empfindlichkeit
    – Quellenpräsenz pres 0 120 Es –40 dB 0 dB 4/dB
    – Wärme warm 0 60 Des1 –10 dB 10 dB 3/dB
    – Brillianz bril 0 60 Desh –10 dB 10 dB 3/dB
    – Raumpräsenz prer 0 120 Rev –40 dB 0 dB 3/dB
    – Frühhall revp 0 50 Edt abhängig
    – Einhüllung env 0 50 Rd1 abhängig
    – Nachhall Rev 0 100 Rt 0,1 s 10 s 5/dB s
    – Intimität oder Schwere Heav 0 50 Drt1 0,1 0,1 10 1 2,5/dB 5/dB
    – Lebendigkeit live 0 50 Drth
  • Vorzugsweise umfaßt die Softwareschnittstelle 30, die ein Umwandlung der Wahrnehmungsfaktoren in Energiefaktoren erlaubt, ein Operationsglied 31, das in der Lage ist, diese Umwandlung durchzuführen, und ein Operationsglied 32, das in der Lage ist, eine Kontextkompensation auf solche Weise durchzuführen, daß ein bestehender Raumeffekt berücksichtigt wird.
  • Ein allgemeines Prinzip eines Simulationsverfahrens der akustischen Eigenschaften nach der vorliegenden Erfindung geht von der Annahme aus, daß die Impulsantwort des zu simulierenden akustischen Kanals auf der Wahrnehmungsebene durch die Energieverteilung in Abhängigkeit von der Zeit und der Frequenz gekennzeichnet ist, wobei die Verteilung mit einer Aufteilung in eine bestimmte Anzahl von Zeitabschnitten und in eine bestimmte Anzahl von Frequenzbändern verbunden ist. Dies ist in den 3a und 3b schematisch dargestellt. In der nachfolgenden Beschreibung ist die Anzahl der Zeitabschnitte gleich 4 und die der Frequenzbänder gleich 3. Die Zeitgrenzen sind zum Beispiel gleich 20, 40 und 100 ms (Millisekunden), was zu einer Charakterisierung durch 12 Energiewerte führt. Die drei Frequenzbänder sind zum Beispiel unterhalb von 250 Hz (Hertz) für das mit BF bezeichnete Niederfrequenzband, zwischen 250 Hz und 4000 Hz für das mit MF bezeichnete Mittenfrequenzband und über 4000 Hz für das mit HF bezeichnete Hochfrequenzband. Die diese Frequenzbänder definierenden Werte sind einstellbar, und ein Benutzer kann die Einstellung ändern, um in breiteren oder schmaleren Bändern zu arbeiten.
  • Das zu beschreibende Verfahren besteht darin, die Schallsignale entsprechend dem in 4 gezeigten Organgramm zu bearbeiten. Dieses Verfahren verlangt keine Annahme über den inneren Aufbau des Signalprozessors.
  • Ein erster Verfahrensschritt 100 eines solchen Verfahrens besteht darin, mit Hilfe der Regelungsschnittstelle 40 der oberen Stufe des Prozessors, die Werte der Wahrnehmungsfaktoren, die die zu simulierenden akustischen Eigenschaften 43 definieren, die Parameterwerte, die die Lokalisierung 42 der virtuellen Quelle definieren und die Parameterwerte, die die Ausstrahlung 44, also die Ausrichtung und die Richtwirkung eines von der virtuellen Quelle emittierten Schallsignals definieren, festzulegen.
  • Diese Werte werden anschließend in einem zweiten Verfahrensschritt 140 in auf Zeit und Frequenz aufgeteilte Energiewerte umgewandelt.
  • Ein dritter Verfahrensschritt 150 besteht darin, eine Kontextkompensation auf solche Weise durchzuführen, daß ein Raumeffekt, der in einem beliebigen Hörraum existiert, berücksichtigt wird. Dazu verändert ein Wahrnehmungsoperationsglied, das zum Beispiel von der Softwareschnittstelle 30 des Prozessors gesteuert wird, die in den beiden ersten Verfahrensschritten festgelegten Energiewerte, wobei der Kontext 180, das heißt die reale Akustik des Hörraums und die Positionen, Ausrichtungen und Richtwirkungen der Lautsprecher in demselben, berücksichtigt werden.
  • Der Verfahrensschritt 170 erlaubt einen unmittelbaren Zugriff auf die untere Stufe, indem er direkt die Energiewerte liefert, die die gewünschten akustischen ”Ziel-”Eigen schalten definieren.
  • Schließlich wird in einem letzten Schritt 160 ein künstlicher Hall ausgehend von Elementarsignalen, die aus dem Eingangssignal E in den Prozessor erhalten werden, erzeugt. Dieser Hall wird durch das ”Raum-”Modul 13 des erfindungsgemäßen Prozessors mittels Hallfilter erzeugt, die aus den in der französischen Patentanmeldung FR-A-2 688 371 beschriebenen hergeleitet werden.
  • Vorzugsweise ist die Anzahl der Ausgangssignale des ”Raum-”Moduls, das die Echtzeiterzeugung einer virtuellen Akustik ermöglicht, gleich sieben. Das Wiedergabezwischenformat ist daher kompatibel mit den Stereo-3/2- und Stereo-3/4-Formaten, die in den 11e und 11f dargestellt sind. Das den direkten Schall darstellende Signal wird auf einem zentralen Kanal C übertragen, die die Primärreflexionen darstellenden Signale werden auf den Seitenkanälen L und R übertragen und die die Sekundärreflexionen und den Nachhall darstellenden Signale werden auf den Kanälen S1, S2, S3 und S4 übertragen.
  • Außerdem werden in dem Verfahrensschritt 190 die den Aufbau des Wiedergabesystems definierenden Parameter direkt zum ”Pan-”Modul 13 des erfindungsgemäßen Prozessors übertragen, um die Verteilung der Signale in einer Wiedergabevorrichtung zum Beispiel auf Lautsprecher zu organisieren.
  • Das Organgramm der 5 erlaubt ein besseres Verständnis der verschiedenen Verfahrensschritte eines solchen Verfahrens.
  • Die neun Wahrnehmungsfaktoren und der Abstand zwischen der virtuellen Quelle und einem Hörer, wenn dieser Abstand mit einem Faktor ”Präsenz der Quelle” verbunden ist, werden in dem Verfahrensschritt 141 in Energiewerte der drei Frequenzbänder umgewandelt. Diese Energiewerte, die auch in 3a dargestellt sind, entsprechen dem direkten Schall OD, der von der virtuellen Quelle zum Hörer emittiert wird, den Primärreflexionen R1 und der Gesamtheit der Sekundärreflexionen R2 und des Nachhalls R3.
  • Ausgehend von der Ausrichtung und der Richtwirkung der im Verfahrensschritt 100 definierten Quelle werden mit Hilfe des Ausstrahlungssteuerungsbereichs 44 im Verfahrensschritt 142 das ”Vorderseiten-”Spektrum und das ”Omni-”Spektrum berechnet. Das ”Vorderseiten-”Spektrum berücksichtigt den direkten ”Achsen-”Schalls und den Dreh- und Neigungswinkel und definiert das Spektrum des direkten, von der Quelle zum Hörer emittierten Schalls. Das ”Omni-”Spektrum ist gleich dem ”Omni-”Parameter des Ausstrahlungssteuerungsbereichs 44 und entspricht dem von der Quelle in alle Richtungen ausgestrahlten, diffusen Schall.
  • Die Energiewerte werden dann in Schritt 143 in den drei Frequenzbändern unter Berücksichtigung des ”Vorderseiten-”Spektrum und des ”Omni-”Spektrums berechnet. Dazu wird der den direkten Schall OD darstellende Energiewert mit dem ”Vorderseiten-” Spektrum multipliziert, während die die primären Reflexionen R1, die sekundären Reflexionen R2 und den Nachhall R3 darstellenden Energiewerte mit dem ”Omni-”Spektrum multipliziert werden.
  • Diese drei Berechnungsschritt werden in einem Wahrnehmungsoperationsglied 140 ausgeführt, das sich zum Beispiel in der Softwareschnittstelle 30 des Prozessors befindet.
  • Die Umwandlung von objektiv meßbaren Kriterien in Energiewerte erfolgt mittels nachfolgend beschriebener Formeln.
  • Es wird angenommen, daß die mit OD, R1, R2, R3 bezeichneten Energien und die Nachhallzeit Rt in den mittleren Frequenzen ausgedrückt werden. Im gegenteiligen Fall werden die Indizes ”HF” und ”BF” verwendet. Alle Energien werden in linearen Maßstäben ausgedrückt und die Dauer wird in Sekunden ausgedrückt. Die Zeitgrenzen sollen gleich 0, 20 ms, 40 ms und 100 ms sein.
  • Die Formeln sind folgende: R3 = [–C + √[C2 + 0.5·Rev/Es·(1 – C)2]]·4·Es/(1 – C)2 falls Rev/Es ≤ 2·(1 + C)/(1 – C)mit C = 10(1.2/Rt),
    sonst R3 = Rev + 2·Es; R₂ = –Es + R3·[10[1.5·(1+(0.4-Edt)/Rt)] – 1]falls Edt > 0.4,sonst R2 = –Es + R3·[10(0.6/Edt) – 1]; R1 = (Es·Rd1 – 0.05·R2)/0.3falls Rd1 kontrolliert wird, R1 = Es – (Es + 3·R2)/(1 + 2·Rd2)falls Rd2 kontrolliert wird. OD = Es + R1, ODBF = Des1·OD, ODHF = Desh·OD, RtBF = Drt1·Rt, RtHF = Drth·Rt.
  • Für Edt, Rd1 und Rd2 sind jedoch Randbedingungen erforderlich, um sicherzustellen, daß die Werte von R2, R1 und OD immer positiv sind. So ist der Maximalwert für Rd1 zum Beispiel beschränkt, um zu vermeiden, daß OD null wird, da der direkte Schall die zeitliche Referenz bildet, auf der die Definition aller Kriterien beruht. Diese Randbedingungen sind die folgenden: Edtmin = 0.4 + Rt·[1 – 0.667·log10(1 + 2·Es/R3)]falls 2·Es/R3 ≤ 30.662,sonst Edtmin = 0.6/log10(1 + 2·Es/R3); Rd2min = 1.5·R2/Es, Rd2max = 0.5 + 3·R2/Es, Rd1min = 0.05·R2/Es, Rd1max = 0.3 + 0.05·R2/Es.
  • Wie zuvor beschrieben wurde, sind die Wahrnehmungsfaktoren mit objektiven Kriterien verbunden, auch wenn sie leicht in Energien umwandelbar sind.
  • Die Gesamtzahl der Energiewerte ist gleich fünfzehn, da es zwölf Werte gibt, die OD, R1, R2, R3 in den drei Frequenzbändern entsprechen, und drei Werte gibt, die den Hallzeiten Rt in den drei Frequenzbändern entsprechen.
  • Am Ausgang des Wahrnehmungsoperators 140 werden die Energien zu einem weiteren Operator 150 geführt, der die Berechnung der Kontextkompensation ermöglicht, so daß die Werte von OD, R1, R2, R3 in den verschiedenen Frequenzbändern modifiziert werden. Schließlich werden die in dem Operator berechneten Daten zum ”Raum-”Modul 12 der Schallbearbeitung geführt, um eine Simulation des Raumeffekts durchzuführen.
  • Die Kontextkompensation besteht darin, die Energiewerte, die eine akustische Simulation ermöglichen, zu modifizieren, wobei drei Typen von Nachrichten berücksichtigt werden, die Daten enthalten, die geeignet sind, das Kompensationverfahren zuaktivieren. Diese Nachrichten sind der ”Kontext” 180, das ”Ziel” 170 und das Maß”Live” 181.
  • Der ”Kontext” wird aus den bestehenden akustischen Eigenschaften, die zum Zeitpunkt der Referenzanhörung, die von jedem Lautsprecher durchgeführt wird, in dem Hörraum, in dem man eine Akustik simulieren möchte, hergeleitet. Die ”Ziel-”Eigenschaft beschreibt die akustischen Eigenschaften, die in diesem Hörraum wiederzugeben sind. Sie wird entweder aus den Werten der Wahrnehmungsfaktoren und den Lokalisierungspara metern, die während des ersten Verfahrensschrittes festgelegt werden, abgeleitet oder direkt an den Kontextkompensationsoperator 150 angelegt. Schließlich wird das Maß ”Live” in dem Fall berücksichtigt, in dem das Eingangssignal E des virtuellen Akustikprozessors, von einem Mikrophon erzeugt wird, das eine ”Live-”Quelle aufnimmt, um die akustischen Eigenschaften zu beschreiben, die von dieser Quelle in dem Hörraum, der am Referenzhörpunkt ausgemessen wird, natürlich erzeugt werden.
  • Für einen auf diesem Referenzpunkt befindlichen Hörer werden dann die natürlichen akustischen Eigenschaften der ”Live-”Quelle in dem Hörraum den künstlichen, von dem Prozessor simulierten akustischen Eigenschaften überlagert.
  • Der Empfang einer akustischen ”Ziel-”Eigenschaft, das heißt einer zu simulierenden akustischen Eigenschaft, führt zu ihrer Anzeige auf dem graphischen Kontrollbildschirm, der mit der Regelungsschnittstelle 40 des Prozessors verbunden ist, und zur Berechnung einer Kontextkompensation durch den Operator 150, wobei die Maße ”Kontext” und ”Live” berücksichtigt werden.
  • Der Kompensationsvorgang geht automatisch in Echtzeit vonstatten und läuft auf eine Entfaltung der akustischen ”Ziel-”Eigenschaft vermindert um das Maß ”Live” von dem Maß ”Kontext” hinaus, so daß die geeigneten Energiewerte berechnet werden, um die gewünschte akustische ”Ziel-”Eigenschaft zu erhalten. Die akustischen ”Ziel-”Eigenschaften werden durch die Regelungsschnittstelle 40 der oberen Stufe des Prozessors oder durch die ”Ziel-”Steuerung 170 einer zweiten Regelungsschnittstelle, die in der unteren Stufe arbeitet und Daten in der Form von Energiewerten liefert, definiert.
  • Das Prinzip der Kontextkompensation beruht auf der Tatsache, daß die Ausgangssignale des virtuellen Akustikprozessors in N Komponenten unterteilt sind, die von N Gruppen von verschiedenen Lautsprechern wiedergegeben werden und mit N Zeitabschnitten des Raumeffekts verbunden sind. In der nachfolgenden Beschreibung wird N gleich 3 Gruppen gesetzt: die ”zentrale” Gruppe, die ”seitliche” Gruppe und die ”diffuse” Gruppe. Diese Gruppen werden definiert, um den direkten Schall (CD), die primären Reflexionen (R1) und die Gesamtheit der sekundären Reflexionen (R2) und des Nachhalls (R3) wiederzugeben. In dem Prozessor nach der vorliegenden Erfindung hängt die Zuordnung der einzelnen Lautsprecher zu jeder dieser drei Gruppen von der Geometrie der Lautsprecheranordnung, also von den Parametern des Konfigurationsmoduls 41, und von der Lokalisierungsrichtung der virtuellen Schallquelle ab. Diese Zuordnung erfolgt in zwei Schritten, wobei von dem Stereo-3/4-Zwischenformat am Ausgang des ”Raum-”Moduls, wo diese drei Gruppen getrennt werden, ausgegangen wird: es gibt einen ”zentralen” Kanal, zwei ”seitliche” Kanäle und vier ”diffuse” Kanäle.
  • Wenn man eine Hörsitzung mit sieben Lautsprecher ohne den ”Pan-”Modul durchführt, wie in der 11f gezeigt, sind die drei Kontextmaße wie folgt definiert:
    • – das ”zentrale Kontext-”Maß ist gleich der akustischen Eigenschaft, die von dem vorderen Lautsprecher, der mit ”C” bezeichnet ist, bezogen auf die Referenzhörposition erzeugt wird,
    • – das ”seitliche Kontext-” Maß ist gleich dem Mittel, das von den rechten und linken Lautsprechern, die mit ”R” und ”L” bezeichnet sind, erzeugt wird,
    • – das ”diffuse Kontext-”Maß ist gleich dem Mittel, das von den seitlichen, hinteren Lautsprechern, die mit ”S1”, ”S2”, ”S3” und ”S4” bezeichnet sind, erzeugt wird, wobei ”Maß” ein n-tuplet von Energien OD, R1, R2, R3 genannt wird, die in drei Frequenzbändern gemessen werden, wenn einer der Lautsprecher eine Impulsanregung erhält. In dem Beispiel ist n gleich 3·4 = 12 Energiewerte. Bei diesen Maßen nimmt man an, daß die spektralen und zeitlichen Korrekturen, die von dem ”Ausgangs-”Modul durchgeführt werden, erfolgt sind. Diese Korrekturen umfassen die zeitlichen Verzögerungen und die spektralen Korrekturen, die notwendig sind, um sicherzustellen, daß an der Referenzhörpo sition der Moment der Ankunft sowie die Frequenzzusammensetzung des direkten Schalls für alle Lautsprecher dieselben sind. Diese Korrektur ermöglicht es, zu vermeiden, daß der Hörer bei Bewegungen der Schallquelle eine Intensitäts- oder Klangfarbenänderung wahrnehmen kann, die die Anwesenheit der Lautsprecher wahrnehmbar machen.
  • Wenn der ”Pan-”Modul verwendet wird, bestimmt er, welchen Lautsprechern oder Lautsprechergruppen diese drei Bestandteile zugeordnet werden. Die ”diffuse” Gruppe bleibt unabhängig von der Position der virtuellen Quelle definiert, aber die ”zentrale” Gruppe und die ”seitliche” Gruppe ändern sich in Abhängigkeit von der Regelung der Lokalisierungsrichtung der virtuellen Quelle auf solche Weise, daß sie eine Drehung der Quelle wiedergeben. Die Berechnung der drei Kontextmaße erfordert also die Kenntnis der Versorgungsverstärkungen jedes Lautsprechers für jeden der Ausgangskanäle des ”Raum-” Moduls, wobei diese Verstärkungen Koeffizienten sind, die in einer Matrix des ”Pan-”Moduls definiert sind. Die Berechnung kann jedesmal, wenn diese Verstärkungen geändert werden, durch einen Rotationsbefehl für die virtuelle Schallquelle dynamisch erneuert werden. Dazu müssen Referenzmaße für jeden Lautsprecher gespeichert werden.
  • In einer Ausführungsvariante kann man alternativ diese dynamische Erneuerung des ”zentralen” Kontexts und des ”seitlichen” Kontexts nicht durchführen, sondern diese Werte ein für allemal ausrechnen, wenn die virtuelle Schallquelle zum Beispiel gegenüber dem Hörer angeordnet ist. Folglich ist bei einer Vorrichtung mit vier Lautsprechern, wie sie in 11d dargestellt ist, und unter der Annahme einer vorderer Schallquelle der ”zentrale Kontext” gleich dem ”seitlichen Kontext” und entspricht dem Mittel der von den vorderen linken und rechten Lautsprechern erzeugen Maße, während der ”diffuse Kontext” gleich dem Mittel der von den vier Lautsprechern erzeugten Maßen ist.
  • Um die Energiewerte in dem Prozessor zu ändern, um gewünschte akustische Eigenschaften genau wiederzugeben, ohne daß diese durch die realen akustischen Eigen schalten des Hörraums gestört wurden, muß man von den Energiewerten des ”Ziel-”Maßes die Energiewerte des ”Live-”Maßes abziehen.
  • Es gibt aber noch eine zusätzliche Bedingung für eine perfekte Kontextkompensation: die akustischen Eigenschaften des ”Ziel-”Maßes 170 müssen halliger sein als die des ”Kontext-”Maßes 180.
  • Um die Formeln zu erhalten, die die Veränderung der Energiewerte in dem Prozessor ermöglichen, ist es möglich, eine Energiebilanz durchzuführen, wie sie schematisch in 6 gezeigt ist.
  • Mit Hilfe dieser Energiebilanz kann man jeden veränderten Energiewert in den drei Frequenzbändern berechnen, um akustische Eigenschaften zu simulieren, die genau den akustischen ”Ziel-”Eigenschaften entsprechen, wie sie vom Hörer wahrgenommen werden sollen. Ausgehend von dieser Bilanz stellt man fest, daß die Energiewerte des ”Ziel-”Maßes ein Faltungsprodukt der ”Kontext-”Energien mit den geänderten Energien in dem Prozessor darstellen. Daher muß man, um die geänderten Energiewerte zu erhalten, eine Umkehroperation entsprechend einem Entfaltungsvorgang eines Echogramms mit einem anderen durchführen, man muß also eine Entfaltung der akustischen ”Ziel-”Eigenschaften von den akustischen ”Kontext-”Eigenschaften durchführen. Im vorliegenden Fall werden bei der Wiedergabe einer ”Live-”Quelle die akustischen ”Ziel-”Eigenschaften zuvor um die akustischen Eigenschaften des ”Live-”Maßes vermindert.
  • Die Energiebilanz, wie sie in 6 gezeigt ist, beruht auf bestimmten Annahmen. Diese Annahmen sind die folgenden: die Energie OD soll zum Beispiel zwischen 0 und 5 ms konzentriert sein, und die ”Ziel-”, ”Kontext-” und ”Live-”Verteilungen sollen mit denselben zeitlichen und Frequenzgrenzen ausgedrückt sein. Die nachfolgenden Gleichungen (1) bis (4) wurden für die zeitlichen Grenzen 20, 40 und 100 ms aufgestellt, wobei diese Gleichungen gültig bleiben, wenn diese Grenzen kongruent geändert werden und zum Beispiel auf 10, 20 und 50 ms festgelegt werden.
  • Die Energiebilanz erlaubt also, in den drei Frequenzbändern die folgenden Ausdrücke für die Energien der akustischen ”Ziel-”Eigenschaften zu erhalten: ODZiel = ODLive + ODZentral·OD (1) R1Ziel = R1Live + OD·R1zentral + (7/8)·R1·Odseitlich (2), R2Ziel = R2Live + OD·R2zentral + R1·(ODseitlich/8 + R1seitlich + R2seitlich/2) + R2·(ODdiffus·(23/24) + R1diffus/2 + R2diffus/18) (3) R3Ziel = R3Live + OD·R3zentral + R1·(R2seitlich/2 + R3seitlich) + R2·(ODdiffus/24 + R1diffus/2 + R2diffus·(17/18) + R3diffus) + R3·(ODdiffus + R1diffus + R2diffus + R3diffus) (4)
  • Die Abkürzungen zentral, seitlich und diffus entsprechen den Parametern ”zentraler Kontext”, ”seitlicher Kontext” und ”diffuser Kontext” des Kontexts 180.
  • Aus diesen Ausdrücke werden die modifizierten Werte OD, R1, R2, R3 für die drei Frequenzbänder, die eine exakte Wiedergabe eines Raumeffekts bei einer Minimierung der durch reale Akustik eines Hörraums erzeugten Störung ermöglichen, extrahiert und erlauben die folgenden Beziehungen aufzustellen: OD = (ODZiel – ODLive)/ODzentral (5) R1 – {R1Ziel – [R1Live + R1zentral·OD]}·(8/7)/ODseitlich (6) R2 = {R2Ziel – [R2Live + R2zentral·OD +R1·(ODseitlich/8 + R1seitlich + R2seitlich/2)]}/[(23/24)·ODdiffus + R1diffus/2 + R2diffus/18] (7) R3 = {R3Ziel – [R3Live + R3zentral·OD + R1·(R2seitlich/2 + R3seitlich) + R2·(ODdiffus/24 + R1diffus/2 + (17/18)·R2diffus + R3diffus)]}/(ODdiffus + R1diffus + R2diffus + R3diffus) (8)
  • Die Werte der Hallzeit Rt bleiben in den drei Frequenzbändern unverändert, sie werden nicht von der Kontextkompensation beeinflußt.
  • Wenn die akustischen ”Ziel-”Eigenschaften global weniger hallig sind als die ”Kontext-” und ”Live-”Eigenschaften, können die Gleichungen (5) bis (8) zu negativen Werten für die Größen OD, R1, R2, R3 führen. In diesem Fall werden diese Werte auf null begrenzt, da sie Energien angeben. Die nachfolgenden Berechnungen werden mit diesen begrenzten Werten durchgeführt, und der Benutzer wird auf die Unmöglichkeit einer perfekten Ausführung der akustischen ”Ziel-”Eigenschaften hingewiesen.
  • Die 7, 8, 9 und 10 zeigen die Art und Weise, auf die der ”Quell-”Modul 11, der ”Raum-”Modul 12, der ”Pan-”Modul 13 und der ”Ausgangs-”Modul 14 des virtuellen Akustikprozessors, die die Durchführung des Verfahrens nach der vorliegenden ermöglichen, die Schallsignale ausgehend von der Daten, die von der Regelungsschnittstelle 40 und von dem Kompensationsoperator 150 geliefert werden, bearbeiten.
  • 7 zeigt ein elektronisches Schema eines ”Quell-”Moduls zur Schallbehandlung. Dieser Modul ist nicht notwendig sondern optional. Er erhält wenigstens ein Eingangssignal E und hat zur Aufgabe, dem ”Raum-”Modul zwei Signale zu liefern, die die virtuelle Schallquelle darstellen: das ”Vorderseiten-”Signal, das die akustische Information angibt, die von der Quelle in Richtung des Hörers abgestrahlt wird und das in dem ”Raum-”Modul zur Wiedergabe des direkten Schalls verwendet wird, und das ”Omni-”Signal, das die mittlere, von der Quelle entlang aller Richtungen abgestrahlte akustische Information angibt und das in dem ”Raum-”Modul verwendet wird, um ein künstliches Hallsystem zu versorgen.
  • Dieser ”Quell-”Modul erlaubt, eine ”Vorverzögerung”, also eine Laufzeitverzögerung τms 61, ausgedrückt in Millisekunden, einzuführen, der proportional dem Abstand zwischen der virtuellen Quelle und dem Hörer ist und die durch die folgende Formel ausgedrückt wird: τ(ms) = Abstand(m)·3(ms/m).
  • Diese Vorverzögerung ist nützlich, um zeitliche Verzögerungen zwischen Signalen von verschiedenen Quellen, die sich in unterschiedlichen Abständen befinden, wiederherzustellen. Eine kontinuierliche Veränderung dieser Vorverzögerung erzeugt eine natürliche Wiedergabe des Dopplereffekts, der aus der Bewegung einer Schallquelle entsteht. Dieser Effekt beeinflußt das ”Vorderseiten-” und das ”Omni-”Signal. Jedoch ist es in einer Ausführungsvariante möglich, in einem der beiden Signale den Verzögerungseffekt auch ohne Dopplereffekt wiederzugeben oder nur den Dopplereffekt wiederzugeben.
  • In bestimmten Fällen kann der ”Quell-”Modul andere Vorbearbeitungen umfassen. So ist zum Beispiel in 7 eine Spektralkorrektur 62 dargestellt, die ein Tiefpaßfilter verwendet. Diese Korrektur erlaubt vorteilhafterweise den Effekt der Luftabsorption wiederzugeben. Sie wird in Abhängigkeit von der Frequenz in Dezibel pro Meter (dB/m) ange geben und wird durch folgende Formel gegeben: G(f) = 0.074·f2/H, wobei die Frequenz f in kHz (Kilohertz) ausgedrückt wird und H die relative Luftfeuchtigkeit in % ist. Wenn man annimmt, daß H gleich 74% ist, erhält man aus dieser Gleichung:
    G(f) = f2/1000, was heißt, daß G gleich 0.1 dB/m bei 10 kHz ist.
  • Es kann nützlich sein, abhängig von der Technik der Tonaufnahme oder der Synthese, die zur Erzeugung des Eingangssignals E verwendet wird, zwei zusätzliche spektrale Korrekturen auf dieses Signal anzuwenden, bevor das Vorderseiten- und das Omnisignal an den ”Raum-”Modul angelegt werden. Dies ist durch die Ausgleichsfilter 63 und 64 der 7 dargestellt.
  • Entsprechend einer weiteren Ausführungsvariante können die zusätzlichen spektralen Korrekturen, die in diesem Modul durchgeführt werden, auch in dem ”Raum-”Modul integriert sein. Außerdem kann die variable Verzögerungsleitung 61, die die Wiedergabe des Dopplereffekts ermöglicht, und das Filter 62, das die Luftabsorption simuliert, in dem ”Raum-”Modul integriert sein. Diese Korrekturen werden aus praktischen Überlegungen den einzelnen Modulen zugewiesen.
  • 8 zeigt ein Beispiel der Art und Weise, mit der der ”Raum-”Modul die ”Vorderseiten-” und ”Omni-”Signale, die vom ”Quell-”Modul herkommen, ausgehend von den von dem automatischen Kompensationsoperator 150 erzeugten Daten im Hinblick auf eine Mehrkanalwiedergabe auf fünf oder sieben Lautsprechern bearbeitet.
  • Der ”Raum-”Modul erlaubt somit, unterschiedliche Verzögerungen in den Elementarsignalen zu erzeugen, um einen Raumeffekt zu erzeugen und seine Kontrolle in Echtzeit zu ermöglichen. Der Modul weist zwei Eingänge und sieben Ausgänge auf. Die Eingangssignale, die von dem ”Quell-”Modul herkommen, sind das ”Vorderseiten-”Signal und das ”Omni-”Signal. Die sieben Ausgangssignale entsprechen dem Standard-Stereo- 3/4-Format, das drei vordere Kanäle mit vier ”Umgebungs-”Kanälen verbindet.
  • Zwei Hauptausgleichsfilter 710 und 720 erlauben, die Abstrahlungseigenschaften der Quelle zu berücksichtigen. Die von diesen beiden Filtern erzeugten Signale werden ”direkt” für den direkten Schall und ”Raum” für den diffusen Schall, der im Mittel in den gesamten Raum abgestrahlt wird, bezeichnet. Die Richtwirkung der natürlichen Schallquellen hängt in der Tat stark von der Frequenz ab. Das muß bei der natürlichen Wiedergabe der von einer Schallquelle in einem Raum erzeugten akustischen Eigenschaften berücksichtigt werden.
  • In dem Fall, in dem der Schall von einer natürlichen Quelle erzeugt wird, die zum Beispiel zum Hörer gerichtet ist, muß das Ausgleichsfilter 720 des ”Raum-”Signals in hohe Frequenzen abschneiden während das Ausgleichsfilter 710 des direkten Signals diese nicht abschneidet. In der Tat besitzen die natürlichen Quellen in den hohen Frequenzen eine viel größere Richtwirkung, während sie in den niedrigen Frequenzen dazu neigen, omnidirektional zu werden.
  • Dieser Effekt wird auf natürliche Weise Dank des Wahrnehmungsoperators 140 erhalten, denn die Filter 710 und 720 werden durch die Energien OD beziehungsweise R3 in den drei Frequenzbändern gesteuert.
  • Das Signal, das den direkten Schall darstellt, wird somit durch die Parameter ”Achse” und ”Brillanz” beeinflußt und verläßt den ”Raum-”Modul nach einer Filterung durch das digitale Ausgleichsfilter 710 über den zentralen Kanal ”C”.
  • Das ”Raum-”Signal seinerseits wird in eine Verzögerungsleitung (t1 bis tN) 731 eingegeben. Diese Verzögerungsleitung 731 erlaubt, in der Zeit versetzte Elementarsignale zu erzeugen, die eine Mehrzahl von Vorechos bilden, die Kopien des Eingangs-”Raum-”Signals sind. In dem in 6 dargestellten Beispiel umfaßt die Verzögerungsleitung 731 acht Ausgangskanäle. Natürlich kann diese Leitung mehr oder weniger Ausgangskanäle aufweisen, aber die Anzahl N der Kanäle ist vorzugsweise gerade.
  • Die acht Ausgangssignale erfahren anschließend eine gewichtete Summierung durch einstellbare Verstärkungen b1 bis bN 732 und werden in zwei Gruppen unterteilt, die die linken Primärreflexionen beziehungsweise die rechten Primärreflexionen darstellen. Ein digitales Ausgleichsfilter 733 erlaubt die Durchführung einer spektralen Korrektor der beiden die Primärreflexionen darstellenden Signale, die dann die seitlichen Kanäle L und R der Wiedergabevorrichtung versorgen. Die Signale L und R ermöglichen also eine Wiedergabe des von den seitlichen, neben dem zentralen Lautsprecher angeordneten Lautsprechern herkommenden Schalls, wie es in den 11e und 11f dargestellt ist.
  • Die Gesamtheit der 8 Elementarsignale, die von der Verzögerungsleitung 731 erzeugt werden, werden auf der anderen Seite in eine unitäre Mischmatrix 741 eingegeben, an deren Ausgang eine Verzögerungsbank 742 angeordnet ist. Die elementaren Verzögerungen (τ'1 bis τ'N) sind alle voneinander unabhängig. Die acht Ausgangssignale erfahren anschließend Summierugen und werden in vier Gruppen zu zwei Signalen aufgeteilt, die ein digitales Ausgleichsfilter 743 versorgen. Dieses Filter 743 ermöglicht, eine spektrale Korrektur der vier Signale durchzuführen, die die sekundären Reflexionen darstellen. Die von dem Filter 743 erhaltenen vier Signale bilden die sekundären Reflexionen R2 und versorgen die Kanäle S1, S2, S3 und S4.
  • Schließlich werden die acht von dieser Verzögerungsbank 742 erhaltenen Elementarsignale auf der anderen Seite in eine unitäre Mischmatrix 744 und dann in absorbierende Verzögerungsbänke 7451 bis τN) eingegeben und werden in die unitäre Mischmatrix 744 rückgekoppelt, um einen Nachhall zu erzeugen. Die acht Ausgangssignale werden zweierweise summiert, um eine Gruppe von vier Signalen zu bilden. Diese vier Signale werden dann von einem Verstärker 746 mit einstellbarer Verstärkung verstärkt. Die von diesem Verstärker 746 erhaltenen vier Signale bilden den Nachhall R3.
  • Die vier die sekundären Reflexionen R2 bildenden Signale werden dann in einer unitären Matrix 750 zu den vier den Nachhall bildenden Signalen R3 addiert. Diese unitäre Matrix 750 umfaßt vorzugsweise vier Ausgangskanäle, die mit den Kanälen S1, S2, S3, S4 des ”Raum-”Moduls verbunden sind. Die Ausgangssignale S1 bis SS4 stellen den diffusen Schall dar, der von allen Richtung kommt und den Hörer umgibt.
  • Eine Variante besteht darin, ein Filter hinzuzufügen, das eine spektrale Korrektur der dem Nachhall entsprechenden Signale durchführt. Jedoch ist dieses Filter fakultativ, da der spektrale Gehalt des Nachhalls schon durch das Filter 720 des ”Raum-”Signals bestimmt wird.
  • Die Energieverstärkungen am Ausgang des ”Raum-”Moduls der verschiedenen Signale, die den Energien OD, R1, R2, R3 entsprechen, können dann mittels folgender Ausdrücke bestimmt werden: G(OD) = OD; G(R1) = R1/N; G(R2) = R2/N; G(R3) = R3·(1/K – 1/N)wobei
    Figure 00340001
  • K erlaubt, die Energie R3 des Nachhalls unabhängig von der Nachhallzeit Rt und der Dauer der absorbierenden Verzögerungen τi zu erhalten.
  • Diese Formeln ermöglichen, die Filter 710, 733, 743 und die Verstärkung 74 in den mittleren Frequenzen zu regeln, während die Verstärkung des Filters 710 in diesen Frequenzen bei 1 belassen wird. Im Gegensatz dazu wird die für die Energie R3 notwendige spektrale Korrektur in den hohen und tiefen Frequenzen durch das Filter 720 durchgeführt, das sich vor den Filtern 733 und 743 befindet. Folglich müssen die durch die beiden Filter 733 und 743 durchgeführten Korrekturen relativ zu dem Filter 720 bestimmt werden, um die gewünschte Verteilung der Energie R1 und R2 in den drei Frequenzbändern zu erhal ten.
  • Das Prinzip der Simulation der Vorechos und des Nachhalls und ein ähnliches Sy stem für künstlichen Nachhall sind schon aus der französischen Patentanmeldung Nr. 92 02528 bekannt und dort beschrieben.
  • In diesem Stadium des Verfahrens ist das Zwischenwiedergabeformat mit sieben Ausgartgskenälen des ”Raum-”Moduls, das einen künstlichen Hall ermöglicht, insofern interessant, als es ein direktes Hören mittels einer ”Stereo-3/2-” oder ”Stereo-3/4-”Vorrichtung ermöglicht, bei dem die drei vordere. Kanäle und zwei beziehungsweise vier ”Umgebungs-”Kanäle bezogen auf die Referenzhörposition miteinander verbunden sind. Die sieben Signale C, L, R, S1, S2, S3 und S4 des ”Raum-”Moduls werden dann zum ”Pan-”Modul übertragen, der eine Matrix mit sieben Eingängen und p, der Hörvorrichtung entsprechenden Ausgängen ist.
  • Der ”Pan-”Modul, der in 9 dargestellt ist, erlaubt insbesondere, eine kontinuierliche Kontrolle der scheinbaren Position der Schallquelle bezüglich des Hörers durchzuführen. Allgemeiner gesagt kann man diesen Modul als Transformationsmatrix betrachten, die ein Signal mit dem Stereo-3/2- oder dem Stereo-3/4-Format empfangen kann und es in einen anderen Wiedergabemodus, das heißt entweder in den Binauralmodus, den Transauralmodus, den Stereomodus oder in den Mehrkanalmodus, umwandeln kann.
  • Der ”Pan-”Modul enthält in Realität drei Panoramapotentiometer 811, 812 und 813, die mit einer gemeinsamen Richtungssteuerung verbunden sind, um die Einfallsrichtung der mit den Kanälen L und R verbundenen Primärreflexionen bezüglich des direkten Schalls festzulegen. Diese Ausführungsform kann auf eine beliebige Wiedergabevorrichtung über Lautsprecher oder Kopfhörer angewendet werden und führt eine Formatum-Wandlung ausgehend von dem Zwischenformat Standard-Stereo-3/2 oder Standard-Stereo- 3/4 durch, wobei immer die direkte Kontrolle der scheinbaren Lokalisierungsrichtung der Quelle ermöglicht ist.
  • In dem von Beginn dieser Beschreibung an gewählten Beispiel ist der Wiedergabemodus ein Mehrkanalmodus auf acht Lautsprechern. Folglich besitzt der ”Pan-”Modul acht Ausgänge. Wenn der Wiedergabemodus über vier Lautsprecher erfolgt, besitzt der ”Pan-”Modul vier Ausgänge.
  • Der ”Pan-”Modul ist also in der Lage, virtuell den direkten Schall C und den von den Seiten L, R kommenden, seitlichen Schall zu drehen, wobei die Signale S1 bis S4, die den diffusen Schall darstellen, also die sekundären Reflexionen und der Nachhall, konstant gehalten werden. Dazu ermöglicht eine Matrix 810 die Umwandlung der Signale S1 bis S4 in acht Signale, während die drei anderen Signale C, L und R von den drei Panoramaputentiometern 811, 812 und 813 bearbeitet werden. Die Matrix 810 besitzt acht Ausgangskanäle. Weiterhin werden die acht Ausgangssignale jedes der Potentiometer 811,812 und 813 des ”Pan-”Moduls zu den acht Ausgangssignalen dieser Matrix addiert.
  • Um die Arbeitsweise dieses Moduls zu verstehen, betrachte man das Beispiel einer Wiedergabe über vier Lautsprecher. In diesem Fall werden der direkte Schall C und der von den Seiten kommende Schall L und R zum Beispiel von den beiden vor dem Hörer angeordneten Lautsprechern wiedergegeben, während die anderen Signale S1 bis S4, die den diffusen Schall (R2 + R3) wiedergeben, von den vier, den Hörer umgebenden Lautsprechern wiedergeben werden. Wenn sich der direkte Schall C dreht, drehen sich die Signale L und R mit diesem, während die Signale S1 bis S4 fest bleiben. Auf diese Weise werden, wenn man den direkten Schall C nach rechts drehen möchte, die Signale C, L und R auf den beiden rechts vom Hörer befindlichen Lautsprechern wiedergegeben, während die Signale S1 bis S4 immer noch von den vier ihn umgebenden Lautsprechern wiedergegeben werden. Ausgehend von dieser Darstellung wird der Kontext durchgeführt.
  • 10 stellt die Art und Weise dar, in der der ”Ausgangs-”Modul, der vorkonfiguriert ist, die von dem ”Pan-”Modul herkommenden Signale bearbeitet. Der ”Ausgangs-”Modul erlaubt, den Frequenzresponse jeder der Lautsprecher getrennt auszugleichen und die Laufzeitdifferenzen des Signals zu kompensieren. Die zeitlichen Verschiebungen 910 hangen von der Geometrie der Lautsprecheranordnung ab. Die spektrale Korrektur mittels Filter 911 muß so durchgeführt werden, daß alle Lautsprecher an der Referenzhörposition so vernommen werden, als befänden sie sich im selben Abstand vom Hörer und besäßen im wesentlichen denselben Frequenzresponse.

Claims (12)

  1. Verfahren zur Erzeugung wenigstens eines Tonsignals, ausgehend von wenigstens einem Eingangssignal (E), das von einer oder mehreren Ursprungsschallquellen erhalten wird, so dass das erzeugte Signal die akustischen Eigenschaften eines virtuellen Raumes und die Lokalisierung einer virtuellen Schallquelle bezüglich eines oder mehrerer Hörer simuliert, dadurch gekennzeichnet, dass das Verfahren folgende Schritte umfasst: 1 – Festlegen (100) von Wahrnehmungsfaktoren wie Präsenz, Frühhall, Einhüllung, Nachhall, Lebendigkeit oder Intimität des virtuellen Raumes und von Parameterwerten für die Lokalisierung mit Hilfe einer gemeinsamen Regelungsschnittstelle, wobei die Wahrnehmungsfaktoren die akustischen Eigenschaften des virtuellen Raumes bezüglich der Wahrnehmung eines Hörers definieren und die Parameterwerte für die Lokalisierung die Lokalisierung (110) der virtuellen Schallquelle bezüglich eines oder mehrerer Hörer definieren, 2 – Umwandeln (140) der Wahrnehmungsfaktorwerte und der Parameterwerte für die Lokalisierung in Energiewerte, die als Funktion der Zeit und der Frequenz eine Impulsantwort definieren, 3 – Durchführen einer Kontextkompensation (150) durch Modifikation der Energiewerte als Funktion eines existierenden Raumeffektes, 4 – Erzeugung mindestens eines Signals in Echtzeit, als Funktion der modifizierten Energiewerte, zum Erzeugen eines künstlichen Halls (160), ausgehend von Elementarsignalen, die von dem Eingangssignal (E) erhalten werden.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß der erste Verfahrensschritt außerdem darin besteht, Parameterwerte, die die Ausrichtung und die Richtwirkung (130) eines von der virtuellen Schallquelle emittierten Schallsignals definieren, festzulegen.
  3. Verfahren nach einem der Ansprüche 1 oder 2, dadurch gekennzeichnet, daß die Kontextkompensation darin besteht, die Energiewerte, die die Simulation einer Akustik erlauben, zu modifizieren, wobei drei Typen von Nachrichten, nämlich der ”Kontext” (180), das ”Ziel” (170) und das Maß ”live” (181), berücksichtigt werden.
  4. Verfahren nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, daß bei der Kontextkompensation die Energiewerte der Impulsantwort in jedem Frequenzband entsprechend dem Prinzip einer Entfaltung eines Echogramms von einem anderen modifiziert werden und die Werte durch die folgenden Ausdrücke erhalten werden: OD = (ODZiel – ODLive)/ODzentral R1 = {R1Ziel – [R1Live + R1zentral·OD]}·(8/7)/ODseitlich R2 = {R2Ziel – [R2Live + R2zentral·OD + R1·(ODseitlich/8 + R1seitlich + R2seitlich/2)]}/[(23/24)·ODdiffus + R1diffus/2 + R2diffus/18] R3 = {R3Ziel – [R3Live + R3zentral·OD + R1·(R2seitlich/2 + R3seitlich) + R2·(ODdiffus/24 + R1diffus/2 + (17/18)·R2diffus + R3diffus)]}/(ODdiffus + R1diffus + R2diffus + R3diffus)wobei OD der Energiewert des direkten Schalls, R1 der Energiewert der primären Reflektionen, R2 der Energiewert der sekundären Reflektionen, und R3 der Energiewert des Nachhalls ist, und sich Energiewerte mit der Bezeichnung „Ziel” auf die akustischen Zieleigenschaften beziehen, sich Energiewerte mit der Bezeichnung „Live auf die akustischen Eigenschaften einer im Raum vorhandenen Ursprungsschallquelle beziehen, Energiewerte mit der Bezeichnung „zentral” die akustischen Eigenschaften eines vorderen Lautsprechers bezüglich der Hörposition angeben, Energiewerte mit der Bezeichnung „seitlich” die akustischen Eigenschaften von rechts und links von dem vorderen Lautsprecher angeordneten Lautsprechern angeben, und Energiewerte mit der Bezeichnung „diffus” die akustischen Eigenschaften von seitlichen und hinteren Lautsprechern bezüglich der Hörposition angeben.
  5. Verfahren nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, daß die Signale, die die Erzeugung eines künstlichen Halls erlauben, sieben an der Zahl sind und den direkten Schall (C), den von den linken (L) und rechten (R) Seiten kommenden Schall und den mittleren diffusen Schall, der von allen Richtungen (S1, S2, S3, S4), die den Hörer umgeben, kommt, darstellen.
  6. Verfahren nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, daß die Wahrnehmungsfaktoren, die die zu simulierenden akustischen Eigenschaften definieren folgende sind: die Präsenz, die Brillanz und die Wärme der virtuellen Quelle, die Raumpräsenz, der Frühhall, der Nachhall, die Lebendigkeit und die Intimität.
  7. Verfahren nach einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, daß die Energiewerte der Impulsantwort dem direkten Schall (OD), den Primärreflexionen (R1), den Sekundärreflexionen (R2), dem Nachhall (R3) und der Halszeit Rt in drei Frequenzbändern entsprechen.
  8. Virtueller Akustikprozessor, der die Durchführung des Verfahrens nach eine der Ansprüche 1 bis 7 ermöglicht, dadurch gekennzeichnet, daß er einen ”Raum-”Modul (12) zur Signalbearbeitung, der die Erzeugung eines künstlichen Halls ermöglicht, und einen ”Pan-”Modul (13) zur Signalbearbeitung, der die Kontrolle der Lokalisierung und der Bewegung der Schallquelle erlaubt und eine Formatumwandlung in einen anderen Wiedergabemodus durchführt, umfaßt.
  9. Prozessor nach Anspruch 8, dadurch gekennzeichnet, daß er außerdem weitere Module (11, 14) zur Schallbearbeitung und ein mit einer Regelungsschnittstelle (40) für Wahrnehmungsfaktoren, die unabhängig voneinander auf einen oder mehrere Parameter, die in Energiewerten ausgedrückt sind, wirken, verbundenes Arbeitsprogramm umfaßt.
  10. Prozessor nach einem der Ansprüche 8 oder 9, dadurch gekennzeichnet, daß er außerdem einen Wahrnehmungsoperator (31, 140), der geeignet ist, die Umwandlung der Wahrnehmungsfaktoren und der Lokalisierungsparameter und/oder der Orientierungs- und Richtwirkungsparameter in Energiewerte durchzuführen, und einen weiteren Operator (32, 150) umfaßt, der die Durchführung einer Kontextkompensation ermöglicht
  11. Prozessor nach einem der Ansprüche 8 bis 10, dadurch gekennzeichnet, daß der ”Raum”-Modul (12), der die Erzeugung eines künstlichen Halls ausgehend von Elementarsignalen zur Simulation einer Akustik in Echtzeit erlaubt, umfaßt: – ein erstes digitales Ausgleichsfilter (710) zum Durchführen einer Spektralkorrektur des direkten Schafts, – ein zweites digitales Ausgleichsfilter (720) zum Durchführen einer Spektralkorrektur eines durchschnittlichen Schalls, der von einer virtuellen Schallquelle in alle Richtungen abgestrahlt wird, – eine Verzögerungsleitung (731), die die Erzeugung von in der Zeit verzögerten Kopien des durchschnittlichen Schallsignals (”Raum”) am Eingang dieser Leitung ermöglicht, und ein Ausgleichsfilter (733), um diese Signale, die den von den Seiten (L, R) kommenden Schall darstellen und für die Primärreflexionen (R1) charakteristisch sind, zu filtern, – eine erste unitäre Matrix (741), die mit einer Verzögerungsbank (742) zur Verzögerung paralleler Signaleingänge und einem Ausgleichsfilter (743) verbunden ist, und eine zweite unitäre Matrix (744), die mit einer absorbierenden Verzögerungsbank (745) und einem Ausgleichsfilter (746) verbunden ist, um vier für die sekundären Reflexionen (R2) charakteristische Signal beziehungsweise vier für den Nachhall (R3) charakteristische Signale zu erzeugen.
  12. Prozessor nach einem der Ansprüche 8 bis 11, dadurch gekennzeichnet, daß die aufeinander folgenden Schallbearbeitungsmodule umfassen: – einen ersten, ”Quell-”Modul (11), der geeignet ist, ausgehend von einem einzigen Schallsignal (E) den direkten (Vorderseiten-)Schall, der von einer Schallquelle zu einem Hörer hin abgestrahlt wird, und den diffusen. (Omni-)Schall, der von der Quelle in alle Richtungen abgestrahlt wird, zu trennen, – einen zweiten, ”Raum-”Modul (12), der die Bearbeitung der beiden Arten von Signalen, die von dem ”Quell-”Modul kommen, auf solche Weise ermöglicht, daß ein Raumeffekt simuliert wird, – einen dritten, ”Pan-”Modul (13), der die Kontrolle der Lokalisierung der Quelle und die Umwandlung der Konfiguration von einem Wiedergabemodus der von dem ”Raum-”Modul erhaltenen Signale ermöglicht, und – einen letzten, ”Ausgangs-”Modul (14), der entsprechend dem Wiedergabemodus, der entsprechend der Konfiguration des ”Pan-”Moduls ausgewählt wird, vorkonfigurierte Ausgleichsfilter aufweist, die den Frequenzresponse eines Lautsprechers und eine Laufzeitdifferenz eines Signals in einer Lautsprecheranordnung ausgleichen.
DE19634155A 1995-08-25 1996-08-23 Verfahren zur Simulation der akustischen Qualität eines Raumes und damit verbundener Audio-Digitaler Prozessor Expired - Lifetime DE19634155B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR9510111A FR2738099B1 (fr) 1995-08-25 1995-08-25 Procede de simulation de la qualite acoustique d'une salle et processeur audio-numerique associe
FR9510111 1995-08-25

Publications (2)

Publication Number Publication Date
DE19634155A1 DE19634155A1 (de) 1997-02-27
DE19634155B4 true DE19634155B4 (de) 2010-11-18

Family

ID=9482103

Family Applications (1)

Application Number Title Priority Date Filing Date
DE19634155A Expired - Lifetime DE19634155B4 (de) 1995-08-25 1996-08-23 Verfahren zur Simulation der akustischen Qualität eines Raumes und damit verbundener Audio-Digitaler Prozessor

Country Status (4)

Country Link
US (1) US5812674A (de)
DE (1) DE19634155B4 (de)
FR (1) FR2738099B1 (de)
GB (1) GB2305092B (de)

Families Citing this family (56)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5982903A (en) * 1995-09-26 1999-11-09 Nippon Telegraph And Telephone Corporation Method for construction of transfer function table for virtual sound localization, memory with the transfer function table recorded therein, and acoustic signal editing scheme using the transfer function table
US5990884A (en) * 1997-05-02 1999-11-23 Sony Corporation Control of multimedia information with interface specification stored on multimedia component
FI116505B (fi) * 1998-03-23 2005-11-30 Nokia Corp Menetelmä ja järjestelmä suunnatun äänen käsittelemiseksi akustisessa virtuaaliympäristössä
GB2352152B (en) * 1998-03-31 2003-03-26 Lake Technology Ltd Formulation of complex room impulse responses from 3-D audio information
ATE533145T1 (de) * 1998-04-23 2011-11-15 Ind Res Ltd Einspuriges frühreflexions-verstärkersystem zur schallverstärkung
DE69841857D1 (de) * 1998-05-27 2010-10-07 Sony France Sa Musik-Raumklangeffekt-System und -Verfahren
US6188769B1 (en) 1998-11-13 2001-02-13 Creative Technology Ltd. Environmental reverberation processor
US6507658B1 (en) * 1999-01-27 2003-01-14 Kind Of Loud Technologies, Llc Surround sound panner
US7113609B1 (en) * 1999-06-04 2006-09-26 Zoran Corporation Virtual multichannel speaker system
US20030164085A1 (en) * 2000-08-17 2003-09-04 Robert Morris Surround sound system
US7062337B1 (en) * 2000-08-22 2006-06-13 Blesser Barry A Artificial ambiance processing system
GB2366975A (en) * 2000-09-19 2002-03-20 Central Research Lab Ltd A method of audio signal processing for a loudspeaker located close to an ear
FI113147B (fi) 2000-09-29 2004-02-27 Nokia Corp Menetelmä ja signaalinkäsittelylaite stereosignaalien muuntamiseksi kuulokekuuntelua varten
US7522734B2 (en) * 2000-10-10 2009-04-21 The Board Of Trustees Of The Leland Stanford Junior University Distributed acoustic reverberation for audio collaboration
US6738479B1 (en) 2000-11-13 2004-05-18 Creative Technology Ltd. Method of audio signal processing for a loudspeaker located close to an ear
US6741711B1 (en) 2000-11-14 2004-05-25 Creative Technology Ltd. Method of synthesizing an approximate impulse response function
GB2370954B (en) 2001-01-04 2005-04-13 British Broadcasting Corp Producing a soundtrack for moving picture sequences
US7099482B1 (en) 2001-03-09 2006-08-29 Creative Technology Ltd Method and apparatus for the simulation of complex audio environments
JP2002345097A (ja) * 2001-05-15 2002-11-29 Sony Corp サラウンド音場再生システム
DE10130524C2 (de) * 2001-06-25 2003-10-30 Siemens Ag Vorrichtung zum Wiedergeben von Audiosignalen und Verfahren zum Verändern von Filterdaten
WO2003002955A1 (en) * 2001-06-28 2003-01-09 Kkdk A/S Method and system for modification of an acoustic environment
ITMI20011766A1 (it) * 2001-08-10 2003-02-10 A & G Soluzioni Digitali S R L Dispositivo e metodo per la simulazione della presenza di una o piu' sorgenti di suoni in posizioni virtuali nello spazio acustico a tre dim
US7206415B2 (en) * 2002-04-19 2007-04-17 Bose Corporation Automated sound system designing
US20040142747A1 (en) * 2003-01-16 2004-07-22 Pryzby Eric M. Selectable audio preferences for a gaming machine
US7364508B2 (en) * 2003-01-16 2008-04-29 Wms Gaming, Inc. Gaming machine environment having controlled audio and visual media presentation
US7367886B2 (en) * 2003-01-16 2008-05-06 Wms Gaming Inc. Gaming system with surround sound
FI118247B (fi) * 2003-02-26 2007-08-31 Fraunhofer Ges Forschung Menetelmä luonnollisen tai modifioidun tilavaikutelman aikaansaamiseksi monikanavakuuntelussa
US20050132406A1 (en) * 2003-12-12 2005-06-16 Yuriy Nesterov Echo channel for home entertainment systems
JP4567049B2 (ja) * 2004-03-11 2010-10-20 ピーエスエス・ベルギー・エヌブイ 音声信号を処理する方法、遅延管理ユニット、システム、ユニット、計算機プログラム及びメモリ媒体
US7649135B2 (en) * 2005-02-10 2010-01-19 Koninklijke Philips Electronics N.V. Sound synthesis
US7184557B2 (en) * 2005-03-03 2007-02-27 William Berson Methods and apparatuses for recording and playing back audio signals
DE102005043641A1 (de) * 2005-05-04 2006-11-09 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zur Generierung und Bearbeitung von Toneffekten in räumlichen Tonwiedergabesystemen mittels einer graphischen Benutzerschnittstelle
EP1746522A3 (de) * 2005-07-19 2007-03-28 Yamaha Corporation Hilfsvorrichtung, Programm und Methode für akustisches Design
DE102006001845B3 (de) * 2006-01-13 2007-07-26 Siemens Audiologische Technik Gmbh Verfahren und Vorrichtung zur Überprüfung einer Messsituation bei einer Hörvorrichtung
WO2008063391A2 (en) 2006-11-10 2008-05-29 Wms Gaming Inc. Wagering games using multi-level gaming structure
EP2118888A4 (de) * 2007-01-05 2010-04-21 Lg Electronics Inc Verfahren und vorrichtung zum verarbeiten eines audiosignals
US8290167B2 (en) * 2007-03-21 2012-10-16 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Method and apparatus for conversion between multi-channel audio formats
US20080232601A1 (en) * 2007-03-21 2008-09-25 Ville Pulkki Method and apparatus for enhancement of audio reconstruction
US9015051B2 (en) * 2007-03-21 2015-04-21 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Reconstruction of audio channels with direction parameters indicating direction of origin
US8908873B2 (en) * 2007-03-21 2014-12-09 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Method and apparatus for conversion between multi-channel audio formats
US20080273708A1 (en) * 2007-05-03 2008-11-06 Telefonaktiebolaget L M Ericsson (Publ) Early Reflection Method for Enhanced Externalization
EP2154677B1 (de) * 2008-08-13 2013-07-03 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung zur Bestimmung eines konvertierten Raumtonsignals
KR20120004909A (ko) * 2010-07-07 2012-01-13 삼성전자주식회사 입체 음향 재생 방법 및 장치
DE102011001605A1 (de) * 2011-03-28 2012-10-04 D&B Audiotechnik Gmbh Verfahren und Computerprogrammprodukt zum Einmessen einer Beschallungsanlage
KR101844336B1 (ko) * 2011-08-01 2018-04-02 삼성전자주식회사 공간감을 제공하는 신호 처리 장치 및 신호 처리 방법
JP6326071B2 (ja) * 2013-03-07 2018-05-16 アップル インコーポレイテッド 部屋およびプログラム反応型ラウドスピーカシステム
US9820073B1 (en) 2017-05-10 2017-11-14 Tls Corp. Extracting a common signal from multiple audio signals
CN107281753B (zh) * 2017-06-21 2020-10-23 网易(杭州)网络有限公司 场景音效混响控制方法及装置、存储介质及电子设备
CA3078420A1 (en) 2017-10-17 2019-04-25 Magic Leap, Inc. Mixed reality spatial audio
CN111713091A (zh) 2018-02-15 2020-09-25 奇跃公司 混合现实虚拟混响
EP3804132A1 (de) 2018-05-30 2021-04-14 Magic Leap, Inc. Indexplanung für filterparameter
US10863300B2 (en) 2018-06-18 2020-12-08 Magic Leap, Inc. Spatial audio for interactive audio environments
KR20200027394A (ko) * 2018-09-04 2020-03-12 삼성전자주식회사 디스플레이 장치 및 이의 제어 방법
US11032508B2 (en) * 2018-09-04 2021-06-08 Samsung Electronics Co., Ltd. Display apparatus and method for controlling audio and visual reproduction based on user's position
JP7446420B2 (ja) 2019-10-25 2024-03-08 マジック リープ, インコーポレイテッド 反響フィンガプリント推定
JP7472091B2 (ja) * 2021-09-16 2024-04-22 株式会社東芝 オンライン通話管理装置及びオンライン通話管理プログラム

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5023913A (en) * 1988-05-27 1991-06-11 Matsushita Electric Industrial Co., Ltd. Apparatus for changing a sound field
US5105462A (en) * 1989-08-28 1992-04-14 Qsound Ltd. Sound imaging method and apparatus
US5142586A (en) * 1988-03-24 1992-08-25 Birch Wood Acoustics Nederland B.V. Electro-acoustical system
US5212733A (en) * 1990-02-28 1993-05-18 Voyager Sound, Inc. Sound mixing device
EP0559530A1 (de) * 1992-03-03 1993-09-08 France Telecom Verfahren und Vorrichtung für künstliche Raumklangeffekte von digitalen Audiosignalen
US5261005A (en) * 1990-10-09 1993-11-09 Yamaha Corporation Sound field control device
EP0593228A1 (de) * 1992-10-13 1994-04-20 Matsushita Electric Industrial Co., Ltd. Schallumgebungsimulator und Verfahren zur Schallfeldanalyse

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3969588A (en) * 1974-11-29 1976-07-13 Video And Audio Artistry Corporation Audio pan generator
US4332979A (en) * 1978-12-19 1982-06-01 Fischer Mark L Electronic environmental acoustic simulator
NL190797C (nl) * 1980-03-11 1994-08-16 Hok Lioe Han Geluidveldsimulatiestelsel en werkwijze voor het ijken daarvan.
US4731848A (en) * 1984-10-22 1988-03-15 Northwestern University Spatial reverberator
JPH07118840B2 (ja) * 1986-09-30 1995-12-18 ヤマハ株式会社 再生特性制御回路
US4817149A (en) * 1987-01-22 1989-03-28 American Natural Sound Company Three-dimensional auditory display apparatus and method utilizing enhanced bionic emulation of human binaural sound localization
JPS63183495A (ja) * 1987-01-27 1988-07-28 ヤマハ株式会社 音場制御装置
GB9107011D0 (en) * 1991-04-04 1991-05-22 Gerzon Michael A Illusory sound distance control method
US5384854A (en) * 1992-02-14 1995-01-24 Ericsson Ge Mobile Communications Inc. Co-processor controlled switching apparatus and method for dispatching console
GB9307934D0 (en) * 1993-04-16 1993-06-02 Solid State Logic Ltd Mixing audio signals
JP2842228B2 (ja) * 1994-07-14 1998-12-24 ヤマハ株式会社 効果付与装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5142586A (en) * 1988-03-24 1992-08-25 Birch Wood Acoustics Nederland B.V. Electro-acoustical system
US5023913A (en) * 1988-05-27 1991-06-11 Matsushita Electric Industrial Co., Ltd. Apparatus for changing a sound field
US5105462A (en) * 1989-08-28 1992-04-14 Qsound Ltd. Sound imaging method and apparatus
US5212733A (en) * 1990-02-28 1993-05-18 Voyager Sound, Inc. Sound mixing device
US5261005A (en) * 1990-10-09 1993-11-09 Yamaha Corporation Sound field control device
EP0559530A1 (de) * 1992-03-03 1993-09-08 France Telecom Verfahren und Vorrichtung für künstliche Raumklangeffekte von digitalen Audiosignalen
EP0593228A1 (de) * 1992-10-13 1994-04-20 Matsushita Electric Industrial Co., Ltd. Schallumgebungsimulator und Verfahren zur Schallfeldanalyse

Also Published As

Publication number Publication date
GB2305092B (en) 1999-10-27
GB2305092A (en) 1997-03-26
DE19634155A1 (de) 1997-02-27
US5812674A (en) 1998-09-22
FR2738099A1 (fr) 1997-02-28
GB9617477D0 (en) 1996-10-02
FR2738099B1 (fr) 1997-10-24

Similar Documents

Publication Publication Date Title
DE19634155B4 (de) Verfahren zur Simulation der akustischen Qualität eines Raumes und damit verbundener Audio-Digitaler Prozessor
EP1800517B1 (de) Vorrichtung und verfahren zur ansteuerung einer beschallungsanlage und beschallungsanlage
DE60119911T2 (de) System und verfahren zur optimierung von dreidimensionalem audiosignal
DE3886229T2 (de) Schallfeld Steuerungsanlage.
DE69028423T2 (de) Elektro-akustisches System
EP3005737B1 (de) Mischpult, verfahren und computerprogramm zum bereitstellen eines tonsignals
DE2910117C2 (de) Lautsprecherkombination zur Wiedergabe eines zwei- oder mehrkanalig übertragenen Schallereignisses
DE69533973T2 (de) Schallfeldkontrollegerät und Kontrolleverfahren
EP1872620B9 (de) Vorrichtung und verfahren zum steuern einer mehrzahl von lautsprechern mittels einer graphischen benutzerschnittstelle
DE102006017791A1 (de) Wiedergabegerät und Wiedergabeverfahren
DE4241130B4 (de) Verfahren und Vorrichtung zur Wiedergabe von vierkanaligen Tonsignalen über einen Zweikanalkopfhörer bzw. über zwei Lautsprecher
DE19950319A1 (de) Verfahren zum Synthetisieren eines dreidimensionalen Schallfeldes
DE102005033238A1 (de) Vorrichtung und Verfahren zum Ansteuern einer Mehrzahl von Lautsprechern mittels eines DSP
DE102005001395B4 (de) Verfahren und Vorrichtung zur Transformation des frühen Schallfeldes
DE69636184T2 (de) Stereophonische Vorrichtung zur Schallfelderweiterung
EP0040739B1 (de) Vorrichtung für die Wiedergabe einer Tonaufnahme über Kopfhörer
WO2001047319A2 (de) Verfahren und anlage zur aufnahme und wiedergabe von klängen
EP3314915A1 (de) Verfahren zur schallwiedergabe in reflexionsumgebungen, insbesondere in hörräumen
DE19900961A1 (de) Verfahren und Vorrichtung zur Wiedergabe von Mehrkanaltonsignalen
DE19980688B3 (de) Audio-Wiedergabevorrichtung
DE60014925T2 (de) Vorrichtung zur signalverarbeitung
DE10138949B4 (de) Verfahren zur Beeinflussung von Raumklang sowie Verwendung eines elektronischen Steuergerätes
DE4125893A1 (de) Aufbereitung der wiedergabeakustik in kraftfahrzeuginnenraeumen
WO2024099733A1 (de) Verfahren zur richtungsabhängigen korrektur des frequenzganges von schallwellenfronten
EP1900250B1 (de) Elektroakustisches verfahren

Legal Events

Date Code Title Description
8110 Request for examination paragraph 44
8125 Change of the main classification

Ipc: H04S 7/00

8364 No opposition during term of opposition
R020 Patent grant now final

Effective date: 20110218

R071 Expiry of right