DE3936693A1 - Vorrichtung zum erzeugen digitaler audiosignale - Google Patents

Vorrichtung zum erzeugen digitaler audiosignale

Info

Publication number
DE3936693A1
DE3936693A1 DE3936693A DE3936693A DE3936693A1 DE 3936693 A1 DE3936693 A1 DE 3936693A1 DE 3936693 A DE3936693 A DE 3936693A DE 3936693 A DE3936693 A DE 3936693A DE 3936693 A1 DE3936693 A1 DE 3936693A1
Authority
DE
Germany
Prior art keywords
signal
signal processing
digital audio
control
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE3936693A
Other languages
English (en)
Other versions
DE3936693C2 (de
Inventor
Ken Kutaragi
Makoto Furuhashi
Toshiya Ishibashi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP63278721A external-priority patent/JPH02125297A/ja
Priority claimed from JP63284246A external-priority patent/JP2754613B2/ja
Priority claimed from JP63289831A external-priority patent/JPH02135564A/ja
Application filed by Sony Corp filed Critical Sony Corp
Publication of DE3936693A1 publication Critical patent/DE3936693A1/de
Application granted granted Critical
Publication of DE3936693C2 publication Critical patent/DE3936693C2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/02Means for controlling the tone frequencies, e.g. attack or decay; Means for producing special musical effects, e.g. vibratos or glissandos
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0091Means for obtaining special acoustic effects
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H7/00Instruments in which the tones are synthesised from a data store, e.g. computer organs
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/155Musical effects
    • G10H2210/195Modulation effects, i.e. smooth non-discontinuous variations over a time interval, e.g. within a note, melody or musical transition, of any sound parameter, e.g. amplitude, pitch, spectral response, playback speed
    • G10H2210/201Vibrato, i.e. rapid, repetitive and smooth variation of amplitude, pitch or timbre within a note or chord
    • G10H2210/205Amplitude vibrato, i.e. repetitive smooth loudness variation without pitch change or rapid repetition of the same note, bisbigliando, amplitude tremolo, tremulants
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/155Musical effects
    • G10H2210/265Acoustic effect simulation, i.e. volume, spatial, resonance or reverberation effects added to a musical sound, usually by appropriate filtering or delays
    • G10H2210/281Reverberation or echo
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2250/00Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
    • G10H2250/471General musical sound synthesis principles, i.e. sound category-independent synthesis methods
    • G10H2250/475FM synthesis, i.e. altering the timbre of simple waveforms by frequency modulating them with frequencies also in the audio range, resulting in different-sounding tones exhibiting more complex waveforms

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Electrophonic Musical Instruments (AREA)

Description

Die Erfindung betrifft eine Vorrichtung zum Erzeugen digitaler Audiosignale. Eine solche Vorrichtung kann z. B. in elektronischen Musikinstrumenten oder als Toneffektgenerator in Unterhaltungseinrichtungen verwendet werden.
Als Tonquelle für derartige Anwendungen ist die folgende bekannt. Z. B. ein Rechtecksignal wird mehreren Frequenzteilern mit jeweils unterschiedlichem Frequenzteilungsverhältnis und unterschiedlichen Tastverhältnissen zugeführt. Quelltonsignale (sogenannte Stimmen) von den verschiedenen Frequenzteilern werden in geeignetem Pegel synthetisiert. In diesem Fall kann die ursprüngliche Signalform auch dreieckig oder sinusförmig oder von anderer Form sein.
Bei manchen Musikinstrumenten wie z. B. Klavier oder Trommel wird die gesamte Tonerzeugungsperiode in vier Intervalle unterteilt, nämlich eine Anschlagperiode, eine Verzögerungsperiode, eine Aufrechterhaltungsperiode und eine Abfallperiode. Die Amplitude (der Pegel) für das Signal in jedem Intervall stellt eine besondere geänderte Bedingung dar. Dementsprechend wird eine sogenannte ADSR (Attack=Anschlag, Decay=Abklingen, Sustain=Aufrechterhalten, Release= Freigeben) Steuerung durchgeführt, damit sich die Signalpegel für alle Stimmen entsprechend ändern.
Im Stand der Technik ist auch eine Tonquelle für Musikinstrumente, nämlich eine sogenannte FM-Tonquelle bekannt, bei der ein Sinussignal durch ein anderes Sinussignal geringer Frequenz frequenzmoduliert wird. Bei dieser FM-Tonquelle wird ein zeitabhängiger Modulationsfaktor benutzt. Verschiedene Arten von Tonsignalen (im folgenden Tonsignaleinrichtungen für Audiosignale) können durch weniger Tonquellen erzeugt werden. Die Toneffekttonquelle kann eine Rauschkomponente sein (d. h. mit einer weißen Rauschkomponente und dergleichen).
Um mit der vorgenannten sogenannten elektronischen Tonquelle tatsächliche Töne für verschiedene Musikinstrumente erzeugen zu können, ist eine sehr komplexe Signalverarbeitung erforderlich, wodurch die Schaltung für die Vorrichtung zum Erzeugen von Audiosignalen groß wird.
Um das ebengenannte Problem zu lösen, wurde kürzlich eine sogenannte Abtasttonquelle vorgeschlagen, durch die tatsächliche Töne verschiedener Musikinstrumente digital aufgezeichnet und in einen Speicher (ROM) eingeschrieben werden. Für ein vorgegebenes Musikinstrument wird ein jeweiliges Signal aus diesem Speicher gelesen.
Bei dieser Abtasttonquelle wird das digitale Audiosignal zum Sparen von Speicherkapazität datenkomprimiert und erst dann abgespeichert. Ausgelesene komprimierte Signale werden expandiert und in die ursprünglichen digitalen Tonsignale rückgewandelt. In diesem Fall wird nur das Signal für einen Ton vorgegebener Lautstärke (Teilung) in den Speicher für jedes Musikinstrument eingeschrieben. Das aus dem Speicher ausgelesene Signal wird in der Teilung konvergiert, um ein fundamentales Frequenzsignal eines Tones gewünschter Lautstärke zu erzeugen.
Darüber hinaus wird eine Signalform, wie sie im Anfangsstadium der Tonerzeugung vorliegt und wie sie für jedes Musikinstrument eigentümlich ist, direkt in den Speicher eingeschrieben und später wieder aus diesem ausgelesen. Diese Signalform kann als Formante bezeichnet werden. Die Formante bedeutet z. B. angewandt auf einen Klavierton, einen Betätigungston, wie er erzeugt wird, wenn der Klavierspieler eine Taste betätigt, damit ein Hammer auf eine Saite schlägt. In diesem Fall wird ein Fundamentalzyklus einer sich in der Form wiederholenden Welle in den Speicher eingeschrieben und dann wiederholt aus diesem ausgelesen.
Beim Wiedergeben wird, wie dies durch Fig. 1 veranschaulicht wird, auf eine Formante a kurzer Zeitspanne hin eine Fundamentalfrequenzsignalkomponente b erhalten, die aus wiederholten Wellenzügen p zusammengesetzt ist. Dadurch wird der Ton für ein gewünschtes Musikinstrument erzeugt. Der natürliche Ton eines Musikinstruments, z. B. eines Klaviers, kann dadurch erzeugt werden, daß der Pegel des Signalzuges p nach einer vorgegebenen Regel zeitlich allmählich erniedrigt wird.
Wenn bei den oben erwähnten Musikinstrumenten ein Nachhallton oder dergleichen zum wiedergegebenen Musikinstrumentton hinzugefügt wird, wird es möglich, Töne unterschiedlicher Toneindrücke zu erzeugen. Insbesondere wenn eine Vorrichtung zum Erzeugen digitaler Audiosignale als Toneffekterzeuger in Unterhaltungseinrichtungen verwendet wird, ist es häufig erforderlich, einen Nachhallton zum wiedergegebenen Ton hinzuzufügen, um den räumlichen Klangeindruck natürlicher zu gestalten.
Wenn der Nachhallton dem digitalen Audiosignal hinzugefügt wird, wird dieses in einem Speicher, z. B. einem RAM zwischengespeichert und dadurch verzögert, wodurch der Nachhalleffekt erzielt wird. Dies erfordert einen Speicher großer Speicherkapazität zum Speichern der digitalen Audiosignale, was zu einer kompliziert aufgebauten Vorrichtung führt.
Darüber hinaus besteht bei der vorgeschlagenen Vorrichtung mit Nachhalleffekt das Problem, daß dann, wenn die Steuerdaten von einer CPU noch nicht definiert sind, da die Spannungsversorgung gerade eben erst eingeschaltet wurde, ein Speicherbereich für Verzögerungsdaten im Tondatenspeicherbereich des Speichers eingerichtet wird, was dazu führt, daß die Vorrichtung fehlerhaft arbeitet.
Wenn die FM-Funktion ausgeführt wird, um verschiedene Töne mit der Abtasttonquelle zu gewinnen, ist eine Signalquelle für Frequenzmodulation erforderlich, was zu kompliziertem Schaltungsaufbau führt.
Wenn Amplitudenmodulation ausgeführt wird, um die Funktion der Vorrichtung zu verbessern, besteht ein ähnliches Problem.
Darüber hinaus ist es erforderlich, daß der Speicher zum Zwischenspeichern der Quelltondaten und des Steuerprogramms, das zum Verarbeiten der Quelltondaten erforderlich ist, eine relativ große Speicherkapazität aufweisen muß, was unvermeidlich zu einem komplizierten Schaltungsaufbau führt.
Der Erfindung liegt die Aufgabe zugrunde, eine Vorrichtung der eingangs genannten Art anzugeben, die bei einfachem Aufbau weitgehende Tonmanipulation zuläßt.
Diese Aufgabe ist durch die Lehren der nebengeordneten Ansprüche 1 sowie 3-5 gelöst.
Die Lehre von Anspruch 1 ermöglicht es, Halltöne zu vielen Stimmen hinzufügen zu können, ohne daß ein besonderer Speicher erforderlich ist.
Die Lehre gemäß Anspruch 2 ermöglicht ein einfaches Ausführen von Frequenzmodulation, während diejenige von Anspruch 4 ein einfaches Ausführen von Amplitudenmodulation ermöglicht.
Die Lehre von Anspruch 5 ermöglicht besonderes effektives Nutzen eines einzigen Speichers. Dabei ist es sogar möglich, einen Speicher mit sehr hoher Zugriffszeit, also einen sehr billigen Speicher, zu verwenden.
Die Erfindung wird im folgenden anhand eines durch Figuren veranschaulichten Ausführungsbeispiels näher erläutert. Es zeigen:
Fig. 1 ein schematisches Diagramm zum Erläutern, wie der zeitliche Tonverlauf von einem Musikinstrument wiedergegeben wird;
Fig. 2 und 3 Blockdiagramme zum Veranschaulichen der Funktion eine Hauptteils einer Vorrichtung zum Erzeugen digitaler Audiosignale;
Fig. 4 ein schematisches Blockdiagramm zum Erläutern der Gesamtfunktion einer Vorrichtung zum Erzeugen digitaler Audiosignale;
Fig. 5 ein schematisches Diagramm zum Erläutern des Inhalts eines RAM;
Fig. 6A-6C Spektraldiagramme mit Frequenzen zum Erläutern der Funktion einer Vorrichtung zum Erzeugen digitaler Audiosignale;
Fig. 7 ein Blockdiagramm zum Erläutern der Funktion eines Berechnungsbereichs, der dazu dient, einen Nachhallton zu einem digitalen Audiosignal zu addieren;
Fig. 8 ein Blockdiagramm zum Erläutern der Funktion eines Hauptteils eines Berechnungsbereichs zum Erzeugen von Frequenzmodulation;
Fig. 9A-9C schematische Darstellungen von Signalzügen zum Erläutern der Funktion der Anordnung gemäß Fig. 8;
Fig. 10 ein Blockdiagramm zum Erläutern der Funktion einer Synchronisierschaltung;
Fig. 11A-11D zeitkorrelierte Pulsdiagramme zum Erläutern der Funktion der Synchronisierschaltung gemäß Fig. 10; und
Fig. 12A-12G zeitkorrelierte Pulsdiagramme zum Erläutern, wie im Zeitmultiplex auf einen RAM zugegriffen wird.
Anhand der Fig. 2-5, zunächst Fig. 4, wird nun die Gesamtanordnung eines Ausführungsbeispiels der Erfindung näher erläutert.
Die Anordnung gemäß Fig. 4 weist ein Tondaten-ROM auf, das z. B. als ROM-Cartridgeeinheit ausgebildet ist und außerhalb des Gerätes gemäß Fig. 4 angeordnet ist. In diesem Tondaten- ROM 1 sind Tondaten von z. B. ursprünglich 16 Bit, die aus den Tönen verschiedener Musikinstrumente abgeleitet und digital aufgezeichnet sind, wie oben beschrieben. Sie werden mit verkürzter Bitlänge, z. B. mit 4 Bits (d. h. BRR-codiert) in einem Block gespeichert. Beim Ausführungsbeispiel sind Musikinstrumenttöne, wie z. B. diejenigen eines Klaviers, getrennt in der Form von Nichtintervallkomponenten, genannt Formantkomponenten, im Anfangsstadium der Tonerzeugung und als Intervallkomponente aufgezeichnet, wobei letztere ein fundamentales Frequenzsignal für einen Tonzyklus besonderer Lautstärke darstellen.
Der in Fig. 4 mit dem Bezugszeichen 10 bezeichnete Block stellt eine Signalverarbeitungseinrichtung dar, die als elektronisches Musikinstrument wirkt. Diese digitale Signalverarbeitungseinrichtung 10 beinhaltet einen Signalverarbeitungsteil 11 und einen Register-RAM 12. Von den im Tondaten- ROM 1 gespeicherten Tondaten für verschiedene Arten von Tonquellen werden gewünschte Tondaten über den Signalverarbeitungsbereich 11 an einen externen RAM 14 unter Steuerung durch eine CPU 13 ausgegeben. Der externe RAM 14 weist eine Speicherkapazität von z. B. 64 kByte auf und speichert, zusätzlich zu den Tondaten, das Programm für die CPU 13 und Verzögerungsdaten, die zum Hinzufügen von Halbtönen in einem Zeitmultiplexverfahren benutzt werden. Ähnlich kann das Register-RAM 12, das z. B. verschiedene Steuerdaten steuert, sowohl durch den Signalverarbeitungsbereich 11 wie auch durch die CPU 13 im Zeitmultiplex angesprochen werden.
Die aus dem externen RAM 14 gelesenen Tondaten werden durch BRR-Decodierern in die usprünglichen Tondaten rückgewandelt, welcher Decodierprozeß umgekehrt zum oben genannten BRR- Codierprozeß ist. Falls erforderlich, werden die decodierten Originaltondaten verschiedenen Datenverarbeitungen unterworfen, wie z. B. der oben genannten ADSR-Verarbeitung oder Pegelkonversion. Da so bearbeitete digitale Audiosignal wird einem D/A-Wandler 2 zugeführt, dessen analoges Ausgangssignal als Audiosignal einem Lautsprecher 3 zugeführt wird.
Die Anordnung der Hauptfunktionsgruppen einer Ausführungsform wird nun anhand der Fig. 2 und 3 erläutert.
Beim Ausführungsbeispiel werden acht Stimmen *A, *B, . . ., *H durch Mischen synthetisiert und als digitale Audiosignale für einen linken und einen rechten Kanal ausgegeben. Die digitalen Audiosignale für die jeweiligen Stimmen und die jeweiligen Kanäle werden im Zeitmultiplex berechnet. Zum Veranschaulichen der Funktion des Ausführungsbeispiels stellen die Fig. 2 und 3 für jede Stimme und jeden Kanal jeweils gleich aufgebaute Hardware dar.
In Fig. 2 (die zum Ermöglichen der Darstellung mit großem Maßstab in einen linken Teil 2 A und einen rechten Teil 2 B aufgeteilt ist) sind Signalverarbeitungsbereiche 20 A, 20 B, . . ., 20 H zum Verarbeiten der Stimmen *A, *B, . . . bzw. *H vorhanden. Jeder dieser Signalverarbeitungsbereiche wird mit gewünschten Quelltondaten versorgt, die aus einem Quelltondatenspeicherbereich 14 V auf Quellton-Wählsignale SRC a - SRC h ausgewählt werden, die einem Anschluß 15 des externen RAM 14 zugeführt werden. Bei diesem Ausführungsbeispiel entspricht der Quelltondatenspeicherbereich 14 V einem Bereich des externen RAM 14, in den die Quelltondaten und die Programmdaten für die CPU 13 eingeschrieben sind.
Wenn bei diesem Ausführungsbeispiel Musikinstrumenttöne, die im Quelltondaten-ROM 1 in der Form von Nichtintervallkomponenten und Intervallkomponenten gespeichert sind, wiedergegeben werden, werden die Daten der Nichtintervallkomponenten dem Signalverarbeitungsbereich 20 A für die Stimme *A zugeführt, während die Intervallkomponenten den Signalverarbeitungsbereichen 20 B-20 H für die anderen Stimmen unter Steuerung durch Steuerdaten zugeführt werden, was weiter unten erläutert wird.
Die dem Signalverarbeitungsbereich 20 A zugeführten Quelltondaten werden über einen Schalter S 1a einem BRR-Decoder 21 zugeführt, der die Daten wie oben erläutert expandiert und sie dann über einen Puffer-RAM 22 an einen Teilungskonverter 23 gibt. Der Schalter S 1a wird auf Steuerdaten KON (Taste Ein) bzw. KOF (Taste Aus) hin geöffnet bzw. geschlossen, welche Steuerdaten vom Register-RAM 12 (siehe Fig. 4) über Anschlüsse 31 a und 32 a geliefert werden. Der Teilungskonverter 23 erhält Teilungssteuerdaten P(H) und P(L) vom Register- RAM 12 über eine Steuerschaltung 24 zum Berechnen von Parametern und dergleichen über einen Anschluß 33 a. Die Steuerschaltung 24 erhält auch ein Signal, z. B. für die Stimme *H über einen Anschluß 34 a und einen Schalter S 2a . Dieser Schalter wird durch ein Steuersignal FMON (FM Ein) vom Register-RAM 12 über einen Anschluß 35 a geschlossen.
Das Ausgangssignal vom Teilungskonverter 23 wird einem Multiplizierer 26 zugeführt, wo es mit einem von zwei Steuerdaten multipliziert wird. Der eine Steuerdatenwert ist ein Signal ENV (Hüllkurvensteuerung) und der andere ist ein Signal ADSR (ADSR-Steuerung), welche Signale jeweils vom Register 12 über Anschlüsse 36 a bzw. 37 a, über Steuerschaltungen 27 bzw. 28 und einen Wechselschalter S 3a zugeführt werden. Letzterer wird abhängig vom höchstsignifikanten Bit (MSB) des Steuersignales ADSR geschaltet.
Wenn ein Rauschsignal als Effekttonquelle verwendet wird, wird statt des Signals vom Teilungskonverter 23 das Signal von z. B. einem nicht dargestellten M-Reihenrauschgenerator an den Multiplizierer 26 gegeben.
Das Ausgangssignal vom Multiplizierer 26 wird gemeinsam einem zweiten Multiplizierer 291 und einem dritten Multiplizierer 29 r zugeführt, die außerdem Steuerdaten LVL (Lautstärke links) bzw. RVL (Lautstärke rechts) vom Register-RAM 12 über Anschlüsse 38 a bzw. 39 a erhalten.
Ein Augenblickswert OUTX des Ausgangssignals vom Multiplizierer 26 wird auch dem Register-RAM 12 über einen Anschluß 41 a und einem Anschluß 34 b des Signalverarbeitungsbereichs 20 b zugeführt. Ein Spitzenwertsignal ENVX des Ausgangssignals vom Schalter S 3a wird dem Register-RAM 12 über einen Anschluß 42 a zugeführt. Das Ausgangssignal am Anschluß 41 a des Signalverarbeitungsbereichs 20 a kann auch noch einem Eingangsanschluß 36 b des Signalverarbeitungsbereichs 20 B zugeführt werden, was durch eine gestrichelte Linie in Fig. 2 angedeutet ist.
Die folgenden Tabellen 1 und 2 listen Steuerdaten des Register- RAM 12 auf.
Die Steuerdaten gemäß Tabelle 1 werden für jede Stimme bereitgestellt und die Steuerdaten von Tabelle 2 werden gemeinsam für alle acht Stimmen geliefert. Steuerdaten unterhalb der Adresse OD sind einem Blockdiagramm zugeordnet, wie es durch Fig. 3 veranschaulicht wird und im folgenden erläutert wird. Jedes der Register der Tabellen 1 und 2 ist ein 8-Bit-Register.
Tabelle 1
Tabelle 2
In Fig. 3 liegen ein Signalverarbeitungsbereich 50 L für einen linken Kanal und ein Signalverarbeitungsbereich 50 R für einen rechten Kanal vor. Das Ausgangssignal vom zweiten Multiplizierer 29 l des Signalverarbeitungsbereichs 20 A von Fig. 2 wird direkt einem Hauptaddierer 51 ml des Signalverarbeitungsbereichs 50 L für den linken Kanal über einen Anschluß TLa zugeführt, und wird außerdem über einen Schalter S4 a wahlweise einem Unteraddierer 51 el zugeführt. Das Ausgangssignal vom dritten Multiplizierer 29 r gelangt direkt an einen Hauptaddierer 51 mr im Signalverarbeitungsbereich 50 R für den rechten Kanal über einen Anschluß TRa, und es wird außerdem wahlweise über einen Schalter S 5a einem Unteraddierer 51 er zugeführt. Entsprechend gelangen die jeweiligen Ausgangssignale der Signalverarbeitungsbereiche 20 B-20 H für die Stimme *B-*H an die Addierer 51 ml und 51 el sowie 51 mr und 51 er in den Signalverarbeitungsbereichen 50 L bzw. 50 R für den linken bzw. den rechten Kanal.
Schalter S 4a, S 5a ; S 4b , S 5b ; . . .; S 4h , S 5h , die jeweils derselben Stimme in beiden Signalverarbeitungsbereichen 50 L und 50 R für die beiden Kanäle entsprechen, werden gemeinsam geöffnet und geschlossen, und zwar auf Steuersignale EONa (Echo Ein), EONb . . . EONh, die vom Register-RAM 12 über Anschlüsse 61 a, 61 b, . . . 61 h zugeführt werden.
Wenn bei dieser Ausgestaltung die Nichtintervallkomponenten für die Stimme *A durch den Signalverarbeitungsbereich 20 a verarbeitet werden, werden die Schalter S 4a und S 5a so angesteuert, daß sie offen bleiben, wodurch verhindert wird, daß ein Hallton (Echo) für Nichtintervallkomponente addiert wird.
Das Ausgangssignal vom Hauptaddierer 51 ml wird einem Multiplizierer 52 zugeführt, der auch ein Steuersignal MVL (Hauptlautstärke) vom Register-RAM 12 über einen Anschluß 62 erhält. Das Ausgangssignal vom Multiplizierer 52 wird auf einen Addierer 53 gegeben.
Das Ausgangssignal vom Unteraddierer 51 el gelangt über einen Addierer 54, einen Echosteuerbereich 14 El des externen RAM 14 und ein Puffer-RAM 55 an ein digitales Tiefpaßfilter 56, das z. B. als FIR(Finite Impulse Response)-Filter ausgebildet ist. Der Echosteuerbereich 14 El für den linken Kanal wird vom Register-RAM 12 über Anschlüsse 63 und 64 mit einem Steuersignal ESA (Echostartadresse) bzw. EDL (Echoverzögerung) versorgt.
Bei dieser Ausführungsform sind, falls erforderlich, im externen RAM 14 ein Echosteuerbereich 14 El und 14 Er für den linken bzw. den rechten Kanal ausgebildet. Wie durch Fig. 5 veranschaulicht, ändert sich die Speicherkapazität des Quelltondatenspeicherbereichs 14 V des externen RAM 14 mit der verwendeten Tonquelle. Abhängig von der jeweiligen Art der Benutzung existiert ein freier Bereich 14 Z, in dem keine Quelltondaten und Steuerdaten gespeichert sind. In diesem Fall werden die Echosteuerbereiche 14 El und 14 Er für den linken bzw. den rechten Kanal innerhalb dem freien Bereich 14 Z ausgebildet. Die Startadressen für die Echosteuerbereiche 14 El und 14 Er werden durch das Steuersignal ESA bestimmt, während die Anzahl von Adressen nach der Startadresse für die genannten Echosteuerbereiche durch das Steuersignal EDL bestimmt ist. Wenn die Adreßmenge ausreichend groß ist, wird die Verzögerung und damit die Nachhallzeit erhöht.
Wieder bezugnehmend auf Fig. 3 wird darauf hingewiesen, daß das Tiefpaßfilter 56 vom Register-RAM 12 über einen Anschluß 66 mit Koeffizientendaten C₀-C₇ versorgt wird. Das Ausgangssignal vom Tiefpaßfilter 56 wird über einen Multiplizierer 57 auf den Addierer 54 rückgeführt, und es wird auch einem Multiplizierer 58 zugeführt. Die Multiplizierer 57 und 58 erhalten ein Steuersignal EFB (Echorückkopplung) bzw. ein Signal EVL (Echolautstärke) über Anschlüsse 67 bzw. 68 vom Register-RAM 12. Das Ausgangssignal vom Multiplizierer 58 wird an den Addierer 53 gegeben, in dem es mit dem Ausgangssignal vom Hauptaddierer 51 ml nach Verarbeitung desselben durch den Multiplizierer 52 addiert wird. Das gemischte Ausgangssignal wird an ein Filter 59 (Gegenüberabtasteffekte) an einen Ausgangsanschluß Lout gegeben.
Die externen RAMs 14 El und 14 Er von Fig. 3 bilden einen Teil des externen RAM 1 von Fig. 4 entsprechend wie das externe RAM 14 V von Fig. 2, was dazu führt, daß die Signalein- und -ausgabe für jede Stimme und jeden Kanal im Zeitmultiplex erfolgt. Außerdem werden der Puffer-RAM 22 von Fig. 2 und der Puffer-RAM 55 von Fig. 3 im Zeitmultiplex betrieben, entsprechend wie oben beschrieben.
Die Funktion des Ausführungsbeispiels wird nun erläutert.
Der Quelltondatenspeicherbereich 14 V speichert Quelltondaten für verschiedene Musikinstrumente, wie z. B. für Klavier, Saxophon oder Schlagzeug. Den Quelltondaten werden Ziffern zwischen 0 und 255 zugeteilt. Dabei werden die Daten für Nichtintervallkomponenten und Intervallkomponenten unter unterschiedlichen Ziffern gespeichert. Acht Quelltondaten, die durch die Quelltonwählsignale SRC a -SRC h ausgewählt werden, werden durch die Signalverarbeitungsbereiche 20 A-20 H für die jeweilige Stimme im Zeitmultiplex verarbeitet.
Beim Ausführungsbeispiel wird eine Abtastfrequenz fs von 44,1 kHz verwendet, und das berechnende Bearbeiten erfolgt für 128 Zyklen für acht Stimmen und zwei Kanäle innerhalb einem Abtastzyklus (1/fs). Ein Rechenzyklus beträgt im Beispielsfall 170 Nanosekunden.
Anders als bei der üblichen Funktion werden beim Ausführungsbeispiel die Schalter S 1a -S 1h , die den Tonstart (Taste Ein) und den Tonstopp (Taste Aus) für die jeweiligen Stimmen angeben, mit Hilfe verschiedener Flaggen gesteuert. Die Steuerdaten KON (Taste Ein) und KOF (Taste Aus) werden also jeweilig bereitgestellt. Beide Steuerdaten sind 8-Bit- Daten, und sie werden in getrennte Register eingeschrieben. Bits D₀-D₇ für jeden Steuerwert legen das Signal Taste Ein bzw. Taste Aus für jede der Stimmen *A-*H fest.
Daher kann der Benutzer (Musiksoftwarehersteller) eine Flagge nur in derjenigen Stimme auf "1" setzen, für die er zwischen Taste Ein und Taste Aus schalten möchte, so daß der Benutzer der mühseligen Arbeit entledigt ist, ein Programm zu erstellen, in dem Bits, die nicht mit jeder individuellen Musiknote geändert werden, in einem Pufferregister zwischengespeichert werden.
Wenn bei der vorliegenden Ausführungsform die Quelltondaten, aufteilt in Nichtintervallkomponenten und Intervallkomponenten, wiedergegeben werden, werden die Nichtintervallkomponentendaten aus dem RAM 14 V ausgelesen, und der Schalter S 1a des Signalverarbeitungsbereichs 20 A für die Stimme *A wird so eingestellt, daß die Nichtintervallkomponente a in der Stimme *A verarbeitet wird, wie durch Fig. 6A veranschaulicht. Wenn die Daten für die Nichtintervallkomponente a ganz aus dem RAM 14 V ausgelesen sind, werden die Daten für einen Zyklus für die folgende Intervallkomponente wiederholt ausgelesen und jeweils einer der Schalter S 1b -S 1h für einen der freien Signalverarbeitungsbereiche 20 B-20 H für die Stimmen *B-*H wird so eingestellt, daß die Intervallkomponenten für jede der Stimmen *B-*H verarbeitet werden. Es sei angenommen, daß der Signalverarbeitungsbereich 20 B für die Stimme *B frei ist. In diesem Fall wird die auf die Nichtintervallkomponente a folgende Intervallkomponente b durch den Signalverarbeitungsbereich 20 b verarbeitet, wie in Fig. 6B veranschaulicht. In diesem Fall wird die Intervallkomponente b in Daten mit vorgegebener Teilung durch den Teilungskonverter 23 umgewandelt.
Wenn Töne unterschiedlicher Lautstärken vom selben Musikinstrument als überlappter Ton wiedergegeben werden, der aus der Nichtintervallkomponente a und der Intervallkomponente b gebildet ist, wird, wie in Fig. 6A dargestellt, eine Nichtintervallkomponente a′, die der Nichtintervallkomponente A ähnlich ist, aus dem RAM 14 V gelesen, und sie wird durch den Signalverarbeitungsbereich 20 A für die Stimme *A verarbeitet. In diesem Fall wird die Intervallkomponente b durch den Signalverarbeitungsbereich 20 B für die Stimme *B verarbeitet und eine Intervallkomponente b′, die auf die Nichtintervallkomponente a′ folgt, wird durch einen Signalverarbeitungsbereich für eine andere freie Stimme verarbeitet, z. B. durch den Signalverarbeitungsbereich 20 C für die Stimme *C. Die Intervallkomponente b′ ist in Fig. 6C veranschaulicht. Sie wird durch den Teilungskonverter 23 in eine Intervallkomponente umgewandelt, die sich von der Intervallkomponente b unterscheidet. Jeweilige Töne werden dann durch die Hauptaddierer 51 ml und 51 mr oder die Unteraddierer 51 el und 51 er der Signalverarbeitungsbereiche 50 L und 50 R für den linken und den rechten Kanal verarbeitet, und sie werden als Doppelton ausgegeben.
Beim Ausführungsbeispiel werden acht Stimmen *A-*H im Zeitmultiplex verarbeitet, so daß der Teilungskonverter 23 eine Interpolation, d. h. ein übergeordnetes Abtasten, auf der Basis von Eingangsdaten für vorhergehende und folgende vier Abtastungen ausführt, wodurch die Teilungskonvertierung mit derselben Abtastfrequenz fs erfolgt, wie sie für die Eingangsdaten eingesetzt wird. Die gewünschte Teilung wird durch die Steuersignale P(H) und P(L) vorgegeben.
Wenn das untere signifikante Bit des Steuersignals P(L) "0" ist, ist es möglich zu vermeiden, daß die Interpolationsdaten irregulär ausgewählt und entfernt werden. Dadurch ist es möglich, einen wiedergegebenen Ton hoher Qualität zu erzielen, der frei von sehr kleinen Pegelschwingungen ist.
Wenn der Schalter S 2a durch das Kontrollsignal FMON geschlossen wird, wie er über den Anschluß 35 a zugeführt wird, werden Audiosignaldaten für z. B. die Stimme *H, die dem Anschluß 34 a zugeführt werden, zu den Pegelsteuerdaten P(H) und P(L) addiert, wodurch das Audiosignal für die Stimme *A frequenzmoduliert (FM) wird.
Wenn also das Modulationssignal sehr niedrige Frequenz von z. B. einigen Hz aufweist, wird das modulierte Signalvibrato wiedergegeben. Wenn das Modulationssignal eine hörbare oder niedere Frequenz aufweist, ändert sich die Tonqualität des wiedergegebenen Tons des modulierten Signals. Eine FM-Tonquelle wird also durch das Abtastsystem gebildet, ohne daß eine Tonquelle ausschließlich für die Modulation bereitgestellt werden muß. Die Steuersignal FMON sind als 8-Bit- Daten im Register eingeschrieben, entsprechend den oben genannten Signalen KON, und die Bits D₀-D₇ entsprechen den Stimmen *A-*H.
Im Multiplizierer 26 wird die Teilung des Ausgangssignals vom Teilungskonverter 23 zeitabhängig auf Basis der Steuersignale ENV oder ADSR gesteuert. Wenn das höchstsignifikante Bit MSB des Steuersignals ADSR "1" ist, ist der Schalter S 3a geschaltet, wie in Fig. 2 dargestellt, wodurch ADSR-Steuerung ausgeführt wird. Wenn dagegen das höchstsignifikante Bit MSB des Steuersignals ADSR "0" ist, ist der Schalter S 3a in der Lage, die der in Fig. 2 dargestellten gegenüberliegt und Hüllkurvensteuerung, wie z. B. Schwundsteuerung, wird ausgeführt.
Für die Hüllkurvensteuerung können über die oberen drei Bits des Steuersignals ENV fünf verschiedene Betriebsarten gewählt werden, wie Direktbestimmung, geradlinige oder polygonale Schwund-Ein-Steuerung oder geradlinige oder exponentielle Schwund-Aus-Steuerung. In diesem Fall wird der vorliegende Spitzenwert als Ausgangssignal in jeder Betriebsart verwendet.
Bei der ADSR-Steuerung wird der Signalpegel nur in der Anschlagperiode geradlinig erhöht, während er in den drei anderen Perioden, nämlich der Abklingperiode, der Aufrechterhaltungsperiode und der Freigabe-periode exponentiell erniedrigt wird.
Die Dauern der Schwund-Ein-Periode und der Schwund-Aus-Periode werden für jede Betriebsart genau abhängig von Parameterwerten bestimmt, die durch die unteren fünf Bits des Steuersignals ENV bestimmt sind.
Ähnlich werden die Dauern der Anschlagperiode und der Aufrechterhaltungsperiode abhängig von Parameterwerten bestimmt, die durch die oberen und unteren vier Bits des Steuersignals ADSR(2) gegeben sind. Darüber hinaus sind der Aufrechterhaltungspegel und die Dauern der Abklingperiode und der Freigabeperiode durch Parameterwerte bestimmt, die durch jeweils zwei Bits des Steuersignals ADSR(1) gegeben sind.
Um die Zahl von Berechnungen zu erniedrigen, wird beim Ausführungsbeipiel der Signalpegel geradlinig in der Anschlagperiode der ADSR-Betriebsart erhöht. Wenn als ADSR-Betriebsart die Hüllkurvenbetriebsart eingeschaltet wird, wird dafür gesorgt, daß die Schwund-Ein-Betriebsart mit polygonaler Linie der Anschlagperiode und die Schwund-Aus-Betriebsart mit exponentieller Linie der Abklingperiode, der Aufrechterhaltungsperiode und der Freigabeperiode entspricht, wodurch die ADSR-Steuerung von Hand naturgetreuer ausgeführt werden kann.
Wenn das Ausgangssignal vom Multiplizierer 26 und das Eingangssignal zur Hüllkurvensteuerung über die Anschlüsse 41 a und 42 a dem Register-RAM 12 zugeführt werden und mit jeder Abtastperiode neu eingeschrieben werden und dann eine Mehrzahl von Audiosignalen mit jeweils sehr unterschiedlichen Teilungen aus den Quelltondaten von z. B. demselben Musikinstrument gebildet werden, wird es möglich, ein Audiosignal mit gewünschter Hüllkurvencharakteristik zu erhalten, die vom vorgegebenen ADSR-Muster unterschiedlich ist.
In den Signalverarbeitungsbereichen 50 L und 50 R für den linken und rechten Kanal (Fig. 3), werden die Schalter S 4a , S 5a -S 4h und S 5h jeweils durch das Steuersignal EON (EON a - EON h ) von den Anschlüssen 61 a-61 h geschlossen, wodurch die Stimmen für einen Halleffekt ausgewählt werden. Die Steuerdaten EON sind in 8-Bit-Register eingeschrieben, wie in der obigen Liste 2 angegeben.
Die Echoverzögerungszeiten, die vom Subaddierer 51 el an eine jeweilige Stimme gegeben werden, sind so festgelegt, daß sie für den linken und den rechten Kanal in einem Bereich von z. B. 0-250 msec gleich sind, was durch das Steuersignal EDL festgelegt ist, das dem Echosteuerbereich 14 El vom Anschluß 64 aus zugeführt wird. Darüber hinaus wird durch das Steuersignal EFB mit codierten acht Bits, wie es dem Multiplizierer 57 vom Anschluß 67 zugeführt wird, festgelegt, daß das Amplitudenverhältnis für das vorhergehende und das folgende Echo phasenmäßig für den linken und den rechten Kanal jeweils dasselbe ist.
Das Steuersignal ESA vom Anschluß 63 liefert die oberen acht Bits der Startadresse für denjenigen Bereich im externen RAM 14, der zum Steuern des Echos (des Halls) dient.
Das FIR-Filter 56 erhält die Koeffizienten C₀-C₇ mit codierten acht Bits vom Anschluß 66. Hierdurch wird die Bandpaßcharakteristik des FIR-Filters 56 so bestimmt, daß in bezug auf den Höreindruck ein natürlicher Echoton geliefert wird.
Das so erhaltene Echosignal wird dem Multiplizierer 58 zugeführt, in dem des mit dem Steuersignal EVL vom Anschluß 68 multipliziert wird. Das multiplizierte Echosignal gelangt an den Addierer 53, in dem es zum Hauptaudiosignal addiert wird, das im Multiplizierer 52 mit dem Steuersignal MVL multipliziert wurde. Die Steuersignale MVL und EVL sind 8-Bit-Daten ohne Codes, und sie sind abhängig voneinander. Sie sind auch unabhängig in bezug auf den linken und den rechten Kanal.
Daher können das Hauptaudiosignal und das Echosignal unabhängig voneinander pegelgesteuert werden, wodurch das wiedergegebene Tonfeld so erzeugt wird, als würden sich die Hörer im ursprünglichen akustischen Raum befinden.
Beim elektronischen Musikinstrument gemäß dem Ausführungsbeispiel wird die Nichtintervallkomponente als Formantkomponente durch den Signalverarbeitungsbereich für die Stimme *A verarbeitet und die Intervallkomponente wird durch irgendeinen der Signalverarbeitungsbereiche 20 B-20 H für die Stimmen *B-*H verarbeitet, wodurch der Ton von Musikinstrumenten durch die Abtasttonquelle ausgezeichnet nachgeahmt werden kann, die die Nichtintervallkomponenten von sieben überlappenden Tönen in maximal acht Stimmen beinhaltet. Dementsprechend kann, verglichen zu dem Fall, wo zwei Stimmen der Nichtintervallkomponente und der Intervallkomponente jedem Ton zugeordnet werden, ein komplexerer Ton unter Zuhilfenahme von weniger Stimmen wiedergegeben werden.
Wenn beim Ausführungsbeispiel das Verarbeiten zum Hinzufügen eines Halltones durch die Signalverarbeitungseinrichtungen 50 L und 50 R für den linken und rechten Kanal ausgeführt wird, wird das digitale Audiosignal mit Hilfe des freien Bereichs des externen RAM 14 verzögert, was dazu benutzt wird, Quelltondaten zu speichern. Daher wird der externe RAM 14 effektiver genutzt, und ein RAM, der ausschließlich zum Verzögern von Audiosignalen verwendet wird, kann entfallen. Daher kann eine Audiosignalerzeugungseinrichtung gemäß dem Ausführungsbeispiel mit weniger Speichern ausgebildet werden als vergleichbare bekannte Einrichtungen und die Schaltung vereinfacht sich.
Es wird darauf hingewiesen, daß der Speicherplatz, der von den Verzögerungen bearbeitenden Echosteuerbereichen 14 El und 14 Er belegbare Speicherplatz erniedrigt wird, wenn sich der vom Quelltondatenspeicherbereich 14 V beanspruchte Speicherplatz erhöht. Dieser Nachteil kann dadurch beseitigt werden, daß berücksichtigt wird, daß die gesamte Speicherkapazität des Quelltondatenspeicherbereichs 14 V und der Echosteuerungsbereiche 14 el und 14 er die gesamte Speicherkapazität des externen RAM 14 nicht übersteigen kann, wenn Musiksoftware hergestellt wird, die im Quelltondaten-ROM 1 zu speichern ist.
Fig. 7 zeigt als Blockschaltbild die Berechnung, die in Zusammenhang mit dem Addierprozeß für das Echo ausgeführt wird. Blöcke, die anhand der Fig. 3 und 4 bereits erläutert wurden, tragen jeweils dasselbe Bezugszeichen wie dort und werden hier nicht mehr näher erläutert.
Bei der Anordnung gemäß Fig. 7 wird ein Multiplizierer 71 mit Ausgangssignalen vom Puffer-RAM 55 und einem Y₀-Register 85 über eine Busleitung 72 versorgt. Dieser Multiplizierer 71 erhält auch ein Ausgangssignal vom Register-RAM 12 über eine Busleitung 73. Das Ausgangssignal vom Multiplizierer 71 wird einem C-Register 82 zugeführt, dessen Ausgangssignal über einen Überlaufbegrenzer 83 und einen Pegelschieber 84 ebenfalls an das Y₀-Register 85 sowie ein Y₁-Register 86 und ein Y₂-Register 87 gelangt. Das Ausgangssignal vom Y₀-Register 85 wird, wie bereits angegeben, über die Busleitung 72 an den Multiplizierer 71 gegeben. Das Ausgangssignal vom Y₁-Register 86 wird nach außen geführt. Das Ausgangssignal vom Y₂-Register 87 wird dem Puffer-RAM 55 und über ein Z₄- Register 88 dem Register-RAM 12 und dem externen RAM 14 zugeführt.
Die Funktion des Hauptbereichs von Fig. 7 wird nun erläutert.
Wenn die Tonlautstärke für den linken Kanal, z. B. für die Stimme *A, eingestellt wird, werden ein Lautstärkekoeffizient LVL für den linken Kanal vom Register-RAM 12 und Signaldaten xe vom y₀-Register 85 miteinander im Multiplizierer 71 multipliziert. Wenn dagegen die Tonlautstärke für den rechten Kanal eingestellt wird, werden ein Lautstärkekoeffizient RVL für den rechten Kanal vom Register-RAM 12 und ein Signaldatenwert xe vom Y₀-Register 85 durch den Multiplizierer 71 miteinander multipliziert.
Die Berechnungsfolgen werden durch die folgenden Gleichungen (3) und (4) beschrieben:
Für die anderen Stimmen *B-*H werden die Lautstärken für den linken und den rechten Kanal ähnlich wie vorstehend beschrieben eingestellt.
Beim Ausführungsbeispiel wird darüber hinaus die folgende Berechnung angestellt, um den Hallton zum digitalen Audiosignal zu addieren.
Wenn die Hauptlautstärken für den linken und den rechten Kanal eingestellt werden, werden durch den Multiplizierer 71 der Hauptlautstärkekoeffizient MVL vom Register-RAM 12 und die Signaldatenwerte x L und x R , wie durch die Gleichung (3) bzw. (4) gegeben, wie sie vom Y₀-Register 85 geliefert werden, miteinander multipliziert. Das Multiplikationsergebnis wird im C-Register 82 zwischengespeichert.
Wenn andererseits die Untertonlautstärken für den linken und den rechten Kanal eingestellt werden, werden die Audiodaten x LE und x RE für die selektiv mit Echos zu addierenden Stimmen durch das Tiefpaßfilter verarbeitet, wie vorstehend beschrieben. Dann werden die so bearbeiteten Audiodaten y LF und y RF jeweils mit einem Echorückkopplungskoeffizienten EFB multipliziert, die ausgewählten Audiodaten x LE bzw. x RE werden addiert, und dann werden die Ergebnisse an die externen Speicher 14 El bzw. 14 Er geliefert.
Die so durch das Tiefpaßfilter verarbeiteten Audiodaten y LF und y RF werden mit dem Echoton-Lautstärkekoeffizienten EVL multipliziert und dann zum vorstehend genannten Haupttonlautstärkedatenwert addiert. Die Berechnungen werden durch die folgenden Gleichungen (5) bis (8) beschrieben:
Die mit Hilfe der Gleichungen (6) und (8) berechneten Ergebnisse werden über das Y₂-Register 87 an den Puffer-RAM 85 geliefert und in diesem gespeichert.
Statt auf Abtasttondaten, wie für das Ausführungsbeispiel beschrieben, können die Berechnungen auch auf beliebige andere Tondaten angewandt werden.
Wie vorstehend im Detail beschrieben, wird ein Echosignalverzögerungsbereich im freien Bereich desjenigen Speichers eingerichtet, in dem die Quelltondaten gespeichert werden. Dabei wird dafür gesorgt, daß das Einrichten eines Verzögerungsbereichs verhindert werden kann, um zu verhindern, daß der Verzögerungsbereich versehentlich in einem Speicherbereich eingerichtet wird, in dem Tondaten gespeichert sind. Dadurch wird ein nur für die Echosignale erforderlicher Speicher überflüssig, und es läßt sich eine Einrichtung zum Erzeugen digitaler Audiosignale schaffen, die in stabiler und positiver Weise den Halleffekt beeinflußt.
Das schematische Blockdiagramm von Fig. 8 zeigt eine Anordnung zum Berechnen von Frequenzmodulationsdaten (FM). Funktionsblöcke, die bereits anhand von Fig. 7 beschrieben wurden, tragen dasselbe Bezugszeichen wie dort und werden nun nicht mehr näher erläutert.
Der Multiplizierer 71 erhält die Ausgangssignale vom Register- RAM 12 und vom Puffer-RAM 12 über die Busleitung 72. Er erhält auch die Ausgangssignale von ROMs 74 und 75 über die Busleitung 73. Das Ausgangssignal von einem weiteren ROM 76 wird über eine Busleitung 77 einem Addierer 81 zugeführt, wo es zum Ausgangssignal vom Multiplizierer 71 addiert wird. Das Ausgangssignal gelangt an das C-Register 82. Dessen Ausgangssignal wiederum wird über die Busleitung 77 an den Addierer 81 rückgeführt, und es gelangt außerdem über den Überlaufbegrenzer 83 und den Pegelschieber 84 an das Y₀-Register 85, das Y₁-Register 86 und das Y₂-Register 87. Die Ausgangssignale vom Y₀-Register 85 und vom y₂-Register 87 werden über die Busleitungen 72 und 73 an den Multiplizierer 71 rückgeführt, während das Ausgangssignal vom Y₁-Register 86 nach außen geführt ist. Die Funktion des Hauptbereichs gemäß Fig. 8 wird nun erläutert.
Bei Frequenzmodulation berechnet sich diese nach der folgenden Gleichung (9), unter der Annahme, daß y₀ der Momentanwert OUTX des Audiosignals der vorhergehenden Stimme, z. B. der Stimme *H ist, P der Teilungswert ist, der durch die Werte der P(H)- und P(L)-Register angegeben ist, und Pm der Teilungswert ist, wie er nach Frequenzmodulation vorliegt:
Pm = P(1 + y₀) (9)
Wenn weiterhin angenommen wird, daß SL der Teilungswert (Spaltwert) von RAM 22 ist, ergibt sich der Teilungswert (Spaltwert) für die nächste Abtastperiode durch die folgende Gleichung (10):
SLm = SL + Pm (10)
Das Ergebnis SLm dient zum Erzeugen von Adreßwerten für den RAM 22 und den ROM 76 zum Berechnen von Teilungskonversion, wodurch die Eingangsdaten für den Teilungskonverter 23 und die Teilungskonverterfilterkoeffizienten erzeugt werden.
In einem praktischen Ausführungsbeispiel sind die Berechnungssequenzen die folgenden.
Was das Signal FMON anbetrifft, wird ein Koeffizient 1/2 vom ROM 74 erzeugt und dieser Koeffizient wird mit dem Momentanwert y₀ des Signals für die Stimme *H vom Y₀-Register 85 durch den Multiplizierer 71 multipliziert. Das Multiplikationsergebnis und die Konstante 1/2 vom ROM 76 werden durch den Addierer 81 zueinander addiert, wodurch ein Zwischenwert erzeugt wird, der durch die folgende Gleichung (11) gegeben ist, und der über das C-Register 82 in das Y₂-Register 87 eingeschrieben wird:
Dieser Zwischenwert und der Teilungswert P vom Register-RAM 12 werden durch den Multiplizierer 71 miteinander multipliziert. Das Multiplikationsergebnis und die Konstante 0 vom ROM 76 werden durch den Addierer 81 zueinander addiert, und der durch die folgende Gleichung (12) gegebene berechnete Wert wird in das C-Register 82 eingeschrieben:
Weiterhin werden der Spaltwert SL vom RAM 22 und der Koeffizient 1/2 vom ROM 74 durch den Multiplizierer 71 miteinander multipliziert. Das Multiplikationsergebnis und der durch Gleichung (12) berechnete Wert, wie er über die Busleitung 77 vom C-Register 82 geliefert wird, werden im Addierer 81 addiert, und das Ergebnis gelangt über das C-Register 82 und den Überlaufbegrenzer 83 an den Pegelschieber 84. Dieser Pegelschieber 84 erzeugt ein Pegelverschieben von × 2, wodurch ein Ausgangssignal erzeugt wird, das durch die folgende Gleichung (13) beschrieben wird das über das Y₂-Register 87 an den RAM 22 gegeben wird:
Wenn der Momentanwert y₀ des Modulationssignals größer als 0 ist, wie in Fig. 9B dargestellt, wird die Momentanfrequenz erhöht, wie durch Fig. 9A veranschaulicht. Ist dagegen der Momentanwert y₀ kleiner 0, wird die Momentanfrequenz erniedrigt, wie durch Fig. 9C veranschaulicht.
Wie oben beschrieben, wird ein Ausgangssignal von den mehreren Teilungskonvertern oder Amplitudensteuerungen anderen Teilungskonvertern oder Amplitudensteuerungen als Steuersignal zugeführt, um so ein frequenzmoduliertes oder amplitudenmoduliertes Audiosignal zu erhalten. Dadurch wird eine ausschließlich für Modulationszwecke erforderliche Signalquelle überflüssig, wodurch die digitale Audiosignalerzeugungseinrichtung gemäß dem Ausführungsbeispiel einfachen Aufbau erhält.
Fig. 10 zeigt in Funktionsblockdarstellung ein Beispiel für eine Synchronisierschaltung, durch die die digitale Signalverarbeitungseinrichtung 10 und die CPU 13 Daten in den externen RAM 14 im Zeitmultiplex einschreiben oder aus diesem auslesen können.
Beim Ausführungsbeispiel gemäß Fig. 10 sind Busleitungen der digitalen Signalverarbeitungseinrichtung 10 und der CPU 13 über Halteschaltungen 10 a und 13 a sowie Schalter 97, 98 und 99 mit dem externen RAM 14 verbunden. Dabei sind eine Adreßbusleitung, eine Datenbusleitung und eine Steuerbusleitung der digitalen Signalverarbeitungseinrichtung 10 über die Halteschaltung 10 a mit ersten festen Kontakten 97 a, 98 a bzw. 99 a der Busleitungswechselschalter 97, 98 bzw. 99 verbunden. Die Adreßschaltung, die Datenbusleitung und die Steuerbusleitung der CPU 13 sind über die Halteschaltung 13 a mit zweiten feststehenden Kontakten 97 b, 98 b bzw. 99 b der Wechselschalter 97, 98 bzw. 99 verbunden. Bewegliche Kontakte 97 m, 98 m und 99 m dieser Schalter 97, 98 und 99 sind mit der Adreßbusleitung, der Datenbusleitung bzw. der Steuerbusleitung des externen RAM 14 verbunden.
Einem ersten und einem zweiten Frequenzteiler 92 bzw. 93 wird ein Frequenzsignal von einem Oszillator 91 zugeführt, der über einen Quarzoszillator 91 a verfügt. Das frequenzgeteilte Signal vom ersten Frequenzteiler 92 wird der digitalen Signalverarbeitungseinrichtung 10 und einer Multiplexsteuerung 94 als Taktsignal zugeführt. Die Schalter 97, 98 und 99 schalten auf ein Umschaltsignal von der Multiplexsteuerung 94 hin um.
Ein Multiplexsignal von der Multiplexsteuerung 94 wird einem Eingang eines Komparators 94 zugeführt, der außerdem ein Maschinentaktsignal von der CPU 13 erhält. Der Komparator 95 ermittelt die Phasendifferenz zwischen dem Schaltzeitpunkt der Schalter 97-99 und dem Maschinentakt von der CPU 13 und er liefert ein Koinzidenzsignal an einen Eingang eines UND-Gliedes 96. Dem anderen Anschluß dieses UND-Gliedes 96 wird das frequenzgeteilte Signal vom zweiten Frequenzteiler 93 zugeführt. Das Ausgangssignal vom UND-Glied 96 wird auf die CPU 13 als Taktsignal geführt.
Die Funktion der Synchronisierschaltung 10 wird nun anhand der zeitkorrelierten Taktfolgen gemäß den Fig. 11A-11D erläutert.
Das Taktsignal gemäß Fig. 11A, das durch Frequenzteilung des Signals vom Oszillator 91 durch den ersten Frequenzteiler 92 gewonnen wurde, wird der digitalen Signalverarbeitungseinrichtung 10 zugeführt. Das Ausgangssignal vom zweiten Frequenzteiler 92 gelangt zur Multiplexsteuerung 94, die eine solche Multiplexsteuerung vornimmt, daß acht Perioden des Ausgangssignals vom ersten Frequenzteiler 92 als eine Periode gesetzt werden. Dementsprechend erzeugt die Multiplexsteuerung 94 als Multiplexsignal ein solches, wie es in Fig. 11B veranschaulicht ist, das nach jeweils vier Perioden des Taktsignals für die digitale Signalverarbeitungseinrichtung 10 auf hohen bzw. tiefen Pegel wechselt.
Das Frequenzteilverhältnis des zweiten Frequenzteilers 93 ist das Vierfache des Verhältnisses vom ersten Frequenzteilers 92, wodurch der zweite Frequenzteiler 93 ein Signal erzeugt, dessen Frequenz 1/4 derjenigen des Taktsignals für die digitale Signalverarbeitungseinrichtung 10 ist. Dieses Frequenzsignal, wie es in Fig. 11C dargestellt ist, wird der CPU 13 als Taktsignal zugeführt. Der Maschinenzyklus der CPU 13 ist demgemäß ein Signal (Fig. 11D), das sich synchron mit dem Zeitmultiplexsignal ändert. Wenn der Hauptschalter der digitalen Audiosignalerzeugungseinrichtung eingeschaltet wird und der Komparator 95 feststellt, daß das Zeitmultiplexsignal und das Maschinenzyklussignal in der Phase invertiert sind, wird das Koinzidenzermittlungssignal nicht an das UND-Glied 96 geliefert, so daß der CPU 13 kein Taktsignal vom UND-Glied 96 zugeführt wird. Das Taktsignal (Fig. 11C) für die CPU 13 verliert dadurch einen Takt, was durch die gestrichelte Linie in Fig. 11C dargestellt ist. Der Maschinenzyklus wird daher vorübergehend halbiert und wird dadurch gleichphasig mit dem Multiplexsignal.
Anhand der zeitkorrelierten Taktsignale von Fig. 12A-12G wird nun erläutert, wie Daten von der digitalen Signalverarbeitungseinrichtung 10 und der CPU 13 im Zeitmultiplex aus dem RAM 14 gelesen und in diesen eingeschrieben werden.
Beim Ausführungsbeispiel ist die Zugriffszeit für den externen RAM 14 etwa 330 Nanosekunden und die Zugriffszeit für die digitale Signalverarbeitungseinrichtung 10 ist etwa 240 Nanosekunden. Ein Maschinenzyklus der CPU 13 ist etwa 1 Mikrosekunde, von denen etwa 375 Nanosekunden als Speicherzugriffszeit genutzt werden.
Es sei angenommen, daß die anhand von Fig. 10 beschriebene Synchronisierschaltung Taktsignale für die digitale Signalverarbeitungseinrichtung, die CPU 13 und ein Zeitmultiplexsignal erzeugt, wie sie für den Normalzustand durch die Fig. 12A, 12B bzw. 12C veranschaulicht sind. Die Speicherzugriffsperiode Mc der CPU 13 liegt dann in der zweiten Hälfte eines Maschinenzyklus S, wie durch Fig. 12D veranschaulicht. In der ersten Hälfte eines Maschinenzyklus S liegen dann zwei Speicherzugriffsperioden M D 1 und M D 2 durch die digitale Signalverarbeitungseinrichtung 10, wie in Fig. 12E gezeigt.
Da andererseits die Zugriffszeit des externen RAM 14 etwa 330 Nanosekunden beträgt, liegen drei Zugriffsperioden M D 1′, M D 2′ und M C ′ mit jeweils gleicher Länge in einem Maschinenzyklus S, was Fig. 12G zeigt.
Beim Ausführungsbeispiel fallen die Zugriffsperioden für die digitale Signalverarbeitungseinrichtung 10, die CPU 13 und den externen RAM 14 nicht zusammen, jedoch können die Verschiebungen in den Zugriffsperioden mit Hilfe der Schalter 97-99 durch die Zeitmultiplexsteuerung 94 und die Haltefunktion der Halteschaltungen 10 a und 13 a eingestellt werden. Genauer gesagt erzeugt die Multiplexsteuerung 94 ein Schaltsignal, wie es in Fig. 12F dargestellt ist, auf Grundlage des Zeitmultiplexsignals von Fig. 12C, wodurch die beweglichen Kontakte 97 m, 98 m und 99 m der Schalter 97, 98 bzw. 99 mit den ersten festen Kontakten 97 a, 98 a bzw. 99 a in der ersten Zugriffsperiode M D 1′ und der zweiten Zugriffsperiode M D 2′ des externen RAM 14 verbunden werden, dagegen die genannten beweglichen Kontakte in der dritten Zugriffsperiode M C ′ mit den zweiten festen Kontakten 97 b, 98 b bzw. 99 b verbunden werden. Das Halteglied 10 a, das mit der digitalen Signalverarbeitungseinrichtung 10 verbunden ist, ist so ausgebildet, daß es die über die Busleitungen zugeführten Signale während der ersten Zugriffsperiode M D 1 der digitalen Signalverarbeitungseinrichtung hält, und zwar so lange, bis die erste Zugriffsperiode M D 1′ des externen RAM 14 beendet ist. Weiterhin hält es die über die Busleitungen während der zweiten Zugriffsperiode M D 2 der digitalen Signalverarbeitungseinrichtung 10 zugeführten Signale so lange, bis die zweite Zugriffsperiode M D 2′ des externen RAM 14 beendet ist. Entsprechend ist die mit der CPU 13 verbundene Halteschaltung 13 a so ausgebildet, daß sie über die Busleitungen während der Zugriffsperiode M C der CPU 13 zugeführten Signale hält, bis die dritte Zugriffsperiode M C ′ des externen RAM 14 beendet ist. Die Haltefunktionen der Halteglieder 10 a und 13 a werden z. B. durch die CPU 13 gesteuert.
Wie oben beschrieben, können die digitale Signalverarbeitungseinrichtung 10 und die CPU 13 im Zeitmultiplex auf den einzigen externen RAM 14 zugreifen, wodurch dieser besonders effektiv genutzt wird. Dadurch kann der externe RAM 14 zum Verarbeiten der Daten der digitalen Signalverarbeitungseinrichtung 10 und der CPU 13 mit weniger Speicherkapazität ausgebildet sein. Darüber hinaus können die verschiedenen Zugriffsperioden der digitalen Signalverarbeitungseinrichtung und der CPU 13 gleichgemacht werden, wodurch ein Zugriff innerhalb von jeweils etwa 330 Nanosekunden erfolgen kann. Für den externen RAM 14 kann damit ein Speicher mit verhältnismäßig geringer Zugriffsgeschwindigkeit, also ein verhältnismäßig billiger Speicher verwendet werden.
Beim Ausführungsbeispiel weist die digitale Signalverarbeitungseinrichtung 10 eine relativ hohe Zugriffsgeschwindigkeit und die CPU 13 eine relativ niedrige Zugriffsgeschwindigkeit auf. Die Zugriffsperioden können jedoch in beliebiger Weise an die Zugriffsgeschwindigkeiten der verschiedenen Datenverarbeitungseinrichtungen und des Speichers angepaßt werden.
Da nur ein externer Speicher durch zwei Datenverarbeitungseinrichtungen genutzt wird, kann er effektiver genutzt werden und Speicherkapazität kann eingespart werden.

Claims (6)

1. Vorrichtung zum Erzeugen digitaler Audiosignale, mit
  • a) einem Speicher (1) zum Speichern digitaler Audiosignale,
  • b) einer Steuereinrichtung (13) zum Lesen der digitalen Audiosignale aus dem Speicher,
  • c) einer Signalverarbeitungseinrichtung (10) zum Erzeugen von Tonsynthese aufgrund der gelesenen digitalen Audiosignale,
gekennzeichnet durch
  • d) einen Zwischenspeicher (14), der bei der Sprachsynthese durch die Steuereinrichtung (13) und die Signalverarbeitungseinrichtung (10) genutzt wird, und
  • e) eine Einrichtung zum Nutzen eines Verzögerungsbereichs in einem freien Bereich des Zwischenspeichers (14), um eine Verzögerungsverarbeitung auszuführen, wenn ein Nachhallton dem digitalen Audiosignal hinzugefügt wird, wie es durch die Tonsynthese in der Signalverarbeitungseinrichtung (10) bearbeitet wird.
2. Vorrichtung nach Anspruch 1, gekennzeichnet durch eine Einrichtung zum Verhindern, daß im Zwischenspeicher (14) der Verzögerungsbereich unabsichtlich an Stellen eingerichtet wird, die nicht überschrieben werden dürfen.
3. Vorrichtung gemäß dem Oberbegriff von Anspruch 1, dadurch gekennzeichnet, daß mehrere digitale Audiosignale jeweils durch einen von mehreren Teilungskonvertern (23) bearbeitet werden, wobei die Ausgangssignale von jeweils einem Teilungskonverter jeweils anderen Teilungskonvertern als Steuersignale zugeführt werden, wodurch ein frequenzmoduliertes digitales Audiosignal von den anderen Teilungskonvertern erzeugt wird.
4. Vorrichtung gemäß dem Oberbegriff von Anspruch 1, dadurch gekennzeichnet, daß mehrere digitale Audiosignale durch Amplitudensteuerungen (27, 28) bearbeitet werden, mit Einrichtungen zum Senden von Ausgangssignalen einer Amplitudensteuerung an andere Amplitudensteuerungen als Steuersignal, wodurch ein amplitudenmoduliertes digitales Audiosignal von einer jeweiligen anderen Amplitudensteuerung erzeugt wird.
5. Vorrichtung gemäß dem Oberbegriff von Anspruch 1, gekennzeichnet durch
  • - eine erste Signalverarbeitungseinrichtung (10) mit einem ersten Arbeitstakt, die Daten in einen gemeinsamen Speicher (14) schreibt und aus diesem liest,
  • - eine zweite Signalverarbeitungseinrichtung (13) mit einem zweiten Arbeitstakt, der sich vom ersten Arbeitstakt unterscheidet, die Daten aus dem gemeinsamen Speicher (14) liest und in diesen einschreibt,
  • - eine Auswahleinrichtung (97-99) zum wahlweisen Verbinden einer der beiden Signalverarbeitungseinrichtungen mit dem gemeinsamen Speicher,
  • - eine Steuereinrichtung (94) zum Steuern der Auswahleinrichtung in solcher Weise, daß immer nur eine der beiden Signalverarbeitungseinrichtungen auf den Speicher innerhalb einer jeweiligen Zugriffszeitspanne zugreifen kann, und
  • - Halteeinrichtungen (10 a, 13 a) zwischen den Signalverarbeitungseinrichtungen und dem gemeinsamen Speicher zum Halten von Daten einer Signalverarbeitungseinrichtung in Zeitspannen, in denen gerade die andere Datenverarbeitungseinrichtung auf den Speicher zugreift.
DE3936693A 1988-11-04 1989-11-03 Vorrichtung zum Erzeugen digitaler Audiosignale Expired - Lifetime DE3936693C2 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP63278721A JPH02125297A (ja) 1988-11-04 1988-11-04 デジタル音声信号発生装置
JP63284246A JP2754613B2 (ja) 1988-11-10 1988-11-10 デジタル音声信号発生装置
JP63289831A JPH02135564A (ja) 1988-11-16 1988-11-16 データ処理装置

Publications (2)

Publication Number Publication Date
DE3936693A1 true DE3936693A1 (de) 1990-05-17
DE3936693C2 DE3936693C2 (de) 2002-11-14

Family

ID=27336585

Family Applications (1)

Application Number Title Priority Date Filing Date
DE3936693A Expired - Lifetime DE3936693C2 (de) 1988-11-04 1989-11-03 Vorrichtung zum Erzeugen digitaler Audiosignale

Country Status (6)

Country Link
US (1) US5111530A (de)
KR (1) KR0160493B1 (de)
DE (1) DE3936693C2 (de)
FR (1) FR2638883B1 (de)
GB (4) GB2226683B (de)
HK (2) HK121795A (de)

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03139700A (ja) * 1989-10-25 1991-06-13 Sony Corp オーディオ信号再生装置
US6695477B1 (en) * 1989-10-25 2004-02-24 Sony Corporation Audio signal reproducing apparatus
EP0442041A3 (en) * 1990-01-18 1991-09-04 National Semiconductor Corporation Integrated digital signal processor/general purpose cpu with shared internal memory
US5255323A (en) * 1990-04-02 1993-10-19 Pioneer Electronic Corporation Digital signal processing device and audio apparatus using the same
US6005949A (en) * 1990-07-17 1999-12-21 Matsushita Electric Industrial Co., Ltd. Surround sound effect control device
US5283387A (en) * 1990-11-20 1994-02-01 Casio Computer Co., Ltd. Musical sound generator with single signal processing means
DE69228980T2 (de) * 1991-12-06 1999-12-02 Nat Semiconductor Corp Integriertes Datenverarbeitungssystem mit CPU-Kern und unabhängigem parallelen, digitalen Signalprozessormodul
JPH07121182A (ja) * 1993-10-27 1995-05-12 Sony Corp 割り込み情報発生装置及び音声情報処理装置
US6246774B1 (en) 1994-11-02 2001-06-12 Advanced Micro Devices, Inc. Wavetable audio synthesizer with multiple volume components and two modes of stereo positioning
US6047073A (en) * 1994-11-02 2000-04-04 Advanced Micro Devices, Inc. Digital wavetable audio synthesizer with delay-based effects processing
US6272465B1 (en) * 1994-11-02 2001-08-07 Legerity, Inc. Monolithic PC audio circuit
JP3625880B2 (ja) * 1994-12-02 2005-03-02 株式会社ソニー・コンピュータエンタテインメント 音源装置
EP0987679B1 (de) * 1995-03-03 2003-11-05 Yamaha Corporation Musikrechner bestehend aus vereinbaren Softwaremodulen
US7664263B2 (en) 1998-03-24 2010-02-16 Moskowitz Scott A Method for combining transfer functions with predetermined key creation
US6205249B1 (en) 1998-04-02 2001-03-20 Scott A. Moskowitz Multiple transform utilization and applications for secure digital watermarking
US7159116B2 (en) 1999-12-07 2007-01-02 Blue Spike, Inc. Systems, methods and devices for trusted transactions
US7457962B2 (en) 1996-07-02 2008-11-25 Wistaria Trading, Inc Optimization methods for the insertion, protection, and detection of digital watermarks in digitized data
US7346472B1 (en) * 2000-09-07 2008-03-18 Blue Spike, Inc. Method and device for monitoring and analyzing signals
US7177429B2 (en) 2000-12-07 2007-02-13 Blue Spike, Inc. System and methods for permitting open access to data objects and for securing data within the data objects
US6130624A (en) * 1997-06-10 2000-10-10 Winsor Entertainment Corporation Talking remote control
US7664264B2 (en) 1999-03-24 2010-02-16 Blue Spike, Inc. Utilizing data reduction in steganographic and cryptographic systems
US7475246B1 (en) 1999-08-04 2009-01-06 Blue Spike, Inc. Secure personal content server
US6130605A (en) * 1999-08-13 2000-10-10 Flick; Kenneth E. Vehicle security system with multi-sound pattern alarm and associated methods
US7127615B2 (en) 2000-09-20 2006-10-24 Blue Spike, Inc. Security based on subliminal and supraliminal channels for data objects
US7287275B2 (en) 2002-04-17 2007-10-23 Moskowitz Scott A Methods, systems and devices for packet watermarking and efficient provisioning of bandwidth
US20040102975A1 (en) * 2002-11-26 2004-05-27 International Business Machines Corporation Method and apparatus for masking unnatural phenomena in synthetic speech using a simulated environmental effect
JP4354268B2 (ja) * 2003-12-22 2009-10-28 株式会社河合楽器製作所 信号処理装置
CN103093746A (zh) * 2012-11-23 2013-05-08 广州市天艺电子有限公司 一种吉他效果器分享方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4389915A (en) * 1980-12-18 1983-06-28 Marmon Company Musical instrument including electronic sound reverberation
DE3318667C1 (de) * 1983-05-21 1984-10-11 WERSI-electronic GmbH & Co KG, 5401 Halsenbach Elektronisches Tastenmusikinstrument und Verfahren zu dessen Betrieb

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3699530A (en) * 1970-12-30 1972-10-17 Ibm Input/output system with dedicated channel buffering
US3866505A (en) * 1972-07-20 1975-02-18 Nippon Musical Instruments Mfg Ensemble effect imparting device using a bucket brigade device for an electric musical instrument
CA1051121A (en) * 1974-09-25 1979-03-20 Data General Corporation Overlapping access to memory modules
US4212057A (en) * 1976-04-22 1980-07-08 General Electric Company Shared memory multi-microprocessor computer system
WO1980001421A1 (en) * 1979-01-09 1980-07-10 Sullivan Computer Shared memory computer method and apparatus
US4350072A (en) * 1981-04-24 1982-09-21 Kawai Musical Instrument Mfg. Co., Ltd. Reentrant reverberation generator for an electronic musical instrument
US4586417A (en) * 1981-07-28 1986-05-06 Nippon Gakki Seizo Kabushiki Kaisha Electronic musical instruments provided with reverberation tone generating apparatus
US4731835A (en) * 1984-11-19 1988-03-15 Nippon Gakki Seizo Kabushiki Kaisha Reverberation tone generating apparatus
DE3502721A1 (de) * 1985-01-28 1986-07-31 Robert Bosch Gmbh, 7000 Stuttgart Multiprozessorsystem

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4389915A (en) * 1980-12-18 1983-06-28 Marmon Company Musical instrument including electronic sound reverberation
DE3318667C1 (de) * 1983-05-21 1984-10-11 WERSI-electronic GmbH & Co KG, 5401 Halsenbach Elektronisches Tastenmusikinstrument und Verfahren zu dessen Betrieb

Also Published As

Publication number Publication date
GB9304330D0 (en) 1993-04-21
KR900008436A (ko) 1990-06-04
GB9304329D0 (en) 1993-04-21
KR0160493B1 (ko) 1999-03-20
GB2263356A (en) 1993-07-21
GB2263356B (en) 1993-10-06
GB2263357B (en) 1993-10-06
US5111530A (en) 1992-05-05
GB2263350A (en) 1993-07-21
DE3936693C2 (de) 2002-11-14
GB2226683A (en) 1990-07-04
HK121795A (en) 1995-08-04
GB9304331D0 (en) 1993-04-21
GB8924630D0 (en) 1989-12-20
FR2638883A1 (fr) 1990-05-11
HK121395A (en) 1995-08-04
GB2263357A (en) 1993-07-21
GB2226683B (en) 1993-10-06
FR2638883B1 (fr) 1994-04-15

Similar Documents

Publication Publication Date Title
DE3936693C2 (de) Vorrichtung zum Erzeugen digitaler Audiosignale
DE2500839C3 (de) Elektronisches Musikinstrument mit Sinustabellenspeicher
DE3587423T2 (de) Tonerzeugende Vorrichtung für ein elektronisches Musikinstrument.
DE3788710T2 (de) Tonsignalverarbeitungsvorrichtung mit einem digitalen Filter.
DE3689928T2 (de) Effektvorrichtung für elektronisches Musikinstrument.
DE3887809T2 (de) Elektronisches Musikinstrument.
DE68925882T2 (de) Vorrichtung und Verfahren zur Erzeugung von musikalischen Tonwellenformen
DE69026966T2 (de) Elektronisches Musikinstrument mit mehreren verschiedenen Tonerzeugern
EP0042555B1 (de) Verfahren zur digitalen Hüllkurvensteuerung eines polyphonen Musiksyntheseinstruments und Schaltungsanordnung zur Durchführung des Verfahrens
DE2937256C2 (de) Elektronisches Musikinstrument
DE2617573A1 (de) Elektronisches musikinstrument
DE2526457C3 (de) Elektronisches Musikinstrument
DE2830482A1 (de) Elektronischer tongenerator
DE2513127C2 (de) Verfahren zum künstlichen Erzeugen eines musikalischen Klangs
DE2524063C3 (de) Elektronisches Musikinstrument mit digitaler Musiktonerzeugung
DE10009082A1 (de) Gerät zur Wiedergabe einer Wellenform
DE3226619A1 (de) Modulationseffektvorrichtung
DE3604686A1 (de) Elektronisches musikinstument
DE3037276A1 (de) Tonsynthesizer
DE2523880C3 (de) Elektronisches Musikinstrument mit digitaler Tonerzeugung
DE3226600A1 (de) Mit einem nachhalltonerzeugungsapparat ausgestattetes elektronisches musikinstrument
DE2945121A1 (de) Elektronisches musikinstrument mit multiplextastung
DE3943797B4 (de) Vorrichtung zum Verarbeiten von Quelltondaten
DE3140109C2 (de) Polyphones Musikinstrument mit elektronischer Klangerzeugung
DE3938311C2 (de) Vorrichtung zum Erzeugen von Quelltondaten

Legal Events

Date Code Title Description
8110 Request for examination paragraph 44
8128 New person/name/address of the agent

Representative=s name: PATENTANWAELTE MUELLER & HOFFMANN, 81667 MUENCHEN

8127 New person/name/address of the applicant

Owner name: SONY COMPUTER ENTERTAINMENT INC., TOKIO/TOKYO, JP

D2 Grant after examination