DE3936693A1 - Vorrichtung zum erzeugen digitaler audiosignale - Google Patents
Vorrichtung zum erzeugen digitaler audiosignaleInfo
- Publication number
- DE3936693A1 DE3936693A1 DE3936693A DE3936693A DE3936693A1 DE 3936693 A1 DE3936693 A1 DE 3936693A1 DE 3936693 A DE3936693 A DE 3936693A DE 3936693 A DE3936693 A DE 3936693A DE 3936693 A1 DE3936693 A1 DE 3936693A1
- Authority
- DE
- Germany
- Prior art keywords
- signal
- signal processing
- digital audio
- control
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/02—Means for controlling the tone frequencies, e.g. attack or decay; Means for producing special musical effects, e.g. vibratos or glissandos
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/0091—Means for obtaining special acoustic effects
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H7/00—Instruments in which the tones are synthesised from a data store, e.g. computer organs
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/155—Musical effects
- G10H2210/195—Modulation effects, i.e. smooth non-discontinuous variations over a time interval, e.g. within a note, melody or musical transition, of any sound parameter, e.g. amplitude, pitch, spectral response, playback speed
- G10H2210/201—Vibrato, i.e. rapid, repetitive and smooth variation of amplitude, pitch or timbre within a note or chord
- G10H2210/205—Amplitude vibrato, i.e. repetitive smooth loudness variation without pitch change or rapid repetition of the same note, bisbigliando, amplitude tremolo, tremulants
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/155—Musical effects
- G10H2210/265—Acoustic effect simulation, i.e. volume, spatial, resonance or reverberation effects added to a musical sound, usually by appropriate filtering or delays
- G10H2210/281—Reverberation or echo
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2250/00—Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
- G10H2250/471—General musical sound synthesis principles, i.e. sound category-independent synthesis methods
- G10H2250/475—FM synthesis, i.e. altering the timbre of simple waveforms by frequency modulating them with frequencies also in the audio range, resulting in different-sounding tones exhibiting more complex waveforms
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- General Engineering & Computer Science (AREA)
- Electrophonic Musical Instruments (AREA)
Description
Die Erfindung betrifft eine Vorrichtung zum Erzeugen digitaler
Audiosignale. Eine solche Vorrichtung kann z. B. in
elektronischen Musikinstrumenten oder als Toneffektgenerator
in Unterhaltungseinrichtungen verwendet werden.
Als Tonquelle für derartige Anwendungen ist die folgende bekannt.
Z. B. ein Rechtecksignal wird mehreren Frequenzteilern
mit jeweils unterschiedlichem Frequenzteilungsverhältnis
und unterschiedlichen Tastverhältnissen zugeführt.
Quelltonsignale (sogenannte Stimmen) von den verschiedenen
Frequenzteilern werden in geeignetem Pegel synthetisiert. In
diesem Fall kann die ursprüngliche Signalform auch dreieckig
oder sinusförmig oder von anderer Form sein.
Bei manchen Musikinstrumenten wie z. B. Klavier oder Trommel
wird die gesamte Tonerzeugungsperiode in vier Intervalle unterteilt,
nämlich eine Anschlagperiode, eine Verzögerungsperiode,
eine Aufrechterhaltungsperiode und eine Abfallperiode.
Die Amplitude (der Pegel) für das Signal in jedem
Intervall stellt eine besondere geänderte Bedingung dar.
Dementsprechend wird eine sogenannte ADSR (Attack=Anschlag,
Decay=Abklingen, Sustain=Aufrechterhalten, Release=
Freigeben) Steuerung durchgeführt, damit sich die Signalpegel
für alle Stimmen entsprechend ändern.
Im Stand der Technik ist auch eine Tonquelle für Musikinstrumente,
nämlich eine sogenannte FM-Tonquelle bekannt, bei
der ein Sinussignal durch ein anderes Sinussignal geringer
Frequenz frequenzmoduliert wird. Bei dieser FM-Tonquelle
wird ein zeitabhängiger Modulationsfaktor benutzt. Verschiedene
Arten von Tonsignalen (im folgenden Tonsignaleinrichtungen
für Audiosignale) können durch weniger Tonquellen erzeugt
werden. Die Toneffekttonquelle kann eine Rauschkomponente
sein (d. h. mit einer weißen Rauschkomponente und dergleichen).
Um mit der vorgenannten sogenannten elektronischen Tonquelle
tatsächliche Töne für verschiedene Musikinstrumente erzeugen
zu können, ist eine sehr komplexe Signalverarbeitung erforderlich,
wodurch die Schaltung für die Vorrichtung zum Erzeugen
von Audiosignalen groß wird.
Um das ebengenannte Problem zu lösen, wurde kürzlich eine
sogenannte Abtasttonquelle vorgeschlagen, durch die tatsächliche
Töne verschiedener Musikinstrumente digital aufgezeichnet
und in einen Speicher (ROM) eingeschrieben werden.
Für ein vorgegebenes Musikinstrument wird ein jeweiliges
Signal aus diesem Speicher gelesen.
Bei dieser Abtasttonquelle wird das digitale Audiosignal zum
Sparen von Speicherkapazität datenkomprimiert und erst dann
abgespeichert. Ausgelesene komprimierte Signale werden expandiert
und in die ursprünglichen digitalen Tonsignale
rückgewandelt. In diesem Fall wird nur das Signal für einen
Ton vorgegebener Lautstärke (Teilung) in den Speicher für
jedes Musikinstrument eingeschrieben. Das aus dem Speicher
ausgelesene Signal wird in der Teilung konvergiert, um ein
fundamentales Frequenzsignal eines Tones gewünschter Lautstärke
zu erzeugen.
Darüber hinaus wird eine Signalform, wie sie im Anfangsstadium
der Tonerzeugung vorliegt und wie sie für jedes Musikinstrument
eigentümlich ist, direkt in den Speicher eingeschrieben
und später wieder aus diesem ausgelesen. Diese
Signalform kann als Formante bezeichnet werden. Die Formante
bedeutet z. B. angewandt auf einen Klavierton, einen Betätigungston,
wie er erzeugt wird, wenn der Klavierspieler eine
Taste betätigt, damit ein Hammer auf eine Saite schlägt. In
diesem Fall wird ein Fundamentalzyklus einer sich in der
Form wiederholenden Welle in den Speicher eingeschrieben und
dann wiederholt aus diesem ausgelesen.
Beim Wiedergeben wird, wie dies durch Fig. 1 veranschaulicht
wird, auf eine Formante a kurzer Zeitspanne hin eine Fundamentalfrequenzsignalkomponente
b erhalten, die aus wiederholten
Wellenzügen p zusammengesetzt ist. Dadurch wird der
Ton für ein gewünschtes Musikinstrument erzeugt. Der natürliche
Ton eines Musikinstruments, z. B. eines Klaviers, kann
dadurch erzeugt werden, daß der Pegel des Signalzuges p nach
einer vorgegebenen Regel zeitlich allmählich erniedrigt
wird.
Wenn bei den oben erwähnten Musikinstrumenten ein Nachhallton
oder dergleichen zum wiedergegebenen Musikinstrumentton
hinzugefügt wird, wird es möglich, Töne unterschiedlicher
Toneindrücke zu erzeugen. Insbesondere wenn eine Vorrichtung
zum Erzeugen digitaler Audiosignale als Toneffekterzeuger in
Unterhaltungseinrichtungen verwendet wird, ist es häufig erforderlich,
einen Nachhallton zum wiedergegebenen Ton hinzuzufügen,
um den räumlichen Klangeindruck natürlicher zu
gestalten.
Wenn der Nachhallton dem digitalen Audiosignal hinzugefügt
wird, wird dieses in einem Speicher, z. B. einem RAM zwischengespeichert
und dadurch verzögert, wodurch der Nachhalleffekt
erzielt wird. Dies erfordert einen Speicher großer
Speicherkapazität zum Speichern der digitalen Audiosignale,
was zu einer kompliziert aufgebauten Vorrichtung
führt.
Darüber hinaus besteht bei der vorgeschlagenen Vorrichtung
mit Nachhalleffekt das Problem, daß dann, wenn die Steuerdaten
von einer CPU noch nicht definiert sind, da die Spannungsversorgung
gerade eben erst eingeschaltet wurde, ein
Speicherbereich für Verzögerungsdaten im Tondatenspeicherbereich
des Speichers eingerichtet wird, was dazu führt, daß
die Vorrichtung fehlerhaft arbeitet.
Wenn die FM-Funktion ausgeführt wird, um verschiedene Töne
mit der Abtasttonquelle zu gewinnen, ist eine Signalquelle
für Frequenzmodulation erforderlich, was zu kompliziertem
Schaltungsaufbau führt.
Wenn Amplitudenmodulation ausgeführt wird, um die Funktion
der Vorrichtung zu verbessern, besteht ein ähnliches Problem.
Darüber hinaus ist es erforderlich, daß der Speicher zum
Zwischenspeichern der Quelltondaten und des Steuerprogramms,
das zum Verarbeiten der Quelltondaten erforderlich ist, eine
relativ große Speicherkapazität aufweisen muß, was unvermeidlich
zu einem komplizierten Schaltungsaufbau führt.
Der Erfindung liegt die Aufgabe zugrunde, eine Vorrichtung
der eingangs genannten Art anzugeben, die bei einfachem Aufbau
weitgehende Tonmanipulation zuläßt.
Diese Aufgabe ist durch die Lehren der nebengeordneten Ansprüche
1 sowie 3-5 gelöst.
Die Lehre von Anspruch 1 ermöglicht es, Halltöne zu vielen
Stimmen hinzufügen zu können, ohne daß ein besonderer Speicher
erforderlich ist.
Die Lehre gemäß Anspruch 2 ermöglicht ein einfaches Ausführen
von Frequenzmodulation, während diejenige von Anspruch 4
ein einfaches Ausführen von Amplitudenmodulation ermöglicht.
Die Lehre von Anspruch 5 ermöglicht besonderes effektives
Nutzen eines einzigen Speichers. Dabei ist es sogar möglich,
einen Speicher mit sehr hoher Zugriffszeit, also einen sehr
billigen Speicher, zu verwenden.
Die Erfindung wird im folgenden anhand eines durch Figuren
veranschaulichten Ausführungsbeispiels näher erläutert. Es
zeigen:
Fig. 1 ein schematisches Diagramm zum Erläutern, wie der
zeitliche Tonverlauf von einem Musikinstrument
wiedergegeben wird;
Fig. 2 und 3 Blockdiagramme zum Veranschaulichen der Funktion
eine Hauptteils einer Vorrichtung zum Erzeugen
digitaler Audiosignale;
Fig. 4 ein schematisches Blockdiagramm zum Erläutern der
Gesamtfunktion einer Vorrichtung zum Erzeugen digitaler
Audiosignale;
Fig. 5 ein schematisches Diagramm zum Erläutern des Inhalts
eines RAM;
Fig. 6A-6C Spektraldiagramme mit Frequenzen zum Erläutern
der Funktion einer Vorrichtung zum Erzeugen
digitaler Audiosignale;
Fig. 7 ein Blockdiagramm zum Erläutern der Funktion eines
Berechnungsbereichs, der dazu dient, einen Nachhallton
zu einem digitalen Audiosignal zu addieren;
Fig. 8 ein Blockdiagramm zum Erläutern der Funktion eines
Hauptteils eines Berechnungsbereichs zum Erzeugen
von Frequenzmodulation;
Fig. 9A-9C schematische Darstellungen von Signalzügen
zum Erläutern der Funktion der Anordnung gemäß
Fig. 8;
Fig. 10 ein Blockdiagramm zum Erläutern der Funktion einer
Synchronisierschaltung;
Fig. 11A-11D zeitkorrelierte Pulsdiagramme zum Erläutern
der Funktion der Synchronisierschaltung gemäß
Fig. 10; und
Fig. 12A-12G zeitkorrelierte Pulsdiagramme zum Erläutern,
wie im Zeitmultiplex auf einen RAM zugegriffen
wird.
Anhand der Fig. 2-5, zunächst Fig. 4, wird nun die Gesamtanordnung
eines Ausführungsbeispiels der Erfindung näher erläutert.
Die Anordnung gemäß Fig. 4 weist ein Tondaten-ROM auf, das
z. B. als ROM-Cartridgeeinheit ausgebildet ist und außerhalb
des Gerätes gemäß Fig. 4 angeordnet ist. In diesem Tondaten-
ROM 1 sind Tondaten von z. B. ursprünglich 16 Bit, die aus
den Tönen verschiedener Musikinstrumente abgeleitet und
digital aufgezeichnet sind, wie oben beschrieben. Sie werden
mit verkürzter Bitlänge, z. B. mit 4 Bits (d. h. BRR-codiert)
in einem Block gespeichert. Beim Ausführungsbeispiel
sind Musikinstrumenttöne, wie z. B. diejenigen eines Klaviers,
getrennt in der Form von Nichtintervallkomponenten,
genannt Formantkomponenten, im Anfangsstadium der Tonerzeugung
und als Intervallkomponente aufgezeichnet, wobei letztere
ein fundamentales Frequenzsignal für einen Tonzyklus
besonderer Lautstärke darstellen.
Der in Fig. 4 mit dem Bezugszeichen 10 bezeichnete Block
stellt eine Signalverarbeitungseinrichtung dar, die als
elektronisches Musikinstrument wirkt. Diese digitale Signalverarbeitungseinrichtung
10 beinhaltet einen Signalverarbeitungsteil
11 und einen Register-RAM 12. Von den im Tondaten-
ROM 1 gespeicherten Tondaten für verschiedene Arten von Tonquellen
werden gewünschte Tondaten über den Signalverarbeitungsbereich
11 an einen externen RAM 14 unter Steuerung
durch eine CPU 13 ausgegeben. Der externe RAM 14 weist eine
Speicherkapazität von z. B. 64 kByte auf und speichert, zusätzlich
zu den Tondaten, das Programm für die CPU 13 und
Verzögerungsdaten, die zum Hinzufügen von Halbtönen in einem
Zeitmultiplexverfahren benutzt werden. Ähnlich kann das
Register-RAM 12, das z. B. verschiedene Steuerdaten steuert,
sowohl durch den Signalverarbeitungsbereich 11 wie auch
durch die CPU 13 im Zeitmultiplex angesprochen werden.
Die aus dem externen RAM 14 gelesenen Tondaten werden durch
BRR-Decodierern in die usprünglichen Tondaten rückgewandelt,
welcher Decodierprozeß umgekehrt zum oben genannten BRR-
Codierprozeß ist. Falls erforderlich, werden die decodierten
Originaltondaten verschiedenen Datenverarbeitungen unterworfen,
wie z. B. der oben genannten ADSR-Verarbeitung oder
Pegelkonversion. Da so bearbeitete digitale Audiosignal
wird einem D/A-Wandler 2 zugeführt, dessen analoges Ausgangssignal
als Audiosignal einem Lautsprecher 3 zugeführt
wird.
Die Anordnung der Hauptfunktionsgruppen einer Ausführungsform
wird nun anhand der Fig. 2 und 3 erläutert.
Beim Ausführungsbeispiel werden acht Stimmen *A, *B, . . ., *H
durch Mischen synthetisiert und als digitale Audiosignale
für einen linken und einen rechten Kanal ausgegeben. Die digitalen
Audiosignale für die jeweiligen Stimmen und die jeweiligen
Kanäle werden im Zeitmultiplex berechnet. Zum Veranschaulichen
der Funktion des Ausführungsbeispiels stellen
die Fig. 2 und 3 für jede Stimme und jeden Kanal jeweils
gleich aufgebaute Hardware dar.
In Fig. 2 (die zum Ermöglichen der Darstellung mit großem
Maßstab in einen linken Teil 2 A und einen rechten Teil 2 B
aufgeteilt ist) sind Signalverarbeitungsbereiche 20 A, 20 B,
. . ., 20 H zum Verarbeiten der Stimmen *A, *B, . . . bzw. *H vorhanden.
Jeder dieser Signalverarbeitungsbereiche wird mit
gewünschten Quelltondaten versorgt, die aus einem Quelltondatenspeicherbereich
14 V auf Quellton-Wählsignale SRC a -
SRC h ausgewählt werden, die einem Anschluß 15 des externen
RAM 14 zugeführt werden. Bei diesem Ausführungsbeispiel entspricht
der Quelltondatenspeicherbereich 14 V einem Bereich
des externen RAM 14, in den die Quelltondaten und die Programmdaten
für die CPU 13 eingeschrieben sind.
Wenn bei diesem Ausführungsbeispiel Musikinstrumenttöne,
die im Quelltondaten-ROM 1 in der Form von Nichtintervallkomponenten
und Intervallkomponenten gespeichert sind, wiedergegeben
werden, werden die Daten der Nichtintervallkomponenten
dem Signalverarbeitungsbereich 20 A für die Stimme
*A zugeführt, während die Intervallkomponenten den Signalverarbeitungsbereichen
20 B-20 H für die anderen Stimmen unter
Steuerung durch Steuerdaten zugeführt werden, was weiter
unten erläutert wird.
Die dem Signalverarbeitungsbereich 20 A zugeführten Quelltondaten
werden über einen Schalter S 1a einem BRR-Decoder 21
zugeführt, der die Daten wie oben erläutert expandiert und
sie dann über einen Puffer-RAM 22 an einen Teilungskonverter
23 gibt. Der Schalter S 1a wird auf Steuerdaten KON (Taste
Ein) bzw. KOF (Taste Aus) hin geöffnet bzw. geschlossen,
welche Steuerdaten vom Register-RAM 12 (siehe Fig. 4) über
Anschlüsse 31 a und 32 a geliefert werden. Der Teilungskonverter
23 erhält Teilungssteuerdaten P(H) und P(L) vom Register-
RAM 12 über eine Steuerschaltung 24 zum Berechnen von
Parametern und dergleichen über einen Anschluß 33 a. Die
Steuerschaltung 24 erhält auch ein Signal, z. B. für die
Stimme *H über einen Anschluß 34 a und einen Schalter S 2a .
Dieser Schalter wird durch ein Steuersignal FMON (FM Ein)
vom Register-RAM 12 über einen Anschluß 35 a geschlossen.
Das Ausgangssignal vom Teilungskonverter 23 wird einem Multiplizierer
26 zugeführt, wo es mit einem von zwei Steuerdaten
multipliziert wird. Der eine Steuerdatenwert ist ein
Signal ENV (Hüllkurvensteuerung) und der andere ist ein Signal
ADSR (ADSR-Steuerung), welche Signale jeweils vom Register 12
über Anschlüsse 36 a bzw. 37 a, über Steuerschaltungen
27 bzw. 28 und einen Wechselschalter S 3a zugeführt werden.
Letzterer wird abhängig vom höchstsignifikanten Bit (MSB)
des Steuersignales ADSR geschaltet.
Wenn ein Rauschsignal als Effekttonquelle verwendet wird,
wird statt des Signals vom Teilungskonverter 23 das Signal von
z. B. einem nicht dargestellten M-Reihenrauschgenerator an
den Multiplizierer 26 gegeben.
Das Ausgangssignal vom Multiplizierer 26 wird gemeinsam
einem zweiten Multiplizierer 291 und einem dritten Multiplizierer
29 r zugeführt, die außerdem Steuerdaten LVL (Lautstärke
links) bzw. RVL (Lautstärke rechts) vom Register-RAM
12 über Anschlüsse 38 a bzw. 39 a erhalten.
Ein Augenblickswert OUTX des Ausgangssignals vom Multiplizierer
26 wird auch dem Register-RAM 12 über einen Anschluß
41 a und einem Anschluß 34 b des Signalverarbeitungsbereichs
20 b zugeführt. Ein Spitzenwertsignal ENVX des Ausgangssignals
vom Schalter S 3a wird dem Register-RAM 12 über einen
Anschluß 42 a zugeführt. Das Ausgangssignal am Anschluß 41 a
des Signalverarbeitungsbereichs 20 a kann auch noch einem
Eingangsanschluß 36 b des Signalverarbeitungsbereichs 20 B zugeführt
werden, was durch eine gestrichelte Linie in Fig. 2
angedeutet ist.
Die folgenden Tabellen 1 und 2 listen Steuerdaten des Register-
RAM 12 auf.
Die Steuerdaten gemäß Tabelle 1 werden für jede Stimme bereitgestellt
und die Steuerdaten von Tabelle 2 werden gemeinsam
für alle acht Stimmen geliefert. Steuerdaten unterhalb
der Adresse OD sind einem Blockdiagramm zugeordnet, wie
es durch Fig. 3 veranschaulicht wird und im folgenden erläutert
wird. Jedes der Register der Tabellen 1 und 2 ist ein
8-Bit-Register.
In Fig. 3 liegen ein Signalverarbeitungsbereich 50 L für
einen linken Kanal und ein Signalverarbeitungsbereich 50 R
für einen rechten Kanal vor. Das Ausgangssignal vom zweiten
Multiplizierer 29 l des Signalverarbeitungsbereichs 20 A von
Fig. 2 wird direkt einem Hauptaddierer 51 ml des Signalverarbeitungsbereichs
50 L für den linken Kanal über einen Anschluß
TLa zugeführt, und wird außerdem über einen Schalter
S4 a wahlweise einem Unteraddierer 51 el zugeführt. Das Ausgangssignal
vom dritten Multiplizierer 29 r gelangt direkt an
einen Hauptaddierer 51 mr im Signalverarbeitungsbereich 50 R
für den rechten Kanal über einen Anschluß TRa, und es wird
außerdem wahlweise über einen Schalter S 5a einem Unteraddierer
51 er zugeführt. Entsprechend gelangen die jeweiligen
Ausgangssignale der Signalverarbeitungsbereiche 20 B-20 H
für die Stimme *B-*H an die Addierer 51 ml und 51 el sowie
51 mr und 51 er in den Signalverarbeitungsbereichen 50 L bzw.
50 R für den linken bzw. den rechten Kanal.
Schalter S 4a, S 5a ; S 4b , S 5b ; . . .; S 4h , S 5h , die jeweils derselben
Stimme in beiden Signalverarbeitungsbereichen 50 L und
50 R für die beiden Kanäle entsprechen, werden gemeinsam geöffnet
und geschlossen, und zwar auf Steuersignale EONa
(Echo Ein), EONb . . . EONh, die vom Register-RAM 12 über Anschlüsse
61 a, 61 b, . . . 61 h zugeführt werden.
Wenn bei dieser Ausgestaltung die Nichtintervallkomponenten
für die Stimme *A durch den Signalverarbeitungsbereich 20 a
verarbeitet werden, werden die Schalter S 4a und S 5a so angesteuert,
daß sie offen bleiben, wodurch verhindert wird, daß
ein Hallton (Echo) für Nichtintervallkomponente addiert
wird.
Das Ausgangssignal vom Hauptaddierer 51 ml wird einem Multiplizierer
52 zugeführt, der auch ein Steuersignal MVL (Hauptlautstärke)
vom Register-RAM 12 über einen Anschluß 62 erhält.
Das Ausgangssignal vom Multiplizierer 52 wird auf
einen Addierer 53 gegeben.
Das Ausgangssignal vom Unteraddierer 51 el gelangt über einen
Addierer 54, einen Echosteuerbereich 14 El des externen RAM
14 und ein Puffer-RAM 55 an ein digitales Tiefpaßfilter 56,
das z. B. als FIR(Finite Impulse Response)-Filter ausgebildet
ist. Der Echosteuerbereich 14 El für den linken Kanal
wird vom Register-RAM 12 über Anschlüsse 63 und 64 mit einem
Steuersignal ESA (Echostartadresse) bzw. EDL (Echoverzögerung)
versorgt.
Bei dieser Ausführungsform sind, falls erforderlich, im externen
RAM 14 ein Echosteuerbereich 14 El und 14 Er für den
linken bzw. den rechten Kanal ausgebildet. Wie durch Fig. 5
veranschaulicht, ändert sich die Speicherkapazität des
Quelltondatenspeicherbereichs 14 V des externen RAM 14 mit
der verwendeten Tonquelle. Abhängig von der jeweiligen Art
der Benutzung existiert ein freier Bereich 14 Z, in dem keine
Quelltondaten und Steuerdaten gespeichert sind. In diesem
Fall werden die Echosteuerbereiche 14 El und 14 Er für den
linken bzw. den rechten Kanal innerhalb dem freien Bereich
14 Z ausgebildet. Die Startadressen für die Echosteuerbereiche
14 El und 14 Er werden durch das Steuersignal ESA bestimmt,
während die Anzahl von Adressen nach der Startadresse für
die genannten Echosteuerbereiche durch das Steuersignal EDL
bestimmt ist. Wenn die Adreßmenge ausreichend groß ist, wird
die Verzögerung und damit die Nachhallzeit erhöht.
Wieder bezugnehmend auf Fig. 3 wird darauf hingewiesen, daß
das Tiefpaßfilter 56 vom Register-RAM 12 über einen Anschluß
66 mit Koeffizientendaten C₀-C₇ versorgt wird. Das Ausgangssignal
vom Tiefpaßfilter 56 wird über einen Multiplizierer
57 auf den Addierer 54 rückgeführt, und es wird auch
einem Multiplizierer 58 zugeführt. Die Multiplizierer 57 und
58 erhalten ein Steuersignal EFB (Echorückkopplung) bzw. ein
Signal EVL (Echolautstärke) über Anschlüsse 67 bzw. 68 vom
Register-RAM 12. Das Ausgangssignal vom Multiplizierer 58
wird an den Addierer 53 gegeben, in dem es mit dem Ausgangssignal
vom Hauptaddierer 51 ml nach Verarbeitung desselben
durch den Multiplizierer 52 addiert wird. Das gemischte Ausgangssignal
wird an ein Filter 59 (Gegenüberabtasteffekte)
an einen Ausgangsanschluß Lout gegeben.
Die externen RAMs 14 El und 14 Er von Fig. 3 bilden einen Teil
des externen RAM 1 von Fig. 4 entsprechend wie das externe
RAM 14 V von Fig. 2, was dazu führt, daß die Signalein- und
-ausgabe für jede Stimme und jeden Kanal im Zeitmultiplex
erfolgt. Außerdem werden der Puffer-RAM 22 von Fig. 2 und
der Puffer-RAM 55 von Fig. 3 im Zeitmultiplex betrieben,
entsprechend wie oben beschrieben.
Die Funktion des Ausführungsbeispiels wird nun erläutert.
Der Quelltondatenspeicherbereich 14 V speichert Quelltondaten
für verschiedene Musikinstrumente, wie z. B. für Klavier,
Saxophon oder Schlagzeug. Den Quelltondaten werden Ziffern
zwischen 0 und 255 zugeteilt. Dabei werden die Daten für
Nichtintervallkomponenten und Intervallkomponenten unter unterschiedlichen
Ziffern gespeichert. Acht Quelltondaten, die
durch die Quelltonwählsignale SRC a -SRC h ausgewählt werden,
werden durch die Signalverarbeitungsbereiche 20 A-20 H für
die jeweilige Stimme im Zeitmultiplex verarbeitet.
Beim Ausführungsbeispiel wird eine Abtastfrequenz fs von
44,1 kHz verwendet, und das berechnende Bearbeiten erfolgt
für 128 Zyklen für acht Stimmen und zwei Kanäle innerhalb
einem Abtastzyklus (1/fs). Ein Rechenzyklus beträgt im Beispielsfall
170 Nanosekunden.
Anders als bei der üblichen Funktion werden beim Ausführungsbeispiel
die Schalter S 1a -S 1h , die den Tonstart
(Taste Ein) und den Tonstopp (Taste Aus) für die jeweiligen
Stimmen angeben, mit Hilfe verschiedener Flaggen gesteuert.
Die Steuerdaten KON (Taste Ein) und KOF (Taste Aus) werden
also jeweilig bereitgestellt. Beide Steuerdaten sind 8-Bit-
Daten, und sie werden in getrennte Register eingeschrieben.
Bits D₀-D₇ für jeden Steuerwert legen das Signal Taste Ein
bzw. Taste Aus für jede der Stimmen *A-*H fest.
Daher kann der Benutzer (Musiksoftwarehersteller) eine Flagge
nur in derjenigen Stimme auf "1" setzen, für die er zwischen
Taste Ein und Taste Aus schalten möchte, so daß der
Benutzer der mühseligen Arbeit entledigt ist, ein Programm
zu erstellen, in dem Bits, die nicht mit jeder individuellen
Musiknote geändert werden, in einem Pufferregister zwischengespeichert
werden.
Wenn bei der vorliegenden Ausführungsform die Quelltondaten,
aufteilt in Nichtintervallkomponenten und Intervallkomponenten,
wiedergegeben werden, werden die Nichtintervallkomponentendaten
aus dem RAM 14 V ausgelesen, und der Schalter S 1a
des Signalverarbeitungsbereichs 20 A für die Stimme *A wird
so eingestellt, daß die Nichtintervallkomponente a in der
Stimme *A verarbeitet wird, wie durch Fig. 6A veranschaulicht.
Wenn die Daten für die Nichtintervallkomponente a
ganz aus dem RAM 14 V ausgelesen sind, werden die Daten für
einen Zyklus für die folgende Intervallkomponente wiederholt
ausgelesen und jeweils einer der Schalter S 1b -S 1h für
einen der freien Signalverarbeitungsbereiche 20 B-20 H für
die Stimmen *B-*H wird so eingestellt, daß die Intervallkomponenten
für jede der Stimmen *B-*H verarbeitet werden.
Es sei angenommen, daß der Signalverarbeitungsbereich 20 B
für die Stimme *B frei ist. In diesem Fall wird die auf die
Nichtintervallkomponente a folgende Intervallkomponente b
durch den Signalverarbeitungsbereich 20 b verarbeitet, wie in
Fig. 6B veranschaulicht. In diesem Fall wird die Intervallkomponente
b in Daten mit vorgegebener Teilung durch den
Teilungskonverter 23 umgewandelt.
Wenn Töne unterschiedlicher Lautstärken vom selben Musikinstrument
als überlappter Ton wiedergegeben werden, der aus
der Nichtintervallkomponente a und der Intervallkomponente b
gebildet ist, wird, wie in Fig. 6A dargestellt, eine Nichtintervallkomponente
a′, die der Nichtintervallkomponente A
ähnlich ist, aus dem RAM 14 V gelesen, und sie wird durch den
Signalverarbeitungsbereich 20 A für die Stimme *A verarbeitet.
In diesem Fall wird die Intervallkomponente b durch den
Signalverarbeitungsbereich 20 B für die Stimme *B verarbeitet
und eine Intervallkomponente b′, die auf die Nichtintervallkomponente
a′ folgt, wird durch einen Signalverarbeitungsbereich
für eine andere freie Stimme verarbeitet, z. B.
durch den Signalverarbeitungsbereich 20 C für die Stimme *C.
Die Intervallkomponente b′ ist in Fig. 6C veranschaulicht.
Sie wird durch den Teilungskonverter 23 in eine Intervallkomponente
umgewandelt, die sich von der Intervallkomponente
b unterscheidet. Jeweilige Töne werden dann durch die
Hauptaddierer 51 ml und 51 mr oder die Unteraddierer 51 el und
51 er der Signalverarbeitungsbereiche 50 L und 50 R für den
linken und den rechten Kanal verarbeitet, und sie werden als
Doppelton ausgegeben.
Beim Ausführungsbeispiel werden acht Stimmen *A-*H im
Zeitmultiplex verarbeitet, so daß der Teilungskonverter 23
eine Interpolation, d. h. ein übergeordnetes Abtasten, auf
der Basis von Eingangsdaten für vorhergehende und folgende
vier Abtastungen ausführt, wodurch die Teilungskonvertierung
mit derselben Abtastfrequenz fs erfolgt, wie sie für die
Eingangsdaten eingesetzt wird. Die gewünschte Teilung wird
durch die Steuersignale P(H) und P(L) vorgegeben.
Wenn das untere signifikante Bit des Steuersignals P(L) "0"
ist, ist es möglich zu vermeiden, daß die Interpolationsdaten
irregulär ausgewählt und entfernt werden. Dadurch ist
es möglich, einen wiedergegebenen Ton hoher Qualität zu erzielen,
der frei von sehr kleinen Pegelschwingungen ist.
Wenn der Schalter S 2a durch das Kontrollsignal FMON geschlossen
wird, wie er über den Anschluß 35 a zugeführt wird,
werden Audiosignaldaten für z. B. die Stimme *H, die dem Anschluß
34 a zugeführt werden, zu den Pegelsteuerdaten P(H)
und P(L) addiert, wodurch das Audiosignal für die Stimme *A
frequenzmoduliert (FM) wird.
Wenn also das Modulationssignal sehr niedrige Frequenz von
z. B. einigen Hz aufweist, wird das modulierte Signalvibrato
wiedergegeben. Wenn das Modulationssignal eine hörbare oder
niedere Frequenz aufweist, ändert sich die Tonqualität des
wiedergegebenen Tons des modulierten Signals. Eine FM-Tonquelle
wird also durch das Abtastsystem gebildet, ohne daß
eine Tonquelle ausschließlich für die Modulation bereitgestellt
werden muß. Die Steuersignal FMON sind als 8-Bit-
Daten im Register eingeschrieben, entsprechend den oben genannten
Signalen KON, und die Bits D₀-D₇ entsprechen den
Stimmen *A-*H.
Im Multiplizierer 26 wird die Teilung des Ausgangssignals
vom Teilungskonverter 23 zeitabhängig auf Basis der Steuersignale
ENV oder ADSR gesteuert. Wenn das höchstsignifikante
Bit MSB des Steuersignals ADSR "1" ist, ist der Schalter S 3a
geschaltet, wie in Fig. 2 dargestellt, wodurch ADSR-Steuerung
ausgeführt wird. Wenn dagegen das höchstsignifikante
Bit MSB des Steuersignals ADSR "0" ist, ist der Schalter S 3a
in der Lage, die der in Fig. 2 dargestellten gegenüberliegt
und Hüllkurvensteuerung, wie z. B. Schwundsteuerung, wird
ausgeführt.
Für die Hüllkurvensteuerung können über die oberen drei Bits
des Steuersignals ENV fünf verschiedene Betriebsarten gewählt
werden, wie Direktbestimmung, geradlinige oder polygonale
Schwund-Ein-Steuerung oder geradlinige oder exponentielle
Schwund-Aus-Steuerung. In diesem Fall wird der vorliegende
Spitzenwert als Ausgangssignal in jeder Betriebsart
verwendet.
Bei der ADSR-Steuerung wird der Signalpegel nur in der Anschlagperiode
geradlinig erhöht, während er in den drei anderen
Perioden, nämlich der Abklingperiode, der Aufrechterhaltungsperiode
und der Freigabe-periode exponentiell
erniedrigt wird.
Die Dauern der Schwund-Ein-Periode und der Schwund-Aus-Periode
werden für jede Betriebsart genau abhängig von Parameterwerten
bestimmt, die durch die unteren fünf Bits des
Steuersignals ENV bestimmt sind.
Ähnlich werden die Dauern der Anschlagperiode und der Aufrechterhaltungsperiode
abhängig von Parameterwerten bestimmt,
die durch die oberen und unteren vier Bits des Steuersignals
ADSR(2) gegeben sind. Darüber hinaus sind der Aufrechterhaltungspegel
und die Dauern der Abklingperiode und der
Freigabeperiode durch Parameterwerte bestimmt, die durch jeweils
zwei Bits des Steuersignals ADSR(1) gegeben sind.
Um die Zahl von Berechnungen zu erniedrigen, wird beim Ausführungsbeipiel
der Signalpegel geradlinig in der Anschlagperiode
der ADSR-Betriebsart erhöht. Wenn als ADSR-Betriebsart
die Hüllkurvenbetriebsart eingeschaltet wird, wird dafür
gesorgt, daß die Schwund-Ein-Betriebsart mit polygonaler
Linie der Anschlagperiode und die Schwund-Aus-Betriebsart
mit exponentieller Linie der Abklingperiode, der Aufrechterhaltungsperiode
und der Freigabeperiode entspricht, wodurch
die ADSR-Steuerung von Hand naturgetreuer ausgeführt
werden kann.
Wenn das Ausgangssignal vom Multiplizierer 26 und das Eingangssignal
zur Hüllkurvensteuerung über die Anschlüsse 41 a
und 42 a dem Register-RAM 12 zugeführt werden und mit jeder
Abtastperiode neu eingeschrieben werden und dann eine Mehrzahl
von Audiosignalen mit jeweils sehr unterschiedlichen
Teilungen aus den Quelltondaten von z. B. demselben Musikinstrument
gebildet werden, wird es möglich, ein Audiosignal
mit gewünschter Hüllkurvencharakteristik zu erhalten, die
vom vorgegebenen ADSR-Muster unterschiedlich ist.
In den Signalverarbeitungsbereichen 50 L und 50 R für den linken
und rechten Kanal (Fig. 3), werden die Schalter S 4a ,
S 5a -S 4h und S 5h jeweils durch das Steuersignal EON (EON a -
EON h ) von den Anschlüssen 61 a-61 h geschlossen, wodurch die
Stimmen für einen Halleffekt ausgewählt werden. Die Steuerdaten
EON sind in 8-Bit-Register eingeschrieben, wie in der
obigen Liste 2 angegeben.
Die Echoverzögerungszeiten, die vom Subaddierer 51 el an eine
jeweilige Stimme gegeben werden, sind so festgelegt, daß sie
für den linken und den rechten Kanal in einem Bereich von z. B.
0-250 msec gleich sind, was durch das Steuersignal EDL
festgelegt ist, das dem Echosteuerbereich 14 El vom Anschluß
64 aus zugeführt wird. Darüber hinaus wird durch das Steuersignal
EFB mit codierten acht Bits, wie es dem Multiplizierer
57 vom Anschluß 67 zugeführt wird, festgelegt, daß das
Amplitudenverhältnis für das vorhergehende und das folgende
Echo phasenmäßig für den linken und den rechten Kanal jeweils
dasselbe ist.
Das Steuersignal ESA vom Anschluß 63 liefert die oberen acht
Bits der Startadresse für denjenigen Bereich im externen
RAM 14, der zum Steuern des Echos (des Halls) dient.
Das FIR-Filter 56 erhält die Koeffizienten C₀-C₇ mit codierten
acht Bits vom Anschluß 66. Hierdurch wird die Bandpaßcharakteristik
des FIR-Filters 56 so bestimmt, daß in
bezug auf den Höreindruck ein natürlicher Echoton geliefert
wird.
Das so erhaltene Echosignal wird dem Multiplizierer 58 zugeführt,
in dem des mit dem Steuersignal EVL vom Anschluß 68
multipliziert wird. Das multiplizierte Echosignal gelangt an
den Addierer 53, in dem es zum Hauptaudiosignal addiert wird,
das im Multiplizierer 52 mit dem Steuersignal MVL multipliziert
wurde. Die Steuersignale MVL und EVL sind 8-Bit-Daten
ohne Codes, und sie sind abhängig voneinander. Sie sind
auch unabhängig in bezug auf den linken und den rechten
Kanal.
Daher können das Hauptaudiosignal und das Echosignal unabhängig
voneinander pegelgesteuert werden, wodurch das wiedergegebene
Tonfeld so erzeugt wird, als würden sich die
Hörer im ursprünglichen akustischen Raum befinden.
Beim elektronischen Musikinstrument gemäß dem Ausführungsbeispiel
wird die Nichtintervallkomponente als Formantkomponente
durch den Signalverarbeitungsbereich für die Stimme *A
verarbeitet und die Intervallkomponente wird durch irgendeinen
der Signalverarbeitungsbereiche 20 B-20 H für die
Stimmen *B-*H verarbeitet, wodurch der Ton von Musikinstrumenten
durch die Abtasttonquelle ausgezeichnet nachgeahmt
werden kann, die die Nichtintervallkomponenten von
sieben überlappenden Tönen in maximal acht Stimmen beinhaltet.
Dementsprechend kann, verglichen zu dem Fall, wo zwei
Stimmen der Nichtintervallkomponente und der Intervallkomponente
jedem Ton zugeordnet werden, ein komplexerer Ton
unter Zuhilfenahme von weniger Stimmen wiedergegeben werden.
Wenn beim Ausführungsbeispiel das Verarbeiten zum Hinzufügen
eines Halltones durch die Signalverarbeitungseinrichtungen
50 L und 50 R für den linken und rechten Kanal ausgeführt wird,
wird das digitale Audiosignal mit Hilfe des freien Bereichs
des externen RAM 14 verzögert, was dazu benutzt wird, Quelltondaten
zu speichern. Daher wird der externe RAM 14 effektiver
genutzt, und ein RAM, der ausschließlich zum Verzögern
von Audiosignalen verwendet wird, kann entfallen. Daher kann
eine Audiosignalerzeugungseinrichtung gemäß dem Ausführungsbeispiel
mit weniger Speichern ausgebildet werden als vergleichbare
bekannte Einrichtungen und die Schaltung vereinfacht
sich.
Es wird darauf hingewiesen, daß der Speicherplatz, der von
den Verzögerungen bearbeitenden Echosteuerbereichen 14 El und
14 Er belegbare Speicherplatz erniedrigt wird, wenn sich der
vom Quelltondatenspeicherbereich 14 V beanspruchte Speicherplatz
erhöht. Dieser Nachteil kann dadurch beseitigt werden,
daß berücksichtigt wird, daß die gesamte Speicherkapazität
des Quelltondatenspeicherbereichs 14 V und der Echosteuerungsbereiche
14 el und 14 er die gesamte Speicherkapazität
des externen RAM 14 nicht übersteigen kann, wenn Musiksoftware
hergestellt wird, die im Quelltondaten-ROM 1 zu speichern
ist.
Fig. 7 zeigt als Blockschaltbild die Berechnung, die in Zusammenhang
mit dem Addierprozeß für das Echo ausgeführt wird.
Blöcke, die anhand der Fig. 3 und 4 bereits erläutert wurden,
tragen jeweils dasselbe Bezugszeichen wie dort und werden
hier nicht mehr näher erläutert.
Bei der Anordnung gemäß Fig. 7 wird ein Multiplizierer 71
mit Ausgangssignalen vom Puffer-RAM 55 und einem Y₀-Register
85 über eine Busleitung 72 versorgt. Dieser Multiplizierer
71 erhält auch ein Ausgangssignal vom Register-RAM 12 über
eine Busleitung 73. Das Ausgangssignal vom Multiplizierer 71
wird einem C-Register 82 zugeführt, dessen Ausgangssignal
über einen Überlaufbegrenzer 83 und einen Pegelschieber 84
ebenfalls an das Y₀-Register 85 sowie ein Y₁-Register 86 und
ein Y₂-Register 87 gelangt. Das Ausgangssignal vom Y₀-Register
85 wird, wie bereits angegeben, über die Busleitung
72 an den Multiplizierer 71 gegeben. Das Ausgangssignal vom
Y₁-Register 86 wird nach außen geführt. Das Ausgangssignal
vom Y₂-Register 87 wird dem Puffer-RAM 55 und über ein Z₄-
Register 88 dem Register-RAM 12 und dem externen RAM 14 zugeführt.
Die Funktion des Hauptbereichs von Fig. 7 wird nun erläutert.
Wenn die Tonlautstärke für den linken Kanal, z. B. für die
Stimme *A, eingestellt wird, werden ein Lautstärkekoeffizient
LVL für den linken Kanal vom Register-RAM 12 und Signaldaten
xe vom y₀-Register 85 miteinander im Multiplizierer
71 multipliziert. Wenn dagegen die Tonlautstärke für den
rechten Kanal eingestellt wird, werden ein Lautstärkekoeffizient
RVL für den rechten Kanal vom Register-RAM 12 und ein
Signaldatenwert xe vom Y₀-Register 85 durch den Multiplizierer
71 miteinander multipliziert.
Die Berechnungsfolgen werden durch die folgenden Gleichungen
(3) und (4) beschrieben:
Für die anderen Stimmen *B-*H werden die Lautstärken für
den linken und den rechten Kanal ähnlich wie vorstehend beschrieben
eingestellt.
Beim Ausführungsbeispiel wird darüber hinaus die folgende
Berechnung angestellt, um den Hallton zum digitalen Audiosignal
zu addieren.
Wenn die Hauptlautstärken für den linken und den rechten
Kanal eingestellt werden, werden durch den Multiplizierer 71
der Hauptlautstärkekoeffizient MVL vom Register-RAM 12 und
die Signaldatenwerte x L und x R , wie durch die Gleichung (3)
bzw. (4) gegeben, wie sie vom Y₀-Register 85 geliefert werden,
miteinander multipliziert. Das Multiplikationsergebnis
wird im C-Register 82 zwischengespeichert.
Wenn andererseits die Untertonlautstärken für den linken und
den rechten Kanal eingestellt werden, werden die Audiodaten
x LE und x RE für die selektiv mit Echos zu addierenden Stimmen
durch das Tiefpaßfilter verarbeitet, wie vorstehend beschrieben.
Dann werden die so bearbeiteten Audiodaten y LF
und y RF jeweils mit einem Echorückkopplungskoeffizienten EFB
multipliziert, die ausgewählten Audiodaten x LE bzw. x RE werden
addiert, und dann werden die Ergebnisse an die externen
Speicher 14 El bzw. 14 Er geliefert.
Die so durch das Tiefpaßfilter verarbeiteten Audiodaten y LF
und y RF werden mit dem Echoton-Lautstärkekoeffizienten EVL
multipliziert und dann zum vorstehend genannten Haupttonlautstärkedatenwert
addiert. Die Berechnungen werden durch
die folgenden Gleichungen (5) bis (8) beschrieben:
Die mit Hilfe der Gleichungen (6) und (8) berechneten Ergebnisse
werden über das Y₂-Register 87 an den Puffer-RAM 85
geliefert und in diesem gespeichert.
Statt auf Abtasttondaten, wie für das Ausführungsbeispiel
beschrieben, können die Berechnungen auch auf beliebige andere
Tondaten angewandt werden.
Wie vorstehend im Detail beschrieben, wird ein Echosignalverzögerungsbereich
im freien Bereich desjenigen Speichers
eingerichtet, in dem die Quelltondaten gespeichert werden.
Dabei wird dafür gesorgt, daß das Einrichten eines Verzögerungsbereichs
verhindert werden kann, um zu verhindern, daß
der Verzögerungsbereich versehentlich in einem Speicherbereich
eingerichtet wird, in dem Tondaten gespeichert sind.
Dadurch wird ein nur für die Echosignale erforderlicher Speicher
überflüssig, und es läßt sich eine Einrichtung zum Erzeugen
digitaler Audiosignale schaffen, die in stabiler und positiver
Weise den Halleffekt beeinflußt.
Das schematische Blockdiagramm von Fig. 8 zeigt eine Anordnung
zum Berechnen von Frequenzmodulationsdaten (FM). Funktionsblöcke,
die bereits anhand von Fig. 7 beschrieben wurden,
tragen dasselbe Bezugszeichen wie dort und werden nun
nicht mehr näher erläutert.
Der Multiplizierer 71 erhält die Ausgangssignale vom Register-
RAM 12 und vom Puffer-RAM 12 über die Busleitung 72. Er
erhält auch die Ausgangssignale von ROMs 74 und 75 über die
Busleitung 73. Das Ausgangssignal von einem weiteren ROM 76
wird über eine Busleitung 77 einem Addierer 81 zugeführt, wo
es zum Ausgangssignal vom Multiplizierer 71 addiert wird.
Das Ausgangssignal gelangt an das C-Register 82. Dessen Ausgangssignal
wiederum wird über die Busleitung 77 an den
Addierer 81 rückgeführt, und es gelangt außerdem über den
Überlaufbegrenzer 83 und den Pegelschieber 84 an das Y₀-Register
85, das Y₁-Register 86 und das Y₂-Register 87. Die Ausgangssignale
vom Y₀-Register 85 und vom y₂-Register 87 werden
über die Busleitungen 72 und 73 an den Multiplizierer 71
rückgeführt, während das Ausgangssignal vom Y₁-Register 86
nach außen geführt ist. Die Funktion des Hauptbereichs gemäß
Fig. 8 wird nun erläutert.
Bei Frequenzmodulation berechnet sich diese nach der folgenden
Gleichung (9), unter der Annahme, daß y₀ der Momentanwert
OUTX des Audiosignals der vorhergehenden Stimme, z. B.
der Stimme *H ist, P der Teilungswert ist, der durch die
Werte der P(H)- und P(L)-Register angegeben ist, und Pm der
Teilungswert ist, wie er nach Frequenzmodulation vorliegt:
Pm = P(1 + y₀) (9)
Wenn weiterhin angenommen wird, daß SL der Teilungswert
(Spaltwert) von RAM 22 ist, ergibt sich der Teilungswert
(Spaltwert) für die nächste Abtastperiode durch die folgende
Gleichung (10):
SLm = SL + Pm (10)
Das Ergebnis SLm dient zum Erzeugen von Adreßwerten für den
RAM 22 und den ROM 76 zum Berechnen von Teilungskonversion,
wodurch die Eingangsdaten für den Teilungskonverter 23 und
die Teilungskonverterfilterkoeffizienten erzeugt werden.
In einem praktischen Ausführungsbeispiel sind die Berechnungssequenzen
die folgenden.
Was das Signal FMON anbetrifft, wird ein Koeffizient 1/2 vom
ROM 74 erzeugt und dieser Koeffizient wird mit dem Momentanwert
y₀ des Signals für die Stimme *H vom Y₀-Register 85
durch den Multiplizierer 71 multipliziert. Das Multiplikationsergebnis
und die Konstante 1/2 vom ROM 76 werden durch
den Addierer 81 zueinander addiert, wodurch ein Zwischenwert
erzeugt wird, der durch die folgende Gleichung (11) gegeben
ist, und der über das C-Register 82 in das Y₂-Register 87
eingeschrieben wird:
Dieser Zwischenwert und der Teilungswert P vom Register-RAM
12 werden durch den Multiplizierer 71 miteinander multipliziert.
Das Multiplikationsergebnis und die Konstante 0 vom
ROM 76 werden durch den Addierer 81 zueinander addiert, und
der durch die folgende Gleichung (12) gegebene berechnete
Wert wird in das C-Register 82 eingeschrieben:
Weiterhin werden der Spaltwert SL vom RAM 22 und der Koeffizient
1/2 vom ROM 74 durch den Multiplizierer 71 miteinander
multipliziert. Das Multiplikationsergebnis und der durch
Gleichung (12) berechnete Wert, wie er über die Busleitung
77 vom C-Register 82 geliefert wird, werden im Addierer 81
addiert, und das Ergebnis gelangt über das C-Register 82 und
den Überlaufbegrenzer 83 an den Pegelschieber 84. Dieser
Pegelschieber 84 erzeugt ein Pegelverschieben von × 2, wodurch
ein Ausgangssignal erzeugt wird, das durch die folgende
Gleichung (13) beschrieben wird das über das Y₂-Register
87 an den RAM 22 gegeben wird:
Wenn der Momentanwert y₀ des Modulationssignals größer als
0 ist, wie in Fig. 9B dargestellt, wird die Momentanfrequenz
erhöht, wie durch Fig. 9A veranschaulicht. Ist dagegen der
Momentanwert y₀ kleiner 0, wird die Momentanfrequenz erniedrigt,
wie durch Fig. 9C veranschaulicht.
Wie oben beschrieben, wird ein Ausgangssignal von den mehreren
Teilungskonvertern oder Amplitudensteuerungen anderen
Teilungskonvertern oder Amplitudensteuerungen als Steuersignal
zugeführt, um so ein frequenzmoduliertes oder amplitudenmoduliertes
Audiosignal zu erhalten. Dadurch wird eine
ausschließlich für Modulationszwecke erforderliche Signalquelle
überflüssig, wodurch die digitale Audiosignalerzeugungseinrichtung
gemäß dem Ausführungsbeispiel einfachen
Aufbau erhält.
Fig. 10 zeigt in Funktionsblockdarstellung ein Beispiel für
eine Synchronisierschaltung, durch die die digitale Signalverarbeitungseinrichtung
10 und die CPU 13 Daten in den externen
RAM 14 im Zeitmultiplex einschreiben oder aus diesem
auslesen können.
Beim Ausführungsbeispiel gemäß Fig. 10 sind Busleitungen der
digitalen Signalverarbeitungseinrichtung 10 und der CPU 13
über Halteschaltungen 10 a und 13 a sowie Schalter 97, 98 und
99 mit dem externen RAM 14 verbunden. Dabei sind eine Adreßbusleitung,
eine Datenbusleitung und eine Steuerbusleitung
der digitalen Signalverarbeitungseinrichtung 10 über die
Halteschaltung 10 a mit ersten festen Kontakten 97 a, 98 a bzw.
99 a der Busleitungswechselschalter 97, 98 bzw. 99 verbunden.
Die Adreßschaltung, die Datenbusleitung und die Steuerbusleitung
der CPU 13 sind über die Halteschaltung 13 a mit
zweiten feststehenden Kontakten 97 b, 98 b bzw. 99 b der Wechselschalter
97, 98 bzw. 99 verbunden. Bewegliche Kontakte
97 m, 98 m und 99 m dieser Schalter 97, 98 und 99 sind mit der
Adreßbusleitung, der Datenbusleitung bzw. der Steuerbusleitung
des externen RAM 14 verbunden.
Einem ersten und einem zweiten Frequenzteiler 92 bzw. 93
wird ein Frequenzsignal von einem Oszillator 91 zugeführt,
der über einen Quarzoszillator 91 a verfügt. Das frequenzgeteilte
Signal vom ersten Frequenzteiler 92 wird der digitalen
Signalverarbeitungseinrichtung 10 und einer Multiplexsteuerung
94 als Taktsignal zugeführt. Die Schalter 97, 98
und 99 schalten auf ein Umschaltsignal von der Multiplexsteuerung
94 hin um.
Ein Multiplexsignal von der Multiplexsteuerung 94 wird einem
Eingang eines Komparators 94 zugeführt, der außerdem ein
Maschinentaktsignal von der CPU 13 erhält. Der Komparator 95
ermittelt die Phasendifferenz zwischen dem Schaltzeitpunkt
der Schalter 97-99 und dem Maschinentakt von der CPU 13
und er liefert ein Koinzidenzsignal an einen Eingang eines
UND-Gliedes 96. Dem anderen Anschluß dieses UND-Gliedes 96
wird das frequenzgeteilte Signal vom zweiten Frequenzteiler
93 zugeführt. Das Ausgangssignal vom UND-Glied 96 wird auf
die CPU 13 als Taktsignal geführt.
Die Funktion der Synchronisierschaltung 10 wird nun anhand
der zeitkorrelierten Taktfolgen gemäß den Fig. 11A-11D erläutert.
Das Taktsignal gemäß Fig. 11A, das durch Frequenzteilung des
Signals vom Oszillator 91 durch den ersten Frequenzteiler 92
gewonnen wurde, wird der digitalen Signalverarbeitungseinrichtung
10 zugeführt. Das Ausgangssignal vom zweiten Frequenzteiler 92
gelangt zur Multiplexsteuerung 94, die eine
solche Multiplexsteuerung vornimmt, daß acht Perioden des
Ausgangssignals vom ersten Frequenzteiler 92 als eine Periode
gesetzt werden. Dementsprechend erzeugt die Multiplexsteuerung
94 als Multiplexsignal ein solches, wie es in Fig. 11B
veranschaulicht ist, das nach jeweils vier Perioden des
Taktsignals für die digitale Signalverarbeitungseinrichtung
10 auf hohen bzw. tiefen Pegel wechselt.
Das Frequenzteilverhältnis des zweiten Frequenzteilers 93
ist das Vierfache des Verhältnisses vom ersten Frequenzteilers
92, wodurch der zweite Frequenzteiler 93 ein Signal erzeugt,
dessen Frequenz 1/4 derjenigen des Taktsignals für
die digitale Signalverarbeitungseinrichtung 10 ist. Dieses
Frequenzsignal, wie es in Fig. 11C dargestellt ist, wird der
CPU 13 als Taktsignal zugeführt. Der Maschinenzyklus der
CPU 13 ist demgemäß ein Signal (Fig. 11D), das sich synchron
mit dem Zeitmultiplexsignal ändert. Wenn der Hauptschalter
der digitalen Audiosignalerzeugungseinrichtung eingeschaltet
wird und der Komparator 95 feststellt, daß das Zeitmultiplexsignal
und das Maschinenzyklussignal in der Phase invertiert
sind, wird das Koinzidenzermittlungssignal nicht an
das UND-Glied 96 geliefert, so daß der CPU 13 kein Taktsignal
vom UND-Glied 96 zugeführt wird. Das Taktsignal (Fig. 11C)
für die CPU 13 verliert dadurch einen Takt, was durch
die gestrichelte Linie in Fig. 11C dargestellt ist. Der Maschinenzyklus
wird daher vorübergehend halbiert und wird dadurch
gleichphasig mit dem Multiplexsignal.
Anhand der zeitkorrelierten Taktsignale von Fig. 12A-12G
wird nun erläutert, wie Daten von der digitalen Signalverarbeitungseinrichtung
10 und der CPU 13 im Zeitmultiplex aus
dem RAM 14 gelesen und in diesen eingeschrieben werden.
Beim Ausführungsbeispiel ist die Zugriffszeit für den externen
RAM 14 etwa 330 Nanosekunden und die Zugriffszeit für
die digitale Signalverarbeitungseinrichtung 10 ist etwa
240 Nanosekunden. Ein Maschinenzyklus der CPU 13 ist etwa
1 Mikrosekunde, von denen etwa 375 Nanosekunden als Speicherzugriffszeit
genutzt werden.
Es sei angenommen, daß die anhand von Fig. 10 beschriebene
Synchronisierschaltung Taktsignale für die digitale Signalverarbeitungseinrichtung,
die CPU 13 und ein Zeitmultiplexsignal
erzeugt, wie sie für den Normalzustand durch die
Fig. 12A, 12B bzw. 12C veranschaulicht sind. Die Speicherzugriffsperiode
Mc der CPU 13 liegt dann in der zweiten Hälfte
eines Maschinenzyklus S, wie durch Fig. 12D veranschaulicht.
In der ersten Hälfte eines Maschinenzyklus S liegen dann
zwei Speicherzugriffsperioden M D 1 und M D 2 durch die digitale
Signalverarbeitungseinrichtung 10, wie in Fig. 12E gezeigt.
Da andererseits die Zugriffszeit des externen RAM 14 etwa
330 Nanosekunden beträgt, liegen drei Zugriffsperioden M D 1′,
M D 2′ und M C ′ mit jeweils gleicher Länge in einem Maschinenzyklus
S, was Fig. 12G zeigt.
Beim Ausführungsbeispiel fallen die Zugriffsperioden für die
digitale Signalverarbeitungseinrichtung 10, die CPU 13 und
den externen RAM 14 nicht zusammen, jedoch können die Verschiebungen
in den Zugriffsperioden mit Hilfe der Schalter
97-99 durch die Zeitmultiplexsteuerung 94 und die Haltefunktion
der Halteschaltungen 10 a und 13 a eingestellt werden.
Genauer gesagt erzeugt die Multiplexsteuerung 94 ein
Schaltsignal, wie es in Fig. 12F dargestellt ist, auf Grundlage
des Zeitmultiplexsignals von Fig. 12C, wodurch die beweglichen
Kontakte 97 m, 98 m und 99 m der Schalter 97, 98 bzw.
99 mit den ersten festen Kontakten 97 a, 98 a bzw. 99 a in der
ersten Zugriffsperiode M D 1′ und der zweiten Zugriffsperiode
M D 2′ des externen RAM 14 verbunden werden, dagegen die genannten
beweglichen Kontakte in der dritten Zugriffsperiode
M C ′ mit den zweiten festen Kontakten 97 b, 98 b bzw. 99 b verbunden
werden. Das Halteglied 10 a, das mit der digitalen
Signalverarbeitungseinrichtung 10 verbunden ist, ist so ausgebildet,
daß es die über die Busleitungen zugeführten Signale
während der ersten Zugriffsperiode M D 1 der digitalen
Signalverarbeitungseinrichtung hält, und zwar so lange, bis
die erste Zugriffsperiode M D 1′ des externen RAM 14 beendet
ist. Weiterhin hält es die über die Busleitungen während der
zweiten Zugriffsperiode M D 2 der digitalen Signalverarbeitungseinrichtung
10 zugeführten Signale so lange, bis die
zweite Zugriffsperiode M D 2′ des externen RAM 14 beendet ist.
Entsprechend ist die mit der CPU 13 verbundene Halteschaltung
13 a so ausgebildet, daß sie über die Busleitungen während
der Zugriffsperiode M C der CPU 13 zugeführten Signale
hält, bis die dritte Zugriffsperiode M C ′ des externen RAM 14
beendet ist. Die Haltefunktionen der Halteglieder 10 a und
13 a werden z. B. durch die CPU 13 gesteuert.
Wie oben beschrieben, können die digitale Signalverarbeitungseinrichtung
10 und die CPU 13 im Zeitmultiplex auf den
einzigen externen RAM 14 zugreifen, wodurch dieser besonders
effektiv genutzt wird. Dadurch kann der externe RAM 14 zum
Verarbeiten der Daten der digitalen Signalverarbeitungseinrichtung
10 und der CPU 13 mit weniger Speicherkapazität
ausgebildet sein. Darüber hinaus können die verschiedenen
Zugriffsperioden der digitalen Signalverarbeitungseinrichtung
und der CPU 13 gleichgemacht werden, wodurch ein Zugriff
innerhalb von jeweils etwa 330 Nanosekunden erfolgen
kann. Für den externen RAM 14 kann damit ein Speicher mit
verhältnismäßig geringer Zugriffsgeschwindigkeit, also ein
verhältnismäßig billiger Speicher verwendet werden.
Beim Ausführungsbeispiel weist die digitale Signalverarbeitungseinrichtung
10 eine relativ hohe Zugriffsgeschwindigkeit
und die CPU 13 eine relativ niedrige Zugriffsgeschwindigkeit
auf. Die Zugriffsperioden können jedoch in beliebiger
Weise an die Zugriffsgeschwindigkeiten der verschiedenen
Datenverarbeitungseinrichtungen und des Speichers angepaßt
werden.
Da nur ein externer Speicher durch zwei Datenverarbeitungseinrichtungen
genutzt wird, kann er effektiver genutzt werden
und Speicherkapazität kann eingespart werden.
Claims (6)
1. Vorrichtung zum Erzeugen digitaler Audiosignale, mit
- a) einem Speicher (1) zum Speichern digitaler Audiosignale,
- b) einer Steuereinrichtung (13) zum Lesen der digitalen Audiosignale aus dem Speicher,
- c) einer Signalverarbeitungseinrichtung (10) zum Erzeugen von Tonsynthese aufgrund der gelesenen digitalen Audiosignale,
gekennzeichnet durch
- d) einen Zwischenspeicher (14), der bei der Sprachsynthese durch die Steuereinrichtung (13) und die Signalverarbeitungseinrichtung (10) genutzt wird, und
- e) eine Einrichtung zum Nutzen eines Verzögerungsbereichs in einem freien Bereich des Zwischenspeichers (14), um eine Verzögerungsverarbeitung auszuführen, wenn ein Nachhallton dem digitalen Audiosignal hinzugefügt wird, wie es durch die Tonsynthese in der Signalverarbeitungseinrichtung (10) bearbeitet wird.
2. Vorrichtung nach Anspruch 1, gekennzeichnet durch
eine Einrichtung zum Verhindern, daß im Zwischenspeicher (14)
der Verzögerungsbereich unabsichtlich an Stellen eingerichtet
wird, die nicht überschrieben werden dürfen.
3. Vorrichtung gemäß dem Oberbegriff von Anspruch 1,
dadurch gekennzeichnet, daß mehrere digitale Audiosignale
jeweils durch einen von mehreren Teilungskonvertern (23)
bearbeitet werden, wobei die Ausgangssignale von jeweils
einem Teilungskonverter jeweils anderen Teilungskonvertern
als Steuersignale zugeführt werden, wodurch ein frequenzmoduliertes
digitales Audiosignal von den anderen Teilungskonvertern
erzeugt wird.
4. Vorrichtung gemäß dem Oberbegriff von Anspruch 1,
dadurch gekennzeichnet, daß mehrere digitale Audiosignale
durch Amplitudensteuerungen (27, 28) bearbeitet werden, mit
Einrichtungen zum Senden von Ausgangssignalen einer Amplitudensteuerung
an andere Amplitudensteuerungen als Steuersignal,
wodurch ein amplitudenmoduliertes digitales Audiosignal
von einer jeweiligen anderen Amplitudensteuerung erzeugt
wird.
5. Vorrichtung gemäß dem Oberbegriff von Anspruch 1,
gekennzeichnet durch
- - eine erste Signalverarbeitungseinrichtung (10) mit einem ersten Arbeitstakt, die Daten in einen gemeinsamen Speicher (14) schreibt und aus diesem liest,
- - eine zweite Signalverarbeitungseinrichtung (13) mit einem zweiten Arbeitstakt, der sich vom ersten Arbeitstakt unterscheidet, die Daten aus dem gemeinsamen Speicher (14) liest und in diesen einschreibt,
- - eine Auswahleinrichtung (97-99) zum wahlweisen Verbinden einer der beiden Signalverarbeitungseinrichtungen mit dem gemeinsamen Speicher,
- - eine Steuereinrichtung (94) zum Steuern der Auswahleinrichtung in solcher Weise, daß immer nur eine der beiden Signalverarbeitungseinrichtungen auf den Speicher innerhalb einer jeweiligen Zugriffszeitspanne zugreifen kann, und
- - Halteeinrichtungen (10 a, 13 a) zwischen den Signalverarbeitungseinrichtungen und dem gemeinsamen Speicher zum Halten von Daten einer Signalverarbeitungseinrichtung in Zeitspannen, in denen gerade die andere Datenverarbeitungseinrichtung auf den Speicher zugreift.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP63278721A JPH02125297A (ja) | 1988-11-04 | 1988-11-04 | デジタル音声信号発生装置 |
JP63284246A JP2754613B2 (ja) | 1988-11-10 | 1988-11-10 | デジタル音声信号発生装置 |
JP63289831A JPH02135564A (ja) | 1988-11-16 | 1988-11-16 | データ処理装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
DE3936693A1 true DE3936693A1 (de) | 1990-05-17 |
DE3936693C2 DE3936693C2 (de) | 2002-11-14 |
Family
ID=27336585
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE3936693A Expired - Lifetime DE3936693C2 (de) | 1988-11-04 | 1989-11-03 | Vorrichtung zum Erzeugen digitaler Audiosignale |
Country Status (6)
Country | Link |
---|---|
US (1) | US5111530A (de) |
KR (1) | KR0160493B1 (de) |
DE (1) | DE3936693C2 (de) |
FR (1) | FR2638883B1 (de) |
GB (4) | GB2226683B (de) |
HK (2) | HK121795A (de) |
Families Citing this family (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH03139700A (ja) * | 1989-10-25 | 1991-06-13 | Sony Corp | オーディオ信号再生装置 |
US6695477B1 (en) * | 1989-10-25 | 2004-02-24 | Sony Corporation | Audio signal reproducing apparatus |
EP0442041A3 (en) * | 1990-01-18 | 1991-09-04 | National Semiconductor Corporation | Integrated digital signal processor/general purpose cpu with shared internal memory |
US5255323A (en) * | 1990-04-02 | 1993-10-19 | Pioneer Electronic Corporation | Digital signal processing device and audio apparatus using the same |
US6005949A (en) * | 1990-07-17 | 1999-12-21 | Matsushita Electric Industrial Co., Ltd. | Surround sound effect control device |
US5283387A (en) * | 1990-11-20 | 1994-02-01 | Casio Computer Co., Ltd. | Musical sound generator with single signal processing means |
DE69228980T2 (de) * | 1991-12-06 | 1999-12-02 | Nat Semiconductor Corp | Integriertes Datenverarbeitungssystem mit CPU-Kern und unabhängigem parallelen, digitalen Signalprozessormodul |
JPH07121182A (ja) * | 1993-10-27 | 1995-05-12 | Sony Corp | 割り込み情報発生装置及び音声情報処理装置 |
US6246774B1 (en) | 1994-11-02 | 2001-06-12 | Advanced Micro Devices, Inc. | Wavetable audio synthesizer with multiple volume components and two modes of stereo positioning |
US6047073A (en) * | 1994-11-02 | 2000-04-04 | Advanced Micro Devices, Inc. | Digital wavetable audio synthesizer with delay-based effects processing |
US6272465B1 (en) * | 1994-11-02 | 2001-08-07 | Legerity, Inc. | Monolithic PC audio circuit |
JP3625880B2 (ja) * | 1994-12-02 | 2005-03-02 | 株式会社ソニー・コンピュータエンタテインメント | 音源装置 |
EP0987679B1 (de) * | 1995-03-03 | 2003-11-05 | Yamaha Corporation | Musikrechner bestehend aus vereinbaren Softwaremodulen |
US7664263B2 (en) | 1998-03-24 | 2010-02-16 | Moskowitz Scott A | Method for combining transfer functions with predetermined key creation |
US6205249B1 (en) | 1998-04-02 | 2001-03-20 | Scott A. Moskowitz | Multiple transform utilization and applications for secure digital watermarking |
US7159116B2 (en) | 1999-12-07 | 2007-01-02 | Blue Spike, Inc. | Systems, methods and devices for trusted transactions |
US7457962B2 (en) | 1996-07-02 | 2008-11-25 | Wistaria Trading, Inc | Optimization methods for the insertion, protection, and detection of digital watermarks in digitized data |
US7346472B1 (en) * | 2000-09-07 | 2008-03-18 | Blue Spike, Inc. | Method and device for monitoring and analyzing signals |
US7177429B2 (en) | 2000-12-07 | 2007-02-13 | Blue Spike, Inc. | System and methods for permitting open access to data objects and for securing data within the data objects |
US6130624A (en) * | 1997-06-10 | 2000-10-10 | Winsor Entertainment Corporation | Talking remote control |
US7664264B2 (en) | 1999-03-24 | 2010-02-16 | Blue Spike, Inc. | Utilizing data reduction in steganographic and cryptographic systems |
US7475246B1 (en) | 1999-08-04 | 2009-01-06 | Blue Spike, Inc. | Secure personal content server |
US6130605A (en) * | 1999-08-13 | 2000-10-10 | Flick; Kenneth E. | Vehicle security system with multi-sound pattern alarm and associated methods |
US7127615B2 (en) | 2000-09-20 | 2006-10-24 | Blue Spike, Inc. | Security based on subliminal and supraliminal channels for data objects |
US7287275B2 (en) | 2002-04-17 | 2007-10-23 | Moskowitz Scott A | Methods, systems and devices for packet watermarking and efficient provisioning of bandwidth |
US20040102975A1 (en) * | 2002-11-26 | 2004-05-27 | International Business Machines Corporation | Method and apparatus for masking unnatural phenomena in synthetic speech using a simulated environmental effect |
JP4354268B2 (ja) * | 2003-12-22 | 2009-10-28 | 株式会社河合楽器製作所 | 信号処理装置 |
CN103093746A (zh) * | 2012-11-23 | 2013-05-08 | 广州市天艺电子有限公司 | 一种吉他效果器分享方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4389915A (en) * | 1980-12-18 | 1983-06-28 | Marmon Company | Musical instrument including electronic sound reverberation |
DE3318667C1 (de) * | 1983-05-21 | 1984-10-11 | WERSI-electronic GmbH & Co KG, 5401 Halsenbach | Elektronisches Tastenmusikinstrument und Verfahren zu dessen Betrieb |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US3699530A (en) * | 1970-12-30 | 1972-10-17 | Ibm | Input/output system with dedicated channel buffering |
US3866505A (en) * | 1972-07-20 | 1975-02-18 | Nippon Musical Instruments Mfg | Ensemble effect imparting device using a bucket brigade device for an electric musical instrument |
CA1051121A (en) * | 1974-09-25 | 1979-03-20 | Data General Corporation | Overlapping access to memory modules |
US4212057A (en) * | 1976-04-22 | 1980-07-08 | General Electric Company | Shared memory multi-microprocessor computer system |
WO1980001421A1 (en) * | 1979-01-09 | 1980-07-10 | Sullivan Computer | Shared memory computer method and apparatus |
US4350072A (en) * | 1981-04-24 | 1982-09-21 | Kawai Musical Instrument Mfg. Co., Ltd. | Reentrant reverberation generator for an electronic musical instrument |
US4586417A (en) * | 1981-07-28 | 1986-05-06 | Nippon Gakki Seizo Kabushiki Kaisha | Electronic musical instruments provided with reverberation tone generating apparatus |
US4731835A (en) * | 1984-11-19 | 1988-03-15 | Nippon Gakki Seizo Kabushiki Kaisha | Reverberation tone generating apparatus |
DE3502721A1 (de) * | 1985-01-28 | 1986-07-31 | Robert Bosch Gmbh, 7000 Stuttgart | Multiprozessorsystem |
-
1989
- 1989-10-30 US US07/428,842 patent/US5111530A/en not_active Expired - Lifetime
- 1989-11-01 GB GB8924630A patent/GB2226683B/en not_active Expired - Lifetime
- 1989-11-03 FR FR8914461A patent/FR2638883B1/fr not_active Expired - Lifetime
- 1989-11-03 DE DE3936693A patent/DE3936693C2/de not_active Expired - Lifetime
- 1989-11-03 KR KR1019890015923A patent/KR0160493B1/ko not_active IP Right Cessation
-
1993
- 1993-03-03 GB GB9304329A patent/GB2263356B/en not_active Expired - Lifetime
- 1993-03-03 GB GB9304331A patent/GB2263357B/en not_active Expired - Lifetime
- 1993-03-03 GB GB9304330A patent/GB2263350A/en not_active Withdrawn
-
1995
- 1995-07-27 HK HK121795A patent/HK121795A/xx not_active IP Right Cessation
- 1995-07-27 HK HK121395A patent/HK121395A/xx not_active IP Right Cessation
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4389915A (en) * | 1980-12-18 | 1983-06-28 | Marmon Company | Musical instrument including electronic sound reverberation |
DE3318667C1 (de) * | 1983-05-21 | 1984-10-11 | WERSI-electronic GmbH & Co KG, 5401 Halsenbach | Elektronisches Tastenmusikinstrument und Verfahren zu dessen Betrieb |
Also Published As
Publication number | Publication date |
---|---|
GB9304330D0 (en) | 1993-04-21 |
KR900008436A (ko) | 1990-06-04 |
GB9304329D0 (en) | 1993-04-21 |
KR0160493B1 (ko) | 1999-03-20 |
GB2263356A (en) | 1993-07-21 |
GB2263356B (en) | 1993-10-06 |
GB2263357B (en) | 1993-10-06 |
US5111530A (en) | 1992-05-05 |
GB2263350A (en) | 1993-07-21 |
DE3936693C2 (de) | 2002-11-14 |
GB2226683A (en) | 1990-07-04 |
HK121795A (en) | 1995-08-04 |
GB9304331D0 (en) | 1993-04-21 |
GB8924630D0 (en) | 1989-12-20 |
FR2638883A1 (fr) | 1990-05-11 |
HK121395A (en) | 1995-08-04 |
GB2263357A (en) | 1993-07-21 |
GB2226683B (en) | 1993-10-06 |
FR2638883B1 (fr) | 1994-04-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE3936693C2 (de) | Vorrichtung zum Erzeugen digitaler Audiosignale | |
DE2500839C3 (de) | Elektronisches Musikinstrument mit Sinustabellenspeicher | |
DE3587423T2 (de) | Tonerzeugende Vorrichtung für ein elektronisches Musikinstrument. | |
DE3788710T2 (de) | Tonsignalverarbeitungsvorrichtung mit einem digitalen Filter. | |
DE3689928T2 (de) | Effektvorrichtung für elektronisches Musikinstrument. | |
DE3887809T2 (de) | Elektronisches Musikinstrument. | |
DE68925882T2 (de) | Vorrichtung und Verfahren zur Erzeugung von musikalischen Tonwellenformen | |
DE69026966T2 (de) | Elektronisches Musikinstrument mit mehreren verschiedenen Tonerzeugern | |
EP0042555B1 (de) | Verfahren zur digitalen Hüllkurvensteuerung eines polyphonen Musiksyntheseinstruments und Schaltungsanordnung zur Durchführung des Verfahrens | |
DE2937256C2 (de) | Elektronisches Musikinstrument | |
DE2617573A1 (de) | Elektronisches musikinstrument | |
DE2526457C3 (de) | Elektronisches Musikinstrument | |
DE2830482A1 (de) | Elektronischer tongenerator | |
DE2513127C2 (de) | Verfahren zum künstlichen Erzeugen eines musikalischen Klangs | |
DE2524063C3 (de) | Elektronisches Musikinstrument mit digitaler Musiktonerzeugung | |
DE10009082A1 (de) | Gerät zur Wiedergabe einer Wellenform | |
DE3226619A1 (de) | Modulationseffektvorrichtung | |
DE3604686A1 (de) | Elektronisches musikinstument | |
DE3037276A1 (de) | Tonsynthesizer | |
DE2523880C3 (de) | Elektronisches Musikinstrument mit digitaler Tonerzeugung | |
DE3226600A1 (de) | Mit einem nachhalltonerzeugungsapparat ausgestattetes elektronisches musikinstrument | |
DE2945121A1 (de) | Elektronisches musikinstrument mit multiplextastung | |
DE3943797B4 (de) | Vorrichtung zum Verarbeiten von Quelltondaten | |
DE3140109C2 (de) | Polyphones Musikinstrument mit elektronischer Klangerzeugung | |
DE3938311C2 (de) | Vorrichtung zum Erzeugen von Quelltondaten |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8110 | Request for examination paragraph 44 | ||
8128 | New person/name/address of the agent |
Representative=s name: PATENTANWAELTE MUELLER & HOFFMANN, 81667 MUENCHEN |
|
8127 | New person/name/address of the applicant |
Owner name: SONY COMPUTER ENTERTAINMENT INC., TOKIO/TOKYO, JP |
|
D2 | Grant after examination |