EP2327071A1 - Verfahren zum betrieb eines elektronischen klangerzeugungsgerätes und zur erzeugung kontextabhängiger musikalischer kompositionen - Google Patents

Verfahren zum betrieb eines elektronischen klangerzeugungsgerätes und zur erzeugung kontextabhängiger musikalischer kompositionen

Info

Publication number
EP2327071A1
EP2327071A1 EP09782235A EP09782235A EP2327071A1 EP 2327071 A1 EP2327071 A1 EP 2327071A1 EP 09782235 A EP09782235 A EP 09782235A EP 09782235 A EP09782235 A EP 09782235A EP 2327071 A1 EP2327071 A1 EP 2327071A1
Authority
EP
European Patent Office
Prior art keywords
rules
sound
compositions
sound generating
playing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
EP09782235A
Other languages
English (en)
French (fr)
Inventor
Michael Breidenbrücker
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Publication of EP2327071A1 publication Critical patent/EP2327071A1/de
Ceased legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • G10H1/0025Automatic or semi-automatic music composition, e.g. producing random music, applying rules from music theory or modifying a musical piece
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/02Means for controlling the tone frequencies, e.g. attack or decay; Means for producing special musical effects, e.g. vibratos or glissandos
    • G10H1/06Circuits for establishing the harmonic content of tones, or other arrangements for changing the tone colour
    • G10H1/14Circuits for establishing the harmonic content of tones, or other arrangements for changing the tone colour during execution
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • G10H1/40Rhythm
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/101Music Composition or musical creation; Tools or processes therefor
    • G10H2210/105Composing aid, e.g. for supporting creation, edition or modification of a piece of music
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/101Music Composition or musical creation; Tools or processes therefor
    • G10H2210/111Automatic composing, i.e. using predefined musical rules
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/101Music Composition or musical creation; Tools or processes therefor
    • G10H2210/141Riff, i.e. improvisation, e.g. repeated motif or phrase, automatically added to a piece, e.g. in real time
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/091Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith
    • G10H2220/096Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith using a touch screen
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/351Environmental parameters, e.g. temperature, ambient light, atmospheric pressure, humidity, used as input for musical purposes
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/395Acceleration sensing or accelerometer use, e.g. 3D movement computation by integration of accelerometer data, angle sensing with respect to the vertical, i.e. gravity sensing.
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/171Transmission of musical instrument data, control or status information; Transmission, remote access or control of music data for electrophonic musical instruments
    • G10H2240/281Protocol or standard connector for transmission of analog or digital data to or from an electrophonic musical instrument
    • G10H2240/295Packet switched network, e.g. token ring
    • G10H2240/301Ethernet, e.g. according to IEEE 802.3
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/171Transmission of musical instrument data, control or status information; Transmission, remote access or control of music data for electrophonic musical instruments
    • G10H2240/281Protocol or standard connector for transmission of analog or digital data to or from an electrophonic musical instrument
    • G10H2240/295Packet switched network, e.g. token ring
    • G10H2240/305Internet or TCP/IP protocol use for any electrophonic musical instrument data or musical parameter transmission purposes
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/171Transmission of musical instrument data, control or status information; Transmission, remote access or control of music data for electrophonic musical instruments
    • G10H2240/281Protocol or standard connector for transmission of analog or digital data to or from an electrophonic musical instrument
    • G10H2240/321Bluetooth

Definitions

  • the present invention relates to a method for operating an electronic
  • Sound generator (synthesizer) and for generating corresponding context-dependent musical compositions.
  • compositions were set once by the composer and thus set the sequence or the sound sequence of a piece of music. Based on this, it is an object of the present invention in view of the development of electronics, especially the development now suitable for this purpose playback devices, as described for example in the German Utility Model 20 2004 008 347.7 of the applicant, but also for example by devices such as "iphone" of Apple realized to provide the technical possibilities for new compositions in which the composition changes according to rules prescribed by the composer with respect to certain environmental parameters at the time of playback of the corresponding sound sequences, as well as the composer tools for creating and distributing such To provide rules and regulations (compositions).
  • this object is achieved by a method in which in the sound generation slace different sound sequences (acoustic output data) for controlling the sound generating device and rules (control commands) for selecting and / or modification of the sound sequences in response to input signals supplied by external sensors are stored and the sound generating device then selects depending on the input data supplied at the time of playback from the external sensors and the input rules sound sequences and / or changed and then reproduced.
  • sound sequences acoustic output data
  • rules control commands
  • external sensors microphones acceleration or motion sensors
  • light sensors or touch sensors touchpads
  • the object of the invention is also achieved by a method for generating contextual musical compositions in which the composition is provided with a set of rules by which at the time of playing or playing the composition depending on the time of playing or Playing the composition of existing parameters, different parts or components of the composition are selected for playing or playing.
  • these parameters may be the acoustic analysis of the ambient noise, the acceleration or movement of a playback device, the environment shelltechnik or mechanical effects on a playback device.
  • other external parameters can be read in via various interfaces (eg Bluetooth).
  • composition was always a once fixed sound sequence with a fixed sequence.
  • the composition was fixed at a time in the past and dictated by the imagination of the composer.
  • the composer completely new degrees of freedom are opened.
  • the composer can now incorporate external influences into a composition and, for the first time, gets the technical means required for this by the present invention.
  • the actual sound sequence reproduced as a result of the composition is therefore only produced at the time of the playback or the playback of the composition by a suitably suitable device according to the rules created by the composer.
  • the composer may, for example, specify that in the event that the volume of the environment increases in the playback of the composition, a certain other sound sequence is reproduced instead of a specific first sound sequence.
  • the composer could include audible rejoicing of the audience, for example, when someone coughs in the audience, so in his rules that, for example, in the case of coughing a person in the audience a drum roll is played.
  • joggers to give the opportunity to relate the music they hear while running on their running speed, or the clock of their steps or on the corresponding pulse. So if the jogger is running faster or choosing a faster step sequence, it will play other music sequences than slow it down. The same could even be obtained according to the invention with a kind of "biofeedback" on the pulse of the jogger In this way, the jogger could also be controlled by suitably creating a method according to the invention in that he chooses a health-optimal running speed, step frequency or pulse rate, since only then his accompanying music is rendered in a subjectively pleasing manner.
  • musical compositions can be created and reproduced for the first time, which are dependent on external influences (ambient noise, movement, lighting conditions, touch).
  • external influences ambient noise, movement, lighting conditions, touch.
  • a method for acoustic reproduction of a tone sequence is given according to the invention, but in addition a set of rules is provided which, depending on the external influences, influences the reproduced tone sequences at the time of playback or also generates these tone sequences first.
  • a set of rules is provided which, depending on the external influences, influences the reproduced tone sequences at the time of playback or also generates these tone sequences first.
  • sound processing devices are controlled in such a way that the generation, playback, modification, recording or playback of sounds or sound sequences by these devices depends on external influences and the sound processing device predetermined rules to the playback time in real time.
  • external influences can be movements, types of movements, ambient volume, type of acoustic environment, ambient brightness, touch of the device (touchpad), etc.
  • the invention continues to provide the task of the composer tools for the creation and distribution of such rules available, achieved by the compilation of the rules (compositions) a program (compiler) is used, which can be adapted to different computers and the creators of the rules (composers) provides a user interface with which the rules are easily created and stored in suitable for the respective sound generating devices form (machine code) in a database, from which it retrieved by users of the sound generating devices as needed and to the respective Sound generator of the user are loaded.
  • this distribution of the rules on the sound generating devices via the Internet or the mobile phone network.
  • FIG. 1 shows a program flowchart for a method according to the invention
  • Fig. 3 is a further schematic representation of the method according to the invention for distributing the rules.
  • the program flowchart 8 consists of individual phases 10, 12, 14 and transitions
  • phase 10 the phase 10
  • a set of rules 18 is specified, which is either subject to certain conditions may dictate the transition to another phase or the reproduction of certain acoustic elements 22 which are described or stored in detail in the area 20. These elements 22 may be melodies or recordings of any sounds (samples) or sound effects currently being picked up by a sound input. Several channels (bus 1, bus 2 ... bus X) can also be provided. Thus, the composer can specify several options, which the system then automatically selects based on the rules 18 and the input data received from the sensors at the time of playback.
  • the rule 18 can thus describe the respective dependencies and
  • the rule 18 may also include the instruction to put certain sound sequences from the environment in time or frequency to introduce into the display elements ( routing). It is also possible, for example, to jump immediately to another phase 12, 14 when certain acceleration data is present.
  • each of these phases 10, 12, 14 can have a completely new composition of the components 18, 20 and in each phase, the composer can specify the method according to the invention, whether the phase is performed (played), or whether to another phase is jumped. This takes place in each case depending on the input data of the respective sensor selected by the composer selected by the composer.
  • compositions or appropriate program schedules for the sound production setti created and the sound generating devices as needed by the user to be stored.
  • Figure 2 shows the relevant procedure in general.
  • the composers 20 use a program system of editors and compilers 22 (scene composition suit) to create appropriate program schedules 8 or rules 18 and in a device for the respective tone generator executable code (machine code) implement.
  • the corresponding program flow charts 8 or rules 18 are then distributed to the users 26 of the sound generating devices (consumer) so that the users can load the corresponding program schedules or rules on their respective sound generating devices.
  • the individual program schedules 8 are determined by means of a suitable program. created from editors and compilers (Composition Software) 28 and converted into an executable for the respective sound generating device code. It should be noted that for different sound generating devices such as the Apple I-Phone, etc., of course, each have to use different compilers and thereby ultimately different translated sets of rules must be made available to the users of the sound generating devices.
  • a database 30 is provided (RJDJ distribution platform) in which various composers can store their respective rules or program schedules, and from which the individual users download the appropriate to their respective sound generating device and their wishes sets of rules or program schedules to their respective sound generating device 32 can. This downloading process can take place, for example, via the Internet or via the mobile communications networks that have since been upgraded to digital data transmission.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Electrophonic Musical Instruments (AREA)

Abstract

Verfahren zum Betrieb eines elektronischen Klangerzeugungsgeräts, in welches verschiedene Klangfolgen (akustische Ausgangsdaten) (22) zur Steuerung des Klangserzeugungsgeräts und Regeln (Steuerbefehle) (18) zur Auswahl und/oder Abwandlung der Klangfolgen (22) in Abhängigkeit von Eingangssignalen, die von externen Sensoren geliefert werden, eingespeichert werden und das Klangerzeugungsgerät danach in Abhängigkeit von den aktuell von den externen Sensoren gelieferten Eingangsdaten und den Regeln (18) Klangfolgen (22) auswählt und/oder verändert und sodann abspielt.

Description

Beschreibung
Verfahren zum Betrieb eines elektronischen Klangerzeugungsgerätes und zur Erzeugung kontextabhängiger musikalischer
Kompositionen Technisches Gebiet
[0001] Die vorliegende Erfindung betrifft ein Verfahren zum Betrieb eines elektronischen
Klangerzeugungsgerätes (Synthesizer) sowie zur Erzeugung entsprechender kontextabhängiger musikalischer Kompositionen.
Stand der Technik
[0002] Bisher wurden Kompositionen einmalig vom Komponisten festgelegt und damit der Ablauf beziehungsweise die Klangfolge eines Musikstücks festgelegt. Ausgehend davon ist es Aufgabe der vorliegenden Erfindung im Hinblick auf die Entwicklung der Elektronik, insbesondere die Entwicklung nunmehr hierfür geeigneter Wiedergabegeräte, wie sie beispielsweise in dem deutschen Gebrauchsmuster 20 2004 008 347.7 des Anmelders beschrieben sind, aber auch beispielsweise durch Geräte wie „iphone" von Apple realisiert werden, die technischen Möglichkeiten für neue Kompositionen zur Verfügung zu stellen, bei denen sich die Komposition nach vom Komponisten vorgegebenen Regeln im Hinblick auf bestimmte Umgebungsparameter zum Zeitpunkt der Wiedergabe der entsprechenden Klangfolgen verändert, sowie darüber hinaus den Komponisten Werkzeuge zur Erstellung und Verteilung solcher Regelwerke (Kompositionen) zur Verfügung zu stellen.
Darstellung der Erfindung
[0003] Erfindungsgemäß wird diese Aufgabe durch ein Verfahren gelöst, bei dem im Klangerzeugung sgerät verschiedene Klangfolgen (akustische Ausgangsdaten) zur Steuerung des Klangerzeugungsgerätes und Regeln (Steuerbefehle) zur Auswahl und/ oder Abwandlung der Klangfolgen in Abhängigkeit von Eingangssignalen, die von externen Sensoren geliefert werden, eingespeichert werden und das Klangerzeugungsgerät danach in Abhängigkeit von den zum Zeitpunkt des Abspielens von den externen Sensoren gelieferten Eingangsdaten und den eingegebenen Regeln Klangfolgen auswählt und/oder verändert und sodann wiedergibt.
[0004] Vorzugsweise können dabei als externe Sensoren Mikrofone, Beschleunigungs- oder Bewegungssensoren, Lichtsensoren oder Berührungssensoren (Touchpads) zur Erzeugung der Eingangsdaten verwendet werden.
[0005] Die erfindungsgemäße Aufgabe wird auch durch ein Verfahren zur Erzeugung kontextabhängiger musikalischer Kompositionen gelöst, bei dem die Komposition mit einem Regelwerk versehen wird, durch welches zum Zeitpunkt des Spielens oder Wiedergebens der Komposition in Abhängigkeit von zum Zeitpunkt des Spielens oder Wiedergebens der Komposition existierender Parameter unterschiedliche Teile oder Bestandteile der Komposition zum Wiedergeben oder Spielen ausgewählt werden.
[0006] Vorzugsweise können diese Parameter die akustische Analyse der Umgebungsgeräusche, die Beschleunigung oder Bewegung eines Wiedergabegerätes, die Umgebung shelligkeit oder mechanische Einwirkungen auf ein Wiedergabegerät sein. Außerdem können andere externe Parameter über diverse Schnittstellen (beispielsweise Bluetooth) eingelesen werden.
[0007] Bisher stellte eine Komposition stets eine einmal fixierte Klangfolge mit einem festen Ablauf dar. Die Komposition wurde zu einem Zeitpunkt in der Vergangenheit fixiert und durch die Phantasie des Komponisten vorgegeben.
[0008] Erfindungsgemäß werden dem Komponisten völlig neue Freiheitsgrade eröffnet. Der Komponist kann nun äußere Einflüsse in eine Komposition mit einarbeiten und bekommt durch die vorliegende Erfindung erstmals die dafür erforderlichen technischen Mittel an die Hand gegeben. Die tatsächliche Klangfolge, die aufgrund der Komposition wiedergegeben wird, wird daher erst zum Zeitpunkt der Wiedergabe oder des Abspielens der Komposition durch ein entsprechend geeignetes Gerät nach den von dem Komponisten geschaffenen Regeln erzeugt.
[0009] Der Komponist kann beispielsweise festlegen, dass für den Fall, dass die Lautstärke der Umgebung bei der Wiedergabe der Komposition zunimmt, statt einer bestimmten ersten Tonsequenz eine bestimmte andere Tonsequenz wiedergegeben wird. Ebenso könnte der Komponist akustische Rückäußerungen des Publikums, beispielsweise wenn jemand im Publikum hustet, so in sein Regelwerk aufnehmen, dass beispielsweise im Falle des Hustens einer Person im Publikum ein Trommelwirbel abgespielt wird.
[0010] Eine andere sehr vorteilhafte Möglichkeit der vorliegenden Erfindung ist es beispielsweise Joggern die Möglichkeit zu geben, die Musik, die sie während des Laufens hören, auf ihre Laufgeschwindigkeit, beziehungsweise den Takt ihrer Schritte oder auch auf den entsprechenden Puls zu beziehen. Wenn der Jogger also schneller läuft oder eine schnellere Schrittfolge wählt, werden andere Musiksequenzen abgespielt, als wenn er langsamer läuft. Gleiches könnte man sogar erfindungsgemäß mit einer Art „Biofeedback" auf den Puls des Joggers beziehen. Auf diese Weise könnte auch durch geeignete Erstellung eines erfindungsgemäßen Verfahrens eine Kontrolle des Joggers dahingehend erfolgen, dass er eine gesundheitlich optimale Laufgeschwindigkeit, Schrittfrequenz oder Pulsfrequenz wählt, da nur dann seine Begleitmusik in einer subjektiv angenehmen Weise wiedergegeben wird.
[0011] Mit dem erfindungsgemäßen Verfahren können erstmals musikalische Kompositionen geschaffen und wiedergegeben werden, die von äußeren Einflüssen (Umgebungsgeräusche, Bewegung, Lichtverhältnisse, Berührungen) abhängig sind. Dazu wird erfindungsgemäß nicht nur wie bei einer klassischen Komposition ein Verfahren zur akustischen Wiedergabe einer Tonfolge angegeben, sondern zusätzlich ein Regelwerk vorgesehen, welches in Abhängigkeit von den äußeren Einflüssen, die wiedergegebenen Tonfolgen zum Zeitpunkt des Abspielens beeinflusst beziehungsweise diese Tonfolgen auch erst erzeugt. Erfindungsgemäß wird Form und Art einer akustischen Wiedergabe durch das Abspielgerät erst zum Zeitpunkt des Abspielens in Abhängigkeit von äußeren Einflüssen (Umgebungsgeräusche, Bewegung, etc.) zum Zeitpunkt der akustischen Wiedergabe, also in Echtzeit, erzeugt.
[0012] Erfindungsgemäß werden tonverarbeitende Geräte dergestalt gesteuert, dass die Generierung, Wiedergabe, Veränderung, Aufnahme oder Wiedergabe von Tönen oder Tonsequenzen durch diese Geräte abhängig von äußeren Einflüssen und dem dem tonverarbeitenden Gerät vorgegebenen Regelwerk zum Abspielzeitpunkt in Echtzeit erfolgt. Entsprechende äußere Einflüsse können dabei Bewegungen, Arten der Bewegungen, Umgebungslautstärke, Art des akustischen Umfeldes, Umgebungshelligkeit, Berührung des Gerätes (Touchpad) etc. sein.
[0013] Erfindungsgemäß wird weiterhin die Aufgabe, den Komponisten Werkzeuge zur Erstellung und Verteilung solcher Regelwerke zur Verfügung zu stellen, dadurch gelöst, dass zur Zusammenstellung der Regeln (Kompositionen) ein Programm (Compiler) verwendet wird, welches auf verschiedene Rechner angepasst werden kann und den Erstellern der Regelwerke (Komponisten) eine Benutzeroberfläche zur Verfügung stellt, mit der die Regelwerke einfach erstellt und in für die jeweiligen Klangerzeugungsgeräte geeigneter Form (Maschinencode) in einer Datenbank abgespeichert werden, aus der sie von Benutzern der Klangerzeugungsgeräte nach Bedarf abgerufen und auf das jeweilige Klangerzeugungsgerät des Benutzers geladen werden.
[0014] Vorzugsweise erfolgt diese Verteilung der Regelwerke auf die Klangerzeugungsgeräte über das Internet oder das Mobiltelefonnetz.
Kurze Beschreibung der Zeichnungen
[0015] Der Ablauf eines erfindungsgemäßen Verfahrens wird im Folgenden anhand des in der Zeichnung dargestellten Ausführungsbeispiels näher erläutert. Es zeigt:
[0016] Fig. 1 einen Programmablaufplan für ein erfindungsgemäßes Verfahren;
[0017] Fig. 2 das erfindungsgemäße Verfahren zur Erstellung und Verteilung der Regelwerke auf die Klangerzeugungsgeräte der Benutzer; und
[0018] Fig. 3 eine weitere schematische Darstellung des erfindungsgemäßen Verfahrens zur Verteilung der Regelwerke.
Bester Weg zur Ausführung der Erfindung
[0019] Der Programmablaufplan 8 besteht aus einzelnen Phasen 10, 12, 14 und Übergängen
16 zwischen diesen Phasen. [0020] Dabei wird in jeder Phase, hier für die Phase 10 dargestellt, zuerst festgelegt, welche
Eingangsdaten von welchen Sensoren berücksichtigt werden sollen (Definitions:
Sensors). [0021] Sodann wird ein Regelwerk 18 vorgegeben, welches entweder unter bestimmten Be- dingungen den Übergang in eine andere Phase vorschreiben kann oder die Wiedergabe bestimmter akustischer Elemente 22, die in dem Bereich 20 detailliert beschrieben oder abgespeichert werden. Diese Elemente 22 können Melodien sein oder Aufnahmen irgendwelcher Geräusche (Samples) oder Klangeffekte, die aktuell von einem Toneingang aufgenommen werden. Dabei können auch mehrere Kanäle (Bus 1, Bus 2 ... Bus X) vorgesehen sein. Damit kann der Komponist mehrere Optionen vorgeben, die das System dann anhand des Regelwerkes 18 und der von den Sensoren erhaltenen Eingangsdaten zum Zeitpunkt des Abspielens selbsttätig wählt.
[0022] Das Regelwerk 18 kann somit die jeweiligen Abhängigkeiten beschreiben und
Befehle enthalten, wie beispielsweise wenn die Lautstärke der Umgebung über 6OdB liegt, dann spiele Bus 1, ansonsten spiele Bus X. Das Regelwerk 18 kann aber auch die Anweisung enthalten, gewisse Tonsequenzen aus der Umgebung in Zeit oder Frequenz versetzt, in die Wiedergabeelemente einzuführen (Routing). Ebenso ist es möglich, beispielsweise beim Vorliegen bestimmter Beschleunigungsdaten sogleich zu einer anderen Phase 12, 14 zu springen.
[0023] Jeder dieser Phasen 10, 12, 14 kann dabei eine völlig neue Zusammensetzung der Komponenten 18, 20 haben und in jeder Phase kann der Komponist dem erfindungsgemäßen Verfahren vorgeben, ob die Phase ausgeführt (gespielt) wird, oder ob zu einer anderen Phase gesprungen wird. Dies erfolgt jeweils in Abhängigkeit der diesbezüglich vom Komponisten gewählten Eingangsdaten der jeweiligen von dem Komponisten ausgewählten Sensoren.
[0024] Nun verbleibt noch die Aufgabe zu lösen, wie entsprechende Regelwerke
(Kompositionen) beziehungsweise geeignete Programmablaufpläne für die Klangerzeugung sgeräte erstellt und in die Klangerzeugungsgeräte nach Bedarf der Benutzer eingespeichert werden sollen.
[0025] Die erfindungsgemäße Lösung dieses Problems ist in den Figuren 2 und 3 dargestellt.
[0026] Figur 2 zeigt das diesbezügliche Vorgehen generell.
[0027] Die Komponisten 20 (hier bezeichnet als „Artist") benutzen ein Programmsystem aus Editoren und Compilern 22 (scene composition suit), um entsprechende Programmablaufpläne 8 oder Regelwerke 18 zu erstellen und in einen für das jeweilige Klangerzeugung sgerät ausführbaren Code (Maschinencode) umzusetzen.
[0028] Über das Internet oder Mobiltelefonnetze 24 (Distribution) werden die entsprechenden Programmablaufpläne 8 beziehungsweise Regelwerke 18 sodann an die Benutzer 26 der Klangerzeugungsgeräte (Consumer) verteilt, sodass die Benutzer die entsprechenden Programmablaufpläne beziehungsweise Regelwerke auf deren jeweilige Klangerzeugungsgeräte laden können.
[0029] Nachdem Figur 2 mehr den organisatorischen Ablauf dieses Vorgangs erläutert hat, wird anhand der Figur 3 der mehr technische Ablauf dieser Erstellung und Verteilung der Regelwerke für die Klangerzeugungsgeräte erläutert.
[0030] Die einzelnen Programmablaufpläne 8 werden mittels eines geeigneten Pro- grammsystems aus Editoren und Compilern (Composition Software) 28 erstellt und in einen für das jeweilige Klangerzeugungsgerät ausführbaren Code umgesetzt. Es ist dabei zu beachten, dass für verschiedene Klangerzeugungsgeräte wie beispielsweise den Apple I-Phone etc. natürlich auch jeweils unterschiedliche Compiler Verwendung finden müssen und dadurch letztlich verschiedene übersetzte Regelwerke den Benutzern der Klangerzeugungsgeräte zur Verfügung gestellt werden müssen. Zu diesem Zweck ist eine Datenbank 30 vorgesehen (RJDJ Distribution Plattform), in die verschiedene Komponisten ihre jeweiligen Regelwerke beziehungsweise Programmablaufpläne einspeichern können, und aus der die einzelnen Benutzer die zu ihrem jeweiligen Klangerzeugungsgerät und ihren Wünschen passenden Regelwerke beziehungsweise Programmablaufpläne auf ihr jeweiliges Klangerzeugungsgerät 32 herunterladen können. Dieser Herunterladevorgang kann beispielsweise über das Internet oder über die inzwischen auch zur digitalen Datenübertragung ertüchtigten Mobilfunknetze erfolgen.

Claims

Ansprüche
[0001] Verfahren zum Betrieb eines elektronischen Klangerzeugungsgeräts
(Synthesizer), dadurch gekennzeichnet, dass in einem Klangerzeugungsgerät verschiedene Klangfolgen (akustische Ausgangsdaten) (22) zur Steuerung des Klangerzeugungsgeräts und Regeln (Steuerbefehle) (18) zur Auswahl und/oder Abwandlung der Klangfolgen (22) in Abhängigkeit von Eingangssignalen, die von externen Sensoren geliefert werden, eingespeichert werden und das Klangerzeugung sgerät danach in Abhängigkeit von den aktuell von den externen Sensoren gelieferten Eingangsdaten und den Regeln (18) Klangfolgen (22) auswählt und/oder verändert und sodann abspielt.
[0002] Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass als externer Sensor ein Mikrofon zur Erzeugung der Eingangssignale verwendet wird.
[0003] Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass als externer Sensor ein Beschleunigungs- oder Bewegungssensor zur Erzeugung der Eingangsdaten verwendet wird.
[0004] Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass als externer Sensor ein Lichtsensor zur Erzeugung der Eingangsdaten verwendet wird.
[0005] Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass als externer Sensor ein Berührungssensor (Touchpad) zur Erzeugung der Eingangsdaten verwendet wird.
[0006] Verfahren zur Erzeugung kontextabhängiger musikalischer Kompositionen (10,
12, 14), dadurch gekennzeichnet, dass die Kompositionen (10, 12, 14) mit einem Regelwerk (18) versehen werden, durch welches zum Zeitpunkt des Spielens oder Wiedergebens dieser Kompositionen (10, 12, 14) in Abhängigkeit von zum Zeitpunkt des Spielens oder Wiedergebens der Kompositionen (10, 12, 14) existierender Parameter unterschiedliche Teile oder Bestandteile (20, 22) der Kompositionen (10, 12, 14) zum Wiedergeben oder Spielen ausgewählt werden.
[0007] Verfahren nach Anspruch 6, dadurch gekennzeichnet, dass die Parameter die
Umgebungslautstärke umfassen.
[0008] Verfahren nach Anspruch 6, dadurch gekennzeichnet, dass die Parameter die
Beschleunigung oder Bewegung eines Wiedergabegeräts umfassen.
[0009] Verfahren nach Anspruch 6, dadurch gekennzeichnet, dass die Parameter die
Umgebungshelligkeit umfassen.
[0010] Verfahren nach Anspruch 6, dadurch gekennzeichnet, dass die Parameter mechanische Einwirkungen auf ein Wiedergabegerät umfassen.
[0011] Verfahren nach einem der Ansprüche 1 bis 10, dadurch gekennzeichnet, dass zur Zusammenstellung der Regeln (Kompositionen) ein Programm (Compiler) verwendet wird, welches auf verschiedene Rechner angepasst werden kann und Erstellern der Regelwerke (Komponisten) eine Benutzeroberfläche zur Verfügung stellt, mit der die Regelwerke einfach erstellt und in für die je- weiligen Klangerzeugungsgeräte geeigneter Form (Maschinencode) in einer Datenbank abgespeichert werden, aus der sie von Benutzern der Klangerzeugungsgeräte nach Bedarf abgerufen und auf das jeweilige Klangerzeugungsgerät des Benutzers geladen werden.
[0012] Verfahren nach Anspruch 11, dadurch gekennzeichnet, dass der Abruf der Regelwerke über das Internet erfolgt.
[0013] Verfahren nach Anspruch 11, dadurch gekennzeichnet, dass der Abruf der Regelwerke über das Mobiltelefonnetz erfolgt.
EP09782235A 2008-08-27 2009-08-26 Verfahren zum betrieb eines elektronischen klangerzeugungsgerätes und zur erzeugung kontextabhängiger musikalischer kompositionen Ceased EP2327071A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102008039967A DE102008039967A1 (de) 2008-08-27 2008-08-27 Verfahren zum Betrieb eines elektronischen Klangerzeugungsgerätes und zur Erzeugung kontextabhängiger musikalischer Kompositionen
PCT/EP2009/061021 WO2010023231A1 (de) 2008-08-27 2009-08-26 Verfahren zum betrieb eines elektronischen klangerzeugungsgerätes und zur erzeugung kontextabhängiger musikalischer kompositionen

Publications (1)

Publication Number Publication Date
EP2327071A1 true EP2327071A1 (de) 2011-06-01

Family

ID=41203912

Family Applications (1)

Application Number Title Priority Date Filing Date
EP09782235A Ceased EP2327071A1 (de) 2008-08-27 2009-08-26 Verfahren zum betrieb eines elektronischen klangerzeugungsgerätes und zur erzeugung kontextabhängiger musikalischer kompositionen

Country Status (4)

Country Link
US (1) US20110208332A1 (de)
EP (1) EP2327071A1 (de)
DE (1) DE102008039967A1 (de)
WO (1) WO2010023231A1 (de)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104380371B (zh) * 2012-06-04 2020-03-20 索尼公司 用于生成输入音乐数据的伴奏的装置、***和方法
US8927846B2 (en) * 2013-03-15 2015-01-06 Exomens System and method for analysis and creation of music

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3533975B2 (ja) * 1999-01-29 2004-06-07 ヤマハ株式会社 自動作曲装置および記憶媒体
US20010035087A1 (en) * 2000-04-18 2001-11-01 Morton Subotnick Interactive music playback system utilizing gestures
JP4694705B2 (ja) * 2001-02-23 2011-06-08 ヤマハ株式会社 楽音制御システム
WO2003017248A2 (en) * 2001-08-16 2003-02-27 Humanbeams, Inc. Music instrument system and method
US6703550B2 (en) * 2001-10-10 2004-03-09 Immersion Corporation Sound data output and manipulation using haptic feedback
JP3867630B2 (ja) * 2002-07-19 2007-01-10 ヤマハ株式会社 楽曲再生システム、楽曲編集システム、楽曲編集装置、楽曲編集端末、楽曲再生端末及び楽曲編集装置の制御方法
DE202004008347U1 (de) 2004-05-25 2004-09-16 Breidenbrücker, Michael Vorrichtung zur Erzeugung neuartiger Klangfolgen
JP2006084749A (ja) * 2004-09-16 2006-03-30 Sony Corp コンテンツ生成装置およびコンテンツ生成方法
KR20070009298A (ko) * 2005-07-15 2007-01-18 삼성전자주식회사 모션 감지에 의하여 효과 음향을 재생하고 제어하는 방법및 장치
US7491878B2 (en) * 2006-03-10 2009-02-17 Sony Corporation Method and apparatus for automatically creating musical compositions
US20080172137A1 (en) * 2007-01-12 2008-07-17 Joseph Safina Online music production, submission, and competition

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See references of WO2010023231A1 *

Also Published As

Publication number Publication date
US20110208332A1 (en) 2011-08-25
WO2010023231A1 (de) 2010-03-04
DE102008039967A1 (de) 2010-03-04

Similar Documents

Publication Publication Date Title
DE69623318T2 (de) Verfahren und vorrichtung zur interaktiven bildung von neuen bearbeitungen von musikstücken
CN103597543B (zh) 语义音轨混合器
Fink et al. The relentless pursuit of tone: Timbre in popular music
AU2013259799A1 (en) Content customization
WO2002103671A2 (de) Automatische erzeugung von musikalischen sratch-effekten
DE112011103067T5 (de) Grafische Benutzerschnittstelle für die Programmierung von Musiksequenzen
JP7041270B2 (ja) モジュラー自動音楽制作サーバー
CN107197388A (zh) 一种直播降噪的方法及***
DE202015006043U1 (de) Signalfolge und Datenträger mit einem Computerprogramm zur Wiedergabe eines Musikstücks
CN108241596A (zh) 一种演示文稿的制作方法和装置
CN108241598A (zh) 一种演示文稿的制作方法和装置
WO2000011647A1 (de) Verfahren und vorrichtungen zur koartikulationsgerechten konkatenation von audiosegmenten
CN108241597A (zh) 一种演示文稿的制作方法和装置
Scaletti Computer music languages, Kyma, and the future
EP2327071A1 (de) Verfahren zum betrieb eines elektronischen klangerzeugungsgerätes und zur erzeugung kontextabhängiger musikalischer kompositionen
DE102020112476A1 (de) Verfahren, System, Anwendergerät sowie Computerprogramm zum Betreiben einer virtuellen Persönlichkeit
DE19755863C2 (de) Akustische Benutzeroberfläche zur mobilen und stationären Nutzung
EP2787501A1 (de) Musikinstrument und Vorrichtung zum Fernsteuern eines Vorgangs im Umfeld des Musikinstruments
DE102016226042B4 (de) Vorrichtung, Fortbewegungsmittel und Verfahren zur Gestaltung eines Übergangs zwischen zwei Audio-Dateien
DE19917820C2 (de) Verfahren und Vorrichtung zum mobilen und stationären Navigieren in versprachlichten hypertextorientierten Graphical User Interfaces (GUIs)
DE102004010878B4 (de) Vorrichtung und Verfahren zum Liefern einer Signalisierungsmelodie
Olowe et al. FEATUR. UX: An approach to leveraging multitrack information for artistic music visualization
Subramanian et al. LOLbot: Machine Musicianship in Laptop Ensembles.
Cera Three years of fragments: music, sound design, and sketching.
DE102005054585A1 (de) Audioanlage zur Wiedergabe von Musiktiteln

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

17P Request for examination filed

Effective date: 20110307

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO SE SI SK SM TR

AX Request for extension of the european patent

Extension state: AL BA RS

17Q First examination report despatched

Effective date: 20110907

DAX Request for extension of the european patent (deleted)
REG Reference to a national code

Ref country code: DE

Ref legal event code: R003

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE APPLICATION HAS BEEN REFUSED

18R Application refused

Effective date: 20130302