EP1336173B1 - Anordnung bzw. anlage zum komponieren - Google Patents

Anordnung bzw. anlage zum komponieren Download PDF

Info

Publication number
EP1336173B1
EP1336173B1 EP01931187A EP01931187A EP1336173B1 EP 1336173 B1 EP1336173 B1 EP 1336173B1 EP 01931187 A EP01931187 A EP 01931187A EP 01931187 A EP01931187 A EP 01931187A EP 1336173 B1 EP1336173 B1 EP 1336173B1
Authority
EP
European Patent Office
Prior art keywords
sound
unit
instrument
sounds
instruments
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
EP01931187A
Other languages
English (en)
French (fr)
Other versions
EP1336173A2 (de
Inventor
Herbert Tucmandl
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Vienna Symphonic Library GmbH
Original Assignee
Vienna Symphonic Library GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Vienna Symphonic Library GmbH filed Critical Vienna Symphonic Library GmbH
Priority to AT01931187T priority Critical patent/ATE307373T1/de
Publication of EP1336173A2 publication Critical patent/EP1336173A2/de
Application granted granted Critical
Publication of EP1336173B1 publication Critical patent/EP1336173B1/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • G10H1/0025Automatic or semi-automatic music composition, e.g. producing random music, applying rules from music theory or modifying a musical piece
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/091Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith
    • G10H2220/101Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith for graphical creation, edition or control of musical data or parameters
    • G10H2220/121Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith for graphical creation, edition or control of musical data or parameters for graphical editing of a musical score, staff or tablature
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/121Musical libraries, i.e. musical databases indexed by musical parameters, wavetables, indexing schemes using musical parameters, musical rule bases or knowledge bases, e.g. for automatic composing methods
    • G10H2240/145Sound library, i.e. involving the specific use of a musical database as a sound bank or wavetable; indexing, interfacing, protocols or processing therefor
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2250/00Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
    • G10H2250/025Envelope processing of music signals in, e.g. time domain, transform domain or cepstrum domain
    • G10H2250/035Crossfade, i.e. time domain amplitude envelope control of the transition between musical sounds or melodies, obtained for musical purposes, e.g. for ADSR tone generation, articulations, medley, remix
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2250/00Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
    • G10H2250/541Details of musical waveform synthesis, i.e. audio waveshape processing from individual wavetable samples, independently of their origin or of the sound they represent
    • G10H2250/641Waveform sampler, i.e. music samplers; Sampled music loop processing, wherein a loop is a sample of a performance that has been edited to repeat seamlessly without clicks or artifacts

Definitions

  • the invention relates to a new arrangement or system for, for example by acoustic playback during and / or after creating a musical Composition supported, composing on, preferably a plurality of - real Musical instruments corresponding and their tones or sounds ready - virtual Musical instruments, preferably in an ensemble formation, e.g. in chamber music, Orchestral formation or the like, playable and reproducible sounds, Sound sequences, sound clusters, sounds, sound sequences, sound phrases, pieces of music, compositions or the like. as well as for acoustic, score or other reproduction thereof.
  • EP 0899 892 A2 describes a proprietary extension to the known ATRAC Data reduction method as described e.g. is used on MiniDisks. This font is no more than that the invention described there - like many others - has to deal with digitally processed audio.
  • US 5,886,274 A describes a proprietary extension to the well-known MIDI standard, which allows sequencer data, that is, play parameters of a piece of music, and connect sound data such that a platform independent Equality of the played piece is ensured. First and foremost, this is about one the most consistent distribution of MIDI and metadata over the Internet.
  • Fig. 1 The output devices are only target, not source in the Flow chart. A substantive feedback from the synthesizer to the sequencer is not possible.
  • a sampler is a virtual musical instrument stored with Sounds that can be recalled and played.
  • a piano became a sound library, a so-called “sample library” prepared, it was thereby recorded tone by tone and for edited the sampler.
  • the user can now on a MIDI keyboard or from the recorded MIDI data in a MIDI sequencer the sounds of a real piano in the Ideal 1: 1, so true to the tone, play.
  • Sound sequence parameters each desired type of Playing the sound sequence. What is meant by this, should be briefly indicated: It exists in Sound impression a difference, whether, for. three consecutive virtual legato notes or sounds that sound on the digital recording from one to the other sound or sounds played on a real instrument, as if the virtual sound sequence underlying a sound sequence played on a real instrument. Under note cluster or Sound cluster is supposed to number more than one on an instrument at a time played notes or tones or their corresponding sounds are understood, ie e.g.
  • associated "sound cluster parameters” would be for example the "arpeggio" playing a triad describing descriptive parameters.
  • the connecting word “and / or” are intended to single sounds, sound sequences and sound clusters in the single or in any desired combination, e.g. a Sequence of almost legato played arpeggio chords or the like ..
  • the abbreviated term “sound definition parameter” is used in the following. or often just “parameter” for simplicity's sake.
  • the bidirectional sound parameter storage unit integrated in the new composition computer or their underlying software ceases essential core of the invention, it is essentially one between the Input and control unit and the sound sample library storage unit, ie Sound sample database turned on search engine for those in large numbers in the Memory unit as sound imagos or sound samples, e.g. through digitized sound envelopes defined stored sounds, sound sequences, sound clusters and the like. represents.
  • the new system and its technology make it possible for the first time that composer who have no way of having a real orchestra and / or real instrumentalist to work, an extremely easy to use, his work no longer with coding od. Like. To provide burdensome tool, the sound produced by him as close as possible to real orchestral sound.
  • the invention also brings a work easier through optimal, independent "intelligent" background processes, such as automated time compression and expansion in tone sequence samples, such as repetitions, legato phrases, glissandi or the like.
  • the sound samples of the sequencer unit organized in the form of the Bidretemental database transmits its qualitative parameters in the form of "Sound Sample Description Parameters "at each working session again and, above all, always updated, and allows for bidirectional and interactive reference of sequencer unit and Sound sample library storage unit.
  • a configuration according to claim 5 or analogously thereto may be provided in particular.
  • composition computer comprises a score software according to claim 7.
  • the present invention is based on a comprehensive, digitized collection or library of recordings of the sounds real orchestral instruments. These recording samples are taken from the core of the Invention representing bidirectional sound parameter storage unit or relational Sound database organizes or manages a qualitative link with each other as well as with the acting as a control unit notation input unit and / or Sequencer unit allows.
  • This novel bidirectional link allows both during the creation as well as in the simultaneous or delayed playback a piece of music, not just control data from the just mentioned control unit to the To transmit sound generation, but also allows the interactive feedback information from the sampler unit to the control unit just mentioned.
  • the qualitative parameterization of the sound database by means of the new bidirectional sound parameter storage unit subsequently allows a future addition instruments available, such as ethnic or ancient instruments Music, without the control unit losing functionality, because the sound parameter database their - then extended - features at the latest in the course of the next start routine the system is able to transmit to said control unit.
  • the essence of the invention is that the samples are the smallest elements of a Sample library to handle, which with the sequencer and the processor unit is directly linked. That is, the sequencer unit underlying the sequencer software In the course of the start ("boot") sequence, the descriptive parameters each learn Samples and these are structured in the course of a working session the user available.
  • join criteria can be defined by the single sample name and, without any limiting effect, for example, be structured as follows: In this mean: "Vn10SsALVmC4PFg2" Vn Violin group C crescendo 10 Ensemble with 10 violins 4 4 s length or duration ss senza sordino P Start dynamics piano A arco F Enddynamics forte L legato g2 pitch vm vibrato medium
  • the composer In a graphic editor, the composer generates from the main track (HT) Instrument subtracks (IST), the strings would be e.g. a standard preset that the following:
  • the sound parameter unit now automatically accesses only the violin samples the sample library too - a tag and a note may be the To point out to composers, if certain of his composed notes outside the natural vocal range of the chosen instrument.
  • This Subtrack 1 (IST 1) line has the same "note sequence” as above Main track (HT) STRINGS on, but are "too deep” notes by a Gamut software of the computer as such, e.g. by an underline or the like., expelled because they are not playable, see the clip above.
  • this structuring can have the following form, for example:
  • Each of the timpani mentioned in the 1st level comprises one certain, partially overlapping with the scope of another timpani Range. If e.g. the bass timpani assigned a high-pitched sound for them, provides a software for an on-screen warning, as in the above Tone perimeter instrument allocation explained.
  • the violins are defined as "10 violins, con sordino, legato, without vibrato” and now the dynamics are assigned.
  • composition computer turns an automated one for the first time "Compression - Expansion Tool” or the corresponding software; namely the "10 violins / con sordino / senza vibrato / crescendo / start p-end f /" - Samples
  • the above-mentioned software recognizes by means of the sound definition parameters or Sample Description parameter automatically selects the best or next matching sample with 1.33 s length and it expands by the corresponding factor 1.266, so 1.63 s for the said 10th 3/3 note is reached. This process runs under software control in the background and is not noticeable to the user of the system.
  • he can select from a list the known static-dynamic signs (from ppp to fff). For example, he sets the first and third grid points, that is, the numbers 1 and 3 of the time grid, to the character p, so the sound is piano until the 3rd quarter; if you put the f on the 5th grid point, then a crescendo over two quarters becomes forte on the one of the second bar and on the sixth grid point a p, so to speak a "fp effect" and finally on the last grid point fff : there is a strong crescendo over the length of the last three quarters.
  • the sequencer now generates a new sample using the Compression Expander tool and a crossfade tool, with the associated set "Sample Description Parameters". (This new sample will either be deleted at the end of the session or permanently stored in the relational database and made available during further sessions).
  • the staff shows the following picture and the dynamics label p ⁇ fp ⁇ fff under the held note:
  • the staff of this example contains three times three tones each Height, where each of the three notes played three times in succession, the same tone becomes, which is very typical for trumpet fanfares very typical repetitions.
  • Such Repetitions usually form a big weak point of all previously known and available programming. There is always only one sample for that Such a repetition is eligible, and this is needed in the appropriate, so composed, number repeated. The more often and faster this sound sequence sounds, the more stuttering and artificial is the auditory impression.
  • the invention provides organized sample library "repetition samples" before. These are e.g. 2-, 3-, 4- and 6-repeats, or 1, 2, 3-fold upbeat repetitions, differentiated in tempo, Dynamics and emphasis.
  • the original tempo of this sampled, in the computer or in the sound sample memory stored legato phrases are e.g. sixteenth note values at tempo 160.
  • 8th of triplet passages in tempo from 171 to 266, sixteenth-passages in tempo from 128 to 200, sixteenth Trial passages in tempo from 86 to 133, 32-th passages in tempo from 64 to 100 be implemented. (Quintuplets and septols are the same).
  • the sequencer unit Upon activation, the sequencer unit scans the selected part, all in question Passages will be marked, see staff NZ. Furthermore, the generated Sequencer unit a subtrack ST with only one staff, on which the division of the Block system is visible. The user can use this note image analyze, as from the 2-, 3-, 4-fold-consequences and possibly with the help of Single tones the desired Rasches legato sequence is built.
  • This option provides the user with a list of specialized applications, such as the following:
  • the sound effect corresponds to the flowing walking of the bow during a tremolo from the violin bridge to the normal Position.
  • the system according to the invention advantageously includes some sample rows of standard ensemble combination, e.g. unison u. octave.
  • ENSEMBLE COMBINATION MENU may be "AUTODETECT-COMBINATIONS" be: hiebei the sequencer looks for possible Unison or octave combinations, and one has the possibility of this by the of the Database to replace "ensemble samples”.
  • Another example may be software for considering the Resonance effect of a deep drumbeat on the double basses.
  • the Corpi of Double basses act as a kind of resonance amplifier for the timpani. at Unison combinations of timpani and basses provide an additional "sound fusion" on; if a timpani is played in an ensemble without double basses, one is clearer Difference in the sound spectrum of the timpani noticeable.
  • the Hall software "knows" about any presence of double basses or Unison combinations "informed” and can do so in their sound image calculations consider.
  • the chamber music instrumented includes woodwinds and small string ensemble arises a dynamic headroom that is not used.
  • To achieve optimum quality in the To achieve mixing ie the highest possible signal-to-noise ratio, he is able to Finished programming with a standardization function to optimize the piece.
  • the Sequencer unit searches the loudest sample of the piece and highlights all samples around it possible value upwards.
  • this process does not affect Volume ratios and the given dynamic range values also become equal maintained, e.g. pp samples remain just pp samples.
  • each Sample is stored at maximum level.
  • the recorded during the recording Volume differences are stored in sample volume data. That is, everyone Sample has a co-stored volume value. So a fff bang is coming close Zero dB, a ppp solo dough at an offset of -40 dB.
  • the sequencer unit So just check to see which is the highest sample volume value, which sample is closest to zero, and moves up all sample volume data accordingly.
  • the user can use a special Standardization function exploit all the instruments and samples on one Output are rooted, standardized as a self-contained package.
  • the Sequencer unit then calculates a dynamics protocol, such as an external mixing console is to be set to return to the initial values, e.g. brass Stereo Out 1, Woodwind Stereo Out 2 etc.
  • the sequencer unit offers its own dynamics tool.
  • the composer can thus make individual voices or selections louder and quieter.
  • the difference to a conventional "Velocity Control" is that here the dynamic gradations of individual samples are involved. In our example, it reduces the volume of the String harmonies so far that the oboe solo can develop to the correct degree.
  • the Sequencer unit emanates from the factory presets, the string dynamics initially corresponds about a mf. After the composer has reduced the strings so far, until the desired sound result is achieved, they have e.g. reaches a mean pp value. Of the Composer closes the window and under the strings voices then settles automatically the dynamic rule pp. Of course, this way of working is also predefined crescendo and decrescendo values applicable. So the composer has the certainty that his dynamic prescription ultimately in the concert hall the desired effects will achieve.
  • the bidirectional sound parameter storage unit provided in accordance with the invention
  • Organized audio samples are an integral part of the system. At about 125 Gigabits, the samples are not directly changeable to the user.
  • the only accessor is the software of the sequencer unit itself.
  • the samples are still influenced by criteria such as Velocity & Mainvolume, but there the sequencer software as with audio tracks, which has the possibility of that in each piece buffering required samples in advance, is an extremely large amount of RAM at according to fast hard disks not necessarily requirement.
  • a desirable minimum equipment for the full use of the invention would be eight, ideally 16 stereo outputs. Since with 96 kHZ / 24 BIT resolution processed and edited If this data rate is to be continued, it is obvious. This requires accordingly high-quality digital converters and sets the option of different digital-out variants, So from 44100, 48000 or 96000 kHz, ahead.
  • FIG. 1 shows a diagram of the new composing system and FIG. 2 a Flowchart of the composing process.
  • the composing system 100 shown in FIG. 1 comprises one of the user or Composers with the sound sequence or composition 01 imagined by him Notation input unit 2, which is connected via an interface, e.g. a graphical user interface (GUI) 3, with screen connected to a composition computer 1 data-flow.
  • GUI graphical user interface
  • a peripheral e.g. one (Score) printer 32.
  • an audio export system which via an audio interface (audio engine) 7 an acoustic Playback unit, e.g. supplies a loudspeaker system 33 or a listener 8, which for the acoustic reproduction of a note just entered, e.g. to the immediate Control of the sound or a sound sequence after entering a note, a note sequence and ultimately e.g. an entire composition.
  • At least one integrated into the system of the composition computer 1 Computer or processor unit (CPU) 4 and at least one with her data flow and Data Exchange Connected Sequencer (Sequencing Engine) 5. Between Processor unit 4 and a sample sound library memory unit 6 b, in which a large number of - on recordings 02 of sounds, sound sequences, sound clusters and the like. from real instruments, instrument groups, orchestras and the like. based - Samples 61 of digitized sounds, e.g.
  • an intelligent relational database 6a Stored is an intelligent relational database 6a, namely the one essential Component of the system according to the invention or its underlying system illustrative - for each one of the sound samples 61 in the library unit 6b all this sound, this sound sequence, this sound cluster and its quality assigned, the same or the same characterizing, descriptive and defining parameters as well as those for the finding, for calling the sound in the and for its retrieval, etc. from the sample library 6b necessary data, coordinates, Address information and the like stored - bidirectional sound parameter storage unit 6a, interposed.
  • the two aforementioned units 6a and 6b form the sound sampler unit 6 and are an essential part of it.
  • the sound parameter storage unit 6a "knows” anytime about all stored in the sample library 6b Sounds 61 (e.g., sound imagos in the form of sound envelopes in digitized form) and over all the same inherent quantity and quality values, she knows, on which instruments a sound desired by corresponding notation inputs and with its quality parameters can be produced, whether he is on one of the Enter the desired instrument is playable, etc.
  • the sound parameter storage unit 6b is above all due to its always present, precise overview sound samples 61 included in the sound sample library 6a, e.g. able to stand up for a non-playable sounds by the user, the same by itself Suggestions for "playable" replacement instruments and / or matching replacement sounds too submit and the like.
  • the composition computer 1 further comprises a number of different, at least the CPU 4 and the sequencer unit 5 associated software units or them stored program software 41 for the playback of the input composition as usual score and / or such 42, to control which of composers entered sounds on the instrument chosen by him because of its limited Range can not be played and / or software 43, for editing a sound.
  • the - here by no means fully enumerated - software units can such for imprinting reverberation / reverberation characteristics on a sound, for dynamics changes within a longer held tone 44, for corrections to a Lifelike reproduction of rapidly repetitive sounds of equal height 45 or rapidly played on different sounds 46 height, further for an adaptation of Dynamics of sounds of different instruments 47 together and the like.
  • a project memory unit 9 for the score storage are supplied, from which at any time in the context of a Working session required elements or parts of previously created and there stored compositions are retrievable.
  • the diagram of Fig. 2 shows how after loading the loading with the sound definition parameters is done from the sound database 6, in which the same storing the sound sample parameter storage unit 6a and the sound sample library 6b are integrated.
  • the bidirectional sound parameter storage unit 6a It is then supplied by the bidirectional sound parameter storage unit 6a the sound database 6 - the main track HT created. From there, the selection of the by the user predetermined notes or the like. assigned sounds etc. together with their parameters, of Phrasensamles a Tempomatching and the like., In the next query step whose Selection is confirmed or not.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Electrophonic Musical Instruments (AREA)

Abstract

Die vorliegende Erfindung betrifft eine neue Anordnung bzw. Anlage (100) zum zumindest durch akustische Wiedergabe während und/oder nach erfolgter Erstellung einer musikalischen Komposition unterstützbaren Komponieren von, auf virtuellen Musikinstrumenten, vorzugsweise in einer Ensemble-Formation, gespielten Kompositionen od. dgl., welche einen Kompositions-Computer (100) mit zumindest einer Processor-Einheit (4), zumindest einer mit derselben datenfluss-verbundenen Sequenzeinheit (5) und weiters zumindest einer, zumindest mit diesen eben genannten Einheiten (4, 5) datenfluss- und datenaustausch-verbundenen Klangsample-Bibliotheks-Speichereinheit (6b) umfasst, wobei für die Verwaltung der in der genannten Speichereinheit (6b) gespeicherten Klang-Samples (61) eine zumindest mit der Processor-Einheit (4) und der Sequenzereinheit (5) bi- bzw. multidirektional datenfluss- und datenaustausch-verbundene, jedem der in der Klangsample-Speichereinheit (6b) gespeicherten Klang-Samples (61) zugeordnete und einem eindeutigen Zugriff auf dieselben ermöglichende Klang-Definitions-Parameter enthaltende Bidirektional-Klangparamater-Speichereinheit (6a) vorgesehen ist.

Description

Die Erfindung betrifft eine neue Anordnung bzw. Anlage zum, beispielsweise durch akustische Wiedergabe während und/oder nach erfolgter Erstellung einer musikalischen Komposition unterstützten, Komponieren von auf, bevorzugt einer Mehrzahl von - realen Musikinstrumenten entsprechenden und deren Töne bzw. Klänge bereithaltenden - virtuellen Musikinstrumenten, vorzugsweise in einer Ensemble-Formation, wie z.B. in Kammermusik-, Orchester-Formation od.dgl., spielbaren und von denselben wiedergebbaren Tönen, Tonfolgen, Tonclustern, Klängen, Klangfolgen, Klangphrasen, Musikstücken, Kompositionen od.dgl. sowie zur akustischen, partiturmäßigen oder sonstigen Wiedergabe derselben.
Zu den den Hintergrund des Standes der Technik auf diesem Gebiet betreffenden Druckschriften ist folgendes auszuführen:
Die EP 0899 892 A2 beschreibt eine proprietäre Erweiterung zum bekannten ATRAC Daten-Reduktionsverfahren, wie es z.B. auf MiniDisks zum Einsatz kommt. Dieser Schrift ist nicht mehr zu entnehmen als dass die dort beschriebene Erfindung - wie viele andere auch - mit digital verarbeitetem Audio zu tun hat.
Die US 5,886,274 A beschreibt eine proprietäre Erweiterung zum bekannten MIDI-Standard, die es ermöglicht, Sequenzerdaten, also Abspielparameter eines Musikstückes, und Sounddaten dergestalt miteinander zu verknüpfen, dass eine plattformunabhängige Gleichheit des abgespielten Stückes sichergestellt ist. In erster Linie geht es dabei um eine möglichst konsistente Distribution von MIDI- und Meta-Daten über das Internet.
Es ist dort eine datenmäßige Verflechtung von Abspiel- und Klangparametem vorgesehen. Die Klangerzeugung ist in ihrer Herangehensweise konventionell, wozu auf Fig. 1 zu verweisen ist: Die Output-Devices sind lediglich Ziel, nicht jedoch Quelle im Flussdiagramm. Eine inhaltliche Rückwärtskopplung vom Synthesizer zum Sequenzer ist nicht ermöglicht.
Die DE 26 43 490 beschreibt eine - heute technisch bereits vielfach ähnlich realisierte bzw. wesentlich weiter entwickelte - Methode zur computergestützten Musiknotation; die computer-basierte Notation ist selbstverständlich ein notwendiges Feature, das jedoch dort auf die drei Metren 4/4, ¾ oder 2/4 beschränkt ist (vgl. Fig. 4 Mitte).
Die US 5,728,960 A beschreibt die Probleme und Realisationsmöglichkeiten computergestützter Notendarstellung und -transformation, v.a. im Hinblick auf zeitgenössische Proben- und Aufführungspraxis. Dabei werden "virtuelle Notenblätter" in Echtzeit erstellt. Im "Conductor Mode" ist auf die Möglichkeit einer prozessorgestützten Verarbeitung eines video-aufgezeichneten Dirigats in der Blue-Box angedacht, wozu auf Fig. 9 zu verweisen ist. Es erfolgt dort keinerlei Bezugnahme auf eine virtuelle/synthetische Realisation aus einer intelligent verknüpften Klang-Datenbank.
Die US 5,783,767 A beschreibt die computergestützte Transformation der Steuerdaten eines melodischen Inputs auf einen harmonischen Output - eventuell handelt es sich um eine einer Begleitautomatik zugrundeliegende Logik, jedoch ist auch dort keine bidirektionale Verknüpfung zwischen musikalisch/kompositorischen Input und klanglichem Ergebnis vorgesehen oder wenigstens angedacht. Darauf weist insbesondere auch der Eintrag "Easy Play Software" in Fig. 15 hin.
Zu den der vorliegenden Erfindung zugrundeliegenden Fakten sei einleitend folgendes ausgeführt:
Es ist eines der wesentlichen Anliegen der Erfindung, trotz sinkender Budgets, die Produktion hochwertiger, insbesondere sinfonisch orientierter Kompositionen, also insbesondere Soundtracks für Filme, Videos, Werbung od.dgl., oder aber zeitgenössische Musik zu ermöglichen.
Einspielungen mit realen Orchestern, für welche Kosten von z.B. zwischen ATS 350.000,-- und 750.000,-- anfallen, sind aufgrund der Musik-Budgets für österreichische oder andere nationale Filmproduktionen mit Umfängen von ATS 100.000,-- bis ATS 250.000,-- schon bisher nicht möglich gewesen. Aus diesem Grunde wird auf diesem Gebiet seit mehreren Jahren meist mit der Sampling - MIDI ("Musical Instruments Digital Interface)-Technologie gearbeitet. So kann für virtuelle Orchesterkompositionen z.B. die sogenannte "Miroslav Vitous Library" herangezogen werden. Diese "Library", bestehend aus 5 CDs, ist an sich die umfangreichste und zugleich teuerste, derzeit auf dem Markt präsente "Orchester Sound Library". Sie bietet 20 verschiedene Instrumente oder Instrumentengruppen in durchschnittlich fünf Spielarten je Instrument an. Die damit erzielten Ergebnisse sind dann durchaus überzeugend, wenn man sich beim Komponieren den beschränkten Möglichkeiten dieser der Library anpasst. Aus der Sicht eines Künstlers ist es allerdings unbefriedigend, den doch sehr eingeschränkten Umfang der zur Verfügung stehenden Sampler quasi als Co - Komponisten fungieren zu lassen, denn ein uneingeschränktes Umsetzen von kompositorischen Ideen führt mit den heute zur Verfügung stehenden "Libraries" meist doch nur zu mehr oder weniger unbefriedigenden Ergebnissen.
Die oben genannten Budgetprobleme haben, wie einschlägige Erfahrungen gezeigt haben, keineswegs österreich-spezifischen Charakter. Auch bei einem Großteil der internationalen Filmproduktionen besteht heute der Zwang, mit eingeschränkten Filmmusik-Budgets zu arbeiten.
Dazu kommt die Tatsache, dass Filmproduktionen bereits während der Dreharbeiten Probleme haben, kalkulierte Budgets einzuhalten und - da die Musikproduktion in den Bereich der Post-Production fällt - zwangsläufig gerade dort den Sparstift ansetzen.
Viele Komponisten versuchen, dieses Problem zu lösen, indem sie entweder "Synthesizer-Soundtracks" oder kammermusikalische Arrangements einsetzen. Aber gerade das breite Emotionsspektrum eines ganzen Orchesters bietet sich oft als einzige Möglichkeit an, um den Emotionsgehalt von Filmen und natürlich auch in anderen Bereichen tatsächlich adäquat zu unterstützen. In solchen Fällen kommen sogenannte Classic Sample Libraries zum Einsatz, wie z.B. jene von Vitous, Sedlacek oder Jaeger.
Die oberste Maxime bei der Arbeit mit "gesampleten Instrumenten" lautet: "Die Instrumente (Orchester) müssen echt klingen". Ausnahmen von dieser Regel betreffen eine bewusst gewünschte Künstlichkeit, die im Konzept einer Komposition selbstverständlich durchaus auch vorgesehen sein kann.
Gelingt diese Umsetzung der o.a. Maxime nicht, dann bekommt eine derartige Komposition bzw. deren Wiedergabe die wenig schmeichelhafte Bezeichnung "Plastikorchester" verliehen.
Um nicht derartige "Plastik-Sounds" zu produzieren, hat sich die vorliegende Erfindung die Aufgabe gestellt, hier Abhilfen zur Verfügung zu stellen. Die Entwicklung der technischen Möglichkeiten, der die vorhandenen "Sound-Libraries" alle nachhinken, ließ die Forderung nach einer neuen, umfassenden "Orchester-Library", welche den auf diesem Gebiet heute schon oder in absehbarer Zeit erreichbaren und möglichen Standard nutzt, entstehen.
Bevor auf die Erfindung näher eingegangen wird, soll ein kurzer Abriss der ihr zugrundeliegenden neuartigen "Sampling-Technologie" gegeben werden:
Im weiteren Sinne ist ein Sampler ein virtuelles Musikinstrument mit gespeicherten Tönen, die gezielt abgerufen und gespielt werden können.
Von einem Datenträger, wie z.B. CD-ROM oder Festplatte, lädt der Benutzer bzw. Komponist die benötigten "Sounds", also Töne, Klänge od.dgl. in den Arbeits-Speicher des "Samplers".
Das heißt z.B.: Von einem Klavier wurde eine Ton- bzw. Klangbibliothek, eine sogenannte "Sample-Library" angefertigt, es wurde dabei Ton für Ton aufgenommen und für den Sampler editiert. Der Benutzer kann nun auf einem MIDI-Keyboard oder von den aufgezeichneten MIDI-Daten in einem MIDI-Sequenzer die Töne eines echten Klaviers im Idealfall 1:1, also klanggetreu, wiedergeben.
Wenn entsprechende klassische Samples, also klassisches Klangmaterial zur Verfügung stehen bzw. steht, ist es höchstens in einem Idealfall möglich, eine vorher mittels herkömmlicher, also z.B. mittels MIDI-Programmierung gespeicherte klassische Partitur letztlich in Orchesterqualität wiederzugeben.
Maßgeblich ist hiebei die Qualität und der Umfang der aufgenommenen und gespeicherten Sounds und ihre sorgfältige Editierung und weiters insbesondere das digitale Auflösungsformat: Das derzeit erhältliche, wenig befriedigende Material ist in der bisherigen 44100 kHz/16 bit-Auflösungs-Technik aufgenommen. Die Technik auf diesem Sektor strebt jedoch sehr rasch in Richtung 96000 kHz/24 bit-Auflösung.
Je höher die Auflösung, desto überzeugender ist der Höreindruck.
Gegenstand der Erfindung ist nun eine, wie eingangs definierte Anordnung bzw. Anlage zum gegebenenfalls durch akustische Wiedergabe während und/oder nach erfolgter Erstellung einer musikalischen Komposition unterstützten Komponieren, welche dadurch gekennzeichnet, ist dass
  • die Notations-Eingabe-Einheit (2) der Anordnung bzw. Anlage über zumindest eine Schnittstelle, bevorzugt ein Graphical User Interface (3), mit einem Kompositions-Computer (1) datenfluss- und datenaustausch-verknüpft und -vernetzt ist, welcher
    • zumindest eine Processor-Einheit (CPU) (4), weiters
    • zumindest eine mit derselben datenfluss- und datenaustausch-verknüpfte - mit den genannten Noten, Notenfolgen, Notenclustern u.dgl. samt den ihnen jeweils zugeordneten Klang-Definitions-Parametern bzw. mit den denselben entsprechenden Klängen, Klangfolgen, Klangclustern u.dgl. versorgbare und dieselben einer eingabegemäßen Abfolge entsprechend abrufbar speichernde und über zumindest eine entsprechende Schnittstelle (7) an eine Abhöre (8), an einen Lautsprecher (33) od.dgl., an einen Partitur-Drucker (32) od.dgl. abgebende - Sequenzer-Einheit (5), sowie weiters
    • zumindest eine, mit der genannten Processor-Einheit (4) und mit der genannten Sequenzer-Einheit (5) datenfluss- und datenaustausch-verknüpfte Klang-Sampler-Einheit (6) umfasst,
      welche Klang-Sampler-Einheit (6) ihrerseits
    • zumindest eine - die in digitalisierter oder anderer Form vorliegenden eingespielten Klang-Imagos bzw. Klang-Samples (61) aller Einzelklänge, Klangfolgen, Klangcluster u.dgl., der einzelnen virtuellen Instrumente bzw. Instrumenten-Gruppen gespeichert enthaltende - Klangsample-Bibliotheks-Speichereinheit (6b) und
    • zumindest eine mit derselben datenfluss- und datenaustausch-verknüpfte und jedes der genannten Klang-Samples (61) in Form von demselben zugeordneten und dasselbe beschreibenden bzw. definierenden Klang-Definitions-Parametern, z.B. in Form von Kombinationen bzw. Sequenzen derselben, speichernden und verwaltenden - für den Abruf der Klang-Samples aus der Klangsample-Bibliotheks-Speichereinheit (6b) und für eine Weitergabe derselben zumindest an die Prozessor-Einheit (CPU) (4) und/oder Sequenz-Einheit (5) und/oder für die Speicherung, Verwaltung und Weitergabe von in den Kompositions-Computer (4) durch eine Bearbeitung in ihrer Qualität und somit in ihren Klang-Definitions-Parametern veränderten oder mit in denselben neue eingebrachten Klang-Definitions-Parametern beschriebenen Klängen/Klangfolgen/Klangclustern u.dgl. vorgesehene - Bidirektional-Klangparameter-Speichereinheit bzw. "Relationalen Klangparameter-Datenbank" (6a) umfasst.
Was die oben verwendeten Begriffe und Ausdrücke betrifft, wird dazu erläuternd folgendes ausgeführt:
Unter Noten- oder Tonfolgen bzw. den diesen entsprechenden "Klangfolgen" sollen musikalische Abschnitte mit mehreren hintereinander zu spielenden Noten bzw. Tönen bzw. Klängen verstanden werden, unter "Klangfolge-Parametern" die jeweils gewünschte Art des Spielens der Klangfolge. Was damit gemeint ist, soll kurz angedeutet sein: Es besteht im Höreindruck ein Unterschied, ob z.B. drei hintereinander gespielte, virtuelle legato-Einzeltöne bzw. -klänge erklingen, welche auf der Digital-Aufnahme von einzeln auf einem realen Instrument gespielten Tönen bzw. Klängen beruhen, als wenn der virtuellen Tonfolge eine auf einem realen Instrument gespielte Tonfolge zugrunde liegt. Unter Notencluster bzw. Klangcluster soll eine Anzahl von mehr als einem auf einem Instrument gleichzeitig gespielten Noten bzw. Tönen bzw. die ihnen entsprechenden Klänge verstanden werden, also z.B. ein Dreiklang, dazugehörige "Klangcluster-Parameter" wären beispielsweise das "arpeggio"-Spielen eines Dreiklangs definierende Beschreibungs-Parameter. Mit dem verbindenden Wort "und/oder" sollen Einzelklänge, Klangsequenzen und Klangcluster im einzelnen oder in irgendeiner, jeweils gewünschten Kombination gemeint sein, z.B. eine Folge von fast legato gespielten arpeggio-Akkorden od.dgl.. Um diese umständliche Umschreibung zu vermeiden, wird im folgenden der abgekürzte Begriff "Klang-Definitions-Parameter" bzw. oft der Einfachheit halber nur "Parameter" verwendet.
Die in den im neuen Kompositions-Computer integrierte Bidirektional-Klangparameter-Speichereinheit bzw. die ihr zugrunde liegende Software stellt ein wesentliches Herzstück der Erfindung dar, sie ist im wesentlichen eine zwischen die Eingabe- und Steuer-Einheit und die Klang-Sample-Bibliotheks-Speichereinheit, also Klangsample-Datenbank eingeschaltete Suchmaschine für die in großer Zahl in der Speichereinheit als Klang-Imagos bzw. Klang-Samples, z.B. durch digitalisierte Klang-Hüllkurven definierten gespeicherten Klänge, Klangfolgen, Klang-Cluster u.dgl. dar.
Die neue Anlage und ihre Technik ermöglicht es zum ersten Mal jenen Komponisten, die keine Möglichkeit haben, mit einem realen Orchester und/oder realen Instrumentalisten zu arbeiten, ein äußerst bedienungsfreundliches, seine Arbeit nicht mehr mit Codierung od. dgl. belastendes, Werkzeug zur Verfügung zu stellen, dessen von ihm produzierter Klang weitestgehend nahe an echten Orchesterklang heranreicht.
Die Hauptvorteile der Erfindung in ihrer Grundkonzeption und deren Variationen bestehen in Folgendem:
Sie erlaubt ein übersichtliches und die Intuition nicht störendes Handling der verschiedenen "Instrumente" und ihrer Spielvarianten. Dem Benutzer, also dem Komponisten, steht zum ersten Mal eine Bearbeitungs-Oberfläche zur Verfügung, die praktisch üblichen Orchesterpartituren entspricht. Sie bietet die Möglichkeit, trotz hunderter Spielvarianten eines jeweiligen einzelnen Instrumentes "linear", also bloß auf einem Track zu arbeiten.
Die Erfindung bringt weiters eine Arbeitserleichterung durch optimale, selbständige "intelligente" Hintergrundprozesse, wie z.B. automatisierte Zeitkompression und -Expansion bei Tonfolgen-Samples, wie Repetitionen, Legatophrasen, Glissandi od.dgl.
Sie ermöglicht es jederzeit, im Laufe bzw. beim Fortschreiten des Komponier-Vorganges den vollen Überblick über eine schon verfasste Ton- bzw. Klangfolge, über die Instrumentierung usw., zu haben und sofort auch über eine gerade eingegebene Note und deren den Klang bestimmenden Parameter Bescheid zu erhalten, wobei für eine sofortige, visuelle und, was gerade für das Komponieren von Musik wichtig ist, für eine unmittelbare akustische Kontrolle mittels Akustik-Wiedergabe-System als Abhöre Sorge getragen werden kann.
Die in Form der Bidrektional-Datenbank organisierten Klang-Samples der Sequenzer-Einheit übermittelt ihre qualitativen Parameter in Form von "Klangsample Description Parametern" bei jeder Arbeitssitzung aufs Neue und vor allem immer aktualisiert, und ermöglicht so die bidirektionale und interaktive Bezugnahme von Sequenzer-Einheit und Klangsample-Bibliotheks-Speichereinheit.
Eine vereinfachte Ausführungsform der neuen Anordnung ist Gegenstand des Anspruches 2.
Was die "innere Organisation" der erfindungsgemäßen Komponier-Anlage betrifft, so ist eine Software der Bidirektional-Klangparameter-Speichereinheit mit einer im Anspruch 3 genannten Haupttrack-Subtracks-Hierarchie der Instrumente günstig, wobei eine Strukturierung der Subtracks in Ebenen, wie vom Anspruch 4 umrissen, ihre besonderen Dienste zu leisten imstande ist.
Bevorzugt kann im speziellen eine Konfigurierung gemäß dem Anspruch 5 bzw. analog dazu vorgesehen sein.
Weiters kann es von Vorteil sein, die Töne, Tonfolgen, Toncluster und ihre Parameter in der Sampler-Datenbank gleichberechtigt nebeneinander zu konfigurieren, innerhalb derselben jedoch eine hierarchische Struktur vorzusehen, wie vom Anspruch 6 umrissen.
Im Sinne eines für den Komponisten, Arrangeur od.dgl. bequemen Arbeitsablaufes vorteilhaft ist es, wenn der Kompositions-Computer eine Partitur-Software gemäß Anspruch 7 umfasst.
Wenn, wie gemäß Anspruch 7 alternativ oder zusätzlich vorgesehen, in den Computer eine Software für den Ton- bzw. Klang-Umfang eines Instrumentes bzw. für dessen Definition integriert ist, welche beim Komponieren eines vom jeweiligen Instruments nicht spielbaren Tons für eine entsprechende Warnung an den Komponisten Sorge trägt, ist ein wichtiger Schritt für Komfort und effektives Arbeiten verwirklicht.
Um das Spektrum der Klangwirkung der Instrumente bzw. Instrumentengruppen bzw. des gesamten virtuellen Orchesters, z.B. im Sinne der Wiedergabe verschiedener "Arten" der Oberton-Verschmelzung zu erweitern, also z.B., um diesem Orchester den Höreindruck verschiedener Spielräume, Konzertsäle, Kirchenräume, eventueller Freilufträume od.dgl., weiters verschiedener Instrumenten-Plazierungen dortselbst, Positionierungen des Hörers, grelles oder weiches Klangbild usw., zu verleihen, ist es von besonderem Vorteil, wenn in den Kompositions-Computer eine dementsprechende Klang(-Nach)bearbeitungs-Software integriert ist, wozu im Detail auf den Anspruch 8 verwiesen sei, dem weiters zu entnehmen ist, dass es für eine gezielte Wahl der Dynamik besonders vorteilhaft ist, alternativ oder zusätzlich eine entsprechende Software-Einheit vorzusehen.
Für eine der Realität des Hörens von schnellen Ton-Repetitionen und Fast Legato-Tonfolgen praktisch voll entsprechende Wiedergabe einer Komposition können entsprechende alternative oder zusätzliche Software-Einheiten gemäß dem Anspruch 9 in der ersten und dort geoffenbarten Ausführungsform dienen.
Ein, besonders bei virtuellen Instrumenten bzw. bei deren Wiedergabequalität auftretendes, oft störendes Problem stellen die unterschiedlichen Lautstärken und Lautstärken-Umfänge der verschiedenen realen Instrumente dar, deren Klänge in der Klangsample-Bibliothek gespeichert sind. Beim Zusammenspiel verschiedener Arten von Instrumenten in einer Formation "erschlagen" die Instrumente mit höherem Lautstärkevolumen die Instrumente mit geringeren Eigenlautstärken. Diesem Problem kann ebenfalls begegnet werden mit einer weiteren alternativ oder zusätzlich vorgesehenen, bevorzugten Software gemäß diesem Anspruch 9, die eine Lautstärke-Volumsadaption bzw. -Anpassung erlaubt, sodass, wenn erwünscht, die natürlichen Dynamik-Differenzen zwischen den "lauten" und den "leisen" Instrumenten gewahrt bleiben. Selbstverständlich kann mit einer derart ausgestalteten Anlage sogar eine "Inversion" der Lautstärke-Volumina zur Erzeugung exotischer Klangeffekte herbeigeführt werden.
Wie die bisherigen Ausführungen gezeigt haben, basiert die vorliegende Erfindung auf einer umfassenden, digitalisierten Sammlung bzw. Bibliothek von Aufnahmen der Klänge realer Orchesterinstrumente. Diese Aufnahme-Samples werden von der den Kern der Erfindung darstellenden Bidirektional-Klangparameter-Speichereinheit bzw. Relationalen Klangdatenbank organisiert bzw. verwaltet, die eine qualitative Verknüpfung untereinander wie auch mit der als Steuereinheit fungierenden Notations-Eingabeeinheit und/oder Sequenzereinheit ermöglicht. Diese neuartige bidirektionale Verknüpfung erlaubt sowohl während des Erstellens als auch bei der gleichzeitigen oder zeitversetzten Wiedergabe eines Musikstückes, nicht nur Steuerdaten aus der soeben genannten Steuereinheit an die Klangerzeugung zu übermitteln, sondern gestattet weiters auch die interaktive Rückkopplung von Informationen aus der Sampler-Einheit an die eben genannte Steuereinheit.
Während bei einer bisher üblichen MIDI-Sequenzer/Sampler-Kombination der Anwender von sich aus sicherstellen muss, dass z.B. ein bestimmter MIDI-Befehl auch das gewünschte Klangereignis auslöst, sorgt das der erfindungsgemäßen Anlage zugrunde liegende System in gänzlich neuer Weise für eine sofortige inhaltlich richtige Auswahl anhand der in Bidirektional-Speicher gespeicherten und von dort übermittelten Merkmale bzw. Parameter der in Klang-Sample-Speichern überhaupt verfügbaren Einzel-Samples (Klangsample Definition oder Sample-Description-Parameter). Ohne Umwege ist also sichergestellt, dass z.B. ein eingestrichenes G einer Violine, mezzoforte, gestrichen, solo, etc. auch tatsächlich als solches wiedergegeben wird. Ein eventueller denkbarer Einwand, Ähnliches könne über aufwendig programmierte MIDI-Programmwechselbefehle realisierbar sein, geht vor allem deshalb ins Leere, da ein konventioneller MIDI-Sequenzer absolut nicht imstande ist, eine qualitative Rückmeldung über die verfügbaren Klangdaten zu erhalten.
Darüber hinaus ermöglicht die in der erfindungsgemäßen Anordnung zum ersten Mal vorgesehene interaktive Rückkopplung zwischen Steuereinheit und Klangerzeugung die sinnvolle Nutzung von Phrasensamples: Da die Sequenzer-Einheit anhand der von der Sample-Speicher-Datenbank übermittelten Parameter anstatt aufgesampleter Einzelnoten alternativ auf passende musikalische Komplettphrasen zurückgreifen kann - etwa auf Repetitionen oder schnelle, gebundene Läufe - sind diese zum ersten Mal tatsächlich realistisch simulierbar. Die integrale Verknüpfung innerhalb der neuen Anordnung gestattet in weiterer Folge den automatisierten Einsatz DSP-gestützter Prozesse, wie z.B. Time-Stretching, um etwa Phrasen-Samples dem Tempo der Komposition anzupassen usw.
Die qualitative Parametrisierung der Klangdatenbank mittels der neuen Bidirektional-Klangparameter-Speichereinheit gestattet in weiterer Folge auch eine künftige Ergänzung der verfügbaren Instrumente, etwa durch ethnische Instrumente oder Instrumente der Alten Musik, ohne dass die Steuereinheit an Funktionalität einbüsst, da ja die Klangparameter-Datenbank ihre - dann erweiterten - Merkmale spätestens im Zuge der nächsten Startroutine des Systems an die genannte Steuereinheit zu übermitteln imstande ist.
Beispielhaft und ohne jeden Anspruch auf Vollständigkeit sei die große Zahl der Kombinationen von Parametern, welche einem einzelnen Violinenton bzw. -klang zugeordnet sein können und die ihn letztlich hörwirklichkeits-nah definieren, gezeigt:
Anzahl der Varianten:
1. Besetzung: z.B. unisono-Kombinationen, also z.B. 1, 4 oder 10 Violinen 3
2. Hauptspielart: mit oder ohne Dämpfer 3x2= 6
3. Spielart: z.B. gestrichen, gezupft, tremolo usw. 6x6= 36
4. Unterspielart: z.B. gestrichen, weich, hart, kurz, gesprungen, usw. 36x4= 144
5. Feinabstimmungen: z.B. viel Vibrato, wenig Vibrato 144x2= 288
6. Dynamikabstufungen (angenommen 3 Abstufungen) 288x3= 864
Dies bedeutet, dass 864 Varianten für einen einzigen Ton zur Verfügung stehen, also 864 Sampler-Reihen: Beim Tonumfang der Violine von 22 Tönen ergibt das schließlich 22x864=19008 Einzel-Samples, und dies noch ohne Sample-Sequenzen, wie Repetitionen, Schnelles-Legato-Phrasen od.dgl.
Diese hohe Anzahl an "Sounds" verlangte dringend eine Adaptierung der bisher zur Verfügung stehenden Sampler und der bisher benutzten "MIDI"-Technologie, damit sich der Komponist nicht mehr mit der ungeheuer großen Anzahl der Sample-Daten und deren Modifizierungen jeweils einzeln und direkt auseinandersetzen muss.
Das Wesen der Erfindung besteht darin, die Samples als kleinste Elemente einer Sample-Bibliothek zu behandeln, welche mit der Sequenzer- und der Processor-Einheit direkt verknüpft ist. Das heißt, die der Sequenzer-Einheit zugrundeliegende Sequenzer-Software erfährt im Ablauf der Start ("Boot"-) Sequenz die beschreibenden Parameter jedes Samples und stellt diese im weiteren Verlauf einer Arbeitssitzung dem Anwender strukturiert zu Verfügung.
Komponiert also der Benutzer z.B. Noten auf einem "Track" für eine Trompete, so kommen z.B. nur mehr Samples aus dem Sample-Bibliothek-Bereich "Trompete" dafür in Frage. Weist er den Noten die Dynamikbezeichnung "piano" zu, kommen nur mehr "Trompete-piano-Samples" zum Tragen usw.
Die Verknüpfungskriterien können durch den Einzelsample-Namen definiert und, ohne jede einschränkende Wirkung beispielsweise - wie folgt, strukturiert sein:
Darin bedeuten:   "Vn10SsALVmC4PFg2"
Vn Violinengruppe C crescendo
10 Ensemble mit 10 Violinen 4 4 s Länge bzw. Dauer
Ss senza sordino P Startdynamik piano
A arco F Enddynamik forte
L legato g2 Tonhöhe
Vm vibrato medium
Der folgende Beispielsteil dient zur näheren Erläuterung der Erfindung und zeigt aus der Fülle des zur Verfügung stehenden Angebots nur einige wesentliche Möglichkeiten und Varianten auf, welche durch die erfindungsgemäße bidirektional datenbankverknüpfte Sampler-Sequenzer-Technologie überhaupt erst möglich geworden sind:
Beispielsteil:
Die der Software der Sequenzer-Einheit zugrundeliegende Konzeption sei anhand des folgenden Beispiels erläutert, wobei der Sample-Bibliothek, also -Datenbank eigene Track-Klassen zugeordnet werden.
Es gibt z.B. 13 werkseitig vorgegebene Haupttracks:
1. Flöten 5. Trompeten 9. Streicher
2. Oboen 6. Hörner 10. Chor
3. Klarinetten 7. Posaunen 11. Pauken
4. Fagotti 8. Tuben 12. Percussion
13. Harfe & Stabspiele
In einem Grafikeditor generiert der Komponist aus dem Haupttrack (HT) Instrumenten-Subtracks (IST), bei den Streichern wäre z.B. ein Standard-Preset das folgende:
I. "Ausgangsbeispiel": Viertelnote = 110 (Tempoangabe)
Figure 00110001
Je nach Instrumentierungswunsch ordnet man die Noten der Haupttracks (HT) den jeweiligen Instrumenten-Subtracks (IST) zu. Man kann natürlich auch direkt auf den wie oben angegebenen Instrumenten-Subtracks eine komponierte Tonfolge einspielen oder importieren.
Im hiesigen Beispiel wird die Noten-(Pausen-)Folge des STREICHER-Haupttracks (Phrase) dem Instrumenten-Subtrack Violinen 1 zugewiesen.
Die Klangparameter-Einheit greift nun automatisch ausschließlich auf die Violinen-Samples der Sample-Bibliothek zu - eine Kennzeichnung und ein Vermerk kann den Komponisten darauf hinweisen, wenn bestimmte von ihm komponierte Töne außerhalb des natürlichen Stimmumfanges des gewählten Instrumentes liegen sollten.
Klickt man nun auf eine Note, erscheint ein Hauptmenü mit folgenden Punkten:
   (Subtrack 1, Violine 1. Viertelnote=110)
Figure 00110002
Dieser Subtrack 1 (IST 1) - Zeile weist die gleiche "Notenfolge" wie oben im Haupttrack (HT) STREICHER auf, allerdings sind "zu tiefe" Noten durch eine Tonumfangs-Software des Computers als solche, z.B. durch eine Unterstreichung od.dgl., ausgewiesen, da sie nicht spielbar sind, siehe oben die Klammer.
Für die 1.Note der obigen "Notenfolge" erscheint am Monitor unterhalb der Notenzeile beispielsweise folgendes:
  • HAUPTMENÜ
  • Instrument Parameter
  • Dynamik
  • Repetitions-Detector
  • Fast Legato-Detector
  • Spezial-Features
  • Mit der (Haupt-) Menüzeile "Instrument Parameter" kann man die mögliche Besetzung, Spiel und Artikulationsarten des "Subtrack 1"-Instrumentes definieren. Dieses Menü folgt dem Prinzip eines Datenbaumes und ist für jedes Instrument individuell strukturiert; Dieses Menü wird schlussendlich durch die von der Datenbank übergebenen Klang-Sample-Definitions-Parameter bzw. "Sample Description Parameter" - im folgenden vereinfacht oft als Klang-Parameter oder nur als "Parameter" bezeichnet - bestimmt.
    Bei den Violinen kann diese Strukturierung z.B. folgende Form haben:
    Figure 00120001
    Es seien drei weitere Beispiele II bis V gegeben:
    II.
    Figure 00130001
    III.
    Figure 00130002
    IV.
    Figure 00130003
    Der Vorteil der beschriebenen neuen Art der Organisation der in der erfindungsgemäßen Anlage vorgesehenen Bidirektionalen Klang-Parameter-Speichereinheit in Ebenen besteht darin, dass es zu keiner Doppelgleisigkeit kommt, sondern, dass nach Auswahl einer bestimmten Zeile in einer bestimmten Ebene nur mehr jene Auswahl an Möglichkeiten in der nächsten Ebene angeboten wird, die der angeklickten Zeile der vorherigen Ebene entspricht und keine für diese Zeile überhaupt nicht mehr in Frage kommende Möglichkeit.
    Bei dieser Art der Strukturierung bzw. Hierarchie ist jeweils von vornherein auf die individuellen Eigenheiten und Strukturen jedes der Instrumente bzw. Instrumentengruppen eingegangen und es werden dem Komponisten gleich nur mehr jene "Variablen" angeboten, die das jeweilige Instrument oder die jeweilige Instrumentengruppe zu bieten imstande ist.
    Es ist also keineswegs mehr nötig, immer bis an das Ende des Datenbaumes zu selektieren; als Grundeinstellung gilt immer die oberste Ebene. Wird eine bestimmte Spielart angewählt, so erscheint die getroffene Auswahl sofort danach beispielsweise unterstrichen, fettgedruckt, od.dgl. in den Menüleisten, gleichzeitig setzt sich diese Bezeichnung automatisch über den ersten angewählten Ton bzw. Klang, und/oder als Artikulationszeichen über die Noten. Will man ab einer bestimmten Note die Spielart ändern, also wie z.B. in den Beispielen II bis V von arco auf pizzicato (3.Ebene), muss man alle "darunter liegenden" Ebenen neu definieren, die darüber liegenden bleiben jedoch erhalten, also z.B. bleiben für das Beispiel IV: "10 Violinen, senza sordino" erhalten.
    V.
    Ein Beispiel für eine andere Strukturierung des Instrumenten-Parameter-Menüs würde sich für die Pauke wie folgt darstellen:
    Figure 00140001
    Optimierte Paukenwahl: Jede der in der 1.Ebene genannten Pauken umfasst einen bestimmten, teilweise sich mit dem Umfang einer anderen Pauke überlappenden Tonumfang. Wird z.B. der Basspauke ein für sie zu hoher Ton zugeteilt, sorgt eine Software für eine am Bildschirm erscheinende Warnung, wie schon oben bei der Tonumfangs-Instrumenten-Zuteilung erläutert.
    Es ist nun so, dass sich bestimmte Töne auf den verschiedenen Paukentypen überlappen: wird beim Komponieren z.B. ein Paukenton mit der Tonhöhe "Großes A" selektiert, so ist dieser Ton auf der Basspauke, auf der großen Konzertpauke und auf der kleinen Konzertpauke spielbar. Hier hilft eine Zeile und eine entsprechende, softwaregestützte Option: "Optimierte Paukenwahl": Sie sorgt dafür, dass von jeder der Pauken genau der am besten klingende Tonumfang genutzt wird.
    Da die verschiedenen Spielweisen auf den Ebenen 3 und 4 für alle Pauken und alle Schlägeltypen zutreffen und daher identische Datenbank-Strukturen aufweisen, kann man bei einer fertig editierten Paukenstimme beispielsweise problemlos zwischen den Schlägeltypen der Ebene 2 wechseln, um die vom Höreindruck her jeweils geeignetste Variante zu finden.
    "DYNAMIK"-Software:
    Zurück zum Ausgangsbeispiel mit den 10 Violinen:
    Die Violinen seien mit "10 Violinen, con sordino, legato, ohne vibrato" definiert und nun wird die Dynamik zugewiesen.
    Figure 00150001
    Für jede Note erscheint ein Hauptmenü, wie unten gezeigt, also z.B:
    Figure 00160001
    Man selektiert die erste Note, also das d, und wählt aus dem Hauptmenü Dynamik aus. Eine Datenbaumstruktur führt wiederum zu den verschiedenen Optionen:
    In der 1.Ebene wird "statisch" angewählt, in der 2.Ebene "piano": Dieser Eintrag gilt nun für alle folgenden Noten bis zum nächsten Eintrag. Nun wird die 10.Note des Stückes, also das G, selektiert, es wird in der 1.Ebene progressiv angewählt und in der 2.Ebene werden Start und Enddynamik festgelegt.
    Nun wendet der Kompositions-Computer erstmals ein automatisiertes "Compression - Expansion Tool" bzw. die entsprechende Software an; nämlich die "10 Violinen/con sordino/senza vibrato/crescendo/Start p-Ende f/" - Samples
    Diese sind in der Sampler-Datenbank, z.B. in 4 Längen enthalten, nämlich mit Längen von 4 s, 2.66 s, 2 s, 1,33 s; der angewählte Ton G, also eine halbe + viertel = dreiviertel-Note bei Tempo 110 hat eine Länge von 1,63 s.
    Die eben genannte Software erkennt anhand der Klang-Definitions-Parameter bzw. Sample Description Parameter automatisch das am besten bzw. nächsten passende Sample mit 1,33 s Länge und dehnt es um den entsprechenden Faktor 1,226, sodass 1,63 s für die genannte 10. 3/4-Note erreicht wird. Dieser Vorgang läuft softwaregesteuert im Hintergrund ab und ist für den Benutzer der Anlage nicht zu bemerken.
    Sollte eine dynamische Veränderung gewünscht sein, die bei bestimmten Instrumenten in definierter Spielart nicht in der Datenbank vorgegeben ist, z.B. "Violinen tremolo, sul ponticello, ppp - fff", so wählt der Computer bzw. dessen entsprechende Software das am besten passende, also das am nächsten kommende Sample "crescendo pp-ff" und verstärkt es mit einer automatisch eingefügten Haupt-Volumskurve.
    Nach diesem o.a. "crescendo" ist allen folgenden Noten des Beispiels die Dynamik f zugeordnet. Will der Komponist aber danach z.B. zur Dynamik p zurückkehren, muss er diesen Wert bei der entsprechenden, nächstfolgenden Note neu definieren.
    Als letztes sei ein ebenfalls günstiger "Dynamik-Frei-Parameter" erläutert:
    Es handelt sich dabei um eine Software-Funktion für (lange) "gehaltene" Töne mit mehreren Dynamikveränderungen:
    In der folgenden Notenzeile ist eine Tonfolge angegeben, die letzten beiden Noten bilden zwei über zwei 4/4-Takte "gehaltene" ganze Noten:
    Figure 00170001
    Man selektiert den gewünschten Ton des Beispiels: also einen über zwei 4/4-Takte "gehaltenen" langen Ton. Danach aktiviert man durch Anklicken die Programm-Funktion "Dynamik/frei". Unter der langen Note d' erscheint der oben dargestellte Zeitraster, der die Tonlänge in 8 Einheiten, im vorliegenden Fall in 8 Viertel-Noten, unterteilt. Der Benutzer hat die Optionen "mehr Detail" oder "weniger Detail" und kann damit den Zeitraster in niedrigerer, "halber Noten-Auflösung" oder höherer, "Achtel-Noten-Auflösung" darstellen.
    Weiters kann er aus einer Liste die bekannten statisch-dynamischen Vorzeichen (von ppp bis fff) anwählen. Er setzt nun beispielsweise auf den ersten und dritten Rasterpunkt, also die Ziffern 1 und 3 des Zeitrasters das Zeichen p, der Ton ist also bis zum 3. Viertel piano; setzt man auf den 5. Rasterpunkt das Zeichen f, so erfolgt ein crescendo über zwei Viertel zu forte auf die Eins des 2.Takte und auf dem 6. Rasterpunkt ein p, also quasi ein "fp Effekt" und schließlich auf den letzten Rasterpunkt ein fff: es erfolgt ein starkes crescendo über die Länge der letzten drei Viertel. Der Sequenzer generiert nun mit Hilfe des Compression-Expansions-Tools und eines Crossfade-Tools ein neues Sample, mit dem zugehörigen Set "Sample Description Parameters". (Dieses neue Sample wird wahlweise nach Ende der Arbeitssitzung gelöscht oder in der Relationalen Datenbank permanent abgelegt und bei weiteren Arbeitssitzungen zu Verfügung gestellt).
    Die Notenzeile zeigt folgendes Bild und die Dynamik-Bezeichnung p < fp < fff unter der gehaltenen Note:
    Figure 00180001
    "REPETITION DETECTION"-Software
    Annahme: Eine Trompeten-Passage wurde bereits mit entsprechenden Artikulations- und Dynamikbezeichnungen versehen.
    Trompete 1:
    Figure 00190001
    Annahme:
    Die Notenzeile dieses Beispiels beinhaltet jeweils dreimal drei Töne verschiedener Höhe, wobei für jeden der drei Töne jeweils dreimal hintereinander der gleiche Ton gespielt wird, was gerade für Trompetenfanfaren sehr typische Repetitionen darstellt. Solche Repetitionen bilden normalerweise einen großen Schwachpunkt aller bisher bekannten und zur Verfügung stehenden Programmierungen. Es gibt dort immer nur ein Sample, das für eine solche Repetition in Frage kommt, und dieses wird in der entsprechend benötigten, also komponierten, Anzahl wiederholt. Je öfter und rascher diese Tonabfolge erklingt, desto stotternder und künstlicher wird der Höreindruck. Für diesen Fall sieht die erfindungsgemäße organisierte Sample-Bibliothek "Repetition-Samples" vor. Es sind dies z.B. 2-, 3-, 4- und 6-fach-Wiederholungen, oder 1-, 2-, 3-Fach-Auftakt-Repetitionen, differenziert in Tempo, Dynamik und Betonung.
    Das Prinzip der Repetition - Detection folgt etwa dem einer Rechtschreibprüfung eines Textverarbeitungsprogramms:
    Der Benutzer selektiert den Bereich der Noten-Repetition, den er mit Repetition-Samples versorgen will und wählt dann aus dem Hauptmenü den oben dargestellten 3. Eintrag: "Repetition-Detector" an. Ein Submenü lässt die Wahl, ob es automatisch, also Werkpreset orientiert oder manuell erfolgen soll. Im manuellen Modus analysiert ein Sequenzer-Programm den selektierten Bereich und kennzeichnet die möglichen Repetitions-Sequenzen, folgende Notenzeile:
    Figure 00200001
    Sequenz-Nr: Sequenz-Nr:
    Sequenz 1 von 3 Sequenz 1 von 3
    Spiele Repetition schnellere fixe 1. Note
    Spiele Original schnellere fixe letzte Note
    Alternativen kürzere Noten
    nächste Sequenz längere Noten
    Ausdruck auf Noten 1-2,
    Mit den Original & Repetitions-Klicks kann man das erzielte Ergebnis vergleichend kontrollieren. Mit dem Alternativen-Klick kann man versuchen, das Ergebnis weiter zu optimieren "Schneller-langsamer" verleiht dem Sample (mit Hilfe des Compression-Expansion-Tools) einen gewissen Groove, er beginnt je nach Wahl etwas zu spät oder endet etwas zu früh.
    RASCHES LEGATO ("FAST LEGATO")-DETECTION-Software:
    Die rasche Aufeinanderfolge von Legato-Tönen stellt ein den Repetitionen ähnliches Problem dar. Mittels Einzelton-Samples lässt sich kein überzeugendes rasches Legato-Spiel simulieren. Hier sieht die Sample-Bibliothek ein Konstruktions-Set aus 2-, 3- und 4-fach-Tonfolgen vor. Dies können bei Instrumenten mit Rasches Legato-Samples, beispielsweise etwa 500-2500 Einzelsample-Phrasen sein: chromatische, diatonische Tonfolgen und Dreiklang-Zerlegungen.
    Das Originaltempo dieser gesampleten, im Computer bzw. im Klang-Sample-Speicher gespeicherten Legato-Phrasen sind z.B. sechzehntel Notenwerte bei Tempo 160. Mit dem vorerwähnten Kompressions-Expansions-Tool können folglich 8tel Triolenpassagen im Tempo von 171 bis 266, 16tel-Passagen im Tempo von 128 bis 200, 16tel Triolenpassagen im Tempo von 86 bis 133, 32-tel Passagen im Tempo von 64 bis 100 umgesetzt werden. (Quintolen und Septolen dementsprechend genauso).
    Gr. Flöte Solo
    Figure 00210001
    Die obige Notenzeile illustriert diesen Vorgang:
    Nach Aktivierung scannt die Sequenzer-Einheit den ausgewählten Teil, alle in Frage kommenden Passagen werden gekennzeichnet, siehe Notenzeile NZ. Weiters generiert die Sequenzer-Einheit einen Subtrack ST mit nur einer Notenzeile, auf dem die Aufteilung des Bausteinsystems ersichtlich wird. Der Benutzer kann anhand dieses Notenbildes analysieren, wie aus den 2-, 3-, 4-fach-Folgen und eventuell unter Zuhilfenahme von Einzeltönen die gewünschte Rasches Legato-Sequenz aufgebaut wird.
    "SPECIALS"-Option (Specials-Tool)
    Diese Option eröffnet dem Benutzer eine Liste von Spezialanwendungen, wie z.B. folgende:
    Figure 00220001
    "PARAMETER CROSSFADES"
    Diese Funktion ist dann aktivierbar, wenn zwei benachbarten Tönen gleicher Tonhöhe unterschiedliche Instrumentenparameter zugeordnet werden sollen.
    Figure 00220002
    Figure 00230001
  • Sample 1: 10 Violinen: "sul ponticello/tremolo"
  • Sample 2: 10 Violinen: "tremolo"
  • Je nach definierter Länge des "Crossfades" entspricht der klangliche Effekt dem fließenden Wandern des Bogens während eines Tremolos vom Geigensteg zur normalen Position.
    Berücksichtigt der Benutzer die Möglichkeiten dieses Tools in seiner Programmierung, kann er damit eine unbegrenzte Zahl neuer Samples generieren.
    ENSEMBLE-KOMBINATIONEN:
    Das erfindungsgemäße System beinhaltet vorteilhafterweise einige Sample-Reihen von Ensemble-Standardkombination, also z.B. unisono u. oktaviert.
    Selektiert der Benutzer jetzt beispielsweise einige Violinentakte und ruft das Menü "Ensemble-Kombination" auf, so erscheint eine Liste der z.B. möglichen Kombinationen: "Violinen oktaviert, 3 Flöten unisono, 8 Bratschen unisono und oktaviert", u.dgl. Wählt er eine dieser Möglichkeiten, erscheint im Kombinations-Instrumenten-Track die Notenfolge speziell gekennzeichnet auf, und zwar mit einem Verweis auf das jeweilige "Mutterinstrument".
    Eine weitere Option des ENSEMBLE-KOMBINATIONS-MENÜS kann "AUTODETECT-COMBINATIONS" sein: hiebei sucht der Sequenzer nach möglichen Unisono- oder Oktavkombinationen, und man hat die Möglichkeit, diese durch die von der Datenbank übermittelten "Ensemble-Samples" zu ersetzen.
    ORCHESTER-KONSTRUKTIONS-SET
    Dieses Set stellt eine Weiterführung der Ensemble-Kombinationen dar. Der Unterschied ist, dass es sich hier nicht mehr um Einzeltöne, sondern um Akkord- und Rhythmus-Sequenzen handelt - vom simplen Schlussakkord bis zu Spezialeffekten, wie echter Cluster od.dgl.
    Aktiviert der Benutzer diese Funktion, so generiert der Sequenzer einen eigenen Orchester-Track, auf dem die Samples platziert werden können, wobei zwei Konstruktions-Set-Varianten existieren können.
  • A) Sample-basiertes Orchester-Konstruktions-Set:
  • Hier findet der Benutzer vorproduzierte und gespeicherte Stereo-Samples: Wird ein Sample angewählt, erscheint auf den verschiedenen Instrumenten-Tracks wiederum ähnlich eines Ghost-Parts die Ausnotierung dieses Samples.
  • B) Midi-Software-basiertes Orchester-Konstruktions-Set:
  • Es sieht vorgefertigte Midi-Files vor: werden diese auf dem Orchester-Track platziert, ist die Ausnotierung in den einzelnen Instrumenten-Tracks "real", der Benutzer kann dann noch nacharrangieren. Weiters besteht die Möglichkeit, seine eigenen Konstruktionssets zu generieren und diese abzuspeichern.
  • "HALL-FILTER-STEREOAUFTEILUNG-LEISE/LAUT-Kompressions"-Software: (Hall-Filtering-Panning-Compression)
    Die Verkettung zwischen Samples und Sequenzer lässt sich auch auf Hall- und Filter-Parameter weiterführen. Das heißt, das Verhallungs-Programm weiß, was es "verhallt". Es weiß zu jedem Zeitpunkt des Stückes über die in der Sequenzer-Einheit festgelegte Instrumentenwahl, Spielarten, dynamische Zuordnungen u.dgl. Bescheid. Mit entsprechenden Algorithmen vollzieht die Hall-Software die in einem Konzertsaal stattfindende Obertonverschmelzung eines Orchesters nach und generiert entsprechend authentisch wirkende Klangbilder. Die zugrundeliegenden Algorithmen beruhen beispielsweise auf dem Unterschied zwischen live gesampleten unisono-Kombinationen und in der Sequenzer-Einheit zusammengefügten Kombinationen. So kann man z.B. aus der Differenz-Analyse der unterschiedlichen Klangbilder:
  • Flöte solo
  • Oboe solo
  • Flöte - Oboe unisono live,
  • Flöte - Oboe am Sampler kombiniert
  • Algorithmen ableiten und diese werden in den unterschiedlichen Instrumenten- und Dynamikkombinationen erstellt.
    Ein weiteres Beispiel kann eine Software für die Berücksichtigung der Resonanzwirkung eines tiefen Paukenschlages auf die Kontrabässe sein. Die Corpi der Kontrabässe fungieren quasi als Resonanzverstärker für die Pauke. Bei unisono-Kombinationen von Pauken und Bässen tritt eine zusätzliche "Klangverschmelzung" auf; wird eine Pauke in einem Ensemble ohne Kontrabässe gespielt, ist ein deutlicher Unterschied im Klangspektrum der Pauke bemerkbar. Wie schon oben kurz ausgeführt, die Hall-Software "weiß" über etwaiges Vorhandensein von Kontrabässen oder unisono-Kombinationen "Bescheid" und kann dies in ihren Klangbildberechnungen berücksichtigen.
    Eine optimale, am besten grafisch orientierte Hall/Filter-Software ist ohne komplizierte technische Parameter im wesentlichen nach folgenden Gesichtspunkten aufgebaut:
  • 1. Der Konzertsaal wird definiert durch Presets der "besten Konzertsäle" der Welt.
  • 2. Das Orchester wird platziert, also die Raumaufteilung der Instrumente wird definiert.
  • 3. Der Hörer wird platziert usw., z.B. von der Position des Dirigenten bis hin zur letzten Reihe im jeweiligen "Saal".
  • 4. Der Dynamik-Bereich wird definiert, z.B. vom Klassik-CD-Bereich mit wenig Kompression bis zu Werbespot-Dynamik mit maximaler Kompression.
  • 5. Der Klangcharakter wird definiert, z.B. von "grell" bis "sehr weich", und zwar durch entsprechendes Filtern und Forcieren entsprechender Instrumente und des Gesamt-Klangbildes.
  • ABMISCH- UND DYNAMIK-SOFTWARE: Abmisch-Abstimmung:
    Die Behandlung von Lautstärkenverhältnissen der diversen Instrumente und Instrumentengruppen zueinander ist eine komplexe Aufgabe. Ein ff-Ton einer Flöte ist eben wesentlich leiser als ein ff-Ton von drei Posaunen unisono. Ein aus diesem Grund wichtiger Baustein der Anlage gemäß der Erfindung besteht darin, die natürlichen Dynamikverhältnisse aller Instrumente zueinander exakt einzuhalten. Es steht dem Benutzer natürlich frei, diese für seine Zwecke wieder aufzuheben.
    Um dieses Ziel zu erreichen, wird beim Aufnehmen der Samples ein genaues Dynamik-Protokoll geführt. Man weiß, wie viel dB Abstand zwischen einem fff-Paukenschlag und einem ppp-Tremolo/con sordino einer Solovioline liegt. Dieses Wissen wird konkret in den o.a. Instrumentenparameter (in Form der "Sample Description Parameter") einfließen. Der Benutzer kann sich darauf verlassen, dass die Lautstärkenverhältnisse, die er programmiert, jenen eines echten Orchesters entsprechen, oder wenn er eine bestehende Partitur übernimmt, dass die Dynamikzuweisungen genau den Intentionen des Komponisten entsprechen.
    Sollte der Komponist jetzt ein Stück schreiben, das kammermusikalisch instrumentiert ist, also etwa Holzbläser und kleines Streicherensemble umfasst, ergibt sich daraus ein dynamischer Headroom, der nicht genutzt wird. Um eine optimale Qualität in der Abmischung zu erreichen, also möglichst hohen Rauschabstand, kann er nach Fertigprogrammierung mit einer Standardisierungs-Funktion das Stück optimieren. Die Sequenzer-Einheit sucht den lautesten Sample des Stückes und hebt alle Samples um den möglichen Wert nach oben an. Dieser Vorgang hat natürlich keinen Einfluss auf Lautstärkenverhältnisse und die vorgegebenen Dynamikwerte werden gleichfalls beibehalten, also z.B. bleiben pp-Samples eben pp-Samples.
    Diese Option ist dann möglich, wenn die Bibliothek an sich standardisiert ist. Jedes Sample ist mit Maximumpegel abgespeichert. Die bei den Aufnahmen protokollierten Lautstärkenunterschiede werden in Sample-Volums-Daten mitgespeichert. Das heißt, jeder Sample hat einen mitabgespeicherten Volumswert. So wird ein fff-Paukenschlag nahe bei Null dB liegen, eine ppp Sologeige bei einem Offset von -40 dB. Die Sequenzer-Einheit braucht also nur nachzusehen, welches der höchste Sample-Volumswert, welches Sample am nächsten zu Null ist, und rückt entsprechend alle Sample-Volums-Daten nach oben.
    Um den Rauschabstand bei den einzelnen Audio-Ausgängen (bei extemer Abmischung) optimal auszunützen, kann der Benutzer eine spezielle Standardisierungs-Funktion ausnutzen, die alle Instrumente und Samples, die auf einen Ausgang gerootet sind, als in sich geschlossenes Paket standardisiert. Die Sequenzer-Einheit errechnet dann ein Dynamikprotokoll, wie eine externe Mischkonsole einzustellen ist, um zu den Ausgangswerten zurückzukehren, wie z.B. Blechbläser Stereo-Out 1, Holzbläser Stereo-Out 2 usw.
    DYNAMIK-Abstimmung:
    Ein anderes Feature für die Dynamik-Kontrolle ergibt sich für Komponisten, die den Orchestrator als Partitur oder Lay-Out Workstation betrachten. Gemeint sind Komponisten, die für "echtes" Orchester arbeiten.
    Nun hat so ein Komponist sein Werk programmiert und alle Instrumenten-Parameter definiert. Die dynamischen Zuweisungen hat er sich für den letzten Arbeitsschritt aufgehoben. Ausgangspunkt für seine Dynamik-Zuweisungen ist beispielsweise ein lyrisches Oboensolo. Der Ausdruck der Oboe gefällt ihm am besten, wenn diese im Bereich mp-mf spielt. Er fixiert diesen Dynamikwert als erstes. Nun stellt sich für ihn die Frage, wie laut haben Begleitung, Figurations- oder Bassstimmen zu sein, um die von ihm erwünschte Wirkung zu erzielen.
    Nun bietet die Sequenzer-Einheit dafür ein eigenes Dynamik-Tool an. Der Komponist kann damit einzelne Stimmen oder Selektionen lauter und leiser machen. Der Unterschied zu einer herkömmlichen "Velocity-Control" ist der, dass hier die Dynamikabstufungen der einzelnen Samples miteinbezogen sind. In unserem Beispiel reduziert er die Lautstärke der Streicherharmonien so weit, dass sich das Oboensolo im richtigen Grad entwickeln kann. Da bis auf die Oboenstimme noch keine Dynamikwerte festgesetzt sind, und die Sequenzer-Einheit von den Werkpresets ausgeht, entspricht die Streicherdynamik anfangs etwa einem mf. Nachdem der Komponist die Streicher so weit reduziert hat, bis das gewünschte Klangergebnis erreicht ist, haben sie z.B. einen mittleren pp-Wert erreicht. Der Komponist schließt das Fenster und unter die Streicherstimmen setzt sich dann automatisch die Dynamikvorschrift pp. Diese Arbeitsweise ist natürlich auch auf vorher festgelegte crescendo- und decrescendo-Werte anwendbar. Der Komponist hat also die Sicherheit, dass seine Dynamikvorschreibung letztlich im Konzertsaal die von ihm erwünschten Wirkungen erzielen wird.
    Die "Dynamik-Kontrolle" bietet dem Benutzer folgende Möglichkeiten, die diversen Arbeitsprozesse abzukürzen und zu erleichtern, und zwar bei Auswahl eines oder mehrerer Instrumente oder des gesamten Instrumentenumfangs:
    DYNAMIK-KONTROLLE
    Schrittweise lauter
    Schrittweise leiser
    Soloinstrument-Dynamik erhalten
    Soloinstrument-Dynamik erhöhen
    Dynamik erweitern (Expansion)
    Dynamik reduzieren (Kompression)
    Maximum-Lautstärke
    Minimum-Lautstärke
    Was die der erfindungsgemäßen Anlage zugrundeliegende Hardware betrifft, ist dazu kurz folgendes zu sagen:
    SPEICHERKAPAZITÄT:
    Die in der erfindungsgemäß vorgesehenen Bidirektional-Klangparameter-Speichereinheit organisierten Audio-Sampels sind fixer Bestandteil der Anlage. Auf ca. 125 Gigabite sind die Samples für den Benutzer nicht direkt veränderbar abgespeichert. Der einzige Zugriffsberechtigte ist die Software der Sequenzer-Einheit selbst. Die Samples werden zwar nach wie vor durch Kriterien wie Velocity & Mainvolume beeinflusst, da aber die Sequenzer-Software wie bei Audiotracks, die Möglichkeit hat, die im jeweiligen Stück benötigten Samples vorab zu puffern, ist ein extrem umfangreicher RAM-Speicher bei entsprechend schnellen Festplatten nicht unbedingt Voraussetzung.
    Eine anzustrebende Mindestausstattung für die volle Nutzung der Erfindung wären acht, idealerweise 16 Stereo-Ausgänge. Da mit 96 kHZ/24 BIT-Auflösung ge- und bearbeitet wird, ist ein Weiterführen dieser Datenrate naheliegend. Dies erfordert entsprechend hochwertige Digitalwandler und setzt die Option von verschiedenen Digital-Out-Varianten, also von 44100, 48000 bzw. 96000 kHz, voraus.
    Anhand der Zeichnung wird die Erfindung näher erläutert:
    Es zeigen die Fig. 1 ein Schema der neuen Komponier-Anlage und die Fig. 2 ein Fließschema des Komponier-Vorganges.
    Die in der Fig. 1 gezeigte Komponier-Anlage 100 umfasst eine vom User bzw. Komponisten mit der von ihm erdachten Klangfolge bzw. Komposition 01 belieferbare Notationseingabe-Einheit 2, welche über ein Interface, wie z.B. ein Graphical User Interface (GUI) 3, mit Bildschirm mit einem Kompositions-Computer 1 datenfluss-verbunden ist. An den Computer angeschlossen ist eine entsprechende Peripherie, wie z.B. ein (Partitur-)Drucker 32. Was eine wesentliche Komponente der Anlage 100 bildet ist ein Audio-Export-System, welches über ein Audio-Interface (Audio-Engine) 7 eine akustische Wiedergabe-Einheit, also z.B. ein Lautsprechersystem 33 bzw. eine Abhöre 8 versorgt, welche für die akustische Wiedergabe einer gerade eingegebenen Note, z.B. zur sofortigen Kontrolle des Klanges oder einer Klangfolge nach Eingabe einer Note, einer Notenfolge und letztlich z.B. einer gesamten Komposition sorgt.
    In das System des Kompositions-Computers 1 integriert sind zumindest eine Rechen- bzw. Processor-Einheit (CPU) 4 und mindestens eine mit ihr datenfluss- und datenaustausch-verbundene Sequenzer-Einheit (Sequencing Engine) 5. Zwischen Processor-Einheit 4 und einer Klangsample-Bibliotheks-Speichereinheit 6b, in welcher eine große Zahl von - auf Aufnahmen 02 von Klängen, Klangfolgen, Klangclustern u.dgl. von realen Instrumenten, Instrumenten-Gruppen, Orchestern u.dgl. beruhenden - Samples 61 von digitalisierten Klängen, z.B. in Form von Klang-Frequenzhüllkurven od.dgl., gespeichert sind, ist eine intelligente Relationale Datenbank 6a, nämlich die eine wesentliche Komponente der erfindungsgemäßen Anlage bzw. des ihr zugrunde liegenden Systems darstellende - für jedes einzelne der Klang-Samples 61 in der Bibliotheks-Einheit 6b alle diesem Klang, dieser Klangfolge, diesem Klangcluster und dessen bzw. deren Qualität zugeordneten, denselben bzw. dieselbe charakterisierenden, beschreibenden und definierenden Parameter sowie die für die Auffindung, für den Aufruf des Klangs in der und für dessen Abruf usw. aus der Klangsample-Bibliothek 6b nötigen Daten, Koordinaten, Adress-Angaben u.dgl. gespeichert enthaltende - Bidirektional-Klangparameter-Speichereinheit 6a, zwischengeschaltet. Die beiden eben genannten Einheiten 6a und 6b bilden die Klang-Sampler-Einheit 6 bzw. sind ein essentieller Teil davon.
    Diese letztgenannte, in das System integrierte neuartige Klangparameter-Speichereinheit 6a ist zumindest mit der Processor-Einheit 4 und mit der Sequenzer-Einheit 5 datenfluss- und datenaustausch-verknüpft bzw. -vernetzt. Die Klangparameter-Speichereinheit 6a "weiß" jederzeit über alle in der Klangsample-Bibliothek 6b gespeicherten Klänge 61 (z.B. Klang-Imagos in Form von Klang-Hüllkurven in digitalisierter Form) und über alle denselben innewohnenden Quantitäts- und Qualitätswerte Bescheid, sie weiß Bescheid, auf welchen Instrumenten ein durch entsprechende Notations-Eingaben gewünschter Klang und mit seinen Qualitäts-Parametem produziert werden kann, ob er auf einem von der Eingabe her gewünschtes Instrument überhaupt spielbar ist, usw. Die Klangparameter-Speichereinheit 6b ist aufgrund ihres jederzeit präsenten, präzisen Überblickes über alle jeweils in der Klangsample-Bibliothek 6a enthaltenen Klangsamples 61 z.B. imstande, für auf einem vom User gewählten Instrument nicht spielbare Klänge, demselben von sich aus Vorschläge für "spielbare" Ersatz-Instrumente und/oder passende Ersatz-Klänge zu unterbreiten u.dgl.
    Der Kompositions-Computer 1 umfasst weiters eine Zahl verschiedener, zumindest der CPU 4 und der Sequenzer-Einheit 5 zugeordneter Software-Einheiten bzw. ihnen unterlegte Programm-Softwares 41 für die Wiedergabe der eingegebenen Komposition als übliche Partitur und/oder eine solche 42, zur Kontrolle, welche von Komponisten eingegebene Töne auf dem von ihm gewählten Instrument wegen dessen begrenzten Tonumfangs nicht gespielt werden können und/oder eine Software 43, für eine Bearbeitung eines Klanges.
    Die - hier keineswegs vollständig aufgezählten - Software-Einheiten können solche für eine Aufprägung von Hall/Nachhallcharakteristiken auf einen Klang, für Dynamik-Änderungen innerhalb eines länger gehaltenen Tons 44, für Korrekturen hin zu einer naturgetreuen Wiedergabe von rasch repetitiven Klängen gleicher Höhe 45 oder rasch aufeinander gespielten Klängen unterschiedlicher Höhe 46, weiters für eine Anpassung von Dynamikwerten von Klängen verschiedener Instrumente 47 aneinander u.dgl.
    Die derart korrigierten od.dgl. bearbeiteten Klang-Imagos bzw. Klang-Samples können dann über den Akustikwandler 7 als entsprechend korrigierte digitale Klang-Hüllkurven der Abhöre 8 bzw. deren Lautsprecher 33 zugeführt und von ihr letztlich als wunschgemäß bearbeitete Klänge wiedergegeben werden.
    Weiters kann innerhalb des Computers 1 eine z.B. von der Sequenzer-Einheit 5 aus über eine - die Abspielparameter entlang der Zeitachse, also z.B. einen Bearbeitungsmodus für die Partitur bereit haltende - Projektdaten-Einheit 90 eine Projekt-Speicher-Einheit 9 für die Partitur-Abspeicherung beliefert werden, aus welcher jederzeit im Rahmen einer Arbeitssitzung benötigte Elemente oder Teilstücke von vorher erstellten und dort gespeicherten Kompositionen abrufbar sind.
    Das Diagramm der Fig. 2 zeigt, wie nach dem Start das Laden mit den Klang-Definitions-Parametern aus der Klang-Datenbank 6 erfolgt, in welcher die dieselben speichemde Klangsample-Parameter-Speichereinheit 6a und die Klangsample-Bibliothek 6b integriert sind.
    Danach erfolgt eine Abfrage, ob ein hereingeladenes Projekt in der Projekt-Speichereinheit 9 gespeichert werden soll, was bei "ja" erfolgt. Wenn dies nicht der Fall ist, also ein neues Projekt beginnt und somit ein leeres Score-Sheet zur Verfügung steht, erfolgt die Eingabe der die Notenfolge, Komposition od.dgl. bildenden Noten, Satzzeichen u.dgl., durch den User, beispielsweise mittels Notations-Eingabeeinheit 2, wie ASCII-Keyboard, Maus, MIDI-Keyboard, Noten-Scanning od.dgl.
    Es wird dann - versorgt von der Bidirektionalen Klangparameter-Speichereinheit 6a der Klang-Datenbank 6 - der Haupttrack HT kreiert. Von dort erfolgt die zur Auswahl der den vom User vorgegebenen Noten od.dgl. zugeordneten Klänge usw. samt deren Parametern, von Phrasensamles eines Tempomatching u.dgl., wobei im nächsten Abfrageschritt deren Auswahl bestätigt wird oder nicht.
    Danach kann, für den Fall, dass ein schon gespeichertes Projekt, also eine in der Projekt-Speichereinheit 9 gespeicherte Partitur als Grundlage oder Ergänzung der Komposition herangezogen werden soll, dasselbe aus der Projekt-Speichereinheit 9 übemommen werden. Danach folgt die Entscheidung des Users, ob er mit der Qualität und den sonstigen Eigenschaften des von ihm eingegebenen Klanges bzw. der entsprechenden Klangfolgen od.dgl. und/oder einer aus der Projekt-Speichereinheit 9 geholten Klangfolge od.dgl. zufrieden ist. Ist dies nicht der Fall, erfolgt eine Schleife zurück in die Bearbeitungsstufe, welche aus der Klang-Datenbank 6 mit neuen Parametern, Bearbeitungs-Parametern od.dgl. bzw. mit dort kreierten Ersatz- und/oder Ergänzungs-Vorschlägen versorgt wird. Die genannte Abfrage- und Kontroll-Schleife wird so lange durchlaufen, bis der User mit dem von ihm laufend kontrollierbaren Klang, mit einer Klangfolge od.dgl. zufrieden ist.
    Es kann nun das Abspielen, ein Digital Mixdown, der Audio-Export, ein Notenblatt-Export od.dgl. erfolgen, wobei über eine Abfrage entschieden werden kann, ob das soeben erstellte Projekt zu speichern ist oder nicht. Soll es gespeichert werden, so wird es in die Projekt-Speichereinheit 9 eingebracht. Ist dies nicht der Fall, so wird die Arbeitssitzung beendet.

    Claims (9)

    1. Anordnung zum computer-unterstützten Komponieren von auf virtuellen Musikinstrumenten spielbaren und von denselben wiedergebbaren Tönen oder Tonfolgen oder Kompositionen sowie zur Wiedergabe derselben,
      dadurch gekennzeichnet, dass
      die Anordnung (100) eine Eingabe-Einheit (2) umfasst, die über zumindest eine Schnittstelle, bevorzugt ein Graphical User Interface (3), mit einem eine Processor-Einheit (CPU) (4) aufweisenden Kompositions-Computer (1) zum Datenaustausch verbunden ist, dass
      der Kompositions-Computer (1) zumindest eine an die Processor-Einheit (4) angeschlossene Sequenzer-Einheit (5) aufweist, die die gewünschten Noten oder Notenfolgen, oder Notencluster samt den ihnen jeweils zugeordneten Klang-Definitions-Parametem und mit den denselben entsprechenden Tönen oder Tonfolgen oder Tonclustern über zumindest eine Schnittstelle (7) an eine Abhöre (8), an eine Lautsprecher-Einheit (33) und/oder an einen Partitur Drucker (32) abgibt sowie weiters
      mit der Processor-Einheit (4) und mit der Sequenzer-Einheit (5) zum Datenaustausch an zumindest eine Klang-Sampler-Einheit (6) angeschlossen ist,
      welche Klang-Sampler-Einheit (6)
      zumindest eine die in digitalisierter Form vorliegenden, eingespielten Klang-Imagos oder Klang-Samples (61) aller Einzelklänge oder Klangfolgen oder Klangcluster der einzelnen virtuellen Instrumente oder. Instrumenten-Gruppen gespeichert enthaltende Klangsample-Speichereinheit (6b) und
      zumindest eine an die Klangsample-Speichereinheit (6b) angeschlossene Klangparameter-Datenbank (6a) umfasst, mit der jedes der Klang-Samples (61) in Form von demselben zugeordneten und dasselbe definierenden Klang-Definitions-Parametern speicherbar und verwaltbar ist, mit welcher die Klang-Samples aus der Klangsample-Speichereinheit (6b) abrufbar und an die Prozessor-Einheit (4) und/oder an die Sequenzer-Einheit (5) weiterleitbar sind und/oder mit der die im Kompositions-Computer (4) durch eine Bearbeitung in ihrer Qualität und somit in ihren Klang-Definitions-Parametern veränderten oder mit in denselben neu eingebrachten Klang-Definitions-Parametern erstellten Klang-Samples speicher- und verwaltbar sind.
    2. Anordnung bzw. Anlage zum, gegebenenfalls durch akustische Wiedergabe während und/oder nach erfolgter Erstellung einer musikalischen Komposition unterstützten, Komponieren von auf einer Mehrzahl von - realen Musikinstrumenten entsprechenden und deren Töne bzw. Klänge bereithaltenden - virtuellen Musikinstrumenten, vorzugsweise in einer Ensemble-Formation, spielbaren und von denselben wiedergebbaren Tönen, oder Tonfolgen, oder Tonclustern, oder Klängen, oder Klangfolgen, oder Klangphrasen, oder Musikstücken, oder Kompositionen sowie zur akustischen oder sonstigen Wiedergabe derselben,
      dadurch gekennzeichnet, dass sie
      mindestens eine Notations-Eingabe-Einheit (2) für die Eingabe der - den von den einzelnen virtuellen Instrumenten oder Instrumenten-Gruppen zu spielenden Tönen bzw. Klängen zugrundeliegenden - Noten mit den ihnen vom Komponisten zugewiesenen, dieselben näher beschreibenden bzw. definierenden Klang-Parametern bezüglich der Art des zu spielenden Instrumentes bzw. der Instrumenten-Gruppe, oder Tonhöhe, oder Tonlänge, oder bezüglich Dynamik, oder Spielart, und/oder für die Eingabe von Klangfolgen und die sie beschreibenden Klangfolge-Parametern und/oder von Klangclustern und die sie beschreibenden Klangcluster-Parametern umfasst,
      von welcher Notations-Eingabe-Einheit (2) aus die genannten Klänge, oder Klangfolgen, oder Klangcluster mit den ihnen zugeordneten Parametern in eine mit derselben datenfluss-verbundene, in einen Kompositions-Computer (1) als Programm oder Software integrierte, Klangparameterspeicher-Einheit (6a) und Sequenzer-Einheit, einspeisbar und speicherbar sind,
      wobei von der Klangparameterspeicher- und Sequenzer-Einheit (6a, 5) aus - im Falle eines Abhörens während des Komponierens und/oder Abspielens bzw. der Wiedergabe einer vorher erstellten Klangfolge, oder Komposition - in einer mit der eben genannten Einheit bzw. über die Sequenzer-Einheit (5), datenflussverbundenen und -verknüpften - die bevorzugt in digitalisierter Form vorliegenden, "Klang-Imagos" bzw. "Klang-Samples" aller einzelnen Klänge, oder Klangfolgen, oder Klangcluster der einzelnen virtuellen Instrumente bzw. Instrumenten-Gruppen und deren Parameter, oder Parameter-Konstellationen, oder Parameter-Kombinalionen also alle gesampleten Klänge/Klangparameter enthaltenden - Klangsample-Bibliotheks-Speichereinheit (6b, 6) bzw. Sample-Datenbank, die - den jeweils eingegebenen Klang-Definitions-Parametern entsprechenden - Klang-Imagos bzw. Klang-Samples ansteuerbar, aufrufbar und/oder aktivierbar sind,
      und dass die Klang-Imagos von der Klangsample-Bibliotheks-Speichereinheit (6b, 6) aus über einen Akustik-Wandler, bevorzugt Digital/Analog-Wandler, einer Akustik-Wiedergabe-Einheit, insbesondere Lautsprecher-Einheit bzw. Abhöre, zuführbar sind.
    3. Anordnung bzw. Anlage nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass in der Klangparameter-Datenbank (Bidirektional-Klangparameter-Speichereinheit) (6a) die Klang-Definitions-Parameter in Form einer Hierarchie mit den Gruppen der verschiedenen Instrumente eines Orchesters als Haupttracks und den Einzel-Instrumenten einer jeweiligen Gruppe als Subtracks konfiguriert sind.
    4. Anordnung bzw. Anlage nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass die Subtracks der Einzel-Instrumente gemäß einem Datenbaum-Prinzip hierarchisch in Form von Einzel-Instrument-spezifischen Klangparameter-Ebenen bzw. Klangparameter-Ebenen-Folgen konfiguriert oder strukturiert sind.
    5. Anordnung bzw. Anlage nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, dass in der Klangparameter-Datenbank (Bidirektional-Klangparameter-Speichereinheit) (6a) die Klang-Definitions-Parameter nach einem Hierarchie-Prinzip, vorzugsweise nach dem Prinzip: Instrument-Ebene (Ei) - Instrumentmodus-Ebene (Em) - Instrumentspielarten-Ebene (Es) - erste bis n-te Subspielarten-Ebenen (Es1, Es2, ..., Esn) - Klanglängen-Ebene (El) - Klanghöhen-Ebene (Eh), konfiguriert bzw. strukturiert sind.
    6. Anordnung bzw. Anlage nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet,
      dass in der Klangparameter-Datenbank (Bidirektional-Klangparameter-Speichereinheit) (6a) die einzelnen Klang/Klangfolgen/Klangcluster-Definitions-Parameter, wie jeweiliges, zu spielendes Instrument oder jeweilige zu spielende Instrumenten-Gruppe, Dynamik, Repetition, Rasches-Legato und/oder Spezial-Modi, gleichberechtigt in einer Hierarchie-Ebene nebeneinander konfiguriert sind, und
      dass innerhalb der genannten Klang-Definitions-Parameter eine hierarchische Struktur oder Konfiguration mit Hauptebene und Sub-Ebenen vorgesehen ist.
    7. Anordnung bzw. Anlage nach einem der Ansprüche 1 bis 6, dadurch gekennzeichnet,
      dass zumindest an die Processor-Einheit (CPU) (4) und an die mit ihr zum Datenaustausch verknüpfte Sequenzer-Einheit (5) zumindest eine Software-Einheit (41 bis 47), angeschlossen ist, die insbesondere zumindest eine Partitur-Einheit und/oder entsprechende Software (41) für eine Wiedergabe der über die Notations-Eingabe-Einrichtung (2) eingegebenen Klang-/Klangfolgen-/Klangcluster-Parameter im herkömmlichen Notenzeilen- bzw. Partitur-Modus an die Ein-/Ausgabe-Schnittstelle, insbesondere Graphical User Interface (3) und/oder Drucker (32) u.dgl. aufweist und/oder
      zumindest eine Tonumfangs-Definier- und -Begrenzungs-Einheit und/oder eine entsprechende Software (42) aufweist, welche bei über die Notations-Eingabe-Einheit (2) erfolgender Eingabe von, auf einem bestimmten individuellen Instrument nicht spielbaren, insbesondere für dieses Instrument zu tiefen oder zu hohen Tönen bzw. Klängen, einen entsprechenden Warn-Hinweis an die Notations-Eingabe-Einheit (2) bzw. an die Eingabe-Schnittstelle (GUI) (3) abgibt.
    8. Anordnung bzw. Anlage nach einem der Ansprüche 1 bis 7, dadurch gekennzeichnet,
      dass zumindest die Processor-Einheit (CPU) (4) und die mit ihr zum Datenaustausch verbundene Sequenzer-Einheit (5) des Kompositions-Computers (1)
      zumindest eine Klang(-Nach)bearbeitungs-Einheit und/oder entsprechende Software (43) für eine gewünschte Änderung bzw. (Nach-)Bearbeitung von aus der Sample-Bibliotheks-Speichereinheit (6a) abgerufenen und von ihr abgegebenen Klang-Imagos bzw. Klang-Samples (61), wie insbesondere zur auf das jeweilige Instrument individuell abgestimmten, Aufprägung von Hall- und/oder Nachhall- und/oder Klangfärbungs-Charakteristika od.dgl., und/oder
      zumindest eine Dynamik-Einheit und/oder entsprechende Software (44) für Änderungen der Dynamik innerhalb eines Tons bzw. Klangs oder Klangclusters, insbesondere innerhalb eines "gehaltenen", Tons bzw. Klangs oder Klangclusters
      umfasst.
    9. Anordnung bzw. Anlage nach einem der Ansprüche 1 bis 8, dadurch gekennzeichnet,
      dass zumindest die Processor-Einheit (CPU) (4) und zumindest die Sequenzer-Einheit (5) des Kompositions-Computers (1) aufweisen
      zumindest eine Repetitions-Detektions-Einheit und/oder entsprechende Software (45) für eine Angleichung des Höreindruckes von - auf dem jeweiligen virtuellen Instrument - rasch aufeinanderfolgend gespielten Tönen und/oder Klängen gleicher Höhe (Klang-Repetitionen) an den Höreindruck einer Klang-Repetition auf einem real gespielten Instrument und/oder
      zumindest eine Rasches-Legato-(Fast Legato)-Einheit bzw. entsprechende Software (46) für eine Angleichung des Höreindruckes von - auf einem (virtuellen) Instrument - rasch aufeinanderfolgend gespielten Tönen und/oder Klängen verschiedener, wie insbesondere absteigender oder aufsteigender, Höhe, an den Höreindruck einer raschen derartigen Folge von Tönen und/oder Klängen auf einem real gespielten Instrument und/oder
      zumindest eine, für eine beim Zusammenspiel mehrerer verschiedener Instrumente erwünschte Abstimmung der unterschiedlichen Lautstärke/Klangvolumens-Bereiche der einzelnen Instrumente aufeinander vorgesehene Dynamik-Adaptions-Einheit und/oder entsprechende Software (47), welche - die von von real gespielten Instrumenten individuell erreichbaren Maximal- und Minimal-Lautstärken und/oder deren Lautstärken-Umfang definierenden - Klang-Lautstärken-Parameter und für die Angleichung vorgesehene Algorithmen enthält.
    EP01931187A 2000-05-09 2001-05-09 Anordnung bzw. anlage zum komponieren Expired - Lifetime EP1336173B1 (de)

    Priority Applications (1)

    Application Number Priority Date Filing Date Title
    AT01931187T ATE307373T1 (de) 2000-05-09 2001-05-09 Anordnung bzw. anlage zum komponieren

    Applications Claiming Priority (3)

    Application Number Priority Date Filing Date Title
    AT8102000 2000-05-09
    AT0081000A AT500124A1 (de) 2000-05-09 2000-05-09 Anlage zum komponieren
    PCT/AT2001/000136 WO2001086624A2 (de) 2000-05-09 2001-05-09 Anordnung bzw. anlage zum komponieren

    Publications (2)

    Publication Number Publication Date
    EP1336173A2 EP1336173A2 (de) 2003-08-20
    EP1336173B1 true EP1336173B1 (de) 2005-10-19

    Family

    ID=3681326

    Family Applications (1)

    Application Number Title Priority Date Filing Date
    EP01931187A Expired - Lifetime EP1336173B1 (de) 2000-05-09 2001-05-09 Anordnung bzw. anlage zum komponieren

    Country Status (7)

    Country Link
    US (1) US7105734B2 (de)
    EP (1) EP1336173B1 (de)
    JP (1) JP4868483B2 (de)
    AT (1) AT500124A1 (de)
    AU (1) AU784788B2 (de)
    DE (1) DE50107773D1 (de)
    WO (1) WO2001086624A2 (de)

    Families Citing this family (27)

    * Cited by examiner, † Cited by third party
    Publication number Priority date Publication date Assignee Title
    US20030014272A1 (en) * 2001-07-12 2003-01-16 Goulet Mary E. E-audition for a musical work
    US6483019B1 (en) * 2001-07-30 2002-11-19 Freehand Systems, Inc. Music annotation system for performance and composition of musical scores
    US20050136383A1 (en) * 2003-12-17 2005-06-23 International Business Machines Corporation Pluggable sequencing engine
    US20060173692A1 (en) * 2005-02-03 2006-08-03 Rao Vishweshwara M Audio compression using repetitive structures
    CN1298049C (zh) * 2005-03-08 2007-01-31 北京中星微电子有限公司 一种图形引擎芯片及其应用方法
    CN1306594C (zh) * 2005-03-08 2007-03-21 北京中星微电子有限公司 一种图形引擎芯片及其应用方法
    JP4626376B2 (ja) 2005-04-25 2011-02-09 ソニー株式会社 音楽コンテンツの再生装置および音楽コンテンツ再生方法
    SE528839C2 (sv) * 2006-02-06 2007-02-27 Mats Hillborg Melodigenerator
    US20090320669A1 (en) * 2008-04-14 2009-12-31 Piccionelli Gregory A Composition production with audience participation
    FR2903804B1 (fr) * 2006-07-13 2009-03-20 Mxp4 Procede et dispositif pour la composition automatique ou semi-automatique d'une sequence multimedia.
    FR2903803B1 (fr) * 2006-07-13 2009-03-20 Mxp4 Procede et dispositif pour la composition automatique ou semi-automatique d'une sequence multimedia.
    JP4613923B2 (ja) * 2007-03-30 2011-01-19 ヤマハ株式会社 楽音処理装置およびプログラム
    US7783623B2 (en) * 2007-08-31 2010-08-24 Yahoo! Inc. System and method for recommending songs
    US8022284B1 (en) * 2010-08-07 2011-09-20 Jorge Alejandro Velez Medicis Method and system to harmonically tune (just intonation tuning) a digital / electric piano in real time
    CA2823907A1 (en) 2011-01-06 2012-07-12 Hank Risan Synthetic simulation of a media recording
    US20130000463A1 (en) * 2011-07-01 2013-01-03 Daniel Grover Integrated music files
    US9384719B2 (en) * 2013-07-15 2016-07-05 Apple Inc. Generating customized arpeggios in a virtual musical instrument
    US9721551B2 (en) 2015-09-29 2017-08-01 Amper Music, Inc. Machines, systems, processes for automated music composition and generation employing linguistic and/or graphical icon based musical experience descriptions
    US10854180B2 (en) 2015-09-29 2020-12-01 Amper Music, Inc. Method of and system for controlling the qualities of musical energy embodied in and expressed by digital music to be automatically composed and generated by an automated music composition and generation engine
    US10002596B2 (en) * 2016-06-30 2018-06-19 Nokia Technologies Oy Intelligent crossfade with separated instrument tracks
    WO2019057343A1 (en) * 2017-09-25 2019-03-28 Symphonova, Ltd. TECHNIQUES FOR CONTROLLING THE EXPRESSIVE BEHAVIOR OF VIRTUAL INSTRUMENTS, AND ASSOCIATED SYSTEMS AND METHODS
    US11024275B2 (en) 2019-10-15 2021-06-01 Shutterstock, Inc. Method of digitally performing a music composition using virtual musical instruments having performance logic executing within a virtual musical instrument (VMI) library management system
    US10964299B1 (en) 2019-10-15 2021-03-30 Shutterstock, Inc. Method of and system for automatically generating digital performances of music compositions using notes selected from virtual musical instruments based on the music-theoretic states of the music compositions
    US11037538B2 (en) 2019-10-15 2021-06-15 Shutterstock, Inc. Method of and system for automated musical arrangement and musical instrument performance style transformation supported within an automated music performance system
    US11875764B2 (en) * 2021-03-29 2024-01-16 Avid Technology, Inc. Data-driven autosuggestion within media content creation
    IT202200010865A1 (it) * 2022-05-25 2023-11-25 Associazione Accademia Di Musica Onlus Sistema di riproduzione adattativa di una base orchestrale.
    CN116894513B (zh) * 2023-07-12 2024-02-13 广东工业大学 一种划分区域的皮革二维不规则排样方法

    Family Cites Families (26)

    * Cited by examiner, † Cited by third party
    Publication number Priority date Publication date Assignee Title
    JPS5858592A (ja) * 1981-10-02 1983-04-07 ヤマハ株式会社 楽譜表示装置
    JPS60165697A (ja) * 1984-02-08 1985-08-28 松下電器産業株式会社 電子鍵盤楽器
    JPS6118996A (ja) * 1984-07-05 1986-01-27 松下電器産業株式会社 電子楽器
    DE3604686A1 (de) * 1986-02-14 1987-08-27 Rainer Gallitzendoerfer Elektronisches musikinstument
    US4960031A (en) * 1988-09-19 1990-10-02 Wenger Corporation Method and apparatus for representing musical information
    FR2643490B1 (fr) 1989-02-01 1994-05-06 Fourreau Pierre Procede de codage lineaire des notes de musique par ordinateur
    US5142961A (en) * 1989-11-07 1992-09-01 Fred Paroutaud Method and apparatus for stimulation of acoustic musical instruments
    JPH04101195A (ja) * 1990-08-20 1992-04-02 Yamaha Corp 電子楽器
    JP2586226B2 (ja) * 1991-03-22 1997-02-26 ヤマハ株式会社 電子楽器
    US5357048A (en) * 1992-10-08 1994-10-18 Sgroi John J MIDI sound designer with randomizer function
    JPH0650093U (ja) * 1992-12-14 1994-07-08 カシオ計算機株式会社 楽音発生装置
    JP3144140B2 (ja) * 1993-04-06 2001-03-12 ヤマハ株式会社 電子楽器
    JP3486938B2 (ja) * 1993-12-28 2004-01-13 ヤマハ株式会社 レガート演奏可能な電子楽器
    US5763800A (en) * 1995-08-14 1998-06-09 Creative Labs, Inc. Method and apparatus for formatting digital audio data
    US5783767A (en) * 1995-08-28 1998-07-21 Shinsky; Jeff K. Fixed-location method of composing and peforming and a musical instrument
    US5693902A (en) * 1995-09-22 1997-12-02 Sonic Desktop Software Audio block sequence compiler for generating prescribed duration audio sequences
    US5728960A (en) * 1996-07-10 1998-03-17 Sitrick; David H. Multi-dimensional transformation systems and display communication architecture for musical compositions
    JP3120043B2 (ja) * 1996-11-27 2000-12-25 山一電機株式会社 Icカード用コネクタにおけるイジェクト機構
    JP3750284B2 (ja) * 1997-06-11 2006-03-01 ヤマハ株式会社 自動作曲装置および記録媒体
    US5886274A (en) * 1997-07-11 1999-03-23 Seer Systems, Inc. System and method for generating, distributing, storing and performing musical work files
    JP3925993B2 (ja) 1997-08-29 2007-06-06 パイオニア株式会社 信号処理装置
    EP0907160B1 (de) 1997-09-30 2004-05-19 Yamaha Corporation Verfahren, Vorrichtung und Aufzeichnungsmedium zur Erzeugung von Tondaten
    JP3704980B2 (ja) * 1997-12-17 2005-10-12 ヤマハ株式会社 自動作曲装置と記録媒体
    US5986199A (en) * 1998-05-29 1999-11-16 Creative Technology, Ltd. Device for acoustic entry of musical data
    JP3654026B2 (ja) * 1999-01-28 2005-06-02 ヤマハ株式会社 奏法対応入力システム及びその記録媒体
    JP3613062B2 (ja) * 1999-03-19 2005-01-26 ヤマハ株式会社 楽音データ作成方法および記憶媒体

    Also Published As

    Publication number Publication date
    JP2004506225A (ja) 2004-02-26
    EP1336173A2 (de) 2003-08-20
    AT500124A1 (de) 2005-10-15
    US20030188625A1 (en) 2003-10-09
    US7105734B2 (en) 2006-09-12
    WO2001086624A2 (de) 2001-11-15
    WO2001086624A3 (de) 2003-05-30
    JP4868483B2 (ja) 2012-02-01
    DE50107773D1 (de) 2005-11-24
    AU784788B2 (en) 2006-06-22
    AU5802201A (en) 2001-11-20

    Similar Documents

    Publication Publication Date Title
    EP1336173B1 (de) Anordnung bzw. anlage zum komponieren
    DE69625693T2 (de) Verfahren und vorrichtung zur formatierung von digitalen, elektrischen daten
    DE68913278T2 (de) Vorrichtung zur Wiedergabe von Musik und zur Anzeige von Worten.
    DE69605939T2 (de) System zur echtzeit-generierung von musik
    US7525036B2 (en) Groove mapping
    US7335833B2 (en) Music performance system
    DE60018626T2 (de) Vorrichtung und Verfahren zur Eingabe von Steuerungsdateien für Musikvorträge
    US7439441B2 (en) Musical notation system
    DE60308370T2 (de) Musikalisches notierungssystem
    DE112013005807T5 (de) Vorrichtung und Verfahren zur Erzeugung einer Echtzeitmusikbegleitung
    DE112014003260T5 (de) System und Verfahren zum Erzeugen einer rhythmischen Begleitungfür eine musikalische Darbietung
    DE60024157T2 (de) Vorrichtung und Verfahren zur Eingabe eines Vortragstils
    EP0434758A1 (de) Vorrichtung und verfahren zur darstellung von musikinformationen
    DE60026189T2 (de) Verfahren und Vorrichtung zur Wellenformkomprimierung und Erzeugung
    DE60318282T2 (de) Methoden und Vorrichtung zur Verarbeitung von Ausführungsdaten und zur Synthetisierung von Tonsignalen
    DE60033098T2 (de) Verfahren und Vorrichtung zur Aufnahme/Wiedergabe oder Erzeugung von Wellenformen mittels Zeitlageinformation
    Carpentier et al. Automatic orchestration in practice
    DE60032844T2 (de) Verfahren und Vorrichtung zur Erzeugung einer Wellenform auf einem Auslegungsstildatenstrom basiert
    DE60032085T2 (de) Verfahren und Vorrichtung zur Erzeugung einer Wellenform mit verbessertem Übergang zwischen aufeinandervolgenden Dateimodulen
    Covach Popular music in the theory classroom
    DE10056980A1 (de) Verfahren und Gerät zum Verarbeiten einer Audiowellenform
    Schwarz et al. Notation, Transmission, and Comprovisation: A Case Study of the ONCEIM Improvisation Orchestra
    Levy The electronic works of György Ligeti and their influence on his later style
    Andriotis Vocem Internum
    Belet Theoretical and formal continuity in James Tenney's music

    Legal Events

    Date Code Title Description
    PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

    Free format text: ORIGINAL CODE: 0009012

    17P Request for examination filed

    Effective date: 20021209

    AK Designated contracting states

    Designated state(s): AT BE CH CY DE DK ES FI FR GB GR IE IT LI LU MC NL PT SE TR

    AX Request for extension of the european patent

    Extension state: AL LT LV MK RO SI

    GRAP Despatch of communication of intention to grant a patent

    Free format text: ORIGINAL CODE: EPIDOSNIGR1

    GRAS Grant fee paid

    Free format text: ORIGINAL CODE: EPIDOSNIGR3

    GRAA (expected) grant

    Free format text: ORIGINAL CODE: 0009210

    AK Designated contracting states

    Kind code of ref document: B1

    Designated state(s): AT BE CH CY DE DK ES FI FR GB GR IE IT LI LU MC NL PT SE TR

    PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

    Ref country code: IT

    Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT;WARNING: LAPSES OF ITALIAN PATENTS WITH EFFECTIVE DATE BEFORE 2007 MAY HAVE OCCURRED AT ANY TIME BEFORE 2007. THE CORRECT EFFECTIVE DATE MAY BE DIFFERENT FROM THE ONE RECORDED.

    Effective date: 20051019

    Ref country code: IE

    Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

    Effective date: 20051019

    Ref country code: NL

    Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

    Effective date: 20051019

    Ref country code: FI

    Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

    Effective date: 20051019

    REG Reference to a national code

    Ref country code: GB

    Ref legal event code: FG4D

    Free format text: NOT ENGLISH

    REG Reference to a national code

    Ref country code: CH

    Ref legal event code: EP

    REG Reference to a national code

    Ref country code: IE

    Ref legal event code: FG4D

    Free format text: LANGUAGE OF EP DOCUMENT: GERMAN

    REF Corresponds to:

    Ref document number: 50107773

    Country of ref document: DE

    Date of ref document: 20051124

    Kind code of ref document: P

    PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

    Ref country code: SE

    Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

    Effective date: 20060119

    Ref country code: GR

    Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

    Effective date: 20060119

    Ref country code: DK

    Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

    Effective date: 20060119

    PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

    Ref country code: ES

    Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

    Effective date: 20060130

    REG Reference to a national code

    Ref country code: CH

    Ref legal event code: NV

    Representative=s name: PATENTANWALTSBUERO JEAN HUNZIKER

    GBT Gb: translation of ep patent filed (gb section 77(6)(a)/1977)

    Effective date: 20060201

    PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

    Ref country code: PT

    Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

    Effective date: 20060320

    NLV1 Nl: lapsed or annulled due to failure to fulfill the requirements of art. 29p and 29m of the patents act
    REG Reference to a national code

    Ref country code: IE

    Ref legal event code: FD4D

    PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

    Ref country code: BE

    Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

    Effective date: 20060531

    Ref country code: MC

    Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

    Effective date: 20060531

    ET Fr: translation filed
    PLBE No opposition filed within time limit

    Free format text: ORIGINAL CODE: 0009261

    STAA Information on the status of an ep patent application or granted ep patent

    Free format text: STATUS: NO OPPOSITION FILED WITHIN TIME LIMIT

    26N No opposition filed

    Effective date: 20060720

    BERE Be: lapsed

    Owner name: VIENNA SYMPHONIC LIBRARY GMBH

    Effective date: 20060531

    PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

    Ref country code: TR

    Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

    Effective date: 20051019

    Ref country code: LU

    Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

    Effective date: 20060509

    PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

    Ref country code: CY

    Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

    Effective date: 20051019

    REG Reference to a national code

    Ref country code: FR

    Ref legal event code: PLFP

    Year of fee payment: 16

    PGFP Annual fee paid to national office [announced via postgrant information from national office to epo]

    Ref country code: CH

    Payment date: 20160519

    Year of fee payment: 16

    Ref country code: GB

    Payment date: 20160520

    Year of fee payment: 16

    Ref country code: DE

    Payment date: 20160520

    Year of fee payment: 16

    PGFP Annual fee paid to national office [announced via postgrant information from national office to epo]

    Ref country code: FR

    Payment date: 20160520

    Year of fee payment: 16

    Ref country code: AT

    Payment date: 20160425

    Year of fee payment: 16

    REG Reference to a national code

    Ref country code: DE

    Ref legal event code: R119

    Ref document number: 50107773

    Country of ref document: DE

    REG Reference to a national code

    Ref country code: CH

    Ref legal event code: PL

    REG Reference to a national code

    Ref country code: AT

    Ref legal event code: MM01

    Ref document number: 307373

    Country of ref document: AT

    Kind code of ref document: T

    Effective date: 20170509

    GBPC Gb: european patent ceased through non-payment of renewal fee

    Effective date: 20170509

    PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

    Ref country code: AT

    Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

    Effective date: 20170509

    PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

    Ref country code: CH

    Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

    Effective date: 20170531

    Ref country code: LI

    Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

    Effective date: 20170531

    REG Reference to a national code

    Ref country code: FR

    Ref legal event code: ST

    Effective date: 20180131

    PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

    Ref country code: GB

    Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

    Effective date: 20170509

    Ref country code: DE

    Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

    Effective date: 20171201

    PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

    Ref country code: FR

    Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

    Effective date: 20170531