DE202015006043U1 - Signalfolge und Datenträger mit einem Computerprogramm zur Wiedergabe eines Musikstücks - Google Patents

Signalfolge und Datenträger mit einem Computerprogramm zur Wiedergabe eines Musikstücks Download PDF

Info

Publication number
DE202015006043U1
DE202015006043U1 DE202015006043.9U DE202015006043U DE202015006043U1 DE 202015006043 U1 DE202015006043 U1 DE 202015006043U1 DE 202015006043 U DE202015006043 U DE 202015006043U DE 202015006043 U1 DE202015006043 U1 DE 202015006043U1
Authority
DE
Germany
Prior art keywords
music
file
audio
piece
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE202015006043.9U
Other languages
English (en)
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Carus Verlag & Co KG GmbH
Carus-Verlag & Co KG GmbH
Original Assignee
Carus Verlag & Co KG GmbH
Carus-Verlag & Co KG GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Carus Verlag & Co KG GmbH, Carus-Verlag & Co KG GmbH filed Critical Carus Verlag & Co KG GmbH
Publication of DE202015006043U1 publication Critical patent/DE202015006043U1/de
Expired - Lifetime legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B15/00Teaching music
    • G09B15/02Boards or like means for providing an indication of notes
    • G09B15/023Electrically operated
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01HMEASUREMENT OF MECHANICAL VIBRATIONS OR ULTRASONIC, SONIC OR INFRASONIC WAVES
    • G01H1/00Measuring characteristics of vibrations in solids by using direct conduction to the detector
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B15/00Teaching music
    • G09B15/001Boards or like means for providing an indication of chords
    • G09B15/002Electrically operated systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10GREPRESENTATION OF MUSIC; RECORDING MUSIC IN NOTATION FORM; ACCESSORIES FOR MUSIC OR MUSICAL INSTRUMENTS NOT OTHERWISE PROVIDED FOR, e.g. SUPPORTS
    • G10G1/00Means for the representation of music
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/005Non-interactive screen display of musical or status data
    • G10H2220/015Musical staff, tablature or score displays, e.g. for score reading during a performance.
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/011Files or data streams containing coded musical information, e.g. for transmission
    • G10H2240/046File format, i.e. specific or non-standard musical file format used in or adapted for electrophonic musical instruments, e.g. in wavetables
    • G10H2240/056MIDI or other note-oriented file format
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/171Transmission of musical instrument data, control or status information; Transmission, remote access or control of music data for electrophonic musical instruments
    • G10H2240/281Protocol or standard connector for transmission of analog or digital data to or from an electrophonic musical instrument
    • G10H2240/295Packet switched network, e.g. token ring
    • G10H2240/305Internet or TCP/IP protocol use for any electrophonic musical instrument data or musical parameter transmission purposes
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/325Synchronizing two or more audio tracks or files according to musical features or musical timings

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Theoretical Computer Science (AREA)
  • Auxiliary Devices For Music (AREA)
  • Electrophonic Musical Instruments (AREA)

Abstract

Signalfolge, die für eine Übersendung über das Internet oder ein anderes Netzwerk geeignet ist und Daten repräsentiert, die ein Computerprogramm darstellen, das zum Ablauf auf einem elektronischen Gerät (10) bestimmt und zur Wiedergabe eines Musikstücks einsetzbar ist, wobei das Computerprogramm so ausgebildet ist, dass es beim Ablauf auf dem elektronischen Gerät (10) dieses dazu veranlasst, die folgenden Schritte auszuführen: a) Laden der folgenden Dateien: – eine Partiturdatei, die Partiturdaten enthält, welche die Musikpartitur (22) des Musikstücks in einer grafischen Darstellung repräsentieren, wobei die Musikpartitur (22) mehrere Stimmen umfasst, – eine Audiodatei, die Audiodaten enthält, die das von Musikern gespielte Musikstück in einem Format repräsentieren, in dem abgetastete, analoge Tonsignale kodiert sind, – eine Musikdatei, die Musikdaten enthält, die zumindest Teile der Stimmen des Musikstücks in einem digitalen Format repräsentieren, in dem Tonhöhe und Tonlänge kodiert sind; b) Anbieten, dass der Benutzer eine der Stimmen auswählt, die akustisch hervorgehoben werden soll, während das Musikstück akustisch wahrnehmbar wiedergegeben wird; c) Transformieren der Musikdaten, welche die in Schritt b) ausgewählte Stimme repräsentieren, in Stimmtonsignale mittels eines Tongenerators; d) Erzeugen von Audiotonsignalen auf Basis der Audiodaten; e) Mischen der Stimmtonsignale und der Audiotonsignale, um ein gemischtes Tonsignal zu erhalten, wobei das durch die Musikdatei repräsentierte Musikstück und das durch die Audiodatei repräsentierte Musikstück synchronisiert sind; f) gleichzeitig – Akustisch wahrnehmbare Wiedergabe des Klangs des Musikstücks unter Verwendung des gemischten Tonsignals, – Anzeige mindestens eines Teils der Musikpartitur auf einer Anzeige, und – Hervorheben eines Abschnitts der Musikpartitur, welcher einer Passage des Musikstücks entspricht, die gerade akustisch wahrnehmbar wiedergegeben wird.

Description

  • HINTERGRUND DER ERFINDUNG
  • 1. Gebiet der Erfindung
  • Die vorliegende Erfindung betrifft allgemein die visuelle und akustische Wiedergabe von Musikstücken, und zwar insbesondere auf Tablet-Computern oder anderen elektronischen Geräten, die zu diesem Zweck verwendet werden können.
  • 2. Beschreibung des Standes der Technik
  • Vor einigen Jahren begannen Verleger, Notentexte auch in papierlosen digitalen Formaten herauszugeben. Mit der Einführung von Tablet-Geräten wie dem iPad® wurden Computerprogramme (nachfolgend ”Apps” genannt) zum Anzeigen von Notentexten auf den hochauflösenden Bildschirmen dieser Geräte verfügbar. Die erste dieser Apps zeigte digitale Notentexte als Dateien, die in dem portablen Dokumentenformat (PDF) gespeichert waren. Bald danach wurde bei diesen Apps die Möglichkeit hinzugefügt, den Notentext mit grafischen Markierungen zu kommentieren. Bei neueren Apps wurde für den Gebrauch mit geeigneten Hardwareplattformen die Fähigkeit implementiert, gleichzeitig mit dem Anzeigen des Notentextes eine Audio- oder Videodatei abzuspielen.
  • Noch spätere Generationen von Tablet-Apps ermöglichen zusätzliche Interaktivität. Zum Beispiel erlaubt die NoteStar®-App von Yamaha Musikern, Musik zu hören, die synchron mit einer fortlaufenden Anzeige eines digitalen Notentextes wiedergegeben wird. Bislang stellen solche handelsübliche Apps Notentexte entweder in nativen App-Formaten oder in standardisierten anwendungsübergreifenden Formaten wie MusicXML- und PDF-Dateien dar.
  • Derzeit gibt es für MusicXML-Dateien keinen Standardmechanismus, um Inhalte von Audiodateien und Notentextdateien synchronisiert wiederzugeben. Außerdem stellen MusicXML-Dateien Notentext in einem logischen Format dar, das für eine MIDI-Wiedergabe und nicht für eine visuelle Wiedergabe optimiert ist. Dadurch können die feinen Details und satztechnischen Optimierungen, die einen klassischen Notenstich auszeichnen, mit MusicXML-Dateien nicht wiedergegeben werden. Daher ist die Qualität und Ablesbarkeit des auf dem elektronischen Gerät angezeigten Notentextes oft deutlich schlechter als die einer guten Veröffentlichung des gleichen Musikstücks auf Papier. Um solche papierenen Veröffentlichungen herzustellen, wird von den Verlegern oft enormer Aufwand betrieben, um die Noten und andere Symbole so anzuordnen, dass diese leicht von Interpreten, Schülern oder Musikfans erfasst werden können. Dies trifft insbesondere auf orchestrale oder andere polyphone Musik zu, bei der eine Mehrzahl von Stimmen auf einem einzigen Blatt untereinander angeordnet sind und eine Partitur bilden.
  • Das PDF-Format hingegen ist in der Lage, Notentexte in einem qualitativen hochwertigen Format darzustellen. Da es aber im Unterschied zum MusicXML-Format keine Informationen enthält, die direkt an die Musik anknüpfen, kann das PDF-Format nicht dazu benutzt werden, eine Audio- oder Videodatei gleichzeitig mit einem Notentext anzuzeigen.
  • Derzeit verfügbare Musik-Apps opfern aus diesen Gründen die hohe Layout-Qualität von gedruckten Notentexten, die bereits verfügbar sind, wenn gleichzeitig mit der Anzeige des Notentextes eine Audio- oder Videodatei abgespielt werden soll.
  • US 7,239,320 B1 beschreibt ein computerimplementiertes Verfahren zum Präsentieren von Musik für einen Benutzer eines elektronischen Geräts. Dieses Verfahren ermöglicht es, einen Notentext in einer qualitativ hochwertigen grafischen Darstellung anzuzeigen und synchron hierzu eine Audio- oder Videodatei abzuspielen. Zu diesem Zweck wird eine hierarchische Struktur aus Begrenzungsbereichen verwendet.
  • Obwohl dieses Verfahren zweckmäßig ist, um eine musikalische Darbietung mit einem zugehörigen Notentext zu vergleichen, kann es Musikern oder Schülern, die ihre Fähigkeiten bei der Wiedergabe einer bestimmten Stimme dieses Musikstücks verbessern wollen, keine große Hilfe bieten. Wenn ein Chorsänger zum Beispiel mit Hilfe einer guten Audioaufnahme seine Stimme besser lernen möchte, ist es in der Regel schwierig, diese Stimme in der Aufnahme deutlich genug herauszuhören.
  • Für solche Ausbildungszwecke wird im Stand der Technik bislang eine MIDI-Wiedergabe des Musikstücks verwendet. In diesem Fall ist es leicht, eine bestimmte Stimme hervorzuheben, indem die Lautstärke des MIDI-Kanals, der dieser Stimme entspricht, einfach erhöht wird. Allerdings ist Musik, die auf der Basis einer MIDI-Datei erzeugt wurde, für einen Hörer oft unbefriedigend, da einer solchen Wiedergabe die Anmut und die natürliche Atmosphäre einer von Musikern gespielten Interpretation fehlen.
  • Das Verstärken einer einzelnen Stimme in einer Audioaufnahme ist nicht möglich, da die Audioaufnahme durch das Abtasten eines analogen Wellensignals erhalten wird, aus dem keine einzelne Stimme isoliert werden kann.
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • Aufgabe der Erfindung ist daher, Musik und Notentext eines Musikstücks auf einem elektronischen Gerät in einer Weise wiederzugeben, die einen Benutzer beim Erlernen einer Stimme des Musikstücks unterstützt.
  • Diese Aufgabe wird durch eine Signalfolge erreicht, die für eine Übersendung über das Internet oder ein anderes Netzwerk geeignet ist und Daten repräsentiert, die ein Computerprogramm darstellen, das zum Ablauf auf einem Tablet-Computer oder einem anderen elektronischen Gerät bestimmt und zur Wiedergabe eines Musikstücks einsetzbar ist. Das Computerprogramm ist so ausgebildet, dass es beim Ablauf auf dem elektronischen Gerät dieses dazu veranlasst, zumindest die folgenden Dateien zu laden:
    • – Eine Partiturdatei, die Partiturdaten enthält, welche die Musikpartitur des Musikstücks in einer grafischen Darstellung repräsentieren, wobei die Musikpartitur mehrere Stimmen umfasst;
    • – Eine Audiodatei, die Audiodaten enthält, die das von Musikern gespielte Musikstück in einem Format repräsentieren, in dem abgetastete, analoge Tonsignale kodiert sind;
    • – Eine Musikdatei, die Musikdaten enthält, die zumindest Teile der Stimmen des Musikstücks in einem digitalen Format repräsentieren, in dem Tonhöhe und (absolute oder relative) Tonlänge kodiert sind.
  • Das Computerprogramm bietet dem Benutzer an, eine der Stimmen auszuwählen, die akustisch hervorgehoben werden soll, wenn das Musikstück akustisch wahrnehmbar wiedergegeben wird. Die Musikdaten, welche die Stimme repräsentieren, die durch den Benutzer ausgewählt wurde, werden dann in Stimmtonsignale mittels eines Tongenerators transformiert. Auf Basis der Audiodaten werden Audiotonsignale erzeugt. Die Stimmtonsignale und die Audiotonsignale werden nun gemischt, wodurch ein gemischtes Tonsignal erhalten wird, wobei das durch die Musikdatei repräsentierte Musikstück und das durch die Audiodatei repräsentierte Musikstück synchronisiert sind. Abschließend wird der Klang des Musikstücks unter Verwendung des gemischten Tonsignals akustisch wahrnehmbar wiedergegeben. Gleichzeitig dazu wird zumindest ein Teil der Musikpartitur auf einer Anzeige des elektronischen Geräts angezeigt und dabei ein Abschnitt der Musikpartitur hervorgehoben, welcher einer Passage des Musikstücks entspricht, die gerade akustisch wahrnehmbar wiedergegeben wird.
  • Der Benutzer kann auf diese Weise eine einzelne Stimme gut vernehmbar hervorheben, während er das Musikstück in einer qualitativ hochwertigen und von Musikern interpretierten Aufnahme hört und die Partitur auf einer ebenfalls qualitativ hochwertigen Darstellung des Notentextes verfolgt, wobei dem Benutzer die gerade gespielte Passage des Notentextes zusätzlich graphisch hervorgehoben wird.
  • In einem Ausführungsbeispiel ist das digitale Format ein MIDI-Format und die Musikdatei eine MIDI-Datei. Alternativ kann das digitale Format ein MusicXML-Format und die Musikdatei eine MusicXML-Datei sein.
  • Es kann vorgesehen sein, dass in dem digitalen Format eine absolute Tonlänge derart kodiert ist, dass das durch die Musikdatei repräsentierte Musikstück und das durch die Audiodatei repräsentierte Musikstück synchron sind, wenn diese gleichzeitig wiedergegeben werden. Bei der Erzeugung der Musikdatei müssen dann die absoluten Tonlängen an die Ton- oder Taktlängen angepasst werden, die durch die Musikdatei vorgegeben sind. Die Bestimmung der Ton- oder Taktlängen kann beispielsweise durch Abhören des Musikstücks vorgenommen werden; der Hörer betätigt dann z. B. bei jedem Viertel- oder Achtelschlag eine Taste, wodurch die Ton- und Taktlängen festgelegt werden. Es ist jedoch möglich, diesen Vorgang durch zusätzliche Computerprogramme zu erleichtern.
  • Alternativ hierzu kann vorgesehen sein, dass in das elektronische Gerät eine Synchronisationsdatei geladen wird, die Synchronisationsdaten enthält, die eine Zeitkorrelation zwischen den Musikdaten und den Audiodaten herstellen, wobei die Synchronisationsdaten von dem Tongenerator verwendet werden, wenn dieser die Musikdaten in Stimmtonsignale transformiert. Auch bei der Erzeugung der Synchronisationsdatei müssen die Ton- oder Taktlängen berücksichtigt werden, die durch die Musikdatei vorgegeben sind.
  • In einem Ausführungsbeispiel ist die Audiodatei eine unkomprimierte Datei gemäß dem Wave Form Audio File Format (WAVE) oder dem Compact Disc Digital Audio Format (CDDA). Alternativ kann die Audiodatei eine komprimierte Datei gemäß einem der folgenden Formate sein: MP3-Format, Advanced Audio Coding Format (AAC), Free Lossless Audio Codec Format (FLAC) und Theora.
  • Die Musikdaten können Tonlautstärkedaten umfassen, wobei, wenn die Stimmtonsignale und die Audiotonsignale gemischt werden, die Tonlautstärkedaten abhängig von einer Lautstärke der Audiotonsignale verändert werden. Hierbei kann insbesondere vorgesehen sein, dass die Lautstärke der Stimmtonsignale mit Erhöhung der Lautstärke der Audiotonsignale erhöht wird, um umgekehrt.
  • In einem Ausführungsbeispiel kann die Audiodatei in einer Multimedia-Containerdatei enthalten sein, die auch eine Videodatei enthält. Damit könnten von dem Computerprogramm auch Videodateien verarbeitet werden und für einen Benutzer wahrnehmbar wiedergegeben werden.
  • Gegenstand der Erfindung ist außerdem eine Signalfolge, die für eine Übersendung über das Internet oder ein anderes Netzwerk geeignet ist und Synchronisationsdaten repräsentiert, die eine Zeitkorrelation zwischen Musikdaten und Audiodaten herstellen. Hierbei repräsentieren die Musikdaten zumindest Teile der Stimmen eines Musikstücks in einem digitalen Format, in dem Tonhöhe und die (absolute oder relative) Tonlänge kodiert sind. Die Audiodaten repräsentieren das von Musikern gespielte Musikstück in einem Format, in dem abgetastete, analoge Tonsignale kodiert sind.
  • Weiter ist Gegenstand der Erfindung ein Datenträger, auf dem Daten gespeichert sind, die das oben beschriebene Computerprogramm repräsentieren.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • Nachfolgend werden Ausführungsbeispiele der Erfindung anhand der Zeichnungen näher erläutert. In diesen zeigen:
  • 1 eine Draufsicht auf einen Tablet-Computer;
  • 2 ein Flussdiagramm, das wichtige Schritte illustriert, die von dem in der 1 gezeigten Tablet-Computer ausgeführt werden;
  • 3 eine Seite einer Musikpartitur in einer grafischen Darstellung;
  • 4 eine Grafik, die ein Audiotonsignal illustriert;
  • 5 einen Ausschnitt aus einer MidiXML-Datei;
  • 6 eine Grafik, welche die Synchronisation der Musikdatei und der Audiodatei illustriert.
  • Die nachfolgende Beschreibung eines Ausführungsbeispiels der Erfindung enthält Verweise auf kommerzielle Produkte, die unter Produktnamen angeboten werden, für die Markenrechte gelten können.
  • BESCHREIBUNG BEVORZUGTER AUSFÜHRUNGSBEISPIELE
  • 1. Grundlegende Funktionsweise
  • Die 1 ist eine schematische Draufsicht auf einen Tablet-Computer 10 mit einem Speicher, in dem eine App gespeichert ist, die nachfolgend ausführlich erläutert wird. Der Begriff „App” wird in diesem Kontext synonym für alle Arten von Computerprogramme verwendet, d. h. unabhängig von der Programmiersprache, der verwendeten Hardware oder dem Betriebssystem.
  • Der Tablet-Computer 10 als solcher ist ein konventionelles elektronisches Handgerät, das in der vorliegenden Ausführung über eine berührungsempfindliche Anzeige 12, Lautsprecher 14, 16 und Bedienknöpfe 18, 20 verfügt. Selbstverständlich können stattdessen auch andere Typen von Computern eingesetzt werden. Der Begriff Computer ist breit auszulegen und umfasst Mobiltelefone, Notebooks, PCs oder Work Stations, aber auch elektronische Geräte mit speziellen Funktionen wie beispielsweise ein elektrisches Klavier, in dem die App in einem Lese-Speicher gespeichert ist.
  • Wie in der 1 erkennbar ist, wird von der Anzeige 12 eine Musikpartitur eines Musikstücks angezeigt, bei der es sich hier um die erste Seite einer Klavierpartitur 22 der ”Messe in C” von L. v. Beethoven handelt. Die Klavierpartitur 22 umfasst vier Notensysteme für die verschiedenen Gesangstimmen und eine Akkolade mit zwei Notensystemen für die Klavierstimme. In diesem Ausführungsbeispiel ist die auf der Anzeige 12 wiedergegebene Seite eine identische Kopie einer Papierausgabe, die von der Anmelderin veröffentlicht wurde, und hat damit das gleiche perfekte Layout wie die Papierausgabe. Daher kann ein Benutzer des Tablet-Computers 10, dem bereits die Papierausgabe bekannt ist, da er oder sie zum Beispiel in einem Chor singt, einfach der Musik in der Anzeige 12 folgen. Hierbei ist es auch möglich, nur einen Teil dieser Seite auf der Anzeige 12 darzustellen. Ein Grund hierfür könnte beispielsweise sein, dass die Anzeige 12 zu klein ist, um die gesamte Seite so darzustellen, dass sich vom Benutzer ohne weiteres erfasst werden kann.
  • Während die erste Seite der Klavierpartitur 22 angezeigt wird, wird eine professionelle Aufnahme des Musikstücks mittels der Lautsprecher 14, 16 wiedergegeben. Diese Aufnahme kann aus einer CD durch Komprimieren der Audiodatei erhalten werden, beispielsweise mit dem MP3-Standard. Der Abschnitt der Partitur 22, der gerade akustisch wahrnehmbar ist, wird in der Anzeige mittels eines grauen oder farbigen Balkens 24 hervorgehoben, der sich zeitgleich mit der gerade gespielten Musik über der Musikpartitur 22 bewegt.
  • Ist der Benutzer an einer bestimmten Stimme dieses Musikstücks interessiert, zum Beispiel der Bassstimme des Chors, kann er mit einem seiner Finger die Anzeige 12 an einer Stelle berühren, an der die Bassstimme angezeigt ist. Dies wird durch den Tablet-Computer 10 als eine Anweisung interpretiert, die Bassstimme hervorzuheben, während die Musik weitergespielt wird.
  • Der Tablet-Computer gibt jetzt weiter die Musik akustisch wieder, hebt dabei allerdings die Stimme akustisch hervor, die von dem Benutzer zuvor mit seinem Finger ausgewählt wurde. Der Benutzer hört dann nicht nur die Aufnahme des Musikstücks hören, sondern zusätzlich die ausgewählte Stimme in einer MIDI-Darbietung, die von einem Sequenzer oder einem anderen Tongenerator erzeugt wurde.
  • Wie dies erreicht wird, wird im Weiteren mit Bezug auf die 2 erklärt. Diese stellt ein Flussdiagramm dar, das wichtige Schritte illustriert, die von dem Tablet-Computer 10 ausgeführt werden.
  • 2. App
  • In einem ersten Schritt S1 werden dem Tablet-Computer 10 drei verschiedene Dateien zur Verfügung gestellt und von der App geladen. Diese Dateien können von einem Server heruntergeladen oder dem Tablet-Computer 10 mittels eines Datenspeichers, wie beispielsweise ein USB-Stick, zur Verfügung gestellt werden.
  • Eine erste Datei ist eine Partiturdatei, die Partiturdaten enthält, welche die Musikpartitur des Musikstücks repräsentieren. Bei der Musikpartitur handelt es sich bei diesem Ausführungsbeispiel um einen Klavierauszug. Die Partiturdatei gibt das Musikstück grafisch wieder, wie dies in der 3 gezeigt ist. Der Begriff ”grafische Wiederhabe” beschreibt ein Format, in dem die Partitur als grafische Information und nicht als logische Information kodiert ist. Die Partiturdatei kann beispielsweise eine TIFF-Datei (Text Image File Format), die zum Speichern von Rastergrafikbilder verwendet wird, oder eine PDF-Datei sein, in der Rastergrafikbilder nach einem Filtervorgang eingebettet sind. Es ist auch möglich, die Noten und andere Symbole der Musikpartitur ähnlich zu eingebetteten Schritttypen einzubetten.
  • Eine zweite von der App geladene Datei ist eine Audiodatei, die Audiodaten enthält, die das Musikstück repräsentieren, wie es von Musikern gespielt wird, und zwar in einem Format, in dem abgetastete analoge Tonsignale kodiert sind. Die 4 zeigt ein analoges Tonsignal, bevor es abgetastet und kodiert wurde. Es ist erkennbar, dass es in diesem analogen Signal nicht möglich ist, die Bassstimme oder irgendeine andere Stimme zu identifizieren.
  • Die Audiodatei kann eine unkomprimierte Datei sein, z. B. eine Datei im Waveform Audio File Format (WAVE) oder dem Compact Disk Digital Audio Format (CDDA). Da die Datenspeicherkapazität des Tablet-Computers 10 in der Regel begrenzt ist, kann es vorteilhaft sein, eine komprimierte Audiodatei zu verwenden, zum Beispiel eine Datei in dem MP3-Format, dem Advanced Audio Coding Format (AAC), dem Free Lossless Audio Codec Format (FLAC) oder dem OGG/Vorbis Format.
  • Die dritte Datei, die in Schritt S1 zur Verfügung und von der App geladen wird, ist eine Musikdatei, die Musikdaten enthält, die in dem dargestellten Ausführungsbeispiel individuell die vier Gesangsstimmen des Musikstücks in einem digitalen Format repräsentieren, in dem Tonhöhe und Tonlänge kodiert sind. Das gängigste Dateiformat dieser Art ist das MIDI-Format. MIDI (ein Akronym für Musical Instrument Digital Interface) ist ein technischer Standard für ein Protokoll, das es einer große Vielfalt von elektronischen Musikinstrumenten, Computern und anderen daran angeschlossenen Geräten erlaubt, miteinander zu kommunizieren.
  • MIDI-Dateien enthalten Ereignismeldungen, die Tonhöhe und Tonlängen, Steuersignale für Parameter wie Lautstärke, Vibrato, Einsatzzeichen und Taktsignale, die das Tempo zwischen mehreren Geräten einstellen und synchronisieren, spezifizieren. Diese Meldungen werden an andere Geräte übertragen und steuern dort die Tonerzeugung und andere Funktionen. Die MIDI-Daten können auch in einem Hardware- oder Softwaregerät, das als Sequenzer bezeichnet wird, gespeichert sein. Dieser kann dazu verwendet werden, die Daten zu editieren und zu einem späteren Zeitpunkt wiederzugeben.
  • Da MIDI-Dateien als eine Sequenz von hexadezimale Zahlen gespeichert werden, ist es manchmal bequemer, das MidiXML-Format anstelle des MIDI-Formats für die Musikdatei zu verwenden. Die 5 stellt einen Ausschnitt aus einer MidiXML-Datei dar, der die erste Note des Musikstücks von Beethoven, das in der 3 gezeigt ist, codiert. Diese Daten können in eine MIDI-Datei transformiert werden, die dann einem Sequenzer zugeführt werden kann, um ein analoges Tonsignal zu erzeugen. Es ist auch möglich, auf Basis von MidiXML-Daten eine Musikpartitur mittels eines Notationsprogramms wie FINALE® zu erzeugen, das die MidiXML-Daten in eine grafische Darstellung übersetzt.
  • Hier wird angenommen, dass die Musikdatei eine MidiXML-Datei ist, in der zumindest die Tonhöhen und Tonlängen der vier Chorstimmen des Musikstücks in einer Weise kodiert sind, wie sie in der 5 dargestellt ist.
  • In einem zweiten Schritt S2 kann der Benutzer eine der Gesangsstimmen auswählen, die akustisch hervorgehoben werden soll, während das Musikstück akustisch wahrnehmbar abgespielt wird. Wie oben erwähnt, kann diese Auswahl durch Berühren des Notensystems erfolgen, das die gewünschte Gesangsstimme repräsentiert. Alternativ kann der Benutzer diese Auswahl dadurch durchführen, dass er oder sie einen der Knöpfe 18, 20 drückt, nachdem ein Menüfenster geöffnet worden ist. Außerdem kann der Benutzer die ihn interessierende Gesangsstimme einmalig beim Starten des Programms auswählen. Während die Musik wahrnehmbar abgespielt wird, erscheint dann ein Soft-Button in der Anzeige 12, der beispielweise mit ”Meine Stimme hervorheben” benannt ist. Die Auswahl der Gesangsstimme wird dann durch Drücken dieses Soft-Buttons vorgenommen. Diese Vorgehensweise hat den Vorteil, dass der Benutzer die ihn interessierende Gesangsstimme nicht jedes Mal auswählen muss, wenn er die Hervorhebefunktion verwenden möchte.
  • In einem dritten Schritt S3 werden die Musikdaten, welche die von dem Benutzer in Schritt S2 ausgewählte Gesangsstimme repräsentieren, mittels eines Tongenerators in Stimmtonsignale transformiert. Zu diesem Zweck transformiert der Tablet-Computer 10 die MidiXML-Daten der Musikdatei in MIDI-Daten. Der Tongenerator, der als ein MIDI-Sequenzer-Programmmodul realisiert sein kann, transformiert die MIDI-Daten in ein analoges Tonsignal. Der Ton, der von dem Tongenerator erzeugt wird, kann an die Stimmlage angepasst sein, die akustisch hervorgehoben werden soll. Will also der Benutzer beispielsweise, dass die Bassstimme akustisch hervorgehoben wird, kann der Tongenerator einen künstlichen Ton erzeugen, der eine menschliche Bassstimme nachbildet. Da insbesondere im Falle von menschliches Stimmen ein solcher künstlicher Ton häufig unbefriedigend ist, kann von dem Tongenerator mittels MIDI-Daten stattdessen ein neutraler Ton oder ein Ton erzeugt werden, der einem anderen Instrument, z. B. einem Klavier, nachgebildet ist.
  • In einem alternativen Ausführungsbeispiel wird dem Tablet-Computer 10 in Schritt S1 keine MidiXML-Datei, sondern eine MIDI-Datei zur Verfügung gestellt. In diesem Fall müssen durch den Tablet-Computer 10 keine MidiXML-Daten in MIDI-Daten übersetzt werden.
  • In einem vierten Schritt S4 werden von dem Computer 10 Audiotonsignale auf Basis der Audiodaten erzeugt, die in der Audiodatei enthalten sind. Dies kann mit einem konventionellen Decoder erreicht werden, der in der Lage ist, die digitalen Audiodaten zu dekodieren, um ein analoges Audiosignal zu erzeugen, wie es in der 4 dargestellt ist.
  • In einem nächsten Schritt S5 werden die Stimmtonsignale, die von dem Tongenerator erzeugt wurden, und die Audiotonsignale, die von dem Decoder erzeugt wurden, zusammengemischt, um ein gemischtes Tonsignal zu erhalten, in dem das von der Musikdatei repräsentierte Musikstück und das von der Audiodatei repräsentierte Musikstück synchronisiert sind. Das Mischen kann auf einer digitalen Ebene oder alternativ auf einer analogen Ebene ausgeführt werden.
  • 3. Synchronisation
  • Ein erster Ansatz für das Synchronisieren des von der Musikdatei und von der Audiodatei repräsentierten Musikstücks wird im Folgenden mit Bezug auf die Tabelle 1 beschrieben.
    Audioaufnahme MidiXML-Daten
    # Takt Zeit t [s] # Ticks Δ Original-Tempo [μs] Δ Verändertes Tempo [μs]
    0 0 0 1360000 1361000
    1 1,361 256 1360000 1395000
    2 2.756 512 1360000 1241000
    3 3.997 768 1360000 1322000
    4 5.319 1024 1360000 1361000
    ... ... ... ...
    Tabelle 1
  • Die linke Spalte der Tabelle 1 stellt die Taktnummer in einem der Notensysteme des Musikstücks dar. Die zweite Spalte gibt die Zeit in Sekunden an, zu welcher die entsprechenden Takte in der Audioaufnahme beginnen. Diese Information kann manuell von einer Person erzeugt werden, welche die Aufnahme hört und jedes Mal einen Knopf drückt, wenn ein neuer Takt beginnt. Obwohl man erwarten würde, dass die Takte in streng periodischen Intervallen auftreten, so zeigt sich, dass sie dies in der Audioaufnahme nicht tun, etwa weil der Dirigent sich dafür entschieden hat, das Tempo zwischen den Takten zu verändern.
  • Die dritte Spalte gibt die entsprechende Information in der ursprünglichen MidiXML-Datei an. Jeder Takt ist unterteilt in 256 Ticks, und die Tempoinformation für jeden Takt ist 1360000 μs. Im Unterschied zu der Audioaufnahme wird die Zeitsequenz hier durch das Zeitintervall Δ zwischen zwei aufeinander folgenden Takten beschrieben.
  • In den ursprünglichen MidiXML-Daten ist dieses Zeitintervall Δ gleich 1360000 μs = 1,36 s für jeden Takt. Würde man daher eine MidiXML-Datei in eine MIDI-Datei transformieren, einen Audioton erzeugen und diesen zusammen mit der Audioaufnahme abspielen, würden die zwei Töne nicht zueinander passen, da der von den MIDI-Daten erzeugte Audioton perfekt regelmäßig wäre, während die Audioaufnahme Tempoveränderungen enthält.
  • Deswegen werden die MidiXML-Daten, die sich auf das Zeitintervall Δ beziehen, so modifiziert, dass die zwei Töne synchronisiert sind. Zu diesem Zweck werden die veränderten Zeitintervalldaten Δn für den Takt n derart verändert, dass diese gleich der Differenz d = tn – tn-1 sind. Dadurch wird auch die Länge der Töne, die in der digitalen Musikdatei kodiert sind, so modifiziert, dass das von der Musikdatei repräsentierte Musikstück und das von der Audiodatei repräsentierte Musikstück synchron sind, wenn sie gleichzeitig abgespielt werden.
  • Die 6 zeigt eine Grafik, die diese Art des Synchronisierens der Zeitachse der MidiXML-Datei mit der Zeitachse der Audiodatei illustriert. In der ursprünglichen MidiXML-Datei treten die Takte periodisch auf, wohingegen in der Audioaufnahme die Takte unregelmäßige Längen haben. Durch Modifizieren der Zeitintervalle zwischen den Takten in der MidiXML-Datei ist es möglich, die Daten so aufeinander abzustimmen, dass Musik, die auf der Basis der Musikdatei erzeugt wurde, und Musik, die auf der Basis der Audiodatei erzeugt wurde, synchronisiert abgespielt werden kann.
  • Eine andere Art des Synchronisierens der Audiodatei mit der Musikdatei nutzt eine gesonderte Synchronisationsdatei, die dem Tablet-Computer 10 bereitgestellt wird. Diese Synchronisationsdatei enthält Synchronisationsdaten, die eine Zeitkorrelation zwischen den Musikdaten und den Audiodaten herstellen. Diese Synchronisationsdaten werden von dem Tongenerator verwendet, wenn dieser die Musikdaten in Stimmtonsignale in Schritt S3 transformiert.
  • 4. Synchronisierte Wiedergabe und Stimmenhervorhebung
  • In einem letzten Schritt S6 wird der Ton des Musikstücks über die Lautsprecher 14, 16 mittels des gemischten Tonsignals akustisch wahrnehmbar wiedergegeben. Gleichzeitig wird mindestens ein Teil des Klavierauszugs 22 in der Anzeige 12 dargestellt, und derjenige Teil des Klavierauszugs, welcher der gerade akustisch wiedergegebenen Passage des Musikstücks entspricht, wird mittels des Balkens 24 hervorgehoben.
  • 5. Lautstärkensteuerung
  • Die Lautstärke des Tons, der vom Tongenerator auf der Basis der Musikdatei erzeugt wird, ist zunächst nicht an die Lautstärke des Tons angepasst, der von dem Decoder auf der Basis der Audiodatei erzeugt wird. Wird die Musik der Aufnahme in bestimmten Passagen besonders laut, kann es daher für den Benutzer schwierig sein, den zusätzlichen Ton akustisch wahrzunehmen, der zum Hervorheben einer bestimmten Stimme der Aufnahme beigemischt wurde.
  • Daher kann es zweckmäßig sein, Tonlautstärkedaten, die in den Musikdaten enthalten sind, im Zeitpunkt des Zusammenfügens der Stimmtonsignale und der Audiotonsignale in Schritt S5 in geeigneter Weise zu verändern. Meist wird es wünschenswert sein, die Lautstärke der Stimmtonsignale mit steigender Lautstärke der Audiotonsignale zu erhöhen, und umgekehrt. Es können aber auch kompliziertere und nichtlineare Funktionen bei der Modifikation der Lautstärkendaten zum Einsatz kommen.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 7239320 B1 [0007]

Claims (23)

  1. Signalfolge, die für eine Übersendung über das Internet oder ein anderes Netzwerk geeignet ist und Daten repräsentiert, die ein Computerprogramm darstellen, das zum Ablauf auf einem elektronischen Gerät (10) bestimmt und zur Wiedergabe eines Musikstücks einsetzbar ist, wobei das Computerprogramm so ausgebildet ist, dass es beim Ablauf auf dem elektronischen Gerät (10) dieses dazu veranlasst, die folgenden Schritte auszuführen: a) Laden der folgenden Dateien: – eine Partiturdatei, die Partiturdaten enthält, welche die Musikpartitur (22) des Musikstücks in einer grafischen Darstellung repräsentieren, wobei die Musikpartitur (22) mehrere Stimmen umfasst, – eine Audiodatei, die Audiodaten enthält, die das von Musikern gespielte Musikstück in einem Format repräsentieren, in dem abgetastete, analoge Tonsignale kodiert sind, – eine Musikdatei, die Musikdaten enthält, die zumindest Teile der Stimmen des Musikstücks in einem digitalen Format repräsentieren, in dem Tonhöhe und Tonlänge kodiert sind; b) Anbieten, dass der Benutzer eine der Stimmen auswählt, die akustisch hervorgehoben werden soll, während das Musikstück akustisch wahrnehmbar wiedergegeben wird; c) Transformieren der Musikdaten, welche die in Schritt b) ausgewählte Stimme repräsentieren, in Stimmtonsignale mittels eines Tongenerators; d) Erzeugen von Audiotonsignalen auf Basis der Audiodaten; e) Mischen der Stimmtonsignale und der Audiotonsignale, um ein gemischtes Tonsignal zu erhalten, wobei das durch die Musikdatei repräsentierte Musikstück und das durch die Audiodatei repräsentierte Musikstück synchronisiert sind; f) gleichzeitig – Akustisch wahrnehmbare Wiedergabe des Klangs des Musikstücks unter Verwendung des gemischten Tonsignals, – Anzeige mindestens eines Teils der Musikpartitur auf einer Anzeige, und – Hervorheben eines Abschnitts der Musikpartitur, welcher einer Passage des Musikstücks entspricht, die gerade akustisch wahrnehmbar wiedergegeben wird.
  2. Signalfolge nach Anspruch 1, wobei das digitale Format ein MIDI-Format ist und die Musikdatei eine Midi-Datei ist.
  3. Signalfolge nach Anspruch 1, wobei das digitale Format ein MusicXML-Format ist und die Musikdatei eine MusicXML-Datei ist.
  4. Signalfolge nach einem der vorhergehenden Ansprüche, wobei in dem digitalen Format eine absolute Tonlänge kodiert ist, und wobei die Tonlänge derart bestimmt ist, dass das durch die Musikdatei repräsentierte Musikstück und das durch die Audiodatei repräsentierte Musikstück synchron sind, wenn diese in Schritt f) gleichzeitig wiedergegeben werden.
  5. Signalfolge nach einem der vorhergehenden Ansprüche, wobei in Schritt a) eine Synchronisationsdatei geladen wird, die Synchronisationsdaten enthält, die eine Zeitkorrelation zwischen den Musikdaten und den Audiodaten herstellen, wobei die Synchronisationsdaten von dem Tongenerator verwendet werden, wenn dieser die Musikdaten in Stimmtonsignale in Schritt c) transformiert.
  6. Signalfolge nach einem der vorhergehenden Ansprüche, wobei die Audiodatei eine unkomprimierte Datei gemäß dem Wave Form Audio File Format (WAVE) oder dem Compact Disc Digital Audio Format (CDDA) ist.
  7. Signalfolge nach einem der Ansprüche 1 bis 5, wobei die Audiodatei eine komprimierte Datei gemäß einem der folgenden Formate ist: MP3-Format, Advanced Audio Coding Format (AAC), Free Lossless Audio Codec Format (FLAC) und Theora.
  8. Signalfolge nach einem der vorhergehenden Ansprüche, wobei die Musikdaten Tonlautstärkedaten umfassen, und wobei, wenn die Stimmtonsignale und die Audiotonsignale in Schritt e) gemischt werden, die Tonlautstärkedaten abhängig von der Lautstärke der Audiotonsignale verändert werden.
  9. Signalfolge nach Anspruch 8, wobei die Lautstärke der Stimmtonsignale mit Erhöhung der Lautstärke der Audiotonsignale erhöht wird.
  10. Signalfolge nach einem der vorhergehenden Ansprüche, wobei die Audiodatei in einer Multimedia-Containerdatei enthalten ist, die auch eine Videodatei enthält.
  11. Signalfolge nach einem der vorhergehenden Ansprüche, wobei das elektronische Gerät (10) ein Tablet-Computer ist.
  12. Signalfolge, die für eine Übersendung über das Internet oder ein anderes Netzwerk geeignet ist und Synchronisationsdaten repräsentiert, die eine Zeitkorrelation zwischen Musikdaten und Audiodaten herstellen, wobei die Musikdaten zumindest Teile der Stimmen eines Musikstücks in einem digitalen Format repräsentieren, in dem Tonhöhe und Tonlänge kodiert sind, und wobei die Audiodaten das von Musikern gespielte Musikstück in einem Format repräsentieren, in dem abgetastete, analoge Tonsignale kodiert sind.
  13. Datenträger mit darauf gespeicherten Daten, die ein Computerprogramm repräsentieren, das zum Ablauf auf einem elektronischen Gerät (10) bestimmt und zur Wiedergabe eines Musikstücks einsetzbar ist, wobei das Computerprogramm so ausgebildet ist, dass es beim Ablauf auf dem elektronischen Gerät (10) dieses dazu veranlasst, die folgenden Schritte auszuführen: a) Laden der folgenden Dateien: – eine Partiturdatei, die Partiturdaten enthält, welche die Musikpartitur (22) des Musikstücks in einer grafischen Darstellung repräsentieren, wobei die Musikpartitur (22) mehrere Stimmen umfasst, – eine Audiodatei, die Audiodaten enthält, die das von Musikern gespielte Musikstück in einem Format repräsentieren, in dem abgetastete, analoge Tonsignale kodiert sind, – eine Musikdatei, die Musikdaten enthält, die zumindest Teile der Stimmen des Musikstücks in einem digitalen Format repräsentieren, in dem Tonhöhe und Tonlänge kodiert sind; b) Anbieten, dass der Benutzer eine der Stimmen auswählt, die akustisch hervorgehoben werden soll, während das Musikstück wahrnehmbar gespielt wird; c) Transformieren der Musikdaten, welche die in Schritt b) ausgewählte Stimme repräsentieren, in Stimmtonsignale mittels eines Tongenerators; d) Erzeugen von Audiotonsignalen auf Basis der Audiodaten; e) Mischen der Stimmtonsignale und der Audiotonsignale, um ein gemischtes Tonsignal zu erhalten, wobei das durch die Musikdatei repräsentierte Musikstück und das durch die Audiodatei repräsentierte Musikstück synchronisiert sind; f) gleichzeitig – Akustisch wahrnehmbare Wiedergabe des Klangs des Musikstücks unter Verwendung des gemischten Tonsignals, – Anzeige mindestens eines Teils der Musikpartitur auf einer Anzeige, und – Hervorheben eines Abschnitts der Musikpartitur, welcher einer Passage des Musikstücks entspricht, die gerade akustisch wahrnehmbar wiedergegeben wird.
  14. Datenträger nach Anspruch 13, wobei das digitale Format ein MIDI-Format ist und die Musikdatei eine MIDI-Datei ist.
  15. Datenträger nach Anspruch 13, wobei das digitale Format ein MusicXML-Format ist, und die Musikdatei eine MusicXML-Datei ist.
  16. Datenträger nach Anspruch 13, wobei in dem digitalen Format eine absolute Tonlänge kodiert ist, und wobei die Tonlänge derart bestimmt ist, dass durch die Musikdatei repräsentierte Musikstück und das durch die Audiodatei repräsentierte Musikstück synchron sind, wenn diese in Schritt f) gleichzeitig wiedergegeben werden.
  17. Datenträger nach Anspruch 13, wobei in Schritt a) eine Synchronisationsdatei geladen wird, die Synchronisationsdaten enthält, die eine Zeitkorrelation zwischen den Musikdaten und den Audiodaten herstellen, wobei die Synchronisationsdaten von dem Tongenerator verwendet werden, wenn dieser die Musikdaten in Stimmtonsignale in Schritt c) transformiert.
  18. Datenträger nach Anspruch 13, wobei die Audiodatei eine unkomprimierte Datei gemäß dem Wave Form Audio File Format (WAVE) oder dem Compact Disc Digital Audio Format (CDDA) ist.
  19. Datenträger nach Anspruch 13, wobei die Audiodatei eine komprimierte Datei Datei gemäß einem der folgenden Formate ist: MP3-Format, Advanced Audio Coding Format (AAC), Free Lossless Audio Codec Format (FLAC) und Theora.
  20. Datenträger nach Anspruch 13, wobei die Musikdaten Tonlautstärkedaten umfassen, und wobei, wenn die Stimmtonsignale und die Audiotonsignale in Schritt e) gemischt werden, die Tonlautstärkedaten abhängig von der Lautstärke der Audiotonsignale verändert werden.
  21. Datenträger nach Anspruch 20, wobei die Lautstärke der Stimmtonsignale mit Erhöhung der Lautstärke der Audiotonsignale erhöht wird.
  22. Datenträger nach Anspruch 13, wobei die Audiodatei in einer Multimedia-Containerdatei enthalten ist, die auch eine Videodatei enthält.
  23. Datenträger nach Anspruch 13, wobei das elektronische Gerät (10) ein Tablet-Computer ist.
DE202015006043.9U 2014-09-05 2015-09-01 Signalfolge und Datenträger mit einem Computerprogramm zur Wiedergabe eines Musikstücks Expired - Lifetime DE202015006043U1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP14003079 2014-09-05
EP14003079.2 2014-09-05

Publications (1)

Publication Number Publication Date
DE202015006043U1 true DE202015006043U1 (de) 2015-10-07

Family

ID=51518510

Family Applications (1)

Application Number Title Priority Date Filing Date
DE202015006043.9U Expired - Lifetime DE202015006043U1 (de) 2014-09-05 2015-09-01 Signalfolge und Datenträger mit einem Computerprogramm zur Wiedergabe eines Musikstücks

Country Status (2)

Country Link
US (1) US9601029B2 (de)
DE (1) DE202015006043U1 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112669796A (zh) * 2020-12-29 2021-04-16 西交利物浦大学 基于人工智能的音乐转乐谱的方法及装置
US11922911B1 (en) * 2022-12-02 2024-03-05 Staffpad Limited Method and system for performing musical score

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015141260A1 (ja) * 2014-03-17 2015-09-24 株式会社河合楽器製作所 手書き音楽記号認識装置およびプログラム
US10002541B1 (en) * 2016-12-05 2018-06-19 Berggram Development Oy Musical modification method
US10460709B2 (en) 2017-06-26 2019-10-29 The Intellectual Property Network, Inc. Enhanced system, method, and devices for utilizing inaudible tones with music
US11030983B2 (en) 2017-06-26 2021-06-08 Adio, Llc Enhanced system, method, and devices for communicating inaudible tones associated with audio files
US10460712B1 (en) * 2018-12-10 2019-10-29 Avid Technology, Inc. Synchronizing playback of a digital musical score with an audio recording
CN110444185B (zh) * 2019-08-05 2024-01-12 腾讯音乐娱乐科技(深圳)有限公司 一种音乐生成方法及装置
US11017751B2 (en) * 2019-10-15 2021-05-25 Avid Technology, Inc. Synchronizing playback of a digital musical score with an audio recording
CN115273866B (zh) * 2022-06-23 2024-05-10 天水师范学院 一种音频转化方法、装置、及存储介质

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7239320B1 (en) 1999-06-30 2007-07-03 Musicnotes, Inc. System and method for transmitting interactive synchronized graphics

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5690496A (en) 1994-06-06 1997-11-25 Red Ant, Inc. Multimedia product for use in a computer for music instruction and use
US7297856B2 (en) * 1996-07-10 2007-11-20 Sitrick David H System and methodology for coordinating musical communication and display
US7423213B2 (en) * 1996-07-10 2008-09-09 David Sitrick Multi-dimensional transformation systems and display communication architecture for compositions and derivations thereof
US6084168A (en) * 1996-07-10 2000-07-04 Sitrick; David H. Musical compositions communication system, architecture and methodology
US6169239B1 (en) * 1999-05-20 2001-01-02 Doreen G. Aiardo Method and system for visually coding a musical composition to indicate musical concepts and the level of difficulty of the musical concepts
US20010037719A1 (en) * 2000-05-03 2001-11-08 Gardner Gary L. Digital sheet music display system
US6696631B2 (en) * 2001-05-04 2004-02-24 Realtime Music Solutions, Llc Music performance system
US7323629B2 (en) * 2003-07-16 2008-01-29 Univ Iowa State Res Found Inc Real time music recognition and display system
JP4107212B2 (ja) 2003-09-30 2008-06-25 ヤマハ株式会社 楽曲再生装置
EP1544845A1 (de) 2003-12-18 2005-06-22 Telefonaktiebolaget LM Ericsson (publ) Kodierung und Dekodierung von Multimedia Information in Midi Format
US7985912B2 (en) * 2006-06-30 2011-07-26 Avid Technology Europe Limited Dynamically generating musical parts from musical score
US20080196575A1 (en) * 2007-02-16 2008-08-21 Recordare Llc Process for creating and viewing digital sheet music on a media device
US8378194B2 (en) * 2009-07-31 2013-02-19 Kyran Daisy Composition device and methods of use
US8445766B2 (en) * 2010-02-25 2013-05-21 Qualcomm Incorporated Electronic display of sheet music
US8338684B2 (en) * 2010-04-23 2012-12-25 Apple Inc. Musical instruction and assessment systems
CN102682752B (zh) * 2011-03-07 2014-11-05 卡西欧计算机株式会社 乐谱信息生成装置及其方法、乐音生成控制装置及其方法
US8933312B2 (en) * 2012-06-01 2015-01-13 Makemusic, Inc. Distribution of audio sheet music as an electronic book
WO2014008209A1 (en) * 2012-07-02 2014-01-09 eScoreMusic, Inc. Systems and methods for music display, collaboration and annotation
US20150095822A1 (en) * 2012-07-02 2015-04-02 eScoreMusic, Inc. Systems and methods for music display, collaboration, annotation, composition, and editing
US9202448B2 (en) * 2013-08-27 2015-12-01 NiceChart LLC Systems and methods for creating customized music arrangements

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7239320B1 (en) 1999-06-30 2007-07-03 Musicnotes, Inc. System and method for transmitting interactive synchronized graphics

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112669796A (zh) * 2020-12-29 2021-04-16 西交利物浦大学 基于人工智能的音乐转乐谱的方法及装置
US11922911B1 (en) * 2022-12-02 2024-03-05 Staffpad Limited Method and system for performing musical score

Also Published As

Publication number Publication date
US20160071429A1 (en) 2016-03-10
US9601029B2 (en) 2017-03-21

Similar Documents

Publication Publication Date Title
DE202015006043U1 (de) Signalfolge und Datenträger mit einem Computerprogramm zur Wiedergabe eines Musikstücks
DE69621488T2 (de) Karaokevorrichtung mit Erzegung von einer an eine Gesangstimme zugefügten synthetischen Stimme
DE69515742T2 (de) Digitale Bearbeitung von Audio-Mustern
DE202020005830U1 (de) Vorrichtung zum Zerlegen, Rekombinieren und Abspielen von Audiodaten
DE69623318T2 (de) Verfahren und vorrichtung zur interaktiven bildung von neuen bearbeitungen von musikstücken
DE60308370T2 (de) Musikalisches notierungssystem
DE602004010069T2 (de) Gerät und verfahren zur vertonung von sprachlauten, sowie tastatur zur bedienung eines solchen gerätes
DE69632748T2 (de) Bearbeitungssystem für Musikdaten
DE112013005807T5 (de) Vorrichtung und Verfahren zur Erzeugung einer Echtzeitmusikbegleitung
DE69616099T2 (de) Karaokevorrichtung, wobei die Gesangstimme durch eine Modellstimme verändert wird
Berweck It worked yesterday: On (re-) performing electroacoustic music
EP1105867B1 (de) Verfahren und vorrichtungen zur koartikulationsgerechten konkatenation von audiosegmenten
Iverson The Emergence of Timbre: Ligeti's Synthesis of Electronic and Acoustic Music in Atmosphères
DE60006131T2 (de) Verfahren und vorrichtung zur erzeugung von improvisierter musik
US20060177072A1 (en) Knowledge acquisition system, apparatus and process
DE112021006957T5 (de) Datenverarbeitungsvorrichtung, Datenverarbeitungsverfahren und Programm
Merritt et al. Who makes what sound? Supporting real-time musical improvisations of electroacoustic ensembles
Peña et al. Raw harmonies: Transmediation through raw data
EP1110203A1 (de) Vorrichtung und verfahren zur digitalen sprachbearbeitung
JP4456088B2 (ja) スコアデータ表示装置およびプログラム
Mayor et al. Audio transformation technologies applied to video games
DE2410873C3 (de) Vorrichtung zum Einstudieren von Musikstücken
DE69123109T2 (de) Verfahren zum mehrzweckigen Playback-Gebrauch eines Videobandes oder ähnlichen Mittels für die Reproduktion der Instrumentalmusik
DE3873873T2 (de) Verfahren und vorrichtung zur erlangung und wiedergabe von komplexen musiktoenen.
DE102017003408A1 (de) Verfahren und Bedienhilfe zum Spielen eines Musikstücks

Legal Events

Date Code Title Description
R207 Utility model specification
R150 Utility model maintained after payment of first maintenance fee after three years
R151 Utility model maintained after payment of second maintenance fee after six years
R158 Lapse of ip right after 8 years