JP5589741B2 - Music editing apparatus and program - Google Patents
Music editing apparatus and program Download PDFInfo
- Publication number
- JP5589741B2 JP5589741B2 JP2010229845A JP2010229845A JP5589741B2 JP 5589741 B2 JP5589741 B2 JP 5589741B2 JP 2010229845 A JP2010229845 A JP 2010229845A JP 2010229845 A JP2010229845 A JP 2010229845A JP 5589741 B2 JP5589741 B2 JP 5589741B2
- Authority
- JP
- Japan
- Prior art keywords
- attribute
- note
- pitch
- notes
- processing target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Electrophonic Musical Instruments (AREA)
Description
本発明は楽曲を示すデータを編集する技術に関する。 The present invention relates to a technique for editing data indicating music.
楽曲のデータを編集する種々の技術が知られている。特許文献1は、テキスト情報を解析してピッチを変化させる技術を開示している。特許文献2は、楽器の画像の上でマウスをドラッグするとビブラート等の特殊効果を音色に加えることを開示している。特許文献3は、正規化したビブラート波形にエンベロープ波形を乗算し、ビブラート波形として用いる技術を開示している。特許文献4は、ポインティング操作子のドラッグ操作に応じてパラメータ値をアサインする技術を開示している。
Various techniques for editing music data are known.
特許文献1〜4の技術によっても、音符に対する音楽的な修飾と直感的な操作で入力することは難しかった。
本発明は、音符に対する音楽的な修飾を直感的な操作で入力することを可能にする技術を提供する。
Even with the techniques of
The present invention provides a technique that enables a musical modification to a note to be input by an intuitive operation.
本発明は、複数の音符の各々について、当該音符の発音期間の始期、音高、音長、および当該音符に対する音楽的な修飾を示す付加属性を含む属性を記憶する属性記憶手段と、
音高を表す第1軸および時間を表す第2軸を有する座標系に従って、前記複数の音符の各々の発音期間の始期、音高、および音長を表す図形を表示手段の画面に表示させる表示制御手段と、前記画面上の位置を検出する位置検出手段と、前記位置検出手段により検出された位置の軌跡の始点が、前記複数の音符の各々に相当する領域内になかった場合、前記始点に応じた発音期間の始期を有する新たな音符を処理対象音符として、前記軌跡に応じて、前記処理対象音符の付加属性を前記属性記憶手段に追加する属性変更手段と、前記属性記憶手段に記憶されている属性を用いて、前記複数の音符に対応する楽曲データを生成するデータ生成手段とを有する楽曲編集装置を提供する。
The present invention, for each of a plurality of notes, an attribute storage means for storing attributes including additional attributes indicating the beginning of the sound generation period of the notes, the pitch, the tone length, and musical modifications to the notes;
A display for displaying on the screen of the display means a graphic representing the beginning, pitch, and length of the pronunciation period of each of the plurality of notes according to a coordinate system having a first axis representing pitch and a second axis representing time. A control means; a position detection means for detecting a position on the screen; and a start point of a locus of a position detected by the position detection means when the start point is not within an area corresponding to each of the plurality of notes. A new note having the beginning of the pronunciation period according to the processing target note, an attribute changing unit for adding an additional attribute of the processing target note to the attribute storage unit according to the trajectory, and a storage in the attribute storage unit There is provided a music editing apparatus having data generation means for generating music data corresponding to the plurality of notes using the attribute that is set.
また、本発明は、複数の音符の各々について、当該音符の発音期間の始期、音高、音長、および当該音符に対する音楽的な修飾を示す付加属性を含む属性を記憶する属性記憶手段と、音高を表す第1軸および時間を表す第2軸を有する座標系に従って、前記複数の音符の各々の発音期間の始期、音高、および音長を表す図形を表示手段の画面に表示させる表示制御手段と、前記画面上の位置を検出する位置検出手段と、前記位置検出手段により検出された位置の軌跡が、前記複数の音符のうち一の音符に対応する領域とあらかじめ決められた条件を満たした場合、前記軌跡に応じて、前記属性記憶手段に記憶されている前記一の音符の付加属性を変更する属性変更手段と、前記属性記憶手段に記憶されている属性を用いて、前記複数の音符に対応する楽曲データを生成するデータ生成手段とを有する楽曲編集装置を提供する。 Further, the present invention provides, for each of a plurality of notes, an attribute storage means for storing an attribute including an additional attribute indicating the beginning of a sound generation period of the note, a pitch, a sound length, and a musical modification to the note; A display for displaying on the screen of the display means a graphic representing the beginning, pitch, and length of the pronunciation period of each of the plurality of notes according to a coordinate system having a first axis representing pitch and a second axis representing time. The control means, the position detection means for detecting the position on the screen, and the locus of the position detected by the position detection means has a predetermined condition as a region corresponding to one note among the plurality of notes. When satisfied, using the attribute change means for changing the additional attribute of the one note stored in the attribute storage means and the attributes stored in the attribute storage means according to the trajectory, To the note of Providing the music editing apparatus and a data generating means for generating the music data to be compliant.
好ましい態様において、前記付加属性は、それぞれ異なる音楽的修飾を示す複数のパラメータを含み、前記属性変更手段は、前記一の音符について、前記複数のパラメータの中から前記軌跡に応じて選択された一のパラメータの値を、前記軌跡に応じて変更してもよい。 In a preferred aspect, the additional attribute includes a plurality of parameters indicating different musical modifications, and the attribute changing means selects one of the plurality of parameters according to the trajectory from the plurality of parameters. The parameter value may be changed according to the locus.
さらに、本発明は、コンピュータを、複数の音符の各々について、当該音符の発音期間の始期、音高、音長、および当該音符に対する音楽的な修飾を示す付加属性を含む属性を記憶する属性記憶手段と、音高を表す第1軸および時間を表す第2軸を有する座標系に従って、前記複数の音符の各々の発音期間の始期、音高、および音長を表す図形を表示手段の画面に表示させる表示制御手段と、前記画面上の位置を検出する位置検出手段と、前記位置検出手段により検出された位置の軌跡の始点が、前記複数の音符の各々に相当する領域内になかった場合、前記始点に応じた発音期間の始期を有する新たな音符を処理対象音符として、前記軌跡に応じて、前記処理対象音符の付加属性を前記属性記憶手段に追加する属性変更手段と、前記属性記憶手段に記憶されている属性を用いて、前記複数の音符に対応する楽曲データを生成するデータ生成手段として機能させるためのプログラムを提供する。 Further, the present invention provides an attribute storage for storing an attribute including an additional attribute indicating the beginning of a note generation period, a pitch, a tone length, and musical modification of the note for each of a plurality of notes. In accordance with the means and a coordinate system having a first axis representing the pitch and a second axis representing the time, a graphic representing the beginning, pitch, and length of the pronunciation period of each of the plurality of notes is displayed on the screen of the display means. When the display control means to be displayed, the position detection means for detecting the position on the screen, and the start point of the locus of the position detected by the position detection means are not within the region corresponding to each of the plurality of notes An attribute changing unit for adding an additional attribute of the processing target note to the attribute storage unit according to the trajectory, with a new note having a beginning of a pronunciation period corresponding to the starting point as a processing target note, and the attribute recording Using the attributes stored in the device, to provide a program for functioning as a data generating means for generating music data corresponding to the multiple notes.
さらに、本発明は、コンピュータを、複数の音符の各々について、当該音符の発音期間の始期、音高、音長、および当該音符に対する音楽的な修飾を示す付加属性を含む属性を記憶する属性記憶手段と、音高を表す第1軸および時間を表す第2軸を有する座標系に従って、前記複数の音符の各々の発音期間の始期、音高、および音長を表す図形を表示手段の画面に表示させる表示制御手段と、前記画面上の位置を検出する位置検出手段と、前記位置検出手段により検出された位置に応じて前記複数の音符の中から選択された一の音符を処理対象音符として、前記位置検出手段により検出された位置の軌跡に応じて、前記属性記憶手段に記憶されている前記処理対象音符の付加属性を変更する属性変更手段と、前記属性記憶手段に記憶されている属性を用いて、前記複数の音符に対応する楽曲データを生成するデータ生成手段として機能させるためのプログラムを提供する。 Further, the present invention provides an attribute storage for storing an attribute including an additional attribute indicating the beginning of a note generation period, a pitch, a tone length, and musical modification of the note for each of a plurality of notes. In accordance with the means and a coordinate system having a first axis representing the pitch and a second axis representing the time, a graphic representing the beginning, pitch, and length of the pronunciation period of each of the plurality of notes is displayed on the screen of the display means. Display control means for displaying, position detecting means for detecting a position on the screen, and one note selected from the plurality of notes according to the position detected by the position detecting means as a processing target note , Attribute changing means for changing an additional attribute of the processing target note stored in the attribute storage means according to the locus of the position detected by the position detection means, and stored in the attribute storage means Using the attribute to provide a program for functioning as a data generating means for generating music data corresponding to the multiple notes.
本発明によれば、音符に対する音楽的な修飾を一度の直感的な操作で入力することが可能になる。 According to the present invention, it is possible to input musical modifications to musical notes with a single intuitive operation.
1.構成
図1は、一実施形態に係る音声合成装置1の機能構成を示すブロック図である。音声合成装置1は、文字列および音符列を含む楽譜データに基づいて音声を合成し、合成された音声を出力する装置であり、楽曲編集装置の一例である。音声合成装置1は、大別すると、楽譜データを編集する機能と、楽譜データに基づいて音声を合成する機能とを有する。より詳細には、音声合成装置1は、記憶手段11と、表示制御手段12と、表示手段13と、位置検出手段14と、属性変更手段15と、音声合成手段16と、音声出力手段17とを有する。記憶手段11は、素片ライブラリと、歌詞(文字列)と、楽譜データとを記憶する。楽譜データは、複数の音符の各々について、その音符の発音期間の始期、音高、および音長、並びに文字列のうちその音符に割り当てられた文字を含む属性を有する。表示制御手段12は、音高を表す第1軸および時間を表す第2軸を有する座標系に従って、複数の音符の各々の発音期間の始期、音高、および音長を表す図形を表示手段13の画面に表示させる。表示手段13は、表示制御手段12の制御下で画像を表示する。位置検出手段14は、画面上の位置を検出する。属性変更手段15は、位置検出手段14により検出された位置の軌跡の始点が、音符列の各々に相当する領域内になかった場合、始点に応じた発音期間の始期を有する新たな音符を処理対象音符として、軌跡に応じて、処理対象音符の付加属性を記憶手段11に追加する。音声合成手段16(データ生成手段の一例)は、楽譜データに従って、素片ライブラリに含まれるデータを用いて音声を合成する。音声出力手段17は、合成された音声を出力する。この例で、付加属性は、それぞれ異なる音楽的修飾を示す複数のパラメータを含む。属性変更手段15は、処理対象音符について、複数のパラメータの中から軌跡に応じて選択された一のパラメータの値を、軌跡に応じて変更する。
1. Configuration FIG. 1 is a block diagram showing a functional configuration of a
図2は、素片ライブラリを例示する図である。素片ライブラリは、例えば人間の声からサンプリングした音楽素片(歌声の断片)を含むデータベースである。素片ライブラリは、複数の歌唱者の各々に対応した個人別データベースに分かれている。図2に示される例では、素片ライブラリはそれぞれ3人の歌唱者に対応する個人別データベース303a〜cを含んでいる。各歌唱者に対応した個人別データベース303には、その歌唱者の歌唱音声波形から採取された素片データが複数含まれている。素片データとは、歌唱音声波形から、音声学的な特徴部分を切り出して符号化した音声データである。
FIG. 2 is a diagram illustrating a fragment library. The segment library is a database including musical segments (singing voice fragments) sampled from, for example, a human voice. The segment library is divided into individual databases corresponding to each of a plurality of singers. In the example shown in FIG. 2, the segment library includes
ここで、素片データについて、「さいた」という歌詞を歌唱する場合を例として説明する。「さいた」という歌詞は発音記号で「saita」と表される。発音記号「saita」で表される音声の波形を特徴により分析すると、「s」の音の立ち上がり部分→「s」の音→「s」の音から「a」の音への遷移部分→「a」の音・・・と続き、「a」の音の減衰部分で終わる。それぞれの素片データは、これらの音声学的な特徴部分に対応する音声データである。 Here, the case of singing the lyrics of “sai” with respect to the segment data will be described as an example. The lyrics “Saita” are expressed by phonetic symbols “saita”. When analyzing the waveform of the sound represented by the phonetic symbol “saita”, the rising portion of the sound of “s” → the sound of “s” → the transition portion from the sound of “s” to the sound of “a” → “ The sound of “a” is continued, and ends with the attenuation part of the sound of “a”. Each piece of data is audio data corresponding to these phonetic features.
以下の説明において、ある発音記号で表される音の立ち上がり部分に対応する素片データを、その発音記号の前に「#」を付けて、「#s」のように表す。また、ある発音記号で表される音の減衰部分に対応する素片データを、その発音記号の後に「#」を付けて、「a#」のように表す。また、ある発音記号で表される音から他の発音記号で表される音への遷移部分に対応する素片データを、それらの発音記号の間に「−」を入れて、「s−a」のように表す。素片ライブラリの素片データ群3030には、歌唱者が通常に歌唱した場合の歌唱音声波形から採取された、あらゆる音および音の組み合わせに関する素片データが格納されている。素片データ群3031H〜Lには、それぞれ、歌唱者が強いアクセント、中程度のアクセント、および弱いアクセントを付加して歌唱した場合の歌唱音声波形から採取された、あらゆる音および音の組み合わせに関する素片データが格納されている。素片データ群3032H〜Lには、それぞれ、歌唱者が強いレガート、中程度のレガート、および弱いレガートを付加して歌唱した場合の歌唱音声波形から採取された、あらゆる音および音の組み合わせに関する素片データが格納されている。
In the following description, segment data corresponding to a rising portion of a sound represented by a phonetic symbol is represented as “#s” by adding “#” in front of the phonetic symbol. The segment data corresponding to the sound attenuation part represented by a phonetic symbol is represented as “a #” by adding “#” after the phonetic symbol. Also, segment data corresponding to a transition portion from a sound represented by a certain phonetic symbol to a sound represented by another phonetic symbol is inserted between those phonetic symbols, and “sa” is entered. ". The
図3は、楽譜データを例示する図である。楽譜データには、歌唱演奏を表すパートデータが、1または複数含まれている。楽譜データには、このパートデータの他に、演奏で用いられる拍子およびテンポを示すデータ、および分解能を示すデータが含まれている。パートデータは、複数の音符のそれぞれにつき、基本属性および付加属性を示すデータの組であるノートデータを含んでいる。基本属性データは、音の発音を指示するにあたり不可欠な属性を示すデータであり、音高、発音期間(発音期間の始期および終期)、および発音記号を含んでいる。付加属性データは、音に対し表情付け等の指示、すなわち音楽的な修飾を与えるためのデータであり、この例では、音符と歌詞との対応関係、音の強さ、アクセントの強さ、レガートの強さ、ビブラートの強さ(深さ)、ビブラート期間を含んでいる。 FIG. 3 is a diagram illustrating score data. The score data includes one or more part data representing a singing performance. In addition to the part data, the musical score data includes data indicating the time and tempo used in the performance, and data indicating the resolution. The part data includes note data which is a set of data indicating basic attributes and additional attributes for each of a plurality of notes. The basic attribute data is data indicating attributes indispensable for instructing sound generation, and includes a pitch, a sound generation period (the start and end of the sound generation period), and a sound generation symbol. The additional attribute data is data for giving an expression to the sound, such as giving a musical modification. In this example, the correspondence between the note and the lyrics, the strength of the sound, the strength of the accent, the legato Strength, vibrato strength (depth), and vibrato period.
次に、音声合成手段16による音声合成処理の概要を説明する。ここでは、楽譜データに含まれる「sakura」という発音記号列に対する処理を例として説明する。音声合成手段16は、発音記号列を素片データの単位に分解する。例えば、「sakura」は、「#s」、「s」、「s−a」、「a」、「a−k」、「k」、「k−u」、「u」、「u−r」、「r」、「r−a」、「a」、および「a#」に分解される。音声合成手段16は、分解された発音記号列のそれぞれに対応する素片データを、素片データ群3030から読み出す。音声合成手段16は、読み出した素片データに対し、各音符により示される音高に基づき、音高調整を行う。さらに音声合成手段16は、素片データに対し、付加属性データに応じた加工を施す。音声合成手段16は、音高調整を行った素片データに対し、音符列により示される発音期間に基づき、素片の継続時間の調整を施す。音声合成手段16は、継続時間の調整を行った素片データに対し、音量調節を行う。音声合成手段16は、音量調節を行った素片データを順番に接合し、合成音声データを生成する。音声合成手段16は、生成した合成音声データを、記憶手段11に記憶する。
Next, the outline of the speech synthesis process by the
ユーザが楽曲の再生指示を入力し、位置検出手段14がこれを取得すると、音声出力手段17は、記憶手段11に記憶されている合成音声データを読み出し、これに応じた音声を出力する。その結果、ユーザは楽譜データにより示される歌唱演奏を聴くことができる。
When the user inputs a music playback instruction and the
図4は、音声合成装置1のハードウェア構成を示す図である。この例で、音声合成装置1はコンピュータであり、CPU(Central Processing Unit)101と、ROM(Read Only Memory)102と、RAM(Random Access Memory)103と、記憶部104と、入力部105と、表示部106と、DAC(Digital Analog Converter)107と、アンプ108と、スピーカ109とを有する。CPU101は汎用的なデータ処理を行うマイクロプロセッサである。ROM102はBIOS(Basic Input/Output System)等の制御用プログラムを格納する不揮発性メモリである。RAM103はデータを記憶する揮発性メモリである。記憶部104は、不揮発性の記憶装置、例えばHDD(Hard Disk Drive)またはフラッシュメモリである。記憶部104は、OS(Operating System)、アプリケーションプログラム、および各種のデータを記憶する。CPU101は、BIOS、OS、またはアプリケーションプログラムに従い、音声合成装置1の他の構成部を制御する。
FIG. 4 is a diagram illustrating a hardware configuration of the
入力部105は、指示またはデータを入力するための装置である。表示部106は、液晶ディスプレイまたは有機EL(Electro-Luminescence)ディスプレイ等の表示装置と、表示装置を駆動する駆動回路とを有し、文字および図形等を表示する。この例で、入力部105と表示部106とを一体とした構成として、タッチパネル(タッチスクリーン)が用いられる。DAC107は、合成音声データ等の音声データを取得し、これをアナログ音声信号に変換する。DAC107は、アナログ音声信号をアンプ108に出力する。アンプ108は、アナログ音声信号を増幅し、スピーカ109に出力する。スピーカ109は、アナログ音声信号に応じた音波を出力する。
The
この例で、記憶部104は、コンピュータを音声合成装置として機能させるためのアプリケーションプログラム(以下このプログラムを「音声合成アプリケーション」という)を記憶している。CPU101がこの音声合成アプリケーションを実行することにより、音声合成装置1に図1に示される機能が実装される。音声合成アプリケーションを実行しているCPU101は、表示制御手段12、位置検出手段14、属性変更手段15、および音声合成手段16の一例である。ROM102、RAM103、または記憶部104は、記憶手段11の一例である。CPU101の制御下にある表示部106は、表示手段13の一例である。CPU101の制御下にあるDAC107、アンプ108、およびスピーカ109は、音声出力手段17の一例である。
In this example, the
図5は、音声合成装置1の外観を例示する図である。この例で、音声合成装置1はタッチパネル式の情報表示装置であり、筐体110と、タッチパネル111とを有する。筐体110にはスピーカ109およびタッチパネル111が設けられている。タッチパネル111は、表示装置の画面上に光透過性のタッチセンサが積層された構造を有している。ユーザは、表示されている画像を見ながらタッチパネル111に指を触れたり、タッチパネル111上を指でなぞったりすることにより、音声合成装置1に対して指示を入力する。すなわち、タッチパネル111は、入力部105と表示部106とを一体としたものである。
FIG. 5 is a diagram illustrating the appearance of the
2.動作
図6は、音声合成アプリケーションが実行されているときの画面を例示する図である。この画面は、入力ボックス201、ウインドウ202、ガイド図形203、ノート図形204、ノート図形205、ノート図形206、ノート図形207、ノート図形208、再生ボタン209、および停止ボタン210を含む。入力ボックス201は、歌詞を入力および表示するための領域である。この例では、「あさがくるひるがくるよるがくる」という文字列が歌詞として入力されている。ウインドウ202は、音高を表す第1軸(この例では縦軸)および時間を表す第2軸(横軸)を有する座標系に従って、音符列を入力および表示するための領域である。音高軸は、図6において上向きが正方向(音が高くなる)である。時間軸は、図6において右向きが正方向(時間が後になる)である。ガイド図形203は、音高を示す図形であり、ウインドウ202の音高軸に沿って表示される。この例では、ガイド図形203としてピアノの鍵盤を模した図形が用いられる。このことから、ウインドウ202を用いた音符列の表示を「ピアノロール表示」という。ガイド図形203は、音高を特定する画像(この例では、「C3」および「C4」という文字)を含む。ノート図形204−208は、音符列を構成する各音符を示す図形である。この例でノート図形204−208は、長方形の形状を有しており、左端が発音期間の始期を、右端が発音器官の終期を示している。ノート図形204−208の縦方向の位置は音高を示している。ノート図形204−208の内部には、その音符に割り当てられた文字(歌詞の一部)が表示されている。この例で、ノート図形204−208が示す音符には、それぞれ、「あ」、「さ」、「が」、「く」、および「る」という文字が割り当てられている。再生ボタン209は、ピアノロール表示されている楽曲の再生を指示するためのボタンである。停止ボタン210は、楽曲の再生を停止するためのボタンである。
2. Operation FIG. 6 is a diagram illustrating a screen when the speech synthesis application is being executed. This screen includes an
図7は、音声合成装置1の動作を示すフローチャートである。図7のフローは、例えば、音声合成アプリケーションの起動がユーザにより指示されたことを契機として開始する。音声合成アプリケーションが起動されると、図6に例示した画面が表示される。ステップS100において、CPU101は、ウインドウ202内においてタッチを検出したか判断する。詳細には以下のとおりである。タッチパネル111は、ユーザがタッチした位置を示す信号をCPU101に出力する。CPU101は、タッチパネル111から出力された信号が示す位置が、ウインドウ202内に相当する位置であるか判断する。タッチを検出していないと判断された場合(S100:NO)、CPU101は、タッチを検出するまで待機する。タッチを検出したと判断された場合(S100:YES)、CPU101は、処理をステップS110に移行する。
FIG. 7 is a flowchart showing the operation of the
ステップS110において、CPU101は、処理対象となる一の音符(以下「処理対象音符」という)を特定する。処理対象音符は、楽譜データに含まれる音符列(入力済みの音符)の中から選ばれた一の音符であるか、または楽譜データに含まれていない新たな音符である。処理対象音符の特定は、例えば以下のように行われる。CPU101は、タッチされた位置が、ウインドウ202に表示されているノート図形のいずれかに相当する位置(すなわちノート図形に重なる位置)であった場合、CPU101は、そのノート図形が示す音符を処理対象音符として特定する。例えば、図6の画面でノート図形205をユーザがタッチした場合、CPU101は、ノート図形205が示す音符(歌詞「さ」が割り当てられている)を処理対象音符として特定する。タッチされた位置が、ウインドウ202に表示されているノート図形のいずれかにも相当しない位置であった場合、CPU101は、新たな音符を処理対象音符として特定する。この場合、CPU101は、新たな音符の属性を示すデータを生成し、RAM103に記憶する。新たな音符の属性は、決められた初期値に設定される。
In step S110, the
図8は、新たな音符が追加された画面を例示する図である。図8には、ユーザが、時間軸においてノート図形204およびノート図形205の間に位置し、音高軸において「D3」に相当する位置を指Fでタッチした例が示されている。このときCPU101は、新たな音符を示すノート図形211を、ウインドウ202内においてユーザがタッチしている位置に応じた位置に表示する。CPU101は、タッチされた位置を、新たな音符の発音期間の始期として設定する。新たな音符のノート図形の時間軸方向の幅は、決められた初期値(例えば四分音符)に設定される。処理対象音符として新たな音符が追加されると、CPU101は、処理対象音符に対して歌詞を割り当てる。詳細には、まず、CPU101は、処理対象音符の時間軸上の位置、特に他の音符との前後関係に基づいて、処理対象音符の順番を特定する。図8の例では、処理対象音符の位置がノート図形204およびノート図形205の間に指定されているので、CPU101は、処理対象音符が第2音であると特定する。次に、CPU101は、特定された順番に基づいて、処理対象音符に割り当てるべき文字を決定する。この例で、処理対象音符は第2音なので、CPU101は、歌詞「あさがくるひるがくるよるがくる」のうち2文字目「さ」を処理対象音符に割り当てる。さらに、CPU101は、新たな文字の割り当てに伴って、他の音符への文字の割り当てを変更する。処理対象音符が第2音になったので、従前の第2音は第3音となり、以下順番が1つずつ繰り下がる。この例では、ノート図形205が示す音に割り当てられる文字が「さ」から「が」に変更される。他の音符についても同様である。CPU101は、この変更後の、音符と歌詞との対応関係を示すデータをRAM103に記憶する。
FIG. 8 is a diagram illustrating a screen on which a new note is added. FIG. 8 shows an example in which the user is located between the note graphic 204 and the note graphic 205 on the time axis and touches the position corresponding to “D3” with the finger F on the pitch axis. At this time, the
再び図7を参照する。ステップS120において、CPU101は、ユーザがタッチした位置の軌跡を記録する。詳細には以下のとおりである。CPU101は、決められた時間間隔で、タッチパネル111からタッチ位置を示す座標を取得する。CPU101は、取得した座標を、RAM103内の記憶領域に順番に書き込む。
Refer to FIG. 7 again. In step S120, the
ステップS130において、CPU101は、ウインドウ202内におけるタッチが検出されなくなったか(すなわちタッチ非検出状態になったか)判断する。ユーザがタッチパネル111をタッチしていないとき、タッチパネル111は、タッチされていないことを示す信号をCPU101に出力する。タッチが検出された場合(すなわち、ステップS100でタッチが検出されてから継続してタッチが検出された場合)(S130:NO)、CPU101は、処理を再びステップS120に移行する。すなわち、ステップS100でタッチが検出されてから継続してタッチが検出され続けている間、CPU101は、軌跡を記録し続ける。タッチが検出されなかった場合(S130:YES)、CPU101は、処理をステップS140に移行する。
In step S <b> 130, the
タッチが検出されている間、CPU101は、軌跡に応じて処理対象音符のノート画像を変化させる。図8の例で、ユーザが指Fをタッチパネル111にタッチしたまま時間軸正方向に移動させる(いわゆる「ドラッグ」する)と、CPU101は、処理対象音符の発音期間の始期を固定したまま、終期を後に変更する。すなわち、ノート図形211の左端は固定したまま右端を時間軸正方向に移動させる(すなわち、ノート図形211を時間軸正方向に伸ばす)。この間、CPU101は、処理対象音符の発音期間の終期を示すデータをRAM103に書き込み、更新し続ける。既に入力済みの音符が処理対象音符である場合、CPU101は、タッチを検出していない状態(以下「非タッチ状態」という)から最初にタッチを検出したときにはノート図形は変化させず、タッチを検出してからドラッグを検出したときに、軌跡に応じて発音期間の終期を変更する。
While the touch is detected, the
ステップS140において、CPU101は、記録されている軌跡に基づいて処理対象となるパラメータすなわち楽譜データにおける付加属性を決定する。詳細には以下のとおりである。この例では、処理対象となる付加属性は、音の強さ、またはビブラートの強さである。CPU101は、RAM103に記録されている軌跡から、この軌跡の特徴を示すパラメータ(以下「特徴パラメータ」という)を抽出する。この例では、始点の座標、終点の座標、極値の数、および振幅(極値のうち最大値と最少値との差)が、特徴パラメータとして抽出される。記憶部104は、特徴パラメータが満たすべき条件と付加属性とを対応させる情報を記憶している。この情報は、例えば以下の内容を示す。
(1)極値の数がしきい値(例えば4つ)以上であった場合、処理対象となる付加属性はビブラートの強さである。
(2)極値の数がしきい値未満であり、かつ、始点の音高と終点の音高との差がしきい値以上であった場合、処理対象となる付加属性は、音の強さである。
CPU101は、これらの条件をRAM103に記録されている軌跡に適用して、処理対象となる付加属性を決定する。軌跡がどの条件も満たさなかった場合、CPU101は、処理対象となる付加属性は無いと判断する。別の例で、軌跡がどの条件も満たさなかった場合、CPU101は、決められた(デフォルトの)付加属性を処理の対象とすることを決定してもよい。デフォルトの付加属性は、例えば、ユーザにより設定される。この場合、後述する付加属性の値の決定の際には、決められた値が用いられる。例えば、軌跡がどの条件も満たさなかった場合、CPU101は、ビブラートの強さおよび早さを決められた値に決定する。
In step S140, the
(1) When the number of extreme values is greater than or equal to a threshold value (for example, four), the additional attribute to be processed is the vibrato strength.
(2) If the number of extreme values is less than the threshold value and the difference between the pitch at the start point and the pitch at the end point is greater than or equal to the threshold value, the additional attribute to be processed is the sound intensity That's it.
The
図9は、軌跡、特徴パラメータ、および処理対象付加属性の対応関係を例示する図である。実際には軌跡として記録されるデータは点の集合であるが、ここでは分かりやすくするため線で示している。図9上段の例では、何度か上下する波のような軌跡が示されている。この軌跡から、5つの極値および振幅が特徴パラメータとして抽出される。極値の数がしきい値以上であるので、ビブラートの強さが処理対象の付加属性として決定される。図9下段の例では、右上がりの軌跡が示されている。この軌跡から極値は抽出されず、始点および終点の座標が特徴パラメータとして抽出される。始点の音高と終点の音高との差がしきい値以上であった場合、音の強さが処理対象の付加属性として決定される。 FIG. 9 is a diagram illustrating a correspondence relationship between a trajectory, a feature parameter, and a processing target additional attribute. Actually, the data recorded as the trajectory is a set of points, but here it is shown by lines for easy understanding. In the example in the upper part of FIG. 9, a trajectory like a wave that rises and falls several times is shown. From this locus, five extreme values and amplitudes are extracted as feature parameters. Since the number of extreme values is equal to or greater than the threshold value, the strength of vibrato is determined as an additional attribute to be processed. In the example in the lower part of FIG. 9, a locus that rises to the right is shown. Extreme values are not extracted from this locus, but the coordinates of the start point and end point are extracted as feature parameters. If the difference between the pitch at the start point and the pitch at the end point is equal to or greater than the threshold value, the sound intensity is determined as an additional attribute to be processed.
再び図7を参照する。ステップS150において、CPU101は、記録されている軌跡に基づいて処理対象のパラメータすなわち付加属性の値を決定する。詳細には以下のとおりである。この例では、記憶部104は、付加属性と、その値を決定する方法とを対応させる情報を記憶している。この情報は、例えば以下の内容を示す。
(1)ビブラートの強さが処理対象である場合、軌跡から特徴パラメータとして抽出された振幅に応じて、ビブラートの強さをL、M、またはHに決定する(振幅が小さい場合はL、大きい場合はH)。ビブラートの早さおよび始期は、決められた初期値が用いられる。
(2)音の強さが処理対象の場合、始点の音高と終点の音高との差に応じて、音の強さを決定する。なお図3の例では、単一の音について音の強さが一定であるデータが例示されているが、単一の音について音の強さは変化してもよい。図3にはそのような音は示されていないが、決められた書式に従って音の強さが記述される。
CPU101は、これらの条件を処理対象の軌跡に適用して、処理対象の付加属性の値を決定する。
Refer to FIG. 7 again. In step S150, the
(1) When the vibrato strength is a processing target, the vibrato strength is determined to be L, M, or H according to the amplitude extracted as a characteristic parameter from the trajectory (L is large when the amplitude is small, and large) H). A predetermined initial value is used for the speed and start of vibrato.
(2) When the sound intensity is a processing target, the sound intensity is determined according to the difference between the pitch at the start point and the pitch at the end point. In the example of FIG. 3, data with a constant sound intensity for a single sound is illustrated, but the sound intensity for a single sound may vary. Although such a sound is not shown in FIG. 3, the sound intensity is described according to a predetermined format.
The
ステップS160において、CPU101は、ステップS140およびS150の結果に応じて、記憶部104に記憶されている楽譜データを書き替える。また、CPU101は、RAM103に記憶されている発音期間の終期の値を、記憶部104に記憶されている楽譜データに書き込む。さらに、CPU101は、書き替えた楽譜データに応じて、ピアノロール表示を更新する。
In step S160, the
図10は、更新後の画面を例示する図である。図10は、図8で追加された新たな音符に対してビブラートが付加された例を示している。この例では、ノート図形211内に、ビブラートが付加されていることを示す記号が表示されている。この例では、ウインドウ202において非タッチ状態から最初にタッチが検出されたとき、CPU101は、タッチされた場所に応じて、処理対象音符を決定する。具体的には、ノート図形がタッチされた場合にはそのノート図形が示す音符が処理対象音符になり、ノート図形が無い場所がタッチされた場合には新たな音符が処理対象音符になる。これらいずれの場合でも、最初にタッチが検出されてから、非タッチ状態を経由せずそのままドラッグにより描かれた軌跡により、変更される付加属性およびその値が決定される。このように、音声合成装置1によれば、タッチパネル111をタッチして一連の軌跡を描く直感的な操作により、音符の長さとそれに対する音楽的な修飾とを入力することができる。
FIG. 10 is a diagram illustrating the updated screen. FIG. 10 shows an example in which vibrato is added to the new note added in FIG. In this example, a symbol indicating that vibrato is added is displayed in the
3.他の実施形態
本発明は上述の実施形態に限定されるものではなく、種々の変形実施が可能である。以下、変形例をいくつか説明する。以下の変形例のうち2つ以上のものが組み合わせて用いられてもよい。
3. Other Embodiments The present invention is not limited to the above-described embodiments, and various modifications can be made. Hereinafter, some modifications will be described. Two or more of the following modifications may be used in combination.
3−1.変形例1
図11は、変形例1に係る画面を例示する図である。この画面は、図6に示した画面の要素に加えて、さらにウインドウ212およびウインドウ213を有する。ウインドウ212は、現時点での動作モードを示す画像を表示する領域である。この例で、音声合成装置1は、入力モードおよび編集モードを含む複数の動作モードで動作する。入力モードは、新たに音符を入力するための動作モードである。編集モードは、既に入力済みの音符の属性を変更するための動作モードである。編集モードは、さらにビブラート編集モードとダイナミクス編集モードとに分けられる。ビブラート編集モードは、ビブラートに関する付加属性を変更するための編集モードである。ダイナミクス編集モードは、音の強さに関する付加属性を変更するための編集モードである。
3-1.
FIG. 11 is a diagram illustrating a screen according to the first modification. This screen further includes a
ウインドウ213は、動作モードに応じて、処理対象の付加属性を示す画像を表示する領域である。例えば、動作モードがビブラート編集モードであった場合、ウインドウ213には、ビブラートの強さ、速さ、ビブラートの始期および終期を表す画像が表示される。この画像は、例えば、音高を縦軸とし時間を横軸とする座標系において表される棒グラフの画像である。別の例で、動作モードがダイナミクス編集モードであった場合、ウインドウ213には、音の強さの時間変化を表す画像が表示される。この画像は、例えば、音の強さを縦軸とし時間を横軸とする座標系において表される棒グラフの画像である。
The
図12は、音声合成装置1の変形例1に係る動作を示すフローチャートである。ステップS200において、CPU101は、モード変更の指示が入力されたか判断する。モード変更の指示が入力されたと判断した場合(S200:YES)、CPU101は、処理をステップS210に移行する。モード変更の指示が入力されていないと判断した場合(S200:NO)、CPU101は、モード変更の指示が入力されるまで待機する。モード変更の指示は、ユーザによるタッチパネル111の操作を介して入力される。この例で、CPU101は、ウインドウ212に相当する位置においてタッチを検出しない状態から、ウインドウ212に相当する位置においてタッチを検出する状態に変わった場合に、モード変更の指示が入力されたと判断する。
FIG. 12 is a flowchart illustrating an operation according to the first modification of the
ステップS210において、CPU101は、動作モードを切り替える。この例では、ユーザがウインドウ212をタッチするたびに、動作モードが、入力モード、ビブラート編集モード、およびダイナミクス編集モードの順番で切り替わり、ダイナミクス編集モードの次は再び入力モードに切り替わる。例えば、入力モードの状態においてモード変更の指示が入力された場合、CPU101は、動作モードを入力モードからビブラート編集モードに切り替える。
In step S210, the
ステップS220において、CPU101は、現時点の動作モードが編集モードであるか判断する。RAM103は現時点の動作モードを示す識別子を記憶しており、CPU101は、動作モードを切り替えるたびにこの情報を書き替える。CPU101は、RAM103を参照して、現時点の動作モードが編集モードであるか判断する。現時点の動作モードが編集モードであると判断された場合(S220:NO)、CPU101は、処理をステップS230に移行する。現時点の動作モードが編集モードでないと判断された場合(S220:YES)、CPU101は、処理をステップS200に移行する。
In step S220, the
ステップS230の処理は、図7のステップS100の処理と同様である。ステップS240において、CPU101は、処理対象音符を特定する。CPU101は、タッチされた位置が、ウインドウ202に表示されているノート図形のいずれかに相当する位置であった場合、CPU101は、そのノート図形が示す音符を処理対象音符として特定する。例えば、図11の画面でノート図形205をユーザがタッチした場合、CPU101は、ノート図形205が示す音符(歌詞「さ」が割り当てられている)を処理対象音符として特定する。
The process in step S230 is the same as the process in step S100 in FIG. In step S240, the
ステップS250において、CPU101は、ウインドウ213に相当する位置でタッチを検出したか判断する。ウインドウ213に相当する位置でタッチを検出した場合(S250:YES)、CPU101は、処理をステップS260に移行する。ウインドウ213に相当する位置でタッチを検出しなかった場合(S250:NO)、CPU101は、タッチを検出するまで待機する。
In step S <b> 250, the
ステップS260において、CPU101は、ユーザがタッチした位置の軌跡を記録する。タッチが検出されている間、CPU101は、ウインドウ213に表示される画像を、軌跡に応じて変化させる。
In step S260, the
図13は、ウインドウ213に表示される画像の変化を例示する図である。ウインドウ213に相当する位置のタッチが検出される前は、ウインドウ213には、処理対象付加属性の現状(変更されていない場合は決められた初期値)を示す画像を表示する。ウインドウ213において、横軸は規格化された時間を示す。例えば処理対象音符が四分音符である場合、ウインドウ213の左端が時間ゼロを、右端が四分音符に相当する時間を示す。別の例で処理対象音符が二分音符である場合、ウインドウ213の左端が時間ゼロを、右端が二分音符に相当する時間を示す。ウインドウ213においてタッチを検出すると、CPU101は、軌跡に応じて棒グラフの高さを変化させる。図13(A)は、ウインドウ213の左端付近から中央付近まで、矢印線に沿った軌跡が検出された場合を例示している。この場合、タッチが検出された位置においては、棒グラフの高さが軌跡に沿って変化している。図13(B)は、図13(A)の状態からさらにウインドウ213の右端付近まで、矢印線に沿った軌跡が検出された場合を例示している。
FIG. 13 is a diagram illustrating a change in the image displayed in the
再び図12を参照する。ステップS270において、CPU101は、ウインドウ213内におけるタッチが検出されなくなったか(すなわちタッチ非検出状態になったか)判断する。タッチが検出された場合(すなわち、ステップS250でタッチが検出されてから継続してタッチが検出された場合)(S270:NO)、CPU101は、処理を再びステップS260に移行する。すなわち、ステップS250でタッチが検出されてから継続してタッチが検出され続けている間、CPU101は、軌跡を記録し続ける。タッチが検出されなかった場合(S270:YES)、CPU101は、処理をステップS280に移行する。
Refer to FIG. 12 again. In step S270, the
ステップS280において、CPU101は、付加属性(パラメータ)の値を決定する。付加属性の種類は、動作モードによって決められている。例えば、ビブラート編集モードにおいて図13(B)のような軌跡が検出された場合、CPU101は、軌跡に応じてビブラートの強さ、速さ、および始期を決定する。
ステップS290における処理は、ステップS160の処理と同様である。
In step S280, the
The process in step S290 is the same as the process in step S160.
以上で説明したように、変形例1では、属性変更手段15は、位置検出手段14により検出された位置に応じて音符列の中から選択された一の音符を処理対象音符として、位置検出手段14により検出された位置の軌跡に応じて、記憶手段11に記憶されている処理対象音符の付加属性を変更する。変形例1では、タッチまたはドラッグにより、3種類の指示が入力される。第1の指示は、モードの変更の指示(ステップS200およびS210)である。第2の指示は、処理対象音符を指定する指示(ステップS230およびS240)である。第3の指示は、パラメータの値の指示(ステップS250−S280)である。第1の指示と第2の指示の間、および第2の指示と第3の指示の間において、非タッチ状態を経由する。上述の実施形態と比較すると、操作の回数は増えるが、それぞれの指示を切り分けているため、誤操作を低減することができる。また、、ユーザは、ノート画像よりも大きいウインドウにおいて、すなわち、よりよい精度で、付加属性の変化を直感的に入力することができる。
As described above, in the first modification, the
3−2.変形例2
軌跡に応じて変化されるパラメータは、実施形態で説明したものに限定されない。例えば、以下のパラメータが変更されてもよい(実施形態で説明したものも再度記載する)。
(1)ビブラート
上下動を繰り返す軌跡の場合には、ビブラートに関連する付加属性を変更する。別の例で、タッチパネル111がタッチされている面積を取得可能な構成を有している場合、強くタッチされているとき(タッチされている面積が広いとき)はビブラートを強くし、弱くタッチされているとき(タッチされている面積が広いとき)はビブラートを弱くする。さらに別の例で、強くタッチされているときはビブラートを速くし、弱くタッチされているときはビブラートを遅くする。
(2)音の強さ
右上がりの軌跡の場合は音をだんだん強くし、右下がりの軌跡の場合は音を段々弱くする(一音の範囲で音の強さが時間的に変化する)。あるいは、右上がりの軌跡の場合は従前より音を強くし、右下がりの軌跡の場合は従前より音を弱くする(一音の範囲で音の強さが時間的に変化しない)。さらに別の例で、タッチパネル111がタッチされている面積を取得可能な構成を有している場合、強くタッチされているときは音を強くし、弱くタッチされているときは音を弱くする。
(3)ピッチ
右上がりの軌跡の場合はピッチをだんだん高くし、右下がりの軌跡の場合はピッチを段々低くする(一音の範囲でピッチが時間的に変化する)。あるいは、右上がりの軌跡の場合は従前よりピッチを高くし、右下がりの軌跡の場合は従前よりピッチを低くする(一音の範囲でピッチが時間的に変化しない)。さらに別の例で、タッチパネル111がタッチされている面積を取得可能な構成を有している場合、強くタッチされているときはピッチを高くし、弱くタッチされているときはピッチを低くする。
(4)音の遷移時間
ドラッグした速度に応じて、素片データの遷移時間の割り当てを変更する。早くドラッグした場合(軌跡の始点と終点の時間間隔が短い場合)、前後の音とのクロスフェードの時間を長くする。ゆっくりドラッグした場合、前後の音とのクロスフェードの時間を短くする。
(5)ブレス
ドラッグした速度に応じて、ブレスのオンオフを変更する。早くドラッグした場合、ブレスを入れない。ゆっくりドラッグした場合、前の音との間にブレスを入れる。この場合は、楽譜データにブレスの有無を示す付加属性が含まれている。
3-2. Modification 2
The parameters that are changed according to the trajectory are not limited to those described in the embodiment. For example, the following parameters may be changed (the same as those described in the embodiment will be described again).
(1) Vibrato In the case of a trajectory that repeatedly moves up and down, the additional attribute related to vibrato is changed. In another example, when the
(2) Sound intensity In the case of a trajectory going up to the right, the sound is gradually strengthened, and in the trajectory going down to the right, the sound is gradually weakened (the intensity of the sound changes over time within a range of one sound). Alternatively, in the case of a trajectory that goes up to the right, the sound is made stronger than in the past, and in the case of a trajectory that goes down to the right, the sound is made weaker than before (the strength of the sound does not change with time in the range of one sound). In yet another example, when the
(3) Pitch Increase the pitch gradually in the case of a trajectory that goes up to the right, and gradually lower the pitch in the trajectory that goes down to the right (the pitch changes with time in the range of one note). Alternatively, in the case of a trajectory that goes up to the right, the pitch is made higher than in the past, and in the case of a trajectory that goes down to the right, the pitch is made lower than in the past (the pitch does not change temporally within a range of one sound). In another example, when the
(4) Sound transition time The transition time allocation of the segment data is changed according to the dragged speed. When dragging quickly (when the time interval between the start point and end point of the trajectory is short), the crossfade time between the previous and next sounds is increased. When dragging slowly, shorten the crossfade time with the sound before and after.
(5) Breath Change breath on / off according to dragging speed. If you drag early, don't put a breath. If you drag slowly, put a breath between the previous sound. In this case, the musical score data includes an additional attribute indicating the presence or absence of breath.
3−3.変形例3
軌跡に応じたパラメータの変化のさせ方は、実施形態で説明したものに限定されない。例えば、上下動を繰り返す軌跡が入力され、ビブラートに関する付加属性が変更される場合、付加属性の変化のさせ方は、以下のいずれか、または以下の2つ以上の組み合わせが用いられる。
(1)ビブラートをかけることだけが決定され、ビブラートの強さ、速さ、および始期は、決められた初期値が用いられる。
(2)軌跡から特徴パラメータとして抽出された振幅に応じてビブラートの強さが決定される(振幅が大きいほどビブラートは強く)。
(3)軌跡から特徴パラメータとして抽出された極値の数に応じてビブラートの早さが決定される(極値の数が多いほどビブラートは早く)。
(4)軌跡から特徴パラメータとして抽出された始点の時間軸座標に応じてビブラートの始期が決定される(時間が遅いほど始期が遅く)。
(5)記録された軌跡を決められた解像度で量子化(クオンタイズ)し、量子化後の軌跡に応じてビブラートの波形を決定。
(6)軌跡から特徴パラメータとして極値の座標が抽出される場合、極値の時間間隔の変化に応じてビブラートの早さが決定される(極値の時間間隔が段々短くすなわち段々密になると、一音の範囲でビブラートの速さが段々速く)。
(7)軌跡から特徴パラメータとして極値の座標が抽出される場合、振幅(時間軸で隣接する2つの極値の音高の差)の時間変化に応じてビブラートの強さが決定される(振幅が段々大きくなると、一音の範囲でビブラートの強さが段々強く)。
なお、ビブラート以外の付加属性に対し、上記(1)〜(7)のうち適用可能なものを適用してもよい。
3-3. Modification 3
The method of changing the parameter according to the trajectory is not limited to that described in the embodiment. For example, when a trajectory that repeatedly moves up and down is input and the additional attribute related to vibrato is changed, any of the following or a combination of two or more of the following is used to change the additional attribute.
(1) It is determined only to apply vibrato, and determined initial values are used for the strength, speed, and start of vibrato.
(2) The vibrato strength is determined according to the amplitude extracted as a characteristic parameter from the trajectory (the greater the amplitude, the stronger the vibrato).
(3) The speed of vibrato is determined according to the number of extreme values extracted from the locus as feature parameters (the more the number of extreme values, the faster the vibrato).
(4) The start time of the vibrato is determined according to the time axis coordinates of the start point extracted as a feature parameter from the trajectory (the start time is later as the time is later).
(5) The recorded trajectory is quantized (quantized) with a predetermined resolution, and the vibrato waveform is determined according to the quantized trajectory.
(6) When extremal coordinates are extracted as feature parameters from the trajectory, the speed of vibrato is determined in accordance with changes in the extremum time interval (when the extremum time interval becomes shorter, that is, becomes denser) , The vibrato speed is gradually higher in the range of one sound).
(7) When extremal coordinates are extracted as feature parameters from the trajectory, the vibrato strength is determined according to the temporal change in amplitude (difference in pitch between two extreme values adjacent on the time axis) ( (When the amplitude increases gradually, the vibrato strength gradually increases within the range of one note).
In addition, you may apply the applicable thing among said (1)-(7) with respect to additional attributes other than vibrato.
3−4.変形例4
軌跡に応じて付加属性の変更が確定した後、確認音を出力してもよい。確認音とは、処理対象音符について、割り当てられた歌詞と属性(基本属性および付加属性)に基づいて合成された音声をいう。例えば処理対象音符にビブラートが付加された場合、CPU101は、ビブラートが付加された音声を合成してスピーカ109から出力させてもよい。この例によれば、ユーザは、変更後の付加属性を容易に確認することができる。
3-4. Modification 4
A confirmation sound may be output after the change of the additional attribute is confirmed according to the trajectory. The confirmation sound refers to a sound synthesized based on the assigned lyrics and attributes (basic attributes and additional attributes) for the processing target note. For example, when vibrato is added to the processing target note, the
3−5.変形例5
軌跡に応じて、付加属性の値が決められた値(「値なし」または初期値)に書き替えられてもよい。例えば、終点の時間軸座標が始点の時間軸座標よりも小さい場合、すなわち、時間軸の負方向(逆向き)にドラッグした場合、CPU101は、付加属性の値を取り消し(値なし)にしてもよい。この場合において、軌跡の形状に応じて、値を取り消す付加属性を特定してもよい。例えば、時間軸の負方向に上下に振動する軌跡が得られた場合、CPUは、ビブラートに関するパラメータの値を「値なし」に書き替えてもよい。この場合において、付加属性だけでなく、処理対象音符の基本属性を消去してもよい。別の例で、処理対象音符がダブルクリックされた場合(すなわち、タッチパネル111においてタッチが検出され処理対象音符が確定してから、タッチ非検出状態を経由して、決められた時間内に処理対象音符に相当する位置において再度タッチが検出された場合)、CPU101は、処理対象音符の付加属性または基本属性を消去してもよい。さらに別の例で、タッチパネル111がマルチタッチ可能な構成(すなわち複数の位置を同時に検出可能な構成)を有している場合において、第1の指が処理対象音符をタッチし、第2の指が処理対象音符以外の場所をタッチしたとき(すなわち、一の音符(処理対象音符)に相当する位置における第1のタッチが検出され、タッチが検出されたままの状態で、処理対象音符以外の場所における第2のタッチが検出されたとき)、CPU101は、処理対象音符の付加属性または基本属性を消去してもよい。
3-5. Modification 5
Depending on the trajectory, the value of the additional attribute may be rewritten to a determined value (“no value” or an initial value). For example, when the time axis coordinate of the end point is smaller than the time axis coordinate of the start point, that is, when dragging in the negative direction (reverse direction) of the time axis, the
3−6.他の変形例
音声合成装置1は、タッチパネル111を有していなくてもよい。例えば、音声合成装置1は、入力部105としてマウス、キーパッド、またはペンタブレットを有していてもよい。また、音声合成装置1は、タッチパネル式の情報表示装置に限定されない。音声合成装置1は、パーソナルコンピュータ、携帯電話機、携帯ゲーム機、携帯音楽プレーヤ、または電子ブックリーダであってもよい。
3-6. Other Modifications The
音声合成装置1のハードウェア構成は、図4で説明したものに限定されない。図1に示される機能を実装できるものであれば、音声合成装置1はどのようなハードウェア構成を有していてもよい。例えば、音声合成装置1は、図1に示される機能要素の各々に対応する専用のハードウェア(回路)を有していてもよい。別の例で、図4で例示した音声合成装置1のハードウェア構成要素の一部は、いわゆる外付けの装置であってもよい。例えば、表示部106またはスピーカ109は外付けの装置であってもよい。
The hardware configuration of the
文字列は平仮名に限定されない。アルファベットまたは発音記号等が、歌詞を示す文字列として用いられてもよい。
ピアノロール表示においてノート図形内に表示される文字は実施形態で説明したものに限定されない。歌詞の一部である平仮名に加え、対応する発音記号が併せて表示されてもよい。
楽譜データの構造は、図3で例示したものに限定されない。音符と歌詞との対応関係、および音符の属性を特定できるものであれば、どのような構造のデータが用いられてもよい。また、実施形態において歌詞(文字列)と楽譜データとが別のデータセットである例を説明したが、歌詞は楽譜データの一部であってもよい。別の例で、楽譜データは発音記号を含んでいなくてもよい。すなわち、本発明は、音声合成機能を有していない、楽曲の編集装置に適用されてもよい。
The character string is not limited to hiragana. An alphabet or a phonetic symbol may be used as a character string indicating lyrics.
The characters displayed in the note graphic in the piano roll display are not limited to those described in the embodiment. In addition to hiragana, which is part of the lyrics, a corresponding phonetic symbol may be displayed together.
The structure of the score data is not limited to that illustrated in FIG. Data having any structure may be used as long as the correspondence between the notes and the lyrics and the attributes of the notes can be specified. In the embodiment, the example in which the lyrics (character string) and the score data are separate data sets has been described. However, the lyrics may be a part of the score data. In another example, the musical score data may not include phonetic symbols. That is, the present invention may be applied to a music editing apparatus that does not have a speech synthesis function.
音声合成処理の詳細は、実施形態で説明したものに限定されない。音符と発音記号(文字)とが与えられたときに、その音符および発音記号に応じた音声を合成するものであれば、どのような処理が用いられてもよい。
軌跡から抽出される特徴パラメータは、実施形態で説明したものに限定されない。軌跡の特徴を示すものであれば、どのようなパラメータが用いられてもよい。
軌跡と処理対象の付加属性を対応させる方法は特徴パラメータを抽出するものに限定されない。軌跡を規格化し、基準となる波形との一致度を算出するような手法が用いられてもよい。
変更された付加属性を表示する方法は、図10で例示したものに限定されない。例えば、ノート図形の色を変えたり、ノート図形の形状を変えたりしてもよい。
Details of the speech synthesis process are not limited to those described in the embodiment. As long as a note and a phonetic symbol (character) are given, any processing may be used as long as it synthesizes a sound corresponding to the note and the phonetic symbol.
The feature parameters extracted from the trajectory are not limited to those described in the embodiment. Any parameter may be used as long as it indicates the trajectory characteristics.
The method for associating the trajectory with the additional attribute to be processed is not limited to extracting feature parameters. A technique may be used in which the trajectory is normalized and the degree of coincidence with the reference waveform is calculated.
The method for displaying the changed additional attribute is not limited to that illustrated in FIG. For example, the color of the note graphic may be changed, or the shape of the note graphic may be changed.
上述の実施形態で説明した音声合成プログラムは、磁気記録媒体(磁気テープ、磁気ディスク(HDD、FD(Flexible Disk))など)、光記録媒体(光ディスク(CD(Compact Disk)、DVD(Digital Versatile Disk))など)、光磁気記録媒体、半導体メモリ(フラッシュROMなど)などのコンピュータ読取り可能な記録媒体に記憶した状態で提供されてもよい。また、このプログラムは、インターネットのようなネットワーク経由でダウンロードされてもよい。 The speech synthesis program described in the above embodiment includes a magnetic recording medium (magnetic tape, magnetic disk (HDD, FD (Flexible Disk)), etc.), an optical recording medium (optical disk (CD (Compact Disk)), DVD (Digital Versatile Disk). )), Etc.), a magneto-optical recording medium, and a computer-readable recording medium such as a semiconductor memory (flash ROM or the like). The program may be downloaded via a network such as the Internet.
1…音声合成装置、11…記憶手段、12…表示制御手段、13…表示手段、14…位置検出手段、15…属性変更手段、16…音声合成手段、17…音声出力手段、101…CPU、102…ROM、103…RAM、104…記憶部、105…入力部、106…表示部、107…DAC、108…アンプ、109…スピーカ、111…タッチパネル、201…入力ボックス、202…ウインドウ、203…ガイド図形、204…ノート図形、205…ノート図形、206…ノート図形、207…ノート図形、208…ノート図形、209…再生ボタン、210…停止ボタン、211…ウインドウ、212…ウインドウ、213…ウインドウ、303…個人別データベース、3030…素片データ群、3031…素片データ群、3032…素片データ群
DESCRIPTION OF
Claims (6)
音高を表す第1軸および時間を表す第2軸を有する座標系に従って、前記複数の音符の各々の発音期間の始期、音高、および音長を表す図形を表示手段の画面に表示させる表示制御手段と、
前記画面上において指定された位置を検出する位置検出手段と、
前記位置検出手段により継続して検出された位置の軌跡の始点が、前記複数の音符の各々に相当する領域内になかった場合、前記始点に応じた発音期間の始期を有する新たな音符を処理対象音符として生成し、前記処理対象音符の音高、音長および付加属性を前記軌跡に応じて決定し、当該決定された音高、音長および付加属性を前記属性記憶手段に書き込む属性変更手段と、
前記属性記憶手段に記憶されている属性を用いて、前記複数の音符に対応する楽曲データを生成するデータ生成手段と
を有する楽曲編集装置。 Attribute storage means for storing, for each of a plurality of notes, an attribute including an additional attribute indicating the beginning of the sound generation period of the note, the pitch, the tone length, and musical modification to the note;
A display for displaying on the screen of the display means a graphic representing the beginning, pitch, and length of the pronunciation period of each of the plurality of notes according to a coordinate system having a first axis representing pitch and a second axis representing time. Control means;
Position detecting means for detecting a designated position on the screen;
When the start point of the locus of the position continuously detected by the position detection means is not in the area corresponding to each of the plurality of notes, a new note having a start period of the sound generation period corresponding to the start point is processed. Attribute changing means for generating as a target note, determining the pitch, pitch and additional attribute of the processing target note according to the trajectory, and writing the determined pitch, pitch and additional attribute to the attribute storage means When,
A music editing apparatus comprising: data generation means for generating music data corresponding to the plurality of notes using the attributes stored in the attribute storage means.
音高を表す第1軸および時間を表す第2軸を有する座標系に従って、前記複数の音符の各々の発音期間の始期、音高、および音長を表す図形を表示手段の画面のうち第1領域に表示させる表示制御手段と、
前記画面上において指定された位置を検出する位置検出手段と、
前記位置検出手段により検出された位置に応じて前記複数の音符の中から選択された一の音符を処理対象音符として、前記位置検出手段により継続して検出された位置の軌跡に応じて、前記属性記憶手段に記憶されている前記処理対象音符の付加属性を変更する属性変更手段と、
前記属性記憶手段に記憶されている属性を用いて、前記複数の音符に対応する楽曲データを生成するデータ生成手段と
を有し、
前記表示制御手段は、前記処理対象音符の付加属性を示す画像を前記画面のうち第2領域に表示させ、
前記属性変更手段により前記処理対象音符の付加属性の変更がされた場合、前記表示制御手段は、前記第2領域に表示されている画像を当該付加属性の変更に応じて変更する
楽曲編集装置。 Attribute storage means for storing, for each of a plurality of notes, an attribute including an additional attribute indicating the beginning of the sound generation period of the note, the pitch, the tone length, and musical modification to the note;
In accordance with a coordinate system having a first axis representing pitch and a second axis representing time, a graphic representing the beginning, pitch, and length of the pronunciation period of each of the plurality of notes is displayed on the first screen of the display means . Display control means for displaying in the area ;
Position detecting means for detecting a designated position on the screen;
One note selected from the plurality of notes according to the position detected by the position detection means is a processing target note, and according to the locus of the position continuously detected by the position detection means, Attribute changing means for changing the additional attribute of the processing target note stored in the attribute storage means;
Using the attributes stored in the attribute storage means, have a data generating means for generating music data corresponding to the plurality notes,
The display control means displays an image indicating an additional attribute of the processing target note in the second area of the screen,
When the additional attribute of the processing target note is changed by the attribute changing unit, the display control unit changes the image displayed in the second area in accordance with the change of the additional attribute .
前記属性変更手段は、前記処理対象音符について、前記複数のパラメータの中から前記軌跡に応じて選択された一のパラメータの値を、前記軌跡に応じて変更する
ことを特徴とする請求項1または2に記載の楽曲編集装置。 The additional attribute includes a plurality of parameters indicating different musical modifications,
The attribute changing unit changes, for the processing target note, a value of one parameter selected according to the trajectory from the plurality of parameters according to the trajectory. 2. The music editing device according to 2.
ことを特徴とする請求項1ないし3のいずれか一項に記載の楽曲編集装置。The music editing device according to any one of claims 1 to 3, wherein
複数の音符の各々について、当該音符の発音期間の始期、音高、音長、および当該音符に対する音楽的な修飾を示す付加属性を含む属性を記憶する属性記憶手段と、
音高を表す第1軸および時間を表す第2軸を有する座標系に従って、前記複数の音符の各々の発音期間の始期、音高、および音長を表す図形を表示手段の画面に表示させる表示制御手段と、
前記画面上において指定された位置を検出する位置検出手段と、
前記位置検出手段により継続して検出された位置の軌跡の始点が、前記複数の音符の各々に相当する領域内になかった場合、前記始点に応じた発音期間の始期を有する新たな音符を処理対象音符として生成し、前記処理対象音符の音高、音長および付加属性を前記軌跡に応じて決定し、当該決定された音高、音長および付加属性を前記属性記憶手段に書き込む属性変更手段と、
前記属性記憶手段に記憶されている属性を用いて、前記複数の音符に対応する楽曲データを生成するデータ生成手段と
して機能させるためのプログラム。 Computer
Attribute storage means for storing, for each of a plurality of notes, an attribute including an additional attribute indicating the beginning of the sound generation period of the note, the pitch, the tone length, and musical modification to the note;
A display for displaying on the screen of the display means a graphic representing the beginning, pitch, and length of the pronunciation period of each of the plurality of notes according to a coordinate system having a first axis representing pitch and a second axis representing time. Control means;
Position detecting means for detecting a designated position on the screen;
When the start point of the locus of the position continuously detected by the position detection means is not in the area corresponding to each of the plurality of notes, a new note having a start period of the sound generation period corresponding to the start point is processed. Attribute changing means for generating as a target note, determining the pitch, pitch and additional attribute of the processing target note according to the trajectory, and writing the determined pitch, pitch and additional attribute to the attribute storage means When,
A program for functioning as data generation means for generating music data corresponding to the plurality of notes, using attributes stored in the attribute storage means.
複数の音符の各々について、当該音符の発音期間の始期、音高、音長、および当該音符に対する音楽的な修飾を示す付加属性を含む属性を記憶する属性記憶手段と、
音高を表す第1軸および時間を表す第2軸を有する座標系に従って、前記複数の音符の各々の発音期間の始期、音高、および音長を表す図形を表示手段の画面のうち第1領域に表示させる表示制御手段と、
前記画面上において指定された位置を検出する位置検出手段と、
前記位置検出手段により検出された位置に応じて前記複数の音符の中から選択された一の音符を処理対象音符として、前記位置検出手段により継続して検出された位置の軌跡に応じて、前記属性記憶手段に記憶されている前記処理対象音符の付加属性を変更する属性変更手段と、
前記属性記憶手段に記憶されている属性を用いて、前記複数の音符に対応する楽曲データを生成するデータ生成手段と
して機能させ、
前記表示制御手段は、前記処理対象音符の付加属性を示す画像を前記画面のうち第2領域に表示させ、
前記属性変更手段により前記処理対象音符の付加属性の変更がされた場合、前記表示制御手段は、前記第2領域に表示されている画像を当該付加属性の変更に応じて変更する
プログラム。 Computer
Attribute storage means for storing, for each of a plurality of notes, an attribute including an additional attribute indicating the beginning of the sound generation period of the note, the pitch, the tone length, and musical modification to the note;
In accordance with a coordinate system having a first axis representing pitch and a second axis representing time, a graphic representing the beginning, pitch, and length of the pronunciation period of each of the plurality of notes is displayed on the first screen of the display means . Display control means for displaying in the area ;
Position detecting means for detecting a designated position on the screen;
One note selected from the plurality of notes according to the position detected by the position detection means is a processing target note, and according to the locus of the position continuously detected by the position detection means, Attribute changing means for changing the additional attribute of the processing target note stored in the attribute storage means;
Using the attribute stored in the attribute storage means, function as data generation means for generating music data corresponding to the plurality of notes ,
The display control means displays an image indicating an additional attribute of the processing target note in the second area of the screen,
When the additional attribute of the processing target note is changed by the attribute changing unit, the display control unit changes the image displayed in the second area according to the change of the additional attribute .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010229845A JP5589741B2 (en) | 2010-10-12 | 2010-10-12 | Music editing apparatus and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010229845A JP5589741B2 (en) | 2010-10-12 | 2010-10-12 | Music editing apparatus and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012083564A JP2012083564A (en) | 2012-04-26 |
JP5589741B2 true JP5589741B2 (en) | 2014-09-17 |
Family
ID=46242495
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010229845A Active JP5589741B2 (en) | 2010-10-12 | 2010-10-12 | Music editing apparatus and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5589741B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5783206B2 (en) * | 2012-08-14 | 2015-09-24 | ヤマハ株式会社 | Music information display control device and program |
CN113035157B (en) * | 2021-01-28 | 2024-04-16 | 深圳点猫科技有限公司 | Graphical music editing method, system and storage medium |
CN113035158B (en) * | 2021-01-28 | 2024-04-19 | 深圳点猫科技有限公司 | Online MIDI music editing method, system and storage medium |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH03168698A (en) * | 1989-11-28 | 1991-07-22 | Yamaha Corp | Effect imparting device |
JPH07113832B2 (en) * | 1990-01-09 | 1995-12-06 | ヤマハ株式会社 | Electronic musical instrument |
JP3538208B2 (en) * | 1993-03-24 | 2004-06-14 | ヤマハ株式会社 | Music score information input device |
JP3781167B2 (en) * | 2000-03-15 | 2006-05-31 | カシオ計算機株式会社 | Performance information input device and performance information input method |
JP4099651B2 (en) * | 2002-09-20 | 2008-06-11 | ヤマハ株式会社 | Facial expression parameter editing device and program for realizing facial expression parameter editing method |
JP3972899B2 (en) * | 2003-12-22 | 2007-09-05 | ヤマハ株式会社 | Music score display device |
JP4929604B2 (en) * | 2005-03-11 | 2012-05-09 | ヤマハ株式会社 | Song data input program |
US7750224B1 (en) * | 2007-08-09 | 2010-07-06 | Neocraft Ltd. | Musical composition user interface representation |
JP4503675B2 (en) * | 2008-12-25 | 2010-07-14 | 株式会社コナミデジタルエンタテインメント | Game console and game program |
-
2010
- 2010-10-12 JP JP2010229845A patent/JP5589741B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2012083564A (en) | 2012-04-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101611511B1 (en) | A method of composing music in a portable terminal having a touchscreen | |
US9928817B2 (en) | User interfaces for virtual instruments | |
US10354627B2 (en) | Singing voice edit assistant method and singing voice edit assistant device | |
JP6236765B2 (en) | Music data editing apparatus and music data editing method | |
JP5549521B2 (en) | Speech synthesis apparatus and program | |
JP2008139426A (en) | Data structure of data for evaluation, karaoke machine, and recording medium | |
JP5589741B2 (en) | Music editing apparatus and program | |
JP2015163982A (en) | Voice synthesizer and program | |
JP5935815B2 (en) | Speech synthesis apparatus and program | |
JP6149917B2 (en) | Speech synthesis apparatus and speech synthesis method | |
JP4613817B2 (en) | Fingering display device and program | |
JPWO2019092791A1 (en) | Data generator and program | |
JP2000163057A (en) | Device and method for voice assigning and recording medium which records program for voice assigning process | |
JP5429840B2 (en) | Speech synthesis apparatus and program | |
JP5510207B2 (en) | Music editing apparatus and program | |
JP5803705B2 (en) | Electronic musical instruments | |
JP7350555B2 (en) | Score editing device and score editing program | |
JP2021081601A (en) | Musical sound information output device, musical sound generation device, musical sound information generation method, and program | |
JP4305315B2 (en) | Automatic performance data characteristic changing device and program thereof | |
JP7107720B2 (en) | fingering display program | |
JP2003150155A (en) | Device and method for practicing play, program and recording medium | |
JP5888295B2 (en) | Performance information display device, program | |
JP5810691B2 (en) | Musical score information generating apparatus and musical score information generating program | |
WO2022209557A1 (en) | Electronic musical instrument, electronic musical instrument control method, and program | |
JP5742303B2 (en) | Musical sound generation control device and musical sound generation control program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130820 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140328 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140408 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140605 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140701 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140714 |
|
R150 | Certificate of patent (=grant) or registration of utility model |
Ref document number: 5589741 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |