JP2003233374A - Automatic expression imparting device and program for music data - Google Patents

Automatic expression imparting device and program for music data

Info

Publication number
JP2003233374A
JP2003233374A JP2002035437A JP2002035437A JP2003233374A JP 2003233374 A JP2003233374 A JP 2003233374A JP 2002035437 A JP2002035437 A JP 2002035437A JP 2002035437 A JP2002035437 A JP 2002035437A JP 2003233374 A JP2003233374 A JP 2003233374A
Authority
JP
Japan
Prior art keywords
data
rendition style
musical
parameter
expression
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002035437A
Other languages
Japanese (ja)
Other versions
JP3755468B2 (en
Inventor
Akira Yamauchi
明 山内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2002035437A priority Critical patent/JP3755468B2/en
Publication of JP2003233374A publication Critical patent/JP2003233374A/en
Application granted granted Critical
Publication of JP3755468B2 publication Critical patent/JP3755468B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Electrophonic Musical Instruments (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To enable a user to confirm what variation of expression playing style parameters produce at any time. <P>SOLUTION: When musical expression corresponding to a specified playing style is automatically added to music data, the musical expression is automatically added to short sequence data for audition used to confirm playing style parameters according as the start of the audition is indicated according to the playing style parameters supplied by a parameter supply means. Then a musical sound is generated according to the sequence data to which the musical expression is added. Consequently, the user can easily confirm variation of musical sound characteristics based upon the playing style parameters by generating a short musical sound for audition by using the playing style parameters before the expression is automatically imparted to the whole music data according to the playing style parameters. <P>COPYRIGHT: (C)2003,JPO

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】この発明は、楽曲データに対
して自動的に新たな音楽的な表現を付加する楽曲データ
の自動表情付け装置及びプログラムに関し、特に各種パ
ラメータの調整がどのような表情の変化を生むのかをユ
ーザが随時に確認できるようにすることで、表情付けを
効率的に行うことができるようにした楽曲データの自動
表情付け装置及びプログラムに関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a music data automatic facial expression device and program for automatically adding a new musical expression to music data. The present invention relates to a music data automatic facial expression expression device and a program that enable efficient expression expression by allowing the user to check whether a change is to be produced at any time.

【0002】[0002]

【従来の技術】最近では、楽曲データを基にして楽音を
自動演奏する自動演奏装置や、楽曲データを自動演奏し
たり編集することができるシーケンサー等が知られてい
る。こうした自動演奏装置等で用いられる楽曲データは
楽譜の各音符、記号に対応するMIDIデータとして構
成されるが、一連の音符列の各音高をON/OFFの音
高情報のみで構成すると、該楽曲データを再生すること
により行われる楽音の自動演奏は機械的な無表情な演奏
が行われることとなり、非常に音楽的に不自然である。
そこで、こうした自動演奏をより音楽的に自然な演奏、
美しい演奏、生々しい演奏とするためには、楽音に対し
て様々な音楽的な表情や楽器らしさの付加といった表情
付けを行うとよい。そのためには、楽曲データに対し
て、奏法等に応じて様々な音楽的な表情や楽器らしさを
表すように、一連の音符の音高、音量、音長、タイミン
グ等に修正を加える必要がある。こうした表情付けを行
うものとして、従来から楽曲データに対して様々な音楽
的な表情や楽器らしさを表す演奏情報を自動的に付加す
る楽曲データの自動表情付け装置が知られている。こう
した楽曲データの自動表情付け装置においては、ユーザ
がチョーキング、ビブラート、グリッサンド、スタッカ
ート、スイング、アルペジオなどの複数種類の奏法の中
から付与したい奏法を複数同時に選択することができ、
選択した奏法の各々に対応する表情付けを楽曲データに
対して一度に(あるいは順次に)行うことができるよう
になっている。例えばギターやベースなどの弦楽器にお
いて頻繁に用いられる奏法の1つであるチョーキング奏
法が選択された場合には、楽曲データの中からチョーキ
ング奏法を行うのに適した箇所を自動的に検索し、該検
索箇所の楽曲データに対して予めユーザによりパラメー
タ調整されているピッチベンド値などの演奏情報が新た
に付加される。
2. Description of the Related Art Recently, an automatic performance device that automatically plays musical tones based on music data, a sequencer that can automatically play and edit music data, and the like are known. Music data used in such an automatic performance device is configured as MIDI data corresponding to each note and symbol of a musical score, but if each pitch of a series of note strings is composed of only ON / OFF pitch information, The automatic performance of musical tones performed by reproducing music data is a mechanical expressionless performance, which is very musical unnatural.
Therefore, such automatic performance is more musical and natural,
In order to make the performance beautiful and lively, it is advisable to add various musical expressions and musical instrument-like expressions to the musical sounds. For that purpose, it is necessary to modify the pitch, volume, length, timing, etc. of a series of notes so that the musical piece data expresses various musical expressions and musical instrument-likeness according to the playing style etc. . As a device for performing such facial expression, an automatic facial expression device for music data has been known, which automatically adds performance information representing various musical expressions and musical instrument-like characteristics to music data. In such an automatic facial expression device for music data, the user can simultaneously select a plurality of rendition styles to be given from among a plurality of rendition styles such as choking, vibrato, glissando, staccato, swing, and arpeggio,
Expressions corresponding to each of the selected playing styles can be applied to the music data at once (or sequentially). For example, when the choking rendition, which is one of the renditions frequently used in stringed instruments such as guitars and basses, is selected, a portion suitable for performing the choking rendition is automatically searched from the music data, and Performance information such as a pitch bend value, which is parameter-adjusted by the user in advance, is newly added to the music data at the search location.

【0003】[0003]

【発明が解決しようとする課題】ところで、上述したよ
うな楽曲データの自動表情付け装置では、奏法パラメー
タを調整することにより、ユーザ好みの音楽的な表情
(奏法など)を付加することができるようになっている
が、奏法パラメータを調整してから生成されるユーザ好
みの表情を確認するまでに時間がかかるものであった。
すなわち、従来の楽曲データの自動表情付け装置におい
ては、自動的に検索された箇所にユーザ好みの表情付け
を適用した楽曲データ全体を完成させた後にしかユーザ
は実際に表情付けされた音楽的表情の確認を行うことが
できなかった。そのため、表情付けされた楽曲が気にい
らないような場合、ユーザは再度奏法パラメータの調整
を行い、楽曲データ全体に対して初めから自動表情付け
処理をやり直ししなければならなかった。したがって、
ユーザにとって満足のいく表情付けされた楽曲を生成す
るためには、自動表情付け処理を繰り返し行い、ユーザ
好みの表情付けを適用した楽曲データを何度も生成する
必要があった。このように、従来では楽曲データに対す
る表情付けが自動化されてはいるが、ユーザ好みの音楽
的表情を付加した楽曲データを生成する際に奏法パラメ
ータ調整を繰り返し行った場合には自動表情付け処理も
繰り返し行わなければならなかったために、自動表情付
け処理は時間がかかるものであり処理効率が非常に悪か
った、という問題点があった。
By the way, in the above-described music data automatic facial expression imparting apparatus, it is possible to add a musical expression (user's playing style, etc.) desired by the user by adjusting the playing method parameters. However, it takes a long time to adjust the rendition style parameters and confirm the generated user-preferred facial expression.
That is, in the conventional music data automatic facial expression expression device, the user can only actually complete the musical piece data by applying the facial expression of the user's preference to the automatically searched places, and the user can actually express the musical expression. Could not be confirmed. Therefore, if the user does not like the music with the facial expression, the user has to adjust the rendition style parameter again and perform the automatic facial expression processing from the beginning on the entire music data. Therefore,
In order to generate a music piece with a satisfying facial expression for the user, it was necessary to repeatedly perform automatic facial expression processing and repeatedly generate musical piece data to which the user's favorite facial expression was applied. As described above, in the past, facial expression for music data has been automated, but automatic facial expression processing is also performed when rendition style parameter adjustment is repeatedly performed when generating music data to which a musical expression desired by the user is added. Since it has to be repeated, the automatic facial expression processing takes time and the processing efficiency is very poor.

【0004】本発明は上述の点に鑑みてなされたもの
で、ユーザ好みの表情付けを行う際に、自動表情付け処
理を行う前に奏法パラメータ調整がどのような表情の変
化を生むものであるのかをユーザが随時に確認すること
ができるようにすることで、表情付け処理を効率よく実
行することのできる楽曲データの自動表情付け装置及び
プログラムを提供しようとするものである。
The present invention has been made in view of the above points, and when the facial expression desired by the user is performed, it is possible to determine what kind of facial expression change the rendition style parameter adjustment produces before performing the automatic facial expression processing. It is intended to provide an automatic facial expression assigning apparatus and program for music data, which enables the user to confirm at any time so that the facial expression assigning process can be efficiently executed.

【0005】[0005]

【課題を解決するための手段】本発明に係る楽曲データ
の自動表情付け装置は、楽曲データに対して所定の奏法
に対応する音楽的な表情付けを行うための奏法パラメー
タを供給するパラメータ供給手段と、奏法パラメータの
確認のために使用される試聴用の短いシーケンスデータ
を供給するデータ供給手段と、オーディション開始指示
を行う指示手段と、前記指示手段によるオーディション
開始指示に応じて、前記データ供給手段により供給され
たシーケンスデータに対して前記パラメータ供給手段に
より供給された奏法パラメータに基づいて所定の奏法に
対応する音楽的な表情を自動的に付加する制御手段と、
前記制御手段により音楽的な表情を付加されたシーケン
スデータに基づき楽音を生成する楽音生成手段とを具え
る。
SUMMARY OF THE INVENTION An automatic music data facial expression device according to the present invention supplies a rendition style parameter for performing musical expression expression corresponding to a predetermined rendition style on music data. A data supplying means for supplying short sequence data for trial listening used for confirmation of rendition style parameters, an instructing means for instructing an audition start, and the data supplying means in response to the audition start instruction by the instructing means. Control means for automatically adding a musical expression corresponding to a predetermined rendition style based on the rendition style parameters supplied by the parameter supply means to the sequence data supplied by
Musical tone generating means for generating a musical sound based on the sequence data to which the musical expression is added by the control means.

【0006】本発明によると、楽曲データに対して所定
の奏法に対応する音楽的な表情を自動的に付加する際に
おいて、オーディション開始指示に応じて奏法パラメー
タの確認のために使用される試聴用の短いシーケンスデ
ータに対して所定の奏法に対応する音楽的な表情を自動
的に付加し、該音楽的な表情を付加されたシーケンスデ
ータに基づき楽音を生成する。すなわち、まずパラメー
タ供給手段は楽曲データに対して所定の奏法に対応する
音楽的な表情付けを行うための奏法パラメータを供給
し、データ供給手段は奏法パラメータの確認のために使
用される試聴用の短いシーケンスデータを供給する。指
示手段によるオーディション開始指示が行われた場合、
制御手段は前記データ供給手段により供給されたシーケ
ンスデータに対して前記パラメータ供給手段により供給
された奏法パラメータに基づいて所定の奏法に対応する
音楽的な表情を自動的に付加する。そして、楽音生成手
段は前記制御手段により音楽的な表情を付加されたシー
ケンスデータに基づき楽音を生成する。このように、楽
曲データに対して奏法パラメータに基づいて音楽的な表
情を自動的に付加する前に、試聴用の短いシーケンスデ
ータに対して奏法パラメータに基づいて音楽的な表情を
自動的に付加し、該付加した結果の楽音を生成する。こ
のようにすると、ユーザは奏法パラメータに基づき楽曲
データ全体にわたって自動的に表情付けを行う前に、該
奏法パラメータを用いて試聴用に短い楽音を生成するこ
とで、該奏法パラメータによる楽音特性の変化を簡単に
確認することができる。これにより、効率的に楽曲デー
タに対する自動表情付けを行うことができるようにな
る。
According to the present invention, when automatically adding a musical expression corresponding to a predetermined rendition style to the music data, it is used for confirmation of rendition style parameters used for confirmation of rendition style parameters in response to an audition start instruction. A musical expression corresponding to a predetermined rendition style is automatically added to the short sequence data of 1, and a musical sound is generated based on the sequence data to which the musical expression is added. That is, first, the parameter supplying means supplies the rendition style parameters for performing musical expression corresponding to a predetermined rendition style to the music data, and the data supplying means is used for the audition used for confirmation of the rendition style parameters. Supply short sequence data. If an audition start instruction is given by the instruction means,
The control means automatically adds a musical expression corresponding to a predetermined rendition style to the sequence data supplied by the data supply means based on the rendition style parameter supplied by the parameter supply means. Then, the musical sound generating means generates a musical sound based on the sequence data to which the musical expression is added by the control means. In this way, before automatically adding a musical expression based on rendition style parameters to music data, a musical expression based on rendition style parameters is automatically added to short sequence data for trial listening. Then, a musical tone as a result of the addition is generated. In this way, the user generates a short musical sound for trial listening using the rendition style parameter before automatically expressing the expression over the entire music data based on the rendition style parameter, thereby changing the tone characteristic by the rendition style parameter. Can be easily confirmed. As a result, it is possible to efficiently perform automatic facial expression on the music data.

【0007】本発明は、装置の発明として構成し、実施
することができるのみならず、方法の発明として構成し
実施することができる。また、本発明は、コンピュータ
またはDSP等のプロセッサのプログラムの形態で実施
することができるし、そのようなプログラムを記憶した
記憶媒体の形態で実施することもできる。
The present invention may be constructed and implemented not only as the apparatus invention as described above but also as a method invention. Further, the present invention can be implemented in the form of a program of a processor such as a computer or a DSP, and can also be implemented in the form of a storage medium storing such a program.

【0008】[0008]

【発明の実施の形態】以下、この発明の実施の形態を添
付図面に従って詳細に説明する。
BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of the present invention will be described in detail below with reference to the accompanying drawings.

【0009】図1は、この発明に係る楽曲データの自動
表情付け装置を適用した電子楽器の実施の形態を示すハ
ード構成ブロック図である。この実施の形態では、1個
のCPU1によって各種処理を行う電子楽器を例に説明
する。
FIG. 1 is a block diagram of a hardware configuration showing an embodiment of an electronic musical instrument to which an automatic musical expression data expression device according to the present invention is applied. In this embodiment, an electronic musical instrument that performs various processes by one CPU 1 will be described as an example.

【0010】本実施例に示す電子楽器は、マイクロプロ
セッサユニット(CPU)1、リードオンリメモリ(R
OM)2、ランダムアクセスメモリ(RAM)3からな
るマイクロコンピュータの制御の下に各種の処理が実行
されるようになっている。CPU1は、この電子楽器全
体の動作を制御するものである。このCPU1に対し
て、通信バス1D(例えば、データ及びアドレスバスな
ど)を介してリードオンリメモリ(ROM)2、ランダ
ムアクセスメモリ(RAM)3、外部記憶装置4、検出
回路5、スイッチ検出回路6、表示回路7、音源回路
8、インタフェース9がそれぞれ接続されている。更
に、CPU1には、タイマ割込み処理(インタラプト処
理)における割込み時間や各種時間を計時するタイマ1
Aが接続されている。すなわち、タイマ1Aは時間間隔
を計数したり、所定の楽曲データやシーケンスデータ
(後述する)などに従って楽曲を自動演奏する際の演奏
テンポを設定したりするためのテンポクロックパルスを
発生する。このテンポクロックパルスの周波数は、パネ
ル操作子6Aの中の例えばテンポ設定スイッチ等によっ
て調整される。このようなタイマ1Aからのテンポクロ
ックパルスはCPU1に対して処理タイミング命令とし
て与えられたり、あるいはCPU1に対してインタラプ
ト命令として与えられる。CPU1は、これらの命令に
従って各種処理を実行する。各種処理としては、曲に対
してより自然な演奏や生々しい演奏を行うための様々な
楽器毎に特有の音楽的な表現(例えば、ギターなどの弦
楽器で用いられるチョーキング奏法など)に関する演奏
情報を生成し、該演奏情報を楽曲データに対して自動的
に付加する「自動表情付け処理」(後述する)等があ
る。
The electronic musical instrument shown in this embodiment has a microprocessor unit (CPU) 1 and a read only memory (R).
Various processes are executed under the control of a microcomputer including an OM) 2 and a random access memory (RAM) 3. The CPU 1 controls the operation of the entire electronic musical instrument. For this CPU 1, a read-only memory (ROM) 2, a random access memory (RAM) 3, an external storage device 4, a detection circuit 5, a switch detection circuit 6 via a communication bus 1D (for example, a data and address bus). , The display circuit 7, the sound source circuit 8, and the interface 9 are connected to each other. Further, the CPU 1 has a timer 1 for measuring the interrupt time and various times in the timer interrupt processing (interrupt processing).
A is connected. That is, the timer 1A generates tempo clock pulses for counting time intervals and for setting a performance tempo for automatically performing a music piece in accordance with predetermined music piece data, sequence data (described later) and the like. The frequency of the tempo clock pulse is adjusted by, for example, a tempo setting switch in the panel operator 6A. Such a tempo clock pulse from the timer 1A is given to the CPU 1 as a processing timing command, or given to the CPU 1 as an interrupt command. The CPU 1 executes various processes according to these instructions. As various processes, performance information about musical expressions peculiar to each musical instrument (for example, choking performance used in stringed instruments such as guitars) for performing more natural or vivid performances on a song is performed. There is an "automatic facial expression processing" (described later) for generating and automatically adding the performance information to the music data.

【0011】なお、楽曲データの自動表情付け装置は専
用の装置に限られず、例えばパソコンなどの汎用装置あ
るいはマルチメディア機器等であってもよく、本発明に
従う所定のソフトウエア又はハードウエアを用いること
によって、楽曲データを自動的に分析し、該分析結果に
基づいて所定の楽音に対する表情付けを自動的に行うこ
とができるように構成した装置であればどのようなもの
であってもよい。
The automatic musical expression device for musical composition data is not limited to a dedicated device, but may be a general-purpose device such as a personal computer or a multimedia device, for example, and uses predetermined software or hardware according to the present invention. Any device can be used as long as it is configured to automatically analyze the music data and automatically give a facial expression to a predetermined musical sound based on the analysis result.

【0012】ROM2は、楽曲データやシーケンスデー
タあるいは奏法パラメータのプリセット値などの各種デ
ータ、CPU1により実行あるいは参照される「自動表
情付け処理」などの各種制御プログラムを格納するもの
である。RAM3は、CPU1が所定のプログラムを実
行する際に発生する各種データなどを一時的に記憶する
ワーキングメモリとして、あるいは現在実行中のプログ
ラムやそれに関連するデータを記憶するメモリ等として
使用される。RAM3の所定のアドレス領域がそれぞれ
の機能に割り当てられ、レジスタやフラグ、テーブル、
メモリなどとして利用される。外部記憶装置4はROM
2と同様に、楽曲データやシーケンスデータあるいは奏
法パラメータのプリセット値などの各種データや、CP
U1が実行する各種の制御プログラム等を記憶するもの
である。前記ROM2に制御プログラムが記憶されてい
ない場合、この外部記憶装置4(例えばハードディス
ク)に制御プログラムを記憶させておき、それを前記R
AM3に読み込むことにより、ROM2に制御プログラ
ムを記憶している場合と同様の動作をCPU1にさせる
ことができる。このようにすると、制御プログラムの追
加やバージョンアップ等が容易に行える。なお、外部記
憶装置4はハードディスク(HD)に限られず、フロッ
ピィーディスク(FD)、コンパクトディスク(CD−
ROM・CD−RAM)、光磁気ディスク(MO)、あ
るいはDVD(Digital Versatile Disk)等の着脱自在
な様々な形態の外部記録媒体を利用する記憶装置であっ
てもよい。あるいは、半導体メモリなどであってもよ
い。
The ROM 2 stores various data such as music data, sequence data, preset values of rendition style parameters, and various control programs such as "automatic facial expression processing" executed or referred to by the CPU 1. The RAM 3 is used as a working memory that temporarily stores various data generated when the CPU 1 executes a predetermined program, or as a memory that stores the currently executed program and data related thereto. A predetermined address area of the RAM 3 is assigned to each function, and registers, flags, tables,
It is used as a memory. The external storage device 4 is a ROM
Similar to 2, various data such as music data, sequence data, preset values of rendition style parameters, and CP
It stores various control programs executed by U1. When the control program is not stored in the ROM 2, the control program is stored in the external storage device 4 (for example, hard disk), and the control program is stored in the R 2
By reading into the AM3, it is possible to cause the CPU1 to perform the same operation as when the control program is stored in the ROM2. By doing so, it is possible to easily add or upgrade the control program. The external storage device 4 is not limited to a hard disk (HD), but a floppy disk (FD) or a compact disk (CD-).
The storage device may use various removable external recording media such as a ROM / CD-RAM), a magneto-optical disk (MO), or a DVD (Digital Versatile Disk). Alternatively, it may be a semiconductor memory or the like.

【0013】ここで、上述したROM2や外部記憶装置
4あるいはRAM3などに記憶される各種データについ
て、簡単に説明する。まず、ROM2や外部記憶装置4
に記憶されるデータについて、図2を用いて説明する。
図2は、ROM2や外部記憶装置4に記憶される各種デ
ータを説明するための概念図である。この実施例に示す
ROM2や外部記憶装置4に記憶されるデータは、楽曲
データ、奏法パラメータ、シーケンスデータ、その他の
データなどである。
Here, various data stored in the ROM 2, the external storage device 4, the RAM 3 and the like described above will be briefly described. First, the ROM 2 and the external storage device 4
The data stored in will be described with reference to FIG.
FIG. 2 is a conceptual diagram for explaining various data stored in the ROM 2 and the external storage device 4. The data stored in the ROM 2 and the external storage device 4 shown in this embodiment are music data, rendition style parameters, sequence data, and other data.

【0014】楽曲データは自動表情付けの際に演奏情報
を付与する対象となるデータであり、 例えば1曲分の
楽曲全体を表わすデータである。該楽曲データは、タイ
ミングデータとイベントデータとの組み合わせからな
る。イベントデータは、楽音の発音を指示するキーオン
データや楽音の消音を指示するキーオフデータ等の演奏
イベントに関するデータである。このイベントデータ
は、タイミングデータと組み合わされて使用される。本
実施例でのタイミングデータとは、イベントデータから
次のイベントデータまでの時間間隔を示す時間データ
(すなわち、デュレーションデータ)であるが、これに
限らず相対時間あるいは絶対時間等どのようなフォーマ
ットでもよい。すなわち、イベントの発生時刻を曲や小
節内における絶対時間で表した『イベント+絶対時間』
形式のもの、イベントの発生時刻を1つ前のイベントか
らの時間で表した『イベント+相対時間』形式のもの、
音符の音高と符長あるいは休符と休符長で楽曲データを
表した『音高(休符)+符長』形式のもの、演奏の最小
分解能毎にメモリの領域を確保し、演奏イベントの発生
する時刻に対応するメモリ領域にイベントを記憶した
『ベタ方式』形式のものなど、どのような形式のもので
もよい。なお、楽曲データは複数トラック分のイベント
データが混在して記録されているもの、すなわち、イベ
ントデータをその割り当てられたトラックにかかわらず
出力順に1列に並べて記憶しているものに限らず、各イ
ベントデータを各トラック毎に独立して記憶するように
楽曲データを構成してもよいことは言うまでもない。
The music data is data to which performance information is added when automatic facial expression is applied, and is data representing, for example, the entire music for one music. The music data is composed of a combination of timing data and event data. The event data is data relating to a performance event such as key-on data for instructing the sounding of musical tones and key-off data for instructing the muting of musical tones. This event data is used in combination with the timing data. The timing data in the present embodiment is time data (that is, duration data) indicating a time interval from one event data to the next event data, but is not limited to this and may be any format such as relative time or absolute time. Good. In other words, “event + absolute time”, which represents the time when the event occurred in absolute time within the song or measure
Format, "event + relative time" format, which shows the time when the event occurred as the time from the previous event,
Musical data in the form of "pitch (rest) + note length" that expresses music data in terms of note pitch and note length, or rest and rest length, a memory area is reserved for each minimum resolution of the performance, and a performance event Any format may be used, such as a "solid method" format in which events are stored in a memory area corresponding to the time at which the event occurs. Note that the music data is not limited to the one in which event data for a plurality of tracks are recorded in a mixed manner, that is, the event data is not limited to one in which the event data is arranged in one row in the output order regardless of the assigned tracks, and It goes without saying that the music data may be configured so that the event data is stored independently for each track.

【0015】奏法パラメータは楽曲データに対する自動
表情付けの際に用いられるデータであり、チョーキン
グ、ビブラート、スタッカート、グリッサンドなどの各
奏法毎に対応するように用意される。ROM2や外部記
憶装置4には、予め決められた所定のプリセット値に設
定された奏法パラメータが記憶されている。各奏法毎の
奏法パラメータは、大きく奏法検出用パラメータと表情
付け用パラメータの2種類に分けられる。奏法検出用パ
ラメータは、自動表情付け対象の楽曲データの中から当
該奏法を付加すべき箇所を検索するために用いられるパ
ラメータ、具体的には楽曲データ中の音符列から奏法を
付加すべき部分を特定するためのパラメータである。奏
法検出用パラメータは、各奏法毎で定義する内容は異な
る。例えば、奏法「チョーキング」の場合には上昇し下
降する音符列を特定するように定義されるし、奏法「ビ
ブラート」の場合には適宜の所定の1音の音符を特定す
るように定義される。
The rendition style parameters are data used when automatic expression is given to the music data, and are prepared so as to correspond to each rendition style such as choking, vibrato, staccato, glissando. The rendition style parameter set to a predetermined preset value is stored in the ROM 2 or the external storage device 4. The rendition style parameters for each rendition style are roughly classified into two types: rendition style detection parameters and facial expression setting parameters. The rendition style detection parameter is a parameter used to search for a portion to which the rendition style is to be added in the music data to be automatically expressed, specifically, a portion to which the rendition style is to be added from the note string in the music data. It is a parameter for specifying. The rendition style detection parameters differ in the contents defined for each rendition style. For example, in the case of the rendition style “choking”, it is defined to specify a note sequence that rises and falls, and in the case of the rendition style “vibrato”, it is defined to specify an appropriate predetermined note. .

【0016】一方、表情付け用パラメータは、上記奏法
検出用パラメータに従い特定された奏法を付与すべき部
分に該奏法に対応する表情付けを行う際に用いるパラメ
ータである。表情付け用パラメータは一例として「深
さ」「速さ」「カーブ」「ディレイ」などの複数種類の
パラメータを含むものであり、各奏法毎に必要なパラメ
ータ種類の数や各パラメータで定義する内容は異なる。
例えば、奏法「チョーキング」の場合には、「深さ」は
音高の変化の程度を表わすパラメータ、「速さ」は音高
の変化の速さ又は長さを表わすパラメータ、「カーブ」
は音高の変化の変わり方(例えば、直線型変化、上弦曲
線型変化、下弦曲線型変化など)を表わすパラメータ、
「ディレイ」はチョーキングが始まるまでの経過時間を
表わすパラメータである。奏法「ビブラート」の場合に
は、「深さ」は音高の変化幅を表わすパラメータ、「速
さ」は周期の長さを表わすパラメータ、「ディレイ」は
始まるまでの経過時間を表わすパラメータであり、「カ
ーブ」は定義されない。なお、表情付け用パラメータは
「深さ」「速さ」「カーブ」「ディレイ」以外の他のパ
ラメータを含んでいてもよい。また、「深さ」「速さ」
「カーブ」「ディレイ」の全てのパラメータを必ずしも
含んでいる必要はないし、「深さ」「速さ」「カーブ」
「ディレイ」のパラメータを全く含まずに、これら以外
の他のパラメータのみを含むものであってもよいことは
言うまでもない。
On the other hand, the facial expression parameter is a parameter used when the facial expression corresponding to the rendition style is applied to the portion to which the rendition style specified according to the rendition style detection parameter is to be given. The facial expression parameters include, for example, multiple types of parameters such as “depth”, “speed”, “curve”, “delay”, etc. The number of types of parameters required for each rendition style and the contents defined by each parameter Is different.
For example, in the case of playing style "choking", "depth" is a parameter indicating the degree of change in pitch, "speed" is a parameter indicating the speed or length of change in pitch, and "curve".
Is a parameter that indicates how the pitch changes (for example, linear change, upper chord curve change, lower chord curve change, etc.),
“Delay” is a parameter that represents the elapsed time until choking starts. In the case of playing style “vibrato”, “depth” is a parameter indicating the pitch change range, “speed” is a parameter indicating the length of the cycle, and “delay” is a parameter indicating the elapsed time until the start. , "Curve" is not defined. The facial expression parameter may include parameters other than “depth”, “speed”, “curve”, and “delay”. Also, "depth" and "speed"
It is not necessary to include all the parameters of "curve" and "delay", and "depth""speed""curve"
It goes without saying that the "delay" parameter may not be included at all and only other parameters may be included.

【0017】シーケンスデータは楽曲データに対する自
動表情付けがユーザの期待通りに行われるかどうかを確
認するために用いられる表情(奏法)確認のための専用
データであり、奏法パラメータと同様にして各奏法毎に
対応するように用意される。該シーケンスデータは自動
表情付け対象の楽曲データに比べて非常に短い区間内
(例えば1小節前後)の楽曲を表わす楽曲データであ
り、各奏法が付加される典型的な音符列などを含むデー
タである。詳しくは後述するが、「表情付け用パラメー
タ設定・確認画面」(図4参照)におけるオーディショ
ンボタンが操作された場合には、選択されている奏法に
対応するシーケンスデータが読み出され、調整された表
情付け用パラメータに基づく自動表情付けを該シーケン
スデータに対して行い、ユーザはその結果を試聴するこ
とができるようになっている。このように、ユーザが指
定した表情が付加された部分を中心にごく短い区間で楽
曲の試聴を行うことができるようにすると、ユーザはよ
りイメージに近い表情を付与するためにはどの表情付け
用パラメータをどの程度の値に設定すればよいのかが分
かりやすい。その他のデータは、上記以外のデータであ
る。例えば、CPU1により実行あるいは参照される
「自動表情付け処理」などの各種制御プログラム、音色
やテンポなどの自動演奏の際に用いられる各種の演奏条
件に関するデータなどである。
The sequence data is dedicated data for confirming the facial expression (playing style) used to confirm whether or not the automatic facial expression assignment to the music data is performed as expected by the user, and is the same as the playing style parameters. It is prepared to correspond to each case. The sequence data is music data representing a music within a very short section (for example, about one measure) as compared to the music data to be subjected to automatic facial expression, and is data including a typical note string to which each rendition style is added. is there. As will be described later in detail, when the audition button on the “expression setting parameter setting / confirmation screen” (see FIG. 4) is operated, the sequence data corresponding to the selected rendition style is read out and adjusted. Automatic facial expression based on the facial expression parameter is applied to the sequence data, and the user can preview the result. In this way, if the user can listen to the music in a very short period centered on the part to which the facial expression specified by the user is added, the user can use which facial expression to add a facial expression closer to the image. It is easy to understand what value the parameter should be set to. The other data is data other than the above. For example, it is various control programs such as "automatic facial expression processing" executed or referred to by the CPU 1, and data relating to various performance conditions used in automatic performance such as tone color and tempo.

【0018】次に、RAM3に記憶される各種データに
ついて、図3を用いて説明する。図3は、RAM3の所
定領域に記憶される各種データを説明するための概念図
である。この実施例に示すRAM3におけるデータ記憶
領域は、記憶するデータの種類毎に、実行プログラムエ
リア、レジスタエリア、複数のメモリエリア(ここでは
メモリエリア(1)〜メモリエリア(4))、各奏法の
パラメータ現在値エリア、その他のエリアとにより主に
構成される。
Next, various data stored in the RAM 3 will be described with reference to FIG. FIG. 3 is a conceptual diagram for explaining various data stored in a predetermined area of the RAM 3. The data storage area in the RAM 3 shown in this embodiment includes an execution program area, a register area, a plurality of memory areas (here, memory area (1) to memory area (4)), and performance styles for each type of data to be stored. It is mainly composed of a parameter present value area and other areas.

【0019】実行プログラムエリアは、CPU1が現在
実行中の制御プログラムを記憶するメモリ領域である。
すなわち、所定の制御プログラムが実行される際には、
ROM2や外部記憶装置4にその他のデータとして記憶
されている各種制御プログラムが読み出されて該実行プ
ログラムエリアに書き込まれることで、CPU1はプロ
グラムを実行することができる。レジスタエリアは、C
PU1が所定のプログラムを実行する際に発生する各種
データなどを一時的に記憶するメモリ領域である。メモ
リエリア(1)〜メモリエリア(4)は、修正前の元デ
ータとそれに対応する修正後の新データとをそれぞれ記
憶するエリアである。この実施例において、メモリエリ
ア(1)はユーザにより自動的に表情付けを行う対象と
して選択された元の楽曲データ(ROM2や外部記憶装
置4に記憶されている楽譜をそのまま表わしている楽曲
データなど)を記憶し、メモリエリア(2)は奏法パラ
メータに従って自動的に表情付けされた新の楽曲データ
(修正された楽曲データ)を記憶する。また、メモリエ
リア(3)は選択した奏法に対応した元のシーケンスデ
ータを記憶し、メモリエリア(4)は「表情付け用パラ
メータ設定・確認画面」(図4参照)を用いて変更され
た表情付け用パラメータに従って自動表情付けされた新
のシーケンスデータを記憶する。すなわち、「表情付け
用パラメータ設定・確認画面」におけるオーディション
ボタンを操作した場合にユーザが試聴することのできる
楽曲は、メモリエリア(4)に記憶されているシーケン
スデータに基づいて自動演奏される楽曲である。
The execution program area is a memory area for storing the control program currently being executed by the CPU 1.
That is, when a predetermined control program is executed,
Various control programs stored as other data in the ROM 2 or the external storage device 4 are read and written in the execution program area, so that the CPU 1 can execute the programs. Register area is C
A memory area for temporarily storing various data generated when the PU 1 executes a predetermined program. The memory area (1) to the memory area (4) are areas for respectively storing the original data before correction and the corresponding new data after correction. In this embodiment, the memory area (1) is the original music data selected by the user as an object to be automatically given a facial expression (music data directly representing the musical score stored in the ROM 2 or the external storage device 4, etc.). ) Is stored, and the memory area (2) stores new music data (corrected music data) that is automatically given a facial expression according to the rendition style parameter. In addition, the memory area (3) stores the original sequence data corresponding to the selected playing style, and the memory area (4) changes the facial expression using the “expression setting parameter setting / confirmation screen” (see FIG. 4). Store new sequence data that is automatically facial expression according to the attachment parameters. That is, the songs that the user can listen to when operating the audition button on the "expression setting parameter confirmation / confirmation screen" are automatically played based on the sequence data stored in the memory area (4). Is.

【0020】各奏法のパラメータ現在値エリアは、「表
情付け用パラメータ設定・確認画面」(図4参照)を用
いて変更された各奏法毎の表情付け用パラメータの設定
値を記憶するメモリ領域である。楽曲データに対し自動
表情付けする際には、該パラメータ現在値エリアに記憶
されている各奏法毎の表情付け用パラメータの値に基づ
き楽曲データの修正を行う。その他のエリアは、CPU
1が所定のプログラムを実行する際に発生する各種デー
タなどを一時的に記憶するワーキングメモリ領域、ある
いは現在実行中のプログラムやそれに関連する上記以外
の各種データを記憶するメモリ領域などである。なお、
ROM2や外部記憶装置4あるいはRAM3に記憶する
データには上述したようなデータ以外にも他のデータが
含まれていてもよいことは言うまでもない。
The current parameter area for each rendition style is a memory area for storing the set value of the rendition style parameter for each rendition style changed using the "expression expression parameter setting / confirmation screen" (see FIG. 4). is there. When automatic facial expression is given to the music data, the music data is corrected based on the value of the facial expression parameter for each rendition style stored in the parameter present value area. Other areas are CPU
1 is a working memory area for temporarily storing various data generated when a predetermined program is executed, or a memory area for storing the currently executing program and various other data related thereto. In addition,
It goes without saying that the data stored in the ROM 2, the external storage device 4, or the RAM 3 may include other data in addition to the data described above.

【0021】図1に示すハードウエア構成の説明に戻っ
て、演奏操作子5Aは楽音の音高を選択するための複数
の鍵を備えた、例えば鍵盤等のようなものであり、各鍵
に対応してキースイッチを有しており、この演奏操作子
5Aは楽音演奏のために使用できるのは勿論のこと、楽
曲データやシーケンスデータに基づく自動演奏を行う際
に用いるピッチやリズムなどを入力するための入力手段
として使用することもできる。勿論、演奏操作子5Aは
鍵盤等の形態に限らず、楽音の音高を選択するための弦
を備えたネック等のような形態のものなど、どのような
ものであってもよいことは言うまでもない。検出回路5
は、演奏操作子5Aの各鍵の押圧及び離鍵を検出するこ
とによって、あるいは弦の振動を検出することによって
検出出力を生じる。
Returning to the explanation of the hardware configuration shown in FIG. 1, the performance operator 5A is, for example, a keyboard provided with a plurality of keys for selecting the pitch of a musical tone, and each key has a key. Correspondingly, it has a key switch, and this performance operator 5A can be used not only for musical performance, but also for inputting pitch and rhythm used when performing automatic performance based on music data and sequence data. It can also be used as an input means for Needless to say, the performance operator 5A is not limited to a keyboard or the like, and may be any one such as a neck having a string for selecting the pitch of a musical tone. Yes. Detection circuit 5
Generates a detection output by detecting pressing and releasing of each key of the performance operator 5A or by detecting vibration of a string.

【0022】パネル操作子(設定スイッチ等)6Aは
「自動表情付け処理」を実行するための自動表情付け開
始スイッチ、自動表情付け対象とする楽曲データを選択
するための楽曲データ選択スイッチ、表情付けする奏法
の種類を選択する奏法選択スイッチ、各奏法毎の表情付
け用パラメータを変更する「表情付け用パラメータ設定
・確認画面」を呼び出すための表情付け用パラメータ調
整スイッチ、あるいは自動演奏時における各種演奏条件
等を入力するための演奏条件入力スイッチ等、各種の操
作子を含んで構成される。勿論、音高、音色、効果等を
選択・設定・制御するために用いる数値データ入力用の
テンキーや文字データ入力用のキーボード、あるいは操
作量に応じたピッチベンド値を設定することのできるピ
ッチベンドホイールなどの各種操作子を含んでいてもよ
い。スイッチ検出回路6は、パネル操作子6Aの各操作
子の操作状態を検出し、その操作状態に応じたスイッチ
情報を通信バス1Dを介してCPU1に出力する。表示
回路7は楽曲データに含まれる一連の音符列の各音高を
それぞれ表す複数の音高情報等の各種情報を、例えば液
晶表示パネル(LCD)やCRT等から構成されるディ
スプレイ7Aに表示するのは勿論のこと、自動演奏に関
する演奏情報あるいはCPU1の制御状態などをディス
プレイ7Aに表示する。
A panel operator (setting switch or the like) 6A is an automatic facial expression start switch for executing the "automatic facial expression processing", a music data selection switch for selecting music data to be an automatic facial expression target, and a facial expression. Rendition style selection switch to select the type of rendition style to play, expression adjustment parameter adjustment switch to call up the "expression expression parameter setting / confirmation screen" to change the expression expression parameters for each rendition style, or various performances during automatic performance It is configured to include various operating elements such as a performance condition input switch for inputting conditions and the like. Of course, a numeric keypad for inputting numerical data and a keyboard for inputting character data used to select, set, and control pitches, tones, effects, etc., or a pitch bend wheel that can set a pitch bend value according to the operation amount, etc. Various operators may be included. The switch detection circuit 6 detects an operation state of each operator of the panel operator 6A and outputs switch information according to the operation state to the CPU 1 via the communication bus 1D. The display circuit 7 displays various pieces of information such as a plurality of pieces of pitch information respectively representing the pitches of a series of note strings included in the music data on a display 7A composed of, for example, a liquid crystal display panel (LCD) or a CRT. Of course, performance information regarding automatic performance or the control status of the CPU 1 is displayed on the display 7A.

【0023】音源回路8は、複数のチャンネルで楽音信
号の同時発生が可能であり、通信バス1Dを経由して与
えられた楽曲データを入力し、この楽曲データに基づい
て楽音信号を発生する。音源回路8から発生された楽音
信号は、図示しない効果回路(例えばDSP(Digital
Signal Processor))などにより所定のディジタル信号
処理が施され、該信号処理された楽音信号はサウンドシ
ステム8Aに与えられて発音される。楽曲データの形式
はSMF(Standard MIDI File)形式のようなディジタ
ル符号化されたものであってもよいし、PCM、DPC
M、ADPCMのような波形サンプルデータ方式からな
るものであってもよい。また、効果回路(図示せず)を
音源回路8とサウンドシステム8Aとの間に配置して前
記音源回路8から発生された楽音信号に対して各種効果
を与えるようにしてもよい。前記音源回路8における楽
音信号発生方式はいかなるものを用いてもよい。例え
ば、発生すべき楽音の音高に対応して変化するアドレス
データに応じて波形メモリに記憶した楽音波形サンプル
値データを順次読み出す波形メモリ読み出し方式、又は
上記アドレスデータを位相角パラメータデータとして所
定の周波数変調演算を実行して楽音波形サンプル値デー
タを求めるFM方式、あるいは上記アドレスデータを位
相角パラメータデータとして所定の振幅変調演算を実行
して楽音波形サンプル値データを求めるAM方式等の公
知の方式を適宜採用してもよい。すなわち、音源回路8
の方式は、波形メモリ方式、FM方式、物理モデル方
式、高調波合成方式、フォルマント合成方式、VCO+
VCF+VCAのアナログシンセサイザ方式、アナログ
シミュレーション方式等、どのような方式であってもよ
い。また、専用のハードウェアを用いて音源回路7を構
成するものに限らず、DSPとマイクロプログラム、あ
るいはCPUとソフトウェアを用いて音源回路8を構成
するようにしてもよい。さらに、1つの回路を時分割で
使用することによって複数の発音チャンネルを形成する
ようなものでもよいし、1つの発音チャンネルが1つの
回路で形成されるようなものであってもよい。
The tone generator circuit 8 is capable of simultaneously generating musical tone signals on a plurality of channels, inputs musical piece data given via the communication bus 1D, and generates musical tone signals based on the musical piece data. The tone signal generated from the tone generator circuit 8 is an effect circuit (not shown) (for example, DSP (Digital
Signal processor)) and the like to perform predetermined digital signal processing, and the signal-processed musical tone signal is given to the sound system 8A to be sounded. The music data format may be digitally encoded such as SMF (Standard MIDI File) format, PCM, DPC.
A waveform sample data system such as M or ADPCM may be used. Further, an effect circuit (not shown) may be arranged between the sound source circuit 8 and the sound system 8A to give various effects to the tone signal generated from the sound source circuit 8. Any tone signal generation method may be used in the tone generator circuit 8. For example, a waveform memory reading method for sequentially reading the musical tone waveform sample value data stored in the waveform memory according to the address data that changes corresponding to the pitch of the musical tone to be generated, or the above-mentioned address data as phase angle parameter data A well-known method such as an FM method for executing a frequency modulation calculation to obtain musical tone waveform sample value data, or an AM method for performing a predetermined amplitude modulation calculation using the address data as phase angle parameter data to obtain a musical tone waveform sample value data. May be appropriately adopted. That is, the sound source circuit 8
Are waveform memory method, FM method, physical model method, harmonic synthesis method, formant synthesis method, VCO +
Any method such as an analog synthesizer method of VCF + VCA or an analog simulation method may be used. Further, the tone generator circuit 7 is not limited to be configured by using dedicated hardware, and the tone generator circuit 8 may be configured by using a DSP and a microprogram, or a CPU and software. Furthermore, a plurality of sound generation channels may be formed by using one circuit in a time division manner, or one sound generation channel may be formed by one circuit.

【0024】インタフェース9は該電子楽器と外部の楽
曲データ生成機器(図示せず)などとの間で各種情報を
送受するための、例えばMIDIインタフェースや通信
インタフェースなどである。MIDIインタフェース
は、外部の楽曲データ生成機器(この場合には、他のM
IDI機器等)からMIDI規格の楽音情報(MIDI
楽曲データ)を当該電子楽器へ入力したり、あるいは当
該電子楽器からMIDI規格の楽音情報(MIDI楽曲
データ)を他のMIDI機器等へ出力するためのインタ
フェースである。他のMIDI機器はユーザによる操作
に応じてMIDI形式のデータを発生する機器であれば
よく、鍵盤型、ギター型、管楽器型、打楽器型、ミブリ
型等どのようなタイプの操作子を具えた(若しくは、操
作形態からなる)機器であってもよい。通信インタフェ
ースは、例えばLANやインターネット、電話回線等の
有線あるいは無線の通信ネットワーク(図示せず)に接
続されており、概通信ネットワークを介して、外部の楽
曲データ生成機器(この場合には、サーバコンピュータ
等)と接続され、当該サーバコンピュータから制御プロ
グラムや楽曲データなどの各種情報を該電子楽器に取り
込むためのインタフェースである。すなわち、ROM2
や外部記憶装置4等に制御プログラムや楽曲データなど
の各種情報が記憶されていない場合に、サーバコンピュ
ータから各種情報をダウンロードするために用いられ
る。クライアントとなる電子楽器は、通信インターフェ
ース及び通信ネットワークを介してサーバコンピュータ
へと制御プログラムや楽曲データなどの各種情報のダウ
ンロードを要求するコマンドを送信する。サーバコンピ
ュータは、このコマンドを受け、要求された各種情報を
通信ネットワークを介して本電子楽器へと配信し、本電
子楽器が通信インタフェースを介して各種情報を受信し
て外部記憶装置4等に蓄積することにより、ダウンロー
ドが完了する。
The interface 9 is, for example, a MIDI interface or a communication interface for transmitting and receiving various information between the electronic musical instrument and an external music data generating device (not shown). The MIDI interface is an external music data generation device (in this case, another M
Music information of MIDI standard (MIDI device, etc.) (MIDI
This is an interface for inputting music data) to the electronic musical instrument or outputting musical tone information (MIDI music data) of the MIDI standard from the electronic musical instrument to another MIDI device or the like. The other MIDI device may be any device that generates MIDI format data in response to a user's operation, and has any type of operating element such as a keyboard type, a guitar type, a wind instrument type, a percussion instrument type, a mibli type ( Alternatively, it may be a device (consisting of an operation mode). The communication interface is connected to a wired or wireless communication network (not shown) such as a LAN, the Internet, or a telephone line, and an external music data generating device (in this case, a server in this case) via the general communication network. An interface for connecting various information such as a control program and music data to the electronic musical instrument from the server computer. That is, ROM2
It is used to download various types of information from the server computer when various types of information such as control programs and music data are not stored in the external storage device 4 or the like. The electronic musical instrument serving as a client transmits a command requesting download of various information such as a control program and music data to the server computer via the communication interface and the communication network. The server computer receives this command, distributes the requested various information to the electronic musical instrument via the communication network, the electronic musical instrument receives the various information via the communication interface, and stores the information in the external storage device 4 or the like. By doing so, the download is completed.

【0025】なお、上記インタフェース9をMIDIイ
ンタフェースで構成した場合、該MIDIインタフェー
スは専用のMIDIインタフェースを用いるものに限ら
ず、RS232−C、USB(ユニバーサル・シリアル
・バス)、IEEE1394(アイトリプルイー139
4)等の汎用のインタフェースを用いてMIDIインタ
フェースを構成するようにしてもよい。この場合、MI
DIイベントデータ以外のデータをも同時に送受信する
ようにしてもよい。MIDIインタフェースとして上記
したような汎用のインタフェースを用いる場合には、他
のMIDI機器はMIDIイベントデータ以外のデータ
も送受信できるようにしてよい。勿論、音楽情報に関す
るデータフォーマットはMIDI形式のデータに限ら
ず、他の形式であってもよく、その場合はMIDIイン
タフェースと他のMIDI機器はそれにあった構成とす
る。
When the interface 9 is composed of a MIDI interface, the MIDI interface is not limited to a dedicated MIDI interface, but RS232-C, USB (Universal Serial Bus), IEEE 1394 (Eye Triple Ethernet 139).
The MIDI interface may be configured using a general-purpose interface such as 4). In this case, MI
Data other than DI event data may be transmitted / received at the same time. When a general-purpose interface as described above is used as the MIDI interface, other MIDI equipment may be able to transmit and receive data other than MIDI event data. Of course, the data format relating to the music information is not limited to the MIDI format data, and other formats may be used. In that case, the MIDI interface and other MIDI equipment have a configuration suitable for it.

【0026】ここで、パネル操作子6Aにおける表情付
け用パラメータ調整スイッチを操作することに伴って、
ディスプレイ7A上に表示される「表情付け用パラメー
タ設定・確認画面」について、図4を用いて説明する。
図4は、「表情付け用パラメータ設定・確認画面」の一
実施例を示す概念図である。
Here, with the operation of the facial expression setting parameter adjustment switch on the panel operator 6A,
The "expression setting parameter setting / confirmation screen" displayed on the display 7A will be described with reference to FIG.
FIG. 4 is a conceptual diagram showing an example of the "expression setting parameter setting / confirmation screen".

【0027】この図4に示す実施例から理解できるよう
に、ディスプレイ7A上に表示される「表情付け用パラ
メータ設定・確認画面」は、画面上段に奏法種類のテン
プレートGa、画面中段に表情付け用パラメータのイメ
ージ画像Gb、画面下段に各種の表情付け用パラメータ
設定スイッチGcと「オーディション」ボタンBaと
「設定」ボタンBbとを表示する画面である。画面上段
に表示される奏法種類テンプレートGaは、後述する
「自動表情付け処理」(図5参照)の際にユーザにより
表情付けする奏法として選択された奏法の種類を表示す
る。すなわち、この実施例では、楽曲データに対して表
情付けする奏法として「チョーキング」「ビブラート」
「スタッカート」「グリッサンド」の4つの種類の奏法
が選択されている場合を示している。ユーザは表示され
ている該奏法毎のテンプレートGaを指定することによ
り、各奏法に対応する表情付け用パラメータの設定を行
なうことができるようになっている。画面中段に表示さ
れる表情付け用パラメータのイメージ画像Gbは選択さ
れた奏法に対応する表情付け用パラメータをイメージ表
示したものであり、該イメージ画像Gbは奏法に従う表
示形態で表示される画像である。画面下段に表示される
表情付け用パラメータ設定スイッチGcは、選択された
奏法に対応する表情付け用パラメータの設定値を変更す
るためのスイッチである。この実施例では、黒く塗りつ
ぶした上向きあるいは下向きの三角形を押下操作する度
に細かい数値ステップでパラメータ設定値を変更するこ
とが可能なカウンタスイッチと、黒く塗りつぶした四角
形を左右方向にスライド操作することで大きな数値ステ
ップでパラメータ設定値を変更することが可能なスライ
ドスイッチとを表示している。これらの各スイッチ操作
によって設定されたパラメータ設定値に従い、画面中段
に表示された表情付け用パラメータのイメージ画像Gb
の表示形態は変化する。これにより、ユーザは表情付け
パラメータの設定変更による楽曲の変化を視覚的に確認
することができるようになっている。
As can be understood from the embodiment shown in FIG. 4, the "expression setting parameter setting / confirmation screen" displayed on the display 7A is the rendition style template Ga in the upper part of the screen, and the expression expression template in the middle part of the screen. This is a screen for displaying a parameter image image Gb, various facial expression setting parameter switches Gc, an “audition” button Ba, and a “setting” button Bb at the bottom of the screen. The rendition style template Ga displayed in the upper part of the screen displays the kind of rendition style selected by the user as a rendition style to be expressed by the user in the “automatic facial expression processing” (see FIG. 5) described later. That is, in this embodiment, "choking" and "vibrato" are used as rendition styles for giving expression to the music data.
The case where four types of rendition styles of "staccato" and "glissando" are selected is shown. By designating the displayed template Ga for each rendition style, the user can set the facial expression parameter corresponding to each rendition style. The image image Gb of the facial expression parameter displayed in the middle of the screen is an image display of the facial expression parameter corresponding to the selected rendition style, and the image image Gb is an image displayed in a display form according to the rendition style. . The expression setting parameter setting switch Gc displayed in the lower part of the screen is a switch for changing the set value of the expression setting parameter corresponding to the selected performance style. In this embodiment, a counter switch capable of changing the parameter setting value in fine numerical steps each time the black-painted upward or downward triangle is pressed, and a black-painted quadrangle are slid horizontally. A slide switch capable of changing the parameter setting value in large numerical steps is displayed. In accordance with the parameter setting values set by these switch operations, the image image Gb of the facial expression parameter displayed in the middle part of the screen
The display form of changes. As a result, the user can visually confirm the change of the music due to the change of the setting of the facial expression parameter.

【0028】上記表情付け用パラメータのイメージ画像
Gb及び表情付け用パラメータ設定スイッチGcは、選
択された奏法に対応した表示がなされる。すなわち、奏
法毎の表情付け用パラメータに含まれるパラメータ内
容、例えば「深さ」「速さ」「カーブ」「ディレイ」
「その他」といった各種パラメータのうちどのパラメー
タが含まれているものであるかによって、表情付け用パ
ラメータのイメージ画像Gbの表示形態や表情付け用パ
ラメータ設定スイッチGcの表示種類が異なる。この実
施例では、奏法として「ビブラート」が選択されている
場合の表情付け用パラメータのイメージ画像Gb及び表
情付け用パラメータ設定スイッチGcを示した。すなわ
ち、上述したように「ビブラート」に対応する表情付け
パラメータに含まれるパラメータ内容は、音高の変化幅
を定義する「深さ」、周期の長さを定義する「速さ」、
始まるまでの経過時間を定義する「ディレイ」である。
そこで、これらのパラメータ内容を視覚的に確認するの
に最も適した表示を行うと、図示したような波形のよう
な表示形態のイメージ画像Gbが表示される。一方、上
記したパラメータ内容を変更するのに最も適した表情付
け用パラメータ設定スイッチGcを表示すると、図示し
たような「デプス」スイッチと「レイト」スイッチとが
表示されることになる。すなわち、「デプス」スイッチ
は「深さ」を、「レイト」スイッチは「ディレイ」をそ
れぞれ設定するためのスイッチである。なお、この実施
例においては「速さ」を設定するためのスイッチ表示が
ないが、「ビブラート」における「速さ」は周期の長さ
を定義するものであり、この周期の長さはテンポに従っ
て決まるものであるから、「ビブラート」の場合には
「速さ」に対応するスイッチ表示がなされない。そし
て、表情付け用パラメータのイメージ画像には、これら
の表情付け用パラメータ設定スイッチGcによるパラメ
ータ設定値の変更による楽音特性の変化をユーザがイメ
ージ的に捉えることができるようなイメージ画像を表示
する。このように、表情付け用パラメータのイメージ画
像Gb及び表情付け用パラメータ設定スイッチGcに表
示する表示内容は、選択された奏法に対応する。なお、
この実施例において表情付け用パラメータ設定スイッチ
Gcに表示する「ランダム」スイッチは、「速さ」や
「ディレイ」などにより設定可能なパラメータ設定値を
ランダムに設定するためのスイッチである。
The expression image parameter image Gb and the expression setting parameter setting switch Gc are displayed according to the selected rendition style. That is, the parameter content included in the facial expression parameter for each rendition style, for example, “depth”, “speed”, “curve”, “delay”
The display form of the image image Gb of the facial expression parameter and the display type of the facial expression parameter setting switch Gc differ depending on which parameter is included among various parameters such as “others”. In this embodiment, the image image Gb of the facial expression setting parameter and the facial expression setting parameter setting switch Gc when "Vibrato" is selected as the rendition style are shown. That is, as described above, the parameter content included in the facial expression parameter corresponding to “vibrato” is “depth” that defines the pitch change range, “speed” that defines the length of the cycle,
It is a "delay" that defines the elapsed time to start.
Therefore, when the display most suitable for visually confirming the contents of these parameters is performed, an image image Gb having a display form such as the waveform shown in the figure is displayed. On the other hand, when the expression setting parameter setting switch Gc most suitable for changing the above-mentioned parameter contents is displayed, the "depth" switch and the "rate" switch as shown in the figure are displayed. That is, the "depth" switch is a switch for setting "depth", and the "rate" switch is a switch for setting "delay". Although there is no switch display for setting the "speed" in this embodiment, the "speed" in the "vibrato" defines the length of the cycle, and the length of the cycle depends on the tempo. Since it is decided, in the case of "vibrato", the switch display corresponding to "speed" is not displayed. Then, the image image of the facial expression parameter is displayed so that the user can visually grasp the change in the musical tone characteristics due to the change of the parameter setting value by the facial expression parameter setting switch Gc. In this way, the display image displayed on the image image Gb of the facial expression setting parameter and the facial expression setting parameter setting switch Gc corresponds to the selected rendition style. In addition,
In this embodiment, the "random" switch displayed on the facial expression setting parameter setting switch Gc is a switch for randomly setting parameter setting values that can be set by "speed", "delay" or the like.

【0029】画面下段に表示される「オーディション」
ボタンBaは、ユーザが表情付け用パラメータ設定スイ
ッチGcを用いて設定した内容に従って表情付けされた
所定の演奏区間の楽曲を試聴するためのボタンである。
すなわち、この「オーディション」ボタンBaの操作に
従い、設定された各パラメータの設定値で奏法毎に対応
する所定のシーケンスデータに対して表情付けを行い、
該表情付けされたシーケンスデータに基づき楽音を発生
する。また、「設定」ボタンBbは、ユーザが表情付け
用パラメータ設定スイッチGcを用いて設定した設定値
にパラメータ値を決定し、該パラメータ値で楽曲データ
に表情付けを開始することを決定するためのボタンであ
る。これらの各ボタン操作に伴う詳しい説明は後述する
ことから、ここでの説明を省略する。
[Audition] displayed at the bottom of the screen
The button Ba is a button for preview-listening to a musical piece in a predetermined performance section in which an expression is added according to the contents set by the user using the expression setting parameter setting switch Gc.
That is, according to the operation of the "audition" button Ba, the predetermined sequence data corresponding to each rendition style is given a facial expression by the set value of each set parameter,
A musical sound is generated based on the sequence data with the expression. Further, the “setting” button Bb is used to determine a parameter value to a setting value set by the user using the facial expression setting parameter setting switch Gc, and to start expressing the music data with the parameter value. It is a button. A detailed description associated with the operation of each of these buttons will be described later, and a description thereof will be omitted here.

【0030】上述したように、楽曲データを一連の音符
列の各音高情報のみで構成すると機械的な無表情な演奏
が再生されることとなり、こうした演奏は音楽的に非常
に不自然な演奏である。そこで、より自然な演奏、美し
い演奏、生々しい演奏とするためには、様々な楽器毎に
特有の音楽的な表情(すなわち、楽器らしさ)を表す演
奏情報を制御データとして楽曲データに付加する(すな
わち、表情付けを行う)のがよいことは既に述べた。例
えば、ギターやベースなどの弦楽器においてはチョーキ
ング奏法が知られており、このチョーキング奏法を普通
の奏法に織り交ぜて用いることによって、ギターらしい
表情を持った自然な演奏を作り出すことができる。本発
明に係る楽曲データの自動表情付け装置は、楽曲データ
に対して楽器特有の音楽的な表情(例えば、弦楽器にお
けるチョーキング奏法など)に関する演奏情報を自動的
に付加する。そこで、楽曲データに対して自動的に楽器
特有の音楽的な表情を付加する「自動表情付け処理」に
ついて、図5に従って説明する。図5は、該電子楽器に
おけるCPU1で実行する「自動表情付け処理」の一実
施例を示したフローチャートである。該「自動表情付け
処理」は、パネル操作子6Aにおける自動表情付け開始
スイッチの操作に伴って、CPU1で実行される処理で
ある。
As described above, if the music data is composed of only pitch information of a series of note strings, a mechanical expressionless performance is reproduced, and such performance is a musically unnatural performance. Is. Therefore, in order to achieve a more natural performance, a beautiful performance, and a vivid performance, performance information representing a musical expression (that is, musical instrument-likeness) peculiar to each musical instrument is added to the music data as control data ( That is, it is already said that it is better to add facial expressions). For example, choking rendition is known for stringed instruments such as guitars and basses, and by using this choking rendition in an interwoven manner, it is possible to create a natural performance having a guitar-like expression. The musical piece data automatic facial expression imparting apparatus according to the present invention automatically adds performance information relating to a musical expression peculiar to a musical instrument (for example, choking performance in a stringed musical instrument) to the musical piece data. Therefore, the "automatic facial expression processing" for automatically adding a musical expression peculiar to a musical instrument to music data will be described with reference to FIG. FIG. 5 is a flowchart showing an example of the "automatic facial expression processing" executed by the CPU 1 of the electronic musical instrument. The "automatic facial expression process" is a process executed by the CPU 1 in response to the operation of the automatic facial expression start switch on the panel operator 6A.

【0031】ステップS1では、自動表情付け対象とす
る楽曲を既にユーザが選択済みであるか否かを判定す
る。すなわち、自動表情付け処理対象とする楽曲データ
が、ユーザによる楽曲データ選択スイッチの操作に従っ
て既に選択されているか選択されていないかを判定す
る。楽曲が選択済みでないと判定した場合、つまり楽曲
がユーザにより未だに選択されていない場合には(ステ
ップS1のNO)、ユーザに楽曲を選択させるように促
し、ユーザにより楽曲選択がなされると該選択された楽
曲に対応する楽曲データを読み出してメモリエリア
(1)に記憶する(ステップS2)。ステップS3で
は、奏法選択済みであるか否かを判定する。すなわち、
自動表情付けする奏法の種類が、ユーザによる奏法選択
スイッチの操作に従って既に選択されているか選択され
ていないかを判定する。奏法が選択済みでないと判定し
た場合、つまり奏法がユーザにより未だに選択されてい
ない場合には(ステップS3のNO)、ユーザに奏法を
選択させる(ステップS4)。自動表情付けする対象の
楽曲データや自動表情付けする奏法の種類が選択されて
いないと、該「自動表情付け処理」を行っても読み出し
た楽曲データを修正することがなく元の表情付けされて
いない楽曲のままであることから、処理を行うことが無
駄になる。そこで、例えばディスプレイ7A上にユーザ
に対して楽曲を選択するように表示したり(ステップS
2参照)、奏法を選択させるようにする(ステップS4
参照)。ユーザにより楽曲が選択された場合には、RO
M2や外部記憶装置4などに記憶されている楽曲データ
の中から選択された楽曲に対応する楽曲データを読み出
し、RAM3のメモリエリア(1)に記憶する。ユーザ
により奏法が選択された場合には、ROM2や外部記憶
装置4などに記憶されている奏法パラメータの中から選
択された奏法に対応する奏法パラメータを読み出し、R
AM3の各奏法のパラメータ現在値エリアに記憶する。
In step S1, it is determined whether or not the user has already selected the music piece to be the subject of automatic facial expression. That is, it is determined whether or not the music data to be subjected to the automatic facial expression processing is already selected or not selected according to the operation of the music data selection switch by the user. When it is determined that the music has not been selected, that is, when the music has not been selected by the user (NO in step S1), the user is prompted to select the music, and when the music selection is made by the user, the selection is performed. The music data corresponding to the selected music is read and stored in the memory area (1) (step S2). In step S3, it is determined whether or not the rendition style has been selected. That is,
It is determined whether the type of rendition style to be automatically expressed is already selected or not selected according to the operation of the rendition style selection switch by the user. If it is determined that the rendition style has not been selected, that is, if the rendition style has not been selected by the user (NO in step S3), the user is made to select the rendition style (step S4). If the music data to be automatically expressed and the type of rendition style to be automatically expressed are not selected, the original music expression will not be corrected even if the "automatic expression processing" is performed. Since there is no music, it is useless to perform processing. Therefore, for example, it is displayed on the display 7A so that the user can select a song (step S
2) so that the rendition style is selected (step S4)
reference). If a song is selected by the user, RO
The music data corresponding to the music selected from the music data stored in the M2 or the external storage device 4 is read out and stored in the memory area (1) of the RAM 3. When the rendition style is selected by the user, the rendition style parameter corresponding to the rendition style selected from the rendition style parameters stored in the ROM 2 or the external storage device 4 is read out, and R
It is stored in the parameter present value area of each rendition style of AM3.

【0032】なお、上記ステップS2においてユーザに
対して楽曲を選択させる際には、ギターやピアノあるい
はサックスといった楽器種類(あるいは音色種類)、ロ
ックやジャズあるいはクラシックなどの音楽ジャンル、
アクティブなリードなどの曲タイプ等を組み合わせて指
定することにより楽曲を選択することができるようにし
てよい。また、上記ステップS4においてユーザに対し
て奏法を選択させる際には、複数種類の奏法をユーザが
選択することができる。ただし、選択された楽曲データ
における楽器種類、音楽ジャンルなどによっては表情付
けする奏法として適切でないものがあることから、そう
した奏法を選択することができないようにしてもよい。
When the user selects a song in step S2, the type of musical instrument (or tone type) such as guitar, piano or sax, the musical genre such as rock, jazz or classical music,
A song may be selected by designating a combination of song types such as active leads. Further, when the user selects the rendition style in step S4, the user can select a plurality of rendition styles. However, depending on the type of musical instrument, music genre, etc. in the selected music data, there are some unsuitable rendition styles, so that such rendition styles may not be selected.

【0033】ステップS5では、表情付け用パラメータ
の変更操作が行われたか否かを判定する。すなわち、ユ
ーザによる表情付け用パラメータ調整スイッチの操作に
応じて「表情付け用パラメータ設定・確認画面」(図4
参照)がディスプレイ7A上に表示されており、該「表
情付け用パラメータ設定・確認画面」を用いての奏法毎
の表情付け用パラメータの変更操作(例えば、デプスや
レイトあるいはランダムなどの各スイッチ操作によるパ
ラメータ設定値の変更)が行われたか否かを判定する。
この「表情付け用パラメータ設定・確認画面」には、上
記ステップS4で選択した奏法の表情付け用パラメータ
のみが表示される。表情付け用パラメータの変更操作が
行われたと判定した場合には(ステップS5のYE
S)、「表情付け用パラメータ設定・確認画面」で選択
されている奏法の表情付け用パラメータを変更し、変更
した表情付け用パラメータをRAM3に記憶する(ステ
ップS6)。すなわち、RAM3の各奏法のパラメータ
現在値エリアに記憶している表情付け用パラメータの設
定値を、表情付け用パラメータの変更操作に従って変更
されたパラメータ設定値に書き換える。
In step S5, it is determined whether or not the operation of changing the facial expression parameter has been performed. That is, the "expression expression parameter setting / confirmation screen" is displayed in response to the user's operation of the expression expression parameter adjustment switch (Fig. 4).
Is displayed on the display 7A, and the operation of changing the facial expression parameter for each rendition style using the "expression parameter setting / confirmation screen" (eg, switch operation such as depth, rate, or random) is performed. It is determined whether or not the parameter setting value is changed).
On this "expression expression parameter setting / confirmation screen", only the expression expression parameters of the rendition style selected in step S4 are displayed. When it is determined that the operation of changing the facial expression parameter is performed (YES in step S5).
S), the facial expression parameter of the rendition style selected on the "facial expression parameter setting / confirmation screen" is changed, and the changed facial expression parameter is stored in the RAM 3 (step S6). That is, the set value of the facial expression parameter stored in the parameter present value area of each rendition style of the RAM 3 is rewritten to the parameter set value changed according to the operation of changing the facial expression parameter.

【0034】ステップS7では、楽曲データに対して自
動的に表情付けを行う「設定」ボタンが押されたか否か
を判定する。すなわち、「表情付け用パラメータ設定・
確認画面」上に表示されている「設定」ボタンがユーザ
により操作されたか否かを判定する。「設定」ボタンが
押されたと判定した場合には(ステップS7のYE
S)、ステップS8に示すような各種処理を実行する。
ステップS8では、まず現在記憶されている表情付け用
パラメータに基づいて楽曲データに対して表情付けを行
う。そして、表情付けした楽曲データをメモリエリア
(2)に記憶する。また、ユーザの指示に応じて、表情
付けした楽曲データをハードディスク等の外部記憶装置
4に記憶する。すなわち、RAM3の各奏法のパラメー
タ現在値エリアに記憶されている表情付け用パラメータ
に従って、RAM3のメモリエリア(1)に記憶されて
いる元の楽曲データを読み出し、該読み出した楽曲デー
タの所定の音符の音高や音長(ゲートタイム)や音量な
どを修正し、修正した結果の新の楽曲データをメモリエ
リア(2)に記憶する。具体的には、楽曲データをメモ
リエリア(1)から所定数の音符ずつ順番に読み出して
分析し、選択した奏法を付加すべき部分があるかどうか
を判別する。選択した奏法を付加すると判別された部分
については、音源回路8にて楽音再生する場合に該選択
した奏法に基づく音楽表現が実現できるように、各奏法
パラメータに基づいて前記判別部分の各音符情報を修正
する。修正すると同時に、修正された楽曲データを順次
メモリエリア(2)に記憶する。こうして修正された楽
曲データをメモリエリア(2)から読み出しつつ音源回
路8で再生させると、選択された奏法に対応する音楽的
な表情を有する楽音が発生されるようになる。また、該
修正された楽曲データを元の楽曲データとして使用でき
るようにしてもよいことから、メモリエリア(2)に記
憶されている修正された楽曲データを読み出してハード
ディスク等の外部記憶装置4に記憶するようにしてもよ
い。
In step S7, it is determined whether or not the "setting" button for automatically adding a facial expression to the music data has been pressed. In other words, "parameter setting for facial expression
It is determined whether or not the “setting” button displayed on the “confirmation screen” has been operated by the user. If it is determined that the "Set" button has been pressed (YES in step S7)
S), various processes as shown in step S8 are executed.
In step S8, first, the music data is given a facial expression based on the currently stored facial expression parameter. Then, the musical composition data with the expression is stored in the memory area (2). In addition, the musical composition data with an expression is stored in the external storage device 4 such as a hard disk according to a user's instruction. That is, the original music data stored in the memory area (1) of the RAM 3 is read according to the facial expression parameter stored in the parameter present value area of each rendition style of the RAM 3, and a predetermined note of the read music data is read. The tone pitch, tone length (gate time), volume, etc. are corrected, and the new music data as a result of the correction is stored in the memory area (2). Specifically, the music data is sequentially read from the memory area (1) by a predetermined number of notes and analyzed to determine whether or not there is a portion to which the selected rendition style should be added. As for the portion determined to be added with the selected rendition style, each note information of the discriminated portion is based on each rendition style parameter so that the musical expression based on the selected rendition style can be realized when the tone generator circuit 8 reproduces a musical sound. To fix. At the same time as the correction, the corrected music data is sequentially stored in the memory area (2). When the music data thus modified is read from the memory area (2) and reproduced by the tone generator circuit 8, a musical tone having a musical expression corresponding to the selected rendition style is generated. Since the modified music data may be used as the original music data, the modified music data stored in the memory area (2) is read out and stored in the external storage device 4 such as a hard disk. It may be stored.

【0035】一方、上記ステップS7において「設定」
ボタンが押されていないと判定した場合には(ステップ
S7のNO)、「表情付け用パラメータ設定・確認画
面」上に表示されている「オーディション」ボタンが押
されたか否かを判定する(ステップS9)。「オーディ
ション」ボタンが押されていないと判定された場合には
(ステップS9のNO)、ステップS5の処理に戻って
上記ステップS5からステップS7までの処理を繰り返
し実行する。「オーディション」ボタンが押されたと判
定した場合には(ステップS9のYES)、ステップS
10及びステップS11に示すような各種処理、つまり
表情付け用パラメータによる表情付けについての確認処
理を実行する。この表情付けについての確認処理では、
まずステップS10において、選択された奏法に対応す
るシーケンスデータをROM2や外部記憶装置4などか
ら読み出して、該読み出したシーケンスデータをRAM
3のメモリエリア(3)に記憶する。そして、選択され
た奏法に対応する奏法パラメータのうちの奏法検出用パ
ラメータに基づいて、楽曲データの中から該奏法の表情
付けを行うべき部分を検索して特定する(あるいは、ユ
ーザが予め定めておいた所定部分でもよい)。ステップ
S11では、現在記憶されている表情付け用パラメータ
に基づいてシーケンスデータに表情付けを行う。すなわ
ち、RAM3の各奏法のパラメータ現在値エリアに記憶
されている表情付け用パラメータに従って、RAM3の
メモリエリア(3)に記憶されている元のシーケンスデ
ータを読み出し、該読み出したシーケンスデータの所定
の音符の音高や音長(ゲートタイム)や音量などを修正
し、修正した結果の新のシーケンスデータをRAM3の
メモリエリア(4)に記憶する。そして、表情付けされ
たシーケンスデータ、つまりメモリエリア(4)に記憶
されたシーケンスデータを音源回路8に送り、サウンド
システム8Aを介して再生する。これにより、ユーザは
表情付けされたシーケンスデータに基づく楽曲を試聴す
る。こうした表情付けについての確認処理が終了する
と、ステップS5の処理へ戻る。ユーザは楽曲の試聴
(オーディション)の結果、該結果が気に入らない場合
には再度表情付け用パラメータを変更して試聴を行えば
よいし(ステップS5〜ステップS6及びステップS9
〜ステップS11参照)、該結果が気にいった場合には
楽曲データに対して自動表情付けを行うように設定ボタ
ンを操作すればよい(ステップS7参照)。
On the other hand, in the above step S7, "setting"
If it is determined that the button has not been pressed (NO in step S7), it is determined whether the "audition" button displayed on the "expression setting parameter setting / confirmation screen" has been pressed (step S7). S9). When it is determined that the "audition" button has not been pressed (NO in step S9), the process returns to step S5 and the processes from step S5 to step S7 are repeatedly executed. When it is determined that the “audition” button has been pressed (YES in step S9), step S
Various processes as shown in 10 and step S11, that is, a confirmation process for facial expression by the facial expression parameter are executed. In the confirmation process for this facial expression,
First, in step S10, the sequence data corresponding to the selected rendition style is read from the ROM 2 or the external storage device 4 and the read sequence data is stored in the RAM.
3 memory area (3). Then, based on the rendition style detection parameter of the rendition style parameters corresponding to the selected rendition style, a portion of the music data to be subjected to the expression of the rendition style is searched and specified (or determined by the user in advance). It may be a specified part that you put). In step S11, the sequence data is given a facial expression based on the currently stored facial expression parameter. That is, the original sequence data stored in the memory area (3) of the RAM 3 is read according to the facial expression parameter stored in the parameter present value area of each rendition style of the RAM 3, and a predetermined note of the read sequence data is read. The tone pitch, tone length (gate time), sound volume, etc. are corrected, and new sequence data resulting from the correction is stored in the memory area (4) of the RAM 3. Then, the sequence data with the expression, that is, the sequence data stored in the memory area (4) is sent to the sound source circuit 8 and reproduced through the sound system 8A. As a result, the user listens to the music based on the sequence data with the expression. When the confirmation process for the facial expression is completed, the process returns to step S5. If the user does not like the result of the audition of the music, the user may change the facial expression parameter again and perform the audition (steps S5 to S6 and step S9).
Up to step S11), if the user likes the result, the setting button may be operated so as to perform automatic facial expression on the music data (see step S7).

【0036】このように、ユーザは「表情付け用パラメ
ータ設定・確認画面」上に表示されている「オーディシ
ョン」ボタンを操作するといった簡単な操作を行うこと
により、ユーザが設定した奏法毎の表情付け用パラメー
タに基づき表情付けがなされた短い演奏区間の楽曲を試
聴することができる。これにより、ユーザはイメージ通
りの音楽的な表情が楽曲に付与されるまで「表情付け用
パラメータ設定・確認画面」を用いた表情付け用パラメ
ータの変更と試聴とを繰り返し行うといった表情付けパ
ラメータ調整の試行錯誤を非常に容易に実行することが
できるようになる。したがって、ユーザは楽曲データに
対する自動表情付け処理を効率よく行うことができるよ
うになることから、ユーザ好みの音楽的な表情が付加さ
れた楽曲を素早く生成することができるようになる。
As described above, the user performs a simple operation such as operating the "audition" button displayed on the "expression setting parameter setting / confirmation screen", whereby the facial expression for each rendition style set by the user is added. It is possible to listen to a musical piece in a short performance section, which is given an expression based on the use parameter. As a result, the user can perform facial expression parameter adjustment such as repeatedly changing the facial expression parameter using the "facial expression parameter setting / confirmation screen" and listening until the musical expression as the image is given to the music. It makes trial and error very easy to carry out. Therefore, the user can efficiently perform the automatic facial expression processing for the music data, and thus it is possible to quickly generate the music to which the musical expression desired by the user is added.

【0037】なお、選択された奏法を表情付けする対象
に検索された部分の音符情報は、表情付け用パラメータ
に基づいて各音符の音高、音長(ゲートタイム)、音量
が修正されるものであるが、楽曲データやシーケンスデ
ータがSMF形式のMIDIデータである場合、音符の
音長(ゲートタイム)は対応するノートオンからノート
オフまでの各イベントのタイミングデータの和がゲート
タイムに相当するので、アルペジオ奏法などを表情付け
する対象に検索された部分では、そのタイミングデータ
の和が適宜延長されるように、対応するノートオフイベ
ントのタイミングデータを変更するようにすればよい。
また、楽曲データやシーケンスデータが該電子楽器の機
種特有の楽曲データであって、各音符がノートオン、ゲ
ートタイム、音量で表わされているような場合には、そ
のゲートタイムを適宜延長するだけでよい。すなわち、
楽曲データやシーケンスデータのデータ形式に従ってデ
ータ内容を修正するようにすることは言うまでもない。
Note that the note information of the portion searched for as an expression target of the selected performance is such that the pitch, duration (gate time), and volume of each note are modified based on the expression parameter. However, when the music data and the sequence data are MIDI data in the SMF format, the sum of the timing data of each event from the note-on to the note-off corresponding to the note length (gate time) of the note corresponds to the gate time. Therefore, the timing data of the corresponding note-off event may be changed so that the sum of the timing data is appropriately extended in the portion searched for as an expression target such as an arpeggio playing style.
Further, when the music data or the sequence data is music data peculiar to the model of the electronic musical instrument and each note is represented by note-on, gate time, and volume, the gate time is appropriately extended. Just enough. That is,
It goes without saying that the data content is modified according to the data format of the music data or sequence data.

【0038】なお、この楽曲データ処理装置を電子楽器
に適用する場合、電子楽器は鍵盤楽器の形態に限らず、
弦楽器や管楽器、あるいは打楽器等どのようなタイプの
形態でもよい。また、音源装置、楽曲データの自動表情
付け装置等を1つの電子楽器本体に内蔵したものに限ら
ず、それぞれが別々に構成され、MIDIインタフェー
スや各種ネットワーク等の通信手段を用いて各装置を接
続するように構成されたものにも同様に適用できること
はいうまでもない。また、パソコンとアプリケーション
ソフトウェアという構成であってもよく、この場合処理
プログラムを磁気ディスク、光ディスクあるいは半導体
メモリ等の記憶メディアから供給したり、ネットワーク
を介して供給するものであってもよい。さらに、カラオ
ケ装置や自動演奏ピアノのような自動演奏装置、ゲーム
装置、携帯電話等の携帯型通信端末などに適用してもよ
い。携帯型通信端末に適用した場合、端末のみで所定の
機能が完結している場合に限らず、機能の一部をサーバ
側に持たせ、端末とサーバとからなるシステム全体とし
て所定の機能を実現するようにしてもよい。
When this music data processing apparatus is applied to an electronic musical instrument, the electronic musical instrument is not limited to the keyboard musical instrument,
It may be of any type such as a string instrument, a wind instrument, or a percussion instrument. Further, the sound source device, the music data automatic expression device, and the like are not limited to those built in one electronic musical instrument body, but they are separately configured, and each device is connected using a communication means such as a MIDI interface or various networks. It is needless to say that the present invention can be similarly applied to a device configured to do so. Further, it may be configured by a personal computer and application software. In this case, the processing program may be supplied from a storage medium such as a magnetic disk, an optical disk or a semiconductor memory, or may be supplied via a network. Further, it may be applied to an automatic performance device such as a karaoke device or an automatic performance piano, a game device, a portable communication terminal such as a mobile phone, or the like. When applied to a mobile communication terminal, not only the case where the predetermined function is completed only by the terminal, but a part of the function is given to the server side, and the predetermined function is realized as the entire system including the terminal and the server. You may do it.

【0039】[0039]

【発明の効果】本発明によれば、所定の楽器に特有の音
楽的な表情に関する演奏情報を楽曲データに自動的に付
加する処理を行う前に、ユーザにより設定された所定の
奏法に対応する表情付けがなされた所定の楽曲をユーザ
が試聴できるようにすることで、ユーザは表情付けの結
果を随時に確認することができるようになる。したがっ
て、ユーザは楽曲データに対する自動表情付け処理を効
率的に実施することができるようになる、という効果が
得られる。
According to the present invention, a predetermined rendition style set by the user is dealt with before performing a process of automatically adding performance information relating to a musical expression peculiar to a predetermined musical instrument to music data. By allowing the user to listen to the predetermined musical piece with the facial expression, the user can check the result of the facial expression at any time. Therefore, the user can efficiently perform the automatic facial expression processing on the music data.

【図面の簡単な説明】[Brief description of drawings]

【図1】 この発明に係る楽曲データの自動表情付け装
置を適用した電子楽器の実施の形態を示すハード構成ブ
ロック図である。
FIG. 1 is a block diagram of a hardware configuration showing an embodiment of an electronic musical instrument to which an automatic facial expression assigning device for music data according to the present invention is applied.

【図2】 ROMや外部記憶装置の所定領域に記憶され
る各種データを説明するための概念図である。
FIG. 2 is a conceptual diagram for explaining various data stored in a predetermined area of a ROM or an external storage device.

【図3】 RAMの所定領域に記憶される各種データを
説明するための概念図である。
FIG. 3 is a conceptual diagram for explaining various data stored in a predetermined area of a RAM.

【図4】 「表情付け用パラメータ設定・確認画面」の
一実施例を示す概念図である。
FIG. 4 is a conceptual diagram showing an example of a “facial expression setting parameter confirmation / confirmation screen”.

【図5】 「自動表情付け処理」の一実施例を示したフ
ローチャートである。
FIG. 5 is a flowchart showing an example of “automatic facial expression processing”.

【符号の説明】[Explanation of symbols]

1…CPU、1A…タイマ、2…ROM、3…RAM、
4…外部記憶装置、5…検出回路、5A…演奏指示操作
子(鍵盤等)、6…スイッチ検出回路、6A…パネル操
作子(設定スイッチ等)、7…表示回路、7A…ディス
プレイ、8…音源回路、8A…サウンドシステム、9…
インタフェース、1D…通信バス、Ga…奏法種類のテ
ンプレート、Gb…表情付け用パラメータのイメージ画
像、Gc…表情付け用パラメータ設定スイッチ、Ba…
オーディションボタン、Bb…設定ボタン
1 ... CPU, 1A ... Timer, 2 ... ROM, 3 ... RAM,
4 ... External storage device, 5 ... Detection circuit, 5A ... Performance instruction operator (keyboard etc.), 6 ... Switch detection circuit, 6A ... Panel operator (setting switch etc.), 7 ... Display circuit, 7A ... Display, 8 ... Sound source circuit, 8A ... Sound system, 9 ...
Interface, 1D ... Communication bus, Ga ... Rendition style template, Gb ... Facial expression parameter image, Gc ... Facial expression parameter setting switch, Ba ...
Audition button, Bb ... Setting button

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】 楽曲データに対して所定の奏法に対応す
る音楽的な表情付けを行うための奏法パラメータを供給
するパラメータ供給手段と、 奏法パラメータの確認のために使用される試聴用の短い
シーケンスデータを供給するデータ供給手段と、 オーディション開始指示を行う指示手段と、 前記指示手段によるオーディション開始指示に応じて、
前記データ供給手段により供給されたシーケンスデータ
に対して前記パラメータ供給手段により供給された奏法
パラメータに基づいて所定の奏法に対応する音楽的な表
情を自動的に付加する制御手段と、 前記制御手段により音楽的な表情を付加されたシーケン
スデータに基づき楽音を生成する楽音生成手段とを具え
た楽曲データの自動表情付け装置。
1. A parameter supply means for supplying rendition style parameters for giving musical expression to music data corresponding to a predetermined rendition style, and a short sequence for audition used for confirmation of rendition style parameters. Data supplying means for supplying data, instructing means for instructing an audition start, and in response to the auditing start instruction by the instructing means,
Control means for automatically adding a musical expression corresponding to a predetermined rendition style to the sequence data supplied by the data supply means based on the rendition style parameter supplied by the parameter supply means; An automatic facial expression assigning device for music data, comprising a musical tone generating means for generating a musical tone based on sequence data to which a musical facial expression is added.
【請求項2】 前記パラメータ供給手段により供給され
た奏法パラメータを記憶するパラメータ記憶手段と、前
記パラメータ記憶手段に記憶された奏法パラメータ内容
を変更するパラメータ変更手段とを具えてなり、 前記制御手段は、前記供給されたシーケンスデータに対
して前記内容変更された奏法パラメータに基づいて所定
の奏法に対応する音楽的な表情を自動的に付加すること
を特徴とする請求項1に記載の楽曲データの自動表情付
け装置。
2. The control means comprises parameter storage means for storing the rendition style parameters supplied by the parameter supply means, and parameter changing means for changing the rendition style parameter contents stored in the parameter storage means. 2. The music data according to claim 1, wherein a musical expression corresponding to a predetermined rendition style is automatically added to the supplied sequence data based on the rendition style parameter whose content has been changed. Automatic facial expression device.
【請求項3】 複数種類の奏法の中から所望の奏法を選
択する奏法選択手段と、前記データ供給手段により供給
された複数種類の奏法毎に対応するシーケンスデータを
記憶するデータ記憶手段とを具えてなり、 前記制御手段は、前記選択された奏法に対応するシーケ
ンスデータを前記データ記憶手段から読み出し、該読み
出したシーケンスデータに対して前記内容変更された奏
法パラメータあるいは前記供給された奏法パラメータに
基づいて所定の奏法に対応する音楽的な表情を自動的に
付加することを特徴とする請求項2に記載の楽曲データ
の自動表情付け装置。
3. A rendition style selection means for selecting a desired rendition style from a plurality of rendition styles, and a data storage means for storing sequence data corresponding to each rendition style of a plurality of types supplied by the data supply means. The control means reads the sequence data corresponding to the selected rendition style from the data storage means, and based on the rendition style parameters whose contents have been changed or the supplied rendition style parameters with respect to the read sequence data. The automatic facial expression assigning apparatus for music data according to claim 2, wherein a musical facial expression corresponding to a predetermined rendition style is automatically added.
【請求項4】 更に、楽曲データを取得する取得手段
と、前記取得した楽曲データに対して前記内容変更され
た奏法パラメータあるいは前記供給された奏法パラメー
タに基づいて所定の奏法に対応する音楽的な表情を自動
的に付加することを特徴とする請求項3に記載の楽曲デ
ータの自動表情付け装置。
4. An acquisition means for acquiring music data, and a musical performance corresponding to a predetermined performance based on the rendition style parameters whose contents have been changed or the supplied rendition style parameters for the acquired music data. The automatic facial expression assigning apparatus for music data according to claim 3, wherein the facial expression is automatically added.
【請求項5】 前記データ供給手段により供給されるシ
ーケンスデータは所定の奏法を適用すべき演奏情報を少
なくとも1つ以上含み、各奏法毎に対応する自動表情付
け結果を確認するのに適したデータであることを特徴と
する請求項1乃至4に記載の楽曲データの自動表情付け
装置。
5. The sequence data supplied by the data supply means includes at least one piece of performance information to which a predetermined rendition style is to be applied, and data suitable for confirming an automatic facial expression result corresponding to each rendition style. 5. The automatic expression device for music data according to claim 1, wherein:
【請求項6】 コンピュータに、 楽曲データに対して所定の奏法に対応する音楽的な表情
付けを行うための奏法パラメータを供給する手順と、 奏法パラメータの確認のために使用される試聴用の短い
シーケンスデータを供給する手順と、 オーディション開始指示を行う手順と、 前記オーディション開始指示に応じて、前記供給された
シーケンスデータに対して前記供給された奏法パラメー
タに基づいて所定の奏法に対応する音楽的な表情を自動
的に付加する手順と、 音楽的な表情を付加されたシーケンスデータに基づき楽
音を生成する手順とを実行させるためのプログラム。
6. A procedure for supplying a computer with rendition style parameters for performing musical expression corresponding to a predetermined rendition style on music data, and a short listening test used to confirm the rendition style parameters. A sequence of supplying sequence data, a sequence of issuing an audition start instruction, and a musical performance corresponding to a predetermined rendition style based on the rendition style parameter supplied to the supplied sequence data in response to the audition start instruction. A program for executing the procedure of automatically adding various facial expressions and the procedure of generating musical tones based on sequence data with musical facial expressions.
JP2002035437A 2002-02-13 2002-02-13 Musical data expression device and program Expired - Fee Related JP3755468B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002035437A JP3755468B2 (en) 2002-02-13 2002-02-13 Musical data expression device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002035437A JP3755468B2 (en) 2002-02-13 2002-02-13 Musical data expression device and program

Publications (2)

Publication Number Publication Date
JP2003233374A true JP2003233374A (en) 2003-08-22
JP3755468B2 JP3755468B2 (en) 2006-03-15

Family

ID=27777623

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002035437A Expired - Fee Related JP3755468B2 (en) 2002-02-13 2002-02-13 Musical data expression device and program

Country Status (1)

Country Link
JP (1) JP3755468B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005295082A (en) * 2004-03-31 2005-10-20 Snk Playmore Corp Data supply server and data supplying method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005295082A (en) * 2004-03-31 2005-10-20 Snk Playmore Corp Data supply server and data supplying method

Also Published As

Publication number Publication date
JP3755468B2 (en) 2006-03-15

Similar Documents

Publication Publication Date Title
CN1750116B (en) Automatic rendition style determining apparatus and method
JP4702160B2 (en) Musical sound synthesizer and program
US6911591B2 (en) Rendition style determining and/or editing apparatus and method
US7420113B2 (en) Rendition style determination apparatus and method
JP3541686B2 (en) Performance practice equipment and recording media
JPH10214083A (en) Musical sound generating method and storage medium
JP4407473B2 (en) Performance method determining device and program
JP2004078095A (en) Playing style determining device and program
JP3632536B2 (en) Part selection device
JP3873790B2 (en) Rendition style display editing apparatus and method
JP3709821B2 (en) Music information editing apparatus and music information editing program
JP3755468B2 (en) Musical data expression device and program
JP4172509B2 (en) Apparatus and method for automatic performance determination
JP3747802B2 (en) Performance data editing apparatus and method, and storage medium
JP2002297139A (en) Playing data modification processor
JP3873789B2 (en) Apparatus and method for automatic performance determination
JP3642028B2 (en) Performance data processing apparatus and method, and storage medium
JP2000003175A (en) Musical tone forming method, musical tone data forming method, musical tone waveform data forming method, musical tone data forming method and memory medium
JP3603711B2 (en) Automatic performance device
JPH10171475A (en) Karaoke (accompaniment to recorded music) device
JP2006133464A (en) Device and program of determining way of playing
JP2003216149A (en) Tone generation apparatus and method for the same
JP2003216152A (en) Tone generation apparatus and method for the same
JP2003114679A (en) Apparatus and program for music information editing
JP2001272979A (en) Method and device for creating performance data and recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040421

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050824

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050906

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20051107

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20051129

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20051212

R150 Certificate of patent (=grant) or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313532

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100106

Year of fee payment: 4

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110106

Year of fee payment: 5

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120106

Year of fee payment: 6

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130106

Year of fee payment: 7

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140106

Year of fee payment: 8

LAPS Cancellation because of no payment of annual fees