JP2002333883A - Musical piece data editing system, method and program - Google Patents

Musical piece data editing system, method and program

Info

Publication number
JP2002333883A
JP2002333883A JP2001139850A JP2001139850A JP2002333883A JP 2002333883 A JP2002333883 A JP 2002333883A JP 2001139850 A JP2001139850 A JP 2001139850A JP 2001139850 A JP2001139850 A JP 2001139850A JP 2002333883 A JP2002333883 A JP 2002333883A
Authority
JP
Japan
Prior art keywords
data
note
music data
thinning
music
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001139850A
Other languages
Japanese (ja)
Inventor
Norio Suzuki
則夫 鈴木
Akira Yamauchi
明 山内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2001139850A priority Critical patent/JP2002333883A/en
Publication of JP2002333883A publication Critical patent/JP2002333883A/en
Pending legal-status Critical Current

Links

Landscapes

  • Electrophonic Musical Instruments (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a musical piece data editing system which is capable of automatically imparting musical expression to musical piece data. SOLUTION: The musical piece data editing system has musical piece data input means for inputting the musical piece data, chord-detecting means for detecting the chord data, composed of a plurality of the note data to be produced in sounds, nearly with the same timing as from the inside of the musical piece data and note data thinning means for thinning at least one from among a plurality of the note data.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、楽曲データ編集装
置に関し、より詳しくは、楽曲データに音楽的表情を付
与することが出来る楽曲データ編集装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a music data editing apparatus, and more particularly, to a music data editing apparatus capable of giving a musical expression to music data.

【0002】[0002]

【従来の技術】自動演奏装置等で、音符の情報のみのM
IDIデータ等の楽曲データを演奏すると機械的で無表
情な演奏になってしまう。これを、より自然な演奏にす
る為には、様々な音楽的表現や、楽器らしさを制御デー
タとして楽曲データに付け加えてやる必要がある。
2. Description of the Related Art In an automatic performance device or the like, M of only note information is used.
Performing music data such as IDI data results in a mechanical and expressionless performance. In order to make this a more natural performance, it is necessary to add various musical expressions and musical instruments to the music data as control data.

【0003】そのような音楽的表情の1つとして、ギタ
ー等の撥弦楽器の演奏テクニックであるストローク奏法
がある。ギターのストローク奏法では、楽譜上において
同時発音の和音として表記されるものでも、複数の弦を
完全に同時にではなくある程度の時間差を持った順番で
はじく為、各音(各弦)の音量や発音開始時間、発音持
続時間に、ばらつきが生じる。
As one of such musical expressions, there is a stroke playing technique which is a playing technique of a plucked instrument such as a guitar. In the guitar stroke playing method, even if it is described as a chord of simultaneous pronunciation on a musical score, multiple strings are not completely played at the same time but in order with a certain time difference, so the volume and pronunciation of each sound (each string) The start time and the sounding duration vary.

【0004】さらには、ストローク奏法のダウンピッキ
ングとアップピッキングとでは、そのばらつきに大きな
違いがある。よって、ダウンピッキング主体の奏法や、
アップピッキング主体の奏法、又はこれらを交互に繰り
返すオルタネートストローク奏法では、それぞれ音楽的
表情が異なる。
Furthermore, there is a great difference in the variation between the down-picking and the up-picking of the stroke playing technique. Therefore, playing techniques mainly based on down picking,
In the upstroke-based playing method or the alternate stroke playing method in which these are alternately repeated, musical expressions are different.

【0005】例えば、6音からなる和音をギターのスト
ローク奏法で演奏する場合には、楽曲のテンポや曲想に
もよるが、必ずしも楽譜上の全ての音符に該当する音を
発音するとは限らない。特に、速いテンポの楽曲や、ラ
フな曲想である場合には、6音の和音のうちの2音又は
3音が弾かれない(間引かれる)ことが多々ある。
For example, when a chord composed of six tones is played by the stroke technique of a guitar, the sound corresponding to all the notes on the musical score is not always pronounced, although it depends on the tempo and musical idea of the music. In particular, in the case of a song with a fast tempo or a rough song, two or three of the six chords are often not played (thinned out).

【0006】[0006]

【発明が解決しようとする課題】音楽的表情を楽曲デー
タに加える作業では、楽曲のどの部分にどのような表現
を加えるのかをユーザが知っている必要がある。また、
音楽的表情を付与する為には、1つ1つの音符を表すイ
ベントに対して複数のパラメータを設定する必要があ
り、例えば、ギターの演奏などでは、6音の和音の1つ
1つを編集する必要があった。
In the work of adding a musical expression to music data, the user needs to know what part of the music and what expression to add. Also,
In order to provide a musical expression, it is necessary to set a plurality of parameters for an event representing each note. For example, when playing a guitar, each of six chords is edited. I needed to.

【0007】本発明の目的は、楽曲データに自動で音楽
的表情を付与することの出来る楽曲データ編集装置を提
供することである。
An object of the present invention is to provide a music data editing apparatus capable of automatically giving a musical expression to music data.

【0008】[0008]

【課題を解決するための手段】本発明の一観点によれ
ば、楽曲データ編集装置は、楽曲データを入力する楽曲
データ入力手段と、前記楽曲データ内からほぼ同時期に
発音される複数の音符データで構成される和音データを
検出する和音検出手段と、前記複数の音符データの少な
くとも一つを間引きする音符データ間引き手段とを有す
る。
According to one aspect of the present invention, a music data editing apparatus includes a music data input means for inputting music data, and a plurality of musical notes generated from the music data at substantially the same time. The musical instrument includes chord detection means for detecting chord data composed of data, and note data thinning means for thinning out at least one of the plurality of note data.

【0009】また、本発明の他の観点によれば、楽曲デ
ータ編集装置は、楽曲データを入力する楽曲データ入力
手段と、前記楽曲データ内からほぼ同時期に発音される
複数の音符データで構成される和音データを検出する和
音検出手段と、前記複数の音符データのそれぞれの音量
に基づき、間引かれる音符データを決定する間引き音符
データ決定手段と、前記決定された間引き音符データを
間引きする音符データ間引き手段とを有する。
According to another aspect of the present invention, a music data editing apparatus comprises music data input means for inputting music data, and a plurality of musical note data which are generated at substantially the same time from the music data. Chord detection means for detecting chord data to be obtained, decimated note data deciding means for deciding note data to be decimated based on the volume of each of the plurality of note data, and notes for decimating the determined decimated note data Data thinning means.

【0010】[0010]

【発明の実施の形態】図1は、本発明の実施例による楽
曲データ編集装置1のハードウェア構成を示すブロック
図である。
FIG. 1 is a block diagram showing a hardware configuration of a music data editing apparatus 1 according to an embodiment of the present invention.

【0011】楽曲データ編集装置1はバス2、RAM
3、ROM4、CPU5、タイマ6、外部記憶装置7、
検出回路8、パネル操作子9、表示回路10、ディスプ
レイ11、音源回路12、効果回路13、サウンドシス
テム14、演奏操作子15、MIDIインターフェイス
16、通信インターフェイス17を含んで構成される。
A music data editing apparatus 1 includes a bus 2 and a RAM.
3, ROM 4, CPU 5, timer 6, external storage device 7,
It comprises a detection circuit 8, a panel operator 9, a display circuit 10, a display 11, a tone generator circuit 12, an effect circuit 13, a sound system 14, a performance operator 15, a MIDI interface 16, and a communication interface 17.

【0012】バス2には、RAM3、ROM4、CPU
5、外部記憶装置7、検出回路8、表示回路10、音源
回路12、効果回路13、MIDIインターフェイス1
6、通信インターフェイス17が接続される。
A bus 2, a RAM 3, a ROM 4, a CPU
5, external storage device 7, detection circuit 8, display circuit 10, sound source circuit 12, effect circuit 13, MIDI interface 1
6. The communication interface 17 is connected.

【0013】ユーザは、検出回路8に接続される複数の
パネル操作子9を用いて、各種設定をすることができ
る。パネル操作子9は、例えば、ロータリーエンコー
ダ、スイッチ、パッド、フェーダ、スライダ、マウス、
文字入力用キーボード、演奏用の鍵盤、ジョイスティッ
ク、ジョグシャトル等、ユーザの入力に応じた信号を出
力できるものならどのようなものでもよい。
The user can make various settings using a plurality of panel controls 9 connected to the detection circuit 8. The panel operator 9 includes, for example, a rotary encoder, a switch, a pad, a fader, a slider, a mouse,
Any keyboard, such as a character input keyboard, a performance keyboard, a joystick, and a jog shuttle, may be used as long as it can output a signal according to a user input.

【0014】また、本実施例では、パネル操作子9が、
後述する各種処理等で、ユーザが各種設定、選択、自動
演奏の開始及び停止等の指示を入力するために用いられ
る。
In the present embodiment, the panel operator 9 is
It is used for the user to input various settings, selections, and instructions such as start and stop of automatic performance in various processes described later.

【0015】また、パネル操作子9は、マウス等の他の
操作子を用いて操作するディスプレイ11上に表示され
るソフトスイッチ等でもよい。
The panel operator 9 may be a software switch or the like displayed on the display 11 operated by using another operator such as a mouse.

【0016】表示回路10は、ディスプレイ11に接続
され、各種情報をディスプレイ11に表示することがで
きる。ユーザは、このディスプレイ11に表示される情
報を参照して、各種設定を行う。また、ディスプレイ1
1は、外部の表示装置を接続することにより構成しても
よい。
The display circuit 10 is connected to a display 11 and can display various information on the display 11. The user makes various settings with reference to the information displayed on the display 11. Display 1
1 may be configured by connecting an external display device.

【0017】また、ディスプレイ11に、タッチパネル
を用いることができる。この場合は、ディスプレイ11
上に表示されるスイッチ等をユーザが押すことによりユ
ーザの指示が入力される。
Further, a touch panel can be used as the display 11. In this case, the display 11
When the user presses a switch or the like displayed above, a user's instruction is input.

【0018】外部記憶装置7は、外部記憶装置用のイン
ターフェイスを含み、そのインターフェイスを介してバ
ス2に接続される。外部記憶装置7は、例えばフロッピ
ディスクドライブ(FDD)、ハードディスクドライブ
(HDD)、光磁気ディスク(MO)ドライブ、CD−
ROM(コンパクトディスク−リードオンリィメモリ)
ドライブ、DVD(Digital Versatil
e Disc)ドライブ、半導体メモリ等である。
The external storage device 7 includes an interface for the external storage device, and is connected to the bus 2 via the interface. The external storage device 7 includes, for example, a floppy disk drive (FDD), a hard disk drive (HDD), a magneto-optical disk (MO) drive, and a CD-ROM.
ROM (Compact Disc-Read Only Memory)
Drive, DVD (Digital Versail)
e Disc) drive, semiconductor memory and the like.

【0019】外部記憶装置7には、各種パラメータ、各
種データ、及び本実施例を実現するためのプログラム等
を記憶することができる。
The external storage device 7 can store various parameters, various data, programs for implementing the present embodiment, and the like.

【0020】RAM3は、フラグ、レジスタ又はバッフ
ァ、各種パラメータ等を記憶するCPU5のワーキング
エリアを有する。ROM4には、各種パラメータ及び制
御プログラム、又は本実施例を実現するためのプログラ
ム等を記憶することができる。この場合、プログラム等
を重ねて、外部記憶装置7に記憶する必要は無い。CP
U5は、ROM4又は、外部記憶装置7に記憶されてい
る制御プログラム等に従い、演算又は制御を行う。
The RAM 3 has a working area of the CPU 5 for storing flags, registers or buffers, various parameters and the like. The ROM 4 can store various parameters and control programs, programs for realizing the present embodiment, and the like. In this case, it is not necessary to store the programs and the like in the external storage device 7 in an overlapping manner. CP
U5 performs calculation or control according to a control program or the like stored in the ROM 4 or the external storage device 7.

【0021】タイマ6は、CPU5に接続されており、
基本クロック信号、割り込み処理タイミング等をCPU
5に供給する。
The timer 6 is connected to the CPU 5,
Basic clock signal, interrupt processing timing, etc.
5

【0022】外部記憶装置7として、ハードディスクド
ライブ(HDD)が接続されている場合には、制御プロ
グラム又は本実施例を実現するためのプログラム等は、
外部記憶装置7内のハードディスク(HDD)に記憶さ
せることもできる。ハードディスクからRAM3に制御
プログラム等を読み出すことにより、ROM4に制御プ
ログラム等を記憶させている場合と同様の動作をCPU
5にさせることができる。このようにすると、制御プロ
グラム等の追加やバージョンアップ等が容易に行える。
When a hard disk drive (HDD) is connected as the external storage device 7, a control program or a program for realizing the present embodiment includes:
It can also be stored in a hard disk (HDD) in the external storage device 7. By reading the control program and the like from the hard disk to the RAM 3, the same operation as when the control program and the like are stored in the ROM 4 is performed by the CPU
5 can be made. By doing so, it is possible to easily add a control program and the like, upgrade the version, and the like.

【0023】また、ハードディスクドライブに加えて、
CD−ROMドライブが接続されている場合には、制御
プログラム又は本実施例を実現するためのプログラム等
をCD−ROMに記憶させることもできる。CD−RO
Mからハードディスクに制御プログラムや本実施例を実
現するためのプログラム等をコピーすることができる。
制御プログラム等の新規インストールやバージョンアッ
プを容易に行うことができる。
In addition to the hard disk drive,
When a CD-ROM drive is connected, a control program, a program for implementing the present embodiment, and the like can be stored in the CD-ROM. CD-RO
A control program, a program for implementing the present embodiment, and the like can be copied from M to the hard disk.
New installation and version upgrade of the control program and the like can be easily performed.

【0024】音源回路12は、外部記憶装置7等に記録
されたシーケンスデータ又はMIDIインターフェイス
に接続されたMIDI機器18等から供給されるMID
I信号、演奏信号等に応じて楽音信号を生成し、効果回
路13を介して、サウンドシステム14に供給する。
The tone generator circuit 12 receives the sequence data recorded in the external storage device 7 or the MID supplied from the MIDI device 18 connected to the MIDI interface.
A tone signal is generated according to the I signal, the performance signal, and the like, and supplied to the sound system 14 via the effect circuit 13.

【0025】効果回路13は、音源回路12から供給さ
れるデジタル形式の楽音信号に各種効果を与える。
The effect circuit 13 gives various effects to the digital tone signal supplied from the tone generator circuit 12.

【0026】サウンドシステム14は、D/A変換器及
びスピーカを含み、供給されるデジタル形式の楽音信号
をアナログ形式に変換し、発音する。
The sound system 14 includes a D / A converter and a speaker, and converts a supplied digital tone signal into an analog format to generate a sound.

【0027】なお、音源回路12は、波形メモリ方式、
FM方式、物理モデル方式、高調波合成方式、フォルマ
ント合成方式、VCO(Voltage Contro
lled Oscillator)+VCF(Volt
age Controlled Filter)+VC
A(Voltage Controlled Ampl
ifier)のアナログシンセサイザ方式等、どのよう
な方式であってもよい。
The tone generator circuit 12 has a waveform memory system,
FM system, physical model system, harmonic synthesis system, formant synthesis system, VCO (Voltage Control)
lled Oscillator) + VCF (Volt
age Controlled Filter) + VC
A (Voltage Controlled Ampl)
(i.e., analog synthesizer).

【0028】また、音源回路12は、専用のハードウェ
アを用いて構成するものに限らず、DSP(Digit
al Signal Processor)+マイクロ
プログラムを用いて構成してもよいし、CPU+ソフト
ウェアのプログラムで構成するようにしてもよいし、サ
ウンドカードのようなものでもよい。
The tone generator circuit 12 is not limited to a configuration using dedicated hardware, but may be a DSP (Digit).
al Signal Processor) + a microprogram, a CPU + software program, or a sound card.

【0029】さらに、1つの音源回路を時分割で使用す
ることにより複数の発音チャンネルを形成するようにし
てもよいし、複数の音源回路を用い、1つの発音チャン
ネルにつき1つの音源回路で複数の発音チャンネルを構
成するようにしてもよい。
Further, a plurality of tone generation channels may be formed by using one tone generator circuit in a time-division manner, or a plurality of tone generator circuits may be used and one tone generator circuit may be provided for each tone channel. A pronunciation channel may be configured.

【0030】演奏操作子15は、検出回路8に接続さ
れ、ユーザの演奏動作に従い、演奏信号を供給する。本
実施例では、演奏操作子15として、演奏用の鍵盤、パ
ッドが用いられている。なお、演奏操作子15はこれら
に限らず、ユーザが演奏情報を入力できるものであれば
どのようなものでもよい。例えば、文字入力用のキーボ
ードや、マウス、ジョイスティック等を演奏操作子15
として用いることも出来る。
The performance operator 15 is connected to the detection circuit 8 and supplies a performance signal according to the performance operation of the user. In the present embodiment, a performance keyboard and pads are used as the performance operators 15. The performance operator 15 is not limited to these, and may be any device as long as the user can input performance information. For example, a keyboard for character input, a mouse, a joystick, or the like
Can also be used.

【0031】MIDIインターフェイス(MIDI I
/F)16は、電子楽器、その他の楽器、音響機器、コ
ンピュータ等に接続できるものであり、少なくともMI
DI信号を送受信できるものである。MIDIインター
フェイス16は、専用のMIDIインターフェイスに限
らず、RS−232C、USB(ユニバーサル・シリア
ル・バス)、IEEE1394(アイトリプルイー13
94)等の汎用のインターフェイスを用いて構成しても
よい。この場合、MIDIメッセージ以外のデータをも
同時に送受信するようにしてもよい。
A MIDI interface (MIDI I
/ F) 16 can be connected to electronic musical instruments, other musical instruments, audio equipment, computers, etc.
It can transmit and receive DI signals. The MIDI interface 16 is not limited to a dedicated MIDI interface, but may be RS-232C, USB (Universal Serial Bus), IEEE 1394 (I Triple E 13).
94) or the like. In this case, data other than the MIDI message may be transmitted and received at the same time.

【0032】MIDI機器18は、MIDIインターフ
ェイス16に接続される音響機器及び楽器等である。M
IDI機器18の形態は鍵盤楽器に限らず、弦楽器タイ
プ、管楽器タイプ、打楽器タイプ等の形態でもよい。ま
た、音源装置、自動演奏装置等を1つの電子楽器本体に
内蔵したものに限らず、それぞれが別体の装置であり、
MIDIや各種ネットワーク等の通信手段を用いて各装
置を接続するものであってもよい。ユーザは、このMI
DI機器18を演奏(操作)することにより演奏情報の
入力を行うこともできる。
The MIDI device 18 is an audio device, a musical instrument, or the like connected to the MIDI interface 16. M
The form of the IDI device 18 is not limited to a keyboard instrument, but may be a string instrument type, a wind instrument type, a percussion instrument type, or the like. Further, the sound source device, the automatic performance device and the like are not limited to those built in one electronic musical instrument main body, but each is a separate device,
Each device may be connected using communication means such as MIDI or various networks. The user can use this MI
Performance information can also be input by playing (operating) the DI device 18.

【0033】また、MIDI機器18は、演奏情報以外
の各種データ及び各種設定を入力するための操作子とし
ても用いることが出来る。
The MIDI device 18 can also be used as an operator for inputting various data and various settings other than performance information.

【0034】通信インターフェイス17は、LAN(ロ
ーカルエリアネットワーク)やインターネット、電話回
線等の通信ネットワーク19に接続可能であり、該通信
ネットワーク19を介して、サーバコンピュータ20と
接続し、HDD等外部記憶装置7、又はRAM4等内
に、サーバコンピュータ20から制御プログラムや本実
施例を実現するためのプログラム、楽曲データ等をダウ
ンロードすることができる。
The communication interface 17 is connectable to a communication network 19 such as a LAN (local area network), the Internet, or a telephone line. The communication interface 17 is connected to a server computer 20 via the communication network 19, and is connected to an external storage device such as an HDD. 7, a control program, a program for implementing the present embodiment, music data, and the like can be downloaded from the server computer 20 into the RAM 4 or the like.

【0035】なお、通信インターフェイス17及び通信
ネットワーク19は、有線のものに限らず無線でもよ
い。また双方を備えていてもよい。
The communication interface 17 and the communication network 19 are not limited to wired ones, but may be wireless. Also, both may be provided.

【0036】図2は、本実施例による楽曲データMDの
フォーマットを表す概念図である。楽曲データMDは、
例えばSMF(Standard MIDI Fil
e)フォーマットに準拠した、自動楽曲データである。
FIG. 2 is a conceptual diagram showing the format of the music data MD according to this embodiment. The music data MD is
For example, SMF (Standard MIDI Fil)
e) Automatic music data conforming to the format.

【0037】楽曲データMDは、先頭に記録される初期
設定情報HCと、発音タイミングを表すタイミングデー
タと、各タイミング毎のイベントを表すイベントデータ
とを含んで構成されている。また、楽曲データMDは複
数のパートで構成することも出来る。
The music data MD includes initial setting information HC recorded at the beginning, timing data indicating a sounding timing, and event data indicating an event for each timing. Also, the music data MD can be composed of a plurality of parts.

【0038】初期設定情報とは、各パート(トラック)
の再生時の各種再生態様を設定する為のデータであり、
例えば、音色設定データ、音量設定データ、テンポ設定
データなどが含まれる。
The initial setting information refers to each part (track)
Data for setting various playback modes during playback of
For example, it includes timbre setting data, volume setting data, tempo setting data, and the like.

【0039】タイミングデータは、イベントデータで表
される各種イベントを処理すべき時間を表すデータであ
る。イベントの処理時間は、演奏開始からの絶対時間で
表してもよいし、前のイベントからの経過時間である相
対時間で表すようにしてもよい。
The timing data is data representing the time to process various events represented by the event data. The processing time of the event may be represented by an absolute time from the start of the performance, or may be represented by a relative time which is an elapsed time from a previous event.

【0040】イベントデータは、楽曲を再生させる為の
各種イベントの内容を表すデータである。イベントに
は、ノートオンイベントとノートオフイベントの組合せ
である楽曲の発生に直接関係する音符を表す音符イベン
ト(音符データ)と、ピッチチェンジイベント(ピッチ
ベンドイベント)、テンポチェンジイベント、音色チェ
ンジイベントなどの楽曲の再生態様などを設定するため
の設定イベントが含まれる。
The event data is data representing the contents of various events for reproducing music. The events include a note event (note data) directly representing a note that is directly related to the generation of a song that is a combination of a note-on event and a note-off event, and a pitch change event (pitch bend event), a tempo change event, a tone change event, and the like. A setting event for setting the reproduction mode of the music is included.

【0041】それぞれの音符イベントには、音高、発音
長(ゲートタイム)GT、音量(ベロシティ)VLが記
録されている。発音長GTは4分音符長を「480」で
表しており、例えば8分音符長は「240」であり、2
分音符長は「960」である。音量VLは設定可能な最
低音量を「1」とし最大音量を「127」としている。
In each note event, a pitch, a tone length (gate time) GT, and a volume (velocity) VL are recorded. The pronunciation length GT indicates the length of a quarter note by “480”. For example, the length of an eighth note is “240”, and
The division note length is “960”. The volume VL has a settable minimum volume of “1” and a maximum volume of “127”.

【0042】楽曲データMD1のタイミングAには、同
時に発音する6つの音符イベントで構成される和音イベ
ントCAが記録されており、又、タイミングBにも同時
に発音する6つの音符イベントで構成される和音イベン
トCBが記録されている。
At timing A of the music data MD1, a chord event CA composed of six note events that are produced simultaneously is recorded, and at timing B a chord composed of six note events that are produced simultaneously. Event CB is recorded.

【0043】本実施例では、同時に発音する複数の音符
イベントの組、及び発音タイミングがほぼ同時期である
複数の音符イベントの組を和音イベントとする。ほぼ同
時期に発音される複数の音符イベントとは、再生された
場合に音楽的に和音として考えられる時間内に発音され
る複数の音符イベントの組である。
In the present embodiment, a set of a plurality of note events that are sounded simultaneously and a set of a plurality of note events whose sounding timings are almost the same are regarded as chord events. A plurality of note events that are pronounced at about the same time are a set of a plurality of note events that are played within a time that is considered musically a chord when played.

【0044】楽曲データMD1では、和音イベント中の
音符イベントがすべて、同時に発音されるようになって
おり、また、音量も一定である。このようなデータを再
生すると、音楽的表情の無い機械的な演奏になってしま
う。
In the music data MD1, all note events in the chord event are simultaneously generated, and the volume is constant. Reproduction of such data results in a mechanical performance without musical expression.

【0045】本実施例では、まず、MIDI機器18等
から入力されるか、外部記憶装置7等に記録されている
楽曲データMD1の各和音イベント中の音符イベントの
発音タイミング、発音長GT、音量VL、を編集するこ
とにより、発音タイミング、発音長GT、音量VLにば
らつきを持たせる。
In this embodiment, first, the sounding timing, note length GT, and volume of the note event in each chord event of the music data MD1 input from the MIDI device 18 or the like or recorded in the external storage device 7 or the like. By editing the VL, the sounding timing, the sounding length GT, and the volume VL are varied.

【0046】その後、後述の間引き処理により、和音イ
ベント中の一定の音符イベントを編集又は削除し、若し
くは音色変更することにより間引きをし、よりいっそう
自然なギターの演奏をシミュレートする。
Thereafter, a certain note event in the chord event is edited or deleted by a thinning process to be described later, or the tone is changed by changing the tone color, thereby simulating a more natural guitar performance.

【0047】図3は、図1のCPU5で行う本実施例に
よるメイン処理を表すフローチャートである。
FIG. 3 is a flowchart showing the main processing according to the present embodiment performed by the CPU 5 of FIG.

【0048】ステップSA1ではメイン処理をスタート
して、各種フラグやバッファを初期化し、次のステップ
SA2に進む。
At step SA1, the main processing is started, various flags and buffers are initialized, and the routine proceeds to the next step SA2.

【0049】ステップSA2では、図1の表示装置11
に外部記憶装置7等に記録されている楽曲データMDの
一覧を表示して、編集対象とする楽曲データをユーザに
選択させる。ユーザは、一覧表示される楽曲データの中
から編集(表情付け)をするものをパネル操作子9等で
選択する。なお、楽曲データの選択はこの方法に限ら
ず、ユーザが楽曲データの保存先のパス等を直接指定す
るようにしてもよい。楽曲データが選択されたら、次の
ステップSA3に進む。
In step SA2, the display device 11 shown in FIG.
A list of the music data MD recorded in the external storage device 7 or the like is displayed, and the user selects music data to be edited. The user uses the panel operator 9 or the like to select music data to be edited (expressed) from the music data displayed in the list. Note that the selection of the music data is not limited to this method, and the user may directly specify the path of the storage destination of the music data. When the music data is selected, the process proceeds to the next Step SA3.

【0050】なお、本実施例では、楽曲データの編集を
楽曲データの再生中ではないときに行っているが、楽曲
データ再生中にリアルタイムで行うことも出来る。この
場合は、このステップSA2で選択した楽曲データの再
生を開始する。
In this embodiment, the music data is edited when the music data is not being reproduced. However, it can be edited in real time while the music data is being reproduced. In this case, the reproduction of the music data selected in step SA2 is started.

【0051】ステップSA3では、表示装置11に選択
楽曲データに含まれるパートの一覧を表示して、編集対
象とするパート(処理パート)をユーザに選択させる。
ユーザは、一覧表示されるパートの中から処理パートを
パネル操作子9等で選択する。処理パートが選択された
ら次のステップSA4に進む。
At step SA3, a list of parts included in the selected music data is displayed on the display device 11, and the user selects a part (processing part) to be edited.
The user selects a processing part from the parts displayed in the list with the panel operator 9 or the like. When the processing part is selected, the process proceeds to the next Step SA4.

【0052】ステップSA4では、選択楽曲データを外
部記憶装置7等からRAM3内の読出しバッファに読み
込み、楽曲の再生テンポと拍子を検出する。その後、次
のステップSA5に進む。
At step SA4, the selected music data is read from the external storage device 7 or the like into the read buffer in the RAM 3, and the reproduction tempo and time signature of the music are detected. Thereafter, the flow advances to the next Step SA5.

【0053】ステップSA5では、タイマ6から供給さ
れるクロック信号に従い、選択楽曲データの処理パート
のイベントをRAM3内の作業領域に読み込む。その後
次のステップSA6に進む。
At step SA 5, the event of the processing part of the selected music data is read into the work area in the RAM 3 in accordance with the clock signal supplied from the timer 6. Thereafter, the flow advances to the next Step SA6.

【0054】ステップSA6では、ステップSA5で読
み出したイベントのタイミングが楽曲データの終了タイ
ミング(最後のイベント)か否かを検出する。終了タイ
ミングであれば、YESの矢印で示すステップSA7に
進む。終了タイミングでなければ、NOの矢印で示すス
テップSA9に進む。
In step SA6, it is detected whether or not the timing of the event read out in step SA5 is the end timing (last event) of the music data. If it is the end timing, the process proceeds to Step SA7 indicated by a YES arrow. If it is not the end timing, the process proceeds to Step SA9 indicated by a NO arrow.

【0055】ステップSA7では、その他処理を行う。
その他処理では、RAM3内の再生バッファ内の楽曲デ
ータの保存等を行う。他には、楽曲データの再生開始及
び停止、その他の編集処理、楽曲データの記録、楽曲デ
ータのダウンロード、演奏操作子用による演奏処理、各
種設定等を行うことも出来る。その後、次のステップS
A8に進みメイン処理を終了する。
At step SA7, other processing is performed.
In the other processing, the music data in the reproduction buffer in the RAM 3 is stored. In addition, reproduction and start of music data, other editing processing, recording of music data, downloading of music data, performance processing for performance operators, various settings, and the like can also be performed. Then, the next step S
The process proceeds to A8 and ends the main process.

【0056】ステップSA9では、今回のタイミングの
イベントが和音イベントか否かを判断する。今回のタイ
ミングのイベントが和音イベントであればYESの矢印
で示すステップSA10に進む。今回のタイミングのイ
ベントが和音イベントで無ければNOの矢印で示すステ
ップSA14に進む。
At step SA9, it is determined whether or not the event at this time is a chord event. If the event at this timing is a chord event, the process proceeds to Step SA10 indicated by a YES arrow. If the event at this timing is not a chord event, the process proceeds to step SA14 indicated by a NO arrow.

【0057】ステップSA10では、今回タイミングの
和音イベント中の各音符イベントを、ギター等の弦楽器
の弦の一つに割り当てる。例えば、ギターであれば、各
音符イベントを1〜6弦のうちのいずれか一つに割り当
てる。その後、次のステップSA11に進む。
At step SA10, each note event in the chord event at the current timing is assigned to one of strings of a stringed instrument such as a guitar. For example, in the case of a guitar, each note event is assigned to one of strings 1 to 6. Thereafter, the flow advances to the next Step SA11.

【0058】ステップSA11では、ストローク種類を
決定する。ストローク種類には、ギターの奏法のストロ
ーク奏法におけるダウンピッキング(低音弦から高音弦
にかけて弾く)とアップピッキング(高音弦から低音弦
にかけて弾く)がある。
At step SA11, the type of stroke is determined. The stroke types include down picking (playing from a low string to a high string) and up picking (playing from a high string to a low string) in the stroke playing style of the guitar playing style.

【0059】このステップSA11では、今回のタイミ
ングの和音イベントがダウンピッキング又はアップピッ
キングのどちらで演奏されるべきものかを判断(ストロ
ーク種類の決定)する。
At step SA11, it is determined whether the chord event of the current timing should be played by down-picking or up-picking (stroke type determination).

【0060】ダウンピッキングであるかアップピッキン
グであるかは、曲のテンポ及び曲想等により判断の基準
が異なるが、本実施例では、ダウンピッキング及びアッ
プピッキングを交互に繰り返すオルタネートピッキング
であるとする。
Although the criteria for judging whether the picking is down picking or up picking differs depending on the tempo of the music, the musical idea, etc., in this embodiment, it is assumed that alternate picking in which down picking and up picking are alternately repeated.

【0061】すなわち、今回のタイミングの和音イベン
トが表の拍であれば、ダウンピッキングに決定し、裏の
拍であればアップピッキングに決定する。ストローク種
類を決定したら次のステップSA12に進む。
That is, if the chord event at the current timing is the front beat, down-picking is determined, and if the back beat is up-picking, up-picking is determined. After the stroke type is determined, the flow advances to the next Step SA12.

【0062】ステップSA12では、ステップSA11
で決定したストローク種類に従い、和音イベント中の音
符イベントの発音タイミングをずらす。すなわち、ダウ
ンピッキングであれば、最低音弦に割り当てられた音符
イベントから最高音弦に割り当てられた音符イベントに
向かう順に発音するように、発音タイミングをずらす等
の編集を行う(以下、このステップで行う処理をずらし
処理と呼ぶ)。
At Step SA12, Step SA11
The sounding timing of the note event in the chord event is shifted according to the stroke type determined in. That is, in the case of down-picking, editing such as shifting the sounding timing is performed so that the sound is generated in order from the note event assigned to the lowest note string to the note event assigned to the highest note string (hereinafter, in this step, The processing to be performed is called a shift processing).

【0063】アップピッキングであればその逆に最高音
弦から最低音弦に割り当てられた音符イベントに向かう
順に発音するように発音タイミングをずらす。ずらし処
理が終了したら、次のステップSA13に進む。
In the case of up-picking, on the other hand, the sounding timing is shifted so that sounds are generated in order from the highest note to the note event assigned to the lowest note. Upon completion of the shifting process, the flow advances to next Step SA13.

【0064】ステップSA13では、後述する間引き処
理を行う。間引き処理が終了したら、次のステップSA
14に進む。
In step SA13, a thinning process described later is performed. When the thinning process is completed, the next step SA
Proceed to 14.

【0065】ステップSA14では、今回タイミングの
和音イベント以外のイベント又は編集処理を行った和音
イベントをRAM3内の再生バッファ等に記録する。リ
アルタイム処理を行っている場合には、ここで今回タイ
ミングのイベントの発音処理を行う。その後次のステッ
プSA15に進む。
At step SA14, an event other than the chord event of the current timing or a chord event subjected to the editing process is recorded in a reproduction buffer or the like in the RAM 3. When the real-time processing is being performed, the sound generation processing of the event of the current timing is performed here. Thereafter, the flow advances to the next Step SA15.

【0066】ステップSA15では、次のタイミングの
イベントをRAM3内の作業領域に読み込む。その後ス
テップSA6に戻り、同様の処理を繰り返す。
At step SA15, an event at the next timing is read into a work area in the RAM 3. Thereafter, the flow returns to step SA6, and the same processing is repeated.

【0067】図4は、図3のステップSA13で行う間
引き処理の第1の例を表すフローチャートである。この
第1の例では、和音イベントのストローク種類により、
間引きを行う音符イベントを決定する。
FIG. 4 is a flowchart showing a first example of the thinning process performed in step SA13 in FIG. In the first example, depending on the stroke type of the chord event,
Determine the note event to be decimated.

【0068】ステップSB1では、間引き処理を開始し
て、次のステップSB2に進む。
In step SB1, the thinning process is started, and the flow advances to next step SB2.

【0069】ステップSB2では、図3のステップSA
11で決定したストローク種類がダウンピッキングであ
るか否かを判断する。ダウンピッキングであれば、YE
Sの矢印で示すステップSB3に進む。ダウンピッキン
グでなければ、すなわちアップピッキングであればNO
の矢印で示すステップSB4に進む。
At Step SB2, Step SA of FIG.
It is determined whether or not the stroke type determined in step 11 is down picking. YE for down picking
The process proceeds to Step SB3 indicated by the arrow S. NO if not down picking, ie if up picking
The process proceeds to Step SB4 indicated by the arrow.

【0070】ステップSB3では、図3のステップSA
10で1弦と2弦、1〜3弦、又は4〜6弦に割り当て
られた音符イベントの組のいずれか一つを間引くように
決定する。
At Step SB3, Step SA of FIG.
At 10, it is determined to thin out any one of the sets of note events assigned to the first and second strings, the first to third strings, or the fourth to sixth strings.

【0071】ここで決定される音符イベントの組は、ユ
ーザが指定できるようにしてもよいし、一定の確率(例
えば、4〜6弦に割り当てられた音符イベントの組を間
引く確率を1〜3弦に割り当てられた音符イベントの組
を間引く確率の50%とする)でランダムに決定するよ
うにしてもよい。さらに、ユーザがその確率を指定でき
るようにしてもよい。
The set of note events determined here may be specified by the user, or may have a fixed probability (for example, the probability of thinning out the set of note events assigned to the 4th to 6th strings is 1 to 3). (A set of note events assigned to a string is assumed to be 50% of the thinning probability.) Further, the user may be able to specify the probability.

【0072】また、一定の確率(例えば50%)でどの
音符イベントも間引かないように決定してもよいし、こ
の確率をユーザが指定できるようにしてもよい。また、
テンポに連動して、確率を変動させてもよい。例えば、
テンポが速くなるにしたがって間引きを行う確率を高く
する。
Further, it may be determined so as not to skip any note events at a certain probability (for example, 50%), or this probability may be specified by the user. Also,
The probability may be changed in conjunction with the tempo. For example,
As the tempo increases, the probability of performing thinning increases.

【0073】間引きを行う音符イベントを決定したら、
ステップSB5に進む。
Once the note event for thinning is determined,
Proceed to step SB5.

【0074】ステップSB4では、ステップSB3で
は、図3のステップSA10で5弦と6弦、又は4〜6
弦に割り当てられた音符イベントの組のいずれか一つを
間引くように決定する。間引きを行う音符イベントの組
は、これらの種類に限らず、任意に設定若しくは指定す
ることが出きる。
In step SB4, in step SB3, the fifth and sixth strings, or 4-6 in step SA10 in FIG.
A decision is made to thin out any one of a set of note events assigned to the string. The set of note events for thinning out is not limited to these types, and can be arbitrarily set or specified.

【0075】ここで決定される音符イベントの組は、ユ
ーザが指定できるようにしてもよいし、一定の確率(例
えば、50%)でランダムに決定するようにしてもよ
い。さらに、ユーザがその確率を指定できるようにして
もよい。
The set of note events determined here may be specified by the user, or may be determined randomly with a certain probability (for example, 50%). Further, the user may be able to specify the probability.

【0076】また、一定の確率(例えば50%)でどの
音符イベントも間引かないように決定してもよいし、こ
の確率をユーザが指定できるようにしてもよい。また、
テンポに連動して、確率を変動させてもよい。例えば、
テンポが速くなるにしたがって間引きを行う確率を高く
する。
Further, it may be determined so as not to skip any note events at a certain probability (for example, 50%), or the probability may be specified by the user. Also,
The probability may be changed in conjunction with the tempo. For example,
As the tempo increases, the probability of performing thinning increases.

【0077】間引きを行う音符イベントを決定したら、
ステップSB5に進む。
Once the note event for thinning is determined,
Proceed to step SB5.

【0078】ステップSB5では、ステップSB3又は
ステップSB4で決定した間引きを行う音符イベントを
編集する。ここで行う編集は、音符イベントを削除する
か、音量を0にして発音しないように編集するか、又は
音色を変更することである。
At step SB5, the musical note event for thinning determined at step SB3 or SB4 is edited. The editing performed here is to delete the note event, edit the volume so that the volume is set to 0 so as not to sound, or change the tone.

【0079】これらのうちいずれか一つをデフォルトと
して設定しておき、ユーザは任意に変更することが出来
る。音色を変更する場合には、予め、ギター等を引きそ
こなったときの音や、弦をかする音(かすり音)等の音
色を用意しておき、それらの音色に変更するためのプロ
グラムチェンジ(音色チェンジ)イベントを挿入する。
Any one of these can be set as a default, and the user can arbitrarily change it. When changing the timbre, prepare a tone such as a sound when the guitar or the like is pulled out or a stringing sound (scratching sound) in advance, and change the program to change to those timbres. (Tone change) Insert an event.

【0080】また、今回タイミングと前回タイミングの
和音イベントが同じ和音の発音指示であり、間引きをす
る音符イベントと同じ音程の音符イベントが直前タイミ
ングにあれば、その直前タイミングの音符イベントに間
引きをする音符イベントの発音長を足すことによりタイ
で結んだのと同様の効果を与えることも出来る。
If the chord event at the current timing and the previous timing is the same chord sounding instruction, and a note event having the same pitch as the note event to be thinned is at the immediately preceding timing, the note event at the immediately preceding timing is thinned. By adding the note length of the note event, it is possible to give the same effect as tied in tie.

【0081】音符イベントの編集が終了したら、次のス
テップSB6に進む。
When the editing of the note event is completed, the flow advances to the next Step SB6.

【0082】ステップSB6では、間引きされなかった
音符イベントの音量(ベロシティ)を編集する。音量の
編集は、例えば、今回タイミングの和音イベントがダウ
ンピッキングである場合は、最低音弦に割り当てられた
音符イベントから最高音弦に割り当てられた音符イベン
トにかけて徐々に音量が減少するように変更する。
At Step SB6, the volume (velocity) of the note event that has not been thinned is edited. For example, if the chord event at this time is down-picking, the volume is edited so that the volume gradually decreases from the note event assigned to the lowest note to the note event assigned to the highest note. .

【0083】逆に、例えば、アップピッキングである場
合には、最高音弦に割り当てられた音符イベントから最
低音弦に割り当てられた音符イベントにかけて徐々に音
量が減少するように変更する。なお、このステップSB
6は省略してもよい。音量の編集が終了したら、次のス
テップSB7に進む、間引き処理を終了する。
Conversely, in the case of up-picking, for example, the volume is gradually decreased from the note event assigned to the highest note string to the note event assigned to the lowest note string. Note that this step SB
6 may be omitted. When the editing of the volume is completed, the process proceeds to the next step SB7, where the thinning process is completed.

【0084】この第1の例では、以上のように、今回タ
イミングのストローク種類により間引く音符イベントを
決定しているが、間引きをする音符イベントの決定はこ
れ以外の手法で行うことも出来る。
In the first example, as described above, note events to be culled are determined according to the stroke type of the current timing, but note events to be culled can be determined by other methods.

【0085】例えば、前回タイミングのストローク種類
を参照して、ダウンピッキングが連続する場合には、ど
の音符イベントも間引かないようにすることも出来る。
For example, referring to the stroke type at the previous timing, if down picking is continuous, it is possible to prevent any note event from being skipped.

【0086】また、今回タイミングのストローク種類が
ダウンピッキングで、且つ、次回タイミングがアップピ
ッキングである場合には、1〜3弦に割り当てられた音
符イベントを間引くようにしてもよい。
If the stroke type of the current timing is down picking and the next timing is up picking, note events assigned to the first to third strings may be thinned out.

【0087】さらに、間引きを行う確率をダウンピッキ
ングよりもアップピッキングのほうが高くなるように設
定してもよい。
Further, the probability of thinning out may be set so that up picking is higher than down picking.

【0088】また、間引きを行う確率を和音イベントの
拍に応じて設定するようにしてもよい。例えば、和音イ
ベントが小節の頭に位置する場合には、間引きを行う確
率を10%又は0%で間引きを行うように設定し、小節
の頭以外の表の拍に位置する場合には、50%の確率で
間引きを行うように設定し、小節の頭以外の裏の拍であ
る場合には、90%の確率で間引きを行うように設定し
てもよい。
Further, the probability of thinning may be set according to the beat of a chord event. For example, when the chord event is located at the beginning of a bar, the probability of performing the decimation is set to 10% or 0% so that the decimation is performed. The setting may be made so that thinning is performed with a probability of 90%, and if the beat is a back beat other than the beginning of a bar, the thinning is performed with a probability of 90%.

【0089】さらに、楽曲データのテンポにより間引き
を行う確率を変化させるようにしてもよい。実際のギタ
ーの演奏では、テンポが速くなるほど、音が間引かれる
傾向にあるので、テンポが速くなるにしたがって、間引
きの確率を高くすれば、さらに、ギターの演奏に近づけ
ることが出来る。なお、テンポで評価するのではなく、
和音間隔の絶対時間で評価してもよい。
Further, the probability of thinning out may be changed according to the tempo of the music data. In an actual guitar performance, the sound tends to be thinned out as the tempo becomes faster. If the tempo becomes faster, the probability of the thinning out becomes higher, so that the performance can be made closer to the guitar performance. In addition, instead of evaluating at the tempo,
The evaluation may be based on the absolute time of the chord interval.

【0090】また、完全にランダムに間引きを行うよう
にしてもよい。
Further, thinning may be performed completely at random.

【0091】このように種種のルールを作成して、テン
プレートとして保存しておき、参照することにより、よ
り自然な演奏に近づけることも出来る。
As described above, by creating various rules, storing them as templates, and referring to them, a more natural performance can be achieved.

【0092】図5は、図3のステップSA13で行う間
引き処理の第2の例を表すフローチャートである。この
第2の例では、各音符イベントの音量と、ストローク速
度により間引きをする音符イベントを決定する。また、
間引く音符イベントを低音弦側(4〜6弦)に割り当て
られた音符イベントとしているが、第1の例と同様に間
引く音符イベントは任意に設定若しくは指定できる。
FIG. 5 is a flowchart showing a second example of the thinning process performed in step SA13 of FIG. In the second example, note events to be thinned out are determined based on the volume of each note event and the stroke speed. Also,
The note events to be culled are the note events assigned to the lower string side (4th to 6th strings), but note events to be culled can be arbitrarily set or specified as in the first example.

【0093】ステップSC1では、間引き処理を開始し
て、次のステップSC2に進む。
In step SC1, the thinning process is started, and the flow advances to next step SC2.

【0094】ステップSC2では、今回タイミングのス
トローク速度を検出する。ストローク速度とは、例え
ば、ダウンピッキングの場合は、最低音弦に割り当てら
れた音符イベントの発音タイミングと最高音弦に割り当
てられた音符イベントの発音タイミングの時間的な差分
である。
In step SC2, the stroke speed at the current timing is detected. The stroke speed is, for example, in the case of down picking, a time difference between the sounding timing of the note event assigned to the lowest string and the sounding timing of the note event assigned to the highest string.

【0095】すなわち、図3のステップSA12のずら
し処理によりずらされた音符イベントの発音タイミング
の内、最初に発音開始するものと最後に発音開始するも
のとの時間的差分である。本実施例では、予め、基準と
なる基準ストローク速度を定めておく。ストローク速度
を検出したら、次のステップSC4に進む。
That is, it is a time difference between the sounding timing of the note event shifted by the shifting process in step SA12 in FIG. In this embodiment, a reference stroke speed serving as a reference is determined in advance. When the stroke speed is detected, the process proceeds to the next Step SC4.

【0096】ステップSC3では、拍に応じて今回タイ
ミングの和音イベントに含まれる音符イベントの音量を
変更する。拍に応じた音量変化とは、例えば、4分の1
拍子の場合、第1拍目は強拍、第3拍目は第2強拍、第
2及び第4拍目は弱拍であるが、これに従い音量を変更
する。本実施例では、強拍の音符イベントの音量の値に
「+16」を加算し、第2強拍の音符イベントの音量の
値には、「+8」を加算し、弱拍の音符イベントの値に
は「−8」を加算する。なお、これらの加算値は、任意
に変更することが出来る。また、このステップSC3を
省略することも出来る。音量の変更が終了したら次のス
テップSC4に進む。
In step SC3, the volume of the note event included in the chord event of the current timing is changed according to the beat. The volume change according to the beat is, for example, a quarter.
In the case of a beat, the first beat is a strong beat, the third beat is a second strong beat, and the second and fourth beats are weak beats, and the volume is changed accordingly. In this embodiment, “+16” is added to the volume value of the note event of the strong beat, “+8” is added to the volume value of the note event of the second strong beat, and the value of the note event of the weak beat is added. Is added to "-8". Note that these added values can be arbitrarily changed. Step SC3 can be omitted. When the change of the volume is completed, the process proceeds to the next Step SC4.

【0097】ステップSC4では、図1の外部記憶装置
7等に記録されているベロシティテーブルをRAM4内
の作業領域に読み込み、ステップSC2で求めたストロ
ーク速度に基づき、ベロシティテーブル内の発音する最
低音量の値を変換する。
In step SC4, the velocity table recorded in the external storage device 7 or the like in FIG. 1 is read into a work area in the RAM 4, and based on the stroke speed obtained in step SC2, the lowest sound volume in the velocity table is recorded. Convert a value.

【0098】ベロシティテーブルの変換は、例えば、ス
トローク速度が2倍になった場合には発音する最低音量
の各値を1/1.5倍にし、逆にストローク速度が1/
2倍になった場合には発音する最低音量の各値を1.5
倍にする。
In the conversion of the velocity table, for example, when the stroke speed is doubled, each value of the lowest sound volume to be sounded is reduced to 1 / 1.5 times, and conversely, the stroke speed is reduced to 1 / 1.5.
If doubled, set each value of the lowest sound volume to 1.5
Double it.

【0099】ストローク速度が速くなる場合は、例え
ば、基準となるストローク速度のときの値(ベロシティ
テーブル中の値)と2倍になったときの値(この例で
は、基準となるストローク速度のときの値の1/1.5
倍)を直線補間することにより求める事ができる。
In the case where the stroke speed increases, for example, the value when the stroke speed becomes a reference (the value in the velocity table) is doubled (in this example, when the stroke speed becomes the reference stroke speed). 1 / 1.5 of the value of
Times) can be obtained by linear interpolation.

【0100】また、ストローク速度が遅くなる場合は、
例えば、基準となるストローク速度のときの値(ベロシ
ティテーブル中の値)と1/2倍になったときの値(こ
の例では、基準となるストローク速度のときの値の1.
5倍)を直線補間することにより求める事ができる。
When the stroke speed becomes slow,
For example, the value at the time of the reference stroke speed (the value in the velocity table) is 2 times the value at the time of the reference stroke speed (in this example, 1.
(5 times) by linear interpolation.

【0101】つまり、ストローク速度に追随して、発音
する最低音量の各値を変更するので、間引きされる音符
イベントの数を増減することが出来る。これにより、よ
り実際のギターの演奏に近い自然なストローク奏法を再
現することが出来る。
That is, since each value of the lowest sound volume to be generated is changed following the stroke speed, the number of note events to be thinned can be increased or decreased. As a result, it is possible to reproduce a natural stroke playing method closer to actual guitar performance.

【0102】なお、この例では、ストローク速度が2倍
になった場合でも発音する最低音量の各値は1/1.5
倍としたが、ストローク速度が2倍になった場合には発
音する最低音量の各値を1/2倍にすることも出来る。
間引きの割合とストローク速度の関係は、任意に設定す
ることが出来る。
In this example, even when the stroke speed is doubled, each value of the lowest sound volume to be sounded is 1 / 1.5.
However, when the stroke speed is doubled, each value of the lowest sound volume to be generated can be reduced by half.
The relationship between the thinning rate and the stroke speed can be set arbitrarily.

【0103】なお、間引きの割合とストローク速度の関
係は、予め変換テーブルを用意して参照するようにして
もよい。
The relationship between the thinning rate and the stroke speed may be prepared in advance by referring to a conversion table.

【0104】ここで、ベロシティテーブルについて説明
する。図6は、ベロシティテーブルの一例である。
Here, the velocity table will be described. FIG. 6 is an example of a velocity table.

【0105】ベロシティテーブルには6音の和音、5音
の和音、4音の和音、3音の和音のそれぞれについてダ
ウンピッキング及びアップピッキングの列が設けられて
いる。また、各列ごとに最高音弦〜最低音弦(第3高弦
〜第6高弦)の行が設けられ、各欄に発音する最低音量
の値が記録されている。
The velocity table has rows of down-picking and up-picking for each of the 6 chords, the 5 chords, the 4 chords, and the 3 chords. In addition, a row of the highest note string to the lowest note string (third high string to sixth high string) is provided for each column, and the value of the lowest sound volume to be pronounced is recorded in each column.

【0106】このテーブルの発音する最低音量の値を下
回る音量(ベロシティ)が設定された音符イベントは、
間引き処理の対象となる。
A note event whose volume (velocity) is lower than the value of the lowest volume to be pronounced in this table is:
It is a target of thinning processing.

【0107】なお、ベロシティテーブルを簡略化して、
6音の和音用のものだけを用意し、それを全ての音数の
和音に適用するようにしてもよい。
Note that the velocity table is simplified,
It is also possible to prepare only a chord for six tones and apply it to all chords.

【0108】図5に戻り、ステップSC5では、ステッ
プSC4で変換されたベロシティテーブルを参照して、
各音符イベントの音量(ベロシティ)及び図3のステッ
プSA11で決定されたストローク種類に基づき、間引
きをする音符イベントを決定する。
Returning to FIG. 5, in step SC5, referring to the velocity table converted in step SC4,
A note event to be decimated is determined based on the volume (velocity) of each note event and the stroke type determined in step SA11 in FIG.

【0109】すなわち、変換されたベロシティテーブル
の発音する最低音量以下の音量の音符イベントを間引き
をする音符イベントとして決定する。間引きをする音符
イベントを決定したら、次のステップSC6に進む。
That is, a note event having a volume equal to or lower than the minimum volume generated by the converted velocity table is determined as a note event for thinning out. When the note event to be thinned is determined, the flow advances to the next Step SC6.

【0110】ステップSC6では、ステップSC5で決
定した間引きを行う音符イベントを編集する。ここで行
う編集は、音符イベントを削除するか、音量を0にして
発音しないように編集するか、又は音色を変更すること
である。
At step SC6, the note event for thinning determined at step SC5 is edited. The editing performed here is to delete the note event, edit the volume so that the volume is set to 0 so as not to sound, or change the tone.

【0111】間引きを行う音符イベントの編集は、図3
の間引き処理の第1の例のステップSB5で行うものと
ほぼ同一のものである。間引きを行う音符イベントの編
集が終了したら、次のステップSC7に進む。
The editing of the note event for thinning out is shown in FIG.
This is almost the same as that performed in step SB5 of the first example of the thinning processing. When the editing of the note event for thinning is completed, the flow advances to the next Step SC7.

【0112】ステップSC7では、間引きされなかった
音符イベントの音量(ベロシティ)を編集する。音量の
編集は、例えば、今回タイミングの和音イベントがダウ
ンピッキングである場合は、最低音弦に割り当てられた
音符イベントから最高音弦に割り当てられた音符イベン
トにかけて徐々に音量が減少するように変更する。逆
に、アップピッキングである場合には、最高音弦に割り
当てられた音符イベントから最低音弦に割り当てられた
音符イベントにかけて徐々に音量が減少するように変更
する。なお、このステップSC7は省略してもよい。音
量の編集が終了したら、次のステップSC8に進み、間
引き処理を終了する。
In step SC7, the volume (velocity) of the note event that has not been thinned is edited. For example, if the chord event at this time is down-picking, the volume is edited so that the volume gradually decreases from the note event assigned to the lowest note to the note event assigned to the highest note. . Conversely, in the case of up-picking, the volume is gradually decreased from the note event assigned to the highest note string to the note event assigned to the lowest note string. Step SC7 may be omitted. When the editing of the sound volume is completed, the process proceeds to the next step SC8, and the thinning process is completed.

【0113】間引きを行うと発音数が減るため、音量感
が減少する。そのため間引きを行う際には、間引かれな
いで残った同和音イベント中の音符イベントの音量を少
々大きくするという補正を行うことが好ましい。
When thinning is performed, the number of sounds is reduced, and the sense of volume is reduced. Therefore, when thinning is performed, it is preferable to make a correction to slightly increase the volume of a note event in the same chord event remaining without being thinned.

【0114】なお、上記の第2の例では、ストローク速
度によって、ベロシティテーブルを変換したが、楽曲デ
ータのテンポによって変換してもよい。また、ストロー
ク速度及びテンポの双方によって変換するようにしても
よい。テンポによって変換する場合には、テンポが速く
なるに従い、発音する最低音量の値を高くして、間引き
が起こる確率を高くすればよい。
In the second example, the velocity table is converted by the stroke speed, but may be converted by the tempo of the music data. Further, the conversion may be performed based on both the stroke speed and the tempo. In the case of conversion by the tempo, as the tempo increases, the value of the lowest sound volume to be emitted may be increased to increase the probability of occurrence of thinning.

【0115】また、ベロシティテーブルには、ダウンピ
ッキングとアップピッキングのストローク種類毎に、そ
れぞれ最低音量の値を設けたが、これを簡略化して、同
一の値を使用するようにしてもよい。その場合は、図5
のステップSC5では、音符イベントの音量だけに基づ
き間引きをする音符イベントを決定すればよい。
Although the velocity table has a minimum volume value for each of the down-picking and up-picking stroke types, the same value may be used simply. In that case, FIG.
In step SC5, a note event to be decimated may be determined based only on the volume of the note event.

【0116】以上、本実施例によれば、和音データを自
動的にギターのストローク奏法におけるダウンピッキン
グとアップピッキングのいずれかに指定し、和音データ
中の音符データの発音タイミング、音量、発音時間を適
切なばらつきを与えることができる。
As described above, according to the present embodiment, the chord data is automatically designated as either down picking or up picking in the stroke performance of the guitar, and the sounding timing, volume and sounding time of the note data in the chord data are specified. Appropriate variation can be given.

【0117】また、本実施例によれば、決定されたスト
ローク種類にしたがって、和音イベント中の音符イベン
トを間引きすることが出来る。
Further, according to the present embodiment, note events in a chord event can be thinned out according to the determined stroke type.

【0118】また、本実施例によれば、和音イベントの
ストローク速度と音符イベントの音量に基づき音符イベ
ントを間引くことが出来る。
According to the present embodiment, note events can be thinned out based on the stroke speed of the chord event and the volume of the note event.

【0119】また、本実施例によれば、機械的で無表情
な楽曲データに自動でストローク奏法の表情を付与し
て、自然な表情豊かな演奏を行うことができる。
Further, according to the present embodiment, the expression of the stroke playing technique can be automatically given to the mechanical and expressionless music data, so that a natural expression-rich performance can be performed.

【0120】なお、本実施例では、表情を付与する和音
イベントを自動で検出したが、ユーザが選択するように
してもよい。
In this embodiment, the chord event to which the facial expression is to be added is automatically detected, but the user may select it.

【0121】また、本実施例では、表情付けがされてい
ない楽曲データを用いたが、予めストローク種類が決め
られ、ずらし処理が行われている楽曲データを用いるこ
とも出来る。
In this embodiment, music data without expression is used. However, it is also possible to use music data in which a stroke type is determined in advance and shifting processing is performed.

【0122】なお、楽曲データ(演奏データ)のフォー
マットは、演奏イベントの発生時刻を1つ前のイベント
からの時間で表した「イベント+相対時間」、演奏イベ
ントの発生時刻を曲や小節内における絶対時間で表した
「イベント+絶対時間」、音符の音高と符長あるいは休
符と休符長で楽曲データを表した「音高(休符)+符
長」、演奏の最小分解能毎にメモリの領域を確保し、演
奏イベントの発生する時刻に対応するメモリ領域に演奏
イベントを記憶した「ベタ方式」等、どのような形式で
もよい。
Note that the format of the music data (performance data) is "event + relative time" which represents the time at which the performance event occurred as a time from the immediately preceding event, and the time at which the performance event occurred in the music or bar. "Event + absolute time" expressed in absolute time, "pitch (rest) + note length" expressing music data in note pitch and note length or rest and rest length, minimum performance resolution The memory area may be secured, and the performance event may be stored in a memory area corresponding to the time when the performance event occurs.

【0123】また、楽曲データの処理方法は、設定され
たテンポに応じて処理周期を変更する方法、処理周期は
一定で、楽曲データ中のタイミングデータの値を設定さ
れたテンポに応じて変更する方法、処理周期は一定で、
1回の処理において楽曲データ中のタイミングデータの
計数の仕方をテンポに応じて変更する方法等、どのよう
なものであってもよい。
The method of processing the music data is to change the processing cycle according to the set tempo. The processing cycle is constant, and the value of the timing data in the music data is changed according to the set tempo. The method and processing cycle are constant,
Any method may be used, such as a method of changing the timing data counting method in the music data in one process according to the tempo.

【0124】さらに、複数チャンネル分の楽曲データの
記憶方法としては、複数のチャンネルのデータが混在記
憶された形式でもよいし、各チャンネルのデータがトラ
ック毎に分かれて記憶されている形式でもよい。
Further, the method of storing music data for a plurality of channels may be a format in which data of a plurality of channels are mixedly stored, or a format in which data of each channel is stored separately for each track.

【0125】さらに、またメモリ上において、時系列の
楽曲データが連続する領域に記憶されていてもよいし、
飛び飛びの領域に散在して記憶されているデータを、連
続するデータとして別途管理するようにしてもよい。す
なわち、時系列的に連続するデータとして管理すること
ができればよく、メモリ上で連続して記憶されているか
否かは問題ではない。
Further, time-series music data may be stored in a continuous area on the memory,
Data scattered and stored in discrete areas may be separately managed as continuous data. That is, it is only necessary to be able to manage the data as time-series continuous data, and it does not matter whether the data is continuously stored in the memory.

【0126】なお、本実施例の楽曲データ編集装置1は
電子楽器、パソコン+アプリケーションソフトウェアの
形態、カラオケ装置や、ゲーム装置、携帯電話等の携帯
型通信端末、自動演奏ピアノなどどのような形態をとっ
てもよい。
The musical composition data editing apparatus 1 of this embodiment may take any form such as an electronic musical instrument, a personal computer + application software, a karaoke apparatus, a game apparatus, a portable communication terminal such as a mobile phone, an automatic performance piano, and the like. You may take it.

【0127】携帯型通信端末に適用した場合、端末のみ
で所定の機能が完結している場合に限らず、機能の一部
をサーバ側に持たせ、端末とサーバとからなるシステム
全体として所定の機能を実現するようにしてもよい。
When the present invention is applied to a portable communication terminal, it is not limited to the case where a predetermined function is completed only by the terminal, but a part of the function is provided on the server side, and a predetermined function is obtained as a whole system including the terminal and the server. The function may be realized.

【0128】また、電子楽器の形態を取った場合、その
形態は鍵盤楽器に限らず、弦楽器タイプ、打楽器タイプ
等の形態でもよい。
In the case of an electronic musical instrument, the form is not limited to a keyboard instrument but may be a stringed instrument type, a percussion instrument type, or the like.

【0129】また、音源装置、自動演奏装置等を1つの
電子楽器本体に内蔵したものに限らず、それぞれが別体
の装置であり、MIDIや各種ネットワーク等の通信手
段を用いて各装置を接続するものであってもよい。
The sound source device, the automatic performance device, and the like are not limited to those built in one electronic musical instrument main body, but each device is a separate device, and each device is connected using communication means such as MIDI or various networks. May be used.

【0130】なお、本実施例は、本実施例に対応するコ
ンピュータプログラム等をインストールした市販のコン
ピュータ等によって、実施させるようにしてもよい。
Note that the present embodiment may be implemented by a commercially available computer or the like in which a computer program or the like corresponding to the present embodiment is installed.

【0131】その場合には、本実施例に対応するコンピ
ュータプログラム等を、CD−ROMやフロッピー(登
録商標)ディスク等の、コンピュータが読み込むことが
出来る記憶媒体に記憶させた状態で、ユーザに提供して
もよい。
In this case, the computer program or the like corresponding to the present embodiment is provided to the user while being stored in a computer-readable storage medium such as a CD-ROM or a floppy (registered trademark) disk. May be.

【0132】そのコンピュータ等が、LAN、インター
ネット、電話回線等の通信ネットワークに接続されてい
る場合には、通信ネットワークを介して、コンピュータ
プログラムや各種データ等をコンピュータ等に提供して
もよい。
When the computer or the like is connected to a communication network such as a LAN, the Internet, or a telephone line, a computer program or various data may be provided to the computer or the like via the communication network.

【0133】以上実施例に沿って本発明を説明したが、
本発明はこれらに制限されるものではない。例えば、種
々の変更、改良、組合せ等が可能なことは当業者に自明
であろう。
Although the present invention has been described in connection with the preferred embodiments,
The present invention is not limited to these. For example, it will be apparent to those skilled in the art that various modifications, improvements, combinations, and the like can be made.

【0134】[0134]

【発明の効果】以上説明したように、本発明によれば、
楽曲データにストローク表情を付与することの出来る楽
曲データ編集装置を提供することができる。
As described above, according to the present invention,
A music data editing device capable of giving a stroke expression to music data can be provided.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 本発明の実施例による楽曲データ編集装置1
のハードウェア構成を示すブロック図である。
FIG. 1 is a music data editing apparatus 1 according to an embodiment of the present invention.
FIG. 2 is a block diagram illustrating a hardware configuration of the first embodiment.

【図2】 本発明の実施例による楽曲データMDのフォ
ーマットを表す概念図である。
FIG. 2 is a conceptual diagram showing a format of music data MD according to an embodiment of the present invention.

【図3】 図1のCPU5で行う本発明の実施例による
メイン処理を表すフローチャートである。
FIG. 3 is a flowchart showing a main process performed by a CPU 5 in FIG. 1 according to an embodiment of the present invention.

【図4】 図3のステップSA13で行う間引き処理の
第1の例を表すフローチャートである。
FIG. 4 is a flowchart illustrating a first example of a thinning process performed in step SA13 of FIG.

【図5】 図3のステップSA13で行う間引き処理の
第2の例を表すフローチャートである。
FIG. 5 is a flowchart illustrating a second example of the thinning process performed in step SA13 of FIG.

【図6】 ベロシティテーブルの1例である。FIG. 6 is an example of a velocity table.

【符号の説明】[Explanation of symbols]

1…楽曲データ編集装置、2…バス、3…RAM、4…
ROM、5…CPU、6…タイマ、7…外部記憶装置、
8…検出回路、9…パネル操作子、10…表示回路、1
1…ディスプレイ、12…音源回路、13…効果回路、
14…サウンドシステム、15…演奏操作子、16…M
IDI I/F、17…通信I/F、18…MIDI機
器、19…通信ネットワーク、20…サーバコンピュー
1 ... music data editing device, 2 ... bus, 3 ... RAM, 4 ...
ROM, 5 CPU, 6 timer, 7 external storage device,
8 detection circuit, 9 panel operator, 10 display circuit, 1
1 display, 12 sound source circuit, 13 effect circuit,
14: sound system, 15: performance operator, 16: M
IDI I / F, 17 communication I / F, 18 MIDI equipment, 19 communication network, 20 server computer

Claims (12)

【特許請求の範囲】[Claims] 【請求項1】 楽曲データを入力する楽曲データ入力手
段と、 前記楽曲データ内からほぼ同時期に発音される複数の音
符データで構成される和音データを検出する和音検出手
段と、 前記複数の音符データの少なくとも一つを間引きする音
符データ間引き手段とを有する楽曲データ編集装置。
1. music data input means for inputting music data; chord detection means for detecting chord data composed of a plurality of note data pronounced at substantially the same time from the music data; A music data editing apparatus comprising: note data thinning means for thinning out at least one of data.
【請求項2】 さらに、前記複数の音符データの発音順
を決定する発音順序決定手段を有し、 前記音符データ間引き手段は、前記発音順に従い間引き
する音符データを決定し、該決定した音符データを間引
きする請求項1記載の楽曲データ編集装置。
2. The musical instrument according to claim 1, further comprising: a sound order determining unit that determines a sound order of the plurality of note data; the note data thinning unit determines note data to be thinned according to the sound order; 2. The music data editing apparatus according to claim 1, wherein
【請求項3】 前記音符データ間引き手段は前記少なく
とも一つの音符データの音量を0に変更して間引きする
請求項1又は2記載の楽曲データ編集装置。
3. The music data editing apparatus according to claim 1, wherein the note data thinning means changes the volume of the at least one note data to 0 and thins out the music data.
【請求項4】 前記音符データ編集手段は前記少なくと
も一つの音符データの音色を変更して間引きする請求項
1又は2記載の楽曲データ編集装置。
4. The musical composition data editing apparatus according to claim 1, wherein said musical note data editing means changes a tone color of said at least one musical note data and thins out the data.
【請求項5】 前記音符データ編集手段は前記少なくと
も一つの音符データを削除して間引きする請求項1又は
2記載の楽曲データ編集装置。
5. The music data editing apparatus according to claim 1, wherein the note data editing unit deletes the at least one note data and thins out the data.
【請求項6】 前記音符データ編集手段は前記少なくと
も一つの音符データを削除して、前記削除した音符デー
タの発音長を直前の音符データの発音長に加算すること
により間引きする請求項1又は2記載の楽曲データ編集
装置。
6. The note data editing unit according to claim 1, wherein the note data editing unit deletes the at least one note data and adds the note length of the deleted note data to the note length of the immediately preceding note data to thereby thin out the note data. A music data editing device as described.
【請求項7】 楽曲データを入力する楽曲データ入力手
段と、 前記楽曲データ内からほぼ同時期に発音される複数の音
符データで構成される和音データを検出する和音検出手
段と、 前記複数の音符データのそれぞれの音量に基づき、間引
かれる音符データを決定する間引き音符データ決定手段
と、 前記決定された間引き音符データを間引きする音符デー
タ間引き手段とを有する楽曲データ編集装置。
7. Music data input means for inputting music data; chord detection means for detecting chord data composed of a plurality of note data pronounced at substantially the same time from the music data; A music data editing apparatus comprising: thinned note data determining means for determining note data to be thinned based on each volume of data; and note data thinning means for thinning the determined thinned note data.
【請求項8】 さらに、前記ほぼ同時期に発音される複
数の音符データの内、最初に発音される音符データと最
後に発音される音符データの発音タイミングの差分を検
出する差分検出手段を有し、 前記間引き音符データ決定手段は、前記複数の音符デー
タのそれぞれの音量と、前記検出された差分に基づき間
引かれる音符データを決定する請求項7記載の楽曲デー
タ編集装置。
And a difference detecting means for detecting a difference between the sounding timings of the first note data and the last note data among the plurality of note data sounded at substantially the same time. 8. The music data editing apparatus according to claim 7, wherein the thinned-out note data determining means determines the note data to be thinned out based on the volume of each of the plurality of note data and the detected difference.
【請求項9】 楽曲データを入力する楽曲データ入力工
程と、 前記楽曲データ内からほぼ同時期に発音される複数の音
符データで構成される和音データを検出する和音検出工
程と、 前記複数の音符データの少なくとも一つを間引きする音
符データ間引き工程とを有する楽曲データ編集方法。
9. A music data input step of inputting music data; a chord detection step of detecting chord data composed of a plurality of note data pronounced at substantially the same time from the music data; A music data editing method, comprising: a note data thinning step of thinning out at least one of data.
【請求項10】 楽曲データを入力する楽曲データ入力
工程と、 前記楽曲データ内からほぼ同時期に発音される複数の音
符データで構成される和音データを検出する和音検出工
程と、 前記複数の音符データのそれぞれの音量に基づき、間引
かれる音符データを決定する間引き音符データ決定工程
と、 前記決定された間引き音符データを間引きする音符デー
タ間引き工程とを有する楽曲データ編集方法。
10. A music data input step of inputting music data; a chord detection step of detecting chord data composed of a plurality of note data pronounced at substantially the same time from the music data; A music data editing method comprising: a thinned note data determining step of determining thinned note data based on each volume of data; and a note data thinning step of thinning out the determined thinned note data.
【請求項11】 楽曲データを入力する楽曲データ入力
手順と、 前記楽曲データ内からほぼ同時期に発音される複数の音
符データで構成される和音データを検出する和音検出手
順と、 前記複数の音符データの少なくとも一つを間引きする音
符データ間引き手順とを有する楽曲データ編集手順をコ
ンピュータに実行させるためのプログラム。
11. A music data input procedure for inputting music data; a chord detection procedure for detecting chord data composed of a plurality of note data pronounced at substantially the same time from the music data; A program for causing a computer to execute a music data editing procedure including a note data thinning procedure for thinning out at least one of data.
【請求項12】 楽曲データを入力する楽曲データ入力
手順と、 前記楽曲データ内からほぼ同時期に発音される複数の音
符データで構成される和音データを検出する和音検出手
順と、 前記複数の音符データのそれぞれの音量に基づき、間引
かれる音符データを決定する間引き音符データ決定手順
と、 前記決定された間引き音符データを間引きする音符デー
タ間引き手順とを有する楽曲データ編集手順をコンピュ
ータに実行させるためのプログラム。
12. A music data input procedure for inputting music data, a chord detection procedure for detecting chord data composed of a plurality of note data pronounced at substantially the same time from the music data, and the plurality of music notes. A thinning-out note data determining step of determining note data to be thinned out based on each volume of the data, and a music data editing step having a note data thinning-out step of thinning out the determined thinning-out note data. Program.
JP2001139850A 2001-05-10 2001-05-10 Musical piece data editing system, method and program Pending JP2002333883A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001139850A JP2002333883A (en) 2001-05-10 2001-05-10 Musical piece data editing system, method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001139850A JP2002333883A (en) 2001-05-10 2001-05-10 Musical piece data editing system, method and program

Publications (1)

Publication Number Publication Date
JP2002333883A true JP2002333883A (en) 2002-11-22

Family

ID=18986553

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001139850A Pending JP2002333883A (en) 2001-05-10 2001-05-10 Musical piece data editing system, method and program

Country Status (1)

Country Link
JP (1) JP2002333883A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008145564A (en) * 2006-12-07 2008-06-26 Casio Comput Co Ltd Automatic music arranging device and automatic music arranging program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008145564A (en) * 2006-12-07 2008-06-26 Casio Comput Co Ltd Automatic music arranging device and automatic music arranging program

Similar Documents

Publication Publication Date Title
JP3718919B2 (en) Karaoke equipment
JP5891656B2 (en) Accompaniment data generation apparatus and program
JP3654079B2 (en) Waveform generation method and apparatus
JP3915807B2 (en) Automatic performance determination device and program
JPH10214083A (en) Musical sound generating method and storage medium
JP3654080B2 (en) Waveform generation method and apparatus
JP3654082B2 (en) Waveform generation method and apparatus
JP3747758B2 (en) Automatic performance device
JP3654084B2 (en) Waveform generation method and apparatus
JP4407473B2 (en) Performance method determining device and program
JP3654227B2 (en) Music data editing apparatus and program
JP3680756B2 (en) Music data editing apparatus, method, and program
JP2002333883A (en) Musical piece data editing system, method and program
JP3656584B2 (en) Performance data processing apparatus and program
JP3430895B2 (en) Automatic accompaniment apparatus and computer-readable recording medium recording automatic accompaniment control program
JP5104414B2 (en) Automatic performance device and program
JP4186802B2 (en) Automatic accompaniment generator and program
JP3747802B2 (en) Performance data editing apparatus and method, and storage medium
JP2000003175A (en) Musical tone forming method, musical tone data forming method, musical tone waveform data forming method, musical tone data forming method and memory medium
JP3960242B2 (en) Automatic accompaniment device and automatic accompaniment program
JP3637782B2 (en) Data generating apparatus and recording medium
JPH10254443A (en) Device and method for punching in and medium recording program
JP2001350469A (en) Device and method for deciding sounding length and recording medium
JP3680776B2 (en) Performance information processing apparatus, method and program
JPH10171475A (en) Karaoke (accompaniment to recorded music) device

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20040906

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040914

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20041115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20041207

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050207

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20050426