JPH10198365A - Music generating device - Google Patents

Music generating device

Info

Publication number
JPH10198365A
JPH10198365A JP8359101A JP35910196A JPH10198365A JP H10198365 A JPH10198365 A JP H10198365A JP 8359101 A JP8359101 A JP 8359101A JP 35910196 A JP35910196 A JP 35910196A JP H10198365 A JPH10198365 A JP H10198365A
Authority
JP
Japan
Prior art keywords
external input
user
value
variable
position sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP8359101A
Other languages
Japanese (ja)
Other versions
JP3624605B2 (en
Inventor
Akinori Matsubara
晃則 松原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP35910196A priority Critical patent/JP3624605B2/en
Publication of JPH10198365A publication Critical patent/JPH10198365A/en
Application granted granted Critical
Publication of JP3624605B2 publication Critical patent/JP3624605B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Electrophonic Musical Instruments (AREA)

Abstract

PROBLEM TO BE SOLVED: To enable a user to perform musical expressions over a wide range without deteriorating an inherent manipulation. SOLUTION: A microcomputer 301 receives detection signals from a press sensor 304, an embouchure sensor 105 in an external input device 100 in order to detect a strength of breath let out by the user and a strength of biting by the user. A photo receiving part 103 of a position sensor is energized so as to analyze detection signals delivered from photo receiving parts 305 of the position sensor so as to specify a position of the external input device 106. On the basis of results of detection, a sound source LSI 308 and an LCD display part 306 are controlled in accordance with a program stored in a program ROM 302.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、楽音の発音に関わ
る各種条件を設定するための技術に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a technique for setting various conditions related to musical tone generation.

【0002】[0002]

【従来の技術および発明が解決しようとする課題】例え
ば電子楽器において、ベンダー、モジュレーションホイ
ール、タッチレスポンス鍵盤、ブレスセンサ等の操作子
は、より幅広い音楽表現を実現するために設けられる。
それらの操作子を複数同時に操作した場合には、楽音の
発音を様々に制御することができ、素晴らしい音楽表現
を行うこともできる。
2. Description of the Related Art For example, in an electronic musical instrument, operators such as a bender, a modulation wheel, a touch response keyboard, and a breath sensor are provided to realize a wider range of musical expressions.
When a plurality of these controls are operated at the same time, the pronunciation of musical tones can be variously controlled, and a wonderful musical expression can be performed.

【0003】鍵盤等の演奏操作子群を備えた電子楽器で
は、両手で鍵盤を弾くことが本来の演奏操作である。こ
のため、本来の演奏操作を損なうことなく操作できる操
作子は、ブレスセンサやコントロールペダルといった手
を使わない操作子に限定されることになる。しかし、そ
れらの操作子では、入力できる情報量が小さい。このた
め、ユーザは、本来の演奏操作を損なうことなく幅広い
音楽表現を行うことができないという問題点があった。
[0003] In an electronic musical instrument having a performance operation group such as a keyboard, playing the keyboard with both hands is the original performance operation. For this reason, operators that can be operated without impairing the original performance operation are limited to operators who do not use hands, such as breath sensors and control pedals. However, with these controls, the amount of information that can be input is small. For this reason, there is a problem that the user cannot perform a wide range of musical expressions without impairing the original performance operation.

【0004】なお、本来の演奏操作を損なわせることを
回避するために、例えばモジュレーションホイールを演
奏用途(ビブラート等の深さのコントロール用)として
だけでなく、音色等の他のパラメータの数値変更も行え
るようにしたものもある。また、ペダルをサスティンの
コントロール用以外に、音色番号を変更するためのスイ
ッチとして使用できるようにしたものもある。しかし、
これらは何れも、ユーザが所定のスイッチ等を操作して
その操作子の機能を切り換える必要があった。このた
め、現実的には、幅広い音楽表現を容易に行うことはで
きなかった。換言すれば、上記問題点を実質的に解決す
ることはできなかった。
[0004] In order to avoid impairing the original performance operation, for example, not only the modulation wheel is used for performance (for controlling the depth of vibrato or the like), but also the numerical values of other parameters such as tone are changed. Some have made it possible. In addition, some pedals can be used as switches for changing tone numbers in addition to controlling the sustain. But,
In each of these cases, it is necessary for the user to operate a predetermined switch or the like to switch the function of the operator. Therefore, in reality, it has not been possible to easily perform a wide range of musical expressions. In other words, the above problem could not be substantially solved.

【0005】本発明の課題は、ユーザに本来の演奏操作
を損なわせることなく、幅広い音楽表現を行えるように
することにある。
[0005] It is an object of the present invention to enable a wide range of musical expressions to be performed without impairing the user's original performance operation.

【0006】[0006]

【課題を解決するための手段】本発明の第1の態様によ
る楽音発生装置は、設定された各種発音条件に従って楽
音を発生(発音、或いは発音命令等を生成)することを
前提とし、息の強さを検出するブレスセンサ、及び噛ん
だ強さを検出するアンブシャセンサを少なくとも備え、
ユーザが携帯して使用する外部入力手段と、外部入力手
段の位置を検出する位置検出手段と、位置検出手段の検
出結果、及び外部入力手段が備えた各種センサの検出結
果に基づいて、各種発音条件を設定する設定手段と、を
具備する。
The musical sound generating apparatus according to the first aspect of the present invention is based on the premise that a musical sound is generated (generates a sound or generates a sounding instruction or the like) in accordance with various set sound generating conditions. At least a breath sensor for detecting the strength, and an embouchure sensor for detecting the biting strength,
An external input device used by the user, a position detecting device for detecting the position of the external input device, and various sounds generated based on the detection result of the position detecting device and the detection results of various sensors provided in the external input device. Setting means for setting conditions.

【0007】なお、上記の構成において、設定手段は、
位置検出手段が検出した外部入力手段の位置に応じて対
象とする発音条件を特定し、ブレスセンサが検出した息
の強さ、或いはアンブシャセンサが検出した噛んだ強さ
が予め定めた強さ以上であった場合に、該対象とする発
音条件の変更を行う、ことが望ましい。
[0007] In the above configuration, the setting means includes:
The target sound generation condition is specified according to the position of the external input means detected by the position detection means, and the breath strength detected by the breath sensor or the bite strength detected by the embouchure sensor is equal to or greater than a predetermined strength. If it is, it is desirable to change the target sound generation condition.

【0008】本発明の第2の態様による楽音発生装置
は、上記の構成に加えて、各種発音条件の設定用であ
り、各々異なる機能が割り当てられた部分画像が少なく
とも1つ配置された画面を表示する表示手段と、位置検
出手段の検出結果、及び外部入力手段が備えた各種セン
サの検出結果に基づいて、画面上で部分画像を介して指
定されている機能を特定する機能特定手段と、を更に具
備し、設定手段は、位置検出手段の検出結果、外部入力
手段が備えた各種センサの検出結果、及び機能特定手段
が特定している機能に基づいて、各種発音条件を設定す
る。
A musical sound generating apparatus according to a second aspect of the present invention, in addition to the above configuration, is used for setting various sounding conditions, and displays a screen on which at least one partial image to which different functions are assigned is arranged. Display means for displaying, a function specifying means for specifying a function designated via a partial image on a screen based on a detection result of the position detection means, and a detection result of various sensors provided in the external input means, The setting means sets various sounding conditions based on the detection result of the position detecting means, the detection results of various sensors provided in the external input means, and the function specified by the function specifying means.

【0009】なお、上記第1及び第2の態様の構成にお
いて、設定手段は、位置検出手段が検出した外部入力手
段の位置に応じて設定可能な発音条件を選別する、こと
が望ましい。また、発音させる楽音の音高を指定するた
めの演奏操作子群に対するユーザの操作状態に応じて設
定可能な発音条件を選別する、ことが望ましい。
In the configuration of the first and second aspects, it is desirable that the setting means selects a sounding condition that can be set according to the position of the external input means detected by the position detecting means. It is also desirable to select sounding conditions that can be set according to a user's operation state on a performance operator group for designating a pitch of a musical tone to be sounded.

【0010】本発明は、手を使わずに情報を入力するこ
とができることに着目して、ユーザ(外部入力手段)の
位置、吐く息の強さ、及び噛む強さの少なくとも3種類
の情報を検出し、発音条件(パラメータ)の選択、及び
それの変更を、それら検出した情報を基に行う。
The present invention focuses on the fact that information can be input without using a hand, and at least three types of information of the position of a user (external input means), the strength of exhalation, and the strength of chewing are provided. Detection and selection of sound generation conditions (parameters) and changes thereof are performed based on the detected information.

【0011】情報の種類(個数)が増えるに伴い、それ
によって表現できる情報量は、各種類の情報が2値的な
値しかとらないとしても指数的に増大する。3種類の情
報では、変更対象のパラメータ数等を考慮すれば、変更
対象のパラメータの選択や、それの変更をユーザは任意
に行えるようになる。これにより、手を使うことなく、
幅広い音楽表現が可能となる。
As the type (number) of information increases, the amount of information that can be expressed thereby increases exponentially even if each type of information takes only binary values. With the three types of information, the user can arbitrarily select a parameter to be changed or change the parameter if the number of parameters to be changed is considered. This allows you to use your hands
A wide range of musical expressions is possible.

【0012】[0012]

【発明の実施の形態】以下、図面を参照しながら、本発
明の実施の形態につき詳細に説明する。本実施の形態
は、電子楽器に本発明を適用したものである。 <第1の実施の形態>図1は、第1の実施の形態による
外部入力装置の構成を説明する図である。
Embodiments of the present invention will be described below in detail with reference to the drawings. In the present embodiment, the present invention is applied to an electronic musical instrument. <First Embodiment> FIG. 1 is a diagram illustrating the configuration of an external input device according to a first embodiment.

【0013】図1(a)に示すように、外部入力装置1
00は、各種センサが設けられた本体101を、ヘッド
フォン型の装着部102に変形可能な取付部106を介
して取り付けて構成されている。
As shown in FIG. 1A, an external input device 1
Reference numeral 00 denotes a configuration in which a main body 101 provided with various sensors is mounted on a headphone-type mounting portion 102 via a deformable mounting portion 106.

【0014】上記本体101には、図1(b)及び図1
(c)に示すように、位置センサ発光部103、ブレス
センサ吹き込み口104、及び唇の噛みしめ量を検出す
るためのアンブシャセンサ105が設けられている。位
置センサ発光部103は、例えば赤外線を照射するLE
Dである。ブレスセンサ吹き込み口104の奥にはユー
ザが吐いた息の強さを検出するためのブレスセンサが設
けられている。
FIG. 1B and FIG.
As shown in (c), a position sensor light emitting unit 103, a breath sensor blowing port 104, and an embouchure sensor 105 for detecting the amount of biting of the lips are provided. The position sensor light emitting unit 103 is, for example, an LE that emits infrared light.
D. A breath sensor for detecting the strength of the breath exhaled by the user is provided at the back of the breath sensor blowing port 104.

【0015】外部入力装置100は、装着部102によ
りユーザの頭に装着することができる。その装着した後
は、取付部材106を曲げて、本体101のブレスセン
サ吹き込み口104があるほうの先端部分を口にくわえ
られる位置に調整する。その調整を行うことにより、外
部入力装置100の使用準備が完了する。
The external input device 100 can be mounted on the user's head by the mounting section 102. After the attachment, the attachment member 106 is bent so that the end of the main body 101 where the breath sensor blowout port 104 is located is adjusted to a position where the mouth can be held. By performing the adjustment, the preparation for using the external input device 100 is completed.

【0016】図2は、電子楽器本体の概観図である。図
2に示すように、電子楽器201には、ユーザが本来の
演奏操作を行う鍵盤202と、各種パラメータの設定を
行うための画面が表示されるLCD203と、上記位置
センサ発光部103から照射された光(例えば赤外線)
を受光する3つの位置センサ受光部204が設けられて
いる。鍵盤202の演奏操作を行うユーザから見て、位
置センサ受光部204aは楽器の左端部分に配置されて
いる。同様に、受光部204bは楽器中央部分に、受光
部204cは楽器の右端部分にそれぞれ配置されてい
る。位置センサ発光部103とそれの受光部204とで
位置センサが構成され、その位置センサによって外部入
力装置100の位置が検出される。
FIG. 2 is an outline view of the electronic musical instrument main body. As shown in FIG. 2, the electronic musical instrument 201 is illuminated by a keyboard 202 on which a user performs an original performance operation, an LCD 203 on which a screen for setting various parameters is displayed, and the position sensor light emitting unit 103. Light (eg infrared)
Are provided. The position sensor light receiving unit 204a is located at the left end of the musical instrument when viewed from the user who performs the keyboard 202. Similarly, the light receiving unit 204b is arranged at the center of the musical instrument, and the light receiving unit 204c is arranged at the right end of the musical instrument. The position sensor light emitting unit 103 and its light receiving unit 204 constitute a position sensor, and the position sensor detects the position of the external input device 100.

【0017】なお、位置センサ受光部204を配置する
個数は、それ以上であってもそれ以下であっても良い。
また、位置センサ受光部204は、それが向けられた側
に位置する位置センサ発光部103から発した光を受光
することから、より広い範囲で位置センサ発光部103
からの光を受光できるように、電子楽器201の上面だ
けでなく、側面に位置センサ発光部204を配置しても
良い。
It should be noted that the number of the position sensor light receiving units 204 to be arranged may be more or less.
Further, since the position sensor light receiving section 204 receives light emitted from the position sensor light emitting section 103 located on the side to which the position sensor light receiving section 204 is directed, the position sensor light emitting section 103 has a wider range.
The position sensor light-emitting unit 204 may be arranged on the side surface of the electronic musical instrument 201 as well as on the upper surface so as to receive light from the electronic musical instrument 201.

【0018】図3は、上記した構成を備えた電子楽器2
01のハードブロック図である。マイクロコンピュータ
(以降、マイコンと記す)301は、例えばCPUであ
る。そのマイコン301は、プログラムROM302に
格納されているプログラムを実行することにより、ワー
クROM303をワーク領域として使用しながら楽器2
01全体の制御を行う。
FIG. 3 shows an electronic musical instrument 2 having the above configuration.
01 is a hardware block diagram. A microcomputer (hereinafter, referred to as a microcomputer) 301 is, for example, a CPU. The microcomputer 301 executes the program stored in the program ROM 302, thereby using the work ROM 303 as a work area while using the musical instrument 2.
01 performs overall control.

【0019】スイッチ群307は、自動演奏モード等の
各種モードを設定するためのモードスイッチ、自動演奏
等のスタート或いは終了を指定するためのスタート/ス
トップスイッチ、自動演奏させる曲や音色等を指定する
ための複数の数字ボタン等をまとめて表したものであ
る。マイコン301は、このスイッチ群307、及び鍵
盤202のスキャンを行うことにより、各種スイッチの
操作状態や鍵盤202の操作状態をそれぞれ検出し、そ
の検出結果に応じて各部の制御を行う。
A switch group 307 is a mode switch for setting various modes such as an automatic performance mode, a start / stop switch for specifying start or end of automatic performance and the like, and a tune and a tone to be automatically performed. Are collectively represented by a plurality of numeric buttons and the like. The microcomputer 301 scans the switch group 307 and the keyboard 202 to detect the operation states of various switches and the operation state of the keyboard 202, respectively, and controls each unit according to the detection result.

【0020】具体的には、スイッチ群307に対して行
われた操作の内容に応じて、LCD203に表示させる
画面の変更や、音源LSI308の設定の変更等を行
う。鍵盤202に対する操作を検出した場合には、音源
LSI308に、発音させる楽音の音高(ノートナンバ
ー)等を付加した制御コマンド(発音命令)を出力し、
押鍵された鍵に対応する音高の楽音を発音させる。曲の
自動演奏は、例えばプログラムROM302から演奏デ
ータを読み出し、それに付加されている時間情報に従っ
て各イベントのデータを処理し、それによって生成した
制御コマンドを音源LSI308に随時出力していくこ
とにより、それを実行する。
More specifically, a screen displayed on the LCD 203 and a setting of the sound source LSI 308 are changed in accordance with the content of the operation performed on the switch group 307. When an operation on the keyboard 202 is detected, a control command (sound generation instruction) to which a pitch (note number) of a musical sound to be generated is added is output to the sound source LSI 308,
A musical tone having a pitch corresponding to the depressed key is generated. The automatic performance of the music is performed by, for example, reading performance data from the program ROM 302, processing data of each event according to time information added thereto, and outputting a control command generated thereby to the tone generator LSI 308 as needed. Execute

【0021】音源LSI308は、制御コマンドが発音
命令であった場合、その発音命令に従って波形ROM3
09に格納されている波形データを読み出し、それに設
定されている音響効果を付加した後、アナログのオーデ
ィオ信号に変換してアンプ310に出力する。アンプ3
10は、そのオーディオ信号を増幅してスピーカ311
に出力する。スピーカ311にオーディオ信号が入力す
ることにより、楽音が発音される。
When the control command is a tone generation command, the tone generator LSI 308 generates the waveform ROM 3 according to the tone generation command.
After reading out the waveform data stored in 09 and adding the set sound effect thereto, the data is converted into an analog audio signal and output to the amplifier 310. Amplifier 3
Reference numeral 10 denotes a speaker 311 which amplifies the audio signal.
Output to When an audio signal is input to the speaker 311, a musical tone is generated.

【0022】LCD203に画面表示を行うための画像
データは、例えばプログラムROM302に格納されて
いる。その画像データは、例えば画像を構成する各部分
画像毎に用意している。マイコン301は、例えばプロ
グラムROM302から画面表示に必要な画像データを
読み出してワークRAM303に格納し、その画像デー
タを表示すべき位置を指定する座標データとともにLC
D表示部306に転送する。他方のLCD表示部306
は、マイコン301から転送された画像データを、その
座標データに従ってLCD203の画面に配置する。こ
れにより、画像データ量を抑えつつ、LCD203上に
様々な画面を表示することを可能としている。
Image data for displaying a screen on the LCD 203 is stored in, for example, a program ROM 302. The image data is prepared, for example, for each partial image constituting the image. The microcomputer 301 reads out image data necessary for screen display from the program ROM 302, stores the read image data in the work RAM 303, and stores LC data together with coordinate data for specifying a position where the image data is to be displayed.
The data is transferred to the D display unit 306. The other LCD display unit 306
Arranges the image data transferred from the microcomputer 301 on the screen of the LCD 203 according to the coordinate data. This makes it possible to display various screens on the LCD 203 while suppressing the amount of image data.

【0023】マイコン301と外部入力装置100と
は、例えばインターフェイス、端子、及びケーブル(共
に図示せず)を介して接続されている。マイコン301
は、例えば所定の時間間隔毎に、外部入力装置100に
対するユーザの操作を検出し、その検出結果に応じた設
定を行う。
The microcomputer 301 and the external input device 100 are connected via, for example, an interface, terminals, and cables (both not shown). Microcomputer 301
Detects a user operation on the external input device 100 at, for example, a predetermined time interval, and performs setting according to the detection result.

【0024】ユーザの操作を検出する場合、マイコン3
01は、位置センサ発光部103を所定時間駆動すると
ともに、ブレスセンサ304、アンブシャセンサ105
から出力される検出信号を取り込む。その一方では、位
置センサ受光部群305を構成する3つの受光部群20
4a〜204cから出力された受光信号を取り込む。そ
れら取り込んだ値に基づいて各種の設定やLCD203
に表示させる画面の切り換え等を行う。
When detecting a user operation, the microcomputer 3
01 drives the position sensor light emitting unit 103 for a predetermined time, and also includes a breath sensor 304 and an embouchure sensor 105.
Captures the detection signal output from. On the other hand, the three light receiving unit groups 20 constituting the position sensor light receiving unit group 305
The light receiving signals output from 4a to 204c are taken in. Various settings and LCD 203 are performed based on the captured values.
For example, the screen to be displayed is switched.

【0025】以上が本実施の形態による電子楽器201
の構成、及び動作の概略である。次に、図4〜図6を参
照して、本発明に特に関わる動作についてより詳細に説
明する。
The above is the description of the electronic musical instrument 201 according to the present embodiment.
2 is an outline of the configuration and operation of the embodiment. Next, operations particularly related to the present invention will be described in more detail with reference to FIGS.

【0026】図4は、位置センサで検出する空間(領
域)を説明する図である。これは、各位置センサ受光部
204a〜204cによって位置センサ発光部103を
検出できるそれぞれの空間領域の範囲を示したものであ
る。area1は位置センサ受光部204aが検出する
空間領域であり、area2は受光部204b、are
a3は受光部204cがそれぞれ検出する空間領域であ
る。
FIG. 4 is a diagram for explaining a space (area) detected by the position sensor. This indicates the range of each spatial area in which the position sensor light emitting units 103 can be detected by the position sensor light receiving units 204a to 204c. area1 is a spatial area detected by the position sensor light-receiving unit 204a, and area2 is a light-receiving unit 204b, are
a3 is a spatial area detected by the light receiving unit 204c.

【0027】図4(a)、及び(b)に示すように、各
位置センサ受光部204で位置センサ受光部103を検
出する空間領域の大きさ自体は、各位置センサ受光部2
04で同じである。その空間領域は、位置センサ受光部
204に受光される光量によって決まる。このため、各
位置センサ受光部204を中心にして形成されている。
As shown in FIGS. 4A and 4B, the size of the spatial area in which each position sensor light-receiving section 204 detects the position sensor light-receiving section 103 is determined by each position sensor light-receiving section 2.
04 is the same. The space area is determined by the amount of light received by the position sensor light receiving unit 204. For this reason, it is formed centering on each position sensor light receiving part 204.

【0028】マイコン301は、各位置センサ受光部2
04の受光信号値を比較することにより、外部入力装置
100がどの空間領域に位置しているかを検出する。ま
た、その信号値の大きさから、外部入力装置100と位
置センサ受光部204(信号値が最も大きいもの)との
距離を検出することができる。
The microcomputer 301 includes a light receiving unit 2 for each position sensor.
By comparing the light receiving signal values of 04, it is detected in which spatial area the external input device 100 is located. Further, the distance between the external input device 100 and the position sensor light receiving unit 204 (the signal having the largest signal value) can be detected from the magnitude of the signal value.

【0029】第1の実施の形態では、各空間領域毎、即
ち位置センサ受光部204毎に、音色(番号)を割り当
て、アンブシャセンサ105が検出した噛んだ強さが予
め定めた閾値以上となったとき、外部入力装置(位置セ
ンサ発光部103)100を検出している位置センサ受
光部204に割り当てた音色を設定するようにしてい
る。これにより、手を使わない音色の切り換えを実現さ
せている。その音色の切り換えは、マイコン301が、
音源LSI308に音色番号を付加した制御コマンドを
出力することで行われる。
In the first embodiment, a timbre (number) is assigned to each spatial area, that is, to each position sensor light receiving unit 204, and the bite strength detected by the embouchure sensor 105 is equal to or greater than a predetermined threshold. At this time, the timbre assigned to the position sensor light receiving unit 204 that detects the external input device (position sensor light emitting unit 103) 100 is set. As a result, tone switching without using hands is realized. The microcomputer 301 switches the tone.
This is performed by outputting a control command with a tone number added to the sound source LSI 308.

【0030】また、第1の実施の形態では、アンブシャ
センサ105が検出した噛む強さに応じて、音程を変更
するようにしている。他方のブレスセンサ304が検出
した息の強さに応じては、音量、更にはビブラートの深
さを変更するようにしている。これらにより、演奏操作
によって発音される楽音を容易に様々に変化させること
ができるようにしている。
Further, in the first embodiment, the pitch is changed according to the biting strength detected by the embouchure sensor 105. The volume and further the vibrato depth are changed according to the strength of the breath detected by the other breath sensor 304. Thus, it is possible to easily change variously the musical tones generated by the performance operation.

【0031】更に、第1の実施の形態では、ユーザの要
望により広く対応するために、両手演奏中であっても任
意のパラメータを変更できるようにしている。図5を参
照して、そのことについて説明する。
Further, in the first embodiment, in order to respond to the needs of the user more widely, any parameter can be changed even during the two-handed performance. This will be described with reference to FIG.

【0032】図5(a)〜(d)は、それぞれ、LCD
表示例を示す図である。より具体的には、図5(a)は
エンベロープレベルを設定するためのエンベロープ設定
画面、同図(b)は設定内容を変更するパラメータを選
択するためのメインメニュー画面、同図(c)はリズム
を設定するためのリズム設定画面、同図(d)はテンポ
を設定するためのテンポ設定画面である。
FIGS. 5A to 5D respectively show an LCD.
It is a figure showing an example of a display. More specifically, FIG. 5A shows an envelope setting screen for setting an envelope level, FIG. 5B shows a main menu screen for selecting a parameter whose setting content is to be changed, and FIG. A rhythm setting screen for setting a rhythm, and FIG. 4D is a tempo setting screen for setting a tempo.

【0033】図5(a)〜(d)に示す各画面内にはカ
ーソル501、及び、何らかの機能が割り当てられたス
イッチ或いはアイコン(部分画像)が表示されている。
このカーソル501は、画面内に表示されたスイッチ或
いはアイコンを指定するためのものである。例えば図5
(a)、同図(c)及び(d)に示す各設定画面では、
対象としているパラメータ値を上昇させるアップスイッ
チ502、及びその値を下降させるダウンスイッチ50
3がそれぞれ表示されている。これにより、カーソル5
01をどちらのスイッチに移動させるかによってユーザ
がパラメータ値をどのように変更させるかを選択するこ
とができるようにしている。
In each of the screens shown in FIGS. 5A to 5D, a cursor 501 and switches or icons (partial images) to which some functions are assigned are displayed.
The cursor 501 is used to designate a switch or an icon displayed on the screen. For example, FIG.
In each setting screen shown in (a), (c) and (d) of FIG.
Up switch 502 for increasing the target parameter value and down switch 50 for decreasing the parameter value
3 are displayed. Thereby, the cursor 5
The user can select how to change the parameter value depending on which switch 01 is moved to.

【0034】他方の図5(b)に示すメインメニュー画
面においては、トーン(TONE)、リズム(RHYT
HM)、シンセサイザ(SYNTH)、テンポ(TEM
PO)の各項目のパラメータを選択するための計4つの
アイコンが表示されている。このため、カーソル501
をどのアイコン上に移動させるかによって、ユーザは設
定を変更するパラメータを任意に選択することができ
る。なお、特に詳細な説明は省略するが、シンセサイザ
は、詳細な発音条件を設定するための項目であり、エン
ベロープレベルは、その項目で設定される一つのパラメ
ータである。
On the other hand, in the main menu screen shown in FIG. 5B, a tone (TONE) and a rhythm (RHYT) are displayed.
HM), synthesizer (SYNTH), tempo (TEM
A total of four icons for selecting parameters of each item of PO) are displayed. Therefore, the cursor 501
The user can arbitrarily select a parameter whose setting is to be changed depending on which icon is moved on which icon. Although a detailed description is omitted, the synthesizer is an item for setting detailed sounding conditions, and the envelope level is one parameter set in the item.

【0035】第1の実施の形態では、カーソル501の
表示位置を、位置センサで検出した外部入力装置100
の位置に応じて変更するようにしている。画面上の表示
位置は、画面の左上隅を基準にして管理している。図5
(a)中のcur_x、cur_yは、カーソル501
の表示位置をxy平面として管理するための変数(制御
データ)である。その変数の値を、外部入力装置100
を検出した位置に応じて、より具体的には、例えば位置
センサ発光部103からの光を受光した位置センサ受光
部204に応じて変数cur_xの値を変更し、その位
置センサ受光部204が受光した光の強度に応じて変数
cur_yの値を変更している。これにより、ユーザ
は、外部入力装置100(ユーザの頭)の位置を、設定
したい内容に応じて変化(例えば姿勢を変える)させる
ことにより、手を使うことなく、カーソル501を任意
に移動させることができ、変更を望むパラメータの選択
を行うことができる。
In the first embodiment, the external input device 100 detects the display position of the cursor 501 with a position sensor.
It changes according to the position of. The display position on the screen is managed based on the upper left corner of the screen. FIG.
Cur_x and cur_y in FIG.
Is a variable (control data) for managing the display position as an xy plane. The value of the variable is input to the external input device 100
More specifically, the value of the variable cur_x is changed according to the position sensor light receiving unit 204 that has received the light from the position sensor light emitting unit 103, and the position sensor light receiving unit 204 The value of the variable cur_y is changed according to the intensity of the light. Thus, the user can arbitrarily move the cursor 501 without using hands by changing the position of the external input device 100 (the user's head) according to the content to be set (for example, changing the posture). The user can select a parameter to be changed.

【0036】なお、これらは、マイコン301が、位置
センサ発光部103を駆動し、それによって各位置セン
サ受光部204から出力される受光信号値を解析し、そ
の解析結果に従って新たに決定したカーソル501の座
標データ(変数cur_x、及びcur_y)をLCD
表示部306に出力することで行われる。
Note that the microcomputer 301 drives the position sensor light emitting unit 103, thereby analyzing the light receiving signal values output from each position sensor light receiving unit 204, and newly determining the cursor 501 according to the analysis result. Coordinate data (variables cur_x and cur_y)
This is performed by outputting to the display unit 306.

【0037】第1の実施の形態では、上述したようにし
てカーソル501をアイコン、アップスイッチ502、
或いはダウンスイッチ503上に移動させた後、ユーザ
がある程度強く噛むと、カーソル501によって指定さ
れたアイコン、或いはスイッチに割り当てた機能の処理
を行うようにしている。具体的には、例えば図5(b)
に示すメインメニュー画面上でカーソル501をテンポ
アイコン上に移動させた状態で強く噛んだ場合(テンポ
アイコンを操作した場合)には、図5(d)に示すテン
ポ設定画面を新たに表示させる。図5(a)に示すエン
ベロープ設定画面上でカーソル501をアップスイッチ
502上に移動させた状態でそれを行った場合には、エ
ンベロープレベルの値を1ずつ上昇させる。このため、
ユーザは、手を使うことなく、変更を望むパラメータを
選択したり、そのパラメータの値を実際に変更すること
ができる。
In the first embodiment, the cursor 501 is moved to the icon, the up switch 502,
Alternatively, if the user bites strongly to some extent after moving on the down switch 503, processing of the icon designated by the cursor 501 or the function assigned to the switch is performed. Specifically, for example, FIG.
When the cursor 501 is moved over the tempo icon on the main menu screen shown in FIG. 5 and the user bites strongly (when the tempo icon is operated), a tempo setting screen shown in FIG. 5D is newly displayed. When the cursor 501 is moved on the up switch 502 on the envelope setting screen shown in FIG. 5A and the operation is performed, the value of the envelope level is increased by one. For this reason,
The user can select a parameter desired to be changed or actually change the value of the parameter without using a hand.

【0038】なお、これらは、マイコン301が、アン
ブシャセンサ105から出力された検出信号値を解析し
て、ユーザが基準とする強さよりも強く噛んでいるか否
か判定し、その判定結果に従って、パラメータ等の値の
変更を行うとともに、変更後のパラメータの値等を表示
するための画像データをプログラムROM302から読
み出して、その画像データを座標データと合わせてLC
D表示部306に出力することで実現される。
The microcomputer 301 analyzes the detection signal value output from the embouchure sensor 105 to determine whether or not the user is biting more than the reference strength. And the like, and reads image data for displaying the changed parameter values and the like from the program ROM 302, and combines the image data with the coordinate data to obtain the LC data.
This is realized by outputting to the D display unit 306.

【0039】図6は、上記した動作を実現するためにワ
ークRAM303に格納される制御データ(変数)例を
示す図である。この図6に示す制御データ例は、上記の
動作を実現するための主要な制御データを抜粋して示し
たものである。マイコン301は、ユーザが外部入力装
置100に対して行った操作に応じて、随時ワークRA
M303に格納した制御データを変更しながら、LCD
203の画面表示、パラメータ値の変更等を行う。
FIG. 6 is a diagram showing an example of control data (variables) stored in the work RAM 303 to realize the above-described operation. The control data example shown in FIG. 6 is an extract of main control data for realizing the above operation. The microcomputer 301 operates the work RA at any time in accordance with an operation performed on the external input device 100 by the user.
While changing the control data stored in M303, the LCD
The screen 203 is displayed, the parameter value is changed, and the like.

【0040】以上が、第1の実施の形態において本発明
に特に関わる部分の動作である。次に、図7〜図18に
示す各種動作フローチャートを参照して、マイコン30
1の動作について詳細に説明する。なお、これら各種の
動作フローチャートは、マイコン301が、プログラム
ROM302に格納されているプログラムを読み出して
実行することにより実現されるものである。
The above is the operation of the part particularly related to the present invention in the first embodiment. Next, referring to various operation flowcharts shown in FIGS.
The operation 1 will be described in detail. Note that these various operation flowcharts are realized by the microcomputer 301 reading and executing a program stored in the program ROM 302.

【0041】図7は、全体処理の動作フローチャートで
ある。始めに、図7を参照して、全体処理について詳細
に説明する。電子楽器201の電源がオンされると、マ
イコン301は、音源LSI308等のイニシャライズ
を行った後、ステップ701に移行する。そのステップ
701では、スイッチ群307の操作状態、及び各種の
スイッチに対して行われた操作を検出し、その検出結果
に基づいて各種の設定等を行うスイッチ処理を実行す
る。このスイッチ処理の実行により、ユーザはスイッチ
群307に対する操作を介して各種モードや音色、テン
ポ、自動演奏させる曲等を設定することができる。ま
た、特に詳細な説明は省略するが、LCD203に表示
される画面、或いはその内容を変化させることができ
る。
FIG. 7 is an operation flowchart of the whole process. First, the overall processing will be described in detail with reference to FIG. When the power of the electronic musical instrument 201 is turned on, the microcomputer 301 proceeds to step 701 after initializing the sound source LSI 308 and the like. In step 701, the operation state of the switch group 307 and operations performed on various switches are detected, and a switch process for performing various settings and the like is performed based on the detection results. By executing the switch processing, the user can set various modes, timbres, tempos, songs to be automatically played, and the like, by operating the switch group 307. Although a detailed description is omitted, a screen displayed on the LCD 203 or the content thereof can be changed.

【0042】ステップ701に続くステップ702で
は、鍵盤202に対して行われた操作を検出し、その検
出結果に基づいて音源LSI308に送出する制御コマ
ンドを生成する鍵盤処理を実行する。その後、ステップ
703に移行する。
In step 702 following step 701, keyboard processing for detecting an operation performed on the keyboard 202 and generating a control command to be transmitted to the tone generator LSI 308 based on the detection result is executed. Thereafter, the process proceeds to step 703.

【0043】ステップ703では、ステップ701、或
いは/及び、702で生成した制御コマンドを音源LS
I308に出力することにより、楽音の発音制御を行う
とともに、LCD表示部306に画像データ等を送出す
ることでLCD203に表示させる画面の変更等を行
う。それが終了した後、ステップ701に戻る。
In step 703, the control command generated in step 701 and / or 702 is transmitted to the sound source LS
Output to I308 controls tone generation of musical tones, and changes the screen to be displayed on LCD 203 by transmitting image data and the like to LCD display unit 306. After that, the process returns to step 701.

【0044】このように、ステップ701〜703で形
成される処理ループが繰り返し実行される。これによ
り、ユーザが指定した曲の自動演奏や、所望する楽音が
所望の音色で発音されることになる。
As described above, the processing loop formed in steps 701 to 703 is repeatedly executed. As a result, the automatic performance of the music specified by the user and the desired musical tone are produced in a desired tone.

【0045】第1の実施の形態では、上述したように、
外部入力装置100に対して行ったユーザの操作を所定
の時間間隔毎に検出し、その検出結果に応じた制御を行
うようにしている。
In the first embodiment, as described above,
A user operation performed on the external input device 100 is detected at predetermined time intervals, and control according to the detection result is performed.

【0046】図8は、外部入力装置100に対して行わ
れた操作、及びその操作に応じた制御を実現するための
タイマインタラプト処理の動作フローチャートである。
このインタラプト処理は、マイコン301が内部に備え
ている計時機構から所定の時間間隔毎に発生する割り込
み信号により実行される処理である。次に、図8を参照
して、このインタラプト処理について詳細に説明する。
FIG. 8 is an operation flowchart of the operation performed on the external input device 100 and the timer interrupt processing for realizing control according to the operation.
This interrupt process is a process executed by an interrupt signal generated at predetermined time intervals from a clock mechanism provided in the microcomputer 301. Next, this interrupt processing will be described in detail with reference to FIG.

【0047】外部入力装置100は、その位置、本体1
01の先端を噛んだ強さ(噛みしめ量)、及び息の強さ
を情報として入力する装置である。ステップ801〜8
03では、それらの情報の入力が行われる。
The external input device 100 has its position,
This is a device for inputting, as information, the strength of biting the tip of 01 (clinching amount) and the strength of breath. Steps 801-8
At 03, such information is input.

【0048】先ず、ステップ801では、位置センサ
(位置センサ発光部103と位置センサ受光部204と
から構成されている)による検出結果を取り込む位置セ
ンサ処理を実行する。続くステップ802、803で
は、アンブシャセンサ105による検出結果、ブレスセ
ンサ304による検出結果を取り込む処理がそれぞれ行
われる。
First, in step 801, a position sensor process for taking in a detection result by a position sensor (consisting of the position sensor light emitting unit 103 and the position sensor light receiving unit 204) is executed. In the following steps 802 and 803, processing for capturing the detection result by the embouchure sensor 105 and the detection result by the breath sensor 304 is performed.

【0049】ステップ803に続くステップ804、8
05では、各センサの検出結果に基づく処理が行われ
る。先ず、ステップ804では、各センサの検出結果に
基づいて音源LSI308を制御する音源制御処理を実
行する。続くステップ805では、各センサの検出結果
に基づいてパラメータの値を変更したり、LCD203
に表示する画面を切り換えたりする操作入力処理を実行
する。それが終了した後、一連の処理を終了する。
Steps 804 and 8 following step 803
In 05, processing based on the detection results of each sensor is performed. First, in step 804, a sound source control process for controlling the sound source LSI 308 based on the detection result of each sensor is executed. In the subsequent step 805, the value of the parameter is changed based on the detection result of each sensor,
The user performs an operation input process of switching a screen to be displayed on the screen. After the end, a series of processing ends.

【0050】上記したタイマインタラプト処理を所定の
時間間隔毎に実行することにより、ユーザは手を使うこ
となく、様々なパラメータを任意に変更することがで
き、幅広い音楽表現を容易に行うことが可能となる。
By executing the above-described timer interrupt processing at predetermined time intervals, the user can arbitrarily change various parameters without using a hand, and can easily perform a wide range of musical expressions. Becomes

【0051】図9〜図18は、上記タイマインタラプト
処理内で実行される各種サブルーチン処理の動作フロー
チャートである。次に、これらの図を参照して、タイマ
インタラプト処理内で実行される各種サブルーチン処理
について詳細に説明する。
FIGS. 9 to 18 are operation flowcharts of various subroutine processes executed in the timer interrupt process. Next, various subroutine processes executed in the timer interrupt process will be described in detail with reference to these drawings.

【0052】図9は、タイマインタラプト処理内でステ
ップ801として実行される位置センサ処理の動作フロ
ーチャートである。始めに、図9を参照して、そのサブ
ルーチン処理について詳細に説明する。
FIG. 9 is an operational flowchart of the position sensor processing executed as step 801 in the timer interrupt processing. First, the subroutine processing will be described in detail with reference to FIG.

【0053】この位置センサ処理では、位置センサの検
出結果として、各位置センサ受光部204a〜204c
の出力を順次取り込み、その値を図6に示す変数(制御
データ)dist_n(nは1〜3の整数)に代入(格
納)することが行われる。なお、これらの変数dist
_nに対する説明中の受光センサ1〜3は、それぞれ、
位置センサ受光部204a〜204cにそれぞれ対応す
る。
In this position sensor processing, the position sensor light receiving sections 204a to 204c
Are sequentially taken in, and their values are assigned (stored) to variables (control data) dist_n (n is an integer of 1 to 3) shown in FIG. Note that these variables dist
_N are described as follows.
They correspond to the position sensor light receiving units 204a to 204c, respectively.

【0054】先ず、ステップ901では、位置センサ発
光部103を駆動して発光させる処理を実行する。これ
は、例えばマイコン301が、位置センサ発光部103
に対して所定の電圧を印加することで行われる。それが
終了すると、ステップ902で変数nに1を代入した
後、ステップ903に移行する。
First, in step 901, a process of driving the position sensor light emitting section 103 to emit light is executed. This is because, for example, the microcomputer 301
By applying a predetermined voltage. When the process is completed, 1 is substituted for the variable n in step 902, and the process proceeds to step 903.

【0055】ステップ903〜906では、変数nの値
をインクリメントしながら、その変数nの値によって指
定される変数dist_nに、位置センサ発光部103
と変数nの値で指定される受光部204との距離を格納
することが行われる。
In steps 903 to 906, the position sensor light emitting unit 103 is added to the variable dist_n specified by the value of the variable n while incrementing the value of the variable n.
The distance between the light receiving unit 204 and the distance specified by the value of the variable n is stored.

【0056】先ず、ステップ903では、変数nの値に
よって指定される位置センサ受光部204の出力を所定
期間だけ取り込む受光処理を実行する。それに続くステ
ップ904では、その出力を平滑化するとともに、その
平滑化した出力値を解析して、発光部103との距離を
特定する平滑化処理を実行する。その後、ステップ90
5に移行する。
First, at step 903, a light receiving process for taking in the output of the position sensor light receiving unit 204 specified by the value of the variable n for a predetermined period is executed. In the subsequent step 904, the output is smoothed, the smoothed output value is analyzed, and a smoothing process for specifying the distance to the light emitting unit 103 is performed. Then, step 90
Move to 5.

【0057】ステップ905では、上記ステップ904
で特定した距離(或いはそれを表す値)を変数dist
_nに格納する。続くステップ906では、変数nの値
をインクリメントするとともに、インクリメント後の変
数nの値が位置センサ受光部204の個数よりも大きい
か否か判定する。
In step 905, step 904 is performed.
The distance specified by (or a value representing the distance) is a variable dist
_N. In the following step 906, the value of the variable n is incremented, and it is determined whether or not the value of the variable n after the increment is larger than the number of the position sensor light receiving units 204.

【0058】例えば図2に示すように、第1の実施の形
態では計3つの受光部204を設けている。このため、
変数nの値が4以上となった場合、その判定はYESと
なって一連の処理を終了する。そうでない場合には、そ
の判定はNOとなってステップ903に戻る。
For example, as shown in FIG. 2, a total of three light receiving sections 204 are provided in the first embodiment. For this reason,
When the value of the variable n is 4 or more, the determination is YES, and the series of processing ends. Otherwise, the determination is no and the process returns to step 903.

【0059】このようにして距離の値が代入された変数
dist_nは、上述したように、音色の切り替えや、
フィルターの変更、更にはLCD203に表示されたカ
ーソル501の表示位置の特定等に用いられる。
As described above, the variable dist_n to which the value of the distance is substituted is used for switching the timbre,
The filter is used for changing the filter, and for specifying the display position of the cursor 501 displayed on the LCD 203.

【0060】図10は、図8に示すタイマインタラプト
処理内でステップ802として実行されるアンブシャセ
ンサ処理の動作フローチャートである。次に、図10を
参照して、アンブシャセンサ処理について詳細に説明す
る。
FIG. 10 is an operation flowchart of the embouchure sensor process executed as step 802 in the timer interrupt process shown in FIG. Next, the embouchure sensor processing will be described in detail with reference to FIG.

【0061】上記したように、ブレスセンサ304、及
びアンブシャセンサ105の各出力値は外部入力装置1
00から、ケーブル、端子、及びインターフェイスを介
してマイコン301に入力される。インターフェイスに
よって、その出力値はデジタル値に変換されてマイコン
301に送られる。このアンブシャセンサ処理では、ア
ンブシャセンサ105が検出した噛みしめ(アンブシ
ャ)量に相当するデジタル値を取り込み、図6に示す変
数old_amb_reg、amb_regの値を更新
することが行われる。
As described above, the output values of the breath sensor 304 and the embouchure sensor 105 are
00 is input to the microcomputer 301 via a cable, a terminal, and an interface. The output value is converted into a digital value by the interface and sent to the microcomputer 301. In this ambusha sensor processing, a digital value corresponding to the amount of bite (ambusha) detected by the ambusha sensor 105 is taken in, and the values of the variables old_amb_reg and amb_reg shown in FIG. 6 are updated.

【0062】先ず、ステップ1001では、インターフ
ェイスから送られたデジタル値(噛みしめ量)の取り込
みを所定期間行う。続くステップ1002では、その取
り込んだデジタル値を平滑化する。その後、ステップ1
003に移行する。
First, in step 1001, a digital value (biting amount) sent from the interface is taken in for a predetermined period. In the following step 1002, the captured digital value is smoothed. Then step 1
Shift to 003.

【0063】ステップ1003では、変数変数old_
amb_regに変数amb_regの値を代入(格
納)するとともに、ステップ1002で平滑化したデジ
タル値を変数amb_regに代入(格納)することに
より、これら変数の値の更新を行う。それが終了した
後、一連の処理を終了する。
In step 1003, the variable variable old_
The values of these variables are updated by substituting (storing) the value of the variable amb_reg for amb_reg and substituting (storing) the digital value smoothed in step 1002 for the variable amb_reg. After the end, a series of processing ends.

【0064】このようにして前回、今回の噛みしめ(ア
ンブシャ)量が代入された変数old_amb_re
g、amb_regは、上述したように、音程の変更
(ピッチベンド量の変更)や、音色の切り替え、LCD
203に表示されているアイコンやスイッチに対する操
作に用いられる。
In this way, the variable old_amb_re to which the previous amount of clenching (ambusha) is substituted
g and amb_reg are, as described above, the change of the pitch (change of the pitch bend amount), the change of the tone color, and the LCD.
It is used for operations on icons and switches displayed on the display 203.

【0065】図11は、図8に示すタイマインタラプト
処理内でステップ803として実行されるブレスセンサ
処理の動作フローチャートである。次に、図11を参照
して、ブレスセンサ処理について詳細に説明する。
FIG. 11 is an operation flowchart of the breath sensor processing executed as step 803 in the timer interrupt processing shown in FIG. Next, the breath sensor process will be described in detail with reference to FIG.

【0066】このブレスセンサ処理では、上述したアン
ブシャセンサ処理と同様に、ブレスセンサ304が検出
した息の吹き込み(ブレス)量に相当するデジタル値を
取り込み、図6に示す変数old_breath_re
g、breath_regの値を更新することが行われ
る。
In the breath sensor process, similarly to the above-described ambusha sensor process, a digital value corresponding to the amount of breathing (breath) detected by the breath sensor 304 is fetched, and a variable old_breath_re shown in FIG.
Updating the value of g, breath_reg is performed.

【0067】先ず、ステップ1101では、インターフ
ェイスから送られたデジタル値(息の吹き込み量)の取
り込みを所定期間行う。続くステップ1102では、そ
の取り込んだデジタル値を平滑化する。その後、ステッ
プ1103に移行する。
First, in step 1101, the digital value (the amount of breathing) sent from the interface is taken in for a predetermined period. In the following step 1102, the taken digital value is smoothed. Thereafter, the process proceeds to step 1103.

【0068】ステップ1103では、変数変数old_
breath_regに変数breath_regの値
を代入(格納)するとともに、ステップ1102で平滑
化したデジタル値を変数breath_regに代入
(格納)することにより、これら変数の値の更新を行
う。それが終了した後、一連の処理を終了する。
In step 1103, the variable variable old_
The values of these variables are updated by substituting (storing) the value of the variable “breath_reg” into “breath_reg” and substituting (storing) the digital value smoothed in step 1102 into the variable “breath_reg”. After the end, a series of processing ends.

【0069】このようにして前回、今回の吹き込み(ブ
レス)量が代入された変数old_breath_re
g、breath_regは、上述したように、音量の
変更や、ビブラートの深さ(デプス値)の変更に用いら
れる。
As described above, the variable old_breath_re to which the blowing amount (breath) of the last time is substituted.
As described above, g and breath_reg are used for changing the sound volume and changing the vibrato depth (depth value).

【0070】図12は、図8に示すタイマインタラプト
処理内でステップ804として実行される音源制御処理
の動作フローチャートである。次に、図12を参照し
て、音源制御処理について詳細に説明する。
FIG. 12 is an operation flowchart of the sound source control processing executed as step 804 in the timer interrupt processing shown in FIG. Next, the sound source control processing will be described in detail with reference to FIG.

【0071】この音源制御処理では、各種センサの検出
結果が格納された上記各変数を用いて、音源LSI30
8の制御が行われる。この処理が実行されることによ
り、ユーザが行った外部入力装置100に対する操作に
応じて、楽音が異なった発音条件で発音されることにな
る。
In this sound source control process, the sound source LSI 30 is used by using the above-described variables storing the detection results of various sensors.
8 is performed. By executing this processing, the musical tone is generated under different sound generation conditions in accordance with the operation performed on the external input device 100 by the user.

【0072】先ず、ステップ1201では、位置センサ
の検出結果が代入されている変数dist_nを基に、
フィルターパラメータの値を決定する。続くステップ1
202では、その決定したパラメータの値を音源LSI
308に出力して、発音される楽音の明度感を変化させ
る制御を実行する。その後、ステップ1203に移行す
る。
First, in step 1201, based on the variable dist_n into which the detection result of the position sensor is substituted,
Determine the value of the filter parameter. Next step 1
At 202, the determined parameter values are stored in the sound source LSI
308 to execute control for changing the sense of brightness of the musical tone to be generated. After that, the processing moves to step 1203.

【0073】なお、上記パラメータの値の決定は、例え
ば外部入力装置100との距離とフィルターパラメータ
値の対応関係を定義するテーブルを用意しておき、その
テーブルを参照することで行うことができる。そのテー
ブルを、距離が小さいほど高域成分を強調するように定
義しておいた場合、ユーザは、楽器(鍵盤202)に近
づくだけで楽音(音色)を明るくすることができること
になる。
The parameter values can be determined by, for example, preparing a table defining the correspondence between the distance from the external input device 100 and the filter parameter value, and referring to the table. If the table is defined such that the shorter the distance, the higher the frequency component is emphasized, the user can brighten the tone (tone) just by approaching the musical instrument (keyboard 202).

【0074】ステップ1203では、変数amb_re
gの値(噛みしめ量)を基に、ピッチベンド(音程のシ
フト)量を決定する。続くステップ1204では、その
決定したピッチベンド量を音源LSI308に出力し
て、楽音の音程を変化させる制御を実行する。その後、
ステップ1205に移行する。
In step 1203, the variable amb_re
A pitch bend (pitch shift) amount is determined based on the value of g (bite amount). In the subsequent step 1204, the determined pitch bend amount is output to the tone generator LSI 308, and control for changing the pitch of the musical tone is executed. afterwards,
Move to step 1205.

【0075】なお、上記ピッチベンド量の決定は、例え
ば噛みしめ量とピッチベンド量の対応関係を定義したテ
ーブルを用意し、そのテーブルを参照することで行うこ
とができる。そのテーブルを、噛みしめ量が大きい程シ
フト量も大きくなるように定義しておいた場合、ユーザ
は、噛みしめる強さを変化させるだけで、楽音の音程を
任意に変化させることができる。
The pitch bend amount can be determined, for example, by preparing a table defining the correspondence between the bite amount and the pitch bend amount and referring to the table. If the table is defined so that the shift amount increases as the biting amount increases, the user can arbitrarily change the pitch of the musical sound only by changing the biting strength.

【0076】ステップ1205では、変数breath
_regの値(吹き込み量)を基に、音量値を決定す
る。続くステップ1206では、その決定した音量値を
付加した制御コマンドを音源LSI308に出力して、
楽音の音量を変化させる制御を実行する。その後、ステ
ップ1207に移行する。
At step 1205, the variable breath
The sound volume value is determined based on the value of _reg (blowing amount). In the following step 1206, a control command to which the determined volume value is added is output to the sound source LSI 308,
The control for changing the volume of the musical sound is executed. Thereafter, the process proceeds to step 1207.

【0077】なお、上記音量値の決定は、例えば吹き込
み量と音量値の対応関係を定義したテーブルを用意し、
そのテーブルを参照することで行うことができる。その
テーブルを、吹き込み量が大きい程音量値を大きくなる
ように定義しておいた場合、ユーザは、息を吐く強さを
変化させるだけで、楽音の音量を変化させることができ
る。
The sound volume value is determined, for example, by preparing a table defining the correspondence between the blowing amount and the sound volume value.
This can be done by referring to the table. If the table is defined such that the volume value increases as the blowing amount increases, the user can change the volume of the musical sound only by changing the intensity of exhalation.

【0078】ステップ1207では、変数breath
_regの値(吹き込み量)を基に、ビブラートの深さ
(ビブラートデプス値)を決定する。続くステップ12
08では、その決定した深さを制御コマンドに付加して
音源LSI308に出力して、ビブラートの内容を変化
させる制御を実行する。その後、一連の処理を終了す
る。
In step 1207, the variable breath
The vibrato depth (vibrato depth value) is determined based on the value of _reg (blowing amount). Next step 12
In step 08, the determined depth is added to the control command and output to the sound source LSI 308 to execute control for changing the content of vibrato. Thereafter, a series of processing ends.

【0079】なお、上記ビブラートの深さの決定は、例
えば吹き込み量とビブラートの深さの対応関係を定義し
たテーブルを用意し、そのテーブルを参照することで行
うことができる。そのテーブルを、吹き込み量が大きい
程深さが深くなるように定義しておいた場合、ユーザ
は、息を吐く強さを変化させるだけで、ビブラートの内
容を変化させることができる。
The determination of the vibrato depth can be performed, for example, by preparing a table defining the correspondence between the blowing amount and the vibrato depth, and referring to the table. If the table is defined so that the depth increases as the blowing amount increases, the user can change the content of the vibrato simply by changing the strength of exhalation.

【0080】このようにして、各種センサの検出結果に
応じた各種発音条件(パラメータの値)の変更が行われ
る。これにより、ユーザは外部入力装置100を操作、
即ち外部入力装置100の位置を変更したり、息を吐く
強さや噛む強さを変更したりするだけで変化にとんだ演
奏を行うことができる。
In this manner, various tone generation conditions (parameter values) are changed according to the detection results of various sensors. Thereby, the user operates the external input device 100,
That is, it is possible to perform a varied performance only by changing the position of the external input device 100 or changing the strength of exhaling or biting.

【0081】なお、第1の実施の形態では、外部入力装
置100の位置に応じてフィルターパラメータの値を、
噛みしめ量に応じてピッチベンド量を、また、吹き込み
量に応じて音量、及びビブラートの深さをそれぞれ変化
させているが、これに限定するものではない。各センサ
の検出結果とそれに応じて変化させるパラメータとの対
応関係は任意に設定して良い。それをユーザが必要に応
じて随時設定できるようにしても良い。センサの検出結
果に応じたパラメータの値の変更についてもユーザが任
意に設定できるようにしても良い。
In the first embodiment, the value of the filter parameter is changed according to the position of the external input device 100.
Although the pitch bend amount is changed according to the amount of biting, and the volume and the depth of vibrato are changed according to the blowing amount, the present invention is not limited to this. The correspondence between the detection result of each sensor and the parameter changed according to the result may be set arbitrarily. The user may be able to set it as needed. The user may arbitrarily set the change of the parameter value according to the detection result of the sensor.

【0082】図8に示すタイマインタラプト処理内でス
テップ805として実行される操作入力処理では、3つ
のサブルーチン処理が実行される。図13〜図15は、
それらサブルーチン処理の動作フローチャートである。
次に、図13〜図15を参照して、各サブルーチン処理
について説明する。
In the operation input process executed as step 805 in the timer interrupt process shown in FIG. 8, three subroutine processes are executed. FIG. 13 to FIG.
It is an operation flowchart of these subroutine processes.
Next, each subroutine process will be described with reference to FIGS.

【0083】図13は、操作入力1処理の動作フローチ
ャートである。この操作入力1処理は、上述したよう
に、外部入力装置100の位置、及び噛みしめた強さに
基づいて音色(番号)を変更する処理である。この操作
入力1処理では、ステップ1301でそれを実現するた
めの音色番号の変更処理を実行して、一連の処理を終了
する。
FIG. 13 is an operation flowchart of the operation input 1 process. As described above, the operation input 1 process is a process of changing the timbre (number) based on the position of the external input device 100 and the biting strength. In this operation input 1 processing, a tone color number change processing for realizing the operation is executed in step 1301, and a series of processing ends.

【0084】図14は、操作入力2処理の動作フローチ
ャートである。この操作入力2処理は、上述したよう
に、LCD203に表示されたアップスイッチ502、
ダウンスイッチ503に対する操作に応じて、対象とし
ているパラメータの値を変更する処理である。そのパラ
メータ値の変更は、外部入力装置100の位置と噛みし
めた強さに基づいて行われる。この操作入力2処理で
は、ステップ1401でそれを実現するためのパラメー
タUP/DOWN処理を実行して、一連の処理を終了す
る。
FIG. 14 is an operation flowchart of the operation input 2 process. This operation input 2 processing is performed by the up switch 502 displayed on the LCD 203,
This is a process of changing the value of a target parameter according to an operation on the down switch 503. The change of the parameter value is performed based on the position of the external input device 100 and the biting strength. In the operation input 2 process, a parameter UP / DOWN process for realizing the process is executed in step 1401, and a series of processes ends.

【0085】図15は、操作入力3処理の動作フローチ
ャートである。この操作入力3処理は、上述したよう
に、LCD203に表示されたアイコン(図5(b)参
照)に対する操作に応じて、変更の対象となる項目を設
定する処理である。その項目の設定は、外部入力装置1
00の位置と噛みしめた強さに基づいて行われる。この
操作入力3処理では、ステップ1501でそれを実現す
るための機能アイコンのSW処理を実行して、一連の処
理を終了する。
FIG. 15 is an operation flowchart of the operation input 3 process. As described above, the operation input 3 process is a process of setting an item to be changed in accordance with an operation on an icon (see FIG. 5B) displayed on the LCD 203. The setting of the item is performed by the external input device 1
This is performed based on the position of 00 and the biting strength. In this operation input 3 processing, in step 1501, a function icon SW processing for realizing the operation is executed, and a series of processing ends.

【0086】図16〜図18は、上記操作入力1〜3処
理内で実行される各種のサブルーチン処理の動作フロー
チャートである。引き続いて、上述した各サブルーチン
処理について詳細に説明する。
FIGS. 16 to 18 are operation flowcharts of various subroutine processes executed in the above-described operation input 1 to 3 processes. Subsequently, each of the above-described subroutine processes will be described in detail.

【0087】図16は、図13に示す操作入力1処理内
でステップ1301として実行される音色番号の変更処
理の動作フローチャートである。次に、図16を参照し
て、音色番号の変更処理について詳細に説明する。
FIG. 16 is an operation flowchart of the tone number changing process executed as step 1301 in the operation input 1 process shown in FIG. Next, the process of changing the tone color number will be described in detail with reference to FIG.

【0088】各位置センサ受光部204a〜204cが
外部入力装置100を検出する空間領域は異なる。第1
の実施の形態では、図6に示すTone_arean
(nは1〜3の整数)に、各空間領域(位置センサ受光
部204)毎に割り当てた音色番号を格納し、音色番号
の変更を、変数Tone_areanに従って行ってい
る。
The spatial regions in which the position sensor light receiving sections 204a to 204c detect the external input device 100 are different. First
In the embodiment, Tone_area shown in FIG.
(N is an integer of 1 to 3) stores a tone color number assigned to each spatial area (position sensor light receiving unit 204), and changes the tone color number according to the variable Tone_area.

【0089】先ず、ステップ1601では、変数old
_amb_regの値が予め定めた閾値未満で、且つ変
数amb_regの値が閾値以上か否か判定する。ユー
ザが噛みしめる強さを増していった場合、音色の変更を
意図しているとして判定がYESとなり、ステップ16
02に移行する。そうでない場合には、即ちユーザが音
色の変更を意図していないと考えられる場合には、その
判定はNOとなって一連の処理を終了する。
First, in step 1601, the variable old
It is determined whether the value of _amb_reg is less than a predetermined threshold and the value of the variable amb_reg is greater than or equal to the threshold. If the user increases the biting strength, it is determined that the user intends to change the timbre, and the determination is YES.
Move to 02. If not, that is, if it is considered that the user does not intend to change the timbre, the determination is NO and the series of processing ends.

【0090】ステップ1602〜1607では、位置セ
ンサ発光部103から発した光を最も強く受光した位置
センサ受光部204を特定しての音色の変更が行われ
る。先ず、ステップ1602では、変数dist_1の
値(距離)は予め定めた所定値以下か否か判定する。ユ
ーザが外部入力装置100を位置センサ受光部204a
にある程度(例えば、他の位置センサ受光部204b、
204cよりも近いことが明らかな程度)以上近づけて
いた場合、その判定はYESとなってステップ1603
に移行する。そうでない場合には、その判定はNOとな
ってステップ1604に移行する。
In steps 1602 to 1607, the tone color is changed by specifying the position sensor light receiving section 204 which has most strongly received the light emitted from the position sensor light emitting section 103. First, in step 1602, it is determined whether the value (distance) of the variable dist_1 is equal to or less than a predetermined value. The user sets the external input device 100 to the position sensor light receiving unit 204a.
To some extent (for example, other position sensor light-receiving units 204b,
If the distances are closer to each other, it is determined to be YES and step 1603 is determined.
Move to Otherwise, the determination is no and the process moves to step 1604.

【0091】ステップ1603では、変数Tone_a
rea1で指定された番号の音色に変更する。それが終
了した後、一連の処理を終了する。なお、音色の変更
は、マイコン301が、音源LSI308に、変数To
ne_area1の値を付けた音色の切り替えを要求す
る制御コマンドを送出することで実現される。
In step 1603, the variable Tone_a
The tone number is changed to the tone number specified by “rea1”. After the end, a series of processing ends. Note that the tone is changed by the microcomputer 301 by the variable To
This is realized by transmitting a control command requesting switching of the tone color with the value of ne_area1.

【0092】ステップ1604では、変数dist_2
の値(距離)は上記所定値以下か否か判定する。ユーザ
が外部入力装置100を位置センサ受光部204bにあ
る程度以上近づけていた場合、その判定はYESとなっ
てステップ1605に移行する。そうでない場合には、
その判定はNOとなってステップ1606に移行する。
ステップ1605では、変数Tone_area2で指
定された番号の音色に変更し、それが終了した後、一連
の処理を終了する。
In step 1604, the variable dist_2
It is determined whether or not the value (distance) is equal to or less than the predetermined value. If the user has brought the external input device 100 closer to the position sensor light receiving unit 204b to some extent or more, the determination is YES and the process moves to step 1605. If not,
The determination is no and the process moves to step 1606.
In step 1605, the tone is changed to the tone specified by the variable Tone_area2, and after the tone is ended, a series of processing ends.

【0093】ステップ1606では、変数dist_3
の値(距離)は上記所定値以下か否か判定する。ユーザ
が外部入力装置100を位置センサ受光部204cにあ
る程度以上近づけていた場合、その判定はYESとなっ
てステップ1607に移行する。そうでない場合には、
その判定はNOとなって一連の処理を終了する。ステッ
プ1605に移行した場合には、変数Tone_are
a23指定された番号の音色に変更し、それが終了した
後に一連の処理を終了する。
In step 1606, the variable dist_3
It is determined whether or not the value (distance) is equal to or less than the predetermined value. If the user has brought the external input device 100 closer to the position sensor light receiving unit 204c to some extent or more, the determination is YES and the process proceeds to step 1607. If not,
The determination is NO and the series of processing ends. If the process proceeds to step 1605, the variable Tone_are
a23 Changes the tone color to the designated number, and after that, ends a series of processes.

【0094】上記のように、第1の実施の形態では、ユ
ーザが本体101の先端部分を強く噛みしめても、外部
入力装置100が位置センサ受光部204と比較的に離
れている場合、音色の変更を回避している。これは、噛
みしめ量に応じて他のパラメータ(ピッチベンド量)の
値も変更していることから、他のパラメータと独立して
音色の変更を行えるようにするためである。このことか
ら判るように、位置と噛みしめ量といった複数の情報を
基にしたパラメータの値の変更では、それらの情報を組
み合わせることにより、より多くのパラメータの値を独
立して変更することができるようになる。このため、手
を使うことなく、音楽表現の幅を様々に広げることがで
きる。
As described above, in the first embodiment, even if the user strongly bites the tip of the main body 101, if the external input device 100 is relatively far from the position sensor light receiving unit 204, the tone Avoiding changes. This is because the value of another parameter (pitch bend amount) is also changed according to the amount of bite, so that the tone can be changed independently of the other parameters. As can be seen from this, when changing the value of a parameter based on a plurality of pieces of information such as the position and the amount of clenching, it is possible to independently change more parameter values by combining those pieces of information. become. For this reason, the range of musical expression can be expanded in various ways without using hands.

【0095】なお、上記変数Tone_areanに代
入した値は、予め固定的に用意した値であっても良い
が、ユーザが所望の音色に変更できるように、その値を
任意に変更できるようにすることが望ましい。また、各
空間領域(位置センサ受光部204)毎に複数の音色を
割り当て、外部入力装置100の位置に応じて複数の音
色のなかから一つを選択してその音色に変更するように
しても良い。
The value assigned to the variable Tone_area may be a value fixedly prepared in advance, but the value may be arbitrarily changed so that the user can change to a desired tone. Is desirable. Alternatively, a plurality of tones may be assigned to each spatial area (position sensor light receiving unit 204), and one of the tones may be selected from the plurality of tones according to the position of the external input device 100 and changed to that tone. good.

【0096】図17は、図14に示す操作入力2処理内
でステップ1401として実行されるパラメータUP/
DOWN処理の動作フローチャートである。次に、図1
7を参照して、その処理について詳細に説明する。
FIG. 17 shows a parameter UP / UP executed as step 1401 in the operation input 2 processing shown in FIG.
It is an operation flowchart of DOWN processing. Next, FIG.
The process will be described in detail with reference to FIG.

【0097】図6に示すように、ワークRAM303に
は、アップスイッチ502の表示位置を表すデータがU
P_x_min、UP_x_max、UP_y_mi
n、及びUP_y_maxの各変数として格納されてい
る。変数UP_x_minにはアップスイッチ502表
示位置のx座標下限の値、変数UP_x_maxにはそ
の表示位置のx座標上限の値、変数UP_y_minに
はその表示位置のy座標下限の値、変数UP_y_ma
xにはその表示位置のy座標上限の値がそれぞれ格納さ
れている。他方のダウンスイッチ503においても同様
に、それの表示位置を表すデータがDOWN_x_mi
n、DOWN_x_max、DOWN_y_min、及
びDOWN_y_maxの各変数として格納されてい
る。
As shown in FIG. 6, data representing the display position of the up switch 502 is
P_x_min, UP_x_max, UP_y_mi
n and UP_y_max are stored as variables. The variable UP_x_min is the lower limit of the x coordinate of the display position of the up switch 502, the variable UP_x_max is the upper limit of the x coordinate of the display position, the variable UP_y_min is the lower limit of the y coordinate of the display position, the variable UP_y_ma
In x, the value of the y coordinate upper limit of the display position is stored. Similarly, the data indicating the display position of the other down switch 503 is DOWN_x_mi.
n, DOWN_x_max, DOWN_y_min, and DOWN_y_max are stored as variables.

【0098】他方のカーソル501の座標位置は、上記
したように、変数cur_x、cur_yに格納されて
いる。パラメータUP/DOWN処理では、カーソル5
01の表示位置を外部入力装置100を検出した位置に
応じて変更しながら、ユーザが本体101の先端部分を
ある程度強く噛む毎に、そのときにカーソル501が表
示されているスイッチに応じたパラメータの値の変更が
行われる。
The coordinate position of the other cursor 501 is stored in the variables cur_x and cur_y as described above. In the parameter UP / DOWN processing, the cursor 5
Each time the user bites the tip of the main body 101 to a certain extent while changing the display position of 01 according to the position where the external input device 100 is detected, the parameter corresponding to the switch on which the cursor 501 is displayed at that time is displayed. The value changes.

【0099】先ず、ステップ1701では、変数dis
t_nの値を基に、カーソル501の表示位置、即ち変
数cur_x、cur_yの更新を行う。その更新は、
例えばユーザが位置センサ受光部204aと204cの
何れのほうに外部入力装置100を近づけているか否か
により、x座標上の変化量を−1、或いは+1に設定
し、他方のy座標上の変化量については、2つの値が異
なる閾値(ここでは、便宜的に値が小さいほうを下限
値、他方を上限値と呼ぶ)を設定しておき、外部入力装
置100との距離が下限値以下であれば−1、それが上
限値以上であれば1をその変化量として設定し、それら
の変化量を現在の変数cur_x、cur_yの各値に
対応させて加算することにより、カーソル501の表示
位置の更新を行う。
First, at step 1701, the variable dis
Based on the value of t_n, the display position of the cursor 501, that is, the variables cur_x and cur_y are updated. The update
For example, the change amount on the x coordinate is set to −1 or +1 depending on whether the user is bringing the external input device 100 closer to the position sensor light receiving units 204a and 204c, and the change amount on the other y coordinate is Regarding the amount, two different thresholds (here, a smaller value is referred to as a lower limit and the other is referred to as an upper limit for convenience) are set in advance, and the distance from the external input device 100 is equal to or smaller than the lower limit. If the value is equal to or greater than the upper limit value, -1 is set as the change amount, and the change amount is added to correspond to each of the current variables cur_x and cur_y, thereby displaying the display position of the cursor 501. Update.

【0100】カーソル501の表示位置の更新が終了す
ると、ステップ1702に移行する。そのステップ17
02では、更新後のカーソル座標(変数cur_x、c
ur_yの各値)をLCD表示部306に送出して、カ
ーソル501の表示位置の変更を行う。
Upon completion of updating the display position of the cursor 501, the flow shifts to step 1702. Step 17
02, the updated cursor coordinates (variables cur_x, c
(each value of ur_y) is sent to the LCD display unit 306 to change the display position of the cursor 501.

【0101】ステップ1702に続くステップ1703
では、変数amb_regの値が閾値以上か否か判定す
る。ユーザが本体101の先端部分を噛みしめた場合、
その判定はYESとなってステップ1704に移行す
る。そうでない場合には、ユーザはパラメーt値の変更
を意図していないとしてその判定はNOとなり、ここで
一連の処理を終了する。
Step 1703 following step 1702
Then, it is determined whether or not the value of the variable amb_reg is equal to or greater than a threshold. When the user bites the tip of the main body 101,
The determination is YES and the process moves to step 1704. Otherwise, the determination is NO assuming that the user does not intend to change the parameter t value, and the series of processing ends here.

【0102】ステップ1704〜1707では、カーソ
ル501が表示されているスイッチを特定して、そのス
イッチに割り当てられている機能に従ったパラメータ値
の変更が行われる。
In steps 1704 to 1707, the switch on which the cursor 501 is displayed is specified, and the parameter value is changed according to the function assigned to the switch.

【0103】先ず、ステップ1704では、変数cur
_xの値が変数UP_x_minの値より大きく変数U
P_x_maxの値未満で、且つ、変数cur_yの値
が変数UP_y_minの値より大きく変数UP_y_
maxの値未満か否か判定する。カーソル501がアッ
プスイッチ502上に表示されている場合、その判定は
YESとなってステップ1705に移行する。そうでな
い場合には、即ちカーソル501がアップスイッチ50
2上に表示されていない場合には、その判定はNOとな
ってステップ1706に移行する。
First, in step 1704, the variable cur
_X is greater than the value of the variable UP_x_min
The value of the variable cur_y is less than the value of P_x_max and the value of the variable cur_y is greater than the value of the variable UP_y_min.
It is determined whether it is less than the value of max. If the cursor 501 is displayed on the up switch 502, the determination is YES and the process moves to step 1705. Otherwise, that is, the cursor 501 is
If not, the determination is NO and the process moves to step 1706.

【0104】ステップ1705では、ユーザがアップス
イッチ502に対する操作を行ったことから、それに応
じた処理を行う。具体的には、パラメータの値をインク
リメントするとともに、それに合わせて、LCD203
に表示させているパラメータ表示値のインクリメント、
音源LSI308の設定の変更を行う。それが終了した
後、一連の処理を終了する。
In step 1705, since the user has performed an operation on the up switch 502, processing corresponding to the operation is performed. Specifically, the value of the parameter is incremented, and the LCD 203
Increment of the parameter display value displayed in
The setting of the sound source LSI 308 is changed. After the end, a series of processing ends.

【0105】ステップ1706では、変数cur_xの
値が変数DOWN_x_minの値より大きく変数DO
WN_x_maxの値未満で、且つ、変数cur_yの
値が変数DOWN_y_minの値より大きく変数DO
WN_y_maxの値未満か否か判定する。カーソル5
01がダウンスイッチ503上に表示されている場合、
その判定はYESとなってステップ1707に移行す
る。そうでない場合には、即ちカーソル501がアップ
スイッチ502、ダウンスイッチ503の何れのスイッ
チ上にも表示されていない場合には、その判定はNOと
なって一連の処理を終了する。
In step 1706, the value of the variable cur_x is larger than the value of the variable DOWN_x_min,
The value of the variable cur_y is smaller than the value of the variable DOWN_y_min and smaller than the value of the variable DOWN_y_min.
It is determined whether the value is less than the value of WN_y_max. Cursor 5
When 01 is displayed on the down switch 503,
The determination is YES and the process moves to step 1707. If not, that is, if the cursor 501 is not displayed on any of the up switch 502 and the down switch 503, the determination is NO and the series of processing ends.

【0106】ステップ1707では、ユーザがダウンス
イッチ503に対する操作を行ったことから、それに応
じた処理を行う。具体的には、パラメータの値をデクリ
メントするとともに、それに合わせて、LCD203に
表示させているパラメータ表示値のデクリメント、音源
LSI308の設定の変更を行う。それが終了した後、
一連の処理を終了する。
In step 1707, since the user has performed an operation on the down switch 503, processing corresponding to the operation is performed. Specifically, the parameter value is decremented, and the parameter display value displayed on the LCD 203 is decremented and the setting of the sound source LSI 308 is changed accordingly. After that is finished
A series of processing ends.

【0107】なお、第1の実施の形態では、パラメータ
値の実際の変更は本体101を噛みしめることで指定す
るようにしているが、吐く息の強さでその指定を行うよ
うにしても良い。また、アップスイッチ502、及びダ
ウンスイッチ503が表示される設定画面からメニュー
画面に戻すことについてはフローチャートに示していな
いが、例えば設定画面上に表示されているパラメータ値
を操作、即ちカーソル501を表示されているパラメー
タ値上まで移動させた後、本体101の先端部分を噛み
しめた場合にメニュー画面に表示を戻すようにすれば良
い。
In the first embodiment, the actual change of the parameter value is specified by biting the main body 101. However, the specification may be performed by the intensity of the exhalation. Returning to the menu screen from the setting screen on which the up switch 502 and the down switch 503 are displayed is not shown in the flowchart. However, for example, the parameter values displayed on the setting screen are operated, that is, the cursor 501 is displayed. After moving to the parameter value that has been set, the display on the menu screen may be returned when the tip of the main body 101 is bitten.

【0108】図18は、図15に示す操作入力3処理内
でステップ1501として実行される機能アイコンのS
W処理の動作フローチャートである。次に、図18を参
照して、その処理について詳細に説明する。
FIG. 18 shows the function icon S executed as step 1501 in the operation input 3 processing shown in FIG.
It is an operation flowchart of W processing. Next, the processing will be described in detail with reference to FIG.

【0109】図6に示すように、ワークRAM303に
は、メインメニュー画面(図5(b)参照)等に表示さ
れるアイコンの表示位置を表すデータが、func
(n)_x_min、func(n)_x_max、f
unc(n)_y_min、及びfunc(n)_y_
maxの各変数として格納されている。これらの変数に
おいてカッコ内に示すnは1〜アイコンの表示数までの
整数である。nの値が同じである4つの各変数には、そ
のnの値が割り当てられたアイコン表示位置のx座標下
限の値、x座標上限の値、y座標下限の値、及びy座標
上限の値がそれぞれ格納されている。
As shown in FIG. 6, the work RAM 303 stores data representing the display position of the icons displayed on the main menu screen (see FIG. 5B) and the like.
(N) _x_min, func (n) _x_max, f
unc (n) _y_min and func (n) _y_
It is stored as each variable of max. In these variables, n shown in parentheses is an integer from 1 to the number of displayed icons. For each of the four variables having the same value of n, the lower limit of the x coordinate, the upper limit of the x coordinate, the lower limit of the y coordinate, and the upper limit of the y coordinate of the icon display position to which the value of n is assigned Are respectively stored.

【0110】なお、以降では、便宜上、上記func
(n)_x_min、func(n)_x_max、f
unc(n)_y_min、及びfunc(n)_y_
maxの各変数をまとめて変数XY_func(n)と
呼ぶことにする。
In the following, for convenience, the above func
(N) _x_min, func (n) _x_max, f
unc (n) _y_min and func (n) _y_
Each variable of max is collectively called a variable XY_func (n).

【0111】機能アイコンのSW処理では、ユーザが本
体101の先端部分をある程度強く噛む毎に、そのとき
にカーソル501が表示されているアイコンに応じた画
面表示の変更が行われる。
In the function icon SW process, every time the user bites the tip of the main body 101 to some extent, the screen display is changed in accordance with the icon on which the cursor 501 is displayed at that time.

【0112】先ず、ステップ1801では、変数old
_amb_regの値は閾値未満で、且つ変数amb_
regの値は閾値以上であるか否か判定する。変数ol
d_amb_regには前回検出した噛みしめ量が、変
数amb_regには今回検出した噛みしめ量がそれぞ
れ代入されている。このため、ユーザが本体101の先
端部分を噛みしめた場合、その判定はYESとなってス
テップ1802に移行する。そうでない場合には、その
判定はNOとなって一連の処理を終了する。
First, in step 1801, the variable old
The value of _amb_reg is less than the threshold and the variable amb_reg
It is determined whether or not the value of reg is equal to or greater than a threshold. Variable ol
The previously detected amount of clenching is substituted for d_amb_reg, and the currently detected amount of clenching is substituted for the variable amb_reg. Therefore, if the user has bitten the distal end portion of the main body 101, the determination is YES and the process proceeds to step 1802. Otherwise, the determination is NO and the series of processing ends.

【0113】ステップ1802では、対象とするアイコ
ンを特定するための変数nに1を代入する。その代入が
終了した後、ステップ1803に移行する。ステップ1
803では、カーソル501の表示座標(変数cur_
x、cur_yの各値)が、変数XY_func(n)
によって特定される範囲内か否か判定する。カーソル5
01が、変数nによって指定されたアイコン内に表示さ
れている場合、その判定はYESとなってステップ18
05に移行する。そうでない場合には、その判定はNO
となってステップ1804に移行する。
In step 1802, 1 is substituted for a variable n for specifying a target icon. After the assignment is completed, the flow shifts to step 1803. Step 1
At 803, the display coordinates of the cursor 501 (variable cur_
x, cur_y) is a variable XY_func (n)
It is determined whether it is within the range specified by. Cursor 5
If 01 is displayed in the icon specified by the variable n, the determination is YES and
Move to 05. Otherwise, the determination is no
Then, the process proceeds to step 1804.

【0114】ステップ1804では、変数nの値のイン
クリメントを行うとともに、そのインクリメント後の変
数nの値が、現在表示させているアイコン数より大きい
か否か判定する。変数nの値がアイコン数より大きくな
った場合、即ちカーソル501が何れのアイコン上にも
表示されていない場合、その判定はYESとなって一連
の処理を終了する。そうでない場合には、その判定はN
Oとなってステップ1803に戻る。
In step 1804, the value of the variable n is incremented, and it is determined whether or not the value of the variable n after the increment is larger than the number of icons currently displayed. If the value of the variable n has become larger than the number of icons, that is, if the cursor 501 is not displayed on any of the icons, the determination is YES and the series of processing ends. Otherwise, the decision is N
It becomes O and returns to step 1803.

【0115】一方、ステップ1805では、変数nの値
で指定されたアイコンが操作されたことから、それに応
じた処理を行う。具体的には、そのアイコンに割り当て
られた項目に分類されているパラメータのなかから、実
際に変更の対象とするパラメータをユーザが選択するた
めのサブメニュー画面を表示する。それが終了した後、
一連の処理を終了する。
On the other hand, in step 1805, since the icon specified by the value of the variable n has been operated, the processing corresponding thereto is performed. Specifically, a sub-menu screen for the user to select a parameter to be actually changed from the parameters classified into the items assigned to the icon is displayed. After that is finished
A series of processing ends.

【0116】なお、上記サブメニュー画面の表示は、マ
イコン301が、プログラムROM302から必要な画
像データを読み出し、それをその表示座標とともにLC
D表示部306に送出することで実現される。アイコン
に割り当てられた項目に分類されているパラメータが一
つであった場合には、当然のことながら、サブメニュー
画面の表示は行わず、そのパラメータ用の設定画面をL
CD203上に表示させることになる。
The display of the sub-menu screen is performed by the microcomputer 301 reading out necessary image data from the program ROM 302 and displaying the read image data together with the display coordinates of the image data.
This is realized by sending the data to the D display unit 306. If only one parameter is classified into the item assigned to the icon, the sub menu screen is not displayed, and the setting screen for that parameter is set to L.
It will be displayed on the CD 203.

【0117】このように、外部入力装置100に対する
操作を行うことにより、ユーザは手を使うことなく、様
々なパラメータを任意、且つ随時その値を変更すること
ができる。このため、複雑に変化させる音響効果を楽音
に付加するといったことを容易に行うことができる。ま
た、例えば外部入力装置100を検出した位置によっ
て、音色や音程等を変更させるようなことも容易に行え
ることができる。このようにした場合には、ユーザは首
振りを行うことで楽音の発音状態を変化させることがで
きるため、尺八などに近い感覚で演奏操作を行うことが
でき、更には、演奏操作中のアクションに応じた楽音の
変化を実現させることができる。即ちアクションを音楽
上の効果に反映させることができる。
As described above, by operating the external input device 100, the user can arbitrarily and variously change the values of various parameters without using his / her hands. Therefore, it is possible to easily add a sound effect that is changed in a complicated manner to the musical sound. Further, for example, it is possible to easily change the timbre, the pitch, and the like according to the position where the external input device 100 is detected. In this case, the user can change the sounding state of the musical sound by swinging the head, so that the user can perform the performance operation with a feeling close to a shakuhachi or the like. It is possible to realize the change of the musical tone according to the action. That is, the action can be reflected in the musical effect.

【0118】また、LCD203に表示させた画面を通
して各種の設定が行うことができることから、電子楽器
(本体)201上に設けるべきスイッチ類を少なくする
ことができる。少なくとも、各種パラメータやモードの
設定に用いるスイッチ類をなくすことができる。このた
め、コストを削減することができ、電子楽器のデザイン
上における自由度も向上させることができる。
Since various settings can be made through the screen displayed on the LCD 203, the number of switches to be provided on the electronic musical instrument (main body) 201 can be reduced. At least, switches used for setting various parameters and modes can be eliminated. Therefore, the cost can be reduced, and the degree of freedom in designing the electronic musical instrument can be improved.

【0119】なお、第1の実施の形態においては、外部
入力装置100に対する操作により、音色や音程、音響
効果の深さ、LCD203に表示された画面を通した各
種パラメータの設定を行うことができる。しかし、より
ユーザの要望に対応できるように、これら外部入力装置
100に対する操作によって設定できるパラメータをユ
ーザが任意に選択できるようにしても良い。また、ユー
ザ毎に好みが違うことから、外部入力装置100に対す
る操作内容と、その操作内容によって変更されるパラメ
ータの種類、及びその変更させる内容との対応関係をユ
ーザが任意に定義(設定)できるようにしても良い。 <第2の実施の形態>外部入力装置100の使用形態
は、LCD203に表示された画面を通したパラメータ
値の変更を行うモード(入力モードと呼ぶことにする)
と、LCD203に表示された画面を通すことなく、主
に音響効果の付加に関わるパラメータ値の変更を行うモ
ード(演奏モードと呼ぶことにする)とに分けることが
できる。しかし、上記第1の実施の形態では、それらを
特別に区別していない。このため、ユーザが意図しない
モードのパラメータの変更を行ってしまうことも考えら
れる。第2の実施の形態は、そのことに着目して、ユー
ザが意図しないパラメータの変更を回避できるようにし
たものである。
In the first embodiment, by operating the external input device 100, it is possible to set the tone color, the pitch, the depth of the sound effect, and various parameters through the screen displayed on the LCD 203. . However, a parameter that can be set by operating the external input device 100 may be arbitrarily selectable by the user so as to respond to the user's request. Further, since preferences differ for each user, the user can arbitrarily define (set) the correspondence between the operation content for the external input device 100, the type of parameter changed by the operation content, and the content to be changed. You may do it. <Second Embodiment> The mode of use of the external input device 100 is a mode in which parameter values are changed through a screen displayed on the LCD 203 (referred to as an input mode).
And a mode in which parameter values mainly related to the addition of sound effects are changed without passing through the screen displayed on the LCD 203 (referred to as a performance mode). However, they are not particularly distinguished in the first embodiment. For this reason, it is conceivable that the user may change a parameter in a mode not intended. In the second embodiment, attention is paid to this fact, so that a parameter change that is not intended by the user can be avoided.

【0120】第2の実施の形態による電子楽器は、第1
の実施の形態によるそれと構成は基本的に同じであり、
また、処理動作も基本的に同じである。このため、第1
の実施の形態で使用した符号をそのまま使用して、第1
の実施の形態から異なる部分のみ説明することにする。
The electronic musical instrument according to the second embodiment has the first
The configuration according to the embodiment of the present invention is basically the same,
The processing operation is basically the same. Therefore, the first
The code used in the first embodiment is used as it is,
Only different parts from the above embodiment will be described.

【0121】第2の実施の形態では、パラメータの変更
ミスを回避できるように、外部入力装置100の使用形
態を、外部入力装置100と電子楽器(本体)201と
の距離に応じて切り分けている。具体的には、例えば図
4に示す各空間領域(area1〜3)内を入力モード
用とし、それ以外を演奏モード用として区別している。
このようにすることにより、ユーザは、電子楽器(本
体)201との距離を考慮するだけで、第1の実施の形
態と比較すると、意図しないモードのパラメータの変更
等を回避することができるようになる。
In the second embodiment, the usage pattern of the external input device 100 is divided according to the distance between the external input device 100 and the electronic musical instrument (main body) 201 so that a parameter change error can be avoided. . Specifically, for example, the inside of each space area (areas 1 to 3) shown in FIG. 4 is distinguished for the input mode, and the others are distinguished for the performance mode.
By doing so, the user can avoid an unintended mode parameter change or the like as compared with the first embodiment by only considering the distance to the electronic musical instrument (main body) 201. become.

【0122】図19は、第2の実施の形態によるタイマ
インタラプト処理の動作フローチャートである。第1の
実施の形態とは、このタイマインタラプト処理だけが特
に異なっている。このため、図19を参照して、第2の
実施の形態によるタイマインタラプト処理についてのみ
説明することにする。
FIG. 19 is an operation flowchart of a timer interrupt process according to the second embodiment. Only the timer interrupt processing is different from the first embodiment. Therefore, only the timer interrupt processing according to the second embodiment will be described with reference to FIG.

【0123】先ず、ステップ1901では、位置センサ
(位置センサ発光部103と位置センサ受光部204と
から構成されている)による検出結果を取り込む位置セ
ンサ処理を実行する。続くステップ1902、1903
では、アンブシャセンサ105による検出結果、ブレス
センサ304による検出結果を取り込む処理がそれぞれ
行われる。
First, in step 1901, a position sensor process for taking in a detection result by a position sensor (consisting of the position sensor light emitting unit 103 and the position sensor light receiving unit 204) is executed. Subsequent steps 1902 and 1903
In the processing, the process of capturing the detection result by the ambusha sensor 105 and the detection result by the breath sensor 304 is performed.

【0124】ステップ1903に続くステップ1904
では、変数dist_nに代入されている値から、ユー
ザ(奏者:外部入力装置100)が入力モード用の空間
領域の外か否か判定する。ユーザが電子楽器(本体)2
01から比較的離れていた場合、その判定はYESとな
ってステップ1905に移行する。そうでない場合に
は、その判定はNOとなってステップ1906に移行す
る。
Step 1904 following step 1903
Then, it is determined from the value assigned to the variable dist_n whether the user (player: the external input device 100) is outside the space area for the input mode. The electronic musical instrument (main body) 2
If it is relatively far from 01, the determination is YES and the process moves to step 1905. Otherwise, the determination is no and the process moves to step 1906.

【0125】ステップ1905では、各センサの検出結
果に基づいて音源LSI308を制御する音源制御処理
を実行する。その後、一連の処理を終了する。他方のス
テップ1906では、各センサの検出結果に基づいてパ
ラメータの値を変更したり、LCD203に表示する画
面を切り換えたりする操作入力処理を実行する。その
後、一連の処理を終了する。
In step 1905, a sound source control process for controlling the sound source LSI 308 is executed based on the detection result of each sensor. Thereafter, a series of processing ends. In the other step 1906, an operation input process of changing the value of the parameter based on the detection result of each sensor or switching the screen displayed on the LCD 203 is executed. Thereafter, a series of processing ends.

【0126】なお、入力モードのパラメータを変更でき
る空間領域については、予め固定的に設定しておいても
良いが、ユーザの体型の違いに対応できるように、それ
をユーザが任意に変更できるようにしても良い。 <第3の実施の形態>上記第2の実施の形態では、上述
したように、外部入力装置100の位置、即ちユーザの
位置に応じて入力モードと演奏モードとを自動的に切り
換えることにより、パラメータの意図しない変更等を回
避するようにしたものである。しかし、パラメータが変
更されるタイミングに着目してみると、入力モードで変
更できるパラメータは演奏開始前、或いは演奏の合間に
その変更を行うことが多く、他方の演奏モードで変更で
きるパラメータは演奏中にその変更を行うことが多いと
いう傾向がある。即ち、各モードに割り当てたパラメー
タが変更されるタイミングには異なる傾向がある。第3
の実施の形態は、このことに着目して、各モードのパラ
メータを変更できるようにすることで、パラメータの意
図しない変更等をより回避できるようにしたものであ
る。
The spatial area in which the parameters of the input mode can be changed may be fixedly set in advance, but the user can arbitrarily change the parameters so as to cope with the difference in the user's body shape. You may do it. <Third Embodiment> In the second embodiment, as described above, the input mode and the performance mode are automatically switched according to the position of the external input device 100, that is, the position of the user. This is to avoid unintended changes in parameters and the like. However, focusing on the timing at which the parameters are changed, the parameters that can be changed in the input mode are often changed before the performance starts or during the performance, and the parameters that can be changed in the other performance mode are during the performance. Tend to make such changes. That is, the timing at which the parameters assigned to each mode are changed tends to be different. Third
In this embodiment, by paying attention to this, the parameters of each mode can be changed, so that unintended changes and the like of the parameters can be further avoided.

【0127】第3の実施の形態による電子楽器は、第1
の実施の形態によるそれと構成は基本的に同じであり、
また、処理動作も基本的に同じである。このため、第1
の実施の形態で使用した符号をそのまま使用して、第1
の実施の形態から異なる部分のみ説明することにする。
The electronic musical instrument according to the third embodiment is similar to the electronic musical instrument according to the first embodiment.
The configuration according to the embodiment of the present invention is basically the same,
The processing operation is basically the same. Therefore, the first
The code used in the first embodiment is used as it is,
Only different parts from the above embodiment will be described.

【0128】図20は、第3の実施の形態によるタイマ
インタラプト処理の動作フローチャートである。第1の
実施の形態とは、このタイマインタラプト処理だけが特
に異なっている。このため、図20を参照して、第3の
実施の形態によるタイマインタラプト処理についてのみ
説明することにする。
FIG. 20 is an operation flowchart of the timer interrupt processing according to the third embodiment. Only the timer interrupt processing is different from the first embodiment. Therefore, only the timer interrupt processing according to the third embodiment will be described with reference to FIG.

【0129】先ず、ステップ2001では、位置センサ
(位置センサ発光部103と位置センサ受光部204と
から構成されている)による検出結果を取り込む位置セ
ンサ処理を実行する。続くステップ2002、2003
では、アンブシャセンサ105による検出結果、ブレス
センサ304による検出結果を取り込む処理がそれぞれ
行われる。
First, in step 2001, a position sensor process for taking in a detection result by a position sensor (consisting of the position sensor light emitting unit 103 and the position sensor light receiving unit 204) is executed. Subsequent steps 2002, 2003
In the processing, the process of capturing the detection result by the ambusha sensor 105 and the detection result by the breath sensor 304 is performed.

【0130】ステップ2003に続くステップ2004
では、現在鍵盤202が備えた全ての鍵が離鍵されてい
るか否か、即ちユーザが鍵盤202に対して操作を行っ
ていないか否か判定する。ユーザが鍵盤202上の何れ
の鍵も押鍵していない場合、その判定はYESとなって
ステップ2005に移行する。そうでない場合には、そ
の判定はNOとなってステップ2006に移行する。
Step 2004 following step 2003
Then, it is determined whether or not all keys of the keyboard 202 are currently released, that is, whether or not the user has operated the keyboard 202. If the user has not pressed any key on the keyboard 202, the determination is YES and the process moves to step 2005. Otherwise, the determination is no and the process moves to step 2006.

【0131】ステップ2005では、変数dist_n
に代入されている値から、ユーザ(奏者:外部入力装置
100)が入力モード用の空間領域の外か否か判定す
る。ユーザが電子楽器(本体)201から比較的離れて
いた場合、その判定はYESとなってステップ2006
に移行する。そうでない場合には、その判定はNOとな
ってステップ2007に移行する。
In step 2005, the variable dist_n
It is determined whether the user (player: the external input device 100) is outside the space area for the input mode from the value assigned to. If the user is relatively far away from the electronic musical instrument (main body) 201, the determination is YES and step 2006
Move to Otherwise, the determination is no and the process moves to step 2007.

【0132】ステップ2006では、各センサの検出結
果に基づいて音源LSI308を制御する音源制御処理
を実行する。その後、一連の処理を終了する。他方のス
テップ2007では、各センサの検出結果に基づいて、
LCD203に表示された画面を通してパラメータの変
更等を行う操作入力処理を実行する。その後、一連の処
理を終了する。
In step 2006, a sound source control process for controlling the sound source LSI 308 is executed based on the detection result of each sensor. Thereafter, a series of processing ends. In the other step 2007, based on the detection result of each sensor,
An operation input process for changing a parameter or the like is performed through a screen displayed on the LCD 203. Thereafter, a series of processing ends.

【0133】このように、第3の実施の形態では、ユー
ザが鍵盤202の操作を行っていない場合、無条件で演
奏モードによるパラメータの変更を行い、そうでない場
合には、ユーザ(外部入力装置100)の位置に応じて
何れかのモードによるパラメータの変更を行うようにし
ている。このため、例えばユーザが鍵盤202の演奏操
作中に音色を明るくするために電子楽器(本体)201
に近づいたとしても、入力モードのパラメータの変更を
誤って行うようなことを確実に回避することができる。
第2の実施の形態と比較しても、パラメータの変更ミス
をより回避することができる。
As described above, in the third embodiment, when the user does not operate the keyboard 202, the parameters are unconditionally changed in the performance mode. Otherwise, the user (external input device) The parameter is changed in any mode according to the position of (100). For this reason, for example, the electronic musical instrument (main body) 201 is used in order for the user to lighten the tone while playing the keyboard 202.
, It is possible to reliably prevent the parameter of the input mode from being changed by mistake.
Compared with the second embodiment, it is possible to further avoid a parameter change error.

【0134】なお、本実施の形態(第1〜第3の実施の
形態)は、電子楽器に本発明を適用したものであるが、
本発明が適用されるのはこれに限定されるものではな
い。例えば鍵盤等の演奏操作子群を備えていない音源装
置に対しても適用することができる。また、本発明を適
用させた電子楽器は音源装置を搭載しているが、本実施
の形態でいう外部入力装置100に対する操作に応じて
制御コマンドを生成して外部の装置に送出するようにし
ても良い。このことから明らかなように、本発明は、音
源装置を搭載していない電子楽器にも適用することがで
きる。
In the present embodiment (first to third embodiments), the present invention is applied to an electronic musical instrument.
The application of the present invention is not limited to this. For example, the present invention can be applied to a sound source device that does not include a performance operation group such as a keyboard. Although the electronic musical instrument to which the present invention is applied has a sound source device, a control command is generated and transmitted to an external device in accordance with an operation on the external input device 100 according to the present embodiment. Is also good. As is apparent from this, the present invention can be applied to an electronic musical instrument without a sound source device.

【0135】また、本実施の形態では、音色番号の変
更、アイコンに対する操作等においては時間を考慮して
それらを行うことにより、ユーザの意図に沿った変更を
より行えるようにしているが、大部分は時間を考慮した
パラメータ(発音条件)の変更を行っていない。しか
し、時間を加えることで操作の情報量をより増やすこと
ができる。それにより、例えば、噛んでいる期間に応じ
て変更の対象とするパラメータをユーザに選択させるよ
うなこともでき、より多くのパラメータをより自由に変
更できるようになる。このようなことから、位置、息の
強さ、噛む強さの他に、操作している時間を更に加え
て、それらの情報を基にパラメータの変更を行うように
しても良い。
Further, in the present embodiment, the change of the tone color number, the operation for the icon, and the like are performed in consideration of time so that the change can be made more in accordance with the intention of the user. The part does not change parameters (sound generation conditions) in consideration of time. However, by adding time, the information amount of the operation can be further increased. Thereby, for example, it is possible to allow the user to select a parameter to be changed according to the biting period, so that more parameters can be changed more freely. For this reason, in addition to the position, the strength of breath, and the strength of chewing, the operation time may be further added, and the parameter may be changed based on the information.

【0136】また、本実施の形態では、外部入力装置に
対する操作内容に応じて、入力モード、或いは/及び、
演奏モードによるパラメータの変更を行えるようにして
いるが、実際の製品に本発明を適用させる場合には、そ
の何れかのモードによるパラメータの変更だけを行える
ようにしても良い。
In the present embodiment, the input mode and / or the
Although the parameters can be changed in the performance mode, when the present invention is applied to an actual product, only the parameters may be changed in any of the modes.

【0137】また、本実施の形態では、外部入力装置1
00の本体101を一つだけにしているが、それを装着
部102に2つ設け、各本体101毎に異なるパラメー
タを変更できるようにしても良い。また、他の人も電子
楽器の演奏に加えられるように、外部入力装置を複数用
意し、各外部入力装置に対して行われた操作に応じてパ
ラメータの変更を行うようにしても良い。後者のように
した場合には、複数の演奏者のアクションを反映させて
楽音の発音状態を変化させることができる。
In the present embodiment, the external input device 1
Although only one main body 101 is provided in the mounting portion 102, two different main bodies 101 may be provided so that different parameters can be changed for each main body 101. Alternatively, a plurality of external input devices may be prepared so that other people can also participate in the performance of the electronic musical instrument, and the parameters may be changed according to the operation performed on each external input device. In the latter case, the tone generation state of the musical tone can be changed by reflecting the actions of a plurality of players.

【0138】また、位置の検出については、外部入力装
置側で光を射出し、それを電子楽器(楽音発生装置)の
本体側で受光することにより行っているが、その逆であ
っても良い。また、位置センサ発光部を外部入力装置の
本体に設けているが、それを、或いはそれに相当するも
のを外部入力装置本体とは別にユーザに取り付けられる
ようにしても良い。後者の場合であっては、その外部入
力装置を電子楽器(楽音発生装置)本体とは別途に製品
化し、ユーザが所望の外部入力装置を任意に購入できる
ようにしても良い。
The position is detected by emitting light on the external input device side and receiving the light on the main body side of the electronic musical instrument (musical sound generator). However, the reverse is also possible. . Further, although the position sensor light emitting unit is provided in the main body of the external input device, it may be attached to the main body of the external input device separately from the main body of the external input device. In the latter case, the external input device may be commercialized separately from the main body of the electronic musical instrument (musical sound generator) so that the user can arbitrarily purchase a desired external input device.

【0139】[0139]

【発明の効果】以上説明したように本発明は、手を使わ
ずに情報を入力することができることに着目して、ユー
ザ(外部入力手段)の位置、吐く息の強さ、及び噛む強
さの少なくとも3種類の情報を検出し、発音条件(パラ
メータ)の選択、及びそれの変更を、それら検出した情
報を基に行う。
As described above, the present invention focuses on the fact that information can be input without using a hand, and focuses on the position of a user (external input means), the strength of exhalation, and the strength of chewing. At least three types of information are detected, and sound generation conditions (parameters) are selected and changed based on the detected information.

【0140】3種類の情報を少なくとも検出することに
より、変更対象のパラメータの選択や、それの変更をユ
ーザは任意に行えるようになる。このため、ユーザは、
手を使うことなく、幅広い音楽表現を容易に行うことが
できる。
By detecting at least three types of information, the user can arbitrarily select a parameter to be changed or change the parameter. For this reason, the user
A wide range of musical expressions can be easily performed without using hands.

【図面の簡単な説明】[Brief description of the drawings]

【図1】第1の実施の形態が適用されたシステムの外観
図である。
FIG. 1 is an external view of a system to which a first embodiment is applied.

【図2】電子楽器本体の概観図である。FIG. 2 is a schematic view of an electronic musical instrument main body.

【図3】電子楽器のハードブロック図である。FIG. 3 is a hardware block diagram of the electronic musical instrument.

【図4】位置センサで検出する空間を説明する図であ
る。
FIG. 4 is a diagram illustrating a space detected by a position sensor.

【図5】LCD表示例を示す図である。FIG. 5 is a diagram showing an example of an LCD display.

【図6】ワークRAMに格納される制御データ(変数)
例を示す図である。
FIG. 6 shows control data (variables) stored in a work RAM.
It is a figure showing an example.

【図7】全体処理の動作フローチャートである。FIG. 7 is an operation flowchart of an entire process.

【図8】タイマインタラプト処理の動作フローチャート
である。
FIG. 8 is an operation flowchart of a timer interrupt process.

【図9】位置センサ処理の動作フローチャートである。FIG. 9 is an operation flowchart of a position sensor process.

【図10】ブレスセンサ処理の動作フローチャートであ
る。
FIG. 10 is an operation flowchart of breath sensor processing.

【図11】アンブシャセンサ処理の動作フローチャート
である。
FIG. 11 is an operation flowchart of an embouchure sensor process.

【図12】音源制御処理の動作フローチャートである。FIG. 12 is an operation flowchart of a sound source control process.

【図13】操作入力1処理の動作フローチャートであ
る。
FIG. 13 is an operation flowchart of an operation input 1 process.

【図14】操作入力2処理の動作フローチャートであ
る。
FIG. 14 is an operation flowchart of an operation input 2 process.

【図15】操作入力3処理の動作フローチャートであ
る。
FIG. 15 is an operation flowchart of an operation input 3 process.

【図16】音色番号の変更処理の動作フローチャートで
ある。
FIG. 16 is an operation flowchart of a tone color changing process.

【図17】パラメータUP/DOWN処理の動作フロー
チャートである。
FIG. 17 is an operation flowchart of a parameter UP / DOWN process.

【図18】機能アイコンのSW処理の動作フローチャー
トである。
FIG. 18 is an operation flowchart of a function icon SW process.

【図19】タイマインタラプト処理の動作フローチャー
トである(第2の実施の形態)。
FIG. 19 is an operation flowchart of a timer interrupt process (second embodiment).

【図20】タイマインタラプト処理の動作フローチャー
トである(第3の実施の形態)。
FIG. 20 is an operation flowchart of a timer interrupt process (third embodiment).

【符号の説明】[Explanation of symbols]

100 外部入力装置 101 外部入力装置本体 103 位置センサ発光部 104 ブレスセンサ吹き込み口 105 アンブシャセンサ 201 電子楽器 202 鍵盤 203 LCD 204、204a〜204c 位置センサ受光部 301 マイコン 302 プログラムROM 303 ワークRAM 304 ブレスセンサ 305 位置センサ受光部群 306 LCD表示部 308 音源LSI REFERENCE SIGNS LIST 100 external input device 101 external input device main body 103 position sensor light emitting unit 104 breath sensor blowing port 105 ambusha sensor 201 electronic musical instrument 202 keyboard 203 LCD 204, 204a to 204c position sensor light receiving unit 301 microcomputer 302 program ROM 303 work RAM 304 breath sensor 305 Position sensor light receiving unit group 306 LCD display unit 308 Sound source LSI

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】 設定された各種発音条件に従って楽音を
発生する装置であって、 息の強さを検出するブレスセンサ、及び噛んだ強さを検
出するアンブシャセンサを少なくとも備え、ユーザが携
帯して使用する外部入力手段と、 前記外部入力手段の位置を検出する位置検出手段と、 前記位置検出手段の検出結果、及び前記外部入力手段が
備えた各種センサの検出結果に基づいて、前記各種発音
条件を設定する設定手段と、 を具備したことを特徴とする楽音発生装置。
An apparatus for generating a musical tone in accordance with various set sounding conditions, comprising at least a breath sensor for detecting the strength of breath, and an ambusha sensor for detecting the strength of biting, and is carried by a user. External input means to be used; position detecting means for detecting the position of the external input means; detection results of the position detecting means; and the various sound generation conditions based on detection results of various sensors provided in the external input means. And a setting means for setting the following.
【請求項2】 前記設定手段は、前記位置検出手段が検
出した前記外部入力手段の位置に応じて対象とする発音
条件を特定し、前記ブレスセンサが検出した息の強さ、
或いはアンブシャセンサが検出した噛んだ強さが予め定
めた強さ以上であった場合に、該対象とする発音条件の
変更を行う、 ことを特徴とする請求項1記載の楽音発生装置。
2. The method according to claim 1, wherein the setting unit specifies a target sound generation condition in accordance with a position of the external input unit detected by the position detection unit, and sets a breath intensity detected by the breath sensor.
2. The musical sound generating device according to claim 1, wherein if the bite intensity detected by the embouchure sensor is equal to or greater than a predetermined intensity, the target sound generation condition is changed.
【請求項3】 前記各種発音条件の設定用であり、各々
異なる機能が割り当てられた部分画像が少なくとも1つ
配置された画面を表示する表示手段と、 前記位置検出手段の検出結果、及び前記外部入力手段が
備えた各種センサの検出結果に基づいて、前記画面上で
前記部分画像を介して指定されている機能を特定する機
能特定手段と、を更に具備し、 前記設定手段は、前記位置検出手段の検出結果、前記外
部入力手段が備えた各種センサの検出結果、及び前記機
能特定手段が特定している機能に基づいて、前記各種発
音条件を設定する、 ことを特徴とする請求項1、または2記載の楽音発生装
置。
3. A display means for setting the various sounding conditions, displaying a screen on which at least one partial image to which different functions are assigned is arranged, a detection result of the position detection means, and the external device. A function specifying unit that specifies a function specified via the partial image on the screen based on detection results of various sensors included in the input unit; and the setting unit performs the position detection. The various sound generation conditions are set based on a detection result of a unit, a detection result of various sensors included in the external input unit, and a function specified by the function specifying unit. Or the tone generator according to 2.
【請求項4】 前記設定手段は、前記位置検出手段が検
出した前記外部入力手段の位置に応じて設定可能な発音
条件を選別する、 ことを特徴とする請求項1〜3の何れか1項に記載の楽
音発生装置。
4. The apparatus according to claim 1, wherein the setting unit selects a sound generation condition that can be set according to a position of the external input unit detected by the position detection unit. The tone generator according to any one of the preceding claims.
【請求項5】 前記設定手段は、発音させる楽音の音高
を指定するための演奏操作子群に対するユーザの操作状
態に応じて設定可能な発音条件を選別する、 ことを特徴とする請求項1〜4の何れか1項に記載の楽
音発生装置。
5. The apparatus according to claim 1, wherein the setting unit selects a sounding condition that can be set according to a user's operation state of a performance operator group for designating a pitch of a musical tone to be sounded. The musical sound generator according to any one of claims 1 to 4.
JP35910196A 1996-12-28 1996-12-28 Music generator Expired - Fee Related JP3624605B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP35910196A JP3624605B2 (en) 1996-12-28 1996-12-28 Music generator

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP35910196A JP3624605B2 (en) 1996-12-28 1996-12-28 Music generator

Publications (2)

Publication Number Publication Date
JPH10198365A true JPH10198365A (en) 1998-07-31
JP3624605B2 JP3624605B2 (en) 2005-03-02

Family

ID=18462755

Family Applications (1)

Application Number Title Priority Date Filing Date
JP35910196A Expired - Fee Related JP3624605B2 (en) 1996-12-28 1996-12-28 Music generator

Country Status (1)

Country Link
JP (1) JP3624605B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110025455A1 (en) * 2007-11-28 2011-02-03 My Music Machines, Inc. Adaptive midi wind controller device
JP2014182277A (en) * 2013-03-19 2014-09-29 Yamaha Corp Signal output device

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110025455A1 (en) * 2007-11-28 2011-02-03 My Music Machines, Inc. Adaptive midi wind controller device
JP2011505025A (en) * 2007-11-28 2011-02-17 マイ ミュージック マシンズ インコーポレイテッド Adaptive MIDI wind control system
US8497760B2 (en) * 2007-11-28 2013-07-30 My Music Machines, Inc. Adaptive MIDI wind controller device
JP2014182277A (en) * 2013-03-19 2014-09-29 Yamaha Corp Signal output device

Also Published As

Publication number Publication date
JP3624605B2 (en) 2005-03-02

Similar Documents

Publication Publication Date Title
US6337433B1 (en) Electronic musical instrument having performance guidance function, performance guidance method, and storage medium storing a program therefor
US7514622B2 (en) Musical sound production apparatus and musical
US5403970A (en) Electrical musical instrument using a joystick-type control apparatus
JP7143576B2 (en) Electronic musical instrument, electronic musical instrument control method and its program
US20060174291A1 (en) Playback apparatus and method
JPH11513811A (en) Real-time music creation system
JP2004251926A (en) Electronic musical instrument
JP4379291B2 (en) Electronic music apparatus and program
JPH1055174A (en) Baton and musical sound reproducing device
JPH10198365A (en) Music generating device
JPH1138967A (en) Electronic musical instrument
JP2007322683A (en) Musical sound control device and program
JP2007248881A (en) Musical performance system, controller used for same system, and program
JPH1097244A (en) Musical tone controller
US6362410B1 (en) Electronic musical instrument
JP2005099559A (en) Electronic musical instrument
JP5277814B2 (en) Electronic music apparatus and program
JPH11237878A (en) Electronic musical instrument generating musical sound signal
JP3155374B2 (en) Scale control device
JP2004347879A (en) Performance processing device and program
JP2001188650A (en) Parameter edition device, and recording medium
JP2000315083A (en) Electronic keyboard instrument
JP3399629B2 (en) Electronic musical instrument characteristic change processing device
JPH08137472A (en) Electronic musical instrument
JP2001184062A (en) Musical sound signal generator

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20041007

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20041020

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20041109

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20041122

R150 Certificate of patent (=grant) or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071210

Year of fee payment: 3

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081210

Year of fee payment: 4

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081210

Year of fee payment: 4

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091210

Year of fee payment: 5

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101210

Year of fee payment: 6

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101210

Year of fee payment: 6

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111210

Year of fee payment: 7

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111210

Year of fee payment: 7

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121210

Year of fee payment: 8

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121210

Year of fee payment: 8

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131210

Year of fee payment: 9

S802 Written request for registration of partial abandonment of right

Free format text: JAPANESE INTERMEDIATE CODE: R311802

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees