JP6724465B2 - Musical tone control device, electronic musical instrument, musical tone control device control method, and musical tone control device program - Google Patents

Musical tone control device, electronic musical instrument, musical tone control device control method, and musical tone control device program Download PDF

Info

Publication number
JP6724465B2
JP6724465B2 JP2016061112A JP2016061112A JP6724465B2 JP 6724465 B2 JP6724465 B2 JP 6724465B2 JP 2016061112 A JP2016061112 A JP 2016061112A JP 2016061112 A JP2016061112 A JP 2016061112A JP 6724465 B2 JP6724465 B2 JP 6724465B2
Authority
JP
Japan
Prior art keywords
lip
timing
lead
sensor information
control device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016061112A
Other languages
Japanese (ja)
Other versions
JP2017173651A (en
Inventor
千寿 外山
千寿 外山
一貴 春日
一貴 春日
林 龍太郎
龍太郎 林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2016061112A priority Critical patent/JP6724465B2/en
Publication of JP2017173651A publication Critical patent/JP2017173651A/en
Priority to JP2020107401A priority patent/JP6923047B2/en
Application granted granted Critical
Publication of JP6724465B2 publication Critical patent/JP6724465B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Electrophonic Musical Instruments (AREA)

Description

本発明は、楽音制御装置、電子楽器、楽音制御装置の制御方法、及び楽音制御装置のプログラムに関する。 The present invention relates to a musical tone control device, an electronic musical instrument, a control method for a musical tone control device, and a program for the musical tone control device.

管楽器の楽音を電子的に合成して出力する電子楽器では、感圧式のリップ検出部をリードに複数配置し、唇と舌との位置を検出して楽音制御することが知られている。この種の電子楽器では、楽音信号にエフェクトないし効果音を付与したうえで発音することができることが知られている(特許文献1参照)。 In an electronic musical instrument that electronically synthesizes and outputs a musical tone of a wind instrument, it is known that a plurality of pressure-sensitive lip detection units are arranged on a lead and the musical tone is controlled by detecting the positions of the lips and the tongue. It is known that an electronic musical instrument of this type can generate a sound after adding an effect or a sound effect to a musical tone signal (see Patent Document 1).

特開平7−72853号公報JP-A-7-72853

エフェクトの付与のさせ方は幾つか存在し、例えばリード上の下唇の位置(リップ・ポジション)に応じて付与されるエフェクトが変化することが知られており、演奏者は、リップ・ポジションを移動させることで付与されるエフェクトを変化させて、演奏に幅を持たせることができる。 There are several ways to apply an effect, for example, it is known that the effect applied changes according to the position of the lower lip on the reed (lip position). By moving it, you can change the effect that is added and give the performance a wider range.

ところで、演奏者が例えば発音を停止するために口をマウスピースから離す場合、下唇の動きには次の2種類が存在することが知られている。
(a)マウスピースを引っ張りながら下唇を離す。つまり、下唇が、リードの先端方向に移動しつつマウスピースから遠ざかる。
(b)下唇を垂直に離す。つまり、下唇がリードの先端方向に移動することなく、真下に離れるようにマウスピースから遠ざかる。
By the way, it is known that there are the following two types of movements of the lower lip when the player separates his mouth from the mouthpiece in order to stop the pronunciation.
(A) Release the lower lip while pulling on the mouthpiece. That is, the lower lip moves away from the mouthpiece while moving toward the tip of the lead.
(B) Vertically separate the lower lip. That is, the lower lip moves away from the mouthpiece so as to move directly below without moving toward the tip of the reed.

そして、演奏者は上記(a)の動作をすることが多い。この動作はリップ・ポジションの移動を伴うので、上述のように、リップ・ポジションに応じて音に付与されるエフェクトが変化するように構成されていると、上記(a)の動作は付与されるエフェクトに演奏者の意図しない変化を生じさせることになる。このようなエフェクトの発生は、演奏が弱い音又は減衰音で終了するときには影響が少なくあまり問題とならないが、演奏の最後に強い音又は持続音が発音される場合には、このエフェクトの変化が耳障りな音として大きく目立ってしまう。 Then, the performer often performs the operation (a). Since this operation is accompanied by the movement of the lip position, if the effect imparted to the sound is changed depending on the lip position as described above, the operation (a) is imparted. This will cause the effect to change without the player's intention. The occurrence of such an effect has little effect when the performance ends with a weak sound or a decaying sound, and is not a serious problem, but when a strong sound or a continuous sound is produced at the end of the performance, the effect changes. It is noticeable as an offensive sound.

本発明は、このような事情に鑑みなされたものであり、リップ・ポジションに応じて変化するエフェクトによって演奏者の意図しない耳障りな音が発生することを防止することのできる電子楽器、電子楽器の制御方法、及び電子楽器のプログラムを提供することを目的とする。 The present invention has been made in view of such circumstances, and provides an electronic musical instrument and an electronic musical instrument capable of preventing an offensive sound that is unintended by a performer from being generated by an effect that changes depending on a lip position. An object is to provide a control method and a program for an electronic musical instrument.

上記目的を達成するために、本発明は、以下の構成により把握される。
(1)本発明の楽音制御装置は、リード上におけるリップの接触状態を検知するリップ検出センサからのセンサ情報に基づいて、前記リップの前記リード上における接触位置を決定する位置決定処理と、前記位置決定処理にて決定された前記接触位置に対応して音源部で生成される楽音を制御する楽音制御処理と、前記センサ情報に基づいて、前記リップが前記リード上から離れる動作を開始したことを検知する検知処理と、前記センサ情報に基づいて、前記リップの離れる形態が第1の形態であると判断された場合、第1のタイミングから、少なくとも前記リップが前記リードから離れる動作を完了した第2のタイミングまでの間、前記第1のタイミングでの前記接触位置を、実際の前記リップの接触位置として設定する処理と、を実行する処理部を有する。
In order to achieve the above object, the present invention is understood by the following configurations.
(1) The tone control device of the present invention comprises a position determination process for determining a contact position of the lip on the lead based on sensor information from a lip detection sensor for detecting a contact state of the lip on the lead, Musical sound control processing for controlling the musical sound generated by the sound source unit corresponding to the contact position determined by the position determination processing, and the operation of the lip separating from the lead based on the sensor information. When it is determined that the lip separation form is the first form based on the detection processing for detecting the above and the sensor information, at least the operation of separating the lip from the lead is completed from the first timing. Until the second timing, it has a processing unit that executes a process of setting the contact position at the first timing as an actual contact position of the lip.

(2)本発明の電子楽器は、音高を決めるために操作される複数のキーと、リップの接触状態を検知するリップ検出センサを備えるリードと、楽音を生成する音源部と、上記(1)の構成を有する楽音制御装置と、を備える。 (2) An electronic musical instrument of the present invention has a plurality of keys operated to determine a pitch, a lead having a lip detection sensor that detects a contact state of a lip, a sound source section that generates a musical tone, and the above (1). And a musical sound control device having the above configuration.

(3)本発明の楽音制御装置の制御方法は、リード上におけるリップの接触状態を検知するリップ検出センサからのセンサ情報に基づいて、前記リップの前記リード上における接触位置を決定するステップと、前記決定された前記接触位置に対応して音源部で生成される楽音を制御するステップと、前記センサ情報に基づいて、前記リップが前記リード上から離れる動作を開始したことを検知するステップと、前記センサ情報に基づいて、前記リップの離れる形態が第1の形態であると判断された場合、第1のタイミングから、少なくとも前記リップが前記リードから離れる動作を完了した第2のタイミングまでの間、前記第1のタイミングでの前記接触位置を、実際の前記リップの接触位置として設定するステップと、を含む。 (3) The control method of the tone control device of the present invention comprises the step of determining the contact position of the lip on the lead based on sensor information from a lip detection sensor that detects the contact state of the lip on the lead, Controlling the musical sound generated by the sound source unit corresponding to the determined contact position, and detecting that the lip has begun to move away from the lead based on the sensor information, When it is determined that the lip separation form is the first form based on the sensor information, from the first timing to at least the second timing at which the lip completes the operation of separating the lip from the lead. And, setting the contact position at the first timing as an actual contact position of the lip.

(4)本発明の楽音制御装置のプログラムは、楽音制御装置の処理部に、リード上におけるリップの接触状態を検知するリップ検出センサからのセンサ情報に基づいて、前記リップの前記リード上における接触位置を決定する位置決定処理と、前記位置決定処理にて決定された前記接触位置に対応して音源部で生成される楽音を制御する楽音制御処理と、前記センサ情報に基づいて、前記リップが前記リード上から離れる動作を開始したことを検知する検知処理と、前記センサ情報に基づいて、前記リップの離れる形態が第1の形態であると判断された場合、第1のタイミングから、少なくとも前記リップが前記リードから離れる動作を完了した第2のタイミングまでの間、前記第1のタイミングでの前記接触位置を、実際の前記リップの接触位置として設定する処理と、を実現する。 (4) The program of the musical sound control device of the present invention causes the processing unit of the musical sound control device to contact the lip on the lead based on sensor information from a lip detection sensor that detects a contact state of the lip on the lead. A position determining process for determining a position, a tone control process for controlling a tone generated by a sound source unit corresponding to the contact position determined by the position determining process, and the lip based on the sensor information. When it is determined that the form where the lip separates is the first form based on the detection processing that detects that the operation of separating from the lead is started and the sensor information, at least the first timing from the first timing. And a process of setting the contact position at the first timing as an actual contact position of the lip until the second timing when the operation of separating the lip from the lead is completed.

本発明によれば、リードから下唇を離す動作を行ったときに、リップ・ポジションに応じて付与の形態が変化するエフェクトによって演奏者の意図しない音が発生することを防止することができる。 According to the present invention, it is possible to prevent a sound unintended by the performer from being generated by an effect in which the form of application changes depending on the lip position when the operation of separating the lower lip from the lead is performed.

(a)は本発明の実施形態に係る電子楽器の平面図、(b)は電子楽器の側面図である。(A) is a top view of the electronic musical instrument which concerns on embodiment of this invention, (b) is a side view of an electronic musical instrument. 電子楽器の機能構成を示すブロック図である。It is a block diagram which shows the function structure of an electronic musical instrument. (a)はマウスピースを示す断面図、(b)はマウスピースを示す下面図である。(A) is sectional drawing which shows a mouthpiece, (b) is a bottom view which shows a mouthpiece. 演奏者の口腔とマウスピースとの接触状態を示す図である。It is a figure which shows the contact state of a player's oral cavity and a mouthpiece. リード上のセンシング部を模式的に示す図である。It is a figure which shows the sensing part on a lead typically. (a)はマウスピースを引っ張りながら離した場合のリード上の位置毎のセンサ値、センサ値合計、及び重心における時間推移の一例を示す表、(b)は下唇をマウスピースから垂直に離した場合の、図6(a)と同様の表である。(A) is a table showing an example of the sensor value for each position on the lead when pulling the mouthpiece apart, the total sensor value, and the time transition in the center of gravity, and (b) vertically separating the lower lip from the mouthpiece. 6 is a table similar to that of FIG. (a)は図6(a)における位置毎のセンサ値の時間推移を示すグラフ、(b)は図6(b)における位置毎のセンサ値の時間推移を示すグラフである。6A is a graph showing the time-dependent change of the sensor value for each position in FIG. 6A, and FIG. 6B is a graph showing the time-dependent change of the sensor value for each position in FIG. 6B. (a)は図6(a)における重心位置とセンサ値合計との関係を示すグラフ、(b)は図6(b)における重心位置とセンサ値合計との関係を示すグラフである。6A is a graph showing the relationship between the center of gravity position in FIG. 6A and the total sensor value, and FIG. 6B is a graph showing the relationship between the center of gravity position in FIG. 6B and the total sensor value. メインルーチンを示すフローチャートである。It is a flow chart which shows a main routine. 下唇位置/舌検出部の処理の流れを示すフローチャートである。It is a flow chart which shows a flow of processing of a lower lip position / tongue detection part.

以下、添付図面を参照して、本発明に係る実施形態を説明する。本実施形態に係る電子楽器は、リードを用いる木管楽器であるアコースティック管楽器の奏法(例えば、ピッチベンドやビブラート)に応じて演奏を表現する電子楽器である。ここでは、電子楽器がサクソフォンである例を説明する。もっとも、本発明はこれに限定されるものではなく、クラリネット等、他の管楽器を模した電子楽器に適用してもよい。なお、実施形態の説明の全体を通して同じ要素には同じ符号を付している。 Embodiments according to the present invention will be described below with reference to the accompanying drawings. The electronic musical instrument according to the present embodiment is an electronic musical instrument that expresses a performance in accordance with a performance style (for example, pitch bend or vibrato) of an acoustic wind musical instrument that is a woodwind musical instrument that uses reeds. Here, an example in which the electronic musical instrument is a saxophone will be described. However, the present invention is not limited to this, and may be applied to an electronic musical instrument imitating another wind instrument such as a clarinet. The same elements are denoted by the same reference symbols throughout the description of the embodiments.

[電子楽器の構成]
(電子楽器の基本構成)
図1を参照して、本実施形態に係る電子楽器の基本構成を説明する。図1(a)は電子楽器の平面図であり、図1(b)は電子楽器の側面図である。図1(a)、(b)に示すように、電子楽器100は、アコースティック管楽器であるサクソフォンを模した外形を有し、管体部100aと、操作子1と、サウンドシステム9と、マウスピース10と、を備える。
管体部100aは、サクソフォンの管体部を模した形状を有する本体の筐体部である。
[Structure of electronic musical instrument]
(Basic configuration of electronic musical instrument)
A basic configuration of the electronic musical instrument according to the present embodiment will be described with reference to FIG. 1A is a plan view of the electronic musical instrument, and FIG. 1B is a side view of the electronic musical instrument. As shown in FIGS. 1A and 1B, an electronic musical instrument 100 has an outer shape simulating a saxophone that is an acoustic wind instrument, and includes a tubular body portion 100a, a manipulator 1, a sound system 9, and a mouthpiece. 10 is provided.
The tubular body portion 100a is a casing portion of the main body having a shape imitating the tubular body portion of the saxophone.

操作子1は、管体部100a上に配置され、演奏者P(ユーザ)が指で操作する操作部である。操作子1は、音高を決定する演奏キー、楽曲のキーに合わせて音高を変える機能、音高の微調整を行う機能等を設定する設定キーを含み、演奏者Pからキー操作を受け付けて操作情報を後述のCPU5に出力する。 The operator 1 is an operation unit arranged on the tubular body 100a and operated by a player P (user) with his/her finger. The operator 1 includes a setting key for setting a performance key for determining a pitch, a function for changing the pitch according to a music key, a function for finely adjusting the pitch, and the like, and accepts a key operation from the player P. And outputs the operation information to the CPU 5, which will be described later.

マウスピース10は、管体部100aに接続されるとともに、演奏者Pが口腔で操作する。マウスピース10には、追って詳述するように、リード11が取り付けられる。 The mouthpiece 10 is connected to the tubular body portion 100a and is operated by the performer P in the oral cavity. The lead 11 is attached to the mouthpiece 10 as will be described in detail later.

サウンドシステム9は、スピーカ等を有し、楽音出力を行う。より具体的には、サウンドシステム9は、音源部8から入力された楽音信号に信号増幅等を施し、内蔵のスピーカから楽音として出力する。 The sound system 9 has a speaker or the like and outputs a musical sound. More specifically, the sound system 9 performs signal amplification or the like on the musical tone signal input from the sound source unit 8 and outputs it as a musical tone from a built-in speaker.

また、図1(a)に一部透視部分として示すように、管体部100aに内蔵された基板上に、息圧検出部2、制御手段としてのCPU(Central Processing Unit)5、ROM(Read Only Memory)6、RAM(Random Access Memory)7、音源部8が設けられている。CPU5は、全体的な処理を行う部分であり、以下で説明される各種の動作(処理)を実行する楽音制御装置を構成し、その楽音制御装置の処理部として機能する。 Further, as shown as a partially transparent portion in FIG. 1A, a breath pressure detection unit 2, a CPU (Central Processing Unit) 5 as a control unit, a ROM (Read) are provided on a substrate built in the tubular body unit 100a. Only memory 6, RAM (Random Access Memory) 7, and sound source unit 8 are provided. The CPU 5 is a part that performs overall processing, constitutes a tone control device that executes various operations (processes) described below, and functions as a processing unit of the tone control device.

息圧検出部2は、演奏者Pからマウスピース10に吹き込まれた息の圧力(息圧)を検出し、息圧情報をCPU5に出力するセンサである。音源部8は、楽音を生成する回路であり、音源部8の出力に応じてサウンドシステム9は動作する。CPU5、ROM6、RAM7については後述する。 The breath pressure detection unit 2 is a sensor that detects the pressure (breath pressure) of the breath blown into the mouthpiece 10 by the player P and outputs breath pressure information to the CPU 5. The sound source unit 8 is a circuit that generates a musical sound, and the sound system 9 operates according to the output of the sound source unit 8. The CPU 5, ROM 6, and RAM 7 will be described later.

(電子楽器の機能構成)
図2を参照して、電子楽器100の機能構成を説明する。図2は、電子楽器100の機能構成を示すブロック図である。図2に示すように、電子楽器100は、上述した操作子1と、上述した息圧検出部2と、リップ検出部3と、タン検出部4と、CPU5と、ROM6と、RAM7と、上述した音源部8と、上述したサウンドシステム9と、を備える。サウンドシステム9を除く電子楽器100の上記各部は、バス9aを介して互いに接続されている。
(Functional configuration of electronic musical instrument)
The functional configuration of the electronic musical instrument 100 will be described with reference to FIG. FIG. 2 is a block diagram showing a functional configuration of the electronic musical instrument 100. As shown in FIG. 2, the electronic musical instrument 100 includes the operator 1, the breath pressure detector 2, the lip detector 3, the tongue detector 4, the CPU 5, the ROM 6, the RAM 7, and the above-described operator 1. The sound source unit 8 and the sound system 9 described above are provided. The above-mentioned respective parts of the electronic musical instrument 100 except for the sound system 9 are connected to each other via a bus 9a.

リップ検出部3(リップ検出センサ)は、リード11に設けられ、演奏者Pのリップ(下唇)Lの接触を検知する静電容量方式のタッチセンサである。リップ検出部3は、タッチセンサにおけるリップLの接触位置及びリップLの接触面積に応じた静電容量を、リップLの検出情報としてCPU5に出力する。リップLの検出情報がCPU5によってどのように利用されるかについては追って述べる。 The lip detection unit 3 (lip detection sensor) is a capacitance type touch sensor that is provided on the lead 11 and detects a contact of the lip (lower lip) L of the performer P. The lip detection unit 3 outputs an electrostatic capacitance corresponding to the contact position of the lip L and the contact area of the lip L on the touch sensor to the CPU 5 as the detection information of the lip L. How the detection information of the lip L is used by the CPU 5 will be described later.

タン検出部4は、リード11に設けられ、演奏者Pのタン(舌)の接触を検出する静電容量方式のタッチセンサである。タン検出部4は、タッチセンサにおけるタンの接触面積に応じた静電容量をタンの検出情報としてCPU5に出力する。 The tongue detection unit 4 is a capacitive touch sensor that is provided on the lead 11 and detects contact of the player P's tongue. The tongue detecting unit 4 outputs the capacitance corresponding to the contact area of the tongue in the touch sensor to the CPU 5 as the tongue detection information.

CPU5は、電子楽器100の各部を制御する制御部である。CPU5は、ROM6から指定されたプログラムを読み出して後述する各種処理を実行する。 The CPU 5 is a control unit that controls each unit of the electronic musical instrument 100. The CPU 5 reads out the designated program from the ROM 6 and executes various processes described later.

より具体的には、CPU5は、操作子1から入力された音高情報と、息圧検出部2から入力された息圧情報と、リップ検出部3から入力されたリップLの検出情報と、タン検出部4から入力されたタンの検出情報と、に基づいて、楽音の生成を音源部8に指示する。 More specifically, the CPU 5 includes the pitch information input from the operator 1, the breath pressure information input from the breath pressure detection unit 2, and the detection information of the lip L input from the lip detection unit 3, The tone generator 8 is instructed to generate a musical tone based on the detected tone information input from the tone detector 4.

例えば、CPU5は、操作子1から入力された音高情報に基づいて、楽音の音高を設定する。また、CPU5は、息圧検出部2から入力された息圧情報に基づいて、楽音の音量を設定する。更に、CPU5は、リップ検出部3から入力されたリップLの検出情報に応じて、発生する楽音に付与されるエフェクトを制御する。CPU5はまた、タン検出部4から入力されたタン(舌)の接触の検出情報に基づいて、タンギング音の発生形態を設定する。 For example, the CPU 5 sets the pitch of a musical tone based on the pitch information input from the operator 1. Further, the CPU 5 sets the volume of the musical sound based on the breath pressure information input from the breath pressure detection unit 2. Further, the CPU 5 controls the effect imparted to the generated musical sound according to the detection information of the lip L input from the lip detection unit 3. The CPU 5 also sets the generation mode of the toning sound based on the tongue (tongue) contact detection information input from the tongue detector 4.

CPU5は、これら処理を、処理内容に応じて設定された周期で繰り返し実行する。例えば、CPU5は、操作子1が操作されたか否かを所定の周期で繰り返し判定し、操作子1が操作されたと判定する度に操作に応じた発音処理を行う。その際、CPU5は、リップ検出部3の出力値に基づいて、後述する所定の処理を実行する。 The CPU 5 repeatedly executes these processes at a cycle set according to the contents of the process. For example, the CPU 5 repeatedly determines whether or not the manipulator 1 has been operated in a predetermined cycle, and performs sound generation processing according to the operation each time it is determined that the manipulator 1 has been operated. At that time, the CPU 5 executes a predetermined process described later based on the output value of the lip detection unit 3.

ROM6は、各種データ及び各種プログラムを記憶する。RAM7は、処理された各種データを一時的に格納するワークエリアを有する。 The ROM 6 stores various data and various programs. The RAM 7 has a work area for temporarily storing various processed data.

音源部8は、シンセサイザであり、CPU5の楽音の生成指示(楽音制御)に従い、楽音を生成して楽音信号をサウンドシステム9に出力する。 The sound source unit 8 is a synthesizer, and generates a musical tone according to a musical tone generation instruction (musical tone control) of the CPU 5 and outputs a musical tone signal to the sound system 9.

(マウスピースの詳細)
図3及び図4を参照して、マウスピース10の構成を説明する。図3(a)はマウスピース10を示す断面図であり、(b)はマウスピース10を示す下面図である。図3(a)においては、マウスピース10の軸方向に沿って、開口部13側を「ティップ」とし、管体部100a側を「ヒール」とする。
(Details of the mouthpiece)
The configuration of the mouthpiece 10 will be described with reference to FIGS. 3 and 4. 3A is a cross-sectional view showing the mouthpiece 10, and FIG. 3B is a bottom view showing the mouthpiece 10. In FIG. 3A, along the axial direction of the mouthpiece 10, the opening 13 side is a “tip” and the tubular body portion 100a side is a “heel”.

図3(a)、(b)に示すように、マウスピース10は、マウスピース本体部10aと、リード11と、固定金具12と、を有する。マウスピース本体部10aは、マウスピース10の本体部品であり、演奏者Pが息を吹き込むための開口部13を有する。リード11は、マウスピース本体部10aの下方、つまり、アコースティック管楽器のリード位置に対応して設けられている。固定金具12は、リード11をマウスピース本体部10aに取り付けるための金具である。 As shown in FIGS. 3A and 3B, the mouthpiece 10 has a mouthpiece body 10 a, a lead 11, and a fixing bracket 12. The mouthpiece body 10a is a body part of the mouthpiece 10 and has an opening 13 through which the player P blows. The lead 11 is provided below the mouthpiece body 10a, that is, corresponding to the lead position of the acoustic wind instrument. The fixing metal fitting 12 is a metal fitting for attaching the lead 11 to the mouthpiece body 10a.

図3(b)に示すように、リード11には、複数の電極部40,30〜39が、ティップ側からヒール側に向かって所定の間隔で配置されている。 As shown in FIG. 3B, a plurality of electrode portions 40, 30 to 39 are arranged on the lead 11 at predetermined intervals from the tip side toward the heel side.

このうち電極部40は、タン検出部4を構成する静電容量方式のタッチセンサS10のセンシング部である。また、電極部30〜39は、リップ検出部3を構成する静電容量方式のタッチセンサS20〜S29のセンシング部である。本実施形態では、リップ検出部3及びタン検出部4は1つの部品として構成されているが、別個の部品として構成されてもよい。 Of these, the electrode section 40 is a sensing section of the capacitance type touch sensor S10 that constitutes the tongue detection section 4. Further, the electrode parts 30 to 39 are the sensing parts of the capacitance type touch sensors S20 to S29 constituting the lip detecting part 3. In the present embodiment, the lip detector 3 and the tongue detector 4 are configured as one component, but may be configured as separate components.

上述したマウスピース10が演奏者Pによってどのように操作されるかを、図4を参照して説明する。図4は、演奏者Pの口腔とマウスピース10との接触状態を示す図である。図4に示すように、演奏者Pは、電子楽器100の演奏時に、上側前歯E1をマウスピース本体部10aの上部に当て、下側前歯E2を下側のリップLで巻き込み、リード11に触れる。このようにして、マウスピース10は、上側前歯E1とリップLとで保持される。 How the above-described mouthpiece 10 is operated by the player P will be described with reference to FIG. FIG. 4 is a view showing a contact state between the mouthpiece 10 of the performer P and the mouthpiece 10. As shown in FIG. 4, at the time of playing the electronic musical instrument 100, the player P applies the upper front tooth E1 to the upper portion of the mouthpiece body 10a, winds the lower front tooth E2 with the lower lip L, and touches the lead 11. .. In this way, the mouthpiece 10 is held by the upper front teeth E1 and the lip L.

演奏時における口腔内部のタンは、奏法により、リード11に触れている状態のタンT1(実線)と、リード11に触れていない状態のタンT2(破線)と、のいずれかとなる。ここで、演奏者Pは、通常、楽器の発音を抑制することを意図してタンをリード11に接触させることが知られている。かかる演奏者Pの所作に対応するために、上述したタッチセンサS10は、電極部40に対するタンの接触状態を検出する。例えば、図4において実線で示されるタンT1は、リード11に接触した状態を示し、図4に一点鎖線で示されるタンT2は、リード11から離れた状態を示す。そして、タッチセンサS10は、検出情報をCPU5に対して出力する。 Depending on the rendition style, the tongue inside the oral cavity at the time of performance is either tongue T1 (solid line) in the state where it touches the lead 11 or tongue T2 (broken line) in the state where it does not touch the lead 11. Here, it is known that the player P normally brings the tongue into contact with the reed 11 with the intention of suppressing the pronunciation of the musical instrument. In order to respond to the behavior of the player P, the touch sensor S10 described above detects the contact state of the tongue with the electrode portion 40. For example, a tongue T1 shown by a solid line in FIG. 4 shows a state in which it contacts the lead 11, and a tongue T2 shown by a chain line in FIG. 4 shows a state apart from the lead 11. Then, the touch sensor S10 outputs the detection information to the CPU 5.

また、演奏者Pは、通常、発音時にはリップLをマウスピース10に接触させている。この場合、演奏者Pは、リップLの接触位置及び接触面積(接触圧力)を操作して、音を変化させることがある。このような奏法に対応して、タッチセンサS20〜S29は、電極部30〜39に対するリップLの接触状態を検出する。そして、タッチセンサS20〜S29は、それぞれの検出情報をCPU5に対して出力する。 Further, the performer P normally brings the lip L into contact with the mouthpiece 10 during sounding. In this case, the performer P may change the sound by operating the contact position and the contact area (contact pressure) of the lip L. Corresponding to such a rendition style, the touch sensors S20 to S29 detect the contact state of the lip L with respect to the electrode portions 30 to 39. Then, the touch sensors S20 to S29 output the respective detection information to the CPU 5.

CPU5は、タッチセンサS20〜S29から出力される検出情報に応じて、追って詳しく述べるように、リード11におけるリップLの接触位置(重心位置)を算出する。また、CPU5は、タッチセンサS10から出力される検出情報に基づいて、タンの接触状態(T1,T2)を判断する。 The CPU 5 calculates the contact position (the center of gravity position) of the lip L on the lead 11 according to the detection information output from the touch sensors S20 to S29, as described later in detail. Further, the CPU 5 determines the contact state of the tongue (T1, T2) based on the detection information output from the touch sensor S10.

なお、リップ検出部3及びタン検出部4を構成するタッチセンサ及び電極部の数量、配置、形状は、仕様に応じて任意に設定されうる。 The numbers, arrangements, and shapes of the touch sensors and the electrode portions that compose the lip detector 3 and the tongue detector 4 can be arbitrarily set according to the specifications.

(リップのリードへの接触位置)
上記のような構成を有するリップ検出部3では、リップLは、多くの場合、複数の電極部に亘って接触することになる。そのときのリップLの接触位置を1点に定めるために、本実施形態では、リップLのリード11上の重心位置を算出することとしている。そこで、図5を参照して、リップLのリード11への重心位置を算出する手法を説明する。
(Lip lead contact position)
In the lip detecting unit 3 having the above-described configuration, the lip L is often in contact with the plurality of electrode units. In order to determine the contact position of the lip L at that time as one point, in the present embodiment, the position of the center of gravity of the lip L on the lead 11 is calculated. Therefore, a method of calculating the position of the center of gravity of the lip L on the lead 11 will be described with reference to FIG.

図3(b)を参照して説明したように、複数の矩形状の電極部40,30〜39は、リード11の延在方向ないし長手方向に沿って整列している。演奏者P側の一端に、タン検出部4を構成するタッチセンサS10の電極部40が配置され、この電極部40に隣り合うように、リップ検出部3を構成するタッチセンサS20〜S29の電極部30〜39が、反対側の端部に向かって等間隔で配列されている。図5は、リード11上の電極部40,30〜39を模式的に示した図であり、図5では、以後の説明がわかり易いようにするために、電極部30〜39の位置を、電極部40側からP1〜P10で表し、それぞれ番号「1」〜「10」を付与している。 As described with reference to FIG. 3B, the plurality of rectangular electrode portions 40, 30 to 39 are aligned along the extending direction or the longitudinal direction of the lead 11. The electrode section 40 of the touch sensor S10 forming the tongue detecting section 4 is arranged at one end on the player P side, and the electrodes of the touch sensors S20 to S29 forming the lip detecting section 3 are adjacent to the electrode section 40. The parts 30 to 39 are arranged at equal intervals toward the opposite end. FIG. 5 is a diagram schematically showing the electrode portions 40, 30 to 39 on the lead 11. In FIG. 5, the positions of the electrode portions 30 to 39 are changed to the electrode portions in order to make the following description easy to understand. It is represented by P1 to P10 from the side of the unit 40, and numbers “1” to “10” are given to them, respectively.

そして、リップLのリード11への接触位置(重心位置xG)は、タッチセンサS20〜S29の出力値miと電極部30〜39の位置xiとを用いて、次式で算出することが出来る。

Figure 0006724465
ここで、nはタッチセンサの数である。
なお、この式は一般に重心位置を算出するときに用いられる式である。 The contact position (center of gravity position xG) of the lip L with the lead 11 can be calculated by the following equation using the output values mi of the touch sensors S20 to S29 and the positions xi of the electrode portions 30 to 39.
Figure 0006724465
Here, n is the number of touch sensors.
Note that this formula is a formula generally used when calculating the position of the center of gravity.

例えば、位置「P1」から「P10」に対応するタッチセンサS20〜S29の出力値がそれぞれ0,0,0,0,90,120,150,120,90,0,0である場合、リップLの重心位置xGは、

Figure 0006724465
と算出される。 For example, when the output values of the touch sensors S20 to S29 corresponding to the positions “P1” to “P10” are 0, 0, 0, 0, 90, 120, 150, 120, 90, 0, 0, respectively, the lip L The center of gravity position xG of
Figure 0006724465
Is calculated.

本実施形態では、リップLの重心位置を、0から127までの整数値(7ビットの2進数)で表現した重心値で表わすこととしている。この重心値を得るためには、上述した重心位置xGを10で除して127を乗ずればよい。 In the present embodiment, the barycentric position of the lip L is represented by the barycentric value represented by an integer value from 0 to 127 (7-bit binary number). To obtain this center-of-gravity value, the above-described center-of-gravity position xG may be divided by 10 and multiplied by 127.

(センサ値合計と重心値に基づく下唇のマウスピースからの離し方の区別)
ここで、図6から図8を参照して、タッチセンサS20〜S29の出力値の合計及びリップLの重心値に基づいて、リップLの下唇のマウスピース10からの離す動作の形態を判別する手法の一例を説明する。
(Distinguishing how to separate lower lip from mouthpiece based on total sensor value and center of gravity value)
Here, with reference to FIG. 6 to FIG. 8, the form of the operation of separating the lower lip of the lip L from the mouthpiece 10 is determined based on the total output value of the touch sensors S20 to S29 and the center of gravity of the lip L. An example of a method of doing will be described.

図6(a)は、マウスピース10を引っ張りながらリップLの下唇を離す動作を開始した場合のリード11上の位置「P1」から「P10」毎のセンサ値(センサ情報)、センサ値合計(センサ情報の値の合計値)、及び重心値における、時刻t1からt5までの時間推移の一例を示す表である。図6(b)は、リップLの下唇をマウスピース10から垂直に離す動作を開始した場合の、図6(a)と同様の表である。 FIG. 6A shows a total of sensor values (sensor information) from position “P1” to position “P10” on the lead 11 when the lower lip of the lip L is released while pulling the mouthpiece 10. 9 is a table showing an example of a time transition from a time t1 to a time t5 in (total value of sensor information values) and a centroid value. FIG. 6B is the same table as FIG. 6A when the operation of vertically separating the lower lip of the lip L from the mouthpiece 10 is started.

ここで、センサ値は0から255までの整数であり、したがって、10個のセンサ値の合計は0から2550までの値を取る。また、重心値は、上述したように0から127までの整数で表現されている。また、本実施形態では、図6(a)における時刻t4、及び図6(b)における時刻t3におけるセンサ値及びセンサ値合計は小さな値であり、このような値から算出された重心値は、実態を正確に表していないおそれがあるため、図6(a)及び(b)ではノイズとして処理されている。 Here, the sensor value is an integer from 0 to 255, and therefore the total of 10 sensor values takes a value from 0 to 2550. The center-of-gravity value is represented by an integer of 0 to 127 as described above. Further, in the present embodiment, the sensor value and the total sensor value at time t4 in FIG. 6A and time t3 in FIG. 6B are small values, and the centroid value calculated from such values is Since the actual situation may not be represented accurately, it is processed as noise in FIGS. 6A and 6B.

図6(a)と図6(b)に共通する傾向は、位置毎のセンサ値及びセンサ値合計が時間の経過とともに減少していることである。この傾向を検出することで、リップLをマウスピース10から離す動作を開始したことを判定することができる。 The tendency common to FIGS. 6A and 6B is that the sensor value for each position and the total sensor value decrease with the passage of time. By detecting this tendency, it is possible to determine that the operation of separating the lip L from the mouthpiece 10 has started.

他方、図6(b)では、センサ値のピークは各時刻においてほぼ位置P7に保持されているのに対して、図6(a)では、センサ値のピークは、時刻t1では位置P7、時刻t2では位置P6、時刻t3では位置P5のように遷移している。同様に、図6(b)では、重心値は、時刻t1において「74」、時刻t2において「73」のように実質的に変動しないのに対して、図6(a)では、重心値は、時刻t1において「74」、時刻t2において「69」、時刻t3において「59」のように、リード11のティップ側の方に移動している。このような重心値の変化の相違があることは、リップLの2種類の離し方の動作を区別するうえで有効であると考えられる。以下、図7及び図8で図解する。 On the other hand, in FIG. 6B, the peak of the sensor value is held at the position P7 at each time, whereas in FIG. 6A, the peak of the sensor value is at the position P7 at the time t1. A transition is made to the position P6 at t2 and the position P5 at time t3. Similarly, in FIG. 6B, the centroid value does not substantially change from “74” at time t1 to “73” at time t2, while in FIG. 6A, the centroid value does not change. , 74 at the time t1, “69” at the time t2, and “59” at the time t3, the lead 11 is moved toward the tip side. It is considered that such a difference in the change of the center-of-gravity value is effective in distinguishing the two types of operations for separating the lip L. This will be illustrated below with reference to FIGS. 7 and 8.

図7(a)は、図6(a)における位置「P1」から「P10」毎のセンサ値の時間推移を示すグラフであり、図7(b)は、図6(b)における位置「P1」から「P10」毎のセンサ値の時間推移を示すグラフである。位置Pを横軸に、センサ値を縦軸に取って、時刻t1からt4(又はt3)までの位置毎のセンサ値を比較している。これらグラフからも、リップLの離し方の動作の違いによる、センサ値の減少量及びピーク位置の違いが把握される。 FIG. 7A is a graph showing the time transition of the sensor value for each of the positions "P1" to "P10" in FIG. 6A, and FIG. 7B is the position "P1" in FIG. 6B. Is a graph showing the time transition of the sensor value for each of "P10". The position P is plotted on the horizontal axis and the sensor value is plotted on the vertical axis, and the sensor values for each position from time t1 to t4 (or t3) are compared. From these graphs as well, it is possible to understand the difference in the sensor value decrease amount and the peak position due to the difference in the operation of separating the lip L.

図8(a)は、図6(a)における重心値とセンサ値合計との関係を示すグラフであり、図8(b)は、図6(b)に対応する図8(a)と同様のグラフである。図8(a)及び(b)では、時刻tを横軸に、重心値及びセンサ値合計を第1及び第2の縦軸に取っている。 8A is a graph showing the relationship between the center of gravity value and the total sensor value in FIG. 6A, and FIG. 8B is the same as FIG. 8A corresponding to FIG. 6B. Is a graph of. In FIGS. 8A and 8B, the time t is plotted on the horizontal axis, and the center of gravity value and the total sensor value are plotted on the first and second vertical axes.

図8(a)において、時刻t1からt2の間、及び時刻t2からt3の間に、センサ値合計はそれぞれD11及びD12だけ減少している。また、図8(b)において、時刻t1からt2の間にセンサ値合計はD13だけ減少している。したがって、前回(例えば時刻t1)のセンサ値合計と今回(例えば時刻t2)のセンサ値合計との間の減少量を検出することで、演奏者PがリップLの下唇をマウスピース10から離す動作を開始した第1のタイミングであることを把握することができる。本実施形態では、処理部として機能するCPU5は、前回のセンサ値合計と今回のセンサ値合計との間の減少量が所定量(閾値)以上であると、リップLの下唇がリード11から離れ始める第1のタイミングであると判定するようになっている。 In FIG. 8A, the total sensor value decreases by D11 and D12 between time t1 and t2 and between time t2 and t3, respectively. In addition, in FIG. 8B, the total sensor value decreases by D13 between time t1 and time t2. Therefore, the player P separates the lower lip of the lip L from the mouthpiece 10 by detecting the amount of decrease between the previous sensor value total (for example, time t1) and the current sensor value total (for example, time t2). It can be understood that it is the first timing when the operation is started. In the present embodiment, the CPU 5 functioning as a processing unit causes the lower lip of the lip L to move from the lead 11 when the amount of decrease between the previous sensor value total and the current sensor value total is equal to or more than a predetermined amount (threshold value). It is determined that it is the first timing to start leaving.

図8(a)及び(b)では、重心値とセンサ値合計とは異なる種類のデータであり、両者の値を単純に比較することは意味がない。しかしながら、何らかの動作、例えば下唇をリードから離す動作を行った場合に、これら両者の変化の形態が同じ傾向にあるか否かを把握することは可能である。ただし、両者の値のスケールは一致していないため、このままでは両者の変化の形態が同じ傾向にあるか否を単純に判断することはできない。このため、本実施形態においては、少なくとも一方の値のスケールを他方の値のスケールに合わせるように補正することで、両者を対比可能としている。補正の手法は、例えば、所定の値の加減又は乗除である。本実施形態では、例えば、重心値を20倍するか、あるいは、センサ値合計を20分の1(20で除算する)にすることで、重心値とセンサ値合計との変化の形態が同じ傾向にあるか否かを比較可能にしている。なお、倍率は、上述した比較を容易にするように適宜設定されてよい。 In FIGS. 8A and 8B, the centroid value and the total sensor value are different types of data, and it is meaningless to simply compare the two values. However, it is possible to grasp whether or not the forms of change in the two tend to be the same when performing some action, for example, the action of separating the lower lip from the lead. However, since the scales of the two values do not match, it is not possible to simply judge whether or not the forms of change of both have the same tendency as it is. Therefore, in the present embodiment, the two values can be compared by correcting the scale of at least one value so as to match the scale of the other value. The correction method is, for example, addition or subtraction or multiplication or division of a predetermined value. In the present embodiment, for example, the centroid value is multiplied by 20 or the total sensor value is set to 1/20 (divided by 20), so that the form of change between the centroid value and the total sensor value tends to be the same. It is possible to compare whether or not there is. The magnification may be set as appropriate so as to facilitate the comparison described above.

そこで、時刻ごとに補正後の重心値とセンサ値合計とを比較すると、図8(a)では、時刻t2においてD21の差があり、時刻t3においてはD22の差がある。同様に、図8(b)では、時刻t2においてD23の差がある。また、D23>D21,D22であるから、補正後の重心値とセンサ値合計との差を時刻ごとに判定することで、2種類のリップLの下唇の離し方の動作の形態を区別することができる。つまり、かかる差が所定の閾値より小さいと、マウスピース10を引っ張りながらリップLの下唇を離す動作を開始した第1の形態と判定し、また、かかる差が閾値より大きいと、リップLの下唇をマウスピース10から垂直に離す動作を開始したと判別すればよい。 Therefore, comparing the corrected center-of-gravity value and the total sensor value for each time, there is a difference of D21 at time t2 and a difference of D22 at time t3 in FIG. 8A. Similarly, in FIG. 8B, there is a difference of D23 at time t2. Since D23>D21 and D22, the difference between the corrected center-of-gravity value and the total sensor value is determined at each time to distinguish the two types of movements of the lower lip of the lip L from each other. be able to. That is, when the difference is smaller than the predetermined threshold value, it is determined that the first form in which the operation of pulling the mouthpiece 10 to release the lower lip of the lip L is started. It may be determined that the operation of vertically separating the lower lip from the mouthpiece 10 has started.

[電子楽器の動作]
図9及び図10を参照して、上述した構成を有する電子楽器100の動作を説明する。図9は、メインルーチンを示すフローチャートである。図10は、下唇位置/舌検出部の処理の流れを示すフローチャートである。
[Operation of electronic musical instrument]
The operation of the electronic musical instrument 100 having the above-described configuration will be described with reference to FIGS. 9 and 10. FIG. 9 is a flowchart showing the main routine. FIG. 10 is a flowchart showing the flow of processing of the lower lip position/tongue detection unit.

(メインルーチン)
図9を参照して、電子楽器100の主たる動作、ないし電子楽器100の制御手法を説明する。
(Main routine)
The main operation of the electronic musical instrument 100 or the control method of the electronic musical instrument 100 will be described with reference to FIG. 9.

電源が入ると、ステップST11においてイニシャライズ処理が行われる。かかる処理は、例えば各種設定の初期化である。 When the power is turned on, initialization processing is performed in step ST11. Such processing is, for example, initialization of various settings.

次いで、ステップST12において、リップ検出部3及びタン検出部4の処理が行われる。このステップは、上述したリップL及びタンのリード11への接触状態に応じた処理であり、追って図10との関係で詳しく述べる。 Next, in step ST12, the processes of the lip detector 3 and the tongue detector 4 are performed. This step is a process corresponding to the contact state of the lip L and the tongue with the lead 11 described above, and will be described later in detail in relation to FIG.

そして、ステップST13において、息圧検出部2の処理が行われる。かかるステップは、上述した息吹込みによる息圧の検出処理である。 Then, in step ST13, the processing of the breath pressure detection unit 2 is performed. This step is the above-described breath pressure detection processing by breath blowing.

次いで、ステップST14において、キースイッチ処理が行われる。キースイッチ処理では、CPU5は、操作子1の操作情報に応じた楽音の音高を表わすキーコードを発生させ、音源部8に供給する。 Next, in step ST14, a key switch process is performed. In the key switch process, the CPU 5 generates a key code representing the pitch of a musical tone according to the operation information of the operator 1, and supplies the key code to the tone generator section 8.

そして、ステップST15において、発音処理が行われる。かかる処理では、音源部8は、受信したキーコード等に基づいてサウンドシステム9を動作させる。 Then, in step ST15, sound generation processing is performed. In such processing, the sound source unit 8 operates the sound system 9 based on the received key code or the like.

ステップST15の後、ステップST16において、その他必要な処理が行われ、一通りの処理手順が終了し、再び、上述したステップST12からST16が繰り返される。 After step ST15, in step ST16, other necessary processing is performed, and the one processing procedure is completed, and steps ST12 to ST16 described above are repeated again.

(下唇位置/舌検出部の処理)
図10を参照して、上記ステップST12における下唇位置/舌検出部の処理を詳述する。かかる処理は、制御手段としてのCPU5において行われる。
(Lower lip position/Processing of tongue detector)
The process of the lower lip position/tongue detection unit in step ST12 will be described in detail with reference to FIG. Such processing is performed by the CPU 5 as a control means.

まず、ステップST21において、タッチセンサS20〜S29のそれぞれのセンサ値(出力値)が取得される。 First, in step ST21, the sensor values (output values) of the touch sensors S20 to S29 are acquired.

次いで、ステップST22において、センサ値の合計が算出され、前回のセンサ値の合計と比較される。比較の結果、今回(第3のタイミング)のセンサ値合計が前回(第4のタイミング)のセンサ値合計から減少しており、かつ、減少量(例えば、図8(a)及び(b)のD11,D12,D13)が閾値th1より大きいと判定されると、リップLがリード11から離れる動作を開始した第1のタイミングと判断されて、手順はステップST23に進む。他方、今回のセンサ値合計が前回のセンサ値合計から増加ないし同一であったり、減少量が閾値th1以下であったりすると、処理はメインルーチンに戻る。 Next, in step ST22, the total of the sensor values is calculated and compared with the previous total of the sensor values. As a result of the comparison, the total sensor value at this time (third timing) has decreased from the total sensor value at the previous time (fourth timing), and the decrease amount (for example, in FIGS. 8A and 8B). If it is determined that (D11, D12, D13) is larger than the threshold value th1, it is determined that it is the first timing at which the lip L starts to move away from the lead 11, and the procedure proceeds to step ST23. On the other hand, if the current sensor value total increases or is the same as the previous sensor value total, or the amount of decrease is less than or equal to the threshold value th1, the process returns to the main routine.

ステップST23では、タッチセンサS20〜S29の各センサ値から算出したリップLのリード11上の重心値と、ステップST22において算出したセンサ値合計とについて、所定の補正、つまり両者の値のスケールを一致させる処理を施したうえで、両値の差を取る。 In step ST23, the center of gravity value on the lead 11 of the lip L calculated from the sensor values of the touch sensors S20 to S29 and the total sensor value calculated in step ST22 are subjected to predetermined correction, that is, the scales of the two values match. After performing the process, the difference between the two values is calculated.

そして、ステップST24において、かかる差(例えば、図8(a)及び(b)のD21,D22,D23)が閾値th2と比較される。比較の結果、当該差が閾値th2以下であると判定されると、処理はステップST25に進む。他方、当該差が閾値th2より大きいと判定されると、処理はステップST27に進む。 Then, in step ST24, the difference (for example, D21, D22, D23 in FIGS. 8A and 8B) is compared with the threshold th2. As a result of the comparison, if it is determined that the difference is less than or equal to the threshold value th2, the process proceeds to step ST25. On the other hand, if it is determined that the difference is larger than the threshold th2, the process proceeds to step ST27.

ステップST25では、マウスピース10を引っ張りながらリップLの下唇を離す動作を開始した第1の形態を示すフラグ(例えば「0」)をROM6に記録する。CPU5は、上述したステップST14又はST15において上記フラグをチェックし、このフラグが「0」が入力されていると判断すると、例えばこの下唇がマウスピース10から徐々に離れるにあわせて発生している楽音の音量が徐々に低下するような処理を行う。 In step ST25, a flag (for example, "0") indicating the first mode in which the operation of pulling the mouthpiece 10 to release the lower lip of the lip L is started is recorded in the ROM 6. When the CPU 5 checks the flag in step ST14 or ST15 described above and determines that "0" is input to this flag, for example, this lower lip is generated as it gradually separates from the mouthpiece 10. Processing is performed so that the volume of the musical sound gradually decreases.

そして、ステップST26において、リップ・ポジションつまりリップLのリード11上の重心値を今回の値に固定する。このようなリップ・ポジションの固定は、リップLの下唇が一度リード11から離れた後、リード11に再び接触したと判定されるまで維持される。つまり、リップLがリード11から離れる動作を開始した第1のタイミングから、少なくともリップLがリード11から離れる動作を完了する第2のタイミングまでの間、第1のタイミングでのリード11に対するリップLの接触位置を、実際のリップLの接触位置として設定(固定)する。かかる処理により、マウスピース10を引っ張りながらリップLの下唇を離す動作を行ったとしても、発生中の楽音に対して、演奏者Pの意図しないエフェクトの変化が生じることを抑止することが可能となる。 Then, in step ST26, the lip position, that is, the center of gravity value of the lip L on the lead 11 is fixed to the current value. Such fixing of the lip position is maintained until it is determined that the lower lip of the lip L once separates from the lead 11 and then contacts the lead 11 again. That is, from the first timing when the lip L starts the operation of separating from the lead 11 to at least the second timing when the operation of the lip L separating from the lead 11 is completed, the lip L with respect to the lead 11 at the first timing. The contact position of is set (fixed) as the actual contact position of the lip L. By such a process, even if the lower lip of the lip L is released while pulling the mouthpiece 10, it is possible to prevent the player P from changing the effect that the player P does not intend to generate. Becomes

なお、ここで言う「リップLの下唇がリード11に再び接触したと判定されるまで」とは、物理的に下唇がリード11から離れて、再度、接触することを意味するものではなく、あくまでも、タッチセンサS20〜S29からの出力に基づいて、例えば、前回のセンサ値合計と比較して、今回のセンサ値合計がある程度以上増加しているという状態によって判断される。 The term "until it is determined that the lower lip of the lip L has come into contact with the lead 11 again" does not mean that the lower lip physically separates from the lead 11 and comes into contact again. The determination is made based on the outputs from the touch sensors S20 to S29, for example, based on the state that the current sensor value total has increased to some extent or more as compared with the previous sensor value total.

他方、ステップST27では、リップLの下唇をマウスピース10から垂直に離す動作を開始したことを示すフラグ(例えば「1」)をROM6に記録する。CPU5は、上述したステップST14又はST15において上記フラグをチェックし、「1」が入力されていると判断すると、下唇をマウスピース10から垂直に離すタイミングに合わせて発音している楽音の音量を急激に低下させる処理を行う。 On the other hand, in step ST27, a flag (for example, “1”) indicating that the operation of vertically separating the lower lip of the lip L from the mouthpiece 10 is recorded in the ROM 6. When the CPU 5 checks the flag in step ST14 or ST15 described above and determines that "1" is input, the CPU 5 sets the volume of the musical sound being produced in synchronization with the timing of vertically separating the lower lip from the mouthpiece 10. Perform a process of sharply lowering.

このようにして一連の手順が終了すると、処理はメインルーチンに戻る。なお、リップLをリード11から離す際に発生するエフェクトを意図的に利用する演奏者Pのために、上述した重心値とセンサ値合計との関係に応じた処理を行わないようにする設定を設けてもよい。 When the series of procedures is completed in this way, the process returns to the main routine. For the performer P who intentionally uses the effect generated when the lip L is separated from the lead 11, the setting that does not perform the processing according to the relationship between the center of gravity value and the total sensor value is performed. It may be provided.

このように、本実施形態では、マウスピース10を引っ張りながらリップLの下唇を離す動作を開始したことを検出すると、リップ・ポジションを固定する。したがって、かかる下唇の動きによって生じ得る、演奏者Pの意図しないエフェクト(例えばエコーやワウワウエフェクト等)の変化を防止することができる。 As described above, in this embodiment, when it is detected that the operation of pulling the mouthpiece 10 to release the lower lip of the lip L is started, the lip position is fixed. Therefore, it is possible to prevent a change in an effect (for example, an echo or a wah-wah effect) that the player P does not intend due to the movement of the lower lip.

以上、具体的な実施形態に基づいて本発明の電子楽器について説明してきたが、本発明は、上記の具体的な実施形態に限定されるものではない。
上記では、今回(第3のタイミング)と前回(第4のタイミング)との間の重心位置及びセンサ情報の値の合計値を用いて重心位置(重心値)と合計値との間の差の変化として、その変化が小さいという第1の条件を満たす場合に、マウスピース10を引っ張りながらリップLの下唇を離す動作を開始した第1の形態であると判定していた。
The electronic musical instrument of the present invention has been described above based on the specific embodiments, but the present invention is not limited to the above specific embodiments.
In the above description, the total value of the barycentric position and the sensor information value between the current time (third timing) and the previous time (fourth timing) is used to calculate the difference between the barycentric position (barycentric value) and the total value. As the change, when the first condition that the change is small is satisfied, it is determined that the first form is the operation of releasing the lower lip of the lip L while pulling the mouthpiece 10.

しかし、図8(a)及び(b)を見比べるとわかるように、マウスピース10を引っ張りながらリップLの下唇を離す動作を開始する場合(図8(a)参照)と、そうでない場合(図8(b)参照)では、重心位置(重心値)の変化が小さいか否かという違いとともに、センサ情報の値の合計値(センサ値合計)の変化が小さいか否かという違いがある。 However, as can be seen by comparing FIGS. 8A and 8B, when the operation of pulling the mouthpiece 10 to release the lower lip of the lip L is started (see FIG. 8A) and when it is not (see FIG. 8A). In FIG. 8B, there is a difference in whether or not the change in the position of the center of gravity (value of the center of gravity) is small, and a difference in whether or not the change in the total value of the sensor information (total sensor value) is small.

つまり、マウスピース10を引っ張りながらリップLの下唇を離す動作を開始する場合(図8(a)参照)には、今回(第3のタイミング)と前回(第4のタイミング)との間の重心位置の変化が小さく、且つ、センサ情報の値の合計値の変化も小さいという傾向があるため、これら重心位置の変化及びセンサ情報の値の合計値の変化の双方が小さいという第1の条件を満たす場合に、マウスピース10を引っ張りながらリップLの下唇を離す動作を開始した第1の形態であると判定してもよい。 That is, in the case of starting the operation of releasing the lower lip of the lip L while pulling the mouthpiece 10 (see FIG. 8A), between the current time (third timing) and the previous time (fourth timing). The first condition that both the change in the center of gravity position and the change in the total value of the sensor information are small because the change in the center of gravity position and the change in the total value of the sensor information tend to be small. If the condition is satisfied, it may be determined to be the first mode in which the operation of pulling the mouthpiece 10 to release the lower lip of the lip L is started.

したがって、第3のタイミングにて決定された重心位置及びセンサ情報の値の合計値と第4のタイミングで決定された重心位置及びセンサ情報の値の合計値との間の変化の形態が第1の条件を満たす場合、マウスピース10を引っ張りながらリップLの下唇を離す動作を開始した第1の形態であると判断するようにすればよい。 Therefore, the form of change between the total value of the barycentric position and the value of the sensor information determined at the third timing and the total value of the barycentric position and the value of the sensor information determined at the fourth timing is the first. If the condition (1) is satisfied, it may be determined that the first form has started the operation of pulling the mouthpiece 10 and releasing the lower lip of the lip L.

このように、本発明は、具体的な実施形態に限定されるものではなく、本発明の技術的範囲には、本発明の目的が達成される範囲での様々な変形や改良等が含まれるものであり、そのことは当業者にとって特許請求の範囲の記載から明らかである。 As described above, the present invention is not limited to the specific embodiments, and the technical scope of the present invention includes various modifications and improvements as long as the object of the present invention is achieved. It is obvious to those skilled in the art from the description of the claims.

以下に、この出願の願書に最初に添付した特許請求の範囲に記載した発明を付記する。付記に記載した請求項の項番は、この出願の願書に最初に添付した特許請求の範囲の通りである。
<請求項1>
リード上におけるリップの接触状態を検知するリップ検出センサからのセンサ情報に基づいて、前記リップの前記リード上における接触位置を決定する位置決定処理と、
前記位置決定処理にて決定された前記接触位置に対応して音源部で生成される楽音を制御する楽音制御処理と、
前記センサ情報に基づいて、前記リップが前記リード上から離れる動作を開始したことを検知する検知処理と、
前記センサ情報に基づいて、前記リップの離れる形態が第1の形態であると判断された場合、第1のタイミングから、少なくとも前記リップが前記リードから離れる動作を完了した第2のタイミングまでの間、前記第1のタイミングでの前記接触位置を、実際の前記リップの接触位置として設定する処理と、
を実行する処理部を有することを特徴とする楽音制御装置。
<請求項2>
前記処理部は、前記リップが前記リードから離れる動作を開始したと判断したタイミングを前記第1のタイミングとして判断し、前記リップが前記リードから離れる動作を完了したと判断したタイミングを前記第2のタイミングとして判断し、
前記第1のタイミングから、少なくとも前記第2のタイミングまでの間、前記第1のタイミングでの前記接触位置を、前記実際の前記リップの接触位置として設定することを特徴とする請求項1に記載の楽音制御装置。
<請求項3>
前記リップ検出センサは複数のセンシング部を備え、前記センサ情報は、前記複数のセンシング部夫々から得られるセンサ情報であることを特徴とする請求項1又は2に記載の楽音制御装置。
<請求項4>
前記検知処理は、第3のタイミングにて取得された前記センシング部夫々の前記センサ情報の値の合計値が、前記第3のタイミングの前のタイミングである第4のタイミングで取得された前記センシング部夫々の前記センサ情報の値の合計値より、第1の値未満であることを検知した場合、前記リップが前記リード上から離れる動作の開始を検知することを特徴とする請求項3に記載の楽音制御装置。
<請求項5>
前記センシング部夫々から得られる前記センサ情報の値から前記リード上での前記リップの重心位置を求め、
前記第3のタイミングにて決定された前記重心位置及び前記センサ情報の値の合計値と前記第4のタイミングで決定された前記重心位置及び前記センサ情報の値の合計値との間の変化の形態が第1の条件を満たす場合、前記第1の形態であると判断することを特徴とする請求項4に記載の楽音制御装置。
<請求項6>
前記位置決定処理は、前記リード上における前記リップの接触面積の重心位置を、前記接触位置とすることを特徴とする請求項1乃至5のいずれかに記載の楽音制御装置。
<請求項7>
音高を決めるために操作される複数のキーと、
リップの接触状態を検知するリップ検出センサを備えるリードと、
楽音を生成する音源部と、
請求項1乃至6のいずれかに記載の楽音制御装置と、
を備えることを特徴とする電子楽器。
<請求項8>
楽音制御装置の制御方法であって、
リード上におけるリップの接触状態を検知するリップ検出センサからのセンサ情報に基づいて、前記リップの前記リード上における接触位置を決定するステップと、
前記決定された前記接触位置に対応して音源部で生成される楽音を制御するステップと、
前記センサ情報に基づいて、前記リップが前記リード上から離れる動作を開始したことを検知するステップと、
前記センサ情報に基づいて、前記リップの離れる形態が第1の形態であると判断された場合、第1のタイミングから、少なくとも前記リップが前記リードから離れる動作を完了した第2のタイミングまでの間、前記第1のタイミングでの前記接触位置を、実際の前記リップの接触位置として設定するステップと、
を含むことを特徴とする楽音制御装置の制御方法。
<請求項9>
楽音制御装置の処理部に、
リード上におけるリップの接触状態を検知するリップ検出センサからのセンサ情報に基づいて、前記リップの前記リード上における接触位置を決定する位置決定処理と、
前記位置決定処理にて決定された前記接触位置に対応して音源部で生成される楽音を制御する楽音制御処理と、
前記センサ情報に基づいて、前記リップが前記リード上から離れる動作を開始したことを検知する検知処理と、
前記センサ情報に基づいて、前記リップの離れる形態が第1の形態であると判断された場合、第1のタイミングから、少なくとも前記リップが前記リードから離れる動作を完了した第2のタイミングまでの間、前記第1のタイミングでの前記接触位置を、実際の前記リップの接触位置として設定する処理と、
を実現することを特徴とする楽音制御装置のプログラム。
Hereinafter, the inventions described in the claims attached to the application of this application will be additionally described. The claim numbers described in the appendices are as set forth in the claims attached first to the application for this application.
<Claim 1>
Position determination processing for determining the contact position of the lip on the lead, based on sensor information from a lip detection sensor that detects the contact state of the lip on the lead,
A tone control process of controlling a tone generated by the sound source unit corresponding to the contact position determined by the position determination process,
A detection process of detecting that the lip has started an operation of separating from the lead based on the sensor information;
When it is determined that the lip separation form is the first form based on the sensor information, from the first timing to at least the second timing at which the lip completes the operation of separating the lip from the lead. , A process of setting the contact position at the first timing as an actual contact position of the lip,
A musical sound control apparatus having a processing unit for executing the following.
<Claim 2>
The processing unit determines, as the first timing, a timing at which it is determined that the lip has started the operation of moving away from the lead, and a timing at which it is determined that the lip has completed the operation of moving away from the lead. Judge as timing,
The contact position at the first timing is set as the actual contact position of the lip from the first timing to at least the second timing. Tone control device.
<Claim 3>
The musical tone control device according to claim 1, wherein the lip detection sensor includes a plurality of sensing units, and the sensor information is sensor information obtained from each of the plurality of sensing units.
<Claim 4>
In the detection processing, the total value of the values of the sensor information of each of the sensing units acquired at the third timing is acquired at the fourth timing, which is the timing before the third timing. The start of the operation|movement which the said lip|rip leaves|separates from the said lead is detected, when it is detected that it is less than a 1st value from the total value of the said sensor information value of each part. Tone control device.
<Claim 5>
Obtaining the barycentric position of the lip on the lead from the value of the sensor information obtained from each of the sensing units,
A change between the total value of the barycentric position and the value of the sensor information determined at the third timing and the total value of the barycentric position and the value of the sensor information determined at the fourth timing. The musical tone control apparatus according to claim 4, wherein when the form satisfies the first condition, it is determined that the form is the first form.
<Claim 6>
6. The musical tone control apparatus according to claim 1, wherein the position determining process sets a center of gravity of a contact area of the lip on the lead as the contact position.
<Claim 7>
Multiple keys operated to determine the pitch,
A lead having a lip detection sensor for detecting the contact state of the lip,
A sound source section that generates musical sounds,
A musical sound control device according to any one of claims 1 to 6,
An electronic musical instrument comprising:
<Claim 8>
A control method for a musical tone control device, comprising:
Determining a contact position of the lip on the lead based on sensor information from a lip detection sensor that detects a contact state of the lip on the lead;
Controlling the musical sound generated by the sound source unit corresponding to the determined contact position;
Detecting that the lip has begun to move away from the lead based on the sensor information;
When it is determined that the lip separation form is the first form based on the sensor information, from the first timing to at least the second timing when the lip completes the operation of separating from the lead. , Setting the contact position at the first timing as an actual contact position of the lip,
A method of controlling a musical sound control device, comprising:
<Claim 9>
In the processing unit of the tone control device,
Position determination processing for determining the contact position of the lip on the lead, based on sensor information from a lip detection sensor that detects the contact state of the lip on the lead,
A tone control process of controlling a tone generated by the sound source unit corresponding to the contact position determined by the position determination process,
A detection process of detecting that the lip has started an operation of separating from the lead based on the sensor information;
When it is determined that the lip separation form is the first form based on the sensor information, from the first timing to at least the second timing when the lip completes the operation of separating from the lead. , A process of setting the contact position at the first timing as an actual contact position of the lip,
A program for a musical sound control device, which realizes

100 電子楽器
100a 管体部
1 操作子
2 息圧検出部
3 リップ検出部
4 タン検出部
5 CPU
6 ROM
7 RAM
8 音源部
9 サウンドシステム
9a バス
10 マウスピース
10a マウスピース本体部
11 リード
12 固定金具
13 開口部
40,30〜39 電極部
E1 上側前歯
E2 下側前歯
L リップ
P 演奏者
S10,S20〜S29 タッチセンサ
100 electronic musical instrument 100a tube part 1 operator 2 breath pressure detecting part 3 lip detecting part 4 tongue detecting part 5 CPU
6 ROM
7 RAM
8 Sound Source Section 9 Sound System 9a Bass 10 Mouthpiece 10a Mouthpiece Body 11 Lead 12 Fixing Metal 13 Openings 40, 30-39 Electrode E1 Upper Front Teeth E2 Lower Front Teeth L Lip P Performer S10, S20-S29 Touch Sensor

Claims (9)

リード上におけるリップの接触状態を検知するリップ検出センサからのセンサ情報に基づいて、前記リップの前記リード上における接触位置を決定する位置決定処理と、
前記位置決定処理にて決定された前記接触位置に対応して音源部で生成される楽音を制御する楽音制御処理と、
前記センサ情報に基づいて、前記リップが前記リード上から離れる動作を開始したことを検知する検知処理と、
前記センサ情報に基づいて、前記リップの離れる形態が第1の形態であると判断された場合、第1のタイミングから、少なくとも前記リップが前記リードから離れる動作を完了した第2のタイミングまでの間、前記第1のタイミングでの前記接触位置を、実際の前記リップの接触位置として設定する処理と、
を実行する処理部を有することを特徴とする楽音制御装置。
Position determination processing for determining the contact position of the lip on the lead, based on sensor information from a lip detection sensor that detects the contact state of the lip on the lead,
A tone control process of controlling a tone generated by the sound source unit corresponding to the contact position determined by the position determination process,
A detection process of detecting that the lip has started an operation of separating from the lead based on the sensor information;
When it is determined that the lip separation form is the first form based on the sensor information, from the first timing to at least the second timing at which the lip completes the operation of separating the lip from the lead. , A process of setting the contact position at the first timing as an actual contact position of the lip,
A musical sound control apparatus having a processing unit for executing the following.
前記処理部は、前記リップが前記リードから離れる動作を開始したと判断したタイミングを前記第1のタイミングとして判断し、前記リップが前記リードから離れる動作を完了したと判断したタイミングを前記第2のタイミングとして判断し、
前記第1のタイミングから、少なくとも前記第2のタイミングまでの間、前記第1のタイミングでの前記接触位置を、前記実際の前記リップの接触位置として設定することを特徴とする請求項1に記載の楽音制御装置。
The processing unit determines, as the first timing, a timing at which it is determined that the lip has started the operation of moving away from the lead, and a timing at which it is determined that the lip has completed the operation of moving away from the lead. Judge as timing,
2. The contact position at the first timing is set as the actual contact position of the lip from the first timing to at least the second timing. Tone control device.
前記リップ検出センサは複数のセンシング部を備え、前記センサ情報は、前記複数のセンシング部夫々から得られるセンサ情報であることを特徴とする請求項1又は2に記載の楽音制御装置。 The musical tone control device according to claim 1, wherein the lip detection sensor includes a plurality of sensing units, and the sensor information is sensor information obtained from each of the plurality of sensing units. 前記検知処理は、第3のタイミングにて取得された前記センシング部夫々の前記センサ情報の値の合計値の、前記第3のタイミングの前のタイミングである第4のタイミングで取得された前記センシング部夫々の前記センサ情報の値の合計値に対する減少量が、第1の値より大きいことを検知した場合、前記リップが前記リード上から離れる動作を開始したと判断することを特徴とする請求項3に記載の楽音制御装置。 In the detection process, the sensing obtained at a fourth timing, which is a timing before the third timing , of the total value of the values of the sensor information of each of the sensing units obtained at the third timing. The lip is determined to have started an operation of separating from the lead when it is detected that the amount of decrease of the total value of the sensor information of each part is larger than a first value. The musical sound control device described in 3. 前記センシング部夫々から得られる前記センサ情報の値から前記リード上での前記リップの重心位置を求め、
前記第3のタイミングにて決定された前記重心位置及び前記センサ情報の値の合計値と前記第4のタイミングで決定された前記重心位置及び前記センサ情報の値の合計値との間の変化の形態が第1の条件を満たす場合、前記第1の形態であると判断することを特徴とする請求項4に記載の楽音制御装置。
Obtaining the barycentric position of the lip on the lead from the value of the sensor information obtained from each of the sensing units,
A change between the total value of the barycentric position and the value of the sensor information determined at the third timing and the total value of the barycentric position and the value of the sensor information determined at the fourth timing. The musical tone control apparatus according to claim 4, wherein when the form satisfies the first condition, it is determined that the form is the first form.
前記位置決定処理は、前記リード上における前記リップの接触面積の重心位置を、前記接触位置とすることを特徴とする請求項1乃至5のいずれかに記載の楽音制御装置。 6. The musical tone control apparatus according to claim 1, wherein the position determining process sets a center of gravity of a contact area of the lip on the lead as the contact position. 音高を決めるために操作される複数のキーと、
リップの接触状態を検知するリップ検出センサを備えるリードと、
楽音を生成する音源部と、
請求項1乃至6のいずれかに記載の楽音制御装置と、
を備えることを特徴とする電子楽器。
Multiple keys operated to determine the pitch,
A lead having a lip detection sensor for detecting the contact state of the lip,
A sound source section that generates musical sounds,
A musical sound control device according to any one of claims 1 to 6,
An electronic musical instrument comprising:
楽音制御装置の制御方法であって、
リード上におけるリップの接触状態を検知するリップ検出センサからのセンサ情報に基づいて、前記リップの前記リード上における接触位置を決定するステップと、
前記決定された前記接触位置に対応して音源部で生成される楽音を制御するステップと、
前記センサ情報に基づいて、前記リップが前記リード上から離れる動作を開始したことを検知するステップと、
前記センサ情報に基づいて、前記リップの離れる形態が第1の形態であると判断された場合、第1のタイミングから、少なくとも前記リップが前記リードから離れる動作を完了した第2のタイミングまでの間、前記第1のタイミングでの前記接触位置を、実際の前記リップの接触位置として設定するステップと、
を含むことを特徴とする楽音制御装置の制御方法。
A control method for a musical tone control device, comprising:
Determining a contact position of the lip on the lead based on sensor information from a lip detection sensor that detects a contact state of the lip on the lead;
Controlling the musical sound generated by the sound source unit corresponding to the determined contact position;
Detecting, based on the sensor information, that the lip has begun to move away from the lead.
When it is determined that the lip separation form is the first form based on the sensor information, from the first timing to at least the second timing at which the lip completes the operation of separating the lip from the lead. , Setting the contact position at the first timing as an actual contact position of the lip,
A method of controlling a musical sound control device, comprising:
楽音制御装置の処理部に、
リード上におけるリップの接触状態を検知するリップ検出センサからのセンサ情報に基づいて、前記リップの前記リード上における接触位置を決定する位置決定処理と、
前記位置決定処理にて決定された前記接触位置に対応して音源部で生成される楽音を制御する楽音制御処理と、
前記センサ情報に基づいて、前記リップが前記リード上から離れる動作を開始したことを検知する検知処理と、
前記センサ情報に基づいて、前記リップの離れる形態が第1の形態であると判断された場合、第1のタイミングから、少なくとも前記リップが前記リードから離れる動作を完了した第2のタイミングまでの間、前記第1のタイミングでの前記接触位置を、実際の前記リップの接触位置として設定する処理と、
を実現することを特徴とする楽音制御装置のプログラム。
In the processing unit of the tone control device,
Position determination processing for determining the contact position of the lip on the lead, based on sensor information from a lip detection sensor that detects the contact state of the lip on the lead,
A tone control process of controlling a tone generated by the sound source unit corresponding to the contact position determined by the position determination process,
A detection process of detecting that the lip has started an operation of separating from the lead based on the sensor information;
When it is determined that the lip separation form is the first form based on the sensor information, from the first timing to at least the second timing at which the lip completes the operation of separating the lip from the lead. , A process of setting the contact position at the first timing as an actual contact position of the lip,
A program for a musical sound control device, which realizes
JP2016061112A 2016-03-25 2016-03-25 Musical tone control device, electronic musical instrument, musical tone control device control method, and musical tone control device program Active JP6724465B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016061112A JP6724465B2 (en) 2016-03-25 2016-03-25 Musical tone control device, electronic musical instrument, musical tone control device control method, and musical tone control device program
JP2020107401A JP6923047B2 (en) 2016-03-25 2020-06-23 Musical tone control device, electronic musical instrument, control method of musical tone control device, and program of musical tone control device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016061112A JP6724465B2 (en) 2016-03-25 2016-03-25 Musical tone control device, electronic musical instrument, musical tone control device control method, and musical tone control device program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2020107401A Division JP6923047B2 (en) 2016-03-25 2020-06-23 Musical tone control device, electronic musical instrument, control method of musical tone control device, and program of musical tone control device

Publications (2)

Publication Number Publication Date
JP2017173651A JP2017173651A (en) 2017-09-28
JP6724465B2 true JP6724465B2 (en) 2020-07-15

Family

ID=59972002

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016061112A Active JP6724465B2 (en) 2016-03-25 2016-03-25 Musical tone control device, electronic musical instrument, musical tone control device control method, and musical tone control device program

Country Status (1)

Country Link
JP (1) JP6724465B2 (en)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05134665A (en) * 1992-02-03 1993-05-28 Casio Comput Co Ltd Electronic wind instrument
JPH0772853A (en) * 1993-06-29 1995-03-17 Yamaha Corp Electronic wind instrument
JP2000122641A (en) * 1998-10-21 2000-04-28 Casio Comput Co Ltd Electronic wind instrument
JP5803720B2 (en) * 2012-02-13 2015-11-04 ヤマハ株式会社 Electronic wind instrument, vibration control device and program

Also Published As

Publication number Publication date
JP2017173651A (en) 2017-09-28

Similar Documents

Publication Publication Date Title
JP6760222B2 (en) Detection device, electronic musical instrument, detection method and control program
US10347222B2 (en) Musical sound generation method for electronic wind instrument
US9299330B2 (en) Apparatus and method to enhance the expressive qualities of digital music
US9984669B2 (en) Reed for electronic musical instrument, and electronic musical instrument
JP2016177026A (en) Electronic musical instrument
EP3422341B1 (en) Electronic wind instrument, method of controlling the electronic wind instrument, and computer readable recording medium with a program for controlling the electronic wind instrument
EP3100258A1 (en) Apparatus and method to enhance expressive qualities of digital music
CN109215624B (en) Electronic wind instrument, method for controlling electronic wind instrument, and storage medium
JP6589413B2 (en) Lead member, mouthpiece and electronic wind instrument
JP6724465B2 (en) Musical tone control device, electronic musical instrument, musical tone control device control method, and musical tone control device program
JP7140083B2 (en) Electronic wind instrument, control method and program for electronic wind instrument
JP6923047B2 (en) Musical tone control device, electronic musical instrument, control method of musical tone control device, and program of musical tone control device
JP7008941B2 (en) Detection device, electronic musical instrument, detection method and control program
JP2022001950A (en) Parameter controller, electronic music instrument, parameter control method and control program
JP6786982B2 (en) An electronic musical instrument with a reed, how to control the electronic musical instrument, and a program for the electronic musical instrument.
JP6572916B2 (en) Pronunciation control device and method, program
JP2019008122A (en) Detector, electronic musical instrument, detection method and control program
JP7423952B2 (en) Detection device, electronic musical instrument, detection method and program
JP2018045108A (en) Electronic musical instrument, method of controlling the same, and program for the same
JP6710432B2 (en) Musical tone control device, electronic musical instrument, musical tone control method and program
JP2017173654A (en) Electronic breath instrument, key operation determination device, control method of electronic musical instrument, and program of electronic musical instrument
JP2022046211A (en) Electronic musical instrument, and control method and program for electronic musical instrument
KR101813557B1 (en) Apparatus and method to enhance expressive qualities of digital music
JP2022177297A (en) Electronic wind instrument, control method of electronic wind instrument, and program for electronic wind instrument
JP2017173417A (en) Automatic accompaniment device, automatic accompanying method, program and electronic wind instrument

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190312

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200218

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200409

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200526

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200608

R150 Certificate of patent or registration of utility model

Ref document number: 6724465

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150