JP6724465B2 - Musical tone control device, electronic musical instrument, musical tone control device control method, and musical tone control device program - Google Patents
Musical tone control device, electronic musical instrument, musical tone control device control method, and musical tone control device program Download PDFInfo
- Publication number
- JP6724465B2 JP6724465B2 JP2016061112A JP2016061112A JP6724465B2 JP 6724465 B2 JP6724465 B2 JP 6724465B2 JP 2016061112 A JP2016061112 A JP 2016061112A JP 2016061112 A JP2016061112 A JP 2016061112A JP 6724465 B2 JP6724465 B2 JP 6724465B2
- Authority
- JP
- Japan
- Prior art keywords
- lip
- timing
- lead
- sensor information
- control device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Electrophonic Musical Instruments (AREA)
Description
本発明は、楽音制御装置、電子楽器、楽音制御装置の制御方法、及び楽音制御装置のプログラムに関する。 The present invention relates to a musical tone control device, an electronic musical instrument, a control method for a musical tone control device, and a program for the musical tone control device.
管楽器の楽音を電子的に合成して出力する電子楽器では、感圧式のリップ検出部をリードに複数配置し、唇と舌との位置を検出して楽音制御することが知られている。この種の電子楽器では、楽音信号にエフェクトないし効果音を付与したうえで発音することができることが知られている(特許文献1参照)。 In an electronic musical instrument that electronically synthesizes and outputs a musical tone of a wind instrument, it is known that a plurality of pressure-sensitive lip detection units are arranged on a lead and the musical tone is controlled by detecting the positions of the lips and the tongue. It is known that an electronic musical instrument of this type can generate a sound after adding an effect or a sound effect to a musical tone signal (see Patent Document 1).
エフェクトの付与のさせ方は幾つか存在し、例えばリード上の下唇の位置(リップ・ポジション)に応じて付与されるエフェクトが変化することが知られており、演奏者は、リップ・ポジションを移動させることで付与されるエフェクトを変化させて、演奏に幅を持たせることができる。 There are several ways to apply an effect, for example, it is known that the effect applied changes according to the position of the lower lip on the reed (lip position). By moving it, you can change the effect that is added and give the performance a wider range.
ところで、演奏者が例えば発音を停止するために口をマウスピースから離す場合、下唇の動きには次の2種類が存在することが知られている。
(a)マウスピースを引っ張りながら下唇を離す。つまり、下唇が、リードの先端方向に移動しつつマウスピースから遠ざかる。
(b)下唇を垂直に離す。つまり、下唇がリードの先端方向に移動することなく、真下に離れるようにマウスピースから遠ざかる。
By the way, it is known that there are the following two types of movements of the lower lip when the player separates his mouth from the mouthpiece in order to stop the pronunciation.
(A) Release the lower lip while pulling on the mouthpiece. That is, the lower lip moves away from the mouthpiece while moving toward the tip of the lead.
(B) Vertically separate the lower lip. That is, the lower lip moves away from the mouthpiece so as to move directly below without moving toward the tip of the reed.
そして、演奏者は上記(a)の動作をすることが多い。この動作はリップ・ポジションの移動を伴うので、上述のように、リップ・ポジションに応じて音に付与されるエフェクトが変化するように構成されていると、上記(a)の動作は付与されるエフェクトに演奏者の意図しない変化を生じさせることになる。このようなエフェクトの発生は、演奏が弱い音又は減衰音で終了するときには影響が少なくあまり問題とならないが、演奏の最後に強い音又は持続音が発音される場合には、このエフェクトの変化が耳障りな音として大きく目立ってしまう。 Then, the performer often performs the operation (a). Since this operation is accompanied by the movement of the lip position, if the effect imparted to the sound is changed depending on the lip position as described above, the operation (a) is imparted. This will cause the effect to change without the player's intention. The occurrence of such an effect has little effect when the performance ends with a weak sound or a decaying sound, and is not a serious problem, but when a strong sound or a continuous sound is produced at the end of the performance, the effect changes. It is noticeable as an offensive sound.
本発明は、このような事情に鑑みなされたものであり、リップ・ポジションに応じて変化するエフェクトによって演奏者の意図しない耳障りな音が発生することを防止することのできる電子楽器、電子楽器の制御方法、及び電子楽器のプログラムを提供することを目的とする。 The present invention has been made in view of such circumstances, and provides an electronic musical instrument and an electronic musical instrument capable of preventing an offensive sound that is unintended by a performer from being generated by an effect that changes depending on a lip position. An object is to provide a control method and a program for an electronic musical instrument.
上記目的を達成するために、本発明は、以下の構成により把握される。
(1)本発明の楽音制御装置は、リード上におけるリップの接触状態を検知するリップ検出センサからのセンサ情報に基づいて、前記リップの前記リード上における接触位置を決定する位置決定処理と、前記位置決定処理にて決定された前記接触位置に対応して音源部で生成される楽音を制御する楽音制御処理と、前記センサ情報に基づいて、前記リップが前記リード上から離れる動作を開始したことを検知する検知処理と、前記センサ情報に基づいて、前記リップの離れる形態が第1の形態であると判断された場合、第1のタイミングから、少なくとも前記リップが前記リードから離れる動作を完了した第2のタイミングまでの間、前記第1のタイミングでの前記接触位置を、実際の前記リップの接触位置として設定する処理と、を実行する処理部を有する。
In order to achieve the above object, the present invention is understood by the following configurations.
(1) The tone control device of the present invention comprises a position determination process for determining a contact position of the lip on the lead based on sensor information from a lip detection sensor for detecting a contact state of the lip on the lead, Musical sound control processing for controlling the musical sound generated by the sound source unit corresponding to the contact position determined by the position determination processing, and the operation of the lip separating from the lead based on the sensor information. When it is determined that the lip separation form is the first form based on the detection processing for detecting the above and the sensor information, at least the operation of separating the lip from the lead is completed from the first timing. Until the second timing, it has a processing unit that executes a process of setting the contact position at the first timing as an actual contact position of the lip.
(2)本発明の電子楽器は、音高を決めるために操作される複数のキーと、リップの接触状態を検知するリップ検出センサを備えるリードと、楽音を生成する音源部と、上記(1)の構成を有する楽音制御装置と、を備える。 (2) An electronic musical instrument of the present invention has a plurality of keys operated to determine a pitch, a lead having a lip detection sensor that detects a contact state of a lip, a sound source section that generates a musical tone, and the above (1). And a musical sound control device having the above configuration.
(3)本発明の楽音制御装置の制御方法は、リード上におけるリップの接触状態を検知するリップ検出センサからのセンサ情報に基づいて、前記リップの前記リード上における接触位置を決定するステップと、前記決定された前記接触位置に対応して音源部で生成される楽音を制御するステップと、前記センサ情報に基づいて、前記リップが前記リード上から離れる動作を開始したことを検知するステップと、前記センサ情報に基づいて、前記リップの離れる形態が第1の形態であると判断された場合、第1のタイミングから、少なくとも前記リップが前記リードから離れる動作を完了した第2のタイミングまでの間、前記第1のタイミングでの前記接触位置を、実際の前記リップの接触位置として設定するステップと、を含む。 (3) The control method of the tone control device of the present invention comprises the step of determining the contact position of the lip on the lead based on sensor information from a lip detection sensor that detects the contact state of the lip on the lead, Controlling the musical sound generated by the sound source unit corresponding to the determined contact position, and detecting that the lip has begun to move away from the lead based on the sensor information, When it is determined that the lip separation form is the first form based on the sensor information, from the first timing to at least the second timing at which the lip completes the operation of separating the lip from the lead. And, setting the contact position at the first timing as an actual contact position of the lip.
(4)本発明の楽音制御装置のプログラムは、楽音制御装置の処理部に、リード上におけるリップの接触状態を検知するリップ検出センサからのセンサ情報に基づいて、前記リップの前記リード上における接触位置を決定する位置決定処理と、前記位置決定処理にて決定された前記接触位置に対応して音源部で生成される楽音を制御する楽音制御処理と、前記センサ情報に基づいて、前記リップが前記リード上から離れる動作を開始したことを検知する検知処理と、前記センサ情報に基づいて、前記リップの離れる形態が第1の形態であると判断された場合、第1のタイミングから、少なくとも前記リップが前記リードから離れる動作を完了した第2のタイミングまでの間、前記第1のタイミングでの前記接触位置を、実際の前記リップの接触位置として設定する処理と、を実現する。 (4) The program of the musical sound control device of the present invention causes the processing unit of the musical sound control device to contact the lip on the lead based on sensor information from a lip detection sensor that detects a contact state of the lip on the lead. A position determining process for determining a position, a tone control process for controlling a tone generated by a sound source unit corresponding to the contact position determined by the position determining process, and the lip based on the sensor information. When it is determined that the form where the lip separates is the first form based on the detection processing that detects that the operation of separating from the lead is started and the sensor information, at least the first timing from the first timing. And a process of setting the contact position at the first timing as an actual contact position of the lip until the second timing when the operation of separating the lip from the lead is completed.
本発明によれば、リードから下唇を離す動作を行ったときに、リップ・ポジションに応じて付与の形態が変化するエフェクトによって演奏者の意図しない音が発生することを防止することができる。 According to the present invention, it is possible to prevent a sound unintended by the performer from being generated by an effect in which the form of application changes depending on the lip position when the operation of separating the lower lip from the lead is performed.
以下、添付図面を参照して、本発明に係る実施形態を説明する。本実施形態に係る電子楽器は、リードを用いる木管楽器であるアコースティック管楽器の奏法(例えば、ピッチベンドやビブラート)に応じて演奏を表現する電子楽器である。ここでは、電子楽器がサクソフォンである例を説明する。もっとも、本発明はこれに限定されるものではなく、クラリネット等、他の管楽器を模した電子楽器に適用してもよい。なお、実施形態の説明の全体を通して同じ要素には同じ符号を付している。 Embodiments according to the present invention will be described below with reference to the accompanying drawings. The electronic musical instrument according to the present embodiment is an electronic musical instrument that expresses a performance in accordance with a performance style (for example, pitch bend or vibrato) of an acoustic wind musical instrument that is a woodwind musical instrument that uses reeds. Here, an example in which the electronic musical instrument is a saxophone will be described. However, the present invention is not limited to this, and may be applied to an electronic musical instrument imitating another wind instrument such as a clarinet. The same elements are denoted by the same reference symbols throughout the description of the embodiments.
[電子楽器の構成]
(電子楽器の基本構成)
図1を参照して、本実施形態に係る電子楽器の基本構成を説明する。図1(a)は電子楽器の平面図であり、図1(b)は電子楽器の側面図である。図1(a)、(b)に示すように、電子楽器100は、アコースティック管楽器であるサクソフォンを模した外形を有し、管体部100aと、操作子1と、サウンドシステム9と、マウスピース10と、を備える。
管体部100aは、サクソフォンの管体部を模した形状を有する本体の筐体部である。
[Structure of electronic musical instrument]
(Basic configuration of electronic musical instrument)
A basic configuration of the electronic musical instrument according to the present embodiment will be described with reference to FIG. 1A is a plan view of the electronic musical instrument, and FIG. 1B is a side view of the electronic musical instrument. As shown in FIGS. 1A and 1B, an electronic
The
操作子1は、管体部100a上に配置され、演奏者P(ユーザ)が指で操作する操作部である。操作子1は、音高を決定する演奏キー、楽曲のキーに合わせて音高を変える機能、音高の微調整を行う機能等を設定する設定キーを含み、演奏者Pからキー操作を受け付けて操作情報を後述のCPU5に出力する。
The
マウスピース10は、管体部100aに接続されるとともに、演奏者Pが口腔で操作する。マウスピース10には、追って詳述するように、リード11が取り付けられる。
The
サウンドシステム9は、スピーカ等を有し、楽音出力を行う。より具体的には、サウンドシステム9は、音源部8から入力された楽音信号に信号増幅等を施し、内蔵のスピーカから楽音として出力する。
The
また、図1(a)に一部透視部分として示すように、管体部100aに内蔵された基板上に、息圧検出部2、制御手段としてのCPU(Central Processing Unit)5、ROM(Read Only Memory)6、RAM(Random Access Memory)7、音源部8が設けられている。CPU5は、全体的な処理を行う部分であり、以下で説明される各種の動作(処理)を実行する楽音制御装置を構成し、その楽音制御装置の処理部として機能する。
Further, as shown as a partially transparent portion in FIG. 1A, a breath
息圧検出部2は、演奏者Pからマウスピース10に吹き込まれた息の圧力(息圧)を検出し、息圧情報をCPU5に出力するセンサである。音源部8は、楽音を生成する回路であり、音源部8の出力に応じてサウンドシステム9は動作する。CPU5、ROM6、RAM7については後述する。
The breath
(電子楽器の機能構成)
図2を参照して、電子楽器100の機能構成を説明する。図2は、電子楽器100の機能構成を示すブロック図である。図2に示すように、電子楽器100は、上述した操作子1と、上述した息圧検出部2と、リップ検出部3と、タン検出部4と、CPU5と、ROM6と、RAM7と、上述した音源部8と、上述したサウンドシステム9と、を備える。サウンドシステム9を除く電子楽器100の上記各部は、バス9aを介して互いに接続されている。
(Functional configuration of electronic musical instrument)
The functional configuration of the electronic
リップ検出部3(リップ検出センサ)は、リード11に設けられ、演奏者Pのリップ(下唇)Lの接触を検知する静電容量方式のタッチセンサである。リップ検出部3は、タッチセンサにおけるリップLの接触位置及びリップLの接触面積に応じた静電容量を、リップLの検出情報としてCPU5に出力する。リップLの検出情報がCPU5によってどのように利用されるかについては追って述べる。
The lip detection unit 3 (lip detection sensor) is a capacitance type touch sensor that is provided on the
タン検出部4は、リード11に設けられ、演奏者Pのタン(舌)の接触を検出する静電容量方式のタッチセンサである。タン検出部4は、タッチセンサにおけるタンの接触面積に応じた静電容量をタンの検出情報としてCPU5に出力する。
The
CPU5は、電子楽器100の各部を制御する制御部である。CPU5は、ROM6から指定されたプログラムを読み出して後述する各種処理を実行する。
The
より具体的には、CPU5は、操作子1から入力された音高情報と、息圧検出部2から入力された息圧情報と、リップ検出部3から入力されたリップLの検出情報と、タン検出部4から入力されたタンの検出情報と、に基づいて、楽音の生成を音源部8に指示する。
More specifically, the
例えば、CPU5は、操作子1から入力された音高情報に基づいて、楽音の音高を設定する。また、CPU5は、息圧検出部2から入力された息圧情報に基づいて、楽音の音量を設定する。更に、CPU5は、リップ検出部3から入力されたリップLの検出情報に応じて、発生する楽音に付与されるエフェクトを制御する。CPU5はまた、タン検出部4から入力されたタン(舌)の接触の検出情報に基づいて、タンギング音の発生形態を設定する。
For example, the
CPU5は、これら処理を、処理内容に応じて設定された周期で繰り返し実行する。例えば、CPU5は、操作子1が操作されたか否かを所定の周期で繰り返し判定し、操作子1が操作されたと判定する度に操作に応じた発音処理を行う。その際、CPU5は、リップ検出部3の出力値に基づいて、後述する所定の処理を実行する。
The
ROM6は、各種データ及び各種プログラムを記憶する。RAM7は、処理された各種データを一時的に格納するワークエリアを有する。
The
音源部8は、シンセサイザであり、CPU5の楽音の生成指示(楽音制御)に従い、楽音を生成して楽音信号をサウンドシステム9に出力する。
The
(マウスピースの詳細)
図3及び図4を参照して、マウスピース10の構成を説明する。図3(a)はマウスピース10を示す断面図であり、(b)はマウスピース10を示す下面図である。図3(a)においては、マウスピース10の軸方向に沿って、開口部13側を「ティップ」とし、管体部100a側を「ヒール」とする。
(Details of the mouthpiece)
The configuration of the
図3(a)、(b)に示すように、マウスピース10は、マウスピース本体部10aと、リード11と、固定金具12と、を有する。マウスピース本体部10aは、マウスピース10の本体部品であり、演奏者Pが息を吹き込むための開口部13を有する。リード11は、マウスピース本体部10aの下方、つまり、アコースティック管楽器のリード位置に対応して設けられている。固定金具12は、リード11をマウスピース本体部10aに取り付けるための金具である。
As shown in FIGS. 3A and 3B, the
図3(b)に示すように、リード11には、複数の電極部40,30〜39が、ティップ側からヒール側に向かって所定の間隔で配置されている。
As shown in FIG. 3B, a plurality of
このうち電極部40は、タン検出部4を構成する静電容量方式のタッチセンサS10のセンシング部である。また、電極部30〜39は、リップ検出部3を構成する静電容量方式のタッチセンサS20〜S29のセンシング部である。本実施形態では、リップ検出部3及びタン検出部4は1つの部品として構成されているが、別個の部品として構成されてもよい。
Of these, the
上述したマウスピース10が演奏者Pによってどのように操作されるかを、図4を参照して説明する。図4は、演奏者Pの口腔とマウスピース10との接触状態を示す図である。図4に示すように、演奏者Pは、電子楽器100の演奏時に、上側前歯E1をマウスピース本体部10aの上部に当て、下側前歯E2を下側のリップLで巻き込み、リード11に触れる。このようにして、マウスピース10は、上側前歯E1とリップLとで保持される。
How the above-described
演奏時における口腔内部のタンは、奏法により、リード11に触れている状態のタンT1(実線)と、リード11に触れていない状態のタンT2(破線)と、のいずれかとなる。ここで、演奏者Pは、通常、楽器の発音を抑制することを意図してタンをリード11に接触させることが知られている。かかる演奏者Pの所作に対応するために、上述したタッチセンサS10は、電極部40に対するタンの接触状態を検出する。例えば、図4において実線で示されるタンT1は、リード11に接触した状態を示し、図4に一点鎖線で示されるタンT2は、リード11から離れた状態を示す。そして、タッチセンサS10は、検出情報をCPU5に対して出力する。
Depending on the rendition style, the tongue inside the oral cavity at the time of performance is either tongue T1 (solid line) in the state where it touches the
また、演奏者Pは、通常、発音時にはリップLをマウスピース10に接触させている。この場合、演奏者Pは、リップLの接触位置及び接触面積(接触圧力)を操作して、音を変化させることがある。このような奏法に対応して、タッチセンサS20〜S29は、電極部30〜39に対するリップLの接触状態を検出する。そして、タッチセンサS20〜S29は、それぞれの検出情報をCPU5に対して出力する。
Further, the performer P normally brings the lip L into contact with the
CPU5は、タッチセンサS20〜S29から出力される検出情報に応じて、追って詳しく述べるように、リード11におけるリップLの接触位置(重心位置)を算出する。また、CPU5は、タッチセンサS10から出力される検出情報に基づいて、タンの接触状態(T1,T2)を判断する。
The
なお、リップ検出部3及びタン検出部4を構成するタッチセンサ及び電極部の数量、配置、形状は、仕様に応じて任意に設定されうる。
The numbers, arrangements, and shapes of the touch sensors and the electrode portions that compose the
(リップのリードへの接触位置)
上記のような構成を有するリップ検出部3では、リップLは、多くの場合、複数の電極部に亘って接触することになる。そのときのリップLの接触位置を1点に定めるために、本実施形態では、リップLのリード11上の重心位置を算出することとしている。そこで、図5を参照して、リップLのリード11への重心位置を算出する手法を説明する。
(Lip lead contact position)
In the
図3(b)を参照して説明したように、複数の矩形状の電極部40,30〜39は、リード11の延在方向ないし長手方向に沿って整列している。演奏者P側の一端に、タン検出部4を構成するタッチセンサS10の電極部40が配置され、この電極部40に隣り合うように、リップ検出部3を構成するタッチセンサS20〜S29の電極部30〜39が、反対側の端部に向かって等間隔で配列されている。図5は、リード11上の電極部40,30〜39を模式的に示した図であり、図5では、以後の説明がわかり易いようにするために、電極部30〜39の位置を、電極部40側からP1〜P10で表し、それぞれ番号「1」〜「10」を付与している。
As described with reference to FIG. 3B, the plurality of
そして、リップLのリード11への接触位置(重心位置xG)は、タッチセンサS20〜S29の出力値miと電極部30〜39の位置xiとを用いて、次式で算出することが出来る。
なお、この式は一般に重心位置を算出するときに用いられる式である。
The contact position (center of gravity position xG) of the lip L with the
Note that this formula is a formula generally used when calculating the position of the center of gravity.
例えば、位置「P1」から「P10」に対応するタッチセンサS20〜S29の出力値がそれぞれ0,0,0,0,90,120,150,120,90,0,0である場合、リップLの重心位置xGは、
本実施形態では、リップLの重心位置を、0から127までの整数値(7ビットの2進数)で表現した重心値で表わすこととしている。この重心値を得るためには、上述した重心位置xGを10で除して127を乗ずればよい。 In the present embodiment, the barycentric position of the lip L is represented by the barycentric value represented by an integer value from 0 to 127 (7-bit binary number). To obtain this center-of-gravity value, the above-described center-of-gravity position xG may be divided by 10 and multiplied by 127.
(センサ値合計と重心値に基づく下唇のマウスピースからの離し方の区別)
ここで、図6から図8を参照して、タッチセンサS20〜S29の出力値の合計及びリップLの重心値に基づいて、リップLの下唇のマウスピース10からの離す動作の形態を判別する手法の一例を説明する。
(Distinguishing how to separate lower lip from mouthpiece based on total sensor value and center of gravity value)
Here, with reference to FIG. 6 to FIG. 8, the form of the operation of separating the lower lip of the lip L from the
図6(a)は、マウスピース10を引っ張りながらリップLの下唇を離す動作を開始した場合のリード11上の位置「P1」から「P10」毎のセンサ値(センサ情報)、センサ値合計(センサ情報の値の合計値)、及び重心値における、時刻t1からt5までの時間推移の一例を示す表である。図6(b)は、リップLの下唇をマウスピース10から垂直に離す動作を開始した場合の、図6(a)と同様の表である。
FIG. 6A shows a total of sensor values (sensor information) from position “P1” to position “P10” on the
ここで、センサ値は0から255までの整数であり、したがって、10個のセンサ値の合計は0から2550までの値を取る。また、重心値は、上述したように0から127までの整数で表現されている。また、本実施形態では、図6(a)における時刻t4、及び図6(b)における時刻t3におけるセンサ値及びセンサ値合計は小さな値であり、このような値から算出された重心値は、実態を正確に表していないおそれがあるため、図6(a)及び(b)ではノイズとして処理されている。 Here, the sensor value is an integer from 0 to 255, and therefore the total of 10 sensor values takes a value from 0 to 2550. The center-of-gravity value is represented by an integer of 0 to 127 as described above. Further, in the present embodiment, the sensor value and the total sensor value at time t4 in FIG. 6A and time t3 in FIG. 6B are small values, and the centroid value calculated from such values is Since the actual situation may not be represented accurately, it is processed as noise in FIGS. 6A and 6B.
図6(a)と図6(b)に共通する傾向は、位置毎のセンサ値及びセンサ値合計が時間の経過とともに減少していることである。この傾向を検出することで、リップLをマウスピース10から離す動作を開始したことを判定することができる。
The tendency common to FIGS. 6A and 6B is that the sensor value for each position and the total sensor value decrease with the passage of time. By detecting this tendency, it is possible to determine that the operation of separating the lip L from the
他方、図6(b)では、センサ値のピークは各時刻においてほぼ位置P7に保持されているのに対して、図6(a)では、センサ値のピークは、時刻t1では位置P7、時刻t2では位置P6、時刻t3では位置P5のように遷移している。同様に、図6(b)では、重心値は、時刻t1において「74」、時刻t2において「73」のように実質的に変動しないのに対して、図6(a)では、重心値は、時刻t1において「74」、時刻t2において「69」、時刻t3において「59」のように、リード11のティップ側の方に移動している。このような重心値の変化の相違があることは、リップLの2種類の離し方の動作を区別するうえで有効であると考えられる。以下、図7及び図8で図解する。
On the other hand, in FIG. 6B, the peak of the sensor value is held at the position P7 at each time, whereas in FIG. 6A, the peak of the sensor value is at the position P7 at the time t1. A transition is made to the position P6 at t2 and the position P5 at time t3. Similarly, in FIG. 6B, the centroid value does not substantially change from “74” at time t1 to “73” at time t2, while in FIG. 6A, the centroid value does not change. , 74 at the time t1, “69” at the time t2, and “59” at the time t3, the
図7(a)は、図6(a)における位置「P1」から「P10」毎のセンサ値の時間推移を示すグラフであり、図7(b)は、図6(b)における位置「P1」から「P10」毎のセンサ値の時間推移を示すグラフである。位置Pを横軸に、センサ値を縦軸に取って、時刻t1からt4(又はt3)までの位置毎のセンサ値を比較している。これらグラフからも、リップLの離し方の動作の違いによる、センサ値の減少量及びピーク位置の違いが把握される。 FIG. 7A is a graph showing the time transition of the sensor value for each of the positions "P1" to "P10" in FIG. 6A, and FIG. 7B is the position "P1" in FIG. 6B. Is a graph showing the time transition of the sensor value for each of "P10". The position P is plotted on the horizontal axis and the sensor value is plotted on the vertical axis, and the sensor values for each position from time t1 to t4 (or t3) are compared. From these graphs as well, it is possible to understand the difference in the sensor value decrease amount and the peak position due to the difference in the operation of separating the lip L.
図8(a)は、図6(a)における重心値とセンサ値合計との関係を示すグラフであり、図8(b)は、図6(b)に対応する図8(a)と同様のグラフである。図8(a)及び(b)では、時刻tを横軸に、重心値及びセンサ値合計を第1及び第2の縦軸に取っている。 8A is a graph showing the relationship between the center of gravity value and the total sensor value in FIG. 6A, and FIG. 8B is the same as FIG. 8A corresponding to FIG. 6B. Is a graph of. In FIGS. 8A and 8B, the time t is plotted on the horizontal axis, and the center of gravity value and the total sensor value are plotted on the first and second vertical axes.
図8(a)において、時刻t1からt2の間、及び時刻t2からt3の間に、センサ値合計はそれぞれD11及びD12だけ減少している。また、図8(b)において、時刻t1からt2の間にセンサ値合計はD13だけ減少している。したがって、前回(例えば時刻t1)のセンサ値合計と今回(例えば時刻t2)のセンサ値合計との間の減少量を検出することで、演奏者PがリップLの下唇をマウスピース10から離す動作を開始した第1のタイミングであることを把握することができる。本実施形態では、処理部として機能するCPU5は、前回のセンサ値合計と今回のセンサ値合計との間の減少量が所定量(閾値)以上であると、リップLの下唇がリード11から離れ始める第1のタイミングであると判定するようになっている。
In FIG. 8A, the total sensor value decreases by D11 and D12 between time t1 and t2 and between time t2 and t3, respectively. In addition, in FIG. 8B, the total sensor value decreases by D13 between time t1 and time t2. Therefore, the player P separates the lower lip of the lip L from the
図8(a)及び(b)では、重心値とセンサ値合計とは異なる種類のデータであり、両者の値を単純に比較することは意味がない。しかしながら、何らかの動作、例えば下唇をリードから離す動作を行った場合に、これら両者の変化の形態が同じ傾向にあるか否かを把握することは可能である。ただし、両者の値のスケールは一致していないため、このままでは両者の変化の形態が同じ傾向にあるか否を単純に判断することはできない。このため、本実施形態においては、少なくとも一方の値のスケールを他方の値のスケールに合わせるように補正することで、両者を対比可能としている。補正の手法は、例えば、所定の値の加減又は乗除である。本実施形態では、例えば、重心値を20倍するか、あるいは、センサ値合計を20分の1(20で除算する)にすることで、重心値とセンサ値合計との変化の形態が同じ傾向にあるか否かを比較可能にしている。なお、倍率は、上述した比較を容易にするように適宜設定されてよい。 In FIGS. 8A and 8B, the centroid value and the total sensor value are different types of data, and it is meaningless to simply compare the two values. However, it is possible to grasp whether or not the forms of change in the two tend to be the same when performing some action, for example, the action of separating the lower lip from the lead. However, since the scales of the two values do not match, it is not possible to simply judge whether or not the forms of change of both have the same tendency as it is. Therefore, in the present embodiment, the two values can be compared by correcting the scale of at least one value so as to match the scale of the other value. The correction method is, for example, addition or subtraction or multiplication or division of a predetermined value. In the present embodiment, for example, the centroid value is multiplied by 20 or the total sensor value is set to 1/20 (divided by 20), so that the form of change between the centroid value and the total sensor value tends to be the same. It is possible to compare whether or not there is. The magnification may be set as appropriate so as to facilitate the comparison described above.
そこで、時刻ごとに補正後の重心値とセンサ値合計とを比較すると、図8(a)では、時刻t2においてD21の差があり、時刻t3においてはD22の差がある。同様に、図8(b)では、時刻t2においてD23の差がある。また、D23>D21,D22であるから、補正後の重心値とセンサ値合計との差を時刻ごとに判定することで、2種類のリップLの下唇の離し方の動作の形態を区別することができる。つまり、かかる差が所定の閾値より小さいと、マウスピース10を引っ張りながらリップLの下唇を離す動作を開始した第1の形態と判定し、また、かかる差が閾値より大きいと、リップLの下唇をマウスピース10から垂直に離す動作を開始したと判別すればよい。
Therefore, comparing the corrected center-of-gravity value and the total sensor value for each time, there is a difference of D21 at time t2 and a difference of D22 at time t3 in FIG. 8A. Similarly, in FIG. 8B, there is a difference of D23 at time t2. Since D23>D21 and D22, the difference between the corrected center-of-gravity value and the total sensor value is determined at each time to distinguish the two types of movements of the lower lip of the lip L from each other. be able to. That is, when the difference is smaller than the predetermined threshold value, it is determined that the first form in which the operation of pulling the
[電子楽器の動作]
図9及び図10を参照して、上述した構成を有する電子楽器100の動作を説明する。図9は、メインルーチンを示すフローチャートである。図10は、下唇位置/舌検出部の処理の流れを示すフローチャートである。
[Operation of electronic musical instrument]
The operation of the electronic
(メインルーチン)
図9を参照して、電子楽器100の主たる動作、ないし電子楽器100の制御手法を説明する。
(Main routine)
The main operation of the electronic
電源が入ると、ステップST11においてイニシャライズ処理が行われる。かかる処理は、例えば各種設定の初期化である。 When the power is turned on, initialization processing is performed in step ST11. Such processing is, for example, initialization of various settings.
次いで、ステップST12において、リップ検出部3及びタン検出部4の処理が行われる。このステップは、上述したリップL及びタンのリード11への接触状態に応じた処理であり、追って図10との関係で詳しく述べる。
Next, in step ST12, the processes of the
そして、ステップST13において、息圧検出部2の処理が行われる。かかるステップは、上述した息吹込みによる息圧の検出処理である。
Then, in step ST13, the processing of the breath
次いで、ステップST14において、キースイッチ処理が行われる。キースイッチ処理では、CPU5は、操作子1の操作情報に応じた楽音の音高を表わすキーコードを発生させ、音源部8に供給する。
Next, in step ST14, a key switch process is performed. In the key switch process, the
そして、ステップST15において、発音処理が行われる。かかる処理では、音源部8は、受信したキーコード等に基づいてサウンドシステム9を動作させる。
Then, in step ST15, sound generation processing is performed. In such processing, the
ステップST15の後、ステップST16において、その他必要な処理が行われ、一通りの処理手順が終了し、再び、上述したステップST12からST16が繰り返される。 After step ST15, in step ST16, other necessary processing is performed, and the one processing procedure is completed, and steps ST12 to ST16 described above are repeated again.
(下唇位置/舌検出部の処理)
図10を参照して、上記ステップST12における下唇位置/舌検出部の処理を詳述する。かかる処理は、制御手段としてのCPU5において行われる。
(Lower lip position/Processing of tongue detector)
The process of the lower lip position/tongue detection unit in step ST12 will be described in detail with reference to FIG. Such processing is performed by the
まず、ステップST21において、タッチセンサS20〜S29のそれぞれのセンサ値(出力値)が取得される。 First, in step ST21, the sensor values (output values) of the touch sensors S20 to S29 are acquired.
次いで、ステップST22において、センサ値の合計が算出され、前回のセンサ値の合計と比較される。比較の結果、今回(第3のタイミング)のセンサ値合計が前回(第4のタイミング)のセンサ値合計から減少しており、かつ、減少量(例えば、図8(a)及び(b)のD11,D12,D13)が閾値th1より大きいと判定されると、リップLがリード11から離れる動作を開始した第1のタイミングと判断されて、手順はステップST23に進む。他方、今回のセンサ値合計が前回のセンサ値合計から増加ないし同一であったり、減少量が閾値th1以下であったりすると、処理はメインルーチンに戻る。
Next, in step ST22, the total of the sensor values is calculated and compared with the previous total of the sensor values. As a result of the comparison, the total sensor value at this time (third timing) has decreased from the total sensor value at the previous time (fourth timing), and the decrease amount (for example, in FIGS. 8A and 8B). If it is determined that (D11, D12, D13) is larger than the threshold value th1, it is determined that it is the first timing at which the lip L starts to move away from the
ステップST23では、タッチセンサS20〜S29の各センサ値から算出したリップLのリード11上の重心値と、ステップST22において算出したセンサ値合計とについて、所定の補正、つまり両者の値のスケールを一致させる処理を施したうえで、両値の差を取る。
In step ST23, the center of gravity value on the
そして、ステップST24において、かかる差(例えば、図8(a)及び(b)のD21,D22,D23)が閾値th2と比較される。比較の結果、当該差が閾値th2以下であると判定されると、処理はステップST25に進む。他方、当該差が閾値th2より大きいと判定されると、処理はステップST27に進む。 Then, in step ST24, the difference (for example, D21, D22, D23 in FIGS. 8A and 8B) is compared with the threshold th2. As a result of the comparison, if it is determined that the difference is less than or equal to the threshold value th2, the process proceeds to step ST25. On the other hand, if it is determined that the difference is larger than the threshold th2, the process proceeds to step ST27.
ステップST25では、マウスピース10を引っ張りながらリップLの下唇を離す動作を開始した第1の形態を示すフラグ(例えば「0」)をROM6に記録する。CPU5は、上述したステップST14又はST15において上記フラグをチェックし、このフラグが「0」が入力されていると判断すると、例えばこの下唇がマウスピース10から徐々に離れるにあわせて発生している楽音の音量が徐々に低下するような処理を行う。
In step ST25, a flag (for example, "0") indicating the first mode in which the operation of pulling the
そして、ステップST26において、リップ・ポジションつまりリップLのリード11上の重心値を今回の値に固定する。このようなリップ・ポジションの固定は、リップLの下唇が一度リード11から離れた後、リード11に再び接触したと判定されるまで維持される。つまり、リップLがリード11から離れる動作を開始した第1のタイミングから、少なくともリップLがリード11から離れる動作を完了する第2のタイミングまでの間、第1のタイミングでのリード11に対するリップLの接触位置を、実際のリップLの接触位置として設定(固定)する。かかる処理により、マウスピース10を引っ張りながらリップLの下唇を離す動作を行ったとしても、発生中の楽音に対して、演奏者Pの意図しないエフェクトの変化が生じることを抑止することが可能となる。
Then, in step ST26, the lip position, that is, the center of gravity value of the lip L on the
なお、ここで言う「リップLの下唇がリード11に再び接触したと判定されるまで」とは、物理的に下唇がリード11から離れて、再度、接触することを意味するものではなく、あくまでも、タッチセンサS20〜S29からの出力に基づいて、例えば、前回のセンサ値合計と比較して、今回のセンサ値合計がある程度以上増加しているという状態によって判断される。
The term "until it is determined that the lower lip of the lip L has come into contact with the
他方、ステップST27では、リップLの下唇をマウスピース10から垂直に離す動作を開始したことを示すフラグ(例えば「1」)をROM6に記録する。CPU5は、上述したステップST14又はST15において上記フラグをチェックし、「1」が入力されていると判断すると、下唇をマウスピース10から垂直に離すタイミングに合わせて発音している楽音の音量を急激に低下させる処理を行う。
On the other hand, in step ST27, a flag (for example, “1”) indicating that the operation of vertically separating the lower lip of the lip L from the
このようにして一連の手順が終了すると、処理はメインルーチンに戻る。なお、リップLをリード11から離す際に発生するエフェクトを意図的に利用する演奏者Pのために、上述した重心値とセンサ値合計との関係に応じた処理を行わないようにする設定を設けてもよい。
When the series of procedures is completed in this way, the process returns to the main routine. For the performer P who intentionally uses the effect generated when the lip L is separated from the
このように、本実施形態では、マウスピース10を引っ張りながらリップLの下唇を離す動作を開始したことを検出すると、リップ・ポジションを固定する。したがって、かかる下唇の動きによって生じ得る、演奏者Pの意図しないエフェクト(例えばエコーやワウワウエフェクト等)の変化を防止することができる。
As described above, in this embodiment, when it is detected that the operation of pulling the
以上、具体的な実施形態に基づいて本発明の電子楽器について説明してきたが、本発明は、上記の具体的な実施形態に限定されるものではない。
上記では、今回(第3のタイミング)と前回(第4のタイミング)との間の重心位置及びセンサ情報の値の合計値を用いて重心位置(重心値)と合計値との間の差の変化として、その変化が小さいという第1の条件を満たす場合に、マウスピース10を引っ張りながらリップLの下唇を離す動作を開始した第1の形態であると判定していた。
The electronic musical instrument of the present invention has been described above based on the specific embodiments, but the present invention is not limited to the above specific embodiments.
In the above description, the total value of the barycentric position and the sensor information value between the current time (third timing) and the previous time (fourth timing) is used to calculate the difference between the barycentric position (barycentric value) and the total value. As the change, when the first condition that the change is small is satisfied, it is determined that the first form is the operation of releasing the lower lip of the lip L while pulling the
しかし、図8(a)及び(b)を見比べるとわかるように、マウスピース10を引っ張りながらリップLの下唇を離す動作を開始する場合(図8(a)参照)と、そうでない場合(図8(b)参照)では、重心位置(重心値)の変化が小さいか否かという違いとともに、センサ情報の値の合計値(センサ値合計)の変化が小さいか否かという違いがある。
However, as can be seen by comparing FIGS. 8A and 8B, when the operation of pulling the
つまり、マウスピース10を引っ張りながらリップLの下唇を離す動作を開始する場合(図8(a)参照)には、今回(第3のタイミング)と前回(第4のタイミング)との間の重心位置の変化が小さく、且つ、センサ情報の値の合計値の変化も小さいという傾向があるため、これら重心位置の変化及びセンサ情報の値の合計値の変化の双方が小さいという第1の条件を満たす場合に、マウスピース10を引っ張りながらリップLの下唇を離す動作を開始した第1の形態であると判定してもよい。
That is, in the case of starting the operation of releasing the lower lip of the lip L while pulling the mouthpiece 10 (see FIG. 8A), between the current time (third timing) and the previous time (fourth timing). The first condition that both the change in the center of gravity position and the change in the total value of the sensor information are small because the change in the center of gravity position and the change in the total value of the sensor information tend to be small. If the condition is satisfied, it may be determined to be the first mode in which the operation of pulling the
したがって、第3のタイミングにて決定された重心位置及びセンサ情報の値の合計値と第4のタイミングで決定された重心位置及びセンサ情報の値の合計値との間の変化の形態が第1の条件を満たす場合、マウスピース10を引っ張りながらリップLの下唇を離す動作を開始した第1の形態であると判断するようにすればよい。
Therefore, the form of change between the total value of the barycentric position and the value of the sensor information determined at the third timing and the total value of the barycentric position and the value of the sensor information determined at the fourth timing is the first. If the condition (1) is satisfied, it may be determined that the first form has started the operation of pulling the
このように、本発明は、具体的な実施形態に限定されるものではなく、本発明の技術的範囲には、本発明の目的が達成される範囲での様々な変形や改良等が含まれるものであり、そのことは当業者にとって特許請求の範囲の記載から明らかである。 As described above, the present invention is not limited to the specific embodiments, and the technical scope of the present invention includes various modifications and improvements as long as the object of the present invention is achieved. It is obvious to those skilled in the art from the description of the claims.
以下に、この出願の願書に最初に添付した特許請求の範囲に記載した発明を付記する。付記に記載した請求項の項番は、この出願の願書に最初に添付した特許請求の範囲の通りである。
<請求項1>
リード上におけるリップの接触状態を検知するリップ検出センサからのセンサ情報に基づいて、前記リップの前記リード上における接触位置を決定する位置決定処理と、
前記位置決定処理にて決定された前記接触位置に対応して音源部で生成される楽音を制御する楽音制御処理と、
前記センサ情報に基づいて、前記リップが前記リード上から離れる動作を開始したことを検知する検知処理と、
前記センサ情報に基づいて、前記リップの離れる形態が第1の形態であると判断された場合、第1のタイミングから、少なくとも前記リップが前記リードから離れる動作を完了した第2のタイミングまでの間、前記第1のタイミングでの前記接触位置を、実際の前記リップの接触位置として設定する処理と、
を実行する処理部を有することを特徴とする楽音制御装置。
<請求項2>
前記処理部は、前記リップが前記リードから離れる動作を開始したと判断したタイミングを前記第1のタイミングとして判断し、前記リップが前記リードから離れる動作を完了したと判断したタイミングを前記第2のタイミングとして判断し、
前記第1のタイミングから、少なくとも前記第2のタイミングまでの間、前記第1のタイミングでの前記接触位置を、前記実際の前記リップの接触位置として設定することを特徴とする請求項1に記載の楽音制御装置。
<請求項3>
前記リップ検出センサは複数のセンシング部を備え、前記センサ情報は、前記複数のセンシング部夫々から得られるセンサ情報であることを特徴とする請求項1又は2に記載の楽音制御装置。
<請求項4>
前記検知処理は、第3のタイミングにて取得された前記センシング部夫々の前記センサ情報の値の合計値が、前記第3のタイミングの前のタイミングである第4のタイミングで取得された前記センシング部夫々の前記センサ情報の値の合計値より、第1の値未満であることを検知した場合、前記リップが前記リード上から離れる動作の開始を検知することを特徴とする請求項3に記載の楽音制御装置。
<請求項5>
前記センシング部夫々から得られる前記センサ情報の値から前記リード上での前記リップの重心位置を求め、
前記第3のタイミングにて決定された前記重心位置及び前記センサ情報の値の合計値と前記第4のタイミングで決定された前記重心位置及び前記センサ情報の値の合計値との間の変化の形態が第1の条件を満たす場合、前記第1の形態であると判断することを特徴とする請求項4に記載の楽音制御装置。
<請求項6>
前記位置決定処理は、前記リード上における前記リップの接触面積の重心位置を、前記接触位置とすることを特徴とする請求項1乃至5のいずれかに記載の楽音制御装置。
<請求項7>
音高を決めるために操作される複数のキーと、
リップの接触状態を検知するリップ検出センサを備えるリードと、
楽音を生成する音源部と、
請求項1乃至6のいずれかに記載の楽音制御装置と、
を備えることを特徴とする電子楽器。
<請求項8>
楽音制御装置の制御方法であって、
リード上におけるリップの接触状態を検知するリップ検出センサからのセンサ情報に基づいて、前記リップの前記リード上における接触位置を決定するステップと、
前記決定された前記接触位置に対応して音源部で生成される楽音を制御するステップと、
前記センサ情報に基づいて、前記リップが前記リード上から離れる動作を開始したことを検知するステップと、
前記センサ情報に基づいて、前記リップの離れる形態が第1の形態であると判断された場合、第1のタイミングから、少なくとも前記リップが前記リードから離れる動作を完了した第2のタイミングまでの間、前記第1のタイミングでの前記接触位置を、実際の前記リップの接触位置として設定するステップと、
を含むことを特徴とする楽音制御装置の制御方法。
<請求項9>
楽音制御装置の処理部に、
リード上におけるリップの接触状態を検知するリップ検出センサからのセンサ情報に基づいて、前記リップの前記リード上における接触位置を決定する位置決定処理と、
前記位置決定処理にて決定された前記接触位置に対応して音源部で生成される楽音を制御する楽音制御処理と、
前記センサ情報に基づいて、前記リップが前記リード上から離れる動作を開始したことを検知する検知処理と、
前記センサ情報に基づいて、前記リップの離れる形態が第1の形態であると判断された場合、第1のタイミングから、少なくとも前記リップが前記リードから離れる動作を完了した第2のタイミングまでの間、前記第1のタイミングでの前記接触位置を、実際の前記リップの接触位置として設定する処理と、
を実現することを特徴とする楽音制御装置のプログラム。
Hereinafter, the inventions described in the claims attached to the application of this application will be additionally described. The claim numbers described in the appendices are as set forth in the claims attached first to the application for this application.
<Claim 1>
Position determination processing for determining the contact position of the lip on the lead, based on sensor information from a lip detection sensor that detects the contact state of the lip on the lead,
A tone control process of controlling a tone generated by the sound source unit corresponding to the contact position determined by the position determination process,
A detection process of detecting that the lip has started an operation of separating from the lead based on the sensor information;
When it is determined that the lip separation form is the first form based on the sensor information, from the first timing to at least the second timing at which the lip completes the operation of separating the lip from the lead. , A process of setting the contact position at the first timing as an actual contact position of the lip,
A musical sound control apparatus having a processing unit for executing the following.
<Claim 2>
The processing unit determines, as the first timing, a timing at which it is determined that the lip has started the operation of moving away from the lead, and a timing at which it is determined that the lip has completed the operation of moving away from the lead. Judge as timing,
The contact position at the first timing is set as the actual contact position of the lip from the first timing to at least the second timing. Tone control device.
<Claim 3>
The musical tone control device according to
<Claim 4>
In the detection processing, the total value of the values of the sensor information of each of the sensing units acquired at the third timing is acquired at the fourth timing, which is the timing before the third timing. The start of the operation|movement which the said lip|rip leaves|separates from the said lead is detected, when it is detected that it is less than a 1st value from the total value of the said sensor information value of each part. Tone control device.
<Claim 5>
Obtaining the barycentric position of the lip on the lead from the value of the sensor information obtained from each of the sensing units,
A change between the total value of the barycentric position and the value of the sensor information determined at the third timing and the total value of the barycentric position and the value of the sensor information determined at the fourth timing. The musical tone control apparatus according to
<Claim 6>
6. The musical tone control apparatus according to
<Claim 7>
Multiple keys operated to determine the pitch,
A lead having a lip detection sensor for detecting the contact state of the lip,
A sound source section that generates musical sounds,
A musical sound control device according to any one of
An electronic musical instrument comprising:
<Claim 8>
A control method for a musical tone control device, comprising:
Determining a contact position of the lip on the lead based on sensor information from a lip detection sensor that detects a contact state of the lip on the lead;
Controlling the musical sound generated by the sound source unit corresponding to the determined contact position;
Detecting that the lip has begun to move away from the lead based on the sensor information;
When it is determined that the lip separation form is the first form based on the sensor information, from the first timing to at least the second timing when the lip completes the operation of separating from the lead. , Setting the contact position at the first timing as an actual contact position of the lip,
A method of controlling a musical sound control device, comprising:
<Claim 9>
In the processing unit of the tone control device,
Position determination processing for determining the contact position of the lip on the lead, based on sensor information from a lip detection sensor that detects the contact state of the lip on the lead,
A tone control process of controlling a tone generated by the sound source unit corresponding to the contact position determined by the position determination process,
A detection process of detecting that the lip has started an operation of separating from the lead based on the sensor information;
When it is determined that the lip separation form is the first form based on the sensor information, from the first timing to at least the second timing when the lip completes the operation of separating from the lead. , A process of setting the contact position at the first timing as an actual contact position of the lip,
A program for a musical sound control device, which realizes
100 電子楽器
100a 管体部
1 操作子
2 息圧検出部
3 リップ検出部
4 タン検出部
5 CPU
6 ROM
7 RAM
8 音源部
9 サウンドシステム
9a バス
10 マウスピース
10a マウスピース本体部
11 リード
12 固定金具
13 開口部
40,30〜39 電極部
E1 上側前歯
E2 下側前歯
L リップ
P 演奏者
S10,S20〜S29 タッチセンサ
100 electronic
6 ROM
7 RAM
8
Claims (9)
前記位置決定処理にて決定された前記接触位置に対応して音源部で生成される楽音を制御する楽音制御処理と、
前記センサ情報に基づいて、前記リップが前記リード上から離れる動作を開始したことを検知する検知処理と、
前記センサ情報に基づいて、前記リップの離れる形態が第1の形態であると判断された場合、第1のタイミングから、少なくとも前記リップが前記リードから離れる動作を完了した第2のタイミングまでの間、前記第1のタイミングでの前記接触位置を、実際の前記リップの接触位置として設定する処理と、
を実行する処理部を有することを特徴とする楽音制御装置。 Position determination processing for determining the contact position of the lip on the lead, based on sensor information from a lip detection sensor that detects the contact state of the lip on the lead,
A tone control process of controlling a tone generated by the sound source unit corresponding to the contact position determined by the position determination process,
A detection process of detecting that the lip has started an operation of separating from the lead based on the sensor information;
When it is determined that the lip separation form is the first form based on the sensor information, from the first timing to at least the second timing at which the lip completes the operation of separating the lip from the lead. , A process of setting the contact position at the first timing as an actual contact position of the lip,
A musical sound control apparatus having a processing unit for executing the following.
前記第1のタイミングから、少なくとも前記第2のタイミングまでの間、前記第1のタイミングでの前記接触位置を、前記実際の前記リップの接触位置として設定することを特徴とする請求項1に記載の楽音制御装置。 The processing unit determines, as the first timing, a timing at which it is determined that the lip has started the operation of moving away from the lead, and a timing at which it is determined that the lip has completed the operation of moving away from the lead. Judge as timing,
2. The contact position at the first timing is set as the actual contact position of the lip from the first timing to at least the second timing. Tone control device.
前記第3のタイミングにて決定された前記重心位置及び前記センサ情報の値の合計値と前記第4のタイミングで決定された前記重心位置及び前記センサ情報の値の合計値との間の変化の形態が第1の条件を満たす場合、前記第1の形態であると判断することを特徴とする請求項4に記載の楽音制御装置。 Obtaining the barycentric position of the lip on the lead from the value of the sensor information obtained from each of the sensing units,
A change between the total value of the barycentric position and the value of the sensor information determined at the third timing and the total value of the barycentric position and the value of the sensor information determined at the fourth timing. The musical tone control apparatus according to claim 4, wherein when the form satisfies the first condition, it is determined that the form is the first form.
リップの接触状態を検知するリップ検出センサを備えるリードと、
楽音を生成する音源部と、
請求項1乃至6のいずれかに記載の楽音制御装置と、
を備えることを特徴とする電子楽器。 Multiple keys operated to determine the pitch,
A lead having a lip detection sensor for detecting the contact state of the lip,
A sound source section that generates musical sounds,
A musical sound control device according to any one of claims 1 to 6,
An electronic musical instrument comprising:
リード上におけるリップの接触状態を検知するリップ検出センサからのセンサ情報に基づいて、前記リップの前記リード上における接触位置を決定するステップと、
前記決定された前記接触位置に対応して音源部で生成される楽音を制御するステップと、
前記センサ情報に基づいて、前記リップが前記リード上から離れる動作を開始したことを検知するステップと、
前記センサ情報に基づいて、前記リップの離れる形態が第1の形態であると判断された場合、第1のタイミングから、少なくとも前記リップが前記リードから離れる動作を完了した第2のタイミングまでの間、前記第1のタイミングでの前記接触位置を、実際の前記リップの接触位置として設定するステップと、
を含むことを特徴とする楽音制御装置の制御方法。 A control method for a musical tone control device, comprising:
Determining a contact position of the lip on the lead based on sensor information from a lip detection sensor that detects a contact state of the lip on the lead;
Controlling the musical sound generated by the sound source unit corresponding to the determined contact position;
Detecting, based on the sensor information, that the lip has begun to move away from the lead.
When it is determined that the lip separation form is the first form based on the sensor information, from the first timing to at least the second timing at which the lip completes the operation of separating the lip from the lead. , Setting the contact position at the first timing as an actual contact position of the lip,
A method of controlling a musical sound control device, comprising:
リード上におけるリップの接触状態を検知するリップ検出センサからのセンサ情報に基づいて、前記リップの前記リード上における接触位置を決定する位置決定処理と、
前記位置決定処理にて決定された前記接触位置に対応して音源部で生成される楽音を制御する楽音制御処理と、
前記センサ情報に基づいて、前記リップが前記リード上から離れる動作を開始したことを検知する検知処理と、
前記センサ情報に基づいて、前記リップの離れる形態が第1の形態であると判断された場合、第1のタイミングから、少なくとも前記リップが前記リードから離れる動作を完了した第2のタイミングまでの間、前記第1のタイミングでの前記接触位置を、実際の前記リップの接触位置として設定する処理と、
を実現することを特徴とする楽音制御装置のプログラム。 In the processing unit of the tone control device,
Position determination processing for determining the contact position of the lip on the lead, based on sensor information from a lip detection sensor that detects the contact state of the lip on the lead,
A tone control process of controlling a tone generated by the sound source unit corresponding to the contact position determined by the position determination process,
A detection process of detecting that the lip has started an operation of separating from the lead based on the sensor information;
When it is determined that the lip separation form is the first form based on the sensor information, from the first timing to at least the second timing at which the lip completes the operation of separating the lip from the lead. , A process of setting the contact position at the first timing as an actual contact position of the lip,
A program for a musical sound control device, which realizes
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016061112A JP6724465B2 (en) | 2016-03-25 | 2016-03-25 | Musical tone control device, electronic musical instrument, musical tone control device control method, and musical tone control device program |
JP2020107401A JP6923047B2 (en) | 2016-03-25 | 2020-06-23 | Musical tone control device, electronic musical instrument, control method of musical tone control device, and program of musical tone control device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016061112A JP6724465B2 (en) | 2016-03-25 | 2016-03-25 | Musical tone control device, electronic musical instrument, musical tone control device control method, and musical tone control device program |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020107401A Division JP6923047B2 (en) | 2016-03-25 | 2020-06-23 | Musical tone control device, electronic musical instrument, control method of musical tone control device, and program of musical tone control device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017173651A JP2017173651A (en) | 2017-09-28 |
JP6724465B2 true JP6724465B2 (en) | 2020-07-15 |
Family
ID=59972002
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016061112A Active JP6724465B2 (en) | 2016-03-25 | 2016-03-25 | Musical tone control device, electronic musical instrument, musical tone control device control method, and musical tone control device program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6724465B2 (en) |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05134665A (en) * | 1992-02-03 | 1993-05-28 | Casio Comput Co Ltd | Electronic wind instrument |
JPH0772853A (en) * | 1993-06-29 | 1995-03-17 | Yamaha Corp | Electronic wind instrument |
JP2000122641A (en) * | 1998-10-21 | 2000-04-28 | Casio Comput Co Ltd | Electronic wind instrument |
JP5803720B2 (en) * | 2012-02-13 | 2015-11-04 | ヤマハ株式会社 | Electronic wind instrument, vibration control device and program |
-
2016
- 2016-03-25 JP JP2016061112A patent/JP6724465B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2017173651A (en) | 2017-09-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6760222B2 (en) | Detection device, electronic musical instrument, detection method and control program | |
US10347222B2 (en) | Musical sound generation method for electronic wind instrument | |
US9299330B2 (en) | Apparatus and method to enhance the expressive qualities of digital music | |
US9984669B2 (en) | Reed for electronic musical instrument, and electronic musical instrument | |
JP2016177026A (en) | Electronic musical instrument | |
EP3422341B1 (en) | Electronic wind instrument, method of controlling the electronic wind instrument, and computer readable recording medium with a program for controlling the electronic wind instrument | |
EP3100258A1 (en) | Apparatus and method to enhance expressive qualities of digital music | |
CN109215624B (en) | Electronic wind instrument, method for controlling electronic wind instrument, and storage medium | |
JP6589413B2 (en) | Lead member, mouthpiece and electronic wind instrument | |
JP6724465B2 (en) | Musical tone control device, electronic musical instrument, musical tone control device control method, and musical tone control device program | |
JP7140083B2 (en) | Electronic wind instrument, control method and program for electronic wind instrument | |
JP6923047B2 (en) | Musical tone control device, electronic musical instrument, control method of musical tone control device, and program of musical tone control device | |
JP7008941B2 (en) | Detection device, electronic musical instrument, detection method and control program | |
JP2022001950A (en) | Parameter controller, electronic music instrument, parameter control method and control program | |
JP6786982B2 (en) | An electronic musical instrument with a reed, how to control the electronic musical instrument, and a program for the electronic musical instrument. | |
JP6572916B2 (en) | Pronunciation control device and method, program | |
JP2019008122A (en) | Detector, electronic musical instrument, detection method and control program | |
JP7423952B2 (en) | Detection device, electronic musical instrument, detection method and program | |
JP2018045108A (en) | Electronic musical instrument, method of controlling the same, and program for the same | |
JP6710432B2 (en) | Musical tone control device, electronic musical instrument, musical tone control method and program | |
JP2017173654A (en) | Electronic breath instrument, key operation determination device, control method of electronic musical instrument, and program of electronic musical instrument | |
JP2022046211A (en) | Electronic musical instrument, and control method and program for electronic musical instrument | |
KR101813557B1 (en) | Apparatus and method to enhance expressive qualities of digital music | |
JP2022177297A (en) | Electronic wind instrument, control method of electronic wind instrument, and program for electronic wind instrument | |
JP2017173417A (en) | Automatic accompaniment device, automatic accompanying method, program and electronic wind instrument |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190312 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200115 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200218 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200409 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200526 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200608 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6724465 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |