JP4784184B2 - Acoustic signal processing apparatus and program - Google Patents

Acoustic signal processing apparatus and program Download PDF

Info

Publication number
JP4784184B2
JP4784184B2 JP2005203167A JP2005203167A JP4784184B2 JP 4784184 B2 JP4784184 B2 JP 4784184B2 JP 2005203167 A JP2005203167 A JP 2005203167A JP 2005203167 A JP2005203167 A JP 2005203167A JP 4784184 B2 JP4784184 B2 JP 4784184B2
Authority
JP
Japan
Prior art keywords
pitch
signal
processing
input signal
pitch information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005203167A
Other languages
Japanese (ja)
Other versions
JP2007024961A (en
JP2007024961A5 (en
Inventor
崇 野口
徹 北山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2005203167A priority Critical patent/JP4784184B2/en
Publication of JP2007024961A publication Critical patent/JP2007024961A/en
Publication of JP2007024961A5 publication Critical patent/JP2007024961A5/ja
Application granted granted Critical
Publication of JP4784184B2 publication Critical patent/JP4784184B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Electrophonic Musical Instruments (AREA)

Description

この発明は、入力信号と、入力信号に対して処理を施して得た信号とを混合して出力するエフェクト機能を有する音響信号処理装置及び、コンピュータをこのような音響信号処理装置として機能させるためのプログラムに関する。   The present invention provides an acoustic signal processing device having an effect function of mixing and outputting an input signal and a signal obtained by performing processing on the input signal, and for causing a computer to function as such an acoustic signal processing device. Related to the program.

従来から、入力信号と、入力信号に対して処理を施して得たボイス信号と呼ばれる信号とを混合して出力する、ダブリングエフェクトと呼ばれるエフェクトを付与するエフェクタが知られている。
このようなエフェクタにおいて、ボイス信号は、ディレイを用いて入力信号を遅延させて生成したり、入力信号のピッチを単に一定量ずらすピッチシフトを行ったりして生成したりすることが行われていた。また、出力信号は、入力信号とボイス信号を重ねたり、これらの各信号をパンで左右に定位させたりしたものである。
Conventionally, an effector for adding an effect called a doubling effect that mixes and outputs an input signal and a signal called a voice signal obtained by processing the input signal is known.
In such an effector, the voice signal is generated by delaying the input signal using a delay, or by performing a pitch shift that simply shifts the pitch of the input signal by a certain amount. . The output signal is obtained by superimposing the input signal and the voice signal, or panning these signals left and right by panning.

このようなエフェクタについては、例えば以下の特許文献1乃至5に記載されている。
特許第3183117号公報 米国特許第5301259号明細書 米国特許第5231671号明細書 米国特許第5567901号明細書 米国特許第6046395号明細書
Such effectors are described in, for example, Patent Documents 1 to 5 below.
Japanese Patent No. 3183117 US Pat. No. 5,301,259 US Pat. No. 5,231,671 US Pat. No. 5,567,901 US Pat. No. 6,046,395

ここで、図13及び図14に、従来のエフェクタにおける入力信号(破線)とボイス信号(実線)のピッチの時間変化を示す。図13はディレイを用いた場合の例、図14はピッチシフトを行った場合の例である。
これらの図からもわかるように、ディレイを用いるだけでは、ピッチの変化の仕方が入力信号とボイス信号で全く同じである。そしてこのため、エフェクトの出力信号が単調に聞こえる傾向があるという問題があった。また、ピッチシフトを行った場合でも、音高がいくら違っていてもピッチの変化の仕方が一定であり、同様な問題があった。
この発明は、このような問題を解決し、変化に富んだエフェクトを、簡単な仕組みで実現できるようにすることを目的とする。
Here, FIGS. 13 and 14 show temporal changes in the pitches of the input signal (broken line) and the voice signal (solid line) in the conventional effector. FIG. 13 shows an example when a delay is used, and FIG. 14 shows an example when a pitch shift is performed.
As can be seen from these figures, the pitch change method is exactly the same for the input signal and the voice signal only by using the delay. For this reason, there is a problem that the output signal of the effect tends to sound monotonously. Further, even when the pitch shift is performed, the pitch change method is constant regardless of the pitch, and there is a similar problem.
It is an object of the present invention to solve such problems and to realize various effects with a simple mechanism.

上記の目的を達成するため、この発明の音響信号処理装置は、入力信号のピッチ情報を検出して第1のピッチ情報を出力するピッチ検出手段と、上記第1のピッチ情報に対してフィルタ処理を行い第2のピッチ情報を出力するフィルタ処理手段と、上記第1のピッチ情報を用いて上記入力信号のうちピッチ変換の処理対象となる区間を設定し、その設定された区間の入力信号のピッチを、上記第2のピッチ情報が示すピッチに変換した加工信号を生成する加工信号生成手段と、上記入力信号と上記加工信号とを混合して出力する混合手段とを設けたものである。
このような音響信号処理装置において、上記加工信号生成手段に、上記入力信号のピッチ情報又は上記フィルタ処理手段によるフィルタ処理後のピッチ情報が示すピッチの値を、時間をずらして上記加工信号の生成に反映させるようにするとよい。
In order to achieve the above object, an acoustic signal processing apparatus according to the present invention detects pitch information of an input signal and outputs first pitch information, and performs filtering processing on the first pitch information. and filtering means for outputting a row physician second pitch information, by using the first pitch information to set the interval to be processed by the pitch conversion of the input signal, the input signal of the set interval Is provided with processing signal generation means for generating a processing signal obtained by converting the pitch of the input signal into the pitch indicated by the second pitch information, and mixing means for mixing and outputting the input signal and the processing signal. .
In such an acoustic signal processing device, the processed signal generation means generates the processed signal by shifting the pitch value indicated by the pitch information of the input signal or the pitch information after the filter processing by the filter processing means by shifting the time. It should be reflected in

また、この発明のプログラムは、コンピュータを、入力信号のピッチ情報を検出して第1のピッチ情報を出力するピッチ検出手段と、上記第1のピッチ情報に対してフィルタ処理を行い第2のピッチ情報を出力するフィルタ処理手段と、上記第1のピッチ情報を用いて上記入力信号のうちピッチ変換の処理対象となる区間を設定し、その設定された区間の入力信号のピッチを、上記第2のピッチ情報が示すピッチに変換した加工信号を生成する加工信号生成手段と、上記入力信号と上記加工信号とを混合して出力する混合手段として機能させるためのプログラムである。 Further, the present invention program the computer to a pitch detecting means for outputting a first pitch information by detecting the pitch information of the input signal, the filtering process line physician second to said first pitch information Using the filter processing means for outputting pitch information and the first pitch information, a section to be processed for pitch conversion is set in the input signal, and the pitch of the input signal in the set section is set to the first pitch information . 2 is a program for functioning as a machining signal generating unit that generates a machining signal converted into a pitch indicated by pitch information of 2, and a mixing unit that mixes and outputs the input signal and the machining signal.

以上のようなこの発明の音響信号処理装置によれば、変化に富んだエフェクトを、簡単な仕組みで実現することができる。
また、この発明のプログラムによれば、コンピュータを音響信号処理装置として機能させ、同様な効果を得ることができる。
According to the acoustic signal processing apparatus of the present invention as described above, it is possible to realize effects that are rich in changes with a simple mechanism.
Moreover, according to the program of this invention, a computer can be functioned as an acoustic signal processing apparatus, and the same effect can be acquired.

以下、この発明を実施するための最良の形態を図面に基づいて具体的に説明する。
まず、図1を用いて、この発明の音響信号処理装置の実施形態である電子楽器の構成について説明する。図1はその電子楽器の構成を示すブロック図である。
図1に示すように、この電子楽器10は、CPU11,ROM12,RAM13,検出回路14,表示回路15,オーディオ信号インタフェース(I/F)16,通信I/F17,音源部18,信号処理部19を備え、これらがシステムバス20によって接続されている。そして、検出回路14には操作子21が、表示回路15には表示器22が、信号処理部19にはサウンドシステム23が接続されている。
Hereinafter, the best mode for carrying out the present invention will be specifically described with reference to the drawings.
First, the configuration of an electronic musical instrument which is an embodiment of the acoustic signal processing apparatus of the present invention will be described with reference to FIG. FIG. 1 is a block diagram showing the configuration of the electronic musical instrument.
As shown in FIG. 1, the electronic musical instrument 10 includes a CPU 11, a ROM 12, a RAM 13, a detection circuit 14, a display circuit 15, an audio signal interface (I / F) 16, a communication I / F 17, a sound source unit 18, and a signal processing unit 19. These are connected by a system bus 20. An operation element 21 is connected to the detection circuit 14, a display 22 is connected to the display circuit 15, and a sound system 23 is connected to the signal processing unit 19.

そして、CPU11は、電子楽器10を統括制御する制御部であり、ROM12に記憶された所要の制御プログラムを実行することにより、検出回路14を介した操作子21の操作内容検出、表示回路15を介した表示器22の表示制御、オーディオ信号I/F16を介したオーディオ信号の入力受付、通信I/F17を介した通信の制御、音源部18における波形データ生成の制御、信号処理部19における信号処理の制御等の制御動作を行う。   The CPU 11 is a control unit that performs overall control of the electronic musical instrument 10, and by executing a required control program stored in the ROM 12, the operation content detection and display circuit 15 of the operation element 21 via the detection circuit 14 is detected. Display control of the display device 22 via the audio signal I / F 16, input reception of the audio signal via the audio signal I / F 16, control of communication via the communication I / F 17, control of waveform data generation in the sound source unit 18, signal in the signal processing unit 19 Control operations such as processing control are performed.

ROM12は、CPU11が実行する制御プログラムや、変更する必要のないデータ等を記憶する記憶手段である。このROM12をフラッシュメモリ等の書き換え可能な不揮発性記憶手段によって構成し、これらのデータを更新できるようにすることも考えられる。
RAM13は、CPU11のワークメモリとして使用したり、一時的に使用するパラメータの値等を記憶したりする記憶手段である。
The ROM 12 is a storage unit that stores a control program executed by the CPU 11, data that does not need to be changed, and the like. It is conceivable that the ROM 12 is constituted by rewritable nonvolatile storage means such as a flash memory so that these data can be updated.
The RAM 13 is a storage unit that is used as a work memory for the CPU 11 or that temporarily stores parameter values and the like.

検出回路14は、操作子21に対してなされた操作内容を検出してその内容に従った信号をCPU11に伝達するための回路である。また、操作子21は、キー、ボタン、ダイヤル、スライダ等によって構成され、電子楽器10に対するユーザからの操作を受け付けるための操作手段である。なお、タッチパネルをLCDに積層する等して表示器22と操作子21とを一体に形成することもできる。また、電子楽器10の種類に応じて、鍵盤、弦、パッド、ペダル、ブレスコントローラ等、演奏操作を受け付けるための操作子も含む。   The detection circuit 14 is a circuit for detecting an operation content performed on the operation element 21 and transmitting a signal according to the content to the CPU 11. The operation element 21 is constituted by keys, buttons, dials, sliders, and the like, and is an operation means for receiving an operation from the user on the electronic musical instrument 10. Note that the display 22 and the operation element 21 can be integrally formed by, for example, stacking a touch panel on the LCD. In addition, depending on the type of the electronic musical instrument 10, an operation element for receiving a performance operation such as a keyboard, strings, pads, pedals, and a breath controller is included.

表示回路15は、CPU11からの指示に従って表示器22における表示を制御する回路である。また、表示器22は、液晶ディスプレイ(LCD)や発光ダイオード(LED)ランプ等によって構成され、電子楽器10の動作状態や設定内容あるいはユーザへのメッセージ、ユーザからの指示を受け付けるためのグラフィカル・ユーザ・インタフェース(GUI)等を表示するための表示手段である。   The display circuit 15 is a circuit that controls display on the display 22 in accordance with an instruction from the CPU 11. Further, the display 22 is configured by a liquid crystal display (LCD), a light emitting diode (LED) lamp, or the like, and is a graphical user for receiving an operation state and setting contents of the electronic musical instrument 10, a message to the user, and an instruction from the user. Display means for displaying an interface (GUI) or the like.

オーディオ信号I/F16は、マイクや他の音響機器等を接続し、オーディオ信号の入力を受け付けるためのインタフェースである。そして、ここに入力されたオーディオ信号は、信号処理部19における信号処理に供するようにしている。このとき、RAM13等により信号をバッファできるようにしてもよい。また、アナログ信号の入力を受け付ける場合にはA/D変換を行ってデジタル信号に変換するようにしている。   The audio signal I / F 16 is an interface for connecting a microphone and other audio equipment and receiving an input of an audio signal. The audio signal input here is used for signal processing in the signal processing unit 19. At this time, the signal may be buffered by the RAM 13 or the like. When receiving an analog signal input, A / D conversion is performed to convert it into a digital signal.

通信I/F17は、LAN(ローカルエリアネットワーク)のようなネットワークに接続する等して、PC(パーソナルコンピュータ)等の外部装置と通信するためのインタフェースである。そして、例えばイーサネット(登録商標)規格のインタフェースを用いて構成することができる。
また、通信I/F17として、他の電子楽器、音源装置等、MIDIデータを取り扱う外部装置との間でMIDIデータの送受信を行うためのインタフェースを設けてもよい。このようなインタフェースは、例えばUSB規格や、IEEE1394(Institute of Electrical and Electronic Engineers 1394)規格、あるいはRS232C(Recommended Standard 232 version C)規格等に準拠したインタフェースによって構成することができる。MIDIデータとそれ以外のデータを、共通のインタフェースを介して送受信できるようにすることも考えられる。
The communication I / F 17 is an interface for communicating with an external device such as a PC (personal computer) by connecting to a network such as a LAN (local area network). For example, an Ethernet (registered trademark) standard interface can be used.
Further, as the communication I / F 17, an interface for transmitting / receiving MIDI data to / from an external device handling MIDI data, such as another electronic musical instrument or a sound source device, may be provided. Such an interface can be configured by an interface conforming to, for example, the USB standard, the IEEE 1394 (Institute of Electrical and Electronic Engineers 1394) standard, or the RS232C (Recommended Standard 232 version C) standard. It may be possible to transmit and receive MIDI data and other data via a common interface.

音源部18は、演奏操作子の操作に従ってCPU11が生成したり、通信I/F17を介して外部装置から受信したりしたMIDI形式の演奏データを基に、複数の発音チャンネルでデジタル音響信号である波形データを生成する音源手段である。そして、生成した波形データはスピーカ等によるサウンドシステム23に入力して発音を行わせたり、信号処理部19に入力して信号処理に供したりする。   The sound source unit 18 is a digital sound signal in a plurality of sound generation channels based on MIDI performance data generated by the CPU 11 according to the operation of the performance operator or received from an external device via the communication I / F 17. This is a sound source means for generating waveform data. The generated waveform data is input to the sound system 23 such as a speaker to generate sound, or input to the signal processing unit 19 for signal processing.

信号処理部19は、エフェクタやミキサ等として機能し、音源部18によって生成されたりオーディオ信号I/F16を介して入力されたりした波形データに対し、CPU11により設定される処理パラメータに従ったエフェクト付与やミキシング等の信号処理を施す信号処理手段である。また、処理後の信号は、サウンドシステム23に入力し、その信号に基づく発音を行わせるようにしている。
これらの音源部18や信号処理部19は、ソフトウェアによって実現してもハードウェアによって実現してもよい。
The signal processing unit 19 functions as an effector, a mixer, and the like, and applies effects according to processing parameters set by the CPU 11 to waveform data generated by the sound source unit 18 or input via the audio signal I / F 16. And signal processing means for performing signal processing such as mixing. Further, the processed signal is input to the sound system 23, and sound generation based on the signal is performed.
The sound source unit 18 and the signal processing unit 19 may be realized by software or hardware.

ところで、上述の電子楽器10は、信号処理部19に、入力信号に対してダブリングのエフェクトを付与するダブリングエフェクタを備えている。なおここでは、ダブリングとは、元の音に、その音を加工した音を重ね、音に厚みを出す処理を指すものとする。そして、このようなダブリング自体は、ダブルトラック録音やADT(Artificial Double Tracking)を模した効果として広く利用されており、ボーカルだけでなくエレキギター等の楽器音に使われることも多い。   By the way, the electronic musical instrument 10 described above includes a doubling effector that applies a doubling effect to the input signal in the signal processing unit 19. Here, doubling refers to a process of adding a processed sound to the original sound to increase the thickness of the sound. Such doubling itself is widely used as an effect simulating double track recording or ADT (Artificial Double Tracking), and is often used not only for vocals but also for musical instruments such as electric guitars.

また、上記の「加工」としては例えば、ディレイ、パンニング、ピッチシフト(ここでは、入力信号のピッチによらず一定量だけピッチを変化させるものをいう)、あるいはこれらにモジュレーションやデチューンを組み合わせた処理が使用されていた。
しかしここでは、上記の「加工」として、入力信号のピッチを、その入力信号のピッチ情報をフィルタ処理して得たピッチに変換するピッチ変換処理を行うようにしている。この点が、この実施形態の特徴である。なおここでは、ピッチ変換に加え、入力信号と、加工後の加工信号であるボイス信号とに対して、それぞれパンニング処理も行うようにしている。
In addition, as the above-mentioned “processing”, for example, delay, panning, pitch shift (in this case, the pitch is changed by a fixed amount regardless of the pitch of the input signal), or processing in which modulation or detuning is combined with these. Was used.
However, here, as the “processing” described above, a pitch conversion process is performed in which the pitch of the input signal is converted into a pitch obtained by filtering the pitch information of the input signal. This is a feature of this embodiment. Here, in addition to pitch conversion, panning processing is also performed on the input signal and the voice signal that is the processed signal after processing.

次に、図2に、信号処理部19に備える上記のようなダブリングエフェクタの機能構成を示す。
図2に示すように、ダブリングエフェクタ30は、ボイス信号生成部40,遅延処理部50,ミックス部60を備えている。
このうち、ボイス信号生成部40は、上記の「加工」を行ってボイス信号を生成する加工信号生成手段であり、ピッチ検出部41,フィルタ処理部42,ピッチ変換部43を備えている。
Next, FIG. 2 shows a functional configuration of the doubling effector as described above provided in the signal processing unit 19.
As shown in FIG. 2, the doubling effector 30 includes a voice signal generation unit 40, a delay processing unit 50, and a mixing unit 60.
Among these, the voice signal generation unit 40 is a processing signal generation unit that performs the above-described “processing” to generate a voice signal, and includes a pitch detection unit 41, a filter processing unit 42, and a pitch conversion unit 43.

そして、ピッチ検出部41は、入力信号のピッチを検出してピッチ情報を取得する機能を有するピッチ検出手段である。ピッチ情報取得のためのピッチ検出処理の詳細については、後述する。
フィルタ処理部42は、ピッチ検出部41で取得したピッチ情報に対してフィルタ処理を行うフィルタ処理手段である。このフィルタ処理としては、例えば図3に示すような遅延部71〜74、減衰部75〜79及び加算部80を備えたローパスフィルタ(LPF)が考えられるが、ハイパスフィルタ(HPF)やバンドエリミネートフィルタ(BEF)を始め、他にも種々のフィルタを使用することが考えられる。複数のフィルタを組み合わせてもよい。また、フィルタ処理の前や後ろに遅延を挿入し、ピッチ情報をピッチ変換部43でのピッチ変換処理に反映させるタイミングをずらすようにしてもよい。
The pitch detector 41 is pitch detecting means having a function of detecting pitch of an input signal and acquiring pitch information. Details of the pitch detection process for acquiring pitch information will be described later.
The filter processing unit 42 is a filter processing unit that performs filter processing on the pitch information acquired by the pitch detection unit 41. As this filter processing, for example, a low pass filter (LPF) including delay units 71 to 74, attenuation units 75 to 79, and an adder unit 80 as shown in FIG. 3 can be considered, but a high pass filter (HPF) or a band eliminate filter may be used. It is conceivable to use various filters such as (BEF). A plurality of filters may be combined. Further, a delay may be inserted before or after the filter processing, and the timing at which the pitch information is reflected in the pitch conversion processing in the pitch conversion unit 43 may be shifted.

ピッチ変換部43は、ピッチ検出部41で取得したピッチ情報と、フィルタ処理部42による処理後のピッチ情報とを利用し、入力信号に対してピッチ変換処理を行い、そのピッチをフィルタ処理部42による処理後のピッチ情報が示すピッチに変換してボイス信号を生成する機能を有するピッチ変換手段である。このとき、なるべく音色を変えず、ピッチのみ変換するような処理を行うことが好ましい。この実施形態で採用しているピッチ変換処理については後に詳述する。また、ピッチ変換部43は、生成したボイス信号をミックス部60に供給する。   The pitch conversion unit 43 uses the pitch information acquired by the pitch detection unit 41 and the pitch information after processing by the filter processing unit 42 to perform pitch conversion processing on the input signal, and the pitch processing unit 42 Is a pitch conversion means having a function of generating a voice signal by converting into a pitch indicated by the pitch information after processing. At this time, it is preferable to perform processing that converts only the pitch without changing the timbre as much as possible. The pitch conversion process employed in this embodiment will be described in detail later. In addition, the pitch conversion unit 43 supplies the generated voice signal to the mixing unit 60.

ここで、図4に、フィルタ処理部42でのフィルタ処理にLPFを使用した場合の入力信号とボイス信号のピッチ変化をそれぞれ破線と実線で示す、図13及び図14と対応する図を示す。この図から分かるように、ピッチ情報をLPFに通すことにより、入力信号とボイス信号とで、ピッチの変化の仕方を変えることができる。より具体的には、(a)の例ではボイス信号のピッチの立ち上がりを遅くし、(b)の例ではビブラートの大きさを抑制することができる。   Here, FIG. 4 is a diagram corresponding to FIGS. 13 and 14, in which the change in pitch between the input signal and the voice signal when the LPF is used for the filter processing in the filter processing unit 42 is indicated by a broken line and a solid line, respectively. As can be seen from this figure, by passing the pitch information through the LPF, the way of changing the pitch can be changed between the input signal and the voice signal. More specifically, the rise of the pitch of the voice signal can be delayed in the example of (a), and the size of the vibrato can be suppressed in the example of (b).

図2の説明に戻ると、遅延処理部50は、バッファメモリ等によって構成され、ミックス部60に入力する入力信号を、ボイス信号生成部40でのボイス信号生成処理に必要な時間だけ遅延する遅延手段である。この遅延の長さは、例えば20ミリ秒(ms)程度とすればよい。   Returning to the description of FIG. 2, the delay processing unit 50 is configured by a buffer memory or the like, and delays the input signal input to the mixing unit 60 by a time necessary for the voice signal generation processing in the voice signal generation unit 40. Means. The length of this delay may be about 20 milliseconds (ms), for example.

ミックス部60は、入力信号とボイス信号とを混合して出力する混合手段であり、ゲイン調整部61,64,パン調整部62,65,加算部63,66を備えている。そして、遅延処理部50によって遅延された入力信号と、ボイス信号生成部40によって生成されたボイス信号とに対してそれぞれゲイン調整部61,64でゲイン調整を行った上でパン調整部62,65によりL側信号とR側信号に振り分け、これらを加算部63,66で加算して、LとRのステレオ信号として出力する。
なお、ゲイン調整やパン調整は必須ではなく、単に入力信号とボイス信号とを加算して出力するようにしてもよい。
The mixing unit 60 is a mixing unit that mixes and outputs an input signal and a voice signal, and includes gain adjusting units 61 and 64, pan adjusting units 62 and 65, and adding units 63 and 66. The gain adjustment units 61 and 64 perform gain adjustment on the input signal delayed by the delay processing unit 50 and the voice signal generated by the voice signal generation unit 40, respectively, and then the pan adjustment units 62 and 65. Are assigned to the L side signal and the R side signal, added by the adders 63 and 66, and output as an L and R stereo signal.
Note that gain adjustment and pan adjustment are not essential, and an input signal and a voice signal may be simply added and output.

電子楽器10においては、以上のようなダブリングエフェクタ30を設けることにより、入力信号にピッチ変換処理を施し、入力信号のピッチ情報をフィルタ処理して得たピッチの加工信号を生成し、入力信号と混合して出力できるようにし、変化に富んだエフェクトを、簡単な仕組みで実現することができるようにしている。   In the electronic musical instrument 10, by providing the doubling effector 30 as described above, a pitch conversion process is performed on the input signal, a pitch processing signal obtained by filtering the pitch information of the input signal is generated, and the input signal and It can be mixed and output, and a variety of effects can be realized with a simple mechanism.

信号処理部19に、他のエフェクタやミキサの機能を設けてもよいことはもちろんであり、ダブリングエフェクタ30の出力を、それらのエフェクタに入力してさらにエフェクトを付与したり、ミキサに入力してミキシング処理に供したりすることもできる。逆に、他のエフェクタやミキサによる処理後の信号をダブリングエフェクタ30に入力するようにすることも考えられる。
また、信号処理部19が複数のチャンネルで信号処理を行う場合に、エフェクタを各チャンネル毎に設けてそれぞれ独立に動作させられるようにしてよいことは、もちろんである。
Of course, the signal processing unit 19 may be provided with functions of other effectors and mixers, and the output of the doubling effector 30 is input to these effectors for further effects, or input to the mixer. It can also be used for mixing processing. Conversely, it is also conceivable to input a signal after processing by another effector or mixer to the doubling effector 30.
In addition, when the signal processing unit 19 performs signal processing on a plurality of channels, it is needless to say that an effector may be provided for each channel and operated independently.

次に、図5を用いて、ピッチ検出部41におけるピッチ検出処理について説明する。
ピッチ検出部41においては、ピッチの検出は、基本的には、入力信号波形101と、その入力信号波形101の+側及び−側のエンベロープに所定値(又は所定の関数値)を乗算して得た+側エンベロープ102及び−側エンベロープ103とが交差する(サンプル値の大小関係が入れ替わる)タイミングを検出することにより行っている。
Next, the pitch detection process in the pitch detection part 41 is demonstrated using FIG.
In the pitch detection unit 41, basically, the pitch is detected by multiplying the input signal waveform 101 and the + side and − side envelopes of the input signal waveform 101 by a predetermined value (or a predetermined function value). This is done by detecting the timing at which the obtained + side envelope 102 and − side envelope 103 intersect (the magnitude relationship between the sample values is switched).

より具体的には、検出フラグIRQを用意し、入力信号波形101が+側エンベロープ102と交差した時点T,Tでこれを0から1に立ち上げ、入力信号波形101が−側エンベロープ103と交差した時点T,Tで1から0に立ち下げるようにし、IRQフラグの立ち上がりから次の立ち上がりまでの時間を、サンプル数をカウントすることにより計測するようにしている。この計測した時間(サンプル数)を検出したピッチとする。 More specifically, a detection flag IRQ is prepared, and when the input signal waveform 101 intersects with the + side envelope 102, this is raised from 0 to 1 at the time points T 1 and T 3 , and the input signal waveform 101 becomes the − side envelope 103. At time points T 2 and T 4 when crossing, the time is decreased from 1 to 0, and the time from the rising edge of the IRQ flag to the next rising edge is measured by counting the number of samples. The measured time (number of samples) is taken as the detected pitch.

なお、Tの直後にも入力信号波形101が+側エンベロープ102と交差するが、この時点ではIRQは既に1であるので、立ち上がりは起こらない。そして、TにIRQフラグが立ち下がった後で入力信号波形101が+側エンベロープ102と交差するTで、次の立ち上がりが起こる。同様なことが、−側エンベロープ103についても言える。
このようにエンベロープを利用するのは、高調波成分を多く含み、1周期内で何度もゼロクロスを繰り返すような信号や、波形の形が崩れていくつものピークを持つような信号等についてのピッチ検出間違いを防ぐためで、ゼロクロスのみの検出に比べるとはるかに正確なピッチが得られる。
Although intersects the input signal waveform 101 is the + side envelope 102 immediately after T 1, since at this point the IRQ is already 1, the rise does not occur. Then, after the IRQ flag falls at T 2 , the next rise occurs at T 3 where the input signal waveform 101 intersects the + side envelope 102. The same is true for the negative envelope 103.
The use of the envelope in this way is the pitch for signals that contain many harmonic components and repeat zero crosses many times within one period, or signals that have a number of peaks due to their waveform being deformed. In order to prevent detection errors, a much more accurate pitch can be obtained compared to detection of only zero cross.

またここでは、処理対象のオーディオ信号のサンプリング周波数は44.1キロヘルツ(kHz)とし、この場合サンプリング周期は約0.02msである。そして、サンプリング周期より細かい精度でピッチを求めようとする場合には、補間を行って、交差のタイミングをより細かく求めるようにすることも考えられる。
また、図5に示した例では、+側及び−側のエンベロープ102,103は、時間の経過に応じて減衰するようなものとし、前者はIRQフラグの立ち上がり、後者は立ち下がりをトリガに減衰をリセットするようなものとしている。
Here, the sampling frequency of the audio signal to be processed is 44.1 kilohertz (kHz), and in this case, the sampling period is about 0.02 ms. When it is desired to obtain the pitch with a finer accuracy than the sampling period, it is conceivable to perform interpolation to obtain the intersection timing more finely.
In the example shown in FIG. 5, the + and − envelopes 102 and 103 are attenuated as time elapses, the former is attenuated by the rising edge of the IRQ flag, and the latter is triggered by the falling edge. Is like resetting.

そして、ピッチ検出部41は、以上のような動作により検出した入力信号のピッチを、順にバッファに記録していき、所定タイミング毎、ここでは6ms毎に、バッファに記録したピッチのうち所定個数の平均値を、その時点の入力信号波形101のピッチを示すピッチ情報として出力するようにしている。なお、ここで用いるバッファは、容量が一杯になった場合に古いデータから消去するリングバッファがよい。また、上記の所定個数は例えば16個とすればよく、バッファに記録した数がこれに満たない場合には、既に記録されている分のみの平均値とすればよい。   Then, the pitch detection unit 41 sequentially records the pitch of the input signal detected by the above operation in the buffer, and at a predetermined timing, here every 6 ms, a predetermined number of pitches recorded in the buffer. The average value is output as pitch information indicating the pitch of the input signal waveform 101 at that time. The buffer used here is preferably a ring buffer that erases old data when the capacity becomes full. Further, the predetermined number may be set to 16, for example, and if the number recorded in the buffer is less than this, the average value for the amount already recorded may be used.

また、上記の検出を行う場合に、ノイズを除去して精度を上げるため、また、ボイス信号の生成を行うべき部分と行うべきでない部分を区別するため、検出条件や検出結果について、以下のような評価を行うようにするとよい。   In addition, when performing the above detection, in order to remove noise and improve accuracy, and to distinguish a portion that should generate a voice signal from a portion that should not be generated, detection conditions and detection results are as follows. It is recommended to make a proper evaluation.

まず、ピッチ検出は、入力信号のレベルが所定値以上の場合にのみ行うようにするとよい。あまりにレベルが低い信号は、無音の信号に混入したノイズと考えられるためである。
また、入力信号波形101がゼロレベルと交差するゼロクロスの回数をカウントし、時間当たりのゼロクロス回数が所定値以上あった場合に、ピッチ検出を行わないようにするとよい。ここでは、この閾値をここでは6ms当たり30回以上としている。このようになる部分は、入力信号は、人の声のうち子音に該当するものであり、このような部分ではボイス信号の加算を行わない方が好ましい出力音が得られることが、経験的にわかっているので、ピッチ検出をやめ、それに連動させてボイス信号の生成も停止させるためである。
First, the pitch detection may be performed only when the level of the input signal is equal to or higher than a predetermined value. This is because a signal whose level is too low is considered as noise mixed in a silent signal.
Also, the number of zero crossings where the input signal waveform 101 crosses the zero level is counted, and when the number of zero crosses per time is equal to or greater than a predetermined value, it is preferable not to perform pitch detection. Here, this threshold is set to 30 times or more per 6 ms here. In this part, the input signal corresponds to the consonant of the human voice, and it is empirically found that it is preferable to not add the voice signal in such a part. This is because the pitch detection is stopped and the generation of the voice signal is stopped in conjunction with the detection.

また、以上の基準を満たす入力信号に対してピッチの検出を開始した場合でも、連続して検出したピッチのばらつきが、所定範囲内、例えば12.5%以内であった場合に初めて連続検出モードに移行し、これが満たされるまでは検出したピッチの値をピッチバッファに記録しないようにするとよい。誤差が大きい場合には、検出結果を信用できないためである。   Even when pitch detection is started for an input signal that satisfies the above criteria, the continuous detection mode is not used until the continuously detected pitch variation is within a predetermined range, for example, 12.5%. It is preferable not to record the detected pitch value in the pitch buffer until this condition is satisfied. This is because the detection result cannot be trusted when the error is large.

さらに、IRQフラグの立ち上がりから立ち下がりまでの期間の長さをPCNT1、立ち下がりから立ち上がりまでの期間の長さをPCTN0としてそれぞれ計測し、以下の(a)〜(c)の値を求めてバッファに記録し、最新の検出値を1つ前にピッチバッファに記録した値と比較した場合の誤差が所定範囲内、例えば12.5%以内であった場合にのみ、検出した値を新たにバッファに記録するようにしてもよい。(a)〜(c)のうち任意の個数について同時に誤差が所定範囲内であった場合に記録を行うようにしてもよい。
(a)PCNT1+PCTN0(IRQフラグの立ち上がりから次の立ち上がりまで)
(b)PCNT0+PCTN1(IRQフラグの立ち下がりから次の立ち下がりまで)
(c)2周期分のPCNT1+PCNT0
(a)は図5に示したピッチの検出値そのものである。
Further, the length of the period from the rise to the fall of the IRQ flag is measured as PCNT1, the length of the period from the fall to the rise is measured as PCTN0, and the following values (a) to (c) are obtained and buffered: The detected value is newly buffered only when the error when the latest detected value is compared with the value previously recorded in the pitch buffer is within a predetermined range, for example, within 12.5%. May be recorded. Recording may be performed when the error is within a predetermined range for any number of (a) to (c).
(A) PCNT1 + PCTN0 (from the rise of the IRQ flag to the next rise)
(B) PCNT0 + PCTN1 (from the fall of the IRQ flag to the next fall)
(C) PCNT1 + PCNT0 for two cycles
(A) is the detected pitch value itself shown in FIG.

また、上記(a)〜(c)に代えてまたはこれに加えて、(d)として2周期分のPCNT1+PCNT0を検出して(a)の2倍の値と比較し、周期ミスの確認を行うようにしてもよい。
さらに、上記の(a)〜(d)で誤差が所定範囲内でなかった場合に、検出ミスとしてその回数をカウントし、これが所定回数以上となった場合に検出を中止して初めからやり直すようにしてもよい。
例えば、ミスが3回以下の場合には単にバッファへの記録を行わずにピッチ検出を続行し、ミスが4回から7回の場合には検出した値をバッファに記録し、比較対象の値を更新してピッチ検出を続行し、ミスが8回以上の場合にはそれまでバッファに記録したデータを全て破棄して初めから検出をやり直す等である。
Also, instead of or in addition to the above (a) to (c), PCNT1 + PCNT0 for two cycles is detected as (d) and compared with twice the value of (a), and a cycle error is confirmed. You may do it.
Further, when the error is not within the predetermined range in the above (a) to (d), the number of times is counted as a detection error, and when this exceeds the predetermined number, the detection is stopped and the process is started again from the beginning. It may be.
For example, if the miss is 3 times or less, the pitch detection is continued without simply recording in the buffer. If the miss is 4 to 7 times, the detected value is recorded in the buffer, and the value to be compared is recorded. Is updated and pitch detection is continued. If there are more than eight mistakes, all the data recorded in the buffer is discarded and detection is performed again from the beginning.

次に、図6及び図7を用いて、ピッチ変換部43におけるピッチ変換処理について説明する。
ピッチ変換部43においては、ピッチ変換処理として、入力信号111を窓関数を用いて切り出し、これを要素として並べ、その並べる周期によって変換後の波形のピッチを決定する処理を行うようにしている。なおここでは、図6及び図7に示すように、入力信号111の切り出しは、OUT0とOUT1の2系統でタイミングをずらして行い、これらを加算したものをピッチ変換後のボイス信号として出力するようにしている。そして、このような処理によれば、入力信号111のフォルマント情報を保持したままピッチ変換を行うことができる。
この手法は、Lent法と呼ばれ、以下の論文に記載された方法を応用したものである。
Keith Lent (1989) “An efficient method for pitch shifting digitally sampled sounds.” Computer Music Journal Vol. 13 No.4. pp.65-71
Next, the pitch conversion process in the pitch conversion unit 43 will be described with reference to FIGS. 6 and 7.
In the pitch conversion unit 43, as the pitch conversion process, the input signal 111 is cut out using a window function, arranged as an element, and a process of determining the converted waveform pitch according to the arrangement period is performed. Here, as shown in FIGS. 6 and 7, the input signal 111 is cut out by shifting the timing of the two systems OUT0 and OUT1, and the sum of these signals is output as a voice signal after pitch conversion. I have to. According to such processing, pitch conversion can be performed while maintaining the formant information of the input signal 111.
This method is called the Lent method and is an application of the method described in the following paper.
Keith Lent (1989) “An efficient method for pitch shifting digitally sampled sounds.” Computer Music Journal Vol. 13 No.4. Pp.65-71

図6に示すのが、ピッチダウン(周波数減少)の場合の処理例、図7に示すのが、ピッチアップ(周波数増加)の場合の処理例である。
また、これらの図において、Pは、ピッチ検出部41が検出結果として出力する入力信号111のピッチの値、Pは、フィルタ処理部42が出力するボイス信号のピッチの値である。また、SB及びRBは、それぞれ基準区間及び出力区間の長さを示すが、これらの符号は区間自体を表わす符号としても用いる。また、上記の各値は、信号の内容によって変化するものであるので、異なる時点の値には「′」や「″」をつけて区別している。
FIG. 6 shows a processing example in the case of pitch down (frequency decrease), and FIG. 7 shows a processing example in the case of pitch up (frequency increase).
Further, in these figures, P I, the pitch value of the input signal 111 pitch detector 41 is output as the detection result, the P V, a value of the pitch of the voice signal filtering unit 42 outputs. SB and RB indicate the lengths of the reference section and the output section, respectively. These codes are also used as codes representing the sections themselves. Further, since each of the above values changes depending on the content of the signal, “′” and “″” are added to the values at different time points to distinguish them.

そして、ピッチ変換処理においてはまず、ボイス信号の出力とは関係なく、入力信号111をバッファに書き込むと共に、その入力信号111についてピッチPの2倍の期間を持つ基準区間SBを順に設定していくようにしている。そして、出力のための窓関数による切り出しを行う際には、この基準区間を単位に行うようにしている。
基準区間の長さは、ピッチPが変われば当然変わるが、上述のようにピッチ検出部41はピッチ情報の出力を6ms毎に行うようにしているので、次の出力が行われるまでは、ピッチPの値は変化しないことになる。
なお、上記のバッファは、遅延処理部50のバッファと共通化してもよい。
Then, the pitch conversion processing, first, regardless of the output of the voice signal, writes the input signal 111 to the buffer, and set the reference section SB having twice the period of the pitch P I in order for the input signal 111 I am going to go. Then, when performing extraction using a window function for output, this reference interval is used as a unit.
The length of the reference interval, of course vary but if Kaware the pitch P I, because the pitch detector 41 as described above is to perform the output of the pitch information for each 6 ms, until the next output is performed, the value of the pitch P I will not change.
Note that the above buffer may be shared with the buffer of the delay processing unit 50.

一方、出力信号の生成としては、まずOUT0系統の信号生成を開始するが、この場合、ピッチPの2倍の期間を持つ出力区間RBの設定を行う。そして、その出力区間RBにおいては、その出力区間RBの開始時点における最新の基準区間SB内の入力信号112を、その先頭から順にバッファから読み出して出力する。このとき、読み出した信号には窓関数113を乗算するが、ここでは、この窓関数として、長さが読み出しを行う基準区間SBと等しいハニング窓を用いている。また、入力信号111のバッファへの書き込みと、出力のための読み出しは、並行して行われることになる。 On the other hand, the generation of the output signal, first it starts the signal generation of OUT0 system, in this case, to set the output interval RB having twice the period of the pitch P V. Then, in the output section RB, the input signal 112 in the latest reference section SB at the start time of the output section RB is read from the buffer sequentially and output. At this time, the read signal is multiplied by the window function 113. Here, a Hanning window having a length equal to the reference interval SB for reading is used as the window function. Further, the writing of the input signal 111 to the buffer and the reading for output are performed in parallel.

また、ピッチダウンの場合、RB>SBであるので、該当する基準区間SBの入力信号112を全て読み出した後も、出力区間RBは続くことになるが、この部分については、「0」のデータを出力するようにしている。
そして、出力区間RBが終了すると、その時点でのボイス信号のピッチP″に従って新たな出力区間RB″を設定し、その開始時点の最新の基準区間SB′の入力信号の読み出しを行い、以後この処理を繰り返す。
In the case of pitch down, since RB> SB, the output section RB continues even after all of the input signals 112 of the corresponding reference section SB are read out. Is output.
When the output section RB ends, a new output section RB ″ is set according to the pitch P V ″ of the voice signal at that time, the input signal of the latest reference section SB ′ at the start time is read, and thereafter This process is repeated.

OUT1系統の信号生成についても、開始時点をPだけずらす点以外は、OUT0系統の場合の処理と同じものとしている。ただし、読み出しを行う基準区間や、出力区間の長さについては、各出力区間の設定時の情報に従って定めるので、OUT0系統の出力信号と全く同じ信号が生成されるとは限らない。
そして、上述のように、OUT0系統とOUT1系統の出力を加算して、ボイス信号として出力する。このような処理により、入力信号111と同様なフォルマントを有するピッチPのボイス信号を出力することができる。
For even OUT1 system of signal generation, except for shifting the start time only P V are the same as the processing in the case of OUT0 system. However, since the reference section for reading and the length of the output section are determined according to the information at the time of setting each output section, the same signal as the output signal of the OUT0 system is not always generated.
Then, as described above, the outputs of the OUT0 system and the OUT1 system are added and output as a voice signal. By such processing, a voice signal having a pitch Pv having the same formant as the input signal 111 can be output.

一方、ピッチアップの場合には、図7に示す通りRB<SBであるので、基準区間SBの入力信号112を全て読み出す前に出力区間RBが終了するが、この場合には、出力区間RBの終了時に読み出しを中止するようにしている。図7に仮想線で示した波形は、その後の読み出されない部分である。そして、これに対応して、窓関数114として、幅がRBと等しいハニング窓を用いている。   On the other hand, in the case of pitch up, since RB <SB as shown in FIG. 7, the output section RB ends before all the input signals 112 in the reference section SB are read. In this case, in the output section RB Reading is stopped at the end. The waveform indicated by the phantom line in FIG. 7 is a portion that is not read out thereafter. Correspondingly, a Hanning window having a width equal to RB is used as the window function 114.

しかし、出力区間RBの終了時に、次の出力区間RB″の設定を行い、その開始時点の最新の基準区間SBの入力信号の読み出しを開始する点は、図6の場合と同様である。ただし、図7の例のように、出力区間RB″の設定時に入力信号111において基準区間SBが終了していない場合、同じ基準区間SBの入力信号112を、出力区間RB″でも再度読み出すことになる。
OUT1系統の信号生成について開始時点をPだけずらす点も、図6の場合と同様である。
However, at the end of the output section RB, the next output section RB ″ is set and reading of the input signal of the latest reference section SB at the start time is the same as in the case of FIG. As shown in the example of FIG. 7, when the reference section SB is not completed in the input signal 111 when the output section RB ″ is set, the input signal 112 of the same reference section SB is read again in the output section RB ″. .
Similarly to the case of FIG. 6, the start time is shifted by Pv for OUT1 system signal generation.

このような処理により、ピッチアップの場合にも、入力信号111と同様なフォルマントを有するピッチPのボイス信号を出力することができる。
なお、もしボイス信号のピッチを入力信号等しくするのであれば、どちらの処理も適用可能である。
By such processing, a voice signal having a pitch Pv having the same formant as that of the input signal 111 can be output even in the case of pitch up.
If the pitch of the voice signal is equal to that of the input signal, either process can be applied.

また、上述したピッチ変換処理において、入力信号111のバッファへの書き込みと読み出しの速度(時間当たりの処理サンプル数)は等しくするとよいが、読み出し速度を異ならせることにより、入力音声の声質を、男性から女性又はその逆に変換させるジェンダー効果を得ることも考えられる。
さらに、ピッチがサンプル数の整数倍にならない場合等、サンプルとサンプルの間のタイミングにおける信号値が必要になった場合には、適宜補間処理を行うようにするとよい。
In the pitch conversion process described above, the input signal 111 may be written to and read from the buffer at the same speed (number of processed samples per hour). It is also conceivable to obtain a gender effect that is converted from female to female or vice versa.
Furthermore, when a signal value at the timing between samples is necessary, such as when the pitch is not an integral multiple of the number of samples, it is preferable to perform interpolation processing as appropriate.

次に、図8乃至図12に、CPU11が実行する、以上説明してきたピッチ検出及びピッチ変換に関する処理のフローチャートを示す。これらの処理は、ここではCPU11が信号処理部19から必要な情報を取得して行うものとする。そしてこの場合、CPU11は、ダブリングエフェクタ30の機能を有効にする旨の設定がなされると、図8乃至図12のフローチャートに示す処理を、それぞれ独立に開始する。ただし、これらの処理は、信号処理部19側で行うようにしてもよい。   Next, FIGS. 8 to 12 show flowcharts of the processing relating to pitch detection and pitch conversion described above, which is executed by the CPU 11. Here, it is assumed that the CPU 11 acquires necessary information from the signal processing unit 19 and performs the processing. In this case, when the setting for enabling the function of the doubling effector 30 is made, the CPU 11 starts the processes shown in the flowcharts of FIGS. However, these processes may be performed on the signal processing unit 19 side.

まず、図8に、ピッチ検出処理のフローチャートを示す。
この処理においては、まず、ダブリング処理対象の入力信号を1サンプル分入力信号バッファ及び出力信号バッファへ記録する(S11)。ここで、入力信号バッファは、ピッチ変換部43におけるボイス信号の生成に用いるバッファであり、100ms分程度のデータを記憶する容量を有するリングバッファとすればよい。また、出力信号バッファは、遅延処理部50による遅延処理に用いるバッファであり、1秒分程度のデータを記憶する容量を有するリングバッファとすればよい。
First, FIG. 8 shows a flowchart of the pitch detection process.
In this process, first, an input signal to be subjected to a doubling process is recorded in the input signal buffer and the output signal buffer for one sample (S11). Here, the input signal buffer is a buffer used for generating a voice signal in the pitch converter 43, and may be a ring buffer having a capacity for storing data of about 100 ms. The output signal buffer is a buffer used for delay processing by the delay processing unit 50, and may be a ring buffer having a capacity for storing data for about one second.

その後、入力信号のゼロクロスをカウントする(S12)と共に、サンプルカウンタをカウントアップする(S13)。
そしてその後、ピッチ検出中であれば(S14)、入力信号が周期の開始位置か否かの判定を行う(S15)。ピッチ検出中か否かは、次の図9に示す処理で設定するピッチフラグの内容により判断することができる。また、ステップS15の判定は、図5を用いて説明したように、入力信号とエンベロープとの交差の検出に応じてIRQフラグを変化させ、その立ち上がりの有無を検出することにより行うことができる。
Thereafter, the zero cross of the input signal is counted (S12) and the sample counter is counted up (S13).
After that, if the pitch is being detected (S14), it is determined whether or not the input signal is the start position of the cycle (S15). Whether or not the pitch is being detected can be determined based on the contents of the pitch flag set in the process shown in FIG. Further, as described with reference to FIG. 5, the determination in step S15 can be performed by changing the IRQ flag according to the detection of the intersection between the input signal and the envelope and detecting the presence or absence of the rise.

そして、その判定の結果周期の開始位置であれば(S16)、サンプルカウンタの現在値をピッチデータとしてピッチバッファに記録する(S17)と共に、サンプルカウンタをリセットする(S18)。その後、入力信号の次のサンプルタイミングまで待機し(S19)、次のサンプルタイミングでステップS11に戻って処理を繰り返す。
一方、ステップS16で周期の開始位置でなければ、そのままステップS19に進んで次のサンプルタイミングまで待機する。また、ステップS14でピッチ検出中でなければ、サンプルカウンタをリセットする(S18)と共に、次のサンプルタイミングまで待機する(S19)。
If the result of the determination is the start position of the cycle (S16), the current value of the sample counter is recorded as pitch data in the pitch buffer (S17) and the sample counter is reset (S18). Then, it waits until the next sample timing of the input signal (S19), returns to step S11 at the next sample timing, and repeats the processing.
On the other hand, if it is not the start position of the cycle in step S16, the process proceeds to step S19 and waits until the next sample timing. If the pitch is not being detected in step S14, the sample counter is reset (S18) and waits until the next sample timing (S19).

なお、以上の図8に示した処理において、ステップS17でピッチデータの記録を行う際、検出条件や検出結果について種々の検討を行うとよいことは、図5の説明で述べた通りであるが、説明を簡単にするため、ここではこのような検討に係る処理は示していない。また、ピッチの検出を行うか否かについては、次の図9に示す処理により、入力信号のゼロクロス数に基づいて判断するようにしている。   In the process shown in FIG. 8, as described in the description of FIG. 5, it is preferable to perform various studies on the detection condition and the detection result when recording the pitch data in step S17. In order to simplify the explanation, the processing related to such examination is not shown here. Whether or not to detect the pitch is determined based on the number of zero crosses of the input signal by the processing shown in FIG.

次に、図9に、ピッチ検出制御処理のフローチャートを示す。
この処理においては、まず、図8のステップS12でカウントしているゼロクロスの数が所定値(ここでは上述のように30回)以下である場合(S21)、ピッチフラグを「1」に設定し、ピッチ検出実行を示す(S22)。その後、ゼロクロス数をリセットし(S25)、ステップS21の処理から所定時間(ここでは上述のように6ms)経過するまで待機し(S26)、その後ステップS21に戻って処理を繰り返す。
また、ステップS21でゼロクロス数が所定値以上である場合には、ピッチフラグを「0」に設定し、ピッチ検出停止を示す(S23)と共に、ピッチバッファに記録しているピッチデータをクリアして(S24)、ステップS25以降の処理に進む。
Next, FIG. 9 shows a flowchart of the pitch detection control process.
In this process, first, when the number of zero crosses counted in step S12 in FIG. 8 is equal to or less than a predetermined value (here, 30 times as described above) (S21), the pitch flag is set to “1”. The pitch detection execution is shown (S22). Thereafter, the number of zero crosses is reset (S25), and the process waits until a predetermined time (here, 6 ms) elapses from the process of step S21 (S26), and then returns to step S21 to repeat the process.
If the number of zero crosses is greater than or equal to the predetermined value in step S21, the pitch flag is set to “0”, indicating that the pitch detection is stopped (S23), and the pitch data recorded in the pitch buffer is cleared. (S24), the process proceeds to step S25 and subsequent steps.

従って、図9のフローチャートの処理においては、ステップS21の処理を所定時間毎に行い、その間のゼロクロス数が所定値以下の場合にピッチ検出実行を設定し、所定値より大きい場合にはピッチ検出停止を設定することになる。
以上の図8及び図9に示した処理により、ピッチ検出部41におけるピッチの検出とその制御を行うことができる。ただし、最終的にピッチ検出部41から検出結果として出力されるピッチの値は、次の図10の処理により求めた値である。
Therefore, in the process of the flowchart of FIG. 9, the process of step S21 is performed every predetermined time, and the pitch detection execution is set when the number of zero crosses during that time is equal to or smaller than the predetermined value, and the pitch detection is stopped when larger than the predetermined value. Will be set.
With the processing shown in FIGS. 8 and 9, the pitch detection unit 41 can detect and control the pitch. However, the pitch value finally output as a detection result from the pitch detection unit 41 is a value obtained by the processing of the next FIG.

次に、図10に、ピッチ設定処理のフローチャートを示す。
この処理においては、まず、ピッチバッファに記録されているピッチデータのうち所定個(例えば16個)のデータの平均値を求めて入力信号のピッチPの値とする(S31)。ここでは、この値がピッチ検出部41から検出結果として出力されるピッチの値となる。
また、ステップS31で求めたピッチPは、フィルタに入力し、そのフィルタで出力値を演算して(S32)、演算した出力値をボイス信号のピッチPとする(S33)。これらのステップS32及びS33の処理が、フィルタ処理部42の機能と対応する処理である。
Next, FIG. 10 shows a flowchart of the pitch setting process.
In this process, first, the value of the pitch P I of a predetermined number (e.g. 16) input signal the average value of the data of the pitch data recorded in the pitch buffer (S31). Here, this value is a pitch value output as a detection result from the pitch detection unit 41.
The pitch P I obtained in step S31 is input to the filter, and calculates the output value in the filter (S32), the calculated output values and pitch P V of the voice signal (S33). The processes in steps S32 and S33 are processes corresponding to the function of the filter processing unit 42.

そしてその後、ステップS31の処理から所定時間(ここでは上述のように6ms)経過するまで待機し(S34)、その後ステップS31に戻って処理を繰り返す。
なお、ここでは、図9に示した処理と、図10に示した処理では繰り返し周期が同じであるので、これらの処理を同期させて行ってもよい。また、ステップS31で所定個のデータが記録されていなかった場合には、記録されている分だけの平均値をピッチPの値とすればよい。また、全くデータが記録されていない場合には、ピッチPを出力しなくてよい。この場合、ボイス信号のピッチPはクリアし、ステップS32及びS33の処理は行わなくてよい。
以上の図10に示した処理により、ピッチ変換部43におけるピッチ変換処理に使用する入力信号及びボイス信号のピッチ情報を生成及び設定することができる。そして、これらのピッチ情報は、上記の所定時間毎に更新されることになる。
After that, the process waits until a predetermined time (6 ms as described above) elapses from the process of step S31 (S34), and then returns to step S31 to repeat the process.
Here, since the repetition cycle is the same between the process shown in FIG. 9 and the process shown in FIG. 10, these processes may be performed in synchronization. Further, when a predetermined number of data has not been recorded in the step S31, the average value of the amount corresponding to recorded may be the value of the pitch P I. Further, if not recorded at all data may not output a pitch P I. In this case, the pitch P V of the voice signal is cleared, and the processes in steps S32 and S33 need not be performed.
With the processing shown in FIG. 10, the pitch information of the input signal and voice signal used for the pitch conversion processing in the pitch conversion unit 43 can be generated and set. And these pitch information is updated for every said predetermined time.

次に、図11に、基準区間設定処理のフローチャートを示す。
この処理においては、まず、基準位置に基準区間が設定されていないか又は基準位置が基準区間の最後尾に達したかのいずれかが満たされたか否か判断する(S41)。
そして、満たされていない場合には、入力信号バッファに記録されている入力信号について基準位置を1サンプル分進めて(S44)、次のサンプルタイミングまで待機し(S45)、その後ステップS41に戻って処理を繰り返す。
Next, FIG. 11 shows a flowchart of the reference section setting process.
In this process, first, it is determined whether or not either a reference section is set at the reference position or the reference position reaches the end of the reference section (S41).
If not satisfied, the reference position of the input signal recorded in the input signal buffer is advanced by one sample (S44), waits for the next sample timing (S45), and then returns to step S41. Repeat the process.

一方、ステップS41でいずれかが満たされていた場合、その時点で図10に示した処理により入力信号のピッチPが設定されていれば(S42)、入力信号バッファに記録されている入力信号について、現在の基準位置を開始位置とし、長さSBをピッチPの2倍とする次の基準区間を設定して(S43)、ステップS44に進み、以下の処理を続ける。ステップS42で設定されていなければ、そのままステップS44に進み、以下の処理を続ける。
以上の図11に示した処理により、ピッチ変換部43における処理対象の入力信号に対し、図6及び図7を用いて説明したような基準区間を設定することができる。なお、「基準位置」は、単に基準区間の終了を検出するために利用するものであるので、処理の進行度合いを測れるようなパラメータであれば、どのようなものを用いてもよい。
On the other hand, if either has been met in step S41, the pitch P if I that are configured (S42) of the input signal by the processing shown in FIG. 10 at that time is recorded in the input signal buffer input signal for, as a starting position of the current reference position, and sets the next reference period to the length SB and 2 times the pitch P I (S43), the process proceeds to step S44, continues the following processing. If not set in step S42, the process proceeds to step S44 as it is and the following processing is continued.
With the processing shown in FIG. 11 described above, the reference section as described with reference to FIGS. 6 and 7 can be set for the input signal to be processed in the pitch conversion unit 43. The “reference position” is simply used to detect the end of the reference section, and any parameter can be used as long as it can measure the progress of the process.

次に、図12に、ピッチ変換処理のフローチャートを示す。
この処理においては、まず、出力区間が設定されていないか又は、読出位置を現在の出力区間においてその出力区間が終了するだけ進めたかのいずれかが満たされたか否か判断する(S51)。
そして、満たされていない場合には、読出位置が基準区間の最後尾を越えたか否か判断し(S55)、越えていない場合には、入力信号バッファから読出位置の1サンプルのデータを読み出し、読出位置に応じた窓関数の値を乗じて出力する(S56)。超えていた場合には、0を出力する(S57)。そして、どちらの場合も、読出位置を1サンプル分進める(S58)。なお、上記の窓関数については、図6及び図7を用いて説明した通りである。
Next, FIG. 12 shows a flowchart of the pitch conversion process.
In this process, first, it is determined whether or not an output section has been set or whether the reading position has been advanced by the end of the output section in the current output section (S51).
If not satisfied, it is determined whether or not the read position has exceeded the end of the reference section (S55). If not, one sample of data at the read position is read from the input signal buffer. The value of the window function corresponding to the reading position is multiplied and output (S56). If it exceeds, 0 is output (S57). In either case, the reading position is advanced by one sample (S58). Note that the window function is the same as described with reference to FIGS.

そしてその後、ピッチを検出中(ピッチフラグが「1」)であれば(S59)、次のサンプルタイミングまで待機し(S60)、その後ステップS51に戻って処理を繰り返す。一方、ピッチを検出中でなければ、設定されている出力区間をクリアして(S61)、その後ボイス信号のピッチPが設定されるまで待機し(S62)、ピッチPが設定されると、ステップS51に戻って処理を繰り返す。 Thereafter, if the pitch is being detected (pitch flag is “1”) (S59), the process waits until the next sample timing (S60), and then returns to step S51 to repeat the process. On the other hand, if being detected pitch, clear the output section is configured (S61), then waits until the pitch P V of the voice signal is set (S62), the pitch P V is set Returning to step S51, the process is repeated.

また、ステップS51でYESであれば、図10のステップS33の処理でボイス信号のピッチPが設定されているか否か判断し(S52)、設定されていれば、次の出力区間の長さRBをピッチPの2倍に設定する(S53)と共に、読み出し位置を、処理時点の最新の基準区間の開始位置へ移動して(S54)、ステップS55以下の処理に進む。一方、ステップS52で設定されていなければ、そのままステップS61以下の処理に進む。 Also, if YES in step S51, it is determined whether or not the pitch P V of the voice signal in the processing of step S33 in FIG. 10 is set (S52), if set, the next output period length RB and set to 2 times the pitch P V with (S53), the read position, and moved to the start position of the latest reference section of the processing time (S54), the process proceeds to step S55 following process. On the other hand, if not set in step S52, the process proceeds to step S61 and subsequent steps.

以上の図12に示した処理により、ピッチ変換部43における処理対象の入力信号に基づき、図6及び図7を用いて説明したようなOUT0系統の出力信号を生成することができる。そして、上述の通り、この出力信号と、OUT1系統の出力信号とを加算することによりボイス信号を生成することができる。このOUT1系統の出力信号の生成処理は、開始時期をピッチPだけずらす点以外は、以上の図12に示した処理と同様なものであるが、ピッチPの設定がなくなったりピッチの検出が中止されたりした後で出力を再開する際にも開始時期をずらせるようにするため、ステップS62の後に、ピッチP分の待機処理を追加するとよい。 By the processing shown in FIG. 12, the output signal of the OUT0 system as described with reference to FIGS. 6 and 7 can be generated based on the input signal to be processed in the pitch converter 43. Then, as described above, a voice signal can be generated by adding this output signal and the OUT1 system output signal. Generation processing of the output signal of the OUT1 line, the start timing except shifted by the pitch P V a, but those same as the processing shown in FIG. 12 described above, the pitch P V settings lost or pitch detection of There so that shifting the timing initiated when resume output after or aborted, after step S62, it is preferable to add a standby processing of the pitch P V min.

以上でこの実施形態の説明を終了するが、装置の構成や具体的な処理内容等が上述の実施形態で説明したものに限られないことはもちろんである。
例えば、上述した実施形態においては、ピッチ変換処理にLent法を採用したが、これ以外の方法でピッチ変換を行うようにしてもよい。また、処理対象をアナログの音響信号とし、ピッチ検出処理、フィルタ処理、ピッチ変換処理、ミックス処理等を、アナログ回路によって行うようにしてもよい。
This is the end of the description of this embodiment, but it goes without saying that the configuration of the apparatus and the specific processing contents are not limited to those described in the above embodiment.
For example, in the above-described embodiment, the Lent method is adopted for the pitch conversion process, but the pitch conversion may be performed by a method other than this. Further, an analog acoustic signal may be processed, and pitch detection processing, filter processing, pitch conversion processing, mix processing, and the like may be performed by an analog circuit.

また、この発明が、電子楽器以外の音響信号処理装置に適用できることはもちろんであり、例えば、カラオケ装置、ミキサ、音源装置、MIDIシーケンサ、音響信号を処理するソフトウェアを実行可能なPC等、波形を示す音響信号を取り扱う機能を有する装置であれば、任意の装置に適用することが可能である。さらに、この発明を、単体のエフェクタあるいは装置にエフェクタ機能を付与するためのプログラムとして実施することも可能である。   Of course, the present invention can be applied to an acoustic signal processing device other than an electronic musical instrument. For example, a karaoke device, a mixer, a sound source device, a MIDI sequencer, a PC that can execute software for processing an acoustic signal, a waveform, etc. Any device can be used as long as it has a function of handling the acoustic signal shown. Furthermore, the present invention can be implemented as a program for providing an effector function to a single effector or apparatus.

また、この発明のプログラムは、コンピュータにハードウェアを制御させて上述したような音響信号処理装置として機能させるためのプログラムであり、予めROMやHDD等に記憶させておくほか、CD−ROMあるいはフレキシブルディスク等の不揮発性記録媒体(メモリ)に記録して提供し、そのメモリからこのプログラムをRAMに読み出させてCPUに実行させたり、プログラムを記録した記録媒体を備える外部機器あるいはプログラムをHDD等の記憶手段に記憶した外部機器からダウンロードして実行させたりしても、同様の効果を得ることができる。   Further, the program of the present invention is a program for causing a computer to control hardware so as to function as the above-described acoustic signal processing apparatus. In addition to being stored in advance in a ROM, HDD, etc., a CD-ROM or flexible The program is recorded on a non-volatile recording medium (memory) such as a disk, and this program is read from the memory to the RAM and executed by the CPU, or an external device or program including the recording medium on which the program is recorded is stored in the HDD or the like. The same effect can be obtained even when downloaded from an external device stored in the storage means and executed.

以上の説明から明らかなように、この発明の音響信号処理装置又はプログラムによれば、変化に富んだエフェクトを、簡単な仕組みで実現することができる。
従って、斬新な音を生成可能な音響信号処理装置を提供することができる。
As is clear from the above description, according to the acoustic signal processing apparatus or program of the present invention, effects rich in change can be realized with a simple mechanism.
Therefore, it is possible to provide an acoustic signal processing device that can generate a novel sound.

この発明の音響信号処理装置の実施形態である電子楽器の構成を示すブロック図である。It is a block diagram which shows the structure of the electronic musical instrument which is embodiment of the acoustic signal processing apparatus of this invention. 図1に示した信号処理部に備えるダブリングエフェクタの機能構成を示す図である。It is a figure which shows the function structure of the doubling effector with which the signal processing part shown in FIG. 1 is equipped. 図2に示したフィルタ処理部の一例であるLPFの機能構成を示す図である。It is a figure which shows the function structure of LPF which is an example of the filter process part shown in FIG. 図2に示したフィルタ処理部でのフィルタ処理にLPFを使用した場合の入力信号とボイス信号のピッチ変化の例を示す図である。It is a figure which shows the example of the pitch change of an input signal at the time of using LPF for the filter process in the filter process part shown in FIG. 図2に示したピッチ検出部におけるピッチ検出処理について説明するための図である。It is a figure for demonstrating the pitch detection process in the pitch detection part shown in FIG.

図2に示したピッチ変換部におけるピッチ変換処理について説明するための図である。It is a figure for demonstrating the pitch conversion process in the pitch conversion part shown in FIG. その別の図である。It is another figure. 図1に示した電子楽器のCPUが実行するピッチ検出処理のフローチャートである。It is a flowchart of the pitch detection process which CPU of the electronic musical instrument shown in FIG. 1 performs. 同じくピッチ検出制御処理のフローチャートである。It is a flowchart of a pitch detection control process similarly. 同じくピッチ設定処理のフローチャートである。It is a flowchart of a pitch setting process similarly. 同じく基準区間設定処理のフローチャートである。Similarly, it is a flowchart of a reference section setting process. 同じくピッチ変換処理のフローチャートである。It is a flowchart of a pitch conversion process similarly. 従来のエフェクタにおける入力信号とボイス信号のピッチ変化の例を示す図である。It is a figure which shows the example of the pitch change of the input signal and voice signal in the conventional effector. その別の例を示す図である。It is a figure which shows the other example.

符号の説明Explanation of symbols

10…電子楽器、11…CPU,12…ROM、13…RAM、14…検出回路、15…表示回路、16…オーディオ信号I/F、17…通信I/F、18…音源部、19…信号処理部、20…システムバス、21…操作子、22…表示器、23…サウンドシステム、30…ダブリングエフェクタ、40…ボイス信号生成部、41…ピッチ検出部、42…フィルタ処理部、43…ピッチ変換部、50…遅延処理部、60…ミックス部、61,64…ゲイン調整部、62,65…パン調整部、63,66…加算部
DESCRIPTION OF SYMBOLS 10 ... Electronic musical instrument, 11 ... CPU, 12 ... ROM, 13 ... RAM, 14 ... Detection circuit, 15 ... Display circuit, 16 ... Audio signal I / F, 17 ... Communication I / F, 18 ... Sound source part, 19 ... Signal Processing unit, 20 ... system bus, 21 ... operator, 22 ... indicator, 23 ... sound system, 30 ... doubling effector, 40 ... voice signal generation unit, 41 ... pitch detection unit, 42 ... filter processing unit, 43 ... pitch Conversion unit 50 ... Delay processing unit 60 ... Mix unit 61, 64 ... Gain adjustment unit 62, 65 ... Pan adjustment unit 63, 66 ... Addition unit

Claims (3)

入力信号のピッチ情報を検出して第1のピッチ情報を出力するピッチ検出手段と、
前記第1のピッチ情報に対してフィルタ処理を行い第2のピッチ情報を出力するフィルタ処理手段と、
前記第1のピッチ情報を用いて前記入力信号のうちピッチ変換の処理対象となる区間を設定し、該設定された区間の入力信号のピッチを、前記第2のピッチ情報が示すピッチに変換した加工信号を生成する加工信号生成手段と、
前記入力信号と前記加工信号とを混合して出力する混合手段とを設けたことを特徴とする音響信号処理装置。
Pitch detecting means for detecting pitch information of the input signal and outputting first pitch information;
And filtering means for outputting a row physician second pitch information filter processing on the first pitch information,
Using the first pitch information, a section to be processed for pitch conversion is set in the input signal, and the pitch of the input signal in the set section is converted into a pitch indicated by the second pitch information. Processing signal generating means for generating a processing signal;
An acoustic signal processing apparatus, comprising: mixing means for mixing and outputting the input signal and the processed signal.
請求項1記載の音響信号処理装置であって、
前記加工信号生成手段に、前記入力信号のピッチ情報又は前記フィルタ処理手段によるフィルタ処理後のピッチ情報が示すピッチの値を、時間をずらして前記加工信号の生成に反映させるようにしたことを特徴とする音響信号処理装置。
The acoustic signal processing device according to claim 1,
The processing signal generation means reflects the pitch value indicated by the pitch information of the input signal or the pitch information after the filter processing by the filter processing means to the generation of the processing signal by shifting the time. An acoustic signal processing device.
コンピュータを、
入力信号のピッチ情報を検出して第1のピッチ情報を出力するピッチ検出手段と、
前記第1のピッチ情報に対してフィルタ処理を行い第2のピッチ情報を出力するフィルタ処理手段と、
前記第1のピッチ情報を用いて前記入力信号のうちピッチ変換の処理対象となる区間を設定し、該設定された区間の入力信号のピッチを、前記第2のピッチ情報が示すピッチに変換した加工信号を生成する加工信号生成手段と、
前記入力信号と前記加工信号とを混合して出力する混合手段として機能させるためのプログラム。
Computer
Pitch detecting means for detecting pitch information of the input signal and outputting first pitch information;
And filtering means for outputting a row physician second pitch information filter processing on the first pitch information,
Using the first pitch information, a section to be processed for pitch conversion is set in the input signal, and the pitch of the input signal in the set section is converted into a pitch indicated by the second pitch information. Processing signal generating means for generating a processing signal;
A program for functioning as mixing means for mixing and outputting the input signal and the processing signal.
JP2005203167A 2005-07-12 2005-07-12 Acoustic signal processing apparatus and program Expired - Fee Related JP4784184B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005203167A JP4784184B2 (en) 2005-07-12 2005-07-12 Acoustic signal processing apparatus and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005203167A JP4784184B2 (en) 2005-07-12 2005-07-12 Acoustic signal processing apparatus and program

Publications (3)

Publication Number Publication Date
JP2007024961A JP2007024961A (en) 2007-02-01
JP2007024961A5 JP2007024961A5 (en) 2009-08-06
JP4784184B2 true JP4784184B2 (en) 2011-10-05

Family

ID=37785853

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005203167A Expired - Fee Related JP4784184B2 (en) 2005-07-12 2005-07-12 Acoustic signal processing apparatus and program

Country Status (1)

Country Link
JP (1) JP4784184B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6094117B2 (en) * 2012-09-26 2017-03-15 ヤマハ株式会社 Sound waveform signal generating apparatus and program

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0535269A (en) * 1991-07-31 1993-02-12 Roland Corp Portamento effect addition device
JP3693981B2 (en) * 1995-03-06 2005-09-14 ローランド株式会社 Pitch converter
JP4757971B2 (en) * 1999-10-21 2011-08-24 ヤマハ株式会社 Harmony sound adding device
JP2003122361A (en) * 2001-10-17 2003-04-25 Roland Corp Effect imparting device
JP4420631B2 (en) * 2003-07-17 2010-02-24 ローランド株式会社 Effect device

Also Published As

Publication number Publication date
JP2007024961A (en) 2007-02-01

Similar Documents

Publication Publication Date Title
JP4672613B2 (en) Tempo detection device and computer program for tempo detection
JP4823804B2 (en) Code name detection device and code name detection program
US20170092246A1 (en) Automatic music recording and authoring tool
WO2007010637A1 (en) Tempo detector, chord name detector and program
JP4916947B2 (en) Rhythm detection device and computer program for rhythm detection
JP2007052394A (en) Tempo detector, code name detector and program
US10497348B2 (en) Evaluation device and evaluation method
US20170092320A1 (en) Automatic music recording and authoring tool
JP5229998B2 (en) Code name detection device and code name detection program
JP3996565B2 (en) Karaoke equipment
JP2013141167A (en) Musical performance apparatus
JP5533892B2 (en) Performance equipment
JP6281211B2 (en) Acoustic signal alignment apparatus, alignment method, and computer program
US9087503B2 (en) Sampling device and sampling method
JP4784184B2 (en) Acoustic signal processing apparatus and program
JP2008233812A (en) Beat detecting device
JP4501800B2 (en) Acoustic signal processing apparatus and program
JP2014035436A (en) Voice processing device
JP4655811B2 (en) Acoustic signal processing apparatus and program
JP2009092871A (en) Scoring device and program
JP4891135B2 (en) Evaluation device
JP4581699B2 (en) Pitch recognition device and voice conversion device using the same
JP4238807B2 (en) Sound source waveform data determination device
JP5589767B2 (en) Audio processing device
JP2010032809A (en) Automatic musical performance device and computer program for automatic musical performance

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080521

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090623

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090717

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090929

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101214

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110210

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110614

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110627

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140722

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees