JP6176372B2 - Musical instruments and signal processing devices - Google Patents

Musical instruments and signal processing devices Download PDF

Info

Publication number
JP6176372B2
JP6176372B2 JP2016137728A JP2016137728A JP6176372B2 JP 6176372 B2 JP6176372 B2 JP 6176372B2 JP 2016137728 A JP2016137728 A JP 2016137728A JP 2016137728 A JP2016137728 A JP 2016137728A JP 6176372 B2 JP6176372 B2 JP 6176372B2
Authority
JP
Japan
Prior art keywords
signal
output
unit
data
audio signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2016137728A
Other languages
Japanese (ja)
Other versions
JP2016194721A (en
Inventor
西谷 善樹
善樹 西谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2016137728A priority Critical patent/JP6176372B2/en
Publication of JP2016194721A publication Critical patent/JP2016194721A/en
Application granted granted Critical
Publication of JP6176372B2 publication Critical patent/JP6176372B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Reverberation, Karaoke And Other Acoustics (AREA)
  • Electrophonic Musical Instruments (AREA)

Description

本発明は、複数種類のデータを同時に送信する技術に関する。   The present invention relates to a technique for simultaneously transmitting a plurality of types of data.

複数種類のデータを同時に送信する技術があるが、そのような技術のひとつとして、センシングDATA(ジャイロ、加速度、圧電などのデジタルセンシングデータ)等をオーディオデータと共に送信する技術があり、音源などの発音態様を制御するための発音制御データ(例えば、MIDI(Musical Instrument Digital Interface)形式のデータ)をオーディオデータとともに記録、または伝送するために、効率よくデータを生成する技術がある。例えば、特許文献1に記載された技術によれば、オーディオデータの最下位ビットなどを発音制御データを示すビットで置き換えることにより、発音制御データとオーディオデータとを、記録、または伝送時に単一のデータとして扱うことができる。   There is a technology that transmits multiple types of data at the same time. One such technology is a technology that transmits sensing data (digital sensing data such as gyro, acceleration, and piezoelectric) together with audio data. There is a technique for efficiently generating data in order to record or transmit sound generation control data (for example, MIDI (Musical Instrument Digital Interface) format data) for controlling the aspect together with audio data. For example, according to the technique described in Patent Document 1, by replacing the least significant bit of audio data with a bit indicating sound generation control data, the sound generation control data and the audio data are recorded at a single time during recording or transmission. Can be treated as data.

特許第3915585号公報Japanese Patent No. 3915585

特許文献1に開示された技術によって、発音制御データを含むオーディオデータとして扱うことができるため、オーディオデータとしてLAN(Local Area Network)、インターネットなどの通信により、遠隔地に送信して、遠隔地においてオーディオデータと発音制御データとに応じた発音をさせることができる。このような通信により発音制御データとオーディオデータとを送信する場合、通信の状況によってデータの一部が欠損しないようにエラー訂正を行うことが知られている。   Since it can be handled as audio data including sound generation control data by the technique disclosed in Patent Document 1, it is transmitted as audio data to a remote place by communication such as LAN (Local Area Network), the Internet, etc. Sound generation according to the audio data and the sound generation control data can be performed. When transmitting sound generation control data and audio data by such communication, it is known to perform error correction so that a part of the data is not lost depending on the state of communication.

ところで、このオーディオデータおよび発音制御データが生成されてから通信され、これらのデータに基づいて発音するまでに、リアルタイム性が求められるような状況となることがある。このように、リアルタイム性が求められる状況においては、これらのデータの生成から発音までの時間を短くする必要があるが、エラー訂正を行うことがそのまま遅延の原因となってしまう。そのため、データ通信の精度が下がることになったとしても、リアルタイム性を確保するために、エラー訂正を用いないようにするか簡易な構成にする必要がある。   By the way, there is a case in which real-time characteristics are required until the audio data and the sound generation control data are generated and communicated and sound is generated based on these data. As described above, in a situation where real-time characteristics are required, it is necessary to shorten the time from generation of these data to sound generation. However, error correction directly causes a delay. For this reason, even if the accuracy of data communication is reduced, it is necessary not to use error correction or to have a simple configuration in order to ensure real-time performance.

無線通信によりデータを送信する場合など、データ通信の精度が下がってしまう場合には、各データの一部に欠損、誤りが生じることがある。欠損、誤りが生じたデータがオーディオデータの場合には、ノイズが混ざる程度の影響で済む一方、発音制御データなど制御コマンドを示すデータの場合には、制御コマンドそのものが欠損したり変化してしまったりすることがあり、音源の発音制御に与える影響が非常に大きなものとなってしまう。そのため、オーディオデータが示す音は、発音制御データが示す音が合成されることにより加工され、加工された音として発音される場合には、通信によるデータの欠損が発生していない場合と比べて大きく変化してしまうことがあった。   When the accuracy of data communication is lowered, such as when data is transmitted by wireless communication, a part of each data may be lost or erroneous. If the data with missing or incorrect data is audio data, the effect of mixing noise is sufficient. On the other hand, in the case of data indicating a control command such as sound generation control data, the control command itself is missing or changed. The effect on the sound generation control of the sound source becomes very large. Therefore, the sound indicated by the audio data is processed by synthesizing the sound indicated by the sound generation control data. When the sound is generated as a processed sound, it is compared with the case where no data is lost due to communication. There was a big change.

本発明は、送信側で生成されるオーディオ信号およびこのオーディオ信号を加工するための信号に基づいて受信側において発音させる場合に、低遅延での送信をしつつも、通信におけるデータの欠損および誤りの影響を受けにくくすることを目的とする。   In the present invention, when sound is generated on the receiving side based on an audio signal generated on the transmitting side and a signal for processing the audio signal, data loss and error in communication are performed while transmitting with low delay. The purpose is to make it less susceptible to

上述の課題を解決するため、本発明は、楽器からオーディオ信号を出力する信号出力手段と、前記信号出力手段を備える前記楽器の胴部又は筐体部である検出対象部に設置された加速度センサ手段と、前記加速度センサ手段の出力値を、ユーザが前記検出対象部を動かすことにより、出力値が変化する検出信号として検出する検出手段と、前記出力されたオーディオ信号を第1サンプリング周波数でサンプリングして第1サンプルデータを生成し出力する第1サンプリング手段と、前記出力された検出信号を前記第1サンプリング周波数より低い第2サンプリング周波数でサンプリングして第2サンプルデータを生成し出力する第2サンプリング手段と、前記出力された前記第1サンプルデータと前記第2サンプルデータとが同一のパケットに含まれるようにパケット化し、前記検出信号に基づく態様で前記オーディオ信号に加工処理を施して出力する信号処理装置に対して送信する送信手段とを具備することを特徴とする楽器を提供する。   In order to solve the above-described problems, the present invention provides a signal output unit that outputs an audio signal from a musical instrument, and an acceleration sensor installed in a detection target unit that is a trunk or a casing unit of the musical instrument that includes the signal output unit. Means for detecting the output value of the acceleration sensor means as a detection signal whose output value changes as the user moves the detection target portion; and sampling the output audio signal at a first sampling frequency. A first sampling means for generating and outputting first sample data; and a second sampling data sampled at a second sampling frequency lower than the first sampling frequency to generate and output second sample data. Sampling means, and the output first sample data and second sample data are the same packet Packetized to include, to provide a musical instrument, characterized by a transmitting means for transmitting to said detection signal signal processing apparatus for outputting by performing processing on the audio signal in a manner that is based on.

また、本発明は、楽器からオーディオ信号を出力する信号出力手段と、前記信号出力手段を備える前記楽器の胴部又は筐体部である検出対象部に設置された振動センサ手段と、前記振動センサ手段の出力値を、ユーザが前記楽器を演奏することにより、出力値が変化する検出信号として検出する検出手段と、前記出力されたオーディオ信号を第1サンプリング周波数でサンプリングして第1サンプルデータを生成し出力する第1サンプリング手段と、前記出力された検出信号を前記第1サンプリング周波数より低い第2サンプリング周波数でサンプリングして第2サンプルデータを生成し出力する第2サンプリング手段と、前記出力された前記第1サンプルデータと前記第2サンプルデータとが同一のパケットに含まれるようにパケット化し、前記検出信号に基づく態様で前記オーディオ信号に加工処理を施して出力する信号処理装置に対して送信する送信手段とを具備することを特徴とする楽器を提供する。   Further, the present invention provides a signal output means for outputting an audio signal from a musical instrument, a vibration sensor means installed in a detection target part that is a trunk part or a casing part of the musical instrument comprising the signal output means, and the vibration sensor Detecting means for detecting an output value of the means as a detection signal whose output value changes as a result of a user playing the instrument; and sampling the output audio signal at a first sampling frequency to obtain first sample data. A first sampling means for generating and outputting; a second sampling means for sampling the output detection signal at a second sampling frequency lower than the first sampling frequency to generate and output second sample data; and the output The first sample data and the second sample data are packetized so that they are included in the same packet. Providing an instrument which is characterized by comprising a transmitting means for transmitting the signal processing apparatus for outputting by performing processing on the audio signal in a manner based on the detection signal.

好ましい態様において、前記信号出力手段は、前記楽器の振動部分である振動体から伝達される振動波形をオーディオ信号に変換し、当該変換したオーディオ信号を出力することを特徴とする。   In a preferred aspect, the signal output means converts a vibration waveform transmitted from a vibrating body, which is a vibration part of the musical instrument, into an audio signal, and outputs the converted audio signal.

別の好ましい態様において、前記振動体と前記検出対象部とは前記楽器においてそれぞれ異なる部分であることを特徴とする。   In another preferred embodiment, the vibrator and the detection target part are different parts in the musical instrument.

また、本発明は、上記記載の楽器から送信された送信データを受信する受信手段と、前記受信した送信データからオーディオ信号および検出信号を抽出する抽出手段と、前記抽出された検出信号に基づいて、オーディオ信号の加工態様を決定する決定手段と、前記決定された加工態様で前記抽出されたオーディオ信号に加工処理を施して出力する加工手段とを具備することを特徴とする信号処理装置を提供する。   Further, the present invention is based on the reception means for receiving the transmission data transmitted from the musical instrument described above, the extraction means for extracting an audio signal and a detection signal from the received transmission data, and the extracted detection signal. A signal processing apparatus comprising: a determining unit that determines a processing mode of an audio signal; and a processing unit that processes the extracted audio signal in the determined processing mode and outputs the processed audio signal. To do.

好ましい態様において、前記抽出手段は高周波成分を除去することを特徴とする。   In a preferred aspect, the extraction means removes high frequency components.

本発明によれば、送信側で生成されるオーディオ信号およびこのオーディオ信号を加工するための信号に基づいて受信側において発音させる場合に、低遅延での送信をしつつも、通信におけるデータの欠損および誤りの影響を受けにくくすることができる。   According to the present invention, when sound is generated on the reception side based on an audio signal generated on the transmission side and a signal for processing the audio signal, data loss in communication is achieved while transmitting with low delay. And can be less susceptible to errors.

本発明の実施形態における発音システムの機能構成を説明するブロック図である。It is a block diagram explaining the function structure of the sound generation system in embodiment of this invention. 本発明の第1実施形態におけるギターの外観構成を説明する図である。It is a figure explaining the external appearance structure of the guitar in 1st Embodiment of this invention. 本発明の第1実施形態における信号送信装置の構成を説明するブロック図である。It is a block diagram explaining the structure of the signal transmission apparatus in 1st Embodiment of this invention. 本発明の第1実施形態における送信データおよび同期データの構造を説明する図である。It is a figure explaining the structure of the transmission data and synchronous data in 1st Embodiment of this invention. 本発明の第1実施形態における送信データの例を示す図である。It is a figure which shows the example of the transmission data in 1st Embodiment of this invention. 本発明の第1実施形態における信号処理装置の構成を説明するブロック図である。It is a block diagram explaining the structure of the signal processing apparatus in 1st Embodiment of this invention. 本発明の第1実施形態における制御テーブルの内容を説明する図である。It is a figure explaining the content of the control table in 1st Embodiment of this invention. 本発明の第2実施形態におけるスネアドラムの外観構成を説明する図である。It is a figure explaining the external appearance structure of the snare drum in 2nd Embodiment of this invention. 本発明の第2実施形態における信号送信装置の構成を説明するブロック図である。It is a block diagram explaining the structure of the signal transmitter in 2nd Embodiment of this invention. 本発明の第2実施形態における増幅処理の時間変化態様を説明する図である。It is a figure explaining the time change aspect of the amplification process in 2nd Embodiment of this invention. 本発明の第2実施形態における最大値を決定するための制御テーブルを説明する図である。It is a figure explaining the control table for determining the maximum value in 2nd Embodiment of this invention. 本発明の第3実施形態におけるマイクロフォンの外観構成を説明する図である。It is a figure explaining the external appearance structure of the microphone in 3rd Embodiment of this invention. 本発明の第3実施形態におけるマイクロフォンの構成を説明するブロック図である。It is a block diagram explaining the structure of the microphone in 3rd Embodiment of this invention. 本発明の第4実施形態における携帯端末の外観構成を説明する図である。It is a figure explaining the external appearance structure of the portable terminal in 4th Embodiment of this invention. 本発明の第4実施形態における携帯端末の構成を説明するブロック図である。It is a block diagram explaining the structure of the portable terminal in 4th Embodiment of this invention. 本発明の変形例1における信号処理装置の構成を説明するブロック図である。It is a block diagram explaining the structure of the signal processing apparatus in the modification 1 of this invention. 本発明の変形例2における信号送信装置の構成を説明するブロック図である。It is a block diagram explaining the structure of the signal transmitter in the modification 2 of this invention. 本発明の変形例3における発音システムの機能構成を説明するブロック図である。It is a block diagram explaining the function structure of the sound generation system in the modification 3 of this invention. 本発明の変形例3における鍵盤装置の外観構成を説明する図である。It is a figure explaining the external appearance structure of the keyboard apparatus in the modification 3 of this invention. 本発明の変形例3における信号送信装置の構成を説明するブロック図である。It is a block diagram explaining the structure of the signal transmitter in the modification 3 of this invention.

<実施形態>
[機能構成]
図1は、本発明の実施形態における発音システム1の機能構成を説明するブロック図である。発音システム1は、発音装置10、信号送信装置20、信号処理装置30および放音装置40を有する。発音装置10における発音内容を示すオーディオ信号、および発音装置の運動を検出した結果を示す検出信号が信号送信装置20から信号処理装置30に無線通信により送信される。発音システム1においては、低遅延でのオーディオ信号および検出信号の送信をすることができる。以下、発音システム1の機能構成について説明する。
<Embodiment>
[Function configuration]
FIG. 1 is a block diagram illustrating a functional configuration of a sound generation system 1 according to an embodiment of the present invention. The sound generation system 1 includes a sound generation device 10, a signal transmission device 20, a signal processing device 30, and a sound emission device 40. An audio signal indicating the content of the sound generation in the sound generation device 10 and a detection signal indicating the result of detecting the movement of the sound generation device are transmitted from the signal transmission device 20 to the signal processing device 30 by wireless communication. The sound generation system 1 can transmit an audio signal and a detection signal with low delay. Hereinafter, the functional configuration of the sound generation system 1 will be described.

発音装置10は、振動体110および検出対象部120を有する。振動体110は、振動することにより発音する機能を有する。検出対象部120は、振動体110の振動または振動により生じた発音(以下、まとめて振動波形という)が伝達される。   The sound generation device 10 includes a vibrating body 110 and a detection target unit 120. The vibrating body 110 has a function of generating sound when vibrated. The detection target unit 120 is transmitted with the vibration of the vibrating body 110 or a sound generated by the vibration (hereinafter collectively referred to as a vibration waveform).

信号送信装置20は、信号出力部210、検出部220、第1サンプリング部230、第2サンプリング部240、生成部250および送信部260を有する。信号出力部210は、振動体110から伝達された振動波形が入力され、この振動波形をオーディオ信号(Audio)に変換して出力する。この信号出力部210は、検出対象部120に取り付けられる。
検出部220は、検出対象部120における運動を検出し、検出結果に応じた検出信号(Sensor)を出力する。この検出信号は、検出対象部120の運動に伴い出力値が変化する信号であり、この出力値を波形(以下、検出波形という)で示す信号である。検出対象部120は、例えば、振動体110に振動を励起させるためのユーザからの操作、またユーザが検出対象部120を動かすことなどにより運動することになる。
The signal transmission device 20 includes a signal output unit 210, a detection unit 220, a first sampling unit 230, a second sampling unit 240, a generation unit 250, and a transmission unit 260. The signal output unit 210 receives the vibration waveform transmitted from the vibrating body 110, converts the vibration waveform into an audio signal (Audio), and outputs the audio signal. The signal output unit 210 is attached to the detection target unit 120.
The detection unit 220 detects movement in the detection target unit 120 and outputs a detection signal (Sensor) corresponding to the detection result. This detection signal is a signal whose output value changes as the detection target unit 120 moves, and is a signal indicating this output value as a waveform (hereinafter referred to as a detection waveform). The detection target unit 120 moves, for example, by an operation from a user for exciting the vibration body 110 to vibrate, or when the user moves the detection target unit 120.

第1サンプリング部230は、信号出力部210からオーディオ信号が入力され、このオーディオ信号を第1サンプリング周波数でサンプリングしてオーディオデータ(第1サンプルデータ)を生成し出力する。第2サンプリング部240は、検出部220から検出信号が入力され、この検出信号を第2サンプリング周波数でサンプリングしてセンサデータ(第2サンプルデータ)を生成し出力する。第2サンプリング周波数は、第1サンプリング周波数よりも低い値である。以下、単にオーディオデータ、センサデータといった場合には、1回のサンプリングにより得られたサンプルデータ単位であるものとして説明する。   The first sampling unit 230 receives the audio signal from the signal output unit 210, samples the audio signal at a first sampling frequency, and generates and outputs audio data (first sample data). The second sampling unit 240 receives the detection signal from the detection unit 220, samples the detection signal at the second sampling frequency, and generates and outputs sensor data (second sample data). The second sampling frequency is a value lower than the first sampling frequency. Hereinafter, in the case of simply audio data and sensor data, description will be made assuming that the data is a unit of sample data obtained by one sampling.

生成部250は、第1サンプリング部230からオーディオデータが入力され、また、第2サンプリング部240からセンサデータが入力される。生成部250は、これらのデータをパケット化して送信データを生成し、生成した送信データを出力する。このとき、生成部250は、オーディオデータとセンサデータとが同一のパケットに含まれるようにパケット化する。また、センサデータは、オーディオデータよりも低いサンプリング周波数でサンプリングされて得られたデータである。そのため、パケットごとにオーディオデータが異なるものとしても、複数のパケットに同一のセンサデータが含まれるようにすることもできる。
また、センサデータを、ビット単位で分割し、各パケットには分割されたセンサデータ(分割データ)が含まれるようにすることもできる。どのようにしてセンサデータがパケット化されているかの情報については、パケットのヘッダに記録されるようにすればよい。センサデータが分割されるか否かにかかわらず、オーディオデータとセンサデータとが同一のパケットに含まれるようになっていることに違いはない。
送信部260は、生成部250から入力された送信データを無線通信により信号処理装置30に送信する。
The generation unit 250 receives audio data from the first sampling unit 230 and receives sensor data from the second sampling unit 240. The generation unit 250 packetizes these data to generate transmission data, and outputs the generated transmission data. At this time, the generation unit 250 packetizes the audio data and the sensor data so that they are included in the same packet. The sensor data is data obtained by sampling at a sampling frequency lower than that of audio data. Therefore, even if the audio data is different for each packet, the same sensor data can be included in a plurality of packets.
Also, the sensor data can be divided in bit units, and each packet can include divided sensor data (divided data). Information on how the sensor data is packetized may be recorded in the header of the packet. Regardless of whether or not the sensor data is divided, there is no difference that the audio data and the sensor data are included in the same packet.
The transmission unit 260 transmits the transmission data input from the generation unit 250 to the signal processing device 30 by wireless communication.

信号処理装置30は、受信部310、抽出部320、決定部330および加工部340を有する。受信部310は、信号送信装置20の送信部260から送信された送信データを受信して出力する。抽出部320は、受信部310から入力された送信データから、オーディオ信号(Audio)および検出信号(Sensor)を抽出して出力する。決定部330は、抽出部320から検出信号が入力され、この検出信号に基づいて、加工部340におけるオーディオ信号への加工態様を決定する。加工部340は、抽出部320から入力されたオーディオ信号に対して、決定部330において決定された加工態様での加工処理を施して出力する。   The signal processing device 30 includes a receiving unit 310, an extracting unit 320, a determining unit 330, and a processing unit 340. The reception unit 310 receives and outputs transmission data transmitted from the transmission unit 260 of the signal transmission device 20. The extracting unit 320 extracts and outputs an audio signal (Audio) and a detection signal (Sensor) from the transmission data input from the receiving unit 310. The determination unit 330 receives the detection signal from the extraction unit 320, and determines the processing mode of the audio signal in the processing unit 340 based on the detection signal. The processing unit 340 performs processing on the audio signal input from the extraction unit 320 in the processing mode determined by the determination unit 330 and outputs the processed audio signal.

放音装置40は、信号処理装置30の加工部340から入力されたオーディオ信号を増幅し、音として出力する。放音装置40は、スピーカ、アンプなどによりその機能が実現される。このようにして放音装置40から出力される音は、信号出力部210から出力されたオーディオ信号に対して、検出部220から出力された検出信号に基づく加工態様で加工された音となる。   The sound emitting device 40 amplifies the audio signal input from the processing unit 340 of the signal processing device 30 and outputs it as sound. The function of the sound emitting device 40 is realized by a speaker, an amplifier, or the like. The sound output from the sound emitting device 40 in this way is a sound processed in a processing mode based on the detection signal output from the detection unit 220 with respect to the audio signal output from the signal output unit 210.

信号送信装置20から信号処理装置30に対して無線通信により送信される送信データは、その通信の状況に応じて、一部の送信データが欠損したり誤りが発生したりする場合がある。この場合であっても、オーディオ信号の振動波形にノイズが生じる程度であり、また、検出信号の検出波形についてもノイズが生じる程度である。そのため、決定部330において検出信号に対するフィルタリング(例えばローパスフィルタ)などによりノイズの除去をすれば、検出波形をほぼ再現することができる。また、同一パケット(送信データ)にオーディオデータとセンサデータとが含まれているから、オーディオ信号のどの部分に対して検出信号に基づく加工をすべきかの対応関係が明らかとなる。したがって、オーディオ信号に対して、検出信号に基づく加工処理が施されるときに、リアルタイム性を維持することができる。
続いて、発音システム1の機能構成を実現するための具体的な実施形態について、第1実施形態および第2実施形態として説明する。
The transmission data transmitted from the signal transmission device 20 to the signal processing device 30 by wireless communication may lose some transmission data or cause an error depending on the communication status. Even in this case, noise is only generated in the vibration waveform of the audio signal, and noise is also generated in the detection waveform of the detection signal. Therefore, if noise is removed by filtering (for example, a low-pass filter) on the detection signal in the determination unit 330, the detection waveform can be substantially reproduced. In addition, since the audio data and the sensor data are included in the same packet (transmission data), the correspondence relationship regarding which part of the audio signal should be processed based on the detection signal becomes clear. Therefore, the real time property can be maintained when the audio signal is processed based on the detection signal.
Next, specific embodiments for realizing the functional configuration of the sound generation system 1 will be described as a first embodiment and a second embodiment.

<第1実施形態>
本発明の第1実施形態においては、発音装置10がギターである場合について説明する。第1実施形態の説明においては、発音装置10をギター10と記す。
<First Embodiment>
In the first embodiment of the present invention, a case where the sounding device 10 is a guitar will be described. In the description of the first embodiment, the sounding device 10 is referred to as a guitar 10.

図2は、本発明の第1実施形態におけるギター10の外観構成を説明する図である。この例における発音システム1は、ギター10、信号送信装置20、信号処理装置30、および放音装置40を有する。ギター10は、弦11および弦11が張られた胴部12を有する。弦11は、振動体110の機能を実現するための構成である。胴部12は、検出対象部120の機能を実現するための構成である。   FIG. 2 is a diagram for explaining the external configuration of the guitar 10 according to the first embodiment of the present invention. The sound generation system 1 in this example includes a guitar 10, a signal transmission device 20, a signal processing device 30, and a sound emission device 40. The guitar 10 has a string 11 and a trunk 12 on which the string 11 is stretched. The string 11 is a configuration for realizing the function of the vibrating body 110. The trunk portion 12 is a configuration for realizing the function of the detection target portion 120.

[信号送信装置20の構成]
信号送信装置20は、ピックアップ21および制御モジュール200を有する。ピックアップ21は、胴部12に設けられ、弦11からの振動波形がサドルを介して伝達される。ピックアップ21は、信号出力部210を実現するための構成であり、伝達された振動波形をオーディオ信号として出力する。ピックアップ21は、例えば、インブリッジ式、コンタクト式などのピエゾピックアップである。
制御モジュール200は、胴部12に設けられ、ピックアップ21から出力されるオーディオ信号が入力される。制御モジュール200を含む信号送信装置20の構成を図3を用いて説明する。
[Configuration of Signal Transmitting Device 20]
The signal transmission device 20 includes a pickup 21 and a control module 200. The pickup 21 is provided in the trunk portion 12, and the vibration waveform from the string 11 is transmitted through the saddle. The pickup 21 is configured to realize the signal output unit 210 and outputs the transmitted vibration waveform as an audio signal. The pickup 21 is, for example, an in-bridge type or a contact type piezoelectric pickup.
The control module 200 is provided in the trunk 12 and receives an audio signal output from the pickup 21. The configuration of the signal transmission device 20 including the control module 200 will be described with reference to FIG.

図3は、本発明の第1実施形態における信号送信装置20の構成を説明するブロック図である。信号送信装置20における制御モジュール200は、加速度センサ22、第1AD(analog-digital)変換部23、第2AD変換部24、制御部25および通信モジュール26を有する。ピックアップ21から出力されるオーディオ信号は、第1AD変換部23に入力される。
加速度センサ22は、検出部220を実現するための構成であり、取り付けられた部分(この例においては胴部12)における運動を、3軸(x軸、y軸、z軸)方向の加速度として検出し、各軸についての検出結果を示す検出信号Sx、Sy、Szを出力する。この例においては、加速度センサ22は、弦11が張られた方向をx軸、弦11が並ぶ方向をy軸、x軸およびy軸を含む平面の法線方向をz軸として、加速度を検出する。
FIG. 3 is a block diagram illustrating the configuration of the signal transmission device 20 according to the first embodiment of the present invention. The control module 200 in the signal transmission device 20 includes an acceleration sensor 22, a first AD (analog-digital) converter 23, a second AD converter 24, a controller 25, and a communication module 26. The audio signal output from the pickup 21 is input to the first AD converter 23.
The acceleration sensor 22 is a configuration for realizing the detection unit 220, and the motion in the attached portion (the trunk 12 in this example) is defined as acceleration in the directions of three axes (x axis, y axis, z axis). Detection is performed, and detection signals Sx, Sy, and Sz indicating detection results for each axis are output. In this example, the acceleration sensor 22 detects acceleration with the direction in which the strings 11 are stretched as the x axis, the direction in which the strings 11 are arranged as the y axis, and the normal direction of the plane including the x axis and the y axis as the z axis. To do.

第1AD変換部23は、第1サンプリング部230を実現するための構成であり、入力されたオーディオ信号を、サンプリング周波数44kHz、量子化数16bitでサンプリングしてオーディオデータを生成し出力するADコンバータである。第2AD変換部24は、第2サンプリング部240を実現するための構成であり、入力された検出信号Sx、Sy、Szの各々を、サンプリング周波数200Hz、量子化数8bitでサンプリングしてセンサデータを生成し出力するADコンバータである。
第1AD変換部23のサンプリング周波数は、第2AD変換部24のサンプリング周波数の220倍である。したがって、1回のサンプリングにより3軸方向のセンサデータが生成されるうちに、オーディオデータが220回生成される。
The first AD conversion unit 23 is a configuration for realizing the first sampling unit 230, and is an AD converter that samples an input audio signal at a sampling frequency of 44 kHz and a quantization number of 16 bits to generate and output audio data. is there. The second AD conversion unit 24 is configured to realize the second sampling unit 240, and each of the input detection signals Sx, Sy, Sz is sampled at a sampling frequency of 200 Hz and a quantization number of 8 bits to obtain sensor data. It is an AD converter that generates and outputs.
The sampling frequency of the first AD converter 23 is 220 times the sampling frequency of the second AD converter 24. Accordingly, audio data is generated 220 times while sensor data in three axial directions is generated by one sampling.

制御部25は、生成部250を実現するための構成であり、CPU(Central Processing Unit)などの演算処理回路により構成される。制御部25は、オーディオデータとセンサデータとをパケット化した送信データを通信モジュール26に出力する。送信データの構造については後述する。   The control part 25 is a structure for implement | achieving the production | generation part 250, and is comprised by arithmetic processing circuits, such as CPU (Central Processing Unit). The control unit 25 outputs transmission data obtained by packetizing audio data and sensor data to the communication module 26. The structure of the transmission data will be described later.

通信モジュール26は、送信部260を実現するための構成であり、信号処理装置30
との間で無線による通信が確立された後、生成部250から出力された送信データを、信号処理装置30に無線通信により送信する。このとき、通信モジュール26は、信号処理装置30から同期データを一定期間毎に受け取ることで、信号処理装置30が送信データを受け取っていることが通知されるようにしてもよい。
なお、通信の確立は、公知の技術を用いればよい。この例においては、信号処理装置30が、ある一定範囲内において使用可能な無線周波数をサーチして決定し、信号送信装置20に決定した無線周波数を通知する。そして、信号送信装置20は、この無線周波数を用いて信号処理装置30への通信を確立するようにすればよい。
続いて、信号送信装置20と信号処理装置30との間で通信されるデータについて、図4、図5を用いて説明する。
The communication module 26 is a configuration for realizing the transmission unit 260, and the signal processing device 30.
After the wireless communication is established, the transmission data output from the generation unit 250 is transmitted to the signal processing device 30 by wireless communication. At this time, the communication module 26 may receive synchronization data from the signal processing device 30 at regular intervals to notify that the signal processing device 30 has received transmission data.
Note that a known technique may be used to establish communication. In this example, the signal processing device 30 searches for and determines a radio frequency that can be used within a certain range, and notifies the signal transmission device 20 of the determined radio frequency. And the signal transmission apparatus 20 should just establish the communication to the signal processing apparatus 30 using this radio frequency.
Next, data communicated between the signal transmission device 20 and the signal processing device 30 will be described with reference to FIGS. 4 and 5.

[データ構造]
図4は、本発明の第1実施形態における送信データおよび同期データの構造を説明する図である。図4(a)は、1パケットの送信データの構造を説明する図である。図4(b)は、同期データの構造を説明する図である。送信データおよび同期データは、ヘッダ部(図4における先頭2byte「H」の部分)とペイロード部(ヘッダ部以外の部分)とにより構成されている。図4(b)に示す同期データにおいて、ペイロード部は、信号送信装置20からの送信データを受信していることを示すSyncコマンド(「C」の部分)を1byteで示すデータになっている。
[data structure]
FIG. 4 is a diagram for explaining the structure of transmission data and synchronization data in the first embodiment of the present invention. FIG. 4A illustrates the structure of transmission data for one packet. FIG. 4B is a diagram for explaining the structure of the synchronization data. The transmission data and the synchronization data are composed of a header part (part of the first 2 bytes “H” in FIG. 4) and a payload part (part other than the header part). In the synchronous data shown in FIG. 4B, the payload portion is data indicating a Sync command (“C” portion) indicating that the transmission data from the signal transmission device 20 is received in 1 byte.

図4(a)に示す送信データにおいて、ペイロード部は、オーディオデータ(「Audio」の部分)が6byte、および、その後のセンサデータ(「S」の部分)が1bitを示すデータになっている。なお、1パケットにつき、オーディオデータが6byte、センサデータが1bitとしたのは一例であって、他のデータ量の組み合わせであってもよい。   In the transmission data shown in FIG. 4A, the payload portion is data in which the audio data (“Audio” portion) is 6 bytes and the subsequent sensor data (“S” portion) is 1 bit. Note that the audio data is 6 bytes and the sensor data is 1 bit per packet, and it may be a combination of other data amounts.

オーディオデータは、16bitの量子化数でサンプリングされて得られたデータであるから、1パケットには、3回のサンプリングにより得られたオーディオデータが含まれることになる。センサデータは、8bitの量子化数でサンプリングされて得られる一方、1パケットに含まれるセンサデータは1bitである。そのため、センサデータは、制御部25によって、8つの1bitのセンサデータ(分割データ)に分割されて、各パケットに含まれるものとなる。また、センサデータは、3軸方向のセンサデータSx、Sy、Szにより構成されているから、1回のサンプリングで8bit×3=24bitとなる。そのため、センサデータの各サンプリング毎に24パケットに分割されることになる。
次に、送信データにおける各パケットに含まれる分割データの内容を図5を用いて説明する。
Since the audio data is data obtained by sampling with a 16-bit quantization number, one packet includes audio data obtained by sampling three times. The sensor data is obtained by sampling with an 8-bit quantization number, while the sensor data included in one packet is 1 bit. Therefore, the sensor data is divided into eight 1-bit sensor data (divided data) by the control unit 25 and included in each packet. Further, since the sensor data is composed of sensor data Sx, Sy, and Sz in three axis directions, 8 bits × 3 = 24 bits is obtained by one sampling. Therefore, it is divided into 24 packets for each sampling of sensor data.
Next, the content of the divided data included in each packet in the transmission data will be described with reference to FIG.

図5は、本発明の第1実施形態における送信データの例を示す図である。図5の左側に示す「No.」は、パケットの番号を示している。分割データSx1−1〜Sx1−8は、x軸方向のセンサデータの1ビット目から8ビット目までを示し、この8bitで1回のサンプリングにより得られるセンサデータSxが構成される。同様にして、Sy1−1〜Sy1−8、Sz1−1〜Sz1−8により、センサデータSy、Szが得られる。上述したように、パケットNo.1〜24までの24パケットを送受信することにより、1回のサンプリングにより得られる3軸のセンサデータSx、Sy、Szが信号処理装置30に送信される。
その後、次のサンプリングによりセンサデータが生成されるまでの期間は、パケットNo.1〜24までの24パケットにおける分割データの割り当てが繰り返される。図5に示す例においては、N回目に割り当てられた分割データを、SxN−1、SxN−2、・・・として示している。
FIG. 5 is a diagram illustrating an example of transmission data according to the first embodiment of the present invention. “No.” shown on the left side of FIG. 5 indicates the packet number. The divided data Sx1-1 to Sx1-8 indicate the first to eighth bits of the sensor data in the x-axis direction, and sensor data Sx obtained by one sampling with 8 bits is configured. Similarly, sensor data Sy and Sz are obtained from Sy1-1 to Sy1-8 and Sz1-1 to Sz1-8. As described above, the packet No. By transmitting / receiving 24 packets from 1 to 24, three-axis sensor data Sx, Sy, Sz obtained by one sampling is transmitted to the signal processing device 30.
Thereafter, the period until the sensor data is generated by the next sampling is the packet No. Allocation of divided data in 24 packets from 1 to 24 is repeated. In the example shown in FIG. 5, the divided data assigned to the Nth time are shown as SxN−1, SxN−2,.

一方、オーディオデータの部分については、各パケットにつき3回のサンプリングにより得られたオーディオデータが含まれている。次のサンプリングによりセンサデータが生成されるまでに、オーディオデータが220回生成される。220回目のサンプリングにより生成されたオーディオデータは、パケットNo.74に含まれる。そのため、このパケットNo.74には、新たなサンプリングにより生成されたセンサデータの分割データSx1−1が含まれることになり、再び24パケット単位で繰り返される。なお、パケットNo.73には、4回目の繰り返しが開始されているが、次のパケットNo.74が生成されるときには、次のサンプリングによりセンサデータが生成されているため、4回目の繰り返しは中止されている。   On the other hand, the audio data portion includes audio data obtained by sampling three times for each packet. The audio data is generated 220 times before the sensor data is generated by the next sampling. The audio data generated by the 220th sampling is the packet number. 74. Therefore, this packet No. 74 includes the divided data Sx1-1 of the sensor data generated by the new sampling, and is repeated again in units of 24 packets. The packet No. 73, the fourth repetition is started, but the next packet No. When 74 is generated, since the sensor data is generated by the next sampling, the fourth repetition is stopped.

各パケットのヘッダ部には、信号送信装置20(送信側の装置)を識別する情報、パケットNo.など順番を規定する情報、オーディオデータおよびセンサデータについてのデータ長、量子化数、サンプリング周波数、分割データがセンサデータの何bit目に対応するか、3軸のうちどの軸のセンサデータに対応するか、何回目のサンプリングに対応するかなどの各種情報が含まれている。
以上が、信号送信装置20の構成に関する説明である。続いて、信号処理装置30の構成について説明する。
In the header portion of each packet, information for identifying the signal transmission device 20 (transmission side device), packet No. The data length, the number of quantizations, the sampling frequency, and the divided data corresponding to the information that defines the order, such as audio data and sensor data, which bit of the sensor data corresponds to which bit of the sensor data, and which of the three axes corresponds to the sensor data And various information such as how many times sampling is supported.
The above is the description regarding the configuration of the signal transmission device 20. Next, the configuration of the signal processing device 30 will be described.

[信号処理装置30の構成]
図6は、本発明の第1実施形態における信号処理装置30の構成を説明するブロック図である。信号処理装置30は、通信モジュール31、DA(digital-analog)変換部32、制御部33およびDSP(Digital Signal Processor)34を有する。
通信モジュール31は、受信部310を実現するための構成であり、信号送信装置20との間で通信が確立された後、信号送信装置20から送信された送信データを受信して出力する。また、上述したように、信号送信装置20との無線による通信を確立するための処理を行う。これは、図示しない操作部を用いてユーザが通信の確立の指示などを入力することにより開始される。なお、通信モジュール31においては、送信データに欠損があっても、再送の要求などは行わず、欠損しているものとして扱う。すなわち、エラー訂正の処理は行わない。また、通信モジュール31は、一定時間にわたって送信データが受信できない場合には、無線周波数を変更するなど通信を確立し直してもよい。
[Configuration of Signal Processing Device 30]
FIG. 6 is a block diagram illustrating the configuration of the signal processing device 30 according to the first embodiment of the present invention. The signal processing device 30 includes a communication module 31, a DA (digital-analog) conversion unit 32, a control unit 33, and a DSP (Digital Signal Processor) 34.
The communication module 31 is a configuration for realizing the receiving unit 310, and receives and outputs transmission data transmitted from the signal transmission device 20 after communication is established with the signal transmission device 20. In addition, as described above, processing for establishing wireless communication with the signal transmission device 20 is performed. This is started when the user inputs an instruction to establish communication using an operation unit (not shown). In the communication module 31, even if there is a loss in the transmission data, a request for retransmission is not made and it is handled as a loss. That is, error correction processing is not performed. The communication module 31 may reestablish communication such as changing the radio frequency when transmission data cannot be received for a certain period of time.

DA変換部32は、抽出部320を実現するための構成であり、ヘッダの情報を参照して送信データをDA変換して、オーディオ信号および検出信号Sx、Sy、Szを出力するDAコンバータである。DA変換部32は、サンプリング順にオーディオデータをDA変換してオーディオ信号を生成して出力する。また、DA変換部32は、各パケットに含まれる分割データを8パケット分(3軸をあわせると24パケット分)をまとめてセンサデータを生成する。そして、DA変換部32は、センサデータをサンプリング順にDA変換することにより検出信号Sx、Sy、Szを生成して出力する。   The DA conversion unit 32 is a configuration for realizing the extraction unit 320, and is a DA converter that DA-converts transmission data with reference to header information and outputs audio signals and detection signals Sx, Sy, Sz. . The DA converter 32 DA-converts audio data in the order of sampling to generate and output an audio signal. Further, the DA conversion unit 32 generates sensor data by collecting the divided data included in each packet for 8 packets (24 packets when the three axes are combined). The DA conversion unit 32 generates and outputs detection signals Sx, Sy, and Sz by performing DA conversion on the sensor data in the order of sampling.

なお、通信モジュール31において送信データが受信できず欠損が発生した場合には、直前の送信データからDA変換した値を保持する。一方、センサデータについては、DA変換部32は、複数回受信する送信データに同一ビットの分割データ(例えば、Sx1−1とSx2−1)が含まれるため、受信できた送信データにおける分割データを組み合わせて各ビットの値を特定することもできる。また、送信データの欠損が無くとも受信した送信データが送信したときと変わってしまう誤りが発生する場合もあるが、この場合には、DA変換部32は、複数回の同一ビットの分割データを比較して最も多い値を正常な値として特定してもよい。   Note that when the transmission data cannot be received in the communication module 31 and a loss occurs, a value DA-converted from the immediately previous transmission data is held. On the other hand, for sensor data, the DA converter 32 includes divided data of the same bit (for example, Sx1-1 and Sx2-1) in transmission data received a plurality of times. The value of each bit can be specified in combination. In addition, even if there is no loss of transmission data, an error may occur that is different from the time when the received transmission data is transmitted. In this case, the DA conversion unit 32 converts the divided data of the same bit multiple times. In comparison, the most frequent value may be specified as a normal value.

ここで、DA変換部32において生成されるオーディオ信号および検出信号Sx、Sy、Szは、制御コマンドではなく、波形を示す信号である。そのため、一部の送信データに欠損、誤りが発生したりしても、オーディオ信号および検出信号Sx、Sy、Szの波形には、僅かな期間だけノイズが発生する程度であり、大きく波形が変化してしまうことがない。また、上述のように、検出信号については、エラー訂正の処理を行わなくても、複数回同一ビットを受信するなどの冗長性を持たせることもできるため、欠損、誤りが生じにくくすることもできる。   Here, the audio signal and the detection signals Sx, Sy, and Sz generated in the DA converter 32 are signals indicating waveforms, not control commands. For this reason, even if a part of transmission data is missing or erroneous, the audio signal and the detection signals Sx, Sy, and Sz have only a small amount of noise in the waveform, and the waveform changes greatly. There is no end to it. In addition, as described above, the detection signal can be given redundancy such as receiving the same bit a plurality of times without performing error correction processing, so that a defect or an error is less likely to occur. it can.

制御部33は、決定部330を実現するための構成であり、CPU(Central Processing Unit)などの演算処理回路により構成される。制御部33は、入力された検出信号Sx、Sy、Szを解析して、ギター10における弦11の張られた方向の水平からの傾きの絶対値|Ps|を特定する。なお、解析にあたり、検出信号について一定時間で移動平均を取るなどして高周波成分を除去することで、送信データの欠損、誤りなどの影響を低減するようにしてもよい。
制御部33は、特定した|Ps|を制御テーブルにしたがって、エフェクト制御値Ceffを決定し、DSP34に出力する。出力するタイミングは、予め決められたタイミング(例えば、第2AD変換部24におけるサンプリング周波数200Hzで決められる間隔)であればよい。
エフェクト制御値Ceffは、DSP34において用いられるパラメータであり、この例においては、オーディオ信号に付与する音響効果の効き具合(加工態様)を定めるパラメータである。制御テーブルは、|Ps|からCeffを決定するためのテーブルである。
The control part 33 is a structure for implement | achieving the determination part 330, and is comprised by arithmetic processing circuits, such as CPU (Central Processing Unit). The control unit 33 analyzes the input detection signals Sx, Sy, and Sz, and specifies the absolute value | Ps | of the inclination in the direction in which the string 11 is stretched in the guitar 10 from the horizontal. In the analysis, the influence of transmission data loss, error, etc. may be reduced by removing high-frequency components by taking a moving average of detection signals at a certain time.
The control unit 33 determines the effect control value Ceff according to the specified | Ps | according to the control table, and outputs it to the DSP 34. The output timing may be a predetermined timing (for example, an interval determined by the sampling frequency 200 Hz in the second AD conversion unit 24).
The effect control value Ceff is a parameter used in the DSP 34. In this example, the effect control value Ceff is a parameter that determines the degree of effect (processing mode) of the acoustic effect applied to the audio signal. The control table is a table for determining Ceff from | Ps |.

図7は、本発明の第1実施形態における制御テーブルの内容を説明する図である。図7に示すように、この例における制御テーブルは、|Ps|が大きくなるほど、Ceffが大きくなる関係に規定されている。このような関係は、一例であって、様々な関係に定めることができる。また、検出信号Sx、Sy、Szのそれぞれについて、異なる種類のエフェクト制御値が決定されるようにしてもよい。また、1対1の変換テーブルでなく、検出信号Sx、Sy、Szのそれぞれの組み合わせに対応して、一のエフェクト制御値が決定されるようにしてもよい。   FIG. 7 is a diagram for explaining the contents of the control table in the first embodiment of the present invention. As shown in FIG. 7, the control table in this example is defined in such a relationship that Ceff increases as | Ps | increases. Such a relationship is an example and can be determined in various relationships. Further, different types of effect control values may be determined for each of the detection signals Sx, Sy, and Sz. Also, instead of the one-to-one conversion table, one effect control value may be determined corresponding to each combination of the detection signals Sx, Sy, Sz.

DSP34は、加工部340を実現するための構成であり、入力されたオーディオ信号に対して、音響効果(この例においてはディレイ効果)を付与する信号処理を施して出力する。すなわち、この例においては、オーディオ信号に対して施される加工処理は、音響効果を付与する処理である。
DSP34は、制御部33から出力されたエフェクト制御値Ceffが示す音響効果の効き具合に応じて、付与する音響効果の程度、例えば、ディレイ量を決定する。DSP34は、ディレイ量でなく、ディレイ音の減衰量、ディレイ音量などを決定してもよい。このように、DSP34は、オーディオ信号に対して付与する音響効果の程度をエフェクト制御値Ceffに基づいて決定するため、制御部33によって付与すべき音響効果の程度が制御されることになる。
このようにしてDSP34から出力されたオーディオ信号は、放音装置40に入力され、放音装置40から放音される。
The DSP 34 is a configuration for realizing the processing unit 340, and performs signal processing that gives an acoustic effect (in this example, a delay effect) to the input audio signal and outputs the signal. That is, in this example, the processing process performed on the audio signal is a process for imparting an acoustic effect.
The DSP 34 determines the degree of the acoustic effect to be applied, for example, the delay amount, according to the effectiveness of the acoustic effect indicated by the effect control value Ceff output from the control unit 33. The DSP 34 may determine the attenuation amount of the delay sound, the delay sound volume, etc. instead of the delay amount. Thus, since the DSP 34 determines the degree of the acoustic effect to be applied to the audio signal based on the effect control value Ceff, the degree of the acoustic effect to be applied is controlled by the control unit 33.
The audio signal output from the DSP 34 in this way is input to the sound output device 40 and is output from the sound output device 40.

このように、本発明の第1実施形態における発音システム1においては、ユーザがギター10の弦11を弾くなどして演奏しながらギター10を傾けると、放音装置40からは、傾きに応じたディレイ量のディレイ効果が付与されたギター10の演奏音が放音される。このとき、ギター10に設けられた信号送信装置20から信号処理装置30へは、無線通信により音の情報と傾きの情報とが波形の情報として送信されている。このとき、上述したようにパケット化されて送信することにより、エラー訂正の処理をしなくてもよくなり、低遅延での送信が可能となる。
また、オーディオデータとセンサデータとが同一パケットにより送信されているから、ギター10を傾きを変化させたときにおいて、リアルタイムに演奏音への音響効果の付与態様の変化として反映されているという印象をユーザに与えることもできる。
As described above, in the sound generation system 1 according to the first embodiment of the present invention, when the user tilts the guitar 10 while playing by playing the strings 11 of the guitar 10, the sound emitting device 40 responds to the tilt. The performance sound of the guitar 10 to which the delay effect of the delay amount is given is emitted. At this time, sound information and inclination information are transmitted as waveform information from the signal transmission device 20 provided in the guitar 10 to the signal processing device 30 by wireless communication. At this time, by packetizing and transmitting as described above, it is not necessary to perform error correction processing, and transmission with low delay becomes possible.
Also, since the audio data and the sensor data are transmitted in the same packet, when the guitar 10 is tilted, the impression that it is reflected in real time as a change in the manner in which the acoustic effect is applied to the performance sound. It can also be given to the user.

また、信号送信装置20においては、DSP34などの処理負荷が大きい構成を必要としないため、低消費電力とすることができる。そのため、信号送信装置20が設けられたギター10に容量の大きな電源を用いる必要がなく、小型化にもつながり、持ち運びが容易となる。
さらに、送信データに含まれる情報は波形を示すものであるから、この送信データを受信する装置において自由に処理を施すことができ汎用性を高めることができる。
In addition, since the signal transmission device 20 does not require a configuration with a large processing load such as the DSP 34, the power consumption can be reduced. Therefore, it is not necessary to use a large-capacity power source for the guitar 10 provided with the signal transmission device 20, which leads to miniaturization and easy to carry.
Furthermore, since the information included in the transmission data indicates a waveform, the apparatus that receives the transmission data can be processed freely and versatility can be improved.

<第2実施形態>
本発明の第2実施形態においては、発音装置10がスネアドラムである場合について説明する。第2実施形態の説明においては、発音装置10をスネアドラム10Aと記す。
Second Embodiment
In the second embodiment of the present invention, a case where the sound producing device 10 is a snare drum will be described. In the description of the second embodiment, the sounding device 10 is referred to as a snare drum 10A.

図8は、本発明の第2実施形態におけるスネアドラム10Aの外観構成を説明する図である。この例における発音システム1Aは、スネアドラム10A、信号送信装置20A、信号処理装置30A、および放音装置40を有する。放音装置40については、第1実施形態における構成と同様であるため説明を省略する。スネアドラム10Aは、膜部11Aおよび膜部11Aが張られた胴部12Aを有する。膜部11Aは、振動体110の機能を実現するための構成である。胴部12Aは、検出対象部120の機能を実現するための構成である。   FIG. 8 is a diagram illustrating an external configuration of the snare drum 10A according to the second embodiment of the present invention. The sound generation system 1A in this example includes a snare drum 10A, a signal transmission device 20A, a signal processing device 30A, and a sound emission device 40. Since the sound emitting device 40 is the same as the configuration in the first embodiment, the description thereof is omitted. The snare drum 10A has a film part 11A and a body part 12A on which the film part 11A is stretched. The film part 11 </ b> A is a configuration for realizing the function of the vibrating body 110. The trunk portion 12A is a configuration for realizing the function of the detection target portion 120.

[信号送信装置20Aの構成]
信号送信装置20Aは、制御モジュール200Aを有する。制御モジュール200は、胴部12Aに設けられている。
[Configuration of Signal Transmitting Device 20A]
The signal transmission device 20A includes a control module 200A. The control module 200 is provided in the trunk portion 12A.

図9は、本発明の第2実施形態における信号送信装置20Aの構成を説明するブロック図である。信号送信装置20Aにおける制御モジュール200Aは、シリコンマイク21A、振動センサ22A、第1AD変換部23、第2AD変換部24、制御部25および通信モジュール26を有する。
シリコンマイク21Aは、信号出力部210を実現するための構成であり、膜部11Aが打撃されることにより生じた振動波形が伝達され、伝達された振動波形をオーディオ信号として第1AD変換部23に出力する。シリコンマイク21Aは、例えば、MEMS(Micro Electro Mechanical Systems)技術によりシリコン基板等を用いて製造された収音装置である。
FIG. 9 is a block diagram illustrating the configuration of a signal transmission device 20A according to the second embodiment of the present invention. The control module 200A in the signal transmission device 20A includes a silicon microphone 21A, a vibration sensor 22A, a first AD conversion unit 23, a second AD conversion unit 24, a control unit 25, and a communication module 26.
The silicon microphone 21A is a configuration for realizing the signal output unit 210. The vibration waveform generated by hitting the film unit 11A is transmitted, and the transmitted vibration waveform is transmitted to the first AD conversion unit 23 as an audio signal. Output. The silicon microphone 21A is, for example, a sound collecting device manufactured using a silicon substrate or the like by MEMS (Micro Electro Mechanical Systems) technology.

振動センサ22Aは、検出部220を実現するための構成であり、取り付けられた部分(この例においては胴部12A)の振動を検出し、検出結果を示す検出信号Sを出力する。この例においては、振動センサ22Aは、膜部11Aへの打撃により胴部12Aに伝達される振動を検出し、検出した振動の波形を示す検出信号Sを第2AD変換部24に出力する。   The vibration sensor 22A is a configuration for realizing the detection unit 220, detects the vibration of the attached portion (body 12A in this example), and outputs a detection signal S indicating the detection result. In this example, the vibration sensor 22 </ b> A detects vibration transmitted to the trunk portion 12 </ b> A by hitting the film portion 11 </ b> A, and outputs a detection signal S indicating the detected vibration waveform to the second AD converter 24.

第1AD変換部23、第2AD変換部24、制御部25および通信モジュール26については、第1実施形態における構成と同様であるため説明を省略する。なお、検出部220を実現する構成は、第1実施形態においては、3軸方向のそれぞれについて検出信号Sx、Sy、Sz(出力値が3種類)として出力されていたが、第2実施形態においては、1種類の出力値の検出信号Sとして出力される。そのため、送信データに含まれるセンサデータ(分割データ)については、第1実施形態においては、1回のサンプリングに対して、3軸のそれぞれについてのセンサデータが3回繰り返されていたが、サンプリング周波数が同じであれば、第2実施形態においては、9回繰り返されることになる。   About the 1st AD conversion part 23, the 2nd AD conversion part 24, the control part 25, and the communication module 26, since it is the same as that of the structure in 1st Embodiment, description is abbreviate | omitted. In the first embodiment, the configuration for realizing the detection unit 220 is output as detection signals Sx, Sy, and Sz (three kinds of output values) for each of the three axial directions. In the second embodiment, Is output as a detection signal S of one type of output value. Therefore, for the sensor data (divided data) included in the transmission data, in the first embodiment, the sensor data for each of the three axes is repeated three times for one sampling, but the sampling frequency Are the same, the second embodiment is repeated nine times.

[信号処理装置30Aの構成]
第2実施形態における信号処理装置30Aは、第1実施形態における信号処理装置30に対して、制御部33において決定される加工態様が異なり、それに伴いDSP34(以下、DSP34Aとして記す)においてオーディオ信号に対して施される加工処理の態様も異なっている。以下、第2実施形態における制御部33(以下、制御部33Aとして記す)において決定される加工態様について説明する。なお、信号処理装置30Aの構成については、図6に示す信号処理装置30において、制御部33が制御部33Aとして、DSP34がDSP34Aとして変わるだけであるため、図示を省略する。
[Configuration of Signal Processing Device 30A]
The signal processing device 30A in the second embodiment differs from the signal processing device 30 in the first embodiment in the processing mode determined in the control unit 33, and accordingly, the audio signal is converted into an audio signal in the DSP 34 (hereinafter referred to as DSP 34A). The aspect of the processing applied to it is also different. Hereinafter, the processing mode determined in the control unit 33 (hereinafter referred to as the control unit 33A) in the second embodiment will be described. The configuration of the signal processing device 30A is not shown in the signal processing device 30 shown in FIG. 6 because only the control unit 33 is changed to the control unit 33A and the DSP 34 is changed to the DSP 34A.

第2実施形態における加工態様としては、オーディオ信号に対して時間変化する増幅処理を施す態様である。
制御部33Aは、DA変換部32から出力される検出信号Sを解析して、検出信号Sが示す振動波形のエンベロープからピークを検出するとともに、そのピークレベルLpについても特定する。制御部33Aは、ピークを検出すると、DSP34Aに増幅処理の開始を指示する。このときの増幅値については、特定したピークレベルLpから、制御テーブルにしたがって制御部33Aが決定する。
As a processing mode in the second embodiment, a time-varying amplification process is performed on the audio signal.
The control unit 33A analyzes the detection signal S output from the DA conversion unit 32, detects a peak from the envelope of the vibration waveform indicated by the detection signal S, and specifies the peak level Lp. When detecting the peak, the control unit 33A instructs the DSP 34A to start the amplification process. About the amplification value at this time, 33 A of control parts determine according to a control table from the specified peak level Lp.

図10は、本発明の第2実施形態における増幅処理の時間変化態様を説明する図である。DSP34Aは、制御部33Aにおいて増幅処理の開始の指示を受けると、図10に示すように時間変化する増幅値P(t)にしたがってオーディオ信号を増幅して出力する。この増幅値P(t)は、ピーク検出後、時間tmが経過すると最大増幅値Pm(dB)となり、その後時間経過に伴って減少し、ピーク検出から時間teが経過すると増幅値が0(dB)となるように決められている。   FIG. 10 is a diagram for explaining a temporal variation aspect of the amplification processing in the second embodiment of the present invention. When the DSP 34A receives an instruction to start amplification processing in the control unit 33A, the DSP 34A amplifies and outputs the audio signal according to the amplification value P (t) that changes with time as shown in FIG. This amplified value P (t) becomes the maximum amplified value Pm (dB) when the time tm elapses after the peak detection, and then decreases with the elapse of time. When the time te elapses after the peak detection, the amplified value becomes 0 (dB). ).

図11は、本発明の第2実施形態における最大値を決定するための制御テーブルを説明する図である。この例における制御テーブルは、制御部33Aが、ピークレベルLpに基づいて最大増幅値Pmを決定するために用いられる。図11に示すように、この例における制御テーブルは、Lpが大きくなるほど、Pmが大きくなる関係に規定されている。   FIG. 11 is a diagram illustrating a control table for determining the maximum value in the second embodiment of the present invention. The control table in this example is used by the control unit 33A to determine the maximum amplification value Pm based on the peak level Lp. As shown in FIG. 11, the control table in this example is defined in such a relationship that Pm increases as Lp increases.

このように、増幅処理の時間変化態様、および制御テーブルが決められているため、以下のような効果を奏する。例えば、膜部11Aの打撃により生じた音を収音して、一定の増幅率で増幅して放音する場合には、音量は増大するがダイナミックレンジは変わらない。一方、第2実施形態におけるDSP34Aでの増幅処理をオーディオ信号に施すことによっては、膜部11Aの打撃により生じた振動を振幅に基づいて、放音される音の音量を制御することができる。すなわち、膜部11Aが強く打撃されるほど、オーディオ信号が大きく増幅されることになるため、ダイナミックレンジが拡大することになる。   Thus, since the time change mode of the amplification process and the control table are determined, the following effects are produced. For example, when a sound generated by striking the film part 11A is picked up, amplified with a constant amplification factor and emitted, the volume increases but the dynamic range does not change. On the other hand, by applying the amplification process by the DSP 34A in the second embodiment to the audio signal, the volume of the sound to be emitted can be controlled based on the amplitude of the vibration generated by the impact of the film portion 11A. That is, the stronger the film portion 11A is hit, the more the audio signal is amplified, so the dynamic range is expanded.

なお、制御テーブルが図11に示す内容ではなく、ピークレベルLpが大きくなるほど、最大増幅値Pmが小さくなる関係に規定されていれば、逆に、ダイナミックレンジを圧縮することもできる。また、上記の増幅値が0(dB)となる時間teについても、ピークレベルLpに応じて変化するようにしてもよい。例えば、増幅処理の時間変化態様において、増幅値が0(dB)となる時間を規定するのではなく、最大増幅値Pmからの減少率を一定として規定してもよい。   If the control table is not the content shown in FIG. 11 and the maximum amplification value Pm decreases as the peak level Lp increases, the dynamic range can be compressed conversely. Further, the time te when the amplification value becomes 0 (dB) may be changed according to the peak level Lp. For example, in the time change mode of the amplification process, the rate of decrease from the maximum amplification value Pm may be defined as a constant, instead of defining the time when the amplification value becomes 0 (dB).

<第3実施形態>
本発明の第1、2実施形態においては、発音装置10は、振動体110および検出対象部120を有するものとして説明したが、検出対象部120が別の構成であってもよい。この場合には、検出対象部120は、信号送信装置20の一部の構成として扱うものとする。
このように構成される場合についての実施形態について、第3実施形態および第4実施形態として説明する。
<Third Embodiment>
In the first and second embodiments of the present invention, the sound generation device 10 has been described as including the vibrating body 110 and the detection target unit 120, but the detection target unit 120 may have another configuration. In this case, the detection target unit 120 is treated as a part of the configuration of the signal transmission device 20.
Embodiments with such a configuration will be described as a third embodiment and a fourth embodiment.

第3実施形態においては、発音装置10が楽器であり、信号送信装置20がマイクロフォンである場合について説明する。第3実施形態の説明においては、発音装置10を楽器10Bと記し、信号送信装置20をマイクロフォン20Bと記す。なお、発音装置10は楽器でなく、ユーザなどの人であってもよく、音を発する構成を有していればよい。   In the third embodiment, the case where the sounding device 10 is a musical instrument and the signal transmission device 20 is a microphone will be described. In the description of the third embodiment, the sounding device 10 is referred to as a musical instrument 10B, and the signal transmission device 20 is referred to as a microphone 20B. The sounding device 10 may be a person such as a user, not a musical instrument, and may have a configuration that emits sound.

図12は、本発明の第3実施形態におけるマイクロフォン20Bの外観構成を説明する図である。この例における発音システム1Bは、楽器10B、マイクロフォン20B、信号処理装置30、および放音装置40を有する。信号処理装置30および放音装置40については、第1実施形態における構成と同様であるため説明を省略する。楽器10Bは、発音部11Bを有する。発音部11Bは、振動体110の機能を実現するための構成である。   FIG. 12 is a diagram illustrating an external configuration of a microphone 20B according to the third embodiment of the present invention. The sound generation system 1B in this example includes a musical instrument 10B, a microphone 20B, a signal processing device 30, and a sound emitting device 40. Since the signal processing device 30 and the sound emitting device 40 are the same as those in the first embodiment, the description thereof is omitted. The musical instrument 10B includes a sound generation unit 11B. The sound generation unit 11B is a configuration for realizing the function of the vibrating body 110.

[マイクロフォン20Bの構成]
マイクロフォン20Bは、筐体12B、ムービングコイル21Bおよび制御モジュール200Bを有する。ムービングコイル21Bおよび制御モジュール200Bは、筐体12Bに設けられている。筐体12Bは、検出対象部120の機能を実現するための構成である。
[Configuration of Microphone 20B]
The microphone 20B includes a housing 12B, a moving coil 21B, and a control module 200B. The moving coil 21B and the control module 200B are provided in the housing 12B. The housing 12B is a configuration for realizing the function of the detection target unit 120.

図13は、本発明の第3実施形態におけるマイクロフォン20Bの構成を説明するブロック図である。ムービングコイル21Bは、信号出力部210を実現するための構成であり、発音部11Bにおける発音に応じた音の振動波形が伝達され、伝達された振動波形をオーディオ信号として第1AD変換部23に出力する。
制御モジュール200Bは、加速度センサ22、第1AD変換部23、第2AD変換部24、制御部25および通信モジュール26を有する。これらの各構成については、第1実施形態における構成と同様であるため、説明を省略する。
FIG. 13 is a block diagram illustrating the configuration of a microphone 20B according to the third embodiment of the present invention. The moving coil 21B is a configuration for realizing the signal output unit 210, transmits a vibration waveform of a sound corresponding to the sound generation in the sound generation unit 11B, and outputs the transmitted vibration waveform to the first AD conversion unit 23 as an audio signal. To do.
The control module 200B includes an acceleration sensor 22, a first AD conversion unit 23, a second AD conversion unit 24, a control unit 25, and a communication module 26. Since each of these configurations is the same as the configuration in the first embodiment, a description thereof will be omitted.

このように、第3実施形態においては、発音部11Bからの音に音響効果を付与して放音させることができる。このとき、ユーザがマイクロフォン20Bを把持して傾けることにより、付与される音響効果を変化させることもできる。例えば、カラオケのマイクロフォンとして、このマイクロフォン20Bを用いれば、ユーザは、歌唱しつつこのマイクロフォン20Bを傾けることにより、歌唱音に様々な音響効果を付与することができる。   As described above, in the third embodiment, the sound from the sound generation unit 11B can be imparted with an acoustic effect and emitted. At this time, the applied sound effect can also be changed by the user holding and tilting the microphone 20B. For example, if this microphone 20B is used as a karaoke microphone, the user can impart various acoustic effects to the singing sound by tilting the microphone 20B while singing.

<第4実施形態> <Fourth embodiment>

第4実施形態においては、信号送信装置20(第3実施形態におけるマイクロフォン20B)が携帯端末である場合について説明する。第4実施形態の説明においては、発音装置10を楽器10Cと記し、信号送信装置20を携帯端末20Cと記す。携帯端末20Cは、携帯電話、タブレット端末、PDA(Personal Digital Assistant)などの持ち運び可能な情報処理端末である。   In the fourth embodiment, a case where the signal transmission device 20 (the microphone 20B in the third embodiment) is a mobile terminal will be described. In the description of the fourth embodiment, the sounding device 10 is referred to as a musical instrument 10C, and the signal transmission device 20 is referred to as a portable terminal 20C. The mobile terminal 20C is a portable information processing terminal such as a mobile phone, a tablet terminal, or a PDA (Personal Digital Assistant).

図14は、本発明の第4実施形態における携帯端末20Cの外観構成を説明する図である。この例における発音システム1Cは、楽器10C、携帯端末20C、信号処理装置30、および放音装置40を有する。信号処理装置30および放音装置40については、第1実施形態における構成と同様であるため説明を省略する。また、楽器10C(発音部11C)についても第3実施形態における構成と同様であるため説明を省略する。   FIG. 14 is a diagram illustrating an external configuration of a mobile terminal 20C according to the fourth embodiment of the present invention. The sound generation system 1C in this example includes a musical instrument 10C, a portable terminal 20C, a signal processing device 30, and a sound emitting device 40. Since the signal processing device 30 and the sound emitting device 40 are the same as those in the first embodiment, the description thereof is omitted. Further, the musical instrument 10C (sound generator 11C) is the same as the configuration in the third embodiment, and thus the description thereof is omitted.

[携帯端末20Cの構成]
図15は、本発明の第4実施形態における携帯端末20Cの構成を説明するブロック図である。図14、図15に示すように、携帯端末20Cは、シリコンマイク21C、加速度センサ22C、第1AD変換部23C、第2AD変換部24C、制御部25C、通信モジュール26Cおよび記憶部50Cを有し、それぞれ筐体12Cに設けられている。
加速度センサ22C、第1AD変換部23C、第2AD変換部24Cおよび通信モジュール26Cについては、第1実施形態において対応する構成と同様であるため説明を省略する。また、シリコンマイク21Cについても、第2実施形態におけるシリコンマイク21Aと同様であるため説明を省略する。
[Configuration of Mobile Terminal 20C]
FIG. 15 is a block diagram illustrating the configuration of a mobile terminal 20C according to the fourth embodiment of the present invention. As shown in FIGS. 14 and 15, the mobile terminal 20C includes a silicon microphone 21C, an acceleration sensor 22C, a first AD conversion unit 23C, a second AD conversion unit 24C, a control unit 25C, a communication module 26C, and a storage unit 50C. Each is provided in the housing 12C.
Since the acceleration sensor 22C, the first AD conversion unit 23C, the second AD conversion unit 24C, and the communication module 26C are the same as the corresponding configurations in the first embodiment, description thereof is omitted. Also, the silicon microphone 21C is the same as the silicon microphone 21A in the second embodiment, and thus the description thereof is omitted.

記憶部50Cは、不揮発性メモリなどであって、アプリケーションプログラムを記憶している。制御部25Cは、このアプリケーションプログラムを実行すると、携帯端末20Cの各構成を制御して、信号送信装置20の機能構成を実現する。このとき、制御部25Cは、シリコンマイク21Cにより信号出力部210を実現し、加速度センサ22Cにより検出部220を実現し、第1AD変換部23Cにより第1サンプリング部230として実現し、第2AD変換部24Cにより第2サンプリング部240として実現し、通信モジュール26Cにより送信部260を実現する。また、制御部25Cにおいて、生成部250を実現する。   The storage unit 50C is a nonvolatile memory or the like and stores an application program. When this application program is executed, the control unit 25C controls each configuration of the mobile terminal 20C to realize the functional configuration of the signal transmission device 20. At this time, the control unit 25C realizes the signal output unit 210 by the silicon microphone 21C, the detection unit 220 by the acceleration sensor 22C, the first sampling unit 230 by the first AD conversion unit 23C, and the second AD conversion unit. The second sampling unit 240 is realized by 24C, and the transmission unit 260 is realized by the communication module 26C. In addition, the generation unit 250 is realized in the control unit 25C.

このように、信号送信装置20における各機能構成は、アプリケーションプログラムを制御部25Cに実行させることにより、制御部25Cと各ハードウエア構成とにより協働して実現されるようにすることができる。なお、第1サンプリング部230および第2サンプリング部240の機能構成については、制御部25Cにおいて実現されるようにしてもよい。   Thus, each functional configuration in the signal transmission device 20 can be realized in cooperation with the control unit 25C and each hardware configuration by causing the control unit 25C to execute an application program. The functional configurations of the first sampling unit 230 and the second sampling unit 240 may be realized by the control unit 25C.

<変形例>
以上、本発明の実施形態について説明したが、本発明は以下のように、様々な態様で実施可能である。なお、実施形態および変形例のうちの一の例について変形した態様として説明するものであっても、他の例についても同様に変形して適用することができる。
<Modification>
As mentioned above, although embodiment of this invention was described, this invention can be implemented in various aspects as follows. In addition, even if it demonstrates as a deformation | transformation aspect about one example of embodiment and a modification, it can deform | transform and apply similarly about another example.

[変形例1]
上述した実施形態において、信号処理装置30(30A)においては、オーディオ信号に対して施される加工処理が音響効果の付与であったが、別のオーディオ信号を合成するものであってもよい。この場合の構成について説明する。
[Modification 1]
In the above-described embodiment, in the signal processing device 30 (30A), the processing performed on the audio signal is imparting the acoustic effect, but another audio signal may be synthesized. The configuration in this case will be described.

図16は、本発明の変形例1における信号処理装置30Bの構成を説明するブロック図である。信号処理装置30Bは、通信モジュール31、DA変換部32、制御部33B、音源部34B1および合成部34B2を有する。通信モジュール31およびDA変換部32については、第1実施形態における構成と同様であるため説明を省略する。   FIG. 16 is a block diagram illustrating the configuration of a signal processing device 30B according to Modification 1 of the present invention. The signal processing device 30B includes a communication module 31, a DA conversion unit 32, a control unit 33B, a sound source unit 34B1, and a synthesis unit 34B2. Since the communication module 31 and the DA conversion unit 32 are the same as those in the first embodiment, the description thereof is omitted.

音源部34B1および合成部34B2は、加工部340を実現する構成である。音源部34B1は、制御部33Bの制御に応じてオーディオ信号を生成して出力する。音源部34B1は、例えば、MIDI形式の制御コマンドが入力されると、制御コマンドに基づいて決まる発音内容を示す波形のオーディオ信号を出力する。合成部34B2は、DA変換部32から出力されるオーディオ信号および音源部34B1から出力されるオーディオ信号とを加算して合成して出力する。
なお、合成部34B2において合成されるオーディオ信号のうち、DA変換部32から出力されるオーディオ信号は、各実施形態において示したようにDSP34(34A)により音響効果が付与される処理が施されてもよい。
The sound source unit 34B1 and the synthesis unit 34B2 are configured to realize the processing unit 340. The sound source unit 34B1 generates and outputs an audio signal according to the control of the control unit 33B. For example, when a MIDI-type control command is input, the sound source unit 34B1 outputs an audio signal having a waveform indicating the sound generation content determined based on the control command. The synthesizer 34B2 adds and synthesizes the audio signal output from the DA converter 32 and the audio signal output from the sound source unit 34B1, and outputs the result.
Of the audio signals synthesized in the synthesis unit 34B2, the audio signal output from the DA conversion unit 32 is subjected to a process to which an acoustic effect is given by the DSP 34 (34A) as shown in each embodiment. Also good.

制御部33Bは、決定部330を実現する構成であり、この例においては、DA変換部32から出力される検出信号に基づいて、音源部34B1の発音内容を決定し、決定した発音内容のオーディオ信号を出力させるための制御コマンドを音源部34B1に出力する。   The control unit 33B is configured to implement the determination unit 330. In this example, the sound generation content of the sound source unit 34B1 is determined based on the detection signal output from the DA conversion unit 32, and the audio of the determined sound generation content is determined. A control command for outputting a signal is output to the sound source unit 34B1.

例えば、制御部33Bは、第1実施形態の場合のように検出信号Sx、Sy、Szが入力される場合には、検出信号Sxの出力値が一定値未満から一定値以上に変化した場合に、発音開始を指示する制御コマンドを出力する。制御部33Bは、このように発音を開始させる音については、例えば、検出信号Sxの出力値が一定値以上に変化したときの検出信号Syの出力値に応じた音高、検出信号Szの出力値に応じた音量となるように、制御コマンドを出力すればよい。音色については、予め決められたものを用いればよい。   For example, when the detection signals Sx, Sy, and Sz are input as in the case of the first embodiment, the control unit 33B determines that the output value of the detection signal Sx changes from less than a certain value to more than a certain value. The control command for instructing the start of sound is output. For the sound that starts sounding in this way, for example, the control unit 33B outputs the pitch and the detection signal Sz according to the output value of the detection signal Sy when the output value of the detection signal Sx changes to a certain value or more. A control command may be output so that the volume is in accordance with the value. For the timbre, a predetermined tone may be used.

また、制御部33Bは、第2実施形態の場合のように検出信号Sが入力される場合には、ピークが検出された場合に、発音開始を指示する制御コマンドを出力し、ピークレベルLpに応じた音量となるように制御コマンドを出力すればよい。この場合には、音色、音高などは予め決められたものとすればよい。   Further, when the detection signal S is input as in the case of the second embodiment, the control unit 33B outputs a control command instructing the start of sound generation when a peak is detected, and the peak level Lp is output. A control command may be output so that the sound volume is adjusted. In this case, the timbre, pitch, etc. may be determined in advance.

このとき、ピークレベルLpのとり得る範囲を予め設定しておき、また、とり得る音量の範囲を予め設定しておくことにより、制御部33Bは、それぞれの範囲の関係で音量を決定するようにして制御コマンドを出力するようにしてもよい。
例えば、音量を規定する制御コマンドの制御値が「0」から「127」であるものとする。また、とり得るピークレベルLpの範囲が「6000」から「22000」であるものとする。この場合には、ピークレベルLpが「6000」である場合に制御コマンドの制御値が「0」、ピークレベルLpが「22000」であるときに制御コマンドの制御値が「127」になるように、ピークレベルLpから制御コマンドの制御値が決定される。このとき、制御値の最小値から最大値までの間については、補間態様を適宜設定しておけばよい。また、制御値のとりうる範囲について、上限、下限を設け、補間した結果、制御値が上限値を超える場合には上限値に固定、下限値を下回る場合には下限値に固定するようにしてもよい。
At this time, the range that the peak level Lp can take is set in advance, and the volume range that can be taken is set in advance, so that the control unit 33B determines the volume in relation to each range. A control command may be output.
For example, it is assumed that the control value of the control command that defines the volume is “0” to “127”. Further, it is assumed that the range of possible peak levels Lp is “6000” to “22000”. In this case, the control value of the control command is “0” when the peak level Lp is “6000”, and the control value of the control command is “127” when the peak level Lp is “22000”. The control value of the control command is determined from the peak level Lp. At this time, an interpolation mode may be set as appropriate between the minimum value and the maximum value of the control values. Also, regarding the range that the control value can take, an upper limit and a lower limit are set, and when the control value exceeds the upper limit value as a result of interpolation, the upper limit value is fixed, and when the control value is lower than the lower limit value, the upper limit value is fixed. Also good.

このような制御態様は一例であって、様々な制御態様が設定可能であり、制御部33Bは、入力された検出信号に基づいて、設定された制御態様で制御コマンドを出力することができる。   Such a control mode is an example, and various control modes can be set. The control unit 33B can output a control command in the set control mode based on the input detection signal.

[変形例2]
上述した第1実施形態においては、ユーザが聴くことのできる音は、放音装置40から放音される音以外については、ギター10における弦11の振動による発音であったが、ギター10にスピーカを設けることにより、このスピーカからも音を聴くことができるようにしてもよい。
[Modification 2]
In the first embodiment described above, the sound that can be heard by the user is a sound generated by the vibration of the string 11 in the guitar 10 except for the sound emitted from the sound emitting device 40. The sound may be heard from this speaker.

図17は、本発明の変形例2における信号送信装置20Dの構成を説明するブロック図である。信号送信装置20Dは、第1実施形態における構成に加えて、DSP27を有する。
DSP27は、第1実施形態におけるDSP34と同様であり、入力されたオーディオ信号に対してエフェクト制御値Ceffに応じた音響効果を付与する処理を施して放音装置28に出力する。放音装置28は、放音装置40と同様、入力されたオーディオ信号を増幅して放音する。
FIG. 17 is a block diagram illustrating the configuration of a signal transmission device 20D according to Modification 2 of the present invention. The signal transmission device 20D includes a DSP 27 in addition to the configuration in the first embodiment.
The DSP 27 is the same as the DSP 34 in the first embodiment, performs a process of giving an acoustic effect corresponding to the effect control value Ceff to the input audio signal, and outputs it to the sound emitting device 28. Similar to the sound emitting device 40, the sound emitting device 28 amplifies the input audio signal and emits the sound.

制御部25Dは、第1実施形態における制御部25の機能に加えて、オーディオ信号をDSP27に出力する機能を有する。また、制御部25Dは、制御部33と同様にして、検出信号Sx、Sy、Szに基づいて、DSP27において用いられるエフェクト制御値Ceffを決定する。なお、DSP27において付与される音響効果については、信号処理装置30におけるDSP34とは異なるものであってもよい。   The control unit 25D has a function of outputting an audio signal to the DSP 27 in addition to the function of the control unit 25 in the first embodiment. Similarly to the control unit 33, the control unit 25D determines the effect control value Ceff used in the DSP 27 based on the detection signals Sx, Sy, Sz. In addition, about the acoustic effect provided in DSP27, you may differ from DSP34 in the signal processing apparatus 30. FIG.

なお、DSP27は、変形例1で説明した音源部34B1に相当する構成であってもよい。また、放音装置28に出力されるオーディオ信号は、送信データとしてパケット化されてもよい。この場合には、放音装置28に出力されるオーディオ信号は、第1AD変換部23から出力されるオーディオ信号に代えて、または合成して、パケット化されればよい。   The DSP 27 may have a configuration corresponding to the sound source unit 34B1 described in the first modification. The audio signal output to the sound emitting device 28 may be packetized as transmission data. In this case, the audio signal output to the sound emitting device 28 may be packetized instead of or synthesized with the audio signal output from the first AD conversion unit 23.

また、ギター10に操作部29が設けられていてもよい。この場合には、操作部29がユーザの指示を受け付け、指示に応じてDSP27における加工態様が設定可能に構成されていてもよい。また、この指示内容は、通信モジュール26を介して信号処理装置30に送信されてもよい。この場合には信号処理装置30におけるDSP34の加工態様が設定可能に構成されていてもよい。加工態様が設定されると、制御部25D、33において決定する加工態様は、設定内容に応じたものとなる。   The operation unit 29 may be provided on the guitar 10. In this case, the operation unit 29 may receive a user instruction, and the processing mode in the DSP 27 may be set according to the instruction. Further, the instruction content may be transmitted to the signal processing device 30 via the communication module 26. In this case, the processing mode of the DSP 34 in the signal processing device 30 may be settable. When the processing mode is set, the processing mode determined by the control units 25D and 33 is in accordance with the set content.

[変形例3]
上述した第1、第2実施形態においては、発音装置10は、振動体110が振動することにより発音する構成であったが、演奏操作を受け付ける演奏操作部を有し、発音を制御する装置としてもよい。
[Modification 3]
In the first and second embodiments described above, the sound generation device 10 is configured to generate sound when the vibrating body 110 vibrates. However, the sound generation device 10 includes a performance operation unit that receives performance operations and controls sound generation. Also good.

図18は、本発明の変形例3における発音システム1Eの機能構成を説明するブロック図である。発音システム1Eは、発音制御装置10E、信号送信装置20E、信号処理装置30および放音装置40を有する。信号処理装置30および放音装置40については、第1実施形態における構成と同様であるため説明を省略する。
発音システム1Eは、演奏操作部110Eおよび検出対象部120を有する。演奏操作部110Eは、ユーザに操作されることにより発音内容の指示を示す指示信号を出力する機能を有する。検出対象部120Eは、演奏操作部110Eが設けられる。
FIG. 18 is a block diagram illustrating a functional configuration of the sound generation system 1E according to the third modification of the present invention. The sound generation system 1E includes a sound generation control device 10E, a signal transmission device 20E, a signal processing device 30, and a sound emission device 40. Since the signal processing device 30 and the sound emitting device 40 are the same as those in the first embodiment, the description thereof is omitted.
The sound generation system 1E includes a performance operation unit 110E and a detection target unit 120. The performance operation unit 110E has a function of outputting an instruction signal indicating an instruction of pronunciation content when operated by a user. The detection target unit 120E is provided with a performance operation unit 110E.

信号送信装置20Eは、信号出力部210E、検出部220、第1サンプリング部230、第2サンプリング部240、生成部250および送信部260を有する。信号出力部210Eは、演奏操作部110Eから出力される指示信号に応じて発音内容を決定し、決定した発音内容を波形で示すオーディオ信号を出力する。他の構成については、第1実施形態における構成と同様であるため説明を省略する。
続いて、このような発音システム1Eの機能構成を実現するための実施形態の例について説明する。
The signal transmission device 20E includes a signal output unit 210E, a detection unit 220, a first sampling unit 230, a second sampling unit 240, a generation unit 250, and a transmission unit 260. The signal output unit 210E determines the sound production content according to the instruction signal output from the performance operation unit 110E, and outputs an audio signal indicating the determined sound production content as a waveform. Other configurations are the same as the configurations in the first embodiment, and thus the description thereof is omitted.
Then, the example of embodiment for implement | achieving such a function structure of the sound generation system 1E is demonstrated.

図19は、本発明の変形例3における鍵盤装置10Eの外観構成を説明する図である。この例における発音システム1Eは、鍵盤装置10E、信号送信装置20E、信号処理装置30および放音装置40を有する。信号処理装置30および放音装置40については、上述したように第1実施形態における構成と同様であるため説明を省略する。鍵盤装置10Eは、演奏操作部110Eを実現するための構成の鍵11E1および鍵センサ11E2を有し、また、検出対象部120Eを実現するための構成の筐体12Eを有する。これらの各構成は、電子鍵盤楽器などにおいて用いられる構成と同様であり、鍵センサ11E2は、ユーザにより押下された鍵11E1の押下量に基づく指示信号を出力する。
信号送信装置20Eは、制御モジュール200Eを有する。制御モジュール200Eは、筐体12Eに設けられている。
FIG. 19 is a diagram illustrating an external configuration of a keyboard device 10E according to the third modification of the present invention. The sound generation system 1E in this example includes a keyboard device 10E, a signal transmission device 20E, a signal processing device 30, and a sound emission device 40. Since the signal processing device 30 and the sound emitting device 40 are the same as those in the first embodiment as described above, description thereof will be omitted. The keyboard device 10E includes a key 11E1 and a key sensor 11E2 configured to realize the performance operation unit 110E, and a housing 12E configured to realize the detection target unit 120E. Each of these configurations is the same as the configuration used in an electronic keyboard instrument and the like, and the key sensor 11E2 outputs an instruction signal based on the pressed amount of the key 11E1 pressed by the user.
The signal transmission device 20E includes a control module 200E. The control module 200E is provided in the housing 12E.

図20は、本発明の変形例3における信号送信装置20Eの構成を説明するブロック図である。信号送信装置20Eにおける制御モジュール200Eは、音源部21E、加速度センサ22、第1AD変換部23、第2AD変換部24、制御部25および通信モジュール26を有する。音源部21Eは、信号出力部210Eを実現する構成であり、鍵センサ11E2から出力される指示信号に基づいて、発音内容を特定し、発音内容を波形で示すオーディオ信号を出力する。加速度センサ22、第1AD変換部23、第2AD変換部24、制御部25および通信モジュール26については、第1実施形態における構成と同様であるため説明を省略する。   FIG. 20 is a block diagram illustrating a configuration of a signal transmission device 20E according to Modification 3 of the present invention. The control module 200E in the signal transmission device 20E includes a sound source unit 21E, an acceleration sensor 22, a first AD conversion unit 23, a second AD conversion unit 24, a control unit 25, and a communication module 26. The sound source unit 21E is configured to implement the signal output unit 210E, specifies the sound production content based on the instruction signal output from the key sensor 11E2, and outputs an audio signal indicating the sound production content as a waveform. Since the acceleration sensor 22, the first AD conversion unit 23, the second AD conversion unit 24, the control unit 25, and the communication module 26 are the same as those in the first embodiment, the description thereof is omitted.

このように、信号出力部から出力されるオーディオ信号は、振動体の振動波形に基づいて生成された信号に限らず、演奏操作に基づいて生成された信号であってもよい。   Thus, the audio signal output from the signal output unit is not limited to a signal generated based on the vibration waveform of the vibrating body, but may be a signal generated based on a performance operation.

[変形例4]
上述した実施形態において、信号処理装置30においては、検出信号に基づいて決定された態様(効果の程度、ダイナミックレンジ変換、他のオーディオ信号の合成など)で音響効果を付与する信号処理をオーディオ信号に対して施していたが、検出信号に基づいて決定される態様は様々にとり得る。検出信号に基づいて決定される態様としては、例えば、音響効果の種類(ディレイ、リバーブ、コーラスなど)の切り替え、ピッチ変換、位相調整などであり、また音源部を用いる場合には音色の切り替えなども可能である。
[Modification 4]
In the above-described embodiment, the signal processing device 30 performs signal processing that imparts an acoustic effect in an aspect (degree of effect, dynamic range conversion, synthesis of other audio signals, etc.) determined based on the detection signal. However, the mode determined based on the detection signal can be various. Examples of modes determined based on the detection signal include switching of the type of acoustic effect (delay, reverb, chorus, etc.), pitch conversion, phase adjustment, etc., and, when using a sound source unit, switching of timbres, etc. Is also possible.

[変形例5]
上述した実施形態において、放音装置40は、スピーカから放音するものとして説明したが、ヘッドフォンなどであってもよい。また、放音装置40と信号処理装置30とは一体に構成されていてもよい。
[Modification 5]
In the embodiment described above, the sound emitting device 40 has been described as emitting sound from a speaker, but may be headphones or the like. Further, the sound emitting device 40 and the signal processing device 30 may be configured integrally.

[変形例6]
上述した実施形態においては、送信データの各パケットにおける最後の1bitにセンサデータが分割データとして含まれる態様のデータ構造であったが、別の態様であってもよい。
例えば、センサデータは2bit単位で分割されて各パケットに2bitが含まれるようにしてもよいし、分割せずに各パケットに1byte単位で含まれるようにしてもよい。
また、オーディオデータの一部をセンサーデータ(分割データ)として置き換えてもよい。例えば、オーディオデータの最下位bitを置き換えるだけであれば、音に与える影響は少ない。
[Modification 6]
In the above-described embodiment, the data structure is such that the sensor data is included as the divided data in the last 1 bit in each packet of the transmission data.
For example, the sensor data may be divided in units of 2 bits so that each packet includes 2 bits, or each packet may be included in units of 1 byte without being divided.
Also, part of the audio data may be replaced with sensor data (divided data). For example, if only the least significant bit of the audio data is replaced, the influence on the sound is small.

[変形例7]
上述した実施形態においては、送信データの各パケットにおいてセンサーデータ(分割データ)が最後の1bitに含まれているが、少なくとも1回のサンプリングにより生成されたセンサデータが送信された後は、次のサンプリングによりセンサデータが生成されるまで、センサデータとは関係の無いダミーデータとして送信してもよい。すなわち、送信データの各パケット全てにおいてセンサデータが含まれている必要はなく、一部のパケットにおいてセンサデータが含まれていなくてもよい。
[Modification 7]
In the above-described embodiment, sensor data (divided data) is included in the last 1 bit in each packet of transmission data, but after sensor data generated by at least one sampling is transmitted, Until the sensor data is generated by sampling, it may be transmitted as dummy data unrelated to the sensor data. That is, sensor data need not be included in all packets of transmission data, and sensor data may not be included in some packets.

[変形例8]
上述した実施形態においては、1つの信号送信装置20から1つの信号処理装置30に対して送信データが送信されていたが、少なくとも一方が複数であってもよい。
[Modification 8]
In the above-described embodiment, transmission data is transmitted from one signal transmission apparatus 20 to one signal processing apparatus 30, but at least one may be plural.

例えば、信号送信装置20が複数である場合には、信号処理装置30は、各信号送信装置20からの送信データに対して実施形態と同様な処理を行い、加工処理が施されたオーディオ信号を合成して放音装置40出力すればよい。
一方、信号処理装置30が複数である場合には、信号送信装置20からの送信データに応じて、それぞれ決定された加工態様で加工処理が施されたオーディオ信号を、それぞれ接続された放音装置40に出力すればよい。このとき、複数の信号処理装置30から出力されるオーディオ信号を合成した信号が1つの放音装置40に出力されるようにしてもよい。
For example, when there are a plurality of signal transmission devices 20, the signal processing device 30 performs the same processing as that of the embodiment on the transmission data from each signal transmission device 20, and the processed audio signal is processed. What is necessary is just to synthesize | combine and to output the sound emission apparatus 40.
On the other hand, when there are a plurality of signal processing devices 30, audio signals that have been processed in a processing manner determined in accordance with transmission data from the signal transmission device 20 are respectively connected to sound emitting devices connected to each other. 40 may be output. At this time, a signal obtained by synthesizing audio signals output from the plurality of signal processing devices 30 may be output to one sound emitting device 40.

ここで、信号送信装置20から送信される送信データは、制御コマンドではなく波形信号をサンプリングしてパケット化したものであるから、信号処理装置30においては、特定の制御コマンドにより制御される必要はなく、波形信号を個々に解析して利用することができ、汎用性が高くなる。   Here, since the transmission data transmitted from the signal transmission device 20 is not a control command but a waveform signal sampled and packetized, the signal processing device 30 needs to be controlled by a specific control command. Therefore, the waveform signals can be individually analyzed and used, and the versatility is improved.

[変形例9]
上述した実施形態においては、検出部220の例として、加速度センサ、振動センサを用いていたが、ジャイロ、地磁気センサなどを用いてもよい。すなわち、検出部220は、検出対象部120の運動により出力値が変化する検出信号を出力可能な構成であれば、どのような構成であってもよい。
[Modification 9]
In the above-described embodiment, an acceleration sensor and a vibration sensor are used as an example of the detection unit 220, but a gyroscope, a geomagnetic sensor, or the like may be used. That is, the detection unit 220 may have any configuration as long as it can output a detection signal whose output value changes according to the movement of the detection target unit 120.

また、検出部220は、複数種類のセンサが組み合わされて実現されてもよく、例えば、加速度センサとジャイロとにより実現されてもよい。信号処理装置30においては、それぞれのセンサから出力された検出信号に基づいて、オーディオ信号に対する加工態様を決定すればよい。   The detection unit 220 may be realized by combining a plurality of types of sensors, and may be realized by, for example, an acceleration sensor and a gyro. In the signal processing device 30, a processing mode for the audio signal may be determined based on the detection signals output from the respective sensors.

[変形例10]
上述した実施形態においては、信号出力部210から出力されるオーディオ信号はモノラル信号として説明したが、ステレオ信号など多チャンネルの信号として出力されてもよい。
[Modification 10]
In the embodiment described above, the audio signal output from the signal output unit 210 has been described as a monaural signal, but may be output as a multi-channel signal such as a stereo signal.

[変形例11]
上述した実施形態においては、信号出力部210は、検出対象部120に取り付けられていたが、直接取り付けられる場合に限らず、他の部材を介して間接的に取り付けられていてもよい。
[Modification 11]
In the above-described embodiment, the signal output unit 210 is attached to the detection target unit 120. However, the signal output unit 210 is not limited to being directly attached, and may be indirectly attached via another member.

[変形例12]
上述した第4実施形態において制御部25Cによって実行されるアプリケーションプログラムは、磁気記録媒体(磁気テープ、磁気ディスクなど)、光記録媒体(光ディスクなど)、光磁気記録媒体、半導体メモリなどのコンピュータ読み取り可能な記録媒体に記憶した状態で提供し得る。また、携帯端末20Cは、このアプリケーションプログラムをネットワーク経由でダウンロードしてもよい。
[Modification 12]
The application program executed by the control unit 25C in the fourth embodiment described above can be read by a computer such as a magnetic recording medium (magnetic tape, magnetic disk, etc.), an optical recording medium (optical disk, etc.), a magneto-optical recording medium, and a semiconductor memory. Can be provided in a state stored in a simple recording medium. Further, the mobile terminal 20C may download this application program via a network.

1,1A,1B,1C,1E…発音システム、10…発音装置、ギター、10A…スネアドラム、10B,10C…楽器、10E…発音制御装置、鍵盤装置、11…弦、11A…膜部、11B,11C…発音部、11E1…鍵、11E2…鍵センサ、12E…筐体、12,12A…胴部、12B,12C…筐体、20,20A,20D,20E…信号送信装置、20B…マイクロフォン、20C…携帯端末、21…ピックアップ、21A,21C…シリコンマイク、21B…ムービングコイル、21E…音源部、22,22C…加速度センサ、22A…振動センサ、23,23C…第1AD変換部、24,24C…第2AD変換部、25,25C,25D…制御部、26,26C…通信モジュール、27…DSP、28…放音装置、29…操作部、30,30B…信号処理装置、31…通信モジュール、32…DA変換部、33,33B…制御部、34…DSP、34B1…音源部、34B
2…合成部、40…放音装置、50C…記憶部、110…振動体、110E…演奏操作部、120,120E…検出対象部、200,200A,200D,200E…制御モジュール、210,210E…信号出力部、220…検出部、230…第1サンプリング部、240…第2サンプリング部、250…生成部、260…送信部、310…受信部、320…抽出部、330…決定部、340…加工部
1, 1A, 1B, 1C, 1E ... Sound generation system, 10 ... Sound generation device, guitar, 10A ... Snare drum, 10B, 10C ... Musical instrument, 10E ... Sound generation control device, keyboard device, 11 ... String, 11A ... Membrane, 11B , 11C ... Sound generation unit, 11E1 ... Key, 11E2 ... Key sensor, 12E ... Housing, 12, 12A ... Body, 12B, 12C ... Housing, 20, 20A, 20D, 20E ... Signal transmission device, 20B ... Microphone, 20C ... mobile terminal, 21 ... pickup, 21A, 21C ... silicon microphone, 21B ... moving coil, 21E ... sound source, 22, 22C ... acceleration sensor, 22A ... vibration sensor, 23, 23C ... first AD converter, 24, 24C ... 2nd AD conversion part, 25, 25C, 25D ... Control part, 26, 26C ... Communication module, 27 ... DSP, 28 ... Sound emission device, 29 ... Operation Department, 30, 30B ... signal processing unit, 31 ... communication module, 32 ... DA converter unit, 33,33B ... control unit, 34 ... DSP, 34B1 ... tone generator, 34B
DESCRIPTION OF SYMBOLS 2 ... Synthesis | combination part, 40 ... Sound emission apparatus, 50C ... Memory | storage part, 110 ... Vibrating body, 110E ... Performance operation part, 120, 120E ... Detection object part, 200, 200A, 200D, 200E ... Control module, 210, 210E ... Signal output unit 220 ... detection unit 230 ... first sampling unit 240 ... second sampling unit 250 ... generation unit 260 ... transmission unit 310 ... reception unit 320 ... extraction unit 330 ... determination unit 340 ... process section

Claims (6)

楽器からオーディオ信号を出力する信号出力手段と、
前記信号出力手段を備える前記楽器の胴部又は筐体部である検出対象部に設置された加速度センサ手段と、
前記加速度センサ手段の出力値を、ユーザが前記検出対象部を動かすことにより、出力値が変化する検出信号として検出する検出手段と、
前記出力されたオーディオ信号を第1サンプリング周波数でサンプリングして第1サンプルデータを生成し出力する第1サンプリング手段と、
前記出力された検出信号を前記第1サンプリング周波数より低い第2サンプリング周波数でサンプリングして第2サンプルデータを生成し出力する第2サンプリング手段と、
前記出力された前記第1サンプルデータと前記第2サンプルデータとが同一のパケットに含まれるようにパケット化し、前記検出信号に基づく態様で前記オーディオ信号に加工処理を施して出力する信号処理装置に対して送信する送信手段と
を具備することを特徴とする楽器。
A signal output means for outputting an audio signal from a musical instrument;
Acceleration sensor means installed in a detection target part that is a trunk part or a casing part of the musical instrument comprising the signal output means;
Detecting means for detecting an output value of the acceleration sensor means as a detection signal whose output value changes when the user moves the detection target unit;
Sampling the output audio signal at a first sampling frequency to generate and output first sample data; and
Sampling the output detection signal at a second sampling frequency lower than the first sampling frequency to generate and output second sample data; and
A signal processing apparatus that packetizes the output first sample data and the second sample data so as to be included in the same packet, performs processing on the audio signal in a manner based on the detection signal, and outputs the processed audio signal. A musical instrument comprising: a transmitting means for transmitting to the musical instrument.
楽器からオーディオ信号を出力する信号出力手段と、
前記信号出力手段を備える前記楽器の胴部又は筐体部である検出対象部に設置された振動センサ手段と、
前記振動センサ手段の出力値を、ユーザが前記楽器を演奏することにより、出力値が変化する検出信号として検出する検出手段と、
前記出力されたオーディオ信号を第1サンプリング周波数でサンプリングして第1サンプルデータを生成し出力する第1サンプリング手段と、
前記出力された検出信号を前記第1サンプリング周波数より低い第2サンプリング周波数でサンプリングして第2サンプルデータを生成し出力する第2サンプリング手段と、
前記出力された前記第1サンプルデータと前記第2サンプルデータとが同一のパケットに含まれるようにパケット化し、前記検出信号に基づく態様で前記オーディオ信号に加工処理を施して出力する信号処理装置に対して送信する送信手段と
を具備することを特徴とする楽器。
A signal output means for outputting an audio signal from a musical instrument;
Vibration sensor means installed in a detection target part which is a trunk part or a casing part of the musical instrument comprising the signal output means;
Detecting means for detecting an output value of the vibration sensor means as a detection signal that changes when the user plays the instrument;
Sampling the output audio signal at a first sampling frequency to generate and output first sample data; and
Sampling the output detection signal at a second sampling frequency lower than the first sampling frequency to generate and output second sample data; and
A signal processing apparatus that packetizes the output first sample data and the second sample data so as to be included in the same packet, performs processing on the audio signal in a manner based on the detection signal, and outputs the processed audio signal. A musical instrument comprising: a transmitting means for transmitting to the musical instrument.
前記信号出力手段は、前記楽器の振動部分である振動体から伝達される振動波形をオーディオ信号に変換し、当該変換したオーディオ信号を出力する
ことを特徴とする請求項1又は2に記載の楽器。
The musical instrument according to claim 1, wherein the signal output unit converts a vibration waveform transmitted from a vibrating body that is a vibration part of the musical instrument into an audio signal, and outputs the converted audio signal. .
前記振動体と前記検出対象部とは前記楽器においてそれぞれ異なる部分である
ことを特徴とする請求項3に記載の楽器。
The musical instrument according to claim 3, wherein the vibrating body and the detection target part are different parts in the musical instrument.
請求項1乃至請求項4のいずれかに記載の楽器から送信された送信データを受信する受信手段と、
前記受信した送信データからオーディオ信号および検出信号を抽出する抽出手段と、
前記抽出された検出信号に基づいて、オーディオ信号の加工態様を決定する決定手段と、
前記決定された加工態様で前記抽出されたオーディオ信号に加工処理を施して出力する加工手段と
を具備することを特徴とする信号処理装置。
Receiving means for receiving transmission data transmitted from the musical instrument according to any one of claims 1 to 4,
Extraction means for extracting an audio signal and a detection signal from the received transmission data;
Determining means for determining a processing mode of the audio signal based on the extracted detection signal;
And a processing means for processing the extracted audio signal in the determined processing mode and outputting the processed audio signal.
前記抽出手段は高周波成分を除去する
ことを特徴とする請求項5に記載の信号処理装置。
The signal processing apparatus according to claim 5, wherein the extraction unit removes a high-frequency component.
JP2016137728A 2016-07-12 2016-07-12 Musical instruments and signal processing devices Expired - Fee Related JP6176372B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016137728A JP6176372B2 (en) 2016-07-12 2016-07-12 Musical instruments and signal processing devices

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016137728A JP6176372B2 (en) 2016-07-12 2016-07-12 Musical instruments and signal processing devices

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2011147444A Division JP6024077B2 (en) 2011-07-01 2011-07-01 Signal transmitting apparatus and signal processing apparatus

Publications (2)

Publication Number Publication Date
JP2016194721A JP2016194721A (en) 2016-11-17
JP6176372B2 true JP6176372B2 (en) 2017-08-09

Family

ID=57322815

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016137728A Expired - Fee Related JP6176372B2 (en) 2016-07-12 2016-07-12 Musical instruments and signal processing devices

Country Status (1)

Country Link
JP (1) JP6176372B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111566725B (en) * 2018-01-08 2024-03-19 罗兰株式会社 Transmitter for musical instrument and mode switching method thereof
JP6474518B1 (en) * 2018-07-02 2019-02-27 坪井 純子 Simple operation voice quality conversion system

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001339425A (en) * 2000-05-25 2001-12-07 Mitsubishi Electric Corp Data communication system
JP2006201654A (en) * 2005-01-24 2006-08-03 Yamaha Corp Accompaniment following system
JP2006163435A (en) * 2006-01-23 2006-06-22 Yamaha Corp Musical sound controller
JP5556075B2 (en) * 2008-07-30 2014-07-23 ヤマハ株式会社 Performance information output device and performance system

Also Published As

Publication number Publication date
JP2016194721A (en) 2016-11-17

Similar Documents

Publication Publication Date Title
US7339107B2 (en) Method of and system for controlling audio effects
JP6024077B2 (en) Signal transmitting apparatus and signal processing apparatus
CN103165121B (en) Signal handling equipment
US8111241B2 (en) Gestural generation, sequencing and recording of music on mobile devices
JP2808617B2 (en) Electronic musical instrument
US20070169615A1 (en) Controlling audio effects
JP4265664B2 (en) Performance equipment
JP2003255950A (en) Digital interface for analog musical instrument and analog musical instrument provided with the same
CN101421782A (en) Be used for revising the method and system of sound signal
JP2010055077A (en) Controller
JP6176372B2 (en) Musical instruments and signal processing devices
TW201737239A (en) Musical instrument with intelligent interface
JP6733781B2 (en) Audio equipment
US9396720B2 (en) Electro-acoustic audio reverberation device
CN111108547B (en) Acoustic musical instrument enhanced with feedback and input drivers
KR20150080740A (en) Method and apparatus for generating audio signal and vibration signal based on audio signal
JP2000181447A (en) Transmitting device, receiving device, and transmitting and receiving device for music information, and storage medium
JP2015146030A (en) Musical instrument
JP2012150235A (en) Music instrument
US20160112799A1 (en) Acoustic system, acoustic system control device, and acoustic system control method
JP2004325775A (en) Mixing server and playing instrument for ensemble
JP2016081039A (en) Acoustic system
CN216527988U (en) Electronic device for processing performance signal and performance musical instrument
US11501745B1 (en) Musical instrument pickup signal processing system
JP2010165444A (en) Music playback controller, music playback system, and program

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170613

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170626

R151 Written notification of patent or utility model registration

Ref document number: 6176372

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees