JP3077192B2 - Electronic musical instruments compatible with performance environments - Google Patents

Electronic musical instruments compatible with performance environments

Info

Publication number
JP3077192B2
JP3077192B2 JP02301202A JP30120290A JP3077192B2 JP 3077192 B2 JP3077192 B2 JP 3077192B2 JP 02301202 A JP02301202 A JP 02301202A JP 30120290 A JP30120290 A JP 30120290A JP 3077192 B2 JP3077192 B2 JP 3077192B2
Authority
JP
Japan
Prior art keywords
parameter
performance
tone
parameters
sound
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP02301202A
Other languages
Japanese (ja)
Other versions
JPH04174696A (en
Inventor
秀夫 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP02301202A priority Critical patent/JP3077192B2/en
Publication of JPH04174696A publication Critical patent/JPH04174696A/en
Application granted granted Critical
Publication of JP3077192B2 publication Critical patent/JP3077192B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Electrophonic Musical Instruments (AREA)

Description

【発明の詳細な説明】 [産業上の利用分野] この発明は、周囲の音、光、動き、振動などの状況に
応じて楽音の音色、演奏状況または環境状況などを変更
制御することのできる演奏環境に対応する電子楽器に関
する。
DETAILED DESCRIPTION OF THE INVENTION [Industrial Application Field] The present invention can change and control a tone color of a musical tone, a performance state, an environmental state, and the like in accordance with circumstances such as ambient sound, light, movement, and vibration. It relates to an electronic musical instrument corresponding to a performance environment.

[従来技術] 従来、ポップス系あるいはロック系などのコンサート
においては、演奏者の演奏した音楽により聴衆が感激あ
るいは興奮することが多くある。聴衆は、その感激や興
奮を動作や声として表現する。演奏者は、このような聴
衆の状況を視覚的あるいは聴覚的に感じて、その結果を
さらに演奏にフィードバックすることが多い。これは、
コンサートにおける演奏者と聴衆とのコミュニケーショ
ンが自然に成立している状況といえる。
[Prior Art] Conventionally, in pop or rock concerts, the audience is often inspired or excited by music played by a player. The audience expresses the excitement and excitement as movements and voices. Players often visually or aurally perceive such a situation of the audience, and often feed back the results to the performance. this is,
It can be said that communication between the performer and the audience at the concert is naturally established.

しかし、そこには演奏者という人間が介在しているた
め、演奏技量上の問題あるいは演奏者の解釈の違いなど
により、聴衆の多くが意図するところが常に直接的に音
楽にフィードバックされる訳ではない。
However, since there is a human being, there is a problem that many audiences do not always directly feed back to the music due to problems in performance skills or differences in interpretations of the performers. .

また、このようなコンサートにおいては、各種のマイ
クや楽器などの音量や音質などを制御・調整する音響調
整員や、照明やスクリーンの投影などを制御・調整する
照明調整員などが配置されることがある。そして、これ
らの各調整員が聴衆の様子を察知し、その結果を音響系
あるいは照明系の制御に反映させることにより、演奏音
楽などへのフィードバックを行うこともある。
In such concerts, sound coordinators who control and adjust the volume and sound quality of various microphones and musical instruments, and lighting coordinators who control and adjust lighting and projection of screens, etc., may be arranged. There is. Each of these coordinators senses the state of the audience, and reflects the result in control of the acoustic system or the lighting system, thereby providing feedback to performance music or the like.

しかし、この場合も調整員という人間が介在している
ため、その調整員の技量上の力量や解釈の違いにより、
聴衆の状況がそのまま音楽にフィードバックされること
はない。
However, also in this case, since a human coordinator is involved, due to differences in skill and interpretation of the coordinator's skills,
The audience situation is not directly fed back to the music.

一方、実開昭61−27189号公報には、演奏者の状態例
えば顔色や体温などの変化を演奏音の音色やリズム音な
どに反映させるようにした電子楽器が開示されている。
また、特公昭54−7209号公報には、演奏会場の音響の状
態に応じて音量を自動的に制御しうるようにした電子楽
器が開示されている。さらに、特開昭48−48123号公報
には、演奏上の環境特に光の状態により音量や音色など
を変化させるようにした電子楽器が開示されている。
On the other hand, Japanese Utility Model Laid-Open Publication No. 61-27189 discloses an electronic musical instrument in which a change in the state of a performer, such as a complexion or a body temperature, is reflected in the timbre or rhythm sound of a performance sound.
Further, Japanese Patent Publication No. 54-7209 discloses an electronic musical instrument capable of automatically controlling the volume in accordance with the state of sound in a performance hall. Further, Japanese Patent Application Laid-Open No. 48-48123 discloses an electronic musical instrument in which the volume, tone, and the like are changed depending on the environment of the performance, particularly the state of light.

[発明が解決しようとする課題] 上述したように演奏者あるいは音響や照明の調整員が
会場内の聴衆の状況を察知してその結果を演奏などにフ
ィードバックする方式では、人間が介在しているため、
聴衆の意図するところが常に直接的に音楽にフィードバ
ックされる訳ではないという不具合があった。
[Problems to be Solved by the Invention] As described above, in a system in which a performer or a sound or lighting adjuster senses the situation of an audience in a venue and feeds back the result to a performance or the like, a human is involved. For,
There was a problem that the audience's intention was not always directly fed back to the music.

また、上述の各公報に開示された電子楽器では、演奏
者の状態や演奏中の光あるいは音響を検出するにすぎ
ず、会場内の聴衆の発した情報をできるかぎり多く捕え
音楽に反映するという要求から考えると不十分なもので
あった。さらに、これらにより制御できるのは楽音の音
量、音色あるいはリズム音の変化程度にすぎなかった。
Further, the electronic musical instruments disclosed in the above publications merely detect the state of the performer and the light or sound during the performance, and reflect as much as possible the information emitted by the audience in the venue to the captured music. It was unsatisfactory considering the requirements. Furthermore, only the change of the volume, timbre or rhythm sound of the musical tone can be controlled by these.

この発明は、上述の従来例における問題点に鑑み、聴
衆や演奏者を含む会場内の各種の状況を捕え音楽シーン
にリアルタイムにフィードバックさせることのできる演
奏環境に対応する電子楽器を提供することを目的とす
る。
The present invention has been made in view of the above-described problems in the related art, and provides an electronic musical instrument corresponding to a performance environment that can capture various situations in a venue including an audience and a performer and feed it back to a music scene in real time. Aim.

[課題を解決するための手段] この目的を達成するため、この発明に係る演奏環境に
対応する電子楽器は、周囲の音、光、動き、振動などを
検出する検出手段と、この検出手段による検出結果に基
づいて、周囲の状況を分析する分析手段と、この分析手
段による分析結果および現在状況データの両者に基づい
て要因分析を行ない、この要因分析結果に基づいて、音
色パラメータ、演奏パラメータまたは環境パラメータを
生成するパラメータ生成手段と、このパラメータ生成手
段により生成された音色パラメータ、演奏パラメータま
たは環境パラメータに基づいて、楽音の音色、演奏状況
または環境状況を制御する制御手段とを具備することを
特徴とする。
[Means for Solving the Problems] In order to achieve this object, an electronic musical instrument corresponding to a performance environment according to the present invention includes a detecting means for detecting ambient sound, light, movement, vibration, etc. Analyzing means for analyzing the surrounding situation based on the detection result, and performing a factor analysis based on both the analysis result by the analyzing means and the current situation data. Based on the result of the factor analysis, a timbre parameter, a performance parameter or Parameter generating means for generating environmental parameters; and control means for controlling a timbre, a playing state or an environmental state of a musical tone based on a tone color parameter, a performance parameter or an environmental parameter generated by the parameter generating means. Features.

[作 用] このような構成によれば、検出手段は会場内の音、
光、演奏者や聴衆の動き、会場全体の振動などの状況を
検出する。この検出結果に基づき、分析手段はこれらの
状況を分析し、聴衆や演奏者が現在どのような状況にあ
るかを導き出す。パラメータ生成手段はこの分析結果お
よび現在状況データに基づき、音色を決定するパラメー
タである音色パラメータ、自動演奏において発音する楽
器の数などの演奏上の各種の条件を決定する演奏パラメ
ータ、または効果映像あるいは照明の種類や強度などの
演奏中の環境を決定する環境パラメータなどのパラメー
タを生成する。制御手段は、これらのパラメータによ
り、リアルタイムに楽音の音色、演奏状況または環境状
況を制御する。
[Operation] According to such a configuration, the detecting means can detect the sound in the venue,
It detects conditions such as light, movement of performers and audience, and vibration of the entire venue. Based on this detection result, the analysis means analyzes these situations and derives what the audience and the performer are currently in. Based on the analysis result and the current situation data, the parameter generating means determines a timbre parameter which is a parameter for determining a timbre, a performance parameter which determines various performance conditions such as the number of musical instruments to be pronounced in the automatic performance, or an effect image or It generates parameters such as environmental parameters that determine the environment during performance, such as the type and intensity of lighting. The control means controls the tone color of the musical tone, the performance status or the environmental status in real time based on these parameters.

[実施例] 以下、図面を用いてこの発明の実施例を説明する。Embodiment An embodiment of the present invention will be described below with reference to the drawings.

第1図は、この発明の一実施例に係る電子楽器の概略
構成図である。この図において、この実施例の電子楽器
は、会場内の客席などにいる聴衆121から発生される音
を検出するマイク101、客席の状態を映像として捕える
テレビカメラ102、マイク101で検出した音をマイクロコ
ンピュータに取込むための音取込み装置104、テレビカ
メラ102で撮影した映像をマイクロコンピュータに取込
むための映像取込み装置103、各種の分析を行なうため
のマイクロコンピュータ105、マイクロコンピュータ105
から出力される分析結果を入力し各種のパラメータを発
生または変更するためのマイクロコンピュータ106、音
源およびシーケンサ107、ミキサ108、アンプ109、およ
びスピーカ110を具備する。122はこの電子楽器の演奏者
を示す。
FIG. 1 is a schematic configuration diagram of an electronic musical instrument according to one embodiment of the present invention. In this figure, the electronic musical instrument of this embodiment includes a microphone 101 that detects a sound generated from an audience 121 at a seat or the like in a hall, a television camera 102 that captures the state of the seat as a video, and a sound detected by the microphone 101. A sound capturing device 104 for capturing into a microcomputer, a video capturing device 103 for capturing a video captured by a television camera 102 to a microcomputer, a microcomputer 105 for performing various analyses, a microcomputer 105
A microcomputer 106, a sound source and sequencer 107, a mixer 108, an amplifier 109, and a loudspeaker 110 for inputting the analysis result output from the CPU and generating or changing various parameters. Reference numeral 122 indicates a player of the electronic musical instrument.

第2図は、この実施例の電子楽器の処理の流れを説明
するための流れ図である。
FIG. 2 is a flowchart for explaining the processing flow of the electronic musical instrument of this embodiment.

次に、第1図の実施例の電子楽器の動作を、第2図の
流れ図の各ステップごとに説明する。なお、第2図の付
番201〜207は処理内容を示す各ステップである。付番30
1〜304は入出力および入出力するデータを示す。
Next, the operation of the electronic musical instrument of the embodiment of FIG. 1 will be described for each step of the flowchart of FIG. It should be noted that reference numerals 201 to 207 in FIG. 2 denote steps indicating processing contents. Number 30
1 to 304 indicate input / output and data to be input / output.

ステップ201,202 まず、マイク101およびテレビカメラ102により、会場
内の聴衆121の発する声、拍手、喝采などの音や動作を
捕える。捕えた音データおよび映像データは、取込み装
置103,104を介してマイクロコンピュータ105に入力す
る。
Steps 201 and 202 First, the microphone 101 and the television camera 102 capture sounds and actions such as voices, applause, and cheers from the audience 121 in the venue. The captured sound data and video data are input to the microcomputer 105 via the capturing devices 103 and 104.

ステップ203 マイクロコンピュータ105は、入力した音データに基
づき種々の分析を行なう。この実施例の電子楽器では、
聴衆の発する音を時間変化を含めて周波数分析する。分
析方法としては、FFT(高速フーリエ変換)、LPC法(代
数方程式法)、またはCSM(複合正弦波法)によるフォ
ルマント抽出などを用いる。
Step 203 The microcomputer 105 performs various analyzes based on the input sound data. In the electronic musical instrument of this embodiment,
The frequency of the sound emitted by the audience is analyzed including the time change. As an analysis method, FFT (fast Fourier transform), LPC method (algebraic equation method), formant extraction by CSM (complex sine wave method), or the like is used.

例えば次のような音響信号分析を行う。第3図は音響
信号の分析例を示す。入力した音データ波形をスペクト
ル分析することにより、拍手または手拍子の成分、観客
の動き、足踏みおよび踊りによる成分、並びにノイズ成
分が求められる。また音量変化を検出することにより、
音量変化および変化スピードが求められる。さらに、リ
ズムを検出することにより、所定のリズムパルス(シー
ケンサーやリズムマシンなどのテンポクロック)とのリ
ズム一致度が得られる。
For example, the following acoustic signal analysis is performed. FIG. 3 shows an example of analysis of an acoustic signal. By analyzing the spectrum of the input sound data waveform, a component of applause or clapping, a component of movement of the audience, a stepping and dancing, and a noise component are obtained. Also, by detecting the change in volume,
Volume change and change speed are required. Further, by detecting the rhythm, the degree of rhythm coincidence with a predetermined rhythm pulse (tempo clock such as a sequencer or a rhythm machine) can be obtained.

ステップ204 マイクロコンピュータ105は、入力した映像データに
基づき種々の分析を行なう。この実施例の電子楽器で
は、会場を撮影した映像を時間変化を含めてパターン分
析(画像解析)する。具体的には、人(聴衆)自体また
は人が持っているものの動作速度、規模、あるいは色な
どの情報を検出する。例えば観客席の映像の明るい小ポ
イントを複数検出しその移動の軌跡を各ポイント別に検
出することにより、ペンライトの抽出ができる。また、
肌色の小物体の横方向への小刻みな揺れを検出すること
により拍手が検出でき、拍手と同様な検出を行った後そ
れがリズムに同期していれば手拍子であると判断するこ
とができる。
Step 204 The microcomputer 105 performs various analyzes based on the input video data. In the electronic musical instrument of this embodiment, pattern analysis (image analysis) is performed on a video image of a venue including a temporal change. Specifically, information such as the operation speed, scale, and color of a person (audience) itself or a person's possession is detected. For example, a penlight can be extracted by detecting a plurality of bright small points in an image of a spectator seat and detecting a locus of movement for each point. Also,
Applause can be detected by detecting a slight wiggle in the lateral direction of a small flesh-colored object, and after performing the same detection as applause, if it is synchronized with the rhythm, it can be determined that the hand is clapping.

ステップ205 マイクロコンピュータ105は、ステップS203,204から
音データおよび映像データの分析結果を得る。また、マ
イクロコンピュータ105は、現在状況データ301を入力す
る。
Step 205 The microcomputer 105 obtains the analysis result of the audio data and the video data from steps S203 and S204. Further, the microcomputer 105 inputs the current situation data 301.

現在状況データとは、例えば、どのような曲であるか
(アップテンポのいわゆるノリのよい曲あるいは静かな
曲などの区別)、何曲目か、曲のなかでの状況(イント
ロ、テーマ、間奏、エンディング、ソロをとっているパ
ート、あるいはデュエットなどの区別)などのデータで
ある。これは、演奏者が周知の方式により入力するデー
タである。演奏者は、例えば会場の盛上りに応じて、ソ
ロのパートであれば音量を上げたり音質をきらびやかに
するように、パラメータの変更制御を行なうことができ
る。
The current situation data includes, for example, what kind of song (a distinction between a so-called good-tempered song or quiet song with an up-tempo), the number of the song, and the situation within the song (intro, theme, interlude, Ending, solo part, duet, etc.). This is data input by the player in a known manner. For example, the performer can perform parameter change control so that the volume of a solo part is increased or the sound quality is brilliant, for example, in accordance with the excitement of the venue.

マイクロコンピュータ105は、これらのデータに基づ
き要因分析を行なう。この要因分析は、上記の会場内の
音や映像の分析結果に応じて、聴衆の状況を想定するも
のである。要因分析においては、例えば、大勢の拍手が
鳴り続いている、手拍子が鳴っている、喝采や絶叫があ
る、またはペンライトが大きく揺れているなどの状況を
大きさ、速さ、色、および方向を含めて分析し、それら
のパラメータを出力する。必要であれば、ステップS20
3,204で得られたデータを併用しそのまま用いてもよ
い。
The microcomputer 105 performs factor analysis based on these data. This factor analysis assumes a situation of the audience according to the analysis result of the sound and the video in the hall. In factor analysis, for example, a large number of applause, clapping, cheering or screaming, or a large swing of the penlight are described as size, speed, color, and direction. And output those parameters. Step S20 if necessary
The data obtained in 3,204 may be used together and used as it is.

この実施例では、第2図のリファレンスデータ302に
示すように、拍手、手拍子、喝采、絶叫、総立ち、動
静、もっている物体、および色・光の要因について分析
する。さらにこれらの要因について、人数、動作の速
さ、および声の大きさなどの規模についても分析を行な
う。
In this embodiment, as shown in the reference data 302 of FIG. 2, the factors of applause, clapping, applause, screaming, standing up, moving, holding object, and color / light are analyzed. Further, regarding these factors, an analysis is also made on the scale such as the number of people, the speed of movement, and the volume of voice.

分析結果は、例えば以下のようなパラメータデータと
して出力される。
The analysis result is output as, for example, the following parameter data.

興奮度(例えば、観客の動きや音が大きいあるいは小
さい) 集中度(例えば、観客の動きが一致しているか否かな
ど) 盛上り度(音量レベルあるいは動作レベルの変化。盛
上るにしたがい両方とも大きくなる) 一体感(音の中に手拍子や歌声が検出される) なお、演奏前に各度合レベルの組合せに対応させてパ
ラメータを何組か用意しておき、演奏時にリアルタイム
に選択するようにしてもよい。
Excitement (e.g., audience movement or sound is loud or low) Intensity (e.g., whether audience movements match, etc.) Excitement (change in volume level or movement level. A sense of unity (clapping and singing are detected in the sound) Before the performance, prepare several sets of parameters corresponding to the combination of each level, and select them in real time during the performance. You may.

ステップ206 ステップ205の要因分析の分析結果は、マイクロコン
ピュータ106に入力される。マイクロコンピュータ106
は、パラメータ変換を行なう。パラメータ変換は、要因
分析の結果得られた会場内の各種の状況を示すパラメー
タ(要因パラメータ)と制御したいパラメータ(音色パ
ラメータや演奏パラメータ)とを対応させる。そして、
要因パラメータに基づいて、楽音の音色パラメータなど
を制御する。要因パラメータと制御したいパラメータと
の対応関係、およびそれぞれの効果の度合は、あらかじ
め入力データ303のように入力しておく。
Step 206 The analysis result of the factor analysis in step 205 is input to the microcomputer 106. Microcomputer 106
Performs parameter conversion. In the parameter conversion, a parameter (factor parameter) indicating various situations in the venue obtained as a result of the factor analysis is associated with a parameter to be controlled (tone color parameter or performance parameter). And
The timbre parameters of the musical tone are controlled based on the factor parameters. The correspondence between the factor parameter and the parameter to be controlled and the degree of each effect are input in advance as input data 303.

1個の要因パラメータに応じて、複数個の音色パラメ
ータあるいは複数個の演奏パラメータを制御してもよ
い。その逆に、複数個の要因パラメータに応じて、1つ
の音色パラメータなどを制御してもよい。複数組のパラ
メータを準備しておき、ステージの進行に合せて時間的
にパラメータを切換えていく場合、その度合をプログラ
ムし、パフォーマンスによってプリセットされたプログ
ラムを自由に呼び出すこともできる。
A plurality of tone parameters or a plurality of performance parameters may be controlled according to one factor parameter. Conversely, one tone color parameter or the like may be controlled according to a plurality of factor parameters. When a plurality of sets of parameters are prepared and the parameters are changed over time in accordance with the progress of the stage, the degree can be programmed and the preset program can be freely called depending on the performance.

コントロールするパラメータとしては第2図の音色パ
ラメータ304および演奏パラメータ・環境パラメータ305
に示すようなものがある。さらに詳しくは、以下のよう
なものがある。
The parameters to be controlled include the tone color parameter 304 and the performance parameter / environment parameter 305 in FIG.
There is something like that shown in More specifically, there are the following.

音色パラメータ AWM音源における音色波形の種類・音量・フィルタ定
数・EG定数など FM音源におけるテーブル波形の種類・音量・変調指数
・周波数比・フィルタ定数など モジュレーションデプス・ディストーションなどの音
色付加効果 演奏パラメータ 自動演奏の楽器の数・編成。例えば、大編成から小編
成へ変化させることなど。
Tone parameters Types of tone waveforms, volume, filter constants, EG constants, etc. for AWM sound sources Types of table waveforms, volume, modulation index, frequency ratio, filter constants, etc. for FM tone sources Tone addition effects such as modulation depth and distortion Performance parameters Automatic performance Number and organization of musical instruments. For example, changing from a large organization to a small organization.

楽器の定位・残響効果。例えば、音像を移動したり、
広がりを変化させることなど。
Instrument localization and reverberation effect. For example, moving the sound image,
Changing the extent.

自動演奏のテンポ。例えば、テンポをアップさせた
り、ダウンさせたりすること。
Automatic performance tempo. For example, increasing or decreasing the tempo.

フレーズの挿入。例えば、あらかじめセットしておい
たフレーズを出すことなど。
Insert phrase. For example, issuing a phrase that has been set in advance.

環境パラメータ 照明効果の制御。例えば、舞台・客席の照明の色・強
さ・方向・数などを制御することなど。
Environmental parameters Control of lighting effects. For example, controlling the color / intensity / direction / number of stage / seat lighting.

スクリーンに投影する映像。例えば、プロジェクタ、
レーザ、CRTなどによって写し出される映像の種類、
色、大きさ、および歪みなどを制御すること。
Video projected on the screen. For example, projector,
Type of video projected by laser, CRT, etc.,
Control color, size, distortion, etc.

例えば、上記のステップ205,206の処理は具体的には
以下のようなものである。ここでは音色パラメータを出
力する例を説明する。
For example, the processing of steps 205 and 206 is specifically as follows. Here, an example of outputting a tone color parameter will be described.

まず、ステップS205の要因分析の結果を変数DP1〜DP2
に格納する。
First, the results of the factor analysis in step S205 are stored in variables DP1 to DP2.
To be stored.

DP1←興奮度 DP2←集中度 DP3←盛上り度 DP4←一体感 次に、TCN(DP1,DP2,DP3,DP4)をTCNテーブル(第4
図)より読出し、トーンカラー番号レジスタTCNRに記憶
する。TCNテーブルは上記〜の各パラメータに対応
するトーンカラー番号を格納したトーンカラー番号テー
ブルである。さらに、トーンカラー番号レジスタTCNRを
用いてTDAテーブル(第5図)を参照する。TDAテーブル
は、各トーンカラー番号に応じた音色のトーンデータが
記憶されている領域のアドレスを格納したトーンデータ
アドレステーブルである。TDAテーブルを参照すること
により音色を制御するトーンデータを読み出すためのア
ドレスを得て、そのアドレスをトーンデータアドレスレ
ジスタTDAに記憶する。以上のようにして、中間のパラ
メータDP1〜DP4の組み合わせに応じた音色のトーンデー
タが楽音合成に使用されるように設定される。なお、TC
NテーブルやTDAテーブルはROM上に設けてもよいし、演
奏に入る前にRAM上に準備しておいてもよい。
DP1 ← excitement degree DP2 ← concentration degree DP3 ← excitement degree DP4 ← unity Next, the TCN (DP1, DP2, DP3, DP4) is stored in the TCN table (No. 4).
) And stored in the tone color number register TCNR. The TCN table is a tone color number table that stores tone color numbers corresponding to the above parameters. Further, the TDA table (FIG. 5) is referenced using the tone color number register TCNR. The TDA table is a tone data address table that stores addresses of areas where tone data of tone colors corresponding to tone color numbers are stored. By referring to the TDA table, an address for reading out tone data for controlling the tone is obtained, and the address is stored in the tone data address register TDA. As described above, the tone data corresponding to the combination of the intermediate parameters DP1 to DP4 is set so as to be used for the tone synthesis. In addition, TC
The N table and the TDA table may be provided on the ROM, or may be prepared on the RAM before the performance.

ステップ207 このように出力される音色パラメータ、演奏パラメー
タ、および環境パラメータに応じて、音源・シーケンサ
107は、演奏者122が演奏した結果出力される演奏データ
を加工する。ミキサ108は、音源・シーケンサ107からの
楽音データを、マイクロコンピュータ106から出力され
るパラメータデータに応じてミキシングする。ミキシン
グ結果はアンプ109に入力し、これによりスピーカ110か
ら楽音が出力される。マイクロコンピュータ106は、そ
の他照明のコントロールなどを行なう。
Step 207 In accordance with the tone parameters, performance parameters, and environmental parameters output in this manner, the tone generator / sequencer
107 processes the performance data output as a result of the performance by the player 122. The mixer mixes the tone data from the tone generator / sequencer 107 in accordance with the parameter data output from the microcomputer. The result of the mixing is input to the amplifier 109, which outputs a musical tone from the speaker 110. The microcomputer 106 performs other controls such as lighting.

なお、上記実施例ではマイク入力および映像入力の両
方を分析しているが、一方でもよい。また、分析の際、
両者の相関をとってもよいし、独立に処理してもよい。
In the above embodiment, both the microphone input and the video input are analyzed. Also, during the analysis,
The correlation between the two may be taken, or they may be processed independently.

また、上記実施例では分析をしてステージの状況を把
握するパラメータを得るようにしているが、必ずしも要
因分析しなくてもよい。例えば、分析した周波数や時変
動の生の分析パラメータで、直接に音色パラメータや演
奏パラメータなどを制御してもよい。
In the above embodiment, the analysis is performed to obtain the parameters for grasping the state of the stage. However, the factor analysis need not always be performed. For example, the timbre parameter or the performance parameter may be directly controlled by the analyzed frequency or the raw analysis parameter of the time variation.

演奏している音楽それ自身の音が不要の場合は、入力
信号にフィルタをかけたり、分析後のデータから該当す
る成分を除去したり、音楽信号に所定の遅延をかけて入
力信号の音楽成分を打ち消すなどの処理をすればよい。
マイクの指向性を利用してもよい。それぞれを併用して
もよい。
If the sound of the music being played is unnecessary, the input signal may be filtered, the corresponding component may be removed from the analyzed data, or the music signal of the input signal may be delayed with a predetermined delay. Then, processing such as canceling out may be performed.
The directivity of the microphone may be used. You may use each together.

また、聴衆の音や映像を入力しているが、演奏者をも
含めてもよい。
In addition, although the sound and video of the audience are input, a performer may be included.

[発明の効果] 以上説明したように、この発明によれば、周囲の音、
光あるいは画像などを検出しその状況に応じて音色パラ
メータなど各種のパラメータを自動的に変更制御するよ
うにしているので、聴衆の反応を自動的に分析し、その
結果により音色パラメータ、楽器の演奏パラメータ、お
よび環境パラメータなどを自動的に制御して、演奏をさ
らに効果的なものとすることができる。
[Effects of the Invention] As described above, according to the present invention, ambient sounds,
It detects light or images and automatically changes and controls various parameters, such as timbre parameters, according to the situation. By automatically controlling parameters, environmental parameters, and the like, performance can be made more effective.

【図面の簡単な説明】[Brief description of the drawings]

第1図は、この発明の一実施例に係る電子楽器の概略構
成図、 第2図は、この実施例の電子楽器の処理流れ図、 第3図は、音響信号の分析例を示すブロック図、 第4図は、トーンカラー番号テーブルの内容を示すメモ
リマップ図、 第5図は、トーンデータアドレステーブルの内容を示す
メモリマップ図である。 101……マイク、102……テレビカメラ、 105,106……マイクロコンピュータ、 107……音源・シーケンサ、108……ミキサ、 109……アンプ、110……スピーカ、 121……聴衆、122……演奏者。
FIG. 1 is a schematic configuration diagram of an electronic musical instrument according to one embodiment of the present invention, FIG. 2 is a processing flowchart of the electronic musical instrument of this embodiment, FIG. 3 is a block diagram showing an example of analysis of an acoustic signal, FIG. 4 is a memory map showing the contents of a tone color number table, and FIG. 5 is a memory map showing the contents of a tone data address table. 101 ... microphone, 102 ... television camera, 105, 106 ... microcomputer, 107 ... sound source / sequencer, 108 ... mixer, 109 ... amplifier, 110 ... speaker, 121 ... audience, 122 ... player.

Claims (1)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】周囲の音、光、動き、振動などを検出する
検出手段と、 この検出手段による検出結果に基づいて、周囲の状況を
分析する分析手段と、 この分析手段による分析結果および現在状況データの両
者に基づいて要因分析を行ない、この要因分析結果に基
づいて、音色パラメータ、演奏パラメータまたは環境パ
ラメータを生成するパラメータ生成手段と、 このパラメータ生成手段により生成された音色パラメー
タ、演奏パラメータまたは環境パラメータに基づいて、
楽音の音色、演奏状況または環境状況を制御する制御手
段と を具備することを特徴とする演奏環境に対応する電子楽
器。
1. A detecting means for detecting ambient sound, light, motion, vibration, etc., an analyzing means for analyzing a surrounding situation based on a detection result by the detecting means, an analyzing result by the analyzing means and a current A parameter generating means for performing a factor analysis based on both of the situation data and generating a timbre parameter, a performance parameter or an environmental parameter based on a result of the factor analysis; and a timbre parameter, a performance parameter or a performance parameter generated by the parameter generating means. Based on environmental parameters,
An electronic musical instrument corresponding to a performance environment, comprising: control means for controlling a tone of a musical tone, a performance state, or an environmental state.
JP02301202A 1990-11-08 1990-11-08 Electronic musical instruments compatible with performance environments Expired - Fee Related JP3077192B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP02301202A JP3077192B2 (en) 1990-11-08 1990-11-08 Electronic musical instruments compatible with performance environments

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP02301202A JP3077192B2 (en) 1990-11-08 1990-11-08 Electronic musical instruments compatible with performance environments

Publications (2)

Publication Number Publication Date
JPH04174696A JPH04174696A (en) 1992-06-22
JP3077192B2 true JP3077192B2 (en) 2000-08-14

Family

ID=17894009

Family Applications (1)

Application Number Title Priority Date Filing Date
JP02301202A Expired - Fee Related JP3077192B2 (en) 1990-11-08 1990-11-08 Electronic musical instruments compatible with performance environments

Country Status (1)

Country Link
JP (1) JP3077192B2 (en)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100361319B1 (en) * 2000-04-12 2002-11-18 김용교 An apparatus for providing ambient music
JP3566646B2 (en) * 2000-10-31 2004-09-15 株式会社国際電気通信基礎技術研究所 Music communication device
WO2005122134A1 (en) * 2004-06-09 2005-12-22 Toyota Motor Kyushu Inc. Musical sound producing apparatus, musical sound producing method, musical sound producing program, and recording medium
JP4817388B2 (en) 2004-06-30 2011-11-16 パナソニック株式会社 Music information calculation apparatus and music reproduction apparatus
WO2013103103A1 (en) * 2012-01-04 2013-07-11 株式会社ニコン Electronic device, and method for outputting music code
JP6182894B2 (en) * 2013-02-18 2017-08-23 ヤマハ株式会社 Sound processing apparatus and sound processing method
JP6184308B2 (en) * 2013-11-29 2017-08-23 株式会社第一興商 Karaoke equipment
JP6833313B2 (en) * 2014-09-19 2021-02-24 石井 純 Electronic musical instrument that makes full use of light receiving elements
JP7117236B2 (en) * 2018-12-26 2022-08-12 株式会社第一興商 karaoke system
CN114389732A (en) * 2022-03-08 2022-04-22 深圳德威音响有限公司 Digital sound console tuning system and method

Also Published As

Publication number Publication date
JPH04174696A (en) 1992-06-22

Similar Documents

Publication Publication Date Title
Hodgson Understanding records: A field guide to recording practice
Corey Audio production and critical listening: Technical ear training
Holman Sound for film and television
US8461443B2 (en) Control of light in response to an audio signal
US7181021B2 (en) Apparatus for acoustically improving an environment
US5159140A (en) Acoustic control apparatus for controlling musical tones based upon visual images
JP5772111B2 (en) Display control device
Truax Composition and diffusion: space in sound in space
JP5767004B2 (en) Audiovisual system, remote control terminal, venue equipment control apparatus, audiovisual system control method, and audiovisual system control program
JP3077192B2 (en) Electronic musical instruments compatible with performance environments
KR100664677B1 (en) Method for generating music contents using handheld terminal
CN112927713B (en) Audio feature point detection method, device and computer storage medium
Chowning 20 Perceptual Fusion and Auditory Perspective
Abel et al. Live Auralization of Cappella Romana at the Bing Concert Hall, Stanford University
JP6171393B2 (en) Acoustic synthesis apparatus and acoustic synthesis method
CN115910009A (en) Electronic device, method, and computer program
US20040054524A1 (en) Speech transformation system and apparatus
Moralis Live popular Electronic music ‘performable recordings’
Choi Auditory virtual environment with dynamic room characteristics for music performances
Einbond et al. Embodying Spatial Sound Synthesis with AI in Two Compositions for Instruments and 3-D Electronics
Woszczyk et al. Creating mixtures: The application of auditory scene analysis (ASA) to audio recording
JP2023108730A (en) karaoke device
WO2021038833A1 (en) Acoustic space creation apparatus
Jenkins Harmonicity Dissolving into the Outside Field: The Secondary Rainbow Synthesizer in Catherine Lamb's Prisma Interius IX
Giannini Immersive spatialized live music composition with performers: a case study, Le vent qui hurle

Legal Events

Date Code Title Description
S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313532

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080616

Year of fee payment: 8

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090616

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees