JP6915422B2 - Sound processing device and display method - Google Patents

Sound processing device and display method Download PDF

Info

Publication number
JP6915422B2
JP6915422B2 JP2017140323A JP2017140323A JP6915422B2 JP 6915422 B2 JP6915422 B2 JP 6915422B2 JP 2017140323 A JP2017140323 A JP 2017140323A JP 2017140323 A JP2017140323 A JP 2017140323A JP 6915422 B2 JP6915422 B2 JP 6915422B2
Authority
JP
Japan
Prior art keywords
sound signal
display
localization
sound
frequency
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017140323A
Other languages
Japanese (ja)
Other versions
JP2019022128A (en
Inventor
斉藤康祐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2017140323A priority Critical patent/JP6915422B2/en
Publication of JP2019022128A publication Critical patent/JP2019022128A/en
Application granted granted Critical
Publication of JP6915422B2 publication Critical patent/JP6915422B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Circuit For Audible Band Transducer (AREA)

Description

この発明は、例えば複数のチャンネル(以下、「ch」と略記)を有するオーディオミキサなどに用いて好適な音処理装置及び表示方法に関する。 The present invention relates to a sound processing device and a display method suitable for use in, for example, an audio mixer having a plurality of channels (hereinafter, abbreviated as "ch").

オーディオミキサ(以下、単に「ミキサ」とも言う)は、基本的には、複数の入力chそれぞれにて、音源から入力された音信号に信号処理を施し、処理後の音信号をバスにて混合し、混合された混合音信号を出力chにて処理して、処理後の混合音信号を出力先に出力するように構成される。ユーザ(ミキサのオペレータ)は、各種パラメータの値を設定することによりミキサの動作を制御する。この明細書では、ミキサの動作を制御する各種パラメータの値を設定する操作を「ミキシング操作」という。 An audio mixer (hereinafter, also simply referred to as "mixer") basically performs signal processing on a sound signal input from a sound source on each of a plurality of input channels, and mixes the processed sound signal on a bus. Then, the mixed sound signal is processed by the output channel, and the processed mixed sound signal is output to the output destination. The user (mixer operator) controls the operation of the mixer by setting the values of various parameters. In this specification, the operation of setting the values of various parameters that control the operation of the mixer is referred to as a "mixing operation".

ユーザは、ミキシング操作により複数の音源(例えば複数の楽器)の音信号の音量レベル、周波数特性、定位などを音源毎(入力ch毎)に調節し、混合音信号に含まれる個々の音源の音信号のバランスを整える。このミキシング操作において重要な点の1つに、個々の音源(例えば個々の楽器)の音が「粒立ち良く」聞こえるようにすることがある。この明細書において、「音の粒立ち」とは、聴取者が感じる、混合音信号に含まれる個々の音の分離感である。また、「音の分離感」とは、聴取者が音信号を聴いたときに、その音信号に含まれる複数の音源を、どの程度、個別に(分離して)聴取できるかを感覚的に示す表現である。例えば、音の分離感が良いとは、音の「粒立ち」が良いこと、すなわち、混合音信号に含まれる個々の音源の音が、聴取者にとって個別に分離して、明りょうに聞き取ることができる、ということを示す。 The user adjusts the volume level, frequency characteristics, localization, etc. of the sound signals of multiple sound sources (for example, multiple instruments) for each sound source (for each input channel) by mixing operations, and the sound of each sound source included in the mixed sound signal. Balance the signal. One of the important points in this mixing operation is to make the sounds of individual sound sources (for example, individual musical instruments) audible "grainily". In this specification, "sound graininess" is a sense of separation of individual sounds included in a mixed sound signal, which is felt by the listener. In addition, "sound separation" means that when a listener listens to a sound signal, he / she can sensuously hear how many sound sources included in the sound signal can be individually (separated). It is an expression to show. For example, a good sense of sound separation means that the "graininess" of the sound is good, that is, the sounds of the individual sound sources included in the mixed sound signal are individually separated and clearly heard by the listener. Indicates that it can be done.

分離感を作るためのミキシング操作には、例えば、ハイパスフィルタやイコライザにより周波数特性を調節して音信号の周波数軸上の干渉を防ぐこと、ゲートやコンプレッサにより音量を時間的に制御して無駄な余韻や残響が他の音を邪魔することを防ぐこと、或いは、パンにより定位を調節して音信号を空間的に分離することが含まれる。かかる音の分離感を作るためのミキシング操作は、通常は、ユーザの聴覚を頼りに行われる。聴覚を頼りに音の分離感を作り出すことは、ユーザの耳の良さや高度な技能を必要とする。 For mixing operations to create a sense of separation, for example, the frequency characteristics are adjusted by a high-pass filter or equalizer to prevent interference on the frequency axis of the sound signal, and the volume is controlled in time by a gate or compressor, which is useless. This includes preventing the afterglow and reverberation from interfering with other sounds, or adjusting the localization with a pan to spatially separate the sound signal. The mixing operation for creating such a sense of separation of sounds is usually performed by relying on the user's hearing. Creating a sense of sound separation by relying on hearing requires good ears and advanced skills of the user.

一方で、従来、複数の音源の音を混合した混合音信号について、その混合音信号を複数の周波数帯域に分けて、周波数帯域毎の定位を視覚的に表示する技術がある。 On the other hand, conventionally, there is a technique of dividing a mixed sound signal in which sounds of a plurality of sound sources are mixed into a plurality of frequency bands and visually displaying the localization for each frequency band.

例えば、特許文献1には、例えば2chステレオ構成の音信号(「ステレオ信号」という)を複数の周波数帯域に分けて、周波数帯域毎の定位とレベル情報を算出し、定位と周波数との2軸からなる2次元平面に、算出された周波数帯域毎の定位を、レベル情報に対応する大きさあるいは色の図形により表示する特性表示装置が記載されている。 For example, in Patent Document 1, for example, a sound signal having a 2ch stereo configuration (referred to as a “stereo signal”) is divided into a plurality of frequency bands, localization and level information for each frequency band are calculated, and two axes of localization and frequency are obtained. A characteristic display device for displaying the calculated localization for each frequency band in a size or color graphic corresponding to the level information is described on the two-dimensional plane.

また、特許文献2は、ステレオ音信号を複数の周波数帯域に分けて、各周波数帯域における定位角度毎の音量値を調査し、調査結果に基づいて、定位位置と周波数との2軸からなる2次元平面に、各周波数帯域における定位角度毎の音量値を表示し、更に、その2次元平面上で範囲を指定し、指定された範囲内に属する音信号の音量を調節する技術を開示している。 Further, Patent Document 2 divides a stereo sound signal into a plurality of frequency bands, investigates the volume value for each localization angle in each frequency band, and based on the investigation result, is composed of two axes of a localization position and a frequency. Disclosed a technique for displaying a volume value for each localization angle in each frequency band on a dimensional plane, specifying a range on the two-dimensional plane, and adjusting the volume of a sound signal belonging to the specified range. There is.

また、引用文献3には、ステレオ音信号を複数の周波数帯域に分け、各周波数帯域の定位情報に基づいて、定位‐周波数平面上における各周波数帯域の表示位置を算出し、且つ、各表示位置に対応する周波数帯域のレベルを所定の分布を用いて展開して得られる第1のレベル分布を全ての周波数帯域について合算した第2のレベル分布を算出し、その算出した第2のレベル分布を、定位軸と周波数軸とレベル軸とから構成される三次元座標をレベル軸方向から見たものとして表示することが記載されている。 Further, in Cited Document 3, the stereo sound signal is divided into a plurality of frequency bands, the display position of each frequency band on the localization-frequency plane is calculated based on the localization information of each frequency band, and each display position is obtained. The second level distribution obtained by expanding the levels of the frequency bands corresponding to the above using a predetermined distribution is calculated by adding up the first level distributions obtained for all frequency bands, and the calculated second level distribution is calculated. , It is described that the three-dimensional coordinates composed of the localization axis, the frequency axis, and the level axis are displayed as viewed from the level axis direction.

しかし、上記の特許文献1〜3は、何れも、ステレオ信号にミキシングされた混合音信号(ステレオミキシングされた音楽作品など)を処理対象とし、混合音信号を複数の周波数帯域に分けて、帯域毎の定位分布を表示するに過ぎない。従って、上記の特許文献1〜3は、何れも、混合音信号に含まれる個々の音源を表示により区別することはできなかった。例えば、特許文献3は、混合音信号に含まれる個々の音源を表示により区別し得る旨を記載するが、それは、ユーザが、前記分割された周波数帯域毎の定位分布の表示を部分的に1つのグループとみなし、そのグループを例えばボーカル、ドラムス、或いは、ベースといった楽器種類に対応付けて認識し得ることに過ぎない。従って、例えば音源毎に独立した表示物で表現したり、或いは、音源毎に異なる表示色で表現したりすることはできない。また、上記の特許文献1〜3の従来技術は、何れも、混合前の入力ch毎の音信号の音作り(ミキシング操作)の場面での使用を考慮していない。 However, in all of the above-mentioned Patent Documents 1 to 3, the mixed sound signal mixed with the stereo signal (stereo-mixed music work, etc.) is processed, and the mixed sound signal is divided into a plurality of frequency bands to obtain a band. It only displays the localization distribution for each. Therefore, in all of the above-mentioned Patent Documents 1 to 3, it was not possible to distinguish individual sound sources included in the mixed sound signal by display. For example, Patent Document 3 describes that individual sound sources included in a mixed sound signal can be distinguished by display, in which the user partially displays the display of the localization distribution for each of the divided frequency bands. It can only be regarded as one group, and the group can be recognized in association with an instrument type such as vocal, drums, or bass. Therefore, for example, it is not possible to express each sound source with an independent display object, or to express each sound source with a different display color. Further, none of the above-mentioned prior arts of Patent Documents 1 to 3 considers the use in the scene of sound creation (mixing operation) of the sound signal for each input channel before mixing.

特許第3912386号公報Japanese Patent No. 3912386 特許第4894386号公報Japanese Patent No. 4894386 特許第5639362号公報Japanese Patent No. 5639362

この発明は、上述の点に鑑みてなされたもので、例えばオーディオミキサ等の音処理装置において、バスで混合する前の、複数のチャンネルの音信号の分離感を視覚化できるようにした音処理装置を提供することを目的とする。 The present invention has been made in view of the above points. For example, in a sound processing device such as an audio mixer, sound processing that enables visualization of the feeling of separation of sound signals of a plurality of channels before mixing by a bus. The purpose is to provide the device.

この発明は、それぞれ、入力された音信号を信号処理する複数のチャンネルと、前記複数のチャンネルで信号処理された音信号を混合して、混合後の混合音信号を出力するバスと、前記チャンネル毎に、前記バスで混合される前の音信号の周波数帯域を示す周波数情報を取得する周波数情報取得手段と、前記チャンネル毎に、前記バスで混合される前の音信号の定位を示す定位情報を取得する定位情報取得手段と、前記取得した周波数情報及び定位情報に基づいて前記音信号の周波数及び定位の分布を示す表示物をディスプレイに表示する表示制御手段であって、前記複数のチャンネルのそれぞれに対応する複数の前記表示物を1つの表示画面内に表示する前記表示制御手段と、前記バスで混合された音信号を信号処理し、処理結果を出力するバスチャンネルを備え、前記周波数情報取得手段は、更に、前記バスチャンネルの音信号の周波数情報を取得し、前記定位情報取得手段は、更に、前記バスチャンネルの音信号の定位情報を取得し、前記表示制御手段は、前記バスチャンネルの音信号の周波数情報及び定位情報に基づく該バスチャンネルの音信号の周波数及び定位分布を示す表示物を、前記チャンネル毎の表示物に重ねて表示することを特徴とする音処理装置である。 The present invention is a bus that mixes a plurality of channels that process input sound signals and sound signals that have been signal-processed by the plurality of channels and outputs a mixed sound signal after mixing, and the channels. Frequency information acquisition means for acquiring frequency information indicating the frequency band of the sound signal before being mixed by the bus for each, and localization information indicating the localization of the sound signal before being mixed by the bus for each of the channels. The localization information acquisition means for acquiring the sound signal and the display control means for displaying a display indicating the frequency and localization distribution of the sound signal on the display based on the acquired frequency information and the localization information. It said display control means for displaying a plurality of the display object corresponding to the respective one of the display screen, a mixed sound signal in the bus signal processing, a bus channel to output the processing result, the frequency information The acquisition means further acquires the frequency information of the sound signal of the bus channel, the localization information acquisition means further acquires the localization information of the sound signal of the bus channel, and the display control means is the bus channel. is the sound processor you characterized in that the display object indicating the frequency and orientation distribution of the sound signals of the bus channels based on the frequency information and localization information of a sound signal, displayed over the display of each of the channels ..

この発明によれば、チャンネル毎に、バスで混合される前の音信号の周波数情報及び定位情報を取得し、その音信号の周波数及び定位の分布を示す表示物を表示画面に表示する。1つの表示画面に、複数のチャンネルそれぞれに対応する複数の表示物(チャンネル毎の音信号の周波数及び定位の分布)を表示することで、個々のチャンネルの音信号の周波数及び定位の分布を視覚化することができる。それらチャンネル毎の表示物の位置や相互関係は、前記バスの混合信号における個々の音信号の分離感を視覚的に表す。さらに、バスチャンネルの音信号の周波数情報及び定位情報に基づく該バスチャンネルの音信号の周波数及び定位分布を示す表示物が、前記チャンネル毎の表示物に重ねて表示される。 According to the present invention, the frequency information and localization information of the sound signal before being mixed by the bus is acquired for each channel, and a display object showing the frequency and localization distribution of the sound signal is displayed on the display screen. By displaying a plurality of display objects (distribution of sound signal frequency and localization for each channel) corresponding to each of a plurality of channels on one display screen, the distribution of frequency and localization of the sound signal of each channel can be visually observed. Can be changed. The positions and interrelationships of the displayed objects for each of these channels visually represent the sense of separation of the individual sound signals in the mixed signal of the bus. Further, a display object showing the frequency and localization distribution of the sound signal of the bus channel based on the frequency information and localization information of the sound signal of the bus channel is displayed superimposed on the display object for each channel.

また、この発明は、装置の発明として構成及び実施し得るのみならず、前記装置を構成する各構成要素を備える方法の発明として実施及び構成されてよい。 Further, the present invention may not only be configured and implemented as an invention of the device, but may also be implemented and configured as an invention of a method including each component constituting the device.

この発明によれば、例えばオーディオミキサ等の音処理装置において、バスで混合する前の、複数のチャンネルの音信号の分離感を視覚化でき、さらに、バスチャンネルの音信号の周波数情報及び定位情報に基づく該バスチャンネルの音信号の周波数及び定位分布を示す表示物を重ねて表示することができる、という優れた効果を奏する。 According to the present invention, in a sound processing device such as an audio mixer, it is possible to visualize the feeling of separation of sound signals of a plurality of channels before mixing by bass, and further, frequency information and localization information of sound signals of bass channels. It is possible to superimpose a display object showing the frequency and localization distribution of the sound signal of the bus channel based on the above, which is an excellent effect.

この発明に係る音処理装置の構成例を示す概念的ブロック図。The conceptual block diagram which shows the structural example of the sound processing apparatus which concerns on this invention. この発明の音処理装置の実施形態であるデジタルミキサのハードウェア構成を示すブロック図。The block diagram which shows the hardware structure of the digital mixer which is embodiment of the sound processing apparatus of this invention. 図2のミキサの信号処理構成を説明するブロック図。The block diagram explaining the signal processing configuration of the mixer of FIG. 図3の入力chの構成を説明するブロック図。The block diagram explaining the structure of the input channel of FIG. 図3の出力chの構成を説明するブロック図。The block diagram explaining the structure of the output channel of FIG. 図3に示したキューchの構成を説明するブロック図。The block diagram explaining the structure of the cue ch shown in FIG. 周波数‐定位分布表示画面の一例を示す図。The figure which shows an example of a frequency-localization distribution display screen. 周波数‐定位分布表示画面の表示処理全体を説明するフローチャート。A flowchart illustrating the entire display process of the frequency-localization distribution display screen. 前記図8における周波数情報取得処理を示すフローチャート。The flowchart which shows the frequency information acquisition process in FIG. 前記図8における定位情報取得処理を示すフローチャート。The flowchart which shows the localization information acquisition process in FIG. 前記図8における表示処理を示すフローチャート。The flowchart which shows the display process in FIG. 周波数‐定位分布の表示物の別の例を示す図。The figure which shows another example of the display of a frequency-localization distribution. 前記図12の表示を行なうための表示処理を示すフローチャート。The flowchart which shows the display process for performing the display of FIG. 周波数‐定位分布の表示物の更に別の例を示す図。The figure which shows still another example of the display of a frequency-localization distribution. 前記図14の表示を行なうための表示処理を示すフローチャート。The flowchart which shows the display process for performing the display of FIG. 前記定位情報取得処理の変更例を示すフローチャート。The flowchart which shows the modification example of the localization information acquisition process. 前記周波数情報取得処理の変更例を示すフローチャート。The flowchart which shows the modification example of the frequency information acquisition process. 前記周波数情報取得処理の別の変更例を示すフローチャート。The flowchart which shows the other modification example of the frequency information acquisition process. 周波数‐定位分布の表示物の更に別の例であって、更に混合音信号の周波数‐定位分布を示す表示物を表示する例を示す図。The figure which shows the example which displays the display | display which shows the frequency-localization distribution of a frequency-localization distribution, which is further another example, and further shows the frequency-localization distribution of a mixed sound signal.

以下、添付図面を参照して、この発明の一実施形態について詳細に説明する。 Hereinafter, an embodiment of the present invention will be described in detail with reference to the accompanying drawings.

図1は、この発明に係る音処理装置の構成例を説明する概念的ブロック図である。図1の音処理装置1は、それぞれ、入力する音信号を信号処理する複数のチャンネル(以下、「ch」と略記)120と、前記複数のチャンネル2による処理後の音信号を混合するバス130と、ch120毎に、バス130で混合される前の音信号に含まれる周波数帯域を示す周波数情報を取得する周波数情報取得手段2と、ch120毎に、バス130で混合される前の音信号の定位を示す定位情報を取得する定位情報取得手段3と、取得した周波数情報及び定位情報に基づいて音信号の周波数及び定位の分布を示す表示物をディスプレイ(図2の符号18)に表示する表示制御手段4であって、複数のchのそれぞれに対応する複数の表示物を1つの表示画面内に表示する表示制御手段4を備える。第1取得部2、第2取得部3及び表示制御手段4の動作は、プロセッサ(後述のCPU11)がメモリ(12)に記憶されたプログラムを実行することにより実現される。 FIG. 1 is a conceptual block diagram illustrating a configuration example of a sound processing device according to the present invention. The sound processing device 1 of FIG. 1 is a bus 130 that mixes a plurality of channels (hereinafter, abbreviated as “ch”) 120 for signal processing the input sound signal and a sound signal processed by the plurality of channels 2. And the frequency information acquisition means 2 that acquires the frequency information indicating the frequency band included in the sound signal before being mixed by the bus 130 for each ch 120, and the sound signal before being mixed by the bus 130 for each ch 120. A display (reference numeral 18 in FIG. 2) for displaying a localization information acquisition means 3 for acquiring localization information indicating localization and a display indicating the frequency and localization distribution of a sound signal based on the acquired frequency information and localization information. The control means 4 includes a display control means 4 for displaying a plurality of display objects corresponding to each of the plurality of channels in one display screen. The operations of the first acquisition unit 2, the second acquisition unit 3, and the display control means 4 are realized by the processor (CPU 11 described later) executing the program stored in the memory (12).

図1の音処理装置1は、例えば、オーディオミキサ等の音信号を扱う音響機器に適用され得る。以下の一実施形態は、音処理装置1をオーディオミキサ10に適用した例について説明する。オーディオミキサ10は、専らデジタル信号処理により音信号を処理するデジタルミキサ(以下単に「ミキサ」とも言う)とする。 The sound processing device 1 of FIG. 1 can be applied to an audio device that handles sound signals, such as an audio mixer. The following embodiment describes an example in which the sound processing device 1 is applied to the audio mixer 10. The audio mixer 10 is a digital mixer (hereinafter, also simply referred to as “mixer”) that processes a sound signal exclusively by digital signal processing.

図2は、ミキサ10は、CPU(Central Processing Unit)11、メモリ12、表示器インタフェース(以下、インタフェースを「I/F」と記す)13、操作子I/F14、信号処理装置15、及び、波形I/F16を備え、これらが通信バス17によって接続されている。また、表示I/F13にはディスプレイ18が、また、操作子I/F14には操作子19がそれぞれ接続されている。 In FIG. 2, the mixer 10 includes a CPU (Central Processing Unit) 11, a memory 12, a display interface (hereinafter, the interface is referred to as “I / F”) 13, an operator I / F 14, a signal processing device 15, and The waveform I / F 16 is provided, and these are connected by a communication bus 17. A display 18 is connected to the display I / F13, and an operator 19 is connected to the operator I / F14.

CPU11は、ミキサ10の動作を統括制御する制御手段であり、メモリ12に記憶された各種プログラムを実行することにより、表示I/F13を介したディスプレイ18の表示の制御、操作子I/F14を介した検出された操作子19の操作に応じた処理、信号処理装置15における信号処理の制御等を行う。CPU11が行う、ディスプレイ18の表示の制御は、後述図7の周波数‐定位分布を表示する処理を含む。 The CPU 11 is a control means that comprehensively controls the operation of the mixer 10, and controls the display of the display 18 via the display I / F13 and controls the controls I / F14 by executing various programs stored in the memory 12. Processing according to the operation of the operator 19 detected via the signal processing device 15, control of signal processing in the signal processing device 15, and the like are performed. The display control of the display 18 performed by the CPU 11 includes a process of displaying the frequency-localization distribution shown in FIG. 7, which will be described later.

メモリ12は、フラッシュメモリ及びRAM(Random Access Memory)を含み、CPU11が実行する制御プログラム等を不揮発的に記憶したり、信号処理装置15における信号処理に反映させるパラメータの値を記憶したり、CPU11のワークメモリとして使用したりする。 The memory 12 includes a flash memory and a RAM (Random Access Memory), and non-volatilely stores a control program or the like executed by the CPU 11, stores parameter values to be reflected in signal processing in the signal processing device 15, and stores the value of a parameter reflected in the signal processing in the signal processing device 15. It can be used as a work memory for.

表示I/F13は、ディスプレイ18を通信バス17に接続して、CPU11からの指示に従ってその表示内容を制御するためのインタフェースである。ディスプレイ18は、液晶ディスプレイ(LCD)、有機EL、発光ダイオード等であり、CPU11からの指示に従って、各種画面やパラメータ値やレベル等を表示する。図1の表示部4は、表示器I/F13及びディスプレイ18を含む。 The display I / F 13 is an interface for connecting the display 18 to the communication bus 17 and controlling the display contents according to instructions from the CPU 11. The display 18 is a liquid crystal display (LCD), an organic EL, a light emitting diode, or the like, and displays various screens, parameter values, levels, and the like according to instructions from the CPU 11. The display unit 4 of FIG. 1 includes a display I / F 13 and a display 18.

操作子I/F14は、操作子19を通信バス17に接続してCPU11からの指示に従ってその操作内容を検出するためのインタフェースである。操作子19は、ミキサの操作パネル上に配置された複数の操作子および関連するインタフェース回路等である。操作子19には、チャンネルストリップ毎のフェーダ操作子、ロータリーエンコーダ及びキーを含む。 The operator I / F 14 is an interface for connecting the operator 19 to the communication bus 17 and detecting the operation content according to an instruction from the CPU 11. The controls 19 are a plurality of controls arranged on the operation panel of the mixer, related interface circuits, and the like. The operator 19 includes a fader operator for each channel strip, a rotary encoder, and a key.

信号処理装置15は、例えばDSP(Digital Signal Processor)や、CPU11およびメモリ12に記憶されたソフトウェアにより仮想的に実現された信号処理装置で構成される。信号処理装置15は、信号処理用のプログラムを実行することにより、波形I/F16から供給される音信号に対し、信号処理のパラメータの値に従った信号処理を施す。この信号処理は、メモリ12に記憶されたパラメータの値に基づいて制御される。 The signal processing device 15 is composed of, for example, a DSP (Digital Signal Processor), a signal processing device virtually realized by software stored in the CPU 11 and the memory 12. By executing a signal processing program, the signal processing device 15 performs signal processing according to the value of the signal processing parameter on the sound signal supplied from the waveform I / F 16. This signal processing is controlled based on the value of the parameter stored in the memory 12.

波形I/F16は、ADC(Analog to Digital Converter、アナログ-デジタル変換器)回路及びDAC(Digital to Analog Converter、デジタル-アナログ変換器)回路を含み、複数の入力ジャックを介して外部の入力機器(不図示)から入力するアナログ音信号をそれぞれデジタル音信号に変換して信号処理装置15に供給する機能、及び、信号処理装置15から複数チャンネルのデジタル音信号を受け取り、それぞれアナログ音信号に変換して、該音信号と対応付けられた出力ジャックから外部の出力機器(不図示)へ出力する機能を備える。 The waveform I / F16 includes an ADC (Analog to Digital Converter) circuit and a DAC (Digital to Analog Converter) circuit, and is an external input device (external input device) via a plurality of input jacks. A function of converting analog sound signals input from (not shown) into digital sound signals and supplying them to the signal processing device 15, and receiving a plurality of channels of digital sound signals from the signal processing device 15 and converting them into analog sound signals, respectively. Therefore, it has a function of outputting from an output jack associated with the sound signal to an external output device (not shown).

図3、図4、図5及び図6は、信号処理装置15で実行される信号処理の構成を示す。図3は信号処理の全体構成を示す。図3に示す通り、この信号処理は、入力パッチ110、1番目からN番目までのN(Nは整数)の入力ch120a、120b・・・120nと、M(Mは整数)のバス130a、130b・・・130mと、Mのバス130a、130b・・・130mのそれぞれに対応するMの出力ch140a、140b・・・140mと、1のキューバス150と、該キューバス150に対応するキューch160と、出力パッチ170からなる。図1のch120には、Nの入力ch120a、120b・・・120nの他、Mの出力ch140a、140b・・・140m及びキューch160も含まれる。また、図1のバス130には、Mのバス130a、130b・・・130mの他、及びキューバス150も含まれる。明細書において、例えば入力ch120a、120b・・・120nのように複数備わる要素については、符号にアルファベットを添えて個々の要素を区別しているが、個々の要素を区別する必要の無い場合は、例えば「入力ch120」という具合に、符号に添えたアルファベットを省略する。 3, FIG. 4, FIG. 5 and FIG. 6 show the configuration of signal processing executed by the signal processing device 15. FIG. 3 shows the overall configuration of signal processing. As shown in FIG. 3, this signal processing includes input ch120a, 120b ... 120n of N (N is an integer) from the first to the Nth input patch 110, and buses 130a, 130b of M (M is an integer). ... 130 m, M output ch 140a, 140b ... 140 m corresponding to each of M buses 130a, 130b ... 130 m, 1 cue bus 150, and cue ch 160 corresponding to the cue bus 150. , Consists of output patch 170. In addition to N inputs ch120a, 120b ... 120n, ch120 of FIG. 1 also includes M outputs ch140a, 140b ... 140m and cue ch160. Further, the bus 130 in FIG. 1 includes the M buses 130a, 130b ... 130m, and the cue bus 150. In the specification, for elements provided with a plurality of elements such as inputs ch120a, 120b ... 120n, the individual elements are distinguished by adding alphabets to the symbols, but when it is not necessary to distinguish the individual elements, for example, The alphabet attached to the code is omitted, such as "input ch120".

入力パッチ110は、1番目からN番目までの入力ch120のそれぞれに、波形入出力部16に設けた入力ジャック111のいずれかをパッチ(結線)し、パッチされた入力ジャック111から受け取った音信号を、該パッチした入力ch120に供給する。 The input patch 110 is a sound signal received from the patched input jack 111 by patching (connecting) any of the input jacks 111 provided in the waveform input / output unit 16 to each of the first to Nth input channels 120. Is supplied to the patched input ch120.

図4は、1つの入力ch120の構成例を示す。入力ch120において、そのパッチされた入力ジャックから受け取った音信号に対して、アッテネータ(Att)121、ハイパスフィルタ(HPF)122、イコライザ(EQ)123、ダイナミクス124、フェーダ125、オン/オフスイッチ(オン/オフ)126及びパン(Pan)127の各要素が、それぞれ対応するパラメータの値に従って、信号処理を順次施す。具体的には、ATT121は音信号の入力レベルを調節する。HPF122は設定値を超える周波数帯域を逓減する。EQ123は音信号の周波数特性を変化させる。ダイナミクス124は、設定値を超えた音信号を圧縮する処理(コンプレッサ)や設定値より音量の大きい音信号のみを通す処理(ゲート)などを含む。フェーダ125は音信号の音量を調節する。オン/オフスイッチ126は、入力ch120からバス130への音信号の出力をオンまたはオフする。パン127は、2chステレオの左右ch間の音量差により音信号の定位を決定する。定位は、周知の通り、例えば2chステレオ等の多ch再生環境における音像(聴取位置における聴覚上の音源)の位置を表す。入力ch120は、要素121〜127により信号処理された音信号を、1番目からM番目までのバス130に送出する。 FIG. 4 shows a configuration example of one input ch 120. On the input channel 120, the attenuator (Att) 121, the high-pass filter (HPF) 122, the equalizer (EQ) 123, the dynamics 124, the fader 125, and the on / off switch (on) are used for the sound signal received from the patched input jack. Each element of / off) 126 and Pan 127 sequentially performs signal processing according to the corresponding parameter values. Specifically, the ATT 121 adjusts the input level of the sound signal. The HPF 122 gradually reduces the frequency band exceeding the set value. EQ123 changes the frequency characteristics of the sound signal. The dynamics 124 includes a process of compressing a sound signal exceeding a set value (compressor), a process of passing only a sound signal having a volume higher than the set value (gate), and the like. The fader 125 adjusts the volume of the sound signal. The on / off switch 126 turns on or off the output of the sound signal from the input ch 120 to the bus 130. Pan 127 determines the localization of the sound signal by the volume difference between the left and right channels of the 2ch stereo. As is well known, localization represents the position of a sound image (auditory sound source at the listening position) in a multi-channel reproduction environment such as 2ch stereo. The input ch 120 sends the sound signal processed by the elements 121 to 127 to the first to Mth buses 130.

また、各入力ch120のキュースイッチ128は、キューオンの場合、3箇所の取り出し位置P1〜P3のいずれかにつながる接点を選択し、これにより、選択した取り出し位置P1、P2又はP3から取り出した音信号が試聴用の音信号としてキューバス150に送出される。キューオフの場合、キュースイッチ128は、取り出し位置P1〜P3のいずれかとも接続されない接点を選択し、これにより、その入力ch120の音信号はキューバス150に送出されない。ユーザは、入力ch120毎にキューオン/オフを設定し、所望の1又は複数の入力ch120の音信号を、試聴用音信号としてキューバス150に供給できる。 Further, in the case of cue-on, the cue switch 128 of each input ch 120 selects a contact connected to any of the three extraction positions P1 to P3, and thereby, a sound signal extracted from the selected extraction positions P1, P2 or P3. Is sent to the cue bus 150 as a sound signal for audition. In the case of cue-off, the cue switch 128 selects a contact that is not connected to any of the extraction positions P1 to P3, so that the sound signal of the input ch 120 is not transmitted to the cue bus 150. The user can set cue on / off for each input ch 120, and supply the sound signal of one or more desired input ch 120 to the cue bus 150 as a sound signal for audition.

1番目からM番目までの各バス130では、複数の入力ch120から供給された複数の音信号が混合される。混合後の混合音信号は、対応する出力ch140に供給される。1番目からM番目までの各出力ch140では、図5に示す通り、対応するバスから供給された混合音信号に対し、EQ143、ダイナミクス144、フェーダ145およびオン/オフスイッチ146の各要素が、対応するパラメータの値に従って、処理を順次施す。各出力ch140は、要素143〜146により信号処理された音信号を、出力パッチ170に供給する。 In each of the first to Mth buses 130, a plurality of sound signals supplied from the plurality of input channels 120 are mixed. The mixed sound signal after mixing is supplied to the corresponding output ch 140. In each output ch140 from the first to the Mth, as shown in FIG. 5, each element of EQ143, dynamics 144, fader 145 and on / off switch 146 corresponds to the mixed sound signal supplied from the corresponding bus. Processes are sequentially performed according to the values of the parameters to be performed. Each output ch 140 supplies the sound signal processed by the elements 143 to 146 to the output patch 170.

キューバス150では、キューオンされている1以上の入力ch120から供給された試聴用の音信号が混合される。混合後の試聴用音信号は、キューch160に供給される。キューch160では、キューバス150から供給される試聴用音信号に対して、ATT161、EQ163、ダイナミクス164、フェーダ165及びオン/オフスイッチ166の各要素が、対応するパラメータの値に従って、処理を順次施す。キューch160は、要素161〜166により信号処理された試聴用音信号を出力パッチ170に供給する。 In the cue bus 150, sound signals for audition supplied from one or more input channels 120 that are cueed on are mixed. The audition sound signal after mixing is supplied to the cue ch160. In the cue ch 160, each element of the ATT 161, EQ 163, dynamics 164, fader 165, and on / off switch 166 sequentially performs processing on the audition sound signal supplied from the cue bus 150 according to the corresponding parameter values. .. The cue ch 160 supplies the audition sound signal signal-processed by the elements 161 to 166 to the output patch 170.

出力パッチ170は、各出力ch140及びキューch160を、波形入出力部16に設けた出力ジャック171にパッチし、各出力ch140及びキューch160の音信号を、パッチされた出力ジャック171に供給する。パッチ先の出力ジャック171には、メイン出力のための出力ジャックと、モニタ出力のための出力ジャックがある。メイン出力のための出力ジャックには、メインスピーカやウェッジスピーカ等が接続される。モニタ出力のための出力ジャックには、モニタ用スピーカやヘッドフォン等が接続される。一例として、何れの入力ch120もキューオフの場合、各出力ch140がメイン出力のための出力ジャック及びモニタ出力のための出力ジャックの両方にパッチされ、何れかの入力ch120がキューオンの場合、出力ch140がメイン出力のための出力ジャックにパッチされ、キューch160がモニタ出力のための出力ジャックにパッチされる。 The output patch 170 patches each output ch 140 and cue ch 160 to the output jack 171 provided in the waveform input / output unit 16, and supplies the sound signals of each output ch 140 and cue ch 160 to the patched output jack 171. The patch destination output jack 171 includes an output jack for the main output and an output jack for the monitor output. A main speaker, a wedge speaker, or the like is connected to the output jack for the main output. A monitor speaker, headphones, or the like is connected to the output jack for monitor output. As an example, if any input ch120 is queued off, each output ch140 is patched to both the output jack for main output and the output jack for monitor output, and if any input ch120 is queued on, the output ch140 is It is patched to the output jack for the main output and the queue ch160 is patched to the output jack for the monitor output.

上記構成からなるミキサ10は、各入力ジャック111に接続された複数の音源(例えば楽器)の音信号を、入力ch120毎に信号処理した後、バス130で例えば2chステレオ構成の混合音信号に混合し、その混合音信号を出力ch140で特性制御及びレベル調節した後にメイン出力のための出力ジャックやモニタ出力のための出力ジャックから出力したり、或いは、キューオンされた入力ch120の音信号をキューバス150で試聴用音信号に混合して、混合した試聴音信号をキューch160で処理した後にモニタ出力のための出力ジャックから出力したりできる。 The mixer 10 having the above configuration processes the sound signals of a plurality of sound sources (for example, musical instruments) connected to each input jack 111 for each input ch 120, and then mixes them with a mixed sound signal having a stereo configuration of, for example, 2ch on the bus 130. Then, after characteristic control and level adjustment of the mixed sound signal on the output ch140, it is output from the output jack for the main output or the output jack for the monitor output, or the sound signal of the cue-on input ch120 is cubic. It can be mixed with the audition sound signal at 150, and the mixed audition sound signal can be processed by the cue ch 160 and then output from the output jack for monitor output.

ミキサ10のユーザは、操作パネル上の操作子19を用いてミキシング操作(たとえば、音信号の経路の設定や、入力ch120の要素121〜127、出力ch140の要素143〜146或いはキューch160の要素161〜166の各種パラメータの値の調節)を行うことにより、ミキサ10の動作を制御する。前述の通り、ミキシング操作において重要な作業の1つに、音信号の音量レベル、周波数特性或いは定位などを入力ch120毎に調節して、バス130又はキューバス150で混合された混合音信号(メイン出力又はモニタ出力から出力される混合音信号)に含まれる個々の音源の音信号のバランスを整え、「音の粒立ち」を作ることがある。前記の通り、「音の粒立ち」とは、聴取者の感じる個々の音の分離感であり、また、「音の分離感」とは、聴取者が音信号を聴いたときに、その音信号に含まれる複数の音源を、どの程度、個別に(分離して)聴取できるかを感覚的に示す表現である。この実施例に係るミキサ10は、各入力ch120の音信号の周波数及び定位の分布(周波数‐定位分布)を示す表示物をディスプレイ18に表示すること(図1の表示制御手段4の動作)により、混合音信号に含まれる各入力ch120の音信号の分離感を視覚化することで、ユーザのミキシング操作(特に音の分離感を作る操作)を視覚的に補助できるようにしたことに特徴がある。 The user of the mixer 10 uses the controller 19 on the operation panel to perform a mixing operation (for example, setting a sound signal path, elements 121 to 127 of the input ch 120, elements 143 to 146 of the output ch 140, or elements 161 of the cue ch 160. The operation of the mixer 10 is controlled by adjusting the values of various parameters of ~ 166). As described above, one of the important tasks in the mixing operation is to adjust the volume level, frequency characteristics, localization, etc. of the sound signal for each input ch 120, and the mixed sound signal (main) mixed by the bus 130 or the cuba 150. The sound signal of each sound source included in the output or the mixed sound signal output from the monitor output) may be balanced to create "sound graininess". As described above, the "graininess of sound" is the sense of separation of individual sounds felt by the listener, and the "sense of separation of sound" is the sound when the listener hears the sound signal. It is an expression that sensuously shows how much a plurality of sound sources included in a signal can be heard individually (separately). The mixer 10 according to this embodiment displays a display object showing the frequency and localization distribution (frequency-localization distribution) of the sound signal of each input ch 120 on the display 18 (operation of the display control means 4 in FIG. 1). By visualizing the sense of separation of the sound signals of each input ch120 included in the mixed sound signal, it is possible to visually assist the user's mixing operation (especially the operation of creating a sense of sound separation). be.

図7は、周波数‐定位分布を示す表示物を表示する表示処理全体の流れのフローチャートを示す。例えば、ユーザが、操作子19を用いて周波数‐定位分布の表示指示を行うと、CPU11は、その表示指示に応じて、ディスプレイ18に周波数‐定位分布表示画面(後述の図10の符号20)を立ち上げて、且つ、図8の処理を開始する。図7のフローチャートは、1つの(i番目の)入力ch120に対する処理を示している。CPU11は、図7の処理を、1番目からN番目の各入力ch120に対して繰り返す。 FIG. 7 shows a flowchart of the entire flow of the display process for displaying the display object showing the frequency-localization distribution. For example, when the user gives an instruction to display the frequency-localization distribution using the operator 19, the CPU 11 responds to the display instruction and displays the frequency-localization distribution display screen on the display 18 (reference numeral 20 in FIG. 10 described later). Is started up, and the process of FIG. 8 is started. The flowchart of FIG. 7 shows the processing for one (ith) input ch120. The CPU 11 repeats the process of FIG. 7 for each of the first to Nth input channels 120.

ステップS1において、CPU11は、i番目の入力ch120から周波数情報を取得する。周波数情報は、その入力ch120の音信号の周波数帯域を示す。前記ステップS1の周波数情報取得処理の一例を、図8のフローチャートに示す。ステップS10において、CPU11は、i番目の入力ch120から音信号に対して高速フーリエ変換(FFT、Fast Fourier Transform)による周波数分析処理を行うことにより、i番目の入力ch120の周波数情報を取得する。周知の通り、FFT処理により、処理対象の音信号を構成する周波数成分毎の強さ(振幅レベル)を調べることができる。CPU11は、音信号のFFT処理の結果を、その入力ch120の音信号の周波数帯域を示す周波数情報として利用する。FFT処理対象の音信号は、例えばフェーダ125の直後(ポストフェーダ)から取得する音信号である。CPU11がメモリ12に記憶されたプログラムに基づき前記ステップS1の処理を実行することが、図1の周波数情報取得手段2の動作に相当する。 In step S1, the CPU 11 acquires frequency information from the i-th input ch120. The frequency information indicates the frequency band of the sound signal of the input ch 120. An example of the frequency information acquisition process in step S1 is shown in the flowchart of FIG. In step S10, the CPU 11 acquires the frequency information of the i-th input ch 120 by performing a frequency analysis process on the sound signal from the i-th input ch 120 by a fast Fourier transform (FFT). As is well known, by FFT processing, the intensity (amplitude level) of each frequency component constituting the sound signal to be processed can be investigated. The CPU 11 uses the result of the FFT processing of the sound signal as frequency information indicating the frequency band of the sound signal of the input ch 120. The sound signal to be FFT processed is, for example, a sound signal acquired immediately after the fader 125 (post-fader). Executing the process of step S1 based on the program stored in the memory 12 by the CPU 11 corresponds to the operation of the frequency information acquisition means 2 of FIG.

ステップS2において、CPU11は、i番目の入力ch120から定位情報を取得する。定位情報は、その入力ch120の音信号の定位を示す。前記ステップS2の定位情報取得処理の一例を図9のフローチャートに示す。CPU11は、ステップS11において、i番目の入力ch120の定位情報として、i番目の入力ch120のパン127の値をメモリ12から取得する。CPU11がメモリ12に記憶されたプログラムに基づき前記ステップS2の処理を実行することが、図1の定位情報取得手段3の動作に相当する。 In step S2, the CPU 11 acquires localization information from the i-th input ch120. The localization information indicates the localization of the sound signal of the input ch 120. An example of the localization information acquisition process in step S2 is shown in the flowchart of FIG. In step S11, the CPU 11 acquires the value of the pan 127 of the i-th input ch 120 as the localization information of the i-th input ch 120 from the memory 12. Executing the process of step S2 based on the program stored in the memory 12 by the CPU 11 corresponds to the operation of the localization information acquisition means 3 of FIG.

そして、ステップS3において、CPU11は、前記ステップS1で取得した周波数情報と前記ステップS2で取得した定位情報に基づいて、i番目の入力ch120の周波数‐定位分布を示す表示物を、ディスプレイ18上の周波数‐定位分布表示画面(後述の図10)に表示する。 Then, in step S3, the CPU 11 displays a display indicating the frequency-localization distribution of the i-th input ch120 on the display 18 based on the frequency information acquired in step S1 and the localization information acquired in step S2. It is displayed on the frequency-localization distribution display screen (FIG. 10 described later).

CPU11は、図7のステップS1〜S3の処理を、1番目からN番目の各入力ch120に対して行うことにより、1番目からN番目の各入力ch120の周波数‐定位分布を示す表示物を、1つの表示画面(後述の図10)上に表示する。CPU11がメモリ12に記憶されたプログラムに基づき前記ステップS3の処理を実行し、ディスプレイ13に表示物を表示することが、図1の表示制御手段4の動作に相当する。 By performing the processing of steps S1 to S3 of FIG. 7 for each of the first to Nth input channels 120, the CPU 11 displays a display indicating the frequency-localization distribution of each of the first to Nth input channels 120. It is displayed on one display screen (FIG. 10 described later). It corresponds to the operation of the display control means 4 of FIG. 1 that the CPU 11 executes the process of step S3 based on the program stored in the memory 12 and displays the display object on the display 13.

一例として、CPU11は、所定の表示更新周期毎に、1番目からN番目の各入力ch120に対する図7の処理を繰り返して、各入力ch120の表示物の表示を更新する。これにより、時々刻々入力される音信号に対応する表示物を略リアルタイムに描画することできる。一例として、表示更新に際して、直前の表示物を消去する処理の応答速度を遅くしてもよい。これにより、表示物を略リアルタイムに描画する実施形態において、表示物の残存時間を長くすることができるので、表示物の視認性が向上する。例えば、或る入力ch120の音信号が途絶えた後にも、その入力ch120の表示物が残存する。また、例えば、或る入力ch120の音信号の周波数特定や定位の変化後にも、その変化前の入力ch120の表示物が残存する。このように、表示物の消去を遅らせることは、ミキシング操作の補助にとって役に立つ。また、一例として、表示物の消去は、表示物を徐々に薄れさせる(フェードアウトする)ように行ってよい。 As an example, the CPU 11 updates the display of the display object of each input ch 120 by repeating the process of FIG. 7 for each of the first to Nth input channels 120 at a predetermined display update cycle. As a result, it is possible to draw a display object corresponding to the sound signal that is input every moment in substantially real time. As an example, when updating the display, the response speed of the process of erasing the immediately preceding display may be slowed down. As a result, in the embodiment in which the displayed object is drawn in substantially real time, the remaining time of the displayed object can be lengthened, so that the visibility of the displayed object is improved. For example, even after the sound signal of a certain input ch 120 is interrupted, the display object of the input ch 120 remains. Further, for example, even after the frequency of the sound signal of a certain input ch 120 is specified or the localization is changed, the display object of the input ch 120 before the change remains. Thus, delaying the erasure of the display is useful for assisting the mixing operation. Further, as an example, the display object may be erased so as to gradually fade (fade out) the display object.

図10は、周波数‐定位分布の表示物の表示例を示す。図10において、周波数‐定位分布表示画面20は、周波数を示す縦軸(周波数軸)と定位を示す横軸(定位軸)との2軸の座標平面からなり、1つの周波数‐定位分布表示画面20内に、それぞれ入力ch120の周波数‐定位分布を示す複数の表示物21a、21b、21c、21d、21e及び21fが表示される。なお、定位の「左」、「右」の表現は、2chステレオにおける左ch及び右chに対応する。表示物21a〜21fは、それぞれ1つの入力ch120に対応している。図10の例では、各表示物21a〜21fは楕円形を有し、その位置と大きさ(面積)により、対応する入力ch120の音信号の周波数‐定位分布を表す。具体的には、各表示物21a〜21fの周波数軸上の位置及び周波数軸方向の長さ(高さ)が対応する入力ch120の音信号の周波数の分布を表し、各表示物21a〜21fの定位軸上の位置が対応する入力ch120の音信号の定位の分布を表す。また、各表示物21a〜21fの幅は音信号の定位の広がり感を表す。例えば、表示物21bは、対応する入力ch120bの音信号の周波数帯域が200Hzから1KHzであり、定位が略中央であることを示す。また、表示物21bの幅は、例えば表示物21aの幅より広くなっており、このことは、表示物21bに対応する入力ch120bの音信号は、表示物21aに対応する入力ch120aの音信号よりも定位の広がり感が広いことを表す。なお、この明細書では、表示物21の定位軸方向(左右方向)の長さを「幅」といい、表示物21の周波数軸方向(上下方向)の長さを「高さ」という。 FIG. 10 shows a display example of a display object having a frequency-localization distribution. In FIG. 10, the frequency-localization distribution display screen 20 is composed of a coordinate plane of two axes, a vertical axis (frequency axis) indicating frequency and a horizontal axis (localization axis) indicating localization, and one frequency-localization distribution display screen. Within 20, a plurality of display objects 21a, 21b, 21c, 21d, 21e and 21f indicating the frequency-localization distribution of the input ch 120 are displayed. The expressions "left" and "right" of localization correspond to the left channel and the right channel in 2ch stereo. The displayed objects 21a to 21f each correspond to one input ch120. In the example of FIG. 10, the display object 21a~21f has an elliptical shape, by its position and size (area), the frequency of the sound signal of the corresponding input Ch120 - represents the orientation distribution. Specifically, the position on the frequency axis of each display object 21a to 21f and the length (height) in the frequency axis direction represent the frequency distribution of the sound signal of the input ch120 corresponding to each display object 21a to 21f. The position on the localization axis represents the localization distribution of the sound signal of the corresponding input ch120. Further, the width of each display object 21a to 21f represents a sense of spaciousness of localization of the sound signal. For example, the display object 21b indicates that the frequency band of the sound signal of the corresponding input ch120b is 200 Hz to 1 KHz, and the localization is substantially in the center. Further, the width of the display object 21b is wider than the width of the display object 21a, for example, which means that the sound signal of the input ch 120b corresponding to the display object 21b is larger than the sound signal of the input ch 120a corresponding to the display object 21a. Also indicates that the sense of spaciousness of localization is wide. In this specification, the length of the display object 21 in the localization axis direction (horizontal direction) is referred to as "width", and the length of the display object 21 in the frequency axis direction (vertical direction) is referred to as "height".

図11は、前記ステップS3の表示処理の一例であって、前記図10の表示を行うための処理のフローチャートを示す。ステップS12において、CPU11は、前記ステップS1で取得した周波数情報及び前記ステップS2で取得した定位情報に基づいて、i番目の入力ch120の分布情報Giを取得する。分布情報Giは、周波数‐定位分布表示画面20におけるi番目の入力ch120の表示物21の位置、すなわち、i番目の入力ch120の音信号の周波数の分布と定位の分布を表す。 FIG. 11 is an example of the display process of step S3, and shows a flowchart of the process for displaying the display of FIG. 10. In step S12, the CPU 11 acquires the distribution information Gi of the i-th input ch120 based on the frequency information acquired in step S1 and the localization information acquired in step S2. The distribution information Gi represents the position of the display object 21 of the i-th input ch120 on the frequency-localization distribution display screen 20, that is, the frequency distribution and localization distribution of the sound signal of the i-th input ch120.

一例として、該ステップS12において、CPU11は、所定値以下の振幅レベルしか持たない周波数成分については、その振幅レベルをゼロとみなして、分布情報Giから除外する。これにより、分布情報Giの示す周波数の分布は、当該i番目の入力ch120の音信号に特徴的な周波数帯域のみを示すものとなり、従って、対応する表示物21の高さは当該i番目の入力ch120の音信号に特徴的な周波数帯域のみの分布を示す。 As an example, in step S12, the CPU 11 regards a frequency component having an amplitude level equal to or less than a predetermined value as zero and excludes it from the distribution information Gi. As a result, the frequency distribution indicated by the distribution information Gi indicates only the frequency band characteristic of the sound signal of the i-th input ch120, and therefore the height of the corresponding display 21 is the i-th input. The distribution of only the frequency band characteristic of the sound signal of ch120 is shown.

ステップS13において、CPU11は、i番目の入力ch120の音信号の音量に応じて、その入力ch120の表示物の幅を決定する。CPU11は、例えば前記ステップS10で得た周波数情報に含まれる振幅レベルに基づき音量を取得できる。別の例として、CPU11は、入力ch120毎の音量レベル表示用の音量計測値(フェーダ125直後の音量計測値)を取得し、取得した音量計測値に基づき表示物の幅を決定してよい。また、一例として、CPU11は、該ステップS13において、音量が大きいほど、表示物の幅を広くする。音量に応じて幅を調節する処理は、例えば、適宜のテーブル或いはフィルタ等を用いて行うことができる。 In step S13, the CPU 11 determines the width of the display object of the input ch 120 according to the volume of the sound signal of the i-th input ch 120. The CPU 11 can acquire the volume based on the amplitude level included in the frequency information obtained in step S10, for example. As another example, the CPU 11 may acquire a volume measurement value for displaying the volume level for each input channel 120 (volume measurement value immediately after the fader 125), and determine the width of the displayed object based on the acquired volume measurement value. Further, as an example, in step S13, the louder the volume, the wider the width of the display object. The process of adjusting the width according to the volume can be performed using, for example, an appropriate table or filter.

ステップS14において、CPU11は、i番目の入力ch120の音域の高低に応じて、その入力ch120の表示物の幅を調節する。一例として、CPU11は、該ステップS14において、低域ほど表示物の幅を広げる。一例として、CPU11は、周波数情報に基づき、入力ch120の音域が、例えば低域、中域、高域の三つの音域の何れに該当するかを判定し、判定した音域に応じて、前記ステップS13で決定した表示物の幅を調節する。音域に応じて表示物の幅を調節する処理は、例えば、適宜のテーブル或いはフィルタ等を用いて行うことができる。 In step S14, the CPU 11 adjusts the width of the display object of the input ch 120 according to the pitch of the i-th input ch 120. As an example, in step S14, the CPU 11 widens the width of the display object as the frequency becomes lower. As an example, the CPU 11 determines, based on the frequency information, which of the three range of the input ch120 corresponds to, for example, the low range, the mid range, and the high range, and according to the determined range, the step S13. Adjust the width of the displayed object determined in. The process of adjusting the width of the displayed object according to the sound range can be performed by using, for example, an appropriate table or filter.

ステップS15において、CPU11は、i番目の入力ch120の表示物の色を決定する。一例として、各入力ch120の色は、CPU11が他のチャンネルの表示物の色と重複しない色を自動的に決定する。別の例として、CPU11は、ユーザが入力ch120毎に指定した色(ch色)に基づいて、その入力ch120の表示物の色を決定してよい。デジタルミキサは、一般的に、ch毎のch情報として、ch名やch色をユーザが指定できる。CPU11は、ch情報に指定されたch色を、表示物の色の決定に利用できる。なお、このステップS15は、ch毎に表示色を異ならせることに限らず、例えばch毎に表示柄を異ならせることなど、ch毎に表示態様を異ならせることであればよい。 In step S15, the CPU 11 determines the color of the display object on the i-th input ch120. As an example, for the color of each input channel 120, the CPU 11 automatically determines a color that does not overlap with the color of the display object of another channel. As another example, the CPU 11 may determine the color of the display object on the input ch 120 based on the color (ch color) specified by the user for each input ch 120. In a digital mixer, a user can generally specify a ch name and a ch color as ch information for each ch. The CPU 11 can use the ch color specified in the ch information to determine the color of the displayed object. Note that this step S15 is not limited to making the display color different for each channel, and may be used as long as the display mode is different for each channel, for example, the display pattern is different for each channel.

ステップS16において、CPU11は、前記ステップS12で取得した分布情報Giに基づく位置に、前記ステップS13及びS14で決定及び調節した幅を持つ表示物を、前記ステップS15で決定した色で表示する。 In step S16, the CPU 11 displays the display object having the width determined and adjusted in steps S13 and S14 at the position based on the distribution information Gi acquired in step S12 in the color determined in step S15.

一例として、前記ステップS16において、CPU11は、更に、i番目の入力ch120の表示物に他の表示物と重なる部分があるか否かを調べ、重なる部分がある場合、その部分を、その表示物の他の部分とは異なる表示形態で強調表示する。強調表示は、例えば、その表示物の他の部分とは異なる色で表示することである。強調表示の色は、例えば赤や黒など他と比べて目立つ色であるとよい。一例として、重なる部分の強調表示は、何れの表示物においても共通の表示態様(重なり合いを示す共通の強調色)で行う。強調色は、たとえば、各表示物21の何れの通常の表示色(重なり合っていない部分の色)とも異なる色とする。例えば、図10では、表示物21aと21bの重なる部分、及び、表示物21bと21cの重なる部分が、それぞれ、共通の強調色(図10では黒色塗りつぶし)で強調表示される。別の例として、強調表示は、表示色を濃くすること、あるいは、点滅表示などであってよい。 As an example, in step S16, the CPU 11 further checks whether or not the display object of the i-th input ch120 has a portion that overlaps with another display object, and if there is an overlapping portion, the portion is displayed as the display object. Highlight in a display format different from other parts. Highlighting is, for example, displaying in a color different from other parts of the display. The highlighting color may be a color that stands out compared to others, such as red or black. As an example, the highlighting of the overlapping portion is performed in a common display mode (a common highlight color indicating the overlap) in all the displayed objects. The emphasis color is, for example, a color different from any normal display color (color of the non-overlapping portion) of each display object 21. For example, in FIG. 10, the overlapping portion of the display objects 21a and 21b and the overlapping portion of the display objects 21b and 21c are highlighted with a common highlight color (black fill in FIG. 10). As another example, the highlighting may be a darkening of the display color, a blinking display, or the like.

また、一例として、前記ステップS16において、CPU11は、更に、i番目の入力ch120のバス130への出力のオン・オフを調べて、該出力がオフされている場合、その入力ch120の表示物21を、同出力がオンされている場合とは異なる表示態様で表示する。例えば、その入力ch120のオンオフスイッチ126がオフの場合や、その入力ch120のミュートオンオフスイッチ(不図示)がオフの場合、或いは、その入力ch120のフェーダ125の値が下限値(−∞dB)の場合等に、その入力ch120からバス130への出力がオフになる。また、その入力ch120以外の入力ch120のソロオンオフスイッチ(不図示)がオン(つまり、その入力120以外の入力ch120がソロ)の場合も、その入力ch120からバス130への出力がオフになる。例えば、図10では、表示物21eと表示物21fとはグレーアウト表示されている。別の例として、CPU11は、前記ステップS16において、i番目の入力ch120のキューバス150への出力のオン・オフを調べて、該出力がオフされている場合、その入力ch120の表示物21を、グレーアウト表示してよい。なお、出力オフの場合の表示態様は、グレーアウトに限らず、表示色を薄めること、網掛け表示すること、或いは、非表示にすることなどであってもよい。 Further, as an example, in step S16, the CPU 11 further checks the on / off of the output of the i-th input ch 120 to the bus 130, and if the output is turned off, the display object 21 of the input ch 120. Is displayed in a display mode different from that when the same output is turned on. For example, when the on / off switch 126 of the input ch 120 is off, the mute on / off switch (not shown) of the input ch 120 is off, or the value of the fader 125 of the input ch 120 is the lower limit value (-∞ dB). In some cases, the output from the input ch 120 to the bus 130 is turned off. Also, when the solo on / off switch (not shown) of the input ch 120 other than the input ch 120 is on (that is, the input ch 120 other than the input 120 is solo), the output from the input ch 120 to the bus 130 is turned off. For example, in FIG. 10, the display object 21e and the display object 21f are grayed out. As another example, in step S16, the CPU 11 checks the on / off of the output of the i-th input ch 120 to the cue bus 150, and if the output is turned off, displays the display 21 of the input ch 120. , May be grayed out. The display mode when the output is off is not limited to gray out, and the display color may be dimmed, shaded, or hidden.

前記図11の処理により、1つの周波数‐定位分布表示画面20内に、入力ch120の音信号の周波数‐定位分布を示す表示物21a〜21fを表示できる。各表示物21a〜21fがそれぞれ1つの入力ch120の音信号を表すので、例えば、入力ch120毎の音源(例えば個々の楽器の音)を別個の表示物21a〜21fで表現できる。各表示物21a〜21fの表示色を入力ch120毎に異ならせているので、ユーザは、入力ch120毎の周波数―定位分布を明確に識別できる。また、複数の入力ch120の間で周波数帯域及び定位が部分的に又は全体的に重なり合っていても、個々の入力ch120の音信号を明確に区別した表示を行うことができる。
これら表示物21a〜21fの位置や相互関係は、入力ch120の音信号を混合した後の混合音信号(つまりメイン出力又はモニタ出力から出力される混合音信号)における個々の音源(各入力ch120の音信号)の分離感を視覚的に表す。この表示により、ユーザのミキシング操作を視覚的に補助することができる。この視覚的補助により、誰にでも簡単に、適切なミキシング操作、特に音の分離感(“音の粒立ち”)を作る操作を行うことが可能となる。
By the process of FIG. 11, the display objects 21a to 21f showing the frequency-localization distribution of the sound signal of the input ch 120 can be displayed in one frequency-localization distribution display screen 20. Since each of the display objects 21a to 21f represents a sound signal of one input ch 120, for example, a sound source for each input ch 120 (for example, the sound of an individual musical instrument) can be represented by separate display objects 21a to 21f. Since the display colors of the display objects 21a to 21f are different for each input ch 120, the user can clearly identify the frequency-localization distribution for each input ch 120. Further, even if the frequency bands and localizations partially or wholly overlap between the plurality of input channels 120, the sound signals of the individual input channels 120 can be clearly distinguished and displayed.
The positions and interrelationships of these displays 21a to 21f are the individual sound sources (that is, the mixed sound signals output from the main output or the monitor output) of the mixed sound signals (that is, the mixed sound signals output from the main output or the monitor output) after the sound signals of the input channels 120 are mixed. It visually expresses the sense of separation of the sound signal). With this display, the user's mixing operation can be visually assisted. This visual aid makes it possible for anyone to easily perform appropriate mixing operations, especially operations that create a sense of sound separation (“sound graininess”).

例えば、ユーザは、表示物21a〜21fを見ることで、どの入力ch120の音信号のどの帯域が他の入力ch120の音信号に干渉しているかを把握したり、その重なりを解消すべきか否かを判断したり、或いは、どのパラメータをどの程度調節するかを判断したりできる。複数の入力ch120での干渉が周波数‐定位平面上で視覚的に表現されているので、ユーザは、その表示内容に基づいて、適切なEQ123やパン127の調整を行うことができる。 For example, by looking at the displays 21a to 21f, the user can grasp which band of the sound signal of which input ch120 interferes with the sound signal of another input ch120, and whether or not the overlap should be eliminated. Or you can determine which parameters to adjust and how much. Since the interference at the plurality of input channels 120 is visually expressed on the frequency-localization plane, the user can make appropriate EQ123 and pan 127 adjustments based on the displayed contents.

また、複数の表示物21で重なり合っている部分、すなわち、複数の入力ch120の間で干渉している周波数帯域を、その表示物21の他の部分とは異なる色で強調表示することで、ユーザのミキシング操作を効果的に補助できる。 Further, by highlighting the overlapping portion of the plurality of display objects 21, that is, the frequency band interfering between the plurality of input channels 120, in a color different from that of the other portions of the display object 21, the user. It can effectively assist the mixing operation of.

また、i番目の入力ch120のバス130への出力がオフされている場合、その入力ch120の表示物21を、同出力がオンされている場合とは異なる表示態様(例えばグレーアウト)で表示することにより、入力ch120毎のchオン/オフ、キューオン・オフ、ミュート、ソロ等と連動した表示物の表示を行うことができる。 Further, when the output of the i-th input ch 120 to the bus 130 is turned off, the display object 21 of the input ch 120 is displayed in a display mode (for example, grayed out) different from that when the same output is turned on. Therefore, it is possible to display the display object linked with ch on / off, cue on / off, mute, solo, etc. for each input ch 120.

また、時々刻々入力される音信号に対応する入力ch120毎の表示物21a〜21fを略リアルタイムに描画しているので、ユーザは、表示物21a〜21fの時間的変化から、例えば、或る入力ch120の音信号の無駄な余韻や残響が、他の入力ch120の音信号を邪魔していないかどうかを視認できる。そして、無駄な余韻や残響等の問題がある場合、ユーザは、表示内容に基づいて、問題となる入力ch120のダイナミクス124(ゲートやコンプレッサ)を適切に調節して、上記の無駄な余韻や残響を除去できる。 Further, since the display objects 21a to 21f for each input channel 120 corresponding to the sound signal input every moment are drawn in substantially real time, the user can obtain, for example, a certain input from the temporal change of the display objects 21a to 21f. It is possible to visually check whether or not the useless afterglow or reverberation of the sound signal of ch120 does not interfere with the sound signal of other input ch120. Then, when there is a problem such as useless afterglow or reverberation, the user appropriately adjusts the dynamics 124 (gate or compressor) of the input ch120 which becomes a problem based on the display content, and the above useless afterglow or reverberation Can be removed.

また、音量に応じて表示物21の幅を調節すること、具体的には音量が大きいほど表示物21の幅を広げること(前記ステップS13)により、音量に応じた定位の広がり感の違いを視覚化できる。また、音域に応じた表示物21の幅の調節すること、具体的には低域ほど表示物21の幅を広げること(前記ステップS14)により、音域に応じた指向性(定位の広がり感)の違いを視覚化することができる。 Further, by adjusting the width of the display object 21 according to the volume, specifically, by increasing the width of the display object 21 as the volume becomes louder (step S13), the difference in the sense of spread of localization according to the volume can be obtained. Can be visualized. Further, by adjusting the width of the display object 21 according to the range, specifically, by widening the width of the display object 21 toward the lower range (step S14), the directivity according to the range (sense of localization). You can visualize the difference between.

表示物21の形状は、前記図10のような楕円に限らない。図12は、周波数‐定位分布を示す表示物の別の例を示す。図12の例では、棒状の表示物31a、31b、31c、31d、31e及び31fが、音信号の周波数‐定位分布を示す。各表示物31a〜31fは、それぞれ、周波数軸上の位置(と当該表示物31の高さ)により、対応する入力ch120の音信号の周波数分布を示す。図13は、前記図11表示処理の変形例であって、前記図12のような棒状の表示物21の表示を行うための処理を示すフローチャートを示す。なお、前記図11と共通の事項の説明は省略する。この場合、CPU11は、表示物31の幅の調節(前記ステップS13及びS14)を行わず、単に、ステップS22で取得した分布情報Giの位置に、ステップS23で決定した色の表示物31を表示する(ステップS24)だけでよい。各表示物31a〜31fは全て共通の所定幅で表示される。 The shape of the display object 21 is not limited to the ellipse as shown in FIG. FIG. 12 shows another example of a display showing a frequency-localization distribution. In the example of FIG. 12, the rod-shaped displays 31a, 31b, 31c, 31d, 31e and 31f show the frequency-localization distribution of the sound signal. Each of the display objects 31a to 31f indicates the frequency distribution of the sound signal of the corresponding input ch 120 according to the position on the frequency axis (and the height of the display object 31). FIG. 13 is a modification of the display process of FIG. 11, and shows a flowchart showing a process for displaying the rod-shaped display object 21 as shown in FIG. The description of items common to FIG. 11 will be omitted. In this case, the CPU 11 does not adjust the width of the display object 31 (steps S13 and S14), and simply displays the display object 31 of the color determined in step S23 at the position of the distribution information Gi acquired in step S22. (Step S24) is all that is required. The displayed objects 31a to 31f are all displayed with a common predetermined width.

図14は、周波数‐定位分布を示す表示物の更に別の例であって、表示物41a〜41fの幅を、周波数成分毎の音量に応じて調節する例を示す。この場合、各表示物41a〜41fは、単純な楕円形ではなく、周波数成分に対応する部分毎に、音量に応じた幅を持つ。図15は、前記図11表示処理の変形例であって、前記図14のように周波数成分毎の音量に応じて幅を調整した表示物41a〜41fの表示を行うための処理を示すフローチャートを示す。なお、前記図11と共通の事項の説明は省略する。ステップS33において、CPU11は、i番目の入力ch120の音信号を構成する周波数成分毎に幅を決定する。一例として、CPU11は、前記ステップS10のFFT処理により得た周波数情報に基づいて、周波数成分毎の振幅レベルを定位軸方向(左右方向)に展開することで、周波数成分毎の定位の分布は、その振幅レベルに応じた広がり(定位軸方向の幅)を持つ値になる。この周波数成分毎の定位の分布が、周波数成分毎の振幅レベルに応じた表示物41の幅を示す。定位の分布は、振幅レベルが大きいほど、左右方向に広く展開される。従って、振幅レベルが大きい周波数成分に対応する部分ほど、表示物41の幅が広がる。周波数成分毎の振幅レベルを定位軸方向に展開する処理は、例えば階級関数を用いて行う。ステップS34において、CPU11は、例えばフィルタ処理により、前記ステップS33で取得した周波数成分毎の表示物41の幅を音域に応じて調節する。音域に応じた調節は、例えば適宜のテーブル又はフィルタ処理により、周波数に応じて幅を拡張又は減縮するように(具体的には低域ほど表示物41の幅を広げるように)行う。そして、ステップS36において、CPU11は、i番目の入力ch120の表示物を表示する。この場合、各表示物41a、41b、41c、41d、41e及び41fは、図14に示すように、対応する入力ch120の音信号に含まれる各周波数成分に対応する部分が、それぞれの振幅レベルに応じた幅を持つ。従って、各表示物41a〜41fは、それぞれ対応する音信号に含まれる周波数成分毎の強さに応じた形状で表示される。従って、表示物41a〜41fの形状により、対応する入力ch120の音信号に含まれる各周波数成分の強さに応じた定位の広がり感が視覚化される。 FIG. 14 shows still another example of the display object showing the frequency-localization distribution, in which the width of the display objects 41a to 41f is adjusted according to the volume of each frequency component. In this case, each of the displayed objects 41a to 41f is not a simple ellipse, but has a width corresponding to the volume for each portion corresponding to the frequency component. FIG. 15 is a modification of the display process of FIG. 11, and shows a flowchart showing a process for displaying the display objects 41a to 41f whose width is adjusted according to the volume of each frequency component as shown in FIG. show. The description of items common to FIG. 11 will be omitted. In step S33, the CPU 11 determines the width for each frequency component constituting the sound signal of the i-th input ch120. As an example, the CPU 11 expands the amplitude level for each frequency component in the localization axis direction (horizontal direction) based on the frequency information obtained by the FFT process in step S10, so that the localization distribution for each frequency component can be changed. The value has a spread (width in the localization axis direction) according to the amplitude level. The localization distribution for each frequency component indicates the width of the display object 41 according to the amplitude level for each frequency component. The localization distribution expands widely in the left-right direction as the amplitude level increases. Therefore, the width of the display object 41 becomes wider as the portion corresponding to the frequency component having a larger amplitude level. The process of expanding the amplitude level for each frequency component in the localization axis direction is performed using, for example, a class function. In step S34, the CPU 11 adjusts the width of the display object 41 for each frequency component acquired in step S33 according to the range, for example, by filtering. The adjustment according to the sound range is performed so that the width is expanded or contracted according to the frequency (specifically, the width of the display object 41 is widened as the frequency becomes lower) by, for example, an appropriate table or filter processing. Then, in step S36, the CPU 11 displays the display object of the i-th input ch120. In this case, in each of the displayed objects 41a, 41b, 41c, 41d, 41e and 41f, as shown in FIG. 14, the portion corresponding to each frequency component included in the sound signal of the corresponding input ch 120 has its own amplitude level. It has a corresponding width. Therefore, each of the displayed objects 41a to 41f is displayed in a shape corresponding to the intensity of each frequency component included in the corresponding sound signal. Therefore, the shapes of the displayed objects 41a to 41f visualize the sense of spread of localization according to the strength of each frequency component included in the sound signal of the corresponding input ch120.

別の実施形態において、前記ステップS10のFFT処理は、ダイナミクス124の直後(フェーダ125の前)から取り出した音信号(プリフェーダ信号)に対して行うようにしてもよい。分離感を作るための音作りにおいては、各入力ch120のEQ123とダイナミクス124が主要な役割を担う。従って、ダイナミクス124直後の音信号に対してFFT処理を行い、該ダイナミクス124直後の周波数情報を取得するのが、分離感の視覚化という点で好適である。この場合、CPU11は、表示物の幅を調節するために、例えば前記ステップS3の表示処理でi番目の入力ch120のフェーダ125直後の音量を取得し、取得した音量を表示幅の調節(前記ステップS13等の処理)に利用するとよい。フェーダ125直後の音量を取得する方法としては、例えば、CPU11は、i番目の入力ch120のフェーダ125の値を取得し、該フェーダ125の値と、前記FFT処理の結果により得たダイナミクス124直後の周波数情報とに基づいて、フェーダ125直後の音量を算出できる。或いは、CPU11は、フェーダ125直後の音信号の音量計測値を取得してもよい。 In another embodiment, the FFT process in step S10 may be performed on the sound signal (pre-fader signal) extracted immediately after the dynamics 124 (before the fader 125). The EQ 123 and dynamics 124 of each input ch 120 play a major role in creating a sound for creating a sense of separation. Therefore, it is preferable to perform FFT processing on the sound signal immediately after the dynamics 124 and acquire the frequency information immediately after the dynamics 124 in terms of visualization of the sense of separation. In this case, in order to adjust the width of the display object, for example, the CPU 11 acquires the volume immediately after the fader 125 of the i-th input ch 120 in the display process of step S3, and adjusts the acquired volume to adjust the display width (the step). It may be used for processing (S13, etc.). As a method of acquiring the volume immediately after the fader 125, for example, the CPU 11 acquires the value of the fader 125 of the i-th input ch 120, and the value of the fader 125 and the value immediately after the dynamics 124 obtained by the result of the FFT process. The volume immediately after the fader 125 can be calculated based on the frequency information. Alternatively, the CPU 11 may acquire the volume measurement value of the sound signal immediately after the fader 125.

別の実施形態において、前記ステップS2の定位情報取得処理は、更に、パン127以外の定位を決定するパラメータの値を取得することを含んでよい。図16は、該別の実施形態に係る定位情報取得処理のフローチャートを示す。なお、前記図9と共通の事項の説明は省略する。図16において、CPU11は、i番目の入力ch120からパン127のパラメータの値を取得すること(ステップS41)に加えて、該i番目の入力ch120から、パン127以外の定位を決定するパラメータの値を取得する(ステップS42)。パン127以外の定位を決定するパラメータは、例えば、ステレオ2ch間の時間差(遅延量)により定位を決定する遅延パンのパラメータである。なお、遅延パンは、先行して音の聞こえる側に定位が偏って聴こえるという人間の聴覚の特性(Haas効果、ハース効果、先行音効果)を利用したものである。ステップS43において、CPU11は、前記ステップS41で取得したパン127の値と、前記ステップS42で取得した遅延パンの値に基づいて、i番目の入力ch120の定位情報を取得する。この場合、パン127以外の定位を決定するパラメータ(例えば遅延パン)も考慮した定位分布の表示を行うことができる。パン127以外の定位を決定するパラメータには、遅延パンのほか、バランスパラメータや、例えばステレオディレイやリバーブなどのエフェクタを制御用のパラメータに含まれるパンなどがある。 In another embodiment, the localization information acquisition process in step S2 may further include acquiring the values of parameters other than pan 127 that determine localization. FIG. 16 shows a flowchart of localization information acquisition processing according to the other embodiment. The description of items common to FIG. 9 will be omitted. In FIG. 16, in addition to acquiring the value of the parameter of the pan 127 from the i-th input ch 120 (step S41), the CPU 11 determines the value of the parameter other than the pan 127 from the i-th input ch 120. (Step S42). The parameter for determining the localization other than the pan 127 is, for example, the parameter of the delayed pan for determining the localization by the time difference (delay amount) between the stereo 2 channels. The delay pan utilizes the characteristics of human hearing (Haas effect, Haas effect, preceding sound effect) that the localization is biased toward the side where the sound can be heard in advance. In step S43, the CPU 11 acquires the localization information of the i-th input ch120 based on the value of the pan 127 acquired in the step S41 and the value of the delayed pan acquired in the step S42. In this case, it is possible to display the localization distribution in consideration of parameters (for example, delayed pan) that determine localization other than pan 127. Parameters that determine localization other than pan 127 include, in addition to delay pan, balance parameters and pans that include effectors such as stereo delay and reverb as control parameters.

また、変形例として、CPU11は、前記ステップS41で取得したパン127の値、又は、前記ステップS42で取得した遅延パン(パン127以外の定位を決定するパラメータ)の値のどちらか一方を、該定位情報として取得してよい。 Further, as a modification, the CPU 11 uses either the value of the pan 127 acquired in step S41 or the value of the delayed pan (a parameter for determining localization other than pan 127) acquired in step S42. It may be acquired as localization information.

別の実施形態において、前記ステップS1の周波数情報を取得する処理は、入力ch120の音信号に対応する楽器種類を判別し、該判別した楽器種類に応じた周波数情報の規定値を取得する処理であってよい。図17は、楽器種類に応じた周波数情報の規定値を取得する処理のフローチャートを示す。ステップS50において、CPU11は、i番目の入力ch120の音信号に対して楽器種類判定処理を行う。楽器種類は、例えば男性ボーカル、女性ボーカル、ピアノ、コーラス、ギター、ベース、ドラムス・・・等である。楽器種類判定処理は、例えば音信号に対する周波数分析処理により楽器種類を判定する処理である。なお、音信号に対する周波数分析処理等の信号処理によって楽器種類を判定する処理は、周知技術を用いて実現できる。処理対象の音信号を取り出す位置は、例えばフェーダ125の直後などであってよい。ステップS51において、CPU11は、例えば適宜のテーブルに基づいて前記ステップS50で判定した楽器種類に対応する周波数情報を取得する。取得する周波数情報は、例えば予め楽器種類に対応して設定された規定値である。この場合、各表示物21a〜21f(31a〜31f、41a〜41f)は、それぞれ対応する入力ch120の実際の音信号の周波数分布ではなく、予め決められた楽器種類毎の周波数分布を示すものとなる。このような、楽器種類に応じた周波数分布を示す表示物21a〜21f(31a〜31f、41a〜41f)であっても、ミキシング操作(特に音の分離感を作る操作)の視覚的な補助としては有効に利用できる。 In another embodiment, the process of acquiring the frequency information in step S1 is a process of determining the musical instrument type corresponding to the sound signal of the input ch 120 and acquiring the specified value of the frequency information according to the determined musical instrument type. It may be there. FIG. 17 shows a flowchart of a process for acquiring a specified value of frequency information according to the type of musical instrument. In step S50, the CPU 11 performs musical instrument type determination processing on the sound signal of the i-th input ch120. The types of musical instruments are, for example, male vocals, female vocals, pianos, choruses, guitars, basses, drums, and the like. The musical instrument type determination process is a process for determining the musical instrument type by, for example, frequency analysis processing for a sound signal. It should be noted that a process of determining the type of musical instrument by signal processing such as frequency analysis processing for a sound signal can be realized by using a well-known technique. The position for extracting the sound signal to be processed may be, for example, immediately after the fader 125. In step S51, the CPU 11 acquires frequency information corresponding to the musical instrument type determined in step S50, for example, based on an appropriate table. The frequency information to be acquired is, for example, a predetermined value set in advance corresponding to the type of musical instrument. In this case, the displayed objects 21a to 21f (31a to 31f, 41a to 41f) do not indicate the frequency distribution of the actual sound signal of the corresponding input ch120, but indicate the frequency distribution for each musical instrument type determined in advance. Become. Even such displays 21a to 21f (31a to 31f, 41a to 41f) showing a frequency distribution according to the type of musical instrument can be used as a visual aid for mixing operations (particularly operations for creating a sense of sound separation). Can be used effectively.

図18は、楽器種類に応じた周波数情報の規定値を取得する処理の別の一例のフローチャートを示す。ステップS60において、CPU11は、i番目の入力ch120のch名の情報を取得し、該ch名に基づいて楽器種類を判定する。前述の通りデジタルミキサにおいて、ユーザは、ch毎に、ch名やch色等を含むch情報を設定できる。ch名は、一般に、ボーカル1、ボーカル2、リードギター、サイドギター、ピアノ、ベース、ドラムス・・・等、その入力ch120の楽器種類の名称である。従って、ch情報に含まれるch名は楽器種類の判定に利用できる。ステップS61において、前記ステップS50で判定した楽器種類に対応する周波数情報の規定値を取得する。この場合、音信号に対する信号処理を行わずに周波数情報を取得できるので、CPU11への処理負担がより少ない。 FIG. 18 shows a flowchart of another example of the process of acquiring the specified value of the frequency information according to the musical instrument type. In step S60, the CPU 11 acquires the information of the ch name of the i-th input ch 120, and determines the musical instrument type based on the ch name. As described above, in the digital mixer, the user can set ch information including the ch name and ch color for each ch. The ch name is generally the name of the instrument type of the input ch120, such as vocal 1, vocal 2, lead guitar, side guitar, piano, bass, drums, and the like. Therefore, the ch name included in the ch information can be used to determine the type of musical instrument. In step S61, the specified value of the frequency information corresponding to the musical instrument type determined in step S50 is acquired. In this case, since the frequency information can be acquired without performing signal processing on the sound signal, the processing load on the CPU 11 is smaller.

別の実施形態においては、更に、メイン出力又はモニタ出力への出力用に2chステレオ音信号に混合された混合音信号の周波数‐定位分布の表示物が、入力ch120毎の表示物21a〜21f(31a〜31f、41a〜41f)に重ねて表示されてもよい。その場合、CPU11は、先ず、前記ステップS1で、更に、メイン出力又はモニタ出力用の出力ch140若しくはキューch160の混合音信号の周波数情報を取得し、それから、前記ステップS2で、更に、該メイン出力又はモニタ出力用の出力ch140若しくはキューch160の混合音信号の定位情報を取得し、そして、前記ステップS3で、更に、該取得した周波数情報と定位情報に基づいて、該メイン出力又はモニタ出力用の出力ch140若しくはキューch160の混合音信号の周波数‐定位分布を示す表示物を、入力ch120毎の表示物21a〜21f(31a〜31f、41a〜41f)に重ねて表示する。図19は、前記図10の周波数‐定位分布表示画面20において、メイン出力又はモニタ出力用の出力ch140若しくはキューch160の混合音信号の周波数‐定位分布を示す表示物50を重ねて表示する例を示す。一例として、混合音信号の表示物50は、各入力ch120の表示物(図10の符号21a〜21f)の背後に表示される。これにより、ユーザは、例えば、各入力ch120の音信号が、混合後の混合音信号の中でどの位置に配置されるかなど、各入力ch120の音信号の位置(周波数軸及び定位軸上の位置)を混合後の混合音信号に対応付けて把握できる。これにより、ミキシング操作(特に音の分離感を作る操作)を効果的に補助できる。なお、混合音信号の定位情報は、例えば、メイン出力又はモニタ出力用の出力ch140若しくはキューch160の混合音信号に対する信号処理(例えば2chステレオの各ch毎の音量差を算出する処理)により取得してよい。 In another embodiment, the frequency-localization distribution display of the mixed sound signal mixed with the 2ch stereo sound signal for output to the main output or the monitor output is further displayed as display 21a to 21f for each input ch 120 ( 31a to 31f, 41a to 41f) may be superimposed and displayed. In that case, the CPU 11 first acquires the frequency information of the mixed sound signal of the output ch140 or the cue ch160 for the main output or the monitor output in the step S1, and then further in the step S2, the main output. Alternatively, the localization information of the mixed sound signal of the output ch140 or the cue ch160 for the monitor output is acquired, and in the step S3, further, based on the acquired frequency information and the localization information, the main output or the monitor output is used. A display indicating the frequency-localization distribution of the mixed sound signal of the output ch 140 or the cue ch 160 is superimposed on the displays 21a to 21f (31a to 31f, 41a to 41f) for each input ch 120. FIG. 19 shows an example in which the display object 50 showing the frequency-localization distribution of the mixed sound signal of the output ch140 or the cue ch160 for the main output or the monitor output is superimposed and displayed on the frequency-localization distribution display screen 20 of FIG. show. As an example, the display object 50 of the mixed sound signal is displayed behind the display objects (reference numerals 21a to 21f in FIG. 10) of each input ch 120. As a result, the user can use the position (on the frequency axis and localization axis) of the sound signal of each input ch 120, such as where the sound signal of each input ch 120 is arranged in the mixed sound signal after mixing. The position) can be grasped in association with the mixed sound signal after mixing. As a result, the mixing operation (particularly the operation of creating a feeling of sound separation) can be effectively assisted. The localization information of the mixed sound signal is acquired by, for example, signal processing for the mixed sound signal of the output ch140 or the cue ch160 for the main output or the monitor output (for example, the process of calculating the volume difference for each channel of 2ch stereo). It's okay.

更に別の実施形態において、周波数‐定位分布表示画面20は、周波数方向軸(上下軸)及び定位方向軸(左右軸)に加えて、奥行き軸を持つ3次元座標からなってよい。この場合、CPU11は、前記ステップS3において、さらに、例えばi番目の入力ch120の音量に基づいて、i番目の入力ch120の表示物の奥行きを決定し、該決定した奥行きを持つ表示物を表示する。この場合、各入力ch120の音量を、表示物の奥行きにより表現できる。音量の大小は、周波数‐定位分布に関しては、定位の広がり感に加えて、奥行き感にも影響する。従って、表示物の奥行きで音量を表すことで、定位の広がり感、更には、定位の奥行き感を視覚化することができる。定位の奥行き感の視覚化という点に関する別の例として、CPU11は、前記ステップS3において、さらに、例えばi番目の入力ch120のリバーブ等の空間系エフェクタのパラメータ値に基づいて、i番目の入力ch120の表示物の奥行きを決定し、表示物の奥行きにより、定位の奥行き感を視覚化してもよい。 In yet another embodiment, the frequency-localization distribution display screen 20 may consist of three-dimensional coordinates having a depth axis in addition to the frequency direction axis (vertical axis) and the localization direction axis (left and right axis). In this case, in step S3, the CPU 11 further determines the depth of the display object of the i-th input ch 120 based on, for example, the volume of the i-th input ch 120, and displays the display object having the determined depth. .. In this case, the volume of each input ch 120 can be expressed by the depth of the displayed object. Regarding the frequency-localization distribution, the volume level affects not only the sense of spaciousness of localization but also the sense of depth. Therefore, by expressing the volume by the depth of the displayed object, it is possible to visualize the sense of spaciousness of localization and the sense of depth of localization. As another example regarding the visualization of the sense of depth of localization, the CPU 11 further, in step S3, further, based on the parameter value of the spatial effector such as the reverb of the i-th input ch120, the i-th input ch120. The depth of the display object may be determined, and the sense of depth of localization may be visualized by the depth of the display object.

また、別の実施形態において、前記ステップS13、S14などにおいて音量及び/又は音域に応じた定位の広がり感を視覚化する方法は、音量及び/又は音域に応じて表示物の幅を調節することに限らず、例えば表示物の大きさ(面積)を変えること、表示物の表示色の濃淡を変えることなど、音量及び/又は音域に応じた定位の広がり感の違いを視覚化できさえすれば、どのような方法であってもよい。 Further, in another embodiment, in the steps S13, S14 and the like, the method of visualizing the sense of spread of localization according to the volume and / or the range is to adjust the width of the display object according to the volume and / or the range. Not limited to, for example, changing the size (area) of the displayed object, changing the shade of the display color of the displayed object, etc., as long as the difference in the sense of spread of localization according to the volume and / or range can be visualized. , Any method may be used.

なお、別の実施形態において、前記ステップS13、S14など表示物21(31、41)の幅を決定(又は調節)する処理は、表示物21(31、41)の幅を示す値を決定(又は調節)することに限らず、表示物21(31、41)の幅に相当するパラメータ、すなわち分布情報Giに基づく定位の分布を音量や音域に応じて展開(拡張又は減縮)することであってよい。その場合、CPU11は、ステップS16(S24,S36)の表示処理において、前記展開(拡張又は減縮)した定位の分布に応じた幅で表示物21(31、41)を表示する。 In another embodiment, the process of determining (or adjusting) the width of the display object 21 (31, 41) such as steps S13 and S14 determines a value indicating the width of the display object 21 (31, 41) ( It is not limited to (or adjustment), but is to expand (expand or reduce) the parameter corresponding to the width of the display object 21 (31, 41), that is, the localization distribution based on the distribution information Gi according to the volume and range. You can. In that case, in the display process of step S16 (S24, S36), the CPU 11 displays the display object 21 (31, 41) with a width corresponding to the distribution of the expanded (expanded or reduced) localization.

また、別の実施形態において、前記図7の処理対象は、1つの入力120に限らず、複数の入力ch120a〜120nのうち一部をグループにまとめた入力chグループであってもよい。この場合、例えば、前記図7の処理では、CPU11は、該入力chグループを構成する各入力120の周波数情報及び定位情報を取得し(前記ステップS1、S2)、該入力chグループを構成する各入力120の表示物を同じ色で表示する(前記ステップS3)。これにより、ユーザは、複数の表示物21a〜21f(31a〜31f、41a〜41f)のうち、同じ色の複数の表示物21(31、41)を、1つの入力chグループに属する各入力ch120に対応する表示物21(31、41)として、識別できる。別の例として、前記図7の処理では、CPU11は、1つの入力chグループに属する各入力ch120の音信号を混合した結果(1つの入力chグループの混合音信号)に対して前記図7の処理を行い、1つの入力chグループに対応して1つの表示物21(31、41)を表示するようにしてもよい。 Further, in another embodiment, the processing target of FIG. 7 is not limited to one input 120, but may be an input ch group in which a part of a plurality of input ch 120a to 120n is grouped. In this case, for example, in the process of FIG. 7, the CPU 11 acquires frequency information and localization information of each input 120 constituting the input ch group (steps S1 and S2), and each of the input ch groups is composed of the input ch group. The display object of the input 120 is displayed in the same color (step S3). As a result, the user can use the plurality of display objects 21 (31, 41) of the same color among the plurality of display objects 21a to 21f (31a to 31f, 41a to 41f) for each input ch120 belonging to one input ch group. Can be identified as the display object 21 (31, 41) corresponding to. As another example, in the process of FIG. 7, the CPU 11 has the result of mixing the sound signals of each input ch 120 belonging to one input ch group (mixed sound signal of one input ch group) with respect to the sound signal of FIG. The process may be performed to display one display object 21 (31, 41) corresponding to one input channel group.

なお、別の実施形態として、CPU11は、ユーザからの表示指示に応じて、1回だけ1番目からN番目の各入力ch120に対する図7の処理を行うようにしてもよい。つまり、この場合、CPU11は、各入力ch120に入力される音信号の周波数‐定位分布を略リアルタイムで描画することは行わず、或るタイミング(例えばユーザの表示指示時)でのみ、周波数情報及び定位情報を取得し、該取得した周波数情報及び定位情報に基づく表示物21a〜21f(31a〜31f、41a〜41f)の描画を行う。この場合、CPU11は、例えばパラメータの値操作毎に、1番目からN番目の各入力ch120に対する図7の処理を行い、各表示物21a〜21f(31a〜31f、41a〜41f)の表示を更新してよい。一例として、EQ123、ダイナミクス124あるいはパン127など、音信号の分離感に影響の大きい特定のパラメータ値操作があった場合にのみ、CPU11が表示更新を行うようにしてよい。 As another embodiment, the CPU 11 may perform the process of FIG. 7 for each of the first to Nth input channels 120 only once in response to a display instruction from the user. That is, in this case, the CPU 11 does not draw the frequency-localization distribution of the sound signal input to each input ch 120 in substantially real time, and the frequency information and the frequency information and the frequency information and the localization distribution are performed only at a certain timing (for example, at the time of the user's display instruction). Localization information is acquired, and displays 21a to 21f (31a to 31f, 41a to 41f) are drawn based on the acquired frequency information and localization information. In this case, for example, the CPU 11 performs the processing of FIG. 7 for each of the first to Nth input channels 120 for each parameter value operation, and updates the display of each display object 21a to 21f (31a to 31f, 41a to 41f). You can do it. As an example, the CPU 11 may update the display only when there is a specific parameter value operation such as EQ 123, dynamics 124, or pan 127, which has a large effect on the sense of separation of sound signals.

以上、この発明の一実施形態を説明したが、この発明は上記実施形態に限定されるものではなく、特許請求の範囲、及び、明細書と図面に記載された技術的思想の範囲内において種々の変形が可能である。 Although one embodiment of the present invention has been described above, the present invention is not limited to the above-described embodiment, and varies within the scope of claims and the technical ideas described in the specification and drawings. Can be transformed.

例えば、音処理装置1は、ミキサ10に限らず、レコーダ、アンプ、プロセッサ等に適用できる。また、音処理装置1は、図1に示す各部2〜6の動作を実行するように構成された専用ハードウェア装置(集積回路等)からなっていてもよい。また、音処理装置1は、図1に示す各部2〜6の動作を行なうためのプログラムを実行する機能を持つプロセッサ装置により構成されてよい。 For example, the sound processing device 1 can be applied not only to the mixer 10 but also to a recorder, an amplifier, a processor and the like. Further, the sound processing device 1 may include a dedicated hardware device (integrated circuit or the like) configured to execute the operations of the respective units 2 to 6 shown in FIG. Further, the sound processing device 1 may be configured by a processor device having a function of executing a program for performing the operations of the respective units 2 to 6 shown in FIG.

また、本発明は、パーソナルコンピュータ上で実行される、Cubase(登録商標)、ProTools(登録商標)等のDAW(デジタル・オーディオ・ワークステーション)ソフトウェアアプリケーションや、或いは、ビデオ編集ソフトウェアアプリケーションに適用され得る。 The present invention may also be applied to DAW (Digital Audio Workstation) software applications such as Cubase®, Pro Tools®, or video editing software applications that are run on a personal computer. ..

また、この発明は、図1の音処理装置1の動作を行うための表示方法の発明として、構成及び実施されてもよい。また、前記方法を構成する各ステップを、コンピュータに実行させるプログラムの発明として、構成及び実施されてもよい。 Further, the present invention may be configured and implemented as an invention of a display method for performing the operation of the sound processing device 1 of FIG. Further, each step constituting the method may be configured and implemented as an invention of a program for causing a computer to execute the steps.

1 音処理装置、2 チャンネル、3 バス、4 第1取得部、5 第2取得部、6 表示部、10 デジタルミキサ、11 CPU、12 メモリ、13 表示I/F、14 操作子I/F、15 信号処理装置、16 波形I/F、17 通信バス、18 ディスプレイ、19 操作子、110 入力パッチ、120 入力チャンネル、130 バス、140 出力チャンネル、150 キューバス、160 キュー出力チャンネル、170 出力パッチ 1 Sound processor, 2 channels, 3 buses, 4 1st acquisition unit, 5 2nd acquisition unit, 6 display unit, 10 digital mixer, 11 CPU, 12 memory, 13 display I / F, 14 operator I / F, 15 signal processor, 16 waveform I / F, 17 communication bus, 18 display, 19 controls, 110 input patch, 120 input channel, 130 bus, 140 output channel, 150 cubic bus, 160 queue output channel, 170 output patch

Claims (13)

それぞれ、入力された音信号を信号処理する複数のチャンネルと、
前記複数のチャンネルで信号処理された音信号を混合して、混合後の混合音信号を出力するバスと、
前記チャンネル毎に、前記バスで混合される前の音信号の周波数帯域を示す周波数情報を取得する周波数情報取得手段と、
前記チャンネル毎に、前記バスで混合される前の音信号の定位を示す定位情報を取得する定位情報取得手段と、
前記取得した周波数情報及び定位情報に基づいて前記音信号の周波数及び定位の分布を示す表示物をディスプレイに表示する表示制御手段であって、前記複数のチャンネルのそれぞれに対応する複数の前記表示物を1つの表示画面内に表示する前記表示制御手段と、
前記バスで混合された音信号を信号処理し、処理結果を出力するバスチャンネル
を備え
前記周波数情報取得手段は、更に、前記バスチャンネルの音信号の周波数情報を取得し、
前記定位情報取得手段は、更に、前記バスチャンネルの音信号の定位情報を取得し、
前記表示制御手段は、前記バスチャンネルの音信号の周波数情報及び定位情報に基づく該バスチャンネルの音信号の周波数及び定位分布を示す表示物を、前記チャンネル毎の表示物に重ねて表示することを特徴とする音処理装置。
Each has multiple channels that process the input sound signal, and
A bus that mixes sound signals that have been signal-processed on the plurality of channels and outputs the mixed sound signal after mixing,
For each of the channels, a frequency information acquisition means for acquiring frequency information indicating the frequency band of the sound signal before being mixed by the bus, and
Localization information acquisition means for acquiring localization information indicating the localization of sound signals before being mixed by the bus for each of the channels.
A display control means for displaying a display indicating the frequency and localization distribution of the sound signal on a display based on the acquired frequency information and localization information, and a plurality of the display objects corresponding to each of the plurality of channels. It said display control means for displaying on a single display screen,
A bus channel that processes the sound signal mixed by the bus and outputs the processing result is provided .
The frequency information acquisition means further acquires frequency information of the sound signal of the bus channel, and obtains the frequency information.
The localization information acquisition means further acquires localization information of the sound signal of the bus channel.
The display control means superimposes a display object showing the frequency and localization distribution of the sound signal of the bus channel based on the frequency information and the localization information of the sound signal of the bus channel on the display object for each channel. sound processor shall be the feature.
前記周波数情報取得手段は、前記チャンネル毎に、そのチャンネルの音信号に対する周波数分析処理を行うことにより、前記周波数情報を取得することを特徴とする請求項1に記載の音処理装置。 The sound processing apparatus according to claim 1, wherein the frequency information acquisition means acquires the frequency information by performing frequency analysis processing on the sound signal of the channel for each channel. 前記周波数情報取得手段は、前記チャンネル毎に、そのチャンネルに入力されている音信号に対応する楽器種類を判別し、該判別した楽器種類に応じた前記周波数情報を取得することを特徴とする請求項1に記載の音処理装置。 The frequency information acquisition means is characterized in that, for each of the channels, the type of musical instrument corresponding to the sound signal input to the channel is discriminated, and the frequency information corresponding to the discriminated musical instrument type is acquired. Item 1. The sound processing apparatus according to item 1. 前記周波数情報取得手段は、そのチャンネルの音信号に対する楽器種類判別処理により、前記楽器種類の判別を行うことを特徴とする請求項3に記載の音処理装置。 The sound processing apparatus according to claim 3, wherein the frequency information acquisition means discriminates the musical instrument type by the musical instrument type discriminating process for the sound signal of the channel. 前記周波数情報取得手段は、そのチャンネルに設定されたチャンネル情報に基づいて前記楽器種類を判別することを特徴とする請求項3に記載の音処理装置。 The sound processing device according to claim 3, wherein the frequency information acquisition means determines the musical instrument type based on the channel information set for the channel. 前記定位情報取得手段は、前記チャンネル毎の音信号の定位情報を、音量差により定位を決定するパンのパラメータ値に基づき取得することを特徴とする請求項1乃至5の何れかに記載の音処理装置。 The sound according to any one of claims 1 to 5, wherein the localization information acquisition means acquires localization information of a sound signal for each channel based on a pan parameter value for determining localization based on a volume difference. Processing equipment. 前記定位情報取得手段は、チャンネル毎の音信号の定位情報を、時間差により定位を決定する遅延パンのパラメータ値に基づき取得することを特徴とする請求項1乃至5の何れかに記載の音処理装置。 The sound processing according to any one of claims 1 to 5, wherein the localization information acquisition means acquires localization information of a sound signal for each channel based on a parameter value of a delay pan that determines localization by a time difference. Device. 前記表示制御手段は、更に、前記チャンネル毎の音信号の音量に応じて、そのチャンネルの表示物の大きさを調節することを特徴とする請求項1乃至7の何れかに記載の音処理装置。 The sound processing apparatus according to any one of claims 1 to 7, wherein the display control means further adjusts the size of a display object of the channel according to the volume of the sound signal for each channel. .. 前記表示制御手段は、更に、前記チャンネル毎の音信号の音域に応じて、そのチャンネルの表示物の大きさを調節することを特徴とする請求項1乃至8の何れかに記載の音処理装置。 The sound processing apparatus according to any one of claims 1 to 8, wherein the display control means further adjusts the size of a display object of the channel according to the range of the sound signal for each channel. .. 前記表示制御手段は、前記表示物をチャンネル毎に異なる表示態様で表示することを特徴とする請求項1乃至9の何れかに記載の音処理装置。 The sound processing device according to any one of claims 1 to 9, wherein the display control means displays the display object in a display mode different for each channel. 前記表示制御手段は、複数のチャンネルの表示物が重なる部分を、その他の部分とは異なる表示態様で表示することを特徴とする請求項1乃至10の何れかに記載の音処理装置。 The sound processing device according to any one of claims 1 to 10, wherein the display control means displays a portion in which display objects of a plurality of channels overlap in a display mode different from that of the other portions. 前記表示制御手段は、前記バスへの出力がオフされているチャンネルの前記表示物を、同出力がオンされているときとは異なる表示態様で表示することを特徴とする請求項1乃至11の何れかに記載の音処理装置。 The display control means according to claim 1 to 11, wherein the display object of the channel whose output to the bus is turned off is displayed in a display mode different from that when the output to the bus is turned on. The sound processing device according to any one. 複数のチャンネルそれぞれで、入力された音信号を信号処理するステップと、
前記複数のチャンネルで信号処理された音信号をバスで混合して、該混合後の音信号を出力するステップと、
前記チャンネル毎に、前記バスで混合される前の音信号の周波数帯域を示す周波数情報を取得するステップと、
前記チャンネル毎に、前記バスで混合される前の音信号の定位を示す定位情報を取得するステップと、
前記取得した周波数情報及び定位情報に基づいて前記音信号の周波数及び定位の分布を示す表示物をディスプレイに表示するステップであって、前記複数のチャンネルのそれぞれに対応する複数の前記表示物を1つの表示画面内に表示する前記ステップと、
前記バスで混合された音信号をバスチャンネルに入力して信号処理するステップと、
前記バスチャンネルから出力される音信号の周波数情報を取得するステップと、
前記バスチャンネルから出力される音信号の定位情報を取得するステップと、
前記バスチャンネルから出力される音信号の周波数情報及び定位情報に基づく該バスチャンネルの音信号の周波数及び定位分布を示す表示物を、前記1つの表示画面内において前記チャンネル毎の表示物に重ねて表示するステップ
を備える表示方法。
Steps to process the input sound signal on each of multiple channels,
A step of mixing the sound signals processed by the plurality of channels on a bus and outputting the mixed sound signals.
For each of the channels, a step of acquiring frequency information indicating the frequency band of the sound signal before being mixed by the bus, and
For each of the channels, a step of acquiring localization information indicating the localization of the sound signal before being mixed by the bus, and
It is a step of displaying a display object showing the frequency and localization distribution of the sound signal on the display based on the acquired frequency information and localization information, and a plurality of the display objects corresponding to each of the plurality of channels are displayed as one. said step of displaying on One of the display screen,
The step of inputting the sound signal mixed by the bus to the bus channel and processing the signal,
The step of acquiring the frequency information of the sound signal output from the bus channel,
The step of acquiring the localization information of the sound signal output from the bus channel, and
A display object showing the frequency and localization distribution of the sound signal of the bus channel based on the frequency information and localization information of the sound signal output from the bus channel is superimposed on the display object for each channel in the one display screen. A display method that includes steps to display.
JP2017140323A 2017-07-19 2017-07-19 Sound processing device and display method Active JP6915422B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017140323A JP6915422B2 (en) 2017-07-19 2017-07-19 Sound processing device and display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017140323A JP6915422B2 (en) 2017-07-19 2017-07-19 Sound processing device and display method

Publications (2)

Publication Number Publication Date
JP2019022128A JP2019022128A (en) 2019-02-07
JP6915422B2 true JP6915422B2 (en) 2021-08-04

Family

ID=65354375

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017140323A Active JP6915422B2 (en) 2017-07-19 2017-07-19 Sound processing device and display method

Country Status (1)

Country Link
JP (1) JP6915422B2 (en)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4426159B2 (en) * 2002-08-28 2010-03-03 ヤマハ株式会社 Mixing equipment
JP5434784B2 (en) * 2010-05-06 2014-03-05 ヤマハ株式会社 Mixing equipment
KR101950529B1 (en) * 2011-02-24 2019-02-20 렉시스넥시스, 어 디비젼 오브 리드 엘서비어 인크. Methods for electronic document searching and graphically representing electronic document searches
JP2013172231A (en) * 2012-02-20 2013-09-02 Yamaha Corp Audio mixing device

Also Published As

Publication number Publication date
JP2019022128A (en) 2019-02-07

Similar Documents

Publication Publication Date Title
US9584940B2 (en) Wireless exchange of data between devices in live events
WO2017057530A1 (en) Audio processing device and audio processing method
US20150271618A1 (en) Device and method for playing sound
EP2485218B1 (en) Graphical audio signal control
WO2022248729A1 (en) Stereophonic audio rearrangement based on decomposed tracks
JP5200434B2 (en) Sound setting support device
US20120109645A1 (en) Dsp-based device for auditory segregation of multiple sound inputs
US9712268B2 (en) Level control apparatus and storage medium
US20130322654A1 (en) Audio signal processing device and program
JP6915422B2 (en) Sound processing device and display method
JP2009260787A (en) Control unit
US10158439B2 (en) Level control apparatus and storage medium
US9445210B1 (en) Waveform display control of visual characteristics
Valente et al. Comparing perceived auditory width to the visual image of a performing ensemble in contrasting bi-modal environments
US10270551B2 (en) Mixing console with solo output
JP2013172231A (en) Audio mixing device
EP4036915A1 (en) Acoustic treatment method and acoustic treatment system
JP2016174225A (en) Display controller and mixing console
JP2004088608A (en) Mixing device
US9900719B2 (en) Level setting apparatus and storage medium
JP7408955B2 (en) Sound signal processing method, sound signal processing device and program
US11188186B2 (en) Part display apparatus, electronic music apparatus, and part display method
JP2019140503A (en) Information processing device, information processing method, and information processing program
US20150261855A1 (en) Audio system and audio signal processing device
JP2017138522A (en) Music piece performing device, music piece performance program, and music piece performance method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200526

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210330

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210413

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210601

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210615

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210628

R151 Written notification of patent or utility model registration

Ref document number: 6915422

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151