WO2018061720A1 - ミキサ、ミキサの制御方法およびプログラム - Google Patents

ミキサ、ミキサの制御方法およびプログラム Download PDF

Info

Publication number
WO2018061720A1
WO2018061720A1 PCT/JP2017/032609 JP2017032609W WO2018061720A1 WO 2018061720 A1 WO2018061720 A1 WO 2018061720A1 JP 2017032609 W JP2017032609 W JP 2017032609W WO 2018061720 A1 WO2018061720 A1 WO 2018061720A1
Authority
WO
WIPO (PCT)
Prior art keywords
user
parameters
unit
setting
scene memory
Prior art date
Application number
PCT/JP2017/032609
Other languages
English (en)
French (fr)
Inventor
岡林 昌明
Original Assignee
ヤマハ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ヤマハ株式会社 filed Critical ヤマハ株式会社
Priority to CN201780049449.9A priority Critical patent/CN109565631B/zh
Priority to JP2018542337A priority patent/JP6693569B2/ja
Publication of WO2018061720A1 publication Critical patent/WO2018061720A1/ja
Priority to US16/366,196 priority patent/US10536231B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/02Arrangements for generating broadcast information; Arrangements for generating broadcast-related information with a direct linking to broadcast information or to broadcast space-time; Arrangements for simultaneous generation of broadcast information and broadcast-related information
    • H04H60/04Studio equipment; Interconnection of studios
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/165Management of the audio stream, e.g. setting of volume, audio stream path
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/46Volume control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2420/00Details of connection covered by H04R, not provided for in its groups
    • H04R2420/01Input selection or mixing for amplifiers or loudspeakers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2430/00Signal processing covered by H04R, not provided for in its groups
    • H04R2430/01Aspects of volume control, not necessarily automatic, in sound systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/11Positioning of individual sound objects, e.g. moving airplane, within a sound field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/13Aspects of volume control, not necessarily automatic, in stereophonic sound systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/15Aspects of sound capture and related signal processing for recording or reproduction

Definitions

  • Embodiments of the present invention relate to a mixer, a control method for the mixer, and a program.
  • the values of various parameters such as volume are determined by the user operating various controls on the operation panel.
  • the audio mixer includes a scene memory for storing various parameter values.
  • the user can immediately call a value set in the past simply by instructing to call the scene memory.
  • the user can immediately call an optimum value for each scene set, for example, during a concert rehearsal.
  • Such a reproduction operation is called “scene recall”.
  • the audio mixer may be equipped with a recall safe function for excluding some parameters from the scene recall target.
  • the mixing system of Patent Document 1 displays current data, which is the current setting state, on the display unit.
  • current data which is the current setting state
  • the current data is stored in the scene memory, but when recalling a scene, only the data of the parameter group not designated as recall safe is recalled. It has become.
  • the range that the user wants to recall may change depending on the situation. For example, there is a case where the user recalls only the output side and wants to adjust the input side on the spot.
  • an object of one embodiment of the present invention is to provide a mixer, a mixer control method, and a program capable of setting a recall range more flexibly than in the past.
  • the mixer includes a storage unit, a reception unit, a user-defined scene memory setting unit, a setting change unit, a storage processing unit, and a recall processing unit.
  • the reception unit receives designation of some parameters among the plurality of parameters.
  • the storage unit stores setting values of a plurality of parameters.
  • the user-defined scene memory setting unit stores some parameters received by the receiving unit in the storage unit as a user-defined scene memory for each scene.
  • the setting change unit receives an operation for changing a current setting of the plurality of parameters.
  • the storage processing unit stores the setting values of the several parameters changed by the setting changing unit in the current data storage unit.
  • the recall range can be set more flexibly than in the past.
  • FIG. 3 is an equivalent block diagram of signal processing performed by a signal processing unit 14, an audio I / O 13, and a CPU 18. It is a figure which shows the processing structure of a certain input channel i. 2 is a diagram illustrating a configuration of an operation panel of the audio mixer 1.
  • FIG. 5A is a diagram illustrating an example of a user-defined scene memory list screen
  • FIG. 5B is a diagram illustrating another example of a user-defined scene memory list screen. It is a flowchart which shows operation
  • FIG. 5A is a diagram illustrating an example of a user-defined scene memory list screen
  • FIG. 5B is a diagram illustrating another example of a user-defined scene memory list screen.
  • FIG. 10A is a diagram showing a setting screen for Mon
  • FIG. 10B is a diagram showing a sub screen for the input channel 1.
  • FIG. 12 is a diagram illustrating an Out setting screen. It is a figure which shows the user-defined scene memory for Out (output). It is a flowchart which shows operation
  • FIG. 1 is a block diagram showing the configuration of an audio mixer (mixer) 1.
  • the audio mixer 1 includes a display 11, an operation unit 12, an audio I / O (Input / Output) 13, a signal processing unit 14, a PC_I / O 15, MIDI_I / O 16, other_I / O 17, a CPU 18, and a flash memory 19. , And a RAM 20.
  • the display 11, operation unit 12, audio I / O 13, signal processing unit 14, PC_I / O 15, MIDI_I / O 16, other_I / O 17, CPU 18, flash memory 19, and RAM 20 are connected to each other via a bus 25. Yes.
  • the audio I / O 13 and the signal processing unit 14 are also connected to a waveform bus 27 for transmitting a digital audio signal.
  • the audio I / O 13 is an interface for receiving an input of a sound signal to be processed by the signal processing unit 14.
  • the audio I / O 13 is provided with an analog input port or a digital input port for receiving an input of a sound signal.
  • the audio I / O 13 is an interface for outputting a sound signal processed by the signal processing unit 14.
  • the audio I / O 13 is provided with an analog output port or a digital output port for outputting a sound signal.
  • PC_I / O15, MIDI_I / O16, and other_I / O17 are interfaces for connecting various external devices and inputting / outputting them.
  • an external PC is connected to the PC_I / O 15.
  • a MIDI-compatible device such as a physical controller or an electronic musical instrument is connected to the MIDI_I / O 16.
  • a display is connected to the other _I / O 17.
  • a UI (User Interface) device such as a mouse or a keyboard is connected to the other _I / O 17.
  • Any standard such as Ethernet (registered trademark) or USB (Universal Serial Bus) can be adopted as a standard used for communication with an external device.
  • the connection mode may be wired or wireless.
  • the CPU (computer) 18 is a control unit that controls the operation of the audio mixer 1.
  • the CPU 18 performs various operations by reading a predetermined program stored in the flash memory 19 serving as a storage unit into the RAM 20.
  • the CPU 18 functions as a user-defined scene memory setting unit 181, a setting change unit 182, a storage processing unit 183, and a recall processing unit 184 according to the program.
  • the CPU 18 also functions as a reception unit 185 that receives designation of some of the plurality of parameters by the program.
  • the display 11 displays various information according to the control of the CPU 18.
  • the display 11 is configured by, for example, an LCD or a light emitting diode (LED).
  • the operation unit 12 receives an operation on the audio mixer 1 from the user.
  • the operation unit 12 includes various keys, buttons, a rotary encoder, a slider, and the like.
  • the operation unit 12 may be configured by a touch panel stacked on the LCD that is the display 11.
  • the signal processing unit 14 includes a plurality of DSPs for performing various signal processing such as mixing processing or effect processing.
  • the signal processing unit 14 performs effect processing such as mixing or equalizing on the sound signal supplied from the audio I / O 13 via the waveform bus 27.
  • the signal processing unit 14 outputs the digital audio signal after the signal processing to the audio I / O 13 again via the waveform bus 27.
  • FIG. 2 is an equivalent block diagram of signal processing performed by the signal processing unit 14, the audio I / O 13, and the CPU 18. As shown in FIG. 2, signal processing is functionally performed by an input patch 301, an input channel 302, a bus 303, an output channel 304, and an output patch 305.
  • the input patch 301 inputs audio signals from a plurality of input ports (for example, analog input ports or digital input ports) in the audio I / O 13, and any one of the plurality of ports is set to a plurality of channels (for example, 32ch). To at least one channel. As a result, an audio signal is supplied to each channel of the input channel 302.
  • a plurality of input ports for example, analog input ports or digital input ports
  • a plurality of channels for example, 32ch
  • FIG. 3 is a diagram showing a processing configuration of an input channel i.
  • each channel of the input channel 302 is a signal such as an attenuator (ATT), an equalizer (EQ), a gate (GATE), or a compressor (COMP) with respect to the audio signal supplied from the input patch 301.
  • ATT attenuator
  • EQ equalizer
  • GATE gate
  • COMP compressor
  • the audio signal after the signal processing is level-adjusted by a fader unit (FADER) 352 and then sent to the subsequent bus 303 via the pan unit (PAN) 353.
  • the pan unit 353 adjusts the balance of signals supplied to the stereo bus of the bus 303 (a two-channel bus serving as a master output).
  • the selector 354 causes the sending unit 355 in the subsequent stage to input either a signal output from the signal processing block 351 or a signal whose level is adjusted by the fader unit 352 according to a user's selection operation. be able to.
  • the audio signal after the signal processing is level-adjusted by the sending unit (SEND) 355 via the selector (SEL) 354 and then sent to the bus 303 at the subsequent stage.
  • the sending unit 355 can be switched by the user to supply a signal to each SEND bus of the bus 303.
  • the sending unit 355 adjusts the level of the signal supplied to each SEND bus according to each send level set by the user.
  • the output channel 304 has 16 channels, for example. Each channel in the output channel 304 performs various types of signal processing on the input audio signal as in the input channel. Each channel of the output channel 304 sends the audio signal after signal processing to the output patch 305. The output patch 305 assigns each channel to any one of a plurality of ports in the analog output port or the digital output port. Thus, the audio signal after the signal processing is supplied to the audio I / O 13.
  • the above signal processing is controlled based on the set values of various parameters.
  • the CPU 18 (user-defined scene memory setting unit 181) stores the current setting values (current data) of various parameters in the flash memory 19 or the RAM 20 that is a storage unit.
  • the CPU 18 (setting change unit 182) receives current data when the user operates the operation unit 12.
  • the CPU 18 (storage processing unit 183) updates the current data (stores it in the storage unit). Note that the current data may be stored in both the flash memory 19 and the RAM 20.
  • FIG. 4 is a diagram showing the configuration of the operation panel of the audio mixer 1.
  • a touch screen 51 On the operation panel of the audio mixer 1, as shown in FIG. 4, a touch screen 51, a channel strip 63, a layer selection switch 71, a store button 72, a recall button 73, an increase / decrease button 74, and the like are provided. These configurations correspond to the display 11 and the operation unit 12 shown in FIG.
  • the touch screen 51 is a display device 11 in which a touch panel which is an aspect of the operation unit 12 is stacked, and displays a GUI (Graphical User Interface) screen for receiving a user operation.
  • GUI Graphic User Interface
  • the channel strip 63 is an area in which a plurality of operators that accept operations for one channel are arranged vertically. In this figure, only one fader and one knob are displayed for each channel as an operator, but in reality, a large number of knobs or switches are provided. Of the channel strip 63, a plurality of (for example, 16) faders and knobs arranged on the left side correspond to input channels. Two faders and knobs arranged on the right side of the channel strip 63 are operators corresponding to the master output (two-channel bus).
  • Each fader and knob can switch the corresponding channel by operating the layer selection switch 71. For example, when the “Layer 1” switch is operated, the left 16 faders and knobs are assigned to the input channels 1-16. When the “Layer 2” switch is operated, the left 16 faders and knobs are assigned to the input channels 17 to 32.
  • the store button 72 is a button for instructing to store a scene.
  • the user can store (store) the current data in the flash memory 19 as one scene data by operating the store button 72.
  • the flash memory 19 stores a plurality of scene data. Further, the user can select a scene to be stored and recalled from a plurality of scenes by operating the increase / decrease button 74. By operating the recall button 73, the user can call (recall) the setting values of various parameters by calling the necessary scene data.
  • the audio mixer 1 of the present embodiment can set a user-defined scene memory in which the area to be stored and recalled is limited by the user selecting an arbitrary parameter.
  • FIG. 5A is a diagram showing an example of a user-defined scene memory list screen.
  • FIG. 5B is a diagram showing another example of a user-defined scene memory list screen.
  • FIG. 6 is a flowchart showing the operation of the CPU 18 (user-defined scene memory setting unit 181). When the user calls the scene memory, the CPU 18 displays a scene memory list screen as shown in FIG.
  • the scene memory according to the present embodiment includes an entire scene memory (All) for managing all parameters, and a user-defined scene memory with a limited parameter area to be managed.
  • the user-defined scene memory displays three names of FoH (Front of Hall), Mon (monitor), and Out (output).
  • FoH is used for managing sound output to the front of the venue.
  • Mon is used for managing the monitor sound output to the performer.
  • Out is used for effect management on the output side.
  • the audio mixer 1 performs reception processing, user-defined scene memory setting processing, setting change processing, and storage processing.
  • the accepting process accepts the parameters to assign some parameters selected by the user.
  • the user-defined scene memory setting process the received several parameters are stored in the storage unit as a user-defined scene memory for each scene.
  • the setting change process accepts an operation for changing the current settings of a plurality of parameters, and stores the changed setting values of some parameters in the storage unit.
  • a setting value of a parameter corresponding to the user-defined scene memory is called from the storage unit.
  • the recall process when the receiving unit 185 receives a call to a user-defined scene memory, the recall process calls several parameter setting values corresponding to the user-defined scene memory from the storage unit.
  • FIG. 5A when the user performs an operation of selecting, for example, FoH as a user-defined scene memory (S11), the CPU 18 displays a scene list screen shown in FIG. 5B. (S12). When the user selects a predetermined scene from the scene list screen (S13: Yes), the CPU 18 displays a setting screen as shown in FIG. 7 (S14).
  • FIG. 7 is a diagram showing an example of a setting screen for assigning parameters to the user-defined scene memory. On the setting screen, the user can select an input channel, an output channel, an effect (EF1, EF2, EF3...
  • the display 11 displays an image imitating a channel strip.
  • the user can select an input channel by selecting an image simulating these channel strips. Since the example of FIG. 7 is a setting screen of the user-defined scene memory of FoH, 32 input channels are displayed in the upper part of the display 11, and the effects (EF1, EF2, EF3,. .. The selected image of EF8) is displayed.
  • the CPU 18 assigns the selected parameter to the user-defined scene memory being set (S16). As a result, a predetermined parameter is assigned to the user-defined scene memory and stored in the storage unit. Finally, the CPU 18 confirms whether or not an instruction to end the setting is given from the user (S17), and when the instruction to end the setting is given (S17: Yes), the operation is finished.
  • the user has selected input channel 1. Therefore, the input channel 1 is assigned as the scene 1 to the user-defined scene memory of FoH and stored in the storage unit.
  • the CPU 18 displays a sub-setting screen for the input channel 1 shown in FIG.
  • the user can select an output destination (SEND bus or stereo bus) for the input channel 1 and an effect to be executed on the input channel 1 on the sub-setting screen shown in FIG.
  • the output destination and effect parameters for the input channel 1 are assigned to the user-defined scene memory of FoH.
  • the user selects the SEND CH1 to 4 buses and the stereo bus as output destinations, and selects ATT, EQ, GATE, and COMP effects.
  • the parameter setting values of the ATT, EQ, GATE, and COMP effects, and the fader level (FDR L) of the front stereo bus And parameter setting values of SEND level (SEND L) 1 to 4 are stored in the memory (flash memory 19 or RAM 20). Also, when the user gives a recall instruction, the parameter setting values for the ATT, EQ, GATE, and COMP effects, and the fader level (FDR L) and SEND level (SEND L) of the front stereo bus 4 is called and the current data is overwritten.
  • FIG. 10A shows a setting screen for assigning parameters to the user-defined scene memory for Mon.
  • 32 input channels are displayed in the upper part of the display 11, and a selection image of effects (EF1, EF2, EF3... EF8) is displayed in the lowermost column.
  • EF1, EF2, EF3... EF8 is displayed in the lowermost column.
  • the CPU 18 displays a sub-setting screen for the input channel 1 shown in FIG.
  • the user can select the SEND bus (CH1 to CH16) or the stereo bus as the output destination for the input channel 1 on the sub setting screen shown in FIG.
  • FIG. 12 shows a setting screen for assigning parameters to the user-defined scene memory for Out.
  • a plurality (eight in this example) of output channels are displayed on the display unit 11.
  • Each output channel displays an effect selection image.
  • selected images of ALL, ATT, GATE, COMP, and EQ are displayed for each output channel.
  • ALL is selected, all effects are selected.
  • the selection of the input channel is not displayed (cannot be assigned).
  • the user has selected ATT, GATE, and COMP for the output channel 1, for example.
  • the user can manage the effect for each input channel and the parameter of the output destination for the FoH by performing the assignment like the user-defined scene memory shown in FIG. Further, the user can manage the parameters of the output destination for each input channel for monitoring by performing assignment like the user-defined scene memory shown in FIG. Also, the user can manage only the effects on the output side by making assignments such as the user-defined scene memory shown in FIG.
  • the mode of selecting the parameter to be assigned for each scene is shown.
  • the parameter to be assigned may be determined not for each scene but for each user-defined scene memory.
  • the CPU 18 shifts to the setting screen shown in FIG.
  • FIG. 14 is a flowchart showing operations of recall (recall processing) and store (setting change processing and storage processing) of the user-defined scene memory.
  • FIG. 14 is a diagram showing the operation of the CPU 18 (the storage processing unit 183 and the recall processing unit 184) in the operation mode in which the audio mixer 1 performs signal processing, but the operation as the mixer (audio mixer 1) is stopped. In the configuration mode in which various configurations are constructed, the operation shown in FIG. 14 may be performed.
  • the CPU 18 (recall processing unit 184) reads the designated user-defined scene memory and assigns specific (several) parameters assigned.
  • the set value is read (called) from the storage unit (S22).
  • the CPU 18 changes the corresponding parameter setting value by overwriting the current data with the read specific parameter setting value (S23).
  • the CPU 18 (storage processing unit 183) overwrites the user-defined scene memory with the current data (S25). In this case, only parameter setting values assigned to the user-defined scene memory are overwritten, and parameter setting values not assigned are not overwritten. Thereafter, the CPU 18 confirms whether or not an instruction to end the operation has been given by the user (S26), and when the instruction to end the operation has been given (S26: Yes), the operation ends.
  • the audio mixer 1 of this embodiment includes a user-defined scene memory in addition to the entire scene memory.
  • the user can manage the scene memory only for necessary portions and adjust the parameter setting values according to the use or purpose.
  • the mixer (audio mixer) 1 of this embodiment only the setting values of some parameters assigned to the user-defined scene memory are called. Only the setting values of some parameters assigned to the user-defined scene memory are stored. Thus, the user can manage the scene memory according to the purpose or purpose, such as recall only on the input side or recall only on the output side.
  • each parameter setting value is stored in the flash memory 19 as entire scene data, and each user-defined scene memory stores only information indicating the link destination of the defined area for the entire scene data. It may be a mode to leave.
  • the CPU 18 reads only the parameter setting values of the defined area from the entire scene data, or overwrites only the parameter setting values of the defined area with respect to the entire scene data. Thereby, even when a user-defined scene memory is newly set, the amount of memory used is not increased.
  • the audio mixer 1 may further include a recall safe function for invalidating recall only for specific parameters in the user-defined scene memory.
  • a recall safe function for invalidating recall only for specific parameters in the user-defined scene memory.
  • Audio mixer DESCRIPTION OF SYMBOLS 11 ... Display 12 ... Operation part 14 ... Signal processing part 15 ... PC_I / O 16 ... MIDI_I / O 17 ... Others_I / O 18 ... CPU 181 ... User-defined scene memory setting unit 182 ... Setting change unit 183 ... Storage processing unit 184 ... Recall processing unit 185 ... Reception unit 19 ... Flash memory 20 ... RAM 25 ... Bus 27 ... Waveform bus 301 ... Input patch 302 ... Input channel 303 ... Bus 304 ... Output channel 305 ... Output patch 351 ... Signal processing block 352 ... Fader unit 353 ... Pan unit 354 ... Selector 355 ... Sending unit

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Circuit For Audible Band Transducer (AREA)

Abstract

ミキサは、記憶部と、受付部と、ユーザ定義シーンメモリ設定部と、設定変更部と、記憶処理部と、リコール処理部と、を備えている。受付部は、複数のパラメータのうち、いくつかのパラメータの指定を受け付ける。記憶部は、複数のパラメータの設定値を保存する。ユーザ定義シーンメモリ設定部は、受付部で受け付けたいくつかのパラメータをシーン毎にユーザ定義シーンメモリとして記憶部に記憶する。設定変更部は、複数のパラメータの現在の設定の変更操作を受け付ける。記憶処理部は、設定変更部で変更された前記いくつかのパラメータの設定値を前記カレントデータ記憶部に記憶する。リコール処理部は、受付部で前記ユーザ定義シーンメモリの呼び出しを受け付けた時、該ユーザ定義シーンメモリに対応する前記いくつかパラメータの設定値を記憶部から呼び出す。

Description

ミキサ、ミキサの制御方法およびプログラム
 この発明の一実施形態は、ミキサ、該ミキサの制御方法、およびプログラムに関する。
 オーディオミキサにおいては、ユーザが操作パネル上の各種操作子を操作することにより、音量等の各種パラメータの値が決定される。オーディオミキサにおいては、各種パラメータの値を記憶するシーンメモリを備えている。ユーザは、シーンメモリの呼び出しを指示するだけで、過去に設定した値を即座に呼び出すことができる。これにより、ユーザは、例えばコンサートのリハーサル中に設定したシーン毎に最適な値を即座に呼び出すことができる。この様な再現操作は、「シーンリコール」と呼ばれる。
 しかし、操作子の中には、その時々の状況に応じて操作量等を設定すべきものもある。したがって、オーディオミキサには、例えば特許文献1に示されるように、一部のパラメータをシーンリコールの対象から外すリコールセーフ機能が搭載されている場合がある。
 特許文献1のミキシングシステムは、現在の設定状態であるカレントデータを表示部に表示する。ユーザがカレントデータを1つのシーンとして保存する指示を行なうと、カレントデータは、シーンメモリに記憶されるが、シーンリコール時には、リコールセーフに指定されていないパラメータ群のデータのみがリコールされるようになっている。
特開2004-247898号公報
 ユーザは、その時々の状況に応じて、リコールしたい範囲が変わることがある。例えば、ユーザは、出力側だけリコールを行なって、入力側はその場で調整したい場合、等がある。
 しかし、従来のシーンメモリでは、カレントデータとして、全てのパラメータの設定値が保存されてしまう。リコールセーフ機能についても、リコールセーフの対象となったパラメータ設定値が呼び出されないだけであり、入力側だけのリコール、または出力側だけのリコール、等の処理を行なうことができない。
 そこで、この発明の一実施形態は、リコール範囲を従来よりも柔軟に設定することができるミキサ、ミキサの制御方法、およびプログラムを提供することを目的とする。
 ミキサは、記憶部と、受付部と、ユーザ定義シーンメモリ設定部と、設定変更部と、記憶処理部と、リコール処理部と、を備えている。受付部は、前記複数のパラメータのうち、いくつかのパラメータの指定を受け付ける。記憶部は、複数のパラメータの設定値を保存する。ユーザ定義シーンメモリ設定部は、前記受付部で受け付けたいくつかのパラメータをシーン毎にユーザ定義シーンメモリとして前記記憶部に記憶する。設定変更部は、前記複数のパラメータの現在の設定の変更操作を受け付ける。記憶処理部は、前記設定変更部で変更された前記いくつかのパラメータの設定値を前記カレントデータ記憶部に記憶する。リコール処理部は、前記受付部で前記ユーザ定義シーンメモリの呼び出しを受け付けた時、該ユーザ定義シーンメモリに対応する前記いくつかパラメータの設定値を前記記憶部から呼び出す。
 本発明の一実施形態によれば、リコール範囲を従来よりも柔軟に設定することができる。
オーディオミキサの構成を示すブロック図である。 信号処理部14、オーディオI/O13、およびCPU18で行われる信号処理の等価ブロック図である。 ある入力チャンネルiの処理構成を示す図である。 オーディオミキサ1の操作パネルの構成を示す図である。 図5(A)は、ユーザ定義シーンメモリの一覧画面の一例を示す図であり、図5(B)は、ユーザ定義シーンメモリの一覧画面の別の例を示す図である。 CPU18の動作を示すフローチャートである。 ユーザ定義シーンメモリにパラメータのアサインを行なうための設定画面を示す図である。 入力チャンネル1に対するサブ画面を示す図である。 FoH(Front of House)用のユーザ定義シーンメモリを示す図である。 図10(A)は、Mon用の設定画面を示す図であり、図10(B)は、入力チャンネル1に対するサブ画面を示す図である。 Mon(モニタ)用のユーザ定義シーンメモリを示す図である。 図12は、Out用の設定画面を示す図である。 Out(出力)用のユーザ定義シーンメモリを示す図である。 CPU18の動作を示すフローチャートである。
 図1は、オーディオミキサ(ミキサ)1の構成を示すブロック図である。オーディオミキサ1は、表示器11、操作部12、オーディオI/O(Input/Output)13、信号処理部14、PC_I/O15、MIDI_I/O16、その他(Other)_I/O17、CPU18、フラッシュメモリ19、およびRAM20を備
えている。
 表示器11、操作部12、オーディオI/O13、信号処理部14、PC_I/O15、MIDI_I/O16、その他_I/O17、CPU18、フラッシュメモリ19、およびRAM20は、互いにバス25を介して接続されている。また、オーディオI/O13および信号処理部14は、デジタルオーディオ信号を伝送するための波形バス27にも接続されている。
 オーディオI/O13は、信号処理部14で処理すべき音信号の入力を受け付けるためのインタフェースである。オーディオI/O13には、音信号の入力を受け付けるアナログ入力ポートまたはデジタル入力ポート等が設けられている。また、オーディオI/O13は、信号処理部14で処理された後の音信号を出力するためのインタフェースである。オーディオI/O13には、音信号を出力するアナログ出力ポートまたはデジタル出力ポート等が設けられている。
 PC_I/O15、MIDI_I/O16、およびその他_I/O17は、それぞれ、種々の外部機器を接続し、入出力を行うためのインタフェースである。PC_I/O15には、例えば外部のPCが接続される。MIDI_I/O16には、例えばフィジカルコントローラまたは電子楽器のようなMIDI対応機器が接続される。その他_I/O17には、例えばディスプレイが接続される。あるいは、その他_I/O17には、マウスまたはキーボード等のUI(User Interface)デバイスが接続される。外部機器との通信に用いる規格は、イーサネット(登録商標)、またはUSB(Universal Serial Bus)等、任意のものを採用することができる。接続態様は、有線でも無線でも構わない。
 CPU(コンピュータ)18は、オーディオミキサ1の動作を制御する制御部である。CPU18は、記憶部であるフラッシュメモリ19に記憶された所定のプログラムをRAM20に読み出すことにより各種の動作を行なう。CPU18は、当該プログラムにより、ユーザ定義シーンメモリ設定部181、設定変更部182、記憶処理部183、およびリコール処理部184として機能する。また、CPU18は、当該プログラムにより、複数のパラメータのうち、いくつかのパラメータの指定を受け付ける受付部185としても機能する。
 表示器11は、CPU18の制御に従って種々の情報を表示する。表示器11は、例えばLCDまたは発光ダイオード(LED)等によって構成される。
 操作部12は、ユーザからオーディオミキサ1に対する操作を受け付ける。操作部12は、種々のキー、ボタン、ロータリーエンコーダ、またはスライダ等によって構成される。また、操作部12は、表示器11であるLCDに積層したタッチパネルによって構成される場合もある。
 信号処理部14は、ミキシング処理またはエフェクト処理等の各種信号処理を行なうための複数のDSPから構成される。信号処理部14は、オーディオI/O13から波形バス27を介して供給される音信号に、ミキシングまたはイコライジング等のエフェクト処理を施す。信号処理部14は、信号処理後のデジタルオーディオ信号を、波形バス27を介して再びオーディオI/O13に出力する。
 図2は、信号処理部14、オーディオI/O13、およびCPU18で行われる信号処理の等価ブロック図である。図2に示すように、信号処理は、機能的に、入力パッチ301、入力チャンネル302、バス303、出力チャンネル304、および出力パッチ305によって行なわれる。
 入力パッチ301は、オーディオI/O13における複数の入力ポート(例えばアナログ入力ポートまたはデジタル入力ポート)からオーディオ信号を入力して、複数のポートのうちいずれか1つのポートを、複数チャンネル(例えば32ch)の少なくとも1つのチャンネルに割り当てる。これにより、オーディオ信号が入力チャンネル302の各チャンネルに供給される。
 図3は、ある入力チャンネルiの処理構成を示す図である。入力チャンネル302の各チャンネルは、信号処理ブロック351において、入力パッチ301から供給されたオーディオ信号に対して、アッテネータ(ATT)、イコライザ(EQ)、ゲート(GATE)、またはコンプレッサ(COMP)等の信号処理を施す。
 信号処理後のオーディオ信号は、フェーダ部(FADER)352でレベル調整された後に、パン部(PAN)353を介して、後段のバス303に送出される。パン部353は、バス303のステレオバス(マスタ出力となる2チャンネルのバス)に供給する信号のバランスを調整する。
 なお、セレクタ354は、ユーザの選択操作により、信号処理ブロック351から出力される信号と、フェーダ部352でレベル調整された後の信号と、のいずれかの信号を後段の送り部355に入力させることができる。
 また、信号処理後のオーディオ信号は、セレクタ(SEL)354を介して送り部(SEND)355でレベル調整された後に、後段のバス303に送出される。送り部355は、バス303の各SENDバスに信号を供給するか否かをユーザにより切り換えられる。また、送り部355は、各SENDバスに供給する信号のレベルをユーザが設定した各センドレベルに応じて調整する。
 出力チャンネル304は、例えば16チャンネルを有する。出力チャンネル304における各チャンネルでは、入力チャンネルと同様に、入力されるオーディオ信号に対して、各種信号処理を施す。出力チャンネル304の各チャンネルは、信号処理後のオーディオ信号を出力パッチ305へ送出する。出力パッチ305は、各チャンネルを、アナログ出力ポートまたはデジタル出力ポートにおける複数のポートのうちいずれか1つのポートに割り当てる。これにより、信号処理を施された後のオーディオ信号が、オーディオI/O13に供給される。
 以上の信号処理は、各種パラメータの設定値に基づいて制御される。CPU18(ユーザ定義シーンメモリ設定部181)は、各種パラメータの現在の設定値(カレントデータ)を記憶部であるフラッシュメモリ19又はRAM20に記憶する。CPU18(設定変更部182)は、ユーザが操作部12を操作したときにカレントデータを受け付ける。CPU18(記憶処理部183)は、該カレントデータを更新する(記憶部に記憶する)。なお、カレントデータは、フラッシュメモリ19及びRAM20の両方に記憶されていてもよい。
 次に、図4は、オーディオミキサ1の操作パネルの構成を示す図である。オーディオミキサ1の操作パネル上には、図4に示すように、タッチスクリーン51、チャンネルストリップ63、レイヤ選択スイッチ71、ストアボタン72、リコールボタン73、および増減ボタン74等が設けられている。これら構成は、図1に示した表示器11および操作部12に相当する。
 タッチスクリーン51は、操作部12の一態様であるタッチパネルを積層した表示器11であり、ユーザの操作を受け付けるためのGUI(グラフィカルユーザインタフェース)画面を表示する。
 チャンネルストリップ63は、1つのチャンネルに対する操作を受け付ける複数の操作子を縦に並べて配置した領域である。この図では、操作子として、チャンネル毎に1つフェーダと1つのノブだけが表示されているが、実際には多数のノブまたはスイッチ等が設けられている。チャンネルストリップ63のうち、左側に配置された複数(例えば16)のフェーダおよびノブは、入力チャンネルに相当する。チャンネルストリップ63のうち、右側に配置された2つのフェーダおよびノブは、マスタ出力(2チャンネルのバス)に対応する操作子である。
 なお、各フェーダおよびノブは、レイヤ選択スイッチ71の操作によって、対応するチャンネルを切り替えることができる。例えば、「Layer1」のスイッチが操作されると、左側16個のフェーダおよびノブが入力チャンネル1~16に割り当てられる。また、「Layer2」のスイッチが操作されると、左側16個のフェーダおよびノブが入力チャンネル17~32に割り当てられる。
 ストアボタン72は、シーンのストアを指示するボタンである。ユーザは、ストアボタン72を操作して、カレントデータを1つのシーンデータとしてフラッシュメモリ19に記憶させる(ストアさせる)ことができる。フラッシュメモリ19には、複数のシーンデータが記憶される。また、ユーザは、増減ボタン74を操作することより、保存および呼び出しの対象とするシーンを、複数のシーンの中から選択することができる。ユーザは、リコールボタン73を操作することで、必要なシーンデータを呼び出すことにより、各種パラメータの設定値を呼び出す(リコールする)ことができる。
 さらに、本実施形態のオーディオミキサ1は、ユーザが任意のパラメータを選択することにより、ストアおよびリコールする領域を限定したユーザ定義シーンメモリを設定することができる。
 図5(A)は、ユーザ定義シーンメモリの一覧画面の一例を示す図である。図5(B)は、ユーザ定義シーンメモリの一覧画面の別の例を示す図である。図6は、CPU18(ユーザ定義シーンメモリ設定部181)の動作を示すフローチャートである。ユーザがシーンメモリの呼び出しを行なうと、CPU18は、表示器11に、図5(A)に示すようなシーンメモリ一覧画面を表示する。
 本実施形態のシーンメモリは、全パラメータを管理する全体シーンメモリ(All)と、管理するパラメータの領域を限定したユーザ定義シーンメモリを有する。ユーザ定義シーンメモリは、図5(A)の例では、FoH(Front of Hall)、Mon(モニタ)、およびOut(出力)の3つの名称が表示されている。Allを除く他の各ユーザ定義シーンメモリの名称は、ユーザが自由に設定することができる。FoHは、会場正面に出力する音の管理のために用いられる。Monは、演奏者に出力するモニタ音の管理のために用いられる。Outは、出力側のエフェクト管理を行なうために用いられる。
 ここで、ユーザ定義シーンメモリを使用したオーディオミキサ1の制御方法について説明する。オーディオミキサ1は、受付処理、ユーザ定義シーンメモリ設定処理、設定変更処理及び記憶処理を行う。受付処理は、ユーザが選択したいくつかのパラメータをアサインするために該パラメータを受け付ける。ユーザ定義シーンメモリ設定処理は、該受け付けたいくつかのパラメータをシーン毎にユーザ定義シーンメモリとして記憶部に記憶する。設定変更処理は、複数のパラメータの現在の設定の変更操作を受け付け、変更されたいくつかのパラメータの設定値を記憶部に記憶する。記憶処理は、ユーザ定義シーンメモリの呼び出しを受け付けた時、該ユーザ定義シーンメモリに対応するパラメータの設定値を記憶部から呼び出す。リコール処理は、受付部185でユーザ定義シーンメモリの呼び出しを受け付けた時、該ユーザ定義シーンメモリに対応するいくつかのパラメータの設定値を記憶部から呼び出す。
 まず、ユーザ定義シーンメモリ設定処理について、より詳細に、図5(A)、図5(B)、図6及び図7を参照して説明する。図5(A)のシーンメモリの一覧において、ユーザが、ユーザ定義シーンメモリとして、例えばFoHを選択する操作を行なうと(S11)、CPU18は、図5(B)に示すシーン一覧画面を表示する(S12)。そして、シーン一覧画面の中から、ユーザが所定のシーンを選択すると(S13:Yes)、CPU18は、図7に示すような設定画面を表示する(S14)。図7は、ユーザ定義シーンメモリにパラメータをアサインするための設定画面の一例を示す図である。設定画面では、ユーザは、入力チャンネルの選択、出力チャンネルの選択、またはエフェクト(EF1,EF2,EF3・・・EF8)の選択、等を行なうことができる。表示器11には、チャンネルストリップを模した画像が表示されている。ユーザは、これらチャンネルストリップを模した画像を選択することで、入力チャンネルの選択を行なうことができる。図7の例は、FoHのユーザ定義シーンメモリの設定画面であるため、表示器11の上段には、32個の入力チャンネルが表示され、最下欄には、エフェクト(EF1,EF2,EF3・・・EF8)の選択画像が表示されている。
 ユーザが設定画面上で任意のパラメータを選択すると(S15:Yes)、CPU18は、設定中のユーザ定義シーンメモリに対して、選択されたパラメータをアサインする(S16)。これにより、ユーザ定義シーンメモリに所定のパラメータがアサインされて、記憶部に記憶される。最後に、CPU18は、ユーザから設定終了の指示がなされたか否かを確認し(S17)、設定終了の指示がなされた場合に(S17:Yes)、動作を終える。
 図7の例では、ユーザは、入力チャンネル1を選択している。したがって、FoHのユーザ定義シーンメモリには、シーン1として、入力チャンネル1がアサインされて、記憶部に記憶される。
 さらに、ユーザが入力チャンネル1を選択すると、CPU18は、図8に示す入力チャンネル1に対するサブ設定画面を表示する。ユーザは、図8に示すサブ設定画面において、入力チャンネル1に対する出力先(SENDバスまたはステレオバス)および入力チャンネル1で実行するエフェクトの選択を行なうことができる。ユーザがサブ設定画面において出力先およびエフェクトの選択を行なうと、入力チャンネル1に対する出力先およびエフェクトのパラメータがFoHのユーザ定義シーンメモリにアサインされる。図8の例では、ユーザは、出力先として、SEND CH1~4のバス、およびステレオバスを選択し、かつATT、EQ、GATE、およびCOMPのエフェクトを選択している。
 これにより、図9に示すように、FoHのユーザ定義シーンメモリについては、シーン1において、入力チャンネル1として、ATT、EQ、GATE、およびCOMPのエフェクトの設定値を示す情報(パラメータ設定値)が格納されるメモリ領域がアサインされる。また、FoHのユーザ定義シーンメモリについては、シーン1において、入力チャンネル1として、フロント用ステレオバスのフェーダレベル(FDR L)およびSENDレベル(SEND L)1~4のパラメータ設定値と、が格納されるメモリ領域がアサインされる。この結果、例えばユーザがストアの指示を行なった場合には、図9に示すように、ATT、EQ、GATE、およびCOMPのエフェクトのパラメータ設定値と、フロント用ステレオバスのフェーダレベル(FDR L)およびSENDレベル(SEND L)1~4のパラメータ設定値と、がメモリ(フラッシュメモリ19またはRAM20)に格納される。また、ユーザがリコールの指示を行なった場合には、ATT、EQ、GATE、およびCOMPのエフェクトのパラメータ設定値と、フロント用ステレオバスのフェーダレベル(FDR L)およびSENDレベル(SEND L)1~4のパラメータ設定値と、が呼び出され、カレントデータが上書きされる。
 図9の例では、FoHのユーザ定義シーンメモリについて示したが、ユーザは、他にも、例えばMon用のユーザ定義シーンメモリを設定することもできる。図10(A)は、Mon用のユーザ定義シーンメモリにパラメータをアサインするための設定画面を示す図である。Mon用の設定画面では、表示器11の上段には、32個の入力チャンネルが表示され、最下欄には、エフェクト(EF1,EF2,EF3・・・EF8)の選択画像が表示されている。ユーザが入力チャンネル1を選択すると、CPU18は、図10(B)に示す入力チャンネル1に対するサブ設定画面を表示する。ユーザは、図10(B)に示すサブ設定画面において、入力チャンネル1に対する出力先としてSENDバス(CH1~16)またはステレオバスの選択を行なうことができる。Mon用の設定画面では、エフェクトの選択は表示されない(アサインできない)ようになっている。図10(B)の例では、ユーザは、入力チャンネル1に対してSEND CH5~16を選択している。これにより、図11に示すように、Monのユーザ定義シーンメモリについては、シーン1において、入力チャンネル1として、SENDレベル(SEND L)5~16のパラメータ設定値が格納されるメモリ領域がアサインされる。Monのユーザ定義シーンメモリでは、各種エフェクトのパラメータ設定値が格納されるメモリ領域はアサインされていない。
 また、ユーザは、他にも、例えばOut用のユーザ定義シーンメモリを設定することもできる。図12は、Out用のユーザ定義シーンメモリにパラメータをアサインするための設定画面を示す図である。Out用の設定画面では、表示器11には、複数(この例では8個)の出力チャンネルが表示されている。各出力チャンネルには、それぞれエフェクトの選択画像が表示されている。この例では、出力チャンネル毎に、ALL、ATT、GATE、COMP、およびEQの選択画像が表示されている。ALLを選択すると、全てのエフェクトが選択される。Out用の設定画面では、入力チャンネルの選択は表示されない(アサインできない)ようになっている。図12の例では、ユーザは、例えば出力チャンネル1について、ATT、GATE、およびCOMPを選択している。
 これにより、図13に示すように、Outのユーザ定義シーンメモリでは、シーン1において、出力チャンネル1について、ATT、GATE、およびCOMPのパラメータ設定値が格納されるメモリ領域がアサインされる。Outのユーザ定義シーンメモリでは、入力チャンネル側の各種パラメータ設定値が格納されるメモリ領域はアサインされない。
 以上のように、ユーザは、図9に示したユーザ定義シーンメモリの様なアサインを行なうことで、FoH用に、入力チャンネル毎のエフェクトおよび出力先のパラメータの管理を行なうことができる。また、ユーザは、図11に示したユーザ定義シーンメモリの様なアサインを行なうことで、モニタ用に、入力チャンネル毎の出力先のパラメータの管理を行なうことができる。また、ユーザは、図13に示したユーザ定義シーンメモリの様なアサインを行なうことで、出力側のエフェクトだけの管理を行なうこともできる。
 なお、上述の例では、シーン毎にアサインするパラメータを選択する態様を示したが、シーン毎ではなく、ユーザ定義シーンメモリ毎にアサインするパラメータが決定されるようにしてもよい。この場合、図5(A)に示したシーン一覧画面において、ユーザがいずれかのユーザ定義シーンメモリを選択すると、CPU18は、図7に示した設定画面に移行する。
 次に、図14は、ユーザ定義シーンメモリのリコール(リコール処理)およびストア(設定変更処理及び記憶処理)の動作を示すフローチャートである。図14は、オーディオミキサ1が信号処理を行なう状態である稼働モードにおけるCPU18(記憶処理部183およびリコール処理部184)の動作を示す図であるが、ミキサ(オーディオミキサ1)としての稼働を止めて各種構成の構築を行う構成モードにおいても、図14に示す動作を行なってもよい。
 ユーザが、所定のユーザ定義シーンメモリのリコールを指示すると(S21:Yes)、CPU18(リコール処理部184)は、指示されたユーザ定義シーンメモリを読み出して、アサインされた特定(いくつか)のパラメータ設定値を記憶部から読み出す(呼び出す)(S22)。そして、CPU18は、読み出した特定のパラメータ設定値でカレントデータを上書きすることで、対応するパラメータ設定値を変更する(S23)。
 これにより、ユーザが選択した領域のパラメータ設定値のみが読み出され、カレントデータが変更される。例えば、ユーザがFoH用のユーザ定義シーンメモリの呼び出しを指示した場合、FoH用にアサインされたパラメータに対してのみ、パラメータ設定値が出力される。これにより、ユーザは、例えばFoH側だけリコールを行なって、モニタ側および出力側はその場で調整することができる。
 ユーザが各パラメータ設定値を調整して、ストアの指示を行なうと(S24:Yes)、CPU18(記憶処理部183)は、カレントデータをユーザ定義シーンメモリに上書きする(S25)。この場合、ユーザ定義シーンメモリにアサインされたパラメータ設定値のみが上書きされ、アサインされていないパラメータ設定値は上書きされない。その後、CPU18は、ユーザから動作終了の指示がなされたか否かを確認し(S26)、動作終了の指示がなされた場合に(S26:Yes)、動作を終える。
 以上のように、本実施形態のオーディオミキサ1は、全体のシーンメモリとは別にユーザ定義シーンメモリを備える。これにより、ユーザは、用途または目的に応じて、必要な部分のみシーンメモリを管理し、パラメータ設定値の調整を行なうことができる。
 このように、本実施形態のミキサ(オーディオミキサ)1では、ユーザ定義シーンメモリに割り当てられたいくつかのパラメータの設定値のみ呼び出される。また、ユーザ定義シーンメモリに割り当てられたいくつかのパラメータの設定値のみ保存される。これにより、ユーザは、入力側だけのリコール、または出力側だけのリコール、等、用途または目的に応じたシーンメモリの管理を行なうことができる。
 なお、ユーザ定義シーンメモリは、全てのパラメータ設定値をフラッシュメモリ19に記憶する必要はない。例えば、各パラメータ設定値は、全体のシーンデータとしてフラッシュメモリ19に保存され、各ユーザ定義シーンメモリには、全体のシーンデータに対して、定義された領域のリンク先を示す情報のみ記憶しておく態様であってもよい。リコールまたはストア時には、CPU18は、全体のシーンデータから、定義された領域のパラメータ設定値のみ読み出す、または全体のシーンデータに対して、定義された領域のパラメータ設定値のみ上書きする。これにより、新たにユーザ定義シーンメモリを設定する場合でも、メモリの使用量を増大させることはない。
 なお、オーディオミキサ1は、ユーザ定義シーンメモリにおいて、特定のパラメータについてのみリコールを無効化するリコールセーフ機能をさらに備えていてもよい。 本実施形態の説明は、すべての点で例示であって、制限的なものではない。本発明の範囲は、上述の実施形態ではなく、特許請求の範囲によって示される。さらに、本発明の範囲には、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
1…オーディオミキサ(ミキサ)
11…表示器
12…操作部
14…信号処理部
15…PC_I/O
16…MIDI_I/O
17…その他_I/O
18…CPU
181…ユーザ定義シーンメモリ設定部
182…設定変更部
183…記憶処理部
184…リコール処理部
185…受付部
19…フラッシュメモリ
20…RAM
25…バス
27…波形バス
301…入力パッチ
302…入力チャンネル
303…バス
304…出力チャンネル
305…出力パッチ
351…信号処理ブロック
352…フェーダ部
353…パン部
354…セレクタ
355…送り部

Claims (11)

  1.  複数のパラメータの現在の設定値を保存する記憶部と、
     前記複数のパラメータのうち、いくつかのパラメータの指定を受け付ける受付部と、
     前記受付部で受け付けたいくつかのパラメータをシーン毎にユーザ定義シーンメモリとして前記記憶部に記憶する、ユーザ定義シーンメモリ設定部と、
     前記複数のパラメータの現在の設定の変更操作を受け付ける設定変更部と、
     前記設定変更部で変更された現在の設定のうち前記ユーザ定義シーンメモリに対応する前記いくつかのパラメータの設定値を前記記憶部に記憶する記憶処理部と、
     前記受付部で前記ユーザ定義シーンメモリの呼び出しを受け付けた時、該ユーザ定義シーンメモリに対応する前記いくつかのパラメータの設定値を前記記憶部から呼び出すリコール処理部と、
     を備えたミキサ。
  2.  前記ユーザ定義シーンメモリ設定部は、前記いくつかのパラメータとして、複数の入力チャンネルの指定を受け付け、
     前記リコール処理部は、前記複数の入力チャンネルに対して呼び出した設定値を出力する、
     請求項1に記載のミキサ。
  3.  前記ユーザ定義シーンメモリ設定部は、前記いくつかのパラメータとして、前記複数の入力チャンネルのうち各チャンネルについて、出力先の指定を受け付け、
     前記リコール処理部は、前記複数の入力チャンネルの各チャンネルに対して呼び出した出力先の設定値を出力する、
     請求項2に記載のミキサ。
  4.  前記ユーザ定義シーンメモリ設定部は、前記いくつかのパラメータとして、前記複数の入力チャンネルのうち各チャンネルに施すエフェクト処理の指定を受け付け、
     前記リコール処理部は、前記複数の入力チャンネルの各チャンネルに対して前記エフェクト処理の設定値を出力する、
     請求項2または請求項3に記載のミキサ。
  5.  前記ユーザ定義シーンメモリ設定部は、前記いくつかのパラメータとして、複数の出力チャンネルの指定を受け付け、
     前記リコール処理部は、前記複数の出力チャンネルに対して呼び出した設定値を出力する、
     請求項1乃至請求項4のいずれか1項に記載のミキサ。
  6.  複数のパラメータのうち、いくつかのパラメータの指定を受け付け、
     該受け付けたいくつかのパラメータをシーン毎にユーザ定義シーンメモリとして記憶部に記憶し、
     前記複数のパラメータの現在の設定の変更操作を受け付け、
     前記変更操作を受け付けて変更された前記いくつかのパラメータの設定値を前記記憶部に記憶し、
     前記ユーザ定義シーンメモリの呼び出しを受け付けた時、該ユーザ定義シーンメモリに対応する前記いくつかのパラメータの設定値を前記記憶部から呼び出す、
     ミキサの制御方法。
  7.  前記いくつかのパラメータとして、複数の入力チャンネルの指定を受け付け、
     前記複数の入力チャンネルに対して呼び出した設定値を出力する、
     請求項6に記載のミキサの制御方法。
  8.  前記いくつかのパラメータとして、前記複数の入力チャンネルのうち各チャンネルについて、出力先の指定を受け付け、
     前記複数の入力チャンネルの各チャンネルに対して呼び出した出力先の設定値を出力する、
     請求項7に記載のミキサの制御方法。
  9.  前記いくつかのパラメータとして、前記複数の入力チャンネルのうち各チャンネルに施すエフェクト処理の指定を受け付け、
     前記複数の入力チャンネルの各チャンネルに対して前記エフェクト処理の設定値を出力する、
     請求項7または請求項8に記載のミキサの制御方法。
  10.  前記いくつかのパラメータとして、複数の出力チャンネルの指定を受け付け、
     前記複数の出力チャンネルに対して呼び出した設定値を出力する、
     請求項6乃至請求項9のいずれか1項に記載のミキサの制御方法。
  11.  記憶部に設定値が保存されている複数のパラメータのうち、いくつかのパラメータの指定を受け付ける受付処理と、
     前記受付処理で前記いくつかのパラメータの指定を受け付け、該受け付けた前記いくつかのパラメータをシーン毎にユーザ定義シーンメモリとして前記記憶部に記憶する、ユーザ定義シーンメモリ設定処理と、
     前記複数のパラメータの現在の設定の変更操作を受け付ける設定変更処理と、
     前記設定変更処理で変更された前記いくつかのパラメータの設定値を前記記憶部に記憶する記憶処理と、
     前記受付処理で前記ユーザ定義シーンメモリの呼び出しを受け付けた時、該ユーザ定義シーンメモリに対応する前記いくつかのパラメータの設定値を前記記憶部から呼び出すリコール処理と、
     をコンピュータに実行させるための、
     プログラム。
PCT/JP2017/032609 2016-09-28 2017-09-11 ミキサ、ミキサの制御方法およびプログラム WO2018061720A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201780049449.9A CN109565631B (zh) 2016-09-28 2017-09-11 混音器、混音器的控制方法以及程序
JP2018542337A JP6693569B2 (ja) 2016-09-28 2017-09-11 ミキサ、ミキサの制御方法およびプログラム
US16/366,196 US10536231B2 (en) 2016-09-28 2019-03-27 Mixer, control method of mixer, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016-189989 2016-09-28
JP2016189989 2016-09-28

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/366,196 Continuation US10536231B2 (en) 2016-09-28 2019-03-27 Mixer, control method of mixer, and program

Publications (1)

Publication Number Publication Date
WO2018061720A1 true WO2018061720A1 (ja) 2018-04-05

Family

ID=61760650

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/032609 WO2018061720A1 (ja) 2016-09-28 2017-09-11 ミキサ、ミキサの制御方法およびプログラム

Country Status (4)

Country Link
US (1) US10536231B2 (ja)
JP (1) JP6693569B2 (ja)
CN (1) CN109565631B (ja)
WO (1) WO2018061720A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3624366A1 (en) * 2018-09-13 2020-03-18 Yamaha Corporation Audio signal processing apparatus, audio signal processing method, and program
CN110992918A (zh) * 2018-09-13 2020-04-10 雅马哈株式会社 声音信号处理装置、声音信号处理方法以及存储介质

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112581932A (zh) * 2020-11-26 2021-03-30 交通运输部南海航海保障中心广州通信中心 一种基于dsp的有线无线混音***
JP2022180072A (ja) * 2021-05-24 2022-12-06 ヤマハ株式会社 表示方法および表示装置
KR102534870B1 (ko) * 2022-09-22 2023-05-26 뉴튠(주) 복수 개의 오디오 스템을 이용한 오디오 믹싱 인터페이스 제공 방법 및 장치

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005328483A (ja) * 2004-05-17 2005-11-24 Yamaha Corp パラメータ供給装置及びプログラム
JP2010226322A (ja) * 2009-03-23 2010-10-07 Yamaha Corp 音響システム
JP2013192260A (ja) * 2013-05-31 2013-09-26 Yamaha Corp 音響装置

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4023328B2 (ja) 2003-02-13 2007-12-19 ヤマハ株式会社 ミキシングシステムおよびプログラム
JP2005328423A (ja) * 2004-05-17 2005-11-24 Hitachi Ltd テレビジョン受像機
JP5076410B2 (ja) * 2006-09-06 2012-11-21 ヤマハ株式会社 オーディオミキサ
US8737638B2 (en) * 2008-07-30 2014-05-27 Yamaha Corporation Audio signal processing device, audio signal processing system, and audio signal processing method
CA3157717A1 (en) * 2011-07-01 2013-01-10 Dolby Laboratories Licensing Corporation System and method for adaptive audio signal generation, coding and rendering
EP2637427A1 (en) * 2012-03-06 2013-09-11 Thomson Licensing Method and apparatus for playback of a higher-order ambisonics audio signal
WO2014069111A1 (ja) * 2012-11-02 2014-05-08 ソニー株式会社 信号処理装置、信号処理方法、測定方法、測定装置
US9426599B2 (en) * 2012-11-30 2016-08-23 Dts, Inc. Method and apparatus for personalized audio virtualization

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005328483A (ja) * 2004-05-17 2005-11-24 Yamaha Corp パラメータ供給装置及びプログラム
JP2010226322A (ja) * 2009-03-23 2010-10-07 Yamaha Corp 音響システム
JP2013192260A (ja) * 2013-05-31 2013-09-26 Yamaha Corp 音響装置

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3624366A1 (en) * 2018-09-13 2020-03-18 Yamaha Corporation Audio signal processing apparatus, audio signal processing method, and program
US20200092642A1 (en) * 2018-09-13 2020-03-19 Yamaha Corporation Audio signal processing apparatus, audio signal processing method, and storage medium
CN110992918A (zh) * 2018-09-13 2020-04-10 雅马哈株式会社 声音信号处理装置、声音信号处理方法以及存储介质
US10887688B2 (en) 2018-09-13 2021-01-05 Yamaha Corporation Audio signal processing apparatus, audio signal processing method, and storage medium that update currently used parameter upon receiving change operation instruction
CN110992918B (zh) * 2018-09-13 2023-08-04 雅马哈株式会社 声音信号处理装置、声音信号处理方法以及存储介质

Also Published As

Publication number Publication date
JP6693569B2 (ja) 2020-05-13
JPWO2018061720A1 (ja) 2019-06-24
US20190222332A1 (en) 2019-07-18
CN109565631A (zh) 2019-04-02
US10536231B2 (en) 2020-01-14
CN109565631B (zh) 2020-12-18

Similar Documents

Publication Publication Date Title
WO2018061720A1 (ja) ミキサ、ミキサの制御方法およびプログラム
JP4645347B2 (ja) ミキシング装置及びプログラム
US7689307B2 (en) Digital audio mixer
US10148373B2 (en) Method for controlling audio signal processing device, audio signal processing device, and storage medium
JP4321259B2 (ja) ミキサ装置およびミキサ装置の制御方法
JP5251811B2 (ja) デジタルミキサ
JP2019022148A (ja) 音処理装置及びパラメータ割り当て方法
JP5201016B2 (ja) オーディオ信号処理装置
JP5387472B2 (ja) ミキシング装置
JP5434784B2 (ja) ミキシング装置
US10887688B2 (en) Audio signal processing apparatus, audio signal processing method, and storage medium that update currently used parameter upon receiving change operation instruction
JP4930112B2 (ja) ミキシング装置
US11188291B2 (en) Audio signal processing apparatus, method for processing audio signal, and storage medium storing program
JP4438094B2 (ja) ミキサの入出力設定装置及びプログラム
JP6915253B2 (ja) 制御装置、制御方法およびプログラム
JP7225855B2 (ja) 音信号処理装置、音信号処理方法およびプログラム
JP5322032B2 (ja) ディジタルミキサ
JP5830900B2 (ja) ミキシングコンソール
JP2016181122A (ja) パラメータ制御装置及びプログラム
JP2022180072A (ja) 表示方法および表示装置
JP5141588B2 (ja) ミキシング装置
JP2011114466A (ja) 音響パラメータの制御装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17855677

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2018542337

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17855677

Country of ref document: EP

Kind code of ref document: A1