WO2007046311A1 - Sound processor and sound system - Google Patents

Sound processor and sound system Download PDF

Info

Publication number
WO2007046311A1
WO2007046311A1 PCT/JP2006/320525 JP2006320525W WO2007046311A1 WO 2007046311 A1 WO2007046311 A1 WO 2007046311A1 JP 2006320525 W JP2006320525 W JP 2006320525W WO 2007046311 A1 WO2007046311 A1 WO 2007046311A1
Authority
WO
WIPO (PCT)
Prior art keywords
sound
channel
wave data
effect
data
Prior art date
Application number
PCT/JP2006/320525
Other languages
French (fr)
Japanese (ja)
Inventor
Shuhei Kato
Koichi Sano
Koichi Usami
Original Assignee
Ssd Company Limited
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ssd Company Limited filed Critical Ssd Company Limited
Priority to JP2007540953A priority Critical patent/JP5055470B2/en
Publication of WO2007046311A1 publication Critical patent/WO2007046311A1/en

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K15/00Acoustics not otherwise provided for
    • G10K15/08Arrangements for producing a reverberation or echo sound
    • G10K15/12Arrangements for producing a reverberation or echo sound using electronic time-delay networks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/155Musical effects
    • G10H2210/265Acoustic effect simulation, i.e. volume, spatial, resonance or reverberation effects added to a musical sound, usually by appropriate filtering or delays
    • G10H2210/281Reverberation or echo

Definitions

  • the present invention relates to a sound processor that outputs a sound effect by adding a sound effect to wave data, and a related technology.
  • the musical tone signal device disclosed in Patent Document 1 Japanese Unexamined Patent Publication No. Sho 6 3-2 6 7 9 9 9) adds a plurality of audio data reproduced by a plurality of sound channels, and adds it to the added audio data. Adds a resonance effect.
  • the musical sound signal generator is provided with a plurality of audio data and effects reproduced by a plurality of sound channels; it adds the B audio data and outputs it to the D / A converter.
  • the resonance effect is added using the sound data from all the sound channels as the original sound, and the sound channel to which the original sound to which the resonance effect is added cannot be arbitrarily set.
  • the sound channel for assigning additional audio data with a co-effect added is fixed and cannot be set arbitrarily.
  • wave data original sound
  • wave data to which an effect is added is assigned to an arbitrary logical sound channel.
  • the purpose is to assign all available sound processors and related technologies. Disclosure of the invention
  • a sound processor for mixing wave data reproduced by a plurality of logical sound channels and outputting from one or a plurality of physical sound channels.
  • a sound processor for mixing wave data reproduced by a plurality of logical sound channels and outputting from one or a plurality of physical sound channels.
  • Channel setting means to set one of the three attributes, such as non-feature channel, and one or more filfS logical sound channels are set to fB FX original sound channel ⁇ , ⁇ Playback by effect original sound channel Wave data To tins prescribed Sound effects assigned to the fiifB effect channel; ⁇ measuring means, and
  • the data channel setting means can be arbitrarily set to the MIE logical sound channel even with the attribute of the level among the three attributes of tillE. .
  • the effect original sound channel can be set to any logical sound channel
  • the wave data (original sound) reproduced on any logical sound channel among the wave data reproduced on multiple logical sound channels can be set.
  • multiple logical sound channels are ffi, and the effect channel can be set to any logical sound channel, so that wave data with sound effects can be played back on any logical sound channel.
  • all logical sound channels can be set to non-jet channels and assigned for the reproduction of wave data without sound effects.
  • any attribute can be set for any logical sound channel in this way, for example, the logical sound channel assigned to the song playback is set as the effect original sound channel, and the wave data being played back there In addition to applying acoustic effects such as echo to the sound, the logical sound channel assigned to the sound effect playback is set as a non-effect channel, and the wave data being played there is not combined. realizable.
  • the function of performing pitch conversion, amplitude modulation, etc. on the reproduced wave data is provided in the logical sound channel: ⁇ The same function can be used for the wave data assigned to the effect channel.
  • the sound effect is stored in the buffer with the wave data reproduced by the Kagami Fect original sound channel, and is retrieved and played back after a predetermined time. Assign to an effect channel.
  • the delay function can be easily constructed by extracting the wave data from the buffer after a predetermined time.
  • the tilfE sound effecting means is an addition means for adding wave data reproduced by the same number of original sound channels, even though multiple ftiilS logic sound channels are set as the tins effect original sound channels.
  • the tiris ⁇ w effect means includes the ttna3 ⁇ 4n calculation result wave data in the ⁇ buffer, retrieves the tins after a predetermined time and plays them back, and assigns them to the tins Efate channel.
  • the buffer is stored for one channel, so the capacity of the buffer is reduced. I can control.
  • This sound processor further comprises amplitude modulation means for performing amplitude modulation on the wave data at an arbitrary rate independently of the E logic sound channel ⁇ and independent of the tins physical sound channel ⁇ .
  • the tfHE sound effecting means calculates the average value of triB ratio of amplitude modulation of tins multiple physical sound channels for the original sound channel channel, which is a ⁇ logic sound channel, and the tfilS effect channel channel ⁇ It further includes an averaging means for multiplying the wave data by an average value, and the ⁇ ⁇ calculation means adds the wave data that is a multiplication result by the averaging means.
  • the mixing balance of logical sound channels is different for each physical sound channel: ⁇
  • the buffer capacity can be reduced.
  • the knitting sound effecting means includes: an extracting means for extracting a plurality of bits of a predetermined number of bits from the accumulated wave data that is a result of the calorie calculation by the ⁇ calculating means;
  • the wave data that is the addition result by the previous ⁇ calculation means further includes a saturation processing means that replaces a plurality of bits extracted by the ⁇ ⁇ tilt self-extraction means that exceeds the range that can be expressed by a number.
  • the effect sizer means that the wave data represented by the multiple bits of the edited data extracted by the extraction means is used as it is in the Kamiki buffer, and , Hatefulness Exceeding the range that can be expressed by the predetermined number of bits, ⁇ sound effect means tiilE saturation processing hand
  • the wave data represented by multiple bits is stored in the 15 buffer in the 15 buffers, and the sound effect means depends on whether it exceeds the range that can be expressed by the predetermined number of bits.
  • the wave zatter stored in the fiilE buffer is taken out after a predetermined time and played, and assigned to the tiflS effect channel. '
  • the iE extraction means extracts a plurality of bits of tins having a constant number of bits from the tii! B cumulative wave data
  • the IS saturation processing means includes the Kamai cumulative wave data. All the bits that are higher than the extracted fiifB multiple bits and not included in the l! E multiple bits do not show the same value as the most significant bit of the extracted multiple bits.
  • ttilE Replace multiple bits with 3 ⁇ 4 ⁇ predetermined value.
  • the reverb function can be easily realized.
  • the sound processor further includes a digital Z analog conversion means for converting a digital signal into an analog signal, and the wave data processed by the logical sound channel is PCM data, and ttJlE digital Z analog
  • the conversion means converts MIBP CM data into an analog signal.
  • the buffer necessary for the processing for adding the sound effect (for example, «processing, etc.) is provided by means such as RAM. Easy to build with.
  • processing for imparting an acoustic effect (for example, amplitude modulation processing, etc.) can be performed with a small logic circuit and elaborate or small software. .
  • This sound processor further comprises a time division multi-purpose output means for time-division multiplexing the wave data reproduced by the plurality of 15 logical sound channels and outputting to the digital / analog conversion means.
  • the time division multiplex output means outputs the wave data reproduced by the effect channel at the time allotted to the effect channel and other subsequent selfish logic sound.
  • filfE is output instead of the wave data of other logical sound channels.
  • the wave data reproduced by the Efate channel can be assigned to the output time of other logical sound channels other than the effect channel in the% output, so it can be set with a simple circuit. It is possible to give volume data that exceeds the upper limit to wave data with effects.
  • the sound system mixes the wave data reproduced by a plurality of logical sound channels and outputs it from a plurality of physical sound channels.
  • a sound processor an analog Z digital unit that converts an externally input analog audio signal to a digital audio signal, and an arithmetic processing unit that performs arithmetic processing according to a program.
  • Each of the hate logic sound channels has a wave data power of ⁇ that gives the sound effect s
  • the effect original sound channel that is assigned the first predetermined sound effect S the first effect channel to which the assigned wave data is assigned, 1 of 4 attributes: 2nd effect channel to which wave data to which a second predetermined sound effect is assigned is assigned, and ⁇ Effect power S Wave data force to which S wave is not assigned S Non-effect channel to be assigned
  • Channel setting means for setting one and one or more logical logic The channel is set to the SiilE effect original sound channel ⁇ , wave data played by the original sound channel is placed in the first buffer, taken out after the first predetermined time and played back, and the first The first sound effect assigning means to be assigned to the ethet channel, and the channel setting means can arbitrarily set any of the four attributes to the iff self logical sound channel.
  • the arithmetic processing unit stores the dislike digital signal obtained by the analog / digital conversion unit in the second buffer, and the tfiia sound processor receives the self digital signal obtained by the arithmetic processing unit in the tirlE second buffer.
  • the second buffer is taken out and played after the second predetermined time since it was stored in the second buffer. Further comprising a given device; a second acoustic effect to be assigned to the tunnel.
  • the effect original sound channel can be set to any logical sound channel
  • the wave data source that is played back on any logical sound channel among the wave data played back on multiple logical sound channels Sound can be given ⁇ effects (eg echo // reverb etc.).
  • ⁇ effects eg echo // reverb etc.
  • multiple logical sound channels are and the first and second effect channels can be set to any logical sound channel
  • ⁇ Wave data with effects can be set to any logical sound channel. Can play.
  • all logical sound channels can be set as non-effect channels and assigned for the reproduction of wave data without sound effects.
  • analog audio signals input from outside can be played back with a sound effect after being converted to digital audio signals.
  • a part of the processing for imparting the acoustic effect is performed by the arithmetic processing unit (that is, software) force S, so that a configuration for imparting the effect can be arbitrarily constructed.
  • the first effect means is in the fiilS first buffer. Then, amplitude modulation is applied to the wave data retrieved and reproduced after the first predetermined time at a first predetermined rate. ⁇ ⁇ Width modulation means and na for reproduction after the first predetermined time.
  • Wave data that has been amplitude-modulated at the first predetermined rate is added to the wave data stored at the first predetermined position displaced from the wave data read position by force.
  • the calculation processing means includes a second predetermined processing unit for wave data extracted and reproduced after the second predetermined time after the conversion to the second buffer. The wave data is moved to a second predetermined position displaced from the read position of the wave data from the second buffer for reproduction after a second predetermined time in Stif. Is added to the wave data .
  • the reverb function can be easily realized.
  • the sound processor further includes a digital Z analog conversion means for converting a digital code to an analog signal, and the wave data processed by the Fujimi logic sound channel is PCM data, What is the hateful digital / analog conversion method?
  • the ftllS sound processor converts time-division multiplexed wave data reproduced by multiple logical sound channels and outputs it to the digital Z analog conversion means. It further includes multiple output means, and the time division multiple output means outputs the wave data reproduced by the self-adjusted first effect channel at the time allotted to the first effect channel and other subsequent signals.
  • the wave data output by the second effect channel is output in place of the wave data of the other logic sound channel, and the wave data reproduced by the second effect channel is 2 Output at the time allotted to the Taechan channel, and other selfish logic that follows The time allocated to Undochi Yan'neru outputs instead of the wave data ⁇ other logical Sau command channel.
  • the wave data and the second effect reproduced by the first effect channel are output at the output time of the logical sound channel other than the first effect channel and the second effect channel. Since the wave data reproduced by the channel can be assigned, the volume exceeding the upper limit that can be originally set by a simple circuit can be given to the wave data to which the acoustic effect is given.
  • FIG. 1 is a block diagram showing an internal configuration of the multimedia processor 1 in the embodiment of the present invention.
  • Fig. 2 is an explanatory diagram of a general echo model.
  • Figure 3 is an explanatory view of an echo model in the embodiment of the present invention ri '
  • FIG. 4 is a conceptual diagram of the echo function in the embodiment of the present invention.
  • FIG. 5 is a conceptual diagram of the microphone echo function in the embodiment of the present invention.
  • FIG. 6 is a conceptual diagram of a logical sound channel and a physical sound channel according to the embodiment of the present invention.
  • FIG. 7 is a block diagram showing the internal configuration of the SPU 13 of FIG.
  • FIG. 8 is an explanatory diagram of time division multiplexing by the data processing block 35 of FIG.
  • FIG. 9 is an explanatory diagram of an echo F I FO buffer and a microphone echo F I FO buffer configured in the main RAM 25 of FIG.
  • FIG. 10 is a block diagram showing an internal configuration of the echo function block 55 of FIG.
  • FIG. 11 is a block diagram showing an internal configuration of the microphone echo function block 57 of FIG.
  • FIG. 12 is an exemplary view showing the output of wave data as echo components and wave data as microphone echo components in the embodiment of the present invention. '' Best mode for carrying out the invention
  • FIG. 1 is a block diagram showing the internal configuration of the multimedia processor 1 according to the embodiment of the present invention.
  • this multimedia processor 1 includes an external memory interface 3, a DMAC (direct memory access controller) 4, a central processing unit 3 (hereinafter referred to as “CPU”) 5, CPU low power RAM7, rendering processing unit (hereinafter referred to as “RPU”) 9, color palette RAMI 1, sound processing unit (hereinafter referred to as “SPU”) 13, SPU local RAMI 5, geometry Tori engine (hereinafter referred to as “GE”) 17, Y sorting unit (hereinafter referred to as “YSU”) 19, external interface block 21, main RAM access arbiter 23, main R AM25, I / O bus 27, video DAC (digital to analog converter) 29, audio DAC block 31, and AZD converter (hereinafter referred to as “ADC”) 33.
  • main RAM access arbiter 23 main R AM25, I / O bus 27, video DAC (digital to analog converter) 29, audio DAC block 31, and AZD converter (hereinafter
  • the CPU 5 executes programs stored in the memory MEM to perform various calculations and control the entire system.
  • the CPU 5 can also send a program and data transmission request to the DMA C4, or fetch the program code directly from the external memory 50 and directly access the data to the external memory 50 without going through the DMAC4. it can.
  • Bus 27 is a system control bus with CPU 5 as the bus master, and each functional unit (external memory interface 3, DMAC4, RPU9, SPU13, GE17, YSU19, external interface block 21, and so on) is a bus slave. Used to access ADC33) control register 'and local RAM7,11,15. In this way, these functional units are controlled by the CPU 5 through the 10 bus 27.
  • the CPU local RAM 7 is a RAM dedicated to the CPU 5, and is used as a stack area for saving data at the time of a subroutine cone interrupt, a storage area for variables handled only by the CPU 5, and the like. ,
  • RPU9 makes a 3D image composed of polygons and sprites in real time. Specifically, the RPU 9 reads each structure instance of the polygon structure self-array and the structure instance of the sprite structure array sorted by YSU 19 from the main RAM 25, and performs predetermined processing in purple. Then, an image is generated for each horizontal line according to the screen (display screen) scan. The generated image is converted into a data stream indicating the composite video signal waveform and output to the video DAC 29.
  • the RPU 9 also has a function of making a DMA transfer request to the DMAC 4 for capturing polygon and sprite texture pattern data.
  • Texture pattern data is two-dimensional pixel array data that is pasted on a polygon or sprite. Each pixel data is part of the information for specifying an entry in the color palette RAMI 1.
  • the pixels of the texture pattern data are referred to as “texels”, and the pixels that make up the image displayed on the screen are distinguished from “pixels”. Therefore, the texture pattern data is a set of techsenators.
  • the polygon structure array is a structure array for polygons that are polygonal graphic elements
  • the sprite structure array is a splice that is a rectangular graphic element parallel to the screen.
  • Structure array for The element of the polygon structure K column is called “polygon structure instance”, and the element of the sprite structure array is called “sprite structure instance”. However, if there is no need to distinguish between the two, it may simply be called “Structure Instance J.
  • Each Polygo i structure instance in the polygon structure array is displayed on the display information for each polygon (on the screen). Top / ⁇ mark, information on texture pattern in texture mapping mode, and color data in RGB color component (including RGB color component).
  • Each sprite structure instance and instance in the sprite structure transversion sequence is a display for each sprite '
  • Video DAC 29 is a digital / reg / analog generator for generating analog video signals.
  • the video DAC 29 converts the data stream input from the RPU 9 into an analog composite video signal, and outputs it to a video signal output terminal ("tirf" in the figure) or a television monitor (not shown in the figure).
  • the color palette RAMI 1 is composed of a color palette of 512 colors, that is, 512 entries.
  • RPU9 uses the texture data included in the texture pattern data as part of the index that specifies the entries in the color palette, and refers to the color palette RAMI 1 to convert the texture pattern data into color data (RGB color component). Convert to.
  • SPU 13 which is one of! ⁇ Of the present invention is PCM (pu 1 seco de modu 1 ation) waveform data (hereinafter referred to as “wave data”), amplitude data, and main volume. Generate data. Specifically, the SPU 13 time-division multiplexes the wave data for up to 64 channels, generates envelope data for up to 64 channels, multiplies it with the channel volume data, and time-divisions the amplitude data. Multiplex. Then, the SPU 13 outputs the main volume data, time-division multiplexed wave data, and time-division multiplexed amplitude data to the audio DAC block 31. Also, SPU13 receives wave data and envelope data from DMAC4. Details of the SPU 13 will be described later.
  • the audio DAC block 31 which is one of the aspects of the present invention, converts the wave data, the amplitude data, and the main volume data input from the SPU 13 into analog signals, respectively, and analog-multiplies the results. Generate an analog audio signal.
  • This analog One audio signal is output from an audio signal output terminal ( ⁇ rf in the figure) to an audio input terminal (not shown) of a television monitor or the like (indicated by 3 ⁇ 4rf).
  • the SPU local RAM I 5 stores parameters used when the SPU 13 performs wave reproduction and envelope generation (for example, address pitch information of wave data and envelope data).
  • G E 1 7 uses an apologetic operation to display 3D images.
  • GE 1 7 is a matrix product, vector affine transformation, vector orthogonal transformation, Fujisaki transformation, vertex lightness / polygon lightness calculation (vector inner product), and polygon back force ring processing (vector outer product). Make the calculation purple.
  • YSU 19 stores each structure instance of the polygon structure stored in main RAM 25 and each structure instance of the sprite structure array according to sort / toll 1 to 4 To do.
  • the ⁇ ⁇ polygon structure array and sprite structure array are sorted separately.
  • a two-dimensional coordinate system used for actual display on a display device such as a television monitor is called a screen coordinate system.
  • the screen coordinate system is composed of two-dimensional 'Pixeno H self-sequences of horizontal, direction 20 48 pixels, and vertical direction 10 24 pixels.
  • the coordinate origin is at the upper left, the right direction corresponds to the positive X axis, and the lower direction corresponds to the positive Y axis.
  • the actual displayed area is a part of the screen coordinate system, not the entire space. This display area is called a screen.
  • the Y coordinate in Sort Lunole 1-4 is a value in the screen coordinate system.
  • Sort 1 is to arrange each polygon structure instance in order from the smallest Y coordinate.
  • the smallest Y coordinate is the smallest Y coordinate among the Y coordinates of all the vertices of the polygon.
  • Sort 2 is to arrange the structure instances of polygons in order of increasing depth value for multiple polygons with the same minimum Y coordinate '. Drawn on.
  • YSU 1 9 considers multiple polygons with pixels displayed in the first line of the screen to be the same even if the minimum Y coordinate is different. Instead, it sorts each polygon structure instance according to sort 2. In other words, if there are multiple polygons with pixels displayed on the first line of the screen, the minimum Y coordinate is assumed to be the same, and the depth values are arranged in descending order. This is Sotonorail 3. Even with interlaced scanning: ⁇ , sorts 1 through 3 apply. However, in sorting to display the field, the minimum Y coordinate of the polygon displayed on the odd line and the minimum Y coordinate of the polygon displayed on the even line immediately before Z or the odd line are the same.
  • Sortle 2 assumes that the minimum Y coordinate of the polygon displayed on the even line and / or the minimum Y coordinate of the polygon displayed on the odd line before the even line are the same. This is Sort No4.
  • Sort Nos. 1-4 for sprites are the same as Sort Nos. I ⁇ "1-4 for polygons, respectively.
  • the external memory interface 3 is responsible for reading data from the external memory 50 and writing data to the external memory 50 via the external bus 51.
  • step 3 according to the EBI priority table (not shown), external bus access request factors from CPU 5 and DMAC 4 (factors requesting access to external bus 51) are arbitrated, and either one of the external Select the bus access request factor. Then, the access to the external bus 51 is permitted for the selected external bus access request factor.
  • E B I priority injection position table multiple from CPU 5
  • the DMAC 4 performs DMA transfer between the main RAM 25 and the external memory 50 connected to the external bus 51. This 3 ⁇ 4 ⁇ , DMAC4, according to the table about DMA excellent H not shown,
  • DMA request factor Arbitrate the DMA request factor from CPU5, RPU9, and SPU13 (factor that requires DMA) and select one DMA request factor. Then, a DMA request is made to the external memory interface 3.
  • DMA excellent around 5HI table is CPU5, RPU9, and
  • the DMA request factors of SPU13 are (1) to make wave data into wave buffer and (2) to make envelope data into envelope buffer.
  • the wave buffer and the envelope buffer are temporary areas of wave data and envelope data set on the main RAM 25, respectively. Note that two DMA requests for SPU13 The mediation between the factors is performed by hardware (not shown) in SPU13, and DMA C 4 is not aware. '
  • the texture buffer is a temporary storage area for texture pattern data set on the main RAM 25.
  • the CPU5 DMA request factors are: (1) A page miss occurred due to memory management: ⁇ Page transfer, (2) Data transfer requested by application program, etc. If multiple DM A3 ⁇ 43 ⁇ 4 requests occur at the same time in CPU.5, the mediation is performed by the software that is ffed by CPU5, and DMAC4 is not informed.
  • the external interface block 21 is an interface with the peripheral device 54 and includes 24 channels of programmable digital input / output (I / O) ports.
  • Each of the 24-channel IZO ports has a mouse interface function for 4 channels, a light gun interface function for 4 channels, a general-purpose timer counter for 2 channels, an asynchronous serial interface function for 1 channel, and 1 channel. It is internally connected to one or more of the general purpose parallel ⁇ serial conversion port functions.
  • the ADC 33 is connected to the 4-channel analog input port, and through these, the analog signal input from the analog / input device 52 is converted into a digital signal. For example, analog input signals such as microphone sound are sampled and converted to digital notators.
  • the main RAM access arbiter 23 arbitrates access requests to the main RA1VI25 from the functional units (CPU5, RPU9, GE17, YSU 19, DMAC 4, and external interface block 21 (general-purpose parallel Z serial conversion port)). Give access permission to any functional unit. '
  • the main RAM 25 is used as a work area for CPU5, a variable area, tKKi, a storage management area, and the like.
  • the main RAM 25 is a data area received by the CPU 5 from other functional units, a TO area for data acquired by the RPU 9 and SPU 13 from the external memory 50 by DMA, an input data area and an output data area for the GE 17 and YSU 19, etc. Also used as
  • the external bus 51 is a bus for accessing the external memory 50.
  • CPU5 and DMA are a bus for accessing the external memory 50.
  • the data bus of external bus 51 consists of 16 bits, 8 bits or 16 bits An external memory 50 having a data bus width of 5 can be connected. External memories with different data bus widths can be connected at the same time, and the function of automatically switching the data bus width according to the external memory to be accessed is provided.
  • an echo is a reflected sound that can be clearly discriminated from the original sound that is generated in a certain sound force s on a wall or ceiling
  • a reverb is a reverberant sound that cannot be distinguished from each individual sound.
  • Figure 2 refers to is an illustration of a typical echo model.
  • Figure 2 is a general model of the echo ⁇ beauty Ripabu there is illustrated in a music hall or the like.
  • initial « The time is determined by the distance between the sound source and the wall.
  • the initial ⁇ f sound is generally called an echo, and is a sound that is heard with a delay in the original sound.
  • the size and timbre of the initial reflected sound vary depending on the size and material of the reflection wall
  • the remaining # ⁇ is generally called a reverb, and the original sound and reflection sound are on the ceiling, floor, auditorium, For various objects such as the audience Normally, it is not possible to determine the power of the original sound by just listening to the remaining sound
  • the volume, tone, and time of the reverberant sound are various factors such as the volume, shape, and material of the hall. It depends on.
  • echo and reverberation are intentionally performed with a simple model. Reproduce.
  • an echo sound model is provided in a unified manner for echo and reverb. The function that realizes this model is called the “echo function”.
  • FIG. 3 is an explanatory diagram of an echo model according to the embodiment of the present invention.
  • the echo »time is created by an echo F I F O buffer configured on the main AM 25.
  • the sum of the wave data reproduced by the logical sound channel specified as the echo source that is, the wave data force S that is given the effect by the echo function
  • Delay is generated by retrieving and playing back the wave data (summation) after a certain period of time.
  • the logical sound channel specified for the echo source is the “Efate original channel”
  • the wave data as the echo component that is, the wave data to which the effect is given by the echo function
  • the logical sound channel to be assigned is the “effect” Channels
  • logical sound channels to which wave data as normal sound components that is, wave data to which no effect is applied by the echo function
  • non-effect channels a sound channel corresponding to an object
  • a physical sound channel is clearly distinguished from a logical sound channel that is a sound channel that reproduces wave data output to the physical sound channel.
  • sound channel # ⁇ means a logical sound channel.
  • two physical sound channels are set on the left and right. Therefore, the physical sound channel that receives the left audio signal (left wave data) is called the “left channel”, and the physical sound channel that plays the right audio signal (right wave data) is called the “right channel”.
  • the reversal time is also created by the echo F I F O buffer configured on the main RAM 25.
  • wave data reproduced over time is repeatedly reproduced while reproducing the reverberation.
  • the waveform data shown in the figure is created by multiplying the wave data reproduced by the Efate channel by the echo release rate ER and adding the multiplication result to the wave data stored in the echo FIFO buffer.
  • the echo and reverb for the audio data input from AD C 33 is also supported by hardware.
  • This function is called a microphone echo function.
  • the microphone echo function configures a microphone echo FIFO buffer for «on the main RAM 25.
  • the computation required for reverb is performed with 5 CPUs.
  • the microphone echo function 3 ⁇ 4 ⁇ can be used to reproduce the microphone echo component from 48 sound channels since the number of possible sound channels is limited to 48 or less. It is necessary to set one effect channel.
  • both the echo function and the microphone echo function can be used, so this: ⁇ sets the fault channel for each.
  • FIG. 4 is a schematic diagram of the echo function in the embodiment of the present invention. Referring to Fig.
  • the echo function consists of echo blocks ⁇ 0 to ⁇ ( ⁇ — 1), difficulty A p, funnel shifter // saturation processing circuit FS, echo FI FO buffer B a, Bb, difficulty A 1, And multiplication ⁇ ⁇ Including M1.
  • Each of the echo blocks EB0 to EB (N-1) includes a multiplier Mp and a switch SW.
  • the echo blocks EB0 to EB (N-1) include the amplitude left and right average value calculation units AM 0 to AM (N-1) of the corresponding sound channels # 0 to (N-1).
  • wave data W0 to W (N-1) of sound channel # 0 to (N—1), left amplified data AML0 to AM (N—1), and extended data AMR0 to AMR (N -1) Force Input to the corresponding echo block EB0 to EB (N-1).
  • the average value of the left amplified data AL0 to AL (N-1) and the right amplified data AR 0 to AR (N-1) is calculated by the amplitude left and right average value calculation units AM 0 to AM (N-1). It is calculated in the echo blocks EB0 to EB (N-1) as the left and right average values ALR0 to ALR (N-1). “N” is difficult and can range from 1 to 48.
  • wave data W0 to W (N-1) of sound channel # 0 to # (N—1), echo block EB0 to EB (N-1). ) And amplitude left and right average values ALR0 to ALR (N-1) are 1 , and when they are expressed comprehensively, the wave data Wn of sound channel #n, echo block EBn, and sound channel #n, respectively And amplitude left and right average value A LRn.
  • any sound channel from among sound channels # 0 to # (N—1) can be set as the original source channel.
  • the sound channel #n is set as the effect original sound channel.
  • the wave data that is the echo source is the multiplication result E Mn of the wave data Wn of the sound channel #n set for the effect original sound channel and the left and right amplitude average value A L Rn. That is, the wave data Wn of the sound channel #n set as the effect original sound channel is multiplied by the amplitude left-right average value A L R n and the force echo block E B n difficulty Mp, and the multiplication result EMn is obtained.
  • the switch SW of the echo block EBn is turned on when the sound channel #n is set to the original source channel 3 ⁇ 4 ⁇ , so the multiplication result calculated for each sound channel #n
  • EMn can be added only to the sound channel #n set as the effect original sound channel.
  • the total sum ⁇ is calculated by adding to each other by Ap. This can be expressed as ⁇ ;
  • the funnel shifter Z saturation processing circuit FS outputs 8-bit wave data to the subsequent stage.
  • the total sum exceeds the range that can be represented by 8 bits: ⁇
  • 8-bit wave data is funnel shifter / saturation processing depending on the value of the sign bit, which is the most significant bit of 8 bits. Saturated to a predetermined value by the FS saturation processing circuit.
  • the 8-bit wave data from the funnel shifter Z saturation processing circuit F S is sequentially applied to the echo FIFO buffer Ba provided in the main RAM 25 by fcA.
  • the input value is output from the effect channel as wave data with sound effects (echo and reverb) after all entries in the echo FIFO buffer Ba and Bb have passed. '
  • the echo delay time T echo ' (see Fig. 3) is the number of entries Na in the echo FI FO buffer B a and the number Nb of entries in the echo FI FO buffer Bb, and the wave data in the echo FI FO buffers B a and Bb. Can be calculated from the input frequency fecho (Hz). The following equation is used to calculate the echo delay time Te c ho (seconds).
  • the value output from the echo FIFO buffer Bb is output from the effect channel as wave data as an echo component, output to the multiplier, and multiplied by the echo release rate ER.
  • the multiplication result is added to the wave data output from the echo FIFO buffer B a by the difficulty A 1 and written to the echo FIFO buffer B b.
  • the reverb delay time Tre V erb (see Fig. 3) is calculated from the number of entries Nb in the echo FI FO buffer B b and the frequency fec ho (Hz) at which wave data is input to the echo FI FO buffers B a and Bb. it can.
  • the following equation is a formula for calculating the reverberation time ⁇ T e V erb (seconds). '
  • the microphone echo function will be explained.
  • the analog audio signal from the external analog input device 52 force such as a microphone can be converted into a digital string using the AD C 25. If this digital string is converted to PCM wave data in a format compatible with the multimedia processor 1, the converted PCM wave data can be played back as one of the sound channels. Similar to the echo function described above, this P and CM wave data can be generated to produce echo and reverb effects (microphone echo function).
  • FIG. 5 is a conceptual diagram of the microphone echo function in the embodiment of the present invention.
  • the microphone echo function includes ADC25, CPU5, microphone echo F I FO notifier MB a, MBb, adder A s, and multiplier M s.
  • the AD C 25 converts an analog audio signal from an external analog input device 52 such as a microphone into a 10-bit digital nota- tor. Since this 10-bit digital data is an unsigned value, the CPU 5 converts this digital data into an 8-bit signed value (in the range of 127 to +127). PCM wave data in a format compatible with processor 1.
  • the 8-bit PCM wave data per sample is forwarded by the CPU 5 to the microphone echo FIFO buffer MB a provided on the main RAM 25.
  • the input PCM wave data is output from the effect channel as wave data with acoustic effect (echo and reverb) force S after all entries of the microphone echo FIFO buffer MBa and TVIBb have passed. Therefore, the echo time of the microphone echo function is the same as that of the echo function.
  • Equation 1 is calculated from the total number of entries for the microphone echo FI FO buffer MBa and ⁇ VIBb and the frequency at which wave data is input to the microphone echo FI FO buffer MB a and tMIBb. it can. ,
  • the value output from the microphone echo F I FO buffer MB b is output from the effect channel as wave data, which is the microphone echo component, and is also output to the multiplication ⁇ Ms and multiplied by the microphone echo release rate.
  • the multiplication result is added by the adder As with the wave data output from the echo FIFO buffer MBa and written to the microphone echo FIFO buffer .MBb.
  • the microphone echo release rate is the same as the echo release rate ER.
  • the reverberation time of the microphone echo function is the number of entries in the microphone echo F I FO buffer MB b and the microphone echo F I FO buffer MB a and
  • FIG. 6 is a diagram illustrating a logical sound channel and a logical sound channel according to an embodiment of the present invention. However, this figure shows the configuration of the logical sound channel and the ⁇ sound channel based on human hearing, and the configuration of each part does not necessarily match the circuit implementation example in the embodiment of the present invention. Referring to Figure 6, set logical sound channels # 0- #
  • digital blocks D I B0 to D I B (K-1) are provided. “Kj is difficult, and can take a value of 6 '4 for 1 force.
  • the analog block ANB is a banule M L0-ML (K— 1) corresponding to the left channel (physical sound channel). ), Caro difficulty AD L, and multiplication ⁇ MLO, and the right channel (physical sound channel), including the multiplication ⁇ V1R0 to MR (K-1), Caro difficulty ADR, and riding difficulty MRO.
  • Difficult ML0 to ML (K-1) are digital inputs DIB 0 to DIB (K-1) input WVL 0 to WVL (K 1) and AMLO to AML (K-1), respectively.
  • Multipliers MRO to MR (K-1) receive inputs from digital blocks DIB 0 to DIB (K-1) WVR0 to WVR (K-1) and AMR0 to AMR (K-1), respectively. Receive.
  • digital blocks DI B0 to DIB (K-1) correspond to the playback units of logical sound channels # 0 to # (K-1), respectively.
  • Analog block ANB Corresponds to the converter from logical sound channel to physical sound channel (converter to left channel and convert to right channel).
  • the audio output signal AUL output from the analog block ANB corresponds to the left channel (physical sound channel)
  • the audio output signal AUR output from the analog block A NB corresponds to the right channel (physical sound channel). Equivalent to.
  • the logical sound channels # 0 to # (K 1) are expressed comprehensively, they are expressed as the sound channel #k and the digital block DIB 0 to DIB (K-1) is comprehensively expressed. When expressed, it is expressed as 'digital block DIB k'.
  • the multiplier ML 0 to ML (K—1) is comprehensively expressed, it is expressed as multiplication ⁇ ! MLk, and multiplication g »[R0
  • ⁇ MR (K-1) it is expressed as riding difficulty MR k.
  • the digital book D I B k performs playback processing of the corresponding logical sound channel #k.
  • Each digital block DI Bk includes switch SWz, wave buffer WBF k, effect FI FO buffer EBF, switch SWf, interpolation filter IF, switch SWs, envelope buffer EVBFk, switch SWt, and multiply ⁇ P, MPL, MPR .
  • the above-described echo F I FO buffer and microphone echo F I FO buffer are comprehensively described as an effect F I FO buffer EBF.
  • PCM wave data is an 8-bit data stream and is usually stored in the external memory 50 in advance.
  • SPU 13 starts to acquire PCM wave data from DM AC 4.
  • the DMAC 4 transfers the PCM data from the external memory 50 to the wave buffer WBFk secured on the main RAM 25.
  • the switch SWz is on.
  • SPU13 disables the acquisition of PCM wave data by DMAC 4 by turning off switch SWz when CPU 5 decompresses j £ ⁇ PCM wave data. In this case, CPU 5 writes PCM wave data to the outfitted wave buffer WBFk.
  • SPU13 replaces switch SWf with wave buffer WBFk side, and wave buffer
  • PCM wave data set to WBFk is sent to the subsequent stage as wave data Wk.
  • the logical sound channel #k is set to an effect channel that reproduces the echo component
  • the PCM wave data that is the echo component is Written to FI FO buffer EBF (Echo FI FO buffer). Since this switch SWf is exploded with the effect FIFO buffer EBF side, the PCM wave data that is the sequential echo component from this buffer EBF is sent to the subsequent stage as wave data Wk.
  • the logical sound channel #k is set to the effect channel that reproduces the microphone echo component.
  • the PC CM wave data which is the microphone echo component
  • the PCM wave data which is one miter eco component, is sent to the subsequent stage from this buffer EBF.
  • the pitch conversion is performed by changing the read value g from the wave buffer WBFk.
  • an interpolation filter IF is installed to capture the PCM wave data.
  • Interpolation power ⁇ ? The switch is performed for all logical sound channels # 0 to # (K—1) at once.
  • the interpolation ⁇ is performed on the switch SW2 force interpolation filter IF side, and the PCM wave data after interpolation is sent to the subsequent stage.
  • the switch SWs is moved directly to the switch SWf side, and PCM wave data without interpolation is sent to the subsequent stage.
  • the PCM wave data from the switch SWs is output to both the left channel, right channel, and (left and right physical sound channels) converters.
  • the PCM wave data output to the left channel converter is denoted as left wave data WVL k
  • the PCM wave data output to the right channel 'converter is denoted as right wave data WVRk.
  • the method of generating each sample of the envelope is different between the sequential mode and the release mode.
  • DMAC4 sends an envelope data string from the external memory 50 to the envelope buffer EVBFk reserved on the main RAM 25 in response to a request from the SPU 13, and SPU 13 decodes the envelope data string.
  • This ⁇ ⁇ switch SWt is assigned to envelope sample EVS k ⁇ J, and is sent to the subsequent stage as envelope sample EVS k force envelope data EVDk.
  • the multiplier MP multiplies the previous envelope data EVDk by the envelope release rate EVRk obtained by the SPU local RAMI 5 to obtain an envelope sample.
  • This ⁇ is input to the switch SWt raised to the MP side, and the envelope sample from the raised ⁇ IP is sent to the subsequent stage as the envelope EVD k.
  • Each #k is listed in SPU local RAMI 5.
  • Ride MPL multiplies envelope data EV Dk (16 bits) and gain GLk (8 bits) to generate left channel amplitude data AMLk (16 bits).
  • Ride-in MPR multiplies envelope data EVD k (16 bits) and gain GRk (8 bits) to generate right channel amplitude data AMRk (16 bits).
  • the analog block ANB multiplication ⁇ MLk is input with the left wave data WVL k of the corresponding digital block DI Bk and the left amplitude data AML k part 8 bits), and these are multiplied.
  • Ride difficulty MRk is input with the right wave data WVRk of the corresponding digital block DI Bk and the right amplified data AMRk (8 bits of the difficult part), and these are multiplied.
  • the left audio signal of logical sound channel #k obtained from the multiplication result of wave data WVL k and amplitude data AM L k is added to the left audio signal of all other logical sound channels being played back by adder ADL. Is calculated.
  • the multiplication ⁇ MLO multiplies the addition result by the 8-bit main volume data MV to generate the final left channel audio output signal AUL. .
  • the right audio signal of the logical sound channel #k obtained from the multiplication result of the wave data WVRk and the amplitude data AMRk is added to the right audio signal of all other logical sound channels being played back by the adder ADR. Is added. Then, the riding difficulty MRO multiplies the addition result by the 8-bit main volume data MV to generate the final right channel audio output signal AUR.
  • FIG. 7 is a block diagram showing the internal configuration of the SPU 13 of FIG. Referring to Figure 7, SPU1
  • 3 includes data processing block 35, comaside processing state machine 37, control register set 39,
  • the data processing block 35 includes an echo function block 55 and a microphone echo function block 57.
  • the command processing state machine 37 performs state control in command execution of the SPU 13 in accordance with a command issued by the CPU 5 through the I / O bus 27.
  • the type of command issued is
  • the command START is an instruction to start playback of the specified logical sound channel #k.
  • CPU 5 writes parameters necessary for playback in SPU local RAMI 5 in advance.
  • Coand STOP is an instruction to stop playback of the specified logical sound channel #k.
  • the command UPDATE is a command that causes some of the parameters used for playback to be obtained during the playback of the logical sound channel #k.
  • the CPU 5 writes a parameter to be Mff in advance in a corresponding control register in the SPU 13 (included in the control register set 39 described below).
  • Command NOP is a command that does not allow any processing to be performed.
  • the control register set 39 includes a plurality of control registers (not shown) for controlling the SPU 13 other than the SPU command register 38.
  • the control register set 39 includes an echo function setting register (shown as 3 ⁇ 4 ⁇ in the figure).
  • the echo setting register set to the non-effect channel (“oo”), set to the effect original sound channel (“ ⁇ ”), set to the effect channel to be used as the echo component (“ ⁇ ”), and set the effect to the microphone echo component.
  • the vertical channel 11”.
  • the logical sound channel to be refined has attributes (non-feature channel, effect original sound channel, effect channel for echo component) according to the value of the eco function setting register at that time. Therefore, the power of the effect channel for the microphone echo component can be set, so the CPU 5 can access the echo function setting register to set each logical sound channel with the offset attribute. It is also possible not to set the effect channel for the echo channel and the z or microphone echo component as the echo component for the logical sound channel.
  • the DMA requester 41 issues a DM request to the DMAC 4 in order to acquire the wave data and the envelope data from the external memory 50 according to the instruction from the command processing state machine 37. Also, the data acquired by the DMA transfer is output to the data processing block 35.
  • the data processing block 35 performs wave data acquisition and playback, envelope data acquisition and decoding, amplified data ⁇ , echo processing, and microphone echo processing. Then, the data processing block 35 divides and multiplexes the plurality of logical sound channels #k of the wave data WV L k in the left channel and outputs them to the crosstalk circuit 45 as the left channel wave data MWL. Data processing block 35 is connected to the right channel. Wave data WV R k of multiple logical sound channels #k to be time-division multiplexed and output to the crosstalk reduction circuit 45 as right channel wave data MWR.
  • the data processing block 3 5 is time-division multiplexed with multiple logical sound channels # k of amplitude data AML k to the left channel, and the left channel amplitude data MAML is used as a crosstalk circuit. 4 Data is output to 5. Data processing block 3 5 is the amplitude data of multiple logical sound channels # k for the right channel. AM R k is time-division multiplexed and the right channel amplitude data MAMR is crosstalked. Output to reduction circuit 4 5.
  • wave data of multiple logical sound channels #k can be mixed in the physical sound channel, and multiple logical values for each physical sound channel. Mixing of amplitude data of sound channel #k. This makes use of the fact that audio output that has been time-division multiplexed and digital / analog converted is audibly mixed and heard.
  • FIG. 8 is an explanatory diagram of time division multiplexing by the data processing block 35 in FIG.
  • the total number of logical sound channels # 0 to # (K—1) to be time-division multiplexed (that is, mixed) can be set from 1 to 64 in increments of 1 channel. is there.
  • the value of the number of multiplexed channels K can be set to any value from 1 to 64.
  • each logical sound channel #k is assigned to each slot that is to be multiplexed. If K-channel mixing is performed, a knop consisting of K-slots will be output.
  • the parameters in each storage area also include wave data address information, which sets the wave data to be assigned to the logical sound channel.
  • main RAM interface 4 3 is the main R A of the data processing block 3 5.
  • Access to the main RAM 25 is as follows: (1) Write the wave data and envelope data acquired by DMA transfer to the main RAM 25, (2) Wave data and envelope data for playback of the logical sound channel #k The main RA Reading from the M25, (3) Echo processing Read / write of wave data as echo components and wave data as microphone echo components to / from the main RAM 25 for 3/4 microphone echo processing.
  • the SPU low power RAM interface 47 mediates access to the SPU local R AMI 5 of the data processing block 35. Access to the SPU local RAMI 5 is performed in reading and writing parameters for wave data playback and parameters for generating envelope data and amplified data. The SPU local RAM interface 47 also mediates when the CPU 5 accesses the SPU local RAMI 5 through the IZO bus 27.
  • the audio DAC block 31 in FIG. 1 includes a cascaded DAC (1 ⁇ in the figure). As mentioned above, mixing multiple logical sound #k is time division multiplexed data.
  • time-division multiplexed data is directly input to audio DAC block 31, propagation between cascaded DACs causes crosstalk between logic sound channels #k. there is a possibility.
  • the crosstalk reduction circuit 45 in FIG. 7 prevents such a crosstalk between the logical sound channels #k.
  • This crosstalk circuit 45 is connected to each logical sound channel #k
  • the crosstalk circuit 45 inserts a silent period between the logical sound channels #k of the left channel wave data MWL and outputs the result to the audio DAC block 31 as the left channel wave data MWLC. Further, the crosstalk circuit 45 inserts a silence period between the logical sound channels #k of the right channel wave data MWR and outputs the result to the audio DAC block 31 as the right channel wave data MWRC.
  • the crosstalk ⁇ 3 ⁇ 4 ⁇ circuit 45 inserts a silence period between the left channel amplitude data MAML logical sound channel #k and the left channel amplitude data M
  • the crosstalk ⁇ S ⁇ circuit 45 inserts a silence period between the logical sound channels #k of the right channel amplitude data MAMR and outputs the audio DAC block as the right channel amplitude data MARC. 3 Outputs to 1.
  • the crosstalk circuit 45 uses the main volume data MV input from the corresponding control register (illustrated 3 ⁇ 4 to f) of the control register set 39 as the main volume data M VC as it is, and the audio DAC block 3 1 Output to.
  • FIG. 9 is an explanatory diagram of an echo F I FO buffer, a microphone echo F I FO, and a buffer configured in the main RAM 25 of FIG.
  • the area of the echo F I FO buffer can be set freely on the main RAM 25.
  • the start and end of the echo FIFO buffer area are set by the echo FIFO buffer start and end address registers 1 1 5 and 1 5 and the echo FIFO buffer and termination address register 1 17 respectively (see FIG. 10).
  • Echo F I FO buffer termination address register 1 1 5 and Echo F I FO buffer end address register 1 1 7 are set by CPU 5 through I / O bus 27.
  • the lower 3 bits of each register cannot be set, and the lower 3 bits of the echo FIFO buffer start address register 1.15 are fixed to “0 b 000”, and the echo FIFO buffer end address is set.
  • the lower 3 bits of register 1 1 7 are fixed to “0 1 1”.
  • the size of the echo FIFO buffer can be freely determined, so that a necessary and sufficient size can be secured on the main RAM 25 according to the required echo time (see Fig. 2). .
  • the area of the microphone echo F I FO buffer can be freely set on the main RAM 25.
  • the start and end of the microphone echo FIFO buffer area are set by the microphone echo FIFO buffer start address register 141 and the microphone echo FIFO buffer end address register 143 described below (see FIG. 11).
  • the values of the microphone echo F I FO buffer start address register 141 and the microphone echo F I FO buffer end address register 143 are set by the CPU 5 through the INO bus 27. However, the lower 3 bits of each register cannot be set, and the lower 3 bits of the microphone echo F I FO buffer start address register 14 1 are fixed to “0 b 000”.
  • FIG. 10 is a block diagram showing the internal configuration of the echo function block 55 in FIG. Referring to Fig. 10, the echo function block 5 5 is composed of the wave data temporary register 7 1, left amplified register: temporary register 7 3, right amplified temporary register 7 5, adder 7 7,
  • Multiplier 8 1 Addition 8 3
  • Accumulated value ⁇ ⁇ Register 8 5
  • Fanane shifter 8 7
  • Saturation processing circuit 8
  • Multiplexer (MUX) 9
  • Echo write data buffer 9 7 Echo FIF 0 buffer read address counter 9 9 9, Echo read data buffer 1 0 1, Echo FIFO buffer release address counter 1 0 3, Release read data buffer 1 0 5 Release write data buffer 1 0 7, multiplier 1 1 1, and adder 1 1 3.
  • Echo Sigma window register 9 Echo F I F O Buffer termination address register 1 1
  • Echo F I F 0 Buffer end address register 1 1 7 'and Echo release rate register 1 0 9 are included in control register set 39 in FIG.
  • the wave data temporary register 7 1, the left amplitude temporary register 7 3, and the right amplitude temporary register 7 5 are output to the audio DAC block 3 1 via the crosstalk circuit 4 5 for playback.
  • Sound channel #n ( Figure
  • wave data Wn left amplitude data AM L n
  • right amplitude data AMR n right amplitude data
  • the values AML n and AMR n in the left amplified temporary register 7 3 and the right amplified temporary register 7 5 are added to each other by the calorie difficulty 7 7, and the addition result is obtained by the divider 7 9 Divided by 2 ”, the average value ALR n of the left and right channel amplitude data is obtained.
  • Multiplier 8 1 is the average value of the left and right channel amplitude data
  • the stored value ⁇ (22 bits) in the accumulated value 3 ⁇ 4 inner register 85 is output to the funnel shifter 87 and the saturation processing circuit 89.
  • the Fubuneno shifter 8 7 selects the 8 bits in the 22-bit input value ⁇ from the accumulated value TO register 85 according to the setting value of the echo sigma window register 91, and outputs it to the MUX 93.
  • '-Saturation circuit 8 9 selects and selects 8 consecutive bits in 22-bit input value ⁇ from accumulated value storage register 85 according to the setting value of echo sigma window register 91 Extract all bits that are higher than 8 bits.
  • the 8 bits selected here are the same value as the 8 bits selected by the fune / shifter 87.
  • the saturation processing circuit 8 9 is positioned higher than the selected 8 bits of the 22-bit input value ⁇ , and all the bits not included in the selected 8 bits are selected. If the value of the sign bit of the 8-bit value (the most significant bit in the 8 bits) is not the same value (Condition 1), and the value of the selected 8-bit sign bit is “0”, “0 x “7'F”, if the value of the sign bit is “1”, “0 x 8 1” is output to MUX 93.
  • the saturation processing circuit 8 9 indicates that the selected 8-bit value is '0 x 8 0', and is positioned higher than the selected 8-bit of the input value of 22 bits. However, if all the bits not included in the selected 8 bits are “1” (condition 2), “0 x 8 1” is output to MUX 3. Further, the saturation processing circuit 89 outputs a selection signal for selecting the input value from the saturation processing circuit 89 to the MUX 93 when the condition 1 or the condition 2 is satisfied. Therefore, the MUX 93 selects the input value of the saturation processing circuit 89 and the like and outputs it to the echo data buffer 97 when the condition 1 or the condition 2 force S is satisfied. On the other hand, the condition 1 and the condition 2 and the deviation are not satisfied, 3 ⁇ 4 ⁇ i, the MUX 93 outputs the input value from the funnel shifter 87 to the echo light data buffer 97.
  • the data output from the MUX 93 is stored in the echo light data buffer 97 in increments of 1 at a time.
  • the stored data is stored in the echo FIFO nota write address counter 9 5 main RAM 2 5 address WAD (Echo FIFO buffer in Figure 9) (See below).
  • Echo FIFO buffer write address counter 95 The initial value of the echo FIFO buffer write address counter 95 is set by the CPU 5 through the control register set 39. Echo FIFO buffer write address counter 9 5 The value is incremented by 8 each time a write to main RAM 25 is performed (because it is written in 8-byte units), but the value after the increment exceeds the value set in the echo FIFO buffer end address register 117 ⁇ It is initialized to the value set in the echo FIFO buffer start address register 115 without being incremented. The value of the echo FIFO buffer write address force counter 95 can be read from the CPU 5 through the control register set 39.
  • Wave data Wi as the echo component Wi (where i is any force from 0 to (N—1)) is the address RAD in the main RAM 25 indicated by the echo FI FO buffer read address counter 99 (Eco FI FO in Fig. 9). Read from the buffer) in units of 8 bytes and stored in the 'echo read data buffer 101. The initial value of the echo FIFO buffer read address ⁇ 99 is set by the CPU 5 through the control register set 39.
  • the value of the echo FIFO buffer read address counter 99 is incremented by 1. If the value after the increment exceeds the value set in the code FIFO buffer end address register 117, the echo FIFO buffer start end is not incremented. Initialized to the value set in address register 115. The difficult value of the echo FIFO buffer read address counter 99 can be read from the CPU 5 through the control register set 39.
  • the 1-byte data output as the wave data Wi is multiplied by the echo release rate register ER leaked to the echo release rate register 109 by the riding difficulty 111.
  • the value ER of the echo release rate register 109 is set by the CPU 5 through the I / O bus 27.
  • the result of multiplication is calculated by the adder 113 with the 1-byte data stored in the release read data buffer 105.
  • the 1-byte data stored in the release read data buffer 105 is the data read from the address LAD of the main RAM 25 (refer to the echo FIFO buffer in Fig. 9) indicated by the echo FIFO buffer release address counter 103. is there. This ⁇ is read in 1-byte units.
  • Echo FIF O Buffer release address counter 103 The initial value of the echo F I FO buffer release address counter 103 is set by the CPU 5 through the control register set 39. Echo FIF O Buffer release address counter 103 value is incremented by 1. If the value after increment exceeds the value set in the echo FIFO buffer end address register 117, it is not incremented and the echo FIFO buffer start end is not incremented. Initially set to the value set in address register 115.
  • the result of addition by the difficulty 113 is sent to the release write data buffer 107 and echoed.
  • FI FO buffer release address counter 103 L Written back to AD (Echo FI FO Buffer).
  • the current value of the echo FIFO buffer release address counter 103 can be read by the CPU 5 through the control register set 39.
  • Echo F I FO buffer address WAD echo F I FO buffer read address R AD
  • echo F I FO buffer release address LAD echo F I FO buffer release address LAD
  • the value obtained by subtracting the LFO buffer read address RAD is the sum (Na + Nb) of the number of entries in the echo F.I FO buffers Ba and Bb (see Fig. 4) (see (Equation 2)).
  • the value obtained by subtracting the echo FIFO read address RAD from the echo FIFO release address LAD is the number Nb of entries in the echo FIFO buffer Bb (see (Equation 3)).
  • Released address counter 103 releases over Surido data buffer 105, release the write data buffer 107, 11, Caro difficulty 113, echo release rate register 109, start address register 115, and end address register 117 can generate the echo model shown in FIG. 3.
  • FIG. 11 is a block diagram showing an internal configuration of the microphone echo function block 57 of FIG. Figure 1
  • the microphone echo function block 57 includes a microphone echo F IF buffer read address counter 145 and a microphone echo read data buffer 147.
  • the microphone echo FIFO buffer start address register 141 and the microphone echo FIFO buffer end address register 143 are included in the control register set 39 of FIG.
  • the age of the microphone echo function used, and the original sound component of the microphone echo are usually written directly from the CPU 5 to the microphone FIFO buffer secured on the main RAM 25.
  • the wave data Wj that is the microphone echo component (j is any force from 0 to (N—1)) is the address of the main RAM 25 indicated by the microphone echo F I FO buffer read address counter 145 MRAD
  • the initial value of the microphone echo FIFO buffer read address counter 145 is set by the CPU 5 through the control register set 39.
  • Microphone echo FI FO buffer read address counter 145 value is incremented by 1 ⁇
  • the value after increment exceeds the set value of Miter ECO FI FO buffer end address register 143 ⁇
  • the current value of the microphone echo FIFO buffer read address counter 145 can be read by the CPU 5 through the control register set 39. It is.
  • the microphone echo function does not support multiplication corresponding to the multiplication by the multiplier 111 and addition corresponding to the calo-calculation by 3 ⁇ 4ro ⁇ 3 ⁇ 4113 in the hardware. These operations are performed by CPU 5 (that is, software). Therefore, the echo function, write address counter 95, echo write data buffer 97,
  • the microphone echo FI FO buffer write address MWAD is generated by a write address counter having the same function as the write address counter 95 formed on the main RAM 25, and the microphone echo FI FO buffer release address MLAD is Main RAM2
  • a function is provided to output the echo component and the Z or microphone echo component in multiple channels.
  • the maximum number of soot channels is “32”.
  • ⁇ output is not performed beyond the last sound channel.
  • it is allocated for! ⁇ Output of the echo component.
  • the original setting of the assigned sound channel is ignored. This also applies to the output of the microphone echo component.
  • the echo honored time register included in the control register set 39 is set to disable or enable echo generation and the continuous channel Number is set.
  • the data processing block 35 outputs the echo component continuously according to the setting of the echo Honored time register.
  • the microphone echo component ⁇ output is disabled or enabled in the microphone echo hold time register (illustrated “3 ⁇ 4rf”) included in the control register set 39, and the number of channels is set. According to the setting of the yield time register, the data processing block 35 outputs the microphone echo component.
  • Fig. 12 is an example of the output of the wave data as the echo component and the wave data as the microphone echo component.
  • the number of sound channels to be played is “8”, one component is assigned to sound channel # 2, and one miter eco component is assigned to sound channel # 6. That is, the effect channel for the echo component is sound channel # 2, and the effect channel for the microphone echo component is sound channel # 6.
  • the number of echo input channels is set to “2”, and the number of input channels for the microphone echo component is set to “3”. '
  • sound channel # 6 and subsequent sound channel # 7 are output with one component of Miter Eco.
  • the original setting is ignored for sound channel # 7 following the sound channel # 6 assigned to this ⁇ ⁇ mic echo component.
  • this case when the "3" «number of channels in accordance with the setting, which exceeds the final sound channel # 7, in this example, « output of the microphone echo component 2 channels divided by force ⁇ 1 no cracking.
  • the effect original sound channel can be set to an arbitrary logical sound channel, so that an arbitrary logical sound channel can be selected from the wave data reproduced by a plurality of logical sound channels. It is possible to apply effects (for example, echo z reverb etc.) Also, multiple logical sound channels are ⁇ K, and the effect channel can be set to any logical sound channel, so that wave data with acoustic effects can be played on any logical sound channel. Furthermore, if it is not necessary to add sound effects, all logical sound channels can be set to non-effect channels and assigned for playback of wave data without effects.
  • any attribute can be set for any logical sound channel.
  • the logical sound channel assigned to the song playback is set as the effect original sound channel, and the wave data being played back there is set.
  • a combination of applying a sound effect such as echo and setting the logical sound channel assigned to the playback of the sound effect to a non-efate channel and not applying the sound effect to the wave data being played back there. Is possible. It is also provided in the Hi-capability logic sound channel by applying pitch modulation and amplitude modulation to the reproduced wave data: ⁇ The same function can be used for the ave data assigned to the effect channel.
  • ⁇ analog audio signal play externally input Ana port grayed input device 5 2 such as a microphone, to Dejitano! ⁇ 1 voice signal by AD C 3 3 (P CM data) After conversion, it can be played with an effect (microphone echo function).
  • ⁇ 5 Because the CPU 5 (that is, software) performs a part of the processing to give the effect, it is possible to arbitrarily construct a configuration to give the effect.
  • the parts MB a, MB b, M s, and A s that generate in Fig. 5 are not necessarily limited to such a configuration, but can be constructed with any configuration.
  • an echo FIFO buffer is constructed in the main RAM 25, and a delay is generated by taking out the wave data after a predetermined time.
  • the « ⁇ ability is easily constructed by the Eco-FIFO buffer.
  • a part of the main RAM 25 is used as an echo FIFO buffer, it can be used for other purposes except for the area reserved for the echo FIFO buffer. The same applies to the microphone echo function.
  • the echo FIFO buffer can be used even at the age when a plurality of logical sound channels are set as the original sound channel.
  • the channel is ⁇ ft.
  • the funnel shifter 87 and the saturation processing circuit 89 of FIG. 10 are provided, the accumulated value! ⁇ The value output from the register 85 (accumulated wave data) arbitrarily of Since the bit string can be extracted, it is possible to optimize the amplitude of the wave data played back by the Fate channel.
  • the amplitude is set at a predetermined rate (echo release rate) with respect to the wave data W i retrieved and played back after a predetermined time (N a + N b) after entering the echo FIFO buffer.
  • the modulation power ⁇ 1 1 1 is provided, and the read position of the wave data Wi from the echo FIFO buffer power for reproduction (the address indicated by the read address counter 9 9) From the RAD, only a predetermined ⁇ (N b) Displaced position
  • the wave data in the LAD field is provided with a caro ⁇ I 1 3 to add the wave data with the amplitude modulation force S applied in the difficulty 11.1 (see Fig. 9) It ’s easy.
  • the microphone echo function the reverb function can be easily realized just by using the main CPU, CPU 5, which performs these processes:
  • 3 ⁇ 4 ⁇ processed by the logical sound channel is PCM data, that is, a digitaltanotator, so it is necessary for processing for imparting sound effects (for example, «processing, etc.)
  • Buffer echo FIFO buffer and microphone echo FIFO buffer
  • processing for providing an effect can be performed with a small logic circuit and Z or small software.
  • mixing of multiple logical sound channels is not performed by an adder, but is realized by time division multiplexing (switching and outputting PCM data of multiple logical sound channels in units of time). (See Fig. 8). Therefore, the mixing power of the audio DAC block 31 can be suppressed as much as the adder for mixing is unnecessary, and the cost ⁇ can be reduced.
  • the wave data reproduced by the effect channel can be assigned to the output time of the logical sound channel other than the effect channel in time division output. It is possible to give sound volume exceeding the maximum possible to wave data to which acoustic effects (effect by echo function, effect by microphone echo function) are given (see Fig. 12). Note that music playback is performed using multiple physical sound channels. If there is only one logical sound channel that reproduces the echo component, the volume balance may be insufficient. The same applies to the microphone echo component.
  • the number of physical sound channels is plural. Can be used. .

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Stereophonic System (AREA)
  • Electrophonic Musical Instruments (AREA)

Abstract

Echo blocks EB0 to EB(N-1) correspond to logic sound channels #0 to #(N-1). A logic sound channel corresponding to an echo block having a switch SW turned ON is set in an echo source. Output web data from all the echo blocks set in the echo source are added by an adder Mp. A funnel shifter FS extracts a bit string of a predetermined number of bits from the addition result σ. The bit string is subjected to a delay processing by FIFO buffers Ba, Bb, a multiplier MI, and an adder A1 and allocated as an echo component to a logical channel (effect channel). The effect channel can be set arbitrarily from the logical channels.

Description

明細書 サウンドプロセッサ及びサウンドシステム 技術分野  Description Sound processor and sound system Technical Field
本発明は、 ゥヱーブデータに音響効果を付与して出力するサゥンドプロセッサ及びその関連 技術に関する。 , 背景技術  The present invention relates to a sound processor that outputs a sound effect by adding a sound effect to wave data, and a related technology. , Background technology
特許文献 1 (特開昭 6 3— 2 6 7 9 9 9号 報) に開示された楽音信号発 置は、 複数の サウンドチヤンネルが再生した複数の音声データを加算して、 その加算音声データに共鳴効果 を付与する。 そして、 楽音信号発^ ¾置は、 複数のサウンドチャンネルが再生した複数の音声 データおよ 効果が付与され;^ロ算音声データを加算して、 D/Aコンバータに出力する。 しかしながら、 上記楽音信号発^ ¾置では、 全てのサゥンドチヤンネルからの音声データを 原音として共鳴効果を付加しており、 共鳴効果を付加する原音を割り当てるサゥンドチャンネ ルを任意に設定することができない。 また、 共 効果が付加された加算音声データを割り当て るサゥンドチヤンネノレも固定であり、 任意に設定すること'ができなレ、。  The musical tone signal device disclosed in Patent Document 1 (Japanese Unexamined Patent Publication No. Sho 6 3-2 6 7 9 9 9) adds a plurality of audio data reproduced by a plurality of sound channels, and adds it to the added audio data. Adds a resonance effect. Then, the musical sound signal generator is provided with a plurality of audio data and effects reproduced by a plurality of sound channels; it adds the B audio data and outputs it to the D / A converter. However, in the above musical sound signal generating apparatus, the resonance effect is added using the sound data from all the sound channels as the original sound, and the sound channel to which the original sound to which the resonance effect is added cannot be arbitrarily set. Also, the sound channel for assigning additional audio data with a co-effect added is fixed and cannot be set arbitrarily.
そこで、 本究明は、 効果を付与する となるウェーブデータ (原音) を任意の論理サ ゥンドチャンネルに割り当てることができ、 かつ、 ^効果を付与したウェーブデータを任意 の論理サゥンドチヤンネノレに割り当てることができるサゥンドプロセッサ及びその関連技術を することを目的とする。 発明の開示  Therefore, in this study, wave data (original sound) that gives an effect can be assigned to an arbitrary logical sound channel, and wave data to which an effect is added is assigned to an arbitrary logical sound channel. The purpose is to assign all available sound processors and related technologies. Disclosure of the invention
本発明の第 1の観点によれば、 複数の論理サゥンドチャンネルによって再生されたウェーブ データをミキシングして単数又は複数の物理サゥンドチャンネルから出力するサウンドプロセ ッサであって、 ΙίΐΞ論理サウンドチャンネルの各々に、 音響効果を付与する據のウェーブデ 一タカ s割り当てられるエフエタト原音チャンネル、 所定の音響効果が付与されたウェーブデー タカ s割り当てられるエフェクトチャンネル、 及び、 音響効果が付与されないウェーブデータが 割り当てられる非エフエタトチャンネルといった 3つの属性の内の 1つを設定するチャンネル 設定手段と、 1以上の filfS論理サゥンドチヤンネルが fBェフエク卜原音チヤンネルに設定さ れている^^、 ΙΙΪΙΕエフェクト原音チャンネルによって再生されたウェーブデータに tins所定 の 効果を付与し、 fiifBエフェクトチャンネルに割り当てる音響効;^寸与手段と、 を備え、According to a first aspect of the present invention, there is provided a sound processor for mixing wave data reproduced by a plurality of logical sound channels and outputting from one or a plurality of physical sound channels. Are assigned to the original sound channel to which the sound effect is assigned, to the original sound channel to which the sound effect is assigned, to the wave data to which the predetermined sound effect is assigned, to the effect channel to which the sound effect is assigned, and to the wave data to which no sound effect is assigned. Channel setting means to set one of the three attributes, such as non-feature channel, and one or more filfS logical sound channels are set to fB FX original sound channel ^^, ΙΙΪΙΕ Playback by effect original sound channel Wave data To tins prescribed Sound effects assigned to the fiifB effect channel; ^ measuring means, and
ΙΐίΐΕチヤンネル設定手段は、 tillE 3つの属性の内のレヽずれの属性でも MIE論理サゥンドチヤン ネルに任意に設定できる。 . The data channel setting means can be arbitrarily set to the MIE logical sound channel even with the attribute of the level among the three attributes of tillE. .
この構成によれば、 エフヱクト原音チャンネルを任意の論理サウンドチャンネルに設定でき るため、 複数の論理サウンドチャンネルで再生されているウェーブデータのうち、 任意の論理 サウンドチャンネルで再生されているウェーブデータ (原音) に ^効果 (例えば、 ェコ z リバーブ等) を施すことが可能となる。 また、 複数の論理サウンドチャンネレは^ ffiであり、 エフヱクトチャンネルを任意の論理サウンドチャンネルに設定できるため、 音響効果が付与さ れたゥエーブデータを任意の論理サゥンドチヤンネルで再生できる。 さらに、 音響効果の付与 が不要な場合には、 全ての論理サゥンドチヤ ^ネルを非ェフエタトチヤンネルに設定して、 音 響効果なしのウェーブデータの再生のために割り当てることが可能である。  According to this configuration, since the effect original sound channel can be set to any logical sound channel, the wave data (original sound) reproduced on any logical sound channel among the wave data reproduced on multiple logical sound channels can be set. ) Can be given a ^ effect (for example, Eco-Z reverb). In addition, multiple logical sound channels are ffi, and the effect channel can be set to any logical sound channel, so that wave data with sound effects can be played back on any logical sound channel. In addition, if it is not necessary to add sound effects, all logical sound channels can be set to non-jet channels and assigned for the reproduction of wave data without sound effects.
' このように任意の論理サゥンドチャンネルに任意の属性を設定できるため、 例えば、 楽曲再 生に割り当てられている論理サウンドチャンネルをエフェクト原音チャンネルに設定して、 そ こで再生されているウェーブデータにエコー等の音響効果を施す一方、 効果音の再生に割り当 てられている論理サウンドチャンネルを非エフェクトチャンネルに設定して、 そこで再生され ているウェーブデータには^効果を施さないといった組み合わせが実現できる。 また、 再生 . されるウェーブデータにピッチ変換や振幅変調等を施 «能が論理サウンドチャンネルに設け られている:^、 エフェクトチャンネルに割り当てられたウェーブデータに対しても'同じ機能 を利用できる。  '' Since any attribute can be set for any logical sound channel in this way, for example, the logical sound channel assigned to the song playback is set as the effect original sound channel, and the wave data being played back there In addition to applying acoustic effects such as echo to the sound, the logical sound channel assigned to the sound effect playback is set as a non-effect channel, and the wave data being played there is not combined. realizable. In addition, the function of performing pitch conversion, amplitude modulation, etc. on the reproduced wave data is provided in the logical sound channel: ^ The same function can be used for the wave data assigned to the effect channel.
このサウンドプロセッサにおレ、て、 ήίιΙΒ音響効 m 与手段は、 鎌己ェフエクト原音チヤンネ ルによって再生されたウェーブデータをバッファに格納し、 格納してから所定時間後に取り出 して再生し、 tiHEエフェクトチャンネルに割り当てる。  In this sound processor, the sound effect is stored in the buffer with the wave data reproduced by the Kagami Fect original sound channel, and is retrieved and played back after a predetermined time. Assign to an effect channel.
' このように、 バッファからのウェーブデータの取り出しを所定時間後に行うことにより、 簡 易に遅延機能を構築できる。 'In this way, the delay function can be easily constructed by extracting the wave data from the buffer after a predetermined time.
このサウンドプロセッサにおいて、 tilfE音響効靴与手段は、 複数の ftiilS論理サウンドチヤ ンネルが tinsエフェクト原音チャンネルに設定されている に、 当纏数のエフエタト原音 チヤンネルによって再生されたウェーブデータを加算する加算手段を含み、 tiris^w効; 与 手段は、 ttna¾n算結果であるウェーブデータを ΐϋΐΞバッファに欄し、 欄してから tins所定 時間後に取り出して再生し、 tinsエフエタトチャンネルに割り当てる。  In this sound processor, the tilfE sound effecting means is an addition means for adding wave data reproduced by the same number of original sound channels, even though multiple ftiilS logic sound channels are set as the tins effect original sound channels. The tiris ^ w effect means includes the ttna¾n calculation result wave data in the ΐϋΐΞ buffer, retrieves the tins after a predetermined time and plays them back, and assigns them to the tins Efate channel.
この構成によれば、 複数の論理サゥンドチヤンネルがェフエクト原音チヤンネルに設定され ている場合でも、 バッファに格納されるのは 1チャンネル分なので、 当該バッファの容量を抑 制できる。 According to this configuration, even when multiple logical sound channels are set as the effect original sound channel, the buffer is stored for one channel, so the capacity of the buffer is reduced. I can control.
このサウンドプロセッサは、 E論理サウンドチャン ^に独立して、 かつ、 tins物理サ ゥンドチャン ^に独立して、 ウェーブデータに対して、 任意の率で振幅変調を施 «幅変 調手段をさらに備え、 tfHE音響効谢与手段は、 β論理サウンドチャンネルである聽エフ ェクト原音チヤンネノ に、 tins複数の物理サゥンドチヤンネルに る振幅変調の triB率の 平均値を算出して、 tfilSエフェクト原音チャン ^に、 ウェーブデ タに ΙίίΙΒ平均値を乗算 する平均手段をさらに含み、 Ι ΙΞΛロ算手段は、 平均手段による乗算結果であるウェーブデ ータを加算する。  This sound processor further comprises amplitude modulation means for performing amplitude modulation on the wave data at an arbitrary rate independently of the E logic sound channel ^ and independent of the tins physical sound channel ^. The tfHE sound effecting means calculates the average value of triB ratio of amplitude modulation of tins multiple physical sound channels for the original sound channel channel, which is a β logic sound channel, and the tfilS effect channel channel ^ It further includes an averaging means for multiplying the wave data by an average value, and the ロ ΛΛ calculation means adds the wave data that is a multiplication result by the averaging means.
この構成によれば、 複数の物理サゥンドチヤンネル毎に論理サゥンドチヤンネルのミキシン グバランスが異なる:^でも、 バッファに格納されるのは 1チャンネル分なので、 バッファの 容量を抑制できる。  According to this configuration, the mixing balance of logical sound channels is different for each physical sound channel: ^ However, since only one channel is stored in the buffer, the buffer capacity can be reduced.
上記サウンドプロセッサにおいて、 編己音響効 与手段は、 ΙίίΙΞΛロ算手段によるカロ算結果 である累積ウェーブデータから、 所定ビット数の複数ビットを抽出する抽出手段と、 tins累積 ウェーブデータが、 ΙΐίΐΞ所定ビット数によって表現可能な範囲を超えている^ \ tilt己抽出手 段により抽出された ΙίίΙΞ複数ビットを所定値に置き換える飽和処理手段 、 をさらに含み、 前 ΙΞΛΠ算手段による加算結果であるウェーブデータが、 鍵己所定ビット数によって表現可能な範 囲内である 、 効 寸与手段は、 抽出手段により抽出された編己複数ビットで 表されるウェーブデータをそのまま鎌己バッファに し、 鎌己累積ウェーブデータが、 嫌己 所定ビット数によって表現可能な範囲を超えている 、 ΙΒ音響効 与手段は、 tiilE飽和 処理手段により嫌己所定値に置き換えられた ΜΙΞ複数ビットで表されるウェーブデータを 15 バッファに欄し、 音響効 与手段は、 ¾ίίΙΕ所定ビット数によって表現可能な範囲を超 えている力 かに応じて fiilEバッファに格納したゥエーブザータを Ml己所定時間後に取り出し て再生し、 tiflSエフェクトチャンネルに割り当てる。 '  In the above sound processor, the knitting sound effecting means includes: an extracting means for extracting a plurality of bits of a predetermined number of bits from the accumulated wave data that is a result of the calorie calculation by the ΙίίΛΛ calculating means; The wave data that is the addition result by the previous ΙΞΛΠ calculation means further includes a saturation processing means that replaces a plurality of bits extracted by the ^ \ tilt self-extraction means that exceeds the range that can be expressed by a number. Within the range that can be expressed by the predetermined number of bits, the effect sizer means that the wave data represented by the multiple bits of the edited data extracted by the extraction means is used as it is in the Kamiki buffer, and , Hatefulness Exceeding the range that can be expressed by the predetermined number of bits, ΙΒ sound effect means tiilE saturation processing hand The wave data represented by multiple bits is stored in the 15 buffer in the 15 buffers, and the sound effect means depends on whether it exceeds the range that can be expressed by the predetermined number of bits. The wave zatter stored in the fiilE buffer is taken out after a predetermined time and played, and assigned to the tiflS effect channel. '
この構成によれば、 累積ウェーブデータから任意のビット列が取り出せるため、 エフェクト チヤンネルによつて再生されるゥエーブデータの振幅を最適化できる。  According to this configuration, since an arbitrary bit string can be extracted from the accumulated wave data, the amplitude of the wave data reproduced by the effect channel can be optimized.
このサウンドプロセッサにおいて、 iE抽出手段は、 tii!B累積ウェーブデータから、 定ビット数の実質的に赚する tins複数ビットを抽出し、 IS飽和処理手段は、 鎌己累積ゥェ ーブデータのうちの、 抽出された fiifB複数ビットより上位に位置し、 l!E複数ビットに含まれ ない全ビッ卜が、 抽出された 複数ビッ卜の最上位ビットと同じ値を示していない^ 1こ、 抽出された ttilE複数ビットを ¾ίίΙΞ所定値に置き換える。 , 上記サゥンドプロセッサにおレヽて、 tins音響効;^寸 "^段は、 SB^ッファに欄してから tilt己所定時間後に取り出して再生したゥエーブデータに対して、 所定の率で振幅変調を施す振 幅変調手段と、 lift己所定時間後の再生のための パッファ力ゝらのウェーブデータの読出し位 置から所定の I»変位された位置に欄されてレ、るウェーブデータに、 tins所定の率で振幅変 調が施されたウェーブデータを加算する加算手段と、 を含む。 In this sound processor, the iE extraction means extracts a plurality of bits of tins having a constant number of bits from the tii! B cumulative wave data, and the IS saturation processing means includes the Kamai cumulative wave data. All the bits that are higher than the extracted fiifB multiple bits and not included in the l! E multiple bits do not show the same value as the most significant bit of the extracted multiple bits. ttilE Replace multiple bits with ¾ίίΙΞ predetermined value. , Tins sound effect; ^ Dimension "^", after SB ^ From the amplitude modulation means that performs amplitude modulation at a predetermined rate on the wave data retrieved and played back after a predetermined time, and from the reading position of wave data by the lifter for playback after a predetermined time And adding means for adding the wave data that has been amplitude-modulated at a predetermined rate to tins to the wave data that is displayed at a predetermined position.
この構成によれば、 リバーブ機能を簡易に実現できる。  According to this configuration, the reverb function can be easily realized.
上記サゥンドプロセッサは、 デジタル信号をアナ口グ信号に変換するデジタル Zアナ口グ変 換手段をさらに備え、 論理サウンドチャンネルによって処理されるウェーブデータは、 P CMデ タであり、 ttJlEデジタル Zアナログ変換手段は、 MIBP CMデータをアナログ信号に 変換する。  The sound processor further includes a digital Z analog conversion means for converting a digital signal into an analog signal, and the wave data processed by the logical sound channel is PCM data, and ttJlE digital Z analog The conversion means converts MIBP CM data into an analog signal.
この構成によれば、 論理サウンドチャンネルによって処理される は P CMデータ、 つま り、 デジタノ ータなので、 音響効果を付与するための処理 (例えば、 «処理など) に必要 なバッファを RAM等の手段で簡単に構築できる。 また、 音響効果を付与するための処理 (例 えば、 振幅変調処理など) を小規模な論理回路及ひゾ又は小繊なソフトウェアで行うことが できる。 .  According to this configuration, since the PCM data processed by the logical sound channel, that is, the digital nota- ter, the buffer necessary for the processing for adding the sound effect (for example, «processing, etc.) is provided by means such as RAM. Easy to build with. In addition, processing for imparting an acoustic effect (for example, amplitude modulation processing, etc.) can be performed with a small logic circuit and elaborate or small software. .
このサウンドプロセッサは、 15複数の論理サウンドチャンネルによって再生されたゥヱー ブデータを時分割多重化して、 前記デジタル/アナ口グ変換手段に出力する時分割多享出力手 段をさらに備える。 ― 1 This sound processor further comprises a time division multi-purpose output means for time-division multiplexing the wave data reproduced by the plurality of 15 logical sound channels and outputting to the digital / analog conversion means. ― 1
この構成によれば、 複数の論理サウンドチャンネルのミキシングを加難によって行わず、 時分割多重化によって している。 従って、 このミキシングための加 が不要になるばか り力 \ デジタノレ アナログ変換手段の解^ S (ビット数) を抑制でき、 コスト «を図ること ができる。  According to this configuration, mixing of a plurality of logical sound channels is not performed by difficulty, but by time division multiplexing. Therefore, it is possible to suppress the solution S (number of bits) of the force / digital nore analog conversion means, which eliminates the need for this mixing, and the cost can be reduced.
このサウンドプロセ^サにおいて、 前記時分割多重出力手段は、 前記エフェクトチャンネル によって再生されたウェーブデータを'、 当該エフェクトチャンネルに割り当てられた時間に出 力するとともに、 後続する他の嫌己論理サゥンドチヤンネルに割り当てられた時間に、 filfE他 の論理サウンドチャンネルのウェーブデータの代わりに出力する。  In this sound processor, the time division multiplex output means outputs the wave data reproduced by the effect channel at the time allotted to the effect channel and other subsequent selfish logic sound. At the time allotted to the channel, filfE is output instead of the wave data of other logical sound channels.
この構成によれば、 ^割出力において、 エフェクトチャンネル以外の他の論理サウンドチ ヤンネルの出力時間に、 エフエタトチャンネルによって再生されたウェーブデータを割り当て ることができるので、 簡単な回路で本来設定可能な上限を超えた音量を 効果が付与された ウェーブデータに与えることが可能になる。  According to this configuration, the wave data reproduced by the Efate channel can be assigned to the output time of other logical sound channels other than the effect channel in the% output, so it can be set with a simple circuit. It is possible to give volume data that exceeds the upper limit to wave data with effects.
本発明の第 2の鉱 によると、 サウンドシステムは、 複数の論理サウンドチャンネルによつ て再生されたウェーブデータをミキシングして単 は複数の物理サウンドチャンネルから出 力するサゥンドプロセッサと、 外部から入力されたアナログ音声信号をデジタノ 声信号に変 換するアナログ Zデジタル変 ニットと、 プログラムに従って演算処理を^する演算処理 ユニットと、 を備え、 嫌己サウンドプロセッサは、 嫌己論理サウンドチャンネルの各々に、 音 響効果を付与する舰のウェーブデータ力 s割り当てられるェフエクト原音チヤンネノレ、 第 1の 所定の音響効果力 S付与されたウェーブデータが割り当てられる第 1エフェクトチャンネル、 第 2の所定の音響効果が付与されたウェーブデータが割り当てられる第 2エフエタトチャンネル、 及び、 ^効果力 S付与されないウェーブデータ力 S割り当てられる非エフヱクトチャンネルとい つた 4つの属性の内の 1つを設定するチヤンネル設定手段と、 1以上の ΙίίΙΒ論理サゥンドチヤ ンネルが SiilEエフェクト原音チャンネルに設定されている^^、 エフエタト原音チャンネ ルによって再生されたウェーブデータを第 1バッファに し、 TOしてから第 1の所定時間 後に取り出して再生し、 前記第 1エフエタトチャンネルに割り当てる第 1の音響効果付与手段 ' と、 を含み、 ΐίίΐΕチャンネノレ設定手段は、 己 4つの属性の内のいずれの属性でも iff己論理サ ゥンドチャンネルに任意に設定でき、 前 1¾¾算処理ユニットは、 前記アナログ/デジタル変換 ュニットによって得られた嫌己デジタノ 声信号を第 2バッファに 内し、 tfiiaサウンドプロ セッサは、 演算処理ュニットが tirlE第 2バッファに した廳己デジタノ 声信号を、 前 記第 2バッファに されてから第 2の所定時間後に取り出して再生し、 編己第 2エフエタト チャンネルに割り当てる第 2の音響効; 与手段をさらに含む。 According to the second ore of the present invention, the sound system mixes the wave data reproduced by a plurality of logical sound channels and outputs it from a plurality of physical sound channels. A sound processor, an analog Z digital unit that converts an externally input analog audio signal to a digital audio signal, and an arithmetic processing unit that performs arithmetic processing according to a program. Each of the hate logic sound channels has a wave data power of 舰 that gives the sound effect s The effect original sound channel that is assigned, the first predetermined sound effect S the first effect channel to which the assigned wave data is assigned, 1 of 4 attributes: 2nd effect channel to which wave data to which a second predetermined sound effect is assigned is assigned, and ^ Effect power S Wave data force to which S wave is not assigned S Non-effect channel to be assigned Channel setting means for setting one and one or more logical logic The channel is set to the SiilE effect original sound channel ^^, wave data played by the original sound channel is placed in the first buffer, taken out after the first predetermined time and played back, and the first The first sound effect assigning means to be assigned to the ethet channel, and the channel setting means can arbitrarily set any of the four attributes to the iff self logical sound channel. The arithmetic processing unit stores the dislike digital signal obtained by the analog / digital conversion unit in the second buffer, and the tfiia sound processor receives the self digital signal obtained by the arithmetic processing unit in the tirlE second buffer. The second buffer is taken out and played after the second predetermined time since it was stored in the second buffer. Further comprising a given device; a second acoustic effect to be assigned to the tunnel.
この構成によれば、 エフェクト原音チャンネルを任意の論理サウンドチャンネルに設定でき るため、 複数の論理サゥンドチャンネルで再生されているウェーブデータのうち、 任意の論理 サウンドチャンネルで再生されているウェーブデータ 源音) に ^効果 (例えば、 エコー// リバーブ等) を施すことが可能となる。 また、 複数の論理サウンドチャンネルは であり、 第 1のエフェクトチヤンネル及び第 2のエフェクトチヤンネルを任意の論理サゥンドチヤンネ ルに設定できるため、 : ^効果が付与されたウェーブデータを任意の論理サゥンドチャンネル で再生できる。 さらに、 音響効果の付与力 S不要な には、 全ての論理サウンドチャンネルを 非エフェクトチャンネルに設定して、 音響効果なしのウェーブデータの再生のために割り当て ることが可能である。  According to this configuration, since the effect original sound channel can be set to any logical sound channel, the wave data source that is played back on any logical sound channel among the wave data played back on multiple logical sound channels Sound) can be given ^ effects (eg echo // reverb etc.). Also, since multiple logical sound channels are and the first and second effect channels can be set to any logical sound channel,: ^ Wave data with effects can be set to any logical sound channel. Can play. In addition, if the sound effect is not required, all logical sound channels can be set as non-effect channels and assigned for the reproduction of wave data without sound effects.
また、 外部から入力されたアナログ音声信号に对しても、 デジタノ 声信号に変換後に、 音 響効果を付与して、 再生可能である。 この場合、 音響効果を付与するための一部の処理を演算 処理ユニット (つまり、 ソフトウェア) 力 S行うので、 効果を付与する構成を任意に構築で きる。 , このサウンドシステムにおいて、 ΜΙΞ第 1の 効 与手段は、 fiilS第 1バッファに欄 してから前記第 1の所定時間後に取り出して再生したウェーブデータ 対して、 第 1の所定の 率で振幅変調を施 ·Τ ^幅変調手段と、 第 1の所定時間後の再生のための na第 1バッファ 力らのウェーブデータの読出し位置から第 1の所定の赚変位された位置に格納されているゥ エーブデータに、 嫌己第 1の所定の率で振幅変調が施されたゥエーブデータを加算するカロ算手 段と、 を含み、 編 ¾¾算処理手段は、 謙己第 2バッファに翻してから漏己第 2の所定時間後 に取り出して再生したウェーブデータに対して、 第 2の所定の率で振幅変調を施し、 そのゥェ ーブデータを、 Stif己第 2の所定時間後の再生のための前記第 2バッファからのウェーブデータ の読出し位置から第 2の所定の «変位された位置に欄されてレ、るウェーブデータに加算す る。 , In addition, analog audio signals input from outside can be played back with a sound effect after being converted to digital audio signals. In this case, a part of the processing for imparting the acoustic effect is performed by the arithmetic processing unit (that is, software) force S, so that a configuration for imparting the effect can be arbitrarily constructed. , In this sound system, the first effect means is in the fiilS first buffer. Then, amplitude modulation is applied to the wave data retrieved and reproduced after the first predetermined time at a first predetermined rate. 幅 ^ Width modulation means and na for reproduction after the first predetermined time. 1st buffer Wave data that has been amplitude-modulated at the first predetermined rate is added to the wave data stored at the first predetermined position displaced from the wave data read position by force. The calculation processing means includes a second predetermined processing unit for wave data extracted and reproduced after the second predetermined time after the conversion to the second buffer. The wave data is moved to a second predetermined position displaced from the read position of the wave data from the second buffer for reproduction after a second predetermined time in Stif. Is added to the wave data . ,
この構成によれば、 簡易にリバーブ機能を実現できる。、  According to this configuration, the reverb function can be easily realized. ,
上記サウンドシステムにおいて、 前記サウンドプロセッサは、 デジタノ 言号をアナログ信号 に変換するデジタル Zアナ口グ変換手段をさらに含み、 藤己論理サゥンドチャンネルによって 処理されるウェーブデータは、 P CMデータであり、 嫌己デジタル/アナログ変換手段は、 前 記? CMデータ アナ口グ信号に変換し、 ftllSサゥンドプロセッサは、 艦己複数の論理サゥン ドチャンネルによって再生されたウェーブデータを時分割多重化して、 ΙίίΐΕデジタル Zアナ口 グ変換手段に出力する時分割多重出力手段をさらに含み、 ΙίίΙΕ時分割多重出力手段は、 嫌己第 1エフエタトチャンネルによって再生されたウェーブデ タを、 当該第 1エフェクトチャンネ ルに割り当てられた時間に出力するとともに、 後続する他の編己論理サゥンドチヤンネルに割 り当てられた時間に、 前記他の論理サゥンドチヤンネルのウェーブデータの代わりに出力し、 力つ、 藤己第 2エフェクトチャンネルによって再生されたウェーブデータを、 当該第 2ェフエ タトチヤンネルに割り当てられた時間に出力するとともに、 後続する他の嫌己論理サゥンドチ ャンネルに割り当てられた時間に、 廳己他の論理サゥンドチヤンネルのウェーブデータの代わ りに出力する。  In the sound system, the sound processor further includes a digital Z analog conversion means for converting a digital code to an analog signal, and the wave data processed by the Fujimi logic sound channel is PCM data, What is the hateful digital / analog conversion method? The ftllS sound processor converts time-division multiplexed wave data reproduced by multiple logical sound channels and outputs it to the digital Z analog conversion means. It further includes multiple output means, and the time division multiple output means outputs the wave data reproduced by the self-adjusted first effect channel at the time allotted to the first effect channel and other subsequent signals. At the time allotted to the edited logic sound channel, the wave data output by the second effect channel is output in place of the wave data of the other logic sound channel, and the wave data reproduced by the second effect channel is 2 Output at the time allotted to the Taechan channel, and other selfish logic that follows The time allocated to Undochi Yan'neru outputs instead of the wave data 廳己 other logical Sau command channel.
この構成によれば、 時分割出力において、 第 1エフェクトチャンネル及び第 2エフェクトチ ヤンネル以外の他の論理サウンドチャンネルの出力時間に、 第 1エフェクトチャンネルによつ て再生されたウェーブデータ及び第 2エフェクトチヤンネルによって再生されたウェーブデー タを割り当てることができるので、 簡単な回路で本来設定可能な上限を超えた音量を音響効果 が付与されたウェーブデータに与えることが可能になる。 図面の簡単な説明  According to this configuration, in the time division output, the wave data and the second effect reproduced by the first effect channel are output at the output time of the logical sound channel other than the first effect channel and the second effect channel. Since the wave data reproduced by the channel can be assigned, the volume exceeding the upper limit that can be originally set by a simple circuit can be given to the wave data to which the acoustic effect is given. Brief Description of Drawings
本発明の新規な W [は、 特許請求の範囲に記載されている。 しかしながら、 発明そのもの及 びその他の と効果は、 樹寸図面を参照して具体的な実施例の詳細な説明を読むことにより 容易に »される。 ' 図 1は、 本発明の実施の形態におけるマルチメディァプロセッサ 1の内部構成を示すプロッ ク図である。 The novel W [of the present invention is described in the claims. However, the invention itself and These and other effects are facilitated by reading the detailed description of the specific embodiment with reference to the tree drawing. FIG. 1 is a block diagram showing an internal configuration of the multimedia processor 1 in the embodiment of the present invention.
図 2は、 一般的なエコーモデルの説明図である。  Fig. 2 is an explanatory diagram of a general echo model.
図 3は、 本発明の実施の形態におけるエコーモデルの説明図である ri ' Figure 3 is an explanatory view of an echo model in the embodiment of the present invention ri '
図 4は、 本発明の実施の形態におけるエコー機能の概念図である。  FIG. 4 is a conceptual diagram of the echo function in the embodiment of the present invention.
.図 5は、 本発明の実施の形態におけるマイクエコー機能の 念図である。  FIG. 5 is a conceptual diagram of the microphone echo function in the embodiment of the present invention.
図 6,は、 本発明の実施の形態における論理サゥンドチヤンネル及び物理サゥンドチヤンネル の概念図である。  FIG. 6 is a conceptual diagram of a logical sound channel and a physical sound channel according to the embodiment of the present invention.
図 7は、 図 1の SPU13の内部構成を示すブロック図である。  FIG. 7 is a block diagram showing the internal configuration of the SPU 13 of FIG.
図 8は、 図 7のデータ処理ブロック 35による時分割多重ィ匕の説明図である。  FIG. 8 is an explanatory diagram of time division multiplexing by the data processing block 35 of FIG.
図 9は、 図 1のメイン RAM25に構成されるエコー F I FOバッファ及びマイクエコー F I FOバッファの説明図である。  FIG. 9 is an explanatory diagram of an echo F I FO buffer and a microphone echo F I FO buffer configured in the main RAM 25 of FIG.
図 10は、 図 7のエコー機能ブロック 55の内部構成を示すブロック図である。  FIG. 10 is a block diagram showing an internal configuration of the echo function block 55 of FIG.
図 11は、 図 7のマイクエコー機能ブロック 57の内部構成を示すブロック図である。 図 12は、 本発明の の形態におけるエコー成分たるウェーブデータ及びマイクエコー成 分たるウェーブデータの 出力の例示図である。 ' 発明を実施するための最良の形態  FIG. 11 is a block diagram showing an internal configuration of the microphone echo function block 57 of FIG. FIG. 12 is an exemplary view showing the output of wave data as echo components and wave data as microphone echo components in the embodiment of the present invention. '' Best mode for carrying out the invention
以下、 本発明の実施の形態について、 図面を参照しながら説明する。 なお、 図中、 同一また は相当部分については同一の参照符号を付してその説明を援用する。 「0b」 は 2進数を、 「0 x」 は 16進数を意味する。 J Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the drawings, the same or corresponding parts are denoted by the same reference numerals, and the description thereof is incorporated. “0b” means binary, “0 x” means hexadecimal. J
図 1は、 本発明の実施の形態によるマルチメディァプロセッサ 1の内部構成を示すプロック 図である。 図 1に示すように、 このマルチメディアプロセッサ 1は、 外部メモリインタフエ一 ス 3、 DMA C (d i r e c t memo r y a c c e s s c on t r o l l e r) 4、 中央演算処3¾置 (以下、 「CPU」 と呼ぶ。) 5、 CPUロー力ノレ RAM7、 レンダリングプ ロセッシングユニット (以下、 「RPU」 と呼ぶ。) 9、 カラーパレット RAMI 1、 サウンド プロセシングユニット (以下、 「SPU」 と呼ぶ。) 13、 SPUローカル RAMI 5、 ジオメ トリエンジン (以下、 「GE」 と呼ぶ。) 17、 Yソーティングユニット (以下、 「YSU」 と呼 ぶ。) 19、 外部インタフェースプロック 21、 メイン RAMアクセスアービタ 23、 メイン R AM25、 I/Oバス 27、 ビデオ DAC (d i g i t a l t o ana l o g c onv e r t e r) 29、 オーディオ DACブロック 31、 及び AZDコンバータ (以下、 「ADC」 と呼ぶ。 ) 33を具 る。 メイン R AM 25及 部メモリ 50を区別して説明する必要がな レヽときは、 「メモリ MEM」 と表記する。 FIG. 1 is a block diagram showing the internal configuration of the multimedia processor 1 according to the embodiment of the present invention. As shown in FIG. 1, this multimedia processor 1 includes an external memory interface 3, a DMAC (direct memory access controller) 4, a central processing unit 3 (hereinafter referred to as “CPU”) 5, CPU low power RAM7, rendering processing unit (hereinafter referred to as “RPU”) 9, color palette RAMI 1, sound processing unit (hereinafter referred to as “SPU”) 13, SPU local RAMI 5, geometry Tori engine (hereinafter referred to as “GE”) 17, Y sorting unit (hereinafter referred to as “YSU”) 19, external interface block 21, main RAM access arbiter 23, main R AM25, I / O bus 27, video DAC (digital to analog converter) 29, audio DAC block 31, and AZD converter (hereinafter referred to as “ADC”) 33. When it is not necessary to distinguish between the main RAM 25 and the partial memory 50, they are written as “memory MEM”.
CPU 5は、 メモリ MEMに格納されたプログラムを実行して、 各種演算やシステム全体の 制御を行う。 また、 CPU 5は、 DMA C4にプログラム及びデータの 送要求を行うことも できるし、 DMAC4を介さずに、 外部メモリ 50から直接プログラムコードをフェッチし、 外部メモリ 50に直接データアクセスを行うこともできる。  The CPU 5 executes programs stored in the memory MEM to perform various calculations and control the entire system. The CPU 5 can also send a program and data transmission request to the DMA C4, or fetch the program code directly from the external memory 50 and directly access the data to the external memory 50 without going through the DMAC4. it can.
1 0バス27は、 CPU 5をバスマスタとするシステム制御用のバスであり、 バススレイ ブである各機能ユニット (外部メモリインタフェース 3、 DMAC4、 RPU9、 SPU13、 GE17、 YSU19、 外部インタフェースブロック 21、 及ぴ ADC33) の制御レジスタ ' 及びローカル RAM7, 11, 15へのアクセスに用いられる。 このようにして、 これらの機 能ユニットは、 1 0バス27を通じて、 CPU 5により制御される。  10 Bus 27 is a system control bus with CPU 5 as the bus master, and each functional unit (external memory interface 3, DMAC4, RPU9, SPU13, GE17, YSU19, external interface block 21, and so on) is a bus slave. Used to access ADC33) control register 'and local RAM7,11,15. In this way, these functional units are controlled by the CPU 5 through the 10 bus 27.
CPUローカル RAM7は、 CPU 5専用の RAMであり、 サブルーチンコーノレ 割り込み 時におけるデータの退避などを行うためのスタック領域、 及び C PU5のみが扱う変数の格納 領域等として使用される。 ,  The CPU local RAM 7 is a RAM dedicated to the CPU 5, and is used as a stack area for saving data at the time of a subroutine cone interrupt, a storage area for variables handled only by the CPU 5, and the like. ,
RPU9は、 ポリゴン及びスプライトから構成される三次元イメージをリアルタイムに する。 具体的には、 R P U 9は、 Y S U 19によるソート済みの、 ポリゴン構造俩己列の各構 造体インスタンス及びスプライト構造体配列の各構造体インスタンスを、 メイン RAM25か ら読み出し、 所定の処理を紫亍して、 スクリーン (表示画面) のスキャンに合わせて水平ライ ンごとにィメージを生成する。 «されたィメージは、 コンポジットビデオ信号波形を示すデ 一タストリームに変換され、 ビデオ D AC 29に出力される。 また、 RPU9は、 DMAC4 , に対して、 ポリゴン及びスプライトのテクスチャパターンデータの取り込みのための DMA転 送要求を行う機能を有する。  RPU9 makes a 3D image composed of polygons and sprites in real time. Specifically, the RPU 9 reads each structure instance of the polygon structure self-array and the structure instance of the sprite structure array sorted by YSU 19 from the main RAM 25, and performs predetermined processing in purple. Then, an image is generated for each horizontal line according to the screen (display screen) scan. The generated image is converted into a data stream indicating the composite video signal waveform and output to the video DAC 29. The RPU 9 also has a function of making a DMA transfer request to the DMAC 4 for capturing polygon and sprite texture pattern data.
テクスチャパターンデータとは、 ポリゴンまたはスプライトに貼り付けられる 2次元の画素 配列データであり、 各画素データは、 カラーパレット RAMI 1のエントリを指定するための 情報の一部である。 以降、 テクスチャパターンデータの画素を 「テクセル」 と呼称し、 スクリ ーンに表示されるイメージを構成する画素を 「ピクセル」 とは区別して^ fflする。従って、 テクスチャパターンデータは、 テクセノ ータの集合である。  Texture pattern data is two-dimensional pixel array data that is pasted on a polygon or sprite. Each pixel data is part of the information for specifying an entry in the color palette RAMI 1. Hereafter, the pixels of the texture pattern data are referred to as “texels”, and the pixels that make up the image displayed on the screen are distinguished from “pixels”. Therefore, the texture pattern data is a set of techsenators.
ポリゴン構造体配列は、 多角形状のグラフィック要素であるポリゴンのための構造体配列で あり、 スプライト構造体配列は、 スクリーンに平行な矩形のグラフィック要素であるスプライ トのための構造体配列である。 ポリゴン構造体 K列の要素を、 「ポリゴン構造体ィンスタンス」 と呼び、 スプライト構造体配列の要素を、 「スプライト構造体インスタンス」 と呼ぶ。 ただし、 両者を区別して説明する必要がないときは、 単に 「構造体インスタンス J と呼ぶこともある。 ポリゴン構造体配列に された各ポリゴ i造体インスタンスは、 ポリゴンごとの表示情 報 (スクリーンにおける頂/ ^標、 テクスチャマッピングモードでのテクスチャパターンに関 する情報及びグーローシエーディングモードでのカラーデータ (RGBのカラーコンポーネン ト) を含む。) であり、 1つのポリゴン構造体インスタンスに 1つのポリゴンが対応している。 .スプライト構造翻己列に された各スプライト構造体インスタ,ンスは、 スプライトごとの表 示' |f¾ (スクリーンにおける座標及びテクスチャパターンに関する情報を含む。) であり、 1つ のスプライト構造体インスタンスに 1つのスプライトが対応している。 The polygon structure array is a structure array for polygons that are polygonal graphic elements, and the sprite structure array is a splice that is a rectangular graphic element parallel to the screen. Structure array for The element of the polygon structure K column is called “polygon structure instance”, and the element of the sprite structure array is called “sprite structure instance”. However, if there is no need to distinguish between the two, it may simply be called “Structure Instance J. Each Polygo i structure instance in the polygon structure array is displayed on the display information for each polygon (on the screen). Top / ^ mark, information on texture pattern in texture mapping mode, and color data in RGB color component (including RGB color component). One polygon per instance of polygon structure Each sprite structure instance and instance in the sprite structure transversion sequence is a display for each sprite '| f¾ (including information about coordinates and texture patterns on the screen), and one One sprite corresponds to the sprite structure instance of.
ビデオ D AC 29は、 アナ口グのビデオ信号を生成するためのデジタ /レ /アナ口グ変 で ' ある。 ビデオ DAC29は、 RPU 9から入力されたデータストリームをアナログのコンポジ ットビデオ信号に変換し、 ビデオ信号出力端子 (図示 "tirf) カゝらテレビジョンモニタ等 (図示 せず) に出力する。  Video DAC 29 is a digital / reg / analog generator for generating analog video signals. The video DAC 29 converts the data stream input from the RPU 9 into an analog composite video signal, and outputs it to a video signal output terminal ("tirf" in the figure) or a television monitor (not shown in the figure).
カラーパレツト RAMI 1は、 本実施の形態では 512色すなわち 512ェントリのカラー パレットからなる。 RPU9は、 テクスチャパターンデータに含まれるテクセノ^ータをカラ 一パレットのエントリを指定するインデックスの一部として、 カラーパレット RAMI 1を参 照し、 テクスチャパターンデータを、 カラーデータ (RGBのカラーコンポーネント) に変換 する。  In the present embodiment, the color palette RAMI 1 is composed of a color palette of 512 colors, that is, 512 entries. RPU9 uses the texture data included in the texture pattern data as part of the index that specifies the entries in the color palette, and refers to the color palette RAMI 1 to convert the texture pattern data into color data (RGB color component). Convert to.
本発明の!^の 1つである S PU 13は、 PCM (p u 1 s e c o de mo d u 1 a t i on) 波形データ (以下、 「ウェーブデータ」 と呼ぶ。)、 アンプリチユードデータ、 及びメイ ンボリュームデータを生成する。 具体的には、 SPU13は、 最大 64チャンネル分のゥエー ブデータを^^して時分割多重化す とともに、 最大 64チヤンネル分のエンベロープデータ を生成してチャンネルボリユームデータと乗算し、 アンプリチュードデータを時分割多重化す る。 そして、 SPU13は、 メインボリュームデータ、 時分割多重化されたウェーブデータ、 及ぴ時分割多重化されたアンプリチユードデータを、 オーディオ DACブロック 31に出力す る。 また、 SPU13は、 DMAC4に対して、 ウェーブデータ及びエンベロープデータの取 り
Figure imgf000011_0001
S PU 13の詳細は後述する。
SPU 13 which is one of! ^ Of the present invention is PCM (pu 1 seco de modu 1 ation) waveform data (hereinafter referred to as “wave data”), amplitude data, and main volume. Generate data. Specifically, the SPU 13 time-division multiplexes the wave data for up to 64 channels, generates envelope data for up to 64 channels, multiplies it with the channel volume data, and time-divisions the amplitude data. Multiplex. Then, the SPU 13 outputs the main volume data, time-division multiplexed wave data, and time-division multiplexed amplitude data to the audio DAC block 31. Also, SPU13 receives wave data and envelope data from DMAC4.
Figure imgf000011_0001
Details of the SPU 13 will be described later.
本発明の赚の 1つであるオーディオ D ACブロック 31は、 SPU13から入力されたゥ エーブデータ、 アンプリチユードデータ、 及びメインボリュームデータをそれぞれアナログ信 号に変換し、 結果をアナログ乗算して、 アナログオーディオ信号を生成する。 このアナログォ 一ディォ信号は、 オーディオ信号出力端子 (図示 ^rf) からテレビジョンモニタ等 (図示" ¾rf) のオーディオ入力端子 (図示せず) に出力される。 ' The audio DAC block 31, which is one of the aspects of the present invention, converts the wave data, the amplitude data, and the main volume data input from the SPU 13 into analog signals, respectively, and analog-multiplies the results. Generate an analog audio signal. This analog One audio signal is output from an audio signal output terminal (^ rf in the figure) to an audio input terminal (not shown) of a television monitor or the like (indicated by ¾rf).
S P Uローカル RAM I 5は、 S P U 1 3がウェーブ再生及びエンベロープ生成を行う際に 用いるパラメータ (例えば、 ウェーブデータやエンベロープデータの アドレス ピッチ情 報など) を格納する。  The SPU local RAM I 5 stores parameters used when the SPU 13 performs wave reproduction and envelope generation (for example, address pitch information of wave data and envelope data).
G E 1 7は、 三次元イメージを表示するための謝可演算を菊汁る。 具体的には、 G E 1 7 は、 行列積、 べクトルァフィン変換、 べクトル直交変換、 藤鄉変換、 頂点明度/ポリゴン 明度計算 (ベタトル内積)、 及びポリゴン裏面力リング処理 (べクトル外積) などの演算を紫亍 する。 ,  G E 1 7 uses an apologetic operation to display 3D images. Specifically, GE 1 7 is a matrix product, vector affine transformation, vector orthogonal transformation, Fujisaki transformation, vertex lightness / polygon lightness calculation (vector inner product), and polygon back force ring processing (vector outer product). Make the calculation purple. ,
Y S U 1 9は、 メイン R AM 2 5に格納されているポリゴン構造体酉己歹 Uの各構造体ィンスタ ンス及びスプライト構造体配列の各構造体インスタンスを、 ソート/トル 1〜4に従ってソー ' トする。 この^ \ ポリゴン構造体配列とスプライト構造体配列とで、 別個にソートが行われ る。  YSU 19 stores each structure instance of the polygon structure stored in main RAM 25 and each structure instance of the sprite structure array according to sort / toll 1 to 4 To do. The ^ \ polygon structure array and sprite structure array are sorted separately.
以下、 Y S U 1 9によるソートルール:!〜 4について説明するが、 その前に座標系について 説明する。 テレビジョンモニタ等のディスプレイ装置 (図示せず) への実際の表示に用いられ る二次元座標系をスクリーン座標系と呼ぶ。 本実施の形態では、 スクリーン座標系は、 水平方 , 向 2 0 4 8ピクセル X垂直方向 1 0 2 4ピクセルの 2次元'ピクセノ H己列から構成される。 座標 原点は左上にあり、 右方向が X軸の正、 下方向が Y軸の正に相当する。 ただし、 実際に表示さ れる領域は、 スクリーン座標系の全空間ではなく一部の空間である。 この表示領域をスクリー ンと呼ぶことにする。 ソートルーノレ 1〜4における Y座標はスクリーン座標系の値である。 ソート "ル 1は、 最小 Y座標が小さレ、順に、 各ポリゴン構造体ィンスタンスを並^ える ことである。 最小 Y座標とは、 ポリゴンの全頂点の Y座標のうち、 最も小さい Y座標のことで ある。 ソート ル 2は、 最小 Y座標'が同じである複数のポリゴンについては、 デプス値が大 きレヽ順に、 各ポリゴ «造体インスタンスを並べることである。 なお、 デプス値が大きいほど 奥に描画される。  Below, the sorting rules by Y S U 1 9: We will explain about ~ 4, but before that we will explain the coordinate system. A two-dimensional coordinate system used for actual display on a display device (not shown) such as a television monitor is called a screen coordinate system. In the present embodiment, the screen coordinate system is composed of two-dimensional 'Pixeno H self-sequences of horizontal, direction 20 48 pixels, and vertical direction 10 24 pixels. The coordinate origin is at the upper left, the right direction corresponds to the positive X axis, and the lower direction corresponds to the positive Y axis. However, the actual displayed area is a part of the screen coordinate system, not the entire space. This display area is called a screen. The Y coordinate in Sort Lunole 1-4 is a value in the screen coordinate system. Sort 1 is to arrange each polygon structure instance in order from the smallest Y coordinate. The smallest Y coordinate is the smallest Y coordinate among the Y coordinates of all the vertices of the polygon. Sort 2 is to arrange the structure instances of polygons in order of increasing depth value for multiple polygons with the same minimum Y coordinate '. Drawn on.
ただし、 Y S U 1 9は、 スクリーンの先頭ラインに表示されるピクセルを持つ複数のポリゴ ンについては、 最小 Y座標が異なっている^^でも、 それらが同一であるとみなして、 ソート ノ ル 1ではなく、 ソート ル 2に従って、 各ポリゴン構造体インスタンスの並^ えを行 う。 つまり、 スクリーンの先頭ラインに表示されるピクセルを持つポリゴンが複数^する場 合は、 最小 Y座標が同一であるとみなして、 デプス値が大きレヽ順に並^ えられる。 これがソ 一トノレール 3である。 インタレーススキャンの:^でも、 ソート/ ^ル 1〜3が適用される。 ただし、 フィー ルドを表示するためのソートでは、 奇数ラインに表示されるポリゴンの最小 Y座標及び Z又は その奇数ラインの 1つ前の偶数ラインに表示されるポリゴンの最小 Y座標が同一であるとみな して、 ソートノ "ル 2によるソートを行う。 ただし、 先頭の奇数ラインは除く。 なぜなら、 そ の 1つ前の偶数ラインが存在しないからである。 一方、 偶数フィールドを表示するためのソー トでは、 偶数ラインに表示されるポリゴンの最小 Y座標及び/又はその偶数ラインの 1つ前の 奇数ラインに表示されるポリゴンの最小 Y座標が同一であるとみなして、 ソート ル 2によ るソートを行う。 これがソートノ ル 4である。 However, YSU 1 9 considers multiple polygons with pixels displayed in the first line of the screen to be the same even if the minimum Y coordinate is different. Instead, it sorts each polygon structure instance according to sort 2. In other words, if there are multiple polygons with pixels displayed on the first line of the screen, the minimum Y coordinate is assumed to be the same, and the depth values are arranged in descending order. This is Sotonorail 3. Even with interlaced scanning: ^, sorts 1 through 3 apply. However, in sorting to display the field, the minimum Y coordinate of the polygon displayed on the odd line and the minimum Y coordinate of the polygon displayed on the even line immediately before Z or the odd line are the same. Assuming that sorting is performed using sort number 2, except for the first odd line because the previous even line does not exist. On the other hand, the sort for displaying even fields The sorting by Sortle 2 assumes that the minimum Y coordinate of the polygon displayed on the even line and / or the minimum Y coordinate of the polygon displayed on the odd line before the even line are the same. This is Sort No4.
スプライトに関するソートノ ル 1〜4は、 それぞれポリゴンに関するソートノ I ^"ル 1〜4 と同様である。  Sort Nos. 1-4 for sprites are the same as Sort Nos. I ^ "1-4 for polygons, respectively.
外部メモリインタフェース 3は、 外部バス 51を介して、 外部メモリ 50からのデータの読 み出し、 及 部メモリ 50へのデータの書き込みを司る。 この^、 外部メモリインタフエ The external memory interface 3 is responsible for reading data from the external memory 50 and writing data to the external memory 50 via the external bus 51. This ^, external memory interface
—ス 3は、 図示しない EB I優先順位テーブルに従って、 CPU 5及ぴ DMAC 4からの外部 バスアクセス要求要因 (外部バス 51へのアクセスを要求する要因) を調停して、 レヽずれか 1 つの外部バスアクセス要求要因を選択する。 そして、 選択した外部バスアクセス要求要因に対 して外部バス 51へのアクセスを許可する。 E B I優先噴位テーブルは、 CPU 5からの複数— In step 3, according to the EBI priority table (not shown), external bus access request factors from CPU 5 and DMAC 4 (factors requesting access to external bus 51) are arbitrated, and either one of the external Select the bus access request factor. Then, the access to the external bus 51 is permitted for the selected external bus access request factor. E B I priority injection position table, multiple from CPU 5
, 種類の外部バスアクセス要求要因及び DMAC 4からの外部バスアクセス要求要因の優 ¾頃位 を定めたテーブルである。 ' 外部バスアクセス要求要因として、 CPUに含まれる図示しない I PL (i n i t i a 1 r o g r am 1 o a d e r )によるブロック^ ¾要求、 C PU 5によるデータアクセス要求、, A table in which the ranks of the types of external bus access request factors and external bus access request factors from the DMAC 4 are determined to be superior. 'As an external bus access request factor, block ^ ¾ request by IPL (i n t i a 1 r o g r am 1 o a d e r) (not shown) included in CPU, data access request by CPU 5
CPU5による命令フェッチ要求、 及ぴ DMAC 4による DMA要求がある。 There is an instruction fetch request by CPU5 and a DMA request by DMAC4.
DMAC 4は、 メイン RAM 25と、 外部バス 51に接続された外部メモリ 50と、 の間で DMA¾¾を行う。 この ¾^、 DMAC4は、 図示しない DMA優H頃位テ ブルに従って、 The DMAC 4 performs DMA transfer between the main RAM 25 and the external memory 50 connected to the external bus 51. This ¾ ^, DMAC4, according to the table about DMA excellent H not shown,
CPU5、 RPU9、及び SPU13からの DMA¾¾要求要因 (DMA¾¾を要 る要因) を調停して、 レヽずれか 1つの DMA 要求要因を選択する。 そして、 外部メモリインタフエ ース 3に対して、 DM A要求を行う。 DMA優 5HI頃位テーブルは、 CPU5、 RPU9、 及びArbitrate the DMA request factor from CPU5, RPU9, and SPU13 (factor that requires DMA) and select one DMA request factor. Then, a DMA request is made to the external memory interface 3. DMA excellent around 5HI table is CPU5, RPU9, and
S PU13からの DMA要求要因の優先 j噴位を定めたテープノレである。 Priority of DMA request factor from SPU13 This tape tape has determined the jet position.
SPU13の DMA要求要因として、 ( 1 ) ゥエーブデータをゥエーブバッファに するこ と、 (2) エンベロープデータをエンベロープバッファに fe¾すること、 がある。 ウェーブバッ ファ及びエンベロープバッファは、 それぞれメイン RAM 25上に設定されるウェーブデータ 及びエンベロープデータのテンポラリ^ ¾|域である。 なお、 SPU13の 2つの DMA要求 要因間の調停は、 SPU13内のハードウェア (図示せず) で行われ、 DMA C 4は関知しな レ、。 'The DMA request factors of SPU13 are (1) to make wave data into wave buffer and (2) to make envelope data into envelope buffer. The wave buffer and the envelope buffer are temporary areas of wave data and envelope data set on the main RAM 25, respectively. Note that two DMA requests for SPU13 The mediation between the factors is performed by hardware (not shown) in SPU13, and DMA C 4 is not aware. '
RPU9の DMA要求要因として、 テクスチャパターンデータをテクスチャバッファに fe¾ すること、 がある。 テクスチャバッファは、 メイン RAM25上に設定されるテクスチャパタ ーンデータのテンポラリ格納領域である。 As a DMA request factor of RPU9, there is a method to transfer texture pattern data to a texture buffer. The texture buffer is a temporary storage area for texture pattern data set on the main RAM 25.
CPU5の DMA要求要因として、 ( 1 ) 想記憶管理にぉレ、てページミス力発生した:^の ページ転送、 (2) アプリケーションプログラム等が要求するデータ転送、 がある。 なお、 CP U.5内で複数の DM A¾¾要求が同時に発生した は、 その調停は C PU5で ffされるソ フトウ.エアにて行われ、 DMAC4は関知しなレ、。  The CPU5 DMA request factors are: (1) A page miss occurred due to memory management: ^ Page transfer, (2) Data transfer requested by application program, etc. If multiple DM A¾¾ requests occur at the same time in CPU.5, the mediation is performed by the software that is ffed by CPU5, and DMAC4 is not informed.
外部インタフェースブロック 21は、 周辺装置 54とのインタフェースであり、 24チャン ネルのプログラマブルなデジタノレ入出力 (I/O) ポートを含む。 24チャンネルの IZOポ ートの各々は、 4チャンネル分のマウスインタフェース機能、 4チャンネル分のライトガンィ ンタフェース機能、 2チャンネル分の汎用タイマ カウンタ、 1チャンネル分の調歩同期式シ リァルインタフエース機能、 1チヤンネル分の汎用パラレル Ζシリアル変換ポート機能のうち 1または複数に内部接続されている。  The external interface block 21 is an interface with the peripheral device 54 and includes 24 channels of programmable digital input / output (I / O) ports. Each of the 24-channel IZO ports has a mouse interface function for 4 channels, a light gun interface function for 4 channels, a general-purpose timer counter for 2 channels, an asynchronous serial interface function for 1 channel, and 1 channel. It is internally connected to one or more of the general purpose parallel Ζ serial conversion port functions.
ADC33は、 4チャンネルのアナログ入力ポートに接続され、 これらを介して、 アナログ , 入力装置 52から入力されたアナログ信号をデジタル信号に変換する。 例えば、 マイク音声等 のアナログ入力信号をサンプリングしてデジタノ ータに変換する。 ' メイン RAMアクセスアービタ 23は、 機能ユニット (CPU5、 RPU9、 GE17、 Y S U 19、 DMAC 4、 及び外部ィンタフェースブロック 21 (汎用パラレル Zシリアル変換 ポート)) からのメイン RA1VI25へのアクセス要求を調停して、 レ、ずれかの機能ユニットにァ クセス許可を出す。 '  The ADC 33 is connected to the 4-channel analog input port, and through these, the analog signal input from the analog / input device 52 is converted into a digital signal. For example, analog input signals such as microphone sound are sampled and converted to digital notators. 'The main RAM access arbiter 23 arbitrates access requests to the main RA1VI25 from the functional units (CPU5, RPU9, GE17, YSU 19, DMAC 4, and external interface block 21 (general-purpose parallel Z serial conversion port)). Give access permission to any functional unit. '
メイン RAM25は、 CPU5のワーク領域、 変数 域、 およ tKKi、記憶管理領域等と して利用される。 また、 メイン RAM 25は、 CPU 5が他の機能ユニットに受け データ の 域、 RPU9及び SPU13が外部メモリ 50から DMAによって取得したデータの TO領域、 GE 17及び YSU19の入力データ及び出力データの 域等としても使用さ れる。  The main RAM 25 is used as a work area for CPU5, a variable area, tKKi, a storage management area, and the like. The main RAM 25 is a data area received by the CPU 5 from other functional units, a TO area for data acquired by the RPU 9 and SPU 13 from the external memory 50 by DMA, an input data area and an output data area for the GE 17 and YSU 19, etc. Also used as
外部バス 51は、 外部メモリ 50にアクセスするためのバスである。 CPU5および DMA The external bus 51 is a bus for accessing the external memory 50. CPU5 and DMA
C4力 ら、 外部メモリインタフェース 3を介してアクセスされる。 外部バス 51のアドレスバ スは、 30ビットから成り、 最大で 1 Gバイト (= 8 Gビット) の外部メモリ 50を接続する ことができる。 外部バス 51のデータバスは、 16ビットから成り、 8ビット又は 16ビット のデータバス幅を持つ外部メモリ 5 0を接続できる。 異なるデータバス幅を持つ外部メモリを 同時に接続可能であり、 アクセスする外部メモリによってデータバス幅を自動的に切り'替える 機能が備えられる。 Accessed via external memory interface 3 from C4 force. The address bus of the external bus 51 is composed of 30 bits, and an external memory 50 of up to 1 Gbyte (= 8 Gbit) can be connected. The data bus of external bus 51 consists of 16 bits, 8 bits or 16 bits An external memory 50 having a data bus width of 5 can be connected. External memories with different data bus widths can be connected at the same time, and the function of automatically switching the data bus width according to the external memory to be accessed is provided.
以下、 S P U 1 3の機能について詳細に説明していく。 まず、 ^する用語について説明す る。 一般的に、 エコーとは、 ある音力 s壁や天井などに sii "る^に発生する、 明確に原音が 判別可能な反射音を指し、 リパーブとは、 個々の音の判別ができない残響音のことを指す ά 図 2は、 一般的なエコーモデルの説明図である。 図 2には、 音楽ホール等におけるエコー及 びリパーブの一般的なモデルが示されている。 このモデノレにおいて、 初期 «時間は、 音源と 壁との «によって決まる。 初期^ f音は、 一般的にエコーと呼ばれるものであり、 原音 が遅延 して聞こえる音である。 音色は聴减上ほぼ原音に近レヽ音として聞こえる。 初期反 射音の大きさと音色は、 反射壁の大きさや材質によって変化する。 残 # ^は、 一般的にリバ一 ブと呼ばれるものであり、 原音や反射吉が天井, 床, 客席, 観客といった様々な物体に應し て聞こえる音である。 通常、 残 だけを聞いても原音がどのような音である力 判別はでき ない。 残響音の大きさ, 音色, 時間は、 ホールの容積, 形状, 材質等の様々な要素によつ て変化する。 The functions of SPU 1 3 are described in detail below. First, I will explain the terms to be used. In general, an echo is a reflected sound that can be clearly discriminated from the original sound that is generated in a certain sound force s on a wall or ceiling, and a reverb is a reverberant sound that cannot be distinguished from each individual sound. ά Figure 2 refers to is an illustration of a typical echo model. Figure 2 is a general model of the echo及beauty Ripabu there is illustrated in a music hall or the like. in this Modenore, initial « The time is determined by the distance between the sound source and the wall.The initial ^ f sound is generally called an echo, and is a sound that is heard with a delay in the original sound. The size and timbre of the initial reflected sound vary depending on the size and material of the reflection wall The remaining # ^ is generally called a reverb, and the original sound and reflection sound are on the ceiling, floor, auditorium, For various objects such as the audience Normally, it is not possible to determine the power of the original sound by just listening to the remaining sound The volume, tone, and time of the reverberant sound are various factors such as the volume, shape, and material of the hall. It depends on.
このようなモデノレをリアノレタイムで完全にシミュレートするためには、 非常に複雑な演算を 高速に処理する必要があるため、 本実施の形態では、 簡易なモデルで賺的にエコー及びリバ ーブを再現する。 本実施の形態では、 エコーとリパーブとを統一的に极ぅ音声舰モデルを提 供する。 このモデルを実現する機能を 「エコー機能」 と呼ぶことにする。  In order to completely simulate such modenore in the renoire time, it is necessary to process very complex operations at high speed. Therefore, in this embodiment, echo and reverberation are intentionally performed with a simple model. Reproduce. In this embodiment, an echo sound model is provided in a unified manner for echo and reverb. The function that realizes this model is called the “echo function”.
図 3は、 本発明の実施の形態におけるエコーモデルの説明図である。 このモデルにおいて、 エコー »時間は、 メイン AM 2 5上に構成されるエコー F I F Oバッファによって作り出 される。 つまり、 エコーソースに指定された (つまり、 エコー機能によって 効果を付与す る となるウェーブデータ力 S割り^てられる) 論理サウンドチャンネルによって再生された ウェーブデータの総和がエコー F I F Oバッファに順次欄され、 されたウェーブデータ (総和) を一定時間経過後に取り出して再生することにより、 遅延を発生させる。  FIG. 3 is an explanatory diagram of an echo model according to the embodiment of the present invention. In this model, the echo »time is created by an echo F I F O buffer configured on the main AM 25. In other words, the sum of the wave data reproduced by the logical sound channel specified as the echo source (that is, the wave data force S that is given the effect by the echo function) is sequentially placed in the echo FIFO buffer, Delay is generated by retrieving and playing back the wave data (summation) after a certain period of time.
ここで、エコーソースに指定された論理サウンドチャンネノレを「エフエタト原音チャンネル」、 エコー成分としてのウェーブデータ (つまり、 エコー機能により 効果が付与されたゥエー ブデータ) 力 S割り当てられる論理サウンドチャンネルを 「エフェクトチャンネル」、 通常の音成 分としてのウェーブデータ (つまり、 エコー機能により 効果が付与されないウェーブデー タ) が割り当てられる論理サウンドチャンネルを 「非エフェクトチャンネル」 と呼ぶこともあ る。 ここで、 物 に対応するサゥンドチヤンネルを物理サゥンドチヤ ネルと呼び、 物理サゥ ンドチヤンネノレに出力するウェーブデータを再生するサゥンドチヤンネルである論理サゥンド チャンネルとは明確に区別する。 , Here, the logical sound channel specified for the echo source is the “Efate original channel”, the wave data as the echo component (that is, the wave data to which the effect is given by the echo function) force S the logical sound channel to be assigned is the “effect” Channels, logical sound channels to which wave data as normal sound components (that is, wave data to which no effect is applied by the echo function) are assigned are sometimes called “non-effect channels”. Here, a sound channel corresponding to an object is called a physical sound channel, and is clearly distinguished from a logical sound channel that is a sound channel that reproduces wave data output to the physical sound channel. ,
以下では、単に「サウンドチャンネル」 と言う # ^は、論理サウンドチャンネルを意味する。 また、 本実施の形態では、 左右 2つの物理サウンドチャンネルを設定している。 従って、 左音 声信号 (左ゥヱーブデータ) を胜する物理サウンドチャンネルを 「左チャンネル」、右音声信 号 (右ウェーブデータ) を再生する物理サウンドチャンネルを 「右チャンネル」 と呼ぶ。 さて、, リバ一プ 時間もまた、 メイン RAM 2 5上に構成されるエコー F I F Oバッファ によ て作り出される。 但し、 リバーブ «時間を経て再生されるウェーブデータは、 リバ一 ブを再現するために、 しながら繰り返し再生される。 つまり、 エフエタトチャンネルによ つて再生されたウェーブデータとエコーリリースレート E Rとを乗算し、 乗算結果をエコー F I F Oバッファに格納されているウェーブデータに加算することで、 図のような波形を«す る。  In the following, simply saying “sound channel” # ^ means a logical sound channel. In this embodiment, two physical sound channels are set on the left and right. Therefore, the physical sound channel that receives the left audio signal (left wave data) is called the “left channel”, and the physical sound channel that plays the right audio signal (right wave data) is called the “right channel”. Now, the reversal time is also created by the echo F I F O buffer configured on the main RAM 25. However, wave data reproduced over time is repeatedly reproduced while reproducing the reverberation. In other words, the waveform data shown in the figure is created by multiplying the wave data reproduced by the Efate channel by the echo release rate ER and adding the multiplication result to the wave data stored in the echo FIFO buffer. The
エフェクトチャンネルによって再生されたウェーブデータに基づく音のレベルを 「E n」、 そ の後リバーブ遅延時間を経てエフェクトチャンネルによって再生するウェーブデータに基づく 音のレベルを 「E (n + l )」 とすると、 エコーリリースレート E Rは、 次式で表される。 E R = E ( n + 1 ) /E (n)  If the sound level based on the wave data played by the effect channel is `` E n '', then the sound level based on the wave data played by the effect channel after the reverb delay time is `` E (n + l) '' The echo release rate ER is expressed by the following equation. E R = E (n + 1) / E (n)
なお、 本雄の形態では、 エコー機能及«述のマイクエコー機能を删しなレ、 は、 6 4のサゥンドチャンネルを再生可能であるが、 エコー機能あるいはマイクエコー機能を用いる 場合は、 再生可能なサウンドチャンネルの数は 4 8以下に制限される。 従って、 4 8のサゥン ドチャンネルの中からエコー成分を再生するための 1つのエフェクトチャンネルを設定する必 要がある。  In this embodiment, it is possible to reproduce 64 sound channels without using the echo function and the microphone echo function described above. However, if the echo function or the microphone echo function is used, The number of possible sound channels is limited to 48 or less. Therefore, it is necessary to set one effect channel to reproduce the echo component from the 48 sound channels.
本実施の形態では、 AD C 3 3か 入力された音声データに対するエコー及びリバーブにつ いてもハードウェアでサポートしている。 この機能をマイクエコー機能と呼ぶことにする。 マ イクエコー機能も、 エコー機能と同様に、 メイン RAM 2 5上に、 «のためのマイクエコー F I F Oバッファを構成する。但し、 リバーブのために必要とされる演算は、 C P U 5力 S行う。 なお、 本実施の形態では、 マイクエコー機能を用いる ¾ ^は、 ¾可能なサウンドチャンネ ルの数は 4 8以下に制限されるので、 4 8のサウンドチャンネルの中からマイクエコー成分を 再生するための 1つのエフェクトチャンネルを設定する必要がある。 もちろん、 エコー機能及 ぴマイクエコー機能の双方を使用することもできるので、 この:^は、 それぞれに対して、 フエク トチャンネルを設定する。 図 4は、 本発明の実施の形態におけるエコー機能の ί¾ 図である。 図 4を参照して、 エコー 機能は、 エコーブロック ΕΒ0〜ΕΒ (Ν— 1)、加難 A p、 ファネルシフタ/ /飽和処理回路 FS、 エコー F I FOバッファ B a, Bb、 カ卩難 A 1、 及び乗 ^§§M 1を含む。 エコーブロ ック EB0〜EB (N-1) の各々は、 乗算器 Mp及びスィッチ SWを含む。 また、 エコーブ ロック EB0〜EB (N-1) は、 対応するサウンドチャンネル # 0〜 (N— 1) のアンプリ チユード左右平均値算出部 AM 0〜 AM (N-1) を含む。 そして、 サウンドチャンネル #0 〜 (N— 1) のウェーブデータ W0〜W (N-1),左アンプリチユードデータ AML0〜AM し (N— 1)、 及ひ アンプリチユードデータ AMR0〜AMR (N-1) 力 対応するエコー ブロック EB0〜EB (N-1) に入力される。 In this embodiment, the echo and reverb for the audio data input from AD C 33 is also supported by hardware. This function is called a microphone echo function. Similarly to the echo function, the microphone echo function configures a microphone echo FIFO buffer for «on the main RAM 25. However, the computation required for reverb is performed with 5 CPUs. In this embodiment, the microphone echo function ¾ ^ can be used to reproduce the microphone echo component from 48 sound channels since the number of possible sound channels is limited to 48 or less. It is necessary to set one effect channel. Of course, both the echo function and the microphone echo function can be used, so this: ^ sets the fault channel for each. FIG. 4 is a schematic diagram of the echo function in the embodiment of the present invention. Referring to Fig. 4, the echo function consists of echo blocks ΕΒ0 to ΕΒ (Ν— 1), difficulty A p, funnel shifter // saturation processing circuit FS, echo FI FO buffer B a, Bb, difficulty A 1, And multiplication ^ §§Including M1. Each of the echo blocks EB0 to EB (N-1) includes a multiplier Mp and a switch SW. The echo blocks EB0 to EB (N-1) include the amplitude left and right average value calculation units AM 0 to AM (N-1) of the corresponding sound channels # 0 to (N-1). Then, wave data W0 to W (N-1) of sound channel # 0 to (N—1), left amplified data AML0 to AM (N—1), and extended data AMR0 to AMR (N -1) Force Input to the corresponding echo block EB0 to EB (N-1).
左アンプリチユードデータ AL0〜AL (N-1) と右アンプリチユードデータ AR 0〜A R (N-1) の平均値が、 アンプリチユード左右平均値算出部 AM 0〜 AM (N-1) によつ て算出され、 アンプリチユード左右平均値 ALR0〜ALR (N-1) としてエコーブロック EB0〜EB (N-1) 内で^^される。 「N」 は難であり、 1から 48までの値をとること ができる。  The average value of the left amplified data AL0 to AL (N-1) and the right amplified data AR 0 to AR (N-1) is calculated by the amplitude left and right average value calculation units AM 0 to AM (N-1). It is calculated in the echo blocks EB0 to EB (N-1) as the left and right average values ALR0 to ALR (N-1). “N” is difficult and can range from 1 to 48.
ここで、 サウンドチャンネル # 0〜# (N— 1)、 エコーブロック EB0〜EB (N-1). 並びに、、サウンドチャンネル #0〜# (N— 1) のウェーブデータ W0〜W (N-1) 及びァ ンプリチュード左右平均値 ALR0〜ALR (N-1) を1、 包括的に表現するときは、 それぞ れ、 サウンドチャンネル #n、 エコーブロック EBn、 並びに、 サウンドチャンネル # nのゥ エーブデータ Wn及びアンプリチュード左右平均値 A LRnと表記する。 Here, wave data W0 to W (N-1) of sound channel # 0 to # (N—1), echo block EB0 to EB (N-1). ) And amplitude left and right average values ALR0 to ALR (N-1) are 1 , and when they are expressed comprehensively, the wave data Wn of sound channel #n, echo block EBn, and sound channel #n, respectively And amplitude left and right average value A LRn.
さて、 サウンドチャンネル #0〜# (N— 1) のうちの任意のサウンドチャンネルをェフエ タト原音チャンネルに設定できる。 つまり、 サウンドチャンネル #nのエコーブロック EBn のスィッチ SWをオンにすることにより、 当該サウンドチャンネル #nがエフェクト原音チヤ ンネルに設定される。 '  Now, any sound channel from among sound channels # 0 to # (N—1) can be set as the original source channel. In other words, by turning on the switch SW of the echo block EBn of the sound channel #n, the sound channel #n is set as the effect original sound channel. '
エコーソースとなるウェーブデータは、 エフェクト原音チャンネルに設定されたサウンドチ ャンネノレ # nのウェーブデータ Wnとアンプリチュードの左右平均値 A L R nとの乗算結果 E Mnである。 つまり、 エフェクト原音チャンネルに設定されたサウンドチャンネル #nのゥェ ーブデータ Wnとアンプリチュード左右平均値 A L R nと力 エコーブロック E B nの乗難 Mpによって乗算され、 乗算結果 EMnが得られる。  The wave data that is the echo source is the multiplication result E Mn of the wave data Wn of the sound channel #n set for the effect original sound channel and the left and right amplitude average value A L Rn. That is, the wave data Wn of the sound channel #n set as the effect original sound channel is multiplied by the amplitude left-right average value A L R n and the force echo block E B n difficulty Mp, and the multiplication result EMn is obtained.
エコーブロック EBnのスィッチ SWは、 サウンドチャンネル #nがエフエタト原音チャン ネルに設定されている ¾ ^にオンするため、 サウンドチャンネル #n毎に算出された乗算結果 The switch SW of the echo block EBn is turned on when the sound channel #n is set to the original source channel ¾ ^, so the multiplication result calculated for each sound channel #n
EMnは、 エフェクト原音チャンネルに設定されたサウンドチャンネル #nに限って、 加 Apによって互レ、に加算され、総口 σが算出される。 これを^;で表すと、下記のようになる (数 1) '
Figure imgf000018_0001
EMn can be added only to the sound channel #n set as the effect original sound channel. The total sum σ is calculated by adding to each other by Ap. This can be expressed as ^;
Figure imgf000018_0001
(数 1) において、 「AMLn」 はサウンドチャンネル #nの左アンプリチユードデータ、,「A MRn」 はサウンドチャンネル #nの右アンプリチユードデータである。 エフェクト原音チヤ ンネルに設定されていないサウンドチャンネル #nについては、 常に、 Wn = 0とする。 総和 σは、 22ビットの値として得られる。 ファネルシフタ/!^口処理回路 F Sのファネル シフタは、 エコーシグマウィンドウ値に従って、 総和びの 22ビットのデータの中から連続し た 8ビットを抽出する。エフエタト原音チャンネルに設定されたサウンドチャンネル #ηの数、 ' エコーソ.ースのウェーブデータ Wnの振幅、 並びにアンプリチユードデータ AMLn及び AM Rnの振幅によって、 総和ひの結果が大きく異なるため、 このファネルシフタは、 値を正規化 するために設けられている。  In (Equation 1), “AMLn” is the left amplified data of sound channel #n, and “A MRn” is the right amplified data of sound channel #n. Wn = 0 is always set for sound channel #n that is not set to the effect source channel. The sum σ is obtained as a 22-bit value. Funnel shifter /! ^ Mouth processing circuit The F funnel shifter extracts continuous 8 bits from the total 22 bits of data according to the echo sigma window value. This funnel shifter has different summation results depending on the number of sound channels # η set as the original source channel, the amplitude of the echo source wave data Wn, and the amplitude of the amplitude data AMLn and AM Rn. Is provided to normalize values.
その結果、 ファネルシフタ Z飽和処理回路 FSは、 8ビットのウェーブデータを後段に出力 する。 但し、 総和ひが、 8ビットで表現可能な範囲を超えている:^、 8ビットのウェーブデ ータは、 8ビット中の最上位ビットである符号ビットの値に応じて、 ファネルシフタ/飽和処 理回路 F Sの飽和処理回路により、 所定値に飽和される。 ' ファネルシフタ Z飽和処理回路 F Sからの 8ビットのウェーブデータは、 メイン RAM25 上に設けられたエコー F I FOバッファ B aに順 ¾fcA力される。 入力された値は、 エコー F I FOバッファ B a及ぴ Bbの全エントリを経過した後に、 音響効果 (エコー及ぴリバーブ) が 付与されたゥヱーブデータとしてエフェクトチャンネルから出力される。 '  As a result, the funnel shifter Z saturation processing circuit FS outputs 8-bit wave data to the subsequent stage. However, the total sum exceeds the range that can be represented by 8 bits: ^, 8-bit wave data is funnel shifter / saturation processing depending on the value of the sign bit, which is the most significant bit of 8 bits. Saturated to a predetermined value by the FS saturation processing circuit. 'The 8-bit wave data from the funnel shifter Z saturation processing circuit F S is sequentially applied to the echo FIFO buffer Ba provided in the main RAM 25 by fcA. The input value is output from the effect channel as wave data with sound effects (echo and reverb) after all entries in the echo FIFO buffer Ba and Bb have passed. '
, 従って、 エコー遅延時間 T e c h o' (図 3参照) は、 エコー F I FOバッファ B aのェント リ数 Na及びエコー F I FOバッファ Bbのエントリ数 Nbと、 エコー F I FOバッファ B a 及び Bbにウェーブデータが入力される周波数 f e c h o (Hz) とから算出することができ る。 次式は、 エコー遅延時間 Te c ho (秒) の算出式である。 Therefore, the echo delay time T echo '(see Fig. 3) is the number of entries Na in the echo FI FO buffer B a and the number Nb of entries in the echo FI FO buffer Bb, and the wave data in the echo FI FO buffers B a and Bb. Can be calculated from the input frequency fecho (Hz). The following equation is used to calculate the echo delay time Te c ho (seconds).
(数 2)  (Equation 2)
Tb Tb
echo  echo
j echo エコー F I FOバッファ Bbから出力された値は、 エコー成分たるウェーブデータとしてェ フエクトチャンネルから出力されるとともに、 乗 に出力されて、 エコーリリースレー ト ERと乗算される。 この乗算結果は、 カ卩難 A 1によって、 エコー F I FOバッファ B aか ら出力されたウェーブデータに加算され、 エコー F I FOバッファ B bに書き込まれる。 リバーブ遅延時間 Tr e V e r b (図 3参照) は、 エコー F I FOバッファ B bのエントリ 数 Nbと、 エコー F I FOバッファ B a及び Bbにウェーブデータが入力される周波数 f e c ho (Hz) とから算出できる。 次式は、 リバ一ブ«時間 Tr e V e r b (秒) の算出式で ある。 ' j echo The value output from the echo FIFO buffer Bb is output from the effect channel as wave data as an echo component, output to the multiplier, and multiplied by the echo release rate ER. The multiplication result is added to the wave data output from the echo FIFO buffer B a by the difficulty A 1 and written to the echo FIFO buffer B b. The reverb delay time Tre V erb (see Fig. 3) is calculated from the number of entries Nb in the echo FI FO buffer B b and the frequency fec ho (Hz) at which wave data is input to the echo FI FO buffers B a and Bb. it can. The following equation is a formula for calculating the reverberation time {T e V erb (seconds). '
(数 3), . 、  (Equation 3),.
T _ Nb T _ N b
' 匿 rb f 'Anonymous rb f
J echo 次に、 マイクエコー機能について説明する。 マルチメディアプロセッサ 1では、 マイク等の 外部アナ口グ入力装置 52力 らのアナ口グ音声信号を、 AD C 25を用いてデジタノげータ列 に変換することができる。 このデ'ジタノ!^一タ列をマルチメディァプロセッサ 1に適合する形 式の P CMウェーブデータに変換すると、 サウンドチャンネルの一つとして変換後の P CMゥ エーブデータを再生することができる。 前述のェコ 機能と同様に、 この P,CMウエーブデー 'タに «を発生させ、エコー及びリバーブの効果を することができる(マイクエコー機能)。  J echo Next, the microphone echo function will be explained. In the multimedia processor 1, the analog audio signal from the external analog input device 52 force such as a microphone can be converted into a digital string using the AD C 25. If this digital string is converted to PCM wave data in a format compatible with the multimedia processor 1, the converted PCM wave data can be played back as one of the sound channels. Similar to the echo function described above, this P and CM wave data can be generated to produce echo and reverb effects (microphone echo function).
図 5は、 本発明の実施の形態におけるマイクエコー機能の概念図である。 図 5を参照して、 マイクエコー機能は、 ADC25、 CPU5、マイクエコー F I FOノ ッファ MB a, MBb、 加算器 A s、 及び乗算器 M sを含む。  FIG. 5 is a conceptual diagram of the microphone echo function in the embodiment of the present invention. Referring to FIG. 5, the microphone echo function includes ADC25, CPU5, microphone echo F I FO notifier MB a, MBb, adder A s, and multiplier M s.
AD C 25は、 マイク等の外部アナ口グ入力装置 52力らのアナ口グ音声信号を 10ビット のデジタノ^ータに変換する。 この 10ビッ卜のデジタノ^ータは符号無しの値であるため、 C P U 5は、 このデジタノ ータを 8ビットの符号付きの値 (一 127〜+ 127の範囲) に 変換して、 マルチメディアプロセッサ 1に適合する形式の PCMウェーブデータとする。  The AD C 25 converts an analog audio signal from an external analog input device 52 such as a microphone into a 10-bit digital nota- tor. Since this 10-bit digital data is an unsigned value, the CPU 5 converts this digital data into an 8-bit signed value (in the range of 127 to +127). PCM wave data in a format compatible with processor 1.
1サンプルあたり 8ビットの P CMウェーブデータは、 メイン RAM 25上に設けられたマ イクエコー F I FOバッファ MB aに、 CPU 5によって順^ Λ力される。 入力された PCM ウェーブデータは、 マイクエコー F I FOバッファ MB a及ひ TVIBbの全エントリを経過した 後に、 音響効果 (エコー及びリバーブ) 力 S付与されたウェーブデータとして、 エフヱクトチヤ ンネルから出力される。 したがって、 マイクエコー機能のエコー 時間は、 エコー機能の場 合と同様に (数 1) により、 マイクエコー F I FOバッファ MBa及ひ^VIBbのェントリ数の 総禾口と、 マイクエコー F I FOバッファ MB a及 tMIBbにウェーブデータが入力される周波 数とから算出できる。 , The 8-bit PCM wave data per sample is forwarded by the CPU 5 to the microphone echo FIFO buffer MB a provided on the main RAM 25. The input PCM wave data is output from the effect channel as wave data with acoustic effect (echo and reverb) force S after all entries of the microphone echo FIFO buffer MBa and TVIBb have passed. Therefore, the echo time of the microphone echo function is the same as that of the echo function. (Equation 1) is calculated from the total number of entries for the microphone echo FI FO buffer MBa and ^ VIBb and the frequency at which wave data is input to the microphone echo FI FO buffer MB a and tMIBb. it can. ,
マイクエコー F I FOバッファ MB bから出力された値は、 マイクエコー成分たるウェーブ データとしてエフェクトチャンネルから出力されるとともに、 乗 §Msに出力されて、 マイ クエコーリリースレートと乗算される。 この乗算結果は、 加算器 Asによって、 エコー F I F Oバッファ MB aから出力されたウェーブデータと加算され、 マイクエコー F I FOバッファ .MB bに書き込まれる。 なお、 マイクエコーリリースレートは、 エコーリリースレート ERと 同様のものである。  The value output from the microphone echo F I FO buffer MB b is output from the effect channel as wave data, which is the microphone echo component, and is also output to the multiplication §Ms and multiplied by the microphone echo release rate. The multiplication result is added by the adder As with the wave data output from the echo FIFO buffer MBa and written to the microphone echo FIFO buffer .MBb. The microphone echo release rate is the same as the echo release rate ER.
この 、 乗籠 Msによる乗算と加難 Asによる加算は、 エコー機能の^^と異なりハ 一ドウエアではサポートされていないので、 CPU 5 (つまり、 ソフトウェア) が行う。 従つ • て、 CPU 5の処理内容を変更することにより、 マイクエコー機能を実現するための構成内容 を柔軟に変更できる。  This multiplication and multiplication by Ms, and addition by As are not supported by hardware unlike ^^ of the echo function, so CPU 5 (that is, software) performs it. Therefore, by changing the processing content of CPU 5, the configuration content for realizing the microphone echo function can be flexibly changed.
マイクエコー機能のリバーブ舰時間は、 エコー機能の:^と同様に (数 2) により、 マイ クエコー F I FOバッファ MB bのエントリ数と、 マイクエコー F I FOバッファ MB a及び The reverberation time of the microphone echo function is the number of entries in the microphone echo F I FO buffer MB b and the microphone echo F I FO buffer MB a and
MB bにウェーブデータ力 S入力される周波数とから算出できる。 It can be calculated from the wave data force S input to MB b.
図 6は、 本発明の実施の形態における論理サゥンドチヤンネル及 0¾1理サゥンドチヤンネル の!^図である。 但し、 この 図は人間の聴覚に基づいて論理サウンドチャンネル及 Λ理 サウンドチヤンネルの構成を示す図であり、 本発明の実施の形態における回路実装例とは必ず しも各部の構成が一致しない。 図 6を参照して、 設定される論理サウンドチャンネル #0〜# FIG. 6 is a diagram illustrating a logical sound channel and a logical sound channel according to an embodiment of the present invention. However, this figure shows the configuration of the logical sound channel and the Λ sound channel based on human hearing, and the configuration of each part does not necessarily match the circuit implementation example in the embodiment of the present invention. Referring to Figure 6, set logical sound channels # 0- #
(K-1) に対応して、 デジタルブロック D I B0〜D I B (K— 1) が設けられる。 「Kj は 難であり、 1力ら 6 '4の値をとることができる。 アナ口グブロック ANBは、'左チヤンネル (物理サゥンドチヤンネル) に対応した、 乗難 M L0-ML (K— 1 )、カロ難 AD L、 及び 乗^^ MLO、 並びに、 右チャンネル (物理サウンドチャンネル) に対応した、 乗^ V1R0 〜MR (K-1), カロ難 ADR、 及び乗難 MRO、 を含む。 乗難 ML0〜ML (K-1) は、それぞれ、デジタルブ口ック D I B 0〜D I B (K-1) 力らの入力 WVL 0〜WVL (K 一 1) 並びに AMLO〜AML (K-1) を受け、 乗算器 MRO〜MR (K-1) は、 それぞ れ、 デジタルブロック D I B 0〜D I B (K-1) からの入力 WVR0〜WVR (K-1) 並 びに AMR0〜AMR (K-1) を受ける。 Corresponding to (K-1), digital blocks D I B0 to D I B (K-1) are provided. “Kj is difficult, and can take a value of 6 '4 for 1 force. The analog block ANB is a ridicule M L0-ML (K— 1) corresponding to the left channel (physical sound channel). ), Caro difficulty AD L, and multiplication ^^ MLO, and the right channel (physical sound channel), including the multiplication ^ V1R0 to MR (K-1), Caro difficulty ADR, and riding difficulty MRO. Difficult ML0 to ML (K-1) are digital inputs DIB 0 to DIB (K-1) input WVL 0 to WVL (K 1) and AMLO to AML (K-1), respectively. Multipliers MRO to MR (K-1) receive inputs from digital blocks DIB 0 to DIB (K-1) WVR0 to WVR (K-1) and AMR0 to AMR (K-1), respectively. Receive.
別の言レヽ方をすれば、 デジタルブロック D I B0〜D I B (K-1) は、 それぞれ、 論理サ ゥンドチャンネノレ #0〜# (K— 1)の再生部に相当する。 また、アナログブロック ANBは、 論理サゥンドチヤンネルから物理サゥンドチヤンネルへの変換部 (左チヤンネルへの変換部及 ぴ右チャンネルへの変換部) に相当する。 また、 アナログブロック ANBから出力される音声 出力信号 AULは、 左チャンネル (物理サゥ /ドチャンネル) に相当し、 アナログブロック A NBから出力される音声出力信号 AURは、 右チャンネル (物理サウンドチャンネル) に相当 する。 In other words, digital blocks DI B0 to DIB (K-1) correspond to the playback units of logical sound channels # 0 to # (K-1), respectively. Analog block ANB Corresponds to the converter from logical sound channel to physical sound channel (converter to left channel and convert to right channel). The audio output signal AUL output from the analog block ANB corresponds to the left channel (physical sound channel), and the audio output signal AUR output from the analog block A NB corresponds to the right channel (physical sound channel). Equivalent to.
ここで、 論理サウンドチャンネル #0〜# (K一 1) を包括的に表現するときは、 サウンド チャンネル # kと表記し、 デジタルブ口ック D I B 0〜D I B (K— 1) を包括的に表現する ときは、'デジタルブ口ック D I B kと表記し、 乗算器 ML 0〜ML (K— 1) を包括的に表現 するときは、 乗^ !MLkと表記し、 乗g»[R0〜MR (K-1) を包括的に表現するとき は、 乗難 MR kと表記する。 なお、 エコー機能 (マイクエコー機能) 力使用される の論 理サウンドチャンネル #0〜# (N— 1) (N=l〜48) は、 論理サウンドチャンネル #0〜 # (K,l) (K=l〜64) のうちの η個である。  Here, when the logical sound channels # 0 to # (K 1) are expressed comprehensively, they are expressed as the sound channel #k and the digital block DIB 0 to DIB (K-1) is comprehensively expressed. When expressed, it is expressed as 'digital block DIB k'. When the multiplier ML 0 to ML (K—1) is comprehensively expressed, it is expressed as multiplication ^! MLk, and multiplication g »[R0 When comprehensively expressing ~ MR (K-1), it is expressed as riding difficulty MR k. Note that the logical sound channels # 0 to # (K, l) (K) are used for the logical sound channels # 0 to # (N—1) (N = l to 48) used for the echo function (microphone echo function). = l to 64).
デジタルブ口ック D I B kは、 対応する論理サゥンドチヤンネル # kの再生処理を行う。 デ ジタルブロック D I Bkの各々は、 スィッチ SWz、 ウェーブバッファ WBF k、 エフェクト F I FOバッファ EBF、 スィッチ SWf、 補間フィルタ I F、 スィッチ SWs、 ェンベロー プバッファ EVBFk、 スィッチ SWt、および乗^ P, MPL, MPRを含む。 ここで、 前述のエコー F I FOバッファ及びマイクエコー F I FOバッファを包括して、 エフェクト F I FOバッファ EBFと表記している。  The digital book D I B k performs playback processing of the corresponding logical sound channel #k. Each digital block DI Bk includes switch SWz, wave buffer WBF k, effect FI FO buffer EBF, switch SWf, interpolation filter IF, switch SWs, envelope buffer EVBFk, switch SWt, and multiply ^ P, MPL, MPR . Here, the above-described echo F I FO buffer and microphone echo F I FO buffer are comprehensively described as an effect F I FO buffer EBF.
PCMウェーブデータは、 8ビット単位のデータストリームであり、 通常、 予め外部メモリ 50に^される。 論理サウンドチャンネル #kの再生が開始されると、 SPU13は、 DM AC 4に PCMウェーブデータの取 求を開始する。 DMAC4は、 SPU13からの要求 に応じて、 P CMゥヱーブデータを外部メモリ 50力 らメイン RAM25上に確保されたゥェ ーブバッファ WBFkへと^ ¾する。 このときは、 スィッチ SWzはオンされている。  PCM wave data is an 8-bit data stream and is usually stored in the external memory 50 in advance. When playback of logical sound channel #k is started, SPU 13 starts to acquire PCM wave data from DM AC 4. In response to a request from the SPU 13, the DMAC 4 transfers the PCM data from the external memory 50 to the wave buffer WBFk secured on the main RAM 25. At this time, the switch SWz is on.
但し、 SPU13は、 CPU 5による j£^P CMウェーブデータの解凍等が行われる^^、 スィッチ SWzをオフにして、 DMAC 4による P CMウェーブデータの取得をディセーブル にする。 この場合は、 CPU 5が德装ウェーブバッファ WBFkに P CMウェーブデータを書 さ込む。  However, SPU13 disables the acquisition of PCM wave data by DMAC 4 by turning off switch SWz when CPU 5 decompresses j £ ^ PCM wave data. In this case, CPU 5 writes PCM wave data to the outfitted wave buffer WBFk.
SPU13は、 スィッチ SWf をウェーブバッファ WBFk側と^&し、 ウェーブバッファ SPU13 replaces switch SWf with wave buffer WBFk side, and wave buffer
WBFkに^された P CMゥヱーブデータをウエーブデータ Wkとして後段に送出する。 一方、 論理サウンドチャンネル #kがエコー成分を再生するエフェクトチャンネルに設定さ れている には、 エコー成分たる P CMウェーブデータは、 SPU13によってエフェクト F I FOバッファ EBF (エコー F I FOバッファ) に書き込まれる。 この # ^は、 スィッチ SWfがエフェクト F I FOバッファ EBF側と爆されるため、 このバッファ EBFから順 次エコー成分たる P CMウェーブデータがウェーブデータ Wkとして後段に送出される。 また、 論理サウンドチャンネル #kがマイクエコー成分を再生するエフエタトチャンネルに 設定されている こは、 マイクエコー成分たる P CMウェーブデータは、 CPU 5によって エフ クト F I FOバッファ EBF (マイクエコー F I FOバッファ) に書き込まれる。 この ¾ ^は、 スィッチ SWfがエフエタト F I FOバッファ EBF側と ^されるため、 このバッ ファ E B Fから順次マイタエコ一成分たる P CMウェーブデータが後段に送出される。 PCM wave data set to WBFk is sent to the subsequent stage as wave data Wk. On the other hand, if the logical sound channel #k is set to an effect channel that reproduces the echo component, the PCM wave data that is the echo component is Written to FI FO buffer EBF (Echo FI FO buffer). Since this switch SWf is exploded with the effect FIFO buffer EBF side, the PCM wave data that is the sequential echo component from this buffer EBF is sent to the subsequent stage as wave data Wk. In addition, the logical sound channel #k is set to the effect channel that reproduces the microphone echo component. This means that the PC CM wave data, which is the microphone echo component, is output by the CPU 5 to the effect FI FO buffer EBF (microphone echo FI FO buffer. ) Is written. Since ¾ ^ is the switch SWf on the FET FIFO FIFO EBF side, the PCM wave data, which is one miter eco component, is sent to the subsequent stage from this buffer EBF.
SPU13では、 ウェーブバッファ WBFkからの読み出し¾gを変えることで、 ピッチ変 換が行われる。 ピッチ変換に伴うエイリアス/ィズの増加を防ぎ、 滑らかな波形を再生するた めに、 P CMウェーブデータの捕間を行う補間フィルタ I Fが搭載される。 補間を行う力^?か ; の切り替えは、 全論理サウンドチャンネル #0〜# (K— 1) に対して一括して行われる。 補 間を行う^は、 スィッチ SW2力補間フィルタ I F側に され、 補間後の PCMウェーブ データが後段に送出される。 一方、 補間を行わない は、 スィッチ SWsがスィッチ SWf 側に直^^され、 補間なしの P CMウェーブデータが後段に送出される。  In the SPU 13, the pitch conversion is performed by changing the read value g from the wave buffer WBFk. In order to prevent the increase in alias / noise due to pitch conversion and to reproduce a smooth waveform, an interpolation filter IF is installed to capture the PCM wave data. Interpolation power ^? The switch is performed for all logical sound channels # 0 to # (K—1) at once. The interpolation ^ is performed on the switch SW2 force interpolation filter IF side, and the PCM wave data after interpolation is sent to the subsequent stage. On the other hand, when no interpolation is performed, the switch SWs is moved directly to the switch SWf side, and PCM wave data without interpolation is sent to the subsequent stage.
スイシチ SWsからの P CMウェーブデータは、 左チャンネルと右チャンネルと (左右の物 理サウンドチャンネル) の両方の変換部に出力される。 ここで、 左チャンネルの変換部に出力 された PCMウェーブデータを左ウェーブデータ WVL kと表記し、 右チヤシネルの'変換部に 出力された P CMウェーブデータを右ゥエーブデータ WV R kと表記する。  The PCM wave data from the switch SWs is output to both the left channel, right channel, and (left and right physical sound channels) converters. Here, the PCM wave data output to the left channel converter is denoted as left wave data WVL k, and the PCM wave data output to the right channel 'converter is denoted as right wave data WVRk.
さて、 一方、 エンベロープの各サンプルの生成方法は、 シーケンシャルモードとリリースモ ードとで異なる。 シーケンシャルモードでは、 DMAC4が SPU13からの要求に応じて外 部メモリ 50からメイン RAM25上に確保されたエンベロープバッファ EVBFkにェンべ ロープデータ列を^!し、 S PU 13がエンベロープデータ列をデコードして'エンベロープサ ンプノレ EVS kを随時^^する。 この^ \ スィッチ SWtは、 エンベロープサンプル EVS k彻 Jに赚されており、 エンベロープサンプル EVS k力 エンベロープデータ EVDkとし て、 後段に送出される。  On the other hand, the method of generating each sample of the envelope is different between the sequential mode and the release mode. In sequential mode, DMAC4 sends an envelope data string from the external memory 50 to the envelope buffer EVBFk reserved on the main RAM 25 in response to a request from the SPU 13, and SPU 13 decodes the envelope data string. 'Envelope Samp Nore EVS k ^^ from time to time. This ^ \ switch SWt is assigned to envelope sample EVS k 彻 J, and is sent to the subsequent stage as envelope sample EVS k force envelope data EVDk.
一方、 リリースモードでは、 乗算器 MPによって、 前回のエンベロープデータ EVDkに、 SPUローカル RAMI 5に ¾ ^されたエンベロープリリースレート EVRkが掛け合わせら れ、 エンベロープサンプルが «される。 この^は、 スィッチ SWtカ乗^ MP側に纖 され、 乗 ^IPからのエンベロープサンプルが、 エンベロープ EVD kとして後段に送出さ れる。 #k毎に SPUローカル RAMI 5に欄される。 乗難 MPLは、 エンベロープデ一'タ EV Dk (16ビット) とゲイン GLk (8ビット) とを乗算して、 左チャンネルのアンプリチュ ードデータ AMLk (16ビット) を生成する。 乗難 MPRは、 エンベロープデータ EVD k (16ビット) とゲイン GRk (8ビット) とを乗算して、 右チャンネルのアンプリチュー ドデ タ AMRk (16ビット) を生成する。 ' さて、 アナログブロック ANBの乗^ !MLkには、 対応するデジタノレブロック D I Bkの 左ウェーブデータ WVL kと左アンプリチュードデータ AML k 部 8ビット) とが入力 され、 .これらを乗算する。 乗難 MRkには、 対応するデジタルブロック D I Bkの右ゥエー ブデータ WVRkと右アンプリチユードデータ AMRk (難部 8ビット) とが入力され、 こ れらを乗算する。 On the other hand, in the release mode, the multiplier MP multiplies the previous envelope data EVDk by the envelope release rate EVRk obtained by the SPU local RAMI 5 to obtain an envelope sample. This ^ is input to the switch SWt raised to the MP side, and the envelope sample from the raised ^ IP is sent to the subsequent stage as the envelope EVD k. Each #k is listed in SPU local RAMI 5. Ride MPL multiplies envelope data EV Dk (16 bits) and gain GLk (8 bits) to generate left channel amplitude data AMLk (16 bits). Ride-in MPR multiplies envelope data EVD k (16 bits) and gain GRk (8 bits) to generate right channel amplitude data AMRk (16 bits). 'Now, the analog block ANB multiplication ^ MLk is input with the left wave data WVL k of the corresponding digital block DI Bk and the left amplitude data AML k part 8 bits), and these are multiplied. Ride difficulty MRk is input with the right wave data WVRk of the corresponding digital block DI Bk and the right amplified data AMRk (8 bits of the difficult part), and these are multiplied.
ウェーブデータ WVL kとアンプリチュードデータ AM L kとの乗算結果から得られる論理 サウンドチャンネル #kの左音声信号は、 加算器 ADLによって、 再生中の他の全ての論理サ ゥンドチャンネルの左音声信号とカロ算される。 そして、 乗^^ MLOは、 この加算結果に 8ビ ットのメインボリユームデータ MVを乗算し、 最終的な左チヤンネルの音声出力信号 AU Lを 生成する。 .  The left audio signal of logical sound channel #k obtained from the multiplication result of wave data WVL k and amplitude data AM L k is added to the left audio signal of all other logical sound channels being played back by adder ADL. Is calculated. The multiplication ^^ MLO multiplies the addition result by the 8-bit main volume data MV to generate the final left channel audio output signal AUL. .
ウェーブデータ WVRkとアンプリチュードデータ AMRkとの乗算結果から得られる論理 サゥンドチヤンネル # kの右音声信号は、 加算器 AD Rによって、 再生中の他の全での論理サ ゥンドチャンネルの右音声信号と加算される。 そして、 乗難 MROは、 この加算結果に 8ビ ットのメインボリュームデータ MVを乗算し、 最終的な右チャンネルの音声出力信号 AURを 生成する。  The right audio signal of the logical sound channel #k obtained from the multiplication result of the wave data WVRk and the amplitude data AMRk is added to the right audio signal of all other logical sound channels being played back by the adder ADR. Is added. Then, the riding difficulty MRO multiplies the addition result by the 8-bit main volume data MV to generate the final right channel audio output signal AUR.
図 7は、 図 1の SPU13の内部構成を示すブロック図である。 図 7を参照して、 SPU1 FIG. 7 is a block diagram showing the internal configuration of the SPU 13 of FIG. Referring to Figure 7, SPU1
3は、データ処理ブロック 35、コマシド処理ステートマシン 37、制御レジスタセット 39、3 includes data processing block 35, comaside processing state machine 37, control register set 39,
DMAリクエスタ 41、 メイン RAMインタフェース 43、 クロストーク |®¾回路 45、 およ ぴ SPUロー力ノレ RAMインタフェース 47を含む。 データ処理ブロック 35は、 エコー機能 ブロック 55およびマイクエコー機能ブロック 57を含む。 Includes DMA requester 41, main RAM interface 43, crosstalk | ®¾ circuit 45, and SPU low power RAM interface 47. The data processing block 35 includes an echo function block 55 and a microphone echo function block 57.
コマンド処理ステートマシン 37は、 CPU5が I/Oバス 27を通じて発行するコマンド に応じて、 SPU13のコマンド実行における状態制御を行う。発行されるコマンドの種類は、 The command processing state machine 37 performs state control in command execution of the SPU 13 in accordance with a command issued by the CPU 5 through the I / O bus 27. The type of command issued is
「START」、 「STOP」、 「UPDATE」、 及び 「NOP」 の 4觀である。 これらのコマ ンドは、 コマンド処理ステートマシン 37の SPUコマンドレジスタ 38に、 対象となる論理 サゥンドチャンネルの番号 kと共に書き込まれる。 コマンド STARTは、 指定された論理サウンドチャンネル # kの再生を開始させる命令で ある。 CPU5は、 このコマンド STARTの発行前に、 SPUローカル RAMI 5に再生に 必要なパラメータを予め書き込んでおく。 コアンド STOPは、 指定された論理サウンドチヤ ンネル # kの再生を停止させる命令である。 “START”, “STOP”, “UPDATE”, and “NOP”. These commands are written in the SPU command register 38 of the command processing state machine 37 together with the number k of the target logical sound channel. The command START is an instruction to start playback of the specified logical sound channel #k. Before issuing this command START, CPU 5 writes parameters necessary for playback in SPU local RAMI 5 in advance. Coand STOP is an instruction to stop playback of the specified logical sound channel #k.
コマンド UPDATEは、 論理サウンドチャンネル #kの再生中に、 再生に用いられるパラ メータの一部を ¾ffさせる命令である。 CPU 5は、 このコマンド UPDATEの発行前に、 SPU13内の対応する制御レジスタ (次に説明する制御レジスタセット 39に含まれる。) に Mffするパラメータを予め書き込んでおく。 コマンド NOPは、 特に何の処理も行わせなレ、命 令である。  The command UPDATE is a command that causes some of the parameters used for playback to be obtained during the playback of the logical sound channel #k. Before issuing this command UPDATE, the CPU 5 writes a parameter to be Mff in advance in a corresponding control register in the SPU 13 (included in the control register set 39 described below). Command NOP is a command that does not allow any processing to be performed.
制御レジスタセット 39は、 SPUコマンドレジスタ 38以外の SPU13を制御するため の複数の制御レジスタ (図示せず) を含む。  The control register set 39 includes a plurality of control registers (not shown) for controlling the SPU 13 other than the SPU command register 38.
' 例えば、 制御レジスタセット 39は、 エコー機能設定レジスタ (図示 ·¾τΤ) を含む。'エコー 機 定レジスタには、 非エフェクトチャンネルに設定 (「o o」)、 エフェクト原音チャンネル に設定 (「οι」)、 エコー成分に るエフェクトチャンネルに設定 (「ιο」)、 マイクエコー 成分に るエフエタトチャンネルに設定 (「11」)、 のうちのレヽずれかの値が設定される。 コ マンド STARTが発行されると、 練となる論理サウンドチャンネルには、 そのときのェコ 一機能設定レジスタの値に従った属性(非エフエタトチヤシネル、エフェクト原音チャンネル、 エコー成分に対するエフェクトチャンネノレ、 あるいはマイクエコー成分に対するエフェクトチ ヤンネルのいずれ力 力設定される。 従って、 CPU 5がエコー機能設定レジスタにアクセス することにより、 各論理サウンドチャンネルに、 レヽずれの属性でも設定できる。 もちろん、 い ずれの論理サウンドチャンネルにもエコー成分に るエフエタトチャンネル及び z又はマイ クエコー成分に対するエフェクトチャンネルを設定しないこともできる。 'For example, the control register set 39 includes an echo function setting register (shown as ¾τΤ in the figure). 'In the echo setting register, set to the non-effect channel (“oo”), set to the effect original sound channel (“οι”), set to the effect channel to be used as the echo component (“ιο”), and set the effect to the microphone echo component. Set to the vertical channel (“11”). When the command START is issued, the logical sound channel to be refined has attributes (non-feature channel, effect original sound channel, effect channel for echo component) according to the value of the eco function setting register at that time. Therefore, the power of the effect channel for the microphone echo component can be set, so the CPU 5 can access the echo function setting register to set each logical sound channel with the offset attribute. It is also possible not to set the effect channel for the echo channel and the z or microphone echo component as the echo component for the logical sound channel.
DMAリクエスタ 41は、 コマン!^処理ステートマシン 37からの指示に従い、 ウエーブデ ータ及びエンベロープデータを外部メモリ 50から取得するために、 DMAC4に対して DM 要求を発 する。 また、 DMA転送によって取得したデータをデータ処理ブロック 35 に出力する。  The DMA requester 41 issues a DM request to the DMAC 4 in order to acquire the wave data and the envelope data from the external memory 50 according to the instruction from the command processing state machine 37. Also, the data acquired by the DMA transfer is output to the data processing block 35.
データ処理ブロック 35は、 ゥエーブデータの取得及び再生、 ェンベロ一プデータの取得及 びデコード、アンプリチユードデータの^^、エコー処理、並ぴに、マイクエコー処理を行う。 そして、 データ処理ブロック 35は、 左チヤンネルに る複数の論理サゥンドチヤンネル # kのゥエーブデータ WV L kを粉割多重化し、左チヤンネルウェーブデータ MWLとして、 クロストーク 回路 45に出力する。 また、 データ処理ブロック 35は、 右チャンネルに対 する複数の論理サゥンドチヤンネル # kのウェーブデータ WV R kを時分割多重化し、 右チヤ ンネルウエーブデータ MWRとして、 クロストーク低減回路 4 5に出力する。 ' さらに、 データ処理ブロック 3 5は、 左チヤンネルに ¾ "る複数の論理サゥンドチヤンネル # kのアンプリチュードデータ AML kを時分割多重化し、 左チャンネルアンプリチュードデ ータ MAMLとして、 クロストーク «回路 4 5に出力する。 また、 データ処理ブロック 3 5 は、 右チヤンネルに対する複数の論理サゥンドチヤンネル # kのアンプリチュードデータ. AM R kを時分割多重化し、 右チャンネルアンプリチュードデータ MAMRとして、 クロストーク 低減回路 4 5に出力する。 The data processing block 35 performs wave data acquisition and playback, envelope data acquisition and decoding, amplified data ^^, echo processing, and microphone echo processing. Then, the data processing block 35 divides and multiplexes the plurality of logical sound channels #k of the wave data WV L k in the left channel and outputs them to the crosstalk circuit 45 as the left channel wave data MWL. Data processing block 35 is connected to the right channel. Wave data WV R k of multiple logical sound channels #k to be time-division multiplexed and output to the crosstalk reduction circuit 45 as right channel wave data MWR. 'In addition, the data processing block 3 5 is time-division multiplexed with multiple logical sound channels # k of amplitude data AML k to the left channel, and the left channel amplitude data MAML is used as a crosstalk circuit. 4 Data is output to 5. Data processing block 3 5 is the amplitude data of multiple logical sound channels # k for the right channel. AM R k is time-division multiplexed and the right channel amplitude data MAMR is crosstalked. Output to reduction circuit 4 5.
この.ように、 物理サゥンドチヤンネル毎に時分割多重ィ匕を行うことにより、 物理サゥンドチ ヤンネノ に複数の論理サウンドチャンネル # kのウェーブデータのミキシング、 および、 物 理サゥンドチヤンネル毎に複数の論理サゥンドチヤンネノレ # kのアンプリチュードデータのミ キシングを行う。 これは、 時分割多重化されてデジタル/アナログ変換された音声出力が、 聴 覚上ミキシングされて聞こえることを利用している。  In this way, by performing time-division multiplexing for each physical sound channel, wave data of multiple logical sound channels #k can be mixed in the physical sound channel, and multiple logical values for each physical sound channel. Mixing of amplitude data of sound channel #k. This makes use of the fact that audio output that has been time-division multiplexed and digital / analog converted is audibly mixed and heard.
図 8は、 図 7のデータ処理プロック 3 5による時分割多重化の説明図である。 図 8を参照し て、 時分割多重化 (つまり、 ミキシング) する論理サウンドチャンネル # 0〜# (K—1 ) の 総チャンネル数は、 1から 6 4の間で、 1チャンネル単位で設定可能である。 つまり、 多重チ ャンネル数 Kの値は、 1〜 6 4の任意の値に設定できる。 "  FIG. 8 is an explanatory diagram of time division multiplexing by the data processing block 35 in FIG. Referring to Fig. 8, the total number of logical sound channels # 0 to # (K—1) to be time-division multiplexed (that is, mixed) can be set from 1 to 64 in increments of 1 channel. is there. In other words, the value of the number of multiplexed channels K can be set to any value from 1 to 64. "
各論理サゥンドチヤンネル # kのデータは、 ^割多重化されるスロットにそれぞ L jり当 てられる。 Kチャンネルのミキシングが行われるのであれば、 Kスロットから構成されるノ プが、 的に出力される。  The data of each logical sound channel #k is assigned to each slot that is to be multiplexed. If K-channel mixing is performed, a knop consisting of K-slots will be output.
ここで、 S P Uローカル RAM I 5には、 複数の論理サウンドチャンネルに対応して複数の 記憶領域が設けられる。 各記憶領域には、 対応する論理サウンドチャンネルの再生に必要なパ ラメータが^される。 従って、 S PUローカル RAM I 5に設けられている記憶領域の総数 は 6 4であり、 この内、 多重チャンネル数 K (=再生する論理サウンドチャンネル数) に等し い数の記憶領域が用いられる。 また、 各記憶領域に欄されるパラメータには、 ウェーブデー タのアドレス情報も含まれ、 これによつて、 論理サウンドチャンネルに割り当てるウェーブデ ータが設定される。  Here, the SPU local RAM I 5 is provided with a plurality of storage areas corresponding to a plurality of logical sound channels. Each storage area contains parameters necessary for playback of the corresponding logical sound channel. Therefore, the total number of storage areas provided in the SPU local RAM I 5 is 64, and the number of storage areas equal to the number of multiplexed channels K (= number of logical sound channels to be played back) is used. . The parameters in each storage area also include wave data address information, which sets the wave data to be assigned to the logical sound channel.
図 7に戻って、 メイン RAMインタフェース 4 3は、 データ処理ブロック 3 5のメイン R A Returning to FIG. 7, the main RAM interface 4 3 is the main R A of the data processing block 3 5.
M 2 5へのアクセスを仲介する。 メイン RAM 2 5へのアクセスは、 (1 ) DMA転送によって 取得したウェーブデータ及びエンベロープデータのメイン RAM 2 5への書き込み、 (2 ) 論理 サゥンドチヤンネル # kの再生のためのウェーブデータ及びエンベロープデータのメイン R A M25からの読み出し、 (3) エコー処 3¾ぴマイクエコー処理のためのメイン RAM 25への エコー成分たるウェーブデータ及びマイクエコー成分たるウェーブデータの読み書き、 'におい て行われる。 Mediate access to M 2 5. Access to the main RAM 25 is as follows: (1) Write the wave data and envelope data acquired by DMA transfer to the main RAM 25, (2) Wave data and envelope data for playback of the logical sound channel #k The main RA Reading from the M25, (3) Echo processing Read / write of wave data as echo components and wave data as microphone echo components to / from the main RAM 25 for 3/4 microphone echo processing.
S PUロー力ノレ RAMインタフェース 47は、 データ処理ブロック 35の SPUローカル R AMI 5へのアクセスを仲介する。 SPUローカル RAMI 5へのアクセスは、 ウェーブデー タ再生のためのパラメータ、 並びに、 エンベロープデータ及ぴアンプリチユードデータ生成の ためのパラメータの読み書き、 において行われる。 また、 SPUローカル RAMインタフエ一 ス 47は、 CPU5が IZOバス 27を通じて SPUローカル RAMI 5へアクセスする際の 仲介も行う。  The SPU low power RAM interface 47 mediates access to the SPU local R AMI 5 of the data processing block 35. Access to the SPU local RAMI 5 is performed in reading and writing parameters for wave data playback and parameters for generating envelope data and amplified data. The SPU local RAM interface 47 also mediates when the CPU 5 accesses the SPU local RAMI 5 through the IZO bus 27.
図 1のオーディオ D ACブロック 31は、カスケ一ド された DAC (図示 ·1ΤΤ)を含む。 上記のように、 複数の論理サゥンドチヤンネノレ # kのミキシングは、 データを時分割多重化す The audio DAC block 31 in FIG. 1 includes a cascaded DAC (1 · in the figure). As mentioned above, mixing multiple logical sound #k is time division multiplexed data.
' ることによって行われるので、 時分割多重化されたデータをそのままオーディオ D ACブロッ ク 31に入力すると、 カスケード接続された DAC間における伝播 «が、 論理サウンドチヤ ンネノレ #k間のクロストークを引き起こす可能性がある。 '' If time-division multiplexed data is directly input to audio DAC block 31, propagation between cascaded DACs causes crosstalk between logic sound channels #k. there is a possibility.
図 7のクロストーク低減回路 45は、 このような論理サウンドチャンネル #k間のクロスト ークの発生を防止する。 このクロストーク麵回路 45は、 各論理サウンドチャンネル #kの The crosstalk reduction circuit 45 in FIG. 7 prevents such a crosstalk between the logical sound channels #k. This crosstalk circuit 45 is connected to each logical sound channel #k
, データをカスケード接続された DACに出力する際に、 論理サウンドチャンネル #k間に予め 設定された長さの無音期間を揷入する。 これにより、 カスケード^^された' D AC間を、 ある 論理サゥンドチャンネル # kの信号が伝 fiH"る際に、 前後の論理サウンドチャンネル # kの信 号と干渉が発生することを防止する。無音期間の長さは、 C PU 5が I ZOバス 27を通じて、 制御レジスタセット 39の対応する制御レジスタ (図示せず) に設定する。 , Insert a pre-set silence period between logical sound channels #k when outputting data to cascaded DACs. As a result, when a signal of a logical sound channel #k is transmitted between the cascaded DACs, it prevents interference with the signals of the previous and subsequent logical sound channels #k. The length of the silent period is set by CPU 5 through the I ZO bus 27 in the corresponding control register (not shown) of the control register set 39.
詳細には、 クロストーク 回路 45は、 左チャンネルウェーブデータ MWLの論理サゥン ドチャンネル #k間に無音期間を挿人して、 左チャンネルウェーブデータ MWLCとして、 ォ 一ディォ D ACブロック 31に出力する。 また、 クロストーク ^回路 45は、 右チャンネル ウェーブデータ MWRの論理サウンドチャンネル #k間に無音期間を挿入して、 右チャンネル ウェーブデータ MWRCとして、 オーディオ DACブロック 31に出力する。  Specifically, the crosstalk circuit 45 inserts a silent period between the logical sound channels #k of the left channel wave data MWL and outputs the result to the audio DAC block 31 as the left channel wave data MWLC. Further, the crosstalk circuit 45 inserts a silence period between the logical sound channels #k of the right channel wave data MWR and outputs the result to the audio DAC block 31 as the right channel wave data MWRC.
さらに、 クロストーク ί¾ ^回路 45は、 左チャンネルアンプリチユードデータ MAMLの論 理サウンドチャンネル # k間に無音期間を挿入して、 左チャンネルアンプリチュードデータ M In addition, the crosstalk ί¾ ^ circuit 45 inserts a silence period between the left channel amplitude data MAML logical sound channel #k and the left channel amplitude data M
ALCとして、 オーディオ DACプロック 31に出力する。 また、 クロストーク {S ^回路 45 は、 右チャンネルアンプリチユードデータ MAMRの論理サウンドチャンネル #k間に無音期 間を揷入して、 右チャンネルアンプリチュードデータ MARCとして、 オーディオ D ACブロ ック 3 1に出力する。 Output to audio DAC block 31 as ALC. The crosstalk {S ^ circuit 45 inserts a silence period between the logical sound channels #k of the right channel amplitude data MAMR and outputs the audio DAC block as the right channel amplitude data MARC. 3 Outputs to 1.
さらに、クロストーク 回路 45は、制御レジスタセット 39の対応する制御レジスタ (図 示 ¾~f) カゝら入力されたメインボリュームデータ MVを、 そのままメインボリュームデータ M VCとして、 オーディオ D ACブロック 3 1に出力する。  Furthermore, the crosstalk circuit 45 uses the main volume data MV input from the corresponding control register (illustrated ¾ to f) of the control register set 39 as the main volume data M VC as it is, and the audio DAC block 3 1 Output to.
次に、エコー機能ブロック 55及ぴマイクエコー機能プロック 57の詳細な説明をする前に、 図 4のエコー F I FOバッファ B a, B bおよぴ図 5のマイクエコー F I FOバッファ MB'a, MB bについて詳細に説明する。  Next, before explaining the echo function block 55 and the microphone echo function block 57 in detail, the echo FI FO buffer B a, B b in FIG. 4 and the microphone echo FI FO buffer MB'a, in FIG. MB b will be described in detail.
,図 9は、 図 1のメイン RAM25に構成されるエコー F I FOバッファ及びマイクエコー F I FO,バッファの説明図である。 図 9を参照して、 エコー F I FOバッファの領域は、 メイン R AM 25上に自由に設定することができる。 エコー F I F Oバッファの領域の始端及び終端 は、 それぞ 述のエコー F I FOバッファ始端ァドレスレジスタ 1 1 5及びエコー F I FO ' バッファ.終端アドレスレジスタ 1 1 7で設定される (図 1 0参照)。  FIG. 9 is an explanatory diagram of an echo F I FO buffer, a microphone echo F I FO, and a buffer configured in the main RAM 25 of FIG. Referring to FIG. 9, the area of the echo F I FO buffer can be set freely on the main RAM 25. The start and end of the echo FIFO buffer area are set by the echo FIFO buffer start and end address registers 1 1 5 and 1 5 and the echo FIFO buffer and termination address register 1 17 respectively (see FIG. 10).
エコー F I FOバッファ 合端アドレスレジスタ 1 1 5およびエコー F I FOノくッファ終端ァ ドレスレジスタ 1 1 7の値は、 I /Oバス 27を通じて CPU 5により設定される。  The values of Echo F I FO buffer termination address register 1 1 5 and Echo F I FO buffer end address register 1 1 7 are set by CPU 5 through I / O bus 27.
但し、 それぞれのレジスタの下位 3ビットには値を設定できず、 エコー F I F Oバッファ始 端ァドレスレジスタ 1 .1 5の下位 3ビットは 「0 b 000」 に固定され、 エコー F I FOバッ . ファ終端ァドレスレジスタ 1 1 7の下位 3ビットは 「0 1 1」 に固定される。 すなわち、 エコー F I FOバッファの領域は、 必ず 8バイトァラインに従って配置される。 これは、 メイ ン1 八^ 25の1ヮードが64ビット (=8バイト) から構成されているからである。  However, the lower 3 bits of each register cannot be set, and the lower 3 bits of the echo FIFO buffer start address register 1.15 are fixed to “0 b 000”, and the echo FIFO buffer end address is set. The lower 3 bits of register 1 1 7 are fixed to “0 1 1”. In other words, the area of the echo FIFO buffer is always arranged according to the 8-byte line. This is because one of the main 1 8 25 is composed of 64 bits (= 8 bytes).
このように、 エコー F I FOバッファのサイズは自由に定められるので、 必要とされるェコ H«時間 (図 2参照) に応じた必要十分なサイズをメイン RAM 25上に確保することがで きる。  In this way, the size of the echo FIFO buffer can be freely determined, so that a necessary and sufficient size can be secured on the main RAM 25 according to the required echo time (see Fig. 2). .
同様に、 マイクエコー F I FOバッファの領域は、 メイン RAM25上に自由に設定するこ とができる。 マイクエコー F I FOバッファの領域の始端及ぴ終端は、 それぞ; ίτ¾述のマイク エコー F I FOバッファ始端ァドレスレジスタ 141及びマイクエコー F I FOバッファ終端 ァドレスレジスタ 143で設定される (図 1 1参照)。  Similarly, the area of the microphone echo F I FO buffer can be freely set on the main RAM 25. The start and end of the microphone echo FIFO buffer area are set by the microphone echo FIFO buffer start address register 141 and the microphone echo FIFO buffer end address register 143 described below (see FIG. 11).
マイクエコー F I FOバッファ始端ァドレスレジスタ 141及びマイクエコー F I FOバッ ファ終端アドレスレジスタ 143の値は、 Iノ〇バス 27を通じて CPU 5により設定される。 但し、 それぞれのレジスタの下位 3ビットには値を設定できず、 マイクエコー F I FOバッ ファ始端ァドレスレジスタ 14 1の下位 3ビットは 「0 b 000」 に固定され、 マイクエコー The values of the microphone echo F I FO buffer start address register 141 and the microphone echo F I FO buffer end address register 143 are set by the CPU 5 through the INO bus 27. However, the lower 3 bits of each register cannot be set, and the lower 3 bits of the microphone echo F I FO buffer start address register 14 1 are fixed to “0 b 000”.
F I FOバッファ終端ァドレスレジスタ 143の下位 3ビットは「0 b 1 1 1 Jに固定される。 すなわち、 マイクエコー F I F Oバッファの領域は、 必ず 8バイトァ インに従って配置され る。 これは、 メイン RAM 2 5の 1ワードが 6 4ビット (= 8バイト) 力 ^構成されでいるか らである。 , The lower 3 bits of FIFO buffer end address register 143 are fixed to “0 b 1 1 1 J”. In other words, the area of the microphone echo FIFO buffer is always arranged according to the 8-byte sign. This is because one word of main RAM 25 is composed of 64 bits (= 8 bytes). ,
このように、 マイクエコー F I F Oバッファのサイズは自由に定められるので、 必要とされ るェコ一遅延時間 (図 2参照) に応じた必要十分なサイズをメイン R AM 2 5上に確保するこ とができる。 , 図 1 0は、 図 7のエコー機能ブロック 5 5の内部構成を示すブロック図である。 図 1 0を参 照して、.エコー機能プロック 5 5は、 ウェーブデータテンポラリレジスタ 7 1、 左アンプリチ ユード:テンポラリレジスタ 7 3、 右アンプリチユードテンポラリレジスタ 7 5、加算器 7 7、  In this way, the size of the microphone echo FIFO buffer is freely determined, so that a necessary and sufficient size corresponding to the required echo delay time (see Fig. 2) must be secured on the main RAM 25. Can do. FIG. 10 is a block diagram showing the internal configuration of the echo function block 55 in FIG. Referring to Fig. 10, the echo function block 5 5 is composed of the wave data temporary register 7 1, left amplified register: temporary register 7 3, right amplified temporary register 7 5, adder 7 7,
9、 乗 8 1、 加 8 3、 累積値^ ήレジスタ 8 5、 ファネノレシフタ 8 7、 飽和 処理回路 8 9、 マルチプレクサ (MUX) 9 3、 エコー F I F Oバッファライトアドレスカウ 9, Multiplier 8 1, Addition 8 3, Accumulated value ^ ή Register 8 5, Fanane shifter 8 7, Saturation processing circuit 8 9, Multiplexer (MUX) 9 3, Echo F I F O Buffer write address counter
' ンタ 9 5.、 エコーライトデータバッファ 9 7、 エコー F I F〇バッファリードアドレスカウン タ 9 9、 エコーリードデータバッファ 1 0 1、 エコー F I F Oバッファリリースアドレスカウ ンタ 1 0 3、 リリースリードデータバッファ 1 0 5、 リリースライトデータバッファ 1 0 7、 乗算器 1 1 1、 及び加算器 1 1 3を含む。 '9, Echo write data buffer 9 7, Echo FIF 0 buffer read address counter 9 9, Echo read data buffer 1 0 1, Echo FIFO buffer release address counter 1 0 3, Release read data buffer 1 0 5 Release write data buffer 1 0 7, multiplier 1 1 1, and adder 1 1 3.
エコー.シグマウィンドウレジスタ 9 1、 エコー F I F Oバッファ合端アドレスレジスタ 1 1 Echo Sigma window register 9 1, Echo F I F O Buffer termination address register 1 1
5、 エコー F I F〇バッファ終端アドレスレジスタ 1 1 7'、 及びエコーリリースレートレジス タ 1 0 9は、 図 7の制御レジスタセット 3 9に含まれる。 5. Echo F I F 0 Buffer end address register 1 1 7 'and Echo release rate register 1 0 9 are included in control register set 39 in FIG.
ウェーブデータテンポラリレジスタ 7 1、 左アンプリチュードテンポラリレジスタ 7 3、 お よび右アンプリチユードテンポラリレジスタ 7 5は、 それぞれ再生のためにクロストーク « 回路 4 5を介してオーディオ DACブロック 3 1に出力されるサウンドチャンネル # nの (図 The wave data temporary register 7 1, the left amplitude temporary register 7 3, and the right amplitude temporary register 7 5 are output to the audio DAC block 3 1 via the crosstalk circuit 4 5 for playback. Sound channel #n (Figure
4参照)、 ウェーブデータ Wn、左アンプリチュードデータ AM L n、 及び右ァンプリチュード データ AMR nを^するレジスタである。 4), wave data Wn, left amplitude data AM L n, and right amplitude data AMR n.
左アンプリチユードテンポラリレジスタ 7 3及び右アンプリチユードテンポラリレジスタ 7 5に欄された値 AML n及び AMR nは、 カロ難 7 7によって互いに加算され、 その加算結 果は、 除算器 7 9によって 「2」 で除され、 左右チャンネルのアンプリチユードデータの平均 値 A L R nが求められる。 乗算器 8 1は、 左右チャンネルのアンプリチユードデータの平均値 The values AML n and AMR n in the left amplified temporary register 7 3 and the right amplified temporary register 7 5 are added to each other by the calorie difficulty 7 7, and the addition result is obtained by the divider 7 9 Divided by 2 ”, the average value ALR n of the left and right channel amplitude data is obtained. Multiplier 8 1 is the average value of the left and right channel amplitude data
A L R nと、 ウェーブデータテンポラリレジスタ 7 1に^された iilWnとの積 EMnを算出 する。 乗 »8 1による乗算結果の上位 8ビット EMn力 加難 8 3によって、 累積値欄 レジスタ 8 5の^値に加算され、 この力口算結果が、 累積値^ (¾レジスタ 8 5に;^ ήされる。. 但し、 この加算処理は、 論理サウンドチャンネル # ηがエコーソースとして指定されている場 合にのみ行われ、 エコーソースとして指定されていなレ、論理サウンドチャンネル # nに対して は、 ここで破棄される。 ' この一連の処理は論理サウンドチャンネル # 0〜# (N— 1 ) の範囲で繰り返される (図 4 参照)。 論理サウンドチャンネル (N— 1 ) の処理が完了すると、 累積値 ¾内レジスタ 8 5の格納値 σ ( 2 2ビット) は、 ファネルシフタ 8 7と飽和処理回路 8 9とに出力される。 フブネノレシフタ 8 7は、 エコーシグマウィンドウレジスタ 9 1の設定値に従レ、、 累積値 TO レジスタ 8 5からの 2 2ビッ卜の入力値 σ中の する 8ビットを選択して MUX 9 3に出力 する。 ' - 飽和処理回路 8 9は、 エコーシグマウィンドウレジスタ 9 1の設定値に従い、 累積値格納レ ジスタ 8 5からの 2 2ビットの入力値 σ中の連続する 8ビットを選択するとともに、 選択され た 8ビットより上位に位置する全てのビットを抽出する。 つまり、 ここで選択される 8ビット ' は、 ファネ /レシフタ 8 7が選択した 8ビットと同一値である。 そして、 飽和処理回路 8 9は、 2 2ビットの入力値 σのうち、 選択された 8ビットより上位に位置し、 力つ選択された 8ビッ トに含まれない全てのビッ卜が、 選択した 8ビットの値の符号ビット (8ビット中の最上位ビ ット) と同じ値でなレヽ (条件 1 )、 選択された 8ビットの符号ビッ卜の値が 「0」 であれば 「0 x 7'F」 を、 符号ビットの値が 「1」 であれば 「0 x 8 1」 を、 MUX 9 3に出力する。 また、 飽和処理回路 8 9は、 選択した 8ビットの値が 「'0 x 8 0」 を示し、 力、つ、 2 2ビッ トの入力値ひのうち、 選択された 8ビットより上位に位置し、 力つ選択された 8ビットに含ま れない全てのビットが、 「1」 である場合 (条件 2)、 「0 x 8 1」 を MUX 3出力する。 さらに、 飽和処理回路 8 9は、 条件 1あるいは条件 2が成立した 、 MUX 9 3に飽和処 理回路 8 9からの入力値を選択するた の選択信号を出力する。 従って、 MUX 9 3は、 条件 1あるレ、は条件 2力 S成立した ¾ ^には、 飽和処理回路 8 9力らの入力値を選択してェコーラィ トデータバッファ 9 7に出力する。 一方、 条件 1及び条件 2のレ、ずれも成立しなレ、¾^iこは、 MUX 9 3は、 ファネルシフタ 8 7からの入力値をエコーライトデータバッファ 9 7に出力す る。 The product EMn of ALR n and iilWn stored in wave data temporary register 71 is calculated. Multiplying »8 The upper 8 bits of the multiplication result EMn force Hardening 8 3 is added to the ^ value in the cumulative value column register 8 5, and this power calculation result is the cumulative value ^ (¾ register 8 5; ^ ή However, this addition process is performed when the logical sound channel # η is specified as the echo source. If the sound channel is n and not specified as an echo source, it is discarded here. 'This sequence is repeated in the range of logical sound channels # 0 to # (N— 1) (see Figure 4). When the processing of the logical sound channel (N—1) is completed, the stored value σ (22 bits) in the accumulated value ¾ inner register 85 is output to the funnel shifter 87 and the saturation processing circuit 89. The Fubuneno shifter 8 7 selects the 8 bits in the 22-bit input value σ from the accumulated value TO register 85 according to the setting value of the echo sigma window register 91, and outputs it to the MUX 93. . '-Saturation circuit 8 9 selects and selects 8 consecutive bits in 22-bit input value σ from accumulated value storage register 85 according to the setting value of echo sigma window register 91 Extract all bits that are higher than 8 bits. In other words, the 8 bits selected here are the same value as the 8 bits selected by the fune / shifter 87. The saturation processing circuit 8 9 is positioned higher than the selected 8 bits of the 22-bit input value σ, and all the bits not included in the selected 8 bits are selected. If the value of the sign bit of the 8-bit value (the most significant bit in the 8 bits) is not the same value (Condition 1), and the value of the selected 8-bit sign bit is “0”, “0 x “7'F”, if the value of the sign bit is “1”, “0 x 8 1” is output to MUX 93. In addition, the saturation processing circuit 8 9 indicates that the selected 8-bit value is '0 x 8 0', and is positioned higher than the selected 8-bit of the input value of 22 bits. However, if all the bits not included in the selected 8 bits are “1” (condition 2), “0 x 8 1” is output to MUX 3. Further, the saturation processing circuit 89 outputs a selection signal for selecting the input value from the saturation processing circuit 89 to the MUX 93 when the condition 1 or the condition 2 is satisfied. Therefore, the MUX 93 selects the input value of the saturation processing circuit 89 and the like and outputs it to the echo data buffer 97 when the condition 1 or the condition 2 force S is satisfied. On the other hand, the condition 1 and the condition 2 and the deviation are not satisfied, ¾ ^ i, the MUX 93 outputs the input value from the funnel shifter 87 to the echo light data buffer 97.
MUX 9 3から出力されたデータは、 エコーライトデータバッファ 9 7に 1ノくィ卜ずつ棚 される。 エコーライトデータバッファ 9 7に 8バイトのデータが されると、 格納されたデ ータはエコー F I F Oノ ッファライトァドレスカウンタ 9 5カ示すメイン RAM 2 5のァドレ ス WAD (図 9のエコー F I F Oバッファ参照) に書き出される。  The data output from the MUX 93 is stored in the echo light data buffer 97 in increments of 1 at a time. When 8 bytes of data is stored in the echo write data buffer 9 7, the stored data is stored in the echo FIFO nota write address counter 9 5 main RAM 2 5 address WAD (Echo FIFO buffer in Figure 9) (See below).
エコー F I F Oバッファライトァドレスカウンタ 9 5の初期値は、 制御レジスタセット 3 9 を通じて C PU 5により設定される。 エコー F I F Oバッファライトアドレスカウンタ 9 5の 値は、 メイン RAM 25への書き込みカ行われる度に 8ずつインクリメントされるが (8バイ ト単位の書き込みのため)、インクリメント後の値がエコー F I FOバッファ終端ァドレスレジ スタ 117の設定値を超える^^には、 インクリメントされずにエコー F I FOバッファ始端 ァドレスレジスタ 115の設定値に初期化される。 エコー F I FOバッファライトァドレス力 ゥンタ 95の 値は、 制御レジスタセット 39を通じて、 CPU 5から読み出すことができ る。 ' . , エコー成分たるウェーブデータ Wi (iは 0〜(N— 1) のいずれ力、) は、 エコー F I FO ッファリードアドレスカウンタ 99が示すメイン RAM25のアドレス RAD (図 9のェコ 一 F I FOバッファ参照) から 8バイ ト単位で読み出され、'エコーリードデータバッファ 10 1に格納される。 エコー F I FOバッファリードアドレス^ゥンタ 99の初期値は、 制御レジ スタセット 39を通じて CPU 5により設定される。 The initial value of the echo FIFO buffer write address counter 95 is set by the CPU 5 through the control register set 39. Echo FIFO buffer write address counter 9 5 The value is incremented by 8 each time a write to main RAM 25 is performed (because it is written in 8-byte units), but the value after the increment exceeds the value set in the echo FIFO buffer end address register 117 ^ It is initialized to the value set in the echo FIFO buffer start address register 115 without being incremented. The value of the echo FIFO buffer write address force counter 95 can be read from the CPU 5 through the control register set 39. , Wave data Wi as the echo component Wi (where i is any force from 0 to (N—1)) is the address RAD in the main RAM 25 indicated by the echo FI FO buffer read address counter 99 (Eco FI FO in Fig. 9). Read from the buffer) in units of 8 bytes and stored in the 'echo read data buffer 101. The initial value of the echo FIFO buffer read address ^ 99 is set by the CPU 5 through the control register set 39.
' エコー F I FOバッファリードアドレスカウンタ 99の値は、 1ずつインクリメントされる 、 インクリメント後の値が コー F I FOバッファ終端アドレスレジスタ 117の設定値を 超える場合には、 インクリメントされずにエコー F I FOバッファ始端アドレスレジスタ 11 5の設定値に初期ィ匕される。エコー F I FOバッファリ一ドアドレスカウンタ 99の難値は、 制御レジスタセット 39を通じて、 CPU 5から読み出すことができる。 'The value of the echo FIFO buffer read address counter 99 is incremented by 1. If the value after the increment exceeds the value set in the code FIFO buffer end address register 117, the echo FIFO buffer start end is not incremented. Initialized to the value set in address register 115. The difficult value of the echo FIFO buffer read address counter 99 can be read from the CPU 5 through the control register set 39.
ウェーブデータ Wiとして出力される 1バイトのデータは、 乗難 111によって、 エコー リリースレートレジスタ 109に漏されたエコーリリーズ'レート ERと乗算される。 エコー リリースレートレジスタ 109の値 ERは、 I/Oバス 27を通じて CPU5により設定され る。 その乗算結果は、 加算器 113によって、 リリースリードデータバッファ 105に^!さ れた 1バイトのデータとカロ算される。 リリースリードデータバッファ 105に 内された 1バ ィ卜のデータは、 エコー F I FOバッファリリースァドレスカウンタ 103が指し示すメイン RAM 25のァドレス LAD (図 9のエコー F I FOバッファ参照) から読み出されたデータ である。 この^の読出しは、 1バイト単位で行われる。  The 1-byte data output as the wave data Wi is multiplied by the echo release rate register ER leaked to the echo release rate register 109 by the riding difficulty 111. The value ER of the echo release rate register 109 is set by the CPU 5 through the I / O bus 27. The result of multiplication is calculated by the adder 113 with the 1-byte data stored in the release read data buffer 105. The 1-byte data stored in the release read data buffer 105 is the data read from the address LAD of the main RAM 25 (refer to the echo FIFO buffer in Fig. 9) indicated by the echo FIFO buffer release address counter 103. is there. This ^ is read in 1-byte units.
エコー F I FOバッファリリースアドレスカウンタ 103の初期値は、 制御レジスタセット 39を通じて CPU 5により設定される。 エコー F I F〇バッファリリースアドレスカウンタ 103の値は、 1ずつインクリメントされる力 インクリメント後の値がエコー F I FOバッ ファ終端ァドレスレジスタ 117の設定値を超える^には、 インクリメントされずにエコー F I FOバッファ始端ァドレスレジスタ 115の設定値に初期ィ匕される。  The initial value of the echo F I FO buffer release address counter 103 is set by the CPU 5 through the control register set 39. Echo FIF O Buffer release address counter 103 value is incremented by 1. If the value after increment exceeds the value set in the echo FIFO buffer end address register 117, it is not incremented and the echo FIFO buffer start end is not incremented. Initially set to the value set in address register 115.
加難 113による加算結果は、 リリースライトデータバッファ 107に TOされ、 エコー The result of addition by the difficulty 113 is sent to the release write data buffer 107 and echoed.
F I FOバッファリリースアドレスカウンタ 103が指し示すメイン RAM 25のアドレス L AD (エコー F I FOバッファ) に書き戻される。 エコー F I FOバ ファリリースアドレス カウンタ 103の現在値は、 制御レジスタセット 39を通じて、 CPU 5が読み出すことがで きる。 Address of main RAM 25 indicated by FI FO buffer release address counter 103 L Written back to AD (Echo FI FO Buffer). The current value of the echo FIFO buffer release address counter 103 can be read by the CPU 5 through the control register set 39.
エコー F I FOノくッファライトァドレス WAD、 エコー F I FOバッファリードアドレス R AD、 及ぴエコー F I FOバッファリリースァドレス LADについて詳細に説明する。 まず、 エコー F I FOバッファについて説明する。 . , さて、 図 9に示されるように、 エコー F I FOバッファライトアドレス WADからエコー F The echo F I FO buffer address WAD, echo F I FO buffer read address R AD, and echo F I FO buffer release address LAD will be described in detail. First, the echo F I FO buffer will be described. , Well, as shown in Figure 9, Echo F I FO Buffer Write Address WAD Echo F
LFOバッファリードアドレス RADを差し引いた値が、 エコー F.I FOバッファ Baと Bb と (図 4参照) のエントリ数の総和 (Na+Nb) となる ((数 2) 参照)。 また、 エコー F I FOバッファリリースァドレス LAD力、らエコー F I FOバッファリードアドレス RADを差 し引いた値が、 エコー F I FOバッファ Bbのエントリ数 Nbとなる ((数 3) 参照)。 The value obtained by subtracting the LFO buffer read address RAD is the sum (Na + Nb) of the number of entries in the echo F.I FO buffers Ba and Bb (see Fig. 4) (see (Equation 2)). The value obtained by subtracting the echo FIFO read address RAD from the echo FIFO release address LAD is the number Nb of entries in the echo FIFO buffer Bb (see (Equation 3)).
; 従って、 ライトアドレスカウンタ 95、 エコーライトデータバッファ 97、 リードアドレス カウンタ 99、 ェコ リードデータバッファ 101、. リリースアドレスカウンタ 103、 リリ ースリードデータバッファ 105、 リリースライトデータバッファ 107、
Figure imgf000031_0001
11、 カロ 難 113、 エコーリリースレートレジスタ 109、 始端アドレスレジスタ 115、 及び終端 アドレスレジスタ 117によって、 図 3に示したエコーモデンレを生成できる。
; Therefore, the write address counter 95, the echo write data buffer 97, the read address counter 99, E co read data buffer 101,. Released address counter 103, releases over Surido data buffer 105, release the write data buffer 107,
Figure imgf000031_0001
11, Caro difficulty 113, echo release rate register 109, start address register 115, and end address register 117 can generate the echo model shown in FIG. 3.
図 11は、 図 7のマイクエコー機能ブロック 57の内部構成を示すブロック図である。 図 1 FIG. 11 is a block diagram showing an internal configuration of the microphone echo function block 57 of FIG. Figure 1
1を参照して、 マイクエコー機能プロック 57は、 マイクエコー F I F〇バッファリードアド レスカウンタ 145およびマイクエコーリードデータバッファ 147を含む。 マイクエコー F I FOバッファ始端ァドレスレジスタ 141およびマイクエコー F I FOバッファ終端ァドレ スレジスタ 143は、 図 7の制御レジスタセット 39に含まれる。 Referring to FIG. 1, the microphone echo function block 57 includes a microphone echo F IF buffer read address counter 145 and a microphone echo read data buffer 147. The microphone echo FIFO buffer start address register 141 and the microphone echo FIFO buffer end address register 143 are included in the control register set 39 of FIG.
マイクエコー機能が用いられる齢、 マイクエコーの原音成分は、 通常 CPU5からメイン RAM25上に確保されたマイクェ ー F I FOバッファに直接書き込まれる。 そして、 マイ クエコー成分たるウェーブデータ Wj (jは 0〜(N—1) のいずれ力) は、 マイクエコー F I FOバッファリードアドレスカウンタ 145が示すメイン RAM25のァドレス MRAD The age of the microphone echo function used, and the original sound component of the microphone echo are usually written directly from the CPU 5 to the microphone FIFO buffer secured on the main RAM 25. The wave data Wj that is the microphone echo component (j is any force from 0 to (N—1)) is the address of the main RAM 25 indicated by the microphone echo F I FO buffer read address counter 145 MRAD
(図 9のマイクエコー F I FOバッファ参照) から 8バイト単位で読み出され、 マイクエコー リードデータバッファ 147に格納される。 (Refer to the microphone echo F I FO buffer in Figure 9) and read in 8-byte units and stored in the microphone echo read data buffer 147.
マイクエコー F I FOバッファリードアドレスカウンタ 145の初期値は、 御レジスタセ ット 39を通じて CPU 5により設定される。 マイクエコー F I FOバッファリードアドレス カウンタ 145の値は、 1ずつインクリメントされる力 \ インクリメント後の値がマイタエコ 一 F I FOバッファ終端アドレスレジスタ 143の設定値を超える ^には、 インクリメント されずにマイクエコー F I FOバッファ始端ァドレスレジスタ 141の設定値に初期ィ匕される c マイクエコー F I FOバッファリードアドレスカウンタ 145の現在値は、 制御レジスタセッ ト 39を通じて、 CPU 5が読み出すことが 能である。 The initial value of the microphone echo FIFO buffer read address counter 145 is set by the CPU 5 through the control register set 39. Microphone echo FI FO buffer read address counter 145 value is incremented by 1 \ The value after increment exceeds the set value of Miter ECO FI FO buffer end address register 143 ^ The current value of the microphone echo FIFO buffer read address counter 145 can be read by the CPU 5 through the control register set 39. It is.
ここで、 マイクエコー機能では、 エコー機能の と異なり、 乗算器 111による乗算に相 当する乗算およひ: ¾ロ^¾113によるカロ算に相当する加算が、 ハードウエアではサポートされ ていないので、 これらの演算は CPU 5 (つまり、 ソフトウェア) が行う。 , 従って、 エコー機能の、 ライトアドレスカウンタ 95、 エコーライトデータバッファ 97、 Here, unlike the echo function, the microphone echo function does not support multiplication corresponding to the multiplication by the multiplier 111 and addition corresponding to the calo-calculation by ¾ro ^ ¾113 in the hardware. These operations are performed by CPU 5 (that is, software). Therefore, the echo function, write address counter 95, echo write data buffer 97,
Uリースアドレスカウンタ 103、 リリースリードデータバッファ, 105、 リリースライトデ ータバッファ 107、 乗算器 11,1、 加籠 113、 およびエコーリリースレートレジスタ 1 09に相当する機能は、 CPU5で 亍されるプログラムとメイン RAM25とによって実現 される。 これらと、 図 11の構成と、 によって、 図 3に示したエコーモデルと同様のマイクェU lease address counter 103, release read data buffer, 105, release write data buffer 107, multiplier 11,1, adder 113, and echo release rate register 110 Realized by RAM25. With these and the configuration in Fig. 11, the same microphone as the echo model shown in Fig. 3 is used.
' コーモデルを生成できる。 'A co-model can be generated.
さて、 図 9に示されるように、 マイクエコー F I FOバッファライトアドレス MWADから マイクェ:?一 F I FOバッファリードアドレス MRADを差し引いた値力 S、 マイクエコー F I FOバッファ MB aと MB bと (図 5参照) のエントリ数の縦口 (Na+Nb) となる ((数 2) 参照)。、また、 マイクエコー F I FOバッファリリースァドレス MLADからマイクエコー F I Now, as shown in Figure 9, microphone echo F I FO buffer write address from MWAD Mike :? 1 FI FO buffer read address Value obtained by subtracting MRAD S, Mic Echo FI FO buffer MB a and MB b (see Fig. 5) and the number of entries (Na + Nb) (see (Equation 2)) . Also, microphone echo F I FO buffer releaser dress Microphone echo F I from MLAD
FOバッファリードアドレス MRADを差し引いた値力 S、マイクエコー F I FOバッファ MB bのエントリ数 Nbとなる ((数 3) 参照)。 FO buffer read address MR_AD value S, microphone echo F I FO buffer MB b entry count Nb (see (Equation 3)).
ここで、 マイクエコー F I FOバッファライトアドレス MWADは、 メイン RAM25上に 形成される、 ライトアドレスカウンタ 95と同様の機能を有するライトアドレスカウンタによ つて生成され、 マイクエコー F I FOバッファリリースアドレス MLADは、 メイン RAM2 Here, the microphone echo FI FO buffer write address MWAD is generated by a write address counter having the same function as the write address counter 95 formed on the main RAM 25, and the microphone echo FI FO buffer release address MLAD is Main RAM2
5上に形成される、 リリースアドレスカウンタ 103と同様の機能を有するリリースアドレス カウンタによって生成される。 ' ' 5 is generated by a release address counter having the same function as the release address counter 103. ''
次に、 エコー成分たるウェーブデータ及びマイクエコー成分たるウェーブデータの纖出力 について説明する。 エコー成分たるウェーブデータ Wiを割り当てることができる論理サゥン ドチヤンネノレは 1つであり、 マイクェコ一成分たるゥェーブデータ W jを割り当てることがで きる論理サゥンドチヤンネノレは 1つである。  Next, the output of the wave data as the echo component and the wave data as the microphone echo component will be described. There is only one logical sound channel that can be assigned the wave data Wi that is the echo component, and there is one logical sound signal that can be assigned the wave data W j that is one component of the microphone.
ただし、 エコー成分及び 又はマイクエコー成分の出力バランスを引き上げるために、 ェコ 一成分及び Z又はマイクエコー成分の出力を複 ゥンドチヤンネル^^して行う機能が設け られる。 なお、 本実施の形態では、 最大の纖チャンネル数は 「32」 である。 また、 最終サ ゥンドチャンネルを超えて β出力は行われない。 さらに、 エコー成分の!^出力のために割 り当てられたサゥンドチャンネルの本来の設定は無視される。 この点は、 マイクエコー成分の ,出力の場合も同様である。 ' 図 7を参照して、 制御レジスタセット 3 9に含まれるエコーホーノレドタィムレジスタ (図示 せず) に、 エコー成^ «出力のディセーブルあるいはイネ一ブルが設定されるとともに、 継 続チャンネル数が設定される。 エコーホーノレドタイムレジスタの設定に従って、 データ処理ブ ロック 3 5は、 エコー成分の継続出力を行う。 また、 制御レジスタセット 3 9に含まれるマイ クエコーホールドタイムレジスタ (図示" ¾rf) に、 マイクエコー成分雜 出力のディセーブル あるいはイネ一ブルが設定されるとともに、 纖チャンネル数が設定される。 マイクエコーホ ールドタイムレジスタの設定に従って、 データ処理プロック 3 5は、 マイクエコー成分の, 出力を行う。 以下、 具体例を挙げながら説明する。 ヽ However, in order to raise the output balance of the echo component and / or the microphone echo component, a function is provided to output the echo component and the Z or microphone echo component in multiple channels. In the present embodiment, the maximum number of soot channels is “32”. In addition, β output is not performed beyond the last sound channel. In addition, it is allocated for! ^ Output of the echo component. The original setting of the assigned sound channel is ignored. This also applies to the output of the microphone echo component. 'Referring to Figure 7, the echo honored time register (not shown) included in the control register set 39 is set to disable or enable echo generation and the continuous channel Number is set. The data processing block 35 outputs the echo component continuously according to the setting of the echo Honored time register. In addition, the microphone echo component 雜 output is disabled or enabled in the microphone echo hold time register (illustrated “¾rf”) included in the control register set 39, and the number of channels is set. According to the setting of the yield time register, the data processing block 35 outputs the microphone echo component.
図 1 2は、 エコー成分たるウェーブデータ及びマイクエコー成分たるウェーブデータの,醫 ' 出力の例示図である。 図 1 2では、 再生するサウンドチャンネルの数を 「8」 とし、 サウンド チヤンネル # 2にェコ一成分が割り当てられ、 サウンドチヤンネル # 6にマイタエコ一成分が 割り当てられる。 つまり、 エコー成分に対してのエフェクトチャンネルがサウンドチャンネル # 2であり、 マイクエコー成分に対してのエフェクトチャンネルがサウンドチャンネル # 6で ある。 また、 エコー成 の纖チャンネル数を 「2」、 マイクエコー成分の纖チャンネル数を 「3」 としている。 '  Fig. 12 is an example of the output of the wave data as the echo component and the wave data as the microphone echo component. In Fig. 12, the number of sound channels to be played is “8”, one component is assigned to sound channel # 2, and one miter eco component is assigned to sound channel # 6. That is, the effect channel for the echo component is sound channel # 2, and the effect channel for the microphone echo component is sound channel # 6. The number of echo input channels is set to “2”, and the number of input channels for the microphone echo component is set to “3”. '
図 1 2に示すように、 サゥンドチャンネル林 2とそれに続'くサゥンドチャンネル # 3におい て、 エコー成分力 して出力される。 この^ \ エコー成分に割り当てられたサウンドチヤ ンネル # 2に続くサゥンドチャンネル # 3については、 本来の設定が無視される。  As shown in Fig. 12, it is output as echo component power in sound channel forest 2 and in sound channel # 3. The original setting is ignored for sound channel # 3 following sound channel # 2 assigned to this ^ \ echo component.
また、 サウンドチャンネル # 6とそれに続くサウンドチャンネル # 7において、 マイタエコ 一成分力 して出力される。 この^ \ マイクエコー成分に割り当てられたサウンドチャン ネル # 6に続くサウンドチャンネル # 7については、 本来の設定が無視される。 また、 この場 合、 設定に従って «チャンネル数を 「3」 にすると、 最終サウンドチャンネル # 7を超える ため、 この例では、 マイクエコー成分の «出力は 2チャンネル分し力^1われない。 In addition, sound channel # 6 and subsequent sound channel # 7 are output with one component of Miter Eco. The original setting is ignored for sound channel # 7 following the sound channel # 6 assigned to this ^ \ mic echo component. Moreover, this case, when the "3" «number of channels in accordance with the setting, which exceeds the final sound channel # 7, in this example,« output of the microphone echo component 2 channels divided by force ^ 1 no cracking.
さて、 以上のように、 本実施の形態によればエフェクト原音チャンネルを任意の論理サゥン ドチャンネノレに設定できるため、 複数の論理サゥンドチャンネルで再生されているウェーブデ ータのうち、 任意の論理サウンドチャンネルで再生されているウェーブデータ 源音) に 効果 (例えば、 エコー zリバーブ等) を施すことが可能となる。 また、 複数の論理サウンドチ ヤンネルは^ Kであり、 エフェクトチャンネルを任意の論理サウンドチャンネルに設定できる ため、 音響効果が付与されたウェーブデータを任意の論理サウンドチャンネルで再生できる。 さらに、 音響効果の付与が不要な には、 全ての論理サウンドチャンネルを非エフェクトチ ャンネルに設定して、 効果なしのゥヱーブデータの再生のために割り当てることが可能で ある。 As described above, according to the present embodiment, the effect original sound channel can be set to an arbitrary logical sound channel, so that an arbitrary logical sound channel can be selected from the wave data reproduced by a plurality of logical sound channels. It is possible to apply effects (for example, echo z reverb etc.) Also, multiple logical sound channels are ^ K, and the effect channel can be set to any logical sound channel, so that wave data with acoustic effects can be played on any logical sound channel. Furthermore, if it is not necessary to add sound effects, all logical sound channels can be set to non-effect channels and assigned for playback of wave data without effects.
このように任意の論理サゥンドチヤンネルに任意の属性を設定できるため、 例えば、 楽曲再 生に割り当てられている論理サウンドチャンネルをエフェクト原音チャンネルに設定して、 そ こで再生されているウェーブデータにエコー等の音響効果を施す一方、 .効果音の再生に割り当 てられている論理サウンドチャンネルを非エフエタトチャンネルに設定して、 そこで再生され ているウェーブデータには音響効果を施さないといった組み合わせが できる。 また、 再生 されるウェーブデータにピッチ変捧や振幅変調等を施 Hi能力論理サゥンドチヤンネルに設け られている:^、 エフェクトチャンネルに割り当てられた エーブデータに対しても同じ機能 を利用できる。  In this way, any attribute can be set for any logical sound channel.For example, the logical sound channel assigned to the song playback is set as the effect original sound channel, and the wave data being played back there is set. A combination of applying a sound effect such as echo and setting the logical sound channel assigned to the playback of the sound effect to a non-efate channel and not applying the sound effect to the wave data being played back there. Is possible. It is also provided in the Hi-capability logic sound channel by applying pitch modulation and amplitude modulation to the reproduced wave data: ^ The same function can be used for the ave data assigned to the effect channel.
' また、本実施の形態では、 マイクロフォン等の外部アナ口グ入力装置 5 2から入力ざれたァ ナログ音声信号に対しても、 AD C 3 3によってデジタノ!^1声信号 (P CMデータ) に変換後 に、 効果を付与して、 再生可能である (マイクエコー機能)。 この^、 : ^効果を付与す るための一部の処理を C P U 5 (つまり、 ソフトウェア) が行うので、 ^効果を付与する構 成を任意に構築できる。 つまり、 図 5での を生成する部分 MB a, MB b , M s及ぴ A s は、 必ずしもこのような構成に限られず、 任意の構成により遅應能を構築できる。 'Further, in the present embodiment, even for § analog audio signal play externally input Ana port grayed input device 5 2 such as a microphone, to Dejitano! ^ 1 voice signal by AD C 3 3 (P CM data) After conversion, it can be played with an effect (microphone echo function). ^ 5: Because the CPU 5 (that is, software) performs a part of the processing to give the effect, it is possible to arbitrarily construct a configuration to give the effect. In other words, the parts MB a, MB b, M s, and A s that generate in Fig. 5 are not necessarily limited to such a configuration, but can be constructed with any configuration.
さらに、 本実施の形態では、 エコー F I F Oバッファをメイン RAM 2 5に構築して、 そこ 力ら所定時間後にウェーブデータを取り出すことで遅延を発生させている。 このように、 ェコ 一 F I F Oバッファによって、 簡易に « ^能を構築している。 また、 メイン RAM 2 5の一 部をエコー F I F Oバッファとして用いているので、 エコー F I F Oバッファ用に確保される 領域以外は、 他の用途に用いることが可能である。 マイクエコー機能についても同様である。 さらに、 本実施の形態では、 図 1ひの加難 8 3及び累積値格納レジスタ 8, 5を設けている ので、複数の論理サウンドチャンネルがエフエタト原音チャンネルに設定されている齢でも、 エコー F I F Oバッファに^ ftされるのは 1チャンネル分である。 し力も、 図 1 0の加 Further, in the present embodiment, an echo FIFO buffer is constructed in the main RAM 25, and a delay is generated by taking out the wave data after a predetermined time. In this way, the «^ ability is easily constructed by the Eco-FIFO buffer. In addition, since a part of the main RAM 25 is used as an echo FIFO buffer, it can be used for other purposes except for the area reserved for the echo FIFO buffer. The same applies to the microphone echo function. Further, in this embodiment, since the hardship 8 3 in FIG. 1 and the accumulated value storage registers 8 and 5 are provided, the echo FIFO buffer can be used even at the age when a plurality of logical sound channels are set as the original sound channel. The channel is ^ ft. Figure 10
7および除算器 7 9を設けて、 左右のアンプリチユードの平均値を求めるので、 左右の物理サ ゥンドチャンネル毎に論理サウンドチャンネルのミキシングバランスが異なる場合でも、 ェコ 一 F I F Oバッファに ¾¾¾されるのは 1チャンネル分である。 以上の結果、 メイン RAM 2 5 に構築するエコー F I F Oバッファの容量を抑制できる。 7 and Divider 7 9 are provided to calculate the average value of the left and right amplitudes, so even if the mixing balance of the logical sound channel differs between the left and right physical sound channels, it will be ¾¾¾ Is for one channel. As a result, the capacity of the echo FIFO buffer constructed in the main RAM 25 can be suppressed.
さらに、 本 ¾ϋの形態では、 図 1 0のファネルシフタ 8 7及び飽和処理回路 8 9を設けてレヽ るので、 累積値! ^レジスタ 8 5から出力される¾ ^値 (累積ウェーブデータ) ひから任意の ビット列が取り出せるため、 エフエタトチャンネルによって再生されるウェーブデータの振幅 を最適化できる。 ' さらに、 本実施の形態では、 エコー F I F Oバッファに欄してから所定時間後 (N a +N b ) に取り出して再生したウェーブデータ W iに対して、 所定の率 (エコーリリースレート) で振幅変調を施す乗^^ 1 1 1を設けると共に、 再生のためのエコー F I F Oバッファ力 らの ウェーブデータ W iの読出し位置 (リードアドレスカウンタ 9 9が示すアドレス) RADから 所定の赚 (N b ) だけ変位された位置 LADに欄されているウェーブデータに、 乗難 1 1.1で振幅変調力 S施されたウェーブデータを加算するカロ^ I 1 3を設けて (図 9参照)、 リバ 一ブ機 を簡易に翔している。 マイクエコー機能についても、 これらの処理を行う主体カ、 C P U 5というだけで、 簡易にリパーブ機能を実現できる: Further, in the present embodiment, since the funnel shifter 87 and the saturation processing circuit 89 of FIG. 10 are provided, the accumulated value! ^ The value output from the register 85 (accumulated wave data) arbitrarily of Since the bit string can be extracted, it is possible to optimize the amplitude of the wave data played back by the Fate channel. 'In addition, in this embodiment, the amplitude is set at a predetermined rate (echo release rate) with respect to the wave data W i retrieved and played back after a predetermined time (N a + N b) after entering the echo FIFO buffer. The modulation power ^^ 1 1 1 is provided, and the read position of the wave data Wi from the echo FIFO buffer power for reproduction (the address indicated by the read address counter 9 9) From the RAD, only a predetermined 赚 (N b) Displaced position The wave data in the LAD field is provided with a caro ^ I 1 3 to add the wave data with the amplitude modulation force S applied in the difficulty 11.1 (see Fig. 9) It ’s easy. As for the microphone echo function, the reverb function can be easily realized just by using the main CPU, CPU 5, which performs these processes:
さらに、 本実施の形態では、 論理サウンドチャンネルによって処理される ¾ ^は P CMデー ' タ、 つま,り、 デジタノ ータなので、 音響効果を付与するための処理 (例えば、 «処理など) に必要なバッファ (エコー F I F Oバッファ及びマイクエコー F I F Oバッファ) を RAM等 の手段で簡単に構築できる (上記では、 メイン RAM 2 5上に構築)。 また、 効果を付与す るための処理 (例えば、 振幅変調処理など) を小纖な論理回路及び Z又は小規模なソフトゥ エアで行うことができる。  Further, in the present embodiment, ¾ ^ processed by the logical sound channel is PCM data, that is, a digitaltanotator, so it is necessary for processing for imparting sound effects (for example, «processing, etc.) Buffer (echo FIFO buffer and microphone echo FIFO buffer) can be easily built by means such as RAM (in the above, it is built on main RAM 25). In addition, processing for providing an effect (for example, amplitude modulation processing) can be performed with a small logic circuit and Z or small software.
さちに、 本実施の形態では、 複数の論理サウンドチャンネルのミキシングを加算器によって 行わず、 時分割多重ィ匕 (複数の論理サゥンドチヤンネルの P CMデータを時間単位で切り換え て出力) によって実現している (図 8参照)。 従って、 このミキシングための加算器が不要にな るばかり力、、 オーディオ DACブロック 3 1の DACの解 (ビ、ット数) を抑制でき、 コス ト ίδ を図ることができる。  Furthermore, in this embodiment, mixing of multiple logical sound channels is not performed by an adder, but is realized by time division multiplexing (switching and outputting PCM data of multiple logical sound channels in units of time). (See Fig. 8). Therefore, the mixing power of the audio DAC block 31 can be suppressed as much as the adder for mixing is unnecessary, and the cost δ can be reduced.
さらに、 本実施の形態では、 時分割出力において、 エフェクトチャンネル以外の他の論理サ ゥンドチャンネルの出力時間に、 エフェクトチャンネルによって再生されたウェーブデータを 割り当てることができるので、 簡単な回路で本来設定可能な上限を超えた音量を音響効果 (ェ コー機能による効果、 マイクエコー機能による効果) が付与されたウェーブデータに与えるこ とが可能になる (図 1 2参照)。 なお、複数の物理サウンドチャンネルが用いられて音楽^声 の再生が行われる 、 エコー成分を再生する論理サゥンドチヤンネルが 1つだけでは、 音量 バランスが不足することがある。 マイクエコー成分についても同様である。  Furthermore, in this embodiment, the wave data reproduced by the effect channel can be assigned to the output time of the logical sound channel other than the effect channel in time division output. It is possible to give sound volume exceeding the maximum possible to wave data to which acoustic effects (effect by echo function, effect by microphone echo function) are given (see Fig. 12). Note that music playback is performed using multiple physical sound channels. If there is only one logical sound channel that reproduces the echo component, the volume balance may be insufficient. The same applies to the microphone echo component.
なお、 本発明は、 上記の実施の形態に限られるものではなく、 その要旨を逸脱しない範囲で 種々の態様において実施することが可能であり、 例えば、 以下のような変形も可能である。 .  Note that the present invention is not limited to the above-described embodiment, and can be implemented in various modes without departing from the gist thereof. For example, the following modifications are possible. .
( 1 ) 上記では、 物理サウンドチャンネル数を複数にしたが、 単数であっても、 本発明は適 用できる。 . (1) In the above description, the number of physical sound channels is plural. Can be used. .
以上、 本発明を実施例により詳細に説明したが、 当 H¾ "にとつては、 本発明力 中に説明 した実施例に限定されるものではないという;:とは明らカゝである。 本発明は、 特許請求の範囲 の記載により定まる本発明の趣旨及び範囲を »することなく修正及び変更態様として実施す ることができる。  As described above, the present invention has been described in detail with reference to the examples. However, the present invention is not limited to the examples described in the power of the present invention; The present invention can be implemented as modifications and changes without departing from the spirit and scope of the present invention defined by the description of the scope of claims.

Claims

請求の範囲 The scope of the claims
1 - 複数の論理サゥンドチヤンネルによって再生されたウェーブデータをミキシングして 単数又は複数の物理サウンドチャンネルから出力するサウンドプロセッサであって、 . 5 ΜΙΞ論理サゥンドチヤンネルの各々に、 音響効果を付与する纖のゥエーブデータが割り当 てられるエフエタト原音チャンネル、 所定の音響効果が付与されたゥ ープデータが割り当て られるエフェクトチャンネル、 及び、 音響効果が付与されないウェーブデータ力お割り当てられ る非エフェクトチヤンネルといった 3つの属性の内の 1つを設定するチヤンネノ^定手段と、1-A sound processor that mixes wave data reproduced by multiple logical sound channels and outputs them from one or more physical sound channels. .5 ΜΙΞ Adds sound effects to each of the logical sound channels. There are three attributes: the original raw sound channel to which the デ ー タ wave data is assigned, the effect channel to which the loop data with the specified sound effect is assigned, and the non-effect channel to which the wave data power to which the sound effect is not assigned is assigned. Cian Neno ^ fixed means to set one of,
1以上の tifia論理サゥンドチャンネルが naエフェクト原音チヤンネルに設定されている場 合、 ΙίίΙΒエフェクト原音チャンネルによって再生されたゥ iーブデータに編己所定の ^効果 を付与し、 ήίίΙΞエフェクトチャンネルに割り当てる音響効 与手段と、 を備え、 When one or more tifia logical sound channels are set to the na effect original sound channel, the sound effect assigned to the ήίίΙΞ effect channel is assigned to the music data played by the ΙΒίίΙΒ effect original sound channel and assigned to the ΙΞίίΙΞ effect channel. Providing means, and
' tillBチヤンネル設定手段は、 鎌己 3つの属性の内のレヽずれの属性でも鎌己論理サゥ ^ドチヤ ンネルに任意に設定できる、 サウンドプロセッサ。  'tilB channel setting means is a sound processor that can be arbitrarily set in the Kamii logic channel even with the attribute of the level among the three attributes.
2. 効 与手段は、 エフエタト原音チャンネルによって再生されたゥエー ブデータをバッファに棚し、 ¾^してから所定時間後に取り出して再生し、 嫌己エフヱクト チャンネルに割り当てる、 請求項 1記載のサウンドプロセッサ。  2. The sound processor according to claim 1, wherein the effecting means sheaves the wave data reproduced by the original original sound channel in a buffer, retrieves the data after a predetermined time, and reproduces it, and assigns it to the selfish effect channel.
3. 廳己音響効 寸与手段は、 複数の鎌己論理サウンドチャンネルが職工フエクト原音 チャンネルに設定されている ^に、 当 数のエフェクト'原音チャンネルによって再生され たゥエーブデータを加算する加算手段を含み、  3. The self-acoustic effect measuring means includes an adding means for adding the wave data reproduced by the same number of effects' original sound channels to the original faction channel that has a plurality of Kagami logic sound channels ^. ,
tins音響効 与手段は、 tins ^算結果であるウェーブデータを firiEバッファに棚し、 格 納してから編己所定時間後に取り出して再生し、 編己エフェクトチャンネルに割り当てる、 請 求項 2記載のサウンドプロセッサ。 .  The tins sound applying means stores tin data in the firiE buffer after the tins ^ calculation result is stored, retrieves the data after a predetermined time, plays it back, and assigns it to the editing effect channel. Sound processor. .
,  ,
4. tfriE論理サウンドチャンネノ に独立して、 つ、 l己物理サウンドチャンネノ に 独立して、 ウェーブデータに対して、 任意の率で振幅変調を施 幅変調手段をさらに備え、 tiriB音響効 与手段は、 嫌己論理サウンドチャンネルである ιυΐΞエフエタト原音チャンネ ノ に、 tins複数の物理サゥンドチヤンネルに ¾~ る振幅変調の 己率の平均値を算出して、 ttriHェフエクト原音チヤンネ Λ に、 ゥエーブデータに tin己平均値を乗算する平均手段をさら に含み、 4. Independent of tfriE logic sound channel, and independent of physical sound channel, self-modulation of wave data, amplitude modulation at arbitrary rate, further equipped with width modulation means, tiriB sound effect The means is to calculate the average value of amplitude modulation of tins from several physical sound channels to ιυΐΞ Fetat original sound channel, which is a logical sound channel. further includes an average means of multiplying the tin self average value,
算手段は、 ήίίϊΕ平均手段による乗算結果であるウェーブデータを加算する、 請求項 3 記載のサゥンドプロセッサ。  The sound processor according to claim 3, wherein the arithmetic means adds wave data that is a result of multiplication by the average means.
5. tilt己音響効 ¾寸与手段は、 E¾ロ算手段によるカロ算結果である累積ウェーブデータか ら、 所定ビット数の複数ビットを抽出する抽出手段と、 5. tilt self-acoustic effect ¾ sizing means is the cumulative wave data that is the result of Calo calculation by E¾ b Extracting means for extracting a plurality of bits of a predetermined number of bits;
fiilE累積ウエーブデータが、 HUE所定ビット数によって表現可能な範囲を超えている 、 膽己抽出手段により抽出された嫌己複数ビットを所定値に置き換える飽和処理手段と、 をさら に含み、 '  The fiilE accumulated wave data exceeds the range that can be expressed by the predetermined number of bits in the HUE, and further includes a saturation processing means that replaces the multiple bits of disgust extracted by the self-extraction means with a predetermined value, and
ロ算手段によるカロ算結果であるウェーブデータが、 ffHE所定ビット数によって表現可能 な範囲内である齢、 ϋϊΐΕ音響効 与手段は、 ΙίίΐΞ抽出手段により抽出された ΙίίΙΕ複数ビッ トで表されるゥエーブデータをそのまま ISバッファに格納し、  The wave data that is the result of the calorie calculation by the B calculation means is within the range that can be expressed by the ffHE predetermined number of bits. The sound effect means is the wave data expressed by multiple bits extracted by the ΙίίΐΞ extraction means. Is stored in the IS buffer as it is,
,謙己累積ウェーブデータが、 tins所定ビット数によって表現可能な範囲を超えている^^、 IS音響効; 段は、 tiiiH a和処理手段により tins所定値に置き換えられた tijia複数ビッ トで表されるウェーブデータを tinsバッファに格納し、 、  , Kenji cumulative wave data exceeds the range that can be expressed by tins predetermined bit number ^^, IS acoustic effect; stage is expressed in tijia multiple bits replaced with tins predetermined value by tiiiH a sum processing means Wave data to be stored in tins buffer,
tins音響効 m 与手段は、 tijiE所定ビット数によって表現可能な範囲を超えている力^かに ' 応じて前言 ッファに格納したウェーブデータを前記所定時間後に取り出して再生し、 前記ェ フエタトチヤンネノレに割り当てる、 請求項 3記載のサゥンドプロセッサ。  The tins acoustic effect unit gives out and reproduces the wave data stored in the preceding buffer according to the force exceeding the range that can be expressed by the tijiE predetermined number of bits after the predetermined time. 4. The sound processor according to claim 3, which is assigned to the glue.
6. tfflE抽出手段は、 ΙϋΐΞ累積クエーブデータから、 所定ビット数の実質的に連続す る IS複数ビットを抽出し、  6. The tfflE extraction means extracts the IS consecutive multiple bits of a predetermined number of bits from the cumulative cube data,
tilfS S和処理手段は、 ΙίίΙΞ累積ウェーブデータのうちの、 抽出された謙己複数ビットより上 位に位嵌し、 fillE複数ビットに含まれなレヽ全ビットが、 抽出された ήίίΙΕ複数ビットの最上位ビ ットと同じ値を示してレ、なレ、 に、 抽出された tiilB複数ビツトを脑所定値に置き換える、 請求項 5記載のサゥンドプロセッサ。  The tilfSS sum processing means is positioned higher than the extracted mellow multiple bits of the accumulated wave data, and all the bits that are not included in the fillE multiple bits are the highest of the extracted multiple bits. 6. The sound processor according to claim 5, wherein the same value as that of the upper bits is displayed, and the extracted tiilB multiple bits are replaced with predetermined values.
7. ttllB音響効¾ 与手段は、  7. The ttllB sound effect means is
fii Eバッファに格納してから前記所定時間後に取り出して再生したゥエーブデータに対して、 所定の率で振幅変調を施す振幅変調手段と、 '  an amplitude modulation means for performing amplitude modulation at a predetermined rate on the wave data which is stored in the fii E buffer and retrieved and reproduced after the predetermined time;
, tiff己所定時間後の再生のための バッファ力ゝらのウェーブデータの読出し位置から所定の 赚変位された位置に棚されているウェーブデータに、 ΙίίΙΕ所定の率で振幅変調力 s施された ゥエーブデータを加算する加算手段と、 を含む請求項 2記載のサゥンドプロセッサ。 , Tiff the wave data from the reading position of the wave data in the buffer force Ra is shelf predetermined赚displaced position for himself after a predetermined time of reproduction, has been subjected amplitude-modulated force s at ΙίίΙΕ predetermined rate The sound processor according to claim 2, further comprising: adding means for adding wave data.
8. デジタル信号をアナ口グ信号に変換するデジタル Zアナ口グ変換手段をさらに備え、 嫌己論理サゥンドチヤンネルによつて処理されるゥエーブデータは、 P CMデータであり、 tiilBデジタル Zアナログ変換手段は、 liifBP CMデータをアナログ信号に変換する、 請求項 1記載のサゥンドプロセッサ。  8. It is further equipped with a digital Z analog conversion means for converting a digital signal into an analog signal, and the wave data processed by the selfish logic sound channel is PCM data, and tiilB digital Z analog conversion means The sound processor according to claim 1, which converts liifBP CM data into an analog signal.
9. 複数の論理サウンドチャンネルによって再生されたウェーブデータを時分割多重 化して、 IEデジタル Zアナログ変換手段に出力する時分割多重出力手段をさらに備える請求 項 8記載のサウンドプロセッサ。 9. Time division multiplexing output means for time-division multiplexing wave data reproduced by a plurality of logical sound channels and outputting to the IE digital Z analog conversion means. Item 8. The sound processor according to item 8.
1 0. ti!fEBt^割多重出力手段は、 漏己ェフエタトチヤンネノレによつて再生されこゥエー ブデータを、 当該エフェクトチャンネルに割 当てられた時間に出力するとともに、 後続する 他の IS論理サゥンドチヤンネルに割り当てられた時間に、 fins他の論理サゥンドチャンネル のウェーブデータの代わりに出力する、 請求項 9記載のサウンドプロセッサ。  1 0. The ti! FEBt ^ split multiple output means outputs the wave data that is played back by the leaky computer to the time assigned to the effect channel and other subsequent IS logic. The sound processor according to claim 9, wherein the sound processor outputs the wave data of fins and other logical sound channels at the time allotted to the sound channel.
1 1 . 複数の論理サウンドチャンネルによって再生されたウェーブデータをミキシングし て単数又は複数の物理サゥンドチャンネルから出力するサウンドプロセッサと、  1 1. A sound processor that mixes wave data reproduced by multiple logical sound channels and outputs it from one or more physical sound channels;
,外部から入力されたアナ口グ音声信号をデジタノ 声信号に変換するアナ口グ/デジタル変 換ユニットと、  An analog / digital conversion unit that converts an analog audio signal input from the outside into a digital audio signal,
プログラムに従って演算処理を菊亍する演算処理ユニットと、 を備え、  An arithmetic processing unit that performs arithmetic processing according to a program, and
前記サウンドプロセッサは、  The sound processor is
' tiiiE論理サゥンドチヤンネルの各々に、 効果を付与十る赚のゥエーブデータが割り当 てられるェフエクト原音チヤンネル、 第 1の所定の音響効果が付与されたゥエーブデータ力割 り当てられる第 1エフェクトチャンネル、 第 2の所定の音響効果力 寸与されたウェーブデータ 力 S割り当てられる第 2エフェクトチャンネル、 及び、 音響効果が付与されないウェーブデータ 力 S割り当てられる非エフエタトチヤンネルとレ、つた 4つの属性の内の 1つを設定するチヤンネ ル設定手段と、 1 'Each of the tiiiE logical sound channels is assigned to the effect original sound channel, which is assigned a sufficient number of wave data to which the effect is given, the first effect channel which is assigned the wave data force given the first predetermined sound effect, 2 predetermined sound effect powers given wave data force S second effect channel assigned, and wave data force not given sound effect S non-feta channel assigned to one of four attributes Channel setting means to set one, 1
1以上の前記論理サゥンドチャンネルが前記エフエタ,ト原音チャンネルに設定されている場 合、 fijiaエフエタト原音チャンネルによって再生されたウェーブデータを第 1バッファに棚 し、 してから第 1の所定時間後に取り出して再生し、 前記第 1エフェクトチヤンネルに割 り当てる第 1の音響効 ¾{寸与手段と、 を含み、  When one or more logical sound channels are set as the original sound channel, the wave data reproduced by the fijia original sound channel is shelved in the first buffer, and after the first predetermined time. A first acoustic effect that is taken out and played back and assigned to the first effect channel;
鎌己チヤンネル設定手段は、 肅己 4つの属性の内の 、ずれの属性でも謙己論理サゥンドチヤ , ンネルに任意に設定でき、  The Kamami Channel setting means can be arbitrarily set to Kenji Logic Sound Channel, even if the attribute is out of the four attributes.
謙己演算処理ュニットは、 tinsアナログ zデジタル変 ^ニットによって得られた tiiiEデジ タノ 声信号を第 2バッファに格納し、  The Kenji arithmetic processing unit stores the tiiiE digital tano voice signal obtained by the tins analog z digital conversion unit in the second buffer,
廳己サゥンドプロセッサは、 前! ¾¾算処理ュニットが前記第 2バッファに格納した前記デジ タノ 声信号を、 IS第 2バッファに欄されてから第 2の所定時間後に取り出して再生し、 第 2エフェクトチャンネルに割り当てる第 2の 効 寸与手段をさらに含む、 サウンド システム。  The self-sound processor extracts and plays back the digital audio signal stored in the second buffer by the previous! ¾¾ arithmetic processing unit after a second predetermined time from the IS second buffer. The sound system further comprising a second effect measuring means assigned to the effect channel.
1 2. 第 1の音響効 寸与手段は、 1 2. The first acoustic effect measurement means is
mm ιバッファに格納してから前記第 ιの所定時間後に取り出して再生したウェーブデー タに対して、 第 1の所定の率で振幅変調を施す振幅変調手段と、 ,mm Wave data that was stored in the buffer and taken out and played back after a predetermined period of time Amplitude modulating means for performing amplitude modulation on the data at a first predetermined rate;
mrn ιの所定時間後の再生のための IS第 ιノくッファ力らのゥエーブデータの読出し位置 力 ら第 1の所定の賺変位された位置に欄 れているウェーブデータに、 tfjia第 1の所定の 率で振幅変調が施されたウェーブデータを加算する加算手段と、 を含み、 '  The read position of the wave data of the IS No. ι Nouffer force, etc. for playback after a predetermined time of mrn ι, the tfjia first predetermined Adding means for adding wave data amplitude-modulated at a rate of, and
前記演算処理手段は、 前記第 2バッファに格納してから前記第 2の所定時間後に取り出して 再生したウェーブデータに対して、第 2の所定の率で振幅変調を施し、そのウェーブデータ.を、 IfifB第 2の所定時間後の再生のための前記第 2バッファからのウェーブデータの読出し位置か ら第 2の所定の赚変位された位置に欄されているウェーブデータに加算する、 請求項 1 1 記載 サウンドシステム。 ' 1 3. 編己サゥンドプロセッサは、 デジタノ 言号をァ ログ信号に変換するデジタル Zァ ナ口グ変換手段をさらに含み、  The arithmetic processing means performs amplitude modulation at a second predetermined rate on the wave data retrieved and reproduced after the second predetermined time after being stored in the second buffer, and the wave data. The ififB is added to the wave data in the second predetermined position displaced from the read position of the wave data from the second buffer for reproduction after the second predetermined time. Description Sound system. '1 3. The editing sound processor further includes a digital Zanalog conversion means for converting a digitalano code into an analog signal,
' 鎌己論理サウンドチャンネルによって処理されるウェーブデ、ータは、 P CMデータであり、 tinsデジタル Zアナ口グ変換手段は、 肅己 P CMデータをアナ口グ信号に変換し、 tinsサゥンド少口セッサは、 tins複数の論理サゥンドチャンネルによって再生されたゥエー ブデータを時分割多重ィ匕して、 嫌己デジタル/アナ口グ変換手段に出力する時分割多重出力手 段をさらに含み、 '  '' Wave data processed by Kagami logic sound channel is PCM data, tins digital Z analog conversion means converts PCM data to analog signal, tins sound The sessa further includes a time-division multiplex output means for time-division-multiplexing the wave data reproduced by the plurality of logical sound channels and outputting it to the aversion digital / analog conversion means.
fillE時分割多重出力手段は、 llE第 1エフエタトチャンネルによって再生されたウェーブデ ータを、 当該第 1エフエタトチャンネルに割り当てられた時間に出力すると''ともに、 後続する 他の前記論理サゥンドチヤンネルに割り当てられた時間に、 前記他の論理サゥンドチヤンネル のウェーブデータの代わりに出力し、 つ、 Ιίίΐ己第 2エフェクトチャンネルによって再生され たウェーブデータを、 当該第 2エフエタトチャンネルに割り当てられた時間に出力するととも に、 後続する他の E論理サゥンドチヤンネルに割り当てられた時間に、 ήίΠΒ他の論理サゥン ドチヤンネルのウェーブデータの代わりに出力する、 請求項 1 1記載のサゥンドシステム。  The fillE time division multiplex output means outputs the wave data reproduced by the llE first effect channel at the time allotted to the first effect channel, and the other logical sound channels that follow. When the wave data output by the second effect channel is output instead of the wave data of the other logical sound channel, the time allocated to the second effect channel is output. 11. The sound system according to claim 11, wherein the sound system outputs the data in place of the wave data of the other logical sound channel at the time allotted to the other subsequent E logical sound channel.
PCT/JP2006/320525 2005-10-20 2006-10-10 Sound processor and sound system WO2007046311A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007540953A JP5055470B2 (en) 2005-10-20 2006-10-10 Sound processor

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2005306257 2005-10-20
JP2005-306257 2005-10-20

Publications (1)

Publication Number Publication Date
WO2007046311A1 true WO2007046311A1 (en) 2007-04-26

Family

ID=37962405

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2006/320525 WO2007046311A1 (en) 2005-10-20 2006-10-10 Sound processor and sound system

Country Status (2)

Country Link
JP (1) JP5055470B2 (en)
WO (1) WO2007046311A1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0683343A (en) * 1992-09-01 1994-03-25 Yamaha Corp Effect granting device
JPH11220791A (en) * 1998-02-02 1999-08-10 Shinsedai Kk Sound processor
JP2000298480A (en) * 1999-04-14 2000-10-24 Mitsubishi Electric Corp Device and method for adjusting audio signal level

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5732497A (en) * 1980-08-06 1982-02-22 Matsushita Electric Ind Co Ltd Echo adding unit
JP2852835B2 (en) * 1992-06-25 1999-02-03 株式会社河合楽器製作所 Sound effect device
JP3085801B2 (en) * 1992-11-11 2000-09-11 ヤマハ株式会社 Modulation signal generator

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0683343A (en) * 1992-09-01 1994-03-25 Yamaha Corp Effect granting device
JPH11220791A (en) * 1998-02-02 1999-08-10 Shinsedai Kk Sound processor
JP2000298480A (en) * 1999-04-14 2000-10-24 Mitsubishi Electric Corp Device and method for adjusting audio signal level

Also Published As

Publication number Publication date
JP5055470B2 (en) 2012-10-24
JPWO2007046311A1 (en) 2009-04-23

Similar Documents

Publication Publication Date Title
US5812688A (en) Method and apparatus for using visual images to mix sound
US7305273B2 (en) Audio generation system manager
US6490359B1 (en) Method and apparatus for using visual images to mix sound
US10924875B2 (en) Augmented reality platform for navigable, immersive audio experience
US7254540B2 (en) Accessing audio processing components in an audio generation system
JP2549253B2 (en) Personal computer system operating method and personal computer system
JP5241805B2 (en) Timing offset tolerance karaoke game
EP1035732A1 (en) Apparatus and method for presenting sound and image
AU785318B2 (en) Method and apparatus for pre-caching data in audio memory
US11930348B2 (en) Computer system for realizing customized being-there in association with audio and method thereof
CN110447071A (en) Information processing unit, information processing method and program
US7369665B1 (en) Method and apparatus for mixing sound signals
US7386356B2 (en) Dynamic audio buffer creation
JP5345780B2 (en) Data processing
WO2007046311A1 (en) Sound processor and sound system
CA3044260A1 (en) Augmented reality platform for navigable, immersive audio experience
US9705953B2 (en) Local control of digital signal processing
JP2007132961A (en) Multimedia processor and sound processor
JP2004205738A (en) Apparatus, program, and method for musical sound generation
US7089068B2 (en) Synthesizer multi-bus component
WO2022228174A1 (en) Rendering method and related device
JP6834398B2 (en) Sound processing equipment, sound processing methods, and programs
GB2474680A (en) An audio processing method and apparatus
Gupta et al. Incorporation of audio in virtualized reality
JP2005055976A (en) Image processing apparatus and program

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application
ENP Entry into the national phase

Ref document number: 2007540953

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 06811796

Country of ref document: EP

Kind code of ref document: A1