WO2019155603A1 - 音響信号処理装置及び音響信号処理方法 - Google Patents

音響信号処理装置及び音響信号処理方法 Download PDF

Info

Publication number
WO2019155603A1
WO2019155603A1 PCT/JP2018/004585 JP2018004585W WO2019155603A1 WO 2019155603 A1 WO2019155603 A1 WO 2019155603A1 JP 2018004585 W JP2018004585 W JP 2018004585W WO 2019155603 A1 WO2019155603 A1 WO 2019155603A1
Authority
WO
WIPO (PCT)
Prior art keywords
signal
correlation component
component signal
correlated
correlation
Prior art date
Application number
PCT/JP2018/004585
Other languages
English (en)
French (fr)
Inventor
耕佑 細谷
木村 勝
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to PCT/JP2018/004585 priority Critical patent/WO2019155603A1/ja
Priority to US16/966,980 priority patent/US11076252B2/en
Priority to CN201880087908.7A priority patent/CN111699701B/zh
Priority to DE112018006786.6T priority patent/DE112018006786B4/de
Priority to JP2019570239A priority patent/JPWO2019155603A1/ja
Publication of WO2019155603A1 publication Critical patent/WO2019155603A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/06Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being correlation coefficients
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/04Circuits for transducers, loudspeakers or microphones for correcting frequency response
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S1/00Two-channel systems
    • H04S1/007Two-channel systems in which the audio signals are in digital form
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/05Generation or adaptation of centre channel in multi-channel audio systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/13Aspects of volume control, not necessarily automatic, in stereophonic sound systems

Definitions

  • the present invention relates to an acoustic signal processing device and an acoustic signal processing method.
  • a human voice signal is extracted by applying a filter for extracting a vocal sound band to a sum signal of left and right channels of a stereo signal and a notch filter for attenuating a predetermined frequency component from the vocal sound band.
  • a method for emphasizing only the voice is disclosed.
  • a correlation component is extracted by using a sum signal of stereo signals. For example, when there is a shift of several milliseconds (ms) in the left and right channels of a stereo signal, The ease of hearing was not improved.
  • one or a plurality of aspects of the present invention is to improve the ease of hearing of a human voice even when there is a shift in the time axis between the first signal and the second signal. Objective.
  • An acoustic signal processing apparatus is an acoustic signal processing apparatus that receives an input of a first signal and a second signal, and the first signal from the second signal in a predetermined period. By predicting a signal, a first correlation component signal correlated with the first signal in the second signal is generated, and a signal having an opposite phase to the first correlation component signal is generated in the first signal.
  • a first correlation component separation unit that separates a first uncorrelated component signal that is not correlated with the second signal from the first signal by adding to the signal; By predicting the second signal from the first signal, a second correlation component signal correlated with the second signal in the first signal is generated, and the second correlation component signal is generated.
  • a second correlation component separation unit that separates a second uncorrelated component signal that is not correlated with the first signal from the second signal; the first correlation component signal; and the second correlation component
  • a correlation component synthesizing unit that synthesizes the signal and generates a synthesized correlation component signal; a first gain multiplication unit that multiplies the synthesized correlation component signal by a gain to generate a correlation component signal; and the correlation component signal
  • a first signal adder that adds the first uncorrelated component signal and a second signal adder that adds the correlated component signal and the second uncorrelated component signal.
  • the acoustic signal processing method receives the input of the first signal and the second signal, and predicts the first signal from the second signal in a predetermined period. Generating a first correlation component signal correlated with the first signal in the second signal, and adding a signal having a phase opposite to that of the first correlation component signal to the first signal; Separating a first uncorrelated component signal that is not correlated with the second signal from the first signal, and predicting the second signal from the first signal in the predetermined period. And generating a second correlation component signal correlated with the second signal in the first signal, and adding a signal having a phase opposite to that of the second correlation component signal to the second signal. And the second signal is not correlated with the first signal.
  • Two uncorrelated component signals are separated, the first correlated component signal and the second correlated component signal are combined to generate a combined correlated component signal, and the combined correlated component signal is multiplied by a gain.
  • Generating a correlation component signal adding the correlation component signal and the first non-correlation component signal, and adding the correlation component signal and the second non-correlation component signal.
  • FIG. 1 is a block diagram schematically showing a configuration of an acoustic signal processing device according to Embodiment 1.
  • FIG. It is a block diagram which shows roughly the structure of a 1st correlation component separation part. It is a block diagram which shows roughly the structure of a 2nd correlation component separation part.
  • (A) And (B) is a block diagram which shows the structural example in the hardware and software of an acoustic signal processing apparatus. It is a flowchart which shows the process in an acoustic signal processing apparatus.
  • 6 is a block diagram schematically showing a configuration of an acoustic signal processing device according to Embodiment 2.
  • FIG. It is the schematic which shows the frequency characteristic example of the digital filter used for a band emphasis.
  • FIG. 10 is a block diagram schematically showing a configuration of an acoustic signal processing device according to a third embodiment.
  • FIG. 1 is a block diagram schematically showing a configuration of an acoustic signal processing device 100 according to the first embodiment.
  • the acoustic signal processing apparatus 100 includes a first correlation component separation unit 110, a second correlation component separation unit 120, a correlation component synthesis unit 130, a gain multiplication unit 131 as a first gain multiplication unit, The signal adder 132 and the second signal adder 133 are provided. Note that it is assumed that a stereo signal is input to the acoustic signal processing apparatus 100.
  • the first correlation component separation unit 110 receives an input of a left channel input signal S1 as a first signal and a right channel input signal S2 as a second signal.
  • the first correlation component separator 110 generates a first correlation component signal S4 that is correlated with the left channel input signal S1 in the right channel input signal S2 from the right channel input signal S2 in a predetermined period. Further, the first correlation component separation unit 110 adds a signal having an opposite phase to the first correlation component signal S4 to the left channel input signal S1, thereby correlating with the right channel input signal S2 from the left channel input signal S1.
  • the left channel uncorrelated component signal S3 as the first uncorrelated component signal that is not relevant is separated.
  • FIG. 2 is a block diagram schematically showing the configuration of the first correlation component separation unit 110.
  • the first correlation component separation unit 110 includes a first prediction unit 111 and a first non-correlation component calculation unit 112.
  • the current time is set to time n
  • the time before the time n is set to n ⁇ 1
  • the time before the time n ⁇ 1 is set to time n ⁇ 2.
  • a time predetermined from time n ⁇ (N ⁇ 1) is time n ⁇ N.
  • the right channel input signal S2 at each of time n, time n-1, time n-2,..., Time nN is represented by r (n), r (n-1), r (n-2 ,..., R (n ⁇ N).
  • N is a predicted order and is an integer of 2 or more.
  • the first prediction unit 111 predicts the left channel input signal S1 based on r (n), r (n-2),..., R (n ⁇ N) and the prediction coefficient, and is predicted.
  • the received signal is regarded as a correlation component, and is provided as a first correlation component signal S4 to the first non-correlation component calculation unit 112 and the correlation component synthesis unit 130 shown in FIG.
  • the first correlation component signal S4 is calculated by convolving r (n), r (n-2),..., R (n ⁇ N) and the prediction coefficient.
  • an algorithm used for prediction for example, an LMS (Least-Mean-Square) algorithm which is a known adaptive filter technique may be used. That is, the first prediction unit 111 predicts the left channel input signal S1 by adaptive filter processing.
  • the first prediction unit 111 updates the value of the prediction coefficient when receiving the left channel uncorrelated component signal S3. This is because the left channel uncorrelated component signal S3 is an error signal indicating a prediction error in the adaptive filter technique. For this reason, the first prediction unit 111 updates the value of the prediction coefficient so that the error signal approaches 0 and predicts the left channel input signal S1, so that the left channel input signal S2 in the right channel input signal S2 A first correlation component signal S4 including a human voice having a high correlation with S1 can be generated.
  • an adaptive filter technique such as an LMS algorithm
  • the second correlation component separator 120 receives the right channel input signal S2 and the left channel input signal S1.
  • the second correlation component separation unit 120 generates a second correlation component signal S6 that is correlated with the right channel input signal S2 in the left channel input signal S1 from the left channel input signal S1 in a predetermined period. Further, the second correlation component separation unit 120 adds a signal having an opposite phase to the second correlation component signal S6 to the right channel input signal S2, thereby correlating with the left channel input signal S1 from the right channel input signal S2.
  • the right channel uncorrelated component signal S5 as the second uncorrelated component signal that is not relevant is separated.
  • FIG. 3 is a block diagram schematically showing the configuration of the second correlation component separation unit 120.
  • the second correlation component separation unit 120 includes a second prediction unit 121 and a second non-correlation component calculation unit 122.
  • the left channel input signal S1 at each of time n, time n-1, time n-2,..., Time nN is represented by l (n), l (n-1), l ( n-2),..., l (nN).
  • the second prediction unit 121 determines the right channel input signal based on l (n), l (n ⁇ 1), l (n ⁇ 2),..., L (n ⁇ N) and the prediction coefficient.
  • S2 is predicted, the predicted signal is regarded as a correlation component, and is provided as a second correlation component signal S6 to the second non-correlation component calculation unit 122 and the correlation component synthesis unit 130 shown in FIG.
  • the second correlation component signal S6 is calculated by convolving l (n), l (n-1), l (n-2), ..., l (nN) and the prediction coefficient. Is done.
  • an LMS algorithm or the like may be used as in the first prediction unit 111.
  • the second prediction unit 121 updates the value of the prediction coefficient when receiving a right channel uncorrelated component signal S5 described later. .
  • the right channel uncorrelated component signal S5 is an error signal indicating a prediction error in the adaptive filter technique. Therefore, the second prediction unit 121 updates the value of the prediction coefficient so that the error signal approaches 0, and predicts the right channel input signal S2, so that the right channel input signal S1 in the left channel input signal S1
  • a second correlation component signal S6 including a human voice having a high correlation with S2 can be generated.
  • the second non-correlation component calculation unit 122 makes the second correlation component signal S6 given from the second prediction unit 121 out of phase, and the second correlation component signal S6 out of phase and the right channel input
  • the signal S2 is added to calculate the right channel uncorrelated component signal S5.
  • the right channel decorrelation component signal S5 is an error signal in the adaptive filter technique.
  • the correlation component synthesis unit 130 receives the first correlation component signal S4 and the second correlation component signal S6, and performs an addition process of these two signals to synthesize them.
  • the combined correlation component signal S7 is calculated.
  • the correlation component synthesis unit 130 performs processing based on the following equation (1), and supplies the calculated XP (n) to the gain multiplication unit 131 as the synthesis correlation component signal S7.
  • l P (n) represents the first correlation component signal S4
  • r P (n) represents the second correlation component signal S6.
  • the gain multiplication unit 131 receives the combined correlation component signal S7, superimposes the gain on the combined correlation component signal S7, and sets the combined correlation component signal on which the gain is superimposed as the correlation component signal S8.
  • the signal is supplied to the second signal adding unit 133.
  • the gain to be superimposed is preferably larger than 1.
  • the gain value may be a fixed value or a variable value set by the user using a GUI (Graphical User Interface) via an input unit and a display unit (not shown).
  • the first signal adder 132 adds the left channel non-correlation component signal S3 and the correlation component signal S8, and generates a left channel output signal S9, which is the final output.
  • the generated left channel output signal S9 is output to the subsequent stage of the acoustic signal processing apparatus 100.
  • the second signal addition unit 133 adds the right channel non-correlation component signal S5 and the correlation component signal S8, and generates a right channel output signal S10 that is a final output.
  • the generated right channel output signal S10 is output to the subsequent stage of the acoustic signal processing apparatus 100.
  • the acoustic signal processing apparatus 100 can be realized by hardware (H / W) or software (S / W).
  • FIG. 4A is a block diagram illustrating an example when the acoustic signal processing apparatus 100 is configured with H / W.
  • the acoustic signal processing device 100 can be realized by the processing circuit 150.
  • a stereo signal is input to the processing circuit 150 from the media playback device 151 or the broadcast wave receiving device 152.
  • the stereo signal processed by the processing circuit 150 is converted into an analog signal by the DAC circuit 153 and passed to the speaker 155 via the amplifier 154.
  • the media playback device 151 corresponds to a device that reads digital information from a medium such as a CD (Compact Disc), a DVD (Digital Versatile Disc), or a BD (Blu-ray Disc).
  • the display device 156 functions as a display unit that displays a screen image for changing the gain value
  • the input device 157 functions as an input unit for inputting the gain value.
  • FIG. 4B is a block diagram illustrating an example when the acoustic signal processing apparatus 100 is configured with S / W.
  • the acoustic signal processing apparatus 100 can be realized by reading the program stored in the external storage device 160 into the memory 161 and executing it by the processor 162.
  • the processor 162 processes the data stored in the external storage device 160 or the data expanded in the memory 161.
  • the external storage device 160 corresponds to a storage device such as a hard disk drive (HDD) or solid state drive (SSD) connected directly or via a network.
  • HDD hard disk drive
  • SSD solid state drive
  • a media playback device 151, a broadcast wave receiving device 152, a speaker 155, a display device 156, or an input device 157 may be connected.
  • An apparatus may be configured.
  • the external storage device 160, the memory 161, the processor 162, the media playback device 151 or the broadcast wave reception device 152, the speaker 155, the display device 156, and the input device 157 shown in FIG. It may be configured.
  • FIG. 5 is a flowchart showing processing in the acoustic signal processing apparatus 100 according to the first embodiment.
  • the first correlation component separator 110 receives the left channel input signal S1 and the right channel input signal S2, and generates a left channel uncorrelated component signal S3 and a first correlation component signal S4 (S10). .
  • the second correlation component separator 120 receives the right channel input signal S2 and the left channel input signal S1, and generates the right channel non-correlation component signal S5 and the second correlation component signal S6 (S11). .
  • the correlation component combining unit 130 combines the first correlation component signal S4 and the second correlation component signal S6 to generate a combined correlation component signal S7 (S12).
  • the gain multiplier 131 generates a correlation component signal S8 by superimposing the gain on the combined correlation component signal S7 (S13).
  • the first signal adder 132 adds the left channel non-correlation component signal S3 and the correlation component signal S8 to generate a left channel output signal S9 (S14).
  • the second signal adding unit 133 adds the right channel non-correlation component signal S5 and the correlation component signal S8 to generate the right channel output signal S10 (S15).
  • the correlation component separation units 110 and 120 separate the input signal into the correlation component signal and the non-correlation component signal, and multiply the correlation component signal by the gain. , Can improve the ease of hearing human voice.
  • the adaptive filter algorithm is used to extract the correlation component, it is possible to extract the correlation component shifted by several ms in the left and right channels of the stereo signal.
  • FIG. FIG. 6 is a block diagram schematically showing the configuration of the acoustic signal processing device 200 according to the second embodiment.
  • the acoustic signal processing device 200 includes a first correlation component separation unit 110, a second correlation component separation unit 120, a correlation component synthesis unit 130, a gain multiplication unit 131, a first signal addition unit 132, 2 signal addition unit 133 and band enhancement unit 234.
  • the acoustic signal processing device 200 according to the second embodiment is configured in the same manner as the acoustic signal processing device 100 according to the first embodiment, except that a band emphasis unit 234 is added.
  • the correlation component synthesizing unit 130 gives the synthesized correlation component signal S7 to the band emphasizing unit 234, and the gain multiplier 131 gains the enhanced synthesized correlation component signal S11 given from the band emphasizing unit 234 as will be described later. Is superimposed.
  • the band emphasizing unit 234 receives the combined correlation component signal S7 and enhances a band that is easy for humans to hear with respect to the combined correlation component signal S7 by filter processing.
  • the digital filter used by the band emphasizing unit 234 may be realized by a FIR (Finite Impulse Response) filter or an IIR (Infinite Impulse Response) filter.
  • FIG. 7 shows an example of frequency characteristics of a digital filter used for band enhancement.
  • the band that is easy for humans to hear is an important band for the ease of hearing of human voices.
  • the band emphasizing unit 234 supplies the band-enhanced composite correlation component signal to the gain multiplication unit 131 as the enhanced composite correlation component signal S11.
  • the band emphasizing unit 234 emphasizes a band that is important for the ease of hearing of a human voice, thereby obtaining an effect of further improving the clarity of a human voice. be able to.
  • FIG. 8 is a block diagram schematically showing the configuration of the acoustic signal processing device 300 according to the third embodiment.
  • the acoustic signal processing device 300 includes a first correlation component separation unit 110, a second correlation component separation unit 120, a correlation component synthesis unit 130, a gain multiplication unit 131, a first signal addition unit 132, 2 signal adder 133, band enhancer 234, gain multiplier 335 as a second gain multiplier, and gain multiplier 336 as a third gain multiplier.
  • the acoustic signal processing device 300 according to the third embodiment is configured in the same manner as the acoustic signal processing device 200 according to the second embodiment, except that a gain multiplication unit 335 and a gain multiplication unit 336 are added.
  • the first correlation component separation unit 110 gives the separated left channel non-correlation component signal S3 to the gain multiplication unit 335
  • the second correlation component separation unit 120 does the separated right channel non-correlation component signal.
  • S5 is given to the gain multiplier 336.
  • the first signal adder 132 adds the multiplication left channel decorrelation component signal S12 and the correlation component signal S8 given from the gain multiplier 335
  • the second signal adder 133 is a gain multiplier 336.
  • the multiplication right channel non-correlation component signal S13 given by is added to the correlation component signal S8.
  • the gain multiplier 335 receives the left channel uncorrelated component signal S3, multiplies the left channel uncorrelated component signal S3 by a gain, and multiplies the left channel uncorrelated component signal multiplied by the gain.
  • the correlation component signal S12 is provided to the first signal adder 132.
  • the gain to be superimposed is preferably smaller than 1.
  • the gain value may be a fixed value or a variable value set by the user using the GUI as described above.
  • the gain multiplier 336 receives the right channel uncorrelated component signal S5, multiplies the right channel uncorrelated component signal S5 by a gain, and multiplies the right channel uncorrelated component signal multiplied by the gain.
  • the correlation component signal S13 is provided to the second signal adding unit 133.
  • the gain to be superimposed is preferably smaller than 1.
  • the gain value may be a fixed value or a variable value set by the user using the GUI as described above.
  • the gain multipliers 335 and 336 can reduce the volume of components other than the human voice, thereby further improving the clarity of the human voice. Can be obtained.
  • the band emphasizing unit 234 may not be provided.
  • 100, 200, 300 acoustic signal processing device 110 first correlation component separation unit, 111 first prediction unit, 112 first non-correlation component calculation unit, 120 second correlation component separation unit, 121 second prediction , 122, second uncorrelated component calculation unit, 130 correlation component synthesis unit, 131 gain multiplication unit, 132 first signal addition unit, 133 second signal addition unit, 234 band enhancement unit, 335 gain multiplication unit, 336 Gain multiplier.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Stereophonic System (AREA)

Abstract

予め定められた期間における第2の信号から第1の信号を予測することで第1の相関成分信号を生成し、第1の相関成分信号を用いて、第1の信号から第1の非相関成分信号を分離する第1の相関成分分離部(110)と、予め定められた期間における第1の信号から第2の信号を予測することで第2の相関成分信号を生成し、第2の相関成分信号を用いて、第2の信号から第2の非相関成分信号を分離する第2の相関成分分離部(120)と、第1の相関成分信号と第2の相関成分信号とを合成して、合成相関成分信号を生成する相関成分合成部(130)と、合成相関成分信号にゲインを乗算して、相関成分信号を生成する第1のゲイン乗算部(131)と、相関成分信号と第1の非相関成分信号とを加算する第1の信号加算部(132)と、相関成分信号と第2の非相関成分信号とを加算する第2の信号加算部(133)とを備える。

Description

音響信号処理装置及び音響信号処理方法
 本発明は、音響信号処理装置及び音響信号処理方法に関する。
 テレビで放送されるコンテンツにおいて、台詞又はナレーション等の人の声は、ステレオ信号の左右チャネルにおいて高い相関をもつことが多い。一方、BGM等の背景音は、ステレオ信号の左右チャネルにおいて低い相関をもつことが多い。
 上記の前提に基づき、ステレオ信号の左右チャネルの相関成分を抽出及び強調することにより人の声の聞き取り易さを改善する技術がある。
 例えば、特許文献1では、ステレオ信号の左右チャネルの和信号に対して、ヴォーカル音声帯域を抽出するフィルタと、ヴォーカル音声帯域から予め定められた周波数成分を減衰させるノッチフィルタとをかけることにより、人の声のみを強調する方法が開示されている。
特開2005-086462号公報
 しかしながら、従来の技術では、ステレオ信号の和信号を用いることで相関成分を抽出するため、例えば、ステレオ信号の左右チャネルで数ミリセコンド(ms)のずれがある場合には、人の声等の聞き取り易さを改善することができなかった。
 そこで、本発明の1又は複数の態様は、第1の信号と第2の信号とで時間軸におけるずれがあっても、人の声の聞き取り易さを改善することができるようにすることを目的とする。
 本発明の1態様に係る音響信号処理装置は、第1の信号及び第2の信号の入力を受ける音響信号処理装置であって、予め定められた期間における前記第2の信号から前記第1の信号を予測することで、前記第2の信号において前記第1の信号と相関関係にある第1の相関成分信号を生成し、前記第1の相関成分信号の逆位相の信号を前記第1の信号に加算することで、前記第1の信号から、前記第2の信号と相関関係にない第1の非相関成分信号を分離する第1の相関成分分離部と、前記予め定められた期間における前記第1の信号から前記第2の信号を予測することで、前記第1の信号において前記第2の信号と相関関係にある第2の相関成分信号を生成し、前記第2の相関成分信号の逆位相の信号を前記第2の信号に加算することで、前記第2の信号から、前記第1の信号と相関関係にない第2の非相関成分信号を分離する第2の相関成分分離部と、前記第1の相関成分信号と前記第2の相関成分信号とを合成して、合成相関成分信号を生成する相関成分合成部と、前記合成相関成分信号にゲインを乗算して、相関成分信号を生成する第1のゲイン乗算部と、前記相関成分信号と前記第1の非相関成分信号とを加算する第1の信号加算部と、前記相関成分信号と前記第2の非相関成分信号とを加算する第2の信号加算部と、を備えることを特徴とする。
 本発明の1態様に係る音響信号処理方法は、第1の信号及び第2の信号の入力を受け、予め定められた期間における前記第2の信号から前記第1の信号を予測することで、前記第2の信号において前記第1の信号と相関関係にある第1の相関成分信号を生成し、前記第1の相関成分信号の逆位相の信号を前記第1の信号に加算することで、前記第1の信号から、前記第2の信号と相関関係にない第1の非相関成分信号を分離し、前記予め定められた期間における前記第1の信号から前記第2の信号を予測することで、前記第1の信号において前記第2の信号と相関関係にある第2の相関成分信号を生成し、前記第2の相関成分信号の逆位相の信号を前記第2の信号に加算することで、前記第2の信号から、前記第1の信号と相関関係にない第2の非相関成分信号を分離し、前記第1の相関成分信号と前記第2の相関成分信号とを合成して、合成相関成分信号を生成し、前記合成相関成分信号にゲインを乗算して、相関成分信号を生成し、前記相関成分信号と前記第1の非相関成分信号とを加算し、前記相関成分信号と前記第2の非相関成分信号とを加算することを特徴とする。
 本発明の1又は複数の態様によれば、第1の信号と第2の信号とで時間軸におけるずれがあっても、人の声の聞き取り易さを改善することができる。
実施の形態1に係る音響信号処理装置の構成を概略的に示すブロック図である。 第1の相関成分分離部の構成を概略的に示すブロック図である。 第2の相関成分分離部の構成を概略的に示すブロック図である。 (A)及び(B)は、音響信号処理装置のハードウェア及びソフトウェアでの構成例を示すブロック図である。 音響信号処理装置での処理を示すフローチャートである。 実施の形態2に係る音響信号処理装置の構成を概略的に示すブロック図である。 帯域強調に用いるディジタルフィルタの周波数特性例を示す概略図である。 実施の形態3に係る音響信号処理装置の構成を概略的に示すブロック図である。
実施の形態1.
 図1は、実施の形態1に係る音響信号処理装置100の構成を概略的に示すブロック図である。
 音響信号処理装置100は、第1の相関成分分離部110と、第2の相関成分分離部120と、相関成分合成部130と、第1のゲイン乗算部としてのゲイン乗算部131と、第1の信号加算部132と、第2の信号加算部133とを備える。
 なお、音響信号処理装置100には、ステレオ信号が入力されることを前提としている。
 第1の相関成分分離部110は、第1の信号としての左チャネル入力信号S1及び第2の信号としての右チャネル入力信号S2の入力を受ける。
 第1の相関成分分離部110は、予め定められた期間における右チャネル入力信号S2から、右チャネル入力信号S2において左チャネル入力信号S1と相関関係にある第1の相関成分信号S4を生成する。
 また、第1の相関成分分離部110は、第1の相関成分信号S4の逆位相の信号を左チャネル入力信号S1に加算することで、左チャネル入力信号S1から、右チャネル入力信号S2と相関関係にない第1の非相関成分信号としての左チャネル非相関成分信号S3を分離する。
 図2は、第1の相関成分分離部110の構成を概略的に示すブロック図である。
 第1の相関成分分離部110は、第1の予測部111と、第1の非相関成分算出部112とを備える。
 以下の説明では、現在の時刻を時刻nとし、時刻nよりも予め定められた時間前の時刻をn-1とし、時刻n-1よりも予め定められた時間前の時刻を時刻n-2とし、・・・、時刻n-(N-1)よりも予め定められた時刻を時刻n-Nとする。そして、時刻n、時刻n-1、時刻n-2、・・・、時刻n-Nの各々における右チャネル入力信号S2を、r(n)、r(n-1)、r(n-2)、・・・、r(n-N)とする。なお、Nは、予測次数であり、2以上の整数である。
 第1の予測部111は、r(n)、r(n-2)、・・・、r(n-N)と、予測係数とに基づいて、左チャネル入力信号S1を予測し、予測された信号を相関成分とみなし、第1の相関成分信号S4として、第1の非相関成分算出部112及び図1に示されている相関成分合成部130に与える。例えば、第1の相関成分信号S4は、r(n)、r(n-2)、・・・、r(n-N)と、予測係数とを畳み込むことにより算出される。
 ここで、予測に用いるアルゴリズムとしては、例えば、既知の適応フィルタ技術であるLMS(Least-Mean-Square)アルゴリズム等が用いられればよい。すなわち、第1の予測部111は、適応フィルタ処理により、左チャネル入力信号S1を予測する。
 また、LMSアルゴリズム等の適応フィルタ技術を第1の予測部111に適用する場合には、第1の予測部111は、左チャネル非相関成分信号S3を受けると、予測係数の値を更新する。これは、左チャネル非相関成分信号S3が適応フィルタ技術においては、予測誤差を示す誤差信号であるためである。このため、第1の予測部111は、誤差信号が0に近づくように予測係数の値を更新して、左チャネル入力信号S1を予測することで、右チャネル入力信号S2において、左チャネル入力信号S1と高い相関を有する人の声を含む第1の相関成分信号S4を生成することができる。
 図1に戻り、第2の相関成分分離部120は、右チャネル入力信号S2及び左チャネル入力信号S1の入力を受ける。
 第2の相関成分分離部120は、予め定められた期間における左チャネル入力信号S1から、左チャネル入力信号S1において右チャネル入力信号S2と相関関係にある第2の相関成分信号S6を生成する。
 また、第2の相関成分分離部120は、第2の相関成分信号S6の逆位相の信号を右チャネル入力信号S2に加算することで、右チャネル入力信号S2から、左チャネル入力信号S1と相関関係にない第2の非相関成分信号としての右チャネル非相関成分信号S5を分離する。
 図3は、第2の相関成分分離部120の構成を概略的に示すブロック図である。
 第2の相関成分分離部120は、第2の予測部121と、第2の非相関成分算出部122とを備える。
 以下の説明では、時刻n、時刻n-1、時刻n-2、・・・、時刻n-Nの各々における左チャネル入力信号S1を、l(n)、l(n-1)、l(n-2)、・・・、l(n-N)とする。
 第2の予測部121は、l(n)、l(n-1)、l(n-2)、・・・、l(n-N)と、予測係数とに基づいて、右チャネル入力信号S2を予測し、予測された信号を相関成分とみなし、第2の相関成分信号S6として、第2の非相関成分算出部122及び図1に示されている相関成分合成部130に与える。例えば、第2の相関成分信号S6は、l(n)、l(n-1)、l(n-2)、・・・、l(n-N)と、予測係数とを畳み込むことにより算出される。
 予測に用いるアルゴリズムとしては、第1の予測部111と同様にLMSアルゴリズム等が用いられればよい。
 なお、LMSアルゴリズム等の適応フィルタ技術を第2の予測部121に適用する場合は、後述する右チャネル非相関成分信号S5を受けると、第2の予測部121は、予測係数の値を更新する。これは、右チャネル非相関成分信号S5が適応フィルタ技術においては、予測誤差を示す誤差信号であるためである。このため、第2の予測部121は、誤差信号が0に近づくように予測係数の値を更新して、右チャネル入力信号S2を予測することで、左チャネル入力信号S1において、右チャネル入力信号S2と高い相関を有する人の声を含む第2の相関成分信号S6を生成することができる。
 第2の非相関成分算出部122は、第2の予測部121から与えられた第2の相関成分信号S6を逆相にするとともに、逆相にした第2の相関成分信号S6と右チャネル入力信号S2とを加算し、右チャネル非相関成分信号S5を算出する。なお、前述した通り、右チャネル非相関成分信号S5は、適応フィルタ技術においては、誤差信号である。
 図1に戻り、相関成分合成部130は、第1の相関成分信号S4と、第2の相関成分信号S6とを受けて、これらの2つの信号の加算処理を行うことで、これらを合成し、合成相関成分信号S7を算出する。
 例えば、相関成分合成部130は、下記の(1)式に基づく処理を行い、算出されたX(n)を合成相関成分信号S7として、ゲイン乗算部131に与える。
Figure JPOXMLDOC01-appb-M000001
 ここでl(n)は、第1の相関成分信号S4を表し、r(n)は、第2の相関成分信号S6を表す。
 ゲイン乗算部131は、合成相関成分信号S7を受けて、合成相関成分信号S7にゲインを重畳し、ゲイン重畳された合成相関成分信号を、相関成分信号S8として、第1の信号加算部132及び第2の信号加算部133に与える。
 ここで、合成相関成分信号S7は、人の声の成分を多く含むので、重畳するゲインは、1よりも大きい値が望ましい。また、ゲインの値は、固定値であってもよいし、図示されていない入力部及び表示部を介して、GUI(Grafical User Interface)を用いてユーザが設定する可変値でもよい。
 第1の信号加算部132は、左チャネル非相関成分信号S3と、相関成分信号S8とを加算し、最終的な出力である、左チャネル出力信号S9を生成する。生成された左チャネル出力信号S9は、音響信号処理装置100の後段に出力される。
 同様に、第2の信号加算部133は、右チャネル非相関成分信号S5と、相関成分信号S8とを加算し、最終的な出力である、右チャネル出力信号S10を生成する。生成された右チャネル出力信号S10は、音響信号処理装置100の後段に出力される。
 音響信号処理装置100は、ハードウェア(H/W)又はソフトウェア(S/W)で実現可能である。
 図4(A)は、音響信号処理装置100をH/Wで構成した場合の一例を示すブロック図である。
 音響信号処理装置100は、処理回路150により実現することができる。この場合、処理回路150には、メディア再生装置151又は放送波受信装置152からステレオ信号が、処理回路150に入力される。そして、処理回路150で処理されたステレオ信号は、DAC回路153でアナログ信号に変換され、アンプ154を介して、スピーカ155に渡される。なお、メディア再生装置151は、例えば、CD(Compact Disc)、DVD(Digital Versatile Disc)又はBD(Blu-ray Disc)等の媒体からデジタル情報を読み取る装置が相当する。
 また、表示装置156は、ゲインの値を変更するための画面画像を表示する表示部として機能し、入力装置157は、ゲインの値を入力するための入力部として機能する。
 図4(B)は、音響信号処理装置100をS/Wで構成した場合の一例を示すブロック図である。
 音響信号処理装置100は、外部記憶装置160に記憶されたプログラムを、メモリ161に読み出して、プロセッサ162で実行することにより、実現することができる。この場合、プロセッサ162は、外部記憶装置160に記憶されたデータ、又は、メモリ161に展開されたデータを処理する。なお、外部記憶装置160は、例えば、直接又はネットワークを経由して接続されたハードディスクドライブ(HDD)又はソリッドステートドライブ(SSD)等の記憶装置が相当する。
 なお、メディア再生装置151、放送波受信装置152、スピーカ155、表示装置156又は入力装置157が接続されていてもよい。
 ここで、図4(A)に示されている処理回路150、メディア再生装置151又は放送波受信装置152、DAC回路153、アンプ154、スピーカ155、表示装置156、及び、入力装置157により、音響装置が構成されてもよい。
 または、図4(B)に示されている外部記憶装置160、メモリ161、プロセッサ162、メディア再生装置151又は放送波受信装置152、スピーカ155、表示装置156、及び、入力装置157により音響装置が構成されてもよい。
 図5は、実施の形態1における音響信号処理装置100での処理を示すフローチャートである。
 まず、第1の相関成分分離部110は、左チャネル入力信号S1及び右チャネル入力信号S2の入力を受けて、左チャネル非相関成分信号S3及び第1の相関成分信号S4を生成する(S10)。
 また、第2の相関成分分離部120は、右チャネル入力信号S2及び左チャネル入力信号S1の入力を受けて、右チャネル非相関成分信号S5及び第2の相関成分信号S6を生成する(S11)。
 次に、相関成分合成部130は、第1の相関成分信号S4と、第2の相関成分信号S6とを合成して、合成相関成分信号S7を生成する(S12)。
 次に、ゲイン乗算部131は、合成相関成分信号S7にゲインを重畳して、相関成分信号S8を生成する(S13)。
 次に、第1の信号加算部132は、左チャネル非相関成分信号S3と、相関成分信号S8とを加算し、左チャネル出力信号S9を生成する(S14)。
 また、第2の信号加算部133は、右チャネル非相関成分信号S5と、相関成分信号S8とを加算し、右チャネル出力信号S10を生成する(S15)。
 以上のように、実施の形態1によれば、相関成分分離部110、120により、入力信号を相関成分信号と非相関成分信号とに分離し、相関成分信号に対してゲインを乗算することで、人の声の聞き取り易さを改善することができる。
 また、相関成分を抽出するのに、適応フィルタのアルゴリズムを用いるため、ステレオ信号の左右チャネルで数msずれた相関成分も抽出することが可能である。
実施の形態2.
 図6は、実施の形態2に係る音響信号処理装置200の構成を概略的に示すブロック図である。
 音響信号処理装置200は、第1の相関成分分離部110と、第2の相関成分分離部120と、相関成分合成部130と、ゲイン乗算部131と、第1の信号加算部132と、第2の信号加算部133と、帯域強調部234とを備える。
 実施の形態2に係る音響信号処理装置200は、帯域強調部234が追加されている点を除いて、実施の形態1に係る音響信号処理装置100と同様に構成されている。
 但し、相関成分合成部130は、合成相関成分信号S7を帯域強調部234に与え、ゲイン乗算部131は、後述するように、帯域強調部234から与えられる強調合成相関成分信号S11に対してゲインを重畳する。
 帯域強調部234は、合成相関成分信号S7を受けて、その合成相関成分信号S7に対して、人が聞き取りやすい帯域をフィルタ処理により強調する。帯域強調部234が使用するディジタルフィルタは、FIR(Finite Impulse Response)フィルタ又はIIR(Infinite Impulse Response)フィルタで実現すればよい。帯域強調に用いるディジタルフィルタの周波数特性例を図7に示す。
 人が聞き取りやすい帯域は、人の声の聞き取り易さにとって重要な帯域である。
 そして、帯域強調部234は、帯域強調された合成相関成分信号を強調合成相関成分信号S11として、ゲイン乗算部131に与える。
 以上のように、実施の形態2によれば、帯域強調部234により、人の声の聞き取り易さにとって重要な帯域が強調されるので、人の声の明瞭度がさらに改善するという効果を得ることができる。
実施の形態3.
 図8は、実施の形態3に係る音響信号処理装置300の構成を概略的に示すブロック図である。
 音響信号処理装置300は、第1の相関成分分離部110と、第2の相関成分分離部120と、相関成分合成部130と、ゲイン乗算部131と、第1の信号加算部132と、第2の信号加算部133と、帯域強調部234と、第2のゲイン乗算部としてのゲイン乗算部335と、第3のゲイン乗算部としてのゲイン乗算部336とを備える。
 実施の形態3に係る音響信号処理装置300は、ゲイン乗算部335及びゲイン乗算部336が追加されている点を除いて、実施の形態2に係る音響信号処理装置200と同様に構成されている。
 但し、第1の相関成分分離部110は、分離された左チャネル非相関成分信号S3を、ゲイン乗算部335に与え、第2の相関成分分離部120は、分離された右チャネル非相関成分信号S5をゲイン乗算部336に与える。
 また、第1の信号加算部132は、ゲイン乗算部335から与えられる乗算左チャネル非相関成分信号S12と、相関成分信号S8とを加算し、第2の信号加算部133は、ゲイン乗算部336から与えられる乗算右チャネル非相関成分信号S13と、相関成分信号S8とを加算する。
 ゲイン乗算部335は、左チャネル非相関成分信号S3を受けて、その左チャネル非相関成分信号S3に対して、ゲインを乗算し、ゲイン乗算された左チャネル非相関成分信号を、乗算左チャネル非相関成分信号S12として、第1の信号加算部132に与える。ここで、左チャネル非相関成分信号S3は、人の声以外の成分を多く含むので、重畳するゲインは1よりも小さい値が望ましい。また、ゲインの値は、固定値であってもよいし、上述のようにGUIを用いてユーザが設定する可変値でもよい。
 ゲイン乗算部336は、右チャネル非相関成分信号S5を受けて、その右チャネル非相関成分信号S5に対して、ゲインを乗算し、ゲイン乗算された右チャネル非相関成分信号を、乗算右チャネル非相関成分信号S13として、第2の信号加算部133に与える。ここで、右チャネル非相関成分信号S5は、人の声以外の成分を多く含むので、重畳するゲインは1よりも小さい値が望ましい。また、ゲインの値は、固定値であってもよいし、上述のようにGUIを用いてユーザが設定する可変値でもよい。
 以上のように、実施の形態3によれば、ゲイン乗算部335、336により、人の声以外の成分の音量を小さくすることができるので、人の声の明瞭度がさらに改善するという効果を得ることができる。
 実施の形態3において、帯域強調部234が備えられていなくてもよい。
 100,200,300 音響信号処理装置、 110 第1の相関成分分離部、 111 第1の予測部、 112 第1の非相関成分算出部、 120 第2の相関成分分離部、 121 第2の予測部、 122 第2の非相関成分算出部、 130 相関成分合成部、 131 ゲイン乗算部、 132 第1の信号加算部、 133 第2の信号加算部、 234 帯域強調部、 335 ゲイン乗算部、 336 ゲイン乗算部。

Claims (5)

  1.  第1の信号及び第2の信号の入力を受ける音響信号処理装置であって、
     予め定められた期間における前記第2の信号から前記第1の信号を予測することで、前記第2の信号において前記第1の信号と相関関係にある第1の相関成分信号を生成し、前記第1の相関成分信号の逆位相の信号を前記第1の信号に加算することで、前記第1の信号から、前記第2の信号と相関関係にない第1の非相関成分信号を分離する第1の相関成分分離部と、
     前記予め定められた期間における前記第1の信号から前記第2の信号を予測することで、前記第1の信号において前記第2の信号と相関関係にある第2の相関成分信号を生成し、前記第2の相関成分信号の逆位相の信号を前記第2の信号に加算することで、前記第2の信号から、前記第1の信号と相関関係にない第2の非相関成分信号を分離する第2の相関成分分離部と、
     前記第1の相関成分信号と前記第2の相関成分信号とを合成して、合成相関成分信号を生成する相関成分合成部と、
     前記合成相関成分信号にゲインを乗算して、相関成分信号を生成する第1のゲイン乗算部と、
     前記相関成分信号と前記第1の非相関成分信号とを加算する第1の信号加算部と、
     前記相関成分信号と前記第2の非相関成分信号とを加算する第2の信号加算部と、を備えること
     を特徴とする音響信号処理装置。
  2.  前記合成相関成分信号に対して、人が聞き取りやすい帯域を強調するディジタルフィルタを施す帯域強調部をさらに備え、
     前記第1のゲイン乗算部は、前記帯域強調部により強調された前記合成相関成分信号に前記ゲインを乗算すること
     を特徴とする請求項1に記載の音響信号処理装置。
  3.  前記第1の非相関成分信号に対して、ゲインを乗算する第2のゲイン乗算部と、
     前記第2の非相関成分信号に対して、ゲインを乗算する第3のゲイン乗算部と、をさらに備え、
     前記第1の信号加算部は、前記相関成分信号と前記第2のゲイン乗算部により処理された前記第1の非相関成分信号とを加算し、
     前記第2の信号加算部は、前記相関成分信号と前記第3のゲイン乗算部により処理された前記第2の非相関成分信号とを加算すること
     を特徴とする請求項1又は2に記載の音響信号処理装置。
  4.  前記第1のゲイン乗算部、前記第2のゲイン乗算部及び前記第3のゲイン乗算部の少なくとも一つで使用されるゲインの値を変更することができるようにされていること
     を特徴とする請求項3に記載の音響信号処理装置。
  5.  第1の信号及び第2の信号の入力を受け、
     予め定められた期間における前記第2の信号から前記第1の信号を予測することで、前記第2の信号において前記第1の信号と相関関係にある第1の相関成分信号を生成し、
     前記第1の相関成分信号の逆位相の信号を前記第1の信号に加算することで、前記第1の信号から、前記第2の信号と相関関係にない第1の非相関成分信号を分離し、
     前記予め定められた期間における前記第1の信号から前記第2の信号を予測することで、前記第1の信号において前記第2の信号と相関関係にある第2の相関成分信号を生成し、
     前記第2の相関成分信号の逆位相の信号を前記第2の信号に加算することで、前記第2の信号から、前記第1の信号と相関関係にない第2の非相関成分信号を分離し、
     前記第1の相関成分信号と前記第2の相関成分信号とを合成して、合成相関成分信号を生成し、
     前記合成相関成分信号にゲインを乗算して、相関成分信号を生成し、
     前記相関成分信号と前記第1の非相関成分信号とを加算し、
     前記相関成分信号と前記第2の非相関成分信号とを加算すること
     を特徴とする音響信号処理方法。
PCT/JP2018/004585 2018-02-09 2018-02-09 音響信号処理装置及び音響信号処理方法 WO2019155603A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
PCT/JP2018/004585 WO2019155603A1 (ja) 2018-02-09 2018-02-09 音響信号処理装置及び音響信号処理方法
US16/966,980 US11076252B2 (en) 2018-02-09 2018-02-09 Audio signal processing apparatus and audio signal processing method
CN201880087908.7A CN111699701B (zh) 2018-02-09 2018-02-09 声音信号处理装置和声音信号处理方法
DE112018006786.6T DE112018006786B4 (de) 2018-02-09 2018-02-09 Audiosignal-Verarbeitungsvorrichtung und Audiosignal-Verarbeitungsverfahren
JP2019570239A JPWO2019155603A1 (ja) 2018-02-09 2018-02-09 音響信号処理装置及び音響信号処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/004585 WO2019155603A1 (ja) 2018-02-09 2018-02-09 音響信号処理装置及び音響信号処理方法

Publications (1)

Publication Number Publication Date
WO2019155603A1 true WO2019155603A1 (ja) 2019-08-15

Family

ID=67548245

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/004585 WO2019155603A1 (ja) 2018-02-09 2018-02-09 音響信号処理装置及び音響信号処理方法

Country Status (5)

Country Link
US (1) US11076252B2 (ja)
JP (1) JPWO2019155603A1 (ja)
CN (1) CN111699701B (ja)
DE (1) DE112018006786B4 (ja)
WO (1) WO2019155603A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012529216A (ja) * 2009-06-05 2012-11-15 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ オーディオ信号のアップミキシング
JP5355690B2 (ja) * 2009-06-01 2013-11-27 三菱電機株式会社 信号処理装置

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5970153A (en) * 1997-05-16 1999-10-19 Harman Motive, Inc. Stereo spatial enhancement system
JP2001069597A (ja) 1999-06-22 2001-03-16 Yamaha Corp 音声処理方法及び装置
JP2005086462A (ja) * 2003-09-09 2005-03-31 Victor Co Of Japan Ltd オーディオ信号再生装置のボーカル音帯域強調回路
JP4963987B2 (ja) * 2007-03-01 2012-06-27 アルパイン株式会社 オーディオ装置
JP5316560B2 (ja) 2011-02-07 2013-10-16 ソニー株式会社 音量補正装置、音量補正方法および音量補正プログラム
US20140056429A1 (en) * 2012-08-27 2014-02-27 Quickfilter Technologies, Llc Spatialization using stereo decorrelation
EP2830064A1 (en) * 2013-07-22 2015-01-28 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for decoding and encoding an audio signal using adaptive spectral tile selection
US9820042B1 (en) * 2016-05-02 2017-11-14 Knowles Electronics, Llc Stereo separation and directional suppression with omni-directional microphones

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5355690B2 (ja) * 2009-06-01 2013-11-27 三菱電機株式会社 信号処理装置
JP2012529216A (ja) * 2009-06-05 2012-11-15 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ オーディオ信号のアップミキシング

Also Published As

Publication number Publication date
JPWO2019155603A1 (ja) 2020-06-11
CN111699701A (zh) 2020-09-22
DE112018006786B4 (de) 2021-12-23
US11076252B2 (en) 2021-07-27
CN111699701B (zh) 2021-07-13
DE112018006786T5 (de) 2020-11-12
US20210044912A1 (en) 2021-02-11

Similar Documents

Publication Publication Date Title
JP6143887B2 (ja) 方法、電子機器およびプログラム
JP5802753B2 (ja) マルチチャンネルオーディオ再生のためのアップミキシング方法及びシステム
CN111970627B (zh) 音频信号的增强方法、装置、存储介质和处理器
JP2006303799A (ja) 音響信号再生装置
JP2008134582A (ja) 音声処理方法および音声処理装置
WO2003096746A1 (fr) Appareil audio et son programme de reproduction
US20060177074A1 (en) Early reflection reproduction apparatus and method of sound field effect reproduction
US8295508B2 (en) Processing an audio signal
JP5577787B2 (ja) 信号処理装置
EP2543199A1 (en) Method and apparatus for upmixing a two-channel audio signal
JP2008517317A (ja) オーディオデータ処理システム、方法、プログラム要素、及びコンピュータ読み取り可能媒体
JP4414905B2 (ja) オーディオ装置
KR20220080146A (ko) 스펙트럼적 직교 오디오 성분들을 사용하는 부대역 공간 및 크로스토크 처리
JP2013007944A (ja) 信号処理装置、信号処理方法、及び、プログラム
JP5430263B2 (ja) オーディオ装置
JP5052460B2 (ja) 音量制御装置
JP3888239B2 (ja) デジタル音声処理方法及び装置、並びにコンピュータプログラム
WO2019155603A1 (ja) 音響信号処理装置及び音響信号処理方法
JP4368917B2 (ja) 音響再生装置
JP2008072600A (ja) 音響信号処理装置、音響信号処理プログラム、音響信号処理方法
JP2023544253A (ja) バイノーラル記録を処理するための方法及びデバイス
JP4963987B2 (ja) オーディオ装置
JP4335752B2 (ja) 擬似ステレオ信号生成装置および擬似ステレオ信号生成プログラム
JP2009206612A (ja) 音響装置、音声再生方法、音声再生プログラム及びその記録媒体
US20230085013A1 (en) Multi-channel decomposition and harmonic synthesis

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18904514

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019570239

Country of ref document: JP

Kind code of ref document: A

122 Ep: pct application non-entry in european phase

Ref document number: 18904514

Country of ref document: EP

Kind code of ref document: A1