TWI783215B - 信號處理系統及其信號降噪的判定方法與信號補償方法 - Google Patents

信號處理系統及其信號降噪的判定方法與信號補償方法 Download PDF

Info

Publication number
TWI783215B
TWI783215B TW109107165A TW109107165A TWI783215B TW I783215 B TWI783215 B TW I783215B TW 109107165 A TW109107165 A TW 109107165A TW 109107165 A TW109107165 A TW 109107165A TW I783215 B TWI783215 B TW I783215B
Authority
TW
Taiwan
Prior art keywords
signal
noise
noise reduction
spectrum
determining
Prior art date
Application number
TW109107165A
Other languages
English (en)
Other versions
TW202135520A (zh
Inventor
卓卿安
陳裕彥
黃國庭
Original Assignee
緯創資通股份有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 緯創資通股份有限公司 filed Critical 緯創資通股份有限公司
Priority to TW109107165A priority Critical patent/TWI783215B/zh
Priority to CN202010240424.0A priority patent/CN113362838B/zh
Priority to US16/881,735 priority patent/US11380346B2/en
Publication of TW202135520A publication Critical patent/TW202135520A/zh
Application granted granted Critical
Publication of TWI783215B publication Critical patent/TWI783215B/zh

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • G10L21/0232Processing in the frequency domain
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/18Complex mathematical operations for evaluating statistical data, e.g. average values, frequency distributions, probability functions, regression analysis
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/06Transformation of speech into a non-audible representation, e.g. speech visualisation or speech processing for tactile aids
    • G10L21/10Transforming into visible information

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Quality & Reliability (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Theoretical Computer Science (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Pure & Applied Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Software Systems (AREA)
  • Probability & Statistics with Applications (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Algebra (AREA)
  • Evolutionary Biology (AREA)
  • Databases & Information Systems (AREA)
  • Operations Research (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Measurement Of Mechanical Vibrations Or Ultrasonic Waves (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Measuring Pulse, Heart Rate, Blood Pressure Or Blood Flow (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)

Abstract

一種信號降噪的判定方法,包含轉換該信號以產生時頻譜;決定時頻譜當中每一行之頻譜是否具急劇變化;及計數具急劇變化的行數目,並與預設值做比較。若具急劇變化的行數目大於預設值,表示信號經過降噪。

Description

信號處理系統及其信號降噪的判定方法與信號補償方法
本發明係有關信號處理,特別是關於一種信號降噪的判定方法與信號補償方法。
網路監視器(Internet protocol camera或IP cam)是數位攝影機的一種,藉由網際網路以傳送影像資料,可用於監視或其他應用。網路監視器除了傳送影像資料,也可同時傳送聲音資料。
網路監視器的聲音資料可用以提供額外的服務,例如用於偵測嬰兒的哭聲。在一應用例中,使用深層類神經網路(例如卷積神經網路(convolutional neural network, CNN))訓練一個聲音的模型(model),據以後續進行聲音辨識。作為訓練用之資料集(dataset),通常是未經過降噪(noise reduction)處理的。然而,當進行聲音辨識時,很多麥克風在擷取聲音時則會進行降噪。因此,使用這類麥克風的網路監視器,其聲音辨識率會有降低的現象。
因此亟需提出一種新穎的機制,用以避免傳統網路監視器的缺失,以提高聲音辨識率。
鑑於上述,本發明實施例的目的之一在於提出一種信號降噪的判定方法與信號補償方法,用以判定信號是否經過降噪處理,並根據判定結果對信號進行補償。
根據本發明實施例之信號降噪的判定方法,轉換信號以產生時頻譜。決定時頻譜當中每一行之頻譜是否具急劇變化。計數具急劇變化的行數目,並與預設值做比較。若具急劇變化的行數目大於預設值,表示信號經過降噪。
第一圖顯示本發明實施例之聲音補償方法100的流程圖,可適用於聲音辨識(recognition)的應用,例如深層類神經網路(deep neural network)的聲音辨識。第二圖顯示本發明實施例之聲音補償系統200的方塊圖。本實施例雖以聲音補償作為例示,然而本發明可普遍適用於其他種類(電子)信號(例如影像信號)的補償。
於步驟11,使用換能器(transducer),將物理量(physical quantity)轉換為電子信號。在本實施例中,使用麥克風21,將聲波(sound wave)轉換為聲音信號。在一實施例中,麥克風21係設於網路監視器22,用以偵測嬰兒哭聲。如果已知麥克風21於接收聲音時會進行降噪(可為被動降噪或主動降噪),則流程進入步驟17以進行信號補償,否則執行步驟12~16以進行信號降噪的判定。
於步驟12,使用記錄器(recorder)對信號進行取樣與類比至數位轉換,以利信號處理器25進行後續處理且能儲存於儲存裝置24。在本實施例中,聲音記錄器(sound recorder)23記錄麥克風21所轉換的聲音信號,亦即,對聲音信號進行取樣與類比至數位轉換。第三A圖例示聲音信號的強度(或振幅)時序圖,其縱軸代表信號強度,橫軸代表時間。
於步驟13,信號處理器25接收並處理聲音信號,以找出含有聲音的區段,並捨棄未含有聲音的區段。在本說明書中,含有聲音的區段係指該區段之聲音信號的強度大於預設強度。本實施例找出含有聲音的區段,有利後續判別麥克風21於接收聲音時是否進行降噪。
在一實施例中,於聲音信號的時序圖當中,每隔預設期間(例如100毫秒)取其平均強度,再與預設強度作比較,強度大於預設強度者判定為含有聲音的區段。第三B圖例示於聲音信號的時序圖當中,每隔預設期間取其平均強度。在本實施例中,信號強度的單位為全量程相對分貝(decibel relative to full scale, dBFS),0代表最大強度。於第三B圖所例示時序圖當中,預設強度31為-35 dBFS,大約相當於一般的交談聲量。第三C圖顯示經與預設強度比較後所得到含有聲音的區段32。
於步驟14,信號處理器25轉換(含有聲音區段的)聲音信號以產生時頻譜(spectrogram),在本實施例中為聲譜圖(sonograph),其代表聲音信號的頻譜相對於時間的關係。第三D圖例示聲音信號的聲譜圖,其縱軸代表頻率,橫軸代表時間,每一點(pixel)的亮度則相應於能量強度的大小(例如,能量強度愈大則點愈亮)。在本實施例中,聲譜圖之時間的單位使用行(frame),其根據信號的取樣頻率而得到。鑑於人耳對赫茲(Hz)頻率的感知並非呈線性關係,因此在本實施例中,頻率的單位係使用梅爾頻率(mel frequency)fmel ,使得人耳對頻率的感知可呈線性關係。梅爾頻率f­mel 與赫茲(Hz)頻率fHz 的關係可表示為:fmel =2595xlog10 (1+fHz /700)。
於步驟15,信號處理器25決定聲譜圖當中每一行(frame)之頻譜是否具急劇變化(sharp change),用以判別麥克風21於接收聲音時是否進行降噪。在本實施例中,每一行之頻譜若具有至少一信號斜率大於預設斜率值,則該行判定為具急劇變化。在另一實施例中,每一行之頻譜若具有至少二信號斜率大於預設斜率值,則該行判定為具急劇變化。概括而言,對於每一行之頻譜,若信號斜率大於預設斜率值的數目等於或大於預設閥值,則該行判定為具急劇變化。
第四圖顯示第一圖之步驟15的細部流程圖。於步驟151,根據目前行(frame)的頻譜,將能量強度予以排序。第五A圖例示目前行的頻譜,其縱軸代表能量強度,橫軸代表頻率。例如,將能量強度由小至大排序後可得到[-80,-80,-78.5,…,-21,-20,-16]。
接著,於步驟152,根據複數(例如排序後的前10%)最小能量強度,取其平均值作為波谷閥值51(第五A圖);根據複數(例如排序後的後20%)最大能量強度,取其平均值作為波峰閥值52(第五A圖)。
於步驟153,根據波谷閥值51,於頻譜(如第五A圖所示)當中決定波谷點。如第五B圖所示局部放大頻譜,於波谷閥值51轉折處,最後一個小於波谷閥值51者為波谷點53。根據波峰閥值52,於頻譜當中決定波峰點。如第五C圖所示局部放大頻譜,於波峰閥值52轉折處,第一個大於波峰閥值52者為波峰點54。
於步驟154,將相鄰波谷點53與波峰點54配對。第五D圖例示波谷點53與波峰點54的配對55,其中波谷點53位波峰點54的左側。
於步驟155,決定每一配對55當中波谷點53與波峰點54連線的斜率。接著,於步驟156,決定目前行中斜率大於預設斜率值的配對55數目是否等於或大於預設閥值。如果步驟156的決定為肯定,則表示目前行具急劇變化(步驟157),否則表示目前行不具急劇變化(步驟158)。第五E圖例示目前行存在有一配對55,其斜率大於預設斜率值(其相當於75度)。對於聲譜圖的每一行(或部分行),重複執行上述步驟151至157。
回到第一圖,於步驟16,計數具急劇變化的行(frame)數目,並與預設值作比較。如果具急劇變化的行數目大於預設值(例如大於全部的二分之一),表示麥克風21於接收聲音時確實進行降噪,則流程進入步驟17,用以對聲音信號進行補償。
於步驟17,使用合成器26將麥克風21所轉換的聲音信號與雜訊源27所提供的雜訊予以相加,以得到補償信號。在本實施例中,雜訊源27係提供加成性高斯白雜訊(additive white Gaussian noise, AWGN),其能量密度在整個頻域內係均勻分布的。在本實施例中,根據信噪比(SNR)以決定所加入雜訊的比例。信噪比愈高,表示加入的雜訊能量愈低;反之,信噪比愈低,表示加入的雜訊能量愈高。
第六圖顯示第一圖之步驟17的細部流程圖。首先,於步驟171,根據補償前的聲譜圖(如第三D圖所例示)以得到補償前的相應能量直方圖。第七A圖例示補償前的能量直方圖,其橫軸代表能量強度,縱軸代表點(pixel)數。在一實施例中,根據聲譜圖,於每一個能量區間(例如5dB),計數其相應點的數目,據以得到能量直方圖。於步驟172,根據加入雜訊後的聲譜圖,以得到相應的能量直方圖。
於步驟173,比較補償前之能量直方圖的標準差與加入雜訊後之能量直方圖的標準差。如果加入雜訊後的(第二)標準差相較於補償前的(第一)標準差之增加比例值(percentage increase)介於預設範圍(例如7-13%)內,則結束聲音信號的補償;否則,調整雜訊源27的雜訊(步驟174),回到步驟172,重新得到相應能量直方圖及標準差。
第七B圖例示補償後的能量直方圖,其標準差為2515。相較於第七A圖所示補償前的能量直方圖(其標準差為2277),補償後的標準差相較於補償前的標準差之增加比例值為10.4%,其介於預設範圍(7-13%)內。
以上所述僅為本發明之較佳實施例而已,並非用以限定本發明之申請專利範圍;凡其它未脫離發明所揭示之精神下所完成之等效改變或修飾,均應包含在下述之申請專利範圍內。
100:聲音補償方法 11:決定麥克風是否降噪 12:記錄聲音信號 13:找出含有聲音的區段 14:產生聲譜圖 15:決定聲譜圖每一行之頻譜是否具急劇變化 151:將目前行的能量強度予以排序 152:決定波谷閥值與波峰閥值 153:根據閥值以決定波谷點與波峰點 154:將相鄰波谷點與波峰點配對 155:決定配對的斜率 156:決定斜率大於預設斜率值的配對數目是否等於或大於預設閥值 157:具急劇變化 158:不具急劇變化 16:決定具急劇變化的行數是否大於預設值 17:對聲音信號進行補償 171:得到補償前的能量直方圖 172:得到加入雜訊後的能量直方圖 173:決定標準差增加比例值是否介於預設範圍 174:調整雜訊 200:聲音補償系統 21:麥克風 22:網路監視器 23:聲音記錄器 24:儲存裝置 25:信號處理器 26:合成器 27:雜訊源 31:預設強度 32:含有聲音的區段 51:波谷閥值 52:波峰閥值 53:波谷點 54:波峰點 55:配對
第一圖顯示本發明實施例之聲音補償方法的流程圖。 第二圖顯示本發明實施例之聲音補償系統的方塊圖。 第三A圖例示聲音信號的強度時序圖。 第三B圖例示於聲音信號的時序圖當中,每隔預設期間取其平均強度。 第三C圖顯示經與預設強度比較後所得到含有聲音的區段。 第三D圖例示聲音信號的聲譜圖。 第四圖顯示第一圖之步驟15的細部流程圖。 第五A圖例示目前行的頻譜。 第五B圖至第五C圖例示局部放大頻譜。 第五D圖例示波谷點與波峰點的配對。 第五E圖例示目前行存在有配對,其斜率大於預設斜率值。 第六圖顯示第一圖之步驟17的細部流程圖。 第七A圖例示補償前的能量直方圖。 第七B圖例示補償後的能量直方圖。
100:聲音補償方法
11:決定麥克風是否降噪
12:記錄聲音信號
13:找出含有聲音的區段
14:產生聲譜圖
15:決定聲譜圖每一行之頻譜是否具急劇變化
16:決定具急劇變化的行數是否大於預設值
17:對聲音信號進行補償

Claims (18)

  1. 一種信號降噪的判定方法,包含:(a)轉換該信號以產生一時頻譜;(b)決定該時頻譜當中每一行之頻譜是否具急劇變化;及(c)計數具急劇變化的行數目,並與一預設值做比較;其中若具急劇變化的行數目大於該預設值,表示該信號經過降噪;其中該步驟(b)包含:於該頻譜當中決定至少一波谷點及至少一波峰點;將相鄰的該波谷點與該波峰點配對;決定每一行中配對的斜率,若斜率大於一預設斜率值的配對數目等於或大於一預設閥值,則相應行之頻譜具急劇變化。
  2. 如請求項1之信號降噪的判定方法,更包含以下步驟:(d)對經過降噪之該信號進行補償。
  3. 如請求項2之信號降噪的判定方法,其中該步驟(d)包含:加入一雜訊至經過降噪之該信號。
  4. 如請求項3之信號降噪的判定方法,其中該雜訊包含加成性高斯白雜訊。
  5. 如請求項1之信號降噪的判定方法,其中該步驟(b)包含:根據一波谷閥值,於該頻譜當中決定該至少一波谷點,且根據一波峰閥值,於該頻譜當中決定該至少一波峰點。
  6. 如請求項5之信號降噪的判定方法,其中該步驟(b)更包含: 根據該頻譜當中複數最小能量強度,取其平均值作為該波谷閥值,且根據該頻譜當中複數最大能量強度,取其平均值作為該波峰閥值。
  7. 如請求項1之信號降噪的判定方法,更包含:將一物理量轉換為該信號。
  8. 如請求項7之信號降噪的判定方法,更包含:處理該信號以找出含有該物理量的區段,並捨棄未含有該物理量的區段。
  9. 如請求項1之信號降噪的判定方法,其中該信號為聲音信號。
  10. 如請求項9之信號降噪的判定方法,其中該時頻譜的頻率單位為梅爾頻率。
  11. 一種信號補償方法,包含:根據補償前的該信號,以得到補償前的能量直方圖,其相應一第一標準差;根據加入雜訊的該信號,以得到加入雜訊的能量直方圖,其相應一第二標準差;比較該第二標準差與該第一標準差,以得到增加比例值;及若該增加比例值未介於一預設範圍,則調整加入的雜訊並得到一新的增加比例值,直到該新的增加比例值介於該預設範圍。
  12. 如請求項11之信號補償方法,其中該雜訊包含加成性高斯白雜訊。
  13. 如請求項11之信號補償方法,其中該信號為聲音信號。
  14. 一種信號處理系統,包含:一換能器,將一物理量轉換為該信號;一信號處理器,執行以下步驟:(a)轉換該信號以產生一時頻譜;(b)決定該時頻譜當中每一行之頻譜是否具急劇變化;及(c)計數具急劇變化的行數目,並與一預設值做比較,其中若具急劇變化的行數目大於該預設值,表示該信號經過降噪;一雜訊源,提供一雜訊;及一合成器,將該雜訊加入經過降噪的該信號,以得到一補償信號;其中該步驟(b)包含:於該頻譜當中決定至少一波谷點及至少一波峰點;將相鄰的該波谷點與該波峰點配對;決定每一行中配對的斜率,若斜率大於一預設斜率值的配對數目等於或大於一預設閥值,則相應行之頻譜具急劇變化。
  15. 如請求項14之信號處理系統,其中該雜訊包含加成性高斯白雜訊。
  16. 如請求項14之信號處理系統,更包含:一記錄器,對該信號進行取樣與類比至數位轉換,以記錄該信號;及一儲存裝置,用以儲存該記錄的信號。
  17. 如請求項14之信號處理系統,其中該信號為聲音信號。
  18. 如請求項17之信號處理系統,其中該時頻譜的頻率單位為梅爾頻率。
TW109107165A 2020-03-05 2020-03-05 信號處理系統及其信號降噪的判定方法與信號補償方法 TWI783215B (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
TW109107165A TWI783215B (zh) 2020-03-05 2020-03-05 信號處理系統及其信號降噪的判定方法與信號補償方法
CN202010240424.0A CN113362838B (zh) 2020-03-05 2020-03-31 信号处理***及其信号降噪的判定方法与信号补偿方法
US16/881,735 US11380346B2 (en) 2020-03-05 2020-05-22 Signal processing system and a method of determining noise reduction and compensation thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
TW109107165A TWI783215B (zh) 2020-03-05 2020-03-05 信號處理系統及其信號降噪的判定方法與信號補償方法

Publications (2)

Publication Number Publication Date
TW202135520A TW202135520A (zh) 2021-09-16
TWI783215B true TWI783215B (zh) 2022-11-11

Family

ID=77524368

Family Applications (1)

Application Number Title Priority Date Filing Date
TW109107165A TWI783215B (zh) 2020-03-05 2020-03-05 信號處理系統及其信號降噪的判定方法與信號補償方法

Country Status (3)

Country Link
US (1) US11380346B2 (zh)
CN (1) CN113362838B (zh)
TW (1) TWI783215B (zh)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104715771A (zh) * 2013-12-12 2015-06-17 展讯通信(上海)有限公司 信号降噪
CN106340303A (zh) * 2016-09-20 2017-01-18 南京朗逸锐科电子科技有限公司 一种基于时间频率域的语音降噪方法
CN109720288A (zh) * 2017-10-27 2019-05-07 比亚迪股份有限公司 一种主动降噪方法、***及新能源车

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100207689A1 (en) * 2007-09-19 2010-08-19 Nec Corporation Noise suppression device, its method, and program
US8473283B2 (en) * 2007-11-02 2013-06-25 Soundhound, Inc. Pitch selection modules in a system for automatic transcription of sung or hummed melodies
WO2010146711A1 (ja) * 2009-06-19 2010-12-23 富士通株式会社 音声信号処理装置及び音声信号処理方法
US9848800B1 (en) * 2009-10-16 2017-12-26 Masimo Corporation Respiratory pause detector
JP5903921B2 (ja) * 2012-02-16 2016-04-13 株式会社Jvcケンウッド ノイズ低減装置、音声入力装置、無線通信装置、ノイズ低減方法、およびノイズ低減プログラム
US9280984B2 (en) * 2012-05-14 2016-03-08 Htc Corporation Noise cancellation method
US9721580B2 (en) * 2014-03-31 2017-08-01 Google Inc. Situation dependent transient suppression
EP3220386A1 (en) * 2016-03-18 2017-09-20 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for harmonic-percussive-residual sound separation using a structure tensor on spectrograms
US10269375B2 (en) * 2016-04-22 2019-04-23 Conduent Business Services, Llc Methods and systems for classifying audio segments of an audio signal
JP2018074382A (ja) * 2016-10-28 2018-05-10 パイオニア株式会社 ノイズ検出装置及びノイズ検出方法
CN108241846B (zh) * 2016-12-26 2021-03-05 同方威视技术股份有限公司 用于识别拉曼谱图的方法
US10802572B2 (en) * 2017-02-02 2020-10-13 Stmicroelectronics, Inc. System and method of determining whether an electronic device is in contact with a human body
EP3382700A1 (en) * 2017-03-31 2018-10-03 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for post-processing an audio signal using a transient location detection
CN107822607B (zh) * 2017-09-22 2021-03-16 广东乐心医疗电子股份有限公司 一种估计心血管特性参数的方法、装置及其存储介质
US10860647B2 (en) * 2018-09-06 2020-12-08 Gracenote, Inc. Systems, methods, and apparatus to improve media identification
US11410667B2 (en) * 2019-06-28 2022-08-09 Ford Global Technologies, Llc Hierarchical encoder for speech conversion system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104715771A (zh) * 2013-12-12 2015-06-17 展讯通信(上海)有限公司 信号降噪
CN106340303A (zh) * 2016-09-20 2017-01-18 南京朗逸锐科电子科技有限公司 一种基于时间频率域的语音降噪方法
CN109720288A (zh) * 2017-10-27 2019-05-07 比亚迪股份有限公司 一种主动降噪方法、***及新能源车

Also Published As

Publication number Publication date
US11380346B2 (en) 2022-07-05
TW202135520A (zh) 2021-09-16
US20210280204A1 (en) 2021-09-09
CN113362838B (zh) 2023-10-24
CN113362838A (zh) 2021-09-07

Similar Documents

Publication Publication Date Title
WO2017162115A1 (zh) 一种回声时延检测方法、回声消除芯片及终端设备
CN109273021B (zh) 一种基于rnn的实时会议降噪方法及装置
JP4943032B2 (ja) 同時キャプチャアプリケーションのための自動オーディオゲイン制御
CN107863099B (zh) 一种新型双麦克风语音检测和增强方法
WO2018072325A1 (zh) 一种音频信号的自动增益控制方法和装置
CN110012331B (zh) 一种红外触发的远场双麦远场语音识别方法
US6747581B2 (en) Techniques for variable sample rate conversion
US11605392B2 (en) Automatic gain control based on machine learning level estimation of the desired signal
CN108133712B (zh) 一种处理音频数据的方法和装置
CN111901621A (zh) 一种基于直播内容识别的互动直播教学节流装置和方法
TWI783215B (zh) 信號處理系統及其信號降噪的判定方法與信號補償方法
US10219076B2 (en) Audio signal processing device, audio signal processing method, and storage medium
CN116506785B (zh) 一种封闭空间自动调音***
CN111182416B (zh) 处理方法、装置及电子设备
CN111815877B (zh) 一种白噪声警示方法及装置
CN211792016U (zh) 降噪语音设备及电子设备
CN112235679B (zh) 适用于耳机的信号均衡方法、处理器及耳机
WO2021120795A1 (zh) 采样率处理方法、装置、***、存储介质和计算机设备
US11601750B2 (en) Microphone control based on speech direction
CN108257607B (zh) 一种多通道语音信号处理方法
JPH1084595A (ja) スピーカを内蔵する電子機器及び小型スピーカ内蔵する携帯型電子機器
US20060072576A1 (en) Selecting discard packets in receiver for voice over packet network
CN108133711B (zh) 具有降噪模块的数字信号监测设备
CN108281154B (zh) 一种语音信号的降噪方法
US20230290366A1 (en) Automatic Classification of Audio Content as Either Primarily Speech or Primarily Non-speech, to Facilitate Dynamic Application of Dialogue Enhancement