JP2022500710A - 音響源用の結合音源定位及び分離方法 - Google Patents
音響源用の結合音源定位及び分離方法 Download PDFInfo
- Publication number
- JP2022500710A JP2022500710A JP2021539331A JP2021539331A JP2022500710A JP 2022500710 A JP2022500710 A JP 2022500710A JP 2021539331 A JP2021539331 A JP 2021539331A JP 2021539331 A JP2021539331 A JP 2021539331A JP 2022500710 A JP2022500710 A JP 2022500710A
- Authority
- JP
- Japan
- Prior art keywords
- sound
- time
- sound source
- spherical harmonic
- frequency
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000926 separation method Methods 0.000 title claims abstract description 12
- 230000004807 localization Effects 0.000 title description 6
- 238000000034 method Methods 0.000 claims abstract description 35
- 238000000354 decomposition reaction Methods 0.000 claims abstract description 26
- 230000000670 limiting effect Effects 0.000 claims abstract description 4
- 239000011159 matrix material Substances 0.000 claims description 7
- 238000006243 chemical reaction Methods 0.000 claims description 4
- 239000000203 mixture Substances 0.000 claims 2
- 230000009466 transformation Effects 0.000 claims 2
- 230000001419 dependent effect Effects 0.000 claims 1
- 230000006870 function Effects 0.000 abstract description 23
- 238000005316 response function Methods 0.000 abstract description 11
- 230000015572 biosynthetic process Effects 0.000 description 7
- 238000004364 calculation method Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 238000003491 array Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 230000004043 responsiveness Effects 0.000 description 2
- 230000002441 reversible effect Effects 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000012732 spatial analysis Methods 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0272—Voice signal separating
- G10L21/028—Voice signal separating using properties of sound source
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0272—Voice signal separating
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R3/00—Circuits for transducers, loudspeakers or microphones
- H04R3/005—Circuits for transducers, loudspeakers or microphones for combining the signals of two or more microphones
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
- G10L21/0216—Noise filtering characterised by the method used for estimating noise
- G10L2021/02161—Number of inputs available containing the signal or the noise to be suppressed
- G10L2021/02166—Microphone arrays; Beamforming
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R1/00—Details of transducers, loudspeakers or microphones
- H04R1/20—Arrangements for obtaining desired frequency or directional characteristics
- H04R1/32—Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
- H04R1/40—Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers
- H04R1/406—Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers microphones
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R2430/00—Signal processing covered by H04R, not provided for in its groups
- H04R2430/20—Processing of the output signals of the acoustic transducers of an array for obtaining a desired directivity characteristic
Landscapes
- Engineering & Computer Science (AREA)
- Acoustics & Sound (AREA)
- Physics & Mathematics (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Quality & Reliability (AREA)
- Computational Linguistics (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Otolaryngology (AREA)
- Circuit For Audible Band Transducer (AREA)
- Obtaining Desirable Characteristics In Audible-Bandwidth Transducers (AREA)
Abstract
Description
本発明は、音源の音の到来方向の推定及び音源分離を可能にする方法に関するものであり、この方法は、特定数の方向について球面調和分解係数から計算したステアード(指向)応答関数の辞書ベース表現の空間的重み付けによるものであり、これらの球面調和分解係数は、音場のマイクロホンアレイ録音から、あるいは他の手段を用いることによって、のいずれかで得られる。
複数のマイクロホンから成るマイクロホンアレイを用いて、音響源を録音して、音場の空間的特徴が抽出される。単一のマイクロホンを用いる代わりに複数のマイクロホンを用いることの基本的利点は、音源の音の到来方向を推定する能力、及び音場をフィルタ処理して音場の空間分析を実行する能力にある。時間−周波数領域内でオーバーラップ(重複)する複数の音響信号の到来方向の推定及び分離は、リアルタイムの動作に悪影響を与える重大な技術的困難性を含む。さらに、利用可能な方法は、高レベルの反響音を有する閉鎖環境では良好に機能しない。機械学習を用いる既存の方法の一部では、速度及び異なるマイクロホンアレイへの適応といった問題が生じる。
複数の音源が動作する環境内でマイクロホンを用いて録音された音響信号を、これらの音源の混合音と称する。本発明の主目的は、音源の混合音からの音源の分離を可能にすることにあり、この分離は、有限個の方向について、球面調和分解係数を用いて計算したステアード応答関数の辞書ベース表現の空間的重み付けにより、これらの球面調和分解係数は、音場のマイクロホンアレイ録音から、あるいは他の方法を用いる(例えば、合成する)ことによって、のいずれかで得られる。辞書中に存在し、上記辞書ベース表現において用いられるテンプレート・ベクトルを原子(アトム)と称する。本発明中に開示するアルゴリズムは、平面波を表現する空間的な帯域制限関数の有限個の点で取得したサンプルをその要素として含む(即ち、線形代数的な意味での)ベクトルの使用に基づく。これらの関数は、(球面のような)分析面上の所定位置において計算する。
この詳細な説明では、本発明の好適な実施形態を説明し、これらの実施形態は、限定的効果を何ら有さず、主題をさらに説明するために提供する。
(外1)
は次式のように定義される:
(外2)
、j’ n(・)、及び
(外3)
は球ベッセル関数及び球ハンケル(Hankel)関数であり、その一次微分γaは球状マイクロホンの半径であり、周波数等価関数は次式のように与えられる:
1.最大指向係数のビームを指向させて、分析する時間−周波数ビンについて、球面全体をカバーする異なる方向におけるステアード応答関数を計算して、この所定の時間−周波数ビンについての音場の方向マップを生じさせる。
2.これらの値で形成されるベクトルに、辞書原子から成る行列を乗算して、結果的なベクトル中の最高値に対応する原子を選択する。
3.この原子を用いて得られる近似値を上記ベクトルから減算して、残差ベクトルを形成する。
4.この残差ベクトルに辞書原子から成る行列を乗算して、結果的なベクトル内の最高値に対応する原子を選択する。
5.残差ベクトルのノルムが所定閾値を下回るまで、第3及び第4ステップを反復する。
6.原子の線形結合から成る近似の係数を、最小二乗アルゴリズムを用いることによって得る。
Claims (8)
- コンピュータによって実行され、1つ以上の音源の混合体からの音の到来方向の推定、及び音源の分離を可能にする方法であって、
複数のマイクロホンまたはセンサ、及び/または音場からの1つ以上のデジタル音響信号データの球面調和分解を、インタフェースからの入力として得るステップと、
前記入力が前記複数のマイクロホンまたはセンサからの音響信号データである場合に、前記音響信号データの球面調和分解を実行して、球面調和分解係数の時間−周波数表現を提供するステップと、
前記入力が球面調和分解係数である場合に、該球面調和分解係数の時間−周波数表現を提供するステップと、
所望方向における所望の選択性を有する空間フィルタを形成するステップと、
前記空間フィルタを用いることによって、前記空間調和分解係数からビームを形成するステップと、
前記ビームを所定数の方向へ指向させることによって、前記音場の振幅の方向マップを得るステップと、
非直交テンプレート・ベクトル及び/または非直交行列の冗長列を用いることによって、前記得られた方向マップを有限個の方向要素の組合せとして示すステップと、
前記非直交テンプレート・ベクトル及び/または前記非直交行列が前記時間−周波数表現中に用いられる使用頻度の分布を得るステップと、
前記使用頻度の分布から前記音の到来方向を計算するステップと、
前記時間−周波数表現に、前記計算した音の到来方向に応じた重み付けをするステップと、
前記重み付けした時間−周波数表現からの時間−周波数変換を得るステップと、
時間−周波数逆変換を実行することによって、分離された音源を特定して、該分離された音源を得るステップと
を含む方法。 - コンピュータによって実行され、2つ以上の音源の混合体からの音源の分離を可能にする方法であって、
複数のマイクロホンまたはセンサ、及び/または音場からの1つ以上のデジタル音響信号データを、インタフェースからの入力として得るステップと、
前記入力が前記複数のマイクロホンまたはセンサからの音響信号データである場合に、前記音響信号データの球面調和分解を実行して、球面調和分解係数の時間−周波数表現を提供するステップと、
前記入力が球面調和分解係数である場合に、該球面調和分解係数の時間−周波数表現を提供するステップと、
所望方向における所望の選択性を有する空間フィルタを形成するステップと、
前記空間フィルタを用いることによって、前記空間調和分解係数からビームを形成するステップと、
前記ビームを所定数の方向へ指向させることによって、前記音場の振幅の方向マップを得るステップと、
非直交テンプレート・ベクトル及び/または非直交行列の冗長列を用いることによって、前記得られた方向マップを有限個の方向要素の組合せとして示すステップと、
方向に依存する関数を用いて、前記時間−周波数表現に重み付けをするステップと、
前記重み付けした時間−周波数表現からの時間−周波数変換を得るステップと、
時間−周波数逆変換を実行することによって、分離された音源を特定して、該分離された音源を得るステップと
を含む方法。 - コンピュータによって実行され、1つ以上の音源の音の到来方向の推定を可能にする方法であって、
複数のマイクロホンまたはセンサ、及び/または音場からの1つ以上のデジタル音響信号データの球面調和分解を、インタフェースからの入力として得るステップと、
前記入力が前記複数のマイクロホンまたはセンサからの音響信号データである場合に、前記音響信号データの球面調和分解を実行して、球面調和分解係数の時間−周波数表現を提供するステップと、
前記入力が球面調和分解係数である場合に、該球面調和分解係数の時間−周波数表現を提供するステップと、
所望方向における所望の選択性を有する空間フィルタを形成するステップと、
前記空間フィルタを用いることによって、前記空間調和分解係数からビームを形成するステップと、
前記ビームを所定数の方向へ指向させることによって、前記音場の振幅の方向マップを得るステップと、
非直交テンプレート・ベクトル及び/または非直交行列の冗長列を用いることによって、前記得られた方向マップを有限個の方向要素の組合せとして示すステップと、
前記非直交テンプレート・ベクトル及び/または前記非直交行列が前記時間−周波数表現中に用いられる使用頻度の分布を得るステップと、
前記使用頻度の分布から前記音の到来方向を計算するステップと
を含む方法。 - 前記重み付けに用いる値を、単一の全域的最大値を有する方向関数から例示することを特徴とする、請求項1または2に記載の方法。
- 前記重み付けに用いる値を、前記計算した音の到来方向に応じて適応させることを特徴とする、請求項1、2、4のいずれかに記載の方法。
- 前記非直交テンプレート・ベクトル及び/または前記非直交行列の前記冗長列が、帯域制限関数で形成されることを特徴とする、請求項1〜5のいずれかに記載の方法。
- 前記非直交テンプレート・ベクトル及び/または前記非直交行列の前記冗長列が、方向定位関数から例示される、請求項1〜6のいずれかに記載の方法。
- 前記非直交テンプレート・ベクトル及び/または前記非直交行列の前記冗長列が、実数値関数から例示される、請求項1〜7のいずれかに記載の方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
TR2018/13344 | 2018-09-17 | ||
TR201813344 | 2018-09-17 | ||
PCT/TR2019/050763 WO2020060519A2 (en) | 2018-09-17 | 2019-09-16 | Joint source localization and separation method for acoustic sources |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022500710A true JP2022500710A (ja) | 2022-01-04 |
JP7254938B2 JP7254938B2 (ja) | 2023-04-10 |
Family
ID=69888810
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021539331A Active JP7254938B2 (ja) | 2018-09-17 | 2019-09-16 | 音響源用の結合音源定位及び分離方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US11482239B2 (ja) |
EP (1) | EP3853628A4 (ja) |
JP (1) | JP7254938B2 (ja) |
WO (1) | WO2020060519A2 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115061089B (zh) * | 2022-05-12 | 2024-02-23 | 苏州清听声学科技有限公司 | 一种声源定位方法、***、介质、设备及装置 |
CN116008911B (zh) * | 2022-12-02 | 2023-08-22 | 南昌工程学院 | 一种基于新型原子匹配准则的正交匹配追踪声源识别方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016152511A1 (ja) * | 2015-03-23 | 2016-09-29 | ソニー株式会社 | 音源分離装置および方法、並びにプログラム |
JP2018063200A (ja) * | 2016-10-14 | 2018-04-19 | 日本電信電話株式会社 | 音源位置推定装置、音源位置推定方法、及びプログラム |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5706782B2 (ja) * | 2010-08-17 | 2015-04-22 | 本田技研工業株式会社 | 音源分離装置及び音源分離方法 |
US9558762B1 (en) * | 2011-07-03 | 2017-01-31 | Reality Analytics, Inc. | System and method for distinguishing source from unconstrained acoustic signals emitted thereby in context agnostic manner |
JP5791081B2 (ja) * | 2012-07-19 | 2015-10-07 | 日本電信電話株式会社 | 音源分離定位装置、方法、及びプログラム |
US9706298B2 (en) * | 2013-01-08 | 2017-07-11 | Stmicroelectronics S.R.L. | Method and apparatus for localization of an acoustic source and acoustic beamforming |
US9460732B2 (en) * | 2013-02-13 | 2016-10-04 | Analog Devices, Inc. | Signal source separation |
WO2015013058A1 (en) * | 2013-07-24 | 2015-01-29 | Mh Acoustics, Llc | Adaptive beamforming for eigenbeamforming microphone arrays |
TW201543472A (zh) * | 2014-05-15 | 2015-11-16 | 湯姆生特許公司 | 即時音源分離之方法及系統 |
EP3007467B1 (en) * | 2014-10-06 | 2017-08-30 | Oticon A/s | A hearing device comprising a low-latency sound source separation unit |
WO2016100460A1 (en) * | 2014-12-18 | 2016-06-23 | Analog Devices, Inc. | Systems and methods for source localization and separation |
JP6543843B2 (ja) * | 2015-06-18 | 2019-07-17 | 本田技研工業株式会社 | 音源分離装置、および音源分離方法 |
US10356514B2 (en) * | 2016-06-15 | 2019-07-16 | Mh Acoustics, Llc | Spatial encoding directional microphone array |
JP6703460B2 (ja) * | 2016-08-25 | 2020-06-03 | 本田技研工業株式会社 | 音声処理装置、音声処理方法及び音声処理プログラム |
-
2019
- 2019-09-16 US US17/270,075 patent/US11482239B2/en active Active
- 2019-09-16 EP EP19861705.2A patent/EP3853628A4/en active Pending
- 2019-09-16 WO PCT/TR2019/050763 patent/WO2020060519A2/en unknown
- 2019-09-16 JP JP2021539331A patent/JP7254938B2/ja active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016152511A1 (ja) * | 2015-03-23 | 2016-09-29 | ソニー株式会社 | 音源分離装置および方法、並びにプログラム |
JP2018063200A (ja) * | 2016-10-14 | 2018-04-19 | 日本電信電話株式会社 | 音源位置推定装置、音源位置推定方法、及びプログラム |
Non-Patent Citations (2)
Title |
---|
MERT BURKAY COTELI ET AL.: ""Multiple Sound Source Localization With Steered Response Power Density and Hierarchical Grid Refine", IEEE/ACM TRANSACTIONS ON AUDIO, AND SPEECH, AND LANGUAGE PROCESSING, vol. 26, no. 11, JPN6022025630, 24 July 2018 (2018-07-24), pages 2215 - 2229, XP058416599, ISSN: 0004804891, DOI: 10.1109/TASLP.2018.2858932 * |
上山了介 他: ""球面マイクロホンアレイのビームフォーマ出力を利用したポストフィルタの設計とドローンへの応用"", 日本音響学会2018年秋季研究発表会講演論文集CD-ROM, JPN6022025628, 14 September 2018 (2018-09-14), pages 283 - 284, ISSN: 0004804892 * |
Also Published As
Publication number | Publication date |
---|---|
WO2020060519A2 (en) | 2020-03-26 |
JP7254938B2 (ja) | 2023-04-10 |
WO2020060519A3 (en) | 2020-06-04 |
EP3853628A4 (en) | 2022-03-16 |
US11482239B2 (en) | 2022-10-25 |
US20210225386A1 (en) | 2021-07-22 |
EP3853628A2 (en) | 2021-07-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3320692B1 (en) | Spatial audio processing apparatus | |
US9578439B2 (en) | Method, system and article of manufacture for processing spatial audio | |
JP6230602B2 (ja) | オーディオ再生のためのオーディオ音場表現をレンダリングするための方法および装置 | |
JP6987075B2 (ja) | オーディオ源分離 | |
US20060188111A1 (en) | Microphone apparatus | |
EP3414919A1 (en) | Microphone probe, method, system and computer program product for audio signals processing | |
JP7254938B2 (ja) | 音響源用の結合音源定位及び分離方法 | |
CN114089279A (zh) | 一种基于均匀同心圆麦克风阵列的声目标定位方法 | |
Zhang et al. | Deep learning-based direction-of-arrival estimation for multiple speech sources using a small scale array | |
JP2019054344A (ja) | フィルタ係数算出装置、収音装置、その方法、及びプログラム | |
WO2018053050A1 (en) | Audio signal processor and generator | |
JP3949074B2 (ja) | 目的信号抽出方法及びその装置、目的信号抽出プログラム及びその記録媒体 | |
Georgiou et al. | Incorporating directivity in the Fourier pseudospectral time-domain method using spherical harmonics | |
Çöteli et al. | Multiple sound source localization with rigid spherical microphone arrays via residual energy test | |
Torres et al. | Room acoustics analysis using circular arrays: An experimental study based on sound field plane-wave decomposition | |
JP4738284B2 (ja) | ブラインド信号抽出装置、その方法、そのプログラム、及びそのプログラムを記録した記録媒体 | |
Antonello et al. | Joint source localization and dereverberation by sound field interpolation using sparse regularization | |
Ðurković et al. | Low latency localization of multiple sound sources in reverberant environments | |
Swanson et al. | Small-aperture array processing for passive multi-target angle of arrival estimation | |
JP4920270B2 (ja) | 信号到来方向推定装置及び方法、並びに信号分離装置及び方法、コンピュータプログラム | |
CN113030983B (zh) | 一种基于测深侧扫声纳的近场逐点聚焦doa方法 | |
Sharma et al. | Development of a speech separation system using frequency domain blind source separation technique | |
Koldovský et al. | Dictionary-Based Sparse Reconstruction of Incomplete Relative Transfer Functions | |
Jin et al. | SUPER-RESOLUTION SOUND FIELD ANALYSES | |
Vincent et al. | Audio applications |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210511 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220530 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220621 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20220920 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221107 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230307 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230329 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7254938 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |