JP7210602B2 - オーディオ信号の処理用の方法及び装置 - Google Patents
オーディオ信号の処理用の方法及び装置 Download PDFInfo
- Publication number
- JP7210602B2 JP7210602B2 JP2020545268A JP2020545268A JP7210602B2 JP 7210602 B2 JP7210602 B2 JP 7210602B2 JP 2020545268 A JP2020545268 A JP 2020545268A JP 2020545268 A JP2020545268 A JP 2020545268A JP 7210602 B2 JP7210602 B2 JP 7210602B2
- Authority
- JP
- Japan
- Prior art keywords
- audio signal
- head
- channel audio
- processed
- target user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000005236 sound signal Effects 0.000 title claims description 286
- 238000000034 method Methods 0.000 title claims description 72
- 238000012545 processing Methods 0.000 title claims description 59
- 230000006870 function Effects 0.000 claims description 38
- 238000012546 transfer Methods 0.000 claims description 32
- 238000004590 computer program Methods 0.000 claims description 11
- 238000010801 machine learning Methods 0.000 claims description 8
- 238000012549 training Methods 0.000 claims description 6
- 210000003128 head Anatomy 0.000 description 238
- 238000010586 diagram Methods 0.000 description 13
- 238000013528 artificial neural network Methods 0.000 description 10
- 239000013598 vector Substances 0.000 description 9
- 238000004891 communication Methods 0.000 description 8
- 230000000694 effects Effects 0.000 description 7
- 230000008569 process Effects 0.000 description 6
- 210000005069 ears Anatomy 0.000 description 4
- 238000000605 extraction Methods 0.000 description 4
- 238000012805 post-processing Methods 0.000 description 4
- XOFYZVNMUHMLCC-ZPOLXVRWSA-N prednisone Chemical compound O=C1C=C[C@]2(C)[C@H]3C(=O)C[C@](C)([C@@](CC4)(O)C(=O)CO)[C@@H]4[C@@H]3CCC2=C1 XOFYZVNMUHMLCC-ZPOLXVRWSA-N 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 230000004807 localization Effects 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000035479 physiological effects, processes and functions Effects 0.000 description 2
- 230000035807 sensation Effects 0.000 description 2
- 238000011426 transformation method Methods 0.000 description 2
- 210000005252 bulbus oculi Anatomy 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S7/00—Indicating arrangements; Control arrangements, e.g. balance control
- H04S7/30—Control circuits for electronic adaptation of the sound field
- H04S7/302—Electronic adaptation of stereophonic sound system to listener position or orientation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S7/00—Indicating arrangements; Control arrangements, e.g. balance control
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S1/00—Two-channel systems
- H04S1/002—Non-adaptive circuits, e.g. manually adjustable or static, for enhancing the sound image or the spatial distribution
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S7/00—Indicating arrangements; Control arrangements, e.g. balance control
- H04S7/30—Control circuits for electronic adaptation of the sound field
- H04S7/302—Electronic adaptation of stereophonic sound system to listener position or orientation
- H04S7/303—Tracking of listener position or orientation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S7/00—Indicating arrangements; Control arrangements, e.g. balance control
- H04S7/30—Control circuits for electronic adaptation of the sound field
- H04S7/307—Frequency adjustment, e.g. tone control
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R2201/00—Details of transducers, loudspeakers or microphones covered by H04R1/00 but not provided for in any of its subgroups
- H04R2201/40—Details of arrangements for obtaining desired directional characteristic by combining a number of identical transducers covered by H04R1/40 but not provided for in any of its subgroups
- H04R2201/403—Linear arrays of transducers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R2499/00—Aspects covered by H04R or H04S not otherwise provided for in their subgroups
- H04R2499/10—General applications
- H04R2499/15—Transducers incorporated in visual displaying devices, e.g. televisions, computer displays, laptops
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2400/00—Details of stereophonic systems covered by H04S but not provided for in its groups
- H04S2400/11—Positioning of individual sound objects, e.g. moving airplane, within a sound field
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2400/00—Details of stereophonic systems covered by H04S but not provided for in its groups
- H04S2400/13—Aspects of volume control, not necessarily automatic, in stereophonic sound systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2420/00—Techniques used stereophonic systems covered by H04S but not provided for in its groups
- H04S2420/01—Enhancing the perception of the sound image or of the spatial distribution using head related transfer functions [HRTF's] or equivalents thereof, e.g. interaural time difference [ITD] or interaural level difference [ILD]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Signal Processing (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Human Computer Interaction (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biophysics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Medical Informatics (AREA)
- Multimedia (AREA)
- Stereophonic System (AREA)
Description
両耳間時差調整後の処理後左チャンネルオーディオ信号と処理後右チャンネルオーディオ信号との両耳間時差と、初期両耳間時差との差分値が第二所定範囲にあるように、処理後左チャンネルオーディオ信号と処理後右チャンネルオーディオ信号との両耳間時差を調整することと、を含む。
702 特定手段
703 処理手段
801 処理装置
805 I/Oインタフェース
806 入力装置
807 出力装置
808 記憶装置
809 通信装置
Claims (15)
- 目標ユーザの頭部画像と処理対象オーディオ信号とを取得することと、
前記頭部画像に基づいて、前記目標ユーザの頭部姿勢角を特定し、目標音源と前記目標ユーザの頭部との距離を特定することと、
所定の頭部関連伝達関数に、前記頭部姿勢角、前記距離および前記処理対象オーディオ信号を入力して、処理後左チャンネルオーディオ信号と処理後右チャンネルオーディオ信号を得ることと、を含め、
頭部関連伝達関数は、頭部姿勢角、距離、処理対象オーディオ信号と、処理後左チャンネルオーディオ信号および処理後右チャンネルオーディオ信号との対応関係を表すためのものであり、
前記頭部姿勢角は、前記目標ユーザの顔の正面向きが、前記目標ユーザの頭部画像を撮影して取得するためのカメラに対する振れ度合いを表すためのものである
オーディオ信号の処理用の方法。 - 前記頭部画像に基づいて、前記目標ユーザの頭部姿勢角を特定することには、
頭部画像と頭部画像に示されるユーザの頭部姿勢角との対応関係を表すための、予めトレーニングされた頭部姿勢識別モデルに、前記頭部画像を入力して、前記目標ユーザの頭部姿勢角を得ること、を含む
請求項1に記載の方法。 - 前記頭部姿勢識別モデルは、
複数のサンプル頭部画像と、前記複数のサンプル頭部画像におけるサンプル頭部画像に対応するサンプル頭部姿勢角とを取得するステップと、
機械学習方法を利用して、前記複数のサンプル頭部画像におけるサンプル頭部画像を入力として、入力されたサンプル頭部画像に対応するサンプル頭部姿勢角を所望の出力とするステップと、
に従って予めトレーニングすることで得られる
請求項2に記載の方法。 - 前記目標音源と前記目標ユーザの頭部との距離を特定することには、
前記頭部画像の大きさを特定することと、
所定の頭部画像の大きさと距離との対応関係に基づいて、前記目標音源と前記目標ユーザの頭部との距離を特定することと、を含む
請求項1に記載の方法。 - 前記処理後左チャンネルオーディオ信号と前記処理後右チャンネルオーディオ信号を得ることの後には、前記方法は、さらに、
予め特定された、初期左チャンネルオーディオ信号と初期右チャンネルオーディオ信号とのラウドネス差を初期ラウドネス差として取得することと、
ラウドネス調整後の処理後左チャンネルオーディオ信号と処理後右チャンネルオーディオ信号とのラウドネス差と、前記初期ラウドネス差との差分値が第一所定範囲にあるように、前記処理後左チャンネルオーディオ信号と前記処理後右チャンネルオーディオ信号の強度をそれぞれ調整することと、を含む
請求項1から4のいずれか1項に記載の方法。 - 前記方法は、さらに、予め特定された、初期左チャンネルオーディオ信号と初期右チャンネルオーディオ信号との両耳間時差を初期両耳間時差として取得することと、
両耳間時差調整後の処理後左チャンネルオーディオ信号と処理後右チャンネルオーディオ信号との両耳間時差と、前記初期両耳間時差との差分値が第二所定範囲にあるように、前記処理後左チャンネルオーディオ信号と前記処理後右チャンネルオーディオ信号との両耳間時差を調整することと、を含む
請求項5に記載の方法。 - 目標ユーザの頭部画像と処理対象オーディオ信号とを取得するように配置された第一取得手段と、
前記頭部画像に基づいて、前記目標ユーザの頭部姿勢角を特定し、目標音源と前記目標ユーザの頭部との距離を特定するように配置された特定手段と、
所定の頭部関連伝達関数に、前記頭部姿勢角、前記距離および前記処理対象オーディオ信号を入力して、処理後左チャンネルオーディオ信号と処理後右チャンネルオーディオ信号を得るように配置された処理手段と、を備え、
前記頭部関連伝達関数は、頭部姿勢角、距離、処理対象オーディオ信号と、処理後左チャンネルオーディオ信号および処理後右チャンネルオーディオ信号との対応関係を表すためのものであり、
前記頭部姿勢角は、前記目標ユーザの顔の正面向きが、前記目標ユーザの頭部画像を撮影して取得するためのカメラに対する振れ度合いを表すためのものである
オーディオ信号の処理用の装置。 - 前記特定手段は、頭部画像と頭部画像に示されるユーザの頭部姿勢角との対応関係を表すための、予めトレーニングされた頭部姿勢識別モデルに、前記頭部画像を入力して、前記目標ユーザの頭部姿勢角を得るように配置された識別モジュールを備える
請求項7に記載の装置。 - 前記頭部姿勢識別モデルは、
複数のサンプル頭部画像と、前記複数のサンプル頭部画像におけるサンプル頭部画像に対応するサンプル頭部姿勢角とを取得するステップと、
機械学習方法を利用して、前記複数のサンプル頭部画像におけるサンプル頭部画像を入力として、入力されたサンプル頭部画像に対応するサンプル頭部姿勢角を所望の出力とするステップと、
に従って予めトレーニングすることで得られる
請求項8に記載の装置。 - 前記特定手段は、
前記頭部画像の大きさを特定するように配置された第一特定モジュールと、
所定の頭部画像の大きさと距離との対応関係に基づいて、前記目標音源と前記目標ユーザの頭部との距離を特定するように配置された第二特定モジュールと、
を備える請求項7に記載の装置。 - 予め特定された、初期左チャンネルオーディオ信号と初期右チャンネルオーディオ信号とのラウドネス差を初期ラウドネス差として取得するように配置された第二取得手段と、
ラウドネス調整後の処理後左チャンネルオーディオ信号と処理後右チャンネルオーディオ信号とのラウドネス差と、前記初期ラウドネス差との差分値が第一所定範囲にあるように、前記処理後左チャンネルオーディオ信号と前記処理後右チャンネルオーディオ信号の強度をそれぞれ調整するように配置された第一調整手段と、
をさらに備える
請求項7から10のいずれか1項に記載の装置。 - 予め特定された、初期左チャンネルオーディオ信号と初期右チャンネルオーディオ信号との両耳間時差を初期両耳間時差として取得するように配置された第三取得手段と、
両耳間時差調整後の処理後左チャンネルオーディオ信号と処理後右チャンネルオーディオ信号との両耳間時差と、前記初期両耳間時差との差分値が第二所定範囲にあるように、前記処理後左チャンネルオーディオ信号と前記処理後右チャンネルオーディオ信号との両耳間時差を調整するように配置された第二調整手段と、
をさらに備える請求項11に記載の装置。 - 一つ又は複数のプロセッサと、
一つ又は複数のプログラムが記憶された記憶装置と、を備え、
前記一つ又は複数のプログラムが前記一つ又は複数のプロセッサによって実行される場合、前記一つ又は複数のプロセッサに請求項1から6のいずれか1項に記載の方法を実現させる端末設備。 - プロセッサによって実行されるときに、請求項1から6のいずれか1項に記載の方法を実現するコンピュータプログラムが記憶されたコンピュータ読み取り可能な記憶媒体。
- オーディオ信号の処理用のコンピュータプログラムであって、
プロセッサによって実行されるときに、請求項1から6のいずれか1項に記載の方法を実現する
コンピュータプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811190415.4A CN111050271B (zh) | 2018-10-12 | 2018-10-12 | 用于处理音频信号的方法和装置 |
CN201811190415.4 | 2018-10-12 | ||
PCT/CN2019/072948 WO2020073563A1 (zh) | 2018-10-12 | 2019-01-24 | 用于处理音频信号的方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021535632A JP2021535632A (ja) | 2021-12-16 |
JP7210602B2 true JP7210602B2 (ja) | 2023-01-23 |
Family
ID=70164992
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020545268A Active JP7210602B2 (ja) | 2018-10-12 | 2019-01-24 | オーディオ信号の処理用の方法及び装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11425524B2 (ja) |
JP (1) | JP7210602B2 (ja) |
CN (1) | CN111050271B (ja) |
GB (1) | GB2590256B (ja) |
WO (1) | WO2020073563A1 (ja) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20200049020A (ko) * | 2018-10-31 | 2020-05-08 | 삼성전자주식회사 | 음성 명령에 응답하여 컨텐츠를 표시하기 위한 방법 및 그 전자 장치 |
US20220191638A1 (en) * | 2020-12-16 | 2022-06-16 | Nvidia Corporation | Visually tracked spatial audio |
CN112637755A (zh) * | 2020-12-22 | 2021-04-09 | 广州番禺巨大汽车音响设备有限公司 | 一种基于无线连接的音频播放控制方法、装置及播放*** |
CN113099373B (zh) * | 2021-03-29 | 2022-09-23 | 腾讯音乐娱乐科技(深圳)有限公司 | 声场宽度扩展的方法、装置、终端及存储介质 |
CN118044231A (zh) * | 2021-10-06 | 2024-05-14 | 索尼集团公司 | 信息处理装置和数据结构 |
CN114501297B (zh) * | 2022-04-02 | 2022-09-02 | 北京荣耀终端有限公司 | 一种音频处理方法以及电子设备 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004504684A (ja) | 2000-07-24 | 2004-02-12 | シーイング・マシーンズ・プロプライエタリー・リミテッド | 顔画像処理システム |
JP2014131140A (ja) | 2012-12-28 | 2014-07-10 | Yamaha Corp | 通信システム、avレシーバ、および通信アダプタ装置 |
JP2015032844A (ja) | 2013-07-31 | 2015-02-16 | Kddi株式会社 | 音声伝達装置、音声伝達方法 |
WO2017119321A1 (ja) | 2016-01-08 | 2017-07-13 | ソニー株式会社 | 音声処理装置および方法、並びにプログラム |
CN107168518A (zh) | 2017-04-05 | 2017-09-15 | 北京小鸟看看科技有限公司 | 一种用于头戴显示器的同步方法、装置及头戴显示器 |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20030007648A1 (en) * | 2001-04-27 | 2003-01-09 | Christopher Currell | Virtual audio system and techniques |
EP1424685A1 (en) * | 2002-11-28 | 2004-06-02 | Sony International (Europe) GmbH | Method for generating speech data corpus |
KR20130122516A (ko) * | 2010-04-26 | 2013-11-07 | 캠브리지 메카트로닉스 리미티드 | 청취자의 위치를 추적하는 확성기 |
CN101938686B (zh) * | 2010-06-24 | 2013-08-21 | 中国科学院声学研究所 | 一种普通环境中头相关传递函数的测量***及测量方法 |
KR101227932B1 (ko) | 2011-01-14 | 2013-01-30 | 전자부품연구원 | 다채널 멀티트랙 오디오 시스템 및 오디오 처리 방법 |
CN104010265A (zh) * | 2013-02-22 | 2014-08-27 | 杜比实验室特许公司 | 音频空间渲染设备及方法 |
EP3136713A4 (en) * | 2014-04-22 | 2017-12-06 | Sony Corporation | Information reproduction device, information reproduction method, information recording device, and information recording method |
CN104392241B (zh) * | 2014-11-05 | 2017-10-17 | 电子科技大学 | 一种基于混合回归的头部姿态估计方法 |
JP2016199124A (ja) * | 2015-04-09 | 2016-12-01 | 之彦 須崎 | 音場制御装置及び適用方法 |
WO2017120767A1 (zh) * | 2016-01-12 | 2017-07-20 | 深圳多哚新技术有限责任公司 | 一种头部姿态预测方法和装置 |
CN105760824B (zh) * | 2016-02-02 | 2019-02-01 | 北京进化者机器人科技有限公司 | 一种运动人体跟踪方法和*** |
US9591427B1 (en) * | 2016-02-20 | 2017-03-07 | Philip Scott Lyren | Capturing audio impulse responses of a person with a smartphone |
CN107182011B (zh) * | 2017-07-21 | 2024-04-05 | 深圳市泰衡诺科技有限公司上海分公司 | 音频播放方法及***、移动终端、WiFi耳机 |
CN108038474B (zh) * | 2017-12-28 | 2020-04-14 | 深圳励飞科技有限公司 | 人脸检测方法、卷积神经网络参数的训练方法、装置及介质 |
WO2019246044A1 (en) * | 2018-06-18 | 2019-12-26 | Magic Leap, Inc. | Head-mounted display systems with power saving functionality |
-
2018
- 2018-10-12 CN CN201811190415.4A patent/CN111050271B/zh active Active
-
2019
- 2019-01-24 GB GB2100831.3A patent/GB2590256B/en active Active
- 2019-01-24 JP JP2020545268A patent/JP7210602B2/ja active Active
- 2019-01-24 WO PCT/CN2019/072948 patent/WO2020073563A1/zh active Application Filing
- 2019-01-24 US US16/980,119 patent/US11425524B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004504684A (ja) | 2000-07-24 | 2004-02-12 | シーイング・マシーンズ・プロプライエタリー・リミテッド | 顔画像処理システム |
JP2014131140A (ja) | 2012-12-28 | 2014-07-10 | Yamaha Corp | 通信システム、avレシーバ、および通信アダプタ装置 |
JP2015032844A (ja) | 2013-07-31 | 2015-02-16 | Kddi株式会社 | 音声伝達装置、音声伝達方法 |
WO2017119321A1 (ja) | 2016-01-08 | 2017-07-13 | ソニー株式会社 | 音声処理装置および方法、並びにプログラム |
CN107168518A (zh) | 2017-04-05 | 2017-09-15 | 北京小鸟看看科技有限公司 | 一种用于头戴显示器的同步方法、装置及头戴显示器 |
Also Published As
Publication number | Publication date |
---|---|
GB2590256A (en) | 2021-06-23 |
JP2021535632A (ja) | 2021-12-16 |
CN111050271A (zh) | 2020-04-21 |
GB202100831D0 (en) | 2021-03-10 |
WO2020073563A1 (zh) | 2020-04-16 |
US20210029486A1 (en) | 2021-01-28 |
CN111050271B (zh) | 2021-01-29 |
US11425524B2 (en) | 2022-08-23 |
GB2590256B (en) | 2023-04-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7210602B2 (ja) | オーディオ信号の処理用の方法及び装置 | |
US10820097B2 (en) | Method, systems and apparatus for determining audio representation(s) of one or more audio sources | |
Schissler et al. | Efficient HRTF-based spatial audio for area and volumetric sources | |
US10952009B2 (en) | Audio parallax for virtual reality, augmented reality, and mixed reality | |
US11082791B2 (en) | Head-related impulse responses for area sound sources located in the near field | |
US9131305B2 (en) | Configurable three-dimensional sound system | |
WO2018196469A1 (zh) | 声场的音频数据的处理方法及装置 | |
WO2022105519A1 (zh) | 音效调整方法、装置、设备、存储介质及计算机程序产品 | |
US11109177B2 (en) | Methods and systems for simulating acoustics of an extended reality world | |
CN111385728B (zh) | 一种音频信号处理方法及装置 | |
CN111696513A (zh) | 音频信号处理方法及装置、电子设备、存储介质 | |
CN114038486A (zh) | 音频数据处理方法、装置、电子设备及计算机存储介质 | |
Villegas | Locating virtual sound sources at arbitrary distances in real-time binaural reproduction | |
WO2020155908A1 (zh) | 用于生成信息的方法和装置 | |
CN114339582B (zh) | 双通道音频处理、方向感滤波器生成方法、装置以及介质 | |
CN112927718B (zh) | 感知周围环境的方法、装置、终端和存储介质 | |
JP2018152834A (ja) | 仮想聴覚環境において音声信号出力を制御する方法及び装置 | |
WO2019174442A1 (zh) | 拾音设备、声音输出方法、装置、存储介质及电子装置 | |
Tashev | Audio challenges in virtual and augmented reality devices | |
Mohan et al. | Using computer vision to generate customized spatial audio | |
Duraiswami et al. | Capturing and recreating auditory virtual reality | |
Reddy et al. | On the development of a dynamic virtual reality system using audio and visual scenes | |
CN116825128A (zh) | 音频处理方法及装置、计算机可读存储介质及电子设备 | |
CN116421971A (zh) | 空间音频信号的生成方法及装置、存储介质、电子设备 | |
CN118317243A (zh) | 一种通过头部追踪实现3d环绕音的实现方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210219 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210219 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220314 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20220614 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220810 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221212 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230111 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7210602 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |