JP2022141599A - コンテキストアウェアオーディオエンハンスメントのためのシステムおよび方法 - Google Patents
コンテキストアウェアオーディオエンハンスメントのためのシステムおよび方法 Download PDFInfo
- Publication number
- JP2022141599A JP2022141599A JP2022036751A JP2022036751A JP2022141599A JP 2022141599 A JP2022141599 A JP 2022141599A JP 2022036751 A JP2022036751 A JP 2022036751A JP 2022036751 A JP2022036751 A JP 2022036751A JP 2022141599 A JP2022141599 A JP 2022141599A
- Authority
- JP
- Japan
- Prior art keywords
- customer
- communication
- audio
- agent
- audio enhancement
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 50
- 238000004891 communication Methods 0.000 claims description 201
- 230000008451 emotion Effects 0.000 claims description 22
- 238000012549 training Methods 0.000 claims description 20
- 238000003860 storage Methods 0.000 claims description 19
- 238000013528 artificial neural network Methods 0.000 claims description 14
- 238000012544 monitoring process Methods 0.000 claims description 12
- 230000005236 sound signal Effects 0.000 claims description 12
- 238000003780 insertion Methods 0.000 claims description 6
- 230000037431 insertion Effects 0.000 claims description 6
- 230000009466 transformation Effects 0.000 claims description 3
- 238000000844 transformation Methods 0.000 claims description 3
- 230000007704 transition Effects 0.000 claims description 3
- 230000003993 interaction Effects 0.000 abstract description 12
- 210000005036 nerve Anatomy 0.000 abstract description 2
- 230000008450 motivation Effects 0.000 abstract 1
- 239000003795 chemical substances by application Substances 0.000 description 120
- 230000008569 process Effects 0.000 description 29
- 230000015654 memory Effects 0.000 description 28
- 238000012545 processing Methods 0.000 description 28
- 230000007246 mechanism Effects 0.000 description 22
- 238000013500 data storage Methods 0.000 description 16
- 230000008859 change Effects 0.000 description 14
- 230000009471 action Effects 0.000 description 7
- 230000036651 mood Effects 0.000 description 7
- 230000006870 function Effects 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 6
- 230000008901 benefit Effects 0.000 description 5
- 238000004422 calculation algorithm Methods 0.000 description 5
- 239000000463 material Substances 0.000 description 5
- 238000012986 modification Methods 0.000 description 5
- 230000004048 modification Effects 0.000 description 5
- 230000004044 response Effects 0.000 description 5
- 238000003491 array Methods 0.000 description 4
- 235000021152 breakfast Nutrition 0.000 description 4
- 230000001965 increasing effect Effects 0.000 description 4
- 241000282412 Homo Species 0.000 description 3
- 230000001413 cellular effect Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 239000000835 fiber Substances 0.000 description 3
- 230000002093 peripheral effect Effects 0.000 description 3
- 238000012552 review Methods 0.000 description 3
- 241000207875 Antirrhinum Species 0.000 description 2
- RYGMFSIKBFXOCR-UHFFFAOYSA-N Copper Chemical compound [Cu] RYGMFSIKBFXOCR-UHFFFAOYSA-N 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 210000004556 brain Anatomy 0.000 description 2
- 239000000872 buffer Substances 0.000 description 2
- 238000010924 continuous production Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 230000002349 favourable effect Effects 0.000 description 2
- 230000001976 improved effect Effects 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 230000001902 propagating effect Effects 0.000 description 2
- 238000013515 script Methods 0.000 description 2
- LQIAZOCLNBBZQK-UHFFFAOYSA-N 1-(1,2-Diphosphanylethyl)pyrrolidin-2-one Chemical compound PCC(P)N1CCCC1=O LQIAZOCLNBBZQK-UHFFFAOYSA-N 0.000 description 1
- 241000473391 Archosargus rhomboidalis Species 0.000 description 1
- 206010024264 Lethargy Diseases 0.000 description 1
- 241000699670 Mus sp. Species 0.000 description 1
- 206010041235 Snoring Diseases 0.000 description 1
- 230000004308 accommodation Effects 0.000 description 1
- 238000007792 addition Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000005587 bubbling Effects 0.000 description 1
- 230000001914 calming effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 229910052802 copper Inorganic materials 0.000 description 1
- 239000010949 copper Substances 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000002996 emotional effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 235000013305 food Nutrition 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 238000003306 harvesting Methods 0.000 description 1
- 230000000977 initiatory effect Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000006996 mental state Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 229920000747 poly(lactic acid) Polymers 0.000 description 1
- 239000000047 product Substances 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 230000004800 psychological effect Effects 0.000 description 1
- 238000004549 pulsed laser deposition Methods 0.000 description 1
- 238000012797 qualification Methods 0.000 description 1
- 238000010223 real-time analysis Methods 0.000 description 1
- 239000011435 rock Substances 0.000 description 1
- 238000005096 rolling process Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M3/00—Automatic or semi-automatic exchanges
- H04M3/42—Systems providing special services or facilities to subscribers
- H04M3/50—Centralised arrangements for answering calls; Centralised arrangements for recording messages for absent or busy subscribers ; Centralised arrangements for recording messages
- H04M3/51—Centralised call answering arrangements requiring operator intervention, e.g. call or contact centers for telemarketing
- H04M3/5166—Centralised call answering arrangements requiring operator intervention, e.g. call or contact centers for telemarketing in combination with interactive voice response systems or voice portals, e.g. as front-ends
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/06—Buying, selling or leasing transactions
- G06Q30/0601—Electronic shopping [e-shopping]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/003—Changing voice quality, e.g. pitch or formants
- G10L21/007—Changing voice quality, e.g. pitch or formants characterised by the process used
- G10L21/013—Adapting to target pitch
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0316—Speech enhancement, e.g. noise reduction or echo cancellation by changing the amplitude
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M3/00—Automatic or semi-automatic exchanges
- H04M3/42—Systems providing special services or facilities to subscribers
- H04M3/487—Arrangements for providing information services, e.g. recorded voice services or time announcements
- H04M3/493—Interactive information services, e.g. directory enquiries ; Arrangements therefor, e.g. interactive voice response [IVR] systems or voice portals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M3/00—Automatic or semi-automatic exchanges
- H04M3/42—Systems providing special services or facilities to subscribers
- H04M3/50—Centralised arrangements for answering calls; Centralised arrangements for recording messages for absent or busy subscribers ; Centralised arrangements for recording messages
- H04M3/51—Centralised call answering arrangements requiring operator intervention, e.g. call or contact centers for telemarketing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M2201/00—Electronic components, circuits, software, systems or apparatus used in telephone systems
- H04M2201/40—Electronic components, circuits, software, systems or apparatus used in telephone systems using speech recognition
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M2203/00—Aspects of automatic or semi-automatic exchanges
- H04M2203/30—Aspects of automatic or semi-automatic exchanges related to audio recordings in general
- H04M2203/305—Recording playback features, e.g. increased speed
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M2203/00—Aspects of automatic or semi-automatic exchanges
- H04M2203/30—Aspects of automatic or semi-automatic exchanges related to audio recordings in general
- H04M2203/306—Prerecordings to be used during a voice call
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Signal Processing (AREA)
- Business, Economics & Management (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Theoretical Computer Science (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Quality & Reliability (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Finance (AREA)
- Evolutionary Computation (AREA)
- Accounting & Taxation (AREA)
- Marketing (AREA)
- Biomedical Technology (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Molecular Biology (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Development Economics (AREA)
- Economics (AREA)
- Strategic Management (AREA)
- General Business, Economics & Management (AREA)
- Telephonic Communication Services (AREA)
Abstract
Description
本特許文献の開示の一部は、著作権保護の対象となる資料を含む。著作権者は、特許商標庁の特許ファイルまたは記録に現れるような特許文献または特許開示を誰でも複製することに異議を唱えていないが、その他の点において、すべての著作権を保有する。
ネットワークへのネットワークインターフェースと、
非一時的記憶媒体に維持された機械可読命令とともに構成されたプロセッサとを備えるシステムであって、前記機械可読命令は、
エージェント通信デバイスを利用するエージェントと顧客通信デバイスを利用する顧客との間の通信を監視するステップであって、前記通信は前記ネットワークを介して送信される符号化オーディオ信号を備えるステップと、
前記通信の目的にアクセスするステップと、
複数のオーディオエンハンスメントから、前記通信の目的に対応するオーディオエンハンスメントを選択するステップと、
前記符号化オーディオ信号の一部に備えるために、前記オーディオエンハンスメントを前記通信に挿入するステップとを前記プロセッサにさせることを特徴とするシステム。
ネットワークへのネットワークインターフェースと、
非一時的記憶媒体に維持された機械可読命令とともに構成されたプロセッサとを備えるシステムであって、前記機械可読命令は、
エージェント通信デバイスを利用するエージェントと顧客通信デバイスを利用する顧客との間の通信を監視するステップであって、前記通信は前記ネットワークを介して送信される符号化オーディオ信号を備えるステップと、
前記通信の目的にアクセスするステップと、
複数のオーディオエンハンスメントから、前記通信の目的に対応するオーディオエンハンスメントを選択するように訓練されたニューラルネットワークに前記通信の前記目的を提供するステップと、
前記ニューラルネットワークから、前記オーディオエンハンスメントを取得するステップと、
前記符号化オーディオ信号の一部に備えるために、前記オーディオエンハンスメントを前記通信に挿入するステップとを前記プロセッサにさせることを特徴とするシステム。
エージェント通信デバイスを利用するエージェントと顧客通信デバイスを利用する顧客との間の通信を監視するステップであって、前記通信はネットワークを介して送信される符号化オーディオ信号を備えるステップと、
前記通信の目的にアクセスするステップと、
複数のオーディオエンハンスメントから、前記通信の目的に対応するオーディオエンハンスメントを選択するステップと、
前記符号化オーディオ信号の一部に備えるために、前記オーディオエンハンスメントを前記通信に挿入するステップとを備えることを特徴とする方法。
上記の態様のいずれかを含む。
前記符号化オーディオ信号は、前記エージェントまたは前記顧客の少なくとも1つからのスピーチと同時にオーディオエンハンスメントを備える。
前記オーディオエンハンスメントは、ボリューム、テンポ、ペース、ピッチ、フェードイン速度、フェードアウト速度、最大ボリュームまたは最小ボリュームのうちの少なくとも1つを備える前記オーディオエンハンスメントの属性をさらに備える。
前記命令は、
前記顧客の現在の感情を判断するステップであって、前記現在の感情は前記通信中に前記顧客によって提示される明示的な感情であるステップをさらに備える前記通信の前記目的にアクセスするステップと、
前記顧客の所望の感情を判断するステップと、
前記現在の感情を有する対象者が前記所望の感情に移行するという結果になると過去に判断された感情鎮静属性に対応する前記オーディオエンハンスメントを選択するステップとを前記プロセッサにさらにさせる。
前記オーディオエンハンスメントを選択するステップを前記プロセッサにさせる前記命令は、前記顧客の人口統計学的属性に従って前記オーディオエンハンスメントを選択するステップを前記プロセッサにさせるステップをさらに備える。
前記命令は、
前記顧客にタスクを実行させるステップをさらに備える前記通信の前記目的にアクセスするステップと、
前記タスクの関連サウンドに対応する前記オーディオエンハンスメントを選択するステップとを前記プロセッサにさらにさせる。
前記オーディオエンハンスメントは、前記顧客通信デバイスまたは前記エージェント通信デバイスの一方に提供され、両方に提供されない。
前記命令は、
前記エージェントと前記顧客との間の前記通信の第2の部分を監視するステップであって、前記通信の前記第2の部分は、前記オーディオエンハンスメントの挿入と同時に生じるステップと、
前記顧客によって提供される前記通信のコンテンツに従って前記通信の前記目的を更新するステップと、
前記顧客によって提供される前記通信の前記コンテンツが前記オーディオエンハンスメントと矛盾することを判断すると、前記オーディオエンハンスメントを修正するステップとを前記プロセッサにさらにさせる。
前記命令は、前記オーディオエンハンスメントの挿入を終了すること、前記オーディオエンハンスメントの前記コンテンツを変更すること、前記オーディオエンハンスメントの前記ペースを変更すること、前記オーディオエンハンスメントの前記ボリュームを変更すること、または前記オーディオエンハンスメントの前記ピッチを変更することの1つまたは複数を備えるオーディオエンハンスメントの修正を前記プロセッサにさせる。
前記ニューラルネットワークはオーディオエンハンスメントを選択するように訓練され、
過去のいくつかの顧客と対応する数の過去のエージェントとの間の過去の通信のセットにアクセスするステップと、
過去の通信の修正されたセットを生成するために、ワードを同義のワードに置換すること、ワードを同義のフレーズに置換すること、前記通信の前記目的に関連する前記オブジェクトを目的に置換すること、少なくとも1つの冗長ワードを挿入すること、または少なくとも1つの冗長ワードを除去することの1つまたは複数を含む1つまたは複数の変換を過去の通信の前記セットの各過去の通信を適用するステップと、
前記過去の通信のセット、前記修正された過去の通信のセットおよび前記目的に関連しないと過去に判断された異なる目的のセットを備える第1の訓練セットを作成するステップと、
前記第1の訓練セットを使用して第1の状態の前記ニューラルネットワークを訓練するステップと、
前記第1の訓練セットおよび前記目的に関連すると誤って識別された前記目的に関連がないと過去に判断された異なる目的の前記セットを備える第2の訓練状態のための第2の訓練セットを作成するステップと、
前記第2の訓練セットを使用して前記第2の状態の前記ニューラルネットワークを訓練するステップとをさらに備える。
前記オーディオエンハンスメントは、ボリューム、テンポ、ペース、ピッチ、フェードイン速度、フェードアウト速度、最大ボリュームまたは最小ボリュームのうちの少なくとも1つを備える前記オーディオエンハンスメントの属性をさらに備える。
前記命令は、
前記顧客の現在の感情を判断するステップであって、前記現在の感情は前記通信中に前記顧客によって提示される明示的な感情である前記通信の前記目的にアクセスするステップと、
前記顧客の所望の感情を判断するステップと、
前記顧客が前記所望の感情を持つように移行することを備える前記目的を変更するステップとを前記プロセッサにさらにさせる。
前記命令は、
前記顧客にタスクを実行させるステップをさらに備える前記通信の前記目的にアクセスするステップと、
前記タスクの関連サウンドに対応する前記オーディオエンハンスメントを選択するステップとを前記プロセッサにさらにさせる。
前記オーディオエンハンスメントは、前記顧客通信デバイスまたは前記エージェント通信デバイスの一方に提供され、両方に提供されない。
前記命令は、
前記エージェントと前記顧客との間の前記通信の第2の部分を監視するステップであって、前記通信の前記第2の部分は、前記オーディオエンハンスメントの挿入と同時に生じるステップと、
前記顧客によって提供される前記通信のコンテンツに従って前記通信の前記目的を更新するステップと、
前記顧客によって提供される前記通信の前記コンテンツが前記オーディオエンハンスメントと矛盾することを判断すると、前記オーディオエンハンスメントを修正するステップとを前記プロセッサにさらにさせる。
前記命令は、前記オーディオエンハンスメントの挿入を終了すること、前記オーディオエンハンスメントの前記コンテンツを変更すること、前記オーディオエンハンスメントの前記ペースを変更すること、前記オーディオエンハンスメントの前記ボリュームを変更すること、または前記オーディオエンハンスメントの前記ピッチを変更することの1つまたは複数を備えるオーディオエンハンスメントの修正を前記プロセッサにさせる。
前記オーディオエンハンスメントは、ボリューム、テンポ、ペース、ピッチ、フェードイン速度、フェードアウト速度、最大ボリュームまたは最小ボリュームのうちの少なくとも1つを備える前記オーディオエンハンスメントの属性をさらに備える。
システムオンチップ(SoC)は、上記の態様のうちのいずれか1つまたは複数を含む。
上記の態様のうちのいずれか1つまたは複数を実行するための1つまたは複数の手段。
任意の1つまたは複数の他の態様と組み合わせた任意の態様。
本明細書に開示される特徴のうちのいずれか1つまたは複数。
本明細書に実質的に開示される特徴のうちの任意の1つまたは複数。
本明細書において実質的に開示される特徴の任意の1つまたは複数は、本明細書において実質的に開示される他の特徴の任意の1つまたは複数と組み合わされる。
態様/特徴/実施形態のいずれか1つは、任意の1つまたは複数の他の態様/特徴/実施形態と組み合わせられる。
本明細書に開示される態様または特徴のいずれか1つまたは複数の使用。
上記の態様のいずれかであって、データ記憶装置は、プロセッサ内のオンチップメモリと、プロセッサのレジスタと、プロセッサと処理ボード上に共同配置されたオンボードメモリと、バスを介してプロセッサにアクセス可能なメモリと、磁気媒体と、光学媒体と、固体媒体と、入出力バッファと、プロセッサと通信する入出力構成要素のメモリと、ネットワーク通信バッファと、ネットワークインターフェースを介してプロセッサと通信するネットワーク構成要素とのうちの少なくとも1つを備える非一時記憶媒体を備える。
Claims (10)
- ネットワークへのネットワークインターフェースと、
非一時的記憶媒体に維持された機械可読命令とともに構成されたプロセッサとを備えるシステムであって、前記機械可読命令は、
エージェント通信デバイスを利用するエージェントと顧客通信デバイスを利用する顧客との間の通信を監視するステップであって、前記通信は前記ネットワークを介して送信される符号化オーディオ信号を備えるステップと、
前記通信の目的にアクセスするステップと、
複数のオーディオエンハンスメントから、前記通信の目的に対応するオーディオエンハンスメントを選択するステップと、
前記符号化オーディオ信号の一部に備えるために、前記オーディオエンハンスメントを前記通信に挿入するステップとを前記プロセッサにさせることを特徴とするシステム。 - 前記符号化オーディオ信号は、前記エージェントまたは前記顧客の少なくとも1つからのスピーチと同時にオーディオエンハンスメントを備えることを特徴とする請求項1に記載のシステム。
- 前記オーディオエンハンスメントは、ボリューム、テンポ、ペース、ピッチ、フェードイン速度、フェードアウト速度、最大ボリュームまたは最小ボリュームのうちの少なくとも1つを備える前記オーディオエンハンスメントの属性をさらに備えることを特徴とする請求項1に記載のシステム。
- 前記命令は、
前記顧客の現在の感情を判断するステップであって、前記現在の感情は前記通信中に前記顧客によって提示される明示的な感情であるステップをさらに備える前記通信の前記目的にアクセスするステップと、
前記顧客の所望の感情を判断するステップと、
前記現在の感情を有する対象者が前記所望の感情に移行するという結果になると過去に判断された感情鎮静属性に対応する前記オーディオエンハンスメントを選択するステップとを前記プロセッサにさらにさせることを特徴とする請求項1に記載のシステム。 - 前記オーディオエンハンスメントを選択するステップを前記プロセッサにさせる前記命令は、前記顧客の人口統計学的属性に従って前記オーディオエンハンスメントを選択するステップを前記プロセッサにさせるステップをさらに備えることを特徴とする請求項1に記載のシステム。
- 前記命令は、
前記顧客にタスクを実行させるステップをさらに備える前記通信の前記目的にアクセスするステップと、
前記タスクの関連サウンドに対応する前記オーディオエンハンスメントを選択するステップとを前記プロセッサにさらにさせることを特徴とする請求項1に記載のシステム。 - 前記命令は、
前記エージェントと前記顧客との間の前記通信の第2の部分を監視するステップであって、前記通信の前記第2の部分は、前記オーディオエンハンスメントの挿入と同時に生じるステップと、
前記顧客によって提供される前記通信のコンテンツに従って前記通信の前記目的を更新するステップと、
前記顧客によって提供される前記通信の前記コンテンツが前記オーディオエンハンスメントと矛盾することを判断すると、前記オーディオエンハンスメントを修正するステップとを前記プロセッサにさらにさせることを特徴とする請求項1に記載のシステム。 - 前記命令は、前記オーディオエンハンスメントの挿入を終了すること、前記オーディオエンハンスメントの前記コンテンツを変更すること、前記オーディオエンハンスメントの前記ペースを変更すること、前記オーディオエンハンスメントの前記ボリュームを変更すること、または前記オーディオエンハンスメントの前記ピッチを変更することの1つまたは複数を備えるオーディオエンハンスメントの修正を前記プロセッサにさせることを特徴とする請求項7に記載のシステム。
- ネットワークへのネットワークインターフェースと、
非一時的記憶媒体に維持された機械可読命令とともに構成されたプロセッサとを備えるシステムであって、前記機械可読命令は、
エージェント通信デバイスを利用するエージェントと顧客通信デバイスを利用する顧客との間の通信を監視するステップであって、前記通信は前記ネットワークを介して送信される符号化オーディオ信号を備えるステップと、
前記通信の目的にアクセスするステップと、
複数のオーディオエンハンスメントから、前記通信の目的に対応するオーディオエンハンスメントを選択するように訓練されたニューラルネットワークに前記通信の前記目的を提供するステップと、
前記ニューラルネットワークから、前記オーディオエンハンスメントを取得するステップと、
前記符号化オーディオ信号の一部に備えるために、前記オーディオエンハンスメントを前記通信に挿入するステップとを前記プロセッサにさせることを特徴とするシステム。 - 前記ニューラルネットワークはオーディオエンハンスメントを選択するように訓練され、
過去のいくつかの顧客と対応する数の過去のエージェントとの間の過去の通信のセットにアクセスするステップと、
過去の通信の修正されたセットを生成するために、ワードを同義のワードに置換すること、ワードを同義のフレーズに置換すること、前記目的に関連するオブジェクトに対する前記通信の目的を置換すること、前記通信の前記目的に関連する前記オブジェクトを目的に置換すること、少なくとも1つの冗長ワードを挿入すること、または少なくとも1つの冗長ワードを除去することの1つまたは複数を含む1つまたは複数の変換を過去の通信の前記セットの各過去の通信に適用するステップと、
前記過去の通信のセット、前記修正された過去の通信のセットおよび前記目的に関連しないと過去に判断された異なる目的のセットを備える第1の訓練セットを作成するステップと、
前記第1の訓練セットを使用して第1の状態の前記ニューラルネットワークを訓練するステップと、
前記第1の訓練セットおよび前記目的に関連すると誤って識別された前記目的に関連がないと過去に判断された異なる目的の前記セットを備える第2の状態のための第2の訓練セットを作成するステップと、
前記第2の訓練セットを使用して前記第2の状態の前記ニューラルネットワークを訓練するステップとをさらに備えることを特徴とする請求項11に記載のシステム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US17/201,238 | 2021-03-15 | ||
US17/201,238 US11743380B2 (en) | 2021-03-15 | 2021-03-15 | System and method for context aware audio enhancement |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022141599A true JP2022141599A (ja) | 2022-09-29 |
JP7392017B2 JP7392017B2 (ja) | 2023-12-05 |
Family
ID=83005698
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022036751A Active JP7392017B2 (ja) | 2021-03-15 | 2022-03-10 | コンテキストアウェアオーディオエンハンスメントのためのシステムおよび方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US11743380B2 (ja) |
JP (1) | JP7392017B2 (ja) |
DE (1) | DE102022202150A1 (ja) |
FR (1) | FR3120725A1 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20220270626A1 (en) * | 2021-02-22 | 2022-08-25 | Tencent America LLC | Method and apparatus in audio processing |
US20230153054A1 (en) * | 2021-11-12 | 2023-05-18 | Twitter, Inc. | Audio processing in a social messaging platform |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004320573A (ja) * | 2003-04-18 | 2004-11-11 | Matsushita Electric Ind Co Ltd | コンピュータテレホニーシステム |
US20050119893A1 (en) * | 2000-07-13 | 2005-06-02 | Shambaugh Craig R. | Voice filter for normalizing and agent's emotional response |
JP2005352151A (ja) * | 2004-06-10 | 2005-12-22 | National Institute Of Information & Communication Technology | 人間の感情状態に応じた音楽出力装置及び音楽出力方法 |
JP2006171133A (ja) * | 2004-12-14 | 2006-06-29 | Sony Corp | 楽曲データ再構成装置、楽曲データ再構成方法、音楽コンテンツ再生装置および音楽コンテンツ再生方法 |
CN111489765A (zh) * | 2019-01-28 | 2020-08-04 | 国家电网有限公司客户服务中心 | 一种基于智能语音技术的话务服务质检方法 |
Family Cites Families (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5425130A (en) * | 1990-07-11 | 1995-06-13 | Lockheed Sanders, Inc. | Apparatus for transforming voice using neural networks |
US6125175A (en) * | 1997-09-18 | 2000-09-26 | At&T Corporation | Method and apparatus for inserting background sound in a telephone call |
US20040125965A1 (en) * | 2002-12-27 | 2004-07-01 | William Alberth | Method and apparatus for providing background audio during a communication session |
US20070041582A1 (en) * | 2005-08-22 | 2007-02-22 | Lam Bin W | Methods and systems for enabling users to inject sound effects into telephone conversations |
WO2007095238A2 (en) * | 2006-02-10 | 2007-08-23 | Razz, Inc. | Inserting content into a connection using an intermediary |
US7983910B2 (en) * | 2006-03-03 | 2011-07-19 | International Business Machines Corporation | Communicating across voice and text channels with emotion preservation |
US8229078B2 (en) * | 2007-04-19 | 2012-07-24 | At&T Mobility Ii Llc | Background noise effects |
US20100235218A1 (en) | 2008-09-29 | 2010-09-16 | Avaya Inc. | Pre-qualified or history-based customer service |
US8964958B2 (en) | 2009-05-20 | 2015-02-24 | Avaya Inc. | Grid-based contact center |
US20110125826A1 (en) | 2009-11-20 | 2011-05-26 | Avaya Inc. | Stalking social media users to maximize the likelihood of immediate engagement |
US20110125793A1 (en) | 2009-11-20 | 2011-05-26 | Avaya Inc. | Method for determining response channel for a contact center from historic social media postings |
US8634543B2 (en) | 2010-04-14 | 2014-01-21 | Avaya Inc. | One-to-one matching in a contact center |
WO2014028891A1 (en) | 2012-08-17 | 2014-02-20 | Be Labs, Llc | Music generator |
US9031838B1 (en) * | 2013-07-15 | 2015-05-12 | Vail Systems, Inc. | Method and apparatus for voice clarity and speech intelligibility detection and correction |
US9728202B2 (en) * | 2013-08-07 | 2017-08-08 | Vonage America Inc. | Method and apparatus for voice modification during a call |
US9578070B2 (en) * | 2014-07-17 | 2017-02-21 | Cellco Partnersip | Method for inserting background audio into voice/video call |
US9172805B1 (en) * | 2014-12-03 | 2015-10-27 | United Services Automobile Association (Usaa) | Edge injected speech in call centers |
US9596349B1 (en) * | 2015-06-29 | 2017-03-14 | State Farm Mutual Automobile Insurance Company | Voice and speech recognition for call center feedback and quality assurance |
US10382609B1 (en) * | 2016-06-28 | 2019-08-13 | Steve Antoine | System for sharing sounds from a smartphone during a voice call |
US10586079B2 (en) * | 2016-12-23 | 2020-03-10 | Soundhound, Inc. | Parametric adaptation of voice synthesis |
US11133010B1 (en) * | 2018-01-23 | 2021-09-28 | United Services Automobile Association (Usaa) | Intelligent agent for interactive service environments |
US10922738B2 (en) | 2018-05-15 | 2021-02-16 | Dell Products, L.P. | Intelligent assistance for support agents |
US11120812B1 (en) * | 2020-07-31 | 2021-09-14 | Cresta Intelligence Inc. | Application of machine learning techniques to select voice transformations |
-
2021
- 2021-03-15 US US17/201,238 patent/US11743380B2/en active Active
-
2022
- 2022-03-02 DE DE102022202150.9A patent/DE102022202150A1/de active Pending
- 2022-03-10 JP JP2022036751A patent/JP7392017B2/ja active Active
- 2022-03-11 FR FR2202163A patent/FR3120725A1/fr active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050119893A1 (en) * | 2000-07-13 | 2005-06-02 | Shambaugh Craig R. | Voice filter for normalizing and agent's emotional response |
JP2004320573A (ja) * | 2003-04-18 | 2004-11-11 | Matsushita Electric Ind Co Ltd | コンピュータテレホニーシステム |
JP2005352151A (ja) * | 2004-06-10 | 2005-12-22 | National Institute Of Information & Communication Technology | 人間の感情状態に応じた音楽出力装置及び音楽出力方法 |
JP2006171133A (ja) * | 2004-12-14 | 2006-06-29 | Sony Corp | 楽曲データ再構成装置、楽曲データ再構成方法、音楽コンテンツ再生装置および音楽コンテンツ再生方法 |
CN111489765A (zh) * | 2019-01-28 | 2020-08-04 | 国家电网有限公司客户服务中心 | 一种基于智能语音技术的话务服务质检方法 |
Also Published As
Publication number | Publication date |
---|---|
FR3120725A1 (fr) | 2022-09-16 |
US20220294904A1 (en) | 2022-09-15 |
US11743380B2 (en) | 2023-08-29 |
JP7392017B2 (ja) | 2023-12-05 |
DE102022202150A1 (de) | 2022-09-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11563850B2 (en) | Automated call requests with status updates | |
US11915707B1 (en) | Outcome-oriented dialogs on a speech recognition platform | |
US11922925B1 (en) | Managing dialogs on a speech recognition platform | |
US10171659B2 (en) | Customer portal of an intelligent automated agent for a contact center | |
AU2014233357B2 (en) | Intelligent automated agent for a contact center | |
US10827064B2 (en) | Automated call requests with status updates | |
JP7392017B2 (ja) | コンテキストアウェアオーディオエンハンスメントのためのシステムおよび方法 | |
CN112313930A (zh) | 管理保持的方法和装置 | |
US11663791B1 (en) | Dynamic avatars for customer support applications | |
US20230388420A1 (en) | Adaptive cloud conversation ecosystem | |
US11743387B2 (en) | System and method for an adaptive cloud conversation platform | |
US20230328121A1 (en) | Modular Technologies for Servicing Telephony Systems |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220427 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230328 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230509 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230807 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231031 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231122 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7392017 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |