JP6538846B2 - 音声情報を処理するための方法及び装置 - Google Patents

音声情報を処理するための方法及び装置 Download PDF

Info

Publication number
JP6538846B2
JP6538846B2 JP2017530753A JP2017530753A JP6538846B2 JP 6538846 B2 JP6538846 B2 JP 6538846B2 JP 2017530753 A JP2017530753 A JP 2017530753A JP 2017530753 A JP2017530753 A JP 2017530753A JP 6538846 B2 JP6538846 B2 JP 6538846B2
Authority
JP
Japan
Prior art keywords
user
voice data
priority
question
service
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017530753A
Other languages
English (en)
Other versions
JP2018501721A (ja
Inventor
チーン リーン
チーン リーン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alibaba Group Holding Ltd
Original Assignee
Alibaba Group Holding Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alibaba Group Holding Ltd filed Critical Alibaba Group Holding Ltd
Publication of JP2018501721A publication Critical patent/JP2018501721A/ja
Application granted granted Critical
Publication of JP6538846B2 publication Critical patent/JP6538846B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/487Arrangements for providing information services, e.g. recorded voice services or time announcements
    • H04M3/493Interactive information services, e.g. directory enquiries ; Arrangements therefor, e.g. interactive voice response [IVR] systems or voice portals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/487Arrangements for providing information services, e.g. recorded voice services or time announcements
    • H04M3/493Interactive information services, e.g. directory enquiries ; Arrangements therefor, e.g. interactive voice response [IVR] systems or voice portals
    • H04M3/4936Speech interaction details
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/50Centralised arrangements for answering calls; Centralised arrangements for recording messages for absent or busy subscribers ; Centralised arrangements for recording messages
    • H04M3/51Centralised call answering arrangements requiring operator intervention, e.g. call or contact centers for telemarketing
    • H04M3/5166Centralised call answering arrangements requiring operator intervention, e.g. call or contact centers for telemarketing in combination with interactive voice response systems or voice portals, e.g. as front-ends
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/487Arrangements for providing information services, e.g. recorded voice services or time announcements
    • H04M3/493Interactive information services, e.g. directory enquiries ; Arrangements therefor, e.g. interactive voice response [IVR] systems or voice portals
    • H04M3/4931Directory assistance systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/50Centralised arrangements for answering calls; Centralised arrangements for recording messages for absent or busy subscribers ; Centralised arrangements for recording messages
    • H04M3/51Centralised call answering arrangements requiring operator intervention, e.g. call or contact centers for telemarketing
    • H04M3/523Centralised call answering arrangements requiring operator intervention, e.g. call or contact centers for telemarketing with call distribution or queueing
    • H04M3/5232Call distribution algorithms
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/50Centralised arrangements for answering calls; Centralised arrangements for recording messages for absent or busy subscribers ; Centralised arrangements for recording messages
    • H04M3/527Centralised call answering arrangements not requiring operator intervention

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Marketing (AREA)
  • Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • Psychiatry (AREA)
  • Hospice & Palliative Care (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Child & Adolescent Psychology (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Telephonic Communication Services (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本出願は、音声処理技術の分野に係り、特に、音声情報を処理するための方法及び装置に関する。
インターネット及び通信の技術の進歩により、ユーザらは、ネットワーク又は電話を通じて連絡をとり、その通信の間にいくつかの質問を行い、関連する回答を取得することができる。例えば、ユーザがいくつかの質問を行うことができるようにユーザと通信して、ユーザに対する関連する回答を提供するために、双方向音声応答(IVR:Interactive Voice Response)方式を利用する顧客サービスシステムがあり、漸増的に増えている。
IVRを用いるプロセスは、ユーザは、電話を通じてIVRのサービスセンタに対して接続され、サービスセンタの音声プロンプトに従ってサービスチャネルを選択し、選択されたサービスチャネルを用いることによって質問を行うことを含み、ここで、選択されたサービスチャネルがマニュアルサービスチャネル(manual service channel)又は知的サービスチャネル(intelligent service channel)であってもよい。現在、IVRのサービスモードは単調であり、サービス方式は充分に柔軟ではなく、したがって、IVRのサービス品質は低い。
本出願の複数の態様は、IVRのサービス品質の向上のための、音声情報を処理する方法及び装置を提供する。
本出願の一態様において、
ユーザによって行われる質問を表現するための音声データを取得するステップと、
ユーザの優先度を判定するために音声データに対し感情分析を実行するステップと、
ユーザの優先度に従って、対応するサービスチャネルにユーザを接続するステップと
を含む、音声情報を処理するための方法が提供される。
本出願の別の態様において、
ユーザによって行われる質問を表現するための音声データを取得するように構成された取得モジュールと、
ユーザの優先度を判定するために音声データに対し感情分析を実行するように構成された分析モジュールと、
ユーザの優先度に従って、対応するサービスチャネルにユーザを接続するように構成されたサービス接続モジュールと
を含む、音声情報を処理するための装置が提供される。
本出願において、ユーザの音声データが取得され、音声データの優先度を判定するために、感情分析が音声データに対し実行され、ユーザは、音声データの優先度に従って、対応するサービスチャネルに対して接続される。先行技術と比較して、本出願は、音声データの優先度に従って、対応するサービスチャネルに対してユーザを接続することができ、このような方法で、ユーザは、異なるサービスチャネルに対して柔軟に且つタイミング良く接続されることができる。例えば、より優先度の高い音声データを有するユーザは、高プライオリティサービスチャネルに対して接続されてもよく、したがって、ユーザエクスペリエンス及び問題を解決する速度の向上につながり、同時に、IVRのサービスモードを拡大し、サービスの柔軟性を向上し、IVRのサービス品質の向上につながる。
本出願の実施形態における技術的解決手段又は従来技術をさらに明確に記載するために、実施形態又は従来技術に関する記載において使用されている添付の図面が、以下に簡潔に紹介される。以下の記述において、添付の図面が本出願のいくつかの実施形態であるということは明らかであり、当業者は、また、創造的な労力を何ら伴うことなく添付の図面に従って他の添付の図面を得ることができる。
本出願の実施形態による音声情報を処理するための方法の概略フローチャートである。 本出願の実施形態によるステップ101の実装の概略フローチャートである。 本出願の実施形態によるステップ102の実装の概略フローチャートである。 本出願の別の実施形態による音声情報を処理するための方法の概略フローチャートである。 本出願の別の実施形態による音声情報を処理するための装置の概略構成図である。
本出願の実施形態の目的、技術的解決手段、及び有利性をより明らかにするために、本出願の実施形態における技術的解決手段は、本出願の実施形態内に添付の図面を参照して明確に且つ充分に以下に記載されることになる。記載される実施形態が本出願の実施形態の全部ではなく単に一部である、ということは明らかである。本出願における実施形態に基づいて、創造的な労力を伴わずに当業者によって得られる他のすべての実施形態は、本出願の保護範囲によって含まれるものとする。
図1は、本出願の実施形態による音声情報を処理するための方法の概略フローチャートである。図1に示すように、本方法は、以下のものを含む。
101:ユーザの音声データが取得される。
102:音声データの優先度を判定するために、感情分析が音声データに対し実行される。
103:ユーザは、音声データの優先度に従って、対応するサービスチャネルに対して接続される。
この実施形態は、音声情報を処理するための装置によって実行されることができる、音声情報を処理するための方法を提供する。特定の実装を通じて、音声情報を処理するための装置は、所定の処理機能を有し、IVRなどの音声サービスを提供する顧客サービスシステムに適用可能な、任意の装置又は装置であってもよい。
具体的には、音声情報を処理するための装置は、ユーザの音声データを取得し、音声データの優先度を判定するために音声データに対し感情分析を実行し、その後、音声データの優先度に従って、対応するサービスチャネルに対してユーザを接続する。
音声データの優先度は、ある程度、ユーザの優先度を示すことができる若しくは反映することができる、ということに留意するべきである。
この実施形態は、音声データの優先度を判定するために音声データに対し感情分析を実行し、したがって、ユーザは、音声データの優先度に従って、異なるサービスチャネルに対して柔軟に且つタイミング良く接続されることができる。例えば、従来技術における音声プロンプトに従ってユーザによってサービスチャネルを選択するのではなく、より優先度が高い音声データを有するユーザが高プライオリティサービスチャネルに対して接続されることができ、したがって、IVRのサービスモードが拡大され、IVRのサービス品質が向上される。
選択可能な実装において、ユーザの音声データは、ユーザによって行われる質問を表現するための音声データであってもよい。
実際のアプリケーションにおいて、各アプリケーションは、ユーザが質問を行い、関連情報を学習し、提案をフィードバックし、及び同様のもののために、アプリケーションを用いるユーザ毎に通信プラットフォームを提供するために用いられる顧客サービスシステムを通常提供してもよい。
この実施形態において、顧客サービスシステムは、少なくとも1つのサービスチャネル(又はサービス方式)を提供する。例えば、それは、マニュアルチャネル及び知的チャネルを含んでもよい。マニュアルチャネルは、顧客サービス担当者(customer service representative)が音声方式でユーザに対するサービスを提供するということを主に指し、知的チャネルは、例えば、オンラインチャットサービス、オンラインセルフサービス、及び同様のものを含む、非マニュアルサービス方式を指す。
この実施形態において、サービスチャネルは、優先度に従って分類される。マニュアルチャネルの優先度は、知的チャネルよりも高くするべきである。その上、マニュアルチャネルは、共通マニュアルチャネル(common manual channel)、専門家マニュアルチャネル(specialist manual channel)、及び同様のものにさらに分類されてもよい。専門家マニュアルチャネルの優先度は、共通マニュアルチャネルよりも高い。サービスチャネルの優先度が高いほど、提供されたサービス品質はより優れる。例えば、専門家マニュアルチャネルによって提供されることができるサービス品質は、共通マニュアルチャネルのサービス品質よりも高い。異なるサービスチャネルのサービス品質は、解決可能な問題の複雑性、サービス態度、問題を解決する速度、及び問題を解決する柔軟性などの複数の要因によって判定されてもよい。
顧客サービスシステムに対してこの実施形態において提供される方法を適用する特定のプロセスは、ユーザが質問を行う必要がある場合、ユーザによって行われる質問を表現するための音声データが取得され、行われる質問をユーザが表現する場合にユーザの感情を取得し、且つユーザが質問を行う場合にユーザの感情に従って音声データの優先度を判定するために、感情分析が音声データに対し実行され、その後、ユーザは音声データの優先度に従って、対応するサービスチャネルに対して接続されることを含む。
この実施形態は、ユーザが質問を行う際にユーザの音声データに対する感情分析を実行し、それにより、ユーザを区別し、その後、異なる優先度によりユーザを異なるサービスチャネルに対して接続することによって、音声データの優先度を通じてユーザの優先度を具体化することができ、それが、ユーザエクスペリエンス及び問題を解決する速度の向上につながり、さらに、顧客サービスシステムのサービス品質の向上につながる、ということが分かる。その上、従来技術と比較して、この実施形態において提供される方法は、例えば、従来技術のようにすべてのユーザを一様に処理するのではなく、ユーザを区別することに等価である、音声データの優先度を通じたユーザの優先度を具体化することができる。緊急の要求を有するユーザは、マニュアルチャネルに対して優先的に接続されてもよく、それにより、顧客サービスシステムのサービスモードを拡大し、サービスの柔軟性を向上する。
選択可能な実装において、ステップ101の実装は、図2に示すように、以下のものを特に含む。
1011:ユーザの通信リクエストが、ユーザとの音声通信を実行するために受信される。
1012:音声プロンプトがユーザに対して再生される。
1013:音声プロンプトのプロンプト下でユーザによって送られた音声データが受信される。
選択可能な実装において、音声プロンプトは、行われる質問を表現するようにユーザに指示するための質問表現プロンプト(question description prompt)であってもよい。それに対応して、ユーザは、質問表現プロンプトのプロンプト下で、行われる質問を表現するための音声データを送ってもよい。
特に、IVRなどのユーザに対する音声サービスを提供するいくつかの顧客サービスシステムに対して、ユーザが顧客サービスシステムに質問する場合、ユーザは、通常、顧客サービスシステム内の音声情報を処理するための装置に対して通信リクエストを送るために携帯電話及び固定電話などの通信端末を通じて対応する顧客サービスホットラインにダイヤルし、音声情報を処理するための装置は、ユーザとの音声通信を確立するために通信リクエストを受信する。その後、音声情報を処理するための装置は、なされる質問を表現するようユーザに入力を促すために、ユーザに対して質問表現プロンプトを再生する。例えば、質問表現プロンプトは、「1文で質問を表現してください」及び「あなたがしたい質問は何ですか」などの音声であってもよい。ユーザは、なされる質問を表現する音声データを形成するために、質問表現プロンプトに従って、なされる質問を表現する。例えば、音声データは、「私はパスワードを忘れました」及び「私はアカウント及びパスワードを入力した後に通常通りにログインすることができない」などの音声であってもよい。
ユーザによってなされる質問を表現するための音声データを取得するために、上記の方式を利用することに加えて、音声情報を処理するための装置は、また、他の方式を利用してもよい、ということに留意するべきである。例えば、音声情報を処理するための装置は、ユーザによってなされる質問を表現するための音声データを、別の装置(例えばユーザ端末)から、取得してもよい。
音声情報を処理するための装置は、音声データを取得した後に、音声データの優先度を判定するために音声データに対し感情分析を実行してもよい。選択可能な実装において、ステップ102の実装は、図3に示すように、以下のものを特に含む。
ユーザが音声データを送る場合、ユーザの音量(volume)及び/又はペーシングを判定するために、感情分析が音声データに対し実行される。
1022:ユーザの感情値が、音量及び/又はペーシングに従って取得される。
1023:ユーザの優先度が、ユーザの感情値と、感情値と優先度との間の事前設定されたマッピング関係に従って取得される。
感情分析は、一種の意味解析であり、従来技術に属する。音量及びペーシングを分析することができる様々な方法が、この実施形態に対して適用可能である。例えば、ペーシングを分析するプロセスは、音声データが取得された後に音声データの短時間の平均振幅を計算し、その後、音声データのペーシングを計算するために短時間の平均振幅に従って音声データの開始点及び終了点を分析することであってもよい。
音は、いくつかの(又は無限の)周波数成分によって形成される。周波数スペクトルは、音の特性を検出し表現するために通常用いられる。したがって、音量を分析するプロセスは、音声データを時間領域信号から周波数領域信号に変換し、オクターブを分割し、音声データの音量を取得するために、周波数領域信号を絶対振幅から相対振幅、すなわちデシベル(DB)、に変換することであってもよい。
音声情報を処理するための装置は、行われる質問をユーザが表現する際にユーザのペーシング及び/又は音量を取得するために音声データに対し感情分析を実行する。ペーシング及び音量は、不安、怒り、及び平静などのユーザの感情を表わしてもよい。
音量に関して、音量が0DBと20DBとの間にある場合、非常に静かであり、ほとんど聞こえない。音量が20DBと40DBとの間にある場合、ユーザが比較的平穏であることを示す、静かな囁き声のような音声である。音量が40DBと60DBとの間にある場合、ユーザが感情的に安定していることを示す、一般的で且つ普通の屋内での話し方である。音量が60DBと70DBとの間にある場合、ユーザが不安になっているか又は怒っていることを示す、騒がしく且つ神経に害を及ぼす。
ペーシングに関して、通常の人のペーシングは、通常の状況では70〜90語/分であり、行われる質問を1文で表現する時間が15秒であれば、約18〜23語が含まれているはずである。ユーザが質問をする場合、ユーザのペーシングが18〜23語よりも少ないか又は同じくらいであれば、ユーザが比較的平穏であり、行われる質問は緊急ではないかもしれない、ということを示す。これに反して、ユーザが質問をする場合、ユーザのペーシングが23語以上、例えば、質問をする場合、ペーシングが約25〜32語であれば、ユーザがかなり不安であり、行われる質問が緊急かもしれない、ということを示す。
これに基づいて、音声情報を処理するための装置は、行われる質問をユーザが表現する場合、ユーザのペーシング及び/又は音量を取得した後に、ペーシング及び/又は音量に従って、ユーザの感情値をさらに取得する。
オプションとして、音量及び/又はペーシングに対し数値処理が実行されてもよく、数値処理の結果は、ユーザの感情値として用いられる。数値処理の方式は、加重平均、重み付け、又は同様のものであってもよい。
例えば、実装は、ユーザの感情値として音量と重みとの積を、音声情報を処理するための装置によって、用いることを含む。重みが1である場合、音量は、ユーザの感情値として直接用いられてもよい。
別の例に関して、実装は、ユーザの感情値としてペーシングと重みとの積を、音声情報を処理するための装置によって、用いることを含む。重みが1である場合、ペーシングは、ユーザの感情値として直接用いられてもよい。
別の例に関して、実装は、音量及びペーシングに対して数値処理を、音声情報を処理するための装置によって実行し、ユーザの感情値として数値処理の結果を用いることを含む。例えば、音声情報を処理するための装置は、音量及びペーシングを乗算し、ユーザの感情値として乗算の結果を用いる、又は、音声情報を処理するための装置は、音量及びペーシングに対し加重平均を実行し、ユーザの感情値として結果を用いてもよい。数値処理の方式は、乗算及び加重平均に限定されない。
ユーザの感情値が取得された後、音声情報を処理するための装置は、感情値と優先度との間の事前設定されたマッピング関係にユーザの感情値を合致させ、合致した優先度は、ユーザの優先度として用いられる。
感情値及び優先度の間のマッピング関係は、特に、例えば、感情値範囲0〜10は優先度−1に対応し、感情値範囲10〜20は優先度0に対応し、感情値範囲20〜30は優先度1に対応し、感情値範囲30超は優先度2に対応する、感情値範囲と優先度との間の対応関係であってもよい、ということに留意するべきである。代替的に、感情値と優先度との間のマッピング関係は、特に、例えば、感情値閾値10は優先度−1に対応し、感情値閾値20は優先度0に対応し、感情値閾値30は優先度1に対応し、感情値閾値30超は優先度2に対応し、優先度2に対応する感情値閾値は限定されない、感情値閾値と優先度との間の対応関係であってもよい。
選択可能な実装において、音声情報を処理するための装置は、優先度とサービスチャネルとの間のマッピング関係を事前設定し、サービスチャネルは、マニュアルチャネルと知的チャネルとを含む。さらに、オプションとして、マニュアルチャネルは、共通マニュアルチャネルと専門家マニュアルチャネルとにさらに分類されてもよい。音声情報を処理するための装置は、特に、優先度とサービスチャネルとの間の事前設定されたマッピング関係にユーザの優先度を合致させ、マニュアルチャネルが合致した場合、ユーザは、マニュアルチャネルに対して接続され、特に、ユーザの通話要求は、マニュアルチャネル内の顧客サービス担当者のクライアントに対して接続される。知的チャネルが合致する場合、ユーザは、知的チャネルに対して接続され、特に、音声情報を処理するための装置は、音声放送の方式で、問題を解決するためにユーザをガイドしてもよい。
例えば、優先度2は、専門家マニュアルチャネルに対応し、優先度1は、共通マニュアルチャネルに対応し、優先度0及び優先度−1は、知的チャネルに対応する。ユーザの優先度が2であると仮定すると、その場合、音声情報を処理するための装置は、専門家マニュアルチャネルに対してユーザを接続する必要がある。
さらに、音声情報を処理するための装置は、音声データに従って、ユーザによって行われる質問に答えるための参照情報(reference information)をさらに生成し、マニュアルチャネルに対応する顧客サービス担当者に対して参照情報を提供してもよく、その結果、顧客サービス担当者は、参照情報に従ってユーザに対して質問に答え、それにより、質問に答えることの効率及び品質を向上する。
参照情報を生成する手法は、意味情報処理装置が、音声データに対しテキスト変換を実行し、ユーザによってなされる質問のカテゴリを判定するためにテキスト情報を認識し、ユーザのアカウント情報を取得し、参照情報を生成するために、ユーザによってなされる質問のカテゴリ及びユーザのアカウント情報を動的にアセンブルすることを含むが、それに限定されない。参照情報は、音声の形式又はテキストの形式であってもよい。
ユーザが接続されるべきサービスチャネルを判定するためにユーザの優先度がどのように用いられるのかを上記の実施形態は強調するが、本出願の実施形態は、ユーザが接続されるべきサービスチャネルを判定するためにユーザの優先度を個別に用いることに限定されず、ユーザの優先度は、さらに他の情報と組み合わせて用いられてもよい、ということに留意するべきである。例えば、ユーザの優先度は、ユーザが接続されるサービスチャネルを判定する(例えば、ユーザによってなされる質問のカテゴリに基づいて、ユーザが接続されるべきサービスチャネルを判定する)ために、既存のIVRにおいて実施されてきた方法と組み合わされてもよい。具体的な組み合わせ方式は、先ずユーザの優先度を検討し、次に、ユーザによって行われる質問のカテゴリを検討すること、又は、先ずユーザによって行われる質問のカテゴリを検討し、次に、ユーザの優先度を検討すること、又は、ユーザによって行われる質問のカテゴリとユーザの優先度とを同時に検討することを含んでもよい。
図4に示す以下の実施形態は、ユーザの優先度を用いることによってユーザに対するサービスチャネルを判定する詳細フローを提供する。図4に示す実施形態において、モジュールは、具体的には、音声情報を処理するための装置を構成してもよい。
図4は、本発明の実施形態のよる音声情報を処理するための方法の概略フローチャートである。図4に示すように、本方法は、以下のものを含む。
21:双方向音声応答(IVR)モジュールは、ユーザとの音声通信を確立するために、ユーザによって送られた通信リクエストを受信する。
22:IVRモジュールは、なされる質問を表現するようにユーザに入力を促すために、ユーザに対して質問表現プロンプトを再生する。
23:IVRモジュールは、なされる質問をユーザが表現する際にユーザによって生成された音声データを受信する。
24:IVRモジュールは、Alipay一般アルゴリズムプラットフォーム(AGAP:Alipay general algorithm platform)モジュールに対して音声データを送る。
25:AGAPモジュールは、ユーザの音量及び/又はペーシングを取得するために音声データに対し感情分析を実行し、音量及び/又はペーシングに従ってユーザの優先度を取得し、IVRモジュールに対してユーザの優先度を戻す。
26:IVRモジュールは、自動音声認識(ASR:automatic speech recognition )モジュールに対して音声データを送る。
27:ASRモジュールは、テキスト情報を取得するために音声データに対しテキスト変換を実行し、IVRモジュールに対してテキスト情報を戻す。
28:IVRモジュールは、顧客サービス双方向音声応答(CSIVR:customer service interactive voice response)モジュールに対してテキスト情報とユーザの優先度とを提供する。
29:CSIVRモジュールは、Alipayテキスト解析(ALITA:Alipay text analyze)モジュールに対してテキスト情報を送る。
30:ALITAモジュールは、質問のカテゴリを判定するためにテキスト情報に対し意味解析を実行し、CSIVRモジュールに対して、判定された質問のカテゴリを戻す。
31:CSIVRモジュールは、ユーザ(顧客情報ファイル(CIF:customer information file))モジュールに対して、着信番号及びID番号などの情報を提供する。
32:CIFモジュールは、ユーザの着信番号及びID番号に従ってユーザのアカウント情報を取得し、CSIVRモジュールに対してユーザのアカウント情報を戻す。
33:CSIVRモジュールは、顧客サービス精密(CSACCURATE:customer service accurate)モジュールに対して、ユーザのアカウント情報、質問のカテゴリ及び、ユーザの優先度を送る。
34:CSACCURATEモジュールは、ユーザのアカウント情報、質問のカテゴリ、及びユーザの優先度に従って、ユーザに対応するサービスチャネルを判定し、判定されたサービスチャネルの識別情報をCSIVRモジュールに戻す。
この実装において、CSACCURATEモジュールは、ユーザが接続されるべきサービスチャネルを判定するために、質問のカテゴリとユーザの優先度とを同時に検討する。
例えば、ユーザによって行われる質問のカテゴリに従って、ユーザが無効なユーザ(invalid user)として判定され、ユーザが質問をする場合、音量とペーシングに従って、ユーザの優先度が−1として決定されると仮定すると、ユーザは知的チャネルに対して接続されてもよい。例えば、ユーザによって行われる質問のカテゴリに従って、質問しているユーザとして判定され、ユーザが質問をする場合、音量とペーシングに従って、ユーザの優先度が0として決定されると仮定すると、ユーザは知的チャネルに対して接続されてもよい。例えば、ユーザによって行われる質問のカテゴリに従って、サービス要求しているユーザとして判定され、ユーザが質問をする場合、音量とペーシングに従って、ユーザの優先度が1として決定されると仮定すると、ユーザは共通マニュアルチャネルに対して接続されてもよい。例えば、ユーザによって行われる質問のカテゴリに従って、緊急の要求を伴うユーザとして判定され、ユーザが質問をする場合、音量とペーシングに従って、ユーザの優先度が2として決定されると仮定すると、ユーザは専門家マニュアルチャネルに対して接続されてもよい。
35:サービスチャネルが知的チャネルであれば、CSIVRモジュールは、ユーザのアカウント情報、質問のカテゴリ、及びユーザの優先度に従って、対応する音声再生データを生成し、問題を解決するためにユーザをガイドするIVRモジュールに対する、音声再生データをIVRモジュールに戻す。
36:サービスチャネルがマニュアルチャネルであると、CSIVRモジュールは、ユーザのアカウント情報、質問のカテゴリ、及びユーザの優先度に従って、参照情報を生成し、マニュアルチャネルに対してユーザを接続し、同時に、マニュアルチャネル内の顧客サービス担当者に対して参照情報を提供する。
この実施形態において、ユーザが質問をする場合、ユーザの優先度は、ユーザの感情に従って判定されてもよく、ユーザは、優先度に基づいて対応するサービスチャネルに対して接続され、このような方法で、異なる優先度のユーザは、異なるサービスチャネルに対して柔軟に且つタイミング良く接続されることができる。例えば、より優先度が高いユーザは、高プライオリティサービスチャネルに対して接続されてもよく、それにより、ユーザエクスペリエンスと問題を解決する速度との向上につながり、その一方で、IVRのサービスモードを拡大し、サービスの柔軟性を向上し、IVRのサービス品質の向上につながる。
記載の容易さのために、上記で言及された方法の実施形態がすべて一連の動作の組み合わせとして記載される、ということに留意するべきであるが、但し、当業者は、本明細書内に記載した動作の順序に本出願が限定されない、ということを認識するべきであり、これは、いくつかのステップが、他の順序で又は同時に、本出願に従って実行されてもよいからである。次に、当業者は、また、明細書内に記載される実施形態は、すべて、好ましい実施形態であり、関係する動作及びモジュールは、本出願によって必ずしも必要とされない、ということを認識するべきである。
上記の実施形態において、実施形態上の記載はそれぞれのエンファシスを有しており、実施形態に詳細には記載されない部分に関して、他の実施形態における関連する記載を参照してもよい。
図5は、本出願の実施形態による音声情報を処理するための装置の概略構成図である。図5に示すように、本装置は、取得モジュール51と、分析モジュール52と、サービス接続モジュール53とを含む。
取得モジュール51は、ユーザの音声データを取得するように構成される。
分析モジュール52は、取得モジュール51に対して接続され、音声データの優先度を判定するために取得モジュール51によって取得された音声データに対し感情分析を実行するように構成される。
サービス接続モジュール53は、分析モジュール52に対して接続され、分析モジュール52によって判定された音声データの優先度に従って、対応するサービスチャネルに対してユーザを接続するように構成される。
音声データの優先度は、ある程度、ユーザの優先度を示すことができる又は表わすことができる、ということに留意するべきである。
選択可能な実装において、ユーザの音声データは、ユーザによって行われる質問を表現するための音声データであってもよい。
選択可能な実装において、取得モジュール51は、ユーザとの音声通信を実行するためにユーザの通信リクエストを受信し、ユーザに対して音声プロンプトを再生し、音声プロンプトのプロンプト下でユーザによって送られた音声データを受信するように特に構成される。
選択可能な実装において、音声プロンプトは、行われる質問を表現するようにユーザに指示するための質問表現プロンプトであってもよい。それに対応して、ユーザは、質問表現プロンプトのプロンプト下で、行われる質問を表現するための音声データを送ることができる。
選択可能な実装において、分析モジュール52は、ユーザが音声データを送る場合、ユーザの音量及び/又はペーシングを決定するために音声データに対し感情分析を実行し、音量及び/又はペーシングに従ってユーザの感情値を取得し、ユーザの感情値と、感情値と優先度との間の事前設定されたマッピング関係とに従ってユーザの優先度を取得するように特に構成される。
分析モジュール52は、ユーザが音声データを送る場合、ユーザの音量及び/又はペーシングを決定するために音声データに対し感情分析を実行し、音量及び/又はペーシングに対し数値処理を実行し、ユーザの感情値として数値処理の結果を用い、ユーザの感情値と、感情値と優先度との間の事前設定されたマッピング関係とに従って、音声データの優先度を取得するように特に構成される。
選択可能な実装において、サービス接続モジュールは、優先度とサービスチャネルとの間の事前設定されたマッピング関係に音声データの優先度を合致させ、マニュアルチャネルが合致した場合、マニュアルチャネルに対してユーザを接続するように特に構成される。
選択可能な実装において、音声情報を処理するための装置は、音声データに従って参照情報を生成し、マニュアルチャネルに対応する顧客サービス担当者に対して参照情報を提供するように構成された参照処理モジュールをさらに含む。
図5に示す実装構造の利用に加えて、音声情報を処理するための装置は、IVRシステムを形成するために図2に示す実施形態における実装構造をさらに利用してもよい、ということに留意するべきである。
この実施形態による音声情報を処理するための装置は、音声データの優先度に従って、対応するサービスチャネルに対してユーザを接続することができ、そして、このような方法で、ユーザは、異なるサービスチャネルに対して柔軟に且つタイミング良く接続することができ、例えば、より優先度の高い音声データを有するユーザは、高プライオリティサービスチャネルに対して接続されてもよく、したがって、ユーザエクスペリエンス及び問題を解決する速度の向上につながり、同時に、IVRのサービスモードを拡大し、サービスの柔軟性を向上し、IVRのサービス品質の向上につながる。
記載の利便性及び明瞭さのために、上記で述べられたシステム、装置、及びユニットの具体的な作業プロセスが前述の方法の実施形態内の対応するプロセスを参照して取得されるのであり、本明細書においては繰り返されない、ということを当業者は明確に理解することができる。
本出願において提供されるいくつかの実施形態において、開示されるシステム、装置、及び方法が、他の方式で実装されてもよい、ということを理解するべきである。例えば、前述の装置の実施形態は、単なる概略であり、例えば、ユニットの区分は、単に論理機能の区分であり、そして、例えば、実際には、実装の間に他の区分方式があってもよいし、複数のユニット又は構成要素が組み合わされてもよく、又は別のシステム内に組み込まれてもよく、又はいくつかの機能が省略されても若しくは実行されなくてもよい。他方で、表示若しくは議論された相互連結又は直接連結又は通信接続は、いくつかのインタフェース、装置、又はユニットの間の間接連結若しくは通信接続を通じて実装されてもよく、電気的に、機械的に、又は他の形式であってもよい。
個別の部分として記載されたユニットは、物理的に分離されていても若しくは分離されていなくてもよく、ユニットとして表示された部分は、物理的ユニットであっても若しくは物理的ユニットでなくてもよくすなわち、それらは、同じ場所に配置されてもよく、又は、複数のネットワークユニットに対して分散されてもよい。この実施形態の解決手段の目的は、実際の要求に従って、一部若しくはすべてのユニットを選択することによって実装されてもよい。
その上に、本出願の実施形態における各種機能ユニットは、1つの処理装置内に組み込まれることができ、各ユニットは、また、分離した物理的ユニットとして存在してもよいし、2以上のユニットが1ユニットに組み込まれてもよい。統合されたユニットが、ハードウェアの形式で実装されてもよいし、又は、ソフトウェア機能ユニットを加えたハードウェアの形式で実装されてもよい。
ソフトウェア機能ユニットの形式で実装された統合されたユニットは、コンピュータ読み取り可能な記憶媒体内に格納されてもよい。ソフトウェア機能ユニットは、記憶媒体内に格納され、本出願の実施形態において記載された方法のステップの一部を実行するように、パーソナルコンピュータ、サーバ、ネットワーク装置、又は同様のものであってもよいコンピュータ装置若しくはプロセッサを作動させるために用いられるいくつかの指示を含む。記憶媒体は、USBフラッシュディスク、モバイルハードディスク、読み取り専用メモリ(ROM:Read-Only Memory)、ランダムアクセスメモリ(RAM:Random Access Memory)、磁気ディスク、光ディスク、又はプログラムコードを格納することができる他の媒体を含む。
最後に、上記の実施形態は、本出願を限定するものではなく、本出願の技術的解決手段の記述のために単に提供される、ということに留意するべきであり、本出願が前述の実施形態に関連して詳細に記載されたが、前述の実施形態に記載された技術的解決手段に対して修正を行うことができるし、又は、その技術的特徴の一部に等価な置換を行うことができるということを、当業者は理解するべきであり、これらの修正又は置換は、対応する技術的解決手段の本質が、本出願の実施形態の技術的解決手段の精神及び範囲から逸脱するようには意図されない。

Claims (14)

  1. 音声情報を処理するための方法であって、
    ユーザの音声データを取得することと、
    質問を表現する文のテキスト情報を取得するために前記音声データに対しテキスト変換を実行することと、
    前記質問のカテゴリを判定するために前記質問を表現する前記文の前記テキスト情報に対し意味解析を実行することと、
    前記音声データの優先度を判定するために前記音声データに対し感情分析を実行することと、及び
    前記音声データの前記優先度と前記質問の前記カテゴリとに従って、対応するサービスチャネルに前記ユーザを接続することと、
    を備える、方法。
  2. 請求項1に記載の方法において、
    前記ユーザの音声データを取得することは、
    前記ユーザとの音声通信を実行するために前記ユーザの通信リクエストを受信することと、
    前記ユーザに対して音声プロンプトを再生することと、及び
    前記音声プロンプトの前記プロンプト下で前記ユーザによって送られた前記音声データを受信することと、を備える、方法。
  3. 請求項1に記載の方法において、
    前記音声データの優先度を判定するために前記音声データに対し感情分析を実行することは、
    前記ユーザが前記音声データを送る場合、前記ユーザの音量及び/又はペーシングを判定するために前記音声データに対し感情分析を実行することと、
    前記音量及び/又はペーシングに従って前記ユーザの感情値を取得することと、及び
    前記ユーザの前記感情値と、前記感情値と前記優先度との間の事前設定されたマッピング関係とに従って、前記音声データの前記優先度を取得することと、を備える、方法。
  4. 請求項3に記載の方法において、
    前記音量及び/又はペーシングに従って前記ユーザの感情値を取得することは、
    前記音量及び/又はペーシングに対し数値処理を実行し、前記ユーザの前記感情値として前記数値処理の結果を用いることを備える、方法。
  5. 請求項1乃至4の何れか1項に記載の方法において、
    前記音声データの前記優先度と前記質問の前記カテゴリとに従って、対応するサービスチャネルに前記ユーザを接続することは、
    前記優先度と前記サービスチャネルとの間の事前設定されたマッピング関係に前記音声データの前記優先度を合致させること、を備える、方法。
  6. 請求項1乃至5の何れか1項に記載の方法において、
    前記サービスチャネルは、マニュアルサービスチャネルと知的サービスチャネルとを含む、方法。
  7. 請求項に記載の方法において、
    前記音声データに従って参照情報を生成することと、及び
    前記マニュアルチャネルに対応する顧客サービス担当者に対して前記参照情報を提供することと、をさらに備える、方法。
  8. 音声情報を処理するための装置であって、
    ユーザの音声データを取得するように構成された取得モジュールと、
    質問を表現する文のテキスト情報を取得するために前記音声データに対しテキスト変換を実行するように構成された自動音声認識モジュールと、
    前記質問のカテゴリを判定するために前記質問を表現する前記文の前記テキスト情報に対し意味解析を実行するように構成されたテキスト解析モジュールと、
    前記音声データの優先度を判定するために前記音声データに対し感情分析を実行するように構成された分析モジュールと、及び
    前記音声データの前記優先度と前記質問の前記カテゴリとに従って、対応するサービスチャネルに前記ユーザを接続するように構成されたサービス接続モジュールと、を備える、装置。
  9. 請求項に記載の装置において、
    前記取得モジュールは、
    前記ユーザとの音声通信を実行するために前記ユーザの通信リクエストを受信し、
    前記ユーザに対して音声プロンプトを再生し、且つ
    前記音声プロンプトの前記プロンプト下で前記ユーザによって送られた前記音声データを受信するように、構成される、装置。
  10. 請求項に記載の装置において、
    前記分析モジュールは、
    前記ユーザが前記音声データを送る場合、前記ユーザの音量及び/又はペーシングを判定するために前記音声データに対し感情分析を実行し、
    前記音量及び/又はペーシングに従って前記ユーザの感情値を取得し、且つ
    前記ユーザの感情値と、前記感情値と前記優先度との間の事前設定されたマッピング関係とに従って、前記音声データの前記優先度を取得するように、構成される、装置。
  11. 請求項10に記載の装置において、
    前記分析モジュールは、
    前記ユーザが前記音声データを送る場合、前記ユーザの音量及び/又はペーシングを判定するために前記音声データに対し感情分析を実行し、
    前記音量及び/又はペーシングに対し数値処理を実行し、前記ユーザの前記感情値として前記数値処理の結果を用い、且つ
    前記ユーザの感情値と、前記感情値と前記優先度との間の事前設定されたマッピング関係とに従って、前記音声データの前記優先度を取得するように、構成される、装置。
  12. 請求項乃至11の何れか1項に記載の装置において、
    前記サービス接続モジュールは、
    前記優先度と前記サービスチャネルとの間の事前設定されたマッピング関係に前記音声データの前記優先度を合致させるように、構成される、装置。
  13. 請求項8乃至12の何れか1項に記載の装置において、
    前記サービスチャネルは、マニュアルサービスチャネルと知的サービスチャネルとを含む、装置。
  14. 請求項13に記載の装置において、
    前記音声データに従って参照情報を生成し、前記マニュアルチャネルに対応する顧客サービス担当者に対して前記参照情報を提供するように構成された参照処理モジュール、をさらに備える、装置。
JP2017530753A 2014-12-09 2015-12-03 音声情報を処理するための方法及び装置 Active JP6538846B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201410748579.XA CN105744090A (zh) 2014-12-09 2014-12-09 语音信息处理方法及装置
CN201410748579.X 2014-12-09
PCT/CN2015/096241 WO2016091110A1 (zh) 2014-12-09 2015-12-03 语音信息处理方法及装置

Publications (2)

Publication Number Publication Date
JP2018501721A JP2018501721A (ja) 2018-01-18
JP6538846B2 true JP6538846B2 (ja) 2019-07-03

Family

ID=56106695

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017530753A Active JP6538846B2 (ja) 2014-12-09 2015-12-03 音声情報を処理するための方法及び装置

Country Status (7)

Country Link
US (1) US10708423B2 (ja)
EP (1) EP3232651A4 (ja)
JP (1) JP6538846B2 (ja)
KR (2) KR20170088997A (ja)
CN (1) CN105744090A (ja)
SG (1) SG11201704392QA (ja)
WO (1) WO2016091110A1 (ja)

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107993674A (zh) * 2016-10-27 2018-05-04 中兴通讯股份有限公司 一种情绪控制方法及装置
CN106534598A (zh) * 2016-10-28 2017-03-22 广东亿迅科技有限公司 一种基于情感识别的呼叫平台排队***及其实现方法
CN106791107A (zh) * 2016-12-22 2017-05-31 广东小天才科技有限公司 一种提醒方法及装置
CN107274893A (zh) * 2017-05-19 2017-10-20 四川新网银行股份有限公司 一种对客服***智能调整在线排队优先级的方法
CN107277246B (zh) * 2017-06-16 2018-12-28 珠海格力电器股份有限公司 一种信息提醒方法及其装置、电子设备
CN107393541B (zh) * 2017-08-29 2021-05-07 百度在线网络技术(北京)有限公司 信息验证方法和装置
JP7103769B2 (ja) * 2017-09-05 2022-07-20 京セラ株式会社 電子機器、携帯端末、コミュニケーションシステム、見守り方法、およびプログラム
CN107767869B (zh) * 2017-09-26 2021-03-12 百度在线网络技术(北京)有限公司 用于提供语音服务的方法和装置
CN108632475B (zh) * 2018-03-22 2021-08-17 平安科技(深圳)有限公司 语音留言方法、装置、计算机设备和存储介质
CN108876177A (zh) * 2018-06-28 2018-11-23 北京博数嘉科技有限公司 一种旅游咨询管理平台及管理方法
CN110970017B (zh) * 2018-09-27 2023-06-23 北京京东尚科信息技术有限公司 人机交互方法及***、计算机***
CN109618068B (zh) * 2018-11-08 2021-04-16 上海航动科技有限公司 一种基于人工智能的语音业务推送方法、装置与***
CN109767240A (zh) * 2018-12-17 2019-05-17 中国平安财产保险股份有限公司 云客服分配方法、装置、计算机设备和存储介质
CN110149450A (zh) * 2019-05-22 2019-08-20 欧冶云商股份有限公司 智能客服应答方法及***
CN110289017A (zh) * 2019-06-06 2019-09-27 秒针信息技术有限公司 语音处理方法以及装置
CN112309586A (zh) * 2019-07-26 2021-02-02 深圳百诺明医说科技有限公司 提高医疗机器人推送信息与用户病症适配度的方法及***
CN110890096A (zh) * 2019-10-12 2020-03-17 深圳供电局有限公司 一种基于语音分析的智能语音***及方法
CN111161733B (zh) * 2019-12-31 2022-09-23 中国银行股份有限公司 一种智能语音服务的控制方法及装置
CN112040074B (zh) * 2020-08-24 2022-07-26 华院计算技术(上海)股份有限公司 基于语音声学信息的电话客服人员职业倦怠检测方法
WO2022054910A1 (ja) * 2020-09-14 2022-03-17 日本電気株式会社 接続装置、接続システム、接続方法等
CN112820323B (zh) * 2020-12-29 2023-06-16 平安银行股份有限公司 基于客户语音进行响应队列优先级调整方法及***
CN115910110A (zh) * 2022-11-30 2023-04-04 杭州网筌科技有限公司 一种基于自然语言识别的政务服务***
CN116580721B (zh) * 2023-07-13 2023-09-22 中国电信股份有限公司 表情动画的生成方法、装置和数字人平台

Family Cites Families (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5559927A (en) 1992-08-19 1996-09-24 Clynes; Manfred Computer system producing emotionally-expressive speech messages
US5860064A (en) * 1993-05-13 1999-01-12 Apple Computer, Inc. Method and apparatus for automatic generation of vocal emotion in a synthetic text-to-speech system
US6094635A (en) 1997-09-17 2000-07-25 Unisys Corporation System and method for speech enabled application
GB9723813D0 (en) * 1997-11-11 1998-01-07 Mitel Corp Call routing based on caller's mood
US6185534B1 (en) 1998-03-23 2001-02-06 Microsoft Corporation Modeling emotion and personality in a computer user interface
US6144938A (en) 1998-05-01 2000-11-07 Sun Microsystems, Inc. Voice user interface with personality
US6665644B1 (en) * 1999-08-10 2003-12-16 International Business Machines Corporation Conversational data mining
US7457397B1 (en) 1999-08-24 2008-11-25 Microstrategy, Inc. Voice page directory system in a voice page creation and delivery system
US7222075B2 (en) 1999-08-31 2007-05-22 Accenture Llp Detecting emotions using voice signal analysis
US6490564B1 (en) 1999-09-03 2002-12-03 Cisco Technology, Inc. Arrangement for defining and processing voice enabled web applications using extensible markup language documents
US6658388B1 (en) 1999-09-10 2003-12-02 International Business Machines Corporation Personality generator for conversational systems
US7140004B1 (en) 2000-06-13 2006-11-21 Tellme Networks, Inc. Method and apparatus for zero-footprint phone application development
US6757365B1 (en) 2000-10-16 2004-06-29 Tellme Networks, Inc. Instant messaging via telephone interfaces
US6795808B1 (en) 2000-10-30 2004-09-21 Koninklijke Philips Electronics N.V. User interface/entertainment device that simulates personal interaction and charges external database with relevant data
US7242752B2 (en) 2001-07-03 2007-07-10 Apptera, Inc. Behavioral adaptation engine for discerning behavioral characteristics of callers interacting with an VXML-compliant voice application
US20030007609A1 (en) 2001-07-03 2003-01-09 Yuen Michael S. Method and apparatus for development, deployment, and maintenance of a voice software application for distribution to one or more consumers
AU2003225620A1 (en) * 2002-02-26 2003-09-09 Sap Aktiengesellschaft Intelligent personal assistants
US7665024B1 (en) * 2002-07-22 2010-02-16 Verizon Services Corp. Methods and apparatus for controlling a user interface based on the emotional state of a user
US6959080B2 (en) * 2002-09-27 2005-10-25 Rockwell Electronic Commerce Technologies, Llc Method selecting actions or phases for an agent by analyzing conversation content and emotional inflection
US7676034B1 (en) 2003-03-07 2010-03-09 Wai Wu Method and system for matching entities in an auction
JP4197344B2 (ja) 2006-02-20 2008-12-17 インターナショナル・ビジネス・マシーンズ・コーポレーション 音声対話システム
US20080086690A1 (en) 2006-09-21 2008-04-10 Ashish Verma Method and System for Hybrid Call Handling
JP2009182433A (ja) * 2008-01-29 2009-08-13 Seiko Epson Corp コールセンターの情報提供システム、情報提供装置、情報提供方法及び情報提供プログラム
CN101997996B (zh) 2009-08-13 2014-12-03 华为技术有限公司 一种排队路由的方法及装置
CN101662549B (zh) 2009-09-09 2013-02-27 中兴通讯股份有限公司 一种基于语音的客户评价***及客户评价方法
CN102082879B (zh) * 2009-11-27 2014-07-30 华为技术有限公司 呼叫中心语音检测的方法、装置及***
CN101741953A (zh) * 2009-12-21 2010-06-16 中兴通讯股份有限公司 一种通话时应用卡通动画显示语音信息的方法和装置
CN102142253B (zh) * 2010-01-29 2013-05-29 富士通株式会社 语音情感识别设备及方法
US20130051545A1 (en) * 2011-08-25 2013-02-28 Bank Of America Corporation Call center system for dynamic determination of appropriate representative
CN102623009B (zh) * 2012-03-02 2013-11-20 安徽科大讯飞信息科技股份有限公司 一种基于短时分析的异常情绪自动检测和提取方法和***
CN102802114B (zh) * 2012-06-20 2015-02-18 北京语言大学 利用语音进行座席筛选的方法及***
CN103413113A (zh) * 2013-01-15 2013-11-27 上海大学 一种服务机器人智能情感交互的方法
CN103811009A (zh) * 2014-03-13 2014-05-21 华东理工大学 一种基于语音分析的智能电话客服***
US10101974B2 (en) * 2014-07-31 2018-10-16 Angel.Com Incorporated Contact center application creating using reusable program modules

Also Published As

Publication number Publication date
KR102284973B1 (ko) 2021-08-03
WO2016091110A1 (zh) 2016-06-16
EP3232651A4 (en) 2018-05-09
EP3232651A1 (en) 2017-10-18
CN105744090A (zh) 2016-07-06
US10708423B2 (en) 2020-07-07
JP2018501721A (ja) 2018-01-18
KR20170088997A (ko) 2017-08-02
SG11201704392QA (en) 2017-06-29
US20170346947A1 (en) 2017-11-30
KR20190037363A (ko) 2019-04-05

Similar Documents

Publication Publication Date Title
JP6538846B2 (ja) 音声情報を処理するための方法及び装置
US11600265B2 (en) Systems and methods for determining whether to trigger a voice capable device based on speaking cadence
CN107623614B (zh) 用于推送信息的方法和装置
AU2016216737B2 (en) Voice Authentication and Speech Recognition System
CN107818798A (zh) 客服服务质量评价方法、装置、设备及存储介质
CN105489221B (zh) 一种语音识别方法及装置
US7995732B2 (en) Managing audio in a multi-source audio environment
US20090043583A1 (en) Dynamic modification of voice selection based on user specific factors
US11062708B2 (en) Method and apparatus for dialoguing based on a mood of a user
CN110289015B (zh) 一种音频处理方法、装置、服务器、存储介质及***
CN104851423B (zh) 一种声音信息处理方法及装置
CN113707183B (zh) 一种视频中的音频处理方法及装置
CN101460994A (zh) 语音区分
CN108766429B (zh) 语音交互方法和装置
US12020724B2 (en) Methods and systems for audio sample quality control
CN116016779A (zh) 语音通话翻译辅助方法、***、计算机设备和存储介质
CN110838211A (zh) 语音抢答方法、装置和***
CN110619870B (zh) 一种人机对话方法、装置、家用电器和计算机存储介质
KR100957710B1 (ko) 스타 음성 메시지 청취 시스템
KR20100012051A (ko) 스타 음성 메시지 청취 시스템
CN116758897A (zh) 方言语音指令的识别方法、装置及电子设备
JP2013228472A (ja) 音声信号処理方法、及び音声信号処理システム
Möller et al. A new Testbed for Semi-Automatic Usability Evaluation and Optimization of Spoken Dialogue Systems
Hempel et al. A new Testbed for Semi-Automatic Usability Evaluation and Optimization of Spoken Dialogue Systems
KR20060098128A (ko) 다단계 음성인식 기술을 이용한 음성인식 콜센터 시스템

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180928

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181009

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190109

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190507

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190606

R150 Certificate of patent or registration of utility model

Ref document number: 6538846

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250