JP2021177598A - 音声処理システム、音声処理方法、及び音声処理プログラム - Google Patents

音声処理システム、音声処理方法、及び音声処理プログラム Download PDF

Info

Publication number
JP2021177598A
JP2021177598A JP2020082358A JP2020082358A JP2021177598A JP 2021177598 A JP2021177598 A JP 2021177598A JP 2020082358 A JP2020082358 A JP 2020082358A JP 2020082358 A JP2020082358 A JP 2020082358A JP 2021177598 A JP2021177598 A JP 2021177598A
Authority
JP
Japan
Prior art keywords
voice
base
unit
transmission
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020082358A
Other languages
English (en)
Inventor
典子 畑
Noriko Hata
文亮 杉森
Fumiaki Sugimori
達也 西尾
Tatsuya Nishio
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2020082358A priority Critical patent/JP2021177598A/ja
Priority to US17/230,187 priority patent/US11651779B2/en
Publication of JP2021177598A publication Critical patent/JP2021177598A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/40Support for services or applications
    • H04L65/403Arrangements for multi-party communication, e.g. for conferences
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/78Detection of presence or absence of voice signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/75Media network packet handling
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/80Responding to QoS
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L2015/088Word spotting

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Quality & Reliability (AREA)
  • Telephonic Communication Services (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

【課題】音声トラブルを検出するとともに、当該音声トラブルの対処法を提示することが可能な音声処理システム、音声処理方法、及び音声処理プログラムを提供する。【解決手段】音声処理システムは、ユーザが発話した音声を受信する音声受信部と、前記音声受信部より受信される前記音声を認識する音声認識部と、第1拠点から受信する第1音声の認識結果と、第2拠点から受信する第2音声の認識結果とに基づいて、前記第1拠点及び前記第2拠点間の前記音声の送受信状態を判定する音声判定部と、前記音声判定部により前記送受信状態が異常と判定された場合に、前記送受信状態の異常を解消するための特定情報を提示する情報提示部と、を備える。【選択図】図6

Description

本発明は、音声処理システム、音声処理方法、及び音声処理プログラムに関する。
従来、互いに離れた場所においてネットワークを介して音声、映像、ファイルなどを送受信して行う会議システムが提案されている。例えば特許文献1には、会議システムにおいて、話者の音声を認識したテキストと、当該話者の映像とを表示部に表示させる技術が開示されている。
特許第6463825号公報
しかし、従来の会議システムでは、ネットワークの帯域不足、遅延、マイク及びスピーカの不具合などが生じた場合に、音声通話が途切れるといった音声トラブルが生じることがある。また、前記音声トラブルが生じた場合に、当該音声トラブルの原因を特定することが困難であるため、当該音声トラブルに対する対応が遅れてしまう問題もある。
本発明の目的は、音声トラブルを検出するとともに、当該音声トラブルの対処法を提示することが可能な音声処理システム、会議システム、音声処理方法、及び音声処理プログラムを提供することにある。
本発明の一の態様に係る音声処理システムは、ネットワークを介して接続された第1拠点及び第2拠点において、ユーザが発話した音声を送受信する音声処理システムであって、前記音声を受信する音声受信部と、前記音声受信部より受信される前記音声を認識する音声認識部と、前記第1拠点から受信する第1音声の認識結果と、前記第2拠点から受信する第2音声の認識結果とに基づいて、前記第1拠点及び前記第2拠点間の前記音声の送受信状態を判定する音声判定部と、前記音声判定部により前記送受信状態が異常と判定された場合に、前記送受信状態の異常を解消するための特定情報を提示する情報提示部と、を備える。
本発明の他の態様に係る音声処理方法は、ネットワークを介して接続された第1拠点及び第2拠点において、ユーザが発話した音声を送受信する音声処理方法であって、前記音声を受信する音声受信ステップと、前記音声受信ステップより受信される前記音声を認識する音声認識ステップと、前記第1拠点から受信する第1音声の認識結果と、前記第2拠点から受信する第2音声の認識結果とに基づいて、前記第1拠点及び前記第2拠点間の前記音声の送受信状態を判定する音声判定ステップと、前記音声判定ステップにより前記送受信状態が異常と判定された場合に、前記送受信状態の異常を解消するための特定情報を提示する情報提示ステップと、を一又は複数のプロセッサにより実行する。
本発明の他の態様に係る音声処理プログラムは、ネットワークを介して接続された第1拠点及び第2拠点において、ユーザが発話した音声を送受信する音声処理プログラムであって、前記音声を受信する音声受信ステップと、前記音声受信ステップより受信される前記音声を認識する音声認識ステップと、前記第1拠点から受信する第1音声の認識結果と、前記第2拠点から受信する第2音声の認識結果とに基づいて、前記第1拠点及び前記第2拠点間の前記音声の送受信状態を判定する音声判定ステップと、前記音声判定ステップにより前記送受信状態が異常と判定された場合に、前記送受信状態の異常を解消するための特定情報を提示する情報提示ステップと、を一又は複数のプロセッサにより実行させるための音声処理プログラムである。
本発明によれば、音声トラブルを検出するとともに、当該音声トラブルの対処法を提示することが可能な音声処理システム、音声処理方法、及び音声処理プログラムが提供される。
図1は、本発明の実施形態に係る会議システムの概略構成を示す図である。 図2は、本発明の実施形態に係る会議システムの構成を示す機能ブロック図である。 図3は、本発明の実施形態に係る会議システムで利用されるキーワード情報の一例を示す図である。 図4は、本発明の実施形態に係る会議システムで利用される判定情報の一例を示す図である。 図5は、本発明の実施形態に係る会議システムで利用される対処情報の一例を示す図である。 図6は、本発明の実施形態に係る会議システムにおいて表示装置に表示される表示画面の一例を示す図である。 図7は、本発明の実施形態に係る会議システムにおいて表示装置に表示される表示画面の一例を示す図である。 図8は、本発明の実施形態に係る会議システムにおいて表示装置に表示される表示画面の一例を示す図である。 図9は、本発明の実施形態に係る会議システムにおける情報提示処理の手順の一例を説明するためのフローチャートである。 図10は、本発明の実施形態に係る会議システムにおける情報提示処理の手順の一例を説明するためのフローチャートである。 図11は、本発明の他の実施形態に係る会議システムの概略構成を示す図である。
以下、添付図面を参照しながら、本発明の実施形態について説明する。なお、以下の実施形態は、本発明を具体化した一例であって、本発明の技術的範囲を限定する性格を有さない。
本発明に係る音声処理システムは、複数の拠点(エリア)をネットワーク接続して複数のユーザが参加するリモート会議などに適用することができる。例えば、前記音声処理システムは、ネットワークを介して接続された第1拠点及び第2拠点において、ユーザが発話した音声を送受信する。また、本発明に係る音声処理システムは、音声コマンドを実行する機能と、ネットワークを介してユーザ間で通話可能な通話機能(電話機能、テレビ電話機能など)とを備えたものであってもよい。また本発明に係る音声処理システムは、会議参加者の音声を送受信する1又は複数の音声処理装置を備える。
以下の実施形態では、音声処理システムがリモート会議(会議システム)に適用される場合を例に挙げて説明する。すなわち、本実施形態に係る会議システムは、本発明に係る音声処理システムの一例である。例えば本実施形態に係る会議システムでは、それぞれの拠点(会議室)に音声処理装置が配置され、一方の会議室の音声処理装置がユーザの発話した音声を受信して、他方の会議室の音声処理装置に送信することにより、各会議室のユーザ同士の会話を可能にする。また前記会議システムは、前記会話の内容(テキスト情報)、会議の資料などを表示する表示装置を備える。また前記会議システムは、音声処理装置から受信するユーザの音声を解析してコマンドを特定するクラウドサーバを備えてもよい。
[会議システム100]
図1は、本発明の実施形態に係る会議システムの概略構成を示す図である。会議システム100は、各拠点(会議室)に音声処理装置1と表示装置2とを備えている。音声処理装置1A,1Bのそれぞれは、マイク及びスピーカを備えたマイクスピーカ装置であり、例えばAIスピーカ、スマートスピーカなどである。ここでは、会議室Aに設置された音声処理装置1Aと、会議室Bに設置された音声処理装置1Bとを示している。表示装置2A,2Bは各種情報を表示する表示部を備える。ここでは、会議室Aに設置された表示装置2Aと、会議室Bに設置された表示装置2Bとを示している。音声処理装置1A及び表示装置2Aと、音声処理装置1B及び表示装置2Bとは、ネットワークN1を介して互いに接続されている。ネットワークN1は、インターネット、LAN、WAN、又は公衆電話回線などの通信網である。音声処理装置1A,1Bのそれぞれは、本発明の音声処理装置の一例である。表示装置2A,2Bのそれぞれは、本発明の表示装置の一例である。また、表示装置2Bは本発明の第1表示パネルの一例であり、表示装置2Aは本発明の第2表示パネルの一例である。
会議システム100では、例えば会議室Aのユーザが発話した音声が音声処理装置1Aにより受信され、音声処理装置1Aは受信した音声をネットワークN1を介して会議室Bの音声処理装置1Bに送信する。音声処理装置1Bは、音声処理装置1Aから受信した音声をスピーカから出力するとともに、当該音声の内容(テキスト情報)を表示装置2Bに表示させる。同様に、例えば会議室Bのユーザが発話した音声が音声処理装置1Bにより受信され、音声処理装置1Bは受信した音声をネットワークN1を介して会議室Aの音声処理装置1Aに送信する。音声処理装置1Aは、音声処理装置1Bから受信した音声をスピーカから出力するとともに、当該音声の内容(テキスト情報)を表示装置2Aに表示させる。このようにして、会議室A,Bのそれぞれのユーザは会話を行うことが可能となる。
ここで、会議システム100では、ネットワークの帯域不足、遅延、マイク及びスピーカの不具合などが生じた場合に、音声通話が途切れるといった音声トラブルが生じることがある。会議システム100は、前記音声トラブルが生じた場合に、前記音声トラブルを検出するとともに、当該音声トラブルの対処法を提示することが可能である。以下、会議システム100の具体的な構成について説明する。尚、以下の説明では、音声処理装置1A,1Bを区別しない場合は「音声処理装置1」と称す。
[音声処理装置1]
各拠点(ここでは会議室A,B)に配置される音声処理装置1は同一の構成を備える。図2に示すように、音声処理装置1は、制御部11、記憶部12、スピーカ13、マイク14、及び通信インターフェース15などを備える。音声処理装置1は、例えばAIスピーカ、スマートスピーカなどの機器であってもよい。音声処理装置1は、例えば会議室の机上に配置され、会議に参加するユーザの音声をマイク14を介して取得したり、当該ユーザに対してスピーカ13から音声を出力(報知)したりする。
通信インターフェース15は、音声処理装置1を有線又は無線でネットワークN1に接続し、ネットワークN1を介して他の機器(例えば、他の音声処理装置1、表示装置2、クラウドサーバなど)との間で所定の通信プロトコルに従ったデータ通信を実行するための通信インターフェースである。
記憶部12は、各種の情報を記憶するフラッシュメモリーなどの不揮発性の記憶部である。記憶部12には、制御部11に後述の情報提示処理(図9参照)を実行させるための情報提示処理プログラムなどの制御プログラムが記憶されている。例えば、前記情報提示処理プログラムは、外部サーバから配信されて記憶される。また前記情報提示処理プログラムは、CD又はDVDなどのコンピュータ読取可能な記録媒体に非一時的に記録され、音声処理装置1が備えるCDドライブ又はDVDドライブなどの読取装置(不図示)で読み取られて記憶部12に記憶されてもよい。
また記憶部12には、キーワード情報D1、判定情報D2、対処情報D3などのデータが記憶される。図3は、キーワード情報D1の一例を示す図である。図4は、判定情報D2の一例を示す図である。図5は、対処情報D3の一例を示す図である。
キーワード情報D1には、予め設定された特定のキーワード(本発明の特定ワードに相当)が登録される。具体的には、前記キーワードは、遠隔地で発話された音声を聞き取ることが困難であることを意味する用語である。例えば、前記キーワードには、「聞こえない」、「途切れる」、「もしもし」などの用語が含まれる。なお、前記キーワードには、前記用語の同義語、類義語なども登録されてもよい。例えば、前記キーワードには、「聞こえない」に対応する「聞こえにくい」、「聞き取れない」などの用語も登録されてもよい。キーワード情報D1には、前記キーワードが予め登録される。
判定情報D2には、前記音声トラブルが生じた場合に当該音声トラブルの対処法を特定するための情報が登録される。具体的には、判定情報D2には、他拠点から受信する音声の認識結果(「正常」又は「異常」)、自拠点において前記キーワードを検知したか否か(検知有無)の情報、自拠点のスピーカ音量(「大(設定値が音量最大値の50%以上)」又は「小(設定値が音量最大値の50%未満)」)、自拠点及び他拠点間のネットワーク帯域の状況(「十分(1.5Mbps以上)」又は「逼迫(1.5Mbps未満)」)、ノイズの大きさ(「大(SN比が0db未満)」又は「小(SN比が0db以上)」)、聞こえ具合(「途切れ途切れ」又は「全く聞こえない」)、対処法に関する対処情報の識別情報(対処情報1〜8)などが互いに関連付けられて登録される。
対処情報D3には、判定情報D2に登録される対処情報1〜8の具体的な内容が登録される。各対処情報には、少なくとも他拠点に提示(通知)する対処メッセージが含まれる。前記対処メッセージは、前記音声トラブルを解消するための対処法(解決策)に関する内容である。このように、記憶部12には、判定情報D2に含まれる各項目に関する状況に応じた対処メッセージ(本発明の特定情報の一例)が予め記憶される。
制御部11は、CPU、ROM、及びRAMなどの制御機器を有する。前記CPUは、各種の演算処理を実行するプロセッサである。前記ROMは、前記CPUに各種の処理を実行させるためのBIOS及びOSなどの制御プログラムを予め記憶する。前記RAMは、各種の情報を記憶し、前記CPUが実行する各種の処理の一時記憶メモリー(作業領域)として使用される。そして、制御部11は、前記ROM又は記憶部12に予め記憶された各種の制御プログラムを前記CPUで実行することにより音声処理装置1を制御する。
具体的に、制御部11は、音声受信部111、音声送信部112、音声認識部113、音声判定部114、情報提示部115などの各種の処理部を含む。なお、制御部11は、前記CPUで前記制御プログラムに従った各種の処理を実行することによって前記各種の処理部として機能する。また、制御部11に含まれる一部又は全部の処理部が電子回路で構成されていてもよい。なお、前記情報提示処理プログラムは、複数のプロセッサを前記各種の処理部として機能させるためのプログラムであってもよい。
音声受信部111は、音声処理装置1を利用するユーザが発話した音声(音声データ)を受信する。音声受信部111は、本発明の音声受信部の一例である。例えば、音声処理装置1Aの音声受信部111は、会議室Aのユーザが発話した音声を受信し、音声処理装置1Bの音声受信部111は、会議室Bのユーザが発話した音声を受信する。
音声送信部112は、音声受信部111より受信された前記音声(音声データ)を遠隔地(他拠点)に送信する。例えば、音声処理装置1Aの音声送信部112は、会議室Aのユーザが発話した音声を会議室Bの音声処理装置1Bに送信し、音声処理装置1Bの音声送信部112は、会議室Bのユーザが発話した音声を会議室Aの音声処理装置1Aに送信する。
音声認識部113は、音声受信部111より受信された前記音声を認識する。音声認識部113は、本発明の音声認識部の一例である。例えば、音声処理装置1Aの音声認識部113は、音声処理装置1Aの音声受信部111により受信された、会議室Bのユーザが発話した前記音声を認識してテキストデータに変換する。また例えば、音声処理装置1Bの音声認識部113は、音声処理装置1Bの音声受信部111により受信された、会議室Aのユーザが発話した前記音声を認識してテキストデータに変換する。
ここで、前記音声認識は、ユーザが発話した音声の音声データを文字列に変換することをいう。また、前記音声認識には、変換した文字列と辞書データベースに登録された単語とをパターンマッチングする処理が含まれてもよい。
また、音声認識部113は、前記音声をスピーカ13から出力させる。例えば、音声処理装置1Aの音声認識部113は、会議室Bのユーザが発話した前記音声を会議室Aのスピーカ13から出力させる。また例えば、音声処理装置1Bの音声認識部113は、会議室Aのユーザが発話した前記音声を会議室Bのスピーカ13から出力させる。
また、音声認識部113は、前記テキストデータに対応するテキスト情報を表示装置2に表示させる。例えば、音声処理装置1Aの音声認識部113は、会議室Bのユーザが発話した前記音声に対応するテキスト情報を会議室Aの表示装置2Aに表示させる。また例えば、音声処理装置1Bの音声認識部113は、会議室Aのユーザが発話した前記音声に対応するテキスト情報を会議室Bの表示装置2Bに表示させる。
音声判定部114は、第1拠点から受信する第1音声の認識結果と、第2拠点から受信する第2音声の認識結果とに基づいて、第1拠点及び第2拠点間の前記音声の送受信状態を判定する。具体的には、音声判定部114は、会議室Aのユーザが発話した音声の認識結果と、会議室Bのユーザが発話した音声の認識結果とに基づいて、会議室A及び会議室B間の音声の送受信状態を判定する。
例えば、音声処理装置1Aの音声判定部114は、音声認識部113により会議室Bのユーザの音声に対応する第1ワードが認識され、かつ、音声認識部113により会議室Aのユーザの音声に対応する予め設定された特定のキーワード(図3参照)が認識された場合に、前記送受信状態を異常と判定する。例えば図6に示すように、会議室Bのユーザが「こんにちは」(前記第1ワード)を発話し、会議室Aのユーザが「聞こえない」(前記キーワード)を発話し、音声処理装置1Aの音声認識部113が前記第1ワード及び前記キーワードを認識した場合に、音声判定部114は、前記送受信状態を異常と判定する。この場合には、例えば会議室Aにおいて、前記第1ワードの「こんにちは」は、表示装置2Aにテキスト情報として表示されるが、スピーカ13から正常に出力されない問題が生じる。
また、音声判定部114は、音声認識部113により会議室Bのユーザの音声に対応する第1ワードが認識されず、かつ、音声認識部113により会議室Aのユーザの音声に対応する予め設定された特定のキーワード(図3参照)が認識された場合に、前記送受信状態を異常と判定する。例えば図6に示すように、会議室Bのユーザが「こんにちは」(前記第1ワード)を発話し、会議室Aのユーザが「聞こえない」(前記キーワード)を発話し、音声処理装置1Aの音声認識部113が前記第1ワードを認識できず、かつ前記キーワードを認識した場合に、音声判定部114は、前記送受信状態を異常と判定する。この場合には、例えば会議室Aにおいて、前記第1ワードの「こんにちは」は、表示装置2Aにテキスト情報として表示されず、スピーカ13から正常に出力されない問題が生じる。
ここで、音声判定部114は、例えば、音声認識部113がユーザが発話した音声の音声データを文字列に変換したか否かにより音声認識できたか否かを判定する。音声判定部114は、前記音声データが文字列に変換された場合に音声認識できたと判定する。また、音声判定部114は、変換した文字列からなる単語が辞書データベースに登録されている場合に音声認識できたと判定してもよい。
また、音声判定部114は、自拠点のスピーカ13の音量(設定音量)、自拠点及び他拠点間のネットワーク帯域の状況、他拠点から受信する音声のノイズの大きさ、他拠点から受信する音声の聞こえ具合などを判定する。例えば、音声判定部114は、音声処理装置1Aのスピーカ13の設定音量が最大値の50%以上であるか否かを判定する。また、音声判定部114は、会議室A及び会議室B間のネットワーク帯域が十分(送受信データ量が1.5Mbps以上)であるか否かを判定する。また、音声判定部114は、会議室Bから受信する音声のノイズが大きい(SN比が0db未満)か否かを判定する。また、音声判定部114は、会議室Bから受信する音声の聞こえ具合が「途切れ途切れ」又は「全く聞こえない」かを判定する。
ここで、例えば、音声認識部113がユーザが発話した音声の音声データを文字列に変換し、変換した文字列が辞書データベースに登録されていない場合に、音声判定部114は、前記音声の聞こえ具合を「途切れ途切れ」と判定してもよい。例えば、音声認識部113が前記音声データを変換して「こん」及び「ちは」を認識した場合、これらの文字列は辞書データベースに登録されていない。また、音声判定部114は、「こん」及び「ちは」に基づき、辞書データベースを参照して「こんにちは」を予測することが可能である。このように、音声判定部114は、音声認識した文字列に基づいて予測した単語の一部が認識できない場合に、前記聞こえ具合を「途切れ途切れ」と判定する。
情報提示部115は、音声判定部114により前記送受信状態が異常と判定された場合に、前記送受信状態の異常を解消するための対処メッセージ(特定情報)を提示する。具体的には、情報提示部115は、判定情報D2を参照して音声判定部114の判定結果に対応する対処情報を特定し、さらに対処情報D3を参照して当該対処情報に対応する対処メッセージを取得してユーザに提示する。
例えば、音声処理装置1Aの情報提示部115は、音声処理装置1Aのスピーカ13の音量と音声処理装置1Aが受信する会議室Bのユーザの音声のノイズの大きさとに基づく対処メッセージを会議室Bにおいて提示する。なお、音声処理装置1Aの情報提示部115は、音声処理装置1Aのスピーカ13の音量と、音声処理装置1Aが受信する会議室Bのユーザの音声のノイズの大きさとの少なくともいずれかに基づく対処メッセージを会議室Bにおいて提示してもよい。
また例えば、音声処理装置1Aの情報提示部115は、会議室A及び会議室B間のネットワークの帯域状況と音声処理装置1Aが受信する会議室Bのユーザの音声のノイズの大きさとに基づく対処メッセージを会議室Bにおいて提示する。なお、音声処理装置1Aの情報提示部115は、会議室A及び会議室B間のネットワークの帯域状況と、音声処理装置1Aが受信する会議室Bのユーザの音声のノイズの大きさとの少なくともいずれかに基づく対処メッセージを会議室Bにおいて提示してもよい。
情報提示部115は、会議室Bに設けられる表示装置2Bに前記対処メッセージを表示させる。また、情報提示部115は、会議室Aに設けられる表示装置2Aと会議室Bに設けられる表示装置2Bとに同一又は異なる前記対処メッセージを表示させてもよい。
[情報提示処理]
以下、図9を参照しつつ、音声処理装置1の制御部11によって実行される情報提示処理の手順の一例について説明する。ここでは、図1に示す会議システム100において、音声処理装置1Aの制御部11によって実行される情報提示処理に着目して説明する。例えば、音声処理装置1Aの制御部11が会議システムを開始することにより前記情報提示処理プログラムの実行を開始することによって、前記情報提示処理の実行を開始する。なお、前記情報提示処理は、音声処理装置1A,1Bのそれぞれにおいて、個別に並行して実行される。
なお、本発明は、前記情報提示処理に含まれる一又は複数のステップを実行する音声処理方法の発明として捉えることができる。また、ここで説明する前記情報提示処理に含まれる一又は複数のステップが適宜省略されてもよい。また、前記情報提示処理における各ステップは、同様の作用効果を生じる範囲で実行順序が異なってもよい。さらに、ここでは制御部11によって前記情報提示処理における各ステップが実行される場合を例に挙げて説明するが、他の実施形態では、1又は複数のプロセッサによって前記情報提示処理における各ステップが分散して実行されてもよい。
ステップS11において、音声処理装置1Aの制御部11は、会議室Bのユーザが発話した音声を認識したか否かを判定する。制御部11が会議室Bのユーザの前記音声を認識した場合(S11:YES)、処理はステップS12に移行する。制御部11が会議室Bのユーザの前記音声を認識できない場合(S11:NO)、処理はステップS21(図10参照)に移行する。ステップS11は、本発明の音声認識ステップの一例である。
ステップS12において、音声処理装置1Aの制御部11は、会議室Aのユーザからキーワード情報D1(図3参照)に登録された前記キーワードを認識(検知)したか否かを判定する。制御部11が前記キーワードを認識しない場合(S12:NO)、処理はステップS13に移行する。制御部11が前記キーワードを認識した場合(S12:YES)、処理はステップS14に移行する。すなわち、制御部11は、前記キーワードを認識しない場合(S12:NO)、会議室A及び会議室B間の前記音声の送受信状態を正常と判定し、前記キーワードを認識した場合(S12:YES)、会議室A及び会議室B間の前記音声の送受信状態を異常と判定する。
ステップS13において、音声処理装置1Aの制御部11は、会議室A及び会議室B間の音声の送受信状態を正常と判定して、対処メッセージの提示処理は行わない。すなわち、この場合には、会議室Aの音声及び会議室Bの音声が正常に送受信される。
ステップS14において、音声処理装置1Aの制御部11は、音声処理装置1Aのスピーカ13の設定音量が閾値(例えば最大値の50%)以上であるか否かを判定する。前記設定音量が閾値以上である場合(S14:YES)、処理はステップS15に移行する。前記設定音量が閾値未満である場合(S14:NO)、処理はステップS16に移行する。
ステップS15において、音声処理装置1Aの制御部11は、会議室Bから受信する音声のノイズ(SN比)が閾値(例えば0db)未満であるか否かを判定する。前記ノイズ(SN比)が閾値(0db)未満である場合(S15:YES)、処理はステップS17に移行する。前記ノイズ(SN比)が閾値(0db)以上である場合(S15:NO)、処理はステップS18に移行する。
ステップS16において、音声処理装置1Aの制御部11は、ステップS15と同様に、会議室Bから受信する音声のノイズ(SN比)が閾値(0db)未満であるか否かを判定する。前記ノイズ(SN比)が閾値(0db)未満である場合(S16:YES)、処理はステップS19に移行する。前記ノイズ(SN比)が閾値(0db)以上である場合(S16:NO)、処理はステップS20に移行する。ステップS12〜S16は、本発明の音声判定ステップの一例である。
ステップS17〜S20において、音声処理装置1Aの制御部11は、会議室A及び会議室B間の前記音声の送受信状態の異常を解消するための対処メッセージを提示する。ステップS17〜S20は、本発明の情報提示ステップの一例である。
例えばステップS17では、音声処理装置1Aの制御部11は、判定情報D2及び対処情報D3を参照して、対処情報1に対応する対処メッセージM1を会議室Bの表示装置2Bに表示させる(図6参照)。
また例えばステップS18では、音声処理装置1Aの制御部11は、判定情報D2及び対処情報D3を参照して、対処情報2に対応する対処メッセージM2を会議室Aの表示装置2Aと、会議室Bの表示装置2Bとに表示させる(図7参照)。
また例えばステップS19では、音声処理装置1Aの制御部11は、判定情報D2及び対処情報D3を参照して、対処情報3に対応する対処メッセージを会議室Aの表示装置2Aと、会議室Bの表示装置2Bとに表示させる。
また例えばステップS20では、音声処理装置1Aの制御部11は、判定情報D2及び対処情報D3を参照して、対処情報4に対応する対処メッセージを会議室Aの表示装置2Aと、会議室Bの表示装置2Bとに表示させる。
ここでステップS11において音声処理装置1Aの制御部11が会議室Bのユーザの前記音声を認識できない場合(S11:NO)、ステップS21(図10参照)において、音声処理装置1Aの制御部11は、会議室Aのユーザからキーワード情報D1(図3参照)に登録された前記キーワードを認識(検知)したか否かを判定する。制御部11が前記キーワードを認識しない場合(S21:NO)、処理はステップS22に移行する。制御部11が前記キーワードを認識した場合(S21:YES)、処理はステップS23に移行する。制御部11は、前記キーワードを認識しない場合(S21:NO)、音声トラブルの原因を特定することが困難であるため、対処メッセージを提示しない。なお、この場合、制御部11は、音声トラブルが発生していることを示すメッセージを会議室Aの表示装置2Aと会議室Bの表示装置2Bとに表示させてもよい。
ステップS23において、音声処理装置1Aの制御部11は、会議室A及び会議室B間のネットワーク帯域(送受信データ量)が閾値(例えば1.5Mbps)以上であるか否かを判定する。前記ネットワーク帯域(送受信データ量)が閾値以上である場合(S23:YES)、処理はステップS24に移行する。前記ネットワーク帯域(送受信データ量)が閾値未満である場合(S23:NO)、処理はステップS25に移行する。
ステップS24において、音声処理装置1Aの制御部11は、ステップS15と同様に、会議室Bから受信する音声のノイズ(SN比)が閾値(0db)未満であるか否かを判定する。前記ノイズ(SN比)が閾値(0db)未満である場合(S24:YES)、処理はステップS26に移行する。前記ノイズ(SN比)が閾値(0db)以上である場合(S24:NO)、処理はステップS26に移行する。
ステップS25において、音声処理装置1Aの制御部11は、会議室Bから受信する音声の聞こえ具合が「途切れ途切れ」又は「全く聞こえない」か、例えば受信音声データがあるか否かを判定する。会議室Bから前記受信音声データがある場合(聞こえ具合が「途切れ途切れ」の場合)、処理はステップS28に移行する。会議室Bから前記受信音声データがない場合(聞こえ具合が「全く聞こえない」の場合)、処理はステップS29に移行する。ステップS21〜S25は、本発明の音声判定ステップの一例である。
ステップS26〜S29において、音声処理装置1Aの制御部11は、会議室A及び会議室B間の前記音声の送受信状態の異常を解消するための対処メッセージを提示する。ステップS26〜S29は、本発明の情報提示ステップの一例である。
例えばステップS26では、音声処理装置1Aの制御部11は、判定情報D2及び対処情報D3を参照して、対処情報5に対応する対処メッセージを会議室Bの表示装置2Bに表示させる。
また例えばステップS27では、音声処理装置1Aの制御部11は、判定情報D2及び対処情報D3を参照して、対処情報6に対応する対処メッセージを会議室Bの表示装置2Bに表示させる。
また例えばステップS28では、音声処理装置1Aの制御部11は、判定情報D2及び対処情報D3を参照して、対処情報7に対応する対処メッセージを会議室Aの表示装置2Aと、会議室Bの表示装置2Bとに表示させる。
また例えばステップS29では、音声処理装置1Aの制御部11は、判定情報D2及び対処情報D3を参照して、対処情報8に対応する対処メッセージを会議室Aの表示装置2Aと、会議室Bの表示装置2Bとに表示させる。
以上のようにして、会議システム100は、前記情報提示処理を実行する。上述のように、本実施形態に係る会議システム100は、第1拠点から受信する第1音声の認識結果と、第2拠点から受信する第2音声の認識結果とに基づいて、前記第1拠点及び前記第2拠点間の前記音声の送受信状態を判定し、前記送受信状態が異常と判定された場合に、前記送受信状態の異常を解消するための特定情報を提示する。具体的には、会議システム100は、前記第1音声を認識できたか否かを示す結果と、前記第2音声を認識して取得したワードの内容との組み合わせに応じた特定情報を提示する。これにより、ネットワークの帯域不足、遅延、マイク及びスピーカの不具合などが生じて、音声通話が途切れるといった音声トラブルが生じた場合に、当該音声トラブルの原因を特定して当該音声トラブルを解消するための特定情報がユーザに提示される。ユーザは、前記特定情報を取得すると前記音声トラブルを解消するための操作を行う。このため、前記音声トラブルを早期に解消することが可能となる。
ここで、本発明の前記特定情報は、前記対処メッセージ(図5参照)に限定されない。例えば、図8に示すように、情報提示部115は、前記送受信状態の異常を識別可能なオブジェクト画像P2を表示装置2に表示させてもよい。例えば、音声処理装置1Bのマイク14の設定値に前記音声トラブルの原因がある場合に、音声処理装置1Aの情報提示部115は、マイク14を示すオブジェクト画像P2(図8参照)を表示装置2Bに表示させる。また、情報提示部115は、オブジェクト画像P2を点灯又は点滅させる強調表示を行ってもよい。前記オブジェクト画像P2は、前記送受信状態の異常を識別可能であればよく、例えばマイク、スピーカ、ビデオ、ネットワークなどを示す画像などが挙げられる。
上記の構成によれば、会議室Bのユーザは、音声処理装置1Bのマイク14が音声トラブルの原因であることを容易に認識することが可能となる。
また、本発明の音声処理システムは、サーバを含んで実現することも可能である。例えば図11に示すように、会議システム100は、サーバ10と、会議室Aに設置される表示装置2A、マイク3A、スピーカ4Aと、会議室Bに設置される表示装置2B、マイク3B、スピーカ4Bとにより構成されてもよい。サーバ10は、音声処理装置1(図2参照)に含まれる制御部11、記憶部12、及び通信インターフェース15などを備える。
サーバ10は、会議室Aから受信する第1音声の認識結果と、会議室Bから受信する第2音声の認識結果とに基づいて、会議室A及び会議室B間の前記音声の送受信状態を判定し、前記送受信状態が異常と判定された場合に、前記送受信状態の異常を解消するための特定情報を表示装置2A,2B等に提示する。すなわち、図11に示すサーバ10は、本発明の音声処理システムの一例である。
尚、本発明の音声処理システムは、各請求項に記載された発明の範囲において、以上に示された各実施形態を自由に組み合わせること、或いは各実施形態を適宜、変形又は一部を省略することによって構成されることも可能である。
1 :音声処理装置
1A :音声処理装置
1B :音声処理装置
2 :表示装置
2A :表示装置
2B :表示装置
3A :マイク
3B :マイク
4A :スピーカ
4B :スピーカ
13 :スピーカ
14 :マイク
100 :会議システム
111 :音声受信部
112 :音声送信部
113 :音声認識部
114 :音声判定部
115 :情報提示部

Claims (11)

  1. ネットワークを介して接続された第1拠点及び第2拠点において、ユーザが発話した音声を送受信する音声処理システムであって、
    前記音声を受信する音声受信部と、
    前記音声受信部より受信される前記音声を認識する音声認識部と、
    前記第1拠点から受信する第1音声の認識結果と、前記第2拠点から受信する第2音声の認識結果とに基づいて、前記第1拠点及び前記第2拠点間の前記音声の送受信状態を判定する音声判定部と、
    前記音声判定部により前記送受信状態が異常と判定された場合に、前記送受信状態の異常を解消するための特定情報を提示する情報提示部と、
    を備える音声処理システム。
  2. 前記情報提示部は、前記音声認識部が前記第1音声を認識できたか否かを示す結果と、前記音声認識部が前記第2音声を認識して取得したワードの内容との組み合わせに応じた前記特定情報を提示する、
    請求項1に記載の音声処理システム。
  3. 前記音声判定部は、前記音声認識部により前記第1音声に対応する第1ワードが認識され、かつ、前記音声認識部により前記第2音声に対応する予め設定された特定ワードが認識された場合に、前記送受信状態を異常と判定する、
    請求項1又は請求項2に記載の音声処理システム。
  4. 前記情報提示部は、前記第2拠点に設けられるスピーカの音量と、前記第2拠点で受信される前記第1音声のノイズの大きさとの少なくともいずれかに基づく前記特定情報を前記第1拠点において提示する、
    請求項3に記載の音声処理システム。
  5. 前記音声判定部は、前記音声認識部により前記第1音声に対応する第1ワードが認識されず、かつ、前記音声認識部により前記第2音声に対応する予め設定された特定ワードが認識された場合に、前記送受信状態を異常と判定する、
    請求項1又は請求項2に記載の音声処理システム。
  6. 前記情報提示部は、前記第1拠点及び前記第2拠点間の前記ネットワークの帯域状況と、前記第2拠点で受信される前記第1音声のノイズの大きさとの少なくともいずれかに基づく前記特定情報を前記第1拠点において提示する、
    請求項5に記載の音声処理システム。
  7. 前記情報提示部は、前記第1拠点に設けられる第1表示パネルに前記特定情報を表示させる、
    請求項3に記載の音声処理システム。
  8. 前記情報提示部は、さらに前記第2拠点に設けられる第2表示パネルに前記特定情報を表示させる、
    請求項7に記載の音声処理システム。
  9. 前記特定情報は、前記送受信状態の異常を解消するためのメッセージと、前記送受信状態の異常を識別可能なオブジェクト画像とを含む、
    請求項1から請求項8のいずれか1項に記載の音声処理システム。
  10. ネットワークを介して接続された第1拠点及び第2拠点において、ユーザが発話した音声を送受信する音声処理方法であって、
    前記音声を受信する音声受信ステップと、
    前記音声受信ステップより受信される前記音声を認識する音声認識ステップと、
    前記第1拠点から受信する第1音声の認識結果と、前記第2拠点から受信する第2音声の認識結果とに基づいて、前記第1拠点及び前記第2拠点間の前記音声の送受信状態を判定する音声判定ステップと、
    前記音声判定ステップにより前記送受信状態が異常と判定された場合に、前記送受信状態の異常を解消するための特定情報を提示する情報提示ステップと、
    を一又は複数のプロセッサにより実行する音声処理方法。
  11. ネットワークを介して接続された第1拠点及び第2拠点において、ユーザが発話した音声を送受信する音声処理プログラムであって、
    前記音声を受信する音声受信ステップと、
    前記音声受信ステップより受信される前記音声を認識する音声認識ステップと、
    前記第1拠点から受信する第1音声の認識結果と、前記第2拠点から受信する第2音声の認識結果とに基づいて、前記第1拠点及び前記第2拠点間の前記音声の送受信状態を判定する音声判定ステップと、
    前記音声判定ステップにより前記送受信状態が異常と判定された場合に、前記送受信状態の異常を解消するための特定情報を提示する情報提示ステップと、
    を一又は複数のプロセッサにより実行させるための音声処理プログラム。
JP2020082358A 2020-05-08 2020-05-08 音声処理システム、音声処理方法、及び音声処理プログラム Pending JP2021177598A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020082358A JP2021177598A (ja) 2020-05-08 2020-05-08 音声処理システム、音声処理方法、及び音声処理プログラム
US17/230,187 US11651779B2 (en) 2020-05-08 2021-04-14 Voice processing system, voice processing method, and storage medium storing voice processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020082358A JP2021177598A (ja) 2020-05-08 2020-05-08 音声処理システム、音声処理方法、及び音声処理プログラム

Publications (1)

Publication Number Publication Date
JP2021177598A true JP2021177598A (ja) 2021-11-11

Family

ID=78409608

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020082358A Pending JP2021177598A (ja) 2020-05-08 2020-05-08 音声処理システム、音声処理方法、及び音声処理プログラム

Country Status (2)

Country Link
US (1) US11651779B2 (ja)
JP (1) JP2021177598A (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021177598A (ja) * 2020-05-08 2021-11-11 シャープ株式会社 音声処理システム、音声処理方法、及び音声処理プログラム

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001053794A (ja) * 1999-08-09 2001-02-23 Nec Corp Ip通信のリアルタイムバックアップ通信方法
EP1407399B1 (en) * 2001-07-05 2008-09-03 Koninklijke Philips Electronics N.V. Method of providing an account information and device for transcribing of dictations
US7689414B2 (en) * 2002-11-22 2010-03-30 Nuance Communications Austria Gmbh Speech recognition device and method
US8046226B2 (en) * 2008-01-18 2011-10-25 Cyberpulse, L.L.C. System and methods for reporting
TWI521936B (zh) * 2008-04-25 2016-02-11 台達電子工業股份有限公司 對話系統與語音對話處理方法
CN102117614B (zh) * 2010-01-05 2013-01-02 索尼爱立信移动通讯有限公司 个性化文本语音合成和个性化语音特征提取
WO2011142160A1 (ja) * 2010-05-10 2011-11-17 日立コンシューマエレクトロニクス株式会社 デジタル放送受信装置およびデジタル放送受信方法
US8560318B2 (en) * 2010-05-14 2013-10-15 Sony Computer Entertainment Inc. Methods and system for evaluating potential confusion within grammar structure for set of statements to be used in speech recognition during computing event
WO2011151958A1 (ja) * 2010-06-02 2011-12-08 日立コンシューマエレクトロニクス株式会社 受信装置および出力方法
US8665312B2 (en) * 2010-12-06 2014-03-04 Ricoh Company, Ltd. Apparatus, system, and method of managing data transmission, and transmission management program
KR101878488B1 (ko) * 2011-12-20 2018-08-20 한국전자통신연구원 대화 연관 컨텐츠 제공 방법 및 장치
US9190058B2 (en) * 2013-01-25 2015-11-17 Microsoft Technology Licensing, Llc Using visual cues to disambiguate speech inputs
US9558756B2 (en) * 2013-10-29 2017-01-31 At&T Intellectual Property I, L.P. Method and system for adjusting user speech in a communication session
EP3259754B1 (en) * 2015-02-16 2022-06-15 Samsung Electronics Co., Ltd. Method and device for providing information
IN2015CH05233A (ja) * 2015-09-30 2015-10-16 Wipro Ltd
US10741195B2 (en) * 2016-02-15 2020-08-11 Mitsubishi Electric Corporation Sound signal enhancement device
US9998500B2 (en) * 2016-02-15 2018-06-12 Wipro Limited Methods and systems for performing lawful interception (LI) in communication networks involving content adulteration with colluding agents
JP6903884B2 (ja) * 2016-09-15 2021-07-14 沖電気工業株式会社 信号処理装置、プログラム及び方法、並びに、通話装置
KR101818980B1 (ko) 2016-12-12 2018-01-16 주식회사 소리자바 다중 화자 음성 인식 수정 시스템
US10546578B2 (en) * 2016-12-26 2020-01-28 Samsung Electronics Co., Ltd. Method and device for transmitting and receiving audio data
CN107071636B (zh) * 2016-12-29 2019-12-31 北京小鸟听听科技有限公司 对带麦克风的设备的去混响控制方法和装置
CN111971647A (zh) * 2018-04-09 2020-11-20 麦克赛尔株式会社 语音识别设备、语音识别设备的协作***和语音识别设备的协作方法
CN109903752B (zh) * 2018-05-28 2021-04-20 华为技术有限公司 对齐语音的方法和装置
US20210358496A1 (en) * 2018-10-03 2021-11-18 Visteon Global Technologies, Inc. A voice assistant system for a vehicle cockpit system
US20210074298A1 (en) * 2019-09-11 2021-03-11 Soundhound, Inc. Video conference captioning
KR20190118996A (ko) * 2019-10-01 2019-10-21 엘지전자 주식회사 음성 처리 방법 및 음성 처리 장치
JP2021177598A (ja) * 2020-05-08 2021-11-11 シャープ株式会社 音声処理システム、音声処理方法、及び音声処理プログラム

Also Published As

Publication number Publication date
US11651779B2 (en) 2023-05-16
US20210350812A1 (en) 2021-11-11

Similar Documents

Publication Publication Date Title
US10269374B2 (en) Rating speech effectiveness based on speaking mode
US20060085183A1 (en) System and method for increasing recognition accuracy and modifying the behavior of a device in response to the detection of different levels of speech
US9609442B2 (en) Smart hearing aid
US9666209B2 (en) Prevention of unintended distribution of audio information
CN105323648A (zh) 字幕隐藏方法和电子装置
JP2006154724A (ja) 対話システム、対話方法、及びコンピュータプログラム
US20170169700A9 (en) System and method for emergency message preview and transmission
US11373635B2 (en) Information processing apparatus that fades system utterance in response to interruption
US20160366528A1 (en) Communication system, audio server, and method for operating a communication system
US11074912B2 (en) Identifying a valid wake input
KR20200025226A (ko) 전자 장치 및 그 제어 방법
JP2021061527A (ja) 情報処理装置、情報処理方法、及び情報処理プログラム
JP2021177598A (ja) 音声処理システム、音声処理方法、及び音声処理プログラム
JP2007114537A (ja) 音声案内出力装置
US10313845B2 (en) Proactive speech detection and alerting
US20220189471A1 (en) Combining Device or Assistant-Specific Hotwords in a Single Utterance
JP2010199741A (ja) 携帯電話端末装置
WO2021025074A1 (ja) グループ通話システム、グループ通話方法及びプログラム
JP2020024310A (ja) 音声処理システム及び音声処理方法
JP2005024869A (ja) 音声応答装置
WO2018227560A1 (zh) 耳机控制方法及***
JP7351642B2 (ja) 音声処理システム、会議システム、音声処理方法、及び音声処理プログラム
US11275551B2 (en) System for voice-based alerting of person wearing an obstructive listening device
US20230036921A1 (en) Unmuted microphone notification
US20230290356A1 (en) Hearing aid for cognitive help using speaker recognition