JPWO2014199596A1 - 話者識別方法、話者識別装置及び話者識別システム - Google Patents

話者識別方法、話者識別装置及び話者識別システム Download PDF

Info

Publication number
JPWO2014199596A1
JPWO2014199596A1 JP2015522523A JP2015522523A JPWO2014199596A1 JP WO2014199596 A1 JPWO2014199596 A1 JP WO2014199596A1 JP 2015522523 A JP2015522523 A JP 2015522523A JP 2015522523 A JP2015522523 A JP 2015522523A JP WO2014199596 A1 JPWO2014199596 A1 JP WO2014199596A1
Authority
JP
Japan
Prior art keywords
speaker
voice
registered
unit
display unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015522523A
Other languages
English (en)
Other versions
JP6534926B2 (ja
Inventor
智美 松岡
智美 松岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Corp of America
Original Assignee
Panasonic Intellectual Property Corp of America
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Corp of America filed Critical Panasonic Intellectual Property Corp of America
Publication of JPWO2014199596A1 publication Critical patent/JPWO2014199596A1/ja
Application granted granted Critical
Publication of JP6534926B2 publication Critical patent/JP6534926B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/24Speech recognition using non-acoustical features
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/22Interactive procedures; Man-machine interfaces
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/24Speech recognition using non-acoustical features
    • G10L15/25Speech recognition using non-acoustical features using position of the lips, movement of the lips or face analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本開示は、話者識別システムにおける話者識別方法である。システムは、複数の話者の音声に基づきそれぞれ生成された複数の登録音声信号と、複数の登録音声信号にそれぞれ対応付けられ複数の話者をそれぞれ表す複数の話者画像とを保存する。方法は、表示部の周辺に位置する話者の音声を取得し、話者の音声から話者音声信号を生成し、保存されている複数の登録音声信号のうち、話者音声信号に対応する登録音声信号を識別し、識別された登録音声信号に対応付けられている話者画像を、少なくとも話者音声信号を生成する元となった話者の音声が取得されている間、表示部に表示させる。

Description

本開示は、話者を識別して表示部に識別した話者を表す話者画像を表示する話者識別方法、話者識別装置及び話者識別システムに関するものである。
従来、話者識別および音声認識装置として、音声信号中に含まれる情報を用いて話者を識別する方法が提案されている。特許文献1では、会話内容を音声認識により文字データで記録する際に、一文字毎にタイムスタンプと音声から抽出する音声特徴を合わせて記録し、同一話者の発言内容を色や表示位置で区分して表示する方法が開示されている。これにより話者別に識別可能な会議システムを実現している。
また、特許文献2では、音声データを文字画像データに変換し、発声順に連なって移動する文字列からなる表示方法について開示されている。これにより画像と文字により情報が重層的に理解できる表示方法を実現している。
しかしながら、従来の構成において、更なる改善が必要であった。
特開平10−198393号公報 特開2002−341890号公報
上記課題を解決するため、本開示の一態様は、表示部の周辺に位置する話者の音声を識別し識別結果を前記表示部に表示する話者識別システムにおける話者識別方法であって、
前記話者識別システムは、複数の話者の音声に基づきそれぞれ生成された複数の登録音声信号と、前記複数の登録音声信号にそれぞれ対応付けられ前記複数の話者をそれぞれ表す複数の話者画像とを保存するデータベースを含み、
前記表示部の周辺に位置する話者の音声を取得し、
前記取得された話者の音声から話者音声信号を生成し、
前記データベースに保存されている複数の登録音声信号のうち、前記生成された話者音声信号に対応する登録音声信号を識別し、
前記識別された登録音声信号に対応付けて前記データベースに保存されている前記話者画像を、少なくとも前記話者音声信号を生成する元となった前記話者の音声が取得されている間、前記表示部に表示させるものである。
本態様によれば、更なる改善を図ることができる。
実施の形態1における話者識別システムを構成する話者識別装置の構成例を示すブロック図である。 図1に示される話者識別装置の制御部の機能を示すブロック図である。 音声DBに蓄積されている音声情報の一例を示す図である。 音声DBに蓄積されている音声情報の別の例を示す図である。 実施の形態1の話者識別システムの図1に示される話者識別装置における処理を示すフローチャートである。 実施の形態1における話者識別システムの別の構成例を示すブロック図である。 図6の話者識別システムにおける動作の一例を示すシーケンス図である。 図1又は図6の話者識別システムにおいて、表示部に表示される登録アイコンの具体的な表示例を示す図である。 図1又は図6の話者識別システムにおいて、表示部に表示される登録アイコンの具体的な表示例を示す図である。 図1又は図6の話者識別システムにおいて、表示部に表示される登録アイコンの具体的な表示例を示す図である。 図1又は図6の話者識別システムにおいて、表示部に表示される登録アイコンの具体的な表示例を示す図である。 図1又は図6の話者識別システムにおいて、表示部に表示される登録アイコンの具体的な表示例を示す図である。 図1又は図6の話者識別システムにおいて、表示部に表示される登録アイコンの具体的な表示例を示す図である。 図1又は図6の話者識別システムにおいて、表示部に表示される登録アイコンの具体的な表示例を示す図である。 図1又は図6の話者識別システムにおいて、表示部に表示される登録アイコンの具体的な表示例を示す図である。 実施の形態2における図1の話者識別装置の制御部の機能を示すブロック図である。 実施の形態2の図1の話者識別システムにおける処理を示すフローチャートである。 ユーザが修正指示に用いる入力受付部の一例を示す図である。 ユーザが修正指示に用いる入力受付部の一例を示す図である。 実施の形態2の図6の話者識別システムにおける動作の一例を示すシーケンス図である。 実施の形態における話者識別システムの全体像を示す図である。 データセンタ運営会社の一例を示す図である。 データセンタ運営会社の一例を示す図である。 実施の形態におけるサービスの類型(自社データセンタ型)を示す図である。 実施の形態におけるサービスの類型(IaaS利用型)を示す図である。 実施の形態におけるサービスの類型(PaaS利用型)を示す図である。 実施の形態におけるサービスの類型(SaaS利用型)を示す図である。
(本開示の基礎となった知見)
家庭内の機器から使用状況、又はその機器を使用しているユーザの音声情報等を取得し、この取得した情報に基づいてユーザにサービスを提供するシステムが検討されている。しかし、ユーザにとって機器の使用状況又は音声情報は、個人情報に類する情報としての側面がある。よって、もし取得した機器の使用状況又は音声情報が可視化されないまま利用されると、どのように取得した情報が利用されているのかが不明確であり、ユーザにとって抵抗があると考えられる。よって、ユーザの抵抗を軽減するために、取得した情報を可視化して表示するシステムを開発する必要がある。
更に、機器が取得した情報に誤検出がある場合は、誤検出の情報を可視化すると、ユーザに対してさらに不快感を与えてしまう。よって、取得した情報を可視化して表示しつつ、誤検出があった場合には、誤検出に基づき可視化された情報をユーザの操作で簡易に修正可能であることが好ましい。
また、ユーザから取得した情報を表示する装置として、わざわざ取得した情報を表示するためだけの専用表示機器を家庭内に配置することは、コストがかかる点及び設置場所を要してしまう点で、好ましくない。そこで例えば家庭内におけるテレビ受像機(以下、「テレビ」という)などの、本来、取得した情報の結果を表示することが目的ではない表示装置上に表示することが考えられる。テレビのような表示装置の場合、受信したテレビ放送の映像を表示画面に表示する必要がある。したがって、テレビ放送以外の取得した情報をテレビの表示画面上に表示する方法に関しては検討が必要である。一方で、上記したようにユーザにとっての抵抗感を減らすため、音声認識の結果は簡単に、かつ即座に確認できることが好ましい。
さらに、例えばテレビの表示画面上に取得した音声情報を表示する場合、テレビの周辺には不特定多数の人が存在する可能性が高い。それら複数の人の音声情報をテレビの表示画面上に、即座に明確かつ簡潔に表示し、修正まで可能なシステムに関しては、従来より検討がされていない。
特許文献1,2に記載の技術のように、話者識別および音声認識の結果を文字で表示する際には、複数の人が会話している場合又は話者が連続して複数回にわたり発声した場合において、文字列の表示画像が複雑になり、誰が識別されて表示されているのか明確にわかりづらい。また、まれに話者識別の結果が異なって表示された場合に、簡易な修正方法がないという問題点があった。
また、特許文献1,2に記載の技術では、例えばテレビなど、本来、音声認識の結果を表示することが目的ではない表示装置上に、音声認識の結果を表示する際の、表示方法に関しては、十分な検討がされていない。
例えば特許文献1による技術では、単に、会議等の内容を記録する会話記録装置であって、音声認識結果を一文字毎にタイムスタンプおよび音声から抽出する特徴量を合わせて記録し、記録後にクラスタリング処理を行い、会話に参加していた人数と、各話者の音声特徴を求め、各話者の音声特徴と記録データを比較して話者を判別し、同一話者の発言内容を色や表示位置で区分して表示するものである。そのため、特許文献1に記載の技術では、複数話者が発声した場合、表示内容を簡易に且つ間違えなく確認して内容を修正することは困難であると考えられる。また、取得した音声情報を表示する例が示されているが、画面全体に音声情報を表示する例しか示されていない。よって、特許文献1に記載の技術には、テレビなど、本来音声認識の結果を表示することが目的ではない表示装置上に、音声情報を表示することに関しては課題の認識すらない。
また、特許文献2による技術は、音声信号に含まれる言語情報と音声特性情報との双方を迅速かつ簡便に理解できる音声認識文字表示装置に関するものである。この技術では、単に文字画像データに変換し、発声順に連なって移動する文字列からなる表示方法について開示されている。特許文献2に記載の技術では、画像と文字により情報が重層的に理解できる表示方法を実現しているため、表示に誤りがあった際に、簡便に変更することは困難であると考えられる。
本開示は、以上のような従来の話者識別および音声認識表示装置の課題を解決するものである。本開示の一態様により、複数の話者の音声情報を取得し、例えばテレビのような表示装置において、本来表示すべきコンテンツを表示しつつ、取得した音声情報を即座に明確かつ簡潔に表示することができる装置が提供される。さらには、本開示の一態様により、取得した情報に誤検出があった際等に、表示されている情報を簡易にユーザが修正可能な装置が提供される。
本開示の一態様は、
表示部の周辺に位置する話者の音声を識別し識別結果を前記表示部に表示する話者識別システムにおける話者識別方法であって、
前記話者識別システムは、複数の話者の音声に基づきそれぞれ生成された複数の登録音声信号と、前記複数の登録音声信号にそれぞれ対応付けられ前記複数の話者をそれぞれ表す複数の話者画像とを保存するデータベースを含み、
前記表示部の周辺に位置する話者の音声を取得し、
前記取得された話者の音声から話者音声信号を生成し、
前記データベースに保存されている複数の登録音声信号のうち、前記生成された話者音声信号に対応する登録音声信号を識別し、
前記識別された登録音声信号に対応付けて前記データベースに保存されている前記話者画像を、少なくとも前記話者音声信号を生成する元となった前記話者の音声が取得されている間、前記表示部に表示させるものである。
本態様によれば、表示部に話者を表す話者画像が表示されるため、ユーザに、話者の識別結果を明確に表示することができる。また、表示部に話者画像が表示されるのは、少なくとも話者音声信号を生成する元となった話者の音声が取得されている間である。このため、表示部により本来表示したいコンテンツ(例えば表示部がテレビ受像機の表示画面であればテレビ放送番組)の表示の過度の妨げになることが抑制される。
上記態様において、例えば、
前記話者音声信号を生成する元となった前記話者の音声が取得されなくなった時点から所定時間が経過すると、前記表示されている前記話者画像を前記表示部から消去してもよい。
本態様によれば、話者音声信号を生成する元となった話者の音声が取得されなくなった時点から所定時間が経過すると、表示されている話者画像が表示部から消去される。このため、表示部により本来表示したいコンテンツの表示の過度の妨げになるのが防止される。
上記態様において、例えば、
前記データベースは、前記複数の音声登録信号として、第1話者の音声に基づき生成された第1登録音声信号と、第2話者の音声に基づき生成された第2登録音声信号とを保存し、かつ、前記第1登録音声信号に対応付けられ前記第1話者を表す第1話者画像と、前記第2登録音声信号に対応付けられ前記第2話者を表す第2話者画像とを保存し、
前記第1話者の音声が取得されると、第1話者音声信号が生成され、
前記生成された第1話者音声信号が前記第1登録音声信号に対応すると識別されると、少なくとも前記第1話者の音声が取得されている間、前記第1話者画像が前記表示部に表示され、
前記第1話者画像が前記表示部に表示されているときに、前記第2話者の音声が取得されると、第2話者音声信号が生成され、
前記生成された第2話者音声信号が前記第2登録音声信号に対応すると識別されると、少なくとも前記第2話者の音声が取得されている間、前記第1話者画像に加えて、前記第2話者画像が前記表示部に表示されてもよい。
本態様によれば、少なくとも第1話者の音声が取得されている間、表示部には第1話者画像が表示され、少なくとも第2話者の音声が取得されている間、表示部には第2話者画像が表示される。このため、表示部に表示される話者画像によって、現在の話者を確認することができる。
上記態様において、例えば、
前記第1話者の音声と前記第2話者の音声とが取得された順に、前記第1話者画像と前記第2話者画像とが、前記表示部に並べられて表示されてもよい。
本態様によれば、第1話者と第2話者との間で話者が交替する度に、表示部に表示される第1話者画像と第2話者画像との並び順が入れ替えられる。その結果、話者に対して発話が促されることとなる。
上記態様において、例えば、
前記第1話者画像と前記第2話者画像とのうち、前記データベースに後で登録された方の話者画像は、前記データベースに先に登録された方の話者画像とは異なる態様で前記表示部に表示されてもよい。
本態様によれば、第1話者画像と第2話者画像とのうち、データベースに後で登録された方の話者画像は、先に登録された方の話者画像とは異なる態様で表示部に表示される。このため、後から発話した話者を容易に確認することができる。
上記態様において、例えば、
前記第1話者の発話回数と、前記第2話者の発話回数とがカウントされ、
前記第1話者画像と前記第2話者画像とは、前記カウントされた発話回数の多い順に、前記表示部に並べられて表示されてもよい。
本態様によれば、第1話者画像と第2話者画像とは、発話回数の多い順に、表示部に並べられて表示される。このため、第1話者と第2話者とに発話が促されることとなる。
上記態様において、例えば、
前記話者画像についての話者からの修正指示が受け付けられると、前記修正を指示した話者の音声を新たに取得し、
前記新たに取得された話者の音声から新たに話者音声信号を生成し、
前記データベースに保存されている、前記修正指示が行われた前記話者画像に対応付けられている前記登録音声信号を、前記新たに生成された話者音声信号に書き換えてもよい。
本態様によれば、話者画像についての話者からの修正指示が受け付けられると、データベースに保存されている、修正指示が行われた話者画像に対応付けられている登録音声信号が、新たに生成された話者音声信号に書き換えられる。その結果、登録音声信号が誤っていたために、誤った話者画像が表示部に表示されても、修正が容易に行われる。
上記態様において、例えば、
前記話者からの修正指示は、前記表示部に表示されている前記話者画像について受け付けられ、前記表示部に表示されていない前記話者画像については受け付けられないようにしてもよい。
本態様によれば、話者からの修正指示は、表示部に表示されていない話者画像については受け付けられないため、例えば話者による誤った修正指示を受け付けるような事態が避けられる。
上記態様において、例えば、
前記生成された話者音声信号から前記話者の属性を判別し、
前記判別された前記話者の属性に基づき前記話者画像を作成し、
前記生成された話者音声信号と前記判別された前記話者の属性と前記作成された前記話者画像とを、互いに対応付けて前記データベースに保存し、前記データベースには、前記生成された話者音声信号は、前記登録音声信号として保存されるようにしてもよい。
本態様によれば、話者の音声が取得されると、登録音声信号と話者の属性と話者画像とが、互いに対応付けられてデータベースに保存される。したがって、ユーザによる登録のための操作数を低減することができる。話者の属性は、例えば話者の性別でもよい。話者の属性は、例えば話者の概略の年齢でもよい。
本開示の他の態様は、
表示部と、
前記表示部の周辺に位置する話者の音声を取得する音声取得部と、
前記取得された話者の音声から話者音声信号を生成する音声処理部と、
複数の話者の音声に基づきそれぞれ生成された複数の登録音声信号と、前記複数の登録音声信号にそれぞれ対応付けられ前記複数の話者をそれぞれ表す複数の話者画像とを記憶するデータベースと、
前記データベースに記憶されている前記複数の登録音声信号のうち、前記生成された前記話者音声信号に対応する登録音声信号を識別する識別処理部と、
前記識別された前記登録音声信号に対応付けて前記データベースに記憶されている前記話者画像を、少なくとも前記話者音声信号を生成する元となった前記話者の音声を前記音声取得部が取得している間、前記表示部に表示する表示制御部とを備えるものである。
本態様によれば、表示部に話者を表す話者画像が表示されるため、ユーザに、話者の識別結果を明確に表示することができる。また、表示部に話者画像が表示されるのは、少なくとも話者音声信号を生成する元となった話者の音声が取得されている間である。このため、表示部により本来表示したいコンテンツ(例えば表示部がテレビ受像機の表示画面であればテレビ放送番組)の表示の過度の妨げになることが抑制される。
本開示のさらに他の態様は、
表示部と、
前記表示部の周辺に位置する話者の音声を取得する音声取得部と、
前記取得された話者の音声から話者音声信号を生成する音声処理部と、
ネットワークを介して外部のサーバ装置と通信を行う通信部と、
前記表示部を制御する表示制御部と、
を備え、
前記通信部は、前記生成された話者音声信号を前記サーバ装置に送信し、かつ、前記サーバ装置から、前記話者音声信号を基に識別された前記話者を表す話者画像を受信し、
前記表示制御部は、前記受信された話者画像を、少なくとも前記話者音声信号を生成する元となった前記話者の音声を前記音声取得部が取得している間、前記表示部に表示させるものである。
本態様によれば、サーバ装置において、話者音声信号を基に話者を表す話者画像が識別される。サーバ装置から話者画像が通信部により受信される。受信された話者画像が、表示部に表示される。このため、ユーザに、話者の識別結果を明確に表示することができる。また、表示部に話者画像が表示されるのは、少なくとも話者音声信号を生成する元となった話者の音声が取得されている間である。このため、表示部により本来表示したいコンテンツ(例えば表示部がテレビ受像機の表示画面であればテレビ放送番組)の表示の過度の妨げになることが抑制される。
本開示のさらに他の態様は、
表示部の周辺に位置する話者の音声を取得する音声取得部と、
前記取得された話者の音声から話者音声信号を生成する音声処理部と、
複数の話者の音声に基づきそれぞれ生成された複数の登録音声信号と、前記複数の登録音声信号にそれぞれ対応付けられ前記複数の話者をそれぞれ表す複数の話者画像とを記憶する記憶部と、
前記複数の登録音声信号のうち前記生成された話者音声信号に対応する登録音声信号を識別する識別処理部と、
前記識別された前記登録音声信号に対応付けて前記記憶部に記憶されている前記話者画像を、少なくとも前記話者音声信号を生成する元となった前記話者の音声を前記音声取得部が取得している間、前記表示部に表示させる表示制御部と、を備えるものである。
本態様によれば、表示部に話者を表す話者画像が表示されるため、ユーザに、話者の識別結果を明確に表示することができる。また、表示部に話者画像が表示されるのは、少なくとも話者音声信号を生成する元となった話者の音声が取得されている間である。このため、表示部により本来表示したいコンテンツ(例えば表示部がテレビ受像機の表示画面であればテレビ放送番組)の表示の過度の妨げになることが抑制される。
以下、実施の形態について、図面を参照しながら説明する。
なお、以下で説明する実施の形態は、いずれも本開示の一具体例を示すものである。以下の実施の形態で示される数値、形状、構成要素、ステップ、ステップの順序などは、一例であり、本開示を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、最上位概念を示す独立請求項に記載されていない構成要素については、任意の構成要素として説明される。また全ての実施の形態において、各々の内容を組み合わせることもできる。
(実施の形態1)
図1は、実施の形態1における話者識別システムを構成する話者識別装置200の構成例を示すブロック図である。図2は、図1に示される話者識別装置200の制御部205の機能を示すブロック図である。
話者識別装置200は、図1に示されるように、音声取得部201、音声データベース(DB)203、表示部204、及び制御部205を備える。また、話者識別装置200は、通信部202、入力受付部206をさらに備えていてもよい。話者識別装置200の制御部205は、図2に示されるように、音声処理部101、データベース管理部102、識別処理部103、及び表示制御部104を含む。
ここで、話者識別装置200は、例えば一般家庭用のテレビ、パーソナルコンピュータ(PC)におけるモニタなどでもよい。ここでは、話者識別装置200として、特に、上記の「本開示の基礎となった知見」にて説明した通り、話者識別結果を表示するためだけの専用表示装置というよりは、別のコンテンツ等を表示することのできる装置を想定している。ただし、表示機能を有する装置に上記の各構成が備えられていれば、いかなる装置を採用してもよい。
また、各構成は、必ずしも、話者識別装置200の筐体の内部に配置されていなくてもよい。例えば音声取得部201が、話者識別装置200の筐体の外部に接続されていても、その音声取得部201は、話者識別装置200に含まれる。話者識別装置200は、一の家庭に一台のみ配置されているとは限らず、一の家庭に複数台配置されている場合もある。話者識別装置200は、この実施の形態1では、一般家庭用のテレビである。
音声取得部201は、例えばマイクロフォンなどである。音声取得部201は、話者識別装置200を視聴している視聴者が発話した音声を取得する。ここで、音声取得部201には、指向性を制御する機器が備わっていてもよい。この場合には、視聴者の存在する方向に指向性を持たせることにより、視聴者が発話した音声を取得する精度を向上させることができる。また、話者が位置する方向を検出することができる。
また、音声取得部201は、人の発話に関する音声以外の音を、取得しない機能(もしくは除去する機能)を有していてもよい。この実施の形態1のように、例えば話者識別装置200がテレビの場合、音声取得部201は、取得した音声からテレビの音声信号を除去する機能を有していてもよい。これによって、視聴者が発話した音声を取得する精度を向上させることができる。
音声DB203は、情報を蓄積(記録)することが可能な記録媒体等で構成される。音声DB203は、話者識別装置200の筐体の内部に設けられていなくてもよい。音声DB203が例えば外付けの記録媒体等で構成されて、話者識別装置200の筐体の外部に接続されていても、音声DB203は、話者識別装置200に含まれる。
音声DB203には、話者識別装置200を保持している家族の音声、家族の動作音または家族の音声以外の音声、さらに家族の構成員(ユーザ)の年齢及び性別等の情報が蓄積されて管理されている。音声DB203に蓄積されている情報の詳細については特に限定しないが、音声取得部201が取得した話者識別装置200周辺の音声から、ユーザを特定できる情報が蓄積されていればよい。
この実施の形態1では、例えば、音声DB203には、登録音声信号(音声信号のスペクトル又は周波数等から生成された情報)と、ユーザ情報(年齢、性別又はニックネーム等の情報)とが、互いに対応付けられて蓄積されている。また、この実施の形態1では、音声DB203には、各ユーザに対応する話者画像が対応付けられて蓄積されている。
図3は、音声DB203に蓄積されている音声情報800の一例を示す図である。音声情報800は、互いに対応付けられた、登録音声信号801と、ユーザ情報802と、登録アイコン803(話者画像の一例)とを含む。
図3では、登録音声信号801は、音声信号のスペクトル又は周波数等の情報を基に生成された予め設定された次元数の特徴ベクトルを表す信号である。登録音声信号801は、この実施の形態1では、「.wav」形式のファイルとして登録されている。なお、登録音声信号801は、「.wav」形式のファイルでなくてもよい。例えば、登録音声信号801は、MPEG−1 Audio Layer 3、Audio Interchange File Format等の音声圧縮されたデータで生成されてもよい。また、登録音声信号801は、例えば自動的に圧縮ファイルにエンコードされ、音声DB203に格納されてもよい。
ユーザ情報802は、ユーザ(話者)の属性を表す情報である。この実施の形態1では、図3に示されるように、ユーザ情報802は、ユーザの属性として、「年齢」、「性別」、「ニックネーム」を含む。図3のユーザ情報802の例では、登録音声信号801が「0001.wav」のユーザに対応付けて、「年齢」が「40代」に、「性別」が「男性」に、「ニックネーム」が「パパ」に、それぞれ設定されている。「年齢」及び「性別」については、データベース管理部102等が自動的に登録してもよく、ユーザが入力受付部206を用いて登録してもよい。「ニックネーム」については、ユーザが入力受付部206を用いて登録すればよい。
登録アイコン803は、ユーザ(話者)を表す話者画像である。図3の登録アイコン803の例では、登録音声信号801が「0001.wav」のユーザに対応付けて、「アイコンA01」が設定され、登録音声信号801が「0003.wav」のユーザに対応付けて、「アイコンB05」が設定されている。登録アイコン803は、後述の図8Aに示されるように、○、□、△のような記号のアイコンでもよい。あるいは、登録アイコン803は、後述の図8Bに示されるように、人の顔を模式的に表したアイコンでもよい。
登録アイコン803に関しては、制御部205は、予め作成された複数のアイコンのなかからユーザが選択したアイコン、またはユーザが自ら作成した画像を、登録アイコン803として音声情報800に登録してもよい。また、ユーザによってアイコンが音声情報800に登録されていない場合でも、制御部205が、ユーザ情報802を基に、ユーザ情報802に適合するアイコンを選択して、又は作成して、音声情報800に登録するようにしてもよい。
音声DB203に蓄積される音声情報800の構築方法についても特に限定しない。例えば予めユーザが初期登録することで音声情報800を構築できる。例えば、初期登録では、話者識別装置200の前にいるユーザが発話をするたびに、音声取得部201が音声を取得する。音声処理部101は、取得された話者の音声から特徴ベクトルを生成し、生成した特徴ベクトルを表す話者音声信号を生成する。データベース管理部102は、生成された話者音声信号を、登録音声信号801として自動的に音声DB203の音声情報800に登録する。このようにして、音声DB203が完成されてもよい。
また、その初期登録の際に、入力受付部206は、ユーザが発話したタイミングでユーザ情報802を入力させるようなユーザインタフェースを表示部204に表示させてもよい。データベース管理部102は、ユーザの入力受付部206に対するユーザ情報802の入力内容を用いて、音声DB203の音声情報800を更新してもよい。
なお、音声情報800に関して、上述のように初期登録によって音声DB203に予め登録しておかなくても、ある程度の話者の情報を識別することもできる。一般的に、年齢差や性別によって、話者の音声の基本周波数が異なることが知られている。例えば、男性が発話する音声の基本周波数の平均は150Hz〜550Hz、女性が発話する音声の基本周波数の平均は400Hz〜700Hzと言われている。よって、初期登録に代えて、話者識別装置200の識別処理部103は、音声処理部101で生成された音声を表す信号の周波数などの情報を基に、ある程度の年齢及び性別を判断してもよい。データベース管理部102は、識別処理部103の判断結果に基づき、自動で音声DB203の音声情報800に、登録音声信号801及びユーザ情報802を登録するようにしてもよい。
また、ユーザ情報802に関しては、図3に記載のものに限られない。制御部205は、各ユーザごとに視聴履歴の多い番組などの嗜好情報を、ユーザ情報802として音声DB203に蓄積するようにしてもよい。また、ユーザ情報802の取得方法に関しても限定しない。ユーザが、話者識別装置200を最初に使用するときに入力受付部206を用いてユーザ情報802の初期設定をするようにしてもよい。あるいは、最初に、ユーザの音声が取得されたタイミングで、ユーザが入力受付部206を用いてユーザ情報802を登録するようにしてもよい。
図4は、音声DB203に蓄積される音声情報810の別の例を示す図である。図4に示される音声情報810は、互いに対応付けられた、登録音声信号801と音声データ804とを含む。音声データ804は、音声取得部201によって取得された話者の音声から、音声処理部101によって生成された発話内容を表すデータである。図4に示されるような音声情報810が、音声DB203に蓄積されていくようにしてもよい。
この場合には、音声処理部101は、話者の音声の特徴ベクトルを表す話者音声信号に加えて、発話内容を表すデータを生成する。音声処理部101は、例えば音響モデル及び言語モデルを用いる音声認識技術によって、発話内容を表すデータを生成する。データベース管理部102は、音声処理部101によって生成された発話内容を表すデータを、音声DB203に音声データ804として蓄積する。
識別処理部103は、さらに、音声処理部101から出力された発話内容を表すデータと、音声DB203に蓄積されている音声データ804(発話内容)とを比較する。これによって、話者の特定精度を向上させることができる。
図4の例では、登録音声信号801が「0002.wav」のユーザが、あるタイミングで「料理番組を見ながら夕食を作りましょう」と発話していたことが記録されている。これにより、登録音声信号801が「0002.wav」に対応する話者が、別のタイミングで例えば「料理番組」等の同様の単語を発話した場合には、登録音声信号801が「0002.wav」に対応する話者の発話である可能性が高いと、識別処理部103が判断できる。
図1に戻って、表示部204は、一般的なモニタなどであり、特に限定しない。この実施の形態1では、表示部204は、テレビの表示画面である。表示部204は、制御部205の表示制御部104により制御されて、画像または情報を表示する。本実施の形態1の話者識別システムでは、表示部204は、取得された話者の音声に対応付けられた登録アイコン803を表示する。これにより、ユーザは、話者識別表示システムにより、誰が、または複数の人数が識別されているのかが明確に分かるようになる。
また、後述の実施の形態2の話者識別システムでは、話者識別装置200の周辺に複数のユーザが存在する場合などに、話者識別が誤っていたことにより異なる登録アイコン803が表示された際には、簡易に修正が可能な構成にしている。表示部204に表示される登録アイコン803等の具体例は、図8A〜8Fを参照して後述する。
制御部205は、例えばCPU又はマイクロコンピュータ、及びメモリなどを含む。制御部205は、音声取得部201、音声DB203、及び表示部204などの各構成の動作を制御する。例えばメモリに格納されたプログラムにしたがってCPU又はマイクロコンピュータが動作することにより、制御部205は、図2に示される音声処理部101、データベース管理部102、識別処理部103、及び表示制御部104として機能する。図2に示される制御部205の各機能は、図5を参照して後述される。
ここで、上記したように、話者識別装置200は通信部202を備えていてもよい。通信部202は、インターネット等と接続することで他の機器やサーバ装置と通信し、情報のやりとりを行う。
また、話者識別装置200は、入力受付部206を備えていてもよい。入力受付部206は、ユーザからの入力を受け付ける。ユーザからの入力を受け付ける方法としては特に限定しない。入力受付部206をテレビのリモートコントローラで構成してもよい。あるいは、入力受付部206は、表示部204に操作のためのユーザインタフェースを表示してもよい。ユーザは、それらの入力受付部206によって、情報又は指示を入力することができる。
図5は、本実施の形態1の話者識別システムの図1に示される話者識別装置200における処理を示すフローチャートである。
まず、ステップS301では、音声取得部201は、話者の発した音声を取得する。音声処理部101は、取得された話者の音声から、予め設定された次元数の特徴ベクトルを生成し、生成した特徴ベクトルを表す話者音声信号を生成する。
続いて、ステップS302では、データベース管理部102は、音声DB203に蓄積されている音声情報800(図3)から、登録音声信号801を抽出して、識別処理部103に出力する。識別処理部103は、音声処理部101により生成された話者音声信号と、データベース管理部102から出力された登録音声信号801とを比較し、話者音声信号に対応する登録音声信号801を特定する。
識別処理部103は、例えば話者音声信号と、音声DB203に蓄積されている各登録音声信号801との類似度をそれぞれ算出する。識別処理部103は、算出した類似度のうちで、最も高い類似度を抽出する。識別処理部103は、この最も高い類似度が予め設定された閾値以上のときに、その最も高い類似度に対応する登録音声信号801を、話者音声信号に対応すると判断する。具体的には例えば、識別処理部103は、話者音声信号の特徴ベクトルと登録音声信号801の特徴ベクトルとの距離をそれぞれ算出する。識別処理部103は、算出した距離が最も短い登録音声信号801と話者音声信号との類似度が最も高いと判断する。
続いて、ステップS303では、識別処理部103は、特定した登録音声信号801をデータベース管理部102に出力する。データベース管理部102は、音声DB203に蓄積されている音声情報800(図3)を参照して、出力された登録音声信号801に対応付けられている登録アイコン803を抽出する。データベース管理部102は、抽出した登録アイコン803を識別処理部103に出力する。
識別処理部103は、出力された登録アイコン803を表示制御部104に出力する。音声処理部101は、音声取得部201により話者の音声が取得されている間だけ、その旨を表す取得信号を、話者ごとに表示制御部104に出力する。
表示制御部104は、識別処理部103から出力された登録アイコン803を、音声処理部101から取得信号が入力されている間、表示部204に表示する。表示制御部104は、音声取得部201が取得している話者の音声から、特定された話者を示す音声が所定時間途絶えたとき、つまり音声処理部101から特定された話者の取得信号が入力されなくなった時点から所定時間(この実施の形態1では、例えば10秒)が経過したときに、表示制御部104は、表示部204に表示されているアイコンを消去する。この場合、表示制御部104は、表示されているアイコンの透明度を徐々に増大させて、アイコンを表示部204からフェードアウトさせるようにしてもよい。
図6は、本実施の形態1における話者識別システムの別の構成例を示すブロック図である。図6では、図1と同一要素については同一符号が付されている。以下、図1の話者識別システムとの相違点を中心に、図6の話者識別システムが説明される。
図6の話者識別システムは、話者識別装置200と、サーバ装置210とを備える。図6の話者識別システムでは、音声DB203は、図1の話者識別システムと異なり、サーバ装置210に含まれている。すなわち、話者識別装置200は、音声取得部201、通信部202、表示部204、及び制御部205を備え、音声DBを備えない。図6の話者識別システムでも、話者識別装置200は、上記したように、一般家庭用のテレビ、またはパーソナルコンピュータ(PC)におけるモニタなどでもよい。図1と同様に、話者識別装置200は、一般家庭用のテレビである。
また、サーバ装置210は、制御部211、通信部212、及び音声DB203を備える。サーバ装置210が置かれている場所に関しては、特に限定しない。ビッグデータを取り扱うデータセンターを管理又は運営する会社が保有するデータセンターに配置されていてもよく、各家庭に配置されていてもよい。
話者識別装置200の通信部202は、インターネットなどのネットワーク220を介して、サーバ装置210の通信部212と通信する。これにより、話者識別装置200の制御部205は、例えば生成した話者音声信号を、通信部202を介してサーバ装置210に送信することができる。サーバ装置210は、通信部212を介して、複数の話者識別装置200と接続されていてもよい。
図6の話者識別システムでは、図2に示される各機能は、サーバ装置210の制御部211と、話者識別装置200の制御部205との、いずれかに含まれていればよい。例えば音声処理部101は、音声取得部201が取得した話者の音声を処理するため、話者識別装置200の制御部205に含まれていてもよい。例えばデータベース管理部102は、音声DB203を管理するため、サーバ装置210の制御部211に含まれていてもよい。例えば表示制御部104は、表示部204を制御するため、話者識別装置200の制御部205に含まれていてもよい。
音声DB203は、サーバ装置210が複数の話者識別装置200と接続されている場合には、複数の話者識別装置200の各々に対応する音声情報800(図3)をそれぞれ保存して管理してもよい。
図7は、図6の話者識別システムにおける動作の一例を示すシーケンス図である。なお、図7では、図2に示される各機能のうち、データベース管理部102及び識別処理部103は、サーバ装置210の制御部211に含まれ、音声処理部101及び表示制御部104は、話者識別装置200の制御部205に含まれている。また、ここでは、図6に示したサーバ装置210と話者識別装置200とを含む話者識別システムの動作の例を示すが、あくまで一例であり、本実施の形態を限定するものではない。
まず、ステップS401にて、話者識別装置200における音声取得部201が、話者の音声を取得する。音声処理部101は、取得された話者の音声から特徴量を抽出し、抽出した特徴量を表す話者音声信号を生成する。本ステップS401は、図5に示すステップS301に相当する。
ステップS401において、音声取得部201により取得された話者の音声に対して音声処理部101が特徴量抽出などの処理を行うタイミングに関しては限定しない。話者識別装置200であるテレビの電源がONになっている間、常に、音声取得部201が音声を取得して、音声処理部101が特徴量抽出などの処理を行ってもよい。また、音声処理部101がマジックワード(所定の単語)を検出した時に、その検出時点以降に音声取得部201が取得した音声に対して音声処理部101が特徴量抽出などの処理を開始してもよい。また、人が発声した音声と、話者の音声以外の環境音とを音声処理部101が識別して、人が発声した音声のみに対して、音声処理部101が特徴量抽出などの処理を行うようにしてもよい。
続いて、ステップS402にて、話者識別装置200における通信部202は、ネットワーク220を介して、音声処理部101により生成された話者音声信号をサーバ装置210に送信する。この時、一つのサーバ装置210に対して複数の話者識別装置200が接続されている場合、話者音声信号とともに、話者識別装置200を特定する識別情報を送信するようにしてもよい。
続いて、ステップS403にて、サーバ装置210の制御部211の識別処理部103は、データベース管理部102を介して、音声DB203に蓄積されている登録音声信号801を取得する。そして、識別処理部103は、取得した登録音声信号801と、ステップS402にて通信部212を介して話者識別装置200から取得した話者音声信号とを比較して、話者音声信号と一致する登録音声信号801(話者)を特定する。本ステップS403は、図5に示すステップS302に相当する。
続いて、ステップS404にて、制御部211の識別処理部103は、データベース管理部102を介して、特定された登録音声信号801に対応する登録アイコン803を抽出する。例えば図3において、登録音声信号801が「0001.wav」及び「0003.wav」の話者に対しては、それぞれアイコンA01、B05が登録アイコン803として登録されている。そこで、これらの話者については、識別処理部103は、各々の登録アイコン803を抽出すればよい。
また、図3の例では、登録音声信号801が「0002.wav」の話者には登録アイコン803が登録されていない。この場合は、制御部211の識別処理部103は、予め作成された複数のアイコンから自動的に抽出してもよい。また、話者識別装置200から取得した話者音声信号が、登録音声信号801のいずれとも対応しない場合にも、同様に、制御部211の識別処理部103は、取得した話者音声信号から類推される適切なアイコンを予め作成された複数のアイコンから抽出してもよい。あるいは、識別処理部103は、話者識別装置200から取得した話者音声信号に対応する登録アイコン803が音声情報800に登録されていない場合には、話者音声信号から類推される適切なアイコンを作成してもよい。この点については、図1に示される構成の話者識別システムの場合でも同様である。
続いて、ステップS405にて、サーバ装置210の通信部212は、ネットワーク220を介して、ステップS404にて識別処理部103により抽出されたアイコンを話者識別装置200へ送信する。
続いて、ステップS406にて、話者識別装置200の制御部205の表示制御部104は、ステップS405にて送信されたアイコンを表示部204に表示させる。本ステップS406は、図5に示すステップS303に相当する。
このとき、上述のように、音声処理部101は、音声取得部201により話者の音声が取得されている間だけ、その旨を表す取得信号を、話者ごとに表示制御部104に出力する。表示制御部104は、音声処理部101から取得信号が入力されている間、つまり特定された話者の音声を認識している間、アイコンを表示部204に表示させる。
表示制御部104は、音声取得部201が取得している話者の音声から、特定された話者を示す音声が所定時間途絶えたとき、つまり音声処理部101から取得信号が入力されなくなった時点から所定時間(この実施の形態1では、例えば10秒)が経過したときに、表示制御部104は、表示部204に表示されているアイコンを消去する。この場合、表示制御部104は、表示されているアイコンの透明度を徐々に増大させて、アイコンを表示部204からフェードアウトさせるようにしてもよい。
図8A〜8Hは、それぞれ、図1又は図6に示される話者識別システムにおいて、表示制御部104によって表示部204に表示される登録アイコン803の具体的な表示例を示す図である。なお、あくまで、図8A〜8Hに記載の表示構成は一例であり、図8A〜8Hに示されている表示構成以外の表示構成を備えていてもよく、また一部の表示構成が欠けていてもよい。
図8Aでは、ステップS403にて特定された話者に対応する記号をアイコンとして、それぞれ色分けして話者識別装置200の表示部204の右下隅に表示している。図8Aの例では、アイコン911は丸の記号であり、アイコン912は四角の記号であり、アイコン913は三角の記号である。上記したように、ステップS406にて、表示制御部104は、これらの記号で表示されたアイコンを、話者が発話している間及びその後の所定時間だけ表示部204に表示する。このように表示することで、ユーザは、テレビ放送の表示が過度に邪魔されることなく、話者識別の結果を確認できる。
ここで、図8Aにて表示されているタイミングでは、アイコン911、アイコン912、アイコン913の3人の話者が同時に発話していることになる。例えば、あるタイミングで、アイコン912に対応する話者の発話が止まった時点から所定時間(この実施の形態1では、例えば10秒)が経過すると、表示制御部104は、アイコン912だけを消去する。その結果、表示部204には、アイコン911及びアイコン913のみが表示されている状態になる。
その際、表示制御部104は、アイコン911が表示される位置を右にスライドさせ、アイコン911をアイコン913の直ぐ隣に表示するようにしてもよい。これにより、常に表示部204の右下隅にアイコンが集まることになり、テレビ放送の表示が過度に妨げられるのを抑制できる。
なお、発話が止まった際に、表示制御部104は、アイコンを消去するのに代えて、アイコンの色を半透明にしてもよい。あるいは、発話が止まった際に、表示制御部104は、アイコンの大きさを小さく変化させてもよい。これらによっても、同様の効果が得られる。
また、認識された話者に対応する複数のアイコンを一定時間表示するようにして、右もしくは左から複数の話者が発声した順に並べて表示してもよい。図8Aの例では、アイコン911,912,913の順で、もしくはアイコン913,912,911の順で、対応する話者が発声していることが示される。もちろん、上もしくは下から順に表示してもよい。これにより、発話のたびにアイコンの表示の順序が入れ替わる。したがって、ユーザへ発話を促すことができる。
また、図8Aに示されるように、表示制御部104は、認識されている話者のうち、発話をしている話者を示すアイコンに対して、発話をしている間だけ、補足アイコン914を表示してもよい。図8Aの例では、補足アイコン914として、発話中の話者を示すアイコンを丸の形状で囲むアイコンが採用されており、現在、アイコン911に対応する話者が発話をしていることが示されている。
この場合、表示制御部104は、音声処理部101から話者ごとに出力される取得信号に基づき、補足アイコン914を表示する対象のアイコンを決定する。これにより、話者識別装置200の付近にいることが認識されている話者を示すアイコン912,913と、現在発話をしている話者を示すアイコン911とを、明確に区別して表示できる。
図8Bに示されるように、表示制御部104は、表示部204に表示するアイコンを、図8Aのような記号ではなくて、人の形を概略的に表したアイコン915〜918としてもよい。上記したように、このアイコン915〜918を、ユーザが選択してもよく、ユーザが作成してもよく、サーバ装置210の制御部211もしくは話者識別装置200の制御部205が選択するようにしてもよい。この場合でも、図8Aと同様に、表示制御部104は、補足アイコン914を表示部204に表示してもよい。
また、表示制御部104は、アイコン付近またはアイコンの上に話者が発話した内容を都度表示するようにしてもよい。この場合には、表示制御部104は、アイコンを例えば半透明にして常に表示しておき、発話内容を話者が発話している間だけ表示するようにしてもよい。
なお、図8Bでは、音声取得部201または音声処理部101は、指向性を制御する機能を有している。これにより、制御部205は、表示部204の前に位置する話者の存在する方向に指向性を持たせ、話者が位置する方向を検出することができる。そこで、表示制御部104は、図8Bに示されるように、検出した発話者の位置する方向に合わせてアイコンを表示させる位置を変化させてもよい。図8Bの例では、アイコン915,916に対応する話者は、表示部204の中心線から左側に位置し、アイコン917,918に対応する話者は、表示部204の中心線から右側に位置することが分かる。このように表示することで、ユーザは、話者識別の結果を確認しやすくなる。
図8Cに示されるように、複数の話者が一斉に発声した場合に、表示制御部104は、音声DB203に新規に登録された話者に対して、仮で設定したアイコン921を大きく表示してもよい。
ここで、「新規に登録」は以下のように行われる。この話者が発話した時点では、この話者の登録音声信号801は、音声情報800に登録されていない。そこで、識別処理部103は、音声処理部101により生成された話者音声信号を、データベース管理部102を介して、登録音声信号801として、音声情報800に登録する。識別処理部103は、話者音声信号から話者の属性を判断する。識別処理部103は、その判断結果に基づき、アイコンを仮に設定して、データベース管理部102を介して、音声情報800に登録アイコン803として登録する。このようにして、未登録の話者は、音声DB203に新規に登録される。
これにより、ユーザは、新規の話者を確認することができる。また、新規の話者に対して、アイコンの選択または作成によって、仮に設定されたアイコンを好みのアイコンに変更するのを促すことができる。
図8Dに示されるように、複数の話者が発話した場合に、表示制御部104は、発話時間または発話回数が最も多い話者に対応するアイコンを、大きく表示してもよい。この場合には、識別処理部103は、話者ごとに発話時間または発話回数をカウントし、データベース管理部102を介して、カウント値を音声DB203に蓄積する。表示制御部104は、データベース管理部102を介して、蓄積されたカウント値を音声DB203から取得する。
図8Dの例では、アイコン922に対応する話者の発話時間または発話回数が最も多いことが分かる。これにより、話者の発話を促すことができる。話者の発話を促すことで、音声DB203に蓄積される音声情報800の量を増加することができる。その結果、より精度の高い話者認識が可能となる。
図8Dのようにアイコン922を拡大表示するだけではなくて、表示制御部104は、図8Eに示されるように、発話量表示部931,932を表示部204に表示してもよい。発話量表示部931,932は、発話時間または発話回数に基づく発話量をバーで表示したものである。発話量は、発話時間が長くなると、または発話回数が多くなると、増大する。
発話量表示部931は、例えば話者識別装置200を所有する家族単位での発話量を表す。発話量表示部932は、例えばサーバ装置210に接続されている全ての話者識別装置200における発話量の平均値を表す。なお、発話量表示部932は、サーバ装置210に接続されている全ての話者識別装置200のうちで、同一のテレビ放送番組が視聴されている話者識別装置200における発話量の平均値を表すようにしてもよい、
図8Eの場合には、例えば、発話量表示部931のレベルが発話量表示部932のレベルに比べて低い場合には、話者の発話が促されることとなる。また、サーバ装置210の制御部211は、発話量表示部931のレベルによって、現在視聴しているテレビ放送番組またはコマーシャルをユーザが熱心に視聴しているか否かのデータを収集することができる。
なお、図1の話者識別システムの場合には、表示制御部104は、発話量表示部931の表示のみを行うことができる。表示制御部104による発話量表示部932の表示は、図6の話者識別システムによって実現される。
図8Fに示されるように、表示制御部104は、アイコン911〜914を表示部204に表示する際に、テレビ放送番組を表示するメイン表示領域941を表示部204の表示画面全体から縮小してもよい。表示制御部104は、メイン表示領域941の外側に、サブ表示領域942を設けて、このサブ表示領域942にアイコン911〜914を表示してもよい。これによって、アイコン911〜914の表示によりテレビ放送番組の視聴が過度に妨げられる事態を抑制することができる。
図8A〜8Fでは、複数のアイコンが表示部204に表示されているが、図8G,8Hに示されるように、1個のアイコンが表示部204に表示される場合もある。例えば図8Aにおいて、アイコン913に対応する話者のみが発話を続け、アイコン911,912に対応する話者の発話が停止した場合、その停止時点から所定時間(この実施の形態1では、例えば10秒)が経過すると、表示制御部104は、図8Gに示されるように、アイコン913のみを表示部204に表示し、他のアイコンを消去する。
例えば図8Bにおいて、アイコン915に対応する話者のみが発話を続け、アイコン916〜918に対応する話者の発話が停止した場合、その停止時点から所定時間(この実施の形態1では、例えば10秒)が経過すると、表示制御部104は、図8Hに示されるように、アイコン915のみを表示部204に表示し、他のアイコンを消去する。
以上説明されたように、本実施の形態1における話者識別システムによれば、表示部204が本来表示したいコンテンツ(例えば表示部204がテレビの表示画面であれば、テレビ放送番組)の表示の妨げになることを抑制しつつも、ユーザへ話者の識別結果を明確に表示することができる。
なお、あくまで、図1、図6に記載の構成は、本実施の形態1の話者識別システムの一例であり、図1、図6に示されている構成以外の構成を備えていてもよく、また一部の構成が欠けていてもよい。また、図1、図6のいずれを採用してもよいし、図示した以外の装置を本実施の形態1の話者識別システムに採用することもできる。
(実施の形態2)
以下、実施の形態2における話者識別システムを説明する。なお、本実施の形態2では一部、実施の形態1と同様の説明は省略している。また、実施の形態2の技術を実施の形態1に記載の技術と組み合わせることも可能である。
本実施の形態2における話者識別システムの構成は、図1または図6に示される実施の形態1の話者識別システムと同様であるので、詳細な説明を省略する。実施の形態2では、実施の形態1と同一構成については、同じ符号を用いて説明する。ただし、本実施の形態2においては、図1または図6に示される入力受付部206が必須の構成となる。
図9は、実施の形態2における、図1に示される話者識別装置200の制御部205の機能を示すブロック図である。図2に示される実施の形態1と異なるのは、修正制御部105を備えていることである。この修正制御部105により、識別処理部103が抽出したアイコンが誤っている場合に、ユーザが修正を行い、音声DB203の情報を更新することが可能となる。このような構成により、実施の形態2では、識別処理部103により識別された情報を修正することが簡易に行えるようになる。修正制御部105の具体的な動作については、図10を参照して、次に説明する。
図10は、実施の形態2の話者識別システムの図1に示される話者識別装置200における処理を示すフローチャートである。ステップS301〜S303は、図5のステップS301〜S303と同様である。
ステップS303に続いて、ステップS304では、修正制御部105は、話者に対応するアイコンについて、ユーザからの修正指示を受け付ける。ユーザは、入力受付部206を用いて、修正指示を行う。修正制御部105は、ユーザの修正指示の内容にしたがって、データベース管理部102を介して、音声DB203の内容を更新する。
ここで、ステップS304にて、修正制御部105は、ステップS303にてアイコンが表示されている間のみ、ユーザからの修正指示を受け付けるよう制御してもよい。これにより、修正を意図していないタイミングで誤って修正指示を受け付けてしまうことを低減できる。また、この場合、修正制御部105は、表示制御部104を通じて、アイコンが表示されている間に、ユーザからの修正指示を受け付けることが可能である旨の表示を表示部204に表示させてもよい。これにより、ユーザは修正機能があることを把握できる。
図11A,11Bは、図10のステップS304における修正指示にユーザが用いる入力受付部206の一例を示す図である。図11A,11Bを参照して、図10のステップS304において、ユーザが入力受付部206を用いて、アイコンについての修正指示を行う方法が説明される。図11Aは、入力受付部206の一例であるリモートコントローラ(以下、「リモコン」という)1001を示す。図11Bは、入力受付部206の別の例であるリモコン1002を示す。
図10のステップS303において、アイコンが誤って表示部204に表示された場合、ユーザは、例えばリモコン1001を使用して修正指示を送る(図10のステップS304)。アイコンが誤って表示部204に表示された場合とは、例えば、図8Bに示すような表示例では、アイコン915に対応する話者の発話中に、補足アイコン914が、誤って図8Bのように別の話者を示すアイコン916上に表示されていることなどである。
ここで、図11Aのリモコン1001において、カラーボタン1003の各ボタンは、予め各アイコンと対応付けられている。例えば図8Bにおいて、アイコン915は「青」ボタンと、アイコン916は「赤」ボタンと、アイコン917は「緑」ボタンと、アイコン918は「黄」ボタンと、それぞれ対応付けられているとする。この場合において、各アイコン915〜918には、それぞれ対応付けられている色が、ユーザに分かるように重畳されて表示されていることが望ましい。
なお、あらかじめ話者とリモコンのカラーボタン1003の各ボタンとを対応付けておかなくてもよい。例えば、カラーボタン1003のうち任意のカラーボタンを押して修正することでもよい。また、アイコンが表示されている位置における左から順に、「青」、「赤」、「緑」、「黄」のボタンが対応付けられてもよい。
図10のステップS304における修正指示として、アイコン915に対応する話者が、リモコン1001の「青」ボタンを押しながら発話する。すると補足アイコン914がアイコン915上に移動し、登録されているアイコンに対して正しい話者画像を表示することができる。これにより、誤って識別結果が表示された場合であっても、話者に対応付けられたリモコン1001のカラーボタン1003を選択し、修正指示を送ることで簡易に修正可能となる。
また、図11Aに示されるリモコン1001に代えて、図11Bに示されるリモコン1002を用いてもよい。図11Bに示されるリモコン1002では、同様に、各アイコンと、リモコン1002の数字ボタンとが対応付けられていればよい。この場合には、ユーザは、リモコン1002の対応する数字ボタンを押しながら発話をすることで、修正指示を送ることができる。
なお、ユーザが修正指示を送る方法は、上記に限られない。例えば、対応するリモコンのボタンを押したときに、表示制御部104は、修正可能な設定ページに表示部204の表示を切り替えるようにしてもよい。
図10に戻って、ステップS304で行われる音声DB203の内容の更新が説明される。アイコン915に対応する話者の発話中に、補足アイコン914が、誤って図8Bのように別の話者を示すアイコン916上に表示された原因は、アイコン915に対応する話者の登録音声信号801(図3)が、特徴ベクトルを正確に表していないことにある可能性が高い。
そこで、アイコン915に対応する話者が、リモコン1001の「青」ボタンを押しながら発話すると、音声処理部101は、音声取得部201により取得された音声から特徴ベクトルを生成し、生成した特徴ベクトルを表す話者音声信号を生成する。データベース管理部102は、識別処理部103を介して生成された話者音声信号を受け取り、音声DB203のアイコン915に対応する話者の登録音声信号801を、生成された話者音声信号に書き換える。
ステップS304で行われる音声DB203の内容の更新の別の例が、図3、図8B及び図8Hを参照して説明される。
リモコン1001のカラーボタン1003が、図3の3人の話者に対応付けられている。例えば、登録音声信号801が「0001.wav」の話者は「青」ボタンに対応付けられ、登録音声信号801が「0002.wav」の話者は「赤」ボタンに対応付けられ、登録音声信号801が「0003.wav」の話者は「緑」ボタンに対応付けられている。また、図3の登録アイコン「A01」は、図8Bのアイコン916である。また、図3の登録アイコン「B05」は、図8B,8Hのアイコン915である。
この場合において、登録音声信号801が「0001.wav」の話者が発話中であるのに、図8Hに示されるように、アイコン915が表示部204に表示される。この原因は、図3の登録音声信号「0001.wav」が、特徴ベクトルを正確に表していないことにある可能性が高い。
そこで、登録音声信号801が「0001.wav」の話者(つまりアイコン916に対応する話者)が、リモコン1001の「青」ボタンを押しながら発話する。音声処理部101は、音声取得部201により取得された音声から特徴ベクトルを生成し、生成した特徴ベクトルを表す話者音声信号を生成する。データベース管理部102は、識別処理部103を介して生成された話者音声信号を受け取り、音声DB203の登録音声信号「0001.wav」を、生成された話者音声信号に書き換える。
図12は、実施の形態2の図6に示される話者識別システムにおける動作の一例を示すシーケンス図である。なお、図12では、図9に示される各機能のうち、データベース管理部102及び識別処理部103は、サーバ装置210の制御部211に含まれ、音声処理部101、表示制御部104、及び修正制御部105は、話者識別装置200の制御部205に含まれている。また、ここでは、図6に示したサーバ装置210と話者識別装置200とを含む話者識別システムの動作の例を示すが、あくまで一例であり、本実施の形態を限定するものではない。
ステップS401〜S406は、図7に示すステップS401〜S406と同様なので、詳細な説明を省略する。
ステップS406に続いて、ステップS407にて、修正制御部105は、入力受付部206を用いて行われるアイコンについてのユーザからの修正指示を、受け付ける。本ステップS407は、図10に示すステップS304の一部に相当する。すなわち、ユーザによる修正指示は、図10のステップS304と同様に行われる。
ステップS407に続いて、ステップS408にて、話者識別装置200の通信部202は、修正制御部105が受け付けたユーザからの修正指示を、サーバ装置210へ送信する。
続いて、ステップS409において、サーバ装置210のデータベース管理部102は、ユーザの修正指示に基づき、音声DB203の内容を更新する。本ステップS409は、図10に示すステップS304の一部に相当する。すなわち、音声DB203の更新は、図10のステップS304と同様に行われる。
以上説明されたように、本実施の形態2の話者識別システムによれば、話者の識別結果として表示部204に表示されたアイコンが、誤った識別により異なるアイコンであった際にも、ユーザが煩わしい操作をすることなく、修正を指示することができる。もし、話者識別の結果に誤検出があり、その結果がそのまま表示されていると、ユーザにとって不快感が生じると考えられる。しかし、本実施の形態2では、そのようなユーザの不快感を解消できる。さらに、ユーザによる音声DB203の修正を促進することにもなる。したがって、より高精度で、家族の音声DB203を構築することができる。
(その他)
(1)上記実施の形態2において、図9の修正制御部105は、ユーザによる入力受付部206を用いた修正指示を、誤ったアイコンが表示部204に表示されている間のみ、受け付けるようにしてもよい。例えば図10のステップS304において図8Bを用いて説明した例では、補足アイコン914が誤って表示部204に表示されている間のみ、修正制御部105は、ユーザによるリモコン1001を用いた修正指示を受け付ける。例えば図10のステップS304において図3を用いて説明した例では、アイコン「B05」が誤って表示部204に表示されている間のみ、修正制御部105は、ユーザによるリモコン1001を用いた修正指示を受け付ける。
この場合、表示制御部104は、表示部204に表示中のアイコンに関する情報を、修正制御部105に出力するようにしてもよい。修正制御部105は、表示制御部104から入力される、表示部204に表示中のアイコンに関する情報に基づき、ユーザによる入力受付部206を用いた修正指示が、表示部204に表示中のアイコンの修正指示であるか否かを判断してもよい。修正制御部105は、ユーザによる入力受付部206を用いた修正指示が、表示部204に表示中のアイコンの修正指示である場合にのみ、修正指示を受け付けるようにしてもよい。
このように、ユーザによる入力受付部206を用いた修正指示の受付可能な期間を限定することによって、表示部204に表示されていないアイコンに関する修正指示、又はユーザによる誤った修正指示を受け付けるような事態を避けることができる。
(2)上記実施の形態1,2では、図8A〜図8Fに示されるように、アイコンを表示する表示部204は、話者識別装置200であるテレビの表示画面としている。しかし、本開示は、これに限られない。例えば、表示部204は、タブレット端末又はいわゆるスマートフォンなどの携帯装置の表示画面としてもよい。表示制御部104は、通信部202を介して、携帯装置の表示画面にアイコンを表示してもよい。
(3)上記実施の形態1,2において、連続して音声処理部101から入力される2つの話者音声信号が、図3の音声情報800の登録音声信号801が「0001.wav」及び「0003.wav」の話者に一致すると識別処理部103が判断すると、識別処理部103は、図3のユーザ情報802に基づき、父親と子供が一緒にテレビ放送番組を視聴していると判断できる。
あるいは、連続して音声処理部101から入力される2つの話者音声信号が、図3の音声情報800の登録音声信号801が「0001.wav」及び「0002.wav」の話者に一致すると識別処理部103が判断すると、識別処理部103は、図3のユーザ情報802に基づき、大人のみがテレビ放送番組を視聴していると判断できる。
そこで、表示制御部104は、表示部204を用いて、識別処理部103による視聴者の判断結果に基づき、視聴者に適合するコンテンツ(例えばテレビ放送番組)を、視聴者に対して推奨するようにしてもよい。
(提供するサービスの全体像)
図13Aは、上記実施の形態1,2における図6に示される話者識別システムの全体像を示す図である。
グループ1100は、例えば企業、団体、家庭等であり、その規模を問わない。グループ1100には、複数の機器1101(例えば機器A、機器B)およびホームゲートウェイ1102が存在する。複数の機器1101は、インターネットに接続可能な機器(例えば、スマートフォン、パーソナルコンピュータ、テレビ等)を含む。また、複数の機器1101は、それ自身ではインターネットに接続不可能な機器(例えば、照明機器、洗濯機、冷蔵庫等)を含む。複数の機器1101は、それ自身ではインターネットに接続不可能な機器であっても、ホームゲートウェイ1102を介してインターネットに接続可能となる機器を含んでもよい。また、グループ1100には、複数の機器1101を使用するユーザ1010が存在する。
データセンタ運営会社1110には、クラウドサーバ1111が存在する。クラウドサーバ1111は、インターネットを介して様々な機器と連携する仮想化サーバである。クラウドサーバ1111は、主に通常のデータベース管理ツール等で扱うことが困難な巨大なデータ(ビッグデータ)等を管理する。データセンタ運営会社1110は、データ管理及びクラウドサーバ1111の管理を行うデータセンタの運営等を行っている。データセンタ運営会社1110が行っている役務については詳細を後述する。
ここで、データセンタ運営会社1110は、データ管理及びクラウドサーバ1111の管理を行うデータセンタの運営等のみを行っている会社に限らない。
図13B、図13Cは、データセンタ運営会社1110の一例を示す図である。例えば複数の機器1101のうちの一つの機器を開発又は製造している機器メーカが、併せてデータ管理及びクラウドサーバ1111の管理等を行っている場合は、機器メーカがデータセンタ運営会社1110に該当する(図13B)。また、データセンタ運営会社1110は、一つの会社に限らない。例えば機器メーカ及び他の管理会社が共同もしくは分担してデータ管理及びクラウドサーバ1111の管理等を行っている場合は、両者もしくはいずれか一方がデータセンタ運営会社1110に該当するものとする(図13C)。
サービスプロバイダ1120は、サーバ1121を保有している。ここで言うサーバ1121とは、その規模は問わず例えば、個人用パーソナルコンピュータ内のメモリ等も含む。また、サービスプロバイダ1120がサーバ1121を保有していない場合もある。この場合、サービスプロバイダ1120は、サーバ1121の機能を果たす別の装置を保有する。
なお、上記話者識別システムにおいて、ホームゲートウェイ1102は必須ではない。ホームゲートウェイ1102は、機器1101をインターネットに接続可能にするための装置である。そこで、例えば、グループ1100内のあらゆる機器1101がインターネットに接続されている場合のように、それ自身ではインターネットに接続不可能な機器が存在しない場合は、ホームゲートウェイ1102は不要となる。
次に、図13Aを用いて上記話者識別システムにおける情報の流れを説明する。
まず、グループ1100の機器1101、例えば機器A又は機器Bは、各操作ログ情報をデータセンタ運営会社1110のクラウドサーバ1111に送信する。クラウドサーバ1111は、機器A又は機器Bの操作ログ情報を集積する(図13Aの矢印(a))。ここで、操作ログ情報とは複数の機器1101の、例えば運転状況や動作日時等を示す情報である。例えば、テレビの視聴履歴、レコーダの録画予約情報、洗濯機の運転日時及び洗濯物の量、冷蔵庫の開閉日時及び開閉回数などである。操作ログ情報は、これらのものに限らずあらゆる機器1101から取得が可能なすべての情報をいう。
操作ログ情報は、インターネットを介して複数の機器1101自体から直接クラウドサーバ1111に提供される場合もある。また、複数の機器1101から一旦ホームゲートウェイ1102に操作ログ情報が集積され、ホームゲートウェイ1102からクラウドサーバ1111に提供されてもよい。
次に、データセンタ運営会社1110のクラウドサーバ1111は、集積した操作ログ情報を一定の単位でサービスプロバイダ1120に提供する。ここで、「一定の単位」は、データセンタ運営会社1110が集積した情報を整理してサービスプロバイダ1120に提供することのできる単位でもよく、サービスプロバイダ1120が要求した単位でもよい。「一定の単位」と記載したが、情報量は一定でなくてもよい。例えば、状況に応じて提供する情報量が変化する場合もある。前記操作ログ情報は、必要に応じてサービスプロバイダ1120が保有するサーバ1121に保存される(図13Aの矢印(b))。
そして、サービスプロバイダ1120は、操作ログ情報をユーザに提供するサービスに適合する情報に整理し、ユーザに提供する。提供対象のユーザは、複数の機器1101を使用するユーザ1010でもよく、外部のユーザ1020でもよい。ユーザへのサービス提供方法は、例えば、サービスプロバイダ1120から直接ユーザ1010,1020へ提供されてもよい(図13Aの矢印(f)、(e))。また、ユーザへのサービス提供方法は、例えば、データセンタ運営会社1110のクラウドサーバ1111を再度経由して、ユーザ1010に提供されてもよい(図13Aの矢印(c)、(d))。また、データセンタ運営会社1110のクラウドサーバ1111が操作ログ情報をユーザに提供するサービスに適合する情報に整理し、サービスプロバイダ1120に提供してもよい。
なお、ユーザ1010とユーザ1020とは、別でも同一でもよい。
上記態様において説明された技術は、例えば、以下のクラウドサービスの類型において実現されうる。しかし、上記態様において説明された技術が実現される類型はこれに限られるものでない。
(サービスの類型1:自社データセンタ型)
図14は、サービスの類型1(自社データセンタ型)を示す。本類型は、サービスプロバイダ1120がグループ1100から情報を取得し、ユーザに対してサービスを提供する類型である。本類型では、サービスプロバイダ1120が、データセンタ運営会社の機能を有している。即ち、サービスプロバイダ1120が、ビッグデータの管理をするクラウドサーバ1111を保有している。従って、データセンタ運営会社は存在しない。
本類型では、サービスプロバイダ1120は、データセンタ(クラウドサーバ1111)を運営、管理している(1203)。また、サービスプロバイダ1120は、OS(1202)及びアプリケーション(1201)を管理する。サービスプロバイダ1120は、サービスプロバイダ1120が管理するOS(1202)及びアプリケーション(1201)を用いてサービス提供を行う(1204)。
(サービスの類型2:IaaS利用型)
図15は、サービスの類型2(IaaS利用型)を示す。ここでIaaSとはインフラストラクチャー・アズ・ア・サービスの略であり、コンピュータシステムを構築および稼動させるための基盤そのものを、インターネット経由のサービスとして提供するクラウドサービス提供モデルである。
本類型では、データセンタ運営会社1110がデータセンタ(クラウドサーバ1111)を運営、管理している(1203)。また、サービスプロバイダ1120は、OS(1202)及びアプリケーション(1201)を管理する。サービスプロバイダ1120は、サービスプロバイダ1120が管理するOS(1202)及びアプリケーション(1201)を用いてサービス提供を行う(1204)。
(サービスの類型3:PaaS利用型)
図16は、サービスの類型3(PaaS利用型)を示す。ここでPaaSとはプラットフォーム・アズ・ア・サービスの略であり、ソフトウェアを構築および稼動させるための土台となるプラットフォームを、インターネット経由のサービスとして提供するクラウドサービス提供モデルである。
本類型では、データセンタ運営会社1110は、OS(1202)を管理し、データセンタ(クラウドサーバ1111)を運営、管理している(1203)。また、サービスプロバイダ1120は、アプリケーション(1201)を管理する。サービスプロバイダ1120は、データセンタ運営会社1110が管理するOS(1202)及びサービスプロバイダ1120が管理するアプリケーション(1201)を用いてサービス提供を行う(1204)。
(サービスの類型4:SaaS利用型)
図17は、サービスの類型4(SaaS利用型)を示す。ここでSaaSとはソフトウェア・アズ・ア・サービスの略である。例えばデータセンタ(クラウドサーバ)を保有しているプラットフォーム提供者が提供するアプリケーションを、データセンタ(クラウドサーバ)を保有していない会社・個人(利用者)がインターネットなどのネットワーク経由で使用できる機能を有するクラウドサービス提供モデルである。
本類型では、データセンタ運営会社1110は、アプリケーション(1201)を管理し、OS(1202)を管理し、データセンタ(クラウドサーバ1111)を運営、管理している(1203)。また、サービスプロバイダ1120は、データセンタ運営会社1110が管理するOS(1202)及びアプリケーション(1201)を用いてサービス提供を行う(1204)。
以上いずれの類型においても、サービスプロバイダ1120がサービス提供行為を行ったものとする。また例えば、サービスプロバイダ1120若しくはデータセンタ運営会社1110は、OS、アプリケーション若しくはビックデータのデータベース等を自ら開発してもよいし、また、第三者に外注して開発させてもよい。
本開示にかかる話者識別方法、話者識別装置及び話者識別システムは、不特定多数の発話者がいる環境において、話者識別を使用する際に、識別されている話者を表す話者画像を容易に表示する方法、装置及びシステムとして有用である。

Claims (12)

  1. 表示部の周辺に位置する話者の音声を識別し識別結果を前記表示部に表示する話者識別システムにおける話者識別方法であって、
    前記話者識別システムは、複数の話者の音声に基づきそれぞれ生成された複数の登録音声信号と、前記複数の登録音声信号にそれぞれ対応付けられ前記複数の話者をそれぞれ表す複数の話者画像とを保存するデータベースを含み、
    前記表示部の周辺に位置する話者の音声を取得し、
    前記取得された話者の音声から話者音声信号を生成し、
    前記データベースに保存されている複数の登録音声信号のうち、前記生成された話者音声信号に対応する登録音声信号を識別し、
    前記識別された登録音声信号に対応付けて前記データベースに保存されている前記話者画像を、少なくとも前記話者音声信号を生成する元となった前記話者の音声が取得されている間、前記表示部に表示させる、
    話者識別方法。
  2. 前記話者音声信号を生成する元となった前記話者の音声が取得されなくなった時点から所定時間が経過すると、前記表示されている前記話者画像を前記表示部から消去する、
    請求項1に記載の話者識別方法。
  3. 前記データベースは、前記複数の音声登録信号として、第1話者の音声に基づき生成された第1登録音声信号と、第2話者の音声に基づき生成された第2登録音声信号とを保存し、かつ、前記第1登録音声信号に対応付けられ前記第1話者を表す第1話者画像と、前記第2登録音声信号に対応付けられ前記第2話者を表す第2話者画像とを保存し、
    前記第1話者の音声が取得されると、第1話者音声信号が生成され、
    前記生成された第1話者音声信号が前記第1登録音声信号に対応すると識別されると、少なくとも前記第1話者の音声が取得されている間、前記第1話者画像が前記表示部に表示され、
    前記第1話者画像が前記表示部に表示されているときに、前記第2話者の音声が取得されると、第2話者音声信号が生成され、
    前記生成された第2話者音声信号が前記第2登録音声信号に対応すると識別されると、少なくとも前記第2話者の音声が取得されている間、前記第1話者画像に加えて、前記第2話者画像が前記表示部に表示される、
    請求項1または2に記載の話者識別方法。
  4. 前記第1話者の音声と前記第2話者の音声とが取得された順に、前記第1話者画像と前記第2話者画像とが、前記表示部に並べられて表示される、
    請求項3に記載の話者識別方法。
  5. 前記第1話者画像と前記第2話者画像とのうち、前記データベースに後で登録された方の話者画像は、前記データベースに先に登録された方の話者画像とは異なる態様で前記表示部に表示される、
    請求項3に記載の話者識別方法。
  6. 前記第1話者の発話回数と、前記第2話者の発話回数とがカウントされ、
    前記第1話者画像と前記第2話者画像とは、前記カウントされた発話回数の多い順に、前記表示部に並べられて表示される、
    請求項3に記載の話者識別方法。
  7. 前記話者画像についての話者からの修正指示が受け付けられると、前記修正を指示した話者の音声を新たに取得し、
    前記新たに取得された話者の音声から新たに話者音声信号を生成し、
    前記データベースに保存されている、前記修正指示が行われた前記話者画像に対応付けられている前記登録音声信号を、前記新たに生成された話者音声信号に書き換える、
    請求項1〜6のいずれか1項に記載の話者識別方法。
  8. 前記話者からの修正指示は、前記表示部に表示されている前記話者画像について受け付けられ、前記表示部に表示されていない前記話者画像については受け付けられない、
    請求項7に記載の話者識別方法。
  9. 前記生成された話者音声信号から前記話者の属性を判別し、
    前記判別された前記話者の属性に基づき前記話者画像を作成し、
    前記生成された話者音声信号と前記判別された前記話者の属性と前記作成された前記話者画像とを、互いに対応付けて前記データベースに保存し、前記データベースには、前記生成された話者音声信号は、前記登録音声信号として保存される、
    請求項1〜8のいずれか1項に記載の話者識別方法。
  10. 表示部と、
    前記表示部の周辺に位置する話者の音声を取得する音声取得部と、
    前記取得された話者の音声から話者音声信号を生成する音声処理部と、
    複数の話者の音声に基づきそれぞれ生成された複数の登録音声信号と、前記複数の登録音声信号にそれぞれ対応付けられ前記複数の話者をそれぞれ表す複数の話者画像とを記憶するデータベースと、
    前記データベースに記憶されている前記複数の登録音声信号のうち、前記生成された前記話者音声信号に対応する登録音声信号を識別する識別処理部と、
    前記識別された前記登録音声信号に対応付けて前記データベースに記憶されている前記話者画像を、少なくとも前記話者音声信号を生成する元となった前記話者の音声を前記音声取得部が取得している間、前記表示部に表示する表示制御部と、
    を備える話者識別装置。
  11. 表示部と、
    前記表示部の周辺に位置する話者の音声を取得する音声取得部と、
    前記取得された話者の音声から話者音声信号を生成する音声処理部と、
    ネットワークを介して外部のサーバ装置と通信を行う通信部と、
    前記表示部を制御する表示制御部と、
    を備え、
    前記通信部は、前記生成された話者音声信号を前記サーバ装置に送信し、かつ、前記サーバ装置から、前記話者音声信号を基に識別された前記話者を表す話者画像を受信し、
    前記表示制御部は、前記受信された話者画像を、少なくとも前記話者音声信号を生成する元となった前記話者の音声を前記音声取得部が取得している間、前記表示部に表示させる、
    話者識別装置。
  12. 表示部の周辺に位置する話者の音声を取得する音声取得部と、
    前記取得された話者の音声から話者音声信号を生成する音声処理部と、
    複数の話者の音声に基づきそれぞれ生成された複数の登録音声信号と、前記複数の登録音声信号にそれぞれ対応付けられ前記複数の話者をそれぞれ表す複数の話者画像とを記憶する記憶部と、
    前記複数の登録音声信号のうち前記生成された話者音声信号に対応する登録音声信号を識別する識別処理部と、
    前記識別された前記登録音声信号に対応付けて前記記憶部に記憶されている前記話者画像を、少なくとも前記話者音声信号を生成する元となった前記話者の音声を前記音声取得部が取得している間、前記表示部に表示させる表示制御部と、
    を備える話者識別システム。
JP2015522523A 2013-06-10 2014-06-04 話者識別方法、話者識別装置及び話者識別システム Active JP6534926B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2013121714 2013-06-10
JP2013121714 2013-06-10
PCT/JP2014/002970 WO2014199596A1 (ja) 2013-06-10 2014-06-04 話者識別方法、話者識別装置及び話者識別システム

Publications (2)

Publication Number Publication Date
JPWO2014199596A1 true JPWO2014199596A1 (ja) 2017-02-23
JP6534926B2 JP6534926B2 (ja) 2019-06-26

Family

ID=52021914

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015522523A Active JP6534926B2 (ja) 2013-06-10 2014-06-04 話者識別方法、話者識別装置及び話者識別システム

Country Status (3)

Country Link
US (1) US9710219B2 (ja)
JP (1) JP6534926B2 (ja)
WO (1) WO2014199596A1 (ja)

Families Citing this family (69)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9318108B2 (en) 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
US8977255B2 (en) 2007-04-03 2015-03-10 Apple Inc. Method and system for operating a multi-function portable electronic device using voice-activation
US8676904B2 (en) 2008-10-02 2014-03-18 Apple Inc. Electronic devices with voice command and contextual data processing capabilities
US10255566B2 (en) 2011-06-03 2019-04-09 Apple Inc. Generating and processing task items that represent tasks to perform
US10417037B2 (en) 2012-05-15 2019-09-17 Apple Inc. Systems and methods for integrating third party services with a digital assistant
KR20230137475A (ko) 2013-02-07 2023-10-04 애플 인크. 디지털 어시스턴트를 위한 음성 트리거
US10652394B2 (en) 2013-03-14 2020-05-12 Apple Inc. System and method for processing voicemail
US10748529B1 (en) 2013-03-15 2020-08-18 Apple Inc. Voice activated device for use with a voice-based digital assistant
US10176167B2 (en) 2013-06-09 2019-01-08 Apple Inc. System and method for inferring user intent from speech inputs
WO2015020942A1 (en) 2013-08-06 2015-02-12 Apple Inc. Auto-activating smart responses based on activities from remote devices
US10164921B2 (en) * 2014-03-12 2018-12-25 Stephen Davies System and method for voice networking
EP3149728B1 (en) 2014-05-30 2019-01-16 Apple Inc. Multi-command single utterance input method
US10170123B2 (en) 2014-05-30 2019-01-01 Apple Inc. Intelligent assistant for home automation
US9715875B2 (en) 2014-05-30 2017-07-25 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
CN106463110A (zh) * 2014-06-03 2017-02-22 索尼公司 信息处理设备、信息处理方法和程序
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
JP6464411B6 (ja) * 2015-02-25 2019-03-13 Dynabook株式会社 電子機器、方法及びプログラム
US9886953B2 (en) 2015-03-08 2018-02-06 Apple Inc. Virtual assistant activation
US10460227B2 (en) 2015-05-15 2019-10-29 Apple Inc. Virtual assistant in a communication session
US10200824B2 (en) 2015-05-27 2019-02-05 Apple Inc. Systems and methods for proactively identifying and surfacing relevant content on a touch-sensitive device
US20160378747A1 (en) 2015-06-29 2016-12-29 Apple Inc. Virtual assistant for media playback
US10089061B2 (en) 2015-08-28 2018-10-02 Kabushiki Kaisha Toshiba Electronic device and method
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
US10740384B2 (en) 2015-09-08 2020-08-11 Apple Inc. Intelligent automated assistant for media search and playback
US10671428B2 (en) 2015-09-08 2020-06-02 Apple Inc. Distributed personal assistant
US10331312B2 (en) 2015-09-08 2019-06-25 Apple Inc. Intelligent automated assistant in a media environment
US20170075652A1 (en) 2015-09-14 2017-03-16 Kabushiki Kaisha Toshiba Electronic device and method
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
US10956666B2 (en) 2015-11-09 2021-03-23 Apple Inc. Unconventional virtual assistant interactions
US10223066B2 (en) 2015-12-23 2019-03-05 Apple Inc. Proactive assistance based on dialog communication between devices
US10586535B2 (en) 2016-06-10 2020-03-10 Apple Inc. Intelligent digital assistant in a multi-tasking environment
DK201670540A1 (en) 2016-06-11 2018-01-08 Apple Inc Application integration with a digital assistant
DK179415B1 (en) 2016-06-11 2018-06-14 Apple Inc Intelligent device arbitration and control
US20180018974A1 (en) * 2016-07-16 2018-01-18 Ron Zass System and method for detecting tantrums
KR102596430B1 (ko) * 2016-08-31 2023-10-31 삼성전자주식회사 화자 인식에 기초한 음성 인식 방법 및 장치
JP6659514B2 (ja) 2016-10-12 2020-03-04 東芝映像ソリューション株式会社 電子機器及びその制御方法
WO2018101459A1 (ja) 2016-12-02 2018-06-07 ヤマハ株式会社 コンテンツ再生機器、収音機器、及びコンテンツ再生システム
WO2018101458A1 (ja) * 2016-12-02 2018-06-07 ヤマハ株式会社 収音機器、コンテンツ再生機器、及びコンテンツ再生システム
US10726832B2 (en) 2017-05-11 2020-07-28 Apple Inc. Maintaining privacy of personal information
DK180048B1 (en) 2017-05-11 2020-02-04 Apple Inc. MAINTAINING THE DATA PROTECTION OF PERSONAL INFORMATION
DK179745B1 (en) 2017-05-12 2019-05-01 Apple Inc. SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT
DK179496B1 (en) 2017-05-12 2019-01-15 Apple Inc. USER-SPECIFIC Acoustic Models
DK201770427A1 (en) 2017-05-12 2018-12-20 Apple Inc. LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT
DK201770411A1 (en) 2017-05-15 2018-12-20 Apple Inc. MULTI-MODAL INTERFACES
US10303715B2 (en) 2017-05-16 2019-05-28 Apple Inc. Intelligent automated assistant for media exploration
US20180336892A1 (en) 2017-05-16 2018-11-22 Apple Inc. Detecting a trigger of a digital assistant
US10818288B2 (en) 2018-03-26 2020-10-27 Apple Inc. Natural assistant interaction
US11145294B2 (en) 2018-05-07 2021-10-12 Apple Inc. Intelligent automated assistant for delivering content from user experiences
US10928918B2 (en) 2018-05-07 2021-02-23 Apple Inc. Raise to speak
CN108965967A (zh) * 2018-05-25 2018-12-07 苏州浪潮智能软件有限公司 电视控制方法及装置、计算机可读存储介质、终端
DK180639B1 (en) 2018-06-01 2021-11-04 Apple Inc DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT
DK179822B1 (da) 2018-06-01 2019-07-12 Apple Inc. Voice interaction at a primary device to access call functionality of a companion device
US10892996B2 (en) 2018-06-01 2021-01-12 Apple Inc. Variable latency device coordination
CN108882032A (zh) * 2018-06-08 2018-11-23 百度在线网络技术(北京)有限公司 用于输出信息的方法和装置
US11462215B2 (en) 2018-09-28 2022-10-04 Apple Inc. Multi-modal inputs for voice commands
RU2744063C1 (ru) * 2018-12-18 2021-03-02 Общество С Ограниченной Ответственностью "Яндекс" Способ и система определения говорящего пользователя управляемого голосом устройства
US11348573B2 (en) 2019-03-18 2022-05-31 Apple Inc. Multimodality in digital assistant systems
US11307752B2 (en) 2019-05-06 2022-04-19 Apple Inc. User configurable task triggers
DK201970509A1 (en) 2019-05-06 2021-01-15 Apple Inc Spoken notifications
US11140099B2 (en) 2019-05-21 2021-10-05 Apple Inc. Providing message response suggestions
DK180129B1 (en) 2019-05-31 2020-06-02 Apple Inc. USER ACTIVITY SHORTCUT SUGGESTIONS
DK201970511A1 (en) 2019-05-31 2021-02-15 Apple Inc Voice identification in digital assistant systems
US11227599B2 (en) 2019-06-01 2022-01-18 Apple Inc. Methods and user interfaces for voice-based control of electronic devices
CN112466306B (zh) * 2019-08-19 2023-07-04 中国科学院自动化研究所 会议纪要生成方法、装置、计算机设备及存储介质
US11061543B1 (en) 2020-05-11 2021-07-13 Apple Inc. Providing relevant data items based on context
US11043220B1 (en) 2020-05-11 2021-06-22 Apple Inc. Digital assistant hardware abstraction
US11755276B2 (en) 2020-05-12 2023-09-12 Apple Inc. Reducing description length based on confidence
US11490204B2 (en) 2020-07-20 2022-11-01 Apple Inc. Multi-device audio adjustment coordination
US11438683B2 (en) 2020-07-21 2022-09-06 Apple Inc. User identification using headphones

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001314649A (ja) * 2000-05-11 2001-11-13 Seta Corp 音声遊技方法、装置および記録媒体
JP2004126784A (ja) * 2002-09-30 2004-04-22 P To Pa:Kk 画像表示装置、画像表示方法及びプログラム
JP2007027990A (ja) * 2005-07-13 2007-02-01 Canon Inc 動画データから字幕を作成する装置及び方法、プログラム、並びに記憶媒体
WO2007058135A1 (ja) * 2005-11-16 2007-05-24 Nec Corporation 携帯端末装置及びそれに用いる参加者リスト表示方法並びにそのプログラム
JP2009206924A (ja) * 2008-02-28 2009-09-10 Fuji Xerox Co Ltd 情報処理装置、情報処理システム及び情報処理プログラム
JP2010219703A (ja) * 2009-03-13 2010-09-30 Mitsumi Electric Co Ltd デジタル放送受信装置及びデジタル放送における情報提供方法
WO2011116309A1 (en) * 2010-03-19 2011-09-22 Digimarc Corporation Intuitive computing methods and systems

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10198393A (ja) 1997-01-08 1998-07-31 Matsushita Electric Ind Co Ltd 会話記録装置
US7117157B1 (en) * 1999-03-26 2006-10-03 Canon Kabushiki Kaisha Processing apparatus for determining which person in a group is speaking
JP3953258B2 (ja) * 2000-05-30 2007-08-08 シャープ株式会社 通信端末装置
JP2002341890A (ja) 2001-05-17 2002-11-29 Matsushita Electric Ind Co Ltd 音声認識文字表示方法およびその装置
US7440900B2 (en) * 2002-03-15 2008-10-21 Microsoft Corporation Voice message processing system and method
JP2004056286A (ja) * 2002-07-17 2004-02-19 Fuji Photo Film Co Ltd 画像表示方法
US6882971B2 (en) * 2002-07-18 2005-04-19 General Instrument Corporation Method and apparatus for improving listener differentiation of talkers during a conference call
US20060136224A1 (en) * 2004-12-22 2006-06-22 Eaton William C Communications devices including positional circuits and methods of operating the same
US8385233B2 (en) * 2007-06-12 2013-02-26 Microsoft Corporation Active speaker identification
US20090037826A1 (en) * 2007-07-31 2009-02-05 Christopher Lee Bennetts Video conferencing system
US8243902B2 (en) * 2007-09-27 2012-08-14 Siemens Enterprise Communications, Inc. Method and apparatus for mapping of conference call participants using positional presence
US7995732B2 (en) * 2007-10-04 2011-08-09 At&T Intellectual Property I, Lp Managing audio in a multi-source audio environment
US8503653B2 (en) * 2008-03-03 2013-08-06 Alcatel Lucent Method and apparatus for active speaker selection using microphone arrays and speaker recognition
US8316089B2 (en) * 2008-05-06 2012-11-20 Microsoft Corporation Techniques to manage media content for a multimedia conference event
US8315366B2 (en) * 2008-07-22 2012-11-20 Shoretel, Inc. Speaker identification and representation for a phone
JP5413033B2 (ja) * 2009-08-03 2014-02-12 株式会社リコー 情報処理装置、情報漏洩防止方法およびプログラム
US20110093266A1 (en) * 2009-10-15 2011-04-21 Tham Krister Voice pattern tagged contacts
US9197736B2 (en) 2009-12-31 2015-11-24 Digimarc Corporation Intuitive computing methods and systems
US20120154633A1 (en) 2009-12-04 2012-06-21 Rodriguez Tony F Linked Data Methods and Systems
US8660355B2 (en) 2010-03-19 2014-02-25 Digimarc Corporation Methods and systems for determining image processing operations relevant to particular imagery
EP2405365B1 (en) * 2010-07-09 2013-06-19 Sony Ericsson Mobile Communications AB Method and device for mnemonic contact image association
WO2012169679A1 (ko) * 2011-06-10 2012-12-13 엘지전자 주식회사 디스플레이 장치, 디스플레이 장치의 제어 방법 및 디스플레이 장치의 음성인식 시스템
WO2013022135A1 (en) * 2011-08-11 2013-02-14 Lg Electronics Inc. Electronic device and method of controlling the same
US8934652B2 (en) * 2011-12-01 2015-01-13 Elwha Llc Visual presentation of speaker-related information
US20130162752A1 (en) * 2011-12-22 2013-06-27 Advanced Micro Devices, Inc. Audio and Video Teleconferencing Using Voiceprints and Face Prints
JP5743976B2 (ja) * 2012-08-10 2015-07-01 株式会社東芝 情報処理装置、プログラム、及び情報処理方法
US20140114664A1 (en) * 2012-10-20 2014-04-24 Microsoft Corporation Active Participant History in a Video Conferencing System
US9679564B2 (en) * 2012-12-12 2017-06-13 Nuance Communications, Inc. Human transcriptionist directed posterior audio source separation
US9223340B2 (en) * 2013-08-14 2015-12-29 Lenovo (Singapore) Pte. Ltd. Organizing display data on a multiuser display

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001314649A (ja) * 2000-05-11 2001-11-13 Seta Corp 音声遊技方法、装置および記録媒体
JP2004126784A (ja) * 2002-09-30 2004-04-22 P To Pa:Kk 画像表示装置、画像表示方法及びプログラム
JP2007027990A (ja) * 2005-07-13 2007-02-01 Canon Inc 動画データから字幕を作成する装置及び方法、プログラム、並びに記憶媒体
WO2007058135A1 (ja) * 2005-11-16 2007-05-24 Nec Corporation 携帯端末装置及びそれに用いる参加者リスト表示方法並びにそのプログラム
JP2009206924A (ja) * 2008-02-28 2009-09-10 Fuji Xerox Co Ltd 情報処理装置、情報処理システム及び情報処理プログラム
JP2010219703A (ja) * 2009-03-13 2010-09-30 Mitsumi Electric Co Ltd デジタル放送受信装置及びデジタル放送における情報提供方法
WO2011116309A1 (en) * 2010-03-19 2011-09-22 Digimarc Corporation Intuitive computing methods and systems
JP2013527947A (ja) * 2010-03-19 2013-07-04 ディジマーク コーポレイション 直観的コンピューティング方法及びシステム

Also Published As

Publication number Publication date
US20150205568A1 (en) 2015-07-23
JP6534926B2 (ja) 2019-06-26
US9710219B2 (en) 2017-07-18
WO2014199596A1 (ja) 2014-12-18

Similar Documents

Publication Publication Date Title
JP6534926B2 (ja) 話者識別方法、話者識別装置及び話者識別システム
JP6482911B2 (ja) 機器制御方法および電気機器
KR102339657B1 (ko) 전자 장치 및 이의 제어 방법
JP6178198B2 (ja) 音声翻訳システム、方法およびプログラム
EP3147907A1 (en) Control method and apparatus for playing audio
WO2018036392A1 (zh) 基于语音分享信息的方法、装置与移动终端
US10334282B2 (en) Methods and devices for live broadcasting based on live broadcasting application
KR101735755B1 (ko) 디바이스 접속 프롬프팅을 위한 방법 및 장치
BR102013028161A2 (pt) Diffusion reception apparatus, server and control methods thereof
JP2017144521A (ja) 情報処理装置、情報処理方法、及びプログラム
US9953630B1 (en) Language recognition for device settings
CN109388699A (zh) 输入方法、装置、设备及存储介质
CN108495168A (zh) 弹幕信息的显示方法及装置
US10764418B2 (en) Method, device and medium for application switching
CN106603381A (zh) 处理聊天信息的方法及装置
US20220038778A1 (en) Intelligent captioning
US8935408B2 (en) Personal area network of devices and applications
US11688268B2 (en) Information processing apparatus and information processing method
JP6278403B2 (ja) カラオケ管理システム
KR20140111574A (ko) 오디오 명령에 따른 동작을 수행하는 장치 및 방법
WO2020024436A1 (zh) 一种用户信息的更新方法、***和服务器
US20210224066A1 (en) Information processing device and information processing method
CN107426401A (zh) 静音提醒方法、装置及终端
CN109088920B (zh) 智能音箱的评价方法、装置、设备及存储介质
CN106506847A (zh) 新消息提示方法及装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180227

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180514

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181002

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181207

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190521

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190530

R150 Certificate of patent or registration of utility model

Ref document number: 6534926

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150