JP7314975B2 - 音声操作装置及びその制御方法 - Google Patents

音声操作装置及びその制御方法 Download PDF

Info

Publication number
JP7314975B2
JP7314975B2 JP2021127871A JP2021127871A JP7314975B2 JP 7314975 B2 JP7314975 B2 JP 7314975B2 JP 2021127871 A JP2021127871 A JP 2021127871A JP 2021127871 A JP2021127871 A JP 2021127871A JP 7314975 B2 JP7314975 B2 JP 7314975B2
Authority
JP
Japan
Prior art keywords
voice
information
speaker
user
voice operation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021127871A
Other languages
English (en)
Other versions
JP2021184282A (ja
Inventor
宗忠 安諸
正典 溝口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JP2021184282A publication Critical patent/JP2021184282A/ja
Application granted granted Critical
Publication of JP7314975B2 publication Critical patent/JP7314975B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/60Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for measuring the quality of voice signals
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/06Decision making techniques; Pattern matching strategies
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/01Satellite radio beacon positioning systems transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/06Decision making techniques; Pattern matching strategies
    • G10L17/08Use of distortion metrics or a particular distance between probe pattern and reference templates
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/06Decision making techniques; Pattern matching strategies
    • G10L17/12Score normalisation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/06Decision making techniques; Pattern matching strategies
    • G10L17/14Use of phonemic categorisation or speech recognition prior to speaker recognition or verification
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/22Interactive procedures; Man-machine interfaces
    • G10L17/24Interactive procedures; Man-machine interfaces the user being prompted to utter a password or a predefined phrase

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Business, Economics & Management (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Game Theory and Decision Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Quality & Reliability (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Telephone Function (AREA)
  • Navigation (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、話者識別機能を有する音声操作装置に関するものである。
近年、音声による操作が可能な音声アシスタント機能を有するAIスピーカー(スマートスピーカーとも呼ばれる)が注目されている。このような音声操作装置によれば、所望の情報検索や連携する家電製品の操作を音声によって行えるため、利用者は、家事、掃除、洗濯等の作業を行いつつ、手を用いることなく所望の操作を行うことができる。また、音声操作装置は、マイク及びスピーカーと音声認識用のプロセッサを最小限の構成要素とする簡素な構成で低コストに実現可能であるため、手軽に複数の部屋に配置することが可能である。
特許文献1に記載の音声操作装置は、利用者による音声操作を認識する音声認識機能に加え、音声の声質から話者が誰であるかを識別する話者識別機能を有している。これにより、利用者の好みに合わせたサービスを提供可能としている。
特開2010-286702号公報
しかし、話者識別の技術は、研究開発が進んでいるものの依然として識別精度は高くない。特にAIスピーカーでは、録音された操作音声を利用したなりすましを避けるために、操作音声を非定型とすることが望まれるが、操作音声が非定型でかつ短文である場合は話者を識別することが特に難しい。また、利用者が発する音声の声質は、音源の距離、周囲の温度や反射等の環境に応じて大きく変化するため、操作音声を、予め登録された利用者の単一の声質モデルと比較するだけでは話者を識別することが難しい。そこで本発明は、話者識別の精度をより向上させることが可能な音声操作装置及びその制御方法を提供することを目的とする。
本発明の一観点によれば、音声情報と予め登録された利用者の声質モデルに基づいて利用者を音声操作の話者として識別する話者識別部と、音声情報を音声認識して音声操作情報を生成する音声操作認識部と、を備えた音声操作装置であって、話者識別部は、音声操作情報、音声操作装置の位置情報、話者の方向情報、話者の距離情報、時刻情報のうちの少なくとも1つを補助情報として用いて話者を識別する音声操作装置が提供される。
また、本発明の別観点によれば、音声情報と予め登録された利用者の声質モデルに基づいて利用者を音声操作の話者として識別する話者識別部と、音声情報を音声認識して音声操作情報を生成する音声操作認識部と、を備えた音声操作装置の制御方法であって、話者識別部は、音声操作情報、音声操作装置の位置情報、話者の方向情報、話者の距離情報、時刻情報のうちの少なくとも1つを補助情報として用いて話者を識別するステップを有する音声操作装置の制御方法が提供される。
本発明によれば、話者識別の精度をより向上させることが可能な音声操作装置及びその制御方法を提供することができる。
第1実施形態に係る音声操作装置の構成を概略的に示すブロック図である。 本発明に係る音声操作装置の配置例を示す図である。 第1実施形態に係る音声操作装置の制御方法を示すフローチャートである。 第2実施形態に係る音声操作装置の構成を概略的に示すブロック図である。 第2実施形態に係る音声操作装置の制御方法を示すフローチャートである。 第3実施形態に係る音声操作装置の構成を概略的に示すブロック図である。 第4実施形態に係る音声操作装置の構成を概略的に示すブロック図である。 第5実施形態に係る音声操作装置の構成を概略的に示すブロック図である。 第6実施形態に係る音声操作装置の構成を概略的に示すブロック図である。
以下、本発明の好適な実施形態について図面を用いて説明する。なお、本発明は以下の実施形態に限定されるものではなく、その要旨を逸脱しない範囲において適宜変更可能である。各図において同一、又は相当する機能を有するものは、同一符号を付し、その説明を省略又は簡潔にすることもある。
(第1実施形態)
図1は、第1実施形態に係る音声操作装置の構成を概略的に示すブロック図である。図1は、本実施形態の音声操作装置をAIスピーカーに対して適用した例を示している。本図は一例に過ぎず、本実施形態の音声操作装置は、例えば利用者による音声操作を認識可能なロボット、スマートフォン、カーナビ等に対して適用することも可能である。本実施形態の音声操作装置は、スピーカー1、マイクロフォン2、音声出力部11、音声入力部21、及び制御演算部3を備えて構成される。典型的なAIスピーカーでは、これらの構成要素はスピーカー1の筐体内に格納される。
制御演算部3は、記憶媒体に記憶されたプログラムを実行し、本実施形態の音声操作装置の各構成要素の制御及び演算を行うCPU等のプロセッサである。制御演算部3は、プログラムが記憶された不図示の記憶媒体を含む。制御演算部3は、音声操作応答部31、音声操作認識部32、話者識別部33、声質モデル331、及び無線通信部35を有している。
マイクロフォン2は、利用者の音声操作による音声振動を電気信号に変換する。音声入力部21は、マイクロフォン2から入力したアナログ信号をデジタルの音声情報に変換するとともに、音声情報に対して音声信号処理を施す。ここで、音声入力部21は、マイクロフォン2に含まれる構成としてもよい。
音声操作認識部32は、音声入力部21から入力した音声情報を音声認識して音声操作情報を生成する。制御演算部3は、生成された音声操作情報に対応する操作処理を実行する。具体的には、所望の情報検索や連携する家電製品の操作処理を、無線通信部35を介して実施する。
その後、音声操作応答部31は、操作処理の実行結果を音声出力部11及びスピーカー1を介して利用者に通知する。具体的には、音声出力部11は、音声操作応答部31から入力したデジタル情報をアナログ信号に変換する。スピーカー1は、音声出力部11から入力した電気信号を音声振動に変換して出力する。ここで、音声出力部11は、スピーカー1に含まれる構成としてもよい。
登録利用者情報330は、制御演算部3の記憶媒体に記憶されている。登録利用者情報330には、利用者の声質モデル331が予め登録されている。話者識別部33は、音声入力部21から入力した音声情報と利用者の声質モデル331との類似度を算出し、類似度が最も大きい利用者を音声操作の話者として識別する。これにより、利用者の好みに応じたサービスを提供することが可能となり、利用者の利便性をより向上させることができる。例えば、利用者の好みに合わせた情報を予め登録利用者情報330に登録しておき、音声操作情報に対応する操作処理を利用者の好みに合わせて実行したり、登録利用者情報330に予め登録された利用者以外による音声操作を禁止したりすることができる。
しかし前述のように、話者識別の技術は、研究開発が進んでいるものの依然として識別精度は高くない。そこで、本発明の話者識別部33は、音声操作情報、音声操作装置の位置情報、話者の方向情報、話者の距離情報、時刻情報のうちの少なくとも1つを補助情報として用いて話者を識別することを特徴とする。例えば、図1に示す本実施形態の音声操作装置では、補助情報を算出する補助情報算出部34として、音声操作認識部32を利用している。
図2は、本発明に係る音声操作装置の配置例を示す図である。図2に示すマイクロフォン2の位置には、本発明に係る音声操作装置が配置されている。図2の部屋に存在する利用者61、62は、例えば、自宅のリビングルームでくつろいでいるお母さんとお父さんであるものとする。
この場合、本実施形態の話者識別部33は、例えば音声操作による指示が天気情報の取得であるときは、音声操作の話者がお母さんである可能性が高いと判断する。或いは、音声操作による指示が株価情報の取得であるときは、音声操作の話者がお父さんである可能性が高いと判断する。そして、話者識別部33は、音声操作情報に応じて利用者の声質モデル331との類似度を補正する。
ここで、利用者に特徴的なキーワード等の情報は、予め音声操作情報に含まれるキーワードと関連付けて登録利用者情報330に登録しておいてもよいし、利用者が使用するキーワードの頻度に基づいて随時学習するようにしてもよい。音声操作装置が学習する場合は、類似度の補正値を予め登録利用者情報330に利用者ごとに登録しておき、話者を識別した結果を補正値に反映させるようにする。これにより、話者識別部33は、利用者に特徴的な補助情報と類似度の補正値との相関性を学習することになるので、音声操作に対応する操作処理を行うごとに、話者識別の精度を向上させることができる。
図3は、第1実施形態に係る音声操作装置の制御方法を示すフローチャートである。ステップS101において、マイクロフォン2及び音声入力部21は、利用者の音声操作による音声振動を電気信号に変換する。ステップS102において、音声操作認識部32は、マイクロフォン2及び音声入力部21から入力した音声情報を音声認識して音声操作情報を生成する。ここで、音声操作認識部32が行う音声認識方法としては周知の技術が用いられ得る。
ステップS103において、話者識別部33は、登録利用者情報330に予め登録された利用者の声質モデル331を、登録利用者情報330とともに読み出す。ステップS104において、話者識別部33は、音声入力部21から入力した音声情報と利用者の声質モデル331との類似度を算出する。
ここで、話者識別部33が行う話者認識方法としては、周知の技術が用いられ得る。例えば、登録利用者情報330に予め登録された利用者の声質モデル331の音声波形fと、音声入力部21から入力した音声情報の音声波形fとの距離sを下式(1)により求め、その逆数1/sを類似度として用いる。ここでΣは、所定の期間内の複数の時刻tにおいて和をとるものとする。また、音声波形f、fは適宜、正規化されているものとする。
=Σ{f(t)-f(t)} (1)
或いは、登録利用者情報330に予め登録された利用者の声質モデル331の周波数スペクトルFと、音声入力部21から入力した音声情報の周波数スペクトルFとの距離sを下式(2)により求め、その逆数1/sを類似度として用いてもよい。ここでΣは、所定の範囲内の複数の周波数kにおいて和をとるものとする。また、周波数スペクトルF、Fは適宜、正規化されているものとする。
=Σ{F(k)-F(k)} (2)
ステップS105において、話者識別部33は、上式(1)又は(2)により求めた類似度を、音声操作情報に含まれるキーワードに応じて補正する。例えば、音声操作による指示が天気情報の取得であるときは、お母さんの声質モデル331の音声波形の類似度1/sを+5点する。或いは、音声操作による指示が株価情報の取得であるときは、お父さんの声質モデル331の音声波形の類似度1/sを+5点する。ここで、類似度の補正値の大きさは、用途や利用者等に合わせてキーワードごとに適宜決定され得る。
ステップS106において、話者識別部33は、補正後の類似度が最も大きい利用者を音声操作の話者として識別する。ステップS107において、制御演算部3は、前記音声操作情報に対応する操作処理を、識別した利用者の好みに合わせて実行する。ステップS108において、音声操作応答部31は、ステップS107で実行した処理の結果を、スピーカー1及び音声出力部11を介して、音声により利用者に通知する。
以上のように、本実施形態の音声操作装置では、登録利用者情報は利用者に特徴的なキーワードを含み、話者識別部は、音声操作情報に含まれるキーワードに応じて類似度を補正する。このような構成によれば、話者識別の精度をより向上させることが可能な音声操作装置及びその制御方法を提供することができる。
(第2実施形態)
図4は、第2実施形態に係る音声操作装置の構成を概略的に示すブロック図である。本実施形態の音声操作装置は、GPS装置41及び位置算出部341を備えている点が、先の第1実施形態と異なっている。その他の構成については、第1実施形態と概ね同じである。以下では、主に第1実施形態と異なる構成について説明する。
GPS装置41は、GPS(Global Positioning System)情報を取得することが可能である。位置算出部341は、GPS装置41から入力したGPS情報を利用して、音声操作装置が配置された位置情報を算出する。ここで、位置算出部341は、GPS装置41に含まれる構成としてもよい。このように本実施形態の音声操作装置は、補助情報を算出する補助情報算出部34として、位置算出部341を備えていることを特徴とする。
前述のように、利用者が発する音声の声質は、音源の距離、周囲の温度や反射等の環境に応じて大きく変化するため、操作音声を、予め登録された利用者の単一の声質モデル331と比較するだけでは話者を識別することが難しい。
そこで、本実施形態の登録利用者情報330は、利用者ごとに複数の声質モデル331をデータベースとして有している。そして、話者識別部33は、位置算出部341が算出した音声操作装置の位置情報に応じて声質モデル331を選択する。例えば、音声操作装置が自宅に配置されている場合は、自宅の環境に適した声質モデル331を選択する。或いは、音声操作装置が職場に配置されている場合は、職場の環境に適した声質モデル331を選択する。また或いは、音声操作装置が移動中の車内に配置されている場合は、車内の環境に適した声質モデル331を選択する。これらの複数の声質モデル331は、予め登録利用者情報330に、音声操作装置の位置情報と関連付けて登録しておく。
これにより、ロボット、スマートフォン、カーナビ等のような移動し得る装置に対して本実施形態の音声操作装置を適用する場合でも、周囲の環境に適した声質モデル331が選択されることで、話者識別の精度をより向上させることができる。
図5は、第2実施形態に係る音声操作装置の制御方法を示すフローチャートである。図5に示す本実施形態のフローチャートは、ステップS203において声質モデル331を読み出す際に、音声操作装置の位置情報に応じて声質モデル331を選択している点が、先の第1実施形態の図3と異なっている。なお、図5のフローチャートでは、第1実施形態の図3のステップS105に示した類似度の補正処理を省略したが、本実施形態でも図3と同様に併せてステップS105を実施してもよい。
以上のように、本実施形態の音声操作装置は、音声操作装置の位置を位置情報として取得するGPS装置を更に備えている。そして、登録利用者情報は、利用者ごとに複数の声質モデルを有し、話者識別部は位置情報に応じて声質モデルを選択する。このような構成によっても、話者識別の精度をより向上させることが可能な音声操作装置及びその制御方法を提供することができる。
(第3実施形態)
図6は、第3実施形態に係る音声操作装置の構成を概略的に示すブロック図である。本実施形態の音声操作装置は、アレイマイク42及び音声方向算出部342を備えている点が、先の第1実施形態と異なっている。その他の構成については、第1実施形態と概ね同じである。以下では、主に第1実施形態と異なる構成について説明する。
アレイマイク42は、複数のマイクが配列された構成を有し、音声操作の話者の方向を特定することが可能である。音声方向算出部342は、アレイマイク42から入力した情報に基づいて、音声操作装置から見た話者の方向情報を算出する。ここで、音声方向算出部342は、アレイマイク42に含まれる構成としてもよい。このように本実施形態の音声操作装置は、補助情報を算出する補助情報算出部34として、音声方向算出部342を備えていることを特徴とする。
例えば、図2に示した部屋において、音声操作装置から見て左側の椅子がお母さん用の席であり、右側の椅子がお父さん用の席であるとする。この場合、本実施形態の話者識別部33は、例えば、音声操作の話者の方向が左側であるときは、音声操作の話者がお母さんである可能性が高いと判断する。或いは、音声操作の話者の方向が右側であるときは、音声操作の話者がお父さんである可能性が高いと判断する。このような利用者に特徴的な情報は、予め登録利用者情報330に、方向情報と関連付けて登録しておく。
本実施形態の音声操作装置における音声操作方法は、補助情報が方向情報である点を除いて、先の図3に示した第1実施形態のフローチャート、及び先の図5に示した第2実施形態のフローチャートが、ともに適用可能である。
以上のように、本実施形態の音声操作装置は、音声操作の話者の方向を方向情報として取得するアレイマイクを更に備えている。そして、話者識別部は方向情報を用いて話者を識別する。このような構成によっても、話者識別の精度をより向上させることが可能な音声操作装置及びその制御方法を提供することができる。なお、アレイマイク42を更に備える代わりに、マイクロフォン2を複数のマイクで構成して音声操作の話者の方向を特定するようにしてもよい。
(第4実施形態)
図7は、第4実施形態に係る音声操作装置の構成を概略的に示すブロック図である。本実施形態の音声操作装置は、測距センサ43及び距離算出部343を備えている点が、先の第1実施形態と異なっている。その他の構成については、第1実施形態と概ね同じである。以下では、主に第1実施形態と異なる構成について説明する。
測距センサ43は、話者までの距離を取得することが可能である。測距方式としては、例えば、視差を利用して距離を測定する方法や、光や電波の反射波を利用して距離を測定する周知の技術が用いられ得る。距離算出部343は、測距センサ43から入力した情報に基づいて、音声操作装置から話者までの距離を算出する。ここで、距離算出部343は、測距センサ43に含まれる構成としてもよい。このように本実施形態の音声操作装置は、補助情報を算出する補助情報算出部34として、距離算出部343を備えていることを特徴とする。
例えば、図2に示した部屋において、音声操作装置から遠い方の椅子がお母さん用の席であり、音声操作装置から近い方の椅子がお父さん用の席であるとする。この場合、本実施形態の話者識別部33は、例えば、音声操作装置から話者までの距離が遠いときは、音声操作の話者がお母さんである可能性が高いと判断する。或いは、音声操作装置から話者までの距離が近いときは、音声操作の話者がお父さんである可能性が高いと判断する。このような利用者に特徴的な情報は、予め登録利用者情報330に、距離情報と関連付けて登録しておく。
本実施形態の音声操作装置における音声操作方法は、補助情報が距離情報である点を除いて、先の図3に示した第1実施形態のフローチャート、及び先の図5に示した第2実施形態のフローチャートが、ともに適用可能である。
以上のように、本実施形態の音声操作装置は、音声操作の話者までの距離を距離情報として取得する測距センサを更に備えている。そして、話者識別部は距離情報を用いて話者を識別する。このような構成によっても、話者識別の精度をより向上させることが可能な音声操作装置及びその制御方法を提供することができる。
(第5実施形態)
図8は、第5実施形態に係る音声操作装置の構成を概略的に示すブロック図である。本実施形態の音声操作装置は、時計44及び時刻算出部344を備えている点が、先の第1実施形態と異なっている。その他の構成については、第1実施形態と概ね同じである。以下では、主に第1実施形態と異なる構成について説明する。
時計44は、現在の時刻を取得することが可能である。時刻算出部344は、時計44から入力した情報に基づいて、音声操作の発声時刻を算出する。ここで、時刻算出部344は、時計44に含まれる構成としてもよい。このように本実施形態の音声操作装置は、補助情報を算出する補助情報算出部34として、時刻算出部344を備えていることを特徴とする。
本実施形態の話者識別部33は、例えば、音声操作の発声時刻が昼間のときは、音声操作の話者がお母さんである可能性が高いと判断する。或いは、音声操作の発声時刻が深夜のときは、音声操作の話者がお父さんである可能性が高いと判断する。このような利用者に特徴的な情報は、予め登録利用者情報330に、時刻情報と関連付けて登録しておく。
本実施形態の音声操作装置における音声操作方法は、補助情報が時刻情報である点を除いて、先の図3に示した第1実施形態のフローチャート、及び先の図5に示した第2実施形態のフローチャートが、ともに適用可能である。
以上のように、本実施形態の音声操作装置は、音声操作の発声時刻を時刻情報として取得する時計を更に備えている。そして、話者識別部は時刻情報を用いて話者を識別する。このような構成によっても、話者識別の精度をより向上させることが可能な音声操作装置及びその制御方法を提供することができる。
(第6実施形態)
図9は、第6実施形態に係る音声操作装置の構成を概略的に示すブロック図である。本実施形態の音声操作装置は、上述の実施形態の構成を組み合わせた構成を有している。図9に示す補助情報取得装置40は、上述の実施形態のGPS装置41、アレイマイク42、測距センサ43、時計44のうちの少なくとも1つ含んでいる。また、図9に示す補助情報算出部34は、上述の実施形態の音声操作認識部32、位置算出部341、音声方向算出部342、距離算出部343、時刻算出部344のうちの、補助情報取得装置40が出力する補助情報を処理可能な構成を少なくとも含んでいる。ここで、補助情報算出部34は、補助情報取得装置40に含まれる構成としてもよい。
本実施形態の音声操作装置における音声操作方法は、補助情報が上述の実施形態の音声操作情報、位置情報、方向情報、距離情報、時刻情報の組み合わせである点を除いて、先の図3及び図5に示したフローチャートが、ともに適用可能である。
以上のように、本実施形態の音声操作装置は、音声情報と予め登録された利用者の声質モデルに基づいて利用者を音声操作の話者として識別する話者識別部を備えている。そして、話者識別部は、音声操作情報、音声操作装置の位置情報、話者の方向情報、話者の距離情報、時刻情報のうちの少なくとも1つを補助情報として用いて話者を識別する。このような構成によれば、話者識別の精度を更に向上させることが可能な音声操作装置及びその制御方法を提供することができる。
(その他の実施形態)
なお、上述の実施形態は、いずれも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明はその技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。
例えば、利用者のスケジュール情報を予め登録利用者情報330に登録しておき、スケジュール情報に応じて類似度を補正するようにしてもよい。一例としては、スケジュール情報においてお父さんが出張中であるときには、音声入力部21から入力した音声情報とお父さんの声質モデル331との類似度1/sを-5点する。
或いは、利用者に特徴的な音声の大きさを予め登録利用者情報330に登録しておき、音声操作の音声の大きさに応じて類似度を補正するようにしてもよい。一例としては、音声操作の音声が大きい場合は、音声入力部21から入力した音声情報とお父さんの声質モデル331との類似度1/sを+5点する。
利用者の存在する確率が高い方向や距離といった情報は、予め登録利用者情報330に、補助情報と関連付けて登録しておいてもよいし、音声操作装置が、随時学習するようにしてもよい。音声操作装置が学習する場合は、類似度の補正値を予め登録利用者情報330に利用者ごとに登録しておき、話者を識別した結果を補正値に反映させるようにする。或いは、音声操作装置は、利用者が発するキーワードや位置や方向や距離や時刻などの情報を常に収集し、これらの情報に応じて登録利用者情報330の利用者に特徴的な情報を更新するようにしてもよい。これにより、話者識別部33は、登録利用者情報330に登録された利用者に特徴的な情報と、補助情報算出部34を介して入力される補助情報との相関性を学習することになる。したがって、話者識別部33は、音声操作に対応する操作処理を行うごとに、話者識別の精度を向上させることができる。
また、第6実施形態のように複数種類の補助情報を併用する場合は、話者識別に用いる補助情報又はその組み合わせを、利用者の位置や方向等に応じて選択するようにしてもよい。この場合も、利用者の存在確率が高い位置や方向といった利用者に特徴的な情報を予め登録利用者情報330に登録しておき、これらの情報に応じて話者識別に用いる補助情報を選択するようにしてもよいし、音声操作装置が、随時学習するようにしてもよい。
また、上述の第1~第6実施形態では、先の図3に示した第1実施形態のフローチャート、及び先の図5に示した第2実施形態のフローチャートが、ともに適用可能である。すなわち、利用者ごとに複数の声質モデル331を登録しておき、補助情報に応じて声質モデル331を選択する方法と、利用者に特徴的な情報を補助情報と関連付けて登録しておき、補助情報に応じて類似度を補正する方法の、いずれを用いてもよい。
上述の実施形態の一部又は全部は、以下の付記のようにも記載され得るが、以下には限られない。
(付記1)
音声情報と予め登録された利用者の声質モデルに基づいて前記利用者を音声操作の話者として識別する話者識別部と、
前記音声情報を音声認識して音声操作情報を生成する音声操作認識部と、
を備えた音声操作装置であって、
前記話者識別部は、前記音声操作情報、音声操作装置の位置情報、話者の方向情報、話者の距離情報、時刻情報のうちの少なくとも1つを補助情報として用いて話者を識別する
音声操作装置。
(付記2)
音声振動を前記音声情報に変換するマイクロフォンと、
前記利用者の前記声質モデルが予め登録された登録利用者情報と、
を更に備える
付記1に記載の音声操作装置。
(付記3)
前記登録利用者情報は前記利用者ごとに複数の前記声質モデルを有し、
前記話者識別部は前記補助情報に応じて前記声質モデルを選択する
付記2に記載の音声操作装置。
(付記4)
前記話者識別部は、前記補助情報に応じて前記利用者ごとのデータベースである前記声質モデルを選択する
付記3に記載の音声操作装置。
(付記5)
前記話者識別部は、前記音声情報と前記声質モデルの類似度を算出し、前記類似度に基づいて話者を識別する
付記2から4のいずれか1項に記載の音声操作装置。
(付記6)
前記話者識別部は、前記類似度が最も大きい前記利用者を音声操作の話者として識別する
付記5に記載の音声操作装置。
(付記7)
前記登録利用者情報は、前記利用者に特徴的な情報を前記補助情報と関連付けて有し、
前記話者識別部は前記補助情報に応じて前記類似度を補正する
付記5又は6に記載の音声操作装置。
(付記8)
前記登録利用者情報は前記類似度の補正値を前記利用者ごとに有し、
前記話者識別部は話者を識別した結果を前記補正値に反映させて、前記補助情報と前記補正値との相関性を学習する
付記5から7のいずれか1項に記載の音声操作装置。
(付記9)
前記登録利用者情報は前記利用者に特徴的なキーワードを含み、
前記話者識別部は前記音声操作情報に含まれる前記キーワードに応じて前記類似度を補正する
付記5から8のいずれか1項に記載の音声操作装置。
(付記10)
前記マイクロフォンは、音声操作の話者の方向を前記方向情報として取得するアレイマイクであり、
前記話者識別部は前記方向情報を用いて話者を識別する
付記2から9のいずれか1項に記載の音声操作装置。
(付記11)
前記音声操作の話者までの距離を前記距離情報として取得する測距センサを更に備え、
前記話者識別部は前記距離情報を用いて話者を識別する
付記2から10のいずれか1項に記載の音声操作装置。
(付記12)
前記音声操作の発声時刻を前記時刻情報として取得する時計を更に備え、
前記話者識別部は前記時刻情報を用いて話者を識別する
付記2から11のいずれか1項に記載の音声操作装置。
(付記13)
音声操作装置の位置を前記位置情報として取得するGPS装置を更に備え、
前記話者識別部は前記位置情報に応じて前記声質モデルを選択する
付記2から12のいずれか1項に記載の音声操作装置。
(付記14)
前記登録利用者情報は前記利用者のスケジュール情報を更に含み
前記話者識別部は前記スケジュール情報を更に用いて話者を識別する
付記2から13のいずれか1項に記載の音声操作装置。
(付記15)
前記登録利用者情報は前記利用者の好みに合わせた情報を前記利用者ごとに有し、
前記音声操作情報に対応する操作処理を前記利用者の好みに合わせて実行する制御演算部と、
実行結果を音声により通知するスピーカーと、
を更に有する
付記2から14のいずれか1項に記載の音声操作装置。
(付記16)
音声情報と予め登録された利用者の声質モデルに基づいて前記利用者を音声操作の話者として識別する話者識別部と、
前記音声情報を音声認識して音声操作情報を生成する音声操作認識部と、
を備えた音声操作装置の制御方法であって、
前記話者識別部は、前記音声操作情報、音声操作装置の位置情報、話者の方向情報、話者の距離情報、時刻情報のうちの少なくとも1つを補助情報として用いて話者を識別するステップを有する
音声操作装置の制御方法。
以上、実施形態を参照して本発明を説明したが、本発明は上記実施形態に限定されものではない。本発明の構成や詳細には、本発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
この出願は、2017年7月26日に出願された日本出願特願2017-144336を基礎とする優先権を主張し、その開示の全てをここに取り込む。
1 :スピーカー
2 :マイクロフォン
3 :制御演算部
11 :音声出力部
21 :音声入力部
31 :音声操作応答部
32 :音声操作認識部
33 :話者識別部
34 :補助情報算出部
35 :無線通信部
40 :補助情報取得装置
41 :GPS装置
42 :アレイマイク
43 :測距センサ
44 :時計
61 :利用者
62 :利用者
330 :登録利用者情報
331 :声質モデル
341 :位置算出部
342 :音声方向算出部
343 :距離算出部
344 :時刻算出部

Claims (7)

  1. 話者識別部と、
    音声情報を音声認識して音声操作情報を生成する音声操作認識部と、
    音声振動を前記音声情報に変換するマイクロフォンを複数有するマイクアレイと、
    第1の時刻情報と利用者とが関連づけされた登録利用者情報と、
    を備え、
    前記話者識別部は、前記登録利用者情報と前記音声情報の発声時刻である第2の時刻情報とを用いて話者を識別する音声操作装置。
  2. 話者識別部と、
    音声情報を音声認識して音声操作情報を生成する音声操作認識部と、
    音声振動を前記音声情報に変換するマイクロフォンを複数有するマイクアレイと、
    利用者と、前記利用者のスケジュール情報とが関連づけされた登録利用者情報と、
    を備え、
    前記話者識別部は、前記登録利用者情報と前記スケジュール情報とを用いて話者を識別する音声操作装置。
  3. 前記話者識別部は、前記音声情報と予め登録された前記利用者の音声モデルに基づいて前記利用者を音声操作の話者として識別する請求項1又は2に記載の音声操作装置。
  4. 前記話者識別部は、前記音声情報と前記利用者の声質モデルの類似度が最も大きい前記利用者を音声操作の話者として識別する請求項1から3のいずれか1項に記載の音声操作装置。
  5. 前記登録利用者情報は、前記利用者に特徴的な情報を補助情報と関連付けて有し、
    前記話者識別部は前記補助情報に応じて前記音声情報と前記利用者の声質モデルの類似度を補正する請求項1から4のいずれか1項に記載の音声操作装置。
  6. 前記登録利用者情報は前記利用者に特徴的なキーワードを含み、
    前記話者識別部は前記音声操作情報に含まれる前記キーワードに応じて前記音声情報と前記利用者の声質モデルの類似度を補正する請求項1から5のいずれか1項に記載の音声操作装置。
  7. 前記発声時刻を前記第2の時刻情報として取得する時計を更に備える請求項1に記載の音声操作装置。
JP2021127871A 2017-07-26 2021-08-04 音声操作装置及びその制御方法 Active JP7314975B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017144336 2017-07-26
JP2017144336 2017-07-26
JP2019532562A JP6927308B2 (ja) 2017-07-26 2018-07-20 音声操作装置及びその制御方法

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2019532562A Division JP6927308B2 (ja) 2017-07-26 2018-07-20 音声操作装置及びその制御方法

Publications (2)

Publication Number Publication Date
JP2021184282A JP2021184282A (ja) 2021-12-02
JP7314975B2 true JP7314975B2 (ja) 2023-07-26

Family

ID=65040714

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019532562A Active JP6927308B2 (ja) 2017-07-26 2018-07-20 音声操作装置及びその制御方法
JP2021127871A Active JP7314975B2 (ja) 2017-07-26 2021-08-04 音声操作装置及びその制御方法

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2019532562A Active JP6927308B2 (ja) 2017-07-26 2018-07-20 音声操作装置及びその制御方法

Country Status (4)

Country Link
US (1) US11961534B2 (ja)
EP (1) EP3660842A4 (ja)
JP (2) JP6927308B2 (ja)
WO (1) WO2019021953A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022137507A1 (en) * 2020-12-25 2022-06-30 Nec Corporation Speaker identificantion apparatus, method, and program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016073321A1 (en) 2014-11-03 2016-05-12 Microsoft Technology Licensing, Llc Augmentation of key phrase user recognition
JP2017090613A (ja) 2015-11-09 2017-05-25 三菱自動車工業株式会社 音声認識制御システム
JP2017116876A (ja) 2015-12-25 2017-06-29 綜合警備保障株式会社 話者認識装置、判別値生成方法及びプログラム

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10301755A (ja) 1997-04-28 1998-11-13 Matsushita Electric Ind Co Ltd 操作誘導装置
JP3090119B2 (ja) 1998-05-15 2000-09-18 日本電気株式会社 話者照合装置、方法及び記憶媒体
JP3735209B2 (ja) * 1999-03-03 2006-01-18 富士通株式会社 話者認識装置及び方法
US7266189B1 (en) 2003-01-27 2007-09-04 Cisco Technology, Inc. Who said that? teleconference speaker identification apparatus and method
JP3901666B2 (ja) * 2003-05-26 2007-04-04 シャープ株式会社 移動電話機
KR20050023941A (ko) 2003-09-03 2005-03-10 삼성전자주식회사 음성 인식 및 화자 인식을 통한 개별화된 서비스를제공하는 a/v 장치 및 그 방법
US8086461B2 (en) 2007-06-13 2011-12-27 At&T Intellectual Property Ii, L.P. System and method for tracking persons of interest via voiceprint
JP2009265567A (ja) 2008-04-30 2009-11-12 Sony Corp 音声認識装置と音声認識方法とコンピュータ・プログラムおよびコマンド認識装置
US8315366B2 (en) * 2008-07-22 2012-11-20 Shoretel, Inc. Speaker identification and representation for a phone
KR101041039B1 (ko) 2009-02-27 2011-06-14 고려대학교 산학협력단 오디오 및 비디오 정보를 이용한 시공간 음성 구간 검출 방법 및 장치
JP5229124B2 (ja) 2009-06-12 2013-07-03 日本電気株式会社 話者照合装置、話者照合方法およびプログラム
JP5779032B2 (ja) 2011-07-28 2015-09-16 株式会社東芝 話者分類装置、話者分類方法および話者分類プログラム
US20150138333A1 (en) * 2012-02-28 2015-05-21 Google Inc. Agent Interfaces for Interactive Electronics that Support Social Cues
US9881616B2 (en) * 2012-06-06 2018-01-30 Qualcomm Incorporated Method and systems having improved speech recognition
US9721586B1 (en) * 2013-03-14 2017-08-01 Amazon Technologies, Inc. Voice controlled assistant with light indicator
JP2015040903A (ja) * 2013-08-20 2015-03-02 ソニー株式会社 音声処理装置、音声処理方法、及び、プログラム
US9847082B2 (en) * 2013-08-23 2017-12-19 Honeywell International Inc. System for modifying speech recognition and beamforming using a depth image
US20150255068A1 (en) * 2014-03-10 2015-09-10 Microsoft Corporation Speaker recognition including proactive voice model retrieval and sharing features
US20160072915A1 (en) * 2014-09-09 2016-03-10 Sophatar, Inc. System and method to provide interactive, user-customized content to touch-free terminals
WO2016095218A1 (en) * 2014-12-19 2016-06-23 Dolby Laboratories Licensing Corporation Speaker identification using spatial information
US9721566B2 (en) * 2015-03-08 2017-08-01 Apple Inc. Competing devices responding to voice triggers
US10283142B1 (en) * 2015-07-22 2019-05-07 Educational Testing Service Processor-implemented systems and methods for determining sound quality
US10152969B2 (en) * 2016-07-15 2018-12-11 Sonos, Inc. Voice detection by multiple devices
US10418033B1 (en) * 2017-06-01 2019-09-17 Amazon Technologies, Inc. Configurable output data formats
JP2017144336A (ja) 2017-06-06 2017-08-24 株式会社三洋物産 遊技機

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016073321A1 (en) 2014-11-03 2016-05-12 Microsoft Technology Licensing, Llc Augmentation of key phrase user recognition
JP2017090613A (ja) 2015-11-09 2017-05-25 三菱自動車工業株式会社 音声認識制御システム
JP2017116876A (ja) 2015-12-25 2017-06-29 綜合警備保障株式会社 話者認識装置、判別値生成方法及びプログラム

Also Published As

Publication number Publication date
US20200202886A1 (en) 2020-06-25
JP2021184282A (ja) 2021-12-02
JP6927308B2 (ja) 2021-08-25
JPWO2019021953A1 (ja) 2020-04-16
US11961534B2 (en) 2024-04-16
WO2019021953A1 (ja) 2019-01-31
EP3660842A1 (en) 2020-06-03
EP3660842A4 (en) 2020-09-02

Similar Documents

Publication Publication Date Title
US10147439B1 (en) Volume adjustment for listening environment
US9542947B2 (en) Method and apparatus including parallell processes for voice recognition
US9275638B2 (en) Method and apparatus for training a voice recognition model database
US20170162192A1 (en) Method and Apparatus for Evaluating Trigger Phrase Enrollment
US11989219B2 (en) Profile disambiguation
CN114830228A (zh) 与设备关联的账户
JP5724125B2 (ja) 音源定位装置
US10885909B2 (en) Determining a type of speech recognition processing according to a request from a user
WO2019213443A1 (en) Audio analytics for natural language processing
CN105580071B (zh) 用于训练声音识别模型数据库的方法和装置
GB2529509A (en) Adaptive beam forming devices, methods, and systems
WO2014096506A1 (en) Method, apparatus, and computer program product for personalizing speech recognition
WO2020037282A1 (en) Spatial audio signal encoder
JP6158006B2 (ja) 音声処理装置、方法、及びプログラム
CN110619895A (zh) 定向发声控制方法及装置、发声设备、介质和电子设备
JP7314975B2 (ja) 音声操作装置及びその制御方法
KR102629796B1 (ko) 음성 인식의 향상을 지원하는 전자 장치
US20120271630A1 (en) Speech signal processing system, speech signal processing method and speech signal processing method program
Cho et al. Sound source localization for robot auditory systems
CN110867191A (zh) 语音处理方法、信息装置与计算机程序产品
US20200388268A1 (en) Information processing apparatus, information processing system, and information processing method, and program
JP5867199B2 (ja) 雑音推定装置、雑音推定方法及び雑音推定用コンピュータプログラム
KR20210098250A (ko) 전자 장치 및 이의 제어 방법
US12002444B1 (en) Coordinated multi-device noise cancellation
WO2018179426A1 (ja) 音声認識補正システム、方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210804

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220705

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220905

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230227

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230613

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230626

R151 Written notification of patent or utility model registration

Ref document number: 7314975

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151