JP6975755B2 - 音声分析装置、音声分析方法、音声分析プログラム及び音声分析システム - Google Patents

音声分析装置、音声分析方法、音声分析プログラム及び音声分析システム Download PDF

Info

Publication number
JP6975755B2
JP6975755B2 JP2019166859A JP2019166859A JP6975755B2 JP 6975755 B2 JP6975755 B2 JP 6975755B2 JP 2019166859 A JP2019166859 A JP 2019166859A JP 2019166859 A JP2019166859 A JP 2019166859A JP 6975755 B2 JP6975755 B2 JP 6975755B2
Authority
JP
Japan
Prior art keywords
voice
participants
unit
participant
analyzed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019166859A
Other languages
English (en)
Other versions
JP2020016892A (ja
JP2020016892A5 (ja
Inventor
武志 水本
哲也 菅原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hylable Inc
Original Assignee
Hylable Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2018502280A external-priority patent/JP6589041B1/ja
Application filed by Hylable Inc filed Critical Hylable Inc
Priority to JP2019166859A priority Critical patent/JP6975755B2/ja
Publication of JP2020016892A publication Critical patent/JP2020016892A/ja
Publication of JP2020016892A5 publication Critical patent/JP2020016892A5/ja
Application granted granted Critical
Publication of JP6975755B2 publication Critical patent/JP6975755B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明は、音声を分析するための音声分析装置、音声分析方法、音声分析プログラム及び音声分析システムに関する。
グループ学習や会議における議論を分析する方法として、ハークネス法(ハークネスメソッドともいう)が知られている(例えば、非特許文献1参照)。ハークネス法では、各参加者の発言の遷移を線で記録する。これにより、各参加者の議論への貢献や、他者との関係性を分析することができる。ハークネス法は、学生が主体的に学習を行うアクティブ・ラーニングにも効果的に適用できる。
Paul Sevigny、「Extreme Discussion Circles : Preparing ESL Students for "The Harkness Method"」、Polyglossia、立命館アジア太平洋大学言語教育センター、平成24年10月、第23号、p. 181-191
コンピュータを用いてハークネス法に類する分析を行う場合には、マイクロフォン等の集音装置の位置を基準とした各参加者の位置を設定することによって、集音装置によって取得した音声を各参加者について分析する。そのため、グループごとに各参加者の位置を設定する大きな手間が掛かるという問題があった。
本発明はこれらの点に鑑みてなされたものであり、議論の音声を分析する際に参加者の位置を設定する手間を削減できる音声分析装置、音声分析方法、音声分析プログラム及び音声分析システムを提供することを目的とする。
本発明の第1の態様の音声分析装置は、集音装置から複数の参加者に関する情報を取得し、取得した前記参加者に関する情報に基づいて前記複数の参加者それぞれの位置を設定する設定部と、前記集音装置から音声を取得する取得部と、前記設定部が設定した前記位置に基づいて、前記複数の参加者それぞれが発した前記音声を分析する分析部と、を有する。
前記設定部は、前記参加者に関する情報として前記集音装置から音声を取得し、取得した前記音声が発せられた向きを特定することによって、前記複数の参加者それぞれの位置を設定してもよい。
前記設定部は、前記参加者に関する情報として前記集音装置上に設けられた撮像部が撮像した画像を取得し、取得した前記画像に含まれる前記複数の参加者の顔を認識することによって、前記複数の参加者それぞれの位置を設定してもよい。
前記設定部は、前記参加者に関する情報として前記集音装置上に設けられた読取部が読み取ったカードの情報を取得し、前記カードが前記読取部に提示された向きに従って前記複数の参加者それぞれの位置を設定してもよい。
前記設定部は、前記参加者に関する情報に加えて、通信端末において入力された情報に基づいて、前記複数の参加者それぞれの位置を設定してもよい。
前記分析部が分析している前記音声の途中において、前記設定部が設定した前記位置を更新する追従部をさらに有してもよい。
前記追従部は、前記分析部が分析している前記音声が発せられた向きが、前記設定部が設定した前記位置に対応しない場合に、前記設定部が設定した前記位置を更新してもよい。
前記追従部は、前記設定部が設定した前記位置を、前記分析部が分析している前記音声が発せられた向きに更新してもよい。
本発明の第2の態様の音声分析方法は、プロセッサが、集音装置から複数の参加者に関する情報を取得し、取得した前記参加者に関する情報に基づいて前記複数の参加者それぞれの位置を設定するステップと、前記集音装置から音声を取得するステップと、前記設定するステップで設定された前記位置に基づいて、前記複数の参加者それぞれが発した前記音声を分析するステップと、を実行する。
本発明の第3の態様の音声分析プログラムは、コンピュータに、集音装置から複数の参加者に関する情報を取得し、取得した前記参加者に関する情報に基づいて前記複数の参加者それぞれの位置を設定するステップと、前記集音装置から音声を取得するステップと、前記設定するステップで設定された前記位置に基づいて、前記複数の参加者それぞれが発した前記音声を分析するステップと、を実行させる。
本発明の第4の態様の音声分析システムは、音声分析装置と、前記音声分析装置と通信可能な集音装置と、を備え、前記集音装置は、音声を取得するとともに、複数の参加者に関する情報を取得するように構成され、前記音声分析装置は、前記集音装置から前記参加者に関する情報を取得し、取得した前記参加者に関する情報に基づいて前記複数の参加者それぞれの位置を設定する設定部と、前記集音装置から前記音声を取得する取得部と、前記設定部が設定した前記位置に基づいて、前記複数の参加者それぞれが発した前記音声を分析する分析部と、を有する。
本発明によれば、議論の音声を分析する際に参加者の位置を設定する手間を削減できるという効果を奏する。
本実施形態に係る音声分析システムの模式図である。 本実施形態に係る音声分析システムのブロック図である。 本実施形態に係る音声分析システムが行う音声分析方法の模式図である。 本実施形態に係る音声分析装置が行う音声分析方法の全体のフローチャートを示す図である。 設定画面を表示している通信端末の表示部の前面図である。 本実施形態に係る音声分析装置が行う自動設定処理の模式図である。 本実施形態に係る音声分析装置が行う位置設定処理のフローチャートを示す図である。 本実施形態に係る音声分析装置が行う追従処理の模式図である。 本実施形態に係る音声分析装置が行う追従処理のフローチャートを示す図である。
[音声分析システムSの概要]
図1は、本実施形態に係る音声分析システムSの模式図である。音声分析システムSは、音声分析装置100と、集音装置10と、通信端末20とを含む。音声分析システムSが含む集音装置10及び通信端末20の数は限定されない。音声分析システムSは、その他のサーバ、端末等の機器を含んでもよい。
音声分析装置100、集音装置10及び通信端末20は、ローカルエリアネットワーク、インターネット等のネットワークNを介して接続される。音声分析装置100、集音装置10及び通信端末20のうち少なくとも一部は、ネットワークNを介さず直接接続されてもよい。
集音装置10は、異なる向きに配置された複数の集音部(マイクロフォン)を含むマイクロフォンアレイを備える。例えばマイクロフォンアレイは、地面に対する水平面において、同一円周上に等間隔で配置された8個のマイクロフォンを含む。集音装置10は、マイクロフォンアレイを用いて取得した音声をデータとして音声分析装置100に送信する。
通信端末20は、有線又は無線の通信を行うことが可能な通信装置である。通信端末20は、例えばスマートフォン端末等の携帯端末、又はパーソナルコンピュータ等のコンピュータ端末である。通信端末20は、分析者から分析条件の設定を受け付けるとともに、音声分析装置100による分析結果を表示する。
音声分析装置100は、集音装置10によって取得された音声を、後述の音声分析方法によって分析するコンピュータである。また、音声分析装置100は、音声分析の結果を通信端末20に送信する。
[音声分析システムSの構成]
図2は、本実施形態に係る音声分析システムSのブロック図である。図2において、矢印は主なデータの流れを示しており、図2に示していないデータの流れがあってよい。図2において、各ブロックはハードウェア(装置)単位の構成ではなく、機能単位の構成を示している。そのため、図2に示すブロックは単一の装置内に実装されてよく、あるいは複数の装置内に別れて実装されてよい。ブロック間のデータの授受は、データバス、ネットワーク、可搬記憶媒体等、任意の手段を介して行われてよい。
集音装置10は、議論の参加者を撮像するための撮像部11と、議論の参加者が提示するカード等の情報を読み取るための読取部12とを有する。撮像部11は、各参加者(すなわち、複数の参加者それぞれ)の顔を含む所定の撮像範囲を撮像することが可能な撮像装置である。撮像部11は、集音装置10を取り囲む全ての参加者の顔を撮像可能な数及び配置の撮像素子を含む。例えば撮像部11は、地面に対する水平面において、180度ごとの異なる向きに配置された2個の撮像素子を含む。また、撮像部11は、地面に対する水平面において回転することによって、集音装置10を取り囲む全ての参加者の顔を撮像してもよい。
撮像部11は、集音装置10に予め設定されたタイミング(例えば10秒ごと)で撮像を行ってもよく、あるいは音声分析装置100から受信した撮像の指示に従って撮像を行ってもよい。撮像部11は、撮像した内容を示す画像を音声分析装置100に送信する。
読取部12は、参加者が提示するIC(Integrated Circuit)カード又は磁気カード(以下、総称してカードという)に記録された情報を接触方式又は非接触方式で読み取る読取装置(カードリーダ)を有する。スマートフォン等に内蔵されたICチップを、ICカードとして用いてもよい。読取部12は、カードを提示した参加者の向きを特定可能に構成される。例えば読取部12は、地面に対する水平面において、30度ごとの異なる向きに配置された12個の読取装置を備える。また、例えば読取部12は、読取装置に加えて、参加者の向きを指定するボタンを備えてもよい。
読取部12は、参加者によってカードが提示された場合に、読取装置によってカードの情報を読み取り、いずれの読取装置がカードを読み取ったかに基づいて参加者の向きを特定する。そして読取部12は、読み取った情報と参加者の向きとを関連付けて音声分析装置100に送信する。
通信端末20は、各種情報を表示するための表示部21と、分析者による操作を受け付けるための操作部22とを有する。表示部21は、液晶ディスプレイ、有機エレクトロルミネッセンス(OLED: Organic Light Emitting Diode)ディスプレイ等の表示装置を含む。操作部22は、ボタン、スイッチ、ダイヤル等の操作部材を含む。表示部21として分析者による接触の位置を検出可能なタッチスクリーンを用いることによって、表示部21と操作部22とを一体に構成してもよい。
音声分析装置100は、制御部110と、通信部120と、記憶部130とを有する。制御部110は、位置設定部111と、音声取得部112と、音源定位部113と、追従部114と、分析部115と、出力部116とを有する。記憶部130は、位置記憶部131と、音声記憶部132と、分析結果記憶部133とを有する。
通信部120は、ネットワークNを介して集音装置10及び通信端末20との間で通信をするための通信インターフェースである。通信部120は、通信を実行するためのプロセッサ、コネクタ、電気回路等を含む。通信部120は、外部から受信した通信信号に所定の処理を行ってデータを取得し、取得したデータを制御部110に入力する。また、通信部120は、制御部110から入力されたデータに所定の処理を行って通信信号を生成し、生成した通信信号を外部に送信する。
記憶部130は、ROM(Read Only Memory)、RAM(Random Access Memory)、ハードディスクドライブ等を含む記憶媒体である。記憶部130は、制御部110が実行するプログラムを予め記憶している。記憶部130は、音声分析装置100の外部に設けられてもよく、その場合に通信部120を介して制御部110との間でデータの授受を行ってもよい。
位置記憶部131は、議論の参加者の位置を示す情報を記憶する。音声記憶部132は、集音装置10によって取得された音声を記憶する。分析結果記憶部133は、音声を分析した結果を示す分析結果を記憶する。位置記憶部131、音声記憶部132及び分析結果記憶部133は、それぞれ記憶部130上の記憶領域であってもよく、あるいは記憶部130上で構成されたデータベースであってもよい。
制御部110は、例えばCPU(Central Processing Unit)等のプロセッサであり、記憶部130に記憶されたプログラムを実行することにより、位置設定部111、音声取得部112、音源定位部113、追従部114、分析部115及び出力部116として機能する。位置設定部111、音声取得部112、音源定位部113、追従部114、分析部115及び出力部116の機能については、図3〜図9を用いて後述する。制御部110の機能の少なくとも一部は、電気回路によって実行されてもよい。また、制御部110の機能の少なくとも一部は、ネットワーク経由で実行されるプログラムによって実行されてもよい。
本実施形態に係る音声分析システムSは、図2に示す具体的な構成に限定されない。例えば音声分析装置100は、1つの装置に限られず、2つ以上の物理的に分離した装置が有線又は無線で接続されることにより構成されてもよい。
[音声分析方法の説明]
図3は、本実施形態に係る音声分析システムSが行う音声分析方法の模式図である。まず音声分析装置100の位置設定部111は、後述の位置設定処理によって、分析対象とする議論における各参加者の位置を設定する(a)。位置設定部111は、後述の位置設定処理において特定した各参加者の位置を位置記憶部131に記憶させることにより、各参加者の位置を設定する。
音声分析装置100の音声取得部112は、音声の取得を開始する際に、音声の取得を指示する信号を集音装置10に送信する(b)。集音装置10は、音声分析装置100から音声の取得を指示する信号を受信した場合に、音声の取得を開始する。また、音声分析装置100の音声取得部112は、音声の取得を終了する際に、音声の取得の終了を指示する信号を集音装置10に送信する。集音装置10は、音声分析装置100から音声の取得の終了を指示する信号を受信した場合に、音声の取得を終了する。
集音装置10は、複数の集音部においてそれぞれ音声を取得し、各集音部に対応する各チャネルの音声として内部に記録する。そして集音装置10は、取得した複数のチャネルの音声を、音声分析装置100に送信する(c)。集音装置10は、取得した音声を逐次送信してもよく、あるいは所定量又は所定時間の音声を送信してもよい。また、集音装置10は、取得の開始から終了までの音声をまとめて送信してもよい。音声分析装置100の音声取得部112は、集音装置10から音声を受信して音声記憶部132に記憶させる。
音声分析装置100は、集音装置10から取得した音声を用いて、所定のタイミングで音声を分析する。音声分析装置100は、分析者が通信端末20において所定の操作によって分析指示を行った際に、音声を分析してもよい。この場合には、分析者は分析対象とする議論に対応する音声を音声記憶部132に記憶された音声の中から選択する。
また、音声分析装置100は、音声の取得が終了した際に音声を分析してもよい。この場合には、取得の開始から終了までの音声が分析対象の議論に対応する。また、音声分析装置100は、音声の取得の途中で逐次(すなわちリアルタイム処理で)音声を分析してもよい。この場合には、音声分析装置100は、現在時間から遡って過去の所定時間分(例えば30秒間)の音声が分析対象の議論に対応する。
音声を分析する際に、まず音源定位部113は、音声取得部112が取得した複数チャネルの音声に基づいて音源定位を行う(d)。音源定位は、音声取得部112が取得した音声に含まれる音源の向きを、時間ごと(例えば10ミリ秒〜100ミリ秒ごと)に推定する処理である。音源定位部113は、時間ごとに推定した音源の向きを、位置記憶部131に記憶された参加者の位置と関連付ける。
音源定位部113は、集音装置10から取得した音声に基づいて音源の向きを特定可能であれば、MUSIC(Multiple Signal Classification)法、ビームフォーミング法等、公知の音源定位方法を用いることができる。
次に分析部115は、音声取得部112が取得した音声、音源定位部113が推定した音源の向き及び位置記憶部131に記憶された参加者の位置に基づいて、音声を分析する(e)。分析部115は、完了した議論の全体を分析対象としてもよく、あるいはリアルタイム処理の場合に議論の一部を分析対象としてもよい。
具体的には、まず分析部115は、音声取得部112が取得した音声、音源定位部113が推定した音源の向き及び位置記憶部131に記憶された参加者の位置に基づいて、分析対象の議論において、時間ごと(例えば10ミリ秒〜100ミリ秒ごと)に、いずれの参加者が発言(発声)したかを判別する。分析部115は、1人の参加者が発言を開始してから終了するまでの連続した期間を発言期間として特定し、分析結果記憶部133に記憶させる。同じ時間に複数の参加者が発言を行った場合には、分析部115は、参加者ごとに発言期間を特定する。
また、分析部115は、時間ごとの各参加者の発言量を算出し、分析結果記憶部133に記憶させる。具体的には、分析部115は、ある時間窓(例えば5秒間)において、参加者の発言を行った時間の長さを時間窓の長さで割った値を、時間ごとの発言量として算出する。そして分析部115は、議論の開始時間から終了時間(リアルタイム処理の場合には現在)まで、時間窓を所定の時間(例えば1秒)ずつずらしながら、各参加者について時間ごとの発言量の算出を繰り返す。
追従部114は、後述の追従処理によって、音源定位部113及び分析部115による分析対象の音声において所定の時間間隔で最新の参加者の位置を取得し、位置記憶部131に記憶された参加者の位置を更新する。これにより、音声の取得途中で参加者が既に設定された位置から移動した場合であっても、音源定位部113及び分析部115は追従して音声を分析することができる。
出力部116は、表示情報を通信端末20に送信することによって、分析部115による分析結果を表示部21上に表示させる制御を行う(f)。出力部116は、表示部21への表示に限られず、プリンタによる印刷、記憶装置へのデータ記録等、その他の方法によって分析結果を出力してもよい。
図4は、本実施形態に係る音声分析装置100が行う音声分析方法の全体のフローチャートを示す図である。まず、位置設定部111は、後述の位置設定処理によって、分析対象とする議論の各参加者の位置を特定し、位置記憶部131に記憶させる(S1)。次に音声取得部112は、集音装置10から音声を取得して音声記憶部132に記憶させる(S2)。
音声分析装置100は、ステップS2で音声取得部112が取得した音声について開始時間から終了時間までの所定の時間範囲(時間窓)ごとに分析する。音源定位部113は、分析対象の音声の時間範囲において、音源定位を実行し、推定した音源の向きを、位置記憶部131に記憶された各参加者の位置と関連付ける(S3)。
追従部114は、後述の追従処理によって、分析対象の音声の時間範囲における最新の参加者の位置を取得し、位置記憶部131に記憶された参加者の位置を更新する(S4)。
分析部115は、ステップS2で音声取得部112が取得した音声、ステップS3で音源定位部113が推定した音源の向き及び位置記憶部131に記憶された参加者の位置に基づいて、音声を分析する(S5)。分析部115は、分析結果を分析結果記憶部133に記憶させる。
ステップS2で音声取得部112が取得した音声の終了時間まで分析が終了していない場合(S6のNO)には、音声分析装置100は分析対象の音声中の次の時間範囲についてステップS3〜S5を繰り返す。ステップS2で音声取得部112が取得した音声の終了時間まで分析が終了した場合(S6のYES)には、出力部116は、ステップS5の分析結果を所定の方法で出力する(S7)。
[位置設定処理の説明]
まず、図4のステップS1に示した位置設定処理について説明する。図5は、設定画面Aを表示している通信端末20の表示部21の前面図である。位置設定処理は、分析者が通信端末20を操作することによって各参加者の位置を設定する手動設定処理と、各参加者が自身の位置を特定するための情報を集音装置10に入力する自動設定処理とを含む。
通信端末20は、表示部21上に設定画面Aを表示し、分析者による分析条件の設定を受け付ける。設定画面Aは、位置設定領域A1と、開始ボタンA2と、終了ボタンA3と、自動設定ボタンA4とを含む。位置設定領域A1は、分析対象の議論において、集音装置10を基準として各参加者Uが実際に位置する向きを設定する領域である。例えば位置設定領域A1は、図5のように集音装置10の位置を中心とした円を表し、さらに円に沿って集音装置10を基準とした角度を表している。
手動設定処理を希望する分析者は、通信端末20の操作部22を操作することによって、位置設定領域A1において各参加者Uの位置を設定する。各参加者Uについて設定された位置の近傍には、各参加者Uを識別する識別情報(ここではU1〜U4)が割り当てられて表示される。図5の例では、4人の参加者U1〜U4が設定されている。位置設定領域A1内の各参加者Uに対応する部分は、参加者ごとに異なる色で表示される。これにより、分析者は容易に各参加者Uが設定されている向きを認識することができる。
開始ボタンA2、終了ボタンA3及び自動設定ボタンA4は、それぞれ表示部21上に表示された仮想的なボタンである。通信端末20は、分析者によって開始ボタンA2が押下されると、音声分析装置100に開始指示の信号を送信する。通信端末20は、分析者によって終了ボタンA3が押下されると、音声分析装置100に終了指示の信号を送信する。本実施形態では、分析者による開始指示から終了指示までを1つの議論とする。
自動設定処理を希望する分析者は、自動設定ボタンA4を押下することによって、音声分析装置100に自動設定処理を開始させる。通信端末20は、自動設定ボタンA4が押下されると、音声分析装置100に自動設定指示の信号を送信する。
[自動設定処理の説明]
図6(a)〜図6(c)は、それぞれ本実施形態に係る音声分析装置100が行う自動設定処理の模式図である。音声分析装置100は、自動設定処理が指示されると、図6(a)〜図6(c)に示す処理のうち少なくとも1つによって参加者Uの位置を設定する。
図6(a)は参加者Uが発した音声に基づいて参加者Uの位置を設定する処理を示す。この場合に、音声分析装置100の位置設定部111は、集音装置10の集音部に、各参加者Uの発した音声を取得させる。位置設定部111は、集音装置10が取得した音声を取得する。
位置設定部111は、取得した音声が発せられた向きに基づいて、各参加者Uの向きを特定する。位置設定部111は、音声から参加者の向きを特定するために、上述の音源定位部113による音源定位の結果を用いる。そして位置設定部111は、特定した各参加者Uの位置を、位置記憶部131に記憶させる。
位置設定部111は、取得した各参加者Uの音声を、予め音声分析装置100に記憶された個人の音声と比較することによって、参加者Uの個人を特定してもよい。例えば位置設定部111は、各参加者Uの音声の声紋(すなわち声の周波数スペクトル)を比較することによって、個人を特定する。これにより、分析結果とともに参加者Uの個人情報を表示したり、同じ参加者Uの複数の分析結果を表示したりすることができる。
図6(b)は参加者Uの顔の画像に基づいて参加者Uの位置を設定する処理を示す。この場合に、音声分析装置100の位置設定部111は、集音装置10に設けられた撮像部11に、集音装置10を取り囲む全ての参加者Uの顔を含む領域を撮像させる。位置設定部111は、撮像部11が撮像した画像を取得する。
位置設定部111は、取得した画像中の各参加者Uの顔を認識する。位置設定部111は、画像から人間の顔を認識するために公知の顔認識技術を用いることができる。そして位置設定部111は、画像から認識した各参加者Uの顔の位置に基づいて、集音装置10を基準とした各参加者Uの位置を特定し、位置記憶部131に記憶させる。画像中の位置(例えば画像中の画素の座標)と、集音装置10を基準とした位置(例えば集音装置10に対する角度)との関係は、予め音声分析装置100に設定される。
位置設定部111は、画像から認識した各参加者Uの顔を、予め音声分析装置100に記憶された個人の顔と比較することによって、参加者Uの個人を特定してもよい。これにより、分析結果とともに参加者Uの個人情報を表示したり、同じ参加者Uの複数の分析結果を表示したりすることができる。
図6(c)は参加者Uが提示したカードCの情報に基づいて参加者Uの位置を設定する処理を示す。この場合に、音声分析装置100の位置設定部111は、集音装置10に設けられた読取部12に、各参加者Uが提示したカードCの情報を読み取らせる。位置設定部111は、読取部12が読み取ったカードCの情報と、カードCを提示した参加者Uの向きとを取得する。位置設定部111は、取得したカードCの情報及び参加者Uの向きに基づいて、集音装置10を基準とした各参加者Uの位置を特定し、位置記憶部131に記憶させる。
位置設定部111は、取得したカードCの情報を用いて、予め音声分析装置100に記憶された個人情報を取得することによって、参加者Uの個人を特定してもよい。これにより、分析結果とともに参加者Uの個人情報を表示したり、同じ参加者Uの複数の分析結果を表示したりすることができる。
位置設定部111は、自動設定処理と手動設定処理とを組み合わせて実行してもよい。この場合に、例えば位置設定部111は、図6(a)〜図6(c)の自動設定処理によって設定された各参加者Uの位置を図5の位置設定領域A1に表示し、さらに分析者による手動の設定を受け付ける。これにより、自動設定処理によって設定された各参加者Uの位置を手動設定処理によって修正し、各参加者Uの位置をより確実に設定することができる。
このように音声分析装置100は集音装置10上で取得した参加者Uに関する情報に基づいて各参加者Uの位置を自動的に設定できるため、分析者が通信端末20上で全てのグループの各参加者Uの位置を設定する手間を削減することができる。音声分析装置100は、集音装置10上で取得できる参加者Uに関する情報(すなわち参加者Uの位置を特定するための情報)として、音声、画像又はカードの情報に限られず、参加者Uの向きを特定可能なその他の情報を用いてもよい。
図7は、本実施形態に係る音声分析装置100が行う位置設定処理のフローチャートを示す図である。まず、位置設定部111は、図5は設定画面Aにおいて分析者によって自動設定処理が指示されたか否かを判定する。自動設定処理が指示されていない場合(すなわち手動設定の場合)に(S11のNO)、位置設定部111は、通信端末20上に表示された設定画面Aにおいて入力された内容に従って各参加者の位置を特定し、位置記憶部131に設定する(S12)。
自動設定が指示された場合に(S11のYES)、位置設定部111は、集音装置10上で参加者に関する情報(すなわち参加者の位置を特定するための情報)を取得する(S13)。位置設定部111は、参加者に関する情報として、上述の参加者の発した音声、参加者の顔の画像、及び参加者の提示したカードの情報のうち少なくとも1つを用いる。
位置設定部111は、取得した参加者に関する情報に基づいて、集音装置10を基準とした各参加者Uの位置を特定する(S14)。そして位置設定部111は、特定した各参加者の位置を位置記憶部131に記憶させることにより、参加者の位置を設定する(S15)。
[追従処理の説明]
次に、図4のステップS4に示した追従処理について説明する。図8は、本実施形態に係る音声分析装置100が行う追従処理の模式図である。追従処理は、音源定位部113及び分析部115による分析対象の音声の途中で、位置記憶部131に記憶された各参加者Uの位置を更新する処理である。
図8の上図には更新前の各参加者Uの位置が示され、図8の下図には更新後の各参加者Uの位置が示されている。図8の上図は、参加者U1が、位置記憶部131に設定された位置P1から、別の位置P2に移動した状態である。この状態では、参加者U1が発した音声は、参加者U1の設定された位置P1とは異なる位置P2から集音装置10に入る。そのため、分析部115は、該音声から参加者U1の発言を検出することができない。
そこで追従部114は、図8の下図のように、位置記憶部131において、参加者U1の位置を位置P1から位置P2に更新する。これにより、分析部115は参加者U1の発言を正しく検出することができる。
各参加者Uの位置の更新のために、追従部114は、所定の時間(例えば1分)ごとに、音源定位部113が推定した音源の向きを取得する。追従部114は、推定された音源の向きが、位置記憶部131に記憶された各参加者Uの位置のいずれにも対応しない場合に、いずれかの参加者Uが音源の向きに移動したと判定する。そして追従部114は移動した参加者Uを特定し、移動した参加者Uについて位置記憶部131に記憶された位置を、音源の向きに対応する位置に更新する。
例えば追従部114は、集音装置10が取得した音声から推定された音源の向きに最も近い位置に設定された参加者Uが、該音源の向きに対応する位置に移動したと特定する。この場合に追従部114は、音源の向きから所定の範囲内(例えば−30度から+30度の範囲内)の位置に設定された参加者Uの中から、移動した参加者Uを選択してもよい。移動の範囲を制限することにより、追従部114は、例えば参加者Uの位置を誤った位置へ移動させてしまうことを抑制することができる。
また、追従部114は、音源の声紋を各参加者Uの声紋と比較し、音源の声紋に類似する声紋を有する参加者Uが、該音源の向きに対応する位置に移動したと特定してもよい。この場合に追従部114は、分析開始時の各参加者Uの音声から各参加者Uの声紋を取得してもよく、あるいは予め記憶部130に記憶した各参加者Uの声紋を取得してもよい。追従部114は、音源の声紋と各参加者Uの声紋との間で声紋の類似度を算出する。追従部114は、声紋の類似度がグループの中で最も高い参加者Uを選択し、あるいは声紋の類似度が所定の閾値以上の参加者Uを選択する。声紋を用いて移動した参加者Uを特定することにより、追従の精度を向上させることができる。
また、追従部114は、集音装置10の撮像部11が撮像した画像中の、音源の向きに位置する顔を取得し、取得した顔に類似する顔を有する参加者Uが該音源の向きに対応する位置に移動したと特定してもよい。この場合に追従部114は、分析開始時に撮像部11が撮像した画像から各参加者Uの顔を取得してもよく、あるいは予め記憶部130に記憶した各参加者Uの顔を取得してもよい。追従部114は、音源の向きに位置する顔と各参加者Uの顔との間で顔の類似度を算出する。追従部114は、顔の類似度がグループの中で最も高い参加者Uを選択し、あるいは顔の類似度が所定の閾値以上の参加者Uを選択する。顔を用いて移動した参加者Uを特定することにより、追従の精度を向上させることができる。
声紋又は顔を用いて追従する場合に、追従部114は、音源の向きと、位置記憶部131に記憶された位置(向き)との間の差に基づいて、各参加者Uについての声紋又は顔の類似度を重み付けしてもよい。参加者Uに設定された位置と音源の向きとが近いほど参加者Uが音源の位置に移動した確率が高く、参加者Uに設定された位置と音源の向きとが遠いほど参加者Uが音源の位置に移動した確率が低いといえる。そこで追従部114は、参加者Uに設定された位置と音源の向きとの差が小さいほど声紋又は顔の類似度を高く重み付けし、参加者Uに設定された位置と音源の向きとの差が大きいほど声紋又は顔の類似度を低く重み付けする。これによって、追従の精度をより向上させることができる。
図9は、本実施形態に係る音声分析装置100が行う追従処理のフローチャートを示す図である。まず、追従部114は、音源定位部113が推定した音源の向きを取得する。音源の向きが、位置記憶部131に記憶された各参加者Uの位置のいずれかに対応している場合に(S41のYES)、追従部114は位置の更新を行わずに処理を終了する。
音源の向きが、位置記憶部131に記憶された各参加者Uの位置のいずれにも対応していない場合に(S41のNO)、追従部114は、集音装置10上で参加者に関する情報(すなわち参加者の位置を特定するための情報)を取得する(S42)。追従部114は、参加者に関する情報として、上述の参加者の発した音声及び参加者の顔の画像のうち少なくとも一方を用いる。
追従部114は、取得した参加者に関する情報に基づいて、いずれの参加者が移動したかを特定する(S43)。そして追従部114は、移動したと特定した参加者Uについて、位置記憶部131に記憶された位置を、音源の向きに対応する位置に更新する(S44)。
[本実施形態の効果]
本実施形態に係る音声分析装置100は、各グループに配置される集音装置10において参加者の発する音声、参加者の顔の画像、参加者が提示するカードの情報等の各参加者に関する情報を取得し、取得した情報に基づいて自動的に各参加者の位置を設定する。そのため、議論の音声を分析する際に各グループについて各参加者の位置を設定する手間を削減できる。
また、音声分析装置100は、音声の分析中に各参加者に関する情報に基づいて各参加者の位置を更新する。そのため、音声の取得途中で参加者が移動した場合であっても、追従して分析することができる。
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されず、その要旨の範囲内で種々の変形及び変更が可能である。例えば、装置の分散・統合の具体的な実施の形態は、以上の実施の形態に限られず、その全部又は一部について、任意の単位で機能的又は物理的に分散・統合して構成することができる。また、複数の実施の形態の任意の組み合わせによって生じる新たな実施の形態も、本発明の実施の形態に含まれる。組み合わせによって生じる新たな実施の形態の効果は、もとの実施の形態の効果を合わせ持つ。
上述の説明において、音声分析装置100は議論における音声の分析に用いられているが、その他の用途にも適用できる。例えば音声分析装置100は、自動車の中に着座している乗客の発する音声を分析することもできる。
音声分析装置100、集音装置10及び通信端末20のプロセッサは、図4、7、9に示す音声分析方法に含まれる各ステップ(工程)の主体となる。すなわち、音声分析装置100、集音装置10及び通信端末20のプロセッサは、図4、7、9に示す音声分析方法を実行するためのプログラムを記憶部から読み出し、該プログラムを実行して音声分析装置100、集音装置10及び通信端末20の各部を制御することによって、図4、7、9に示す音声分析方法を実行する。図4、7、9に示す音声分析方法に含まれるステップは一部省略されてもよく、ステップ間の順番が変更されてもよく、複数のステップが並行して行われてもよい。
S 音声分析システム
100 音声分析装置
110 制御部
111 位置設定部
112 音声取得部
114 追従部
115 分析部
10 集音装置
20 通信端末

Claims (14)

  1. 集音装置から、前記集音装置を取り囲む複数の参加者が発した音声を取得する取得部と、
    前記複数の参加者それぞれに対して設定された位置に基づいて、前記複数の参加者それぞれが発した前記音声を分析する分析部と、
    前記分析部が分析している前記音声の途中において、前記分析部が分析している前記音声を発した音源の前記集音装置を基準とする向きが、前記複数の参加者に対して設定された前記位置のいずれにも対応しない場合に、前記複数の参加者に対して設定された前記位置を更新する追従部と、
    を有し、
    前記追従部は、前記分析部が分析している前記音声の特徴と、前記複数の参加者それぞれが発する音声の特徴とを比較することによって、前記分析部が分析している前記音声の特徴に類似する特徴を有する音声を発する前記参加者を選択し、選択した前記参加者の位置を、前記分析部が分析している前記音声を発した前記音源の前記集音装置を基準とする向きに更新する、音声分析装置。
  2. 前記追従部は、前記分析部が分析している前記音声の特徴と、前記分析部が分析している前記音声の開始時の前記複数の参加者それぞれの音声の特徴との類似度を算出し、前記類似度が所定の条件を満たす前記参加者を選択する、
    請求項1に記載の音声分析装置。
  3. 前記追従部は、前記分析部が分析している前記音声の特徴と、予め記憶部に記憶された前記複数の参加者それぞれの音声の特徴との類似度を算出し、前記類似度が所定の条件を満たす前記参加者を選択する、
    請求項1に記載の音声分析装置。
  4. 前記分析部が分析している前記音声が発せられた向きと、前記複数の参加者それぞれに対して設定された前記位置に対応する向きとの間の差に応じて前記複数の参加者それぞれの前記類似度を重み付けし、重み付けされた前記類似度が所定の条件を満たす前記参加者を選択する、
    請求項2又は3に記載の音声分析装置。
  5. 記参加者に関する情報として前記集音装置から音声を取得し、取得した前記音声が発せられた向きを特定することによって、前記複数の参加者それぞれの位置を設定する設定部をさらに有する、請求項1から4のいずれか一項に記載の音声分析装置。
  6. 記参加者に関する情報として前記集音装置が有する撮像部が撮像した画像を取得し、取得した前記画像に含まれる前記複数の参加者の顔を認識することによって、前記複数の参加者それぞれの位置を設定する設定部をさらに有する、請求項1から4のいずれか一項に記載の音声分析装置。
  7. 前記集音装置は、カードに記録された情報を読み取る読取部を有し、
    前記読取部が読み取った前記カードに記録された情報を取得し、前記カードに記録された情報と、前記読取部において指定された向きに従って前記複数の参加者それぞれの位置を設定する設定部をさらに有する、請求項1からのいずれか一項に記載の音声分析装置。
  8. プロセッサが実行する
    集音装置から、前記集音装置を取り囲む複数の参加者が発した音声を取得するステップと、
    前記複数の参加者それぞれに対して設定された位置に基づいて、前記複数の参加者それぞれが発した前記音声を分析するステップと、
    前記分析するステップで分析されている前記音声の途中において、前記分析するステップで分析されている前記音声を発した音源の前記集音装置を基準とする向きが、前記複数の参加者に対して設定された前記位置のいずれにも対応しない場合に、前記複数の参加者に対して設定された前記位置を更新するステップと、
    有し、
    前記更新するステップは、前記分析するステップで分析されている前記音声の特徴と、前記複数の参加者それぞれが発する音声の特徴とを比較することによって、前記分析するステップで分析されている前記音声の特徴に類似する特徴を有する音声を発する前記参加者を選択し、選択した前記参加者の位置を、前記分析するステップで分析されている前記音声を発した前記音源の前記集音装置を基準とする向きに更新する、音声分析方法。
  9. コンピュータに、
    集音装置から、前記集音装置を取り囲む複数の参加者が発した音声を取得するステップと、
    前記複数の参加者それぞれに対して設定された位置に基づいて、前記複数の参加者それぞれが発した前記音声を分析するステップと、
    前記分析するステップで分析されている前記音声の途中において、前記分析するステップで分析されている前記音声を発した音源の前記集音装置を基準とする向きが、前記複数の参加者に対して設定された前記位置のいずれにも対応しない場合に、前記複数の参加者に対して設定された前記位置を更新するステップと、
    を実行させ
    前記更新するステップは、前記分析するステップで分析されている前記音声の特徴と、前記複数の参加者それぞれが発する音声の特徴とを比較することによって、前記分析するステップで分析されている前記音声の特徴に類似する特徴を有する音声を発する前記参加者を選択し、選択した前記参加者の位置を、前記分析するステップで分析されている前記音声を発した前記音源の前記集音装置を基準とする向きに更新する、音声分析プログラム。
  10. 音声分析装置と、前記音声分析装置と通信可能な集音装置と、を備え、
    前記音声分析装置は、
    前記集音装置から、前記集音装置を取り囲む複数の参加者が発した音声を取得する取得部と、
    前記複数の参加者それぞれに対して設定された位置に基づいて、前記複数の参加者それぞれが発した前記音声を分析する分析部と、
    前記分析部が分析している前記音声の途中において、前記分析部が分析している前記音声を発した音源の前記集音装置を基準とする向きが、前記複数の参加者に対して設定された前記位置のいずれにも対応しない場合に、前記複数の参加者に対して設定された前記位置を更新する追従部と、
    を有し、
    前記追従部は、前記分析部が分析している前記音声の特徴と、前記複数の参加者それぞれが発する音声の特徴とを比較することによって、前記分析部が分析している前記音声の特徴に類似する特徴を有する音声を発する前記参加者を選択し、選択した前記参加者の位置を、前記分析部が分析している前記音声を発した前記音源の前記集音装置を基準とする向きに更新する、音声分析システム。
  11. 集音装置から、前記集音装置を取り囲む複数の参加者が発した音声を取得する取得部と、
    前記複数の参加者それぞれに対して設定された位置に基づいて、前記複数の参加者それぞれが発した前記音声を分析する分析部と、
    前記分析部が分析している前記音声の途中において、前記分析部が分析している前記音声を発した音源の前記集音装置を基準とする向きが、前記複数の参加者に対して設定された前記位置のいずれにも対応しない場合に、前記複数の参加者に対して設定された前記位置を更新する追従部と、
    を有し、
    前記追従部は、前記集音装置が有する撮像部が撮像した画像中の前記分析部が分析している前記音声が発せられた向きに位置する顔と、前記複数の参加者それぞれの顔とを比較することによって、前記分析部が分析している前記音声が発せられた向きに位置する顔に類似する顔を有する前記参加者を選択し、選択した前記参加者の位置を、前記分析部が分析している前記音声を発した前記音源の前記集音装置を基準とする向きに更新する、音声分析装置。
  12. 前記追従部は、前記分析部が分析している前記音声が発せられた向きに位置する顔と、前記分析部が分析している前記音声の開始時に前記撮像部が撮像した前記画像中の前記複数の参加者それぞれの顔との類似度を算出し、前記類似度が所定の条件を満たす前記参加者を選択する、
    請求項11に記載の音声分析装置。
  13. 前記追従部は、前記分析部が分析している前記音声が発せられた向きに位置する顔と、予め記憶部に記憶された前記複数の参加者それぞれの顔との類似度を算出し、前記類似度が所定の条件を満たす前記参加者を選択する、
    請求項11に記載の音声分析装置。
  14. 前記分析部が分析している前記音声が発せられた向きと、前記複数の参加者それぞれに対して設定された前記位置に対応する向きとの間の差に応じて前記複数の参加者それぞれの前記類似度を重み付けし、重み付けされた前記類似度が所定の条件を満たす前記参加者を選択する、
    請求項12又は13に記載の音声分析装置。
JP2019166859A 2018-01-16 2019-09-13 音声分析装置、音声分析方法、音声分析プログラム及び音声分析システム Active JP6975755B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019166859A JP6975755B2 (ja) 2018-01-16 2019-09-13 音声分析装置、音声分析方法、音声分析プログラム及び音声分析システム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018502280A JP6589041B1 (ja) 2018-01-16 2018-01-16 音声分析装置、音声分析方法、音声分析プログラム及び音声分析システム
JP2019166859A JP6975755B2 (ja) 2018-01-16 2019-09-13 音声分析装置、音声分析方法、音声分析プログラム及び音声分析システム

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018502280A Division JP6589041B1 (ja) 2018-01-16 2018-01-16 音声分析装置、音声分析方法、音声分析プログラム及び音声分析システム

Publications (3)

Publication Number Publication Date
JP2020016892A JP2020016892A (ja) 2020-01-30
JP2020016892A5 JP2020016892A5 (ja) 2021-02-25
JP6975755B2 true JP6975755B2 (ja) 2021-12-01

Family

ID=69580440

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019166859A Active JP6975755B2 (ja) 2018-01-16 2019-09-13 音声分析装置、音声分析方法、音声分析プログラム及び音声分析システム

Country Status (1)

Country Link
JP (1) JP6975755B2 (ja)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4595364B2 (ja) * 2004-03-23 2010-12-08 ソニー株式会社 情報処理装置および方法、プログラム、並びに記録媒体
JP2007318438A (ja) * 2006-05-25 2007-12-06 Yamaha Corp 音声状況データ生成装置、音声状況可視化装置、音声状況データ編集装置、音声データ再生装置、および音声通信システム
JP5316248B2 (ja) * 2009-06-16 2013-10-16 株式会社リコー テレビ会議装置、テレビ会議方法、そのプログラム

Also Published As

Publication number Publication date
JP2020016892A (ja) 2020-01-30

Similar Documents

Publication Publication Date Title
US11206450B2 (en) System, apparatus and method for providing services based on preferences
US11113511B2 (en) Makeup evaluation system and operating method thereof
JP2019082990A (ja) 身元認証方法、端末装置、およびコンピュータ可読記憶媒体{identity authentication method, terminal equipment and computer readable storage medium}
CN105354543A (zh) 视频处理方法及装置
JP7453714B2 (ja) 議論分析装置及び議論分析方法
EP3579176A1 (en) Makeup evaluation system and operation method thereof
JP6946551B2 (ja) 映像アライメント方法及びその装置
KR102263154B1 (ko) 스마트 미러 기반 얼굴 감성 표현 시스템 및 그 운용방법
KR20210048272A (ko) 음성 및 영상 자동 포커싱 방법 및 장치
JP6646134B2 (ja) 音声分析装置、音声分析方法、音声分析プログラム及び音声分析システム
KR102114273B1 (ko) 퍼스널 이미지 진단 제공방법 및 이를 수행하기 위한 컴퓨팅 장치
KR102478558B1 (ko) 고객 만족도 조사 수행 시스템
JP6975755B2 (ja) 音声分析装置、音声分析方法、音声分析プログラム及び音声分析システム
JP6819194B2 (ja) 情報処理システム、情報処理装置およびプログラム
CN110545386B (zh) 用于拍摄图像的方法和设备
JP6589041B1 (ja) 音声分析装置、音声分析方法、音声分析プログラム及び音声分析システム
JP6589042B1 (ja) 音声分析装置、音声分析方法、音声分析プログラム及び音声分析システム
JP6589040B1 (ja) 音声分析装置、音声分析方法、音声分析プログラム及び音声分析システム
JP7427274B2 (ja) 音声分析装置、音声分析方法、音声分析プログラム及び音声分析システム
JP7414319B2 (ja) 音声分析装置、音声分析方法、音声分析プログラム及び音声分析システム
JP6975756B2 (ja) 音声分析装置、音声分析方法、音声分析プログラム及び音声分析システム
KR102239015B1 (ko) 영상 얼라인먼트 방법 및 그 장치
JP7261462B2 (ja) 音声分析装置、音声分析システム及び音声分析方法
WO2021260848A1 (ja) 学習装置、学習方法及び学習プログラム
JP2022017527A (ja) 音声分析装置、音声分析方法、音声分析プログラム及び音声分析システム

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210113

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211013

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211026

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211108

R150 Certificate of patent or registration of utility model

Ref document number: 6975755

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350