JP7293816B2 - Conversation analysis device, conversation analysis method and conversation analysis program - Google Patents

Conversation analysis device, conversation analysis method and conversation analysis program Download PDF

Info

Publication number
JP7293816B2
JP7293816B2 JP2019070723A JP2019070723A JP7293816B2 JP 7293816 B2 JP7293816 B2 JP 7293816B2 JP 2019070723 A JP2019070723 A JP 2019070723A JP 2019070723 A JP2019070723 A JP 2019070723A JP 7293816 B2 JP7293816 B2 JP 7293816B2
Authority
JP
Japan
Prior art keywords
conversation
abstraction
words
voice
degree
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019070723A
Other languages
Japanese (ja)
Other versions
JP2020170310A (en
Inventor
将治 原田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2019070723A priority Critical patent/JP7293816B2/en
Publication of JP2020170310A publication Critical patent/JP2020170310A/en
Application granted granted Critical
Publication of JP7293816B2 publication Critical patent/JP7293816B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Machine Translation (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

本発明は、会話分析装置等に関する。 The present invention relates to a conversation analysis device and the like.

コールセンターにおけるオペレータと顧客との会話、または、会議の参加者による会話等において、「会話対象(会話内容)」を評価することが求められている。たとえば、オペレータと顧客との会話の対象は、商品に関する問合せや、クレーム対応等となる。会議の参加者による会話の対象は、プロジェクト等となる。 In a conversation between an operator and a customer in a call center, or a conversation between participants in a conference, it is required to evaluate the "conversation object (conversation content)". For example, the object of conversation between an operator and a customer is an inquiry about a product, complaint handling, or the like. The object of conversation by the conference participants is a project or the like.

会議中の会話を録音した音声データを基にして、プロジェクトを評価する技術として、以下に説明するような従来技術がある。この従来技術は、設定ワードおよび設定ワードに類似する類似ワードを予め定義する。図18は、設定ワードおよび類似ワードの一例を示す図である。たとえば、設定ワード「遅れている」に対応する類似ワードは「遅延、遅い、・・・」となる。以下の説明では、設定ワードおよび設定ワードに類似する類似ワードをまとめて「設定ワード」と表記する。 As technology for evaluating a project based on voice data of recorded conversations during a meeting, there is a conventional technology as described below. This prior art predefines configuration words and similar words that are similar to configuration words. FIG. 18 is a diagram showing an example of setting words and similar words. For example, a similar word corresponding to the setting word "delayed" is "delayed, late, ...". In the following description, setting words and similar words similar to setting words are collectively referred to as "setting words".

従来技術は、音声データに対して音声認識を行い、音声データに含まれる設定ワードの出現回数をカウントする。従来技術は、設定ワードの出現回数に応じて、リスク評価値を特定し、会話の対象を評価する。たとえば、従来技術では、設定ワードの出現回数が多いほど、リスク評価値を大きくし、このリスク評価値が大きいほど、会話対象(プロジェクト)のリスクが高いと評価する。また、この従来技術では、会議時間に対する最大の発話時間の比率を算出し、比率が大きいほど、リスク評価値を大きくしている。 In the conventional technology, speech recognition is performed on speech data, and the number of appearances of setting words included in the speech data is counted. Conventional technology identifies a risk evaluation value according to the number of appearances of a setting word, and evaluates a conversation target. For example, in the conventional technology, the risk evaluation value is increased as the setting word appears more frequently, and the greater the risk evaluation value, the higher the risk of the conversation target (project). Also, in this prior art, the ratio of the maximum speech time to the meeting time is calculated, and the risk evaluation value is increased as the ratio increases.

特開2009-146121号公報JP 2009-146121 A 特開2017-27102号公報JP 2017-27102 A 特開2011-55160号公報Japanese Unexamined Patent Application Publication No. 2011-55160 特開2018-36868号公報Japanese Patent Application Laid-Open No. 2018-36868

会議の会話において、要求仕様の整理が「遅れている」、「できていない」と発話された場合のリスクと、出力メッセージの決定が「遅れている」、「できていない」と発話された場合のリスクとは、同程度のリスクではない。プロジェクト全体として「要求仕様の整理」に関する作業は数日から数週間かかるものであり、要求仕様の整理が遅れている場合には、大きなリスクである。これに対して、プロジェクト全体として「出力メッセージ」に関する作業は、1時間で解決できるものであり、出力メッセージが送れていても、リスクは小さいといえる。 In the meeting conversation, it was said that the organization of the requirement specifications was "delayed" or "not done", and the decision of the output message was said "delayed" or "not done". The risk of a case is not the same degree of risk. The work related to "organization of requirement specifications" for the project as a whole takes several days to several weeks, and if the organization of requirement specifications is delayed, it is a big risk. On the other hand, the work related to the "output message" for the project as a whole can be solved in one hour, and even if the output message is sent, the risk is small.

しかしながら、従来技術では、要求仕様の整理に関して、「遅れている」、「できていない」と発話された回数と、出力メッセージに関して、「遅れている」、「できていない」と発話された回数とが同数の場合には、各リスクは同じリスクと評価してしまう。このため、従来技術では、リスク有無を評価できても、会話の対象としてのリスクの程度を適切に評価することができていない。 However, in the prior art, the number of times "delayed" or "not completed" was uttered with respect to the organization of the required specifications, and the number of times "delayed" or "not completed" was uttered with respect to the output message. are the same, each risk is evaluated as the same risk. Therefore, even if the presence or absence of risk can be evaluated with the conventional technology, it is not possible to appropriately evaluate the degree of risk as a conversation target.

1つの側面では、本発明は、会議の発話に基づいた会議の対象としてのリスク判定をおこなうことができる会話分析装置、会話分析方法および会話分析プログラムを提供することを目的とする。 In one aspect, an object of the present invention is to provide a conversation analysis device, a conversation analysis method, and a conversation analysis program capable of performing risk determination as a conference target based on utterances in the conference.

第1の案では、会話分析装置は、第1判定部と、音声認識部と、第2判定部と、評価部とを有する。第1判定部は、会話音声を分析して、会話の状態を判定する。音声認識部は、会話音声に対して音声認識を行い、会話音声に含まれる単語を抽出する。第2判定部は、会話音声に含まれる単語を基にして、会話音声における会話内容の抽象度を判定する。評価部は、会話の状態と抽象度とを基にして、会話対象を評価する。 In the first scheme, the speech analysis device has a first determination section, a speech recognition section, a second determination section, and an evaluation section. The first determination unit analyzes the conversational voice and determines the state of the conversation. The speech recognition unit performs speech recognition on the conversational voice and extracts words contained in the conversational voice. The second determination unit determines the degree of abstraction of the conversation content in the conversational voice based on the words included in the conversational voice. The evaluation unit evaluates the conversation target based on the state of the conversation and the degree of abstraction.

会議の発話に基づいた会議の対象としてのリスク判定をおこなうことができる。 It is possible to perform risk determination as a target of the conference based on the utterances of the conference.

図1は、本実施例1に係る会話分析装置の処理を説明するための図である。FIG. 1 is a diagram for explaining processing of the conversation analysis device according to the first embodiment. 図2は、本実施例1に係る会話分析装置の構成を示す機能ブロック図である。FIG. 2 is a functional block diagram showing the configuration of the conversation analysis device according to the first embodiment. 図3は、本実施例1に係るリスク評価値テーブルのデータ構造の一例を示す図である。FIG. 3 is a diagram showing an example of the data structure of the risk evaluation value table according to the first embodiment. 図4は、本実施例1に係る抽象度判定テーブルのデータ構造の一例を示す図である。FIG. 4 is a diagram illustrating an example of the data structure of the abstraction degree determination table according to the first embodiment. 図5は、概念DBの一例を示す図である。FIG. 5 is a diagram illustrating an example of a concept DB; 図6は、本実施例1に係る第2判定部の処理を説明するための図である。FIG. 6 is a diagram for explaining the processing of the second determination unit according to the first embodiment; 図7は、本実施例1に係る会話分析装置の処理手順を示すフローチャートである。FIG. 7 is a flow chart showing the processing procedure of the conversation analysis device according to the first embodiment. 図8は、発明の効果を補足するための図である。FIG. 8 is a diagram for supplementing the effects of the invention. 図9は、本実施例2に係る会話分析装置の構成を示す機能ブロック図である。FIG. 9 is a functional block diagram showing the configuration of the conversation analysis device according to the second embodiment. 図10は、本実施例2に係る設定キーワードテーブルのデータ構造の一例を示す図である。FIG. 10 is a diagram showing an example of the data structure of the setting keyword table according to the second embodiment. 図11は、本実施例2に係るリスク評価値テーブルのデータ構造の一例を示す図である。FIG. 11 is a diagram showing an example of the data structure of the risk evaluation value table according to the second embodiment. 図12は、本実施例2に係る生成部の処理を説明するための図である。FIG. 12 is a diagram for explaining processing of a generating unit according to the second embodiment; 図13は、本実施例2に係る会話分析装置の処理手順を示すフローチャートである。FIG. 13 is a flow chart showing the processing procedure of the conversation analysis device according to the second embodiment. 図14は、本実施例3に係る会話分析装置の構成の一例を示す機能ブロック図である。FIG. 14 is a functional block diagram showing an example of the configuration of the conversation analysis device according to the third embodiment. 図15は、本実施例3に係る抽出部の処理を説明するための図である。FIG. 15 is a diagram for explaining the processing of the extraction unit according to the third embodiment; 図16は、本実施例3に係る会話分析装置の処理手順を示すフローチャートである。FIG. 16 is a flow chart showing the processing procedure of the conversation analysis device according to the third embodiment. 図17は、本実施例に係る会話分析装置と同様の機能を実現するコンピュータのハードウェア構成の一例を示す図である。FIG. 17 is a diagram showing an example of the hardware configuration of a computer that implements the same functions as the conversation analysis device according to this embodiment. 図18は、設定ワードおよび類似ワードの一例を示す図である。FIG. 18 is a diagram showing an example of setting words and similar words.

以下に、本願の開示する会話分析装置、会話分析方法および会話分析プログラムの実施例を図面に基づいて詳細に説明する。なお、この実施例によりこの発明が限定されるものではない。 Hereinafter, embodiments of the conversation analysis device, the conversation analysis method, and the conversation analysis program disclosed in the present application will be described in detail based on the drawings. In addition, this invention is not limited by this Example.

図1は、本実施例1に係る会話分析装置の処理を説明するための図である。まず、会話分析装置は、テーブル10Aを基にして、会議Aの会話対象のリスクを評価する場合について説明する。テーブル10Aは、会議Aで発声された単語と、回数との関係を示すテーブルである。 FIG. 1 is a diagram for explaining processing of the conversation analysis device according to the first embodiment. First, a case will be described where the conversation analysis device evaluates the risk of the conversation target of the meeting A based on the table 10A. Table 10A is a table showing the relationship between the words uttered in meeting A and the number of times.

会話分析装置は、テーブル10Aの各単語のうち、設定キーワードに対応する単語を特定し、特定した設定キーワードに対応する単語の出現回数を基にして、「会議の状態」の良し悪しを判定する。たとえば、会話分析装置は、設定キーワードに対応する単語の出現回数が閾値以上である場合、会議の状態が「悪い」と判定し、出現回数が閾値未満である場合、会議の状態が「良い」と判定する。 The conversation analysis device identifies words corresponding to the setting keywords from among the words in the table 10A, and determines whether the "conference state" is good or bad based on the number of appearances of the words corresponding to the identified setting keywords. . For example, the conversation analysis device determines that the state of the conference is "bad" when the number of appearances of the word corresponding to the set keyword is equal to or greater than the threshold, and determines that the state of the conference is "good" when the number of appearances is less than the threshold. I judge.

たとえば、設定キーワードを「遅れている」、「できていない」とし、出現回数の閾値を「10」とする。そうすると、会話分析装置は、テーブル10Aのうち、設定キーワードに対応する単語の出現回数「16」が閾値「10」以上となるため、会議Aの状態が悪いと判定する。 For example, the set keywords are "delayed" and "not completed", and the threshold for the number of appearances is "10". Then, in the table 10A, the conversation analysis device determines that the state of the meeting A is bad because the number of occurrences "16" of the word corresponding to the setting keyword is equal to or greater than the threshold value "10".

続いて、会話分析装置は、テーブル10Aの各単語の抽象度を基にして「会話内容の抽象度」を判定する。各単語の抽象度は、言語コーパスにおける出現頻度によって決定され、出現頻度が高いものほど、抽象度が高くなる。 Subsequently, the conversation analysis device determines the "abstractness level of the conversation content" based on the abstraction level of each word in the table 10A. The degree of abstraction of each word is determined by the frequency of appearance in the language corpus, and the higher the frequency of appearance, the higher the degree of abstraction.

たとえば、テーブル10Aでは、抽象度の高い「仕様書」が多く出現している。このため、会話分析装置は、会議Aの会話内容の抽象度が高いと判定する。「会話内容の抽象度が高い」ということは、会議で具体的な点が議論されておらず、抽象的な議論しかなされていないことを意味する。 For example, in table 10A, many "specifications" with a high degree of abstraction appear. Therefore, the conversation analysis device determines that the content of the conversation of the meeting A has a high degree of abstraction. "A high degree of abstraction in the content of the conversation" means that no specific points were discussed at the meeting, and only abstract discussions were held.

会話分析装置は、会話の状態の判定結果と、会話内容の抽象度の判定結果とを基にして、会議Aの会話対象のリスクを評価する。上記のように、会話の状態が悪く、かつ、会話内容の抽象度が高いため、会議Aにおける会話対象に関しては、意識合わせが求められ、解決しにくいと言える。このため、会話分析装置は、会議Aの会話対象のリスクが「大」であると評価する。 The conversation analysis device evaluates the risk of the conversation target of the meeting A based on the determination result of the conversation state and the determination result of the abstraction level of the conversation content. As described above, since the state of the conversation is bad and the content of the conversation is highly abstract, it can be said that it is difficult to solve the problem because it is necessary to match the conversation target in the meeting A. Therefore, the conversation analysis device evaluates that the risk of the conversation target of meeting A is "high".

次に、会話分析装置は、テーブル10Bを基にして、会議Bの会話対象のリスクを評価する場合について説明する。テーブル10Bは、会議Bで発声された単語と、回数との関係を示すテーブルである。 Next, a case will be described where the conversation analysis device evaluates the risk of the conversation target of the meeting B based on the table 10B. Table 10B is a table showing the relationship between words uttered in meeting B and the number of times.

会話分析装置は、テーブル10Bの各単語のうち、設定キーワードに対応する単語を特定し、特定した設定キーワードに対応する単語の出現回数を基にして、「会議の状態」の良し悪しを判定する。たとえば、会話分析装置は、テーブル10Bのうち、設定キーワードに対応する単語の出現回数「16」が閾値「10」以上となるため、会議Bの状態が悪いと判定する。 The conversation analysis device identifies the words corresponding to the setting keywords from among the words in the table 10B, and determines whether the "state of the meeting" is good or bad based on the number of appearances of the words corresponding to the identified setting keywords. . For example, in the table 10B, the conversation analysis device determines that the state of the meeting B is bad because the number of occurrences "16" of the word corresponding to the set keyword is equal to or greater than the threshold "10".

続いて、会話分析装置は、テーブル10Bの各単語の抽象度を基にして「会話内容の抽象度」を判定する。たとえば、テーブル10Bでは、抽象度の低い「文字コード」が多く出現している。このため、会話分析装置は、会議Bの会話内容の抽象度が低いと判定する。「会話内容の抽象度が低い」ということは、会議で具体的な点が議論されていることを意味する。 Subsequently, the conversation analysis device determines the "abstractness level of conversation content" based on the abstraction level of each word in table 10B. For example, in table 10B, many "character codes" with a low degree of abstraction appear. Therefore, the conversation analysis device determines that the abstraction level of the content of the conversation of the meeting B is low. "The level of abstraction in the content of the conversation is low" means that concrete points are being discussed at the meeting.

会話分析装置は、会話の状態の判定結果と、会話内容の抽象度の判定結果とを基にして、会議Bの会話対象のリスクを評価する。上記のように、会話の状態は悪いが、会話内容の抽象度が低いため、会議Bにおける会話対象に関しては、論点が明確で意思疎通しやすく解決に結びつきやすいといえる。このため、会話分析装置は、会議Bの会話対象のリスクが「小」であると評価する。 The conversation analysis device evaluates the risk of the conversation target of the meeting B based on the determination result of the conversation state and the determination result of the abstraction level of the conversation content. As described above, the state of the conversation is bad, but the abstraction of the content of the conversation is low. Therefore, it can be said that the conversation target in the meeting B has clear points, is easy to communicate with, and is easy to reach a solution. Therefore, the conversation analysis device evaluates that the risk of the conversation target of the meeting B is "small".

上記のように、本実施例1に係る会話分析装置は、設定キーワードの出現回数に基づく会議の状態の良し悪しに加えて、会議内容の抽象度を用いて、会話対象のリスクを評価している。たとえば、設定キーワードの出現回数だけでは、会議A、会議Bともにリスクが大であると判定してしまう場合があるが、抽象度に鑑みると、会議Bは抽象度が低いため、具体的な議論が行われており、リスクは小さいと判定することができる。すなわち、会話の対象としてのリスクの程度を適切に評価することができる。 As described above, the conversation analysis apparatus according to the first embodiment evaluates the risk of the conversation target using the degree of abstraction of the content of the conference, in addition to whether the state of the conference is good or bad based on the number of appearances of set keywords. there is For example, based only on the number of appearances of the set keyword, it may be determined that both meeting A and meeting B have a high risk. has been carried out and the risk can be determined to be small. That is, it is possible to appropriately evaluate the degree of risk as a conversation target.

次に、本実施例1に係る会話分析装置の構成の一例について説明する。図2は、本実施例1に係る会話分析装置の構成を示す機能ブロック図である。図2に示すように、この会話分析装置100は、第1判定部110と、音声認識部120と、第2判定部130と、評価部140とを有する。 Next, an example of the configuration of the conversation analysis device according to the first embodiment will be explained. FIG. 2 is a functional block diagram showing the configuration of the conversation analysis device according to the first embodiment. As shown in FIG. 2 , this conversation analysis device 100 has a first determination section 110 , a speech recognition section 120 , a second determination section 130 and an evaluation section 140 .

記憶部105は、リスク評価値テーブル105aと、抽象度判定テーブル105bとを有する。記憶部105は、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ(Flash Memory)などの半導体メモリ素子や、HDD(Hard Disk Drive)などの記憶装置に対応する。 The storage unit 105 has a risk evaluation value table 105a and an abstraction degree determination table 105b. The storage unit 105 corresponds to semiconductor memory devices such as RAM (Random Access Memory), ROM (Read Only Memory), flash memory, and storage devices such as HDD (Hard Disk Drive).

図3は、本実施例1に係るリスク評価値テーブルのデータ構造の一例を示す図である。図3に示すように、このリスク評価値テーブル105aは、比率と、リスク評価値とを対応付ける。比率は、後述する第1判定部110により算出されるものである。リスク評価値は、会議の状態の悪さの程度を示す値であり、リスク評価値が大きいほど、会議の状態が悪いことを示す。 FIG. 3 is a diagram showing an example of the data structure of the risk evaluation value table according to the first embodiment. As shown in FIG. 3, this risk evaluation value table 105a associates ratios with risk evaluation values. The ratio is calculated by the first determination unit 110, which will be described later. The risk evaluation value is a value indicating how bad the state of the conference is, and the larger the risk evaluation value, the worse the state of the conference.

図4は、本実施例1に係る抽象度判定テーブルのデータ構造の一例を示す図である。図4に示すように、抽象度判定テーブル105bは、単語と、抽象度とを対応付ける。抽象度は、単語の抽象度の程度を示す値であり、抽象度が大きいほど、単語がより抽象的であることを示す。たとえば、単語の抽象度は、概念DB(Data Base)に基づいて決定される。 FIG. 4 is a diagram illustrating an example of the data structure of the abstraction degree determination table according to the first embodiment. As shown in FIG. 4, the abstraction degree determination table 105b associates words with abstraction degrees. The degree of abstraction is a value indicating the degree of abstraction of a word, and the higher the degree of abstraction, the more abstract the word. For example, the degree of abstraction of a word is determined based on a concept DB (Data Base).

図5は、概念DBの一例を示す図である。概念DB50において、各単語が概念木構造で定義され、概念階層が高いほど、抽象度が高くなる。概念階層「1」が最も高い階層であり、概念階層2、3、4、・・・、9の順に、階層は低くなる。 FIG. 5 is a diagram illustrating an example of a concept DB; In the concept DB 50, each word is defined in a concept tree structure, and the higher the concept hierarchy, the higher the level of abstraction. Concept hierarchy "1" is the highest hierarchy, and concept hierarchy 2, 3, 4, .

図5において、単語「事象」、「行為」の概念階層は「1」であり、抽象度は「9」となる。単語「要求仕様」の概念階層は「5」であり、抽象度は「5」となる。単語「会員」の概念階層は「6」であり、抽象度は「4」となる。単語「ID」の概念階層は「7」であり、抽象度は「3」となる。単語「ユニバーサルデザイン」の階層は「9」であり、抽象度は「1」となる。 In FIG. 5, the concept hierarchy of the words "phenomenon" and "action" is "1", and the abstraction level is "9". The concept hierarchy of the word "requirement specification" is "5", and the abstraction level is "5". The concept hierarchy of the word "member" is "6", and the abstraction level is "4". The concept hierarchy of the word "ID" is "7" and the abstraction level is "3". The word "universal design" has a hierarchy of "9" and an abstraction level of "1".

たとえば、単語「要求仕様」は、概念DB50の「要求仕様」にヒットするため、単語「要求仕様」の抽象度は「5」となる。単語「ユニバーサルデザイン」は、概念DB50の「ユニバーサルデザイン」にヒットするため、単語「ユニバーサルデザイン」の抽象度は「1」となる。 For example, since the word "required specification" hits "required specification" in the concept DB 50, the abstraction level of the word "required specification" is "5". Since the word "universal design" hits "universal design" in the concept DB 50, the abstraction level of the word "universal design" is "1".

なお、単語が複合語の場合には、複合語に含まれる複数の単語のうち、概念階層の最も低い単語を特定し、特定した単語の概念階層に1を加算した概念階層を、複合語の概念階層とする。たとえば、単語(複合語)「会員ID」は、概念DB50の「会員」と「ID」とにヒットする。概念DBの「会員」の概念階層「6」と「ID」の概念階層「7」のうち、低い方の概念階層「7」に1を加算した概念階層「8」を、単語「会員ID」の概念階層として特定し、特定した概念階層「8」の抽象度「2」を、単語「会員ID」の抽象度として特定する。 If the word is a compound word, the word with the lowest concept hierarchy is identified among the multiple words included in the compound word, and the concept hierarchy obtained by adding 1 to the concept hierarchy of the identified word is calculated as the compound word. A conceptual hierarchy. For example, the word (compound word) “member ID” hits “member” and “ID” in the concept DB 50 . In the concept DB, between the concept hierarchy "6" of "member" and the concept hierarchy "7" of "ID", the concept hierarchy "8" obtained by adding 1 to the lower concept hierarchy "7" is defined as the word "member ID". , and the abstraction level "2" of the specified concept hierarchy "8" is specified as the abstraction level of the word "member ID".

図2の説明に戻る。図2の各処理部110,120,130,140は、CPU(Central Processing Unit)やMPU(Micro Processing Unit)などによって実現できる。また、各処理部110~140は、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)などのハードワイヤードロジックによっても実現できる。 Returning to the description of FIG. Each processing unit 110, 120, 130, 140 in FIG. 2 can be implemented by a CPU (Central Processing Unit), an MPU (Micro Processing Unit), or the like. Each of the processing units 110 to 140 can also be implemented by hardwired logic such as ASIC (Application Specific Integrated Circuit) and FPGA (Field Programmable Gate Array).

会話分析装置100は、会話音声データ20を図示しない外部装置から取得する。会話音声データ20は、会議の会話を録音した音声データであり、たとえば、時間と音声のパワーとを対応付ける。 Conversation analysis device 100 acquires conversation voice data 20 from an external device (not shown). Conversation audio data 20 is audio data obtained by recording conference conversations, and for example, associates time with audio power.

第1判定部110は、会話音声データ20を分析して、会話の状態を判定する処理部である。たとえば、第1判定部110は、会話音声データ20の音声のパワーを走査して、音声のパワーが閾値Thp以上となる区間を、それぞれ発話区間として特定する。 The first determination unit 110 is a processing unit that analyzes the conversation voice data 20 and determines the state of conversation. For example, the first determination unit 110 scans the voice power of the conversation voice data 20, and identifies sections in which the voice power is equal to or greater than the threshold Thp as utterance sections.

第1判定部110は、会話音声データ20から特定する複数の発話区間のうち、最初の発話区間の開始時刻から、最後の発話区間の終了時刻までの時間を「会議時間」として算出する。 The first determination unit 110 calculates the time from the start time of the first utterance period to the end time of the last utterance period among the plurality of utterance periods specified from the conversation voice data 20 as the "meeting time".

第1判定部110は、複数の発話区間の長さを比較して、最長の発話区間を特定する。第1判定部110は、式(1)を基にして、会議時間に対する最長の発話区間の比率を算出する。 First determination unit 110 compares the lengths of a plurality of speech segments to identify the longest speech segment. The first determination unit 110 calculates the ratio of the longest speech period to the meeting time based on Equation (1).

比率=最長の発話区間/会議時間×100(%)・・・(1) Ratio=Longest utterance segment/meeting time×100(%) (1)

第1判定部110は、式(1)に基づいて算出した比率と、リスク評価値テーブル105aとを比較して、リスク評価値を判定する。リスク評価値は、会話の状態の一例である。第1判定部110は、リスク評価値の判定結果を、評価部140に出力する。 The first determination unit 110 determines the risk evaluation value by comparing the ratio calculated based on the formula (1) and the risk evaluation value table 105a. A risk rating value is an example of a conversation state. First determination unit 110 outputs the determination result of the risk evaluation value to evaluation unit 140 .

なお、本実施例1で説明する第1判定部110は、式(1)を基にして、リスク評価値を判定する場合について説明したが、図1で説明したように、設定キーワードの出現回数に基づいて、会話の状態を判定してもよい。たとえば、第1判定部110は、音声認識部120の音声認識結果に含まれる全単語の出現回数の総数に対する設定キーワードの出現回数の比率を算出し、算出した比率と、リスク評価値テーブル105aとを基にして、リスク評価値を判定してもよい。 Note that the first determination unit 110 described in the first embodiment has described the case of determining the risk evaluation value based on the equation (1), but as described with reference to FIG. , the state of the conversation may be determined. For example, the first determination unit 110 calculates the ratio of the number of appearances of the set keyword to the total number of appearances of all words included in the speech recognition result of the speech recognition unit 120, and the calculated ratio and the risk evaluation value table 105a. may be used to determine the risk evaluation value.

音声認識部120は、会話音声データ20を音声解析し、発声された単語を抽出する処理部である。音声認識部120は、抽出した各単語の情報を、第2判定部130に出力する。音声認識部120は、どのような音声認識技術を利用してもよい。たとえば、会話音声データ20に含まれる声の特徴を基にして、話し言葉を文字列に変換し、単語を定義した辞書情報を基にして、単語を抽出する。 The voice recognition unit 120 is a processing unit that analyzes the conversation voice data 20 and extracts uttered words. The speech recognition unit 120 outputs the extracted information of each word to the second determination unit 130 . The speech recognition unit 120 may use any speech recognition technology. For example, based on the features of the voice contained in the conversation voice data 20, the spoken words are converted into character strings, and the words are extracted based on the dictionary information that defines the words.

第2判定部130は、音声認識部120の音声認識結果と、抽象度判定テーブル105bとを基にして、会話内容の抽象度を判定する処理部である。第2判定部130は、判定した会話内容の抽象度の情報を、評価部140に出力する。 The second determination unit 130 is a processing unit that determines the degree of abstraction of conversation content based on the speech recognition result of the speech recognition unit 120 and the abstraction degree determination table 105b. Second determination unit 130 outputs information about the abstraction level of the determined conversation content to evaluation unit 140 .

たとえば、第2判定部130は、音声認識結果に含まれる複数の単語と、抽象度判定テーブル105bとを比較して、抽象度判定テーブル105bに登録された各単語について、単語毎の出現回数をカウントする。 For example, the second determination unit 130 compares a plurality of words included in the speech recognition result with the abstraction level determination table 105b, and calculates the number of appearances of each word registered in the abstraction level determination table 105b. count.

図6は、本実施例1に係る第2判定部の処理を説明するための図である。図6に示す例では、単語「要求仕様」の出現回数が「6」、単語「会員ID」の出現回数が「1」、単語「出力メッセージ」の出現回数が「1」である。単語「要求仕様」の抽象度が「10」、単語「会員ID」の抽象度が「2」、単語「出力メッセージ」の抽象度が「4」であるため、抽象度の合計は「66」となる。また、各単語の抽象度の平均は「8.25」となる。第2判定部130は、この抽象度の平均を、判定結果の抽象度の情報として、評価部140に出力する。 FIG. 6 is a diagram for explaining the processing of the second determination unit according to the first embodiment; In the example shown in FIG. 6, the number of appearances of the word "required specification" is "6", the number of appearances of the word "member ID" is "1", and the number of appearances of the word "output message" is "1". Since the abstraction level of the word "required specification" is "10", the abstraction level of the word "member ID" is "2", and the abstraction level of the word "output message" is "4", the total abstraction level is "66". becomes. Also, the average abstraction level of each word is "8.25". The second determination unit 130 outputs the average abstraction degree to the evaluation unit 140 as the abstraction degree information of the determination result.

評価部140は、第1判定部110から出力される会話の状態(リスク評価値)と、第2判定部130から出力される抽象度とを基にして、会話音声データ20に含まれる会話対象のリスクを評価する処理部である。 The evaluation unit 140 selects conversation objects included in the conversation voice data 20 based on the state of conversation (risk evaluation value) output from the first determination unit 110 and the degree of abstraction output from the second determination unit 130. is a processing unit that evaluates the risk of

たとえば、評価部140は、リスク評価値と、抽象度とを乗算した値が、基準評価値以上である場合、会話対象のリスクが「リスク大」であると評価する。一方、評価部140は、リスク評価値と、抽象度とを乗算した値が、基準評価値未満である場合、会話対象のリスクが「リスク小」であると評価する。 For example, when the value obtained by multiplying the risk evaluation value by the degree of abstraction is equal to or greater than the reference evaluation value, evaluation unit 140 evaluates the risk of the conversation target as "high risk". On the other hand, when the value obtained by multiplying the risk evaluation value by the degree of abstraction is less than the reference evaluation value, the evaluation unit 140 evaluates the risk of the conversation target as "low risk".

評価部140は、評価結果を図示しない表示装置に出力して表示させてもよいし、ネットワークを介して図示しない外部装置に評価結果を通知してもよい。 The evaluation unit 140 may output and display the evaluation result on a display device (not shown), or may notify an external device (not shown) of the evaluation result via a network.

次に、本実施例1に係る会話分析装置100の処理手順の一例について説明する。図7は、本実施例1に係る会話分析装置の処理手順を示すフローチャートである。図7に示すように、会話分析装置100は、会話音声データ20を取得する(ステップS101)。 Next, an example of the processing procedure of the conversation analysis device 100 according to the first embodiment will be explained. FIG. 7 is a flow chart showing the processing procedure of the conversation analysis device according to the first embodiment. As shown in FIG. 7, conversation analysis device 100 acquires conversation voice data 20 (step S101).

会話分析装置100の第1判定部110は、会議時間に対する最長の発話時間の比率と、リスク評価値テーブル105aとを基にして、会話の状態(リスク評価値)を判定する(ステップS102)。 The first determination unit 110 of the conversation analysis device 100 determines the conversation state (risk evaluation value) based on the ratio of the longest speech time to the meeting time and the risk evaluation value table 105a (step S102).

会話分析装置100の音声認識部120は、会話音声データ20に対して音声認識を実行し、発声された単語を抽出する(ステップS103)。会話分析装置100の第2判定部130は、発声された単語と、抽象度判定テーブル105bとを基にして、会話内容の抽象度を判定する(ステップS104)。 The speech recognition unit 120 of the conversation analysis device 100 performs speech recognition on the conversation speech data 20 and extracts uttered words (step S103). Second determination unit 130 of conversation analysis device 100 determines the abstraction level of the conversation content based on the uttered words and abstraction level determination table 105b (step S104).

会話分析装置100の評価部140は、会話の状態(リスク評価値)および会話内容の抽象度を基にして、会話対象のリスクを総合的に評価する(ステップS105)。評価部140は、評価結果を通知する(ステップS106)。 Evaluation unit 140 of conversation analysis device 100 comprehensively evaluates the risk of the conversation target based on the state of conversation (risk evaluation value) and the degree of abstraction of the content of the conversation (step S105). The evaluation unit 140 notifies the evaluation result (step S106).

次に、本実施例1に係る会話分析装置100の効果について説明する。会話分析装置100は、第1判定部110によって判定される会議の状態に加えて、会議内容の抽象度を用いて、会話対象のリスクを評価している。これによって、会話の対象としてのリスクの程度を適切に評価することができる。 Next, the effects of the conversation analysis device 100 according to the first embodiment will be explained. Conversation analysis device 100 evaluates the risk of conversation targets using the degree of abstraction of the content of the conference in addition to the state of the conference determined by first determination unit 110 . This makes it possible to appropriately evaluate the degree of risk as a conversation target.

ここで、発明の効果の補足として、リスクの大小と、単語の出現頻度との関係について説明する。図8は、発明の効果を補足するための図である。たとえば、単語「中止処理」は、関連文書30a,30b,30cの様々な箇所で出現しており、出現頻度が高く、抽象度が高いと言える。抽象度が高いと、改善すべき点の範囲が広く、リスクは大きいと考えられる。抽象度が高いと、具体性にかけ、「中止処理が具体的に何の中止処理になのか」誤解のリスクもある。 Here, as a supplement to the effects of the invention, the relationship between the degree of risk and the appearance frequency of words will be described. FIG. 8 is a diagram for supplementing the effects of the invention. For example, the word "stop processing" appears in various places in the related documents 30a, 30b, and 30c, and can be said to have a high appearance frequency and a high degree of abstraction. If the level of abstraction is high, the range of points to be improved is wide, and the risk is considered to be high. If the level of abstraction is high, there is a risk of misunderstanding of "what is the cancellation process specifically for?"

単語「文字コード」は、関連文書30a,30b,30cのうち、特定の関連文書30cにのみ出現しており、出現頻度が低く、抽象度が低いと言える。抽象度が低いと、改善すべき点の範囲が限定的であり、リスクは小さいと考えられる。 The word "character code" appears only in the specific related document 30c among the related documents 30a, 30b, and 30c, and it can be said that the frequency of occurrence is low and the degree of abstraction is low. If the level of abstraction is low, the range of points to be improved is limited and the risks are considered small.

図8で説明したように、リスク評価値の大きい(会話の状態が悪い)会話の内容の議論の中心が、抽象度の高い単語であれば、リスクの程度も大きいと推定できる。 As described with reference to FIG. 8, if the content of conversation with a high risk evaluation value (bad state of conversation) is centered on highly abstract words, it can be estimated that the degree of risk is also high.

ところで、本実施例1に係る会話分析装置100の第2判定部130は、概念DB50を基に生成された抽象度判定テーブル105bを基にして、単語の抽象度を特定していたがこれに限定されるものではない。第2判定部130は、単語(あるいは複合語)と、概念DB50とを直接比較して、単語(あるいは複合語)に対応する抽象度を特定してもよい。 By the way, the second determination unit 130 of the conversation analysis device 100 according to the first embodiment specifies the abstraction level of words based on the abstraction level determination table 105b generated based on the concept DB 50. It is not limited. The second determination unit 130 may directly compare the word (or compound word) with the concept DB 50 to identify the abstraction level corresponding to the word (or compound word).

図9は、本実施例2に係る会話分析装置の構成を示す機能ブロック図である。図9に示すように、会話分析装置200は、記憶部205と、音声認識部210と、第1判定部220と、第2判定部230と、評価部240と、生成部250とを有する。 FIG. 9 is a functional block diagram showing the configuration of the conversation analysis device according to the second embodiment. As shown in FIG. 9 , conversation analysis device 200 has storage unit 205 , speech recognition unit 210 , first determination unit 220 , second determination unit 230 , evaluation unit 240 , and generation unit 250 .

記憶部205は、設定キーワードテーブル205aと、リスク評価値テーブル205bと、抽象度判定テーブル205cとを有する。記憶部205は、RAM、ROM、フラッシュメモリなどの半導体メモリ素子や、HDDなどの記憶装置に対応する。 The storage unit 205 has a setting keyword table 205a, a risk evaluation value table 205b, and an abstraction degree determination table 205c. The storage unit 205 corresponds to semiconductor memory elements such as RAM, ROM, flash memory, and storage devices such as HDD.

設定キーワードテーブル205aは、会話の状態を判定するための抽出対象となる設定キーワードを定義するテーブルである。図10は、本実施例2に係る設定キーワードテーブルのデータ構造の一例を示す図である。図10に示すように、この設定キーワードテーブル205aには、各種の設定キーワードが登録される。 The setting keyword table 205a is a table that defines setting keywords to be extracted for determining the conversation state. FIG. 10 is a diagram showing an example of the data structure of the setting keyword table according to the second embodiment. As shown in FIG. 10, various setting keywords are registered in this setting keyword table 205a.

図11は、本実施例2に係るリスク評価値テーブルのデータ構造の一例を示す図である。図11に示すように、このリスク評価値テーブル205bは、出現回数と、リスク評価値とを対応付ける。出現回数は、会話音声データ20の音声認識結果に含まれる単語のうち、設定キーワードの出現回数を示すものである。リスク評価値は、会議の状態の悪さの程度を示す値であり、リスク評価値が大きいほど、会議の状態が悪いことを示す。 FIG. 11 is a diagram showing an example of the data structure of the risk evaluation value table according to the second embodiment. As shown in FIG. 11, this risk evaluation value table 205b associates the number of occurrences with risk evaluation values. The number of appearances indicates the number of appearances of the set keyword among the words included in the speech recognition result of the conversational speech data 20 . The risk evaluation value is a value indicating how bad the state of the conference is, and the larger the risk evaluation value, the worse the state of the conference.

たとえば、出現回数が「Na以上、Nb未満」の場合、リスク評価値は「0」となる。出現回数が「Nb以上、Nc未満」の場合、リスク評価値は「1」となる。出現回数が「Nc以上」の場合、リスク評価値は「2」となる。ここで、Na、Nb、Ncの値は、予め設定される値であり、大小関係をNa<Nb<Ncとする。なお、2つの閾値Na、Nbを用いて、リスク評価値を特定してもよい。たとえば、Na未満の場合に、リスク評価値を「0」とし、Na以上、Nb未満の場合に、リスク評価値を「1」とし、Nb以上の場合にリスク評価値「2」としてもよい。 For example, when the number of appearances is "more than or equal to Na and less than Nb", the risk evaluation value is "0". When the number of occurrences is "Nb or more and less than Nc", the risk evaluation value is "1". When the number of appearances is "Nc or more", the risk evaluation value is "2". Here, the values of Na, Nb, and Nc are preset values, and the magnitude relationship is Na<Nb<Nc. Note that the risk evaluation value may be specified using two threshold values Na and Nb. For example, the risk evaluation value may be set to "0" when less than Na, "1" when more than Na and less than Nb, and "2" when more than Nb.

抽象度判定テーブル205cは、単語と抽象度とを対応付けるテーブルである。抽象度判定テーブル205cのデータ構造は、図4で説明した抽象度判定テーブル105bのデータ構造と同様である。 The abstraction degree determination table 205c is a table that associates words with abstraction degrees. The data structure of the abstraction level determination table 205c is the same as the data structure of the abstraction level determination table 105b described with reference to FIG.

図9の説明に戻る。図9の各処理部210,220,230,240は、CPUやMPUなどによって実現できる。また、各処理部210~240は、ASICやFPGAなどのハードワイヤードロジックによっても実現できる。 Returning to the description of FIG. Each processing unit 210, 220, 230, 240 in FIG. 9 can be implemented by a CPU, MPU, or the like. Moreover, each of the processing units 210 to 240 can also be realized by hardwired logic such as ASIC and FPGA.

会話分析装置200は、会話音声データ20を図示しない外部装置から取得する。会話音声データ20は、会議の会話を録音した音声データであり、たとえば、時間と音声のパワーとを対応付ける。 Conversation analysis device 200 acquires conversation voice data 20 from an external device (not shown). Conversation audio data 20 is audio data obtained by recording conference conversations, and for example, associates time with audio power.

音声認識部210は、会話音声データ20を音声解析し、発声された単語を抽出する処理部である。音声認識部210は、抽出した各単語の情報を、第1判定部220および第2判定部230に出力する。音声認識部210は、どのような音声認識技術を利用してもよい。たとえば、会話音声データ20に含まれる声の特徴を基にして、話し言葉を文字列に変換し、単語を定義した辞書情報を基にして、単語を抽出する。 The voice recognition unit 210 is a processing unit that analyzes the conversation voice data 20 and extracts uttered words. Speech recognition section 210 outputs the extracted information of each word to first determination section 220 and second determination section 230 . The speech recognizer 210 may use any speech recognition technology. For example, based on the features of the voice contained in the conversation voice data 20, the spoken words are converted into character strings, and the words are extracted based on the dictionary information that defines the words.

第1判定部220は、会話音声データ20の音声認識結果を基にして、会話の状態を判定する処理部である。たとえば、第1判定部220は、音声認識部210の音声認識結果と、設定キーワードテーブル205aとを基にして、音声認識結果の各単語のうち、設定キーワードの出現回数をカウントする。第1判定部220は、カウントした出現回数と、リスク評価値テーブル205bとを比較して、リスク評価値(会話の状態)を判定する。第1判定部220は、判定結果となる会話の状態を、評価部240に出力する。 The first determination unit 220 is a processing unit that determines the conversation state based on the speech recognition result of the conversation speech data 20 . For example, the first determination unit 220 counts the number of occurrences of the setting keyword among the words of the speech recognition result based on the speech recognition result of the speech recognition unit 210 and the setting keyword table 205a. The first determination unit 220 compares the counted number of occurrences with the risk evaluation value table 205b to determine the risk evaluation value (conversation state). The first determination unit 220 outputs the state of conversation as a determination result to the evaluation unit 240 .

第2判定部230は、音声認識部210の音声認識結果と、抽象度判定テーブル205cとを基にして、会話内容の抽象度を判定する処理部である。第2判定部230は、判定した会話内容の抽象度の情報を、評価部240に出力する。第2判定部230が、会話内容の抽象度を判定する処理は、実施例1で説明した第2判定部130が、会話内容の抽象度を判定する処理と同様である。 The second determination unit 230 is a processing unit that determines the degree of abstraction of conversation content based on the speech recognition result of the speech recognition unit 210 and the abstraction degree determination table 205c. Second determination unit 230 outputs information about the abstraction level of the determined conversation content to evaluation unit 240 . The process by which the second determination unit 230 determines the abstraction level of the conversation content is the same as the process by which the second determination unit 130 described in the first embodiment determines the abstraction level of the conversation content.

評価部240は、第1判定部220から出力される会話の状態(リスク評価値)と、第2判定部230から出力される抽象度とを基にして、会話音声データ20に含まれる会話対象のリスクを評価する処理部である。評価部240がリスクを評価する処理は、評価部140がリスクを評価する処理と同様である。 The evaluation unit 240 selects conversation objects included in the conversation voice data 20 based on the state of conversation (risk evaluation value) output from the first determination unit 220 and the degree of abstraction output from the second determination unit 230. is a processing unit that evaluates the risk of The process of evaluating the risk by the evaluation unit 240 is the same as the process of evaluating the risk by the evaluation unit 140 .

生成部250は、言語コーパス25を取得し、抽象度判定テーブル205cを生成する処理部である。言語コーパス25は、会話対象に関する言語コーパスとする。たとえば、会話対象が会議に関するものであれば、言語コーパス25は、会議に関する言語コーパスとなる。 The generation unit 250 is a processing unit that acquires the language corpus 25 and generates the abstraction degree determination table 205c. The linguistic corpus 25 is a linguistic corpus relating to conversation objects. For example, if the object of conversation is related to a meeting, the language corpus 25 will be a language corpus related to the meeting.

生成部250は、言語コーパス25を形態素解析し、各形態素(以下、単語)の出現頻度を集計する。生成部250は、単語の出現頻度を基にして、抽象度判定テーブル205cの各単語に対する抽象度を算出する。 The generating unit 250 morphologically analyzes the language corpus 25 and counts the appearance frequency of each morpheme (hereinafter referred to as a word). The generation unit 250 calculates the abstraction level for each word in the abstraction level determination table 205c based on the word appearance frequency.

図12は、本実施例2に係る生成部の処理を説明するための図である。図12のテーブル10Cは、単語と、言語コーパス25での単語の出現頻度とを対応付けるテーブルである。生成部250は、式(2)を基にして、各単語の抽象度を算出してもよいし、出現頻度が低い順の順位を抽象度として算出してもよい。 FIG. 12 is a diagram for explaining processing of a generating unit according to the second embodiment; A table 10C in FIG. 12 is a table that associates words with the appearance frequencies of words in the language corpus 25 . The generation unit 250 may calculate the abstraction level of each word based on the expression (2), or may calculate the order of appearance frequency as the abstraction level.

抽象度=log(出現頻度)×2・・・(2) Abstraction level = log (appearance frequency) x 2 (2)

たとえば、式(2)を基にして算出した各単語の抽象度を、第1抽象度と表記する。出現頻度の順位を基にして算出した各単語の抽象度を、第2抽象度と表記する。生成部250は、第1抽象度または第2抽象度のいずれか一方の抽象度を、抽象度判定テーブル205cに登録する。 For example, the abstraction level of each word calculated based on Equation (2) is referred to as a first abstraction level. The degree of abstraction of each word calculated based on the order of frequency of appearance is referred to as a second degree of abstraction. The generation unit 250 registers one of the first abstraction level and the second abstraction level in the abstraction level determination table 205c.

次に、本実施例2に係る会話分析装置200の処理手順の一例について説明する。図13は、本実施例2に係る会話分析装置の処理手順を示すフローチャートである。図13に示すように、会話分析装置200は、会話音声データ20を取得する(ステップS201)。会話分析装置200は、会話音声データ20に対して音声認識を実行し、発声された単語を抽出する(ステップS202)。 Next, an example of the processing procedure of the conversation analysis device 200 according to the second embodiment will be explained. FIG. 13 is a flow chart showing the processing procedure of the conversation analysis device according to the second embodiment. As shown in FIG. 13, conversation analysis device 200 acquires conversation voice data 20 (step S201). Conversation analysis device 200 performs speech recognition on conversation speech data 20 and extracts uttered words (step S202).

会話分析装置200の第1判定部220は、発声された単語を基にして、設定キーワードの出現回数をカウントし、音声の状態(リスク評価値)を判定する(ステップS203)。 The first determination unit 220 of the conversation analysis device 200 counts the number of appearances of the set keyword based on the uttered words, and determines the voice state (risk evaluation value) (step S203).

会話分析装置200の第2判定部230は、発声された単語と、抽象度判定テーブル205cとを基にして、会話内容の抽象度を判定する(ステップS204)。 Second determination unit 230 of conversation analysis device 200 determines the abstraction level of the conversation content based on the uttered words and abstraction level determination table 205c (step S204).

会話分析装置200の評価部240は、会話の状態(リスク評価値)および会話内容の抽象度を基にして、会話対象のリスクを総合的に評価する(ステップS205)。評価部240は、評価結果を通知する(ステップS206)。 The evaluation unit 240 of the conversation analysis device 200 comprehensively evaluates the risk of the conversation target based on the state of conversation (risk evaluation value) and the degree of abstraction of the content of the conversation (step S205). The evaluation unit 240 notifies the evaluation result (step S206).

次に、本実施例2に係る会話分析装置200の効果について説明する。会話分析装置100は、第1判定部110によって判定される、設定キーワードの出現回数に基づく会議の状態に加えて、会議内容の抽象度を用いて、会話対象のリスクを評価している。これによって、会話の対象としてのリスクの程度を適切に評価することができる。 Next, the effects of the conversation analysis device 200 according to the second embodiment will be explained. Conversation analysis device 100 evaluates the risk of a conversation target using the degree of abstraction of the content of the conference, in addition to the state of the conference based on the number of appearances of the set keyword determined by first determination unit 110 . This makes it possible to appropriately evaluate the degree of risk as a conversation target.

図14は、本実施例3に係る会話分析装置の構成の一例を示す機能ブロック図である。図14に示すように、この会話分析装置300は、記憶部305と、第1判定部310と、抽出部320と、音声認識部330と、第2判定部340と、評価部350とを有する。 FIG. 14 is a functional block diagram showing an example of the configuration of the conversation analysis device according to the third embodiment. As shown in FIG. 14, this conversation analysis device 300 has a storage unit 305, a first determination unit 310, an extraction unit 320, a speech recognition unit 330, a second determination unit 340, and an evaluation unit 350. .

記憶部305は、リスク評価値テーブル305aと、抽象度判定テーブル305bとを有する。記憶部305は、RAM、ROM、フラッシュメモリなどの半導体メモリ素子や、HDDなどの記憶装置に対応する。 The storage unit 305 has a risk evaluation value table 305a and an abstraction degree determination table 305b. The storage unit 305 corresponds to semiconductor memory elements such as RAM, ROM, flash memory, and storage devices such as HDD.

リスク評価値テーブル305aは、比率と、リスク評価値とを対応付けるテーブルである。比率およびリスク評価値に関する説明は、実施例1のリスク評価値テーブル105aで行った説明と同様である。リスク評価値テーブル305aのデータ構造は、図3で説明したリスク評価値テーブル105aのデータ構造と同様である。 The risk evaluation value table 305a is a table that associates ratios with risk evaluation values. The explanation about the ratio and the risk evaluation value is the same as the explanation given in the risk evaluation value table 105a of the first embodiment. The data structure of the risk evaluation value table 305a is the same as the data structure of the risk evaluation value table 105a described with reference to FIG.

抽象度判定テーブル305bは、単語と、抽象度とを対応付けるテーブルである。抽象度に関する説明は、実施例1の抽象度判定テーブル105bで行った説明と同様である。抽象度判定テーブル305bのデータ構造は、図4で説明した抽象度判定テーブル305bのデータ構造と同様である。 The abstraction degree determination table 305b is a table that associates words with abstraction degrees. The description of the abstraction level is the same as the description given in the abstraction level determination table 105b of the first embodiment. The data structure of the abstraction degree determination table 305b is the same as the data structure of the abstraction degree determination table 305b described with reference to FIG.

会話分析装置300は、会話音声データ20を図示しない外部装置から取得する。会話音声データ20は、会議の会話を録音した音声データであり、たとえば、時間と音声のパワーとを対応付ける。 Conversation analysis device 300 acquires conversation voice data 20 from an external device (not shown). Conversation audio data 20 is audio data obtained by recording conference conversations, and for example, associates time with audio power.

第1判定部310は、会話音声データ20を分析して、会話の状態を判定する処理部である。第1判定部310は、第1判定部110と同様にして、会議時間に対する最長の発話区間の比率を算出する。第1判定部310は、算出した比率と、リスク評価値テーブル305aとを比較して、リスク評価値を判定する。第1判定部110は、リスク評価値(会話の状態)の判定結果を、評価部350に出力する。 The first determination unit 310 is a processing unit that analyzes the conversation voice data 20 and determines the state of conversation. First determination unit 310 calculates the ratio of the longest utterance segment to the conference time in the same manner as first determination unit 110 . The first determination unit 310 compares the calculated ratio with the risk evaluation value table 305a to determine the risk evaluation value. First determination unit 110 outputs the determination result of the risk evaluation value (conversation state) to evaluation unit 350 .

また、第1判定部310は、比率を算出する場合に利用した、「最長の発話区間」の情報を、抽出部320に出力する。 In addition, first determination section 310 outputs to extraction section 320 information on the “longest utterance segment” used when calculating the ratio.

抽出部320は、第1判定部310による会話の状態の判定に寄与した区間を「着目区間」として抽出する処理部である。図15は、本実施例3に係る抽出部の処理を説明するための図である。たとえば、最長の発話区間を、時刻t~時刻tとすると、抽出部320は、時刻t1a~時刻t2aを着目区間として抽出する。時刻t1aは、tよりも所定時間(たとえば、5分間)前の時刻である。時刻t2aは、tよりも所定時間(たとえば、5分間)後の時刻である。抽出部320は、着目区間の情報を、第2判定部340に出力する。 The extraction unit 320 is a processing unit that extracts a section that contributes to the determination of the state of conversation by the first determination unit 310 as a "target section". FIG. 15 is a diagram for explaining the processing of the extraction unit according to the third embodiment; For example, if the longest utterance segment is time t 1 to time t 2 , extraction section 320 extracts time t 1a to time t 2a as the target segment. The time t1a is a time before t1 by a predetermined time (for example, five minutes). Time t2a is a time after a predetermined time (for example, 5 minutes) from t2 . The extraction unit 320 outputs information on the section of interest to the second determination unit 340 .

音声認識部330は、会話音声データ20を音声解析し、発声された単語を抽出する処理部である。音声認識部330は、抽出した各単語の情報を、第2判定部340に出力する。音声認識部330は、どのような音声認識技術を利用してもよい。たとえば、会話音声データ20に含まれる声の特徴を基にして、話し言葉を文字列に変換し、単語を定義した辞書情報を基にして、単語を抽出する。 The voice recognition unit 330 is a processing unit that analyzes the conversation voice data 20 and extracts uttered words. The speech recognition unit 330 outputs the extracted information of each word to the second determination unit 340 . Speech recognizer 330 may use any speech recognition technology. For example, based on the features of the voice contained in the conversation voice data 20, the spoken words are converted into character strings, and the words are extracted based on the dictionary information that defines the words.

第2判定部340は、音声認識部330の音声認識結果の単語のうち、着目区間に発声された単語と、抽象度判定テーブル305bとを基にして、会話内容の抽象度を判定する処理部である。第2判定部340は、判定した会話内容の抽象度の情報を、評価部350に出力する。 The second determination unit 340 is a processing unit that determines the abstraction level of the conversation content based on the words uttered in the interval of interest among the words in the speech recognition result of the voice recognition unit 330 and the abstraction level determination table 305b. is. Second determination unit 340 outputs information about the abstraction level of the determined conversation content to evaluation unit 350 .

たとえば、第2判定部340は、着目区間に含まれる複数の単語と、抽象度判定テーブル305bとを比較して、抽象度判定テーブル305bに登録された各単語について、単語毎の出現回数をカウントする。第2判定部340は、カウントした単語毎の出現回数を基にして、抽象度を判定する。カウントした単語毎の出現回数を基にして、抽象度を判定する処理は、実施例1で説明した第2判定部130の処理と同様である。 For example, the second determination unit 340 compares a plurality of words included in the section of interest with the abstraction level determination table 305b, and counts the number of times each word appears for each word registered in the abstraction level determination table 305b. do. The second determination unit 340 determines the degree of abstraction based on the counted number of appearances of each word. The process of determining the degree of abstraction based on the counted number of appearances of each word is the same as the process of the second determination unit 130 described in the first embodiment.

評価部350は、第1判定部310から出力される会話の状態(リスク評価値)と、第2判定部340から出力される抽象度とを基にして、会話音声データ20に含まれる会話対象のリスクを評価する処理部である。評価部350がリスクを評価する処理は、評価部140がリスクを評価する処理と同様である。 The evaluation unit 350 selects conversation objects included in the conversation voice data 20 based on the state of conversation (risk evaluation value) output from the first determination unit 310 and the degree of abstraction output from the second determination unit 340. is a processing unit that evaluates the risk of The process of evaluating the risk by the evaluation unit 350 is the same as the process of evaluating the risk by the evaluation unit 140 .

次に、本実施例3に係る会話分析装置300の処理手順の一例について説明する。図16は、本実施例3に係る会話分析装置の処理手順を示すフローチャートである。図16に示すように、会話分析装置300は、会話音声データ20を取得する(ステップS301)。 Next, an example of the processing procedure of the conversation analysis device 300 according to the third embodiment will be explained. FIG. 16 is a flow chart showing the processing procedure of the conversation analysis device according to the third embodiment. As shown in FIG. 16, conversation analysis device 300 acquires conversation voice data 20 (step S301).

会話分析装置300の第1判定部110は、会議時間に対する最長の発話時間の比率と、リスク評価値テーブル305aとを基にして、会話の状態(リスク評価値)を判定する(ステップS302)。会話分析装置300の抽出部320は、会話の状態の判定に寄与した着目区間を抽出する(ステップS303)。 The first determination unit 110 of the conversation analysis device 300 determines the conversation state (risk evaluation value) based on the ratio of the longest speech time to the meeting time and the risk evaluation value table 305a (step S302). The extraction unit 320 of the conversation analysis device 300 extracts the section of interest that contributed to the determination of the conversation state (step S303).

会話分析装置300の音声認識部330は、会話音声データ20に対して音声認識を実行し、発声された単語を抽出する(ステップS304)。会話分析装置300の第2判定部340は、着目区間中に発声された単語と、抽象度判定テーブル305bとを基にして、会話内容の抽象度を判定する(ステップS305)。 The speech recognition unit 330 of the conversation analysis device 300 performs speech recognition on the conversation speech data 20 and extracts uttered words (step S304). The second determination unit 340 of the conversation analysis device 300 determines the abstraction level of the conversation content based on the words uttered during the section of interest and the abstraction level determination table 305b (step S305).

会話分析装置300の評価部350は、会話の状態(リスク評価値)および会話内容の抽象度を基にして、会話対象のリスクを総合的に評価する(ステップS306)。評価部350は、評価結果を通知する(ステップS307)。 Evaluation unit 350 of conversation analysis device 300 comprehensively evaluates the risk of the conversation target based on the state of conversation (risk evaluation value) and the degree of abstraction of the content of the conversation (step S306). The evaluation unit 350 notifies the evaluation result (step S307).

次に、本実施例3に係る会話分析装置300の効果について説明する。会話分析装置300は、会議内容の抽象度を判定する場合に、会議の状態の判定に寄与した着目区間で発声された単語を用いて、抽象度を判定し、会話対象のリスク評価に用いる。これにより、会議の状態に密接に関係する区間の抽象度を用いて、リスクの大小を評価できる。 Next, the effect of the conversation analysis device 300 according to the third embodiment will be explained. Conversation analysis device 300 determines the degree of abstraction of the content of the conference by using the words uttered in the section of interest that contributed to the determination of the state of the conference, and uses the degree of abstraction in the risk evaluation of the conversation target. This makes it possible to evaluate the degree of risk using the abstraction level of the section that is closely related to the state of the meeting.

ところで、本実施例3に係る会話分析装置300は、会話の状態の判定に寄与した着目区間を、最長の発話区間を用いて抽出していたがこれに限定されるものではない。たとえば、会話分析装置300の抽出部320は、設定キーワードが含まれる発話区間を基にして、着目区間を抽出してもよい。この場合には、第1判定部310は、音声認識部330から、音声認識結果を取得し、発話区間に設定キーワードが含まれるか否かを判定し、設定キーワードの含まれる発話区間の情報を、抽出部320に出力する。 By the way, the conversation analysis device 300 according to the third embodiment extracts the segment of interest that contributed to the determination of the state of the conversation using the longest utterance segment, but it is not limited to this. For example, extraction unit 320 of conversation analysis device 300 may extract a segment of interest based on a speech segment containing a set keyword. In this case, the first determination unit 310 acquires the speech recognition result from the speech recognition unit 330, determines whether or not the set keyword is included in the utterance period, and obtains information on the utterance period that includes the set keyword. , to the extraction unit 320 .

次に、本実施例に示した会話分析装置100(200,300)と同様の機能を実現するコンピュータのハードウェア構成の一例について説明する。図17は、本実施例に係る会話分析装置と同様の機能を実現するコンピュータのハードウェア構成の一例を示す図である。 Next, an example of the hardware configuration of a computer that implements the same functions as the conversation analysis device 100 (200, 300) shown in this embodiment will be described. FIG. 17 is a diagram showing an example of the hardware configuration of a computer that implements the same functions as the conversation analysis device according to this embodiment.

図17に示すように、コンピュータ500は、各種演算処理を実行するCPU501と、ユーザからのデータの入力を受け付ける入力装置502と、ディスプレイ503とを有する。また、コンピュータ500は、記憶媒体からプログラム等を読み取る読み取り装置504と、有線または無線ネットワークを介して、外部装置等との間でデータの授受を行うインタフェース装置505とを有する。コンピュータ500は、各種情報を一時記憶するRAM506と、ハードディスク装置507とを有する。そして、各装置501~507は、バス508に接続される。 As shown in FIG. 17, a computer 500 has a CPU 501 that executes various arithmetic processes, an input device 502 that receives data input from a user, and a display 503 . The computer 500 also has a reading device 504 that reads programs and the like from a storage medium, and an interface device 505 that exchanges data with an external device or the like via a wired or wireless network. The computer 500 has a RAM 506 that temporarily stores various information and a hard disk device 507 . Each device 501 - 507 is then connected to a bus 508 .

ハードディスク装置507は、音声認識プログラム507a、第1判定プログラム507b、抽出プログラム507c、第2判定プログラム507d、評価プログラム507eを有する。CPU501は、音声認識プログラム507a、第1判定プログラム507b、抽出プログラム507c、第2判定プログラム507d、評価プログラム507eを読み出してRAM506に展開する。 The hard disk device 507 has a speech recognition program 507a, a first determination program 507b, an extraction program 507c, a second determination program 507d, and an evaluation program 507e. The CPU 501 reads out the speech recognition program 507a, the first determination program 507b, the extraction program 507c, the second determination program 507d, and the evaluation program 507e and develops them in the RAM 506. FIG.

音声認識プログラム507aは、音声認識プロセス506aとして機能する。第1判定プログラム507bは、第1判定プロセス506bとして機能する。抽出プログラム507cは、抽出プロセス506cとして機能する。第2判定プログラム507dは、第2判定プロセス506dとして機能する。評価プログラム507eは、評価プロセス506eとして機能する。 The speech recognition program 507a functions as a speech recognition process 506a. The first determination program 507b functions as a first determination process 506b. Extraction program 507c functions as extraction process 506c. The second determination program 507d functions as a second determination process 506d. Evaluation program 507e functions as evaluation process 506e.

音声認識プロセス506aの処理は、音声認識部120,210,330の処理に対応する。第1判定プロセス506bの処理は、第1判定部110,220,310の処理に対応する。抽出プロセス506cの処理は、抽出部320の処理に対応する。第2判定プロセス506dの処理は、第2判定部130,230,340の処理に対応する。評価プロセス506eの処理は、評価部140,240,350の処理に対応する。 Processing of the speech recognition process 506 a corresponds to processing of the speech recognition units 120 , 210 and 330 . The processing of the first determination process 506 b corresponds to the processing of the first determination units 110 , 220 and 310 . Processing of the extraction process 506 c corresponds to processing of the extraction unit 320 . The processing of the second determination process 506 d corresponds to the processing of the second determination units 130 , 230 and 340 . Processing of the evaluation process 506 e corresponds to processing of the evaluation units 140 , 240 and 350 .

なお、各プログラム507a~507eついては、必ずしも最初からハードディスク装置507に記憶させておかなくてもよい。例えば、コンピュータ500に挿入されるフレキシブルディスク(FD)、CD-ROM、DVDディスク、光磁気ディスク、ICカードなどの「可搬用の物理媒体」に各プログラムを記憶させておく。そして、コンピュータ500が各プログラム507a~507eを読み出して実行するようにしてもよい。 Note that the programs 507a to 507e do not necessarily have to be stored in the hard disk device 507 from the beginning. For example, each program is stored in a “portable physical medium” such as a flexible disk (FD), CD-ROM, DVD disk, magneto-optical disk, IC card, etc. inserted into the computer 500 . Then, the computer 500 may read out and execute each of the programs 507a to 507e.

以上の各実施例を含む実施形態に関し、さらに以下の付記を開示する。 The following additional remarks are further disclosed regarding the embodiments including the above examples.

(付記1)会話音声を分析して、会話の状態を判定する第1判定部と、
前記会話音声に対して音声認識を行い、前記会話音声に含まれる単語を抽出する音声認識部と、
前記会話音声に含まれる単語を基にして、前記会話音声における会話内容の抽象度を判定する第2判定部と、
前記会話の状態と前記抽象度とを基にして、前記会話内容を評価する評価部と
を有することを特徴とする会話分析装置。
(Appendix 1) A first determination unit that analyzes the conversational voice and determines the state of the conversation;
a voice recognition unit that performs voice recognition on the conversational voice and extracts words contained in the conversational voice;
a second determination unit that determines the degree of abstraction of conversation content in the conversational voice based on the words included in the conversational voice;
and an evaluation unit that evaluates the content of the conversation based on the state of the conversation and the degree of abstraction.

(付記2)前記第1判定部は、前記会話音声に含まれる所定の単語の出現回数、または、前記会話音声に含まれる複数の発話時間のうち、最長の発話時間を基にして、前記会話内容のリスクの程度を示す評価値を、前記会話の状態として判定することを特徴とする付記1に記載の会話分析装置。 (Supplementary Note 2) The first determination unit determines the number of occurrences of a predetermined word included in the conversational voice, or the longest utterance time among a plurality of utterance times included in the conversational voice, based on the conversation The conversation analysis device according to appendix 1, wherein an evaluation value indicating the degree of risk of content is determined as the state of the conversation.

(付記3)前記第2判定部は、言語コーパスに含まれる単語の出現頻度を基にして前記抽象度を判定することを特徴とする付記1または2に記載の会話分析装置。 (Supplementary Note 3) The conversation analysis device according to Supplementary Note 1 or 2, wherein the second determination unit determines the degree of abstraction based on the appearance frequency of words included in a language corpus.

(付記4)前記第2判定部は、より抽象的な単語ほど上位の層に位置する概念構造情報と、前記会話音声に含まれる単語とを基にして、前記抽象度を判定することを特徴とする付記2に記載の会話分析装置。 (Appendix 4) The second determination unit determines the degree of abstraction based on conceptual structure information positioned at a higher layer for more abstract words and words included in the conversational voice. The conversation analysis device according to appendix 2.

(付記5)前記会話音声の区間のうち、前記会話の状態の判定に寄与した区間を着目区間として抽出する抽出部を更に有し、前記第2判定部は、前記着目区間に含まれる単語を基にして、前記会話内容の抽象度を判定することを特徴とする付記1~4のいずれか一つに記載の会話分析装置。 (Supplementary Note 5) An extraction unit that extracts a section of interest that contributes to the determination of the state of the conversation from among the sections of the conversational voice, and the second determination unit extracts words included in the section of interest. 5. The conversation analysis device according to any one of appendices 1 to 4, wherein the abstraction level of the conversation content is determined based on the above.

(付記6)コンピュータが実行する会話分析方法であって、
会話音声を分析して、会話の状態を判定し、
前記会話音声に対して音声認識を行い、前記会話音声に含まれる単語を抽出し、
前記会話音声に含まれる単語を基にして、前記会話音声における会話内容の抽象度を判定し、
前記会話の状態と前記抽象度とを基にして、前記会話内容を評価する
処理を実行することを特徴とする会話分析方法。
(Appendix 6) A computer-implemented conversation analysis method comprising:
Analyze the conversational voice to determine the state of the conversation,
performing speech recognition on the conversational voice, extracting words contained in the conversational voice,
Based on the words contained in the conversational voice, determine the abstraction level of the conversation content in the conversational voice,
A conversation analysis method, comprising evaluating the content of the conversation based on the state of the conversation and the degree of abstraction.

(付記7)前記会話の状態を判定する処理は、前記会話音声に含まれる所定の単語の出現回数、または、前記会話音声に含まれる複数の発話時間のうち、最長の発話時間を基にして、前記会話内容のリスクの程度を示す評価値を、前記会話の状態として判定することを特徴とする付記6に記載の会話分析方法。 (Appendix 7) The processing for determining the state of the conversation is based on the number of occurrences of a predetermined word included in the conversational voice, or the longest speech time among a plurality of speech times included in the conversational voice. , the conversation analysis method according to appendix 6, wherein an evaluation value indicating the degree of risk of the content of the conversation is determined as the state of the conversation.

(付記8)前記抽象度を判定する処理は、言語コーパスに含まれる単語の出現頻度を基にして前記抽象度を判定することを特徴とする付記6または7に記載の会話分析方法。 (Appendix 8) The conversation analysis method according to appendix 6 or 7, wherein the processing for determining the degree of abstraction determines the degree of abstraction based on the appearance frequency of words included in a language corpus.

(付記9)前記抽象度を判定する処理は、より抽象的な単語ほど上位の層に位置する概念構造情報と、前記会話音声に含まれる単語とを基にして、前記抽象度を判定することを特徴とする付記7に記載の会話分析方法。 (Appendix 9) In the process of determining the degree of abstraction, the degree of abstraction is determined based on conceptual structure information positioned in a higher layer for a more abstract word and words included in the conversational voice. The conversation analysis method according to appendix 7, characterized by:

(付記10)前記会話音声の区間のうち、前記会話の状態の判定に寄与した区間を着目区間として抽出する処理を更に実行し、前記抽象度を判定する処理は、前記着目区間に含まれる単語を基にして、前記会話内容の抽象度を判定することを特徴とする付記6~9のいずれか一つに記載の会話分析方法。 (Supplementary Note 10) A process of extracting a section of interest that contributed to the determination of the state of the conversation among the sections of the conversational voice is further executed, and the process of determining the degree of abstraction includes extracting words included in the section of interest. 10. The conversation analysis method according to any one of appendices 6 to 9, wherein the degree of abstraction of the conversation content is determined based on.

(付記11)コンピュータに、
会話音声を分析して、会話の状態を判定し、
前記会話音声に対して音声認識を行い、前記会話音声に含まれる単語を抽出し、
前記会話音声に含まれる単語を基にして、前記会話音声における会話内容の抽象度を判定し、
前記会話の状態と前記抽象度とを基にして、前記会話内容を評価する
処理を実行させることを特徴とする会話分析プログラム。
(Appendix 11) to the computer,
Analyze the conversational voice to determine the state of the conversation,
performing speech recognition on the conversational voice, extracting words contained in the conversational voice,
Based on the words contained in the conversational voice, determine the abstraction level of the conversation content in the conversational voice,
A conversation analysis program for executing a process of evaluating the content of the conversation based on the state of the conversation and the degree of abstraction.

(付記12)前記会話の状態を判定する処理は、前記会話音声に含まれる所定の単語の出現回数、または、前記会話音声に含まれる複数の発話時間のうち、最長の発話時間を基にして、前記会話内容のリスクの程度を示す評価値を、前記会話の状態として判定することを特徴とする付記11に記載の会話分析プログラム。 (Appendix 12) The processing for determining the state of the conversation is based on the number of occurrences of a predetermined word included in the conversational voice, or the longest speech time among a plurality of speech times included in the conversational voice. 12. The conversation analysis program according to appendix 11, wherein an evaluation value indicating the degree of risk of the content of the conversation is determined as the state of the conversation.

(付記13)前記抽象度を判定する処理は、言語コーパスに含まれる単語の出現頻度を基にして前記抽象度を判定することを特徴とする付記11または12に記載の会話分析プログラム。 (Appendix 13) The conversation analysis program according to appendix 11 or 12, wherein the processing for determining the degree of abstraction determines the degree of abstraction based on the appearance frequency of words included in a language corpus.

(付記14)前記抽象度を判定する処理は、より抽象的な単語ほど上位の層に位置する概念構造情報と、前記会話音声に含まれる単語とを基にして、前記抽象度を判定することを特徴とする付記12に記載の会話分析プログラム。 (Appendix 14) In the process of determining the degree of abstraction, the degree of abstraction is determined based on conceptual structure information positioned at a higher layer for a more abstract word and words included in the conversational voice. Speech analysis program according to appendix 12, characterized by:

(付記15)前記会話音声の区間のうち、前記会話の状態の判定に寄与した区間を着目区間として抽出する処理を更にコンピュータに実行させ、前記抽象度を判定する処理は、前記着目区間に含まれる単語を基にして、前記会話内容の抽象度を判定することを特徴とする付記11~14のいずれか一つに記載の会話分析プログラム。 (Supplementary Note 15) The computer further executes a process of extracting a section of interest that contributes to the determination of the state of the conversation among the sections of the conversational voice, and the process of determining the degree of abstraction is included in the section of interest. 15. The conversation analysis program according to any one of appendices 11 to 14, characterized in that the degree of abstraction of the conversation content is determined based on the words included in the speech.

100,200,300 会話分析装置
105,205,305 記憶部
105a,205b,305a リスク評価値テーブル
105b,205c,305b 抽象度判定テーブル
110,220,310 第1判定部
120,210,330 音声認識部
130,230,340 第2判定部
140,240,350 評価部
205a 設定キーワードテーブル
320 抽出部
100, 200, 300 conversation analysis device 105, 205, 305 storage unit 105a, 205b, 305a risk evaluation value table 105b, 205c, 305b abstraction level determination table 110, 220, 310 first determination unit 120, 210, 330 speech recognition unit 130, 230, 340 second determination section 140, 240, 350 evaluation section 205a setting keyword table 320 extraction section

Claims (5)

会話音声に含まれる複数の発話時間のうち、最長の発話時間を特定し、会議時間に対する前記最長の発話時間の比率に応じたリスク評価値を判定する第1判定部と、
前記会話音声に対して音声認識を行い、前記会話音声に含まれる単語を抽出する音声認識部と、
より抽象的な単語ほど上位の層に位置する概念構造情報と、前記会話音声に含まれる単語を基にして、前記会話音声における会話内容の抽象度を判定する処理、または、前記会話音声に含まれる単語のうち、言語コーパスに含まれる単語の出現頻度を基にして、前記会話音声における会話内容の抽象度を判定する処理を行う第2判定部と、
前記リスク評価値および前記抽象度を乗算した値と、閾値との比較結果を基にして、前記会話内容を評価する評価部と
を有することを特徴とする会話分析装置。
A first determination unit that identifies the longest speech time among a plurality of speech times included in the conversation voice and determines a risk evaluation value according to the ratio of the longest speech time to the meeting time;
a voice recognition unit that performs voice recognition on the conversational voice and extracts words contained in the conversational voice;
A process of determining the degree of abstraction of conversation content in the conversational voice based on conceptual structure information located in a higher layer for more abstract words and words included in the conversational voice, or A second determination unit that performs processing for determining the degree of abstraction of the conversation content in the conversation voice based on the appearance frequency of words included in the language corpus among the words that are included in the language corpus;
A conversation analysis device, comprising: an evaluation unit that evaluates the content of the conversation based on a result of comparing a value obtained by multiplying the risk evaluation value and the abstraction level with a threshold value.
前記第1判定部は、前記会話音声に含まれる所定の単語の出現回数に応じたリスク評価値を更に判定することを特徴とする請求項1に記載の会話分析装置。 2. The conversation analysis apparatus according to claim 1, wherein said first determination unit further determines a risk evaluation value according to the number of occurrences of a predetermined word included in said conversation voice. 前記会話音声の区間のうち、前記最長の発話区間の開始時刻から所定時間前の時刻と、前記最長の発話区間の終了時刻から所定時間後の時刻との間の区間を、前記会話の状態の判定に寄与した区間を着目区間として抽出する抽出部を更に有し、前記第2判定部は、前記着目区間に含まれる単語を基にして、前記会話内容の抽象度を判定することを特徴とする請求項1または2に記載の会話分析装置。 Among the sections of the conversational voice, the section between the time a predetermined time before the start time of the longest utterance section and the time a predetermined time after the end time of the longest utterance section is the state of the conversation. Further comprising an extraction unit for extracting a section that contributed to the determination as a section of interest, wherein the second determination unit determines an abstraction level of the content of the conversation based on words included in the section of interest. 3. The conversation analysis device according to claim 1 or 2 . コンピュータが実行する会話分析方法であって、
会話音声に含まれる複数の発話時間のうち、最長の発話時間を特定し、会議時間に対する前記最長の発話時間の比率に応じたリスク評価値を判定し、
前記会話音声に対して音声認識を行い、前記会話音声に含まれる単語を抽出し、
より抽象的な単語ほど上位の層に位置する概念構造情報と、前記会話音声に含まれる単語を基にして、前記会話音声における会話内容の抽象度を判定する処理、または、前記会話音声に含まれる単語のうち、言語コーパスに含まれる単語の出現頻度を基にして、前記会話音声における会話内容の抽象度を判定する処理のうちいずれか一方の処理によって、抽象度を判定し、
前記リスク評価値および前記抽象度を乗算した値と、閾値との比較結果を基にして、前記会話内容を評価する
処理を実行することを特徴とする会話分析方法。
A computer-implemented conversation analysis method comprising:
Identifying the longest speech time out of a plurality of speech times included in the conversation audio, and determining a risk evaluation value according to the ratio of the longest speech time to the conference time,
performing speech recognition on the conversational voice, extracting words contained in the conversational voice,
A process of determining the degree of abstraction of conversation content in the conversational voice based on conceptual structure information located in a higher layer for more abstract words and words included in the conversational voice, or out of the words contained in the language corpus, based on the frequency of appearance of words contained in the language corpus, one of the processes of determining the abstraction level of the conversation content in the conversational voice, determining the abstraction level,
A conversation analysis method, comprising evaluating the content of the conversation based on a result of comparing a value obtained by multiplying the risk evaluation value and the abstraction level with a threshold value.
コンピュータに、
会話音声に含まれる複数の発話時間のうち、最長の発話時間を特定し、会議時間に対する前記最長の発話時間の比率に応じたリスク評価値を判定し、
前記会話音声に対して音声認識を行い、前記会話音声に含まれる単語を抽出し、
より抽象的な単語ほど上位の層に位置する概念構造情報と、前記会話音声に含まれる単語を基にして、前記会話音声における会話内容の抽象度を判定する処理、または、前記会話音声に含まれる単語のうち、言語コーパスに含まれる単語の出現頻度を基にして、前記会話音声における会話内容の抽象度を判定する処理のうちいずれか一方の処理によって、抽象度を判定し、
前記リスク評価値および前記抽象度を乗算した値と、閾値との比較結果を基にして、前記会話内容を評価する
処理を実行させることを特徴とする会話分析プログラム。
to the computer,
Identifying the longest speech time out of a plurality of speech times included in the conversation audio, and determining a risk evaluation value according to the ratio of the longest speech time to the conference time,
performing speech recognition on the conversational voice, extracting words contained in the conversational voice,
A process of determining the degree of abstraction of conversation content in the conversational voice based on conceptual structure information located in a higher layer for more abstract words and words included in the conversational voice, or out of the words contained in the language corpus, based on the frequency of appearance of words contained in the language corpus, one of the processes of determining the abstraction level of the conversation content in the conversational voice, determining the abstraction level,
A conversation analysis program for evaluating the content of the conversation based on a result of comparing a value obtained by multiplying the risk evaluation value and the abstraction level with a threshold value.
JP2019070723A 2019-04-02 2019-04-02 Conversation analysis device, conversation analysis method and conversation analysis program Active JP7293816B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019070723A JP7293816B2 (en) 2019-04-02 2019-04-02 Conversation analysis device, conversation analysis method and conversation analysis program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019070723A JP7293816B2 (en) 2019-04-02 2019-04-02 Conversation analysis device, conversation analysis method and conversation analysis program

Publications (2)

Publication Number Publication Date
JP2020170310A JP2020170310A (en) 2020-10-15
JP7293816B2 true JP7293816B2 (en) 2023-06-20

Family

ID=72745971

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019070723A Active JP7293816B2 (en) 2019-04-02 2019-04-02 Conversation analysis device, conversation analysis method and conversation analysis program

Country Status (1)

Country Link
JP (1) JP7293816B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2023033033A1 (en) * 2021-09-01 2023-03-09
WO2024089858A1 (en) * 2022-10-27 2024-05-02 日本電信電話株式会社 Presentation device, presentation method, and presentation program

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008210367A (en) 2007-01-29 2008-09-11 Nec Corp Risk detection system, risk detection method, and program therefor
JP2018036871A (en) 2016-08-31 2018-03-08 沖電気工業株式会社 Information processing server, information processing system, terminal device, and program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008210367A (en) 2007-01-29 2008-09-11 Nec Corp Risk detection system, risk detection method, and program therefor
JP2018036871A (en) 2016-08-31 2018-03-08 沖電気工業株式会社 Information processing server, information processing system, terminal device, and program

Also Published As

Publication number Publication date
JP2020170310A (en) 2020-10-15

Similar Documents

Publication Publication Date Title
CN112102815B (en) Speech recognition method, speech recognition device, computer equipment and storage medium
EP2572355B1 (en) Voice stream augmented note taking
Schwarz et al. Towards lower error rates in phoneme recognition
US20120271631A1 (en) Speech recognition using multiple language models
JP5468474B2 (en) Talk script usage status calculation system and talk script usage status calculation program
JP7293816B2 (en) Conversation analysis device, conversation analysis method and conversation analysis program
JP2016539364A (en) Utterance content grasping system based on extraction of core words from recorded speech data, indexing method and utterance content grasping method using this system
JP7229847B2 (en) Dialogue device, dialogue method, and dialogue computer program
JP7059813B2 (en) Voice dialogue system, its processing method and program
JP6110283B2 (en) Empathy-reactive spot detection device, empathy-reactive spot detection method, and program
CN113112992B (en) Voice recognition method and device, storage medium and server
US8442831B2 (en) Sound envelope deconstruction to identify words in continuous speech
WO2021152566A1 (en) System and method for shielding speaker voice print in audio signals
CN111640423B (en) Word boundary estimation method and device and electronic equipment
JP6709558B2 (en) Conversation processor
CN106910494B (en) Audio identification method and device
Kim et al. Angry emotion detection from real-life conversational speech by leveraging content structure
JP5457284B2 (en) Discourse breakdown calculation system and discourse breakdown calculation program
CN114758665A (en) Audio data enhancement method and device, electronic equipment and storage medium
Alex et al. Spoken utterance detection using dynamic time warping method along with a hashing technique
US11990136B2 (en) Speech recognition device, search device, speech recognition method, search method, and program
Kanrar Dimension compactness in speaker identification
Nair et al. A reliable speaker verification system based on LPCC and DTW
Ma et al. Low-frequency word enhancement with similar pairs in speech recognition
JP5877823B2 (en) Speech recognition apparatus, speech recognition method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220111

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221122

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230118

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230509

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230522

R150 Certificate of patent or registration of utility model

Ref document number: 7293816

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150