JP2021026686A - 文字表示装置、文字表示方法、及びプログラム - Google Patents
文字表示装置、文字表示方法、及びプログラム Download PDFInfo
- Publication number
- JP2021026686A JP2021026686A JP2019146469A JP2019146469A JP2021026686A JP 2021026686 A JP2021026686 A JP 2021026686A JP 2019146469 A JP2019146469 A JP 2019146469A JP 2019146469 A JP2019146469 A JP 2019146469A JP 2021026686 A JP2021026686 A JP 2021026686A
- Authority
- JP
- Japan
- Prior art keywords
- interview
- display device
- expression
- character display
- expressions
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 33
- 230000014509 gene expression Effects 0.000 claims abstract description 97
- 238000011156 evaluation Methods 0.000 claims abstract description 74
- 230000006870 function Effects 0.000 claims description 11
- 230000008451 emotion Effects 0.000 claims description 8
- 238000010801 machine learning Methods 0.000 claims description 2
- 238000012790 confirmation Methods 0.000 abstract 1
- 238000013500 data storage Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 9
- 230000010354 integration Effects 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000007477 logistic regression Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 238000007637 random forest analysis Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000010187 selection method Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
Images
Landscapes
- Machine Translation (AREA)
- Document Processing Apparatus (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
【課題】面接時の音声データに含まれている情報を確認しやすくする。【解決手段】文字表示装置10は、評価部150、表示形態決定部180、及び表示制御部200を有している。評価部150は、上記した音声データから生成されたテキストデータを取得し、そのテキストデータに含まれる複数の表現それぞれに対して評価値を生成する。この評価値は、面接におけるその表現の重要度(例えば重要性を示すスコア)を示している。表示形態決定部180は、評価部150が生成した評価値を用いて、複数の表現それぞれの表示形態を決定する。表示制御部200は、これら複数の表現を、表示形態決定部180が決定した表示形態で同一の表示領域に表示させる。表示制御部200が行う表示は、例えば端末20のディスプレイに表示される。【選択図】図1
Description
本発明は、文字表示装置、文字表示方法、及びプログラムに関する。
近年、インターネットなどの通信回線を介して面接官と被面接者が面接を行うことが行われている。例えば特許文献1には、面接仲介システムが、面接時の動画データ及び音声データを記憶することが記載されている。
面接時の音声データには様々な情報が含まれている。本発明の目的は、面接時の音声データに含まれている情報をユーザが確認しやすくすることにある。
本発明によれば、面接の時に生成された音声データから生成されたテキストデータを取得し、当該テキストデータに含まれる複数の表現それぞれに対して、前記面接における当該表現の重要度を示す評価値を生成する評価部と、
前記評価値を用いて、前記複数の表現それぞれの表示形態を決定する表示形態決定部と、
前記複数の表現を、前記表示形態決定部が決定した表示形態で同一の表示領域に表示させる表示制御部と、
を備える文字表示装置が提供される。
前記評価値を用いて、前記複数の表現それぞれの表示形態を決定する表示形態決定部と、
前記複数の表現を、前記表示形態決定部が決定した表示形態で同一の表示領域に表示させる表示制御部と、
を備える文字表示装置が提供される。
また本発明によれば、コンピュータが、
面接の時に生成された音声データから生成されたテキストデータを取得し、当該テキストデータに含まれる複数の表現それぞれに対して、前記面接における当該表現の重要度を示す評価値を生成し、
前記評価値を用いて、前記複数の表現それぞれの表示形態を決定し、当該表示形態で前記複数の表現を同一の表示領域に表示させる、文字表示方法が提供される。
面接の時に生成された音声データから生成されたテキストデータを取得し、当該テキストデータに含まれる複数の表現それぞれに対して、前記面接における当該表現の重要度を示す評価値を生成し、
前記評価値を用いて、前記複数の表現それぞれの表示形態を決定し、当該表示形態で前記複数の表現を同一の表示領域に表示させる、文字表示方法が提供される。
本発明によれば、コンピュータに、
面接の時に生成された音声データから生成されたテキストデータを取得し、当該テキストデータに含まれる複数の表現それぞれに対して、前記面接における当該表現の重要度を示す評価値を生成する機能と、
前記評価値を用いて、前記複数の表現それぞれの表示形態を決定する機能と、
前記複数の表現を、前記決定した表示形態で同一の表示領域に表示させる機能と
を持たせるプログラムが提供される。
面接の時に生成された音声データから生成されたテキストデータを取得し、当該テキストデータに含まれる複数の表現それぞれに対して、前記面接における当該表現の重要度を示す評価値を生成する機能と、
前記評価値を用いて、前記複数の表現それぞれの表示形態を決定する機能と、
前記複数の表現を、前記決定した表示形態で同一の表示領域に表示させる機能と
を持たせるプログラムが提供される。
本発明によれば、ユーザは、面接時の音声データに含まれている情報を確認しやすくなる。
以下、本発明の実施の形態について、図面を用いて説明する。尚、すべての図面において、同様な構成要素には同様の符号を付し、適宜説明を省略する。
図1は、実施形態に係る文字表示装置10の機能構成を、その使用環境とともに示す図である。文字表示装置10は端末20とともに使用される。端末20は面接を行う主体(例えば企業や団体)の従業員(例えば面接官)によって使用される。端末20は、面接時に、面接に応募した応募者が使用する端末(図示せず)と通信を行う。これにより、面接官は、応募者が異なる場所にいても、面接を行うことができる。
端末20は、面接時に動画データ及び音声データを生成する。この動画データには面接官の映像及び応募者の映像の双方が含まれており、また、音声データには面接官の音声及び応募者の音声の双方が含まれている。文字表示装置10は、これらの動画データ及び音声データ(以下、面接データと記載)を取得し、この音声データを解析することにより、面接官に、面接に関する情報を提供する。
具体的には、文字表示装置10は、評価部150、表示形態決定部180、及び表示制御部200を有している。評価部150は、上記した音声データから生成されたテキストデータを取得し、そのテキストデータに含まれる複数の表現それぞれに対して評価値を生成する。この評価値は、面接におけるその表現の重要度(例えば重要性を示すスコア)を示している。表示形態決定部180は、評価部150が生成した評価値を用いて、複数の表現それぞれの表示形態を決定する。表示制御部200は、これら複数の表現を、表示形態決定部180が決定した表示形態で同一の表示領域に表示させる。表示制御部200が行う表示は、例えば端末20のディスプレイに表示される。
なお、文字表示装置10は、互いに異なる複数の主体それぞれの端末20と通信する。そして文字表示装置10は、複数の主体別に処理を行う。以下、文字表示装置10について詳細に説明する。
文字表示装置10は、上記した評価部150、表示形態決定部180、及び表示制御部200の他に、データ取得部110、面接データ記憶部120、音声認識部130、テキスト記憶部140、モデル記憶部160、評価結果記憶部170、及び表示ルール記憶部190を有している。
データ取得部110は、端末20から面接データを、その面接データの属性情報と共に取得し、これら面接データ及び属性情報を面接データ記憶部120に記憶させる。属性情報は、面接それぞれに割り振られたID(以下、面接IDと記載)、面接を行った主体(例えば企業)を特定する情報、面接官を特定する情報(以下、面接官IDと記載)、応募者を特定する情報(以下、応募者IDと記載)、及び面接が行われた日時を示す情報を含んでいる。面接IDは、例えば面接が行われる前に予め付与されていてもよいし、面接が行われたタイミングで付与されてもよい。面接IDの付与は、端末20が行ってもよいし、文字表示装置10が行ってもよいし、面接を管理する他の装置が行ってもよい。端末20は、この面接IDを記憶しており、面接データと共にデータ取得部110に送信する。
音声認識部130は、面接データ記憶部120から音声データを読み出し、音声認識処理を行うことにより、テキストデータを生成する。テキストデータは、発話内容を示す文字の他に、その文字の出現位置(発話時刻)、その文字を発話した話者情報、及びその文字の推定結果の確からしさ(以下、第1スコアと記載)も含んでいる。そして音声認識部130は、このテキストデータを、主体別(例えば企業別)に、面接IDに紐づけてテキスト記憶部140に記憶させる。
音声認識部130は、上記した音声認識処理において、話者を特定し、この特定した話者を示す情報、すなわち上記した話者情報を生成する。例えば、面接データには対応している面接官のIDが対応づいている。各面接官の音声を事前に録音しておきその音声から得られる音響特徴量を用いることで、面接データ中のどの区間が面接官の発話か、どの区間が応募者の発話かを推定する。この結果を用いて、面接データを書き起こしたテキストデータに、面接官及び/又は応募者の発話内容であることを示す情報を紐付けることができる。
評価部150は、テキスト記憶部140が記憶しているテキストデータを処理することにより、そのテキストデータに含まれる複数の表現それぞれに対して、上記した評価値を生成する。評価が行われる表現の単位は、単語であってもよいし、熟語であってもよいし、文節であってもよい。評価部150は、面接ID別に、複数の表現を、その表現の評価値に対応付けて評価結果記憶部170に記憶させる。この際、評価部150は、応募者の発話内容に含まれる表現のみを評価結果記憶部170に記憶する。また評価部150は、評価値が基準を満たす表現のみ、例えば重要度が基準以上の表現のみを評価結果記憶部170に記憶するのが好ましい。
評価部150は、学習済モデルを用いて、テキストデータに含まれる複数の表現それぞれの評価値を生成する。この学習済みモデルは、テキストデータを入力として評価値を出力するモデルであり、機械学習を用いて生成され、モデル記憶部160に記憶されている。モデル記憶部160には複数の学習済モデルが記憶されている。そして評価部150は、適切な学習済モデルを選択して使用する。学習済モデルの種類及び学習済モデルの選択方法については、後述する。
また、評価部150は、面接データを書き起こしたテキストデータのほか、その表現を発話した話者の属性、テキストデータの基になった音声データにおけるその表現の出現位置、その表現における音声の特徴量(例えば音量や話速)、音声認識処理の推定結果の確からしさを表す第1スコアも入力することができる。これらの入力を元に上記した評価値のほか、その表現が出現した時の話題、その表現のポジティブ性/ネガティブ性を表す第2スコア、及びその表現を行ったときの話者の感情の推定結果を示す第3スコアも判定することができる。評価部150は、上記の入力と判定結果を評価結果記憶部170に記憶させる。例えば、話者の属性を除いて、テキスト記憶部140が記憶しているデータを処理することにより生成される。
上記した話者の属性は、例えば話者のID(例えば応募者ID)、話者の性別、及び年齢の少なくとも一つである。評価部150は、話者の属性を、面接IDを用いて他のデータベースから取得してもよい。この場合、他のデータベースは、面接ID別に、上記した話者の属性を記憶している。
また、話者の感情は、例えば感情推定モデルを用いて推定される。この感情推定モデルは、上記したテキストデータに含まれる表現がどの感情であるかを推定するモデルであり、例えば、テキストデータや音声データを入力としており、感情及びその大きさを示すスコアを出力としている。
表示形態決定部180は、評価結果記憶部170が記憶している評価値を用いて、複数の表現それぞれの表示形態を決定する。表示形態決定部180は、例えばワードクラウドと呼ばれる表現を作成する場合、表示形態は、文字の色、文字の大きさ、及び表示領域における表現の位置、が挙げられるが、これらに限定されない。この際、表示形態決定部180は、詳細を後述するように、表示ルール記憶部190が記憶しているルールを用いて各表現の表示形態を決定する。
なお、端末20は、バッチ式でデータ取得部110に面接データを送信してもよいし、面接データを生成するたびにデータ取得部110に面接データを送信してもよい。また、音声認識部130,評価部150、及び表示形態決定部180は、端末20からの指示に応じて処理を行ってもよいし、端末20からの指示とは関係ないタイミング、例えば文字表示装置10の処理能力が空いているタイミングで処理を行ってもよい。そして表示制御部200は、端末20のユーザが望んだタイミングで、表示形態決定部180が決定した表示形態で複数の表現を表示させるためのデータを、端末20に送信する。
図2は、面接データ記憶部120のデータ構成の一例を示す図である。面接データ記憶部120は、面接IDに紐づけて、その面接IDに対応する面接の面接官ID、応募者ID、面接が行われた日時、及び面接データを記憶している。上記したように、これらのデータは端末20から送信される。
図3は、テキスト記憶部140のデータ構成の一例を示す図である。面接データ記憶部120は、面接IDに紐づけてテキストデータを記憶している。このテキストデータは、その面接IDに対応する面接で生成された音声データを音声認識した結果を示している。なお、テキストデータのフォーマットは任意である。
また、テキストデータの一部には、面接官の発言内容であることを示す情報が紐付いていることもある。この場合、テキストデータのうちこの情報が紐付いている内容は面接官の発話内容であり、テキストデータのうちこの情報が紐付いていない内容は応募者の発話内容であることが特定できる。
図4及び図5は、モデル記憶部160のデータ構成の一例を示す図である。図4に示すように、モデル記憶部160は、複数のモデル群を、そのモデル群が適用されるべき主体の条件(適用条件)に対応付けて記憶している。評価部150は、処理対象となっているテキストデータに紐付いている主体を用いて、用いるべきモデル群を選択する。図4に示す例では、複数のモデル群は、そのモデル群が適用されるべき企業に対応付けられている。
そして各モデル群は、図5に示すように、複数の学習済モデルを記憶している。この複数の学習済モデルの一例は、P/N(Positive/ Negative)判定モデル、話題別重み付けモデル、単語共起重み付けモデル、業種別重み付けモデル、及び企業別重みづけモデルである。いずれのモデルも、評価対象としての表現を含むデータが入力されると、その表現に対する評価値を出力するものである。
P/N(Positive/ Negative)判定モデルは、各表現に対し、肯定的(Positive)/否定的(Negative)のいずれかと、その度合(スコア)を算出するモデルである。本実施形態で用いられるP/N判定モデルは、面接データを用いて構築されているため、面接における表現に特化されている。
話題別重み付けモデルは、面接で予め設定されている話題、例えば議題やトピック(例えば志望理由や活動履歴など)の回答となるような単語、フレーズ等の重要な表現に対して重みを付与するモデルである。面接では、その面接の目的によって、触れるべき話題が設定されている場合が多い。このような場合において、ある面接で適用されるべき話題別重み付けモデルは、その面接で設定されている話題に基づいて設定される。
単語共起重み付けモデルは、表現(例えば単語、フレーズ、及び文などの任意の単位で設定可能)間の共起に関する統計情報を利用した重み付けモデルである。
業種別重み付けモデルは、面接対象の主体(例えば企業)の業種における重要な単語、フレーズ等の重要な表現に対して重みを付与するモデルである。業種別重み付けモデルは、面接を行う主体の業種別に生成されている。なお、業種別重み付けモデルの代わりに、又は採用種別重み付けモデルに加えて、採用種別重み付けモデルが用いられてもよい。採用別重み付けモデルは、採用種(例えば新卒、中途、アルバイト、パート、及び派遣など)における重要な単語、フレーズ等の重要な表現に対して重みを付与するモデルであり、採用種別に生成されている。
主体別重み付けモデルは、面接対象の主体(例えば企業)に特有な商品・サービス等の固有表現などを考慮した上で、面接中の表現(例えば重要な表現)に重み付けを行うモデルである。主体別重み付けモデルは、面接を行う主体別に生成されている。このモデルは、例えばその主体のウェブページに含まれるテキストデータを用いて生成することができる。
上記した複数の学習済モデルの一部(例えばP/N判定モデル及び単語共起重みづけモデル)は、全てのモデル群で共通になっていてもよい。また、上記した複数の学習済モデルの他の一部(例えば話題別重み付けモデルや業種別重み付けモデル)は、複数のモデル群(ただし全てではない)で共通になっていてもよい。
なお、上記した学習済モデルは、例えば以下の3つの方法で生成(学習)されている。
第1は、教師あり学習に基づく表現推定方法である。この方法の一例は、テキストデータと、そのテキストデータに含まれる重要な表現と、からなる対データを予め作成し、この対データを用いて、テキストを入力すると重要な表現集合を出力するような識別器又は識別モデルを学習するものである。この方法には、ロジスティック回帰、ニューラルネットワーク、構造化パーセプトロン、(構造化)サポートベクタマシンなどが用いられる。
第2は、教師あり学習に基づく表現重み推定方法である。この方法の一例は、テキストデータと、そのテキストデータに含まれる重要な表現と、からなる対データを予め作成し、この対データを用いて、入力テキスト中の各表現に対して重み(スコア)を推定するような回帰関数を学習するものである。この方法には、ロジスティック回帰、ニューラルネットワーク、決定木、及びランダムフォレストなどが用いられる。
第3は、教師なし学習に基づく表現重み推定方法である。この方法の一例は、書き起こしテキストを予め作成し、このテキストデータから単語などの表現の重みを出力するような、表現から実数値への関数や生成モデルを学習するものである。この方法には、TF−IDF(Term Frequency Inverse Document Frequency)、潜在的意味解析、非負値行列分解、潜在ディリシュレ配分法、及びニューラルトピックモデルなどが用いられる。
そして図6に示すように、P/N判定モデルには、教師あり学習に基づく推定方法及び教師あり学習に基づく重み推定方法が好適である。また、単語共起重み付けモデルには、教師あり学習に基づく重み推定方法及び教師なし学習に基づく表現重み推定方法が好適である。また、話題別重み付けモデル、業種別重み付けモデル、及び企業別重みづけモデルには、教師あり学習に基づく表現推定方法、教師あり学習に基づく表現重み推定方法、及び教師なし学習に基づく表現重み推定方法が好適である。
上記したモデルのうち、話題別重み付けモデル、単語共起重み付けモデル、業種別重み付けモデル、及び企業別重み付けモデルは、各表現の評価値(重要度)を算出するモデルである。評価部150は、これらのモデルのうち複数(例えばすべて)を用いて評価値を算出してもよいし、一つのモデルのみを用いて評価値を算出してもよい。
前者の場合、各モデルの評価値の統合方法は、例えば以下の3つの方法がある。第1の方法では、各モデルの信頼度を事前に定め、出力結果と信頼度を掛け合わせることで統合する。第2の方法では、モデルの出力結果の和集合をとることで統合する。第3の方法では、各モデルの出力結果の積集合をとることで統合する。また、評価部150は、統合した後の重要度が一定値未満の表現を、切り捨ててもよい。
なお、モデル記憶部160は、図5〜図7を用いて説明したモデルの他に、図1を用いて説明した感情推定モデルも記憶している。
図7は、評価結果記憶部170のデータ構成の一例を示す図である。評価結果記憶部170は、面接ID毎に、テキスト記憶部140においてその面接IDに対応付けられていたテキストデータから抽出された複数の表現(例えば重要な表現)を示す文字列を、各表現の重要度(評価値)及びその他の情報に紐づけて記憶している。その他の情報は、例えば、図1を用いて説明したように、話者の属性、テキストデータの基になった音声データにおけるその表現の出現位置、その表現における音声の特徴量、その表現の第1スコア、その表現が出現したときの話題、その表現の第2スコア、及びその表現の第3スコアの少なくとも一つである。
図8は、表示ルール記憶部190のデータ構成の一例を示す図である。上記したように、表示ルール記憶部190は、表示形態決定部180が各表現の表示形態を決めるときのルールを記憶している。図8に示すルールは、評価結果記憶部170が記憶している各データが、表示形態の各要素(色、大きさ、及び位置)のいずれに影響を与えるかを示している。「○」は影響を与えることを示しており、「△」は影響を与えないか、または与えたとしてもその影響度が小さいことを示している。
具体的には、重要度(上記した評価値)、音声の特徴量、第1スコア、第2スコア、及び第3スコアは、いずれも色及び大きさに影響を与える。話者の属性は色及び位置に影響を与える。出現位置(時刻)は位置に影響を与える。さらに、話題は色、大きさ、及び位置のすべてに影響を与える。
図9は、表示制御部200による端末20の表示例を示す図である。本図に示す例において、評価値が高い表現、すなわち重要な表現は中央かつ大きな文字で表示されている。また、評価値が高い表現は、目立つ色(例えば赤色)で表示されるのが好ましい。
図10は、文字表示装置10のハードウエア構成を例示するブロック図である。文字表示装置10は、バス1010、プロセッサ1020、メモリ1030、ストレージデバイス1040、入出力インタフェース1050、及びネットワークインタフェース1060を有する。
バス1010は、プロセッサ1020、メモリ1030、ストレージデバイス1040、入出力インタフェース1050、及びネットワークインタフェース1060が、相互にデータを送受信するためのデータ伝送路である。ただし、プロセッサ1020などを互いに接続する方法は、バス接続に限定されない。
プロセッサ1020は、CPU(Central Processing Unit) やGPU(Graphics Processing Unit)などで実現されるプロセッサである。
メモリ1030は、RAM(Random Access Memory)などで実現される主記憶装置である。
ストレージデバイス1040は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、メモリカード、又はROM(Read Only Memory)などで実現される補助記憶装置である。ストレージデバイス1040は文字表示装置10の各機能(例えばデータ取得部110、音声認識部130、評価部150、表示形態決定部180、及び表示制御部200)を実現するプログラムモジュールを記憶している。プロセッサ1020がこれら各プログラムモジュールをメモリ1030上に読み込んで実行することで、そのプログラムモジュールに対応する各機能が実現される。また、ストレージデバイス1040は面接データ記憶部120、テキスト記憶部140、モデル記憶部160、評価結果記憶部170、及び表示形態決定部180としても機能する。
入出力インタフェース1050は、文字表示装置10と各種入出力機器とを接続するためのインタフェースである。
ネットワークインタフェース1060は、文字表示装置10をネットワーク上の他の装置(例えば端末20)に接続するためのインタフェースである。
以上、本実施形態によれば、文字表示装置10は、面接時に生成された音声データに含まれる表現を、その表現の重要度に応じた表示形態で端末20に表示する。このため、端末20のユーザは、面接時の音声データに含まれている情報を確認しやすくなる。
また、文字表示装置10が用いる学習済モデルは面接に特化したモデルになっている。従って、文字表示装置10が算出した重要度の精度も高くなる。さらにこれらの学習済モデルの少なくとも一部は、その業種に特化したモデルになっていたり、その面接主体(例えば企業)に特化したモデルになっていたり、話題に特化したモデルになっている。従って、文字表示装置10が算出する重要度の精度も高くなる。
以上、図面を参照して本発明の実施形態について述べたが、これらは本発明の例示であり、上記以外の様々な構成を採用することもできる。
また、上述の説明で用いた複数のフローチャートでは、複数の工程(処理)が順番に記載されているが、各実施形態で実行される工程の実行順序は、その記載の順番に制限されない。各実施形態では、図示される工程の順番を内容的に支障のない範囲で変更することができる。また、上述の各実施形態は、内容が相反しない範囲で組み合わせることができる。
10 文字表示装置
20 端末
110 データ取得部
120 面接データ記憶部
130 音声認識部
140 テキスト記憶部
150 評価部
160 モデル記憶部
170 評価結果記憶部
180 表示形態決定部
190 表示ルール記憶部
200 表示制御部
20 端末
110 データ取得部
120 面接データ記憶部
130 音声認識部
140 テキスト記憶部
150 評価部
160 モデル記憶部
170 評価結果記憶部
180 表示形態決定部
190 表示ルール記憶部
200 表示制御部
Claims (9)
- 面接の時に生成された音声データから生成されたテキストデータを取得し、当該テキストデータに含まれる複数の表現それぞれに対して、前記面接における当該表現の重要度を示す評価値を生成する評価部と、
前記評価値を用いて、前記複数の表現それぞれの表示形態を決定する表示形態決定部と、
前記複数の表現を、前記表示形態決定部が決定した表示形態で同一の表示領域に表示させる表示制御部と、
を備える文字表示装置。 - 請求項1に記載の文字表示装置において、
前記評価部は、機械学習を適用することで前記テキストデータから前記評価値を出力するモデルを学習し、その学習済モデルを用いて前記評価値を生成する文字表示装置。 - 請求項2に記載の文字表示装置において、
前記学習済モデルは、前記面接を行った主体別に生成されている文字表示装置。 - 請求項2又は3に記載の文字表示装置において、
前記学習済モデルは、前記面接を行った主体の業種別に生成されている文字表示装置。 - 請求項2〜4のいずれか一項に記載の文字表示装置において、
前記学習済モデルは、前記面接における話題別に生成されている文字表示装置。 - 請求項1〜5のいずれか一項に記載の文字表示装置において、
前記表示形態決定部は、さらに、話者の属性、前記音声データにおける前記表現の出現位置、前記表現における前記音声の特徴量、音声認識処理における前記表現の推定結果の確からしさを示す第1スコア、前記表現が出現したときの話題、前記表現のポジティブ性/ネガティブ性を示す第2スコア、及び前記表現を行ったときの話者の感情の推定結果を示す第3スコアの少なくとも一つを用いて前記表示形態を決定する文字表示装置。 - 請求項1〜6のいずれか一項に記載の文字表示装置において、
前記表示形態は、色、大きさ、及び位置の少なくとも一つである文字表示装置。 - コンピュータが、
面接時に生成された音声データから生成されたテキストデータを取得し、当該テキストデータに含まれる複数の表現それぞれに対して、前記面接における当該表現の重要度を示す評価値を生成し、
前記評価値を用いて、前記複数の表現それぞれの表示形態を決定し、当該表示形態で前記複数の表現を同一の表示領域に表示させる、文字表示方法。 - コンピュータに、
面接時に生成された音声データから生成されたテキストデータを取得し、当該テキストデータに含まれる複数の表現それぞれに対して、前記面接における当該表現の重要度を示す評価値を生成する機能と、
前記評価値を用いて、前記複数の表現それぞれの表示形態を決定する機能と、
前記複数の表現を、前記決定した表示形態で同一の表示領域に表示させる機能と
を持たせるプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019146469A JP2021026686A (ja) | 2019-08-08 | 2019-08-08 | 文字表示装置、文字表示方法、及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019146469A JP2021026686A (ja) | 2019-08-08 | 2019-08-08 | 文字表示装置、文字表示方法、及びプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021026686A true JP2021026686A (ja) | 2021-02-22 |
Family
ID=74662560
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019146469A Pending JP2021026686A (ja) | 2019-08-08 | 2019-08-08 | 文字表示装置、文字表示方法、及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2021026686A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023175842A1 (ja) * | 2022-03-17 | 2023-09-21 | 日本電気株式会社 | 音分類装置、音分類方法、及びコンピュータ読み取り可能な記録媒体 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010256391A (ja) * | 2009-04-21 | 2010-11-11 | Takeshi Hanamura | 音声情報処理装置 |
JP2011048821A (ja) * | 2009-08-07 | 2011-03-10 | Buzzmetrics Ltd | 相対頻度に基づくフレーズマイニングのためのシステム、方法、及び装置 |
US20120179465A1 (en) * | 2011-01-10 | 2012-07-12 | International Business Machines Corporation | Real time generation of audio content summaries |
US20150046357A1 (en) * | 2013-08-09 | 2015-02-12 | Mattersight Corporation | Systems and methods for evaluating job candidates |
JP2016153833A (ja) * | 2015-02-20 | 2016-08-25 | ダイヤル・サービス株式会社 | 性格評価支援システム及び採用試験システム |
JP2017219989A (ja) * | 2016-06-07 | 2017-12-14 | 株式会社採用と育成研究社 | オンライン面接評価装置、方法およびプログラム |
-
2019
- 2019-08-08 JP JP2019146469A patent/JP2021026686A/ja active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010256391A (ja) * | 2009-04-21 | 2010-11-11 | Takeshi Hanamura | 音声情報処理装置 |
JP2011048821A (ja) * | 2009-08-07 | 2011-03-10 | Buzzmetrics Ltd | 相対頻度に基づくフレーズマイニングのためのシステム、方法、及び装置 |
US20120179465A1 (en) * | 2011-01-10 | 2012-07-12 | International Business Machines Corporation | Real time generation of audio content summaries |
US20150046357A1 (en) * | 2013-08-09 | 2015-02-12 | Mattersight Corporation | Systems and methods for evaluating job candidates |
JP2016153833A (ja) * | 2015-02-20 | 2016-08-25 | ダイヤル・サービス株式会社 | 性格評価支援システム及び採用試験システム |
JP2017219989A (ja) * | 2016-06-07 | 2017-12-14 | 株式会社採用と育成研究社 | オンライン面接評価装置、方法およびプログラム |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023175842A1 (ja) * | 2022-03-17 | 2023-09-21 | 日本電気株式会社 | 音分類装置、音分類方法、及びコンピュータ読み取り可能な記録媒体 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Chen et al. | Consumers’ perception on artificial intelligence applications in marketing communication | |
Meshram et al. | Conversational AI: chatbots | |
US20200051451A1 (en) | Short answer grade prediction | |
CN115062627B (zh) | 用于基于人工智能的计算机辅助说服***的方法和装置 | |
US20210110415A1 (en) | Enhanced survey information synthesis | |
JP7280705B2 (ja) | 機械学習装置、プログラム及び機械学習方法 | |
US20210050000A1 (en) | Multimodal video system for generating a personality assessment of a user | |
König et al. | Machine learning in personnel selection | |
Uchida et al. | Female-type android’s drive to quickly understand a user’s concept of preferences stimulates dialogue satisfaction: dialogue strategies for modeling user’s concept of preferences | |
US11295731B1 (en) | Artificial intelligence (AI) enabled prescriptive persuasion processes based on speech emotion recognition and sentiment analysis | |
JP6570465B2 (ja) | 重要語によって参加者の貢献度を推定可能なプログラム、装置及び方法 | |
Aggarwal | A review of ChatGPT and its impact in different domains | |
CN114444510A (zh) | 情感交互方法及装置、情感交互模型的训练方法及装置 | |
JP2021026686A (ja) | 文字表示装置、文字表示方法、及びプログラム | |
Yagi et al. | Predicting multimodal presentation skills based on instance weighting domain adaptation | |
CN111914077A (zh) | 定制化话术推荐方法、装置、计算机设备及存储介质 | |
Bustos-López et al. | Emotion detection from text in learning environments: a review | |
WO2022208953A1 (ja) | 情報処理システム及び仮想人材 | |
WO2021095473A1 (ja) | 情報処理装置、情報処理方法及びコンピュータプログラム | |
Carlson | Simple acoustic-prosodic models of confidence and likability are associated with long-term funding outcomes for entrepreneurs | |
Okundia | The role of artificial intelligence in marketing | |
Jaya et al. | Development Of Conversational Agent To Enhance Learning Experience: Case Study In Pre University | |
JP2020009264A (ja) | アノテーション支援装置 | |
Sokolova et al. | The telling tail: Signals of success in electronic negotiation texts | |
Karakas | Consumer perception: How creative is ChatGPT really?: A quantitative questionnaire |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210510 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220228 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220329 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20220927 |