JP2021026686A - 文字表示装置、文字表示方法、及びプログラム - Google Patents

文字表示装置、文字表示方法、及びプログラム Download PDF

Info

Publication number
JP2021026686A
JP2021026686A JP2019146469A JP2019146469A JP2021026686A JP 2021026686 A JP2021026686 A JP 2021026686A JP 2019146469 A JP2019146469 A JP 2019146469A JP 2019146469 A JP2019146469 A JP 2019146469A JP 2021026686 A JP2021026686 A JP 2021026686A
Authority
JP
Japan
Prior art keywords
interview
display device
expression
character display
expressions
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019146469A
Other languages
English (en)
Inventor
隆一郎 前澤
Ryuichiro Maezawa
隆一郎 前澤
慎之介 武田
Shinnosuke Takeda
慎之介 武田
幹 森岡
Miki Morioka
幹 森岡
佑磨 林
Yuma Hayashi
佑磨 林
静厳 萩原
Seigen Hagiwara
静厳 萩原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Airev Co Ltd
Future Values Intelligence
Future Values Intelligence Co Ltd
STADIUM CO Ltd
Original Assignee
Airev Co Ltd
Future Values Intelligence
Future Values Intelligence Co Ltd
STADIUM CO Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Airev Co Ltd, Future Values Intelligence, Future Values Intelligence Co Ltd, STADIUM CO Ltd filed Critical Airev Co Ltd
Priority to JP2019146469A priority Critical patent/JP2021026686A/ja
Publication of JP2021026686A publication Critical patent/JP2021026686A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Machine Translation (AREA)
  • Document Processing Apparatus (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】面接時の音声データに含まれている情報を確認しやすくする。【解決手段】文字表示装置10は、評価部150、表示形態決定部180、及び表示制御部200を有している。評価部150は、上記した音声データから生成されたテキストデータを取得し、そのテキストデータに含まれる複数の表現それぞれに対して評価値を生成する。この評価値は、面接におけるその表現の重要度(例えば重要性を示すスコア)を示している。表示形態決定部180は、評価部150が生成した評価値を用いて、複数の表現それぞれの表示形態を決定する。表示制御部200は、これら複数の表現を、表示形態決定部180が決定した表示形態で同一の表示領域に表示させる。表示制御部200が行う表示は、例えば端末20のディスプレイに表示される。【選択図】図1

Description

本発明は、文字表示装置、文字表示方法、及びプログラムに関する。
近年、インターネットなどの通信回線を介して面接官と被面接者が面接を行うことが行われている。例えば特許文献1には、面接仲介システムが、面接時の動画データ及び音声データを記憶することが記載されている。
特開2017−41215号公報
面接時の音声データには様々な情報が含まれている。本発明の目的は、面接時の音声データに含まれている情報をユーザが確認しやすくすることにある。
本発明によれば、面接の時に生成された音声データから生成されたテキストデータを取得し、当該テキストデータに含まれる複数の表現それぞれに対して、前記面接における当該表現の重要度を示す評価値を生成する評価部と、
前記評価値を用いて、前記複数の表現それぞれの表示形態を決定する表示形態決定部と、
前記複数の表現を、前記表示形態決定部が決定した表示形態で同一の表示領域に表示させる表示制御部と、
を備える文字表示装置が提供される。
また本発明によれば、コンピュータが、
面接の時に生成された音声データから生成されたテキストデータを取得し、当該テキストデータに含まれる複数の表現それぞれに対して、前記面接における当該表現の重要度を示す評価値を生成し、
前記評価値を用いて、前記複数の表現それぞれの表示形態を決定し、当該表示形態で前記複数の表現を同一の表示領域に表示させる、文字表示方法が提供される。
本発明によれば、コンピュータに、
面接の時に生成された音声データから生成されたテキストデータを取得し、当該テキストデータに含まれる複数の表現それぞれに対して、前記面接における当該表現の重要度を示す評価値を生成する機能と、
前記評価値を用いて、前記複数の表現それぞれの表示形態を決定する機能と、
前記複数の表現を、前記決定した表示形態で同一の表示領域に表示させる機能と
を持たせるプログラムが提供される。
本発明によれば、ユーザは、面接時の音声データに含まれている情報を確認しやすくなる。
実施形態に係る文字表示装置の機能構成を、その使用環境とともに示す図である。 面接データ記憶部のデータ構成の一例を示す図である。 テキスト記憶部のデータ構成の一例を示す図である。 モデル記憶部のデータ構成の一例を示す図である。 モデル記憶部のデータ構成の一例を示す図である。 各モデルの生成方法を説明するための図である。 評価結果記憶部のデータ構成の一例を示す図である。 表示ルール記憶部のデータ構成の一例を示す図である。 表示制御部による端末の表示例を示す図である。 文字表示装置のハードウエア構成を例示するブロック図である。
以下、本発明の実施の形態について、図面を用いて説明する。尚、すべての図面において、同様な構成要素には同様の符号を付し、適宜説明を省略する。
図1は、実施形態に係る文字表示装置10の機能構成を、その使用環境とともに示す図である。文字表示装置10は端末20とともに使用される。端末20は面接を行う主体(例えば企業や団体)の従業員(例えば面接官)によって使用される。端末20は、面接時に、面接に応募した応募者が使用する端末(図示せず)と通信を行う。これにより、面接官は、応募者が異なる場所にいても、面接を行うことができる。
端末20は、面接時に動画データ及び音声データを生成する。この動画データには面接官の映像及び応募者の映像の双方が含まれており、また、音声データには面接官の音声及び応募者の音声の双方が含まれている。文字表示装置10は、これらの動画データ及び音声データ(以下、面接データと記載)を取得し、この音声データを解析することにより、面接官に、面接に関する情報を提供する。
具体的には、文字表示装置10は、評価部150、表示形態決定部180、及び表示制御部200を有している。評価部150は、上記した音声データから生成されたテキストデータを取得し、そのテキストデータに含まれる複数の表現それぞれに対して評価値を生成する。この評価値は、面接におけるその表現の重要度(例えば重要性を示すスコア)を示している。表示形態決定部180は、評価部150が生成した評価値を用いて、複数の表現それぞれの表示形態を決定する。表示制御部200は、これら複数の表現を、表示形態決定部180が決定した表示形態で同一の表示領域に表示させる。表示制御部200が行う表示は、例えば端末20のディスプレイに表示される。
なお、文字表示装置10は、互いに異なる複数の主体それぞれの端末20と通信する。そして文字表示装置10は、複数の主体別に処理を行う。以下、文字表示装置10について詳細に説明する。
文字表示装置10は、上記した評価部150、表示形態決定部180、及び表示制御部200の他に、データ取得部110、面接データ記憶部120、音声認識部130、テキスト記憶部140、モデル記憶部160、評価結果記憶部170、及び表示ルール記憶部190を有している。
データ取得部110は、端末20から面接データを、その面接データの属性情報と共に取得し、これら面接データ及び属性情報を面接データ記憶部120に記憶させる。属性情報は、面接それぞれに割り振られたID(以下、面接IDと記載)、面接を行った主体(例えば企業)を特定する情報、面接官を特定する情報(以下、面接官IDと記載)、応募者を特定する情報(以下、応募者IDと記載)、及び面接が行われた日時を示す情報を含んでいる。面接IDは、例えば面接が行われる前に予め付与されていてもよいし、面接が行われたタイミングで付与されてもよい。面接IDの付与は、端末20が行ってもよいし、文字表示装置10が行ってもよいし、面接を管理する他の装置が行ってもよい。端末20は、この面接IDを記憶しており、面接データと共にデータ取得部110に送信する。
音声認識部130は、面接データ記憶部120から音声データを読み出し、音声認識処理を行うことにより、テキストデータを生成する。テキストデータは、発話内容を示す文字の他に、その文字の出現位置(発話時刻)、その文字を発話した話者情報、及びその文字の推定結果の確からしさ(以下、第1スコアと記載)も含んでいる。そして音声認識部130は、このテキストデータを、主体別(例えば企業別)に、面接IDに紐づけてテキスト記憶部140に記憶させる。
音声認識部130は、上記した音声認識処理において、話者を特定し、この特定した話者を示す情報、すなわち上記した話者情報を生成する。例えば、面接データには対応している面接官のIDが対応づいている。各面接官の音声を事前に録音しておきその音声から得られる音響特徴量を用いることで、面接データ中のどの区間が面接官の発話か、どの区間が応募者の発話かを推定する。この結果を用いて、面接データを書き起こしたテキストデータに、面接官及び/又は応募者の発話内容であることを示す情報を紐付けることができる。
評価部150は、テキスト記憶部140が記憶しているテキストデータを処理することにより、そのテキストデータに含まれる複数の表現それぞれに対して、上記した評価値を生成する。評価が行われる表現の単位は、単語であってもよいし、熟語であってもよいし、文節であってもよい。評価部150は、面接ID別に、複数の表現を、その表現の評価値に対応付けて評価結果記憶部170に記憶させる。この際、評価部150は、応募者の発話内容に含まれる表現のみを評価結果記憶部170に記憶する。また評価部150は、評価値が基準を満たす表現のみ、例えば重要度が基準以上の表現のみを評価結果記憶部170に記憶するのが好ましい。
評価部150は、学習済モデルを用いて、テキストデータに含まれる複数の表現それぞれの評価値を生成する。この学習済みモデルは、テキストデータを入力として評価値を出力するモデルであり、機械学習を用いて生成され、モデル記憶部160に記憶されている。モデル記憶部160には複数の学習済モデルが記憶されている。そして評価部150は、適切な学習済モデルを選択して使用する。学習済モデルの種類及び学習済モデルの選択方法については、後述する。
また、評価部150は、面接データを書き起こしたテキストデータのほか、その表現を発話した話者の属性、テキストデータの基になった音声データにおけるその表現の出現位置、その表現における音声の特徴量(例えば音量や話速)、音声認識処理の推定結果の確からしさを表す第1スコアも入力することができる。これらの入力を元に上記した評価値のほか、その表現が出現した時の話題、その表現のポジティブ性/ネガティブ性を表す第2スコア、及びその表現を行ったときの話者の感情の推定結果を示す第3スコアも判定することができる。評価部150は、上記の入力と判定結果を評価結果記憶部170に記憶させる。例えば、話者の属性を除いて、テキスト記憶部140が記憶しているデータを処理することにより生成される。
上記した話者の属性は、例えば話者のID(例えば応募者ID)、話者の性別、及び年齢の少なくとも一つである。評価部150は、話者の属性を、面接IDを用いて他のデータベースから取得してもよい。この場合、他のデータベースは、面接ID別に、上記した話者の属性を記憶している。
また、話者の感情は、例えば感情推定モデルを用いて推定される。この感情推定モデルは、上記したテキストデータに含まれる表現がどの感情であるかを推定するモデルであり、例えば、テキストデータや音声データを入力としており、感情及びその大きさを示すスコアを出力としている。
表示形態決定部180は、評価結果記憶部170が記憶している評価値を用いて、複数の表現それぞれの表示形態を決定する。表示形態決定部180は、例えばワードクラウドと呼ばれる表現を作成する場合、表示形態は、文字の色、文字の大きさ、及び表示領域における表現の位置、が挙げられるが、これらに限定されない。この際、表示形態決定部180は、詳細を後述するように、表示ルール記憶部190が記憶しているルールを用いて各表現の表示形態を決定する。
なお、端末20は、バッチ式でデータ取得部110に面接データを送信してもよいし、面接データを生成するたびにデータ取得部110に面接データを送信してもよい。また、音声認識部130,評価部150、及び表示形態決定部180は、端末20からの指示に応じて処理を行ってもよいし、端末20からの指示とは関係ないタイミング、例えば文字表示装置10の処理能力が空いているタイミングで処理を行ってもよい。そして表示制御部200は、端末20のユーザが望んだタイミングで、表示形態決定部180が決定した表示形態で複数の表現を表示させるためのデータを、端末20に送信する。
図2は、面接データ記憶部120のデータ構成の一例を示す図である。面接データ記憶部120は、面接IDに紐づけて、その面接IDに対応する面接の面接官ID、応募者ID、面接が行われた日時、及び面接データを記憶している。上記したように、これらのデータは端末20から送信される。
図3は、テキスト記憶部140のデータ構成の一例を示す図である。面接データ記憶部120は、面接IDに紐づけてテキストデータを記憶している。このテキストデータは、その面接IDに対応する面接で生成された音声データを音声認識した結果を示している。なお、テキストデータのフォーマットは任意である。
また、テキストデータの一部には、面接官の発言内容であることを示す情報が紐付いていることもある。この場合、テキストデータのうちこの情報が紐付いている内容は面接官の発話内容であり、テキストデータのうちこの情報が紐付いていない内容は応募者の発話内容であることが特定できる。
図4及び図5は、モデル記憶部160のデータ構成の一例を示す図である。図4に示すように、モデル記憶部160は、複数のモデル群を、そのモデル群が適用されるべき主体の条件(適用条件)に対応付けて記憶している。評価部150は、処理対象となっているテキストデータに紐付いている主体を用いて、用いるべきモデル群を選択する。図4に示す例では、複数のモデル群は、そのモデル群が適用されるべき企業に対応付けられている。
そして各モデル群は、図5に示すように、複数の学習済モデルを記憶している。この複数の学習済モデルの一例は、P/N(Positive/ Negative)判定モデル、話題別重み付けモデル、単語共起重み付けモデル、業種別重み付けモデル、及び企業別重みづけモデルである。いずれのモデルも、評価対象としての表現を含むデータが入力されると、その表現に対する評価値を出力するものである。
P/N(Positive/ Negative)判定モデルは、各表現に対し、肯定的(Positive)/否定的(Negative)のいずれかと、その度合(スコア)を算出するモデルである。本実施形態で用いられるP/N判定モデルは、面接データを用いて構築されているため、面接における表現に特化されている。
話題別重み付けモデルは、面接で予め設定されている話題、例えば議題やトピック(例えば志望理由や活動履歴など)の回答となるような単語、フレーズ等の重要な表現に対して重みを付与するモデルである。面接では、その面接の目的によって、触れるべき話題が設定されている場合が多い。このような場合において、ある面接で適用されるべき話題別重み付けモデルは、その面接で設定されている話題に基づいて設定される。
単語共起重み付けモデルは、表現(例えば単語、フレーズ、及び文などの任意の単位で設定可能)間の共起に関する統計情報を利用した重み付けモデルである。
業種別重み付けモデルは、面接対象の主体(例えば企業)の業種における重要な単語、フレーズ等の重要な表現に対して重みを付与するモデルである。業種別重み付けモデルは、面接を行う主体の業種別に生成されている。なお、業種別重み付けモデルの代わりに、又は採用種別重み付けモデルに加えて、採用種別重み付けモデルが用いられてもよい。採用別重み付けモデルは、採用種(例えば新卒、中途、アルバイト、パート、及び派遣など)における重要な単語、フレーズ等の重要な表現に対して重みを付与するモデルであり、採用種別に生成されている。
主体別重み付けモデルは、面接対象の主体(例えば企業)に特有な商品・サービス等の固有表現などを考慮した上で、面接中の表現(例えば重要な表現)に重み付けを行うモデルである。主体別重み付けモデルは、面接を行う主体別に生成されている。このモデルは、例えばその主体のウェブページに含まれるテキストデータを用いて生成することができる。
上記した複数の学習済モデルの一部(例えばP/N判定モデル及び単語共起重みづけモデル)は、全てのモデル群で共通になっていてもよい。また、上記した複数の学習済モデルの他の一部(例えば話題別重み付けモデルや業種別重み付けモデル)は、複数のモデル群(ただし全てではない)で共通になっていてもよい。
なお、上記した学習済モデルは、例えば以下の3つの方法で生成(学習)されている。
第1は、教師あり学習に基づく表現推定方法である。この方法の一例は、テキストデータと、そのテキストデータに含まれる重要な表現と、からなる対データを予め作成し、この対データを用いて、テキストを入力すると重要な表現集合を出力するような識別器又は識別モデルを学習するものである。この方法には、ロジスティック回帰、ニューラルネットワーク、構造化パーセプトロン、(構造化)サポートベクタマシンなどが用いられる。
第2は、教師あり学習に基づく表現重み推定方法である。この方法の一例は、テキストデータと、そのテキストデータに含まれる重要な表現と、からなる対データを予め作成し、この対データを用いて、入力テキスト中の各表現に対して重み(スコア)を推定するような回帰関数を学習するものである。この方法には、ロジスティック回帰、ニューラルネットワーク、決定木、及びランダムフォレストなどが用いられる。
第3は、教師なし学習に基づく表現重み推定方法である。この方法の一例は、書き起こしテキストを予め作成し、このテキストデータから単語などの表現の重みを出力するような、表現から実数値への関数や生成モデルを学習するものである。この方法には、TF−IDF(Term Frequency Inverse Document Frequency)、潜在的意味解析、非負値行列分解、潜在ディリシュレ配分法、及びニューラルトピックモデルなどが用いられる。
そして図6に示すように、P/N判定モデルには、教師あり学習に基づく推定方法及び教師あり学習に基づく重み推定方法が好適である。また、単語共起重み付けモデルには、教師あり学習に基づく重み推定方法及び教師なし学習に基づく表現重み推定方法が好適である。また、話題別重み付けモデル、業種別重み付けモデル、及び企業別重みづけモデルには、教師あり学習に基づく表現推定方法、教師あり学習に基づく表現重み推定方法、及び教師なし学習に基づく表現重み推定方法が好適である。
上記したモデルのうち、話題別重み付けモデル、単語共起重み付けモデル、業種別重み付けモデル、及び企業別重み付けモデルは、各表現の評価値(重要度)を算出するモデルである。評価部150は、これらのモデルのうち複数(例えばすべて)を用いて評価値を算出してもよいし、一つのモデルのみを用いて評価値を算出してもよい。
前者の場合、各モデルの評価値の統合方法は、例えば以下の3つの方法がある。第1の方法では、各モデルの信頼度を事前に定め、出力結果と信頼度を掛け合わせることで統合する。第2の方法では、モデルの出力結果の和集合をとることで統合する。第3の方法では、各モデルの出力結果の積集合をとることで統合する。また、評価部150は、統合した後の重要度が一定値未満の表現を、切り捨ててもよい。
なお、モデル記憶部160は、図5〜図7を用いて説明したモデルの他に、図1を用いて説明した感情推定モデルも記憶している。
図7は、評価結果記憶部170のデータ構成の一例を示す図である。評価結果記憶部170は、面接ID毎に、テキスト記憶部140においてその面接IDに対応付けられていたテキストデータから抽出された複数の表現(例えば重要な表現)を示す文字列を、各表現の重要度(評価値)及びその他の情報に紐づけて記憶している。その他の情報は、例えば、図1を用いて説明したように、話者の属性、テキストデータの基になった音声データにおけるその表現の出現位置、その表現における音声の特徴量、その表現の第1スコア、その表現が出現したときの話題、その表現の第2スコア、及びその表現の第3スコアの少なくとも一つである。
図8は、表示ルール記憶部190のデータ構成の一例を示す図である。上記したように、表示ルール記憶部190は、表示形態決定部180が各表現の表示形態を決めるときのルールを記憶している。図8に示すルールは、評価結果記憶部170が記憶している各データが、表示形態の各要素(色、大きさ、及び位置)のいずれに影響を与えるかを示している。「○」は影響を与えることを示しており、「△」は影響を与えないか、または与えたとしてもその影響度が小さいことを示している。
具体的には、重要度(上記した評価値)、音声の特徴量、第1スコア、第2スコア、及び第3スコアは、いずれも色及び大きさに影響を与える。話者の属性は色及び位置に影響を与える。出現位置(時刻)は位置に影響を与える。さらに、話題は色、大きさ、及び位置のすべてに影響を与える。
図9は、表示制御部200による端末20の表示例を示す図である。本図に示す例において、評価値が高い表現、すなわち重要な表現は中央かつ大きな文字で表示されている。また、評価値が高い表現は、目立つ色(例えば赤色)で表示されるのが好ましい。
図10は、文字表示装置10のハードウエア構成を例示するブロック図である。文字表示装置10は、バス1010、プロセッサ1020、メモリ1030、ストレージデバイス1040、入出力インタフェース1050、及びネットワークインタフェース1060を有する。
バス1010は、プロセッサ1020、メモリ1030、ストレージデバイス1040、入出力インタフェース1050、及びネットワークインタフェース1060が、相互にデータを送受信するためのデータ伝送路である。ただし、プロセッサ1020などを互いに接続する方法は、バス接続に限定されない。
プロセッサ1020は、CPU(Central Processing Unit) やGPU(Graphics Processing Unit)などで実現されるプロセッサである。
メモリ1030は、RAM(Random Access Memory)などで実現される主記憶装置である。
ストレージデバイス1040は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、メモリカード、又はROM(Read Only Memory)などで実現される補助記憶装置である。ストレージデバイス1040は文字表示装置10の各機能(例えばデータ取得部110、音声認識部130、評価部150、表示形態決定部180、及び表示制御部200)を実現するプログラムモジュールを記憶している。プロセッサ1020がこれら各プログラムモジュールをメモリ1030上に読み込んで実行することで、そのプログラムモジュールに対応する各機能が実現される。また、ストレージデバイス1040は面接データ記憶部120、テキスト記憶部140、モデル記憶部160、評価結果記憶部170、及び表示形態決定部180としても機能する。
入出力インタフェース1050は、文字表示装置10と各種入出力機器とを接続するためのインタフェースである。
ネットワークインタフェース1060は、文字表示装置10をネットワーク上の他の装置(例えば端末20)に接続するためのインタフェースである。
以上、本実施形態によれば、文字表示装置10は、面接時に生成された音声データに含まれる表現を、その表現の重要度に応じた表示形態で端末20に表示する。このため、端末20のユーザは、面接時の音声データに含まれている情報を確認しやすくなる。
また、文字表示装置10が用いる学習済モデルは面接に特化したモデルになっている。従って、文字表示装置10が算出した重要度の精度も高くなる。さらにこれらの学習済モデルの少なくとも一部は、その業種に特化したモデルになっていたり、その面接主体(例えば企業)に特化したモデルになっていたり、話題に特化したモデルになっている。従って、文字表示装置10が算出する重要度の精度も高くなる。
以上、図面を参照して本発明の実施形態について述べたが、これらは本発明の例示であり、上記以外の様々な構成を採用することもできる。
また、上述の説明で用いた複数のフローチャートでは、複数の工程(処理)が順番に記載されているが、各実施形態で実行される工程の実行順序は、その記載の順番に制限されない。各実施形態では、図示される工程の順番を内容的に支障のない範囲で変更することができる。また、上述の各実施形態は、内容が相反しない範囲で組み合わせることができる。
10 文字表示装置
20 端末
110 データ取得部
120 面接データ記憶部
130 音声認識部
140 テキスト記憶部
150 評価部
160 モデル記憶部
170 評価結果記憶部
180 表示形態決定部
190 表示ルール記憶部
200 表示制御部

Claims (9)

  1. 面接の時に生成された音声データから生成されたテキストデータを取得し、当該テキストデータに含まれる複数の表現それぞれに対して、前記面接における当該表現の重要度を示す評価値を生成する評価部と、
    前記評価値を用いて、前記複数の表現それぞれの表示形態を決定する表示形態決定部と、
    前記複数の表現を、前記表示形態決定部が決定した表示形態で同一の表示領域に表示させる表示制御部と、
    を備える文字表示装置。
  2. 請求項1に記載の文字表示装置において、
    前記評価部は、機械学習を適用することで前記テキストデータから前記評価値を出力するモデルを学習し、その学習済モデルを用いて前記評価値を生成する文字表示装置。
  3. 請求項2に記載の文字表示装置において、
    前記学習済モデルは、前記面接を行った主体別に生成されている文字表示装置。
  4. 請求項2又は3に記載の文字表示装置において、
    前記学習済モデルは、前記面接を行った主体の業種別に生成されている文字表示装置。
  5. 請求項2〜4のいずれか一項に記載の文字表示装置において、
    前記学習済モデルは、前記面接における話題別に生成されている文字表示装置。
  6. 請求項1〜5のいずれか一項に記載の文字表示装置において、
    前記表示形態決定部は、さらに、話者の属性、前記音声データにおける前記表現の出現位置、前記表現における前記音声の特徴量、音声認識処理における前記表現の推定結果の確からしさを示す第1スコア、前記表現が出現したときの話題、前記表現のポジティブ性/ネガティブ性を示す第2スコア、及び前記表現を行ったときの話者の感情の推定結果を示す第3スコアの少なくとも一つを用いて前記表示形態を決定する文字表示装置。
  7. 請求項1〜6のいずれか一項に記載の文字表示装置において、
    前記表示形態は、色、大きさ、及び位置の少なくとも一つである文字表示装置。
  8. コンピュータが、
    面接時に生成された音声データから生成されたテキストデータを取得し、当該テキストデータに含まれる複数の表現それぞれに対して、前記面接における当該表現の重要度を示す評価値を生成し、
    前記評価値を用いて、前記複数の表現それぞれの表示形態を決定し、当該表示形態で前記複数の表現を同一の表示領域に表示させる、文字表示方法。
  9. コンピュータに、
    面接時に生成された音声データから生成されたテキストデータを取得し、当該テキストデータに含まれる複数の表現それぞれに対して、前記面接における当該表現の重要度を示す評価値を生成する機能と、
    前記評価値を用いて、前記複数の表現それぞれの表示形態を決定する機能と、
    前記複数の表現を、前記決定した表示形態で同一の表示領域に表示させる機能と
    を持たせるプログラム。
JP2019146469A 2019-08-08 2019-08-08 文字表示装置、文字表示方法、及びプログラム Pending JP2021026686A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019146469A JP2021026686A (ja) 2019-08-08 2019-08-08 文字表示装置、文字表示方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019146469A JP2021026686A (ja) 2019-08-08 2019-08-08 文字表示装置、文字表示方法、及びプログラム

Publications (1)

Publication Number Publication Date
JP2021026686A true JP2021026686A (ja) 2021-02-22

Family

ID=74662560

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019146469A Pending JP2021026686A (ja) 2019-08-08 2019-08-08 文字表示装置、文字表示方法、及びプログラム

Country Status (1)

Country Link
JP (1) JP2021026686A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023175842A1 (ja) * 2022-03-17 2023-09-21 日本電気株式会社 音分類装置、音分類方法、及びコンピュータ読み取り可能な記録媒体

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010256391A (ja) * 2009-04-21 2010-11-11 Takeshi Hanamura 音声情報処理装置
JP2011048821A (ja) * 2009-08-07 2011-03-10 Buzzmetrics Ltd 相対頻度に基づくフレーズマイニングのためのシステム、方法、及び装置
US20120179465A1 (en) * 2011-01-10 2012-07-12 International Business Machines Corporation Real time generation of audio content summaries
US20150046357A1 (en) * 2013-08-09 2015-02-12 Mattersight Corporation Systems and methods for evaluating job candidates
JP2016153833A (ja) * 2015-02-20 2016-08-25 ダイヤル・サービス株式会社 性格評価支援システム及び採用試験システム
JP2017219989A (ja) * 2016-06-07 2017-12-14 株式会社採用と育成研究社 オンライン面接評価装置、方法およびプログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010256391A (ja) * 2009-04-21 2010-11-11 Takeshi Hanamura 音声情報処理装置
JP2011048821A (ja) * 2009-08-07 2011-03-10 Buzzmetrics Ltd 相対頻度に基づくフレーズマイニングのためのシステム、方法、及び装置
US20120179465A1 (en) * 2011-01-10 2012-07-12 International Business Machines Corporation Real time generation of audio content summaries
US20150046357A1 (en) * 2013-08-09 2015-02-12 Mattersight Corporation Systems and methods for evaluating job candidates
JP2016153833A (ja) * 2015-02-20 2016-08-25 ダイヤル・サービス株式会社 性格評価支援システム及び採用試験システム
JP2017219989A (ja) * 2016-06-07 2017-12-14 株式会社採用と育成研究社 オンライン面接評価装置、方法およびプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023175842A1 (ja) * 2022-03-17 2023-09-21 日本電気株式会社 音分類装置、音分類方法、及びコンピュータ読み取り可能な記録媒体

Similar Documents

Publication Publication Date Title
Chen et al. Consumers’ perception on artificial intelligence applications in marketing communication
Meshram et al. Conversational AI: chatbots
US20200051451A1 (en) Short answer grade prediction
CN115062627B (zh) 用于基于人工智能的计算机辅助说服***的方法和装置
US20210110415A1 (en) Enhanced survey information synthesis
JP7280705B2 (ja) 機械学習装置、プログラム及び機械学習方法
US20210050000A1 (en) Multimodal video system for generating a personality assessment of a user
König et al. Machine learning in personnel selection
Uchida et al. Female-type android’s drive to quickly understand a user’s concept of preferences stimulates dialogue satisfaction: dialogue strategies for modeling user’s concept of preferences
US11295731B1 (en) Artificial intelligence (AI) enabled prescriptive persuasion processes based on speech emotion recognition and sentiment analysis
JP6570465B2 (ja) 重要語によって参加者の貢献度を推定可能なプログラム、装置及び方法
Aggarwal A review of ChatGPT and its impact in different domains
CN114444510A (zh) 情感交互方法及装置、情感交互模型的训练方法及装置
JP2021026686A (ja) 文字表示装置、文字表示方法、及びプログラム
Yagi et al. Predicting multimodal presentation skills based on instance weighting domain adaptation
CN111914077A (zh) 定制化话术推荐方法、装置、计算机设备及存储介质
Bustos-López et al. Emotion detection from text in learning environments: a review
WO2022208953A1 (ja) 情報処理システム及び仮想人材
WO2021095473A1 (ja) 情報処理装置、情報処理方法及びコンピュータプログラム
Carlson Simple acoustic-prosodic models of confidence and likability are associated with long-term funding outcomes for entrepreneurs
Okundia The role of artificial intelligence in marketing
Jaya et al. Development Of Conversational Agent To Enhance Learning Experience: Case Study In Pre University
JP2020009264A (ja) アノテーション支援装置
Sokolova et al. The telling tail: Signals of success in electronic negotiation texts
Karakas Consumer perception: How creative is ChatGPT really?: A quantitative questionnaire

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210510

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220329

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220927