JP2004309631A - 対話練習支援装置、方法及びプログラム - Google Patents

対話練習支援装置、方法及びプログラム Download PDF

Info

Publication number
JP2004309631A
JP2004309631A JP2003100296A JP2003100296A JP2004309631A JP 2004309631 A JP2004309631 A JP 2004309631A JP 2003100296 A JP2003100296 A JP 2003100296A JP 2003100296 A JP2003100296 A JP 2003100296A JP 2004309631 A JP2004309631 A JP 2004309631A
Authority
JP
Japan
Prior art keywords
information
question
terminal
storage means
dialogue
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2003100296A
Other languages
English (en)
Inventor
Eriko Sano
恵利子 佐野
Yoshihiko Hirakawa
義彦 平川
Akio Kameda
明男 亀田
Shinichiro Takagi
伸一郎 高木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2003100296A priority Critical patent/JP2004309631A/ja
Publication of JP2004309631A publication Critical patent/JP2004309631A/ja
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Electrically Operated Instructional Devices (AREA)

Abstract

【課題】実際の模擬的な対話練習のように音声及び映像で行われる対話型であって、質問に対する利用者の返答内容及び返答時間等を評価する対話練習支援装置、方法及びプログラムを提供する。
【解決手段】質問情報に対して返答情報に含まれる用語及び無言時間とによって分岐し、次に送信すべき質問情報を選択するシナリオ情報を有する。返答情報における音声情報をテキスト情報に変換し、特定用語が含まれていればその旨を又は無言時間があればその旨をマーク付けして蓄積する。端末から評価録要求を受信した際に、質問情報及び返答情報と共に、マーク付けされた部分に特定用語が用いられている旨又は無言時間がある旨の情報とからなる評価録情報を、端末へ送信する。
【選択図】 図3

Description

【0001】
【発明の属する技術分野】
本発明は、模擬的に対話練習を行うための対話練習支援装置、方法及びプログラムに関する。
【0002】
【従来の技術】
従来より、コンピュータを使用した会話マナー教育システムがある(例えば特許文献1参照)。このシステムは、利用者の自由な発話を入力し、それを文字情報に変換し、利用者の発話の文字情報と正しい発話の文字情報とを比較して、評価するものであった。そして、その総合的な評価を、ディスプレイに画像情報として出力する。これにより、敬語に対する文法知識、敬語運用知識、会話状況情報等を学習することができる。
【0003】
【特許文献1】
特許第2673831号
【0004】
【発明が解決しようとする課題】
しかしながら、従来のシステムは、利用者の一方的な発話に対して評価するものであり、実際に行われるような対話型のものではなかった。従って、質問に対する返答内容に応じて、次の質問を選択したり、返答に詰まった場合の無言時間を評価することはできなかった。
【0005】
そこで、本発明は、実際の模擬的な対話練習のように音声及び映像で行われる対話型であって、質問に対する利用者の返答内容及び返答時間等を評価する対話練習支援装置、方法及びプログラムを提供することを目的とする。
【0006】
【課題を解決するための手段】
本発明の対話練習支援装置によれば、
面接官の音声映像情報からなる質問情報に対して、利用者の音声映像情報からなる返答情報に含まれる用語と、該返答情報が受信されるまでの無言時間とによって分岐し、次に送信すべき質問情報を選択するシナリオ情報を含む質問情報蓄積手段と、
シナリオ情報に基づいて質問情報を端末へ送信する手段と、
端末から受信した返答情報を蓄積する音声映像情報蓄積手段と、
特定用語を蓄積した用語蓄積手段と、
利用者の音声映像情報における音声情報をテキスト情報に変換し、特定用語が含まれていればその旨を又は無言時間があればその旨を、テキスト情報の部分にマーク付けする音声認識処理手段と、
音声認識処理手段によってマーク付けされたテキスト情報を蓄積する対話情報蓄積手段と、
端末から評価録要求を受信した際に、対話情報蓄積手段からマーク付けされた部分を抽出する対話評価手段と、
質問情報蓄積手段から抽出した質問情報と、音声映像情報蓄積手段から抽出した返答情報と、マーク付けされた部分に特定用語が用いられている旨又は無言時間がある旨の情報とからなる評価録情報を、端末へ送信する評価録生成手段と
を有することを特徴とする。
【0007】
本発明の対話練習支援装置における他の実施形態によれば、
質問情報蓄積手段に蓄積されたシナリオ情報は、分岐に応じて評価ポイント情報が含まれており、
対話評価手段は、シナリオ情報を辿る分岐に応じて評価ポイント情報を加算し、
評価録生成手段は、更に評価ポイント情報を端末へ送信することも好ましい。
【0008】
また、本発明の対話練習支援装置における他の実施形態によれば、
音声認識処理手段は、シナリオ情報における分岐の通過統計情報を収集し、該通過統計情報を質問情報蓄積手段に蓄積することも好ましい。
【0009】
本発明の対話練習支援方法によれば、
装置は、面接官の音声映像情報からなる質問情報に対して、利用者の音声映像情報からなる返答情報に含まれる用語と、該返答情報が受信されるまでの無言時間とによって分岐し、次に送信すべき質問情報を選択するシナリオ情報を含む質問情報蓄積手段と、特定用語を蓄積した用語蓄積手段とを有しており、
装置が、シナリオ情報に基づいて質問情報を端末へ送信する第1のステップと、
端末が、質問情報に対する返答情報を装置へ送信する第2のステップと、
装置が、返答情報を音声映像情報蓄積手段に蓄積する第3のステップと、
装置が、利用者の音声映像情報における音声情報をテキスト情報に変換し、特定用語が含まれていればその旨を又は無言時間があればその旨を、テキスト情報の部分にマーク付けして音声認識処理をする第4のステップと、
装置が、音声認識処理手段によってマーク付けされたテキスト情報を対話情報蓄積手段に蓄積する第5のステップと
を有し、第1から第5のステップを繰返し、
端末が、評価録要求を装置へ送信する第6のステップと、
装置が、対話情報蓄積手段からマーク付けされた部分を抽出する第7のステップと、
装置が、質問情報蓄積手段から抽出された質問情報と、音声映像情報蓄積手段から抽出された返答情報と、マーク付けされた部分に特定用語が用いられている旨又は無言時間がある旨の情報とからなる評価録情報を、端末へ送信する第8のステップとを有することを特徴とする。
【0010】
また、本発明の対話練習支援方法によれば、
装置は、面接官の音声映像情報からなる質問情報に対して、利用者の音声映像情報からなる返答情報に含まれる用語と、該返答情報が受信されるまでの無言時間とによって分岐し、次に送信すべき質問情報を選択するシナリオ情報を含む質問情報蓄積手段と、特定用語を蓄積した用語蓄積手段とを有しており、
端末も、質問情報蓄積手段を有しており、
端末が、シナリオ情報に基づいて質問情報を利用者に出力し、且つ、該質問情報に対する返答情報を入力することを繰返して、一連の返答情報を収集する第1のステップと、
端末が、返答情報を、装置へ送信する第2のステップと、
装置が、返答情報を音声映像情報蓄積手段に蓄積する第3のステップと、
装置が、利用者の音声映像情報における音声情報をテキスト情報に変換し、特定用語が含まれていればその旨を又は無言時間があればその旨を、テキスト情報の部分にマーク付けして音声認識処理をする第4のステップと、
装置が、音声認識処理手段によってマーク付けされたテキスト情報を対話情報蓄積手段に蓄積する第5のステップと
を有し、
端末が、評価録要求を装置へ送信する第6のステップと、
装置が、対話情報蓄積手段からマーク付けされた部分を抽出する第7のステップと、
装置が、質問情報蓄積手段から抽出された質問情報と、音声映像情報蓄積手段から抽出された返答情報と、マーク付けされた部分に特定用語が用いられている旨又は無言時間がある旨の情報とからなる評価録情報を、端末へ送信する第8のステップとを有することを特徴とする。
【0011】
本発明の対話練習支援方法における他の実施形態によれば、
質問情報蓄積手段に蓄積されたシナリオ情報は、分岐に応じて評価ポイント情報が含まれており、
第5のステップは、シナリオ情報を辿る分岐に応じて評価ポイント情報を加算し、
第6のステップは、更に評価ポイント情報を端末へ送信することも好ましい。
【0012】
また、本発明の対話練習支援方法における他の実施形態によれば、
音声認識処理手段は、シナリオ情報における分岐の通過統計情報を収集し、該通過統計情報を質問情報蓄積手段に蓄積することも好ましい。
【0013】
本発明の対話練習支援プログラムによれば、
面接官の音声映像情報からなる質問情報に対して、利用者の音声映像情報からなる返答情報に含まれる用語と、該返答情報が受信されるまでの無言時間とによって分岐し、次に送信すべき質問情報を選択するシナリオ情報を含む質問情報蓄積手段と、
シナリオ情報に基づいて質問情報を端末へ送信する手段と、
端末から受信した返答情報を蓄積する音声映像情報蓄積手段と、
特定用語を蓄積した用語蓄積手段と、
利用者の音声映像情報における音声情報をテキスト情報に変換し、特定用語が含まれていればその旨を又は無言時間があればその旨を、テキスト情報の部分にマーク付けする音声認識処理手段と、
音声認識処理手段によってマーク付けされたテキスト情報を蓄積する対話情報蓄積手段と、
端末から評価録要求を受信した際に、対話情報蓄積手段からマーク付けされた部分を抽出する対話評価手段と、
質問情報蓄積手段から抽出された質問情報と、音声映像情報蓄積手段から抽出された返答情報と、マーク付けされた部分に特定用語が用いられている旨又は無言時間がある旨の情報とからなる評価録情報を、端末へ送信する評価録生成手段としてコンピュータを機能させることを特徴とする。
【0014】
本発明の対話練習支援プログラムにおける他の実施形態によれば、
質問情報蓄積手段に蓄積されたシナリオ情報は、分岐に応じて評価ポイント情報が含まれており、
対話評価手段は、シナリオ情報を辿る分岐に応じて評価ポイント情報を加算し、
評価録生成手段は、更に評価ポイント情報を端末へ送信するようにコンピュータを機能させることも好ましい。
【0015】
また、本発明の対話練習支援プログラムにおける他の実施形態によれば、
音声認識処理手段は、シナリオ情報における分岐の通過統計情報を収集し、該通過統計情報を質問情報蓄積手段に蓄積するようにコンピュータを機能させることも好ましい。
【0016】
【発明の実施の形態】
以下で、図面を用いて、本発明の実施の形態を説明する。
【0017】
図1は、本発明におけるシステム構成図である。
【0018】
図1によれば、本発明における対話評価装置1と、利用者の端末2とが、インターネット3を介して接続されている。端末2には、音声情報を取得するマイク21と、映像情報を取得するビデオカメラ22と、面接官の声を出力するスピーカ23とが備えられている。
【0019】
端末2は、対話評価装置1から送信される質問情報を受信する。質問情報は音声映像情報からなり、端末2は、ブラウザによって映像情報を表示し、スピーカ23によって音声を出力する。また、マイク21によって利用者の発話が取得され、ビデオカメラ22によって利用者の映像情報が取得される。端末2は、これら音声映像情報を対話評価装置1へ送信する。
【0020】
ここで、端末2が対話評価装置1へ送信する音声映像情報は、質問毎に個別にリアルタイムに送信するものと、複数の質問について一括して送信するものとからなる。後者については、端末2が、対話評価装置1から予め質問情報を受信して蓄積しておく必要がある。
【0021】
更に、端末2は、対話評価装置1へ対話評価録を要求することができる。受信された評価録情報について、その映像情報はブラウザによって表示され、その音声情報はスピーカ23から出力される。
【0022】
図2は、本発明における対話評価装置1の機能構成図である。
【0023】
図2によれば、対話評価装置1は、音声映像情報データベース11と、質問情報(シナリオ)データベース12と、タイムスタンプ13と、音声認識処理部14と、対話情報データベース15と、対話評価部16と、評価録生成部17と、特定用語データベース18と、通信インタフェース19とを有する。
【0024】
インターネット3には、通信インタフェース19を介して接続される。
【0025】
質問情報データベース12は、利用者の端末2へ送信すべき質問情報を蓄積している。質問情報は、対話模擬練習を行うためのシナリオ情報と、その面接官の音声映像情報とからなる。例えば就職のための模擬対話に関するものであれば、質問情報は、情報関連企業、バイオテクノロジ関連企業等にパタン分けされている。
【0026】
シナリオ情報は、質問内容に対する返答に含まれる用語を分岐条件とするフローチャートである。また、質問終了時刻と返答開始時刻との間に一定時間の無言時間が発生した場合、即ち、返答に詰まった場合も、シナリオ情報に基づく分岐条件となる。その条件としては、例えば、複数の用語を演算子で結合したもの(AND/OR等)、言語の言い直しの場合、語尾や口癖の検出などがある。特に、最後に発言した用語を選択することができる。例えば、「営業部では無く、経理部」という発言があった場合、経理部をシナリオ分岐のキーとなる用語にすることができる。これらシナリオは、プログラムとして構成され、変更及び修正が容易なものである。
【0027】
また、シナリオ情報のフローチャートには、評価ポイント情報の加点があり、最終的な対話評価の点数とすることができる。例えば、無音時間が長いほど評価ポイント情報を減点することもできる。
【0028】
更に、シナリオ情報として、予め想定した理想の返答内容を蓄積しておくことも好ましい。この質問情報に対する理想的な返答情報を、端末2へ送信することにより、利用者は、客観的に、自己の受け答えの様子を把握できるばかりか、悪かった点と良かった点を理由つきで把握することや理想パタンを学習することができるようになり、利用者の利便性を向上させることができる。
【0029】
タイムスタンプ部13は、通信インタフェース19によって受信された音声映像情報に時刻を付する。
【0030】
受信された音声映像情報は、利用者毎に、音声映像情報データベース11に蓄積される。このとき、音声映像情報は、タイムスタンプにより時刻が付される。尚、映像情報は、端末2に備えられたビデオカメラ22から取得されたものに限られず、利用者によってプレゼンテーションに利用される文書資料データ又は投影資料データ等の、視覚的効果を有する資料データであってもよい。
【0031】
音声映像情報データベース11に蓄積された音声情報は、次に、音声認識処理部14において、テキスト情報に変換される。このとき、音声認識処理部14は、特定用語データベース18と質問情報データベース12とを用いる。
【0032】
特定用語データベース18は、対話時に使用しない方がよい言葉(分岐キーワードとなる用語)を蓄積しているものである。特定用語データベース13に蓄積された特定用語を、変換されたテキスト情報から検索する。その特定用語は、例えば、対話時には使用しない方がよい用語である。そして、その特定用語の部分にマーク付けされたテキスト情報が、対話情報データベース15に蓄積される。
【0033】
また、音声認識処理部14は、質問終了時刻と返答開始時刻との間の無言時間を計算し、シナリオ情報に基づいて所定の無言時間が発生したと判断した場合、テキスト情報のその箇所にマーク付けする。その無言時間は、例えば、返答が思いつかず、返答までに時間がかかっていることを意味する。そして、そのテキスト情報を対話情報データベース15に蓄積する。
【0034】
無音時間は、入力音声のレベルが閾値をもって発話開始及び終了を判定する。発話開始とは、例えば、閾値以上の状態が所定の時間長以上(例えば2秒)継続することをいう。発話終了とは、例えば、閾値以下の状態が所定の時間長以上(例えば2秒)継続することをいう。
【0035】
更に、音声認識処理部14は、シナリオ情報における分岐の通過統計情報を収集し、該通過統計情報を質問情報蓄積手段に蓄積する。これは、シナリオ情報のフローチャートの分岐部分に通過統計情報を加算することで実現できる。複数の利用者に対して同じシナリオ情報の対話を実施した場合、ほとんどの利用者について特性の分岐部分で分岐するといった、統計を得ることができる。
【0036】
模擬対話終了後、端末2は、対話評価装置1に対して、評価録を要求することができる。このとき、端末2は、対話評価装置1に対して、評価録要求メッセージを送信する。ここでは、対話全体に拘わらず、ワンポイント教習のように例えば一部の時間についてのみ、評価録を要求することもできる。
【0037】
対話評価部16は、通信インタフェース19によって受信された評価録要求メッセージを取得する。このとき、対話評価部16は、質問情報データベース12から質問情報及び/又は統計情報を抽出し、対話情報蓄積データベース15からマーク付けされた部分を抽出する。
【0038】
評価録生成部17は、対話評価部16によって検索されたテキスト情報に基づいて、マーク位置及びその時刻情報に基づいて、音声映像情報データベース11を検索する。評価録生成部17は、検索されたテキスト情報に付された時刻情報に相当する音声映像情報を取得する。そして、その音声映像情報と、質問情報及び/又は統計情報と、マーク位置に相当するアドバイス情報と、評価ポイント情報とからなるHTML形式のAV(Audio and Visual)評価録を生成し、その評価録情報を、評価録要求メッセージを送信した端末2へ返送する。
【0039】
評価録要求メッセージを送信した端末は、評価録情報を再生することができる。このとき、ブラウザには、面接官の映像と、利用者の映像と、不適切な返答及び無言発生等によるアドバイス事項と、評価ポイント情報とが表示される。
【0040】
アドバイス事項としは、例えば、以下のような表示がなされる。
(1)特定用語に該当した場合「対話中、使用しない方がいい言葉を○回使っています。△△△と発言するようにしましょう。」
(2)無音時間に該当した場合「対話中、返答に詰まった箇所が○件ありました。○○○の問いに対する返答に詰まりましたね。×××といったような返答は、準備しておくようにしましょう。」
【0041】
これらは、音声認識処理部14によって、不適切な用語等を検出した回数をカウントすることによって容易に実現できる。
【0042】
尚、図2の他の実施形態としては、質問情報データベース12に蓄積されたシナリオ情報を、端末2へ予め送信するものがある。端末2は、そのシナリオ情報に基づいて一連の対話を進行させ、利用者の音声映像情報を蓄積する。その一連の対話が終了後、端末2は、その音声映像情報を対話評価装置1へ送信する。対話評価装置1におけるその後の処理は、前述したものと同様である。
【0043】
図3は、本発明による対話評価装置と端末との間のシーケンス図である。
【0044】
(S1)端末2は、対話評価装置1へ対話評価開始要求メッセージを送信する。このとき、メッセージには、レッスン番号、ユーザID等が含まれる。
(S2)対話評価装置1は、質問情報データベース12から、音声映像情報の質問情報を、端末2へ送信する。端末2は、ブラウザを用いて面接官の映像を表示し、スピーカ23を用いて質問の音声を出力する。これにより、利用者は、画面に表示される面接官像をあたかも実際の面接官と感じながら、模擬対話を行うことができる。このとき、自己の映像又は自己の履歴書文書等が表示されることも好ましい。
(S3)端末2は、マイク21によって取得した利用者の返答の音声情報と、ビデオカメラ22によって取得した利用者の映像情報とを、対話評価装置1へ送信する。
前述した(S2)(S3)のシーケンスを繰り返すことにより、対話情報が対話評価装置1に蓄積されていく。
【0045】
(S4)対話模擬練習の終了後、利用者は、端末2を用いて、対話評価装置1へ対話評価要求メッセージを送信する。
(S5)対話評価装置1は、対話評価録情報を、端末2へ送信する。対話評価録情報は、面接官の音声映像情報及び利用者の音声映像情報と、アドバイス情報と、対話評価ポイント情報とが含まれる。端末2は、映像情報とアドバイス情報とポイント情報とをブラウザによって表示し、音声情報はスピーカによって出力される。これにより、利用者は、利用者の対話の様子を見ながら、面接官になったような感覚で、客観的に自己の受け答えの様子を把握できることになる。
【0046】
図4は、本発明における対話評価装置1が、端末2からの音声映像情報を受信した際のフローチャートである。
【0047】
図4によれば、以下のシーケンスで進行する。
(S41)端末2から、質問に対する返答である音声映像情報を受信する。
(S42)その音声映像情報に、現在の時刻をスタンプする。端末において時刻がファイルにスタンプされていれば、ここで時刻をスタンプする必要はない。
(S43)音声映像情報は、音声映像情報データベース11に、利用者毎に蓄積される。
(S44)音声映像情報における音声情報は、音声認識処理によって、テキスト情報に変換される。このとき、特定用語データベース18に蓄積された特定用語を検索し、質問情報データベース12に蓄積されたシナリオ情報に基づいてマーク付けする。また、シナリオ情報のフローチャートの分岐部分に通過統計情報を加算することもできる。
(S45)そのテキスト情報は、対話情報データベース15に、利用者毎に蓄積される。
【0048】
図5は、本発明における対話評価装置1が、評価録要求メッセージを受信した際のフローチャートである。
【0049】
図5によれば、以下のシーケンスで進行する。
(S51)端末から、評価録要求メッセージを受信する。
(S52)対話情報データベース15から、テキスト情報を検索する。
(S53)検索されたテキスト情報の時刻情報を特定する。
(S54)特定された時刻情報に相当する音声映像情報を、音声映像情報データベース11から取得する。
(S55)取得された音声映像情報からなる評価録を生成する。ここで、評価録は、HTML形式のものである。これにより、マルチメディア評価録を提供することができる。評価録には、テキスト情報にマーク付けされた評価内容のアドバイス情報も含まれる。
(S56)生成された評価録を、評価録要求メッセージを送信した端末2へ、送信する。
【0050】
図6は、質問情報データベース12におけるシナリオ情報のフローチャートである。
【0051】
例えば面接においては、誘導面接型と圧迫面接型とがある。誘導面接型は、面接官が志願者に確認したい項目をシナリオにしたものである。一方、圧迫面接型は、希望の意思を確認するために、志願者があえて困るような質問を浴びせるような項目をシナリオにする。以下では、誘導面接型のシナリオ情報(用語抽出によるシナリオ分岐で実施した場合)と、圧迫面接型のシナリオ情報(返答につまった場合にシナリオ分岐を実施した場合)とを説明する。
【0052】
誘導面接型のシナリオ情報について説明する。例として説明するシナリオ情報は、企業が欲しい研究分野の研究志願者が多く、研究者を選別する場合に、基礎研究者に求めるスキルと今後の希望とに応じて振り分けるものである。
(S1)「修士論文の概要を説明してください」との質問情報を端末2へ送信する。
(S2)端末2から返答を受信する。
(S3)その返答の中に、企業が取り組む研究テーマ「量子コンピューティング」又は「DNA」を含むか否か判定する。YESであれば、ポイント情報が+2点となる。
(S4)YESであれば、基礎研究者としてのスキルの確認として「研究は何を支えに進めてきましたか?」との質問情報を端末2へ送信する。
(S5)端末2から返答を受信する。
(S6)その返答の中に、自己を信じて遂行できる忍耐力を有するといったような「自己」の用語を含むか否か判定する。YESであれば、ポイント情報が+2点となる。
(S7)YESであれば、今後の希望を問うために「今後も基礎研究を進めたいと思いますか?」との質問情報を端末2へ送信する。
(S8)NOであれば、メンバを信じて遂行できるといった「メンバ」を含むか否か判定する。メンバとの協調性よりも個人の追求力を必要とする研究者においては、NOであれば、ポイント情報が+2点となる。
【0053】
次に、圧迫面接型のシナリオ情報について説明する。例として説明するシナリオ情報は、志願者が営業を希望している場合に、あえて志願者が返答に窮すると思われる質問を浴びせるようなものである。
(S9)経理部を希望し且つ経理部員として見込みのある志願者に対してその真意を確かめるべく、あえて希望に反した質問として「営業部に配属になった場合どうしますか?」との質問情報を端末2へ送信する。
(S10)ここで沈黙が5秒以上あったか否かを判定する。YESであれば、この質問に窮したこととなる。NOであれば、この返答に詰まらずに返答したこととなり、ポイント情報が+1点となる。
(S11)NOであれば、返答を受信する。
(S12)その返答の中に、営業部に配属されれば御社の損失になるとして「御社」「損失」の用語を含むか否か判定する。YESであれば、見込みのある志願者であるとして、ポイント情報が+2点となる。
(S13)前述の(S10)についてYESであれば、返答を受信する。
(S14)このような詰まった場合に、その返答の中に、他の部門でもかまわないか又は他社を選択するような「他社」「他の部」の用語を含むか否か判定する。
(S15)NOであれば、切迫した質問を浴びせるために「会社に個人としてどのような貢献ができますか?」との質問情報を端末2へ送信する。
(S16)ここで沈黙が5秒以上あったか否かを判定する。YESであれば、この質問に窮したこととなる。NOであれば、この返答に詰まらずに返答したこととなり、ポイント情報が+1点となる。
【0054】
本発明の対話練習支援方法における各ステップは、計算機に内蔵された記録媒体を用い、CPU等の制御手段を用いて実行可能である。また、計算機読み取り可能なプログラムをCD等の記録媒体若しくは通信回線を介してインストールして当該計算機に実行させることもできる。これらプログラムは、主に、インターネットにおける装置の一機能として、装置に搭載されるプログラムによって実現されてもよい。もちろん、これら機能は、端末に搭載されるプログラムによっても実現され、Peer−to−Peer型で利用することもできる。
【0055】
【発明の効果】
以上、詳細に説明したように、本発明の対話練習支援方法、装置及びプログラムによれば、実際の模擬的な対話練習のように音声及び映像で行われる対話型であって、質問に対する利用者の返答内容及び返答時間等を評価することができる。
【0056】
また、自分が相手方になったような環境で自己の質疑応答の様子を確認でき、対話時には不適切と思われる言葉を指摘したり、返答に窮する場合を設定するなどして、対話の本番さながらの体験が可能になる。特に、入学、就職等における利用者の受け答えの円滑性及び言葉使いの練習が可能となる。
【0057】
現在、生涯雇用が保証されない時代になっており、自分を短時間にPRできる技術として、巷には、対話克服に関する書物が多数出版されている。本発明によれば、実際の対話に近い類似体験を経験することができる。また、対話練習本に書かれている対話の心得や対話の達人なる人達の知識を織り込むことが可能になり、技術や希望業務のスキル等には実力を有すが、人前で話すことが苦手な者などに、対話練習の機会を与えることものであり、対話関連市場に十分合致したサービスが構築できる。また、この応用として、本システムは、営業プレゼンテーション訓練やビジネスマナー研修に応用でき、そのマーケットは計り知れない。
【図面の簡単な説明】
【図1】本発明におけるシステム構成図である。
【図2】本発明における対話評価装置1の機能構成図である。
【図3】本発明による対話評価装置と端末との間のシーケンス図である。
【図4】本発明における対話評価装置1が、端末2からの音声映像情報を受信した際のフローチャートである。
【図5】本発明における対話評価装置1が、評価録要求メッセージを受信した際のフローチャートである。
【図6】質問情報データベース12におけるシナリオ情報のフローチャートである。
【符号の説明】
1 対話評価装置
11 音声映像情報データベース、音声映像情報蓄積手段
12 質問情報データベース、質問情報蓄積手段
13 タイムスタンプ部
14 音声認識処理部、音声認識処理手段
15 対話情報データベース、対話情報蓄積手段
16 対話評価部
17 評価録生成部、評価録生成手段
18 特定用語データベース、特定用語蓄積手段
19 通信インタフェース部
2 端末
21 マイク
22 ビデオカメラ
23 スピーカ
3 インターネット

Claims (10)

  1. 端末にインターネットを介して接続された対話練習支援装置において、
    面接官の音声映像情報からなる質問情報に対して、利用者の音声映像情報からなる返答情報に含まれる用語と、該返答情報が受信されるまでの無言時間とによって分岐し、次に送信すべき質問情報を選択するシナリオ情報を含む質問情報蓄積手段と、
    前記シナリオ情報に基づいて前記質問情報を前記端末へ送信する手段と、
    前記端末から受信した前記返答情報を蓄積する音声映像情報蓄積手段と、
    特定用語を蓄積した用語蓄積手段と、
    前記利用者の音声映像情報における音声情報をテキスト情報に変換し、前記特定用語が含まれていればその旨を又は前記無言時間があればその旨を、前記テキスト情報の部分にマーク付けする音声認識処理手段と、
    前記音声認識処理手段によって前記マーク付けされた前記テキスト情報を蓄積する対話情報蓄積手段と、
    前記端末から評価録要求を受信した際に、前記対話情報蓄積手段から前記マーク付けされた部分を抽出する対話評価手段と、
    前記質問情報蓄積手段から抽出した前記質問情報と、前記音声映像情報蓄積手段から抽出した前記返答情報と、前記マーク付けされた部分に前記特定用語が用いられている旨又は前記無言時間がある旨の情報とからなる評価録情報を、前記端末へ送信する評価録生成手段と
    を有することを特徴とする対話練習支援装置。
  2. 前記質問情報蓄積手段に蓄積された前記シナリオ情報は、分岐に応じて評価ポイント情報が含まれており、
    前記対話評価手段は、前記シナリオ情報を辿る分岐に応じて前記評価ポイント情報を加算し、
    前記評価録生成手段は、更に前記評価ポイント情報を前記端末へ送信することを特徴とする請求項1に記載の対話練習支援装置。
  3. 前記音声認識処理手段は、前記シナリオ情報における分岐の通過統計情報を収集し、該通過統計情報を前記質問情報蓄積手段に蓄積することを特徴とする請求項1又は2に記載の対話練習支援装置。
  4. 端末と、該端末にインターネットを介して接続された装置とにおける対話練習支援方法において、
    前記装置は、面接官の音声映像情報からなる質問情報に対して、利用者の音声映像情報からなる返答情報に含まれる用語と、該返答情報が受信されるまでの無言時間とによって分岐し、次に送信すべき質問情報を選択するシナリオ情報を含む質問情報蓄積手段と、特定用語を蓄積した用語蓄積手段とを有しており、
    前記装置が、前記シナリオ情報に基づいて前記質問情報を前記端末へ送信する第1のステップと、
    前記端末が、前記質問情報に対する返答情報を前記装置へ送信する第2のステップと、
    前記装置が、前記返答情報を音声映像情報蓄積手段に蓄積する第3のステップと、
    前記装置が、前記利用者の音声映像情報における音声情報をテキスト情報に変換し、前記特定用語が含まれていればその旨を又は前記無言時間があればその旨を、前記テキスト情報の部分にマーク付けして音声認識処理をする第4のステップと、
    前記装置が、前記音声認識処理手段によって前記マーク付けされた前記テキスト情報を対話情報蓄積手段に蓄積する第5のステップと
    を有し、前記第1から第5のステップを繰返し、
    前記端末が、評価録要求を前記装置へ送信する第6のステップと、
    前記装置が、前記対話情報蓄積手段から前記マーク付けされた部分を抽出する第7のステップと、
    前記装置が、前記質問情報蓄積手段から抽出された前記質問情報と、前記音声映像情報蓄積手段から抽出された前記返答情報と、前記マーク付けされた部分に前記特定用語が用いられている旨又は前記無言時間がある旨の情報とからなる評価録情報を、前記端末へ送信する第8のステップと
    を有することを特徴とする対話練習支援方法。
  5. 端末と、該端末にインターネットを介して接続された装置とにおける対話練習支援方法において、
    前記装置は、面接官の音声映像情報からなる質問情報に対して、利用者の音声映像情報からなる返答情報に含まれる用語と、該返答情報が受信されるまでの無言時間とによって分岐し、次に送信すべき質問情報を選択するシナリオ情報を含む質問情報蓄積手段と、特定用語を蓄積した用語蓄積手段とを有しており、
    前記端末も、前記質問情報蓄積手段を有しており、
    前記端末が、前記シナリオ情報に基づいて前記質問情報を利用者に出力し、且つ、該質問情報に対する返答情報を入力することを繰返して、一連の返答情報を収集する第1のステップと、
    前記端末が、前記返答情報を、前記装置へ送信する第2のステップと、
    前記装置が、前記返答情報を音声映像情報蓄積手段に蓄積する第3のステップと、
    前記装置が、前記利用者の音声映像情報における音声情報をテキスト情報に変換し、前記特定用語が含まれていればその旨を又は前記無言時間があればその旨を、前記テキスト情報の部分にマーク付けして音声認識処理をする第4のステップと、
    前記装置が、前記音声認識処理手段によって前記マーク付けされた前記テキスト情報を対話情報蓄積手段に蓄積する第5のステップと
    を有し、
    前記端末が、評価録要求を前記装置へ送信する第6のステップと、
    前記装置が、前記対話情報蓄積手段から前記マーク付けされた部分を抽出する第7のステップと、
    前記装置が、前記質問情報蓄積手段から抽出された前記質問情報と、前記音声映像情報蓄積手段から抽出された前記返答情報と、前記マーク付けされた部分に前記特定用語が用いられている旨又は前記無言時間がある旨の情報とからなる評価録情報を、前記端末へ送信する第8のステップと
    を有することを特徴とする対話練習支援方法。
  6. 前記質問情報蓄積手段に蓄積された前記シナリオ情報は、分岐に応じて評価ポイント情報が含まれており、
    前記第5のステップは、前記シナリオ情報を辿る分岐に応じて前記評価ポイント情報を加算し、
    前記第6のステップは、更に前記評価ポイント情報を前記端末へ送信することを特徴とする請求項4又は5に記載の対話練習支援方法。
  7. 前記音声認識処理手段は、前記シナリオ情報における分岐の通過統計情報を収集し、該通過統計情報を前記質問情報蓄積手段に蓄積することを特徴とする請求項4から6のいずれか1項に記載の対話練習支援方法。
  8. 端末にインターネットを介して接続された装置について機能させる対話練習支援プログラムにおいて、
    面接官の音声映像情報からなる質問情報に対して、利用者の音声映像情報からなる返答情報に含まれる用語と、該返答情報が受信されるまでの無言時間とによって分岐し、次に送信すべき質問情報を選択するシナリオ情報を含む質問情報蓄積手段と、
    前記シナリオ情報に基づいて前記質問情報を前記端末へ送信する手段と、
    前記端末から受信した前記返答情報を蓄積する音声映像情報蓄積手段と、
    特定用語を蓄積した用語蓄積手段と、
    前記利用者の音声映像情報における音声情報をテキスト情報に変換し、前記特定用語が含まれていればその旨を又は前記無言時間があればその旨を、前記テキスト情報の部分にマーク付けする音声認識処理手段と、
    前記音声認識処理手段によって前記マーク付けされた前記テキスト情報を蓄積する対話情報蓄積手段と、
    前記端末から評価録要求を受信した際に、前記対話情報蓄積手段から前記マーク付けされた部分を抽出する対話評価手段と、
    前記質問情報蓄積手段から抽出された前記質問情報と、前記音声映像情報蓄積手段から抽出された前記返答情報と、前記マーク付けされた部分に前記特定用語が用いられている旨又は前記無言時間がある旨の情報とからなる評価録情報を、前記端末へ送信する評価録生成手段と
    してコンピュータを機能させることを特徴とする対話練習支援プログラム。
  9. 前記質問情報蓄積手段に蓄積された前記シナリオ情報は、分岐に応じて評価ポイント情報が含まれており、
    前記対話評価手段は、前記シナリオ情報を辿る分岐に応じて前記評価ポイント情報を加算し、
    前記評価録生成手段は、更に前記評価ポイント情報を前記端末へ送信するようにコンピュータを機能させることを特徴とする請求項8に記載の対話練習支援プログラム。
  10. 前記音声認識処理手段は、前記シナリオ情報における分岐の通過統計情報を収集し、該通過統計情報を前記質問情報蓄積手段に蓄積するようにコンピュータを機能させることを特徴とする請求項8又は9に記載の対話練習支援プログラム。
JP2003100296A 2003-04-03 2003-04-03 対話練習支援装置、方法及びプログラム Withdrawn JP2004309631A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003100296A JP2004309631A (ja) 2003-04-03 2003-04-03 対話練習支援装置、方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003100296A JP2004309631A (ja) 2003-04-03 2003-04-03 対話練習支援装置、方法及びプログラム

Publications (1)

Publication Number Publication Date
JP2004309631A true JP2004309631A (ja) 2004-11-04

Family

ID=33464481

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003100296A Withdrawn JP2004309631A (ja) 2003-04-03 2003-04-03 対話練習支援装置、方法及びプログラム

Country Status (1)

Country Link
JP (1) JP2004309631A (ja)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006139134A (ja) * 2004-11-12 2006-06-01 Pioneer Electronic Corp 音声出力制御装置、音声出力制御システム、それらの方法、それらのプログラム、および、それらのプログラムを記録した記録媒体
WO2007026715A1 (ja) * 2005-09-01 2007-03-08 Kagoshima University シミュレーションシステム及びプログラム
JP2007086877A (ja) * 2005-09-20 2007-04-05 Oki Electric Ind Co Ltd 自己prシステム
JP2007527555A (ja) * 2004-03-05 2007-09-27 レサック テクノロジーズ、インコーポレーテッド 韻律音声テキストコード及びコンピュータ化された音声システムへのその使用
JP2007286302A (ja) * 2006-04-17 2007-11-01 Fujitsu Ltd オペレータ教育支援プログラム、オペレータ教育支援方法及びオペレータ教育支援装置
JP2010197643A (ja) * 2009-02-25 2010-09-09 Gifu Univ 対話型学習システム
JP2013218001A (ja) * 2012-04-05 2013-10-24 Nintendo Co Ltd 情報処理プログラム、情報処理装置、情報処理方法及び情報処理システム
JP2015025873A (ja) * 2013-07-24 2015-02-05 株式会社ベネッセコーポレーション 情報処理装置、情報処理方法及びプログラム
CN110223697A (zh) * 2019-06-13 2019-09-10 苏州思必驰信息科技有限公司 人机对话方法及***
WO2020071603A1 (ko) * 2018-10-05 2020-04-09 원세컨드랩스 주식회사 외국어 말하기 반응 평가 방법 및 그를 수행하는 무선단말
CN111212311A (zh) * 2020-01-13 2020-05-29 四川长虹电器股份有限公司 一种语音交互视频的生成及播放方法
KR102186641B1 (ko) * 2019-11-06 2020-12-03 김정현 인공지능 기반 음성 답변 자동채점을 통한 지원자 평가방법
WO2022010255A1 (ko) * 2020-07-10 2022-01-13 주식회사 제네시스랩 기계학습모델을 이용하여 면접영상에 대한 자동화된 평가를 위한 심층질문을 도출하는 방법, 시스템 및 컴퓨터-판독가능 매체
KR20220007189A (ko) * 2020-07-10 2022-01-18 주식회사 제네시스랩 기계학습모델을 이용하여 면접영상에 대한 자동화된 평가를 제공하는 방법, 시스템 및 컴퓨터-판독가능 매체
JP7496098B1 (ja) 2023-12-12 2024-06-06 株式会社リブセンス 情報処理システム、情報処理方法及びプログラム

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007527555A (ja) * 2004-03-05 2007-09-27 レサック テクノロジーズ、インコーポレーテッド 韻律音声テキストコード及びコンピュータ化された音声システムへのその使用
JP2006139134A (ja) * 2004-11-12 2006-06-01 Pioneer Electronic Corp 音声出力制御装置、音声出力制御システム、それらの方法、それらのプログラム、および、それらのプログラムを記録した記録媒体
WO2007026715A1 (ja) * 2005-09-01 2007-03-08 Kagoshima University シミュレーションシステム及びプログラム
JPWO2007026715A1 (ja) * 2005-09-01 2009-03-12 国立大学法人 鹿児島大学 シミュレーションシステム及びプログラム
JP4742280B2 (ja) * 2005-09-01 2011-08-10 国立大学法人 鹿児島大学 シミュレーションシステム及びプログラム
JP2007086877A (ja) * 2005-09-20 2007-04-05 Oki Electric Ind Co Ltd 自己prシステム
JP2007286302A (ja) * 2006-04-17 2007-11-01 Fujitsu Ltd オペレータ教育支援プログラム、オペレータ教育支援方法及びオペレータ教育支援装置
JP2010197643A (ja) * 2009-02-25 2010-09-09 Gifu Univ 対話型学習システム
US10096257B2 (en) 2012-04-05 2018-10-09 Nintendo Co., Ltd. Storage medium storing information processing program, information processing device, information processing method, and information processing system
JP2013218001A (ja) * 2012-04-05 2013-10-24 Nintendo Co Ltd 情報処理プログラム、情報処理装置、情報処理方法及び情報処理システム
JP2015025873A (ja) * 2013-07-24 2015-02-05 株式会社ベネッセコーポレーション 情報処理装置、情報処理方法及びプログラム
WO2020071603A1 (ko) * 2018-10-05 2020-04-09 원세컨드랩스 주식회사 외국어 말하기 반응 평가 방법 및 그를 수행하는 무선단말
CN110223697B (zh) * 2019-06-13 2022-04-22 思必驰科技股份有限公司 人机对话方法及***
CN110223697A (zh) * 2019-06-13 2019-09-10 苏州思必驰信息科技有限公司 人机对话方法及***
US11551693B2 (en) 2019-06-13 2023-01-10 Ai Speech Co., Ltd. Method of man-machine interaction and electronic device
KR102186641B1 (ko) * 2019-11-06 2020-12-03 김정현 인공지능 기반 음성 답변 자동채점을 통한 지원자 평가방법
CN111212311A (zh) * 2020-01-13 2020-05-29 四川长虹电器股份有限公司 一种语音交互视频的生成及播放方法
WO2022010255A1 (ko) * 2020-07-10 2022-01-13 주식회사 제네시스랩 기계학습모델을 이용하여 면접영상에 대한 자동화된 평가를 위한 심층질문을 도출하는 방법, 시스템 및 컴퓨터-판독가능 매체
KR20220007193A (ko) * 2020-07-10 2022-01-18 주식회사 제네시스랩 기계학습모델을 이용하여 면접영상에 대한 자동화된 평가를 위한 심층질문을 도출하는 방법, 시스템 및 컴퓨터-판독가능 매체
KR20220007189A (ko) * 2020-07-10 2022-01-18 주식회사 제네시스랩 기계학습모델을 이용하여 면접영상에 대한 자동화된 평가를 제공하는 방법, 시스템 및 컴퓨터-판독가능 매체
KR102407212B1 (ko) 2020-07-10 2022-06-10 주식회사 제네시스랩 기계학습모델을 이용하여 면접영상에 대한 자동화된 평가를 제공하는 방법, 시스템 및 컴퓨터-판독가능 매체
KR102475524B1 (ko) * 2020-07-10 2022-12-08 주식회사 제네시스랩 기계학습모델을 이용하여 면접영상에 대한 자동화된 평가를 위한 심층질문을 도출하는 방법, 시스템 및 컴퓨터-판독가능 매체
JP7496098B1 (ja) 2023-12-12 2024-06-06 株式会社リブセンス 情報処理システム、情報処理方法及びプログラム

Similar Documents

Publication Publication Date Title
US9812028B1 (en) Automated generation and presentation of lessons via digital media content extraction
US10614829B2 (en) Method and apparatus to determine and use audience affinity and aptitude
CA2474840C (en) Automatic reading teaching system and methods
US9230562B2 (en) System and method using feedback speech analysis for improving speaking ability
US20180061256A1 (en) Automated digital media content extraction for digital lesson generation
US7043433B2 (en) Method and apparatus to determine and use audience affinity and aptitude
JP2004309631A (ja) 対話練習支援装置、方法及びプログラム
CN111833861B (zh) 基于人工智能的事件评估报告生成
JP6705956B1 (ja) 教育支援システム、方法及びプログラム
US20160012751A1 (en) Comprehension assistance system, comprehension assistance server, comprehension assistance method, and computer-readable recording medium
US20060216685A1 (en) Interactive speech enabled flash card method and system
CN111711834B (zh) 录播互动课的生成方法、装置、存储介质以及终端
Wald Creating accessible educational multimedia through editing automatic speech recognition captioning in real time
KR20070006742A (ko) 언어교육방법
JP6656529B2 (ja) 外国語の会話訓練システム
Yoshino et al. Japanese dialogue corpus of information navigation and attentive listening annotated with extended iso-24617-2 dialogue act tags
KR20200039907A (ko) 스크립트를 이용한 스마트 어학학습서비스 및 서비스 제공 방법
US10593366B2 (en) Substitution method and device for replacing a part of a video sequence
Walsh et al. Speech enabled e-learning for adult literacy tutoring
KR102460272B1 (ko) 모국어 문자기반 원 사이클 온라인 외국어 학습 시스템 및 그 방법
JP2005031207A (ja) 発音練習支援システム、発音練習支援方法、発音練習支援プログラムおよびそれを記録したコンピュータ読み取り可能な記録媒体
KR100613899B1 (ko) 통신 매체를 이용한 학습 진도 관리 방법 및 시스템
CN114862635A (zh) 在线教学互动方法、***、设备及存储介质
Petrik Wizard of oz experiments on speech dialogue systems
Boglarka et al. Listening development strategies in and out of EFL instructional settings

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20060606