JP2005196645A - 情報提示システム、情報提示装置、及び情報提示プログラム - Google Patents

情報提示システム、情報提示装置、及び情報提示プログラム Download PDF

Info

Publication number
JP2005196645A
JP2005196645A JP2004004195A JP2004004195A JP2005196645A JP 2005196645 A JP2005196645 A JP 2005196645A JP 2004004195 A JP2004004195 A JP 2004004195A JP 2004004195 A JP2004004195 A JP 2004004195A JP 2005196645 A JP2005196645 A JP 2005196645A
Authority
JP
Japan
Prior art keywords
information
user
personality
agent
script
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004004195A
Other languages
English (en)
Inventor
Mamoru Doke
守 道家
Narichika Hamaguchi
斉周 浜口
Masaki Hayashi
林  正樹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Nippon Hoso Kyokai NHK
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Hoso Kyokai NHK, Japan Broadcasting Corp filed Critical Nippon Hoso Kyokai NHK
Priority to JP2004004195A priority Critical patent/JP2005196645A/ja
Publication of JP2005196645A publication Critical patent/JP2005196645A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

【課題】 ユーザとキャラクタ型エージェントとのスムーズな対話を実現する。
【解決手段】 画面上に表示されるキャラクタ型のエージェントとユーザとの対話により得られる該ユーザの応答情報から、前記エージェントの振る舞いを変更して前記ユーザに対して情報を提示する情報提示システムにおいて、前記応答情報を入力する入力手段と、前記ユーザに対する質問情報と、前記応答情報とに基づいて、ユーザ毎のパーソナリティを評価するパーソナリティ評価手段と、前記パーソナリティ評価手段により得られるパーソナリティ情報に基づいて、スクリプトを生成するスクリプト生成手段と、前記スクリプト生成手段により得られるスクリプトに基づいて、前記エージェントの振る舞いを制御して前記画面上に表示させるエージェント制御手段とを有することにより、上記課題を解決する。
【選択図】 図1

Description

本発明は、情報提示システム、情報提示装置、及び情報提示プログラムに係り、特にユーザが情報提示システムを利用する際に、よりスムーズな対話を可能とする情報提示システム、情報提示装置、及び情報提示プログラムに関する。
従来、メディアの多様化に伴い、世間に溢れる情報には多くの利用形態が存在し、それらを統合的に利用するために各々に対応したアクセス手段を用いて逐次的に情報を取得している。
ここで、インターネット等で提供されるメディアにおいては、ユーザができるだけ親しみ易いインターフェースを提供することが望ましい。そのため、例えば文字や映像等の他にキャラクタ等を用いたCGアニメーションによりユーザと対話することでコンテンツが提供されるキャラクタ型のユーザ対話システムがある。
従来のキャラクタ型のユーザ対話システムにおいては、ユーザはコンピュータの表示画面上に表示されたキャラクタ型エージェントに対し、音声認識やキーボード等による入力デバイスを用いて要求を入力する。キャラクタ型エージェントは、ユーザに対して合成した音声や表示画面内の吹き出し、スーパー表示等によりユーザに対して情報を伝達することで対話を行っている(例えば、特許文献1参照。)。
特開2002−341985号公報
しかしながら、従来のキャラクタ型対話エージェントは、そのキャラクタの動作や発話内容等の振る舞いについては、どのユーザに対しても画一的なものである。また、ユーザの嗜好情報にある程度即した情報を提示することはしていても、ユーザのその時々での気分や、雰囲気、性格等(以下、これらをパーソナリティという。)に対応させてキャラクタ型エージェントの動作や喋り(発話内容)等の振る舞いを変化させるものはなく、キャラクタ型エージェントがユーザ毎に振る舞いの変化の度合いに対応させて動的に設定することで、いわゆる気の利いた振る舞いをすることはできなかった。
本発明は、上述した問題点に鑑みなされたものであり、ユーザのその時点でのパーソナリティに対応させてキャラクタ型エージェントの振る舞いを変化させることにより、よりスムーズな対話を可能とする情報提示システム、情報提示装置、及び情報提示プログラムを提供することを目的とする。
上記課題を解決するために、本件発明は、以下の特徴を有する課題を解決するための手段を採用している。
請求項1に記載された発明は、画面上に表示されるキャラクタ型のエージェントとユーザとの対話により得られる該ユーザの応答情報から、前記エージェントの振る舞いを変更して前記ユーザに対して情報を提示する情報提示システムにおいて、前記応答情報を入力する入力手段と、前記ユーザに対する質問情報と、前記応答情報とに基づいて、ユーザ毎のパーソナリティを評価するパーソナリティ評価手段と、前記パーソナリティ評価手段により得られるパーソナリティ情報に基づいて、スクリプトを生成するスクリプト生成手段と、前記スクリプト生成手段により得られるスクリプトに基づいて、前記エージェントの振る舞いを制御して前記画面上に表示させるエージェント制御手段とを有することを特徴とする。
請求項1記載の発明によれば、ユーザに表示されるキャラクタ型エージェントの振る舞いをユーザのパーソナリティに対応させて変化させることにより、よりスムーズな対話を実現することができる。更に、対話がスムーズになることで、ユーザから様々な情報を取得することができ、ユーザのニーズに即した高精度な情報の提示を実現することができる。
請求項2に記載された発明は、画面上に表示されるキャラクタ型のエージェントとユーザとの対話により得られる該ユーザの応答情報から、前記エージェントの振る舞いを変更して前記ユーザに対して情報を提示する情報提示装置において、
前記ユーザに対する質問情報と、前記応答情報とに基づいて、ユーザ毎のパーソナリティを評価するパーソナリティ評価部と、前記パーソナリティ評価部により得られるパーソナリティ情報に基づいて、スクリプトを生成するスクリプト生成部と、前記スクリプト生成部により得られるスクリプトに基づいて、前記エージェントの振る舞いを制御して前記画面上に表示させるエージェント制御部とを有することを特徴とする。
請求項2記載の発明によれば、ユーザに表示されるキャラクタ型エージェントの振る舞いをユーザのパーソナリティに対応させて変化させることにより、よりスムーズな対話を実現することができる。更に、対話がスムーズになることで、ユーザから様々な情報を取得することができ、ユーザのニーズに即した高精度な情報の提示を実現することができる。
請求項3に記載された発明は、前記応答情報は、音声情報、画像情報、文字情報の少なくとも1つからなることを特徴とする。
請求項3記載の発明によれば、応答情報を容易に取得することができ、これらの情報からユーザのパーソナリティを高精度に評価することができる。
請求項4に記載された発明は、前記パーソナリティ評価部は、前記応答情報が音声情報である場合、音声の応答時間、音声レベル、音声の抑揚レベルの少なくとも1つを用いて前記ユーザのパーソナリティを評価することを特徴とする。
請求項4記載の発明によれば、音声によりユーザの現時点でのパーソナリティを高精度に評価することができる。
請求項5に記載された発明は、前記パーソナリティ評価部は、前回までの評価で得られたパーソナリティ情報に基づいて、前記ユーザのパーソナリティを評価することを特徴とする。
請求項5記載の発明によれば、前回までのパーソナリティ情報を評価の対象にすることで、エージェントの表情を急変させずに段階的に変化させることができ、これによりユーザに違和感を与えないようにすることができる。
請求項6に記載された発明は、前記スクリプト生成部は、前記パーソナリティ情報に含まれるパラメータを予め生成されている雛型スクリプトの所定の位置に付与することによりスクリプトを生成することを特徴とする。
請求項6記載の発明によれば、雛型のスクリプトにパラメータを付与するだけでよいため、処理を簡素化でき、エージェントの振る舞いをユーザとの対話に応じてリアルタイムに変更することができる。
請求項7に記載された発明は、画面上に表示されるキャラクタ型のエージェントとユーザとの対話により得られる該ユーザの応答情報から、前記エージェントの振る舞いを変更して前記ユーザに対して情報を提示する情報提示処理をコンピュータに実行させるための情報提示プログラムにおいて、前記ユーザに対する質問情報と、前記応答情報とに基づいて、ユーザ毎のパーソナリティを評価するパーソナリティ評価処理と、前記パーソナリティ評価処理により得られるパーソナリティ情報に基づいて、スクリプトを生成するスクリプト生成処理と、前記スクリプト生成処理により得られるスクリプトに基づいて、前記エージェントの振る舞いを制御して前記画面上に表示させるエージェント制御処理とをコンピュータに実行させる。
請求項7記載の発明によれば、ユーザに表示されるキャラクタ型エージェントの振る舞いをユーザのパーソナリティに対応させて変化させることにより、よりスムーズな対話を実現することができる。更に、対話がスムーズになることで、ユーザから様々な情報を取得することができ、ユーザのニーズに即した高精度な情報の提示を実現することができる。また、実行プログラムをコンピュータにインストールすることにより、容易に情報提示を実現することができる。
本発明によれば、ユーザに表示されるキャラクタ型エージェントの振る舞いをユーザのパーソナリティに対応させて変化させることにより、よりスムーズな対話を実現することができる。
<本発明の概要>
本発明は、グラフィックスベースのキャラクタ型対話エージェントによる情報提示システムにおいて、そのエージェントの振る舞いをユーザのパーソナリティに対応させて動的に変化させて、ユーザのニーズに即した情報の提示を行うものである。
具体的に説明すると、例えば、ユーザはキャラクタ型エージェントと音声認識等を用いて言葉により対話を行う。このとき、ユーザの声の調子や大きさ、抑揚、質問に対しての応答を返すまでの時間等を計測し、そのユーザが支配的な性格の人物なのか、服従的な性格な人物なのか等の評価を所定の判断基準に基づいて行う。
また、その評価の度合いに応じてキャラクタ型エージェントの喋る内容や、喋る調子、動作、表情等の振る舞いを動的に変化させ、ユーザのパーソナリティに動的に追随させる。
<実施形態>
以下に、上記のような特徴を有する本発明における情報提示システム、情報提示装置、及び情報提示プログラムを好適に実施した形態について、図面を用いて詳細に説明する。
<第1の実施形態:音声評価>
図1は、第1の実施形態における情報提示システムの一構成例を示す図である。図1の情報提示システム10は、音声入力装置11と、音声認識部12と、音声処理装置13と、情報提示装置14と、表示出力装置15とを有するよう構成されている。また、情報提示装置14は、パーソナリティ評価部16と、スクリプト生成部17と、データベース18と、エージェントコントローラ19とを有するよう構成されている。
音声入力装置11は、ユーザからの要求を音声として入力するものであり、マイク等からなる。音声認識装置12は、音声入力装置11から受信した音声を入力し、どのような言葉が入力されたかを解析する。音声認識装置12は、解析した音声情報を音声処理装置13へ出力する。
音声処理装置13は、ユーザが発した言葉の音声レベル、抑揚レベル、言葉と言葉との時間的な間隔等を計測する。また、音声処理装置13は、計測した結果を情報提示装置14のパーソナリティ評価部16へ出力する。
パーソナリティ評価部16は、音声処理装置13からの計測結果に基づいて、ユーザがどのような気分、心理状態にいるかを数値化する。具体的には、エージェントコントローラ19から送られるユーザにエージェントを表示させた時間に関する表示時間情報と、スクリプト生成部17から送られるスクリプトの質問に対する回答難易度情報と、音声処理装置13からの計測結果とに基づいて、例えばユーザが現時点で支配的なパーソナリティ状態なのか、服従的なパーソナリティ状態なのかを評価し、更に、その状態の程度を評価する。なお、評価の具体的な内容については後述する。パーソナリティ評価部16は、評価結果であるパーソナリティ情報をスクリプト生成部17へ出力する。
スクリプト生成部17は、パーソナリティ評価部16により評価されたパーソナリティ情報に基づいて、表示出力装置15にエージェントを表示するためのスクリプトを生成する。このとき、データベース18には、様々な状況でのエージェントの種類と、エージェントが喋る適切な言葉や動作、表情等の振る舞いパターンが複数蓄積されている。スクリプト生成部17は、入力したパーソナリティ情報に対応させてデータベース18から文章テキストCGキャラクタ等を取得して、生成されたスクリプトをエージェントコントローラ19へ出力する。また、生成されたスクリプトに含まれるユーザへの質問に対する回答難易度情報をパーソナリティ評価部16へ出力する。
エージェントコントローラ19は、上述した評価に基づいて設定されたユーザのパーソナリティ情報に応じたスクリプトを入力し、エージェントの振る舞いをコントロールして表示出力装置15へ出力する。また、エージェントコントローラ19は、ユーザにエージェントを表示させた時間に関する表示時間情報をパーソナリティ評価部16に出力する。
表示出力装置15は、ディスプレイ等の表示装置やスピーカ等の音声出力装置等からなり、エージェントコントローラ19から入力される映像をディスプレイ等の表示画面に表示し、音声をスピーカ等から出力する。ここで、表示出力装置15により表示されるエージェントの振る舞いの様子について図を用いて説明する。図2は、表示出力装置に表示されるエージェントの振る舞いの一例を示す図である。
図2に示すように表示画面21には、エージェント22が表示されており、エージェントの口や体の動作にあわせて「こんにちは〜」と音声が出力される。
本発明では、上述した処理をユーザとエージェントとの対話を通じて継続的に行い、エージェントの振る舞いを動的に設定を変更することにより、ユーザとエージェントとのよりスムーズな対話を可能とする。
<パーソナリティ評価>
次に、本発明におけるパーソナリティ評価部16における評価内容について説明する。パーソナリティを評価する方法としては、例えば、エージェントが問いかけ(質問)を開始した時間からユーザが応答を始めた時間までを計測することで評価する方法や、ユーザからの応答における音声レベルにより評価する方法、あるいはユーザの応答における音声の強弱の度合いにより評価する方法等がある。
このようにユーザから取得した音声情報を予め設定した応答の基準値に基づいて、ユーザ毎にパーソナリティを評価する。
ここで、ユーザのパーソナリティを評価する手順について、フローチャートを用いて説明する。なお、以下に示す評価手順においては、既にパーソナリティ評価部16に上述した表示時間情報と回答難易度情報が入力されているものとする。
図3は、本発明におけるユーザのパーソナリティを評価する手順を示す一例のフローチャートである。図3において、まずユーザからの音声が入力される(S01)。次に、エージェントからの質問に対するユーザからの応答時間の評価を実施するかを判断する(S02)。このとき、ユーザからの応答時間に対する評価を行うか否かの判断については、質問に対する回答難易度情報に基づいて判断する。また、予めパーソナリティ評価部16にて設定されていてもよい。
ユーザからの応答時間に対する評価を行う場合(S02において、YES)、表示時間情報及び質問難易度情報に基づいて応答時間の評価を行う(S03)。具体的には、表示時間内に含まれる質問開始時間及び質問終了時間と、S01において音声が入力された時間とを用いて応答時間を算出する。また、回答難易度については、例えば、予めユーザに表示させた質問の内容を他の多数の被験者に対して行い、その平均応答時間を基準時間とし、その基準時間に基づいて難易度が設定されている。上述により得られた応答時間及び回答難易度に基づいて応答時間の評価を行う。
一方、応答時間の評価を行わない場合(S02において、No)、又はS03の処理が終了した場合、次にユーザから入力された音声のレベルの評価を行う(S04)。更に、ユーザから入力された音声の抑揚の評価を行う(S05)。
その後、S03、S04、S05の処理で得られた評価情報に基づいて、ユーザのパーソナリティを評価しパーソナリティ情報を出力する(S06)。なお、上述した応答時間評価、音声レベル評価、音声の抑揚評価の順序については、図3に示す限りではなく、夫々の順序を入れ替えてもよい。また、本発明では、応答時間評価、音声レベル評価、音声の抑揚評価のうち、少なくとも1つを用いてパーソナリティを評価することができる。
ここで、応答時間評価(S03)、音声レベル評価(S04)、音声の抑揚評価(S05)、及びパーソナリティ評価(S06)について具体的に説明する。
<S03:応答時間評価>
最初に応答時間評価について説明する。図4は、エージェントからの質問内容に対応する回答難易度と基準時間の関係の一例を示す図である。図4では、予め設定されているエージェントからの質問に対する回答難易度Daと、回答基準時間範囲が対応付けられている。また、図4に示す難易度及び基準時間の対応情報は、パーソナリティ評価部16に予め蓄積されている。
なお、図4において回答難易度Daが5の場合は基準時間を設けないことを示している。つまり、回答難易度Daが5に設定されている場合は、応答時間評価は行わずに他の評価条件により評価が行われる。
ここで、以下に示す説明では、パーソナリティ情報であるパーソナリティ評価パラメータを“pm1”とし、評価の基準として「支配的性格」と「服従的性格」の2つの対象となる評価基準により、そのユーザがどちらの性格でどの程度であるかの評価を行うものとする。なお、評価基準は本発明においてはこの限りではなく、例えば、「消極的」と「積極的」や、「能動的」と「受動的」等のように相反する性格(性質)を基準にしてもよく、3つ以上の評価基準を用いてもよい。
例えば、ユーザに対してエージェントの質問が開始した時間をTとし、ユーザが回答を開始した時間をTsとすると、応答までに要した時間は、“Ts−T”となる。次に、図4に基づいて、“Ts−T”の値と、質問の難易度に対応する基準範囲とを比較する。“Ts−T”が基準時間より小さい場合は、ユーザの応答が標準より速かったことになる。このとき、ユーザのパーソナリティは支配的であるとし、支配的な程度を表す評価パラメータ“pm1”は、基準範囲の基準値をTbとすると、「pm1=pm1+|Ts−T|/Tb」となる。なお、Tbは、基準範囲の平均値とし、例えば基準範囲が2.0〜6.0のとき、基準値Tbは4.0と設定される。また、基準値Tbを別途設定してもよい。
また、“Ts−T”が回答難易度に基づいた評価により基準範囲内であった場合は、ユーザのパーソナリティは標準となる。このとき、評価パラメータ値は「pm1=0」となる。更に、“Ts−T”が基準範囲より大きい場合は、ユーザの応答が標準より遅かったことになる。このとき、ユーザのパーソナリティは服従的であるとし、服従的の程度を表す評価パラメータ“pm1”は、「pm1=pm1−|Ts−T|/Tb」となる。
<S04:音声レベル評価>
次に、音声レベルの評価について説明する。具体的には、単位時間当たりの平均音声レベルを計測して評価を行う。例えば、単位時間当たりの平均音声レベルをSsとし、基準音声レベルをStとする。また、音声レベルによるパーソナリティ評価パラメータを“pm2”とし、支配的を正の値、服従的を負の値で表すこととする。
ここで、“Ss−St”が0より大きい場合、ユーザの声は標準範囲よりも大きいことになる。このとき、ユーザのパーソナリティは支配的であるとして、支配的の程度を表す評価パラメータ“pm2”は、「pm2=pm2+|Ss−St|/St」とする。また、“Ss−St”が0の場合は、ユーザのパーソナリティは標準であるとし「pm2=0」とする。更に、“Ss−St”が0より小さい、つまり負の数である場合は、ユーザの声が標準範囲より小さいことになる。このとき、ユーザのパーソナリティは服従的であるとし服従的の程度を表す評価パラメータpm2は、「pm2=pm2−|Ss−St|/St」とする。
<S05:ユーザの音声の抑揚>
次に、音声の抑揚における評価について説明する。具体的には、単位時間当たりにおける音量の最大値と最小値との差を抑揚レベルとし、基準抑揚レベルと比較することにより評価を行う。例えば、単位時間当たりの抑揚レベルをisとし、基準抑揚レベルをitとする。また、抑揚レベルisによるパーソナリティ評価パラメータを“pm3”とし、支配的を正の値、服従的を負の値で表すこととする。“is−it”が0より大きい場合は、ユーザの声の抑揚が標準より大きいことになる。このとき、ユーザのパーソナリティは支配的であるとし、支配的の程度を表す評価パラメータ“pm3”は、「pm3=pm3+|is−it|/it」とする。また、“is−it”=0の場合、ユーザのパーソナリティは標準であるとし「pm3=0」とする。更に、“is−it”が0より小さい場合は、ユーザの抑揚がかなり小さいことを示している。このとき、ユーザのパーソナリティは服従的であると服従的な程度を表す評価パラメータ“pm3”は、「pm3=pm3−|is−it|/it」とする。
<S06:パーソナリティ評価>
次に、上述の応答時間評価(S03)、音声レベル評価(S04)、音声の抑揚評価(S05)に基づいて、パーソナリティ評価を行う。
例えば、ユーザのパーソナリティ値をUpとすると、Upは、以下のように表される。なお、Upの変化範囲を−1〜+1とする。
S03の応答時間評価を行った場合、パーソナリティ(Up)は、「Up=w1×pm1+w2a×pm2+w3a×pm3」となる。ここで、w1,w2a,w3aは夫々重み定数を示しており、予めパーソナリティ評価部16にて設定されている。なお、このときの重み付けは、評価を続けていくうちに蓄積されるユーザ毎の評価値に基づいて設定される。また、予め標準の重み付け値を設定してもよく、重み付けを用いなくてもよい。更には、年代別や性別等の区分けに基づいて設定してもよい。
また、S03の応答時間評価を行わなかった場合、パーソナリティ(Up)は、「Up=w2b×pm2+w3b×pm3」となる。
ここで、Up>0の場合、ユーザパーソナリティは支配的であるとし、支配的レベルは|Up|となる。また、Up=0の場合、ユーザパーソナリティは標準となる。更に、Up<0の場合、ユーザパーソナリティは服従的で、服従的レベルは|Up|となる。パーソナリティ評価部16は、このようにして得られたパーソナリティ情報をスクリプト生成部17へ出力する。
次に、ユーザパーソナリティ情報に基づく、キャラクタ型エージェントの振る舞いの設定方法について図を用いて説明する。図5は、CGエージェントの振る舞いの設定について説明するための一例の図である。なお、図5(a)では、CGエージェントの声の抑揚設定を説明するための図であり、図5(b)は、CGエージェントの表情設定を説明するための図である。
<CGエージェントの声の抑揚設定>
図5(a)では、エージェントの声の抑揚パラメータが0〜10までの値で可変できるものとする。例えば、服従的な場合の抑揚レベルL1の範囲を0<L1<5とし、支配的な場合の抑揚レベルL2の範囲を5<L2<10と設定する。この間で上述したパーソナリティ情報に基づいて抑揚レベルが可変するものとする。
ここで、抑揚レベルの可変パラメータを“Aint”とすると、Up<5の場合、「Aint=5−(5×(−UP))」とする。また、UP=5の場合、「Aint=5」する。更に、Up>5のとき、「Aint=5+(5×UP)」とする。これにより、抑揚の変化に基づく可変パラメータ“Aint”を容易に設定できる。
<CGエージェントの表情の変化範囲>
次に、図5(b)に示すように、一例としてエージェントがうれしい表情をする場合における、うれしい程度の値“Afexpd”が0.0〜2.0で可変できるものとする。ここで、Up<0の場合、“Afexpd”は0.0〜0.3の範囲で可変する。すなわち、Up<0の場合には、“Afexpd”は0.0〜0.3の何れかの値になる。また、UP=0の場合、“Afexpd”は0.0〜1.0の範囲で可変することを示している。また、Up>0の場合には“Afexpd”は0.0〜2.0の範囲で可変することを示している。なお、0.0はエージェントの顔が無表情であることを示し、値が大きいほどうれしい表情に変化する。
また、個々のコンテンツ毎に、エージェントの表情の程度“fexpd”が設定され、あるコンテンツCaにおけるエージェントの表情の程度を“Ca(fexpd)”とすると、エージェントの表情の程度は以下のように表す。Up<0の場合、「Afexpd=0.3×(−Up)×Ca(fexpd)」とし、Up=0の場合、「Afexpd=Ca(fexpd)」とし、Up>0の場合、「Afexpd=2×Up×Ca(fexpd)」とする。なお、“Ca(fexpd)”の可変範囲は0.0〜1.0とする。
次に、Up値に対応させたエージェントの発話内容の例について図を用いて説明する。図6は、本発明における上述にUp値に対応させたエージェントの発話内容と評価結果の様子を示す一例の図である。なお、図6では、エージェントの発話内容として、服従的度(服従的な程度)と支配的度(支配的な程度)に対応する“あいづち言葉”が定義されている。図6に示すように、上述の手順により求めたUp値の値に応じてエージェントのあいづち言葉をリアルタイムに変更することができる。
なお、このテーブルは、データベース18に蓄積されており、スクリプト生成部17にてスクリプトを生成する際にパーソナリティ評価部16から入力されるパーソナリティ情報に基づいて参照されるテーブルである。
上述の手順により、エージェントからの質問に対するユーザからの応答を、ユーザに気づかれないように評価して、評価に応じてエージェントの振る舞いを動的に変更することができる。これにより、ユーザはエージェントに親近感を持ち、対話をスムーズなものにすることができる。また、ユーザはシステムが自分を気遣ってくれていると感じ、より長時間システムがユーザに使われることが期待できる。更に、本発明ではユーザに対して特別な調査を行わないため、ユーザはシステムに対し、猜疑心を抱くことがない。
<スクリプト生成>
次に、スクリプト生成部17にて生成されるスクリプトの例について説明する。なお、本実施例では、スクリプトの一例としては、TVML(TV program Marking Language)を用いる。TVMLは、テレビ番組を制作するためのオブジェクトベース記述言語である。TVMLは、テレビ番組の映像と音声を、素材と台本とに分けて記述するものであり、番組台本を記述すれば、パソコン等で動作するソフトウェア等がこれを読取り、即座にテレビ番組として視聴することができるものである。
なお、TVML以外でも、XML(eXtensible Markup Language)等の表現形式を用いることもできる。
図7は、スクリプトの具体的な生成例を示す一例の図である。なお、図7(a)はCGエージェントの喋りの抑揚についてエージェントを制御するためのスクリプトを示し、図7(b)はCGエージェントの表情を制御するスクリプトを示している。
図7(a)に示すように予め雛型のスクリプトに設定される抑揚(intonation)の値(LEVEL)に上述した抑揚レベルの可変パラメータ“Aint”を適用することにより、エージェントにパーソナリティ評価に基づく振る舞いを容易に設定することができる。
また、図7(b)に示すようにCGエージェントの表情を制御する雛型のスクリプトに設定される表情の程度(degree)に上述の評価パラメータの値“Afexpd”をそのまま適用することでスクリプトを生成することができる。また、評価パラメータの値“Afexpd”に対応させて“type”にうれしさを表現するための“happy”をセットすることで、エージェントの表情をにこやかにする。例えば、ユーザにうれしかった話をする時に、にこやかな顔を表示することにより感情を共有させ、ユーザは親近感を持ちやすくさせることができる。
なお、図7に示すように雛型のスクリプトを予め生成しておくことで、パラメータをスクリプトの所定の位置に付与するだけでよいため、処理を簡素化できエージェントの振る舞いをユーザとの対話に応じてリアルタイムに変更することができる。
ここで、図7(b)の設定により表示画面に表示されるエージェントの変化の様子について図を用いて説明する。図8は、表示されたエージェントの変化の様子を説明するための一例の図である。
図8(a)は、評価パラメータが標準値の範囲内、又はソフトウェアが起動した最初の状態を示している。表示画面30−1には、床31−1の上にエージェント32−1が立っている。エージェント32−1の表情は無表情であり、腕も下ろした状態である。
ここで、図7で示したスクリプトによりエージェントをコントロールすることにより、図8(b)に示すようにエージェントは動作を行う。具体的には図8(a)の表示画面30−2には床31−1の上にエージェント32−2が表示されており、表情はにこやかで、手を上にあげた動作をしている。更に、図6に示したようなあいづち言葉でも、ユーザのパーソナリティ情報に応じて言葉の話し方を変更させることで、ユーザが親近感を持ちやすくし、ユーザのニーズに即した情報提示を実現することができる。なお、表示されるエージェントの数は1人に限らず、何人でもよい。また、人間でなく動物や昆虫、植物等を表示させてもよい。
なお、CGエージェントの振る舞いの方法としては、声の抑揚や、声の大きさ、体の振りの大きさ、表情、せりふ等がパーソナリティ情報におけるパラメータに応じて変更される。また、エージェント自体を変更させることもできる。
なお、上述の評価は、ソフトウェアの起動中は継続して評価を行う。具体的には、所定の時間間隔やユーザに提示する質問毎に評価される。また、評価する場合には、前回までのユーザのパーソナリティ情報を基準に評価させることが望ましい。前回までのパーソナリティ情報を評価の対象にすることで、エージェントの表情を急変させずに段階的に変化させることができ、これによりユーザに違和感を与えないようにすることができる。また、ユーザが新たにソフトウェアを起動させた場合には、エージェントは最初に標準的な振る舞いをするようにする。
ここで、上述の内容に基づく本発明における情報提示手順の一例についてフローチャートを用いて説明する。
図9は、本発明における情報提示手順を示す一例のフローチャートである。図9において、まず、ソフトウェアが起動中であるかを判断する(S11)。起動中である場合(S11において、YES)、ユーザからの音声(応答情報)を入力する(S12)。なお、S12では、応答を得るためにエージェントからユーザに対して何かしらの問い合わせ(質問)がされる。
次に、上述したパーソナリティ評価を行う(S13)。S13の処理終了後、得られるパーソナリティ評価について前回の値と変化があったかを判断する(S14)。前回の値と変化があった場合(S14において、YES)、新しい評価パラメータを抽出する(S15)。また、前回の値と変化がなかった場合(S14において、NO)は前回のパラメータ値(パーソナリティ情報)に基づき、S15の処理を行った場合は、S15にて得られる新しいパラメータ値(パーソナリティ情報)に基づいてスクリプトを生成する(S16)。生成したスクリプトは画面に表示出力する(S17)。
また、S17の処理が終了後は、S11に戻りソフトウェアが起動中である場合は、継続してS12以降の処理を行う。また、ソフトウェアが終了した場合(S11において、NO)、処理を終了する。このとき、現在のパーソナリティ評価の結果をクリアする。
上述の手順により、前回の評価に基づいてユーザのパーソナリティ評価を継続的に行い、動的にエージェントの振る舞いを変化させることができる。
上述したように、第1の実施形態により、ユーザはエージェントに親近感を持ち、対話をスムーズなものにすることができる。更に、対話がスムーズになることで、ユーザから様々な情報を取得することができ、ユーザのニーズに即した高精度な情報の提示を実現することができる。
<第2の実施形態:画像評価>
第1の実施形態では、エージェントの質問に対応するユーザの音声による応答からパーソナリティ評価を行ったが、例えば、情報提示システムにユーザを撮影するカメラ等の撮像装置を備え、撮像装置からのユーザの映像を応答情報として入力し、その入力された情報に基づいてユーザのパーソナリティを評価することもできる。ここで、第2の実施形態として、画像認識によりパーソナリティ評価を行う情報提示システムの構成例について図を用いて説明する。
図10は、第2の実施形態における情報提示システムの一構成例を示す図である。図10の情報提示システム40は、撮像装置41と、画像認識装置42と、画像処理装置43と、情報提示装置44と、表示出力装置45とを有するよう構成されている。また、情報提示装置44は、パーソナリティ評価部46と、スクリプト生成部47と、データベース48と、エージェントコントローラ49とを有するよう構成されている。
撮像装置41は、ユーザの顔や全体の動きを取得するため、ユーザの映像を撮影するものでありカメラ等からなる。画像認識装置42は、撮像装置41から受信した画像を認識するものである。画像認識装置42は、どのような表情でユーザが応答しているか、その表情の変化の様子を解析する。例えば、ユーザが応答中の眉毛の動きや目の動きや瞳孔の大きさの変化等を解析する。画像認識装置42は、解析した結果を画像処理装置43へ出力する。
画像処理装置43は、ユーザの表情の変化レベル等を計測する。画像処理装置43は、計測結果を情報提示装置44のパーソナリティ評価部46へ出力する。パーソナリティ評価部46は、エージェントコントローラ49から送られるユーザにエージェントを表示させた時間に関する表示時間情報と、スクリプト生成部47から送られるスクリプトの質問に対する回答難易度情報と、入力された計測結果とに基づいて、ユーザがどのような気分、心理状態にいるかを数値化する。具体的には第1の実施形態に示すように、例えばユーザが現時点で支配的なパーソナリティ状態なのか、服従的なパーソナリティ状態なのかを評価し、更に、その状態の程度を評価する。評価したパーソナリティ情報をスクリプト生成部47へ出力する。
スクリプト生成部47は、パーソナリティ評価部46により評価されたパーソナリティ情報に基づいてスクリプトを生成する。このとき、データベース48には、様々な状況でのエージェントの振る舞いパターンが複数蓄積されている。スクリプト生成部47は、入力されたパーソナリティ情報に対応させてデータベース48から文章テキストCGキャラクタ等を取得して、生成されたスクリプトをエージェントコントローラ49へ出力する。また、スクリプト生成部47は、スクリプトに含まれる質問に対する回答難易度情報をパーソナリティ評価部46に出力する。
エージェントコントローラ49は、上記の評価により設定されたユーザのパーソナリティに応じたスクリプトを入力し、エージェントの振る舞いをコントロールして表示出力装置45へ出力する。また、エージェントコントローラ49は、
表示時間情報をパーソナリティ評価部46に出力する。
表示出力装置45は、ディスプレイ等の表示装置やスピーカ等の音声出力装置等からなり、エージェントコントローラ49から入力される映像をディスプレイ等の表示画面に表示し、音声をスピーカ等から出力する。
<表情の変化の様子>
ここで、上述の画像認識において、ユーザの表情の変化を認識する例について、図を用いて説明する。図11は、画像認識の具体例を示す一例の図である。図11に示す画像は、顔画像から取得される眉毛50の位置に基づいて画像認識を行うための図である。ここで、表情の変化の大きいユーザは支配的な性格が強く、表情の変化の少ない人は服従的な性格が強いとする。
図11では、表情として変化する部位の変化幅を計測する。眉毛50の角度を特徴量とし、変化Aから変化Bの間が予め設定される変化幅“EBDef”とする。ここで、標準的な変化量を“EB”とすると、EBdef<EBの場合、ユーザは服従的であるとする。また、EBdef=EBの場合、標準であるとする。更に、EBdef>EBの場合、ユーザは支配的であるとする。
このように、眉毛100の変化に応じてパーソナリティを評価することにより、パラメータ値を設定し、スクリプト生成部47で評価結果に対応するキャラクタ型エージェントの振る舞いを変化させたスクリプトを生成し、エージェントコントローラ49に出力する。エージェントコントローラ49は、入力したスクリプトによりキャラクタ型エージェントを制御して表示出力装置45から表示する。
このように、撮像装置41からユーザの表情に関する情報を継続的に取得してパーソナリティを評価することにより、ユーザからの応答をユーザに気づかれないように評価して、評価に応じてエージェントの振る舞いを動的に変更することができる。これにより、ユーザはエージェントに親近感を持ち、対話をスムーズなものにすることができる。更に、対話がスムーズになることで、ユーザから様々な情報を取得することができ、ユーザのニーズに即した高精度な情報の提示を実現することができる。
<第3の実施形態:文字評価>
更に他の実施形態として、キーボード等の入力デバイスを用いてユーザから応答情報を取得する方法がある。ここで、第3の実施形態として、文字認識によりパーソナリティ評価を行う情報提示システムの構成例について図を用いて説明する。
図12は、第3の実施形態における情報提示システムの一構成例を示す図である。図12の情報提示システム60は、文字入力装置61と、文字認識装置62と、文字処理装置63と、情報提示装置64と、表示出力装置65とを有するよう構成されている。また、情報提示装置64は、パーソナリティ評価部66と、スクリプト生成部67と、データベース68と、エージェントコントローラ69とを有するよう構成されている。
文字入力装置61は、キーボード等の入力デバイスからなり、エージェントからユーザへの質問情報に対して、ユーザから文字情報が応答情報として入力される。文字入力装置61は、入力した文字情報を文字認識装置62に出力する。また、文字入力装置61にユーザのタイプ字の押圧力やタイプスピードや、誤タイプ数を計測できるものであれば、その情報も文字認識装置62に出力する。文字認識装置62は、ユーザからどのような文章が入力されたか、その内容の変化の様子等を解析する。例えば、ユーザの文体や単語の使用率、文脈の変化等を解析する。更には、誤タイプ率やタイプ時の所定期間内の平均押圧力を計測する。
文字認識部62は、得られた結果を文字処理装置63へ出力する。文字処理装置63は、文字認識部62から得られる結果からユーザの文脈や、タイプスピード、誤タイプ等の変化のレベルを計測する。文字処理装置63は、計測結果を情報提示装置64のパーソナリティ評価部66へ出力する。
パーソナリティ評価部66は、エージェントコントローラ69から送られるユーザにエージェントを表示させた時間に関する表示時間情報と、スクリプト生成部67から送られるスクリプトの質問に対する回答難易度情報と、入力された計測結果とに基づいて、ユーザがどのような気分、心理状態にいるかを数値化する。具体的には上述の実施形態に示すように、例えばユーザが現時点で支配的なパーソナリティ状態なのか、服従的なパーソナリティ状態なのかを評価し、更に、その状態の程度を評価する。評価したパーソナリティ情報をスクリプト生成部67へ出力する。
スクリプト生成部67は、パーソナリティ評価部66により評価されたパーソナリティ情報に基づいてスクリプトを生成する。このとき、データベース68には、様々な状況でのエージェントの振る舞いパターンが複数蓄積されている。スクリプト生成部67は、入力されたパーソナリティ情報に対応させてデータベース68から文章テキストCGキャラクタ等を取得して、生成されたスクリプトをエージェントコントローラ69へ出力する。また、スクリプト生成部67は、スクリプトに含まれる質問に対する回答難易度情報をパーソナリティ評価部66に出力する。
エージェントコントローラ69は、上記の評価により設定されたユーザのパーソナリティに応じたスクリプトを入力し、エージェントの振る舞いをコントロールして表示出力装置65へ出力する。また、エージェントコントローラ69は、
表示時間情報をパーソナリティ評価部66に出力する。
表示出力装置65は、ディスプレイ等の表示装置やスピーカ等の音声出力装置等からなり、エージェントコントローラ69から入力される映像をディスプレイ等の表示画面に表示し、音声をスピーカ等から出力する。
第3の実施形態を適用することにより、上述した実施例と同様に、ユーザの表情を継続的に取得してパーソナリティを評価することにより、ユーザからの応答をユーザに気づかれないように評価して、評価に応じてエージェントの振る舞いを動的に変更することができる。これにより、ユーザはエージェントに親近感を持ち、対話をスムーズなものにすることができる。更に、対話がスムーズになることで、ユーザから様々な情報を取得することができ、ユーザのニーズに即した高精度な情報の提示を実現することができる。また、上述の実施例の他にもキーボード等の入力手段を用いてユーザから入力される文字情報に基づいてパーソナリティ評価を行うことができる。
なお、上述した実施形態は、組み合わせて適用しても同様の効果を得ることができる。また、上述の実施例に示すような情報提示システムにおける専用の装置構成により、本発明における上述した情報提示手順を行うこともできるが、上述したエージェントを用いた情報提示手順における各処理をコンピュータに実行させることができる実行プログラム(情報提示プログラム)を生成し、例えば、汎用のパーソナルコンピュータ、ワークステーション等に情報提示プログラムをインストールすることにより本発明における情報提示が実現可能となる。
上述したように本発明によれば、ユーザに表示されるキャラクタ型エージェントの振る舞いを、ユーザのパーソナリティ情報に対応させて変化させることにより、よりスムーズな対話を可能とする。つまり、ユーザ毎に振る舞いの変化の度合いに応じて動的に設定することで、いわゆる「気の利いた」振る舞いをすることができる。
また、ユーザは特別に何かを測定されているという疑念を持つことなく、キャラクタ型エージェントとの対話をスムーズなものにすることができる。更に、対話がスムーズになることで、ユーザから様々な情報を取得することができ、ユーザのニーズに即した高精度な情報の提示を実現することができる。
以上本発明の好ましい実施例について詳述したが、本発明は係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形、変更が可能である。
第1の実施形態における情報提示システムの一構成例を示す図である。 表示出力装置に表示されるエージェントの振る舞いの一例を示す図である。 本発明におけるユーザのパーソナリティを評価する手順を示す一例のフローチャートである。 エージェントからの質問内容に対応する回答難易度と基準時間の関係の一例を示す図である。 CGエージェントの振る舞いの設定について説明するための一例の図である。 本発明における上述にUp値に対応させたエージェントの発話内容と評価結果の様子を示す一例の図である。 スクリプトの具体的な生成例を示す一例の図である。 表示されたエージェントの変化の様子を説明するための一例の図である。 本発明における情報提示手順を示す一例のフローチャートである。 第2の実施形態における情報提示システムの一構成例を示す図である。 画像認識の具体例を示す一例の図である。 第3の実施形態における情報提示システムの一構成例を示す図である。
符号の説明
10,40,60 情報提示システム
11 音声入力装置
12 音声認識装置
13 音声処理装置
14,44,64 情報提示装置
15、45,65 表示出力装置
16,46,66 パーソナリティ評価部
17,47,67 スクリプト生成部
18,48,68 データベース
19,49,69 エージェントコントローラ
21,30 表示画面
22,32 エージェント
31 床
41 撮像装置
42 画像認識装置
43 画像処理装置
50 眉毛
61 文字入力装置
62 文字認識装置
63 文字処理装置

Claims (7)

  1. 画面上に表示されるキャラクタ型のエージェントとユーザとの対話により得られる該ユーザの応答情報から、前記エージェントの振る舞いを変更して前記ユーザに対して情報を提示する情報提示システムにおいて、
    前記応答情報を入力する入力手段と、
    前記ユーザに対する質問情報と、前記応答情報とに基づいて、ユーザ毎のパーソナリティを評価するパーソナリティ評価手段と、
    前記パーソナリティ評価手段により得られるパーソナリティ情報に基づいて、スクリプトを生成するスクリプト生成手段と、
    前記スクリプト生成手段により得られるスクリプトに基づいて、前記エージェントの振る舞いを制御して前記画面上に表示させるエージェント制御手段とを有することを特徴とする情報提示システム。
  2. 画面上に表示されるキャラクタ型のエージェントとユーザとの対話により得られる該ユーザの応答情報から、前記エージェントの振る舞いを変更して前記ユーザに対して情報を提示する情報提示装置において、
    前記ユーザに対する質問情報と、前記応答情報とに基づいて、ユーザ毎のパーソナリティを評価するパーソナリティ評価部と、
    前記パーソナリティ評価部により得られるパーソナリティ情報に基づいて、スクリプトを生成するスクリプト生成部と、
    前記スクリプト生成部により得られるスクリプトに基づいて、前記エージェントの振る舞いを制御して前記画面上に表示させるエージェント制御部とを有することを特徴とする情報提示装置。
  3. 前記応答情報は、音声情報、画像情報、文字情報の少なくとも1つからなることを特徴とする請求項2に記載の情報提示装置。
  4. 前記パーソナリティ評価部は、
    前記応答情報が音声情報である場合、音声の応答時間、音声レベル、音声の抑揚レベルの少なくとも1つを用いて前記ユーザのパーソナリティを評価することを特徴とする請求項2又は3に記載の情報提示装置。
  5. 前記パーソナリティ評価部は、
    前回までの評価で得られたパーソナリティ情報に基づいて、前記ユーザのパーソナリティを評価することを特徴とする請求項2乃至4の何れか1項に記載の情報提示装置。
  6. 前記スクリプト生成部は、
    前記パーソナリティ情報に含まれるパラメータを予め生成されている雛型スクリプトの所定の位置に付与することによりスクリプトを生成することを特徴とする請求項2乃至5の何れか1項に記載の情報提示装置。
  7. 画面上に表示されるキャラクタ型のエージェントとユーザとの対話により得られる該ユーザの応答情報から、前記エージェントの振る舞いを変更して前記ユーザに対して情報を提示する情報提示処理をコンピュータに実行させるための情報提示プログラムにおいて、
    前記ユーザに対する質問情報と、前記応答情報とに基づいて、ユーザ毎のパーソナリティを評価するパーソナリティ評価処理と、
    前記パーソナリティ評価処理により得られるパーソナリティ情報に基づいて、スクリプトを生成するスクリプト生成処理と、
    前記スクリプト生成処理により得られるスクリプトに基づいて、前記エージェントの振る舞いを制御して前記画面上に表示させるエージェント制御処理とをコンピュータに実行させるための情報提示プログラム。

JP2004004195A 2004-01-09 2004-01-09 情報提示システム、情報提示装置、及び情報提示プログラム Pending JP2005196645A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004004195A JP2005196645A (ja) 2004-01-09 2004-01-09 情報提示システム、情報提示装置、及び情報提示プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004004195A JP2005196645A (ja) 2004-01-09 2004-01-09 情報提示システム、情報提示装置、及び情報提示プログラム

Publications (1)

Publication Number Publication Date
JP2005196645A true JP2005196645A (ja) 2005-07-21

Family

ID=34818879

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004004195A Pending JP2005196645A (ja) 2004-01-09 2004-01-09 情報提示システム、情報提示装置、及び情報提示プログラム

Country Status (1)

Country Link
JP (1) JP2005196645A (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009530711A (ja) * 2006-03-14 2009-08-27 スフェリカル ダイナミックス インコーポレイテッド 心理的アセスメントのためのシステムおよび方法
JP2010166939A (ja) * 2009-01-20 2010-08-05 Yaskawa Information Systems Co Ltd 表情測定方法、表情測定プログラムならびに表情測定装置
JP2011515726A (ja) * 2008-02-07 2011-05-19 ソニー エリクソン モバイル コミュニケーションズ, エービー アニメーションキャラクターを用いる電子機器及び方法
WO2017085992A1 (ja) * 2015-11-17 2017-05-26 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置
JP2017191531A (ja) * 2016-04-15 2017-10-19 ロボットスタート株式会社 コミュニケーションシステム、サーバ及びコミュニケーション方法
JP2018159777A (ja) * 2017-03-22 2018-10-11 ヤマハ株式会社 音声再生装置、および音声再生プログラム
WO2020100647A1 (ja) * 2018-11-13 2020-05-22 本田技研工業株式会社 情報伝達装置および情報伝達方法
JP2021086549A (ja) * 2019-11-29 2021-06-03 Necソリューションイノベータ株式会社 対話型情報取得装置、対話型情報取得方法、プログラム、及び記録媒体

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11259446A (ja) * 1998-03-12 1999-09-24 Aqueous Reserch:Kk エージェント装置
JP2002108600A (ja) * 2000-10-02 2002-04-12 Digital Electronics Corp 制御システムの端末装置、記録媒体、および、制御システム
JP2002341985A (ja) * 2001-05-21 2002-11-29 Fujitsu Ltd キャラクタインタフェースシステム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11259446A (ja) * 1998-03-12 1999-09-24 Aqueous Reserch:Kk エージェント装置
JP2002108600A (ja) * 2000-10-02 2002-04-12 Digital Electronics Corp 制御システムの端末装置、記録媒体、および、制御システム
JP2002341985A (ja) * 2001-05-21 2002-11-29 Fujitsu Ltd キャラクタインタフェースシステム

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009530711A (ja) * 2006-03-14 2009-08-27 スフェリカル ダイナミックス インコーポレイテッド 心理的アセスメントのためのシステムおよび方法
JP2011515726A (ja) * 2008-02-07 2011-05-19 ソニー エリクソン モバイル コミュニケーションズ, エービー アニメーションキャラクターを用いる電子機器及び方法
JP2010166939A (ja) * 2009-01-20 2010-08-05 Yaskawa Information Systems Co Ltd 表情測定方法、表情測定プログラムならびに表情測定装置
US10755704B2 (en) 2015-11-17 2020-08-25 Sony Interactive Entertainment Inc. Information processing apparatus
WO2017085992A1 (ja) * 2015-11-17 2017-05-26 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置
JPWO2017085992A1 (ja) * 2015-11-17 2018-05-24 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置
JP2017191531A (ja) * 2016-04-15 2017-10-19 ロボットスタート株式会社 コミュニケーションシステム、サーバ及びコミュニケーション方法
JP2018159777A (ja) * 2017-03-22 2018-10-11 ヤマハ株式会社 音声再生装置、および音声再生プログラム
WO2020100647A1 (ja) * 2018-11-13 2020-05-22 本田技研工業株式会社 情報伝達装置および情報伝達方法
JPWO2020100647A1 (ja) * 2018-11-13 2021-10-21 本田技研工業株式会社 情報伝達装置および情報伝達方法
JP7080991B2 (ja) 2018-11-13 2022-06-06 本田技研工業株式会社 情報伝達装置および情報伝達方法
US11438450B2 (en) * 2018-11-13 2022-09-06 Honda Motor Co., Ltd. Information transmission apparatus and information transmission method
JP2021086549A (ja) * 2019-11-29 2021-06-03 Necソリューションイノベータ株式会社 対話型情報取得装置、対話型情報取得方法、プログラム、及び記録媒体
JP7347794B2 (ja) 2019-11-29 2023-09-20 Necソリューションイノベータ株式会社 対話型情報取得装置、対話型情報取得方法、及びプログラム

Similar Documents

Publication Publication Date Title
WO2022048403A1 (zh) 基于虚拟角色的多模态交互方法、装置及***、存储介质、终端
JP3924583B2 (ja) ユーザ適応型装置およびその制御方法
KR101604593B1 (ko) 이용자 명령에 기초하여 리프리젠테이션을 수정하기 위한 방법
JP7280512B2 (ja) 非言語情報生成装置及びプログラム
WO2007098560A1 (en) An emotion recognition system and method
JP2004310034A (ja) 対話エージェントシステム
JP2008139762A (ja) プレゼンテーション支援装置および方法並びにプログラム
JP7157340B2 (ja) 非言語情報生成装置、非言語情報生成モデル学習装置、方法、及びプログラム
JP7212284B2 (ja) 非言語情報生成装置、方法、及びプログラム
Roche et al. “Your tone says it all”: The processing and interpretation of affective language
JP5105943B2 (ja) 発話評価装置及び発話評価プログラム
Niebuhr et al. Virtual reality as a digital learning tool in entrepreneurship: How virtual environments help entrepreneurs give more charismatic investor pitches
Aylett et al. Building and designing expressive speech synthesis
JP2005196645A (ja) 情報提示システム、情報提示装置、及び情報提示プログラム
CN114566187B (zh) 操作包括电子装置的***的方法、电子装置及其***
JP2015069231A (ja) キャラクタ生成装置およびプログラム
JP7140984B2 (ja) 非言語情報生成装置、非言語情報生成モデル学習装置、方法、及びプログラム
JP2017182261A (ja) 情報処理装置、情報処理方法、およびプログラム
KR20210100831A (ko) 인공지능 기반 수어통역 서비스 제공 시스템 및 방법
Feldman et al. Engagement with artificial intelligence through natural interaction models
JP2017162268A (ja) 対話システムおよび制御プログラム
JP7322374B2 (ja) ロボットの制御装置、ロボット、ロボットの制御方法およびプログラム
US20220165293A1 (en) Information processing apparatus, information processing method, and program
KR20210100832A (ko) 사용자의 감정상태를 판단하는 인공지능 기반 수어통역 서비스 제공 시스템 및 방법
Suzuki et al. VFep: 3D graphic face representation based on voice-based emotion recognition

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060324

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080716

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080729

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080922

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090210