JP2002530724A - 対人相互作用シミュレータを用いてトレーニングするための装置および方法 - Google Patents

対人相互作用シミュレータを用いてトレーニングするための装置および方法

Info

Publication number
JP2002530724A
JP2002530724A JP2000584453A JP2000584453A JP2002530724A JP 2002530724 A JP2002530724 A JP 2002530724A JP 2000584453 A JP2000584453 A JP 2000584453A JP 2000584453 A JP2000584453 A JP 2000584453A JP 2002530724 A JP2002530724 A JP 2002530724A
Authority
JP
Japan
Prior art keywords
user
statements
video
statement
creating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000584453A
Other languages
English (en)
Inventor
オルセン,デール・イー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Johns Hopkins University
Original Assignee
Johns Hopkins University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Johns Hopkins University filed Critical Johns Hopkins University
Publication of JP2002530724A publication Critical patent/JP2002530724A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/20Education
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B7/00Electrically-operated teaching apparatus or devices working with questions and answers
    • G09B7/02Electrically-operated teaching apparatus or devices working with questions and answers of the type wherein the student is expected to construct an answer to the question which is presented or wherein the machine gives an answer to the question presented by a student
    • G09B7/04Electrically-operated teaching apparatus or devices working with questions and answers of the type wherein the student is expected to construct an answer to the question which is presented or wherein the machine gives an answer to the question presented by a student characterised by modifying the teaching programme in response to a wrong answer, e.g. repeating the question, supplying a further explanation
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/06Electrically-operated educational appliances with both visual and audible presentation of the material to be studied
    • G09B5/065Combinations of audio and video presentations, e.g. videotapes, videodiscs, television systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • General Physics & Mathematics (AREA)
  • Tourism & Hospitality (AREA)
  • Human Resources & Organizations (AREA)
  • Strategic Management (AREA)
  • Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Health & Medical Sciences (AREA)
  • General Business, Economics & Management (AREA)
  • Electrically Operated Instructional Devices (AREA)
  • Electrophonic Musical Instruments (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Testing And Monitoring For Control Systems (AREA)
  • Manipulator (AREA)
  • Feedback Control In General (AREA)
  • Input From Keyboards Or The Like (AREA)

Abstract

(57)【要約】 現実的なシナリオにおいてコンピュータシミュレートされた人間を用いて、人間の挙動をエミュレートするコンピュータベースのトレーニングツールおよび方法。これは、面接中の欺瞞および対人会話中の陳述の是認の検出に当たって対話的な経験を提供する。シミュレートされる人間は、問われた質問に応答して、また質問に対する応答の期間およびその後のボディランゲージを反映する動画化されたビデオディスプレイとともに、言葉による応答を提供する。質問および応答は予めプログラムされ、質問および応答の相互関連したグループが、問われる質問および生成される応答の関数として連続して調整される動的テーブルに維持される。本システムは、各トレーニングセッションに批評および数値的得点を提供する。

Description

【発明の詳細な説明】
【0001】 関連出願への相互参照 この出願は、1998年11月25日付けで出願された米国仮特許出願第60
/109,974号からの優先権を主張するものである。
【0002】 政府関与についての言明 この発明は、司法省が裁定した契約第J−FBI−97−004の下で政府支
援により行われた。政府は、本発明に特定の権利を有する。
【0003】 発明の背景 発明の分野 この発明は、コンピュータシミュレートされる人間およびPCベースやその他
のタイプのコンピュータの現実的なシナリオにおいてコンピュータシミュレート
された人間を用いて人間の挙動をエミュレートするトレーニングツールを用いて
、面接技術およびその他の対人スキルを完全化するためのトレーニングプロセス
に関する。
【0004】 従来技術の考察 何年もの間、法執行部は口頭および非口頭の手掛かりを用いて、欺瞞を検出し
てきた。技術の有効性を示す当初の研究の多くはリード・アンド・アソーシエー
ツ(Reid and Associates)によって行われていた。それは、「面談及び質問の
リード技術(The Reid Technique of Interviewing and Interrogation)」(Jo
hn E. Reid and Associates, Chicago, 1991)という表題の、コース指向のテキ
ストを含む各企業により提供されたコースワークの一部として容易に利用できる
。加えて、ポール・エックマンは「嘘:市場、政治及び結婚における虚偽の鍵(
Telling Lies: Clues to Deceit in the Marketplace, Politics and Marriage
)」(W. N. Norton and Co., Inc., New York発行、1985)、「嘘つきを捕らえ
るのは誰(Who Can Catch A Liar?)」(American Psychologist, 46. 913 ? 9
20に発表、1991)において、また、スタン・オーターズは「動作的面談及び質問
の原理(Principles of Kinesic Interview and Interrogation)」(CRC Press
, Boca Raton, Florida発行、1995)において、一連の知識に貢献した。口頭お
よび非口頭の手掛かりに基づいて欺瞞を検出するために必要なスキルは、獲得し
難い。したがって、社会的および挙動的問題および状況に対処するよう人間をト
レーニングするために、シミュレータが必要である。その有効性を最大限にする
ため、シミュレータは、生徒が各種現実的な状況を経験し異なる応答を与えるこ
とができる、人を引き付ける環境を提供しなければならない。利益をもたらすた
め、シミュレータは、モデリングおよびシミュレーション、社会学、心理学、お
よびその他の分野での最近の発展に依拠しなければならない。
【0005】 有効なものとするため、広範なスキルに関連するトレーニングについて練習が
必要である。政府および産業界は、生命を危険にさらすことなく、または高価な
機器を使用せずに、訓練生が十分な練習を積み経験を得ることのできる洗練され
たシミュレータを設計開発してきた。それぞれのトレーニングの一部として、パ
イロットは飛行機を操縦する前にフライトシミュレータで練習し、軍関係者は戦
闘ゲームシミュレータを用いて使命の実行を練習し、医療関係者はコンピュータ
シミュレーションを用いて緊急時の行動の優先順位の決定を練習する。トレーニ
ングシミュレーション技術は、かかる洗練されたシミュレータの開発プロセスの
結果、犯罪捜査での容疑者の取調べなど、各種の対人スキルの発達を助けるため
に首尾よく使用できるというところまで発達してきている。
【0006】 発明の概要 本発明の主な目的は、犯罪捜査での容疑者の取調べなど、各種対人スキルを発
達させるに当たって個人を助けるための手段および装置を提供することである。
【0007】 本発明の別の目的は、シミュレートされた脳、および問われた質問またはユー
ザーが行った陳述および現在の対話に関するそれらの適切性の性質を覚える能力
を組み込んだ、コンピュータによりシミュレートされた人間を作り出すことであ
る。
【0008】 本発明のさらに別の目的は、挙動の典型的なパターンおよびシミュレートされ
た会話の履歴に基づいて応答を提供することである。 本発明のまた別の目的は、刑事事件での容疑者から欺瞞の徴候を検出する目的
のために取調べるよう、生徒をトレーニングするシステムを提供することである
【0009】 本発明のさらなる目的は、会話スキルのトレーニングのための対話型システム
を提供することである。 本発明のさらに別の目的は、コンピュータシミュレーションにより実施される
論理コンポーネントおよび感情コンポーネントを備える対人トレーニングのため
のシミュレータを提供することである。
【0010】 本発明のまた別の目的は、応答がシミュレートされる対象者のステータスによ
り影響を受ける対話型システムを提供することである。 本発明の別の目的は、応答がシミュレートされる人間の感情の状態により影響
を受ける対話型システムを提供することである。
【0011】 本発明のさらに別の目的は、表情、姿勢、および頭部、腕、手、指、脚および
足の位置が、問われた質問に応答して、かつ質問への応答中および応答後に変化
する対象者の視覚的イメージを提供することである。
【0012】 これらの目的は、インタフェースおよびシミュレートされる脳を含む会話トレ
ーニング用の対話型システムを提供することで達成される。インタフェースは、
ユーザーが多くの考え得る質問を通して容易に進められるように、かつシミュレ
ートされる対象者の応答を見聞きできるようにする。考え得る質問は予めプログ
ラムされており、(1)質問のカテゴリを選択し、そのカテゴリウィンドウ内の
質問を一覧する、(2)継続質問ウィンドウを検査して、システムが示唆する質
問を見つける、または(3)「昇進」など具体的な言葉に関連する質問について
システムを照会する、ことで見つけられるように、サブリストに指標付けられる
。インタフェースはまた、情報が利用可能になるにつれ、新しい質問およびコメ
ントをサブリストに追加し、また関連性をなくした質問を削除する。
【0013】 シミュレートされる脳は、論理コンポーネントおよび感情コンポーネントを含
む。論理コンポーネントは、質問に対する一連の応答のうちの1つを選択する。
該選択は、現在の環境における各応答の尤度に基づく。環境は、シミュレートさ
れる対象者の状態(たとえば、犯罪捜査において有罪または無罪)および対象者
の感情の状態により影響を受ける。論理コンポーネントは、応答において提供さ
れる情報を追跡し、応答における一貫性を維持しようとする。
【0014】 感情コンポーネントは、応答の無作為選択に極めて重要である。シミュレート
される対象者の感情の状態は、(1)取調べ開始時の対象者の状態、(2)全体
的論議(質問および陳述)の履歴、(3)より最近の質問および陳述、(4)最
後の質問または陳述、(5)対象者のステータス(有罪または無罪)、および(
6)見込みによって決定される。確率モデルは、質問をして応答が与えられる際
に、対象者の感情状態の干満を決定する。パラメータを、シミュレートされる人
格に影響を与えるよう調整することができる。たとえば、シミュレートされる対
象者が表現の乏しい陳述を行ったり、または質問の言い回しに取り乱し、応答が
遅れたりすることがある。
【0015】 一つの実施の形態において、システムは、刑事事件での潜在的な容疑者からの
欺瞞の徴候を検出する目的で、取調べるよう生徒をトレーニングする。したがっ
て、欺瞞の検出、傾聴スキルの育成、良好な質問の形成、ラポールの構築、およ
び尋問主題の展開を生徒である取調官に教える。生徒は、口頭および非口頭によ
る挙動を観察することで、シミュレートされた対象者が騙そうとしているかどう
かを決定しようと試みる。経験の一部として、生徒は、シミュレートされる対象
者が心地よく、完全かつ情報を提供する応答を提供する環境を作り出すことで、
ラポールを築き上げる。生徒からの各質問または陳述は、生徒と対象者とのラポ
ールにどのように貢献するかに従って採点される。
【0016】 生徒が利用できる陳述または質問によっては、シミュレートされる対象者を心
地よくさせたり、または捜査官をさほど脅威と感じさせなくしてラポールの構築
に貢献し、肯定的なラポールの採点を有するものもあり、シミュレートされた対
象者に自己防衛過剰にさせたり、または何らかの不快感を与え、否定的なラポー
ルに貢献するものもある。陳述または質問によっては、ラポールに負の影響を与
え得るが、対象者の犯罪ステータス(真実)の決定を助けるものもある。シミュ
レートされる対象者と首尾よく対話するため、生徒は、対象者に難しい質問に答
えることで捜査に貢献していると感じさせる。質問はまた、それぞれの診断値、
およびユーザーである生徒の全体的な評価に貢献するラポールおよび診断的採点
に従っても評価される。これらの採点は、シミュレートされる対象者のラポール
度または感情状態に依存する。敵意を持った対象者は、「誰がお金を盗ったと思
うか(Who do you think took the money?)」という質問の意図を、協力的であ
ろうとする対象者とは別様に解釈し得る。
【0017】 システムは、陳述および質問のラポール値および診断値を含むがこれらに限定
されないいくつかの要因を考慮することで、取調べの質を格付けする。対象者の
真実(正直または欺瞞)の正確な決定、および手掛かりの検出が取調官の格付け
に貢献する。対象者が誤り、欺瞞を示す挙動情報(口頭または非口頭)を明らか
にしたり、または欺瞞的な対象者にとって普通ではない、すなわち正直さを示す
応答を提供する場合、生徒は適切なボタンを選択することで、ちょうど提供され
たばかりの欺瞞または非欺瞞の証拠を示す。これらの手掛かりを適切に識別する
と、取調官の格付けが上がる。
【0018】 システムは、いくつかのユーザー選択オプションを有する。たとえば、男性ま
たは女性の声を用いて質問または陳述を行うことができる。取調べを初級、中級
、上級またはプロフェッショナル級のレベルで行うことも可能であり、より難度
の高いレベルではより少数の手掛かりが与えられる。質問の多くは、ラポールを
傷つけるものやラポールを助けるものなど、多数あるうちの任意の方法で問うこ
とができる。シミュレートされる対象者は、生徒である取調官に逆に質問しても
よい。その場合、生徒は該質問を無視するか、継続ウィンドウで見つけられる応
答を用いて応答するかを選択できる。システムは取調べからの質問および応答の
シーケンスを記憶し、取調べ全体を再生できるようにする。再生中、システムは
普通ではないあらゆる挙動を書面で識別する。
【0019】 対話型システムを用いて、多くの異なる分野でトレーニングすることができる
。たとえば、「ノーとだけ言おう (Just Say No)」キャンペーンでの子供達、医
学生、または任意のタイプの対人トレーニングが必要な他の任意の分野における
トレーニングを助けるために使用可能である。
【0020】 この発明の他の目的、特徴および利点は、添付の図面、明細書および特許請求
の範囲から明白となろう。
【0021】 好ましい実施の形態の説明 図1は、シミュレートされる対象者の感情状態に関連する視覚的な手掛かりを
提供するために、本発明により作成される典型的なディスプレイの例である。拡
大画像10において最もよく見てとれるように、シミュレートされる対象者の表
情が、問われる質問に応答して、および、質問により引き出された応答の期間お
よび応答後に変化する。拡大画像で見られる表情の変化と同時に、着座した対象
者の画像20が変化する。着座した対象者の画像において起こる変化には、表現
の変化の他に、姿勢の変化、および頭部、腕、手、指、脚および足の位置の変化
がある。変化は、対象者のボディランゲージを表す一連のビデオビネット(vide
o vignettes)により生成される。これらは、アーティストが描いた連続画像に
関連する昔からの流儀により写実的に、またはコンピュータアニメーションなど
の現代的なツールの使用を通して生成し得る。しかし、好ましい実施の形態では
、ディレクターの監督の下、特定タイプのトレーニング用の台本に従って特定の
様式で質問に応答する実際の俳優の画像を取得することで、ビネットを作成する
。特定タイプのトレーニングは、犯罪に関係する人間すなわち容疑者および目撃
者の取調べ、潜在的な従業員の面接、販売員との対話、自分の子供との極めて重
要な問題の議論、一対一レベルでの教授などの対人スキルに関連するものである
が、本発明の潜在的な使用の少数にすぎない。
【0022】 本発明は、システムのユーザーによるまたは陳述がないことによる用意される
陳述に応答する人間をシミュレートする複数のビデオビネットを作成することで
実現される。一つの実施の形態において、用意される陳述はオプションリストと
して提示され、ユーザーは、コンピュータのカーソルを用いての標準的な強調技
術を介して、これらのうちの1つを選択する。代替の実施の形態において、陳述
はユーザーにより口頭で表される。勿論、これには、音声認識ソフトウェアを組
み込んだコンピュータで本発明を実施することが必要である。システムのユーザ
ーが自由に質問または陳述を組み立てられるようにするため、用意された質問は
、キーワードの組み合わせとして認識される。したがって、用意された質問は、
各種の異なる様式で口頭で述べられる時にそれと識別され、認識基準はフレーズ
または陳述におけるキーワードの包含である。本発明を支援するコンピュータシ
ステムの音声認識要件をなくした実施の形態では、用意された陳述は、コンピュ
ータキーボードで数字または文字の組み合わせをタイプする、または上述したよ
うにカーソルを用いて陳述を強調するなど、より慣習的な手段によって選択され
る。
【0023】 本発明は、対人スキルの発達を助ける。本発明は、これを、複数のオーディオ
応答およびユーザーが選択した用意された陳述に対して応答する人間をシミュレ
ートするビデオビネットを組み合わせることで行う。オーディオ応答、ビデオビ
ネット、および用意された陳述を適宜構成することで、本システムを用いて、各
種の対人状況について個人をトレーニングすることができる。説明目的のため、
本発明を法執行者による容疑者および目撃者の取調べ技術のためのトレーニング
補助として提示する。
【0024】 本発明を用いた典型的なトレーニングシナリオでは、生徒は、図1に示すよう
に投影されるシミュレートされる対象者を取調べる。(この提示全体を通じて、
シミュレートされる対象者をマイク(Mike)と呼ぶことにする。これは、簡略化
のためであり、また実施化において本発明のユーザーに対してシミュレーション
が個人化されるのと同じ方法でにマイクを個人化するためである。)取調べは、
この例における一例として犯罪に関連したものである。取調べの目的は、マイク
の関与を決定することである。彼は、犯罪を犯したかもしれないし、犯していな
いかもしれない。生徒は、システムのソフトウェアに存在する広範な台本化され
た質問リストを選択し、マイクの口頭および非口頭の応答を観察することによっ
て、取調べを行う。マイクの人格の確率モデルは、人間の挙動に関連する論理要
因および感情要因に基づいて生徒の質問に対する応答を選択する。マイクの挙動
および応答は、マイクの挙動のコンピュータモデル(「脳」と考えられる)によ
り決定される。コンピュータモデルは、図1に示す画像特徴化により提示される
視覚的および可聴的な応答を順に配列したものである。画像配列は、俳優を使う
ことでソフトウェア用に作成される。これにより、現実的な双方向会話による取
調べが提供される。
【0025】 一例として説明する本発明の実施の形態において、カーソル、キーボード、ま
たはシステムユーザーによる音声化により、または所定時間期間内に選択がなか
ったことによって選択される用意された質問に応答して、シミュレートされる人
間による発音用に、複数のオーディオ応答が作成される。ビデオビネットおよび
オーディオ応答は、シミュレーションする人間の人格を反映するために作成され
る論理手段によりさらに相互に関連づけられる。この人格プロファイルエミュレ
ーションは、本発明のプログラムを実行するコンピュータにより用意された質問
の選択を認識することで調整される相互に関連するネットワークに従って、ビデ
オおよびオーディオの応答を制御する。人格プロファイルエミュレーション(人
格エミュレータ)は、図2に概して示すように、各オーディオ応答をビデオビネ
ットおよびユーザーが選択した陳述と相関させるネットワーク形態の論理手段と
して作成される。
【0026】 図2に示すように、ステップ30において、気分、段階、および利用可能な情
報が初期化される。次いで、ステップ40において、利用可能な質問が識別され
、ステップ42において表示される。ステップ44において、1つの質問が選択
され、ステップ46において生徒の取調官により評価される。次に、ステップ4
8においてソフトウェアが、選択した質問に従って被取調人(マイク)の気分を
更新する。次に、ステップ50においてソフトウェアが応答を決定し、ステップ
52において表示する。次いで、利用可能な情報が更新される(ステップ54)
。次に生徒は、ステップ56において、取調べを継続するか止めるかを選択する
ことができる。指示された場合にはプログラムはステップ58において停止する
し、生徒が継続を選択した場合にはステップ40に進む。
【0027】 図3は、本発明がどのようにして動作するかを示す詳細なフローチャートであ
る。多くの変形が利用可能であり、このフローチャートは本発明を達成する1つ
の方法の一例として与えられることに留意されたい。
【0028】 「基本オプション」画面が「ポップ」アップ(102)してから、ユーザーは
図4に示す開始画面上の5つの基本オプションのいずれかを選択できる。これら
のオプションは、Instructions(命令)104、Manual(マニュアル)106、
Case Background(事件の背景)108、Exit(終了)110、またはInterview
Mr. Simmens(シメンズ氏取調べ)112という選択肢を含む。Instructions1
04、Manual106、またはCase Background108を選択すると、ウェブブラ
ウザを使用してテキスト文書が表示される。ブラウザが閉じると、基本オプショ
ン画面(図4)が再度現れる。ブラウザ機能を用いて、文書をスクロールしたり
特定のテキストを検索したりできる。Exit110というオプションは、ソフトウ
ェアを終了させる。
【0029】 Interview Mr. Simmens112というオプションを選択した場合、マイク・シ
メンズの犯罪ステータスおよび初期のラポールレベル(rapport level)を初期
化することで、取調べが開始される。次に図5に示すユーザー入力画面が現れる
。この画面(図5)は、残りのプログラムの主制御画面である。
【0030】 「Start Interview(取調べ開始)」オプション116を選択することで取調
べを開始する前に、ユーザーは、画面上部にリストされる基本オプション102
のいくつかの更新を選択しても、または「End Interview(取調べ終了)110
」を選択してもよい。
【0031】 「ユーザー入力」画面を図5に示す。ユーザーが取調べを開始すると、生徒の
氏名を尋ねるウィンドウが現れる。ユーザー入力画面の上部にある「File(ファ
イル)」プルダウンメニューは、取調官の声の性別、難易レベル(高い難易レベ
ルほど少ない手掛かりが提示される)、対象者(この例ではマイク)の表示に使
用する画面のサイズ、そしてオーディオおよびビデオを禁止するオプションを含
むがこれらに限定されない基本オプションからユーザーが選択できるようにする
。ユーザーはまた、「Help(ヘルプ)」プルダウンメニューに助けを求め、ウェ
ブブラウザを用いてInstructions104、Manual106、またはCase Backgroun
d108を出すか、または権利プルダウンメニュー下の著作権情報を読むことが
できる。取調べが一旦始まると、ユーザーはまた、最後の質問および応答を繰り
返す(Say Again(繰り返し)プルダウンメニュー)か、または最新の応答まで
の取調べ全体を再生する(Playback(再生)プルダウンメニュー)よう選択する
ことができる。
【0032】 その他の任意のオプションを実行可能にする前に、ユーザーは取調べを開始し
なければならない。ユーザー名を提供した後(118)またはデフォルト名を用
いた後、ユーザーは、画面の上部にあるメニューの中の基本オプションのリスト
から、キーワードを用いて或る質問についてのQuery(照会)を選択(120)
しても、「ATM」や「Jones(ジョーンズ)」などのQuestion Category(質問カ
テゴリ)における質問を表示(122)しても、End the Interview(取調べ終
了)を選択(124)しても、または画面上のFollow-up Question(質問続行)
カテゴリウィンドウあるいは画面上のPossible Question(可能な質問)カテゴ
リウィンドウに表示される任意の質問をダブルクリックすることで質問してもよ
い。
【0033】 ユーザーが「Start Interview」を選択する(116)場合、ユーザーは自分
の氏名を入力すること、またはデフォルト名を許容することを求められる。これ
を行った後、入力された氏名が自動的に得点に関連づけられる。次に、ユーザー
はQueryウィンドウに任意のキーワードを入力し、Queryボタンを選択する。これ
が行われると、その語を有するすべての質問が画面上のPossible Questionウィ
ンドウに表示される。
【0034】 次いでユーザーは、随時任意のQuestion Categoryを選択し(122)、その
カテゴリ内の利用可能な質問すべてが表示される。 ユーザーは、随時にEnd the Interviewを選ぶ(ステップ124)ことができ
る。これが行われると、ユーザーに対象者、この場合にはマイクが罪を犯したか
否かを決定するよう求めるウィンドウが表示される(ステップ126)。取調べ
の質とともに生徒の判定を用いて、取調べの得点が計算、表示される。
【0035】 質問が一旦選択される(ステップ128)と、多数のステップが要求される。
手掛かりが示すステータスのフィールドを用いて、評価記録が更新されるにつれ
て、(もし存在すれば)先の応答の生徒の査定(真実さ)を判定する(ステップ
126)。選択した質問に関連する情報を用いて、ラポールおよび取調べの評価
を更新する(ステップ130)。ラポールが低すぎる場合、対象者は取調べを終
了し(ステップ132)、多数のビデオのうちの1つが再生され(ステップ13
4)、生徒が取調べを終了したかのようにプログラムが進行する。そうでない場
合、確率モデルを構築し、乱数を用いて利用可能な応答のリストから1つの応答
を選択(ステップ136)することで、応答を選択する。冗長および矛盾を避け
るため、かつ新しく関連する質問および応答を利用可能なリストに追加できるよ
うにするため、利用可能な質問および考え得る応答のリスト全体が更新される(
ステップ138)。次に、生徒の得点が更新される(ステップ140)。次いで
、質問および応答が再生される(ステップ142)。最後に、改訂された質問リ
ストが表示される(ステップ144)。ソフトウェアは、生徒のコマンドそれぞ
れを実行してから、次のコマンドを待つ。
【0036】 本発明を用いるため、生徒は入念にマイクの応答を聞き、観察する。システム
が動作する都度、対象者(この例ではマイク)は別様に挙動することに留意され
たい。これは、乱数が対象者の挙動を駆動するということによる。生徒は、自ら
の応答の解釈に基づいて一連の質問を計画して、正直である、欺瞞である、また
は情報を提供しないと内容を判定する。シミュレートされる対象者の応答および
挙動は、生徒の入力に依存する。大部分の質問はいくつかの考え得る応答を有し
、かつシミュレートされるマイクはシミュレーション中罪を犯したかもしれない
し、犯していないかもしれないため、取調べは、行われる都度別様に進行すると
ともに、対象者は現実的かつ予測不可能に挙動する。実際の取調べのように、シ
ミュレートされる取調べは、1時間以上かかるものと予期されるが、必要に応じ
て短くても長くてもよい。適切に行われる取調べは1時間以上かかるであろう。
【0037】 マイクの挙動のモデルは、ユーザーの取調べスキルの発達を助ける特定の属性
を含む。マイクは、取調官の質問および陳述の性質を「記憶」し、彼が有罪また
は無罪であるか、および取調べの内容に関連する典型的な挙動パターンに基づい
て応答する。システム内の論理コンポーネントは応答を追跡し、応答を妥当かつ
一貫性のあるものに保つ。システムの動作プログラムは、マイクのステータス(
たとえば、有罪または無罪)および感情状態により影響を受ける、質問および環
境を考慮して、あり得る一連の応答のうちの1つを選択する。
【0038】 マイクの感情コンポーネントは、質問に対する応答の選択に極めて重要である
。彼の感情状態は、主に生徒の質問によって決定される。数学的モデルは、質問
が問われ応答が与えられる際のマイクの感情の流れを決定する。モデルパラメー
タは、マイクの人格に影響を与えるよう調整することが可能である。感情モデル
は、マイクが舌足らずの質問を許容し、または、簡単に取り乱してしまって質問
者の不注意な間違いをなかなか許さないよう調整可能である。
【0039】 マイクの脳の論理コンポーネントは、データベースに保存される。これは、利
用可能なすべての質問およびこれら質問に対して考え得るすべての応答を含む。
異なる質問が応答を共有してもよく、また、データベースに書き込まれるデータ
フィールドを用いて質問および応答をリンクさせるとともに、取調べの所与の進
行に対して問われるべき潜在的な質問のサブリストを生成するよう各質問が多く
の応答を有してもよい。
【0040】 好ましい実施の形態においては、ほぼ任意の順序で問うことが可能な500を
越える考え得る質問が存在する。所望の質問についての検索を低減するため、問
われた質問はリストから除去される。また、同様の質問も削除される。返答が提
供されるにつれ、新しい情報が明らかになり、新しい質問が適切かつ利用可能に
なる。データベース内のフィールド(論理コンポーネント)は、各質問およびマ
イクの返答の結果として、いずれの質問および返答が開かれているか、また閉じ
られているかを識別するために用いられる。
【0041】 本発明を実施するプログラムは、マイクの返答が一貫しているようにする。た
とえば、マイクに彼の上司が好きか否かを尋ね、彼の返答が「上司は悪くない」
であると想定する。次の質問が「上司と社交上の付き合いがあったか?」である
場合、「いいや、上司には耐えられない」という返答は考え得る応答の組から外
されなければならない。他の状況では、異なるすなわち一貫しない返答が求めら
れる。たとえば、マイクに「余暇に何をするのが好きですか?」と尋ねる場合、
考え得る返答がゴルフ、読書、またはスキーということであれば、彼はゴルフを
すると返答し得る。次いで彼に「他に何か好きなことは?」と尋ねる場合、ゴル
フという返答は一貫した返答であるが、外さなければならない。
【0042】 好ましい実施の形態においては、マイクは少なくとも5つの感情状態のうちの
いずれか1つにある。該状態は、最悪、不良、平均、良好および最良を含む5レ
ベルのラポールである。ラポールが悪化するにつれ、マイクは情報を提供しない
短い返答を提供する一方、ラポールが良好になるにつれ、マイクはより完全かつ
意味のある返答を提供する。別の用途の場合、状態は、怒り、否定、抑鬱、駆け
引きおよび受容であり得、マイクはそれに従って応答する。マイクは、生徒との
相互作用の結果として、感情状態間を移動する。
【0043】 各質問は、マイクの感情状態に対する影響に従ってコード化される。コードは
ラポールに依存しており、表1に定義される。
【0044】
【表1】
【0045】 取調べが開始されると、計量可能な感情値が5つのラポール状態それぞれに割
り当てられ、これらの値が合計すると最高で1になるよう制約される。質問は、
状態から状態へのこれらの感情値の流れに影響を与える刺激として働く。感情の
流れのモデルは複雑であるが、変化する要件に適合するよう容易に変更すること
ができる。マイクのためにモデル自体は取調べが進むにつれて変更される。たと
えば、取調官がマイクをいらいらさせる(ラポール状態が悪化する)たびに、マ
イクは累進的にますますいらいらし易くなる。
【0046】 マイクの状態は、最大感情値を有するラポール状態である。感情モデルは、(
1)感情の流れの方向を決定する、および、(2)流れの大きさを決定するとい
う2つの基本的な関数を実行する。質問が問われるにつれ、モデルは、感情が他
のすべてのラポール状態からどのように目標ラポールに向けて流れるかを決定す
る。その状態の感情限度に達するか、あるいは感情刺激Srの符号が変化するま
で、流れは継続する。良好な質問が問われた場合Srは正であり、流れが限度に
達すると、遷移確率のマトリクスを用いて次の目標状態を選択し、次のラポール
状態を選択する。このマトリクスを順方向遷移マトリクスと呼ぶ。Srが負であ
る場合には、逆方向遷移マトリクスと呼ぶ別の遷移マトリクスを用いて、次の目
標状態を選択する。好ましい実施の形態の場合、改善されたラポールに向かう感
情の流れは正であり、弱い方のラポールに向かうものは負である。Srの符号は
、流れの方向を決定する。質問が問われる際に符号が変化する場合、流れの方向
は直ちに変化し、新しい目標ラポールが選択される。選択される目標ラポールは
通常、Srの符号に応じて、次に高い状態または次に低い状態であるが、これは
要件ではない。この実施の形態の場合、順方向遷移マトリクスは通常、次に高い
ラポールレベルを選択する。しかし、逆方向遷移マトリクスは、次に低い状態を
飛び越してもよい。したがって、あまり良くない質問は通常、マイクとのラポー
ルを一層速く悪化させるが、取調べを突然上手くいかなくさせ得る。
【0047】 刺激Srは、先行するすべての質問に関連するラポール値を用いて計算され、
このモデルへの入力を提供する。ラポール値は各質問および0と9の間の値に関
連づけられ、0は非常に不良な質問に関連付けられ、9は考え得る最良の質問に
関連付けられる。ラポール値はまず、−4.5と+4.5の間のラポール値に変
換される。負の値は、不良な質問の選択を表す。各質問後、先行するすべての質
問の平均ラポール値および現在の質問のラポール値Sqを使用して、以下のよう
に刺激値Srを計算する。
【0048】
【数1】 Sr=0.8[メモリ*Sr-1+(1−メモリ)*Sq] +0.2(平均ラポール値) この式中、Sr-1は最後の質問の前の刺激である。式中のメモリ量は、マイク
の挙動を変更するよう調整可能なパラメータであり、好ましい実施の形態では通
常は0.45に設定される。このパラメータは、刺激の最後の質問の影響を制御
する。刺激は最後の質問の値により最も影響を受けるが、最近の履歴および履歴
全体も刺激に影響を与える。
【0049】 上述したメモリ定数は、マイクの人格の調整を可能とする若干のパラメータの
うちの一例である。別の目標ラポール状態を選択する前の状態における感情の限
度は、各状態毎に別個に決定される。これら5つの状態関連パラメータは、或る
状態から出るのを難しくするが他の状態から出るのを容易にするのに使用される
【0050】 別の状態関連パラメータの組は、感情の流れの速さに影響する。これらのパラ
メータは、「粘着性」係数を反映し、感情が特定の状態から流れにくくまたは流
れ易くするものである。このパラメータは、その発生源から目標状態まで流れる
ことのできるラポール状態の感情の一部分を決定する。粘着状態は、目標状態へ
移行しにくくする。すなわち、「粘着性」なほど、ラポール状態が変化する可能
性が低くなる。
【0051】 すべての状態に影響する2つのパラメータは、順方向および逆方向速度パラメ
ータである。これらの速度係数は、開発者に方向に依存する方法を提供し、すべ
ての状態に等しく影響する感情の流れの速度を統制する。好ましい実施の形態の
場合、ラポールの構築は遅く、2、3の不良な質問ですぐに壊される可能性があ
り、順方向速度(改善されたラポール)は逆方向速度(悪化されたラポール)よ
りもはるかに遅い。これら2つのパラメータは、マイクの「脳」を構成する大部
分のパラメータのように、マイクの人格を変化させるために様々であり得る。
【0052】 マイクの感情面の「脳」は、「粘着性」などのパラメータを変えることで変化
し、それによってマイクの人格を変化させる。これは、図6に示す専用の入力制
御画面を通して達成される。対象者、この場合ではマイクのラポールをモデリン
グし追跡するためのソフトウェアは独自のものである。これは、取調べの開始時
にラポールルーチンを初期化し、ラポールを更新することを含む(図3における
ステップ130)。ラポールルーチンは、各質問後に更新し実行される。図6に
示す初期化ルーチンは、ラポール状態遷移確率、別の状態メモリに遷移する前の
限度、および状態「粘着性」を含むマイクの人格パラメータを初期化する(ステ
ップ200)。さらに、擬似乱数発生器を使用し、各状態に重みを割り当てるこ
とで、マイクの初期ラポールを設定する。図7は、ラポール状態および関連情報
の一例を示す。この例において、大部分の初期重みは、ラポール状態2および3
に割り当てられる。
【0053】 最大の重みを有するラポール状態である図7における状態3は、マイクの気分
(図6におけるステップ202)すなわちラポール状態と定義される。質問とい
う刺激がある都度、図6におけるラポール更新ルーチンが呼び出されて、重みを
目標状態に向けて流れさせる。多くの場合、このルーチンは単に他の状態から重
みを取り、状態を目標状態に配するだけである。このルーチンは時に、新しい目
標状態を選択することがある。ステップ300は、変数およびパラメータを初期
化してチェックする。選択された質問に関連するラポール値は正規化され、−0
.5と+0.5の間の値を提供する。この値、現在の刺激値Sr-1および取調べ
全体の平均質問値を使用して、新しい刺激値Srを計算する(ステップ302)
。新しい刺激値Srは、符号が変化したか否かについてチェックされる(ステッ
プ304)。新しい刺激の符号が変化していない、すなわち目標状態における重
みの「変化限度」に達していない場合(ステップ306)、目標状態は変化しな
い。しかし、これらの条件のうちの一方が満たされる場合には、順方向または逆
方向遷移マトリクスを用いて、目標状態が変化される(ステップ308)。
【0054】 符号が正から負に変化する場合、すなわち目標状態の限度に達し、かつ刺激が
負である場合、逆方向遷移を用いて次の目標状態を選択する。図7のマトリクス
における遷移の場合、順方向遷移は常に次に高い状態へ向かうが、逆方向遷移は
次に低い状態へ向かっても、2つの状態を飛び越してもよい。状態の限度(1.
0)に達し、かつ刺激が負である場合、取調べが終了する。
【0055】 目標状態が一旦決定されると、その他の状態それぞれからの重みが目標状態に
移動される。取られた重みの量を決定するため、1から「粘着性」係数を差し引
いたものを、正規化した質問ラポール得点および状態における重みで乗算し、変
更係数を作り出す。この係数を適切速度(順方向または逆方向)係数で乗算し、
目標状態に移動する重みの総計を決定する。重みを一旦変更すると(ステップ3
10)、更新が完了し、プログラムが照会状態にもどる。
【0056】 図8は、対象者の人格パラメータを本発明の基本的なプログラムに入力するた
めに使用する制御パネル画面の一例を示す。 本発明により、開発者は、開発中のトレーニングシステムの要件を満たすよう
に対象者の感情モデルを調整することが可能である。加えて、ソフトウェアはこ
れらのモデルパラメータを調整することができる。たとえば、プログラムの初期
化の一部として、マイクの人格を変更できる。好ましい実施の形態の場合、マイ
クがラポール状態1および2に入る都度、彼が一層怒りやすくなるようにパラメ
ータが調整される。感情モデルが自身を変更できるようにする機能は、モデルに
対して重要な豊かさを追加し、マイクの挙動をより実在する人間のようにする。
【0057】 取調べが開始されると、マイクには無作為にいくつかの初期条件が割り当てら
れ、これらの初期値を用いて、「脳」の無条件命令に従ってデータベースから応
答が選択される。彼は有罪かもしれないし、無罪かもしれない。彼が有罪である
場合、必要性または憎悪を動機とし得る。捜査官との初期ラポールは、感情の大
部分が不良状態および普通状態に割り当てられるよう無作為に割り当てられる。
彼の有罪ステータスの選択は、取調べを通して彼の挙動に影響を与える。生徒は
、マイクの有罪を決定する間、ラポールを識別し向上させなければならない。
【0058】 マイクの返答は、ラポール状態、犯罪状態および擬似乱数発生器を用いて彼の
脳の論理部分から選択される。各犯罪状態および各ラポール状態について、論理
データベースにおけるインタフェースフィールドが各応答の尤度を提供する。こ
れらの尤度には0および9の間の番号が付けられ、これを用いて利用可能な応答
に関連する確率を発展させる。質問が問われると、マイクの現在の状態およびお
よびステータスについて利用可能なすべての返答の尤度が加算される。各尤度を
合計で除算して、利用可能な返答についての一連の確率を生成する。これらの確
率および擬似乱数発生器を用いて、マイクの応答を選択する。異なる尤度が、異
なる有罪ステータスおよび異なるラポール状態のそれぞれに割り当てられる。
【0059】 本発明が提供するトレーニングシミュレーションの最も重要な部分は、生徒が
取調べのステップを通して作業する単一の事件の経験に集約される。各ステップ
において、生徒には間違う機会が与えられる。システムを使用するたびに、シミ
ュレートされる対象者すなわちマイクは、時には微妙に真実味のある挙動を示し
たり、また別の時には復讐または金銭目的を動機とする欺瞞を示すこともあり、
異なる応答を提供する。
【0060】 本発明の目標は、質問および応答を用いて、ある人格の複数のビデオビネット
を取調べることで、実際の取調べをシミュレートすることである。この実施の形
態において、現時点での技術により、考え得る質問および応答は、プログラムに
組み込まれた台本が作成された際に計画されたものに限られる。しかし、不適切
な診断情報を提供する標準的な質問の組があり、1つの目標は、生徒にこれらの
質問に慣れさせることである。これらの質問は妥当に広範な質問を提供し、生徒
に質問形式を練習する機会を与える台本に含まれる。質問は限定的に見えるが、
依然として数百または数千が利用可能であり、多くの現実的な取調べシナリオを
表す経路を提供できるようにする。最後に、応答は、生徒が質問の基盤をどの程
度良好に配するかに依存するので、ラポールの向上は、成功する取調べシミュレ
ーションの必須部分となる。
【0061】 本例において、シミュレートされる取調べには、自発性と現実性の欠落が認め
られる。生徒は、マイクが待っている間にどうにかして所望の質問を入力すなわ
ち選択しなければならない。(ビデオ表示は、マイクの応答の最後から各質問ま
でフリーズする)。しかし、遅れは、訓練生に、より良好な習慣を考え出して開
発する時間を与える。勿論、技術が発達するにつれ相互作用も発達することにな
り、「リアルタイム」で相互作用が出現可能になる。
【0062】 取調べが進むにつれ、生徒は表示的(indicative)応答を見て聞いている間に
、特定の質問を問うにはいつが適切かを決定することを学習する。マイクが犯罪
を犯した可能性が高いか、または新しい情報を提供しないであろうと生徒が感じ
る場合、生徒は取調べを終了するか、取調べの終了を示唆することができる。こ
の時、生徒は、ユーザーにマイクの潔白の疑問に対して決定を下させる画面上の
短い質問事項を記入するよう求められる。
【0063】 上述したように、本発明の実行可能なプログラムが開始されると、ユーザーは
多数のオプションのうちの1つを選択できる。最初はオンラインマニュアル(1
06)であり、これは呼び出して読んだり、プリントしたりできる。マイクは、
このマニュアルに記載された多くの異なる挙動を演じる。ユーザーはまた、「Us
er's Guide(ユーザー向けガイド)」(104)を選択し、ソフトウェアを使っ
てより良好な取調べについてのヒントがどう与えられるかを学習する。ユーザー
は、「Background(背景)」(108)を選択して、基本的な事件の情報を学習
してもよい。最後に、ユーザーは、「Interview Mr. Simmen」(112)を選択
して、取調べを開始する。
【0064】 取調べオプションは、ユーザーが多数の方法のうちのいずれかでその質問を選
択することにより、質問できるようにする。生徒がキーワードを入力すると、そ
の語を含む質問リストが出てくる。ユーザーは、少なくとも14個の異なるカテ
ゴリのうちのいずれか1つのカテゴリにおいてリストに目を通すことができる。
ユーザーとのやり取りが進行するにつれ、システムは継続ウィンドウに継続の質
問および陳述のリストを提供する。これらの質問は、良好および不良の質問また
は陳述を含む明白な継続質問である。これらは、ユーザーに長い質問リストを丹
念に調べさせて次の明白な質問を見つけさせることを回避するのを助けるために
提供される。継続質問によっては、取調べにおけるその時点でしか意味をなさず
、次の質問が問われた後は消失するものもある。こういった質問には、アスター
リスク(*)が付される。
【0065】 マイクは時に生徒に質問することがあり、この場合、生徒はその質問を無視す
るか、応答するかを継続ウィンドウ内の返答(reply)を使用して選択することが
できる。生徒はまた、支持的な陳述を行い、ラポールの構築を助けることを選択
することもできる。こういった陳述は、適宜の時間に質問リストを通して利用可
能になる。システムの極めて重要な部分は、容易に利用可能な不良な質問を提供
することである。不良な質問を用いると、生徒の成績評価が悪くなり、情報が制
限される結果になる。多くの生徒は不良な質問を選択し、マイクがどのように応
答するかを見て、彼の応答がどのように異なるかを観察する。この経験もトレー
ニングに加えられる。
【0066】 本発明の好ましい実施の形態を例証するために本明細書で用いるシナリオでは
、生徒は或る銀行のATM(現金自動預け払い機)からの$43,000の窃盗
について捜査している。取調べの対象者であるマイクは、金を盗る機会を有した
男性の金融事務所員である。
【0067】 取調べ例は、各質問毎に繰り返される主要質問ループ40を含む、図2に示す
論理流れ図に示すように開始される。マイクにはまず、最初の質問ループが開始
する前に、3つの有罪状態のうちのいずれか1つが割り当てられる(ステップ3
0)。犯罪状態は、正直(潔白)、有罪かつ復讐を動機とする、または有罪かつ
金銭的圧力を動機とする、である(それぞれ状態T、R、およびFである)。生
徒である取調官は、昇進から外されたことによる復讐、一連のイベントに起因す
る金銭的圧力、酒に伴う問題、麻薬に伴う問題、ギャンブルに伴う問題、または
女友達に伴う問題を含む、いくつかの調査オプションを有する。潔白である対象
者もまた、同じ動機のすべてを有するが、他の極めて重要な質問に対して別パタ
ーンの応答を示す。
【0068】 システムは、取調べからの質問および応答の順序を記憶しておき、取調べ終了
時にユーザーがそれを再生できるようにする。再生中、システムは各応答後に停
止する。当初の取調べ中にではなく再生中に、普通ではない挙動が(もしあれば
)画面上にテキスト形式で識別される。たとえば、声の変化または普通ではない
動きが注目される。設計により、挙動の中には微妙なものもあり、2、3は誤解
を招くものである。
【0069】 本発明のシナリオ特定的な部分の生成に関連するステップは、質問のマスター
リストおよび対応する潜在的な応答のリストの作成を含む。次に、ストーリーボ
ードが、画面フォーマット並びに質問および応答のモデリングの統合を証明する
よう作製される。音声合成器を使用できるので、システムのオーディオのみのバ
ーションを十分にテストすることが可能である。質問の発声(「画面外の声」)
の記録がこれに続く。最後に、俳優を使って多数の音声セグメントを集める。音
声セグメントは、テープに録音されると、注意深く編集されてからデジタル化さ
れる。次に、数時間のビデオデータおよびオーディオデータが圧縮されて、利用
可能な媒体に記録される。各使用可能な応答毎に、キースタートフレームおよび
キーストップフレームがビデオストリームにおいて識別され、応答を継ぎ目なく
かつ適時なものとするように、オーディオ質問と統合される。
【0070】 本発明の台本の目標は、生徒が広範な質問を問えるようにしながら、マイクを
現実的かつ予測不可能に挙動させることである。生徒が初期に重大な手掛かりを
検出する場合であっても、取調べを続けて尋問の主題を識別することは有用であ
り得る。
【0071】 最終タスクに適用可能とするよう本発明の基本的な基礎プログラムをカスタマ
イズする取調べの台本は、すべての利用可能な質問および応答からなる。口頭お
よび非口頭による挙動が、好ましい実施の形態では1200を越える応答それぞ
れについて記述される。取調べが開始されると、生徒は多数の質問を利用できる
ようになる。これらはすべて、意味をなすものである。その他の計画される質問
によっては明らかにされないものもある。これは、特定の情報がまだ明るみに出
てきていないため、または現実的に利用可能にはならない情報を含み得るためで
ある。こういった質問は、適切な情報が明らかになるまで、ユーザーにアクセス
可能とはならない。特定の情報が明るみに出ると、いくつかの質問が意味をなさ
なくなったり、利用可能な応答がいかなる意味もなさなくなることがある。こう
いった質問は除去される。任意の質問が問われた後、問われた質問およびそれと
同様の質問が質問リストから除去される。
【0072】 マイクの「脳」の論理部分は、質問/陳述およびしの関連コード、並びに、応
答リストおよびその関連コードからなる。システムの最も重要な特徴は、台本に
含まれるこれら関連するモデリングコードである。各質問毎に、表2に示す質問
台本の一部として組み込まれるキーワード、質問コード、ラポール値および診断
値のリストがある。
【0073】
【表2】
【0074】 表2の質問/陳述の列は、生徒である捜査官に質問テキストを提供する。この
テキストは、基本的な質問であっても、マイクの返答に応答して行われた陳述で
あっても、またはマイクの質問への応答であってもよい。質問コードは、ソフト
ウェアによりテキストを識別し、考え得る応答とマッチングさせるために使用さ
れる。すなわち、質問には番号が割り当てられ、応答にはマッチングする番号が
割り当てられる。
【0075】 各質問に与えられる応答は、対象者と生徒間のラポールに依存する。ラポール
は感情モデルによって決定され、各質問に関連付けられるラポール値を用いて感
情の流れを決定する。その結果、各質問は表1に示すようなラポール値に従って
格付けされる。或る質問またはコメントは、情報提供または診断情報の向上には
価値が殆どないけれども、ラポールを向上させる。マイクと生徒とのラポールは
、対話の履歴、その質問の直前のラポール、および尋ねた最後の質問に依存する
。したがって、尋ねる陳述の選択順序は重要である。
【0076】 値はラポールに依存するので、或る質問は、ラポールが良好であるときには良
好な選択であるが、ラポールが不良または最悪の場合には不良な選択となり得る
。したがって、台本が、ラポールに応じて質問毎に異なる値を特定できるように
する、表3におけるコードが設けられる。4つのコード(P、A、G、B)が設
けられる。それぞれの名称は、質問を問うべきときの状態を示す。「P」は、こ
の質問が、ラポールが不良(POOR)であって構築の必要がある場合には最良であ
るが、ラポールが良好な場合には無駄であることを示す。「A」の質問は、ラポ
ールが平均的(AVERAGE)である場合には価値があるが、ラポールが極めて不良
または極めて良好な場合には特に有用ではない。「G」の質問は、ラポールが良
好(GOOD)である場合のラポール状態4または5にあるときには成果が上がるが、
格付け「B」の質問はラポールが状態4または5の場合に最良(BEST)である。
システムの開発者は、これらのコードをスケーリングするための要因を提供し得
る。たとえば、ユーザーは(0.5)Pを入力して、すべてのラポール値の半分
を用いても、また(1.5)Pを用いてすべての値をその限度である9まで、ま
たは150%だけ増大してもよい。
【0077】
【表3】
【0078】 ラポールが不良である場合、マイクははるかに少ない情報を伴う短い応答を提
供する。ラポールが高い場合、マイクはより価値のある情報を提供する可能性が
高くなる。ラポールの得点はラポール状態を決定するのに用いられる。台本を書
くに当たって、生徒に周期的にラポールレベルの証拠を提供するよう特別な配慮
が与えられる。生徒は、ラポールの悪化を識別し、ラポールを改善する会話を利
用できる必要がある。
【0079】 質問によってはラポールを傷つける、すなわちマイクをいらいらさせるが、有
用な情報を提供し、おそらく欺瞞の検出または動機の識別を助けるものもある。
したがって、各質問はまた、質問値決定に当たっての主要な要因である診断値に
よっても格付けされる。診断値は、ラポール値により影響される。取調べ終了時
、これらの質問値は組み合わされて、取調べを評価するために使用する診断得点
を生成する。ここでもまた、陳述の選択順序が、ユーザー/生徒の成績得点を確
立する助けとなる。陳述の順序が適切なラポールで選択される場合、診断(成績
)得点は強化される。ラポール状態が不良であれば、同じ質問がより低い得点に
なる。表4は、これらの質問診断値の決定方法について記述する。
【0080】
【表4】
【0081】 生徒が一貫して良好な質問を問う場合、その情報は生徒の技術の全体評価を高
くする。最良の評価を得るためには、生徒はさらに手掛かりを認識し、マイクが
嘘をついているか、正直であるかを決定できなければならない。
【0082】 マイクが質問に答えると、時には、その質問およびその他の質問の答えを与え
ることがある。ユーザーが所望の質問を見つけるために検索しなければならない
質問の数を低減するため、かつ応答の一貫性を確実にするよう助けるため、同様
の質問が利用可能な質問のリストから外される。表2の「近い質問」列は、質問
を尋ねた結果閉じられる質問を識別する。
【0083】 ユーザーにとって質問の選択を容易にするため、殆どの質問は14のカテゴリ
のうちの1つまたは複数に関連付けられる。ユーザーがあるカテゴリを選択する
と、そのカテゴリに関連付けられたすべての質問が質問ウィンドウに表示される
。表2の最終列は、質問に関連付けられたカテゴリを識別するために使用するキ
ーワードを含む。質問によっては、いくつかのカテゴリに関連付けられるものも
ある。たとえば、「あなたの奥さんはどのくらいの収入がありますか?」という
質問は、Personal(個人的)、Financial(金銭)、およびFamily(家族)のカ
テゴリに入る。他の質問はいずれのカテゴリにも関連付けられず、したがってキ
ーワードが提供されない。これらは、マイクの応答の1つにより開かれる。たと
えば、マイクが「元気ですか?」と尋ねた場合、「おかげさまで」という返答は
いずれのカテゴリにも関連付けられず、マイクの質問の直後にのみ利用可能であ
る。
【0084】 各質問またはコメント毎に、一連の考え得る応答がある。表5は、関連コード
を有する応答例を提供する。各応答は、8列の情報またはコードを必要とする。
【0085】
【表5】
【0086】 表5において、「返答コード」列は、各返答毎に固有の識別子を提供する。「
に対して利用可能」列は、その返答を与えることができる質問を識別する。「応
答」列は、返答のテキストを含む。時に、マイクは質問をしたり、新しい質問を
要する新しい情報を紹介するコメントを行うことがある。「質問が開いているか
」列は、応答の結果としてユーザーが利用できるようになる質問/陳述/応答を
識別する。こういった質問/陳述/応答は、継続ウィンドウにおいて利用可能に
なることが多い。
【0087】 「有罪TRF」列は、論理データベースにおけるバイナリコードを用いて、応
答の使用を特定の犯罪ステータスに制限する。順序は、(1)マイクは正直であ
る、(2)マイクは復讐の動機を有する、または(3)マイクは金銭的な動機を
有する、である。表における番号1は、マイクが対応する犯罪状態にある場合に
その応答を用いることができることを示し、0は使用不可能なことを示す。たと
えば、111は、その応答がいずれの犯罪状態のマイクによっても与えることが
可能であるが、010は、マイクが正直「T」または金銭「F」の犯罪状態には
ないが、復讐「R」の犯罪状態を有する場合にのみ使用することができることを
示す。
【0088】 いくつかの非口頭応答は、ストレスまたは癖の結果であり得る。たとえば、マ
イクは、あごを触ること、長時間にわたりアイコンタクトを維持すること、およ
び口を覆うことにより、非口頭でストレスを表現し得る。彼の話し方が遅くなっ
たり、声が柔らかくなったりする。これら挙動の手掛かりには、声のピッチ、話
の明瞭さ、ならび頭部、目、手、腕および脚の動きが含まれる。これらの挙動が
特定の話題を議論しているときにのみ発生する場合、取調官は、かかる話題に敏
感であり、さらなる議論が必要であり得ることに気付くべきである。表5の「応
答指示子」列は、欺瞞に関連付けられることの多い挙動のクラスタを識別する。
これらは、応答の提示の仕方を俳優に告げるために、製造時に用いられる。1つ
のクラスタは、短い間隔で発生するいくつかの単純な挙動からなる。これらの挙
動は生徒が欺瞞の検出を助けるのに用いられる。表6は、単純な挙動コードがど
のように組み合わせられてクラスタを形成するかを示し、これらのクラスタは単
一コード(C1、C2、...)でコード化される。単純な動きは、2、3の挙
動コードで台本に記述され、標準的なクラスタはそれ自身のコードを有する。
【0089】
【表6】
【0090】 取調べ中の一人の個人についての挙動パターンは、正常であったり、ストレス
のサインにすぎなかったりする。別の個人の場合には、同じ挙動が欺瞞を試みる
際にのみ発生し得る。良好な取調べの一部として、生徒はマイクについて正常な
、すなわち基本の挙動を識別しなければならない。その挙動は、取調べ毎に異な
るので、生徒は実行中の特定の取調べに対する基本の挙動を識別しなければなら
ない。この必要な可変の基本の挙動を作成するため、マイクの応答の多くが、5
つの異なる挙動パターンまたはクラスタを使用して5回記録される。取調べが開
始されると、無作為に5つのパターンのうちの2つが基本の挙動として選択され
る。これらの応答は、適切に行われた取調べにおいて頻繁に見られる。その他の
3つのクラスタは、マイクが欺瞞を試みる場合にのみ見られる。マイクの返答が
これら5つのクラスタのうちの1つを含むとき、それは、基本の挙動の部分では
ない場合には欺瞞を示し、基本の挙動の部分に含まれる場合には欺瞞を示さない
。生徒は、正常な挙動を欺瞞と誤ることを回避するために、注意深く対象者の挙
動に基準線を引くよう教えられる。
【0091】 表5において、応答指示子列で、「すべて」という語は、この返答のために記
録されたその5つの応答を示すために用いられる。この返答が用いられる場合、
マイクは、5つの挙動パターンのうちの1つを実証する。これは、彼が潔白であ
る場合には基本の挙動となり、彼が嘘をついている場合には、嘘をついていると
きにのみ見られる基本でない挙動になる。
【0092】 表5における最後の2列は、「欺瞞的なラポール」および「正直なラポール」
に相当する。これらの列は、その応答がどの程度発生する可能性があるかを決定
するため、および対応する応答の変化する確率を計算するために使用される尤度
コードを含む。確率は、マイクとのラポール、彼の真実性、および質問を尋ねた
ときに利用可能な応答の尤度に依存する。2つの列はそれぞれ、0と9の間の5
つの数字からなる尤度コードのストリングを含む。5つの数字は5つのラポール
値に対応する。最初の数字は最悪のラポールの尤度に対応し、最後の数字は最良
のラポールの尤度に対応する。有罪であるマイクのラポール状態が3である場合
、欺瞞の列の3桁目において尤度が見つけられる。その応答が状態3にあるマイ
クにとって一般的である場合、尤度コードの3桁目には7、8、または9が割り
当てられる。応答が普通ではない場合、その桁には0、1、または2が与えられ
る。
【0093】 考え得る応答によっては、犯罪状態に不適切であるため、またはマイクの他の
陳述と矛盾するため、削除されるものがある。考え得る応答からの尤度コードは
加算され、それぞれその総計で除算されて、各応答についての確率を与える。最
後に、これらの確率を乱数とともに用いて、応答が選択される。
【0094】 取調べの評価には他の要因を用いる。これらには、マイクの状態(正直または
欺瞞)の正確な決定、および手掛かりの検出が含まれる。マイクの返答によって
は、欺瞞の試みを明らかにし欺瞞の指標として識別すべきものもあり、欺瞞的な
人間には普通ではなくマイクが正直であることを示すものもある。典型的な取調
べにおいては、双方のタイプの手掛かりが観察されるが、手掛かりの大部分は真
実を明らかにする。すべての手掛かりの適切な識別には点が与えられる。採点ア
ルゴリズムの詳細な説明は次のとおりである。
【0095】 1)マイクが正直であると生徒が正確に決定する場合、30の正確点を得る。
マイクが嘘をついていると生徒が正確に決定する(より容易であり、より多くの
手掛かりが提供される)場合、20の正確点を得る。
【0096】 2)最良の20の診断的質問と最悪の20の診断的質問の平均質問診断値を取
ってから、
【0097】
【数2】
【0098】 を計算する。2の原理は、良好な質問をすることで得られる点よりも多くの点を
不良な質問をすることで失うというものである。20の最も極端な質問のみを用
いると、中性的かつ慣例的な質問の影響がなくなる。
【0099】 3)5よりも大きなラポール値および質問値を有する各継続質問毎に、1点を
継続点に追加する。良好な質問について生徒に報いることに加えて、これは、質
問の論理的な流れに対して報いる。
【0100】 4)正確に識別された各手掛かり毎に、2点が手掛かり点に追加される。手掛
かりが提示されず、生徒が欺瞞または正直を選択する場合には、1手掛かり点を
失う。マイクが欺瞞的な手掛かりを提供し、生徒が正直を選択する場合には、2
手掛かり点を失う。マイクが正直の手掛かりを提供し、生徒が欺瞞を選択する場
合には、2手掛かり点を失う。
【0101】 5)ラポール点=8*平均ラポール値 6)総得点=正確点+診断値点+継続点+ラポール点 7)生徒が100未満の質問を尋ねる場合、および総得点が(0.8*質問数
)よりも大きい場合、総得点=(0.8*質問数)である。この最後のステップ
は、1つの良好な診断的質問をし、1つの良好なラポール質問をして、対象者の
状態を推測した場合に高得点になることを防ぐ。また、時間をかけて対象者をリ
ラックスさせ、尋問の手段を発展させた生徒には報いる。
【0102】 プログラムは、4つのレベル、すなわち(1)初級、(2)中級、(3)上級
、(4)プロフェッショナル級の難易度を有する。より難度の高いレベルではよ
り少数の手掛かりが与えられる。これは、手掛かりを含む応答の尤度を、初級の
場合には1よりも大きな係数、上級またはプロフェッショナル級レベルの場合に
は1未満の係数で乗算することで達成される。質問が選択されると、それはマイ
クが応答する前に読み取られ、質問を補強し、生徒がマイクの応答におけるいず
れの遅れも観察できるようにする。別のオプションは、ユーザーが女性あるいは
男性の声を用いて質問を読ませることができるようにする。システムは、ユーザ
ーが取調べ全体を再生し再度検査することができるよう、取調べから質問および
応答の順序を記憶する。再生中、システムはマイクの普通でないあらゆる挙動を
識別し記録する。
【0103】 本発明は、マイクの基本的な人格を変更または調整することを可能とする。こ
れは、専門の入力制御画面を通してマイクの人格パラメータを変化させることで
達成される。この装置を通して、対象者すなわちマイクのモデルは、ユーザーお
よび用途の要件を満たすように処理される。図8は、制御パネル画面を示す。
【0104】 本発明は、上記の例に制限されない。本発明の装置、システム、および方法は
、面接トレーニング技術または面接スキル構築が必要なあらゆる分野で使用可能
である。他のいくつかの例には、医師や看護婦などのトレーニング、ケースワー
カーのトレーニング、「Just Say No(ノーとだけ言おう)」麻薬プログラム、教
師などが含まれる。本方法は、CD−ROMを用いるコンピュータシステム上で
実施可能なだけでなく、インターネットやDVDなどを通してなど任意の電子シ
ステムを介して採用することも可能である。
【0105】 具体的に、用途には、少数を挙げれば、秘密麻薬ラボ検挙、回路室テスト、文
化的相違を尊重するトレーニング、EEOC、およびマイノリティー優遇措置ト
レーニング、麻薬教育、犯罪被害者への法的措置の尊重、医師の患者との会見、
求職者の面接、従業員の面接トレーニング、里親面接などの社会的関連事項、将
校と下士官の間での面接トレーニング、セクシュアルハラスメントトレーニング
が含まれる。
【0106】 特に重要なのは、評価される人間に対して有利にまたは不利に偏ることなく、
数値的な結果を提供することで、ユーザーのスキルを量的に評価するというシス
テムの能力である。たとえば、医師は、免許を持つ前に特定の患者会見スキルレ
ベルを達成する必要があり得る。法執行官は、昇進前に公衆との対処において特
定のスキルレベルを達成する必要があり得る。外交官は、ポスト配属前に文化的
な相違に気付く必要があり、また、従業員は、管理者への昇進前に、問題のある
従業員に対処するスキルを実証する必要があり得る。
【0107】 本発明はまた、ゲーム中の人間とプレイヤー(実際のプレイヤーはコンピュー
タである)との対話を含むコンピュータ化したゲームにも適用可能である。 本発明は、質問が問われるときにビデオを再生することを越えるシステムを網
羅することに留意されたい。鍵は、各ユーザー入力が1つよりも多くの応答また
はビデオ選択に影響することである。別の鍵は、応答(ビデオ)がともに結びつ
けられて人間の応答をシミュレートすることである。
【0108】 上記は、本発明の原理の例示としてのみ考慮される。さらに、多数の変形およ
び変更が容易に当業者には思い付くため、図示し説明した厳密な構造および用途
に本発明を制限するのは望ましくなく、したがって、すべての適した変形および
同等物が、本発明の範囲および特許請求の範囲およびそれらの同等物内にあるも
のとする。
【図面の簡単な説明】
【図1】 本発明による、シミュレートされた対象者のコンピュータ生成ディスプレイの
様式化した画像である。
【図2】 本発明による、対象者の挙動のモデリングを達成する手段を示す簡略化した論
理的なフローチャートである。
【図3】 本発明がどのように動作するかを示す詳細なフローチャートである。
【図4】 本発明において使用される「基本オプション」画面を示すコンピュータディス
プレイである。
【図5】 本発明による「ユーザー入力」画面を示すコンピュータディスプレイである。
【図6】 本発明によりラポールをどのようにモデリングするかを示すフローチャートで
ある。
【図7】 本発明による、ラポール状態を理解するための制御パネル画面の例示的な画像
である。
【図8】 対象者の人格パラメータを本発明の基本的なプログラムに入力するために用い
る制御パネル画面の例示的な画像である。
【手続補正書】特許協力条約第34条補正の翻訳文提出書
【提出日】平成13年3月19日(2001.3.19)
【手続補正1】
【補正対象書類名】明細書
【補正対象項目名】特許請求の範囲
【補正方法】変更
【補正内容】
【特許請求の範囲】
───────────────────────────────────────────────────── フロントページの続き (81)指定国 EP(AT,BE,CH,CY, DE,DK,ES,FI,FR,GB,GR,IE,I T,LU,MC,NL,PT,SE),OA(BF,BJ ,CF,CG,CI,CM,GA,GN,GW,ML, MR,NE,SN,TD,TG),AP(GH,GM,K E,LS,MW,SD,SL,SZ,TZ,UG,ZW ),EA(AM,AZ,BY,KG,KZ,MD,RU, TJ,TM),AE,AL,AM,AT,AU,AZ, BA,BB,BG,BR,BY,CA,CH,CN,C U,CZ,DE,DK,EE,ES,FI,GB,GD ,GE,GH,GM,HR,HU,ID,IL,IN, IS,JP,KE,KG,KP,KR,KZ,LC,L K,LR,LS,LT,LU,LV,MD,MG,MK ,MN,MW,MX,NO,NZ,PL,PT,RO, RU,SD,SE,SG,SI,SK,SL,TJ,T M,TR,TT,UA,UG,UZ,VN,YU

Claims (48)

    【特許請求の範囲】
  1. 【請求項1】 対人スキルを発達させる装置であって、 人間をシミュレートする複数のビデオビネットと、 前記装置のユーザーにより選択されることになる複数の陳述と、 前記シミュレートされる人間により発音される複数のオーディオ応答と、 前記ユーザーにより選択されることになる前記陳述、前記オーディオ応答およ
    び前記ビデオビネットをそれぞれ相互に関連付ける論理手段と、 を含む、対人スキルを発達させる装置。
  2. 【請求項2】 前記オーディオ応答、前記ビデオビネットおよび前記ユーザ
    ーにより選択されることになる前記複数の陳述をそれぞれ相互に関連付ける前記
    論理手段は、 人格プロファイルエミュレータと、 該人格プロファイルエミュレータにより制御され、前記複数の陳述のうちの選
    択されたものに応答して、前記ビデオビネットのうちの1つを選択するビデオ選
    択ネットワークと、 前記人格プロファイルエミュレータにより制御され、前記複数の陳述のうちの
    選択されたものに応答して、前記オーディオ応答のうちの1つを選択するオーデ
    ィオ選択ネットワークと、 を備える、請求項1記載の対人スキルを発達させる装置。
  3. 【請求項3】 前記ビデオ選択ネットワークは、前記人格プロファイルエミ
    ュレータにより制御され、前記ユーザーが所定の時間期間内に前記複数の陳述の
    うちの1つを選択しないことに応答して、前記ビデオビネットのうちの1つを選
    択する手段を含み、 前記オーディオ選択ネットワークは、前記人格プロファイルエミュレータによ
    り制御され、前記ユーザーが前記所定の時間期間内に前記複数の陳述のうちの1
    つを選択しないことに応答して、前記オーディオ応答のうちの1つを選択する手
    段を含む、請求項2記載の対人スキルを発達させる装置。
  4. 【請求項4】 前記人格プロファイルエミュレータは、前記論理手段の前記
    相互に関連付ける機能を調整する手段を含み、 前記装置のユーザーにより選択されることになる、前記複数の陳述からコンパ
    イルされる複数の代替陳述をさらに含み、 前記代替陳述は、前記オーディオ選択ネットワークを介して選択される前記オ
    ーディオ応答の履歴に応答して、前記人格プロファイルエミュレータにより確立
    される基準に従って前記複数の陳述から選択される、請求項2記載の対人スキル
    を発達させる装置。
  5. 【請求項5】 前記人格プロファイルエミュレータは、前記論理手段の前記
    相互に関連付ける機能を調整する手段を含み、 前記装置のユーザーにより選択されることになる、前記複数の陳述からコンパ
    イルされる複数の代替陳述をさらに含み、 前記代替陳述は、前記ビデオ選択ネットワークを介して選択される前記ビデオ
    ビネットの履歴に応答して、前記人格プロファイルエミュレータにより確立され
    る基準に従って前記複数の陳述から選択される、請求項2記載の対人スキルを発
    達させる装置。
  6. 【請求項6】 前記人格プロファイルエミュレータは、前記複数の陳述のユ
    ーザーが選択したものに応答して変更され、それによって前記論理手段の前記相
    互に関連付ける機能を変更する、請求項2記載の対人スキルを発達させる装置。
  7. 【請求項7】 前記複数の陳述のうちの前記選択された陳述の履歴の関数と
    して、前記装置のユーザーの成績得点を確立する手段をさらに含む、請求項2記
    載の対人スキルを発達させる装置。
  8. 【請求項8】 前記複数の陳述の選択順序の関数として、前記装置のユーザ
    ーの成績得点を確立する手段を含む、請求項7記載の対人スキルを発達させる装
    置。
  9. 【請求項9】 前記論理手段の前記相互に関連付ける機能を調整する人格プ
    ロファイルエミュレーション手段と、 前記複数の陳述からコンパイルされ、かつ前記オーディオ応答の前記論理手段
    および前記ユーザーにより選択されることになる前記複数の陳述によって作られ
    る相互関係に応答して、前記人格プロファイルエミュレーション手段により確立
    される基準に従って選択される、前記装置のユーザーにより選択されることにな
    る複数の陳述の第2のリストと、 を含む、請求項1記載の対人スキルを発達させる装置。
  10. 【請求項10】 前記第2のリストを含む前記複数の陳述は、前記ビデオビ
    ネットの前記論理手段および前記ユーザーにより選択されることになる前記陳述
    により作られる相互関係に応答して、前記人格プロファイルエミュレーション手
    段により確立される基準に従って選択される、請求項9記載の対人スキルを発達
    させる装置。
  11. 【請求項11】 前記人格プロファイルエミュレーション手段は、前記複数
    の陳述の前記リストから前記ユーザーが選択した陳述に応答して変更され、それ
    によって前記論理手段の前記相互に関連付ける機能を変更する、請求項10記載
    の対人スキルを発達させる装置。
  12. 【請求項12】 前記ユーザーにより選択された前記陳述の関数として、前
    記装置のユーザーの成績得点を確立する手段を含む、請求項10記載の対人スキ
    ルを発達させる装置。
  13. 【請求項13】 前記ユーザーにより選択された前記陳述の選択順序の関数
    として、前記装置のユーザーの成績得点を確立する手段を含む、請求項12記載
    の対人スキルを発達させる装置。
  14. 【請求項14】 対人スキルを発達させるシステムを作成する方法であって
    、 人間をシミュレートする複数のビデオビネットを作成するステップと、 前記装置のユーザーにより選択されることになる複数の陳述を作成するステッ
    プと、 前記シミュレートされる人間により発音される複数のオーディオ応答を作成す
    るステップと、 前記オーディオ応答、前記ビデオビネット、および前記ユーザーにより選択さ
    れることになる前記陳述をそれぞれ相互に関連付ける論理手段を作成するステッ
    プと、 を含む、対人スキルを発達させるシステムを作成する方法。
  15. 【請求項15】 前記オーディオ応答、前記ビデオビネット、および前記ユ
    ーザーにより選択されることになる前記陳述をそれぞれ相互に関連付ける論理手
    段を作成するステップは、 人格プロファイルに従って、前記ビデオビネットを前記ユーザーにより選択さ
    れることになる前記陳述とリンクさせ相互関係付けネットワークを作成するステ
    ップと、 前記人格プロファイルに従って、前記オーディオ応答を前記ユーザーにより選
    択されることになる前記陳述とリンクさせる相互関係付けネットワークを作成す
    るステップと、 前記ビデオビネットを前記オーディオ応答とリンクさせる相互関連付けネット
    ワークを作成するステップと、 を含む、請求項14記載の対人スキルを発達させるシステムを作成する方法。
  16. 【請求項16】 前記オーディオ応答、前記ビデオビネット、および前記ユ
    ーザーにより選択されることになる前記陳述をそれぞれ相互に関連付ける前記論
    理手段を作成するステップは、 前記人格プロファイルに従って、前記ビデオビネットを前記ユーザーにより選
    択されることになる前記陳述がないこととリンクさせる相互関連付けネットワー
    クを作成するステップと、 前記オーディオ応答を、前記人格プロファイルに従って前記ユーザーにより選
    択されることになる前記陳述がないこととリンクさせる相互関連付けネットワー
    クを作成するステップと、 を含む、請求項15記載の対人スキルを発達させるシステムを作成する方法。
  17. 【請求項17】 用意された陳述のリストから1つの陳述を選択するステッ
    プと、 ビデオ表現でシミュレートされる人間の顔の表情を観察するステップと、 前記ビデオ表現で前記シミュレートされる人間のボディランゲージを観察する
    ステップと、 前記シミュレートされる人間によるオーディオ応答を聞くステップと、 前記観察された顔の表情、ボディランゲージ、およびオーディオ応答に応答し
    て、用意された陳述のリストから1つの陳述を選択するステップと、 を含む、対人スキルを発達させる方法。
  18. 【請求項18】 前記シミュレートされる人間の真実に関する決定を行うま
    で、請求項17記載のステップを繰り返すステップを含む、請求項17記載の対
    人スキルを発達させる方法。
  19. 【請求項19】 前記ビデオ表現およびオーディオ応答を作成するプログラ
    ムに、前記シミュレートされる人間の真実に関する前記決定を通知するステップ
    を含む、請求項18記載の対人スキルを発達させる方法。
  20. 【請求項20】 前記ビデオ表現およびオーディオ応答を作成するプログラ
    ムに、前記ビデオ表現が前記シミュレートされる人間の真実に関する手掛かりを
    与えるか否かを通知するステップを含む、請求項17記載の対人スキルを発達さ
    せる方法。
  21. 【請求項21】 前記ビデオ表現およびオーディオ応答を作成するプログラ
    ムに、前記オーディオ応答が前記シミュレートされる人間の真実に関する手掛か
    りを与えるか否かを通知するステップを含む、請求項17記載の対人スキルを発
    達させる方法。
  22. 【請求項22】 対人スキルを発達させる装置であって、 人間をシミュレートする複数のビデオビネットと、 前記装置のユーザーにより音声化されることになる複数の陳述のリストと、 前記シミュレートされる人間により発音される複数のオーディオ応答と、 前記オーディオ応答、前記ビデオビネット、および前記ユーザーにより音声化
    されることになる前記陳述をそれぞれ相互に関連付ける論理手段と、 を含む、対人スキルを発達させる装置。
  23. 【請求項23】 前記オーディオ応答、前記ビデオビネット、および前記ユ
    ーザーにより音声化されることになる前記陳述をそれぞれ相互に関連付ける前記
    論理手段は、 人格プロファイルエミュレーションと、 該人格プロファイルエミュレーションに従って、前記ビデオビネットを、前記
    ユーザーにより音声化されることになる前記陳述にリンクするビデオネットワー
    クと、 前記人格プロファイルエミュレーションに従って、前記オーディオ応答を、前
    記ユーザーにより音声化されることになる前記陳述にリンクするオーディオネッ
    トワークと、 前記人格プロファイルエミュレーションに従って、前記ビデオビネットを前記
    オーディオ応答にリンクする手段と、 を含む、請求項22記載の対人スキルを発達させる装置。
  24. 【請求項24】 前記ビデオネットワークは、前記人格プロファイルに従っ
    て、前記ビデオビネットを前記ユーザーにより音声化されることになる前記陳述
    がないこととリンクさせる手段を含み、 前記オーディオネットワークは、前記人格プロファイルエミュレーションに従
    って、前記オーディオ応答を前記ユーザーにより音声化されることになる前記陳
    述がないこととリンクさせる手段を含む、請求項23記載の対人スキルを発達さ
    せる装置。
  25. 【請求項25】 前記論理手段の前記相互に関連付ける機能を調整する人格
    プロファイルエミュレーション手段と、 前記複数の陳述からコンパイルされ、前記装置のユーザーにより音声化される
    ことになる複数の陳述の第2のリストとを含み、 該複数の陳述の第2のリストは、前記オーディオ応答の前記論理手段および前
    記ユーザーにより音声化されることになる前記陳述によって作られる相互関係に
    応答して、前記人格プロファイルエミュレーション手段により確立される基準に
    従って、前記複数の陳述のリストから選択される、請求項24記載の対人スキル
    を発達させる装置。
  26. 【請求項26】 前記第2のリストを含む前記複数の陳述は、前記ビデオビ
    ネットの前記論理手段および前記ユーザーにより音声化されることになる前記複
    数の陳述により作られる相互関係に応答して、前記人格プロファイルエミュレー
    ション手段により確立される基準に従って選択される、請求項25記載の対人ス
    キルを発達させる装置。
  27. 【請求項27】 前記人格プロファイルエミュレーション手段は、前記ユー
    ザーが前記リストから、前記複数の陳述を前記ユーザーにより音声化することに
    応答して変更され、それによって前記論理手段の前記相互に関連付ける機能を変
    更する、請求項26記載の対人スキルを発達させる装置。
  28. 【請求項28】 前記ユーザーにより音声化された前記複数の陳述から選択
    された陳述の関数として、前記装置のユーザーの成績得点を確立する手段を含む
    、請求項27記載の対人スキルを発達させる装置。
  29. 【請求項29】 前記ユーザーにより音声化される前記複数の陳述から選択
    された前記陳述の音声化順序の関数として、前記装置のユーザーの成績得点を確
    立する手段を含む、請求項28記載の対人スキルを発達させる装置。
  30. 【請求項30】 前記論理手段の前記相互に関連付ける機能を調整する人格
    プロファイルエミュレーション手段と、 前記複数の陳述からコンパイルされ、かつ前記オーディオ応答の前記ユーザー
    により音声化されることになる前記陳述の、前記論理手段によって作られる相互
    関係に応答して、前記人格プロファイルエミュレーション手段により確立される
    基準に従って選択される、前記装置の前記ユーザーにより音声化されることにな
    る複数の陳述の第2のリストと、 を含む、請求項22記載の対人スキルを発達させるシステム。
  31. 【請求項31】 前記第2のリストを含む前記複数の陳述は、前記ビデオビ
    ネットの前記論理手段および前記ユーザーにより音声化されることになる前記陳
    述により作られる相互関係に応答して、前記人格プロファイルエミュレーション
    手段により確立される基準に従って選択される、請求項30記載の対人スキルを
    発達させるシステム。
  32. 【請求項32】 前記人格プロファイルエミュレーション手段は、前記リス
    トから前記ユーザーが音声化した陳述に応答して変更され、それによって前記論
    理手段の前記相互に関連付ける機能を変更する、請求項31記載の対人スキルを
    発達させるシステム。
  33. 【請求項33】 前記ユーザーにより音声化された前記複数の陳述から選択
    された陳述の関数として、前記装置のユーザーの成績得点を確立する手段を含む
    、請求項31記載の対人スキルを発達させるシステム。
  34. 【請求項34】 前記ユーザーにより音声化される前記複数の陳述から選択
    された前記陳述の音声化順序の関数として、前記装置のユーザーの成績得点を確
    立する手段を含む、請求項33記載の対人スキルを発達させるシステム。
  35. 【請求項35】 対人スキルを発達させるシステムを作成する方法であって
    、 人間をシミュレートする複数のビデオビネットを作成するステップと、 前記装置のユーザーにより音声化されることになる複数の陳述を作成するステ
    ップと、 前記複数の陳述を音声化したものを認識する手段を作成するステップと、 前記シミュレートされる人間により発音される複数のオーディオ応答を作成す
    るステップと、 前記オーディオ応答、前記ビデオビネット、および前記ユーザーにより音声化
    されることになる前記複数の陳述をそれぞれ相互に関連付ける論理手段を作成す
    るステップと、 を含む、対人スキルを発達させるシステムを作成する方法。
  36. 【請求項36】 前記オーディオ応答、前記ビデオビネット、および前記ユ
    ーザーにより音声化されることになる前記複数の陳述をそれぞれ相互に関連付け
    る論理手段を作成するステップは、 人格プロファイルに従って、前記ビデオビネットを前記認識された音声化済み
    の陳述とリンクさせる相互関係付けネットワークを作成するステップと、 前記人格プロファイルに従って、前記オーディオ応答を前記認識された音声化
    済みの陳述とリンクさせる相互関係付けネットワークを作成するステップと、 前記ビデオビネットを前記オーディオ応答にリンクする相互関連付けネットワ
    ークを作成するステップと、 を含む、請求項35記載の対人スキルを発達させるシステムを作成する方法。
  37. 【請求項37】 前記オーディオ応答、前記ビデオビネット、および前記ユ
    ーザーにより音声化されることになる前記複数の陳述をそれぞれ相互に関連付け
    る前記論理手段を作成するステップは、 前記人格プロファイルに従って、前記ビデオビネットおよび前記オーディオ応
    答を前記音声化された陳述の認識がないこととリンクさせる相互関連付けネット
    ワークを作成するステップを含む、請求項36記載の対人スキルを発達させるシ
    ステムを作成する方法。
  38. 【請求項38】 キーワードを含む用意された陳述のリストから1つまたは
    複数の前記キーワードを含む1つの陳述を音声化するステップと、 ビデオ表現でシミュレートされる人間の顔の表情を観察するステップと、 前記ビデオ表現で前記シミュレートされる人間のボディランゲージを観察する
    ステップと、 前記シミュレートされる人間によるオーディオ応答を聞くステップと、 前記観察された顔の表情、ボディランゲージ、およびオーディオ応答に応答し
    て、前記キーワードを含む用意された陳述のリストから選択された、1つまたは
    複数の前記キーワードを含む1つの陳述を音声化するステップと、 を含む、対人スキルを発達させる方法。
  39. 【請求項39】 前記シミュレートされる人間の真実に関する決定を行うま
    で、請求項38記載のステップを繰り返すステップを含む、請求項38記載の対
    人スキルを発達させる方法。
  40. 【請求項40】 前記ビデオ表現およびオーディオ応答を作成しているプロ
    グラムに、前記シミュレートされる人間の真実に関する前記決定を通知するステ
    ップを含む、請求項39記載の対人スキルを発達させる方法。
  41. 【請求項41】 前記ビデオ表現およびオーディオ応答を作成するプログラ
    ムに、前記ビデオ表現が前記シミュレートされる人間の真実に関する手掛かりを
    与えるか否かを通知するステップを含む、請求項38記載の対人スキルを発達さ
    せる方法。
  42. 【請求項42】 前記ビデオ表現およびオーディオ応答を作成するプログラ
    ムに、前記オーディオ応答が前記シミュレートされる人間の真実に関する手掛か
    りを与えるか否かを通知するステップを含む、請求項38記載の対人スキルを発
    達させる方法。
  43. 【請求項43】 複数の陳述を含むメモリ手段と、 ビデオ表現のためのモニタ手段と、 前記モニタ手段からの視覚的な手掛かりまたは聴覚的な手掛かりに応答して、
    前記複数の陳述のうちの1つを選択するためのキーボード手段とを含み、 前記ビデオ表現は、前記複数の陳述のうちの前記選択した1つに応答する、対人
    スキルを発達させるシステム。
  44. 【請求項44】 電子手段を使用してシミュレートされた対象者を用いて対
    人スキルを発達させる方法であって、 重みの付いた質問を含むプログラムを初期化するステップと、 量的感情値をラポール状態に割り当てるステップであって、前記ラポール状態
    への前記量的感情値は合計すると1になる、ステップと、 尋ねた質問から導出される刺激に基づいて、ラポール状態からラポール状態へ
    の前記感情値の流れに影響を与えるステップと、 を含む方法。
  45. 【請求項45】 前記ラポール状態は、最悪、不良、普通、良好、および最
    良を含む、請求項44記載の方法。
  46. 【請求項46】 ラポール状態の悪化は、ラポール状態の構築よりも容易に
    起こる、請求項45記載の方法。
  47. 【請求項47】 前記刺激は、前記面接中に問われた先行するすべての質問
    のラポール値および現在の質問のラポール値の平均に基づき、以下のアルゴリズ
    ム、 Sr=0.8[メモリ*Sr-1+(1−メモリ)*Sq]+0.2(平均ラポール値
    ) を採用して計算され、式中Srは刺激値であり、Sr-1は最新の質問前の刺激であ
    り、Sqは先行するすべての質問および現在の質問の平均ラポール値である、請
    求項46記載の方法。
  48. 【請求項48】 コンピュータ、モニタ、およびキーボードを備え、面接を
    開始し、ラポール状態に割り当てられる感情値を定量化することを含む対人スキ
    ルを発達させるためのシステムであって、刺激値が前記面接中に問われた先行す
    るすべての質問のラポール値および現在の質問のラポール値の平均に基づき、以
    下のアルゴリズム、 Sr=0.8[メモリ*Sr-1+(1−メモリ)*Sq]+0.2(平均ラポール値
    ) を採用して計算され、刺激値Srを計算するための式中、Sr-1は最新の質問前の
    刺激であり、Sqは先行するすべての質問および現在の質問の平均ラポール値で
    ある、システム。
JP2000584453A 1998-11-25 1999-11-23 対人相互作用シミュレータを用いてトレーニングするための装置および方法 Pending JP2002530724A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US10997498P 1998-11-25 1998-11-25
US60/109,974 1998-11-25
PCT/US1999/027759 WO2000031711A1 (en) 1998-11-25 1999-11-23 Apparatus and method for training using a human interaction simulator

Publications (1)

Publication Number Publication Date
JP2002530724A true JP2002530724A (ja) 2002-09-17

Family

ID=22330595

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000584453A Pending JP2002530724A (ja) 1998-11-25 1999-11-23 対人相互作用シミュレータを用いてトレーニングするための装置および方法

Country Status (13)

Country Link
EP (1) EP1133764B1 (ja)
JP (1) JP2002530724A (ja)
KR (1) KR100432176B1 (ja)
CN (1) CN1328676A (ja)
AT (1) ATE249079T1 (ja)
AU (1) AU763774B2 (ja)
BR (1) BR9915678A (ja)
CA (1) CA2350828C (ja)
DE (1) DE69911054T2 (ja)
ES (1) ES2207328T3 (ja)
PT (1) PT1133764E (ja)
WO (1) WO2000031711A1 (ja)
ZA (1) ZA200103984B (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007026715A1 (ja) * 2005-09-01 2007-03-08 Kagoshima University シミュレーションシステム及びプログラム
JP2013047972A (ja) * 2012-10-19 2013-03-07 A Visel Thomas 人間の脳の電子的なエミュレーションに心理学的な気質を取り入れるための方法
JP2014026420A (ja) * 2012-07-26 2014-02-06 Meijo University 薬物療法判断能力育成方法及び薬物療法判断能力育成プログラム

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100681121B1 (ko) * 2000-06-09 2007-02-08 주식회사 케이티 3차원 가상 현실을 이용한 가상 발표 구현 방법 및 장치
WO2003005327A1 (en) * 2001-07-01 2003-01-16 High Q Education Systems Limited System and method for testing-inefficiency analysis and improvement via a computer-based learning environment
KR100445846B1 (ko) * 2001-09-18 2004-08-25 학교법인 한양학원 대인 공포증 치료를 위한 가상 연설 시뮬레이터
US7300285B2 (en) * 2002-05-24 2007-11-27 Smtm Technologies Llc Method and system for skills-based testing and training
EP2368214A2 (en) * 2008-12-24 2011-09-28 David Matsumoto Systems and methods for analyzing facial expressions, identifying intent and transforming images trhough review of facial expressions
CN105849792B (zh) * 2013-12-23 2020-01-14 Abb瑞士股份有限公司 针对资产健康管理的交互界面
KR101739058B1 (ko) * 2014-04-24 2017-05-25 주식회사 바이브라시스템 동영상 기반 생리 신호 검출을 이용한 왜곡에 대한 정신생리적 탐지 (거짓말 탐지) 방법 및 장치
CN108305511B (zh) * 2017-12-11 2020-07-24 南京萌宝睿贝教育科技有限公司 一种儿童情商训练方法
US10893236B2 (en) 2018-11-01 2021-01-12 Honda Motor Co., Ltd. System and method for providing virtual interpersonal communication
CN109300466B (zh) * 2018-11-29 2022-04-29 中国人民解放***箭军工程大学 一种基于语音技术的复杂设备智能虚拟训练方法和***

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5721845A (en) * 1993-02-18 1998-02-24 Apple Computer, Inc. Topically organized interface with realistic dialogue
US5377258A (en) * 1993-08-30 1994-12-27 National Medical Research Council Method and apparatus for an automated and interactive behavioral guidance system
US5676551A (en) * 1995-09-27 1997-10-14 All Of The Above Inc. Method and apparatus for emotional modulation of a Human personality within the context of an interpersonal relationship
US5730603A (en) * 1996-05-16 1998-03-24 Interactive Drama, Inc. Audiovisual simulation system and method with dynamic intelligent prompts
US5870755A (en) * 1997-02-26 1999-02-09 Carnegie Mellon University Method and apparatus for capturing and presenting digital data in a synthetic interview

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007026715A1 (ja) * 2005-09-01 2007-03-08 Kagoshima University シミュレーションシステム及びプログラム
JPWO2007026715A1 (ja) * 2005-09-01 2009-03-12 国立大学法人 鹿児島大学 シミュレーションシステム及びプログラム
JP4742280B2 (ja) * 2005-09-01 2011-08-10 国立大学法人 鹿児島大学 シミュレーションシステム及びプログラム
JP2014026420A (ja) * 2012-07-26 2014-02-06 Meijo University 薬物療法判断能力育成方法及び薬物療法判断能力育成プログラム
JP2013047972A (ja) * 2012-10-19 2013-03-07 A Visel Thomas 人間の脳の電子的なエミュレーションに心理学的な気質を取り入れるための方法

Also Published As

Publication number Publication date
WO2000031711A9 (en) 2001-04-19
EP1133764B1 (en) 2003-09-03
CA2350828C (en) 2008-07-29
ZA200103984B (en) 2002-01-09
CA2350828A1 (en) 2000-06-02
CN1328676A (zh) 2001-12-26
ES2207328T3 (es) 2004-05-16
DE69911054D1 (de) 2003-10-09
EP1133764A1 (en) 2001-09-19
KR20010080567A (ko) 2001-08-22
KR100432176B1 (ko) 2004-05-22
ATE249079T1 (de) 2003-09-15
AU763774B2 (en) 2003-07-31
BR9915678A (pt) 2001-08-14
PT1133764E (pt) 2004-02-27
DE69911054T2 (de) 2004-07-08
AU3102800A (en) 2000-06-13
WO2000031711A1 (en) 2000-06-02

Similar Documents

Publication Publication Date Title
US7048544B2 (en) Apparatus and method for training using a human interaction simulator
Kenny et al. Virtual patients for clinical therapist skills training
Johnsen et al. The validity of a virtual human experience for interpersonal skills education
André et al. The automated design of believable dialogues for animated presentation teams
AU2006252392B2 (en) Mapping each of several communicative functions during contexts to multiple coordinated behaviours of a virtual character
US7797261B2 (en) Consultative system
JP2003504646A (ja) 音韻認識、音韻処理および読む能力をトレーニングするシステム及び方法
JP2012516463A (ja) コンピュータ実行方法
Guo et al. Tertiary students’ acceptance of a game to teach information literacy
KR100432176B1 (ko) 대화형 시뮬레이터를 이용한 훈련 장치 및 방법
Kenny et al. Embodied conversational virtual patients
Labov The case of the missing copula: The interpretation of zeroes in African-American English
Fucinato et al. Charismatic speech features in robot instructions enhance team creativity
Alghabban et al. Student Perception of Usability: A Metric for Evaluating the Benefit When Adapting e-Learning to the Needs of Students with Dyslexia.
Makhwathana Strengthening English Second Language Competence of Foundation Phase Teachers in Vhembe District, South Africa
Lemov Teach like a champion, enhanced edition: 49 Techniques that put students on the path to college (K-12)
Hubal et al. A mixed-initiative intelligent tutoring agent for interaction training
MXPA01005215A (es) Aparato y metodo para adiestramiento utilizando un simulador de interaccion humana
Zrust A descriptive analysis of concurrent instruction in secondary choral rehearsals
Green et al. An Assistive Conversation Skills Training System for Caregivers of Persons with Alzheimer's Disease.
LUCKY THE EFFECT OF SHADOWING TECHNIQUE ON STUDENTS’PRONUNCIATION ABILITY (A-Quasi-Experimental Study at Ninth Grade Students of SMPN 2 Pasir Sakti).
Flipsen Jr et al. The SATPAC Approach and Remediation of Speech Sound Errors in an RTI Context: A Replication
Alepis et al. Recognition and generation of emotions in affective e-learning
Armsby et al. Accessibility and acceptance of a virtual respondent-based interviewer training application
Murano Usability investigation of anthropomorphic user interface feedback

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20051020

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20060119

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20060126

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060420

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20060711

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061106

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20070109

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20070309