JP7003400B2 - 対話制御システム - Google Patents

対話制御システム Download PDF

Info

Publication number
JP7003400B2
JP7003400B2 JP2016210313A JP2016210313A JP7003400B2 JP 7003400 B2 JP7003400 B2 JP 7003400B2 JP 2016210313 A JP2016210313 A JP 2016210313A JP 2016210313 A JP2016210313 A JP 2016210313A JP 7003400 B2 JP7003400 B2 JP 7003400B2
Authority
JP
Japan
Prior art keywords
user
personality
information
current
dialogue
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016210313A
Other languages
English (en)
Other versions
JP2018068548A (ja
Inventor
彰 一星
タプリヤ ローシャン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Fujifilm Business Innovation Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd, Fujifilm Business Innovation Corp filed Critical Fuji Xerox Co Ltd
Priority to JP2016210313A priority Critical patent/JP7003400B2/ja
Priority to US15/647,279 priority patent/US20180121784A1/en
Publication of JP2018068548A publication Critical patent/JP2018068548A/ja
Application granted granted Critical
Publication of JP7003400B2 publication Critical patent/JP7003400B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/006Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B7/00Electrically-operated teaching apparatus or devices working with questions and answers
    • G09B7/06Electrically-operated teaching apparatus or devices working with questions and answers of the multiple-choice answer-type, i.e. where a given question is provided with a series of answers and a choice has to be made from the answers
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H10/00ICT specially adapted for the handling or processing of patient-related medical or healthcare data
    • G16H10/20ICT specially adapted for the handling or processing of patient-related medical or healthcare data for electronic clinical trials or questionnaires
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/63ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2503/00Evaluating a particular growth phase or type of persons or animals
    • A61B2503/12Healthy persons not otherwise provided for, e.g. subjects of a marketing survey
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/0205Simultaneously evaluating both cardiovascular conditions and different types of body conditions, e.g. heart and respiratory condition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/024Detecting, measuring or recording pulse rate or heart rate
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/026Measuring blood flow
    • A61B5/0295Measuring blood flow using plethysmography, i.e. measuring the variations in the volume of a body part as modified by the circulation of blood therethrough, e.g. impedance plethysmography
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Pathology (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Databases & Information Systems (AREA)
  • Psychiatry (AREA)
  • Computational Linguistics (AREA)
  • Business, Economics & Management (AREA)
  • Educational Technology (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Surgery (AREA)
  • General Business, Economics & Management (AREA)
  • Child & Adolescent Psychology (AREA)
  • Developmental Disabilities (AREA)
  • Hospice & Palliative Care (AREA)
  • Social Psychology (AREA)
  • Psychology (AREA)
  • Educational Administration (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Description

本発明は、対話制御システムに関する。
特許文献1には、利用者との対話時における利用者の表情から得た感情、音声から得た感情、口調、およびテキストの情報を組み合わせることにより利用者の性格を分類し、分類に応じて応答を変化させる対話エージェントが開示されている。
特許文献2には、被験者の表情を認識して感情を推定する手段、前記被験者の生体情報を検出して感情を推定する手段、および、前記被験者の音声から感情を推定する手段、のうち少なくとも2種類の手段で感情を推定した感情推定結果を取得する感情推定装置、感情推定方法およびプログラムが開示されている。
特開2006-071936号公報 特開2012-59107号公報
本発明は、利用者から対話時に得た情報のみに応じて対話装置の振る舞いを制御した場合と比べて、より利用者の感情に沿った振る舞いを対話装置にさせることのできる対話制御システムを提供することを目的とする。
請求項1に係る本発明は、
対話装置と、
利用者の生体情報と、利用者の性格情報の入力により、利用者の精神状態を出力するための機械学習モデルと、利用者の現在の精神状態と対話装置がとるべき性格とを対応付けて記憶した対応テーブルを記憶する記憶手段と、
利用者によるアンケート又は性格診断テストの結果を解析することにより得られ、利用者の平常時の精神的傾向を表す数値化された平常時の性格情報を取得する取得手段と、
利用者の皮膚電位、心拍数および末梢血管の容積脈波を生体情報として検出する検出手段と、
検出された利用者の現時点の生体情報と、取得された利用者の平常時の性格情報とを、前記機械学習モデルに入力することにより出力した利用者の精神状態を利用者の現時点の精神状態と推定する推定手段と、
推定された利用者の現時点の精神状態に対応する、予め定められた何れかの精神状態に応じた対話装置がとるべき性格に関する性格情報を前記対応テーブルから取得して、取得した性格情報を前記対話装置に送信して前記対話装置の性格を変更する変更手段と、
前記対話装置を、変更後の性格で利用者と対話させる制御を行う制御手段とを備え、
前記機械学習モデルは、利用者の皮膚電位に関するデータに基づいて利用者の現時点における興奮度を算出し、利用者の心拍数データおよび抹消血管の容積脈波データに基づいて利用者の現時点における感情度を算出し、算出された利用者の現時点における興奮度および感情度に基づいて、利用者の現時点の精神状態が平常時の性格情報からどれだけ変位したかを算出することにより、利用者の現時点の精神状態を出力する
対話制御システムである。
請求項に係る本発明は、請求項記載の対話制御システムに係り、前記取得手段は、利用者の外交性-内向性尺度、神経症的尺度、および精神病傾向尺度を数値化した性格情報を取得する。
請求項1に係る本発明によれば、利用者から対話時に得た情報のみに応じて対話装置の振る舞いを制御した場合と比較して、より利用者の現在の精神状態に沿った振る舞いを対話装置にさせることのできる対話制御システムを提供できる。
また、請求項1に係る本発明によれば、機械学習を用いない対話制御システムと比較した場合に、対話装置に、利用者の現在の精神状態をより正確に反映した性格を取らせることができる。
また、請求項に係る本発明によれば、生体センサを用いない対話制御システムと比較した場合に、対話装置に、利用者の現在の精神状態をより正確に反映した性格を取らせることができる。
また、請求項に係る本発明によれば、アンケートを用いない対話制御システムと比較した場合に、対話装置に、利用者の平常時の性格と現在の精神状態をより正確に反映した性格を取らせることができる。
請求項に係る本発明によれば、外交性-内向性尺度、神経症的尺度、および精神病傾向尺度のいずれも用いない対話制御システムと比較した場合に、対話装置に、利用者の平常時の性格と現在の精神状態をより正確に反映した性格を取らせることができる。
本発明の一実施形態の対話制御システム10の一例を示す説明図である。 実施形態における対話型ロボット20のハードウェア構成図である。 実施形態における対話型ロボット20の機能ブロック図である。 実施形態における制御サーバ40のハードウェア構成図である。 実施形態における制御サーバ40の機能ブロック図である。 実施形態の利用者性格データベース417の一例を示す図である。 本実施形態の対話制御システム10における対話制御処理の流れの一例を示すフローチャートである。 生体センサ70から取得した生体データに基づいて推定される利用者60の精神状態を表した概念図である。 利用者60の平常時の性格、つまり精神的傾向に対して生体センサ70から得られる生体データに基づく精神状態を考慮することによって現時点の精神状態を推定する方法を示した概念図である。 本実施形態の制御サーバ40における対話制御処理の流れの他の例を示すフローチャートである。
本発明の一実施形態の対話制御システム10を、図1を参照して説明する。本実施形態の対話制御システム10は、オフィスビルのフロア等の比較的大きな所定の領域(以下、ワークプレイスという)100に配置される対話型ロボット20と、制御サーバ40と、を備えて構成され、制御サーバ40は、対話型ロボット20にネットワーク30、およびワークプレイス10の壁面等に設置されたアクセスポイント50を介して無線により接続される。さらに、ワークプレイス10には、利用者60が存在しており、利用者60の手首或いは腕には生体センサ70が取り付けられ、生体センサ70と制御サーバ40はアクセスポイント50を介して無線により接続されている。
生体センサ70は、利用者60の現在の感情の身体的徴候、例えば生体情報を検出する。生体情報は、例えば、利用者60の皮膚電位、心拍数、末梢血管の容積脈波に関するデータを少なくともいずれか一つを含む。皮膚電位に関する情報には、現在の皮膚電位の値だけでなく、平常時に対する皮膚電位の変位、分散、また単位時間当たりの皮膚電位の変動率も含まれる。同様に、心拍数に関する情報には、現在の心拍数だけでなく、平常時に対する心拍数の変位、また単位時間当たりの心拍数の変動率が含まれる。また、末梢血管の容積脈波に関するデータには、現在の血管の収縮拡張のデータが含まれる。
まず、図2、3を参照して、本実施形態の対話型ロボット20について説明する。図2は、対話型ロボット20のハードウェア構成図である。図2に示すように、対話型ロボット20は、制御用マイクロプロセッサ201、メモリ202、ハードディスク・ドライブ(HDD)やソリッド・ステート・ドライブ(SSD)等の記憶装置203、通信インタフェース204、カメラ205、マイクロフォン206、スピーカ207、モータ208、現在位置検出装置209を備えて構成され、それぞれ制御バス210に接続されている。
制御用マイクロプロセッサ201は、記憶装置203に記憶された制御プログラムに基づいて対話型ロボット20の各部の動作を制御統括する。メモリ202には、対話型ロボット20が利用者と行った対話時の対話の音声、対話内容、カメラ205により撮影された利用者60の顔写真、表情、挙動、身体の状態の画像等が一時的に記憶される。記憶装置203には対話型ロボット20の各部を制御するための制御プログラムが記憶される。通信インタフェース204は、対話型ロボット20がアクセスポイント50を介して制御サーバ40と通信を行うための通信制御を行う。
カメラ205は、利用者の顔画像、表情、挙動、身体の状態の変化等を撮影し、メモリ202に記憶する。マイクロフォン206は、利用者と対話を行った際に、利用者の音声を検出し、メモリ202に記憶、つまり録音する。メモリ202には、音声を直接録音するのではなく、音声内容を解釈した後の対話内容、および音の高さや言葉の速さを記憶させてもよい。スピーカ207は、対話型ロボット20の後述する対話制御部が生成した音声を出力する。モータ208は、後述する移動制御部において生成された移動制御情報に基づいて対話型ロボット20を所定の位置に移動させる。現在位置検出装置209は、加速度センサ、GPS信号受信装置、或いは位置情報信号受信装置等を含んで構成されており、対話型ロボット20の現在位置を特定して、メモリ202に一時的に記憶させる。
図3は、対話型ロボット20の機能ブロック図である。対話型ロボット20は、記憶装置203に記憶されている制御プログラムを制御用マイクロプロセッサ211において実行することにより、図3に示されるように、センサ情報送信部211、ロボット性格情報受信部212、対話制御部213、移動制御部214、ロボット性格情報データベース215として機能する。
センサ情報送信部211は、対話型ロボット20のカメラ205によって撮影された利用者60の顔写真、およびカメラ205とマイクロフォン206によって検出された利用者60の外面情報を制御サーバ40に送信する。外面情報には、カメラ205によって撮影された利用者60の表情、挙動についてのデータ、マイクロフォン206によって検出された利用者60の音声の高さ、言葉の速さについてのデータが含まれる。なお、外面情報の一部、例えば、利用者60の口角や眉の角度、瞬き回数、カメラで撮影された利用者60のRGB画像を解析して得られる体温の情報、音声の高さといった情報は生体情報として扱うこともできるが、外面情報、生体情報のいずれであってもセンサ情報送信部211によって制御サーバ40へ送信する。
ロボット性格情報受信部212は、後述する制御サーバ40のロボット性格情報送信部から送信されてきた、対話型ロボット20がとるべき性格についての情報を受信し、メモリ202に一時的に記憶する。
対話制御部213は、対話型ロボット20が利用者60と行う対話を制御する。具体的には、対話制御部213は、後述するロボット性格情報データベース215を参照し、ロボット性格情報受信部212が受信したロボットがとるべき性格に応じた対話方法および対話内容で、応答メッセージを生成してスピーカ207に出力したり、モータ208の駆動を制御して対話型ロボット20の姿勢や挙動を変化させたりする。
移動制御部214は、対話型ロボット20の移動を制御する。移動制御部214は、制御サーバ40から移動指示があった場合に、現在位置から目的位地まで移動する移動制御情報を生成し、現在位置検出装置209によって検出される現在位置の情報を参照しつつモータ208の動作を制御し、対話型ロボット20を移動させる。
ロボット性格情報データベース215は、対話型ロボット20の対話方法や応答内容を、対話型ロボット20がとる性格毎に蓄積したものである。
次に、図4、5を参照して、本実施形態の制御サーバ40について説明する。図4は、制御サーバ40のハードウェア構成図である。図4に示すように、制御サーバ40は、CPU401、メモリ402、記憶装置403、通信インタフェース404、ユーザインタフェース405を備えて構成され、それぞれ制御バス406に接続されている。
CPU401は、記憶装置403に記憶された制御プログラムに基づいて制御サーバ40各部の動作を制御統括する。メモリ402には、対話型ロボット20から送信されてきた対話型ロボット20の位置情報や利用者60の顔写真、外面情報、或いは生体情報、利用者60に取り付けられた生体センサ70から送信されてきた利用者60の生体情報が記憶される。
記憶装置403は、ハードディスク・ドライブ(HDD)やソリッド・ステート・ドライブ(SSD)等であり、制御サーバ40を制御するための制御プログラムが記憶されている。さらに、記憶装置403には、後述するが、利用者性格データベースや制御サーバ40が利用者60の現在の精神状態を推定する際に使用する機械学習モデルが記憶されている。
通信インタフェース404は、制御サーバ40がアクセスポイント50を介して対話型ロボット20、および利用者60に取り付けられた生体センサ70と各種データの送受信を行うための通信制御を行う。ユーザインタフェース405は、液晶ディスプレイ等の表示装置、キーボードやマウス等の入力装置によって構成されており、記憶装置403に記憶されている制御プログラムを管理者が調整したりするためのものである。
図5は、制御サーバ40の機能ブロック図を示す。制御サーバ40は、記憶装置403に記憶されている制御プログラムをCPU401において実行することにより、図5に示されるように、利用者特定部411、利用者性格取得部412、センサ情報取得部413、精神状態推定部414、ロボット性格決定部415、ロボット性格情報送信部416、利用者性格データベース417、学習モデル記憶部418として機能する。
利用者特定部411は、対話型ロボット20のセンサ情報送信部211から送信されてきた利用者60の顔写真に基づいて対話型ロボット20の対話相手である利用者60が誰であるかを特定する。なお、利用者60の特定は、顔写真を使用する方法以外にも、音声データを解析する声紋認証を使用する方法を採用してもよい。
利用者性格取得部412は、利用者特定部411によって特定された利用者60の平常時の精神的傾向を表す平常時の性格情報を利用者性格データベース415から取得する。これら利用者の平常時の性格情報は、それぞれの利用者に対して事前に行った性格診断テスト、或いはアンケートの結果を利用者性格取得部412が解析することによって利用者性格データベース417に記憶するようにしてもよい。或いは、利用者性格取得部412は、対話型ロボット20を介して利用者60に対して性格診断テストを予め行い、その結果を解析することによって、利用者60の平常時の性格情報を生成し、利用者性格データベース417に記憶するようにしてもよい。
センサ情報取得部413は、対話型ロボット20のセンサ情報送信部211から送信されてきた利用者60の外面情報および生体情報、生体センサ70から送信されてきた生体情報を受信し、メモリ402に記憶する。
精神状態推定部414は、利用者性格取得部412によって取得された利用者60の平常時の性格情報と、センサ情報取得部413によって取得された利用者60の外面情報と生体情報とを後述する学習モデル記憶部418に記憶された機械学習モデルに入力し、出力として利用者60の精神状態を得ることにより現在の精神状態を推定する。
ロボット性格決定部415は、精神状態推定部414において推定された利用者60の現在の精神状態に応じて、対話型ロボット20がとるべき性格を決定する。これは利用者60の現在の各種精神状態と対話型ロボット20がとるべき性格とを関連付けて記憶した対応テーブル(図示せず)を予め生成しておき、ロボット性格決定部415はこの対応テーブルを参照することにより対話型ロボット20がとるべき性格を決定する。例えば、利用者60の現在の精神状態が「内向的かつ安定している」であれば、対話型ロボット20が取るべき性格は「内向的かつ安定している」とする。この対応テーブルは、管理者が手動で作成してもよいし、機械学習によって生成してもよい。機械学習によって対応テーブルを生成する場合は、様々な性格(精神状態)の利用者60と、様々な性格を発現させた対話型ロボット20を対話させ、利用者60に装着された生体センサ70や対話型ロボット20のカメラ205で検出した生体情報を解析し、それぞれの性格の利用者60にとって最も心地よく感じたと推定される対話型ロボット20の性格を対応テーブルに登録する。
ロボット性格情報送信部416は、ロボット性格決定部415によって決定された対話型ロボット20がとるべき性格を対話型ロボット20に送信する。
利用者性格データベース417は、利用者毎の平常時の精神的傾向を表す平常時の性格情報を蓄積したものである。例えば、利用者の平常時の性格情報を、外交的尺度、神経症的尺度、精神病的尺度で表し、数値で利用者毎に記憶している。なお、利用者の平常時の性格情報は、上述の要素で表される尺度に限定されず、他の尺度、例えば、精神的安定尺度、社会的適応尺度、衝動的尺度といった尺度で表してもよい。
学習モデル記憶部418は、機械学習モデルを格納している。機械学習モデルは、利用者の平常時の精神的傾向を表す平常時の性格情報と、利用者の現在の生体情報を入力した場合に、利用者の現在の精神状態を出力する。
図6は、利用者性格データベース417の一例を示す図である。図6を参照すると、「Aさん」~「Cさん」それぞれの「外交的尺度」、「神経症的尺度」、「精神病的尺度」が数値化されて登録されている。これらの数値は、対話型ロボット20と対話する可能性のある利用者60に対してアンケートを行い、その結果を管理者が制御サーバ40に手動で入力することにより登録されたものである。或いは、制御サーバ40の利用者性格取得部412が対話型ロボット20に対して性格診断テストを行うように指示し、その結果に基づいて利用者60の平常時の精神的傾向を表す平常時の性格情報を数値化するようにしてもよい。その場合、対話型ロボット20の対話制御部213は、制御サーバ40からの性格診断テストを実施するようにという指示に基づいて利用者30と対話を行いつつ性格診断テストを実施するとともに利用者30の回答を制御サーバ40に送信する。そして、制御サーバ40の利用者性格取得部412は性格診断テストの回答に基づいてそれぞれの利用者60の平常時の性格情報を数値化し、利用者性格データベース417に登録する。
次に、図7を参照して、対話制御システム10における対話制御処理の流れを説明する。図7は、本実施形態の制御サーバ40における対話制御処理の流れの一例を示すフローチャートである。なお、対話型ロボット20と対話する利用者60が誰であるかを特定する処理は、利用者特定部411により既に実施されているものとする。ステップS701において、制御サーバ40のセンサ情報取得部413は、生体センサ70から利用者60の皮膚電位に関するデータE(t)を取得し、メモリ402に記憶する。続くステップS702において、精神状態推定部414は、皮膚電位に関するデータE(t)に基づいて現時点における興奮度A(t)を算出し、ステップS705に進む。
ステップS701と並行して実施されるステップS703において、制御サーバ40のセンサ情報取得部413は、生体センサ70から利用者60の心拍数のデータH(t)と末梢血管の容積脈波に関するデータB(t)を取得し、メモリ402に記憶する。続くステップS704において、精神状態推定部414は、心拍数のデータH(t)、末梢血管の容積脈波のデータB(t)に基づいて現時点における感情度V(t)を算出し、ステップS705に進む。
ステップS705において、制御サーバ40の精神状態推定部414は、利用者60の現時点における精神状態を推定する。具体的には、利用者性格取得部412が利用者性格データベース417を参照することにより利用者60の平常時の精神的傾向を表す平常時の性格情報を取得する。さらに、精神状態推定部414は、ステップS702、S704においてそれぞれ算出された興奮度A(t)、感情度V(t)に基づいて、利用者60の現時点の精神状態が、平常時の性格情報P0からどれだけ変位したかを算出する。より具体的には、以下の式にて、精神状態f(t)を算出する。

f(t) = P0 × g(A(t), V(t))
図8は、生体センサ70から取得した生体データに基づいて推定される利用者60の精神状態を表した概念図である。図9は、利用者60の平常時の性格情報に対して生体センサ70から得られる生体データに基づく精神状態を考慮することによって現時点の精神状態を推定する方法を示した概念図である。図8では、横軸に感情度V(t)をとり、縦軸に興奮度A(t)をとっている。したがって、ステップS702、S704において算出された感情度V(t)、興奮度A(t)を図8上にプロットすることにより現時点の精神状態810をある程度推定することが可能である。しかしながら、本実施形態においては、生体センサ70から取得した生体データと、当該利用者60の平常時の性格情報のデータとに基づいて現時点の精神状態を推定している。
図9では、横軸を内向的-外交的尺度、縦軸を安定-不安定尺度で表している。例えば、図6に利用者性格データベース417から取得した利用者60の外交的尺度をそのまま横軸にプロットし、神経症的尺度を縦軸(安定-不安定尺度)でプロットすることにより、平常時の性格(平常時の精神的傾向)910(P0)を推定することができる。さらに、この平常時の性格から生体センサ70から取得したデータに基づいて算出された感情度V(t)、興奮度A(t)の分だけそれぞれ横軸、縦軸方向に変位した領域を現在の精神状態920として推定している。なお、図8の感情度と図9の内向的-外交的尺度とは必ずしも一対一で対応しているわけではなく、同様に図8の興奮度と図9の安定-不安定尺度も一対一で対応しているわけではないが、ここでは説明を簡単にするために、略同一の尺度として説明している。
図7のステップS706において、制御サーバ40のロボット性格決定部415は、上記ステップS705において推定された利用者60の現時点の精神状態が、予め定められた何れかの精神状態に該当するかを判定する。利用者60の精神状態が第1の精神状態(例えば、内向的かつ安定している)であると判定された場合、ステップS707の処理に進み、ロボット性格決定部415は、対話型ロボット20が取るべき性格を、上述の対応テーブルを参照し、性格A(例えば、利用者60と同じ、内向的かつ安定している)とすることを決定してロボット性格情報を生成し、生成されたロボット性格情報はロボット性格情報送信部416により対話型ロボット20に送信され、処理が終了される。なお、ロボット性格決定部415は、上述した対応テーブルを参照することにより対話型ロボット20がとるべき性格を決定する。さらに、対話型ロボット20のロボット性格情報受信部212は、制御サーバ40から送信されてきたロボット性格情報を受信し、対話制御部213は、受信したロボット性格情報に基づいてロボット性格情報データベース215を参照しつつ、決定されたロボットの性格で利用者60と対話を行う。
上記ステップS706において、利用者60の精神状態が第2~4の精神状態であるとそれぞれ判定された場合、それら判定された精神状態に応じてそれぞれステップS708~S710の処理に進み、ロボット性格決定部415は、上述の対応テーブルを参照し、対話型ロボット20が取るべき性格をB~Dとすることを決定するとともにそれぞれの性格に対応したロボット性格情報を生成し、ロボット性格情報送信部416がロボット性格情報を対話型ロボット20に送信し、処理を終了する。
上記ステップS706において、利用者60の精神状態が、予め定められた何れの精神状態にも該当しないと判定された場合は、処理を終了する。
次に、図10を参照して、対話制御システム10における対話制御処理の他の方法について説明する。図10は、本実施形態の制御サーバ40における対話制御処理の流れの他の例を示すフローチャートである。なお、対話型ロボット20と対話する利用者60が誰であるかを特定する処理は、利用者特定部411により既に実施されているものとする。ステップS1001において、制御サーバ40のセンサ情報取得部413は、生体センサ70から利用者60の皮膚電位に関するデータE(t)を取得し、メモリ402に記憶し、ステップS1004に進む。ステップS1001と並行して実行されるステップS1002において、制御サーバ40のセンサ情報取得部413は、生体センサ70から利用者60の心拍数のデータH(t)と末梢血管の容積脈波に関するデータB(t)を取得し、メモリ402に記憶し、ステップS1004に進む。
ステップS1001、S1002と並行して行われるステップS1003において、利用者性格取得部412は、利用者性格データベース417を参照することにより、利用者60の平常時の精神的傾向を表す平常時の性格情報P0(外交的尺度e、神経症的尺度s、精神病的尺度p)を取得し、ステップS1004に進む。
ステップS1004において、精神状態推定部414は、上記ステップS1001~S1003において取得された皮膚電位に関するデータE(t)、心拍数のデータH(t)、末梢血管の容積脈波に関するデータB(t)、利用者60の平常時の性格情報(e、s、p)を学習モデル記憶部418に記憶されている機械学習モデルに入力し、出力として利用者60の現在の精神状態f(t)を得ることにより、現在の精神状態を推定する。
ステップS1005において、制御サーバ40のロボット性格決定部415は、上記ステップS1005において推定された利用者60の現時点の精神状態が、予め定められた何れかの精神状態に該当するかを判定する。利用者60の精神状態が第1の精神状態(例えば、内向的かつ安定している)であると判定された場合、ステップS1006の処理に進み、ロボット性格決定部415は、対話型ロボット20が取るべき性格を、上述の対応テーブルを参照し、性格A(例えば、利用者60と同じ、内向的かつ安定している)とすることを決定してロボット性格情報を生成し、生成されたロボット性格情報はロボット性格情報送信部416により対話型ロボット20に送信され、処理が終了される。なお、対話型ロボット20のロボット性格情報受信部212は、制御サーバ40から送信されてきたロボット性格情報を受信し、対話制御部213は、受信したロボット性格情報に基づいてロボット性格情報データベース215を参照しつつ、決定されたロボットの性格で利用者60と対話を行う。
上記ステップS1005において、利用者60の精神状態が第2~4の精神状態であるとそれぞれ判定された場合、それら判定された精神状態に応じてそれぞれステップS1007~S1009の処理に進み、ロボット性格決定部415は、上述の対応テーブルを参照し、対話型ロボット20が取るべき性格をB~Dとすることを決定するとともにそれぞれの性格に対応したロボット性格情報を生成し、ロボット性格情報送信部416がロボット性格情報を対話型ロボット20に送信し、処理を終了する。
上記ステップS706において、利用者60の精神状態が、予め定められた何れの精神状態にも該当しないと判定された場合は、処理を終了する。
なお、上記図7の説明においては、生体センサ70によって測定されるデータに基づいて利用者60の興奮度A(t)、感情度V(t)を算出した場合を説明し、また、図10の説明においては、生体センサ70から取得したデータを機械学習モデルに入力する場合を説明したが、本発明は上記の例に限定されるものではなく、他のセンサによって利用者60の外面情報、或いは生体情報を検出するようにしてもよい。例えば、対話型ロボット20のカメラ205によって利用者60の表情、瞬き回数、体温を検出し、マイクロフォン206によって利用者60の音声の高さを検出し、これらに基づいて利用者60の興奮度A(t)を算出し、また、カメラ205によって検出される利用者60の表情、体の動き、姿勢、マイクロフォン206によって検出される利用者60の音声の高さに基づいて利用者60の感情度V(t)を算出するようにしてもよい。
また、上記図10の説明においては、利用者60の平常時の精神的傾向を表す平常時の性格情報と、生体センサ70から取得した利用者60の現在の感情の身体的徴候を機械学習モデルに入力することによって利用者60の現在の精神状態を推定する場合を説明したが、本発明は上記の例に限定されるものではなく、他のセンサの出力を機械学習モデルに入力するようにしてもよい。例えば、対話型ロボット20のカメラ205によって検出される利用者60の表情(口角や眉の角度)、瞬き回数、体温、体の動き、姿勢に関するデータ、およびマイクロフォン206によって検出される利用者60の音声の高さのデータを生体情報として機械学習モデルに入力することにより利用者の現在の精神状態を出力として得ることにより、利用者60の現在の精神状態を推定するようにしてもよい。
なお上記の実施形態においては、対話装置として対話型ロボット20を使用した場合について説明した。しかしながら、本発明においては、対話装置は、対話型ロボット20だけではなく、対話機能を備えた装置であればよく、例えば、対話機能を備える携帯端末装置であってもよい。
10 対話制御システム
20 対話型ロボット
30 ネットワーク
40 制御サーバ
50 アクセスポイント
60 利用者
70 生体センサ
100 ワークプレイス
201 制御用マイクロプロセッサ
202 メモリ
203 記憶装置
204 通信インタフェース
205 カメラ
206 マイクロフォン
207 スピーカ
208 モータ
209 現在位置検出装置
210 制御バス
211 センサ情報送信部
212 ロボット性格情報受信部
213 対話制御部
214 移動制御部
215 ロボット性格情報データベース
401 CPU
402 メモリ
403 記憶装置
404 通信インタフェース
405 ユーザインタフェース
406 制御バス
411 利用者特定部
412 利用者性格取得部
413 センサ情報取得部
414 精神状態推定部
415 ロボット性格決定部
416 ロボット性格情報送信部
417 利用者性格データベース
418 学習モデル記憶部

Claims (2)

  1. 対話装置と、
    利用者の生体情報と、利用者の性格情報の入力により、利用者の精神状態を出力するための機械学習モデルと、利用者の現在の精神状態と対話装置がとるべき性格とを対応付けて記憶した対応テーブルを記憶する記憶手段と、
    利用者によるアンケート又は性格診断テストの結果を解析することにより得られ、利用者の平常時の精神的傾向を表す数値化された平常時の性格情報を取得する取得手段と、
    利用者の皮膚電位、心拍数および末梢血管の容積脈波を生体情報として検出する検出手段と、
    検出された利用者の現時点の生体情報と、取得された利用者の平常時の性格情報とを、前記機械学習モデルに入力することにより出力した利用者の精神状態を利用者の現時点の精神状態と推定する推定手段と、
    推定された利用者の現時点の精神状態に対応する、予め定められた何れかの精神状態に応じた対話装置がとるべき性格に関する性格情報を前記対応テーブルから取得して、取得した性格情報を前記対話装置に送信して前記対話装置の性格を変更する変更手段と、
    前記対話装置を、変更後の性格で利用者と対話させる制御を行う制御手段とを備え、
    前記機械学習モデルは、利用者の皮膚電位に関するデータに基づいて利用者の現時点における興奮度を算出し、利用者の心拍数データおよび抹消血管の容積脈波データに基づいて利用者の現時点における感情度を算出し、算出された利用者の現時点における興奮度および感情度に基づいて、利用者の現時点の精神状態が平常時の性格情報からどれだけ変位したかを算出することにより、利用者の現時点の精神状態を出力する
    対話制御システム。
  2. 前記取得手段は、利用者の外交性-内向性尺度、神経症的尺度、および精神病傾向尺度を数値化した性格情報を取得する、請求項記載の対話制御システム。
JP2016210313A 2016-10-27 2016-10-27 対話制御システム Active JP7003400B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016210313A JP7003400B2 (ja) 2016-10-27 2016-10-27 対話制御システム
US15/647,279 US20180121784A1 (en) 2016-10-27 2017-07-12 Conversation control system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016210313A JP7003400B2 (ja) 2016-10-27 2016-10-27 対話制御システム

Publications (2)

Publication Number Publication Date
JP2018068548A JP2018068548A (ja) 2018-05-10
JP7003400B2 true JP7003400B2 (ja) 2022-01-20

Family

ID=62021589

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016210313A Active JP7003400B2 (ja) 2016-10-27 2016-10-27 対話制御システム

Country Status (2)

Country Link
US (1) US20180121784A1 (ja)
JP (1) JP7003400B2 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102497042B1 (ko) 2018-01-29 2023-02-07 삼성전자주식회사 사용자 행동을 바탕으로 반응하는 로봇 및 그의 제어 방법
US10841247B2 (en) * 2018-02-02 2020-11-17 Sony Interactive Entertainment Inc. Social media connection for a robot
WO2019227505A1 (en) * 2018-06-02 2019-12-05 Beijing Didi Infinity Technology And Development Co., Ltd. Systems and methods for training and using chatbot
KR102140685B1 (ko) * 2018-09-14 2020-08-04 한국과학기술연구원 사용자 성격을 고려한 강화학습 기반 적응형 로봇 대화시스템 및 이를 이용한 적응형 로봇 대화방법
KR102314385B1 (ko) * 2019-08-08 2021-10-19 엘지전자 주식회사 로봇 및 그의 제어 방법
US12039420B2 (en) * 2020-09-25 2024-07-16 Kpn Innovations, Llc. System and method for generating a direction inquiry response from biological extractions using machine learning
JP6990472B1 (ja) 2021-03-23 2022-01-12 ユニロボット株式会社 人とコミュニケーションを行うシステム及びそのためのプログラム

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000222378A (ja) 1998-08-06 2000-08-11 Yamaha Motor Co Ltd 疑似感情及び/又は疑似性格を用いた制御対象の制御方法、使用者に適合して動作する自律装置、使用者の特徴に装置の動作を適合させる方法
JP2004021121A (ja) 2002-06-19 2004-01-22 Nec Corp 音声対話制御装置
JP2005258235A (ja) 2004-03-15 2005-09-22 Hitachi Ltd 感情発話検知による対話修正機能を備えた対話制御装置
JP2006313287A (ja) 2005-05-09 2006-11-16 Toyota Motor Corp 音声対話装置
JP2007133728A (ja) 2005-11-11 2007-05-31 Kenwood Corp エージェント装置、エージェント機能付車載用ナビゲーション装置、エージェント出力方法
JP2008278981A (ja) 2007-05-09 2008-11-20 Advanced Telecommunication Research Institute International 性格判別装置、性格判別方法、コミュニケーションロボットおよび電子機器
US20140234815A1 (en) 2013-02-18 2014-08-21 Electronics And Telecommunications Research Institute Apparatus and method for emotion interaction based on biological signals

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08339446A (ja) * 1995-06-09 1996-12-24 Sharp Corp 対話装置
JPH11259446A (ja) * 1998-03-12 1999-09-24 Aqueous Reserch:Kk エージェント装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000222378A (ja) 1998-08-06 2000-08-11 Yamaha Motor Co Ltd 疑似感情及び/又は疑似性格を用いた制御対象の制御方法、使用者に適合して動作する自律装置、使用者の特徴に装置の動作を適合させる方法
JP2004021121A (ja) 2002-06-19 2004-01-22 Nec Corp 音声対話制御装置
JP2005258235A (ja) 2004-03-15 2005-09-22 Hitachi Ltd 感情発話検知による対話修正機能を備えた対話制御装置
JP2006313287A (ja) 2005-05-09 2006-11-16 Toyota Motor Corp 音声対話装置
JP2007133728A (ja) 2005-11-11 2007-05-31 Kenwood Corp エージェント装置、エージェント機能付車載用ナビゲーション装置、エージェント出力方法
JP2008278981A (ja) 2007-05-09 2008-11-20 Advanced Telecommunication Research Institute International 性格判別装置、性格判別方法、コミュニケーションロボットおよび電子機器
US20140234815A1 (en) 2013-02-18 2014-08-21 Electronics And Telecommunications Research Institute Apparatus and method for emotion interaction based on biological signals

Also Published As

Publication number Publication date
US20180121784A1 (en) 2018-05-03
JP2018068548A (ja) 2018-05-10

Similar Documents

Publication Publication Date Title
JP7003400B2 (ja) 対話制御システム
JP6761598B2 (ja) 感情推定システム、感情推定モデル生成システム
JP6264495B1 (ja) 運転者監視装置、運転者監視方法、学習装置及び学習方法
CN112673378B (zh) 推断器生成装置、监视装置、推断器生成方法以及推断器生成程序
EP3186751B1 (en) Localized learning from a global model
WO2017215297A1 (zh) 云端互动***及其多感知型智能机器人和感知互动方法
JP6774018B2 (ja) 対話装置
US9769166B1 (en) Wearable sensor based system for person identification
JP6191242B2 (ja) 集中度推定装置
KR20200048201A (ko) 전자 장치 및 이의 제어 방법
JP2004237022A (ja) 情報処理装置および方法、プログラム、並びに記録媒体
JP2012059107A (ja) 感情推定装置、感情推定方法およびプログラム
JP7520123B2 (ja) 人間-ロボット混在製造プロセスにおける自動異常検出のためのシステムおよび方法
CN112219234B (zh) 标识虚拟现实环境的用户的生理压力的方法、介质和***
JP6040745B2 (ja) 情報処理装置、情報処理方法、情報処理プログラム及びコンテンツ提供システム
KR102363879B1 (ko) 환자의 상지 동작에 의해 도출되는 특징값을 이용한 임상평가척도 예측 방법
JP6573416B1 (ja) 血圧推定装置、血圧推定システム、および血圧推定プログラム
KR102511517B1 (ko) 음성 입력 처리 방법 및 이를 지원하는 전자 장치
KR102499379B1 (ko) 전자 장치 및 이의 피드백 정보 획득 방법
JP2004066367A (ja) 行動パターン生成装置、行動パターン生成方法、及び行動パターン生成プログラム
JP2021135363A (ja) 制御システム、制御装置、制御方法及びコンピュータプログラム
JP2018075657A (ja) 生成プログラム、生成装置、制御プログラム、制御方法、ロボット装置及び通話システム
JP6657048B2 (ja) 処理結果異常検出装置、処理結果異常検出プログラム、処理結果異常検出方法及び移動体
Ktistakis et al. A multimodal human-machine interaction scheme for an intelligent robotic nurse
KR101564933B1 (ko) 네트워크 기반의 사용자 감성 추론 장치 및 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190910

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200923

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200928

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20201102

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210309

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210419

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211026

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211115

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211130

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211213

R150 Certificate of patent or registration of utility model

Ref document number: 7003400

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150