JP7031268B2 - 情報伝達装置及びプログラム - Google Patents

情報伝達装置及びプログラム Download PDF

Info

Publication number
JP7031268B2
JP7031268B2 JP2017236152A JP2017236152A JP7031268B2 JP 7031268 B2 JP7031268 B2 JP 7031268B2 JP 2017236152 A JP2017236152 A JP 2017236152A JP 2017236152 A JP2017236152 A JP 2017236152A JP 7031268 B2 JP7031268 B2 JP 7031268B2
Authority
JP
Japan
Prior art keywords
user
information
interlocutor
situation
question
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017236152A
Other languages
English (en)
Other versions
JP2019106567A (ja
Inventor
雅弘 佐藤
賢吾 得地
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Fujifilm Business Innovation Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd, Fujifilm Business Innovation Corp filed Critical Fuji Xerox Co Ltd
Priority to JP2017236152A priority Critical patent/JP7031268B2/ja
Priority to US15/984,424 priority patent/US10984197B2/en
Priority to CN201810617910.2A priority patent/CN109905544B/zh
Publication of JP2019106567A publication Critical patent/JP2019106567A/ja
Application granted granted Critical
Publication of JP7031268B2 publication Critical patent/JP7031268B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H10/00ICT specially adapted for the handling or processing of patient-related medical or healthcare data
    • G16H10/20ICT specially adapted for the handling or processing of patient-related medical or healthcare data for electronic clinical trials or questionnaires
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0002Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network
    • A61B5/0015Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network characterised by features of the telemetry system
    • A61B5/0022Monitoring a patient using a global network, e.g. telephone networks, internet
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4803Speech analysis specially adapted for diagnostic purposes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/486Bio-feedback
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6843Monitoring or controlling sensor contact pressure
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7282Event detection, e.g. detecting unique waveforms indicative of a medical condition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/7465Arrangements for interactive communication between patient and care services, e.g. by using a telephone network
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/117Identification of persons

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Pathology (AREA)
  • Physics & Mathematics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Veterinary Medicine (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Theoretical Computer Science (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Artificial Intelligence (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Nursing (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Physiology (AREA)
  • Psychiatry (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Telephonic Communication Services (AREA)
  • User Interface Of Digital Computer (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

本発明は、情報伝達装置及びプログラムに関する。
外線または内線から入力する音声信号を分析して話者の喜怒哀楽に係る感情の度合いを検出して数値化する感情検出手段と、感情検出手段が数値化した内線毎の感情の度合いに係る情報を所定の内線または外線に通知する感情通知手段と、を有する電話主装置は、知られている(例えば、特許文献1参照)。
送話音声または受話音声を分析して送話者の喜怒哀楽に係る感情の度合いを検出して数値化する感情検出手段と、複数の回線の各々の送話音声または受話音声の有音期間を検出する有音検出手段と、回線を選択して選択した回線を流れる送話音声または受話音声を感情検出手段に入力する回線選択手段と、を有し、有音検出手段が有音期間を検出する毎に、回線選択手段は回線を流れる送話音声または受話音声を一定時間以上感情検出手段に入力し、感情検出手段は入力された送話音声または受話音声を分析して送話者の喜怒哀楽に係る感情の度合いを検出し、検出した感情の度合いに係る情報を回線もしくは送話者と関連付けて記憶する、または所定の宛先へ通知する回線毎感情検出機能を有する電話制御装置も、知られている(例えば、特許文献2参照)。
特開2011-160260号公報 特開2012-054892号公報
ここで、使用者に対して、使用者と対話する対話者の喜怒哀楽に係る感情の度合いに係る情報を伝達するに過ぎない構成を採用した場合には、使用者に対して、使用者と対話する対話者の状況に応じて提供すべき情報を伝達することはできない。
本発明の目的は、使用者に対して、使用者と対話する対話者の状況に応じて提供すべき情報を伝達することにある。
請求項1に記載の発明は、使用者と対話する対話者の身体に関する状況と、当該対話者の対話に関する状況とを把握する把握手段と、前記把握手段により把握された、前記対話者の身体に関する状況と、前記対話者の対話に関する状況とに応じて提供すべき提供情報を、前記使用者に伝達する伝達手段とを備え、前記把握手段は、前記対話者の身体に関する状況として、当該対話者の身体の状態の変化を把握し、前記対話者の対話に関する状況として、前記使用者の質問に対する当該対話者の回答内容を把握し、前記伝達手段は、前記対話者の回答内容が出現した際の当該対話者の身体の状態の変化に応じた前記提供情報を、前記使用者に伝達することを特徴とする情報伝達装置である。
請求項2に記載の発明は、使用者と対話する対話者の状況を把握する把握手段と、前記把握手段により把握された前記対話者の状況に応じて提供すべき提供情報を、前記使用者に伝達する伝達手段とを備え、前記伝達手段は、前記対話者の状況を把握するための手順を指示する指示情報を、前記使用者に更に伝達し、前記伝達手段は、操作部の操作により、前記指示情報及び前記提供情報を切り替えながら、前記使用者の左右の聴覚の一方に伝達することを特徴とする情報伝達装置である。
請求項3に記載の発明は、使用者と対話する対話者の状況を把握する把握手段と、前記把握手段により把握された前記対話者の状況に応じて提供すべき提供情報を、前記使用者に伝達する伝達手段とを備え、前記伝達手段は、前記対話者の状況を把握するための手順を指示する指示情報を、前記使用者に更に伝達し、前記伝達手段は、前記指示情報を前記使用者の左右の聴覚の一方に伝達し、前記提供情報を前記使用者の左右の聴覚の他方に伝達することを特徴とする情報伝達装置である。
請求項4に記載の発明は、使用者と対話する対話者の状況を把握する把握手段と、前記把握手段により把握された前記対話者の状況に応じて提供すべき提供情報を、前記使用者に伝達する伝達手段とを備え、前記伝達手段は、前記使用者の質問の手順を指示する指示情報と、当該使用者の質問に対する前記対話者の回答内容に応じた前記提供情報とを、当該使用者に伝達し、前記伝達手段は、前記指示情報のうちの特定の質問を指示する部分を、前記使用者に伝達し始めた後は、当該特定の質問の前の質問に対する前記対話者の回答内容に応じた前記提供情報を、当該使用者に伝達しないことを特徴とする情報伝達装置である。
請求項5に記載の発明は、使用者と対話する対話者の状況を把握する把握手段と、前記把握手段により把握された前記対話者の状況に応じて提供すべき提供情報を、前記使用者に伝達する伝達手段とを備え、前記伝達手段は、前記使用者の質問の手順を指示する指示情報と、当該使用者の質問に対する前記対話者の回答内容に応じた前記提供情報とを、当該使用者に伝達し、前記伝達手段は、前記指示情報のうちの特定の質問を指示する部分を、前記使用者に伝達し始めた後であって、前記指示情報の全ての部分を、当該使用者に伝達し終える前に、当該特定の質問の前の質問に対する前記対話者の回答内容に応じた前記提供情報を、当該使用者に伝達することを特徴とする情報伝達装置である。
請求項6に記載の発明は、使用者と対話する対話者の状況を把握する把握手段と、前記把握手段により把握された前記対話者の状況に応じて提供すべき提供情報を、前記使用者に伝達する伝達手段とを備え、前記伝達手段は、前記使用者の質問の手順を指示する指示情報と、当該使用者の質問に対する前記対話者の回答内容に応じた前記提供情報とを、当該使用者に伝達し、前記伝達手段は、前記指示情報の全ての部分を、前記使用者に伝達し終えた後に、前記指示情報のうちの特定の質問に対する前記対話者の回答内容に応じた前記提供情報を、当該使用者に伝達することを特徴とする情報伝達装置である。
請求項7に記載の発明は、コンピュータに、使用者と対話する対話者の身体に関する状況と、当該対話者の対話に関する状況とを把握する機能と、把握された、前記対話者の身体に関する状況と、前記対話者の対話に関する状況とに応じて提供すべき提供情報を、前記使用者に伝達する機能とを実現させ、前記把握する機能は、前記対話者の身体に関する状況として、当該対話者の身体の状態の変化を把握し、前記対話者の対話に関する状況として、前記使用者の質問に対する当該対話者の回答内容を把握し、前記伝達する機能は、前記対話者の回答内容が出現した際の当該対話者の身体の状態の変化に応じた前記提供情報を、前記使用者に伝達するプログラムである。
請求項8に記載の発明は、コンピュータに、使用者と対話する対話者の状況を把握する機能と、把握された前記対話者の状況に応じて提供すべき提供情報を、前記使用者に伝達する機能とを実現させ、前記伝達する機能は、前記対話者の状況を把握するための手順を指示する指示情報を、前記使用者に更に伝達し、前記伝達する機能は、操作部の操作により、前記指示情報及び前記提供情報を切り替えながら、前記使用者の左右の聴覚の一方に伝達するプログラムである。
請求項9に記載の発明は、コンピュータに、使用者と対話する対話者の状況を把握する機能と、把握された前記対話者の状況に応じて提供すべき提供情報を、前記使用者に伝達する機能とを実現させ、前記伝達する機能は、前記対話者の状況を把握するための手順を指示する指示情報を、前記使用者に更に伝達し、前記伝達する機能は、前記指示情報を前記使用者の左右の聴覚の一方に伝達し、前記提供情報を前記使用者の左右の聴覚の他方に伝達するプログラムである。
請求項10に記載の発明は、コンピュータに、使用者と対話する対話者の状況を把握する機能と、把握された前記対話者の状況に応じて提供すべき提供情報を、前記使用者に伝達する機能とを実現させ、前記伝達する機能は、前記使用者の質問の手順を指示する指示情報と、当該使用者の質問に対する前記対話者の回答内容に応じた前記提供情報とを、当該使用者に伝達し、前記伝達する機能は、前記指示情報のうちの特定の質問を指示する部分を、前記使用者に伝達し始めた後は、当該特定の質問の前の質問に対する前記対話者の回答内容に応じた前記提供情報を、当該使用者に伝達しないプログラムである。
請求項11に記載の発明は、コンピュータに、使用者と対話する対話者の状況を把握する機能と、把握された前記対話者の状況に応じて提供すべき提供情報を、前記使用者に伝達する機能とを実現させ、前記伝達する機能は、前記使用者の質問の手順を指示する指示情報と、当該使用者の質問に対する前記対話者の回答内容に応じた前記提供情報とを、当該使用者に伝達し、前記伝達する機能は、前記指示情報のうちの特定の質問を指示する部分を、前記使用者に伝達し始めた後であって、前記指示情報の全ての部分を、当該使用者に伝達し終える前に、当該特定の質問の前の質問に対する前記対話者の回答内容に応じた前記提供情報を、当該使用者に伝達するプログラムである。
請求項12に記載の発明は、コンピュータに、使用者と対話する対話者の状況を把握する機能と、把握された前記対話者の状況に応じて提供すべき提供情報を、前記使用者に伝達する機能とを実現させ、前記伝達する機能は、前記使用者の質問の手順を指示する指示情報と、当該使用者の質問に対する前記対話者の回答内容に応じた前記提供情報とを、当該使用者に伝達し、前記伝達する機能は、前記指示情報の全ての部分を、前記使用者に伝達し終えた後に、前記指示情報のうちの特定の質問に対する前記対話者の回答内容に応じた前記提供情報を、当該使用者に伝達するプログラムである。
請求項1の発明によれば、使用者に対して、使用者の質問に対する対話者の回答内容が出現した際の対話者の身体の状態の変化に応じた情報を伝達することができる。
請求項2の発明によれば、使用者に対して、対話者の状況を把握するための手順と、対話者の状況に応じて提供すべき情報とを、操作部の操作により切り替えながら伝達することができる。
請求項3の発明によれば、使用者に対して、対話者の状況を把握するための手順と、対話者の状況に応じて提供すべき情報とを、左右の聴覚の間で切り替えながら伝達することができる。
請求項4の発明によれば、使用者に対して、質問の手順のうちのある質問の部分を指示し始めた後に、その前の質問に対する対話者の回答内容に応じた情報を伝達するよう構成された場合に比較して、指示される手順と伝達される情報との錯綜を軽減し、かつ、全体の処理を早く終了させることができる。
請求項5の発明によれば、使用者に対して、質問の手順のうちのある質問の部分を指示し始めた後に、その前の質問に対する対話者の回答内容に応じた情報を伝達する際、質問の手順の全てを指示し終えた後に情報を伝達するよう構成された場合に比較して、迅速に情報を伝達することができる。
請求項6の発明によれば、使用者に対して、質問の手順のうちのある質問の部分を指示し始めた後に、その前の質問に対する対話者の回答内容に応じた情報を伝達する際、質問の手順の全てを指示し終える前に情報を伝達するよう構成された場合に比較して、指示される手順と伝達される情報との錯綜を軽減することができる。
請求項7の発明によれば、使用者に対して、使用者の質問に対する対話者の回答内容が出現した際の対話者の身体の状態の変化に応じた情報を伝達することができる。
請求項8の発明によれば、使用者に対して、対話者の状況を把握するための手順と、対話者の状況に応じて提供すべき情報とを、操作部の操作により切り替えながら伝達することができる。
請求項9の発明によれば、使用者に対して、対話者の状況を把握するための手順と、対話者の状況に応じて提供すべき情報とを、左右の聴覚の間で切り替えながら伝達することができる。
請求項10の発明によれば、使用者に対して、質問の手順のうちのある質問の部分を指示し始めた後に、その前の質問に対する対話者の回答内容に応じた情報を伝達するよう構成された場合に比較して、指示される手順と伝達される情報との錯綜を軽減し、かつ、全体の処理を早く終了させることができる。
請求項11の発明によれば、使用者に対して、質問の手順のうちのある質問の部分を指示し始めた後に、その前の質問に対する対話者の回答内容に応じた情報を伝達する際、質問の手順の全てを指示し終えた後に情報を伝達するよう構成された場合に比較して、迅速に情報を伝達することができる。
請求項12の発明によれば、使用者に対して、質問の手順のうちのある質問の部分を指示し始めた後に、その前の質問に対する対話者の回答内容に応じた情報を伝達する際、質問の手順の全てを指示し終える前に情報を伝達するよう構成された場合に比較して、指示される手順と伝達される情報との錯綜を軽減することができる。
(a)~(c)は、各シチュエーションにおける対話内容の例を示した図である。 本発明の第1の実施の形態における情報提供装置の機能構成例を示したブロック図である。 本発明の第1の実施の形態における情報提供装置の第1のシチュエーションにおける動作例を示したフローチャートである。 本発明の第1の実施の形態における情報提供装置の第2のシチュエーションにおける動作例を示したフローチャートである。 本発明の第2の実施の形態における情報提供装置の機能構成例を示したブロック図である。 本発明の第2の実施の形態における情報提供装置の第1のシチュエーションにおける動作例を示したフローチャートである。 本発明の第2の実施の形態における情報提供装置の第2のシチュエーションにおける動作例を示したフローチャートである。 本発明の第3の実施の形態における情報提供装置の機能構成例を示したブロック図である。 本発明の第3の実施の形態における情報提供装置の第1のシチュエーションにおける動作例を示したフローチャートである。 本発明の第3の実施の形態における情報提供装置の第2のシチュエーションにおける動作例を示したフローチャートである。 本発明の第4の実施の形態における情報提供装置の機能構成例を示したブロック図である。 本発明の第4の実施の形態における情報提供装置の第1のシチュエーションにおける動作例を示したフローチャートである。 本発明の第4の実施の形態における情報提供装置の第2のシチュエーションにおける動作例を示したフローチャートである。 本発明の第5の実施の形態における情報提供装置の機能構成例を示したブロック図である。 本発明の第5の実施の形態における情報提供装置の第1のシチュエーションにおける動作例を示したフローチャートである。 本発明の第5の実施の形態における情報提供装置の第2のシチュエーションにおける動作例を示したフローチャートである。 本発明の第1乃至第5の実施の形態における情報提供装置のハードウェア構成例を示した図である。
以下、添付図面を参照して、本発明の実施の形態について詳細に説明する。
本実施の形態は、使用者(使用ユーザ)と対話する対話者(相手ユーザ)の状況を把握し、この把握された相手ユーザの状況に応じて提供すべき情報(以下、「提供情報」という)を、使用ユーザに伝達する装置を提供する。ここで、使用ユーザと相手ユーザとの対話としては、これに限るものではないが、以下では、2つのシチュエーションでの対話を想定する。第1のシチュエーションは、相手ユーザの身体の状態を提供情報に反映させることが有効なシチュエーションである。例えば、医者がある症状の患者を診察するシチュエーションがある。第2のシチュエーションは、相手ユーザの身体の状態の変化を提供情報に反映させることが有効なシチュエーションである。例えば、セールスマンがある商品の購入を考えている顧客と話すシチュエーションや、メンテナンスマンがある製品の不具合を訴える顧客と話すシチュエーションがある。
図1(a)~(c)は、これらのシチュエーションにおける対話内容の例を示した図である。
このうち、(a)は、上述した、医者がある症状の患者を診察するシチュエーションにおける対話の例である。ここでは、医者の「頻度と量はどのくらいですか?」という質問に対して、患者が「毎晩、日本酒1合くらい」と回答している。この場合に、患者の身体の状態が、血圧及び脈拍が高いという状態であれば、患者の身体の状態に応じた提供情報として、酒を控えること及び精密検査を行うことを患者に勧めるべき旨の提供情報を、医者に提供することが考えられる。
また、(b)は、上述した、セールスマンがある商品(冷蔵庫とする)の購入を考えている顧客と話すシチュエーションにおける対話の例である。ここでは、セールスマンの「現状の冷蔵庫の設置スペースはどのくらいですか?」という質問に対して、顧客が「XXくらいかな」と回答し、セールスマンの「予算はどのくらいですか?」という質問に対して、顧客が「YY円くらい」と回答している。これらの回答の際に、この顧客の身体の状態の変化が大きかったとする。設置スペースについては、「XXくらいかな」という曖昧な回答をしたために身体の状態の変化が大きかった可能性もあるので、回答が実際の意図に沿うものであるか不明確であるが、予算については、「XXくらい」と明確な回答をしたにも関わらず身体の状態の変化が大きかったので、回答が実際の意図に反して高い予算を提示するものである可能性がある。従って、顧客の身体の状態の変化に応じた提供情報として、予算を抑える方向で話を進めるべき旨の提供情報を、セールスマンに提供することが考えられる。
更に、(c)は、上述した、メンテナンスマンがある製品の不具合(プリンタの紙詰まりとする)を訴える顧客と話すシチュエーションにおける対話の例である。ここでは、メンテナンスマンの「用紙はカセットの中にセットしたものから給紙しましたか?」という質問に対して、顧客が「はい」と回答している。この回答の際に、顧客の身体の状態の変化が大きければ、回答が事実に反する可能性がある。従って、顧客の身体の状態の変化に応じた提供情報として、用紙は手差しから給紙したのではないか、用紙は吸湿していなかったか等を確認すべき旨の提供情報を、メンテナンスマンに提供することが考えられる。
以下、このような情報を提供する装置を情報提供装置と称することとし、本実施の形態における情報提供装置について詳細に説明する。また、相手ユーザの状況としては、相手ユーザの身体に関する状況及び対話に関する状況を例にとって説明する。
[第1の実施の形態]
図2は、第1の実施の形態における情報提供装置10の機能構成例を示したブロック図である。図示するように、第1の実施の形態における情報提供装置10は、目的設定部11と、非接触検知部13と、対話内容解析部15と、提供情報取得部16と、情報出力部17とを備える。
目的設定部11は、情報を提供する目的を設定する。ここで、目的としては、診察、セールス、メンテナンスといった大きな分類を設定してもよいが、以下では、診察の場合の患者の症状、セールスの場合の商品、メンテナンスの場合の製品の不具合といったより細かな分類を設定するものとする。
診察の場合、例えば、予め用意された症状のリストから使用ユーザである医者が何れかの症状を選択すると、目的設定部11は、選択された症状を目的として設定すればよい。或いは、目的設定部11は、患者が事前に記入した問診票を解析して症状を推測し、推測された症状を目的として設定してもよい。
セールスの場合、例えば、予め用意された商品のリストから使用ユーザであるセールスマンが何れかの商品を選択すると、目的設定部11は、選択された商品を目的として設定すればよい。或いは、目的設定部11は、顧客が店舗を訪れた際の会話を分析して購入対象の商品を推測し、推測された商品を目的として設定してもよい。
メンテナンスの場合、例えば、予め用意された不具合のリストから使用ユーザであるメンテナンスマンが何れかの不具合を選択すると、目的設定部11は、選択された不具合を目的として設定すればよい。或いは、目的設定部11は、メンテナンス対象の製品の状況を分析して不具合を推測し、推測された不具合を目的として設定してもよい。
本実施の形態では、対話者の状況の把握の目的を特定する特定手段の一例として、目的設定部11を設けている。
非接触検知部13は、相手ユーザの身体に直接触れずに生体情報を測定可能な非接触センサ(図示せず)に接続されており、この非接触センサが検知した生体情報を取得し、その生体情報又はその生体情報の時間変化を算出したものを検知情報とする。ここで、非接触センサとしては、例えば、体温、脈動、血流状態等を測定可能なものを用いればよい。診察の場合、非接触検知部13は、相手ユーザの体温、脈動、血流状態等を検知情報とし、セールスやメンテナンスの場合、非接触検知部13は、相手ユーザの体温、脈動、血流状態等の時間変化を算出したものを検知情報とする。本実施の形態では、対話者の身体に接触しない状態で対話者の身体の状態を検知する非接触検知手段の一例として、非接触センサを用いており、非接触検知手段を用いて対話者の身体の状態又は状態の変化を把握する把握手段の一例として、非接触検知部13を設けている。
対話内容解析部15は、使用ユーザが相手ユーザに行った質問に対する回答の内容を解析し、目的設定部11により設定された目的に合致したキーワードを回答の内容から抽出する。また、第1のシチュエーションにおいては、キーワードに関連する関連ワードを、回答の内容から更に抽出する。加えて、対話内容解析部15は、「はい」「いいえ」等の質問に対する肯定又は否定を表す言葉が回答中にあった場合にそれが何に対する肯定又は否定を表す言葉であるかを判定するために、質問についても解析を行う。
診察の場合は、医者が、目的として設定された症状の患者に対し、その症状に影響を与える事項を質問し、患者が、その質問に対して回答したとする。すると、対話内容解析部15は、その回答の内容を記録して解析し、その症状に紐付けられたキーワードを抽出する。このようなキーワードには、例えば、「酒」、「タバコ」等の生活習慣に関するキーワードがある。また、対話内容解析部15は、症状ごとに、キーワードと、そのキーワードに関連する関連項目とを紐付けた目的別辞書を保持する。キーワードが「酒」や「タバコ」であれば、関連項目は、例えば、頻度や量である。これにより、対話内容解析部15は、目的別辞書でキーワードに紐付けられた関連項目の具体的な内容を示す「〇〇日に1回」、「××合」等の関連ワードを、回答の内容のキーワードの周辺部分から抽出する。このようにして抽出されたキーワード及び関連ワードを、以下では、「抽出情報」と称する。
セールスの場合は、セールスマンが、目的として設定された商品の購入を考えている顧客に対し、その商品の購入を考えている背景や事情、その商品に対する興味や好み等を質問し、顧客が、その質問に対して回答したとする。すると、対話内容解析部15は、その回答の内容を記録して解析し、その商品に紐づけられたキーワードを抽出する。このようなキーワードには、例えば、商品が大きなものであれば、設置スペースに関するキーワードがあり、商品が高価なものであれば、予算に関するキーワードがある。
メンテナンスの場合は、メンテナンスマンが、目的として設定された製品の不具合を訴えている顧客に対し、その不具合が発生した際の製品の使用状況、その不具合の状況等を質問し、顧客が、その質問に対して回答したとする。すると、対話内容解析部15は、その回答の内容を記録して解析し、その不具合に紐付けられたキーワードを抽出する。このようなキーワードには、例えば、不具合がプリンタの紙詰まりに関するものであれば、用紙の給紙方法や保管状態等に関するキーワードがある。
本実施の形態では、使用者の質問に対する対話者の回答内容を把握する把握手段の一例として、対話内容解析部15を設けている。
提供情報取得部16は、非接触検知部13により検知情報とされた生体情報又はその変化と、対話内容解析部15により抽出された抽出情報又はキーワードとを照合することにより、提供情報を取得する。
第1のシチュエーションでは、提供情報取得部16は、目的別データベースに、抽出情報と生体情報とに紐付けられて、提供情報が登録されているかどうか判断し、登録されていれば、この提供情報を取得する。診察の場合、提供情報取得部16は、例えば、抽出情報と生体情報とに紐付けられて、症状ごとのデータベースに、症状やその症状に対して処方されるであろう薬に対して悪影響がある生活習慣等が提供情報として登録されていれば、そのような提供情報を取得する。
第2のシチュエーションでは、提供情報取得部16は、回答の内容にキーワードが出現した際に生体情報の変化が大きい場合に、そのキーワードに応じた提供情報を取得する。セールスの場合及びメンテナンスの場合、提供情報取得部16は、例えば、生体情報の変化が著しい時に出現していたキーワードを提供情報として取得してもよい。
情報出力部17は、提供情報取得部16により取得された提供情報を、使用ユーザに対して出力する。ここで、提供情報の出力は、これに限るものではないが、以下では、音出力部97(図17参照)を介して音声によって行うものとする。本実施の形態では、対話者の状況に応じて提供すべき提供情報を使用者に伝達する伝達手段の一例として、情報出力部17を設けている。
尚、この第1の実施の形態では、使用者の質問に対する対話者の回答内容を把握する把握手段の一例として、非接触検知部13及び対話内容解析部15を設けたが、これらの一方のみを設けてもよい。また、情報提供装置10が、情報を提供する目的が1つに決まっている装置である場合、目的設定部11は設けなくてもよい。
図3は、第1の実施の形態における情報提供装置10の第1のシチュエーションにおける動作例を示したフローチャートである。
図示するように、情報提供装置10では、まず、目的設定部11が、情報を提供する目的を設定する(ステップ101)。
この状態で、使用ユーザが相手ユーザに質問し、相手ユーザがその質問に対して回答すると、対話内容解析部15が、回答からキーワードを抽出する(ステップ102)。そして、抽出したキーワードが目的別辞書に登録されているかどうかを判定する(ステップ103)。
キーワードが目的別辞書に登録されていると判定すれば、対話内容解析部15は、回答から関連ワードを抽出する(ステップ104)。具体的には、キーワードに紐付けて目的別辞書に登録された関連項目を取得し、この関連項目の具体的な内容を示す関連ワードを回答から抽出する。
一方で、非接触検知部13が、非接触センサを用いて、相手ユーザの生体情報を検知する(ステップ105)。
すると、提供情報取得部16が、ステップ102及びステップ104で抽出された抽出情報と、ステップ105で検知された生体情報とのペアがデータベースに登録されているかどうかを判定する(ステップ106)。
抽出情報と生体情報とのペアがデータベースに登録されていると判定すれば、提供情報取得部16は、このペアに紐付けてデータベースに登録された提供情報を取得する(ステップ107)。
次いで、情報出力部17が、ステップ107で取得された提供情報を、使用ユーザに対して音声により出力する(ステップ108)。
その後、対話内容解析部15は、使用ユーザが相手ユーザに次の質問を行っているかどうかを判定する(ステップ109)。また、ステップ103でキーワードが目的別辞書に登録されていると判定されなかった場合や、ステップ106で抽出情報と生体情報とのペアがデータベースに登録されていると判定されなかった場合も、使用ユーザが相手ユーザに次の質問を行っているかどうかを判定する(ステップ109)。その結果、使用ユーザが相手ユーザに次の質問を行っていると判定されれば、情報提供装置10は、処理をステップ102へ戻して、以降の処理を繰り返す。一方、使用ユーザが相手ユーザに次の質問を行っていると判定されなければ、情報提供装置10は、処理を終了する。
図4は、第1の実施の形態における情報提供装置10の第2のシチュエーションにおける動作例を示したフローチャートである。
図示するように、情報提供装置10では、まず、目的設定部11が、情報を提供する目的を設定する(ステップ151)。
この状態で、使用ユーザが相手ユーザに質問し、相手ユーザがその質問に対して回答すると、対話内容解析部15が、回答からキーワードを抽出する(ステップ152)。
一方で、非接触検知部13が、非接触センサを用いて、相手ユーザの生体情報を検知する(ステップ153)。そして、ここで検知された生体情報の変化を算出する(ステップ154)。
すると、提供情報取得部16が、ステップ152で抽出されたキーワードの出現時において、ステップ154で算出された生体情報の変化が大きいかどうかを判定する(ステップ155)。具体的には、ステップ154で算出された生体情報の変化が、予め定めた閾値よりも大きいかどうかを判定する。
キーワードの出現時において生体情報の変化が大きいと判定すれば、提供情報取得部16は、このキーワードに応じた提供情報を取得する(ステップ156)。
次いで、情報出力部17が、ステップ156で取得された提供情報を、使用ユーザに対して音声により出力する(ステップ157)。
その後、対話内容解析部15は、使用ユーザが相手ユーザに次の質問を行っているかどうかを判定する(ステップ158)。また、ステップ155でキーワードの出現時において生体情報の変化が大きいと判定されなかった場合も、使用ユーザが相手ユーザに次の質問を行っているかどうかを判定する(ステップ158)。その結果、使用ユーザが相手ユーザに次の質問を行っていると判定されれば、情報提供装置10は、処理をステップ152へ戻して、以降の処理を繰り返す。一方、使用ユーザが相手ユーザに次の質問を行っていると判定されなければ、情報提供装置10は、処理を終了する。
[第2の実施の形態]
図5は、第2の実施の形態における情報提供装置20の機能構成例を示したブロック図である。図示するように、第2の実施の形態における情報提供装置20は、目的設定部21と、ガイド情報取得部22と、非接触検知部23と、対話内容解析部25と、提供情報取得部26と、情報出力部27とを備える。
目的設定部21、非接触検知部23、対話内容解析部25、及び、提供情報取得部26は、それぞれ、第1の実施の形態における目的設定部11、非接触検知部13、対話内容解析部15、及び、提供情報取得部16と同じなので、説明を省略する。
ガイド情報取得部22は、目的設定部21により設定された目的に沿った質問の流れをガイドするガイド情報を取得する。
情報出力部27は、ガイド情報取得部22により取得されたガイド情報と、提供情報取得部26により取得された提供情報とを、使用ユーザに対して出力する。ここで、ガイド情報及び提供情報の出力は、これに限るものではないが、以下では、音出力部97(図17参照)を介して音声によって行うものとする。本実施の形態では、対話者の状況を把握するための手順を指示する指示情報の一例として、ガイド情報を用いている。また、対話者の状況に応じて提供すべき提供情報を使用者に伝達する伝達手段、及び、指示情報を使用者に伝達する伝達手段の一例として、情報出力部27を設けている。
尚、この第2の実施の形態では、使用者の質問に対する対話者の回答内容を把握する把握手段の一例として、非接触検知部23及び対話内容解析部25を設けたが、これらの一方のみを設けてもよい。また、情報提供装置20が、情報を提供する目的が1つに決まっている装置である場合、目的設定部21は設けなくてもよい。
図6は、第2の実施の形態における情報提供装置20の第1のシチュエーションにおける動作例を示したフローチャートである。
図示するように、情報提供装置20では、まず、目的設定部21が、情報を提供する目的を設定する(ステップ201)。
すると、ガイド情報取得部22が、目的設定部21により設定された目的に沿ったガイド情報を取得する(ステップ202)。
次いで、情報出力部27が、ステップ202で取得されたガイド情報を、使用ユーザに対して音声により出力する(ステップ203)。
このガイド情報を聴きながら、使用ユーザが相手ユーザに質問し、相手ユーザがその質問に対して回答すると、対話内容解析部25が、回答からキーワードを抽出する(ステップ204)。そして、抽出したキーワードが目的別辞書に登録されているかどうかを判定する(ステップ205)。
キーワードが目的別辞書に登録されていると判定すれば、対話内容解析部25は、回答から関連ワードを抽出する(ステップ206)。具体的には、キーワードに紐付けて目的別辞書に登録された関連項目を取得し、この関連項目の具体的な内容を示す関連ワードを回答から抽出する。
一方で、非接触検知部23が、非接触センサを用いて、相手ユーザの生体情報を検知する(ステップ207)。
すると、提供情報取得部26が、ステップ204及びステップ206で抽出された抽出情報と、ステップ207で検知された生体情報とのペアがデータベースに登録されているかどうかを判定する(ステップ208)。
抽出情報と生体情報とのペアがデータベースに登録されていると判定すれば、提供情報取得部26は、このペアに紐付けてデータベースに登録された提供情報を取得する(ステップ209)。
次いで、情報出力部27が、ステップ209で取得された提供情報を、使用ユーザに対して音声により出力する(ステップ210)。
その後、対話内容解析部25は、ガイド情報に次の質問があるかどうかを判定する(ステップ211)。また、ステップ205でキーワードが目的別辞書に登録されていると判定されなかった場合や、ステップ208で抽出情報と生体情報とのペアがデータベースに登録されていると判定されなかった場合も、ガイド情報に次の質問があるかどうかを判定する(ステップ211)。その結果、ガイド情報に次の質問があると判定されれば、情報提供装置20は、処理をステップ203へ戻して、以降の処理を繰り返す。一方、ガイド情報に次の質問があると判定されなければ、情報提供装置20は、処理を終了する。
図7は、第2の実施の形態における情報提供装置20の第2のシチュエーションにおける動作例を示したフローチャートである。
図示するように、情報提供装置20では、まず、目的設定部21が、情報を提供する目的を設定する(ステップ251)。
すると、ガイド情報取得部22が、目的設定部21により設定された目的に沿ったガイド情報を取得する(ステップ252)。
次いで、情報出力部27が、ステップ252で取得されたガイド情報を、使用ユーザに対して音声により出力する(ステップ253)。
このガイド情報を聴きながら、使用ユーザが相手ユーザに質問し、相手ユーザがその質問に対して回答すると、対話内容解析部25が、回答からキーワードを抽出する(ステップ254)。
一方で、非接触検知部23が、非接触センサを用いて、相手ユーザの生体情報を検知する(ステップ255)。そして、ここで検知された生体情報の変化を算出する(ステップ256)。
すると、提供情報取得部26が、ステップ254で抽出されたキーワードの出現時において、ステップ256で算出された生体情報の変化が大きいかどうかを判定する(ステップ257)。具体的には、ステップ256で算出された生体情報の変化が、予め定めた閾値よりも大きいかどうかを判定する。
キーワードの出現時において生体情報の変化が大きいと判定すれば、提供情報取得部26は、このキーワードに応じた提供情報を取得する(ステップ258)。
次いで、情報出力部27が、ステップ258で取得された提供情報を、使用ユーザに対して音声により出力する(ステップ259)。
その後、対話内容解析部25は、ガイド情報に次の質問があるかどうかを判定する(ステップ260)。また、ステップ257でキーワードの出現時において生体情報の変化が大きいと判定されなかった場合も、ガイド情報に次の質問があるかどうかを判定する(ステップ260)。その結果、ガイド情報に次の質問があると判定されれば、情報提供装置20は、処理をステップ253へ戻して、以降の処理を繰り返す。一方、ガイド情報に次の質問があると判定されなければ、情報提供装置20は、処理を終了する。
尚、上記では、情報出力部27は、ガイド情報のうちのある質問をガイドする部分を音声出力した後、ガイド情報のうちのその部分を聴きながら使用ユーザが行った質問に対する相手ユーザの回答に応じた提供情報を音声出力してから、ガイド情報のうちの次の質問をガイドする部分を音声出力するようにしたが、この限りではない。ガイド情報のうちのある質問をガイドする部分を音声出力した後、ガイド情報のうちのその部分を聴きながら使用ユーザが行った質問に対する相手ユーザの回答に応じた提供情報を音声出力する前に、ガイド情報のうちの次の質問をガイドする部分を音声出力するようにしてもよい。
但し、この場合には、情報出力部27が音声出力するガイド情報と提供情報とが整合しない状況が生ずる可能性がある。この状況に対しては、次の3つの制御を行うことが考えられる。
第一に、情報出力部27が、ガイド情報のうちのある質問をガイドする部分を聴きながら使用ユーザが行った質問に対する相手ユーザの回答に応じた提供情報を、ガイド情報のうちの次の質問をガイドする部分を音声出力し始めた後は、使用ユーザに対して音声出力しない、という制御である。これは、上述したガイド情報と提供情報とが整合しない状況を許容しない制御であり、既に終わった質問に関する提供情報は捨てるという考えに基づくものである。
第二に、情報出力部27が、ガイド情報のうちのある質問をガイドする部分を聴きながら使用ユーザが行った質問に対する相手ユーザの回答に応じた提供情報を、ガイド情報のうちの次の質問をガイドする部分を音声出力し始めてから、ガイド情報の全ての部分を音声出力し終わるまでの間に、使用ユーザに対して音声出力する、という制御である。これは、上述したガイド情報と提供情報とが整合しない状況を許容する制御である。
第三に、情報出力部27が、ガイド情報のうちのある質問をガイドする部分を聴きながら使用ユーザが行った質問に対する相手ユーザの回答に応じた提供情報を、ガイド情報の全ての部分を音声出力し終わった後に、使用ユーザに対して音声出力する、とう制御である。これは、上述したガイド情報と提供情報とが整合しない状況を許容しない制御であり、既に終わった質問に関する提供情報は最後にまとめて伝えるという考えに基づくものである。
尚、上記の制御に関する記載において、「次の質問」は「特定の質問」の一例であり、「ある質問」は「特定の質問の前の質問」の一例である。
[第3の実施の形態]
図8は、第3の実施の形態における情報提供装置30の機能構成例を示したブロック図である。図示するように、第3の実施の形態における情報提供装置30は、目的設定部31と、非接触検知部33と、接触検知部34と、対話内容解析部35と、提供情報取得部36と、情報出力部37とを備える。
目的設定部31、非接触検知部33、対話内容解析部35、及び、情報出力部37は、それぞれ、第1の実施の形態における目的設定部11、非接触検知部13、対話内容解析部15、及び、情報出力部17と同じなので、説明を省略する。
接触検知部34は、相手ユーザの身体に直接触れて生体情報を測定する接触センサ(図示せず)に接続されており、この接触センサが検知した生体情報を取得し、その生体情報又はその生体情報の時間変化を算出したものを検知情報とする。ここで、接触センサとしては、例えば、血圧、脈拍等を測定するものを用いればよい。診察の場合、接触検知部34は、相手ユーザの血圧、脈拍等を検知情報とし、セールスやメンテナンスの場合、接触検知部34は、相手ユーザの血圧、脈拍等の時間変化を算出したものを検知情報とする。本実施の形態では、対話者の身体に接触した状態で対話者の身体の状態を検知する接触検知手段の一例として、接触センサを用いており、接触検知手段を用いて対話者の身体の状態又は状態の変化を把握する把握手段の一例として、接触検知部34を設けている。
提供情報取得部36は、非接触検知部33及び接触検知部34により検知情報とされた生体情報又はその変化と、対話内容解析部35により抽出された抽出情報又はキーワードとを照合することにより、提供情報を取得する。ここで、「非接触検知部33及び接触検知部34により検知情報とされた生体情報」とは、非接触検知部33により検知情報とされた生体情報と、接触検知部34により検知情報とされた生体情報との単純な組み合わせであってもよいし、非接触検知部33により検知情報とされた生体情報と、接触検知部34により検知情報とされた生体情報とから新たに得られる生体情報であってもよい。
第1のシチュエーションでは、提供情報取得部36は、目的別データベースに、抽出情報と生体情報とに紐付けられて、提供情報が登録されているかどうか判断し、登録されていれば、この提供情報を取得する。診察の場合、提供情報取得部36は、例えば、抽出情報と生体情報とに紐付けられて、症状ごとのデータベースに、症状やその症状に対して処方されるであろう薬に対して悪影響がある生活習慣等が提供情報として登録されていれば、そのような提供情報を取得する。
第2のシチュエーションでは、提供情報取得部36は、回答の内容にキーワードが出現した際に生体情報の変化が大きい場合に、そのキーワードに応じた提供情報を取得する。セールスの場合及びメンテナンスの場合、提供情報取得部36は、例えば、生体情報の変化が著しい時に出現していたキーワードを提供情報として取得してもよい。
尚、この第3の実施の形態では、使用者の質問に対する対話者の回答内容を把握する把握手段の一例として、非接触検知部33、接触検知部34、及び、対話内容解析部35を設けたが、これらのうちの1つ又は2つのみを設けてもよい。また、情報提供装置30が、情報を提供する目的が1つに決まっている装置である場合、目的設定部31は設けなくてもよい。
図9は、第3の実施の形態における情報提供装置30の第1のシチュエーションにおける動作例を示したフローチャートである。
図示するように、情報提供装置30では、まず、目的設定部31が、情報を提供する目的を設定する(ステップ301)。
この状態で、使用ユーザが相手ユーザに質問し、相手ユーザがその質問に対して回答すると、対話内容解析部35が、回答からキーワードを抽出する(ステップ302)。そして、抽出したキーワードが目的別辞書に登録されているかどうかを判定する(ステップ303)。
キーワードが目的別辞書に登録されていると判定すれば、対話内容解析部35は、回答から関連ワードを抽出する(ステップ304)。具体的には、キーワードに紐付けて目的別辞書に登録された関連項目を取得し、この関連項目の具体的な内容を示す関連ワードを回答から抽出する。
一方で、非接触検知部33が、非接触センサを用いて、相手ユーザの生体情報を検知する(ステップ305)。
また、接触検知部34が、接触センサを用いて、相手ユーザの生体情報を検知する(ステップ306)。
すると、提供情報取得部36が、ステップ302及びステップ304で抽出された抽出情報と、ステップ305及びステップ306で検知された生体情報とのペアがデータベースに登録されているかどうかを判定する(ステップ307)。
抽出情報と生体情報とのペアがデータベースに登録されていると判定すれば、提供情報取得部36は、このペアに紐付けてデータベースに登録された提供情報を取得する(ステップ308)。
次いで、情報出力部37が、ステップ308で取得された提供情報を、使用ユーザに対して音声により出力する(ステップ309)。
その後、対話内容解析部35は、使用ユーザが相手ユーザに次の質問を行っているかどうかを判定する(ステップ310)。また、ステップ303でキーワードが目的別辞書に登録されていると判定されなかった場合や、ステップ307で抽出情報と生体情報とのペアがデータベースに登録されていると判定されなかった場合も、使用ユーザが相手ユーザに次の質問を行っているかどうかを判定する(ステップ310)。その結果、使用ユーザが相手ユーザに次の質問を行っていると判定されれば、情報提供装置30は、処理をステップ302へ戻して、以降の処理を繰り返す。一方、使用ユーザが相手ユーザに次の質問を行っていると判定されなければ、情報提供装置30は、処理を終了する。
図10は、第3の実施の形態における情報提供装置30の第2のシチュエーションにおける動作例を示したフローチャートである。
図示するように、情報提供装置30では、まず、目的設定部31が、情報を提供する目的を設定する(ステップ351)。
この状態で、使用ユーザが相手ユーザに質問し、相手ユーザがその質問に対して回答すると、対話内容解析部35が、回答からキーワードを抽出する(ステップ352)。
一方で、非接触検知部33が、非接触センサを用いて、相手ユーザの生体情報を検知する(ステップ353)。そして、ここで検知された生体情報の変化を算出する(ステップ354)。
また、接触検知部34が、接触センサを用いて、相手ユーザの生体情報を検知する(ステップ355)。そして、ここで検知された生体情報の変化を算出する(ステップ356)。
すると、提供情報取得部36が、ステップ352で抽出されたキーワードの出現時において、ステップ354及びステップ356で算出された生体情報の変化が大きいかどうかを判定する(ステップ357)。具体的には、ステップ354及びステップ356で算出された生体情報の変化が、予め定めた閾値よりも大きいかどうかを判定する。
キーワードの出現時において生体情報の変化が大きいと判定すれば、提供情報取得部36は、このキーワードに応じた提供情報を取得する(ステップ358)。
次いで、情報出力部37が、ステップ358で取得された提供情報を、使用ユーザに対して音声により出力する(ステップ359)。
その後、対話内容解析部35は、使用ユーザが相手ユーザに次の質問を行っているかどうかを判定する(ステップ360)。また、ステップ357でキーワードの出現時において生体情報の変化が大きいと判定されなかった場合も、使用ユーザが相手ユーザに次の質問を行っているかどうかを判定する(ステップ360)。その結果、使用ユーザが相手ユーザに次の質問を行っていると判定されれば、情報提供装置30は、処理をステップ352へ戻して、以降の処理を繰り返す。一方、使用ユーザが相手ユーザに次の質問を行っていると判定されなければ、情報提供装置30は、処理を終了する。
[第4の実施の形態]
図11は、第4の実施の形態における情報提供装置40の機能構成例を示したブロック図である。図示するように、第4の実施の形態における情報提供装置40は、目的設定部41と、ガイド情報取得部42と、非接触検知部43と、接触検知部44と、対話内容解析部45と、提供情報取得部46と、情報出力部47とを備える。
目的設定部41、非接触検知部43、及び、対話内容解析部45は、それぞれ、第1の実施の形態における目的設定部11、非接触検知部13、及び、対話内容解析部15と同じなので、説明を省略する。ガイド情報取得部42及び情報出力部47は、それぞれ、第2の実施の形態におけるガイド情報取得部22及び情報出力部27と同じなので、説明を省略する。接触検知部44及び提供情報取得部46は、それぞれ、第3の実施の形態における接触検知部34及び提供情報取得部36と同じなので、説明を省略する。
尚、この第4の実施の形態では、使用者の質問に対する対話者の回答内容を把握する把握手段の一例として、非接触検知部43、接触検知部44、及び、対話内容解析部45を設けたが、これらのうちの1つ又は2つのみを設けてもよい。また、情報提供装置40が、情報を提供する目的が1つに決まっている装置である場合、目的設定部41は設けなくてもよい。
図12は、第4の実施の形態における情報提供装置40の第1のシチュエーションにおける動作例を示したフローチャートである。
図示するように、情報提供装置40では、まず、目的設定部41が、情報を提供する目的を設定する(ステップ401)。
すると、ガイド情報取得部42が、目的設定部41により設定された目的に沿ったガイド情報を取得する(ステップ402)。
次いで、情報出力部47が、ステップ402で取得されたガイド情報を、使用ユーザに対して音声により出力する(ステップ403)。
このガイド情報を聴きながら、使用ユーザが相手ユーザに質問し、相手ユーザがその質問に対して回答すると、対話内容解析部45が、回答からキーワードを抽出する(ステップ404)。そして、抽出したキーワードが目的別辞書に登録されているかどうかを判定する(ステップ405)。
キーワードが目的別辞書に登録されていると判定すれば、対話内容解析部45は、回答から関連ワードを抽出する(ステップ406)。具体的には、キーワードに紐付けて目的別辞書に登録された関連項目を取得し、この関連項目の具体的な内容を示す関連ワードを回答から抽出する。
一方で、非接触検知部43が、非接触センサを用いて、相手ユーザの生体情報を検知する(ステップ407)。
また、接触検知部44が、接触センサを用いて、相手ユーザの生体情報を検知する(ステップ408)。
すると、提供情報取得部46が、ステップ404及びステップ406で抽出された抽出情報と、ステップ407及びステップ408で検知された生体情報とのペアがデータベースに登録されているかどうかを判定する(ステップ409)。
抽出情報と生体情報とのペアがデータベースに登録されていると判定すれば、提供情報取得部46は、このペアに紐付けてデータベースに登録された提供情報を取得する(ステップ410)。
次いで、情報出力部47が、ステップ410で取得された提供情報を、使用ユーザに対して音声により出力する(ステップ411)。
その後、対話内容解析部45は、ガイド情報に次の質問があるかどうかを判定する(ステップ412)。また、ステップ405でキーワードが目的別辞書に登録されていると判定されなかった場合や、ステップ409で抽出情報と生体情報とのペアがデータベースに登録されていると判定されなかった場合も、ガイド情報に次の質問があるかどうかを判定する(ステップ412)。その結果、ガイド情報に次の質問があると判定されれば、情報提供装置40は、処理をステップ403へ戻して、以降の処理を繰り返す。一方、ガイド情報に次の質問があると判定されなければ、情報提供装置40は、処理を終了する。
図13は、第4の実施の形態における情報提供装置40の第2のシチュエーションにおける動作例を示したフローチャートである。
図示するように、情報提供装置40では、まず、目的設定部41が、情報を提供する目的を設定する(ステップ451)。
すると、ガイド情報取得部42が、目的設定部41により設定された目的に沿ったガイド情報を取得する(ステップ452)。
次いで、情報出力部47が、ステップ452で取得されたガイド情報を、使用ユーザに対して音声により出力する(ステップ453)。
このガイド情報を聴きながら、使用ユーザが相手ユーザに質問し、相手ユーザがその質問に対して回答すると、対話内容解析部45が、回答からキーワードを抽出する(ステップ454)。
一方で、非接触検知部43が、非接触センサを用いて、相手ユーザの生体情報を検知する(ステップ455)。そして、ここで検知された生体情報の変化を算出する(ステップ456)。
また、接触検知部44が、接触センサを用いて、相手ユーザの生体情報を検知する(ステップ457)。そして、ここで検知された生体情報の変化を算出する(ステップ458)。
すると、提供情報取得部46が、ステップ454で抽出されたキーワードの出現時において、ステップ456及びステップ458で算出された生体情報の変化が大きいかどうかを判定する(ステップ459)。具体的には、ステップ456及びステップ458で算出された生体情報の変化が、予め定めた閾値よりも大きいかどうかを判定する。
キーワードの出現時において生体情報の変化が大きいと判定すれば、提供情報取得部46は、このキーワードに応じた提供情報を取得する(ステップ460)。
次いで、情報出力部47が、ステップ460で取得された提供情報を、使用ユーザに対して音声により出力する(ステップ461)。
その後、対話内容解析部45は、ガイド情報に次の質問があるかどうかを判定する(ステップ462)。また、ステップ459でキーワードの出現時において生体情報の変化が大きいと判定されなかった場合も、ガイド情報に次の質問があるかどうかを判定する(ステップ462)。その結果、ガイド情報に次の質問があると判定されれば、情報提供装置40は、処理をステップ453へ戻して、以降の処理を繰り返す。一方、ガイド情報に次の質問があると判定されなければ、情報提供装置40は、処理を終了する。
[第5の実施の形態]
図14は、第5の実施の形態における情報提供装置50の機能構成例を示したブロック図である。図示するように、第5の実施の形態における情報提供装置50は、目的設定部51と、ガイド情報取得部52と、非接触検知部53と、接触検知部54と、対話内容解析部55と、提供情報取得部56と、情報出力部57と、ガイド情報制御部58とを備える。
目的設定部51、非接触検知部53、及び、対話内容解析部55は、それぞれ、第1の実施の形態における目的設定部11、非接触検知部13、及び、対話内容解析部15と同じなので、説明を省略する。ガイド情報取得部52は、第2の実施の形態におけるガイド情報取得部22と同じなので、説明を省略する。接触検知部54及び提供情報取得部56は、それぞれ、第3の実施の形態における接触検知部34及び提供情報取得部36と同じなので、説明を省略する。
ガイド情報制御部58は、提供情報取得部56により取得された提供情報を用いて、ガイド情報取得部52により取得されたガイド情報を変更する。このガイド情報の変更方法について、図1(a)~(c)に示した対話内容を例にとって説明する。
診察の場合、図1(a)の対話がなされたとする。そして、医者の「酒は飲みますか?」という質問に対して、患者が「はい」と回答した時点では、情報出力部57により出力される予定のガイド情報は、例えば、酒を控えさせる方向に話を進めるガイド情報であったとする。ところが、その後、医者の「頻度と量はどのくらいですか?」という質問に対して、患者が「毎晩、日本酒1合くらい」と回答している。この場合に、患者の身体の状態が、血圧及び脈拍が高いという状態であれば、ガイド情報制御部58は、情報出力部57により出力されるガイド情報を、例えば、酒を控えさえて精密検査を受けさせる方向に話を進めるガイド情報に変更する。
セールスの場合、図1(b)の対話がなされたとする。そして、セールスマンの「既婚者ですか未婚者ですか?」という質問に対して、顧客が「未婚者」と回答した時点では、情報出力部57により出力される予定のガイド情報は、例えば、性能重視の質問を行うガイド情報であったとする。ところが、その後、セールスマンの「現状の冷蔵庫の設置スペースはどのくらいですか?」という質問に対して、顧客が「XXくらいかな」と回答し、セールスマンの「予算はどのくらいですか?」という質問に対して、顧客が「YY円くらい」と回答している。これらの回答の際に、この顧客の身体の状態の変化が大きかったとする。設置スペースについては、「XXくらいかな」という曖昧な回答をしたために身体の状態の変化が大きかった可能性もあるので、回答が実際の意図に沿うものであるか不明確であるが、予算については、「XXくらい」と明確な回答をしたにも関わらず身体の状態の変化が大きかったので、回答が実際の意図に反して高い予算を提示するものである可能性がある。即ち、セールスマンは、予算を抑える方向で話を進めるべきと考えられる。従って、ガイド情報制御部58は、情報出力部57により出力されるガイド情報を、例えば、予算重視の質問を行うガイド情報に変更する。
メンテナンスの場合、図1(c)の対話がなされたとする。そして、当初、情報出力部57により出力される予定のガイド情報は、例えば、「用紙は連続紙かカット紙か?」等の質問に移行するガイド情報であったとする。ところが、ここでは、メンテナンスマンの「用紙はカセットの中にセットしたものから給紙しましたか?」という質問に対して、顧客が「はい」と回答している。この回答の際に、顧客の身体の状態の変化が大きければ、回答が事実に反する可能性がある。即ち、メンテナンスマンは、用紙は手差しから給紙したのではないか、用紙は吸湿していなかったか等を確認すべきと考えられる。従って、ガイド情報制御部58は、情報出力部57により出力されるガイド情報を、例えば、「エアコンは付いていたか?」等の周辺の湿度状況を確認するガイド情報に変更する。
情報出力部57は、ガイド情報取得部52により取得され、ガイド情報制御部58により変更されたガイド情報を、使用ユーザに対して出力する。ここで、ガイド情報の出力は、これに限るものではないが、以下では、音出力部97(図17参照)を介して音声によって行うものとする。本実施の形態では、提供情報に基づいて変更された指示情報を使用者に伝達する伝達手段の一例として、情報出力部57を設けている。
図15は、第5の実施の形態における情報提供装置50の第1のシチュエーションにおける動作例を示したフローチャートである。
図示するように、情報提供装置50では、まず、目的設定部51が、情報を提供する目的を設定する(ステップ501)。
すると、ガイド情報取得部52が、目的設定部51により設定された目的に沿ったガイド情報を取得する(ステップ502)。
次いで、情報出力部57が、ステップ502で取得されたガイド情報を、使用ユーザに対して音声により出力する(ステップ503)。
このガイド情報を聴きながら、使用ユーザが相手ユーザに質問し、相手ユーザがその質問に対して回答すると、対話内容解析部55が、回答からキーワードを抽出する(ステップ504)。そして、抽出したキーワードが目的別辞書に登録されているかどうかを判定する(ステップ505)。
キーワードが目的別辞書に登録されていると判定すれば、対話内容解析部55は、回答から関連ワードを抽出する(ステップ506)。具体的には、キーワードに紐付けて目的別辞書に登録された関連項目を取得し、この関連項目の具体的な内容を示す関連ワードを回答から抽出する。
一方で、非接触検知部53が、非接触センサを用いて、相手ユーザの生体情報を検知する(ステップ507)。
また、接触検知部54が、接触センサを用いて、相手ユーザの生体情報を検知する(ステップ508)。
すると、提供情報取得部56が、ステップ504及びステップ506で抽出された抽出情報と、ステップ507及びステップ508で検知された生体情報とのペアがデータベースに登録されているかどうかを判定する(ステップ509)。
抽出情報と生体情報とのペアがデータベースに登録されていると判定すれば、提供情報取得部56は、このペアに紐付けてデータベースに登録された提供情報を取得する(ステップ510)。
次いで、ガイド情報制御部58が、ステップ510で取得された提供情報を用いて、ステップ502で取得したガイド情報を変更する(ステップ511)。
その後、対話内容解析部55は、ガイド情報に次の質問があるかどうかを判定する(ステップ512)。また、ステップ505でキーワードが目的別辞書に登録されていると判定されなかった場合や、ステップ509で抽出情報と生体情報とのペアがデータベースに登録されていると判定されなかった場合も、ガイド情報に次の質問があるかどうかを判定する(ステップ512)。その結果、ガイド情報に次の質問があると判定されれば、情報提供装置50は、処理をステップ503へ戻して、以降の処理を繰り返す。一方、ガイド情報に次の質問があると判定されなければ、情報提供装置50は、処理を終了する。
図16は、第5の実施の形態における情報提供装置50の第2のシチュエーションにおける動作例を示したフローチャートである。
図示するように、情報提供装置50では、まず、目的設定部51が、情報を提供する目的を設定する(ステップ551)。
すると、ガイド情報取得部52が、目的設定部51により設定された目的に沿ったガイド情報を取得する(ステップ552)。
次いで、情報出力部57が、ステップ552で取得されたガイド情報を、使用ユーザに対して音声により出力する(ステップ553)。
このガイド情報を聴きながら、使用ユーザが相手ユーザに質問し、相手ユーザがその質問に対して回答すると、対話内容解析部55が、回答からキーワードを抽出する(ステップ554)。
一方で、非接触検知部53が、非接触センサを用いて、相手ユーザの生体情報を検知する(ステップ555)。そして、ここで検知された生体情報の変化を算出する(ステップ556)。
また、接触検知部54が、接触センサを用いて、相手ユーザの生体情報を検知する(ステップ557)。そして、ここで検知された生体情報の変化を算出する(ステップ558)。
すると、提供情報取得部56が、ステップ554で抽出されたキーワードの出現時において、ステップ556及びステップ558で算出された生体情報の変化が大きいかどうかを判定する(ステップ559)。具体的には、ステップ556及びステップ558で算出された生体情報の変化が、予め定めた閾値よりも大きいかどうかを判定する。
キーワードの出現時において生体情報の変化が大きいと判定すれば、提供情報取得部56は、このキーワードに応じた提供情報を取得する(ステップ560)。
次いで、ガイド情報制御部58が、ステップ560で取得された提供情報を用いて、ステップ552で取得したガイド情報を変更する(ステップ561)。
その後、対話内容解析部55は、ガイド情報に次の質問があるかどうかを判定する(ステップ562)。また、ステップ559でキーワードの出現時において生体情報の変化が大きいと判定されなかった場合も、ガイド情報に次の質問があるかどうかを判定する(ステップ562)。その結果、ガイド情報に次の質問があると判定されれば、情報提供装置50は、処理をステップ553へ戻して、以降の処理を繰り返す。一方、ガイド情報に次の質問があると判定されなければ、情報提供装置50は、処理を終了する。
[情報提供装置のハードウェア構成]
第1乃至第5の実施の形態における情報提供装置10~50は、使用ユーザの聴覚に直接情報を伝達する所謂ヒアラブルデバイスにより実現するとよい。ヒアラブルデバイスには、相手ユーザに知られることなく、使用ユーザのみにそっと情報が伝達される、という良さがあるからである。そこで、情報提供装置10~50がヒアラブルデバイス90により実現されるものとして、このヒアラブルデバイス90のハードウェア構成について説明する。
図17は、ヒアラブルデバイス90のハードウェア構成を示した図である。図示するように、ヒアラブルデバイス90は、演算手段であるCPU91と、記憶手段であるメインメモリ92及びHDD(Hard Disk Drive)93とを備える。ここで、CPU91は、OS(Operating System)やアプリケーション等の各種ソフトウェアを実行し、上述した各処理部を実現する。また、メインメモリ92は、各種ソフトウェアやその実行に用いるデータ等を記憶し、HDD93は、各種ソフトウェアに対する入力データや各種ソフトウェアからの出力データ等を記憶する。更に、ヒアラブルデバイス90は、使用ユーザが各種操作を行うための操作部94と、外部との通信を行うための通信インターフェース(図では「通信I/F」と表記)95と、マイクロフォン等から音が入力される音入力部96と、イヤフォン、ヘッドフォン等に対して音を出力する音出力部97とを備える。尚、このイヤフォン、ヘッドフォン等は、空気の振動を頭蓋骨に直接伝えることで音を伝える骨伝導イヤフォン、骨伝導ヘッドフォン等であってもよい。
ここで、ヒアラブルデバイス90は、イヤフォン型又はヘッドフォン型のデバイスであってよい。
ヒアラブルデバイス90がイヤフォン型のデバイスである場合、ヒアラブルデバイス90は、本デバイスを使用ユーザの一方の耳に装着するための装着手段を備えることになる。また、この場合、第2及び第4の実施の形態のように情報出力部27,47がガイド情報及び提供情報を音声により出力するに当たっては、音出力部97が、操作部94の操作により、ガイド情報及び提供情報を切り替えながら、使用ユーザの左右の聴覚の一方に伝達することとしてもよい。
ヒアラブルデバイス90がヘッドフォン型のデバイスである場合、ヒアラブルデバイス90は、本デバイスを使用ユーザの頭に装着するための装着手段を備えることになる。また、この場合、第2及び第4の実施の形態のように情報出力部27,47がガイド情報及び提供情報を音声により出力するに当たっては、音出力部97が、操作部94の操作により、ガイド情報及び提供情報を切り替えながら、使用ユーザの左右の聴覚の一方に伝達することとしてもよいし、操作部94の操作によらずに、ガイド情報を使用ユーザの左右の聴覚の一方に、提供情報を使用ユーザの左右の聴覚の他方に伝達することとしてもよい。
或いは、ヒアラブルデバイス90は、イヤフォン、ヘッドフォン等に接続されたスマートフォン、タブレット端末等の携帯情報端末であってもよい。この場合も、第2及び第4の実施の形態のように情報出力部27,47がガイド情報及び提供情報を音声により出力するに当たっては、音出力部97が、操作部94の操作により、ガイド情報及び提供情報を切り替えながら、使用ユーザの左右の聴覚の一方に伝達することとしてもよいし、操作部94の操作によらずに、ガイド情報を使用ユーザの左右の聴覚の一方に、提供情報を使用ユーザの左右の聴覚の他方に伝達することとしてもよい。
[プログラム]
第1乃至第5の実施の形態における情報提供装置10~50が行う処理は、例えば、アプリケーションソフトウェア等のプログラムとして用意される。
即ち、第1乃至第5の実施の形態を実現するプログラムは、コンピュータに、使用者と対話する対話者の状況を把握する機能と、把握された対話者の状況に応じて提供すべき提供情報を、使用者に伝達する機能とを実現させるためのプログラムとして捉えられる。
尚、本実施の形態を実現するプログラムは、通信手段により提供することはもちろん、CD-ROM等の記録媒体に格納して提供することも可能である。
10,20,30,40,50…情報提供装置、11,21,31,41,51…目的設定部、22,42,52…ガイド情報取得部、13,23,33,43,53…非接触検知部、34,44,54…接触検知部、15,25,35,45,55…対話内容解析部、16,26,36,46,56…提供情報取得部、17,27,37,47,57…情報出力部、58…ガイド情報制御部

Claims (12)

  1. 使用者と対話する対話者の身体に関する状況と、当該対話者の対話に関する状況とを把握する把握手段と、
    前記把握手段により把握された、前記対話者の身体に関する状況と、前記対話者の対話に関する状況とに応じて提供すべき提供情報を、前記使用者に伝達する伝達手段と
    を備え、
    前記把握手段は、前記対話者の身体に関する状況として、当該対話者の身体の状態の変化を把握し、前記対話者の対話に関する状況として、前記使用者の質問に対する当該対話者の回答内容を把握し、
    前記伝達手段は、前記対話者の回答内容が出現した際の当該対話者の身体の状態の変化に応じた前記提供情報を、前記使用者に伝達することを特徴とする情報伝達装置。
  2. 使用者と対話する対話者の状況を把握する把握手段と、
    前記把握手段により把握された前記対話者の状況に応じて提供すべき提供情報を、前記使用者に伝達する伝達手段と
    を備え、
    前記伝達手段は、前記対話者の状況を把握するための手順を指示する指示情報を、前記使用者に更に伝達し、
    前記伝達手段は、操作部の操作により、前記指示情報及び前記提供情報を切り替えながら、前記使用者の左右の聴覚の一方に伝達することを特徴とする情報伝達装置。
  3. 使用者と対話する対話者の状況を把握する把握手段と、
    前記把握手段により把握された前記対話者の状況に応じて提供すべき提供情報を、前記使用者に伝達する伝達手段と
    を備え、
    前記伝達手段は、前記対話者の状況を把握するための手順を指示する指示情報を、前記使用者に更に伝達し、
    前記伝達手段は、前記指示情報を前記使用者の左右の聴覚の一方に伝達し、前記提供情報を前記使用者の左右の聴覚の他方に伝達することを特徴とする情報伝達装置。
  4. 使用者と対話する対話者の状況を把握する把握手段と、
    前記把握手段により把握された前記対話者の状況に応じて提供すべき提供情報を、前記使用者に伝達する伝達手段と
    を備え、
    前記伝達手段は、前記使用者の質問の手順を指示する指示情報と、当該使用者の質問に対する前記対話者の回答内容に応じた前記提供情報とを、当該使用者に伝達し、
    前記伝達手段は、前記指示情報のうちの特定の質問を指示する部分を、前記使用者に伝達し始めた後は、当該特定の質問の前の質問に対する前記対話者の回答内容に応じた前記提供情報を、当該使用者に伝達しないことを特徴とする情報伝達装置。
  5. 使用者と対話する対話者の状況を把握する把握手段と、
    前記把握手段により把握された前記対話者の状況に応じて提供すべき提供情報を、前記使用者に伝達する伝達手段と
    を備え、
    前記伝達手段は、前記使用者の質問の手順を指示する指示情報と、当該使用者の質問に対する前記対話者の回答内容に応じた前記提供情報とを、当該使用者に伝達し、
    前記伝達手段は、前記指示情報のうちの特定の質問を指示する部分を、前記使用者に伝達し始めた後であって、前記指示情報の全ての部分を、当該使用者に伝達し終える前に、当該特定の質問の前の質問に対する前記対話者の回答内容に応じた前記提供情報を、当該使用者に伝達することを特徴とする情報伝達装置。
  6. 使用者と対話する対話者の状況を把握する把握手段と、
    前記把握手段により把握された前記対話者の状況に応じて提供すべき提供情報を、前記使用者に伝達する伝達手段と
    を備え、
    前記伝達手段は、前記使用者の質問の手順を指示する指示情報と、当該使用者の質問に対する前記対話者の回答内容に応じた前記提供情報とを、当該使用者に伝達し、
    前記伝達手段は、前記指示情報の全ての部分を、前記使用者に伝達し終えた後に、前記指示情報のうちの特定の質問に対する前記対話者の回答内容に応じた前記提供情報を、当該使用者に伝達することを特徴とする情報伝達装置。
  7. コンピュータに、
    使用者と対話する対話者の身体に関する状況と、当該対話者の対話に関する状況とを把握する機能と、
    把握された、前記対話者の身体に関する状況と、前記対話者の対話に関する状況とに応じて提供すべき提供情報を、前記使用者に伝達する機能と
    を実現させ、
    前記把握する機能は、前記対話者の身体に関する状況として、当該対話者の身体の状態の変化を把握し、前記対話者の対話に関する状況として、前記使用者の質問に対する当該対話者の回答内容を把握し、
    前記伝達する機能は、前記対話者の回答内容が出現した際の当該対話者の身体の状態の変化に応じた前記提供情報を、前記使用者に伝達するプログラム。
  8. コンピュータに、
    使用者と対話する対話者の状況を把握する機能と、
    把握された前記対話者の状況に応じて提供すべき提供情報を、前記使用者に伝達する機能と
    を実現させ、
    前記伝達する機能は、前記対話者の状況を把握するための手順を指示する指示情報を、前記使用者に更に伝達し、
    前記伝達する機能は、操作部の操作により、前記指示情報及び前記提供情報を切り替えながら、前記使用者の左右の聴覚の一方に伝達するプログラム。
  9. コンピュータに、
    使用者と対話する対話者の状況を把握する機能と、
    把握された前記対話者の状況に応じて提供すべき提供情報を、前記使用者に伝達する機能と
    を実現させ、
    前記伝達する機能は、前記対話者の状況を把握するための手順を指示する指示情報を、前記使用者に更に伝達し、
    前記伝達する機能は、前記指示情報を前記使用者の左右の聴覚の一方に伝達し、前記提供情報を前記使用者の左右の聴覚の他方に伝達するプログラム。
  10. コンピュータに、
    使用者と対話する対話者の状況を把握する機能と、
    把握された前記対話者の状況に応じて提供すべき提供情報を、前記使用者に伝達する機能と
    を実現させ、
    前記伝達する機能は、前記使用者の質問の手順を指示する指示情報と、当該使用者の質問に対する前記対話者の回答内容に応じた前記提供情報とを、当該使用者に伝達し、
    前記伝達する機能は、前記指示情報のうちの特定の質問を指示する部分を、前記使用者に伝達し始めた後は、当該特定の質問の前の質問に対する前記対話者の回答内容に応じた前記提供情報を、当該使用者に伝達しないプログラム。
  11. コンピュータに、
    使用者と対話する対話者の状況を把握する機能と、
    把握された前記対話者の状況に応じて提供すべき提供情報を、前記使用者に伝達する機能と
    を実現させ、
    前記伝達する機能は、前記使用者の質問の手順を指示する指示情報と、当該使用者の質問に対する前記対話者の回答内容に応じた前記提供情報とを、当該使用者に伝達し、
    前記伝達する機能は、前記指示情報のうちの特定の質問を指示する部分を、前記使用者に伝達し始めた後であって、前記指示情報の全ての部分を、当該使用者に伝達し終える前に、当該特定の質問の前の質問に対する前記対話者の回答内容に応じた前記提供情報を、当該使用者に伝達するプログラム。
  12. コンピュータに、
    使用者と対話する対話者の状況を把握する機能と、
    把握された前記対話者の状況に応じて提供すべき提供情報を、前記使用者に伝達する機能と
    を実現させ、
    前記伝達する機能は、前記使用者の質問の手順を指示する指示情報と、当該使用者の質問に対する前記対話者の回答内容に応じた前記提供情報とを、当該使用者に伝達し、
    前記伝達する機能は、前記指示情報の全ての部分を、前記使用者に伝達し終えた後に、前記指示情報のうちの特定の質問に対する前記対話者の回答内容に応じた前記提供情報を、当該使用者に伝達するプログラム。
JP2017236152A 2017-12-08 2017-12-08 情報伝達装置及びプログラム Active JP7031268B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2017236152A JP7031268B2 (ja) 2017-12-08 2017-12-08 情報伝達装置及びプログラム
US15/984,424 US10984197B2 (en) 2017-12-08 2018-05-21 Information transmission device and non-transitory computer readable medium
CN201810617910.2A CN109905544B (zh) 2017-12-08 2018-06-15 信息传递装置及存储程序的计算机可读介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017236152A JP7031268B2 (ja) 2017-12-08 2017-12-08 情報伝達装置及びプログラム

Publications (2)

Publication Number Publication Date
JP2019106567A JP2019106567A (ja) 2019-06-27
JP7031268B2 true JP7031268B2 (ja) 2022-03-08

Family

ID=66696854

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017236152A Active JP7031268B2 (ja) 2017-12-08 2017-12-08 情報伝達装置及びプログラム

Country Status (3)

Country Link
US (1) US10984197B2 (ja)
JP (1) JP7031268B2 (ja)
CN (1) CN109905544B (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000516754A (ja) 1998-01-13 2000-12-12 ビーエーイー・システムズ(ランド・アンド・シー・システムズ)リミテッド インテリジェント ヒューマン/コンピュータ インターフェース システム
JP2001344352A (ja) 2000-05-31 2001-12-14 Toshiba Corp 生活支援装置および生活支援方法および広告情報提供方法
JP2002531896A (ja) 1998-11-30 2002-09-24 シーベル システムズ,インコーポレイティド スマートスクリプトを用いたコールセンター
US20050192487A1 (en) 2004-02-27 2005-09-01 Cosentino Louis C. System for collection, manipulation, and analysis of data from remote health care devices
JP2010141804A (ja) 2008-12-15 2010-06-24 Fujitsu Ltd オペレータ管理システム、その方法、及びプログラム
JP2014035594A (ja) 2012-08-07 2014-02-24 Dts Kk Gsr値と生体情報に基づく通信者の感情評価システム

Family Cites Families (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6206829B1 (en) * 1996-07-12 2001-03-27 First Opinion Corporation Computerized medical diagnostic and treatment advice system including network access
US6073101A (en) * 1996-02-02 2000-06-06 International Business Machines Corporation Text independent speaker recognition for transparent command ambiguity resolution and continuous access control
US7260231B1 (en) * 1999-05-26 2007-08-21 Donald Scott Wedge Multi-channel audio panel
BR0108783A (pt) * 2000-02-14 2005-04-05 First Opinion Corp Esquema de dados para o diagnóstico de uma doença, método de diagnóstico automatizado, método de diagnóstico computadorizado, método para a reutilização de objetos de roteiros médicos utilizados no diagnóstico automatizado ou no gerenciamento de uma condição médica e sistema de diagnóstico automatizado
US7494061B2 (en) * 2006-06-30 2009-02-24 Evercom Systems, Inc. Systems and methods for identity verification using continuous biometric monitoring
US8370166B2 (en) * 2004-06-15 2013-02-05 Sap Aktiengesellschaft Script-based information retrieval
US7896858B2 (en) * 2006-12-04 2011-03-01 The Procter & Gamble Company Absorbent articles comprising graphics
US9968266B2 (en) * 2006-12-27 2018-05-15 Cardiac Pacemakers, Inc. Risk stratification based heart failure detection algorithm
US8190450B2 (en) * 2008-09-30 2012-05-29 General Electric Company System and method to manage a quality of delivery of healthcare
JP2011160260A (ja) 2010-02-02 2011-08-18 Nakayo Telecommun Inc 電話主装置および電話機
US8715179B2 (en) * 2010-02-18 2014-05-06 Bank Of America Corporation Call center quality management tool
US9138186B2 (en) * 2010-02-18 2015-09-22 Bank Of America Corporation Systems for inducing change in a performance characteristic
JP2012054892A (ja) 2010-09-03 2012-03-15 Nakayo Telecommun Inc 回線毎感情検出機能を有する電話制御装置
EP2786339B1 (en) * 2011-11-28 2023-08-16 Voicehit Electronic health record system and method for patient encounter transcription and documentation
EP2872079B1 (en) * 2012-07-16 2021-03-24 Valco Acquisition LLC as Designee of Wesley Holdings Ltd. Medical procedure monitoring system
US9285951B2 (en) * 2013-02-14 2016-03-15 Disney Enterprises, Inc. Avatar personalization in a virtual environment
WO2015054746A1 (en) * 2013-10-15 2015-04-23 Tod Marcus Alexander Orthodontic treatments
US9135849B2 (en) * 2014-01-31 2015-09-15 International Business Machines Corporation Variable operating mode HMD application management based upon crowd determined distraction
US20160212466A1 (en) * 2015-01-21 2016-07-21 Krush Technologies, Llc Automatic system and method for determining individual and/or collective intrinsic user reactions to political events
US10874340B2 (en) * 2014-07-24 2020-12-29 Sackett Solutions & Innovations, LLC Real time biometric recording, information analytics and monitoring systems for behavioral health management
US10490309B1 (en) * 2014-08-27 2019-11-26 Cerner Innovation, Inc. Forecasting clinical events from short physiologic timeseries
US10176163B2 (en) * 2014-12-19 2019-01-08 International Business Machines Corporation Diagnosing autism spectrum disorder using natural language processing
US20160232320A1 (en) * 2015-02-11 2016-08-11 Aetna, Inc. Systems and methods for patient health assessment
US20200118164A1 (en) * 2015-07-15 2020-04-16 Edmond Defrank Integrated mobile device management system
JP6601069B2 (ja) 2015-09-01 2019-11-06 カシオ計算機株式会社 対話制御装置、対話制御方法及びプログラム
JP6515764B2 (ja) * 2015-09-28 2019-05-22 株式会社デンソー 対話装置及び対話方法
US9996281B2 (en) * 2016-03-04 2018-06-12 Western Digital Technologies, Inc. Temperature variation compensation
EP3435862A1 (en) * 2016-04-01 2019-02-06 Cardiac Pacemakers, Inc. Systems and methods for detecting worsening heart failure
US10242501B1 (en) * 2016-05-03 2019-03-26 WorldViz, Inc. Multi-user virtual and augmented reality tracking systems
US11517203B2 (en) * 2016-08-25 2022-12-06 The Government Of The United States, As Represented By The Secretary Of The Army Real-time estimation of human core body temperature based on non-invasive physiological measurements
US10186263B2 (en) * 2016-08-30 2019-01-22 Lenovo Enterprise Solutions (Singapore) Pte. Ltd. Spoken utterance stop event other than pause or cessation in spoken utterances stream
KR102594022B1 (ko) * 2016-11-24 2023-10-26 삼성전자주식회사 전자 장치 및 그의 채널맵 업데이트 방법
US20180293528A1 (en) * 2017-04-07 2018-10-11 International Business Machines Corporation Task planning using task-emotional state mapping
JP6738491B2 (ja) * 2017-06-22 2020-08-12 シャープ株式会社 生体状態管理装置および生体状態管理方法
US10747559B2 (en) * 2017-08-14 2020-08-18 T-Mobile Usa, Inc. Automated troubleshoot and diagnostics tool
US20190122160A1 (en) * 2017-08-14 2019-04-25 Cloud Assert Llc Software diagnostics and resolution
US10664522B2 (en) * 2017-12-07 2020-05-26 International Business Machines Corporation Interactive voice based assistant for object assistance

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000516754A (ja) 1998-01-13 2000-12-12 ビーエーイー・システムズ(ランド・アンド・シー・システムズ)リミテッド インテリジェント ヒューマン/コンピュータ インターフェース システム
JP2002531896A (ja) 1998-11-30 2002-09-24 シーベル システムズ,インコーポレイティド スマートスクリプトを用いたコールセンター
JP2001344352A (ja) 2000-05-31 2001-12-14 Toshiba Corp 生活支援装置および生活支援方法および広告情報提供方法
US20050192487A1 (en) 2004-02-27 2005-09-01 Cosentino Louis C. System for collection, manipulation, and analysis of data from remote health care devices
JP2010141804A (ja) 2008-12-15 2010-06-24 Fujitsu Ltd オペレータ管理システム、その方法、及びプログラム
JP2014035594A (ja) 2012-08-07 2014-02-24 Dts Kk Gsr値と生体情報に基づく通信者の感情評価システム

Also Published As

Publication number Publication date
CN109905544B (zh) 2021-08-27
US20190179899A1 (en) 2019-06-13
JP2019106567A (ja) 2019-06-27
US10984197B2 (en) 2021-04-20
CN109905544A (zh) 2019-06-18

Similar Documents

Publication Publication Date Title
US11144596B2 (en) Retroactive information searching enabled by neural sensing
US10944708B2 (en) Conversation agent
KR102658445B1 (ko) 음성 정동 변조
US20180110460A1 (en) Biometric customer service agent analysis systems and methods
US8715179B2 (en) Call center quality management tool
US10896020B2 (en) System for processing service requests relating to unsatisfactory performance of hearing devices, and components of such system
WO2022000998A1 (zh) 耳机状态检测方法、装置、耳机及可读存储介质
US9138186B2 (en) Systems for inducing change in a performance characteristic
US8715178B2 (en) Wearable badge with sensor
JP2018027613A (ja) 接客装置、接客方法及び接客システム
JP7036046B2 (ja) 情報処理装置、情報処理方法、及び情報処理プログラム
US20210407532A1 (en) Apparatus and method for operating wearable device
US20160249126A1 (en) Personalized headphones
JP6291303B2 (ja) コミュニケーション支援ロボットシステム
WO2014142327A1 (ja) 聴力テスト提供システムおよび聴力テスト提供方法
JP7031268B2 (ja) 情報伝達装置及びプログラム
JP6863179B2 (ja) 顧客の苦情検知機能を備えたコールセンタシステム、コールセンタ装置、対話方法、およびそのプログラム
CN108885594B (zh) 信息处理装置、信息处理方法和程序
JP7457287B2 (ja) 看護師業務支援端末、看護師業務支援システム、看護師業務支援方法、および看護師業務支援プログラム
KR20130139137A (ko) 센서입력에 반응하는 대화인형 및 그 운용 방법
KR101665284B1 (ko) 텔레마케팅용 골전도 헤드셋 장치 및 이를 포함하는 스트레스 모니터링 시스템
CN109347721B (zh) 一种信息发送方法及终端设备
CN111372166A (zh) 左右耳智能识别方法和耳机装置
RU2810303C1 (ru) Способ и аппарат для интерактивной связи с обеспечением конфиденциальности между сервером и устройством пользователя
JP2022098662A (ja) 情報出力装置および情報出力方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201119

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210624

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210706

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210903

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220125

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220207

R150 Certificate of patent or registration of utility model

Ref document number: 7031268

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150