JP2019211966A - 制御装置、対話装置、制御方法、およびプログラム - Google Patents

制御装置、対話装置、制御方法、およびプログラム Download PDF

Info

Publication number
JP2019211966A
JP2019211966A JP2018106974A JP2018106974A JP2019211966A JP 2019211966 A JP2019211966 A JP 2019211966A JP 2018106974 A JP2018106974 A JP 2018106974A JP 2018106974 A JP2018106974 A JP 2018106974A JP 2019211966 A JP2019211966 A JP 2019211966A
Authority
JP
Japan
Prior art keywords
confidential information
output
response
input
response content
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018106974A
Other languages
English (en)
Inventor
茂典 木下
Shigenori Kinoshita
茂典 木下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2018106974A priority Critical patent/JP2019211966A/ja
Priority to US16/427,686 priority patent/US20190371308A1/en
Priority to CN201910477112.9A priority patent/CN110619872A/zh
Publication of JP2019211966A publication Critical patent/JP2019211966A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/20Speech recognition techniques specially adapted for robustness in adverse environments, e.g. in noise, of stress induced speech
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/62Protecting access to data via a platform, e.g. using keys or access control rules
    • G06F21/6218Protecting access to data via a platform, e.g. using keys or access control rules to a system of files or objects, e.g. local or distributed file system or database
    • G06F21/6245Protecting personal data, e.g. for financial or medical purposes
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • G10L13/027Concept to speech synthesisers; Generation of natural phrases from machine-based concepts
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L2015/088Word spotting
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/225Feedback of the input speech
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/226Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
    • G10L2015/228Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of application context

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Human Computer Interaction (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • Theoretical Computer Science (AREA)
  • Bioethics (AREA)
  • General Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Security & Cryptography (AREA)
  • Computer Hardware Design (AREA)
  • Medical Informatics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Machine Translation (AREA)

Abstract

【課題】状況に応じて秘匿情報の出力制御を行う利便性に優れた対話装置を提供する。【解決手段】対話装置(1)を制御する制御装置(制御部60)は、ユーザが入力した内容に対する応答内容の候補として選択した入出力履歴(21)に秘匿情報が含まれるか否かを判定する秘匿情報判定部(63)と、前記秘匿情報を出力してよい状況か否かを判定する状況判定部(64)と、前記状況判定部が前記秘匿情報を出力してよい状況ではないと判定した場合、該秘匿情報を含まない代替応答を前記応答内容として決定する応答内容決定部(65)と、を備えている。【選択図】図1

Description

本発明は応答内容の出力制御を行う対話装置に関する。
ユーザとの間で対話を行う対話装置が従来技術として知られている。このような対話装置において、入力内容に対して適切な応答が行えるようにする技術も知られている。例えば、特許文献1には音声認識された入力文や応答文の対話履歴を用いて応答文を取得する対話装置が開示されている。
特開2006−039120号公報(2006年2月9日公開)
しかしながら、特許文献1に記載の対話装置は、他人に対して秘匿することが好ましい情報である秘匿情報に関する対話履歴が存在していた場合、意図しないタイミングで該秘匿情報が応答として出力されるおそれがある。
本発明の一態様は、前記の問題に鑑みてなされたものであり、状況に応じて秘匿情報の出力制御を行う利便性に優れた対話装置を提供することを目的とする。
前記の課題を解決するために、本発明の一態様に係る制御装置は、ユーザが入力した内容に対し、過去の入出力履歴に基づいて生成した応答内容を出力する対話装置を制御する制御装置であって、前記応答内容の候補として選択した特定の入出力履歴に秘匿情報が含まれるか否かを判定する秘匿情報判定部と、前記秘匿情報を出力してよい状況か否かを判定する状況判定部と、前記応答内容を決定する応答内容決定部と、を備えており、前記応答内容決定部は、前記状況判定部が前記秘匿情報を出力してよい状況ではないと判定した場合、該秘匿情報を含まない代替応答を前記応答内容として決定する、構成である。
本発明の一態様に係る対話装置は、ユーザが入力した内容に対し、過去の入出力履歴に基づいて生成した応答内容を出力する対話装置であって、該対話装置は少なくとも1つの入力装置と、少なくとも1つの出力装置と、少なくとも1つの記憶装置と、少なくとも1つの制御装置とを備えており、前記制御装置は、前記応答内容の候補として選択した特定の入出力履歴に秘匿情報が含まれるか否かを判定する秘匿情報判定処理と、前記秘匿情報を出力してよい状況か否かを判定する状況判定処理と、前記応答内容を決定する応答内容決定処理と、を含み、前記応答内容決定処理は、前記状況判定処理にて前記秘匿情報を出力してよい状況ではないと判定された場合、該秘匿情報を含まない代替応答を前記応答内容として決定する、構成である。
本発明の一態様に係る制御方法は、ユーザが入力した内容に対し、過去の入出力履歴に基づいて生成した応答内容を出力する対話装置を制御する制御方法であって、前記応答内容の候補として選択した特定の入出力履歴に秘匿情報が含まれるか否かを判定する秘匿情報判定工程と、前記秘匿情報を出力してよい状況か否かを判定する状況判定工程と、前記応答内容を決定する応答内容決定工程と、を備えており、前記応答内容決定工程では、前記状況判定工程にて前記秘匿情報を出力してよい状況ではないと判定した場合、該秘匿情報を含まない代替応答を前記応答内容として決定する、構成である。
本発明の一態様によれば、状況に応じて秘匿情報の出力制御を行う利便性に優れた対話装置を提供することができるという効果を奏する。
本発明の実施形態1に係る対話装置の要部構成の一例を示すブロック図である。 本発明の実施形態1に係る対話装置が周囲の状況に基づいて応答内容を決定する流れの一例を示す模式図であり、(a)は過去の対話を示し、(b)は(a)の後に、周囲に他の人がいる状況で秘匿情報を含む履歴が応答候補に選択された場合の対話装置の動作を示し、(c)は(a)の後に、周囲に他の人がいない状況で秘匿情報を含む履歴が応答候補に選択された場合の対話装置の動作を示している。 図2の各図に対応する入出力履歴の状態を示しており、(a)は図2の(a)の直後の入出力履歴の内容を示し、(b)は図2の(b)の直後の入出力履歴の内容を示し、(c)は図2の(c)の直後の入出力履歴の内容を示している。 本発明の実施形態1に係る対話装置が実行する処理の一例を示すフローチャートである。
〔実施形態1〕
以下、本発明の一実施形態について、図1〜図4を用いて詳細に説明する。
(対話装置の構成)
本実施形態に係る対話装置1の構成について、図1を用いて説明する。図1は、対話装置1の要部構成の一例を示すブロック図である。
対話装置1は、ユーザが入力した内容に対し、過去の入出力履歴に基づいて生成した応答内容を出力することができる。より具体的には、対話装置1はユーザから入力を受け付けると、該入力に対する応答候補を過去の入出力履歴から取得する。対話装置1は取得した応答候補の中に秘匿情報が含まれていない場合は、該応答候補に基づいた応答内容を出力する。一方、秘匿情報が含まれている場合、対話装置1は周囲の状況が秘匿情報を出力してよい状況であるか否かを判定し、出力してよい状況であれば応答候補に基づいた応答内容を出力する。出力してはいけない状況であれば秘匿情報を含まない代替応答を応答内容として出力する。ここで、秘匿情報とはユーザの個人情報といった、不特定多数に知られると問題がある情報である。
対話装置1は、入力部10、記憶部20、GPS受信部30、計時部40、出力部50、および制御部60を備えており、記憶部20は、入出力履歴21、優先度順ルールテーブル22、およびシナリオ情報23を備えている。制御部60は、音声認識部61、応答候補取得部62、秘匿情報判定部63、状況判定部64、および応答内容決定部65を備えている。
入力部10は、例えばユーザの音声入力を受け付けるマイクであり、受け付けた音声を音声データとして音声認識部61へ送信する入力装置として機能する。入力部10は、ユーザの音声入力を受け付けることが可能であればどのような構成であってもよく、例えばマイクに加えてボタン等のインターフェースが設けられてもよい。
記憶部20は、対話装置1にて扱う各種情報を格納する記憶装置として機能する。記憶部20は、例えば秘匿情報として扱われるべき情報を管理する、図示しない辞書情報等をさらに備えていてもよい。
入出力履歴21は、ユーザが対話装置1に対して入力した音声の履歴、および対話装置1がユーザに対して出力した応答内容の履歴を格納している。入出力履歴21は、制御部60によって新たな履歴が登録され、応答候補取得部62によって読み出される。入出力履歴21の具体例については図3の各図を用いて後述する。
優先度順ルールテーブル22は、状況判定部64が対話装置1の周囲の状況が秘匿情報を出力してよい状況であるか否かを判定するために参照する参照情報である。以下に参照情報の例を3つほど挙げるが、これに限定されないことは言うまでもない。1つ目は、入力部10が受け付けた音声にユーザ以外の人の声が含まれる場合は秘匿情報を出力してはいけない状況とするというルールである。2つ目は、GPS受信部30が受信した対話装置1の現在のGPS情報から該対話装置1の位置がユーザの自宅といったプライベート空間と一致する場合は秘匿情報を出力してよい状況とするルールである。3つ目は、計時部40が取得した現在日時が夜間であり自宅にいると考えられる場合は秘匿情報を出力してよい状況とするルールである。
シナリオ情報23は、入力内容に応じて出力すべき応答内容が定義された参照情報である。シナリオ情報23は、応答候補取得部62にて入力内容に対する応答候補が取得できなかった場合、および状況判定部64にて秘匿情報を出力してはいけない状況であると判定された場合に、応答内容決定部65によって参照される。
GPS受信部30は、制御部60の指示によって対話装置1の現在位置に関する情報を受信し、状況判定部64へ送信する。GPS受信部30は、対話装置1の現在位置に関する情報を状況判定部64へ送信することが可能な構成であれば、どのような構成であってもよい。GPS受信部30は、GPS衛星からGPS情報を受信する構成であってもよい。GPS受信部30は、例えばWi−Fi(登録商標)環境に接続することが可能な構成であって、ユーザが自宅に設定したWi−Fi環境に接続されたことを検知すると対話装置1が該ユーザの自宅にいることを示す情報を状況判定部64へ送信する構成であってもよい。
計時部40は、制御部60の指示によって現在日時の情報を取得し、状況判定部64へ送信する。
出力部50は、入力部10が受け付けたユーザの音声の内容に対応する応答内容を出力する出力装置として機能する。出力部50は、応答内容を音声にて出力するスピーカーを含んでいればよく、例えば音声と組み合わせて画像等を出力するディスプレイ等を含んでいてもよい。
制御部60は、対話装置1の各部を統括して制御する制御装置として機能する。制御部60は、ユーザが入力した内容および対話装置1が出力部50から出力した応答内容に秘匿情報が含まれていた場合は、秘匿情報が含まれていることを示す情報を付加してこれらの内容を入出力履歴21に登録する。
音声認識部61は、入力部10から音声データを受信すると、該音声データについて音声認識を行ってユーザの発話内容を示すテキストデータを生成する。音声認識部61が音声認識を行うために用いる方法は特に限定されず、従来あるいずれの方法を用いて音声認識を行ってもよい。音声認識部61は、生成したテキストデータを応答候補取得部62へ送信する。
応答候補取得部62は、入力内容に対する応答内容の候補を入出力履歴21から取得する。具体的には、応答候補取得部62は音声認識部61から受信したテキストデータに対する応答内容の候補を、入出力履歴21の中から選択する。適当な候補が見つからなかった場合、応答候補取得部62はその旨を応答内容決定部65へ送信する。一方、適当な候補が見つかった場合、状況判定部64へ見つかった候補を送信する。
秘匿情報判定部63は、応答候補取得部62から応答内容の候補を入出力履歴21の中から選択すると、制御部60の指示にしたがって選択された入出力履歴が秘匿情報を含むか否かを判定する。また、秘匿情報判定部63は、応答内容決定部65が出力部50から応答内容を出力した後、制御部60の指示にたがって該応答内容が秘匿情報を含むか否かを判定する。秘匿情報判定部63は、例えば記憶部20が備える図示しない辞書情報等を参照して判定を行ってもよい。秘匿情報判定部63は、判定結果を制御部60へ送信する。
状況判定部64は、応答候補取得部62から応答内容の候補および該候補が秘匿情報を含むか否かの判定結果を受信すると、対話装置1の周囲の状況が秘匿情報を含む応答内容を出力してよい状況であるか否かを判定し、判定結果を応答内容決定部65へ送信する。具体的には、状況判定部64はGPS受信部30が受信した対話装置1の位置情報、入力部10が受け付けた音声に含まれる周囲の環境音、および計時部40から取得した現在の日時情報の少なくともいずれかに基づいて、優先度順ルールテーブル22において秘匿情報を出力してよい状況であるとみなす条件を満たしているかを判定することにより、秘匿情報を出力してよい状況か否かを判定する。
応答内容決定部65は、入力部10が受け付けたユーザの入力内容に対する応答として出力する応答内容を決定し、出力部50から出力する。具体的には、入力内容に対する応答内容の適切な候補を応答候補取得部62が見つけられなかった場合、応答内容決定部65はシナリオ情報23を参照して応答内容を決定し、出力部50から出力する。応答候補取得部62が適切な候補を見つけており、秘匿情報判定部63が該候補に秘匿情報が含まれていないと判定した、または秘匿情報判定部63が該候補に秘匿情報が含まれていると判定し、かつ状況判定部64が秘匿情報を出力してよい状況であると判定していた場合、応答内容決定部65は該候補に基づいて応答内容を決定し、出力部50から出力する。応答候補取得部62が適切な候補を見つけており、秘匿情報判定部63が該候補に秘匿情報が含まれていると判定し、かつ状況判定部64が秘匿情報を出力してはいけない状況であると判定していた場合、応答内容決定部65はシナリオ情報23を参照して代替応答を応答内容をとして決定し、出力部50から出力する。
(周囲の状況に基づいて応答内容を決定する具体例)
本実施形態に係る対話装置1が周囲の状況に基づいて応答内容を決定する具体例について、図2および図3の各図を用いて説明する。図2は、対話装置1が周囲の状況に基づいて応答内容を決定する流れの一例を示す模式図であり、図2の(a)は過去の対話を示し、図2の(b)は(a)の後に、周囲に他の人がいる状況で秘匿情報を含む特定の入出力履歴が応答候補に選択された場合の対話装置1の動作を示している。図2の(c)は(a)の後に、周囲に他の人がいない状況で秘匿情報を含む特定の入出力履歴が応答候補に選択された場合の対話装置1の動作を示している。図3は、図2の各図に対応する入出力履歴21の状態を示しており、図3の(a)は図2の(a)の直後の入出力履歴21の内容を示している。図3の(b)は図2の(b)の直後の入出力履歴21の内容を示しており、図3の(c)は図2の(c)の直後の入出力履歴21の内容を示している。
図2の各図において、a−1〜4、b−1〜4、およびc−1〜4は、対話における処理の順番を示している。図3の各図において、入出力履歴21は「番号」、「日時」、「話者」、「発話文」、および「秘匿情報フラグ」という5つの列を備えている。「番号」列は履歴が登録された順番を示しており、「日時」列はそのレコードが登録された日時を示している。「話者」列は「発話文」列に記載の内容を発話したのがユーザと対話装置1のどちらであるかを示しており、「発話文」列は実際に発話した内容を示している。「秘匿情報フラグ」は、「発話文」列に記載の内容が秘匿情報を含むか否かを示している。
図3の(a)によれば、例えば「番号」列が「3」であるレコードにおいて「発話文」列が示す発話の内容「心療内科にうつ病カウンセリングを受けに行く」は、秘匿情報を含んでいることを示している。なお、以下の説明では「心療内科」および「うつ病」が秘匿情報であり、これらの文字列を「発話文」列に含むレコードは、「秘匿情報フラグ」が「あり」として登録されている。また、説明を簡略化するために状況判定部64は周囲にユーザの他の人がいる場合に秘匿情報を出力してよい状況であると判定し、他の人がいない場合に秘匿情報を出力してよい状況ではないと判定するものとする。
図2の(a)および図3の(a)を用いて、ユーザと対話装置1との間で行われた過去の対話について説明する。なお、図2の(a)に示す過去の対話を開始した時点では、入出力履歴21には履歴が存在しないものとする。
まず、ユーザがa−1:「今週末は大変だ」を発話すると、対話装置1は入力部10にて該発話を受け付けた後、音声認識部61によって該発話に対応するテキストデータ「今週末は大変だ」を生成した後、該発話に関する履歴を入出力履歴21に登録する。具体的には、図3の(a)にて「番号」列が「1」であるレコードとして履歴を登録する。
次に、対話装置1は入力内容であるa−1:「今週末は大変だ」に対する応答内容としてa−2:「今週末は何かあるんですか」を出力する。対話装置1は、はじめに応答内容の候補を入出力履歴21の中から選択する。いま、入出力履歴21には「番号」列が「1」のレコードしか存在しないため、対話装置1は応答内容の候補が見つからなかったと判定し、シナリオ情報23に基づいて「今週末は何かあるんですか」を応答内容に決定する。対話装置1は、a−2の出力を行った後、図3の(a)にて「番号」列が「2」であるレコードを登録する。
a−2の応答を受けてユーザがa−3:「心療内科にうつ病カウンセリングを受けに行く」を発話すると、対話装置1はa−1の場合と同様にしてa−4:「大変ですね」を応答内容として決定して出力する。対話装置1はユーザの発話および自身の応答に合わせて、図3の(a)にて「番号」列が「3」であるレコードと「4」であるレコードをそれぞれ登録する。ここで、a−3:「心療内科にうつ病カウンセリングを受けに行く」には秘匿情報である「心療内科」および「うつ病」が含まれているので、対話装置1は「番号」列が「3」であるレコードの「秘匿情報フラグ」を「あり」として登録する。
このようにして、対話装置1はユーザの発話に対して応答内容について、適切な応答候補がない場合はシナリオ情報23に基づいて決定し、出力することができる。また、対話装置1はユーザの発話による入力内容および自身の出力した応答内容について、入出力履歴21に登録することができる。
図2の(b)および図3の(b)を用いて、図2の(a)に示した過去の対話を行った後に、周囲に他の人がいる状況で秘匿情報を含む特定の入出力履歴が応答候補に選択された場合の対話装置1の動作について説明する。
まず、ユーザがb−1:「今週末、何かあったかな」を発話すると、対話装置1は該発話に関する入力履歴を図3の(b)にて「番号」列が「5−1」であるレコードとして登録する。そして、対話装置1はb−1の入力内容に対する応答内容の候補として、入出力履歴21において「話者」列が「対話装置」であり、かつ「発話文」に「今週末」を含むレコードの次に登録された、「話者」列が「ユーザ」であるレコードを選択する。すなわち、対話装置1は「番号」列が「3」であり、秘匿情報「心療内科」および「うつ病」を「発話文」列に含むレコードを応答内容の候補として選択する(b−2)。
b−2の後、対話装置1は該対話装置1の周囲の状況が秘匿情報を出力してよい状況であるか否かを判定する。図2の(b)ではユーザの周囲に他の人がいるので、対話装置1は周囲の状況が秘匿情報を出力してよい状況ではないと判定する。そして、対話装置1はシナリオ情報23を参照して代替応答「出かけるって言ってましたよ」を応答内容として決定する(b−3)。なお、代替応答は応答内容の候補に応じたものであってもよい。すなわち、代替応答「出かけるって言ってましたよ」は、応答内容の候補「心療内科にうつ病カウンセリングを受けに行く」が外出を示す内容であることから決定されてもよい。
b−3の後、対話装置1は応答内容として決定した代替応答「出かけるって言ってましたよ」を出力し、該出力の履歴を入出力履歴21に、「番号」列が「6−1」のレコードとして登録する(b−4)。
このようにして、対話装置1は入力内容に対する応答内容の候補をとして秘匿情報を含む特定の入出力履歴を入出力履歴21から選択し、かつ周囲の状況が秘匿情報を出力してよい状況ではない場合は、代替応答を応答内容に決定して出力することができる。これにより、秘匿情報が漏洩することを抑制することができる。
図2の(c)および図3の(c)を用いて、図2の(a)に示した過去の対話を行った後に、周囲に他の人がいない状況で秘匿情報を含む特定の入出力履歴が応答候補に選択された場合の対話装置1の動作について説明する。
まず、ユーザがc−1:「今週末、何かあったかな」を発話すると、対話装置1は図2の(b)と同様にして該発話に関する入力履歴を図3の(c)にて「番号」列が「5−2」であるレコードとして登録する。さらに、対話装置1は「番号」列が「3」であり、秘匿情報「心療内科」および「うつ病」を「発話文」列に含むレコードを応答内容の候補として選択する(c−2)。
c−2の後、対話装置1は該対話装置1の周囲の状況が秘匿情報を出力してよい状況であるか否かを判定する。図2の(c)ではユーザの周囲に他の人がいないので、対話装置1は周囲の状況が秘匿情報を出力してよい状況であると判定する。そして、対話装置1は応答内容の候補を応答内容として決定する(c−3)。
c−3の後、対話装置1は応答内容として決定した応答内容の候補「心療内科にうつ病カウンセリングを受けに行く」に基づいて応答内容「心療内科にうつ病カウンセリングを受けに行くって言ってましたよ」を生成する。対話装置1は生成した応答内容を出力し、該出力の履歴を入出力履歴21に、「番号」列が「6−1」のレコードとして登録する(c4)。
このようにして、対話装置1は入力内容に対する応答内容の候補として秘匿情報を含む特定の入出力履歴を入出力履歴21から選択し、かつ周囲の状況が秘匿情報を出力してよい状況である場合は、該候補に基づいて応答内容を生成し、出力することができる。これにより、秘匿情報を出力してよい状況であれば秘匿情報をユーザに提示することができる。
(処理の流れ)
本実施形態に係る対話装置1が実行する処理の流れについて、図4を用いて説明する。図4は、対話装置1が実行する処理の流れの一例を示すフローチャートである。
はじめに、対話装置1はユーザから発話による音声の入力を入力部10にて受け付けると、該音声の音声データについて音声認識部61にて音声認識を行ってテキストデータを生成する(S1)。その後、秘匿情報判定部63は、入力内容であるS1にて生成したテキストデータに秘匿情報が含まれるか否かを判定する(S2:秘匿情報判定処理)。秘匿情報が含まれると判定した場合(S2でYES)、制御部60は秘匿情報フラグ「あり」を付したレコードを入出力履歴21に登録する(S3)。その後、処理はS5へ進む。一方、秘匿情報が含まれないと判定した場合(S2でNO)、制御部60は秘匿情報フラグ「なし」を付したレコードを入出力履歴21に登録する(S4)。その後、処理はS5へ進む。
S5において、応答候補取得部62は入力内容に対する応答内容の候補を入出力履歴21から取得する(S5)。さらに応答候補取得部62は、S5で取得できた応答内容の候補が存在するか否かを判定する(S6)。候補が存在しないと判定した場合(S6でNO)、応答候補取得部62はその旨を応答内容決定部65へ送信する。そして応答内容決定部65はシナリオ情報23を用いて入力内容に対する応答内容を決定する(S7:応答内容決定処理)。その後、処理はS13へ進む。
S6において応答内容の候補が存在すると判定した場合(S6でYES)、応答候補取得部62はさらに、応答内容の候補が秘匿情報を含むか否かを判定する(S8)。秘匿情報を含むと判定した場合(S8でYES)、状況判定部64はGPS受信部30等を用いて周囲の状況に関する情報を取得する(S9)。その後、状況判定部64は周囲の状況が秘匿情報を出力してよい状況であるか否かを判定する(S10:状況判定処理)。秘匿情報を出力してよい状況ではないと判定した場合(S10でNO)、状況判定部64は判定結果を応答内容決定部65へ送信する。応答内容決定部65は、受信した判定結果に基づいてシナリオ情報23を用いて代替応答を生成し、応答内容に決定する(S11:応答内容決定処理)。その後、処理はS13へ進む。
一方、S8において応答候補取得部62が秘匿情報を含まないと判定した場合(S8でNO)、またはS10において状況判定部64が秘匿情報を出力してよい状況であると判定した場合(S10でYES)、応答内容決定部65はS5で取得した応答候補を用いて応答内容を決定する(S12:応答内容決定処理)。その後、処理はS13へ進む。
S13において、応答内容決定部65はS7、S11、およびS12のいずれかで決定された応答内容について、出力部50から出力する(S13)。その後、制御部60は秘匿情報判定部63を用いてS13で出力した応答内容に秘匿情報が含まれるか否かを判定する(S14:秘匿情報判定処理)。秘匿情報が含まれると判定した場合(S14でYES)、制御部60は秘匿情報フラグ「あり」を付したレコードを入出力履歴21に登録した後(S15)、一連の処理を終了する。一方、秘匿情報が含まれないと判定した場合(S15でNO)、制御部60は秘匿情報フラグ「なし」を付したレコードを入出力履歴21に登録した後(S16)、一連の処理を終了する。
以上の処理によって、本実施形態に係る対話装置1はユーザと対話する際、過去の入出力履歴に基づいて応答することができる。対話装置1はさらに、応答内容の候補として秘匿情報が含まれており、該秘匿情報を出力してよい状況ではない場合、該秘匿情報を含まない代替応答を用いて応答することができる。これにより、例えば対話装置1の周囲にユーザ以外の他人がおり、該他人に該ユーザの個人情報等の秘匿情報を聞かせたくない場合は、代替応答を出力させることができる。したがって、状況に応じて秘匿情報の出力制御を行う利便性に優れた対話装置を提供することができるという効果を奏する。
なお、図2の(b)を用いた説明で用いた代替応答「出かけるって言ってましたよ」は、秘匿情報を含む応答内容の候補「心療内科にうつ病カウンセリングを受けに行く」に応じた内容であったが、代替応答はどのような内容であってもよい。例えば、対話装置1は代替応答として「今話してもいいですか」といった、入出力履歴21の内容を含まない発話文を出力を行ってもよい。
〔変形例〕
前記実施形態1において、対話装置1は秘匿情報をしてよい状況ではない場合、該秘匿情報を含まない代替応答を用いて応答する構成であった。しかしながら、対話装置1の出力部50がスピーカーとディスプレイの組み合わせといった複数の出力方式を含む構成であった場合に、例えば対話装置1はスピーカーから代替応答を出力し、ディスプレイには秘匿情報を含む応答内容をそれぞれ出力してもよい。すなわち、応答内容決定部65は対話装置1が出力部50として複数の要素を備えている場合に、要素ごとに異なる応答内容を決定してもよい。具体的には、応答内容決定部65はスピーカーに対する応答内容として代替応答を決定し、ディスプレイに対する応答内容として秘匿情報を含む応答内容を別箇に決定してもよい。このとき、対話装置1は図示しない駆動部を用いてユーザのみが確認できる向きにディスプレイを配置することが好ましい。
〔ソフトウェアによる実現例〕
対話装置1の制御ブロック(特に秘匿情報判定部63、状況判定部64、および応答内容決定部65)は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、ソフトウェアによって実現してもよい。
後者の場合、対話装置1は、各機能を実現するソフトウェアであるプログラムの命令を実行するコンピュータを備えている。このコンピュータは、例えば少なくとも1つのプロセッサ(制御装置)を備えていると共に、前記プログラムを記憶したコンピュータ読み取り可能な少なくとも1つの記録媒体を備えている。そして、前記コンピュータにおいて、前記プロセッサが前記プログラムを前記記録媒体から読み取って実行することにより、本発明の目的が達成される。前記プロセッサとしては、例えばCPU(Central Processing Unit)を用いることができる。前記記録媒体としては、「一時的でない有形の媒体」、例えば、ROM(Read Only Memory)等の他、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、前記プログラムを展開するRAM(Random Access Memory)などをさらに備えていてもよい。また、前記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して前記コンピュータに供給されてもよい。なお、本発明の一態様は、前記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。
〔まとめ〕
本発明の態様1に係る制御装置(制御部60)は、ユーザが入力した内容に対し、過去の入出力履歴(21)に基づいて生成した応答内容を出力する対話装置(1)を制御する制御装置であって、前記応答内容の候補として選択した特定の入出力履歴に秘匿情報が含まれるか否かを判定する秘匿情報判定部(63)と、前記秘匿情報を出力してよい状況か否かを判定する状況判定部(64)と、前記応答内容を決定する応答内容決定部(65)と、を備えており、前記応答内容決定部は、前記状況判定部が前記秘匿情報を出力してよい状況ではないと判定した場合、該秘匿情報を含まない代替応答を前記応答内容として決定する、構成である。
前記の構成によれば、対話装置はユーザと対話する際、過去の入出力履歴に基づいて応答することができる。対話装置はさらに、応答内容の候補として秘匿情報が含まれており、該秘匿情報を出力してよい状況ではない場合、該秘匿情報を含まない代替応答を用いて応答することができる。これにより、例えば対話装置の周囲にユーザ以外の他人がおり、該他人に該ユーザの個人情報等の秘匿情報を聞かせたくない場合は、代替応答を出力させることができる。したがって、状況に応じて秘匿情報の出力制御を行う利便性に優れた対話装置を提供することができるという効果を奏する。
本発明の態様2に係る制御装置(制御部60)は、前記態様1において、前記状況判定部(64)は、前記対話装置(1)の位置、周囲の環境音、および現在の日時の少なくともいずれかに基づいて前記秘匿情報を出力してよい状況か否かを判定する、構成としてもよい。
前記の構成によれば、対話装置は自身の位置情報等に基づいて秘匿情報を出力してよい状況か否かを判定することができる。これにより、例えば位置情報等から対話装置がユーザの自宅内にいると判定した場合、該対話装置は秘匿情報を出力してよい状況であると判定して該秘匿情報を含む応答内容を出力することができる。
本発明の態様3に係る制御装置(制御部60)は、前記態様1または2において、前記代替応答は、前記入出力履歴(21)の内容を含まない、構成としてもよい。
前記の構成によれば、対話装置は、秘匿情報を出力してよい状況ではない場合に入出力履歴の内容を含まない代替応答を出力することができる。これにより、例えば入出力履歴の内容に限定されない、自然な応答内容を出力することができる。
本発明の態様4に係る制御装置(制御部60)は、前記態様1から3のいずれかにおいて、前記ユーザが入力した内容および前記対話装置(1)が出力した応答内容に前記秘匿情報が含まれていた場合は、秘匿情報が含まれていることを示す情報を付加し、これらの内容を前記入出力履歴(21)として登録する、構成としてもよい。
前記の構成によれば、対話装置は秘匿情報が含まれる入出力履歴について、秘匿情報が含まれていることを示す情報を付加して登録することができる。これにより、例えば応答内容の候補として選択した特定の入出力履歴に秘匿情報が含まれるか否かを確実に判定することができる。
本発明の態様5に係る対話装置(1)は、ユーザが入力した内容に対し、過去の入出力履歴(21)に基づいて生成した応答内容を出力する対話装置であって、該対話装置は少なくとも1つの入力装置(入力部10)と、少なくとも1つの出力装置(出力部50)と、少なくとも1つの記憶装置(記憶部20)と、少なくとも1つの制御装置(制御部60)とを備えており、前記制御装置は、前記応答内容の候補として選択した特定の入出力履歴(21)に秘匿情報が含まれるか否かを判定する秘匿情報判定処理(秘匿情報判定部63)と、前記秘匿情報を出力してよい状況か否かを判定する状況判定処理(状況判定部64)と、前記応答内容を決定する応答内容決定処理(応答内容決定部65)と、を含み、前記応答内容決定処理は、前記状況判定処理にて前記秘匿情報を出力してよい状況ではないと判定された場合、該秘匿情報を含まない代替応答を前記応答内容として決定する、構成である。前記の構成によれば、前記態様1と同様の作用効果を奏する。
本発明の態様6に係る制御方法は、ユーザが入力した内容に対し、過去の入出力履歴(21)に基づいて生成した応答内容を出力する対話装置(1)を制御する制御方法であって、前記応答内容の候補として選択した特定の入出力履歴に秘匿情報が含まれるか否かを判定する秘匿情報判定工程(S2、S14)と、前記秘匿情報を出力してよい状況か否かを判定する状況判定工程(S10)と、前記応答内容を決定する応答内容決定工程(S7、S11、S12)と、を備えており、前記応答内容決定工程では、前記状況判定工程にて前記秘匿情報を出力してよい状況ではないと判定した場合、該秘匿情報を含まない代替応答を前記応答内容として決定する、構成である。前記の構成によれば、前記態様1と同様の作用効果を奏する。
本発明の各態様に係る対話装置は、コンピュータによって実現してもよく、この場合には、コンピュータを前記対話装置が備える各部(ソフトウェア要素)として動作させることにより前記対話装置をコンピュータにて実現させる対話装置の制御プログラム、およびそれを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に入る。
本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。さらに、各実施形態にそれぞれ開示された技術的手段を組み合わせることにより、新しい技術的特徴を形成することができる。
1 対話装置
10 入力部(入力装置)
20 記憶部(記憶装置)
21 入出力履歴
50 出力部(出力装置)
60 制御部(制御装置)
61 音声認識部
62 応答候補取得部
63 秘匿情報判定部
64 状況判定部
65 応答内容決定部

Claims (7)

  1. ユーザが入力した内容に対し、過去の入出力履歴に基づいて生成した応答内容を出力する対話装置を制御する制御装置であって、
    前記応答内容の候補として選択した特定の入出力履歴に秘匿情報が含まれるか否かを判定する秘匿情報判定部と、
    前記秘匿情報を出力してよい状況か否かを判定する状況判定部と、
    前記応答内容を決定する応答内容決定部と、を備えており、
    前記応答内容決定部は、前記状況判定部が前記秘匿情報を出力してよい状況ではないと判定した場合、該秘匿情報を含まない代替応答を前記応答内容として決定する、ことを特徴とする制御装置。
  2. 前記状況判定部は、前記対話装置の位置、周囲の環境音、および現在の日時の少なくともいずれかに基づいて前記秘匿情報を出力してよい状況か否かを判定する、ことを特徴とする請求項1に記載の制御装置。
  3. 前記代替応答は、前記入出力履歴の内容を含まない、ことを特徴とする請求項1または2に記載の制御装置。
  4. 前記ユーザが入力した内容および前記対話装置が出力した応答内容に前記秘匿情報が含まれていた場合は、秘匿情報が含まれていることを示す情報を付加し、これらの内容を前記入出力履歴として登録する、ことを特徴とする請求項1から3のいずれか1項に記載の制御装置。
  5. ユーザが入力した内容に対し、過去の入出力履歴に基づいて生成した応答内容を出力する対話装置であって、該対話装置は少なくとも1つの入力装置と、少なくとも1つの出力装置と、少なくとも1つの記憶装置と、少なくとも1つの制御装置とを備えており、
    前記制御装置は、
    前記応答内容の候補として選択した特定の入出力履歴に秘匿情報が含まれるか否かを判定する秘匿情報判定処理と、
    前記秘匿情報を出力してよい状況か否かを判定する状況判定処理と、
    前記応答内容を決定する応答内容決定処理と、を含み、
    前記応答内容決定処理は、前記状況判定処理にて前記秘匿情報を出力してよい状況ではないと判定された場合、該秘匿情報を含まない代替応答を前記応答内容として決定する、ことを特徴とする対話装置。
  6. ユーザが入力した内容に対し、過去の入出力履歴に基づいて生成した応答内容を出力する対話装置を制御する制御方法であって、
    前記応答内容の候補として選択した特定の入出力履歴に秘匿情報が含まれるか否かを判定する秘匿情報判定工程と、
    前記秘匿情報を出力してよい状況か否かを判定する状況判定工程と、
    前記応答内容を決定する応答内容決定工程と、を備えており、
    前記応答内容決定工程では、前記状況判定工程にて前記秘匿情報を出力してよい状況ではないと判定した場合、該秘匿情報を含まない代替応答を前記応答内容として決定する、ことを特徴とする制御装置。
  7. コンピュータを、請求項1から4のいずれか1項に記載の制御装置における各部として機能させるためのプログラム。
JP2018106974A 2018-06-04 2018-06-04 制御装置、対話装置、制御方法、およびプログラム Pending JP2019211966A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018106974A JP2019211966A (ja) 2018-06-04 2018-06-04 制御装置、対話装置、制御方法、およびプログラム
US16/427,686 US20190371308A1 (en) 2018-06-04 2019-05-31 Control device, interactive apparatus, and control method
CN201910477112.9A CN110619872A (zh) 2018-06-04 2019-06-03 控制装置、对话装置、控制方法及记录介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018106974A JP2019211966A (ja) 2018-06-04 2018-06-04 制御装置、対話装置、制御方法、およびプログラム

Publications (1)

Publication Number Publication Date
JP2019211966A true JP2019211966A (ja) 2019-12-12

Family

ID=68694144

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018106974A Pending JP2019211966A (ja) 2018-06-04 2018-06-04 制御装置、対話装置、制御方法、およびプログラム

Country Status (3)

Country Link
US (1) US20190371308A1 (ja)
JP (1) JP2019211966A (ja)
CN (1) CN110619872A (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210248152A1 (en) * 2020-02-12 2021-08-12 International Business Machines Corporation Data prioritization based on determined time sensitive attributes

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101308654B (zh) * 2007-05-14 2012-11-07 华为技术有限公司 一种语音分析识别方法、***与装置
JP5688279B2 (ja) * 2010-12-08 2015-03-25 ニュアンス コミュニケーションズ,インコーポレイテッド 秘匿情報をフィルタリングする情報処理装置、方法およびプログラム
CN106603873A (zh) * 2017-02-21 2017-04-26 珠海市魅族科技有限公司 语音控制方法和语音控制***

Also Published As

Publication number Publication date
US20190371308A1 (en) 2019-12-05
CN110619872A (zh) 2019-12-27

Similar Documents

Publication Publication Date Title
WO2015098306A1 (ja) 応答制御装置、制御プログラム
US8775189B2 (en) Control center for a voice controlled wireless communication device system
KR101255402B1 (ko) 대안들의 목록을 사용하는 오인된 단어들의 다시 받아쓰기
CN109427329B (zh) 信息处理装置、车载装置和存储介质
US8315873B2 (en) Sentence reading aloud apparatus, control method for controlling the same, and control program for controlling the same
JP4667085B2 (ja) 音声対話システム、コンピュータプログラム、対話制御装置及び音声対話方法
KR20130034630A (ko) 컨텍스트 정보를 이용한 음성 인식 복구
US20190147851A1 (en) Information processing apparatus, information processing system, information processing method, and storage medium which stores information processing program therein
US9082401B1 (en) Text-to-speech synthesis
US20170178632A1 (en) Multi-user unlocking method and apparatus
US20130253932A1 (en) Conversation supporting device, conversation supporting method and conversation supporting program
KR20080107376A (ko) 화자 독립 음성 인식을 구비한 통신 장치
JPWO2019031268A1 (ja) 情報処理装置、及び情報処理方法
US20060190260A1 (en) Selecting an order of elements for a speech synthesis
JPWO2018043138A1 (ja) 情報処理装置および情報処理方法、並びにプログラム
WO2016103358A1 (ja) 音声認識装置及び音声認識方法
US8355484B2 (en) Methods and apparatus for masking latency in text-to-speech systems
JP2020113150A (ja) 音声翻訳対話システム
JP2019211966A (ja) 制御装置、対話装置、制御方法、およびプログラム
US20170221481A1 (en) Data structure, interactive voice response device, and electronic device
RU2320026C2 (ru) Преобразование буквы в звук для синтезированного произношения сегмента текста
JP2019090945A (ja) 情報処理装置
JP2015087649A (ja) 発話制御装置、方法、発話システム、プログラム、及び発話装置
JP2009104047A (ja) 情報処理方法及び情報処理装置
JP4079275B2 (ja) 会話支援装置