JP2018067100A - ロボット対話システム - Google Patents

ロボット対話システム Download PDF

Info

Publication number
JP2018067100A
JP2018067100A JP2016204449A JP2016204449A JP2018067100A JP 2018067100 A JP2018067100 A JP 2018067100A JP 2016204449 A JP2016204449 A JP 2016204449A JP 2016204449 A JP2016204449 A JP 2016204449A JP 2018067100 A JP2018067100 A JP 2018067100A
Authority
JP
Japan
Prior art keywords
robot
dialogue
action list
information
alternative means
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016204449A
Other languages
English (en)
Inventor
貴志 住吉
Takashi Sumiyoshi
貴志 住吉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2016204449A priority Critical patent/JP2018067100A/ja
Priority to US15/730,194 priority patent/US20180108352A1/en
Publication of JP2018067100A publication Critical patent/JP2018067100A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/903Querying
    • G06F16/9032Query formulation
    • G06F16/90332Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/008Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/221Announcement of recognition results
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/226Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
    • G10L2015/227Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of the speaker; Human-factor methodology

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Human Computer Interaction (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Robotics (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Manipulator (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】サービス開発者が作成したシナリオにおいて発生する不適切なサービスロボットの行動を回避する。【解決手段】利用者と対話するロボットと、ロボットが配置される空間の環境状況を検出する環境センサを含み、ロボットを制御する対話手段と対話属性と対話内容を含む行動リストを予め設定したシナリオと、行動リストに含まれる対話手段の評価値を環境状況と対話属性に応じて設定したスコア情報と、行動リストに含まれる対話手段を代替手段に変換する代替手段情報と、を有し、シナリオから行動リストを選択し、行動リストに含まれる対話手段を代替手段に変換して行動リストの対話手段を代替手段に置き換えた第2の行動リストを生成し、第2の行動リストに含まれる対話属性と環境状況に基づいてスコア情報から代替手段の評価値を算出し、評価値が最大の第2の行動リストを選択する。【選択図】図3

Description

本発明は、利用者とコミュニケーションを取りながらサービスを提供するロボットの対話システムに関する。
近年、人間と同じ空間に存在し、様々なサービスを提供するサービスロボットが広く開発されている。サービスロボットに行わせるサービスを開発する者(以下、サービス開発者)は、サービスロボットのメーカから提供される開発環境やシナリオ作成ツールを用いて開発を行うことが多い。サービスロボットに詳しいサービス開発者に対しては、より低水準なAPI(Application Program Interface)が提供される。一方で、サービスロボットに詳しくないサービス開発者であっても簡単な言語やGUI(Graphical User Interface)でサービスを記述できるシナリオ作成ツールが提供される。サービスロボットの普及にあたり、サービス開発の容易さは重要なファクターである。
サービスロボットはサービス開発者の意図に沿った行動を行うと同時に、状況に応じて適切な応答を行うことが求められる。状況とは、ロボット自身の状態、利用者の状態、その他の環境の状態を含む。
例えば特許文献1では、会話の内容から状況を推定し、推定した状況を出力する自動対話作成方法が開示されている。
例えば特許文献2、3では、ユーザやエージェントの状態を推定し、状態に即した応答文を生成する会話文生成方法が開示されている。
例えば特許文献4では、センサで周囲を測定したデータをデータベースとして記憶し、記憶されたデータに基づいてユーザの行動内容などを推論してユーザに対話文を生成し、ユーザからの応答から情報を特定することが開示されている。
例えば特許文献5では、ユーザどうしのチャット文から、不適切なチャットを検出し、警告を出す等の仲介を行うオンラインバーチャルロボットが開示されている。
特開2006−172280号公報 国際公開第2014/073612号公報 国際公開第2014/073613号公報 特開2012−048333号公報 特表2010−509679号公報
サービスロボットは、利用者の要求を聞き出し、要求に基づいた情報の提供を行う。その際に利用者に関する情報を取得し、取得した情報に基づきより適切な情報を選択して利用者に提供することで、利用者の満足度を向上させることができる。
サービスロボットに詳しくないサービス開発者が、シナリオ作成ツールを用いてサービス開発を行う場合、サービスロボットとサービス利用者が置かれる状況を十分に想定することができず、結果として不適切な行動をサービスロボットに行わせてしまうことがある。
例えば、他者が存在する環境で機微な個人情報に関する質問をサービスロボットがサービス利用者に行ってしまい、サービス利用者の満足度を低下させることなどがあげられる。このようなことは、特に既存のWebサービスや端末を介したユーザインタラクションをそのままロボットのサービスに置き換えようとした際に発生しやすい。
そのためサービス開発者は、サービスで活用したい情報をサービス利用者から適切に取得する方法について検討する必要がある。質問ごとにサービスロボットが置かれうる状況を想定し、シナリオ作成ツールを用いてシナリオを作りこむことは、サービスロボットに詳しくないサービス開発者にとっては非常に大きなコストがかかり現実的ではない。
前述した特許文献1では、会話の内容から推定した状況を出力する自動対話作成方法が開示されているが、サービスロボットが行う発話の内容とロボットのおかれた環境の状況を照らし合わせて適切な行動をとる方法は提供されていない。
特許文献2、3では、ユーザやエージェントの内部状態を推定して応答文の生成を行っているが、サービスロボットが取得しようとする情報とサービスロボットのおかれた環境の状況に基づき行動制御を行うという方法は提供されていない。
特許文献4では、センサによるユーザの過去の状況を推定し、それが正しいかどうかを対話で解決しているが、サービスロボットが取得しようとする情報とロボットのおかれた環境の状況に基づき行動制御を行うという方法は提供されていない。特許文献5では、オンラインで不適切な状況を検出して警告を表示するアクションを行うが、サービスロボットで活用可能な環境情報や代替手段の適用については記載されていない。
そこで、本発明は上記問題点に鑑みてなされたもので、サービス開発者が作成したシナリオにおいて発生する不適切なサービスロボットの行動を回避することを目的とする。
本発明は、プロセッサと記憶装置を有して利用者と対話するロボットと、前記ロボットが配置される空間に設置されて、前記空間の環境状況を検出する環境センサと、前記環境センサと前記ロボットを接続するネットワークと、を含むロボット対話システムであって、前記ロボットは、音声情報によって前記利用者と対話を行う音声情報対話部と、文字情報によって前記利用者と対話を行う文字情報対話部と、前記ロボットを制御する対話手段と対話属性と対話内容を含む行動リストを予め設定したシナリオと、前記行動リストに含まれる対話手段の評価値を、環境状況と対話属性に応じて予め設定したスコア情報と、前記行動リストに含まれる対話手段を他の対話手段である代替手段に変換する代替手段情報と、を有し、前記プロセッサは、前記シナリオから前記利用者との対話に応じて行動リストを選択し、前記プロセッサは、前記環境センサから取得した情報に基づいて前記環境状況を算出し、前記プロセッサは、前記選択した行動リストに含まれる対話手段で代替手段情報を参照して代替手段に変換し、前記行動リストの対話手段を前記代替手段に置き換えた第2の行動リストを生成し、前記プロセッサは、前記生成した第2の行動リストに含まれる対話属性と、前記環境状況に基づいて、前記スコア情報から代替手段の評価値を算出し、前記プロセッサは、前記代替手段の前記評価値が最大の前記第2の行動リストを選択する。
本発明によれば、サービス開発者が作成したシナリオにおいて発生する不適切なロボットの行動をロボットが環境情報などを用いて自ら回避し、適切な情報取得とそれに基づいたサービスの提供が可能となる。
本発明の第1の実施例を示し、移動ロボット対話システムの一例を示す概略図である。 本発明の第1の実施例を示し、移動ロボット対話システムの一例を示すブロック図である。 本発明の第1の実施例を示し、サービスロボットで実行されるメインプログラムの処理の一例を示すフローチャートである。 本発明の第1の実施例を示し、サービスロボットのスコアテーブルの一例を示す図である。 本発明の第1の実施例を示し、サービスロボットの代替手段テーブルの一例を示す図である。 本発明の第1の実施例を示し、サービスロボットのシナリオの一例を示す図である。 本発明の第2の実施例を示し、移動ロボット対話システムの一例を示すブロック図である。 本発明の第3の実施例を示し、移動ロボット対話システムの一例を示すブロック図である。
以下、本発明の実施形態を添付図面に基づいて説明する。
移動ロボット対話システムの実施例の1つを説明する。図1は、移動ロボット対話システム10の第1の実施例形態を示す概略図である。
移動ロボット対話システム10は、サービスロボット20−a、20−bと、環境カメラ30−a、30−bと、ディスプレイ40と、無線アクセスポイント50から構成される。なお、以下では、サービスロボットの全体について説明する場合には、「−」以降を省略した符号「20」を用いる。その他の、構成要素の符号についても同様である。
環境カメラ30と、ディスプレイ40及び無線アクセスポイント50は、サービスロボット20が稼働する空間内に設置されて、無線ネットワークを提供してサービスロボット20に接続される。サービスロボット20は自身に搭載されたセンサの情報や、環境カメラ30からの画像により現在の空間の環境状況を把握しつつ、サービス開発者によって与えられたシナリオに従って稼働する。
環境カメラ30と、ディスプレイ40及び無線アクセスポイント50は有線のTCP/IPプロトコルによるネットワーク60(図2参照)により接続され、サービスロボット20は無線アクセスポイント50を経由してTCP/IPのネットワーク60に接続され、相互に通信可能な状態である。環境カメラ30は市販のWebカメラを採用することができ、取得した映像または画像をサービスロボット20に送信する手段を含む。ディスプレイ40は市販のサイネージ装置を採用することができ、サービスロボット20からの指示を受信したとき画面に所定の情報を表示する手段を有する。
図2は、移動ロボット対話システムの一例を示すブロック図である。
サービスロボット20−aのバス210は、CPU221と、ネットワークインターフェース(図中NIF)222と、マイク(音声情報入力装置)223と、スピーカ(音声情報入力装置)224と、カメラ225と、入出力装置226と、移動装置227及び記憶装置220を相互に接続してデータ信号を中継するもので、汎用のPCで用いられる規格(PCIなど)を用いることができる。なお、サービスロボット20−bも同様の構成であるので重複する説明は省略する。
CPU120は記憶装置220にロードしたプログラムを実行し、マイク223やカメラ225から取得した情報(音声情報や画像情報)に基づいて、移動装置227やスピーカ224や入出力装置226に所定の信号を出力してサービスロボット20を制御する。なお、汎用のCPUやチップコントローラを用いることができる。
マイク223は、サービスロボット20周辺の音声や利用者の音声を収録(または入力)する音声情報入力装置で、例えば市販のコンデンサマイクとA/Dコンバータを用いることができる。
スピーカ224は、サービスロボット20が利用者への問いかけや、利用者への応答を出力する音声情報出力装置である。マイク223とスピーカ224は、音声により利用者と対話を実施する音声情報対話部を構成する。
カメラ225は、サービスロボット20の周囲の映像または画像を撮影する。カメラ225が取得した画像情報に基づいて、メインプログラム131の画像認識部が利用者の認識や、空間内の混雑度の算出を実施する。
ネットワークインターフェース(図中NIF)222は、無線アクセスポイント50に接続されて、サービスロボット20が配置された空間内の環境状況(混雑度など)を検出する環境カメラ30やディスプレイ40と通信を行う。なお、サービスロボット20は、自身のカメラ225に加えて環境カメラ30から取得した画像情報からサービスロボット20の周囲の状況を判定することで、サービスロボット20が配置された空間の環境状況を正確に判定することができる。また、サービスロボット20は、利用者への応答として画像情報を利用する場合には、空間に設置されたディスプレイ40に出力することができる。
なお、サービスロボット20を配置する空間で、混雑度などの環境状況を検出する環境センサとしては、空間内に設置された環境カメラ30の他に、騒音を検出するマイクや、生体の移動を検出する動体センサを用いるようにしてもよい。これらの環境センサは、空間内の複数の箇所に配置されてネットワーク60に接続される。特に、サービスロボット20の所定の移動先となる場所(A)等の混雑度を検出可能なように環境センサを空間内に配置するのが望ましい。
入出力装置226は、利用者との応対で使用するタッチパネル付き表示装置やプリンタなどで構成される。入出力装置226は、利用者との応対に音声を使うことが望ましくない場合などに、画像や文字情報の表示あるいは印刷や、文字情報の入力を行うことができる。入出力装置226は、文字情報によって利用者との対話を行う文字情報対話部を構成する。なお、文字情報対話部としてディスプレイ40を加えるようにしても良い。
移動装置227は、サービスロボット20を空間内で移動させる動力装置と制御装置を含む。
記憶装置220はプログラムやデータを格納するもので、例えば市販のDRAMやHDDやSSDを用いることができる。
記憶装置220には、サービスロボット20を制御するメインプログラム131と、実行する対話の手段と環境状況に応じたスコア(評価値)が予め設定されたスコアテーブル141と、実行する対話の手段の代替手段が予め設定された代替手段テーブル142と、実行する対話の手段と対話の属性と対話の内容を含む行動リストが予め設定されたシナリオ143が格納される。
なお、上記ではサービスロボット20のセンサとしてマイク223やカメラ225を使用する例を示したが、これらに限定されるものではなく、温度センサや動体検知センサや加速度センサや位置センサや光量センサやタッチセンサなどの各種センサを含むことができる。なお、メインプログラム131には、サービスロボット20に搭載されたセンサに応じて画像認識や音声認識や動体認識等のセンサ情報を認識するためのモジュールが含まれる。
CPU221は、各機能部のプログラムに従って処理することによって、所定の機能を提供する機能部として稼働する。例えば、CPU221は、メインプログラム131に従って処理することでロボット制御部として機能する。他のプログラムについても同様である。さらに、CPU221は、各プログラムが実行する複数の処理のそれぞれの機能を提供する機能部としても稼働する。計算機及び計算機システムは、これらの機能部を含む装置及びシステムである。
図3は、サービスロボット20で実行されるメインプログラム231の一例を示すフローチャートである。
メインプログラム131は、サービスロボット20の起動後に開始される(S01)。まず、メインプログラム131は、スコアテーブル141を記憶装置220から読み込む(S02)。次に、メインプログラム131は、代替手段テーブル142を記憶装置220から読み込む(S03)。次に、メインプログラム131は、シナリオ143を記憶装置220から読み込む(S04)。
メインプログラム131は、カメラ225やマイク223や入出力装置226等のセンサからのセンサ情報に基づいて利用者の有無を判定する。利用者が存在する場合にはステップS06へ進み、利用者が存在しない場合には待機する。なお、利用者の有無の判定は、画像認識や音声認識などの周知または公知の技術を適用すれば良いので、説明は省略する。
図4は、サービスロボット20のスコアテーブル141の一例を示す図である。
スコアテーブル141は関係データベースのテーブルである。スコアテーブル141の各レコードは、対話の内容の属性を格納する属性1411、サービスロボット20の周囲の環境状況を格納する環境状況1412と、対話の手段を格納する手段1413と、対話の属性と環境状況に応じた対話の手段1413に対する評価値が予め設定された格納するスコア1414とを含む。
スコアテーブル141は、属性条件としての属性1411と、環境状況条件としての環境状況1412と、手段条件としての手段1413の3つの情報をキーとしてスコア1414を定義する。
属性条件は後述するシナリオ143内の具体的な行動(対話)に付与される属性が満たすべき条件を示す。環境状況条件はサービスロボット20が取得可能な環境状況が満たすべき条件を示す。手段条件は後述するシナリオ143の行動リスト1432に記載された対話の手段が満たすべき条件を示す。
対話の手段の例としては、サービスロボット20が音声により問い合わせて、音声認識により利用者の音声情報を変数へ変換する「QUESTION」や、変数の値によりシナリオ143に設定された行動リスト番号1431を変更する「CASE」や、音声により情報を提供する「SAY」や、シナリオ143の行動リスト番号1431を変更する「GOTO」や、利用者を所定の場所まで案内しながら移動する「GUIDETO」や、サービスロボット20が有する入出力装置226により利用者から情報を取得する「INPUT」や、入出力装置226やディスプレイ40により情報を提供する「DISPLAY_SENTENCE」や、紙面への印刷により情報を提供する「PRINT」等がある。スコアテーブル141はサービスを行う主体のポリシーに従い、サービスの種類に依存せずに予め設定される。
また、環境状況1412の「人が多い」、「人が少ない」という状況は、サービスロボット20が、各センサで検出したデータに基づいて算出した人数と、所定の閾値を比較することで判定することができる。
また、環境状況1412は、人数の他に、空間内の人の密度を混雑度として算出してもよく、混雑度が所定の閾値以上であれば混雑(人が多い)と判定し、混雑度が閾値未満であれば空いている(人が少ない)と判定することができる。また、混雑度は、複数の環境カメラ30からの画像情報を周知または公知の検出技術によって算出することができる。
また、環境状況1412は、サービスロボット20の位置の光量から明暗を算出してもよく、光量が閾値以上であれば明るいと判定し、光量が閾値未満であれば空いて暗いと判定することができる。サービスロボット20の位置における明暗によって、情報を提供する装置を入出力装置226からディスプレイ40に切り替えることができる。
また、環境状況1412は、サービスロボット20の位置で測定したマイク223の音量から騒音を算出してもよく、騒音が閾値以上であれば「うるさい」と判定し、騒音が閾値未満であれば「静か」と判定することができる。サービスロボット20の位置における騒音の大きさによって、情報を提供する装置をスピーカ224から入出力装置226やディスプレイ40に切り替えることができる。
図5は、サービスロボット20の代替手段テーブル142の一例を示す図である。
代替手段テーブル142のテーブルの各行は手段リストグループである。相互に代替可能な手段リストを手段リストグループとして定義している。手段1421には、代替対象を検討する手段が格納される。代替手段1422〜1424には、手段1421を代替する手段が格納される。なお、図示の例では、最大3つの代替手段を列挙する手段リストの例を示すが、これに限定されるものではない。
手段リストは複数の手段から構成されてもよく、図示の例では手段がセミコロンで区切られて表記されている。代替手段テーブル142はサービスロボット20や他の環境カメラ30やディスプレイ40等の利用可能な装置の種類に応じて、サービスの種類に依存せずに生成される。
図6はサービスロボット20のシナリオ143の一例を示す図である。
シナリオ143の各行は行動リスト番号1431と行動リスト1432からなる。行動リスト1432はサービスロボット20が利用者などに対して実施する行動のリストであり、図ではセミコロンで区切られて1以上の行動が表記されている。行動リスト1432内の「行動」は「対話の手段」と「対話の内容」からなる。「対話の内容」には「対話の属性」を含むことができる。
上述のように「対話の手段」は音声により情報を提供する「SAY」等のようにサービスロボット20が実施する「行動」を示す。そして、「対話の内容」は「小型冷蔵庫XXがおすすめです」等の音声情報または文字情報の内容を示す。「対話の属性」は、図示の「目的」や「家族構成」や「住宅種別」や「案内場所」のように対話の内容がどのようなカテゴリであるかを示す情報である。シナリオ143はサービス開発者により予め生成され、サービスロボット20内に配置されている。
図3に戻って説明を続ける。メインプログラム131は、カメラ225やマイク223等のセンサからの情報に基づいて上述の画像認識や音声認識により、実行するシナリオ143の行動リスト番号1431を決定して変数Nに代入する(S06)。
例えば、メインプログラム131は、利用者との対話が初回の対話であれば、図6に示したシナリオ143の行動リスト番号1431が「1」の行動リストを選択し、「何かお手伝いしましょうか?」と発話し、利用者からの応答に応じた行動リスト番号1431を選択する。
図6に示した行動リスト番号1431が「1」の行動リストでは、利用者からの回答が「商品説明」の要求であれば行動リスト番号1431が「2」の行動リストへ移行し、利用者からの回答が「購入手続き」であれば行動リスト番号1431が「9」の行動リストへ移行し、利用者からの回答が「場所案内」の要求であれば行動リスト番号1431が「10」の行動リストへ移行する。
メインプログラム131は、以降、利用者との対話に応じてシナリオ143の行動リスト番号1431を選択して実行する。
メインプログラム131は、サービスロボット20のセンサや、環境カメラ30から画像情報を取得して、現在の環境状況を算出し、環境状況を更新する(S07)。メインプログラム131が取得する情報としては、空間内の人の数、騒音の値、照明の光量、サービスロボット20自身の位置などがある。なお、環境状況としては、空間内の人の数に代わって混雑度などの指標を用いるようにしてもよい。
次に、メインプログラム131は、シナリオ143の行を示す変数Nに対応する行動リスト1432を取得する。メインプログラム131は、取得した行動リスト1432内の手段を選択し、代替手段テーブル142の手段1421が当該手段に該当するレコードを検索する。
メインプログラム131は、代替手段テーブル142の該当レコードから代替手段1422〜1424を、代替手段ルールにより置き換えることが可能な行動(対話の代替手段)として取得する。そして、メインプログラム131は、取得した代替手段で行動リスト1432内の手段を置き換えた新たな行動リストを生成し、置き換え後の行動リストの集合Pを生成する(S08)。なお、集合Pに置き換え前の対話の手段1421を加えて、後述する比較を行うようにしても良い。
次に、メインプログラム131は、集合Pの各行動リストXについて、それぞれスコアS(X)を計算する(S09)。ここで、スコアS(X)は、
S(X)=S(x1)+…+S(xi) ……(1)
と定義する。
xiは、行動リストXのi番目の行動であり、S(x)は手段pと内容qから計算される。すなわち、メインプログラム131は、行動リストXのi番目の行動について手段と内容(属性)を取得して、スコアテーブル141を参照し、手段1413と属性が一致するエントリのスコア1414を取得してS(xi)を算出する。メインプログラム131は、行動リストX内の全ての行動xiについてスコア1414を加算してスコアS(X)の総和を算出する。
手段p=「QUESTION」のとき、内容qは属性と、質問文と、結果代入変数からなる。S(x)=−length(質問)、p=「SAY」のとき内容qは発話文である。S(x)=−length(発話文)、p=「GUIDETO」のとき内容qは場所識別子である。S(x)=−distance(場所識別子)*10、p=「INPUT」のとき内容qは属性、質問文、結果代入変数からなる。
S(x)=−length(質問)*0.1、p=「DISPLAY_SENTENCE」のとき内容qはディスプレイ識別子と提示文からなる。
S(x)=−length(提示文)*0.01、p=「PRINT」のとき内容qは提示文である。S(x)=length(提示文)*2、それ以外はS(x)=0とする。ここでlength(q)はqの文字列長、distance(q)は現在地から場所識別子qが示す地点への距離を示す。
なお、本発明は、上記のスコア計算式に限定されるものではなく、任意の計算式を適用してよい。なお、本発明は、スコアの計算に使用する情報を実施例に限定されるものではなく、例えば環境状況1412により、例えば装置が使用中であることなどから利用者への画面への提示が不適切と判断された場合に、S(x)の値をさらに小さい値に補正するというように、別の環境状況の変数を考慮することもできる。
次に、メインプログラム131は、上記総和を計算した集合Pの各行動リストXのスコアのうち、スコアS(X)が最大(負値の場合は絶対値が最小)となる行動リストXを行動リストYとして選択する(S10)。
最後にメインプログラム131は、行動リストYの各行動yについて実行する(S11)。
行動yの手段pと内容qについて、手段p=「QUESTION」のとき、内容qは属性、質問文、結果代入変数からなり、メインプログラム131は、質問文を再生し、図示しない音声認識エンジンによりマイク223からの音声を認識し、音声認識結果を結果代入変数に代入する。
音声認識エンジンは市販の音声認識エンジンやWebの音声認識サービスを用いることができる。音声認識エンジンに辞書や文法を提供する必要がある場合は、辞書などを内容qに含めて提供する。
また、手段p=CASEのとき、内容qは変数、および変数値と移動先の行動リスト番号1431のリストからなり、リスト内の変数値と変数を比較して一致した移動先の行動リスト番号1431を変数Nをセットする。
手段p=「SAY」のとき、内容qは発話文であり、メインプログラム131は、発話文を再生する。手段p=「GOTO」のとき、内容qは行動リスト番号1431であり、メインプログラム131は、行動リスト番号を変数Nにセットする。
手段p=「GUIDETO」のとき、内容qは場所識別子であり、メインプログラム131は、場所識別子が示す場所まで利用者を案内しながら移動する。案内の手続きは、利用者への声掛けや、利用者の追従を検出し、追従していないときに停止し再度声掛けを行う、などを含むことができる。
手段p=「INPUT」のとき、内容qは属性、質問文、結果代入変数からなり、メインプログラム131は、質問文をサービスロボット20が有する入出力装置226に表示し、利用者へ回答を促す。メインプログラム131は、利用者の回答を結果代入変数に代入する。
手段p=「DISPLAY_SENTENCE」のとき、内容qはディスプレイ識別子と提示文からなり、ディスプレイ識別子が示すディスプレイ40(または入出力装置226)に対して提示文を出力する命令を送信する。
手段p=「PRINT」のとき、内容qは提示文であり、サービスロボット20は入出力装置226のプリンタを用いて提示文を紙面へ印刷し、利用者に与える。
次に、サービスロボット20が提供する応対の具体的な例について、以下に説明する。サービスロボット20が利用者を案内し、シナリオ143の行動リスト番号1431=3の「QUESTION(X)」で家族構成を利用者から聞く場合について説明する。
メインプログラム131は、カメラ225や環境カメラ30から取得した情報から空間内あるいはサービスロボット20の周囲の人数を算出し、環境状況1412について「人が多い」か「人が少ない」のいずれかを判定し、環境状況を更新する(S06)。この例では、環境状況1412は「人が多い」ものとする。
次に、メインプログラム131は、手段p=「QUESTION(X)」として代替手段テーブル142を検索し、代替手段1422の「GUIDETO(A);QUESTION(X)」と、代替手段1423の「INPUT(X)」を選択する。
メインプログラム131は、上記選択した代替手段と手段pから集合Pの行動リストXを生成する。集合Pの行動リストXは、「QUESTION(X)」の手段を含む行動リストと、「GUIDETO(A);QUESTION(X)」の手段を含む行動リストと、「INPUT(X)」の手段を含む行動リストから構成される(S07)。
メインプログラム131は、環境状況1412=「人が多い」を取得して、スコアテーブル141から行動リストXの各手段について属性1411が「家族構成」のスコア1414をそれぞれ取得する。上記の場合、「GUIDETO(A)」は、スコアテーブル141に存在しないので、各行動リストXのスコアS(X)は、ひとつの手段1413の値となる。
まず、「QUESTION(X)」の「家族構成」かつ「人が多い」のスコア1414は−300となり、総和となるスコアS(X)=−300である。
「GUIDETO(A);QUESTION(X)」の場合、所定の場所識別子(A)における人の数を環境カメラ30から取得して閾値と比較し、「人が少ない」と判定する。したがって、「GUIDETO(A);QUESTION(X)」のスコア1414は、「家族構成」かつ「人が少ない」の−10となり、スコアS(X)=−10となる。
「INPUT(X)」の「家族構成」は、環境状況1412を問わない「ANY」であってスコア1414は−10となり、スコアS(X)=−10となる。
次に、メインプログラム131は、最大のスコアS(X)の「GUIDETO(A);QUESTION(X)」と「INPUT(X)」を選択する。スコアS(X)の最大値が複数存在する場合、メインプログラム131は、コスト(例えば、時間や距離)が低い行動リストXを選択する。上記の例では、GUIDETO(A)で所定の場所(A)まで移動する時間が加算されるため、メインプログラム131は、コストの低い「INPUT(X)」を手段に含む行動リストXを選択し、行動リストYとして実行する。
これにより、サービスロボット20は、利用者に対して当初は音声で「家族構成」を問い合わせる行動リストXを、利用者が入出力装置226へ「家族構成」を入力する行動リストYに変換することができる。したがって、利用者の個人情報にかかる情報を、多数の人がいる空間で音声によって回答させるのではなく、サービスロボット20の周囲の環境状況1412に応じて、入出力装置226へ入力させる行動リストYへ変換することで個人情報などのデリケートな情報を円滑に扱うことが可能となる。また、サービスロボット20の発話についても同様であり、利用者の個人情報にかかる情報を、多数の人がいる空間で音声によって発話させるのではなく、サービスロボット20の周囲の環境状況1412に応じて、入出力装置226へ表示させたり印刷にて出力する行動リストYへ変換することで個人情報などのデリケートな情報を円滑に扱うことが可能となる。
また、SAY(年齢;発話「年齢はZZですね。」)という対話の手段を含む行動リストの場合、人前で自身の年齢を告げられるのを嫌う利用者は多い。このため、スコアテーブル141では、手段1413が「SAY」で、属性1411が「年齢」の場合、環境状況1412が「人が多い」ときにはスコア=−1500に設定し、「人が少ない」ときでもスコア=−500に設定する。これにより、スコアS(X)の総和が最大となることを抑制して、サービスロボット20が「年齢」を発話することで、利用者の個人情報が周囲の他人に知られることを防ぐことが可能になる。
さらに、手段「SAY」については、代替手段テーブル142において、代替手段1422=「GUIDETO(A);SAY(X)」や、代替手段1423=「GUIDETO(B);DISPLAY_SENTECE(B、X)や、PRINTOUT(X)」のように、現在の位置でサービスロボット20が発話を行う代替手段を定義しておく。
「GUIDETO(A);SAY(X)」では、サービスロボット20が所定の場所(A)まで利用者を案内してから(X)の内容である「年齢」を発話する。あるいは、「GUIDETO(B);DISPLAY_SENTECE(B、X)」では、サービスロボット20が所定の場所(B)まで利用者を案内してから(X)の内容である「年齢」を入出力装置226やディスプレイ40で表示する。または、「PRINTOUT(X)」では、サービスロボット20現在の場所で(X)の内容である「年齢」を入出力装置226で印刷して利用者に提供する。
以上のような代替手段を代替手段テーブル142に予め設定しておくことで、サービスロボット20の周囲の人が聞いて欲しくない利用者に関する情報(年齢や口座番号など)が発話によって出力されるのを回避する手段1422〜1424に置き換えることが可能となる。
以上により説明した内容で移動ロボット対話システム10を構成することで、サービス開発者が作成したシナリオ143において発生する不適切なサービスロボット20の行動を、環境(センサ)情報などを用いてサービスロボット20が自ら回避し、適切な情報取得に基づいたサービスの提供が可能となる。
図7は、本発明の第2の実施例を示す移動ロボット対話システム10の一例を示すブロック図である。前記実施例1では、全てのセンサ情報をサービスロボット20のメインプログラム131で処理する例を示したが、本実施例2ではサービスロボット20が外部のサーバ70に処理の一部を委託する例を示す。
本実施例2では、前記実施例1のサービスロボット20が行っていた画像認識や音声認識や動体認識等のセンサ情報を認識するための処理を、サーバ70で実行させる例を示す。
サービスロボット20は、メインプログラム131Aを除いて、前記実施例1と同様に構成される。メインプログラム131Aは、前記実施例1のメインプログラム131から画像認識や音声認識や動体認識等のセンサ情報を認識するための処理を削除し、サーバ70に認識処理を依頼する点が実施例1と相違する。メインプログラム131Aは、マイク223、カメラ225、環境カメラ30等のセンサ情報をサーバ70に送信して認識処理を依頼し、認識結果を受信して、環境状況1412の算出などに利用する。なお、環境カメラ30の情報は、サーバ70から取得可能であるので、サービスロボット20は、環境カメラ30から画像情報を取得して処理を行う指示を発行すれば良い。
サーバ70は、CPU701とネットワークインターフェース(図中NIF)702と記憶装置720とを含む計算機である。記憶装置720には、複数のサービスロボット20を管理するロボット管理プログラム730と、サービスロボット20から受信したセンサ情報から所定の認識処理を実行する認識プログラム731が格納される。
本実施例2のメインプログラム131Aは、前記実施例1の図3に示したフローチャートのステップS07で、サービスロボット20が環境状況の算出をサーバ70に指令する。サーバ70は、環境カメラ30から画像情報を取得して混雑度などの環境状況を算出してサービスロボット20に送信する。サービスロボット20はサーバ70から受信した環境状況を用いてスコアの算出を実施する。
本実施例2では、サービスロボット20のメインプログラム131Aから、CPU221の負荷が高い認識処理をサーバ70に分散させることで、サービスロボット20で行う処理の高速化を図ることができるのである。
図8は、本発明の第3の実施例を示す移動ロボット対話システム10の一例を示すブロック図である。前記実施例1では、全てのセンサ情報をサービスロボット20のメインプログラム131で処理する例を示したが、本実施例3ではサービスロボット20が外部のサーバ70に処理を委託する例を示す。
本実施例2では、前記実施例1のサービスロボット20が行っていた移動装置227や入出力装置226やカメラ225やスピーカ224やマイク223の制御を除く処理をサーバ70で実行させる例を示す。
サービスロボット20は、メインプログラム131Bを除いて、前記実施例1と同様に構成される。メインプログラム131Bは、前記実施例1のメインプログラム131のうち、移動装置227や入出力装置226やカメラ225やスピーカ224やマイク223の制御を残したものである。前記実施例1の、シナリオ143の行動リストXの決定や、環境状況1412の更新や、スコアS(X)の算出は、サーバ70に依頼する。すなわち、メインプログラム131Bは、カメラ225と音声情報対話部と文字情報対話部及び移動装置227の制御を実行し、前記実施例1に示したその他の処理をサーバ70に依頼する。
サーバ70は、CPU701とネットワークインターフェース(図中NIF)702と記憶装置720とを含む計算機である。
記憶装置720には、複数のサービスロボット20を管理するロボット管理プログラム730と、サービスロボット20から受信したセンサ情報から行動リストYを決定してサービスロボット20に応答するロボット制御プログラム732と、前記実施例1の図4に示したスコアテーブル141と、前記実施例1の図5に示した代替手段テーブル142と、前記実施例1の図6に示したシナリオ143と、を格納する。サービスロボット20は、センサ情報をサーバ70へ送信して、行動リストYを受信して実行する。
本実施例3では、サービスロボット20の制御をサーバ70で決定することで、サービスロボット20で行う処理負荷を低減することができ、サービスロボット20のハードウェアを簡易にしてコストを低減させることができる。
<まとめ>
なお、本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施例は本発明を分かりやすく説明するために詳細に記載したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることも可能である。また、各実施例の構成の一部について、他の構成の追加、削除、又は置換のいずれもが、単独で、又は組み合わせても適用可能である。
また、上記の各構成、機能、処理部、及び処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、上記の各構成、及び機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリや、ハードディスク、SSD(Solid State Drive)等の記録装置、または、ICカード、SDカード、DVD等の記録媒体に置くことができる。
また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えてもよい。
20−a、20−b サービスロボット
30−a、30−b 環境カメラ
40 ディスプレイ
50 無線アクセスポイント
60 ネットワーク
131 メインプログラム131
141 スコアテーブル
142 代替手段テーブル
143 シナリオ
221 CPU
220 記憶装置
222 ネットワークインターフェース
223 マイク
224 スピーカ
225 カメラ
226 入出力装置
227 移動装置

Claims (15)

  1. プロセッサと記憶装置を有して利用者と対話するロボットと、
    前記ロボットが配置される空間に設置されて、前記空間の環境状況を検出する環境センサと、
    前記環境センサと前記ロボットを接続するネットワークと、
    を含むロボット対話システムであって、
    前記ロボットは、
    音声情報によって前記利用者と対話を行う音声情報対話部と、
    文字情報によって前記利用者と対話を行う文字情報対話部と、
    前記ロボットを制御する対話手段と対話属性と対話内容を含む行動リストを予め設定したシナリオと、
    前記行動リストに含まれる対話手段の評価値を、環境状況と対話属性に応じて予め設定したスコア情報と、
    前記行動リストに含まれる対話手段を他の対話手段である代替手段に変換する代替手段情報と、を有し、
    前記プロセッサは、前記シナリオから前記利用者との対話に応じて行動リストを選択し、
    前記プロセッサは、前記環境センサから取得した情報に基づいて前記環境状況を算出し、
    前記プロセッサは、前記選択した行動リストに含まれる対話手段で代替手段情報を参照して代替手段に変換し、前記行動リストの対話手段を前記代替手段に置き換えた第2の行動リストを生成し、
    前記プロセッサは、前記生成した第2の行動リストに含まれる対話属性と、前記環境状況に基づいて、前記スコア情報から代替手段の評価値を算出し、
    前記プロセッサは、前記代替手段の前記評価値が最大の前記第2の行動リストを選択することを特徴とするロボット対話システム。
  2. 請求項1に記載のロボット対話システムであって、
    前記プロセッサは、前記代替手段を含む第2の行動リストを実行し、前記代替手段に応じて音声情報対話部または文字情報対話部で対話を行うことを特徴とするロボット対話システム。
  3. 請求項1に記載のロボット対話システムであって、
    前記代替手段は、前記音声情報対話部による対話を文字情報対話部による対話に変換し、前記文字情報対話部は、文字情報の表示または文字情報の印刷することを特徴とするロボット対話システム。
  4. 請求項1に記載のロボット対話システムであって、
    前記行動リストは、1以上の前記対話手段を含み、
    前記第2の行動リストは、前記行動リストの1以上の前記対話手段をそれぞれ前記代替手段に置き換えて生成され、
    前記代替手段の前記評価値の総和が最大の前記第2の行動リストを選択することを特徴とするロボット対話システム。
  5. 請求項1に記載のロボット対話システムであって、
    前記環境状況は、前記環境センサから取得した情報に基づいて人の混雑度を算出することを特徴とするロボット対話システム。
  6. プロセッサと記憶装置を有して利用者と対話するロボットと、
    前記ロボットが配置される空間に設置されて、前記空間の環境状況を検出する環境センサと、
    プロセッサと記憶装置を有するサーバと、
    前記サーバと前記環境センサと前記ロボットを接続するネットワークと、
    を含むロボット対話システムであって、
    前記ロボットは、
    音声情報によって前記利用者と対話を行う音声情報対話部と、
    文字情報によって前記利用者と対話を行う文字情報対話部と、を有し、
    前記ロボットのプロセッサは、前記音声情報対話部または文字情報対話部で前記利用者との対話を前記サーバに送信し、
    前記サーバは、
    前記ロボットを制御する対話手段と対話属性と対話内容を含む行動リストを予め設定したシナリオと、
    前記行動リストに含まれる対話手段の評価値を、環境状況と対話属性に応じて予め設定したスコア情報と、
    前記行動リストに含まれる対話手段を他の対話手段である代替手段に変換する代替手段情報と、を有し、
    前記サーバのプロセッサは、前記シナリオから前記利用者との対話に応じて行動リストを選択し、
    前記サーバのプロセッサは、前記環境センサから取得した情報に基づいて前記環境状況を算出し、
    前記サーバのプロセッサは、前記選択した行動リストに含まれる対話手段で代替手段情報を参照して代替手段に変換し、前記行動リストの対話手段を前記代替手段に置き換えた第2の行動リストを生成し、
    前記サーバのプロセッサは、前記生成した第2の行動リストに含まれる対話属性と、前記環境状況に基づいて、前記スコア情報から代替手段の評価値を算出し、
    前記サーバのプロセッサは、前記代替手段の前記評価値が最大の前記第2の行動リストを選択することを特徴とするロボット対話システム。
  7. 請求項6に記載のロボット対話システムであって、
    前記サーバのプロセッサは、前記代替手段を含む第2の行動リストを前記ロボットへ送信し、
    前記ロボットのプロセッサは、受信した前記第2の行動リストを実行し、前記代替手段に応じて音声情報対話部または文字情報対話部で対話を行うことを特徴とするロボット対話システム。
  8. 請求項6に記載のロボット対話システムであって、
    前記代替手段は、前記音声情報対話部による対話を文字情報対話部による対話に変換し、前記文字情報対話部は、文字情報の表示または文字情報の印刷することを特徴とするロボット対話システム。
  9. 請求項6に記載のロボット対話システムであって、
    前記行動リストは、1以上の前記対話手段を含み、
    前記第2の行動リストは、前記行動リストの1以上の前記対話手段をそれぞれ前記代替手段に置き換えて生成され、
    前記代替手段の前記評価値の総和が最大の前記第2の行動リストを選択することを特徴とするロボット対話システム。
  10. 請求項6に記載のロボット対話システムであって、
    前記環境状況は、前記環境センサから取得した情報に基づいて人の混雑度を算出することを特徴とするロボット対話システム。
  11. プロセッサと記憶装置を有して利用者と対話するロボットと、
    前記ロボットが配置される空間に設置されて、前記空間の環境状況を検出する環境センサと、
    プロセッサと記憶装置を有するサーバと、
    前記サーバと前記環境センサと前記ロボットを接続するネットワークと、
    を含むロボット対話システムであって、
    前記ロボットは、
    音声情報によって前記利用者と対話を行う音声情報対話部と、
    文字情報によって前記利用者と対話を行う文字情報対話部と、を有し、
    前記ロボットを制御する対話手段と対話属性と対話内容を含む行動リストを予め設定したシナリオと、
    前記行動リストに含まれる対話手段の評価値を、環境状況と対話属性に応じて予め設定したスコア情報と、
    前記行動リストに含まれる対話手段を他の対話手段である代替手段に変換する代替手段情報と、を有し、
    前記ロボットのプロセッサは、前記シナリオから前記利用者との対話に応じて行動リストを選択し、
    前記ロボットのプロセッサは、前記環境状況の算出を前記サーバに指令し、
    前記サーバのプロセッサは、前記環境センサから取得した情報に基づいて前記環境状況を算出し、前記ロボットに環境状況を送信し、
    前記ロボットのプロセッサは、前記選択した行動リストに含まれる対話手段で代替手段情報を参照して代替手段に変換し、前記行動リストの対話手段を前記代替手段に置き換えた第2の行動リストを生成し、
    前記ロボットのプロセッサは、前記生成した第2の行動リストに含まれる対話属性と、前記サーバから受信した環境状況に基づいて、前記スコア情報から代替手段の評価値を算出し、
    前記ロボットのプロセッサは、前記代替手段の前記評価値が最大の前記第2の行動リストを選択することを特徴とするロボット対話システム。
  12. 請求項11に記載のロボット対話システムであって、
    前記ロボットのプロセッサは、前記代替手段を含む第2の行動リストを実行し、前記代替手段に応じて音声情報対話部または文字情報対話部で対話を行うことを特徴とするロボット対話システム。
  13. 請求項11に記載のロボット対話システムであって、
    前記代替手段は、前記音声情報対話部による対話を文字情報対話部による対話に変換し、前記文字情報対話部は、文字情報の表示または文字情報の印刷することを特徴とするロボット対話システム。
  14. 請求項11に記載のロボット対話システムであって、
    前記行動リストは、1以上の前記対話手段を含み、
    前記第2の行動リストは、前記行動リストの1以上の前記対話手段をそれぞれ前記代替手段に置き換えて生成され、
    前記代替手段の前記評価値の総和が最大の前記第2の行動リストを選択することを特徴とするロボット対話システム。
  15. 請求項11に記載のロボット対話システムであって、
    前記環境状況は、前記環境センサから取得した情報に基づいて人の混雑度を算出することを特徴とするロボット対話システム。
JP2016204449A 2016-10-18 2016-10-18 ロボット対話システム Pending JP2018067100A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016204449A JP2018067100A (ja) 2016-10-18 2016-10-18 ロボット対話システム
US15/730,194 US20180108352A1 (en) 2016-10-18 2017-10-11 Robot Interactive Communication System

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016204449A JP2018067100A (ja) 2016-10-18 2016-10-18 ロボット対話システム

Publications (1)

Publication Number Publication Date
JP2018067100A true JP2018067100A (ja) 2018-04-26

Family

ID=61904098

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016204449A Pending JP2018067100A (ja) 2016-10-18 2016-10-18 ロボット対話システム

Country Status (2)

Country Link
US (1) US20180108352A1 (ja)
JP (1) JP2018067100A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020013007A1 (ja) * 2018-07-12 2020-01-16 ソニー株式会社 制御装置、制御方法、及びプログラム
JP2021018452A (ja) * 2019-07-17 2021-02-15 日本信号株式会社 案内ロボット及び案内ロボット用のプログラム
KR20220091453A (ko) * 2019-10-18 2022-06-30 네이버랩스 주식회사 로봇과 사용자간의 인터랙션을 위한 방법 및 시스템
US12046239B2 (en) 2023-05-22 2024-07-23 Google Llc Suggesting an alternative interface when environmental interference is expected to inhibit certain automated assistant interactions

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11145299B2 (en) * 2018-04-19 2021-10-12 X Development Llc Managing voice interface devices
US20210402611A1 (en) * 2019-02-25 2021-12-30 Qbit Robotics Corporation Information processing system and information processing method
KR102231922B1 (ko) * 2019-07-30 2021-03-25 엘지전자 주식회사 인공 지능을 이용하여, 복수의 로봇들을 제어하는 인공 지능 서버
CN111128152A (zh) * 2019-11-29 2020-05-08 中国科学院深圳先进技术研究院 语音交互控制器、***以及机器人

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003255990A (ja) * 2002-03-06 2003-09-10 Sony Corp 対話処理装置及び方法並びにロボット装置
JP2007140419A (ja) * 2005-11-18 2007-06-07 Humanoid:Kk 状況対応知能を持つ対話型情報伝達装置
JP2007152442A (ja) * 2005-11-30 2007-06-21 Mitsubishi Heavy Ind Ltd ロボット案内システム
JP2007225682A (ja) * 2006-02-21 2007-09-06 Murata Mach Ltd 音声対話装置と対話方法及び対話プログラム
WO2015158878A1 (en) * 2014-04-17 2015-10-22 Aldebaran Robotics Methods and systems of handling a dialog with a robot
WO2016158792A1 (ja) * 2015-03-31 2016-10-06 ソニー株式会社 情報処理装置、制御方法、およびプログラム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8196A (en) * 1851-07-01 Lathe
FR2963132A1 (fr) * 2010-07-23 2012-01-27 Aldebaran Robotics Robot humanoide dote d'une interface de dialogue naturel, methode d'utilisation et de programmation de ladite interface
US9570064B2 (en) * 2012-11-08 2017-02-14 Nec Corporation Conversation-sentence generation device, conversation-sentence generation method, and conversation-sentence generation program
JP2015184563A (ja) * 2014-03-25 2015-10-22 シャープ株式会社 対話型家電システム、サーバ装置、対話型家電機器、家電システムが対話を行なうための方法、当該方法をコンピュータに実現させるためのプログラム
US9802309B2 (en) * 2014-07-24 2017-10-31 X Development Llc Methods and systems for generating instructions for a robotic system to carry out a task

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003255990A (ja) * 2002-03-06 2003-09-10 Sony Corp 対話処理装置及び方法並びにロボット装置
JP2007140419A (ja) * 2005-11-18 2007-06-07 Humanoid:Kk 状況対応知能を持つ対話型情報伝達装置
JP2007152442A (ja) * 2005-11-30 2007-06-21 Mitsubishi Heavy Ind Ltd ロボット案内システム
JP2007225682A (ja) * 2006-02-21 2007-09-06 Murata Mach Ltd 音声対話装置と対話方法及び対話プログラム
WO2015158878A1 (en) * 2014-04-17 2015-10-22 Aldebaran Robotics Methods and systems of handling a dialog with a robot
WO2016158792A1 (ja) * 2015-03-31 2016-10-06 ソニー株式会社 情報処理装置、制御方法、およびプログラム

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020013007A1 (ja) * 2018-07-12 2020-01-16 ソニー株式会社 制御装置、制御方法、及びプログラム
JP2021018452A (ja) * 2019-07-17 2021-02-15 日本信号株式会社 案内ロボット及び案内ロボット用のプログラム
JP7300335B2 (ja) 2019-07-17 2023-06-29 日本信号株式会社 案内ロボット及び案内ロボット用のプログラム
KR20220091453A (ko) * 2019-10-18 2022-06-30 네이버랩스 주식회사 로봇과 사용자간의 인터랙션을 위한 방법 및 시스템
KR102662383B1 (ko) * 2019-10-18 2024-04-30 네이버랩스 주식회사 로봇과 사용자간의 인터랙션을 위한 방법 및 시스템
US12046239B2 (en) 2023-05-22 2024-07-23 Google Llc Suggesting an alternative interface when environmental interference is expected to inhibit certain automated assistant interactions

Also Published As

Publication number Publication date
US20180108352A1 (en) 2018-04-19

Similar Documents

Publication Publication Date Title
JP2018067100A (ja) ロボット対話システム
US10777193B2 (en) System and device for selecting speech recognition model
KR20190046623A (ko) 자기-학습 자연 언어 이해를 갖는 다이얼로그 시스템
KR102424260B1 (ko) Iot 기반 알림을 생성 및 클라이언트 디바이스(들)의 자동화된 어시스턴트 클라이언트(들)에 의해 iot 기반 알림을 자동 렌더링하게 하는 명령(들)의 제공
JP6983118B2 (ja) 対話システムの制御方法、対話システム及びプログラム
US10836044B2 (en) Robot control device and robot control method
KR102399420B1 (ko) 텍스트 독립 화자 인식
CN111902811A (zh) 利用数字助理的基于接近度的介入
KR20190075310A (ko) 전화번호 연관 정보를 제공하기 위한 전자 장치 및 그의 동작 방법
KR20230005351A (ko) 자동 음성 어시스턴트의 오류 감지 및 처리
KR102104294B1 (ko) 디스플레이 장치로 읽을 수 있는 저장매체에 저장된 수화 영상 챗봇 애플리케이션
JP6973380B2 (ja) 情報処理装置、および情報処理方法
US10976997B2 (en) Electronic device outputting hints in an offline state for providing service according to user context
JP6030659B2 (ja) メンタルヘルスケア支援装置、システム、方法およびプログラム
EP3447765B1 (en) Electronic device performing operation using voice command and method of operating electronic device
JP2021113835A (ja) 音声処理装置および音声処理方法
US20130179165A1 (en) Dynamic presentation aid
US11430429B2 (en) Information processing apparatus and information processing method
WO2019103569A1 (ko) 문맥 기반으로 음성 인식의 성능을 향상하기 위한 방법, 컴퓨터 장치 및 컴퓨터 판독가능 기록 매체
US11978458B2 (en) Electronic apparatus and method for recognizing speech thereof
US20240038246A1 (en) Non-wake word invocation of an automated assistant from certain utterances related to display content
US20230297307A1 (en) Digital signage device
JP2018013595A (ja) 情報処理装置、端末装置、システム、情報処理方法及びプログラム
WO2023086075A1 (en) Selectively generating and/or selectively rendering continuing content for spoken utterance completion
JP2020134545A (ja) 音声処理装置、音声処理方法および音声処理プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190220

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191028

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191119

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200526