JP2006088251A - ユーザ行動誘発システム及びその方法 - Google Patents

ユーザ行動誘発システム及びその方法 Download PDF

Info

Publication number
JP2006088251A
JP2006088251A JP2004274950A JP2004274950A JP2006088251A JP 2006088251 A JP2006088251 A JP 2006088251A JP 2004274950 A JP2004274950 A JP 2004274950A JP 2004274950 A JP2004274950 A JP 2004274950A JP 2006088251 A JP2006088251 A JP 2006088251A
Authority
JP
Japan
Prior art keywords
behavior
user
robot
data
action
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004274950A
Other languages
English (en)
Other versions
JP4058031B2 (ja
Inventor
Daisuke Yamamoto
大介 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2004274950A priority Critical patent/JP4058031B2/ja
Publication of JP2006088251A publication Critical patent/JP2006088251A/ja
Application granted granted Critical
Publication of JP4058031B2 publication Critical patent/JP4058031B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

【課題】 ユーザに合わせた出力が可能であり、それぞれのユーザに適した誘発行動を実行することが可能となるユーザ行動誘発システム及びユーザ行動誘発方法を提供すること。
【解決手段】 本発明では、センサからユーザ及びロボットの行動データを入力するデータ入力部と、このデータ入力部で入力したユーザの行動データからユーザ行動の類似した行動毎に分類分けを行う行動分類処理部と、ロボットの行動データに対応する分類されたユーザ行動の発生確率を求める因果関係推測部と、誘発したいユーザ行動を入力する指示入力部と、分類されたユーザ行動から、誘発したいユーザ行動と類似したユーザ行動を検索する類似度検索部と、検索されたユーザ行動に対応するロボットの行動データの発生確率に基づいて、ロボットの行動データを抽出する行動検索部と、この抽出されたロボットの行動データをロボットに実行させるロボット行動処理部とを備える。
【選択図】 図1

Description

本発明は、サービス提供を介したユーザとロボットのインタラクションに基づく行動データベースの蓄積結果を利用して、ユーザの行動を促すロボットに関する。
近年、家庭内で、ユーザを楽しませるエンターテイメントロボットや、ユーザの役に立つロボットが研究・開発されている。前者のエンターテイメントロボットにおいては、ユーザを楽しませることが目的であり、飽きさせないことがその課題の一つとなっている。後者の役に立つロボットでは、ユーザの命令を聞いて行動するものや、ユーザの意図を認識しユーザに合った行動をするものが提案されている。
エンターテイメントロボットとしては、ロボットがユーザを飽きさせないような行動をさせるために、ロボット装置に行動獲得のための強化学習を行わせるものがある。その際、行動価値の学習率を動的に変更することを特徴とするロボット装置およびロボット制御方法、記録媒体、並びにプログラムが挙げられている(特許文献1を参照)。
役に立つロボットとしては、ユーザの生活習慣や生活環境等に応じて、あるいはユーザの嗜好に則して、各種機器を制御するコントローラとして、予めユーザの操作情報とその操作がなされたときの外的状況の情報を記憶し、現在のユーザの操作情報と外的状況の情報から、ユーザに適した操作信号を生成する統合コントローラ、機器制御方法及び機器制御プログラムが提案されており、その機器制御プログラムを適応したロボットが挙げられている(特許文献2を参照)。
また人間の行動をロボットが模倣することで、人間−ロボット間で対面コミュニケーションを実現する方法がある(非特許文献1を参照)。これは、人間とロボットとの対面コミュニケーションにおいて、人間の行動から音声情報と関節角度情報を取得し、ロボットはその取得情報を再現することで、人を模倣するというものである。
特開2003−340760公報 特開2003−111157公報 模倣を主体とした人間−ロボットコミュニケーションに関する基礎実験(第19回ロボット学会学術講演会予稿集(1J15)
上述したように、エンターテイメントロボットについてはユーザを飽きさせないために、ロボットへの入力信号に対する出力動作パターンを強化学習により変化させるものであり、また、役に立つロボットは、ユーザの過去の操作パターンを記録しておき、現在の状況から、次にユーザが行うであろう操作を先読みし、ユーザの代わりにロボットが実行するもので、ユーザの行動自体は特に反映されず、ユーザ自体に行動を促すことはできなかった。
更に、人間−ロボット間で対面コミュニケーションでは、人間とロボットの対面コミュニケーションが目的であり、ロボットは人間の模倣をするために、取得情報と出力情報は、同次元のものである必要(例えば、取得する人間の関節角度情報を用いるためには、ロボットもそれに対応する関節を有する必要がある)があるといった問題があった。
本発明では、上記した問題を解決するために、ユーザに合わせた出力が可能であり、それぞれのユーザに適した誘発行動を実行することが可能となるユーザ行動誘発システム及びユーザ行動誘発方法を提供することを目的とする。
上記した目標を達成するために、本発明では、センサからユーザ及びロボットの行動データを入力するデータ入力部と、このデータ入力部で入力したユーザの行動データからユーザ行動の類似した行動毎に分類分けを行う行動分類処理部と、データ入力部で入力されたロボットの行動データに対応する行動分類処理部で分類されたユーザ行動の発生確率を求める因果関係推測部と、誘発したいユーザ行動を入力する指示入力部と、行動分類処理部で分類されたユーザ行動から、誘発したいユーザ行動と類似したユーザ行動を検索する類似度検索部と、類似度検索部で検索されたユーザ行動に対応するロボットの行動データの発生確率に基づいて、ロボットの行動データを抽出する行動検索部と、行動検索部により抽出されたロボットの行動データをロボットに実行させるロボット行動処理部とを具備することを特徴とする。
これにより、ユーザに所望の行動をさせたい場合、その所望行動を過去にもたらしたロボット行動を検索し、そのロボットがその行動を実行することで、ユーザにある行動をするよう促す。
本発明により、ユーザに合わせた出力が可能であり、それぞれのユーザに適した誘発行動を実行することが可能である。またユーザの行動として、ユーザが“楽しんでいる”、“めったにない行動を取っている”などを考慮し、それを誘発することで、飽きさせない擬似的なコミュニケーションを図ることも可能である。
以下、本発明の実施の形態を図面に基づいて説明する。
本発明の実施の形態について、例えば車輪で移動し、頭部として2つの自由度(パン・チルト)を有するカメラ雲台を搭載したロボットを用いた、ユーザ行動誘発システムを示す。図1に本実施の形態の構成を、図2に本実施の形態のロボットの模式図を示す。
図1に示すように、本実施例は大きく分けて、データベースへのデータ蓄積処理部110と、データベースを用いたユーザ行動誘発処理部130とからなる。データ蓄積処理部110は、データ入力部111、切り分け部112、特徴量抽出部113、特徴量無次元化部114、行動分類処理部115、因果関係推測部116、ロボット行動記憶部117とから構成される。ユーザ行動誘発処理部130は、指示入力部131、類似度検索部132、行動検索部133、ロボット行動処理部134とから構成される。
図2に示すように、ユーザ200の行動を検出する入力装置は、室内に固定設置されているセンシング装置として、ユーザ200の位置を検出する位置検出用RFID201、ユーザの画像を取得する固定カメラ220、ユーザ200の音声を取得する固定マイク230があり、ロボット210に搭載されているセンシング装置として、頭部に設置されているカメラ211、マイク212、ロボット210の表面に設置され接触を検出するタッチセンサ213がある。
まず初めにデータベースのデータ蓄積処理部110の動作について示す。まずデータ入力部111では、固定センサ101−1〜101−N、ロボットに搭載されるセンサ102−1〜102−M等の各センシング装置からの出力(時系列データ)をあるサンプリング周期で入力し時系列DB121にこの時系列データを記憶させる。センシング装置からの出力はRFIDであれば室内での座標値(X,Y)、カメラであれば画像データ、音声であれば音声データ、タッチセンサであれば押された圧力値となる。また、音声データのように、単語などの抽象的なレベルに認識可能なものは、その単語としても記憶する。これら時系列データはユーザだけではなく、同時にロボットの行動についても記憶する。記憶されるロボットの行動としては、ロボットの位置(これはRFIDを用いても、ロボットの内部センサから自己位置認識部により算出されて位置でもよい)、ロボット雲台角度、ロボット発声音声データ等がある。発声音声データに関しても単語などの抽象的なものがあれば、その単語も記憶する。各データは、図3(a)に示したように、センサのサンプリング周期tごとの時系列データx(t)(ここでiは入力パラメータ)となる(単語などの抽象的なものは、例えば発声時点でのデータとする)。ここで、時間軸でデータ列を示すと図5(a)のようにサンプリング周期tごとの時系列データがセンシング装置から出力され、データ入力部111で時系列DBに記憶される。
次に、データ入力部111で入力された時系列データをある意味を持ったユーザ行動(U、U、・・・、U)として、図3(a)に示すよう時系列データを点線で囲まれた部分毎に切り分け部112で切り分ける。切り分ける方法としては、一定時間ごとに切り分ける方法や各データを標準化しその偏差の大きいところで切り分ける方法、または音声データがある場合にはその切れ目で切り分ける方法等を用いる。例えば、ユーザの位置を検出するセンサからのデータを用いて、その位置変化量の偏差の大きいところで切り分ければ、ユーザが歩いている際のユーザ行動と立ち止まった際のユーザ行動を切り分けることができる。また、その際のロボット行動も同様の方法を用いて切り分ける。ここで、時間軸でデータ列を示すと図5(b)のように時系列データはR〜R、U〜Uに切り分け部112で切り分けられる。
次に特徴量抽出部113では、ユーザ行動(U、U、・・・、U)の各要素時系列情報x(t)、x(t)、・・・、x(t)をそれぞれ一つの数値で表される特徴p(n)(jは特徴番号、nはユーザ行動番号)を抽出する。特徴としては、時系列データx(t)自体の平均値や最大値、最小値、標準偏差等や、時系列データx(t)から算出される変化量x’(t)や加速度量x’’(t)の平均値や最大値、最小値、標準偏差等、またはユーザ行動自体の時間等とする。例えばユーザの位置を検出するセンサからのデータを用いれば、この特徴p(n)は、そのユーザ行動中のユーザの平均移動速度や最大移動速度であったり、マイクロフォンからのデータを用いれば、最大音量であったり、音声データから算出した音の高低とする。図3(b)に示すように、特徴量抽出部113で抽出された各ユーザ行動の特徴量p(n)が特徴量DB122に記憶される。
次に特徴量無次元化部114は、数1に示されるように、各特徴の各ユーザ行動での標準偏差S(n)を算出し、この標準偏差S(n)から数2に示されるように無次元化し特徴パラメータP(n)を算出する。
Figure 2006088251
Figure 2006088251
そして特徴量無次元化部114は、図3(c)に示すようにユーザ行動毎に無次元化し特徴パラメータP(n)を無次元化特長量DB123に記憶する。また、数3で示されるようにユーザ行動自体をその特徴パラメータを軸とした多次元空間内の位置ベクトルuという形で表せる。
Figure 2006088251
行動分類処理部115では、ユーザ行動を示す位置ベクトルuの距離の長短から各行動の類似度を判定し、類似した行動ごとに分類分けを行う。例えば、図4(a)に示すように、ユーザ行動を示す位置ベクトルu、uはクラスタリングされユーザ行動Uと判定される。同様に、位置ベクトルu、uはそれぞれユーザ行動U、Uと判定される。更に、図4(a)の分類結果がユーザ行動分類DB124に記憶される。
因果関係推測部116は、分類された行動とその分類された行動を引き起こしたロボット行動を推測する。推測方法としては、例えば、図5(c)に示すように、ユーザ行動が起こる直前に行われていたロボット行動や、データベースの中から、あるユーザ行動が起こる前にたびたび行われていたロボット行動が原因となったユーザ行動であると推測する。そして、図4(b)に示すように、各ロボット行動に対する分類されたユーザ行動の発生確率を求め因果関係対応DB125に記憶する。
ロボット行動記憶部117は、この因果関係推測部116で推測された、あるユーザ行動の原因となるロボット行動をロボット行動DB126に記憶する。
続いて、ユーザ行動誘発処理部130の動作について示す。まず誘発したいユーザ行動を指示入力部131により入力する。入力者は行動を行うユーザ自身であっても、また別のユーザであっても構わない。次に類似度検索部132は、入力された情報から、ユーザ行動分類DB124を検索して、最も近いユーザ行動を抽出する。
行動検索部133は、抽出されたユーザ行動を引き出した(原因となった)ロボット行動を因果関係対応DBから検索し、ロボット行動処理部134は、そのロボット行動をロボット行動DB126から抽出して実行する。例えば、行動検索部133は因果関係対応DB125から最も確率の高いロボット行動を検索し、ロボット行動処理部134はこの確率の最も高いロボット行動をロボット行動DB126から抽出して、ロボット本体に出力する。そうすることで、誘発したいユーザ行動を促す行動をロボット本体が行う。
具体的には、例えば図6に示すように子供を起す場合を考える。親がロボットに子供Aを起して欲しい場合、親はロボットに対し、“子供Aを起して”を指示する(S1)。指示入力部131は“子供Aが起きた”という事象に最も近いユーザ行動をユーザ行動分類DB124から検索する(S2)。そしてユーザ行動を引き起こしたロボットの行動を検索し、それをロボットに実行させる。子供Aが起きた事象は、「ロボットが“起きろ!”と発話時に10%」、「“朝だ!”と発話時に5%」、「ロボットが壁に衝突したら90%の確率で起きた」、とする。この場合、最も起きた確率の高かった、“ロボットが壁に衝突する”をロボットは実行する(S3)。その結果の子供Aが起きたかどうかをデータ蓄積処理部110で検出して判定する(S4)。子供Aが起きた場合には、各データベースを更新する(S5)。もし、子供Aが起きなかった場合には、次に高い確率のロボットの行動をロボットに実行させ(S 6)、子供Aが起きたかどうかをデータ蓄積処理部110で検出して判定する。
上記の処理を繰り返すことで、ユーザの行動を効果的に、またそれぞれのユーザに合わせた誘発方法を実行することが可能となる。
ここでは、データ蓄積処理部110、ユーザ行動誘発処理部130、及び各データベース(DB)121〜126はロボット本体210内に構成されてもよく、ロボット本体210外に構成されてもよい。また、これら一部がロボット本体210内に構成されていても適用できる。
実施の形態のユーザ行動誘発システムを示す構成図 実施の形態のユーザ行動誘発システムを示す環境模式図 時系列DB、特徴量DB、無次元化特長量DBのデータ構造を示す図。 ユーザ行動分類DB、因果関係対応DBのデータ構造を示す図。 実施の形態のロボットとユーザの行動を示すタイムチャート 実施の形態のユーザ行動誘発システムを示すフローチャート
符号の説明
101−1〜101−N:固定センサ
102−1〜102−M:ロボット搭載センサ
110:データ蓄積処理部
111:記憶部
112:切り分け部
113:特徴量抽出部
114:特徴量無次元化部
115:行動分類処理部
116:因果関係推測部
117:ロボット行動記憶部
121:時系列DB
122:特徴量DB
123:無次元化特徴量DB
124:ユーザ行動分類DB
125:因果関係対応DB
126:ロボット行動DB
130:ユーザ行動誘発処理部
131:指示入力部
132:類似度検索部
133:行動検索部
134:ロボット行動処理部
200:ユーザ
201:位置検出用RFID
210:ロボット
211:カメラ
212:マイク
213:タッチセンサ
220:固定カメラ
230:固定マイク

Claims (8)

  1. センサからユーザ及びロボットの行動データを入力するデータ入力部と、
    前記データ入力部で入力したユーザの行動データからユーザ行動の類似した行動毎に分類分けを行う行動分類処理部と、
    前記データ入力部で入力されたロボットの行動データに対応する前記行動分類処理部で分類されたユーザ行動の発生確率を求める因果関係推測部と、
    誘発したいユーザ行動を入力する指示入力部と、
    前記行動分類処理部で分類されたユーザ行動から、前記誘発したいユーザ行動と類似したユーザ行動を検索する類似度検索部と、
    前記類似度検索部で検索されたユーザ行動に対応するロボットの行動データの発生確率に基づいて、ロボットの行動データを抽出する行動検索部と、
    前記行動検索部により抽出されたロボットの行動データをロボットに実行させるロボット行動処理部とを具備することを特徴とするユーザ行動誘発システム。
  2. 更に、入力された行動データをユーザ行動毎に切り分ける切り分け部と、
    前記切り分け部で切り分けられた行動データ特徴量を抽出する特徴量抽出部と、
    前記特徴量をユーザ行動毎に無次元化し特徴パラメータを抽出する特徴量無次元化部とを具備し、
    前記行動分類処理部は、前記特徴パラメータを軸とした多次元空間内の位置ベクトルから、類似した行動毎に行動データの分類分けを行うことを特徴とした請求項1記載のユーザ行動誘発システム。
  3. 更に、前記行動分類処理部でユーザ行動の類似した行動毎に分類分けを行ったユーザの行動データを記憶するユーザ行動分類データベースを具備し、
    前記類似度検索部は、前記ユーザ行動分類データベースに記憶したユーザの行動データから、誘発したいユーザ行動と類似したユーザ行動を検索することを特徴とする請求項1記載のユーザ行動誘発システム。
  4. 更に、前記因果関係推測部で求められた前記データ入力部で入力されたロボットの行動データに対する前記行動分類処理部で分類されたユーザ行動の発生確率を記憶する因果関係対応データベースを具備し、
    前記行動検索部は、前記因果関係対応データベースのユーザ行動に対応するロボットの行動データの発生確率に基づいてロボットの行動データを抽出することを特徴とする請求項1記載のユーザ行動誘発システム。
  5. 更に、前記行動分類処理部で分類された発生したユーザ行動に対応するロボットの行動データをロボット行動データベースに記憶するロボット行動記憶部を具備することを特徴とする請求項1記載のユーザ行動誘発システム。
  6. 前記ロボット行動処理部は、前記ロボット行動データベースに記憶された行動データから、前記行動検索部により抽出されたロボットの行動データを抽出してロボットに実行させることを特徴とする請求項5記載のユーザ行動誘発システム。
  7. 前記ロボット行動処理部により、行動データをロボットに実行させた後に、ユーザの行動データを前記センサから前記データ入力部から入力し、データベースを更新することを特徴する請求項3乃至請求項5記載のユーザ行動誘発システム。
  8. センサからユーザ及びロボットの行動データを入力するデータ入力ステップと、
    前記データ入力で入力したユーザの行動データからユーザ行動の類似した行動毎に分類分けを行う行動分類ステップと、
    前記データ入力ステップで入力されたロボットの行動データに対応する前記行動分類ステップで分類されたユーザ行動の発生確率を求める因果関係推測ステップと、
    誘発したいユーザ行動を入力する指示入力ステップと、
    前記行動分類ステップで分類されたユーザ行動から、前記誘発したいユーザ行動と類似したユーザ行動を検索する類似検索ステップと、
    前記類似検索ステップで検索されたユーザ行動に対応するロボットの行動データの発生確率に基づいて、ロボットの行動データを抽出する行動検索ステップと、
    前記行動検索ステップにより抽出されたロボットの行動データをロボットに実行させるロボット行動ステップとを含むことを特徴とするユーザ行動誘発方法。
JP2004274950A 2004-09-22 2004-09-22 ユーザ行動誘発システム及びその方法 Expired - Fee Related JP4058031B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004274950A JP4058031B2 (ja) 2004-09-22 2004-09-22 ユーザ行動誘発システム及びその方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004274950A JP4058031B2 (ja) 2004-09-22 2004-09-22 ユーザ行動誘発システム及びその方法

Publications (2)

Publication Number Publication Date
JP2006088251A true JP2006088251A (ja) 2006-04-06
JP4058031B2 JP4058031B2 (ja) 2008-03-05

Family

ID=36229707

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004274950A Expired - Fee Related JP4058031B2 (ja) 2004-09-22 2004-09-22 ユーザ行動誘発システム及びその方法

Country Status (1)

Country Link
JP (1) JP4058031B2 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100949439B1 (ko) 2008-06-30 2010-03-25 경희대학교 산학협력단 신뢰 모델에서 언페어 레이팅을 필터링하기 위한 행동 기반방법
JP2012110996A (ja) * 2010-11-25 2012-06-14 Advanced Telecommunication Research Institute International ロボットの移動制御システム、ロボットの移動制御プログラムおよびロボットの移動制御方法
WO2018105412A1 (ja) * 2016-12-07 2018-06-14 ソニー株式会社 情報処理装置および方法、並びにプログラム
WO2019163279A1 (ja) * 2018-02-26 2019-08-29 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
JP2021153680A (ja) * 2020-03-25 2021-10-07 カシオ計算機株式会社 機器の制御装置、機器、機器の制御方法及びプログラム
CN116541731A (zh) * 2023-05-26 2023-08-04 北京百度网讯科技有限公司 网络行为数据的处理方法、装置和设备

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100949439B1 (ko) 2008-06-30 2010-03-25 경희대학교 산학협력단 신뢰 모델에서 언페어 레이팅을 필터링하기 위한 행동 기반방법
JP2012110996A (ja) * 2010-11-25 2012-06-14 Advanced Telecommunication Research Institute International ロボットの移動制御システム、ロボットの移動制御プログラムおよびロボットの移動制御方法
WO2018105412A1 (ja) * 2016-12-07 2018-06-14 ソニー株式会社 情報処理装置および方法、並びにプログラム
US10795326B2 (en) 2016-12-07 2020-10-06 Sony Corporation Information processing apparatus, and method
WO2019163279A1 (ja) * 2018-02-26 2019-08-29 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
JPWO2019163279A1 (ja) * 2018-02-26 2021-02-18 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
JP7363764B2 (ja) 2018-02-26 2023-10-18 ソニーグループ株式会社 情報処理装置、情報処理方法、およびプログラム
JP2021153680A (ja) * 2020-03-25 2021-10-07 カシオ計算機株式会社 機器の制御装置、機器、機器の制御方法及びプログラム
JP7081619B2 (ja) 2020-03-25 2022-06-07 カシオ計算機株式会社 機器の制御装置、機器、機器の制御方法及びプログラム
CN116541731A (zh) * 2023-05-26 2023-08-04 北京百度网讯科技有限公司 网络行为数据的处理方法、装置和设备

Also Published As

Publication number Publication date
JP4058031B2 (ja) 2008-03-05

Similar Documents

Publication Publication Date Title
CN110313152B (zh) 用于智能助理计算机的用户注册
US8606735B2 (en) Apparatus and method for predicting user's intention based on multimodal information
US11217246B2 (en) Communication robot and method for operating the same
JP6754184B2 (ja) 音声認識装置及び音声認識方法
JP6761598B2 (ja) 感情推定システム、感情推定モデル生成システム
EP1494210B1 (en) Speech communication system and method, and robot apparatus
JP6062547B2 (ja) 拡張現実を制御するための方法および装置
KR20180071931A (ko) 전자 장치, 그의 사용자 발화 의도 판단 방법 및 비일시적 컴퓨터 판독가능 기록매체
KR102455056B1 (ko) 컨텍스트에 따라 이벤트의 출력 정보를 제공하는 전자 장치 및 이의 제어 방법
KR102529262B1 (ko) 전자 장치 및 제어 방법
WO2002099545A1 (en) Man-machine interface unit control method, robot apparatus, and its action control method
US11881209B2 (en) Electronic device and control method
KR20190083629A (ko) 음성 인식 방법 및 음성 인식 장치
JP4058031B2 (ja) ユーザ行動誘発システム及びその方法
KR101652705B1 (ko) 멀티 모달 정보를 이용하는 사용자 의도 추론 장치 및 방법
KR20190031786A (ko) 전자 장치 및 이의 피드백 정보 획득 방법
Ktistakis et al. A multimodal human-machine interaction scheme for an intelligent robotic nurse
CN110334244B (zh) 一种数据处理的方法、装置及电子设备
JP2007000938A (ja) 行動融和型ロボット装置
WO2007046613A1 (en) Method of representing personality of mobile robot based on navigation logs and mobile robot apparatus therefor
JP4572080B2 (ja) ロボット、または、ロボットにおける行動の更新方法、並びに、ロボットにおける行動の更新を制御するプログラム
US12020511B1 (en) Activity classification and repetition counting
KR102643720B1 (ko) 로봇용 인공지능 인터페이스 시스템
CN114047901B (zh) 人机交互方法及智能设备
RU2746201C2 (ru) Система и способ невербальной активации сервиса на мобильном устройстве

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070309

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070316

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070509

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070831

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071030

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20071211

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20071214

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101221

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees