JP2016135530A - ロボット制御装置及びロボット - Google Patents
ロボット制御装置及びロボット Download PDFInfo
- Publication number
- JP2016135530A JP2016135530A JP2015011679A JP2015011679A JP2016135530A JP 2016135530 A JP2016135530 A JP 2016135530A JP 2015011679 A JP2015011679 A JP 2015011679A JP 2015011679 A JP2015011679 A JP 2015011679A JP 2016135530 A JP2016135530 A JP 2016135530A
- Authority
- JP
- Japan
- Prior art keywords
- robot
- unit
- degree
- output value
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000014509 gene expression Effects 0.000 claims abstract description 43
- 230000009471 action Effects 0.000 claims abstract description 27
- 230000008921 facial expression Effects 0.000 claims description 53
- 230000001815 facial effect Effects 0.000 claims description 41
- 238000001514 detection method Methods 0.000 claims description 7
- 230000002747 voluntary effect Effects 0.000 abstract 1
- 238000004891 communication Methods 0.000 description 12
- 230000008859 change Effects 0.000 description 8
- 230000006870 function Effects 0.000 description 8
- 238000013500 data storage Methods 0.000 description 7
- 230000001965 increasing effect Effects 0.000 description 7
- 235000019645 odor Nutrition 0.000 description 7
- 230000001133 acceleration Effects 0.000 description 6
- 239000000428 dust Substances 0.000 description 6
- 230000008451 emotion Effects 0.000 description 6
- 210000003128 head Anatomy 0.000 description 6
- 238000012545 processing Methods 0.000 description 6
- 230000002269 spontaneous effect Effects 0.000 description 6
- 210000004243 sweat Anatomy 0.000 description 6
- 238000007726 management method Methods 0.000 description 5
- 208000008454 Hyperhidrosis Diseases 0.000 description 3
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 3
- 238000001816 cooling Methods 0.000 description 3
- 238000010438 heat treatment Methods 0.000 description 3
- 238000000034 method Methods 0.000 description 3
- 206010044565 Tremor Diseases 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 2
- 238000004140 cleaning Methods 0.000 description 2
- 230000003247 decreasing effect Effects 0.000 description 2
- 230000035900 sweating Effects 0.000 description 2
- 238000003786 synthesis reaction Methods 0.000 description 2
- 206010019345 Heat stroke Diseases 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 206010027940 Mood altered Diseases 0.000 description 1
- 206010041349 Somnolence Diseases 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000010411 cooking Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000007791 dehumidification Methods 0.000 description 1
- 230000018044 dehydration Effects 0.000 description 1
- 238000006297 dehydration reaction Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000000474 nursing effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000004071 soot Substances 0.000 description 1
- 208000013460 sweaty Diseases 0.000 description 1
- 238000005406 washing Methods 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/80—2D [Two Dimensional] animation, e.g. using sprites
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/08—Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
Landscapes
- Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Mechanical Engineering (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Robotics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Manipulator (AREA)
- Processing Or Creating Images (AREA)
Abstract
【課題】ユーザに自発的行動を促すようにロボットを制御するロボット制御装置を提供する。
【解決手段】ロボット(1)の制御部(10)は、センサ部(60)からの出力値が所定の範囲から外れると、出力値に応じた行動をユーザに促す表情の顔画像を表示する表示制御部(11)と、促す度合いを設定する度合い設定部(12)とを備え、表示制御部(11)は、設定された度合いに応じた表情の顔画像を表示する。
【選択図】図1
【解決手段】ロボット(1)の制御部(10)は、センサ部(60)からの出力値が所定の範囲から外れると、出力値に応じた行動をユーザに促す表情の顔画像を表示する表示制御部(11)と、促す度合いを設定する度合い設定部(12)とを備え、表示制御部(11)は、設定された度合いに応じた表情の顔画像を表示する。
【選択図】図1
Description
本発明は、ロボット制御装置及びロボットに関する。
近年、ユーザを癒したり楽しませたりするペット型ロボットや家事や介護の代行を行う生活支援ロボットといったロボットが、徐々に人々の生活に浸透してきている。このようなロボットの中には、音声認識機能を有しユーザとコミュニケーションを取れるものも開発されている。例えば、顔を有し、出力する音声に応じて表情を変え、喜怒哀楽等の感情を表現するロボットもある。また、例えば、内蔵するセンサの検知により、例えば、「エアコンつけて」等の音声を出力して、環境を変えるための提案をユーザにするロボットもある。
しかしながら、従来のロボットでは、ユーザにとって便利であるが、ロボットからの提案があたかもロボットから指示あるいは命令されているように感じ、ユーザは、憤慨したり、ロボットに対する親しみが芽生えず、提案を受け入れ難かったりすることがある。
そこで、本願発明は、前記課題に鑑みなされ、その目的は、ユーザに自発的行動を促すようにロボットを制御することが可能なロボット制御装置、及びロボットを提供することである。
上記の課題を解決するために、本発明の一態様に係るロボット制御装置は、周囲の環境を検知するセンサ部と、顔画像を表示する表示部と、を備えたロボットを制御するロボット制御装置であって、前記センサ部による検知結果を示す出力値が所定の範囲から外れると、前記センサ部からの出力値に応じた行動をユーザに促す表情の顔画像を前記表示部に表示する表示制御部と、前記出力値、及び、前記出力値が前記所定の範囲から外れてからの経過時間の少なくとも一方に基づいて、前記行動をユーザに促す度合いを設定する度合い設定部と、を備え、前記表示制御部は、設定された前記度合いに応じた表情の顔画像を前記表示部に表示することを特徴とする。
上記構成によると、ロボットのセンサ部からの出力値が所定の範囲から外れると、センサ部からの出力値に応じた行動をユーザに促す度合いに応じた表情の顔画像を表示する。よって、促す度合に応じた表情の顔画像の表示により、センサ部の出力値が所定の範囲から外れていることをユーザに伝えることができ、センサ部からの出力値に応じた行動をユーザに促すことができる。所定の範囲をユーザに快適なあるいは安全な環境となる数値に設定しておくことで、ユーザにとって不快や危険といったよくない環境になることを未然に防ぐことができる。さらに、顔の表情によりユーザを促すため、威圧的でなく、ユーザを和ませたり癒したりしながら促すことができるという効果を奏する。このように、上記構成によると、ユーザに自発的行動を促すようにロボットを制御することが可能となる。
〔実施の形態1〕
以下、本発明の一実施形態について図1〜7に基づいて説明すれば以下の通りである。
以下、本発明の一実施形態について図1〜7に基づいて説明すれば以下の通りである。
(ロボットの構成)
本実施の形態に係るロボット1は、表情を表出可能なロボットであり、その外観は、図2に示すように頭部と胴体部とを有する雪だるま型である。胴体部には腕部が付随している。なお、ロボット1の外観は、図示したものに限定されず、例えば、図2の外観にさらに脚部を有していてもよい。あるいは、ヒューマノイド型であっても、ペット型であってもよい。
本実施の形態に係るロボット1は、表情を表出可能なロボットであり、その外観は、図2に示すように頭部と胴体部とを有する雪だるま型である。胴体部には腕部が付随している。なお、ロボット1の外観は、図示したものに限定されず、例えば、図2の外観にさらに脚部を有していてもよい。あるいは、ヒューマノイド型であっても、ペット型であってもよい。
ロボット1は、その頭部の顔領域に顔画像が表示され、表情の変化は後述のセンサ部60による検知結果を示す出力値に基づき行われる。また、ユーザとの対話内容に基づき表情が変化する。ロボット1は、本来の喜怒哀楽に加え、汗をかいたり震えていたりする顔画像を表示することで、人間により近い表情を映すことが可能である。このように、ロボット1は顔の表情を様々に変化できるため、ロボット1が感情を持っているように見せかけることができる。そのため、ユーザは、より親しみや愛着をもってロボット1に接することができる。
さらに、ロボット1は、音声認識機能及び発話機能を有しており、音声(音声信号)が入力されると音声認識を行い、その認識結果に応じた発話を行う。よって、ユーザは自然言語を用いた音声によってロボット1と対話することが可能である。
次に、ロボット1の構成の詳細について説明する。図1は、本実施の形態に係るロボット1の構成を示す図である。ロボット1は、制御部(ロボット制御装置)10、表示部20、音声出力部30、音声入力部40、動作部50、センサ部60、カメラ部70、及びデータ格納部80を備えている。
制御部10は、ロボット1の各部を制御するブロックである。制御部10は、例えば、CPU(Central Processing Unit)や専用プロセッサなどの演算処理部などにより構成されるコンピュータ装置から成る。制御部10は、データ格納部80に記憶されているロボット1における各種制御を実施するためのプログラムを読み出して実行することで、ロボット1の各部の動作を統括的に制御する。制御部10は、また、表示制御部11、度合い設定部12、発話制御部(音声制御部)13、及び音声認識部14としての機能を有する。これらの詳細については、後述する。
表示部20は、ロボット1の顔領域に顔場像データを用いて様々な顔画像を表示することで、ロボット1にて喜怒哀楽等の表情を表出するブロックである。本実施の形態では、表示部20は、リアプロジェクション方式で内蔵プロジェクタによりロボット1の顔領域に顔画像を映し出すものとするが、これには限定されない。
音声出力部30は、スピーカ等の音声出力装置であり、音声入力部40は、マイク等の音声入力装置である。
動作部50は、ロボット1の各種動作を実行するブロックである。動作部50が実行するロボット1における動作としては、例えば、頭部又は全体を回転させたり、手を動かしたりといった動作が挙げられるが、これらに限定されない。ロボット1の動作とは、ロボット1の少なくとも一部が物理的に移動することを指す。
センサ部60は、ロボット1周囲の環境を検知するための装置である。本実施の形態では、センサ部60は、温度センサ、湿度センサ、及び度センサを備えているものとする。これら以外のセンサが含まれていてもよい。カメラ部70は、静止画像及び動画像を撮影する撮像装置である。
データ格納部80は、RAM(Random Access Memory)、ROM(Read Only Memory)、HDD(Hard Disk Drive)などを含み、ロボット1にて用いられる各種情報(データ)を記憶するブロックである。また、データ格納部80には、ロボット1の顔領域に表示される顔画像データのデータベース81と、ロボット1が発話する発話データのデータベース82とが格納されている。
表示制御部11は、表示部20を制御し、ロボット1の頭部の顔領域に顔画像データを表示するブロックである。表示制御部11は、センサ部60による検知結果を示す出力値が所定の範囲から外れると、センサ部60からの出力値に応じた行動をユーザに促す表情の顔画像であり、度合い設定部12にて設定された度合いに応じた表情の顔画像を、表示部20に表示させる。センサ部60からの出力値に応じた行動をユーザに促す表情とは、例えば、センサ部60からの出力値が温度である場合、エアコンを操作し冷房運転するようユーザを促す、汗をかいて辛そうな表情、エアコンを操作し暖房運転するようユーザを促す、青ざめて震えている表情、等である。促す度合いに応じた表情の顔画像の表示については、後段で具体例を用いて説明する。
度合い設定部12は、センサ部60からの出力値、及び、センサ部60からの出力値が所定の範囲から外れてからの経過時間の少なくとも一方に基づいて、センサ部60からの出力値に応じた行動をユーザに促す度合いを設定するブロックである。促す度合いの設定については、後段で具体例を用いて説明する。
発話制御部13は、センサ部からの出力値またはカメラ部70が取得した情報に応じた発話データを、あるいは、音声認識部14の認識結果に応じた発話データを、データ格納部80から読み出し、音声データ(音声、音声情報)を生成(音声合成)して、音声出力部30から出力させるブロックである。なお、発話データが音声データとして生成されている(録音音声)場合には、発話制御部13は、音声合成は行わない。
音声認識部14は、ユーザからの入力音声を認識するブロックである。具体的には、音声認識部14は、音声入力部40から入力された音声データをテキストデータに変換して、そのテキストデータを解析して単語やフレーズを抽出する。なお、音声認識の処理について公知技術を用いることができる。
顔画像データのデータベース81は、表示部20に表示させる様々な表情の顔画像の画像データが、センサ部60からの出力値に応じた行動をユーザに促す度合い毎に登録されているデータベースである。
発話データのデータベース82は、センサ部60からの出力値に応じた行動をユーザに促す度合いに対応させた発話データ登録されているデータベースである。また、発話データのデータベース82には、単語やフレーズに対応させた発話データが登録されている。単語1つに対応したものだけでなく、複数の単語の組み合わせに対応したものが登録されていてもよい。また、ある単語やあるフレーズに対応させて複数の発話データが登録されていてもよく、この場合、実際に音声出力されるものを選択すればよい。なお、発話データは、テキストデータとして格納しておけばよい。このようなデータベースの構築については、公知技術が利用できる。
(促す度合いに応じた表情の具体例)
センサ部60からの出力値に応じた行動をユーザに促す度合いに応じた表情の表示について、具体例を用いて説明する。
センサ部60からの出力値に応じた行動をユーザに促す度合いに応じた表情の表示について、具体例を用いて説明する。
以下では、センサ部60が温度を検知する場合について説明する。センサ部60からの出力値が、温度について設定された所定の範囲を外れて高温である場合、度合い設定部12は、出力値に応じてエアコンの冷房運転を行うようユーザを促す度合いを設定する。度合い設定部12は、温度について設定された所定の範囲が28℃未満であり、センサ部60からの出力値が、28℃以上30℃未満の場合促す度合いを「小」として、30℃以上の場合促す度合いを「中」として設定する。このように、まず、度合い設定部12は、センサ部60からの出力値に基づいて、センサ部60からの出力値に応じた行動をユーザに促す度合いを設定する。
度合い設定部12の設定に応じて、表示制御部11は、促す度合いが小の場合には、促す度合いが小の場合に対応付けられた図3の(a)に示す少し汗でほほが少し赤くなる表情の顔画像を表示する。このとき、発話制御部13は、度合いが小の場合に対応付けられた音声データ、例えば、「今日は暑いね」を音声出力する。表示制御部11は、促す度合いが中の場合には、促す度合いが中の場合に対応付けられた図3の(b)に示すように、やや多くの汗でほほがやや大きく赤くなる表情の顔画像を表示する。このとき、発話制御部13は、促す度合いが中の場合に対応付けられた音声データであり、促す度合いが小の場合に対応付けられた音声データよりも多くの音声データ、例えば、「暑いね、汗がたくさん出てきたよ」を音声出力する。
図3の(a)の顔画像を表示してから所定時間経過後のセンサ部60の出力値が、前回と同じあるいはさらに高くなっている場合、度合い設定部12はす度合いを「中」として設定し、表示制御部11は、表示制御部11は、図3の(b)の顔画像を表示し、発話制御部13は、促す度合いが中の場合に対応付けられた音声データを音声出力する。
図3の(b)の顔画像を表示してから所定時間経過後のセンサ部60の温度センサからの出力値が、前回と同じあるいはさらに高くなっている場合、度合い設定部12はす度合いを「大」として設定し、表示制御部11は、表示制御部11は、度合いが大の場合に対応付けられた図3の(c)に示す多くの汗で顔中赤くなる表情顔画像を表示し、発話制御部13は、促す度合いが大の場合に対応付けられた音声データ、例えば、「暑いよ、汗がたくさんで顔も赤くなっちゃった」を音声出力する。さらに所定時間経過後のセンサ部60の温度センサからの出力値が、前回と同じあるいはさらに高くなっている場合には、図3の(c)の表情の顔画像の表示を繰り返してもよいし、さらに度合いの大きい促す表情を表示してもよいし、表示を停止してもよい。このような表示を行い、エアコンの冷房運転を行うようユーザを促す。
上記では、高温の場合を例に挙げて説明したが、低温の場合も同様にエアコンの暖房運転を行うようユーザを促す度合いを設定して、設定された促す度合いに応じた表情の顔画像を表示すればよい。また、上記では、図3の(a)の顔画像の表示から始まる場合、3段階で度合いを大きくしており、図3の(b)の顔画像の表示から始まる場合、2段階で度合いを大きくしているが、何段階で変化させてもよい。また、度合いを段階的に大きくする途中でセンサ部60からの出力値に応じて度合いを小さくしたり、反対に度合いを段階的に小さくする途中でセンサ部60からの出力値に応じて度合いを大きくしたりしてもよい。
以上のように、度合い設定部12は、センサ部60からの出力値及び当該出力値が所定の範囲から外れてからの経過時間の少なくとも一方に基づいて、センサ部60からの出力値に応じた行動をユーザに促す度合いを設定する。そして、表示制御部11は、出力値が所定の範囲から外れると、度合い設定部12により設定された促す度合いに応じた表情の顔画像を表示する。よって、促す度合に応じた表情の顔画像の表示により、センサ部の出力値が所定の範囲から外れていることをユーザに伝えることができ、センサ部60からの出力値に応じた行動をユーザに促すことができる。所定の範囲をユーザに快適なあるいは安全な環境となる数値に設定しておくことで、ユーザにとって不快や危険といったよくない環境になることを未然に防ぐことができる。さらに、顔の表情によりユーザを促すため、威圧的でなく、ユーザを和ませたり癒したりしながら促すことができるという効果を奏する。このように、制御部10は、ユーザに自発的行動を促すようにロボット1を制御することが可能となる。
センサ部60からの出力値に応じた行動をユーザに促す表情が、センサ部60からの出力値を所定の範囲内に戻す(上記の例では温度を下げる)ための行動をユーザに促す表情であると、ロボット1のセンサ部60からの出力値が所定の範囲から外れると、促す度合いに応じた表情の顔画像を表示することで、所定の範囲内に戻すための行動をユーザに促すことができる。
また、促す度合いに応じた音声データを出力することにより、さらに効果的にユーザを促すことができる。
また、度合い設定部12は、センサ部からの出力値が所定の範囲に戻るまで、経過時間の長さに応じて、前記促す度合を段階的に大きくなるように設定する。段階的に大きくなるよう設定することで、効果的にユーザを促すことができる。
度合い設定部12は、前記センサ部からの出力値が前記所定の範囲に近づく方向に変化すると、前記度合いを前回よりも小さくなるように設定し、センサ部60からの出力値が前記所定の範囲から遠ざかる方向に変化すると、前記度合いを前回よりも大きくなるように設定してもよい。
このようにセンサ部60からの出力値の変化に応じて、促す度合を前回よりも弱めたり強めたりすることで、促す度合がさらに大きい表情の顔画像を表示することができる。センサ部60からの出力値が所定の範囲に近づく方向に変化する場合表示される別の表情の画像として、例えば、不快さが解消されつつあることを伝えるための喜びの表情の顔画像であってもよい。また、この喜びの表情の顔画像が段階的に変化してもよい。
また、度合い設定部12は、音声認識部14による音声認識結果に基づいて、促す度合いを変化させてもよい。このように構成されていると、ユーザによる入力音声に応じて促す度合いを変化させ、それに応じて表情も変化する。よって、変化のバリエーションを増やすことで表情がより豊かになり、ユーザにロボットへの愛着をより湧かせることができる。
なお、促す度合いに応じた表情の顔画像の表示は、ロボット1がユーザを検知した場合にのみ行うようにしてもよい。ユーザの検知は、カメラ部70にて、あるいはセンサ部60に人感センサが設けられている場合にはこの人感センサにて、実施すればよい。
センサ部60が湿度を検知する場合も、上記と同様に、センサ部60からの出力値が、湿度について設定された所定の範囲を外れて高湿である場合、度合い設定部12は、出力値に応じてエアコンの除湿運転を行うようユーザを促す度合いを設定する。この度合いに応じて、表示制御部11は表情の顔画像を表示する。促す度合いが「小」の場合には、促す度合いが小の場合に対応付けられた図4の(a)に示す少し汗をかいた表情の顔画像を表示し、促す度合いが「中」の場合には、促す度合いが中の場合に対応付けられた図4の(b)に示すやや汗をかいた表情の顔画像を表示する。また、図4の(a)の顔画像を表示してから所定時間経過後のセンサ部60の出力値が、前回と同じあるいはさらに高くなっている場合、表示制御部11は、図4の(b)の顔画像を表示する。図4の(b)の顔画像を表示してから所定時間経過後のセンサ部60の出力値が、前回と同じあるいはさらに高くなっている場合、表示制御部11は、図4の(c)に示す沢山汗をかいた表情の顔画像を表示する。
これらの場合も発話制御部13は、促す度合いに対応付けられた音声データ、例えば、「蒸し蒸ししない?」、「蒸し蒸し、べたべたするよ」、「蒸し蒸しして気持ち悪いよ」を段階的に音声出力する。このような表示を行い、エアコンの除湿運転を行うようユーザを促す。また、低湿の場合も同様に加湿器の運転を行うようユーザを促す度合いを設定して、設定された促す度合いに応じた表情の顔画像を表示すればよい。
センサ部60が照度を検知する場合も、上記と同様に、センサ部60からの出力値が、照度について設定された所定の範囲を外れて低い場合、度合い設定部12は、出力値に応じて照明機器を点灯するようユーザを促す度合いを設定する。この度合いに応じて、表示制御部11は表情の顔画像を次のように表示する。促す度合いが「小」の場合には、図5の(a)に示す目を開けている表情の顔画像と図5の(b)に示す目を閉じている顔画像との表示を交互に行う頻度を小にして、瞬きをし出す顔画像を表示する。促す度合いが「中」の場合には、図5の(a)に示す顔画像と図5の(b)に示す顔画像との表示を交互に行う頻度を中にして、瞬きがやや多い表情の顔画像を表示する。また、促す度合いが「中」の場合には、図5の(a)に示す顔画像と図5の(b)に示す顔画像との表示を交互に行う頻度を大にして、瞬きが多い表情の顔画像を表示する。これらの場合も発話制御部13は、促す度合いに対応付けられた音声データ、例えば、「暗くなってきてない?」、「見えなくなってきた」、「見えないよ」を段階的に音声出力する。このような表示を行い、照明機器を点灯するようユーザを促す。
上記はあくまで例示であり、促す度合いに応じた表情の顔画像の表示は、上記したものに限定されない。また、上記では、温度センサ、湿度センサ、照度センサによる出力値に応じた表情について、それぞれのセンサ単独に用いる場合を説明したが、複数のセンサからの出力値に応じて、複雑な表情を表示するように構成されていてもよい。
また、センサ部60に加速度センサが備えられていてもよい。この場合、加速度センサにより地震を検知し、図6の(a)に示すようなびっくりした表情の顔画像を表示することで、避難を促すことができる。また、状況に合わせた音声データを出力してもよい。
さらに、加速度センサによりユーザからの接触を検知し、検知結果に応じた表情の顔画像を表示してもよい。この場合、例えば、叩かれたことを検知すると、図6の(b)に示すような悲しみの表情の顔画像を表示したり、例えば、撫でられたり抱き上げられたりしたことを検知すると、図6の(c)に示すような喜びの表情の顔画像を表示する。また、こられの状況に合わせた音声データを出力してもよい。
また、センサ部60に気圧センサが備えられていてもよい。この場合、気圧センサの出力値が気圧に対して設けられた所定の範囲から外れると(天気の崩れを予測して)、図7の(a)に示すようなだるそうな表情の顔画像を表示して、天気に対する対策(例えば、洗濯ものを取り込む、不要な外出は控える等)を促してもよい。また、状況に合わせた音声データを出力してもよい。
また、センサ部60にニオイセンサ又はホコリセンサが備えられていてもよい。この場合、ニオイセンサ又はホコリセンサの出力値が、ニオイ(臭気)又はホコリに対して設けられた所定の範囲から外れると、図7の(b)に示すようなしかめっ面の顔画像を表示し、掃除を促してもよい。また、状況に合わせた音声データを出力してもよい。
このように、センサ部60が人間の生活環境に密接した状態を検知できるセンサを備えており、所定の範囲内をユーザにとって快適な値に設定しておくことで、ロボット1はその表情により、ユーザの周囲を安全で快適な空間するための自発的行動をユーザに促すことができる。
さらに、ロボット1は、バッテリー残量や故障の検知等のロボット1内部の状態、又は時間によって、表情を変化させてもよい。例えば、バッテリー残量が豊富な状態では満腹な表情、残量が減ってくるに従って、お腹を空かせた表情の顔画像を表示するようにしてもよい。また、故障が検知された場合、気分の悪さを示す表情の顔画像を表示してもよい。ロボットの起動時や、あるいは深夜や早朝などは、眠そうな表情の顔画像を表示させてもよい。また、状況に合わせた音声データを出力してもよい。
また、ロボット1は、カメラ部70から入力された画像からユーザの表情や位置を解析してそれに基づきユーザと対話をするように構成されていていてもよい。例えば、ロボット1の正面から見てユーザの位置が右方向であると認識した場合、ロボットの頭部を実際に右に向ける、あるいは、頭部に顔が右に向いて移動する状態を表示することで、ユーザの方を向いている、つまり応答可能であるという状態を示す構成であってもよい。
〔実施の形態2〕
以下では、本発明のさらに別の実施の形態のロボットについて説明する。なお説明の便宜上、実施の形態1にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を省略する。
以下では、本発明のさらに別の実施の形態のロボットについて説明する。なお説明の便宜上、実施の形態1にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を省略する。
本実施の形態のロボット1aは、図8に示すように、ロボット1の構成に加え、通信ネットワークにより外部との通信を行う通信部90を備えている。通信ネットワークとしては、例えば、インターネットが利用できる。また、電話回線網、移動体通信網、CATV(Cable Television)通信網、衛星通信網などを利用することもできる。
ロボット1aは、通信部90から管理サーバ装置(図示せず)と接続している。よって、外部の管理サーバ装置からロボット1aを管理することができる。
通信部90により管理サーバから顔画像データ及び発話データの更新データを取得できるように構成されていると、表情データのバリエーション及び発話のバリエーションをさらに増やすこととができる。また、ロボット1aの制御部10の一部の機能を管理サーバ装置にて行わせてもよい。このような構成であると、ロボット1の処理能力の向上やデータ格納部80の容量の拡大を図ることなく、複雑な表情で表現することが可能になる。また、ロボット1aの使用時間の経過(例えば、対話や接触の回数等)の増大に応じて、複雑な感情を表情で表現することが可能になるように、構成されていてもよい。
さらに、ロボット1aは、外部の管理サーバ装置(図示せず)を介して、ユーザの携帯電話、スマートフォン、タブレット端末等の携帯端末と通信するように構成されていてもよい。この場合、例えば、ユーザ宅4の外にいる母親が、スマートフォンにより、ユーザ宅4にいる子供の情報をロボット1aのカメラ部70からの映像により随時取得し、スマートフォンから、子供に勉強を促す表情の顔画像を、促す度合いが段階的に大きくなるように表示させるよう、ロボット1aを遠隔操作するといった使用も可能である。
〔実施の形態3〕
以下では、本発明のさらに別の実施の形態のロボットについて説明する。なお説明の便宜上、実施の形態1または2にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を省略する。
以下では、本発明のさらに別の実施の形態のロボットについて説明する。なお説明の便宜上、実施の形態1または2にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を省略する。
ロボット1bは、図9に示すように、実施の形態1のロボット1の構成に加え、さらに、家電操作部95を備えている。家電操作部95は、ロボット1b周囲の、例えば、ユーザ宅4等のロボット1bがいる空間にある家電を操作するためのブロックである。家電操作部95は、家電を操作する操作信号を赤外線通信や無線LAN通信などで送信する。
ロボット1bは、家電を操作可能な家電操作モードを家電毎に有しており、センサ部60からの出力値から操作対象とする家電を判定し、判定した家電の家電操作モードに自装置を設定する。ロボット1bが操作可能な家電は、例えば、空気調和機(エアコン)、洗濯機、冷蔵庫、調理器具、照明装置、給湯機器、撮影機器、各種AV(Audio-Visual)機器、自装置以外の各種家庭用ロボット(例えば、掃除ロボット、家事支援ロボット、動物型ロボット等)等である。本実施の形態では、家電の例として、エアコン5−1及び照明機器5−2を用いて説明を行う。なお、ロボット1bのデータ格納部80は、家電を操作できるように自装置を設定するための情報が家電毎に格納されている。
ロボット1bは、度合いに応じた表情の顔画像を表示部20に表示後、所定時間経過しても、ユーザが行動しなかった場合、自ら家電を操作可能に構成されている。この場合、ロボット1bがいる空間においてユーザを検知した場合にのみ、自ら家電を操作するように構成されているのが好ましい。ユーザの検知は、カメラ部70にて、あるいはセンサ部60に人感センサが設けられている場合にはこの人感センサにて、実施すればよい。
高齢や病気などで動作が不自由であったり、例えば、別の作業で手がふさがっていたり等で、ユーザが家電を操作できない場合でも、ロボット1bにて対応(操作)することができる。例えば、ロボット1bがエアコン5−1を操作することで、ユーザを熱射病や脱水症状から予防できる。
また、ロボット1bは、音声入力部40から入力された入力音声から操作対象とする家電を判定し、判定した家電の家電操作モードに自装置を設定するように構成されていてもよい。この場合、ロボット1bは、ユーザとの対話からエアコン5−1を操作したいことを類推した場合には、エアコン5−1を操作する家電操作モードにロボット1bを設定し、操作を行うことが可能となる。
ロボット1bからエアコン5−1又は照明機器5−2を操作する際には、赤外線を用いてエアコン5−1又は照明機器5−2の位置を検出してもよいし、ロボット1bのカメラ部70から入手した情報を用いて、エアコン5−1又は照明機器5−2の位置を検出してもよい。
なお、ロボット1bからのエアコン5−1の操作前には、操作の実行を確認する音声、例えば、「エアコンつけていい?」といった音声データをロボット1bから出力させて、ユーザから実行を許可する音声、例えば、「つけて」、「ONにして」、「OK」等といった肯定の音声が入力された場合に操作を実行する。このように、家電の操作を実行する前にはユーザの確認を取るのが安全性を確保する上で好ましい。
〔実施の形態4〕
実施の形態1から3にて説明したロボット1,1a,1bは、それぞれ、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、CPU(Central Processing Unit)を用いてソフトウェアによって実現してもよい。
実施の形態1から3にて説明したロボット1,1a,1bは、それぞれ、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、CPU(Central Processing Unit)を用いてソフトウェアによって実現してもよい。
後者の場合、ロボット1,1a,1bは、それぞれ、各機能を実現するソフトウェアであるプログラムの命令を実行するCPU、上記プログラム及び各種データがコンピュータ(又はCPU)で読み取り可能に記録されたROM(Read Only Memory)又は記憶装置(これらを「記録媒体」と称する)、上記プログラムを展開するRAM(Random Access Memory)等を備えている。そして、コンピュータ(又はCPU)が上記プログラムを上記記録媒体から読み取って実行することにより、本発明の目的が達成される。上記記録媒体としては、「一時的でない有形の媒体」、例えば、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路等を用いることができる。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。なお、本発明は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。
本発明は上述した各実施の形態に限定されるものではなく、種々の変更が可能であり、異なる実施の形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施の形態についても本発明の技術的範囲に含まれる。さらに、各実施の形態にそれぞれ開示された技術的手段を組み合わせることにより、新しい技術的特徴を形成することができる。
〔まとめ〕
本発明の態様1に係るロボット制御装置(制御部10)は、周囲の環境を検知するセンサ部(60)と、顔画像を表示する表示部(20)と、を備えたロボット(1)を制御するロボット制御装置であって、前記センサ部による検知結果を示す出力値が所定の範囲から外れると、前記センサ部からの出力値に応じた行動をユーザに促す表情の顔画像を前記表示部に表示させる表示制御部(11)と、前記出力値、及び、前記出力値が前記所定の範囲から外れてからの経過時間の少なくとも一方に基づいて、前記行動をユーザに促す度合いを設定する度合い設定部(12)と、を備え、前記表示制御部は、設定された前記度合いに応じた表情の顔画像を前記表示部に表示させることを特徴とする。
本発明の態様1に係るロボット制御装置(制御部10)は、周囲の環境を検知するセンサ部(60)と、顔画像を表示する表示部(20)と、を備えたロボット(1)を制御するロボット制御装置であって、前記センサ部による検知結果を示す出力値が所定の範囲から外れると、前記センサ部からの出力値に応じた行動をユーザに促す表情の顔画像を前記表示部に表示させる表示制御部(11)と、前記出力値、及び、前記出力値が前記所定の範囲から外れてからの経過時間の少なくとも一方に基づいて、前記行動をユーザに促す度合いを設定する度合い設定部(12)と、を備え、前記表示制御部は、設定された前記度合いに応じた表情の顔画像を前記表示部に表示させることを特徴とする。
上記構成によると、ロボットのセンサ部からの出力値が所定の範囲から外れると、センサ部からの出力値に応じた行動をユーザに促す度合いに応じた表情の顔画像を表示する。促す度合いは、センサ部からの出力値、及び、出力値が所定の範囲から外れてからの経過時間の少なくとも一方に基づいて設定される。
よって、促す度合に応じた表情の顔画像の表示により、センサ部の出力値が所定の範囲から外れていることをユーザに伝えることができ、センサ部からの出力値に応じた行動をユーザに促すことができる。所定の範囲をユーザに快適なあるいは安全な環境となる数値に設定しておくことで、ユーザにとって不快や危険といったよくない環境になることを未然に防ぐことができる。さらに、顔の表情によりユーザを促すため、威圧的でなく、ユーザを和ませたり癒したりしながら促すことができるという効果を奏する。このように、上記構成によると、ユーザに自発的行動を促すようにロボットを制御することが可能となる。
また、顔の表情は画像で表示するため、表情の種類を豊富に用意することがたやすく行え、ロボットにおいて複雑な処理をすることなく、顔の表情を様々に変化させることが可能である。
本発明の態様2に係るロボット制御装置は、上記態様1において、前記センサ部からの出力値に応じた行動は、前記センサ部からの出力値を前記所定の範囲内に戻すための行動である。
上記構成によると、ロボットのセンサ部からの出力値が所定の範囲から外れると、促す度合いに応じた表情の顔画像を表示することで、所定の範囲内に戻すための行動をユーザに促すことができる。
本発明の態様3に係るロボット制御装置は、上記態様1または2において、さらに音声出力部を備えた前記ロボットが制御対象であり、前記促す度合いに応じて設定された音声情報を、前記音声出力部から出力する音声制御部を備えている。
上記構成によると、促す度合いに応じて表情が変化する顔画像に加え、音声により、さらに効果的にユーザを促すことができる。
本発明の態様4に係るロボット制御装置は、上記態様1から3のいずれか1つにおいて、前記度合い設定部は、前記センサ部からの出力値が前記所定の範囲に戻るまで、前記経過時間の長さに応じて、前記促す度合を段階的に大きくなるように設定する。
上記構成によると、センサ部からの出力値が所定の範囲から外れてからの経過時間の長さに応じて、顔画像の表情の促す度合が段階的に大きくなるため、効果的にユーザを促すことができる。
本発明の態様5に係るロボット制御装置は、上記態様1から4のいずれか1つにおいて、前記度合い設定部は、前記センサ部からの出力値が前記所定の範囲に近づく方向に変化すると、前記度合いを前回よりも小さくなるように設定し、前記センサ部からの出力値が前記所定の範囲から遠ざかる方向に変化すると、前記度合いを前回よりも大きくなるように設定する。
上記構成によると、センサ部からの出力値の変化に応じて、促す度合を前回よりも弱めたり強めたりする。よって、促す度合がさらに大きい表情の顔画像を表示することができる。センサ部からの出力値が所定の範囲に近づく方向に変化する場合表示される別の表情の画像として、例えば、不快さが解消されつつあることを伝えるための喜びの表情の顔画像であってもよい。また、この喜びの表情の顔画像が段階的に変化してもよい。
本発明の態様6に係るロボット制御装置は、上記態様1から5のいずれか1つにおいて、前記センサ部は、温度センサ、湿度センサ、照度センサ、加速度センサ、気圧センサ、ニオイセンサ、ホコリセンサ、の少なくとも1つを含む。
上記構成によると、温度センサ、湿度センサ、照度センサ、加速度センサ、気圧センサ、ニオイセンサ、ホコリセンサの少なくとも1の出力値が所定の範囲から外れると、出力値に応じた行動をユーザに促すことができる。温度、湿度、照度、例えば加速度センサで検知できる地震、気圧、ニオイ、ホコリ等は、人間の生活環境に密接したものである。そのため、上記構成によって、所定の範囲内をユーザにとって快適な値に設定しておくことで、ユーザの周囲を安全で快適な空間するための自発的行動をユーザに促すことができる。
本発明の態様7に係るロボット制御装置は、上記態様1から6のいずれか1つにおいて、前記ロボットは音声入力部を備えており、前記音声入力部から入力された音声を音声認識する音声認識部を備え、前記度合い設定部は、上記音声認識部による音声認識結果に基づいて、前記促す度合いを変化させる。
上記構成によると、ユーザによる音声に応じて促す度合いを変化させ、それに応じて表情も変化する。変化のバリエーションを増やすことで表情がより豊かになり、ユーザにロボットへの愛着をより湧かせることができる。
本発明の態様8に係るロボットは、周囲の環境を検知するセンサ部と、顔画像を表示する表示部と、上記態様1から6のいずれか1つに記載のロボット制御装置と、を備えたことを特徴とする。
上記構成によると、上記ロボット制御装置と同様の効果を奏し、自発的に行動するようユーザを促すことが可能なロボットを提供することができる。
また、本発明の各態様に係るロボット制御装置は、コンピュータによって実現してもよく、この場合には、コンピュータをロボット制御装置が備える各部として動作させることによりロボット制御装置をコンピュータにて実現させるプログラム、及びそれを記録したコンピュータ読み取り可能な記録媒体も本発明の範疇に入る。
本発明は、周囲の環境を検知するセンサ部と顔画像を表示する表示部とを備えたロボットを制御するロボット制御装置及びロボットに利用可能である。
1,1a,1b ロボット
4 ユーザ宅
5−1 エアコン(家電)
5−2 照明機器(家電)
10 制御部(ロボット制御装置)
11 表示制御部
12 度合い設定部
13 発話制御部(音声制御部)
14 音声認識部
20 表示部
30 音声出力部
40 音声入力部
50 動作部
60 センサ部
90 通信部
95 家電操作部
4 ユーザ宅
5−1 エアコン(家電)
5−2 照明機器(家電)
10 制御部(ロボット制御装置)
11 表示制御部
12 度合い設定部
13 発話制御部(音声制御部)
14 音声認識部
20 表示部
30 音声出力部
40 音声入力部
50 動作部
60 センサ部
90 通信部
95 家電操作部
Claims (5)
- 周囲の環境を検知するセンサ部と、顔画像を表示する表示部と、を備えたロボットを制御するロボット制御装置であって、
前記センサ部による検知結果を示す出力値が所定の範囲から外れると、前記センサ部からの出力値に応じた行動をユーザに促す表情の顔画像を前記表示部に表示させる表示制御部と、
前記出力値、及び、前記出力値が前記所定の範囲から外れてからの経過時間の少なくとも一方に基づいて、前記行動をユーザに促す度合いを設定する度合い設定部と、を備え、
前記表示制御部は、設定された前記度合いに応じた表情の顔画像を前記表示部に表示させることを特徴とするロボット制御装置。 - 前記センサ部からの出力値に応じた行動は、前記センサ部からの出力値を前記所定の範囲内に戻すための行動であることを特徴とする請求項1に記載のロボット制御装置。
- 前記ロボットはさらに音声出力部を備えており、
前記促す度合いに応じて設定された音声情報を、前記音声出力部から出力する音声制御部を備えたことを特徴とする請求項1または2に記載のロボット制御装置。 - 前記度合い設定部は、前記センサ部からの出力値が前記所定の範囲に戻るまで、前記経過時間の長さに応じて、前記促す度合を段階的に大きくなるように設定することを特徴とする請求項1から3のいずれか1項に記載のロボット制御装置。
- 周囲の環境を検知するセンサ部と、
顔画像を表示する表示部と、
請求項1から4のいずれか1項に記載のロボット制御装置と、を備えたことを特徴とするロボット。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015011679A JP6317266B2 (ja) | 2015-01-23 | 2015-01-23 | ロボット制御装置及びロボット |
PCT/JP2016/051325 WO2016117514A1 (ja) | 2015-01-23 | 2016-01-18 | ロボット制御装置及びロボット |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015011679A JP6317266B2 (ja) | 2015-01-23 | 2015-01-23 | ロボット制御装置及びロボット |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016135530A true JP2016135530A (ja) | 2016-07-28 |
JP6317266B2 JP6317266B2 (ja) | 2018-04-25 |
Family
ID=56417058
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015011679A Expired - Fee Related JP6317266B2 (ja) | 2015-01-23 | 2015-01-23 | ロボット制御装置及びロボット |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP6317266B2 (ja) |
WO (1) | WO2016117514A1 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020037155A (ja) * | 2018-09-05 | 2020-03-12 | 日本放送協会 | 仕草制御装置及び仕草制御プログラム |
JP2020113025A (ja) * | 2019-01-11 | 2020-07-27 | ダイキン工業株式会社 | 空間制御システム |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019104087A (ja) * | 2017-12-13 | 2019-06-27 | カシオ計算機株式会社 | デバイス制御装置、デバイス制御方法及びプログラム |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS594423U (ja) * | 1982-07-02 | 1984-01-12 | シャープ株式会社 | 温度表示装置 |
JPH09154186A (ja) * | 1995-11-30 | 1997-06-10 | Nippon Seiki Co Ltd | 表示装置 |
JP2000181500A (ja) * | 1998-12-15 | 2000-06-30 | Equos Research Co Ltd | 音声認識装置及びエ―ジェント装置 |
JP2001091035A (ja) * | 1999-09-22 | 2001-04-06 | Togami Electric Mfg Co Ltd | 温度報知装置 |
JP2002281567A (ja) * | 2001-03-14 | 2002-09-27 | Nec Corp | 遠隔操作方法、遠隔操作システム、および遠隔制御システムにおけるプログラム |
JP2006102861A (ja) * | 2004-10-04 | 2006-04-20 | Advanced Telecommunication Research Institute International | ロボットおよびロボットシステム |
JP2007147217A (ja) * | 2005-11-30 | 2007-06-14 | Advanced Telecommunication Research Institute International | ロボット |
JP2012060506A (ja) * | 2010-09-10 | 2012-03-22 | Hitachi Ltd | 外部機器制御装置、その外部機器制御方法及びプログラム |
JP2014183491A (ja) * | 2013-03-19 | 2014-09-29 | Sharp Corp | 電気機器制御装置、電気機器制御システム、プログラム、および電気機器制御方法 |
-
2015
- 2015-01-23 JP JP2015011679A patent/JP6317266B2/ja not_active Expired - Fee Related
-
2016
- 2016-01-18 WO PCT/JP2016/051325 patent/WO2016117514A1/ja active Application Filing
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS594423U (ja) * | 1982-07-02 | 1984-01-12 | シャープ株式会社 | 温度表示装置 |
JPH09154186A (ja) * | 1995-11-30 | 1997-06-10 | Nippon Seiki Co Ltd | 表示装置 |
JP2000181500A (ja) * | 1998-12-15 | 2000-06-30 | Equos Research Co Ltd | 音声認識装置及びエ―ジェント装置 |
JP2001091035A (ja) * | 1999-09-22 | 2001-04-06 | Togami Electric Mfg Co Ltd | 温度報知装置 |
JP2002281567A (ja) * | 2001-03-14 | 2002-09-27 | Nec Corp | 遠隔操作方法、遠隔操作システム、および遠隔制御システムにおけるプログラム |
JP2006102861A (ja) * | 2004-10-04 | 2006-04-20 | Advanced Telecommunication Research Institute International | ロボットおよびロボットシステム |
JP2007147217A (ja) * | 2005-11-30 | 2007-06-14 | Advanced Telecommunication Research Institute International | ロボット |
JP2012060506A (ja) * | 2010-09-10 | 2012-03-22 | Hitachi Ltd | 外部機器制御装置、その外部機器制御方法及びプログラム |
JP2014183491A (ja) * | 2013-03-19 | 2014-09-29 | Sharp Corp | 電気機器制御装置、電気機器制御システム、プログラム、および電気機器制御方法 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020037155A (ja) * | 2018-09-05 | 2020-03-12 | 日本放送協会 | 仕草制御装置及び仕草制御プログラム |
JP7152908B2 (ja) | 2018-09-05 | 2022-10-13 | 日本放送協会 | 仕草制御装置及び仕草制御プログラム |
JP2020113025A (ja) * | 2019-01-11 | 2020-07-27 | ダイキン工業株式会社 | 空間制御システム |
JP7189434B2 (ja) | 2019-01-11 | 2022-12-14 | ダイキン工業株式会社 | 空間制御システム |
Also Published As
Publication number | Publication date |
---|---|
WO2016117514A1 (ja) | 2016-07-28 |
JP6317266B2 (ja) | 2018-04-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6448971B2 (ja) | 対話装置 | |
US11363999B2 (en) | Voice controlled assistance for monitoring adverse events of a user and/or coordinating emergency actions such as caregiver communication | |
US10224060B2 (en) | Interactive home-appliance system, server device, interactive home appliance, method for allowing home-appliance system to interact, and nonvolatile computer-readable data recording medium encoded with program for allowing computer to implement the method | |
US20210043189A1 (en) | Method and system for performing voice command | |
CN112051743A (zh) | 设备控制方法、冲突处理方法、相应的装置及电子设备 | |
KR102338888B1 (ko) | 검출된 이벤트들에 관한 정보를 제공하기 위한 방법들, 시스템들 및 매체들 | |
JP2006127057A (ja) | 推定装置、及びその制御方法 | |
WO2022262283A1 (zh) | 用于空调的控制方法及装置、空调 | |
JP6317266B2 (ja) | ロボット制御装置及びロボット | |
US20240095143A1 (en) | Electronic device and method for controlling same | |
TWI665658B (zh) | 智慧型機器人 | |
WO2022262281A1 (zh) | 用于空调的控制方法及装置、空调 | |
WO2019215983A1 (ja) | 情報処理システム、情報処理方法、および記録媒体 | |
WO2016052520A1 (ja) | 対話装置 | |
CN113359503A (zh) | 设备控制方法及相关装置 | |
JP2014075045A (ja) | 制御装置、制御装置の制御方法、被制御装置、サーバ、制御プログラム、および記録媒体 | |
CN115718433A (zh) | 智能设备的控制方法、装置、智能***和存储介质 | |
Basanta et al. | Using voice and gesture to control living space for the elderly people | |
US20220028377A1 (en) | Electronic device and method for controlling same | |
KR102519599B1 (ko) | 멀티모달 기반의 인터랙션 로봇, 및 그 제어 방법 | |
JP2021033677A (ja) | 情報処理装置及びプログラム | |
JP7131542B2 (ja) | 情報処理装置、情報処理方法およびプログラム | |
WO2019128632A1 (zh) | 播放音频的方法、装置和*** | |
JP2020135368A (ja) | 情報処理装置、見守りシステム、見守り方法、及び見守りプログラム | |
KR102346158B1 (ko) | 감성지능 교육 ai 스피커 시스템 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170925 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180327 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180329 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6317266 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |