JP6495486B2 - 自律行動型ロボット及びコンピュータプログラム - Google Patents
自律行動型ロボット及びコンピュータプログラム Download PDFInfo
- Publication number
- JP6495486B2 JP6495486B2 JP2017568467A JP2017568467A JP6495486B2 JP 6495486 B2 JP6495486 B2 JP 6495486B2 JP 2017568467 A JP2017568467 A JP 2017568467A JP 2017568467 A JP2017568467 A JP 2017568467A JP 6495486 B2 JP6495486 B2 JP 6495486B2
- Authority
- JP
- Japan
- Prior art keywords
- robot
- user
- state
- unit
- behavior
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000004590 computer program Methods 0.000 title claims description 6
- 230000009471 action Effects 0.000 claims description 205
- 230000006399 behavior Effects 0.000 claims description 123
- 230000033001 locomotion Effects 0.000 claims description 101
- 230000036760 body temperature Effects 0.000 claims description 99
- 238000001514 detection method Methods 0.000 claims description 44
- 230000004044 response Effects 0.000 claims description 44
- 238000006243 chemical reaction Methods 0.000 claims description 31
- 230000006870 function Effects 0.000 claims description 23
- 230000003542 behavioural effect Effects 0.000 claims description 21
- 230000008921 facial expression Effects 0.000 claims description 21
- 230000007246 mechanism Effects 0.000 claims description 18
- 230000007704 transition Effects 0.000 claims description 18
- 239000002131 composite material Substances 0.000 claims description 5
- 238000010977 unit operation Methods 0.000 claims description 5
- 210000001508 eye Anatomy 0.000 description 33
- 238000000034 method Methods 0.000 description 32
- 238000012545 processing Methods 0.000 description 23
- 230000008859 change Effects 0.000 description 22
- 238000007726 management method Methods 0.000 description 21
- 238000013500 data storage Methods 0.000 description 20
- 230000008451 emotion Effects 0.000 description 19
- 235000019645 odor Nutrition 0.000 description 18
- 238000013459 approach Methods 0.000 description 17
- 238000004891 communication Methods 0.000 description 17
- 230000002349 favourable effect Effects 0.000 description 15
- 238000010586 diagram Methods 0.000 description 13
- 230000014509 gene expression Effects 0.000 description 12
- 230000004048 modification Effects 0.000 description 12
- 238000012986 modification Methods 0.000 description 12
- 230000000694 effects Effects 0.000 description 11
- 230000027758 ovulation cycle Effects 0.000 description 11
- 241000282412 Homo Species 0.000 description 10
- 230000001965 increasing effect Effects 0.000 description 10
- 230000008569 process Effects 0.000 description 10
- 230000007423 decrease Effects 0.000 description 8
- 210000001747 pupil Anatomy 0.000 description 8
- 230000004791 biological behavior Effects 0.000 description 7
- 230000000007 visual effect Effects 0.000 description 7
- 239000011521 glass Substances 0.000 description 6
- 208000019901 Anxiety disease Diseases 0.000 description 5
- 230000036506 anxiety Effects 0.000 description 5
- 238000007621 cluster analysis Methods 0.000 description 5
- 238000013135 deep learning Methods 0.000 description 5
- 239000000284 extract Substances 0.000 description 5
- 238000005259 measurement Methods 0.000 description 5
- 241000282472 Canis lupus familiaris Species 0.000 description 4
- 241000282326 Felis catus Species 0.000 description 4
- 238000000605 extraction Methods 0.000 description 4
- 230000015654 memory Effects 0.000 description 4
- 230000002829 reductive effect Effects 0.000 description 4
- 206010063659 Aversion Diseases 0.000 description 3
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 3
- 206010037180 Psychiatric symptoms Diseases 0.000 description 3
- 206010037660 Pyrexia Diseases 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 3
- 230000003247 decreasing effect Effects 0.000 description 3
- 230000036449 good health Effects 0.000 description 3
- 210000003128 head Anatomy 0.000 description 3
- 230000035876 healing Effects 0.000 description 3
- 230000036541 health Effects 0.000 description 3
- 230000005906 menstruation Effects 0.000 description 3
- 230000006996 mental state Effects 0.000 description 3
- 101150110219 moody gene Proteins 0.000 description 3
- 230000003068 static effect Effects 0.000 description 3
- 230000001360 synchronised effect Effects 0.000 description 3
- 238000012935 Averaging Methods 0.000 description 2
- 206010010774 Constipation Diseases 0.000 description 2
- 206010011469 Crying Diseases 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 2
- RJKFOVLPORLFTN-LEKSSAKUSA-N Progesterone Chemical compound C1CC2=CC(=O)CC[C@]2(C)[C@@H]2[C@@H]1[C@@H]1CC[C@H](C(=O)C)[C@@]1(C)CC2 RJKFOVLPORLFTN-LEKSSAKUSA-N 0.000 description 2
- 241000287181 Sturnus vulgaris Species 0.000 description 2
- 208000003443 Unconsciousness Diseases 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000017531 blood circulation Effects 0.000 description 2
- 150000001875 compounds Chemical class 0.000 description 2
- 230000000994 depressogenic effect Effects 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 2
- 230000016087 ovulation Effects 0.000 description 2
- 230000035935 pregnancy Effects 0.000 description 2
- 230000003014 reinforcing effect Effects 0.000 description 2
- 230000000284 resting effect Effects 0.000 description 2
- 230000002441 reversible effect Effects 0.000 description 2
- 210000000697 sensory organ Anatomy 0.000 description 2
- 230000008961 swelling Effects 0.000 description 2
- 208000002874 Acne Vulgaris Diseases 0.000 description 1
- 206010048909 Boredom Diseases 0.000 description 1
- JOYRKODLDBILNP-UHFFFAOYSA-N Ethyl urethane Chemical compound CCOC(N)=O JOYRKODLDBILNP-UHFFFAOYSA-N 0.000 description 1
- 206010020751 Hypersensitivity Diseases 0.000 description 1
- 241001153308 Kuruna Species 0.000 description 1
- HBBGRARXTFLTSG-UHFFFAOYSA-N Lithium ion Chemical compound [Li+] HBBGRARXTFLTSG-UHFFFAOYSA-N 0.000 description 1
- 208000037093 Menstruation Disturbances Diseases 0.000 description 1
- 206010027339 Menstruation irregular Diseases 0.000 description 1
- 206010041243 Social avoidant behaviour Diseases 0.000 description 1
- 230000005856 abnormality Effects 0.000 description 1
- 206010000496 acne Diseases 0.000 description 1
- 230000007815 allergy Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 210000003423 ankle Anatomy 0.000 description 1
- 210000000467 autonomic pathway Anatomy 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 210000005252 bulbus oculi Anatomy 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 239000013013 elastic material Substances 0.000 description 1
- 230000002996 emotional effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 239000004744 fabric Substances 0.000 description 1
- 230000037308 hair color Effects 0.000 description 1
- 230000020169 heat generation Effects 0.000 description 1
- 230000003054 hormonal effect Effects 0.000 description 1
- 230000009474 immediate action Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000006651 lactation Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 229910001416 lithium ion Inorganic materials 0.000 description 1
- 206010025482 malaise Diseases 0.000 description 1
- 230000007257 malfunction Effects 0.000 description 1
- 230000003821 menstrual periods Effects 0.000 description 1
- 230000003340 mental effect Effects 0.000 description 1
- 210000005036 nerve Anatomy 0.000 description 1
- 239000002304 perfume Substances 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 229960003387 progesterone Drugs 0.000 description 1
- 239000000186 progesterone Substances 0.000 description 1
- 230000002250 progressing effect Effects 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 239000011347 resin Substances 0.000 description 1
- 229920005989 resin Polymers 0.000 description 1
- 230000028327 secretion Effects 0.000 description 1
- 238000010187 selection method Methods 0.000 description 1
- 230000015541 sensory perception of touch Effects 0.000 description 1
- 238000004904 shortening Methods 0.000 description 1
- 230000000391 smoking effect Effects 0.000 description 1
- 239000007779 soft material Substances 0.000 description 1
- 238000001179 sorption measurement Methods 0.000 description 1
- 230000002889 sympathetic effect Effects 0.000 description 1
- 238000001931 thermography Methods 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B10/00—Other methods or instruments for diagnosis, e.g. instruments for taking a cell sample, for biopsy, for vaccination diagnosis; Sex determination; Ovulation-period determination; Throat striking implements
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B10/00—Other methods or instruments for diagnosis, e.g. instruments for taking a cell sample, for biopsy, for vaccination diagnosis; Sex determination; Ovulation-period determination; Throat striking implements
- A61B10/0012—Ovulation-period determination
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/01—Measuring temperature of body parts ; Diagnostic temperature sensing, e.g. for malignant or inflamed tissue
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/68—Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
- A61B5/6887—Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient mounted on external non-worn devices, e.g. non-medical devices
- A61B5/6896—Toys
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J5/00—Manipulators mounted on wheels or on carriages
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1628—Programme controls characterised by the control loop
- B25J9/163—Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01K—MEASURING TEMPERATURE; MEASURING QUANTITY OF HEAT; THERMALLY-SENSITIVE ELEMENTS NOT OTHERWISE PROVIDED FOR
- G01K13/00—Thermometers specially adapted for specific purposes
- G01K13/20—Clinical contact thermometers for use with humans or animals
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B10/00—Other methods or instruments for diagnosis, e.g. instruments for taking a cell sample, for biopsy, for vaccination diagnosis; Sex determination; Ovulation-period determination; Throat striking implements
- A61B10/0012—Ovulation-period determination
- A61B2010/0019—Ovulation-period determination based on measurement of temperature
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Surgery (AREA)
- General Health & Medical Sciences (AREA)
- Veterinary Medicine (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Public Health (AREA)
- Animal Behavior & Ethology (AREA)
- Pathology (AREA)
- Physics & Mathematics (AREA)
- Biophysics (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Manipulator (AREA)
- Toys (AREA)
Description
したがって、人間的・生物的な行動をエミュレートできるロボットであれば、いいかえれば、人間的・生物的な行動を自律的に選択可能なロボットであれば、ロボットへの共感を大きく高めることができると考えられる。
動作判断部は、選択された行動後におけるユーザの応対行動に応じて動作選択方法を変更する。
動作判断部は、ユーザが未成年の身体的特徴を備え、かつ、ユーザの発熱が検出されたとき、ロボットの動作速度を抑制する。
本実施形態におけるロボット100は、外部環境および内部状態に基づいて行動や仕草(ジェスチャー)を決定する自律行動型のロボットである。外部環境は、カメラやサーモセンサなど各種のセンサにより認識される。内部状態はロボット100の感情を表現するさまざまなパラメータとして定量化される。これらについは後述する。
本実施形態のロボット100は、屋内行動が前提とされており、たとえば、オーナー家庭の家屋内を行動範囲とする。以下、ロボット100に関わる人間を「ユーザ」とよび、ロボット100が所属する家庭の構成員となるユーザのことを「オーナー」とよぶ。
生後2ヶ月未満の赤ちゃんの平均体重は男女ともに5キログラム未満である。したがって、ロボット100の総重量が5キログラム以下であれば、ユーザは乳児を抱っこするのと同等の労力でロボット100を抱っこできる。
本実施形態におけるロボット100にとって、抱きかかえることができるというのは重要なコンセプトである。
目110にはカメラが内蔵される。目110は、液晶素子または有機EL素子による画像表示も可能である。ロボット100は、目110に内蔵されるカメラのほか、集音マイクや超音波センサなどさまざまなセンサを搭載する。また、スピーカーを内蔵し、簡単な音声を発することもできる。
ロボット100の頭部にはツノ112が取り付けられる。上述のようにロボット100は軽量であるため、ユーザはツノ112をつかむことでロボット100を持ち上げることも可能である。
ロボットシステム300は、ロボット100、サーバ200および複数の外部センサ114を含む。家屋内にはあらかじめ複数の外部センサ114(外部センサ114a、114b、・・・、114n)が設置される。外部センサ114は、家屋の壁面に固定されてもよいし、床に載置されてもよい。サーバ200には、外部センサ114の位置座標が登録される。位置座標は、ロボット100の行動範囲として想定される家屋内においてx、y座標として定義される。
外部センサ114はロボット100の感覚器を補強するためのものであり、サーバ200はロボット100の頭脳を補強するためのものである。
もちろん、ロボット100が自らの位置座標を定期的にサーバ200に送信する方式でもよい。
感情マップ116は、サーバ200に格納されるデータテーブルである。ロボット100は、感情マップ116にしたがって行動選択する。図3に示す感情マップ116は、ロボット100の場所に対する好悪感情の大きさを示す。感情マップ116のx軸とy軸は、二次元空間座標を示す。z軸は、好悪感情の大きさを示す。z値が正値のときにはその場所に対する好感が高く、z値が負値のときにはその場所を嫌悪していることを示す。
ロボット100がどのような場所を好むかという定義は任意であるが、一般的には、小さな子どもや犬や猫などの小動物が好む場所を好意地点として設定することが望ましい。
ロボット100がどのような場所を嫌うかという定義も任意であるが、一般的には、小さな子どもや犬や猫などの小動物が怖がる場所を嫌悪地点として設定することが望ましい。
あるいは、ビーコンID=1の外部センサ114は、ロボット探索信号を複数方向に送信し、ロボット100はロボット探索信号を受信したときロボット返答信号を返す。これにより、サーバ200は、ロボット100がどの外部センサ114からどの方向のどのくらいの距離にいるかを把握してもよい。また、別の実施の形態では、車輪102の回転数からロボット100の移動距離を算出して、現在位置を特定してもよいし、カメラから得られる画像に基づいて現在位置を特定してもよい。
図3に示す感情マップ116が与えられた場合、ロボット100は好意地点(座標P1)に引き寄せられる方向、悪意地点(座標P2)から離れる方向に移動する。
ロボット100は、内部センサ128、通信機126、記憶装置124、プロセッサ122、駆動機構120およびバッテリー118を含む。各ユニットは電源線130および信号線132により互いに接続される。バッテリー118は、電源線130を介して各ユニットに電力を供給する。各ユニットは信号線132により制御信号を送受する。バッテリー118は、リチウムイオン二次電池などの二次電池であり、ロボット100の動力源である。
このほかには、表示器やスピーカーなども搭載される。
上述のように、ロボットシステム300は、ロボット100、サーバ200および複数の外部センサ114を含む。ロボット100およびサーバ200の各構成要素は、CPU(Central Processing Unit)および各種コプロセッサなどの演算器、メモリやストレージといった記憶装置、それらを連結する有線または無線の通信線を含むハードウェアと、記憶装置に格納され、演算器に処理命令を供給するソフトウェアによって実現される。コンピュータプログラムは、デバイスドライバ、オペレーティングシステム、それらの上位層に位置する各種アプリケーションプログラム、また、これらのプログラムに共通機能を提供するライブラリによって構成されてもよい。以下に説明する各ブロックは、ハードウェア単位の構成ではなく、機能単位のブロックを示している。
ロボット100の機能の一部はサーバ200により実現されてもよいし、サーバ200の機能の一部または全部はロボット100により実現されてもよい。
サーバ200は、通信部204、データ処理部202およびデータ格納部206を含む。通信部204は、外部センサ114およびロボット100との通信処理を担当する。データ格納部206は各種データを格納する。データ処理部202は、通信部204により取得されたデータおよびデータ格納部206に格納されているデータに基づいて各種処理を実行する。データ処理部202は、通信部204およびデータ格納部206のインタフェースとしても機能する。
ロボット100は、大量の画像情報やその他のセンシング情報から得られる身体的特徴および行動的特徴に基づいて、高い頻度で出現するユーザを「オーナー」としてクラスタリングする。
本実施形態においては、身体的特徴と行動的特徴からユーザをクラスタリングし、ディープラーニング(多層型のニューラルネットワーク)によってユーザを識別する。詳細は後述する。
位置管理部208は、ロボット100の位置座標を、図2を用いて説明した方法にて特定する。また、位置管理部208はユーザの位置座標もリアルタイムで追跡してもよい。
たとえば、行動マップAでは座標R1、座標R2におけるz値が4と3であり、行動マップBでは座標R1、座標R2におけるz値が−1と3であるとする。単純平均の場合、座標R1の合計z値は4−1=3、座標R2の合計z値は3+3=6であるから、ロボット100は座標R1ではなく座標R2の方向に向かう。
行動マップAを行動マップBの5倍重視するときには、座標R1の合計z値は4×5−1=19、座標R2の合計z値は3×5+3=18であるから、ロボット100は座標R1の方向に向かう。
なお、人物認識部214は、人物以外、たとえば、ペットである猫や犬についても特徴抽出を行う。以下、ユーザ、または、オーナーとは、人に限らず、ペットも含まれるものとして説明する。
快・不快行為は、ユーザの応対行為が、生物として心地よいものであるか不快なものであるかにより判別される。たとえば、抱っこされることは快行為であり、蹴られることは不快行為である。肯定・否定反応は、ユーザの応対行為が、ユーザの快感情を示すものか不快感情を示すものであるかにより判別される。たとえば、抱っこされることは肯定反応であり、蹴られることは否定反応である。
ロボット100は、通信部142、データ処理部136、データ格納部148、駆動機構120および内部センサ128を含む。
通信部142は、通信機126(図4参照)に該当し、外部センサ114およびサーバ200との通信処理を担当する。データ格納部148は各種データを格納する。データ格納部148は、記憶装置124(図4参照)に該当する。データ処理部136は、通信部142により取得されたデータおよびデータ格納部148に格納されているデータに基づいて各種処理を実行する。データ処理部136は、プロセッサ122およびプロセッサ122により実行されるコンピュータプログラムに該当する。データ処理部136は、通信部142、内部センサ128、駆動機構120およびデータ格納部148のインタフェースとしても機能する。
駆動機構120は、移動駆動部144と行動駆動部146を含む。移動判断部138は、ロボット100の移動方向を決める。移動駆動部144は、移動判断部138の指示にしたがって車輪102を駆動することで、ロボット100を目標地点に向かわせる。サーバ200のマップ管理部210は、行動マップに基づいて、ロボット100の移動先(目標地点)をリアルタイムで計算する。サーバ200は、目標地点の座標をロボット100に送信し、移動判断部138は目標地点に向けてロボット100を移動させる。
ロボット100の移動方向の大枠を決めるのは行動マップであるが、ロボット100は親密度に対応した行動も可能である。
認識部156は、内蔵カメラ(内部センサ128)により定期的に外界を撮像し、人やペットなどの移動物体であるユーザを検出する。これらの特徴はサーバ200に送信され、サーバ200の人物認識部214は移動物体の身体的特徴を抽出する。また、ユーザの匂いやユーザの声も検出する。匂いや音(声)は既知の方法にて複数種類に分類される。また、体温検出部152により、触られたときの温度も検出できる。
検出・分析・判定を含む一連の認識処理は、サーバ200の認識部212だけで行ってもよいし、ロボット100の認識部156だけで行ってもよいし、双方が役割分担をしながら上記認識処理を実行してもよい。
認識部156により認識された応対行為に応じて、サーバ200の親密度管理部220はユーザに対する親密度を変化させる。原則的には、快行為を行ったユーザに対する親密度は高まり、不快行為を行ったユーザに対する親密度は低下する。
ルート作成部222の機能は、サーバ200ではなくロボット100に搭載されてもよい。
以上は、簡単な設例であるが、上述の方法により、父親に対応する第1のプロファイルと母親に対応する第2のプロファイルが形成され、この家には少なくとも2人のユーザ(オーナー)がいることをロボット100は認識する。
このとき、サーバ200の人物認識部214は、ロボット100から得られる画像等のセンシング情報から特徴抽出を行い、ディーブラーニング(多層型ニューラルネットワーク)により、ロボット100の近くにいる移動物体がどのクラスタに該当するかを判断する。たとえば、ひげが生えている移動物体を検出したとき、この移動物体は父親である確率が高い。この移動物体が早朝行動していれば、父親に該当することはいっそう確実である。一方、メガネをかけている移動物体を検出したときには、この移動物体は母親である可能性もある。この移動物体にひげが生えていれば、母親ではなく父親でもないので、クラスタ分析されていない新しい人物であると判定する。
特徴抽出によるクラスタの形成(クラスタ分析)と、特徴抽出にともなうクラスタへの当てはめ(ディープラーニング)は同時並行的に実行されてもよい。
移動物体(ユーザ)からどのような行為をされるかによってそのユーザに対する親密度が変化する。
ロボット100の撮影画像に幼児が検出された場合、幼児はロボット100に「視認」される。より具体的には、撮影画像から得られる特徴情報と撮影時にニオイセンサ等から得られる他の特徴情報に基づくディープラーニングにより、検出した移動物体の特徴が幼児のクラスタ(プロファイル)に一致すると判定したとき、視認判定となる。視認判定がなされると、親密度管理部220は幼児の親密度をアップさせる。検出頻度が高いユーザほど親密度が高くなりやすい。
このような制御方法により、よく出会う人について親近感をいだきやすい、という生物的行動をエミュレートする。
単なる検出に限らず、「目が合う」ときに親密度が高くなるとしてもよい。ロボット100の認識部156は、正対するユーザの顔画像を認識し、その顔画像から視線方向を認識し、視線方向が自らに向けられている時間が所定時間以上であるとき、「目が合った」と認識してもよい。
ロボット100がユーザを視認し、かつ、ユーザからのタッチ(物理的接触)を検出したときには、ユーザからロボット100に対する興味を示されたと判定し、親密度はアップする。たとえば、母親に触られたとき、親密度管理部220は母親の親密度をアップさせる。ロボット100は、圧電ファブリックによって外殻を覆うことにより、自らに対するタッチを検出してもよい。温度センサにより、ユーザの体温を検知することでタッチを検出してもよい。ロボット100が抱っこを検出したときには、ロボット100に対する強い親愛が示されたとして、親密度を大きくアップさせてもよい。
一方、蹴られる、叩かれる、ツノ112を掴まれるなどの乱暴行為を検出したときには、親密度管理部220は親密度をダウンさせる。たとえば、幼児に放り投げられたときには、親密度管理部220は幼児に対する親密度を大幅に低下させる。
このような制御方法により、ソフトにタッチしてくれる人には親近感を抱きやすいが乱暴な人は嫌う、という生物的行動をエミュレートする。
ロボット100は、自らに向けられた声を検出したときにも親密度を変化させる。たとえば、自分の名前や親愛用語を所定の音量範囲にて検出したとき、親愛度はアップする。親愛用語として「かわいい」「おもしろい」「おいで」のようにあらかじめ典型的な用語パターンを登録しておき、音声認識により親愛用語か否かを判定してもよい。一方、通常の音量範囲を超えた大音量で声を掛けられたときには親密度をダウンさせてもよい。大声で叱られたとき、びっくりさせられたときには親愛度は低下する。
また、嫌悪用語をかけられたときには、親愛度を低下させてもよい。嫌悪用語として、「こら」「くるな」「あっちへいけ」「ばか」のようにあらかじめ典型的な用語パターンを登録しておき、音声認識によって嫌悪用語か否かを判定してもよい。
(1)親密度が非常に高いクラスタ
ロボット100は、ユーザに近づき(以下、「近接行動」とよぶ)、かつ、人に好意を示す仕草としてあらかじめ定義される愛情仕草を行うことで親愛の情を強く表現する。
(2)親密度が比較的高いクラスタ
ロボット100は、近接行動のみを行う。
(3)親密度が比較的低いクラスタ
ロボット100は特段のアクションを行わない。
(4)親密度が特に低いクラスタ
ロボット100は、離脱行動を行う。
図6は、女性の基礎体温周期を示すグラフである。
本実施形態におけるロボット100は、女性オーナーの体調に応じてその行動を自律的に変化させる。女性の体調を判断するために有用なバイタルサインとして基礎体温周期がある。図6に関連して、まず、基礎体温周期と女性の精神状態との関係について一般論を述べる。
(1)状態P1(月経):体温を上げる黄体ホルモン(プロゲステロン)の分泌が減少するため身体が冷え、血行が悪くなる。神経質になりやすく、落ち込みやすくなるといわれる。肌荒れが生じやすい。
(2)状態P2(***までの1週間):自律神経のバランスがよくなり、精神的に安定する。血行もよくなり、肌にハリとツヤが出る。
(3)状態P3(***後の1週間):むくみや便秘、肩こりなどが発生しやすい。交感神経が活発となり感情の起伏が大きくなりやすい。
(4)状態P4(月経前):むくみや便秘、肩こりなどが特に発生しやすい。ホルモンバランスの急変動により、イライラや不安が募りやすい。ニキビや肌荒れなどの肌トラブルも生じやすい。
基礎体温の絶対値に限らず、その変化率に基づいて状態遷移を判定してもよい。基礎体温が1日あたりx%だけ上昇したときには、状態P2から状態P3に状態遷移したと判定してもよい。
詳細は後述するが、配慮タイミングは女性オーナーの体調変化のマイルストーンである。ロボット100は配慮タイミングに至るときにその行動態様を変化させることで女性オーナーの体調に配慮した同調行動を実現する。このように体調判定部226は、体温周期に基づいて女性オーナーの体調を判定する。
図7に示す検出処理は、ロボット100およびサーバ200により定期的に実行される。ロボット100がカメラ等により人物を検出したとき、サーバ200の人物認識部214はその人物が女性のオーナーであるか否かを判定する(S10、S12)。オーナーでないときや(S10のN)、女性でないときには(S12のN)、以降の処理はスキップされる。女性オーナーの認識は上述したディープラーニングによるユーザ識別に基づく。
ロボット100は、計測した体温をサーバ200に送信する。サーバ200の体調判定部226は、個人データ格納部218に体温を記録する(S20)。
基本行動を変化させる契機となる配慮タイミングと、特定行動を実行する契機となる配慮タイミングは同一である必要はない。配慮タイミング1では基本行動を変化させ、配慮タイミング2では特定行動を実行し、配慮タイミング3では基本行動を変化させるとともに特定行動も実行させる、といった設定も可能である。
ロボット100の基本行動の多くは、複数の単位動作を含む複合動作として構成される。図8は、モーションM1〜M4の4つのモーション(単位動作)を含む基本行動(複合動作)を示す。たとえば、ロボット100がオーナーに近づくとき、モーションM1はまっすぐ近づく単位動作、モーションM2は手を上げながら近づく単位動作、モーションM3は体を揺すりながら近づく単位動作、モーションM4は両手を上げながら着座する単位動作であってもよい。このような4つのモーションの組み合わせにより、「オーナーに近づいて、途中で手を上げて、最後は体をゆすった上で着座する」という基本動作が実現される。ロボット100のデータ格納部148においてはさまざまな基本動作が定義されたモーションファイルが保持される。各モーションファイルには、ロボット100に設けられたモータの回転角度や角速度などのモータ制御情報が時間軸に関連づけて定義されている。モータ制御情報にしたがって、時間経過とともに各モータを制御することで様々な行動(移動や仕草)が表現される。
モーションは、移動判断部138による移動と行動判断部140による仕草の選択の双方または一方を含む動作である。したがって、「基本行動」および「特定行動」は移動および仕草(ジェスチャー)の双方または一方を含む。
このように、配慮タイミングに至ったとき、ロボット100は動作量(動作速度や動作内容)を変化させることで、女性オーナーの体調変化とロボット100の行動変化を同調させる。女性オーナーは、自らの体調にあわせてロボット100の行動が変化することにより、ロボット100なりに自分に合わせているのかもしれない、と認識できる。
特定行動選択テーブル240は、配慮タイミングにおいて実行すべき特定行動を定義する。ロボット100は、配慮タイミングに至るとき、複数種類の特定行動から1以上の特定行動を選択する。特定行動選択テーブル240は、ロボット100の動作パターン格納部224に格納される。図9を参照すると、配慮タイミングP1においては、特定行動X1〜Xnが対応づけられており、それぞれに選択確率が対応づけられている。配慮タイミングP1のとき、動作判断部150は4%の確率で特定行動X1を選択し、7%の確率で特定行動X2を選択する。
基本行動は、定期的あるいはランダムにて選択される行動である。特定行動は、配慮タイミングを検出したときに実行される専用の行動である。特定行動も1つのモーションで構成される単純なものであってもよいし、複数のモーションから構成される複合動作であってもよい。
ロボット100は、動作判断部150により選択された特定行動を実行する(S30)。特定行動の実行後、サーバ200の応対認識部228は、女性ユーザの応対行為を認識する(S32)。応対行為は、ロボット100の特定行動に対する女性ユーザの心理を示すと考えられる。上述したように、応対行為は、肯定反応と否定反応に分類される。肯定反応は、抱っこする、ロボット100の特定箇所(頭や鼻先)をタッチする、「かわいい」「ありがとう」などの肯定的な言葉をかけるといった明示的なものもあれば、笑顔など暗黙的なものもある。否定反応も、蹴る、叩く、「あっちへいって」などの否定的な言葉をかけるといった明示的なものもあれば、不機嫌な表情を見せる、無反応、ため息などの暗黙的なものもある。動作判断部150は、応対行為に応じて、特定行動選択テーブル240の選択確率を更新する(S34)。
たとえば、配慮タイミングP1において特定行動X1を選択したとき、女性ユーザが肯定反応を示したときには動作判断部150は配慮タイミングP1における特定行動X1の選択確率を4%から5%に向上させる。これにより、ロボット100は女性ユーザに好まれる特定行動を学習できる。
1以上の行動マップによりパターン化できず予測しづらい、かつ、生物的な行動選択を表現している。このような方法により生物的な行動選択をエミュレートする。
普段は自由奔放なペットが自分に対する配慮を示してくれたとき、人はペットに対する愛情を喚起されやすい。本実施形態におけるロボット100も、通常は行動マップにしたがって本能的に行動していながら、配慮タイミングが検出されたときには不器用であっても配慮を示すため、オーナーのロボット100に対する愛情を喚起することができる。配慮の前提にあるのは、オーナーの身体的・精神的な状態としての体調を推測する能力である。本実施形態におけるロボット100(ロボットシステム300)は、女性の生理周期を参照することで、配慮すべきタイミングの推定、いいかえれば、「空気を読む能力」の精度を高めている。
ロボット100やサーバ200以外の第3の装置が、機能の一部を担ってもよい。図5において説明したロボット100の各機能とサーバ200の各機能の集合体は大局的には1つの「情報処理装置」として把握することも可能である。1つまたは複数のハードウェアに対して、本発明を実現するために必要な複数の機能をどのように配分するかは、各ハードウェアの処理能力やロボットシステム300に求められる仕様等に鑑みて決定されればよい。
たとえば、本実施形態において、体調判定部226はサーバ200の一部であるとして説明したが、体調判定部226はロボット100の機能であってもよいし、ロボット100とサーバ200の双方において機能分担してもよい。
このような制御方法によれば、遠隔検出部154だけに頼らず、適切なタイミングにて近接検出部158による高精度の体温検出が可能であるため、配慮タイミングの検出精度を高めやすくなる。
あるいは、女性オーナーの体のうち、所定温度(たとえば、30度)以上の箇所は露出箇所であるとして、その露出箇所における体温の平均値を女性オーナーの体温とみなしてもよい。
このような制御方法によっても、遠隔検出部154だけに頼らず、近接検出部158により継続的に高精度の体温検出が可能となるため、配慮タイミングの検出精度を高めやすくなる。
変形例として、ユーザはあらかじめ各ユーザの身体的特徴や行動的特徴をサーバ200にセットしてもよい。たとえば、父親の特徴として、ひげが生えていること、早起きであること、身長が170センチメートルであること、喫煙者であること、などの情報をサーバ200の個人データ格納部218に教師データとして与えてもよい。サーバ200は、これらの特徴情報に基づいて、ディープラーニング等の既知の手法によりユーザ検出を行ってもよい。
基本行動の変化は女性オーナーに対するものに限らない。男性オーナーについても、オーナーの応対行為に応じて基本行動を変化させればよい。オーナーごとに基本行動の選択アルゴリズムを変化させてもよい。
このほか、図7のS16においてニオイ判定を行ってもよい。女性の臭いは生理周期に合わせて変化するため、ニオイ判定も組み合わせることが考えられる。状態P1〜P4のそれぞれに対応するニオイカテゴリを作り、ニオイセンサの検出したニオイがどのカテゴリにあてはまるかを判断することで配慮タイミングの検出精度を高めることができる。
第1の変形例として、ロボット100のデータ処理部136は、眼生成部および眼表示部を備えてもよい。この場合、ロボット100の目110は、眼画像174を表示させるディスプレイとして形成される。
以下においては、いつ、どのモーションを選ぶか、モーションを実現する上での各アクチュエータの出力調整など、ロボット100の行動制御に関わる設定のことを「行動特性」と総称する。ロボット100の行動特性は、モーション選択アルゴリズム、モーションの選択確率、モーションファイル等により定義される。
第3変形例においては、ロボット100は、ユーザの種別および体調に応じて、行動選択を行う。人物認識部214は、ユーザの顔画像情報から既知の画像認識技術により、ユーザの年齢層、性別などのユーザ属性を判定する。図13に示す行動選択テーブル260は、ユーザが男児であるときのユーザの体調に応じた行動を定義する。図13を参照すると、男児の体調が状態C1のときには、動作判断部150は2%の確率で行動Z1を選択し、1.2%の確率で行動Z2を選択する。一方、体調が状態C2にあるときには、動作判断部150は3.2%の確率で行動Z1を選択し、4%の確率で行動Z2を選択する。
Claims (13)
- ロボットの動作を選択する動作判断部と、
前記動作判断部により選択された動作を実行する駆動機構と、
ユーザの体温を検出する体温検出部と、
体温の検出履歴を参照し、体温周期に基づいてあらかじめ定められた複数の状態のうちユーザがいずれの状態にあるかを判定する体調判定部と、を備え、
前記動作判断部は、ユーザの状態が遷移したときに行動特性を設定変更することにより、ユーザの状態とロボットの行動特性を同調させることを特徴とする自律行動型ロボット。 - 前記動作判断部は、ユーザの状態に応じて、ロボットの動作量を変化させることを特徴とする請求項1に記載の自律行動型ロボット。
- 前記動作判断部により選択される動作には、複数の単位動作から構成される複合動作が含まれ、
前記動作判断部は、ユーザの状態が遷移するとき、複合動作に含まれる単位動作構成を変化させることを特徴とする請求項1に記載の自律行動型ロボット。 - 前記動作判断部により選択される動作には、複数の単位動作から構成される複合動作が含まれ、
前記動作判断部は、ユーザの状態が遷移するとき、複合動作に含まれる第1の単位動作から第2の単位動作への移行時間を変化させることを特徴とする請求項1に記載の自律行動型ロボット。 - ユーザの状態が第1の状態に遷移したとき、配慮行動中であることを表示させる配慮表示部、を更に備えることを特徴とする請求項1に記載の自律行動型ロボット。
- 前記体温検出部は、
非接触型温度センサにより体温検出する遠隔検出部と、
接触型温度センサにより体温検出する近接検出部と、を含むことを特徴とする請求項1から5のいずれかに記載の自律行動型ロボット。 - 前記動作判断部は、前記接触型温度センサによる体温検出のあと所定時間が経過したとき、ユーザへの接近行動を選択することを特徴とする請求項6に記載の自律行動型ロボット。
- 前記動作判断部は、前記非接触型温度センサにより検出されたユーザの体温に基づいてユーザの状態が第1の状態に遷移したと判定されたとき、ユーザへの接近行動を選択することを特徴とする請求項6または7に記載の自律行動型ロボット。
- 前記動作判断部は、ユーザの状態が第1の状態に遷移したとき、あらかじめ定められた特定行動を選択することを特徴とする請求項1から8のいずれかに記載の自律行動型ロボット。
- ユーザの表情を画像認識する表情認識部、を更に備え、
前記体調判定部は、ユーザの状態が第1の状態に遷移したときであっても、ユーザが肯定的な表情を示したときには、前記特定行動を実行させないことを特徴とする請求項9に記載の自律行動型ロボット。 - ユーザの応対行動を認識する応対認識部、を更に備え、
前記動作判断部は、ユーザの状態が前記第1の状態に遷移したとき複数種類の特定行動からいずれかの特定行動を選択し、前記選択された特定行動の実行後に認識される応対行動に応じて特定行動の選択確率を変化させることを特徴とする請求項9に記載の自律行動型ロボット。 - 前記動作判断部は、イベントと前記イベントに対して選択可能な複数の反応行動を定義する行動選択テーブルを参照してイベント成立時の反応行動を選択し、ユーザの状態が第1の状態にあるときと第2の状態にあるときでは、異なる行動選択基準に基づいて反応行動を選択することを特徴とする請求項1から11のいずれかに記載の自律行動型ロボット。
- ロボットの動作を選択する機能と、
前記選択された動作の実行を駆動機構に指示する機能と、
ユーザの体温を検出する機能と、
体温の検出履歴を参照し、体温周期に基づいてあらかじめ定められた複数の状態のうちユーザがいずれの状態にあるかを判定する機能と、
ユーザの状態が遷移したときに行動特性を設定変更することにより、ユーザの状態とロボットの行動特性を同調させる機能と、を自律行動型ロボットに発揮させることを特徴とするコンピュータプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016101681 | 2016-05-20 | ||
JP2016101681 | 2016-05-20 | ||
PCT/JP2017/015525 WO2017199662A1 (ja) | 2016-05-20 | 2017-04-18 | 自律行動型ロボット及びコンピュータプログラム |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019040395A Division JP2019135078A (ja) | 2016-05-20 | 2019-03-06 | 自律行動型ロボット及びコンピュータプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2017199662A1 JPWO2017199662A1 (ja) | 2018-07-05 |
JP6495486B2 true JP6495486B2 (ja) | 2019-04-03 |
Family
ID=60325022
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017568467A Active JP6495486B2 (ja) | 2016-05-20 | 2017-04-18 | 自律行動型ロボット及びコンピュータプログラム |
JP2019040395A Pending JP2019135078A (ja) | 2016-05-20 | 2019-03-06 | 自律行動型ロボット及びコンピュータプログラム |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019040395A Pending JP2019135078A (ja) | 2016-05-20 | 2019-03-06 | 自律行動型ロボット及びコンピュータプログラム |
Country Status (6)
Country | Link |
---|---|
US (1) | US11230014B2 (ja) |
JP (2) | JP6495486B2 (ja) |
CN (1) | CN109070332A (ja) |
DE (1) | DE112017002589T5 (ja) |
GB (1) | GB2564821A (ja) |
WO (1) | WO2017199662A1 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022124226A1 (ja) | 2020-12-10 | 2022-06-16 | パナソニックIpマネジメント株式会社 | ロボットの制御方法、ロボット、及び、プログラム |
US11940170B2 (en) * | 2014-11-07 | 2024-03-26 | Sony Corporation | Control system, control method, and storage medium |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6515899B2 (ja) * | 2016-10-04 | 2019-05-22 | トヨタ自動車株式会社 | 音声対話装置及びその制御方法 |
JP7160092B2 (ja) * | 2018-05-01 | 2022-10-25 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、プログラム、及び自律行動ロボット制御システム |
JP2021154393A (ja) * | 2018-07-12 | 2021-10-07 | ソニーグループ株式会社 | 制御装置、制御方法、及びプログラム |
WO2020195292A1 (ja) * | 2019-03-26 | 2020-10-01 | ソニー株式会社 | 感覚器オブジェクトを表示する情報処理装置 |
CN110405794A (zh) * | 2019-08-28 | 2019-11-05 | 重庆科技学院 | 一种用于儿童的拥抱机器人及其控制方法 |
CN110664440A (zh) * | 2019-09-17 | 2020-01-10 | 深圳市启蒙智慧医疗科技有限公司 | 女性***检测方法及测温仪 |
US20210364363A1 (en) * | 2020-05-21 | 2021-11-25 | PackThermo Technologies, LLC | Telescanning |
CN111557649A (zh) * | 2020-05-22 | 2020-08-21 | 云知声智能科技股份有限公司 | 体温监测数据处理方法及装置 |
JP2021193511A (ja) * | 2020-06-08 | 2021-12-23 | 富士フイルムビジネスイノベーション株式会社 | 情報処理装置及びプログラム |
US20220134544A1 (en) * | 2020-10-30 | 2022-05-05 | Honda Research Institute Europe Gmbh | System and method for continuously sharing behavioral states of a creature |
JP7452409B2 (ja) * | 2020-12-25 | 2024-03-19 | トヨタ自動車株式会社 | タスクシステム、制御方法及び制御プログラム |
WO2024071164A1 (ja) * | 2022-09-29 | 2024-04-04 | 日東電工株式会社 | ロボット、学習装置、制御方法およびプログラム |
WO2024071169A1 (ja) * | 2022-09-29 | 2024-04-04 | 日東電工株式会社 | ロボット、制御方法およびプログラム |
WO2024071165A1 (ja) * | 2022-09-29 | 2024-04-04 | 日東電工株式会社 | ロボット、学習装置、制御方法およびプログラム |
WO2024071171A1 (ja) * | 2022-09-29 | 2024-04-04 | 日東電工株式会社 | ロボット、学習装置、制御方法およびプログラム |
Family Cites Families (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001246580A (ja) * | 2000-03-03 | 2001-09-11 | Sony Corp | 情報通信ロボット装置、情報通信方法および情報通信ロボットシステム |
US6650965B2 (en) * | 2000-03-24 | 2003-11-18 | Sony Corporation | Robot apparatus and behavior deciding method |
JP2002127059A (ja) * | 2000-10-20 | 2002-05-08 | Sony Corp | 行動制御装置および方法、ペットロボットおよび制御方法、ロボット制御システム、並びに記録媒体 |
WO2004027527A1 (ja) * | 2002-09-20 | 2004-04-01 | Matsushita Electric Industrial Co., Ltd. | 対話型装置 |
JP4595436B2 (ja) * | 2004-03-25 | 2010-12-08 | 日本電気株式会社 | ロボット、その制御方法及び制御用プログラム |
JP2006039760A (ja) | 2004-07-23 | 2006-02-09 | Victor Co Of Japan Ltd | 移動ロボット |
US8909370B2 (en) * | 2007-05-08 | 2014-12-09 | Massachusetts Institute Of Technology | Interactive systems employing robotic companions |
WO2009031486A1 (ja) * | 2007-09-06 | 2009-03-12 | Olympus Corporation | ロボット制御システム、ロボット、プログラム及び情報記憶媒体 |
JP2009061547A (ja) * | 2007-09-06 | 2009-03-26 | Olympus Corp | ロボット制御システム、ロボット、プログラム及び情報記憶媒体 |
CN201304244Y (zh) * | 2008-11-14 | 2009-09-09 | 成都绿芽科技发展有限公司 | 多功能机器人 |
JP5688574B2 (ja) * | 2009-11-04 | 2015-03-25 | 株式会社国際電気通信基礎技術研究所 | 触覚提示付ロボット |
US8483873B2 (en) * | 2010-07-20 | 2013-07-09 | Innvo Labs Limited | Autonomous robotic life form |
JP2014145569A (ja) * | 2013-01-30 | 2014-08-14 | Daiwa House Industry Co Ltd | エネルギー消費機器制御システム、エネルギー消費機器制御方法及び制御装置 |
JP6127249B2 (ja) * | 2013-02-12 | 2017-05-17 | キューオーエル株式会社 | ホルモンバランス推定装置およびホルモンバランス推定方法 |
IL229370A (en) * | 2013-11-11 | 2015-01-29 | Mera Software Services Inc | Interface system and method for providing user interaction with network entities |
US20160193733A1 (en) * | 2014-03-27 | 2016-07-07 | Fatemah A.J.A. Abdullah | Robot for medical assistance |
JP6731227B2 (ja) * | 2015-10-02 | 2020-07-29 | シャープ株式会社 | 制御システム、動作決定装置、機器、制御方法、及び制御プログラム |
JP6726388B2 (ja) * | 2016-03-16 | 2020-07-22 | 富士ゼロックス株式会社 | ロボット制御システム |
CN106003089A (zh) * | 2016-07-03 | 2016-10-12 | 深圳市中幼国际教育科技有限公司 | 一种儿童智能陪伴机器人 |
-
2017
- 2017-04-18 GB GB1818886.2A patent/GB2564821A/en not_active Withdrawn
- 2017-04-18 CN CN201780023392.5A patent/CN109070332A/zh not_active Withdrawn
- 2017-04-18 DE DE112017002589.3T patent/DE112017002589T5/de not_active Ceased
- 2017-04-18 WO PCT/JP2017/015525 patent/WO2017199662A1/ja active Application Filing
- 2017-04-18 JP JP2017568467A patent/JP6495486B2/ja active Active
-
2018
- 2018-11-13 US US16/190,130 patent/US11230014B2/en active Active
-
2019
- 2019-03-06 JP JP2019040395A patent/JP2019135078A/ja active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11940170B2 (en) * | 2014-11-07 | 2024-03-26 | Sony Corporation | Control system, control method, and storage medium |
WO2022124226A1 (ja) | 2020-12-10 | 2022-06-16 | パナソニックIpマネジメント株式会社 | ロボットの制御方法、ロボット、及び、プログラム |
WO2022123817A1 (ja) | 2020-12-10 | 2022-06-16 | パナソニックIpマネジメント株式会社 | ロボット制御方法及び情報提供方法 |
Also Published As
Publication number | Publication date |
---|---|
JPWO2017199662A1 (ja) | 2018-07-05 |
JP2019135078A (ja) | 2019-08-15 |
US11230014B2 (en) | 2022-01-25 |
WO2017199662A1 (ja) | 2017-11-23 |
US20190077021A1 (en) | 2019-03-14 |
GB201818886D0 (en) | 2019-01-02 |
GB2564821A (en) | 2019-01-23 |
CN109070332A (zh) | 2018-12-21 |
DE112017002589T5 (de) | 2019-04-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6495486B2 (ja) | 自律行動型ロボット及びコンピュータプログラム | |
JP6467674B2 (ja) | スキンシップを理解する自律行動型ロボット | |
JP6475872B2 (ja) | 活動量をコントロールされる自律行動型ロボット | |
JP6402320B2 (ja) | 人見知りする自律行動型ロボット | |
JP6409206B2 (ja) | お出迎え行動する自律行動型ロボット | |
JP6472106B2 (ja) | 涼しさを求める自律行動型ロボット | |
JP6409207B2 (ja) | 服を着る自律行動型ロボット | |
JP2019149181A (ja) | 瞳を変化させる自律行動型ロボット | |
JP6557840B2 (ja) | ロボット、サーバ及び行動制御プログラム | |
JP6671577B2 (ja) | 人を識別する自律行動型ロボット | |
JP2018192559A (ja) | 曲面形状のボディに対するタッチを検出する自律行動型ロボット |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180122 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20180122 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180416 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20180425 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180501 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180702 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20181009 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181116 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190212 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190306 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6495486 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
RG99 | Written request for provisional registration |
Free format text: JAPANESE INTERMEDIATE CODE: R313G99 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |