JP2017164851A - Work support device and program - Google Patents

Work support device and program Download PDF

Info

Publication number
JP2017164851A
JP2017164851A JP2016052919A JP2016052919A JP2017164851A JP 2017164851 A JP2017164851 A JP 2017164851A JP 2016052919 A JP2016052919 A JP 2016052919A JP 2016052919 A JP2016052919 A JP 2016052919A JP 2017164851 A JP2017164851 A JP 2017164851A
Authority
JP
Japan
Prior art keywords
user
work
emotion
robot
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016052919A
Other languages
Japanese (ja)
Other versions
JP6594235B2 (en
Inventor
伸也 高山
Shinya Takayama
伸也 高山
茂之 酒澤
Shigeyuki Sakasawa
茂之 酒澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2016052919A priority Critical patent/JP6594235B2/en
Publication of JP2017164851A publication Critical patent/JP2017164851A/en
Application granted granted Critical
Publication of JP6594235B2 publication Critical patent/JP6594235B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Manipulator (AREA)

Abstract

PROBLEM TO BE SOLVED: To support a work, which is performed by a user, according to emotion and stress of the user and utilization environment.SOLUTION: A work support device 1 for supporting a work performed by a user comprises: an emotion judgement part 10-2 which judges an emotion degree 40 which indicates an amount of change in emotion of the user or a stress index 50 which indicates a stress degree of the user by use of at least one of an image and a biological signal of the user; an operation generation part 10-3 which generates a robot operation 60 by use of at least one of the judged emotion degree 40 or stress index 50; and an information presentation part 10-4 which presents information concerning a work procedure, which is previously held, according to the generated robot operation 60.SELECTED DRAWING: Figure 2

Description

本発明は、ユーザが行う作業を支援する作業支援装置およびプログラムに関する。   The present invention relates to a work support apparatus and a program for supporting work performed by a user.

従来から、ユーザが行う作業手順を進行に合わせて提示する技術が知られている。特許文献1では、ユーザの返答から判定される経過情報に応じて適切な調理や仕事の手順を提示する技術が開示されている。   2. Description of the Related Art Conventionally, a technique for presenting work procedures performed by a user according to progress is known. Patent Document 1 discloses a technique for presenting appropriate cooking and work procedures according to progress information determined from a user's response.

また、特許文献2では、移動型ロボットを合理的に制御し、作業完了品を効率的に配達するロボットシステムに関する技術が開示されている。   Patent Document 2 discloses a technique related to a robot system that rationally controls a mobile robot and efficiently delivers work completion products.

また、特許文献3では、ユーザの調理機器構成にあわせた調理方法を提示し、効率的な調理支援を行う調理支援システムに関する技術が開示されている。   Patent Document 3 discloses a technique related to a cooking support system that presents a cooking method according to a user's cooking equipment configuration and performs efficient cooking support.

また、特許文献4では、複数の作業工程を並列に処理する場合において、注意を喚起する工程を提示する提示情報決定システムに関する技術が開示されている。   Moreover, in patent document 4, when processing a some work process in parallel, the technique regarding the presentation information determination system which shows the process to call attention is disclosed.

また、特許文献5では、複数のステップで構成される生活タスクをユーザが実行する際、センサ情報から得たユーザの動作・状態からコンテキストを取得し、ステップに応じた情報やガイダンスを提示して支援するシステムに関する技術が開示されている。   Moreover, in patent document 5, when a user performs the life task which consists of several steps, a context is acquired from a user's operation | movement and state obtained from sensor information, and the information and guidance according to a step are shown. A technique related to a supporting system is disclosed.

特開平11−187824号公報Japanese Patent Laid-Open No. 11-187824 特開2011−245577号公報JP 2011-245577 A 特開2001−190235号公報JP 2001-190235 A 特開2008−159039号公報JP 2008-159039 A 特開2008−015585号公報JP 2008-015585 A

しかしながら、特許文献1では、ユーザが入力した音声に基づいて経過情報が判定されるが、言葉を発することができない、調理や作業の音が大きい等、音声が取得困難な環境に適応できない。   However, in Patent Document 1, the progress information is determined based on the voice input by the user, but it cannot be adapted to an environment where it is difficult to acquire voice, such as being unable to speak words, or having a loud cooking or working sound.

また、特許文献2では、物品を配達するという給仕には長けているものの、調理や仕事等の作業を協力的に実行する点に欠けている。   Moreover, although patent document 2 is good at the wait-and-delivery which delivers an article | item, it is lacking in the point which cooperates and performs work, such as cooking and work.

また、特許文献3および特許文献4では、ユーザが使用する機器の構成や状況に応じて効率的な作業手順が提示されるが、映像表示機器が情報を提示するので、身振り手振りを交えた人間的な支援はできない。   Further, in Patent Document 3 and Patent Document 4, an efficient work procedure is presented according to the configuration and situation of the device used by the user, but since the video display device presents information, a person who makes gesture gestures Support is not possible.

また、特許文献5では、取得されたユーザのコンテキストに応じて、予め定められたステップにおける情報やガイダンスを提示するが、時々刻々と変わるユーザの感情やストレスに応じた支援はできない。   Further, in Patent Document 5, information and guidance in predetermined steps are presented according to the acquired user context, but support according to the user's emotion and stress that changes from moment to moment cannot be provided.

本発明は、このような事情に鑑みてなされたものであり、ユーザの感情やストレス、利用環境に応じて、ユーザが行う作業を支援する作業支援装置およびプログラムを提供することを目的とする。   The present invention has been made in view of such circumstances, and an object of the present invention is to provide a work support device and a program that support work performed by the user according to the user's emotions, stress, and usage environment.

(1)上記目的を達成するために、本発明の作業支援装置は、以下のような手段を講じた。すなわち、ユーザが行う作業を支援する作業支援装置であって、ユーザの映像または生体信号の少なくとも一つを用いて、ユーザの感情の変化量を示す情動度またはユーザのストレスの度合いを示すストレス指標を判定する感情判定部と、前記判定した情動度またはストレス指標の少なくとも一つを用いてロボット動作を生成する動作生成部と、前記生成したロボット動作に応じて、予め保持している作業手順に関する情報を提示する情報提示部と、を備えることを特徴とする。   (1) In order to achieve the above object, the work support apparatus of the present invention takes the following means. That is, a work support device for supporting a work performed by a user, using at least one of a user's video or a biological signal, an emotion level indicating a change amount of a user's emotion or a stress index indicating a degree of stress of the user An emotion determination unit that determines a robot motion, a motion generation unit that generates a robot motion using at least one of the determined emotion degree or stress index, and a work procedure that is held in advance according to the generated robot motion And an information presentation unit for presenting information.

このように、作業支援装置は、ユーザの映像または生体信号の少なくとも一つを用いて、ユーザの感情の変化量を示す情動度またはユーザのストレスの度合いを示すストレス指標を判定し、判定した情動度またはストレス指標の少なくとも一つを用いてロボット動作を生成し、生成したロボット動作に応じて、予め保持している作業手順に関する情報を提示するので、時々刻々と変わるユーザの感情やストレスに応じた作業支援をすることが可能となる。   As described above, the work support device uses at least one of the user's video or biological signal to determine the emotion level indicating the amount of change in the user's emotion or the stress index indicating the degree of stress of the user, and the determined emotion A robot motion is generated using at least one of a degree or a stress index, and information on a work procedure stored in advance is presented according to the generated robot motion. It is possible to support the work.

(2)また、本発明の作業支援装置は、少なくとも前記映像または前記生体信号を取得する情報取得部を備えることを特徴とする。   (2) In addition, the work support device of the present invention includes an information acquisition unit that acquires at least the video or the biological signal.

このように、作業支援装置は、少なくとも映像または生体信号を取得するので、映像やセンサを用いることによって、音声等の取得が困難な環境であってもユーザの状態を把握することが可能となる。   As described above, since the work support apparatus acquires at least a video or a biological signal, it is possible to grasp the state of the user even in an environment where it is difficult to acquire audio or the like by using the video or the sensor. .

(3)また、本発明の作業支援装置は、前記映像または前記生体信号の少なくとも一つ、および、前記判定した情動度またはストレス指標の少なくとも一つを用いて、作業進行状況を判定する状況判定部を備え、前記情報提示部は、前記判定した作業進行状況および前記生成したロボット動作に基づいて、前記作業進行状況に応じた作業手順に関する情報を提示することを特徴とする。   (3) Further, the work support apparatus of the present invention is configured to determine a work progress status using at least one of the video or the biological signal and at least one of the determined emotion degree or stress index. And the information presenting unit presents information on a work procedure according to the work progress based on the determined work progress and the generated robot motion.

このように、作業支援装置は、映像または生体信号の少なくとも一つ、および、判定した情動度またはストレス指標の少なくとも一つを用いて、作業進行状況を判定し、情報提示部は、判定した作業進行状況および生成したロボット動作に基づいて、作業進行状況に応じた作業手順に関する情報を提示するので、ユーザの作業進行状況に応じた作業支援を行うことが可能となる。   As described above, the work support device determines the work progress using at least one of the video or the biological signal and at least one of the determined emotion degree or the stress index, and the information presenting unit determines the determined work. Since the information regarding the work procedure according to the work progress status is presented based on the progress status and the generated robot motion, it is possible to perform work support according to the work progress status of the user.

(4)また、本発明の作業支援装置は、ユーザの入力、または環境情報を取得する電子機器を介して、ユーザの周囲の環境情報を取得する周囲状況取得部を備えることを特徴とする。   (4) Moreover, the work support apparatus of the present invention is characterized by including an ambient condition acquisition unit that acquires environmental information around the user via an electronic device that acquires user input or environmental information.

このように、作業支援装置は、ユーザの入力、または環境情報を取得する電子機器を介して、ユーザの周囲の環境情報を取得するので、ユーザを取り囲んでいる環境を把握することが可能となる。   As described above, the work support device acquires the environment information around the user via the user's input or the electronic device that acquires the environment information, so that the environment surrounding the user can be grasped. .

(5)また、本発明の作業支援装置は、前記取得した環境情報に基づいて、前記作業手順に関する情報を変更する手順変更部を備えることを特徴とする。   (5) Moreover, the work support apparatus of the present invention includes a procedure change unit that changes information related to the work procedure based on the acquired environment information.

このように、作業支援装置は、取得した環境情報に基づいて、作業手順に関する情報を変更するので、ユーザを取り囲んでいる環境も考慮した作業支援を行うことが可能となる。   As described above, the work support apparatus changes the information related to the work procedure based on the acquired environment information, and thus it is possible to perform work support considering the environment surrounding the user.

(6)また、本発明の作業支援装置は、前記映像、前記生体信号、または前記環境情報の少なくとも一つに応じて、物理的な作業支援を行う物理的協力部を備えることを特徴とする。   (6) Further, the work support device of the present invention includes a physical cooperation unit that performs physical work support according to at least one of the video, the biological signal, or the environment information. .

このように、作業支援装置は、映像、生体信号、または環境情報の少なくとも一つに応じて、物理的な作業支援を行うので、ユーザの状態や利用環境に応じた作業支援を行うことが可能となる。その結果、ユーザの状態や利用環境に応じて、例えば、動作のスピード、声掛け等の音声の音量やスピードを調整することが可能となる。   As described above, the work support device performs physical work support according to at least one of the video, the biological signal, and the environment information, and thus can perform work support according to the user's state and the use environment. It becomes. As a result, it becomes possible to adjust the volume and speed of the voice such as the speed of the operation and the voice call according to the user's state and usage environment.

(7)また、本発明の作業支援装置は、いずれかの部位が可動であるロボット本体と、前記部位を動かす駆動部と、を備え、前記ロボット動作に基づいて、前記駆動部を駆動させることによって、前記ロボットの部位を動かすことを特徴とする。   (7) In addition, the work support apparatus of the present invention includes a robot body in which any part is movable, and a drive unit that moves the part, and drives the drive unit based on the robot operation. To move the robot part.

このように、本発明の作業支援装置は、いずれかの部位が可動であり、部位を動かし、ロボット動作に基づいて、駆動部を駆動させることによって、ロボットの部位を動かすので、ユーザの状態や利用環境に応じた作業支援を行うことが可能となる。その結果、ユーザの状態や利用環境に応じて、例えば、動作のスピード、声掛け等の音声の音量やスピードを調整することが可能となる。   Thus, in the work support device of the present invention, any part is movable, and the part of the robot is moved by moving the part and driving the drive unit based on the robot operation. It is possible to provide work support according to the usage environment. As a result, it becomes possible to adjust the volume and speed of the voice such as the speed of the operation and the voice call according to the user's state and usage environment.

(8)また、本発明のプログラムは、ユーザが行う作業を支援する作業支援装置のプログラムであって、ユーザの映像または生体信号の少なくとも一つを用いて、ユーザの感情の変化量を示す情動度またはユーザのストレスの度合いを示すストレス指標を判定する処理と、前記判定した情動度またはストレス指標の少なくとも一つを用いてロボット動作を生成する処理と、前記生成したロボット動作に応じて、予め保持している作業手順に関する情報を提示する処理と、を含む一連の処理をコンピュータに実行させることを特徴とする。   (8) Further, the program of the present invention is a program of a work support device that supports work performed by the user, and uses at least one of the user's video or biological signal to indicate an emotional change amount of the user. A process for determining a stress index indicating the degree of stress or a user's stress, a process for generating a robot action using at least one of the determined emotion degree or the stress index, And a process of presenting information relating to the stored work procedure, and causing a computer to execute a series of processes.

このように、プログラムは、ユーザの映像または生体信号の少なくとも一つを用いて、ユーザの感情の変化量を示す情動度またはユーザのストレスの度合いを示すストレス指標を判定し、判定した情動度またはストレス指標の少なくとも一つを用いてロボット動作を生成し、生成したロボット動作に応じて、予め保持している作業手順に関する情報を提示するので、時々刻々と変わるユーザの感情やストレスに応じた作業支援をすることが可能となる。   In this way, the program uses at least one of the user's video or biological signal to determine an emotion level indicating the amount of change in the user's emotion or a stress index indicating the degree of stress of the user, and the determined emotion level or Since the robot motion is generated using at least one of the stress indicators, and information on the work procedure that is held in advance is presented according to the generated robot motion, the task according to the user's emotion and stress that changes from moment to moment It is possible to provide support.

本発明によれば、ユーザの映像や生体信号を用いることにより、時々刻々と変わるユーザの感情やストレス、ユーザの利用環境に応じた作業支援をすることが可能となる。また、映像やセンサを用いることによって、音声等の取得が困難な環境であってもユーザの状態を把握することが可能となる。   ADVANTAGE OF THE INVENTION According to this invention, it becomes possible by using a user's image | video and a biomedical signal to perform work support according to a user's emotion and stress which change every moment, and a user's utilization environment. In addition, by using a video or a sensor, it is possible to grasp the user's state even in an environment where it is difficult to acquire audio or the like.

第1の実施形態に係る作業支援装置の概略構成を示す図である。It is a figure which shows schematic structure of the work assistance apparatus which concerns on 1st Embodiment. 第1の実施形態に係る作業支援装置の機能を示すブロック図である。It is a block diagram which shows the function of the work assistance apparatus which concerns on 1st Embodiment. 第1の実施形態に係る作業支援装置の動作例を示すフローチャートである。It is a flowchart which shows the operation example of the work assistance apparatus which concerns on 1st Embodiment. 第1の実施形態に係る作業支援装置が動作する際の関係図である。It is a related figure at the time of the work assistance device concerning a 1st embodiment operating. ロボット動作再生時の動作例を示す図である。It is a figure which shows the operation example at the time of robot operation | movement reproduction | regeneration. 第2の実施形態に係る作業支援装置の概略構成を示す図である。It is a figure which shows schematic structure of the work assistance apparatus which concerns on 2nd Embodiment. 第2の実施形態に係る作業支援装置の機能を示すブロック図である。It is a block diagram which shows the function of the work assistance apparatus which concerns on 2nd Embodiment. 第2の実施形態に係る作業支援装置の動作例を示すフローチャートである。It is a flowchart which shows the operation example of the work assistance apparatus which concerns on 2nd Embodiment. 第2の実施形態に係る作業支援装置が動作する際の関係図である。It is a related figure at the time of the work assistance apparatus concerning 2nd Embodiment operating.

本発明者は、時々刻々と変わるユーザの感情やストレスに応じた作業支援ができない点に着目し、ユーザの映像、生体信号を取得することによって、ユーザの感情やストレスに応じた作業支援を行うことができることを見出し、本発明をするに至った。   The present inventor pays attention to the point that work support according to the user's emotion and stress that changes from moment to moment is not possible, and obtains the user's video and biological signals to provide work support according to the user's emotion and stress. The present inventors have found that it is possible to achieve the present invention.

すなわち、本発明の作業支援装置は、ユーザが行う作業を支援する作業支援装置であって、ユーザの映像または生体信号の少なくとも一つを用いて、ユーザの感情の変化量を示す情動度またはユーザのストレスの度合いを示すストレス指標を判定する感情判定部と、前記判定した情動度またはストレス指標の少なくとも一つを用いてロボット動作を生成する動作生成部と、前記生成したロボット動作に応じて、予め保持している作業手順に関する情報を提示する情報提示部と、を備えることを特徴とする。   That is, the work support device of the present invention is a work support device that supports a user's work, and uses an at least one of a user's video or a biological signal to indicate an emotion level or a user's emotional change amount indicating An emotion determination unit that determines a stress index indicating the degree of stress, an action generation unit that generates a robot action using at least one of the determined emotion degree or the stress index, and the generated robot action, And an information presentation unit for presenting information relating to work procedures held in advance.

これにより、本発明者は、時々刻々と変わるユーザの感情やストレス、ユーザの利用環境に応じた作業支援をすることを可能とした。また、映像やセンサを用いることによって音声等の取得が困難な環境であってもユーザの状態を把握することを可能とした。   As a result, the present inventor has made it possible to provide work support according to the user's emotions and stress, which change from moment to moment, and the user's usage environment. In addition, it is possible to grasp the user's state even in an environment where it is difficult to acquire sound or the like by using a video or a sensor.

以下、本発明の実施形態について、図面を参照しながら具体的に説明する。なお、本実施形態では、調理における作業を支援する作業支援装置を例として説明するが、これに限らない。   Embodiments of the present invention will be specifically described below with reference to the drawings. In addition, although this embodiment demonstrates as an example the work assistance apparatus which assists the operation | work in cooking, it is not restricted to this.

[第1の実施形態]
図1は、第1の実施形態に係る作業支援装置の概略構成を示す図である。作業支援装置1は、ロボット10、カメラ20および脈拍センサ30を備える。カメラ20は、ユーザの映像を取得する。脈拍センサ30は、ユーザの脈拍信号を取得する。なお、本発明の取得センサは、カメラまたは脈拍センサに限定されることなく、ユーザの映像またはユーザの脈拍信号等の生体信号の少なくとも一つを取得できれば、いずれの物理センサであっても、本発明の技術的思想は変わらない。また、図1では、カメラ20または脈拍センサ30は、ロボット10の外部に接続されているが、本発明の技術的思想は、これに限定されるわけではなく、ロボット10の内部に内蔵されていても良い。なお、ロボット10は、いずれかの部位が可動であるロボット本体と、可動部を動かす駆動部を備えていても良い。ここで各部位とは、ロボット本体の目、口、手、指、脚等に該当し、各アクチュエータを動作させることによって可動となる。
[First Embodiment]
FIG. 1 is a diagram illustrating a schematic configuration of a work support apparatus according to the first embodiment. The work support apparatus 1 includes a robot 10, a camera 20, and a pulse sensor 30. The camera 20 acquires a user's video. The pulse sensor 30 acquires a user's pulse signal. The acquisition sensor of the present invention is not limited to a camera or a pulse sensor, and any physical sensor can be used as long as it can acquire at least one of a biological signal such as a user's video or a user's pulse signal. The technical idea of the invention remains unchanged. In FIG. 1, the camera 20 or the pulse sensor 30 is connected to the outside of the robot 10, but the technical idea of the present invention is not limited to this, and is built in the robot 10. May be. The robot 10 may include a robot body in which any part is movable and a drive unit that moves the movable part. Here, each part corresponds to an eye, a mouth, a hand, a finger, a leg, or the like of the robot body, and is movable by operating each actuator.

ロボット10は、カメラ20または脈拍センサ30から取得したユーザの映像またはユーザの脈拍信号の少なくとも一つを用いて、ユーザの情動度40またはユーザのストレス指標50の少なくとも一つを判定する。ここで、情動度とは、ユーザの感情の変化量を示す。また、ストレス指標とは、ユーザのストレスの度合いを示す。   The robot 10 determines at least one of the user's emotion 40 or the user's stress index 50 using at least one of the user's video or the user's pulse signal acquired from the camera 20 or the pulse sensor 30. Here, the emotion level indicates the amount of change in the emotion of the user. The stress index indicates the degree of stress of the user.

ロボット10は、判定したユーザの情動度40またはユーザのストレス指標50の少なくとも一つを用いて、ロボット動作60を生成する。さらに、ロボット10は、生成されたロボット動作60に応じて、調理手順等の作業手順に関わる情報(以下、調理手順に関わる情報70ともいう)を提示する。作業手順に関わる情報は、予め保持していても良いし、外部から取得しても良い。   The robot 10 generates a robot motion 60 using at least one of the determined user emotion 40 or the user stress index 50. Furthermore, the robot 10 presents information related to a work procedure such as a cooking procedure (hereinafter also referred to as information 70 related to the cooking procedure) in accordance with the generated robot action 60. Information related to the work procedure may be stored in advance or acquired from the outside.

図2は、第1の実施形態に係る作業支援装置の機能を示すブロック図である。ロボット10は、情報取得部10−1、感情判定部10−2、動作生成部10−3および情報提示部10−4を備える。情報取得部10−1は、カメラまたは脈拍センサ等の物理センサを用いて、ユーザの映像またはユーザの脈拍信号の少なくとも一つを取得する。感情判定部10−2は、情報取得部10−1が取得したユーザの映像またはユーザの脈拍信号の少なくとも一つを用いて、ユーザの情動度40またはユーザのストレス指標50の少なくとも一つを判定する。動作生成部10−3は、感情判定部10−2で判定したユーザの情動度40またはユーザのストレス指標50を用いて、ロボット動作60を生成する。情報提示部10−4は、動作生成部10−3で生成されたロボット動作60に応じて、調理手順に関わる情報70を提示する。また、図示しないが、ロボット10は、ディスプレイ等の情報提示装置を備えていても良い。情報提示装置を用いて、レクチャー等の映像情報を調理手順に関わる情報70として提示することもできる。   FIG. 2 is a block diagram illustrating functions of the work support apparatus according to the first embodiment. The robot 10 includes an information acquisition unit 10-1, an emotion determination unit 10-2, an operation generation unit 10-3, and an information presentation unit 10-4. The information acquisition unit 10-1 acquires at least one of the user's video or the user's pulse signal using a physical sensor such as a camera or a pulse sensor. The emotion determination unit 10-2 determines at least one of the user's emotion 40 or the user's stress index 50 using at least one of the user's video or the user's pulse signal acquired by the information acquisition unit 10-1. To do. The motion generation unit 10-3 generates the robot motion 60 using the user emotion degree 40 or the user stress index 50 determined by the emotion determination unit 10-2. The information presentation unit 10-4 presents information 70 related to the cooking procedure in accordance with the robot operation 60 generated by the operation generation unit 10-3. Although not shown, the robot 10 may include an information presentation device such as a display. Using the information presenting apparatus, video information such as a lecture can be presented as information 70 related to the cooking procedure.

図3は、第1の実施形態に係る作業支援装置の動作例を示すフローチャートである。そして、図4は、第1の実施形態に係る作業支援装置が動作する際の関係図である。   FIG. 3 is a flowchart illustrating an operation example of the work support apparatus according to the first embodiment. FIG. 4 is a relationship diagram when the work support apparatus according to the first embodiment operates.

初めに、ロボット10に接続されたカメラ20または脈拍センサ30が、ユーザの映像またはユーザの脈拍信号の少なくとも一つを取得する(ステップS1)。次に、ロボット10において、ステップS1で取得したユーザの映像またはユーザの脈拍信号を用いて、ユーザの情動度40またはユーザのストレス指標50の少なくとも一つを判定する(ステップS2)。   First, the camera 20 or the pulse sensor 30 connected to the robot 10 acquires at least one of the user's video or the user's pulse signal (step S1). Next, in the robot 10, at least one of the user's emotion 40 or the user's stress index 50 is determined using the user's video or the user's pulse signal acquired in step S1 (step S2).

ここで、[1]ユーザの映像を用いてユーザの情動度40を判定する方法、および[2]ユーザの脈拍信号を用いてユーザのストレス指標50を判定する方法、について説明する。   Here, [1] a method for determining the user's emotion 40 using the user's video and [2] a method for determining the user's stress index 50 using the user's pulse signal will be described.

[1]まず、ユーザの情動度を判定する方法について一例を述べる。なお、本実施形態では、ユーザの顔映像を用いる場合について述べるが、本発明の技術的思想は、これに限定されるわけではなく、ユーザの全身映像等、他の映像を用いても良い。   [1] First, an example of a method for determining the emotion level of a user will be described. In the present embodiment, a case where a user's face image is used will be described. However, the technical idea of the present invention is not limited to this, and other images such as a user's whole body image may be used.

取得したユーザの顔映像の各フレームにおいて特徴点検出を行い、特徴点座標付近において、Haar−like特徴量に基づき、特徴抽出を行う。ここでは、予めユーザの平常時の顔画像における特徴抽出を行っておき、ステップS1で取得したユーザのtフレーム目の映像における事後確率を算出し、平常度H(t)の時間変化における不規則性を反映し、式(1)を用いて、ユーザの情動度U(t)として判定する。   Feature points are detected in each frame of the acquired user face image, and feature extraction is performed in the vicinity of the feature point coordinates based on the Haar-like feature amount. Here, feature extraction is performed in advance on the user's normal face image, the posterior probability in the video of the user's t frame acquired in step S1 is calculated, and irregularities in the temporal change of normality H (t) It is determined as the user's emotion U (t) using the formula (1).

[2]次に、ユーザのストレス指標を判定する方法について一例を述べる。なお、本実施形態では、ユーザの脈拍信号からストレス指標を判定する方法を用いる場合を述べるが、本発明の技術的思想は、これに限定されるわけではなく、他の生体信号を用いても良い。   [2] Next, an example of a method for determining a user's stress index will be described. In this embodiment, a case where a method of determining a stress index from a user's pulse signal is used will be described. However, the technical idea of the present invention is not limited to this, and other biological signals may be used. good.

取得したユーザの脈拍信号から脈拍間隔に基づき脈拍変動時系列データを算出する。算出された脈拍変動時系列データを周波数解析し、時刻tにおける呼吸変動に対応する高周波成分Fh(t)と、血圧変動に対応する低周波成分Fl(t)を抽出する。式(2)に示す高周波成分Fh(t)と低周波成分Fl(t)との比S(t)をユーザのストレス指標として判定する。 Pulse fluctuation time series data is calculated based on the pulse interval from the acquired user pulse signal. The calculated pulse fluctuation time-series data is subjected to frequency analysis, and a high frequency component F h (t) corresponding to the respiratory fluctuation at time t and a low frequency component F l (t) corresponding to the blood pressure fluctuation are extracted. A ratio S (t) between the high frequency component F h (t) and the low frequency component F l (t) shown in Expression (2) is determined as a user's stress index.

[3]ユーザの情動度U(t)およびユーザのストレス指標S(t)が同時に判定された場合は、式(3)を用いて、ユーザの情動度およびユーザのストレス指標の合計値P(t)として判定する。   [3] When the user's emotional degree U (t) and the user's stress index S (t) are determined at the same time, using the equation (3), the total value P ( t).

ここで、重み係数wjは、ユーザの情動度U(t)に対する重み、wsはユーザのストレス指標S(t)に対する重みである。なお、ユーザの情動度U(t)のみが判定された場合は、S(t)=0、ユーザのストレス指標S(t)のみが判定された場合は、U(t)=0として、P(t)を算出しても良い。以上説明した方法を用いて、ユーザの情動度およびユーザのストレス指標を判定することができる。 Here, the weight coefficient w j is a weight for the user's emotion U (t), and w s is a weight for the user's stress index S (t). When only the user's emotion U (t) is determined, S (t) = 0, and when only the user's stress index S (t) is determined, U (t) = 0 and P (T) may be calculated. Using the method described above, the emotion level of the user and the stress index of the user can be determined.

次に、ステップS2で判定したユーザの情動度40またはユーザのストレス指標50の少なくとも一つを用いて、ロボット動作60を生成する(ステップS3)。以下に、一例として、主成分分析を用いてロボット動作を生成する方法について説明するが、本発明の技術的思想は、主成分分析を用いる方法に限定されるわけでなく、非線形状態空間写像や機械学習等、別の方法を用いてロボット動作を生成しても良い。   Next, a robot motion 60 is generated using at least one of the user emotion 40 or the user stress index 50 determined in step S2 (step S3). Hereinafter, as an example, a method for generating a robot motion using principal component analysis will be described. However, the technical idea of the present invention is not limited to a method using principal component analysis, and a nonlinear state space mapping or The robot motion may be generated using another method such as machine learning.

本実施形態では、まず、ロボット動作データベースを用意する。なお、ここで言うロボット動作データベースには、ロボットの全ての部位が任意の時刻において、いずれの空間位置座標に存在するかに関するデータが、予め記憶されている。   In this embodiment, first, a robot motion database is prepared. In the robot operation database referred to here, data regarding which spatial position coordinates all the parts of the robot exist at an arbitrary time is stored in advance.

ここで、ロボット動作データベースに登録された平常時および任意の時刻におけるユーザの情動度またはユーザのストレス指標に対応するロボット動作を学習し、線形回帰手法により、平常時のロボット動作から、ユーザの情動度またはユーザのストレス指標に対応するロボット動作に変換するためのパラメータ(以下、変換パラメータともいう)を算出する。すなわち、予め用意されたロボット動作をm(m=1,2,・・・)とすると、平常時のロボット動作データの第j主成分座標の微分値kj(m)を用いて、式(4)により線形回帰演算を行い、変換パラメータaj i、bj iを算出しておく。 Here, the robot motion corresponding to the user's emotion degree or the user's stress index at normal time and at any time registered in the robot motion database is learned, and the user's emotion is detected from the normal robot motion by the linear regression method. A parameter (hereinafter, also referred to as a conversion parameter) for conversion into a robot motion corresponding to the degree or the user's stress index is calculated. That is, assuming that the robot motion prepared in advance is m (m = 1, 2,...), The differential value k j (m) of the j-th principal component coordinate of the normal robot motion data is The linear regression calculation is performed according to 4), and the conversion parameters a j i and b j i are calculated in advance.

ただし、qj i(m)は、ロボット動作mにおける任意の時刻のユーザの情動度またはユーザのストレス指標の値iに対応するロボット動作の第j主成分座標の微分値を示している。ここでは、変換パラメータaj i、bj iを用いて、ステップS2で判定したユーザの情動度またはユーザのストレス指標の値P(t)に応じて、ロボット動作mを変換し、ロボット動作を生成する。すなわち、生成するロボット動作gの第j主成分座標の微分値rj(g)は、式(5)で求められる。 However, q j i (m) represents the differential value of the j-th principal component coordinate of the robot motion corresponding to the user's emotion degree at the arbitrary time in the robot motion m or the user's stress index value i. Here, using the conversion parameters a j i and b j i , the robot motion m is converted according to the user's emotion degree or the user's stress index value P (t) determined in step S2, and the robot motion is determined. Generate. That is, the differential value r j (g) of the j-th principal component coordinate of the robot motion g to be generated is obtained by Expression (5).

そして、ロボット動作の第j主成分座標は、その初期座標をCjとすると、式(6)で表わすことができる。 Then, the j-th principal component coordinate of the robot motion can be expressed by Equation (6), where C j is the initial coordinate.

次に、ステップS3で生成されたロボット動作60に応じて、調理手順に関わる情報70を提示する(ステップS4)。各ロボット動作60としてロボット動作データベースに記憶されている、任意の時刻においてロボット10の各部位がいずれの空間位置座標に存在するかの情報に基づいて、ロボット10に搭載されている目、口、手、指、脚等の各アクチュエータを制御して、ロボット動作60を再生する。   Next, information 70 related to the cooking procedure is presented according to the robot motion 60 generated in step S3 (step S4). Based on information on which spatial position coordinates each part of the robot 10 is stored in the robot action database as each robot action 60 at any time, eyes, mouths, The robot operation 60 is reproduced by controlling each actuator such as a hand, a finger, and a leg.

図5は、ロボット動作再生時の動作例を示す図である。例えば、ユーザの情動度40またはユーザのストレス指標50が大きくなる場合、式(6)の変位が小さくなるため、図5で示すように、徐々にスピードが遅くなるロボット動作60を再生して、調理手順に関わる情報70を丁寧に指示することが可能となる。また、情報提示装置を用いて、映像情報として調理手順に関わる情報70を提示しても良い。その場合、ステップS2で判定したユーザの情動度40またはユーザのストレス指標50の値P(t)おける静的特徴量E(t)を、式(7)を用いて算出し、ディスプレイ等の表示画面の背景色や音量を変更して、調理手順に関わる情報70を提示する。   FIG. 5 is a diagram illustrating an operation example at the time of robot operation reproduction. For example, when the user's emotional degree 40 or the user's stress index 50 increases, the displacement of the equation (6) decreases, so as shown in FIG. Information 70 relating to the cooking procedure can be carefully instructed. Moreover, you may show the information 70 regarding a cooking procedure as video information using an information presentation apparatus. In that case, the static feature quantity E (t) in the value P (t) of the user's emotion 40 or the user's stress index 50 determined in step S2 is calculated using the equation (7), and displayed on a display or the like. Information 70 related to the cooking procedure is presented by changing the background color and volume of the screen.

このように、静的特徴量E(t)を用いることで、ある程度長い期間継続している特徴量を算出することができる。例えば、ユーザの情動度40またはユーザのストレス指標50の値P(t)が大きくなる場合、式(7)において算出されるE(t)の値も大きくなるため、図5で示すように、調理手順に関わる情報70を強調して指示する等の作業支援が可能となる。   As described above, by using the static feature amount E (t), it is possible to calculate a feature amount that has continued for a certain period of time. For example, when the value P (t) of the user's emotion 40 or the user's stress index 50 increases, the value of E (t) calculated in the equation (7) also increases. Work support such as emphasizing and instructing information 70 related to the cooking procedure is possible.

このように、本実施形態によれば、ロボット10に接続されたカメラ20または脈拍センサ30がユーザの映像またはユーザの脈拍信号等の生体信号の少なくとも一つを取得し、取得したユーザの映像またはユーザの脈拍信号の少なくとも一つを用いて、ユーザの情動度40またはユーザのストレス指標50の少なくとも一つを判定し、判定したユーザの情動度40またはユーザのストレス指標50の少なくとも一つを用いて、ロボット動作60を生成し、生成したロボット動作60に応じて、調理手順に関わる情報70を提示するので、時々刻々と変わるユーザの感情やストレス指標に応じた支援が可能となる。また、物理的な実体のあるロボットが身振り手振りを交えて支援することで、人間的な支援を実現することも可能となる。   As described above, according to the present embodiment, the camera 20 or the pulse sensor 30 connected to the robot 10 acquires at least one of a biological signal such as a user's video or a user's pulse signal, and the acquired user's video or At least one of the user's emotion 40 or the user's stress index 50 is determined using at least one of the user's pulse signals, and at least one of the determined user's emotion 40 or the user's stress index 50 is used. Thus, the robot motion 60 is generated, and the information 70 related to the cooking procedure is presented in accordance with the generated robot motion 60, so that support according to the user's emotions and stress indices that change from moment to moment is possible. It is also possible to realize human support by supporting a robot with a physical entity with gestures.

[第2の実施形態]
図6は、第2の実施形態に係る作業支援装置の概略構成を示す図である。作業支援装置2は、ロボット10、カメラ20または脈拍センサ30、および宅内機器(電子機器)90を備える。カメラ20は、ユーザの映像を取得する。脈拍センサ30は、ユーザの脈拍信号を取得する。なお、本実施形態においても、本発明の取得センサは、カメラまたは脈拍センサに限定されることなく、ユーザの映像またはユーザの脈拍信号等の生体信号を取得できれば、いずれの物理センサであっても、本発明の技術的思想は変わらない。
[Second Embodiment]
FIG. 6 is a diagram illustrating a schematic configuration of a work support apparatus according to the second embodiment. The work support device 2 includes a robot 10, a camera 20 or a pulse sensor 30, and a home device (electronic device) 90. The camera 20 acquires a user's video. The pulse sensor 30 acquires a user's pulse signal. Also in this embodiment, the acquisition sensor of the present invention is not limited to a camera or a pulse sensor, and any physical sensor can be used as long as it can acquire a biological signal such as a user's video or a user's pulse signal. The technical idea of the present invention does not change.

ロボット10は取得したユーザの映像またはユーザのストレス指標50の少なくとも一つを用いて、ユーザの作業進行状況(以下、調理状況100ともいう)を判定する。さらに、ロボット10は、判定したユーザの情動度40またはユーザのストレス指標50の少なくとも一つを用いて、ロボット動作60を生成する。そして、ロボット10は、判定したユーザの調理状況100および生成されたロボット動作60に応じて、調理手順に関わる情報70を提示する。   The robot 10 determines the user's work progress status (hereinafter also referred to as cooking status 100) using at least one of the acquired user image or the user's stress index 50. Further, the robot 10 generates a robot motion 60 using at least one of the determined user emotion 40 or the user stress index 50. Then, the robot 10 presents information 70 related to the cooking procedure according to the determined cooking status 100 of the user and the generated robot operation 60.

宅内機器90は、天気等のユーザの周囲の状況110を取得する。ロボット10は、取得した周囲の状況110に応じて、調理手順に関わる情報70を変更する。さらに、ロボット10は、ユーザの調理作業を物理的に支援することができる。図6では、カメラ20または脈拍センサ30、および宅内機器90は、ロボット10の外部に接続されているが、本発明の技術的思想は、これに限定されるわけではなく、ロボット10の内部に内蔵されていても良い。   The in-home device 90 acquires a situation 110 around the user such as weather. The robot 10 changes the information 70 related to the cooking procedure according to the acquired surrounding situation 110. Furthermore, the robot 10 can physically support the user's cooking work. In FIG. 6, the camera 20 or the pulse sensor 30 and the in-home device 90 are connected to the outside of the robot 10, but the technical idea of the present invention is not limited to this, and is not limited to the inside of the robot 10. It may be built in.

図7は、第2の実施形態に係る作業支援装置の機能を示すブロック図である。ロボット10は、情報取得部10−1、感情判定部10−2、動作生成部10−3、情報提示部10−4、状況判定部10−5、手順変更部10−6、物理的協力部10−7、および宅内機器90を備える。情報取得部10−1は、カメラ20または脈拍センサ30等の物理センサを用いて、ユーザの映像またはユーザの脈拍信号等の生体信号の少なくとも一つを取得する。感情判定部10−2は、情報取得部10−1が取得したユーザの映像またはユーザの脈拍信号の少なくとも一つを用いて、ユーザの情動度40またはユーザのストレス指標50の少なくとも一つを判定する。   FIG. 7 is a block diagram illustrating functions of the work support apparatus according to the second embodiment. The robot 10 includes an information acquisition unit 10-1, an emotion determination unit 10-2, an operation generation unit 10-3, an information presentation unit 10-4, a situation determination unit 10-5, a procedure change unit 10-6, and a physical cooperation unit. 10-7 and home appliance 90. The information acquisition unit 10-1 acquires at least one of a biological signal such as a user image or a user pulse signal using a physical sensor such as the camera 20 or the pulse sensor 30. The emotion determination unit 10-2 determines at least one of the user's emotion 40 or the user's stress index 50 using at least one of the user's video or the user's pulse signal acquired by the information acquisition unit 10-1. To do.

状況判定部10−5は、情報取得部10−1が取得したユーザの映像またはユーザの脈拍信号の少なくとも一つ、および、感情判定部10−2で判定したユーザの情動度40またはユーザのストレス指標50の少なくとも一つを用いて、ユーザの調理状況100を判定する。動作生成部10−3は、感情判定部10−2で判定したユーザの情動度40またはユーザのストレス指標50の少なくとも一つを用いて、ロボット動作60を生成する。情報提示部10−4は、状況判定部10−5で判定した調理状況100および動作生成部10−3で生成されたロボット動作60に応じて、調理手順に関わる情報70を提示する。   The situation determination unit 10-5 includes at least one of the user's video or the user's pulse signal acquired by the information acquisition unit 10-1, the user's emotion 40 determined by the emotion determination unit 10-2, or the user's stress. The user's cooking status 100 is determined using at least one of the indices 50. The action generation unit 10-3 generates the robot action 60 by using at least one of the user emotion degree 40 or the user stress index 50 determined by the emotion determination unit 10-2. The information presentation unit 10-4 presents information 70 related to the cooking procedure in accordance with the cooking situation 100 determined by the situation determination unit 10-5 and the robot operation 60 generated by the operation generation unit 10-3.

宅内機器90は、周囲状況取得部90−1を備える。周囲状況取得部90−1は、周囲の状況110を取得する。手順変更部10−6は、周囲状況取得部90−1で取得した周囲の状況110に応じて、調理手順に関わる情報70を変更する。物理的協力部10−7は、ユーザの調理作業を物理的に支援する。   The in-home device 90 includes a surrounding situation acquisition unit 90-1. The surrounding situation acquisition unit 90-1 acquires the surrounding situation 110. The procedure changing unit 10-6 changes the information 70 related to the cooking procedure according to the surrounding situation 110 acquired by the surrounding situation acquiring unit 90-1. The physical cooperation unit 10-7 physically supports the user's cooking work.

図8は、第2の実施形態に係る作業支援装置の動作例を示すフローチャートである。そして、図9は、第2の実施形態に係る作業支援装置が動作する際の関係図である。   FIG. 8 is a flowchart illustrating an operation example of the work support apparatus according to the second embodiment. FIG. 9 is a relationship diagram when the work support apparatus according to the second embodiment operates.

初めに、ロボット10に接続されたカメラ20または脈拍センサ30が、ユーザの映像またはユーザの脈拍信号の少なくとも一つを取得する(ステップT1)。次に、ロボット10において、ステップT1で取得したユーザの映像またはユーザの脈拍信号の少なくとも一つを用いて、ユーザの情動度40またはユーザのストレス指標50の少なくとも一つを判定する(ステップT2)。   First, the camera 20 or the pulse sensor 30 connected to the robot 10 acquires at least one of the user's video or the user's pulse signal (step T1). Next, in the robot 10, at least one of the user's emotional degree 40 or the user's stress index 50 is determined using at least one of the user's video or the user's pulse signal acquired in Step T1 (Step T2). .

次に、ステップT1で取得したユーザの映像またはユーザの脈拍信号の少なくとも一つ、および、ステップT2で判定したユーザの情動度40またはユーザのストレス指標50の少なくとも一つを用いて、ユーザの調理状況100を判定する(ステップT3)。   Next, using at least one of the user's video or user's pulse signal acquired at step T1 and the user's emotion 40 or user's stress index 50 determined at step T2, the user's cooking The situation 100 is determined (step T3).

調理状況の判定について具体例[1]〜[3]を示す。ここでは、カメラ20で取得した映像信号を、SVM等の画像パターン認識法を用いて、「腕が真上に上がる」「手が左右に振られる」「視線が天井に向く」「視線がロボットに向く」等の行動情報に変換する。   Specific examples [1] to [3] of the determination of the cooking status are shown. Here, the image signal acquired by the camera 20 is used by using an image pattern recognition method such as SVM, “arms are raised directly”, “hands are swung left and right”, “line of sight is directed toward the ceiling”, “line of sight is robot It is converted into action information such as “suitable for”.

[1]
・ユーザの腕が真上に上がる映像を受信
→ 調理状況100:完了
・ユーザの手が左右に振られる映像を受信
→ 調理状況100:未完了
・ユーザの腕が真上に上がる映像も、ユーザの手が左右に振られる映像も受信しない
→ 調理状況100:繁忙
[1]
・ Receive image of user's arm rising → Cooking situation 100: Completed ・ Receive image of user's hand shaking left and right → Cooking situation 100: Not completed Also does not receive video of your hand shaking left and right → Cooking situation 100: Busy

[2]
・ユーザの視線が天井に向く映像を受信
→ 調理状況100:完了
・ユーザの視線がロボットに向く映像を受信
→ 調理状況100:未完了
・ユーザの視線が天井に向く映像も、ユーザの視線がロボットに向く映像も受信しない
→ 調理状況100:繁忙
[2]
・ Receiving video with user's line of sight toward the ceiling → Cooking situation 100: Completed ・ Receiving video with user's line of sight toward the robot → Cooking situation 100: Not complete ・ Video with user's line of sight toward the ceiling Also does not receive robot-friendly video → Cooking situation 100: Busy

[3]
・ユーザの情動度40またはユーザのストレス指標50の値P(t)がθA未満
→ 調理状況100:完了
・ユーザの情動度40またはユーザのストレス指標50の値P(t)がθA以上かつθB未満
→ 調理状況100:未完了
・ユーザの情動度40またはユーザのストレス指標50の値P(t)がθB以上
→ 調理状況100:繁忙
[3]
The value P (t) of the user's emotion 40 or the user's stress index 50 is less than θ A → cooking state 100: completed. The value P (t) of the user's emotion 40 or the user's stress index 50 is greater than or equal to θ A. And less than θ B → Cooking status 100: Incomplete ・ User emotion 40 or user stress index 50 value P (t) is greater than θ B → Cooking status 100: Busy

次に、ロボット10において、ステップT3で判定したユーザの情動度40またはユーザのストレス指標50、および調理状況100を用いて、ロボット動作60を生成する(ステップT4)。   Next, the robot 10 generates a robot motion 60 using the user's emotion 40 or the user's stress index 50 determined in step T3 and the cooking situation 100 (step T4).

次に、ロボット10において、ステップT3で判定した調理状況100、およびステップT4で生成されたロボット動作60を用いて、調理手順に関わる情報70を提示する(ステップT5)。以下に、ステップT5の動作例を説明する。本実施形態では、例えば、料理品名、その各調理手順における画像、目安の調理時間から構成される調理データベースを使用する。なお、調理データベースは、出版社やISP等から提供されており、容易に取得可能である。もし手順化されていな場合には、文字認識技術やテキスト解析技術等を用いて、各調理手順、目安の調理時間を構成し、料理データベースを作成しても良い。   Next, the robot 10 presents information 70 related to the cooking procedure using the cooking status 100 determined in step T3 and the robot operation 60 generated in step T4 (step T5). Hereinafter, an operation example of step T5 will be described. In the present embodiment, for example, a cooking database including cooking product names, images in the respective cooking procedures, and approximate cooking times is used. The cooking database is provided by a publisher or ISP, and can be easily obtained. If it is not procedural, a cooking database may be created by configuring each cooking procedure and approximate cooking time using character recognition technology, text analysis technology, or the like.

現在の調理手順が先頭からN番目であるとする。以下に、ステップT3において調理状況を「完了」、「未完了」、「繁忙」と判定した場合の動作例を示す
・調理状況100として、完了と判定
→ 料理データベースからN+1番目の調理手順における画像を抽出し、調理手順に関わる情報70として提示
・調理状況100として、未完了と判定
→ 料理データベースからN番目の作業手順における画像を抽出し、調理手順に関わる情報70として提示。
・調理状況100として、繁忙と判定
→ 一定時間経過後、ステップT1へ戻る
Assume that the current cooking procedure is Nth from the top. The following shows an example of the operation when the cooking status is determined to be “completed”, “incomplete”, “busy” in step T3. ・ Cooking status 100 is determined to be complete. → Image in N + 1th cooking procedure from cooking database Is extracted and presented as information 70 related to the cooking procedure and determined as incomplete as cooking status 100 → An image in the Nth work procedure is extracted from the cooking database and presented as information 70 related to the cooking procedure.
・ Cooking status 100 is determined to be busy → After a certain period of time, return to step T1

次に、ユーザの映像またはユーザの生体信号等とは別に、宅内機器90において、周囲の状況110を取得し、取得した情報をデータに変換する(ステップT6)。なお、本実施形態では、宅内機器90として、電話機、スマートフォン、PC、TV、インターフォン、降雪雨センサ・風速センサ・温度センサを使用し、周囲の状況110として、電話、電子メール、SNS、TV放送、訪問者、天候等の情報を取得するが、本発明の技術的思想は、これらに限定されるわけではなく、他の宅内機器または周囲の状況を用いても良い。以下に、各種宅内機器を用いた場合の動作例を示す。   Next, apart from the user's video or the user's biological signal, etc., the in-home device 90 acquires the surrounding situation 110, and converts the acquired information into data (step T6). In the present embodiment, a telephone, a smartphone, a PC, a TV, an interphone, a snow / rain sensor, a wind speed sensor, and a temperature sensor are used as the home device 90, and a telephone, e-mail, SNS, TV broadcast is used as the surrounding situation 110. However, the technical idea of the present invention is not limited to these, and other in-house devices or surrounding conditions may be used. An example of operation when various home appliances are used is shown below.

・宅内機器90として、電話機を使用
→ 電話機で検出された入電、電子メールの受信を当該通信手段の受信有無情報に変換
・宅内機器90として、スマートフォンを使用
→ スマートフォンで検出された入電、電子メールの受信、SNSメッセージ等の受信を当該通信手段の受信有無情報に変換
・宅内機器90として、TVを使用
→ TVの視聴予約開始時刻を数値データに変換
・宅内機器90として、インターフォンを使用
→ インターフォンの押下をインターフォン押下有無情報に変換
・宅内機器90として、降雪雨センサ・風速センサ・温度センサを使用
→ 降雪雨センサ・風速センサ・温度センサで検出された降雪雨、風速、温度を数値データに変換
・ Uses a telephone as the home device 90 → Converts incoming calls and e-mails detected by the phone into reception information of the communication means ・ Uses a smartphone as the home device 90 → Calls and e-mails detected by the smartphone Reception, SNS message reception, etc., converted into reception information of the communication means, using TV as home device 90 → Converting TV viewing reservation start time into numerical data, using interphone as home device 90 → Interphone・ Pressing the interphone is converted into information on whether or not the intercom is pressed. ・ Uses a snowfall sensor, wind speed sensor, and temperature sensor as home appliance 90 → Snowfall, wind speed, and temperature detected by the snowfall sensor, wind speed sensor, and temperature sensor are converted into numerical data. conversion

次に、周囲状況取得部でデータに変換された周囲の状況110は、ロボット10へ送信される。以下に、周囲の状況110の送信の動作例を示す。
・宅内機器90として、電話機を使用
→ 周囲の状況110として、電話機への入電をロボット10に送信
→ 周囲の状況110として、電話機への電子メールの受信をロボット10に送信
・宅内機器90として、スマートフォンを使用
→ 周囲の状況110として、スマートフォンへの入電をロボット10に送信
→ 周囲の状況110として、スマートフォンへの電子メールの受信をロボット10に送信
→ 周囲の状況110として、スマートフォンへのSNSメッセージの受信をロボット10に送信
・宅内機器90として、PCを使用
→ 周囲の状況110として、PCへの入電をロボット10に送信
→ 周囲の状況110として、PCへの電子メールの受信をロボット10に送信
→ 周囲の状況110として、PCへのSNSメッセージの受信をロボット10に送信
・宅内機器90として、TVを使用
→ 周囲の状況110として、視聴予約したTV放送の開始をロボット10に送信
・宅内機器90として、インターフォンを使用
→ 周囲の状況110として、訪問者からの呼出をロボット10に送信
・宅内機器90として、降雪雨センサ・風速センサ・温度センサを使用
→ 周囲の状況110として、降雪雨の発生をロボット10へ送信
→ 周囲の状況110として、強風の発生をロボット10へ送信
→ 周囲の状況110として、気温の変化をロボット10へ送信
Next, the surrounding situation 110 converted into data by the surrounding situation acquisition unit is transmitted to the robot 10. Hereinafter, an example of the transmission operation in the surrounding situation 110 will be described.
-Use of a telephone as the home appliance 90-> Send the incoming call to the telephone to the robot 10 as the surrounding situation 110-> Send the reception of the e-mail to the telephone to the robot 10 as the surrounding situation 110-As the home appliance 90, Use of a smartphone → Sending an incoming call to the smartphone as the surrounding situation 110 to the robot 10 → Sending an e-mail to the smartphone to the robot 10 as the surrounding situation 110 → An SNS message to the smartphone as the surrounding situation 110 Is sent to the robot 10 and the PC is used as the in-home device 90 → the surrounding situation 110, the incoming call to the PC is sent to the robot 10 → the surrounding situation 110 is received and the e-mail to the PC is received by the robot 10 Send → Accept SNS message to PC as surrounding situation 110 TV is transmitted to the robot 10 as a home device 90 and the TV is used as a surrounding situation 110, and the start of TV broadcasting reserved for viewing is transmitted to the robot 10 and the interphone is used as a home device 90. Sends a call from a visitor to the robot 10. Uses a snowfall sensor, a wind speed sensor, and a temperature sensor as the in-home equipment 90 → sends the occurrence of snowfall to the robot 10 as the surrounding situation 110 → as the surrounding situation 110. Send generation of strong wind to robot 10 → Send temperature change to robot 10 as surrounding situation 110

次に、ロボット10において、ステップT6で取得した周囲の状況110に応じて、調理手順に関わる情報70を変更する(ステップT7)。また、ここでは、予めユーザ取得した各周囲の状況110への応答時間θi(i=入電、電子メール受信、SNSメッセージ受信、視聴予約したTV放送の開始、訪問者からの呼出、降雪雨の発生、強風の発生、気温の変化等)を指定しておくが、本発明の技術的思想は、これに限定されるわけではない。 Next, in the robot 10, the information 70 related to the cooking procedure is changed according to the surrounding situation 110 acquired in step T6 (step T7). In addition, here, response time θ i (i = input, e-mail reception, SNS message reception, start of TV broadcasting reserved for viewing, call from visitor, snow and rain) Generation, generation of strong wind, change in temperature, etc.) are specified, but the technical idea of the present invention is not limited to this.

(1)θi≧N番目の調理手順における目安の調理時間−N番目の手順における作業経過時間
→ 調理手順に関わる情報70:変更なし
(2)θi<N番目の調理手順における目安の調理時間−N番目の手順における作業経過時間
・料理データベースにおけるN+1番目以降の目安の調理時間に、θi以下の調理手順(M番目)が存在し、且つN番目の調理手順と入れ替え可能
→ 調理手順に関わる情報70:料理データベースからM番目の調理手順における画像を抽出し、調理手順に関わる情報70として提示
・料理データベースにおけるN+1番目以降の目安の調理時間に、θi以下の調理手順が存在しない、またはN番目の調理手順と入れ替え不可能
→ 調理手順に関わる情報70:中断
(1) θ i ≧ N-th of the cooking operation elapsed time in the cooking time -N-th step of the guideline in the procedure → involved in the cooking procedure information 70: No change (2) θ i <cooking of a guideline in the N-th of the cooking procedure Time-Elapsed work time in the N-th procedure / N + 1-th or later standard cooking time in the cooking database has a cooking procedure (M-th) below θ i and can be replaced with the N-th cooking procedure → Cooking procedure Information 70: The image in the M-th cooking procedure is extracted from the cooking database and presented as information 70 related to the cooking procedure. There is no cooking procedure equal to or smaller than θ i in the N + 1 and later estimated cooking times in the cooking database. , Or cannot be replaced with the Nth cooking procedure → Information relating to cooking procedure 70: Interruption

さらに、ロボット10において、ユーザの作業を物理的に支援する(ステップT8)。なお、本実施形態では、ロボット10に、物体の運搬や機器の操作を可能とする部位が装着されているが、本発明の技術的思想は、これに限定されるわけではなく、物体の運搬や機器の操作を指示するだけでも良い。   Further, the robot 10 physically supports the user's work (step T8). In the present embodiment, the robot 10 is equipped with a part that enables object transportation and device operation. However, the technical idea of the present invention is not limited to this, and object transportation is not limited thereto. Or just instructing the operation of the device.

ここで、ロボット10は、例えば、N番目の調理手順に必要な調理器具を保管場所から取り出し、ユーザに渡す。また、ロボット10は、N番目の調理手順に必要な調理機器の操作を行う。なお、ここでは、調理機器や調理器具の位置は、予め登録しても良いし、ロボット10が認識して、各調理機器や調理器具の位置を把握しても良い。
・料理データベースにあるN番目の調理手順における調理器具と異なる調理器具を使用する映像を受信
→ 正しい調理器具を渡す
・料理データベースにあるN番目の調理手順における調理方法と異なる映像を受信
→ 正しい調理方法を提示する
・ユーザの視線がN番目の調理手順に使用する調理機器とは異なる方向に向く映像を受信
→ 警告を促す
・ユーザの情動度40またはユーザのストレス指標50の値P(t)がθ以上
→ 各調理機器の安全装置を作動させる
Here, for example, the robot 10 takes out the cooking utensil necessary for the N-th cooking procedure from the storage location and delivers it to the user. In addition, the robot 10 operates cooking equipment necessary for the Nth cooking procedure. Here, the positions of the cooking appliances and cooking utensils may be registered in advance, or the robot 10 may recognize and grasp the positions of the cooking appliances and cooking utensils.
・ Receive video using cooking utensils different from cooking utensils in Nth cooking procedure in cooking database → Pass correct cooking utensils ・ Receive video different from cooking method in Nth cooking procedures in cooking database → Correct cooking Presents the method-Receives an image in which the user's line of sight is in a different direction from the cooking appliance used for the Nth cooking procedure-> urges warning-Value P (t) of user emotion 40 or user stress index 50 Is more than θ → Activate the safety device of each cooking appliance

さらに、ステップT3で判定した調理状況100またはステップT2で判定したユーザの情動度40またはユーザのストレス指標50に応じて、ロボット10がユーザに声掛けを行う。
・作業進行状況:完了
→ ロボット10:「良くできました」等、賞賛の声掛け
・作業進行状況:未完了
→ ロボット10:「頑張って」等、激励の声掛け
・作業進行状況:繁忙
→ ロボット10:「どうしたの?」等、心配の声掛け
・ユーザの情動度40またはユーザのストレス指標50の値P(t)がθ以上
→ ロボット10:「落ち着いて」等、慎重な声掛け
Furthermore, the robot 10 speaks to the user according to the cooking situation 100 determined in step T3 or the user's emotional degree 40 or the user's stress index 50 determined in step T2.
-Work progress: Completed → Robot 10: Called for praise, such as "I'm done well"-Work progress: Not completed → Robot 10: Called for encouragement, such as "Do your best"-Work progress: Busy → Robot 10: Voice of worries, such as “What's wrong?” ・ Value of user emotion 40 or user stress index 50 P (t) is greater than θ → Robot 10: Careful voice, such as “Keep calm”

加えて、ステップT1で取得したユーザの映像またはステップT2で判定したユーザの情動度40またはユーザのストレス指標50の少なくとも一つを用いて、作業の手順や出来栄えを評価する。
・料理データベースにあるN番目の調理手順における作業結果との類似度を受信
→ 類似度を5段階で評価し、ロボット評価として出力する
・ユーザの情動度40またはユーザのストレス指標50の値P(t)がθ以上
→ コーヒーメーカを起動し、ご褒美としてユーザにコーヒーを提供する
In addition, the work procedure and performance are evaluated using at least one of the user's video acquired in step T1 or the user's emotion 40 determined in step T2 or the user's stress index 50.
・ Receiving the similarity with the work result in the Nth cooking procedure in the cooking database → Evaluating the similarity in five stages and outputting it as a robot evaluation ・ The value P (40) of the user's emotion or the stress index 50 of the user t) is greater than or equal to θ → Start the coffee maker and offer coffee to the user as a reward

以上説明したように、本実施形態によれば、ユーザの映像や生体信号を用いることにより、時々刻々と変わるユーザの感情やストレス、ユーザの利用環境に応じた作業支援をすることが可能となる。また、映像やセンサを用いることによって音声等の取得が困難な環境であってもユーザの状態を把握することが可能となる。   As described above, according to the present embodiment, it is possible to provide work support according to the user's emotions and stresses that change from moment to moment and the user's usage environment by using the user's video and biological signals. . In addition, by using a video and a sensor, it is possible to grasp the user's state even in an environment where it is difficult to acquire audio and the like.

1、2 作業支援装置
10 ロボット
10−1 情報取得部
10−2 感情判定部
10−3 動作生成部
10−4 情報提示部
10−5 状況判定部
10−6 手順変更部
10−7 物理的協力部
20 カメラ
30 脈拍センサ
40 ユーザの情動度
50 ユーザのストレス指標
60 ロボット動作
70 調理手順に関わる情報
90 宅内機器(電子機器)
90−1 周囲状況取得部
100 調理状況
110 周囲の状況

DESCRIPTION OF SYMBOLS 1, 2 Work support apparatus 10 Robot 10-1 Information acquisition part 10-2 Emotion determination part 10-3 Motion generation part 10-4 Information presentation part 10-5 Situation determination part 10-6 Procedure change part 10-7 Physical cooperation Unit 20 Camera 30 Pulse sensor 40 User's emotion 50 User's stress index 60 Robot motion 70 Information related to cooking procedure 90 Home appliance (electronic device)
90-1 Ambient condition acquisition unit 100 Cooking condition 110 Ambient condition

Claims (8)

ユーザが行う作業を支援する作業支援装置であって、
ユーザの映像または生体信号の少なくとも一つを用いて、ユーザの感情の変化量を示す情動度またはユーザのストレスの度合いを示すストレス指標を判定する感情判定部と、
前記判定した情動度またはストレス指標の少なくとも一つを用いてロボット動作を生成する動作生成部と、
前記生成したロボット動作に応じて、予め保持している作業手順に関する情報を提示する情報提示部と、を備えることを特徴とする作業支援装置。
A work support device for supporting work performed by a user,
Using at least one of the user's video or biometric signal, an emotion determination unit that determines an emotion level indicating a change amount of the user's emotion or a stress index indicating a degree of stress of the user;
A motion generation unit that generates a robot motion using at least one of the determined emotion degree or stress index;
A work support apparatus comprising: an information presentation unit that presents information on a work procedure held in advance according to the generated robot motion.
少なくとも前記映像または前記生体信号を取得する情報取得部を備えることを特徴とする請求項1記載の作業支援装置。   The work support apparatus according to claim 1, further comprising an information acquisition unit that acquires at least the video or the biological signal. 前記映像または前記生体信号の少なくとも一つ、および、前記判定した情動度またはストレス指標の少なくとも一つを用いて、作業進行状況を判定する状況判定部を備え、
前記情報提示部は、前記判定した作業進行状況および前記生成したロボット動作に基づいて、前記作業進行状況に応じた作業手順に関する情報を提示することを特徴とする請求項1または請求項2記載の作業支援装置。
Using at least one of the video or the biological signal and at least one of the determined emotion or stress index, a situation determination unit for determining a work progress situation;
The information presentation unit presents information related to a work procedure according to the work progress based on the determined work progress and the generated robot motion. Work support device.
ユーザの入力、または環境情報を取得する電子機器を介して、ユーザの周囲の環境情報を取得する周囲状況取得部を備えることを特徴とする請求項1から請求項3のいずれかに記載の作業支援装置。   The work according to any one of claims 1 to 3, further comprising an ambient condition acquisition unit that acquires environmental information around the user via an electronic device that acquires user information or environmental information. Support device. 前記取得した環境情報に基づいて、前記作業手順に関する情報を変更する手順変更部を備えることを特徴とする請求項4記載の作業支援装置。   The work support apparatus according to claim 4, further comprising a procedure change unit that changes information related to the work procedure based on the acquired environment information. 前記映像、前記生体信号、または前記環境情報の少なくとも一つに応じて、物理的な作業支援を行う物理的協力部を備えることを特徴とする請求項1から請求項5のいずれかに記載の作業支援装置。   The physical cooperation part which performs a physical work support according to at least one of the said image | video, the said biological signal, or the said environmental information is provided, The physical cooperation part characterized by the above-mentioned. Work support device. いずれかの部位が可動であるロボット本体と、
前記部位を動かす駆動部と、を備え、
前記ロボット動作に基づいて、前記駆動部を駆動させることによって、前記ロボットの部位を動かすことを特徴とする請求項1から請求項6のいずれかに記載の作業支援装置。
A robot body in which any part is movable;
A drive unit for moving the part,
The work support apparatus according to claim 1, wherein a part of the robot is moved by driving the drive unit based on the robot operation.
ユーザが行う作業を支援する作業支援装置のプログラムであって、
ユーザの映像または生体信号の少なくとも一つを用いて、ユーザの感情の変化量を示す情動度またはユーザのストレスの度合いを示すストレス指標を判定する処理と、
前記判定した情動度またはストレス指標の少なくとも一つを用いてロボット動作を生成する処理と、
前記生成したロボット動作に応じて、予め保持している作業手順に関する情報を提示する処理と、を含む一連の処理をコンピュータに実行させることを特徴とするプログラム。

A program of a work support device that supports work performed by a user,
A process of determining an emotion level indicating the amount of change in the user's emotion or a stress index indicating the degree of stress of the user using at least one of the user's video or biological signal;
A process of generating a robot motion using at least one of the determined emotion degree or stress index;
A program for causing a computer to execute a series of processes including a process of presenting information on a work procedure held in advance according to the generated robot operation.

JP2016052919A 2016-03-16 2016-03-16 Work support apparatus and program Active JP6594235B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016052919A JP6594235B2 (en) 2016-03-16 2016-03-16 Work support apparatus and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016052919A JP6594235B2 (en) 2016-03-16 2016-03-16 Work support apparatus and program

Publications (2)

Publication Number Publication Date
JP2017164851A true JP2017164851A (en) 2017-09-21
JP6594235B2 JP6594235B2 (en) 2019-10-23

Family

ID=59909703

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016052919A Active JP6594235B2 (en) 2016-03-16 2016-03-16 Work support apparatus and program

Country Status (1)

Country Link
JP (1) JP6594235B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109658928A (en) * 2018-12-06 2019-04-19 山东大学 A kind of home-services robot cloud multi-modal dialog method, apparatus and system
JP2019106036A (en) * 2017-12-13 2019-06-27 Kddi株式会社 Support determination device, method and program
WO2023166979A1 (en) * 2022-03-01 2023-09-07 ソニーグループ株式会社 Information processing device, information processing method, and program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006072894A (en) * 2004-09-06 2006-03-16 Advanced Institute Of Information Technology Inc Cooking support apparatus and program
JP2008015585A (en) * 2006-07-03 2008-01-24 National Institute Of Information & Communication Technology Living task support system
JP2015066621A (en) * 2013-09-27 2015-04-13 株式会社国際電気通信基礎技術研究所 Robot control system, robot, output control program and output control method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006072894A (en) * 2004-09-06 2006-03-16 Advanced Institute Of Information Technology Inc Cooking support apparatus and program
JP2008015585A (en) * 2006-07-03 2008-01-24 National Institute Of Information & Communication Technology Living task support system
JP2015066621A (en) * 2013-09-27 2015-04-13 株式会社国際電気通信基礎技術研究所 Robot control system, robot, output control program and output control method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019106036A (en) * 2017-12-13 2019-06-27 Kddi株式会社 Support determination device, method and program
CN109658928A (en) * 2018-12-06 2019-04-19 山东大学 A kind of home-services robot cloud multi-modal dialog method, apparatus and system
WO2023166979A1 (en) * 2022-03-01 2023-09-07 ソニーグループ株式会社 Information processing device, information processing method, and program

Also Published As

Publication number Publication date
JP6594235B2 (en) 2019-10-23

Similar Documents

Publication Publication Date Title
KR102239604B1 (en) Device control using gaze information
EP3062198B1 (en) Generating actions based on a user&#39;s mood
CN108351750B (en) For handling equipment, method and the graphic user interface of strength information associated with touch input
CN108874152A (en) Mobile device with instinct warning
US10181220B2 (en) System and method for contact center augmented reality
JP6594235B2 (en) Work support apparatus and program
CN108475507A (en) Information processing equipment, information processing method and program
CN108683850B (en) Shooting prompting method and mobile terminal
CN107358953A (en) Sound control method, mobile terminal and storage medium
CN105451090B (en) Image processing method and image processing apparatus
JP7323098B2 (en) Dialogue support device, dialogue support system, and dialogue support program
Mayer et al. Examples of multimodal user interfaces for socially assistive robots in Ambient Assisted Living environments
JP2019079204A (en) Information input-output control system and method
US20180299963A1 (en) Information processing apparatus, information processing method, and program
CN108133708B (en) Voice assistant control method and device and mobile terminal
CN110225196B (en) Terminal control method and terminal equipment
JP7146373B2 (en) Customer service system
JP6482037B2 (en) Control device, control method, and control program
JP6798258B2 (en) Generation program, generation device, control program, control method, robot device and call system
WO2017175447A1 (en) Information processing apparatus, information processing method, and program
JP6969576B2 (en) Information processing device and information processing method
JP6950708B2 (en) Information processing equipment, information processing methods, and information processing systems
JP2014030865A (en) Sight line control device, sight line control method, sight line control program, and terminal equipment
KR20160122869A (en) Apparatus for being possible language converting using robot arm
WO2014084374A1 (en) Communication system, communication method, communication device, program, and recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180313

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180405

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190219

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190410

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190917

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190924

R150 Certificate of patent or registration of utility model

Ref document number: 6594235

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150