JP6686583B2 - Robots and programs - Google Patents

Robots and programs Download PDF

Info

Publication number
JP6686583B2
JP6686583B2 JP2016053339A JP2016053339A JP6686583B2 JP 6686583 B2 JP6686583 B2 JP 6686583B2 JP 2016053339 A JP2016053339 A JP 2016053339A JP 2016053339 A JP2016053339 A JP 2016053339A JP 6686583 B2 JP6686583 B2 JP 6686583B2
Authority
JP
Japan
Prior art keywords
image
user
robot
unit
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016053339A
Other languages
Japanese (ja)
Other versions
JP2017164854A (en
Inventor
哲司 牧野
哲司 牧野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2016053339A priority Critical patent/JP6686583B2/en
Publication of JP2017164854A publication Critical patent/JP2017164854A/en
Application granted granted Critical
Publication of JP6686583B2 publication Critical patent/JP6686583B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Toys (AREA)
  • Manipulator (AREA)

Description

本発明は、ロボットの技術に関する。   The present invention relates to robot technology.

人間や動物等に模して人間と会話等のコミュニケーションをすることができるロボットが知られている。特許文献1には、このようなロボットとの会話での親近感を高めるために、ロボットの目の瞳を、カメラで撮像した画像等から判別したユーザの目の方向に制御する発明について記載されている。   A robot is known which can imitate a human being or an animal and can communicate with the human being such as a conversation. Patent Document 1 describes an invention in which the pupil of the robot's eyes is controlled in the direction of the user's eyes determined from an image captured by a camera or the like in order to enhance the familiarity in such a conversation with the robot. ing.

特開2004−34274号公報JP 2004-34274 A

ロボットと円滑にコミュニケーションするには、人間側でも、コミュニケーションの相手としてロボットが自分を認識していることに気づくことが重要である。気づかない場合、ロボットが一方的に人間に話しかけているような状態となり、双方向のコミュニケーションが成立しないためである。特許文献1に記載されているロボットでは、ロボットの瞳がユーザの目を向くように動くだけであるため、ロボットが自分を認識していることにユーザが気づかない可能性がある。特に、ロボットが群衆の中の一人のユーザと会話をしようとする場合には、ロボットの目の向きから、ロボットが誰と会話しようとしているかをユーザが認識することは困難であり、ロボットと円滑にコミュニケーションできない虞がある。また、カメラの位置と造形上の目の位置とが異なるロボットの場合は、カメラで撮像した画像から判別したユーザの方向と、ロボットの造形上の目から見たユーザの方向(視線方向)とでずれが生じるため、ロボットに見つめられていることをユーザが十分に実感できない虞も考えられる。   In order to communicate smoothly with the robot, it is important for the human side to notice that the robot recognizes itself as a communication partner. This is because if the robot does not notice it, the robot will unilaterally talk to a human and bidirectional communication will not be established. In the robot described in Patent Document 1, since the pupil of the robot only moves so as to face the user's eyes, the user may not be aware that the robot recognizes itself. In particular, when the robot tries to talk with one user in the crowd, it is difficult for the user to recognize who the robot is talking to from the direction of the eyes of the robot, and it is difficult for the user to smoothly communicate with the robot. May not be able to communicate with. Further, in the case of a robot in which the position of the camera and the position of the eyes on the modeling are different, the direction of the user determined from the image captured by the camera and the direction of the user viewed from the modeling eyes of the robot (line of sight) As a result, there is a possibility that the user may not fully realize that he is gazing at the robot.

本発明は、上記実情に鑑みてなされたものであり、誰を認識しているかを容易に確認できるロボット及びプログラムを提供することを目的とする。   The present invention has been made in view of the above circumstances, and an object of the present invention is to provide a robot and a program capable of easily confirming who is being recognized.

上記目的を達成するため、本発明のロボットは、
顔を備えたロボットであって、
撮像部と、
前記顔の目の位置に配置される表示部と、
前記撮像部によって撮像された前記ロボットに正対するユーザの画像を前記表示部に表示させる表示制御部と、を備え、
前記表示制御部は、前記撮像部が撮像したユーザが特定の人物であるか否かを判別し、特定の人物である場合は、該人物の画像に所定の処理を施した画像を前記表示部に表示させる、
ことを特徴とする。
In order to achieve the above object, the robot of the present invention is
A robot with a face,
An imaging unit,
A display unit arranged at the position of the eyes of the face,
A display control unit that causes the display unit to display an image of the user facing the robot captured by the image capturing unit ,
The display control unit determines whether or not the user imaged by the imaging unit is a specific person, and when the user is a specific person, an image obtained by performing a predetermined process on the image of the person is displayed by the display unit. To display
It is characterized by

本発明によれば、ロボットが誰を認識しているかを容易に確認できる。   According to the present invention, it is possible to easily confirm who the robot recognizes.

本発明の実施形態に係るロボットの外観図である。It is an external view of the robot which concerns on embodiment of this invention. 本発明の実施形態に係るロボットの顔部分を示した図であり、(A)は通常表示状態、(B)はユーザ表示状態を示す図である。It is a figure which showed the face part of the robot which concerns on embodiment of this invention, (A) is a normal display state, (B) is a figure which shows a user display state. 本発明の実施形態に係るロボットの構成を示すブロック図である。It is a block diagram showing the composition of the robot concerning the embodiment of the present invention. 本発明の実施形態に係る表示制御処理のフローチャートを示す図である。It is a figure which shows the flowchart of the display control process which concerns on embodiment of this invention. 表示制御処理のフローチャートの変形例を示す図である。It is a figure which shows the modification of the flowchart of a display control process. 所定の処理が施された顔画像が表示装置に表示されたロボットの顔部分を示した図である。FIG. 11 is a diagram showing a face portion of the robot in which a face image subjected to predetermined processing is displayed on a display device. 表示制御処理のフローチャートの変形例を示す図である。It is a figure which shows the modification of the flowchart of a display control process.

以下、本発明の実施形態について、図面を参照しながら詳細に説明する。なお、図中同一または相当部分には同一符号を付す。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. The same or corresponding parts in the drawings are designated by the same reference numerals.

図1は、本発明の実施形態に係るロボット10の外観を模式的に示した図である。ロボット10は、図1に示すように顔100と首200と胴体300とを備えた人型である。ロボット10は、例えば、イベント会場の受付に設置され、来場者と会話して各種の案内をするために利用される。ロボット10の顔100には、2つの表示装置(表示部)101L、101Rと、カメラ(撮像部)102と、スピーカ103と、マイク104と、が設けられている。   FIG. 1 is a diagram schematically showing an appearance of a robot 10 according to an embodiment of the present invention. The robot 10 is a humanoid having a face 100, a neck 200, and a body 300 as shown in FIG. The robot 10 is installed at, for example, a reception desk at an event venue, and is used to talk with visitors and provide various kinds of guidance. The face 100 of the robot 10 is provided with two display devices (display units) 101L and 101R, a camera (imaging unit) 102, a speaker 103, and a microphone 104.

2つの表示装置101L、101Rは、それぞれ、LCD(Liquid Crystal Display)等で構成され、顔100の左右の目に相当する位置に設けられている。また、2つの表示装置101L、101Rは、表示面が円形であり、これにより、ユーザにはロボット10の目(左目、右目)として認識される。なお、以後の説明では、2つの表示装置101L、101Rを区別しない場合は表示装置101とも表記する。   The two display devices 101L and 101R are each configured by an LCD (Liquid Crystal Display) or the like, and are provided at positions corresponding to the left and right eyes of the face 100. The display surfaces of the two display devices 101L and 101R are circular, which allows the user to recognize the eyes of the robot 10 (left eye and right eye). In addition, in the following description, when the two display devices 101L and 101R are not distinguished, they are also referred to as the display device 101.

また後述する表示制御処理により、ロボット10に正対しているユーザがいない場合、図2(A)に示すように表示装置101には、通常の目を模した画像が表示される。以下の説明では、このときの表示装置101の状態を「通常表示状態」とも表記する。
また、後述する表示制御処理により、ロボット10に正対しているユーザがいる場合、図2(B)に示すように表示装置101には、このユーザの顔が表示される。以下の説明では、このときの表示装置101の状態を「ユーザ表示状態」とも表記する。
Further, by the display control processing described later, when there is no user who is directly facing the robot 10, an image simulating a normal eye is displayed on the display device 101 as shown in FIG. In the following description, the state of the display device 101 at this time is also referred to as a “normal display state”.
Further, when there is a user who is directly facing the robot 10 by the display control processing described later, the face of this user is displayed on the display device 101 as shown in FIG. 2B. In the following description, the state of the display device 101 at this time is also referred to as “user display state”.

図1に戻り、カメラ102は、2つの表示装置101L、101Rの間の顔100の眉間に相当する位置に設けられており、後述する制御部110の制御の下、所定の時間毎(例えば、1/60秒毎)に撮像を行っている。カメラ102はロボット10の目として機能する。   Returning to FIG. 1, the camera 102 is provided at a position corresponding to the space between the eyebrows of the face 100 between the two display devices 101L and 101R, and under the control of the control unit 110 described later, at predetermined time intervals (for example, Imaging is performed every 1/60 seconds. The camera 102 functions as the eyes of the robot 10.

スピーカ103は、顔100の口に相当する位置に設けられている。スピーカ103は、後述する制御部110の制御の下、各種の音声を出力する。スピーカ103はロボット10の口としての機能を有する。
マイク104は、顔100の顎に相当する部分に設けられ、周囲の音声を集音する。マイク104はロボット10の耳として機能する。なお、ロボット10の首200や胴体300にマイク104を設けてもよい。
The speaker 103 is provided at a position corresponding to the mouth of the face 100. The speaker 103 outputs various sounds under the control of the control unit 110 described later. The speaker 103 has a function as a mouth of the robot 10.
The microphone 104 is provided in a portion corresponding to the chin of the face 100 and collects ambient sounds. The microphone 104 functions as the ear of the robot 10. The microphone 104 may be provided on the neck 200 or the body 300 of the robot 10.

また、図3に示すように、その他の構成として、ロボット10は、首駆動部105と、操作ボタン106と、センサ群107と、電源部108と、記憶部109と、制御部110と、を備える。   Further, as shown in FIG. 3, as another configuration, the robot 10 includes a neck drive unit 105, operation buttons 106, a sensor group 107, a power supply unit 108, a storage unit 109, and a control unit 110. Prepare

首駆動部105は、複数のモータ等を備え、制御部110の指示に基づいて、人間の首と同様に、ロボット10の顔の向きを上下左右自在に制御する。   The neck drive unit 105 includes a plurality of motors and the like, and controls the orientation of the face of the robot 10 vertically and horizontally based on an instruction from the control unit 110, like a human neck.

操作ボタン106は、ロボット10を操作するための各種のボタンであり、例えば、電源ボタンやモード切替ボタンなどを含む。
センサ群107は、加速度センサや障害物検知センサ等であり、ロボット10の姿勢制御や、安全性の確保のために使用される。
電源部108は、ロボット10に内蔵される充電池等であり、ロボット10の各部に電力を供給する。
The operation buttons 106 are various buttons for operating the robot 10, and include, for example, a power button and a mode switching button.
The sensor group 107 is an acceleration sensor, an obstacle detection sensor, or the like, and is used for controlling the posture of the robot 10 and ensuring safety.
The power supply unit 108 is a rechargeable battery or the like built in the robot 10, and supplies power to each unit of the robot 10.

記憶部109は、ハードディスクドライブやフラッシュメモリ等から構成され、制御部110によって実行されるプログラムやカメラ102が撮像した画像データや各種のデータを記憶する。   The storage unit 109 includes a hard disk drive, a flash memory, and the like, and stores a program executed by the control unit 110, image data captured by the camera 102, and various data.

制御部110は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)などで構成される。制御部110は、RAMをワークスペースとして、記憶部109やROMに記憶されたプログラムを実行することにより、ロボット10全体を制御する。例えば、制御部110は、マイク104で集音したユーザの音声に反応してスピーカ103から所定の音声を出力させることにより、正対しているユーザとコミュニケーション(会話)する。なお、本実施形態において「コミュニケーション」とは会話を伴うものに限らないものとする。ユーザとロボット10とで見つめ合うこともコミュニケーションの一種である。   The control unit 110 includes a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), and the like. The control unit 110 controls the entire robot 10 by executing a program stored in the storage unit 109 or ROM using the RAM as a work space. For example, the control unit 110 communicates (talks) with the user who is facing the user by causing the speaker 103 to output a predetermined voice in response to the voice of the user collected by the microphone 104. In the present embodiment, “communication” is not limited to conversation. Looking at each other between the user and the robot 10 is one type of communication.

また、制御部110は、カメラ102が撮像した画像から正対するユーザの有無を判別し、ユーザがいる場合はその画像をカメラ102に表示させる表示制御部として機能する。   In addition, the control unit 110 functions as a display control unit that determines from the image captured by the camera 102 whether or not there is a user directly facing the user and, if there is a user, displays the image on the camera 102.

また、制御部110は、首駆動部105を制御して、ユーザと正対するように顔100の向きを調整する顔向調整部として機能する。制御部110の行うこれらの処理の詳細については後述する。   The control unit 110 also functions as a face orientation adjustment unit that controls the neck drive unit 105 and adjusts the orientation of the face 100 so as to face the user. Details of these processes performed by the control unit 110 will be described later.

続いて、上述したロボット10の動作について説明する。ロボット10の制御部110は、電源がONの間、継続して、図4に示す表示制御処理を実行する。なお、制御部110は、表示制御処理とは独立して、ユーザと会話する処理等を実施しているものとする。   Next, the operation of the robot 10 described above will be described. The control unit 110 of the robot 10 continuously executes the display control process shown in FIG. 4 while the power is on. It is assumed that the control unit 110 performs a process of talking with the user, etc., independently of the display control process.

まず、制御部110は、カメラ102が撮像した画像を取得する(ステップS101)。なお、以下の説明では、ステップS101で取得した画像を取得画像とも表記する。   First, the control unit 110 acquires an image captured by the camera 102 (step S101). Note that in the following description, the image acquired in step S101 is also referred to as an acquired image.

続いて、制御部110は、公知の手法を用いて、取得画像から所定サイズ以上の人間の顔を検出する顔検出処理を実施する(ステップS102)。例えば、制御部110は、人間の顔のテンプレートのデータを記憶部109に格納しておき、取得画像内でテンプレートに合致する部分を人間の顔として検出すればよい。   Subsequently, the control unit 110 uses a known method to perform a face detection process of detecting a human face of a predetermined size or more from the acquired image (step S102). For example, the control unit 110 may store the data of the human face template in the storage unit 109, and detect the portion of the acquired image that matches the template as the human face.

続いて、制御部110は、顔検出処理でユーザの顔を検出できたか否かを判別する(ステップS103)。ユーザの顔を検出できなかった場合(ステップS103;No)、制御部110は、表示装置101を図2(A)に示すような通常表示状態に制御し(ステップS104)、ステップS101に処理は戻る。   Subsequently, the control unit 110 determines whether or not the face of the user has been detected by the face detection processing (step S103). When the face of the user cannot be detected (step S103; No), the control unit 110 controls the display device 101 to the normal display state as shown in FIG. 2A (step S104), and the process proceeds to step S101. Return.

一方、ユーザの顔を検出できた場合(ステップS103;Yes)、制御部110は、検出した顔にロボット10が正対しているか否かを判別する(ステップS105)。例えば、制御部110は、検出した顔が取得画像の中央部分にある場合に正対していると判別すればよい。   On the other hand, when the user's face can be detected (step S103; Yes), the control unit 110 determines whether or not the robot 10 faces the detected face (step S105). For example, the control unit 110 may determine that the detected face is directly facing when the detected face is in the center of the acquired image.

ロボット10がユーザの顔と正対していないと判別した場合(ステップS105;No)、制御部110は、首駆動部105を制御して、ユーザの顔と正対するように顔100(カメラ102)の向きを調整し(ステップS106)、ステップS101に処理は戻る。   When it is determined that the robot 10 does not directly face the user's face (step S105; No), the control unit 110 controls the neck drive unit 105 to make the face 100 (camera 102) face the user's face. Is adjusted (step S106), and the process returns to step S101.

一方、ロボット10がユーザの顔と正対していると判別した場合(ステップS105;Yes)、制御部110は、表示装置101の表示面のサイズと一致するように、取得画像から顔部分を円形に切り出す(トリミングする)(ステップS107)。なお、ステップS107で切り出した画像を顔画像とも表記する。   On the other hand, when it is determined that the robot 10 is directly facing the user's face (step S105; Yes), the control unit 110 rounds the face portion from the acquired image so as to match the size of the display surface of the display device 101. It is cut out (trimmed) (step S107). The image cut out in step S107 is also referred to as a face image.

続いて、制御部110は、切り出した顔画像を鏡像反転(左右反転)させる(ステップS108)。そして、制御部110は、図2(B)に示すように、鏡像反転させた顔画像を左右の表示装置101L、101Rに表示させ(ステップS109)、ステップS101に処理は戻る。なお、制御部110は、ステップS109で顔画像を表示させた後、スピーカ103を制御して、この顔画像のユーザに話しかける等の処理を行ってもよい。   Subsequently, the control unit 110 performs mirror image inversion (horizontal inversion) of the cut out face image (step S108). Then, as shown in FIG. 2B, the control unit 110 causes the mirror-inverted face images to be displayed on the left and right display devices 101L and 101R (step S109), and the process returns to step S101. After displaying the face image in step S109, the control unit 110 may control the speaker 103 to perform processing such as speaking to the user of this face image.

このように、本実施形態によれば、ロボット10の顔100の目に位置する表示装置101に、カメラ102によって撮像されたロボット10に正対するユーザの画像が表示される。そのため、このユーザや他のユーザは、この表示からロボット10が誰を認識しているかを容易に知ることができ、ロボット10と円滑にコミュニケーションすることが可能となる。例えば、ロボット10が群衆の中の一人のユーザと会話をしようとする場合であっても、ロボット10が誰と会話しようとしているかはロボット10の目(表示装置101)を確認するだけで容易に知ることができる。
また、本実施形態によれば、正対しているユーザがロボット10の目(表示装置101)に表示されるため、カメラ102の位置と造形上の目の位置とが異なるロボット10であっても、視線方向のずれの影響を受けずに、ユーザは、自分が見つめられていることを十分に実感することができる。
As described above, according to the present embodiment, the image of the user facing the robot 10 captured by the camera 102 is displayed on the display device 101 located in the eyes of the face 100 of the robot 10. Therefore, this user and other users can easily know who the robot 10 recognizes from this display, and can smoothly communicate with the robot 10. For example, even when the robot 10 wants to talk with one user in the crowd, it is easy to know who the robot 10 is talking to by simply checking the eyes (display device 101) of the robot 10. I can know.
Further, according to the present embodiment, since the user who is directly facing is displayed on the eyes (display device 101) of the robot 10, even the robot 10 in which the position of the camera 102 and the position of the eye on the modeling are different. The user can fully realize that he is gazing without being affected by the shift in the line-of-sight direction.

また、本実施形態によれば、カメラ102によって撮像された画像からユーザを検出できても、そのユーザがロボット10と正対していない場合は、正対するようにロボット10の顔100の向きが調整される。そのため、ユーザは正対しているロボット10と円滑にコミュニケーションすることが可能となる。   Further, according to the present embodiment, even if the user can be detected from the image captured by the camera 102, if the user is not directly facing the robot 10, the orientation of the face 100 of the robot 10 is adjusted so as to face it. To be done. Therefore, the user can smoothly communicate with the facing robot 10.

なお、本発明は、上記実施形態に限定されず、本発明の要旨を逸脱しない部分での種々の修正は勿論可能である。   It should be noted that the present invention is not limited to the above-described embodiment, and various modifications can of course be made without departing from the spirit of the present invention.

(変形例1)
例えば、上記実施形態では、表示制御処理において、制御部110は、カメラ102で撮像したユーザの顔画像をそのまま表示装置101に表示したが、カメラ102の画角やフォーカス距離等のパラメータや表示装置101とカメラ102との間の相対位置情報等に基づいて、切り出した顔画像をロボット10の目(表示装置101)の位置から撮像されたように補正してから表示してもよい。なお、この場合、左目(表示装置101L)の位置から撮像されたように補正された顔画像と、右目(表示装置101R)の位置から撮像されたように補正された顔画像との2種類の顔画像が作成されて別々に表示されることとなる。このようにすることで、表示装置101L、101Rには、ロボット10の左右の目からユーザを見たような顔画像が表示されるため、ユーザは、ロボット10に見つめられていることをより強く実感することができる。
(Modification 1)
For example, in the above-described embodiment, in the display control process, the control unit 110 directly displays the face image of the user captured by the camera 102 on the display device 101. However, parameters such as the angle of view and the focus distance of the camera 102 and the display device are displayed. Based on the relative position information between 101 and the camera 102 and the like, the cut-out face image may be corrected as if it was captured from the position of the eyes (display device 101) of the robot 10 and then displayed. In this case, there are two types of face images, one is a face image corrected as if it was captured from the position of the left eye (display device 101L) and the other is a face image that is corrected as captured from the position of the right eye (display device 101R). Face images are created and displayed separately. By doing so, the display device 101L, 101R displays a face image as if the user were looking from the left and right eyes of the robot 10, so that the user is more likely to look at the robot 10 more strongly. You can feel it.

(変形例2)
例えば、上記実施形態では、撮像したユーザの顔画像をそのまま表示装置101に表示したが、顔をデフォルメ処理した画像を表示させたり、減色処理した画像(例えば、モノクロ画像)を表示したりしてもよい。また、撮像したユーザが特定の人物であるか否かを判別し、特定の人物である場合には、その人物に特有の処理を施した画像を表示装置101に表示してもよい。
(Modification 2)
For example, in the above-described embodiment, the captured face image of the user is displayed on the display device 101 as it is, but an image obtained by deforming the face is displayed, or an image subjected to color reduction processing (for example, a monochrome image) is displayed. Good. Further, it may be determined whether or not the imaged user is a specific person, and when the user is a specific person, an image subjected to processing specific to the person may be displayed on the display device 101.

この場合、特定の人物の顔を識別するための情報(例えば、その人物の顔の画像データ)と、処理の内容とを対応付けたテーブルを記憶部109に記憶させておく。そして、図4に示す表示制御処理において、取得画像から切り出した顔画像を鏡像反転させた後(ステップS108)、図5に処理は移り、制御部110は、公知の手法を用いて、顔画像の人物がテーブルで規定されている特定の人物と同一であるか否かを判別する(ステップS201)。同一人物で無いと判別した場合(ステップS201;No)、図4に処理は移り、制御部110は、鏡像反転させた顔画像をそのまま表示させる(ステップS109)。一方、同一人物であると判別した場合(ステップS201;Yes)、制御部110は、テーブルを参照して所定の処理を顔画像に施す(ステップS202)。そして、図4に処理は移り、制御部110は、処理を施した画像を表示装置101に表示させる(ステップS109)。   In this case, the storage unit 109 stores a table in which information for identifying the face of a specific person (for example, image data of the face of the person) and the content of the process are associated with each other. Then, in the display control process shown in FIG. 4, after the face image cut out from the acquired image is mirror-inverted (step S108), the process proceeds to FIG. 5, and the control unit 110 uses a known method to perform face image processing. It is determined whether or not this person is the same as the specific person defined in the table (step S201). When it is determined that they are not the same person (step S201; No), the processing moves to FIG. 4, and the control unit 110 displays the mirror-inverted face image as it is (step S109). On the other hand, when it is determined that they are the same person (step S201; Yes), the control unit 110 refers to the table and performs a predetermined process on the face image (step S202). Then, the processing moves to FIG. 4, and the control unit 110 displays the processed image on the display device 101 (step S109).

図6は、このような処理が施された顔画像が表示装置101に表示されたロボット10の顔を示す図である。この例では、星マークP1を重畳する処理が施された顔画像が表示装置101に表示されている。なお、別のマークを重畳して表示させたり、通常と背景の色が異なる顔画像を表示させたり、特定のメッセージが付された顔画像を表示させたりしてもよく、種々の処理を顔画像に施してよい。また、制御部110は、特定人物を検出した場合に、その人物の顔画像に替えて、予め準備したその人物用のアイコン画像等を表示装置101に表示させてもよい。   FIG. 6 is a diagram showing the face of the robot 10 in which the face image subjected to such processing is displayed on the display device 101. In this example, the face image on which the processing of superimposing the star mark P1 is performed is displayed on the display device 101. Note that you may display different marks in a superimposed manner, display a face image with a different background color than normal, or display a face image with a specific message. May be applied to images. Further, when a specific person is detected, the control unit 110 may cause the display device 101 to display a previously prepared icon image for the person instead of the face image of the person.

このようにすることで、特定の人物がロボット10と正対した場合には、その人物に特有の処理が施された顔画像が表示されるため、より親近感の高いロボット10とのコミュニケーションが実現できる。   By doing this, when a specific person faces the robot 10, a face image that has been subjected to a process specific to that person is displayed, and communication with the robot 10 having a higher degree of familiarity can be achieved. realizable.

(変形例3)
また、上述した図4に示す表示制御処理の顔検出処理(ステップS102)で取得画像から複数の顔を検出できる場合も考えられる。この場合、ロボット10の制御部110は、取得画像内で最も中央にある顔、最もサイズの大きい顔、ロボット10との距離が最も近い顔、ロボット10と最も視線の合う顔、マイク104で集音した音声の発信元に最も近い位置や方向にある顔等を検出してステップS103以降の処理を実施し、顔画像を表示装置101に表示させてもよい。
(Modification 3)
It is also conceivable that a plurality of faces can be detected from the acquired image by the face detection processing (step S102) of the display control processing shown in FIG. 4 described above. In this case, the control unit 110 of the robot 10 collects the face at the center in the acquired image, the face having the largest size, the face closest to the robot 10, the face having the closest line of sight with the robot 10, and the microphone 104. It is also possible to detect a face or the like at the position or direction closest to the originator of the sound that has sounded, perform the processing from step S103, and display the face image on the display device 101.

このようにすることで、画像内から複数のユーザの顔が検出できた場合に最もロボット10とコミュニケーションしたいと想定されるユーザの顔が表示装置101に表示されるため、より円滑なロボット10とコミュニケーションすることが可能となる。   By doing so, when the faces of a plurality of users can be detected from the image, the faces of the users who are most likely to communicate with the robot 10 are displayed on the display device 101. It becomes possible to communicate.

(変形例4)
例えば、表示制御処理において制御部110(ユーザ切替報知部)が、表示装置101に表示中の被写体であるユーザが別のユーザに切り替わることを報知してもよい。
(Modification 4)
For example, in the display control process, the control unit 110 (user switching notification unit) may notify that the user who is the subject being displayed on the display device 101 is switched to another user.

この場合、図4に示す表示制御処理で取得画像から切り出した顔画像を鏡像反転させた後(ステップS108)、図7に処理は移り、制御部110は、この顔画像の被写体であるユーザが、現在表示している画像の被写体と異なっているか否かを判別する(ステップS301)。例えば、制御部110は、今回切り出した顔画像と、現在表示装置101に表示中の画像との類似度を公知の手法により求め、閾値以下である場合に異なっていると判別すればよい。   In this case, after the face image cut out from the acquired image is mirror-inverted by the display control process shown in FIG. 4 (step S108), the process proceeds to FIG. Then, it is determined whether or not the subject of the image currently displayed is different (step S301). For example, the control unit 110 may determine the similarity between the face image cut out this time and the image currently displayed on the display device 101 by a known method, and determine that the similarity is different when the facial image is equal to or less than the threshold.

そして、被写体のユーザが異なっていないと判別した場合(ステップS301;No)、図4に処理は移り、制御部110は、鏡像反転させた顔画像をそのまま表示させる(ステップS109)。   When it is determined that the users of the subjects are not different (step S301; No), the process proceeds to FIG. 4, and the control unit 110 displays the mirror-image-inverted face image as it is (step S109).

一方、被写体のユーザが異なっていると判別した場合(ステップS301;Yes)、制御部110は、目の瞬きを模した映像を表示装置101に表示させる(ステップS302)。そして、図4に処理は移り、制御部110は、顔画像を表示装置101に表示させる(ステップS109)。なお、このとき表示される顔画像では、これまで表示していたユーザ(又は通常表示状態の画像)とは別のユーザが被写体となっている。   On the other hand, when it is determined that the users of the subjects are different (step S301; Yes), the control unit 110 causes the display device 101 to display an image simulating the blink of eyes (step S302). Then, the processing moves to FIG. 4, and the control unit 110 displays the face image on the display device 101 (step S109). In the face image displayed at this time, the user different from the user (or the image in the normal display state) that has been displayed until now is the subject.

このようにすることで、ユーザは、ロボット10の目(表示装置101)の瞬きから表示される人物が切り替わるタイミングを容易に知ることができるため、ロボット10とより円滑にコミュニケーションすることが可能となる。なお、制御部110は、瞬きの代わりに特定の音声をスピーカ103から発生させたりしてもよく、人物が切り替わるタイミングを報知する手法は種々の手法が採用可能である。   By doing so, the user can easily know the timing at which the person displayed from the blink of the eyes (display device 101) of the robot 10 is switched, and thus it is possible to communicate with the robot 10 more smoothly. Become. Note that the control unit 110 may generate a specific sound from the speaker 103 instead of blinking, and various methods can be adopted as the method of notifying the timing at which the person switches.

(変形例5)
上述した実施形態では、カメラ102が撮像した画像からユーザの顔が検出できた場合に顔画像を表示したが、ユーザの視線方向も考慮に入れて画像を表示してもよい。
(Modification 5)
In the above-described embodiment, the face image is displayed when the user's face can be detected from the image captured by the camera 102, but the image may be displayed in consideration of the user's line-of-sight direction.

例えば、表示制御処理において、制御部110は、公知の手法により取得画像を解析してユーザの視線方向を取得し、ユーザがロボット10を見ているか否かを判別する。そして、制御部110は、ユーザがロボット10を見ていない場合は顔画像を表示装置101に表示せず、ユーザがロボット10を見ている場合(アイコンタクトが成立している場合)に表示装置101に顔画像を表示させてもよい。   For example, in the display control process, the control unit 110 analyzes the acquired image by a known method to acquire the gaze direction of the user, and determines whether the user is looking at the robot 10. Then, the control unit 110 does not display the face image on the display device 101 when the user is not looking at the robot 10, and the display device when the user is looking at the robot 10 (when eye contact is established). A face image may be displayed on 101.

若しくは、制御部110(アイコンタクト報知部)は、ユーザの視線がロボット10に切り替わってアイコンタクトが成立した際に、スピーカ103から特定の音声を出力させたり、表示装置101の表示を点滅させたり、眉毛などを備えて表情を変化することができる機構を備えたロボット10の場合は表情を変化させたりする等して、その旨を報知してもよい。   Alternatively, the control unit 110 (eye contact notification unit) outputs a specific sound from the speaker 103 or blinks the display of the display device 101 when the user's line of sight is switched to the robot 10 and eye contact is established. In the case of the robot 10 that is equipped with a mechanism that can change the facial expression, such as eyebrows, the facial expression may be changed to notify the effect.

このようにユーザの視線を考慮に入れた画像表示をすることで、ロボット10とのアイコンタクトをユーザに促す効果が期待でき、ロボット10とより円滑にコミュニケーションすることが可能となる。   By thus displaying the image in consideration of the user's line of sight, the effect of prompting the user to make eye contact with the robot 10 can be expected, and it becomes possible to communicate with the robot 10 more smoothly.

(変形例6)
また、車輪等の駆動機構を備えて移動することができるようにロボット10を構成してもよい。この場合、制御部110は、表示制御処理の顔検出処理(図4、ステップS102)で検出した顔との距離を公知の手法により求める。そして、制御部110は、ユーザとの距離が所定距離以内(例えば、2m以内)になるように、駆動機構を制御してもよい。
(Modification 6)
Further, the robot 10 may be configured so as to be movable by being provided with a drive mechanism such as wheels. In this case, the control unit 110 obtains the distance to the face detected by the face detection process (FIG. 4, step S102) of the display control process by a known method. Then, the control unit 110 may control the drive mechanism so that the distance to the user is within a predetermined distance (for example, within 2 m).

(変形例7)
また、上記実施形態では、ユーザの顔部分の画像(顔画像)を表示装置101に表示させたが、ユーザの上半身の画像や全身画像等を表示装置101に表示させてもよい。
(Modification 7)
Further, in the above-described embodiment, the image of the face portion of the user (face image) is displayed on the display device 101, but an image of the upper half of the user's body, a full-body image, or the like may be displayed on the display device 101.

(変形例8)
また、上記実施形態では、左右の2つの目に相当する2つの表示装置101L、101Rを備えたロボット10を示したが、1個のみの目や3個以上の目を有するロボットにも本発明は適用可能である。また、ロボット10が行うユーザとのコミュニケーションは音声会話に限定されず、胴体等に設けたモニターにメッセージを表示してユーザとコミュニケーションするタイプのロボット等にも本発明は適用可能である。また、介護用のロボットや、ペットロボット等にも本発明は適用可能である。また、図1に示したような人型に限らず、犬型や猫型のような動物を模したロボット等にも本発明は適用可能である。
(Modification 8)
Further, in the above embodiment, the robot 10 including the two display devices 101L and 101R corresponding to the two left and right eyes is shown, but the present invention is also applicable to a robot having only one eye or three or more eyes. Is applicable. The communication with the user performed by the robot 10 is not limited to voice conversation, and the present invention can be applied to a robot of a type that displays a message on a monitor provided on a body or the like and communicates with the user. The present invention can also be applied to a nursing robot, a pet robot, and the like. Further, the present invention is not limited to the humanoid type shown in FIG. 1, but the present invention can be applied to a robot imitating an animal such as a dog type or a cat type.

また、この発明のロボット10の各機能は、通常のPC(Personal Computer)等のコンピュータによっても実施することができる。具体的には、上記実施形態では、ロボット10が行う表示制御処理のプログラムが、記憶部109や制御部110のROMに予め記憶されているものとして説明した。しかし、このプログラムを、フレキシブルディスク、CD−ROM(Compact Disc Read Only Memory)、DVD(Digital Versatile Disc)及びMO(Magneto Optical Disc)等のコンピュータ読み取り可能な記録媒体に格納して配布し、そのプログラムをコンピュータにインストールすることにより、上述の各機能を実現することができるコンピュータを構成してもよい。   Further, each function of the robot 10 of the present invention can be implemented by a computer such as a normal PC (Personal Computer). Specifically, in the above embodiment, the program for the display control process performed by the robot 10 is described as being stored in advance in the ROM of the storage unit 109 or the control unit 110. However, this program is stored and distributed in a computer-readable recording medium such as a flexible disk, a CD-ROM (Compact Disc Read Only Memory), a DVD (Digital Versatile Disc) and an MO (Magneto Optical Disc), and the program is distributed. A computer capable of realizing the above-described functions may be configured by installing the.

本発明は、本発明の広義の精神と範囲を逸脱することなく、様々な実施形態及び変形が可能とされるものである。また、上述した実施形態は、本発明を説明するためのものであり、本発明の範囲を限定するものではない。つまり、本発明の範囲は、実施形態ではなく、請求の範囲によって示される。そして、請求の範囲内及びそれと同等の発明の意義の範囲内で施される様々な変形が、本発明の範囲内とみなされる。   The present invention allows various embodiments and modifications without departing from the broad spirit and scope of the present invention. Further, the above-described embodiment is for explaining the present invention, and does not limit the scope of the present invention. That is, the scope of the present invention is indicated by the scope of the claims, not the embodiments. Various modifications made within the scope of the claims and the scope of the invention equivalent thereto are considered to be within the scope of the present invention.

以上、本発明の好ましい実施形態について説明したが、本発明は係る特定の実施形態に限定されるものではなく、本発明には、特許請求の範囲に記載された発明とその均等の範囲が含まれる。以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。   Although the preferred embodiments of the present invention have been described above, the present invention is not limited to the specific embodiments, and the present invention includes the inventions described in the claims and their equivalents. Be done. The inventions described in the initial claims of the present application will be additionally described below.

(付記1)
顔を備えたロボットであって、
撮像部と、
前記顔の目の位置に配置される表示部と、
前記撮像部によって撮像された前記ロボットに正対するユーザの画像を前記表示部に表示させる表示制御部と、
を備えることを特徴とするロボット。
(Appendix 1)
A robot with a face,
An imaging unit,
A display unit arranged at the position of the eyes of the face,
A display control unit that causes the display unit to display an image of the user facing the robot captured by the image capturing unit;
A robot characterized by comprising.

(付記2)
前記ユーザと正対するように前記顔の向きを調整する顔向調整部を備える、
ことを特徴とする付記1に記載のロボット。
(Appendix 2)
A face orientation adjusting unit that adjusts the orientation of the face so as to face the user,
The robot according to appendix 1, wherein:

(付記3)
前記表示制御部は、前記ユーザの画像を前記表示部の位置から撮像されたように補正したうえで前記表示部に表示させる、
ことを特徴とする付記1又は2に記載のロボット。
(Appendix 3)
The display control unit corrects the image of the user as if the image was captured from the position of the display unit and then displays the image on the display unit.
The robot according to appendix 1 or 2, characterized in that.

(付記4)
前記表示制御部は、前記ユーザとアイコンタクトが成立したときに、前記ユーザの画像を前記表示部に表示させる、
ことを特徴とする付記1から3の何れか1つに記載のロボット。
(Appendix 4)
The display control unit displays an image of the user on the display unit when eye contact with the user is established.
The robot according to any one of appendices 1 to 3, characterized in that.

(付記5)
前記ユーザとアイコンタクトが成立したことを知らせるアイコンタクト報知部をさらに備える、
ことを特徴とする付記1から4の何れか1つに記載のロボット。
(Appendix 5)
An eye contact notifying unit for notifying that the eye contact with the user has been established,
The robot according to any one of appendices 1 to 4, characterized in that.

(付記6)
前記表示制御部は、前記撮像部が撮像したユーザが特定の人物であるか否かを判別し、特定の人物である場合は、該人物の画像に所定の処理を施した画像を前記表示部に表示させる、
ことを特徴とする付記1から5の何れか1つに記載のロボット。
(Appendix 6)
The display control unit determines whether or not the user imaged by the imaging unit is a specific person, and when the user is a specific person, an image obtained by performing a predetermined process on the image of the person is displayed by the display unit. To display
6. The robot according to any one of appendices 1 to 5, characterized in that.

(付記7)
前記表示制御部は、前記撮像部によって撮像された画像内から複数のユーザが検出された場合に、前記ロボットと最もコミュニケーションしたいと想定されるユーザの画像を前記表示部に表示させる、
ことを特徴とする付記1から6の何れか1つに記載のロボット。
(Appendix 7)
The display control unit causes the display unit to display an image of a user who is most likely to communicate with the robot when a plurality of users are detected from the image captured by the imaging unit.
7. The robot according to any one of appendices 1 to 6, characterized in that.

(付記8)
前記ロボットと最もコミュニケーションしたいと想定されるユーザの画像は、前記撮像部によって撮像された画像内で最も中央にあるユーザの画像、最もサイズの大きいユーザの画像、前記ロボットとの距離が最も近いユーザの画像、前記ロボットと最も視線の合うユーザの画像、音声の発信元に最も近い位置又は方向にあるユーザの画像の何れかである、
ことを特徴とする付記7に記載のロボット。
(Appendix 8)
The image of the user who is most likely to communicate with the robot is the image of the user in the center of the images captured by the imaging unit, the image of the largest user, and the user who is closest to the robot. Image of the user, the image of the user who has the closest line of sight with the robot, or the image of the user at the position or direction closest to the source of the sound.
The robot according to appendix 7, characterized in that.

(付記9)
前記表示部に表示されている画像の被写体であるユーザが別のユーザに切り替わることを報知するユーザ切替報知部を備える、
ことを特徴とする付記1から8の何れか1つに記載のロボット。
(Appendix 9)
A user switching notification unit for notifying that the user who is the subject of the image displayed on the display unit switches to another user,
9. The robot according to any one of appendices 1 to 8, characterized in that.

(付記10)
前記ユーザ切替報知部は、前記表示部に目の瞬きを模した映像を表示させることにより前記報知を行う、
ことを特徴とする付記9に記載のロボット。
(Appendix 10)
The user switching notification unit performs the notification by displaying an image simulating the blink of eyes on the display unit,
The robot according to appendix 9, characterized in that.

(付記11)
撮像部と顔の目の位置に配置される表示部とを備えたロボットを制御するコンピュータを、
前記撮像部に撮像させる撮像制御手段、
前記撮像された前記ロボットに正対するユーザの画像を前記表示部に表示させる表示制御手段、
として機能させるプログラム。
(Appendix 11)
A computer that controls a robot including an imaging unit and a display unit arranged at the position of the eyes of the face,
Image pickup control means for making the image pickup section pick up an image,
Display control means for displaying the captured image of the user facing the robot on the display unit;
A program to function as.

(付記12)
前記表示制御手段は、前記ユーザの画像を前記表示部の位置から撮像されたように補正したうえで前記表示部に表示させる、
ことを特徴とする付記11に記載のプログラム。
(Appendix 12)
The display control unit corrects the image of the user as if the image was captured from the position of the display unit, and then displays the image on the display unit.
The program according to appendix 11, characterized in that

(付記13)
前記コンピュータを、前記ユーザとアイコンタクトが成立したことを知らせる報知手段としてさらに機能させる、
付記11又は12に記載のプログラム。
(Appendix 13)
Causing the computer to further function as a notification means for notifying that eye contact has been established with the user,
The program according to appendix 11 or 12.

(付記14)
前記コンピュータを、前記撮像部により撮像された画像内から複数のユーザが検出された際に、所定の条件を満たすユーザを判別する判別手段としてさらに機能させ、
前記表示制御手段は、前記所定の条件を満たすユーザの画像を表示させる、
付記11から13の何れか1つに記載のプログラム。
(Appendix 14)
Causing the computer to further function as a determination unit that determines a user who satisfies a predetermined condition when a plurality of users are detected from the image captured by the imaging unit,
The display control means displays an image of a user who satisfies the predetermined condition,
The program according to any one of appendices 11 to 13.

10…ロボット、100…顔、101(101L,101R)…表示装置(表示部)、102…カメラ(撮像部)、103…スピーカ、104…マイク、105…首駆動部、106…操作ボタン、107…センサ群、108…電源部、109…記憶部、110…制御部、200…首、300…胴体 10 ... Robot, 100 ... Face, 101 (101L, 101R) ... Display device (display unit), 102 ... Camera (imaging unit), 103 ... Speaker, 104 ... Microphone, 105 ... Neck drive unit, 106 ... Operation button, 107 ... sensor group, 108 ... power supply section, 109 ... storage section, 110 ... control section, 200 ... neck, 300 ... body

Claims (12)

顔を備えたロボットであって、
撮像部と、
前記顔の目の位置に配置される表示部と、
前記撮像部によって撮像された前記ロボットに正対するユーザの画像を前記表示部に表示させる表示制御部と、を備え、
前記表示制御部は、前記撮像部が撮像したユーザが特定の人物であるか否かを判別し、特定の人物である場合は、該人物の画像に所定の処理を施した画像を前記表示部に表示させる、
ことを特徴とするロボット。
A robot with a face,
An imaging unit,
A display unit arranged at the position of the eyes of the face,
A display control unit that causes the display unit to display an image of the user facing the robot captured by the image capturing unit ,
The display control unit determines whether or not the user imaged by the imaging unit is a specific person, and when the user is a specific person, an image obtained by performing a predetermined process on the image of the person is displayed by the display unit. To display
A robot characterized by that.
顔を備えたロボットであって、
撮像部と、
前記顔の目の位置に配置される表示部と、
前記撮像部によって撮像された前記ロボットに正対するユーザの画像を前記表示部に表示させる表示制御部と、
前記表示部に表示されている画像の被写体であるユーザが別のユーザに切り替わることを報知するユーザ切替報知部と、を備え、
前記ユーザ切替報知部は、前記表示部に目の瞬きを模した映像を表示させることにより前記報知を行う、
ことを特徴とするロボット。
A robot with a face,
An imaging unit,
A display unit arranged at the position of the eyes of the face,
A display control unit that causes the display unit to display an image of the user facing the robot captured by the image capturing unit;
E Bei and a user switching notification unit that the user is a subject of the image displayed on the display unit to notify that switches to another user,
The user switching notification unit performs the notification by displaying an image simulating the blink of eyes on the display unit,
It features and to Carlo bot that.
前記ユーザと正対するように前記顔の向きを調整する顔向調整部を備える、
ことを特徴とする請求項1又は2に記載のロボット。
A face orientation adjusting unit that adjusts the orientation of the face so as to face the user,
The robot according to claim 1 or 2 , characterized in that:
前記表示制御部は、前記ユーザの画像を前記表示部の位置から撮像されたように補正したうえで前記表示部に表示させる、
ことを特徴とする請求項1から3の何れか1項に記載のロボット。
The display control unit corrects the image of the user as if the image was captured from the position of the display unit and then displays the image on the display unit.
The robot according to any one of claims 1 to 3 , characterized in that:
前記表示制御部は、前記ユーザとアイコンタクトが成立したときに、前記ユーザの画像を前記表示部に表示させる、
ことを特徴とする請求項1からの何れか1項に記載のロボット。
The display control unit displays an image of the user on the display unit when eye contact with the user is established.
The robot according to any one of claims 1 to 4 , characterized in that:
前記ユーザとアイコンタクトが成立したことを知らせるアイコンタクト報知部をさらに備える、
ことを特徴とする請求項1からの何れか1項に記載のロボット。
An eye contact notifying unit for notifying that the eye contact with the user has been established,
Robot according to claim 1, any one of 5, characterized in that.
前記表示制御部は、前記撮像部によって撮像された画像内から複数のユーザが検出された場合に、前記ロボットと最もコミュニケーションしたいと想定されるユーザの画像を前記表示部に表示させる、
ことを特徴とする請求項1から6の何れか1項に記載のロボット。
The display control unit causes the display unit to display an image of a user who is most likely to communicate with the robot when a plurality of users are detected from the image captured by the imaging unit.
The robot according to any one of claims 1 to 6, characterized in that:
前記ロボットと最もコミュニケーションしたいと想定されるユーザの画像は、前記撮像部によって撮像された画像内で最も中央にあるユーザの画像、最もサイズの大きいユーザの画像、前記ロボットとの距離が最も近いユーザの画像、前記ロボットと最も視線の合うユーザの画像、音声の発信元に最も近い位置又は方向にあるユーザの画像の何れかである、
ことを特徴とする請求項7に記載のロボット。
The image of the user who is most likely to communicate with the robot is the image of the user in the center of the images captured by the imaging unit, the image of the largest user, and the user who is closest to the robot. Image of the user, the image of the user who has the closest line of sight with the robot, or the image of the user at the position or direction closest to the source of the sound.
The robot according to claim 7, wherein:
前記表示部に表示されている画像の被写体であるユーザが別のユーザに切り替わることを報知するユーザ切替報知部を備える、
ことを特徴とする請求項1及び請求項1に従属する請求項3から8の何れか1項に記載のロボット。
A user switching notification unit for notifying that the user who is the subject of the image displayed on the display unit switches to another user,
The robot according to any one of claims 1 to 3, which is dependent on claim 1 and is dependent on claim 1 .
前記ユーザ切替報知部は、前記表示部に目の瞬きを模した映像を表示させることにより前記報知を行う、
ことを特徴とする請求項9に記載のロボット。
The user switching notification unit performs the notification by displaying an image simulating the blink of eyes on the display unit,
The robot according to claim 9, wherein:
撮像部と顔の目の位置に配置される表示部とを備えたロボットを制御するコンピュータを、
前記撮像部に撮像させる撮像制御手段、
前記撮像された前記ロボットに正対するユーザの画像を前記表示部に表示させる表示制御手段、として機能させ
前記表示制御手段は、前記撮像部が撮像したユーザが特定の人物であるか否かを判別し、特定の人物である場合は、該人物の画像に所定の処理を施した画像を前記表示部に表示させる、
プログラム。
A computer that controls a robot including an imaging unit and a display unit arranged at the position of the eyes of the face,
Image pickup control means for making the image pickup section pick up an image,
Display control means for displaying right opposite the image of the user on the display unit on the imaged the robot, and then allowed to function,
The display control unit determines whether or not the user imaged by the imaging unit is a specific person, and if the user is a specific person, an image obtained by performing a predetermined process on the image of the person is displayed by the display unit. To display
program.
撮像部と顔の目の位置に配置される表示部とを備えたロボットを制御するコンピュータを、
前記撮像部に撮像させる撮像制御手段、
前記撮像された前記ロボットに正対するユーザの画像を前記表示部に表示させる表示制御手段、
前記表示部に表示されている画像の被写体であるユーザが別のユーザに切り替わることを報知するユーザ切替報知手段、として機能させ、
前記ユーザ切替報知手段は、前記表示部に目の瞬きを模した映像を表示させることにより前記報知を行う、
プログラム。
A computer that controls a robot including an imaging unit and a display unit arranged at the position of the eyes of the face,
Image pickup control means for making the image pickup section pick up an image,
Display control means for displaying the captured image of the user facing the robot on the display unit;
Causing the user, who is the subject of the image displayed on the display unit, to switch to another user.
The user switching notification means performs the notification by displaying an image simulating the blink of eyes on the display unit,
program.
JP2016053339A 2016-03-17 2016-03-17 Robots and programs Active JP6686583B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016053339A JP6686583B2 (en) 2016-03-17 2016-03-17 Robots and programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016053339A JP6686583B2 (en) 2016-03-17 2016-03-17 Robots and programs

Publications (2)

Publication Number Publication Date
JP2017164854A JP2017164854A (en) 2017-09-21
JP6686583B2 true JP6686583B2 (en) 2020-04-22

Family

ID=59909910

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016053339A Active JP6686583B2 (en) 2016-03-17 2016-03-17 Robots and programs

Country Status (1)

Country Link
JP (1) JP6686583B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020145417A1 (en) 2019-01-07 2020-07-16 엘지전자 주식회사 Robot
CN110861107B (en) * 2019-12-03 2020-12-22 北京海益同展信息科技有限公司 Service robot, display control method thereof, controller, and storage medium

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4072033B2 (en) * 2002-09-24 2008-04-02 本田技研工業株式会社 Reception guidance robot device
JP2004299006A (en) * 2003-03-31 2004-10-28 Sony Corp Robot device and face recognition state presenting method by robot
JP4549703B2 (en) * 2004-03-15 2010-09-22 富士フイルム株式会社 Interpersonal robot and interpersonal robot control program
JP2005279895A (en) * 2004-03-30 2005-10-13 Advanced Telecommunication Research Institute International Robot
JP2007044798A (en) * 2005-08-09 2007-02-22 Advanced Telecommunication Research Institute International Robot communication system
JP4949969B2 (en) * 2007-08-20 2012-06-13 国立大学法人埼玉大学 Communication robot and its operation method
JP2012175136A (en) * 2011-02-17 2012-09-10 Nec Corp Camera system and control method of the same

Also Published As

Publication number Publication date
JP2017164854A (en) 2017-09-21

Similar Documents

Publication Publication Date Title
EP2981070B1 (en) Information processing device, notification state control method, and program
US9838597B2 (en) Imaging device, imaging method, and program
JP4949969B2 (en) Communication robot and its operation method
JP6551507B2 (en) Robot control device, robot, robot control method and program
WO2014156389A1 (en) Information processing device, presentation state control method, and program
JP6203696B2 (en) robot
JP6565853B2 (en) Communication device
CN109262606B (en) Apparatus, method, recording medium, and robot
US10350761B2 (en) Communication device
JP7375770B2 (en) Information processing device, information processing method, and program
JP6686583B2 (en) Robots and programs
JP2014064248A (en) Image projection device and image projection method
JP2004034274A (en) Conversation robot and its operation method
CN108724206B (en) Interaction device, interaction method, interaction program, and robot
US20220024046A1 (en) Apparatus and method for determining interaction between human and robot
JP2016022537A (en) robot
JP2018175627A (en) Interaction device, interaction method, interaction program, and robot
WO2024004623A1 (en) Robot and robot control method
JP2015136030A (en) Imaging apparatus and electronic apparatus
JP5702037B1 (en) Imaging apparatus, imaging method, and program
JP7374581B2 (en) Robot, image processing method and program
WO2024053271A1 (en) Information processing device, program, and information processing method
JP4431757B2 (en) Robot system
US20200298412A1 (en) Communication system and method for controlling communication system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190220

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200121

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200122

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200225

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200303

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200316

R150 Certificate of patent or registration of utility model

Ref document number: 6686583

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150