JP6686583B2 - Robots and programs - Google Patents
Robots and programs Download PDFInfo
- Publication number
- JP6686583B2 JP6686583B2 JP2016053339A JP2016053339A JP6686583B2 JP 6686583 B2 JP6686583 B2 JP 6686583B2 JP 2016053339 A JP2016053339 A JP 2016053339A JP 2016053339 A JP2016053339 A JP 2016053339A JP 6686583 B2 JP6686583 B2 JP 6686583B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- user
- robot
- unit
- display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Toys (AREA)
- Manipulator (AREA)
Description
本発明は、ロボットの技術に関する。 The present invention relates to robot technology.
人間や動物等に模して人間と会話等のコミュニケーションをすることができるロボットが知られている。特許文献1には、このようなロボットとの会話での親近感を高めるために、ロボットの目の瞳を、カメラで撮像した画像等から判別したユーザの目の方向に制御する発明について記載されている。 A robot is known which can imitate a human being or an animal and can communicate with the human being such as a conversation. Patent Document 1 describes an invention in which the pupil of the robot's eyes is controlled in the direction of the user's eyes determined from an image captured by a camera or the like in order to enhance the familiarity in such a conversation with the robot. ing.
ロボットと円滑にコミュニケーションするには、人間側でも、コミュニケーションの相手としてロボットが自分を認識していることに気づくことが重要である。気づかない場合、ロボットが一方的に人間に話しかけているような状態となり、双方向のコミュニケーションが成立しないためである。特許文献1に記載されているロボットでは、ロボットの瞳がユーザの目を向くように動くだけであるため、ロボットが自分を認識していることにユーザが気づかない可能性がある。特に、ロボットが群衆の中の一人のユーザと会話をしようとする場合には、ロボットの目の向きから、ロボットが誰と会話しようとしているかをユーザが認識することは困難であり、ロボットと円滑にコミュニケーションできない虞がある。また、カメラの位置と造形上の目の位置とが異なるロボットの場合は、カメラで撮像した画像から判別したユーザの方向と、ロボットの造形上の目から見たユーザの方向(視線方向)とでずれが生じるため、ロボットに見つめられていることをユーザが十分に実感できない虞も考えられる。 In order to communicate smoothly with the robot, it is important for the human side to notice that the robot recognizes itself as a communication partner. This is because if the robot does not notice it, the robot will unilaterally talk to a human and bidirectional communication will not be established. In the robot described in Patent Document 1, since the pupil of the robot only moves so as to face the user's eyes, the user may not be aware that the robot recognizes itself. In particular, when the robot tries to talk with one user in the crowd, it is difficult for the user to recognize who the robot is talking to from the direction of the eyes of the robot, and it is difficult for the user to smoothly communicate with the robot. May not be able to communicate with. Further, in the case of a robot in which the position of the camera and the position of the eyes on the modeling are different, the direction of the user determined from the image captured by the camera and the direction of the user viewed from the modeling eyes of the robot (line of sight) As a result, there is a possibility that the user may not fully realize that he is gazing at the robot.
本発明は、上記実情に鑑みてなされたものであり、誰を認識しているかを容易に確認できるロボット及びプログラムを提供することを目的とする。 The present invention has been made in view of the above circumstances, and an object of the present invention is to provide a robot and a program capable of easily confirming who is being recognized.
上記目的を達成するため、本発明のロボットは、
顔を備えたロボットであって、
撮像部と、
前記顔の目の位置に配置される表示部と、
前記撮像部によって撮像された前記ロボットに正対するユーザの画像を前記表示部に表示させる表示制御部と、を備え、
前記表示制御部は、前記撮像部が撮像したユーザが特定の人物であるか否かを判別し、特定の人物である場合は、該人物の画像に所定の処理を施した画像を前記表示部に表示させる、
ことを特徴とする。
In order to achieve the above object, the robot of the present invention is
A robot with a face,
An imaging unit,
A display unit arranged at the position of the eyes of the face,
A display control unit that causes the display unit to display an image of the user facing the robot captured by the image capturing unit ,
The display control unit determines whether or not the user imaged by the imaging unit is a specific person, and when the user is a specific person, an image obtained by performing a predetermined process on the image of the person is displayed by the display unit. To display
It is characterized by
本発明によれば、ロボットが誰を認識しているかを容易に確認できる。 According to the present invention, it is possible to easily confirm who the robot recognizes.
以下、本発明の実施形態について、図面を参照しながら詳細に説明する。なお、図中同一または相当部分には同一符号を付す。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. The same or corresponding parts in the drawings are designated by the same reference numerals.
図1は、本発明の実施形態に係るロボット10の外観を模式的に示した図である。ロボット10は、図1に示すように顔100と首200と胴体300とを備えた人型である。ロボット10は、例えば、イベント会場の受付に設置され、来場者と会話して各種の案内をするために利用される。ロボット10の顔100には、2つの表示装置(表示部)101L、101Rと、カメラ(撮像部)102と、スピーカ103と、マイク104と、が設けられている。
FIG. 1 is a diagram schematically showing an appearance of a
2つの表示装置101L、101Rは、それぞれ、LCD(Liquid Crystal Display)等で構成され、顔100の左右の目に相当する位置に設けられている。また、2つの表示装置101L、101Rは、表示面が円形であり、これにより、ユーザにはロボット10の目(左目、右目)として認識される。なお、以後の説明では、2つの表示装置101L、101Rを区別しない場合は表示装置101とも表記する。
The two
また後述する表示制御処理により、ロボット10に正対しているユーザがいない場合、図2(A)に示すように表示装置101には、通常の目を模した画像が表示される。以下の説明では、このときの表示装置101の状態を「通常表示状態」とも表記する。
また、後述する表示制御処理により、ロボット10に正対しているユーザがいる場合、図2(B)に示すように表示装置101には、このユーザの顔が表示される。以下の説明では、このときの表示装置101の状態を「ユーザ表示状態」とも表記する。
Further, by the display control processing described later, when there is no user who is directly facing the
Further, when there is a user who is directly facing the
図1に戻り、カメラ102は、2つの表示装置101L、101Rの間の顔100の眉間に相当する位置に設けられており、後述する制御部110の制御の下、所定の時間毎(例えば、1/60秒毎)に撮像を行っている。カメラ102はロボット10の目として機能する。
Returning to FIG. 1, the
スピーカ103は、顔100の口に相当する位置に設けられている。スピーカ103は、後述する制御部110の制御の下、各種の音声を出力する。スピーカ103はロボット10の口としての機能を有する。
マイク104は、顔100の顎に相当する部分に設けられ、周囲の音声を集音する。マイク104はロボット10の耳として機能する。なお、ロボット10の首200や胴体300にマイク104を設けてもよい。
The
The
また、図3に示すように、その他の構成として、ロボット10は、首駆動部105と、操作ボタン106と、センサ群107と、電源部108と、記憶部109と、制御部110と、を備える。
Further, as shown in FIG. 3, as another configuration, the
首駆動部105は、複数のモータ等を備え、制御部110の指示に基づいて、人間の首と同様に、ロボット10の顔の向きを上下左右自在に制御する。
The
操作ボタン106は、ロボット10を操作するための各種のボタンであり、例えば、電源ボタンやモード切替ボタンなどを含む。
センサ群107は、加速度センサや障害物検知センサ等であり、ロボット10の姿勢制御や、安全性の確保のために使用される。
電源部108は、ロボット10に内蔵される充電池等であり、ロボット10の各部に電力を供給する。
The
The
The
記憶部109は、ハードディスクドライブやフラッシュメモリ等から構成され、制御部110によって実行されるプログラムやカメラ102が撮像した画像データや各種のデータを記憶する。
The
制御部110は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)などで構成される。制御部110は、RAMをワークスペースとして、記憶部109やROMに記憶されたプログラムを実行することにより、ロボット10全体を制御する。例えば、制御部110は、マイク104で集音したユーザの音声に反応してスピーカ103から所定の音声を出力させることにより、正対しているユーザとコミュニケーション(会話)する。なお、本実施形態において「コミュニケーション」とは会話を伴うものに限らないものとする。ユーザとロボット10とで見つめ合うこともコミュニケーションの一種である。
The control unit 110 includes a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), and the like. The control unit 110 controls the
また、制御部110は、カメラ102が撮像した画像から正対するユーザの有無を判別し、ユーザがいる場合はその画像をカメラ102に表示させる表示制御部として機能する。
In addition, the control unit 110 functions as a display control unit that determines from the image captured by the
また、制御部110は、首駆動部105を制御して、ユーザと正対するように顔100の向きを調整する顔向調整部として機能する。制御部110の行うこれらの処理の詳細については後述する。
The control unit 110 also functions as a face orientation adjustment unit that controls the
続いて、上述したロボット10の動作について説明する。ロボット10の制御部110は、電源がONの間、継続して、図4に示す表示制御処理を実行する。なお、制御部110は、表示制御処理とは独立して、ユーザと会話する処理等を実施しているものとする。
Next, the operation of the
まず、制御部110は、カメラ102が撮像した画像を取得する(ステップS101)。なお、以下の説明では、ステップS101で取得した画像を取得画像とも表記する。 First, the control unit 110 acquires an image captured by the camera 102 (step S101). Note that in the following description, the image acquired in step S101 is also referred to as an acquired image.
続いて、制御部110は、公知の手法を用いて、取得画像から所定サイズ以上の人間の顔を検出する顔検出処理を実施する(ステップS102)。例えば、制御部110は、人間の顔のテンプレートのデータを記憶部109に格納しておき、取得画像内でテンプレートに合致する部分を人間の顔として検出すればよい。
Subsequently, the control unit 110 uses a known method to perform a face detection process of detecting a human face of a predetermined size or more from the acquired image (step S102). For example, the control unit 110 may store the data of the human face template in the
続いて、制御部110は、顔検出処理でユーザの顔を検出できたか否かを判別する(ステップS103)。ユーザの顔を検出できなかった場合(ステップS103;No)、制御部110は、表示装置101を図2(A)に示すような通常表示状態に制御し(ステップS104)、ステップS101に処理は戻る。 Subsequently, the control unit 110 determines whether or not the face of the user has been detected by the face detection processing (step S103). When the face of the user cannot be detected (step S103; No), the control unit 110 controls the display device 101 to the normal display state as shown in FIG. 2A (step S104), and the process proceeds to step S101. Return.
一方、ユーザの顔を検出できた場合(ステップS103;Yes)、制御部110は、検出した顔にロボット10が正対しているか否かを判別する(ステップS105)。例えば、制御部110は、検出した顔が取得画像の中央部分にある場合に正対していると判別すればよい。
On the other hand, when the user's face can be detected (step S103; Yes), the control unit 110 determines whether or not the
ロボット10がユーザの顔と正対していないと判別した場合(ステップS105;No)、制御部110は、首駆動部105を制御して、ユーザの顔と正対するように顔100(カメラ102)の向きを調整し(ステップS106)、ステップS101に処理は戻る。
When it is determined that the
一方、ロボット10がユーザの顔と正対していると判別した場合(ステップS105;Yes)、制御部110は、表示装置101の表示面のサイズと一致するように、取得画像から顔部分を円形に切り出す(トリミングする)(ステップS107)。なお、ステップS107で切り出した画像を顔画像とも表記する。
On the other hand, when it is determined that the
続いて、制御部110は、切り出した顔画像を鏡像反転(左右反転)させる(ステップS108)。そして、制御部110は、図2(B)に示すように、鏡像反転させた顔画像を左右の表示装置101L、101Rに表示させ(ステップS109)、ステップS101に処理は戻る。なお、制御部110は、ステップS109で顔画像を表示させた後、スピーカ103を制御して、この顔画像のユーザに話しかける等の処理を行ってもよい。
Subsequently, the control unit 110 performs mirror image inversion (horizontal inversion) of the cut out face image (step S108). Then, as shown in FIG. 2B, the control unit 110 causes the mirror-inverted face images to be displayed on the left and
このように、本実施形態によれば、ロボット10の顔100の目に位置する表示装置101に、カメラ102によって撮像されたロボット10に正対するユーザの画像が表示される。そのため、このユーザや他のユーザは、この表示からロボット10が誰を認識しているかを容易に知ることができ、ロボット10と円滑にコミュニケーションすることが可能となる。例えば、ロボット10が群衆の中の一人のユーザと会話をしようとする場合であっても、ロボット10が誰と会話しようとしているかはロボット10の目(表示装置101)を確認するだけで容易に知ることができる。
また、本実施形態によれば、正対しているユーザがロボット10の目(表示装置101)に表示されるため、カメラ102の位置と造形上の目の位置とが異なるロボット10であっても、視線方向のずれの影響を受けずに、ユーザは、自分が見つめられていることを十分に実感することができる。
As described above, according to the present embodiment, the image of the user facing the
Further, according to the present embodiment, since the user who is directly facing is displayed on the eyes (display device 101) of the
また、本実施形態によれば、カメラ102によって撮像された画像からユーザを検出できても、そのユーザがロボット10と正対していない場合は、正対するようにロボット10の顔100の向きが調整される。そのため、ユーザは正対しているロボット10と円滑にコミュニケーションすることが可能となる。
Further, according to the present embodiment, even if the user can be detected from the image captured by the
なお、本発明は、上記実施形態に限定されず、本発明の要旨を逸脱しない部分での種々の修正は勿論可能である。 It should be noted that the present invention is not limited to the above-described embodiment, and various modifications can of course be made without departing from the spirit of the present invention.
(変形例1)
例えば、上記実施形態では、表示制御処理において、制御部110は、カメラ102で撮像したユーザの顔画像をそのまま表示装置101に表示したが、カメラ102の画角やフォーカス距離等のパラメータや表示装置101とカメラ102との間の相対位置情報等に基づいて、切り出した顔画像をロボット10の目(表示装置101)の位置から撮像されたように補正してから表示してもよい。なお、この場合、左目(表示装置101L)の位置から撮像されたように補正された顔画像と、右目(表示装置101R)の位置から撮像されたように補正された顔画像との2種類の顔画像が作成されて別々に表示されることとなる。このようにすることで、表示装置101L、101Rには、ロボット10の左右の目からユーザを見たような顔画像が表示されるため、ユーザは、ロボット10に見つめられていることをより強く実感することができる。
(Modification 1)
For example, in the above-described embodiment, in the display control process, the control unit 110 directly displays the face image of the user captured by the
(変形例2)
例えば、上記実施形態では、撮像したユーザの顔画像をそのまま表示装置101に表示したが、顔をデフォルメ処理した画像を表示させたり、減色処理した画像(例えば、モノクロ画像)を表示したりしてもよい。また、撮像したユーザが特定の人物であるか否かを判別し、特定の人物である場合には、その人物に特有の処理を施した画像を表示装置101に表示してもよい。
(Modification 2)
For example, in the above-described embodiment, the captured face image of the user is displayed on the display device 101 as it is, but an image obtained by deforming the face is displayed, or an image subjected to color reduction processing (for example, a monochrome image) is displayed. Good. Further, it may be determined whether or not the imaged user is a specific person, and when the user is a specific person, an image subjected to processing specific to the person may be displayed on the display device 101.
この場合、特定の人物の顔を識別するための情報(例えば、その人物の顔の画像データ)と、処理の内容とを対応付けたテーブルを記憶部109に記憶させておく。そして、図4に示す表示制御処理において、取得画像から切り出した顔画像を鏡像反転させた後(ステップS108)、図5に処理は移り、制御部110は、公知の手法を用いて、顔画像の人物がテーブルで規定されている特定の人物と同一であるか否かを判別する(ステップS201)。同一人物で無いと判別した場合(ステップS201;No)、図4に処理は移り、制御部110は、鏡像反転させた顔画像をそのまま表示させる(ステップS109)。一方、同一人物であると判別した場合(ステップS201;Yes)、制御部110は、テーブルを参照して所定の処理を顔画像に施す(ステップS202)。そして、図4に処理は移り、制御部110は、処理を施した画像を表示装置101に表示させる(ステップS109)。
In this case, the
図6は、このような処理が施された顔画像が表示装置101に表示されたロボット10の顔を示す図である。この例では、星マークP1を重畳する処理が施された顔画像が表示装置101に表示されている。なお、別のマークを重畳して表示させたり、通常と背景の色が異なる顔画像を表示させたり、特定のメッセージが付された顔画像を表示させたりしてもよく、種々の処理を顔画像に施してよい。また、制御部110は、特定人物を検出した場合に、その人物の顔画像に替えて、予め準備したその人物用のアイコン画像等を表示装置101に表示させてもよい。
FIG. 6 is a diagram showing the face of the
このようにすることで、特定の人物がロボット10と正対した場合には、その人物に特有の処理が施された顔画像が表示されるため、より親近感の高いロボット10とのコミュニケーションが実現できる。
By doing this, when a specific person faces the
(変形例3)
また、上述した図4に示す表示制御処理の顔検出処理(ステップS102)で取得画像から複数の顔を検出できる場合も考えられる。この場合、ロボット10の制御部110は、取得画像内で最も中央にある顔、最もサイズの大きい顔、ロボット10との距離が最も近い顔、ロボット10と最も視線の合う顔、マイク104で集音した音声の発信元に最も近い位置や方向にある顔等を検出してステップS103以降の処理を実施し、顔画像を表示装置101に表示させてもよい。
(Modification 3)
It is also conceivable that a plurality of faces can be detected from the acquired image by the face detection processing (step S102) of the display control processing shown in FIG. 4 described above. In this case, the control unit 110 of the
このようにすることで、画像内から複数のユーザの顔が検出できた場合に最もロボット10とコミュニケーションしたいと想定されるユーザの顔が表示装置101に表示されるため、より円滑なロボット10とコミュニケーションすることが可能となる。
By doing so, when the faces of a plurality of users can be detected from the image, the faces of the users who are most likely to communicate with the
(変形例4)
例えば、表示制御処理において制御部110(ユーザ切替報知部)が、表示装置101に表示中の被写体であるユーザが別のユーザに切り替わることを報知してもよい。
(Modification 4)
For example, in the display control process, the control unit 110 (user switching notification unit) may notify that the user who is the subject being displayed on the display device 101 is switched to another user.
この場合、図4に示す表示制御処理で取得画像から切り出した顔画像を鏡像反転させた後(ステップS108)、図7に処理は移り、制御部110は、この顔画像の被写体であるユーザが、現在表示している画像の被写体と異なっているか否かを判別する(ステップS301)。例えば、制御部110は、今回切り出した顔画像と、現在表示装置101に表示中の画像との類似度を公知の手法により求め、閾値以下である場合に異なっていると判別すればよい。 In this case, after the face image cut out from the acquired image is mirror-inverted by the display control process shown in FIG. 4 (step S108), the process proceeds to FIG. Then, it is determined whether or not the subject of the image currently displayed is different (step S301). For example, the control unit 110 may determine the similarity between the face image cut out this time and the image currently displayed on the display device 101 by a known method, and determine that the similarity is different when the facial image is equal to or less than the threshold.
そして、被写体のユーザが異なっていないと判別した場合(ステップS301;No)、図4に処理は移り、制御部110は、鏡像反転させた顔画像をそのまま表示させる(ステップS109)。 When it is determined that the users of the subjects are not different (step S301; No), the process proceeds to FIG. 4, and the control unit 110 displays the mirror-image-inverted face image as it is (step S109).
一方、被写体のユーザが異なっていると判別した場合(ステップS301;Yes)、制御部110は、目の瞬きを模した映像を表示装置101に表示させる(ステップS302)。そして、図4に処理は移り、制御部110は、顔画像を表示装置101に表示させる(ステップS109)。なお、このとき表示される顔画像では、これまで表示していたユーザ(又は通常表示状態の画像)とは別のユーザが被写体となっている。 On the other hand, when it is determined that the users of the subjects are different (step S301; Yes), the control unit 110 causes the display device 101 to display an image simulating the blink of eyes (step S302). Then, the processing moves to FIG. 4, and the control unit 110 displays the face image on the display device 101 (step S109). In the face image displayed at this time, the user different from the user (or the image in the normal display state) that has been displayed until now is the subject.
このようにすることで、ユーザは、ロボット10の目(表示装置101)の瞬きから表示される人物が切り替わるタイミングを容易に知ることができるため、ロボット10とより円滑にコミュニケーションすることが可能となる。なお、制御部110は、瞬きの代わりに特定の音声をスピーカ103から発生させたりしてもよく、人物が切り替わるタイミングを報知する手法は種々の手法が採用可能である。
By doing so, the user can easily know the timing at which the person displayed from the blink of the eyes (display device 101) of the
(変形例5)
上述した実施形態では、カメラ102が撮像した画像からユーザの顔が検出できた場合に顔画像を表示したが、ユーザの視線方向も考慮に入れて画像を表示してもよい。
(Modification 5)
In the above-described embodiment, the face image is displayed when the user's face can be detected from the image captured by the
例えば、表示制御処理において、制御部110は、公知の手法により取得画像を解析してユーザの視線方向を取得し、ユーザがロボット10を見ているか否かを判別する。そして、制御部110は、ユーザがロボット10を見ていない場合は顔画像を表示装置101に表示せず、ユーザがロボット10を見ている場合(アイコンタクトが成立している場合)に表示装置101に顔画像を表示させてもよい。
For example, in the display control process, the control unit 110 analyzes the acquired image by a known method to acquire the gaze direction of the user, and determines whether the user is looking at the
若しくは、制御部110(アイコンタクト報知部)は、ユーザの視線がロボット10に切り替わってアイコンタクトが成立した際に、スピーカ103から特定の音声を出力させたり、表示装置101の表示を点滅させたり、眉毛などを備えて表情を変化することができる機構を備えたロボット10の場合は表情を変化させたりする等して、その旨を報知してもよい。
Alternatively, the control unit 110 (eye contact notification unit) outputs a specific sound from the
このようにユーザの視線を考慮に入れた画像表示をすることで、ロボット10とのアイコンタクトをユーザに促す効果が期待でき、ロボット10とより円滑にコミュニケーションすることが可能となる。
By thus displaying the image in consideration of the user's line of sight, the effect of prompting the user to make eye contact with the
(変形例6)
また、車輪等の駆動機構を備えて移動することができるようにロボット10を構成してもよい。この場合、制御部110は、表示制御処理の顔検出処理(図4、ステップS102)で検出した顔との距離を公知の手法により求める。そして、制御部110は、ユーザとの距離が所定距離以内(例えば、2m以内)になるように、駆動機構を制御してもよい。
(Modification 6)
Further, the
(変形例7)
また、上記実施形態では、ユーザの顔部分の画像(顔画像)を表示装置101に表示させたが、ユーザの上半身の画像や全身画像等を表示装置101に表示させてもよい。
(Modification 7)
Further, in the above-described embodiment, the image of the face portion of the user (face image) is displayed on the display device 101, but an image of the upper half of the user's body, a full-body image, or the like may be displayed on the display device 101.
(変形例8)
また、上記実施形態では、左右の2つの目に相当する2つの表示装置101L、101Rを備えたロボット10を示したが、1個のみの目や3個以上の目を有するロボットにも本発明は適用可能である。また、ロボット10が行うユーザとのコミュニケーションは音声会話に限定されず、胴体等に設けたモニターにメッセージを表示してユーザとコミュニケーションするタイプのロボット等にも本発明は適用可能である。また、介護用のロボットや、ペットロボット等にも本発明は適用可能である。また、図1に示したような人型に限らず、犬型や猫型のような動物を模したロボット等にも本発明は適用可能である。
(Modification 8)
Further, in the above embodiment, the
また、この発明のロボット10の各機能は、通常のPC(Personal Computer)等のコンピュータによっても実施することができる。具体的には、上記実施形態では、ロボット10が行う表示制御処理のプログラムが、記憶部109や制御部110のROMに予め記憶されているものとして説明した。しかし、このプログラムを、フレキシブルディスク、CD−ROM(Compact Disc Read Only Memory)、DVD(Digital Versatile Disc)及びMO(Magneto Optical Disc)等のコンピュータ読み取り可能な記録媒体に格納して配布し、そのプログラムをコンピュータにインストールすることにより、上述の各機能を実現することができるコンピュータを構成してもよい。
Further, each function of the
本発明は、本発明の広義の精神と範囲を逸脱することなく、様々な実施形態及び変形が可能とされるものである。また、上述した実施形態は、本発明を説明するためのものであり、本発明の範囲を限定するものではない。つまり、本発明の範囲は、実施形態ではなく、請求の範囲によって示される。そして、請求の範囲内及びそれと同等の発明の意義の範囲内で施される様々な変形が、本発明の範囲内とみなされる。 The present invention allows various embodiments and modifications without departing from the broad spirit and scope of the present invention. Further, the above-described embodiment is for explaining the present invention, and does not limit the scope of the present invention. That is, the scope of the present invention is indicated by the scope of the claims, not the embodiments. Various modifications made within the scope of the claims and the scope of the invention equivalent thereto are considered to be within the scope of the present invention.
以上、本発明の好ましい実施形態について説明したが、本発明は係る特定の実施形態に限定されるものではなく、本発明には、特許請求の範囲に記載された発明とその均等の範囲が含まれる。以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。 Although the preferred embodiments of the present invention have been described above, the present invention is not limited to the specific embodiments, and the present invention includes the inventions described in the claims and their equivalents. Be done. The inventions described in the initial claims of the present application will be additionally described below.
(付記1)
顔を備えたロボットであって、
撮像部と、
前記顔の目の位置に配置される表示部と、
前記撮像部によって撮像された前記ロボットに正対するユーザの画像を前記表示部に表示させる表示制御部と、
を備えることを特徴とするロボット。
(Appendix 1)
A robot with a face,
An imaging unit,
A display unit arranged at the position of the eyes of the face,
A display control unit that causes the display unit to display an image of the user facing the robot captured by the image capturing unit;
A robot characterized by comprising.
(付記2)
前記ユーザと正対するように前記顔の向きを調整する顔向調整部を備える、
ことを特徴とする付記1に記載のロボット。
(Appendix 2)
A face orientation adjusting unit that adjusts the orientation of the face so as to face the user,
The robot according to appendix 1, wherein:
(付記3)
前記表示制御部は、前記ユーザの画像を前記表示部の位置から撮像されたように補正したうえで前記表示部に表示させる、
ことを特徴とする付記1又は2に記載のロボット。
(Appendix 3)
The display control unit corrects the image of the user as if the image was captured from the position of the display unit and then displays the image on the display unit.
The robot according to appendix 1 or 2, characterized in that.
(付記4)
前記表示制御部は、前記ユーザとアイコンタクトが成立したときに、前記ユーザの画像を前記表示部に表示させる、
ことを特徴とする付記1から3の何れか1つに記載のロボット。
(Appendix 4)
The display control unit displays an image of the user on the display unit when eye contact with the user is established.
The robot according to any one of appendices 1 to 3, characterized in that.
(付記5)
前記ユーザとアイコンタクトが成立したことを知らせるアイコンタクト報知部をさらに備える、
ことを特徴とする付記1から4の何れか1つに記載のロボット。
(Appendix 5)
An eye contact notifying unit for notifying that the eye contact with the user has been established,
The robot according to any one of appendices 1 to 4, characterized in that.
(付記6)
前記表示制御部は、前記撮像部が撮像したユーザが特定の人物であるか否かを判別し、特定の人物である場合は、該人物の画像に所定の処理を施した画像を前記表示部に表示させる、
ことを特徴とする付記1から5の何れか1つに記載のロボット。
(Appendix 6)
The display control unit determines whether or not the user imaged by the imaging unit is a specific person, and when the user is a specific person, an image obtained by performing a predetermined process on the image of the person is displayed by the display unit. To display
6. The robot according to any one of appendices 1 to 5, characterized in that.
(付記7)
前記表示制御部は、前記撮像部によって撮像された画像内から複数のユーザが検出された場合に、前記ロボットと最もコミュニケーションしたいと想定されるユーザの画像を前記表示部に表示させる、
ことを特徴とする付記1から6の何れか1つに記載のロボット。
(Appendix 7)
The display control unit causes the display unit to display an image of a user who is most likely to communicate with the robot when a plurality of users are detected from the image captured by the imaging unit.
7. The robot according to any one of appendices 1 to 6, characterized in that.
(付記8)
前記ロボットと最もコミュニケーションしたいと想定されるユーザの画像は、前記撮像部によって撮像された画像内で最も中央にあるユーザの画像、最もサイズの大きいユーザの画像、前記ロボットとの距離が最も近いユーザの画像、前記ロボットと最も視線の合うユーザの画像、音声の発信元に最も近い位置又は方向にあるユーザの画像の何れかである、
ことを特徴とする付記7に記載のロボット。
(Appendix 8)
The image of the user who is most likely to communicate with the robot is the image of the user in the center of the images captured by the imaging unit, the image of the largest user, and the user who is closest to the robot. Image of the user, the image of the user who has the closest line of sight with the robot, or the image of the user at the position or direction closest to the source of the sound.
The robot according to appendix 7, characterized in that.
(付記9)
前記表示部に表示されている画像の被写体であるユーザが別のユーザに切り替わることを報知するユーザ切替報知部を備える、
ことを特徴とする付記1から8の何れか1つに記載のロボット。
(Appendix 9)
A user switching notification unit for notifying that the user who is the subject of the image displayed on the display unit switches to another user,
9. The robot according to any one of appendices 1 to 8, characterized in that.
(付記10)
前記ユーザ切替報知部は、前記表示部に目の瞬きを模した映像を表示させることにより前記報知を行う、
ことを特徴とする付記9に記載のロボット。
(Appendix 10)
The user switching notification unit performs the notification by displaying an image simulating the blink of eyes on the display unit,
The robot according to appendix 9, characterized in that.
(付記11)
撮像部と顔の目の位置に配置される表示部とを備えたロボットを制御するコンピュータを、
前記撮像部に撮像させる撮像制御手段、
前記撮像された前記ロボットに正対するユーザの画像を前記表示部に表示させる表示制御手段、
として機能させるプログラム。
(Appendix 11)
A computer that controls a robot including an imaging unit and a display unit arranged at the position of the eyes of the face,
Image pickup control means for making the image pickup section pick up an image,
Display control means for displaying the captured image of the user facing the robot on the display unit;
A program to function as.
(付記12)
前記表示制御手段は、前記ユーザの画像を前記表示部の位置から撮像されたように補正したうえで前記表示部に表示させる、
ことを特徴とする付記11に記載のプログラム。
(Appendix 12)
The display control unit corrects the image of the user as if the image was captured from the position of the display unit, and then displays the image on the display unit.
The program according to appendix 11, characterized in that
(付記13)
前記コンピュータを、前記ユーザとアイコンタクトが成立したことを知らせる報知手段としてさらに機能させる、
付記11又は12に記載のプログラム。
(Appendix 13)
Causing the computer to further function as a notification means for notifying that eye contact has been established with the user,
The program according to appendix 11 or 12.
(付記14)
前記コンピュータを、前記撮像部により撮像された画像内から複数のユーザが検出された際に、所定の条件を満たすユーザを判別する判別手段としてさらに機能させ、
前記表示制御手段は、前記所定の条件を満たすユーザの画像を表示させる、
付記11から13の何れか1つに記載のプログラム。
(Appendix 14)
Causing the computer to further function as a determination unit that determines a user who satisfies a predetermined condition when a plurality of users are detected from the image captured by the imaging unit,
The display control means displays an image of a user who satisfies the predetermined condition,
The program according to any one of appendices 11 to 13.
10…ロボット、100…顔、101(101L,101R)…表示装置(表示部)、102…カメラ(撮像部)、103…スピーカ、104…マイク、105…首駆動部、106…操作ボタン、107…センサ群、108…電源部、109…記憶部、110…制御部、200…首、300…胴体 10 ... Robot, 100 ... Face, 101 (101L, 101R) ... Display device (display unit), 102 ... Camera (imaging unit), 103 ... Speaker, 104 ... Microphone, 105 ... Neck drive unit, 106 ... Operation button, 107 ... sensor group, 108 ... power supply section, 109 ... storage section, 110 ... control section, 200 ... neck, 300 ... body
Claims (12)
撮像部と、
前記顔の目の位置に配置される表示部と、
前記撮像部によって撮像された前記ロボットに正対するユーザの画像を前記表示部に表示させる表示制御部と、を備え、
前記表示制御部は、前記撮像部が撮像したユーザが特定の人物であるか否かを判別し、特定の人物である場合は、該人物の画像に所定の処理を施した画像を前記表示部に表示させる、
ことを特徴とするロボット。 A robot with a face,
An imaging unit,
A display unit arranged at the position of the eyes of the face,
A display control unit that causes the display unit to display an image of the user facing the robot captured by the image capturing unit ,
The display control unit determines whether or not the user imaged by the imaging unit is a specific person, and when the user is a specific person, an image obtained by performing a predetermined process on the image of the person is displayed by the display unit. To display
A robot characterized by that.
撮像部と、
前記顔の目の位置に配置される表示部と、
前記撮像部によって撮像された前記ロボットに正対するユーザの画像を前記表示部に表示させる表示制御部と、
前記表示部に表示されている画像の被写体であるユーザが別のユーザに切り替わることを報知するユーザ切替報知部と、を備え、
前記ユーザ切替報知部は、前記表示部に目の瞬きを模した映像を表示させることにより前記報知を行う、
ことを特徴とするロボット。 A robot with a face,
An imaging unit,
A display unit arranged at the position of the eyes of the face,
A display control unit that causes the display unit to display an image of the user facing the robot captured by the image capturing unit;
E Bei and a user switching notification unit that the user is a subject of the image displayed on the display unit to notify that switches to another user,
The user switching notification unit performs the notification by displaying an image simulating the blink of eyes on the display unit,
It features and to Carlo bot that.
ことを特徴とする請求項1又は2に記載のロボット。 A face orientation adjusting unit that adjusts the orientation of the face so as to face the user,
The robot according to claim 1 or 2 , characterized in that:
ことを特徴とする請求項1から3の何れか1項に記載のロボット。 The display control unit corrects the image of the user as if the image was captured from the position of the display unit and then displays the image on the display unit.
The robot according to any one of claims 1 to 3 , characterized in that:
ことを特徴とする請求項1から4の何れか1項に記載のロボット。 The display control unit displays an image of the user on the display unit when eye contact with the user is established.
The robot according to any one of claims 1 to 4 , characterized in that:
ことを特徴とする請求項1から5の何れか1項に記載のロボット。 An eye contact notifying unit for notifying that the eye contact with the user has been established,
Robot according to claim 1, any one of 5, characterized in that.
ことを特徴とする請求項1から6の何れか1項に記載のロボット。 The display control unit causes the display unit to display an image of a user who is most likely to communicate with the robot when a plurality of users are detected from the image captured by the imaging unit.
The robot according to any one of claims 1 to 6, characterized in that:
ことを特徴とする請求項7に記載のロボット。 The image of the user who is most likely to communicate with the robot is the image of the user in the center of the images captured by the imaging unit, the image of the largest user, and the user who is closest to the robot. Image of the user, the image of the user who has the closest line of sight with the robot, or the image of the user at the position or direction closest to the source of the sound.
The robot according to claim 7, wherein:
ことを特徴とする請求項1及び請求項1に従属する請求項3から8の何れか1項に記載のロボット。 A user switching notification unit for notifying that the user who is the subject of the image displayed on the display unit switches to another user,
The robot according to any one of claims 1 to 3, which is dependent on claim 1 and is dependent on claim 1 .
ことを特徴とする請求項9に記載のロボット。 The user switching notification unit performs the notification by displaying an image simulating the blink of eyes on the display unit,
The robot according to claim 9, wherein:
前記撮像部に撮像させる撮像制御手段、
前記撮像された前記ロボットに正対するユーザの画像を前記表示部に表示させる表示制御手段、として機能させ、
前記表示制御手段は、前記撮像部が撮像したユーザが特定の人物であるか否かを判別し、特定の人物である場合は、該人物の画像に所定の処理を施した画像を前記表示部に表示させる、
プログラム。 A computer that controls a robot including an imaging unit and a display unit arranged at the position of the eyes of the face,
Image pickup control means for making the image pickup section pick up an image,
Display control means for displaying right opposite the image of the user on the display unit on the imaged the robot, and then allowed to function,
The display control unit determines whether or not the user imaged by the imaging unit is a specific person, and if the user is a specific person, an image obtained by performing a predetermined process on the image of the person is displayed by the display unit. To display
program.
前記撮像部に撮像させる撮像制御手段、
前記撮像された前記ロボットに正対するユーザの画像を前記表示部に表示させる表示制御手段、
前記表示部に表示されている画像の被写体であるユーザが別のユーザに切り替わることを報知するユーザ切替報知手段、として機能させ、
前記ユーザ切替報知手段は、前記表示部に目の瞬きを模した映像を表示させることにより前記報知を行う、
プログラム。 A computer that controls a robot including an imaging unit and a display unit arranged at the position of the eyes of the face,
Image pickup control means for making the image pickup section pick up an image,
Display control means for displaying the captured image of the user facing the robot on the display unit;
Causing the user, who is the subject of the image displayed on the display unit, to switch to another user.
The user switching notification means performs the notification by displaying an image simulating the blink of eyes on the display unit,
program.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016053339A JP6686583B2 (en) | 2016-03-17 | 2016-03-17 | Robots and programs |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016053339A JP6686583B2 (en) | 2016-03-17 | 2016-03-17 | Robots and programs |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017164854A JP2017164854A (en) | 2017-09-21 |
JP6686583B2 true JP6686583B2 (en) | 2020-04-22 |
Family
ID=59909910
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016053339A Active JP6686583B2 (en) | 2016-03-17 | 2016-03-17 | Robots and programs |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6686583B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020145417A1 (en) | 2019-01-07 | 2020-07-16 | 엘지전자 주식회사 | Robot |
CN110861107B (en) * | 2019-12-03 | 2020-12-22 | 北京海益同展信息科技有限公司 | Service robot, display control method thereof, controller, and storage medium |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4072033B2 (en) * | 2002-09-24 | 2008-04-02 | 本田技研工業株式会社 | Reception guidance robot device |
JP2004299006A (en) * | 2003-03-31 | 2004-10-28 | Sony Corp | Robot device and face recognition state presenting method by robot |
JP4549703B2 (en) * | 2004-03-15 | 2010-09-22 | 富士フイルム株式会社 | Interpersonal robot and interpersonal robot control program |
JP2005279895A (en) * | 2004-03-30 | 2005-10-13 | Advanced Telecommunication Research Institute International | Robot |
JP2007044798A (en) * | 2005-08-09 | 2007-02-22 | Advanced Telecommunication Research Institute International | Robot communication system |
JP4949969B2 (en) * | 2007-08-20 | 2012-06-13 | 国立大学法人埼玉大学 | Communication robot and its operation method |
JP2012175136A (en) * | 2011-02-17 | 2012-09-10 | Nec Corp | Camera system and control method of the same |
-
2016
- 2016-03-17 JP JP2016053339A patent/JP6686583B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2017164854A (en) | 2017-09-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP2981070B1 (en) | Information processing device, notification state control method, and program | |
US9838597B2 (en) | Imaging device, imaging method, and program | |
JP4949969B2 (en) | Communication robot and its operation method | |
JP6551507B2 (en) | Robot control device, robot, robot control method and program | |
WO2014156389A1 (en) | Information processing device, presentation state control method, and program | |
JP6203696B2 (en) | robot | |
JP6565853B2 (en) | Communication device | |
CN109262606B (en) | Apparatus, method, recording medium, and robot | |
US10350761B2 (en) | Communication device | |
JP7375770B2 (en) | Information processing device, information processing method, and program | |
JP6686583B2 (en) | Robots and programs | |
JP2014064248A (en) | Image projection device and image projection method | |
JP2004034274A (en) | Conversation robot and its operation method | |
CN108724206B (en) | Interaction device, interaction method, interaction program, and robot | |
US20220024046A1 (en) | Apparatus and method for determining interaction between human and robot | |
JP2016022537A (en) | robot | |
JP2018175627A (en) | Interaction device, interaction method, interaction program, and robot | |
WO2024004623A1 (en) | Robot and robot control method | |
JP2015136030A (en) | Imaging apparatus and electronic apparatus | |
JP5702037B1 (en) | Imaging apparatus, imaging method, and program | |
JP7374581B2 (en) | Robot, image processing method and program | |
WO2024053271A1 (en) | Information processing device, program, and information processing method | |
JP4431757B2 (en) | Robot system | |
US20200298412A1 (en) | Communication system and method for controlling communication system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190220 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200121 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200122 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200225 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200303 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200316 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6686583 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |