JP2009056530A - Legged mobile robot - Google Patents

Legged mobile robot Download PDF

Info

Publication number
JP2009056530A
JP2009056530A JP2007224756A JP2007224756A JP2009056530A JP 2009056530 A JP2009056530 A JP 2009056530A JP 2007224756 A JP2007224756 A JP 2007224756A JP 2007224756 A JP2007224756 A JP 2007224756A JP 2009056530 A JP2009056530 A JP 2009056530A
Authority
JP
Japan
Prior art keywords
brightness
luminance
incident light
base
mobile robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2007224756A
Other languages
Japanese (ja)
Inventor
Takamichi Shimada
貴通 嶋田
Taro Yokoyama
太郎 横山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2007224756A priority Critical patent/JP2009056530A/en
Priority to US12/230,130 priority patent/US8406505B2/en
Priority to DE602008000660T priority patent/DE602008000660D1/en
Priority to EP08015060A priority patent/EP2030740B1/en
Publication of JP2009056530A publication Critical patent/JP2009056530A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Exposure Control For Cameras (AREA)
  • Manipulator (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a legged mobile robot configured to take an image of a target with an appropriate brightness value by identifying the direction of a light source when the highly bright light source such as solar light comes into a mounted camera (imaging element). <P>SOLUTION: When an imaged region with high brightness taken by the highly bright incident light is present on an image picked up by the imaging element (CCD camera) for taking the image by the light incident from surroundings including the target, identification of the incident direction for identifying the direction of the highly bright incident light is carried out by driving a hand or the like (S10 to S14). In addition, brightness reduction for reducing the brightness of the highly bright imaged region is carried out (S16 to S36). <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

この発明は脚式移動ロボットに関し、より具体的には視覚センサとしてのCCDカメラ(撮像素子)を備えると共に、それに太陽光などの高輝度の光源が写り込まれるときも撮影対象を適切な輝度値で撮影するようにした脚式移動ロボットに関する。   The present invention relates to a legged mobile robot, and more specifically, includes a CCD camera (imaging device) as a visual sensor, and sets an appropriate luminance value even when a high-intensity light source such as sunlight is reflected on the camera. This is related to a legged mobile robot that can be used for shooting.

従来、例えば下記の特許文献1において、太陽光などの高輝度の光源がカメラの画角内に写り込まれるとき、撮像素子面上に内部反射で発生するゴーストの位置、形状などを予測し、撮影画像のどの部分がゴーストか判定し、判定されたゴースト部分を撮影者の指定により、あるいは自動的に補正(低減処理)する技術が提案されている。
特開2006−129084号公報
Conventionally, for example, in Patent Document 1 below, when a high-intensity light source such as sunlight is reflected within the angle of view of a camera, the position, shape, and the like of a ghost generated by internal reflection on the image sensor surface are predicted, There has been proposed a technique for determining which part of a photographed image is a ghost, and correcting (reducing processing) the determined ghost part by designation of a photographer or automatically.
JP 2006-129084 A

特許文献1記載の技術はいわゆるデジタルカメラやビデオカメラであり、ユーザが人などの撮影対象に向けて操作して撮影するカメラについての技術であるが、その種のカメラを脚式移動ロボットなどの移動体に搭載して視覚センサとして使用することがある。   The technology described in Patent Document 1 is a so-called digital camera or video camera, which is a technology related to a camera that a user operates to shoot a subject such as a person, and such a camera is a legged mobile robot or the like. It may be mounted on a moving body and used as a visual sensor.

そのような場合、図14に示す如く、太陽光やスポットライトなどの高輝度光源が撮像素子に撮像されるとき、光源の影響で暗部にいる本来撮影したい人などの撮影対象の輝度値が潰れてしまい、撮影対象を特定できないことがある。図14で実際には人は画面に右側に存在する。   In such a case, as shown in FIG. 14, when a high-intensity light source such as sunlight or a spotlight is imaged on the image sensor, the luminance value of a subject to be photographed such as a person who wants to shoot in a dark part is destroyed due to the light source In some cases, the subject to be photographed cannot be specified. In FIG. 14, the person is actually present on the right side of the screen.

従ってこの発明の目的は上記した課題を解決し、搭載するカメラ(撮像素子)に太陽光などの高輝度の光源が写り込まれるとき、光源の方向を特定し、よって撮影対象を適切な輝度値で撮影可能とした脚式移動ロボットを提供することにある。   Accordingly, the object of the present invention is to solve the above-mentioned problems, and when a high-intensity light source such as sunlight is reflected in the mounted camera (imaging device), the direction of the light source is specified, so that the object to be imaged has an appropriate luminance value. The purpose is to provide a legged mobile robot that can be photographed with a camera.

上記した課題を解決するために、請求項1に係る脚式移動ロボットにあっては、撮影対象を含む外界からの入射光によって画像を撮像する撮像素子と、前記撮像素子によって撮像された画像に高輝度の入射光によって撮像された高輝度撮像部位があるとき、前記高輝度の入射光の方向を特定する入射方向特定動作を実行する高輝度入射方向特定動作実行手段とを備える如く構成した。   In order to solve the above-described problem, in the legged mobile robot according to claim 1, an image pickup device that picks up an image with incident light from the outside including the subject to be imaged, and an image picked up by the image pickup device. When there is a high-brightness imaging part imaged by high-intensity incident light, a high-brightness incident direction specifying operation executing means for executing an incident direction specifying operation for specifying the direction of the high-brightness incident light is provided.

請求項2に係る脚式移動ロボットにあっては、前記高輝度入射方向特定動作実行手段は、基体と、前記基体に連結される腕部と、前記腕部に連結されるハンドとを少なくとも有すると共に、少なくとも前記ハンドを駆動して前記高輝度の入射光の方向を特定する如く構成した。   In the legged mobile robot according to claim 2, the high-luminance incident direction specifying operation executing means includes at least a base, an arm connected to the base, and a hand connected to the arm. At the same time, at least the hand is driven to specify the direction of the incident light with high brightness.

請求項3に係る脚式移動ロボットにあっては、さらに、前記高輝度撮像部位の輝度を低減する輝度低減動作を実行する輝度低減動作実行手段を備える如く構成した。   The legged mobile robot according to a third aspect of the present invention is further configured to include a luminance reduction operation executing means for executing a luminance reduction operation for reducing the luminance of the high luminance imaging region.

請求項4に係る脚式移動ロボットにあっては、基体と、前記基体に連結される腕部と、前記腕部に連結されるハンドとを少なくとも有すると共に、前記輝度低減動作実行手段は、前記ハンドを駆動して前記高輝度の入射光を遮断することで前記高輝度撮像部位の輝度を低減する如く構成した。   The legged mobile robot according to claim 4 includes at least a base, an arm connected to the base, and a hand connected to the arm, and the brightness reduction operation executing means includes the The hand is driven to block the high-luminance incident light, thereby reducing the luminance of the high-luminance imaging region.

請求項5に係る脚式移動ロボットにあっては、基体と、前記基体に連結されると共に、前記撮像素子が搭載される頭部とを少なくとも有すると共に、前記輝度低減動作実行手段は、前記頭部を回転させて前記高輝度の入射光を回避する如く構成した。   The legged mobile robot according to claim 5 includes at least a base and a head connected to the base and on which the imaging device is mounted, and the luminance reduction operation executing means includes the head The part is rotated so as to avoid the incident light with high brightness.

請求項6に係る脚式移動ロボットにあっては、基体と、前記基体に連結される頭部と脚部と腕部とを少なくとも有すると共に、前記輝度低減動作実行手段は、前記脚部を駆動して前記高輝度の入射光を回避する如く構成した。   The legged mobile robot according to claim 6 has at least a base, a head, a leg, and an arm connected to the base, and the brightness reduction operation executing means drives the leg. Thus, the high-luminance incident light is avoided.

尚、上記で「高輝度の入射光」とは光源などの輝度が比較的高い入射光を、「高輝度撮像部位」とは高輝度の入射光によって画像に撮像される部位を意味する。   In the above, “high luminance incident light” means incident light having a relatively high luminance such as a light source, and “high luminance imaging portion” means a portion that is imaged by high luminance incident light.

請求項1に係る脚式移動ロボットにあっては、撮影対象を含む外界からの入射光によって画像を撮像する撮像素子によって撮像された画像に高輝度の入射光によって撮像された高輝度撮像部位があるとき、高輝度の入射光の方向を特定する入射方向特定動作を実行する如く構成したので、搭載するカメラ(撮像素子)に太陽光などの高輝度の光源が写り込まれるとき、高輝度の入射方向を特定することで、それを回避しつつ、カメラパラメータを修正して撮影対象を適切な輝度値で撮影することが可能となる。   In the legged mobile robot according to claim 1, the high-brightness imaging part imaged by the high-intensity incident light is captured on the image captured by the imaging element that captures the image by the incident light from the outside including the imaging target. In some cases, the incident direction specifying operation for specifying the direction of the high-intensity incident light is performed. Therefore, when a high-intensity light source such as sunlight is reflected on the mounted camera (imaging device), By specifying the incident direction, it is possible to correct the camera parameters and capture the imaging target with an appropriate luminance value while avoiding this.

請求項2に係る脚式移動ロボットにあっては、ハンドを少なくとも有すると共に、少なくともハンドを駆動して高輝度の入射光の方向を特定する如く構成したので、上記した効果に加え、高輝度の入射方向を簡易に特定することができる。   The legged mobile robot according to claim 2 is configured to have at least a hand and drive at least the hand to specify the direction of incident light with high luminance. The incident direction can be easily specified.

請求項3に係る脚式移動ロボットにあっては、さらに高輝度撮像部位の輝度を低減する輝度低減動作を実行する如く構成したので、上記した効果に加え、太陽光などの高輝度の入射光によって撮像された高輝度撮像部位があるときも、その輝度を低減することで人などの撮影対象を適切な輝度値で撮影することができる。   Since the legged mobile robot according to claim 3 is configured to perform a brightness reduction operation for further reducing the brightness of the high brightness imaging region, in addition to the above-described effects, high brightness incident light such as sunlight is used. Even when there is a high-brightness imaging part imaged by the above, it is possible to photograph a subject such as a person with an appropriate luminance value by reducing the luminance.

請求項4に係る脚式移動ロボットにあっては、ハンドなどを少なくとも有すると共に、ハンドを駆動して高輝度の入射光を遮断することで高輝度撮像部位の輝度を低減する如く構成したので、上記した効果に加え、撮像素子や画像処理の性能を上げることなく、人などの撮影対象を適切な輝度値で撮影することができる。   The legged mobile robot according to claim 4 has at least a hand and the like, and is configured to reduce the luminance of the high-luminance imaging region by driving the hand and blocking high-luminance incident light. In addition to the effects described above, a subject such as a person can be photographed with an appropriate luminance value without improving the performance of the image sensor or image processing.

請求項5に係る脚式移動ロボットにあっては、頭部などを少なくとも有すると共に、頭部を回転させて高輝度の入射光を回避する如く構成したので、同様に、撮像素子や画像処理の性能を上げることなく、人などの撮影対象を適切な輝度値で撮影することができると共に、高輝度撮像部位が比較的大きいときも確実に撮影対象を撮影することができる。   The legged mobile robot according to claim 5 has at least a head and the like, and is configured to avoid incident light with high luminance by rotating the head. An imaging object such as a person can be imaged with an appropriate luminance value without improving performance, and the imaging object can be reliably imaged even when the high-luminance imaging region is relatively large.

請求項6に係る脚式移動ロボットにあっては、基体に連結される脚部などを少なくとも有すると共に、脚部を駆動して高輝度の入射光を回避する如く構成したので、同様に、撮像素子や画像処理の性能を上げることなく、人などの撮影対象を適切な輝度値で撮影することができると共に、高輝度撮像部位が比較的大きいときも一層確実に撮影対象を撮影することができる。   The legged mobile robot according to the sixth aspect of the present invention has at least a leg portion connected to the base body and is configured to drive the leg portion to avoid high-intensity incident light. A subject such as a person can be photographed at an appropriate luminance value without increasing the performance of the element and image processing, and the subject can be photographed more reliably even when the high-luminance imaging region is relatively large. .

以下、添付図面に即してこの発明に係る脚式移動ロボットを実施するための最良の形態について説明する。   The best mode for carrying out a legged mobile robot according to the present invention will be described below with reference to the accompanying drawings.

図1はこの実施例に係る脚式移動ロボットの正面図、図2は図1に示すロボットの側面図である。   FIG. 1 is a front view of a legged mobile robot according to this embodiment, and FIG. 2 is a side view of the robot shown in FIG.

図1に示すように、脚式移動ロボット(移動体。以下単に「ロボット」という)10は、左右2本の脚部12L,12R(左側をL、右側をRとする。以下同じ)を備える。脚部12L,12Rは、基体14の下部に連結される。基体14の上部には頭部16が連結されると共に、側方には左右2本の腕部20L,20Rが連結される。左右の腕部20L,20Rの先端には、それぞれハンド(エンドエフェクタ)22L,22Rが連結される。この実施例にあっては、脚式移動ロボットとして、2本の脚部と2本の腕部を備えた、1.3m程度の身長を有するヒューマノイド型のロボットを例にとる。   As shown in FIG. 1, a legged mobile robot (moving body; hereinafter simply referred to as “robot”) 10 includes two left and right leg portions 12L and 12R (L on the left side and R on the right side; the same applies hereinafter). . The leg portions 12L and 12R are connected to the lower portion of the base 14. A head portion 16 is connected to the upper portion of the base body 14, and two left and right arm portions 20L and 20R are connected to the side. Hands (end effectors) 22L and 22R are connected to the tips of the left and right arm portions 20L and 20R, respectively. In this embodiment, a humanoid robot having a height of about 1.3 m and having two legs and two arms is taken as an example of a legged mobile robot.

図2に示すように、基体14の背部には格納部24が設けられ、その内部には電子制御ユニット(以下「ECU」と呼ぶ)26およびバッテリ(図示せず)などが収容される。   As shown in FIG. 2, a storage portion 24 is provided on the back of the base 14, and an electronic control unit (hereinafter referred to as “ECU”) 26, a battery (not shown), and the like are accommodated therein.

図3は、図1に示すロボット10をスケルトンで表す説明図である。以下、図3を参照し、ロボット10の内部構造について関節を中心に説明する。尚、図示のロボット10は左右対称であるので、以降L,Rの付記を省略する。   FIG. 3 is an explanatory diagram showing the robot 10 shown in FIG. 1 as a skeleton. Hereinafter, the internal structure of the robot 10 will be described with a focus on joints with reference to FIG. Since the illustrated robot 10 is bilaterally symmetric, L and R are not described below.

左右の脚部12は、それぞれ大腿リンク30と下腿リンク32と足部34とを備える。大腿リンク30は、股関節を介して基体14に連結される。図3では、基体14を基体リンク36として簡略的に示すが、基体リンク36は、関節38を介して上半部36aと下半部36bとが相対変位自在に構成される。   The left and right legs 12 include a thigh link 30, a crus link 32, and a foot 34, respectively. The thigh link 30 is connected to the base body 14 via a hip joint. In FIG. 3, the base body 14 is simply shown as the base link 36, but the base link 36 is configured such that the upper half 36 a and the lower half 36 b can be relatively displaced via a joint 38.

大腿リンク30と下腿リンク32は膝関節を介して連結されると共に、下腿リンク32と足部34は足関節を介して連結される。股関節は、Z軸(ヨー軸)回りの回転軸40と、Y軸(ピッチ軸)回りの回転軸42と、X軸(ロール軸)回りの回転軸44とから構成される。即ち、股関節は3自由度を備える。   The thigh link 30 and the lower leg link 32 are connected via a knee joint, and the lower leg link 32 and the foot 34 are connected via an ankle joint. The hip joint includes a rotation axis 40 around the Z axis (yaw axis), a rotation axis 42 around the Y axis (pitch axis), and a rotation axis 44 around the X axis (roll axis). That is, the hip joint has three degrees of freedom.

膝関節はY軸回りの回転軸46から構成され、1自由度を備える。足関節はY軸回りの回転軸48とX軸回りの回転軸50とから構成され、2自由度を備える。このように、左右の脚部12のそれぞれには3個の関節を構成する6個の回転軸(自由度)が与えられ、脚部全体としては合計12個の回転軸が与えられる。   The knee joint is composed of a rotation axis 46 around the Y axis and has one degree of freedom. The ankle joint includes a rotation axis 48 around the Y axis and a rotation axis 50 around the X axis, and has two degrees of freedom. In this way, each of the left and right leg parts 12 is provided with six rotation axes (degrees of freedom) constituting three joints, and the leg part as a whole is provided with a total of twelve rotation axes.

脚部12は、アクチュエータ(図示せず)によって駆動される。脚部12を駆動する脚部アクチュエータは基体14と脚部12の適宜位置に配置された12個の電動モータからなり、上記した12個の回転軸を個別に駆動する。   The leg 12 is driven by an actuator (not shown). The leg actuator that drives the leg 12 includes twelve electric motors arranged at appropriate positions of the base 14 and the leg 12, and individually drives the twelve rotating shafts described above.

また、左右の腕部20は、それぞれ上腕リンク52と下腕リンク54を備える。上腕リンク52は、肩関節を介して基体14に連結される。上腕リンク52と下腕リンク54は、肘関節を介して連結されると共に、下腕リンク54とハンド22は手首関節を介して連結される。   The left and right arm portions 20 include an upper arm link 52 and a lower arm link 54, respectively. The upper arm link 52 is connected to the base body 14 through a shoulder joint. The upper arm link 52 and the lower arm link 54 are connected via an elbow joint, and the lower arm link 54 and the hand 22 are connected via a wrist joint.

肩関節はY軸回りの回転軸56とX軸回りの回転軸58とZ軸回りの回転軸60とから構成され、3自由度を備える。肘関節はY軸回りの回転軸62から構成され、1自由度を備える。手首関節はZ軸回りの回転軸64とY軸回りの回転軸66とX軸回りの回転軸68とから構成され、3自由度を備える。このように、左右の腕部20のそれぞれには3個の関節を構成する7個の回転軸(自由度)が与えられ、腕部全体として合計14個の回転軸が与えられる。   The shoulder joint includes a rotation axis 56 around the Y axis, a rotation axis 58 around the X axis, and a rotation axis 60 around the Z axis, and has three degrees of freedom. The elbow joint is composed of a rotation shaft 62 around the Y axis and has one degree of freedom. The wrist joint includes a rotation axis 64 around the Z axis, a rotation axis 66 around the Y axis, and a rotation axis 68 around the X axis, and has three degrees of freedom. In this manner, each of the left and right arm portions 20 is provided with seven rotation axes (degrees of freedom) constituting three joints, and a total of 14 rotation axes are provided as the entire arm portion.

腕部20も、脚部12と同様に図示しないアクチュエータによって駆動される。腕部20を駆動する腕部アクチュエータは基体14と腕部20の適宜位置に配置された14個の電動モータからなり、上記した14個の回転軸を個別に駆動する。ロボット10は脚部アクチュエータあるいは腕部アクチュエータの動作が制御されて各回転軸が適宜な角度で駆動されることにより、脚部12あるいは腕部20に所望の動きが与えられる。   The arm portion 20 is also driven by an actuator (not shown) as with the leg portion 12. The arm actuator for driving the arm 20 is composed of 14 electric motors arranged at appropriate positions of the base 14 and the arm 20 and individually drives the 14 rotation shafts described above. In the robot 10, the movement of the leg actuator or the arm actuator is controlled so that each rotation axis is driven at an appropriate angle, whereby a desired movement is given to the leg 12 or the arm 20.

ハンド22には、5本の指部70が設けられる。指部70は図示しないハンドアクチュエータによって動作自在とされ、腕部20の動きに連動して物を把持する、あるいは適宜な方向を指差すなどの動作が実行可能とされる。   The hand 22 is provided with five finger portions 70. The finger unit 70 can be operated by a hand actuator (not shown), and can perform operations such as gripping an object in conjunction with the movement of the arm unit 20 or pointing in an appropriate direction.

頭部16は、基体14に首関節を介して連結される。首関節はZ軸回りの回転軸72とY軸回りの回転軸74とから構成され、2自由度を備える。回転軸72,74も、図示しない頭部アクチュエータによって個別に駆動される。頭部アクチュエータの動作を制御して回転軸72,74を適宜な角度で駆動することにより、頭部16を所望の方向に向けることができる。基体リンク36も関節38に配置されたアクチュエータ(図示せず)を駆動することで、上半部36aと下半部36bが相対回転させられる。   The head 16 is connected to the base 14 via a neck joint. The neck joint includes a rotation shaft 72 around the Z axis and a rotation shaft 74 around the Y axis, and has two degrees of freedom. The rotary shafts 72 and 74 are also individually driven by a head actuator (not shown). By controlling the operation of the head actuator and driving the rotary shafts 72 and 74 at an appropriate angle, the head 16 can be directed in a desired direction. The base link 36 also drives an actuator (not shown) disposed at the joint 38, whereby the upper half 36a and the lower half 36b are relatively rotated.

左右の脚部12には、それぞれ力センサ(6軸力センサ)76が取り付けられ、床面から脚部12に作用する床反力の3方向成分Fx,Fy,Fzとモーメントの3方向成分Mx,My,Mzを示す信号を出力する。左右の腕部20にも同種の力センサ78がハンド22と手首関節の間で取り付けられ、腕部20に作用する外力の3方向成分Fx,Fy,Fzとモーメントの3方向成分Mx,My,Mzを示す信号を出力する。   A force sensor (6-axis force sensor) 76 is attached to each of the left and right legs 12, and the three-direction components Fx, Fy, Fz of the floor reaction force acting on the leg 12 from the floor and the three-direction components Mx of the moment. , My, and Mz are output. The same type of force sensor 78 is also attached to the left and right arm portions 20 between the hand 22 and the wrist joint, and the three-direction components Fx, Fy, Fz of the external force acting on the arm portion 20 and the three-direction components Mx, My, A signal indicating Mz is output.

基体14には傾斜センサ80が設置され、鉛直軸に対する基体14の傾斜角度とその角速度などの状態量を示す信号を出力する。頭部16には、人などの撮影対象を含む外界からの入射光によって撮像する、2個(左右)の撮像素子、具体的にはCCDカメラ(以下「カメラ」という)82が設置される。また、頭部16には、マイクロフォン84aとスピーカ84bからなる音声入出力装置84が設けられる。   A tilt sensor 80 is installed on the base 14 and outputs a signal indicating a state quantity such as the tilt angle of the base 14 with respect to the vertical axis and its angular velocity. The head 16 is provided with two (left and right) imaging elements, specifically a CCD camera (hereinafter referred to as “camera”) 82, which captures an image with incident light from the outside including a subject such as a person. The head 16 is provided with a voice input / output device 84 including a microphone 84a and a speaker 84b.

上記したセンサなどの出力は、ECU26(図2に示す)に入力される。ECU26はマイクロコンピュータからなり、図示しないCPUや入出力回路、ROM、RAMなどを備える。   The output of the above-described sensor or the like is input to the ECU 26 (shown in FIG. 2). The ECU 26 includes a microcomputer and includes a CPU, an input / output circuit, a ROM, a RAM, and the like (not shown).

図4は、ロボット10の構成をECU26の入出力関係を中心に示すブロック図である。   FIG. 4 is a block diagram showing the configuration of the robot 10 with the input / output relationship of the ECU 26 as the center.

図示の如く、ロボット10は、上記したセンサなどに加え、回転軸40などのそれぞれに配置されたロータリエンコーダ群86と、ジャイロセンサ88と、GPS受信器90と、人(撮影対象)が携行するICタグ92に無線系で接続されてICタグ92から発信されるICタグ情報を受信するICタグ信号受信器(リーダ)94を備える。   As shown in the figure, the robot 10 is carried by a rotary encoder group 86, a gyro sensor 88, a GPS receiver 90, and a person (photographing target) arranged on each of the rotating shafts 40 in addition to the above-described sensors. An IC tag signal receiver (reader) 94 that is connected to the IC tag 92 wirelessly and receives IC tag information transmitted from the IC tag 92 is provided.

ロータリエンコーダ群86はそれぞれ、回転軸40などの回転角度、即ち、関節角度に応じた信号を出力する。ジャイロセンサ88は、ロボット10の移動方向と距離に応じた信号を出力する。GPS受信器90は衛星から発信された電波を受信し、ロボット10の位置情報(緯度と経度)を取得してECU26に出力する。   Each of the rotary encoder groups 86 outputs a signal corresponding to the rotation angle of the rotary shaft 40 or the like, that is, the joint angle. The gyro sensor 88 outputs a signal corresponding to the moving direction and distance of the robot 10. The GPS receiver 90 receives a radio wave transmitted from a satellite, acquires position information (latitude and longitude) of the robot 10 and outputs it to the ECU 26.

ICタグ信号受信器94は、ICタグ92に記憶されると共に、それから発信される識別情報(RFID(Radio Frequency ID)、具体的にはICタグ92の携行者である人を識別する識別情報)を無線系で受信してECU26に出力する。   The IC tag signal receiver 94 is stored in the IC tag 92 and transmitted from the identification information (RFID (Radio Frequency ID), specifically, identification information for identifying the person who carries the IC tag 92). Is received by the wireless system and output to the ECU 26.

ECU26は、力センサ76、傾斜センサ80およびロータリエンコーダ群86などの出力に基づいて歩容を生成して歩行制御を行う。具体的には、前記した脚部アクチュエータ(符号100で示す)の動作を制御して脚部12を駆動してロボット10を移動(歩行)させる。歩容生成および歩行制御については本出願人が提案した特許第3726081号に記載されているので、詳細な説明は省略する。   The ECU 26 performs gait control by generating a gait based on outputs from the force sensor 76, the tilt sensor 80, the rotary encoder group 86, and the like. Specifically, the operation of the above-described leg actuator (indicated by reference numeral 100) is controlled to drive the leg 12 to move (walk) the robot 10. Since gait generation and walking control are described in Japanese Patent No. 3726081 proposed by the present applicant, detailed description thereof is omitted.

また、ECU26は、歩行制御などに付随して腕部アクチュエータ(符号102で示す)とハンドアクチュエータ(符号104で示す)の動作を制御して腕部20とハンド22を駆動すると共に、頭部アクチュエータ(符号106で示す)の動作を制御して頭部16の向きを調整する。   The ECU 26 controls the operation of the arm actuator (indicated by reference numeral 102) and the hand actuator (indicated by reference numeral 104) in association with walking control and the like to drive the arm section 20 and the hand 22, and the head actuator. The direction of the head 16 is adjusted by controlling the operation (indicated by reference numeral 106).

さらに、ECU26は、カメラ(撮像素子)82に高輝度撮像部位が撮像されているとき、高輝度の入射方向を特定すると共に、高輝度撮像部位の輝度を低減させる輝度低減動作を実行する。   Further, when a high-luminance imaging region is imaged by the camera (imaging device) 82, the ECU 26 specifies a high-luminance incident direction and executes a luminance reduction operation for reducing the luminance of the high-luminance imaging region.

図5は、ECU26が高輝度入射方向特定および輝度低減動作を実行するときの構成を機能的に示すブロック図である。   FIG. 5 is a block diagram functionally showing a configuration when the ECU 26 executes the high-luminance incident direction specification and the luminance reduction operation.

図示の如く、そのときのECU26の動作を機能別に見ると、ECU26は、ステレオ処理部26aと、ヒストグラム生成部26bと、露出パラメータ設定部26cと、画像処理部26dと、行動生成部26eとからなる。   As shown in the figure, when the operation of the ECU 26 at that time is viewed by function, the ECU 26 includes a stereo processing unit 26a, a histogram generation unit 26b, an exposure parameter setting unit 26c, an image processing unit 26d, and an action generation unit 26e. Become.

ステレオ処理部26aは、移動体(ロボット)10に搭載された2個のカメラ(撮像素子)82の出力を入力し、ステレオ処理によって視差から画素ごとの距離情報を算出する。カメラ82の画素の数は320×240とする。ステレオ処理部26aは、濃淡画像データから3次元(3D)データを算出して出力する。   The stereo processing unit 26a receives the outputs of two cameras (imaging devices) 82 mounted on the moving body (robot) 10, and calculates distance information for each pixel from the parallax by stereo processing. The number of pixels of the camera 82 is 320 × 240. The stereo processing unit 26a calculates and outputs three-dimensional (3D) data from the grayscale image data.

ヒストグラム生成部26bは撮影された画像の輝度値ヒストグラムを作成すると共に、距離ごとに、あるいは距離に応じて重み付けを行う。   The histogram generation unit 26b creates a luminance value histogram of the photographed image and performs weighting for each distance or according to the distance.

露出パラメータ設定部26cは、撮像したい距離の輝度値から露出パラメータ(より具体的にはシャッタ速度)を設定する。カメラ82はロボット10に搭載されて視覚センサとして機能する関係上、自ら撮影対象を捜索して撮影することはなく、撮影画像から撮影対象を抽出しなければならない。そのため、カメラ82の絞りは最小に固定され、近距離、具体的には0.5mから2.5m程度で焦点が合うように調整される。従って、露出パラメータとしてはシャッタ速度のみが調整自在とされる。   The exposure parameter setting unit 26c sets the exposure parameter (more specifically, the shutter speed) from the luminance value at the distance to be imaged. Since the camera 82 is mounted on the robot 10 and functions as a visual sensor, the camera 82 does not search and shoot the shooting target itself, but must extract the shooting target from the shot image. Therefore, the diaphragm of the camera 82 is fixed to the minimum, and is adjusted so as to be focused at a short distance, specifically, about 0.5 m to 2.5 m. Therefore, only the shutter speed can be adjusted as an exposure parameter.

画像処理部26dは、ロボット10が移動するとき、視覚センサとしての画像処理を行う。   The image processing unit 26d performs image processing as a visual sensor when the robot 10 moves.

行動生成部26eは、カメラ82に光源などの高輝度の入射光によって撮像された高輝度撮像部位があるとき、高輝度の入射方向を特定すると共に、高輝度撮像部位の輝度を低減する輝度低減動作を実行する。   The behavior generation unit 26e specifies a high-luminance incident direction and reduces the luminance of the high-luminance imaging region when the camera 82 has a high-luminance imaging region imaged with high-luminance incident light such as a light source. Perform the action.

次いで、上記したECU26の動作をさらに詳細に説明する。   Next, the operation of the ECU 26 will be described in more detail.

図6は、図5と同様、ECU26が輝度低減動作するときの処理を示すフロー・チャートである。   FIG. 6 is a flowchart showing the processing when the ECU 26 performs the brightness reduction operation, as in FIG. 5.

以下説明すると、S10において撮影対象(人)を含む外界からの入射光によって撮像された画像に高輝度の入射光によって撮像された高輝度撮像部位があるか(あるいは除去されていないか)否か判断する。   In the following description, whether or not there is a high-brightness imaging part imaged with high-luminance incident light in the image captured with incident light from the outside including the imaging target (person) in S10 (or has not been removed). to decide.

S10において否定されるときは以降の処理をスキップすると共に、肯定されるときはS12に進み、高輝度撮像部位の方向が特定されているか、換言すれば高輝度の入射光の方向が特定されているか否か判断する。S12で否定されるときはS14に進み、高輝度の入射光の方向を特定する入射方向特定動作を実行する。   When the result in S10 is negative, the subsequent processing is skipped. When the result is affirmative, the process proceeds to S12. In other words, the direction of the high-luminance imaging region is specified, or in other words, the direction of the high-luminance incident light is specified. Determine whether or not. When the result in S12 is negative, the program proceeds to S14, and an incident direction specifying operation for specifying the direction of incident light with high brightness is executed.

図7はその動作を示すサブ・ルーチン・フロー・チャートである。図8は図7の動作を説明する説明図である。   FIG. 7 is a sub-routine flowchart showing the operation. FIG. 8 is an explanatory diagram for explaining the operation of FIG.

図8を参照しつつ、図7に従って以下説明すると、S100においてハンド22を目標とする方向に視野角が制限されるように駆動する。即ち、入射光の方向が不明であることから、図8(a)に示す如く、左右両方のハンド22R,22Lを撮影対象が存在する方向を目標とし、それに向けて駆動する。このとき、ハンド22R,22Lの間に間隔をおき、撮影対象からの入射光が遮断されないように駆動する。   Referring to FIG. 8, the following description will be made according to FIG. 7. In S100, the hand 22 is driven so that the viewing angle is limited to the target direction. That is, since the direction of the incident light is unknown, as shown in FIG. 8A, both the left and right hands 22R and 22L are driven toward the direction in which the object to be imaged exists. At this time, an interval is provided between the hands 22R and 22L, and driving is performed so that incident light from the subject is not blocked.

次いでS102に進み、図8(b)(c)に示す如く、ハンド22R,22Lの間隔を保ちながら、高輝度撮像部位が画面から除去されるまで、撮影対象から左に離れる方向に頭部16と基体14とハンド22を駆動する。このとき、基体14の脚部12に対する可動範囲がリミットに達したら、頭部16とハンド22をさらに左側可動最大値Almaxまで左方向に駆動して行う。   Next, the process proceeds to S102, and as shown in FIGS. 8B and 8C, the head 16 is moved in the direction away from the imaging object to the left until the high-intensity imaging part is removed from the screen while keeping the distance between the hands 22R and 22L. Then, the base 14 and the hand 22 are driven. At this time, when the movable range of the base 14 with respect to the leg 12 reaches the limit, the head 16 and the hand 22 are further driven leftward to the left movable maximum value Almax.

高輝度撮像部位が画面から除去されたときはS104に進み、そのときの方向、即ち、高輝度の入射光の方向をAlと記録する。   When the high-intensity imaging part is removed from the screen, the process proceeds to S104, and the direction at that time, that is, the direction of the high-intensity incident light is recorded as Al.

次いでS106に進み、頭部16と基体14とハンド22を目標方向に戻す、即ち、S100で述べた姿勢に駆動する。   Next, in S106, the head 16, the base body 14, and the hand 22 are returned to the target direction, that is, driven to the posture described in S100.

次いでS108に進み、反転して撮影対象から右に離れる方向にハンド22R,22Lの間隔を保ちながら、高輝度撮像部位が画面から除去されるまで、頭部16と基体14とハンド22を駆動し、高輝度撮像部位が画面から除去されたときはS110に進み、そのときの方向、即ち、高輝度の入射光の方向をArと記録する。入射光の方向Al,Arは図8に示す平面における角度を意味する。   Next, the process proceeds to S108, and the head 16, the base 14, and the hand 22 are driven until the high-intensity imaging part is removed from the screen while maintaining the interval between the hands 22R and 22L in a direction that is reversed and moves to the right from the imaging target. When the high-luminance imaging part is removed from the screen, the process proceeds to S110, and the direction at that time, that is, the direction of the high-luminance incident light is recorded as Ar. The directions Al and Ar of incident light mean angles in the plane shown in FIG.

次いでS112に進み、頭部16と基体14を中央(正面)に戻し、ハンド22を下ろすように駆動する。   Next, in S112, the head 16 and the base 14 are returned to the center (front), and the hand 22 is driven to be lowered.

次いでS114に進み、AlとArが得られたか(高輝度の入射光の方向が特定されたか)否か判断し、AlとArが共に得られた判断されるときはS116に進み、両者を2で除算して入射光の方向を特定できたと判断すると共に、一方が不足したときはS118に進み、特定失敗と判断する。   Next, the process proceeds to S114, where it is determined whether Al and Ar are obtained (the direction of incident light with high luminance is specified). If it is determined that both Al and Ar are obtained, the process proceeds to S116, where both It is determined that the direction of the incident light has been specified by dividing by 1. When one of the directions is insufficient, the process proceeds to S118 and it is determined that the specification has failed.

図6フロー・チャートの説明に戻ると、次いでS16に進み、図7の処理において入射光の方向が特定されたか否か判断する。肯定されるときはS18に進み、脚部制御1を実行する。   Returning to the description of the flowchart of FIG. 6, the process then proceeds to S16, in which it is determined whether or not the direction of the incident light has been specified in the process of FIG. If the determination is affirmative, the process proceeds to S18 and the leg control 1 is executed.

図9はその動作を示すサブ・ルーチン・フロー・チャートである。図10は図9の動作を説明する説明図である。   FIG. 9 is a sub-routine flowchart showing the operation. FIG. 10 is an explanatory diagram for explaining the operation of FIG.

図10を参照しつつ、図9に従って説明すると、S200において特定された高輝度の入射光の方向(換言すれば高輝度撮像部位の方向)と撮影対象の位置から脚部12の目標位置を設定し、S202に進み、脚部12などを駆動して歩行を開始し、S204で到着して終わる。   Referring to FIG. 9 with reference to FIG. 10, the target position of the leg 12 is set from the direction of the incident light with high luminance specified in S200 (in other words, the direction of the high luminance imaging region) and the position of the imaging target. Then, the process proceeds to S202, where the leg portion 12 and the like are driven to start walking, and the process ends in S204.

具体的には、図10(a)に示す如く、光源(高輝度)の入射光が画角内にあるとき、同図(b)に示す如く、左に旋回しつつ1歩右に移動し、その入射光を回避する(入射光が画角の外側となる)ように脚部12を駆動する。   Specifically, as shown in FIG. 10A, when the incident light of the light source (high brightness) is within the angle of view, as shown in FIG. The leg portion 12 is driven so as to avoid the incident light (the incident light is outside the angle of view).

図6フロー・チャートの説明に戻ると、S18の後S12に戻ると共に、S16で否定される(入射光の方向が特定されなかったと判断される)ときはS20に進み、脚部制御2を実行する。   Returning to the description of the flow chart in FIG. 6, after S18, the process returns to S12, and when the result in S16 is negative (it is determined that the direction of the incident light is not specified), the process proceeds to S20, and the leg control 2 is executed. To do.

図11はその動作を示すサブ・ルーチン・フロー・チャートである。図12は図11の動作を説明する説明図である。   FIG. 11 is a sub-routine flowchart showing the operation. FIG. 12 is an explanatory diagram for explaining the operation of FIG.

図12を参照しつつ、図11に従って説明すると、S300において高輝度の入射光の方向ArまたはAlが得られているか否か判断し、肯定されるときはS302に進み、Al+(Ac/2)にカメラ82を向ける(Al不定のときはAr+(Ac/2)にカメラ82を向ける。図12(a)に示す如く、Acは画角を示す。従って、上記の処理は、高輝度の入射光が画角に入らないようにすることを意味する。   Referring to FIG. 11 with reference to FIG. 12, it is determined in S300 whether or not the direction Ar or Al of the high-intensity incident light is obtained, and if affirmative, the process proceeds to S302, and Al + (Ac / 2) The camera 82 is pointed at (when Al is indefinite, the camera 82 is pointed at Ar + (Ac / 2). As shown in FIG. 12 (a), Ac indicates the angle of view. This means that light does not enter the angle of view.

他方、S300で否定されるときはS304に進み、Almax+(Ac/2)あるいはArmax+(Ac/2)にカメラ82を向ける。Armaxは右側可動最大値を意味する。この処理も高輝度の入射光が画角に入らないようにすることを意味する。   On the other hand, when the result in S300 is negative, the program proceeds to S304, in which the camera 82 is pointed at Almax + (Ac / 2) or Armax + (Ac / 2). Armax means the maximum rightward movable value. This process also means that high-intensity incident light is prevented from entering the angle of view.

次いでS306に進み、カメラ82の向きを変更する。即ち、S302あるいはS304でカメラ82が左に向けられたときは右、右に向けられたときは左にカメラ82の向きを変更する。   In step S306, the orientation of the camera 82 is changed. That is, in S302 or S304, the orientation of the camera 82 is changed to the right when the camera 82 is directed to the left, and to the left when the camera 82 is directed to the right.

図12(a)(b)(c)に示す如く、上記した処理を画像から高輝度撮像部位が除去されるまで繰り返し、除去されるとS308に進み、カメラ82の向きを保ったまま、撮影対象が中央(正面)に見える位置に歩行目標を設定し、S310に進み、それに向かって歩行を開始し、S312で到着したと判断されると、終了する。   As shown in FIGS. 12A, 12B, and 12C, the above-described processing is repeated until the high-intensity imaging portion is removed from the image. When the high-intensity imaging portion is removed, the process proceeds to S308, and imaging is performed while the orientation of the camera 82 is maintained. A walking target is set at a position where the object can be seen in the center (front), the process proceeds to S310, walking toward it is started, and if it is determined that the object has arrived in S312, the process ends.

図6フロー・チャートの説明に戻ると、S20の後はS12に戻る。一方、S12で肯定されるときはS22に進み、撮影対象の位置、高輝度の入射光の方向からハンド22を出す位置を決定し、S24に進み、ハンド22の位置が撮影対象を隠すことができるか否か判断し、肯定されるときはS26に進み、ハンド22を駆動する。   Returning to the description of the flowchart of FIG. 6, after S20, the process returns to S12. On the other hand, when the result in S12 is affirmative, the process proceeds to S22, where the position of the shooting target and the position where the hand 22 is to be taken out are determined from the direction of the incident light with high luminance. It is determined whether or not it is possible. If the result is affirmative, the process proceeds to S26, and the hand 22 is driven.

図13はハンド22の駆動を説明する説明図である。図示の如く、ハンド22Rを駆動し、光源からの高輝度の入射光(光軸)を遮断するように動作させるが、ハンド22Rの位置はA,B,Cの順で自身の頭部16に搭載されるカメラ82に近づき、光源からの入射光を遮断する面積も増加する一方、撮影対象からの入射光(光軸)も遮断する可能性が増加する。   FIG. 13 is an explanatory diagram for explaining the driving of the hand 22. As shown in the drawing, the hand 22R is driven to operate so as to block the high-intensity incident light (optical axis) from the light source, but the position of the hand 22R is on the head 16 in the order of A, B, C. While approaching the mounted camera 82, the area for blocking the incident light from the light source increases, while the possibility of blocking the incident light (optical axis) from the object to be photographed also increases.

従って、S26においては、撮影対象からの入射光を遮断することなく、光源からの高輝度の入射光を完全に遮断する位置、即ち、可能な限りAに近い位置となるように、ハンド22を駆動する。   Accordingly, in S26, the hand 22 is moved to a position where the high-luminance incident light from the light source is completely blocked, that is, a position as close to A as possible, without blocking the incident light from the subject. To drive.

次いでS28に進み、撮影対象が適切な輝度値で撮像されているか否か判断し、肯定されるときは処理を終了すると共に、S28で否定されるときはS30に進み、図13に示す如く、ハンド22の画像(換言すれば頭部16)からの距離を変更し、S32で距離リミット(図13に示すC)に達したと判断されるまで、上記の処理を繰り返す。尚、S32で距離リミットに達したと判断されるときS18に進む。   Next, the process proceeds to S28, in which it is determined whether or not the photographing target is imaged with an appropriate luminance value. When the result is affirmative, the process is terminated, and when the result is negative in S28, the process proceeds to S30, as shown in FIG. The distance from the image of the hand 22 (in other words, the head 16) is changed, and the above processing is repeated until it is determined in S32 that the distance limit (C shown in FIG. 13) has been reached. If it is determined in S32 that the distance limit has been reached, the process proceeds to S18.

他方、S24で否定されるときはS34に進み、隠すことができる高輝度撮像部位の幅を判断し、大きいと判断されるときはS18に進むと共に、小さいと判断されるときはS36に進み、上半身制御を実行する。これは具体的には、高輝度の入射光をずらす(回避する)ように頭部16を駆動する制御を意味する。次いでS12に進み、上記した処理を繰り返す。   On the other hand, when the result in S24 is negative, the process proceeds to S34, and the width of the high-luminance imaging part that can be hidden is determined. When it is determined to be large, the process proceeds to S18, and when it is determined to be small, the process proceeds to S36. Execute upper body control. Specifically, this means control for driving the head 16 so as to shift (avoid) high-intensity incident light. Next, the process proceeds to S12 and the above processing is repeated.

この実施例に係る脚式移動ロボット10にあっては、撮影対象を含む外界からの入射光によって画像を撮像する撮像素子(CCDカメラ)82と、前記撮像素子によって撮像された画像に高輝度の入射光によって撮像された高輝度撮像部位があるとき、前記高輝度の入射光の方向を特定する入射方向特定動作を実行する高輝度入射方向特定動作実行手段(ECU26、ステレオ処理部26a、ヒストグラム生成部26b、露出パラメータ設定部26c、画像処理部26d、行動生成部26e,S10からS14,S100からS118)とを備える如く構成したので、搭載するカメラ(撮像素子)82に太陽光などの高輝度の光源が写り込まれるとき、高輝度の入射方向を特定することで、それを回避しつつ、カメラパラメータを修正して撮影対象を適切な輝度値で撮影することが可能となる。   In the legged mobile robot 10 according to this embodiment, an image pickup device (CCD camera) 82 that picks up an image with incident light from the outside including the subject to be imaged, and an image picked up by the image pickup device has high brightness. When there is a high-brightness imaging part imaged by incident light, high-brightness incident direction specifying operation executing means (ECU 26, stereo processing unit 26a, histogram generation) for executing an incident direction specifying operation for specifying the direction of the high-brightness incident light Unit 26b, exposure parameter setting unit 26c, image processing unit 26d, action generation unit 26e, S10 to S14, and S100 to S118), the camera (imaging device) 82 to be mounted has high brightness such as sunlight. When the light source of the camera is reflected, it is possible to correct the camera parameters while avoiding this by specifying the direction of incidence of high brightness. It is possible to photograph the subject with appropriate brightness values.

また、前記高輝度入射方向特定動作実行手段は、基体14と、前記基体に連結される腕部20と、前記腕部に連結されるハンド22とを少なくとも有すると共に、少なくとも前記ハンド22を駆動して前記高輝度の入射光の方向を特定する(S14,S100からS118,S16)如く構成したので、上記した効果に加え、高輝度の入射方向を簡易に特定することができる。   The high-luminance incident direction specifying operation executing means includes at least a base body 14, an arm part 20 connected to the base body, and a hand 22 connected to the arm part, and drives at least the hand 22. Therefore, in addition to the above-described effects, the direction of incident light with high luminance can be easily specified. In this case, the direction of incident light with high luminance is specified (S14, S100 to S118, S16).

さらに、前記高輝度撮像部位の輝度を低減する輝度低減動作を実行する輝度低減動作実行手段(S18,S20,S200からS204,S300からS312,S26からS36)を備える如く構成したので、上記した効果に加え、太陽光などの高輝度の入射光によって撮像された高輝度撮像部位があるときも、その輝度を低減することで人などの撮影対象を適切な輝度値で撮影することができる。   In addition, since it is configured to include brightness reduction operation execution means (S18, S20, S200 to S204, S300 to S312, S26 to S36) for executing a brightness reduction operation for reducing the brightness of the high brightness imaging region, the above-described effects are provided. In addition, even when there is a high-brightness imaging part imaged with high-brightness incident light such as sunlight, a subject such as a person can be shot with an appropriate brightness value by reducing the brightness.

また、基体14と、前記基体に連結される腕部20と、前記腕部に連結されるハンド22とを少なくとも有すると共に、前記輝度低減動作実行手段は、前記ハンド22を駆動して前記高輝度の入射光を遮断することで前記高輝度撮像部位の輝度を低減する(S26からS32)如く構成したので、上記した効果に加え、撮像素子や画像処理の性能を上げることなく、人などの撮影対象を適切な輝度値で撮影することができる。   In addition, it has at least a base body 14, an arm portion 20 connected to the base body, and a hand 22 connected to the arm portion, and the brightness reduction operation executing means drives the hand 22 to achieve the high brightness. Since the luminance of the high-luminance imaging region is reduced by blocking the incident light (S26 to S32), in addition to the effects described above, it is possible to shoot a person or the like without increasing the performance of the imaging device or image processing. The object can be photographed with an appropriate luminance value.

また、基体14と、前記基体に連結されると共に、前記撮像素子が搭載される頭部16とを少なくとも有すると共に、前記輝度低減動作実行手段は、前記頭部16を回転させて前記高輝度の入射光を回避する(S36)如く構成したので、同様に、撮像素子や画像処理の性能を上げることなく、人などの撮影対象を適切な輝度値で撮影することができると共に、高輝度撮像部位が比較的大きいときも確実に撮影対象を撮影することができる。   In addition, it has at least a base 14 and a head 16 connected to the base and on which the imaging device is mounted, and the brightness reduction operation executing means rotates the head 16 to achieve the high brightness. Since the configuration is such that incident light is avoided (S36), similarly, an imaging target such as a person can be imaged with an appropriate luminance value without increasing the performance of the image sensor or image processing, and a high-intensity imaging region can be obtained. The object to be photographed can be reliably photographed even when is relatively large.

また、基体14と、前記基体に連結される頭部16と脚部12と腕部20とを少なくとも有すると共に、前記輝度低減動作実行手段は、前記脚部12を駆動して前記高輝度の入射光を回避する(S18,S200からS204,S20,S300からS312)如く構成したので、同様に、撮像素子や画像処理の性能を上げることなく、人などの撮影対象を適切な輝度値で撮影することができると共に、高輝度撮像部位が比較的大きいときも一層確実に撮影対象を撮影することができる。   In addition, it has at least a base 14, a head 16, a leg 12, and an arm 20 connected to the base, and the brightness reduction operation executing means drives the leg 12 to make the incident with high brightness. Since it is configured to avoid light (S18, S200 to S204, S20, S300 to S312), similarly, a subject such as a person is photographed with an appropriate luminance value without improving the performance of the image sensor or image processing. In addition, the object to be imaged can be more reliably imaged even when the high-intensity imaging region is relatively large.

尚、上記において、撮影対象として人を予定したが、それ以外にロボット10の作業で予定される道具やワークなどの物体であっても良い。   In the above description, a person is scheduled as an object to be photographed, but other objects such as tools and works scheduled for the work of the robot 10 may be used.

また上記において、撮影対象の有無を撮影対象が携行するICタグ92から発信される識別情報を受信するICタグ信号受信器94の出力から判断するようにしたが、カメラ82の出力から判断しても良い。さらには外部からコマンドを入力して教示しても良い。   In the above description, the presence / absence of the photographing target is determined from the output of the IC tag signal receiver 94 that receives the identification information transmitted from the IC tag 92 carried by the photographing target. Also good. Further, it may be taught by inputting a command from the outside.

また上記において、移動体の例として脚式移動ロボット、具体的には2足歩行ロボットを例示したが、それに限られるものではなく、自律移動自在であればどのようなものであっても良い。   In the above description, a legged mobile robot, specifically a bipedal walking robot, is illustrated as an example of the moving body. However, the mobile body is not limited to this, and any mobile body may be used as long as it can move autonomously.

この発明の実施例に係る脚式移動ロボットの正面図である。1 is a front view of a legged mobile robot according to an embodiment of the present invention. 図1に示すロボットの側面図である。It is a side view of the robot shown in FIG. 図1に示すロボットをスケルトンで示す説明図である。It is explanatory drawing which shows the robot shown in FIG. 1 with a skeleton. 図1に示すロボットの構成を電子制御ユニット(ECU)の入出力関係を中心に示すブロック図である。FIG. 2 is a block diagram showing the configuration of the robot shown in FIG. 1 focusing on the input / output relationship of an electronic control unit (ECU). 図4に示す電子制御ユニットが高輝度入射方向特定および輝度低減動作を行なうときの構成を機能的に示すブロック図である。FIG. 5 is a block diagram functionally showing a configuration when the electronic control unit shown in FIG. 4 performs a high-luminance incident direction specification and luminance reduction operation. 図5と同様、電子制御ユニットが高輝度撮像部位の輝度低減動作を行なうときの処理を示すフロー・チャートである。FIG. 6 is a flow chart showing processing when the electronic control unit performs a luminance reduction operation of a high-luminance imaging region, as in FIG. 5. 図6の高輝度の入射光の方向を特定する入射方向特定動作を示すサブ・ルーチン・フロー・チャートである。7 is a sub-routine flow chart showing an incident direction specifying operation for specifying the direction of incident light with high brightness in FIG. 図7の動作を説明する説明図である。It is explanatory drawing explaining the operation | movement of FIG. 図6の脚部制御1を示すサブ・ルーチン・フロー・チャートである。7 is a sub-routine flowchart showing the leg control 1 of FIG. 6. 図9の動作を説明する説明図である。It is explanatory drawing explaining the operation | movement of FIG. 図6の脚部制御2を示すサブ・ルーチン・フロー・チャートである。7 is a sub-routine flowchart showing the leg control 2 of FIG. 6. 図11の動作を説明する説明図である。It is explanatory drawing explaining the operation | movement of FIG. 図6のハンドの駆動を説明する説明図である。It is explanatory drawing explaining the drive of the hand of FIG. この実施例に係るカメラ(撮像素子)で撮影を予定する場面の一例である。It is an example of the scene which plans imaging | photography with the camera (imaging element) which concerns on this Example.

符号の説明Explanation of symbols

10:脚式移動ロボット(移動体、ロボット)、12:脚部、14:基体、20:腕部、26:ECU(電子制御ユニット)、26a:ステレオ処理部、26b:ヒストグラム生成部、26c:露出パラメータ設定部、26d:画像処理部、26e:行動生成部、82:CCDカメラ(撮像素子。カメラ)、92:ICタグ、94:ICタグ信号受信器   10: Leg type mobile robot (moving body, robot), 12: Leg, 14: Base, 20: Arm, 26: ECU (Electronic Control Unit), 26a: Stereo processing unit, 26b: Histogram generation unit, 26c: Exposure parameter setting unit, 26d: image processing unit, 26e: action generation unit, 82: CCD camera (imaging device, camera), 92: IC tag, 94: IC tag signal receiver

Claims (6)

撮影対象を含む外界からの入射光によって画像を撮像する撮像素子と、前記撮像素子によって撮像された画像に高輝度の入射光によって撮像された高輝度撮像部位があるとき、前記高輝度の入射光の方向を特定する入射方向特定動作を実行する高輝度入射方向特定動作実行手段とを備えたことを特徴とする脚式移動ロボット。   When there is an image pickup device that picks up an image with incident light from the outside including the subject to be imaged and a high-brightness imaging part picked up with high-brightness incident light in the image picked up by the image pickup device, the high-brightness incident light A legged mobile robot comprising high-intensity incident direction specifying operation executing means for executing an incident direction specifying operation for specifying the direction. 前記高輝度入射方向特定動作実行手段は、基体と、前記基体に連結される腕部と、前記腕部に連結されるハンドとを少なくとも有すると共に、少なくとも前記ハンドを駆動して前記高輝度の入射光の方向を特定することを特徴とする請求項1記載の脚式移動ロボット。   The high-luminance incident direction specifying operation executing means has at least a base, an arm connected to the base, and a hand connected to the arm, and at least drives the hand to input the high-luminance The legged mobile robot according to claim 1, wherein the direction of light is specified. さらに、前記高輝度撮像部位の輝度を低減する輝度低減動作を実行する輝度低減動作実行手段を備えたことを特徴とする請求項1または2記載の脚式移動ロボット。   The legged mobile robot according to claim 1, further comprising a luminance reduction operation executing unit that executes a luminance reduction operation for reducing the luminance of the high-intensity imaging region. 基体と、前記基体に連結される腕部と、前記腕部に連結されるハンドとを少なくとも有すると共に、前記輝度低減動作実行手段は、前記ハンドを駆動して前記高輝度の入射光を遮断することで前記高輝度撮像部位の輝度を低減することを特徴とする請求項3記載の脚式移動ロボット。   The apparatus includes at least a base, an arm connected to the base, and a hand connected to the arm, and the brightness reduction operation execution unit blocks the high-luminance incident light by driving the hand. The legged mobile robot according to claim 3, wherein the brightness of the high-intensity imaging region is reduced. 基体と、前記基体に連結されると共に、前記撮像素子が搭載される頭部とを少なくとも有すると共に、前記輝度低減動作実行手段は、前記頭部を回転させて前記高輝度の入射光を回避することを特徴とする請求項3または4記載の脚式移動ロボット。   At least a base connected to the base and a head on which the imaging device is mounted, and the brightness reduction operation executing means rotates the head to avoid the high brightness incident light. The legged mobile robot according to claim 3 or 4, characterized by the above. 基体と、前記基体に連結される頭部と脚部と腕部とを少なくとも有すると共に、前記輝度低減動作実行手段は、前記脚部を駆動して前記高輝度の入射光を回避することを特徴とする請求項3から5のいずれかに記載の脚式移動ロボット。   It has at least a base, a head, a leg, and an arm connected to the base, and the brightness reduction operation executing means drives the leg to avoid the high brightness incident light. The legged mobile robot according to any one of claims 3 to 5.
JP2007224756A 2007-08-30 2007-08-30 Legged mobile robot Withdrawn JP2009056530A (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2007224756A JP2009056530A (en) 2007-08-30 2007-08-30 Legged mobile robot
US12/230,130 US8406505B2 (en) 2007-08-30 2008-08-25 Image brightness reduction for legged mobile robot
DE602008000660T DE602008000660D1 (en) 2007-08-30 2008-08-26 Mobile robot with legs
EP08015060A EP2030740B1 (en) 2007-08-30 2008-08-26 Legged mobile robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007224756A JP2009056530A (en) 2007-08-30 2007-08-30 Legged mobile robot

Publications (1)

Publication Number Publication Date
JP2009056530A true JP2009056530A (en) 2009-03-19

Family

ID=40552757

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007224756A Withdrawn JP2009056530A (en) 2007-08-30 2007-08-30 Legged mobile robot

Country Status (1)

Country Link
JP (1) JP2009056530A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9547310B2 (en) 2014-02-21 2017-01-17 Toyota Jidosha Kabushiki Kaisha Mobile object control system, mobile object control method and non-transitory recording medium

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9547310B2 (en) 2014-02-21 2017-01-17 Toyota Jidosha Kabushiki Kaisha Mobile object control system, mobile object control method and non-transitory recording medium

Similar Documents

Publication Publication Date Title
US8026955B2 (en) Camera exposure controller including imaging devices for capturing an image using stereo-imaging
CN108700408B (en) Three-dimensional shape data and texture information generation system, method and shooting control method
EP1462993A3 (en) Automatic work apparatus and automatic work control program
JP2009241247A (en) Stereo-image type detection movement device
CN104243800A (en) Control device and storage medium
US20050206736A1 (en) Automatic angle adjusting system
JP2017046301A (en) Imaging apparatus
JP2019033344A (en) Image processing apparatus, image processing method, and program
WO2019044489A1 (en) Drive device and imaging device control method
JP5609760B2 (en) Robot, robot operation method, and program
JP5248951B2 (en) CAMERA DEVICE, IMAGE SHOOTING SUPPORT DEVICE, IMAGE SHOOTING SUPPORT METHOD, AND IMAGE SHOOTING SUPPORT PROGRAM
JP2006224291A (en) Robot system
JP4933383B2 (en) Camera exposure control device
JP2003207324A (en) Method and device for acquiring three-dimensional information
JP2000083246A (en) Camera control system, camera control method, and recording medium stored with program to execute processing thereof
JP4847420B2 (en) Legged mobile robot
JP4661269B2 (en) Imaging apparatus and program
JP2009056529A (en) Legged mobile robot
JP2009056530A (en) Legged mobile robot
JP2005229282A5 (en)
Suzuki et al. Operation direction to a mobile robot by projection lights
EP2030740B1 (en) Legged mobile robot
JP2005205519A (en) Robot hand device
WO2011152168A1 (en) Stereoscopic imaging digital camera and operation control method for same
JP2002344796A (en) System and method for remote image centering

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20101102