WO2022030242A1 - 情報処理装置、情報処理方法、およびプログラム - Google Patents

情報処理装置、情報処理方法、およびプログラム Download PDF

Info

Publication number
WO2022030242A1
WO2022030242A1 PCT/JP2021/027079 JP2021027079W WO2022030242A1 WO 2022030242 A1 WO2022030242 A1 WO 2022030242A1 JP 2021027079 W JP2021027079 W JP 2021027079W WO 2022030242 A1 WO2022030242 A1 WO 2022030242A1
Authority
WO
WIPO (PCT)
Prior art keywords
task
sensor
unit
distance
information processing
Prior art date
Application number
PCT/JP2021/027079
Other languages
English (en)
French (fr)
Inventor
佳和 古山
Original Assignee
ソニーグループ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーグループ株式会社 filed Critical ソニーグループ株式会社
Priority to US18/006,733 priority Critical patent/US20230302632A1/en
Priority to EP21852161.5A priority patent/EP4190514A4/en
Priority to JP2022541425A priority patent/JPWO2022030242A1/ja
Publication of WO2022030242A1 publication Critical patent/WO2022030242A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1612Programme controls characterised by the hand, wrist, grip control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J15/00Gripping heads and other end effectors
    • B25J15/0009Gripping heads and other end effectors comprising multi-articulated fingers, e.g. resembling a human hand
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/37Measurements
    • G05B2219/37425Distance, range
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39487Parallel jaws, two fingered hand
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39527Workpiece detector, sensor mounted in, near hand, gripper
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39543Recognize object and plan hand shapes in grasping movements
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40264Human like, type robot arm
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40298Manipulator on vehicle, wheels, mobile
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40564Recognize shape, contour of object, extract position and orientation

Definitions

  • Various tasks using a robot hand such as grasping an object, are usually realized by controlling the robot hand or determining the success or failure of the task based on the sensor value acquired by the sensor. ..
  • This technology was made in view of such a situation, and makes it possible to appropriately control the alignment of the operating object.
  • the information processing device on one aspect of the present technology is used to execute a task of moving an object to a specific position, and the position of a hand portion provided with a plurality of sensors on the surface is determined while the hand portion is moving. It is an information processing apparatus including a control unit that controls based on the positional relationship information representing the positional relationship between the object and an object around the object, which is estimated based on the distance measured by the sensor.
  • the arm portion 13 When it is not necessary to distinguish between the arm portions 13-1 and 13-2 as appropriate, they are collectively referred to as the arm portion 13.
  • the hand unit 14 When it is not necessary to distinguish between the hand units 14-1 and 14-2, they are collectively referred to as the hand unit 14.
  • Other configurations provided in plurality will also be described together as appropriate.
  • FIG. 2 is an enlarged view of the hand portion 14-1.
  • nine distance sensors 41-0 are provided vertically and horizontally on the upper surface of the base portion 21 corresponding to the palm.
  • the distance sensors 41-0 are provided at predetermined intervals.
  • Distance sensors 41L-7 and 41L-8 are provided side by side inside the plate-shaped portion 31L.
  • a distance sensor 41L-9 (not shown) is provided on the outside of the plate-shaped portion 31L as on the right finger 22R side.
  • the distance sensor 41 when it is not necessary to distinguish between the distance sensors 41L-1 to 41L-9 and the distance sensors 41R-1 to 41R-9 as appropriate, they are collectively referred to as the distance sensor 41.
  • the distance to each position of the object is measured by detecting the reflected light of the light beam emitted by each distance sensor 41.
  • the light emitted by the distance sensor 41 is shown in color.
  • the hand portion 14 is a two-finger type grip portion
  • a multi-finger type grip portion having a different number of finger portions, such as a three-finger type and a five-finger type, may be provided.
  • the degree of freedom of the finger portion, the number of distance sensors 41, and the arrangement of the distance sensors 41 can be arbitrarily set.
  • FIG. 5 is a block diagram showing a hardware configuration example of the robot 1.
  • the hand finger initial position determination unit 103 determines a use sensor, which is a distance sensor 41 used for monitoring the execution status of the task, according to the task determined by the task determination unit 102. From the plurality of distance sensors 41 provided in the hand unit 14, the distance sensor 41 suitable for monitoring the execution status of the task is determined as the sensor to be used.
  • step S1 the task determination unit 102 determines the task to be executed.
  • the contactable area Est is the target value. Is reached, and it is determined that the task of moving the card C1 toward you has succeeded. At this time, next, the task of bringing the left finger 22L into contact with the lower surface of the card C1 is executed.
  • the slide of the hand portion 14-1 is continued.
  • the card C1 shifts further slightly, as shown in A in FIG.
  • the contactable area Rest of the card C1 is smaller than that in the case of A in FIG. 9, in which the hand portion 14-1 could be slid without slipping.
  • n ref represents the number of distance sensors 41 that measure the sensor values within the effective distance range required for the contactable area to reach the target value.
  • n represents the current number of distance sensors 41 that measure sensor values within the effective distance range.
  • S ref represents the target value of the contactable area.
  • Equation (2) states that if the area of the card C1 corresponding to the footprint area of the n ref distance sensors 41 protrudes from the edge portion of the desk D1, the contactable area Est becomes larger than the target value S ref . show.
  • FIG. 12 is a diagram showing an example of control by the alignment control unit 108.
  • the control of the hand unit 14 by the alignment control unit 108 is performed by moving the hand unit 14 while decelerating as the contactable area Rest , which is geometric information, increases.
  • the converter 132 applies the conversion coefficient K to the difference supplied from the subtractor 131, and calculates the target value v ref of the moving speed. For example, the smaller the difference between the target value S ref and the contactable area S est , the smaller the value is calculated as the target value v ref of the moving speed.
  • the converter 132 outputs the target value v ref of the moving speed to the subtractor 133.
  • Robot 1 can improve the accuracy and success rate of the task of moving the operating object to the target position.
  • the inclination (attitude) of the kitchen knife K1 obtained based on the sensor value measured by the distance sensor 41-0 is used as geometric information together with the distance to the desk D1.
  • the inclination of the kitchen knife K1 is represented by, for example, the difference between the distance measured by the light ray L12 and the distance measured by the light ray L13.
  • the robot 1 can restart the task of cutting the object Ob1 without restarting from the beginning.
  • the distance sensor 41L-5 at the fingertip of the left finger 22L and the distance sensor 41R-5 at the fingertip of the right finger 22R are determined as the sensors to be used, and the distance sensor 41L-5 and the distance sensor 41R-5 are determined. Measures the distance.
  • the distance to the present B11 is measured by the distance sensor 41L-5 provided at the fingertip of the left finger 22L.
  • the distance to the present B12 is measured by the distance sensor 41R-5 provided at the fingertip of the right finger 22R.
  • the robot 1 After performing the recovery operation, the robot 1 can execute the next task such as performing the task again.
  • a plurality of distance sensors 41 provided on the arm portion 13-1 are determined as the sensors to be used, and the distance is measured by the distance sensor 41.
  • the distance sensor 41 provided on the arm portion 13-1 is arranged so as to be parallel to the top plate of the desk D1, and the distance to the desk D1 is measured by the light ray L31.
  • FIG. 22 is a diagram showing a configuration example of the system.
  • the information processing device controls the position of the hand unit by driving the arm unit that supports the hand unit and driving each of the finger units.
  • the information processing apparatus according to (3) further comprising an estimation unit that estimates the positional relationship based on the distribution of distances measured by the plurality of sensors.
  • the information processing apparatus estimates the contactable area of the object by the finger portion based on the number of sensors that measure a distance within a predetermined range.
  • the task is a task of moving the object placed on the top plate as the object in the surroundings to a position where the object can be pinched from above and below by the finger portion.
  • the information processing apparatus which estimates the positional relationship.
  • the task is a task of bringing the object in contact with the plane closer to the object provided at the end of the plane while being pressed against the plane by the support portion provided side by side with the sensors.
  • the control unit moves the hand unit in a state where the sensor provided in the finger unit and the sensor provided in the support unit are positioned so as to be aligned in parallel with the plane.
  • Information processing equipment. (13)
  • the estimation unit estimates the positional relationship based on the distance to an object in the moving direction measured by the sensor provided at the tip of the finger unit that grips the object. Information processing equipment.

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Manipulator (AREA)

Abstract

本技術は、操作物体の位置合わせを適切に制御することができるようにする情報処理装置、情報処理方法、およびプログラムに関する。 本技術の情報処理装置は、特定の位置に対象物を移動させるタスクの実行に用いられ、表面に複数のセンサが設けられたハンド部の位置を、ハンド部の移動中にセンサにより計測された距離に基づいて推定された、対象物と対象物の周囲にある物体との位置関係を表す位置関係情報に基づいて制御する制御部を備える。本技術は、例えば、ハンド部を用いて物体を移動させるタスクを実行するロボットに適用することができる。

Description

情報処理装置、情報処理方法、およびプログラム
 本技術は、情報処理装置、情報処理方法、およびプログラムに関し、特に、操作物体の位置合わせを適切に制御することができるようにした情報処理装置、情報処理方法、およびプログラムに関する。
 物体を把持するなどのロボットハンドを用いた各種のタスクは、通常、センサにより取得されたセンサ値に基づいて、ロボットハンドの制御を行ったり、タスクの成否判定を行ったりすることにより実現される。
 例えば、特許文献1には、ビジョンセンサにより取得された画像情報と力覚センサにより取得された力覚情報とに基づいて、対象物と周辺物の動きを検知し、ロボットが対象物を正常に操作しているか否かを判定する技術が開示されている。
 特許文献2には、物体の計測が容易な位置にセンサ部を移動させた後、センサ部により計測された物体の位置と姿勢に基づいて、ロボットハンドを移動させ、物体を把持する技術が開示されている。
特開2016-196077号公報 特開2020-16446号公報
 特許文献1に記載の技術においては、ビジョンセンサとロボットハンドの位置関係によっては、ロボットハンドにより物体が遮蔽され、ビジョンセンサによって物体を観測することができない場合がある。この場合、画像情報に基づくロボットハンドの制御が困難となる。
 また、対象物と周辺物の位置関係や移動量を力覚センサにより取得された力覚情報に基づいて推定することは、推定の精度の面からは好ましくない。
 特許文献2に記載の技術においては、物体の位置と姿勢の計測結果には誤差が含まれるため、一度の計測結果に基づいてロボットハンドを移動させた場合には、実際の物体の位置および姿勢が、推定した位置および姿勢とずれることがある。
 また、計測が容易な位置にセンサ部を移動させるだけでは、センサ部により取得された情報をタスクの成否判定やロボットハンドの制御に利用することができないことがある。例えば、物体を把持するために物体に近づけたロボットハンドが物体を遮蔽してしまった場合には、物体の位置と姿勢をセンサ部によって計測することができない。
 本技術はこのような状況に鑑みてなされたものであり、操作物体の位置合わせを適切に制御することができるようにするものである。
 本技術の一側面の情報処理装置は、特定の位置に対象物を移動させるタスクの実行に用いられ、表面に複数のセンサが設けられたハンド部の位置を、前記ハンド部の移動中に前記センサにより計測された距離に基づいて推定された、前記対象物と前記対象物の周囲にある物体との位置関係を表す位置関係情報に基づいて制御する制御部を備える情報処理装置である。
 本技術の一側面においては、特定の位置に対象物を移動させるタスクの実行に用いられ、表面に複数のセンサが設けられたハンド部の位置が、前記ハンド部の移動中に前記センサにより計測された距離に基づいて推定された、前記対象物と前記対象物の周囲にある物体との位置関係を表す位置関係情報に基づいて制御される。
本技術の一実施の形態に係るロボットの外観の例を示す図である。 ハンド部を拡大して示す図である。 距離センサによる計測の様子を示す図である。 距離センサによる計測の様子を示す図である。 ロボットのハードウェア構成例を示すブロック図である。 情報処理装置の機能構成例を示すブロック図である。 情報処理装置の処理について説明するフローチャートである。 薄い物体を把持するタスクの実行時の様子を示す図である。 タスクの実行時の様子を示す、図8に続く図である。 タスク失敗時の様子を示す図である。 タスク失敗時の様子を示す図である。 位置合わせ制御部による制御の例を示す図である。 接触可能面積とハンド部の移動速度の指令値の例を示す図である。 クリーナを用いて窓の拭き掃除を行うタスクの成功時の様子を示す図である。 クリーナを用いて窓の拭き掃除を行うタスクの成功時の様子を示す図である。 間隔とハンド部の移動速度の指令値の例を示す図である。 窓の拭き掃除を行うタスクの失敗時時の様子を示す図である。 包丁を操作して物体を切るタスクの成功時の様子を示す図である。 包丁を操作して物体を切るタスクの失敗時の様子を示す図である。 本と本の間に別の本を置くタスクの失敗時の様子を示す図である。 机の特定の位置に操作物体を配置するタスクの様子を示す図である。 システムの構成例を示す図である。 コンピュータのハードウェアの構成例を示すブロック図である。
 以下、本技術を実施するための形態について説明する。説明は以下の順序で行う。
 1.ロボットの外観構成
 2.ロボットの構成
 3.情報処理装置の動作
 4.他のタスクの例
 5.変形例
<1.ロボットの外観構成>
 図1は、本技術の一実施の形態に係るロボット1の外観の例を示す図である。
 図1に示すように、ロボット1は、上半身が人型であり、車輪を用いた移動機構を有するロボットである。胴体部11の上には、扁平球体状の頭部12が設けられる。頭部12の正面には、人間の目を真似た形で2つの視覚センサ12Aが設けられる。
 胴体部11の上端には、多自由度のマニピュレータにより構成されるアーム部13-1,13-2が設けられる。アーム部13-1,13-2のそれぞれの先端には、エンドエフェクタであるハンド部14-1,14-2が設けられる。ロボット1は、ハンド部14-1,14-2によって物体を把持する機能を有する。
 以下、適宜、アーム部13-1,13-2を区別する必要がない場合、まとめてアーム部13という。また、ハンド部14-1,14-2を区別する必要がない場合、まとめてハンド部14という。複数設けられる他の構成についても、適宜、まとめて説明する。
 胴体部11の下端には、台車状の移動体部15が設けられる。移動体部15の左右に設けられた車輪を回転させたり、車輪の向きを変えたりすることにより、ロボット1は移動することができる。
 このように、ロボット1は、ハンド部14により物体を把持したり、物体を把持した状態で運搬したりするなどの各種のタスクを実行可能なロボットである。図1の例では、ロボット1の前にある机D1の天板の上にカードC1が置かれている。後述するように、ロボット1は、カードC1を拾い上げる一連のタスクを、ハンド部14に設けられた距離センサによってタスクの実行状況を監視しながら実行する。
 なお、図1に示すように双腕のロボットではなく、単腕(アーム部13が1本)のロボットとしてロボット1が構成されるようにしてもよい。また、台車(移動体部15)に代えて、脚部の上に胴体部11が設けられるようにしてもよい。
 図2は、ハンド部14-1を拡大して示す図である。
 図2に示すように、ハンド部14-1は、2本指のグリッパタイプの把持部である。立方体状の形状を有するベース部21には、2本のフィンガ部22である左指22Lと右指22Rが取り付けられる。ベース部21は、複数のフィンガ部22を支持する支持部として機能する。
 左指22Lは、所定の厚さを有する板状の部材である板状部31Lと板状部32Lが連結することにより構成される。ベース部21に取り付けられた板状部31Lの先端側には板状部32Lが設けられる。ベース部21と板状部31Lの連結部、および、板状部31Lと板状部32Lの連結部は、それぞれ所定の可動域を有している。板状部32Lの内側には、薄板状のフィンガ接触部33Lが設けられる。
 右指22Rも、左指22Lと同様の構成を有している。すなわち、ベース部21に取り付けられた板状部31Rの先端側に板状部32Rが設けられる。ベース部21と板状部31Rの連結部、および、板状部31Rと板状部32Rの連結部は、それぞれ所定の可動域を有している。板状部32Rの内側には、薄板状のフィンガ接触部33R(不図示)が設けられる。
 それぞれの連結部を動かすことにより、左指22Lと右指22Rが開閉する。板状部32Lの内側と、板状部32Rの内側で挟むようにして、カードC1などの各種の物体が把持される。フィンガ接触部33Lが設けられた板状部32Lの内側の面と、フィンガ接触部33Rが設けられた板状部32Rの内側の面が、物体を把持する際の、物体との接触面となる。
 図2に色を付して示すように、ハンド部14-1を構成する各部材の表面には、近距離計測が可能な距離センサが複数設けられる。距離センサは、例えば光学式のセンサである。
 例えば、掌に相当するベース部21の上面には、9つの距離センサ41-0が縦横に並べて設けられる。それぞれの距離センサ41-0は所定の間隔を空けて設けられる。
 また、物体との接触面となる板状部32Lの内側には、指先側から順に、2つの距離センサのペアである距離センサ41L-1,41L-2,41L-3が設けられる。距離センサ41L-1,41L-2,41L-3を構成する2つの距離センサは、フィンガ接触部33Lを挟むように、板状部32Lの縁に沿って設けられる。
 板状部32Lの側面には距離センサ41L-4が設けられ、指先となる半円筒状の面には距離センサ41L-5が設けられる。板状部32Lの外側には、右指22R側と同様に距離センサ41L-6(不図示)が設けられる。
 板状部31Lの内側には距離センサ41L-7,41L-8が並べて設けられる。板状部31Lの外側には、右指22R側と同様に距離センサ41L-9(不図示)が設けられる。
 右指22Rにも、左指22Lと同様に距離センサ41R-1乃至41R-9が設けられる。すなわち、板状部32Rの内側には、指先側から順に、距離センサ41R-1,41R-2,41R-3(不図示)が設けられ、板状部32Rの側面には距離センサ41R-4が設けられる。
 板状部32Rの指先の面には距離センサ41R-5が設けられ、板状部32Rの外側には距離センサ41R-6が設けられる。板状部31Rの内側には距離センサ41R-7,41R-8(不図示)が設けられ、板状部31Rの外側には距離センサ41R-9が設けられる。
 以下、適宜、距離センサ41L-1乃至41L-9および距離センサ41R-1乃至41R-9を区別する必要がない場合、まとめて距離センサ41という。
 タスクを実行する際、図3、図4に示すように、それぞれの距離センサ41が発する光線の反射光を検出することにより、物体の各位置までの距離が計測される。図3、図4においては、距離センサ41が発する光が色を付して表されている。
 例えば、距離センサ41-0、距離センサ41L-1乃至41L-3,41L-7,41L-8、および、距離センサ41R-1乃至41R-3,41R-7,41R-8を用いて、ハンド部14が把持している物体の各位置までの距離などが計測される。
 このように、ハンド部14-1の各部に距離センサ41が設けられることにより、操作物体としてのカードC1までの距離の分布(カードC1の各位置までの距離)がリアルタイムで計測される。また、カードC1の周囲の環境を構成する机D1までの距離の分布がリアルタイムで計測される。カードC1と机D1の各位置までの距離に基づいて、タスクの実行状況が監視される。
 以上のようなハンド部14-1の構成と同じ構成が、ハンド部14-2にも設けられる。
 ハンド部14が2本指タイプの把持部であるものとしたが、3指タイプ、5指タイプなど、フィンガ部の本数が異なる多指タイプの把持部が設けられるようにしてもよい。フィンガ部の自由度、距離センサ41の数、距離センサ41の配置については、任意に設定可能である。
<2.ロボットの構成>
・ハードウェアの構成
 図5は、ロボット1のハードウェア構成例を示すブロック図である。
 図5に示すように、ロボット1は、情報処理装置51に対して、胴体部11、頭部12、アーム部13、ハンド部14、および移動体部15に設けられる各構成が接続されることによって構成される。
 情報処理装置51は、CPU(Central Processing Unit),ROM(Read Only Memory),RAM(Random Access Memory)、フラッシュメモリなどを有するコンピュータにより構成される。情報処理装置51は、例えば胴体部11内に収納される。情報処理装置51は、CPUにより所定のプログラムを実行し、ロボット1の全体の動作を制御する。
 情報処理装置51は、センサによる検出結果や視覚センサにより撮影された画像などに基づいてロボット1の周りの環境を認識し、認識結果に応じてタスクを実行する。胴体部11、頭部12、アーム部13、ハンド部14、および移動体部15の各部には、各種のセンサやカメラが設けられる。例えば、頭部12には、RGBカメラなどにより構成される視覚センサ12Aが設けられる。ハンド部14には、距離センサ41が設けられる。
・機能構成
 図6は、情報処理装置51の機能構成例を示すブロック図である。
 図6に示すように、情報処理装置51は、環境計測部101、タスク決定部102、ハンド・フィンガ初期位置決定部103、初期位置データベース104、初期位置移動制御部105、目標値計算部106、幾何情報推定部107、位置合わせ制御部108、タスク成否条件計算部109、およびタスク成否判定部110により構成される。図6に示す機能部のうちの少なくとも一部は、情報処理装置51のCPUにより所定のプログラムが実行されることによって実現される。
 環境計測部101は、視覚センサ12Aの出力に基づいて、操作物体とその周囲の環境を構成する物体を対象とした3次元計測を行う。3次元計測を行うことにより、操作物体の位置と形状、周囲の環境を構成する物体の形状などが計算される。環境計測部101による計測結果は、ハンド・フィンガ初期位置決定部103に出力される。
 タスク決定部102は、実行するタスクを決定し、タスクの内容を表す情報を出力する。タスクの内容を表す情報には、幾何情報としてどのような情報を用いるのかを表す情報が含まれる。後述するように、幾何情報は、各部の制御とともに、タスクの実行状況の監視に用いられる情報である。タスク決定部102から出力された情報は、ハンド・フィンガ初期位置決定部103、目標値計算部106、および幾何情報推定部107に供給される。
 ハンド・フィンガ初期位置決定部103は、タスク決定部102により決定されたタスクに応じて、タスクの実行状況の監視に使用する距離センサ41である使用センサを決定する。ハンド部14に設けられた複数の距離センサ41の中から、タスクの実行状況の監視に適した距離センサ41が使用センサとして決定される。
 また、ハンド・フィンガ初期位置決定部103は、環境計測部101による計測結果と、タスク決定部102により決定されたタスクの内容とに基づいて、使用センサとして決定した距離センサ41の初期位置を計算する。
 距離センサ41の初期位置の候補は、タスクの内容ごとにあらかじめ設定される。初期位置の候補を表す情報は、初期位置データベース104に保存され、適宜、ハンド・フィンガ初期位置決定部103により読み出される。ハンド・フィンガ初期位置決定部103により計算された距離センサ41の初期位置を表す情報は、初期位置移動制御部105に出力される。
 初期位置移動制御部105は、ハンド・フィンガ初期位置決定部103により計算された初期位置に距離センサ41が位置するように、駆動部121を制御する。駆動部121は、アーム部13、ハンド部14、移動体部15などの、ロボット1の駆動部分に対応する。
 目標値計算部106は、タスク決定部102から供給された情報に基づいて、幾何情報の目標値を計算し、位置合わせ制御部108に出力する。
 幾何情報推定部107は、距離センサ41により計測された距離分布情報を取得する。距離分布情報は、操作物体や環境を構成する物体の各位置までの距離を表す。幾何情報推定部107は、タスク決定部102により決定された幾何情報を距離分布情報に基づいて推定し、タスク決定部102、位置合わせ制御部108、およびタスク成否判定部110に出力する。
 位置合わせ制御部108は、幾何情報推定部107により推定された幾何情報が、目標値計算部106から供給された目標値に達するように駆動部121を制御することで、位置合わせ制御を行う。位置合わせ制御は、操作物体を所定の位置に移動させる制御である。また、位置合わせ制御は、距離センサ41が所定の位置にくるようにアーム部13やハンド部14を移動させる制御でもある。
 タスク成否条件計算部109は、タスクの成功条件と失敗条件を決定し、成功条件と失敗条件を表す情報をタスク成否判定部110に出力する。
 タスク成否判定部110は、幾何情報推定部107により推定された幾何情報が、タスク成否条件計算部109により決定された条件を満たすか否かに応じて、実行中のタスクの成否を判定する。タスク成否判定部110は、タスクに成功したと判定した場合、または、タスクに失敗したと判定した場合、停止指令を位置合わせ制御部108に出力する。タスクの成否判定の結果は、適宜、タスク決定部102などの他の処理部にも供給される。
<3.情報処理装置の動作>
・薄い物体を把持するタスクの例
 図7のフローチャートを参照して、情報処理装置51の処理について説明する。
 ここでは、机D1の天板上に置かれたカードC1を把持するタスクを実行する場合の処理について、適宜、図8、図9に示す、タスクの実行時の様子を参照して説明する。
 カードC1などの薄い物体を把持する際、人間は、爪を使って拾い上げたり、机D1の手前までずらしてから拾い上げたりすることが多い。机D1の手前までずらしてからカードC1を拾い上げる後者の動作が、情報処理装置51により実現される。
 ステップS1において、タスク決定部102は、実行するタスクを決定する。
 カードC1を把持するタスクには、左指22Lと右指22Rで挟むことができるように、カードC1を手前にずらすタスクと、カードC1の下面に左指22Lを接触させるタスク(左指22Lと右指22RでカードC1を挟むタスク)とが含まれる。タスク決定部102は、はじめに、カードC1を手前にずらすタスクを実行することを決定する。
 ステップS2において、環境計測部101は、視覚センサ12Aの出力に基づいて環境の3次元計測を行う。3次元計測を行うことにより、カードC1の位置と形状、机D1の形状などが認識される。
 ステップS3において、ハンド・フィンガ初期位置決定部103は、タスクの内容と環境計測部101による計測結果とに基づいて、ハンド部14とフィンガ部22のそれぞれの初期位置を計算する。位置とともに、ハンド部14とフィンガ部22のそれぞれの姿勢も計算される。
 ステップS4において、ハンド・フィンガ初期位置決定部103は、使用センサを決定する。
 ここでは、タスクの実行状況の監視に適した位置となるように、ハンド部14とフィンガ部22のそれぞれの初期位置がステップS3において計算されるとともに、使用センサがステップS4において決定される。
 図8は、薄い物体を把持するタスクの実行時の様子を示す図である。
 例えば、図8のAに示すように、左指22Lを机D1の下に配置し、右指22Rを、カードC1の上面に接触させるような初期位置が計算される。
 図8のAの例においては、左指22Lの内側に設けられた距離センサ41L-1乃至41L-3と距離センサ41L-7,41L-8(図2)が、使用センサとして決定されている。図8のAに示す初期位置は、左指22Lの内側に設けられた距離センサ41が、カードC1の移動方向と平行に並ぶ位置である。図8のAにおいて、白抜き矢印で示す水平右方向が、ハンド部14の移動方向、すなわち、カードC1の移動方向である。
 このような各部の初期位置が、タスク決定部102により決定されたタスクに応じて選択される。タスクに応じた決定が行われるようにあらかじめプログラムしておくことの他に、初期位置の決定方法として様々な方法を用いることが可能である。
 例えば、機械学習によって得られた推論モデルを用いて、タスクの成否の検出に最も適している初期位置等が決定されるようにしてもよい。この場合、ハンド部14の位置を様々な位置としてタスクを実行して記録された、タスク成功時とタスク失敗時のそれぞれの時系列のセンサデータを用いた機械学習が行われることによって、推論モデルが生成される。
 図7の説明に戻り、ステップS5において、タスク決定部102は、駆動部121の制御に用いる幾何情報を決定する。
 幾何情報は、大きさ(面積)、傾き、距離などの、物体の少なくとも一部の状態を表す情報であり、ハンド部14の移動中に距離センサ41により計測された距離に基づいて求められる。操作物体と周囲の物体の位置関係に応じて変化することから、幾何情報は、タスク実行中(ハンド部14の移動中)の、操作物体と周囲の物体の位置関係を表す情報として、駆動部121の制御とともに、タスクの実行状況の監視に用いられる。
 カードC1をずらすタスクを実行する場合、左指22Lを接触させることが可能な面積である接触可能面積Sが幾何情報として決定される。接触可能面積Sestは次式(1)で表される。
Figure JPOXMLDOC01-appb-M000001
 式(1)において、nは、有効距離レンジ内のセンサ値を計測した距離センサ41の数を表す。Aは、距離センサ41のフットプリント面積を表す。
 有効距離レンジは、距離センサ41(左指22Lの距離センサ41)から机D1までの距離より大きく(長く)、距離センサ41から、反対側のフィンガ部22である右指22Rまでの距離よりも小さい(短い)距離の範囲である。
 左指22Lが机D1の下に配置されているから、接触可能面積Sestは、カードC1全体のうち、机D1の縁部分からはみ出した領域の面積となる。
 幾何情報として、操作物体の接触可能面積の他に、距離センサ41により計測される距離、環境に対する操作物体の姿勢(傾き)などを用いることが可能である。操作物体の接触可能面積以外の情報を幾何情報として用いる例については、他のタスクを実行する例を参照して後述する。
 ステップS6において、初期位置移動制御部105は、ハンド・フィンガ初期位置決定部103により計算された初期位置にハンド部14を移動させる。
 ステップS7において、初期位置移動制御部105は、ハンド部14を操作物体に接触させる。具体的には、図8のAを参照して説明したように、初期位置移動制御部105は、右指22RをカードC1の上面にラフな位置で接触させる。
 図8のAに示す初期位置に左指22Lと右指22Rが配置された後、使用センサである距離センサ41L-1乃至41L-3,41L-7,41L-8により距離の計測が行われる。図8のAの破線で示す光線L1乃至L5は、それぞれ、距離センサ41L-1乃至41L-3,41L-7,41L-8が発する光線を表す。
 図8のAの場合、距離センサ41L-1乃至41L-3,41L-7により、机D1までの距離を表すセンサ値が計測され、距離センサ41L-8により、右指22Rまでの距離を表すセンサ値が計測される。有効距離レンジの距離を計測している距離センサがないから、この場合、接触可能面積は0となる。
 ステップS8において、目標値計算部106は、幾何情報の目標値を計算する。ハンド部14等の制御は、幾何情報を目標値に近付けるようにして行われる。
 ステップS9において、タスク成否条件計算部109は、タスクの成功条件と失敗条件を決定する。
 例えば、タスク成否条件計算部109は、カードC1の下面に左指22Lを接触できる程度の面積を閾値として設定し、接触可能面積Sestが閾値よりも大きいことを成功条件として決定する。目標値計算部106がステップS8において計算する目標値は、成功条件の閾値として用いられる面積となる。
 また、タスク成否条件計算部109は、接触可能面積Sestが目標値よりも小さく、かつ、有効距離レンジ外のセンサ値を計測している全ての距離センサ41のセンサ値が異常レンジであることを失敗条件として決定する。有効距離レンジ外の距離のうち、左指22Lに設けられた距離センサ41から右指22Rまでの距離が異常レンジとして設定される。
 なお、失敗条件として複数の条件が決定されるようにしてもよい。例えば、上述した失敗条件とともに、左指22Lに設けられた距離センサ41により計測されたセンサ値の最小値(机D1までの最短距離)がタスク開始時よりも小さくなったことが、失敗条件として決定される。この場合、ハンド部14を机D1の天板と平行にスライドできずに、右指22RがカードC1から離れてしまっていることになる。
 ステップS10において、幾何情報推定部107は、距離センサ41により計測されたセンサ値に基づいて接触可能面積Sestを計算する。
 ステップS11において、位置合わせ制御部108は、幾何情報推定部107により推定された接触可能面積Sestに基づいて位置合わせ制御を行う。
 具体的には、位置合わせ制御部108は、図8のAに示す状態にあるハンド部14-1を、机D1と平行にスライドさせる。ハンド部14-1をスライドさせ、カードC1をずらすことによって、図8のBに示すように、カードC1の一部が机D1の縁部分からはみ出す。
 この場合、一点鎖線の光線L3で示すように、距離センサ41L-3は、距離センサ41からカードC1までの、有効距離レンジ内のセンサ値を計測することになる。この状態の場合、接触可能面積Sestとして所定の面積が求められる。
 図8のBの例においては、距離センサ41L-1,41L-2は、距離センサ41から机D1までの距離、すなわち、有効距離レンジ外のセンサ値を計測している。また、距離センサ41L-7,41L-8は、右指22Rまでの距離、すなわち、有効距離センサ外のセンサ値を計測している。
 後述するように、位置合わせ制御部108による制御は、幾何情報である接触可能面積Sestが大きくなるにつれて減速させながら、ハンド部14-1(駆動部121)を移動させるようにして行われる。
 ステップS12において、タスク成否判定部110は、異常が発生したか否かを判定する。
 異常が発生していないとステップS12において判定した場合、ステップS13において、タスク成否判定部110は、タスクが成功したか否かを判定する。ここでは、接触可能面積Sestが成功条件を満たした場合に、タスクが成功したと判定される。
 タスクが成功していないとステップS13において判定された場合、ステップS10に戻り、それ以降の処理が繰り返される。位置合わせ制御部108は、接触可能面積が目標値に達するまで、ハンド部14-1をスライドさせ続ける。
 接触可能面積Sestが目標値に達したことから、タスクが成功したとステップS13において判定された場合、ステップS14において、位置合わせ制御部108は、タスク成否判定部110からの停止指令に従って、ハンド部14-1のスライドを停止させる。
 図9は、タスクの実行時の様子を示す、図8に続く図である。
 図9のAの一点鎖線の光線L2,L3で示すように、距離センサ41L-2,41L-3により計測されたセンサ値が有効距離レンジ内となった場合、接触可能面積Sestが目標値に達し、カードC1を手前にずらすタスクが成功したとして判定される。このとき、次に、カードC1の下面に左指22Lを接触させるタスクを実行する状態となる。
 ステップS15において、タスク決定部102は、全てのタスクが完了したか否かを判定する。
 例えば、カードC1の下面に左指22Lを接触させるタスクがあることから、全てのタスクが完了していないとステップS15において判定された場合、ステップS16において、目標値計算部106は、現在のセンサ値に基づいて次のタスクの指令値を計算する。次のタスクの指令値の計算は、カードC1の下面に左指22Lを接触させるタスクが、次に実行するタスクとしてタスク決定部102により決定された後に行われる。
 例えば、図9のAの吹き出しに示すように、目標値計算部106は、距離センサ41L-1乃至41L-3,41L-7,41L-8により取得されたセンサ値に基づいて、左指22Lの目標位置を指令値として計算する。
 次のタスクの指令値が計算された後、ステップS3に戻り、上述した処理と同様の処理が行われる。
 すなわち、幾何情報を用いてタスクの実行状況を監視しながら左指22Lを移動させる処理が行われ、図9のBに示すように、机D1の縁部分からはみ出したカードC1の領域の下面に左指22Lが接触し、カードC1が把持される。左指22LをカードC1に接触させるタスクにおいては、例えば、左指22Lの指先に設けられた距離センサ41L-5が使用センサとして用いられる。また、使用センサである距離センサ41L-5からカードC1までの距離が幾何情報として用いられる。
 一方、ステップS12において失敗条件を満たす場合、タスク成否判定部110は異常が発生したと判定する。
 図10および図11は、タスク失敗時の様子を示す図である。
 右指22RによってカードC1を押し付ける力が弱い場合、カードC1をずらすためにハンド部14-1をスライドさせても、図10のAの吹き出しに示すように、右指22RとカードC1の間で滑りが生じてしまう。
 滑りが生じたままハンド部14-1をスライドさせた場合、図10のBに示すように、カードC1は、僅かにずれるが、机D1の縁部分からはみ出ない。
 この場合、破線の光線L1,L2で示すように、距離センサ41L-1,41L-2により、それぞれ、有効距離レンジ外のセンサ値が計測される。また、破線の光線L3乃至L5で示すように、距離センサ41L-3,41L-7,41L-8により、それぞれ、異常レンジのセンサ値が計測される。
 距離センサ41L-1,41L-2により異常レンジのセンサ値が計測されていないため、ハンド部14-1のスライドが継続される。スライドが継続されることにより、図11のAに示すように、カードC1はさらに僅かにずれる。この場合、カードC1の接触可能面積Sestは、滑りが生じずにハンド部14-1をスライドさせることができた、図9のAの場合よりも小さくなる。
 図11のAにおいては、一点鎖線の光線L1で示すように、距離センサ41L-1だけによって有効距離レンジ内のセンサ値が計測されている。接触可能面積Sestが目標値よりも小さく、かつ、有効距離レンジ外のセンサ値を計測している全ての距離センサ41のセンサ値が異常レンジであることから、失敗条件を満たす、すなわち、カードC1を手前にずらすタスクが失敗したと判定される。
 以上のような失敗条件を満たすことから、異常が発生したとステップS12において判定された場合、ステップS17において、タスク決定部102は、現在のセンサ値に基づいて、復帰動作タスクをセットする。その後、ステップS3に戻り、上述した処理と同様の処理によって、復帰動作タスクが実行される。
 例えば、タスク決定部102は、カードC1をずらすタスクを再度行うための復帰動作タスクを、次に実行するタスクとして決定する。目標値計算部106は、接触可能面積Sestに基づいて、復帰動作タスクの移動量の目標値を次式(2)によって計算する。
Figure JPOXMLDOC01-appb-M000002
 式(2)において、nrefは、接触可能面積が目標値に達するために必要な、有効距離レンジ内のセンサ値を計測する距離センサ41の数を表す。nは、有効距離レンジ内のセンサ値を計測する距離センサ41の現在の数を表す。Srefは、接触可能面積の目標値を表す。
 式(2)は、nref個の距離センサ41のフットプリント面積に相当するカードC1の領域が机D1の縁部分からはみ出せば、接触可能面積Sestが目標値Srefよりも大きくなることを表す。
 位置合わせ制御部108は、机D1までの距離を計測する距離センサ41の数がnref個となるような位置にハンド部14-1を移動させる。例えば、図11のBに示すように、位置合わせ制御部108は、2つの距離センサ41(距離センサ41L-1,41L-2)の分だけ、ハンド部14-1を白抜き矢印で示す前方(ハンド部14-1の指先の方向)に移動させている。
 以上のように、nref個の距離センサ41の分だけハンド部14-1を移動させる動作が復帰動作タスクとして行われる。復帰動作タスクが行われた後、例えば、右指22RによってカードC1を押し付ける力を強くして、カードC1をずらすタスクが再度行われる。
 カードC1を手前にずらすタスクが失敗した場合、カードC1が当該タスクの開始時の位置から移動している可能性がある。この場合、当該タスクの初期位置にハンド部14-1を移動させても、ハンド部14-1をカードC1に接触させることができないことがある。
 このような場合、従来手法においては、机から離れた位置にハンド部を一旦移動させた後に視覚センサを用いて環境の計測を再度行い、認識したカードの位置に合わせてハンド部を再び移動させることになる。
 以上の処理により、ハンド部14-1を机D1から一旦移動させることなく、必要最低限の移動量だけハンド部14-1を移動させて、タスクを再開することが可能となる。すなわち、情報処理装置51は、タスクを迅速にやり直すことが可能となる。
 図7の説明に戻り、全てのタスクが完了したとステップS15において判定された場合、ステップS18において、位置合わせ制御部108は、操作物体との接触を解除し、処理を終了させる。
・位置合わせ制御部108による制御の例
 図12は、位置合わせ制御部108による制御の例を示す図である。
 上述したように、位置合わせ制御部108によるハンド部14の制御は、幾何情報である接触可能面積Sestが大きくなるにつれて減速させながらハンド部14を移動させるようにして行われる。
 位置合わせ制御部108による制御は、減算器131、変換器132、減算器133、およびコントローラ134により実現される。図12において破線で囲んで示す、減算器131、変換器132、減算器133、およびコントローラ134が、位置合わせ制御部108に設けられる。
 減算器131は、接触可能面積の目標値Srefと、幾何情報推定部107により推定された接触可能面積Sestの差を計算し、変換器132に出力する。
 変換器132は、減算器131から供給された差に対して変換係数Kを適用し、移動速度の目標値vrefを計算する。例えば、目標値Srefと接触可能面積Sestの差が小さいほど、小さい値が移動速度の目標値vrefとして計算される。変換器132は、移動速度の目標値vrefを減算器133に出力する。
 減算器133は、変換器132から供給された目標値vrefと駆動部121の実際の移動速度vの差を計算し、コントローラ134に出力する。
 コントローラ134は、減算器133から供給された移動速度の差が0になるように駆動部121を制御する。
 駆動部121の実際の移動速度vは、各部に設けられたセンサにより計測され、減算器133に供給される。また、距離センサ41の各計測点の3次元座標pは、幾何情報推定部107に供給される。例えば、N個の距離センサ41が設けられる場合、3次元座標pは3×Nの行列で表される。
 幾何情報推定部107は、3次元座標pに基づいて接触可能面積Sestを推定し、減算器131に出力する。
 図13は、接触可能面積とハンド部14の移動速度の指令値の例を示す図である。
 図13の上段は接触可能面積Sestを表し、下段は、ハンド部14に対する移動速度の指令値を表す。図13の横軸は時刻を表す。
 時刻t0から時刻t1までの期間は、図8のAを参照して説明したように、有効距離レンジ内のセンサ値がいずれの距離センサ41によっても計測されていない期間である。この期間においては、接触可能面積Sestは0となる。また、移動速度の指令値は所定の速度となる。
 時刻t1から時刻t2までの期間は、図8のBを参照して説明したように、有効距離レンジ内のセンサ値が距離センサ41L-3により計測されている期間である。この期間においては、接触可能面積Sestは、時刻t1以前よりも増加する。また、移動速度の指令値は、時刻t1以前よりも低い値となる。
 時刻t2以降の期間は、図9のAを参照して説明したように、有効距離レンジ内のセンサ値が距離センサ41L-2,41L-3により計測されている期間である。この期間においては、接触可能面積Sestは、時刻t2以前よりも増加する。また、移動速度の指令値は、時刻t2以前よりも低い値となる。
 以上のように、位置合わせ制御部108によるハンド部14の制御は、ハンド部14の移動速度を、幾何情報としての接触可能面積Sestの変化に応じて調整するようにして行われる。
・効果
 以上のように、ロボット1においては、実行するタスクの内容に応じて、操作物体と環境の変位を計測しやすい位置に距離センサ41が配置される。これにより、位置が固定のカメラでは計測が困難となる、ロボットハンドが操作物体を遮蔽してしまうようなタスクの進行状況の監視を常に行うことが可能となる。
 ロボット1は、操作物体を目標位置に移動させるタスクの精度と成功率を向上させることができる。
 また、ロボット1においては、カードC1とハンド部14-1の接触位置を計測する必要がなく、おおよその目標位置にハンド部14-1を接触させるだけでも、カードC1をずらすタスクを成功させることが可能となる。
 通常、位置が固定のカメラにより取得された情報に基づいてロボットハンドを制御する場合、カードと机のタスク開始時の位置関係、および、カードとロボットハンドの位置関係を計測する必要がある。
 ロボット1においては、視覚センサ12Aは、カードC1と机D1のタスク開始時の位置関係の計測に用いられるだけである。ハンド部14-1の制御やタスクの成功判定は、左指22Lに設けられた距離センサ41により計測される、カードC1と机D1の相対変位に基づいて行われる。カードC1とハンド部14-1の接触位置はそれほど重要ではないため、ハンド部14-1がカードC1の中心を接触する必要もなく、カードC1の手前側や奥側に接触しても構わないことになる。
 さらに、ロボット1においては、距離センサ41により計測された距離分布情報に基づいて幾何情報が計算され、幾何情報の変化に応じて、ハンド部14の制御やタスクの成功判定が行われる。操作物体と環境の位置関係によってタスクの成否が決まるようなタスクを実行する場合、ロボット1は、観測が容易かつ単純なアルゴリズムで、ハンド部14の制御やタスクの成功判定を行うことが可能となる。
<4.他のタスクの例>
 他のタスクに本技術を適用した例を以下に示す。なお、タスクの基本的な流れは、図8乃至図11を参照して説明した、カードC1を把持するタスクの流れと同様の流れとなる。
・拭き掃除のタスクの例
 図14、図15は、クリーナC11を用いて窓W1の拭き掃除を行うタスクの成功時の様子を示す図である。
 図14、図15においては、ハンド部14-1により、クリーナC11が窓W1の表面に押し付けられている。窓W1の端部には、窓W1を囲むように、窓W1より厚みのあるフレームF1が設けられる。この例においては、操作物体はクリーナC11となる。また、操作物体の周囲の環境を構成する物体は、窓W1とフレームF1となる。
 図14は、垂直面となる窓W1の表面にクリーナC11を押し付けているハンド部14-1を下から見た図であり、図15は、正面から見た図である。図14の横方向がx軸方向となり、図14の縦方向がz軸方向となる。図15の横方向がx軸方向となり、図15の縦方向がy軸方向となる。
 窓W1の拭き掃除を行うタスクの開始時、図14のAに示すように、左指22Lと右指22Rが広げられ、ハンド部14-1の掌としてのベース部21によって、クリーナC11が窓W1の表面に押し付けられる。図14の例においては、左指22Lが図の右側に位置し、右指22Rが図の左側に位置している。図14のAに示すハンド部14の初期位置は、ベース部21に設けられた距離センサ41-0と左指22Lの内側に設けられた距離センサ41Lが、窓W1と平行に並ぶような位置である。
 ここでは、ロボット1は、ハンド部14-1をラフな位置でクリーナC11に接触させる。ベース部21、左指22L、および右指22Rには距離センサ41が設けられているため、クリーナC11にラフな位置で接触させることにより、ロボット1は、ハンド部14-1のどの部分にクリーナC11が接触しているのかを、距離センサ41により計測されたセンサ値に基づいて検出することができる。
 左指22Lと右指22Rが広げて配置された後、使用センサである距離センサ41L-1乃至41L-3,41L-7,41L-8により距離の計測が行われる。図14の場合、一点鎖線の光線L1で示すように、距離センサ41L-1により、有効距離レンジ内のセンサ値(フレームF1までの距離を表すセンサ値)が計測される。ここでは、有効距離レンジは、0より大きく、かつ窓W1までの距離より小さい距離の範囲、あるいは、窓W1までの距離より大きい距離の範囲である。
 また、破線の光線L2乃至L4で示すように、距離センサ41L-2,41L-3,41L-7により、有効距離レンジ外のセンサ値が計測される。
 距離センサ41L-8が設けられている左指22Lの部分が、ベース部21とともにクリーナC11に押し付けられているため、コンタクトレンジのセンサ値が距離センサ41L-8により計測される。コンタクトレンジはセンサ値が0であることを表す。
 拭き掃除のタスクを実行する場合、クリーナC11の端と窓W1の端の間隔である間隔δxを幾何情報として用いて、タスクの進行状況の監視やハンド部14-1の制御が行われる。図14のAの双方向の矢印で示す間隔δxは、次式(3)により表される。
Figure JPOXMLDOC01-appb-M000003
 式(3)において、xは、有効距離レンジ内のセンサ値を計測している距離センサ41の位置の集合を表す。xは、コンタクトレンジのセンサ値を取得している距離センサ41の位置の集合を表す。
 すなわち、min(xe)は、フレームF1の左端(窓W1との接触面側の端)の位置を表し、max(xc)は、クリーナC11の右端の位置を表す。ハンド部14-1による位置合わせ制御は、間隔δxが小さくなるようにして行われる。
 具体的には、ロボット1は、図14のAに示す状態にあるハンド部14-1を、白抜き矢印で示す+x方向(左指22Lの指先側の方向)に移動させる。ハンド部14-1を移動させることによって、図14のBに示すように、クリーナC11の右端がフレームF1に近づく。
 この場合、一点鎖線の光線L1乃至L4で示すように、距離センサ41L-1乃至41L-3,41L-7は、有効距離レンジ内のセンサ値を計測することになる。この状態においては、min(xe)が距離センサ41L-7の位置に対応する位置であり、max(xc)が距離センサ41L-8の位置に対応する位置であるものとして、所定の長さの間隔δxが求められる。
 間隔δxが十分小さくなった場合、タスクが成功したとして判定される。このとき、図15に示すように、ロボット1は、白抜き矢印で示す+y方向にハンド部14-1を移動させる。ハンド部14-1の移動に伴って、クリーナC11も、同じ+y方向に移動する。
 タスクが成功したと判定したときに距離センサ41により計測されたセンサ値は、次の動作としての、+y方向にハンド部14-1を移動させるタスクに利用される。+y方向にハンド部14-1を移動させるタスクにおいては、クリーナC11とフレームF1の間の距離である間隔δxを一定の距離に保つようにして、ハンド部14-1の移動が制御される。
 通常、ハンド部を用いた窓の拭き掃除は、ハンド部の左右のフィンガ部でクリーナをつかんで行われることが多い。
 ロボット1においては、左指22L、右指22Rを広げ、ハンド部14-1のベース部21でクリーナC11を窓W1の表面に押し付けて、幾何情報としての間隔δxを計測しながら、拭き掃除の作業が行われる。間隔δxを計測しながら拭き掃除が行われるため、窓W1の端のぎりぎりまで、クリーナC11を移動させることが可能となる。
 なお、ハンド部14-1の制御は、幾何情報である間隔δxが小さくなるにつれて減速させながらハンド部14-1を移動させるようにして行われる。
 図16は、間隔δxとハンド部14-1の移動速度の指令値の例を示す図である。
 図16の上段は間隔δxを表し、下段は、ハンド部14-1に対する移動速度の指令値を表す。図16の横軸は時刻を表す。
 時刻t0から時刻t1までの期間は、図14のAを参照して説明したように、有効距離レンジ内のセンサ値が距離センサ41L-1により計測されている期間である。この期間においては、間隔δxは所定の距離となる。また、移動速度の指令値は所定の速度となる。
 時刻t1から時刻t2までの期間は、ハンド部14-1が+x方向に移動する期間である。この期間においては、間隔δxは、時刻t1から徐々に低下する。また、移動速度の指令値は、時刻t1から徐々に低下する。
 時刻t2以降の期間は、図14のBを参照して説明したように、有効距離レンジ内のセンサ値が距離センサ41L-1乃至41L-3,41L-7により計測されている期間である。この期間においては、間隔δxは、時刻t2以前よりも低い値となる。また、移動速度の指令値は、時刻t2以前よりも低い値となる。
 図17は、窓W1の拭き掃除を行うタスクの失敗時の様子を示す図である。
 図17のAに示すように、ハンド部14-1とクリーナC11の間で滑りが生じた状態でハンド部14-1を移動させた場合、図17のBに示すように、クリーナC11の移動量は、ハンド部14-1の移動量よりも小さくなってしまう。すなわち、クリーナC11とハンド部14-1の接触位置がずれることになる。
 この場合、一点鎖線の光線L5で示すように、移動前においてはコンタクトレンジのセンサ値を計測していた距離センサ41L-8により、有効距離レンジ外のセンサ値が計測される状態となる。クリーナC11とハンド部14-1との接触位置、すなわちmax(xc)の値が変化した場合、ハンド部14-1とクリーナC11の間で滑りが生じた(タスクが失敗した)と判定される。
 コンタクトレンジのセンサ値を計測していた1つの距離センサ41のセンサ値が変化した場合、図17のCに示すように、情報処理装置51は、1つの距離センサ41(距離センサ41L-8)の分だけ、ハンド部14-1を白抜き矢印で示す方向(右指22Rの指先の方向)に復帰動作タスクによって移動させる。その後、ロボット1は、ハンド部14-1をクリーナC11に再度接触させて、拭き掃除のタスクを再度行う。
 なお、距離センサ41により計測されたセンサ値だけではなく、ハンド部14に設けられた振動センサや触覚センサにより計測されたセンサ値をも用いて、ハンド部14の制御が行われるようにしてもよい。例えば、ハンド部14と操作物体の間で生じた滑りが、振動センサや触覚センサにより計測されたセンサ値に基づいて検出され、それにより、タスクの失敗が判定される。複数種類のセンサによる計測結果を用いることにより、ロボット1は、タスクの失敗判定の確度を向上させることが可能となる。
・物体を切るタスクの例
 図18は、包丁K1を操作して物体Ob1を切るタスクの成功時の様子を示す図である。
 図18の例においては、机D1に物体Ob1が置かれている。ロボット1は、フィンガ部22で包丁K1の柄部分を把持し、指先を下に向けて、物体Ob1に包丁K1の刃部分を当てる。例えば、物体Ob1は野菜や果物などの食材である。この例においては、操作物体は包丁K1となる。また、操作物体の周囲の環境を構成する物体は、机D1(テーブル)と球体状の物体Ob1となる。
 包丁K1の刃部分を物体Ob1に当てた後、指先にある距離センサ41-5が使用センサとして決定され、距離センサ41-5により距離の計測が行われる。図18の例においては、破線の光線L11で示すように、机D1までの距離を表すセンサ値が距離センサ41-5により計測される。
 物体Ob1を切るタスクを実行する場合、距離センサ41-5により計測された、包丁K1の刃部分から机D1までの距離を幾何情報として用いて、タスクの進行状況の監視やハンド部14-1の制御が行われる。例えば、指先が包丁K1の刃部分と同じ高さにある場合、距離センサ41-5により計測された距離は、図18のAにおいて双方向の矢印で示す、包丁K1の刃部分から机D1までの距離と同じ距離になる。
 また、破線の光線L12,L13で示すように、ベース部21に設けられた距離センサ41-0により、包丁K1の柄部分までの複数の距離が計測される。図2等を参照して説明したように、掌に相当するベース部21の上面には、複数の距離センサ41-0が設けられる。
 物体Ob1を切るタスクにおいては、距離センサ41-0により計測されたセンサ値に基づいて求められた包丁K1の傾き(姿勢)が、机D1までの距離とともに幾何情報として用いられる。包丁K1の傾きは、例えば、光線L12によって計測される距離と光線L13によって計測される距離の差によって表される。
 包丁K1を下ろすための位置合わせ制御は、机D1までの距離が小さくなるようにして行われる。具体的には、物体Ob1に包丁K1の刃部分を当てた状態にあるハンド部14-1を、図18のAの白抜き矢印で示す下方向に移動させることによって、位置合わせ制御が行われる。ハンド部14-1を移動させることによって、図18のAに示すように、包丁K1の刃部分が物体Ob1に押し込まれる。
 距離センサ41-5により計測されたセンサ値が十分に小さくなった場合、包丁K1の刃部分が完全に机D1に接触したため、これ以上下がらなくなったと判定され、タスクが成功したとして判定される。
 距離センサ41-5により計測されたセンサ値とともに、ハンド部14-1の手首部分に設けられた力センサにより計測されたセンサ値が、タスクの成功判定に用いられるようにしてもよい。ハンド部14-1の手首部分に設けられた力センサにより、例えば、包丁K1の刃部分が机D1に当たったときの反力が計測される。複数種類のセンサによる計測結果を用いることにより、ロボット1は、タスクの成功判定の確度を向上させることが可能となる。
 物体Ob1を切るタスクが成功したと判定された場合、物体Ob1から包丁K1を離すための位置合わせ制御が行われる。具体的には、図18のCに示すように、距離センサ41-5により計測されたセンサ値が十分に大きくなるまで、ハンド部14-1を白抜き矢印で示す上方向に移動させることによって、位置合わせ制御が行われる。
 なお、トングで掴んだ物体を特定の位置に置くタスクなどの、道具を使って物体の位置合わせを行うタスクにおいても、道具を含めてエンドエフェクタとみなすことによって、本技術を適用することが可能である。
 図19は、包丁K1を操作して物体Ob1を切るタスクの失敗時の様子を示す図である。
 図19のAに示すように、包丁K1を物体Ob1に押し込んでいる際、物体Ob1から包丁K1が受けるモーメントにより、図19のBに示すように、包丁K1とハンド部14-1の間で滑りが生じ、包丁K1の姿勢が変化することがある。
 この場合、一点鎖線の光線L12,L13で示すように、複数の距離センサ41-0により、それぞれ異なるセンサ値が計測されることになる。距離センサ41-0により計測されたセンサ値に基づいて、包丁K1の傾きが計算される。
 ロボット1は、幾何情報としての包丁K1の傾きに基づいて、包丁K1を物体Ob1に押し込む姿勢を調整する。具体的には、図19のCの白抜き矢印で示すように、包丁K1の傾きが0になるように、ハンド部14-1の姿勢を変えるか、包丁K1を持ち直すことによって、姿勢の調整が行われる。このような姿勢を調整するタスクが、復帰動作タスクとして実行される。
 包丁K1の姿勢を調整することにより、ロボット1は、物体Ob1を切るタスクを最初からやり直すことなく、再開することが可能となる。
・物体の間に操作物体を置くタスクの例
 図20は、本B11と本B12の間に別の本B1を置くタスクの失敗時の様子を示す図である。
 図20の例においては、本B11と本B12が、所定の隙間を空けた状態で例えば本棚に置かれている。図20は、それぞれの本の位置関係を上から見た図である。図20のAの状態においては、本B11と本B12が平行に並べられている。ロボット1は、右指22Rと左指22Lで本B1を把持し、本B11と本B12の間の隙間に置くように本B1を移動させる。この例においては、操作物体は本B1となる。また、操作物体の周囲の環境を構成する物体は、本B11と本B12となる。
 本B1を把持した後、左指22Lの指先にある距離センサ41L-5と右指22Rの指先にある距離センサ41R-5が使用センサとして決定され、距離センサ41L-5と距離センサ41R-5により距離の計測が行われる。図20のBの例においては、破線の光線L21で示すように、左指22Lの指先に設けられた距離センサ41L-5により本B11までの距離が計測される。また、破線の光線L22で示すように、右指22Rの指先に設けられた距離センサ41R-5により本B12までの距離が計測される。
 本B11と本B12の間に本B1を置くタスクを実行する場合、距離センサ41L-5と距離センサ41R-5により計測されたセンサ値の平均値を幾何情報として用いて、タスクの進行状況の監視やハンド部14-1の制御が行われる。
 本B1を置くための位置合わせ制御は、距離センサ41L-5と距離センサ41R-5により計測されたセンサ値の平均値が0になるまで、本B11と本B12の隙間に本B1を挿入するようにして行われる。
 本B1を挿入する際、図20のBに示すように本B1が周囲の本B11に接触し、図20のCに示すように本B11が移動してしまうことがある。
 この場合、一点鎖線の光線L21で示すように、距離センサ41L-5により計測されたセンサ値が大きい値となる。これにより、距離センサ41L-4と距離センサ41R-5により計測されたセンサ値の平均値も大きい値となる。
 距離センサ41L-4と距離センサ41R-5により計測されたセンサ値の平均値が大きくなった場合、タスクが失敗したとして判定される。タスクが失敗したと判定された場合、復旧動作が行われる。具体的には、図20のDに示すように、ロボット1は、本B1を初期位置に戻し、動いてしまったB11を元の位置に戻す。
 復旧動作を行った後、ロボット1はタスクを再度行うなどの、次のタスクを実行することができる。
 以上のように、ロボット1は、操作物体の周囲の物体が想定外に動いた場合の異常を検出することが可能となる。
<5.変形例>
・センサについて
 距離センサ41により計測されたセンサ値に基づいて幾何情報が求められるものとしたが、ToF(Time of Flight)カメラやステレオカメラなどの他のセンサの計測結果に基づいて、幾何情報が求められるようにしてもよい。このように、距離の分布情報(多点の距離情報)を取得可能な各種のセンサを計測に用いることが可能である。
 また、スキャンするようにハンド部14を移動させ、距離センサ41による計測結果の時系列データをマージして作成されたハンド部14の周囲の地図に基づいて、幾何情報が求められるようにしてもよい。これにより、ハンド部14に設けられる距離センサ41の数が少ない場合でも、距離センサ41の位置を移動させることによって、幾何情報を求めるために必要な距離の分布情報を取得することが可能である。
 距離センサ41がハンド部14以外の他の部位に設けられるようにしてもよい。例えば、カードC1を拾い上げるタスクにおいては、他方の手(ハンド部14-2)が机D1の下に配置され、ハンド部14-2に設けられた距離センサ41により計測されたセンサ値に基づいて位置合わせ制御が行われる。
 この場合、ロボット1は、ハンド部14-2を初期位置に配置するのと同時に、ハンド部14-1を用いて位置合わせ制御を行うことができる。これにより、ロボット1は、タスクに要する時間を短縮することが可能となる。
 操作物体の移動先となる目標位置に形状的な特徴がなく、目印が代わりにあるような場合、ハンド部14に搭載されたRGBカメラやカラーセンサが出力する情報に基づいて、操作物体を目標位置に移動させるようにしてもよい。
 図21は、机D1の特定の位置に操作物体を配置するタスクの様子を示す図である。
 図21の例においては、机D1の天板上には形状的な特徴や目印がないものとされている。星印で示す、机D1の天板上の位置P1が、操作物体を配置する目標位置である。ロボット1は、フィンガ部22で物体Ob11を把持し、位置P1に置くように物体Ob1を移動させる。この例において、操作物体は物体Ob11となる。また、操作物体の周囲の環境を構成する物体は、机D1となる。
 位置P1に物体Ob11を配置するタスクを実行する場合、はじめに、視覚センサ12Aにより出力された画像情報に基づいて、図21のAの双方向の矢印に示す、机D1の端から位置P1までの目標距離が計算される。
 物体Ob11を把持した後、アーム部13-1に設けられた複数の距離センサ41が使用センサとして決定され、距離センサ41により距離の測定が行われる。図21のAの例においては、アーム部13-1に設けられた距離センサ41が机D1の天板と平行になるように配置され、机D1までの距離が光線L31により計測される。
 位置P1に操作物体を配置するタスクにおいては、机D1の端から物体Ob11までの距離を幾何情報として用いて、アーム部13-1の制御が行われる。机D1の端から物体Ob11までの距離は、アーム部13-1に設けられた複数の距離センサ41により計測されたセンサ値に基づいて求められる。
 物体Ob11を位置P1に配置するための位置合わせは、机D1の端から物体Ob11までの距離と目標距離との差が小さくなるようにして行われる。具体的には、アーム部13-1を、図21のAの白抜き矢印で示す左方向に移動させることによって、図21のB示すように、机D1の端から物体Ob11までの距離は、双方向の矢印で示す目標距離と同じになる。
 この場合、破線の光線L31乃至L33で示すように、アーム部13-1に設けられた距離センサ41は、机D1までの距離を表すセンサ値を計測することになる。机D1までの端から物体Ob11までの距離と目標位置との差が十分に小さくなった場合、物体Ob11を机D1に置くようにアーム部13-1を下方向に移動させることによって、位置P1に物体Ob11が配置される。
・アクチュエータについて
 電磁モータ以外のアクチュエータがエンドエフェクタに搭載されるようにしてもよい。例えば、吸着方式のエンドエフェクタがロボット1に搭載される。ロボット1は、吸着式のエンドエフェクタを用いて、カードのような軽い物体を容易に保持することができる。
 吸着式のエンドエフェクタを用いて重量の重い物体を保持する場合、カードC1を拾い上げる場合と同様に、ロボット1は、物体を吸着した状態で机の手前に一旦移動させてから、別のフィンガ部の吸着機構で物体の裏を吸着して保持することも可能である。机の手前に重い物体を一旦移動させてから保持することにより、ロボット1は、保持の安定性を増すことができる。
・制御について
 距離センサ41により計測されたセンサ値とともに、視覚センサ12A(Depthカメラなどの3次元計測器)によりタスク開始時に計測された情報に基づいて、位置合わせ制御が行われるようにしてもよい。距離センサ41は離散的に配置されるため、そのような距離センサ41により計測されたセンサ値に基づいて求められた幾何情報の精度は低くなることがある。
 視覚センサ12Aにより計測された情報に基づいて距離センサ41間の距離情報を補完することによって、ロボット1は、精度の高い幾何情報を求めることができ、小さい物体や複雑な形状の物体の位置合わせ制御の精度を向上させることが可能となる。
 ハンド部14-1を初期位置に移動させる動作が複数回行われるようにしてもよい。例えば、ハンド部14-1を初期位置に移動させた後に距離センサ41により計測されたセンサ値の質が悪い場合(ノイズが大きい場合、計測抜けが多い場合等)、ロボット1は、その初期位置からハンド部14-1の姿勢を変更したり、別の候補となる初期位置に移動したりする。
・システム構成について
 図22は、システムの構成例を示す図である。
 図22に示すシステムは、情報処理装置51がロボット1の外部の装置として設けられることによって構成される。このように、情報処理装置51が、ロボット1の筐体の外部に設けられるようにしてもよい。
 図22のロボット1と情報処理装置51の間では、無線LAN、LTE(Long Term Evolution)などの所定の規格の無線通信が行われる。
 ロボット1から情報処理装置51に対しては、ロボット1の状態を表す情報やセンサの検出結果を表す情報などの各種の情報が送信される。情報処理装置51からロボット1に対しては、ロボット1の動作を制御するための情報などが送信される。
 ロボット1と情報処理装置51が、図22のAに示すように直接接続されるようにしてもよいし、図22のBに示すように、インターネットなどのネットワーク61を介して接続されるようにしてもよい。複数台のロボット1の動作が1台の情報処理装置51により制御されるようにしてもよい。
・コンピュータについて
 上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または汎用のパーソナルコンピュータなどに、プログラム記録媒体からインストールされる。
 図23は、上述した一連の処理をプログラムにより実行するコンピュータのハードウェアの構成例を示すブロック図である。
 CPU(Central Processing Unit)1001、ROM(Read Only Memory)1002、RAM(Random Access Memory)1003は、バス1004により相互に接続されている。
 バス1004には、さらに、入出力インタフェース1005が接続されている。入出力インタフェース1005には、キーボード、マウスなどよりなる入力部1006、ディスプレイ、スピーカなどよりなる出力部1007が接続される。また、入出力インタフェース1005には、ハードディスクや不揮発性のメモリなどよりなる記憶部1008、ネットワークインタフェースなどよりなる通信部1009、リムーバブルメディア1011を駆動するドライブ1010が接続される。
 以上のように構成されるコンピュータでは、CPU1001が、例えば、記憶部1008に記憶されているプログラムを入出力インタフェース1005及びバス1004を介してRAM1003にロードして実行することにより、上述した一連の処理が行われる。
 CPU1001が実行するプログラムは、例えばリムーバブルメディア1011に記録して、あるいは、ローカルエリアネットワーク、インターネット、デジタル放送といった、有線または無線の伝送媒体を介して提供され、記憶部1008にインストールされる。
 なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
 本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
 なお、本明細書に記載された効果はあくまで例示であって限定されるものでは無く、また他の効果があってもよい。
 本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
 例えば、本技術は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
 また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
 さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
・構成の組み合わせ例
 本技術は、以下のような構成をとることもできる。
(1)
 特定の位置に対象物を移動させるタスクの実行に用いられ、表面に複数のセンサが設けられたハンド部の位置を、前記ハンド部の移動中に前記センサにより計測された距離に基づいて推定された、前記対象物と前記対象物の周囲にある物体との位置関係を表す位置関係情報に基づいて制御する制御部を備える
 情報処理装置。
(2)
 前記ハンド部は、複数のフィンガ部と、複数の前記フィンガ部を支持する支持部とから構成され、
 前記センサは、少なくとも、前記対象物との接触面となる、それぞれの前記フィンガ部の内側の面に複数並べて設けられる
 (1)に記載の情報処理装置。
(3)
 前記制御部は、前記ハンド部を支持するアーム部を駆動させるとともに、それぞれの前記フィンガ部を駆動させることによって、前記ハンド部の位置を制御する
 前記(2)に記載の情報処理装置。
(4)
 複数の前記センサにより計測された距離の分布に基づいて、前記位置関係を推定する推定部をさらに備える
 前記(3)に記載の情報処理装置。
(5)
 前記推定部は、所定の範囲内の距離を計測した前記センサの数に基づいて、前記対象物の、前記フィンガ部による接触可能面積を推定する
 前記(4)に記載の情報処理装置。
(6)
 前記タスクは、周囲にある前記物体としての天板の上に置かれている前記対象物を、前記フィンガ部によって上下から挟むことができる位置に移動させるタスクであり、
 前記制御部は、前記対象物の上に配置された前記フィンガ部が前記対象物に接触し、前記天板の下に配置された前記フィンガ部に設けられた前記センサが前記対象物の移動方向と平行に並ぶように位置決めされた状態の前記ハンド部を、前記移動方向に移動させる
 前記(5)に記載の情報処理装置。
(7)
 前記制御部は、前記ハンド部の移動速度を前記接触可能面積に応じて制御する
 前記(6)に記載の情報処理装置。
(8)
 前記センサとは異なる位置に設けられた視覚センサによる計測結果に基づいて、前記タスクに応じた前記ハンド部の初期位置を決定する初期位置決定部と、
 前記ハンド部を初期位置に移動させる初期位置移動制御部と
 をさらに備える前記(2)乃至(7)のいずれかに記載の情報処理装置。
(9)
 前記初期位置決定部は、使用する前記センサである使用センサを、前記ハンド部に設けられた複数の前記センサの中から前記タスクに応じて決定し、前記使用センサの初期位置を決定する
 前記(8)に記載の情報処理装置。
(10)
 前記タスクに応じて決定される条件を前記位置関係が満たすか否かに応じて、前記タスクの成否を判定する判定部をさらに備え、
 前記制御部は、前記タスクに失敗したと判定された場合、前記タスクに失敗したときの前記位置関係に基づいて決定された復帰タスクに従って、前記ハンド部の位置を制御する
 前記(1)乃至(9)のいずれかに記載の情報処理装置。
(11)
 前記推定部は、第1の範囲内の距離を計測した前記センサと、第2の範囲内の距離を計測した前記センサとの間隔に基づいて、前記対象物と周囲にある前記物体との前記位置関係を推定する
 前記(4)に記載の情報処理装置。
(12)
 前記タスクは、平面に接触している前記対象物を、前記センサが並べて設けられた前記支持部によって前記平面に押し付けた状態のまま、前記平面の端に設けられた前記物体に近付けるタスクであり、
 前記制御部は、前記フィンガ部に設けられた前記センサと前記支持部に設けられた前記センサが前記平面と平行に並ぶように位置決めされた状態の前記ハンド部を移動させる
 前記(11)に記載の情報処理装置。
(13)
 前記推定部は、前記対象物を把持する前記フィンガ部の先端に設けられた前記センサにより計測された移動方向にある物体までの距離に基づいて、前記位置関係を推定する
 前記(4)に記載の情報処理装置。
(14)
 前記推定部は、さらに、前記支持部に並べて設けられた前記センサにより計測された前記対象物までの距離に基づいて前記対象物の姿勢を推定する
 前記(13)に記載の情報処理装置。
(15)
 前記推定部は、前記対象物を把持する複数の前記フィンガ部のそれぞれの先端に設けられた前記センサにより計測された、移動方向にある前記物体までの距離の平均に基づいて、前記位置関係を推定する
 前記(4)に記載の情報処理装置。
(16)
 情報処理装置が、
 特定の位置に対象物を移動させるタスクの実行に用いられ、表面に複数のセンサが設けられたハンド部の位置を、前記ハンド部の移動中に前記センサにより計測された距離に基づいて推定された、前記対象物と前記対象物の周囲にある物体との位置関係を表す位置関係情報に基づいて制御する
 情報処理方法。
(17)
 コンピュータに、
 特定の位置に対象物を移動させるタスクの実行に用いられ、表面に複数のセンサが設けられたハンド部の位置を、前記ハンド部の移動中に前記センサにより計測された距離に基づいて推定された、前記対象物と前記対象物の周囲にある物体との位置関係を表す位置関係情報に基づいて制御する
 処理を実行させるためのプログラム。
 1 ロボット, 13 アーム部, 14 ハンド部, 21 ベース部, 22 フィンガ部, 41 距離センサ, 51 情報処理装置, 61 ネットワーク, 101 環境計測部, 102 タスク決定部, 103 ハンド・フィンガ初期位置決定部, 104 初期位置データベース, 105 初期位置異動制御部, 106 目標値計算部, 107 幾何情報推定部, 108 位置合わせ制御部, 109 タスク成否条件計算部, 110 タスク成否判定部, 121 駆動部, 131 減算器, 132 変換器, 133 減算器, 134 コントローラ

Claims (17)

  1.  特定の位置に対象物を移動させるタスクの実行に用いられ、表面に複数のセンサが設けられたハンド部の位置を、前記ハンド部の移動中に前記センサにより計測された距離に基づいて推定された、前記対象物と前記対象物の周囲にある物体との位置関係を表す位置関係情報に基づいて制御する制御部を備える
     情報処理装置。
  2.  前記ハンド部は、複数のフィンガ部と、複数の前記フィンガ部を支持する支持部とから構成され、
     前記センサは、少なくとも、前記対象物との接触面となる、それぞれの前記フィンガ部の内側の面に複数並べて設けられる
     請求項1に記載の情報処理装置。
  3.  前記制御部は、前記ハンド部を支持するアーム部を駆動させるとともに、それぞれの前記フィンガ部を駆動させることによって、前記ハンド部の位置を制御する
     請求項2に記載の情報処理装置。
  4.  複数の前記センサにより計測された距離の分布に基づいて、前記位置関係を推定する推定部をさらに備える
     請求項3に記載の情報処理装置。
  5.  前記推定部は、所定の範囲内の距離を計測した前記センサの数に基づいて、前記対象物の、前記フィンガ部による接触可能面積を推定する
     請求項4に記載の情報処理装置。
  6.  前記タスクは、周囲にある前記物体としての天板の上に置かれている前記対象物を、前記フィンガ部によって上下から挟むことができる位置に移動させるタスクであり、
     前記制御部は、前記対象物の上に配置された前記フィンガ部が前記対象物に接触し、前記天板の下に配置された前記フィンガ部に設けられた前記センサが前記対象物の移動方向と平行に並ぶように位置決めされた状態の前記ハンド部を、前記移動方向に移動させる
     請求項5に記載の情報処理装置。
  7.  前記制御部は、前記ハンド部の移動速度を前記接触可能面積に応じて制御する
     請求項6に記載の情報処理装置。
  8.  前記センサとは異なる位置に設けられた視覚センサによる計測結果に基づいて、前記タスクに応じた前記ハンド部の初期位置を決定する初期位置決定部と、
     前記ハンド部を初期位置に移動させる初期位置移動制御部と
     をさらに備える請求項2に記載の情報処理装置。
  9.  前記初期位置決定部は、使用する前記センサである使用センサを、前記ハンド部に設けられた複数の前記センサの中から前記タスクに応じて決定し、前記使用センサの初期位置を決定する
     請求項8に記載の情報処理装置。
  10.  前記タスクに応じて決定される条件を前記位置関係が満たすか否かに応じて、前記タスクの成否を判定する判定部をさらに備え、
     前記制御部は、前記タスクに失敗したと判定された場合、前記タスクに失敗したときの前記位置関係に基づいて決定された復帰タスクに従って、前記ハンド部の位置を制御する
     請求項1に記載の情報処理装置。
  11.  前記推定部は、第1の範囲内の距離を計測した前記センサと、第2の範囲内の距離を計測した前記センサとの間隔に基づいて、前記対象物と周囲にある前記物体との前記位置関係を推定する
     請求項4に記載の情報処理装置。
  12.  前記タスクは、平面に接触している前記対象物を、前記センサが並べて設けられた前記支持部によって前記平面に押し付けた状態のまま、前記平面の端に設けられた前記物体に近付けるタスクであり、
     前記制御部は、前記フィンガ部に設けられた前記センサと前記支持部に設けられた前記センサが前記平面と平行に並ぶように位置決めされた状態の前記ハンド部を移動させる
     請求項11に記載の情報処理装置。
  13.  前記推定部は、前記対象物を把持する前記フィンガ部の先端に設けられた前記センサにより計測された移動方向にある物体までの距離に基づいて、前記位置関係を推定する
     請求項4に記載の情報処理装置。
  14.  前記推定部は、さらに、前記支持部に並べて設けられた前記センサにより計測された前記対象物までの距離に基づいて前記対象物の姿勢を推定する
     請求項13に記載の情報処理装置。
  15.  前記推定部は、前記対象物を把持する複数の前記フィンガ部のそれぞれの先端に設けられた前記センサにより計測された、移動方向にある前記物体までの距離の平均に基づいて、前記位置関係を推定する
     請求項4に記載の情報処理装置。
  16.  情報処理装置が、
     特定の位置に対象物を移動させるタスクの実行に用いられ、表面に複数のセンサが設けられたハンド部の位置を、前記ハンド部の移動中に前記センサにより計測された距離に基づいて推定された、前記対象物と前記対象物の周囲にある物体との位置関係を表す位置関係情報に基づいて制御する
     情報処理方法。
  17.  コンピュータに、
     特定の位置に対象物を移動させるタスクの実行に用いられ、表面に複数のセンサが設けられたハンド部の位置を、前記ハンド部の移動中に前記センサにより計測された距離に基づいて推定された、前記対象物と前記対象物の周囲にある物体との位置関係を表す位置関係情報に基づいて制御する
     処理を実行させるためのプログラム。
PCT/JP2021/027079 2020-08-03 2021-07-20 情報処理装置、情報処理方法、およびプログラム WO2022030242A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US18/006,733 US20230302632A1 (en) 2020-08-03 2021-07-20 Information processing device, information processing method, and program
EP21852161.5A EP4190514A4 (en) 2020-08-03 2021-07-20 INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD AND PROGRAM
JP2022541425A JPWO2022030242A1 (ja) 2020-08-03 2021-07-20

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020-131437 2020-08-03
JP2020131437 2020-08-03

Publications (1)

Publication Number Publication Date
WO2022030242A1 true WO2022030242A1 (ja) 2022-02-10

Family

ID=80117298

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/027079 WO2022030242A1 (ja) 2020-08-03 2021-07-20 情報処理装置、情報処理方法、およびプログラム

Country Status (4)

Country Link
US (1) US20230302632A1 (ja)
EP (1) EP4190514A4 (ja)
JP (1) JPWO2022030242A1 (ja)
WO (1) WO2022030242A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009274204A (ja) * 2008-05-13 2009-11-26 Samsung Electronics Co Ltd ロボット、ロボットハンド及びロボットハンドの制御方法
WO2016135861A1 (ja) * 2015-02-24 2016-09-01 株式会社日立製作所 マニプレータ、マニプレータの動作計画方法、および、マニプレータの制御システム
JP2016196077A (ja) 2015-04-06 2016-11-24 キヤノン株式会社 情報処理装置、情報処理方法、およびプログラム
JP2019059021A (ja) * 2012-05-31 2019-04-18 トヨタ モーター エンジニアリング アンド マニュファクチャリング ノース アメリカ,インコーポレイティド 非接触式光学距離及び触覚を感知する装置及び方法
JP2020016446A (ja) 2018-07-23 2020-01-30 キヤノン株式会社 情報処理装置、情報処理装置の制御方法、プログラム、計測装置、及び物品製造方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009274204A (ja) * 2008-05-13 2009-11-26 Samsung Electronics Co Ltd ロボット、ロボットハンド及びロボットハンドの制御方法
JP2019059021A (ja) * 2012-05-31 2019-04-18 トヨタ モーター エンジニアリング アンド マニュファクチャリング ノース アメリカ,インコーポレイティド 非接触式光学距離及び触覚を感知する装置及び方法
WO2016135861A1 (ja) * 2015-02-24 2016-09-01 株式会社日立製作所 マニプレータ、マニプレータの動作計画方法、および、マニプレータの制御システム
JP2016196077A (ja) 2015-04-06 2016-11-24 キヤノン株式会社 情報処理装置、情報処理方法、およびプログラム
JP2020016446A (ja) 2018-07-23 2020-01-30 キヤノン株式会社 情報処理装置、情報処理装置の制御方法、プログラム、計測装置、及び物品製造方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP4190514A4

Also Published As

Publication number Publication date
EP4190514A1 (en) 2023-06-07
US20230302632A1 (en) 2023-09-28
EP4190514A4 (en) 2024-01-17
JPWO2022030242A1 (ja) 2022-02-10

Similar Documents

Publication Publication Date Title
US11090814B2 (en) Robot control method
JP6921151B2 (ja) ロボットの把持のための深層機械学習方法および装置
Li et al. A Control Framework for Tactile Servoing.
US10589424B2 (en) Robot control device, robot, and robot system
EP4219088A1 (en) Determining and utilizing corrections to robot actions
JP6450960B2 (ja) ロボット、ロボットシステム及び教示方法
JP2020532440A (ja) オブジェクトをロバストに把持し、ターゲティングするためのロボットシステムおよび方法
JP2018161692A (ja) 情報処理装置、情報処理方法およびプログラム
JP2015213973A (ja) ピッキング装置およびピッキング方法
JP7481427B2 (ja) 取り出しシステム及び方法
JP4001105B2 (ja) ロボットによる任意形状物体の把持方法
JP6902369B2 (ja) 提示装置、提示方法およびプログラム、ならびに作業システム
Koyama et al. Integrated control of a multi-fingered hand and arm using proximity sensors on the fingertips
CN115070781B (zh) 一种物体抓取方法及双机械臂协作***
JP2016196077A (ja) 情報処理装置、情報処理方法、およびプログラム
Back et al. Control a contact sensing finger for surface haptic exploration
US20220203517A1 (en) Non-transitory storage medium and method and system of creating control program for robot
WO2022030242A1 (ja) 情報処理装置、情報処理方法、およびプログラム
JP6931585B2 (ja) 作業システム、作業システムの制御方法及びプログラム
JP7353948B2 (ja) ロボットシステム及びロボットシステムの制御方法
Schiebener et al. Discovery, segmentation and reactive grasping of unknown objects
JP4640499B2 (ja) 把持制御装置
JP2021045810A (ja) モーション情報生成装置、エンドエフェクタ、ロボット及びロボットシステム
WO2022085560A1 (ja) ロボットハンド制御装置、及びロボットハンドの制御方法
US20230234231A1 (en) Teleoperation assist device, teleoperation assist method, and storage medium

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21852161

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022541425

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 2021852161

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2021852161

Country of ref document: EP

Effective date: 20230303