JP2024082207A - Robot control system, robot control program - Google Patents

Robot control system, robot control program Download PDF

Info

Publication number
JP2024082207A
JP2024082207A JP2023026590A JP2023026590A JP2024082207A JP 2024082207 A JP2024082207 A JP 2024082207A JP 2023026590 A JP2023026590 A JP 2023026590A JP 2023026590 A JP2023026590 A JP 2023026590A JP 2024082207 A JP2024082207 A JP 2024082207A
Authority
JP
Japan
Prior art keywords
gripping
robot
luggage
suction
finger
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023026590A
Other languages
Japanese (ja)
Inventor
正義 孫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SoftBank Group Corp
Original Assignee
SoftBank Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SoftBank Group Corp filed Critical SoftBank Group Corp
Priority to PCT/JP2023/043189 priority Critical patent/WO2024122475A1/en
Publication of JP2024082207A publication Critical patent/JP2024082207A/en
Pending legal-status Critical Current

Links

Landscapes

  • Manipulator (AREA)

Abstract

【課題】把持部による荷物の位置の確認、掴み、及び把持の一連の作業を迅速かつ確実に行う。【解決手段】把持部20に3本の指部22A、22B、22Cを設け、把持部20の掌側20Aと、指22A、22B、22Cに、複数の吸着パッド24をと取り付け、吸着パッド24は、例えば、エアー吸着構造で、荷物100を吸着し、かつ、指部22A、22B、22Cを曲げることにより、荷物100を掴むことができる。荷物100の性状(形状、重さ等)に基づいて分類し、分類した結果で、把持部20の選択、及び、吸着パッド24の選択を行うことで、単一の人型ロボット1によって、様々な種類の荷物100をピッキングすることが可能となる。言い換えれば、荷物100の性状毎に異なるロボットを選択して、出動させる必要がなく、ピッキング作業の効率化を図ることができる。【選択図】図3[Problem] To quickly and reliably perform a series of tasks including checking the location of a package using a gripper, grabbing it, and gripping it. [Solution] A gripper 20 is provided with three fingers 22A, 22B, and 22C, and a plurality of suction pads 24 are attached to the palm side 20A of the gripper 20 and the fingers 22A, 22B, and 22C. The suction pads 24, for example, have an air suction structure and can suction the package 100, and can grip the package 100 by bending the fingers 22A, 22B, and 22C. The package 100 is classified based on its characteristics (shape, weight, etc.), and the gripper 20 and the suction pad 24 are selected based on the classification results, making it possible to pick various types of package 100 with a single humanoid robot 1. In other words, there is no need to select and dispatch a different robot for each characteristic of the package 100, and the picking work can be made more efficient. [Selected Figure] Figure 3

Description

本発明は、ロボットの制御システム、ロボットの制御プログラムに関する。 The present invention relates to a robot control system and a robot control program.

工場の生産ラインにおいては作業を自動で行うための人型ロボットが使用されている。特許文献1には、人型ロボットの姿勢制御について記載されている。 Humanoid robots are used in factory production lines to perform tasks automatically. Patent Document 1 describes posture control of humanoid robots.

また、特許文献2には、弾性体アクチュエータで駆動されて複数の関節を有するロボットアームであって、ロボットアームの手先部に配設され支持面と接触することによりロボットアームを支持する手先支持部材と、手先支持部材と支持面との接触する力を制御すると同時にロボットアームの手先部の位置及び姿勢を制御する制御部により制御することが記載されている。 Patent Document 2 also describes a robot arm having multiple joints that is driven by an elastic actuator, and is controlled by a hand support member that is disposed at the hand of the robot arm and supports the robot arm by contacting a support surface, and a control unit that controls the contact force between the hand support member and the support surface while simultaneously controlling the position and posture of the hand of the robot arm.

特開2019-093506号公報JP 2019-093506 A WO2011/001569公報WO2011/001569 Publication

しかしながら、従来の人型ロボットによる倉庫内でのピッキング作業において、例えば、荷物が陳列されている棚から当該荷物(シャンプーや、コンディショナー、化粧品、歯磨き粉、カップラーメン、菓子袋等の形状や重さ、硬さ、壊れやすさが違うもの)をピックアップし、所定の包装体(箱等)に収容してパッキングするような場面において、現状では人の手に頼っている。 However, conventional picking tasks in warehouses using humanoid robots currently rely on human hands when picking up items (shampoo, conditioner, cosmetics, toothpaste, instant ramen, snack wrappers, and other items of different shapes, weights, hardness, and fragility) from shelves on which they are displayed, and then packing them into the appropriate packaging (boxes, etc.).

また、ロボットの把持部の構造をフィンガータイプとして対応しようとしても、指や腕の動きが遅いため、生産性が低い。 Even if we try to make the structure of the robot's gripping part a finger type, the fingers and arms move slowly, which results in low productivity.

本発明上記事実を考慮し、把持部による荷物の位置の確認、掴み、及び把持の一連の作業を迅速かつ確実に行うことができるロボットの制御システム、ロボットの制御プログラムを得ることが目的である。 In consideration of the above, the present invention aims to provide a robot control system and a robot control program that can quickly and reliably perform a series of tasks, including checking the position of a package, grabbing it, and holding it, using the gripping unit.

本発明に係るロボットの制御システムは、対象物を把持する基盤となる掌部と、前記掌部から放射状に延長された複数の指部とを備えた第1把持部と、対象物を把持し、かつ把持することが可能な保持体を備えた第2把持部とを有し、前記第1把持部及び前記第2把持部により前記対象物を把持することが可能なロボットの制御システムであって、前記第1把持部の前記掌部及び指部毎に選択的に設けられ、異なる吸着面積で前記対象物を吸着して把持することが可能な複数種類の吸着パッドと、前記対象物の少なくとも形状及び重さを含む性状によって、前記対象物を把持する機能として、前記第1把持部で把持する第1機能、前記第2把持部で把持する第2機能、前記第1機能及び前記第2機能を併用する第3機能の何れかを選択して、前記対象物を把持する動作を制御する制御部と、を有している。 The control system of the robot according to the present invention is a control system for a robot having a first gripping part with a palm part that serves as a base for gripping an object and a plurality of finger parts extending radially from the palm part, and a second gripping part with a holder capable of gripping and holding the object, and capable of gripping the object with the first gripping part and the second gripping part, and has a plurality of types of suction pads selectively provided for each of the palm part and finger parts of the first gripping part and capable of suctioning and holding the object with different suction areas, and a control part that selects, as a function for gripping the object according to the properties of the object including at least the shape and weight, one of a first function for gripping the object with the first gripping part, a second function for gripping the object with the second gripping part, and a third function for using both the first and second functions, and controls the operation of gripping the object.

本発明によれば、制御部は、対象物の少なくとも形状及び重さを含む性状によって、前記対象物を把持する機能として、前記第1把持部で把持する第1機能、前記第2把持部で把持する第2機能、前記第1機能及び前記第2機能を併用する第3機能の何れかを選択して、前記対象物を把持する動作を制御する。 According to the present invention, the control unit selects, based on the properties of the object including at least the shape and weight, one of a first function for gripping the object with the first gripping unit, a second function for gripping the object with the second gripping unit, and a third function for using both the first and second functions, and controls the operation of gripping the object.

これにより、把持部による対象物(以下、荷物という場合がある。)の位置の確認、掴み、及び把持の一連の作業を迅速かつ確実に行うことができる。 This allows the gripping unit to quickly and reliably perform a series of operations including checking the position of the object (hereinafter sometimes referred to as luggage), grabbing it, and holding it.

本発明において、前記第1把持部は、前記指部が複数設けられ、少なくとも1の指部の先端部には他の吸着パッドと比べて小径の吸着パッドが取り付けられ、前記1の指部以外の他の指部の先端部には他の吸着パッドと比べて大径の吸着パッドが取り付けられており、前記制御部は、前記性状に基づいて、前記第1機能、前記第2機能、前記第3機能の何れかを選択して、前記対象物を把持する動作を制御することを特徴としている。 In the present invention, the first gripping portion is provided with a plurality of fingers, at least one of the fingers has a suction pad attached to a tip end thereof with a smaller diameter than the other suction pads, and the other fingers other than the first finger have suction pads attached to their tips with a larger diameter than the other suction pads, and the control portion selects one of the first function, the second function, and the third function based on the property to control the operation of gripping the object.

1台のロボットの対象部の性状に適合する把持機能を有しているため、ロボットの選択が不要となり、ピッキング作業の効率化を図ることができる。 Since each robot has a gripping function that matches the characteristics of the target part, there is no need to select a robot, which makes picking work more efficient.

本発明において、前記第1把持部は、前記指部が3本設けられ、第1の指部の先端部には他の吸着パッドと比べて小径の吸着パッドが取り付けられ、第2の指部及び第3の指部の先端部には他の吸着パッドと比べて大径の吸着パッドが取り付けられており、前記制御部は、前記対象物が、前記性状に基づいて、特大サイズ、大サイズ、中サイズ、小サイズ、及び特小サイズに分類し、前記対象物が、前記特大サイズの場合は、前記第2把持部に設けられた保持体を用いて把持し、前記対象物が、前記大サイズの場合は、前記掌部に設けられた吸着パッドを用いて把持し、前記対象物が、前記中サイズの場合は、前記第2の指部及び前記第3の指部の先端部に設けられた前記大径の吸着パッドを用いて把持し、前記対象物が、前記小サイズの場合は、前記第2の指部又は前記第3の指部の先端部に設けられた前記大径の吸着パッドを用いて把持し、前記対象物が、前記特小サイズの場合は、前記第1の指部の先端部に設けられた前記小径の吸着パッドを用いて把持することを選択することを特徴としている。 In the present invention, the first gripping portion has three fingers, a suction pad having a smaller diameter than the other suction pads is attached to the tip of the first finger, and a suction pad having a larger diameter than the other suction pads is attached to the tip of the second finger and the third finger, and the control portion classifies the object into extra-large size, large size, medium size, small size, and extra-small size based on the characteristics, and when the object is the extra-large size, it is gripped using a holder provided on the second gripping portion, and when the object is the large size, it is gripped using a holder provided on the second gripping portion. When the object is of a large size, the suction pad provided on the palm is used to grasp the object; when the object is of a medium size, the large-diameter suction pad provided on the tip of the second finger portion and the third finger portion is used to grasp the object; when the object is of a small size, the large-diameter suction pad provided on the tip of the second finger portion or the third finger portion is used to grasp the object; and when the object is of an extra-small size, the small-diameter suction pad provided on the tip of the first finger portion is used to grasp the object.

1台のロボットの対象部の性状に適合する把持機能を有しているため、ロボットの選択が不要となり、ピッキング作業の効率化を図ることができる。 Since each robot has a gripping function that matches the characteristics of the target part, there is no need to select a robot, which makes picking work more efficient.

本発明において、前記第2把持部の前記保持体が、前記大径の吸着パッド又は前記小径の吸着パッドの何れかと同形状の吸着パッドが適用されることを特徴としている。 The present invention is characterized in that the holder of the second gripping part is an adsorption pad having the same shape as either the large diameter adsorption pad or the small diameter adsorption pad.

第2把持部にも吸着パッドを用いることで、制御が容易となる。 Using a suction pad on the second gripping part also makes control easier.

本発明において、前記第1把持部及び前記第2把持部に設けられ、前記対象物の形状及び位置を含む対象物情報を検出する掌センサ部をさらに有し、前記掌センサ部が、前記対象物の画像を撮影して当該対象物の種類を識別するカメラと、前記対象物の位置を特定するモーションプロセシングユニットとを備えることを特徴としている。 The present invention is characterized in that it further comprises a palm sensor unit provided on the first gripping unit and the second gripping unit for detecting object information including the shape and position of the object, the palm sensor unit including a camera for taking an image of the object and identifying the type of the object, and a motion processing unit for identifying the position of the object.

カメラは、撮影した画像情報に基づき、撮影された対象物を識別する。すなわち、対象物の種類(形状、大きさ、硬さ等)を特定するための情報を取得する役目を有する。 The camera identifies the photographed object based on the captured image information. In other words, it has the role of acquiring information to identify the type of object (shape, size, hardness, etc.).

モーションプロセシングユニット(MoPU)は、対象物の存在位置を示す点の、所定の座標軸に沿った動きのベクトル情報を動き情報として出力する。すなわち、MoPUから出力される動き情報には、対象物の中心点(又は重心点)の座標軸(x軸、y軸、z軸)上の動き(移動方向と移動速度)を示す情報のみが含まれている。すなわち、把持部が対象物に接近するときの軌跡を精度よく案内することができる。 The motion processing unit (MoPU) outputs, as motion information, vector information of the movement along a specified coordinate axis of a point indicating the location of an object. In other words, the motion information output from the MoPU contains only information indicating the movement (movement direction and movement speed) on the coordinate axes (x-axis, y-axis, z-axis) of the center point (or center of gravity) of the object. In other words, it is possible to provide accurate guidance on the trajectory of the gripping unit as it approaches the object.

本発明において、前記対象物の前記性状の内、重さ情報を用いて、前記対象物が、単一のロボットで把持することが可能な所定規格内か否かを判定し、所定規格を超える場合に、複数のロボットを集結し、互いに連携して、前記対象物を把持する、ことを特徴としている。 The present invention is characterized in that, among the properties of the object, weight information is used to determine whether the object is within a predetermined standard that allows it to be grasped by a single robot, and if the object exceeds the predetermined standard, multiple robots are assembled and work together to grasp the object.

単体のロボットで把持する対象物として、所定規格を超える対象物(例えば、重量オーバー)の場合、複数のロボットを連携して把持することで、当該重量オーバー等の対象物にも対応することができる。 When an object that can be grasped by a single robot exceeds a certain standard (for example, is overweight), multiple robots can be used in coordination to grasp the object, making it possible to handle such overweight objects.

本発明において、前記制御部が、前記複数のロボットの各々の前記対象物の把持点を設定し、前記対象物の性状に基づいて、設定した把持点での、各ロボットに分担される荷重比率を演算し、演算結果に基づいて、各ロボット毎に、前記対象物を把持する前記機能を選択する、ことを特徴としている。 In the present invention, the control unit sets a gripping point for the object for each of the plurality of robots, calculates the load ratio shared by each robot at the set gripping point based on the properties of the object, and selects the function for gripping the object for each robot based on the calculation result.

各ロボットの把持点によって、対象物を把持したときの荷重が異なるため、それぞれの荷重比率に基づいて、把持するときの機能を選択することができる。 The load applied when grasping an object differs depending on the grasping point of each robot, so the grasping function can be selected based on the respective load ratios.

本発明において、前記複数のロボットで前記対象物を把持して搬送するとき、当該対象物に加わる慣性力が最小となるように、各ロボットの搬送ルートを設定する、ことを特徴としている。 The present invention is characterized in that, when the object is grasped and transported by the multiple robots, the transport route of each robot is set so that the inertial force acting on the object is minimized.

例えば、右折及び左折時等で、対象物に減速及び加速による慣性力が加わり、把持状態が変化する場合がある。そこで、対象物が所定の曲率半径のカーブ軌跡で移動するような、ロボットの搬送ルートを設定することで、把持状態を変化させない走行が可能となる。 For example, when turning right or left, the object may be subjected to inertial forces due to deceleration or acceleration, causing the gripping state to change. Therefore, by setting the robot's transport route so that the object moves along a curved trajectory with a specified radius of curvature, it becomes possible for the robot to travel without changing the gripping state.

本発明に係るロボットの制御プログラムは、コンピュータを上記の制御部として動作させることを特徴としている。 The robot control program according to the present invention is characterized by causing a computer to operate as the control unit described above.

なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となり得る。 Note that the above summary of the invention does not list all of the necessary features of the present invention. Also, subcombinations of these features may also be inventions.

以上説明したように本発明によれば、把持部による荷物の位置の確認、掴み、及び把持の一連の作業を迅速かつ確実に行うことができるという効果を奏する。 As described above, the present invention has the advantage that the gripping unit can quickly and reliably perform a series of tasks including checking the position of the luggage, grabbing it, and holding it.

第1の実施の形態に係る人型ロボットの正面図である。FIG. 1 is a front view of a humanoid robot according to a first embodiment. 第1の実施の形態に係る人型ロボットの側面図である。FIG. 1 is a side view of a humanoid robot according to a first embodiment. (A)は第1の実施の形態に係る把持部の掌側の正面図、(B)は把持部に取り付けた吸着パッドの斜視図である。1A is a front view of the palm side of a grip part according to a first embodiment, and FIG. 1B is a perspective view of a suction pad attached to the grip part. (A)は第1の実施の形態に係る左手側の把持部の斜視図、(B)は第1の実施の形態に係る右手側の把持部の斜視図である。1A is a perspective view of a left-hand grip portion according to a first embodiment, and FIG. 1B is a perspective view of a right-hand grip portion according to the first embodiment. 人型ロボットの機能構成の一例を概略的に示す図である。FIG. 2 is a diagram illustrating an example of a functional configuration of a humanoid robot. 情報処理装置によって実行される処理ルーチンの一例を概略的に示す図である。FIG. 2 is a diagram illustrating an example of a processing routine executed by the information processing device. 図4の人型ロボットの全体の動作に連動し、把持部によって荷物を把持する際の把持制御の手順を示すフローチャートである。5 is a flowchart showing a procedure of gripping control when gripping an object by a gripper in conjunction with the overall movement of the humanoid robot of FIG. 4 . 図7のステップ160における、把持部及び吸着パッドの選択処理ルーチンを示す制御フローチャートである。8 is a control flowchart showing a selection process routine for a gripper and a suction pad in step 160 of FIG. 7; 第2の実施の形態に係る把持部及び吸着パッドの選択処理ルーチンを示す制御フローチャートである。10 is a control flowchart showing a selection process routine of a gripper and a suction pad according to a second embodiment. 図9のステップ194における、所定規格外処理サブルーチンの詳細を示す制御フローチャートである。10 is a control flowchart showing details of a predetermined out-of-standard processing subroutine in step 194 of FIG. 9 . 第2の実施の形態の変形例に係る、1つの荷物を把持している2台の人型ロボットが、クランク状の搬送経路に差しかかっている状態を示す平面図である。FIG. 13 is a plan view showing a state in which two humanoid robots holding one piece of luggage approach a crank-shaped transport path, according to a modified example of the second embodiment. 第2の実施の形態の変形例に係る、所定規格外のときの走行ルート設定処理ルーチンを示す制御フローチャートである。13 is a control flowchart showing a travel route setting process routine when the travel route is out of a predetermined standard, according to a modification of the second embodiment. 情報処理装置として機能するコンピュータハードウェアの一例を概略的に示す図である。FIG. 1 is a diagram illustrating an example of computer hardware that functions as an information processing device.

以下、発明の実施の形態を通じて本発明を説明するが、以下の実施の形態は特許請求の範囲に係る発明を限定するものではない。また、実施の形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。 The present invention will be described below through embodiments of the invention, but the following embodiments do not limit the invention according to the claims. Furthermore, not all of the combinations of features described in the embodiments are necessarily essential to the solution of the invention.

(第1の実施の形態)
図1は第1の実施の形態に係る人型ロボットの正面図である。図1に示すように、第1の実施の形態に係る人型ロボット1は、上半身部2、脚部3、および上半身部2を脚部3に対して回動可能に連結する連結部4を備え、例えば工場の生産ライン等に配置されて、ピッキング対象物である荷物100等が陳列されている棚を含むライン上、又は床上の対象物(落下物等)に対して作業を行うものである。なお、作業は、棚から荷物100を把持するピッキング以外に、把持した荷物100を所定の筐体(ダンボール等)に収容するパッキングを含む。
(First embodiment)
Fig. 1 is a front view of a humanoid robot according to a first embodiment. As shown in Fig. 1, the humanoid robot 1 according to the first embodiment includes an upper body 2, legs 3, and a connector 4 that rotatably connects the upper body 2 to the legs 3, and is placed, for example, on a production line in a factory to perform work on a line including shelves on which packages 100 to be picked are displayed, or on objects (fallen objects, etc.) on the floor. The work includes not only picking, which is to grasp packages 100 from shelves, but also packing, which is to place the grasped packages 100 in a predetermined case (such as a cardboard box).

上半身部2は2本の腕部5、6を有する。腕部5、6は上半身部2の左右に回動自在に取り付けられている。また、腕部5、6の先端には荷物100を把持するための把持部20(詳細後述)が取り付けられている。なお、腕部は2本に限定されるものではなく、1本あるいは3本以上であってもよい。 The upper body 2 has two arms 5 and 6. The arms 5 and 6 are attached to the left and right of the upper body 2 so that they can rotate freely. In addition, a gripping part 20 (described in detail later) for gripping luggage 100 is attached to the tip of the arms 5 and 6. The number of arms is not limited to two, and may be one or three or more.

脚部2は2つの車輪7、8がその下部に取り付けられており、人型ロボット1が配置される床の上を移動可能とされている。 The leg 2 has two wheels 7 and 8 attached to its bottom, allowing it to move across the floor on which the humanoid robot 1 is placed.

連結部4は、上半身部2と脚部3を回動可能に連結する。このため、上半身部2は、脚部3に対して前傾および後傾が可能となっている。このため、第1の実施の形態に係る人型ロボット1は、図2に示すように、脚部3に対して上半身部2を前傾させて、棚に置かれた荷物100や、床に置かれていた荷物100、及び作業中に床に落ちたりした荷物100を拾うことが可能である。 The connecting part 4 connects the upper body part 2 and the legs 3 in a rotatable manner. Therefore, the upper body part 2 can lean forward and backward with respect to the legs 3. Therefore, the humanoid robot 1 according to the first embodiment can lean the upper body part 2 forward with respect to the legs 3 as shown in FIG. 2, and pick up luggage 100 placed on a shelf, luggage 100 placed on the floor, and luggage 100 that has fallen to the floor during work.

なお、脚部2は、上半身部2が脚部3に対して前傾または後傾したり、人型ロボット1が移動したりした際に、人型ロボット1が転倒しないようにするためのバランス機能を有する。 The legs 2 have a balancing function to prevent the humanoid robot 1 from falling over when the upper body 2 leans forward or backward relative to the legs 3 or when the humanoid robot 1 moves.

また、連結部4は、図1に示すように上半身部2と脚部3との距離を変更可能な機能を有する。このため、生産ラインにおける作業台の高さに合うように、脚部3に対する上半身部2の上下方向の位置を矢印Aに示すように調整することができる。 The connecting part 4 also has a function that allows the distance between the upper body part 2 and the legs 3 to be changed, as shown in FIG. 1. Therefore, the vertical position of the upper body part 2 relative to the legs 3 can be adjusted, as shown by arrow A, to match the height of the workbench on the production line.

また、第1の実施の形態に係る人型ロボット1は、人型ロボット1内に実装された制御システム10によりその駆動が制御される。 The humanoid robot 1 according to the first embodiment is controlled by a control system 10 implemented within the humanoid robot 1.

(把持部20の構造)
図3(A)に示される如く、腕部5、6の先端に取り付けられた把持部20は、一方(第1の実施の形態では、左腕である腕部6が人間の同様の手の構造とされ(以下、左手側の把持部20を「把持部20L」という)、他方(第1の実施の形態では、右腕である腕部5)は矩形構造とされ(以下、右手側の把持部20を「把持部20R」という)、何れの把持部20は、腕部5、6に対して、回転自在に取り付けられている(Intelligent Hand System)。
(Structure of grip portion 20)
As shown in FIG. 3A , the gripping parts 20 attached to the ends of the arms 5 and 6 are such that one (in the first embodiment, the arm 6, which is the left arm, has a structure similar to that of a human hand (hereinafter, the gripping part 20 on the left hand side is referred to as "grip part 20L") and the other (in the first embodiment, the arm 5, which is the right arm) has a rectangular structure (hereinafter, the gripping part 20 on the right hand side is referred to as "grip part 20R"), and each gripping part 20 is attached to the arm 5 or 6 so as to be freely rotatable (Intelligent Hand System).

(左手の把持部20L)
図3(A)及び図4(A)に示される如く、第1の実施の形態に係る把持部20Lは、各々複数の関節を備えた3本の指部22A、22B、22Cを有している。なお、第1の実施の形態では、把持部20Lの指の数を3本としているが、5本指などの複数指構造であってもよい。
(Left hand grip 20L)
3A and 4A, the grip portion 20L according to the first embodiment has three fingers 22A, 22B, and 22C, each of which has a plurality of joints. Note that, although the number of fingers of the grip portion 20L is three in the first embodiment, it may have a multi-finger structure, such as five fingers.

把持部20Lの掌側20Aには、複数(第1の実施の形態では、4個)の吸着パッド24が取り付けられている。 Multiple suction pads 24 (four in the first embodiment) are attached to the palm side 20A of the gripping portion 20L.

また、第1の実施の形態の把持部20Lの掌側20Aの中央部には、掌センサ26が取り付けられている。掌センサ26は、荷物100の種類を識別する高解像度カメラ、及び、荷物100の位置を特定するMoPU(Motion Processing Unit)を備えている。 In addition, in the first embodiment, a palm sensor 26 is attached to the center of the palm side 20A of the gripping portion 20L. The palm sensor 26 includes a high-resolution camera that identifies the type of luggage 100, and a MoPU (Motion Processing Unit) that identifies the position of the luggage 100.

また、3本の指部22A、22B、22Cの先端部には、それぞれ吸着パッド24X、24Yが取り付けられている。吸着パッド24X、24Yの分類については、後述する。 In addition, suction pads 24X and 24Y are attached to the tips of the three fingers 22A, 22B, and 22C, respectively. The classification of suction pads 24X and 24Y will be described later.

(右手の把持部20R)
図3(A)及び図4(B)に示される如く、第1の実施の形態に係る把持部20Rは、矩形状の本体部20Bを備え、本体部20Bの先端面には、複数(第1の実施の形態では、4個)の吸着パッド24が取り付けられている。この吸着パッド24は、左手の把持部20Lで適用した何れかの吸着パッド24X又は吸着パッド24Yの何れであってもよいし、別の径寸法であってもよい。
(Right hand grip 20R)
3(A) and 4(B), the grip part 20R according to the first embodiment has a rectangular main body part 20B, and a plurality of (four in the first embodiment) suction pads 24 are attached to the tip surface of the main body part 20B. The suction pads 24 may be either the suction pad 24X or the suction pad 24Y used in the left grip part 20L, or may have a different diameter dimension.

また、第1の実施の形態の把持部20Rの本体部20Bの先端面中央部には、掌センサ26が取り付けられている。掌センサ26は、荷物100の種類を識別する高解像度カメラ、及び、荷物100の位置を特定するMoPU(Motion Processing Unit)を備えている。 In addition, a palm sensor 26 is attached to the center of the tip surface of the main body 20B of the gripper 20R in the first embodiment. The palm sensor 26 is equipped with a high-resolution camera that identifies the type of luggage 100, and a MoPU (Motion Processing Unit) that identifies the position of the luggage 100.

図3(B)に示される如く、吸着パッド24は、荷物100を把持するときに対峙させるゴム製のパッド部24Aと、パッド部24Aと荷物100との密着により形成される密閉空間のエアーを吸引する空気流路を形成するニップル24Bとで構成されている。 As shown in FIG. 3B, the suction pad 24 is composed of a rubber pad portion 24A that faces the baggage 100 when gripping it, and a nipple 24B that forms an air flow path to suck in air from the sealed space formed by the close contact between the pad portion 24A and the baggage 100.

すなわち、第1の実施の形態の吸着パッド24は、エアー吸着構造であり、ニップル24Bに設けられた孔24Cから、密閉空間内の空気を吸引して真空(ほぼ真空を含む)することで、吸着力を持つ。なお、吸着パッド24は、エアー吸着構造に限らず、単純にパッド部24Aの変形による密閉空間の容積を変化させて吸着させる構造であってもよい。 In other words, the suction pad 24 in the first embodiment has an air suction structure, and has suction power by sucking air from the sealed space through a hole 24C provided in the nipple 24B to create a vacuum (including a near vacuum). Note that the suction pad 24 is not limited to an air suction structure, and may have a structure in which suction is achieved by simply changing the volume of the sealed space by deforming the pad portion 24A.

ここで、吸着パッド24は、取付位置によってその大きさが異なっている(パッド部24Aの径寸法の違い)。 Here, the size of the suction pad 24 varies depending on the mounting position (due to the difference in the diameter dimension of the pad portion 24A).

大きく分類すると、吸着パッド24は、大径サイズ又は小径サイズに分類され、相対的に小径サイズ(大径サイズよりも小径)の吸着パッド24Xと、相対的に大径サイズ(小径サイズよりも大径)の吸着パッド24Yとによって構成されている。 Broadly speaking, the suction pads 24 are classified into large diameter size and small diameter size, and are composed of suction pads 24X of relatively small diameter size (smaller than the large diameter size) and suction pads 24Y of relatively large diameter size (larger than the small diameter size).

把持部20Lの指部22Aには小径サイズの吸着パッド24Xが取り付けられ、その他の指22B、22C、及び掌側20Aには大径サイズの吸着パッド24Yが取り付けられている。 A small-diameter suction pad 24X is attached to the finger portion 22A of the gripping portion 20L, and a large-diameter suction pad 24Y is attached to the other fingers 22B, 22C, and the palm side 20A.

また、把持部20Rの本体には、大径サイズの吸着パッド24Yが取り付けられている。 In addition, a large-diameter suction pad 24Y is attached to the main body of the gripper 20R.

なお、吸着パッド24X、24Yのサイズを2種類としたが、3種類以上であってもよい。 Although the suction pads 24X and 24Y are provided in two sizes, they may be provided in three or more sizes.

第1の実施の形態の掌センサ26を構成する高解像度カメラは、撮影した画像情報に基づき、撮影された荷物100が何であるかシャンプー、コンディショナー、化粧品、歯磨き粉等のケア商品なのか、又は、カップラーメン、菓子袋等の食品なのかを識別する。 The high-resolution camera constituting the palm sensor 26 of the first embodiment identifies, based on the captured image information, what the photographed luggage 100 is, whether it is a care product such as shampoo, conditioner, cosmetics, or toothpaste, or whether it is food such as instant ramen or a bag of sweets.

言い換えると、高解像度カメラは、荷物100の種類(形状、大きさ、硬さ等)を特定するための情報を取得する役目を有する。 In other words, the high-resolution camera serves to obtain information to identify the type of luggage 100 (shape, size, hardness, etc.).

一方、高解像度カメラと共に、第1の実施の形態の掌センサ26を構成するMoPUは、1000フレーム/秒以上のフレームレートで撮影された荷物100の画像から、撮影された荷物100の動き(この場合、腕部5、6との間の相対的な動きとなる。)を示す動き情報を、例えば1000フレーム/秒以上のフレームレートで出力する。なお、移動中の荷物100を検知する場合、フレームレートを上げて、固定物(移動しない荷物100)を検知する場合、フレームレートを下げるようにしてもよい。 Meanwhile, the MoPU, which constitutes the palm sensor 26 of the first embodiment together with the high-resolution camera, outputs, from an image of the luggage 100 captured at a frame rate of 1000 frames/second or more, motion information indicating the motion of the captured luggage 100 (in this case, the relative motion between the arms 5, 6) at a frame rate of, for example, 1000 frames/second or more. Note that when detecting a moving luggage 100, the frame rate may be increased, and when detecting a fixed object (luggage 100 that does not move), the frame rate may be decreased.

MoPUは、荷物100の存在位置を示す点の、所定の座標軸に沿った動きのベクトル情報を動き情報として出力する。すなわち、MoPUから出力される動き情報には、撮影された荷物100が何であるか(上記ケア商品、食品)を識別するために必要な情報は含まれておらず、当該荷物100の中心点(又は重心点)の座標軸(x軸、y軸、z軸)上の動き(移動方向と移動速度)を示す情報のみが含まれている。 The MoPU outputs, as motion information, vector information on the movement of a point indicating the location of the luggage 100 along a specified coordinate axis. In other words, the motion information output from the MoPU does not include information necessary to identify what the photographed luggage 100 is (the care product or food) and only includes information indicating the movement (direction and speed of movement) of the center point (or center of gravity) of the luggage 100 on the coordinate axes (x-axis, y-axis, z-axis).

すなわち、把持部20が荷物100に接近するときの軌跡を精度よく案内することができる。 In other words, the trajectory of the gripping portion 20 as it approaches the luggage 100 can be accurately guided.

高解像度カメラ及びMoPUを含む掌センサ26から出力された情報は、情報処理装置14に供給される。 The information output from the palm sensor 26, which includes a high-resolution camera and MoPU, is supplied to the information processing device 14.

情報処理装置14は、高解像度カメラ及びMoPUを含む掌センサ26からの情報により、高精度に荷物100の位置を特定し、把持するときの指部22A、22B、22Cの広がり度合い、掴むときの強度、及び吸着パッド24による吸着力等を演算し、腕部5、6及び把持部20の微小な動きを、精度よくコントロールし、様々な荷物100のピッキング作業に対応することができる。 The information processing device 14 uses information from a palm sensor 26 including a high-resolution camera and MoPU to pinpoint the position of the luggage 100 with high precision, calculates the degree of spread of the fingers 22A, 22B, 22C when gripping, the strength of the grip, and the suction force of the suction pad 24, and accurately controls the minute movements of the arms 5, 6 and the gripping part 20, making it possible to handle the picking of various luggage 100.

(荷物100の形状、重さ等を含む性状による、吸着パッド24X、24Yの選択)
ところで、ピッキング対象の荷物100は、第1の実施の形態では、以下の表1のように分類することができる。
(Selection of the suction pads 24X and 24Y depending on the characteristics of the luggage 100, including the shape, weight, etc.)
In the first embodiment, the packages 100 to be picked can be classified as shown in Table 1 below.

表1は、ピッキング対象の荷物100(Object)を、形状(Shape)、重さ(Weight)、及びその他状態(Other condition)の3項目で分類している。 Table 1 classifies the objects 100 to be picked according to three categories: shape, weight, and other condition.

形状の項目としては、箱型(Box)、非箱型(Not box)、及びその他(Other)が設定される。重さの項目としては、5kg以上(Over 5kg)及び5kg未満(Below 5kg)が設定される。状態の項目としては、四角形等の多角形を主とする線形的形状(Aligned)及び球体や袋体を主とする非線形形状(Not aligned)が設定される。 The shape category can be set to Box, Not box, or Other. The weight category can be set to Over 5kg or Below 5kg. The state category can be set to Aligned, which is a linear shape that is primarily polygonal, such as a rectangle, or Not aligned, which is a nonlinear shape that is primarily a sphere or bag.

ここで、比較例では、上記各項目の組み合わせで決定した荷物100の性状に基づいて、適用可能なロボットを選択して、ピッキング作業を実行するようにしていた。すなわち、ロボットの種類として、フィンガーロボット(Finger robot)、吸着ロボット(Sucking robot)の「大(Large)」、「中(Medium)」、「小(Small)」,及び2本アームロボット(Both 2 arms robot)があり、これらの中から、適用可能なロボットを選択する。 In the comparative example, an applicable robot is selected based on the characteristics of the luggage 100 determined by the combination of the above items to perform the picking work. That is, the types of robots include finger robots, sucking robots in "large", "medium", and "small", and two-arm robots, and an applicable robot is selected from among these.

しかしながら、種類の異なるロボットの選択では、例えば、近くに待機しているロボットが適用対象外の種類のロボットの場合、新たに適用可能な種類のロボットを呼び寄せる必要があり、ピッキング作業の効率が悪かった。 However, when selecting a different type of robot, for example, if a robot waiting nearby is of an inapplicable type, a new robot of an applicable type must be called in, making the picking process less efficient.

そこで、第1の実施の形態では、単一の人型ロボット1に、複数の異なる把持部(把持部20A、20B)を設けると共に、異なる大きさの吸着パッド(吸着パッド24X、24Y)を取り付けることで、1台の人型ロボット1に取り付けられた1本又は2本の腕部5、6により、上記で示した様々な性状の荷物100のピッキングを行うようにした。 Therefore, in the first embodiment, a single humanoid robot 1 is provided with multiple different gripping parts (gripping parts 20A, 20B) and is equipped with suction pads of different sizes (suction pads 24X, 24Y), allowing one or two arms 5, 6 attached to the single humanoid robot 1 to pick up luggage 100 with the various characteristics described above.

より具体的には、表1で確定した荷物100の性状に応じて、表2に示される如く、オブジェックトサイズ(Object size)として5パターン(Extra-Large、Large、Medium、Small、Extra-small)に分類し、当該5パターンのそれぞれに対応したピッキング作業を選択するようにした(Suitable for : Right hand、Left hand palm、Left 2 fingers、left 1 finger)。 More specifically, depending on the characteristics of the luggage 100 determined in Table 1, the object size is classified into five patterns (extra-large, large, medium, small, extra-small) as shown in Table 2, and a picking task corresponding to each of the five patterns is selected (suitable for: right hand, left hand palm, left 2 fingers, left 1 finger).

より具体的には、以下のような選択制御が実行される。 More specifically, the following selection control is performed:

(選択制御1) Extra-Largeサイズ(特大サイズ)の荷物100の場合は、最も重い荷物100と判断して、右手の把持部20Rを使用してピッキングする。 (Selection Control 1) In the case of an extra-large size package 100, it is determined to be the heaviest package 100 and is picked using the right hand grip 20R.

(選択制御2) Largeサイズ(大サイズ)の荷物100の場合は、左手の把持部20Lの掌側20Aに取り付けられた吸着パッド24Yを使用してピッキングする(大径サイズの4個の吸着パッド24Yを使用)。 (Selection Control 2) In the case of a large-sized package 100, the package is picked using the suction pad 24Y attached to the palm side 20A of the left hand grip 20L (four large-diameter suction pads 24Y are used).

(選択制御3) Mediumサイズ(中サイズ)の荷物100の場合は、左手の把持部20Lの指部22B及び指部22Xに取り付けられた2個の吸着パッド24Yを使用してピッキングする(大径サイズの2個の吸着パッド24Yを使用)。 (Selection Control 3) In the case of a medium-sized piece of luggage 100, the luggage is picked using two suction pads 24Y attached to the finger portions 22B and 22X of the left gripping portion 20L (two large-diameter suction pads 24Y are used).

(選択制御4) Smallサイズ(小サイズ)の荷物100の場合は、左手の把持部20Lの指部22Bを使用してピッキングする(大径サイズの吸着パッド24Yを使用)。 (Selection Control 4) In the case of a small-sized package 100, the package is picked using the finger portion 22B of the gripper portion 20L of the left hand (using the large-diameter suction pad 24Y).

(選択制御5) Extra-smallサイズ(特小サイズ)の荷物100の場合は左手の把持部20Lの指部22Aを使用してピッキングする(小径サイズの吸着パッド24Xを使用)。 (Selection Control 5) For extra-small size luggage 100, pick it using the finger portion 22A of the gripper 20L of the left hand (using the small diameter suction pad 24X).

(選択制御6) 表2には記載していないが、グリップ(掴む)のに適した荷物100であれば、左手の把持部24Lの指部22A、22B、22Cで荷物100を掴んで持ち上げる。この選択制御6は、上記の選択制御1~選択制御5との併用でもよいし、単独で実行してもよい。 (Selection Control 6) Although not shown in Table 2, if the luggage 100 is suitable for gripping, the luggage 100 is grasped and lifted with the fingers 22A, 22B, and 22C of the gripping portion 24L of the left hand. This selection control 6 may be used in combination with the above selection controls 1 to 5, or may be executed alone.

図5は、第1の実施の形態に係る人型ロボットの制御システムの一例の概略図である。制御システム10は、人型ロボットに搭載されるセンサ12と、高解像度カメラ及びMoPUを含む掌センサ26と、情報処理装置14とを備えている。 Figure 5 is a schematic diagram of an example of a control system for a humanoid robot according to the first embodiment. The control system 10 includes a sensor 12 mounted on the humanoid robot, a palm sensor 26 including a high-resolution camera and a MoPU, and an information processing device 14.

センサ12は、人型ロボット1の周辺にある、人型ロボット1が作業する荷物100と腕部5、6との距離および角度を少なくとも表す情報を逐次取得する。センサ12としては、最高性能のカメラ、ソリッドステートLiDAR、マルチカラーレーザ同軸変位計、又はその他様々なセンサ群が採用され得る。また他には、センサ12としては、振動計、サーモ The sensor 12 sequentially acquires information representing at least the distance and angle between the luggage 100 around the humanoid robot 1 and the arms 5 and 6 on which the humanoid robot 1 is working. The sensor 12 may be a high-performance camera, a solid-state LiDAR, a multi-color laser coaxial displacement meter, or a variety of other sensors. Other examples of the sensor 12 include a vibration meter, a thermometer,

カメラ、硬度計、レーダー、LiDAR、高画素・望遠・超広角・360度・高性能カメラ、ビジョン認識、微細音、超音波、振動、赤外線、紫外線、電磁波、温度、湿度、スポットAI天気予報、高精度マルチチャネルGPS、低高度衛星情報、又はロングテールインシデントAI data等が挙げられる。 These include cameras, hardness testers, radar, LiDAR, high pixel, telephoto, ultra-wide-angle, 360-degree, high-performance cameras, vision recognition, fine sound, ultrasound, vibration, infrared, ultraviolet, electromagnetic waves, temperature, humidity, spot AI weather forecasts, high-precision multi-channel GPS, low-altitude satellite information, and long-tail incident AI data.

なお、センサ12は、上記の情報のほかに、画像、距離、振動、熱、匂い、色、音、超音波、紫外線、又は赤外線等を検知する。他にセンサ12が検知する情報としては、人型ロボット1の重心移動、人型ロボット1が設置される床の材質の検知、外気温度の検知、外気湿度の検知、床の上下横斜め傾き角度の検知、水分量の検知等が挙げられる。 In addition to the above information, the sensor 12 detects images, distance, vibration, heat, smell, color, sound, ultrasound, ultraviolet light, infrared light, etc. Other information detected by the sensor 12 includes the movement of the center of gravity of the humanoid robot 1, the material of the floor on which the humanoid robot 1 is placed, the outside air temperature, the outside air humidity, the up/down/side/diagonal inclination angle of the floor, the amount of moisture, etc.

センサ12は、これらの検知を例えばナノ秒毎に実施する。 The sensor 12 performs these detections, for example, every nanosecond.

掌センサ26(高解像度カメラ及びMoPU)は、腕部5、6の把持部20に設けられるセンサであり、センサ12とは別に、荷物100を撮影するカメラ機能、及び、荷物100位置を特定する位置特定機能を有する。 The palm sensor 26 (high-resolution camera and MoPU) is a sensor provided on the gripping portion 20 of the arm portions 5 and 6, and has a camera function for photographing the luggage 100 and a positioning function for identifying the position of the luggage 100, separate from the sensor 12.

なお、1つのMoPU12を用いた場合には、荷物100の存在位置を示す点の、三次元直交座標系における2つの座標軸(x軸及びy軸)の各々に沿った動きのベクトル情報を取得することが可能である。ステレオカメラの原理を利用して、2つのMoPU12を用いて、荷物100の存在位置を示す点の、三次元直交座標系における3つの座標軸(x軸、y軸、z軸)の各々に沿った動きのベクトル情報を出力してもよい。z軸は、奥行方法(車両の走行)に沿った軸である。 When one MoPU 12 is used, it is possible to obtain vector information of the movement of a point indicating the location of luggage 100 along each of two coordinate axes (x-axis and y-axis) in a three-dimensional orthogonal coordinate system. Using the principle of a stereo camera, two MoPUs 12 may be used to output vector information of the movement of a point indicating the location of luggage 100 along each of three coordinate axes (x-axis, y-axis, z-axis) in a three-dimensional orthogonal coordinate system. The z-axis is the axis along the depth direction (vehicle travel).

情報処理装置14は、情報取得部140と、制御部142と、情報蓄積部144とを備えている。 The information processing device 14 includes an information acquisition unit 140, a control unit 142, and an information storage unit 144.

情報取得部140は、センサ12及び掌センサ26(高解像度カメラ及びMoPU)によって検知された荷物100の情報を取得する。 The information acquisition unit 140 acquires information about the luggage 100 detected by the sensor 12 and the palm sensor 26 (high-resolution camera and MoPU).

制御部142は、情報取得部140がセンサ12から取得した情報とAI(Artificial intelligence)とを用いて、連結部4の回動動作、上下方向の移動動作および腕部5、6の動作等を制御する。 The control unit 142 uses the information acquired by the information acquisition unit 140 from the sensor 12 and AI (artificial intelligence) to control the rotational movement of the connecting unit 4, the movement of the arms 5 and 6, and the like.

また、制御部142は、情報取得部140が掌センサ26(高解像度カメラ及びMoPU)から取得した情報を用いて、荷物100の種類(形状、大きさ、硬さ等)及び位置を詳細に把握し、当該外形や位置に応じて、掌側20Aを対峙させ、吸着パッド24により吸着し、かつ、3本の指部22A、22B、22Cで掴むように制御する(把持制御)。なお、外形情報に基づいて、荷物100の種類を把握して把持制御(「吸着」のみ、「掴み」のみ、「吸着」と「掴み」の併用等)を選択してもよい。 The control unit 142 also uses the information acquired by the information acquisition unit 140 from the palm sensor 26 (high-resolution camera and MoPU) to determine the type (shape, size, hardness, etc.) and position of the luggage 100 in detail, and controls the palm side 20A to face the luggage 100 according to its external shape and position, so that the luggage 100 is attracted by the suction pad 24 and grasped with the three fingers 22A, 22B, and 22C (grasping control). Note that the type of luggage 100 may be identified based on the external shape information, and the gripping control may be selected (such as "suction" only, "grasping" only, or a combination of "suction" and "grasping").

例えば、制御部142は、全体の動作として、以下の各処理を実行する。
(1)棚及び床にある荷物100を拾い上げることが可能なように連結部4を駆動して、上半身部2を前傾または後傾させる。
(2)荷物100をつかむことが可能なように腕部5、6および把持部を駆動する。
(3)生産ラインの作業台の高さに合うように、上半身部2を脚部3に対して上下に駆動する。
(4)人型ロボット1の転倒を防ぐために、バランスを取る。
(5)人型ロボット1がカート等を押し進めることができるように、車輪7、8の駆動を制御する。
For example, the control unit 142 executes the following processes as an overall operation.
(1) The connecting portion 4 is driven to tilt the upper body portion 2 forward or backward so that the luggage 100 on a shelf or the floor can be picked up.
(2) The arms 5, 6 and the gripping portion are driven so that the luggage 100 can be grasped.
(3) The upper body 2 is driven up and down relative to the legs 3 to match the height of the workbench on the production line.
(4) Maintain balance to prevent the humanoid robot 1 from falling over.
(5) The drive of the wheels 7, 8 is controlled so that the humanoid robot 1 can push a cart or the like.

情報処理装置14は、例えば、床にある荷物100を拾う場合、図6に示されているフローチャートを繰り返し実行する。 For example, when picking up luggage 100 that is on the floor, the information processing device 14 repeatedly executes the flowchart shown in FIG. 6.

ステップS100において、情報取得部140は、センサ12によって検知された荷物100の情報を取得する。 In step S100, the information acquisition unit 140 acquires information about the luggage 100 detected by the sensor 12.

ステップS102において、制御部142は、ステップS100で取得された荷物100の情報とAIとを用いて、連結部4および腕部5、6を制御することにより、床にある荷物100を拾い上げる。 In step S102, the control unit 142 uses the information about the luggage 100 acquired in step S100 and AI to control the connecting unit 4 and the arms 5 and 6 to pick up the luggage 100 that is lying on the floor.

ステップS104において、制御部142は、拾った荷物100を所定位置へ移動する。 In step S104, the control unit 142 moves the picked-up luggage 100 to a specified position.

第1の実施の形態によれば、人型ロボット1は、上半身部2、脚部3および上半身部2と脚部3とを回動自在に連結する連結部4を備える。また、センサ12が取得した情報に基づいて連結部4の回動を制御するようにした。このため、人型ロボット1と荷物100との距離や角度を判断することができ、これにより、床にある荷物100を拾い上げるような動作を行うことができる。 According to the first embodiment, the humanoid robot 1 comprises an upper body 2, legs 3, and a connecting part 4 that connects the upper body 2 and legs 3 in a freely rotatable manner. The rotation of the connecting part 4 is controlled based on information acquired by a sensor 12. This makes it possible to determine the distance and angle between the humanoid robot 1 and the luggage 100, thereby enabling the robot to perform an action such as picking up the luggage 100 that is lying on the floor.

また、連結部4は上半身部2と脚部3との距離を変更可能であるため、生産ラインにおける作業台の高さに合うように、脚部3に対する上半身部2の上下方向の位置を調整することができる。 In addition, the connecting part 4 allows the distance between the upper body part 2 and the legs 3 to be changed, so that the vertical position of the upper body part 2 relative to the legs 3 can be adjusted to match the height of the workbench on the production line.

また、脚部2は、上半身部2が脚部3に対して前傾または後継した際に、人型ロボット1が転倒しないようにするためのバランス機能を有する。このため、生産ラインにある荷物100を押したり引いたりする作業を行った際の人型ロボット1の転倒を防止できる。したがって、転倒による人型ロボット1の故障、あるいは人型ロボット1の周囲にいる人物の怪我等を防止することができる。 The legs 2 also have a balancing function to prevent the humanoid robot 1 from falling over when the upper body 2 leans forward or backward relative to the legs 3. This makes it possible to prevent the humanoid robot 1 from falling over when performing work such as pushing or pulling a load 100 on a production line. This makes it possible to prevent breakdown of the humanoid robot 1 due to falling over, or injury to people around the humanoid robot 1.

(荷物100の把持制御)
図7は、図4の人型ロボット1の全体の動作に連動し、把持部20によって荷物100を把持する際の把持制御の手順を示すフローチャートである。
(Grabbing control of luggage 100)
FIG. 7 is a flowchart showing a procedure of gripping control when gripping the luggage 100 by the gripper 20 in conjunction with the overall movement of the humanoid robot 1 in FIG.

ステップ150では、荷物100の把持の指示があったか否かを判断し、肯定判定されると、ステップ152へ移行して、人型ロボット1を移動させ(例えば、腕部5、6を動作させ)、対象の荷物100に掌側20Aを対峙させ、ステップ154へ移行する。 In step 150, it is determined whether or not an instruction to grasp the luggage 100 has been given. If a positive determination is made, the process proceeds to step 152, where the humanoid robot 1 is moved (e.g., the arms 5 and 6 are operated) so that the palm side 20A faces the target luggage 100, and the process proceeds to step 154.

ステップ154では、掌側20Aを対向させて、荷物100の情報を検出する。 In step 154, the palm side 20A is turned toward the baggage 100 to detect information about the baggage 100.

次のステップ156では、掌センサ26(高解像度カメラ及びMoPU)による検出情報を解析して、荷物100の種類(形状、大きさ、硬さ等)及び位置を詳細に把握し、ステップ158へ移行する。 In the next step 156, the information detected by the palm sensor 26 (high-resolution camera and MoPU) is analyzed to obtain a detailed understanding of the type (shape, size, hardness, etc.) and location of the luggage 100, and the process proceeds to step 158.

ステップ158では、荷物100の把持のための作業を選択する。例えば、「吸着」のみ、「掴み」のみ、「吸着」と「掴み」の併用等から選択し、次いで、ステップ160へ移行して、荷物100の性状に応じた、把持部20、吸着パッド24の選択処理(詳細は、図8参照)を実行し、ステップ162へ移行する。 In step 158, the operator selects an operation for gripping the luggage 100. For example, the operator selects from "suction" only, "grabbing" only, or a combination of "suction" and "grabbing". The operator then moves to step 160, where the operator selects the gripping unit 20 and the suction pad 24 according to the characteristics of the luggage 100 (see FIG. 8 for details), and then moves to step 162.

ステップ162では、荷物100の把持(「吸着」のみ、「掴み」のみ、「吸着」と「掴み」)を実行する。 In step 162, grasping of the luggage 100 is performed ("suction" only, "grab" only, "suction" and "grab").

次のステップ164では、荷物100の把持が成功したか否かを判定し、肯定判定された場合は、把持した荷物100を所定の場所へ運び、ステップ150へ移行して、次の荷物100の把持の指示を待つ。 In the next step 164, it is determined whether the gripping of the luggage 100 was successful, and if the determination is positive, the gripped luggage 100 is carried to a predetermined location, and the process proceeds to step 150 to wait for an instruction to grip the next luggage 100.

また、ステップ164で否定判定された場合は、ステップ166へ移行して、エラー処理(例えば、リトライ又はキャンセル等)を実行し、ステップ150へ戻る。 If the result of step 164 is negative, the process proceeds to step 166, where error processing (e.g., retry or cancel) is performed, and the process returns to step 150.

(把持部、吸着パッド選択処理)
図8は、図7のステップ160で実行される把持部、吸着パッドの選択処理ルーチンを示す制御フローチャートである。
(Grip and suction pad selection process)
FIG. 8 is a control flow chart showing the gripper and suction pad selection processing routine executed in step 160 of FIG.

ステップ170では、荷物100は特大サイズか否かを判断する。このステップ170で肯定判定(特大サイズ確定)されると、ステップ172へ移行して、右手側の把持部20Rを選択し、かつ当該把持部20Rに取り付けられた4個の吸着パッド24を選択し、ステップ190へ移行する。 In step 170, it is determined whether the luggage 100 is extra large. If the determination in step 170 is positive (extra large size confirmed), the process proceeds to step 172, where the gripper 20R on the right side is selected, and the four suction pads 24 attached to the gripper 20R are selected, and the process proceeds to step 190.

また、ステップ170で否定判定された場合は、ステップ174へ移行して、左手側の把持部20Lを選択し、ステップ176へ移行する。 If the result of step 170 is negative, the process proceeds to step 174, where the left-hand grip 20L is selected, and the process proceeds to step 176.

ステップ176では、荷物100は大サイズか否かを判断する。このステップ176で肯定判定(大サイズ確定)されると、ステップ178へ移行して、把持部20Lの掌側20Aの4個の吸着パッド24を選択し、ステップ190へ移行する。 In step 176, it is determined whether the baggage 100 is large. If the determination in step 176 is positive (determined to be large), the process proceeds to step 178, where the four suction pads 24 on the palm side 20A of the gripping portion 20L are selected, and the process proceeds to step 190.

また、ステップ176で否定判定された場合は、ステップ180へ移行する。 Also, if the result of step 176 is negative, the process proceeds to step 180.

ステップ180では、荷物100は中サイズか否かを判断する。このステップ180で肯定判定(中サイズ確定)されると、ステップ182へ移行して、把持部20Lの指部22B、22Cに取り付けられた2個の大径サイズの吸着パッド24Yを選択し、ステップ190へ移行する。 In step 180, it is determined whether the luggage 100 is medium-sized. If the determination in step 180 is affirmative (medium size confirmed), the process proceeds to step 182, where the two large-diameter suction pads 24Y attached to the fingers 22B and 22C of the gripper 20L are selected, and the process proceeds to step 190.

また、ステップ180で否定判定された場合は、ステップ184へ移行する。 Also, if the result of step 180 is negative, the process proceeds to step 184.

ステップ184では、荷物100は小サイズか否かを判断する。このステップ184で肯定判定(小サイズ確定)されると、ステップ186へ移行して、把持部20Lの指部22B又は指部22Cに取り付けられた何れか1個の大径サイズの吸着パッド24Yを選択し、ステップ190へ移行する。 In step 184, it is determined whether the luggage 100 is small or not. If the determination in step 184 is affirmative (small size confirmed), the process proceeds to step 186, where one of the large-diameter suction pads 24Y attached to the finger portion 22B or finger portion 22C of the gripper 20L is selected, and the process proceeds to step 190.

また、ステップ184で否定判定(特小サイズ確定)されると、ステップ188へ移行して、持部20Lの指部22Aに取り付けられた小径サイズの吸着パッド24Xを選択し、ステップ190へ移行する。 Also, if a negative judgment is made in step 184 (extra small size confirmed), the process proceeds to step 188, where the small diameter suction pad 24X attached to the finger portion 22A of the holding portion 20L is selected, and the process proceeds to step 190.

ステップ190では、指22A、22B、22Cによる掴みの必要があるか否かを判断し、肯定判定されると、ステップ192へ移行して、左手側の把持部24Lの3本の指22A、22B、22Cによる掴み動作を選択し、このルーチンは終了する。また、ステップ190で否定判定された場合は、このルーチンは終了する。 In step 190, it is determined whether or not grasping with fingers 22A, 22B, and 22C is necessary. If the determination is affirmative, the process proceeds to step 192, where a grasping operation with the three fingers 22A, 22B, and 22C of the left-hand gripping portion 24L is selected, and the routine ends. If the determination is negative in step 190, the routine ends.

以上、第1の実施の形態によれば、把持部20に3本の指部22A、22B、22Cを設け、把持部20の掌側20Aと、指22A、22B、22Cに、複数の吸着パッド24をと取り付け、吸着パッド24は、例えば、エアー吸着構造で、荷物100を吸着し、かつ、指部22A、22B、22Cを曲げることにより、荷物100を掴むことができる。 As described above, according to the first embodiment, the gripping portion 20 is provided with three fingers 22A, 22B, and 22C, and a plurality of suction pads 24 are attached to the palm side 20A of the gripping portion 20 and to the fingers 22A, 22B, and 22C. The suction pads 24, for example, have an air suction structure, and can suction the luggage 100, and the luggage 100 can be grasped by bending the fingers 22A, 22B, and 22C.

また、荷物100の性状(形状、重さ等)に基づいて分類し、分類した結果で、把持部20の選択、及び、吸着パッド24の選択を行うことで、単一の人型ロボット1によって、様々な種類の荷物100をピッキングすることが可能となる。言い換えれば、荷物100の性状毎に異なるロボットを選択して、出動させる必要がなく、ピッキング作業の効率化を図ることができる。 In addition, by classifying the luggage 100 based on its characteristics (shape, weight, etc.) and selecting the gripper 20 and the suction pad 24 based on the classification results, it becomes possible for a single humanoid robot 1 to pick various types of luggage 100. In other words, there is no need to select and dispatch a different robot for each characteristic of the luggage 100, and the efficiency of the picking work can be improved.

掌側20Aには、高解像度カメラ及びMoPUを含む掌センサ26を取り付け、上記の構造の把持部20を人型ロボット1の腕部5、6に装着することにより、吸着面によりモノを確実にピックすることができ、人型ロボット1の動きが早くても荷物100を把持部20から落とさずに運ぶことができる。 A palm sensor 26 including a high-resolution camera and MoPU is attached to the palm side 20A, and the gripper 20 with the above structure is attached to the arms 5 and 6 of the humanoid robot 1, so that objects can be picked up reliably by the suction surface, and the baggage 100 can be carried without dropping from the gripper 20 even if the humanoid robot 1 moves quickly.

また、掌センサ26(高解像度カメラ及びMoPU)が掌側20Aに搭載されているので、高精度に荷物100を捉えることができ、微小な動きをする作業にも対応することができる。 In addition, the palm sensor 26 (high-resolution camera and MoPU) is mounted on the palm side 20A, so the baggage 100 can be captured with high accuracy, and tasks that require minute movements can also be handled.

さらに、非常に柔らかく壊れやすいものは、吸着パッド24を使わずに、指22A、22B、22Cの動きにより掴むこともできるし、掴む力を調整することにより、柔らかい荷物100の破損等を防止することかできる。 Furthermore, very soft and fragile items can be grasped by the movement of the fingers 22A, 22B, and 22C without using the suction pad 24, and damage to the soft luggage 100 can be prevented by adjusting the gripping force.

(第2の実施の形態)
図9~図12に基づき、本発明の第2の実施の形態について説明する。
なお、第2の実施の形態において、第1の実施の形態と同一構成部分については、同一の符号を付して、その構成の説明を省略す。
Second Embodiment
A second embodiment of the present invention will be described with reference to FIGS.
In the second embodiment, the same components as those in the first embodiment are denoted by the same reference numerals, and the description of the components will be omitted.

第2の実施の形態の特徴は、複数の人型ロボット1が共同して、1つの荷物100を把持して、搬送する点にある。 The feature of the second embodiment is that multiple humanoid robots 1 work together to grasp and transport one piece of luggage 100.

第1の実施の形態では、荷物100の状態(ここでは、重さ)によって、把持部20(左手又は右手)の選択、及び吸着パッド24のサイズ選択を行い、荷物100を最適な状態で把持するようにした。 In the first embodiment, the gripping portion 20 (left or right hand) and the size of the suction pad 24 are selected depending on the condition of the luggage 100 (here, its weight) so that the luggage 100 can be gripped in an optimal condition.

しかしながら、荷物100の重さが所定規格(第2の実施の形態では、10kg以上)を超えた場合、1台の人型ロボット1では、把持が不安定になる。 However, if the weight of the luggage 100 exceeds a predetermined standard (10 kg or more in the second embodiment), the gripping becomes unstable with a single humanoid robot 1.

そこで、所定規格を超える荷物100を把持する場合に、複数の人型ロボット1が連携して把持し、搬送する構成とした。 Therefore, when grasping a package 100 that exceeds a certain standard, multiple humanoid robots 1 are configured to grasp and transport the package in cooperation with each other.

この場合、荷物100を把持するにあたり、事前に計測されている重さ(或いは、現場で計測した重さ)に基づき、所定規格を超えている場合に、その重さに基づいて、人型ロボット1の必要台数を設定する(表3参照)。 In this case, when grasping the luggage 100, if the weight measured in advance (or the weight measured on-site) exceeds a predetermined standard, the number of humanoid robots 1 required is set based on that weight (see Table 3).

これにより、把持対象の荷物100に対して、複数の人型ロボット1を集結させ、複数の人型ロボット1が、それぞれ把持動作を実行させることができる。
この場合、荷物100の重心位置によって、各人型ロボット1が把持する位置での荷重が平均にならない場合があるため、各把持点での荷重分担比率を演算することが好ましい。
This allows multiple humanoid robots 1 to gather around the luggage 100 to be grasped, and each of the multiple humanoid robots 1 can perform a grasping action.
In this case, since the load at the position where each humanoid robot 1 grasps the luggage 100 may not be equal depending on the position of the center of gravity of the luggage 100, it is preferable to calculate the load sharing ratio at each grasping point.

また、把持点での荷重が認識されることで、第1の実施の形態の表2に基づいて実行した、重さ等に基づく、把持形態(左手/右手、及び吸着パッド24のサイズ、並びに、掴み動作の併用の有無)を選択することが可能である。 In addition, by recognizing the load at the gripping point, it is possible to select the gripping form (left hand/right hand, the size of the suction pad 24, and whether or not to use a gripping operation in combination) based on the weight, etc., as performed based on Table 2 of the first embodiment.

以下に、第2の実施の形態の作用を、図9及び図10のフローチャートに従い説明する。各フローチャートに基づく処理は、最初に荷物を把持しようとした一の人型ロボット1の情報処理装置14において実行される。 The operation of the second embodiment will be described below with reference to the flowcharts in Figures 9 and 10. The processing based on each flowchart is executed in the information processing device 14 of the humanoid robot 1 that first attempts to grasp the package.

図9に示される如く、ステップ169では、事前情報に基づき、把持する対象の荷物100の重さが、所定規格内か否かを判断する。 As shown in FIG. 9, in step 169, it is determined whether the weight of the luggage 100 to be grasped is within a predetermined standard based on prior information.

このステップ169で肯定判定された場合は、ステップ170へ移行する。ステップ170に続き処理は、第1の実施の形態で説明した図8と同一であるので、ここでの説明は省略する。 If the result of step 169 is positive, the process proceeds to step 170. The process following step 170 is the same as that shown in FIG. 8 described in the first embodiment, so a description thereof will be omitted here.

また、ステップ169で否定判定された場合は、荷物100の重さが、所定規格外(5kg超)であると判断し、ステップ194へ移行して、所定規格外処理(図10参照、詳細後述)を実行し、このルーチンは終了する。 Also, if the result of step 169 is negative, it is determined that the weight of the luggage 100 does not meet the specified standards (over 5 kg), and the process proceeds to step 194, where processing for determining whether the luggage 100 is outside the specified standards (see FIG. 10, described in detail below) is executed, and this routine ends.

なお、図9のフローチャートでは、事前に知り得る重さ情報で、ステップ169の判定を行ったが、事前情報として重さ情報が無い場合は、ステップ172で選択した、Extra-Large対応の右手の把持部20Rを用いて重さを計測して、所定規格外(5kg超)の場合に、ステップ194へ移行するようにしてもよい。 In the flowchart of FIG. 9, the judgment in step 169 is made based on weight information that is known in advance, but if there is no weight information available in advance, the weight can be measured using the right-hand grip 20R that is compatible with Extra-Large and selected in step 172, and if it is outside the specified standard (over 5 kg), the process can proceed to step 194.

(所定規格外処理の詳細)
図10は、図9のステップ194における所定規格外処理サブルーチンの詳細を示す制御フローチャートである。
(Details of non-standard processing)
FIG. 10 is a control flow chart showing the details of the predetermined out-of-standard processing subroutine in step 194 in FIG.

ステップ200では、荷物の重さに基づき、人型ロボット1の必要台数を設定する。 In step 200, the required number of humanoid robots 1 is set based on the weight of the luggage.

すなわち、表3に示される如く、荷物100の重さに応じて、必要な人型ロボット1が決まる。荷物100の重さが、25kgの場合は、人型ロボット1による把持動作の許容を超えるため、特殊搬送ロボットに搬送を委ねる。 That is, as shown in Table 3, the humanoid robot 1 required is determined according to the weight of the luggage 100. If the luggage 100 weighs 25 kg, it exceeds the tolerance of the humanoid robot 1 for grasping, so the luggage is entrusted to a special transport robot.

なお、表3に示す荷物100の重さの範囲設定は一例であり、人型ロボット1の仕様に基づき定めればよい。 Note that the weight range of the luggage 100 shown in Table 3 is an example, and may be determined based on the specifications of the humanoid robot 1.

次のステップ202では、該当する人型ロボット1に対して、集合を指示する。指示対象は、例えば、待機中の人型ロボット1が主体となるが、把持対象の荷物100の近傍で、待機位置へ戻ろうしている人型ロボット1を指示するようにしてもよい。また、条件が合えば、他の荷物100を把持して搬送中の人型ロボット1であってもよい。条件とは、今回の荷物100の把持に必要な把持部が使用されておらず、現在、把持している荷物100と搬送先が近い場合等が挙げられ、複数の人型ロボット1を一括管理している場合に実行可能である。 In the next step 202, the relevant humanoid robots 1 are instructed to gather. The target of the instruction is, for example, a waiting humanoid robot 1, but it may also be a humanoid robot 1 returning to a waiting position near the luggage 100 to be grasped. Furthermore, if the conditions are met, it may be a humanoid robot 1 that is gripping and transporting another luggage 100. The conditions include the gripping part required to grip the current luggage 100 is not in use, and the currently gripped luggage 100 is close to the destination, and this can be executed when multiple humanoid robots 1 are managed collectively.

次のステップ204では、集結した複数の人型ロボット1のそれぞれの把持点、荷物100の重心等に基づき、荷物100の荷重分担比率を演算し、次いで、ステップ206では、ステップ204で演算結果(分担した荷重(重さ))に応じて、把持形態を選択する。この把持形態の選択は、第1の実施の形態における表2を用いることができる。言い換えれば、図8のステップ170~ステップ192の処理を、このステップ206が実行される。 In the next step 204, the load sharing ratio of the luggage 100 is calculated based on the respective gripping points of the assembled multiple humanoid robots 1, the center of gravity of the luggage 100, etc., and then in step 206, a gripping form is selected according to the calculation result (shared load (weight)) in step 204. This gripping form selection can use Table 2 in the first embodiment. In other words, the processing of steps 170 to 192 in Figure 8 is executed in this step 206.

(第2の実施の形態の変形例)
第2の実施の形態において、複数(ここでは、2台)の人型ロボット1が、1つの荷物100を把持して搬送する場合、直線路であれば、一定速度で同一方向に搬送が可能であるため、荷物100を脱落する恐れはほとんどない。
(Modification of the second embodiment)
In the second embodiment, when multiple (here, two) humanoid robots 1 grasp and transport one piece of luggage 100, if the route is straight, the luggage can be transported in the same direction at a constant speed, so there is almost no risk of the luggage 100 falling off.

しかし、搬送路が、例えば、図11に示すようなクランク状で、右折及び左折が存在する搬送路208の場合、2台の人型ロボット1は、互いに走行軌跡の形状が異なることになる。 However, if the conveying path is, for example, crank-shaped as shown in FIG. 11, and the conveying path 208 has right and left turns, the two humanoid robots 1 will have different travel trajectories.

また、右折及び左折の際に、減速及び加速することで、荷物100に慣性力が加わり、把持状態が変化して、結果として荷物100の脱落を招く恐れがある。 In addition, when turning right or left, decelerating or accelerating causes an inertial force to be applied to the luggage 100, changing the gripping state, which may result in the luggage 100 falling off.

そこで、第2の実施の形態の変形例では、右折及び左折を含む搬送経路での、安定搬送を実現した。 Therefore, in a modified version of the second embodiment, stable transport is achieved on a transport route that includes right and left turns.

図11は、1つの荷物100を把持している2台の人型ロボット1が、クランク状の搬送経路に差しかかっている状態を示す平面図である。 Figure 11 is a plan view showing two humanoid robots 1 holding one piece of luggage 100 approaching a crank-shaped transport path.

この図11のような状況において、2台の人型ロボット1の情報処理装置14(図5参照)は、互いに連携し、図12に示す走行ルート設定処理を実行する。 In a situation like that shown in FIG. 11, the information processing devices 14 (see FIG. 5) of the two humanoid robots 1 cooperate with each other to execute the travel route setting process shown in FIG. 12.

すなわち、図12のステップ210では、走行ルートを確認し、次いで、ステップ212へ移行して、確認した走行ルートにおける、荷物100の安定した搬送(荷物100に加わる慣性力が最も低減し得るカーブ移動)を設定する(図11の点線矢印A参照)。 That is, in step 210 in FIG. 12, the travel route is confirmed, and then the process proceeds to step 212, where a stable transport of the luggage 100 along the confirmed travel route is set (a curved movement that can minimize the inertial force acting on the luggage 100) (see dotted arrow A in FIG. 11).

次のステップ214では、2台の人型ロボット1(第1人型ロボット1A、第2人型ロボット1B)の内の一方(第1人型ロボット1A)の走行ルート(図11の実線矢印B参照)を設定する。 In the next step 214, a travel route (see solid arrow B in Figure 11) is set for one (first humanoid robot 1A) of the two humanoid robots 1 (first humanoid robot 1A, second humanoid robot 1B).

ここで、2台の人型ロボット1(第1人型ロボット1A、第2人型ロボット1B)と、荷物100の位置(3点)は、相対位置関係が不変である。 Here, the relative positional relationship between the two humanoid robots 1 (first humanoid robot 1A, second humanoid robot 1B) and the positions of the luggage 100 (three points) remains unchanged.

このため、次のステップ216では、荷物100の移動ルートと、第1人型ロボット1Aの走行ルートと、に基づいて、2台の人型ロボット1(第1人型ロボット1A、第2人型ロボット1B)の内の他方(第2人型ロボット1B)の走行ルート(図11の実線矢印C参照)を設定する。 For this reason, in the next step 216, the travel route (see solid arrow C in Figure 11) of the other of the two humanoid robots 1 (first humanoid robot 1A, second humanoid robot 1B) is set based on the movement route of the luggage 100 and the travel route of the first humanoid robot 1A.

ステップ218では、ステップ2140及びステップ216で設定した走行ルートに基づいて、走行を指令し、このルーチンは終了する。 In step 218, driving is instructed based on the driving route set in steps 2140 and 216, and this routine ends.

また、上記では、最初に選択した人型ロボット1が、起点(把持位置)から終点(目的地)まで荷物100を搬送する構成を示したが、所定の中継点において、別の人型ロボット1に受け渡しながら、所謂リレー方式で、起点から終点まで荷物100を搬送するようにしてもよい。 In the above, the initially selected humanoid robot 1 transports the luggage 100 from the starting point (grasping position) to the end point (destination), but the luggage 100 may be transported from the starting point to the end point in a so-called relay manner, with the luggage 100 being handed over to another humanoid robot 1 at a predetermined relay point.

受け渡しの条件は、所定の距離毎に中継点を予め定めてもよいし、段差のある場所を中継点としてもよい。 The conditions for delivery may be such that relay points are set in advance at a certain distance, or a location with a step may be set as a relay point.

また、経路の状態(ストレート/カーブ、道幅、路面状態等)によって、当該経路の状態の下で、荷物100の搬送に有利な人型ロボット1に受け渡すようにしてもよい。 In addition, depending on the condition of the route (straight/curved, road width, road surface condition, etc.), the luggage 100 may be handed over to a humanoid robot 1 that is advantageous for transporting the luggage under the conditions of that route.

一例として、ストレート走行では速度を重視した人型ロボット1を選択し、カーブ走行では、カーブの曲率半径と走行速度とに基づいて左右に傾斜可能なダンパー機構を備えた人型ロボット1を選択し、凹凸の多い路面走行では、衝撃吸収力が高いショックアブソーバーを装備した人型ロボット1を選択する、といった、適材適所の人型ロボット1を連携させることで、荷物100を安定した把持状態で搬送することができる。 As an example, when driving in a straight line, a humanoid robot 1 that prioritizes speed is selected, when driving around a curve, a humanoid robot 1 equipped with a damper mechanism that can tilt left and right based on the radius of curvature of the curve and the driving speed is selected, and when driving on an uneven road surface, a humanoid robot 1 equipped with a shock absorber with high impact absorption capacity is selected. By coordinating the right humanoid robot 1 for the right position, the luggage 100 can be transported in a stable gripping state.

なお、第2の実施の形態(変形例を含む)における、複数の人型ロボット1の連携動作制御は、最初に荷物を把持しようとした一の人型ロボット1の情報処理装置14(図5参照)において実行するようにしたが、それぞれの人型ロボット1の情報制御装置14が互いに連携し合って、互いの位置情報等を交換することでも実行可能である。この場合、主たる情報制御装置14を設定し(所謂、リーダー格の人型ロボット1を設定し)、従たる情報制御装置14に命令する構成としてもよいし、連結し合う複数の人型ロボット1を一括管理する管理制御センター(図示省略)からの指示で動作させるようにしてもよい。 In the second embodiment (including the modified example), the coordinated movement control of the multiple humanoid robots 1 is executed by the information processing device 14 (see FIG. 5) of the first humanoid robot 1 that attempts to grasp the luggage, but it can also be executed by the information control devices 14 of each humanoid robot 1 cooperating with each other and exchanging position information, etc. In this case, a main information control device 14 may be set (a so-called leader humanoid robot 1) to give commands to the subordinate information control devices 14, or the robots may be operated according to instructions from a management and control center (not shown) that collectively manages the multiple linked humanoid robots 1.

図13は、情報処理装置14として機能するコンピュータ1200のハードウェア構成の一例を概略的に示す。コンピュータ1200にインストールされたプログラムは、コンピュータ1200を、第1の実施の形態及び第2の実施の形態に係る装置の1又は複数の「部」として機能させ、又はコンピュータ1200に、第1の実施の形態及び第2の実施の形態に係る装置に関連付けられるオペレーション又は当該1又は複数の「部」を実行させることができ、および/又はコンピュータ1200に、第1の実施の形態及び第2の実施の形態に係るプロセス又は当該プロセスの段階を実行させることができる。そのようなプログラムは、コンピュータ1200に、本明細書に記載のフローチャートおよびブロック図のブロックのうちのいくつか又は全てに関連付けられた特定のオペレーションを実行させるべく、CPU1212によって実行されてよい。 13 is a schematic diagram showing an example of a hardware configuration of a computer 1200 functioning as an information processing device 14. A program installed on the computer 1200 can cause the computer 1200 to function as one or more "parts" of the device according to the first and second embodiments, or cause the computer 1200 to execute operations or one or more "parts" associated with the device according to the first and second embodiments, and/or cause the computer 1200 to execute a process or a step of the process according to the first and second embodiments. Such a program may be executed by the CPU 1212 to cause the computer 1200 to execute specific operations associated with some or all of the blocks of the flowcharts and block diagrams described herein.

第1の実施の形態及び第2の実施の形態によるコンピュータ1200は、CPU1212、RAM1214、およびグラフィックコントローラ1216を含み、それらはホストコントローラ1210によって相互に接続されている。コンピュータ1200はまた、通信インタフェース1222、記憶装置1224、DVDドライブ、およびICカードドライブのような入出力ユニットを含み、それらは入出力コントローラ1220を介してホストコントローラ1210に接続されている。DVDドライブは、DVD-ROMドライブおよびDVD-RAMドライブ等であってよい。記憶装置1224は、ハードディスクドライブおよびソリッドステートドライブ等であってよい。コンピュータ1200はまた、ROM1230およびキーボードのような入出力ユニットを含み、それらは入出力チップ1240を介して入出力コントローラ1220に接続されている。 The computer 1200 according to the first and second embodiments includes a CPU 1212, a RAM 1214, and a graphic controller 1216, which are connected to each other by a host controller 1210. The computer 1200 also includes input/output units such as a communication interface 1222, a storage device 1224, a DVD drive, and an IC card drive, which are connected to the host controller 1210 via an input/output controller 1220. The DVD drive may be a DVD-ROM drive, a DVD-RAM drive, or the like. The storage device 1224 may be a hard disk drive, a solid state drive, or the like. The computer 1200 also includes input/output units such as a ROM 1230 and a keyboard, which are connected to the input/output controller 1220 via an input/output chip 1240.

CPU1212は、ROM1230およびRAM1214内に格納されたプログラムに従い動作し、それにより各ユニットを制御する。グラフィックコントローラ1216は、RAM1214内に提供されるフレームバッファ等又はそれ自体の中に、CPU1212によって生成されるイメージデータを取得し、イメージデータがディスプレイデバイス1218上に表示されるようにする。 The CPU 1212 operates according to the programs stored in the ROM 1230 and the RAM 1214, thereby controlling each unit. The graphics controller 1216 acquires image data generated by the CPU 1212 into a frame buffer or the like provided in the RAM 1214 or into itself, and causes the image data to be displayed on the display device 1218.

通信インタフェース1222は、ネットワークを介して他の電子デバイスと通信する。記憶装置1224は、コンピュータ1200内のCPU1212によって使用されるプログラムおよびデータを格納する。DVDドライブは、プログラム又はデータをDVD-ROM等から読み取り、記憶装置1224に提供する。ICカードドライブは、プログラムおよびデータをICカードから読み取り、および/又はプログラムおよびデータをICカードに書き込む。 The communication interface 1222 communicates with other electronic devices via a network. The storage device 1224 stores programs and data used by the CPU 1212 in the computer 1200. The DVD drive reads programs or data from a DVD-ROM or the like and provides them to the storage device 1224. The IC card drive reads programs and data from an IC card and/or writes programs and data to an IC card.

ROM1230はその中に、アクティブ化時にコンピュータ1200によって実行されるブートプログラム等、および/又はコンピュータ1200のハードウェアに依存するプログラムを格納する。入出力チップ1240はまた、様々な入出力ユニットをUSBポート、パラレルポート、シリアルポート、キーボードポート、マウスポート等を介して、入出力コントローラ1220に接続してよい。 ROM 1230 stores therein a boot program, etc., executed by computer 1200 upon activation, and/or a program that depends on the hardware of computer 1200. I/O chip 1240 may also connect various I/O units to I/O controller 1220 via USB ports, parallel ports, serial ports, keyboard ports, mouse ports, etc.

プログラムは、DVD-ROM又はICカードのようなコンピュータ可読記憶媒体によって提供される。プログラムは、コンピュータ可読記憶媒体から読み取られ、コンピュータ可読記憶媒体の例でもある記憶装置1224、RAM1214、又はROM1230にインストールされ、CPU1212によって実行される。これらのプログラム内に記述される情報処理は、コンピュータ1200に読み取られ、プログラムと、上記様々なタイプのハードウェアリソースとの間の連携をもたらす。装置又は方法が、コンピュータ1200の使用に従い情報のオペレーション又は処理を実現することによって構成されてよい。 The programs are provided by a computer-readable storage medium such as a DVD-ROM or an IC card. The programs are read from the computer-readable storage medium, installed in storage device 1224, RAM 1214, or ROM 1230, which are also examples of computer-readable storage media, and executed by CPU 1212. The information processing described in these programs is read by computer 1200, and brings about cooperation between the programs and the various types of hardware resources described above. An apparatus or method may be constructed by realizing the operation or processing of information according to the use of computer 1200.

例えば、通信がコンピュータ1200および外部デバイス間で実行される場合、CPU1212は、RAM1214にロードされた通信プログラムを実行し、通信プログラムに記述された処理に基づいて、通信インタフェース1222に対し、通信処理を命令してよい。通信インタフェース1222は、CPU1212の制御の下、RAM1214、記憶装置1224、DVD-ROM、又はICカードのような記録媒体内に提供される送信バッファ領域に格納された送信データを読み取り、読み取られた送信データをネットワークに送信し、又はネットワークから受信した受信データを記録媒体上に提供される受信バッファ領域等に書き込む。 For example, when communication is performed between computer 1200 and an external device, CPU 1212 may execute a communication program loaded into RAM 1214 and instruct communication interface 1222 to perform communication processing based on the processing described in the communication program. Under the control of CPU 1212, communication interface 1222 reads transmission data stored in a transmission buffer area provided in RAM 1214, storage device 1224, a DVD-ROM, or a recording medium such as an IC card, and transmits the read transmission data to the network, or writes received data received from the network to a reception buffer area or the like provided on the recording medium.

また、CPU1212は、記憶装置1224、DVDドライブ(DVD-ROM)、ICカード等のような外部記録媒体に格納されたファイル又はデータベースの全部又は必要な部分がRAM1214に読み取られるようにし、RAM1214上のデータに対し様々なタイプの処理を実行してよい。CPU1212は次に、処理されたデータを外部記録媒体にライトバックしてよい。 The CPU 1212 may also cause all or a necessary portion of a file or database stored in an external recording medium such as the storage device 1224, a DVD drive (DVD-ROM), an IC card, etc. to be read into the RAM 1214, and perform various types of processing on the data on the RAM 1214. The CPU 1212 may then write back the processed data to the external recording medium.

様々なタイプのプログラム、データ、テーブル、およびデータベースのような様々なタイプの情報が記録媒体に格納され、情報処理を受けてよい。CPU1212は、RAM1214から読み取られたデータに対し、本発明の随所に記載され、プログラムの命令シーケンスによって指定される様々なタイプのオペレーション、情報処理、条件判断、条件分岐、無条件分岐、情報の検索/置換等を含む、様々なタイプの処理を実行してよく、結果をRAM1214に対しライトバックする。また、CPU1212は、記録媒体内のファイル、データベース等における情報を検索してよい。例えば、各々が第2の属性の属性値に関連付けられた第1の属性の属性値を有する複数のエントリが記録媒体内に格納される場合、CPU1212は、当該複数のエントリの中から、第1の属性の属性値が指定されている条件に一致するエントリを検索し、当該エントリ内に格納された第2の属性の属性値を読み取り、それにより予め定められた条件を満たす第1の属性に関連付けられた第2の属性の属性値を取得してよい。 Various types of information, such as various types of programs, data, tables, and databases, may be stored in the recording medium and may undergo information processing. The CPU 1212 may execute various types of processing on the data read from the RAM 1214, including various types of operations, information processing, conditional judgment, conditional branching, unconditional branching, information search/replacement, etc., as described throughout the present invention and specified by the instruction sequence of the program, and write back the results to the RAM 1214. The CPU 1212 may also search for information in a file, database, etc. in the recording medium. For example, when a plurality of entries, each having an attribute value of a first attribute associated with an attribute value of a second attribute, are stored in the recording medium, the CPU 1212 may search for an entry whose attribute value of the first attribute matches a specified condition from among the plurality of entries, read the attribute value of the second attribute stored in the entry, and thereby obtain the attribute value of the second attribute associated with the first attribute that satisfies a predetermined condition.

上で説明したプログラム又はソフトウエアモジュールは、コンピュータ1200上又はコンピュータ1200近傍のコンピュータ可読記憶媒体に格納されてよい。また、専用通信ネットワーク又はインターネットに接続されたサーバシステム内に提供されるハードディスク又はRAMのような記録媒体が、コンピュータ可読記憶媒体として使用可能であり、それによりプログラムを、ネットワークを介してコンピュータ1200に提供する。 The above-described programs or software modules may be stored in a computer-readable storage medium on the computer 1200 or in the vicinity of the computer 1200. In addition, a recording medium such as a hard disk or RAM provided in a server system connected to a dedicated communication network or the Internet can be used as a computer-readable storage medium, thereby providing the programs to the computer 1200 via the network.

第1の実施の形態及び第2の実施の形態におけるフローチャートおよびブロック図におけるブロックは、オペレーションが実行されるプロセスの段階又はオペレーションを実行する役割を持つ装置の「部」を表してよい。特定の段階および「部」が、専用回路、コンピュータ可読記憶媒体上に格納されるコンピュータ可読命令と共に供給されるプログラマブル回路、および/又はコンピュータ可読記憶媒体上に格納されるコンピュータ可読命令と共に供給されるプロセッサによって実装されてよい。専用回路は、デジタルおよび/又はアナログハードウェア回路を含んでよく、集積回路(IC)および/又はディスクリート回路を含んでよい。プログラマブル回路は、例えば、フィールドプログラマブルゲートアレイ(FPGA)、およびプログラマブルロジックアレイ(PLA)等のような、論理積、論理和、排他的論理和、否定論理積、否定論理和、および他の論理演算、フリップフロップ、レジスタ、並びにメモリエレメントを含む、再構成可能なハードウェア回路を含んでよい。 The blocks in the flowcharts and block diagrams in the first and second embodiments may represent stages of a process in which an operation is performed or "parts" of a device responsible for performing the operation. Particular stages and "parts" may be implemented by dedicated circuitry, programmable circuitry provided with computer-readable instructions stored on a computer-readable storage medium, and/or a processor provided with computer-readable instructions stored on a computer-readable storage medium. The dedicated circuitry may include digital and/or analog hardware circuits, and may include integrated circuits (ICs) and/or discrete circuits. The programmable circuitry may include reconfigurable hardware circuits, such as, for example, field programmable gate arrays (FPGAs), programmable logic arrays (PLAs), and the like, including AND, OR, XOR, NAND, NOR, and other logical operations, flip-flops, registers, and memory elements.

コンピュータ可読記憶媒体は、適切なデバイスによって実行される命令を格納可能な任意の有形なデバイスを含んでよく、その結果、そこに格納される命令を有するコンピュータ可読記憶媒体は、フローチャート又はブロック図で指定されたオペレーションを実行するための手段を作成すべく実行され得る命令を含む、製品を備えることになる。コンピュータ可読記憶媒体の例としては、電子記憶媒体、磁気記憶媒体、光記憶媒体、電磁記憶媒体、半導体記憶媒体等が含まれてよい。コンピュータ可読記憶媒体のより具体的な例としては、フロッピー(登録商標)ディスク、ディスケット、ハードディスク、ランダムアクセスメモリ(RAM)、リードオンリメモリ(ROM)、消去可能プログラマブルリードオンリメモリ(EPROM又はフラッシュメモリ)、電気的消去可能プログラマブルリードオンリメモリ(EEPROM)、静的ランダムアクセスメモリ(SRAM)、コンパクトディスクリードオンリメモリ(CD-ROM)、デジタル多用途ディスク(DVD)、ブルーレイ(登録商標)ディスク、メモリスティック、集積回路カード等が含まれてよい。 A computer-readable storage medium may include any tangible device capable of storing instructions that are executed by a suitable device, such that a computer-readable storage medium having instructions stored thereon comprises an article of manufacture that includes instructions that can be executed to create means for performing the operations specified in the flowchart or block diagram. Examples of computer-readable storage media may include electronic storage media, magnetic storage media, optical storage media, electromagnetic storage media, semiconductor storage media, and the like. More specific examples of computer-readable storage media may include floppy disks, diskettes, hard disks, random access memories (RAMs), read-only memories (ROMs), erasable programmable read-only memories (EPROMs or flash memories), electrically erasable programmable read-only memories (EEPROMs), static random access memories (SRAMs), compact disk read-only memories (CD-ROMs), digital versatile disks (DVDs), Blu-ray disks, memory sticks, integrated circuit cards, and the like.

コンピュータ可読命令は、アセンブラ命令、命令セットアーキテクチャ(ISA)命令、マシン命令、マシン依存命令、マイクロコード、ファームウェア命令、状態設定データ、又はSmalltalk(登録商標)、JAVA(登録商標)、C++等のようなオブジェクト指向プログラミング言語、および「C」プログラミング言語又は同様のプログラミング言語のような従来の手続型プログラミング言語を含む、1又は複数のプログラミング言語の任意の組み合わせで記述されたソースコード又はオブジェクトコードのいずれかを含んでよい。 The computer readable instructions may include either assembler instructions, instruction set architecture (ISA) instructions, machine instructions, machine-dependent instructions, microcode, firmware instructions, state setting data, or source or object code written in any combination of one or more programming languages, including object-oriented programming languages such as Smalltalk (registered trademark), JAVA (registered trademark), C++, etc., and conventional procedural programming languages such as the "C" programming language or similar programming languages.

コンピュータ可読命令は、汎用コンピュータ、特殊目的のコンピュータ、若しくは他のプログラム可能なデータ処理装置のプロセッサ、又はプログラマブル回路が、フローチャート又はブロック図で指定されたオペレーションを実行するための手段を生成するために当該コンピュータ可読命令を実行すべく、ローカルに又はローカルエリアネットワーク(LAN)、インターネット等のようなワイドエリアネットワーク(WAN)を介して、汎用コンピュータ、特殊目的のコンピュータ、若しくは他のプログラム可能なデータ処理装置のプロセッサ、又はプログラマブル回路に提供されてよい。プロセッサの例としては、コンピュータプロセッサ、処理ユニット、マイクロプロセッサ、デジタル信号プロセッサ、コントローラ、マイクロコントローラ等を含む。 The computer-readable instructions may be provided to a processor of a general-purpose computer, special-purpose computer, or other programmable data processing apparatus, or a programmable circuit, either locally or over a local area network (LAN), a wide area network (WAN), such as the Internet, etc., so that the processor of the general-purpose computer, special-purpose computer, or other programmable data processing apparatus, or the programmable circuit, executes the computer-readable instructions to generate means for performing the operations specified in the flowcharts or block diagrams. Examples of processors include computer processors, processing units, microprocessors, digital signal processors, controllers, microcontrollers, etc.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更又は改良を加えることが可能であることが当業者に明らかである。そのような変更又は改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。 The present invention has been described above using an embodiment, but the technical scope of the present invention is not limited to the scope described in the above embodiment. It is clear to those skilled in the art that various modifications and improvements can be made to the above embodiment. It is clear from the claims that forms with such modifications or improvements can also be included in the technical scope of the present invention.

特許請求の範囲、明細書、および図面中において示した装置、システム、プログラム、および方法における動作、手順、ステップ、および段階などの各処理の実行順序は、特段「より前に」、「先立って」などと明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」などを用いて説明したとしても、この順で実施することが必須であることを意味するものではない。 The order of execution of each process, such as operations, procedures, steps, and stages, in the devices, systems, programs, and methods shown in the claims, specifications, and drawings is not specifically stated as "before" or "prior to," and it should be noted that the processes may be performed in any order, unless the output of a previous process is used in a later process. Even if the operational flow in the claims, specifications, and drawings is explained using "first," "next," etc. for convenience, it does not mean that it is necessary to perform the processes in this order.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更又は改良を加えることが可能であることが当業者に明らかである。そのような変更又は改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。 The present invention has been described above using an embodiment, but the technical scope of the present invention is not limited to the scope described in the above embodiment. It is clear to those skilled in the art that various modifications and improvements can be made to the above embodiment. It is clear from the claims that forms with such modifications or improvements can also be included in the technical scope of the present invention.

特許請求の範囲、明細書、および図面中において示した装置、システム、プログラム、および方法における動作、手順、ステップ、および段階などの各処理の実行順序は、特段「より前に」、「先立って」などと明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」などを用いて説明したとしても、この順で実施することが必須であることを意味するものではない。 The order of execution of each process, such as operations, procedures, steps, and stages, in the devices, systems, programs, and methods shown in the claims, specifications, and drawings is not specifically stated as "before" or "prior to," and it should be noted that the processes may be performed in any order, unless the output of a previous process is used in a later process. Even if the operational flow in the claims, specifications, and drawings is explained using "first," "next," etc. for convenience, it does not mean that it is necessary to perform the processes in this order.

1 人型ロボット、2 上半身部、3 脚部、4 連結部、5、6 腕部、7、8 車輪、10 制御システム、12 センサ、14 情報処理装置、20(20L、20R) 把持部、20A 掌側、20B本体部、22A、22B、22C 指部、24(24X、24Y) 吸着パッド、24A パッド部、24B ニップル部、26 掌センサ、100 荷物、1200 コンピュータ、1210 ホストコントローラ、1212 CPU、1214 RAM、1216 グラフィックコントローラ、1218 ディスプレイデバイス、1220 入出力コントローラ、1222 通信インタフェース、1224 記憶装置、1230 ROM、1240 入出力チップ 1 Humanoid robot, 2 Upper body, 3 Legs, 4 Connecting part, 5, 6 Arms, 7, 8 Wheels, 10 Control system, 12 Sensor, 14 Information processing device, 20 (20L, 20R) Grasping part, 20A Palm side, 20B Main body, 22A, 22B, 22C Fingers, 24 (24X, 24Y) Suction pad, 24A Pad part, 24B Nipple part, 26 Palm sensor, 100 Baggage, 1200 Computer, 1210 Host controller, 1212 CPU, 1214 RAM, 1216 Graphic controller, 1218 Display device, 1220 Input/output controller, 1222 Communication interface, 1224 Storage device, 1230 ROM, 1240 Input/output chip

Claims (9)

対象物を把持する基盤となる掌部と、前記掌部から放射状に延長された複数の指部とを備えた第1把持部と、対象物を把持し、かつ把持することが可能な保持体を備えた第2把持部とを有し、前記第1把持部及び前記第2把持部により前記対象物を把持することが可能なロボットの制御システムであって、
前記第1把持部の前記掌部及び指部毎に選択的に設けられ、異なる吸着面積で前記対象物を吸着して把持することが可能な複数種類の吸着パッドと、
前記対象物の少なくとも形状及び重さを含む性状によって、前記対象物を把持する機能として、前記第1把持部で把持する第1機能、前記第2把持部で把持する第2機能、前記第1機能及び前記第2機能を併用する第3機能の何れかを選択して、前記対象物を把持する動作を制御する制御部と、
を有するロボットの制御システム。
A control system for a robot having a first gripping section including a palm section serving as a base for gripping an object and a plurality of fingers extending radially from the palm section, and a second gripping section including a holder capable of gripping and holding an object, the robot being capable of gripping the object using the first gripping section and the second gripping section,
a plurality of types of suction pads selectively provided for the palm portion and the finger portions of the first gripping portion, the suction pads being capable of suctioning and gripping the object with different suction areas;
a control unit that selects, as a function for gripping the object, a first function for gripping the object with the first gripping unit, a second function for gripping the object with the second gripping unit, or a third function for using both the first function and the second function, depending on properties of the object including at least a shape and a weight, and controls an operation of gripping the object;
A robot control system having the following:
前記第1把持部は、前記指部が複数設けられ、少なくとも1の指部の先端部には他の吸着パッドと比べて小径の吸着パッドが取り付けられ、前記1の指部以外の他の指部の先端部には他の吸着パッドと比べて大径の吸着パッドが取り付けられており、
前記制御部は、前記性状に基づいて、前記第1機能、前記第2機能、前記第3機能の何れかを選択して、前記対象物を把持する動作を制御する請求項1記載のロボットの制御システム。
the first gripping portion is provided with a plurality of finger portions, and a suction pad having a smaller diameter than the other suction pads is attached to a tip portion of at least one of the finger portions, and a suction pad having a larger diameter than the other suction pads is attached to tip portions of the other finger portions other than the one finger portion,
The robot control system according to claim 1 , wherein the control unit selects one of the first function, the second function, and the third function based on the property, and controls the operation of grasping the object.
前記第1把持部は、前記指部が3本設けられ、第1の指部の先端部には他の吸着パッドと比べて小径の吸着パッドが取り付けられ、第2の指部及び第3の指部の先端部には他の吸着パッドと比べて大径の吸着パッドが取り付けられており、
前記制御部は、
前記対象物が、前記性状に基づいて、特大サイズ、大サイズ、中サイズ、小サイズ、及び特小サイズに分類し、
前記対象物が、前記特大サイズの場合は、前記第2把持部に設けられた保持体を用いて把持し、
前記対象物が、前記大サイズの場合は、前記掌部に設けられた吸着パッドを用いて把持し、
前記対象物が、前記中サイズの場合は、前記第2の指部及び前記第3の指部の先端部に設けられた前記大径の吸着パッドを用いて把持し、
前記対象物が、前記小サイズの場合は、前記第2の指部又は前記第3の指部の先端部に設けられた前記大径の吸着パッドを用いて把持し、
前記対象物が、前記特小サイズの場合は、前記第1の指部の先端部に設けられた前記小径の吸着パッドを用いて把持することを選択する、
請求項1記載のロボットの制御システム。
the first gripping portion is provided with three fingers, a suction pad having a smaller diameter than the other suction pads is attached to a tip of the first finger, and suction pads having a larger diameter than the other suction pads are attached to tip portions of the second finger and the third finger,
The control unit is
classifying the objects into oversized, large, medium, small, and extra small sizes based on the characteristics;
When the object is the extra-large size, the object is gripped using a holder provided in the second gripping portion,
When the object is a large size, the object is grasped using a suction pad provided on the palm portion,
When the object is of a medium size, the object is gripped using the large-diameter suction pads provided at the tip portions of the second finger portion and the third finger portion;
When the object is small, the object is gripped using the large-diameter suction pad provided at the tip of the second finger portion or the third finger portion;
When the object is the extra-small size, the object is selected to be grasped using the small-diameter suction pad provided at the tip of the first finger portion.
The control system for the robot according to claim 1.
前記第2把持部の前記保持体として、吸着パッドが適用される、請求項1記載のロボットの制御システム。 The robot control system of claim 1, wherein a suction pad is used as the holder of the second gripper. 前記第1把持部及び前記第2把持部に設けられ、前記対象物の形状及び位置を含む対象物情報を検出する掌センサ部をさらに有し、前記掌センサ部が、前記対象物の画像を撮影して当該対象物の種類を識別するカメラと、前記対象物の位置を特定するモーションプロセシングユニットとを備える請求項1記載のロボットの制御システム。 The robot control system according to claim 1 further comprises a palm sensor unit provided on the first gripping unit and the second gripping unit for detecting object information including the shape and position of the object, the palm sensor unit including a camera for taking an image of the object and identifying the type of the object, and a motion processing unit for identifying the position of the object. 前記対象物の前記性状の内、重さ情報を用いて、前記対象物が、単一のロボットで把持することが可能な所定規格内か否かを判定し、所定規格を超える場合に、複数のロボットを集結し、互いに連携して、前記対象物を把持する、請求項1記載のロボットの制御システム。 The robot control system of claim 1 uses weight information from among the properties of the object to determine whether the object is within a predetermined standard that allows it to be grasped by a single robot, and if the object exceeds the predetermined standard, brings together multiple robots and works together to grasp the object. 前記制御部が、
前記複数のロボットの各々の前記対象物の把持点を設定し、前記対象物の性状に基づいて、設定した把持点での、各ロボットに分担される荷重比率を演算し、演算結果に基づいて、各ロボット毎に、前記対象物を把持する前記機能を選択する、請求項6記載のロボットの制御システム。
The control unit:
7. The robot control system of claim 6, further comprising: a grasping point for the object for each of the plurality of robots is set; a load ratio to be shared by each robot at the set grasping point is calculated based on the properties of the object; and the function for grasping the object is selected for each robot based on the calculation result.
前記複数のロボットで前記対象物を把持して搬送するとき、当該対象物に加わる慣性力が最小となるように、各ロボットの搬送ルートを設定する、請求項6記載のロボットの制御システム。 The robot control system according to claim 6, wherein the transport route of each robot is set so that the inertial force acting on the object is minimized when the object is grasped and transported by the multiple robots. コンピュータを請求項1~請求項8の何れか1項記載の制御部として動作させる、ロッボットの制御プログラム。 A robot control program that causes a computer to operate as a control unit according to any one of claims 1 to 8.
JP2023026590A 2022-12-07 2023-02-22 Robot control system, robot control program Pending JP2024082207A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2023/043189 WO2024122475A1 (en) 2022-12-07 2023-12-01 Control system for robot and control program for robot

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022195945 2022-12-07
JP2022195945 2022-12-07

Publications (1)

Publication Number Publication Date
JP2024082207A true JP2024082207A (en) 2024-06-19

Family

ID=91523920

Family Applications (4)

Application Number Title Priority Date Filing Date
JP2023026590A Pending JP2024082207A (en) 2022-12-07 2023-02-22 Robot control system, robot control program
JP2023029478A Pending JP2024082209A (en) 2022-12-07 2023-02-28 Robot control system, robot control program
JP2023036898A Pending JP2024082210A (en) 2022-12-07 2023-03-09 Robot control system, robot control program
JP2023040062A Pending JP2024082211A (en) 2022-12-07 2023-03-14 Robot control system, robot control program

Family Applications After (3)

Application Number Title Priority Date Filing Date
JP2023029478A Pending JP2024082209A (en) 2022-12-07 2023-02-28 Robot control system, robot control program
JP2023036898A Pending JP2024082210A (en) 2022-12-07 2023-03-09 Robot control system, robot control program
JP2023040062A Pending JP2024082211A (en) 2022-12-07 2023-03-14 Robot control system, robot control program

Country Status (1)

Country Link
JP (4) JP2024082207A (en)

Also Published As

Publication number Publication date
JP2024082211A (en) 2024-06-19
JP2024082209A (en) 2024-06-19
JP2024082210A (en) 2024-06-19

Similar Documents

Publication Publication Date Title
JP6738112B2 (en) Robot system control device and control method
JP6661211B1 (en) Control device and control method for robot system
JP2022525291A (en) Box palletizing robots and methods
CN111434470A (en) Control device and control method for robot system
JPWO2018092860A1 (en) Interference avoidance device
JP2014161965A (en) Article takeout device
CN116728399A (en) System and method for a robotic system with object handling
CN115485216A (en) Robot multi-surface gripper assembly and method of operating the same
CN109641706B (en) Goods picking method and system, and holding and placing system and robot applied to goods picking method and system
WO2023182345A1 (en) Handling system, information processing system, information processing method, program, and storage medium
JP2024082207A (en) Robot control system, robot control program
WO2023187006A1 (en) Controlling a robotic manipulator for packing an object
WO2024122475A1 (en) Control system for robot and control program for robot
JP2024082201A (en) Robot control system, robot control program
WO2024122516A1 (en) Robot control system, robot hand, robot control program, information management program, and information processing program
JP2022131750A (en) Handling system, conveyance system, control device, control program, and handling method
JP7264387B2 (en) Robotic gripper assembly for openable objects and method for picking objects
WO2024101093A1 (en) Picking method carried out by cart robot, program, and picking system using cart robot
WO2022239703A1 (en) Control data creation device and control data creation method
WO2024085161A1 (en) Picking system, picking control device, conveying device, conveying system, picking control program, conveying method, and conveying program
JP7358095B2 (en) Cargo handling equipment, cargo handling systems and programs
JP2024086369A (en) Cart robot and program
WO2024084990A1 (en) Picking system, and storage unit robot
JP2024061566A (en) Picking system, program
JP2024068048A (en) Picking method and program using cart robot