JP2021073099A - Control system and method in control system - Google Patents
Control system and method in control system Download PDFInfo
- Publication number
- JP2021073099A JP2021073099A JP2018042506A JP2018042506A JP2021073099A JP 2021073099 A JP2021073099 A JP 2021073099A JP 2018042506 A JP2018042506 A JP 2018042506A JP 2018042506 A JP2018042506 A JP 2018042506A JP 2021073099 A JP2021073099 A JP 2021073099A
- Authority
- JP
- Japan
- Prior art keywords
- end effector
- gripping
- control system
- unit
- actuator
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
Landscapes
- Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Manipulator (AREA)
Abstract
Description
本開示は、制御システム及び制御システムにおける方法に関する。 The present disclosure relates to control systems and methods in control systems.
従来、下記の特許文献1には、複数の指駆動手段と、指駆動手段間をそれぞれ連結するリンクから成る指部を備えたロボットハンドにおいて、指部の最先端のリンクの先端の作業対象物との接触点近傍に、作業対象物を非接触で認識可能なセンサを設けることが記載されている。また、下記の特許文献2には、ロボットアームのアーム先端部に設けられたハンド支持部に電子カメラを設けることが記載されている。 Conventionally, in Patent Document 1 below, in a robot hand including a finger portion including a plurality of finger driving means and a link connecting the finger driving means, a work object at the tip of the most advanced link of the finger portion is provided. It is described that a sensor capable of recognizing a work object in a non-contact manner is provided in the vicinity of the contact point with the work object. Further, Patent Document 2 below describes that an electronic camera is provided on a hand support portion provided at the arm tip portion of the robot arm.
しかしながら、上記特許文献に記載された技術では、把持部(指部またはハンド部)で把持対象物を把持すると、センサで作業対象物を認識できなくなる問題がある。このため、把持部で把持対象物を把持するまでの間は、センサの情報を利用することができるが、把持部で把持対象物を把持した後は、センサの情報を利用することができない。従って、把持部で把持対象物を把持した状態で、把持対象物を搬送したり、他の場所に載置等する際に、センサの情報を利用して最適な制御を行うことは困難である。したがって、運搬時や把持物の配置時に、環境に衝突する可能性がある。また、把持対象物の配置位置の計測をセンサで行うことは困難である。 However, in the technique described in the above patent document, when the gripping object is gripped by the gripping portion (finger portion or hand portion), there is a problem that the working object cannot be recognized by the sensor. Therefore, the sensor information can be used until the gripping object is gripped by the gripping portion, but the sensor information cannot be used after the gripping object is gripped by the gripping portion. Therefore, it is difficult to perform optimum control using the information of the sensor when the gripping object is transported or placed in another place while the gripping object is gripped by the gripping portion. .. Therefore, there is a possibility of collision with the environment during transportation and placement of the gripped object. In addition, it is difficult to measure the arrangement position of the gripping object with a sensor.
また、上記特許文献に記載された技術では、把持対象物へ把持部をアプローチさせる際に、センサの計測範囲が把持部の移動方向に依存してしまうため、センサの計測方向以外の方向から把持対象物を掴もうとする際には、把持対象物の検出ができない問題がある。また、物体の裏に把持対象物があるケースや棚の上に把持対象物があるケースなど、物体が遮蔽されている環境においては、把持対象物を探索するためにセンサが設けられた把持部の位置・姿勢を制御する必要があり、計算時間が増加する問題がある。 Further, in the technique described in the above patent document, when the gripping portion is approached to the gripping object, the measurement range of the sensor depends on the moving direction of the gripping portion, so that the gripping portion is gripped from a direction other than the measurement direction of the sensor. When trying to grab an object, there is a problem that the grabbed object cannot be detected. Further, in an environment where the object is shielded, such as a case where the gripping object is on the back of the object or a case where the gripping object is on the shelf, the gripping portion provided with a sensor for searching for the gripping object. It is necessary to control the position and posture of the object, and there is a problem that the calculation time increases.
更に、上記特許文献に記載された技術では、把持対象物を指部で把持した状態で操り動作をすることを想定した場合に、センサの観測範囲外で操作すると、誤った位置に把持部が接触してしまい、把持対象物を落としてしまう可能性がある。また、把持対象物を、別の物体や環境に接触させて使用する際に、センサの計測範囲が限られるため、把持対象物の接触面と環境の被接触面の計測ができず、接触を行うことができない可能性がある。 Further, in the technique described in the above patent document, when it is assumed that the gripping object is operated while being gripped by the finger portion, if the gripping portion is operated outside the observation range of the sensor, the grip portion is moved to an erroneous position. There is a possibility that they will come into contact with each other and drop the object to be gripped. In addition, when the gripping object is used in contact with another object or environment, the measurement range of the sensor is limited, so that the contact surface of the gripping object and the contact surface of the environment cannot be measured, resulting in contact. You may not be able to do it.
そこで、対象物を把持するなど対象物に作用する際に、対象物を確実に認識できるようにすることが求められていた。 Therefore, it has been required to be able to recognize the object reliably when acting on the object such as grasping the object.
本開示によれば、対象物に作用する作用部と、前記対象物を含む周辺の状況を認識する状況認識センサと、前記状況認識センサの姿勢を前記作用部に対して相対的に制御するアクチュエータと、を備える、制御システムが提供される。 According to the present disclosure, an action unit acting on an object, a situation recognition sensor that recognizes the surrounding situation including the object, and an actuator that controls the posture of the situation recognition sensor relative to the action part. And, a control system is provided.
また、本開示によれば、対象物に作用する作用部と、前記対象物を含む周辺の状況を認識する状況認識センサと、前記状況認識センサの姿勢を制御するアクチュエータと、を備える、制御システムにおける方法であって、前記状況認識センサによる認識結果に基づいて、前記対象物の位置を含む対象物情報を取得することと、前記対象物情報に基づいて前記アクチュエータを制御することと、を備える、方法が提供される。 Further, according to the present disclosure, a control system including an action unit acting on an object, a situation recognition sensor that recognizes the surrounding situation including the object, and an actuator that controls the posture of the situation recognition sensor. According to the above method, the object information including the position of the object is acquired based on the recognition result by the situation recognition sensor, and the actuator is controlled based on the object information. , The method is provided.
以上説明したように本開示によれば、対象物を把持するなど対象物に作用する際に、対象物を確実に認識できるようにすることが可能となる。
なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
As described above, according to the present disclosure, it is possible to reliably recognize an object when it acts on the object, such as by gripping the object.
It should be noted that the above effects are not necessarily limited, and either in combination with or in place of the above effects, any of the effects shown herein, or any other effect that can be grasped from this specification. May be played.
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。 Preferred embodiments of the present disclosure will be described in detail below with reference to the accompanying drawings. In the present specification and the drawings, components having substantially the same functional configuration are designated by the same reference numerals, so that duplicate description will be omitted.
なお、説明は以下の順序で行うものとする。
1.エンドエフェクタの構成例
2.エンドエフェクタの動作の例
2.1.エンドエフェクタを把持対象物に接近させる動作
2.2.把持対象物を把持する動作
2.3.把持対象物を運搬する動作
2.4.把持対象物を配置する動作
2.5.その他の動作の例
3.エンドエフェクタを含むシステムの構成例
The explanations will be given in the following order.
1. 1. Configuration example of end effector 2. Example of end effector operation 2.1. Operation to bring the end effector closer to the gripping object 2.2. Operation of gripping the object to be gripped 2.3. Operation of transporting the object to be gripped 2.4. Operation of arranging the object to be gripped 2.5. Examples of other operations 3. System configuration example including end effector
1.エンドエフェクタの構成例
本開示は、作業対象としている物体や環境までの距離・姿勢を計測する視覚センサと、視覚センサの位置や向きを変えられる機構を有するエンドエフェクタに関する。物体の把持、運搬、配置といった作業内容に応じて視覚センサの計測方向を変えることで、作業の失敗を防止し、高精度な作業を実現する。
1. 1. Configuration Example of End Effector This disclosure relates to a visual sensor that measures the distance and posture to an object or environment to be worked on, and an end effector that has a mechanism that can change the position and orientation of the visual sensor. By changing the measurement direction of the visual sensor according to the work content such as grasping, transporting, and arranging the object, failure of the work is prevented and high-precision work is realized.
図1は、本開示に係るエンドエフェクタ100の構成を示す模式図である。図1に示すように、エンドエフェクタ100は、3つの把持部102、視覚センサ104、視覚センサ104の姿勢を変えるアクチュエータ106、本体108を有して構成されている。
FIG. 1 is a schematic view showing the configuration of the
エンドエフェクタ100は、6自由度を有する、複数の関節と複数のリンクを備える一般的な可動アームの先端に装着されている。エンドエフェクタ100の動きは、例えば、アームの根元(ベース)を基準とするベース座標系で表すことができ、X軸、Y軸、Z軸の方向の並進と、X軸、Y軸、Z軸を回転軸とする回転で表すことができる。このアームの関節に設けられたアクチュエータの制御によって、エンドエフェクタ100の6自由度の動きが実現される。
The
3つの把持部102のそれぞれは、その一端が本体108に装着されている。3つの把持部102のそれぞれは、複数の関節部を備え、各関節部には把持部102を駆動するアクチュエータが内蔵されている。各把持部102は、関節部に設けられたアクチュエータの駆動により、本体108に向けて折れ曲がることで、物体を把持することができる。
One end of each of the three
視覚センサ104は、視覚的にエンドエフェクタ100の周辺の環境を認識するセンサである。視覚センサ104は、例えばステレオカメラなどのカメラから構成され、エンドエフェクタ100の周囲の物体、環境を撮像する。視覚センサ104をステレオカメラから構成することにより、左右の撮像画像の視差から距離情報を得ることができる。これにより、エンドエフェクタ100は、撮像画像から周囲の物体、環境を認識することができる。また、視覚センサ104は、例えばTOFセンサ、またはTOFセンサを搭載した測距装置により構成され、エンドエフェクタ100の周囲の物体、環境を認識するものであっても良い。
The
図1では、エンドエフェクタ100に1つの視覚センサ104を搭載した例を示しているが、視覚センサ104の搭載個数は特に限定されるものではない。また、視覚センサ104の搭載位置は、エンドエフェクタ100上であれば特に限定されるものではない。例えば、把持部102の先端に視覚センサ104を搭載することで、把持対象物200の側面を計測することも可能になる。
FIG. 1 shows an example in which one
アクチュエータ106は、本体108に装着されている。アクチュエータ106は、その駆動により、視覚センサ104のパン・チルトの方向を可変することができる。アクチュエータ106は、複数のモータ、リニアアクチュエータ等から構成される。アクチュエータ106がリニアアクチュエータから構成される場合、アクチュエータ106の駆動により視覚センサ104が並進移動する。このように、アクチュエータ106の駆動により、把持部102(または本体108)に対する視覚センサ104の姿勢が相対的に変化する。そして、視覚センサ104の把持部102に対する相対的な「姿勢」とは、視覚センサ104の把持部102に対する方向または位置を含むものである。図1に示す領域A1は、視覚センサ104が所定の方向を向いた場合に、周辺の環境を認識可能な領域を示している。アクチュエータ106の駆動により、領域A1の方向を制御することが可能である。
The
なお、図1では、3つの把持部102による3指ハンドのエンドエフェクタ100を示しているが、これに限定されるものではない。また、アクチュエータ106は、2自由度のものに限定されるものではない。また、図1では、把持部102が把持対象物200を把持するものとしたが、把持部102の代わりに、対象物に接触する、対象物を押す、対象物を吸引する、非接触の状態で対象物に作用する(対象物を計測したり対象物から所定の情報を取得する)など、対象物に何らかの作用を及ぼす作用部が設けられていても良い。
Note that FIG. 1 shows an
2.エンドエフェクタの動作の例
次に、エンドエフェクタ100の動作の例について説明する。ここでは、把持対象物(物体)200に対してエンドエフェクタ100を接近させ、把持部102を把持対象物200に接触させて把持対象物200を掴み、把持した把持対象物200を目的地へ運び、把持対象物200を目的地に置く、という一連の流れを例に挙げて説明する。
2. Example of operation of the end effector Next, an example of the operation of the
2.1.エンドエフェクタを把持対象物に接近させる動作
図2は、エンドエフェクタ100を把持対象物200に接近させる動作例を示す模式図である。なお、把持対象物200としては、コップを例示する。視覚センサ104の方向を接近方向に合わせることで、図2中に矢印A2で示すような接近方向であっても、物体を観測できる。このように、視覚センサ104による計測方向を制御することで、把持対象物200の近くで距離情報を含む高解像度の撮像画像を得ることができ、目標把持位置を高精度に計算することが可能となる。
2.1. Operation of bringing the end effector closer to the gripping object FIG. 2 is a schematic view showing an example of an operation of bringing the
図3は、エンドエフェクタ100を把持対象物200に接近させる制御の処理手順を示すフローチャートである。なお、図3の処理のうち既存の処理については、前述した特許文献2に記載されているような、一般的な把持の動作フローを用いることができる。図7、図11においても同様である。また、視覚センサ104による周辺環境の認識は常に行っていて良い。先ず、ステップS10では、事前に把持対象物200の位置を取得し、これに基づいてエンドエフェクタ100の目標位置、目標姿勢を取得し、エンドエフェクタ100の移動経路を計算する。把持対象物200の位置を取得する方法として、別センサによる物***置計測による方法、ユーザが与える方法、エンドエフェクタ100上の視覚センサ104の計測方向を制御(走査)して把持対象物200を探索する方法などを用いることができる。
FIG. 3 is a flowchart showing a processing procedure for controlling the
次に、ステップS12では、把持対象物200の方向、すなわちエンドエフェクタ100の進行方向へ視覚センサ104による計測方向(図1中に示す領域A1の方向)を制御する。次のステップS14では、視覚センサ104による周囲の物体、環境の計測を行う。
Next, in step S12, the measurement direction by the visual sensor 104 (the direction of the region A1 shown in FIG. 1) is controlled in the direction of the
次のステップS16では、視覚センサ104により把持対象物200を計測したか否かを判定し、把持対象物200を計測した場合は、ステップS18へ進む。ステップS16において、把持対象物200を計測したか否かは、例えば、予めエンドエフェクタ100側で保持している把持対象物200の画像と、視覚センサ104により得られる把持対象物200の画像とが一致するか否かによって判定できる。
In the next step S16, it is determined whether or not the
ステップS18では、視覚センサ104により計測した把持対象物200の情報に基づいて、エンドエフェクタ100の目標位置、目標姿勢、経路を計算する。また、ステップS18では、把持部102の目標座標を計算する。具体的には、図4に示すように、視覚センサ104による撮像画像に対してエッジ画像210を抽出する。そして、このエッジ画像の情報に基づいて、エンドエフェクタ100の目標座標HPgと把持部102の目標座標を決定する。把持部102の目標座標は、エンドエフェクタ100の目標座標PgNから算出できる。エッジの抽出の際には、例えばSobelフィルタを用いるなど、様々な手法を用いることができる。
In step S18, the target position, target posture, and path of the
例えば、エンドエフェクタ100の目標座標HPgは、抽出したエッジ画像210の分布の重心位置から求めることができる。エッジ画像210は、把持対象物200の輪郭を表していると推定できるため、エッジ画像210の分布の重心位置を把持対象物200の中心として、エンドエフェクタ100の移動の目標座標とする。
For example, the target coordinates HP g of the
また、把持部102の目標座標(把持位置候補220(把持部の接触目標位置))は、図4に示すように、エッジ画像210の閉曲線の重心を中心として、周方向に120°ずつ3等分して決定する。図1に示すように、本体108に対して3つの把持部102が円周方向に3等分した角度毎に設けられている場合、エッジ画像210の閉曲線の重心を中心とする円を設定し、中心から円周方向に3等分した方向に伸びる直線を設定することで、エッジ画像210の閉曲線と直線との交点を把持部102の目標座標とする。
Further, as shown in FIG. 4, the target coordinates of the grip portion 102 (grip position candidate 220 (contact target position of the grip portion)) are set to 3 mag by 120 ° in the circumferential direction with the center of gravity of the closed curve of the
また、図5は、2つの把持部102を備える場合に、2つの把持部102で把持対象物200を掴む例を示している。この例では、視覚センサ104により得られた撮像画像に基づいて、勾配画像を計算し、dz/dx(画像のX軸方向の微分値)が閾値δより大きい座標pを抽出し、図5の右図に示す座標群pの密度が高い領域を把持部102の目標座標HPgとして算出する。
Further, FIG. 5 shows an example in which the
以上のようにして得られた目標座標HPgは、視覚センサ104を基準とした座標系ΣHであるため、エンドエフェクタ100を目標座標に制御するためには、ベース座標系ΣBに変換する必要がある。現在のアームの関節角度θ1〜θnと関節間のリンク長L1〜Lnを用いて、ΣBからΣHへの同次変換行列BTHを計算し、目標座標HPgに乗算することでベース座標系における目標座標BPgを求める。そして、BPgに対して逆運動学を解くことで、エンドエフェクタ100を目標座標BPgに移動するための各関節の目標角度q1〜qnを得る。
Since the target coordinate HP g obtained as described above is the coordinate system Σ H with reference to the
ステップS18の後はステップS20へ進む。また、ステップS16で把持対象物200を計測していない場合もステップS20へ進む。ステップS20では、視覚センサ104の計測に基づき、エンドエフェクタ100の進行方向に障害物を検出したか否かを判定し、進行方向に障害物を検出した場合は、ステップS22へ進む。ステップS22では、障害物を回避するようにエンドエフェクタ100の経路を修正する。
After step S18, the process proceeds to step S20. Further, even if the
ステップS20の処理では、エンドエフェクタ100の経路はステップS18で事前に計算済であるため、視覚センサ104で取得した画像上において、エンドエフェクタ100の進行方向に、エンドエフェクタ100が衝突し得る大きさの物体があるか否かによって、障害物の有無を判定する。
In the process of step S20, since the path of the
ステップS22の後はステップS24へ進む。また、ステップS20で進行方向に障害物を検出していない場合もステップS24へ進む。ステップS24では、計算した経路に沿ってエンドエフェクタ100を移動する。この際、ステップS20で進行方向に障害物を検出した場合は、ステップS22で修正した経路に沿ってエンドエフェクタ100を移動する。また、ステップS20で進行方向に障害物を検出していない場合は、ステップS18で計算した経路に沿ってエンドエフェクタ100を移動する。
After step S22, the process proceeds to step S24. Further, even if no obstacle is detected in the traveling direction in step S20, the process proceeds to step S24. In step S24, the
ステップS24の後はステップS26へ進む。ステップS26では、エンドエフェクタ100が目標位置(目標座標BPg)に到達したか否かを判定し、エンドエフェクタ100が目標位置に到達した場合は処理を終了する(END)。一方、ステップS26でエンドエフェクタ100が目標位置に到達していない場合は、ステップS12へ戻り、以降の処理を再度行う。
After step S24, the process proceeds to step S26. In step S26, the
図3の処理によれば、把持対象物200の位置が判明すると、その方向へ視覚センサ104の姿勢を制御し、エンドエフェクタ100の目標位置を計算してエンドエフェクタ100を目標把持部200に接近させる。接近中においても、視覚センサ104による計測と目標位置の計算を繰り返すことで、把持対象物200に近づくにつれて、撮像画像中で把持対象物200が占める割合が増えるため、把持対象物200の位置、姿勢の計測精度が向上していく。また、接近中に障害物がある場合は、障害物を回避するようにエンドエフェクタ100を動かすことも可能である。
According to the process of FIG. 3, when the position of the
2.2.把持対象物を把持する動作
図6A及び図6Bは、エンドエフェクタ100の把持部102が把持対象物200を把持する様子を示す模式図である。図6Aは、エンドエフェクタ100が把持対象物200に接近する方向に対して直交する方向からエンドエフェクタ100及び把持対象物200を見た状態を示す模式図である。また、図6Bは、エンドエフェクタ100が把持対象物200に接近する方向からエンドエフェクタ100及び把持対象物200を見た状態を示す模式図であって、図6A中の矢印A2方向からエンドエフェクタ100及び把持対象物200を見た状態を示す模式図である。
2.2. Operation of gripping the object to be gripped FIGS. 6A and 6B are schematic views showing how the gripping
図6A及び図6Bに示すように、エンドエフェクタ100が把持対象物200を把持する際には、視覚センサ104の方向が把持対象物200を向くようにアクチュエータ106が制御される。これにより、エンドエフェクタ100に対する把持対象物200の位置が正確に取得される。また、把持部102と把持対象物200との接触を精度良く判定することができる。
As shown in FIGS. 6A and 6B, when the
図7は、把持対象物200を把持する際の処理の流れを示すフローチャートである。先ず、ステップS30では、把持部102の目標座標を取得する。なお、把持部102の目標座標としては、上述した手法により既に計算されている値を使用する。次のステップS32では、把持部102の目標座標に向けて視覚センサ104の計測方向を制御する。次のステップS34では、視覚センサ104による計測を行う。
FIG. 7 is a flowchart showing a flow of processing when gripping the
次のステップS36では、視覚センサ104による計測に基づいて、把持部102の目標座標、姿勢を再計算する。次のステップS38では、目標座標へ把持部102を移動する。次のステップS40では、把持部102が把持目標物200に接触したか否かを判定し、把持部102が把持対象物200に接触した場合はステップS42へ進み、把持部102で把持対象物200を把持した状態で把持対象物200を持ち上げる。一方、ステップS40で把持部102が把持対象物200を接触していない場合はステップS32へ戻り、以降の処理を再度行う。
In the next step S36, the target coordinates and the posture of the
以上のように、把持部102が図3のフローに従って目標位置に到達した時点で、把持部102の把持対象物200に対する接触面と、把持対象物200の被接触面を観測できるように、視覚センサ104の姿勢を制御する。これにより、把持部104の接触位置の計測精度が向上し、更に把持部104が把持対象物200に接触したか否かの検出も精度良く行うことが可能となる。
As described above, when the gripping
なお、把持対象物200を把持した後に、エンドエフェクタ100内で把持対象物200を持ち直す「操り操作」をする際も、図7と同様のフローで行うことができる。視覚センサ104の計測方向を把持部104の目標座標へ制御することで、把持対象物200の掴み損ねや接触位置の誤差が低減し、操り操作の成功確率が向上する。
When the
図8は、図7のステップS40において、接触を判定する方法を説明するための模式図である。図8では、視覚センサ104が撮像した画像を示しており、把持対象物200を上から把持する場合を示している。図7のステップS40では、視覚センサ104が撮像した画像中の把持部102の三次元位置が把持対象物200のエッジの座標と一致するか否かに応じて、把持部102が把持対象物200と接触したか否かを判定する。操り操作時に把持部102を別の位置へ接触させる際も同様である。なお、接触検出は、例えば把持部104の先端に接触力センサを設けるなどして、他のセンサを用いて行ってもよい。
FIG. 8 is a schematic diagram for explaining a method of determining contact in step S40 of FIG. 7. FIG. 8 shows an image captured by the
2.3.把持対象物を運搬する動作
図9は、把持対象物200を把持部102が把持した状態でエンドエフェクタ100が矢印A3方向に移動し、把持対象物200を運搬している様子を示す模式図である。図9に示すように、把持対象物200を運搬している際には、視覚センサ104がエンドエフェクタ100の移動方向(矢印A3方向)に向けられる。これにより、エンドエフェクタ100による把持対象物200の運搬中に、エンドエフェクタ200の移動経路の環境を確実に認識することができ、移動経路に障害物が存在する場合は、障害物を確実に検出することが可能である。
2.3. Operation of transporting the gripping object FIG. 9 is a schematic view showing a state in which the
図9に示すように、把持対象物200を把持した後においても、視覚センサ104の計測方向を制御することで、周辺環境を計測することができ、周辺環境中に存在する障害物との衝突を回避することが可能である。把持対象物200を運搬する処理は、例えばエンドエフェクタ100の目標座標を所望の目標位置に設定することで、図3と同様に行うことができる。
As shown in FIG. 9, even after gripping the
2.4.把持対象物を配置する動作
図10は、エンドエフェクタ100が把持対象物200を運搬して、所望の位置に配置する際の動作を示す模式図である。図10に示すように、把持対象物200を所望の位置に配置する際に、把持対象物200を把持した状態で、視覚センサ104が配置場所の周辺の状況、環境を計測する。視覚センサ104の計測方向を制御することで、把持対象物200を把持した状態で配置目標位置を探索できる。これにより、最適な場所に把持対象物200を置くことが可能である。
2.4. Operation of arranging the gripping object FIG. 10 is a schematic view showing an operation when the
図11は、把持対象物200を配置する際の処理の流れを示すフローチャートである。先ず、ステップS50では、把持対象物200を配置する際の目標地点である配置目標面の位置を取得する。次のステップS52では、視覚センサ104による計測の方向が配置目標面に向かうようにアクチュエータ106を制御する。
FIG. 11 is a flowchart showing a processing flow when arranging the
次のステップS54では、視覚センサ104から得られる画像情報に基づいて、エンドエフェクタ100の目標位置、姿勢を計算する。次のステップS56では、ステップS54で計算した目標位置、姿勢となるようにエンドエフェクタ100を移動する。
In the next step S54, the target position and posture of the
次のステップS58では、把持対象物200と目標配置面とが接触したか否かを判定し、把持対象物200と目標配置面とが接触したことが判定された場合は、ステップS60へ進む。ステップS60では、把持部102を把持対象物200から離し、把持対象物200の把持を解除する。ステップS60の後は処理を終了する(END)。
In the next step S58, it is determined whether or not the
一方、ステップS52で把持対象物200と目標配置面とが接触していないことが判定された場合は、ステップS52へ戻り、以降の処理を再度行う。
On the other hand, if it is determined in step S52 that the
以上のように、把持対象物200を所望の位置に配置する際には、把持対象物20を把持する場合と同様な方法で、事前に配置する目標位置を取得する。そして、目標位置に向けて視覚センサ104の計測方向を制御することで、把持対象物200を配置するための目標位置・姿勢の計算に、視覚センサ104の撮像画像を利用することができる。
As described above, when arranging the
図12は、配置目標位置を計算する方法を説明するための模式図である。図12に示すように、視覚センサ104が撮像した画像中で、平面であり且つ把持対象物200と把持部102を共に配置可能な広さの領域250が配置可能位置の候補となる。視覚センサ104で撮像した画像の距離情報から、平面の領域を認識できる。また、平面の検出は様々な画像処理ライブラリで用意されている公知の手法を利用できる。把持対象物200の大きさは、把持する際の把持対象物200の輪郭の大きさで推定できる。この条件を満たす領域の内、現在位置から最短経路となるエリアを図12に示す配置可能領域260とする。配置可能領域は、ステップS50の配置目標面に対応する。
FIG. 12 is a schematic diagram for explaining a method of calculating the placement target position. As shown in FIG. 12, in the image captured by the
また、図13に示すように、視覚センサ104による撮像画像に基づいて、把持対象物200の底面と配置面204が接触したかどうかを計算することで、配置の成功判定も可能になる。把持対象物200の底面202と配置面204との接触は、図13に示す通り、把持対象物200の底面202のエッジが配置面204と接触したか否かにより判定することができる。
Further, as shown in FIG. 13, it is possible to determine the success of the arrangement by calculating whether or not the bottom surface of the
2.5.その他の動作の例
図14は、把持対象物200を、別の物体に作用させる道具(作用具)とした例を示す模式図である。図14に示す例では、把持対象物200をコップの代わりに包丁300とした例を示している。図14に示す例では、エンドエフェクタ100で包丁300を把持し、エンドエフェクタ100が包丁300を下(矢印A4方向)に移動して果物310を切る様子を示している。このように、エンドエフェクタ100で把持した道具(包丁300)を、別の物体(果物310)や環境に接触させて使用する場合も、上述した手法と同様に道具の接触面と対象物体の被接触面を視覚センサ104で計測することで、接触位置、姿勢の誤差を低減できる。
2.5. Examples of Other Operations FIG. 14 is a schematic view showing an example in which the
図15は、図13に示す例において、視覚センサ104で包丁300と果物310を撮像して得られる画像を示す模式図である。図15において、包丁300と果物310が接触するエッジ302の位置は、ユーザが撮像画像に基づいて指定するなどして既知であるものとする。エッジ302の位置が既知であれば、エッジ302の目標座標を求めることができ、図8と同様に、包丁300の接触位置(エッジ302)の距離分布(三次元位置の分布)と、被接触物体である果物310の距離分布から、包丁300と果物302が接触したか否かを判定することができる。なお、エッジ302の位置は、包丁300の形状、寸法と、把持部102が包丁300を掴む位置とから予め求めることができる。
FIG. 15 is a schematic view showing an image obtained by photographing a
図16は、エンドエフェクタ100の周囲に設けられる他のセンサから把持対象物200が遮蔽されている環境を示す模式図である。図16に示す例では、棚320の上に把持対象物200が置かれている。このような場合、他のセンサでは把持対象物200を認識することはできないが、視覚センサ104により把持対象物200を認識できる。このため、把持対象物200にエンドエフェクタ100を接近させる際に、視覚センサ104の方向を制御させることで、エンドエフェクタの移動とは独立して遮蔽環境を探索することができる。
FIG. 16 is a schematic view showing an environment in which the
3.エンドエフェクタを含むシステムの構成例
図17は、本実施形態に係るエンドエフェクタ100と、エンドエフェクタ100を制御する制御装置400とからなるシステム1000の構成を示すブロック図である。図17に示すように、エンドエフェクタ100は、視覚センサ104、アクチュエータ106、把持部102を有して構成される。
3. 3. Configuration Example of System Containing End Effector FIG. 17 is a block diagram showing a configuration of a
また、制御装置400は、視覚センサ104が検出した把持対象物200の位置を含む情報を取得する対象物情報取得部405と、エンドエフェクタ100の目標位置、把持部102の目標位置、エンドエフェクタ100の移動経路を計算する計算部410と、計算部410の計算結果に基づいてアクチュエータ106を制御するアクチュエータ制御部420と、計算部410の計算結果に基づいてエンドエフェクタ100の動きを制御するエンドエフェクタ制御部430、把持対象物200と把持部102との接触、または把持対象物200と配置面204との接触を判定する接触判定部440と、を有して構成されている。
Further, the
計算部410は、上述した手法により、エンドエフェクタ100の目標座標、把持部102の目標座標を計算する。また、計算部410は、視覚センサ104を基準とした把持対象物200の目標座標をベース座標系に行列変換して、ベース座標系による把持対象物200の目標座標を計算する。
The calculation unit 410 calculates the target coordinates of the
アクチュエータ制御部420は、計算部410の計算結果に基づいて、視覚センサ104の方向が把持対象物200も目標座標に向くようにアクチュエータ106を制御する。エンドエフェクタ制御部430は、計算部410の計算結果に基づいて、把持部102の先端が目標座標と一致するように把持部102の関節のアクチュエータを制御する。また、エンドエフェクタ制御部430は、計算部410の計算結果に基づいて、エンドエフェクタ100の位置が目標座標と一致するようにエンドエフェクタ100を支持するアームを制御する。
The
また、接触判定部440は、上述した手法により、視覚センサ104により認識した把持部102の三次元位置が把持対象物200のエッジの三次元位置と一致するか否かに応じて、把持部102と把持対象物200との接触を判定する。また、接触判定部440は、把持対象物200の底面202のエッジの三次元位置が配置面240のエッジの三次元位置と接触したか否かにより、把持対象物200と配置面204との接触を判定する。
Further, the
以上説明したように本実施形態によれば、把持対象物200にエンドエフェクタ100を接近させる際(物体を把持する、物体を押す、など)に、視覚センサ104の計測範囲を制御することで、様々な接近方向に対して視覚センサ104による計測が可能になり、視覚センサ104から得られる情報からエンドエフェクタ100の目標位置・姿勢を計算することが可能となる。
As described above, according to the present embodiment, when the
また、棚の上に把持対象物がある場合など、他のセンサから把持対象物200が遮蔽されている環境において、把持対象物200にエンドエフェクタ100を接近させる際に、視覚センサ104の方向のみを変化させることで、エンドエフェクタ100の移動とは独立して遮蔽された領域を探索することができる。
Further, in an environment where the
また、把持対象物200にエンドエフェクタ100を接触させる際(物体を把持する、物体を押す、把持物の持ち直しなどの操り操作、など)に、視覚センサ104の計測範囲を制御することで、エンドエフェクタの接触位置の計測範囲が拡大し、エンドエフェクタの接触面と物体の被接触面を計測することで、接触検出が可能になる。
Further, when the
また、把持対象物200を運搬する際に、把持対象物200を把持したままエンドエフェクタ100の周囲を視覚センサ104で計測できるため、障害物の回避や最短ルートの計算が可能になる。
Further, when the
また、把持対象物200を環境に接触させる際(把持した道具を別の物体に作用させる、把持物を配置する、など)に、視覚センサ104の計測方向を制御することで、把持対象物200を把持したまま目標接触位置の探索ができ、接触位置・姿勢の誤差を低減することができる。
Further, when the
また、把持対象物200を環境に接触させる際に、視覚センサ104の計測範囲を制御し、把持対象物200の接触面と環境の被接触面を観測することで、把持対象物200と配置面204との接触判定が可能になる。
Further, when the
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
Although the preferred embodiments of the present disclosure have been described in detail with reference to the accompanying drawings, the technical scope of the present disclosure is not limited to such examples. It is clear that a person having ordinary knowledge in the technical field of the present disclosure can come up with various modifications or modifications within the scope of the technical ideas described in the claims. Of course, it is understood that the above also belongs to the technical scope of the present disclosure.
In addition, the effects described herein are merely explanatory or exemplary and are not limited. That is, the techniques according to the present disclosure may exhibit other effects apparent to those skilled in the art from the description herein, in addition to or in place of the above effects.
なお、以下のような構成も本開示の技術的範囲に属する。
(1) 対象物に作用する作用部と、
前記対象物を含む周辺の状況を認識する状況認識センサと、
前記状況認識センサの姿勢を前記作用部に対して相対的に制御するアクチュエータと、
を備える、制御システム。
(2) 前記状況認識センサによる認識結果に基づいて、前記対象物の位置を含む対象物情報を取得する対象物情報取得部を備える、前記(1)に記載の制御システム。
(3) 前記対象物情報に基づいて前記アクチュエータを制御するアクチュエータ制御部を備える、前記(2)に記載の制御システム。
(4) 前記アクチュエータ制御部は、前記状況認識センサが前記対象物の方向に向くように前記アクチュエータを制御する、前記(3)に記載の制御システム。
(5) 前記対象物情報に基づいて前記作用部、前記状況認識センサ及び前記アクチュエータを有するエンドエフェクタの動きを制御するエンドエフェクタ制御部を備える、前記(2)に記載の制御システム。
(6) 前記エンドエフェクタの座標系に基づく前記対象物情報を前記エンドエフェクタが装着された可動アームのベース座標系に基づく情報に変換する計算部を備え、
前記エンドエフェクタ制御部は、前記ベース座標系に基づく前記情報に基づいて前記エンドエフェクタの動きを制御する、前記(5)に記載の制御システム。
(7) 前記エンドエフェクタ制御部は、前記状況認識センサにより障害物が認識された場合は、前記障害物を避けるように前記エンドエフェクタの動きを制御する、前記(5)に記載の制御システム。
(8) 前記対象物情報に基づいて、前記作用部を前記対象物に作用させる作用位置を計算する計算部を備え、
前記アクチュエータ制御部は、前記作用位置に基づいて前記作用部を前記対象物に作用させる、前記(5)に記載の制御システム。
(9) 前記対象物情報に基づいて、前記対象物と前記作用部との接触、又は前記対象物と他の物体との接触を判定する接触判定部を備え、
前記エンドエフェクタ制御部は、前記接触判定部による判定結果に基づいて前記エンドエフェクタの動きを制御する、前記(5)に記載の制御システム。
(10) 前記作用部は、前記対象物を把持する、前記(1)〜(9)のいずれかに記載の制御システム。
(11) 前記作用部は、前記対象物を把持する機構を有し、前記対象物と前記対象物が載置される載置面とが接触したことが判定されると、把持していた前記対象物を離す、前記(9)に記載の制御システム。
(12) 前記作用部は、前記対象物を把持する機構を有し、前記対象物を別の物体に作用させる、前記(1)に記載の制御システム。
(13) 対象物に作用する作用部と、
前記対象物を含む周辺の状況を認識する状況認識センサと、
前記状況認識センサの姿勢を制御するアクチュエータと、
を備える、制御システムにおける方法であって、
前記状況認識センサによる認識結果に基づいて、前記対象物の位置を含む対象物情報を取得することと、
前記対象物情報に基づいて前記アクチュエータを制御することと、
を備える、方法。
The following configurations also belong to the technical scope of the present disclosure.
(1) The action part that acts on the object and
A situational awareness sensor that recognizes the surrounding conditions including the object,
An actuator that controls the posture of the situational awareness sensor relative to the action unit,
A control system.
(2) The control system according to (1) above, comprising an object information acquisition unit that acquires object information including the position of the object based on the recognition result by the situation recognition sensor.
(3) The control system according to (2) above, comprising an actuator control unit that controls the actuator based on the object information.
(4) The control system according to (3), wherein the actuator control unit controls the actuator so that the situational awareness sensor faces the object.
(5) The control system according to (2) above, further comprising an end effector control unit that controls the movement of the action unit, the situational awareness sensor, and the end effector having the actuator based on the object information.
(6) A calculation unit for converting the object information based on the coordinate system of the end effector into information based on the base coordinate system of the movable arm to which the end effector is mounted is provided.
The control system according to (5), wherein the end effector control unit controls the movement of the end effector based on the information based on the base coordinate system.
(7) The control system according to (5), wherein the end effector control unit controls the movement of the end effector so as to avoid the obstacle when an obstacle is recognized by the situational awareness sensor.
(8) A calculation unit for calculating the action position at which the action unit acts on the object based on the object information is provided.
The control system according to (5) above, wherein the actuator control unit causes the action unit to act on the object based on the action position.
(9) A contact determination unit for determining contact between the object and the acting unit or contact between the object and another object based on the object information is provided.
The control system according to (5) above, wherein the end effector control unit controls the movement of the end effector based on a determination result by the contact determination unit.
(10) The control system according to any one of (1) to (9) above, wherein the acting unit grips the object.
(11) The action unit has a mechanism for gripping the object, and when it is determined that the object and the mounting surface on which the object is placed are in contact with each other, the working portion grips the object. The control system according to (9) above, which releases an object.
(12) The control system according to (1) above, wherein the acting unit has a mechanism for gripping the object and causes the object to act on another object.
(13) The action part that acts on the object and
A situational awareness sensor that recognizes the surrounding conditions including the object,
An actuator that controls the posture of the situational awareness sensor and
A method in a control system that comprises
Acquiring object information including the position of the object based on the recognition result by the situational awareness sensor, and
Controlling the actuator based on the object information
A method.
100 エンドエフェクタ
102 把持部
104 視覚センサ
106 アクチュエータ
410 計算部
420 アクチュエータ制御部
430 エンドエフェクタ制御部
440 接触判定部
100
Claims (13)
前記対象物を含む周辺の状況を認識する状況認識センサと、
前記状況認識センサの姿勢を前記作用部に対して相対的に制御するアクチュエータと、
を備える、制御システム。 The action part that acts on the object and
A situational awareness sensor that recognizes the surrounding conditions including the object,
An actuator that controls the posture of the situational awareness sensor relative to the action unit,
A control system.
前記エンドエフェクタ制御部は、前記ベース座標系に基づく前記情報に基づいて前記エンドエフェクタの動きを制御する、請求項5に記載の制御システム。 It is provided with a calculation unit that converts the object information based on the coordinate system of the end effector into information based on the base coordinate system of the movable arm to which the end effector is mounted.
The control system according to claim 5, wherein the end effector control unit controls the movement of the end effector based on the information based on the base coordinate system.
前記エンドエフェクタ制御部は、前記作用位置に基づいて前記作用部を前記対象物に作用させる、請求項5に記載の制御システム。 A calculation unit that calculates an action position that causes the action unit to act on the object based on the object information is provided.
The control system according to claim 5, wherein the end effector control unit causes the action unit to act on the object based on the action position.
前記エンドエフェクタ制御部は、前記接触判定部による判定結果に基づいて前記エンドエフェクタの動きを制御する、請求項5に記載の制御システム。 A contact determination unit for determining contact between the object and the action unit or contact between the object and another object based on the object information is provided.
The control system according to claim 5, wherein the end effector control unit controls the movement of the end effector based on a determination result by the contact determination unit.
前記対象物を含む周辺の状況を認識する状況認識センサと、
前記状況認識センサの姿勢を制御するアクチュエータと、
を備える、制御システムにおける方法であって、
前記状況認識センサによる認識結果に基づいて、前記対象物の位置を含む対象物情報を取得することと、
前記対象物情報に基づいて前記アクチュエータを制御することと、
を備える、方法。 The action part that acts on the object and
A situational awareness sensor that recognizes the surrounding conditions including the object,
An actuator that controls the posture of the situational awareness sensor and
A method in a control system that comprises
Acquiring object information including the position of the object based on the recognition result by the situational awareness sensor, and
Controlling the actuator based on the object information
A method.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018042506A JP2021073099A (en) | 2018-03-09 | 2018-03-09 | Control system and method in control system |
PCT/JP2019/002728 WO2019171822A1 (en) | 2018-03-09 | 2019-01-28 | Control system, and method in control system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018042506A JP2021073099A (en) | 2018-03-09 | 2018-03-09 | Control system and method in control system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021073099A true JP2021073099A (en) | 2021-05-13 |
Family
ID=67847012
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018042506A Pending JP2021073099A (en) | 2018-03-09 | 2018-03-09 | Control system and method in control system |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2021073099A (en) |
WO (1) | WO2019171822A1 (en) |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6352990A (en) * | 1986-08-22 | 1988-03-07 | 三菱電機株式会社 | Manipulator visual device |
DE102004005574B3 (en) * | 2004-02-05 | 2005-07-14 | Daimlerchrysler Ag | Robot system with tool, camera and light source for manipulating tool for processing workpiece has light source and camera independently movable in order to illuminate field of view from different directions |
JP2010131685A (en) * | 2008-12-03 | 2010-06-17 | Seiko Epson Corp | Robot system and imaging method |
JP2011000703A (en) * | 2009-05-19 | 2011-01-06 | Canon Inc | Manipulator with camera |
JP2011093015A (en) * | 2009-10-27 | 2011-05-12 | Ihi Corp | Control device of hand-eye bin picking robot |
JP6021533B2 (en) * | 2012-09-03 | 2016-11-09 | キヤノン株式会社 | Information processing system, apparatus, method, and program |
-
2018
- 2018-03-09 JP JP2018042506A patent/JP2021073099A/en active Pending
-
2019
- 2019-01-28 WO PCT/JP2019/002728 patent/WO2019171822A1/en active Application Filing
Also Published As
Publication number | Publication date |
---|---|
WO2019171822A1 (en) | 2019-09-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102650492B1 (en) | A robotic system with automated package registration mechanism and methods of operating the same | |
US10894324B2 (en) | Information processing apparatus, measuring apparatus, system, interference determination method, and article manufacturing method | |
US20180085923A1 (en) | Robot control device, robot, and robot system | |
US9844882B2 (en) | Conveyor robot system provided with three-dimensional sensor | |
US9878446B2 (en) | Determination of object-related gripping regions using a robot | |
JP5620445B2 (en) | Article takeout device for determining holding position and posture of robot based on selection condition | |
JP6855492B2 (en) | Robot system, robot system control device, and robot system control method | |
JP2018176334A5 (en) | ||
JP6359756B2 (en) | Manipulator, manipulator operation planning method, and manipulator control system | |
US20170266815A1 (en) | Control device, robot, and robot system | |
JP6000029B2 (en) | Handling system, handling method and program | |
US10675759B2 (en) | Interference region setting apparatus for mobile robot | |
JP2019126866A (en) | Motion trajectory generation apparatus | |
JP2014176923A (en) | Robot system and method for manufacturing workpiece | |
JP2018533006A (en) | Sensor device and robot system provided with the sensor device | |
WO2020022302A1 (en) | Grasping device | |
EP2947533A2 (en) | Robot | |
JPH0493191A (en) | Robot controlling device | |
CN107848117B (en) | Robot system and control method | |
WO2009110842A1 (en) | A robot for seizing obj ects | |
CN113858188A (en) | Industrial robot gripping method and apparatus, computer storage medium, and industrial robot | |
JP2020163502A (en) | Object detection method, object detection device, and robot system | |
JP2008168372A (en) | Robot device and shape recognition method | |
JP2006026875A (en) | Gripping control device for robot hand | |
JP3239277B2 (en) | Intelligent robot |