JP2021183363A - Control device of robot and control method of robot - Google Patents

Control device of robot and control method of robot Download PDF

Info

Publication number
JP2021183363A
JP2021183363A JP2020088874A JP2020088874A JP2021183363A JP 2021183363 A JP2021183363 A JP 2021183363A JP 2020088874 A JP2020088874 A JP 2020088874A JP 2020088874 A JP2020088874 A JP 2020088874A JP 2021183363 A JP2021183363 A JP 2021183363A
Authority
JP
Japan
Prior art keywords
work
robot
posture
gravity
center
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020088874A
Other languages
Japanese (ja)
Inventor
信悟 富田
Shingo Tomita
中 市川
Ataru Ichikawa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2020088874A priority Critical patent/JP2021183363A/en
Publication of JP2021183363A publication Critical patent/JP2021183363A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

To provide a control device of a robot which can determine the optimum posture for an end effector of the robot to grasp a workpiece, with a more simple method.SOLUTION: A storage unit of a control PC stores CAD data on the shapes of a plurality of types of workpieces W grasped by a hand arranged at the arm tip of a robot. A workpiece identification unit identifies the type of the workpiece W grasped by the hand by collating the shape of the workpiece W imaged by a camera with the CAD data stored in the storage unit (S1, S2). A gravity center estimation unit estimates the gravity center of the identified workpiece W (S3). A posture calculation unit calculates the posture of an arm of a robot 1 such that the moment force acting when moving the workpiece W to the next target position on the basis of the grasping point of the workpiece W and the gravity center of the workpiece W becomes minimum (S4). A locus generation unit generates a locus for moving the arm to the next target position in such a state where the calculated posture is maintained (S5). A command output unit outputs a command to control the robot in such a manner that the robot follows the generated locus (S6).SELECTED DRAWING: Figure 4

Description

本発明は、ワークを把持するロボットを制御する装置及び方法に関する。 The present invention relates to an apparatus and a method for controlling a robot that grips a work.

一般に、ロボットのエンドエフェクタには、ワークを把持した際の位置姿勢を安定させるため、ワークに合わせた形状のものが選択されることが多い。そのため、事業環境に対応するべく多品種多品番のワークをそれぞれ把持しようとすると、ワークの形状が変わるのに応じてエンドエフェクタも変更する必要がある。そのような煩雑さを解消するため、様々な形状のワークを把持可能とするフレキシブルなエンドエフェクタも開発されている。 In general, the end effector of the robot is often selected to have a shape suitable for the work in order to stabilize the position and posture when the work is gripped. Therefore, when trying to grip each work of various types and product numbers in order to correspond to the business environment, it is necessary to change the end effector according to the shape of the work. In order to eliminate such complexity, flexible end effectors that can grip workpieces of various shapes have also been developed.

しかしながら、上記のエンドエフェクタでは、様々なワークを把持可能としたことの背反として一意の位置決めができないため、ロボットの動作中にワークが動いてしまい把持誤差が生じる問題があった。特に、ロボットの動作速度を増大させると、モーメント力が作用してワークが回転することで把持誤差が生じていた。 However, in the above-mentioned end effector, since unique positioning cannot be performed as a contrary to the fact that various workpieces can be gripped, there is a problem that the workpiece moves during the operation of the robot and a gripping error occurs. In particular, when the operating speed of the robot is increased, a moment force acts to rotate the work, which causes a gripping error.

そこで、ロボットハンドがワークを把持して搬送する際に、ロボットに係る負荷を算出してワークを把持する際の姿勢が適正か否かを評価し、適正でないと評価される度に新たな把持姿勢を導出して評価を繰り返すことで、把持姿勢を最適化する技術も提案されている。 Therefore, when the robot hand grips and conveys the work, the load related to the robot is calculated to evaluate whether or not the posture when gripping the work is appropriate, and each time it is evaluated as inappropriate, a new grip is performed. A technique for optimizing the gripping posture by deriving the posture and repeating the evaluation has also been proposed.

特開2020−11317号公報Japanese Unexamined Patent Publication No. 2020-11317

しかしながら、上記のようにハンドの把持姿勢の評価を繰り返して最適化を図る手法は、計算処理が複雑である。 However, the calculation process is complicated in the method of repeatedly evaluating the gripping posture of the hand for optimization as described above.

本発明は上記事情に鑑みてなされたものであり、その目的は、より簡単な手法によりロボットのエンドエフェクタがワークを把持する最適な姿勢を決定できるロボットの制御装置及びロボットの制御方法を提供することにある。 The present invention has been made in view of the above circumstances, and an object of the present invention is to provide a robot control device and a robot control method capable of determining an optimum posture in which a robot end effector grips a work by a simpler method. There is something in it.

請求項1記載のロボットの制御装置によれば、記憶部には、ロボットアームの先端に配置されるエンドエフェクタにより把持される複数種類のワークの形状に関する形状データが記憶される。ワーク特定部は、撮像部により撮像されたワークの形状と記憶部に記憶されている形状データとを照合して、エンドエフェクタが把持したワークの種類を特定する。重心推定部は、特定されたワークの重心を推定し、姿勢計算部は、エンドエフェクタがワークを把持している把持点とワークの重心とに基づいて、ワークを次の目標位置まで移動させる際に、当該ワークに作用するモーメント力が最小となるようにロボットアームの姿勢を計算する。 According to the robot control device according to claim 1, the storage unit stores shape data regarding the shapes of a plurality of types of workpieces gripped by an end effector arranged at the tip of the robot arm. The work specifying unit collates the shape of the work imaged by the imaging unit with the shape data stored in the storage unit, and specifies the type of work grasped by the end effector. The center of gravity estimation unit estimates the center of gravity of the specified work, and the posture calculation unit moves the work to the next target position based on the gripping point at which the end effector grips the work and the center of gravity of the work. In addition, the posture of the robot arm is calculated so that the moment force acting on the work is minimized.

軌道生成部は、計算された姿勢を維持した状態で、ロボットアームを次の目標位置まで移動させる軌道を生成し、指令出力部は、生成された軌道に従うようにロボットアームを制御する指令を出力する。このように制御すれば、ワークを現在位置から次の目標位置まで移動させる際に、そのワークに作用するモーメント力が最小となることで、エンドエフェクタにより把持されたワークが回転することを防止できる。したがって、比較的簡単な計算により、把持したワークを移動させる際のロボットアームの姿勢を最適化できる。 The trajectory generator generates a trajectory to move the robot arm to the next target position while maintaining the calculated posture, and the command output unit outputs a command to control the robot arm to follow the generated trajectory. do. By controlling in this way, when the work is moved from the current position to the next target position, the moment force acting on the work is minimized, so that the work gripped by the end effector can be prevented from rotating. .. Therefore, the posture of the robot arm when moving the gripped work can be optimized by a relatively simple calculation.

請求項2記載のロボットの制御装置によれば、姿勢計算部は、ワークの把持点とワークの重心とを通る直線を求め、ワークを現在位置から次の目標位置まで移動させる際にワークに作用する加速度を計算する。そして、計算した加速度とワークの重心に作用する重力加速度とを合成したベクトルを求めると、前記直線と前記ベクトルの方向とが平行となるようにロボットアームの姿勢を計算する。 According to the robot control device according to claim 2, the posture calculation unit obtains a straight line passing through the gripping point of the work and the center of gravity of the work, and acts on the work when moving the work from the current position to the next target position. Calculate the acceleration to be performed. Then, when a vector obtained by combining the calculated acceleration and the gravitational acceleration acting on the center of gravity of the work is obtained, the posture of the robot arm is calculated so that the straight line and the direction of the vector are parallel to each other.

このように、ワークの把持点とワークの重心とを通る直線が、ワークを次の目標位置まで移動させる際に作用する加速度とワークの重心に作用する重力加速度とを合成したベクトルと平行になるようにロボットアームの姿勢を維持すれば、ワークに対してモーメント力が殆ど作用しなくなる。これにより、ロボットアームの姿勢を最適化できる。 In this way, the straight line passing through the gripping point of the work and the center of gravity of the work becomes parallel to the vector that combines the acceleration acting when moving the work to the next target position and the gravitational acceleration acting on the center of gravity of the work. If the posture of the robot arm is maintained as described above, the moment force hardly acts on the work. This makes it possible to optimize the posture of the robot arm.

一実施形態であり、ロボットの制御システムを概略的に示す図A diagram schematically showing a robot control system according to an embodiment. ハンドの具体的な形状の一例を示す図The figure which shows an example of the concrete shape of a hand 制御PCの詳細な構成を示す機能ブロック図Functional block diagram showing the detailed configuration of the control PC 制御PCによる処理内容を中心に示すフローチャートFlow chart showing mainly the processing contents by the control PC 図4のステップS1に対応する説明図Explanatory drawing corresponding to step S1 of FIG. 同ステップS4に対応する説明図(その1)Explanatory drawing corresponding to step S4 (No. 1) 同ステップS4に対応する説明図(その2)Explanatory drawing corresponding to step S4 (No. 2) 同ステップS5に対応する説明図Explanatory drawing corresponding to step S5

以下、一実施形態について説明する。図1はロボットの制御システムを概略的に示している。このシステムは、制御対象としてのロボット1と、このロボット1を制御するロボットコントローラ2と、制御パーソナルコンピュータ3及びカメラ4とを備えている。カメラ4は撮像部の一例である。以下、制御パーソナルコンピュータ3を制御PC3と称する。 Hereinafter, one embodiment will be described. FIG. 1 schematically shows a robot control system. This system includes a robot 1 as a control target, a robot controller 2 for controlling the robot 1, a control personal computer 3 and a camera 4. The camera 4 is an example of an imaging unit. Hereinafter, the control personal computer 3 will be referred to as a control PC 3.

ロボット1は例えば6軸の垂直多関節型ロボットであり、図1ではモデル的に示している。ロボット1では、ベース部6上にショルダ部7が垂直軸を中心として回動又は旋回可能に設けられ、そのショルダ部7の左右両端部に上方に延出される一対の下アーム部8が水平軸を中心に回動可能に連結されている。この下アーム部8の上端部に、中間アーム部9の前端部が水平軸を中心に回動可能に連結されている。 The robot 1 is, for example, a 6-axis vertical articulated robot, and is shown as a model in FIG. In the robot 1, a shoulder portion 7 is provided on the base portion 6 so as to be rotatable or swivel around a vertical axis, and a pair of lower arm portions 8 extending upward to the left and right ends of the shoulder portion 7 are horizontal axes. It is rotatably connected around the center. The front end portion of the intermediate arm portion 9 is rotatably connected to the upper end portion of the lower arm portion 8 about a horizontal axis.

また、中間アーム部9の前端部には、前方に延びる上アーム部10の後端部が同軸回転可能に連結されており、その上アーム部10の前端側にはリスト部11が水平軸を中心に回動可能に連結されている。リスト部11の前端部にはフランジ部12が同軸回動可能に連結され、そのフランジ部12には、対象物であるワークWを把持するためのハンド13が取り付けられている。尚、図示はしないが、ロボット1の内部には、各軸を駆動するためのサーボモータが組み込まれている。エンドエフェクタに相当するハンド13は、例えばフレキシブルハンドであり、図2には、ワークWと共にその具体的な形状の一例を示している。 Further, the rear end portion of the upper arm portion 10 extending forward is coaxially connected to the front end portion of the intermediate arm portion 9, and the wrist portion 11 has a horizontal axis on the front end side of the upper arm portion 10. It is rotatably connected to the center. A flange portion 12 is coaxially and rotatably connected to the front end portion of the wrist portion 11, and a hand 13 for gripping the work W, which is an object, is attached to the flange portion 12. Although not shown, a servomotor for driving each axis is built in the robot 1. The hand 13 corresponding to the end effector is, for example, a flexible hand, and FIG. 2 shows an example of a specific shape thereof together with the work W.

カメラ4は、ワークWを中心とする画像撮影する。カメラ4が出力する画像信号は、制御PC3に入力される。図3に示すように、制御PC3は、記憶部3a,ワーク特定部3b,重心推定部3c,姿勢計算部3d,軌道生成部3e及び指令出力部3f等を備えている。これらは、マイクロコンピュータのハードウェア及びソフトウェアによって実現される機能部である。 The camera 4 captures an image centered on the work W. The image signal output by the camera 4 is input to the control PC 3. As shown in FIG. 3, the control PC 3 includes a storage unit 3a, a work identification unit 3b, a center of gravity estimation unit 3c, a posture calculation unit 3d, a trajectory generation unit 3e, a command output unit 3f, and the like. These are the functional parts realized by the hardware and software of the microcomputer.

記憶部3aには、ロボット1がハンド13により把持する対象となる複数種類のワークWの形状データであるCAD(Computer Aided Design)データが予め記憶されている。ワーク特定部3bには、カメラ4が撮像したワークWの画像信号が入力される。ワーク特定部3bは、入力された画像信号と、記憶部3aに記憶されているCADデータとのマッチングを行うことで、ハンド13が把持しているワークWの種類を特定する。重心推定部3cは、ワーク特定部3bが特定したワークWの重心を推定する。 CAD (Computer Aided Design) data, which is shape data of a plurality of types of work W to be gripped by the hand 13 by the robot 1, is stored in advance in the storage unit 3a. The image signal of the work W captured by the camera 4 is input to the work specifying unit 3b. The work specifying unit 3b identifies the type of work W held by the hand 13 by matching the input image signal with the CAD data stored in the storage unit 3a. The center of gravity estimation unit 3c estimates the center of gravity of the work W specified by the work identification unit 3b.

姿勢計算部3dは、ハンド13がワークWを把持している把持点とワークWの重心とに基づいて、ワークWを現在位置から次の目標位置まで移動させる際に、ワークWに作用するモーメント力が最小となる姿勢を計算する。軌道生成部3eは、その計算された姿勢を維持した状態で、ワークWを現在位置から次の目標位置まで移動させるための軌道を生成する。指令出力部3fは、生成された軌道に従ってロボット1を制御するための角速度指令を生成し、ロボットコントローラ2に出力する。コントローラ2は、入力される角速度指令に応じてロボット1の各軸を駆動するサーボモータを制御する。尚、コントローラ2と制御PC3とを一体で構成しても良い。 The posture calculation unit 3d moves the work W from the current position to the next target position based on the gripping point at which the hand 13 holds the work W and the center of gravity of the work W, and the moment acting on the work W. Calculate the posture that minimizes the force. The orbit generation unit 3e generates an orbit for moving the work W from the current position to the next target position while maintaining the calculated posture. The command output unit 3f generates an angular velocity command for controlling the robot 1 according to the generated trajectory, and outputs the command to the robot controller 2. The controller 2 controls the servomotor that drives each axis of the robot 1 in response to the input angular velocity command. The controller 2 and the control PC 3 may be integrally configured.

次に、本実施形態の作用について説明する。図4及び図5に示すように、カメラ4がロボット1のハンド13が把持しているワークWを撮像すると(S1)、制御PC3のワーク特定部3bが、上述した様に前記ワークWの種類を特定する(S2)。すると、重心推定部3cが特定したワークWの重心を推定し(S3)、ワークWを次の目標位置まで移動させる際に作用するモーメント力が最小となる姿勢を計算する(S4)。 Next, the operation of this embodiment will be described. As shown in FIGS. 4 and 5, when the camera 4 captures the work W held by the hand 13 of the robot 1 (S1), the work specifying unit 3b of the control PC 3 determines the type of the work W as described above. (S2). Then, the center of gravity of the work W specified by the center of gravity estimation unit 3c is estimated (S3), and the posture in which the moment force acting when moving the work W to the next target position is minimized is calculated (S4).

ここで、ステップS4で行う姿勢計算の詳細について説明する。
(1)図6に示すように、ハンド13がワークWを把持した点とワークWの重心とを通る直線を求める。
(2)図7に示すように、ワークWを現在位置であるA点から次の移動目標位置であるB点まで移動させる際に、一定の制御周期でワークWに作用する加速度を求める。この加速度は、予め求めておいても良い。
(3)(2)で求めた加速度のベクトルと、ワークWの重心にかかる重力加速度のベクトルとを合成する。
(4)(1)で求めた直線の方向と、(2)で求めた合成ベクトルの方向とが平行となる姿勢が、ワークWに作用するモーメント力が最小となる姿勢である。その姿勢を一定の制御周期毎に計算する。
Here, the details of the posture calculation performed in step S4 will be described.
(1) As shown in FIG. 6, a straight line passing through the point where the hand 13 grips the work W and the center of gravity of the work W is obtained.
(2) As shown in FIG. 7, when the work W is moved from the current position A to the next movement target position B, the acceleration acting on the work W is obtained in a constant control cycle. This acceleration may be obtained in advance.
(3) The vector of acceleration obtained in (2) and the vector of gravitational acceleration applied to the center of gravity of the work W are combined.
(4) The posture in which the direction of the straight line obtained in (1) and the direction of the composite vector obtained in (2) are parallel is the posture in which the moment force acting on the work W is minimized. The posture is calculated every fixed control cycle.

このように姿勢を計算すると、軌道生成部3eは、図8に示すように、計算された姿勢を維持した状態でワークWを移動させるための軌道を生成する(S5)、指令出力部3fは、生成された軌道に従ってロボット1を制御するための角速度指令を生成し、ロボットコントローラ2に出力する(S6)。 When the posture is calculated in this way, as shown in FIG. 8, the trajectory generation unit 3e generates a trajectory for moving the work W while maintaining the calculated posture (S5), and the command output unit 3f , Generates an angular velocity command for controlling the robot 1 according to the generated trajectory, and outputs the command to the robot controller 2 (S6).

以上のように本実施形態によれば、制御PC3の記憶部3aに、ロボット1のアーム先端に配置されるハンド13により把持される複数種類のワークWの形状に関するCADデータを記憶し、ワーク特定部3bは、カメラ4により撮像されたワークWの形状と記憶部3aに記憶されているCADデータとを照合して、ハンド13が把持したワークWの種類を特定する。重心推定部3cは、特定されたワークWの重心を推定し、姿勢計算部3dは、ワークWの把持点とワークWの重心とに基づいて、ワークWを次の目標位置まで移動させる際に、作用するモーメント力が最小となるようにロボット1のアームの姿勢を計算する。 As described above, according to the present embodiment, CAD data relating to the shapes of a plurality of types of work W held by the hand 13 arranged at the tip of the arm of the robot 1 is stored in the storage unit 3a of the control PC 3 to specify the work. The unit 3b collates the shape of the work W imaged by the camera 4 with the CAD data stored in the storage unit 3a, and identifies the type of the work W held by the hand 13. The center of gravity estimation unit 3c estimates the center of gravity of the specified work W, and the posture calculation unit 3d moves the work W to the next target position based on the gripping point of the work W and the center of gravity of the work W. , The posture of the arm of the robot 1 is calculated so that the acting moment force is minimized.

具体的には、姿勢計算部3dは、ワークWの把持点とワークWの重心とを通る直線を求め、ワークWを現在位置から次の目標位置まで移動させる際にワークWに作用する加速度を計算する。そして、計算した加速度とワークWの重心に作用する重力加速度とを合成したベクトルを求めると、前記直線と前記ベクトルの方向とが平行となるようにロボットアームの姿勢を計算する。 Specifically, the posture calculation unit 3d obtains a straight line passing through the gripping point of the work W and the center of gravity of the work W, and determines the acceleration acting on the work W when the work W is moved from the current position to the next target position. calculate. Then, when a vector obtained by combining the calculated acceleration and the gravitational acceleration acting on the center of gravity of the work W is obtained, the posture of the robot arm is calculated so that the straight line and the direction of the vector are parallel to each other.

軌道生成部3eは、計算された姿勢を維持した状態で、ロボット1のアームを次の目標位置まで移動させる軌道を生成し、指令出力部3fは、生成された軌道に従うようにロボット1を制御する指令を出力する。このように制御すれば、ワークWを現在位置から次の目標位置まで移動させる際に、ハンド13により把持されたワークWが回転することを防止できる。したがって、比較的簡単な計算により、把持したワークWを移動させる際のロボット1の姿勢を最適化できる。 The trajectory generation unit 3e generates a trajectory for moving the arm of the robot 1 to the next target position while maintaining the calculated posture, and the command output unit 3f controls the robot 1 so as to follow the generated trajectory. Is output. By controlling in this way, it is possible to prevent the work W gripped by the hand 13 from rotating when the work W is moved from the current position to the next target position. Therefore, the posture of the robot 1 when moving the gripped work W can be optimized by a relatively simple calculation.

(その他の実施形態)
エンドエフェクタは、フレキシブルハンドでなくても良い。
6軸の垂直多関節型ロボットに限ることなく、その他4軸の水平多関節型等のロボットにも適用できる。
本開示は実施例に準拠して記述されたが、本開示は当該実施例や構造に限定されるものではないと理解される。本開示は、様々な変形例や均等範囲内の変形をも包含する。加えて、様々な組み合わせや形態、さらには、それらに一要素のみ、それ以上、あるいはそれ以下、を含む他の組み合わせや形態をも、本開示の範疇や思想範囲に入るものである。
(Other embodiments)
The end effector does not have to be a flexible hand.
It is not limited to the 6-axis vertical articulated robot, but can also be applied to other 4-axis horizontal articulated robots.
Although the present disclosure has been described in accordance with the examples, it is understood that the present disclosure is not limited to the examples or structures. The present disclosure also includes various variations and variations within a uniform range. In addition, various combinations and forms, as well as other combinations and forms that include only one element, more, or less, are within the scope and scope of the present disclosure.

図面中、1はロボット、2はロボットコントローラ、3は制御パーソナルコンピュータ、3aは記憶部、3bはワーク特定部、3cは重心推定部、3dは姿勢計算部3、3eは軌道生成部、3fは指令出力部、4はカメラ、13はハンド、Wはワークを示す。 In the drawing, 1 is a robot, 2 is a robot controller, 3 is a control personal computer, 3a is a storage unit, 3b is a work identification unit, 3c is a center of gravity estimation unit, 3d is an attitude calculation unit 3, 3e is an orbit generation unit, and 3f is an orbit generation unit. The command output unit, 4 indicates a camera, 13 indicates a hand, and W indicates a work.

Claims (4)

ロボットアーム(1)の先端に配置されるエンドエフェクタ(2)により把持される複数種類のワーク(W)の形状に関する形状データが記憶されている記憶部(3a)と、
前記エンドエフェクタが把持したワークを撮像する撮像部(4)と、
この撮像部により撮像されたワークの形状と、前記記憶部に記憶されている形状データとを照合して、前記エンドエフェクタが把持したワークの種類を特定するワーク特定部(3b)と、
特定されたワークの重心を推定する重心推定部(3c)と、
前記エンドエフェクタがワークを把持している把持点と前記ワークの重心とに基づいて、前記ワークを次の目標位置まで移動させる際に、当該ワークに作用するモーメント力が最小となるように前記ロボットアームの姿勢を計算する姿勢計算部(3d)と、
計算された姿勢を維持した状態で、前記ロボットアームを次の目標位置まで移動させる軌道を生成する軌道生成部(3e)と、
生成された軌道に従うように前記ロボットアームを制御する指令を出力する指令出力部(3f)とを備えるロボットの制御装置。
A storage unit (3a) that stores shape data regarding the shapes of a plurality of types of workpieces (W) gripped by the end effector (2) arranged at the tip of the robot arm (1).
An imaging unit (4) that captures an image of the work gripped by the end effector, and
A work specifying unit (3b) that collates the shape of the work imaged by the imaging unit with the shape data stored in the storage unit to specify the type of the work gripped by the end effector.
The center of gravity estimation unit (3c) that estimates the center of gravity of the specified work, and
Based on the gripping point where the end effector grips the work and the center of gravity of the work, the robot so that the moment force acting on the work is minimized when the work is moved to the next target position. Posture calculation unit (3d) that calculates the posture of the arm,
An orbit generation unit (3e) that generates an orbit that moves the robot arm to the next target position while maintaining the calculated posture.
A robot control device including a command output unit (3f) that outputs a command to control the robot arm so as to follow a generated trajectory.
前記姿勢計算部は、前記把持点と前記ワークの重心とを通る直線を求め、
前記ワークを現在位置から次の目標位置まで移動させる際に、前記ワークに作用する加速度を計算し、
計算した加速度と、前記ワークの重心に作用する重力加速度とを合成したベクトルを求め、
前記直線と前記ベクトルの方向とが平行となるように前記ロボットアームの姿勢を計算する請求項1記載のロボットの制御装置。
The posture calculation unit obtains a straight line passing through the gripping point and the center of gravity of the work.
When moving the work from the current position to the next target position, the acceleration acting on the work is calculated.
Obtain a vector that combines the calculated acceleration and the gravitational acceleration that acts on the center of gravity of the work.
The robot control device according to claim 1, wherein the posture of the robot arm is calculated so that the straight line and the direction of the vector are parallel to each other.
ロボットアームの先端に配置されるエンドエフェクタにより把持される複数種類のワークの形状に関する形状データを予め記憶し、
前記エンドエフェクタが把持したワークを撮像すると、撮像したワークの形状と、予め記憶している形状データとを照合して、前記エンドエフェクタが把持したワークの種類を特定し、
特定されたワークの重心を推定すると、前記エンドエフェクタがワークを把持している把持点と前記ワークの重心とに基づいて、前記ワークを次の目標位置まで移動させる際に、当該ワークに作用するモーメント力が最小となるように前記ロボットアームの姿勢を計算し、
計算した姿勢を維持した状態で、前記ロボットアームを次の目標位置まで移動させる軌道を生成し、
生成した軌道に従うように前記ロボットアームを制御するロボットの制御方法。
Shape data related to the shapes of multiple types of workpieces gripped by the end effector placed at the tip of the robot arm is stored in advance.
When the work held by the end effector is imaged, the shape of the imaged work is collated with the shape data stored in advance to identify the type of the work held by the end effector.
When the center of gravity of the specified work is estimated, it acts on the work when the work is moved to the next target position based on the gripping point where the end effector grips the work and the center of gravity of the work. Calculate the posture of the robot arm so that the moment force is minimized,
While maintaining the calculated posture, generate a trajectory to move the robot arm to the next target position.
A method for controlling a robot that controls the robot arm so as to follow a generated trajectory.
前記把持点と前記ワークの重心とを通る直線を求め、
前記ワークを現在位置から次の目標位置まで移動させる際に、前記ワークに作用する加速度を計算し、
計算した加速度と、前記ワークの重心に作用する重力加速度とを合成したベクトルを求め、
前記直線と前記ベクトルの方向とが平行となるように前記ロボットアームの姿勢を計算する請求項3記載のロボットの制御方法。
Find a straight line that passes through the gripping point and the center of gravity of the work.
When moving the work from the current position to the next target position, the acceleration acting on the work is calculated.
Obtain a vector that combines the calculated acceleration and the gravitational acceleration that acts on the center of gravity of the work.
The robot control method according to claim 3, wherein the posture of the robot arm is calculated so that the straight line and the direction of the vector are parallel to each other.
JP2020088874A 2020-05-21 2020-05-21 Control device of robot and control method of robot Pending JP2021183363A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020088874A JP2021183363A (en) 2020-05-21 2020-05-21 Control device of robot and control method of robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020088874A JP2021183363A (en) 2020-05-21 2020-05-21 Control device of robot and control method of robot

Publications (1)

Publication Number Publication Date
JP2021183363A true JP2021183363A (en) 2021-12-02

Family

ID=78766958

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020088874A Pending JP2021183363A (en) 2020-05-21 2020-05-21 Control device of robot and control method of robot

Country Status (1)

Country Link
JP (1) JP2021183363A (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02145277A (en) * 1988-11-22 1990-06-04 Fujitsu Ltd Control device for robot
EP1366868A1 (en) * 2002-05-28 2003-12-03 KUKA Roboter GmbH Method and device for compensating the inertial forces of a manipulator
JP2014050936A (en) * 2012-09-10 2014-03-20 Applied Vision Systems Corp Handling system, handling method, and program
JP2014210310A (en) * 2013-04-18 2014-11-13 ファナック株式会社 Robot system equipped with robot for carrying work
JP2019155542A (en) * 2018-03-14 2019-09-19 株式会社東芝 Conveyance device, conveyance system, controller, and conveyance method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02145277A (en) * 1988-11-22 1990-06-04 Fujitsu Ltd Control device for robot
EP1366868A1 (en) * 2002-05-28 2003-12-03 KUKA Roboter GmbH Method and device for compensating the inertial forces of a manipulator
JP2014050936A (en) * 2012-09-10 2014-03-20 Applied Vision Systems Corp Handling system, handling method, and program
JP2014210310A (en) * 2013-04-18 2014-11-13 ファナック株式会社 Robot system equipped with robot for carrying work
JP2019155542A (en) * 2018-03-14 2019-09-19 株式会社東芝 Conveyance device, conveyance system, controller, and conveyance method

Similar Documents

Publication Publication Date Title
JP5114019B2 (en) Method for controlling the trajectory of an effector
JP5733882B2 (en) Robot and its cooperative work control method
Zacharias et al. Making planned paths look more human-like in humanoid robot manipulation planning
JP5180989B2 (en) Method and apparatus for automatic control of a humanoid robot
JP6170285B2 (en) Manipulator and its path generation method
JP5144035B2 (en) Industrial robot tool position / posture control method and control system
JP2013111726A (en) Robot apparatus, method of controlling the same, and computer program
WO2006117022A1 (en) A method for control of an industrial robot
JP2013049102A (en) Robot control device and method of determining robot attitude
JP2021505416A5 (en)
CN106965187B (en) Method for generating feedback force vector when bionic hand grabs object
Namiki et al. Vision-based predictive assist control on master-slave systems
JP2020066080A (en) Robot system and robot control method for cooperative work with person
JP2021183363A (en) Control device of robot and control method of robot
JP3884249B2 (en) Teaching system for humanoid hand robot
JP4640499B2 (en) Grip control device
Cserteg et al. Assisted assembly process by gesture controlled robots
JP4715296B2 (en) Robot hand holding and gripping control method.
JP7159525B2 (en) ROBOT CONTROL DEVICE, LEARNING DEVICE, AND ROBOT CONTROL SYSTEM
Shauri et al. Sensor integration and fusion for autonomous screwing task by dual-manipulator hand robot
JPH05337860A (en) Robot hand teaching device and robot hand
JPH0889859A (en) Indication of coating robot action and device thereof
JP2020192621A (en) Device for teaching teaching point to robot, robot system, and teaching method of robot
JP2019155509A (en) Robot controlling device, control method, and program
WO2024045091A1 (en) Motion planning method, apparatus and system for actuator, and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220714

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230531

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230606

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20231128