JP2011083883A - Robot device - Google Patents

Robot device Download PDF

Info

Publication number
JP2011083883A
JP2011083883A JP2009240754A JP2009240754A JP2011083883A JP 2011083883 A JP2011083883 A JP 2011083883A JP 2009240754 A JP2009240754 A JP 2009240754A JP 2009240754 A JP2009240754 A JP 2009240754A JP 2011083883 A JP2011083883 A JP 2011083883A
Authority
JP
Japan
Prior art keywords
measurement
workpiece
robot
measurement range
orientation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009240754A
Other languages
Japanese (ja)
Inventor
Tomoyuki Sekiyama
友之 関山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yaskawa Electric Corp
Original Assignee
Yaskawa Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yaskawa Electric Corp filed Critical Yaskawa Electric Corp
Priority to JP2009240754A priority Critical patent/JP2011083883A/en
Publication of JP2011083883A publication Critical patent/JP2011083883A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a robot device for continuing assembly operation without wasting the assembly operation before measurement. <P>SOLUTION: The robot device includes a robot 101, end effectors 106, 107 mounted to the robot 101 for holding a workpiece, a profile measuring sensor 108 for the workpiece, and a controller 102 having an input device for controlling the operation of the robot. The controller 102 sets a predetermined range as a measurement range and controls the profile measuring sensor to measure the workpiece. When an entire image of the workpiece does not fall within the measurement range, the controller 102 controls to change the measurement range and measure the workpiece again, determine a position posture of the workpiece, and hold the workpiece by moving the end effectors to the position posture of the workpiece. The remeasurement is performed after the measurement range is changed on the basis of measurement data inputted from the input device. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、部品の組み立てなどに用いられるロボット装置に関する。   The present invention relates to a robot apparatus used for assembling components.

組み立て作業を行うロボットでは、部品の供給場面や組み立て途中の場面において、扱うワークの位置姿勢が不確定な場合がある。この場合は、ロボットの位置の記録と再生に基づく制御方法では作業を実行できないという問題がある。
そこで、このような問題を解決するために、ロボットの周辺、あるいはロボット本体にカメラやレーザセンサなどの計測手段を設けて、ワークの位置姿勢を計測し、計測結果にしたがってロボットのエンドエフェクタを移動して作業を行う従来技術がある。
In a robot that performs assembly work, the position and orientation of a workpiece to be handled may be uncertain in parts supply scenes or scenes in the middle of assembly. In this case, there is a problem that the operation cannot be executed by the control method based on the recording and reproduction of the position of the robot.
Therefore, in order to solve such problems, measurement means such as cameras and laser sensors are provided around the robot or on the robot body, and the position and orientation of the workpiece are measured, and the robot end effector is moved according to the measurement results. There is a conventional technique for performing the work.

特許文献1には、部品組み付け時のロボットの動作を補正する方法として、ロボットの手首部にCCDカメラなどの視覚センサを取り付け、視覚情報により被組付ワークの基準位置からのずれ量を求め、求めたずれ量から組立用ロボットの移動補正量を算出し、ロボットの動作を補正する技術が開示されている。
また、特許文献2には、重なった複数のワークから1個ずつ取り出す方法として、ロボットの手首部に、レーザを用いた3次元視覚センサを搭載し、ワークの位置姿勢を視覚センサにより求め、その位置姿勢に基づいてロボットを動作させてワークの取り出しを行う技術が開示されている。さらに、毎回異なる位置姿勢にあるワークを検出するために、視覚センサの適切な計測位置を、過去の計測位置または計測結果に基づいて計算して決定する技術が開示されている。
In Patent Document 1, as a method of correcting the movement of the robot at the time of assembling the parts, a visual sensor such as a CCD camera is attached to the wrist of the robot, and the amount of deviation from the reference position of the work to be assembled is obtained by visual information. A technique for calculating the movement correction amount of the assembly robot from the obtained deviation amount and correcting the operation of the robot is disclosed.
Further, in Patent Document 2, as a method of taking out one by one from a plurality of overlapping workpieces, a three-dimensional visual sensor using a laser is mounted on the wrist portion of the robot, and the position and orientation of the workpiece are obtained by the visual sensor. A technique for picking up a workpiece by operating a robot based on the position and orientation is disclosed. Furthermore, in order to detect the workpiece | work in a different position and orientation every time, the technique which calculates and determines the suitable measurement position of a visual sensor based on the past measurement position or a measurement result is disclosed.

特開平8−174457号公報(第5頁、図1、図2)JP-A-8-174457 (5th page, FIGS. 1 and 2) 特許第3703411号公報(第12頁、図1、第13頁、図6)Japanese Patent No. 3703411 (page 12, FIG. 1, page 13, FIG. 6)

しかしながら、特許文献1については、計測位置はロボットの教示位置であるため、毎回同じ位置、同じ計測範囲で計測が実行される。この方法では、教示位置が適切でないとワークが計測範囲から外れることがあり、検出に失敗したり、計測の精度が得られないという問題がある。
また、特許文献2については、適切な計測位置を計算する方法を取ることで、計測範囲から外れる確率は低くなるが、ワークの重なる方向が一定方向ではなかったり、ワーク位置のばらつき範囲が大きい場合には、過去のデータから適切な計測位置を計算することが難しく、過去の統計からは予想できない位置にワークがあって、ワークおよびワーク周辺の一部だけが計測範囲に入った時には、再計測のために計測位置をずらす方向の指針がないという問題がある。また、そこで計測の段階で作業失敗として組み立てを中止してしまうと、組み立て工程が多い場合には、計測の前までに行った作業が無駄になってしまうという問題がある。
However, in Patent Document 1, since the measurement position is the teaching position of the robot, the measurement is executed at the same position and the same measurement range every time. In this method, if the teaching position is not appropriate, the workpiece may be out of the measurement range, and there is a problem that detection fails or measurement accuracy cannot be obtained.
Further, for Patent Document 2, by taking a method of calculating an appropriate measurement position, the probability of deviating from the measurement range is reduced, but the direction in which the workpieces overlap is not a fixed direction, or the workpiece position variation range is large. It is difficult to calculate an appropriate measurement position from past data, and there is a workpiece at a position that cannot be predicted from past statistics. Therefore, there is a problem that there is no guide for the direction of shifting the measurement position. Further, if the assembly is stopped as a work failure at the measurement stage, there is a problem that the work performed before the measurement is wasted if there are many assembly processes.

本発明はこのような課題に鑑みてなされたものであり、計測前までの組み立て作業を無駄にせず組み立てを継続することができるようにしたロボット装置を提供することを目的とする。   The present invention has been made in view of such problems, and an object of the present invention is to provide a robot apparatus capable of continuing the assembly without wasting the assembly work before the measurement.

上記課題を解決するため、本発明は、次のように構成した。
請求項1に記載の発明は、ロボットと、前記ロボットに取り付けられワークを把持するエンドエフェクタと、前記ワークの形状計測センサと、入力装置を有し前記ロボットの動作を制御する制御装置と、を有し、前記制御装置は、あらかじめ決められた範囲を計測範囲として、ワークを形状計測センサにより計測させ、計測範囲にワークの全体像が入っていない場合には、計測範囲を変えて再計測し、ワークの位置姿勢を決定し、前記ワークの位置姿勢へ前記エンドエフェクタを移動させてワークを把持し、前記再計測は、、前記入力装置から入力された計測データに基づいて、計測範囲を変えて実行することを特徴とするものである。
請求項2に記載の発明は、前記入力装置は、画面表示装置を有し、前記画面表示装置のグラフィック画面に表示された直方体を移動させて、計測データと直方体を合わせることで再計測の計測位置を指示することを特徴とするものである。
請求項3に記載の発明は、前記入力装置は、画面表示装置を有し、前記画面表示装置のグラフィック画面に表示された計測範囲を移動させることで、再計測の計測位置を指示することを特徴とするものである。
In order to solve the above problems, the present invention is configured as follows.
According to a first aspect of the present invention, there is provided a robot, an end effector attached to the robot and gripping a workpiece, a shape measurement sensor of the workpiece, a control device having an input device and controlling the operation of the robot. The control device uses a predetermined range as a measurement range, measures the workpiece by the shape measurement sensor, and changes the measurement range and re-measures when the entire image of the workpiece is not included in the measurement range. The position and orientation of the workpiece are determined, the end effector is moved to the position and orientation of the workpiece, the workpiece is gripped, and the re-measurement changes the measurement range based on the measurement data input from the input device. It is characterized by being executed.
According to a second aspect of the present invention, the input device includes a screen display device, and moves the rectangular parallelepiped displayed on the graphic screen of the screen display device, and combines the measurement data and the rectangular parallelepiped to measure the remeasurement. The position is indicated.
According to a third aspect of the present invention, the input device has a screen display device, and indicates a measurement position for remeasurement by moving a measurement range displayed on the graphic screen of the screen display device. It is a feature.

請求項1に記載の発明によると、再計測位置の自動的な決定が行えない場合に、人による判断を導入して、再計測位置を決定することができる。
請求項2に記載の発明によると、計測範囲に入っているのがワークの一部だけのときに、再計測位置を直感的な操作で指示することができる。
請求項3に記載の発明によると、計測範囲に入っているのがワークの周辺だけのときに、再計測位置を直感的な操作で指示することができる。
According to the first aspect of the present invention, when automatic determination of the remeasurement position cannot be performed, the remeasurement position can be determined by introducing human judgment.
According to the second aspect of the present invention, when only a part of the work is in the measurement range, the remeasurement position can be instructed by an intuitive operation.
According to the third aspect of the present invention, the re-measurement position can be instructed by an intuitive operation when the measurement range is only around the workpiece.

本発明の方法を適用するロボット制御装置を含むロボットシステムの構成図Configuration diagram of a robot system including a robot controller to which the method of the present invention is applied 本発明の実施形態の作業イメージ図Work image diagram of the embodiment of the present invention 本発明の実施形態の動作プログラムOperation program according to an embodiment of the present invention 本発明の要部の処理手順を示すフローチャートThe flowchart which shows the process sequence of the principal part of this invention. 本発明の実施形態のHMIHMI of an embodiment of the present invention 本発明の実施形態1のHMIの操作イメージOperation image of HMI according to Embodiment 1 of the present invention 本発明の実施形態2のHMIの操作イメージOperation image of HMI according to Embodiment 2 of the present invention

以下、本発明の方法の具体的実施形態について、図に基づいて説明する。
[実施形態1]
Hereinafter, specific embodiments of the method of the present invention will be described with reference to the drawings.
[Embodiment 1]

図1は、本発明の方法を実施するロボットシステムの構成図である。このロボットシステムは、双腕ロボット(ロボット)101と、その動作を制御する制御装置102を備えている。
まず、双腕ロボット101について説明する。
図において、ロボットの左アーム104と右アーム105は、関節も含めて模式的に表されている。各関節は、図示しないサーボモータによって、駆動される。
左グリッパ(エンドエフェクタ)106は、左アームの先端に配置されている。
右グリッパ(エンドエフェクタ)107は、右アームの先端に配置されている。
ワーク109は双腕ロボット101の把持対象物である。ワーク109は、本実施形態においてはコネクタ付ケーブルであるが、詳細については後述する。
FIG. 1 is a block diagram of a robot system for implementing the method of the present invention. This robot system includes a double-arm robot (robot) 101 and a control device 102 for controlling the operation thereof.
First, the dual arm robot 101 will be described.
In the figure, the left arm 104 and the right arm 105 of the robot are schematically shown including joints. Each joint is driven by a servo motor (not shown).
The left gripper (end effector) 106 is disposed at the tip of the left arm.
The right gripper (end effector) 107 is disposed at the tip of the right arm.
A workpiece 109 is a gripping object of the double arm robot 101. The work 109 is a cable with a connector in the present embodiment, and details will be described later.

ワーク形状計測センサ108は、2次元レーザ変位センサである。このセンサは、右グリッパ107上に搭載されている。このワーク形状計測センサ108は、右アーム105が動くとともにワーク109のデータを取得することで、ワーク109の断面輪郭である2次元の計測データを連続して取得することができる。この取得したデータを重ねることによって、3次元の計測データ(ワーク形状)が得られる。なお、このセンサは、右グリッパ107ではなく、左グリッパ106に搭載されていても良い。また、グリッパではなく、アームに搭載されていても良い。また、このセンサは、ワークの3次元形状を計測できるものであれば任意のセンサでよい。例えば、このセンサは、複数のカメラによるビジョンセンサであってもよい。   The workpiece shape measurement sensor 108 is a two-dimensional laser displacement sensor. This sensor is mounted on the right gripper 107. The workpiece shape measurement sensor 108 can continuously acquire two-dimensional measurement data that is a cross-sectional outline of the workpiece 109 by acquiring data of the workpiece 109 while the right arm 105 moves. By superimposing the acquired data, three-dimensional measurement data (work shape) is obtained. Note that this sensor may be mounted not on the right gripper 107 but on the left gripper 106. Moreover, you may mount in the arm instead of a gripper. The sensor may be any sensor as long as it can measure the three-dimensional shape of the workpiece. For example, this sensor may be a vision sensor with a plurality of cameras.

次に、制御装置102について説明する。制御装置102は電子演算装置及び記憶装置を内蔵しており、動作プログラム解析部110は、ロボットの動作が記述された動作プログラム(JOB)117を解析して必要な処理を呼び出す。
教示データ記憶部113は、現在の位置120を教示位置121として、動作プログラム117に書き込む。この教示位置121は、操作者が教示作業時に教示装置103の所定のキーを入力すると動作プログラム117に書き込まれる。この動作プログラム117は、不揮発性メモリ116に保存される。
Next, the control device 102 will be described. The control device 102 includes an electronic arithmetic device and a storage device, and the operation program analysis unit 110 analyzes an operation program (JOB) 117 in which the operation of the robot is described and calls a necessary process.
The teaching data storage unit 113 writes the current position 120 as the teaching position 121 in the operation program 117. The teaching position 121 is written in the operation program 117 when the operator inputs a predetermined key of the teaching device 103 during teaching work. This operation program 117 is stored in the nonvolatile memory 116.

計測部114は、ワーク形状計測センサ108によりワークの計測データ119を得る。
位置姿勢検出部115は、スキャン条件118と計測データ119から、ワークの3次元の位置姿勢を計算する。位置姿勢検出部115は、このワークの位置姿勢122を指令生成部111に出力する。
The measurement unit 114 obtains workpiece measurement data 119 using the workpiece shape measurement sensor 108.
The position / orientation detection unit 115 calculates a three-dimensional position / orientation of the workpiece from the scan condition 118 and the measurement data 119. The position / orientation detection unit 115 outputs the position / orientation 122 of the workpiece to the command generation unit 111.

指令生成部111は、教示装置103からの手動操作にしたがって軌道を生成する。また、指令生成部111は、動作プログラム117、不揮発性メモリに保存されているスキャン条件118、計測結果であるワークの位置姿勢122、およびヒューマンマシンインタフェース(HMI)124からの計測位置の指示に基づいて、把持動作や計測動作を行うアームの軌道を生成する。サーボ制御部112は、生成された軌道にしたがってモータを駆動する。   The command generation unit 111 generates a trajectory according to a manual operation from the teaching device 103. Further, the command generation unit 111 is based on the operation program 117, the scan condition 118 stored in the non-volatile memory, the workpiece position / posture 122 as a measurement result, and the measurement position instruction from the human machine interface (HMI) 124. Thus, the trajectory of the arm that performs the gripping operation and the measurement operation is generated. The servo control unit 112 drives the motor according to the generated trajectory.

教示装置103は、制御装置102に接続され、双腕ロボット101の教示・操作をするための装置である。教示装置103上には、ロボットに対する指令やデータを入力するためのキー103Aと情報表示用のディスプレイ103Bが設けられている。
表示用パソコン(入力装置,画面表示装置)123は、制御装置102に接続され、ヒューマンマシンインタフェース124を表示する。
The teaching device 103 is connected to the control device 102 and is a device for teaching and operating the dual-arm robot 101. On the teaching device 103, a key 103A for inputting commands and data to the robot and a display 103B for displaying information are provided.
A display personal computer (input device, screen display device) 123 is connected to the control device 102 and displays a human machine interface 124.

次に、本発明に係るロボットシステムの動作について説明する。本実施形態において、双腕ロボットが扱うワーク109は、図2(a)に示す複数のリード線205の両端にコネクタ203、204を備えたケーブルである。図2(a)は、テーブル上のジグや供給装置によって位置が固定されたワークのコネクタ204を、あらかじめ教示されたように把持することで、左グリッパ106がコネクタ204を把持している状態を示している。リード線205で接続された、もう片方のコネクタ203の位置は固定されていない。コネクタ203とコネクタ204の間のリード線205は柔軟であるため、コネクタ203の位置と姿勢は定まらない。   Next, the operation of the robot system according to the present invention will be described. In the present embodiment, the workpiece 109 handled by the double-arm robot is a cable having connectors 203 and 204 at both ends of the plurality of lead wires 205 shown in FIG. FIG. 2A shows a state in which the left gripper 106 is holding the connector 204 by holding the workpiece connector 204 whose position is fixed by a jig on the table or a supply device as previously taught. Show. The position of the other connector 203 connected by the lead wire 205 is not fixed. Since the lead wire 205 between the connector 203 and the connector 204 is flexible, the position and posture of the connector 203 are not determined.

図3は動作プログラムの例であり、図4は動作プログラム再生時の計測動作のフローチャートである。図3のJOBでは、#011の行でロボット手首に取り付けたレーザセンサを計測開始位置へ移動し、#012の行で一定周期でセンサによる計測を行いながら計測終了位置へ移動し、ワークの位置姿勢を計算し、#013の行で結果の位置姿勢へエンドエフェクタを移動する動作を表している。計測範囲は、図2(b)に示すように、スキャン角度206とスキャン距離207からなるスキャン条件118によって決定する。教示位置303にはロボットの各関節位置が記録されており、位置変数306にはロボット座標系上のツール位置姿勢がX,Y,Z,Roll,Pitch,Yawの座標で入る。   FIG. 3 is an example of the operation program, and FIG. 4 is a flowchart of the measurement operation when reproducing the operation program. In the JOB of FIG. 3, the laser sensor attached to the robot wrist is moved to the measurement start position in the # 011 line, and is moved to the measurement end position while performing measurement by the sensor at a fixed period in the # 012 line. The posture is calculated, and the operation of moving the end effector to the resulting position and posture is represented by the row # 013. As shown in FIG. 2B, the measurement range is determined by a scan condition 118 including a scan angle 206 and a scan distance 207. The joint position of the robot is recorded in the teaching position 303, and the tool position and orientation on the robot coordinate system is entered in the position variable 306 in the coordinates of X, Y, Z, Roll, Pitch, and Yaw.

本発明に係るロボットシステムの動作を、図4に基づいて説明する。図4は図3の#012の計測コマンド305を実施中の、ロボット制御装置の処理と、HMIの処理を表すフローチャートである。
はじめに、ロボット制御装置で計測コマンド(MOVSENS)を実行すると、センサへ定周期でトリガをかけながら、センサをロボットの動作によって移動し、3次元の計測データを得て(S401)、計測データをHMIへ送信し(S402)、位置姿勢を計算する(S403)。HMIでは、計測データを受信し(S408)、計測データであると判断し(S409)、3次元のイメージで表示する(S410)。図5は3次元表示の例である。
The operation of the robot system according to the present invention will be described with reference to FIG. FIG. 4 is a flowchart showing the process of the robot controller and the HMI process when the measurement command 305 # 012 of FIG. 3 is being executed.
First, when a measurement command (MOVSENS) is executed by the robot controller, the sensor is moved by the operation of the robot while triggering the sensor at a fixed period, and three-dimensional measurement data is obtained (S401). (S402) and the position and orientation are calculated (S403). The HMI receives measurement data (S408), determines that the measurement data is measurement data (S409), and displays it as a three-dimensional image (S410). FIG. 5 shows an example of three-dimensional display.

次に、ロボット制御装置でワークの位置姿勢の検出に成功したならば計測コマンド(MOVSENS)を終了する。また、検出に失敗したならば、人による判断の要求をHMIへ送信する。HMIでは、人による判断の要求を受信したことを判断し(S411)、人による画面操作を行い(S412)、人によって変更された計測位置をロボット制御装置へ送信する(S413)。ロボット制御装置では、人によって変更された計測位置を受信し(S406)、計測位置へ移動し(S407)、再度計測を行う(S401へ戻る)。   Next, if the robot controller successfully detects the position and orientation of the workpiece, the measurement command (MOVSENS) is terminated. If the detection fails, a request for judgment by a person is transmitted to the HMI. In the HMI, it is determined that a request for determination by a person has been received (S411), a screen operation by the person is performed (S412), and the measurement position changed by the person is transmitted to the robot controller (S413). The robot control apparatus receives the measurement position changed by a person (S406), moves to the measurement position (S407), and performs measurement again (returns to S401).

図5はHMIの例であり、3次元イメージ502は、表示回転ボタン503を押してから、3次元イメージの画面上でマウスカーソルを移動すると、イメージが回転する。また、表示並進ボタン504を押してから、3次元イメージの画面上でマウスカーソルを移動すると、イメージが並進移動する。計測範囲変更ボタン505の動作を次に述べる。   FIG. 5 shows an example of the HMI. The 3D image 502 is rotated when the mouse cursor is moved on the 3D image screen after the display rotation button 503 is pressed. Further, when the display translation button 504 is pressed and then the mouse cursor is moved on the screen of the three-dimensional image, the image is translated. The operation of the measurement range change button 505 will be described next.

図6は本実施形態における計測範囲変更のための画面操作の例を示している。図6(a)は計測範囲に計測対象のワークであるコネクタ全体が入っている場合であり、計測範囲の変更は必要ない。
図6(b)は計測範囲にコネクタの角のみが入っている場合であり、データ不足のため自動的に正確な位置姿勢を計算することができない。このときの操作は、まず、表示回転と表示並進の操作により、図5のような表示から図6のように計測範囲正面から見た像にする。次に、計測範囲変更ボタン505を押すと、3次元イメージの画面上に直方体が表示され、画面上でマウスカーソルにより直方体を触って移動すると直方体が移動する。ここで表示回転ボタンあるいは表示並進ボタンを押すと、直方体の位置姿勢を変更できる。コネクタの一部しかない計測データに直方体を合わせたところで、OKボタン506を押すと、指定した直方***置を中心として、変更された計測位置が決定され、変更された計測位置がロボット制御装置へ送信される。
FIG. 6 shows an example of the screen operation for changing the measurement range in the present embodiment. FIG. 6A shows a case where the entire connector, which is a workpiece to be measured, is included in the measurement range, and it is not necessary to change the measurement range.
FIG. 6B shows a case where only the corner of the connector is in the measurement range, and an accurate position and orientation cannot be automatically calculated due to lack of data. The operation at this time is first made from the display as shown in FIG. 5 to the image viewed from the front of the measurement range as shown in FIG. 6 by the operations of display rotation and display translation. Next, when the measurement range change button 505 is pressed, a rectangular parallelepiped is displayed on the screen of the three-dimensional image. When the rectangular parallelepiped is moved by touching the rectangular parallelepiped with the mouse cursor on the screen, the rectangular parallelepiped moves. When the display rotation button or the display translation button is pressed here, the position and orientation of the rectangular parallelepiped can be changed. When the rectangular parallelepiped is aligned with measurement data that has only a part of the connector and the OK button 506 is pressed, the changed measurement position is determined around the specified rectangular parallelepiped position, and the changed measurement position is transmitted to the robot controller. Is done.

図6(c)は計測範囲にコネクタがほとんど入っておらず、コネクタ周辺のリード線部分が入っている場合であり、対象外のデータであるため自動的に正確な位置姿勢を計算することができない。このときの操作も、前記図6(b)の場合の操作と同じ手順で行う。   FIG. 6C shows a case where the connector is hardly included in the measurement range and the lead wire portion around the connector is included, and since it is out of the target data, an accurate position and orientation can be automatically calculated. Can not. The operation at this time is also performed in the same procedure as the operation in the case of FIG.

このように、自動的に正確な位置姿勢を計算できないときに、HMIでの操作が有効となり、たとえデータ不足であっても、人が見ればどこに対象のワークがあるかわかる場合に、人が画面上の操作で計測範囲の変更を行うことで、再計測を実行することができ、組み立て工程を継続できるので、途中まで組み立てたワークを計測の失敗によって破棄する無駄を少なくすることができるのである。また、計測範囲の移動を直方体の位置姿勢の操作として実行することで、直感的にわかりやすい操作で計測範囲を変更することができる。
[実施形態2]
In this way, when the accurate position and orientation cannot be calculated automatically, the operation with the HMI becomes effective, and even if there is a lack of data, if the person knows where the target work is located, By changing the measurement range by operating on the screen, re-measurement can be performed and the assembly process can be continued, so it is possible to reduce the waste of discarding workpieces assembled halfway due to measurement failure is there. Moreover, by executing the movement of the measurement range as an operation of the position and orientation of the rectangular parallelepiped, the measurement range can be changed with an intuitive and easy-to-understand operation.
[Embodiment 2]

ロボットシステムの構成については、図1に示したものと同一であるので、その説明は省略する。
図7は本実施形態における計測範囲変更のための画面操作の例を示している。図7(a)は計測範囲に計測対象のワークであるコネクタ全体が入っている場合であり、計測範囲の変更は必要ない。
The configuration of the robot system is the same as that shown in FIG.
FIG. 7 shows an example of a screen operation for changing the measurement range in the present embodiment. FIG. 7A shows a case where the entire connector, which is a workpiece to be measured, is included in the measurement range, and it is not necessary to change the measurement range.

図7(b)は計測範囲にコネクタの角のみが入っている場合であり、データ不足のため自動的に正確な位置姿勢を計算することができない。このときの操作は、まず、表示回転と表示並進の操作により、図5のような表示から図6のように計測範囲正面から見た像にする。次に、計測範囲変更ボタン505を押して、計測範囲の縁の任意の位置を画面上でマウスカーソルにより触ると計測範囲の枠が表示され、マウスカーソルを移動すると計測範囲の枠が移動する。コネクタ全体が入るように計測範囲を移動したところで、OKボタン506を押すと、指定した位置に変更された計測位置が決定され、変更された計測位置がロボット制御装置へ送信される。   FIG. 7B shows a case where only the corner of the connector is in the measurement range, and an accurate position and orientation cannot be automatically calculated due to lack of data. The operation at this time is first made from the display as shown in FIG. 5 to the image viewed from the front of the measurement range as shown in FIG. 6 by the operations of display rotation and display translation. Next, when the measurement range change button 505 is pressed and an arbitrary position of the edge of the measurement range is touched with the mouse cursor on the screen, the frame of the measurement range is displayed, and when the mouse cursor is moved, the frame of the measurement range is moved. When the OK button 506 is pressed when the measurement range is moved so that the entire connector is inserted, the measurement position changed to the designated position is determined, and the changed measurement position is transmitted to the robot controller.

図7(c)は計測範囲にコネクタがほとんど入っておらず、コネクタ周辺のリード線部分が入っている場合であり、対象外のデータであるため自動的に正確な位置姿勢を計算することができない。このときの操作も、前記図7(b)の場合の操作と同じ手順で行う。   FIG. 7C shows the case where the connector is hardly included in the measurement range and the lead wire portion around the connector is included, and since it is out of the target data, the accurate position and orientation can be automatically calculated. Can not. The operation at this time is also performed in the same procedure as the operation in the case of FIG.

このように、計測範囲の移動を直接画面上のイメージの操作として実行することで、直感的にわかりやすい操作で計測範囲を変更することができるのである。   As described above, by directly moving the measurement range as an image operation on the screen, it is possible to change the measurement range with an intuitive and easy-to-understand operation.

101 ロボット
102 制御装置
103 教示装置
103A キー
103B ディスプレイ
104 左アーム
105 右アーム
106 左グリッパ(エンドエフェクタ)
107 右グリッパ(エンドエフェクタ)
108 ワーク形状計測センサ
109 ワーク
110 動作プログラム解析部
111 指令生成部
112 サーボ制御部
113 教示データ記憶部
114 計測部
115 位置姿勢検出部
116 不揮発性メモリ
117 動作プログラム(JOB)
118 スキャン条件
119 計測データ
120 現在位置
121 教示位置
122 修正量
123 表示用パソコン
124 ヒューマンマシンインタフェース(HMI)
125 計測位置修正量
201 グリッパ座標系
202 センサ座標系
203 コネクタ
204 コネクタ(左グリッパ把持)
205 コネクタ間リード線
206 スキャン角度
207 スキャン距離
301 動作プログラム表示画面
302 動作プログラム
303 教示位置データ
304 移動コマンド
305 計測コマンド
306 位置変数
307 移動速度
501 計測データ表示画面
502 計測データの3次元イメージ
503 表示回転ボタン
504 表示並進ボタン
505 計測範囲変更ボタン
506 OKボタン
507 キャンセルボタン
601 直方体
701 変更した計測範囲
101 Robot 102 Control Device 103 Teaching Device 103A Key 103B Display 104 Left Arm 105 Right Arm 106 Left Gripper (End Effector)
107 Right gripper (end effector)
108 Work shape measurement sensor 109 Work 110 Operation program analysis unit 111 Command generation unit 112 Servo control unit 113 Teaching data storage unit 114 Measurement unit 115 Position / orientation detection unit 116 Non-volatile memory 117 Operation program (JOB)
118 Scan Condition 119 Measurement Data 120 Current Position 121 Teaching Position 122 Correction Amount 123 Display Personal Computer 124 Human Machine Interface (HMI)
125 Measurement position correction amount 201 Gripper coordinate system 202 Sensor coordinate system 203 Connector 204 Connector (Left gripper gripping)
205 Lead wire 206 between connectors 206 Scan angle 207 Scan distance 301 Operation program display screen 302 Operation program 303 Teaching position data 304 Movement command 305 Measurement command 306 Position variable 307 Movement speed 501 Measurement data display screen 502 Three-dimensional image 503 of measurement data Display rotation Button 504 display translation button 505 measurement range change button 506 OK button 507 cancel button 601 rectangular parallelepiped 701 changed measurement range

Claims (3)

ロボットと、
前記ロボットに取り付けられワークを把持するエンドエフェクタと、
前記ワークの形状計測センサと、
入力装置を有し前記ロボットの動作を制御する制御装置と、を有し、
前記制御装置は、
あらかじめ決められた範囲を計測範囲として、ワークを形状計測センサにより計測させ、
計測範囲にワークの全体像が入っていない場合には、計測範囲を変えて再計測し、ワークの位置姿勢を決定し、前記ワークの位置姿勢へ前記エンドエフェクタを移動させてワークを把持し、
前記再計測は、、前記入力装置から入力された計測データに基づいて、計測範囲を変えて実行する
ことを特徴とするロボット装置。
With robots,
An end effector attached to the robot and gripping a workpiece;
A workpiece shape measuring sensor;
A control device that has an input device and controls the operation of the robot,
The controller is
With a predetermined range as the measurement range, the workpiece is measured by the shape measurement sensor,
If the whole area of the workpiece is not in the measurement range, change the measurement range and re-measure, determine the position and orientation of the workpiece, move the end effector to the position and orientation of the workpiece, hold the workpiece,
The robot apparatus is characterized in that the re-measurement is executed by changing a measurement range based on measurement data input from the input device.
前記入力装置は、
画面表示装置を有し、前記画面表示装置のグラフィック画面に表示された直方体を移動させて、計測データと直方体を合わせることで再計測の計測位置を指示する
ことを特徴とする請求項1記載のロボット装置。
The input device is:
2. The display device according to claim 1, further comprising: a screen display device, wherein a rectangular parallelepiped displayed on the graphic screen of the screen display device is moved, and the measurement position for remeasurement is indicated by combining the measurement data and the rectangular parallelepiped. Robot device.
前記入力装置は、
画面表示装置を有し、前記画面表示装置のグラフィック画面に表示された計測範囲を移動させることで、再計測の計測位置を指示する
ことを特徴とする請求項1記載のロボット装置。
The input device is:
The robot apparatus according to claim 1, further comprising a screen display device, wherein a measurement position for remeasurement is indicated by moving a measurement range displayed on a graphic screen of the screen display device.
JP2009240754A 2009-10-19 2009-10-19 Robot device Pending JP2011083883A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009240754A JP2011083883A (en) 2009-10-19 2009-10-19 Robot device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009240754A JP2011083883A (en) 2009-10-19 2009-10-19 Robot device

Publications (1)

Publication Number Publication Date
JP2011083883A true JP2011083883A (en) 2011-04-28

Family

ID=44077218

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009240754A Pending JP2011083883A (en) 2009-10-19 2009-10-19 Robot device

Country Status (1)

Country Link
JP (1) JP2011083883A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014180708A (en) * 2013-03-18 2014-09-29 Yaskawa Electric Corp Robot system and method for manufacturing workpiece
WO2018072208A1 (en) * 2016-10-21 2018-04-26 Abb Schweiz Ag Method, electronic device and system of picking an object from a container
JPWO2021199730A1 (en) * 2020-03-31 2021-10-07
US20220009547A1 (en) * 2018-11-20 2022-01-13 Jtekt Corporation Steering device and motor control method for steering device
CN118205018A (en) * 2024-05-22 2024-06-18 四川吉埃智能科技有限公司 Automatic assembly system for water pressure test of coiled pipe robot based on vision

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014180708A (en) * 2013-03-18 2014-09-29 Yaskawa Electric Corp Robot system and method for manufacturing workpiece
WO2018072208A1 (en) * 2016-10-21 2018-04-26 Abb Schweiz Ag Method, electronic device and system of picking an object from a container
US20220009547A1 (en) * 2018-11-20 2022-01-13 Jtekt Corporation Steering device and motor control method for steering device
JPWO2021199730A1 (en) * 2020-03-31 2021-10-07
WO2021199730A1 (en) * 2020-03-31 2021-10-07 パイオニア株式会社 Information processing device, computer program, recording medium, and display data creation method
CN118205018A (en) * 2024-05-22 2024-06-18 四川吉埃智能科技有限公司 Automatic assembly system for water pressure test of coiled pipe robot based on vision

Similar Documents

Publication Publication Date Title
JP6420229B2 (en) A robot system including a video display device that superimposes and displays an image of a virtual object on a video of a robot
JP7490349B2 (en) Input device, control method for input device, robot system, method for manufacturing article using robot system, control program and recording medium
JP4167940B2 (en) Robot system
JP5850958B2 (en) Robot programming device for creating a robot program for imaging a workpiece
JP5815761B2 (en) Visual sensor data creation system and detection simulation system
JP4763074B2 (en) Measuring device and measuring method of position of tool tip of robot
US20150273689A1 (en) Robot control device, robot, robotic system, teaching method, and program
KR20180038479A (en) Robot system
JP6445092B2 (en) Robot system displaying information for teaching robots
JP2018167334A (en) Teaching device and teaching method
JP2016187846A (en) Robot, robot controller and robot system
JP2013049102A (en) Robot control device and method of determining robot attitude
JP2011083883A (en) Robot device
JP5556552B2 (en) Robot control device, robot, and teaching method of robot control device
JP2023024890A (en) Control device capable of receiving direct teaching operation, teaching device and computer program of control device
CN114055460B (en) Teaching method and robot system
CN115338855A (en) Double-arm robot assembling system
JP6457587B2 (en) Robot teaching device for setting teaching points based on workpiece video
TW202218836A (en) Robot control device, and robot system
JP2010162630A (en) Imaging method, and method and apparatus for picking
JP4613752B2 (en) Robot and robot information display method
WO2024009484A1 (en) Control device and control method
JP7195476B1 (en) WORK PROGRAM CREATION SYSTEM AND WORK PROGRAM CREATION METHOD
JP2018158429A (en) Robot system
JPH10264066A (en) Robot controller