JP7326082B2 - Control device for cargo handling equipment and cargo handling equipment - Google Patents

Control device for cargo handling equipment and cargo handling equipment Download PDF

Info

Publication number
JP7326082B2
JP7326082B2 JP2019169119A JP2019169119A JP7326082B2 JP 7326082 B2 JP7326082 B2 JP 7326082B2 JP 2019169119 A JP2019169119 A JP 2019169119A JP 2019169119 A JP2019169119 A JP 2019169119A JP 7326082 B2 JP7326082 B2 JP 7326082B2
Authority
JP
Japan
Prior art keywords
robot
processor
coordinate system
side jig
receiving portion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019169119A
Other languages
Japanese (ja)
Other versions
JP2021045813A (en
Inventor
香菜 関口
賢一 下山
盛男 二本松
彰久 森屋
哲也 増田
淳 松村
浩二 江原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Toshiba Infrastructure Systems and Solutions Corp
Original Assignee
Toshiba Corp
Toshiba Infrastructure Systems and Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Infrastructure Systems and Solutions Corp filed Critical Toshiba Corp
Priority to JP2019169119A priority Critical patent/JP7326082B2/en
Publication of JP2021045813A publication Critical patent/JP2021045813A/en
Application granted granted Critical
Publication of JP7326082B2 publication Critical patent/JP7326082B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Manipulator (AREA)

Description

本発明の実施形態は、荷役装置の制御装置、及び、荷役装置に関する。 TECHNICAL FIELD Embodiments of the present invention relate to a control device for a cargo handling device and a cargo handling device.

荷役装置におけるロボットの座標系の較正(キャリブレーション)を実施する場合、従来から、ティーチングペンダントを操作し、例えばロボットのハンドを較正に適した位置に移動させて実施している。 When calibrating the coordinate system of a robot in a cargo handling apparatus, conventionally, a teaching pendant is operated to move, for example, a hand of the robot to a position suitable for calibration.

特開平8-171410号公報JP-A-8-171410

ティーチングペンダントを用いて操作者がハンドを動かすため、較正の精度にバラつきが生じやすい。 Since the operator uses the teaching pendant to move the hand, the accuracy of calibration tends to vary.

本発明が解決しようとする課題は、較正の精度のバラつきを抑制可能な荷役装置の制御装置、及び、荷役装置を提供することである。 A problem to be solved by the present invention is to provide a control device for a cargo handling device and a cargo handling device capable of suppressing variations in calibration accuracy.

実施形態による荷役装置の制御装置は、実施形態による荷役装置の制御装置は、対象物である荷物を荷役するロボットの動作を制御するプロセッサと、プロセッサにより制御され、ロボットと通信するインターフェースとを備える。プロセッサは、ロボットを制御し、3次元仮想モデル空間の座標系に基づいて、実空間におけるロボットにより移動させるロボット側治具を実空間の座標系の座標が規定される第1受部に向けて移動させて接触させ、3次元仮想モデル空間の座標系に基づいてロボット側治具を第1受部の所定位置に接触させる際に得る、ロボット側治具の座標と第1受部の座標との第1の差異情報をインターフェースを介して取得し、第1の差異情報に基づいて、3次元仮想モデル空間の座標系を較正する。 A control device for a cargo handling device according to an embodiment includes a processor that controls the operation of a robot that handles cargo that is an object, and an interface that is controlled by the processor and communicates with the robot. . The processor controls the robot and directs the robot-side jig to be moved by the robot in the real space based on the coordinate system of the three-dimensional virtual model space toward the first receiving portion where the coordinates of the coordinate system of the real space are defined. The coordinates of the robot-side jig and the coordinates of the first receiving portion obtained when the robot-side jig is brought into contact with the predetermined position of the first receiving portion based on the coordinate system of the three-dimensional virtual model space. through an interface, and calibrate the coordinate system of the three-dimensional virtual model space based on the first difference information.

図1は、第1実施形態に係る荷役装置を示す概略図である。FIG. 1 is a schematic diagram showing a cargo handling apparatus according to the first embodiment. 図2は、図1に示す荷役装置を示す概略的なブロック図である。2 is a schematic block diagram showing the material handling apparatus shown in FIG. 1. FIG. 図3は、図1に示すハンドに取り付けられるロボット側治具を示す概略的な斜視図である。3 is a schematic perspective view showing a robot-side jig attached to the hand shown in FIG. 1. FIG. 図4は、図1に示す荷物ケースの4つの角部にそれぞれ取り付けた、受治具を示す概略的な斜視図である。4 is a schematic perspective view showing a receiving jig attached to each of four corners of the luggage case shown in FIG. 1; FIG. 図5は、図4に示す受治具に対して図3に示すロボット側治具を嵌合させようとする状態を示す概略図である。FIG. 5 is a schematic diagram showing a state in which the robot-side jig shown in FIG. 3 is to be fitted to the receiving jig shown in FIG. 図6は、荷役装置の処理を示す概略的なフローチャートである。FIG. 6 is a schematic flow chart showing the processing of the material handling equipment. 図7は、図6中の座標系の差異を検査する手法を示す概略的なフローチャートである。FIG. 7 is a schematic flow chart showing a technique for inspecting differences in the coordinate systems in FIG. 図8は、第2実施形態に係る荷役装置を示す概略図である。FIG. 8 is a schematic diagram showing a cargo handling device according to the second embodiment. 図9は、第3実施形態に係る荷役装置を示す概略図である。FIG. 9 is a schematic diagram showing a cargo handling device according to the third embodiment.

以下、図面を参照しながら荷役装置10について説明する。図面は模式的または概念的なものである。 The cargo handling apparatus 10 will be described below with reference to the drawings. The drawings are schematic or conceptual.

[第1実施形態]
図1から図7を用いて第1実施形態に係る荷役装置10について説明する。
[First embodiment]
A material handling apparatus 10 according to a first embodiment will be described with reference to FIGS. 1 to 7. FIG.

図1及び図2に示すように、本実施形態に係る荷役装置10は、対象物である荷物を荷役するロボット12と、ロボット12の動作を制御する制御装置(ロボットコントローラ)14と、コンベヤ16と、コンベヤ16に載置され搬送される荷物ケース18と、カメラ(イメージセンサー)20とを有する。 As shown in FIGS. 1 and 2, the cargo handling apparatus 10 according to the present embodiment includes a robot 12 that handles cargo as an object, a control device (robot controller) 14 that controls the operation of the robot 12, and a conveyor 16. , a luggage case 18 that is placed and transported on a conveyor 16 , and a camera (image sensor) 20 .

図1に示すように、ロボット12は、コンベヤ16の側方に配置されている。カメラ20は、コンベヤ16の上方に配置されている。 As shown in FIG. 1, robot 12 is positioned to the side of conveyor 16 . A camera 20 is positioned above the conveyor 16 .

制御装置14の一例は、例えばPCである。図2に示す制御装置14は、本実施形態では、ロボット12、コンベヤ16、及び、カメラ20を制御する。制御装置14は、有線でロボット12、コンベヤ16、及び、カメラ20に接続されていてもよく、無線で接続されていてもよい。 An example of the control device 14 is, for example, a PC. Controller 14, shown in FIG. 2, controls robot 12, conveyor 16, and camera 20 in this embodiment. The controller 14 may be wired or wirelessly connected to the robot 12, conveyor 16, and camera 20. FIG.

例えば制御装置14は、ロボット12の専用の制御装置であってもよい。この場合、例えばコンベヤ16及びカメラ20の制御装置は、ロボット12の制御装置14とは別のものを用いる。この場合も、荷役装置10の稼働中、ロボット12の制御装置14と、コンベヤ16及びカメラ20の制御装置とが有線/無線の通信により、互いに情報を送受信し続ける。 For example, controller 14 may be a dedicated controller for robot 12 . In this case, for example, the conveyor 16 and camera 20 control devices are different from the control device 14 of the robot 12 . In this case as well, while the cargo handling apparatus 10 is in operation, the control device 14 of the robot 12 and the control devices of the conveyor 16 and camera 20 continue to transmit and receive information to each other through wired/wireless communication.

図1に示すように、荷物ケース18は、本実施形態では略直方体状の適宜の大きさの箱型である。コンベヤ16は、適宜の荷物Bを入れた荷物ケース18を所定の方向に搬送する。コンベヤ16は、ベルトコンベア、ローラコンベア等、種々のものを用いる。制御装置14は、コンベヤ16の搬送速度を一定としても、可変としてもよい。 As shown in FIG. 1, the luggage case 18 in this embodiment is a substantially rectangular parallelepiped box of appropriate size. A conveyor 16 conveys a package case 18 containing appropriate packages B in a predetermined direction. Various conveyors such as a belt conveyor and a roller conveyor are used as the conveyor 16 . The controller 14 may set the conveying speed of the conveyor 16 constant or variable.

図1及び図2に示すカメラ20は、制御装置14による制御により、コンベヤ16及び荷物ケース18の荷物Bを撮像する。制御装置14は、カメラ20で撮像した画像情報に基づいて、荷物ケース18及び荷物Bの位置、大きさ、及び、形状を認識する。 The camera 20 shown in FIGS. 1 and 2 takes an image of the cargo B on the conveyor 16 and the cargo case 18 under the control of the control device 14 . The control device 14 recognizes the positions, sizes, and shapes of the luggage case 18 and the luggage B based on the image information captured by the camera 20 .

ロボット12に係る演算は、制御装置14で行う。制御装置14は、ロボット12と制御信号を送受信する。 Calculations related to the robot 12 are performed by the control device 14 . The controller 14 transmits and receives control signals to and from the robot 12 .

図1に示すように、ロボット12は、基台32と、基台32から上方に延びる多関節アーム(ロボット12の可動部)34とを有する。基台32は、例えば工場などの床面に対する移動が防止されるように、床面に支持又は固定されている。多関節アーム34は、その先端にハンド36を有する。このため、本実施形態では、ハンド36はアーム34の一部である。ロボット12の形態は、ピッキング動作を行う垂直多関節型ロボットであっても、別のものであってもよい。 As shown in FIG. 1 , the robot 12 has a base 32 and a multi-joint arm (a movable portion of the robot 12 ) 34 extending upward from the base 32 . The base 32 is supported or fixed to the floor of a factory or the like so as to be prevented from moving relative to the floor. The articulated arm 34 has a hand 36 at its tip. Therefore, the hand 36 is a part of the arm 34 in this embodiment. The form of the robot 12 may be a vertically articulated robot that performs picking motions or otherwise.

ロボット12は、床面に支持又は固定されるほか、天井又は適宜のフレーム等から吊り下げられていてもよい。 The robot 12 may be supported or fixed on the floor surface, or may be suspended from the ceiling, an appropriate frame, or the like.

図1及び図2に示すロボット12のアーム34は、制御装置14からの信号に基づいて、コンベヤ16及びカメラ20と連動して動作する。ハンド36も、制御装置14からの信号に基づいて、コンベヤ16及びカメラ20と連動して動作する。 Arm 34 of robot 12 shown in FIGS. 1 and 2 operates in conjunction with conveyor 16 and camera 20 based on signals from controller 14 . The hand 36 also operates in conjunction with the conveyor 16 and camera 20 based on signals from the control device 14 .

制御装置14は、例えばコンベヤ16に載置され運ばれる荷物ケース18の画像情報をカメラ20を通して取得し、信号処理により認識し、認識結果に基づいて、ロボット12を動かす。制御装置14は、荷物ケース18に入れられた荷物Bをピッキングし、例えば荷物ケース18とは異なる所望の位置に載置する。 The control device 14 acquires image information of, for example, the luggage case 18 placed and carried on the conveyor 16 through the camera 20, recognizes it by signal processing, and moves the robot 12 based on the recognition result. The control device 14 picks up the luggage B placed in the luggage case 18 and places it at a desired position different from the luggage case 18, for example.

図1及び図2に示すように、荷役装置10は、ロボット側治具(較正用の可動マーカ)50と、複数の受治具(較正用の規定マーカ)52,54,56,58とを有する。ここでは荷役装置10が4つの受治具52,54,56,58を有する例について説明する。受治具の数は、複数であることが好適である。使用する受治具の数が多ければ多いほど、後述する較正の精度を上げることができる。 As shown in FIGS. 1 and 2, the cargo handling apparatus 10 includes a robot-side jig (calibration movable marker) 50 and a plurality of receiving jigs (calibration prescribed markers) 52, 54, 56, 58. have. Here, an example in which the cargo handling apparatus 10 has four receiving jigs 52, 54, 56, 58 will be described. It is preferable that the number of receiving jigs is plural. The greater the number of fixtures used, the more accurate the calibration described below.

ロボット側治具50は、例えばハンド36に固定される。図3に示すように、ロボット側治具50は、ハンド36に取り付けられる取付治具62と、取付治具62に固定又は一体化された例えば凸状の嵌合部64とを有する。ロボット側治具50の取付治具62は、ハンド36に対して例えばネジの締結により固定される。ハンド36を構成する部品自体にロボット側治具50が形成されていてもよい。凸状の嵌合部64は、本実施形態では円錐状である。嵌合部64は、円錐のほか、円錐台、四角錐などの多角錐、四角錐台などの多角錐台等、適宜の凸状に形成される。 The robot-side jig 50 is fixed to the hand 36, for example. As shown in FIG. 3 , the robot-side jig 50 has an attachment jig 62 attached to the hand 36 and, for example, a convex fitting portion 64 fixed or integrated with the attachment jig 62 . The attachment jig 62 of the robot-side jig 50 is fixed to the hand 36 by screwing, for example. The robot-side jig 50 may be formed on the part itself that constitutes the hand 36 . The convex fitting portion 64 is conical in this embodiment. The fitting portion 64 is formed in an appropriate convex shape such as a cone, a truncated cone, a polygonal pyramid such as a quadrangular pyramid, or a polygonal truncated pyramid such as a quadrangular truncated pyramid.

図4には、受治具(受部)52,54,56,58のうち第1受治具52を代表して示す。図1に示すように、受治具52,54,56,58は、例えば、荷物ケース18の上端18aの4つの角部22,24,26,28にそれぞれ固定される。図4に示すように、受治具52は、取付治具72と、取付治具72の上側に固定又は一体化された凹状の嵌合部74とを有する。取付治具72はそれぞれ略L字状の溝を有し、荷物ケース18の上端18aの各角部22,24,26,28にそれぞれ固定される。凹状の嵌合部74は、本実施形態では円錐状にくり抜かれた形状を持つ。受治具54,56,58は、受治具52と同じ形状及び大きさに形成されている。嵌合部74は、円錐のほか、円錐台、四角錐などの多角錐、四角錐台などの多角錐台等、ロボット側治具50の凸状の嵌合部64が嵌合可能な適宜の凹状に形成される。 FIG. 4 shows the first receiving jig 52 out of the receiving jigs (receiving portions) 52, 54, 56, 58 as a representative. As shown in FIG. 1, the receiving jigs 52, 54, 56, 58 are fixed to the four corners 22, 24, 26, 28 of the upper end 18a of the luggage case 18, respectively. As shown in FIG. 4 , the receiving jig 52 has a mounting jig 72 and a concave fitting portion 74 fixed or integrated with the upper side of the mounting jig 72 . The mounting jigs 72 each have a substantially L-shaped groove and are fixed to the corners 22, 24, 26, 28 of the upper end 18a of the luggage case 18, respectively. The recessed fitting portion 74 has a conically hollowed shape in this embodiment. The receiving jigs 54 , 56 , 58 are formed in the same shape and size as the receiving jig 52 . The fitting portion 74 may be a cone, a truncated cone, a polygonal pyramid such as a quadrangular pyramid, or a truncated polygonal pyramid such as a truncated square pyramid. It is formed concavely.

ロボット側治具50の凸状の嵌合部64の傾斜面は、受治具52,54,56,58の凹状の嵌合部74の傾斜面に接触可能に形成されている。このため、図5に示すように、受治具52,54,56,58に対してロボット側治具50が嵌合され得る。ロボット側治具50と受治具52とが嵌合した状態のとき、ロボット側治具50及び受治具52の位置が同一であり、実空間の座標系の座標が同一である、とする。 The inclined surfaces of the convex fitting portion 64 of the robot-side jig 50 are formed so as to be able to contact the inclined surfaces of the concave fitting portions 74 of the receiving jigs 52 , 54 , 56 , 58 . Therefore, as shown in FIG. 5, the robot-side jig 50 can be fitted to the receiving jigs 52, 54, 56, 58. As shown in FIG. Assume that when the robot-side jig 50 and the receiving jig 52 are in a fitted state, the positions of the robot-side jig 50 and the receiving jig 52 are the same, and the coordinates of the real space coordinate system are the same. .

ロボット側治具50が凸状の嵌合部64を有する代わりに、凹状の嵌合部を有し、受治具52,54,56,58が凹状の嵌合部74を有する代わりに、凸状の嵌合部を有してもよい。 The robot-side jig 50 has a concave fitting portion instead of having the convex fitting portion 64, and the receiving jigs 52, 54, 56, and 58 have convex fitting portions instead of having the concave fitting portion 74. You may have a fitting part of shape.

荷物ケース18の上端18aの4つの角部22,24,26,28に載置された受治具52,54,56,58は、カメラ20で荷物ケース18をコンベヤ16の上方から撮影した際に、荷物ケース18を認識するための特徴点となり得る。 The jigs 52, 54, 56, and 58 placed on the four corners 22, 24, 26, and 28 of the upper end 18a of the luggage case 18 can be seen when the camera 20 photographs the luggage case 18 from above the conveyor 16. In addition, it can be a feature point for recognizing the luggage case 18 .

図2に示すように、制御装置14は、ロボット12の動作を制御するプロセッサ102と、プロセッサ102に接続されたメモリ104と、複数のインターフェース106とを有する。ここでのメモリ104は、例えばRAM及びROMを含む。メモリ104は、ストレージなどの不揮発性記憶装置を含み得る。 As shown in FIG. 2, the controller 14 has a processor 102 that controls the operation of the robot 12, a memory 104 connected to the processor 102, and a plurality of interfaces 106. As shown in FIG. The memory 104 here includes, for example, RAM and ROM. Memory 104 may include non-volatile storage such as storage.

プロセッサ102には、インターフェース106を介して例えばストレージ112が接続されている。プロセッサ102は、それぞれインターフェース106を介して、プロセッサ102に各種の信号の入力を行う入力部122と、プロセッサ102からの信号に基づいて各種の情報を表示する表示部124とを有する。入力部122及び表示部124は、例えばタッチパネル126等を用いることで、一体化し得る。タッチパネル126と、制御装置14とは一体化し得る。 For example, a storage 112 is connected to the processor 102 via an interface 106 . The processor 102 has an input section 122 for inputting various signals to the processor 102 via the interface 106 and a display section 124 for displaying various information based on the signal from the processor 102 . The input unit 122 and the display unit 124 can be integrated by using the touch panel 126 or the like, for example. Touch panel 126 and controller 14 may be integrated.

プロセッサ102は、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、GPU(Graphics Processing Unit)などで構成される。制御装置14は、複数のプロセッサ102を有していてもよい。すなわち、制御装置14は、1又は複数のプロセッサ102を有し得る。本実施形態では、プロセッサ102は、図2に示すように、CPUを用いるものとして説明する。
プロセッサ102は、CPUの代わりに、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)、FPGA(Field Programmable Gate Array)のいずれか、又は、これらの組み合わせで構成されていてもよい。
The processor 102 includes a CPU (Central Processing Unit), MPU (Micro Processing Unit), GPU (Graphics Processing Unit), and the like. The controller 14 may have multiple processors 102 . That is, controller 14 may have one or more processors 102 . In this embodiment, the processor 102 will be described as using a CPU as shown in FIG.
The processor 102 may be composed of an ASIC (Application Specific Integrated Circuit), a PLD (Programmable Logic Device), an FPGA (Field Programmable Gate Array), or a combination thereof instead of the CPU.

ストレージ112は、例えば、HDD(Hard Disk Drive)、SSD(Solid State Drive)などの不揮発性の記憶装置で構成される。 The storage 112 is, for example, a nonvolatile storage device such as an HDD (Hard Disk Drive) or an SSD (Solid State Drive).

プロセッサ102は、メモリ104及び/又はストレージ112に格納した各種プログラムを読み出して、実行することで、制御対象に応じた制御、及び、各種の処理を実現する。メモリ104及び/又はストレージ112には、基本的な機能を実現するためのシステムプログラムに加えて、制御対象のロボット12に応じて作成されるプログラムが格納されている。 The processor 102 reads various programs stored in the memory 104 and/or the storage 112 and executes them, thereby realizing control and various processes according to the control target. The memory 104 and/or the storage 112 store programs created according to the robot 12 to be controlled, in addition to system programs for realizing basic functions.

インターフェース106は、ロボット12、コンベヤ16、カメラ20、ストレージ112、タッチパネル126等の各要素を有線で接続してもよく、無線で接続してもよい。 The interface 106 may connect each element such as the robot 12, the conveyor 16, the camera 20, the storage 112, the touch panel 126, etc. by wire or wirelessly.

インターフェース106は、プロセッサ102により制御され、ロボット12と通信する。プロセッサ102には、インターフェース106を介して、ロボット12のアーム34が接続される。アーム34は、1又は複数のモータ42を有する。アーム34のハンド36は、さらに、1又は複数のモータ44を有する。ハンド36の先端付近には、力覚センサ46が取り付けられている。力覚センサ46で検知した信号は、プロセッサ102に入力され、処理される。力覚センサ46は、ハンド36を含むアーム34の制御に使用される。これらモータ42,44及び力覚センサ46は、インターフェース106を介してプロセッサ102に接続されている。 Interface 106 is controlled by processor 102 and communicates with robot 12 . An arm 34 of the robot 12 is connected to the processor 102 via an interface 106 . Arm 34 has one or more motors 42 . Hand 36 of arm 34 also includes one or more motors 44 . A force sensor 46 is attached near the tip of the hand 36 . A signal detected by the force sensor 46 is input to the processor 102 and processed. A force sensor 46 is used to control the arm 34 including the hand 36 . These motors 42 , 44 and force sensor 46 are connected to processor 102 via interface 106 .

ロボット12は、例えば、基台32の適宜の位置を、XYZ直交座標系又は極座標系の原点とする。原点の位置は、固定されているものとする。これらの情報は、メモリ104及び/又はストレージ112に格納されている。 The robot 12 uses, for example, an appropriate position of the base 32 as the origin of the XYZ orthogonal coordinate system or the polar coordinate system. It is assumed that the position of the origin is fixed. These pieces of information are stored in memory 104 and/or storage 112 .

ロボット12は、基台32の座標系のほか、ハンド36を含むアーム34の各関節(モータ42,44)に座標系を設定することができる。本実施形態では、これら各関節の座標系をひとまとめにして、3次元仮想モデル空間の座標系と称する。3次元仮想モデル空間は、ロボット12をはじめ、作業対象物、壁、コンベヤ16、カメラ20を含むセンサ、その他障害物など、荷役装置10内に存在する全ての物体が配置され、設計値から求められる仮想的に作成された空間を指す。座標系を含む3次元仮想モデル空間の情報は、メモリ104及び/又はストレージ112に格納されている。 In addition to the coordinate system of the base 32 , the robot 12 can set coordinate systems for each joint (motors 42 and 44 ) of the arm 34 including the hand 36 . In this embodiment, the coordinate systems of these joints are collectively referred to as the coordinate system of the three-dimensional virtual model space. In the three-dimensional virtual model space, all the objects existing in the cargo handling apparatus 10, such as the robot 12, work objects, walls, the conveyor 16, sensors including the camera 20, and other obstacles, are arranged and obtained from the design values. It refers to a virtually created space where Information of the three-dimensional virtual model space including the coordinate system is stored in memory 104 and/or storage 112 .

プロセッサ102は、3次元仮想モデル空間の情報を基に、ロボット12のアーム34を制御する。ロボット12のハンド36を含むアーム34は、プログラムにしたがってプロセッサ102から出力される信号により、3次元仮想モデル空間の座標系に基づいて位置及び姿勢が制御される。 The processor 102 controls the arm 34 of the robot 12 based on the information of the three-dimensional virtual model space. The arm 34 including the hand 36 of the robot 12 is controlled in position and orientation based on the coordinate system of the three-dimensional virtual model space by signals output from the processor 102 according to the program.

ここで、実空間の座標系と、3次元仮想モデル空間の座標系との原点は一致するものとする。ロボット12の各関節における座標系は、床面に対するロボット12の固定位置による誤差、ロボット12の組み立て誤差、その他の要因により、ズレが生じる可能性がある。このため、実空間の座標系及び3次元仮想モデル空間の座標系の原点に対する座標は、ズレが生じる可能性がある。 Here, it is assumed that the origins of the coordinate system of the real space and the coordinate system of the three-dimensional virtual model space are the same. The coordinate system at each joint of the robot 12 may deviate due to an error due to the fixed position of the robot 12 with respect to the floor, assembly error of the robot 12, and other factors. Therefore, there is a possibility that the coordinates with respect to the origin of the coordinate system of the real space and the coordinate system of the three-dimensional virtual model space will deviate.

プロセッサ102は、3次元仮想モデル空間の座標系に関する情報を、較正の実施により更新し得る。プロセッサ102は、3次元仮想モデル空間の座標系に関する情報について、更新前(較正の実施前)の情報、及び、更新後(較正の実施後)の情報の両方をメモリ104及び/又はストレージ112に格納してもよい。プロセッサ102は、3次元仮想モデル空間の座標系に関する情報について、更新後の情報のみをメモリ104及び/又はストレージ112に格納してもよい。 Processor 102 may update information about the coordinate system of the three-dimensional virtual model space by performing calibrations. Processor 102 stores both pre-update (before calibration) and post-update (after calibration) information about the coordinate system of the three-dimensional virtual model space in memory 104 and/or storage 112. may be stored. The processor 102 may store only the updated information in the memory 104 and/or the storage 112 regarding the information about the coordinate system of the 3D virtual model space.

ロボット12は、例えば制御装置14のメモリ104、又は、制御装置14に接続されたストレージ112に格納されたプログラムにしたがって動作する。ハンド36を含むアーム34は、プログラムに基づくプロセッサ102からの信号により、3次元仮想モデル空間の座標系にしたがって、適宜の位置に動かされる。 The robot 12 operates according to programs stored in the memory 104 of the control device 14 or the storage 112 connected to the control device 14, for example. The arm 34 including the hand 36 is moved to an appropriate position according to the coordinate system of the three-dimensional virtual model space by signals from the processor 102 based on the program.

プロセッサ102は、プログラムにしたがって、ロボット12のハンド36を含むアーム34がピッキングの対象である荷物ケース18内の荷物Bとは異なる適宜の物体に当たったこと、ハンド36を用いて荷物ケース18内の荷物Bを掴むことができなかったことなど、ロボット12に対するイベントの発生情報を取得し、メモリ104及び/又はストレージ112に格納する。プロセッサ102は、一定の時間経過を1つのイベントとし、メモリ104及び/又はストレージ112に格納してもよい。プロセッサ102は、プログラムにしたがって、これらのイベント情報に基づいて、較正を実施する。 According to the program, the processor 102 detects that the arm 34 including the hand 36 of the robot 12 has hit an appropriate object different from the package B in the package case 18 to be picked, and detects the object inside the package case 18 using the hand 36 . event occurrence information for the robot 12 , such as the fact that the robot 12 could not pick up the package B, and stores it in the memory 104 and/or the storage 112 . The processor 102 may treat the passage of a certain amount of time as one event and store it in the memory 104 and/or the storage 112 . Processor 102 programmatically performs calibrations based on these event information.

イベント情報は、その他、ロボット12、コンベヤ16、又は、カメラ20の新規設置、ロボット12、コンベヤ16、又は、カメラ20の異常、ロボット12を動かす各種のモータ42,44の異常、さらには、力覚センサ46の異常等がある。 In addition, the event information includes new installation of the robot 12, conveyor 16, or camera 20, abnormality of the robot 12, conveyor 16, or camera 20, abnormality of various motors 42, 44 that move the robot 12, and force There is an abnormality in the sensor 46 or the like.

荷役装置10のロボット12では、所望の設置位置に対して実際の設置位置に誤差が生じる可能性がある。ロボット12は、運用中に例えば振動等が原因で位置ズレが生じる可能性がある。このため、荷役装置10では、ロボット12の制御に係る3次元仮想モデル空間における座標系を、実空間における座標系に一致させる較正を行う必要がある。以後、「較正の実施」とは、3次元仮想モデル空間における座標系を、実空間における座標系に一致又は略一致させることをいう。 In the robot 12 of the cargo handling apparatus 10, an error may occur in the actual installation position with respect to the desired installation position. The robot 12 may be displaced due to, for example, vibration during operation. Therefore, the cargo handling apparatus 10 needs to be calibrated so that the coordinate system in the three-dimensional virtual model space related to the control of the robot 12 matches the coordinate system in the real space. Hereinafter, "performing calibration" refers to matching or substantially matching the coordinate system in the three-dimensional virtual model space with the coordinate system in the real space.

較正は、荷役装置10のより多数の箇所に対して実施することが好適である。較正は、工場出荷時に一度実施すればよいものではなく、定期的、又は、所定のイベント発生時に実施する。 Calibration is preferably performed on a larger number of locations on the equipment 10 . Calibration does not have to be performed once at the time of shipment from the factory, but is performed periodically or when a predetermined event occurs.

図1に示す本実施形態における荷役装置10は、例えば、荷物ケース18の4つの角部22,24,26,28それぞれを用いて、較正を実施する。このため、本実施形態に係る荷役装置10の較正の実施は、極力人間の手を介さず、速く、且つ効率よく行われることが望ましい。 The cargo handling apparatus 10 according to the present embodiment shown in FIG. 1 performs calibration using, for example, four corners 22, 24, 26, and 28 of the luggage case 18, respectively. For this reason, it is desirable that the calibration of the cargo handling apparatus 10 according to the present embodiment be performed quickly and efficiently with as little human intervention as possible.

上述したように、ロボット12の基台32の適宜の位置を、実空間の座標系(XYZ直交座標系又は極座標系)の原点とする。ロボット12の基台32の適宜の位置を、3次元仮想モデル空間における座標系(XYZ直交座標系又は極座標系)の原点とする。原点の位置は、固定されているものとする。 As described above, an appropriate position of the base 32 of the robot 12 is set as the origin of the real space coordinate system (XYZ orthogonal coordinate system or polar coordinate system). An appropriate position of the base 32 of the robot 12 is set as the origin of the coordinate system (XYZ orthogonal coordinate system or polar coordinate system) in the three-dimensional virtual model space. It is assumed that the position of the origin is fixed.

ここでは、説明の簡略化のため、ロボット側治具50がハンド36に予め固定されているものとする。すなわち、ハンド36は、ロボット側治具50が固定された状態で、荷物Bをピックアップする。また、第1受治具52、第2受治具54、第3受治具56及び第4受治具58は荷物ケース18の4つの角部22,24,26,28にそれぞれ予め固定されているものとする。 Here, for simplification of explanation, it is assumed that the robot-side jig 50 is fixed to the hand 36 in advance. That is, the hand 36 picks up the package B with the robot-side jig 50 fixed. Also, the first receiving jig 52, the second receiving jig 54, the third receiving jig 56 and the fourth receiving jig 58 are preliminarily fixed to the four corners 22, 24, 26 and 28 of the luggage case 18, respectively. shall be

コンベヤ16に荷物ケース18が載置されて適宜の位置に搬送され、停止した状態で、プロセッサ102は、カメラ20により撮像される荷物ケース18の上端18aの4つの受治具(第1受治具52、第2受治具54、第3受治具56及び第4受治具58)で、各受治具の実空間の座標系の座標を認識可能であるものとする。 The luggage case 18 is placed on the conveyor 16, transported to an appropriate position, and stopped. The tool 52, the second receiving jig 54, the third receiving jig 56, and the fourth receiving jig 58) are assumed to be capable of recognizing the coordinates of the coordinate system in the real space of each of the receiving jigs.

本実施形態では、荷役装置10は、ロボット12の3次元仮想モデル空間の座標系が、実空間の座標系と一致又は略一致している状態を考慮する。ここでの較正は、例えば0mmから数センチメートルまでの間の僅かな差異を調整するものとする。座標系同士のズレが0mmである場合、座標系同士に実際にズレがあるもの、実際にズレがないものの両方を含む。 In this embodiment, the cargo handling apparatus 10 considers a state in which the coordinate system of the three-dimensional virtual model space of the robot 12 matches or substantially matches the coordinate system of the real space. The calibration here shall adjust for small differences, for example between 0 mm and a few centimeters. When the deviation between the coordinate systems is 0 mm, it includes both those with actual deviation between the coordinate systems and those with no actual deviation.

本実施形態に係る荷役装置10の動作について図6及び図7を用いて説明する。ここでは主に、制御装置14のプロセッサ102について説明する。 The operation of the cargo handling apparatus 10 according to this embodiment will be described with reference to FIGS. 6 and 7. FIG. The processor 102 of the control device 14 will be mainly described here.

例えば、ロボット12の設置時や、荷役装置10の電源投入時、プロセッサ102は、荷役装置10のロボット12の3次元仮想モデル空間の座標系を実空間の座標系に一致させる較正を実施する条件を満たすか否か、判断する(ステップS1)。プロセッサ102は、具体的には、較正を実施する必要があるか否か、判断する。 For example, when the robot 12 is installed or when the cargo handling device 10 is powered on, the processor 102 performs calibration to match the coordinate system of the three-dimensional virtual model space of the robot 12 of the cargo handling device 10 with the coordinate system of the real space. is satisfied (step S1). Processor 102 specifically determines whether calibration needs to be performed.

ここで、ステップS1において、較正を実施する条件を満たす場合を4つ例示する。 Here, in step S1, four cases where conditions for performing calibration are satisfied are illustrated.

1.ロボット12の据え付け及び電源投入時
ロボット12を据え付けた際、及び、電源を投入した際には、ロボット12の設置誤差を吸収するために、較正の実施が必要である。
1. Robot 12 Installation and Power Up When the robot 12 is installed and powered up, calibration must be performed to accommodate installation errors of the robot 12 .

2.ロボット12が何かに接触したことを検知したとき
ロボット12が、荷物ケース18の側面や縁、その他、荷役装置10内に存在する何らかに接触した場合、衝突前と衝突後とで設置位置にズレが生じる可能性が考えられる。その位置ズレを解消するために、較正の実施が必要である。
2. When it is detected that the robot 12 has come into contact with something When the robot 12 comes into contact with the side or edge of the luggage case 18 or any other object present in the cargo handling device 10, the installation position is changed before and after the collision. It is conceivable that a deviation may occur in A calibration must be performed to eliminate the misalignment.

3.ピッキングの失敗が連続したとき
荷役装置10の運用時、例えば振動等が原因となり、ロボット12、コンベヤ16、カメラ20の相対的な設置位置にズレが生じる可能性がある。例えば荷物Bを荷物ケース18からピッキングする場合、荷物Bのピッキングに失敗することが起こりやすくなる。例えば2回連続など、複数回連続でピッキングを失敗した場合、位置ズレを解消するために、較正の実施が必要である。
3. When Picking Failures Continue During operation of the cargo handling apparatus 10, there is a possibility that the relative installation positions of the robot 12, the conveyor 16, and the camera 20 may be displaced due to, for example, vibration. For example, when picking the package B from the package case 18, the picking of the package B is likely to fail. If picking fails a number of times in a row, for example, two times in a row, it is necessary to perform calibration in order to eliminate the misalignment.

4.所定の時間が経過したとき
荷役装置10の運用時、時間の経過とともに、ロボット12、コンベヤ16、カメラ20の相対的な設置位置にズレが生じる可能性がある。このような位置ズレが生じないようにするために、定期的に較正の実施が必要である。
4. When a Predetermined Time Elapses During operation of the cargo handling apparatus 10, the relative installation positions of the robot 12, the conveyor 16, and the camera 20 may deviate over time. In order to prevent such misalignment from occurring, it is necessary to perform calibration on a regular basis.

プロセッサ102が、較正を実施する条件を満たしていると判断した場合(ステップS1-Yes)、プロセッサ102は、較正を実施する前段階として、実空間における座標系の適宜の座標に対する、3次元仮想モデル空間における座標系の適宜の座標の差異を算出する(ステップS2)。すなわち、プロセッサ102は、実空間における座標系の適宜の座標に対する、3次元仮想モデル空間における座標系の適宜の座標の差異を検査する。 When the processor 102 determines that the conditions for performing calibration are satisfied (step S1-Yes), the processor 102 performs three-dimensional virtual An appropriate coordinate difference of the coordinate system in the model space is calculated (step S2). That is, the processor 102 examines the difference between appropriate coordinates of the coordinate system in the three-dimensional virtual model space with respect to appropriate coordinates of the coordinate system in the real space.

プロセッサ102は、ステップS2における検査を実施した後、ステップS2での算出結果に基づいて、較正を実施し新たな3次元仮想モデル空間の座標系を設定するか否か判断する(ステップS3)。較正を実施する場合(ステップS3-Yes)、3次元仮想モデル空間の座標系の情報を更新する。3次元仮想モデル空間の座標系の較正を実施する場合(ステップS3-Yes)、通常運転(ステップS4)を行う前に実施する。 After performing the inspection in step S2, the processor 102 determines whether or not to perform calibration and set a new coordinate system of the three-dimensional virtual model space based on the calculation result in step S2 (step S3). If calibration is to be performed (step S3--Yes), information on the coordinate system of the three-dimensional virtual model space is updated. If the coordinate system of the three-dimensional virtual model space is to be calibrated (step S3-Yes), it is performed before normal operation (step S4).

較正の実施条件を満たしていない場合(ステップS1-No)、プロセッサ102は、通常運転(ステップS4)を行う。 If the calibration execution condition is not satisfied (step S1-No), the processor 102 performs normal operation (step S4).

ここで、通常運転(ステップS4)とは、例えば、以下の一連の動作をいう。プロセッサ102は、コンベヤ16で搬送された荷物ケース18及び荷物ケース18内の荷物Bをカメラ20での撮影により認識する。プロセッサ102は、認識した荷物Bをロボット12のアーム34を動かし、ハンド36で荷物Bをピックアップさせる。プロセッサ102は、ハンド36で荷物Bをつかんだ状態でアーム34を適宜に移動させ、荷物Bを所望の位置に配置し、ハンド36から荷物Bを放す。プロセッサ102は、アーム34を初期位置など、適宜の位置に移動させる。 Here, normal operation (step S4) means, for example, the following series of operations. The processor 102 recognizes the luggage case 18 conveyed by the conveyor 16 and the luggage B in the luggage case 18 by photographing with the camera 20 . The processor 102 moves the arm 34 of the robot 12 to pick up the recognized package B with the hand 36 . The processor 102 appropriately moves the arm 34 while the hand 36 is holding the load B, arranges the load B at a desired position, and releases the load B from the hand 36 . Processor 102 moves arm 34 to an appropriate position, such as an initial position.

図7に示すように、ステップS2における検査は、以下のように実施する。 As shown in FIG. 7, the inspection in step S2 is performed as follows.

プロセッサ102は、コンベヤ16を動かし、荷物ケース18を適宜の位置に移動させる。プロセッサ102は、カメラ20で荷物ケース18の受治具52,54,56,58を撮像可能な位置で、荷物ケース18を停止させる(ステップS101)。 The processor 102 moves the conveyor 16 to move the luggage cases 18 into position. The processor 102 stops the luggage case 18 at a position where the camera 20 can image the jigs 52, 54, 56, 58 of the luggage case 18 (step S101).

プロセッサ102は、カメラ20で荷物ケース18の受治具52,54,56,58を撮像し、受治具52,54,56,58の実空間の座標系の座標に関する情報を取得する(ステップS102)。プロセッサ102は、受治具52,54,56,58の実空間の座標系の座標に関する情報を、メモリ104及び/又はストレージ112に格納する。 The processor 102 images the receiving jigs 52, 54, 56, 58 of the luggage case 18 with the camera 20, and acquires information on the coordinates of the real space coordinate system of the receiving jigs 52, 54, 56, 58 (step S102). Processor 102 stores in memory 104 and/or storage 112 information about the coordinates of the real space coordinate system of fixtures 52 , 54 , 56 , 58 .

プロセッサ102は、アーム34を動かし、ハンド36に取り付けたロボット側治具50を第1受治具52に向けて移動させる(ステップS103)。このときのロボット側治具50の目標位置(第1の目標位置)は、3次元仮想モデル空間の座標系の座標である。このとき、プロセッサ102は、力覚センサ46を用いた力制御により、ハンド36を含むアーム34を制御する。 The processor 102 moves the arm 34 to move the robot-side jig 50 attached to the hand 36 toward the first receiving jig 52 (step S103). The target position (first target position) of the robot-side jig 50 at this time is the coordinates of the coordinate system of the three-dimensional virtual model space. At this time, the processor 102 controls the arm 34 including the hand 36 by force control using the force sensor 46 .

ロボット12における力制御とは、ロボット12のハンド36に取り付けられた力覚センサ46からの応力(応力の負荷方向を含む)及び/又はその他の情報により、プロセッサ102が、ハンド36を含むアーム34各軸の駆動モータ42,44の電流をコントロールして、適当なトルクを発生させる制御方法のことである。ロボット12における力制御により、プロセッサ102は、接触面に対してハンド36を滑らかに倣う動作を実現できる。 The force control in the robot 12 means that the processor 102 controls the arm 34 including the hand 36 based on the stress (including the stress loading direction) and/or other information from the force sensor 46 attached to the hand 36 of the robot 12 . It is a control method for controlling the current of the drive motors 42 and 44 for each axis to generate appropriate torque. Force control in the robot 12 allows the processor 102 to achieve smooth tracing of the hand 36 against the contact surface.

ハンド36に力覚センサ46を配置しない場合、前述同等の情報を、ロボット12のアーム34の制御にフィードバックすることは既存技術において可能であり、その場合、力覚センサ46は、本実施形態に係る構成から除かれてもよい。 If the force sensor 46 is not arranged on the hand 36, it is possible in the existing technology to feed back information equivalent to the above to the control of the arm 34 of the robot 12. It may be excluded from such a configuration.

プロセッサ102は、力覚センサ46を用いた力制御を行いながら、ハンド36に取り付けたロボット側治具50を第1受治具52に接触させる(ステップS104)。
プロセッサ102は、ロボット側治具50を3次元仮想モデル空間の座標系において、実空間の座標系の座標と同じ数値の座標(第1の目標位置)まで移動させたとき、ロボット側治具50が第1受治具52に接触しない場合がある(ステップS104-No)。プロセッサ102は、力覚センサ46を用いた力制御によって、ロボット側治具50が第1受治具52に接触するまで、ロボット側治具50を移動させる。このとき、プロセッサ102は、力制御により、実空間の第1受治具52の位置、すなわち、荷物ケース18を動かさないように、ハンド36を移動させる。
The processor 102 brings the robot-side jig 50 attached to the hand 36 into contact with the first receiving jig 52 while performing force control using the force sensor 46 (step S104).
When the processor 102 moves the robot-side jig 50 to the same numerical coordinates (first target position) as the coordinates of the real-space coordinate system in the coordinate system of the three-dimensional virtual model space, the robot-side jig 50 may not come into contact with the first receiving jig 52 (step S104-No). The processor 102 moves the robot-side jig 50 by force control using the force sensor 46 until the robot-side jig 50 contacts the first receiving jig 52 . At this time, the processor 102 moves the hand 36 by force control so as not to move the position of the first receiving jig 52 in the real space, that is, the luggage case 18 .

図5に示すように、プロセッサ102は、ロボット12の動作を制御し、ロボット側治具50の凸状の嵌合部64を、第1受治具52の凹状の嵌合部74に嵌合させる。プロセッサ102は、ロボット側治具50を第1受治具52に接触させたことを検知した場合(ステップS104-Yes)、力覚センサ46を使用した力制御を行うことで、ロボット側治具50の凸状の嵌合部64を、第1受治具52の嵌合部74に接触させる。プロセッサ102は、力覚センサ46を使用した力制御を行うことで、ロボット側治具50の凸状の嵌合部64を、受治具52の凹状の嵌合部74に収納する。プロセッサ102は、力覚センサ46で接触圧力を検知しながら、ロボット側治具50を第1受治具52に押圧する(ステップS105)。 As shown in FIG. 5 , the processor 102 controls the operation of the robot 12 to fit the convex fitting portion 64 of the robot-side jig 50 into the concave fitting portion 74 of the first receiving jig 52 . Let When the processor 102 detects that the robot-side jig 50 is brought into contact with the first receiving jig 52 (step S104-Yes), the processor 102 performs force control using the force sensor 46, whereby the robot-side jig The convex fitting portion 64 of 50 is brought into contact with the fitting portion 74 of the first receiving jig 52 . The processor 102 performs force control using the force sensor 46 to accommodate the convex fitting portion 64 of the robot-side jig 50 into the concave fitting portion 74 of the receiving jig 52 . The processor 102 presses the robot-side jig 50 against the first receiving jig 52 while detecting the contact pressure with the force sensor 46 (step S105).

プロセッサ102は、例えば力覚センサ46により、ロボット側治具50の凸状の嵌合部64を、第1受治具52の嵌合部74に嵌合させたときの圧力を検出する。プロセッサ102は、ロボット側治具50の凸状の嵌合部64を、第1受治具52の嵌合部74に嵌合させたときの圧力が所定の圧力に到達したか否か判断する(ステップS106)。 The processor 102 detects the pressure when the convex fitting portion 64 of the robot-side jig 50 is fitted into the fitting portion 74 of the first receiving jig 52 by, for example, the force sensor 46 . The processor 102 determines whether or not the pressure when fitting the convex fitting portion 64 of the robot-side jig 50 into the fitting portion 74 of the first receiving jig 52 has reached a predetermined pressure. (Step S106).

プロセッサ102は、ロボット側治具50の凸状の嵌合部64を、第1受治具52の嵌合部74に嵌合させたときの圧力が所定の圧力に到達していないと判断した場合(ステップS106-No)、力覚センサ46で接触圧力を検知しながら、ロボット側治具50を第1受治具52に押圧する(ステップS105)。このとき、プロセッサ102は、第1受治具52の位置(実空間の座標系の座標)を移動させずに、力覚センサ46により、ロボット側治具50の凸状の嵌合部64を第1受治具52の凹状の嵌合部74に嵌合させる。 The processor 102 determined that the pressure applied when the convex fitting portion 64 of the robot-side jig 50 was fitted into the fitting portion 74 of the first receiving jig 52 did not reach the predetermined pressure. In the case (step S106-No), the robot-side jig 50 is pressed against the first receiving jig 52 while detecting the contact pressure with the force sensor 46 (step S105). At this time, the processor 102 causes the force sensor 46 to move the convex fitting portion 64 of the robot-side jig 50 without moving the position of the first receiving jig 52 (the coordinates of the coordinate system in the real space). It is made to fit into the concave fitting portion 74 of the first receiving jig 52 .

プロセッサ102が、ロボット側治具50の凸状の嵌合部64を、第1受治具52の嵌合部74に嵌合させたときの圧力が所定の圧力に到達したと判断した場合(ステップS106-Yes)、プロセッサ102は、ロボット側治具50の位置(第2の目標位置)が、第1受治具52の位置に一致していると判断する。 When the processor 102 determines that the pressure when fitting the convex fitting portion 64 of the robot-side jig 50 into the fitting portion 74 of the first receiving jig 52 has reached a predetermined pressure ( Step S106—Yes), the processor 102 determines that the position of the robot-side jig 50 (second target position) matches the position of the first receiving jig 52. FIG.

ロボット側治具50の凸状の嵌合部64を、第1受治具52の嵌合部74に嵌合させたときの圧力は、力覚センサ46により検出された情報を基にプロセッサ102により算出される。プロセッサ102は、力覚センサ46により検出された情報がある値に到達したときに嵌合したと判断する。 The pressure when the convex fitting portion 64 of the robot-side jig 50 is fitted into the fitting portion 74 of the first receiving jig 52 is determined by the processor 102 based on the information detected by the force sensor 46. Calculated by The processor 102 determines that the fitting has occurred when the information detected by the force sensor 46 reaches a certain value.

ここで、プロセッサ102に接続されたメモリ104及び/又はストレージ112には、第1受治具52の実空間の座標系の座標の情報が既知(規定)の座標として格納されている。プロセッサ102は、ロボット側治具50の位置を第1受治具52の位置に一致させたときの、ロボット12のハンド36を含むアーム34の移動位置における3次元仮想モデル空間の座標系の座標に関する情報を取得する。 Here, in the memory 104 and/or the storage 112 connected to the processor 102, information on the coordinates of the real space coordinate system of the first receiving jig 52 is stored as known (prescribed) coordinates. The processor 102 calculates the coordinates of the coordinate system of the three-dimensional virtual model space at the movement position of the arm 34 including the hand 36 of the robot 12 when the position of the robot-side jig 50 is aligned with the position of the first receiving jig 52. Get information about

プロセッサ102は、ロボット側治具50及び第1受治具52における、実空間の座標系の座標(第2の目標位置)と3次元仮想モデル空間の座標系の座標(第1の目標位置)との差を算出する(ステップS107)。プロセッサ102は、ステップS107での実空間の座標系の座標と3次元仮想モデル空間の座標系の座標との差のズレ量の算出結果(第1の差異情報)をメモリ104及び/又はストレージ112に出力し、格納する(ステップS108)。 The processor 102 calculates the coordinates of the real space coordinate system (second target position) and the coordinates of the three-dimensional virtual model space coordinate system (first target position) in the robot-side jig 50 and the first receiving jig 52 . is calculated (step S107). The processor 102 stores the calculation result (first difference information) of the deviation amount of the difference between the coordinates of the coordinate system of the real space and the coordinates of the coordinate system of the 3D virtual model space in the memory 104 and/or the storage 112 in step S107. , and stored (step S108).

プロセッサ102は、座標系の差異検査(ステップS2)において、較正に用いた受治具52,54,56,58の数をカウントする(ステップS109)。較正に用いる受治具52,54,56,58の数は例えばユーザの入力により予め決めておき、メモリ104及び/又はストレージ112に格納しておく。 Processor 102 counts the number of receiving jigs 52, 54, 56, 58 used for calibration in the coordinate system difference inspection (step S2) (step S109). The number of fixtures 52 , 54 , 56 , 58 used for calibration is determined in advance by, for example, user input and stored in memory 104 and/or storage 112 .

ロボット側治具50が予め設定した所定の数(本実施形態では4つ)の受治具52,54,56,58にそれぞれ接触し、嵌合していない場合(ステップS109-No)、ステップS103からステップS108の処理を行う。 When the robot-side jig 50 contacts a predetermined number (four in this embodiment) of receiving jigs 52, 54, 56, and 58, respectively, and is not fitted (step S109-No), step The processing from S103 to step S108 is performed.

プロセッサ102は、ロボット12のアーム34を動かし、ロボット側治具50の位置を、上述した第1受治具52とは異なる第2受治具54の位置に一致させ、すなわち、所定の押圧力で嵌合させる。プロセッサ102は、このときの、実空間の座標系の第2受治具54の座標と、3次元仮想モデル空間の座標系のロボット側治具50の座標との差のズレ量の算出結果(第2の差異情報)をメモリ104及び/又はストレージ112に出力し、格納する。 The processor 102 moves the arm 34 of the robot 12 to match the position of the robot side jig 50 with the position of the second receiving jig 54 different from the above-described first receiving jig 52, that is, the predetermined pressing force is applied. to mate. The processor 102 calculates the deviation amount of the difference between the coordinates of the second receiving jig 54 in the coordinate system of the real space and the coordinates of the robot-side jig 50 in the coordinate system of the three-dimensional virtual model space ( second difference information) to the memory 104 and/or the storage 112 for storage.

プロセッサ102は、ロボット12のアーム34を動かし、ロボット側治具50の位置を、上述した第1受治具52及び第2受治具54とは異なる第3受治具56の位置に一致させ、すなわち、所定の押圧力で嵌合させる。プロセッサ102は、このときの、実空間の座標系の第3受治具56の座標と、3次元仮想モデル空間の座標系のロボット側治具50の座標との差のズレ量の算出結果(第3の差異情報)をメモリ104及び/又はストレージ112に出力し、格納する。 The processor 102 moves the arm 34 of the robot 12 to match the position of the robot side jig 50 with the position of the third receiving jig 56 different from the first receiving jig 52 and the second receiving jig 54 described above. That is, they are fitted with a predetermined pressing force. The processor 102 calculates the deviation amount of the difference between the coordinates of the third receiving jig 56 in the coordinate system of the real space and the coordinates of the robot-side jig 50 in the coordinate system of the three-dimensional virtual model space ( third difference information) to the memory 104 and/or the storage 112 for storage.

プロセッサ102は、ロボット12のアーム34を動かし、ロボット側治具50の位置を、上述した第1受治具52、第2受治具54及び第3受治具56とは異なる第4受治具58の位置に一致させ、すなわち、所定の押圧力で嵌合させる。プロセッサ102は、このときの、実空間の座標系の第4受治具58の座標と、3次元仮想モデル空間の座標系のロボット側治具50の座標との差のズレ量の算出結果(第4の差異情報)をメモリ104及び/又はストレージ112に出力し、格納する。 The processor 102 moves the arm 34 of the robot 12 to position the robot-side jig 50 at a fourth receiving jig different from the first receiving jig 52, the second receiving jig 54 and the third receiving jig 56 described above. Match the position of the tool 58, that is, fit with a predetermined pressing force. The processor 102 calculates the deviation amount of the difference between the coordinates of the fourth receiving jig 58 in the coordinate system of the real space and the coordinates of the robot-side jig 50 in the coordinate system of the three-dimensional virtual model space at this time ( fourth difference information) to the memory 104 and/or the storage 112 for storage.

ロボット側治具50の位置を動かす順は、第1受治具52、第2受治具54、第3受治具56、第4受治具58の順に限られない。プロセッサ102は、ロボット側治具50の位置を動かす最適な経路(順)を予め算出し得る。 The order of moving the robot side jig 50 is not limited to the order of the first receiving jig 52 , the second receiving jig 54 , the third receiving jig 56 and the fourth receiving jig 58 . The processor 102 can pre-calculate the optimum path (order) for moving the position of the robot-side jig 50 .

ロボット側治具50が予め設定した所定の数(本実施形態では4つ)の受治具52,54,56,58にそれぞれ接触し、嵌合した場合(ステップS109-Yes)、ステップS3に進む。 When the robot-side jig 50 comes into contact with a predetermined number (four in this embodiment) of receiving jigs 52, 54, 56, and 58 (step S109-Yes) and is fitted thereto, the process proceeds to step S3. move on.

メモリ104及び/又はストレージ112には、ロボット側治具50が予め設定した4つの受治具52,54,56,58にそれぞれ接触し、嵌合したときの、第1の差異情報、第2の差異情報、第3の差異情報及び第4の差異情報が格納されている。図6に示すように、プロセッサ102は、これら第1から第4の差異情報に基づいて、3次元仮想モデル空間の座標系を更新、すなわち、較正を実施するか否か判断する(ステップS3)。 In the memory 104 and/or the storage 112, first difference information, second difference information, third difference information, and fourth difference information are stored. As shown in FIG. 6, the processor 102 determines whether or not to update the coordinate system of the three-dimensional virtual model space, that is, to calibrate it, based on the first to fourth difference information (step S3). .

実際には、プロセッサ102は、ロボット側治具50が予め設定した4つの受治具52,54,56,58にそれぞれ接触し、嵌合したときに取得した第1の差異情報、第2の差異情報、第3の差異情報及び第4の差異情報の信頼性を判断する。例えば、力覚センサ46等により、ロボット側治具50が受治具52,54,56,58の位置、すなわち荷物ケース18を動かした等が認識された場合、プロセッサ102は、較正を実施しないと判断(ステップS3-No)し、座標系の差異検査(ステップS2)をやり直す。 In practice, the processor 102 receives the first difference information, the second Reliability of the difference information, the third difference information and the fourth difference information is determined. For example, if the force sensor 46 or the like recognizes that the robot side jig 50 has moved the positions of the receiving jigs 52, 54, 56, 58, that is, the luggage case 18, the processor 102 does not perform calibration. (step S3-No), and the coordinate system difference inspection (step S2) is redone.

例えば、力覚センサ46等からの情報に基づいて、ロボット側治具50が各受治具52,54,56,58の位置を動かさず、適切に各嵌合が行われたと認識された場合、プロセッサ102は、較正を実施すると判断(ステップS3-Yes)し、較正を実施する。 For example, based on the information from the force sensor 46 or the like, when it is recognized that the robot-side jig 50 does not move the positions of the receiving jigs 52, 54, 56, and 58 and that each fitting has been properly performed. , the processor 102 determines to perform calibration (step S3-Yes), and performs the calibration.

プロセッサ102が較正を実施する場合、プロセッサ102は、実空間の座標系の4つの座標と3次元仮想モデル空間の座標系の4つの座標とのズレ量の算出結果に基づいて、3次元仮想モデル空間の座標系の座標を、実空間の座標系の座標に合わせる処理を行う。すなわち、プロセッサ102は、メモリ104及び/又はストレージ112に格納した3次元仮想モデル空間の座標系を更新、すなわち、較正を実施する。 When the processor 102 performs the calibration, the processor 102 calibrate the 3D virtual model based on the calculated deviation amount between the 4 coordinates of the real space coordinate system and the 4 coordinates of the 3D virtual model space coordinate system. The coordinates of the space coordinate system are matched with the coordinates of the real space coordinate system. That is, processor 102 updates, ie, performs calibration, the coordinate system of the three-dimensional virtual model space stored in memory 104 and/or storage 112 .

受治具52,54,56,58の位置に対し、ロボット側治具50の位置を一致させる数は、例えば1つよりも2つ、2つよりも3つ、3つよりも4つなど、数を多くするほど、実空間の座標系に対し、更新された新たな3次元仮想モデル空間の座標系のズレを少なくする。受治具52,54,56,58の位置に対し、ロボット側治具50の位置を一致させる数を例えば1つとしても、プロセッサ102が較正を実施する際の信頼性がある、と判断したときには、較正を実施し得る。 The number of matching positions of the robot-side jig 50 with respect to the positions of the receiving jigs 52, 54, 56, 58 is, for example, two more than one, three more than two, four more than three, and so on. , the greater the number, the less the deviation of the coordinate system of the updated new three-dimensional virtual model space from the coordinate system of the real space. It was determined that the processor 102 could be reliable when performing calibration even if the number of matching positions of the robot-side jig 50 with respect to the positions of the receiving jigs 52, 54, 56, and 58 was, for example, one. Sometimes calibration can be performed.

そして、プロセッサ102は、上述した通常運転(ステップS4)を行う。 Then, the processor 102 performs the above-described normal operation (step S4).

通常運転(ステップS4)を行った直後、プロセッサ102は、イベント情報の有無を判断する(ステップS5)。プロセッサ102は、通常運転(ステップS4)中にイベント情報が発生した場合(ステップS5-Yes)、そのイベント情報をメモリ104及び/又はストレージ112に格納する(ステップS6)。プロセッサ102は、通常運転(ステップS4)中にイベント情報があった場合、通常運転(ステップS4)の実施中に、メモリ104及び/又はストレージ112に格納してもよい。 Immediately after performing normal operation (step S4), processor 102 determines the presence or absence of event information (step S5). If event information occurs during normal operation (step S4) (step S5-Yes), processor 102 stores the event information in memory 104 and/or storage 112 (step S6). If there is event information during normal operation (step S4), processor 102 may store it in memory 104 and/or storage 112 during normal operation (step S4).

プロセッサ102は、通常運転(ステップS4)中にイベント情報がなかったと判断した場合(ステップS5-No)、次の荷物Bをピックアップする通常運転(ステップS4)を行う。 When the processor 102 determines that there is no event information during normal operation (step S4) (step S5-No), it performs normal operation for picking up the next package B (step S4).

イベント情報がストレージ112又はメモリ104に格納された(ステップS6)後、プロセッサ102は、荷役装置10全体の運転を停止するか否か判断する(ステップS7)。 After the event information is stored in the storage 112 or the memory 104 (step S6), the processor 102 determines whether or not to stop the operation of the entire cargo handling apparatus 10 (step S7).

プロセッサ102が、例えば、コンベヤ16の異常、カメラ20の異常、モータ42,44の異常、又は、力覚センサ46の異常の信号などのイベント情報を受けた(ステップS5)場合、その情報をストレージ112又はメモリ104に格納(ステップS6)し、プロセッサ102は、荷役装置10全体の運転を停止する(ステップS7-Yes)。もちろん、プロセッサ102は、通常運転(ステップS4)中にこれらのイベント情報を受信した場合、ただちに荷役装置10全体の運転を停止してもよい。 When the processor 102 receives event information such as a signal indicating an abnormality in the conveyor 16, the camera 20, the motors 42, 44, or the force sensor 46 (step S5), the information is stored. 112 or the memory 104 (step S6), and the processor 102 stops the operation of the entire cargo handling apparatus 10 (step S7-Yes). Of course, when the processor 102 receives these event information during normal operation (step S4), the operation of the entire cargo handling apparatus 10 may be immediately stopped.

プロセッサ102は、「前回の較正実施から所定時間が経過したこと」、例えば複数回にわたって、「アーム34の移動中にロボット12が何かの物体に接触したこと」、「ハンド36で荷物Bのピッキングを失敗したこと」、又は、「荷物Bに対するハンド36の位置ズレを検出したこと」のイベント情報の発生を認識した(ステップS5-Yes)場合、荷役装置10全体の運転を停止せず(ステップS7-No)、較正実施条件を満たすか否か、判断する(ステップS1)。 The processor 102 determines that ``a predetermined time has passed since the previous calibration,'' for example, ``the robot 12 has come into contact with an object during movement of the arm 34,'' If it recognizes the occurrence of the event information of "failure in picking" or "detection of displacement of hand 36 with respect to package B" (step S5-Yes), the operation of the entire cargo handling apparatus 10 is not stopped ( Step S7-No), it is determined whether or not the calibration implementation condition is satisfied (step S1).

このように、プロセッサ102は、メモリ104及び/又はストレージ112に格納したイベント情報の内容に基づいて、荷役装置10全体の運転を停止するか否か判断する。また、プロセッサ102は、メモリ104及び/又はストレージ112に格納したイベント情報に基づいて、実空間の座標系に対し3次元仮想モデル空間の座標系の較正を行うか否か判断する。 Thus, the processor 102 determines whether or not to stop the operation of the entire cargo handling apparatus 10 based on the content of the event information stored in the memory 104 and/or the storage 112 . Based on the event information stored in the memory 104 and/or the storage 112, the processor 102 also determines whether or not to calibrate the coordinate system of the 3D virtual model space with respect to the coordinate system of the real space.

このように、荷役装置10は、荷役装置10の運用開始時、及び、運用開始後に、定期的、又は、所定のイベント発生時に、自動で較正を実施することができる。 In this manner, the material handling apparatus 10 can automatically perform calibration at the time of starting operation of the material handling apparatus 10 and after the start of operation, periodically or when a predetermined event occurs.

なお、荷物ケース18の4つの角部22,24,26,28に配置した受治具52,54,56,58は、略同一高さにある。しかしながら、受治具52,54,56,58の高さがバラバラであっても、実空間の座標系の受治具52,54,56,58の座標が規定(既知)であれば、ロボット12の動作により、ロボット側治具50を各受治具52,54,56,58に順に接触させることができる。このため、受治具52,54,56,58の位置及び向きは、例えばロボット12のハンド36が届く範囲で適宜に設定可能である。すなわち、受治具52に対するロボット側治具50の嵌合方向は、床面に対し、図5に示す上下方向に限られない。受治具52に対するロボット側治具50の嵌合方向は、例えば、床面に対し、斜め方向でもよく、水平方向でもよい。これは、他の受治具54,56,58でも同様である。 The receiving jigs 52, 54, 56, 58 arranged at the four corners 22, 24, 26, 28 of the luggage case 18 are at substantially the same height. However, even if the heights of the receiving jigs 52, 54, 56, and 58 are different, if the coordinates of the receiving jigs 52, 54, 56, and 58 in the coordinate system of the real space are specified (known), the robot can 12, the robot-side jig 50 can be brought into contact with each of the receiving jigs 52, 54, 56, 58 in order. Therefore, the positions and orientations of the receiving jigs 52, 54, 56, and 58 can be appropriately set within the reach of the hand 36 of the robot 12, for example. That is, the fitting direction of the robot-side jig 50 with respect to the receiving jig 52 is not limited to the vertical direction shown in FIG. 5 with respect to the floor surface. The fitting direction of the robot-side jig 50 with respect to the receiving jig 52 may be, for example, an oblique direction or a horizontal direction with respect to the floor surface. This is the same for the other receiving jigs 54, 56, 58 as well.

ロボット12の設置時や、荷役装置10の電源投入時などの、較正を実施する条件を満たす場合(ステップS1-Yes)、プロセッサ102は、例えば、ステップS2のステップS101の前に、アーム34の先端のハンド36を、ロボット側治具50が取り付けてあるツールに自動的に交換することも好適である。この場合、ハンド36に予めロボット側治具50を固定することは不要である。 If conditions for performing calibration are satisfied, such as when the robot 12 is installed or when the cargo handling apparatus 10 is powered on (step S1-Yes), the processor 102, for example, before step S101 of step S2, the arm 34 It is also preferable to automatically replace the tip hand 36 with a tool to which the robot-side jig 50 is attached. In this case, it is unnecessary to fix the robot-side jig 50 to the hand 36 in advance.

本実施形態に係る荷役装置10は、概略、制御装置14と、制御装置14からの信号により、3次元仮想モデル空間の座標系に基づいて移動するロボット12と、ロボット12により3次元仮想モデル空間の座標系において移動するロボット側治具50と、実空間の座標系の座標が規定される第1受治具52とを有する。
ロボット12は、ロボット側治具50と第1受治具52との接触を検知するセンサ46を有する。制御装置14のプロセッサ102は、センサ46からの情報に基づいて第1受治具52に対するロボット側治具50の移動を制御する。
ロボット側治具50及び第1受治具52は、嵌合可能である。
The cargo handling apparatus 10 according to the present embodiment is roughly composed of a controller 14, a robot 12 that moves based on a coordinate system in a three-dimensional virtual model space according to a signal from the controller 14, and a three-dimensional virtual model space by the robot 12. and a first receiving jig 52 for which the coordinates of the real space coordinate system are defined.
The robot 12 has a sensor 46 that detects contact between the robot-side jig 50 and the first receiving jig 52 . The processor 102 of the control device 14 controls movement of the robot-side jig 50 with respect to the first receiving jig 52 based on information from the sensor 46 .
The robot-side jig 50 and the first receiving jig 52 can be fitted together.

本実施形態に係る制御装置14のプロセッサ102は、概略、以下を実施して、較正を行う。プロセッサ102は、3次元仮想モデル空間の座標系においてロボット12により移動させるロボット側治具50を、3次元仮想モデル空間の座標系に基づいて、実空間の座標系の座標が規定される第1受治具(受部)52に向けて移動させて接触させ、ロボット側治具50を第1受治具52の所定位置に接触させたときに得る、ロボット側治具50の座標と第1受治具52の座標との第1の差異情報を取得し、第1の差異情報に基づいて、3次元仮想モデル空間の座標系を較正する。
上述したように、荷役装置10がロボット側治具50と第1受治具(受部)52を用いる場合、ロボット側治具50を第1受治具52の所定位置に接触させたとき、プロセッサ102は、3次元仮想モデル空間の座標系のロボット側治具50の座標に基づいて、ロボット側治具50の座標と第1受治具52の座標との第1の差異情報を取得する。
本実施形態に係る制御装置14及び荷役装置10は、例えばハンド36に一方の嵌合部64を取り付けておき、荷物ケース18に他方の嵌合部74を取り付けておくことで、ティーチングペンダントの操作等、人間の手を介さず、プロセッサ102が自動で較正を実施することができる。このように、本実施形態に係る荷役装置10の制御装置14を用いることで、較正の実施を自動化することができる。そして、人間を介することがないため、本実施形態に係る荷役装置10の制御装置14を用いることで、較正の実施の際に設備を停止させる必要がなく、較正の実施の高速化が図れ、荷役装置10を効率的に用いることができる。
プロセッサ102は、荷役装置10の緊急点検時など、入力部122からの入力による較正実施の指示に基づいて、較正を実施することができる。
The processor 102 of the controller 14 according to the present embodiment generally performs the following to calibrate. The processor 102 moves the robot-side jig 50 to be moved by the robot 12 in the coordinate system of the three-dimensional virtual model space, based on the coordinate system of the three-dimensional virtual model space. The coordinates of the robot-side jig 50 and the first First difference information from the coordinates of the receiving jig 52 is acquired, and the coordinate system of the three-dimensional virtual model space is calibrated based on the first difference information.
As described above, when the cargo handling apparatus 10 uses the robot-side jig 50 and the first receiving jig (receiving portion) 52, when the robot-side jig 50 is brought into contact with the predetermined position of the first receiving jig 52, The processor 102 acquires first difference information between the coordinates of the robot-side jig 50 and the coordinates of the first receiving jig 52 based on the coordinates of the robot-side jig 50 in the coordinate system of the three-dimensional virtual model space. .
In the control device 14 and the cargo handling device 10 according to the present embodiment, for example, one fitting portion 64 is attached to the hand 36 and the other fitting portion 74 is attached to the luggage case 18, so that the teaching pendant can be operated. Etc., calibration can be performed automatically by the processor 102 without human intervention. By using the control device 14 of the cargo handling device 10 according to the present embodiment in this way, the execution of the calibration can be automated. Since there is no human intervention, the use of the control device 14 of the cargo handling device 10 according to the present embodiment eliminates the need to stop the equipment during the calibration, thereby speeding up the calibration. The cargo handling device 10 can be used efficiently.
The processor 102 can perform calibration based on a calibration implementation instruction input from the input unit 122, such as during an emergency inspection of the material handling apparatus 10. FIG.

プロセッサ102は、第1の差異情報を取得した後、ロボット側治具50を、第1受治具52から離し、実空間の座標系の座標が規定される第2受治具54に向けて移動させて接触させる。プロセッサ102は、ロボット側治具50を第2受治具54に接触させたときに得る、ロボット側治具50の座標と第2受治具54の座標との第2の差異情報を取得し、第1の差異情報に加え第2の差異情報に基づいて、3次元仮想モデル空間の座標系を較正し、実空間の座標系に一致又は略一致させる。
複数の位置での情報(例えば、第1の差異情報、第2の差異情報、第3の差異情報及び第4の差異情報)に基づいて較正を実施することで、較正の信頼性(精度)を向上させ、かつ、実空間の座標系に3次元仮想モデル空間の座標系をより合わせることができる。すなわち、より多数の位置での情報に基づいて較正を実施することで、較正の信頼性(精度)を向上させ、かつ、実空間の座標系に3次元仮想モデル空間の座標系をより合わせることができる。このとき、人間の操作を介する必要がないので、較正の実施の自動化だけでなく、高速化を実現することができる。
After obtaining the first difference information, the processor 102 separates the robot-side jig 50 from the first receiving jig 52 and directs it toward the second receiving jig 54 where the coordinates of the coordinate system of the real space are defined. Move and make contact. The processor 102 acquires second difference information between the coordinates of the robot-side jig 50 and the coordinates of the second receiving jig 54, which is obtained when the robot-side jig 50 is brought into contact with the second receiving jig 54. , based on the second difference information in addition to the first difference information, the coordinate system of the three-dimensional virtual model space is calibrated to match or substantially match the coordinate system of the real space.
By performing calibration based on information at multiple locations (e.g., first difference information, second difference information, third difference information, and fourth difference information), the reliability (accuracy) of the calibration can be improved, and the coordinate system of the three-dimensional virtual model space can be twisted with the coordinate system of the real space. That is, by performing calibration based on information at a larger number of positions, the reliability (accuracy) of calibration is improved, and the coordinate system of the three-dimensional virtual model space is twisted with the coordinate system of the real space. can be done. At this time, since there is no need for human intervention, it is possible not only to automate the execution of the calibration, but also to speed it up.

プロセッサ102は、ロボット側治具50が第1受治具52の所定位置に接触したことの接触情報を、ロボット12を通して取得し、接触情報に基づいて、ロボット側治具50の移動を停止させ、ロボット側治具50の移動を停止させたときの3次元仮想モデル空間の座標系のロボット側治具50の座標を得る。
ロボット側治具50が例えば第1受治具52の所定位置に接触したことの接触情報は、ロボット12の力覚センサ46を用いて取得できるほか、モータ42,44の駆動トルクなどからも取得することができる。このため、プロセッサ102は、モータ42,44を用いたアーム34の公知のコンプライアンス動作等により、ロボット側治具50を例えば第1受治具52の所定位置に自動的に、より確実に接触させることができる。
The processor 102 acquires through the robot 12 contact information indicating that the robot-side jig 50 has come into contact with a predetermined position of the first receiving jig 52, and based on the contact information, stops the movement of the robot-side jig 50. , the coordinates of the robot-side jig 50 in the coordinate system of the three-dimensional virtual model space when the movement of the robot-side jig 50 is stopped are obtained.
Contact information indicating that the robot-side jig 50 has come into contact with, for example, a predetermined position of the first receiving jig 52 can be obtained using the force sensor 46 of the robot 12, and can also be obtained from driving torques of the motors 42 and 44. can do. Therefore, the processor 102 automatically brings the robot-side jig 50 into contact with, for example, a predetermined position of the first receiving jig 52 more reliably by a known compliance operation of the arm 34 using the motors 42 and 44. be able to.

ロボット12のアーム34を適宜に動かしていくと、ロボット側治具50が第1受治具52に当接する。このとき、力覚センサ46で、ロボット側治具50と第1受治具52との接触を検知する。プロセッサ102は、インターフェース106を介して、ロボット12の力覚センサ46からロボット側治具50と第1受治具52との接触情報を取得する。プロセッサ102は、力覚センサ46から取得する情報に基づいて、3次元仮想モデル空間の座標系のロボット側治具50の座標を算出可能である。このように、プロセッサ102は、3次元仮想モデル空間の座標系に基づいてロボット側治具50を第1受治具52の所定位置に接触させる際、力覚センサ46から取得する情報に基づいて、第1の差異情報をインターフェース106を介して取得し、算出する。
荷役装置10のプロセッサ102は、例えば力覚センサ46を用いる力制御のほか、フィードバック制御を行う場合がある。フィードバック制御でも同様に、プロセッサ102は、3次元仮想モデル空間の座標系に基づいてロボット側治具50を第1受治具52の所定位置に接触させる際、ロボット12のモータ42,44から取得する情報に基づいて、第1の差異情報をインターフェース106を介して取得し、算出する。
このため、ロボット側治具50を第1受治具52の所定位置に接触させたとき、本実施形態に係る制御装置のプロセッサ102は、3次元仮想モデル空間の座標系のロボット側治具50の座標の代わりに、力覚センサ46及び/又はモータ42,44すなわちロボット12から得られる応力及び/又はその他の情報に基づいて、ロボット側治具50の座標と第1受治具52の座標との第1の差異情報を取得してもよい。また、本実施形態に係る制御装置のプロセッサ102は、ロボット側治具50を第1受治具52の所定位置に接触させたとき、力覚センサ46及び/又はモータ42,44すなわちロボット12から得られる応力及び/又はその他の情報とともに、3次元仮想モデル空間の座標系のロボット側治具50の座標に基づいて、ロボット側治具50の座標と第1受治具52の座標との第1の差異情報を取得してもよい。
When the arm 34 of the robot 12 is appropriately moved, the robot-side jig 50 comes into contact with the first receiving jig 52 . At this time, the contact between the robot-side jig 50 and the first receiving jig 52 is detected by the force sensor 46 . The processor 102 acquires contact information between the robot-side jig 50 and the first receiving jig 52 from the force sensor 46 of the robot 12 via the interface 106 . The processor 102 can calculate the coordinates of the robot-side jig 50 in the coordinate system of the three-dimensional virtual model space based on the information acquired from the force sensor 46 . In this way, the processor 102, based on the information acquired from the force sensor 46, when bringing the robot-side jig 50 into contact with the predetermined position of the first receiving jig 52 based on the coordinate system of the three-dimensional virtual model space, , the first difference information is obtained through the interface 106 and calculated.
The processor 102 of the cargo handling apparatus 10 may perform, for example, force control using the force sensor 46 as well as feedback control. Similarly in feedback control, the processor 102 obtains from the motors 42 and 44 of the robot 12 when bringing the robot-side jig 50 into contact with the predetermined position of the first receiving jig 52 based on the coordinate system of the three-dimensional virtual model space. First difference information is obtained through the interface 106 and calculated based on the information obtained.
For this reason, when the robot-side jig 50 is brought into contact with the predetermined position of the first receiving jig 52, the processor 102 of the control device according to the present embodiment moves the robot-side jig 50 in the coordinate system of the three-dimensional virtual model space. , the coordinates of the robot-side jig 50 and the coordinates of the first receiving jig 52 are calculated based on the force sensor 46 and/or the force sensor 46 and/or the motors 42 and 44, i.e. the robot 12, and/or other information. You may acquire the 1st difference information with. Further, the processor 102 of the control device according to the present embodiment controls the force sensor 46 and/or the motors 42 and 44, ie, the robot 12, when the robot-side jig 50 is brought into contact with the predetermined position of the first receiving jig 52. Based on the coordinates of the robot-side jig 50 in the coordinate system of the three-dimensional virtual model space together with the obtained stress and/or other information, the coordinates of the robot-side jig 50 and the coordinates of the first receiving jig 52 are calculated. 1 difference information may be obtained.

プロセッサ102は、ロボット12に関する情報を取得し、ロボット12に関する情報に基づいてロボット側治具50を動かして第1受治具52に接触させる。
ロボット12に関する情報を、プロセッサ102が較正を実施するか否か判断する際の情報として用いることができる。較正実施条件を満たしたときに較正を実施し、較正実施条件を満たさないときに較正を実施せず、通常運転を行うことで、3次元仮想モデル空間の座標を実空間の座標系に一致させながら、ロボット12による荷物Bのピッキングミスを減らすことができる。
The processor 102 acquires information about the robot 12 and moves the robot-side jig 50 to contact the first receiving jig 52 based on the information about the robot 12 .
Information about the robot 12 can be used as information by the processor 102 in determining whether to perform calibration. Calibration is performed when the calibration execution conditions are satisfied, and calibration is not performed when the calibration execution conditions are not satisfied, and normal operation is performed to match the coordinates of the three-dimensional virtual model space with the coordinate system of the real space. However, picking errors of the package B by the robot 12 can be reduced.

本実施形態では、図1に示す垂直多関節型ロボット12を例にして説明したが、ハンド36を含むアーム34を有するロボット12であれば、種々のロボットを用いることができる。床面に固定されるロボット12だけでなく、床面に対し動かないように置かれたロボット12であっても、較正実施条件を満たしたときに較正を行うことで、3次元仮想モデル空間の座標を実空間の座標系に一致させることができる。 Although the vertical articulated robot 12 shown in FIG. 1 has been described as an example in this embodiment, various robots can be used as long as the robot 12 has an arm 34 including a hand 36 . Not only the robot 12 fixed to the floor, but also the robot 12 placed so as not to move on the floor can be calibrated when the calibration implementation conditions are satisfied, so that the three-dimensional virtual model space can be corrected. Coordinates can be matched to a real space coordinate system.

また、天井や適宜のフレーム等に吊り下げられたロボット12は、原点を天井や適宜のフレーム等に採ることができる。天井や適宜のフレーム等に吊り下げられたロボット12は、較正実施条件を満たしたときに較正を行うことで、3次元仮想モデル空間の座標を較正することができる。 In addition, the origin of the robot 12 suspended from the ceiling, appropriate frame, or the like can be set at the ceiling, appropriate frame, or the like. The robot 12 suspended from the ceiling, an appropriate frame, or the like can calibrate the coordinates of the three-dimensional virtual model space by calibrating when the calibration implementation conditions are satisfied.

ロボット12の設置時や、荷役装置10の電源投入時、較正を実施する条件を満たす場合(ステップS1-Yes)の場合、自動でロボット側治具50が取り付けてあるツールにハンド36を変更することが難しい場合がある。この場合、保守員が手動でアーム34の先端のハンド36を取り外して、ロボット側治具50を含むツールを取り付けてもよい。このため、較正の実施の際に用いるロボット側治具50は、常に荷役装置10内のハンド36などに取り付けてあっても、較正の実施時に保守員が手動でハンド36に代えて、ロボット側治具50を取り付けてもよい。 When installing the robot 12 or turning on the power of the cargo handling device 10, if the conditions for performing calibration are satisfied (step S1-Yes), the hand 36 is automatically changed to the tool to which the robot-side jig 50 is attached. can be difficult. In this case, maintenance personnel may manually remove the hand 36 at the tip of the arm 34 and attach the tool including the robot-side jig 50 . For this reason, even if the robot-side jig 50 used when performing calibration is always attached to the hand 36 or the like in the cargo handling apparatus 10, the maintenance personnel manually replaces the hand 36 with the robot-side jig 50 when performing calibration. A jig 50 may be attached.

ロボット側治具50の構造、及び、受治具52,54,56,58の構造は、種々、変形が可能である。 The structure of the robot-side jig 50 and the structure of the receiving jigs 52, 54, 56, 58 can be variously modified.

本実施形態では、ロボット側治具50、受治具52,54,56,58を用い、さらに、力制御を行うことにより、ロボット側治具50を受治具52に接触させながら移動させることができる。このため、例えばティーチングペンダント等のマニュアル操作が不要となり、ロボット12の較正の実施の自動化を実現することができる。したがって、本実施形態によれば、較正の精度のバラつきを抑制可能な荷役装置10の制御装置14、及び、荷役装置10を提供することができる。 In this embodiment, the robot-side jig 50 and the receiving jigs 52, 54, 56, and 58 are used, and force control is performed so that the robot-side jig 50 is moved while being in contact with the receiving jig 52. can be done. For this reason, manual operation of a teaching pendant or the like becomes unnecessary, and the calibration of the robot 12 can be automated. Therefore, according to the present embodiment, it is possible to provide the control device 14 of the cargo handling device 10 and the cargo handling device 10 that can suppress variations in calibration accuracy.

[第2実施形態]
図8を用いて第2実施形態に係る荷役装置10について説明する。ここでは、主に、プロセッサ102による座標系の差異検査(ステップS2)の変形例について説明する。
[Second embodiment]
A material handling apparatus 10 according to the second embodiment will be described with reference to FIG. Here, a modification of the coordinate system difference inspection (step S2) by the processor 102 will be mainly described.

図8に示すように、荷役装置10は、例えばコンベヤ16に隣接する位置に、QRコード(登録商標)などのコード140が表示される表示部142がある。コード140は、QRコードのようなマトリクス型二次元コードのほか、スタック型二次元コードでもよい。コード140は、バーコードのような一次元コードでもよい。表示部142のコード140は実空間の座標系の座標が所定の座標に設定されている。コード140は、コード140自体の実空間の座標系の座標など、適宜の情報を含む。 As shown in FIG. 8 , the material handling apparatus 10 has a display section 142 on which a code 140 such as a QR code (registered trademark) is displayed, for example, at a position adjacent to the conveyor 16 . The code 140 may be a matrix type two-dimensional code such as a QR code, or may be a stack type two-dimensional code. Code 140 may be a one-dimensional code such as a bar code. The code 140 of the display unit 142 is set to predetermined coordinates in the coordinate system of the real space. The code 140 contains appropriate information, such as the coordinates of the real space coordinate system of the code 140 itself.

コード140がQRコードである場合、QRコード140は、3つの切り出しシンボル152,154,156、タイミングパターン、アライメントパターンを有する。 If code 140 is a QR code, QR code 140 has three segmented symbols 152, 154, 156, a timing pattern, and an alignment pattern.

プロセッサ102は、カメラ(イメージセンサー)20、又は、コード140を認識するための図示しない別のカメラ(イメージセンサー)を介して読み取ったQRコード140の情報を受信する。別のカメラは、カメラ20と同様に、インターフェース106を介してプロセッサ102と通信する。
QRコード140には、メモリ104及び/又はストレージ112に格納した情報と同じ情報を格納することができる。このため、QRコード140を作成することで、プロセッサ102は、メモリ104及び/又はストレージ112からの情報の読み出し、すなわち、アクセスが不要になり得る。QRコード140に適宜の情報を格納しておくことで、荷役装置10は、例えば入力部122によりメモリ104及び/又はストレージ112に情報を入力しなくてもよい。プロセッサ102は、メモリ104及び/又はストレージ112にアクセスし、メモリ104及び/又はストレージ112に格納された情報と、QRコード140に格納された情報とを比較し、両者の情報の信頼性を確認してもよい。
The processor 102 receives the information of the QR code 140 read via the camera (image sensor) 20 or another camera (image sensor) not shown for recognizing the code 140 . Other cameras, like camera 20 , communicate with processor 102 via interface 106 .
QR code 140 may contain the same information as stored in memory 104 and/or storage 112 . Thus, by creating QR code 140 , processor 102 may not need to read or access information from memory 104 and/or storage 112 . By storing appropriate information in the QR code 140, the material handling apparatus 10 does not need to input information to the memory 104 and/or the storage 112 by the input unit 122, for example. Processor 102 accesses memory 104 and/or storage 112 and compares the information stored in memory 104 and/or storage 112 with the information stored in QR code 140 to confirm the reliability of both information. You may

プロセッサ102は、座標系の差異検査(ステップS2)を行う場合、図7中のステップS101を実行する代わりに、カメラ20等で、3つの切り出しシンボル(受部)152,154,156を含むQRコード140を撮像する。プロセッサ102は、カメラ20等で撮像した情報をインターフェース106を介して取得する。プロセッサ102は、カメラ20等で撮像した情報に基づいてQRコード140の情報を読み取る。3つの切り出しシンボル152,154,156は実空間の座標系の座標が規定されている。すなわち、QRコード140の情報は、実空間の座標系における第1切り出しシンボル(第1受部)152、第2切り出しシンボル(第2受部)154、及び、第3切り出しシンボル(第3受部)156の座標を含む。プロセッサ102は、3つの切り出しシンボル152,154,156の実空間の座標系の座標を、QRコード140から読み出してもよく、メモリ104及び/又はストレージ112から読み出してもよい。プロセッサ102は、例えばQRコード140の特徴点である3つの切り出しシンボル152,154,156を規定部(規定マーカ)とする(ステップS102)。プロセッサ102は、ロボット側治具50を切り出しシンボル(規定部)152に接触させるようにロボット12を動作させ(ステップS103-S106)、実空間の座標系の座標と3次元仮想モデル空間の座標系の座標との差のズレ量(第1の差異情報)を算出(ステップS107)し、メモリ104及び/又はストレージ112に出力し、格納する(ステップS108)。プロセッサ102は、残りの2つの切り出しシンボル(規定部)154,156に対して同様の座標系の差異検査(ステップS109)を行う。 When performing the coordinate system difference inspection (step S2), the processor 102 uses the camera 20 or the like instead of executing step S101 in FIG. The code 140 is imaged. The processor 102 acquires information captured by the camera 20 or the like via the interface 106 . The processor 102 reads the information of the QR code 140 based on the information captured by the camera 20 or the like. Coordinates of the coordinate system of the real space are defined for the three cutout symbols 152, 154, and 156. FIG. That is, the information of the QR code 140 includes a first cutout symbol (first receiving portion) 152, a second cutout symbol (second receiving portion) 154, and a third cutout symbol (third receiving portion) in the coordinate system of the real space. ) contains 156 coordinates. The processor 102 may read the coordinates of the real space coordinate system of the three segmented symbols 152 , 154 , 156 from the QR code 140 and from the memory 104 and/or storage 112 . The processor 102 uses, for example, the three cutout symbols 152, 154, and 156, which are characteristic points of the QR code 140, as defined parts (defined markers) (step S102). The processor 102 operates the robot 12 so as to bring the robot-side jig 50 into contact with the cut-out symbol (defining portion) 152 (steps S103-S106), and sets the coordinates of the real space coordinate system and the coordinate system of the three-dimensional virtual model space. (step S107), and output and stored in the memory 104 and/or storage 112 (step S108). The processor 102 performs a similar coordinate system difference inspection (step S109) on the remaining two cutout symbols (definition portions) 154 and 156 .

プロセッサ102は、実空間の座標系に対して3次元仮想モデル空間の座標系のズレを解消するように、較正を実施する(ステップS3)。 The processor 102 performs calibration so as to eliminate the deviation of the coordinate system of the three-dimensional virtual model space from the coordinate system of the real space (step S3).

本実施形態で説明したように、第1実施形態で説明した受治具(規定部)52,54,56,58の代わりに、QRコード(規定マーカ)140の切り出しシンボル152,154,156を用いることができる。このため、受治具52,54,56,58を取り付けた荷物ケース18を準備する必要がなくなる。 As described in the present embodiment, cutout symbols 152, 154, and 156 of the QR code (definition marker) 140 are used instead of the jigs (definition portions) 52, 54, 56, and 58 described in the first embodiment. can be used. Therefore, it is not necessary to prepare the luggage case 18 with the receiving jigs 52, 54, 56, 58 attached.

例えばQRコード140は、常時表示している必要はなく、必要なときに表示部142に表示させてもよい。QRコード140は、作成が容易である。このため、カメラ20等を用いて認識させたいQRコード140の情報を変更したい場合、新たなQRコード140を表示部142に表示させることができる。プロセッサ102は、例えばQRコード140を定期的、又は、所定のイベント発生直後に表示部142に表示させ、カメラ20を通してQRコード140の情報を認識することで、較正を実施する。 For example, the QR code 140 need not always be displayed, and may be displayed on the display unit 142 when necessary. QR code 140 is easy to create. Therefore, when it is desired to change the information of the QR code 140 to be recognized using the camera 20 or the like, a new QR code 140 can be displayed on the display unit 142 . The processor 102 performs calibration by, for example, displaying the QR code 140 on the display unit 142 periodically or immediately after occurrence of a predetermined event, and recognizing the information of the QR code 140 through the camera 20 .

このように、本実施形態に係るプロセッサ102は、ロボット12を制御し、3次元仮想モデル空間の座標系に基づいて、実空間におけるロボット12により移動させるロボット側治具50を実空間の座標系の座標が規定される切り出しシンボル(第1受部)152に向けて移動させて接触させ、3次元仮想モデル空間の座標系に基づいてロボット側治具50を切り出しシンボル152の所定位置に接触させる際に得る、ロボット側治具50の座標と切り出しシンボル152の座標との第1の差異情報をインターフェース106を介して取得し、第1の差異情報に基づいて、3次元仮想モデル空間の座標系を較正する。
本実施形態によれば、較正の精度のバラつきを抑制可能な荷役装置10の制御装置14、及び、荷役装置10を提供することができる。
In this manner, the processor 102 according to the present embodiment controls the robot 12 to move the robot-side jig 50 to be moved by the robot 12 in the real space based on the coordinate system of the three-dimensional virtual model space. The robot-side jig 50 is brought into contact with the predetermined position of the cutout symbol 152 based on the coordinate system of the three-dimensional virtual model space. The first difference information between the coordinates of the robot-side jig 50 and the coordinates of the clipping symbol 152 is acquired through the interface 106, and the coordinate system of the three-dimensional virtual model space is calculated based on the first difference information. calibrate.
According to this embodiment, it is possible to provide the control device 14 of the cargo handling device 10 and the cargo handling device 10 that can suppress variations in calibration accuracy.

[第3実施形態]
図9を用いて第3実施形態に係る荷役装置10について説明する。ここでは、受治具52,54,56,58が第1実施形態で説明した荷物ケース18とは異なり、コンベヤ16のフレーム16aに固定されている。すなわち、受治具52,54,56,58が配設される位置は、荷物ケース18の4つの角部22,24,26,28に限られない。このため、受治具52,54,56,58が配設される位置は、作業対象物だけでなく、実空間の壁やロボット12に対する障害物でもよい。
[Third Embodiment]
A material handling apparatus 10 according to the third embodiment will be described with reference to FIG. Here, the receiving jigs 52, 54, 56, 58 are fixed to the frame 16a of the conveyor 16 unlike the luggage case 18 described in the first embodiment. That is, the positions where the receiving jigs 52 , 54 , 56 , 58 are arranged are not limited to the four corners 22 , 24 , 26 , 28 of the luggage case 18 . Therefore, the positions where the receiving jigs 52 , 54 , 56 , 58 are arranged may be not only the work object but also a wall in the real space or an obstacle to the robot 12 .

受治具52,54,56,58の実空間の座標系の座標の情報は、例えばQRコード(登録商標)などのコード140に格納されている。すなわち、プロセッサ102は、QRコード140の情報を受信することで、受治具52,54,56,58の実空間の座標系の座標の情報を得る。この場合、プロセッサ102が、カメラ20で撮像した情報に基づいて、受治具52,54,56,58の実空間の座標系の座標の情報を取得する必要がなくなる。このため、カメラ20による受治具52,54,56,58の認識精度に依存せず、ロボット12の可動アーム34の3次元仮想モデル空間の座標系の座標を、実空間の座標が既知である受治具52,54,56,58に較正することができる。 Information on the coordinates of the receiving jigs 52, 54, 56, 58 in the real space coordinate system is stored in a code 140 such as a QR code (registered trademark). That is, the processor 102 receives the information of the QR code 140 to obtain the information of the coordinates of the receiving jigs 52 , 54 , 56 , 58 in the real space coordinate system. In this case, there is no need for the processor 102 to acquire the information of the coordinates of the real space coordinate system of the jigs 52 , 54 , 56 , 58 based on the information captured by the camera 20 . Therefore, without depending on the recognition accuracy of the jigs 52, 54, 56, 58 by the camera 20, the coordinates of the coordinate system of the three-dimensional virtual model space of the movable arm 34 of the robot 12 can be changed to the coordinates of the real space. Certain fixtures 52, 54, 56, 58 can be calibrated.

プロセッサ102は、ロボット12に取り付けたロボット側治具50を、受治具52,54,56,58の実空間の座標系の座標の位置に向けてそれぞれ移動させ、座標系の差異検査(ステップS2)を行う。 The processor 102 moves the robot-side jig 50 attached to the robot 12 toward the coordinate positions of the receiving jigs 52, 54, 56, and 58 in the coordinate system of the real space, and inspects the difference in the coordinate system (step S2) is performed.

第2実施形態で説明したように、QRコード140の切り出しシンボル152,154,156の少なくとも1つを用いて座標系の差異検査(ステップS2)をさらに実施してもよい。この場合、例えば5箇所以上で座標系の差異検査(ステップS2)を実施することができる。このように、より多くの箇所で座標系の差異検査(ステップS2)を実施し、較正を行う際にその情報を用いることで、較正の信頼性(精度)を向上させる。 As described in the second embodiment, at least one of the clipped symbols 152, 154, 156 of the QR code 140 may be used to further perform the coordinate system difference inspection (step S2). In this case, for example, the coordinate system difference inspection (step S2) can be performed at five or more locations. In this way, the reliability (accuracy) of the calibration is improved by performing the coordinate system difference inspection (step S2) at more points and using the information when performing the calibration.

本実施形態によれば、較正の精度のバラつきを抑制可能な荷役装置10の制御装置14、及び、荷役装置10を提供することができる。 According to this embodiment, it is possible to provide the control device 14 of the cargo handling device 10 and the cargo handling device 10 that can suppress variations in calibration accuracy.

本発明のいくつかの実施形態を説明したが、これらの実施形態は例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 While several embodiments of the invention have been described, these embodiments have been presented by way of example and are not intended to limit the scope of the invention. These novel embodiments can be implemented in various other forms, and various omissions, replacements, and modifications can be made without departing from the scope of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are included in the scope of the invention described in the claims and equivalents thereof.

10…荷役装置、12…ロボット、14…制御装置、16…コンベヤ、18…荷物ケース、20…カメラ、22,24,26,28…角部、32…基台、34…多関節アーム、36…ハンド、42,44…駆動モータ、46…力覚センサ、50…ロボット側治具、52,54,56,58…受治具、62…取付治具、64…凸状の嵌合部、72…取付治具、74…凹状の嵌合部、102…プロセッサ、104…メモリ、106…インターフェース、112…ストレージ、122…入力部、124…表示部、126…タッチパネル。 DESCRIPTION OF SYMBOLS 10... Cargo handling apparatus, 12... Robot, 14... Control device, 16... Conveyor, 18... Luggage case, 20... Camera, 22, 24, 26, 28... Corner part, 32... Base, 34... Articulated arm, 36 Hand 42, 44 Drive motor 46 Force sensor 50 Robot-side jig 52, 54, 56, 58 Receiving jig 62 Mounting jig 64 Convex fitting portion 72... Mounting jig, 74... Concave fitting portion, 102... Processor, 104... Memory, 106... Interface, 112... Storage, 122... Input unit, 124... Display unit, 126... Touch panel.

Claims (15)

対象物である荷物を荷役するロボットの動作を制御するプロセッサと、
前記プロセッサにより制御され、前記ロボットと通信するインターフェースと、
を備え、
前記プロセッサは、
前記ロボットを制御し、3次元仮想モデル空間の座標系に基づいて、実空間における前記ロボットにより移動させるロボット側治具を前記実空間の座標系の座標が規定される第1受部に向けて移動させて接触させ、
前記3次元仮想モデル空間の座標系に基づいて前記ロボット側治具を前記第1受部の所定位置に接触させる際に得る、前記ロボット側治具の座標と前記第1受部の座標との第1の差異情報を前記インターフェースを介して取得し、
前記第1の差異情報に基づいて、前記3次元仮想モデル空間の座標系を較正する、荷役装置の制御装置。
a processor that controls the operation of a robot that unloads a load that is an object;
an interface controlled by the processor and in communication with the robot;
with
The processor
A robot-side jig that controls the robot and is moved by the robot in the real space based on the coordinate system of the three-dimensional virtual model space is directed toward the first receiving portion where the coordinates of the coordinate system of the real space are defined. move and touch,
Coordinates of the robot-side jig and coordinates of the first receiving portion obtained when the robot-side jig is brought into contact with a predetermined position of the first receiving portion based on the coordinate system of the three-dimensional virtual model space. obtaining first difference information through the interface;
A control device for a cargo handling device that calibrates the coordinate system of the three-dimensional virtual model space based on the first difference information.
前記プロセッサは、前記第1の差異情報を、前記3次元仮想モデル空間の座標系の前記ロボット側治具の座標に基づいて取得する、請求項1に記載の制御装置。 2. The control device according to claim 1, wherein said processor acquires said first difference information based on coordinates of said robot-side jig in a coordinate system of said three-dimensional virtual model space. 前記プロセッサは、
前記ロボット側治具が前記第1受部の所定位置に接触したことの接触情報を、前記ロボットを通して取得し、
前記接触情報に基づいて、前記ロボット側治具の移動を停止させ、
前記ロボット側治具の移動を停止させたときの前記3次元仮想モデル空間の座標系の前記ロボット側治具の座標を得る、請求項1又は請求項2に記載の制御装置。
The processor
Acquiring through the robot contact information indicating that the robot-side jig has come into contact with a predetermined position of the first receiving portion;
stopping the movement of the robot-side jig based on the contact information;
3. The control device according to claim 1, wherein the coordinates of said robot-side jig in the coordinate system of said three-dimensional virtual model space when said robot-side jig stops moving are obtained.
前記プロセッサは、前記第1の差異情報を取得した後、
前記ロボット側治具を、前記第1受部から離し、前記実空間の座標系の座標が規定される第2受部に向けて移動させて接触させ、
前記ロボット側治具を前記第2受部に接触させたときに得る、前記3次元仮想モデル空間の座標系の前記ロボット側治具の座標に基づいて、前記ロボット側治具の座標と前記第2受部の座標との第2の差異情報を前記インターフェースを介して取得し、
前記第1の差異情報に加え前記第2の差異情報に基づいて、前記3次元仮想モデル空間の座標系を較正する、請求項1乃至請求項3のいずれか1項に記載の制御装置。
After the processor acquires the first difference information,
the robot-side jig is separated from the first receiving portion and moved toward and brought into contact with the second receiving portion in which the coordinates of the coordinate system of the real space are defined;
Based on the coordinates of the robot-side jig in the coordinate system of the three-dimensional virtual model space obtained when the robot-side jig is brought into contact with the second receiving portion, the coordinates of the robot-side jig and the second 2 Obtaining second difference information from the coordinates of the receiving part through the interface,
4. The control device according to any one of claims 1 to 3, wherein the coordinate system of said three-dimensional virtual model space is calibrated based on said second difference information in addition to said first difference information.
前記プロセッサは、前記第1の差異情報を、前記ロボットから得られる情報に基づいて取得する、請求項1乃至請求項4のいずれか1項に記載の制御装置。 5. The control device according to any one of claims 1 to 4, wherein said processor acquires said first difference information based on information obtained from said robot. 前記プロセッサは、前記第1の差異情報を、前記ロボットの力覚センサ及び/又はモータから取得する情報に基づいて取得する、請求項5に記載の制御装置。 6. The control device according to claim 5, wherein said processor obtains said first difference information based on information obtained from a force sensor and/or motor of said robot. 前記プロセッサは、前記ロボットの動作を制御し、前記ロボット側治具を前記第1受部に嵌合させたとき、前記第1の差異情報を取得する、請求項1乃至請求項6のいずれか1項に記載の制御装置。 7. The processor according to any one of claims 1 to 6, wherein the processor controls the motion of the robot and acquires the first difference information when the robot-side jig is fitted into the first receiving portion. 2. The control device according to item 1. 請求項1乃至請求項7のいずれか1項に記載に制御装置と、
前記制御装置からの信号により、3次元仮想モデル空間の座標系に基づいてハンドを移動させるロボットと、
前記ロボットにより前記3次元仮想モデル空間の座標系において移動するロボット側治具と、
前記実空間の座標系の座標が規定される第1受部と
を有する、荷役装置。
A control device according to any one of claims 1 to 7;
a robot that moves a hand based on a coordinate system in a three-dimensional virtual model space according to a signal from the control device;
a robot-side jig that is moved by the robot in the coordinate system of the three-dimensional virtual model space;
and a first receiving portion in which coordinates of the coordinate system of the real space are defined.
前記ロボットは、前記ロボット側治具と前記第1受部との接触を検知する力覚センサを有し、
前記制御装置の前記プロセッサは、前記力覚センサからの情報に基づいて前記第1受部に対する前記ロボット側治具の移動を制御する、請求項8に記載の荷役装置。
The robot has a force sensor that detects contact between the robot-side jig and the first receiving portion,
9. The material handling apparatus according to claim 8, wherein said processor of said control device controls movement of said robot-side jig with respect to said first receiving portion based on information from said force sensor.
前記プロセッサは、
前記インターフェースを介して、前記ロボットの前記力覚センサから取得する情報に基づいて、前記3次元仮想モデル空間の座標系の前記ロボット側治具の座標を算出し、
前記3次元仮想モデル空間の座標系に基づいて前記ロボット側治具を前記第1受部の所定位置に接触させる際、前記力覚センサから取得する情報に基づいて、前記第1の差異情報を前記インターフェースを介して取得し、算出する、請求項9に記載の荷役装置。
The processor
calculating the coordinates of the robot-side jig in the coordinate system of the three-dimensional virtual model space based on the information acquired from the force sensor of the robot via the interface;
When the robot-side jig is brought into contact with the predetermined position of the first receiving portion based on the coordinate system of the three-dimensional virtual model space, the first difference information is obtained based on information obtained from the force sensor. 10. Material handling equipment according to claim 9, obtained and calculated via said interface.
前記第1受部が配置されコンベヤに載置する荷物ケースを有する、請求項8乃至請求項10のいずれか1項に記載の荷役装置。 11. A material handling apparatus according to any one of claims 8 to 10, comprising a luggage case in which said first receiving part is arranged and placed on a conveyor. 前記荷物ケースは、上端に4つの角を有し、
前記4つの角の1つに前記第1受部が配置され、
前記4つの角の残りの3つの角のうち、少なくとも1つに前記第1受部とは異なる第2受部が配置されている、請求項11に記載の荷役装置。
The luggage case has four corners at the top,
The first receiving portion is arranged at one of the four corners,
The material handling device according to claim 11, wherein a second receiving portion different from the first receiving portion is arranged in at least one of the remaining three corners of the four corners.
前記ロボット側治具及び前記第1受部は、嵌合可能である、請求項8乃至請求項12のいずれか1項に記載の荷役装置。 The material handling apparatus according to any one of claims 8 to 12, wherein the robot-side jig and the first receiving portion are fittable. 前記第1受部及び前記第2受部を含むコードを設置又は表示する表示部と、
前記第1受部及び前記第2受部を含む前記コードを撮像可能で、前記インターフェースを介して前記プロセッサと通信するイメージセンサーと
を備え、
前記プロセッサは、前記表示部の前記第1受部及び前記第2受部の情報、及び、前記コードの情報を前記イメージセンサーを介して取得する、請求項12に記載の荷役装置。
a display unit for installing or displaying a cord including the first receiving portion and the second receiving portion;
an image sensor capable of imaging the code including the first receiving portion and the second receiving portion and communicating with the processor via the interface;
13. The material handling apparatus according to claim 12, wherein said processor acquires information on said first receiving portion and said second receiving portion of said display unit and information on said code via said image sensor.
前記コードの情報は、前記実空間の座標系における前記第1受部及び前記第2受部の座標を含む、請求項14に記載の荷役装置。 15. The material handling apparatus according to claim 14, wherein the code information includes coordinates of the first receiving portion and the second receiving portion in the coordinate system of the real space.
JP2019169119A 2019-09-18 2019-09-18 Control device for cargo handling equipment and cargo handling equipment Active JP7326082B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019169119A JP7326082B2 (en) 2019-09-18 2019-09-18 Control device for cargo handling equipment and cargo handling equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019169119A JP7326082B2 (en) 2019-09-18 2019-09-18 Control device for cargo handling equipment and cargo handling equipment

Publications (2)

Publication Number Publication Date
JP2021045813A JP2021045813A (en) 2021-03-25
JP7326082B2 true JP7326082B2 (en) 2023-08-15

Family

ID=74877300

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019169119A Active JP7326082B2 (en) 2019-09-18 2019-09-18 Control device for cargo handling equipment and cargo handling equipment

Country Status (1)

Country Link
JP (1) JP7326082B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023243001A1 (en) * 2022-06-15 2023-12-21 ファナック株式会社 Robot programming device and robot programming system

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4211807B2 (en) 2000-11-07 2009-01-21 ソニー株式会社 Active matrix display device

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04211807A (en) * 1990-04-20 1992-08-03 Hitachi Ltd Method and device for estimating installing error of robot and robot drive controlling method, working bench with standard, and standard
JP3304251B2 (en) * 1995-11-27 2002-07-22 松下電工株式会社 Automatic teaching method and device for assembly robot
JPH09254063A (en) * 1996-03-18 1997-09-30 Mitsubishi Electric Corp Stacking robot system

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4211807B2 (en) 2000-11-07 2009-01-21 ソニー株式会社 Active matrix display device

Also Published As

Publication number Publication date
JP2021045813A (en) 2021-03-25

Similar Documents

Publication Publication Date Title
CN111776762B (en) Robotic system with automated package scanning and registration mechanism and method of operation thereof
US10723020B2 (en) Robotic arm processing method and system based on 3D image
US9782896B2 (en) Robot system and control method for robot system
US9272420B2 (en) Robot system and imaging method
CN112405570A (en) Robotic multi-gripper assembly and method for gripping and holding objects
EP2636493B1 (en) Information processing apparatus and information processing method
US11396101B2 (en) Operating system, control device, and computer program product
US11267142B2 (en) Imaging device including vision sensor capturing image of workpiece
KR102172266B1 (en) Board Transfer Hand Diagnosis System
US20140277722A1 (en) Robot system, calibration method, and method for producing to-be-processed material
EP2783807A2 (en) Robot system, calibration method, and method for producing to-be-processed material
US20130238124A1 (en) Information processing apparatus and information processing method
US20130158947A1 (en) Information processing apparatus, control method for information processing apparatus and storage medium
CN111993448B (en) Robotic multi-gripper assembly and method for gripping and holding objects
US10759056B2 (en) Control unit for articulated robot
US20220088795A1 (en) Manipulator controller, manipulator control method, and non-transitory computer-readable storage medium storing manipulator control program
US20200164518A1 (en) Robot-Conveyor Calibration Method, Robot System And Control System
US11173608B2 (en) Work robot and work position correction method
JP6489894B2 (en) A robot system having a function of correcting the take-out path of an object
JP7326082B2 (en) Control device for cargo handling equipment and cargo handling equipment
JP6424560B2 (en) Abnormality cause estimation device, picking device, and abnormality cause estimation method in picking device
EP2711143A2 (en) Robot system and article manufacturing method
US20210197391A1 (en) Robot control device, robot control method, and robot control non-transitory computer readable medium
US20210094136A1 (en) Detection system for detecting workpiece
KR102407342B1 (en) Apparatus for Inspection of product combined with Autonomous Vehicle

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220810

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20230105

TRDD Decision of grant or rejection written
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230630

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230704

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230802

R150 Certificate of patent or registration of utility model

Ref document number: 7326082

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150