JP7486986B2 - Control device and program - Google Patents

Control device and program Download PDF

Info

Publication number
JP7486986B2
JP7486986B2 JP2020045226A JP2020045226A JP7486986B2 JP 7486986 B2 JP7486986 B2 JP 7486986B2 JP 2020045226 A JP2020045226 A JP 2020045226A JP 2020045226 A JP2020045226 A JP 2020045226A JP 7486986 B2 JP7486986 B2 JP 7486986B2
Authority
JP
Japan
Prior art keywords
item
items
priority
unit
control device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020045226A
Other languages
Japanese (ja)
Other versions
JP2021146403A (en
Inventor
華馨 鄭
淳 松村
優香 渡辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Toshiba Infrastructure Systems and Solutions Corp
Original Assignee
Toshiba Corp
Toshiba Infrastructure Systems and Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Infrastructure Systems and Solutions Corp filed Critical Toshiba Corp
Priority to JP2020045226A priority Critical patent/JP7486986B2/en
Publication of JP2021146403A publication Critical patent/JP2021146403A/en
Application granted granted Critical
Publication of JP7486986B2 publication Critical patent/JP7486986B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)

Description

本発明の実施形態は、制御装置及びプログラムに関する。 An embodiment of the present invention relates to a control device and a program.

従来、ロボットアーム等の移動装置を用いることで荷物等の物品の荷役(移動)が行われている。例えば、移動対象の物品が置かれた場所を撮像することで得られた画像から物品の位置、形状及び姿勢を認識し、周囲がクリアな物品から順番に把持を行う技術が知られている。 Conventionally, items such as luggage are handled (moved) using a moving device such as a robot arm. For example, a technology is known in which the location where the item to be moved is placed is photographed, the position, shape, and orientation of the item are recognized from the obtained image, and the item is picked up in order starting with the item with a clear surrounding area.

特開2011-73066号公報JP 2011-73066 A

しかしながら、従来の技術では、把持対象(移動対象)の物品と当該物品の周囲に存在する他の物品との距離に基づき順番を決定するため、物品全体の位置関係を考慮することはできず、効率性の観点から更なる改善の余地がある。 However, in conventional technology, the order is determined based on the distance between the item to be grasped (moved) and other items around it, so it is not possible to take into account the relative positions of all the items, and there is room for further improvement in terms of efficiency.

本発明が解決しようとする課題は、物品の移動を効率的に行うことが可能な制御装置及びプログラムを提供することである。 The problem that this invention aims to solve is to provide a control device and program that can efficiently move items.

実施形態の制御装置は、第1の接続部と、第2の接続部と、制御部とを備える。第1の接続部は、載置部に載置された物品を把持して当該物品の移動を行う荷役装置に接続される。第2の接続部は、前記載置部を上方から撮像する撮像装置に接続される。制御部は、前記撮像装置で撮像された画像を前記第2の接続部を介して取得し、取得した前記画像から前記載置部に載置された前記物品を認識する認識処理を実行し、前記認識処理で認識された前記物品の物品間の離間距離を算出し、前記離間距離に基づいて移動順序に係る優先度を前記物品に設定し、前記第1の接続部を介して前記荷役装置を制御することで、前記優先度に応じた順序で前記物品を移動させる。 The control device of the embodiment includes a first connection unit, a second connection unit, and a control unit. The first connection unit is connected to a loading device that grasps an item placed on a loading section and moves the item. The second connection unit is connected to an imaging device that images the loading section from above. The control unit acquires an image captured by the imaging device via the second connection unit, executes a recognition process that recognizes the item placed on the loading section from the acquired image, calculates a distance between the items recognized in the recognition process, sets a priority for the order of movement for the items based on the distance, and controls the loading device via the first connection unit to move the items in an order according to the priority.

図1は、第1の実施形態に係る荷役システムの構成の一例を示す図である。FIG. 1 is a diagram showing an example of the configuration of a cargo handling system according to the first embodiment. 図2は、第1の実施形態に係る制御装置のハードウェア構成の一例を示す図である。FIG. 2 is a diagram illustrating an example of a hardware configuration of the control device according to the first embodiment. 図3は、第1の実施形態に係る制御装置の機能構成の一例を示す図である。FIG. 3 is a diagram illustrating an example of a functional configuration of the control device according to the first embodiment. 図4は、第1の実施形態に係る計画部の動作を説明するための図である。FIG. 4 is a diagram for explaining the operation of the planning unit according to the first embodiment. 図5は、第1の実施形態に係る計画部の動作を説明するための図である。FIG. 5 is a diagram for explaining the operation of the planning unit according to the first embodiment. 図6は、第1の実施形態に係る計画部の動作を説明するための図である。FIG. 6 is a diagram for explaining the operation of the planning unit according to the first embodiment. 図7は、第1の実施形態の制御装置が実行する処理の一例を示すフローチャートである。FIG. 7 is a flowchart illustrating an example of a process executed by the control device of the first embodiment. 図8は、第1の実施形態に係る制御装置の動作例を説明するための図である。FIG. 8 is a diagram for explaining an example of the operation of the control device according to the first embodiment. 図9は、第1の実施形態の変形例1に係る計画部の動作を説明するための図である。FIG. 9 is a diagram for explaining the operation of the planning unit according to the first modification of the first embodiment. 図10は、第2の実施形態に係る制御装置の機能構成の一例を示す図である。FIG. 10 is a diagram illustrating an example of a functional configuration of a control device according to the second embodiment. 図11は、第2の実施形態の制御装置が実行する処理の一例を示すフローチャートである。FIG. 11 is a flowchart illustrating an example of a process executed by the control device according to the second embodiment.

以下、実施形態に係る制御装置及び荷役システムを、図面を参照して説明する。 The control device and loading/unloading system according to the embodiment will be described below with reference to the drawings.

(第1の実施形態)
図1は、第1の実施形態に係る荷役システムの構成の一例を示す図である。
First Embodiment
FIG. 1 is a diagram showing an example of the configuration of a cargo handling system according to the first embodiment.

図1に示すように、荷役システム1は、荷役装置10と、カメラ20と、制御装置30とを有する。ここで、荷役装置10及びカメラ20と、制御装置30とは、例えばシリアルケーブルやLAN(Local Area Network)等を介して接続される。 As shown in FIG. 1, the loading and unloading system 1 includes a loading and unloading device 10, a camera 20, and a control device 30. Here, the loading and unloading device 10, the camera 20, and the control device 30 are connected via, for example, a serial cable or a LAN (Local Area Network), etc.

荷役装置10は、荷役装置の一例である。荷役装置10は、パレット2の上面2aに載置された物品Wを目的位置に荷役(移動)するための装置である。物品Wの目的位置は、物品Wの移動先であればよく、例えばコンベアとすることができる。パレット2は、載置部の一例であり、例えば水平な床面Gに配置される。物品Wは、例えば定形又は不定形の立体物であり、パレット2の上面2aに1又は複数個載置される。なお、本実施形態では、物品Wをパレット2に載置した例を示しているが、これに限らず、例えば床面G上に載置される形態としてもよい。この場合、物品Wが載置される床面G上の領域が載置部に対応することになる。 The loading device 10 is an example of a loading device. The loading device 10 is a device for loading (moving) an item W placed on the upper surface 2a of the pallet 2 to a destination position. The destination position of the item W may be any location to which the item W is to be moved, and may be, for example, a conveyor. The pallet 2 is an example of a placement section, and is placed, for example, on a horizontal floor surface G. The item W is, for example, a shaped or irregular three-dimensional object, and one or more items are placed on the upper surface 2a of the pallet 2. Note that, although an example in which the item W is placed on the pallet 2 is shown in this embodiment, this is not limiting, and the item W may be placed on, for example, the floor surface G. In this case, the area on the floor surface G on which the item W is placed corresponds to the placement section.

荷役装置10は、基台111と、基台111に支持されたアーム部112と、アーム部112の先端に設けられた把持部113とを備える。基台111は、床面Gに固定された筐体である。以下では、床面Gと平行な方向、すなわち重力の作用する方向に直交する方向を水平方向ともいう。また、床面Gに直交する方向、すなわち重力の作用する方向及びその逆方向を上下方向ともいう。 The loading and unloading device 10 comprises a base 111, an arm unit 112 supported by the base 111, and a gripping unit 113 provided at the tip of the arm unit 112. The base 111 is a housing fixed to a floor surface G. Hereinafter, the direction parallel to the floor surface G, i.e., the direction perpendicular to the direction in which gravity acts, is also referred to as the horizontal direction. In addition, the direction perpendicular to the floor surface G, i.e., the direction in which gravity acts and the opposite direction thereto, are also referred to as the up-down direction.

アーム部112は、一例として多関節ロボットアームである。アーム部112は、把持部113によって保持された物品Wを上下方向に移動する動作、及び水平方向に移動する動作を実行可能に構成されている。 The arm unit 112 is, for example, a multi-joint robot arm. The arm unit 112 is configured to be capable of moving the item W held by the gripper unit 113 in the vertical direction and the horizontal direction.

例えば、アーム部112は、1軸又は2軸回りに回動可能な複数の関節により連結された3つの可動部112a~112cで構成される。可動部112aは、基台111から延出している。可動部112bは、可動部112aから延出している。可動部112cは、可動部112bから延出している。 For example, the arm portion 112 is composed of three movable portions 112a to 112c connected by multiple joints that can rotate around one or two axes. Movable portion 112a extends from the base 111. Movable portion 112b extends from movable portion 112a. Movable portion 112c extends from movable portion 112b.

アーム部112(可動部112c)の先端には、把持部113が取り付けられている。把持部113は、物品Wを挟み込んで把持する。なお、物品Wの把持は、挟持による把持方法に限定されない。例えば、把持部113に代えて、負圧によって物品Wを吸着把持する吸着部を用いてもよい。以下、把持部113によって物品Wを把持する動作、又は物品Wを把持する動作及び当該物品Wをアーム部112によって目的位置まで移動する動作を「ピッキング」ともいう。なお、アーム部112や把持部113には、物品Wのピッキング状態を検出するためのセンサ装置(例えば、接触センサ、重量センサ等)が設けられているものとする。 The gripper 113 is attached to the tip of the arm 112 (movable part 112c). The gripper 113 pinches and grips the item W. Note that the gripping of the item W is not limited to the pinching gripping method. For example, instead of the gripper 113, a suction part that sucks and grips the item W by negative pressure may be used. Hereinafter, the action of gripping the item W by the gripper 113, or the action of gripping the item W and moving the item W to the target position by the arm 112 is also referred to as "picking". Note that the arm 112 and the gripper 113 are provided with a sensor device (e.g., a contact sensor, a weight sensor, etc.) for detecting the picking state of the item W.

カメラ20は、撮像装置の一例である。カメラ20は、パレット2の上方に設けられ、パレット2の上面2aを上方から撮像する。カメラ20は、RGBカメラ21と、3次元カメラ22とを有する。なお、RGBカメラ21及び3次元カメラ22の何れも、パレット2を撮像範囲(図中の破線範囲)に含むものとする。 The camera 20 is an example of an imaging device. The camera 20 is provided above the pallet 2, and captures an image of the top surface 2a of the pallet 2 from above. The camera 20 has an RGB camera 21 and a 3D camera 22. Note that both the RGB camera 21 and the 3D camera 22 include the pallet 2 in their imaging range (the range indicated by the dashed line in the figure).

RGBカメラ21は、2次元画像を撮像する第1の撮像装置の一例である。RGBカメラ21は、カラー画像を撮像することが可能な撮像装置である。RGBカメラ21は、撮像によって得られた2次元画像(以下、RGB画像ともいう)を制御装置30に出力する。かかるRGB画像には、パレット2の上面2aに載置された物品Wを上方から見た状態が写し出されることになる。なお、2次元画像は、RGB画像に限らず、グレースケールの画像であってもよい。 The RGB camera 21 is an example of a first imaging device that captures a two-dimensional image. The RGB camera 21 is an imaging device that is capable of capturing color images. The RGB camera 21 outputs the two-dimensional image (hereinafter also referred to as an RGB image) obtained by imaging to the control device 30. This RGB image shows the state of the item W placed on the top surface 2a of the pallet 2 as viewed from above. Note that the two-dimensional image is not limited to an RGB image, and may be a grayscale image.

3次元カメラ22は、第2の撮像装置の一例である。3次元カメラ22は、ステレオカメラや3Dレーザスキャナ装置等によって構成される。3次元カメラ22は、パレット2の上面2aを上方から撮像(又は計測)することで、パレット2の上面2aに載置された物品Wの高さや形状を3次元的に表した3次元情報を取得する。 The three-dimensional camera 22 is an example of a second imaging device. The three-dimensional camera 22 is configured with a stereo camera, a 3D laser scanner device, or the like. The three-dimensional camera 22 captures (or measures) the top surface 2a of the pallet 2 from above to obtain three-dimensional information that three-dimensionally represents the height and shape of the item W placed on the top surface 2a of the pallet 2.

また、3次元カメラ22は、取得した3次元情報からデプス(Depth)画像と点群データ(point cloud)とを生成し、制御装置30に出力する。ここで、デプス画像は、3次元カメラ22からパレット2の上面2aに載置された物品Wまでの距離情報を画像に変換したものである。また、点群データは、パレット2の上面2aに載置された物品Wの表面の形状を3次元の点群で表したデータである。以下、デプス画像及び点群データを総称して3次元画像ともいう。 The three-dimensional camera 22 also generates a depth image and point cloud data from the acquired three-dimensional information and outputs them to the control device 30. Here, the depth image is an image obtained by converting distance information from the three-dimensional camera 22 to the item W placed on the top surface 2a of the pallet 2. The point cloud data is data that represents the shape of the surface of the item W placed on the top surface 2a of the pallet 2 as a three-dimensional point cloud. Hereinafter, the depth image and point cloud data are collectively referred to as a three-dimensional image.

RGBカメラ21及び3次元カメラ22は、制御装置30からの撮像要求に応じて撮像を実行し、当該撮像によって得られたRGB画像及び3次元画像を制御装置30に送信する。また、RGBカメラ21及び3次元カメラ22の一方を指定した撮像要求も可能となっており、この場合には、指定されたカメラ側が撮像を個別に実行する。 The RGB camera 21 and the 3D camera 22 perform imaging in response to an imaging request from the control device 30, and transmit the RGB image and the 3D image obtained by the imaging to the control device 30. It is also possible to request imaging by specifying either the RGB camera 21 or the 3D camera 22, and in this case, the specified camera performs imaging individually.

なお、本実施形態では、3次元画像の生成を3次元カメラ22が行う構成とするが、これに限らず、制御装置30で3次元画像の生成を行う構成としてもよい。この場合、3次元カメラ22は、撮像によって取得した3次元情報を制御装置30に出力することで、3次元画像の生成が制御装置30によって行われる。 In this embodiment, the three-dimensional image is generated by the three-dimensional camera 22, but the present invention is not limited to this, and the three-dimensional image may be generated by the control device 30. In this case, the three-dimensional camera 22 outputs three-dimensional information acquired by imaging to the control device 30, and the three-dimensional image is generated by the control device 30.

制御装置30は、本実施形態における制御装置の一例である。制御装置30は、カメラ20の撮像結果に基づいて、荷役装置10の動作を制御する。具体的には、制御装置30は、カメラ20から入力されるRGB画像及び3次元画像に基づいて、パレット2の上面2aに載置された物品Wの各々を認識し、認識した各物品Wのピッキング順序を決定する。そして、制御装置30は、荷役装置10の動作を制御することで、パレット2の上面2aに載置された物品Wの各々を、決定したピッキング順序で目的位置まで移動させる。 The control device 30 is an example of a control device in this embodiment. The control device 30 controls the operation of the loading and unloading device 10 based on the image capture results of the camera 20. Specifically, the control device 30 recognizes each of the items W placed on the upper surface 2a of the pallet 2 based on the RGB image and the 3D image input from the camera 20, and determines the picking order for each recognized item W. The control device 30 then controls the operation of the loading and unloading device 10 to move each of the items W placed on the upper surface 2a of the pallet 2 to the target position in the determined picking order.

なお、本実施形態では、制御装置30を荷役装置10と別体としたが、荷役装置10と制御装置30とを一体的に構成する形態としてもよい。この場合、荷役装置10と制御装置30とを、荷役装置と定義してもよい。また、荷役装置10及び制御装置30に、カメラ20を含めた構成を荷役装置と定義してもよい。 In this embodiment, the control device 30 is separate from the loading device 10, but the loading device 10 and the control device 30 may be configured as an integrated unit. In this case, the loading device 10 and the control device 30 may be defined as the loading device. Also, the configuration including the loading device 10, the control device 30, and the camera 20 may be defined as the loading device.

次に、上述した制御装置30ハードウェア構成について説明する。図2は、制御装置30のハードウェア構成の一例を示す図である。 Next, the hardware configuration of the control device 30 described above will be described. Figure 2 is a diagram showing an example of the hardware configuration of the control device 30.

図2に示すように、制御装置30は、プロセッサ31、ROM(Read Only Memory)32、RAM(Random Access Memory)33、カメラインタフェース34、荷役装置インタフェース35及び記憶部36を備える。 As shown in FIG. 2, the control device 30 includes a processor 31, a ROM (Read Only Memory) 32, a RAM (Random Access Memory) 33, a camera interface 34, a loading device interface 35, and a memory unit 36.

プロセッサ31は、制御部及びコンピュータの一例である。プロセッサ31は、制御装置30の動作を統括的に制御する。プロセッサ31は、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、ASIC(Application Specific Integrated Circuit)等によって実現することができる。 The processor 31 is an example of a control unit and a computer. The processor 31 controls the overall operation of the control device 30. The processor 31 can be realized by a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), an ASIC (Application Specific Integrated Circuit), etc.

ROM32は、プロセッサ31が実行する各種のプログラムや設定情報等を記憶する。RAM33は、プロセッサ31のワークエリアとして使用される。 The ROM 32 stores various programs executed by the processor 31, setting information, etc. The RAM 33 is used as a work area for the processor 31.

カメラインタフェース34は、第2の接続部の一例である。カメラインタフェース34は、カメラ20を接続するための通信インタフェースである。カメラインタフェース34は、カメラ20と通信可能に接続され、プロセッサ31の制御の下、自装置とカメラ20との間の通信を制御する。 The camera interface 34 is an example of a second connection unit. The camera interface 34 is a communication interface for connecting the camera 20. The camera interface 34 is communicatively connected to the camera 20, and controls communication between the device itself and the camera 20 under the control of the processor 31.

例えば、プロセッサ31は、カメラインタフェース34を介して、カメラ20(RGBカメラ21、3次元カメラ22)に撮像要求を送信する。また、プロセッサ31は、カメラインタフェース34を介して、カメラ20から送信されるRGB画像及び3次元画像を取得する。 For example, the processor 31 transmits an image capture request to the camera 20 (RGB camera 21, 3D camera 22) via the camera interface 34. The processor 31 also acquires the RGB image and the 3D image transmitted from the camera 20 via the camera interface 34.

荷役装置インタフェース35は、第1の接続部の一例である。荷役装置インタフェース35は、荷役装置10を接続するための通信インタフェースである。荷役装置インタフェース35は、荷役装置10と通信可能に接続され、プロセッサ31の制御の下、自装置と荷役装置10との間の通信を制御する。 The loading/unloading device interface 35 is an example of a first connection unit. The loading/unloading device interface 35 is a communication interface for connecting the loading/unloading device 10. The loading/unloading device interface 35 is communicatively connected to the loading/unloading device 10, and controls communication between the loading/unloading device and the loading/unloading device 10 under the control of the processor 31.

例えば、プロセッサ31は、荷役装置インタフェース35を介し、荷役装置10の動作を制御する。また、プロセッサ31は、荷役装置インタフェース35を介して、荷役装置10のピッキング状態を示すセンシング結果を取得する。 For example, the processor 31 controls the operation of the loading device 10 via the loading device interface 35. The processor 31 also acquires sensing results indicating the picking status of the loading device 10 via the loading device interface 35.

記憶部36は、例えば、フラッシュメモリ等の半導体メモリ素子やハードディスク等の補助記憶装置によって実現される。記憶部36は、プロセッサ31が実行する各種のプログラムや設定情報等を記憶する。また、記憶部36は、荷役装置10の上下方向及び水平方向の移動限界位置や、荷役装置10の可動範囲、荷役装置10が把持可能な物品の寸法の上限及び下限等を示した限界情報を記憶する。かかる限界情報は、例えば、後述する移動計画の導出に用いられる。 The memory unit 36 is realized, for example, by a semiconductor memory element such as a flash memory or an auxiliary storage device such as a hard disk. The memory unit 36 stores various programs executed by the processor 31, setting information, and the like. The memory unit 36 also stores limit information indicating the vertical and horizontal movement limit positions of the loading device 10, the movable range of the loading device 10, the upper and lower limits of the dimensions of the item that the loading device 10 can grasp, and the like. Such limit information is used, for example, to derive a movement plan, which will be described later.

次に、図3を参照して、制御装置30が備える機能構成について説明する。図3は、制御装置30の機能構成の一例を示す図である。 Next, the functional configuration of the control device 30 will be described with reference to FIG. 3. FIG. 3 is a diagram showing an example of the functional configuration of the control device 30.

図3に示すように、制御装置30は、取得部311と、認識部312と、計画部313と、計画実行部314とを機能部として備える。これら機能部の一部又は全ては、プロセッサ31が、ROM32又は記憶部36に記憶されたプログラムを実行することで実現されるソフトウェア構成であってもよい。また、上述した機能部の一部又は全ては、プロセッサ31が備える専用回路によって実現されるハードウェア構成であってもよい。このように、本実施形態においてはプロセッサ31が制御部の一例として機能する。 As shown in FIG. 3, the control device 30 includes, as functional units, an acquisition unit 311, a recognition unit 312, a planning unit 313, and a plan execution unit 314. Some or all of these functional units may be software configurations that are realized by the processor 31 executing a program stored in the ROM 32 or the memory unit 36. In addition, some or all of the above-mentioned functional units may be hardware configurations that are realized by dedicated circuits provided in the processor 31. In this way, in this embodiment, the processor 31 functions as an example of a control unit.

取得部311は、カメラインタフェース34を介して、カメラ20で撮像されたRGB画像及び3次元画像を取得する。具体的には、取得部311は、認識部312からの指示に応じて、RGBカメラ21及び3次元カメラ22の各々に対し撮像要求を送信する。そして、取得部311は、RGBカメラ21及び3次元カメラ22の各々から送信されたRGB画像と3次元画像とを取得する。 The acquisition unit 311 acquires the RGB image and the 3D image captured by the camera 20 via the camera interface 34. Specifically, the acquisition unit 311 transmits an image capture request to each of the RGB camera 21 and the 3D camera 22 in response to an instruction from the recognition unit 312. Then, the acquisition unit 311 acquires the RGB image and the 3D image transmitted from each of the RGB camera 21 and the 3D camera 22.

なお、3次元カメラ22から三次元情報が出力される場合には、取得部311は、カメラインタフェース34を介して、3次元カメラ22で取得された3次元情報を取得する。 When three-dimensional information is output from the three-dimensional camera 22, the acquisition unit 311 acquires the three-dimensional information acquired by the three-dimensional camera 22 via the camera interface 34.

認識部312は、RGB画像及び3次元画像に基づいて、パレット2の上面2aに載置された物品Wの位置、形状、姿勢等を認識する。具体的には、認識部312は、計画部313からの認識要求に応じて、取得部311に対し画像の取得を指示する信号を送信する。そして、認識部312は、取得部311が取得したRGB画像及び3次元画像に基づいて、パレット2の上面2aに存在する物品W各々の位置、形状、姿勢等を認識する。 The recognition unit 312 recognizes the position, shape, posture, etc. of the item W placed on the upper surface 2a of the pallet 2 based on the RGB image and the three-dimensional image. Specifically, the recognition unit 312 transmits a signal to the acquisition unit 311 to instruct the acquisition of an image in response to a recognition request from the planning unit 313. Then, the recognition unit 312 recognizes the position, shape, posture, etc. of each item W present on the upper surface 2a of the pallet 2 based on the RGB image and the three-dimensional image acquired by the acquisition unit 311.

物品Wの認識方法は特に問わず、公知の技術を用いることができる。例えば、認識部312は、RGB画像とデプス画像とに基づいて、パレット2の上面2aに存在する各物品Wの位置(水平方向の位置)及び高さ(上下方向の高さ)等を認識する。また、認識部312は、点群データに基づいて、パレット2の上面2aに存在する各物品Wの形状や姿勢等を認識する。 The method for recognizing the items W is not particularly limited, and known techniques can be used. For example, the recognition unit 312 recognizes the position (horizontal position) and height (vertical height) of each item W present on the top surface 2a of the pallet 2 based on the RGB image and the depth image. The recognition unit 312 also recognizes the shape, orientation, etc. of each item W present on the top surface 2a of the pallet 2 based on the point cloud data.

なお、取得部311が3次元情報を取得した場合には、認識部312は、3次元情報に基づきデプス画像や点群データを生成する。そして、認識部312は、RGB画像とともに、生成したデプス画像や点群データを用いて、パレット2の上面2aに載置された物品Wの各々を認識する。 When the acquisition unit 311 acquires three-dimensional information, the recognition unit 312 generates a depth image and point cloud data based on the three-dimensional information. The recognition unit 312 then recognizes each of the items W placed on the upper surface 2a of the pallet 2 using the generated depth image and point cloud data together with the RGB image.

計画部313は、認識部312の認識結果に基づいて、パレット2の上面2aに載置された各物品Wを目的位置まで移動させるための移動計画を導出する。 The planning unit 313 derives a movement plan for moving each item W placed on the upper surface 2a of the pallet 2 to a destination position based on the recognition results of the recognition unit 312.

具体的には、計画部313は、取得部311に対し画像の取得を指示する信号を送信することで、パレット2の上面2aに存在する物品Wの認識を認識部312に指示する。計画部313は、認識部312で認識された物品Wの物品間の離間距離を算出し、算出した離間距離に基づいて、ピッキング順序に係る優先度を物品Wに設定する。そして、計画部313は、優先度に応じた順序で物品Wを目的位置まで移動させるための移動計画を導出する。 Specifically, the planning unit 313 instructs the recognition unit 312 to recognize the items W present on the top surface 2a of the pallet 2 by sending a signal to the acquisition unit 311 to instruct the acquisition unit 311 to acquire an image. The planning unit 313 calculates the distance between the items W recognized by the recognition unit 312, and sets priorities for the picking order for the items W based on the calculated distance. The planning unit 313 then derives a movement plan for moving the items W to the destination position in an order according to the priorities.

ここで、図4~図6を用いて、計画部313が物品Wに優先度を設定する際の動作例について説明する。 Here, an example of the operation of the planning unit 313 when setting a priority for item W will be described with reference to Figures 4 to 6.

図4~図6は、計画部313の動作を説明するための図であり、認識部312によって認識された物品Wの状態を模式的に表している。同図において、物品Wの末尾に示す番号1~4は、認識部312の認識によって付された各物品Wを識別するためのアイテム番号を意味する。以下では、物品Wを特定する場合には、物品Wとアイテム番号とを組み合わせた物品Wn(nはアイテム番号)と表記する。 Figures 4 to 6 are diagrams for explaining the operation of the planning unit 313, and show a schematic representation of the state of item W recognized by the recognition unit 312. In these figures, the numbers 1 to 4 at the end of item W refer to item numbers for identifying each item W assigned by recognition by the recognition unit 312. In the following, when identifying item W, it will be expressed as item Wn (n is the item number), which is a combination of item W and item number.

まず、計画部313は、認識部312によりパレット2の上面2aに存在する物品Wが認識されると、認識された物品Wの中から、最初のピッキング対象となる物品Wを選定する。具体的には、計画部313は、以下に示す2つの条件の一方又は両方を充足する物品Wを、最初のピッキング対象に選定する。 First, when the recognition unit 312 recognizes the items W present on the top surface 2a of the pallet 2, the planning unit 313 selects an item W to be the first item to be picked from among the recognized items W. Specifically, the planning unit 313 selects an item W that satisfies one or both of the following two conditions as the first item to be picked.

第1の条件は、高さが最大の物品Wであることである。第2の条件は、複数の物品Wで複数存在する場合の条件であり、物品W群の端部又は角部に存在する物品Wであることである。ここで、第1の条件は、物品Wを上方からピッキングする際の取りやすさを考慮したものである。また、第2の条件は、後述する処理において、ピッキング対象となる物品W間の離間距離をより大きく確保するための条件である。 The first condition is that the item W is the one with the greatest height. The second condition is for the case where there are multiple items W, and that the item W is located at an end or corner of the group of items W. Here, the first condition takes into consideration the ease of picking the item W from above. The second condition is a condition for ensuring a larger distance between the items W to be picked in the process described below.

例えば、図4に示した物品W1~物品W4のうち、左上の端部(角部)に位置する物品W1の高さが最大であるとすると、計画部313は、物品W1を最初にピッキングするため最上位の優先度1を設定する。なお、図4では、優先度の設定対象となった物品Wを識別するため、物品W1に縦線のハッチングを施している(以下同様)。 For example, if item W1, located at the top left corner, has the greatest height among items W1 to W4 shown in FIG. 4, the planning unit 313 sets the highest priority of 1 to item W1 so that it will be picked first. Note that in FIG. 4, item W1 is hatched with vertical lines to identify the item W for which a priority has been set (same below).

図4の例の場合、計画部313は、優先度1を設定した物品W1を最初にピッキングすることを指示した移動計画を導出することで、後述する計画実行部314の制御により、物品W1のピッキングが最初に実行される。 In the example of Figure 4, the planning unit 313 derives a movement plan that instructs item W1, which has a priority of 1, to be picked first, and item W1 is picked first under the control of the plan execution unit 314, which will be described later.

また、計画部313は、次にピッキングする物品Wを選定するため、優先度1を設定した物品W1と、他の物品W2~W4の各々との間の離間距離を算出する。なお、図5では、ピッキング済の物品Wを識別するため、物品W1に斜線のハッチングを施している(以下同様)。 The planning unit 313 also calculates the distance between the item W1, which has been set to priority 1, and each of the other items W2 to W4 in order to select the next item W to be picked. Note that in FIG. 5, item W1 is hatched with diagonal lines in order to identify the item W that has already been picked (same below).

具体的には、計画部313は、図5に示すように、認識部312で認識された物品W1~W4の形状に基づき、物品W1~W4の各々に外接する円(以下、外接円ともいう)C1~C4をそれぞれ設定する。ここで「外接円」は、物品Wを包含し、且つ当該物品の外縁の少なくとも2点に接(外接)する円を意味する。 Specifically, as shown in FIG. 5, the planning unit 313 sets circles (hereinafter also referred to as circumscribing circles) C1 to C4 that circumscribe each of the items W1 to W4 based on the shapes of the items W1 to W4 recognized by the recognition unit 312. Here, a "circumscribing circle" means a circle that contains the item W and touches (circumscribes) at least two points on the outer edge of the item.

次いで、計画部313は、先の処理で優先度が設定された物品W1を基点とし、その外接円C1の中心から、他の物品W2~W4の各々に係る外接円C2~C4の中心までの中心間距離d12、d13、d14を離間距離としてそれぞれ算出する。以下、物品W間の離間距離を中心間距離とも表記する。 The planning unit 313 then uses the item W1, for which a priority was set in the previous process, as the base point and calculates the center-to-center distances d12, d13, and d14 from the center of its circumscribing circle C1 to the centers of the circumscribing circles C2 to C4 for each of the other items W2 to W4 as the separation distances. Hereinafter, the separation distances between the items W are also referred to as center-to-center distances.

また、計画部313は、物品W1に係る外接円C1の半径r1と、他の外接円C2~C4の半径r2~r4とをそれぞれ加算することで、半径和r12(=r1+r2)、r13(=r1+r3)、r14(=r1+r4)をそれぞれ算出する。 The planning unit 313 also calculates radius sums r12 (= r1 + r2), r13 (= r1 + r3), and r14 (= r1 + r4) by adding the radius r1 of the circumscribing circle C1 for item W1 to the radii r2 to r4 of the other circumscribing circles C2 to C4.

計画部313は、物品W2~W4毎に中心間距離と半径和とを比較し、中心間距離が半径和よりも大きな物品Wを抽出する。例えば、図5の場合、物品W3は、中心間距離d13が半径和r13よりも大きいため、計画部313は、物品W3をピッキング候補として抽出する。また、物品W4も、中心間距離d14が半径和r14よりも大きいため、計画部313は、物品W4をピッキング候補として抽出する。また、物品W2は、中心間距離d12が半径和r12以下となるため、計画部313は、この物品W2をピッキング対象から除外する。 The planning unit 313 compares the center-to-center distance and the sum of radii for each of items W2 to W4, and extracts items W whose center-to-center distance is greater than the sum of radii. For example, in the case of FIG. 5, the center-to-center distance d13 of item W3 is greater than the sum of radii r13, so the planning unit 313 extracts item W3 as a picking candidate. Similarly, the center-to-center distance d14 of item W4 is greater than the sum of radii r14, so the planning unit 313 extracts item W4 as a picking candidate. Similarly, the center-to-center distance d12 of item W2 is less than or equal to the sum of radii r12, so the planning unit 313 excludes this item W2 from the picking targets.

ここで、中心間距離が半径和以下の物品W2は、基点とした物品W1のピッキングの際に接触等の影響を受けた(或いは受ける)可能性がある。この場合、物品W2を次のピッキング対象としても、認識処理で認識された物品W2の位置や姿勢からズレが発生している可能性があるため、ピッキングを正常に完了できない可能性がある。そのため、物品W2をピッキング対象から除外しておくことで、複数の物品Wを連続してピッキングする際の動作を円滑に行うことができる。 Here, item W2, whose center-to-center distance is equal to or less than the sum of the radii, may have been (or may be) affected by contact or other factors when picking item W1, which was used as the base point. In this case, even if item W2 is selected as the next picking target, there is a possibility that the position or posture of item W2 recognized in the recognition process may be deviated, and therefore picking may not be completed successfully. Therefore, by excluding item W2 from the picking targets, the operation of picking multiple items W in succession can be performed smoothly.

なお、認識部312で新たな認識が行われるまでの間、物品W2に対する除外設定は維持される。また、ピッキング済の物品Wについても、ピッキング対象から除外されるものとする。 The exclusion setting for item W2 will be maintained until new recognition is performed by the recognition unit 312. Also, item W that has already been picked will be excluded from being picked.

続いて、計画部313は、ピッキング候補として抽出した物品W3と物品W4との間で中心間距離d13、d14を比較し、中心間距離がより大きな物品W、つまり中心間距離が最大の物品Wを一つ選定する。図5の例では、物品W4に係る中心間距離d14の方が、物品W3に係る中心間距離d13よりも大きいため、計画部313は、物品W4を選定する。そして、計画部313は、選定した物品W4に対し次位の優先度2を設定する。この場合、計画部313は、優先度2を設定した物品W2をピッキングすることを指示した移動計画を導出する。 The planning unit 313 then compares the center-to-center distances d13 and d14 between items W3 and W4 extracted as picking candidates, and selects one item W with a larger center-to-center distance, i.e., the item W with the largest center-to-center distance. In the example of FIG. 5, the center-to-center distance d14 for item W4 is greater than the center-to-center distance d13 for item W3, so the planning unit 313 selects item W4. The planning unit 313 then sets the next highest priority, 2, for the selected item W4. In this case, the planning unit 313 derives a movement plan that instructs the picking of item W2, which has been set to priority 2.

さらに、計画部313は、優先度2を設定した物品W4を基点とし、上述と同様の処理を行うことで、物品W3に対し次位の優先度3を設定する。そして、計画部313は、優先度3を設定した物品W3をピッキングすることを指示した移動計画を導出する。 The planning unit 313 then sets the next priority of 3 for item W3 by performing the same process as described above, using item W4, which has been set to priority 2, as the base point. The planning unit 313 then derives a movement plan that instructs the picking of item W3, which has been set to priority 3.

図6は、図4及び図5で説明した物品W1~W4に対する優先度の設定結果を示している。上述したように、物品W1、物品W3、物品W4のそれぞれに対し、優先度1、優先度3、優先度2が設定される。この場合、図中矢印で示すように、優先度の順、つまり物品W1→物品W4→物品W3の順にピッキングが行われることになる。なお、図6では、ピッキング候補から除外された物品Wを識別するため、物品W2に対し×印を付している。 Figure 6 shows the results of setting the priorities for items W1 to W4 as described in Figures 4 and 5. As described above, priorities 1, 3, and 2 are set for items W1, W3, and W4, respectively. In this case, as shown by the arrows in the figure, picking will be performed in order of priority, that is, item W1 → item W4 → item W3. Note that in Figure 6, an X is marked for item W2 to identify item W that has been excluded from the picking candidates.

なお、計画部313は、上述の処理において、ピッキング候補の物品Wが存在しないと判断した場合には、認識部312に対し認識要求を出力することで、カメラ20で撮像される新たなRGB画像及び3次元画像に基づく認識処理を実行させる。そして、計画部313は、認識部312によって取得された新たな認識結果に基づき優先度の設定を再度行う。 When the planning unit 313 determines in the above process that there is no item W that is a candidate for picking, it outputs a recognition request to the recognition unit 312 to execute recognition processing based on new RGB images and 3D images captured by the camera 20. The planning unit 313 then sets the priority again based on the new recognition results acquired by the recognition unit 312.

このように、計画部313は、上位の優先度を設定した物品Wとの離間距離が最大となる他の物品Wに次位の優先度を順次設定する。つまり、計画部313は、先にピッキングを行う物品Wから最も離れた位置に存在する他の物品Wを、次のピッキング対象に設定する。これにより、物品Wのピッキング時に、当該物品Wの周辺に存在する他の物品Wに把持部113等が接触したような場合であっても、次にピッキング対象の物品Wへの影響を抑えることができる。したがって、計画部313は、複数の物品Wを連続してピッキングする動作を効率的に行うことができる。 In this way, the planning unit 313 sequentially sets the next highest priority to the other item W that is the greatest distance away from the item W for which a higher priority has been set. In other words, the planning unit 313 sets the other item W that is located farthest from the item W to be picked first as the next item to be picked. This makes it possible to reduce the impact on the item W to be picked next, even if the gripper 113 or the like comes into contact with another item W that is located in the vicinity of the item W when picking the item W. Therefore, the planning unit 313 can efficiently perform the operation of picking multiple items W in succession.

また、計画部313が離間距離の算出に用いる物品Wの外接円は、荷役装置10が物品Wを把持する際の重心位置や回転範囲を規定するものとなる。具体的には、荷役装置10の把持部113が物品Wを把持する際の重心位置は、物品Wの外接円の中心に略対応する。また、荷役装置10が物品Wをピッキングする際に物品Wを水平方向に回転させる場合があるが、その回転範囲は物品Wの外接円に略対応する。そのため、外接円の中心間距離や半径和を基準にピッキング候補の選定と除外とを行うことで、ピッキング時に発生する接触や荷崩れ等の影響を低減化した順序で物品Wのピッキングを行うことができる。また、例えば物品W4のように不定形の物品Wをピッキングする場合であっても、当該物品Wの重心位置や回転範囲を規定することができるため、当該物品Wのピッキングを効率的に行うことができる。 The circumscribing circle of the item W used by the planning unit 313 to calculate the separation distance defines the center of gravity and rotation range when the loading device 10 grasps the item W. Specifically, the center of gravity when the gripping unit 113 of the loading device 10 grasps the item W corresponds approximately to the center of the circumscribing circle of the item W. In addition, the loading device 10 may rotate the item W horizontally when picking the item W, and the rotation range corresponds approximately to the circumscribing circle of the item W. Therefore, by selecting and excluding picking candidates based on the center-to-center distance and the sum of radii of the circumscribing circles, the item W can be picked in an order that reduces the effects of contact and load collapse that occur during picking. In addition, even when picking an item W with an irregular shape such as item W4, the center of gravity and rotation range of the item W can be defined, so that the item W can be picked efficiently.

また、計画部313は、一度の認識処理で得られた認識結果からピッキング候補を抽出できなくなるまでの間、当該認識結果を継続して用いることで、複数の物品Wの移動計画を導出する。これにより、制御装置30では、カメラ20によるRGB画像及び3次元画像の撮像回数や、認識部312が実行する認識処理の実行回数を抑えることができるため、処理負荷を低減するとともにピッキングの高速化を図ることができる。 The planning unit 313 continues to use the recognition results obtained in one recognition process until it becomes impossible to extract picking candidates from the results, thereby deriving a movement plan for multiple items W. This allows the control device 30 to reduce the number of times that the camera 20 captures RGB images and 3D images, and the number of times that the recognition unit 312 executes the recognition process, thereby reducing the processing load and speeding up picking.

なお、計画部313は、荷役装置10から通知される物品Wのピッキング状態を監視し、ピッキング状態の異常を検出した場合には、上記と同様、認識部312に認識要求を送信することで、新たなRGB画像及び3次元画像に基づく認識処理を実行させる。ここで、ピッキング状態の異常とは、例えば、予定された物品Wをピッキングできない場合や、物品Wの脱落等、ピッキングが失敗した場合等が挙げられる。 The planning unit 313 monitors the picking status of the item W notified by the loading and unloading device 10, and if an abnormality in the picking status is detected, similar to the above, it sends a recognition request to the recognition unit 312 to execute recognition processing based on a new RGB image and a 3D image. Here, an abnormality in the picking status may be, for example, a case where the scheduled item W cannot be picked, or a picking failure such as the item W falling off, etc.

図3に戻り、計画実行部314は、計画部313で導出された移動計画に基づいて、荷役装置10の動作(駆動機構)を制御する。具体的には、計画実行部314は、移動計画に基づき荷役装置10の動作を制御することで、パレット2の上面に載置されたピッキング対象の物品Wを把持させ、当該物品Wを目的位置まで移動させる。 Returning to FIG. 3, the plan execution unit 314 controls the operation (drive mechanism) of the loading/unloading device 10 based on the movement plan derived by the planner 313. Specifically, the plan execution unit 314 controls the operation of the loading/unloading device 10 based on the movement plan to grasp the item W to be picked that is placed on the top surface of the pallet 2 and move the item W to the destination position.

上述した機能構成により、制御装置30は、パレット2の上面2aに載置された物品Wを、荷役装置10を用いて目的位置まで移動させることができる。より詳細には、制御装置30は、パレット2の上面2aに載置された物品Wの各々を、設定した優先度の順に目的位置まで順次移動させることができる。 With the above-described functional configuration, the control device 30 can move the items W placed on the upper surface 2a of the pallet 2 to a target position using the loading and unloading device 10. More specifically, the control device 30 can move each of the items W placed on the upper surface 2a of the pallet 2 sequentially to a target position in the order of the set priority.

以下、上述した制御装置30の動作例について説明する。ここで、図7は、制御装置30が実行する処理の一例を示すフローチャートである。 An example of the operation of the control device 30 described above will be described below. Here, FIG. 7 is a flowchart showing an example of the processing executed by the control device 30.

まず、計画部313は、認識部312を介し取得部311に撮像要求を送信させることで、カメラ20で撮像されたRGB画像及び3次元画像を取得部311に取得させる(ステップS11)。認識部312は、取得されたRGB画像及び3次元画像に基づき、物品Wを認識するための認識処理を実行する(ステップS12)。 First, the planning unit 313 causes the acquisition unit 311 to acquire an RGB image and a three-dimensional image captured by the camera 20 by sending an image capturing request to the acquisition unit 311 via the recognition unit 312 (step S11). The recognition unit 312 executes a recognition process to recognize the item W based on the acquired RGB image and three-dimensional image (step S12).

続いて、計画部313は、優先度の値を規定するインデックスnを1に設定する(ステップS13)。次いで、計画部313は、ステップS12の認識結果に基づき、物品Wが存在するか否かを判定する(ステップS14)。より詳細には、計画部313は、認識結果の中にピッキング済とされた物品W以外の物品Wが存在するか否かを判定する。 Then, the planning unit 313 sets the index n, which specifies the priority value, to 1 (step S13). Next, the planning unit 313 determines whether or not an item W is present based on the recognition result of step S12 (step S14). More specifically, the planning unit 313 determines whether or not an item W other than the item W that has been picked is present in the recognition result.

物品Wが存在すると判定した場合(ステップS14;Yes)、計画部313は、インデックスnの値が1か否かを判定する(ステップS15)。ここで、n=1と判定した場合(ステップS15;Yes)、計画部313は、ステップS12の認識処理で認識された物品Wの中から、上述した第1の条件及び第2の条件の何れか一方又は両方に該当する物品Wを一つ選定する(ステップS16)。次いで、計画部313は、ステップS16で選定した物品Wに優先度n、つまり優先度1を設定した後(ステップS17)、ステップS22に移行する。 If it is determined that an item W exists (step S14; Yes), the planning unit 313 determines whether the value of index n is 1 or not (step S15). Here, if it is determined that n=1 (step S15; Yes), the planning unit 313 selects one item W that satisfies either one or both of the first and second conditions described above from among the items W recognized in the recognition process of step S12 (step S16). Next, the planning unit 313 sets a priority n, i.e., a priority of 1, to the item W selected in step S16 (step S17), and then proceeds to step S22.

続くステップS22において、計画部313は、優先度nを設定した物品Wの移動計画を導出する(ステップS22)。次いで、計画実行部314は、ステップS22で導出された移動計画に基づき荷役装置10を動作させることで、優先度nが設定された物品Wのピッキングを開始する(ステップS23)。 In the next step S22, the planning unit 313 derives a movement plan for the item W for which priority n has been set (step S22). Next, the plan execution unit 314 starts picking the item W for which priority n has been set by operating the loading and unloading device 10 based on the movement plan derived in step S22 (step S23).

計画部313は、荷役装置10から送信されるセンシング結果に基づいてピッキングの状態を監視する。計画部313は、ピッキング状態の異常を検出すると(ステップS24;Yes)、ステップS11に処理を戻すことで、新たに撮像されるRGB画像及び3次元画像に基づく認識処理を実行させる。 The planning unit 313 monitors the picking status based on the sensing results transmitted from the loading and unloading device 10. When the planning unit 313 detects an abnormality in the picking status (step S24; Yes), it returns the process to step S11, thereby executing recognition processing based on the newly captured RGB image and 3D image.

荷役装置10によるピッキングが正常に完了した場合には(ステップS24;No)、計画部313は、認識結果に含まれた物品Wのうち、直近の処理で優先度nを設定した物品Wの状態をピッキング済に変更する消し込み処理を行う(ステップS25)。次いで、計画部313は、インデックスnの値を1インクリメントし(ステップS26)、ステップS14に処理を戻す。 If picking by the loading and unloading device 10 is completed normally (step S24; No), the planning unit 313 performs a deletion process to change the status of the item W included in the recognition result, which was assigned a priority n in the most recent process, to "picked" (step S25). Next, the planning unit 313 increments the value of the index n by 1 (step S26) and returns the process to step S14.

一方、ステップS15で、n≠1と判定した場合、つまりnの値が2以上の場合(ステップS15;No)、計画部313は、直前の処理で優先度n-1を設定した物品Wを基点に、他の物品Wとの中心間距離及び半径和を算出する(ステップS18)。 On the other hand, if it is determined in step S15 that n ≠ 1, that is, if the value of n is 2 or more (step S15; No), the planning unit 313 calculates the center-to-center distance and the sum of radii with respect to other items W, using the item W for which priority n-1 was set in the previous process as the base point (step S18).

続いて、計画部313は、ステップS18の算出結果に基づき、中心間距離が半径和以下となる物品Wをピッキング候補から除外する(ステップS19)。次いで、計画部313は、ピッキング済(又は優先度設定済)の物品W及びステップS19で除外した物品W以外の残りの物品Wの中に、中心間距離が半径和よりも大きい物品Wが存在するか否かを判定する(ステップS20)。ここで、存在しないと判定した場合には(ステップS20;No)、計画部313は、ステップS11に処理を戻すことで、新たに撮像されるRGB画像及び3次元画像に基づく認識処理を実行させる。 Next, based on the calculation result of step S18, the planning unit 313 excludes from the picking candidates those items W whose center-to-center distance is equal to or less than the sum of radii (step S19). Next, the planning unit 313 determines whether or not there is an item W whose center-to-center distance is greater than the sum of radii among the remaining items W other than the items W that have already been picked (or have had their priority set) and the items W excluded in step S19 (step S20). Here, if it is determined that there is no item W (step S20; No), the planning unit 313 returns the process to step S11, thereby executing recognition processing based on newly captured RGB images and 3D images.

また、中心間距離が半径和よりも大きい物品Wが存在すると判定した場合(ステップS20;Yes)、計画部313は、中心間距離が最大の物品Wに優先度nを設定し(ステップS21)、ステップS22に移行する。 If it is determined that there is an item W whose center-to-center distance is greater than the sum of radii (step S20; Yes), the planning unit 313 sets a priority n to the item W whose center-to-center distance is the largest (step S21) and proceeds to step S22.

上述したステップS16~S21の処理により、一度の認識処理で認識された物品Wの各々に対し優先度が順次設定される。また、物品Wに優先度が設定される毎に、当該物品Wの移動計画の導出とピッキングとが実行されることで、優先度の順に物品Wのピッキングが行われる。 By the processing of steps S16 to S21 described above, a priority is sequentially set for each item W recognized in one recognition process. In addition, each time a priority is set for an item W, the movement plan for that item W is derived and the item W is picked, so that the items W are picked in order of priority.

そして、計画部313は、全ての物品Wを移動した等の理由により、ステップS14で物品Wが存在しないと判定すると(ステップS14;Yes)、本処理を終了する。 Then, if the planning unit 313 determines in step S14 that item W is not present because all items W have been moved or for other reasons (step S14; Yes), the planning unit 313 ends this process.

ここで、図8を参照して、上述した図7の処理の動作例を説明する。なお、図8は、制御装置30の動作例を説明するための図であり、認識部312によって認識されたパレット2の上面2aでの物品Wの状態を模式的に示している。なお、図8では、図4及び図5と同様に、新たに優先度が設定された物品Wを縦線のハッチングで表し、ピッキングが完了した物品W、つまり消し込み処理が完了した物品W11を斜線のハッチングで表している。 Now, referring to FIG. 8, an example of the operation of the process in FIG. 7 described above will be described. Note that FIG. 8 is a diagram for explaining an example of the operation of the control device 30, and shows a schematic diagram of the state of the item W on the top surface 2a of the pallet 2 recognized by the recognition unit 312. Note that in FIG. 8, similar to FIGS. 4 and 5, the item W for which a new priority has been set is indicated by vertical hatching, and the item W for which picking has been completed, i.e., the item W11 for which the erasure process has been completed, is indicated by diagonal hatching.

図8(a)に示すように、認識部312の認識結果に物品Wが存在する場合、計画部313は、上述した第1の条件及び第2の条件に基づき、最初のピッキング対象となる物品Wを選定する。例えば、計画部313は、図8(a)に示した11個の物品W(W11~W21)の中から、左上端部(角度)の物品W11を選定すると、この物品W11に最上位の優先度1を設定する。優先度1が設定された物品W11は、上述したステップS22及びS23の処理を経ることでピッキングが実行される。 As shown in FIG. 8(a), if item W is present in the recognition result of the recognition unit 312, the planning unit 313 selects the item W to be the first item to be picked based on the first and second conditions described above. For example, when the planning unit 313 selects item W11 at the upper left end (angle) from the 11 items W (W11 to W21) shown in FIG. 8(a), it sets the highest priority of 1 to this item W11. Item W11 with priority 1 set is picked by going through the processes of steps S22 and S23 described above.

なお、計画部313は、物品W11のピッキングが正常に完了した後も、認識部312の認識結果を継続して利用するため、物品W11の存在は認識結果に残ることになる。そのため、計画部313は、続く図8(b)に示すように、認識結果に存在する物品W11の状態をピッキング済に変更するための消し込み処理を行う。 The planning unit 313 continues to use the recognition results of the recognition unit 312 even after the picking of item W11 has been completed successfully, so the existence of item W11 remains in the recognition results. Therefore, as shown in FIG. 8(b), the planning unit 313 performs a deletion process to change the status of item W11 in the recognition results to "picked."

続いて、計画部313は、図8(b)に示すように、直前の処理で優先度を設定した物品W11を基点に、他の物品との中心間距離及び半径和をそれぞれ算出する。ここで、物品W11と物品W21との中心間距離が最大であるとすると、計画部313は、この物品W21に対し次位の優先度2を設定する。優先度2が設定された物品W21は、上述したステップS22及びS23の処理を経ることでピッキングが実行される。 Next, as shown in FIG. 8(b), the planning unit 313 calculates the center-to-center distance and the sum of radii with respect to other items, using item W11, for which a priority was set in the previous process, as the base point. Here, if the center-to-center distance between item W11 and item W21 is the longest, the planning unit 313 sets the next highest priority of 2 for this item W21. Item W21, for which priority 2 has been set, is picked by going through the processes of steps S22 and S23 described above.

物品W21のピッキングが正常に完了すると、計画部313は、図8(c)示すように、物品W21の消し込み処理を実行する。次いで、計画部313は、直前の処理で優先度を設定した物品W21を基点に、物品W11を除いた他の物品との中心間距離及び半径和をそれぞれ算出する。ここで、物品W20に係る中心間距離が半径和以下であったとすると、計画部313は、この物品W20をピッキング対象から除外する。また、物品W21と物品W18との中心間距離が最大であるとすると、計画部313は、この物品W18に対し次位の優先度3を設定する。優先度3が設定された物品W18は、上述したステップS22及びS23の処理を経ることでピッキングが実行される。 When picking of item W21 is completed normally, the planning unit 313 executes a deletion process for item W21 as shown in FIG. 8(c). Next, the planning unit 313 calculates the center-to-center distance and the sum of radii of the other items excluding item W11, using item W21, for which priority was set in the previous process, as the base point. If the center-to-center distance for item W20 is equal to or less than the sum of radii, the planning unit 313 excludes this item W20 from the picking targets. Also, if the center-to-center distance between item W21 and item W18 is the longest, the planning unit 313 sets the next priority of 3 for this item W18. Picking of item W18, for which priority 3 has been set, is executed by going through the processes of steps S22 and S23 described above.

物品W18のピッキングが正常に完了すると、計画部313は、図8(d)示すように、物品W18の消し込み処理を実行する。次いで、計画部313は、直前の処理で優先度を設定した物品W18を基点に、物品W11及びW21を除いた他の物品との中心間距離及び半径和をそれぞれ算出する。なお、図8(d)では、前回の処理(図8(c))でピッキング対象から除外された物品W20を×印で表している。 When picking of item W18 is completed successfully, the planning unit 313 executes a deletion process for item W18, as shown in FIG. 8(d). Next, the planning unit 313 calculates the center-to-center distance and sum of radius of item W18, whose priority was set in the previous process, with respect to other items excluding items W11 and W21. Note that in FIG. 8(d), item W20, which was excluded from picking targets in the previous process (FIG. 8(c)), is represented by an x.

ここで、物品W18と物品W14との中心間距離が最大であるとすると、計画部313は、この物品W14に対し次位の優先度4を設定する。優先度4が設定された物品W14は、上述したステップS22及びS23の処理を経ることでピッキングが実行される。 If the center-to-center distance between item W18 and item W14 is the maximum, the planning unit 313 sets the next highest priority of 4 for item W14. Item W14, which has been set to priority 4, is picked by going through the processes of steps S22 and S23 described above.

以降、計画部313は、残りの物品Wに対し同様の処理を繰り返し行うことで、図8(e)、図8(f)に示すように、物品W19、物品W12のピッキングが順次行われる。また、処理を経ることでピッキング対象から除外された物品Wも累積し、図8(g)の状態では、ピッキング済の物品W(W11、W12、W14、W18、W19、W21)以外の残りの物品W(W13、W15、W16、W17、W20)が、全てピッキング対象から除外された状態となる。 Then, the planning unit 313 repeats the same process for the remaining items W, and picks items W19 and W12 in sequence, as shown in Figures 8(e) and 8(f). In addition, items W that have been removed from the list of items to be picked are also accumulated through the process, and in the state of Figure 8(g), all of the remaining items W (W13, W15, W16, W17, W20) other than the items W that have been picked (W11, W12, W14, W18, W19, W21) have been removed from the list of items to be picked.

この場合、計画部313は、ステップS20の処理において、中心間距離が半径和より大きな物品が存在しないと判断することで、ステップS11へと処理を戻す。これにより、カメラ20による撮像が新たに行われるため、認識部312が新たに行う認識処理の認識結果には、図8(h)に示すように、残りの物品W13、W15、W16、W17及びW20が存在することになる。 In this case, the planning unit 313 determines in the processing of step S20 that there are no objects whose center-to-center distance is greater than the sum of the radii, and returns the processing to step S11. As a result, new images are captured by the camera 20, and the recognition result of the new recognition processing performed by the recognition unit 312 includes the remaining objects W13, W15, W16, W17, and W20, as shown in FIG. 8(h).

そして、計画部313は、図8(h)の認識結果に基づき、各物品W13、W15、W16、W17及びW20の各々に優先度を設定する処理を新たに開始することで、当該優先度の順にピッキングを行わせることができる。 Then, the planning unit 313 starts a new process of setting priorities for each of the items W13, W15, W16, W17, and W20 based on the recognition result in FIG. 8(h), so that picking can be performed in the order of priority.

以上のように、制御装置30によれば、カメラ20で撮像された画像(RGB画像、3次元画像)からパレット2に載置された物品Wを認識する認識処理を実行し、認識処理で認識された物品Wの物品間の離間距離を算出し、算出した離間距離に基づいて移動順序に係る優先度を物品Wに設定し、荷役装置10を制御することで、優先度に応じた順序で物品Wを移動させる。また、制御装置30は、上記の優先度の設定に際し、上位の優先度を設定した前記物品との離間距離が最大となる他の物品に次位の優先度を順次設定する。 As described above, the control device 30 executes a recognition process to recognize the items W placed on the pallet 2 from the images (RGB images, 3D images) captured by the camera 20, calculates the distance between the items W recognized in the recognition process, sets a priority for the items W in terms of the order of movement based on the calculated distance, and controls the loading and unloading device 10 to move the items W in an order according to the priority. In addition, when setting the above priority, the control device 30 sequentially sets the next highest priority to other items that are the greatest distance away from the item with the higher priority.

上記の構成により、制御装置30は、パレット2の上面2aに載置された物品W全体の位置関係からピッキングを行う順序を決定することができるため、先にピッキングを行う物品Wと、次にピッキングを行う物品Wとの離間距離を大きく確保することができる。これにより、制御装置30では、先のピッキングにより生じる影響が、次のピッキング対象の物品Wに及ぶことを抑えることができるため、複数の物品Wを連続してピッキングする際の動作を効率的に行うことができる。したがって、制御装置30では、物品Wのピッキングを効率的に行うことができる。 With the above configuration, the control device 30 can determine the picking order from the overall positional relationship of the items W placed on the top surface 2a of the pallet 2, so that a large distance can be ensured between the item W to be picked first and the item W to be picked next. This allows the control device 30 to prevent the effects of the previous picking from extending to the next item W to be picked, so that the operation of picking multiple items W in succession can be performed efficiently. Therefore, the control device 30 can efficiently pick items W.

また、制御装置30では、一度の認識処理で得られた認識結果から、複数の物品の優先度を順次設定し、当該優先度の順にピッキングを行わせることができる。これにより、制御装置30では、カメラ20によるRGB画像及び3次元画像の撮像回数や、認識部312が実行する認識処理の実行回数を抑えることができるため、処理負荷を低減するとともにピッキングの高速化を図ることができる。したがって、制御装置30では、物品Wのピッキングを効率的に行うことができる。 The control device 30 can also set the priorities of multiple items in sequence based on the recognition results obtained from a single recognition process, and pick items in that order of priority. This allows the control device 30 to reduce the number of times the camera 20 captures RGB images and 3D images, and the number of times the recognition unit 312 executes the recognition process, thereby reducing the processing load and speeding up picking. The control device 30 can therefore efficiently pick items W.

以上説明した実施形態は、上述の各装置が有する構成又は機能の一部を変更することで、適宜に変形して実施することも可能である。そこで、以下では、上述した実施形態に係るいくつかの変形例を他の実施形態として説明する。なお、以下では、上述した実施形態と異なる点を主に説明することとし、既に説明した内容と共通する点については詳細な説明を省略する。また、以下で説明する変形例は、個別に実施されてもよいし、適宜組み合わせて実施されてもよい。 The above-described embodiment can be modified as appropriate by changing a portion of the configuration or function of each of the above-described devices. Therefore, below, some modified examples of the above-described embodiment will be described as other embodiments. Note that below, differences from the above-described embodiment will be mainly described, and detailed descriptions of commonalities with the contents already described will be omitted. Also, the modified examples described below may be implemented individually or in appropriate combination.

(変形例1)
上述の実施形態では、基点となる物品Wとの中心間距離が最大となる他の物品Wを次のピッキング対象とする形態を説明したが、ピッキング対象の選定条件はこれに限らず、更なる条件を付加してもよい。
(Variation 1)
In the above embodiment, a form was described in which the next picking target is another item W that has the largest center-to-center distance from the base item W, but the selection conditions for the picking target are not limited to this and further conditions may be added.

例えば、基点となる物品Wとの中心間距離が最大となる他の物品Wを特定した後、当該他の物品Wとその周辺に存在する物品W(以下、周辺物品ともいう)との配置関係が所定の条件を満たす場合にのみ、特定した他の物品Wをピッキング対象に選定する構成としてもよい。以下、図9を参照して、本変形例の選定条件について説明する。 For example, after identifying another item W with the greatest center-to-center distance from the base item W, the identified other item W may be selected as a picking target only if the positional relationship between the other item W and items W present in its vicinity (hereinafter also referred to as surrounding items) satisfies a predetermined condition. The selection conditions of this modified example are described below with reference to FIG. 9.

図9は、変形例1に係る選定条件を説明するための図である。ここで、図9に示す物品W31、W32、W33の各々は、何れも認識部312によって認識された物品Wである。また、計画部313は、物品W31を基点に、物品W32及び物品W33との中心間距離をそれぞれ算出し、中心間距離が最大の物品W33を特定済みであるとする。 Figure 9 is a diagram for explaining the selection conditions according to the first modified example. Here, each of the items W31, W32, and W33 shown in Figure 9 is an item W recognized by the recognition unit 312. In addition, the planning unit 313 calculates the center-to-center distances between item W31 and items W32 and W33, respectively, using item W31 as the base point, and has already identified item W33 with the longest center-to-center distance.

上述した実施形態では、計画部313は、特定した物品W33に次位の優先度を設定することで、次のピッキング対象に選定する。しかしながら、この場合、物品W33と当該物品W33周辺の周辺物品との関係は考慮されていない。そのため、例えば、図9に示すように、物品W33の一部に物品W32が重畳して配置されているような場合には、物品W33のピッキングを行うことで、物品W32への接触や物品W32の荷崩れが発生する可能性がある。 In the above-described embodiment, the planning unit 313 sets the identified item W33 as the next item to be picked by assigning it the next highest priority. However, in this case, the relationship between item W33 and the surrounding items around item W33 is not taken into consideration. Therefore, for example, as shown in FIG. 9, if item W32 is placed overlapping a portion of item W33, picking item W33 may result in contact with item W32 or cause item W32 to collapse.

そこで、計画部313は、物品W33を特定した後、その物品W33と、周辺物品である物品W32との配置関係が所定の条件を満たすか否かを判定し、荷崩れ等の可能性がないことが確認できた場合にのみ、物品W33を次のピッキング対象に選定する。 Therefore, after identifying item W33, the planning unit 313 determines whether the positional relationship between item W33 and surrounding item W32 satisfies predetermined conditions, and selects item W33 as the next item to be picked only if it is confirmed that there is no risk of the load collapsing.

ここで、判定条件は、任意に設定できるものとする。例えば、物品W33と物品W32との中心間距離がその半径和より大きいことを判定条件としてもよい。また、例えば、特定した物品W33の高さが、物品W32よりも高いことを判定条件としてもよい。このような判定条件を付加することで、周辺物品との接触や荷崩れが発生する可能性が低い物品Wを、次のピッキング対象に選定することができる。 The judgment conditions can be set arbitrarily. For example, the judgment condition may be that the center-to-center distance between item W33 and item W32 is greater than the sum of their radii. Also, for example, the judgment condition may be that the height of the identified item W33 is greater than that of item W32. By adding such judgment conditions, an item W that is unlikely to come into contact with surrounding items or to collapse can be selected as the next item to be picked.

なお、中心間距離に基づき特定した物品Wが上記の判定条件を充足しない場合、計画部313は、物品W31との中心間距離が最大となった物品W33に次位の優先度を設定することなく、当該物品W33(及び物品W32)をピッキング対象から除外する。この場合、計画部313は、物品W33及び物品W32を除いた残りの物品W(図示せず)の中から、物品W31との中心間距離が最大となる物品Wを選定し、当該物品Wに次位の優先度を設定するものとする。 If the item W identified based on the center-to-center distance does not satisfy the above judgment conditions, the planning unit 313 excludes item W33 (and item W32) from the picking targets without setting the next priority to item W33 with the largest center-to-center distance from item W31. In this case, the planning unit 313 selects item W with the largest center-to-center distance from item W31 from the remaining items W (not shown) excluding items W33 and W32, and sets the next priority to item W.

(変形例2)
上述の実施形態では、優先度を設定する毎に移動計画を導出してピッキングを行わせる形態を説明したが、これに限定されるものではない。例えば、計画部313は、認識された各物品Wの優先度を先に設定した後、その優先度に応じた順序でピッキングを行わせるための移動計画を一度に導出する形態としてもよい。
(Variation 2)
In the above embodiment, a movement plan is derived for each priority setting, and picking is performed, but the present invention is not limited to this. For example, the planner 313 may first set the priority of each recognized item W, and then derive a movement plan at once for picking the items in the order according to the priority.

具体的には、計画部313は、上述したステップS16及びS17の処理を実行することで一の物品Wに優先度1を選定した後、インデックスnを1インクリメントしながら、上述したステップS18~S21の処理を繰り返し実行する。これにより、認識された物品Wの各々に優先度を順次設定することができる。 Specifically, the planning unit 313 selects a priority level of 1 for one item W by executing the processes of steps S16 and S17 described above, and then repeatedly executes the processes of steps S18 to S21 described above while incrementing the index n by 1. This allows the priority levels to be sequentially set for each of the recognized items W.

そして、計画部313は、例えば中心間距離が半径和より大きな物品が存在しないと判定した場合に(ステップS20;No)、それまでに設定した各物品Wの優先度に基づき、優先度に応じた順序でピッキングを行わせるための移動計画を導出する。なお、ピッキング最中に異常が検出された場合には、移動計画を破棄した後、ステップS11に処理を戻すものとする。 Then, when the planning unit 313 determines that there is no item whose center-to-center distance is greater than the sum of the radii (step S20; No), it derives a movement plan for picking items W in an order according to the priorities set up until that point. If an abnormality is detected during picking, the movement plan is discarded and the process returns to step S11.

このような構成とすることで、上述の実施形態と同様の効果を奏することができるため、上述の実施形態と同様に物品Wのピッキングを効率的に行うことができる。 This configuration can achieve the same effect as the above-described embodiment, and therefore item W can be picked efficiently in the same manner as the above-described embodiment.

(第2の実施形態)
次に第2の実施形態について説明する。本実施形態では、ピッキング前後の物品Wの状態を比較することで、荷崩れ等の発生を検出することが可能な形態について説明する。なお、第1の実施形態と同様の構成については同一の符号を付与し説明を省略する。
Second Embodiment
Next, a second embodiment will be described. In this embodiment, a mode capable of detecting the occurrence of a collapse of cargo or the like by comparing the state of the item W before and after picking will be described. Note that the same reference numerals will be given to the same components as those in the first embodiment, and the description thereof will be omitted.

図10は、第2の実施形態に係る制御装置30aの機能構成の一例を示す図である。図10に示すように、制御装置30aは、取得部311と、認識部312と、計画部313aと、計画実行部314とを機能部として備える。 FIG. 10 is a diagram showing an example of the functional configuration of the control device 30a according to the second embodiment. As shown in FIG. 10, the control device 30a includes an acquisition unit 311, a recognition unit 312, a planning unit 313a, and a plan execution unit 314 as functional units.

ここで、計画部313aは、第1の実施形態の計画部313に対応する機能部であり、計画部313と同様の機能を備える。また、計画部313aは、計画部313にはない固有の機能として、荷役装置10によるピッキングが完了した場合に、認識部312を介して、RGB画像の撮像をカメラ20に要求する。計画部313aは、取得部311により新たに取得されたRGB画像と、認識部312の認識で使用された前回のRGB画像とに基づき、ピッキングの前後で生じた物品Wに係る変化量を検出する差分チェックを行う。 The planning unit 313a is a functional unit corresponding to the planning unit 313 in the first embodiment, and has the same functions as the planning unit 313. In addition, as a unique function not included in the planning unit 313, the planning unit 313a requests the camera 20 to capture an RGB image via the recognition unit 312 when picking by the loading and unloading device 10 is completed. The planning unit 313a performs a difference check to detect the amount of change in the item W that occurred before and after picking, based on the RGB image newly acquired by the acquisition unit 311 and the previous RGB image used in recognition by the recognition unit 312.

具体的には、計画部313aは、前回のRGB画像と新たなRGB画像とで、物品Wの各々が存在する画像上の領域の変化量を検出し、当該変化量が閾値を上回る場合に差分ありと判定する。なお、差分の有無の判定方法は特に問わず、公知の技術を用いることが可能である。例えば、新旧の両RGB画像において、同一画素位置の画素毎に画素値の差分を算出し、算出した差分の平均値と、予め定めた閾値とを比較することで差分の有無を判定してもよい。また、例えば、2つの画像(画像領域)から両画像間の差分の有無を出力(推論)するよう機能付けられた機械学習モデルを用いることで、差分の有無を判定してもよい。 Specifically, the planning unit 313a detects the amount of change in the area on the image where each of the items W exists between the previous RGB image and the new RGB image, and determines that there is a difference if the amount of change exceeds a threshold. The method of determining whether there is a difference is not particularly limited, and known techniques can be used. For example, the presence or absence of a difference may be determined by calculating the difference in pixel value for each pixel at the same pixel position in both the old and new RGB images, and comparing the average value of the calculated differences with a predetermined threshold. Also, for example, the presence or absence of a difference may be determined by using a machine learning model that is functionalized to output (infer) the presence or absence of a difference between the two images from the two images (image areas).

なお、計画部313aは、認識部312で認識された物品Wのうち、消し込み処理が実行済の物品W、つまりピッキングが完了した物品Wについては差分チェックの対象から除外し、残りの物品Wを差分チェックの対象とする。具体的には、計画部313aは、認識結果等に記録されたピッキング済の状態か否かを示す状態情報に基づいて、ピッキングが未完了の物品Wを特定し、特定した物品Wを差分チェックの対象とする。また、本実施形態において、差分なしの状態とは、新旧のRGB画像で完全に一致する状態に限らず、ある程度の誤差を許容する略同等の状態を含む概念である。 The planning unit 313a excludes from the difference check the items W for which the erasure process has been executed, that is, the items W for which picking has been completed, among the items W recognized by the recognition unit 312, and subjects the remaining items W to the difference check. Specifically, the planning unit 313a identifies items W for which picking has not been completed based on status information indicating whether or not the item has been picked, which is recorded in the recognition result, etc., and subjects the identified items W to the difference check. In this embodiment, a state with no differences is not limited to a state in which the new and old RGB images are completely identical, but is a concept that includes a state in which they are approximately equivalent while allowing for a certain degree of error.

差分チェックで差分ありと判定された場合、物品Wの配置位置や姿勢がピッキングの前後で変化したことを意味する。これは、物品Wをピッキングした際に他の物品Wに接触した可能性や荷崩れが発生した可能性があることを意味する。このような場合、前回の認識結果を基に導出した移動計画では、物品Wの位置を捕捉することができないため正常にピッキングを行うことができない可能性がある。 If the difference check determines that there is a difference, it means that the placement position or posture of the item W has changed before and after picking. This means that the item W may have come into contact with other items W when picked, or that the item may have collapsed. In such a case, the movement plan derived based on the previous recognition result may not be able to capture the position of the item W, and therefore it may not be possible to pick the item correctly.

そこで、計画部313aは、差分チェックで差分ありと判定した場合、認識部312を介して、3次元画像の撮像をカメラ20に要求する。次いで、計画部313aは、取得部311により新たに取得された3次元画像と、先に取得しておいたRGB画像とを用いて認識部312に認識処理を実行させる。そして、計画部313aは、新たな認識結果に基づき、認識された物品Wの各々の移動計画を導出する。 Therefore, if the planning unit 313a determines that there is a difference in the difference check, it requests the camera 20 to capture a three-dimensional image via the recognition unit 312. Next, the planning unit 313a causes the recognition unit 312 to execute recognition processing using the three-dimensional image newly acquired by the acquisition unit 311 and the previously acquired RGB image. Then, the planning unit 313a derives a movement plan for each of the recognized objects W based on the new recognition results.

以下、上述した制御装置30aの動作例について説明する。ここで、図11は、制御装置30aが実行する処理の一例を示すフローチャートである。なお、ステップS31~S44の処理は、第1の実施形態で説明した図7のステップS11~S24の処理と同様であるため説明を省略する。 An example of the operation of the control device 30a described above will be described below. FIG. 11 is a flowchart showing an example of the processing executed by the control device 30a. Note that the processing in steps S31 to S44 is similar to the processing in steps S11 to S24 in FIG. 7 described in the first embodiment, and therefore will not be described here.

ステップS44において、ピッキングが正常に完了すると(ステップS44;No)、計画部313aは、認識部312を介して取得部311にRGB画像の撮像要求を送信させることで、RGBカメラ21で撮像されたRGB画像を取得部311に取得させる(ステップS45)。 In step S44, when picking is completed successfully (step S44; No), the planning unit 313a causes the acquisition unit 311 to acquire the RGB image captured by the RGB camera 21 by sending an RGB image capture request to the acquisition unit 311 via the recognition unit 312 (step S45).

続いて、計画部313aは、ステップS45で取得されたRGB画像と、ステップS31で取得されたRGB画像(前回のRGB画像)と、ステップS32の認識結果(前回の認識結果)とに基づき、ピッキング前後の物品Wの状態を比較する差分チェックを実行する(ステップS46)。次いで、計画部313は、差分チェックの結果に基づき、差分の有無を判定する(ステップS47)。 Then, the planning unit 313a executes a difference check to compare the state of the item W before and after picking based on the RGB image acquired in step S45, the RGB image acquired in step S31 (the previous RGB image), and the recognition result in step S32 (the previous recognition result) (step S46). Next, the planning unit 313 determines whether or not there is a difference based on the result of the difference check (step S47).

ここで、「差分なし」と判定した場合には(ステップS47;No)、計画部313aは、ステップS48、S49の処理を実行した後、ステップS34に処理を戻す。なお、ステップS48及びS49の処理は、第1の実施形態で説明した図7のステップS25、S26と同様であるため説明を省略する。 If it is determined that there is no difference (step S47; No), the planning unit 313a executes the processes of steps S48 and S49, and then returns to step S34. Note that the processes of steps S48 and S49 are similar to steps S25 and S26 in FIG. 7 described in the first embodiment, and therefore will not be described here.

一方、「差分あり」と判定した場合(ステップS47;Yes)、計画部313aは、認識部312を介して取得部311に3次元画像の撮像要求を送信させることで、3次元カメラ22で撮像された3次元画像を取得部311に取得させる(ステップS50)。続いて、計画部313aは、ステップS32に処理を戻し、ステップS45で取得されたRGB画像とステップS50で取得された3次元画像とに基づき、認識部312に認識処理を実行させる。 On the other hand, if it is determined that there is a difference (step S47; Yes), the planning unit 313a causes the acquisition unit 311 to acquire the 3D image captured by the 3D camera 22 by sending a request to capture a 3D image to the acquisition unit 311 via the recognition unit 312 (step S50). Next, the planning unit 313a returns the process to step S32, and causes the recognition unit 312 to execute recognition processing based on the RGB image acquired in step S45 and the 3D image acquired in step S50.

以上のように、制御装置30aは、物品Wのピッキングが完了した後、ピッキング後に撮像された新たなRGB画像と、認識処理で使用されたRGB画像及び当該認識処理の認識結果とに基づいて、ピッキングの前後で生じた変化を検出する差分チェックを実行する。そして、制御装置30aは、差分チェックの結果、変化あり(差分あり)と判定すると、新たなRGB画像及び3次元画像を用いて認識処理を新たに行い、当該認識処理の認識結果に基づいて優先度の設定を行う。 As described above, after picking of the item W is completed, the control device 30a performs a difference check to detect changes that occurred before and after picking based on the new RGB image captured after picking, the RGB image used in the recognition process, and the recognition result of the recognition process. Then, if the control device 30a determines that there is a change (a difference) as a result of the difference check, it performs a new recognition process using the new RGB image and 3D image, and sets a priority based on the recognition result of the recognition process.

これにより、制御装置30aでは、ピッキング時の接触や荷崩れ等の発生によりパレット2の上面2aに載置された物品Wの状態が変化した場合であっても、変化後の状態を反映した認識結果に基づき物品Wのピッキングを継続させることができる。したがって、制御装置30では、物品Wのピッキングを効率的に行うことができる。 As a result, even if the state of the item W placed on the upper surface 2a of the pallet 2 changes due to contact during picking, load collapse, or the like, the control device 30a can continue picking the item W based on the recognition result that reflects the changed state. Therefore, the control device 30 can efficiently pick the item W.

以上説明した実施形態は、上述の各装置が有する構成又は機能の一部を変更することで、適宜に変形して実施することも可能である。そこで、以下では、上述した実施形態に係るいくつかの変形例を他の実施形態として説明する。なお、以下では、上述した実施形態と異なる点を主に説明することとし、既に説明した内容と共通する点については詳細な説明を省略する。また、以下で説明する変形例は、個別に実施されてもよいし、適宜組み合わせて実施されてもよい。 The above-described embodiment can be modified as appropriate by changing a portion of the configuration or function of each of the above-described devices. Therefore, below, some modified examples of the above-described embodiment will be described as other embodiments. Note that below, differences from the above-described embodiment will be mainly described, and detailed descriptions of commonalities with the contents already described will be omitted. Also, the modified examples described below may be implemented individually or in appropriate combination.

(変形例1)
上述の実施形態では、図11で説明したステップS47の処理において、差分ありと判定されたことを条件に3次元画像の撮像要求を行う形態を説明した。しかしながら、3次元画像を取得するタイミングはこれに限らず、ステップS44~S47の任意のタイミングで撮像要求を行う形態としてもよい。一例として、ステップS45でRGB画像の撮像要求を行ったタイミングで3次元画像の撮像要求を行ってもよい。
(Variation 1)
In the above embodiment, a request to capture a three-dimensional image is made on the condition that it is determined that there is a difference in the process of step S47 described in Fig. 11. However, the timing of acquiring a three-dimensional image is not limited to this, and the request to capture an image may be made at any timing in steps S44 to S47. As an example, the request to capture a three-dimensional image may be made at the same time as the request to capture an RGB image is made in step S45.

上記の処理内容とすることで、ステップS47で差分ありと判定された場合に、より速やかに、新たなRGB画像及び3次元画像を用いた認識処理に移行することができる。なお、ステップS47で差分なしと判定された場合には、取得した3次元画像は破棄されるものとする。 By performing the above process, if it is determined in step S47 that there is a difference, it is possible to move more quickly to recognition processing using a new RGB image and a 3D image. Note that if it is determined in step S47 that there is no difference, the acquired 3D image is discarded.

以上、本発明のいくつかの実施形態(変形例)を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 Although several embodiments (variations) of the present invention have been described above, these embodiments are presented as examples and are not intended to limit the scope of the invention. These novel embodiments can be embodied in various other forms, and various omissions, substitutions, and modifications can be made without departing from the gist of the invention. These embodiments and their variations are included in the scope and gist of the invention, and are included in the scope of the invention and its equivalents as set forth in the claims.

1 荷役システム
10 荷役装置
20 カメラ
21 RGBカメラ
22 3次元カメラ
30 制御装置
311 取得部
312 認識部
313 計画部
314 計画実行部
Reference Signs List 1 Cargo handling system 10 Cargo handling device 20 Camera 21 RGB camera 22 Three-dimensional camera 30 Control device 311 Acquisition unit 312 Recognition unit 313 Planning unit 314 Planning execution unit

Claims (10)

載置部に載置された物品を把持して当該物品の移動を行う荷役装置に接続される第1の接続部と、
前記載置部を上方から撮像する撮像装置に接続される第2の接続部と、
前記撮像装置で撮像された画像を前記第2の接続部を介して取得し、取得した前記画像から前記載置部に載置された前記物品を認識する認識処理を実行し、前記認識処理で認識された前記物品の物品間の離間距離を算出し、前記離間距離に基づいて移動順序に係る優先度を前記物品に設定し、前記第1の接続部を介して前記荷役装置を制御することで、前記優先度に応じた順序で前記物品を移動させる制御部と、
を備え
前記制御部は、前記優先度の設定において、上位の優先度を設定した前記物品との離間距離が最大となる他の物品に次位の優先度を順次設定する、制御装置。
A first connection portion connected to a loading device that grasps an article placed on the placement portion and moves the article;
A second connection portion connected to an imaging device that images the placement portion from above;
a control unit that acquires an image captured by the imaging device via the second connection unit, executes a recognition process to recognize the items placed on the placement unit from the acquired image, calculates a distance between the items recognized in the recognition process, sets priorities for the items in a moving order based on the distance, and controls the loading and unloading device via the first connection unit to move the items in an order according to the priorities;
Equipped with
The control unit, in setting the priority, sequentially sets a next highest priority to another item that is the greatest distance away from the item for which a higher priority has been set.
前記制御部は、認識した前記物品の中から、高さが最大の物品を一つ選定し、選定した物品の優先度を最上位に設定する請求項1に記載の制御装置。 The control device according to claim 1 , wherein the control unit selects one of the recognized objects that has the greatest height, and sets the priority of the selected object to the highest. 前記制御部は、認識した前記物品の中から、物品群の端部又は角部に存在する物品を一つ選定し、選定した物品の優先度を最上位に設定する請求項1に記載の制御装置。 The control device according to claim 1 , wherein the control unit selects one of the recognized objects that is located at an end or corner of a group of objects, and sets the priority of the selected object to the highest level. 前記制御部は、前記認識処理で認識された前記物品毎に、当該物品を包含し且つ当該物品の外縁の少なくとも2点に接する外接円を設定し、当該外接円の中心間の距離に基づいて前記離間距離を算出する請求項1乃至3の何れか一項に記載の制御装置。 The control device according to any one of claims 1 to 3, wherein the control unit sets a circumscribing circle that encompasses the object and touches at least two points on the outer edge of the object for each object recognized in the recognition process, and calculates the separation distance based on the distance between the centers of the circumscribing circles. 前記制御部は、上位の優先度を設定した前記物品と他の物品との両物品間の離間距離が、当該両物品に係る前記外接円の各々の半径を加算した半径和以下となる場合、前記他の物品を優先度の設定対象から除外する請求項4に記載の制御装置。 The control device according to claim 4, wherein the control unit excludes another item from the priority setting targets when the distance between the item set with a higher priority and another item is less than or equal to the sum of the radii of the circumscribing circles for both items. 前記制御部は、上位の優先度を設定した前記物品との離間距離が最大となった他の物品と、当該他の物品の周辺に存在する周辺物品との間の離間距離が前記半径和以下となる場合、前記他の物品を優先度の設定対象から除外する請求項5に記載の制御装置。 The control device according to claim 5, wherein the control unit excludes another item from the priority setting targets when the distance between the other item that has the greatest distance from the item set with a higher priority and surrounding items present around the other item is less than or equal to the sum of radii. 前記制御部は、前記荷役装置による前記物品の把持又は移動の際に異常を検出すると、前記撮像装置で撮像された新たな画像を用いて前記認識処理を実行する請求項1乃至6の何れか一項に記載の制御装置。 The control device according to any one of claims 1 to 6, wherein when the control unit detects an abnormality when the loading device grasps or moves the item, the control unit executes the recognition process using a new image captured by the imaging device. 前記制御部は、前記物品の移動が完了した後、当該物品の移動後に前記撮像装置で撮像された新たな画像と、前記認識処理で使用された前回の画像とに基づいて、移動済の前記物品を除く残りの物品の前記移動の前後における変化量を検出する差分チェックを実行し、当該変化量が閾値を上回った場合に、前記新たな画像を用いて前記認識処理を実行する請求項1乃至7の何れか一項に記載の制御装置。 The control unit performs a difference check after the movement of the item is completed to detect the amount of change before and after the movement of the remaining items, excluding the moved item, based on a new image captured by the imaging device after the movement of the item and the previous image used in the recognition process, and if the amount of change exceeds a threshold, performs the recognition process using the new image. 前記第2の接続部は、2次元画像を撮像する第1の撮像装置と、3次元画像を撮像する第2の撮像装置とに接続され、
前記制御部は、前記第1の撮像装置及び前記第2の撮像装置で撮像された前記2次元画像及び前記3次元画像に基づき、前記載置部に載置された前記物品の位置、形状及び姿勢を認識する請求項1乃至8の何れか一項に記載の制御装置。
the second connection unit is connected to a first imaging device that captures a two-dimensional image and a second imaging device that captures a three-dimensional image;
The control device according to any one of claims 1 to 8, wherein the control unit recognizes the position, shape and posture of the item placed on the placement unit based on the two-dimensional image and the three-dimensional image captured by the first imaging device and the second imaging device.
載置部に載置された物品を把持して当該物品の移動を行う荷役装置に接続される第1の接続部と、前記載置部を上方から撮像する撮像装置に接続される第2の接続部とを備える制御装置のコンピュータに、
前記撮像装置で撮像された画像を前記第2の接続部を介して取得する取得ステップと、
前記取得ステップで取得した前記画像から前記載置部に載置された前記物品を認識する認識処理を実行する認識ステップと、
前記認識ステップで認識された前記物品の物品間の離間距離を算出する算出ステップと、
前記離間距離に基づいて移動順序に係る優先度を前記物品に設定し、前記優先度の設定において、上位の優先度を設定した前記物品との離間距離が最大となる他の物品に次位の優先度を順次設定する設定ステップと、
前記第1の接続部を介して前記荷役装置を制御することで、前記優先度に応じた順序で前記物品を移動させる制御ステップと、
を実行させるためのプログラム。
A computer of a control device including a first connection part connected to a loading device that grasps an article placed on the placement part and moves the article, and a second connection part connected to an imaging device that images the placement part from above,
an acquisition step of acquiring an image captured by the imaging device via the second connection part;
a recognition step of executing a recognition process for recognizing the article placed on the placement section from the image acquired in the acquisition step;
a calculation step of calculating a distance between the articles recognized in the recognition step;
a setting step of setting a priority for the item in a moving order based on the distance , and sequentially setting a second priority to another item that is the longest distance away from the item for which a higher priority has been set ;
a control step of moving the articles in an order according to the priority by controlling the loading device via the first connection unit;
A program for executing the above.
JP2020045226A 2020-03-16 2020-03-16 Control device and program Active JP7486986B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020045226A JP7486986B2 (en) 2020-03-16 2020-03-16 Control device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020045226A JP7486986B2 (en) 2020-03-16 2020-03-16 Control device and program

Publications (2)

Publication Number Publication Date
JP2021146403A JP2021146403A (en) 2021-09-27
JP7486986B2 true JP7486986B2 (en) 2024-05-20

Family

ID=77850331

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020045226A Active JP7486986B2 (en) 2020-03-16 2020-03-16 Control device and program

Country Status (1)

Country Link
JP (1) JP7486986B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7505677B2 (en) 2021-03-04 2024-06-25 国立研究開発法人農業・食品産業技術総合研究機構 Picking method and picking system
JP7505675B2 (en) 2021-03-04 2024-06-25 国立研究開発法人農業・食品産業技術総合研究機構 Picking method and picking system
JP7505676B2 (en) 2021-03-04 2024-06-25 国立研究開発法人農業・食品産業技術総合研究機構 Picking method and picking system
KR102649596B1 (en) * 2023-10-12 2024-03-20 라온피플 주식회사 Apparatus and method for providing operating data controlling robot

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017097847A (en) 2015-11-12 2017-06-01 株式会社東芝 Transport device, transport system and transport method
JP2018051684A (en) 2016-09-28 2018-04-05 ファナック株式会社 Carrier device for taking out objects one by one by optimal route
JP2019150904A (en) 2018-03-01 2019-09-12 株式会社東芝 Information processing device and sorting system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017097847A (en) 2015-11-12 2017-06-01 株式会社東芝 Transport device, transport system and transport method
JP2018051684A (en) 2016-09-28 2018-04-05 ファナック株式会社 Carrier device for taking out objects one by one by optimal route
JP2019150904A (en) 2018-03-01 2019-09-12 株式会社東芝 Information processing device and sorting system

Also Published As

Publication number Publication date
JP2021146403A (en) 2021-09-27

Similar Documents

Publication Publication Date Title
JP7486986B2 (en) Control device and program
JP7466150B2 (en) Robotic system with automatic package registration mechanism and method of operation thereof
US10839261B2 (en) Information processing apparatus, information processing method, and storage medium
US11400598B2 (en) Information processing apparatus, method, and robot system
US11285603B2 (en) Information processing apparatus, control method, robot system, and storage medium
JP4087874B2 (en) Work picking device
CN101152720B (en) Workpiece picking apparatus
JP6444499B1 (en) Control device, picking system, distribution system, program, and control method
JP6325174B1 (en) Control device, picking system, distribution system, program, control method, and production method
JP6258557B1 (en) Control device, picking system, distribution system, program, control method, and production method
JP6258556B1 (en) Control device, picking system, distribution system, program, control method, and production method
JP7191569B2 (en) gripping device
CN111483750A (en) Control method and control device for robot system
JP6363294B1 (en) Information processing apparatus, picking system, distribution system, program, and information processing method
CN114670189B (en) Storage medium, and method and system for generating control program of robot
JP6948033B1 (en) Method and calculation system for performing grip area detection
CN113269112A (en) Method and device for identifying capture area, electronic equipment and storage medium
JP7481867B2 (en) Control device and program
CN111470244B (en) Control method and control device for robot system
US20230030852A1 (en) Control apparatus for robotic system, control method for robotic system, computer-readable storage medium storing a computer control program, and robotic system
JP2023063110A (en) Picking system, picking device, control device, program and method
JP7286524B2 (en) Picking robot, picking method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221201

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240305

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240409

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240508

R150 Certificate of patent or registration of utility model

Ref document number: 7486986

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150