JP2020151773A - Cargo handling device and controller - Google Patents

Cargo handling device and controller Download PDF

Info

Publication number
JP2020151773A
JP2020151773A JP2019049721A JP2019049721A JP2020151773A JP 2020151773 A JP2020151773 A JP 2020151773A JP 2019049721 A JP2019049721 A JP 2019049721A JP 2019049721 A JP2019049721 A JP 2019049721A JP 2020151773 A JP2020151773 A JP 2020151773A
Authority
JP
Japan
Prior art keywords
processor
image
article
camera
cargo handling
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019049721A
Other languages
Japanese (ja)
Inventor
賢太郎 瀬崎
Kentaro Sezaki
賢太郎 瀬崎
優香 渡辺
Yuka Watanabe
優香 渡辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Toshiba Infrastructure Systems and Solutions Corp
Original Assignee
Toshiba Corp
Toshiba Infrastructure Systems and Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Infrastructure Systems and Solutions Corp filed Critical Toshiba Corp
Priority to JP2019049721A priority Critical patent/JP2020151773A/en
Publication of JP2020151773A publication Critical patent/JP2020151773A/en
Pending legal-status Critical Current

Links

Landscapes

  • Manipulator (AREA)
  • Specific Conveyance Elements (AREA)

Abstract

To provide a cargo handling device which can present a label adhered to an article, and to provide a controller.SOLUTION: An according to one embodiment, a cargo handling device includes a holding mechanism, a camera, a first processor, and a storage part. The holding mechanism holds an article to which a label is adhered. The camera captures an image of a contact area where the holding mechanism contacts with the article. The first processor uses the camera to capture a first image and causes the holding mechanism to hold the article after the first image is captured. The storage part stores the first image.SELECTED DRAWING: Figure 1

Description

本発明の実施形態は、荷役装置及びコントローラに関する。 Embodiments of the present invention relate to cargo handling devices and controllers.

荷役装置には、ロボットを用いて荷物などの物品を把持し所定の場所に積載するものがある。物品に宛先伝票などのラベルが貼付されている場合、荷役装置は、吸着部などの把持部で物品を把持するとラベルを破損させてしまうおそれがある。 Some cargo handling devices use a robot to grasp an article such as luggage and load it in a predetermined place. When a label such as a destination slip is attached to an article, the cargo handling device may damage the label when the article is gripped by a gripping portion such as a suction portion.

荷役装置は、ラベルを破損させてしまうことで物品の宛先などを知ることができなくなるおそれがあるという課題がある。 The cargo handling device has a problem that the label may be damaged and the destination of the article may not be known.

特開2018−149497号公報JP-A-2018-149497

上記の課題を解決するため、物品に貼付されたラベルを提示することができる荷役装置及びコントローラを提供する。 In order to solve the above problems, a cargo handling device and a controller capable of presenting a label affixed to an article are provided.

実施形態によれば、荷役装置は、把持機構と、カメラと、第1のプロセッサと、記憶部と、を備える。把持機構は、ラベルを貼付された物品を把持する。カメラは、前記把持機構が前記物品に接触する接触領域を撮影する。第1のプロセッサは、前記カメラを用いて、第1の画像を撮影し、前記第1の画像を撮影した後に、前記把持機構に前記物品を把持させる。記憶部は、前記第1の画像を格納する。 According to an embodiment, the cargo handling device includes a gripping mechanism, a camera, a first processor, and a storage unit. The gripping mechanism grips the labeled article. The camera captures a contact area where the gripping mechanism contacts the article. The first processor uses the camera to capture a first image, captures the first image, and then causes the gripping mechanism to grip the article. The storage unit stores the first image.

図1は、実施形態に係る荷役システムの構成例を示す図である。FIG. 1 is a diagram showing a configuration example of a cargo handling system according to an embodiment. 図2は、実施形態に係るサーバの構成例を示すブロック図である。FIG. 2 is a block diagram showing a configuration example of the server according to the embodiment. 図3は、実施形態に係るロボットコントローラの構成例を示すブロック図である。FIG. 3 is a block diagram showing a configuration example of the robot controller according to the embodiment. 図4は、実施形態に係る表示装置の構成例を示すブロック図である。FIG. 4 is a block diagram showing a configuration example of the display device according to the embodiment. 図5は、実施形態に係るロボットコントローラの動作例を示すフローチャートである。FIG. 5 is a flowchart showing an operation example of the robot controller according to the embodiment.

以下、図面を参照しながら実施形態について説明する。
実施形態に係る荷役システム(荷役装置)は、ロボットを用いて所定の場所に積載される物品を把持し所定の場所(積載場所)に積載する。荷役システムは、ロボットが備える吸着パットで物品を吸着することで物品を把持する。たとえば、荷役システムは、ケースなどの積載された物品をソータ又はコンベアなどに荷降ろしするために用いられる。また、荷役システムは、ソータ又はコンベアなどに積載された物品をケースなどに荷揚げするために用いられる。たとえば、荷役システムは、物流センサ又は倉庫などで用いられる。荷役システムが利用される場所及び用途は、特定の構成に限定されるものではない。
Hereinafter, embodiments will be described with reference to the drawings.
The cargo handling system (loading device) according to the embodiment uses a robot to grasp an article to be loaded at a predetermined location and load the article at a predetermined location (loading location). The cargo handling system grips the article by sucking the article with the suction pad provided by the robot. For example, a cargo handling system is used to unload loaded articles such as cases onto sorters or conveyors. Further, the cargo handling system is used to unload an article loaded on a sorter or a conveyor or the like into a case or the like. For example, a cargo handling system is used in a distribution sensor or a warehouse. The location and use of the cargo handling system is not limited to a specific configuration.

図1は、実施形態に係る荷役システム1の構成例を示す。図1が示すように、荷役システム1は、サーバ10、ロボット20、ロボットコントローラ30及び表示装置40などを備える。サーバ10とロボットコントローラ30及び表示装置40とは、互いに接続する。また、ロボットコントローラ30とロボット20とは、互いに接続する。ここでは、荷役システム1は、物品50を把持して所定の積載場所に積載する。 FIG. 1 shows a configuration example of the cargo handling system 1 according to the embodiment. As shown in FIG. 1, the cargo handling system 1 includes a server 10, a robot 20, a robot controller 30, a display device 40, and the like. The server 10, the robot controller 30, and the display device 40 are connected to each other. Further, the robot controller 30 and the robot 20 are connected to each other. Here, the cargo handling system 1 grips the article 50 and loads it at a predetermined loading location.

なお、荷役システム1は、図1が示すような構成の他に必要に応じた構成を具備したり、荷役システム1から特定の構成が除外されたりしてもよい。 In addition to the configuration shown in FIG. 1, the cargo handling system 1 may have a configuration as required, or a specific configuration may be excluded from the cargo handling system 1.

物品50は、ロボット20に把持され搬送される。物品50は、所定の場所に積載されている。たとえば、物品50は、ケース、ソータ又はコンベアなどに積載されている。 The article 50 is gripped and conveyed by the robot 20. The article 50 is loaded in a predetermined place. For example, the article 50 is loaded on a case, sorter, conveyor, or the like.

物品50には、ラベル(帳票)51が貼付される。たとえば、ラベル51は、物品50の上面に貼付される。ラベル51は、のり、テープ又はホッチキスなどによって物品50上に貼付される。また、ラベル51は、物品50に直接書き込まれたものであってもよい。 A label (form) 51 is attached to the article 50. For example, the label 51 is affixed to the upper surface of the article 50. The label 51 is affixed onto the article 50 with glue, tape, stapler, or the like. Further, the label 51 may be directly written on the article 50.

ラベル51は、物品50に関連する情報を表示する。たとえば、ラベル51は、物品50の宛先を示す宛先伝票である。なお、ラベル51が表示する情報は、特定の構成に限定されるものではない。 Label 51 displays information related to article 50. For example, the label 51 is a destination slip indicating the destination of the article 50. The information displayed by the label 51 is not limited to a specific configuration.

サーバ10は、ロボット20が撮影した撮影画像を管理する。サーバ10は、ロボット20からの撮影画像を保存する。また、サーバ10は、保存した撮影画像を表示装置40に送信する。サーバ10については、後に詳述する。 The server 10 manages the captured images captured by the robot 20. The server 10 stores the captured image from the robot 20. Further, the server 10 transmits the saved captured image to the display device 40. The server 10 will be described in detail later.

ロボット20は、ロボットコントローラ30の制御に従って、物品50を把持する。ロボット20は、把持した物品を積載場所に積載する。 The robot 20 grips the article 50 under the control of the robot controller 30. The robot 20 loads the gripped article on the loading location.

ロボット20は、ロボットアーム21、把持部22、吸着パット23及びカメラ24などから構成される。 The robot 20 includes a robot arm 21, a grip portion 22, a suction pad 23, a camera 24, and the like.

ロボットアーム21は、ロボットコントローラ30の制御によって駆動するマニピュレータである。ロボットアーム21は、棒状のフレーム及びフレームを駆動するモータなどから構成される。 The robot arm 21 is a manipulator driven by the control of the robot controller 30. The robot arm 21 is composed of a rod-shaped frame, a motor for driving the frame, and the like.

把持部22は、ロボットアーム21の先端に設置されている。把持部22は、ロボットアーム21の移動に伴って移動される。把持部22は、ロボットアーム21が所定の方向に移動することにより、物品50を把持する位置まで移動する。 The grip portion 22 is installed at the tip of the robot arm 21. The grip portion 22 is moved as the robot arm 21 moves. The grip portion 22 moves to a position where the article 50 is gripped by the robot arm 21 moving in a predetermined direction.

把持部22は、物品50を把持する。ここでは、把持部22は、吸着パット23(把持機構)を備える。吸着パット23は、物品50に吸着する。たとえば、吸着パット23は、真空吸着により物品50に吸着する。吸着パット23は、ロボットコントローラ30からの制御に基づいて内部を負圧にする。吸着パット23は、物品50の表面に接した状態で内部を負圧にすることで物品50の表面に真空吸着する。吸着パット23は、内部の負圧を解除すると、物品50を解放する。
ここでは、把持部22は、複数の吸着パット23を備える。
The grip portion 22 grips the article 50. Here, the grip portion 22 includes a suction pad 23 (grip mechanism). The suction pad 23 sticks to the article 50. For example, the suction pad 23 sucks on the article 50 by vacuum suction. The suction pad 23 creates a negative pressure inside based on the control from the robot controller 30. The suction pad 23 vacuum-sucks to the surface of the article 50 by creating a negative pressure inside in contact with the surface of the article 50. When the negative pressure inside is released, the suction pad 23 releases the article 50.
Here, the grip portion 22 includes a plurality of suction pads 23.

なお、把持部22には、吸着パット以外の種々の把持機構を採用してよい。たとえば、把持部22は、物品50を把持するグリッパを含むものであってよい。グリッパは、複数の指と、複数の指を連結している複数の関節機構とを備える。関節機構は、関節機構の動作に連動して指が動作するように構成されてよい。グリッパは、例えば、複数の指による2点以上の接点で、対向する複数の方向から荷物に対して力を加える。これにより、把持部22は、指と荷物との間に生じる摩擦によって物品50を把持する。把持部22の構成は、物品50を把持可能な種々の把持機構を用いてよく、特定の構成に限定されるものではない。 In addition, various gripping mechanisms other than the suction pad may be adopted for the gripping portion 22. For example, the grip portion 22 may include a gripper that grips the article 50. The gripper comprises a plurality of fingers and a plurality of joint mechanisms connecting the plurality of fingers. The joint mechanism may be configured such that the finger moves in conjunction with the movement of the joint mechanism. The gripper applies force to the load from a plurality of opposing directions, for example, at two or more points of contact with a plurality of fingers. As a result, the grip portion 22 grips the article 50 by the friction generated between the finger and the load. The configuration of the grip portion 22 may use various gripping mechanisms capable of gripping the article 50, and is not limited to a specific configuration.

また、把持部22は、カメラ24を備える。カメラ24は、把持部22が把持する物品50を撮影する。カメラ24は、吸着パット23が吸着(接触)する領域(接触領域)を撮影する。たとえば、カメラ24は、吸着パット23に隣接して設置される。 Further, the grip portion 22 includes a camera 24. The camera 24 photographs the article 50 gripped by the grip portion 22. The camera 24 photographs a region (contact region) where the suction pad 23 is attracted (contacted). For example, the camera 24 is installed adjacent to the suction pad 23.

カメラ24は、ロボットコントローラ30からの制御に基づいて画像を撮影する。カメラ24は、撮影した画像(撮影画像)をロボットコントローラ30に送信する。たとえば、カメラ24は、CCD(Charge Coupled Device)カメラなどである。 The camera 24 takes an image based on the control from the robot controller 30. The camera 24 transmits the captured image (captured image) to the robot controller 30. For example, the camera 24 is a CCD (Charge Coupled Device) camera or the like.

ロボットコントローラ30は、ロボット20を制御する。即ち、ロボットコントローラ30は、ロボット20のロボットアーム21、把持部22、吸着パット23及びカメラ24などを制御する。ロボットコントローラ30については、後に詳述する。 The robot controller 30 controls the robot 20. That is, the robot controller 30 controls the robot arm 21, the grip portion 22, the suction pad 23, the camera 24, and the like of the robot 20. The robot controller 30 will be described in detail later.

表示装置40は、サーバ10が格納する撮影画像をオペレータに表示する。たとえば、表示装置40は、オペレータからの操作に従ってサーバ10から撮影画像を取得し表示する。 The display device 40 displays the captured image stored in the server 10 to the operator. For example, the display device 40 acquires and displays a captured image from the server 10 according to an operation from the operator.

たとえば、表示装置40は、ラベル51の情報が必要となる場所に設置される。表示装置40は、物品50の搬送ルートの分岐点などに設置される。
表示装置40については、後に詳述する。
For example, the display device 40 is installed at a place where the information of the label 51 is required. The display device 40 is installed at a branch point of the transport route of the article 50 or the like.
The display device 40 will be described in detail later.

次に、サーバ10について説明する。
図2は、サーバ10の構成例を示す。図2は、サーバ10の構成例を示すブロック図である。図2が示すように、サーバ10は、プロセッサ11、ROM12、RAM13、NVM14、通信部15、操作部16及び表示部17などを備える。
Next, the server 10 will be described.
FIG. 2 shows a configuration example of the server 10. FIG. 2 is a block diagram showing a configuration example of the server 10. As shown in FIG. 2, the server 10 includes a processor 11, a ROM 12, a RAM 13, an NVM 14, a communication unit 15, an operation unit 16, a display unit 17, and the like.

プロセッサ11と、ROM12、RAM13、NVM14、通信部15、操作部16及び表示部17と、は、データバスなどを介して互いに接続する。
なお、サーバ10は、図2が示すような構成の他に必要に応じた構成を具備したり、サーバ10から特定の構成が除外されたりしてもよい。
The processor 11, the ROM 12, the RAM 13, the NVM 14, the communication unit 15, the operation unit 16, and the display unit 17 are connected to each other via a data bus or the like.
In addition to the configuration shown in FIG. 2, the server 10 may have a configuration as required, or a specific configuration may be excluded from the server 10.

プロセッサ11(第2のプロセッサ)は、サーバ10全体の動作を制御する機能を有する。プロセッサ11は、内部キャッシュ及び各種のインターフェースなどを備えてもよい。プロセッサ11は、内部メモリ、ROM12又はNVM14が予め記憶するプログラムを実行することにより種々の処理を実現する。 The processor 11 (second processor) has a function of controlling the operation of the entire server 10. The processor 11 may include an internal cache, various interfaces, and the like. The processor 11 realizes various processes by executing a program stored in advance in the internal memory, ROM 12 or NVM 14.

なお、プロセッサ11がプログラムを実行することにより実現する各種の機能のうちの一部は、ハードウエア回路により実現されるものであってもよい。この場合、プロセッサ11は、ハードウエア回路により実行される機能を制御する。 It should be noted that some of the various functions realized by the processor 11 executing the program may be realized by the hardware circuit. In this case, the processor 11 controls the functions executed by the hardware circuit.

ROM12は、制御プログラム及び制御データなどが予め記憶された不揮発性のメモリである。ROM12に記憶される制御プログラム及び制御データは、サーバ10の仕様に応じて予め組み込まれる。 The ROM 12 is a non-volatile memory in which a control program, control data, and the like are stored in advance. The control program and control data stored in the ROM 12 are preliminarily incorporated according to the specifications of the server 10.

RAM13は、揮発性のメモリである。RAM13は、プロセッサ11の処理中のデータなどを一時的に格納する。RAM13は、プロセッサ11からの命令に基づき種々のアプリケーションプログラムを格納する。また、RAM13は、アプリケーションプログラムの実行に必要なデータ及びアプリケーションプログラムの実行結果などを格納してもよい。 The RAM 13 is a volatile memory. The RAM 13 temporarily stores data and the like being processed by the processor 11. The RAM 13 stores various application programs based on instructions from the processor 11. Further, the RAM 13 may store data necessary for executing the application program, an execution result of the application program, and the like.

NVM14(記憶部)は、データの書き込み及び書き換えが可能な不揮発性のメモリである。NVM14は、たとえば、HDD(Hard Disk Drive)、SSD(Solid State Drive)又はフラッシュメモリなどから構成される。NVM14は、サーバ10の運用用途に応じて制御プログラム、アプリケーション及び種々のデータなどを格納する。 The NVM 14 (storage unit) is a non-volatile memory capable of writing and rewriting data. The NVM 14 is composed of, for example, an HDD (Hard Disk Drive), an SSD (Solid State Drive), a flash memory, or the like. The NVM 14 stores a control program, an application, various data, and the like according to the operational use of the server 10.

通信部15は、ロボットコントローラ30及び表示装置40などと通信するためのインターフェースである。たとえば、通信部15は、インターネットなどの外部ネットワーク又はLAN(Local Area Network)などの内部ネットワークを通じてロボットコントローラ30及び表示装置40などと接続する。たとえば、通信部15は、LAN接続をサポートするインターフェースである。 The communication unit 15 is an interface for communicating with the robot controller 30, the display device 40, and the like. For example, the communication unit 15 connects to the robot controller 30 and the display device 40 through an external network such as the Internet or an internal network such as a LAN (Local Area Network). For example, the communication unit 15 is an interface that supports a LAN connection.

操作部16は、オペレータから種々の操作の入力を受け付ける。操作部16は、入力された操作を示す信号をプロセッサ11へ送信する。操作部16は、タッチパネルから構成されてもよい。 The operation unit 16 receives inputs for various operations from the operator. The operation unit 16 transmits a signal indicating the input operation to the processor 11. The operation unit 16 may be composed of a touch panel.

表示部17は、プロセッサ11からの画像データを表示する。たとえば、表示部17は、液晶モニタから構成される。操作部16がタッチパネルから構成される場合、表示部17は、操作部16と一体的に形成されてもよい。 The display unit 17 displays the image data from the processor 11. For example, the display unit 17 is composed of a liquid crystal monitor. When the operation unit 16 is composed of a touch panel, the display unit 17 may be formed integrally with the operation unit 16.

次に、ロボットコントローラ30について説明する。
図3は、ロボットコントローラ30の構成例を示す。図3は、ロボットコントローラ30の構成例を示すブロック図である。図3が示すように、ロボットコントローラ30は、プロセッサ31、ROM32、RAM33、NVM34、通信部35、操作部36、表示部37及びロボットインターフェース38などを備える。
Next, the robot controller 30 will be described.
FIG. 3 shows a configuration example of the robot controller 30. FIG. 3 is a block diagram showing a configuration example of the robot controller 30. As shown in FIG. 3, the robot controller 30 includes a processor 31, a ROM 32, a RAM 33, an NVM 34, a communication unit 35, an operation unit 36, a display unit 37, a robot interface 38, and the like.

プロセッサ31と、ROM32、RAM33、NVM34、通信部35、操作部36、表示部37及びロボットインターフェース38と、は、データバスなどを介して互いに接続する。
なお、ロボットコントローラ30は、図3が示すような構成の他に必要に応じた構成を具備したり、ロボットコントローラ30から特定の構成が除外されたりしてもよい。
The processor 31, the ROM 32, the RAM 33, the NVM 34, the communication unit 35, the operation unit 36, the display unit 37, and the robot interface 38 are connected to each other via a data bus or the like.
The robot controller 30 may have a configuration as required in addition to the configuration shown in FIG. 3, or a specific configuration may be excluded from the robot controller 30.

プロセッサ31(第1のプロセッサ)は、ロボットコントローラ30全体の動作を制御する機能を有する。プロセッサ31は、内部キャッシュ及び各種のインターフェースなどを備えてもよい。プロセッサ31は、内部メモリ、ROM32又はNVM34が予め記憶するプログラムを実行することにより種々の処理を実現する。 The processor 31 (first processor) has a function of controlling the operation of the entire robot controller 30. The processor 31 may include an internal cache, various interfaces, and the like. The processor 31 realizes various processes by executing a program stored in advance in the internal memory, ROM 32, or NVM 34.

なお、プロセッサ31がプログラムを実行することにより実現する各種の機能のうちの一部は、ハードウエア回路により実現されるものであってもよい。この場合、プロセッサ31は、ハードウエア回路により実行される機能を制御する。 It should be noted that some of the various functions realized by the processor 31 executing the program may be realized by the hardware circuit. In this case, the processor 31 controls the functions performed by the hardware circuit.

ROM32は、制御プログラム及び制御データなどが予め記憶された不揮発性のメモリである。ROM32に記憶される制御プログラム及び制御データは、ロボットコントローラ30の仕様に応じて予め組み込まれる。 The ROM 32 is a non-volatile memory in which a control program, control data, and the like are stored in advance. The control program and control data stored in the ROM 32 are preliminarily incorporated according to the specifications of the robot controller 30.

RAM33は、揮発性のメモリである。RAM33は、プロセッサ31の処理中のデータなどを一時的に格納する。RAM33は、プロセッサ31からの命令に基づき種々のアプリケーションプログラムを格納する。また、RAM33は、アプリケーションプログラムの実行に必要なデータ及びアプリケーションプログラムの実行結果などを格納してもよい。 The RAM 33 is a volatile memory. The RAM 33 temporarily stores data and the like being processed by the processor 31. The RAM 33 stores various application programs based on instructions from the processor 31. Further, the RAM 33 may store data necessary for executing the application program, an execution result of the application program, and the like.

NVM34は、データの書き込み及び書き換えが可能な不揮発性のメモリである。NVM34は、たとえば、HDD(Hard Disk Drive)、SSD(Solid State Drive)又はフラッシュメモリなどから構成される。NVM34は、ロボットコントローラ30の運用用途に応じて制御プログラム、アプリケーション及び種々のデータなどを格納する。 The NVM 34 is a non-volatile memory capable of writing and rewriting data. The NVM 34 is composed of, for example, an HDD (Hard Disk Drive), an SSD (Solid State Drive), a flash memory, or the like. The NVM 34 stores a control program, an application, various data, and the like according to the operational use of the robot controller 30.

通信部35は、サーバ10などと通信するためのインターフェースである。たとえば、通信部35は、インターネットなどの外部ネットワーク又はLANなどの内部ネットワークを通じてサーバ10などと接続する。たとえば、通信部35は、LAN接続をサポートするインターフェースである。 The communication unit 35 is an interface for communicating with the server 10 and the like. For example, the communication unit 35 connects to the server 10 or the like through an external network such as the Internet or an internal network such as a LAN. For example, the communication unit 35 is an interface that supports a LAN connection.

操作部36は、オペレータから種々の操作の入力を受け付ける。操作部36は、入力された操作を示す信号をプロセッサ31へ送信する。操作部36は、タッチパネルから構成されてもよい。 The operation unit 36 receives inputs for various operations from the operator. The operation unit 36 transmits a signal indicating the input operation to the processor 31. The operation unit 36 may be composed of a touch panel.

表示部37は、プロセッサ31からの画像データを表示する。たとえば、表示部37は、液晶モニタから構成される。操作部36がタッチパネルから構成される場合、表示部37は、操作部36と一体的に形成されてもよい。 The display unit 37 displays the image data from the processor 31. For example, the display unit 37 is composed of a liquid crystal monitor. When the operation unit 36 is composed of a touch panel, the display unit 37 may be integrally formed with the operation unit 36.

ロボットインターフェース38は、ロボット20と通信するためのインターフェースである。即ち、ロボットインターフェース38は、ロボットアーム21、把持部22、吸着パット23及びカメラ24などと通信する。また、ロボットインターフェース38は、USB(Universal Serial Bus)接続をサポートするものであってもよい。 The robot interface 38 is an interface for communicating with the robot 20. That is, the robot interface 38 communicates with the robot arm 21, the grip portion 22, the suction pad 23, the camera 24, and the like. Further, the robot interface 38 may support a USB (Universal Serial Bus) connection.

次に、表示装置40について説明する。
図4は、表示装置40の構成例を示す。図4は、表示装置40の構成例を示すブロック図である。図4が示すように、表示装置40は、プロセッサ41、ROM42、RAM43、NVM44、通信部45、操作部46及び表示部47などを備える。
Next, the display device 40 will be described.
FIG. 4 shows a configuration example of the display device 40. FIG. 4 is a block diagram showing a configuration example of the display device 40. As shown in FIG. 4, the display device 40 includes a processor 41, a ROM 42, a RAM 43, an NVM 44, a communication unit 45, an operation unit 46, a display unit 47, and the like.

プロセッサ41と、ROM42、RAM43、NVM44、通信部45、操作部46及び表示部47と、は、データバスなどを介して互いに接続する。
なお、表示装置40は、図4が示すような構成の他に必要に応じた構成を具備したり、表示装置40から特定の構成が除外されたりしてもよい。
The processor 41, the ROM 42, the RAM 43, the NVM 44, the communication unit 45, the operation unit 46, and the display unit 47 are connected to each other via a data bus or the like.
In addition to the configuration shown in FIG. 4, the display device 40 may have a configuration as required, or a specific configuration may be excluded from the display device 40.

プロセッサ41は、表示装置40全体の動作を制御する機能を有する。プロセッサ41は、内部キャッシュ及び各種のインターフェースなどを備えてもよい。プロセッサ41は、内部メモリ、ROM42又はNVM44が予め記憶するプログラムを実行することにより種々の処理を実現する。 The processor 41 has a function of controlling the operation of the entire display device 40. The processor 41 may include an internal cache, various interfaces, and the like. The processor 41 realizes various processes by executing a program stored in advance in the internal memory, ROM 42, or NVM 44.

なお、プロセッサ41がプログラムを実行することにより実現する各種の機能のうちの一部は、ハードウエア回路により実現されるものであってもよい。この場合、プロセッサ41は、ハードウエア回路により実行される機能を制御する。 It should be noted that some of the various functions realized by the processor 41 executing the program may be realized by the hardware circuit. In this case, the processor 41 controls the functions executed by the hardware circuit.

ROM42は、制御プログラム及び制御データなどが予め記憶された不揮発性のメモリである。ROM42に記憶される制御プログラム及び制御データは、表示装置40の仕様に応じて予め組み込まれる。 The ROM 42 is a non-volatile memory in which a control program, control data, and the like are stored in advance. The control program and control data stored in the ROM 42 are preliminarily incorporated according to the specifications of the display device 40.

RAM43は、揮発性のメモリである。RAM43は、プロセッサ41の処理中のデータなどを一時的に格納する。RAM43は、プロセッサ41からの命令に基づき種々のアプリケーションプログラムを格納する。また、RAM43は、アプリケーションプログラムの実行に必要なデータ及びアプリケーションプログラムの実行結果などを格納してもよい。 The RAM 43 is a volatile memory. The RAM 43 temporarily stores data and the like being processed by the processor 41. The RAM 43 stores various application programs based on instructions from the processor 41. Further, the RAM 43 may store data necessary for executing the application program, an execution result of the application program, and the like.

NVM44は、データの書き込み及び書き換えが可能な不揮発性のメモリである。NVM44は、たとえば、HDD(Hard Disk Drive)、SSD(Solid State Drive)又はフラッシュメモリなどから構成される。NVM44は、表示装置40の運用用途に応じて制御プログラム、アプリケーション及び種々のデータなどを格納する。 The NVM 44 is a non-volatile memory capable of writing and rewriting data. The NVM 44 is composed of, for example, an HDD (Hard Disk Drive), an SSD (Solid State Drive), a flash memory, or the like. The NVM 44 stores a control program, an application, various data, and the like according to the operational use of the display device 40.

通信部45は、サーバ10などと通信するためのインターフェースである。たとえば、通信部45は、インターネットなどの外部ネットワーク又はLANなどの内部ネットワークを通じてサーバ10などと接続する。たとえば、通信部45は、LAN接続をサポートするインターフェースである。 The communication unit 45 is an interface for communicating with the server 10 and the like. For example, the communication unit 45 connects to the server 10 or the like through an external network such as the Internet or an internal network such as a LAN. For example, the communication unit 45 is an interface that supports a LAN connection.

操作部46は、オペレータから種々の操作の入力を受け付ける。操作部46は、入力された操作を示す信号をプロセッサ41へ送信する。操作部46は、タッチパネルから構成されてもよい。 The operation unit 46 receives inputs for various operations from the operator. The operation unit 46 transmits a signal indicating the input operation to the processor 41. The operation unit 46 may be composed of a touch panel.

表示部47は、プロセッサ41からの画像データを表示する。たとえば、表示部47は、液晶モニタから構成される。操作部46がタッチパネルから構成される場合、表示部47は、操作部46と一体的に形成されてもよい。 The display unit 47 displays the image data from the processor 41. For example, the display unit 47 is composed of a liquid crystal monitor. When the operation unit 46 is composed of a touch panel, the display unit 47 may be formed integrally with the operation unit 46.

次に、ロボットコントローラ30が実現する機能について説明する。ロボットコントローラ30が実現する機能は、プロセッサ31がROM32又はNVM34などに格納されるプログラムを実行することで実現される。 Next, the functions realized by the robot controller 30 will be described. The function realized by the robot controller 30 is realized by the processor 31 executing a program stored in the ROM 32, the NVM 34, or the like.

まず、プロセッサ31は、物品50の識別情報を取得する機能を有する。 First, the processor 31 has a function of acquiring identification information of the article 50.

識別情報は、物品50を特定する情報である。たとえば、識別情報は、数値、文字列又はそれらの組合せなどである。
たとえば、ロボット20が物品50をコンベアに積載する場合、識別情報は、物品50に割り振られる情報である。
The identification information is information that identifies the article 50. For example, the identification information may be a numerical value, a character string, or a combination thereof.
For example, when the robot 20 loads the article 50 on the conveyor, the identification information is information assigned to the article 50.

また、ロボット20が物品50をソータに積載する場合、識別情報は、ロボット20が物品50を積載するセルを特定する情報(たとえば、セル番号など)などであってもよい。
識別情報の構成は、特定の構成に限定されるものではない。
Further, when the robot 20 loads the article 50 on the sorter, the identification information may be information (for example, cell number or the like) that identifies the cell in which the robot 20 loads the article 50.
The structure of the identification information is not limited to a specific structure.

たとえば、プロセッサ31は、物品50を把持する前に識別情報を取得する。
たとえば、プロセッサ31は、通信部35などを通じて外部装置から識別情報を取得する。また、プロセッサ31は、操作部36などを通じて識別情報の入力を受け付けてもよい。
For example, the processor 31 acquires identification information before gripping the article 50.
For example, the processor 31 acquires identification information from an external device through a communication unit 35 or the like. Further, the processor 31 may accept the input of the identification information through the operation unit 36 or the like.

また、プロセッサ31は、物品50において吸着パット23が接触する領域(接触領域)を設定する機能を有する。
プロセッサ31は、吸着パット23が物品50を安定して吸着することができる領域を接触領域として設定する。たとえば、プロセッサ31は、物品50の形状などに基づいて接触領域を設定する。たとえば、プロセッサ31は、物品50の上面において重心を含む領域を接触領域として設定する。
Further, the processor 31 has a function of setting a region (contact region) in which the suction pad 23 contacts the article 50.
The processor 31 sets a region in which the suction pad 23 can stably suck the article 50 as a contact region. For example, the processor 31 sets the contact area based on the shape of the article 50 and the like. For example, the processor 31 sets a region including the center of gravity on the upper surface of the article 50 as a contact region.

ここでは、プロセッサ31は、ラベル51を少なくとも一部含む領域を接触領域として設定する。
なお、プロセッサ31が接触領域を設定する方法は、特定の方法に限定されるものではない。
Here, the processor 31 sets a region including at least a part of the label 51 as a contact region.
The method by which the processor 31 sets the contact area is not limited to a specific method.

また、プロセッサ31は、カメラ24を用いて接触領域を撮影する機能を有する。
プロセッサ31は、ロボットアーム21を用いてカメラ24が接触領域を撮影可能な位置に把持部22を移動させる。たとえば、プロセッサ31は、把持部22の経路計画を策定し、経路計画に基づいて把持部22を移動させる。即ち、ロボットコントローラ30は、ロボットアーム21を制御して把持部22を経路計画が示す経路に沿って移動させる。
Further, the processor 31 has a function of photographing a contact area by using the camera 24.
The processor 31 uses the robot arm 21 to move the grip portion 22 to a position where the camera 24 can photograph the contact area. For example, the processor 31 formulates a route plan for the grip portion 22 and moves the grip portion 22 based on the route plan. That is, the robot controller 30 controls the robot arm 21 to move the grip portion 22 along the path indicated by the route plan.

プロセッサ31は、把持部22を移動させると、カメラ24を用いて画像(第1の画像)を撮影する。即ち、プロセッサ31は、カメラ24に画像を撮影させる制御信号を送信する。また、プロセッサ31は、カメラ24から撮影した画像(第1の画像)を取得する。 When the grip portion 22 is moved, the processor 31 captures an image (first image) using the camera 24. That is, the processor 31 transmits a control signal for causing the camera 24 to take an image. Further, the processor 31 acquires an image (first image) taken from the camera 24.

また、プロセッサ31は、第1の画像と識別情報とをサーバ10に送信する機能を有する。
プロセッサ31は、通信部35を通じて、取得した第1の画像と取得した識別情報とを対応付けてサーバ10に送信する。なお、プロセッサ31は、取得した第1の画像と取得した識別情報とを対応付けてNVM34に格納してもよい。
Further, the processor 31 has a function of transmitting the first image and the identification information to the server 10.
The processor 31 associates the acquired first image with the acquired identification information and transmits the acquired identification information to the server 10 through the communication unit 35. The processor 31 may store the acquired first image in the NVM 34 in association with the acquired identification information.

また、プロセッサ31は、物品50を把持し積載領域に積載する機能を有する。
プロセッサ31は、ロボットアーム21を制御して吸着パット23が接触領域に接触する位置に把持部22を移動させる。なお、カメラ24が接触領域を撮影可能な把持部22の位置と吸着パット23が吸着領域に接触する把持部22の位置とが一致する場合、プロセッサ31は、把持部22を移動させなくともよい。
Further, the processor 31 has a function of grasping the article 50 and loading it in the loading area.
The processor 31 controls the robot arm 21 to move the grip portion 22 to a position where the suction pad 23 comes into contact with the contact region. When the position of the grip portion 22 on which the camera 24 can photograph the contact region and the position of the grip portion 22 in which the suction pad 23 contacts the suction region coincide with each other, the processor 31 does not have to move the grip portion 22. ..

プロセッサ31は、把持部22を移動させると、吸着パット23を制御して物品50の接触領域に吸着させる。プロセッサ31は、吸着パット23を物品50に吸着させることで物品50を把持する。 When the grip portion 22 is moved, the processor 31 controls the suction pad 23 to suck the grip portion 22 into the contact region of the article 50. The processor 31 grips the article 50 by adsorbing the suction pad 23 to the article 50.

プロセッサ31は、物品50を把持すると、物品50を把持した状態でロボットアーム21を移動させて物品50を所定の積載領域まで移動させる。プロセッサ31は、物品50を所定の積載領域まで搬送すると、吸着パット23を制御して物品50を解放する。プロセッサ31は、所定の積載領域で物品50を解放することで、所定の積載領域に物品50を積載する。 When the processor 31 grips the article 50, the robot arm 21 moves the robot arm 21 while gripping the article 50 to move the article 50 to a predetermined loading area. When the article 50 is conveyed to the predetermined loading area, the processor 31 controls the suction pad 23 to release the article 50. The processor 31 loads the article 50 in the predetermined loading area by releasing the article 50 in the predetermined loading area.

また、プロセッサ31は、物品50を積載領域に積載した後にカメラ24を用いて接触領域を撮影する機能を有する。
プロセッサ31は、物品50を積載領域に積載すると、カメラ24を用いて画像(第2の画像)を撮影する。即ち、プロセッサ31は、カメラ24に画像を撮影させる制御信号を送信する。また、プロセッサ31は、カメラ24から撮影した画像(第2の画像)を取得する。
Further, the processor 31 has a function of photographing the contact area by using the camera 24 after loading the article 50 in the loading area.
When the article 50 is loaded in the loading area, the processor 31 captures an image (second image) using the camera 24. That is, the processor 31 transmits a control signal for causing the camera 24 to take an image. Further, the processor 31 acquires an image (second image) taken from the camera 24.

なお、プロセッサ31は、物品50を積載領域に積載した後に、ロボットアーム21を用いてカメラ24が接触領域を撮影可能な位置に把持部22を移動させてもよい。たとえば、プロセッサ31は、第1の画像を撮影する場合におけるカメラ24と物品50との位置関係と同様の位置関係となるように、把持部22を移動させる。プロセッサ31は、カメラ24を移動させた後に画像(第2の画像)を撮影する。 After the article 50 is loaded on the loading area, the processor 31 may use the robot arm 21 to move the grip portion 22 to a position where the camera 24 can photograph the contact area. For example, the processor 31 moves the grip portion 22 so as to have a positional relationship similar to the positional relationship between the camera 24 and the article 50 in the case of capturing the first image. The processor 31 takes an image (second image) after moving the camera 24.

また、プロセッサ31は、第1の画像及び第2の画像に基づいてラベル51が破損したか判定する機能を有する。
プロセッサ31は、第1の画像と第2の画像とがラベル51の破損を示すか判定する。たとえば、プロセッサ31は、第1の画像と第2の画像との差分に基づいてラベル51が破損したか判定する。たとえば、プロセッサ31は、第1の画像と第2の画像とが異なる領域の面積が所定の閾値よりも大きい場合に、ラベル51が破損したと判定する。
Further, the processor 31 has a function of determining whether the label 51 is damaged based on the first image and the second image.
The processor 31 determines whether the first image and the second image indicate damage to the label 51. For example, the processor 31 determines whether the label 51 is damaged based on the difference between the first image and the second image. For example, the processor 31 determines that the label 51 is damaged when the area of the region where the first image and the second image are different is larger than a predetermined threshold value.

また、プロセッサ31は、AI(Artificial Intelligence)などを用いた画像処理によってラベル51が破損したか判定してもよい。
プロセッサ31がラベル51の破損の有無を判定する方法は、特定の方法に限定されるものではない。
Further, the processor 31 may determine whether the label 51 is damaged by image processing using AI (Artificial Intelligence) or the like.
The method by which the processor 31 determines whether or not the label 51 is damaged is not limited to a specific method.

また、プロセッサ31は、ラベル51が破損したと判定すると、警告を出力する機能を有する。
たとえば、プロセッサ31は、ラベル51が破損したと判定すると、ラベル51が破損したことを示す警告を表示部37に表示する。
Further, the processor 31 has a function of outputting a warning when it is determined that the label 51 is damaged.
For example, when the processor 31 determines that the label 51 is damaged, the processor 31 displays a warning indicating that the label 51 is damaged on the display unit 37.

また、プロセッサ31は、スピーカなどを通じて警告音を出力してもよい。
プロセッサ31が警告を出力する方法は、特定の方法に限定されるものではない。
Further, the processor 31 may output a warning sound through a speaker or the like.
The method by which the processor 31 outputs a warning is not limited to a specific method.

次に、サーバ10が実現する機能について説明する。サーバ10が実現する機能は、プロセッサ11がROM12又はNVM14などに格納されるプログラムを実行することで実現される。 Next, the functions realized by the server 10 will be described. The function realized by the server 10 is realized by the processor 11 executing a program stored in the ROM 12 or the NVM 14.

まず、プロセッサ11は、第1の画像と識別情報とをロボットコントローラ30から受信する機能を有する。
プロセッサ11は、通信部15を通じて対応付けられた第1の画像と識別情報とをロボットコントローラ30から受信する。たとえば、プロセッサ11は、ロボットコントローラ30が所定のタイミングで送信する第1の画像と識別情報とを受信する。なお、プロセッサ11は、ロボットコントローラ30にリクエストを送信し、第1の画像と識別情報とを含むレスポンスを受信してもよい。
プロセッサ11は、受信した第1の画像と識別情報とを対応付けてNVM14に格納する。
First, the processor 11 has a function of receiving the first image and the identification information from the robot controller 30.
The processor 11 receives the first image associated with the communication unit 15 and the identification information from the robot controller 30. For example, the processor 11 receives the first image and the identification information transmitted by the robot controller 30 at a predetermined timing. The processor 11 may send a request to the robot controller 30 and receive a response including the first image and the identification information.
The processor 11 stores the received first image and the identification information in association with each other in the NVM 14.

また、プロセッサ11は、第1の画像からラベル51を読み取る機能を有する。
たとえば、プロセッサ11は、第1の画像に対してOCR(Optical Character Recognition)処理を行って、ラベル51に記載される文字列を読み取る。たとえば、ラベル51が宛先伝票である場合、プロセッサ11は、住所及び氏名などを読み取る。
Further, the processor 11 has a function of reading the label 51 from the first image.
For example, the processor 11 performs OCR (Optical Character Recognition) processing on the first image and reads the character string described on the label 51. For example, when the label 51 is a destination slip, the processor 11 reads an address, a name, and the like.

プロセッサ11は、ラベル51から読み取った読取結果を第1の画像と対応付けてNVM14に格納する。
なお、プロセッサ11は、ラベル51の読み取りに失敗した場合、読取結果をNVM14に格納しなくともよい。
The processor 11 stores the reading result read from the label 51 in the NVM 14 in association with the first image.
If the processor 11 fails to read the label 51, the processor 11 does not have to store the reading result in the NVM 14.

また、プロセッサ11は、第1の画像を表示装置40に送信する機能を有する。
たとえば、プロセッサ11は、通信部15を通じて、第1の画像のリクエストを表示装置40から受信する。たとえば、リクエストは、識別情報を含む。プロセッサ11は、リクエストが含む識別情報に対応する第1の画像をNVM14から取得する。プロセッサ11は、通信部15を通じて、第1の画像を含むレスポンスを表示装置40に送信する。
Further, the processor 11 has a function of transmitting the first image to the display device 40.
For example, the processor 11 receives the request for the first image from the display device 40 through the communication unit 15. For example, the request contains identification information. The processor 11 acquires a first image corresponding to the identification information included in the request from the NVM 14. The processor 11 transmits a response including the first image to the display device 40 through the communication unit 15.

また、プロセッサ11は、第1の画像に対応する読取結果がある場合、第1の画像と読取結果とを含むレスポンスを表示装置40に送信する。
なお、プロセッサ11は、所定のタイミングで第1の画像を表示装置40に送信してもよい。たとえば、プロセッサ11は、通信部15を通じて、NVM14が格納する第1の画像、識別情報及び読取結果を表示装置40に送信する。
Further, when there is a reading result corresponding to the first image, the processor 11 transmits a response including the first image and the reading result to the display device 40.
The processor 11 may transmit the first image to the display device 40 at a predetermined timing. For example, the processor 11 transmits the first image, the identification information, and the reading result stored in the NVM 14 to the display device 40 through the communication unit 15.

次に、表示装置40が実現する機能について説明する。表示装置40が実現する機能は、プロセッサ41がROM42又はNVM44などに格納されるプログラムを実行することで実現される。 Next, the functions realized by the display device 40 will be described. The function realized by the display device 40 is realized by the processor 41 executing a program stored in the ROM 42, the NVM 44, or the like.

まず、プロセッサ41は、サーバ10から第1の画像を取得する機能を有する。
プロセッサ41は、操作部46を通じて、オペレータから第1の画像を表示する操作の入力を受け付ける。たとえば、オペレータは、物品50のラベル51の情報が必要であるがラベル51が破損している場合に、物品50に対応する第1の画像を表示する操作の入力を受け付ける。
First, the processor 41 has a function of acquiring a first image from the server 10.
The processor 41 receives an input of an operation for displaying the first image from the operator through the operation unit 46. For example, the operator accepts input for an operation to display a first image corresponding to the article 50 when the information on the label 51 of the article 50 is required but the label 51 is damaged.

プロセッサ41は、オペレータから第1の画像に対応する物品50を特定する情報の入力を受け付ける。プロセッサ41は、入力された情報に基づいて識別情報を取得する。 The processor 41 accepts input from the operator of information identifying the article 50 corresponding to the first image. The processor 41 acquires the identification information based on the input information.

プロセッサ41は、識別情報を取得すると、通信部45を通じて、当該識別情報に対応する第1の画像のリクエストをサーバ10に送信する。プロセッサ41は、通信部45を通じて、第1の画像を含むレスポンスをサーバ10から受信する。また、プロセッサ41は、第1の画像と読取結果とを含むレスポンスを受信してもよい。 When the processor 41 acquires the identification information, the processor 41 transmits a request for the first image corresponding to the identification information to the server 10 through the communication unit 45. The processor 41 receives a response including the first image from the server 10 through the communication unit 45. Further, the processor 41 may receive a response including the first image and the reading result.

なお、プロセッサ41は、サーバ10が所定のタイミングで送信する第1の画像と識別情報と読取結果とを受信してもよい。この場合、プロセッサ41は、第1の画像と識別情報と読取結果とを対応付けてNVM44に格納する。 The processor 41 may receive the first image, the identification information, and the reading result transmitted by the server 10 at a predetermined timing. In this case, the processor 41 stores the first image, the identification information, and the reading result in the NVM 44 in association with each other.

また、プロセッサ41は、第1の画像を表示部47に表示する機能を有する。
プロセッサ41は、第1の画像を含むレスポンスを受信すると、第1の画像を表示部47に表示する。また、レスポンスが読取結果を含む場合、プロセッサ41は、第1の画像と読取結果とを表示する。
Further, the processor 41 has a function of displaying the first image on the display unit 47.
When the processor 41 receives the response including the first image, the processor 41 displays the first image on the display unit 47. Further, when the response includes the reading result, the processor 41 displays the first image and the reading result.

なお、NVM44が第1の画像と識別情報と読取結果とを対応付けて格納する場合、プロセッサ41は、入力された情報に基づく識別情報に対応する第1の画像と読取結果とをNVM44から取得してもよい。プロセッサ41は、NVM44から取得した第1の画像と読取結果とを表示部47に表示する。 When the NVM 44 stores the first image, the identification information, and the reading result in association with each other, the processor 41 acquires the first image and the reading result corresponding to the identification information based on the input information from the NVM 44. You may. The processor 41 displays the first image acquired from the NVM 44 and the reading result on the display unit 47.

次に、ロボットコントローラ30の動作例について説明する。
図5は、ロボットコントローラ30の動作例について説明するためのフローチャートである。
ここでは、ロボット20が把持する物品50が供給されているものとする。
Next, an operation example of the robot controller 30 will be described.
FIG. 5 is a flowchart for explaining an operation example of the robot controller 30.
Here, it is assumed that the article 50 held by the robot 20 is supplied.

まず、ロボットコントローラ30のプロセッサ31は、物品50の識別情報を取得する(S11)。識別情報を取得すると、プロセッサ31は、物品50上において接触領域を設定する(S12)。 First, the processor 31 of the robot controller 30 acquires the identification information of the article 50 (S11). Upon acquiring the identification information, the processor 31 sets the contact area on the article 50 (S12).

接触領域を設定すると、プロセッサ31は、カメラ24が接触領域を撮影可能な位置に把持部22を移動させる(S13)。把持部22を移動させると、プロセッサ31は、カメラ24を用いて第1の画像を撮影する(S14)。 When the contact area is set, the processor 31 moves the grip portion 22 to a position where the camera 24 can photograph the contact area (S13). When the grip portion 22 is moved, the processor 31 takes a first image using the camera 24 (S14).

第1の画像を撮影すると、プロセッサ31は、通信部35を通じて第1の画像と識別情報とを対応付けてサーバ10に送信する(S15)。第1の画像と識別情報とを対応付けてサーバ10に送信すると、プロセッサ31は、吸着パット23を用いて物品50を把持する(S16)。 When the first image is taken, the processor 31 associates the first image with the identification information and transmits the identification information to the server 10 through the communication unit 35 (S15). When the first image and the identification information are associated with each other and transmitted to the server 10, the processor 31 grips the article 50 by using the suction pad 23 (S16).

物品50を把持すると、プロセッサ31は、物品50を積載領域まで移動させる(S17)。物品50を積載領域まで移動させると、プロセッサ31は、物品50を解放する(S18)。 When the article 50 is gripped, the processor 31 moves the article 50 to the loading area (S17). When the article 50 is moved to the loading area, the processor 31 releases the article 50 (S18).

物品50を解放すると、プロセッサ31は、カメラ24を用いて第2の画像を撮影する(S19)。第2の画像を撮影すると、プロセッサ31は、ラベル51が破損したか判定する(S20)。 When the article 50 is released, the processor 31 takes a second image using the camera 24 (S19). When the second image is taken, the processor 31 determines whether the label 51 is damaged (S20).

ラベル51が破損したと判定すると(S20、YES)、プロセッサ31は、警告を出力する(S21)。
ラベル51が破損していないと判定した場合(S20、NO)、又は、警告を出力した場合(S21)、プロセッサ31は、動作を終了する。
If it is determined that the label 51 is damaged (S20, YES), the processor 31 outputs a warning (S21).
When it is determined that the label 51 is not damaged (S20, NO) or when a warning is output (S21), the processor 31 ends the operation.

なお、プロセッサ31は、S15をS14以降の任意のタイミングで行ってもよい。たとえば、プロセッサ31は、複数の物品50を積載領域に積載した後に、複数の物品50についてS15を実行してもよい。また、プロセッサ31は、所定の間隔でS15を実行してもよい。 The processor 31 may perform S15 at any timing after S14. For example, the processor 31 may execute S15 on the plurality of articles 50 after loading the plurality of articles 50 in the loading area. Further, the processor 31 may execute S15 at predetermined intervals.

また、プロセッサ31は、第1の画像を撮影した時刻を取得してもよい。プロセッサ31は、第1の画像と識別情報と時刻とを対応付けてサーバ10に送信してもよい。また、識別情報は、第1の画像を撮影した時刻であってもよい。 Further, the processor 31 may acquire the time when the first image is taken. The processor 31 may transmit the first image, the identification information, and the time in association with each other to the server 10. Further, the identification information may be the time when the first image was taken.

また、カメラ24は、把持部22に設置されなくともよい。カメラ24は、把持前及び解放後において物品50の接触領域を撮影可能な位置に設置されればよい。また、カメラ24は、複数のカメラから構成されてもよい。たとえば、カメラ24は、把持前において物品50の接触領域を撮影可能な位置に設置されるカメラと、解放後において物品50の接触領域を撮影可能な位置に設置されるカメラとから構成されてもよい。 Further, the camera 24 does not have to be installed on the grip portion 22. The camera 24 may be installed at a position where the contact area of the article 50 can be photographed before and after the gripping. Further, the camera 24 may be composed of a plurality of cameras. For example, the camera 24 may be composed of a camera installed at a position where the contact area of the article 50 can be photographed before grasping and a camera installed at a position where the contact area of the article 50 can be photographed after the release. Good.

また、ロボットコントローラ30は、サーバ10の機能(又は、一部の機能)を実現するものであってもよい。
また、ロボットコントローラ30は、表示装置40の機能(又は、一部の機能)を実現するものであってもよい。
また、表示装置40は、サーバ10の機能(又は、一部の機能)を実現するものであってもよい。
Further, the robot controller 30 may realize the function (or a part of the functions) of the server 10.
Further, the robot controller 30 may realize the function (or a part of the functions) of the display device 40.
Further, the display device 40 may realize the function (or a part of the functions) of the server 10.

以上のように構成された荷役システムは、吸着パットで物品を吸着する前に、吸着パットが接触する接触領域をカメラで撮影し格納する。また、荷役システムは、格納した撮影画像をオペレータに提示する。そのため、荷役システムは、吸着パットの吸着によって物品に貼付されたラベルが破損した場合であっても、ラベルの画像をオペレータに提示することができる。 The cargo handling system configured as described above captures and stores the contact area in contact with the suction pad with a camera before sucking the article with the suction pad. In addition, the cargo handling system presents the stored captured image to the operator. Therefore, the cargo handling system can present the image of the label to the operator even when the label attached to the article is damaged by the suction of the suction pad.

また、荷役システムは、物品を解放した後に、接触領域を撮影する。荷役システムは、吸着前の撮影画像と解放後の撮影画像とを比較してラベルが破損したか判定する。荷役システムは、ラベルが破損したと判定した場合、警告を出力する。そのため、荷役システムは、ラベルの破損又は紛失などをオペレータに警告することができる。 The cargo handling system also photographs the contact area after releasing the article. The cargo handling system compares the captured image before suction with the captured image after release to determine whether the label is damaged. The cargo handling system outputs a warning if it determines that the label has been damaged. Therefore, the cargo handling system can warn the operator of damage or loss of the label.

本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 Although some embodiments of the present invention have been described, these embodiments are presented as examples and are not intended to limit the scope of the invention. These novel embodiments can be implemented in various other embodiments, and various omissions, replacements, and changes can be made without departing from the gist of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are also included in the scope of the invention described in the claims and the equivalent scope thereof.

1…荷役システム、10…サーバ、11…プロセッサ、12…ROM、13…RAM、14…NVM、15…通信部、16…操作部、17…表示部、20…ロボット、21…ロボットアーム、22…把持部、23…吸着パット、24…カメラ、30…ロボットコントローラ、31…プロセッサ、32…ROM、33…RAM、34…NVM、35…通信部、36…操作部、37…表示部、38…ロボットインターフェース、40…表示装置、41…プロセッサ、42…ROM、43…RAM、44…NVM、45…通信部、46…操作部、47…表示部、50…物品、51…ラベル。 1 ... Cargo handling system, 10 ... Server, 11 ... Processor, 12 ... ROM, 13 ... RAM, 14 ... NVM, 15 ... Communication unit, 16 ... Operation unit, 17 ... Display unit, 20 ... Robot, 21 ... Robot arm, 22 ... Grip, 23 ... Adsorption pad, 24 ... Camera, 30 ... Robot controller, 31 ... Processor, 32 ... ROM, 33 ... RAM, 34 ... NVM, 35 ... Communication unit, 36 ... Operation unit, 37 ... Display unit, 38 ... Robot interface, 40 ... Display device, 41 ... Processor, 42 ... ROM, 43 ... RAM, 44 ... NVM, 45 ... Communication unit, 46 ... Operation unit, 47 ... Display unit, 50 ... Article, 51 ... Label.

Claims (9)

ラベルを貼付された物品を把持する把持機構と、
前記把持機構が前記物品に接触する接触領域を撮影するカメラと、
前記カメラを用いて、第1の画像を撮影し、
前記第1の画像を撮影した後に、前記把持機構に前記物品を把持させる、
第1のプロセッサと、
前記第1の画像を格納する記憶部と、
を備える荷役装置。
A gripping mechanism that grips the labeled article,
A camera that captures a contact area where the gripping mechanism contacts the article,
The first image was taken using the camera and
After taking the first image, the gripping mechanism is made to grip the article.
With the first processor
A storage unit that stores the first image and
Cargo handling device equipped with.
前記第1のプロセッサは、
前記把持機構が前記物品を解放した後に、前記カメラを用いて第2の画像を撮影する、
請求項1に記載の荷役装置。
The first processor is
After the gripping mechanism releases the article, the camera is used to capture a second image.
The cargo handling device according to claim 1.
前記第1の画像を表示する表示部を備え、
前記第1のプロセッサは、
前記第1の画像と前記第2の画像とが前記ラベルの破損を示す場合、警告を前記表示部に出力する、
請求項2に記載の荷役装置。
A display unit for displaying the first image is provided.
The first processor is
When the first image and the second image indicate damage to the label, a warning is output to the display unit.
The cargo handling device according to claim 2.
前記第1のプロセッサは、前記物品を特定する識別情報を取得し、
前記記憶部は、前記第1の画像と前記識別情報とを対応付けて格納する、
請求項1乃至3の何れか1項に記載の荷役装置。
The first processor acquires identification information that identifies the article and
The storage unit stores the first image and the identification information in association with each other.
The cargo handling device according to any one of claims 1 to 3.
前記把持機構と前記カメラとを移動させるロボットアームを備える、
請求項1乃至4の何れか1項に記載の荷役装置。
A robot arm for moving the gripping mechanism and the camera is provided.
The cargo handling device according to any one of claims 1 to 4.
前記把持機構は、吸着パットである、
請求項1乃至5の何れか1項に記載の荷役装置。
The gripping mechanism is a suction pad.
The cargo handling device according to any one of claims 1 to 5.
前記第1の画像から前記ラベルを読み取る第2のプロセッサを備え、
前記記憶部は、前記第1の画像と前記ラベルの読取結果とを対応付けて格納し、
前記表示部は、前記読取結果を表示する、
請求項3に記載の荷役装置。
A second processor that reads the label from the first image is provided.
The storage unit stores the first image and the reading result of the label in association with each other.
The display unit displays the reading result.
The cargo handling device according to claim 3.
物品を特定するための情報の入力を受け付ける操作部を備え、
前記表示部は、前記情報に基づく識別情報に対応する前記第1の画像を表示する、
請求項3に記載の荷役装置。
Equipped with an operation unit that accepts input of information for identifying an article
The display unit displays the first image corresponding to the identification information based on the information.
The cargo handling device according to claim 3.
ラベルを貼付された物品を把持する把持機構と、前記把持機構が前記物品に接触する接触領域を撮影するカメラと、通信するインターフェースと、
前記カメラを用いて、第1の画像を撮影し、
前記第1の画像を撮影した後に、前記把持機構に前記物品を把持させる、
プロセッサと、
前記第1の画像を出力する通信部と
を備えるコントローラ。
An interface that communicates with a gripping mechanism that grips the labeled article, a camera that captures the contact area where the gripping mechanism contacts the article, and
The first image was taken using the camera and
After taking the first image, the gripping mechanism is made to grip the article.
With the processor
A controller including a communication unit that outputs the first image.
JP2019049721A 2019-03-18 2019-03-18 Cargo handling device and controller Pending JP2020151773A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019049721A JP2020151773A (en) 2019-03-18 2019-03-18 Cargo handling device and controller

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019049721A JP2020151773A (en) 2019-03-18 2019-03-18 Cargo handling device and controller

Publications (1)

Publication Number Publication Date
JP2020151773A true JP2020151773A (en) 2020-09-24

Family

ID=72557114

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019049721A Pending JP2020151773A (en) 2019-03-18 2019-03-18 Cargo handling device and controller

Country Status (1)

Country Link
JP (1) JP2020151773A (en)

Similar Documents

Publication Publication Date Title
EP3434380A2 (en) Sorting apparatus and sorting system
CN109076134B (en) Systems and methods relating to document and fastener identification
CN112585072A (en) Robot and robot system provided with same
EP1818284A1 (en) Automatic warehouse
CN109513630B (en) Package sorting system, control method thereof and storage medium
US10682841B2 (en) Optical bonding machine having cure in place and visual feedback
JP6741329B1 (en) System to change the tool of gripper device
JPH09239682A (en) Work feeding method and device
JP2022531575A (en) Logistic device
JP2020151773A (en) Cargo handling device and controller
US11141866B2 (en) Grasping apparatus, grasping determination method and grasping determination program
JP2020040798A (en) Conveying system
US10970544B2 (en) Automated warehouse
TWI765247B (en) Robotic hands, robots and robotic systems
NL2017126B1 (en) Labelling device and system comprising such device
CN113351495B (en) System, method and apparatus for processing orders
WO2021056206A1 (en) Scheduling system and method, scheduling control system, biochemical analysis system and device, and storage medium
JP2001072247A (en) Conveying system
JP6744155B2 (en) Transport system
JP4470662B2 (en) How to handle goods
EP4292956A1 (en) Information processing device, information processing method, program, and system
CN220346578U (en) Vehicle-mounted backlight AOI (automatic optical inspection) machine
JP7060897B1 (en) Transport mechanism and pouch transfer device
JP2021144568A (en) Article handling management apparatus, article handling control system, and program
US20220386844A1 (en) Dishwashing system, control device and process for controlling operation of a work device