JP2019114057A - Control device, robot and robot system - Google Patents

Control device, robot and robot system Download PDF

Info

Publication number
JP2019114057A
JP2019114057A JP2017247044A JP2017247044A JP2019114057A JP 2019114057 A JP2019114057 A JP 2019114057A JP 2017247044 A JP2017247044 A JP 2017247044A JP 2017247044 A JP2017247044 A JP 2017247044A JP 2019114057 A JP2019114057 A JP 2019114057A
Authority
JP
Japan
Prior art keywords
robot
image
control device
image processing
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017247044A
Other languages
Japanese (ja)
Inventor
丸山 健一
Kenichi Maruyama
健一 丸山
紋宏 中島
Ayahiro Nakajima
紋宏 中島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2017247044A priority Critical patent/JP2019114057A/en
Publication of JP2019114057A publication Critical patent/JP2019114057A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

To provide a control device, a robot and a robot system capable of appropriately controlling a robot.SOLUTION: A control device controls, on the basis of a picked-up image obtained by an imaging unit that picks up an image of an object, a robot that processes the object. This control device includes: a region setting unit that sets a search region where the object is searched in the picked-up image; and an image processing unit that blurs the picked-up image along the contour of the search region. Moreover, the image processing unit cuts out a part of the picked-up image in such a way that the search region is involved prior to blurring on the picked-up image along the contour of the search region.SELECTED DRAWING: Figure 2

Description

本発明は、制御装置、ロボットおよびロボットシステムに関するものである。   The present invention relates to a control device, a robot and a robot system.

例えば、カメラによって撮像した画像によって対象物を認識して作業を行うロボットにおいて、対象物の特徴点(エッジ)を抽出するために、マスク画像を撮像画像に合成することにより、対象物が含まれていない領域を排除し、対象物の特徴点のみを抽出させることにより認識精度を向上させる技術が知られている(例えば、特許文献1)。   For example, in a robot that recognizes an object by an image captured by a camera and performs work, the object is included by combining a mask image with the captured image in order to extract feature points (edges) of the object. There is known a technique for improving recognition accuracy by excluding an area not extracted and extracting only feature points of an object (for example, Patent Document 1).

特開平9−138854号公報JP-A-9-138854

しかしながら、特許文献1に記載れているような方法では、マスク画像を形成するために容量の大きいメモリー(例えば、特許文献1の判定済画素記憶バッファ、マスク画像メモリー等)が必要となる。   However, in the method described in Patent Document 1, a memory with a large capacity (for example, a determined pixel storage buffer of Patent Document 1, a mask image memory, etc.) is required to form a mask image.

本発明は、上述の課題の少なくとも一部を解決するためになされたものであり、以下の形態または適用例として実現することが可能である。   The present invention has been made to solve at least a part of the above-described problems, and can be realized as the following modes or application examples.

本発明の制御装置は、撮像部が対象物を撮像した撮像画像に基づいて前記対象物を処理するロボットを制御する制御装置であって、
前記撮像画像において前記対象物を探索する探索領域を設定する領域設定部と、
前記探索領域の輪郭に沿って前記撮像画像をぼかす画像処理部と、を備えることを特徴とする。
The control device according to the present invention is a control device that controls a robot that processes the object based on a captured image obtained by capturing an object by an imaging unit.
An area setting unit configured to set a search area for searching for the object in the captured image;
And an image processing unit that blurs the captured image along an outline of the search area.

このような制御装置によれば、対象物のエッジ(輪郭)以外のエッジが対象物のエッジとして検出されてしまうことを抑制でき、撮像画像のみから、すなわち、撮像画像の他に従来のようなマスク画像を用いなくても、精度よく、対象物を検出することができる。そのため、従来のようなマスク画像を形成するためメモリーが不要となり、前述した従来構成と比較してメモリーの容量を小さく抑えることができる。そのため、的確に、ロボットを制御することができる。   According to such a control device, it is possible to suppress that an edge other than the edge (contour) of the object is detected as an edge of the object, and it is possible from the captured image only, that is, the conventional image Even without using a mask image, an object can be detected with high accuracy. Therefore, since a conventional mask image is formed, a memory is not required, and the memory capacity can be reduced as compared with the above-described conventional configuration. Therefore, it is possible to control the robot accurately.

本発明の制御装置では、前記画像処理部は、前記探索領域の輪郭に沿って前記撮像画像をぼかす前に、前記探索領域を含むように前記撮像画像の一部を切り出すことが好ましい。
これにより、撮像画面に含まれる画素数が減り、処理の負担を低減することができる。
In the control device of the present invention, it is preferable that the image processing unit cuts out a part of the captured image so as to include the search region before blurring the captured image along the contour of the search region.
As a result, the number of pixels included in the imaging screen can be reduced, and the processing load can be reduced.

本発明の制御装置では、前記画像処理部は、輝度値を前記輪郭から離間する方向に徐々に変化させることにより前記撮像画像をぼかすことが好ましい。   In the control device according to the present invention, it is preferable that the image processing unit blurs the captured image by gradually changing a luminance value in a direction away from the contour.

これにより、比較的簡単な処理で、撮像画像をぼかすことができる。このような処理は、特に、撮像画像が白黒画像の場合に有効である。   This makes it possible to blur the captured image with relatively simple processing. Such processing is particularly effective when the captured image is a black and white image.

本発明の制御装置では、前記画像処理部は、前記輪郭から離間するほど前記輝度値を小さくすることが好ましい。
これにより、比較的簡単に探索領域の輪郭に沿って撮像画像をぼかすことができる。
In the control device according to the aspect of the invention, it is preferable that the image processing unit decreases the luminance value as it is separated from the contour.
This makes it possible to blur the captured image along the contour of the search area relatively easily.

本発明の制御装置では、前記画像処理部は、前記輪郭に沿って輝度値を平滑化フィルターを用いて平滑化することにより、前記撮像画像をぼかすことが好ましい。
これにより、比較的簡単に撮像画像をぼかすことができる。
In the control device of the present invention, it is preferable that the image processing unit blurs the captured image by smoothing a luminance value using a smoothing filter along the contour.
This makes it possible to blur the captured image relatively easily.

本発明の制御装置では、前記画像処理部は、彩度、色相、明度の少なくとも1つを前記輪郭から離間する方向に徐々に変化させることにより前記撮像画像をぼかすことが好ましい。   In the control device according to the aspect of the invention, it is preferable that the image processing unit blurs the captured image by gradually changing at least one of saturation, hue, and lightness in a direction away from the contour.

これにより、比較的簡単に撮像画像をぼかすことができる。このような処理は、特に、撮像画像がカラー画像の場合に有効である。   This makes it possible to blur the captured image relatively easily. Such processing is particularly effective when the captured image is a color image.

本発明の制御装置では、前記画像処理部は、前記輪郭の外側をぼかすことが好ましい。
これにより、探索領域内に位置する対象物のエッジが不本意にぼけてしまうことを確実に防止することができる。したがって、より精度よく対象物を検出することができる。
In the control device of the present invention, it is preferable that the image processing unit blurs the outside of the contour.
Thereby, it is possible to reliably prevent the edge of the object located in the search area from being unintentionally blurred. Therefore, the object can be detected more accurately.

本発明のロボットは、ロボットアームを有し、
請求項1ないし7のいずれか1項に記載の制御装置の処理結果に基づいて制御されることを特徴とする。
The robot of the present invention has a robot arm,
It is characterized by being controlled based on the processing result of the control device according to any one of claims 1 to 7.

このようなロボットによれば、ロボット制御装置の制御により、適切な動作を行うことができる。   According to such a robot, an appropriate operation can be performed by control of the robot control device.

本発明のロボットシステムは、ロボットアームを有するロボットと、
対象物を撮像する撮像部と、
請求項1ないし7のいずれか1項に記載の制御装置と、
前記制御装置の処理結果に基づいて、前記ロボットを制御するロボット制御装置と、を備えることを特徴とする。
このようなロボットシステムによれば、適確にロボットを制御することができる。
A robot system according to the present invention is a robot having a robot arm,
An imaging unit for imaging an object;
The control device according to any one of claims 1 to 7.
And a robot control device for controlling the robot based on the processing result of the control device.
According to such a robot system, it is possible to control the robot appropriately.

本発明のロボットシステムの実施形態を示す図である。1 shows an embodiment of a robot system of the present invention. 図1に示すロボットシステムのブロック図である。It is a block diagram of a robot system shown in FIG. 図1に示すロボットシステムの作業を説明するための平面図である。It is a top view for demonstrating the operation | work of the robot system shown in FIG. 画像処理装置が行う処理の一例を示す図である。It is a figure which shows an example of the process which an image processing apparatus performs. 画像処理装置が行う処理の一例を示す図である。It is a figure which shows an example of the process which an image processing apparatus performs. 画像処理装置が行う処理の一例を示す図である。It is a figure which shows an example of the process which an image processing apparatus performs. 画像処理装置が行う処理の一例を示す図である。It is a figure which shows an example of the process which an image processing apparatus performs. 画像処理装置が行う処理の一例を示す図である。It is a figure which shows an example of the process which an image processing apparatus performs. 画像処理装置が行う処理の一例を示す図である。It is a figure which shows an example of the process which an image processing apparatus performs. 画像処理装置が行う処理の一例を示す図である。It is a figure which shows an example of the process which an image processing apparatus performs. 画像処理装置が行う処理の一例を示す図である。It is a figure which shows an example of the process which an image processing apparatus performs. 実施形態についてハードウェア(プロセッサー)を中心として説明するためのブロック図である。It is a block diagram for describing an embodiment centering on hardware (processor). 本発明のロボットシステムの他の例1(変形例1)を示すブロック図である。It is a block diagram showing other example 1 (modification 1) of the robot system of the present invention. 本発明のロボットシステムの他の例2(変形例2)を示すブロック図である。It is a block diagram showing other example 2 (modification 2) of a robot system of the present invention.

以下、本発明の制御装置、ロボットおよびロボットシステムを添付図面に示す実施形態に基づいて詳細に説明する。   Hereinafter, a control device, a robot and a robot system of the present invention will be described in detail based on embodiments shown in the attached drawings.

<実施形態>
≪ロボットシステム≫
図1は、本発明のロボットシステムの実施形態を示す図である。図2は、図1に示すロボットシステムのブロック図である。図3は、図1に示すロボットシステムの作業を説明するための平面図である。図4ないし図11は、それぞれ、画像処理装置が行う処理の一例を示す図である。図12は、実施形態についてハードウェア(プロセッサー)を中心として説明するためのブロック図である。図13は、本発明のロボットシステムの他の例1(変形例1)を示すブロック図である。図14は、本発明のロボットシステムの他の例2(変形例2)を示すブロック図である。
Embodiment
«Robot system»
FIG. 1 is a view showing an embodiment of a robot system of the present invention. FIG. 2 is a block diagram of the robot system shown in FIG. FIG. 3 is a plan view for explaining the operation of the robot system shown in FIG. 4 to 11 are diagrams showing an example of processing performed by the image processing apparatus. FIG. 12 is a block diagram for describing the embodiment centering on hardware (processor). FIG. 13 is a block diagram showing another example 1 (modified example 1) of the robot system of the present invention. FIG. 14 is a block diagram showing another example 2 (modified example 2) of the robot system of the present invention.

また、図1には、互いに直交する3つの軸としてxr軸、yr軸およびzr軸が図示されており、各軸を示す矢印の先端側を「+(正)」、基端側を「−(負)」とする。また、図1中のzr軸方向を「鉛直方向」とし、xr−yr平面に沿った方向を「水平方向」とする。また、+zr軸側を「上方」とし、−zr軸側を「下方」とする。また、xr軸の方向を「xr方向」、yr軸の方向を「yr方向」、zr軸の方向を「zr方向」と言う。また、以下では、説明の都合上、図1中の基台側を「基端」または「上流」、その反対側を「先端」または「下流」と言う。   Further, in FIG. 1, xr axis, yr axis and zr axis are illustrated as three axes orthogonal to each other, and “+ (positive)” of the tip end of the arrow indicating each axis is “− (Negative) Further, the zr axis direction in FIG. 1 is referred to as “vertical direction”, and the direction along the xr-yr plane is referred to as “horizontal direction”. Also, the + zr axis side is referred to as “upper”, and the −zr axis side is referred to as “lower”. Also, the direction of the xr axis is referred to as "xr direction", the direction of the yr axis as "yr direction", and the direction of the zr axis as "zr direction". Also, in the following, for convenience of description, the base side in FIG. 1 is referred to as “proximal” or “upstream”, and the opposite side is referred to as “distal” or “downstream”.

また、本明細書において、「水平」とは、完全に水平な場合のみならず、水平に対して±5°以内で傾斜している場合も含む。同様に、本明細書において、「鉛直」とは、完全に鉛直な場合のみならず、鉛直に対して±5°以内で傾斜している場合も含む。また、本明細書において、「平行」とは、2つの線(軸を含む)または面が、互いに完全な平行である場合のみならず、±5°以内で傾斜している場合も含む。また、本明細書において、「直交」とは、2つの線(軸を含む)または面が、互いに完全な直交である場合のみならず、±5°以内で傾斜している場合も含む。   In addition, in the present specification, “horizontal” includes not only the case of being completely horizontal but also the case of being inclined within ± 5 ° with respect to the horizontal. Similarly, in the present specification, “vertical” includes not only the case of being completely vertical but also the case of being inclined within ± 5 ° with respect to the vertical. Also, as used herein, "parallel" includes not only two lines (including an axis) or planes that are perfectly parallel to one another, but also inclined within ± 5 °. Also, as used herein, "orthogonal" includes not only when two lines (including axes) or planes are perfectly orthogonal to one another, but also when they are tilted within ± 5 °.

図1に示すロボットシステム100は、ロボット1と、エンドエフェクター19と、撮像部41と、画像処理装置42(制御装置)と、ロボット1等の動作(駆動)を制御するロボット制御装置2と、ロボット制御装置2および画像処理装置42と通信可能なコンピューター5と、を有する。以下、これら各部について順次説明する。   A robot system 100 shown in FIG. 1 includes a robot 1, an end effector 19, an imaging unit 41, an image processing device 42 (control device), and a robot control device 2 for controlling the operation (drive) of the robot 1 or the like. And a computer 5 capable of communicating with the robot control device 2 and the image processing device. Each of these units will be sequentially described below.

〈ロボット〉
ロボット1は、いわゆる6軸の垂直多関節ロボットであり、例えば、精密機器等を製造する製造工程等で用いられ、精密機器や部品等の対象物(図示せず)の保持や搬送等の種々の作業を行う。ロボット1は、基台110と、基台110に接続されたロボットアーム10(可動部)とを有する。なお、対象物としては、ロボット1が行う作業で用いられるものであればよく、特に限定されない。
<robot>
The robot 1 is a so-called six-axis vertical articulated robot, and is used, for example, in a manufacturing process for manufacturing a precision device etc., and various methods such as holding or transporting an object (not shown) such as a precision device or part Do the work of The robot 1 has a base 110 and a robot arm 10 (movable part) connected to the base 110. The object is not particularly limited as long as it is used in the work performed by the robot 1.

基台110は、ロボット1を例えば床等の任意の設置箇所70に取り付ける部分である。ロボットアーム10は、アーム11(第1アーム)、アーム12(第2アーム)、アーム13(第3アーム)、アーム14(第4アーム)、アーム15(第5アーム)およびアーム16(第6アーム)を有する。また、アーム15およびアーム16によりリストが構成されている。また、アーム16は、円盤状をなしており、そのアーム16には、エンドエフェクター19(ツール)を着脱可能に設ける(取り付ける)ことが可能になっている。これらアーム11〜16は、基台110側からエンドエフェクター19側に向かってこの順に連結されている。また、各アーム11〜16は、隣り合うアームまたは基台110に対して図示しない所定の回動軸(第1回動軸〜第6回動軸)周りに回動可能になっている。すなわち、基台110とアーム11とは、関節171(ジョイント)を介して連結されている。また、アーム11とアーム12とは、関節172(ジョイント)を介して連結されている。また、アーム12とアーム13とは、関節173(ジョイント)を介して連結されている。また、アーム13とアーム14とは、関節174(ジョイント)を介して連結されている。また、アーム14とアーム15とは、関節175(ジョイント)を介して連結されている。また、アーム15とアーム16とは、関節176(ジョイント)を介して連結されている。   The base 110 is a portion for attaching the robot 1 to an arbitrary installation point 70 such as a floor. The robot arm 10 includes an arm 11 (first arm), an arm 12 (second arm), an arm 13 (third arm), an arm 14 (fourth arm), an arm 15 (fifth arm), and an arm 16 (sixth) Arm). Further, the arm 15 and the arm 16 constitute a wrist. Further, the arm 16 has a disk shape, and the arm 16 can be provided (attached) with the end effector 19 (tool) in a removable manner. The arms 11 to 16 are connected in this order from the base 110 side to the end effector 19 side. Further, the arms 11 to 16 are rotatable around predetermined pivots (first to sixth pivots) (not shown) with respect to the adjacent arms or bases 110. That is, the base 110 and the arm 11 are connected via the joint 171 (joint). The arm 11 and the arm 12 are connected via a joint 172 (joint). The arm 12 and the arm 13 are connected via a joint 173 (joint). The arm 13 and the arm 14 are connected via a joint 174 (joint). The arm 14 and the arm 15 are connected via a joint 175 (joint). The arm 15 and the arm 16 are connected via a joint 176 (joint).

エンドエフェクター19としては、特に限定されないが、本実施形態では、対象物を把持(保持)、解放することが可能なロボットハンドが用いられている。また、エンドエフェクター19の他の構成例としては、例えば、対象物を把持(保持)、解放することが可能な吸着ヘッド等が挙げられる。なお、対象物を保持するとは、対象物を移動または対象物の姿勢を変更させることが可能なように、対象物を持つことであり、例えば、把持(掴む)、吸着、載置等が含まれる。また、エンドエフェクター19、ロボット1の構成要素ではないものとして捉えてもよく、また、ロボット1の構成要素として捉えてもよい。   The end effector 19 is not particularly limited, but in the present embodiment, a robot hand capable of gripping (holding) and releasing an object is used. Further, as another configuration example of the end effector 19, for example, an adsorption head capable of gripping (holding) and releasing an object can be mentioned. Note that holding an object means holding the object so that the object can be moved or the attitude of the object can be changed, and includes, for example, gripping (gripping), adsorption, placement, etc. Be Also, the end effector 19 may not be a component of the robot 1, or may be a component of the robot 1.

また、図2に示すように、ロボット1は、一方のアームを他方のアーム(または基台110)に対して回動させるモーターおよび減速機等を備える駆動部130を有する。モーターとしては、例えば、ACサーボモーター、DCサーボモーター等のサーボモーターを用いることができる。減速機としては、例えば、遊星ギア型の減速機、波動歯車装置等を用いることができる。なお、減速機は省略されていてもよい。また、ロボット1は、モーターまたは減速機の回転軸の回転角度を検出する角度センサー140を有する。角度センサー140としては、例えば、ロータリーエンコーダー等を用いることができる。また、駆動部130および角度センサー140は、各アーム11〜16に対応して設けられており、本実施形態では、ロボット1は、6つの駆動部130および6つの角度センサー140を有する。   Further, as shown in FIG. 2, the robot 1 has a drive unit 130 provided with a motor, a reduction gear, and the like for rotating one arm with respect to the other arm (or the base 110). As the motor, for example, a servomotor such as an AC servomotor or a DC servomotor can be used. As the reduction gear, for example, a planetary gear type reduction gear, a wave gear device, or the like can be used. The reduction gear may be omitted. Also, the robot 1 has an angle sensor 140 that detects the rotation angle of the rotation shaft of the motor or the reduction gear. As the angle sensor 140, for example, a rotary encoder or the like can be used. Also, the drive unit 130 and the angle sensor 140 are provided corresponding to each of the arms 11 to 16, and in the present embodiment, the robot 1 has six drive units 130 and six angle sensors 140.

また、各駆動部130は、図示はしないが、例えば図1に示す基台110に内蔵されたモータードライバーと電気的に接続(以下、単に「接続」とも言う)されている。各駆動部130は、対応するモータードライバーを介してロボット制御装置2により制御される。また、各角度センサー140は、ロボット制御装置2に電気的に接続されている。また、エンドエフェクター19を駆動する駆動部(図示せず)は、ロボット制御装置2により制御される。   Further, although not shown, each drive unit 130 is electrically connected (hereinafter, also simply referred to as “connected”) to, for example, a motor driver incorporated in the base 110 shown in FIG. 1. Each drive unit 130 is controlled by the robot control device 2 via a corresponding motor driver. Further, each angle sensor 140 is electrically connected to the robot control device 2. Further, a drive unit (not shown) for driving the end effector 19 is controlled by the robot control device 2.

以上、ロボット1の構成について簡単に説明した。このようなロボット1は、後述するロボット制御装置2によって制御される。これにより、ロボット1は、適切な動作を行うことができる。   The configuration of the robot 1 has been briefly described above. Such a robot 1 is controlled by a robot control device 2 described later. Thereby, the robot 1 can perform appropriate operation.

なお、ロボット1は、図示はしないが、例えばエンドエフェクター19に加わる力(モーメントを含む)を検出する6軸力覚センサー等で構成された力検出装置(力検出部)を備えていてもよい。力検出装置は、例えば、アーム16とエンドエフェクター19との間に配置され、ロボット制御装置2に電気的に接続される。力検出装置を設けることにより、例えば、インピーダンス制御等の力制御を行うことが可能になる。   Although not shown, the robot 1 may be provided with a force detection device (force detection unit) including, for example, a six-axis force sensor that detects a force (including a moment) applied to the end effector 19. . The force detection device is, for example, disposed between the arm 16 and the end effector 19 and electrically connected to the robot control device 2. By providing the force detection device, for example, it is possible to perform force control such as impedance control.

〈ロボット制御装置〉
ロボット制御装置2は、ロボット1の動作を制御する。このロボット制御装置2は、ロボット1が有する各部の機能をつかさどるロボットコントローラーで構成されており、ロボット1、コンピューター5および画像処理装置42に対して通信可能に接続されている。
<Robot controller>
The robot control device 2 controls the operation of the robot 1. The robot control device 2 is configured by a robot controller that controls the functions of the units included in the robot 1, and is communicably connected to the robot 1, the computer 5, and the image processing device 42.

ロボット制御装置2とロボット1とは、例えばケーブル等を用いて有線方式で通信可能に接続されていてもよく、また、無線方式で通信可能に接続されていてもよい。また、ロボット制御装置2は、ロボット1と別体であってもよく、また、ロボット1(例えば、基台110等)にその一部または全部が内蔵されていてもよい。また、ロボット制御装置2とコンピューター5とは、例えばケーブル等を用いて有線方式で通信可能に接続されていてもよく、また、無線方式で通信可能に接続されていてもよい。また、ロボット制御装置2と画像処理装置42とは、例えばケーブル等を用いて有線方式で通信可能に接続されていてもよく、また、無線方式で通信可能に接続されていてもよい。   The robot control device 2 and the robot 1 may be communicably connected in a wired manner by using, for example, a cable or the like, or may be communicably connected in a wireless manner. Also, the robot control device 2 may be separate from the robot 1, or part or all of the robot control device 2 may be incorporated in the robot 1 (for example, the base 110 or the like). Further, the robot control device 2 and the computer 5 may be communicably connected in a wired manner by using, for example, a cable or the like, or may be communicably connected in a wireless manner. Further, the robot control device 2 and the image processing device 42 may be communicably connected in a wired manner using, for example, a cable or the like, or may be communicably connected in a wireless manner.

図2に示すように、ロボット制御装置2は、プロセッサーを備える制御部21と、制御部21に通信可能に接続されたメモリー等を備える記憶部22と、外部インターフェース(I/F)を備える外部入出力部23(受付部)と、を含む。外部入出力部23は、ロボット制御装置2の受付部の一例である。ロボット制御装置2の各構成要素は、種々のバスを介して相互通信可能に接続されている。   As shown in FIG. 2, the robot control device 2 includes a control unit 21 including a processor, a storage unit 22 including a memory and the like communicably connected to the control unit 21, and an external including an external interface (I / F). And an input / output unit 23 (reception unit). The external input / output unit 23 is an example of a reception unit of the robot control device 2. The components of the robot controller 2 are communicably connected to one another via various buses.

制御部21は、記憶部22に記憶された各種プログラム等を実行する。これにより、ロボット1の動作の制御や各種演算および判断等の処理を実現できる。記憶部22には、制御部21により実行可能な各種プログラムが保存(記憶)されている。また、記憶部22には、外部入出力部23で受け付けた各種データの保存が可能である。記憶部22は、例えばRAM(Random Access Memory)等の揮発性メモリーや、ROM(Read Only Memory)等の不揮発性メモリー等を含んで構成されている。なお、記憶部22は、非着脱式に限らず、着脱式の外部記憶装置(図示せず)を有する構成であってもよい。   The control unit 21 executes various programs and the like stored in the storage unit 22. As a result, control of the operation of the robot 1 and processing such as various calculations and judgments can be realized. The storage unit 22 stores (stores) various programs that can be executed by the control unit 21. In addition, the storage unit 22 can store various data accepted by the external input / output unit 23. The storage unit 22 includes, for example, a volatile memory such as a random access memory (RAM) or a non-volatile memory such as a read only memory (ROM). The storage unit 22 is not limited to the non-removable type, and may have a removable external storage device (not shown).

なお、上述の各種プログラムとしては、コンピューター5から出力された動作プログラムや、動作プログラムの修正や変更をするプログラム等が挙げられる。各種データとしては、例えば、エンドエフェクター19の位置姿勢、各アーム11〜16の回動角度等に関するデータ等が挙げられる。   The above-mentioned various programs include an operation program output from the computer 5 and a program for correcting or changing the operation program. Examples of the various data include data on the position and orientation of the end effector 19, the rotation angle of each of the arms 11 to 16, and the like.

外部入出力部23は、外部インターフェース(I/F)を備え、ロボット1、コンピューター5および画像処理装置42の各接続のために用いられる。   The external input / output unit 23 includes an external interface (I / F), and is used for each connection of the robot 1, the computer 5, and the image processing apparatus 42.

このようなロボット制御装置2は、例えばコンピューター5で作成した動作プログラムに基づいて(を用いて)ロボット1を制御する。これにより、コンピューター5で作成した動作プログラムを用いて、ロボット1に適切な動作を行わせることができる。   Such a robot control device 2 controls the robot 1 based on, for example, an operation program created by the computer 5. As a result, using the operation program created by the computer 5, the robot 1 can be made to perform an appropriate operation.

なお、ロボット制御装置2は、前述した構成に加えて、さらに他の構成が付加されていてもよい。また、ロボット制御装置2には、ディスプレイ等を有する表示装置や、例えばマウスやキーボード等の入力装置が接続されていてもよい。また、記憶部22に保存されている各種プログラムやデータ等は、予め記憶部22に記憶されたものであってもよいし、例えばCD−ROM等の記録媒体(図示せず)に格納されており、この記録媒体から提供されたものでもよいし、ネットワーク等を介して提供されたものであってもよい。   In addition to the configuration described above, the robot control device 2 may further have another configuration. Further, a display device having a display or the like, or an input device such as a mouse or a keyboard may be connected to the robot control device 2. In addition, various programs, data, etc. stored in the storage unit 22 may be stored in advance in the storage unit 22 or, for example, stored in a recording medium (not shown) such as a CD-ROM. It may be provided from this recording medium, or may be provided via a network or the like.

〈コンピューター〉
図2に示すコンピューター5としては、例えばPC(Personal Computer)等の種々のコンピューターを用いることが可能であり、ロボット制御装置2および画像処理装置42に対して通信可能に接続されている。コンピューター5は、プロセッサーを備える制御部51と、制御部51に通信可能に接続されたメモリー等を備える記憶部52と、外部I/F(インターフェース)を備える外部入出力部53(受付部)と、を含む。外部入出力部53は、コンピューター5の受付部の1例である。コンピューター5の各構成要素は、種々のバスを介して相互通信可能に接続されている。また、コンピューター5と画像処理装置42とは、例えばケーブル等を用いて有線方式で通信可能に接続されていてもよく、また、無線方式で通信可能に接続されていてもよい。
<computer>
As the computer 5 shown in FIG. 2, for example, various computers such as a PC (Personal Computer) can be used, and they are communicably connected to the robot control device 2 and the image processing device 42. The computer 5 includes a control unit 51 including a processor, a storage unit 52 including a memory and the like communicably connected to the control unit 51, and an external input / output unit 53 (reception unit) including an external I / F (interface). ,including. The external input / output unit 53 is an example of a reception unit of the computer 5. The components of the computer 5 are communicably connected to one another via various buses. Further, the computer 5 and the image processing apparatus 42 may be communicably connected by a wired method using, for example, a cable or the like, or may be communicably connected by a wireless method.

制御部51は、記憶部52に記憶された各種プログラム等を実行する。これにより、画像処理装置42等の制御や各種演算および判断等の処理を実現できる。また、記憶部52には、制御部51により実行可能な各種プログラムが保存されている。また、記憶部52には、外部入出力部53で受け付けた各種データの保存が可能である。記憶部52は、例えばRAM(Random Access Memory)等の揮発性メモリーや、ROM(Read Only Memory)等の不揮発性メモリー等を含んで構成されている。なお、記憶部52は、非着脱式に限らず、着脱式の外部記憶装置(図示せず)を有する構成であってもよい。   The control unit 51 executes various programs and the like stored in the storage unit 52. As a result, control of the image processing apparatus 42 and the like and processing such as various calculations and judgments can be realized. In addition, various programs that can be executed by the control unit 51 are stored in the storage unit 52. The storage unit 52 can also store various data accepted by the external input / output unit 53. The storage unit 52 is configured to include, for example, a volatile memory such as a random access memory (RAM) or a non-volatile memory such as a read only memory (ROM). The storage unit 52 is not limited to the non-removable type, and may have a removable external storage device (not shown).

外部入出力部53は、外部I/F(インターフェース)を備え、ロボット制御装置2、画像処理装置42、表示装置31および入力装置32との各接続のために用いられる。したがって、外部入出力部53は、作業者(ユーザー)による入力装置32の操作(指令)を受け付ける受付部としての機能を有する。また、外部入出力部53は、複数のモードのうち所定のモードの選択を受け付けるモード受付部としての機能を有する。また、外部入出力部53は、表示装置31のモニターに各種画面に関する信号を出力する出力部としての機能を有する。   The external input / output unit 53 includes an external I / F (interface), and is used for each connection with the robot control device 2, the image processing device 42, the display device 31, and the input device 32. Therefore, the external input / output unit 53 has a function as a reception unit that receives an operation (instruction) of the input device 32 by the worker (user). Further, the external input / output unit 53 has a function as a mode receiving unit that receives selection of a predetermined mode among a plurality of modes. The external input / output unit 53 also has a function as an output unit that outputs signals regarding various screens to the monitor of the display device 31.

また、コンピューター5は、前述した構成に加えて、さらに他の構成が付加されていてもよい。また、記憶部52に保存されている各種プログラムやデータ等は、予め記憶部52に記憶されたものであってもよいし、例えばCD−ROM等の記録媒体(図示せず)に格納されており、この記録媒体から提供されたものでもよいし、ネットワーク等を介して提供されたものであってもよい。   In addition to the above-described configuration, the computer 5 may further have another configuration. Further, various programs and data stored in the storage unit 52 may be stored in advance in the storage unit 52, or may be stored in a recording medium (not shown) such as a CD-ROM, for example. It may be provided from this recording medium, or may be provided via a network or the like.

〈撮像部〉
撮像部41は、撮像素子(図示せず)およびレンズ群(図示せず)等を有している。また、撮像部41は、ロボット1以外の(ロボット1とは異なる)任意の設置個所、例えば、天井等の任意の設置箇所に取り付けられており(固定されており)、下方を撮像可能になっている(下方を向いている)。ただし、撮像部41は、床に取り付けられており、上方を撮像可能になっていてもよい。また、撮像部41は、ロボット1に設けられていてもよい(言い換えると、ロボット1が有するカメラを撮像部41として用いてもよい)。なお、撮像素子としては、特に限定されず、例えば、CCDイメージセンサー、CMOSイメージセンサー等が挙げられる。また、撮像部41は、2つの撮像素子を用いた3Dカメラであってもよい。この撮像部41は、撮像を行って、画像(画像データ)を生成する。
<Imaging unit>
The imaging unit 41 includes an imaging element (not shown), a lens group (not shown), and the like. Further, the imaging unit 41 is attached (fixed) to an arbitrary installation place other than the robot 1 (different from the robot 1), for example, an arbitrary installation place such as a ceiling, and can capture an image below. Yes (looking down). However, the imaging unit 41 may be attached to the floor and may be capable of imaging the upper side. Further, the imaging unit 41 may be provided in the robot 1 (in other words, the camera of the robot 1 may be used as the imaging unit 41). The imaging element is not particularly limited, and examples thereof include a CCD image sensor, a CMOS image sensor, and the like. In addition, the imaging unit 41 may be a 3D camera using two imaging elements. The imaging unit 41 performs imaging to generate an image (image data).

〈画像処理装置(制御装置)〉
画像処理装置42(制御装置)は、撮像部41が撮像した画像(画像データ)に対して各種の画像処理を行い、対象物の位置および姿勢を特定(認識)する。この画像処理装置42は、撮像部41に対して通信可能に接続されている。
<Image processing device (control device)>
The image processing device 42 (control device) performs various types of image processing on the image (image data) captured by the imaging unit 41, and identifies (recognizes) the position and orientation of the target. The image processing device 42 is communicably connected to the imaging unit 41.

また、画像処理装置42は、プロセッサーを備える領域設定部421および画像処理部424と、これらに通信可能に接続されたメモリー等を備える記憶部422と、外部I/F(インターフェース)を備える外部入出力部423(受付部)と、を含む。外部入出力部423は、画像処理装置42の受付部の一例である。画像処理装置42の各構成要素は、種々のバスを介して相互通信可能に接続されている。また、画像処理装置42と撮像部41とは、例えばケーブル等を用いて有線方式で通信可能に接続されていてもよく、また、無線方式で通信可能に接続されていてもよい。   Further, the image processing apparatus 42 includes an area setting unit 421 including a processor, an image processing unit 424, a storage unit 422 including a memory and the like communicably connected to these, and an external interface including an external I / F (interface). And an output unit 423 (reception unit). The external input / output unit 423 is an example of a reception unit of the image processing apparatus 42. The components of the image processing apparatus 42 are communicably connected to one another via various buses. Further, the image processing apparatus 42 and the imaging unit 41 may be communicably connected in a wired manner by using, for example, a cable or the like, or may be communicably connected in a wireless manner.

領域設定部421および画像処理部424は、それぞれ、記憶部422に記憶された各種プログラム等を実行する。これにより、対象物の画像認識を実現できる。すなわち、領域設定部421および画像処理部424は、それぞれ、撮像部41により対象物を撮像して得られた画像に含まれる対象物を認識(検出)する機能を有する。なお、領域設定部421および画像処理部424の機能については、後に詳細に説明する。   The area setting unit 421 and the image processing unit 424 each execute various programs and the like stored in the storage unit 422. Thereby, image recognition of an object can be realized. That is, the area setting unit 421 and the image processing unit 424 each have a function of recognizing (detecting) a target included in an image obtained by imaging the target by the imaging unit 41. The functions of the area setting unit 421 and the image processing unit 424 will be described in detail later.

記憶部422には、領域設定部421および画像処理部424により実行可能な各種プログラムが保存されている。また、記憶部422には、外部入出力部423で受け付けた各種データの保存が可能である。記憶部422は、例えばRAM(Random Access Memory)等の揮発性メモリーや、ROM(Read Only Memory)等の不揮発性メモリー等を含んで構成されている。なお、記憶部422は、非着脱式に限らず、着脱式の外部記憶装置(図示せず)を有する構成であってもよい。   The storage unit 422 stores various programs that can be executed by the area setting unit 421 and the image processing unit 424. The storage unit 422 can also store various data accepted by the external input / output unit 423. The storage unit 422 is configured to include, for example, a volatile memory such as a random access memory (RAM) or a non-volatile memory such as a read only memory (ROM). The storage unit 422 is not limited to the non-removable type, and may have a removable external storage device (not shown).

外部入出力部423は、外部I/F(インターフェース)を備え、撮像部41、ロボット制御装置2およびコンピューター5との各接続のために用いられる。この外部入出力部423は、撮像部41により対象物を撮像して得られた画像(画像データ)を受け付ける画像受付部としての機能を有する。   The external input / output unit 423 includes an external I / F (interface), and is used for each connection with the imaging unit 41, the robot control device 2 and the computer 5. The external input / output unit 423 has a function as an image receiving unit that receives an image (image data) obtained by imaging an object by the imaging unit 41.

また、画像処理装置42は、前述した構成に加えて、さらに他の構成が付加されていてもよい。また、記憶部422に保存されている各種プログラムやデータ等は、予め記憶部422に記憶されたものであってもよいし、例えばCD−ROM等の記録媒体(図示せず)に格納されており、この記録媒体から提供されたものでもよいし、ネットワーク等を介して提供されたものであってもよい。   In addition to the above-described configuration, the image processing apparatus 42 may further include another configuration. In addition, various programs, data, etc. stored in the storage unit 422 may be stored in advance in the storage unit 422 or, for example, stored in a recording medium (not shown) such as a CD-ROM. It may be provided from this recording medium, or may be provided via a network or the like.

〈表示装置および入力装置〉
図2に示す表示装置31は、ディスプレイを備えており、例えば各種画面を表示する機能を有する。また、表示装置31としては、特に限定されず、例えば、液晶表示装置、有機EL表示装置等の直視型の表示装置、プロジェクター等の投射型表示装置等が挙げられる。この表示装置31は、コンピューター5に接続されているが、ロボット制御装置2に接続することもできる。また、2つの表示装置31を用意し、その表示装置31をコンピューター5およびロボット制御装置2に接続することもできる。ここでは、表示装置31がコンピューター5に接続されている場合を例に挙げて説明する。
<Display device and input device>
The display device 31 illustrated in FIG. 2 includes a display, and has, for example, a function of displaying various screens. The display device 31 is not particularly limited, and examples thereof include a direct-view display device such as a liquid crystal display device and an organic EL display device, and a projection display device such as a projector. The display device 31 is connected to the computer 5, but can be connected to the robot control device 2. In addition, two display devices 31 can be prepared, and the display devices 31 can be connected to the computer 5 and the robot control device 2. Here, the case where the display device 31 is connected to the computer 5 will be described as an example.

入力装置32は、例えばマウスやキーボード等を含んで構成されている。この入力装置32は、コンピューター5に接続されているが、ロボット制御装置2に接続することもできる。また、2つの入力装置32を用意し、その入力装置32をコンピューター5およびロボット制御装置2に接続することもできる。ここでは、入力装置32がコンピューター5に接続されている場合を例に挙げて説明する。作業者は、入力装置32を操作することで、コンピューター5に対して各種の処理等の指示(入力)を行うことができる。   The input device 32 includes, for example, a mouse and a keyboard. Although this input device 32 is connected to the computer 5, it can also be connected to the robot control device 2. In addition, two input devices 32 can be prepared, and the input devices 32 can be connected to the computer 5 and the robot control device 2. Here, the case where the input device 32 is connected to the computer 5 will be described as an example. By operating the input device 32, the worker can instruct (input) various processes and the like to the computer 5.

具体的には、作業者は、表示装置31に表示される各種画面(ウィンドウ等)に対して入力装置32のマウスでクリックする操作や、入力装置32のキーボードで文字や数字等を入力する操作により、コンピューター5に対する指示を行うことができる。以下、この作業者による入力装置32を用いた指示(入力装置32による入力)を「操作指示」とも言う。この操作指示は、入力装置32により、表示装置31に表示された内容から所望の内容を選択する選択操作や、入力装置32により、文字や数字等を入力する入力指示等を含む。また、入力には、選択も含まれる。   Specifically, the operator clicks on the various screens (windows etc.) displayed on the display device 31 with the mouse of the input device 32, and inputs characters and numbers with the keyboard of the input device 32. Can instruct the computer 5. Hereinafter, the instruction (input by the input device 32) by the operator using the input device 32 is also referred to as "operation instruction". The operation instruction includes a selection operation of selecting desired content from the content displayed on the display device 31 by the input device 32, and an input instruction of inputting characters, numbers, and the like by the input device 32. The inputs also include selections.

なお、コンピューター5には、表示装置31および入力装置32がそれぞれ1つ接続されていてもよいし、それぞれ複数接続されていてもよい。また、表示装置31および入力装置32の代わりに、表示装置31および入力装置32の機能を兼ね備えた表示入力装置(図示せず)を用いてもよい。表示入力装置としては、例えばタッチパネル等を用いることができる。
以上、ロボットシステム100の基本的な構成について簡単に説明した。
Note that one display device 31 and one input device 32 may be connected to the computer 5, or a plurality of each may be connected. Further, instead of the display device 31 and the input device 32, a display input device (not shown) having the functions of the display device 31 and the input device 32 may be used. For example, a touch panel or the like can be used as the display input device.
The basic configuration of the robot system 100 has been briefly described above.

≪ロボットシステムの動作≫
以下、ロボットシステム100の作業として、図3に示すように、テーブルT1に載置された対象物71を、別のテーブルT2に搬送する作業について代表して説明する。この場合、ロボット1は、エンドエフェクター19により対象物71を把持し、アームを動かして、把持した対象物71をテーブルT2まで搬送し、対象物71を開放することにより、テーブルT1からテーブルT2への対象物71の搬送を実現する。このような作業において、ロボット1は、対象物71を正しく把持できるように、対象物71の状態(位置よおび姿勢)を知る必要がある。
<< Operation of robot system >>
Hereinafter, as an operation of the robot system 100, as shown in FIG. 3, an operation of transporting the target 71 placed on the table T1 to another table T2 will be representatively described. In this case, the robot 1 grips the target 71 with the end effector 19 and moves the arm to transport the griped target 71 to the table T2 and open the target 71 to move the table T1 to the table T2. The transport of the target object 71 is realized. In such an operation, the robot 1 needs to know the state (position and posture) of the object 71 so that the object 71 can be gripped correctly.

以下、対象物71の状態を特定する処理について詳細に説明する。なお、テーブルT1としては、特に限定されないが、説明の便宜上、テーブルT1は、白色の領域T1wと黒色の領域T1bとが格子状に配置された模様を有しているものとし、白色の領域T1w上に対象物71が載置されている例について説明する。   Hereinafter, the process of specifying the state of the object 71 will be described in detail. The table T1 is not particularly limited, but for convenience of description, the table T1 has a pattern in which a white area T1w and a black area T1b are arranged in a lattice, and the white area T1w An example in which the object 71 is placed on top will be described.

まず、撮像部41により、テーブルT1上の対象物71を含む画像P1(撮像画像)が撮像される。この画像P1は、例えば、図4に示すような画像となる。画像P1は、撮像部41から画像処理装置42に送信され、画像処理装置42の領域設定部421は、受信した画像P1に基づいて、探索領域As(関心領域:ROI)を設定する。   First, the imaging unit 41 captures an image P1 (captured image) including the target 71 on the table T1. This image P1 is, for example, an image as shown in FIG. The image P1 is transmitted from the imaging unit 41 to the image processing device 42, and the region setting unit 421 of the image processing device 42 sets a search region As (region of interest: ROI) based on the received image P1.

探索領域Asは、対象物71の全域を含むように設定され、本実施形態では、図5に示すように、斜めに傾いた台形の領域となっている。ただし、探索領域Asの形状や大きさは、特に限定されない。また、探索領域Asは、作業者から指定(教授)を受けてもよいし、領域設定部421が検出してもよい。領域設定部421が探索領域Asを検出する方法としては、例えば、画像P1の全体を画像としたテンプレートマッチング処理によって対象物71に設けられたマーカー(図示せず)を検出し、このマーカーの周囲であって、対象物71の全体が含まれるのに十分な領域を探索領域Asとして設定することができる。   The search area As is set to include the entire area of the object 71, and in the present embodiment, as shown in FIG. 5, it is a trapezoidal area obliquely inclined. However, the shape and size of the search area As are not particularly limited. Further, the search area As may be designated (teaching) from the worker, or the area setting unit 421 may detect it. As a method of detecting the search area As by the area setting unit 421, for example, a marker (not shown) provided on the object 71 is detected by template matching processing using the entire image P1 as an image, and the periphery of this marker That is, an area sufficient to include the entire object 71 can be set as the search area As.

画像処理装置42は、領域設定部421によって探索領域Asを設定した後、図6に示すように、画像処理部424によって画像P1から探索領域Asの全域を含む画像P2を切り出す。以下では、画像P2を「切り出し画像P2」と言う。そして、画像処理部424は、切り出し画像P2を用いて画像処理を行う。具体的には、画像処理部424は、切り出し画像P2の全域を新たな探索領域As’とし、画像P2の全域を探索することにより、図7に示すように、対象物71のエッジE(輪郭)を検出する。ここで、切り出し画像P2は、探索領域Asの全域を含みつつ、より小さい範囲とすることが好ましく、本実施形態では、探索領域Asに外接する矩形となっている。これにより、探索領域As’をより小さくすることができ、すなわち、探索領域As’に含まれる画素数を少なくすることができ、探索の負担を低減することができる。   After setting the search area As by the area setting unit 421, the image processing device 42 cuts out an image P2 including the entire area of the search area As from the image P1 as shown in FIG. Hereinafter, the image P2 will be referred to as "the cutout image P2". Then, the image processing unit 424 performs image processing using the cutout image P2. Specifically, the image processing unit 424 sets the entire area of the cut-out image P2 as a new search area As ′ and searches the entire area of the image P2, as shown in FIG. ) To detect. Here, it is preferable to set the cutout image P2 to a smaller range while including the entire area of the search area As, and in the present embodiment, it is a rectangle circumscribing the search area As. Thus, the search area As 'can be made smaller, that is, the number of pixels included in the search area As' can be reduced, and the load of the search can be reduced.

対象物71のエッジEを検出する方法としては、特に限定されず、例えば、切り出し画像P2に含まれる全ての画素について、画素の特徴を検出し、検出した各画素の特徴に基づいて対象物71のエッジEを検出することができる。より具体的には、例えば、切り出し画像P2が白黒画像(グレースケール)の場合には、各画素の輝度を検出し、各画素の輝度に基づいて対象物71のエッジEを検出することができる。例えば、図8に示すように、横に並ぶ3つの画素Px1、Px2、Px3について、互いの輝度を比較し、画素Px1と画素Px3との輝度の急峻な差から、これらの間にある画素Px2をエッジEとして特定することができる。また、例えば、切り出し画像P2がカラー画像の場合には、各画素の色度を検出し、各画素の色度に基づいて対象物71のエッジEを検出することができる。   The method of detecting the edge E of the object 71 is not particularly limited. For example, the feature of each pixel is detected for all the pixels included in the cutout image P2, and the object 71 is detected based on the detected feature of each pixel. Edge E can be detected. More specifically, for example, when the cutout image P2 is a black and white image (gray scale), the luminance of each pixel can be detected, and the edge E of the object 71 can be detected based on the luminance of each pixel. . For example, as shown in FIG. 8, the luminances of three pixels Px1, Px2 and Px3 arranged in a row are compared with each other, and the pixel Px2 between them is obtained from the sharp difference in luminance between the pixels Px1 and Px3 Can be identified as edge E. Also, for example, when the cutout image P2 is a color image, the chromaticity of each pixel can be detected, and the edge E of the object 71 can be detected based on the chromaticity of each pixel.

ここで、図9に示すように、切り出し画像P2にはテーブルT1の白色の領域T1wと黒色の領域T1bとの境界Qが存在しているため、画像処理部424が、この境界Qを対象物71のエッジEとして誤認してしまう場合がある。このように、画像処理部424が、境界Qを対象物71のエッジEとして誤認してしまうと、対象物71の状態を正しく検出することができなくなる。そこで、画像処理部424は、境界QをエッジEと誤認しないように、次のような処理を行う。   Here, as shown in FIG. 9, since the boundary Q between the white area T1w of the table T1 and the black area T1b is present in the cut-out image P2, the image processing unit 424 uses the boundary Q as an object. It may be misidentified as an edge E of 71. As described above, when the image processing unit 424 mistakenly recognizes the boundary Q as the edge E of the object 71, the state of the object 71 can not be detected correctly. Therefore, the image processing unit 424 performs the following process so as not to misidentify the boundary Q as the edge E.

画像処理部424は、図10に示すように、領域設定部421によって設定された探索領域Asの輪郭に沿って切り出し画像P2をぼかす処理を行う。これにより、境界Qがぼやけ、境界QがエッジEとして認識され難くなる。そのため、画像処理部424が、境界QをエッジEと誤認してしまうことを抑制することができ、精度よく、対象物71のエッジEを検出することができる。なお、図10では、境界Qの一部がぼやけているが、これに限定されず、境界Qの全部がぼやけていてもよく、ぼやける範囲が広い程、上述の効果をより顕著に発揮することができる。   As illustrated in FIG. 10, the image processing unit 424 performs processing to blur the cutout image P2 along the contour of the search area As set by the area setting unit 421. This makes the boundary Q blur and makes it difficult to recognize the boundary Q as an edge E. Therefore, the image processing unit 424 can suppress false recognition of the boundary Q as the edge E, and can detect the edge E of the object 71 with high accuracy. Although part of the boundary Q is blurred in FIG. 10, the present invention is not limited to this, and the whole of the boundary Q may be blurred. Can.

このような方法によれば、対象物71のエッジE以外のエッジがエッジEとして検出さされてしまうことを抑制でき、切り出し画像P2のみから、すなわち、切り出し画像P2の他に従来のようなマスク画像を用いなくても、精度よく、対象物71のエッジEを検出することができる。そのため、従来のようなマスク画像を形成するためメモリーが不要となり、前述した従来構成と比較してメモリーの容量を小さく抑えることができる。   According to such a method, it can be suppressed that an edge other than the edge E of the object 71 is detected as the edge E, and from the cutout image P2 alone, that is, a mask like the conventional one in addition to the cutout image P2. Even without using an image, the edge E of the object 71 can be detected accurately. Therefore, since a conventional mask image is formed, a memory is not required, and the memory capacity can be reduced as compared with the above-described conventional configuration.

探索領域Asの輪郭に沿って切り出し画像P2をぼかす処理方法については、特に限定されない。例えば、切り出し画像P2が白黒画像(グレースケール)である場合には、探索領域Asの輪郭付近の輝度値を輪郭から離間する方向に徐々に変化させる方法が挙げられる。例えば、本実施形態では、探索領域Asの輪郭から離間する方向に沿って白色から黒色に徐々(段階的)に変化するように、輝度を徐々(段階的)に小さくしている。このような処理によれば、比較的簡単にかつ確実に探索領域Asの輪郭に沿って切り出し画像P2をぼかすことができる。このような処理は、平滑化フィルターを用いて、探索領域Asの輪郭付近の輝度を平滑化することにより実行することができる。これにより、比較的簡単に、切り出し画像P2をぼかすことができる。なお、平滑化フィルターとしては、特に限定されないが、例えば、ガウシアンフィルターを用いることができる。   The processing method for blurring the cutout image P2 along the contour of the search area As is not particularly limited. For example, when the cutout image P2 is a black and white image (gray scale), there is a method of gradually changing the luminance value in the vicinity of the contour of the search area As in the direction away from the contour. For example, in the present embodiment, the luminance is gradually (stepwise) reduced so as to gradually (stepwise) change from white to black along a direction away from the contour of the search area As. According to such processing, the cutout image P2 can be blurred relatively easily and reliably along the contour of the search area As. Such processing can be performed by smoothing the luminance in the vicinity of the contour of the search area As using a smoothing filter. Thereby, the cutout image P2 can be blurred relatively easily. The smoothing filter is not particularly limited, and for example, a Gaussian filter can be used.

また、切り出し画像P2がカラー画像である場合には、彩度、色相、明度の少なくとも1つを探索領域Asの輪郭から離間する方向に徐々に変化させることにより切り出し画像P2をぼかすことができる。これにより、比較的簡単に、切り出し画像P2をぼかすことができる。なお、彩度を徐々に変化させる場合は、例えば、探索領域Asの輪郭から離間する方向に沿って彩度を徐々に低下させて、無彩色に近づけていくことにより、切り出し画像P2をぼかすことができる。また、色相を徐々に変化させる場合は、例えば、探索領域Asの輪郭から離間する方向に沿って色相を徐々に変化させて、所定の色相(または輪郭の色相)から補色となる色相に向けて変化させることにより、切り出し画像P2をぼかすことができる。また、明度を徐々に変化させる場合は、例えば、探索領域Asの輪郭から離間する方向に沿って明度を徐々に低下させて、暗い色に近づけていくことにより、切り出し画像P2をぼかすことができる。   When the cutout image P2 is a color image, the cutout image P2 can be blurred by gradually changing at least one of saturation, hue, and lightness in a direction away from the outline of the search area As. Thereby, the cutout image P2 can be blurred relatively easily. In the case of gradually changing the saturation, for example, the cut-out image P2 is blurred by gradually decreasing the saturation along a direction away from the contour of the search area As and approaching an achromatic color. Can. When the hue is to be gradually changed, for example, the hue is gradually changed along a direction away from the outline of the search area As to shift from a predetermined hue (or the hue of the outline) to a complementary hue. By changing it, the cutout image P2 can be blurred. Further, in the case of gradually changing the lightness, for example, the cut-out image P2 can be blurred by gradually decreasing the lightness along a direction away from the contour of the search area As to approach a dark color. .

図10に示すように、切り出し画像P2の現画像に対してぼかす領域は、探索領域Asの外側の領域である。すなわち、探索領域Asの輪郭からその外側に離間する方向に切り出し画像P2をぼかしている。前述したように、探索領域Asのどこかに対象物71が存在しているため、例えば、探索領域Asの内側の領域をぼかしてしまうと、対象物71のエッジEも一緒にぼけてしまうおそれがある。そのため、探索領域Asの外側の領域だけをぼかすことにより、対象物71のエッジEがぼけてしまうことを確実に防止することができる。したがって、より精度よくエッジEを検出することができる。ただし、ぼかす領域は、これに限定されず、例えば、図11に示すように、探索領域Asの外側の領域と共に、内側の領域についてもぼかしてもよい。   As shown in FIG. 10, the area blurred with respect to the current image of the cutout image P2 is an area outside the search area As. That is, the cutout image P2 is blurred in a direction away from the contour of the search area As. As described above, since the object 71 exists somewhere in the search area As, for example, if the area inside the search area As is blurred, the edge E of the object 71 may be blurred together. There is. Therefore, by blurring only the area outside the search area As, it is possible to reliably prevent the edge E of the object 71 from being blurred. Therefore, edge E can be detected more accurately. However, the region to be blurred is not limited to this, and for example, as shown in FIG. 11, the region outside the search region As may be blurred with respect to the region inside.

画像処理装置42は、上述した方法によって対象物71のエッジEを検出し、対象物71の輪郭形状を取得する。次に、画像処理装置42は、輪郭形状を画像としたテンプレートマッチング処理によって、対象物71の姿勢を検出する。すなわち、輪郭形状の画像をテンプレート画像で走査して両画像の類似度を求め、この類似度にしたがって、対象物71の姿勢および位置を検出する。画像処理装置42は、検出した対象物71の状態(位置および姿勢)をロボット制御装置2に送信し、ロボット制御装置2は、受信した対象物71の状態に基づいて、ロボット1の各部の駆動を制御する。これにより、ロボット1によって、対象物71を適切に把持、搬送することができる。   The image processing device 42 detects the edge E of the object 71 by the above-described method, and acquires the contour shape of the object 71. Next, the image processing device 42 detects the posture of the object 71 by template matching processing in which the contour shape is an image. That is, the image of the contour shape is scanned with the template image to determine the similarity between both images, and the posture and position of the object 71 are detected according to the similarity. The image processing device 42 transmits the detected state (position and posture) of the target object 71 to the robot control device 2. The robot control device 2 drives each part of the robot 1 based on the received state of the target object 71. Control. Thereby, the object 71 can be appropriately gripped and transported by the robot 1.

以上説明したように、画像処理装置42(制御装置)は、撮像部41が対象物71を撮像した画像P1(撮像画像)に基づいて対象物71を処理するロボットを制御する装置である。そして、画像処理装置42は、画像P1において対象物71を探索する探索領域Asを設定する領域設定部421と、探索領域Asの輪郭に沿って画像P1をぼかす画像処理部424と、を備える。このような画像処理装置42によれば、対象物71のエッジE以外のエッジがエッジEとして検出されてしまうことを抑制でき、切り出し画像P2のみから、すなわち、切り出し画像P2の他に従来のようなマスク画像を用いなくても、精度よく、対象物71を検出することができる。そのため、従来のようなマスク画像を形成するためメモリーが不要となり、前述した従来構成と比較してメモリーの容量を小さく抑えることができる。そのため、的確に、ロボット1を制御することができる。   As described above, the image processing device 42 (control device) is a device that controls the robot that processes the object 71 based on the image P1 (captured image) in which the imaging unit 41 captures the object 71. The image processing apparatus 42 includes an area setting unit 421 that sets a search area As for searching the object 71 in the image P1, and an image processing unit 424 that blurs the image P1 along the outline of the search area As. According to such an image processing device 42, it is possible to suppress that an edge other than the edge E of the object 71 is detected as the edge E, and it is possible from the cutout image P2 alone, that is, in addition to the cutout image P2 as in the prior art. The object 71 can be detected with high accuracy without using any mask image. Therefore, since a conventional mask image is formed, a memory is not required, and the memory capacity can be reduced as compared with the above-described conventional configuration. Therefore, the robot 1 can be controlled accurately.

また、画像処理装置42は、探索領域Asの輪郭に沿って画像P1をぼかす前に、探索領域Asを含むように画像P1の一部を切り出す。そして、探索領域Asの輪郭に沿って、切り出した画像(切り出し画像P2)をぼかす。前述したように、切り出し画像P2の全域が新たな探索領域As’となるため、画像P1から切り出し画像P2を切り出すことにより、探索領域As’を小さくすることができ、処理の負担を低減することができる。なお、画像P1から切り出し画像P2を切り取らず、画像P1のままでぼかす処理を行ってもよい。   In addition, before blurring the image P1 along the contour of the search area As, the image processing device 42 cuts out a part of the image P1 so as to include the search area As. Then, the cut-out image (cut-out image P2) is blurred along the contour of the search area As. As described above, since the entire area of the cutout image P2 becomes a new search area As ′, the search area As ′ can be made smaller by cutting out the cutout image P2 from the image P1, and the processing load is reduced. Can. Note that the cutout image P2 may not be cut out from the image P1, and the image P1 may be blurred as it is.

また、画像処理装置42は、輝度値を探索領域Asの輪郭から離間する方向に徐々に変化させることにより切り出し画像P2をぼかす。これにより、比較的簡単な処理で、切り出し画像P2をぼかすことができる。   Further, the image processing device 42 blurs the cutout image P2 by gradually changing the luminance value in the direction away from the outline of the search area As. As a result, the cutout image P2 can be blurred by relatively easy processing.

また、画像処理装置42は、探索領域Asの輪郭から離間するほど輝度値を小さくする。これにより、比較的簡単に探索領域Asの輪郭に沿って切り出し画像P2をぼかすことができる。このような処理は、特に、切り出し画像P2が白黒画像の場合に有効である。   Further, the image processing device 42 reduces the luminance value as it gets farther from the contour of the search area As. As a result, the cutout image P2 can be blurred relatively easily along the contour of the search area As. Such processing is particularly effective when the cutout image P2 is a black and white image.

また、画像処理装置42は、探索領域Asの輪郭に沿って輝度値を平滑化フィルターを用いて平滑化することにより、切り出し画像P2をぼかす。これにより、比較的簡単に切り出し画像P2をぼかすことができる。   Further, the image processing device 42 blurs the cutout image P2 by smoothing the luminance value using a smoothing filter along the contour of the search area As. Thereby, the cutout image P2 can be blurred relatively easily.

また、画像処理装置42は、彩度、色相、明度の少なくとも1つを探索領域Asの輪郭から離間する方向に徐々に変化させることにより切り出し画像P2をぼかす。これにより、比較的簡単に探索領域Asの輪郭に沿って切り出し画像P2をぼかすことができる。このような処理は、特に、切り出し画像P2がカラー画像の場合に有効である。   Further, the image processing device 42 blurs the cutout image P2 by gradually changing at least one of saturation, hue, and lightness in a direction away from the outline of the search area As. As a result, the cutout image P2 can be blurred relatively easily along the contour of the search area As. Such processing is particularly effective when the cutout image P2 is a color image.

また、画像処理装置42は、探索領域Asの輪郭の外側をぼかす。これにより、探索領域As内に位置する対象物71のエッジEが不本意にぼけてしまうことを確実に防止することができる。したがって、より精度よく対象物71を検出することができる。   Further, the image processing device 42 blurs the outside of the outline of the search area As. As a result, it is possible to reliably prevent the edge E of the object 71 located in the search area As from being unintentionally blurred. Therefore, the object 71 can be detected more accurately.

また、ロボット1は、ロボットアームを有し、画像処理装置42(制御装置)の処理結果に基づいて制御される。このようなロボット1によれば、画像処理装置42により検出された対象物71の状態に基づいて制御されるため、適切な動作を行うことができる。   The robot 1 has a robot arm, and is controlled based on the processing result of the image processing device 42 (control device). According to such a robot 1, since the control is performed based on the state of the target object 71 detected by the image processing device 42, an appropriate operation can be performed.

また、ロボットシステム100は、ロボットアームを有するロボット1と、対象物71を撮像する撮像部41と、画像処理装置42(制御装置)と、画像処理装置42の処理結果に基づいて、ロボット1を制御するロボット制御装置2と、を備える。このようなロボットシステム100によれば、画像処理装置42により検出された対象物71の状態に基づいてロボット1を制御できるため、ロボット1に適切な動作をさせることができる。   The robot system 100 further includes the robot 1 based on processing results of the robot 1 having a robot arm, an imaging unit 41 for imaging the object 71, an image processing device 42 (control device), and the image processing device 42. And a robot control device 2 to control. According to such a robot system 100, since the robot 1 can be controlled based on the state of the target object 71 detected by the image processing device 42, the robot 1 can be made to operate appropriately.

図12は、実施形態についてハードウェア(プロセッサー)を中心として説明するためのブロック図である。図12には、ロボット1とコントローラー61とコンピューター62が接続されたロボットシステム100Aの全体構成が示されている。ロボット1の制御はコントローラー61にあるプロセッサーによりメモリーにある指令を読みだして実行されてもよいし、コンピューター62に存在するプロセッサーによりメモリーにある指令を読みだしてコントローラー61を介して実行されてもよい。   FIG. 12 is a block diagram for describing the embodiment centering on hardware (processor). FIG. 12 shows the overall configuration of a robot system 100A in which the robot 1, the controller 61, and the computer 62 are connected. Control of the robot 1 may be executed by reading a command in the memory by a processor in the controller 61 or may be executed by reading a command in the memory by a processor present in the computer 62 and executed through the controller 61. Good.

<変形例1>
図13は、本発明のロボットシステムの他の例1(変形例1)を示すブロック図である。図13には、ロボット1に直接コンピューター63が接続されたロボットシステム100Bの全体構成が示されている。ロボット1の制御はコンピューター63に存在するプロセッサーによりメモリーにある指令を読みだして直接実行される。
<Modification 1>
FIG. 13 is a block diagram showing another example 1 (modified example 1) of the robot system of the present invention. FIG. 13 shows the entire configuration of a robot system 100B in which a computer 63 is directly connected to the robot 1. The control of the robot 1 is directly executed by reading a command in the memory by a processor present in the computer 63.

<変形例2>
図14は、本発明のロボットシステムの他の例2(変形例2)を示すブロック図である。図14には、コントローラー61が内蔵されたロボット1とコンピューター66が接続され、コンピューター66がLAN等のネットワーク65を介してクラウド64に接続されているロボットシステム100Cの全体構成が示されている。ロボット1の制御はコンピューター66に存在するプロセッサーによりメモリーにある指令を読みだして実行されてもよいし、クラウド64上に存在するプロセッサーによりコンピューター66を介してメモリーにある指令を読みだして実行されてもよい。
<Modification 2>
FIG. 14 is a block diagram showing another example 2 (modified example 2) of the robot system of the present invention. FIG. 14 shows the entire configuration of a robot system 100C in which a robot 1 having a controller 61 incorporated therein and a computer 66 are connected, and the computer 66 is connected to a cloud 64 via a network 65 such as a LAN. The control of the robot 1 may be executed by reading a command in the memory by a processor present in the computer 66, or may be executed by reading a command in the memory via the computer 66 by a processor present in the cloud 64. May be

また、ロボットシステム100A、100B、100Cでは、各プロセッサーは、それぞれ、1つの装置で構成されていてもよく、また、複数の装置で構成されていてもよい、すなわち、複数の単位プロセッサーに分かれていてもよい。   Further, in the robot systems 100A, 100B, and 100C, each processor may be configured by one device or may be configured by a plurality of devices, that is, divided into a plurality of unit processors. May be

以上、本発明の制御装置、ロボットおよびロボットシステムを図示の実施形態に基づいて説明したが、本発明は、これに限定されるものではなく、各部の構成は、同様の機能を有する任意の構成のものに置換することができる。また、他の任意の構成物が付加されていてもよい。   As mentioned above, although the control device, the robot, and the robot system of the present invention have been described based on the illustrated embodiment, the present invention is not limited to this, and the configuration of each part is an arbitrary configuration having the same function. Can be replaced by Also, any other component may be added.

また、前述した実施形態では、ロボットとして、6軸の垂直多関節ロボットを例示したが、当該ロボットは、これに限らず、例えば、スカラーロボット等の水平多関節ロボット、脚部を有する脚式歩行(走行)ロボット等の他の形態のロボットであってもよい。また、当該ロボットは、単腕ロボットに限定されず、例えば、双腕ロボット等の他のロボットであってもよい。したがって、ロボットアーム(可動部)の数は、1つに限定されず、2つ以上であってもよい。また、ロボットアーム(可動部)が有するアームの数は、前述した実施形態では、6つであるが、1つ〜5つまたは7つ以上であってもよい。   In the embodiment described above, a six-axis vertical articulated robot is exemplified as the robot, but the robot is not limited to this, and, for example, a horizontal articulated robot such as a scalar robot, a leg type walking robot It may be a robot of another form such as a (traveling) robot. Moreover, the said robot is not limited to a single arm robot, For example, other robots, such as a double arm robot, may be used. Therefore, the number of robot arms (movable parts) is not limited to one, and may be two or more. Further, the number of arms included in the robot arm (movable part) is six in the above-described embodiment, but may be one to five or seven or more.

1…ロボット、2…ロボット制御装置、5…コンピューター、10…ロボットアーム、11、12、13、14、15、16…アーム、19…エンドエフェクター、21…制御部、22…記憶部、23…外部入出力部、31…表示装置、32…入力装置、41…撮像部、42…画像処理装置、51…制御部、52…記憶部、53…外部入出力部、61…コントローラー、62、63…コンピューター、64…クラウド、65…ネットワーク、66…コンピューター、70…設置箇所、71…対象物、100、100A、100B、100C…ロボットシステム、110…基台、130…駆動部、140…角度センサー、171、172、173、174、175、176…関節、421…領域設定部、422…記憶部、423…外部入出力部、424…画像処理部、As、As’…探索領域、E…エッジ、P1…画像、P2…切り出し画像、Px1、Px2、Px3…画素、Q…境界、T1…テーブル、T1b…領域、T1w…領域、T2…テーブル   DESCRIPTION OF SYMBOLS 1 ... Robot, 2 ... Robot control apparatus, 5 ... Computer, 10 ... Robot arm, 11, 12, 13, 14, 15, 16 ... Arm, 19 ... End effector, 21 ... Control part, 22 ... Storage part, 23 ... External input / output unit, 31: display device, 32: input device, 41: imaging unit, 42: image processing device, 51: control unit, 52: storage unit, 53: external input / output unit, 61: controller, 62, 63 ... computer 64 64 cloud 65 network 66 computer 70 installation location 71 object 100 100A 100B 100C robot system 110 base 130 drive unit 140 angle sensor , 171, 172, 173, 174, 175, 176 ... joints, 421 ... area setting sections, 422 ... storage sections, 423 ... external input / output sections 424: image processing unit, As, As': search area, E: edge, P1: image, cut image, Px1, Px2, Px3: pixel, Q: border, T1: table, T1b: area, T1w: area , T2 ... table

Claims (9)

撮像部が対象物を撮像した撮像画像に基づいて前記対象物を処理するロボットを制御する制御装置であって、
前記撮像画像において前記対象物を探索する探索領域を設定する領域設定部と、
前記探索領域の輪郭に沿って前記撮像画像をぼかす画像処理部と、を備えることを特徴とする制御装置。
A control device that controls a robot that processes an object based on a captured image obtained by capturing an object by an imaging unit.
An area setting unit configured to set a search area for searching for the object in the captured image;
An image processing unit that blurs the captured image along the contour of the search area.
前記画像処理部は、前記探索領域の輪郭に沿って前記撮像画像をぼかす前に、前記探索領域を含むように前記撮像画像の一部を切り出す請求項1に記載の制御装置。   The control device according to claim 1, wherein the image processing unit cuts out a part of the captured image so as to include the search region before blurring the captured image along an outline of the search region. 前記画像処理部は、輝度値を前記輪郭から離間する方向に徐々に変化させることにより前記撮像画像をぼかす請求項1または2に記載の制御装置。   The control device according to claim 1, wherein the image processing unit blurs the captured image by gradually changing a luminance value in a direction away from the contour. 前記画像処理部は、前記輪郭から離間するほど前記輝度値を小さくする請求項3に記載の制御装置。   The control device according to claim 3, wherein the image processing unit reduces the luminance value as being separated from the contour. 前記画像処理部は、前記輪郭に沿って輝度値を平滑化フィルターを用いて平滑化することにより、前記撮像画像をぼかす請求項1または2に記載の制御装置。   The control device according to claim 1, wherein the image processing unit blurs the captured image by smoothing a luminance value using a smoothing filter along the contour. 前記画像処理部は、彩度、色相、明度の少なくとも1つを前記輪郭から離間する方向に徐々に変化させることにより前記撮像画像をぼかす請求項1または2に記載の制御装置。   The control device according to claim 1, wherein the image processing unit blurs the captured image by gradually changing at least one of saturation, hue, and lightness in a direction away from the contour. 前記画像処理部は、前記輪郭の外側をぼかす請求項1ないし6のいずれか1項に記載の制御装置。   The control device according to any one of claims 1 to 6, wherein the image processing unit blurs the outside of the contour. ロボットアームを有し、
請求項1ないし7のいずれか1項に記載の制御装置の処理結果に基づいて制御されることを特徴とするロボット。
Has a robot arm,
A robot controlled based on the processing result of the control device according to any one of claims 1 to 7.
ロボットアームを有するロボットと、
対象物を撮像する撮像部と、
請求項1ないし7のいずれか1項に記載の制御装置と、
前記制御装置の処理結果に基づいて、前記ロボットを制御するロボット制御装置と、を備えることを特徴とするロボットシステム。
A robot having a robot arm,
An imaging unit for imaging an object;
The control device according to any one of claims 1 to 7.
A robot control device that controls the robot based on a processing result of the control device.
JP2017247044A 2017-12-22 2017-12-22 Control device, robot and robot system Pending JP2019114057A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017247044A JP2019114057A (en) 2017-12-22 2017-12-22 Control device, robot and robot system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017247044A JP2019114057A (en) 2017-12-22 2017-12-22 Control device, robot and robot system

Publications (1)

Publication Number Publication Date
JP2019114057A true JP2019114057A (en) 2019-07-11

Family

ID=67222767

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017247044A Pending JP2019114057A (en) 2017-12-22 2017-12-22 Control device, robot and robot system

Country Status (1)

Country Link
JP (1) JP2019114057A (en)

Similar Documents

Publication Publication Date Title
US8315455B2 (en) Robot system, robot control device and method for controlling robot
US9884425B2 (en) Robot, robot control device, and robotic system
JP2022028672A (en) System and method for automatic hand-eye calibration of vision system for robot motion
US10306149B2 (en) Image processing apparatus, robot system, robot, and image processing method
JP2012254518A (en) Robot control system, robot system and program
JP2011110621A (en) Method of producing teaching data of robot and robot teaching system
JP2009083095A (en) Control method of robot device, and the robot device
JP2015071206A (en) Control device, robot, teaching data generation method, and program
US10708479B2 (en) Optical measurement of object location in three dimensions
JP2018034242A (en) Robot control device, robot, and robot system
US9595095B2 (en) Robot system
US10207409B2 (en) Image processing method, image processing device, and robot system
US10562187B2 (en) Robot, robot control device, and robot system
CN112476489A (en) Flexible mechanical arm synchronous measurement method and system based on natural characteristics
WO2020179416A1 (en) Robot control device, robot control method, and robot control program
JP7112528B2 (en) Work coordinate creation device
JP2015003348A (en) Robot control system, control device, robot, control method for robot control system and robot control method
JP2019114057A (en) Control device, robot and robot system
JP5862382B2 (en) Work support device
JP4815592B2 (en) Object detection method
WO2021177159A1 (en) Machine-learning device
JP2020198020A (en) Method for determining image processing parameter, image processing apparatus, and robot system
JP7376227B2 (en) Image processing device using multiple imaging conditions
JP2012236266A (en) Robot control system, robot system, and program
WO2024014080A1 (en) Estimation system and estimation method