JP7269864B2 - ワーク撮影画像処理装置及びワーク撮影画像処理方法 - Google Patents

ワーク撮影画像処理装置及びワーク撮影画像処理方法 Download PDF

Info

Publication number
JP7269864B2
JP7269864B2 JP2019191675A JP2019191675A JP7269864B2 JP 7269864 B2 JP7269864 B2 JP 7269864B2 JP 2019191675 A JP2019191675 A JP 2019191675A JP 2019191675 A JP2019191675 A JP 2019191675A JP 7269864 B2 JP7269864 B2 JP 7269864B2
Authority
JP
Japan
Prior art keywords
image
distortion
camera
captured
jigboard
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019191675A
Other languages
English (en)
Other versions
JP2021065950A (ja
Inventor
聡志 ▲高▼津
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Amada Co Ltd
Original Assignee
Amada Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Amada Co Ltd filed Critical Amada Co Ltd
Priority to JP2019191675A priority Critical patent/JP7269864B2/ja
Priority to EP20879458.6A priority patent/EP4049805B1/en
Priority to US17/769,729 priority patent/US20220414843A1/en
Priority to PCT/JP2020/038767 priority patent/WO2021079802A1/ja
Publication of JP2021065950A publication Critical patent/JP2021065950A/ja
Application granted granted Critical
Publication of JP7269864B2 publication Critical patent/JP7269864B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/80Geometric correction
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • G06T2207/30208Marker matrix

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Image Processing (AREA)
  • Manipulator (AREA)
  • Geometry (AREA)

Description

本発明は、ワーク撮影画像処理装置及びワーク撮影画像処理方法に関する。
ワーク保持用ロボットが、パレットのような配置場所に配置されているワークを保持して、プレスブレーキ等の加工機へと搬送することがある(特許文献1参照)。画像処理装置は、配置場所に配置されているワークをカメラによって撮影した撮影画像に基づいてワークの位置を検出する。
特開2018-120388号公報
ワークの形状を適切に撮影するために、カメラはワークの直上からワークを撮影する必要がある。ところが、カメラがワークの直上に位置していると、クレーンがワークを配置場所に配置したり、ワーク保持用ロボットがワークを搬送したりする際に、ワーク、クレーン、またはワーク保持用ロボットがカメラと干渉することがあるため、カメラを退避させなければならない。そこで、カメラを配置場所の中央の直上から外れてワーク保持用ロボットから離れた位置に配置すれば干渉を回避することができる。
ところが、カメラを配置場所の中央の直上から外れた位置に配置するとワークは斜め方向から撮影されるため、ワークの形状が適切に撮影されない。例えばワークが矩形状であれば、ワークは台形状に撮影されてしまう。撮影されたワークがワークの形状を適切に表していないと配置場所に配置されているワークの位置を正しく認識することができず、ワーク保持用ロボットがワークを保持することができないことがある。そこで、配置場所の中央の直上から外れた位置に配置したカメラによってワークを撮影したワーク撮影画像を適切な形状に補正することが必要である。
本発明は、配置場所の中央の直上から外れた位置に配置したカメラによってワークを撮影したワーク撮影画像の台形状の歪みを補正することができるワーク撮影画像処理装置及びワーク撮影画像処理方法を提供することを目的とする
本発明は、ワークの配置場所の中央の直上から外れた位置に配置されているカメラによって格子模様を撮影した第1の撮影画像に基づいて、前記カメラのレンズによる画像の歪を補正するための第1の変換パラメータを算出する第1の変換パラメータ算出部と、前記カメラによってジグボードを撮影した第2の撮影画像に含まれている前記レンズによる画像の歪を、前記第1の変換パラメータを用いて補正するレンズ歪み補正部と、前記レンズ歪み補正部によって画像の歪が補正された前記第2の撮影画像内の前記ジグボードにおける複数の第1の基準点を抽出し、前記ジグボードにおける現実の前記第1の基準点と、抽出された前記第2の撮影画像内の前記第1の基準点とに基づいて、前記カメラによって撮影されている3次元空間内の2次元的な座標を前記第2の撮影画像内の画素の位置に変換する第2の変換パラメータを算出する第2の変換パラメータ算出部と、前記レンズ歪み補正部によって画像の歪が補正された前記第2の撮影画像内の、前記ジグボードにおける現実の所定の箇所に対応する領域を前記第2の変換パラメータを用いて抽出し、抽出された前記第2の撮影画像内の領域の画像に基づいて複数の第2の基準点を抽出し、前記第1の変換パラメータを用いて前記第2の基準点に前記レンズによる画像の歪を加え、前記ジグボードにおける現実の前記第2の基準点と、前記レンズによる画像の歪が加えられた前記第2の撮影画像内の前記第2の基準点とに基づいて、前記3次元空間内の2次元的な座標を前記第2の撮影画像内の画素の位置に変換する第3の変換パラメータを算出する第3の変換パラメータ算出部と、ワークが配置されている前記配置場所を前記カメラによって撮影した第3の撮影画像が生成されたとき、前記第3の変換パラメータを用いて、前記カメラによって撮影されている3次元空間内の2次元的な座標が前記第3の撮影画像のどの画素に対応するかを特定し、特定された各座標に対応する画素を2次元状に配列させて、前記第3の撮影画像の台形状の歪を補正した第4の撮影画像を生成する台形歪補正部とを備えるワーク撮影画像処理装置を提供する。
本発明は、ワークの配置場所の中央の直上から外れた位置に配置されているカメラによって格子模様を撮影した第1の撮影画像に基づいて、前記カメラのレンズによる画像の歪を補正するための第1の変換パラメータを算出し、前記カメラによってジグボードを撮影した第2の撮影画像に含まれている前記レンズによる画像の歪を、前記第1の変換パラメータを用いて補正し、画像の歪が補正された前記第2の撮影画像内の前記ジグボードにおける複数の第1の基準点を抽出し、前記ジグボードにおける現実の前記第1の基準点と、抽出された前記第2の撮影画像内の前記第1の基準点とに基づいて、前記カメラによって撮影されている3次元空間内の2次元的な座標を前記第2の撮影画像内の画素の位置に変換する第2の変換パラメータを算出し、画像の歪が補正された前記第2の撮影画像内の、前記ジグボードにおける現実の所定の箇所に対応する領域を前記第2の変換パラメータを用いて抽出し、抽出された前記第2の撮影画像内の領域の画像に基づいて複数の第2の基準点を抽出し、前記第1の変換パラメータを用いて前記第2の基準点に前記レンズによる画像の歪を加え、前記ジグボードにおける現実の前記第2の基準点と、前記レンズによる画像の歪が加えられた前記第2の撮影画像内の前記第2の基準点とに基づいて、前記3次元空間内の2次元的な座標を前記第2の撮影画像内の画素の位置に変換する第3の変換パラメータを算出し、ワークが配置されている前記配置場所を前記カメラによって撮影した第3の撮影画像が生成されたとき、前記第3の変換パラメータを用いて、前記カメラによって撮影されている3次元空間内の2次元的な座標が前記第3の撮影画像のどの画素に対応するかを特定し、特定された各座標に対応する画素を2次元状に配列させて、前記第3の撮影画像の台形状の歪を補正した第4の撮影画像を生成するワーク撮影画像処理方法を提供する。
本発明のワーク撮影画像処理装置及びワーク撮影画像処理方法によれば、配置場所の中央の直上から外れた位置に配置したカメラによってワークを撮影したワーク撮影画像の台形状の歪みを補正することができる
配置場所に配置されているワークをワーク保持用ロボットによって保持して加工機へと搬送してワークを加工する加工システムの構成例を示す斜視図である。 一実施形態のワーク撮影画像処理装置を含む加工システムの構成例を示すブロック図である。 一実施形態のワーク撮影画像処理装置の全体的な動作、及び一実施形態のワーク撮影画像処理方法による全体的な処理を示すフローチャートである。 図3のステップS1の具体的な処理を示すフローチャートである。 図3のステップS1で使用されるチェスボードの一例を示す平面図である。 カメラによって図5に示すチェスボードを撮影したチェスボード撮影画像を示す図である。 図3のステップS2の具体的な処理を示すフローチャートである。 図3のステップS2で使用されるキャリブレーション用のジグボードを示す平面図である。 ジグボードを水平方向及び垂直方向に複数回変位させた状態を示す概念図である。 図3のステップS3の具体的な処理を示すフローチャートである。 図3のステップS4の具体的な処理を示すフローチャートである。 ジグボード撮影画像の開口周辺の画像のみを抽出した状態を示す図である。 図3のステップS5の具体的な処理を示すフローチャートである。 ジグボード撮影画像の開口エッジ画像に沿った直線で形成される交点を示す図である。 ジグボードを水平方向及び垂直方向に複数回変位させたときのジグボード撮影画像によって形成される交点の群を示す図である。 図3のステップS6の具体的な処理を示すフローチャートである。 図3のステップS7の具体的な処理を示すフローチャートである。 図3のステップS7で実行される処理を示す概念図である。 一実施形態のワーク撮影画像処理装置を示すブロック図である。
以下、一実施形態のワーク撮影画像処理装置、ワーク撮影画像処理方法、及び加工システムについて、添付図面を参照して説明する。まず、図1及び図2を用いて、配置場所に配置されているワークをワーク保持用ロボットによって保持して加工機へと搬送してワークを加工する加工システムの構成例を説明する。
図1において、配置場所の一例であるパレット20には、ワークWが配置されている。ここでは、パレット20に複数枚のワークWが積載されている。パレット20の両側方には、フレーム21a及び21bが配置されている。フレーム21aは、1つの垂直フレームと垂直フレームの上端部に連結された水平フレームを有する。フレーム21bは、一対の垂直フレームと一対の垂直フレームの上端部に連結された水平フレームを有する。
フレーム21a及び21bの水平フレームの対向する面には、それぞれ照明器具22a及び22bが取り付けられている。照明器具22a及び22bは例えば複数個の発光ダイオード(LED)を有する。照明器具22a及び22bはパレット20に配置されているワークWに照明光を照射する。
フレーム21aには、所定の高さまで延びる垂直フレームと垂直フレームの上端部に連結された水平フレームとよりなるL字状の支柱23が取り付けられている。支柱23(水平フレーム)の先端部にはカメラ30が取り付けられている。カメラ30はいわゆる単眼カメラである。カメラ30は、パレット20の中央の直上よりもワーク保持用ロボット10から離れる方向に外れた位置に配置されて、パレット20及びワークWを撮影する。即ち、カメラ30は、パレット20及びワークWを斜め上方の位置から撮影する。これにより、カメラ30は、ワーク保持用ロボット10がパレット20に配置されているワークWを保持して搬送する動作を妨げることがない。
カメラ30は、パレット20に配置されているワークWを撮影するとき、照明器具22a及び22bによってワークWに照明光を照射するのがよい。ワークWに照明光を照射するとワークWのエッジが明確化され、パターンマッチングによってワークWの位置を検出する際にワークWの位置が検出しやすくなる。
パレット20と加工機の一例であるプレスブレーキ40との間には、多関節のワーク保持用ロボット10が配置されている。ワーク保持用ロボット10は、先端部に、ワークWを吸着するためのグリッパ11を有する。グリッパ11は、複数の吸着パッド12を有する。グリッパ11は最上位の1枚のワークWを吸着して保持し、ワークWを加工するためにプレスブレーキ40に搬送する。
図2に示すように、カメラ30が生成した撮影画像データは画像処理装置300に供給される。画像処理装置300は、本実施形態のワーク撮影画像処理装置として機能する。上記のようにカメラ30はパレット20の中央の直上から外れた位置に配置されていて、ワークWを斜め方向から撮影しているから、ワークWの撮影画像は形状が歪んでいる。画像処理装置300は、後述するように、撮影画像を適切な形状に補正する。画像処理装置300は補正された撮影画像に基づいてワークWの位置を検出し、検出した位置情報をロボット制御装置100に供給する。
ロボット制御装置100は、ワークWの位置情報に基づいてパレット20上のワークWを保持するよう、ワーク保持用ロボット10を制御する。
画像処理装置300及びロボット制御装置100は、コンピュータ機器によって構成することができる。ロボット制御装置100に画像処理装置300の機能を持たせることによって、ロボット制御装置100と画像処理装置300とが一体化されていてもよい。
画像処理装置300は、図3のフローチャートに示す処理を実行して撮影画像を補正する。画像処理装置300は、ステップS1にて、カメラ30のレンズの歪みベクトルを補正する。画像処理装置300は、ステップS2にて、キャリブレーション用のジグボードを撮影し、ステップS3にて、仮キャリブレーションを実行する。画像処理装置300は、ステップS4にて、ジグボードの穴の位置の画像を抽出し、ステップS5にて、ジグボードの穴に沿った直線の交点を求める。画像処理装置300は、ステップS6にて、本キャリブレーションを実行する。後述するように、ステップS1~S6の処理によって、カメラ30によって撮影した台形状の歪みを補正した2次元画像を生成するための変換パラメータが生成される。
パレット20に配置されたワークWの位置を検出するために、カメラ30がパレット20を撮影すると、画像処理装置300は、ステップS7にて、台形状の歪みを補正した2次元画像を生成し、検出したワークWの位置情報をロボット制御装置100に供給する。
以下、ステップS1~S7の処理を具体的に説明する。図4は、ステップS1の具体的な処理を示す。図4において、カメラ30は、ステップS11にて、図5に示すようなチェスボード50を撮影する。チェスボード50は、白の正方形と黒の正方形を直交する2つの方向に交互に並べたものであり、格子模様の一例であるが任意の図形パターンでもよい。カメラ30がチェスボード50を撮影すると、図6に示すようなチェスボード撮影画像50i(第1の撮影画像)が得られる。チェスボード撮影画像50iは画像処理装置300に入力される。画像処理装置300は、ステップS12にて、チェスボード撮影画像50iの格子点を検出する。
カメラ30はステップS11にてチェスボード50を複数回撮影して、複数のチェスボード撮影画像50iを画像処理装置300に供給するのがよい。このとき、カメラ30はチェスボード50を複数の角度で撮影してもよい。チェスボード撮影画像50iが台形状に歪まないようにチェスボード50を撮影してもよいし、チェスボード撮影画像50iが台形状に歪むようにチェスボード50を撮影してもよい。カメラ30がチェスボード50を複数回撮影する場合、画像処理装置300は、各チェスボード撮影画像50iの格子点を検出し、各チェスボード撮影画像50iの格子点を平均して、チェスボード撮影画像50iの格子点を検出する。
図5と図6とを比較すれば明らかなように、チェスボード撮影画像50iはチェスボード50と比較して、カメラ30のレンズの歪曲収差等に起因して歪んでいる。画像処理装置300は、ステップS13にて、レンズによる歪みを補正する第1の変換パラメータを算出する。第1の変換パラメータを算出する式は知られているので、第1の変換パラメータを算出する式の詳細は省略する。
図7は、ステップS2の具体的な処理を示す。図7において、ロボット制御装置100は、ステップS21にて、図8に示すようなジグボード60をワーク保持用ロボット10で吸着する。ロボット制御装置100は、ステップS22にて、ジグボード60をパレット20の上方で水平方向及び垂直方向に複数回変位させ、カメラ30は各位置のジグボード60を撮影する。
ジグボード60は板金によって構成されている。図8に示すように、ジグボード60には、長手方向と平行の複数の溝状の開口61と、幅方向である短手方向と平行の複数の溝状の開口62が形成されている。各開口61の両端部に、開口61と所定の距離だけ離れて2つの開口62が配置されている。開口61の方向と開口62の方向とは直交している。2つの開口62の間で開口61側には、ARマーカ63が設けられている。一例として、板金にARマーカのシールが貼付され、板金がジグボード60にねじ止め等によって固定されることによって、ARマーカ63が設けられている。ARマーカはマーカの一例である。
図9に示すように、ジグボード60の幅は500mmである。一例として、ロボット制御装置100は、カメラ30がジグボード60を撮影したら、ジグボード60を水平方向に300mmだけ変位させる。ロボット制御装置100は、例えばジグボード60を最初に配置させた位置から水平方向に8回変位させるようワーク保持用ロボット10を制御する。ロボット制御装置100は、ジグボード60を図1における照明器具22aと照明器具22bとを結ぶ方向に変位させる。
ロボット制御装置100は、各水平位置で、例えばジグボード60を垂直方向に9回変位させる。カメラ30は、各水平及び垂直位置で、ジグボード60を撮影する。即ち、本実施形態においては、カメラ30は、ジグボード60を水平位置または垂直位置が異なる位置で90回撮影し、各位置のジグボード60の撮影画像データが画像処理装置300に入力される。
ジグボード60を水平方向に変位させる回数は任意であり、場合によってはジグボード60を水平方向に変位させなくてもよい。ジグボード60を水平方向に変位させる方が、また変位させる回数を多くする方が後述する第2及び第3の変換パラメータの精度を向上させることができる。
ジグボード60を垂直方向に変位させるのは、ジグボード60の高さ方向の位置と撮影画像の大きさとの対応関係を検出するためである。高さ方向の位置と大きさとの対応関係が分かれば、パレット20上に複数枚のワークWが積載されているときに、最上位のワークWがどの高さにあるのかを検出することができる。最上位のワークWがどの高さにあるのかが分かれば、ワーク保持用ロボット10がグリッパ11によって最上位のワークWを吸着するときの吸着ミスを少なくことができる。ワークWの高さ方向の位置を検出する必要がない場合には、ジグボード60を垂直方向に変位させなくてもよい。
ところで、ステップS1の処理で用いる図5に示すチェスボード50をジグボード60の裏面に設けてもよい。チェスボード50をジグボード60の裏面に設けている場合には、図4のステップS11の前にジグボード60をワーク保持用ロボット10で吸着してジグボード60を裏返し、カメラ30でジグボード60を撮影すればよい。その後、ジグボード60を表向きにして、図7のステップS22の処理を実行させればよい。
図10は、ステップS3の具体的な処理を示す。図10において、画像処理装置300は、ステップS31にて、ジグボード60の撮影画像に含まれているレンズによる画像の歪みを第1の変換パラメータを用いて補正する。これによって、ジグボード60の撮影画像のレンズに起因する歪みが除去される。画像処理装置300は、ステップS32にて、撮影画像のARマーカ63の位置を検出する。
ロボット制御装置100がワーク保持用ロボット10を制御してジグボード60を変位させた位置は既知である。画像処理装置300は、ステップS33にて、現実のジグボード60のARマーカ63の中心点と撮影画像のARマーカ63の中心点とに基づいて第2の変換パラメータを算出する。第2の変換パラメータは、カメラ30によって撮影されている3次元空間内の2次元的な座標を撮影画像の画素の位置に変換するための変換パラメータである。
ARマーカ63の中心点はジグボード60の第1の基準点の一例である。ARマーカ63以外で第1の基準点を設定してもよい。
図11は、ステップS4の具体的な処理を示す。図11において、画像処理装置300は、最小高さから最大高さまで、ステップS41及びS42の処理を繰り返す。画像処理装置300は、ステップS41にて、各高さのジグボード60の撮影画像を抽出する。画像処理装置300は、ステップS42にて、開口61及び62の周辺の画像のみを抽出する。
図12は、ジグボード60を撮影したジグボード撮影画像60i(第2の撮影画像)を示している。ジグボード撮影画像60iは、開口61及び62それぞれの開口エッジ画像61i及び62iと、ARマーカ63のマーカ画像63iを含む。画像処理装置300は、一点鎖線で囲んでいるように、開口エッジ画像61i及び62iを含むように画像を抽出する。現実のジグボード60内の開口61及び62の位置は既知である。開口61及び62の位置に対応する開口エッジ画像61i及び62iの位置は第2の変換パラメータを用いて得ることができる。よって、画像処理装置300は、開口エッジ画像61i及び62iを含むように画像を抽出することができる。
図13は、ステップS5の具体的な処理を示す。図13において、画像処理装置300は、最小高さから最大高さまで、ステップS51及びS52の処理を繰り返す。画像処理装置300は、ステップS51にて、各高さのジグボード撮影画像60iの開口エッジ画像61i及び62iに沿った直線を設定する。図14に示すように、一例として、画像処理装置300は、開口エッジ画像61iのマーカ画像63iと対向する辺に沿った直線71と、開口エッジ画像62iのマーカ画像63iと対向する辺に沿った直線72とを設定する。直線71と直線72とは直交する。
図14では1つのジグボード撮影画像60iのみを示しているが、図9のように水平方向に変位させた全ての位置のジグボード撮影画像60iにおいて同様に直線71及び72が設定される。2本の直線71は、ジグボード60を水平方向に変位させた各位置のジグボード撮影画像60iにおいて設定される。14本の直線72は、水平方向の各位置のジグボード撮影画像60iで一直線に連結する。
図13に戻り、画像処理装置300は、ステップS52にて、直線71と直線72との交点を抽出する。図14に示す直線71と直線72との交点を黒丸で示している。図15は、最小高さから最大高さまでの全ての水平位置における交点を示している。図13に示す処理によって図15に示す交点の群が得られる。ジグボード60の垂直位置が高いほど、ジグボード撮影画像60iは大きくなる。よって、実際には、図15に示す1つの水平位置の交点の群は、垂直位置が高いほど間隔がわずかに広がった状態となる。
直線71と直線72との交点はジグボード60の第2の基準点の一例である。ジグボード撮影画像60iにさらに多くの直線を設定して、第2の基準点としての交点を増やしてもよい。直線の交点以外で第2の基準点を設定してもよい。
図16は、ステップS6の具体的な処理を示す。図16において、画像処理装置300は、ステップS61にて、ジグボード撮影画像60iの各交点に第1の変換パラメータによって歪みベクトルを加える。これによって、図15に示す交点の群は、カメラ30のレンズの歪みベクトルが加えられた状態に変換される。画像処理装置300は、ステップS62にて、ジグボード60の現実の交点の位置と歪みベクトルを加えたジグボード撮影画像60iの交点の位置とに基づいて第3の変換パラメータを算出する。第3の変換パラメータは、カメラ30によって撮影されている3次元空間内の2次元的な座標を撮影画像の画素の位置に変換するための変換パラメータである。第3の変換パラメータは第2の変換パラメータよりも精度が向上している。
図17は、ステップS7の具体的な処理を示す。パレット20に配置されたワークWの位置を検出するために、カメラ30が、ワークWが配置されているパレット20を撮影する。カメラ30が生成した撮影画像データ(第3の撮影画像)は画像処理装置300に供給される。
図17において、画像処理装置300は、ステップS71にて、第3の変換パラメータを用いて、2次元的な座標に対応する撮影画像上の画素の位置を特定し、特定された位置の画素を画像メモリ内に2次元状に配列させる。これによって、台形状の歪みが補正された補正撮影画像(第4の撮影画像)が生成される。画像処理装置300は、ステップS72にて、補正撮影画像に基づいてワークWの位置を検出し、ワークWの位置情報をロボット制御装置100に供給する。
図18は、ステップS7で実行される処理を概念的に示している。図18において、(a)は複数枚のワークWが積載されているパレット20をカメラ30で撮影した3次元空間を示している。図示のように座標X,Y,Zが定義されている。図18において、(b)はカメラ30による台形状の歪みを含む撮影画像である。3次元空間内の2次元的な座標X,Yが(0,0)の位置がパレット20の角であるとする。第3の変換パラメータによって、(a)の座標X,Y=(0,0)に対応する(b)の撮影画像上の画素の位置が特定される。(b)の撮影画像上の特定された位置の画素が(c)に示すように2次元状に配列される。
画像処理装置300は、座標Y=0で座標Xを順に増加させてXの最大値まで各座標に対応する撮影画像上の画素の位置を特定して、特定された位置の画素を2次元状に配列する。画像処理装置300は、座標Y=1以降も同様の動作を繰り返す。このとき、画像処理装置300は、画素を補間して2次元状に配列することがある。すると、図18の(b)に示す歪んだ撮影画像は、(c)に示すような台形状の歪みが除去された2次元画像に変換される。
画像処理装置300を図19に示すように構成することによって、図3に示す処理が実行できる。画像処理装置300は、中央処理装置(CPU)310と、画像メモリ320とを備える。CPU310は、機能的な構成として、第1の変換パラメータ算出部311、レンズ歪み補正部312、第2の変換パラメータ算出部313、第3の変換パラメータ算出部314、台形歪補正部315を備える。
カメラ30がチェスボード50のような格子模様を撮影すると、画像メモリ320には、チェスボード撮影画像50i(第1の撮影画像)が記憶される。第1の変換パラメータ算出部311は、チェスボード撮影画像50iに基づいて、カメラ30のレンズによる画像の歪を補正するための第1の変換パラメータを算出する。第1の変換パラメータは、レンズ歪み補正部312及び第3の変換パラメータ算出部314に供給される。
カメラ30がジグボード60を撮影すると、画像メモリ320には、ジグボード撮影画像60i(第2の撮影画像)が記憶される。レンズ歪み補正部312は、ジグボード撮影画像60iに含まれているレンズによる画像の歪を、第1の変換パラメータを用いて補正する。
第2の変換パラメータ算出部313は、画像の歪が補正されたジグボード撮影画像60i内のジグボード60における複数の第1の基準点を抽出する。第1の基準点は一例としてARマーカ63の中心点である。第2の変換パラメータ算出部313は、ジグボード60における現実の第1の基準点と、抽出されたジグボード撮影画像60i内の第1の基準点とに基づいて、第2の変換パラメータを算出する。第2の変換パラメータは、カメラ30によって撮影されている3次元空間内の2次元的な座標をジグボード撮影画像60i内の画素の位置に変換するための変換パラメータである。
第3の変換パラメータ算出部314は、画像の歪が補正されたジグボード撮影画像60i内の、ジグボード60における現実の所定の箇所に対応する領域を第2の変換パラメータを用いて抽出する。所定の箇所は一例として開口61及び62である。第3の変換パラメータ算出部314は、抽出されたジグボード撮影画像60i内の領域の画像に基づいて複数の第2の基準点を抽出する。第2の基準点は一例として開口61及び62に沿った直線の交点である。
第3の変換パラメータ算出部314は、第1の変換パラメータを用いて第2の基準点にレンズによる画像の歪を加える。第3の変換パラメータ算出部314は、ジグボード60における現実の第2の基準点と、レンズによる画像の歪が加えられたジグボード撮影画像60i内の第2の基準点とに基づいて、第3の変換パラメータを算出する。第3の変換パラメータは、2次元的な座標をジグボード撮影画像60i内の画素の位置に変換するための変換パラメータである。第3の変換パラメータは画像メモリ320に記憶される。
ワークWが配置されているパレット20がカメラ30によって撮影されると、画像メモリ320には第3の撮影画像が記憶される。台形歪補正部315は、第3の変換パラメータを用いて、カメラ30によって撮影されている3次元空間内の2次元的な座標が第3の撮影画像のどの画素に対応するかを特定する。台形歪補正部315は、特定された各座標に対応する画素を2次元状に配列させて、第3の撮影画像の台形状の歪を補正した第4の撮影画像を生成して、画像メモリ320に記憶させる。
CPU310は、第4の撮影画像に基づいてワークWの位置を検出するので、パレット20に配置されているワークWの位置を正しく認識することができる。パレット20に配置されているワークWの位置を正しく認識されるので、ワーク保持用ロボット10は、ロボット制御装置100による制御によって、ワークWを正確に保持することができる。
本発明は以上説明した本実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々変更可能である。CPU310がコンピュータプログラムを実行することによって、図18に示すように台形状の歪を補正する画像処理装置300が構成されていてもよい。画像処理装置300は集積回路等のハードウェアで構成されていてもよくコンピュータプログラムを含むソフトウェアで構成されていてもよく、両者が混在していてもよい。ソフトウェアとハードウェアとの使い分けは任意である。
10 ワーク保持用ロボット
11 グリッパ
12 吸着パッド
20 パレット(配置場所)
30 カメラ
40 プレスブレーキ(加工機)
50 チェスボード(格子模様)
60 ジグボード
100 ロボット制御装置
300 画像処理装置(ワーク撮影画像処理装置)
310 中央処理装置
311 第1の変換パラメータ算出部
312 レンズ歪み補正部
313 第2の変換パラメータ算出部
314 第3の変換パラメータ算出部
315 台形歪補正部
320 画像メモリ
W ワーク

Claims (6)

  1. ワークの配置場所の中央の直上から外れた位置に配置されているカメラによって格子模様を撮影した第1の撮影画像に基づいて、前記カメラのレンズによる画像の歪を補正するための第1の変換パラメータを算出する第1の変換パラメータ算出部と、
    前記カメラによってジグボードを撮影した第2の撮影画像に含まれている前記レンズによる画像の歪を、前記第1の変換パラメータを用いて補正するレンズ歪み補正部と、
    前記レンズ歪み補正部によって画像の歪が補正された前記第2の撮影画像内の前記ジグボードにおける複数の第1の基準点を抽出し、前記ジグボードにおける現実の前記第1の基準点と、抽出された前記第2の撮影画像内の前記第1の基準点とに基づいて、前記カメラによって撮影されている3次元空間内の2次元的な座標を前記第2の撮影画像内の画素の位置に変換する第2の変換パラメータを算出する第2の変換パラメータ算出部と、
    前記レンズ歪み補正部によって画像の歪が補正された前記第2の撮影画像内の、前記ジグボードにおける現実の所定の箇所に対応する領域を前記第2の変換パラメータを用いて抽出し、抽出された前記第2の撮影画像内の領域の画像に基づいて複数の第2の基準点を抽出し、前記第1の変換パラメータを用いて前記第2の基準点に前記レンズによる画像の歪を加え、前記ジグボードにおける現実の前記第2の基準点と、前記レンズによる画像の歪が加えられた前記第2の撮影画像内の前記第2の基準点とに基づいて、前記3次元空間内の2次元的な座標を前記第2の撮影画像内の画素の位置に変換する第3の変換パラメータを算出する第3の変換パラメータ算出部と、
    ワークが配置されている前記配置場所を前記カメラによって撮影した第3の撮影画像が生成されたとき、前記第3の変換パラメータを用いて、前記カメラによって撮影されている3次元空間内の2次元的な座標が前記第3の撮影画像のどの画素に対応するかを特定し、特定された各座標に対応する画素を2次元状に配列させて、前記第3の撮影画像の台形状の歪を補正した第4の撮影画像を生成する台形歪補正部と、
    を備えるワーク撮影画像処理装置。
  2. 前記ジグボードには複数のマーカが設けられており、
    前記第2の変換パラメータ算出部は、前記マーカの中心点を前記第1の基準点として抽出する
    請求項1に記載のワーク撮影画像処理装置。
  3. 前記ジグボードには複数の開口が形成されており、
    前記第2の撮影画像は、前記開口に対応した開口エッジ画像を含み、
    前記第3の変換パラメータ算出部は、
    画像の歪が補正された前記第2の撮影画像内の前記開口エッジ画像を含む領域を抽出し、
    前記開口エッジ画像に沿った直線の交点を前記第2の基準点として抽出する
    請求項1または2に記載のワーク撮影画像処理装置。
  4. ワークの配置場所の中央の直上から外れた位置に配置されているカメラによって格子模様を撮影した第1の撮影画像に基づいて、前記カメラのレンズによる画像の歪を補正するための第1の変換パラメータを算出し、
    前記カメラによってジグボードを撮影した第2の撮影画像に含まれている前記レンズによる画像の歪を、前記第1の変換パラメータを用いて補正し、
    画像の歪が補正された前記第2の撮影画像内の前記ジグボードにおける複数の第1の基準点を抽出し、
    前記ジグボードにおける現実の前記第1の基準点と、抽出された前記第2の撮影画像内の前記第1の基準点とに基づいて、前記カメラによって撮影されている3次元空間内の2次元的な座標を前記第2の撮影画像内の画素の位置に変換する第2の変換パラメータを算出し、
    画像の歪が補正された前記第2の撮影画像内の、前記ジグボードにおける現実の所定の箇所に対応する領域を前記第2の変換パラメータを用いて抽出し、
    抽出された前記第2の撮影画像内の領域の画像に基づいて複数の第2の基準点を抽出し、
    前記第1の変換パラメータを用いて前記第2の基準点に前記レンズによる画像の歪を加え、
    前記ジグボードにおける現実の前記第2の基準点と、前記レンズによる画像の歪が加えられた前記第2の撮影画像内の前記第2の基準点とに基づいて、前記3次元空間内の2次元的な座標を前記第2の撮影画像内の画素の位置に変換する第3の変換パラメータを算出し、
    ワークが配置されている前記配置場所を前記カメラによって撮影した第3の撮影画像が生成されたとき、前記第3の変換パラメータを用いて、前記カメラによって撮影されている3次元空間内の2次元的な座標が前記第3の撮影画像のどの画素に対応するかを特定し、特定された各座標に対応する画素を2次元状に配列させて、前記第3の撮影画像の台形状の歪を補正した第4の撮影画像を生成する
    ワーク撮影画像処理方法。
  5. 前記ジグボードには複数のマーカが設けられており、
    前記マーカの中心点を前記第1の基準点として抽出する
    請求項4に記載のワーク撮影画像処理方法。
  6. 前記ジグボードには複数の開口が形成されており、
    前記第2の撮影画像は、前記開口に対応した開口エッジ画像を含み、
    画像の歪が補正された前記第2の撮影画像内の前記開口エッジ画像を含む領域を抽出し、
    前記開口エッジ画像に沿った直線の交点を前記第2の基準点として抽出する
    請求項4または5に記載のワーク撮影画像処理方法。
JP2019191675A 2019-10-21 2019-10-21 ワーク撮影画像処理装置及びワーク撮影画像処理方法 Active JP7269864B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2019191675A JP7269864B2 (ja) 2019-10-21 2019-10-21 ワーク撮影画像処理装置及びワーク撮影画像処理方法
EP20879458.6A EP4049805B1 (en) 2019-10-21 2020-10-14 Workpiece photograph image processing device, workpiece photograph image processing method
US17/769,729 US20220414843A1 (en) 2019-10-21 2020-10-14 Workpiece photographed image processing device, workpiece photographed image processing method, and processing system
PCT/JP2020/038767 WO2021079802A1 (ja) 2019-10-21 2020-10-14 ワーク撮影画像処理装置、ワーク撮影画像処理方法、及び加工システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019191675A JP7269864B2 (ja) 2019-10-21 2019-10-21 ワーク撮影画像処理装置及びワーク撮影画像処理方法

Publications (2)

Publication Number Publication Date
JP2021065950A JP2021065950A (ja) 2021-04-30
JP7269864B2 true JP7269864B2 (ja) 2023-05-09

Family

ID=75620570

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019191675A Active JP7269864B2 (ja) 2019-10-21 2019-10-21 ワーク撮影画像処理装置及びワーク撮影画像処理方法

Country Status (4)

Country Link
US (1) US20220414843A1 (ja)
EP (1) EP4049805B1 (ja)
JP (1) JP7269864B2 (ja)
WO (1) WO2021079802A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021183349A (ja) * 2020-05-22 2021-12-02 株式会社アマダ 曲げ加工システム及びその使用方法
JP7185958B1 (ja) 2021-12-24 2022-12-08 ユーピーアール株式会社 パレット検出装置およびパレット検出方法
JP7218018B1 (ja) 2021-12-24 2023-02-06 ユーピーアール株式会社 パレット検出装置およびパレット検出方法
CN114893669B (zh) * 2022-05-26 2024-03-26 江苏省建筑工程集团有限公司 一种应用于塔机附着装置安装的监测装置及监测方法
EP4357041A1 (de) 2022-10-21 2024-04-24 Bystronic Laser AG Vorrichtung und verfahren zum automatisierten biegen von werkstücken
CN116071361B (zh) * 2023-03-20 2023-07-04 深圳思谋信息科技有限公司 针对工件的视觉定位方法、装置、计算机设备和存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015035685A (ja) 2013-08-08 2015-02-19 パナソニックIpマネジメント株式会社 画像処理装置およびマーカ
JP2018120388A (ja) 2017-01-25 2018-08-02 株式会社アマダホールディングス ワーク検出装置及び方法
WO2019049331A1 (ja) 2017-09-08 2019-03-14 株式会社ソニー・インタラクティブエンタテインメント キャリブレーション装置、キャリブレーションシステム、およびキャリブレーション方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7352913B2 (en) * 2001-06-12 2008-04-01 Silicon Optix Inc. System and method for correcting multiple axis displacement distortion
KR100812997B1 (ko) * 2007-03-07 2008-03-13 삼성전기주식회사 키스톤 보정 방법 및 디스플레이 장치
JP5365218B2 (ja) * 2009-01-28 2013-12-11 富士電機株式会社 ロボットビジョンシステムおよび自動キャリブレーション方法
US9213446B2 (en) * 2009-04-16 2015-12-15 Nec Corporation Handwriting input device
WO2014134552A1 (en) * 2013-02-28 2014-09-04 Day Neil M Method and apparatus for particle size determination
JP2015157342A (ja) * 2014-02-25 2015-09-03 セイコーエプソン株式会社 ロボット、ロボットシステム、制御装置および制御方法
JP6855491B2 (ja) * 2016-09-02 2021-04-07 倉敷紡績株式会社 ロボットシステム、ロボットシステム制御装置、およびロボットシステム制御方法
JP2019191675A (ja) 2018-04-19 2019-10-31 セイコーエプソン株式会社 透過型頭部装着型表示装置、支援システム、表示制御方法、およびコンピュータープログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015035685A (ja) 2013-08-08 2015-02-19 パナソニックIpマネジメント株式会社 画像処理装置およびマーカ
JP2018120388A (ja) 2017-01-25 2018-08-02 株式会社アマダホールディングス ワーク検出装置及び方法
WO2019049331A1 (ja) 2017-09-08 2019-03-14 株式会社ソニー・インタラクティブエンタテインメント キャリブレーション装置、キャリブレーションシステム、およびキャリブレーション方法

Also Published As

Publication number Publication date
JP2021065950A (ja) 2021-04-30
EP4049805A1 (en) 2022-08-31
EP4049805A4 (en) 2023-03-15
WO2021079802A1 (ja) 2021-04-29
US20220414843A1 (en) 2022-12-29
EP4049805B1 (en) 2023-12-20

Similar Documents

Publication Publication Date Title
JP7269864B2 (ja) ワーク撮影画像処理装置及びワーク撮影画像処理方法
TWI708215B (zh) 用以於環境中校正視覺系統的方法和系統
CN109767474B (zh) 一种多目相机标定方法、装置及存储介质
US8773530B2 (en) Up-look camera based vision apparatus to auto align pick-and-place positions for device handlers
US8886350B2 (en) Displacement calculation method, drawing data correction method, substrate manufacturing method, and drawing apparatus
JP7189988B2 (ja) ビジョンシステムの3次元校正のためのシステム及び方法
WO2017205102A1 (en) Imaging system comprising real-time image registration
US11126844B2 (en) Control apparatus, robot system, and method of detecting object
TWI547973B (zh) 描繪方法以及描繪裝置
US20190287258A1 (en) Control Apparatus, Robot System, And Method Of Detecting Object
JP5545737B2 (ja) 部品実装機及び画像処理方法
JP6582405B2 (ja) 組立装置、ロボットハンド位置修正方法、およびロボットハンド位置修正プログラム
US7614031B2 (en) Drawing apparatus with drawing data correction function
WO2016075790A1 (ja) 装着機及び装着機を用いた電子部品の吸着姿勢検査方法
JPWO2020003384A1 (ja) 平坦度取得システムおよび実装機
CN108520538B (zh) 一种粘合方法、***、设备和装置
JP2008124336A (ja) 半導体チップの外形認識方法および位置補正方法
JP4986814B2 (ja) マッピングテーブル生成兼検証用物品
JP2011181675A (ja) 回路部品の実装装置
JP2021141270A (ja) ダイボンディング装置および半導体装置の製造方法
JP5423520B2 (ja) 位置計測システム、位置計測装置及び位置計測プログラム
JP6680542B2 (ja) データ処理装置、実装装置、基板検査装置、データ処理方法及びプログラム
CN116896856A (zh) 安装机以及基板高度测量方法
TWI577493B (zh) 校正方法與應用此方法的自動化設備
JP2006080468A (ja) 部品実装位置補正方法及び部品実装装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220421

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230303

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230328

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230424

R150 Certificate of patent or registration of utility model

Ref document number: 7269864

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150