JP2024005094A - ロボット教示装置、外観検査システムおよびロボット教示方法 - Google Patents
ロボット教示装置、外観検査システムおよびロボット教示方法 Download PDFInfo
- Publication number
- JP2024005094A JP2024005094A JP2022105109A JP2022105109A JP2024005094A JP 2024005094 A JP2024005094 A JP 2024005094A JP 2022105109 A JP2022105109 A JP 2022105109A JP 2022105109 A JP2022105109 A JP 2022105109A JP 2024005094 A JP2024005094 A JP 2024005094A
- Authority
- JP
- Japan
- Prior art keywords
- workpiece
- unit
- robot
- illumination
- reflection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000007689 inspection Methods 0.000 title claims abstract description 87
- 238000000034 method Methods 0.000 title claims description 13
- 238000005286 illumination Methods 0.000 claims abstract description 201
- 238000003384 imaging method Methods 0.000 claims abstract description 119
- 238000004088 simulation Methods 0.000 claims abstract description 36
- 238000011179 visual inspection Methods 0.000 claims description 35
- 238000010586 diagram Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 4
- 230000005856 abnormality Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000010521 absorption reaction Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N21/00—Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
- G01N21/84—Systems specially adapted for particular applications
- G01N21/88—Investigating the presence of flaws or contamination
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B19/00—Programme-control systems
- G05B19/02—Programme-control systems electric
- G05B19/42—Recording and playback systems, i.e. in which the programme is recorded from a cycle of operations, e.g. the cycle of operations being manually controlled, after which this record is played back on the same machine
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Biochemistry (AREA)
- Immunology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Chemical & Material Sciences (AREA)
- Analytical Chemistry (AREA)
- Automation & Control Theory (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Pathology (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Numerical Control (AREA)
- Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
- Manipulator (AREA)
Abstract
【課題】ワークの外観の検査漏れがないかまたは少ないロボットの動作の教示を容易に行うことが可能なロボット教示装置を提供する。
【解決手段】このロボット教示装置1は、ワークWを撮像する撮像部2と、ワークWに照明光を照射する照明部3と、撮像部2および照明部3を移動させてワークWの外観検査を行うロボット4と、を備える外観検査システム100のためのロボット教示装置1であって、表示部11と、表示部11上でロボット4の動作の教示を行う場合に、ワークWにおける照明光の反射の状態をシミュレーションにより取得し、取得した照明光の反射の状態に関する画像を表示部11に表示させる処理部13と、を備える。
【選択図】図1
【解決手段】このロボット教示装置1は、ワークWを撮像する撮像部2と、ワークWに照明光を照射する照明部3と、撮像部2および照明部3を移動させてワークWの外観検査を行うロボット4と、を備える外観検査システム100のためのロボット教示装置1であって、表示部11と、表示部11上でロボット4の動作の教示を行う場合に、ワークWにおける照明光の反射の状態をシミュレーションにより取得し、取得した照明光の反射の状態に関する画像を表示部11に表示させる処理部13と、を備える。
【選択図】図1
Description
この開示は、ロボット教示装置、外観検査システムおよびロボット教示方法に関する。
従来、教示装置が知られている(たとえば、特許文献1参照)。
上記特許文献1には、ビジョンセンサ用のオフライン教示装置が開示されている。このオフライン教示装置は、ワーク、ワークに対して作業を行うロボットおよびワークの計測を行うビジョンセンサの形状および寸法を記憶する記憶装置と、記憶装置に記憶されたデータに基づいて、ワーク、ロボットおよびビジョンセンサの画像を表示するディスプレイとを備える。このオフライン教示装置は、ディスプレイ上でワーク、ロボットおよびビジョンセンサを配置してビジョンセンサの教示および調整をオフラインで行うことが可能なように構成されている。具体的には、このオフライン教示装置は、ディスプレイ上でカメラを配置して、配置したカメラでワークの計測部位を撮像して、撮像した計測部位のカメラ画像を生成するように構成されている。
しかしながら、上記特許文献1に記載されたオフライン教示装置の技術は、ビジョンセンサの教示をオフラインで行う技術であるため、ロボットにより撮像部またはワークを移動させてワークの外観を検査する外観検査システムにおいて、ロボットの動作の教示をオフラインで行う用途に適用することが困難である。ここで、このような外観検査システムでは、ロボットの動作の教示をオフラインで行う段階では、撮像部により撮像された画像に基づいてワークのどの部分が検査されているかが精度よく分からないため、ワークの外観の検査漏れが発生するという不都合がある。このため、ワークの外観の検査漏れがないかまたは少ないロボットの動作の教示を行うことが困難であるという問題点がある。
この開示は、上記のような課題を解決するためになされたものであり、ワークの外観の検査漏れがないかまたは少ないロボットの動作の教示を容易に行うことが可能なロボット教示装置、外観検査システムおよびロボット教示方法を提供することである。
この開示の第1の局面によるロボット教示装置は、ワークを撮像する撮像部と、ワークに照明光を照射する照明部と、撮像部および照明部、または、ワークを移動させてワークの外観検査を行うロボットと、を備える外観検査システムのためのロボット教示装置であって、表示部と、表示部上でロボットの動作の教示を行う場合に、ワークにおける照明光の反射の状態をシミュレーションにより取得し、取得した照明光の反射の状態に関する画像を表示部に表示させる処理部と、を備える。
この開示の第1の局面によるロボット教示装置では、上記のように、表示部上でロボットの動作の教示を行う場合に、ワークにおける照明光の反射の状態に関する画像をシミュレーションにより取得し、取得した照明光の反射の状態を表示部に表示させる処理部を設ける。ここで、ワークの外観検査を行う場合には、撮像部により撮像された画像の全範囲がワークの外観検査に寄与するわけではなく、撮像部により撮像された画像のうち、照明光の反射量が大きく輝度が大きい高輝度部の範囲がワークの外観検査に寄与する。このため、高輝度部を把握すれば、ワークのどの部分が検査されているかが精度よく分かるので、ワークの外観の検査漏れがないかまたは少ないロボットの動作の教示を行うことが可能である。そこで、上記のように、照明光の反射の状態に関する画像を表示部に表示させることにより、表示部に表示された照明光の反射の状態に関する画像に基づいて、実際にワークの外観検査に寄与する高輝度部を容易に把握することができるので、ワークの外観の検査漏れがないかまたは少ないロボットの動作の教示を容易に行うことができる。
この開示の第2の局面による外観検査システムは、ワークを撮像する撮像部と、ワークに照明光を照射する照明部と、撮像部および照明部、または、ワークを移動させてワークの外観検査を行うロボットと、ロボット教示装置と、を備え、ロボット教示装置は、表示部と、表示部上でロボットの動作の教示を行う場合に、ワークにおける照明光の反射の状態をシミュレーションにより取得し、取得した照明光の反射の状態に関する画像を表示部に表示させる処理部と、を含む。
この開示の第2の局面による外観検査システムでは、上記のように、表示部上でロボットの動作の教示を行う場合に、ワークにおける照明光の反射の状態をシミュレーションにより取得し、取得した照明光の反射の状態に関する画像を表示部に表示させる処理部を設ける。これにより、表示部に表示された照明光の反射の状態に関する画像に基づいて、実際にワークの外観検査に寄与する高輝度部を容易に把握することができるので、ワークの外観の検査漏れがないかまたは少ないロボットの動作の教示を容易に行うことが可能な外観検査システムを提供することができる。
この開示の第3の局面によるロボット教示方法は、ワークを撮像する撮像部と、ワークに照明光を照射する照明部と、撮像部および照明部、または、ワークを移動させてワークの外観検査を行うロボットと、を備える外観検査システムのためのロボット教示方法であって、表示部上でロボットの動作の教示を行う場合に、ワークにおける照明光の反射の状態をシミュレーションにより取得することと、取得した照明光の反射の状態に関する画像を表示部に表示させることと、を備える。
この開示の第3の局面によるロボット教示方法では、上記のように、表示部上でロボットの動作の教示を行う場合に、ワークにおける照明光の反射の状態をシミュレーションにより取得することと、取得した照明光の反射の状態に関する画像を表示部に表示させることとを設ける。これにより、表示部に表示された照明光の反射の状態に関する画像に基づいて、実際にワークの外観検査に寄与する高輝度部を容易に把握することができるので、ワークの外観の検査漏れがないかまたは少ないロボットの動作の教示を容易に行うことが可能なロボット教示方法を提供することができる。
本開示によれば、上記のように、ワークの外観の検査漏れがないかまたは少ないロボットの動作の教示を容易に行うことができる。
以下、本開示を具体化した実施形態を図面に基づいて説明する。
(外観検査システムの構成)
図1から図8を参照して、一実施形態による外観検査システム100の構成について説明する。図1に示すように、外観検査システム100は、検査対象のワークWの外観を検査するためのシステムである。本実施形態では、ワークWは、曲面を有する。外観検査システム100は、ロボット教示装置1と、撮像部2と、照明部3と、ロボット4とを備える。
図1から図8を参照して、一実施形態による外観検査システム100の構成について説明する。図1に示すように、外観検査システム100は、検査対象のワークWの外観を検査するためのシステムである。本実施形態では、ワークWは、曲面を有する。外観検査システム100は、ロボット教示装置1と、撮像部2と、照明部3と、ロボット4とを備える。
ロボット教示装置1は、ワークWの外観検査を行うためのロボット4の動作の教示をオフラインで行うための装置である。ロボット教示装置1は、実機を用いずにシミュレーションにより表示画面上でロボット4の動作の教示を行うオフライン教示を行う。ロボット教示装置1は、たとえば、パーソナルコンピュータである。ロボット教示装置1は、表示部11と、操作部12と、処理部13と、記憶部14とを含む。表示部11は、液晶モニタなどのモニタを含み、画面を表示する。操作部12は、マウスおよびキーボードなどの入力装置を含み、ユーザの入力操作を受け付ける。処理部13は、プロセッサを含み、ロボット教示装置1における各種の処理を行う。記憶部14は、不揮発性メモリを含み、シミュレーションに用いられる撮像部2のモデルM1、照明部3のモデルM2、ロボット4のモデルM3およびワークWのモデルM4などを記憶する。なお、ロボット教示装置1によるオフライン教示の詳細な構成については、後述する。
撮像部2と、照明部3と、ロボット4とは、ロボット教示装置1によるロボット4の動作の教示結果に基づいて、実際にワークWの外観検査を行う装置である。撮像部2は、ワークWを撮像するカメラである。照明部3は、ワークWに照明光を照射する。ロボット4は、撮像部2および照明部3を移動させてワークWの外観検査を行う。ロボット4は、垂直多関節ロボットであり、アーム部41を含む。アーム部41は、複数の関節を有する。また、アーム部41は、撮像部2および照明部3を先端において一体的に保持する。ロボット4は、アーム部41の複数の関節を駆動することにより、ワークWに対して撮像部2および照明部3を移動させる。
ワークWの外観検査では、照明部3によりワークWに照明光が照射されながら、撮像部2によりワークWの表面が撮像される。また、ロボット4により撮像部2および照明部3がワークWに対して移動されながら、撮像部2によりワークWの表面が撮像される。異物、傷および凹みなどのワークWの表面の異常は、ワークWの表面のどこに存在するか分からないため、基本的には、ワークWの表面の全体が網羅されるようにワークWが複数回に分けて撮像される。そして、撮像部2によるワークWの撮像結果に基づいて、ワークWの表面に異物、傷および凹みなどの異常が存在するか否かが検査される。
(オフライン教示)
処理部13は、記憶部14に記憶された撮像部2のモデルM1、照明部3のモデルM2、ロボット4のモデルM3およびワークWのモデルM4に基づいて、シミュレーションによるオフライン教示を行う。処理部13は、撮像部2、照明部3、ロボット4およびワークWの少なくとも1つを表示部11に表示させて、シミュレーションによるオフライン教示を行う。オフライン教示では、処理部13は、図2に示すように、操作部12を用いたユーザの入力操作に基づいて、ロボット4の動作の教示点Pおよび教示点Pにより規定される移動経路PAとを表示部11に表示させる。
処理部13は、記憶部14に記憶された撮像部2のモデルM1、照明部3のモデルM2、ロボット4のモデルM3およびワークWのモデルM4に基づいて、シミュレーションによるオフライン教示を行う。処理部13は、撮像部2、照明部3、ロボット4およびワークWの少なくとも1つを表示部11に表示させて、シミュレーションによるオフライン教示を行う。オフライン教示では、処理部13は、図2に示すように、操作部12を用いたユーザの入力操作に基づいて、ロボット4の動作の教示点Pおよび教示点Pにより規定される移動経路PAとを表示部11に表示させる。
また、本実施形態では、処理部13は、ワークWの曲面に略直交してワークWの曲面に沿ったロボット4による移動経路PAを取得し、取得した移動経路PAを表示部11に表示させる。具体的には、処理部13は、表示部11に表示されたワークWの表面に対してユーザによりラインLが入力された場合、ラインLが通る箇所のワークWの表面に略直交する法線ベクトルVを作成する。法線ベクトルVの先端が教示点Pである。これにより、処理部13は、ワークWの曲面に略直交してワークWの曲面に沿った複数の教示点Pを取得する。また、処理部13は、取得した複数の教示点Pに基づいて、ワークWの曲面に略直交してワークWの曲面に沿った移動経路PAを取得する。なお、図2では、1つの移動経路PAのみを図示している。
ここで、本実施形態では、図3~図7に示すように、処理部13は、表示部11上でロボット4の動作の教示を行う場合に、ワークWにおける照明光の反射の状態をシミュレーションにより取得し、取得した照明光の反射の状態に関する画像を表示部11に表示させる。図3に示すように、たとえば、処理部13は、表示部11に表示されたワークW上に照明光の反射の状態を表す画像を表示させる。また、たとえば、処理部13は、ロボット4による撮像部2および照明部3の移動に応じて、表示部11に表示されたワークW上の照明光の反射の状態を表す画像を変化させる。
また、本実施形態では、図4および図5に示すように、処理部13は、照明光の反射の状態として、撮像部2によるワークWの撮像画像IMへの照明部3の映り込みの状態を取得し、取得した照明部3の映り込みの状態を含むワークWの撮像画像IMを表示部11に表示させる。なお、撮像画像IMは、照明光の反射の状態に関する画像の一例である。
具体的には、図4に示すように、処理部13は、ロボット4が所定の姿勢の場合の照明部3の映り込みの状態を含むワークWの撮像画像IMを表示部11に表示させる。すなわち、処理部13は、所定の教示点Pでの照明部3の映り込みの状態を含むワークWの撮像画像IMを表示部11に表示させる。なお、処理部13は、どの教示点Pでも、照明部3の映り込みの状態を含むワークWの撮像画像IMを表示部11に表示させることが可能である。処理部13は、操作部12を用いたユーザの入力操作に基づいて、この撮像画像IMを表示させる。この撮像画像IMは、照明光の反射量が大きく輝度が大きい高輝度部HBを含む。高輝度部HBは、撮像画像IMに照明部3が映り込んだ部分ともいえる。
ここで、ワークWの表面に異物、傷および凹みなどの異常が存在する場合には、高輝度部HBに歪みなどの変化が発生する。このため、外観検査システム100では、撮像部2により撮像された画像のうち、照明光の反射量が大きく輝度が大きい高輝度部HBの変化に基づいて、ワークWの外観が検査される。すなわち、ワークWの外観検査を行う場合には、撮像部2により撮像された画像の全範囲がワークWの外観検査に寄与するわけではなく、撮像部2により撮像された画像のうち、照明光の反射量が大きく輝度が大きい高輝度部HBの範囲がワークWの外観検査に寄与する。
また、本実施形態では、図5に示すように、処理部13は、撮像部2および照明部3を移動経路PAに沿ってロボット4により移動させた場合の照明部3の映り込みの状態を含むワークWの撮像画像IMを表示部11に表示させる。具体的には、処理部13は、撮像部2および照明部3を移動経路PAに沿ってロボット4により移動させながら、撮像部2によりワークWをスキャン撮像させた場合の照明部3の映り込みの状態を含むワークWの撮像画像IMを表示部11に表示させる。なお、処理部13は、どの移動経路PAでも、照明部3の映り込みの状態を含むワークWの撮像画像IMを表示部11に表示させることが可能である。処理部13は、操作部12を用いたユーザの入力操作に基づいて、この撮像画像IMを表示させる。この撮像画像IMは、移動経路PAに対応する帯状の高輝度部HBを含む。高輝度部HBの幅は、ワークWの曲面の変化に対応して変化している。具体的には、ワークWの曲面の曲率が大きい部分では、高輝度部HBの幅が小さくなり、ワークWの曲面の曲率が小さい部分では、高輝度部HBの幅が大きくなっている。なお、この撮像画像IMは、実際にロボット4により検査動作を行った場合の画像に対応する。すなわち、実際にワークWの外観検査を行う場合には、帯状の高輝度部HBに基づいて、ワークWの外観が検査される。
また、本実施形態では、図6~図8に示すように、処理部13は、照明光の反射の状態として、撮像部2によるワークWの撮像画像IMへの照明部3の映り込みの状態を取得し、取得した照明部3の映り込みの状態に基づいて、ワークWを検査することが可能な検査領域ARを取得し、取得した検査領域ARを表示部11に表示されたワークW上に重畳して表示させる。この際、処理部13は、撮像部2の視野内でかつ撮像部2から見た照明部3の映り込みの状態が適切であった領域、すなわち、高輝度部HBに対応する領域を、検査領域ARとして取得する。また、処理部13は、ワークWとは異なる色で、取得した検査領域ARを表示部11に表示されたワークW上に重畳して表示させる。すなわち、処理部13は、取得した検査領域ARを表示部11に表示されたワークW上にカラーマッピングする。これにより、検査領域ARを容易に視認することが可能である。なお、検査領域ARは、照明光の反射の状態に関する画像の一例である。
また、本実施形態では、図6に示すように、処理部13は、撮像部2および照明部3を移動経路PAに沿ってロボット4により移動させた場合の帯状の検査領域ARを取得し、取得した帯状の検査領域ARを表示部11に表示されたワークW上に重畳して表示させる。より具体的には、処理部13は、撮像部2および照明部3を移動経路PAに沿ってロボット4により移動させながら、撮像部2によりワークWをスキャン撮像させた場合の帯状の検査領域ARを取得し、取得した帯状の検査領域ARを表示部11に表示されたワークW上に重畳して表示させる。
また、本実施形態では、図7および図8に示すように、処理部13は、複数の移動経路PAに対応する複数の帯状の検査領域ARを取得し、取得した複数の帯状の検査領域ARを表示部11に表示されたワークW上に重畳して表示させる。具体的には、処理部13は、操作部12を用いたユーザの入力操作に基づいて、ユーザにより指定された1または複数の移動経路PAに対応する1または複数の帯状の検査領域ARを表示部11に表示されたワークW上に重畳して表示させる。たとえば、図7に示すように、処理部13は、ユーザにより全ての移動経路PAが指定された場合、全ての移動経路PAに対応する複数の帯状の検査領域ARを表示部11に表示されたワークW上に重畳して表示させる。また、たとえば、図8に示すように、処理部13は、ユーザにより任意の複数の移動経路PAが指定された場合、任意の複数の移動経路PAに対応する複数の帯状の検査領域ARを表示部11に表示されたワークW上に重畳して表示させる。また、処理部13は、任意の複数の移動経路PAに対応する複数の帯状の検査領域ARを表示部11に表示させる場合に、互いに異なる色で、複数の帯状の検査領域ARを表示部11に表示させる。
ユーザは、たとえば、まず、全ての移動経路PAに対応する複数の帯状の検査領域ARを表示部11に表示させて(図7参照)、現在の移動経路PAで検査されない部分が存在するか否かを確認する。帯状の検査領域ARがワークWに重ならずにワークWの表面が視認される部分が存在する場合、ユーザは、現在の移動経路PAで検査されない部分が存在すると判断する。そして、ユーザは、現在の移動経路PAで検査されない部分が存在する場合、検査されない部分に関係する移動経路PAとして検査されない部分に近い移動経路PAを指定して、指定した移動経路PAに対応する帯状の検査領域ARを表示部11に表示されたワークW上に重畳して表示部11に表示させる(図8参照)。これにより、現在の移動経路PAで検査されない部分および検査されない部分に関係する検査領域ARの状態を容易に視認することが可能である。そして、ユーザは、現在の移動経路PAで検査されない部分および検査されない部分に関係する検査領域ARの状態に基づいて、検査されない部分が存在しなくなるように、教示点Pの修正を行う。また、教示点Pの修正を行った後に、検査領域ARを再び表示部11に表示させれば、検査されない部分が存在しなくなったかどうかを確認することが可能である。
(撮像部、照明部、ロボットおよびワークのモデル)
また、本実施形態では、記憶部14は、複数の照明部3のモデルM2を記憶する。処理部13は、記憶部14に記憶された複数の照明部3のモデルM2のうち、操作部12を用いたユーザの入力操作に基づいて選択されたモデルの照明部3に応じて、照明光の反射の状態をシミュレーションにより取得する。照明部3のモデルM2は、照明部3の寸法、照明部3の形状、照明部3の光源の種類、照明部3の光源の配置および照明光の色などの情報を含む。具体的には、複数の照明部3のモデルM2は、ライン型照明のモデルと、パターン型照明のモデルとを含む。ライン型照明のモデルとは、光源がライン状に配置されてライン状に照明光を照射する照明部3のモデルである。ライン型照明は、たとえば、ライン型カメラと組み合わせて用いられる。また、パターン型照明のモデルとは、光源が二次元的に配置されて格子状のパターンなどの所定のパターンの照明光を照射する照明部3のモデルである。パターン型照明は、たとえば、エリア型カメラと組み合わせて用いられる。
また、本実施形態では、記憶部14は、複数の照明部3のモデルM2を記憶する。処理部13は、記憶部14に記憶された複数の照明部3のモデルM2のうち、操作部12を用いたユーザの入力操作に基づいて選択されたモデルの照明部3に応じて、照明光の反射の状態をシミュレーションにより取得する。照明部3のモデルM2は、照明部3の寸法、照明部3の形状、照明部3の光源の種類、照明部3の光源の配置および照明光の色などの情報を含む。具体的には、複数の照明部3のモデルM2は、ライン型照明のモデルと、パターン型照明のモデルとを含む。ライン型照明のモデルとは、光源がライン状に配置されてライン状に照明光を照射する照明部3のモデルである。ライン型照明は、たとえば、ライン型カメラと組み合わせて用いられる。また、パターン型照明のモデルとは、光源が二次元的に配置されて格子状のパターンなどの所定のパターンの照明光を照射する照明部3のモデルである。パターン型照明は、たとえば、エリア型カメラと組み合わせて用いられる。
また、本実施形態では、記憶部14は、複数の撮像部2のモデルM1を記憶する。処理部13は、記憶部14に記憶された複数の撮像部2のモデルM1のうち、操作部12を用いたユーザの入力操作に基づいて選択されたモデルの撮像部2に応じて、撮像部2によるワークWの撮像画像IMを取得する。撮像部2のモデルM1は、撮像部2の寸法、撮像部2の形状、撮像部2の視野角、撮像部2のレンズから焦点が合うピント位置までの距離を表すワーキングディスタンスおよび撮像部2のイメージセンサの種類などの情報を含む。具体的には、複数の撮像部2のモデルM1は、ライン型カメラのモデルと、エリア型カメラのモデルとを含む。ライン型カメラのモデルとは、ライン状のイメージセンサを有してライン状にワークWを撮像する撮像部2のモデルである。ライン型カメラによるワークWの外観検査では、たとえば、ワークWに対して撮像部2を移動させながらワークWを連続的に撮像するスキャン撮像が行われる。また、エリア型カメラのモデルとは、二次元状のイメージセンサを有して二次元状の所定のエリアにおいてワークWを撮像する撮像部2のモデルである。エリア型カメラによるワークWの外観検査では、たとえば、ワークWに対して撮像部2を移動させながらワークWを断続的に撮像する断続撮像が行われる。なお、図3~図8では、ライン型カメラのモデルが選択されてスキャン撮像が行われる場合について図示している。また、エリア型カメラのモデルが選択されて断続撮像が行われる場合にも、図3~図8に示すような照明光の反射の状態に関する画像を表示部11に表示することが可能である。
また、記憶部14は、ロボット4のモデルM3およびワークWのモデルM4を記憶する。ロボット4のモデルM3は、ロボット4の寸法およびロボット4の形状などの情報を含む。また、ワークWのモデルM4は、ワークWの寸法、ワークWの形状、ワークWの表面の色およびワークWの表面の反射率などの情報を含む。本実施形態では、処理部13は、ワークWの表面の色および反射率に基づいて、照明光の反射の状態をシミュレーションにより取得する。すなわち、処理部13は、ワークWの表面の色による照明光の吸収を考慮して、照明光の反射の状態をシミュレーションにより取得する。また、処理部13は、ワークWの表面の色および反射率を変更するためのユーザーインターフェースを表示部11に表示させてもよい。
(ロボット教示装置を用いたオフライン教示の流れ)
図9を参照して、本実施形態のロボット教示装置1を用いたオフライン教示の流れをフローチャートに基づいて説明する。
図9を参照して、本実施形態のロボット教示装置1を用いたオフライン教示の流れをフローチャートに基づいて説明する。
図9に示すように、まず、ステップS1において、操作部12を用いたユーザの入力操作に基づいて、ワークWの外観検査を行う際のロボット4による移動経路PAが設定される。そして、ステップS2において、操作部12を用いたユーザの入力操作に基づいて、照明光の反射の状態が取得される。そして、ステップS3において、操作部12を用いたユーザの入力操作に基づいて、撮像画像IMが表示部11に表示される。
ステップS3では、たとえば、ロボット4が所定の姿勢の場合の照明部3の映り込みの状態を含むワークWの撮像画像IM(図4参照)が表示部11に表示される。ユーザは、図4に示すような撮像画像IMに基づいて、シミュレーションに用いた撮像部2のモデルM1、照明部3のモデルM2およびワークWのモデルM4の妥当性を判断する。具体的には、ユーザは、図4に示すようなシミュレーションによる撮像画像IMでの高輝度部HBと、過去の撮像画像などの実際の撮像画像での高輝度部とを比較して、シミュレーションによる撮像画像IMでの高輝度部HBが妥当であるか否かを判断する。ユーザは、シミュレーションによる撮像画像IMでの高輝度部HBが妥当でないと判断した場合、シミュレーションによる撮像画像IMでの高輝度部HBが妥当になるように、撮像部2のモデルM1、照明部3のモデルM2およびワークWのモデルM4の少なくとも1つを修正する。
また、ステップS3では、たとえば、撮像部2および照明部3を移動経路PAに沿ってロボット4により移動させた場合の照明部3の映り込みの状態を含むワークWの撮像画像IM(図5参照)が表示部11に表示される。ユーザは、図5に示すような撮像画像IMに基づいて、ロボット4により検査動作を行った場合の撮像画像IMでの高輝度部HBの状態を確認する。ユーザは、たとえば、高輝度部HBの幅がワークWの曲面の変化に対応してどのように変化しているかを確認する。
そして、ステップS4において、操作部12を用いたユーザの入力操作に基づいて、検査領域ARがワークW上に重畳されるように表示部11に表示される。ステップS4では、たとえば、全ての移動経路PAに対応する複数の帯状の検査領域AR(図7参照)がワークW上に重畳されるように表示部11に表示される。ユーザは、図7に示すような検査領域ARに基づいて、現在の移動経路PAで検査されない部分が存在するか否かを確認する。また、ユーザは、現在の移動経路PAで検査されない部分が存在する場合、たとえば検査されない部分に近い移動経路PAを指定する。そして、指定された移動経路PAに対応する帯状の検査領域AR(図8参照)がワークW上に重畳されるように表示部11に表示される。ユーザは、図8に示すような検査領域ARに基づいて、どの教示点Pをどのように修正するかを判断する。そして、操作部12を用いたユーザの入力操作に基づいて、検査されない部分が存在しなくなるように、教示点Pが修正されて移動経路PAが修正される。また、必要に応じて、図6に示すような1つの検査領域ARが表示部11に表示される。
以上のように、ロボット教示装置1を用いたオフライン教示が行われる。そして、修正された移動経路PAを含むロボット4の動作プログラムがロボット教示装置1により作成される。実際にワークWの外観検査を行う際には、ロボット教示装置1により作成された動作プログラムに基づいて、撮像部2、照明部3およびロボット4が動作される。
(本実施形態の効果)
本実施形態では、上記のように、ロボット教示装置1は、ワークWを撮像する撮像部2と、ワークWに照明光を照射する照明部3と、撮像部2および照明部3を移動させてワークWの外観検査を行うロボット4と、を備える外観検査システム100のためのロボット教示装置1であって、表示部11と、表示部11上でロボット4の動作の教示を行う場合に、ワークWにおける照明光の反射の状態をシミュレーションにより取得し、取得した照明光の反射の状態に関する画像を表示部11に表示させる処理部13と、を備える。
本実施形態では、上記のように、ロボット教示装置1は、ワークWを撮像する撮像部2と、ワークWに照明光を照射する照明部3と、撮像部2および照明部3を移動させてワークWの外観検査を行うロボット4と、を備える外観検査システム100のためのロボット教示装置1であって、表示部11と、表示部11上でロボット4の動作の教示を行う場合に、ワークWにおける照明光の反射の状態をシミュレーションにより取得し、取得した照明光の反射の状態に関する画像を表示部11に表示させる処理部13と、を備える。
ここで、ワークWの外観検査を行う場合には、撮像部2により撮像された画像の全範囲がワークWの外観検査に寄与するわけではなく、撮像部2により撮像された画像のうち、照明光の反射量が大きく輝度が大きい高輝度部HBがワークWの外観検査に寄与する。このため、高輝度部HBを把握すれば、ワークWのどの部分が検査されているかが精度よく分かるので、ワークWの外観の検査漏れがないかまたは少ないロボット4の動作の教示を行うことが可能である。そこで、上記のように、照明光の反射の状態に関する画像を表示部11に表示させることにより、表示部11に表示された照明光の反射の状態に関する画像に基づいて、実際にワークWの外観検査に寄与する高輝度部HBを容易に把握することができるので、ワークWの外観の検査漏れがないかまたは少ないロボット4の動作の教示を容易に行うことができる。
また、本実施形態では、上記のように、処理部13は、照明光の反射の状態として、撮像部2によるワークWの撮像画像IMへの照明部3の映り込みの状態を取得し、取得した照明部3の映り込みの状態を含むワークWの撮像画像IMを表示部11に表示させる。これにより、表示部11に表示された照明部3の映り込みの状態を含むワークWの撮像画像IMにより、撮像画像IMでの高輝度部HBを容易に把握することができる。その結果、ワークWの外観の検査漏れがないかまたは少ないロボット4の動作の教示を容易に行うことができる。
また、本実施形態では、上記のように、処理部13は、ロボット4が所定の姿勢の場合の照明部3の映り込みの状態を含むワークWの撮像画像IMを表示部11に表示させる。これにより、表示部11に表示されたロボット4が所定の姿勢の場合の照明部3の映り込みの状態を含むワークWの撮像画像IMにより、ロボット4が所定の姿勢の場合の撮像画像IMでの高輝度部HBを把握することができる。また、ロボット4が所定の姿勢の場合の撮像画像IMでの高輝度部HBと、過去の撮像画像IMなどの実際の撮像画像IMでの高輝度部HBとを比較すれば、シミュレーションによる撮像画像IMでの高輝度部HBが問題ないかどうかを容易に確認することができる。これにより、シミュレーションの妥当性を確認することができる。
また、本実施形態では、上記のように、処理部13は、撮像部2および照明部3を移動経路PAに沿ってロボット4により移動させた場合の照明部3の映り込みの状態を含むワークWの撮像画像IMを表示部11に表示させる。これにより、表示部11に表示された撮像部2および照明部3を移動経路PAに沿ってロボット4により移動させた場合の照明部3の映り込みの状態を含むワークWの撮像画像IMにより、ロボット4により検査動作を行った場合の撮像画像IMでの高輝度部HBを把握することができる。
また、本実施形態では、上記のように、処理部13は、照明光の反射の状態として、撮像部2によるワークWの撮像画像IMへの照明部3の映り込みの状態を取得し、取得した照明部3の映り込みの状態に基づいて、ワークWを検査することが可能な検査領域ARを取得し、取得した検査領域ARを表示部11に表示されたワークW上に重畳して表示させる。これにより、ワークWを検査することが可能な検査領域ARをワークW上に重畳して表示させることができるので、検査することが可能なワークWの部分を視覚的に容易に確認することができる。その結果、ワークWの外観の検査漏れがないかまたは少ないロボット4の動作の教示をより容易に行うことができる。
また、本実施形態では、上記のように、処理部13は、撮像部2および照明部3を移動経路PAに沿ってロボット4により移動させた場合の帯状の検査領域ARを取得し、取得した帯状の検査領域ARを表示部11に表示されたワークW上に重畳して表示させる。これにより、ロボット4により検査動作を行った場合に検査することが可能な帯状の検査領域ARをワークW上に重畳して表示させることができるので、ロボット4により検査動作を行った場合に検査することが可能なワークWの部分を視覚的に容易に確認することができる。その結果、ワークWの外観の検査漏れがないかまたは少ないロボット4の動作の教示をより一層容易に行うことができる。
また、本実施形態では、上記のように、処理部13は、複数の移動経路PAに対応する複数の帯状の検査領域ARを取得し、取得した複数の帯状の検査領域ARを表示部11に表示されたワークW上に重畳して表示させる。これにより、ロボット4により複数の検査動作を行った場合に検査することが可能な複数の帯状の検査領域ARをワークW上に重畳して表示させることができるので、ロボット4により複数の検査動作を行った場合に検査することが可能なワークWの部分を視覚的に容易に確認することができる。また、ロボット4により複数の検査動作を行った場合に検査されないワークWの検査漏れの部分を視覚的に容易に確認することができる。これにより、ワークWの外観の検査漏れがないかまたは少ないロボット4の動作の教示をさらに容易に行うことができる。
また、本実施形態では、上記のように、ロボット教示装置1は、複数の照明部3のモデルM2を記憶する記憶部14をさらに備え、処理部13は、記憶部14に記憶された複数の照明部3のモデルM2のうち、選択されたモデルの照明部3に応じて、照明光の反射の状態をシミュレーションにより取得する。これにより、実際にワークWの外観検査に用いられる照明部3の種類に応じて、シミュレーションによる照明部3のモデルM2を使い分けることができる。これにより、実際にワークWの外観検査に用いられる照明部3の種類が異なる場合にも、柔軟に対応してシミュレーションすることができる。
また、本実施形態では、上記のように、ロボット教示装置1は、複数の撮像部2のモデルM1を記憶する記憶部14をさらに備え、処理部13は、記憶部14に記憶された複数の撮像部2のモデルM1のうち、選択されたモデルの撮像部2に応じて、撮像部2によるワークWの撮像画像IMを取得する。これにより、実際にワークWの外観検査に用いられる撮像部2の種類に応じて、シミュレーションによる撮像部2のモデルM1を使い分けることができる。これにより、実際にワークWの外観検査に用いられる撮像部2の種類が異なる場合にも、柔軟に対応してシミュレーションすることができる。
また、本実施形態では、上記のように、複数の撮像部2のモデルM1は、ライン型カメラのモデルと、エリア型カメラのモデルとを含む。これにより、実際にワークWの外観検査に用いられることが多い、ライン型カメラまたはエリア型カメラに、柔軟に対応してシミュレーションすることができる。
また、本実施形態では、上記のように、処理部13は、ワークWの表面の色および反射率に基づいて、照明光の反射の状態をシミュレーションにより取得する。これにより、ワークWの表面の色および反射率に基づいて、照明光の反射の状態を正確に取得することができる。また、ワークWの表面の色に基づいて、照明光の反射の状態をシミュレーションにより取得する場合には、ワークWの表面の色と照明光の色との相性を考慮して、照明光の反射の状態を正確に取得することができる。
また、本実施形態では、上記のように、ワークWは、曲面を有し、処理部13は、ワークWの曲面に略直交してワークWの曲面に沿ったロボット4による移動経路PAを取得し、取得した移動経路PAを表示部11に表示させる。これにより、精度よく撮像を行うことが可能であるが目視では教示することが困難なワークWの曲面に略直交してワークWの曲面に沿ったロボット4による移動経路PAを表示部11に表示させることができるので、精度よく撮像を行うことが可能なロボット4の動作の教示を容易に行うことができる。また、ワークWが曲面を有する場合には、撮像部2および照明部3をロボット4により移動させた場合の高輝度部HBの形状が大きく変化しやすいため、高輝度部HBを把握することできることの効果が大きい。さらに、ワークWが有する曲面が曲率が変化するような曲面である場合には、高輝度部HBの形状がさらに大きく変化しやすいため、高輝度部HBを把握することできることの効果がさらに大きい。
(変形例)
なお、今回開示された実施形態は、すべての点で例示であって制限的なものではないと考えられるべきである。本開示の範囲は、上記した実施形態の説明ではなく特許請求の範囲によって示され、さらに特許請求の範囲と均等の意味および範囲内でのすべての変更(変形例)が含まれる。
なお、今回開示された実施形態は、すべての点で例示であって制限的なものではないと考えられるべきである。本開示の範囲は、上記した実施形態の説明ではなく特許請求の範囲によって示され、さらに特許請求の範囲と均等の意味および範囲内でのすべての変更(変形例)が含まれる。
たとえば、上記実施形態では、ロボットが垂直多関節ロボットである例を示したが、本開示はこれに限られない。本開示では、ロボットが垂直多関節ロボット以外のロボットであってもよい。
また、上記実施形態では、ロボットが撮像部および照明部を移動させる例を示したが、本開示はこれに限られない。本開示では、ロボットがワークを移動させてもよい。
また、上記実施形態では、照明部の映り込みの状態を含む撮像画像を表示部に表示させる例を示したが、本開示はこれに限られない。本開示では、照明部の映り込みの状態を含む撮像画像を表示部に表示させなくてもよい。
また、上記実施形態では、曲面を有するワークに本開示を適用する例を示したが、本開示はこれに限られない。本開示は、曲面を有しない平板状などのワークに適用されてもよい。
また、上記実施形態では、ワークの曲面に略直交してワークの曲面に沿った移動経路を取得する例を示したが、本開示はこれに限られない。本開示では、ワークの曲面に略直交しない移動経路を取得してもよい。すなわち、ワークの曲面に面直でない移動経路を取得してもよい。
また、上記実施形態では、記憶部が複数の照明部のモデルを記憶する例を示したが、本開示はこれに限られない。本開示では、記憶部が1つの照明部のモデルを記憶してもよい。
また、上記実施形態では、複数の照明部のモデルが、ライン型照明のモデルと、パターン型照明のモデルとを含む例を示したが、本開示はこれに限られない。本開示では、複数の照明部のモデルは、ライン型照明のモデル、パターン型照明のモデル、リング型照明のモデル、エリア型照明のモデル、および、バー型照明のモデルなどを含んでいてもよく、特に限定されない。
また、上記実施形態では、記憶部が複数の撮像部のモデルを記憶する例を示したが、本開示はこれに限られない。本開示では、記憶部が1つの撮像部のモデルを記憶してもよい。
また、上記実施形態では、複数の撮像部のモデルが、ライン型カメラのモデルと、エリア型カメラのモデルとを含む例を示したが、本開示はこれに限られない。本開示では、複数の撮像部のモデルが、ライン型カメラのモデルと、パターン型カメラのモデルとのいずれか一方のみを含んでいてもよい。また、複数の撮像部のモデルが、ライン型カメラのモデルおよびパターン型カメラのモデル以外のモデルを含んでいてもよい。
また、上記実施形態では、ワークの表面の色および反射率に基づいて、照明光の反射の状態をシミュレーションにより取得する例を示したが、本開示はこれに限られない。本開示では、ワークの表面の色および反射率のいずれか一方のみに基づいて、照明光の反射の状態をシミュレーションにより取得してもよい。また、ワークの表面の色および反射率以外に基づいて、照明光の反射の状態をシミュレーションにより取得してもよい。
本明細書で開示する要素の機能は、開示された機能を実行するよう構成またはプログラムされた汎用プロセッサ、専用プロセッサ、集積回路、ASIC(Application Specific Integrated Circuits)、従来の回路、および/または、それらの組み合わせ、を含む回路または処理回路を使用して実行できる。プロセッサは、トランジスタやその他の回路を含むため、処理回路または回路と見なされる。本開示において、回路、ユニット、または手段は、列挙された機能を実行するハードウェアであるか、または、列挙された機能を実行するようにプログラムされたハードウェアである。ハードウェアは、本明細書に開示されているハードウェアであってもよいし、あるいは、列挙された機能を実行するようにプログラムまたは構成されているその他の既知のハードウェアであってもよい。ハードウェアが回路の一種と考えられるプロセッサである場合、回路、手段、またはユニットはハードウェアとソフトウェアの組み合わせであり、ソフトウェアはハードウェアおよび/またはプロセッサの構成に用いられる。
[態様]
上記した例示的な実施形態は、以下の態様の具体例であることが当業者により理解される。
上記した例示的な実施形態は、以下の態様の具体例であることが当業者により理解される。
(項目1)
ワークを撮像する撮像部と、前記ワークに照明光を照射する照明部と、前記撮像部および前記照明部、または、前記ワークを移動させて前記ワークの外観検査を行うロボットと、を備える外観検査システムのためのロボット教示装置であって、
表示部と、
前記表示部上で前記ロボットの動作の教示を行う場合に、前記ワークにおける前記照明光の反射の状態をシミュレーションにより取得し、取得した前記照明光の反射の状態に関する画像を前記表示部に表示させる処理部と、を備える、ロボット教示装置。
ワークを撮像する撮像部と、前記ワークに照明光を照射する照明部と、前記撮像部および前記照明部、または、前記ワークを移動させて前記ワークの外観検査を行うロボットと、を備える外観検査システムのためのロボット教示装置であって、
表示部と、
前記表示部上で前記ロボットの動作の教示を行う場合に、前記ワークにおける前記照明光の反射の状態をシミュレーションにより取得し、取得した前記照明光の反射の状態に関する画像を前記表示部に表示させる処理部と、を備える、ロボット教示装置。
(項目2)
前記処理部は、前記照明光の反射の状態として、前記撮像部による前記ワークの撮像画像への前記照明部の映り込みの状態を取得し、取得した前記照明部の映り込みの状態を含む前記ワークの撮像画像を前記表示部に表示させる、項目1に記載のロボット教示装置。
前記処理部は、前記照明光の反射の状態として、前記撮像部による前記ワークの撮像画像への前記照明部の映り込みの状態を取得し、取得した前記照明部の映り込みの状態を含む前記ワークの撮像画像を前記表示部に表示させる、項目1に記載のロボット教示装置。
(項目3)
前記処理部は、前記ロボットが所定の姿勢の場合の前記照明部の映り込みの状態を含む前記ワークの撮像画像を前記表示部に表示させる、項目2に記載のロボット教示装置。
前記処理部は、前記ロボットが所定の姿勢の場合の前記照明部の映り込みの状態を含む前記ワークの撮像画像を前記表示部に表示させる、項目2に記載のロボット教示装置。
(項目4)
前記処理部は、前記撮像部および前記照明部、または、前記ワークを移動経路に沿って前記ロボットにより移動させた場合の前記照明部の映り込みの状態を含む前記ワークの撮像画像を前記表示部に表示させる、項目2または3に記載のロボット教示装置。
前記処理部は、前記撮像部および前記照明部、または、前記ワークを移動経路に沿って前記ロボットにより移動させた場合の前記照明部の映り込みの状態を含む前記ワークの撮像画像を前記表示部に表示させる、項目2または3に記載のロボット教示装置。
(項目5)
前記処理部は、前記照明光の反射の状態として、前記撮像部による前記ワークの撮像画像への前記照明部の映り込みの状態を取得し、取得した前記照明部の映り込みの状態に基づいて、前記ワークを検査することが可能な検査領域を取得し、取得した前記検査領域を前記表示部に表示された前記ワーク上に重畳して表示させる、項目1~4のいずれか1項に記載のロボット教示装置。
前記処理部は、前記照明光の反射の状態として、前記撮像部による前記ワークの撮像画像への前記照明部の映り込みの状態を取得し、取得した前記照明部の映り込みの状態に基づいて、前記ワークを検査することが可能な検査領域を取得し、取得した前記検査領域を前記表示部に表示された前記ワーク上に重畳して表示させる、項目1~4のいずれか1項に記載のロボット教示装置。
(項目6)
前記処理部は、前記撮像部および前記照明部、または、前記ワークを移動経路に沿って前記ロボットにより移動させた場合の帯状の前記検査領域を取得し、取得した帯状の前記検査領域を前記表示部に表示された前記ワーク上に重畳して表示させる、項目5に記載のロボット教示装置。
前記処理部は、前記撮像部および前記照明部、または、前記ワークを移動経路に沿って前記ロボットにより移動させた場合の帯状の前記検査領域を取得し、取得した帯状の前記検査領域を前記表示部に表示された前記ワーク上に重畳して表示させる、項目5に記載のロボット教示装置。
(項目7)
前記処理部は、複数の前記移動経路に対応する複数の帯状の前記検査領域を取得し、取得した複数の帯状の前記検査領域を前記表示部に表示された前記ワーク上に重畳して表示させる、項目6に記載のロボット教示装置。
前記処理部は、複数の前記移動経路に対応する複数の帯状の前記検査領域を取得し、取得した複数の帯状の前記検査領域を前記表示部に表示された前記ワーク上に重畳して表示させる、項目6に記載のロボット教示装置。
(項目8)
複数の前記照明部のモデルを記憶する記憶部をさらに備え、
前記処理部は、前記記憶部に記憶された複数の前記照明部のモデルのうち、選択されたモデルの前記照明部に応じて、前記照明光の反射の状態をシミュレーションにより取得する、項目1~7のいずれか1項に記載のロボット教示装置。
複数の前記照明部のモデルを記憶する記憶部をさらに備え、
前記処理部は、前記記憶部に記憶された複数の前記照明部のモデルのうち、選択されたモデルの前記照明部に応じて、前記照明光の反射の状態をシミュレーションにより取得する、項目1~7のいずれか1項に記載のロボット教示装置。
(項目9)
複数の前記撮像部のモデルを記憶する記憶部をさらに備え、
前記処理部は、前記記憶部に記憶された複数の前記撮像部のモデルのうち、選択されたモデルの前記撮像部に応じて、前記撮像部による前記ワークの撮像画像を取得する、項目1~8のいずれか1項に記載のロボット教示装置。
複数の前記撮像部のモデルを記憶する記憶部をさらに備え、
前記処理部は、前記記憶部に記憶された複数の前記撮像部のモデルのうち、選択されたモデルの前記撮像部に応じて、前記撮像部による前記ワークの撮像画像を取得する、項目1~8のいずれか1項に記載のロボット教示装置。
(項目10)
複数の前記撮像部のモデルは、ライン型カメラのモデルと、エリア型カメラのモデルとの少なくとも一方を含む、項目9に記載のロボット教示装置。
複数の前記撮像部のモデルは、ライン型カメラのモデルと、エリア型カメラのモデルとの少なくとも一方を含む、項目9に記載のロボット教示装置。
(項目11)
前記処理部は、前記ワークの表面の色および反射率の少なくとも一方に基づいて、前記照明光の反射の状態をシミュレーションにより取得する、項目1~10のいずれか1項に記載のロボット教示装置。
前記処理部は、前記ワークの表面の色および反射率の少なくとも一方に基づいて、前記照明光の反射の状態をシミュレーションにより取得する、項目1~10のいずれか1項に記載のロボット教示装置。
(項目12)
前記ワークは、曲面を有し、
前記処理部は、前記ワークの曲面に略直交して前記ワークの曲面に沿った前記ロボットによる移動経路を取得し、取得した前記移動経路を前記表示部に表示させる、項目1~11のいずれか1項に記載のロボット教示装置。
前記ワークは、曲面を有し、
前記処理部は、前記ワークの曲面に略直交して前記ワークの曲面に沿った前記ロボットによる移動経路を取得し、取得した前記移動経路を前記表示部に表示させる、項目1~11のいずれか1項に記載のロボット教示装置。
(項目13)
ワークを撮像する撮像部と、
前記ワークに照明光を照射する照明部と、
前記撮像部および前記照明部、または、前記ワークを移動させて前記ワークの外観検査を行うロボットと、
ロボット教示装置と、を備え、
前記ロボット教示装置は、
表示部と、
前記表示部上で前記ロボットの動作の教示を行う場合に、前記ワークにおける前記照明光の反射の状態をシミュレーションにより取得し、取得した前記照明光の反射の状態に関する画像を前記表示部に表示させる処理部と、
を含む、外観検査システム。
ワークを撮像する撮像部と、
前記ワークに照明光を照射する照明部と、
前記撮像部および前記照明部、または、前記ワークを移動させて前記ワークの外観検査を行うロボットと、
ロボット教示装置と、を備え、
前記ロボット教示装置は、
表示部と、
前記表示部上で前記ロボットの動作の教示を行う場合に、前記ワークにおける前記照明光の反射の状態をシミュレーションにより取得し、取得した前記照明光の反射の状態に関する画像を前記表示部に表示させる処理部と、
を含む、外観検査システム。
(項目14)
ワークを撮像する撮像部と、前記ワークに照明光を照射する照明部と、前記撮像部および前記照明部、または、前記ワークを移動させて前記ワークの外観検査を行うロボットと、を備える外観検査システムのためのロボット教示方法であって、
表示部上で前記ロボットの動作の教示を行う場合に、前記ワークにおける前記照明光の反射の状態をシミュレーションにより取得することと、
取得した前記照明光の反射の状態に関する画像を前記表示部に表示させることと、を備える、ロボット教示方法。
ワークを撮像する撮像部と、前記ワークに照明光を照射する照明部と、前記撮像部および前記照明部、または、前記ワークを移動させて前記ワークの外観検査を行うロボットと、を備える外観検査システムのためのロボット教示方法であって、
表示部上で前記ロボットの動作の教示を行う場合に、前記ワークにおける前記照明光の反射の状態をシミュレーションにより取得することと、
取得した前記照明光の反射の状態に関する画像を前記表示部に表示させることと、を備える、ロボット教示方法。
1 ロボット教示装置
2 撮像部
3 照明部
4 ロボット
11 表示部
13 処理部
14 記憶部
100 外観検査システム
AR 検査領域(照明光の反射の状態に関する画像)
IM 撮像画像(照明光の反射の状態に関する画像)
PA 移動経路
M1 撮像部のモデル
M2 照明部のモデル
W ワーク
2 撮像部
3 照明部
4 ロボット
11 表示部
13 処理部
14 記憶部
100 外観検査システム
AR 検査領域(照明光の反射の状態に関する画像)
IM 撮像画像(照明光の反射の状態に関する画像)
PA 移動経路
M1 撮像部のモデル
M2 照明部のモデル
W ワーク
Claims (14)
- ワークを撮像する撮像部と、前記ワークに照明光を照射する照明部と、前記撮像部および前記照明部、または、前記ワークを移動させて前記ワークの外観検査を行うロボットと、を備える外観検査システムのためのロボット教示装置であって、
表示部と、
前記表示部上で前記ロボットの動作の教示を行う場合に、前記ワークにおける前記照明光の反射の状態をシミュレーションにより取得し、取得した前記照明光の反射の状態に関する画像を前記表示部に表示させる処理部と、を備える、ロボット教示装置。 - 前記処理部は、前記照明光の反射の状態として、前記撮像部による前記ワークの撮像画像への前記照明部の映り込みの状態を取得し、取得した前記照明部の映り込みの状態を含む前記ワークの撮像画像を前記表示部に表示させる、請求項1に記載のロボット教示装置。
- 前記処理部は、前記ロボットが所定の姿勢の場合の前記照明部の映り込みの状態を含む前記ワークの撮像画像を前記表示部に表示させる、請求項2に記載のロボット教示装置。
- 前記処理部は、前記撮像部および前記照明部、または、前記ワークを移動経路に沿って前記ロボットにより移動させた場合の前記照明部の映り込みの状態を含む前記ワークの撮像画像を前記表示部に表示させる、請求項2に記載のロボット教示装置。
- 前記処理部は、前記照明光の反射の状態として、前記撮像部による前記ワークの撮像画像への前記照明部の映り込みの状態を取得し、取得した前記照明部の映り込みの状態に基づいて、前記ワークを検査することが可能な検査領域を取得し、取得した前記検査領域を前記表示部に表示された前記ワーク上に重畳して表示させる、請求項1に記載のロボット教示装置。
- 前記処理部は、前記撮像部および前記照明部、または、前記ワークを移動経路に沿って前記ロボットにより移動させた場合の帯状の前記検査領域を取得し、取得した帯状の前記検査領域を前記表示部に表示された前記ワーク上に重畳して表示させる、請求項5に記載のロボット教示装置。
- 前記処理部は、複数の前記移動経路に対応する複数の帯状の前記検査領域を取得し、取得した複数の帯状の前記検査領域を前記表示部に表示された前記ワーク上に重畳して表示させる、請求項6に記載のロボット教示装置。
- 複数の前記照明部のモデルを記憶する記憶部をさらに備え、
前記処理部は、前記記憶部に記憶された複数の前記照明部のモデルのうち、選択されたモデルの前記照明部に応じて、前記照明光の反射の状態をシミュレーションにより取得する、請求項1に記載のロボット教示装置。 - 複数の前記撮像部のモデルを記憶する記憶部をさらに備え、
前記処理部は、前記記憶部に記憶された複数の前記撮像部のモデルのうち、選択されたモデルの前記撮像部に応じて、前記撮像部による前記ワークの撮像画像を取得する、請求項1に記載のロボット教示装置。 - 複数の前記撮像部のモデルは、ライン型カメラのモデルと、エリア型カメラのモデルとの少なくとも一方を含む、請求項9に記載のロボット教示装置。
- 前記処理部は、前記ワークの表面の色および反射率の少なくとも一方に基づいて、前記照明光の反射の状態をシミュレーションにより取得する、請求項1に記載のロボット教示装置。
- 前記ワークは、曲面を有し、
前記処理部は、前記ワークの曲面に略直交して前記ワークの曲面に沿った前記ロボットによる移動経路を取得し、取得した前記移動経路を前記表示部に表示させる、請求項1に記載のロボット教示装置。 - ワークを撮像する撮像部と、
前記ワークに照明光を照射する照明部と、
前記撮像部および前記照明部、または、前記ワークを移動させて前記ワークの外観検査を行うロボットと、
ロボット教示装置と、を備え、
前記ロボット教示装置は、
表示部と、
前記表示部上で前記ロボットの動作の教示を行う場合に、前記ワークにおける前記照明光の反射の状態をシミュレーションにより取得し、取得した前記照明光の反射の状態に関する画像を前記表示部に表示させる処理部と、
を含む、外観検査システム。 - ワークを撮像する撮像部と、前記ワークに照明光を照射する照明部と、前記撮像部および前記照明部、または、前記ワークを移動させて前記ワークの外観検査を行うロボットと、を備える外観検査システムのためのロボット教示方法であって、
表示部上で前記ロボットの動作の教示を行う場合に、前記ワークにおける前記照明光の反射の状態をシミュレーションにより取得することと、
取得した前記照明光の反射の状態に関する画像を前記表示部に表示させることと、を備える、ロボット教示方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022105109A JP2024005094A (ja) | 2022-06-29 | 2022-06-29 | ロボット教示装置、外観検査システムおよびロボット教示方法 |
PCT/JP2023/022257 WO2024004681A1 (ja) | 2022-06-29 | 2023-06-15 | ロボット教示装置、外観検査システムおよびロボット教示方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022105109A JP2024005094A (ja) | 2022-06-29 | 2022-06-29 | ロボット教示装置、外観検査システムおよびロボット教示方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2024005094A true JP2024005094A (ja) | 2024-01-17 |
Family
ID=89382153
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022105109A Pending JP2024005094A (ja) | 2022-06-29 | 2022-06-29 | ロボット教示装置、外観検査システムおよびロボット教示方法 |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2024005094A (ja) |
WO (1) | WO2024004681A1 (ja) |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4227863B2 (ja) * | 2003-08-04 | 2009-02-18 | 株式会社デンソー | 視覚検査装置の教示装置及び教示方法 |
JP2012141223A (ja) * | 2010-12-29 | 2012-07-26 | Yaskawa Information Systems Co Ltd | 表面欠陥検出・指示システムおよび表面処理の伴う加工物の製造方法 |
WO2015008373A1 (ja) * | 2013-07-19 | 2015-01-22 | 富士通株式会社 | 情報処理装置、検査範囲の計算方法、及びプログラム |
KR20180015774A (ko) * | 2015-09-25 | 2018-02-14 | 두산로보틱스 주식회사 | 로봇 제어 방법 및 장치 |
-
2022
- 2022-06-29 JP JP2022105109A patent/JP2024005094A/ja active Pending
-
2023
- 2023-06-15 WO PCT/JP2023/022257 patent/WO2024004681A1/ja unknown
Also Published As
Publication number | Publication date |
---|---|
WO2024004681A1 (ja) | 2024-01-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10614565B2 (en) | Inspection device and inspection system | |
JP6734253B2 (ja) | ワークを撮像する視覚センサを備える撮像装置 | |
JP5791976B2 (ja) | 画像処理装置、画像処理方法、およびプログラム | |
CN108323179B (zh) | 检查***及检查方法 | |
JP6392922B1 (ja) | 検査システムの検査対象外となる領域を算出する装置、および検査対象外となる領域を算出する方法 | |
TW200532162A (en) | Inspection system and method for providing feedback | |
JP2009269134A (ja) | 視覚検査装置のシミュレーション装置 | |
JP6585693B2 (ja) | 物体検査システム及び物体検査方法 | |
US20180336691A1 (en) | Information processing apparatus, information processing method, and non-transitory computer-readable storage medium | |
JP2011174896A (ja) | 撮像装置及び撮像方法 | |
JP4041042B2 (ja) | 欠陥確認装置および欠陥確認方法 | |
WO2024004681A1 (ja) | ロボット教示装置、外観検査システムおよびロボット教示方法 | |
JP7378934B2 (ja) | 情報処理装置、情報処理方法及びシステム | |
CN114332231B (zh) | 视觉检测设备中机械手与相机的定位方法、装置及介质 | |
JP2019215225A (ja) | 画像検査システム及びその制御方法 | |
JP7336711B2 (ja) | リペア溶接システム | |
JP2007327903A (ja) | 外観検査装置 | |
JP7318190B2 (ja) | 形状測定装置、形状測定方法及び形状測定プログラム | |
US20220044379A1 (en) | Streamlining an automatic visual inspection process | |
JP2017113815A (ja) | 対象物をロボットを用いて把持するロボットシステムの画像表示方法 | |
JP2016161528A (ja) | 塗布剤検査方法、塗布剤検査装置、塗布剤検査用プログラム、およびそのプログラムを記録したコンピュータ読み取り可能な記録媒体 | |
CN114359266B (zh) | 通过视觉检测设备检测被测零件的方法和视觉检测设备 | |
JP7164836B2 (ja) | 画像検査装置及び画像検査方法 | |
WO2023053727A1 (ja) | 画像処理装置、処理システム、画像表示方法及びプログラム | |
JP7151873B2 (ja) | 検査装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240613 |