JP2019057250A - ワーク情報処理装置およびワークの認識方法 - Google Patents
ワーク情報処理装置およびワークの認識方法 Download PDFInfo
- Publication number
- JP2019057250A JP2019057250A JP2017182799A JP2017182799A JP2019057250A JP 2019057250 A JP2019057250 A JP 2019057250A JP 2017182799 A JP2017182799 A JP 2017182799A JP 2017182799 A JP2017182799 A JP 2017182799A JP 2019057250 A JP2019057250 A JP 2019057250A
- Authority
- JP
- Japan
- Prior art keywords
- work
- learning
- data
- unit
- workpiece
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
【課題】ワークの形状認識に必要な画像特徴の選定や最適条件の選択に人間の試行錯誤や専門知識を必要としない、機械学習によるワーク情報処理装置を提供する。【解決手段】ワークの形状認識に用いるワーク情報処理装置1は、ワーク8の設計情報に基づいて、学習に必要な訓練データを作成する学習データ作成部3と、訓練データを学習するワーク学習部5と、訓練データとワーク学習部5における学習結果とを保存するデータ保存部7とを備える。好ましくは、ワーク情報処理装置1は、設計情報からワークの基本画像と座標データとを含むワークデータを作成するワークデータ作成部2をさらに備える。学習データ作成部3は、基本画像を変更して訓練データを作成する。【選択図】図1
Description
この発明は、機械加工または組立の対象物であるワークの形状を認識するワーク情報処理装置に関する。
機械加工または組立作業において、対象物であるワークは、ロボットまたは組立装置等によって自動的にピックアップされて加工装置または組立物の筐体などにセットされることが多い。このようなピックアップ時には、ワークの形状や姿勢を認識してピックアップアームを制御する必要がある。例えば、ロボットや組立装置等によるワークの取り出し作業で必要なワークの姿勢検出や形状認識などにワーク情報処理装置が利用される。
特開平10−332333号公報(特許文献1)および特開平11−066321公報(特許文献2)には、重ねて積まれたワークをカメラで撮影し、得られた画像を微分して輪郭抽出を行なうワーク情報処理装置が開示されている。
特開平10−332333号公報(特許文献1)に開示された装置では、抽出した輪郭線から曲率を求め、曲率が局所的に最大になる画素を頂点として検出する。あらかじめ理想的な条件で撮影した画像をマスタパターン、実際にカメラで撮影したワークの画像を入力パターンとし、曲率が互いに等しいマスタパターンと入力パターンの頂点を対応付け、対応の付いた頂点が最も多い入力パターンの輪郭とマスタパターンの輪郭との平面位置や回転角度のズレ量を検出している。
特開平11−066321公報(特許文献2)に開示された装置では、あらかじめ理想的な条件で撮影した画像をテンプレートとし、実際にカメラで撮影したワークの画像を入力画像として、それぞれ画像の輪郭線を追跡し、輪郭線上の各画素の接線角度を求め、テンプレートと入力画像の接線角度のヒストグラムを重ね合わせ、最も一致したときの角度のズレを回転角度として検出している。
上記先行文献に開示された装置には、以下のような課題がある。
第1に、把持できるワークを検出するための最適な検出条件を設定しなければならない。検出条件が適切に設定されていない場合、たとえば、輪郭線抽出に失敗し、重なり状態を誤認識して把持動作の成功率を低下させる。このような状況が頻繁に起きると作業の効率が悪い。
第1に、把持できるワークを検出するための最適な検出条件を設定しなければならない。検出条件が適切に設定されていない場合、たとえば、輪郭線抽出に失敗し、重なり状態を誤認識して把持動作の成功率を低下させる。このような状況が頻繁に起きると作業の効率が悪い。
第2に、あらゆるワークの姿勢、外乱を考慮した検出アルゴリズムを構築しなければならない。重なり状態のワークではワークの姿勢がさまざまであるため、照明が一様に当たらず見え方が一定でない。また、外乱として、ワーク表面の油などの付着物や外乱光の影響も考慮しなければならない。すべての条件を網羅した検出アルゴリズムの考案は容易ではなく、多くの試行錯誤が必要で、開発は長期に亘る。
これらの問題点を解決するために機械学習による検出法が提案されている。特にディープラーニングによる画像認識では人間を凌駕する認識率を達成する例も報告されている(ImageNet Large Scale Visual Recognition Challenge 2015)。この理由は、インターネット等を利用し、非常に多くの画像データを入手して学習させることができたことによる。
しかしながら、ロボットや組立装置等が扱う工業製品の場合、機械学習には非常に多くの画像データが必要であるにもかかわらず、製造工程で多くの画像を収集することは難しい。したがって、学習に必要となる多くの画像データを収集することが課題となっている。
この発明は、上記の課題を解決するためになされたものであって、その目的は、ワークの形状認識に必要な画像特徴の選定や最適条件の選択に人間の試行錯誤や専門知識を必要としない、機械学習によるワーク情報処理装置を提供することである。
この発明は、要約すると、ワークの形状認識に用いるワーク情報処理装置であって、ワークの設計情報に基づいて、学習に必要な訓練データを作成する学習データ作成部と、訓練データを学習するワーク学習部と、訓練データとワーク学習部における学習結果とを保存するデータ保存部とを備える。
好ましくは、ワーク情報処理装置は、設計情報からワークの基本画像と座標データとを含むワークデータを作成するワークデータ作成部をさらに備える。学習データ作成部は、基本画像を変更して訓練データを作成する。
より好ましくは、学習データ作成部は、基本画像に対して、平行移動、回転、縮小および拡大のうちの少なくともいずれか1つの処理を行なうことによって、訓練データを作成する。
より好ましくは、学習データ作成部は、基本画像に対して、ワークの表面の色の変更、ワークに照射する光の照射方向の変更、およびワークに照射する光の強度の変更のうちの少なくともいずれか1つの処理を行なうことによって、訓練データを作成する。
好ましくは、ワーク情報処理装置は、ワークを撮影するワーク観察部をさらに備える。訓練データは、学習データ作成部によって作成された第1の画像データと、ワーク観察部によって撮影された第2の画像データとを含む。
好ましくは、ワークの設計情報は、二次元CADまたは三次元CADの設計情報を含む。
好ましくは、ワーク情報処理装置は、ワークを撮影した画像を受けてワークの形状を認識するワーク認識部をさらに備える。ワーク学習部は、訓練データを学習することによってワーク認識部の内部パラメータを変更する。
この発明は、他の局面では、ワークの認識方法であって、ワークの設計情報に基づいて、学習に必要な訓練データを作成するステップと、訓練データを学習するステップと、訓練データと訓練データの学習結果とを保存するステップと、ワークを撮影した画像を受け、学習結果を用いてワークの形状を認識するステップとを備える。
本発明によれば、ワークの形状認識に必要な画像特徴の選定や最適条件の選択に人間の試行錯誤や専門知識を必要としないワーク情報処理装置を実現することができる。
以下、本発明の実施の形態について図面を参照しつつ説明する。なお、以下の図面において同一または相当する部分には同一の参照番号を付し、その説明は繰返さない。
図1は、本実施の形態のワーク情報処理装置1の構成例を示す図である。図1を参照して、ワーク情報処理装置1は、ワークデータ作成部2と、学習データ作成部3と、ワーク観察部4と、ワーク学習部5と、ワーク認識部6と、データ保存部7とを備える。
ワークデータ作成部2は、学習に必要な訓練データの基準となるワークデータを作成する。ワークデータ作成部2は、ワーク8の材質や加工方法(表面性状)を含むワーク8の設計情報に基づいてワークデータを作成し、データ保存部7に保存する。ワーク8の設計情報は、二次元CADまたは三次元CADの設計情報を含む。
「ワークデータ」の実態は画像であるが、ワークデータには、二次元または三次元の寸法情報が併せて格納され、一般的に使われる二次元または三次元のCADデータ形式で保存される。また、材質や加工方法、表面性状等の情報も必要に応じて保存される。この形式としてDXF(Drawing Exchange Format)やIGES(Initial Graphics Exchange Specification)、STEP(Standard for the Exchange of Product model data)などがあり、本実施の形態ではこれらを用いることができる。
学習データ作成部3は、ワークデータ作成部2で作成されたワークデータに基づいて学習に必要な訓練データを作成する。このような訓練データは、実際にカメラ等で撮影された画像が用いられることが多いが、工作機械等ではこのような画像を多数用意することは手間がかかる。したがって、本実施の形態では、元となるワークデータから多数の訓練データを学習データ作成部3が自動的に生成する。図2は、学習データ作成部3が作成する訓練データを説明するための図である。学習データ作成部3は、基本画像100を変更して訓練データを作成する。図2に示すように、学習データ作成部3は、基本画像100に対して、プログラムにより平行移動、回転、縮小および拡大のうちの少なくともいずれか1つの処理を行なうことによって、訓練データ100A,100Bを作成する。
好ましくは、図2に示すように、学習データ作成部3は、基本画像100に対して、プログラムによりワークの表面の色の変更、ワークに照射する光の照射方向の変更、およびワークに照射する光の強度の変更のうちの少なくともいずれか1つの処理を行なうことによって、訓練データ100C,100Dを作成する。
このように、学習データ作成部3は、実際の撮影画像ではなくCADデータから、人工的にさまざまな訓練データを作成する。学習データ作成部3は、上述の平行移動、回転、縮小および拡大のうちの少なくともいずれか1つの処理を行なうプログラムと、上述のワーク表面の色の変更や照射する光の方向の変更、強度の変更のうちの少なくともいずれか1つの処理を行なうプログラムの組み合わせであり、処理の順序も任意に変更可能である。
図3は、訓練データの一例を示す図である。図3に示すように、訓練データは各標本点(画素)が集合した画像である。訓練データには、ワークの輪郭W1が含まれている。
訓練データはワーク表面の各標本点の三次元座標(X,Y,Z)、ワークの色(R,G,B)、明るさIからなり、それぞれ配列に格納され、データ名と関連付けてデータ保存部7に保存される。データ名は作成したデータの種類を示すもので、たとえば、1から順に番号を付けてもよいし、A,ABCなどの文字で表してもよい。
図4は、データ名とワークの形状の対応関係の一例を示す図である。データ名「1」〜「5」という数字が5種類のワーク形状に対応することとする。具体的には、データ名「1」には、正方形のワークが対応し、データ名「2」には、円形のワークが対応し、データ名「3」には、平行四辺形のワークが対応し、データ名「4」には、3角形のワークが対応し、データ名「5」には、二重丸のワークが対応する。なお、図4には、簡単のため形状例として単純な二次元の形状を示したが、実際はワークの形状は三次元であっても良い。
また、データ名に関連付けて、訓練データを作成したときの条件、たとえば、ワークの種類、平行移動量、回転角度、縮尺値、色、光の照射方向、光の強度等が訓練データとともにデータ保存部7に保存される。
再び図1に戻って、ワーク観察部4は、ワーク表面の各標本点の三次元座標(X,Y,Z)、色(R,G,B)、明るさIを出力する。図1の構成例では、ワーク観察部4は、ワーク8を撮影する2台のカメラを含み、ステレオ計測によりワーク表面の各標本点の三次元座標(X,Y,Z)を求める。これらはカラーカメラであり、ワーク表面の各標本点の色(R,G,B)、明るさIを出力できる。
また、ワーク観察部4は、ワーク学習部5およびワーク認識部6と接続される。ワーク学習部5およびワーク認識部6では、データ(X,Y,Z)、(R,G,B)、Iを用いて学習処理および認識処理がそれぞれ実行される。
ワーク学習部5は、学習データ作成部3で作成した訓練データを用いて学習を行なう。学習法としては、サポートベクタマシンやバックプロバケーション(誤差逆伝播法)などの教師あり学習法や、オートエンコーダ(自己符号化器)やk平均法、主成分分析などの教師なし学習法、およびそれらを複合した機械学習法を用いる。
ワーク認識部6は、ワーク観察部4の出力データとワーク学習部5の学習結果を用いてワークの認識処理を行なう。ワーク認識部6は、上記機械学習法に対応したニューラルネットワークやサポートベクタマシンなどの認識モデルを用い、ワーク学習部5の学習結果に基づいて、ワーク観察部4から出力されるワーク表面の各標本点の三次元座標(X,Y,Z)、色(R,G,B)、明るさIを入力として認識処理を行なうように構成される。
ワークデータ作成部2、学習データ作成部3、ワーク学習部5、ワーク認識部6の各々は、CPU(Central Processing Unit)、RAM(Random Access Memory)、ROM(Read Only Memory)等を含み、情報処理に応じて各構成要素の制御を行なう。ワークデータ作成部2、学習データ作成部3、ワーク学習部5、ワーク認識部6のうち2以上の部分の機能が1つのCPUで処理されていても良い。データ保存部7は、例えば、ハードディスクドライブ、ソリッドステートドライブ等の補助記憶装置である。データ保存部7は、ワークデータ作成部2、学習データ作成部3、ワーク学習部5、ワーク認識部6の各々で実行されるプログラムおよびワークデータ作成部2や学習データ作成部3で作成されたデータおよびワーク学習部5の学習結果を記憶する。
[訓練用画像の準備]
ワーク学習部5は以下に説明する第1作成手順で用意された第1の画像データと第2作成手順で用意された第2の画像データとを組み合わせてワーク認識部6の内部パラメータを変更する学習処理を実行する。内部パラメータは、たとえば、ニューラルネットワークにおける入力層から出力層までの各層間の重みやバイアスなどが該当する。すなわち、ワーク学習部5で学習される訓練データは、第1の画像データと第2の画像データとを含む。第1作成手順は、設計データ(CADデータ)から訓練用の第1の画像データを多数生成する手順である。第2作成手順は、ワーク観察部4で取得された実際のワークの画像を訓練用の第2の画像データとする手順である。
ワーク学習部5は以下に説明する第1作成手順で用意された第1の画像データと第2作成手順で用意された第2の画像データとを組み合わせてワーク認識部6の内部パラメータを変更する学習処理を実行する。内部パラメータは、たとえば、ニューラルネットワークにおける入力層から出力層までの各層間の重みやバイアスなどが該当する。すなわち、ワーク学習部5で学習される訓練データは、第1の画像データと第2の画像データとを含む。第1作成手順は、設計データ(CADデータ)から訓練用の第1の画像データを多数生成する手順である。第2作成手順は、ワーク観察部4で取得された実際のワークの画像を訓練用の第2の画像データとする手順である。
図5は、訓練用画像の第1作成手順を説明するためのフローチャートである。第1作成手順は、図1の学習データ作成部3において実行される。図1、図5を参照して、学習データ作成部3は、ステップS1において、ワークデータ作成部2が作成したCADデータ(もともとの設計データ)を読み込む。ステップS2において、学習データ作成部3は、読み込んだCADデータが、どのデータ名に対応するのかを問合せ、ユーザは、CADデータに対応するデータ名を選択する。
続いて、学習データ作成部3は、ステップS3において、ユーザが入力したデータ名に対応する正解を作成する。正解は、ワーク認識部6が出力する認識結果に対応するものである。たとえばワーク認識部6から図4のデータ名「1」〜「5」にそれぞれ対応する確率が認識結果P1〜P5として出力される場合、データ名「3」に対応する正解は、(P1=0、P2=0、P3=1、P4=0、P5=0)となる。
続いて、学習データ作成部3は、ステップS4においてパラメータの変更範囲を決定する。パラメータは、平行移動量、回転角、縮小または拡大倍率、ワークの色、光の照射方向と強度などである。学習データ作成部3は、上記パラメータの変更範囲をユーザからの入力によって決定する。また、学習データ作成部3は、上記パラメータの変更範囲を予め標準的に決められている値に設定しても良い。
続いてステップS5において、学習データ作成部3は、ステップS4で決定された変更範囲内で、パラメータを変更しながら画像を生成する。たとえば、平行移動量、回転角、倍率、ワークの色、光の照射方向、光の照射強度の6つのパラメータについて、変更範囲内で各々5段階に変更することとすると、56の画像が生成される。
ステップS6では、学習データ作成部3は、生成された画像を、パラメータおよびデータ名と関連付けて、データ保存部7に保存する。
図6は、訓練用画像の第2作成手順に使用される構成を示す図である。
第2作成手順では、ワーク観察部4で撮影した画像を利用する。第1作成手順で用意した訓練用画像または第2作成手順で用意した訓練用画像のいずれか一方しか用いなくても良いが、第1作成手順で用意した訓練用画像と、第2作成手順で用意した訓練用画像とを組み合わせることにより、さらに認識率を向上させることができる。ワーク観察部4で実際の対象ワークを観察して得られた訓練データを併せて学習させることにより、学習データ作成部3で作成した訓練データを補強する。第1作成手順で生成される画像は、ワーク画像の周辺には何も配置されていない。これに対し、第2作製手順で作成される画像は、ワークの周囲に他のワークが写っている場合がある。後の学習工程において、ワーク学習部5は、周囲の画像ごとワークを認識するように学習を実行する。したがって、ワーク8が容器に複数入っており一部が重なっているような場合であっても、そのうちの1つのワークを特定して認識できるようになる。
第2作成手順では、ワーク観察部4で撮影した画像を利用する。第1作成手順で用意した訓練用画像または第2作成手順で用意した訓練用画像のいずれか一方しか用いなくても良いが、第1作成手順で用意した訓練用画像と、第2作成手順で用意した訓練用画像とを組み合わせることにより、さらに認識率を向上させることができる。ワーク観察部4で実際の対象ワークを観察して得られた訓練データを併せて学習させることにより、学習データ作成部3で作成した訓練データを補強する。第1作成手順で生成される画像は、ワーク画像の周辺には何も配置されていない。これに対し、第2作製手順で作成される画像は、ワークの周囲に他のワークが写っている場合がある。後の学習工程において、ワーク学習部5は、周囲の画像ごとワークを認識するように学習を実行する。したがって、ワーク8が容器に複数入っており一部が重なっているような場合であっても、そのうちの1つのワークを特定して認識できるようになる。
ワーク観察部4は、ワーク表面の各標本点の三次元座標(X,Y,Z)、色(R,G,B)、明るさIを出力する。これらはデータ名と関連付けられていないため、取得時にデータ名との関連付けを行なう。
図7は、訓練用画像の第2作成手順を説明するためのフローチャートである。ワーク学習部5は、ステップS21においてワーク観察部4から撮影された画像を取得する。ワーク学習部5は、撮影された取得データ12をワーク学習部5に接続されたモニタ9に表示する。さらにステップS22において、ワーク学習部5に接続されたキーボード10やマウス11を用いて、ユーザがデータ名13の内の一つを選択することによって取得データ12に対応するデータ名を取得する。この際、モニタ9に表示された取得データ12と選択されたデータ名13が関連付けられてデータ保存部7に保存される。続いて、学習データ作成部3は、ステップS23において、ユーザが入力したデータ名13に対応する正解を作成する。正解は、ワーク認識部6が出力する認識結果に対応するものである。たとえばワーク認識部6から図4のデータ名「1」〜「5」にそれぞれ対応する確率が認識結果P1〜P5として出力される場合、データ名「3」に対応する正解は、(P1=0、P2=0、P3=1、P4=0、P5=0)となる。
図6では、モニタ9はワーク学習部5に接続され、ワーク学習部5で上記の第2作成手順を実施したが、モニタ9をワーク認識部6に接続し、ワーク認識部6に接続されたキーボード10やマウス11を用いてワーク認識部6で上記の第2作成手順を実施してもよい。この場合、ワーク認識部6とデータ保存部7を接続し、データを保存できるようにする。
ステップS24〜S27では、上記の関連付けにおいて、モニタ9に表示された取得データ12を見ながらユーザがキーボード10やマウス11を用い、ワークの位置や回転角度、縮尺等を入力する。
ステップS24において、ワーク学習部5は、モニタ9上に取得した画像を表示する。続いて、ステップS25において、ワーク学習部5は、ユーザから画像中のワークの中心位置の指定を受け、平行移動量を算出する。なお、平行移動量は、画像の左上端を原点とする水平方向および垂直方向の座標値として与えられる。
さらに、ステップS26において、ワーク学習部5は、ユーザに指定された画像中のワークの2点に基づいて回転角を算出する。たとえばワークが四角形の場合、ユーザは、対角の2頂点を指定する。これによりワーク学習部5は回転角を認識できる。また、ステップS27において、ユーザが外形を画像上で指定すると、ワーク学習部5は、画像中に撮影されているワークの倍率を算出することができる。
そしてステップS28において、入力された位置や回転角度、縮尺等は取得データ12に関連付けてデータ保存部7に保存される。
以上の第1作成手順または第2作成手順で訓練データが用意された後に、ワーク学習部5は、以下に説明する手順で学習を行なう。
[訓練用画像を用いた学習]
図8は、ワーク学習部5における学習を説明するための図である。図9は、ワーク学習部で実行されるワーク学習手順を説明するためのフローチャートである。以下は、データ名「3」を学習する場合を例として説明する。
図8は、ワーク学習部5における学習を説明するための図である。図9は、ワーク学習部で実行されるワーク学習手順を説明するためのフローチャートである。以下は、データ名「3」を学習する場合を例として説明する。
学習データ作成部3では訓練データと関連付けてデータ名を保存している。ステップS31において、ワーク学習部5は、訓練データとともに、データ保存部7から、データ名「3」の教師データとして(P1=0、P2=0、P3=1、P4=0、P5=0)を得る。
ステップS32において、ワーク学習部5は、画像枚数をカウントする変数nを1に初期化する。ステップS33において変数nが画像枚数以下であるか否かが判断される。ステップS33において、変数nが画像枚数以下である場合、ステップS34〜S37の処理が実行される。ステップS33において、変数nが画像を超えた場合、ステップS34〜S37の処理は実行されずステップS38に処理が進められる。
ステップS34において、ワーク学習部5は、ワーク認識部6に訓練データを入力する。そして、ステップS35においてワーク学習部5はワーク認識部6の認識結果を取得する。
ステップS36において、ワーク学習部5は、ワーク認識部6の出力結果が教師データと一致するようにワーク認識部6の内部パラメータを修正する。変更後の内部パラメータで再度認識を行ない、ワーク認識部6の出力が教師データと一致しない場合は、ワーク学習部5は再度内部パラメータを修正する。ワーク学習部5はステップS36において内部パラメータの修正と認識の処理を繰り返し行ない、ワーク認識部6の出力を教師データに近づける。
図8において、認識結果P1〜P5は、データ名「1」〜「5」にそれぞれ該当する確率を示す。(P1=1,P2=0,P3=0.5,P4=1,P5=0)は、内部パラメータを調整する前のワーク認識部6における訓練データの認識結果を示す。図8に示される教師データ(P1=0,P2=0,P3=1,P4=0,P5=0)は、データ名「3」の確率が1であり、データ名「1」,「2」,「4」,「5」である確率がゼロであるという認識結果を示す。ワーク学習部5は、訓練データを認識した結果が教師データ(P1=0,P2=0,P3=1,P4=0,P5=0)に近づくように、ステップS36において、ワーク認識部6の内部パラメータを調整する学習処理を実行する。
ステップS36に続き、ステップS37において変数nがインクリメントされ、再びステップS33の判定処理が実行される。ステップS33の判定処理において変数nが訓練画像の枚数を超えていた場合、ステップS38に処理が進められ、学習結果が保存される。具体的には、ステップS38において、ワーク学習部5は、調整していたワーク認識部6の内部パラメータを固定し、学習を終了する。
なお、以上の説明では、データ名を学習する手順を例示したが、ワーク学習部5ではデータ名に加え、学習データを作成したときの取得データに対応するワークの平行移動量や回転角度、縮尺等を教師データとして与え、これらを直接学習しても良い。この場合、ワーク認識部6の認識処理の結果、平行移動量や回転角度、縮尺等がワーク認識部6から出力される。なお、平行移動量は、画像の左上端を原点とする水平方向および垂直方向の座標値として与えられる。
[ワークの識別処理]
学習工程で内部パラメータが調整されたワーク認識部6は、ワーク観察部4で撮影されたワークがどのデータ名に該当するものであるか識別することが可能となる。
学習工程で内部パラメータが調整されたワーク認識部6は、ワーク観察部4で撮影されたワークがどのデータ名に該当するものであるか識別することが可能となる。
図10は、ワーク識別部で実行されるワーク識別工程を説明するためのフローチャートである。まず、ステップS41において、ワーク認識部6は、ワーク観察部4で撮影した画像を取得する。続いてステップS42において、ワーク認識部6は、ワーク学習部5によって調整済みの内部パラメータを用いて認識処理を実行する。そしてステップS43において、ワーク認識部6は認識結果を出力する。
以上のフローチャートで説明したワークの認識方法を要約して説明する。本実施の形態の係るワークの認識方法は、ワークの設計情報に基づいて、学習に必要な訓練データを作成するステップ(S1〜S6)と、訓練データを学習するステップ(S31〜S38)と、ワークを撮影した画像を受け、学習結果を用いてワークの形状を認識するステップ(S41〜S43)とを備える。
このように、訓練データをワークの設計情報に基づいて多数作成するので、実際にワークをカメラで撮影して学習用の訓練画像を多数用意するという手間を軽減することができる。
また、機械学習は、外乱を含んだデータそのものから正解がわかるため、誤認識した場合でも上記のワークの認識方法における処理内容の変更は必要ない。新規の誤認識画像データが発生した場合は、そのデータ自身を学習させるだけで済むため、画像処理の専門知識も不要であるという利点もある。
なお、このような認識結果は、たとえば、ワークを入れる容器に図4に示した5つの形状のいずれのワークが入っているのかを認識することに使用できる。また、認識結果に含まれる平行移動量や回転角度、縮尺等によってワークの姿勢を検出することもできる。
ワークの姿勢検出に必要な画像特徴はワーク学習部5およびワーク認識部6からなるニューラルネットワーク自身が学習するため、検出アルゴリズムを検討する工数を削減できる。また、最適な検出条件の探索や調整も必要としないため、複雑な作業を省略でき、認識装置を構築する工数を削減できる。
今回開示された実施の形態は、すべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記した実施の形態の説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
1 ワーク情報処理装置、2 ワークデータ作成部、3 学習データ作成部、4 ワーク観察部、5 ワーク学習部、6 ワーク認識部、7 データ保存部、9 モニタ、10 キーボード、11 マウス。
Claims (8)
- ワークの形状認識に用いるワーク情報処理装置であって、
前記ワークの設計情報に基づいて、学習に必要な訓練データを作成する学習データ作成部と、
前記訓練データを学習するワーク学習部と、
前記訓練データと前記ワーク学習部における学習結果とを保存するデータ保存部とを備える、ワーク情報処理装置。 - 前記設計情報から前記ワークの基本画像と座標データとを含むワークデータを作成するワークデータ作成部をさらに備え、
前記学習データ作成部は、前記基本画像を変更して前記訓練データを作成する、請求項1に記載のワーク情報処理装置。 - 前記学習データ作成部は、前記基本画像に対して、平行移動、回転、縮小および拡大のうちの少なくともいずれか1つの処理を行なうことによって、前記訓練データを作成する、請求項2に記載のワーク情報処理装置。
- 前記学習データ作成部は、前記基本画像に対して、前記ワークの表面の色の変更、前記ワークに照射する光の照射方向の変更、および前記ワークに照射する光の強度の変更のうちの少なくともいずれか1つの処理を行なうことによって、前記訓練データを作成する、請求項2または3に記載のワーク情報処理装置。
- 前記ワークを撮影するワーク観察部をさらに備え、
前記訓練データは、
前記学習データ作成部によって作成された第1の画像データと、
前記ワーク観察部によって撮影された第2の画像データとを含む、請求項1〜4のいずれか1項に記載のワーク情報処理装置。 - 前記ワークの設計情報は、二次元CADまたは三次元CADの設計情報を含む、請求項1〜5のいずれか1項に記載のワーク情報処理装置。
- 前記ワークを撮影した画像を受けて前記ワークの形状を認識するワーク認識部をさらに備え、
前記ワーク学習部は、前記訓練データを学習することによって前記ワーク認識部の内部パラメータを変更する、請求項1〜6のいずれか1項に記載のワーク情報処理装置。 - ワークの設計情報に基づいて、学習に必要な訓練データを作成するステップと、
前記訓練データを学習するステップと、
前記ワークを撮影した画像を受け、学習結果を用いて前記ワークの形状を認識するステップとを備える、ワークの認識方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017182799A JP2019057250A (ja) | 2017-09-22 | 2017-09-22 | ワーク情報処理装置およびワークの認識方法 |
PCT/JP2018/035021 WO2019059343A1 (ja) | 2017-09-22 | 2018-09-21 | ワーク情報処理装置およびワークの認識方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017182799A JP2019057250A (ja) | 2017-09-22 | 2017-09-22 | ワーク情報処理装置およびワークの認識方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019057250A true JP2019057250A (ja) | 2019-04-11 |
Family
ID=65811272
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017182799A Pending JP2019057250A (ja) | 2017-09-22 | 2017-09-22 | ワーク情報処理装置およびワークの認識方法 |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2019057250A (ja) |
WO (1) | WO2019059343A1 (ja) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020197978A (ja) * | 2019-06-04 | 2020-12-10 | グローリー株式会社 | 物体検出装置、物体把持システム、物体検出方法及び物体検出プログラム |
WO2021085561A1 (ja) * | 2019-10-31 | 2021-05-06 | ミネベアミツミ株式会社 | 学習データ生成方法 |
WO2021176902A1 (ja) * | 2020-03-02 | 2021-09-10 | ソニーグループ株式会社 | 学習処理装置、ロボット制御装置、および方法、並びにプログラム |
WO2022202365A1 (ja) * | 2021-03-22 | 2022-09-29 | パナソニックIpマネジメント株式会社 | 検査支援システム、検査支援方法、及びプログラム |
WO2023073780A1 (ja) * | 2021-10-25 | 2023-05-04 | ファナック株式会社 | 学習データの生成装置および学習データの生成方法、並びに学習データを使用する機械学習装置および機械学習方法 |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112184713A (zh) * | 2020-11-06 | 2021-01-05 | 上海柏楚电子科技股份有限公司 | 切割含焊缝管材的控制方法、装置、切割***、设备与介质 |
JPWO2023286847A1 (ja) * | 2021-07-15 | 2023-01-19 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6282045B2 (ja) * | 2013-05-23 | 2018-02-21 | キヤノン株式会社 | 情報処理装置および方法、プログラム、記憶媒体 |
AU2015402206A1 (en) * | 2015-07-13 | 2017-12-21 | Landmark Graphics Corporation | Underbalanced drilling through formations with varying lithologies |
JP2017054450A (ja) * | 2015-09-11 | 2017-03-16 | キヤノン株式会社 | 認識装置、認識方法及び認識用プログラム |
JP6604832B2 (ja) * | 2015-12-02 | 2019-11-13 | 池上通信機株式会社 | 機械学習支援装置 |
-
2017
- 2017-09-22 JP JP2017182799A patent/JP2019057250A/ja active Pending
-
2018
- 2018-09-21 WO PCT/JP2018/035021 patent/WO2019059343A1/ja active Application Filing
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020197978A (ja) * | 2019-06-04 | 2020-12-10 | グローリー株式会社 | 物体検出装置、物体把持システム、物体検出方法及び物体検出プログラム |
JP7377627B2 (ja) | 2019-06-04 | 2023-11-10 | グローリー株式会社 | 物体検出装置、物体把持システム、物体検出方法及び物体検出プログラム |
WO2021085561A1 (ja) * | 2019-10-31 | 2021-05-06 | ミネベアミツミ株式会社 | 学習データ生成方法 |
WO2021176902A1 (ja) * | 2020-03-02 | 2021-09-10 | ソニーグループ株式会社 | 学習処理装置、ロボット制御装置、および方法、並びにプログラム |
WO2022202365A1 (ja) * | 2021-03-22 | 2022-09-29 | パナソニックIpマネジメント株式会社 | 検査支援システム、検査支援方法、及びプログラム |
WO2023073780A1 (ja) * | 2021-10-25 | 2023-05-04 | ファナック株式会社 | 学習データの生成装置および学習データの生成方法、並びに学習データを使用する機械学習装置および機械学習方法 |
Also Published As
Publication number | Publication date |
---|---|
WO2019059343A1 (ja) | 2019-03-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2019057250A (ja) | ワーク情報処理装置およびワークの認識方法 | |
US11338435B2 (en) | Gripping system with machine learning | |
US11741367B2 (en) | Apparatus and method for image processing to calculate likelihood of image of target object detected from input image | |
JP5458885B2 (ja) | 物体検出方法と物体検出装置およびロボットシステム | |
CN112297013B (zh) | 一种基于数字孪生和深度神经网络的机器人智能抓取方法 | |
JP4309439B2 (ja) | 対象物取出装置 | |
CN113524194A (zh) | 基于多模特征深度学习的机器人视觉抓取***的目标抓取方法 | |
JP6487493B2 (ja) | 画像処理システム | |
CN113146172B (zh) | 一种基于多视觉的检测与装配***及方法 | |
CN111151463A (zh) | 一种基于3d视觉的机械臂分拣抓取***及方法 | |
JP2020082322A (ja) | 機械学習装置、機械学習システム、データ処理システム及び機械学習方法 | |
CN113920060A (zh) | 焊接机器人自主作业方法、装置、电子设备及存储介质 | |
JP2018128897A (ja) | 対象物の姿勢等を検出する検出方法、検出プログラム | |
CN116673962A (zh) | 一种基于FasterR-CNN和GRCNN的机械臂智能抓取方法及*** | |
CN116985141B (zh) | 一种基于深度学习的工业机器人智能控制方法及*** | |
CN113664826A (zh) | 一种未知环境中的机器人抓取方法及*** | |
CN114187312A (zh) | 目标物的抓取方法、装置、***、存储介质及设备 | |
US20230150142A1 (en) | Device and method for training a machine learning model for generating descriptor images for images of objects | |
CN116175542B (zh) | 确定夹具抓取顺序的方法、装置、电子设备和存储介质 | |
Funakubo et al. | Recognition and handling of clothes with different pattern by dual hand-eyes robotic system | |
CN116529760A (zh) | 抓取控制方法、装置、电子设备和存储介质 | |
KR102452315B1 (ko) | 딥러닝과 마커를 이용한 비전인식을 통한 로봇 제어장치 및 그 방법 | |
CN211028657U (zh) | 一种智能焊接机器人*** | |
Funakubo et al. | Verification of illumination tolerance for clothes recognition | |
An et al. | Neural Radiance Fields Assist in Object Grab for Digital Twins |