JP6237117B2 - 画像処理装置、ロボットシステム、画像処理方法、および画像処理プログラム - Google Patents

画像処理装置、ロボットシステム、画像処理方法、および画像処理プログラム Download PDF

Info

Publication number
JP6237117B2
JP6237117B2 JP2013223351A JP2013223351A JP6237117B2 JP 6237117 B2 JP6237117 B2 JP 6237117B2 JP 2013223351 A JP2013223351 A JP 2013223351A JP 2013223351 A JP2013223351 A JP 2013223351A JP 6237117 B2 JP6237117 B2 JP 6237117B2
Authority
JP
Japan
Prior art keywords
image
processing
image processing
input
rotation angle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013223351A
Other languages
English (en)
Other versions
JP2015087801A (ja
Inventor
智紀 原田
智紀 原田
橋本 浩一
浩一 橋本
航 今井
航 今井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2013223351A priority Critical patent/JP6237117B2/ja
Publication of JP2015087801A publication Critical patent/JP2015087801A/ja
Application granted granted Critical
Publication of JP6237117B2 publication Critical patent/JP6237117B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像処理装置、ロボットシステム、画像処理方法、および画像処理プログラムに関する。
カメラによって撮像された画像等を、予め用意された基準画像と比較して、一致するかどうかを判断する技術が知られている。例えば、登録画像および入力画像を構成する各画素の極座標に基づきそれぞれフーリエ変換し、フーリエ変換された登録画像および入力画像に基づき位相成分を抽出して、位相成分を合成して得られる位相限定合成の複素共役をフーリエ変換された入力画像に積算して入力画像を補正し、補正された入力画像と登録画像との相関値を演算し、演算された相関値に基づき入力画像中から登録画像のパターン検出を行うパターン検出装置が知られている(例えば、特許文献1参照)。
特開2004−326728号公報
従来の技術では、例えば半透明の袋に入れられた物体を撮像した画像のように、マッチングの難易度の高い画像に対して、精度良くマッチングを行うことができない場合があった。
本発明は、このような事情を考慮してなされたものであり、より高精度にマッチングを行うことを目的の一つとする。
本発明の一態様は、物体を撮像した画像である入力画像の入力を受け付ける受付部と、前記入力画像と基準画像とが適合する相対的な並進移動量および回転角を、互いに異なる複数の手法により導出する複数の処理部と、前記複数の処理部による処理結果を評価し、前記複数の処理部のうち少なくとも1つの処理部の処理結果を選択する評価部と、を備える画像処理装置である。
本発明の一態様によれば、より高精度にマッチングを行うことができる。
本発明の一態様において、前記複数の処理部は、互いに異なる手法により前記相対的な回転角を求め、所定の手法に基づき前記相対的な並進移動量を求めるものとしてもよい。
また、本発明の一態様において、前記所定の手法は、位相限定相関に基づく手法であるものとしてもよい。
また、本発明の一態様において、前記複数の処理部は、回転不変位相限定相関、相互情報量、画素値の差の二乗和のうちいずれかに基づく手法であって、他の処理部と異なる手法に基づき前記相対的な回転角を求めるものとしてもよい。こうすれば、更に高精度にマッチングを行うことができる。
本発明の他の態様は、本発明の一態様の画像処理装置と、ロボット本体部と、前記画像処理装置の評価部により選択された処理結果を用いて、前記ロボット本体部の駆動制御を行うロボット制御装置と、を備えるロボットシステムである。
本発明の他の態様によれば、高精度に行われたマッチング結果を用いて、より高精度な作業を行うことができる。
本発明の他の態様は、物体を撮像した画像である入力画像の入力を受け付けることと、前記入力画像と基準画像とが適合する相対的な並進移動量および回転角を、互いに異なる複数の手法により導出することと、前記複数の処理部による処理結果を評価し、前記複数の処理部のうち少なくとも1つの処理部の処理結果を選択することと、を備える画像処理方法である。
本発明の他の態様によれば、より高精度にマッチングを行うことができる。
本発明の他の態様は、コンピューターに、物体を撮像した画像である入力画像の入力を受け付けさせ、前記入力画像と基準画像とが適合する相対的な並進移動量および回転角を、互いに異なる複数の手法により導出させ、前記複数の処理部による処理結果を評価させ、前記複数の処理部のうち少なくとも1つの処理部の処理結果を選択させる、画像処理プログラムである。
本発明の他の態様によれば、より高精度にマッチングを行うことができる。
本発明の各態様によれば、入力画像と基準画像とが適合する相対的な並進移動量および回転角を、互いに異なる複数の手法により導出し、複数の手法による処理結果を評価し、複数の処理部のうち少なくとも1つの処理部の処理結果を選択するため、より高精度にマッチングを行うことができる。
本実施形態のロボットシステム1の機能構成の一例を示す図。 画像処理装置5を利用したロボットシステム1の外観構成の一例を示す図。 画像処理装置5のハードウェア構成の一例を示す図。 画像処理装置5の機能構成の一例を示す図。 マッチングが行われる様子を模式的に示す図。 画像処理装置5の各部によって行われる処理の流れを示す図。
以下、図面を参照し、画像処理装置、ロボットシステム、画像処理方法、および画像処理プログラムの実施形態について説明する。図1は、本実施形態のロボットシステム1の機能構成の一例を示す図である。ロボットシステム1は、例えば、カメラ3と、画像処理装置5と、ロボット制御装置100と、ロボット本体部110とを備える。また、図2は、画像処理装置5を利用したロボットシステム1の外観構成の一例を示す図である。
カメラ3は、対象物体OBJを撮像し、撮像した画像を、入力画像IIMとして画像処理装置5に送信する。対象物体OBJは、例えば、工場で組み立てに使用される部品である。カメラ3は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の固体撮像素子を備えるデジタルカメラである。カメラ3は、例えば画像処理装置5から入力される指示信号に応じて、作業台等に置かれた対象物体OBJを撮像する。カメラ3と画像処理装置5は、必ずしも近接して設置される必要はなく、LAN(Local Area Network)やWAN(Wide Area Network)等のネットワークを介して接続されてもよい。
ロボット制御装置100は、例えば、対象物体OBJとロボット本体部110との位置関係を確認するために、画像処理装置5から、対象物体OBJの位置および姿勢に関する情報を取得する。例えば、ロボット制御装置100は、画像処理装置5から入力された情報に含まれる位置または姿勢の一方または双方に基づいて、ロボット本体部110の把持部110dが対象物体OBJを把持できる把持位置またはロボット本体部110の把持部110dが対象物体OBJを把持できる把持角度の一方または双方を算出する。例えば、ロボット制御装置100は、把持位置及び把持角度の双方を算出した場合、算出した把持位置へロボット本体部110の把持部110dを移動させるように制御するとともに、ロボット本体部110の把持部110dの角度が算出した把持角度になるよう制御する。
そして、ロボット制御装置100は、ロボット本体部110の把持部の位置および角度がそれぞれ算出した把持位置及び把持角度になった場合、ロボット本体部110の把持部に、対象物体OBJを把持させるように制御する。ロボット本体部110は、例えば、ロボット制御装置100の制御により、対象物体OBJを把持し、対象物体OBJを把持したまま予め決められた目的位置まで対象物体OBJを搬送する。ロボット本体部110は、地面に固定された支持台110aと、旋回可能および屈伸可能に支持台110aに連結されたアーム部110bと、回動可能および首振り可能にアーム部110bに連結されたハンド部110cと、ハンド部110cに取り付けられた把持部110dとを含む。
ロボット本体部110は、例えば、6軸の垂直多関節ロボットであり、支持台110aとアーム部110bとハンド部110cとの連係した動作によって6軸の自由度を有し、把持部110dが把持する対象物体OBJの位置および角度を自在に変更することができる。ロボット本体部110は、ロボット制御装置100による制御によって、アーム部110bとハンド部110cと把持部110dとのうちいずれか一つまたは組み合わせを動かす。ロボット本体部110の自由度は6軸に限定されず、任意の数の軸を有してもよい。例えば、ロボット本体部110の自由度は7軸でもよい。また、支持台110aは、壁や天井等、地面に対して固定された場所に設置してもよい。
図3は、画像処理装置5のハードウェア構成の一例を示す図である。画像処理装置5は、例えば、CPU(Central Processing Unit)10と、メモリー装置20と、補助記憶装置30と、入力装置40と、出力装置50と、インターフェース装置60とを備える。これらの構成要素は、例えばバスによって相互に接続されている。
CPU10は、補助記憶装置30に記憶された画像処理用プログラム31を実行することにより、後述する種々の処理を行う。画像処理用プログラム31は、例えば、POCモジュール32と、RIPOCモジュール33と、MIモジュール34と、SSDモジュール35とを含む。これらのモジュールにより実現される機能に関しては後述する。メモリー装置20は、例えばRAM(Random Access Memory)である。補助記憶装置30は、例えば、ROM(Read Only Memory)やHDD(Hard Disk Drive)、フラッシュメモリー等を含む。補助記憶装置30には、更に、基準画像データ39が格納される。
画像処理用プログラム31は、画像処理装置5の出荷時に、予め補助記憶装置30に格納されていてもよいし、画像処理装置5の使用段階においてインターネット等を介して他のコンピューター装置からダウンロードされてもよい。また、画像処理用プログラム31を格納した可搬型記憶媒体が画像処理装置5のドライブ装置に装着されることにより、画像処理装置5にインストールされてもよい。
入力装置40は、例えば、各種スイッチ、ボタン、キーボード、マウス、マイク等を含む。出力装置50は、表示装置、スピーカ等を含む。なお、画像処理装置5がロボット等に内蔵される組み込みコンピューターである場合、入力装置40と出力装置50の一部は省略されてよい。
インターフェース装置60は、例えばCPU10からの指示に応じてカメラ3が撮像した画像を取得し(画像の入力を受け付け)、メモリー装置20または補助記憶装置30に格納する。
図4は、画像処理装置5の機能構成の一例を示す図である。画像処理装置5は、例えば、画像読込部80と、RIPOC処理部81と、PMI処理部82と、PSSD処理部83と、GMI処理部84と、GSSD処理部85と、評価部86と、マッチング結果確定部87とを備える。これらの機能部のうち一部または全部は、CPU10が補助記憶装置30に格納された画像処理用プログラム31を実行することにより機能するソフトウェア機能部である。また、これらの機能部のうち一部または全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)等のハードウェア機能部であってもよい。
画像読込部80は、インターフェース装置60を介してカメラ3から入力される入力画像IIMを、メモリー装置20の作業領域に格納する。また、画像読込部80は、基準画像CIMを補助記憶装置30から読み出し、メモリー装置20の作業領域に格納する。
RIPOC処理部81、PMI処理部82、PSSD処理部83、GMI処理部84、およびGSSD処理部85は、それぞれ異なる手法によって、入力画像IIMと基準画像CIMの適合位置を探索する。「適合」とは、画像同士が完全に一致、または同じ対象物体を撮像したと推定される程度に類似することをいう。以下、適合位置を探索することを、マッチングと称する。
図5は、マッチングが行われる様子を模式的に示す図である。基準画像CIMは、予め対象物体OBJを所定の距離および角度から撮像した画像であり、基準画像データ39として補助記憶装置30に格納されている。入力画像IIMは、例えば対象物体OBJと同一種類の物体をカメラ3が撮像した画像であり、画像平面上の位置と回転角を適切に変更することによって、基準画像CIM(複数の基準画像CIMが存在する場合は、いずれかの基準画像CIM)に合致すると想定される画像である。マッチングの処理は、例えば、入力画像IIMと基準画像CIMのいずれか一方を画像平面上で並進移動および回転させ、最も合致程度が高い画像平面上の位置を探索する処理である。以下では入力画像IIMを移動させるものとして説明するが、基準画像CIMを移動させる場合も、原理的には同じである。
最も合致程度が高い「位置」は、例えば、並進移動ベクトル→xおよび回転角θで表される。並進移動ベクトル→xは、例えば、入力画像IIMの基準点(例えば重心)と基準画像CIMの基準点(例えば重心)が一致する場合を出発点として、入力画像IIMを最も合致程度が高い位置に移動させたときの、基準画像CIMの基準点から入力画像IIMの基準点に引いたベクトルとして求められる。図5では、入力画像IIMと基準画像の重心を一致させた上で、合致程度が高い位置に移動させるものとして表現した。また、入力画像IIMが最も合致程度が高い位置に移動したときの、移動前の入力画像IIMに対して移動後の入力画像IIMのなす角度が、回転角θとなる。すなわち、適切に探索が行われたと仮定すると、移動前の入力画像IIMを画像平面上でベクトル→xだけ並進移動させ、更に、例えば入力画像IIMの重心まわりに回転角θ分回転させることにより、画像同士が適合することになる。
ここで、入力画像IIMは、実際の撮像条件(明るさ、撮像角度、対象物体OBJによる反射光、対象物体OBJが柔らかい物体である場合はその形状等)が変動することによって、基準画像CIMの一部または全部とぴったり同一にはならない場合がある。例えば、対象物体OBJが、半透明の袋に入れられた電子機器等である場合、袋による反射光や光の透過程度が入力画像毎に異なるため、マッチングの難易度が高くなる。また、半透明の袋に入れられた電子機器等以外でも、対象物体OBJが、光の反射が見る方向によって異なる物体である場合、撮像環境における外乱が大きい場合には、マッチングの難易度が高くなる。これに対し、本実施形態の画像処理装置5では、複数の処理部によって異なる手法によりマッチングを行い、マッチング結果から好適なものを選択してマッチング結果を確定するため、より精度よくマッチングを行うことができる。
図6は、画像処理装置5の各部によって行われる処理の流れを示す図である。以下、下記の用語を用いて説明を行う。
・POC(Phase―Only Correlation):位相限定相関
・RIPOC(Rotation Invariant Phase―Only Correlation):回転不変位相限定相関
・MI(Mutual Information):相互情報量
・SSD(Sum of Squared Difference):画素値の差の二乗和
まず、画像読込部80が、入力画像IIMと基準画像CIMを、メモリー装置20の作業領域に格納する。
RIPOC処理部81は、RIPOCモジュール33を実行することにより機能し、RIPOCアルゴリズムに基づいてマッチング処理を行う。RIPOCモジュール33は、POCモジュール32を利用する(例えばサブルーチンとして呼び出す)。POCモジュール32は、POCアルゴリズムを内包している。POCアルゴリズムは、入力画像IIMと基準画像CIMの並進移動ベクトルを変更しながら、それぞれの画像に対してフーリエ変換を行い、画像の位相領域の相関が最も高い位置を探索することで、入力画像IIMと基準画像CIMが適合する並進移動ベクトルを求めるアルゴリズムである。
POCアルゴリズムは、回転角を求めることができないが、RIPOCアルゴリズムは、回転角を求めることができる。RIPOC処理部81は、RIPOCアルゴリズムを実行することで、入力画像IIMと基準画像CIMに対してフーリエ変換を行った後に極座標変換を行い、その後、POCアルゴリズムを実行することで、入力画像IIMと基準画像CIMが適合する並進移動ベクトルと回転角を求める(図6における「RIPOCマッチング」)。
PMI処理部82は、RIPOCモジュール33と、MIモジュール34と、POCモジュール32とを実行することにより機能する。PMI処理部82は、RIPOCモジュール33による処理結果(並進移動ベクトルと回転角)を初期値としてMIアルゴリズムを実行し(図6における「MIマッチング」)、MIアルゴリズムの結果に含まれる回転角を用いて入力画像IIMを回転させた後に、POCアルゴリズムを用いて並進移動ベクトルを求める(図6における「POCマッチング」)。
MIアルゴリズムは、例えば、入力画像IIMを移動させながら、基準画像CIMの各画素の輝度値と、入力画像IIMの基準画像CIMに対応する広さの領域における画素の輝度値とから(面積がCIM<IIMを前提としている)、2次元ヒストグラムを計算する。次に、MIアルゴリズムは、その2次元ヒストグラムを用いて計算される確率密度関数を用いて、相互情報量を計算する。そして、MIアルゴリズムは、相互情報量が最大となる入力画像IIMの位置から、並進移動ベクトルおよび回転角を求める。相互情報量とは、2つの事象AとBについて、事象Aが有している事象Bに関する情報量を定量化した尺度である。本実施形態では、事象Aと事象Bの2次元結合ヒストグラムHist(A,B)に基づき、正規化相互情報量NMI(A,B)を、式(1)によって求める。H(A)は事象Aのエントロピー、H(B)は事象Bのエントロピー、H(A,B)は事象A,Bの結合エントロピーである。p(a)はaの確率密度分布、p(b)はbの確率密度分布である。p(a,b)はa,bの同時確率分布であり、Hist(A,B)から求められる。事象Aと事象Bが完全に独立である場合には、H(A,B)=H(A)+H(B)となる。事象Aと事象Bが完全に従属である場合には、H(A,B)=H(A)=H(B)となる。
Figure 0006237117
PSSD処理部83は、RIPOCモジュール33と、SSDモジュール35と、POCモジュール32とを実行することにより機能する。PSSD処理部83は、RIPOCモジュール33による処理結果(並進移動ベクトルと回転角)を初期値としてSSDアルゴリズムを実行し(図6における「SSDマッチング」)、SSDアルゴリズムの結果に含まれる回転角を用いて入力画像IIMを回転させた後に、POCアルゴリズムを用いて並進移動ベクトルを求める(図6における「POCマッチング」)。
SSDアルゴリズムは、例えば、入力画像IIMを移動させながら、基準画像CIMの各画素と、入力画像IIMの基準画像CIMに対応する広さの領域の画素との間でSSDを計算し、SSDが最小となる入力画像IIMの位置から、並進移動ベクトルおよび回転角を求める。SSDは、例えば、式(2)で表される。
Figure 0006237117
GMI処理部84は、MIモジュール34と、POCモジュール32とを実行することにより機能する。GMI処理部84は、輝度重心を用いた並進移動ベクトルの初期値推定を行い、更にMIアルゴリズムを用いた回転角の初期値推定を行う。そして、MIアルゴリズムを実行し(図6における「MIマッチング」)、MIアルゴリズムの結果に含まれる回転角を用いて入力画像IIMを回転させた後に、POCアルゴリズムを用いて並進移動ベクトルを求める(図6における「POCマッチング」)。
GSSD処理部85は、SSDモジュール35と、POCモジュール32とを実行することにより機能する。GSSD処理部85は、輝度重心を用いた並進移動ベクトルの初期値推定を行い、更にSSDアルゴリズムを用いた回転角の初期値推定を行う。そして、SSDアルゴリズムを実行し(図6における「SSDマッチング」)、SSDアルゴリズムの結果に含まれる回転角を用いて入力画像IIMを回転させた後に、POCアルゴリズムを用いて並進移動ベクトルを求める(図6における「POCマッチング」)。
RIPOC処理部81、PMI処理部82、PSSD処理部83、GMI処理部84、およびGSSD処理部85が処理を行うと、評価部86が、各処理部の処理結果を評価し、少なくとも1つの処理部の処理結果を選択する。評価部86は、1つの処理部の処理結果のみ選択してもよいし、評価が上位の処理部の処理結果を2つ以上抽出してもよい。評価部86は、例えば、各処理部が最終的に行ったPOCマッチングにおいて、探索結果である「画像の位相領域の相関が最も高い位置」における「位相領域の相関」が高い程、高い評価を与える。
マッチング結果確定部87は、評価部86による評価結果に基づいて、マッチング結果を確定する。マッチング結果確定部87は、評価部86が1つの処理部の処理結果を選択する場合は、評価部86により選択された処理部による処理結果(並進移動ベクトル、および回転角)をマッチング結果として確定し、メモリー装置20などに格納する。また、マッチング結果確定部87は、評価部86が複数の処理部の処理結果を選択する場合は、処理結果を合成する(例えば平均を求める)等の処理を行ってもよい。
メモリー装置20などに格納されたマッチング結果は、対象物体OBJの位置および姿勢に関する情報として、ロボット制御装置100に送信される。
ここで、RIPOCアルゴリズムは、光を透過する対象物体OBJに対しても、対象物体OBJによる反射光の変化に対しても頑強であるが、位相情報が少ない対象物体OBJ(模様、色彩の変化が小さく一様なもの)を精度よく認識できないという性質を有している。このため、本実施形態の画像処理装置5では、RIPOCアルゴリズムとは異なる性質を有するMIアルゴリズムやSSDアルゴリズムを選択的に採用することによって、RIPOCアルゴリズムの精度が低下するような撮像条件下でも、高精度に回転角を求めることができる。
また、MIアルゴリズムやSSDアルゴリズムは、初期値が正確であれば、より正確にマッチングを行うことができるという性質を有している。このため、本実施形態の画像処理装置5では、RIPOCアルゴリズムや輝度重心を用いてMIアルゴリズムやSSDアルゴリズムの初期値を決定することで、より高精度に回転角を求めることができる。
以上説明した本実施形態の画像処理装置、ロボットシステム、画像処理方法、および画像処理プログラムによれば、入力画像IIMと基準画像CIMとが適合する相対的な並進移動量および回転角を、互いに異なる複数の手法(処理部)により導出し、複数の処理部による処理結果を評価して少なくとも1つの処理部の処理結果を選択するため、より高精度にマッチングを行うことができる。
また、本実施形態の画像処理装置、ロボットシステム、画像処理方法、および画像処理プログラムによれば、光を透過する対象物体OBJに対しても対象物体OBJによる反射光の変化に対しても頑強であるが、位相情報が少ない対象物体OBJ(模様、色彩の変化が小さく一様なもの)を精度よく認識できないという性質を有しているRIPOCアルゴリズムと、それとは異なる性質を有しているMIアルゴリズムやSSDアルゴリズムを組み合わせることによって、RIPOCアルゴリズムの精度が低下するような撮像条件下でも、高精度に回転角を求めることができる。
以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。
例えば、上記実施形態では、入力画像IIMと基準画像CIMの撮像距離が同じ、或いは近いことを前提としたが、カメラ3から対象物体OBJまでの距離を何らかの手法で認識し、入力画像IIMまたは基準画像CIMを拡大または縮小した上で、上記マッチング処理を行うようにしてもよい。カメラ3から対象物体OBJまでの距離は、カメラ3の撮像画像を解析して認識してもよいし(例えば対象物体OBJの輪郭のサイズによって認識する)、レーダー装置その他の測距センサを用いて認識してもよい。
また、上記実施形態では、複数の処理部は、RIPOC、MI、SSDといった手法を用いてマッチングを行うものとしたが、SAD等、他の手法を用いてマッチングを行ってもよい。
また、画像処理装置5のマッチング結果を利用するロボット本体部110は、図2に例示した構造に限定されない。例えば、ロボット本体部110は、複数のアーム部を備え、一のアームにカメラ3が取り付けられた構造を備えてもよい。
また、画像処理装置5は、ロボットシステムに適用されるだけでなく、道路端に設置されて車両のナンバープレートや車種を判別する用途等、他の用途に使用されてよい。
1‥ロボットシステム、3‥カメラ、5‥画像処理装置、10‥CPU、20‥メモリー装置、30‥補助記憶装置、31‥画像処理用プログラム、32‥POCモジュール、33‥RIPOCモジュール、34‥MIモジュール、35‥SSDモジュール、39‥基準画像データ、40‥入力装置、50‥出力装置、60‥インターフェース装置、80‥画像読込部、81‥RIPOC処理部、82‥PMI処理部、83‥PSSD処理部、84‥GMI処理部、85‥GSSD処理部、86‥評価部、87‥マッチング結果確定部、100‥ロボット制御装置、110‥ロボット本体部、OBJ‥対象物体、IIM‥入力画像、CIM‥基準画像

Claims (7)

  1. 物体を撮像した画像である入力画像の入力を受け付ける受付部と、
    前記入力画像と基準画像とが適合する相対的な並進移動量および回転角を、互いに異なる複数の手法により導出する複数の処理部と、
    前記複数の処理部による処理結果を評価し、前記複数の処理部のうち少なくとも1つの処理部の処理結果を選択する評価部と、
    を備える画像処理装置。
  2. 請求項1記載の画像処理装置であって、
    前記複数の処理部は、互いに異なる手法により前記相対的な回転角を求め、所定の手法に基づき前記相対的な並進移動量を求める、
    画像処理装置。
  3. 請求項2記載の画像処理装置であって、
    前記所定の手法は、位相限定相関に基づく手法である、
    画像処理装置。
  4. 請求項1から3のうちいずれか1項に記載の画像処理装置であって、
    前記複数の処理部は、回転不変位相限定相関、相互情報量、画素値の差の二乗和のうちいずれかに基づく手法であって、他の処理部と異なる手法に基づき前記相対的な回転角を求める、
    画像処理装置。
  5. 請求項1から4のうちいずれか1項に記載の画像処理装置と、
    ロボット本体部と、
    前記画像処理装置の評価部により選択された処理結果を用いて、前記ロボット本体部の駆動制御を行うロボット制御装置と、
    を備えるロボットシステム。
  6. 物体を撮像した画像である入力画像の入力を受け付けることと、
    前記入力画像と基準画像とが適合する相対的な並進移動量および回転角を、互いに異なる複数の手法により導出することと、
    前記複数の処理部による処理結果を評価し、前記複数の処理部のうち少なくとも1つの処理部の処理結果を選択することと、
    を備える画像処理方法。
  7. コンピューターに、
    物体を撮像した画像である入力画像の入力を受け付けさせ、
    前記入力画像と基準画像とが適合する相対的な並進移動量および回転角を、互いに異なる複数の手法により導出させ、
    前記複数の処理部による処理結果を評価させ、前記複数の処理部のうち少なくとも1つの処理部の処理結果を選択させる、
    画像処理プログラム。
JP2013223351A 2013-10-28 2013-10-28 画像処理装置、ロボットシステム、画像処理方法、および画像処理プログラム Active JP6237117B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013223351A JP6237117B2 (ja) 2013-10-28 2013-10-28 画像処理装置、ロボットシステム、画像処理方法、および画像処理プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013223351A JP6237117B2 (ja) 2013-10-28 2013-10-28 画像処理装置、ロボットシステム、画像処理方法、および画像処理プログラム

Publications (2)

Publication Number Publication Date
JP2015087801A JP2015087801A (ja) 2015-05-07
JP6237117B2 true JP6237117B2 (ja) 2017-11-29

Family

ID=53050570

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013223351A Active JP6237117B2 (ja) 2013-10-28 2013-10-28 画像処理装置、ロボットシステム、画像処理方法、および画像処理プログラム

Country Status (1)

Country Link
JP (1) JP6237117B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7438220B2 (ja) * 2019-08-08 2024-02-26 鹿島建設株式会社 鉄筋判定装置および鉄筋判定方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004240931A (ja) * 2003-02-05 2004-08-26 Sony Corp 画像照合装置、画像照合方法、およびプログラム
JP4575027B2 (ja) * 2004-05-26 2010-11-04 株式会社山武 パターン照合装置
JP5760785B2 (ja) * 2011-07-15 2015-08-12 株式会社リコー 画像処理装置、画像処理システム

Also Published As

Publication number Publication date
JP2015087801A (ja) 2015-05-07

Similar Documents

Publication Publication Date Title
US11511421B2 (en) Object recognition processing apparatus and method, and object picking apparatus and method
CN106826815B (zh) 基于彩色图像与深度图像的目标物体识别与定位的方法
JP5746477B2 (ja) モデル生成装置、3次元計測装置、それらの制御方法及びプログラム
JP3859574B2 (ja) 3次元視覚センサ
JP6271953B2 (ja) 画像処理装置、画像処理方法
JP5812599B2 (ja) 情報処理方法及びその装置
US9633281B2 (en) Point cloud matching method
JP5699697B2 (ja) ロボット装置、位置姿勢検出装置、位置姿勢検出プログラム、および位置姿勢検出方法
JP2008506953A5 (ja)
JPWO2014061372A1 (ja) 画像処理装置、画像処理方法および画像処理プログラム
JP2020047049A (ja) 画像処理装置及び画像処理方法
JP2008229834A (ja) 移動ロボットの位置認識方法
WO2012091144A4 (en) Information processing apparatus and method
JP2010033447A (ja) 画像処理装置および画像処理方法
WO2017038659A1 (ja) 運動検出装置及びそれを用いた三次元形状測定装置
JP4925120B2 (ja) 物体認識装置および物体認識方法
US10902610B2 (en) Moving object controller, landmark, and moving object control method
JP6410231B2 (ja) 位置合わせ装置、位置合わせ方法及び位置合わせ用コンピュータプログラム
JP6922348B2 (ja) 情報処理装置、方法、及びプログラム
WO2008032375A1 (fr) Dispositif et procédé de correction d'image, et programme informatique
JP2010184300A (ja) 姿勢変更システムおよび姿勢変更方法
JP2020042575A (ja) 情報処理装置、位置合わせ方法、及びプログラム
CN114119652A (zh) 用于三维重构的方法和装置以及电子设备
JP6237117B2 (ja) 画像処理装置、ロボットシステム、画像処理方法、および画像処理プログラム
JP5748355B2 (ja) 3次元座標算出装置、3次元座標算出方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161004

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170925

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171003

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171016

R150 Certificate of patent or registration of utility model

Ref document number: 6237117

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150