JP2015085434A - ロボット、画像処理方法及びロボットシステム - Google Patents
ロボット、画像処理方法及びロボットシステム Download PDFInfo
- Publication number
- JP2015085434A JP2015085434A JP2013225869A JP2013225869A JP2015085434A JP 2015085434 A JP2015085434 A JP 2015085434A JP 2013225869 A JP2013225869 A JP 2013225869A JP 2013225869 A JP2013225869 A JP 2013225869A JP 2015085434 A JP2015085434 A JP 2015085434A
- Authority
- JP
- Japan
- Prior art keywords
- points
- central axis
- selection unit
- line segment
- robot
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Image Analysis (AREA)
- Manipulator (AREA)
Abstract
Description
この構成によれば、長さが所定の範囲内である2点を結ぶ中心軸からの半径が所定の範囲内にある点から形成される対象物の画像を表す点が特定される。そのため、曲面を有する対象物として、形状が円柱もしくは円柱に近似する対象物の位置及び姿勢を推定することができる。
この構成によれば、処理対象となる画像の領域が注目領域に限定され、中心軸の選択に要する点が選択した組をなす2点間の線分から予め定めた範囲内に限定される。そのため、対象物の位置及び姿勢を推定するための処理量の増大を抑制することができる。また、誤差が最も小さい中心軸が選択されるため、対応する周囲の点として対象物の形状に最も近似するものが選択される。
この構成によれば、被写体が表されている領域が最も大きい候補領域を含むように注目領域が選択されるため、処理対象となる対象物を表す画像の欠落を低減し、当該画像を確実に取得することができる。
この構成によれば、注目領域に含まれる画像のうち、対象物の画像の大きさからかけ離れた画像を除外することで処理効率を向上し、表している対象物の大きさとして妥当な画像を選択することができる。
撮像方向に垂直な面と2点間の直線の方向とのなす角が大きくなると、当該2点間の直線の周りの画像がその垂直な面に射影される面積が小さくなり、当該画像を表す点に基づく位置及び方向の推定精度が低下する。この構成によれば、かかる画像に対する処理を除外することで処理効率を向上し、より高い推定精度が期待できる画像を選択することができる。
これにより、推定した対象物の位置や姿勢に応じて動作を制御することができる。
この構成によれば、長さが所定の範囲内である2点を結ぶ中心軸からの半径が所定の範囲内にある点から形成される対象物の画像を表す点が特定される。そのため、曲面を有する対象物として、形状が円柱もしくは円柱に近似する対象物の位置及び姿勢を推定することができる。
この構成によれば、長さが所定の範囲内である2点を結ぶ中心軸からの半径が所定の範囲内にある点から形成される対象物の画像を表す点が特定される。そのため、曲面を有する対象物として、形状が円柱もしくは円柱に近似する対象物の位置及び姿勢を推定することができる。
また、この構成によれば、推定した対象物の位置及び姿勢に応じてロボットの動作を制御することができる。
図1は、本実施形態に係るロボットシステム1の概略斜視図である。
図1に示すように、ロボットシステム1は、撮像装置10、制御装置20及びロボット30を備える。なお、図1における部品や構造等の縮尺は、図を明瞭なものとするために実際のものとは異なっている。
なお、図1に示す例では、X方向は左方、Y方向は奥行方向、Z方向は下方である。
撮像装置10は、その光学軸が、例えば、水平面に対して垂直(下方)に向くように設置されている。撮像装置10は、少なくとも1つの対象物を含む撮像領域Irに含まれる1フレームの3次元の画像を撮像する。撮像領域Irは、撮像装置10がその領域内に置かれた被写体の画像を撮像することができる予め定めた大きさを有する3次元の領域である。
撮像装置10は、撮像により得られた撮像画像(以下、カメラ画像ともいう)を示す画像データを制御装置20に出力する。
ロボット30の自由度は6軸に限られず、7軸であってもよい。また、支持台30aは、壁や天井等、床面に対して固定された場所に設置されてもよい。
図2は、本実施形態に係るロボットシステム1の構成を示す概略ブロック図である。
画像処理装置21は、画像データ取得部211、注目領域設定部212、点対選択部(組選択部)213、中心軸推定部216、中心軸選択部217、空間データ生成部218及び空間データ出力部219を含んで構成される。
注目領域設定部212は、画像データが示すサンプル点データに基づいて予め定めた大きさの注目領域を予め定めた個数定める。注目領域設定部212は、例えば、被写体を表すサンプル点が分布する領域が最も大きい領域を、その注目領域の1つとして定める。これにより、対象物の検知の失敗を回避し、一度に行われる処理の処理量を低減することができる。この設定例については、後述する。また、注目領域設定部212は、サンプル点の座標値の重心の高さ方向の座標が最も小さい候補領域を定めてもよい。これにより、把持する際に好都合な撮像装置10に最も近接した(この配置例では、上方に)所在している対象物の検出が容易になる。
第1点対選択部214は、注目領域毎のサンプル点データが示すサンプル点から2点間の距離Lが、特性長lから予め定めた範囲内、例えば、0.8lから1.0lまでの間である点対を、Ne(Neは、予め定めた個数)個選択する。これにより、対象物の表面上の一点と底面上の一点とからなる点対が抽出され、それ以外の点対が除外される。
Neは、例えば、対象物がとりうるサンプル点の総数Mから選択された任意の2点が、注目領域内に含まれない確率が、予め定めた有意水準p(例えば、0.05)よりも低くなる点対の数のうちの最小値である。Neは、式(1)で与えられる。
第1点対選択部214は、選択した点対のそれぞれを形成する2点間の直線を示す一次関数の定数を算出する。算出した定数は、その直線の傾きとX、Y、Z軸の切片を示す。
第1点対選択部214は、選択した点対を示す選択点対情報を第2点対選択部215に出力する。
そして、第2点対選択部215は、抽出したサンプル点の数Nが、所定の個数の範囲内にある点対を選択し、所定の個数の範囲外の点対を排除する。所定の個数の範囲とは、例えば、式(2)に示す範囲である。
第2点対選択部215は、その点対を形成する2点を結ぶ線分に属するサンプル点を示す第2点対情報を選択した点対毎に中心軸推定部216に出力する。
中心軸選択部217は、選択した中心軸のそれぞれについて対応する第2点対情報が示すサンプル点に基づいて、例えば、式(3)を用いて推定誤差errを算出し、算出した推定誤差errが予め定めた誤差よりも小さい中心軸を選択する。選択された中心軸が複数個ある場合には、中心軸選択部217は、推定誤差errが最も小さい中心軸を選択する。
中心軸選択部217は、選択した中心軸に係る中心軸情報と中心軸に属するサンプル点を示す推定サンプル点データを対応付けて空間データ生成部218に出力する。
また、空間データ生成部218は、推定サンプル点データが示すサンプル点の座標の代表点、例えば重心点を対象物の位置として算出する。但し、サンプル点の分布は、一面に偏っていることがあるので、それらの重心点が対象物の位置を代表するとは限らない。そこで、空間データ生成部218は、算出した重心点を通る中心軸に垂直な面と、その中心軸との交点を対象物の位置として算出してもよい。
空間データ生成部218は、算出した対象物の位置及び方向を示す空間データを生成し、生成した空間データを空間データ出力部219に出力する。
次に、撮像装置10で得られる画像データの一例について説明する。
図3は、画像データの一例を示す図である。
図3に示す画像データは、所定の撮像領域Ir内の被写体の3次元形状を示す点群画像を示す。この点群画像は、複数のサンプル点からなり、サンプル点の各々は複数の乱雑に積み重ねられた対象物の表面を所定の分解能でサンプリングした点である。サンプル点の濃淡は、対象物の輝度を示す。濃いサンプル点ほど輝度値が低く、薄いサンプル点ほど輝度値が高いことを示す
次に、注目領域設定部212で設定される注目領域について説明する。
注目領域は、X方向、Y方向にそれぞれ平行な2辺(計4辺)で囲まれる長方形であり、少なくとも対象物の全体を十分に表すことができる大きさを有する。注目領域の一辺の長さは、対象物の特徴的な大きさ(特性長)に基づいて与えられる。例えば、対象物の形状が円柱に近似され、直径2rよりも高さlの方が長い細長い形状を有する場合、特性長として、その高さlを用いることができる。例えば、高さlが20mmである場合、注目領域のX方向の辺の長さwx、Y方向の辺の長さwyをともに25mmと定めておいてもよい。また、変位量Δx、Δyは、それぞれの方向の辺の長さwx、wyよりも小さい値、例えば、その長さの40%と定めておいてもよい。
図4は、図3に示す点群画像と主たる注目領域Wdを実線で示す。注目領域Wdの右側の右向きの矢印は、この領域から変位量ΔxだけX方向にずれた位置に注目領域が設定されていることを示す。注目領域Wdから右上向きの矢印は、この領域から変位量ΔxだけX方向に変位し、変位量ΔyだけY方向に変位した位置に注目領域が設定されていることを示す。図4は、2通りに変位した注目領域の例を示すが、変位量Δx、変位量Δy、又はその両者の少なくとも一方が負方向に変位した位置に注目領域が配置されてもよい。
対象物Wkの形状は、円柱に近似されている。これにより、対象物Wkの特性長として高さl、半径r、又はその両者が用いられうる。図5に示す対象物Wkは、半径rに比べて高さlが格段に大きい細長の形状を有するため、主に高さlが特性長として用いられる。
次に、注目領域設定部212が主たる注目領域を選択する処理について説明する。
注目領域設定部212は、XY平面内の予め定めた空間間隔毎に複数の注目領域の候補(候補領域)を設定し、設定した候補領域のうち空間的に連続した被写体を表す領域が最も大きい領域を主たる注目領域として選択する。
ここで、注目領域設定部212は、候補領域のそれぞれに含まれるサンプル点データを二値化する。複数の注目領域の大きさは、いずれも等しくてもよい。また、空間間隔は、X−Y平面内の表示領域の全体を全ての候補領域で網羅されればよい。空間間隔は、変位量ΔX、ΔYと等しくてもよい。
(a)注目領域設定部212は、サンプル点データが示す輝度値が予め定めた輝度値の閾値よりも高い場合、そのサンプル点に係る信号値を1と定め、それ以外のサンプル点に係る信号値を0と定める。輝度値の閾値は、例えば、その最大値と最小値の中間の値である。輝度の高い部分は撮像装置10に近接している傾向があるところ、撮像装置10に近接した高さの高い部分が識別される。
図6に示す画像は、(a)の処理対象となるサンプル点毎の輝度を表す輝度画像である。明るく表示されている部分ほど輝度値が高く、暗く表示されている部分ほど輝度値が低い。この例では、対象物Wk1、Wk2、Wk3の順に明るく表示され、対象物Wk1は対象物Wk3に重なっていることを示す。また、対象物Wk2を示す画像は、下部よりも上部のほうが明るく表示されている。
図7に示す二値化画像は、図6に示す輝度画像を二値化した画像である。この例では、対象物Wk1の全体、対象物Wk2の上方が明るく表示されている。この領域の信号値は1である。それ以外の領域は、黒く表示され、図6に表示されていた対象物Wk2の下方、対象物Wk3の全体が表れていない。この領域の信号値は0である。これは、対象物Wk2の下方、対象物Wk3の全体における輝度値が予め定めた輝度値の閾値よりも低いためである。
注目領域設定部212は、計数したサンプル点の数が予め定めたサンプル数の閾値よりも大きいグリッドについて、信号値を1と定め、それ以外のグリッドについて信号値を0と定める。
図8において、各点は、(b)の処理対象となる候補領域内に射影されたサンプル点を示す。撮像された画像において対象物が明るく表示されている領域ほど、図8ではサンプル点が密に表されている。
図9は、候補領域内の二値化画像の他の例を示す図である。
図9は、図8に示したサンプル点に基づいて得られた二値化した画像である。サンプル点が密に分布している領域の信号値が1であり、それ以外の部分の信号値が0である。これにより、撮像装置10から近く、明るく表示されている部分を識別することができる。以下の説明では、信号値が1である領域を明領域と呼ぶ。
図10は、図9に示した二値化画像に基づいて区分した明領域Rg1、Rg2、Rg3を示す。
明領域Rg1は、二値化画像の左上部において破線で囲まれた部分である。明領域Rg2は、二値化画像の中央部からやや左側において破線で囲まれた部分である。明領域Rg3は、二値化画像の中央上部から右下部にかけて破線で囲まれた部分である。
図11が示す領域内距離は、(i)の例である。この例では、明領域Rg2の外縁上の相対する2点p1、p2間の距離が領域内距離に相当する。
図12は、領域内距離の他の例を示す図である。
図12が示す領域内距離は、(ii)の例である。この例では、明領域Rg2に含まれる経路Tr2の長さが領域内距離に相当する。
なお、注目領域設定部212は、候補領域毎に領域内距離及び明領域面積を求める処理を空間的に隣接する順で逐次に行ってもよいし(スキャン)、並列に行ってもよい。
次に、第1点対選択部214で選択された点対の例について説明する。
図13は、選択された点対の例を示す図である。
図13(a)、(b)は、XY平面上、XZ平面上にそれぞれ射影された注目領域におけるサンプル点の分布の一例を示す。それぞれの黒丸は、サンプル点を示す。P11、P12は、選択された点対を形成する2個のサンプル点の組の一例である。上述したように、P11、P12間の距離Lは、対象物の特性長lから予め定めた範囲にある。
次に、第2点対選択部215で抽出された線分に属するサンプル点の例について説明する。
図14は、線分に属するサンプル点の例を示す図である。
図14(a)、(b)は、XY平面上、XZ平面上にそれぞれ射影されたサンプル点の分布の他の例を示す。黒丸のそれぞれは、サンプル点を示す。P21、P22は、点対を形成する2個のサンプル点の組の他の例であり、E2は、P21、P22間を結ぶ線分である。線分E2に属するサンプル点は、線分Eから距離ρの範囲内に含まれるサンプル点である。第2点対選択部215は、これらのサンプル点を選択し、選択したサンプル点の個数Nが所定の個数の範囲内となる点対及びそのサンプル点を採用する。
次に、中心軸選択部217で選択された中心軸と対応するサンプル点の例について説明する。
図15は、選択された中心軸と対応するサンプル点の例を示す断面図である。
この例では、中心軸E3とサンプル点の分布がXZ平面に射影されている。各点は、サンプル点を示す。選択されたサンプル点の多くは、中心軸E3からZの負方向に所定距離だけ偏って分布しているが、その分布が延びている方向は中心軸E3の方向にほぼ平行している。この偏りは、各サンプル点までの距離と半径rとの誤差が最小となるように中心軸が選択され、対象物のうち撮像装置10に向いている側の表面を表す。対象別のその他の側の表面が表れていないためである。
図16は、選択された中心軸に対応するサンプル点の例を示す斜視図である。
各点は、注目領域内に含まれるサンプル点を示す。そのうち選択されたサンプル点が、その他のサンプル点よりも濃い点で表されている。選択されたサンプル点は、1個の対象物の表面の形状を表し、上述した中心軸を中心に湾曲した面上に分布している。中心軸から面まで距離は、半径rに近似している。
次に、本実施形態に係る画像処理について説明する。
図17は、本実施形態に係る画像処理を示すフローチャートである。
この処理が開始されるまでに、画像データ取得部211には撮像装置10で取得した画像データが入力され、当該画像データは注目領域設定部212に供給される。
(ステップS101)注目領域設定部212には、供給された画像データが示す画像の撮像領域を所定の2次元平面に射影した2次元領域において予め定めた大きさの注目領域を設定する。注目領域設定部212は、例えば、2次元領域のうち被写体を表すサンプル点が分布する領域が最も大きい注目領域をその1つとして選択する。その後、ステップS102に進む。
(ステップS103)第2点対選択部215は、第1点対選択部214で選択された点対のそれぞれについて、各点対を形成する2点を結ぶ線分から所定距離ρ内のサンプル点を抽出する。第2点対選択部215は、抽出したサンプル点の数が所定の個数の範囲内、例えば対象物を表す画像がとりうるサンプル点の数から予め定めた範囲内となる点対を選択する。その後、ステップS104に進む。
(ステップS105)中心軸選択部217は、推定した中心軸のそれぞれについて抽出されたサンプル点までの距離と対象物の半径との間の推定誤差errを、例えば、式(3)を用いて算出し、算出した推定誤差errが最も小さい中心軸を選択する。その後、ステップS106に進む。
また、ステップS102において第1点対選択部214で選択される点対の数は、通例、1個よりも多い。選択される点対の数が1個よりも多い場合には、点対毎にステップS103、S104の処理が繰り返されてもよいし、並列して実行されてもよい。
上述では、画像処理装置21とロボット制御装置22とは一定に構成されている場合を例にとって説明したが、これには限られない。画像処理装置21とロボット制御装置22は別体に構成されていてもよい。
また、画像処理装置21とロボット制御装置22は、ロボット30と一体化したロボットとして構成されてもよい。
10 撮像装置
20 制御装置
21 画像処理装置
211 画像データ取得部
212 注目領域設定部
213 点対選択部
214 第1点対選択部
215 第2点対選択部
216 中心軸推定部
217 中心軸選択部
218 空間データ生成部
219 空間データ出力部
22 ロボット制御装置
30 ロボット
30a 支持台
30b アーム部
30c ハンド部
30d 把持部
Claims (8)
- 対象物の形状を表す複数の点から選択した任意の2点からなる複数の組のうち、2点間の線分の長さが前記対象物の長さから所定の範囲内となる組を選択する組選択部と、
前記複数の点のうち、前記組選択部が選択した組をなす2点間の線分から予め定めた距離内にある点と前記線分との間の距離と、対象物の半径との誤差が予め定めた範囲内にある中心軸を選択する中心軸選択部と、
を備えるロボット。 - 前記組を選択する範囲となる注目領域を設定する注目領域設定部を備え、
前記組選択部は、前記注目領域設定部が設定した注目領域に含まれる複数の点から選択した任意の2点からなる複数の組のうち、2点間の線分の長さが前記対象物の長さから所定の範囲内となる組を選択し、
前記中心軸選択部は、前記複数の点のうち、前記組選択部が選択した組をなす2点間の線分から予め定めた距離内にある点と前記線分との間の距離と、対象物の半径との誤差が最も小さい中心軸を選択する請求項1に記載のロボット。 - 前記注目領域設定部は、前記複数の点を網羅する複数の注目領域の候補である候補領域から前記複数の点が分布する領域が最も大きい候補領域を前記注目領域の少なくとも1つとして選択する請求項2に記載のロボット。
- 前記組選択部は、前記注目領域に含まれる複数の点から選択した任意の2点からなる複数の組のうち2点間の線分から予め定めた距離内に含まれる点の数が、前記対象物がとりうる点の数から予め定めた範囲外となる組を除外する請求項2又は請求項3に記載のロボット。
- 前記組選択部は、撮像方向に垂直な面と2点間の直線の方向とのなす角が予め定めた角度よりも大きい組を除外する請求項1から4のいずれかに記載のロボット。
- 前記中心軸選択部が選択した中心軸の方向と、前記中心軸選択部が選択した中心軸から所定距離内に含まれる点から算出した前記対象物の位置に基づいて動作する請求項1から5のいずれかに記載のロボット。
- 画像処理装置における画像処理方法であって、
対象物の形状を表す複数の点から選択した任意の2点からなる複数の組のうち、2点間の線分の長さが前記対象物の長さから所定の範囲内となる組を選択する組選択過程と、
前記複数の点のうち、前記組選択過程で選択した組をなす2点間の線分から予め定めた距離内にある点と前記線分との間の距離と、対象物の半径との誤差が予め定めた範囲内にある中心軸を選択する中心軸選択過程と、
を有する画像処理方法。 - ロボットと、対象物を撮像する撮像装置と、前記撮像装置が撮影した画像に基づいて前記対象物の空間情報を取得する画像処理装置と、前記空間情報に基づいて前記ロボットの動作を制御するロボット制御装置とを備えるロボットシステムであって、
前記画像処理装置は、
対象物の形状を表す複数の点から選択した任意の2点からなる複数の組のうち、2点間の線分の長さが前記対象物の長さから所定の範囲内となる組を選択する組選択部と、
前記複数の点のうち、前記組選択部が選択した組をなす2点間の線分から予め定めた距離内にある点と前記線分との間の距離と、対象物の半径との誤差が予め定めた範囲内にある中心軸を選択する中心軸選択部と、
を備えるロボットシステム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013225869A JP6237122B2 (ja) | 2013-10-30 | 2013-10-30 | ロボット、画像処理方法及びロボットシステム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013225869A JP6237122B2 (ja) | 2013-10-30 | 2013-10-30 | ロボット、画像処理方法及びロボットシステム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015085434A true JP2015085434A (ja) | 2015-05-07 |
JP6237122B2 JP6237122B2 (ja) | 2017-11-29 |
Family
ID=53048792
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013225869A Active JP6237122B2 (ja) | 2013-10-30 | 2013-10-30 | ロボット、画像処理方法及びロボットシステム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6237122B2 (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108453730A (zh) * | 2017-02-21 | 2018-08-28 | 发那科株式会社 | 工件取出*** |
JP2020075340A (ja) * | 2018-11-08 | 2020-05-21 | 株式会社東芝 | 作動システム、制御装置、およびプログラム |
WO2020158060A1 (ja) * | 2019-01-29 | 2020-08-06 | 日本金銭機械株式会社 | 物体把持システム |
US11396101B2 (en) | 2018-11-08 | 2022-07-26 | Kabushiki Kaisha Toshiba | Operating system, control device, and computer program product |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH01134573A (ja) * | 1987-11-19 | 1989-05-26 | Kawasaki Heavy Ind Ltd | 画像処理方法 |
JP2009128201A (ja) * | 2007-11-26 | 2009-06-11 | Mitsubishi Electric Corp | 位置姿勢認識装置 |
JP2011167815A (ja) * | 2010-02-19 | 2011-09-01 | Ihi Corp | 物体認識ロボットシステム |
JP2011248757A (ja) * | 2010-05-28 | 2011-12-08 | Institute Of National Colleges Of Technology Japan | ピッキングシステムおよびピッキング方法 |
JP2013117392A (ja) * | 2011-12-01 | 2013-06-13 | Ohbayashi Corp | 測位システム、測位方法、及びプログラム |
JP2013215833A (ja) * | 2012-04-06 | 2013-10-24 | Central Uni Co Ltd | ピッキング装置 |
-
2013
- 2013-10-30 JP JP2013225869A patent/JP6237122B2/ja active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH01134573A (ja) * | 1987-11-19 | 1989-05-26 | Kawasaki Heavy Ind Ltd | 画像処理方法 |
JP2009128201A (ja) * | 2007-11-26 | 2009-06-11 | Mitsubishi Electric Corp | 位置姿勢認識装置 |
JP2011167815A (ja) * | 2010-02-19 | 2011-09-01 | Ihi Corp | 物体認識ロボットシステム |
JP2011248757A (ja) * | 2010-05-28 | 2011-12-08 | Institute Of National Colleges Of Technology Japan | ピッキングシステムおよびピッキング方法 |
JP2013117392A (ja) * | 2011-12-01 | 2013-06-13 | Ohbayashi Corp | 測位システム、測位方法、及びプログラム |
JP2013215833A (ja) * | 2012-04-06 | 2013-10-24 | Central Uni Co Ltd | ピッキング装置 |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108453730A (zh) * | 2017-02-21 | 2018-08-28 | 发那科株式会社 | 工件取出*** |
US10434649B2 (en) | 2017-02-21 | 2019-10-08 | Fanuc Corporation | Workpiece pick up system |
JP2020075340A (ja) * | 2018-11-08 | 2020-05-21 | 株式会社東芝 | 作動システム、制御装置、およびプログラム |
JP7034971B2 (ja) | 2018-11-08 | 2022-03-14 | 株式会社東芝 | 作動システム、制御装置、およびプログラム |
US11396101B2 (en) | 2018-11-08 | 2022-07-26 | Kabushiki Kaisha Toshiba | Operating system, control device, and computer program product |
WO2020158060A1 (ja) * | 2019-01-29 | 2020-08-06 | 日本金銭機械株式会社 | 物体把持システム |
JP2020121352A (ja) * | 2019-01-29 | 2020-08-13 | 日本金銭機械株式会社 | 物体把持システム |
Also Published As
Publication number | Publication date |
---|---|
JP6237122B2 (ja) | 2017-11-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10562182B2 (en) | Robot, robot system, control device, and control method | |
JP6364856B2 (ja) | ロボット | |
JP5458885B2 (ja) | 物体検出方法と物体検出装置およびロボットシステム | |
US9118823B2 (en) | Image generation apparatus, image generation method and storage medium for generating a target image based on a difference between a grip-state image and a non-grip-state image | |
US9044858B2 (en) | Target object gripping apparatus, method for controlling the same and storage medium | |
JP5328979B2 (ja) | 物体認識方法、物体認識装置、自律移動ロボット | |
JP5671281B2 (ja) | 位置姿勢計測装置、位置姿勢計測装置の制御方法及びプログラム | |
JP6271953B2 (ja) | 画像処理装置、画像処理方法 | |
JP6054831B2 (ja) | 画像処理装置、画像処理方法及び画像処理プログラム | |
JP6489243B2 (ja) | 物体認識装置、物体認識方法、物体認識プログラム、ロボットシステム及びロボット | |
US11654571B2 (en) | Three-dimensional data generation device and robot control system | |
US20150134303A1 (en) | Three-dimensional scanning system and method with hole-filling function for point cloud using contact probe | |
US9595095B2 (en) | Robot system | |
JP6237122B2 (ja) | ロボット、画像処理方法及びロボットシステム | |
US10207409B2 (en) | Image processing method, image processing device, and robot system | |
JP2020197978A (ja) | 物体検出装置、物体把持システム、物体検出方法及び物体検出プログラム | |
JP2020001127A (ja) | ピッキングシステム,ピッキング処理装置及びプログラム | |
JP2015079374A (ja) | 物体認識装置、物体認識方法、物体認識プログラム、ロボットシステム及びロボット | |
JP5083715B2 (ja) | 三次元位置姿勢計測方法および装置 | |
Zhang et al. | Vision-based six-dimensional peg-in-hole for practical connector insertion | |
JP2014238687A (ja) | 画像処理装置、ロボット制御システム、ロボット、画像処理方法及び画像処理プログラム | |
JP7161857B2 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
JP5757157B2 (ja) | 検出対象物について頭部分の位置および軸部分の方向を算出する方法、装置およびプログラム | |
WO2023140266A1 (ja) | ピッキング装置及び画像生成プログラム | |
JP6512852B2 (ja) | 情報処理装置、情報処理方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20161004 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170718 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170720 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170908 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20171003 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20171016 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6237122 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |