JP2015147256A - ロボット、ロボットシステム、制御装置、及び制御方法 - Google Patents
ロボット、ロボットシステム、制御装置、及び制御方法 Download PDFInfo
- Publication number
- JP2015147256A JP2015147256A JP2014019827A JP2014019827A JP2015147256A JP 2015147256 A JP2015147256 A JP 2015147256A JP 2014019827 A JP2014019827 A JP 2014019827A JP 2014019827 A JP2014019827 A JP 2014019827A JP 2015147256 A JP2015147256 A JP 2015147256A
- Authority
- JP
- Japan
- Prior art keywords
- region
- image
- robot
- central axis
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1612—Programme controls characterised by the hand, wrist, grip control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/39—Robotics, robotics to robotics hand
- G05B2219/39543—Recognize object and plan hand shapes in grasping movements
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40053—Pick 3-D object from pile of objects
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10—TECHNICAL SUBJECTS COVERED BY FORMER USPC
- Y10S—TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10S901/00—Robots
- Y10S901/46—Sensing device
- Y10S901/47—Optical
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Orthopedic Medicine & Surgery (AREA)
- Manipulator (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
【解決手段】ハンドと、前記ハンドを動作させる制御部と、を含み、前記制御部は、撮像部が撮像した撮像画像を構成する画像の一部に対して三次元点群情報を生成し、前記ハンドに前記画像の一部に含まれる物体を把持させる。
【選択図】図2
Description
そこで、カメラのように、より汎用的な機器を用いて対象物の奥行情報を含む三次元情報を取得し、取得した三次元情報を用いて対象物の位置及び姿勢を取得することが試みられている。三次元情報は、例えば、対象物の形状を示す三次元点群から形成される画像データである。位置や姿勢を求める際に、所定の対象物のテンプレートと三次元点群とのマッチングを行うことがある。しかし三次元点群のマッチングは、二次元画像のマッチングと比較して、演算すべき次元数が増加する。つまり、マッチングの対象が二次元から三次元に増加することに応じて、対象物の位置や姿勢を求める際の次元数が三次元から6次元に増加する。同種の計算手法を用いる場合、計算量や計算時間が対象物の次元数に応じて指数関数的に増加する。そのために、三次元点群に対する位置や姿勢の推定に、依然として膨大な計算量や計算時間を要することがある。
撮像画像全体に対して三次元点群処理を行うと演算処理が増えるが、上記構成により一部画像に対して三次元点群処理を行うことで演算処理を削減でき作業を高速に行うことができるようになる。
この構成によれば、撮像画像に基づいて第1の領域に対応する第1の三次元点群情報と第2の領域に対応する第2の三次元点群情報が処理対象として定められるので処理量を低減することができる。また、長さが所定の範囲内である2点を結ぶ中心軸からの半径が所定の範囲内にある点から形成される対象物の画像を表す点が特定される。そのため、曲面を有する対象物として、形状が曲面を有する対象物の位置及び姿勢を推定することができる。また、本中心軸の推定に用いられる2点の組が選択される第1の三次元点群情報に係る第1の領域よりも広範な第2の領域に係る第2の三次元点群情報の点に基づいて中心軸が選択されるため、対象物の位置及び姿勢を推定する際に要する処理量を低減し、精度を損なわずに処理を高速化することができる。
この構成によれば、被写体が明瞭に表されている領域が第1の領域として選択されるため、選択された第1の領域に表される物体を確実に把握することができる。
この構成によれば、中心軸の方向の第3の三次元点群情報の点の分布を第2の三次元点群情報よりも広範に取得することができる。そのため、異なる長さの物体が混在するために、より長い物体が特定される場合でも、その物体を示す点が欠落せずにその中心軸の方向への長さを求めることができ、異なる長さの物体をそれぞれ識別することができる。
撮像画像全体に対して三次元点群処理を行うと演算処理が増えるが、上記構成により一部画像に対して三次元点群処理を行うことで演算処理を削減でき作業を高速に行うことができるようになる。
撮像画像全体に対して三次元点群処理を行うと演算処理が増えるが、上記構成により一部画像に対して三次元点群処理を行うことで演算処理を削減でき作業を高速に行うことができるようになる。
撮像画像全体に対して三次元点群処理を行うと演算処理が増えるが、上記構成により一部画像に対して三次元点群処理を行うことで演算処理を削減でき作業を高速に行うことができるようになる。
図1は、本実施形態に係るロボットシステム1の概略斜視図である。
図1に示すように、ロボットシステム1は、撮像装置10、制御装置20及びロボット30を備える。なお、図1における部品や構造等の縮尺は、図を明瞭なものとするために実際のものとは異なっていることがある。
なお、図1に示す例では、X方向は左方、Y方向は奥行方向、Z方向は下方である。
撮像装置10は、その光学軸が、例えば、水平面に対して垂直(下方)に向くように設置されている。撮像装置10は、撮像領域Irに含まれる複数の対象物Wkを表す1フレームの三次元の画像を撮像する。撮像領域Irは、撮像装置10がその領域内に置かれた被写体の画像を撮像することができる予め定めた大きさを有する三次元の領域である。従って、撮像により得られた三次元の画像(三次元画像)は、複数の対象物Wkの三次元形状を示す画像であり、複数のサンプル点で形成されるサンプル点データで表される。サンプル点は、その輝度が高いほど高密度で分布する。
撮像装置10は、撮像により得られた三次元画像を示すサンプル点データを三次元画像データとして制御装置20に出力する。
画像データ取得部21には、撮像装置10から画像データが入力され、入力された画像データを制御部22に出力する。画像データ取得部21は、例えば、データ入力インタフェースである。
制御部22は、入力された三次元画像データのうち三次元の撮像画像の一部である一部画像を示す点群データ(点群情報)を生成し、生成した点群データが示す一部画像に示された1つの対象物Wkをロボット30に把持させる。ここで、制御部22は、入力された二次元画像データが示す1つの対象物Wkの一部の形状を示す領域を注目領域として定める。制御部22は、定めた注目領域内の三次元の画像を示す点群データに基づいて1つの対象物Wkの位置及び配置されている方向(姿勢)を算出する。対象物Wkの位置及び方向を算出する際、制御部22は、例えば、対象物Wkの形状を円柱とみなし、RANSAC(Random Sample Consensus)法を応用して円柱の中心軸の方向と長さを算出する。ここで、制御部22は、算出した中心軸の中点の座標、方向をそれぞれ対象物Wkの位置、姿勢と定める。以下の説明では、位置、姿勢、又は位置ならびに姿勢を空間状態と総称することがある。また、制御部22は、対象物Wkの長さを定めてもよい。
制御部22は、例えば、ロボット30のハンド部30c(後述)を算出した位置に近づけ、算出した姿勢に交差する方向に挟み込むことで対象物Wkを把持させる。制御部22には、ハンド部30cで検出された力を示す負荷信号がロボット30から入力され、入力された負荷信号に基づいてハンド部30cの動作を制御する制御信号をロボット30に出力する。制御部22の構成については、後述する。
ロボット30の自由度は6軸に限られず、7軸以上、又は5軸以下であってもよい。また、支持台30aは、壁や天井等、床面に対して固定された場所に設置されてもよい。
図2は、本実施形態に係る制御部22の構成を示す概略ブロック図である。
制御部22は、注目領域設定部222、第1中心軸推定部224、点群抽出部225、第2中心軸推定部226、中心軸選択部227、空間データ生成部228、及び制御信号生成部229を含んで構成される。
上述したように、注目領域設定部222は、点群データ1、2、3を生成する際に、三次元画像データの解析を行わずに、対応する二次元画像データから選択した領域1、2、3を選択するので、処理量を著しく低減することができる。
注目領域設定部222が注目領域を定める処理については、後述する。
ここで、第1中心軸推定部224は、点群データ1が示すサンプル点から2点を抽出し、抽出した2点間の距離Lが、長さlから予め定めた範囲内、例えば、0.8lから1.0lまでの間である点対を、Ne(Neは、予め定めた個数)個選択する。これにより、対象物の表面上の一点と底面上の一点とからなる点対が抽出され、それ以外の点対が除外される。
Neは、例えば、対象物がとりうるサンプル点の総数Mから選択された任意の2点が、一部領域1内に含まれない確率が、予め定めた有意水準p(例えば、0.05)よりも低くなる点対の数のうちの最小値である。Neは、式(1)で与えられる。
第1中心軸推定部224は、選択した点対のそれぞれを形成する2点間の直線を示す一次関数の係数(軸方程式)を算出する。算出した係数は、その直線の傾きとX、Y、Z軸の切片を示す。
第1中心軸推定部224は、選択した点対を示す選択点対情報を点群抽出部225に出力する。
点群抽出部225は、点群データ2が示すサンプル点から選択点対情報が示す点対のそれぞれを形成する2点を結ぶ線分から所定距離内のサンプル点を線分に属する点として抽出し、それ以外のサンプル点を除外する。所定距離ρは、例えば、対象物の半径rよりも大きい値であって、隣接する対象物との平均的な距離よりも小さい値、例えば、2rである。これにより、1個の対象物の表面を表すサンプル点が一部領域1よりも広範な一部領域2から確実に取得され、その他の対象物の表面を表すサンプル点が極力除外される。そして、点群抽出部225は、抽出したサンプル点の数Ncを計数する(投票)。
点群抽出部225は、抽出したサンプル点の数Ncが、所定の個数の範囲内にある点対を選択し、所定の個数の範囲外の点対を排除する。所定の個数の範囲とは、例えば、式(2)に示す範囲である。
点群抽出部225は、抽出したサンプル点を示す抽出点群情報を選択した点対毎に第2中心軸推定部226に出力する。
中心軸選択部227は、選択した中心軸のそれぞれについて対応する抽出点群情報が示すサンプル点に基づいて、例えば、式(3)を用いて推定誤差errを算出し、算出した推定誤差errが予め定めた誤差よりも小さい中心軸を選択する。選択された中心軸が複数個ある場合には、中心軸選択部227は、推定誤差errが最も小さい中心軸を選択する。
中心軸選択部227は、選択した中心軸に係る中心軸情報を空間データ生成部228に出力する。
ここで、空間データ生成部228は、中心軸情報が示す中心軸の定数に基づいて中心軸の方向を、対象物の姿勢として特定する。また、空間データ生成部228は、点群データ3が示すサンプル点の座標の代表点、例えば重心点を対象物の位置として算出する。但し、サンプル点の分布は、一面に偏っていることがあるので、それらの重心点が対象物の位置を代表するとは限らない。そこで、空間データ生成部228は、算出した重心点を通る中心軸に垂直な面と、その中心軸との交点を対象物の位置として算出してもよい。
そして、空間データ生成部228は、サンプル点の個数が予め定めた第1の閾値よりも多い区間が空間的に連続する領域を対象物の領域として特定し、対象物の領域の長さを対象物の長さとして算出する。第1の閾値は、0よりも有意に大きい微小な値である。点群データ3が示すサンプル点の中心軸座標に対する分布を用いて長さを特定することで、長さが異なる対象物が撮像領域Irに混在する場合でも所定の長さを有する対象物を特定することができる。なお、空間データ生成部228は、対象物の領域の重心点、又は、その重心点を通る中心軸に垂直な面と、その中心軸との交点を対象物の位置として算出してもよい。
空間データ生成部228は、算出した対象物の位置、姿勢、及び長さを示す空間データを生成する。空間データ生成部228は、生成した空間データを制御信号生成部229に出力する。
制御信号生成部229は、例えば、ロボット30のハンド部30cを作業開始位置に移動させ、ハンド部30cが備える2つの先端部が互いに向かい合う方向を作業開始方向に回転させるための制御信号を生成及び出力する。作業開始位置は、例えば、入力された空間データが示す位置から予め定めた間隔だけ離れた位置である。作業開始方向は、例えば、空間データが示す姿勢と同一の方向である。また、制御信号生成部229は、ロボット30から入力された負荷信号が示す各関節の角度に基づいてハンド部30cの位置と方向を算出する。制御信号生成部229は、例えば、算出した位置と目標位置との間の距離、及び算出した方向と目標方向との差分が、それぞれ時間経過に伴って減少するようにロボット30の各構成の動作を制御するための制御信号を生成及び出力してもよい。所定の作業開始前においては、目標位置、目標方向として、予め定めた作業開始位置、作業開始方向がそれぞれ用いられてもよい。所定の作業中においては、目標位置、目標方向として、例えば、空間データが示す位置、姿勢がそれぞれ用いられてもよい。
次に、撮像装置10で得られる二次元画像の一例について説明する。
図3は、二次元画像の一例を示す図である。
図3に示す二次元画像は、所定の撮像領域Ir内の被写体の画像である。この二次元画像は、複数の乱雑に積み重ねられた対象物の表面を表し、複数の画素で形成される。二次元画像を示す二次元画像データは、画素毎の輝度値を示す。図3において、濃く表されている画素ほど輝度値が低く、薄く表されている画素ほど輝度値が高い。
次に、対象物の形状を近似するモデルについて説明する。
図4は、対象物の形状を近似するモデルの一例を示す図である。
対象物Wkは、少なくともその一部の形状が円柱に近似される円柱物体である。これにより、対象物Wkの特性長として長さl、半径r、又はその両者が用いられうる。図4に示す対象物Wkは、半径rに比べて長さlが格段に大きい細長の形状を有するため、主に長さlが特性長として用いられる。長さl、半径rは、上述した制御部22において既知のパラメータとして予め設定させておいてもよい。
また、対象物Wkは、半径がrよりも大きい頭部を有する。頭部は、長さl、半径rの円柱の形状を近似することができない非円柱領域に相当する。
次に、注目領域設定部222が注目領域を定める処理について説明する。
図5は、注目領域設定部222が注目領域を定める処理を示すフローチャートである。
(ステップS101)注目領域設定部222は、画像データ取得部21から入力された二次元画像データについて二値化処理を行って二値化データを生成する。ここで、注目領域設定部222は、画素毎に信号値を1又は0と定め、画素毎の信号値を示す二値化データを生成する。上述したように、注目領域設定部222は、輝度値が所定の輝度値の閾値を超える画素について信号値を1と定め、輝度値が所定の輝度値の閾値以下の画素について信号値を0と定める。
以下の説明では、信号値が1である画素が空間的に連続して形成される領域を明領域、信号値が0である画素が空間的に連続して形成される領域を暗領域と呼ぶ。つまり、明領域は、対象物の形状の全部又は一部が表されている領域である。撮像領域Irに複数の対象物が含まれる場合、1個の二値化データには複数の明領域が表される。その後、ステップS102に進む。
(ステップS103)注目領域設定部222は、膨張・収縮処理を行った二値化データが示す明領域のそれぞれを特定する(ラべリング)。その後、ステップS104に進む。
長さは、例えば、注目する明領域を形成する画素から任意に選択された2つの画素間の距離のうち最も大きい距離である。楕円偏心率は、注目する明領域に内接又は外接する楕円の焦点間距離の長軸に対する比である。楕円偏心率は、離心率と呼ばれることもある。
注目領域設定部222は、例えば、算出した大きさの指標値が、対象物の大きさの指標値を基準とした所定の範囲内である場合、その明領域を領域1の候補として選択し、算出した大きさの指標値がその所定の範囲外である場合、その明領域を領域1の候補から棄却する。
形状の指標値が楕円偏心率である場合には、所定の範囲は、例えば、その対象物の軸方向に射影した領域の楕円偏心率eの0.8−1.2倍である。対象物の形状のうち、非円柱領域が存在する場合であっても、その部分が含まれた領域に基づいて形状の指標値が算出されてもよい。これにより、その対象物の形状全体の領域(例えば、ボルトの頭部を含んだ領域)に近似した注目領域が選択される。
なお、注目領域設定部222は、面積、大きさ、楕円偏心率を算出する場合には、面積、大きさ、楕円偏心率の順序で算出し、算出直後にその明領域を領域1の候補として選択するか否かを判定してもよい。この順序で処理量が少なくなるため、二次元データ全体の処理量を減らすことができる。その後、ステップS105に進む。
(ステップS107)注目領域設定部222は、領域1に外接する所定の形状の領域を領域2と定める。その後、ステップS108に進む。
(ステップS108)注目領域設定部222は、所定の形状の領域であって、領域2を含み、領域2よりも長手方向の長さが予め定めた長さだけ長い領域を領域3として定める。領域3の長さを領域2よりも長く定めるのは、長さが異なる対象物を識別することと、非円柱領域(例えば、ボルトの頭部)を含む対象物の全体を検出するためである。予め定めた長さは、例えば、長さlの0.4〜1.0倍であればよい。又は、領域3の長手方向の長さは、長さlの1.0〜1.4倍であればよい。その後、図5に示す処理を終了する。
次に、二次元画像を二値化して得られる二値化画像の一例について説明する。
図6は、二値化画像の一例を示す図である。
図6に示す二値化画像は、注目領域設定部222が注目領域を定める際に、図3に示す二次元画像の二次元画像データについて二値化処理を行って生成された二値化データが示す画像である。図6に示す例では、信号値が1である領域が明るく示され、信号値が0である領域が暗く示されている。明るく示された部分が対象物を示す。
なお、二次元画像を撮像する際、対象物を示す領域の輝度が、対象物の検出に要する輝度値の閾値を上回るように光源(例えば、液晶プロジェクター)から白色光を撮像領域Irに照射してもよい。
図7は、膨張・収縮処理の一例を示す図である。
図7(A)は、元の二値化画像の一部を拡大した図である。図7(B)は、図7(A)に示す二値化画像に対して膨張処理を行って得られる二値化画像である。図7(C)は、図7(B)に示す二値化画像に対して収縮処理を行って得られる二値化画像である。
図7(A)−(C)のそれぞれにおいて、四角形のそれぞれは画素を示す。黒塗りの四角形、白抜きの四角形は、それぞれ信号値が1である画素、信号値が0である画素を示す。黒塗りの四角形が空間的に連続した領域が暗領域を示し、白塗りの四角形が空間的に連続した領域が明領域を示す。
図7(B)のうち、横縞で塗りつぶされた四角形は、膨張処理により新たに信号値が1と定められた画素を示す。これらの画素が新たに暗領域から明領域に加えられる。これにより、図7(A)において信号値が0である画素のうち孤立したものや、明領域に突出したものが除去される。
図7(C)のうち、網掛けの四角形は、収縮処理により新たに信号値が0と定められた画素を示す。これらの画素が新たに明領域から暗領域に加えられる。図7(A)において信号値が0である画素のうち孤立したものや、暗領域に突出した画素の信号値は1に戻らないので、明領域と暗領域の間の境界が平滑化される。
図8は、選別された明領域の一例を示す図である。
図8に示す明領域は、注目領域設定部222が選別した(図5、ステップS104)明領域の一例である。直線A1は、注目領域設定部222がこの明領域について算出した直線であり、この明領域の長手方向に最も近似する直線である。直線A2は、直線A1に直交する直線である。
図9において縦軸、横軸は、それぞれ度数、直線A1方向の座標を示す。度数は、注目領域設定部222が計数した図8の明領域を形成する画素の数(画素数)を示す。nthは、例えば、対象物がボルトである場合において軸部以外の部位である非円柱領域(頭部、他の対象物の一部、等)であるか否かを判別する際の画素数の閾値である。この例では、注目領域設定部222は、画素数が閾値nthよりも多い区間B内の直線A1方向の座標値を有する領域を非円柱領域として判定し、判定した非円柱領域を明領域から削除する。なお、注目領域設定部222は、直線A1方向の座標毎に画素数を計数する代わりに、直線A2方向に明領域を横断する長さを検出してもよい。
図10は、注目領域の例を示す図である。
図10に示す領域1は、図8に示す明領域から非円柱領域が除去された領域である。領域1は、対象物が二次元平面に射影された矩形の領域であり、その長手方向が特定される。このことは、領域1に対応する点群データ1には円柱物体の中心軸を推定するためのサンプル点が含まれることを示す。
領域2は、領域1に外接する領域であり、領域2に対応する点群データ2には点群データ1よりもより広い三次元領域に分布したサンプル点が含まれる。点群データ1、2ともに含まれるサンプル点は円柱物体の表面の全領域を必ずしも示すものではないが、点群データ2が示すより広い領域に分布したサンプル点が最終的に中心軸を定める際に用いられることで、中心軸の推定精度を向上させることができる。ここで、点群データ2は、上述したように点群抽出部225でサンプル点の個数を計数(投票)する際や、第2中心軸推定部226で中心軸の候補を定める際に用いられる。
領域3は、領域2よりも長手方向の長さが長い領域であり、領域3に対応する点群データ3には点群データ2よりも推定した中心軸方向に広い三次元領域に分布したサンプル点が含まれる。これにより、点群データ3が示すサンプル点の中心軸座標に対する分布を用いて長さを特定することができ、長さが異なる対象物が撮像領域Irに混在する場合でも所定の長さを有する対象物を特定することができる。
次に、第1中心軸推定部224で選択された点対の例について説明する。
図11は、選択された点対の例を示す図である。
図11(A)、(B)は、XY平面上、XZ平面上にそれぞれ射影された注目領域におけるサンプル点の分布の一例を示す。それぞれの黒丸は、サンプル点を示す。P11、P12は、選択された点対を形成する2個のサンプル点の組の一例であり、E1は、P11、P12間を結ぶ線分である。上述したように、P11、P12間の距離Lは、対象物の長さlから予め定めた範囲にある。
次に、点群抽出部225で抽出された線分に属するサンプル点の例について説明する。
図12は、線分に属するサンプル点の例を示す図である。
図12(A)、(B)は、XY平面上、XZ平面上にそれぞれ射影されたサンプル点の分布の他の例を示す。黒丸のそれぞれは、サンプル点を示す。P21、P22は、点対を形成する2個のサンプル点の組の他の例であり、E2は、P21、P22間を結ぶ線分である。線分E2に属するサンプル点は、線分E2から距離ρの範囲内に含まれるサンプル点である。点群抽出部225は、点群データ2からこれらのサンプル点を選択し、選択したサンプル点の個数Nが所定の個数の範囲内となる点対及びそのサンプル点を採用する。
次に、中心軸選択部227で選択された中心軸の一例について説明する。
図13は、選択された中心軸の一例を示す断面図である。
この例では、中心軸E3と中心軸E3の算出に用いられる選択されたサンプル点の分布がXZ平面に射影されている。各点は、サンプル点を示す。選択されたサンプル点の多くは、中心軸E3からZの負方向に所定距離だけ偏って分布しているが、その分布が延びている方向は中心軸E3の方向にほぼ平行している。この偏った分布は、対象物の表面のうち撮像装置10に対向する部分を表し、その他の部分が表れていないために生じる。
次に、空間データ生成部228が対象物の位置、姿勢、等を算出する際に用いられる点群データ3が示すサンプル点の分布の一例について説明する。
図14は、中心軸とサンプル点の一例を示す斜視図である。
各点は、領域3に対応する点群データ3が示すサンプル点を示す。そのうち、濃く表された点は、中心軸E3の算出に用いられた選択されたサンプル点を示す。1個の対象物の表面の形状を表し、上述した中心軸E3を中心に湾曲した面上に分布している。中心軸から面まで距離は、半径rに近似している。点群データ3は、中心軸E3の方向に選択されたサンプル点よりも広い領域に分布する可能性があるが、このことによって軸方向の長さが異なる物体を判別する手がかりが与えられる。
図15において、縦軸、横軸は、それぞれ度数、中心軸E3の方向の座標を示す。度数は、中心軸E3の方向の座標に対する図14のサンプル点の個数を示す。
n1,n2は、それぞれ上述した第1の閾値、第2の閾値を示す。B1,B2は、それぞれ度数が第1の閾値、第2の閾値を超える区間である。従って、空間データ生成部228は、区間B1の中心軸E3の方向への長さを対象物の長さと定めることができ、区間B2の範囲内の中心軸座標を有するサンプル点が分布する領域を非円柱領域と特定することができる。そして、空間データ生成部228は、特定した非円柱領域の重心点の位置を算出する。
次に、本実施形態に係るロボット制御について説明する。
図16は、本実施形態に係るロボット制御を示すフローチャートである。
(ステップS201)画像データ取得部21には、撮像装置10で撮像された三次元の撮像画像を示す三次元画像データと、二次元画像を示す二次元画像データが入力される。画像データ取得部21は、三次元画像データと二次元画像データを取得することで、撮像領域Irの全体を示す三次元の撮像画像(全体画像)と二次元画像が受け付けられる。その後、ステップS202に進む。
(ステップS202)注目領域設定部222は、画像データ取得部21が取得した二次元画像データが示す二次元画像から注目領域として、例えば、領域1、2、3を決定する。注目領域設定部222は、決定した領域1、2、3に対応する三次元の一部領域1、2、3内に分布するサンプル点を示す点群データ1、2、3を生成する。その後、ステップS203に進む。
(ステップS206)中心軸選択部227は、中心軸情報が示す中心軸候補の定数で示されるXY平面に対する傾きθzが予め定めた傾きの範囲内の中心軸を選択する。中心軸選択部227は、選択した中心軸のそれぞれについて対応する抽出点群情報が示すサンプル点に基づいて、推定誤差errを算出し、算出した推定誤差errが最も小さい中心軸を選択する。中心軸選択部227は、選択した中心軸に係る中心軸情報を生成する。その後、ステップS207に進む。
(ステップS208)制御信号生成部229は、ロボット30から入力された負荷信号と 空間データが示す位置、姿勢、長さのいずれか又はこれらの任意の組に基づいてロボット30の動作を制御するための制御信号を生成し、生成した制御信号をロボット30に出力する。これにより、制御信号生成部229は、ロボット30の動作を制御する。その動作は、例えば、対象物を把持する動作である。その後、図16に示す処理を終了する。
また、第1中心軸推定部224で選択される点対の数は、通例、1個よりも多い。選択される点対の数が1個よりも多い場合には、点対毎にステップS104、S105の処理が繰り返されてもよいし、並列して実行されてもよい。
これにより、撮像画像が示す複数の物体から一の物体を特定し、特定した物体をハンドに把持させることで、撮像領域内に分布した一の物体に係る作業を効率化することができる。つまり、本実施形態では撮像した撮像画像全体に対して三次元点群情報を生成するのではなく、二次元の撮像画像を画像処理することによってその一部に対応する三次元点群情報を生成する領域を特定し、当該領域に対して対象物の空間状態を検出する処理を行う。従来のように撮像画像において所定の変位量毎に注目領域(一部画像)を順次に設定し、設定した注目領域毎に処理を行う場合よりも、処理量が格段に減るので処理速度が向上する。
なお、本発明の技術範囲は上述した実施形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲において種々の変更を加えることが可能である。
上述した実施形態では、主に対象物の形状が円柱又は円柱に近似する形状である場合を例にしたが、これには限られない。対象物の形状は、例えば、三角柱、四角柱などの角柱または角柱に近似する形状等、三次元形状を有する物体であれば良い。
上述した実施形態では、第2中心軸推定部226が、逐次二次推定法を用いて中心軸候補を推定する場合を例にとって説明したが、これには限られない。第2中心軸推定部226は、その他の手法として、ニュートン法などの非線形計画法や、最小二乗法などの回帰分析法を用いることができる。
上述した実施形態では、制御装置20とロボット30とは別個に構成されている場合を例にとって説明したが、これには限られない。制御装置20は、ロボット30と一体に構成されてもよい。
図17は、本変形例に係るロボットシステム2の構成を示す図である。
ロボットシステム2は、ロボットシステム1(図1)においてロボット30に代えてロボット230を備える。
ロボット230は、アーム部30bとハンド部30cとの組を2組備える双腕ロボットである。ロボット230は、格納部230dを備え、格納部230dの内部には、制御装置20が格納され、格納部230dの上面には、撮像装置10が設置されている。これにより、撮像装置10、制御装置20及びロボット230が一体に構成されている。
また、格納部230dの底面には、車輪が取り付けられている。これにより、外力が加えられることでロボットシステム2の全体が移動できるように構成されている。
10 撮像装置
20 制御装置
21 画像データ取得部(画像受付部)
22 制御部(処理部)
222 注目領域設定部
224 第1中心軸推定部
225 点群抽出部
226 第2中心軸推定部
227 中心軸選択部
228 空間データ生成部
229 制御信号生成部
30、230 ロボット
30a 支持台
30b アーム部
30c ハンド部
230d 格納部
Claims (7)
- ハンドと、
前記ハンドを動作させる制御部と、を含み、
前記制御部は、
撮像部が撮像した撮像画像を構成する画像の一部に対して三次元点群情報を生成し、前記ハンドに前記画像の一部に含まれる物体を把持させる、
ロボット。 - 前記制御部は、
前記撮像画像から前記物体を表す第1の領域と前記第1の領域を含み、所定の形状を有する第2の領域を定め、
前記第1の領域に対応する第1の三次元点群情報と、
前記第2の領域に対応する第2の三次元点群情報と、を前記撮像画像から生成し、
前記第1の三次元点群情報に含まれる2点からなる複数の組のうち、2点間の線分の長さが所定の長さの範囲内となる組を選択し、
選択した組をなす2点間の線分から予め定めた範囲内の点を前記第2の三次元点群情報から抽出し、
前記第2の三次元点群情報から抽出した各点までの距離と所定の閾値との差が予め定めた範囲内にある中心軸を選択する、
請求項1に記載のロボット。 - 前記制御部は、
前記撮像画像から輝度が予め定めた閾値よりも大きい領域を検出し、検出した領域の形状を示す指標値が所定の範囲内である領域を前記第1の領域として決定する、
請求項2に記載のロボット。 - 前記第2の領域の形状は矩形であって、
前記制御部は、
前記撮像画像から前記第2の領域の長手方向の長さよりも長い第3の領域を定め、
前記第3の領域に対応する第3の三次元点群情報を前記撮像画像から抽出し、
前記第3の三次元点群情報に含まれる点の前記中心軸の方向への分布に基づいて前記物体の前記中心軸の方向の長さを算出する、
請求項2又は請求項3に記載のロボット。 - 撮像部が複数の物体を撮像した撮像画像を受け付ける画像受付部と、
ロボットを動作させる処理部と、を含み、
前記処理部は、
前記撮像画像を構成する画像の一部に対して三次元点群情報を生成し、前記ロボットに、前記画像の一部に含まれる物体を把持させる、
制御装置。 - 複数の物体を撮像する撮像部と、
ロボットと、
前記ロボットを動作させる制御部と、を含み、
前記制御部は、
前記撮像部が撮像した撮像画像を構成する画像の一部に対して三次元点群情報を生成し、前記画像の一部に含まれる物体を前記ロボットに把持させる、
ロボットシステム。 - 複数の物体を撮像することと、
前記複数の物体を撮像した撮像画像を構成する画像の一部に対して、三次元点群情報を生成することと、
生成した前記三次元点群情報を用いて、ロボットに前記画像の一部に含まれる物体を把持させることと、
を含む制御方法。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014019827A JP2015147256A (ja) | 2014-02-04 | 2014-02-04 | ロボット、ロボットシステム、制御装置、及び制御方法 |
US14/612,701 US9764467B2 (en) | 2014-02-04 | 2015-02-03 | Robot, robot system, control device, and control method |
CN201510055571.XA CN104816306A (zh) | 2014-02-04 | 2015-02-03 | 机器人、机器人***、控制装置、以及控制方法 |
US15/680,625 US10562182B2 (en) | 2014-02-04 | 2017-08-18 | Robot, robot system, control device, and control method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014019827A JP2015147256A (ja) | 2014-02-04 | 2014-02-04 | ロボット、ロボットシステム、制御装置、及び制御方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2015147256A true JP2015147256A (ja) | 2015-08-20 |
Family
ID=53726906
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014019827A Pending JP2015147256A (ja) | 2014-02-04 | 2014-02-04 | ロボット、ロボットシステム、制御装置、及び制御方法 |
Country Status (3)
Country | Link |
---|---|
US (2) | US9764467B2 (ja) |
JP (1) | JP2015147256A (ja) |
CN (1) | CN104816306A (ja) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105479461A (zh) * | 2016-01-26 | 2016-04-13 | 先驱智能机械(深圳)有限公司 | 控制方法、控制装置及机械手*** |
CN108326848A (zh) * | 2017-01-20 | 2018-07-27 | 精工爱普生株式会社 | 机器人 |
JP2020059066A (ja) * | 2018-10-05 | 2020-04-16 | 株式会社Fuji | ピッキング装置 |
JP2021105862A (ja) * | 2019-12-26 | 2021-07-26 | ファナック株式会社 | 三次元データを補間する三次元データ生成装置及びロボットシステム |
DE112021008069T5 (de) | 2021-09-15 | 2024-05-23 | Yamaha Hatsudoki Kabushiki Kaisha | Bildverarbeitungsvorrichtung, Komponentengreifsystem, Bildverarbeitungsverfahren und Komponentengreifverfahren |
Families Citing this family (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9102055B1 (en) * | 2013-03-15 | 2015-08-11 | Industrial Perception, Inc. | Detection and reconstruction of an environment to facilitate robotic interaction with the environment |
CN105313127A (zh) * | 2014-06-02 | 2016-02-10 | 精工爱普生株式会社 | 机器人、机器人的控制方法以及机器人的控制装置 |
DE102015204867A1 (de) * | 2015-03-18 | 2016-09-22 | Kuka Roboter Gmbh | Robotersystem und Verfahren zum Betrieb eines teleoperativen Prozesses |
EP3136290A1 (en) * | 2015-08-28 | 2017-03-01 | Thomson Licensing | Method and device for determining the shape of an object represented in an image, corresponding computer program product and computer readable medium |
CN105674991A (zh) * | 2016-03-29 | 2016-06-15 | 深圳市华讯方舟科技有限公司 | 一种机器人定位方法和装置 |
CN105690393A (zh) * | 2016-04-19 | 2016-06-22 | 惠州先进制造产业技术研究中心有限公司 | 一种基于机器视觉的四轴并联机器人分拣***及其分拣方法 |
US10245724B2 (en) * | 2016-06-09 | 2019-04-02 | Shmuel Ur Innovation Ltd. | System, method and product for utilizing prediction models of an environment |
JP2017222001A (ja) * | 2016-06-15 | 2017-12-21 | セイコーエプソン株式会社 | ロボット、制御装置およびロボットシステム |
JP2018034242A (ja) * | 2016-08-31 | 2018-03-08 | セイコーエプソン株式会社 | ロボット制御装置、ロボット、及びロボットシステム |
JP2018126799A (ja) * | 2017-02-06 | 2018-08-16 | セイコーエプソン株式会社 | 制御装置、ロボットおよびロボットシステム |
JP6450788B2 (ja) * | 2017-02-21 | 2019-01-09 | ファナック株式会社 | ワーク取出システム |
JP6418359B1 (ja) * | 2017-03-24 | 2018-11-07 | 三菱電機株式会社 | ロボットプログラムの生成装置及び生成方法 |
US11143697B2 (en) * | 2017-04-28 | 2021-10-12 | Advantest Corporation | Automated handling of different form factor devices under test in test cell |
EP3412414A3 (en) * | 2017-06-06 | 2018-12-26 | Seiko Epson Corporation | Control apparatus of robot system and robot system |
EP3465267A4 (en) * | 2017-08-25 | 2019-05-22 | Beijing Didi Infinity Technology and Development Co., Ltd. | METHODS AND SYSTEMS FOR DETECTING ENVIRONMENTAL INFORMATION OF A VEHICLE |
JP2019066235A (ja) * | 2017-09-29 | 2019-04-25 | セイコーエプソン株式会社 | エンコーダー、プリンターおよびロボット |
JP6879238B2 (ja) * | 2018-03-13 | 2021-06-02 | オムロン株式会社 | ワークピッキング装置及びワークピッキング方法 |
US10657419B2 (en) * | 2018-03-28 | 2020-05-19 | The Boeing Company | Machine vision and robotic installation systems and methods |
US11040452B2 (en) * | 2018-05-29 | 2021-06-22 | Abb Schweiz Ag | Depth sensing robotic hand-eye camera using structured light |
TWI796357B (zh) * | 2018-09-04 | 2023-03-21 | 日商愛德萬測試股份有限公司 | 測試室中的不同形狀因子待測設備的自動化搬運 |
JP7097799B2 (ja) | 2018-11-21 | 2022-07-08 | Thk株式会社 | 画像情報処理装置、把持システム、および画像情報処理方法 |
WO2020175425A1 (ja) * | 2019-02-25 | 2020-09-03 | 国立大学法人 東京大学 | ロボットシステム、ロボットの制御装置、およびロボットの制御プログラム |
CN109848951A (zh) * | 2019-03-12 | 2019-06-07 | 易思维(天津)科技有限公司 | 大型工件的自动加工设备及方法 |
CN112116804B (zh) * | 2019-06-19 | 2023-03-07 | 北京地平线机器人技术研发有限公司 | 一种车辆状态量信息确定方法及装置 |
CN110608872A (zh) * | 2019-09-30 | 2019-12-24 | 云谷(固安)科技有限公司 | 光学检测设备及检测方法 |
TWI738124B (zh) * | 2019-11-22 | 2021-09-01 | 香港商女媧創造股份有限公司 | 具有可移動機構的非平面內投影的機器人系統 |
CN111113416A (zh) * | 2019-12-19 | 2020-05-08 | 郑州宇恒环保技术有限公司 | 基于机器视觉的轴承在线检测*** |
CN111906765B (zh) * | 2020-07-31 | 2022-07-12 | 平安科技(深圳)有限公司 | 应用于路径规划的空间采样方法、装置、设备及介质 |
CN112836681B (zh) * | 2021-03-03 | 2024-01-26 | 上海高仙自动化科技发展有限公司 | 一种障碍物标记方法、装置及可读非暂时性存储介质 |
IT202100016460A1 (it) * | 2021-06-23 | 2022-12-23 | Stevanato Group Spa | Apparato per il confezionamento di contenitori di dispositivi per uso farmaceutico |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001005978A (ja) * | 1999-06-18 | 2001-01-12 | Sony Corp | 物体抽出装置、物体抽出方法、およびプログラム提供媒体 |
WO2007083039A2 (fr) * | 2006-01-23 | 2007-07-26 | Grosbois Jerome | Procede et systeme permettant la prehension automatisee de piece(s) |
JP2008006519A (ja) * | 2006-06-27 | 2008-01-17 | Toyota Motor Corp | ロボット装置及びロボット装置の制御方法 |
US20090033655A1 (en) * | 2007-08-02 | 2009-02-05 | Boca Remus F | System and method of three-dimensional pose estimation |
JP2009128201A (ja) * | 2007-11-26 | 2009-06-11 | Mitsubishi Electric Corp | 位置姿勢認識装置 |
JP2010247959A (ja) * | 2009-04-16 | 2010-11-04 | Ihi Corp | 箱状ワーク認識装置および方法 |
JP2011167815A (ja) * | 2010-02-19 | 2011-09-01 | Ihi Corp | 物体認識ロボットシステム |
JP2012026974A (ja) * | 2010-07-27 | 2012-02-09 | 3D Media Co Ltd | 3次元物体認識装置及び3次元物体認識方法 |
US20130238125A1 (en) * | 2012-03-09 | 2013-09-12 | Canon Kabushiki Kaisha | Information processing apparatus and information processing method |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2919284B2 (ja) * | 1994-02-23 | 1999-07-12 | 松下電工株式会社 | 物体認識方法 |
US6995762B1 (en) * | 2001-09-13 | 2006-02-07 | Symbol Technologies, Inc. | Measurement of dimensions of solid objects from two-dimensional image(s) |
JP3930490B2 (ja) * | 2004-04-23 | 2007-06-13 | ファナック株式会社 | 物品取出し装置 |
SE529377C2 (sv) * | 2005-10-18 | 2007-07-24 | Morphic Technologies Ab Publ | Metod och arrangemang för att lokalisera och plocka upp föremål från en bärare |
US9089966B2 (en) * | 2010-11-17 | 2015-07-28 | Mitsubishi Electric Corporation | Workpiece pick-up apparatus |
JP5892360B2 (ja) * | 2011-08-02 | 2016-03-23 | ソニー株式会社 | ロボット指示装置、ロボット指示方法、プログラム、及び通信システム |
JP5494597B2 (ja) * | 2011-09-16 | 2014-05-14 | 株式会社安川電機 | ロボットシステム |
JP2013101045A (ja) * | 2011-11-08 | 2013-05-23 | Fanuc Ltd | 物品の3次元位置姿勢の認識装置及び認識方法 |
JP6000579B2 (ja) * | 2012-03-09 | 2016-09-28 | キヤノン株式会社 | 情報処理装置、情報処理方法 |
JP5977544B2 (ja) * | 2012-03-09 | 2016-08-24 | キヤノン株式会社 | 情報処理装置、情報処理方法 |
JP6092530B2 (ja) * | 2012-06-18 | 2017-03-08 | キヤノン株式会社 | 画像処理装置、画像処理方法 |
CN104540648B (zh) * | 2012-08-02 | 2018-10-12 | 株式会社富士 | 具备多关节型机器人的作业机及电子元件安装机 |
JP6021533B2 (ja) * | 2012-09-03 | 2016-11-09 | キヤノン株式会社 | 情報処理システム、装置、方法及びプログラム |
JP5786896B2 (ja) * | 2013-06-07 | 2015-09-30 | 株式会社安川電機 | ワーク検出装置、ロボットシステム、被加工物の製造方法及びワーク検出方法 |
-
2014
- 2014-02-04 JP JP2014019827A patent/JP2015147256A/ja active Pending
-
2015
- 2015-02-03 CN CN201510055571.XA patent/CN104816306A/zh active Pending
- 2015-02-03 US US14/612,701 patent/US9764467B2/en active Active
-
2017
- 2017-08-18 US US15/680,625 patent/US10562182B2/en not_active Expired - Fee Related
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001005978A (ja) * | 1999-06-18 | 2001-01-12 | Sony Corp | 物体抽出装置、物体抽出方法、およびプログラム提供媒体 |
WO2007083039A2 (fr) * | 2006-01-23 | 2007-07-26 | Grosbois Jerome | Procede et systeme permettant la prehension automatisee de piece(s) |
JP2009523623A (ja) * | 2006-01-23 | 2009-06-25 | ジェローム グロボア, | ワーク自動把持の方法と装置 |
JP2008006519A (ja) * | 2006-06-27 | 2008-01-17 | Toyota Motor Corp | ロボット装置及びロボット装置の制御方法 |
US20090208094A1 (en) * | 2006-06-27 | 2009-08-20 | Hirohito Hattori | Robot apparatus and method of controlling same |
US20090033655A1 (en) * | 2007-08-02 | 2009-02-05 | Boca Remus F | System and method of three-dimensional pose estimation |
JP2009128201A (ja) * | 2007-11-26 | 2009-06-11 | Mitsubishi Electric Corp | 位置姿勢認識装置 |
JP2010247959A (ja) * | 2009-04-16 | 2010-11-04 | Ihi Corp | 箱状ワーク認識装置および方法 |
JP2011167815A (ja) * | 2010-02-19 | 2011-09-01 | Ihi Corp | 物体認識ロボットシステム |
JP2012026974A (ja) * | 2010-07-27 | 2012-02-09 | 3D Media Co Ltd | 3次元物体認識装置及び3次元物体認識方法 |
US20130238125A1 (en) * | 2012-03-09 | 2013-09-12 | Canon Kabushiki Kaisha | Information processing apparatus and information processing method |
JP2013184278A (ja) * | 2012-03-09 | 2013-09-19 | Canon Inc | 情報処理装置、情報処理方法 |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105479461A (zh) * | 2016-01-26 | 2016-04-13 | 先驱智能机械(深圳)有限公司 | 控制方法、控制装置及机械手*** |
CN108326848A (zh) * | 2017-01-20 | 2018-07-27 | 精工爱普生株式会社 | 机器人 |
CN108326848B (zh) * | 2017-01-20 | 2022-07-12 | 精工爱普生株式会社 | 机器人 |
JP2020059066A (ja) * | 2018-10-05 | 2020-04-16 | 株式会社Fuji | ピッキング装置 |
JP7173816B2 (ja) | 2018-10-05 | 2022-11-16 | 株式会社Fuji | ピッキング装置 |
JP2021105862A (ja) * | 2019-12-26 | 2021-07-26 | ファナック株式会社 | 三次元データを補間する三次元データ生成装置及びロボットシステム |
JP7405607B2 (ja) | 2019-12-26 | 2023-12-26 | ファナック株式会社 | 三次元データを補間する三次元データ生成装置及びロボットシステム |
DE112021008069T5 (de) | 2021-09-15 | 2024-05-23 | Yamaha Hatsudoki Kabushiki Kaisha | Bildverarbeitungsvorrichtung, Komponentengreifsystem, Bildverarbeitungsverfahren und Komponentengreifverfahren |
Also Published As
Publication number | Publication date |
---|---|
CN104816306A (zh) | 2015-08-05 |
US20150217451A1 (en) | 2015-08-06 |
US20170341230A1 (en) | 2017-11-30 |
US9764467B2 (en) | 2017-09-19 |
US10562182B2 (en) | 2020-02-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2015147256A (ja) | ロボット、ロボットシステム、制御装置、及び制御方法 | |
JP5458885B2 (ja) | 物体検出方法と物体検出装置およびロボットシステム | |
JP5618569B2 (ja) | 位置姿勢推定装置及びその方法 | |
JP6415026B2 (ja) | 干渉判定装置、干渉判定方法、コンピュータプログラム | |
US9044858B2 (en) | Target object gripping apparatus, method for controlling the same and storage medium | |
JP5612916B2 (ja) | 位置姿勢計測装置、その処理方法、プログラム、ロボットシステム | |
US9118823B2 (en) | Image generation apparatus, image generation method and storage medium for generating a target image based on a difference between a grip-state image and a non-grip-state image | |
US9576363B2 (en) | Object picking system, object detecting device, object detecting method | |
CN107077735A (zh) | 三维对象识别 | |
JP6489243B2 (ja) | 物体認識装置、物体認識方法、物体認識プログラム、ロボットシステム及びロボット | |
JP5093591B2 (ja) | 三次元位置姿勢計測方法および装置 | |
JP2018036770A (ja) | 位置姿勢推定装置、位置姿勢推定方法、及び位置姿勢推定プログラム | |
JP6237122B2 (ja) | ロボット、画像処理方法及びロボットシステム | |
Fang et al. | GraspNet: a large-scale clustered and densely annotated dataset for object grasping | |
JP2015079374A (ja) | 物体認識装置、物体認識方法、物体認識プログラム、ロボットシステム及びロボット | |
JP6124566B2 (ja) | 画像認識方法および画像認識装置 | |
JP5960642B2 (ja) | 3次元情報取得方法及び3次元情報取得装置 | |
JP3516668B2 (ja) | 3次元形状認識方法、装置およびプログラム | |
CN111742349B (zh) | 信息处理装置、信息处理方法以及信息处理存储介质 | |
JP6512852B2 (ja) | 情報処理装置、情報処理方法 | |
JP2020051762A (ja) | 三次元形状検査装置、三次元形状検査方法、三次元形状検査プログラム、コンピュータ | |
JP5757157B2 (ja) | 検出対象物について頭部分の位置および軸部分の方向を算出する方法、装置およびプログラム | |
WO2023140266A1 (ja) | ピッキング装置及び画像生成プログラム | |
Mishra et al. | Development and evaluation of a Kinect based Bin-Picking system | |
CN117367308A (zh) | 三维全场应变测量方法及其在机械设备中的应用 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20161207 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20171006 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20171024 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171220 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20180605 |