JP6298035B2 - モデル生成装置、位置姿勢算出装置、およびハンドリングロボット装置 - Google Patents

モデル生成装置、位置姿勢算出装置、およびハンドリングロボット装置 Download PDF

Info

Publication number
JP6298035B2
JP6298035B2 JP2015246029A JP2015246029A JP6298035B2 JP 6298035 B2 JP6298035 B2 JP 6298035B2 JP 2015246029 A JP2015246029 A JP 2015246029A JP 2015246029 A JP2015246029 A JP 2015246029A JP 6298035 B2 JP6298035 B2 JP 6298035B2
Authority
JP
Japan
Prior art keywords
model
measurement data
dimensional
article
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015246029A
Other languages
English (en)
Other versions
JP2017111019A (ja
Inventor
健文 後藤
健文 後藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
FANUC Corp
Original Assignee
FANUC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by FANUC Corp filed Critical FANUC Corp
Priority to JP2015246029A priority Critical patent/JP6298035B2/ja
Priority to CN201610974594.5A priority patent/CN106891333B/zh
Priority to DE102016014658.3A priority patent/DE102016014658B8/de
Priority to US15/381,671 priority patent/US10496762B2/en
Publication of JP2017111019A publication Critical patent/JP2017111019A/ja
Application granted granted Critical
Publication of JP6298035B2 publication Critical patent/JP6298035B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/10Geometric CAD
    • G06F30/17Mechanical parametric or variational design
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0014Image feed-back for automatic industrial control, e.g. robot with camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • G06V20/653Three-dimensional objects by matching three-dimensional models, e.g. conformal mapping of Riemann surfaces
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39527Workpiece detector, sensor mounted in, near hand, gripper
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39543Recognize object and plan hand shapes in grasping movements
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40053Pick 3-D object from pile of objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/12Acquisition of 3D measurements of objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Geometry (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Pure & Applied Mathematics (AREA)
  • Mathematical Optimization (AREA)
  • Mathematical Analysis (AREA)
  • Computational Mathematics (AREA)
  • Computer Graphics (AREA)
  • Multimedia (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Length Measuring Devices With Unspecified Measuring Means (AREA)
  • Image Generation (AREA)
  • Architecture (AREA)
  • Manipulator (AREA)

Description

本発明は、対象物品を3次元計測機で計測し、計測データを用いて対象物品の3次元モデルを生成するモデル生成装置に関する。さらに、本発明は、対象物品の3次元モデルと計測データに基づいて、対象物品の位置姿勢を算出する位置姿勢算出装置に関する。さらに、本発明は、対象物品の3次元モデルと計測データに基づいて、対象物品の位置姿勢を算出し、算出された物品の位置姿勢に基づいてロボットが対象物品をハンドリングするハンドリングロボット装置に関する。
3次元計測機で計測された計測データと3次元モデルとを照合して、対象物品(以下、単に「物品」と呼ぶ場合がある)の位置姿勢を算出する装置では、対象物品などの3次元モデルを事前に作成する必要がある。そして、3次元モデルは、主に以下の二つの方法により作成される。
第一の方法においては、対象物品のCADデータを使用する。特許文献1は、CADデータから位置姿勢推定用の3次元モデルを生成する技術を開示している。特許文献1においては、CADデータからその対象物品を3次元計測したときに取得できると期待できる計測データを生成し、生成された計測データに基づいて、位置姿勢推定用の3次元モデルを生成している。
第二の方法においては、対象物品を実際に3次元計測機で計測して3次元モデルを生成する。しかしながら、一般的な3次元計測機は、上方に露出している物品の表面のみを計測する。このため、様々な物品位置姿勢を算出するためには、予め様々な視点から物品を計測しておく必要がある。特許文献2においては、物品の姿勢を少しずつ変化させながら3次元計測と位置姿勢の算出とを繰返し、算出された位置姿勢に基づいて各計測データを統合することで物品の3次元モデルを生成している。
特開2010−079453号公報 特開2010−113398号公報
しかしながら、前述した従来の手法には以下のような問題がある。
特許文献1の手法においては、予めCADデータを準備する必要がある。対象物品のCADデータが利用可能であるとは限らないので、そのような場合には3次元モデルを作成できない。また、全ての物品表面に対して、期待通りに3次元計測できる保証はない。光学系を利用した3次元計測機は、特定の表面特性、例えば物品表面に部分的に存在する黒い領域に対して、3次元計測を行うことは困難である。しかしながら、CADデータから3次元モデルを生成した場合には、そのような表面特性を考慮することができない。仮にそのような表面特性をモデル化してもモデル化誤差が発生し、生成された3次元モデルと実際の計測データとの間に乖離が発生する可能性がある。
特許文献2の手法は、物品の姿勢を少しずつ変更させるたびに3次元計測と位置姿勢の算出とを繰返す必要がある。例えば、カムシャフトのような回転体を軸周りに20度ずつ回転させながら計測を行う場合には、合計で18回計測する必要がある。さらに、軸周りだけではなく、あらゆる物品位置姿勢を算出できるような3次元モデルを作成する場合には、計測回数は非常に膨大になり、3次元モデルを作成する手間もこれに比例して膨大になる。従って、3次元モデルを作成するのに多大な時間が必要とされる。
本発明はこのような事情に鑑みてなされたものであり、CADデータが存在しない対象物品の3次元モデルを、3次元計測機を用いて一度または少ない回数の計測により簡単に生成することのできるモデル生成装置、ならびに、そのようなモデル生成装置を含む位置姿勢算出装置およびハンドリングロボット装置を提供することを目的とする。
前述した目的を達成するために1番目の発明によれば、物品の3次元モデルを生成するモデル生成装置であって、3次元空間上に任意の姿勢でそれぞれ配置された複数の物品を3次元計測し、計測データを取得する3次元計測機と、該3次元計測機により計測された前記複数の物品の計測データを、一つの物品を複数の仮想的な計測位置から計測したモデル計測データの集合とみなし、前記複数の仮想的な計測位置のそれぞれについて、対応するモデル計測データを抽出するモデル計測データ抽出部と、該モデル計測データ抽出部により抽出したモデル計測データを統合することにより前記物品の3次元モデルを生成するモデル計測データ統合部と、を備えることを特徴とするモデル生成装置が提供される。
2番目の発明によれば、1番目の発明において、前記モデル計測データ抽出部は、前記計測データを教示画面に出力する描画部と、複数の物品から選択された一つの物品の領域を、前記計測データが出力された前記教示画面上で設定する領域設定部と、該領域設定部によって設定された前記領域内に存在する計測データを基に、仮モデルを生成する仮モデル生成部と、前記仮モデルを用いて前記複数の物品の残りの物品の位置姿勢を検出する検出部と、を備え、前記モデル計測データ抽出部は前記検出部によって検出された前記残りの物品の位置姿勢を基にモデル計測データを抽出し、前記モデル計測データ統合部は前記モデル計測データを前記仮モデルに統合することで3次元モデルを生成する。
3番目の発明によれば、2番目の発明において、前記検出部は、前記仮モデルの初期姿勢に近い姿勢の物品から順番に検出し、前記モデル計測データ抽出部は、前記検出部の検出結果に基づき、前記仮モデルの初期姿勢に近い順にモデル計測データを抽出し、前記モデル計測データ統合部は、前記モデル計測データが抽出される毎に、逐次的にモデル計測データを前記仮モデルに統合する。
4番目の発明によれば、2番目または3番目の発明において、前記モデル計測データ抽出部が、前記検出部の検出結果の成否を操作者が指示するための検出成否指示部を備える。
5番目の発明によれば、2番目から4番目のいずれかの発明において、前記モデル計測データ抽出部は、前記検出部によって検出された物品の位置姿勢の近傍に存在する前記計測データを基に前記モデル計測データを抽出する。
6番目の発明によれば、2番目から5番目のいずれかの発明において、前記モデル計測データ抽出部が誤った計測データをモデル計測データとして不正に抽出すると共に不正に抽出された不正モデル計測データを前記仮モデルに統合した場合であっても、前記モデル計測データ統合部が、前記計測データと前記仮モデルとの整合性を基に、前記仮モデルから前記不正モデル計測データを抽出して除去する不正モデル計測データ除去部を備える。
7番目の発明によれば、2番目から6番目のいずれかの発明において、前記モデル計測データ統合部が、前記モデル計測データを前記仮モデルに統合する際に、前記モデル計測データと前記仮モデルの間に重複部が存在する場合には、前記モデル計測データから該重複部を除去した後で、前記モデル計測データを前記仮モデルに統合する。
8番目の発明によれば、2番目から6番目のいずれかの発明において、前記モデル計測データ統合部が、前記モデル計測データを前記仮モデルに統合する際に、前記モデル計測データと前記仮モデルの間に重複部が存在する場合には、前記モデル計測データの該重複部を基に仮モデルの該重複部を更新する。
9番目の発明によれば、1番目から8番目のいずれかの発明において、前記モデル計測データ統合部が、前記検出部によって検出された物品の位置姿勢から算出される前記仮想計測位置及びモデル計測データの少なくとも一方をパラメータとする最適化を行い、生成されるべきモデルの高精度化を行う。
10番目の発明によれば、1番目から9番目のいずれかの発明において、前記3次元計測機が、3次元空間上に配置された複数の物品を3次元計測した後に、物品の積載状態を変更し、前記複数の物品の新たな3次元計測を行うことを一回以上繰返し、前記モデル計測データ抽出部及び前記モデル計測データ統合部が、複数回の3次元計測により得られた複数の計測データを基に前記物品の3次元モデルを生成する。
11番目の発明によれば、1番目から10番目のいずれかのモデル生成装置と、前記モデル生成装置によって生成された3次元モデルと前記3次元計測機で取得された計測データとの対応付けに基づいて、前記物品の位置姿勢を算出する位置姿勢算出部と、を備えることを特徴とする位置姿勢算出装置が提供される。
12番目の発明によれば、前記物品をハンドリング可能なロボットと、1番目から10番目のいずれかのモデル生成装置と、前記モデル生成装置によって生成された3次元モデルと前記3次元計測機で取得された計測データとの対応付けに基づいて、前記物品の位置姿勢を算出する位置姿勢算出部とを備え、前記位置姿勢算出部によって算出された前記物品の位置姿勢に基づいて、前記ロボットが前記物品をハンドリングすることを特徴とするハンドリングロボット装置が提供される。
1番目の発明においては、CADデータが存在しない物品に対しても、物品の位置姿勢算出などに使用される3次元モデルを生成することができる。3次元計測機を用いて物品の3次元モデルを生成する際に、任意の姿勢でそれぞれ配置された複数の物品の計測データを、一つの物品を複数の仮想的な計測位置から計測したモデル計測データの集合とみなしている。このため、一回の計測により3次元モデルを生成することが可能になる。
2番目の発明においては、初めに一つの物品の計測データから仮モデルを教示し、その仮モデルを使用して残りの物品の位置姿勢を検出し、その検出結果を基にモデル計測データを抽出して仮モデルに統合している。このため、操作者の負担を大きくすることなく、3次元モデルを生成することが可能になる。
3番目の発明においては、仮モデルの初期姿勢に近い姿勢の物品から検出してモデル計測データを抽出して仮モデルに逐次的に統合している。つまり、精度よく安定して検出できる物品から順番に検出して仮モデルを拡張することができる。これにより、初期の仮モデルにはモデル計測データが全く存在しない物品の面に対しても、最終的にモデル計測データの抽出および統合が可能になる。
4番目の発明においては、仮モデルを用いた検出結果が正しいか否かを操作者が指示することにより、3次元モデルに誤ったモデル計測データが追加されるのを防ぐことができる。
5番目の発明においては、仮モデルを用いた検出結果を基に、モデル計測データを抽出する際に、既存のモデル計測データ近傍の点を新規のモデル計測データとして抽出している。従って、教示の手間なく、自動的にモデル計測データを抽出することができる。
6番目の発明においては、モデル計測データに誤った3次元点が含まれ、仮モデルに統合されてしまった場合であっても、仮モデルと計測データとの整合性を確認して、不正に統合されたモデル計測データを除去する。これにより、正しい3次元モデルを生成することができる。
7番目の発明においては、新たに抽出したモデル計測データを仮モデルに統合する際、モデル計測データと仮モデルの間に重複する3次元点が存在する場合には、その重複する3次元点を統合しないようにしている。このため、3次元モデルのデータが重くなることを防ぐとともに、情報に過不足のない3次元モデルを生成することが可能になる。
8番目の発明においては、新たに抽出したモデル計測データを仮モデルに統合する際、モデル計測データと仮モデルの間に重複する3次元点が存在する場合には、重複する3次元点から新たな3次元点を算出し、仮モデルを更新している。このため、3次元モデルのデータが重くなることを防ぐとともに、情報に過不足のない3次元モデルを生成することが可能になる。さらに、計測誤差を緩和した3次元モデルを生成することができる。
9番目の発明においては、モデル計測データの統合処理が完了した後に、仮想的な計測位置及びモデル計測データに属する各3次元点の位置の最適化処理を行うことで、より精度の高い3次元モデルを生成することが可能になる。
10番目の発明においては、一度に計測できる物品の個数が少ない場合でも、複数回3次元計測を行うと共に複数の計測データを用いることにより3次元モデルを生成している。これにより、様々な計測位置から物品を計測することで得られる3次元モデルを同様に生成することが可能になる。このような場合であっても、一つの物品を少しずつ姿勢変化させながら計測するよりも短時間で3次元モデルを生成することができる。
11番目の発明においては、CADデータの存在しない物品に対しても物品の位置姿勢を算出することができる。また、3次元計測機により物品を計測することにより3次元モデルを生成しているので、3次元モデル生成時の教示の手間を大幅に減らすことができる。さらに、CADデータを使用する位置姿勢算出装置と比較して、実際に計測を行う3次元計測機を使用して3次元モデルを作成するため、3次元モデルと位置姿勢算出時の計測データの間に齟齬が生じにくい。
12番目の発明においては、CADデータの存在しない物品に対しても、3次元空間上に配置された物品の位置姿勢を算出し、算出結果に基づいて物品を正確にハンドリングすることができる。また、物品の3次元計測を行うことで物品の3次元モデルを生成しているので、3次元モデル生成時の教示の手間を大幅に減らすことができる。
添付図面に示される本発明の典型的な実施形態の詳細な説明から、本発明のこれら目的、特徴および利点ならびに他の目的、特徴および利点がさらに明解になるであろう。
本発明に基づくハンドリングロボット装置の概略図である。 本発明に基づくモデル生成装置を含む3次元認識装置の機能ブロック図である。 計測データを説明するための図である。 仮想的な計測位置を説明するための図である。 ハンドリングロボット装置の動作を示すフローチャートである。 仮モデルを説明するための第一の図である。 仮モデルを説明するための第二の図である。 仮モデルを説明するための第三の図である。 仮モデルを説明するための第四の図である。 誤ったモデル計測データを除去することを説明するための図である。
以下、添付図面を参照して本発明の実施形態を説明する。以下の図面において同様の部材には同様の参照符号が付けられている。理解を容易にするために、これら図面は縮尺を適宜変更している。
図1は本発明に基づくハンドリングロボット装置の概略図である。図1に示されるように、ハンドリングロボット装置A00はロボットA01と、ロボットA01を制御するロボット制御装置A02と、ロボットA01のアーム先端に取付けられたハンドA03と、3次元計測機A04と、3次元認識装置A05とを主に含んでいる。
図1に示されるように3次元計測機A04は架台A07の先端に固定されている。そして、3次元計測機A04の計測範囲内には複数の同種または同形状の物品A06がバラ積みされている。あるいは、複数の物品A06は3次元空間上に任意の姿勢でそれぞれ配置されていてもよい。3次元計測機A04は、バラ積みされた物品A06の表面を計測して、複数の3次元点の位置情報を計測データとして取得する。
また、ハンドA03は複数の物品A06から一つの物品を把持および解放するものであり、ロボット制御装置A02により制御される。なお、3次元計測機A04は、ロボットA01の先端部に取付けられていてもよい。
3次元計測機A04は、非接触で物品A06を計測する種々の方式を利用できる。そのような方式は、例えば、二つのカメラによるステレオ方式、レーザスリット光を走査する方式、レーザスポット光を走査する方式、プロジェクタ等の装置を用いてパターン光を物品に投影する方式、光が投光器から出射されてから物品表面で反射し受光器に入射するまでの飛行時間を利用する方式などが挙げられる。
図1から分かるように、3次元計測機A04および3次元認識装置A05は通信ケーブル等の通信部によって互いに通信可能に接続されている。同様に、3次元認識装置A05およびロボット制御装置A02は通信ケーブル等の通信部によって互いに通信可能に接続されている。なお、ロボット制御装置A02が3次元認識装置A05としての機能を有するようにして、ロボット制御装置A02が後述する3次元モデルB40の生成や物品の位置姿勢B50の算出を行うようにしてもよい。
図2は本発明に基づくモデル生成装置を含む3次元認識装置の機能ブロック図である。厳密には、図2において破線で示される部分B00が本発明のモデル生成装置に相当する。図2に示されるモデル生成部B10は、3次元計測機A04により計測された複数の物品の計測データを、一つの物品を複数の仮想的な計測位置から計測したモデル計測データの集合とみなし、複数の仮想的な計測位置のそれぞれについて、対応するモデル計測データを抽出するモデル計測データ抽出部B11と、モデル計測データ抽出部B11により抽出したモデル計測データを統合することにより物品の3次元モデルを生成するモデル計測データ統合部B12とを含んでいる。
さらに、図2に示されるように、モデル計測データ抽出部B11は、計測データを教示画面C17に出力する描画部C11と、複数の物品から選択された一つの物品の領域を、計測データが出力された教示画面上で設定する領域設定部C12と、領域設定部C12によって設定された領域内に存在する計測データを基に、仮モデルを生成する仮モデル生成部C13と、仮モデルを用いて複数の物品の残りの物品の位置姿勢を検出する検出部C14とを含んでいる。また、モデル計測データ抽出部B11は、検出部C14の検出結果の成否を操作者が指示するための検出成否指示部C15を備えている。
さらに、モデル計測データ統合部B12は、モデル計測データ抽出部B11が誤った計測データをモデル計測データとして不正に抽出すると共に不正に抽出された不正モデル計測データを仮モデルに統合した場合であっても、モデル計測データ統合部B12が、計測データと仮モデルとの整合性を基に、仮モデルから不正モデル計測データを抽出して除去する不正モデル計測データ除去部C16を含んでいる。
図2から分かるように、3次元計測機A04により複数の物品A06の計測データB30が取得される。ここで、図3は計測データを説明するための図である。図3には、複数の物品A06a〜A06hが示されている。図3に示される例においては、これら物品A06a〜A06hは軸部と、軸部の一端に取付けられた楕円形のフランジ部と、フランジ部の周面近傍に取付けられていてフランジ部から軸部とは反対方向に延びる突起部とを含んでいる。
理解を容易にする目的で、図3における物品A06a〜A06hは、それらの軸部が概ね同一方向を向くと共に、フランジ部が軸部回りの異なる回転位置にあるように配置されている。当然のことながら、実際にはこれら複数の物品A06a〜A06hはバラ積みされていて、互いに異なる位置姿勢を有していてもよい。また、物品A06が他の形状であってもよい。
そして、それぞれの物品A06のそれぞれの表面には複数の黒丸が示されている。図3に示される黒丸のそれぞれは、3次元計測機A04により計測された物品A06の表面における3次元点の位置情報を意味する計測データB30である。図2に示されるモデル生成部B10は、後述するように計測データB30を用いて物品の3次元モデルB40を生成する。
図3から分かるように、一つの物品、例えば物品A06aの上方を向いている面に対して計測データB30が取得される。別の姿勢の物品、例えば物品A06bでも上方を向いている面に対して、計測データB30が取得されるが、それには物品A06aでは死角となっている面の情報が含まれている。従って、複数の物品A06a〜A06hを同時に計測することで取得される計測データB30には、一つの物品を様々な仮想的な計測位置から計測することで得られる情報が含まれているとみなすことができる。
ここで、仮想的な計測位置について、図4を用いてもう少し詳しく説明する。図4においては仮想的な計測位置C06a〜C06hが示されている。これら仮想的な計測位置C06a〜C06hは、図3に示される物品A06a〜A06hと計測位置の相対的な位置関係に基づいて、基準となる座標系を一つの物品A06上に設けたときに算出される仮想的な計測位置のそれぞれに対応する。
本発明においては、図3に示される物品A06a〜A06hの計測データB30は、一つの物品A06を図4に示される複数の仮想的な計測位置C06a〜C06hから計測したときに得られる計測データ(以後、モデル計測データB13とする)の集合とみなしている。
再び図2を参照すると、モデル計測データ抽出部B11は、計測データB30から、一つの仮想的な計測位置C06から計測されたモデル計測データB13を後述するように抽出する。さらに、モデル計測データ統合部B12がモデル計測データB13を複数の仮想的な計測位置に基づいて統合することにより、物品の3次元モデルB40が生成される。
図5はハンドリングロボット装置の動作を示すフローチャートである。以下、図5を参照して、図1に示されるハンドリングロボット装置A00で実行される処理を説明する。ハンドリングロボット装置A00の立ち上げ時には、図5の左方に示されるように、3次元計測機A04を用いて3次元モデルB40の生成を行う。
図5のステップS101においては、3次元計測機A04の計測範囲に、複数の物品A06を前述したようにバラ積みする。このとき、複数の物品A06が様々な姿勢になるようにするのが好ましい。このような場合には、一つの物品A06を様々な計測位置から計測するのと同様であると判断できるので、信頼性の高い3次元モデルの生成が可能になる。複数の物品A06をバラ積みした後で、ステップS102に進む。
ステップS102においては、バラ積みされた複数の物品A06の表面を3次元計測機A04により計測する。3次元計測機A04により取得された計測データB30(図3を参照されたい)は3次元認識装置A05内に保持される。計測データB30の取得が完了すると、ステップS103に進む。
ステップS103においては、描画部C11が、計測データB30を教示画面C17に出力する。この場合、図3に示されるように、3次元計測機A04または他の撮像部により撮像された複数の物品A06a〜A06hの画像に、計測データB30を重ねて表示するのが好ましい。
そして、操作者は、領域設定部C12を用いて複数のA06a〜A06hから一つの物品を囲む領域を設定する。図3には、領域設定部C12により設定された物品A06aを囲む領域が示されている。
そして、仮モデル生成部C13は、設定された物品A06aの領域内の計測データB30に基づいて仮モデルD01を生成する。図6Aにおいては、物品A06aに対応した仮想的な計測位置C06aから計測されたモデル計測データB13にて仮モデルD01を生成したものとする。なお、図6A〜図6Dに示される黒丸はモデル計測データB13であり、図6A〜図6Dのそれぞれにおける黒丸の集合が仮モデルD01である。
ここで、仮モデルD01を教示する方法は問わない。例えば、カメラ画像上に3次元点を投影した点をプロットし、領域指定やマスク教示などで有効な3次元点を教示してもよい。仮モデルD01の教示が完了すると、ステップS104に進む。
ステップS104においては、検出部C14は、仮モデルD01と、ステップS103で使用されなかった計測データB30とを照合して、残りの物品A06、特に残りの物品の位置姿勢を検出する。例えば図6Bに示されるように、検出部C14は仮想的な計測位置C06aに近い仮想的な計測位置、例えば計測位置C06b、C06hに対応する物品の位置姿勢を順に検出する。
そして、ステップS105において検出部C14が検出に成功した場合にはステップS106に進む。ステップS106においては、検出結果を基に、検出結果に対応する仮想的な計測位置C06から計測されたモデル計測データB13を抽出する。具体的には、まず、その時点における仮モデルD01を、検出によって算出される物品の位置姿勢に基づいて座標変換する。
座標変換された仮モデルD01のいずれかの3次元点に近い計測データB30内の3次元点が存在した場合、その3次元点を新たなモデル計測データB13として抽出する。具体的には、仮モデルD01内のそれぞれの3次元点と計測データB30内のそれぞれの3次元点との間の距離を算出する。そして、算出された距離が所定の閾値より小さい場合には、その計測データB30内の3次元点をモデル計測データとして抽出する。
ところで、ステップS104における検出に誤検出があり、その誤検出結果を用いて3次元モデルを生成した場合には、最終的な3次元モデルが誤って生成されることになる。このため、操作者は検出結果が正しいことを確認し、正しくない結果については、検出成否指示部C15によって使用しないようにする。そして、正しいことが保証された検出結果のみを用いて、ステップS106、S107の処理を行うのが好ましい。これにより、誤った検出結果を排除できるので、3次元モデルに誤ったモデル計測データB13が追加されるのを防ぐことができる。なお、モデル計測データB13の抽出が完了したら、ステップS107に進む。
ステップS107においては、抽出されたモデル計測データB13を仮モデルD01に統合する。この点に関し、新たに抽出されたモデル計測データB13と仮モデルD01には重複部がする。このため、新たに抽出されたモデル計測データB13全てを毎回統合してしまうと、最終的な3次元モデルのデータが冗長で非常に重くなってしまう。
このため、3次元モデルを生成する際には、情報の過不足がないように統合するのが望ましい。このようなことを達成するために、以下の二つの方法がある。
第一の方法においては、新たに抽出されたモデル計測データB13の3次元点近傍に、既に仮モデルD01の3次元点が存在する場合、新たに抽出されたモデル計測データB13からその3次元点を除去して仮モデルに統合しないようにする。
第二の方法においては、新たに抽出されたモデル計測データB13の3次元点近傍に既に仮モデルD01の3次元点が存在する場合、新たに抽出されたモデル計測データB13の3次元点および仮モデルD01の3次元点から新たな3次元点を一つ算出する。例えば、新たな3次元点は、新たに抽出されたモデル計測データB13の3次元点および仮モデルD01の3次元点の重心であっても良い。この場合には、計測誤差を緩和したモデルを生成することが可能になる。
図7は誤ったモデル計測データを除去することを説明するための図である。図7においては一つの物品に対して三つの3次元点B30a〜B30cが計測データB30として取得されている。そして、一般的な三角パッチ生成手法により三つの3次元点B30a〜B30cが三角パッチをなす場合には、3次元計測機A04と3次元点B30a〜B30cの4点から形成される四角錐内には、物体が何も存在しないことが期待できる。このため、モデル計測データB13aがその四角錐内に存在する場合、そのモデル計測データB13aは不正なモデル計測データB13であるとして不正モデル計測データ除去部C16により除去することができる。
従って、誤った3次元点がモデル計測データB13として抽出されてしまった場合でも、計測データB30との整合性を確認することで、誤ったモデル計測データB13を除去することが可能である。このため、本発明では、正しい3次元モデルを生成することができる。
なお、予めモデル計測データが存在しない領域をカメラ画像やボクセル表示された教示画面上で教示する方法も有効である。モデル計測データの統合が完了したら、ステップS104に戻る。そして、更新された仮モデルD01を使用してステップS104〜S107の処理を繰返す。
ここで、図6Aに示される仮モデルD01を初期登録した仮想的な計測位置C06aから遠い計測位置、例えば図4に示される仮想的な計測位置C06eから計測されるモデル計測データを、初期の仮モデルD01を用いて検出することは不可能であるか、またはその検出精度が低い。
このため、図6Bに示されるように、仮想的な計測位置C06aに近い仮想的な計測位置、例えば計測位置C06b、C06hから計測される物品を順に検出する。このような操作を繰返すことにより、図6Bから図6Cより分かるように、仮モデルD01は次第に拡張される。そして、図6Dに示すように、最終的には仮想的な計測位置C06eから計測した物品を検出し、そのモデル計測データをステップS107で統合する。これにより、全ての仮想的な計測位置C06a〜C06hのモデル計測データB13が反映された仮モデルD01を作成することができる。
言い換えれば、本発明においては、精度よく安定して検出できる物品から順番に検出して仮モデルD01を拡張している。これにより、初期の仮モデルにはモデル計測データB13が全く存在しない物品の面に対しても、最終的にモデル計測データB13の抽出および統合が可能になる。
そして、ステップS105において検出に失敗した場合には、残りの物品A06は存在しないので、ステップS108に進む。ステップS108においては、統合が終わった仮モデルD01の最適化を行い、3次元モデルB40を生成する。
これまで説明した処理において、3次元モデルの生成に使用している推定パラメータは仮想的な計測位置C06(姿勢情報も含む)および仮モデルD01に属する各3次元点の位置である。ステップS108においては、これら全てのパラメータを推定対象とし、マッチング誤差の合計(最小二乗誤差)が最小となる解を求めることで、より高精度な3次元モデルを生成することが可能になる。
例えば、一般的にバンドルアジャストメントとして知られる最適化手法を適用することができる。バンドルアジャストメントでは非線形最適化を数値解析によって行うが、その際の初期値は、事前の検出で把握している仮想的な計測位置C06および仮モデルD01に属する3次元点を用いれば良い。このように、モデル計測データB13の仮モデルD01への統合処理が完了した後に、仮想的な計測位置及び仮モデルD01属する各3次元点の位置の最適化処理を行うことで、より精度の高い3次元モデルB40を生成することが可能になる。
このようにして、本発明においては、CADデータが存在しない物品A06に対しても、物品の位置姿勢算出などに使用される3次元モデルを生成することができる。本発明において3次元計測機A04を用いて物品A06の3次元モデルを生成する際に、任意の姿勢でそれぞれ配置された複数の物品の計測データを、一つの物品を複数の仮想的な計測位置から計測したモデル計測データの集合とみなしている。このため、本発明においては、3次元計測機A04を用いた一回の計測により3次元モデルを生成することが可能になる。
しかしながら、別の実施形態においては、3次元計測を複数回行うようにしてもよい。3次元計測を再度行う場合には、ステップS105で検出に失敗した後に、ステップS108に進むことなしに、ステップS101に戻り、物品の再配置を行い、その後の処理を繰返せばよい。
例えば、3次元計測機A04の計測範囲に少数、例えば二つの物品A06のみしか配置できない場合には、様々な仮想的な計測位置から計測したのと同様な3次元モデルを一度の3次元計測で生成することは困難である。しかしながら、二つの物品を再配置した上で計測を行うことを複数回繰返した場合には、様々な計測位置から計測することで取得できる3次元モデルを同様に生成することが可能になる。このような場合であっても、一つの物品を少しずつ姿勢変化させながら計測するよりも短時間で3次元モデルを生成することができる。
ここで、3次元モデルが未知である物品が複数計測されている計測データから、計算によりモデル計測データB13を抽出するのは困難である。また、操作者が、全てのモデル計測データの抽出を教示する場合には、操作者の負担が大きすぎる。このため、本発明では、前述したように、仮モデルD01を教示し、その仮モデルD01を使用して残りの物品の位置姿勢を検出し、その検出結果を基にモデル計測データB13を抽出して仮モデルD01に統合している。このため、操作者の負担を大きくすることなく、3次元モデルを生成することが可能である。
ところで、図5の右方に示される物品の搬送処理は、例えば図示しない操作スイッチを操作して物品A06のハンドリング開始指令が入力されることにより、開始される。図5のステップS201においては、3次元空間上に配置された複数の物品A06の3次元計測を行う。この処理は、ステップS102の処理と実質的に同様である。
次いで、ステップS202に進んで、3次元空間上に配置された複数の物品A06から一つの物品A06の検出を行う。この処理は、ステップS104の処理と実質的に同様である。一つの物品A06の検出が終了したら、ステップS203に進む。
そして、物品位置姿勢算出部B20は、モデル生成部B10によって予め生成された3次元モデルB40と、前述したように別途計測された物品A06の計測データB30との照合を行い、物品A06の位置姿勢B50を算出する。
3次元モデルと計測データとを照合して、物品A06の位置姿勢を算出する方法は、どのような方法であってもよい。例えば、3次元モデルのモデル点からPPF(Point Pair Feature)特徴量やSHOT(Sigunature of Histogram of Orientation)特徴量のような3次元特徴を計算する。計測データについても同様に3次元特徴を計算する。そして、計測データから同じ特徴量を持つ3次元点を探索し、そこから位置姿勢を算出してもよい。
あるいは、予め決められた探索位置範囲や探索姿勢範囲内で3次元モデルを構成する3次元点を座標変換し、計測データの3次元点との差分を求める。そして、差分が所定値以下の3次元点があれば、そのような3次元モデルの3次元点は一致したとカウントする。そして、この処理を3次元モデル内で計測できていることが期待できる3次元点で行い、一致数が所定数以上となると、そのときの位置姿勢を算出結果として出力してもよい。
本発明では、CADデータを使用する位置姿勢算出装置と比較して、実際に計測を行う3次元計測機A04を使用して3次元モデルを作成している。このため、3次元モデルと位置姿勢算出時の計測データの間に齟齬が生じにくいという利点がある。
次いで、ステップS203においては、ロボットA01を制御して、それにより、ステップS202で検出された物品A06の位置姿勢に対応した位置に、ロボットA01のハンドA03を移動させる。そして、ハンドA03により物品A06を把持させ、ロボットA01に所定のハンドリング動作を行わせる。物品A06のハンドリング処理が完了すると、物品搬送作業を終了する。
このように、本発明では、CADデータの存在しない物品に対しても、3次元空間上に配置された物品A06の位置姿勢を算出し、算出結果に基づいて物品A06を正確にハンドリングすることができる。また、物品A06の3次元計測を行うことで物品A06の3次元モデルを生成しているので、3次元モデル生成時の教示の手間を大幅に減らすことができる。
あるいは、ステップS203においては、基準となる物品の位置姿勢である基準物品位置姿勢に対する基準ロボット位置姿勢を予めロボット制御装置A02に記憶する。次いで、ステップS202で認識した物品A06の位置姿勢に対して、基準物品位置姿勢と基準ロボット位置姿勢との間の相対的な位置関係に一致するようなロボット位置姿勢を求める。そして、そのようなロボット位置姿勢にハンドA03を移動させるようにロボットA01を制御してもよい。
本実施形態では、検出した一つの物品A06を把持して搬送することによりシステムを終了している。しかしながら、一度の検出で複数の物品A06の位置姿勢を算出し、検出された複数の物品A06を連続して把持および搬送するようにしてもよい。あるいは、3次元空間上に配置された複数の物品の全てを順次搬送するようにしてもよい。なお、物品のハンドリング時には、特開2002−331480号公報に記載されるように、ハンドA03が物品A06が収納される箱に干渉するのを回避してもよい。
典型的な実施形態を用いて本発明を説明したが、当業者であれば、本発明の範囲から逸脱することなしに、前述した変更および種々の他の変更、省略、追加を行うことができるのを理解できるであろう。
A00 ハンドリングロボット装置
A01 ロボット
A02 ロボット制御装置
A03 ハンド
A04 3次元計測機
A05 3次元認識装置
A06、A06a〜A06h 物品
A07 架台
B00 モデル生成装置
B10 モデル生成部
B11 モデル計測データ抽出部
B12 モデル計測データ統合部
B13、B13a モデル計測データ
B20 物品位置姿勢算出部(位置姿勢算出部)
B30a〜B30c 3次元点(計測データ)
B40 3次元モデル
B50 物品の位置姿勢
C06、C06a〜C06h 仮想的な計測位置
C11 描画部
C12 領域設定部
C13 仮モデル生成部
C14 検出部
C15 検出成否指示部
C16 不正モデル計測データ除去部
D01 仮モデル

Claims (12)

  1. 物品の3次元モデルを生成するモデル生成装置(B00)であって、
    3次元空間上に任意の姿勢でそれぞれ配置された複数の物品を3次元計測し、計測データを取得する3次元計測機(A04)と、
    該3次元計測機により計測された前記複数の物品の計測データを、一つの物品を複数の仮想的な計測位置から計測したモデル計測データの集合とみなし、前記複数の仮想的な計測位置のそれぞれについて、対応するモデル計測データを抽出するモデル計測データ抽出部(B11)と、
    該モデル計測データ抽出部により抽出したモデル計測データを統合することにより前記物品の3次元モデルを生成するモデル計測データ統合部(B12)と、を備えることを特徴とするモデル生成装置。
  2. 請求項1に記載のモデル生成装置であって、
    前記モデル計測データ抽出部は、
    前記計測データを教示画面に出力する描画部(C11)と、
    複数の物品から選択された一つの物品の領域を、前記計測データが出力された前記教示画面上で設定する領域設定部(C12)と、
    該領域設定部によって設定された前記領域内に存在する計測データを基に、仮モデルを生成する仮モデル生成部(C13)と、
    前記仮モデルを用いて前記複数の物品の残りの物品の位置姿勢を検出する検出部(C14)と、を備え、
    前記モデル計測データ抽出部は前記検出部によって検出された前記残りの物品の位置姿勢を基にモデル計測データを抽出し、
    前記モデル計測データ統合部は前記モデル計測データを前記仮モデルに統合することで3次元モデルを生成することを特徴とするモデル生成装置。
  3. 請求項2に記載のモデル生成装置であって、
    前記検出部は、前記仮モデルの初期姿勢に近い姿勢の物品から順番に検出し、
    前記モデル計測データ抽出部は、前記検出部の検出結果に基づき、前記仮モデルの初期姿勢に近い順にモデル計測データを抽出し、
    前記モデル計測データ統合部は、前記モデル計測データが抽出される毎に、逐次的にモデル計測データを前記仮モデルに統合することを特徴とするモデル生成装置。
  4. 請求項2または請求項3に記載のモデル生成装置であって、前記モデル計測データ抽出部が、前記検出部の検出結果の成否を操作者が指示するための検出成否指示部(C15)を備えることを特徴とするモデル生成装置。
  5. 請求項2から4のいずれか一項に記載のモデル生成装置であって、前記モデル計測データ抽出部は、前記検出部によって検出された物品の位置姿勢の近傍に存在する前記計測データを基に前記モデル計測データを抽出することを特徴とするモデル生成装置。
  6. 請求項2から5のいずれか一項に記載のモデル生成装置であって、
    前記モデル計測データ抽出部が誤った計測データをモデル計測データとして不正に抽出すると共に前記モデル計測データ統合部が不正に抽出された不正モデル計測データを前記仮モデルに統合した場合であっても、前記モデル計測データ統合部が、前記計測データと前記仮モデルとの整合性を基に、前記仮モデルから前記不正モデル計測データを抽出して除去する不正モデル計測データ除去部(C16)を備えることを特徴とするモデル生成装置。
  7. 請求項2から6のいずれか一項に記載のモデル生成装置であって、
    前記モデル計測データ統合部が、前記モデル計測データを前記仮モデルに統合する際に、前記モデル計測データと前記仮モデルの間に重複部が存在する場合には、前記モデル計測データから該重複部を除去した後で、前記モデル計測データを前記仮モデルに統合することを特徴とするモデル生成装置。
  8. 請求項2から6のいずれか一項に記載のモデル生成装置であって、
    前記モデル計測データ統合部が、前記モデル計測データを前記仮モデルに統合する際に、前記モデル計測データと前記仮モデルの間に重複部が存在する場合には、前記モデル計測データの該重複部を基に仮モデルの該重複部を更新することを特徴とするモデル生成装置。
  9. 請求項2から8のいずれか一項に記載のモデル生成装置であって、前記モデル計測データ統合部が、前記検出部によって検出された物品の位置姿勢から算出される前記仮想計測位置及びモデル計測データの少なくとも一方をパラメータとする最適化を行い、生成されるべきモデルの高精度化を行うことを特徴とするモデル生成装置。
  10. 請求項1から9のいずれか一項に記載のモデル生成装置であって、
    前記3次元計測機が、3次元空間上に配置された複数の物品を3次元計測した後に、物品の積載状態を変更し、前記複数の物品の新たな3次元計測を行うことを一回以上繰返し、前記モデル計測データ抽出部及び前記モデル計測データ統合部が、複数回の3次元計測により得られた複数の計測データを基に前記物品の3次元モデルを生成することを特徴とするモデル生成装置。
  11. 請求項1から10のいずれか一項に記載のモデル生成装置と、
    前記モデル生成装置によって生成された3次元モデルと前記3次元計測機で取得された計測データとの対応付けに基づいて、前記物品の位置姿勢を算出する位置姿勢算出部(B20)と、
    を備えることを特徴とする位置姿勢算出装置。
  12. 前記物品をハンドリング可能なロボット(A01)と、
    請求項1から10のいずれか一項に記載のモデル生成装置と、
    前記モデル生成装置によって生成された3次元モデルと前記3次元計測機で取得された計測データとの対応付けに基づいて、前記物品の位置姿勢を算出する位置姿勢算出部(B20)とを備え、
    前記位置姿勢算出部によって算出された前記物品の位置姿勢に基づいて、前記ロボットが前記物品をハンドリングすることを特徴とするハンドリングロボット装置(A00)。
JP2015246029A 2015-12-17 2015-12-17 モデル生成装置、位置姿勢算出装置、およびハンドリングロボット装置 Active JP6298035B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2015246029A JP6298035B2 (ja) 2015-12-17 2015-12-17 モデル生成装置、位置姿勢算出装置、およびハンドリングロボット装置
CN201610974594.5A CN106891333B (zh) 2015-12-17 2016-11-04 模型生成装置、位置姿态计算装置以及搬运机器人装置
DE102016014658.3A DE102016014658B8 (de) 2015-12-17 2016-12-09 Modellerzeugungsvorrichtung, Positions- und Orientierungsberechnungsvorrichtung und Handling Robotervorrichtung
US15/381,671 US10496762B2 (en) 2015-12-17 2016-12-16 Model generating device, position and orientation calculating device, and handling robot device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015246029A JP6298035B2 (ja) 2015-12-17 2015-12-17 モデル生成装置、位置姿勢算出装置、およびハンドリングロボット装置

Publications (2)

Publication Number Publication Date
JP2017111019A JP2017111019A (ja) 2017-06-22
JP6298035B2 true JP6298035B2 (ja) 2018-03-20

Family

ID=59010597

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015246029A Active JP6298035B2 (ja) 2015-12-17 2015-12-17 モデル生成装置、位置姿勢算出装置、およびハンドリングロボット装置

Country Status (4)

Country Link
US (1) US10496762B2 (ja)
JP (1) JP6298035B2 (ja)
CN (1) CN106891333B (ja)
DE (1) DE102016014658B8 (ja)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6438512B2 (ja) * 2017-03-13 2018-12-12 ファナック株式会社 機械学習により補正した計測データでワークの取り出しを行うロボットシステム、計測データ処理装置および計測データ処理方法
JP6598814B2 (ja) * 2017-04-05 2019-10-30 キヤノン株式会社 情報処理装置、情報処理方法、プログラム、システム、および物品製造方法
JP6695843B2 (ja) * 2017-09-25 2020-05-20 ファナック株式会社 装置、及びロボットシステム
JP6880457B2 (ja) * 2017-11-14 2021-06-02 オムロン株式会社 把持方法、把持システム及びプログラム
JP7000213B2 (ja) * 2018-03-19 2022-01-19 株式会社東芝 保持装置、搬送システム、コントローラ、および保持方法
JP6888580B2 (ja) * 2018-04-05 2021-06-16 オムロン株式会社 情報処理装置、情報処理方法、及びプログラム
US10369701B1 (en) 2018-10-30 2019-08-06 Mujin, Inc. Automated package registration systems, devices, and methods
KR102650494B1 (ko) 2018-10-30 2024-03-22 무진 아이엔씨 자동화된 패키지 등록 시스템, 디바이스 및 방법
JP7167668B2 (ja) * 2018-11-30 2022-11-09 コニカミノルタ株式会社 学習方法、学習装置、プログラムおよび記録媒体
CN109702750B (zh) * 2019-02-27 2020-12-01 浙江师范大学 一种龙门架式智能机加工机器人及智能机加工方法
CN110424754B (zh) * 2019-07-20 2022-01-11 深圳中物智建科技有限公司 一种砌墙机器人对接方法及***
WO2021053750A1 (ja) * 2019-09-18 2021-03-25 株式会社Fuji 作業ロボットおよび作業システム
CN110992468B (zh) * 2019-11-28 2020-10-30 贝壳找房(北京)科技有限公司 基于点云数据的建模方法、装置以及设备、存储介质
CN111331367B (zh) * 2020-04-15 2021-08-20 上海工程技术大学 智能装配控制***
CN112257536B (zh) * 2020-10-15 2022-05-20 天目爱视(北京)科技有限公司 一种空间与物体三维信息采集匹配设备及方法
DE102020135010B4 (de) 2020-12-29 2024-05-08 Franka Emika Gmbh Massedaten-Schätzung einer externen Last für einen Robotermanipulator
DE102020135011B3 (de) 2020-12-29 2022-03-03 Franka Emika Gmbh Bilderkennung zum angepassten Ausführen eines Steuerprogramms eines Robotermanipulators
CN113959352B (zh) * 2021-10-19 2022-09-09 上海交通大学 一种柔性点位方向标识***及方法
CN116862816B (zh) * 2023-07-28 2024-01-26 杭州雅智医疗技术有限公司 一种基于三维形态学的模型膨胀方法、装置及应用

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020000621A1 (en) * 1997-12-30 2002-01-03 Robert H. Havemann Enhancements to polysilicon gate
DE19852149C2 (de) * 1998-11-04 2000-12-07 Fraunhofer Ges Forschung Vorrichtung zur Bestimmung der räumlichen Koordinaten von Gegenständen
US6721444B1 (en) * 1999-03-19 2004-04-13 Matsushita Electric Works, Ltd. 3-dimensional object recognition method and bin-picking system using the method
US7027642B2 (en) * 2000-04-28 2006-04-11 Orametrix, Inc. Methods for registration of three-dimensional frames to create three-dimensional virtual models of objects
GB0011060D0 (en) 2000-05-08 2000-06-28 Cancer Res Campaign Tech Improvements relating to gene directed enzyme prodrug therapy
JP3782679B2 (ja) 2001-05-09 2006-06-07 ファナック株式会社 干渉回避装置
JP2003302211A (ja) * 2002-04-11 2003-10-24 Canon Inc 3次元画像処理装置及び方法
US6822748B2 (en) * 2002-10-29 2004-11-23 Metron Systems, Inc. Calibration for 3D measurement system
JP2005189203A (ja) * 2003-12-26 2005-07-14 Fuji Xerox Co Ltd 全周囲3dモデル作成方法および装置
JP4981336B2 (ja) * 2006-03-08 2012-07-18 オリンパスメディカルシステムズ株式会社 医療用画像処理装置及び医療用画像処理方法
DE102008023264B4 (de) * 2008-05-13 2017-01-05 Smart Optics Sensortechnik Gmbh Verfahren zur flexiblen Erfassung der geometrischen Form von Objekten mit optischer 3D-Messtechnik
JP5094663B2 (ja) 2008-09-24 2012-12-12 キヤノン株式会社 位置姿勢推定用モデル生成装置、位置姿勢算出装置、画像処理装置及びそれらの方法
US8433128B2 (en) * 2008-11-04 2013-04-30 Omron Corporation Method of creating three-dimensional model and object recognizing device
JP2010113398A (ja) * 2008-11-04 2010-05-20 Omron Corp 3次元モデルの作成方法および物体認識装置
JP5663464B2 (ja) * 2011-12-22 2015-02-04 日本電信電話株式会社 3次元形状計測システム
WO2014178050A2 (en) * 2013-04-30 2014-11-06 Mantisvision Ltd. 3d registration of a plurality of 3d models
JP5582267B1 (ja) * 2014-01-17 2014-09-03 株式会社東光高岳 連続走査型計測装置
CN103873751A (zh) * 2014-03-28 2014-06-18 陈维龙 一种三维全景扫描装置及三维模型生成方法
JP2015229234A (ja) * 2014-06-06 2015-12-21 ナブテスコ株式会社 作業ロボットの教示データ生成装置及び教示データ生成方法

Also Published As

Publication number Publication date
DE102016014658A1 (de) 2017-06-29
US20170177746A1 (en) 2017-06-22
DE102016014658B8 (de) 2020-06-25
JP2017111019A (ja) 2017-06-22
DE102016014658B4 (de) 2020-04-16
US10496762B2 (en) 2019-12-03
CN106891333A (zh) 2017-06-27
CN106891333B (zh) 2019-05-10

Similar Documents

Publication Publication Date Title
JP6298035B2 (ja) モデル生成装置、位置姿勢算出装置、およびハンドリングロボット装置
JP6632208B2 (ja) 情報処理装置、情報処理方法、プログラム
JP6978330B2 (ja) オブジェクト形状および設計からのずれの監視
JP6426968B2 (ja) 情報処理装置およびその方法
US10684116B2 (en) Position and orientation measuring apparatus, information processing apparatus and information processing method
CN112839764B (zh) 用于焊接路径生成的***和方法
JP5897624B2 (ja) ワークの取出工程をシミュレーションするロボットシミュレーション装置
US9467682B2 (en) Information processing apparatus and method
JP5458885B2 (ja) 物体検出方法と物体検出装置およびロボットシステム
JP6092530B2 (ja) 画像処理装置、画像処理方法
US11654571B2 (en) Three-dimensional data generation device and robot control system
JP6506279B2 (ja) 地図生成システム及び地図生成方法
JP2011185650A (ja) モデル作成装置およびモデル作成プログラム
JP2009053147A (ja) 3次元計測方法および3次元計測装置
WO2012008618A1 (en) Position/orientation measurement apparatus, measurement processing method thereof, and non-transitory computer-readable storage medium
JP2017102529A (ja) ワーク位置姿勢算出装置およびハンドリングシステム
KR101510206B1 (ko) 항공 하이퍼스펙트럴 영상을 이용한 수치지도 수정 도화용 도시변화지역의 탐지 방법
JP2018144144A (ja) 画像処理装置、画像処理方法、及びコンピュータプログラム
JP2017033429A (ja) 3次元物体検査装置
JP5093591B2 (ja) 三次元位置姿勢計測方法および装置
Wojciechowski et al. Optical scanner assisted robotic assembly
JP7439410B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP2012220271A (ja) 姿勢認識装置、姿勢認識方法、プログラム及び記録媒体
JP5030183B2 (ja) 3次元物***置姿勢計測方法
JP6282157B2 (ja) 形状認識装置

Legal Events

Date Code Title Description
A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20171204

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171214

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20180124

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180130

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180222

R150 Certificate of patent or registration of utility model

Ref document number: 6298035

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150