JP2005106825A - 受像装置の位置および方向づけの決定方法および装置 - Google Patents

受像装置の位置および方向づけの決定方法および装置 Download PDF

Info

Publication number
JP2005106825A
JP2005106825A JP2004286914A JP2004286914A JP2005106825A JP 2005106825 A JP2005106825 A JP 2005106825A JP 2004286914 A JP2004286914 A JP 2004286914A JP 2004286914 A JP2004286914 A JP 2004286914A JP 2005106825 A JP2005106825 A JP 2005106825A
Authority
JP
Japan
Prior art keywords
automatic processing
robot
camera
processing device
image receiving
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004286914A
Other languages
English (en)
Inventor
Arif Kazi
アーリフ・カーツィ
Rainer Bischoff
ライナー・ビショフ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KUKA Deutschland GmbH
Original Assignee
KUKA Roboter GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KUKA Roboter GmbH filed Critical KUKA Roboter GmbH
Publication of JP2005106825A publication Critical patent/JP2005106825A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/36Nc in input of data, input key till input tape
    • G05B2219/36167Use camera of handheld device, pda, pendant, head mounted display
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39045Camera on end effector detects reference pattern
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39046Compare image of plate on robot with reference, move till coincidence, camera
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39057Hand eye calibration, eye, camera on hand, end effector
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39114Hand eye cooperation, active camera on first arm follows movement of second arm
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39449Pendant, pda displaying camera images overlayed with graphics, augmented reality
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39451Augmented reality for robot programming
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)

Abstract

【課題】 受像装置の位置および方向づけの全体としての姿勢の決定のための方法および装置を提供する。
【解決手段】 本発明に係る方法は、受像装置の姿勢が少なくとも1つのロボット固有の測定装置を使用して決定されることを特徴とする。本発明に係る装置は、受像装置の姿勢の決定のための、内蔵式であってロボット固有の測定装置を備えたロボットを特徴とする。本発明に係る装置の一態様である多軸産業ロボット1は、ロボットアーム3の前端部のハンド領域2に、ツール4を備える。ツール4は、画像検出装置5を備える。
【選択図】 図1

Description

本発明は、受像装置の位置および方向づけの全体としての姿勢を決定するための方法および装置に関する。本発明は、特に、これがいわゆる「拡大現実性」または「拡大された現実性」(Augmented Reality、以下AR)において該当するように、コンピュータ生成情報、またはしかし独立に収録および貯蔵された情報のような仮想情報が同時にフェードインされる現実の環境の画像を収録する受像装置の位置および方向づけの決定のための方法および装置に関する。
位置および方向づけは、本発明の枠内で好ましくは規格EN ISO8373に記載されているような自動処理装置およびロボットにおいて、以下姿勢と表わす。拡大された現実性は、たとえば労働力を複雑な組立または保守過程で教示することに使用される。さらに、ロボットプログラミングは、拡大された現実性によって支援することができる(たとえば、ドイツ特願第10305384.0号(特許文献1)参照)。
特に最後に挙げた使用において、空間的位置自体が重要な情報を含むので、ロボットレール、基準座標系、仮想のまたは事前に別の場所で受け入れた環境、仮想工作物等々のような仮想物体または情報の空間的に精密なフェードインによる拡大された現実性の作成が多大な重要性をもっている。
そのため対応する撮像装置の位置および方向づけ(姿勢)の連続的な正確な決定がトラッキングの枠内で必要である。撮像装置は、この場合、仮想情報がフェードインされる、半透明ミラーまたは観察者の眼鏡のような、カメラまたはさらに光学的収録装置としてよい。
ドイツ特願第10305384.0号
今日、カメラまたは接続された画像処理システムによって検出かつ認識できるマークは、カメラの姿勢の決定のために、現実の環境の中で空間的に正確に規定された位置にしばしば持ち込まれる。空間内のカメラの姿勢は、既知の位置からカメラ画像を介して推定される。もちろん達成できる姿勢の検出精度は、カメラの光学的品質、カメラの補正品質、マークの位置決定精度もしくは世界内の既知の場所への当該マークの精密な実装および画像処理品質によって制限される。実際の製造環境において、十分な数の光学式マークを取り付け、ロボットプログラミングの開始前に手動で測定することは非常に費用がかかる。
ロボット環境の1つのモデルが存在するとき、特別の場合において、受像装置、カメラの場所の決定、いわゆるトラッキングがカメラ画像によって認識された周囲の特徴および周囲のモデルに寄託された特徴の比較を介して行われるので、マークの実装を省いてよい。一方で、この種の方式は、これまで少なくとも実用的な型式で実現されておらず、他方、高い精度も達成できないとみられている。
さらに、せいぜい知られているのは、受像装置の姿勢の決定を機械式、光学式、音響式、磁気式、慣性および/またはレーザーベースのセンサを備えた付加的なセンサシステムを介して行うことである。このような方式は、高いコストと結びついている。さらにフィラメント測定システムのような機械式センサシステムの場合、観察者の行動範囲が大きく制限されている。光学式または音響式システムの場合、送信機と受信機との間で直接的に
可視接続を付与する必要があり、これは、通常は実際の製造環境において全く保証されていない。さらにプログラミングの開始前に付加的なセンサシステムの時間を要する補正が必要であるが、これは全く実用的ではない。
従って、本発明は、姿勢の決定の高い精度であまりに多大な費用をかけずに実現可能である受像装置の姿勢(位置および方向づけ)の決定のための方法および装置を構成する課題を基礎においている。
本発明により、上記の課題は、受像装置の姿勢が少なくとも1つの自動処理装置固有の測定装置を使用して決定されることを特徴とする冒頭に述べた形式の方法によって解決される。冒頭に述べた形式の装置は、上記の課題の解決のために、受像装置の姿勢の決定用の内蔵型自動処理装置固有の測定装置を備えた自動処理装置を有することを考慮している。
本発明により、リアルタイムで、すなわち少なくともビデオ作動速度でカメラの姿勢をリアルタイムで算出することが可能になり、それによって簡単かつコスト的に有利な、カメラの各姿勢に割り当てた情報、特に自動処理装置内部の情報の可視化が可能になる。
ビデオ・シースルーARシステムによる制御情報のリアルタイムで進行する信頼できる拡大の目的を達成するために、カメラの姿勢をすばやく決定し、観察者に興味のある仮想物体を本来の収録するビデオ画像に重ね合わせる必要がある。カメラ姿勢を連続的に決定するトラッキングは、角度エンコーダと、カメラを取り付けたロボットの前進運動性に関する認識によって達成される。被重畳情報はカメラのロボット制御によって保持するロボット自体、さらにまた「興味のある」情報を用意できる別のコンピュータ(たとえば別の機械またはロボット制御)から到来しうる。別の制御から到来する情報を可視化する際に、制御の原座標系間の空間的関係を認識する必要があり、もしくは全制御がその座標系(たとえばカメラ誘導ロボットの世界座標系)に関する情報を既知として付与することを保証しなければならない。カメラ誘導ロボットをカメラ座標系に変換するために、カメラ座標系とフランジ座標系との間の関係は、たとえば補正によって知られていなければならない。
好ましくは、ロボット固有の、当該ロボットに内蔵された測定装置は、このようなロボットの軸駆動装置の中に角度センサを含む。
好ましい実施形態において、受像装置は、課題の実施のためにプログラミングされた自動処理装置またはロボットのいずれかに、しかも好ましくは、たとえばそのハンドフランジまたは当該ハンドフランジに接続されたツールまたはさらに課題の実施のためにプログラミングされたロボットに付加的に存在する別のロボットに配設できるカメラである。
本発明の好ましい実施形態において、受像装置の姿勢を決定する、少なくとも1つの自動処理装置固有の測定装置によって得られた姿勢データは、それぞれ、各姿勢で受像装置によって収録された画像に割り当てられることを考慮している。そのために、本発明は、装置により受像装置の姿勢を決定する、少なくとも1つの自動処理装置固有の測定装置によって得られた姿勢データを、それぞれ各姿勢で受像装置によって収録した画像に割り当てるための割り当て装置を設けている。
受像装置が基本的に光学式ディスプレイユニットとしてよいのに対し、当該ディスプレイユニットは(ビデオ)カメラである。好ましい継続形成は、仮想情報、特に自動処理装置が特殊の受像装置によって収録された画像を時間および/または位置正確にフェードイ
ンされ、もしくは仮想情報の時間および/または位置正確なフェードインのための装置、特に自動処理装置が受像装置によって収録された特殊の画像を有することを考慮している。
本発明の好ましい継続形成において、カメラが特に課題の実施のためにプログラミングされた自動処理装置に使用され、カメラが課題の実施のためにプログラミングされた自動処理装置に隣接する自動処理装置で使用され、および/または受像装置の姿勢が自動処理装置に接続された測定装置によって決定されることを考慮することができる。一般的に付与される、カメラと、ハンドフランジまたはTCPのような自動処理装置での既知の場所との間のオフセットは、公知の方法で、たとえば測定によって、またはさらに後述する別の方法によって決定することができる。
本発明の別の好ましい実施形態において、空間内の自動処理装置の姿勢は、少なくとも1つの、空間内に配置されたマークならびに少なくとも1つの、ロボットに配置した、カメラまたはセンサのような測定装置によって決定され、または空間内の自動処理装置の姿勢は少なくとも1つの、自動処理装置に配置されたマークならびに少なくとも1つの、自動処理装置から独立して配置された、カメラまたは少なくとも1つのセンサのような測定装置によって決定されることを考慮している。
補正のために、カメラはこのように人工的なマークを様々な姿勢で画像に従って複数の位置で検出することができ、それによって、マークとこれを通る自動処理装置固有の測定装置に対する当該カメラの位置を決定するロボットもしくはより正確にフランジまたはTCP(ツール・センター・ポイント)の位置は、初めにカメラとフランジまたはTCPとの間の未定のオフセットでも、オフセットと最終的に空間内の位置とを決定することができる。そのために、ロボットによって能動的に移動されたカメラは、様々な角度で特定のマークを直視する。各測定姿勢からカメラの位置、より正確にはカメラ座標系の位置を空間内で決定することができる。上記時点に対するロボットフランジの位置の認識と、複数の測定にわたる平均とを介して、このようにカメラとフランジ座標系との間の関係(オフセット)を算出することができる。
本発明の好ましい実施形態に従って、自動処理装置の姿勢は自動処理装置に配置された別のマークおよび別の自動処理装置に配置された、カメラまたはセンサのような測定装置と相対的に決定されることを考慮している。本発明により、カメラおよび当該カメラを担持する、ロボット内蔵型測定装置ならびにARシステム構成要素を備えたロボットは、1つの単位を形成する。第2ロボットは、作業セルの一部とみなすことができ、その実際の所与性は、上記作業セルからの情報で、たとえば第2ロボットにプログラミングされたレールが拡大されるべきである。そのために第1ロボットは、当該第1ロボットがどこで第2ロボットと関係するかを知る必要がある。この関係は、補正によって行うことができる。実施された補正後に、第1ロボットに対し簡単に、第2ロボットのロボット制御からのデータをそのカメラの画像座標に変換し、収録した画像に拡大される。
上記の被拡大データは、第2ロボットの制御によって提供される。上記第2ロボットの代わりにまたはそれに付加的に工作機械を作業セルにおくことができる。また、工作機械は、制御を提供し、制御情報を有益に可視化し、たとえば機械制御の座標系、試験走行の枠内で、仮想的な被加工物体、仮想ツール、工作機械の内部空間の実際の工作物が重ね合わされる多くの可能性を構想することができる。
カメラを誘導する第2ロボットは、一般的に多くの別の制御装置、たとえばロボット制御装置およびその他の、その情報が可視化されるべきである機械制御装置を作動させることができる別の作業空間を直視することができる。つまりロボット内部情報の拡大現実性
の枠内での可視化と異なり、ここで固有の制御とは別の制御によって生じる情報が可視化される。そのために、制御装置は、リアルタイム可能にネットワーク化されなければならず、それによって情報を現実世界の変化と共にステップを維持してフェードインさせることができる。さらに作業セルのモデル形成が必要であり、これが再び結果的に補正をもたらし、それによって信頼できるものとして拡大させることができる。
ロボットによるカメラ誘導は、能動的または受動的にすることができる。能動的とは、ロボットがプログラムを進行させ(特定の場面について「カメラ出発」)またはセンサ装置(たとえば取り付けたカメラ)を介して自動的に位置決めが行なわれることである。受動的とは、AR情報をその目的に利用したいオペレータが、ロボットが所望の情報を得るように当該ロボットを位置決めすることである。この位置決めはロボットの誘導によって(たとえばロボットに力(トルク)センサを取り付けた、いわゆるマニピュレータモードで所望の運動方向に向かって押される)または携帯式操作装置を介して(たとえば進行ボタンを押してまたは6Dマウスの操作により)行うことができる。
本発明のもう1つの特殊性は、ロボットが一部に能動的な、一部に受動的な役割を受けもつことができることである。利用者がロボットを手で誘導し、または進行ボタンによって移動されるのに対し、ロボットの運動自由度は、任意に、たとえばロボットが全6自由度で可動できる空間または任意の平面、レールまたはその周りにTCPを方向づけできる点だけに制限することができる。このように、ロボットによって任意のカメラ出発を手でプログラミングして、たとえば空間を通る設置したレール上のロボットの手動誘導を実施することができ、方向づけ自由度は自由に付与することができる。
カメラ誘導が第1ロボットもしくは第1ロボットによって処理された作業空間を直視する第2ロボットによって引き受けられる場合、これは仮想物体を位置正確にカメラ画像の中にフェードインできるために、ロボットがカメラを能動的に動かす本発明の特別の特徴である。この場合の特殊性は、両ロボットが同じ座標系に関係し、その制御を介して容易に、可視化に本質的である情報を交換できることである。所望のロボット内部情報のフェードインは、それによって軽減される。ロボットはそのために互いに補正されている。またロボットは、制御装置が互いに接続されている場合、衝突を回避して誘導/移動できるが、これは慣用の純機械式作動型ARトラッキングシステムによっては不可能である。さらに6以上の自由度を有するロボットシステムを使用する場合、衝突および単一性を回避し、(手で誘導するロボットの場合は非常に簡単に行き詰まる)障害物をよけるために、冗長な自由度を使用することができる。カメラを誘導するロボットの制御は、ロボットが手で誘導されている間に当該ロボットがどこでも衝突しないことを自動的に実行する衝突回避アルゴリズムを使用してもよい。これは、利用者は、常に、システムが衝突しないことに配慮する必要があるため、純然たる受動的システムに対する大きな長所である。
カメラは、さらに、利用者によって携行されるビデオ表示装置を有する操作装置に配置してもよい。特に、受像装置が利用者によって携行される場合、仮想データまたは物体がフェードインされる半透明ミラーのような光学式ディスプレイユニットまたは利用者がかける眼鏡であってもよい。
利用者が受像装置を携行する上記の場合において、上記自動処理装置またはロボットの1つと、たとえばカメラとしてもよいか、またはさらに光学式、音響式または機械式センサを有してもよい(別の)測定装置が接続されており、それらを利用して利用者が携行する受像装置の正確な位置がロボットに接続された測定装置と相対的に決定することができ、それによって再び自動処理装置固有の測定装置を援用して利用者が携行する受像装置の空間内の場所を決定することができる。好ましくは、この受像装置は、当該受像装置がまず自動処理装置またはロボットの1つから独立して配置されている場合、特に光学式、さ
らにまた音響式マークのようなマークを備えており、その場合、対応する測定装置が使用される。
本発明のその他の長所および特徴は、請求項と、本発明の実施例を図面を参照して個別的に説明した以下の明細書とから生じる。
以下、図面を参照しつつ、本発明の実施の形態について説明する。以下の説明では、同一の部品には同一の符号を付してある。それらの名称および機能も同じである。したがって、それらについての詳細な説明は繰り返さない。
図1は、自動処理装置もしくはロボットを代表して、ロボットアーム3の前端部のそのハンド領域2にツール4を備えた多軸産業ロボット1を概略的に表わす。図示された実施例において、ツール4にカメラの形態の画像検出装置5が配置されている。さらに、図1は、工作物6ならびに当該工作物6に割り当てられた、ロボットによって出発するプログラミングされたロボットレール7を示している。
受像装置5によって収録された実画像と、仮想情報、特に実像に対する位置正確な割り当てにおける画像情報のフェードインの表示装置を備えた、オペレータまたは利用者に割り当てたディスプレイユニットは図示していない。
表示装置上に位置正確なフェードインによる拡大される物体の表示のために、空間内の画像検出装置5(カメラ)の位置が知られていなければならない。これは、図1に示した装置において、特に軸駆動装置の角度センサのように、内蔵したロボット固有の測定装置によって高い精度で決定することができる。
図1の目的に好適な装置は、図2に示したブロック図によりロボット1を含むプログラミングされた、カメラの形態の上記撮像装置5を備えたロボットシステム11を有する。さらに、一方でARモデル操作13を備えた拡大現実性システム12と、他方でAR画像生成装置14とを設けている。利用者が保持するディスプレイユニット15は、表示装置またはディスプレイ16のほかに操作素子17を有する。
上記の方法で得られたカメラの場所および方向(併せて「姿勢」と呼ぶ)に関する情報は、プログラミングされたロボットシステム11からARシステム12の画像生成要素14に供給され、同様にカメラ画像がカメラ5から供給される。たとえば出発するレールのレール点または座標系の空間位置のような被拡大物体は、ロボット制御のARシステムに提供される。全体として生成されたAR画像(実画像部分と当該実画像部分でフェードインされた拡大情報とを含む)は、利用者のためにディスプレイユニット15のディスプレイ16に表示される。拡大される物体の空間的な操作、つまりたとえば実画像に対してその相対的シフトは、操作素子17を介して可能である。この利用者の入力は、ARシステムのARモデル操作要素13によって検出され、そして処理される。拡大される物体の変化によってその変化に該当する***作情報は、必要に応じてロボット制御に書き込むことができる。
AR場面、たとえばロボット処理プログラムの処理によるロボット・ツール・センター・ポイントの拡大レールを観察するために、利用者は、カメラ5が興味のある画像部分を表示するように、ロボット1を手動で処理することができる。衝突は、レールの自動監視または利用者によっても回避することができる。
レール進行が処理指令の変更によって変更されるような場合(図3のステップA)、利
用者は、ロボットプログラム内部のレール点のような、拡大現実性で可視化される物体を選択する(図3のステップB)。それを受けて、ロボット1は、最初に自動的に選択したレール点のような被可視化物体がスクリーン16の中央に表示されるように、カメラ5の方向づけを変更する。この場合、スクリーン16上の表示が現実性と一致するように、つまりスクリーン上の「上部」でも現実性における「上部」に相当するように、ロボットがカメラ姿勢(位置、方向づけ)を調節するべきである。観察点が利用者に好適ではないとみられる場合(ステップD)、利用者は、拡大される物体を別の観点から観察するために、ロボットを手動で、たとえばステップEによるロボット携帯プログラミング装置15の対応する操作素子17を介して処理し、ロボットは、観察点が利用者に好適とみなされるまで(再びステップD)カメラを物体に向けて保持する(ステップF)。
その際、ロボットは、拡大用に選択した物体がスクリーンの中央に現れるようにカメラを常に方向づけする。利用者は、必要な場合に拡大される物体の空間的位置および方向づけを公知の方法で、たとえばそれ以外は完全に本出願の開示の目的にされているドイツ特願第10305384.0号に従って操作し、その際に常に拡大される物体への視野角を望むように変更することができる。
そのため、観察点のように標点が所望の標点に相当するとき、当該標点が利用者側で操作され(ステップE’)および変化した移動レールが拡大現実性において可視化され(ステップF)、必要な場合には、観察点および標点の操作を交互に行えることによって、上記標点も変更することができる。両者が好適な方法で調節された場合、利用者は、ロボットの対応する処理指令を記憶することができる(ステップE)。その他の処理指令が変更されるべきであるとき、これは上記の方法で行われるか、またはしかし対応する進行が変更される(ステップA)。
上記の自動的支援方法によって、利用者が合計6つの空間的自由度のうち3つのみ、すなわち利用者にとって重要である自由度、つまり2つの方向の一方へのカメラの旋回ならびに拡大される物体との距離を自分で制御する必要があるだけなので、利用者の負担が軽減される。拡大される物体上の「標的」は、ロボットがその残りの自由度自体と一致する。
上記実施例を利用して説明した方式によって、ロボットプログラム等を処理する際のツール・センター・ポイントのレールの進行のような、空間的情報をロボット制御から効率的に可視化することができる。
図1に記載の本発明による装置の実施形態において、カメラの形態の画像検出装置が作業ステップの実行のためにプログラミングされたロボット自体に配置されているのに対し、図4の実施形態では、上記ロボットに加えて、カメラの形態の画像検出装置を自由固定フランジで担持するもう1つのロボット1’を最初に挙げたロボット1の隣に設けている。図示した別のロボットのほかに、付加的な撮像装置を備えた別のロボットを設けてもよい。それによって、工作物6のような実際の物体が作業ロボットの姿勢と関係なく観察できるので、たとえばツール・センター・ポイントの姿勢(位置、方向づけ)のような特定の情報を、作業ロボット自体で良好に可視化することができる。両方の(または複数の)ロボットの間隔を決定するために、ロボットに備えたカメラを併せて使用することができ、両ロボット1,1’の設置場所の間隔および方向が互いに相対的に知られている場合、カメラ誘導ロボットシステムの軸角度および形状データとカメラ取付け点とに基づいて、作業ロボットシステムに対するカメラ5の位置を再度推定することができる。
図5は、図3の装置のためのブロック図であり、図2と同じ符号を使用している。図2との相違点は、単に、図4に従って付加的なロボットシステム1’を設け、このロボット
システムがカメラ5を備えており、ならびに当該ロボットシステムによってカメラの位置もカメラ画像もARシステムのAR画像生成要素に供給され、上記ARシステムに座標系、レール点等の空間的位置のような被拡大情報が作業ロボットシステム1から提供されることである。
それ以外のブロック図および情報の流れは、図2を参照して説明されたものと同一である。したがって、ここでは、詳細な説明は繰り返さない。
上述のように、付加的な、画像検出装置を担持するロボットまたは複数の隣接するロボットによって、図1および2の実施形態よりも明らかに良好な視野角を、被拡大物体上に実現することができる。1つの物体を様々な視野方向から可視化するために、必要な場合には、種々のカメラサイトの間で変更することができる。自動支援モードは、当該モードが図5を参照して説明したものと類似の方法で実現することができ、それに関して図4および図5の構成も参照することができる。
ロボットの位置および方向づけが互いに相対的に知られていないときは、対応する補正が実施される。その具体的説明のために、両ロボット1,1’が、図6に再び示される。第1ロボット1は、1つまたは複数の基準マーク8を有する。他方、別の隣接するロボット1’は、カメラ5を備える。最後に挙げたロボット1’は、カメラ5がマーク8で最初に挙げたロボット1で示すように処理される。カメラ5に対するマーク8の位置は、カメラ画像から公知の方法によって検出される。マーク8の既知の姿勢から、ロボットハンド2または当該ロボットハンドに接続されたツール4でロボットの当該姿勢の既知の配置に基づき、および軸駆動装置の角度センサのような内蔵型測定装置によって、ロボット1の脚部と相対的におよび対応する方法で知られている画像検出装置5の姿勢に基づき隣接するカメラ誘導ロボット1’の脚部と相対的に、両ロボット1、1’の位置および方向づけを互いに相対的に決定することができる。この方法は、精度を高めるために、両ロボットシステム1,1’の姿勢の変更により反復的に実施することができる。
図7の実施形態において、拡大現実性は、画像検出装置の姿勢を決定するため空間内に固定配置したマーク9の使用を前提とする。そのために空間内の個々のマーク9(位置および方向づけ)の姿勢が、知られていなければならない。これは、図7から明らかな方法で同様に軸の角度センサのようなロボットに内蔵した測定装置を使用して、決定される。
マーク9の種類は様々であってもよい。図7に概略が示されるように、グラフィックの、光学式に検出可能な写像であってもよく、音響式マークまたはその他のマークであってもよい。マークの種類は、ロボットに設けられた測定装置5’を決定する。音波の形態の音響式マークの場合、測定装置は、マイクロフォンまたはマイクロフォンアレイとしてもよい。光学式の、必要な場合は色付きでデザインされたマークの場合、測定装置5’はカメラである。その場合、当該カメラは、拡大画像の生成のために作業場所で使用された、つまり図1あるいは図3に示されるカメラ5と同一であってもよい。測定装置は、測定装置自体と相対的なその位置および方向づけに基づいてマークを検出する。測定装置の場所は、前述のように、ロボットに内蔵される測定装置(角度センサ)によって空間内で検出され、それによって空間内のマークの場所も決定することができる。
そのために、ロボットの大まかな位置決め後に、マークが測定装置の検出領域にあるように、測定装置がマークの検出を試行している間に、ロボットが測定装置を体系的に空間を通り移動させることができる。測定装置が当該マークを検出したとき、当該マークの位置は、測定装置に対して相対的に決定される。ロボット軸内の角度測定システムの位置測定と好適なロボットモデルとを介して、測定装置の位置は、ロボットの脚点のようなロボットの基準点に対して相対的に決定される。測定結果の好適な加算によって、空間内のマ
ークの位置および方向づけのためにロボットの基準点と相対的に決定することができる。場所固定座標系内のロボットの設置場所が知られているときは、マークの位置は、上記の場所固定座標系に対して相対的に決定され得る。
位置検出は、高性能の測定装置で自動検索運動もしくは位置決め運動中に決定することができる。別の方法として、フェードアウトした静止状態で測定装置に対するマークの相対的な位置決定を実行するために、ロボットがマークを検出した後に当該ロボットを停止させてもよい。測定装置の最大精度領域で位置決めを実行するために、ロボットがマークを検出した後に正確な位置決定を行うことができるように、1つまたは複数の測方向づけ値を仮定するように、画像ベースの制御によって上記ロボットをマークに近づけてもよい。
空間内部のロボットの位置が知られていないときは、ロボットの脚点が種々のマークの個々の測定の間で変化しない場合、マークの位置を互いに相対的に決定することができる。このように、空間内のマーク測定のために停止される移動車両にロボットを使用することができる。ロボットの到達距離が不十分であるときは、空間内の車両の移動によって測定領域の重ね合わせと共に全空間内のマークの測定を達成することができる。
好ましい実施の形態において、位置決定のための種々の測定方法を互いに組み合せてもよい。測定装置の一部は、大きく離れた距離からマークを検出するために広角レンズを備えたカメラのように設計してもよい。その他の測定装置、たとえば赤外ベースの距離測定器は、マークの手前の測定装置の精密な定位とその測定に使用することができる。
図8は、本発明の他の実施の形態に係る装置を表わす。この装置は、カメラ5を備えた、利用者が携帯できる操作装置15を備える。操作装置は、図2を参照して説明された方法で表示装置またはディスプレイ16ならびに操作素子17を備える。カメラ5によって収録された画像は、ARシステムによって生成された拡大情報と共に、表示装置16上に表示される。
上記の構成により、利用者自身は、ディスプレイユニットと共に被観察世界、特に工作物を基準とする任意の位置を得ることができる。AR情報の正確なフェードインのために、次にさらに利用者が保持するARディスプレイユニットもしくはそれに接続されるカメラの空間内の位置が知られていなければならない。当該位置を決定するためにロボットが再び測定装置を担持し、図7を参照して説明したように、測定装置に対して相対的なARディスプレイユニットの位置を決定することができる。測定装置の位置は、ロボットの位置測定システムから上記の方法で再び決定することができる。それによって、空間内のARディスプレイユニットの位置も知られ、AR情報は、位置正確にフェードインすることができる。
図7を参照して説明された上記のものが、測定装置として使用されてもよい。ロボット誘導式測定装置は、ARシステム又は当該システムに固定された基準マーク15aのような測定補助手段を空間内で自動的に追跡することができる。利用者がARディスプレイユニットと共に空間内で移動している間、好適な視野が本測定方法の意味において被追跡基準マーク15aに付与されるように、ロボットは、空間内で測定装置の位置決めを行なう。この位置決めは、連続的または不連続的に行ってよい。周囲のモデルおよび/またはロボットもしくは周囲に取り付けた別のセンサは、周囲または利用者との衝突を義務づけるようにロボットを支援することができる。
図8は、それによって能動的に移動したARトラッキングシステムとしてのロボット・カメラ・システムの特別の特徴を表わす。ロボットに取り付けられたカメラは、オペレー
タが保持する携帯操作装置が最適に検出そしてトラッキングされるように、ロボットをカメラによって自動的に位置決めする信号をロボット制御に送る。「最適に検出する」とは、携帯操作装置に接続されたカメラの位置および方向づけを決定できることである。トラッキング問題を簡略化するため、携帯操作装置は、ロボットと共に能動的に移動するカメラによって問題なく検出し、空間および時間にわたってトラッキングできる良好に検出可能のマークを取り付けることができる。
図9は、本発明による図8に記載された装置のハードウェア構成を表わすブロック図である。図2または図5に示された装置と同一の要素は、同じ符号で表されている。カメラによって収録された画像は、測定装置5および内蔵したロボット11の測定システムによって決定された位置と同様に、AR画像生成装置のカメラに転送される。それ以外は、図2、5の説明を参照されたい。
今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
カメラの形態の画像検出装置を備えた、工作物を加工するロボットの概略図示である。 図1の対象物における構成要素および情報の流れを表わすブロック図である。 ロボットと接続したカメラの位置決定における処理指令の変更のための流れ図である。 本発明の他の局面による、工作物を加工するロボットに付加して設けた受像装置を備えた隣接するロボットを含む装置の概略を表わす図である。 図1に示される対象物を含む構成要素および情報の流れを表わすブロック図である。 基準マークを付けた工作物を加工するロボットおよび付加的にカメラの形態の画像検出装置を有するロボットの概略を表わす図である。 測定装置を備えた工作物を加工するロボットならびに場所固定マークの概略を表わす図である。 利用者が携行する受像装置および測定装置を備えたロボットの概略を表わす図である。 図8に示される対象物における情報の流れの構成要素を表わすブロック図である。
符号の説明
1 多軸産業ロボット、1’ 隣接するロボット、2 ハンド領域、3 ロボットアーム、4 ツール、5 画像検出装置,カメラ、5’ 測定装置、6 工作物、7 ロボットレール、8 基準マーク、9 空間内に配置されたマーク、11 プログラミング済ロボットシステム、12 拡大現実性システム、13 ARモデル操作、14 AR画像生成、15 ディスプレイユニット、15a 基準マーク、16 ディスプレイ、17 操作素子。

Claims (24)

  1. 受像装置の位置および方向づけの全体としての姿勢の決定のための方法であって、前記受像装置の姿勢は、少なくとも1つの自動処理装置固有の測定装置を使用して決定されることを特徴とする、方法。
  2. 前記受像装置の姿勢は、ロボットの軸駆動装置の角度センサによって決定されることを特徴とする、請求項1に記載の方法。
  3. 前記受像装置の姿勢を決定する前記少なくとも1つの自動処理装置固有の測定装置によって得られた姿勢データは、それぞれ各姿勢で前記受像装置によって収録された画像に割り当てられることを特徴とする、請求項1または2に記載の方法。
  4. 仮想情報、特に自動処理装置が特殊の受像装置によって収録された画像を時間および/または位置正確にフェードインすることを特徴とする、請求項1〜3のいずれかに記載の方法。
  5. 前記受像装置として、光学式ディスプレイユニットが使用されることを特徴とする、請求項1〜4のいずれかに記載の方法。
  6. 前記受像装置として、カメラが使用されることを特徴とする、請求項1〜4のいずれかに記載の方法。
  7. 前記カメラは、特に課題の実施のためにプログラミングされた自動処理装置(5)に使用されることを特徴とする、請求項6に記載の方法。
  8. 前記カメラは、課題の実施のためにプログラミングされた自動処理装置(5)に隣接する自動処理装置で使用されることを特徴とする、請求項6に記載の方法。
  9. 前記受像装置の姿勢は、前記自動処理装置に接続された測定装置(5’)によって決定されることを特徴とする、請求項1〜6のいずれかに記載の方法。
  10. 空間内の自動処理装置(1)の姿勢は、少なくとも1つの空間内に配置されたマーク(9)ならびに少なくとも1つのロボットに配置された、カメラまたはセンサのような測定装置(5、5’)によって決定されることを特徴とする、請求項1〜9のいずれかに記載の方法。
  11. 空間内の自動処理装置(1)の姿勢は、少なくとも1つの自動処理装置に配置されたマーク(9)ならびに少なくとも1つの自動処理装置から独立して配置された、カメラまたは少なくとも1つのセンサのような測定装置(5、5’)によって決定されることを特徴とする、請求項1〜9のいずれかに記載の方法。
  12. 自動処理装置の姿勢は、自動処理装置に配置された別のマーク(8)および別の自動処理装置に配置された、カメラまたはセンサのような測定装置(5、5’)と相対的に決定されることを特徴とする、請求項1〜9のいずれかに記載の方法。
  13. 受像装置の位置および方向づけの全体としての姿勢を決定するための装置であって、前記受像装置の姿勢の決定のための、内蔵型の自動処理装置固有の測定装置を有する自動処理装置を備える、装置。
  14. 前記受像装置の姿勢を決定する、少なくとも1つの自動処理装置固有の測定装置によって得た姿勢データをそれぞれ各姿勢で前記受像装置によって収録された画像に割り当てるための割り当て装置を特徴とする、請求項13に記載の装置。
  15. 仮想情報の時間および/または位置正確なフェードインのための装置、特に自動処理装置、前記受像装置によって収録された特殊の画像を特徴とする、請求項13または請求項14に記載の装置。
  16. 前記自動処理装置固有の測定装置は、ロボット軸内に内蔵された角度センサを有することを特徴とする、請求項13〜15のいずれかに記載の装置。
  17. 前記受像装置は、光学式ディスプレイユニットである、請求項13〜16のいずれかに記載の装置。
  18. 前記受像装置は、カメラである、請求項13〜16のいずれかに記載の装置。
  19. 前記カメラは、特に課題の実施のためにプログラミングされた自動処理装置(5)に配置される、請求項18に記載の装置。
  20. 前記カメラは、課題の実施のためにプログラミングされた自動処理装置に隣接する自動処理装置に配置される、請求項18に記載の装置。
  21. 自動処理装置から分離して配置された受像装置の場所および位置の決定のための測定装置は、前記自動処理装置に配置されている、請求項13〜20のいずれかに記載の装置。
  22. マーク(9)に対して相対的に自動処理装置の姿勢を検出するための、空間内の固定マーク(9)ならびに自動処理装置に配置された、カメラまたはセンサのような、測定装置(5、5’)を特徴とする、請求項13〜20のいずれかに記載の装置。
  23. 空間内の自動処理装置(1)の姿勢を受信するための、少なくとも1つの自動処理装置(1)に配置されたマーク(9)ならびに少なくとも1つの自動処理装置(1)から独立して配置された、カメラまたは少なくとも1つのセンサのような、測定装置(5、5’)を特徴とする、請求項13〜20のいずれかに記載の装置。
  24. 両自動処理装置(1、1’)の相対位置を決定するための、自動処理装置(1、1’)に配置されたマーク(8)ならびに別の自動処理装置(1、1’)に配置された、カメラまたはセンサのような、測定装置(5、5’)を特徴とする、請求項13〜20のいずれかに記載の装置。
JP2004286914A 2003-10-01 2004-09-30 受像装置の位置および方向づけの決定方法および装置 Pending JP2005106825A (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE10345743A DE10345743A1 (de) 2003-10-01 2003-10-01 Verfahren und Vorrichtung zum Bestimmen von Position und Orientierung einer Bildempfangseinrichtung

Publications (1)

Publication Number Publication Date
JP2005106825A true JP2005106825A (ja) 2005-04-21

Family

ID=34306189

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004286914A Pending JP2005106825A (ja) 2003-10-01 2004-09-30 受像装置の位置および方向づけの決定方法および装置

Country Status (5)

Country Link
US (1) US7818091B2 (ja)
EP (1) EP1521211B1 (ja)
JP (1) JP2005106825A (ja)
AT (1) ATE513279T1 (ja)
DE (1) DE10345743A1 (ja)

Families Citing this family (78)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7065892B2 (en) * 2001-03-19 2006-06-27 Veeco Instruments Inc. Method and apparatus for calibrating a vision system to a parts handling device
US8458028B2 (en) * 2002-10-16 2013-06-04 Barbaro Technologies System and method for integrating business-related content into an electronic game
DE102005011616B4 (de) * 2004-05-28 2014-12-04 Volkswagen Ag Mobile Trackingeinheit
DE102005009437A1 (de) * 2005-03-02 2006-09-07 Kuka Roboter Gmbh Verfahren und Vorrichtung zum Einblenden von AR-Objekten
DE102005037841B4 (de) 2005-08-04 2010-08-12 Gesellschaft zur Förderung angewandter Informatik e.V. Verfahren und Anordnung zur Bestimmung der relativen Lage eines ersten Objektes bezüglich eines zweiten Objektes, sowie ein entsprechendes Computerprogramm und ein entsprechendes computerlesbares Speichermedium
DE102005045854B3 (de) * 2005-09-26 2007-04-12 Siemens Ag Verfahren und System zur Kalibrierung einer Kamera in Produktionsmaschinen
DE102005058867B4 (de) * 2005-12-09 2018-09-27 Cine-Tv Broadcast Systems Gmbh Verfahren und Vorrichtung zum Bewegen einer auf einem Schwenk- und Neigekopf angeordneten Kamera entlang einer vorgegebenen Bewegungsbahn
KR20080029548A (ko) * 2006-09-29 2008-04-03 삼성전자주식회사 실사기반 이동기기 제어 방법 및 장치
EP2048557B1 (de) 2007-10-11 2013-03-27 Sick Ag Optoelektronischer Sensor und mobile Vorrichtung sowie Verfahren zur Konfiguration
DE102007060653A1 (de) * 2007-12-15 2009-06-18 Abb Ag Positionsermittlung eines Objektes
JP4347386B2 (ja) * 2008-01-23 2009-10-21 ファナック株式会社 加工用ロボットプラグラムの作成装置
JP5384178B2 (ja) * 2008-04-21 2014-01-08 株式会社森精機製作所 加工シミュレーション方法及び加工シミュレーション装置
AT506865B1 (de) 2008-05-20 2010-02-15 Siemens Vai Metals Tech Gmbh Vorrichtung zum verbessern von genauigkeitseigenschaften von handhabungsgeräten
JP5465957B2 (ja) * 2008-09-05 2014-04-09 Dmg森精機株式会社 加工状態確認方法及び加工状態確認装置
DE102009029064A1 (de) * 2008-09-05 2010-04-01 Mori Seiki Co., Ltd., Yamatokoriyama-shi Verfahren und Vorrichtung zur Bearbeitungszustandsüberwachung
WO2010060475A1 (en) * 2008-11-26 2010-06-03 Abb Research Ltd. Industrial robot
US8457791B2 (en) * 2009-03-10 2013-06-04 GM Global Technology Operations LLC Method for dynamically controlling a robotic arm
DE102009041734B4 (de) 2009-09-16 2023-11-02 Kuka Roboter Gmbh Vermessung eines Manipulators
DE202010014359U1 (de) * 2010-10-15 2012-01-17 Hermann Eiblmeier Abtastvorrichtung
US9031697B2 (en) 2011-04-15 2015-05-12 Irobot Corporation Auto-reach method for a remote vehicle
US8902255B2 (en) 2011-06-18 2014-12-02 Microsoft Corporation Mobile platform for augmented reality
KR101978740B1 (ko) 2012-02-15 2019-05-15 삼성전자주식회사 원격조종시스템 및 그 제어방법
US9025856B2 (en) * 2012-09-05 2015-05-05 Qualcomm Incorporated Robot control information
JP2014069251A (ja) * 2012-09-28 2014-04-21 Dainippon Screen Mfg Co Ltd 作業部制御装置、作業ロボット、作業部制御方法、および作業部制御プログラム
CN104703762A (zh) * 2012-10-05 2015-06-10 贝克曼考尔特公司 基于相机的自动对准的***和方法
EP2728374B1 (de) 2012-10-30 2016-12-28 Technische Universität Darmstadt Erfindung betreffend die Hand-Auge-Kalibrierung von Kameras, insbesondere Tiefenbildkameras
DE102012112025B4 (de) * 2012-12-10 2016-05-12 Carl Zeiss Ag Verfahren und Vorrichtungen zur Positionsbestimmung einer Kinematik
US9776325B1 (en) * 2013-03-13 2017-10-03 Hrl Laboratories, Llc Method for tele-robotic operations over time-delayed communication links
US9102055B1 (en) * 2013-03-15 2015-08-11 Industrial Perception, Inc. Detection and reconstruction of an environment to facilitate robotic interaction with the environment
JP5742862B2 (ja) * 2013-03-18 2015-07-01 株式会社安川電機 ロボット装置及び被加工物の製造方法
US20170183157A9 (en) * 2013-06-18 2017-06-29 Hdt Robotics, Inc. Robotic manipulator for warehouses
JP2015024453A (ja) * 2013-07-25 2015-02-05 トヨタ自動車株式会社 載置判断方法、載置方法、載置判断装置及びロボット
US9586320B2 (en) * 2013-10-04 2017-03-07 GM Global Technology Operations LLC System and method for controlling a vision guided robot assembly
DE102013222456A1 (de) * 2013-11-05 2015-05-07 Kuka Laboratories Gmbh Verfahren zum Programmieren von Bewegungsabläufen eines redundanten Industrieroboters und zugehöriger Industrieroboter
US9283674B2 (en) * 2014-01-07 2016-03-15 Irobot Corporation Remotely operating a mobile robot
US9579799B2 (en) 2014-04-30 2017-02-28 Coleman P. Parker Robotic control system using virtual reality input
US9636825B2 (en) * 2014-06-26 2017-05-02 Robotex Inc. Robotic logistics system
US9327406B1 (en) 2014-08-19 2016-05-03 Google Inc. Object segmentation based on detected object-specific visual cues
DE102014222809B3 (de) * 2014-11-07 2016-01-14 Kuka Roboter Gmbh Event-basierte Redundanzwinkelkonfiguartion für Gelenkarmroboter
US9465390B2 (en) * 2014-11-11 2016-10-11 Google Inc. Position-controlled robotic fleet with visual handshakes
CN105588525B (zh) * 2014-11-14 2019-09-20 北京配天技术有限公司 一种工具在机器人法兰坐标系上的标定方法及装置
JP2016221645A (ja) * 2015-06-02 2016-12-28 セイコーエプソン株式会社 ロボット、ロボット制御装置およびロボットシステム
DE102015009151A1 (de) * 2015-07-14 2017-01-19 Kuka Roboter Gmbh Ermitteln eines Eingabebefehls für einen Roboter, der durch manuelles Ausüben einer Kraft auf den Roboter eingegeben wird
US10430744B2 (en) * 2015-08-21 2019-10-01 Autodesk, Inc. Robot service platform
US10173324B2 (en) * 2015-11-16 2019-01-08 Abb Schweiz Ag Facilitating robot positioning
JP6420229B2 (ja) 2015-12-10 2018-11-07 ファナック株式会社 仮想物体の画像をロボットの映像に重畳表示する映像表示装置を備えるロボットシステム
DE102015225844A1 (de) * 2015-12-18 2017-06-22 Robert Bosch Gmbh Verfahren und Vorrichtung zum Betreiben einer Datenbrille sowie Datenbrille
US20170243154A1 (en) * 2016-02-22 2017-08-24 Wal-Mart Stores, Inc. Systems and methods for indicating worker tasks at a retail sales facility
JP6430986B2 (ja) * 2016-03-25 2018-11-28 ファナック株式会社 ロボットを用いた位置決め装置
DE102016213663A1 (de) 2016-07-26 2018-02-01 Siemens Aktiengesellschaft Verfahren zum Steuern eines Endelementes einer Werkzeugmaschine und eine Werkzeugmaschine
AT519176B1 (de) 2016-10-14 2019-02-15 Engel Austria Gmbh Robotersystem
DE102016224766A1 (de) * 2016-12-13 2018-06-14 Robert Bosch Gmbh Verfahren zur Kalibrierung von Sensoren an einer mobilen Plattform
DE102016124549B4 (de) 2016-12-15 2019-11-07 Carl Zeiss Industrielle Messtechnik Gmbh Messsystem
JP6527178B2 (ja) * 2017-01-12 2019-06-05 ファナック株式会社 視覚センサのキャリブレーション装置、方法及びプログラム
DE102017221305A1 (de) * 2017-11-23 2019-05-23 Robert Bosch Gmbh Verfahren zum Betreiben eines kollaborativen Roboters
DE102018201589A1 (de) * 2018-02-01 2019-08-01 KORIS Vision & Force GmbH Verfahren zur Programmierung der Steuerung eines Industrieroboters, Verfahren zum Betreiben eines Industrieroboters, Programmiervorrichtung sowie Industrierobotersystem mit einer solchen Programmiervorrichtung
CN108527363A (zh) * 2018-03-08 2018-09-14 芜湖泰领信息科技有限公司 机器人跨越障碍的***
DE102018204508A1 (de) * 2018-03-23 2019-09-26 Kuka Deutschland Gmbh Verfahren und System zum Betreiben eines Roboters
DE102018109329B4 (de) 2018-04-19 2019-12-05 Gottfried Wilhelm Leibniz Universität Hannover Mehrgliedrige aktuierte Kinematik, vorzugsweise Roboter, besonders vorzugsweise Knickarmroboter
CA3098890A1 (en) 2018-04-30 2019-11-07 Path Robotics, Inc. Reflection refuting laser scanner
JP7034822B2 (ja) * 2018-05-01 2022-03-14 新東エスプレシジョン株式会社 角度測定システム
US10967507B2 (en) * 2018-05-02 2021-04-06 X Development Llc Positioning a robot sensor for object classification
DE102018113336A1 (de) * 2018-06-05 2019-12-05 GESTALT Robotics GmbH Verfahren zum Verwenden mit einer Maschine zum Einstellen einer Erweiterte-Realität-Anzeigeumgebung
JP6740288B2 (ja) * 2018-07-13 2020-08-12 ファナック株式会社 物体検査装置、物体検査システム、及び検査位置を調整する方法
JP7334239B2 (ja) * 2018-09-10 2023-08-28 ファナック アメリカ コーポレイション 拡張現実及びデジタルツインのためのロボット較正
RU2713570C1 (ru) * 2018-12-20 2020-02-05 Анатолий Александрович Перепелица Способ формирования изображения дополненной реальности и робототехническая система для его осуществления
DE102019106458A1 (de) * 2019-03-13 2020-09-17 ese-robotics GmbH Verfahren zur Ansteuerung eines Industrieroboters
DE102019110674A1 (de) * 2019-04-25 2020-10-29 Carl Zeiss Optotechnik GmbH Verfahren zur Bereitstellung eines visuellen Feedbacks
DE102019207089A1 (de) * 2019-05-16 2020-11-19 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zum Steuern mindestens einer Aktorik
US11407110B2 (en) 2020-07-17 2022-08-09 Path Robotics, Inc. Real time feedback and dynamic adjustment for welding robots
DE202020106491U1 (de) 2020-11-12 2022-02-16 Sick Ag Visualisieren eines Schutzfeldes
DE102020129823B4 (de) 2020-11-12 2022-07-07 Sick Ag Visualisieren eines Schutzfeldes
CN112598752B (zh) * 2020-12-24 2024-02-27 东莞市李群自动化技术有限公司 基于视觉识别的标定方法及作业方法
US11648683B2 (en) 2021-02-24 2023-05-16 Path Robotics, Inc. Autonomous welding robots
DE102021203779B4 (de) 2021-04-16 2023-12-14 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zum Annotieren von mit Hilfe einer Kamera aufgenommenen Bildern eines Objektes
DE102022200461A1 (de) 2022-01-17 2023-07-20 Volkswagen Aktiengesellschaft Verfahren und Robotersystem zum Bearbeiten eines Werkstücks sowie Koordinatensystemmarker für ein Robotersystem
KR102614102B1 (ko) * 2022-11-24 2023-12-14 주식회사 버넥트 실물 객체에 대한 정밀한 추적을 위한 자동화된 캘리브레이션 시스템, 캘리브레이션 방법 및 캘리브레이션 방법을 기초로 이미지 내에서 실물 객체를 추적하고 실물 객체에 가상 모델을 증강하는 방법
KR102618591B1 (ko) * 2022-11-24 2023-12-27 주식회사 버넥트 실물 객체에 대한 정밀한 추적을 위해 카메라 모듈의 내부 및 외부 파라미터를 계산하는 자동화된 캘리브레이션 시스템, 캘리브레이션 방법 및 캘리브레이션 방법을 기초로 이미지 내에서 실물 객체를 추적하고 실물 객체에 가상 모델을 증강하는 방법

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04344503A (ja) * 1991-05-21 1992-12-01 Sony Corp ロボットの数値制御装置
JPH06278070A (ja) * 1993-03-25 1994-10-04 Nippon Steel Corp ロボット作業対象物体の確認方法
JPH11320465A (ja) * 1998-05-01 1999-11-24 Murata Mach Ltd ロボットアームの制御方法
JP2001060108A (ja) * 1999-06-18 2001-03-06 Agency Of Ind Science & Technol ロボット動作教示装置および動作教示方法
JP2002326174A (ja) * 2002-04-26 2002-11-12 National Aerospace Laboratory Of Japan 多関節ロボットの制御方法

Family Cites Families (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE6900309U (de) 1968-11-27 1969-05-22 J E Ekornes Fabrikker As Aus einzelementen nach dem baukastenprinzip zusammensetzbare moebel
US3936178A (en) * 1973-11-26 1976-02-03 Coulter Information Systems, Inc. Apparatus for large scale screen display of images
GB2018422B (en) * 1978-03-29 1983-01-19 Hitachi Ltd Mark detecting system
US4305130A (en) * 1979-05-29 1981-12-08 University Of Rhode Island Apparatus and method to enable a robot with vision to acquire, orient and transport workpieces
US4402053A (en) * 1980-09-25 1983-08-30 Board Of Regents For Education For The State Of Rhode Island Estimating workpiece pose using the feature points method
US4380696A (en) * 1980-11-12 1983-04-19 Unimation, Inc. Method and apparatus for manipulator welding apparatus with vision correction for workpiece sensing
US5506682A (en) * 1982-02-16 1996-04-09 Sensor Adaptive Machines Inc. Robot vision using targets
US4613269A (en) * 1984-02-28 1986-09-23 Object Recognition Systems, Inc. Robotic acquisition of objects by means including histogram techniques
US4887223A (en) * 1985-08-30 1989-12-12 Texas Instruments Incorporated Visual navigation system for a mobile robot having capabilities of regenerating of hidden images
FR2642833B1 (fr) 1989-02-06 1991-05-17 Vision 3D Procede d'etalonnage d'un systeme d'acquisition tridimensionnelle de forme et systeme d'acquisition pour la mise en oeuvre dudit procede
US5168528A (en) * 1990-08-20 1992-12-01 Itt Corporation Differential electronic imaging system
US5268996A (en) * 1990-12-20 1993-12-07 General Electric Company Computer image generation method for determination of total pixel illumination due to plural light sources
US5297238A (en) * 1991-08-30 1994-03-22 Cimetrix Incorporated Robot end-effector terminal control frame (TCF) calibration method and device
US5499306A (en) * 1993-03-08 1996-03-12 Nippondenso Co., Ltd. Position-and-attitude recognition method and apparatus by use of image pickup means
US5815411A (en) * 1993-09-10 1998-09-29 Criticom Corporation Electro-optic vision system which exploits position and attitude
DE69421873T2 (de) * 1993-09-20 2000-06-15 Canon K.K., Tokio/Tokyo Bildaufnahme- und anzeigesystem
US5876325A (en) * 1993-11-02 1999-03-02 Olympus Optical Co., Ltd. Surgical manipulation system
US5835693A (en) * 1994-07-22 1998-11-10 Lynch; James D. Interactive system for simulation and display of multi-body systems in three dimensions
US5495410A (en) * 1994-08-12 1996-02-27 Minnesota Mining And Manufacturing Company Lead-through robot programming system
GB9515311D0 (en) * 1995-07-26 1995-09-20 3D Scanners Ltd Stripe scanners and methods of scanning
US5905850A (en) * 1996-06-28 1999-05-18 Lam Research Corporation Method and apparatus for positioning substrates
US6044308A (en) * 1997-06-13 2000-03-28 Huissoon; Jan Paul Method and device for robot tool frame calibration
EP1040393A4 (en) * 1997-09-04 2004-03-10 Dynalog Inc METHOD FOR CALIBRATING A ROBOTIZED CONTROL SYSTEM
US6157873A (en) * 1998-04-09 2000-12-05 Motoman, Inc. Robot programming system and method
DE19931676C2 (de) * 1999-07-08 2002-07-11 Kuka Schweissanlagen Gmbh Verfahren zum Vermessen von Werkstücken und Bearbeitungsstation
EP1189732B1 (de) * 1999-06-26 2003-05-07 KUKA Schweissanlagen GmbH Verfahren und vorrichtung zum kalibrieren von robotermessstationen, manipulatoren und mitgeführten optischen messeinrichtungen
GB0008303D0 (en) * 2000-04-06 2000-05-24 British Aerospace Measurement system and method
WO2002029700A2 (en) * 2000-10-05 2002-04-11 Siemens Corporate Research, Inc. Intra-operative image-guided neurosurgery with augmented reality visualization
JP2002172575A (ja) * 2000-12-07 2002-06-18 Fanuc Ltd 教示装置
DE10111130A1 (de) 2001-03-08 2002-09-19 Zeiss Carl Koordinatenmeßgerät mit einem Videotastkopf
US6587752B1 (en) * 2001-12-25 2003-07-01 National Institute Of Advanced Industrial Science And Technology Robot operation teaching method and apparatus
JP2005515910A (ja) * 2002-01-31 2005-06-02 ブレインテック カナダ インコーポレイテッド シングルカメラ3dビジョンガイドロボティクスの方法および装置
CA2369845A1 (en) * 2002-01-31 2003-07-31 Braintech, Inc. Method and apparatus for single camera 3d vision guided robotics
US20030179308A1 (en) 2002-03-19 2003-09-25 Lucia Zamorano Augmented tracking using video, computed data and/or sensing technologies
DE10305384A1 (de) 2003-02-11 2004-08-26 Kuka Roboter Gmbh Verfahren und Vorrichtung zur Visualisierung rechnergestützter Informationen
WO2005039836A2 (de) * 2003-10-20 2005-05-06 Isra Vision Systems Ag Verfahren zur einrichtung einer bewegung eines handhabungsgeräts und bildverarbeitung
US7336814B2 (en) * 2004-07-14 2008-02-26 Braintech Canada, Inc. Method and apparatus for machine-vision

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04344503A (ja) * 1991-05-21 1992-12-01 Sony Corp ロボットの数値制御装置
JPH06278070A (ja) * 1993-03-25 1994-10-04 Nippon Steel Corp ロボット作業対象物体の確認方法
JPH11320465A (ja) * 1998-05-01 1999-11-24 Murata Mach Ltd ロボットアームの制御方法
JP2001060108A (ja) * 1999-06-18 2001-03-06 Agency Of Ind Science & Technol ロボット動作教示装置および動作教示方法
JP2002326174A (ja) * 2002-04-26 2002-11-12 National Aerospace Laboratory Of Japan 多関節ロボットの制御方法

Also Published As

Publication number Publication date
EP1521211A3 (de) 2006-03-01
US7818091B2 (en) 2010-10-19
EP1521211A2 (de) 2005-04-06
ATE513279T1 (de) 2011-07-15
US20050131582A1 (en) 2005-06-16
EP1521211B1 (de) 2011-06-15
DE10345743A1 (de) 2005-05-04

Similar Documents

Publication Publication Date Title
JP2005106825A (ja) 受像装置の位置および方向づけの決定方法および装置
US11345042B2 (en) Robot system equipped with video display apparatus that displays image of virtual object in superimposed fashion on real image of robot
CN105666505B (zh) 具备扩展现实对应显示器的机器人***
EP1215017B1 (en) Robot teaching apparatus
JP4817603B2 (ja) 工業ロボットをプログラミングするための方法およびシステム
US7236854B2 (en) Method and a system for programming an industrial robot
JP4508252B2 (ja) ロボット教示装置
JP4844453B2 (ja) ロボットの教示装置及び教示方法
US10427298B2 (en) Robot system displaying information for teaching robot
US10310054B2 (en) Relative object localization process for local positioning system
US11148299B2 (en) Teaching apparatus and teaching method for robots
WO2018043525A1 (ja) ロボットシステム、ロボットシステム制御装置、およびロボットシステム制御方法
JP6856590B2 (ja) センシングシステム、作業システム、拡張現実画像の表示方法、およびプログラム
JP7048539B2 (ja) 振動表示装置、動作プログラム作成装置、およびシステム
JP2020015128A (ja) センシングシステム、作業システム、拡張現実画像の表示方法、拡張現実画像の記憶方法、およびプログラム
Ng et al. Intuitive robot tool path teaching using laser and camera in augmented reality environment
KR100784125B1 (ko) 단일 카메라를 이용한 이동 로봇의 랜드 마크의 좌표 추출방법
JP7366264B2 (ja) ロボット教示方法及びロボット作業方法
JP2020175453A (ja) 遠隔操作装置
JPH06218684A (ja) 操作型マニピュレータの教示装置および操作型マニピュレータによる自動作業方法
JPH05197416A (ja) ロボット動作点教示装置
JP2021058979A (ja) ロボットアーム試験装置
WO2023106353A1 (ja) 教示システム、ロボットシステム、ロボットの教示方法及びロボットの教示プログラム
WO2023106354A1 (ja) 教示システム、ロボットシステム、ロボットの教示方法及びロボットの教示プログラム
WO2020203819A1 (ja) 遠隔操作装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070828

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091222

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20100319

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20100325

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20100421

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20100426

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100524

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100629

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20100928

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20101001

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101029

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101130

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20110225

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20110302

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20110330

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20110404

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20110418

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110428

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20110418

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110531