JPS6254115A - 三次元物体の位置と姿勢を自動的に決定する方法及び装置 - Google Patents

三次元物体の位置と姿勢を自動的に決定する方法及び装置

Info

Publication number
JPS6254115A
JPS6254115A JP61129992A JP12999286A JPS6254115A JP S6254115 A JPS6254115 A JP S6254115A JP 61129992 A JP61129992 A JP 61129992A JP 12999286 A JP12999286 A JP 12999286A JP S6254115 A JPS6254115 A JP S6254115A
Authority
JP
Japan
Prior art keywords
data
image
coordinate system
calibration
target point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP61129992A
Other languages
English (en)
Other versions
JP2602812B2 (ja
Inventor
チア ピー デイ
ケニス ダブリュー クラウス
ルイス エル ホウィットコーム
バーソルト ケー ピー ホーン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GMF Robotics Corp
Original Assignee
GMF Robotics Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GMF Robotics Corp filed Critical GMF Robotics Corp
Publication of JPS6254115A publication Critical patent/JPS6254115A/ja
Application granted granted Critical
Publication of JP2602812B2 publication Critical patent/JP2602812B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/002Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/408Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by data handling or data format, e.g. reading, buffering or conversion of data
    • G05B19/4083Adapting programme, configuration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/147Details of sensors, e.g. sensor lenses
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B2210/00Aspects not specifically covered by any group under G01B, e.g. of wheel alignment, caliper-like sensors
    • G01B2210/10Wheel alignment
    • G01B2210/12Method or fixture for calibrating the wheel aligner
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B2210/00Aspects not specifically covered by any group under G01B, e.g. of wheel alignment, caliper-like sensors
    • G01B2210/10Wheel alignment
    • G01B2210/14One or more cameras or other optical devices capable of acquiring a two-dimensional image
    • G01B2210/146Two or more cameras imaging the same area
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/36Nc in input of data, input key till input tape
    • G05B2219/36503Adapt program to real coordinates, software orientation
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/37Measurements
    • G05B2219/37572Camera, tv, vision
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/12Acquisition of 3D measurements of objects

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Vascular Medicine (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Manufacturing & Machinery (AREA)
  • Automation & Control Theory (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Numerical Control (AREA)
  • Manipulator (AREA)
  • Length Measuring Devices With Unspecified Measuring Means (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 技術分野 本発明は一般に3次元機械視察方法および装置に関し、
より詳細には、物体の位置および姿勢を測定するための
3次元機械視察方法および装置に関する。
l見及± 3次元機械視察装置は、3次元で見るために、範囲調整
、構造光および双眼鏡視察のような多くの異なる方式を
利用している。範囲調整方式および構造光方式は代表的
に最も実施容易である。これらの両技術は、距離の指示
については、物体の表面からの反射音波のような前進光
または他の照射に依存する。範囲調整装置は代表的に物
体に対するレーザビームの反射および戻りの時間を計っ
てその距離を測定する(レーダと同様)。
異なる範囲調整センサが背景分析に通用されてきた。こ
れらのセンサは2種類に分類し得る。一方は三角測量の
三角法に基づき、他方は飛行時間に基づいている。三角
測量範囲センサは更に2種類に分離され、その一方は一
対のステレオテレビカメラまたは2つの位置に代わる代
わる位置決めされる1つのカメラによる。他方の種類は
走査伝送器による光面の投射およびテレビカメラによる
反射光の像の記録に基づいている。実施例として、2番
目の種類は「揺動」受信器によって発光してもよい。1
番目の種類は、背景の2つの像で相応箇所を見出すこと
の問題がある。さらに、両種類とも、送信器によって見
られるが、受信器によっては見られない箇所についての
データが得られず、センサから遠い方の箇所についての
精度が乏しいという2つの欠点がある。
上記の欠点は、2番目の種類の範囲映像センサをレーザ
スキャナととも利用することによって除去される。この
種類の範囲調整センサもまた2つの方式に分類され、そ
の一方はレーザパルスの伝送および反射信号の到達時間
の測定に基づいている。他方の方式は振幅変調レーザビ
ームを伝送しかつ反射信号の移相を測定することに基づ
いている。
構造光装置は光を制御して物体に投射する。次いで、こ
の装置は三角測量法によって物体までの距離を測定し、
そして物体の表面と光ビームとの交差によって形成され
るパターンから物体の形状を推定する。例えば、凸面に
照射する光面が曲線集合体を形成し、この集合体は角物
体にシェブロンパターンを形成する。
双眼鏡視察装置は、2つのカメラを利用し、かつ人が見
る際に使用するものと同じ一般的な対策(すなわち、双
眼鏡の視差)を用いている。同じ背景の2つの視界間の
わずかな相違は距離の指示として使用され、すなわち、
視差が大きければ大きいほど、物体は近くにある。
双眼鏡の視差に基づく実際の機械視察装置の開発に関連
した1つの問題は「対応」の問題である。
すなわち、各視界の物体は、2つの視界間の相違を測定
することができる前に互いに整合しなければならない。
整合が問題であることがあり、何故なら、視差の結果、
物体が右側視界および左側視界ではわずかに異って見え
、かつ一方の視界で部分的または全体的に不明瞭になる
かも知れないためである。
また、範囲調整方式または構造光方式による3次元視察
装置は、観察されている物体との相互作用を必要とする
ため、固有的に制限される。これらの装置は多くの用途
に適しているかも知れない。
しかしながら、視察装置が被観察物体又はその周囲に拘
束部を置くことを回避するようになっている必要がある
。米国特許第4.357.108号(スターン)および
第4.335.962号(ジマティオ等)はともに、放
射エネルギパターンを物体に与え、その後、反射した放
射エネルギを記録することによって空間情報を測定する
方法および装置を開示している。
米国特許第4.105.925号(ローゼル等)は光学
物***置決め装置を開示しており、この位置決め装置は
コンベヤ上の物体の位置及び配向を定める。
2つの光面コンベヤの表面上の単一の横線で交差する。
この方法は定規距離および透視を採用している。
車両組立て中、特定の視察問題に遭遇する。例えば、組
立て工程中、しばしば、部分的に完成した車体が支持取
付具でゆるく保持されている間に組立てラインより下で
前進してしまう。この車体の正確な位置はいずれの作業
ステーションでもわからない。逆に、この車体は既知か
つ一定である不確実性の有限窓内に位置決めされる。こ
の窓は−aに非常に大きいので、ステーションでの作業
の自動化は不可能であるかあるいは実施できないほど高
価である。機械拘束部が車体を位置決めしかつ保持する
ように設計されている場合でも、位置の不確実性により
、しばしば、自動化工具を使用することができない。
これに関連した問題として、車体が剛性でない。
実際、同−組立てラインで製造された同一車体はしばし
ば予想できない寸法不規則性があるということがわかっ
た。部分完成車体のこれらの不規則性および従順性は最
近のデ、ザインおよび製造実施の許容構造になってきた
。将来の製造装置がこれらの不規則性を美しく示すこと
ができなければならないことは明らかである。
これらの問題の1つの可能な解決法は空間における車体
の位置が一つの車体から次の車体まで不変であるように
全組立てラインを極めて高い公差に設計することである
。また、車体が事実上同一であるようにしなければなら
ない。このような対策が米国特許第4.458,628
号(フジイ等)によって示されている。この特許は接着
剤を自動車の風防ガラスパネルに塗布する装置を開示し
ており、この装置は、ガラスパネルの周部分を工業用ロ
ボットの接着剤塗布ノズルに絶えず露出させるようにガ
ラスパネルを支持したり移動させたりするためのターン
テーブルを有している。しかしながら、このような対策
は、異なる加工物を保持するためには、比較的高い初め
の投資および高価な再整備コストを必要とする。
米国特許第3.618,742号(ブランチヤード等)
、第3,804.270号(ミチャウド等)、第4,1
46.924号(パーク等)、第4.373.804号
(プライヤ等)および第4,380,696号(マサキ
)には、他の可能な解決法が開示されている。これらの
特許の各々は機械視察装置を開示しており、この装置は
視覚データを供給し、引続き、このデータを処理し、ロ
ボットが物体について作業を行うことができるようにロ
ボットの予めプログラミングされた進路を変えるために
利用される形態にする。
しかしながら、このような先行機械視察方法および装置
は工場の環境における車体の従順性および不規則性の問
題を解決するためには不適当である。
将来の自動化工場における現在の関心のある1つの分野
は接着剤をロボットによって分配することである。自動
車製造業者が耐腐食性の計画を精力的に追求するにつれ
て、接着剤およびシーラントの新規な塗布法が導入され
てきている。これらの物質はドア、デツキおよびフード
のような半フランジ付き部品の組立てに使用される。
成る場合には、シーリング材は多くの在来のスポット溶
接と併用される。まず、シーラントを塗り、次いで、こ
のシーラントを介して板状金属を溶接する。この組合せ
対策により、スポット溶接部間の距離を短かくするとと
もに、溶接部の数を少なくする。成る製造業者は構造用
接着剤を用いることによって成る半フランジ付き組立体
についての溶接を全くなくした。
多くの要因により、製造業者は接着剤で接合するように
なりつつある。例えば、燃料の節約の必要性から、自動
車製造業者は軽量ゲージ金属を使用することによって重
量を軽減するようになった。
しかしながら、機械溶接部および肉薄金属は構造上の十
分な強度をもたらさない。
しかしながら、かかる接着剤およびシーラントの手によ
る塗布は、必要とされる生産量および精度が高いため、
一般に非実用的である。また、自動車製造環境は、接着
剤およびシーラントを自動′的に塗布することができる
装置を強(要求している。かかる接着剤およびシーラン
トを不適確に塗布すると、不正確な接合または絞り出し
が起る。
かかる接着剤およびシーラントの塗布装置は材料取扱い
装置の現在の製造ラインに容易に適合しなければならな
い。ワークセルは最も大きい自動車構成要素さえも収容
するように寸法法めされていなければならない。また、
制御装置が工場の通信装置と適合できなければならない
。最後に、これらの装置は、工具およびダイの摩擦、製
品の再設計および製造上の改良によって生じる加工物の
幾何形状の変化のような事態を補償することができなけ
ればならない。
いずれの組立て操作においても、比較的不変であって、
あらゆる測定用の基線として使用されるゲージ孔と呼ば
れる車体の箇所がいくつが存在している。家の土台およ
び船のキールは他の種類の基線の例である。車両組立体
では、車体の全構造は注意深く位置決めされたゲージ孔
に対して組立てられる。全体としての車体はいくらが非
剛性であってもよいが、ゲージ孔は互いに対して定関係
を維持しなければならない。
光夙q皿丞 本発明の目的は空間における3次元の車体の位置および
姿勢をすばやくかく正確に自動的に測定する方法および
装置を提供することである。
本発明の他の目的は、性能を実質的に悪くすることなし
に車体のわずかな変化および周囲の光の条件が許容され
る、3次元の車体の位置および姿勢を自動的に測定する
方法および装置を提供することである。
本発明の更に他の目的は、たった3ケに過ぎないカメラ
を利用しかつこれらのカメラを特別に構成する必要がな
い、3次元の車体の位置および姿勢を自動的に測定する
方法および装置を提供することである。
また、本発明の更に他の目的は、構造照明のような特別
の照明なしに、工場環境において3次元の車体の位置お
よび姿勢を自動的に測定するおよび装置を提供すること
である。
本発明の上記目的および他の目的を達成する際、定座標
系を有する視察ステーションで空間における3次元の車
体の位置および姿勢を自動的に測定する方法が提供され
る。車体は少なくとも3つの目標箇所を有する。この方
法は、視察ステーションでの車体の予期位置に関する校
正データを発生し、目標箇所釜々ごとの像データの単一
平面を発生する工程を有する。像データの各平面はその
目標箇所に関するデータを有している。また、この方法
は、夫々の像平面内の目標箇所の位置を測定して位置デ
ータを得、校正データおよび位置データをともに処理し
て定座標系に対する車体の位置および姿勢に関するデー
タを得る工程を有する。
好ましくは、この方法を利用して、進路補償データをプ
ログラムロボット制御装置に供給してこの制御装置によ
って制御されたロボットを、3次元の車体について作業
するように制御装置でもともとプログラミングされた進
路と異なる新しい進路に沿って移動させることができる
ようにする。
進路補償データは作業ステーションでの3次元の車体の
実際の位置と予期された位置との差に関する。このよう
に利用する場合、この方法は、更に、前に発生した合成
データを定座標系における車体の実際の位置と予期され
た位置との差に関する第1組の偏差データに変換し、更
にこの第1組の偏差データをロボットの座標系における
第2&11の偏差データに変換する工程を存する。最後
、この方法は第2mの偏差データを制御装置に移送する
工程を有する。
定座標系を有しかつ本発明により構成された視察ステー
ションでの少なくとも3つの目標箇所を有する空間にお
ける3次元の車体の位置および姿勢を自動的に測定する
装置は視察ステーションでの車体の予期位置に関する校
正データを記憶する装置を備えている。更に、この装置
は間隔をへだてた少なくとも3つのカメラを備えている
。これらのカメラの各々は単一の目標箇所に関する像デ
ータを有する像データ平面を発生する。また、この装置
は、夫々の像平面内の各目標箇所の位置に関する位置デ
ータを供する装置と、定座標系内の車体の位置および姿
勢に関するデータを供するために校正データおよび位置
データをともに処理する装置とを有する。
好ましくは、この装置は構造光を使用することなしに作
動する。
また、好ましくは、この装置を使用して、進路補正デー
タをプログラムロボット制御装置に自動的に供給して制
御装置によって制、御されたロボットを、3次元の車体
について作業するように制御装置でもともとプログラミ
ングされた進路と異なる新しい進路に沿って移動させる
ことができるようにする。進路補償データは作業ステー
ションで3次元の車体の実際の位置と予期位置との差に
関係している。更らに、この装置は、前に発生した合成
データを定座標系における車体の実際の位置と予期位置
との差に関する第1組の偏差データに変換する装置を備
えている。また、第1組の偏差データをロボットの座標
系における第2Miの偏差データに変換する装置と、第
2mの偏差データを制御装置に移送する装置とが設けら
れている。
上記の方法および装置は利点が多い。例えば、たった3
つの像平面を使用して3次元の車体の片寄りが発生され
る。詳細には、視察装置は車体のい(つかの既知の特徴
または目標を捜し出すことができ、これらの目標が位置
決めされているとき、これらの目標位置を使用して空間
における全車体の位置を分析して定めることができる。
引続き、この位置情報をロボット制御装置のような自動
化設備に伝送することができる。このため、作業ステー
ションでは車体を大まかに位置決めするだけでよく、か
くして生産速度を大きく増大しかつ固定コストを低減す
る。
この方法および装置は工場の環境における変化に比較的
影響されない。カメラの位置のわずかな変化、ゲージ孔
の配置のゆがみおよび周囲の照明条件の変化により全体
の精度に及ぼす作用は極くわずかである。
現在入手できる3次元視察装置は一般に6つ以上のカメ
ラまたは構造照明を必要とする。本方法および装置はた
った3つのカメラを必要とするだけであって、特別の照
明はいらない。さらに、利用されるハードウェアは非常
に特殊化する必要がない。
本発明を実施するための最良の方法 以下に本発明に係る方法及びシステムの実施例を図面に
基づいて説明する。第1図と第2図は頑丈な(つまり、
照明条件、車体の位置及び照明された車体の反射率の変
化によって影客を比較的受けにくい)ばかりでなく、又
融通性もある自動車ビジョンシステムの動作を説明する
図面である。
融通性があるので、このシステムはその各種構成部品の
変更に直ちに適応でき、また車体の種々の変形デザイン
にも適応できる。本発明の方法及びシステムの使用によ
ってより高い生産性が獲得されるばかりでなく、改善さ
れた品質が確保される。
本、発明の自動車ビジョンシステムを全体として参照符
号10で示す。このシステム10は一般に12として示
す、ワークステーション、つまりワークセルにおいて使
用されるものとするが、これに限定されることはない。
ワークステーション12において、システムIOは周辺
装置とやりとり(コミュニケーション)を行なうことが
できて、周辺装置としてはロボッ)14などの周辺装置
、プログラマブルコントローラ、数値制御工作機械、別
のビジョンシステム、プラントデータ管理システムなど
が包含される。
第1図に示すシステム10の応用に当たって、ロボット
14はζ好ましくは、自動車の車体16に自動車用シー
ラントを塗布するのに使用される。
しかしながら、システム10は数個のワークセルがこの
システム10によって時分割制御されるような応用を含
む他の応用にも適用可能であるものと解すべきである。
第1図と第2図に示すように、自動車の車体16は一般
に18として表示されたコンベヤーラインにそって移動
する。自動車の車体16はキャリジ20の上に載置され
、今度は、このキャリジ20が周知の方法で移動できる
ようにトラック22の上にH6ftされている。一般に
、完成途上の自動車の車体16はキャリジ20によって
緩く保持されているため、車体16の正確な位置を知る
ことはできない。しかしながら、システムlOは位置不
確定性をもつ車体の全体を見せる窓を見ることができる
のである。この窓は中断されているので、ビジョンシス
テム10の助けを借りてはじめてワークステーション1
2における作業の自動化が可能になるわけである。
自動車の車体16の底面には、数個のゲージホール24
が細心に位置決めの上穿設されている。
自動車製造業者はすべて、自動車の車体を構成する全構
造物を組立てるに当たって、かかる個々のゲージホール
24を基準として利用する。ゲージホール24の相互間
隔は比較的不変であるため、かかるゲージホールがあら
ゆる測定の基準線として使用される。車体16は、全体
として、幾分かの非剛性を有しているかも知れないが、
これに反してゲージホール24は相互に一定関係を維持
している。
一般に、システム10はゲージホール24を目視できる
標的、つまり標点として利用し、それによって自動車の
車体16に不規則性が生じて基準に追従しなくなるとい
う問題を可能な限り少なくする。しかしながら、そうす
る代わりに、目視できる標的の1個以上がビジョンシス
テムIOの視野内にある車体16の所定の縁や隅である
ようにしてちよいということは理解できよう。
システムのハードウェア システム10は複数個の隔設されたカメラ26を包含す
る。かかるカメラは、好ましくは、標準のテレビジョン
信号を出力する通常のCCDを使用したものとする。カ
メラ26はワークステーション12内に配設したコンベ
ヤーライン18の対向する両側に位置するハウジング2
8の内部に配置されている。30として図示の、各カメ
ラの視線が各ハウジング28の上面に穿設されたスロッ
ト32を貫通して延びている。第1図と第2図に示すよ
うに、ゲージホール24が各カメラ26の視野内に配設
されているので、各カメラはそれぞれのゲージホール2
4に関する情報を含むデータから成る画像平面を生成す
る。これついては、後に詳述する。
一般に、カメラ26は、各ゲージホール24が各自のカ
メラの視野内にある限り、ワークセル12内の任意の場
所に置いてもよい。カメラ26を車体の上、又は下、或
はこの車体にそって置くことができる。しかしながら、
1つの制約はどの2つのカメラの画像平面も互に平行に
なるようにしてはならないということである。どの画像
平面に対する法線ベクトルも互にかなりの角度をなすよ
うにしたとき最適性能が得られる。
好ましくは、4個のカメラが各ワークステーション12
において使用される。しかしながら、車体16の位置と
姿勢とを見つけるとき、カメラ26は1群が3個のカメ
ラから成る数群の形で使用される。従って、たとえ3個
のカメラ26のうちの1個が不具合になっても、システ
ム10は依然として作動し車体16の位置と姿勢とを見
つけることができる。
システムlOは立体照明などのような特別な照明を何も
必要としない。周囲の照明条件に比較的大きな変動があ
ったとしても、システム10の精度は最少比の影響を受
けるにすぎない、しかしながら、カメラ26が貧弱な照
明の行なわれている組立区域内にある自動車の底面で経
験するような極端な暗闇の中にあれば、人工照明の方が
好ましい。人工照明は又、ワークステーション12が、
太陽光の直射光の射しているときに見られるような、周
囲光の大きな強度変化を規則的に受けるときには望まし
いものである。しかしながら、上記の2つの場合のどち
らでも、はんのわずか少数の、比較的廉価な照明工具で
適切な照明環境をつくることができる。
第3図に示すように、乗り物の車体16は各標点をカメ
ラ26の1つだけが見ることのできるようにした3個の
既知標点(つまり、ゲージホール24)を具えた剛体と
考えることができる。車体16が零個差位置、つまり理
想的公称位置にあるとき、車体16上、もしくはその近
傍に原点を置いた局所座標系、つまりビジョン座標系(
V CS)にかかる車体16を結びつけて考えることに
する。
零個差を与える位置にある各標点にそれぞれ対応する点
において、かかる点を始点として3本の互に直交するベ
クトルを立て、かかるベクトルの大きさを単位長に、又
その方向を■C8の3個の単位ベクトルの方向に平行に
する。3木の単位ベクトルが各標点においてつくる小座
標系をセンサー座標系12及び3 (すなわち、それぞ
れにSC3I、5C52、及び5C33)と名づけるこ
とにする。かかる3つの座標系間の変換は周知のように
不変である。
■C8はカメラ26に対して固定されているものと仮定
する。車体16はそれ゛自体の座標系をもち、この座標
系は車体それ自体に対し固定されていて、車体座標系(
BO2)と呼ばれる。車体16がその零個差位置にある
とき、BO2とνcSとは一致する。また、車体16が
その零個差位置にあるとき、各標点(つまり、各ゲージ
ホール24)は3つのセンサー座標系の各原点にそれぞ
れ正確に対応している。
車体16がその零個差位置から移動するとき、かかる車
体の受ける剛体の運動は■C8をBO2に関係づける変
換〔′r〕によって完全に決定される。この変換は■C
8に関して定義された変換であって、かかる変換によっ
てBO2の位置と方位、従って車体16の位置が完全に
決定されるのである。
vC8における標点の新しい位置を古い位置から定める
ためにも、この同じ変換を使用することができる。■C
8における標点の零偏差位置座標及びこの標点が変位し
た時に占める位置座標が与えられれば、零偏差位置座標
と変位した位置座標とはこの変換によって直接に関係づ
けられるのである。各カメラの視野内で標点を凝視する
ことによって変換(T)を決定できるようにすることが
本発明の目的である。
第4図を参照して説明するに、同図には34として較正
設備の全体が示されていて、かかる較正設備は各SCS
の大きさ及び形状に適合した特徴を表面上に具えた目盛
キューブ36を包含する。
上記較正設備34は上記目盛キューブ36を支持するス
タンド38を又包含する。この較正設備を使用してその
キューブ36の位置を定めるには、そのスタンド38を
キューブ36の3本の稜線が3個のSO8のうちの1つ
のSO8の、互に直交する軸に、それぞれ平行になるよ
うに、ワークステーション12内で所定位置に置(こと
にすればよい。この位置決めは手動によっても、あるい
はロボット14の1つによっても行なうことが可能であ
る。較正設備34は、カメラ26の各カメラがキューブ
3603本の稜線の特定の交点を凝視することができる
ように、しかもキューブ36のデカルト座標系の各座標
軸が上記カメラに対応する特定のSO8の各座標軸にそ
れぞれ平行になるように、その座標位置が遂次法められ
る。後に詳述するように、ビジョンシステム10の周辺
機器インタフェースつきコンピュータの諸口路40がカ
メラ26から映像信号を受け、この信号を較正に必要な
情報に翻訳する。較正設備34を該設備がワークステー
ション12内で多重移動を行なわなければならないよう
に構成したキューブ36などの単一のキューブを包含す
るようにしてもよいし、又はいくつかのカメラ26によ
って同時に凝視されるように構成した多重個のキューブ
を包含するようにしてもよい。
キューブ36によってその表面から投射されたベクトル
の位置座標を含む較正情報は、上記投射後ビジョンシス
テムlOの大容量記憶装置42の中に書き込まれる。又
この記憶装置42の中にはSO3におけるゲージホール
24の位置座標が、較正プロセスの途中に、書き込まれ
る。
こうする代わりに、ビジョンシステム10の入出力端末
装置44の入力装置を介して、較正情報を手動でこのシ
ステム10に入力することもできる。この入出力端末装
置44がカメラ情報などの情報を監視し表示する映像モ
ニタやデータモニタを包含するよう構成してもよい。
周辺機器インタフェースつきコンピュータの諸口路40
は3個のカメラ26とかかるカメラからの情報を処理す
るコンピュータとの間のインタフェースとしての役割を
果たす。一般に上記回路40は、そのプロセンサイ立置
において、コンボル−ジョン積分を求めたり、ビデオ記
録装置に書き込まれているデータを移したりするなどの
オペレーションを行なう能力を有する。周辺機器インタ
フェースつきコンピュータの諸口路40はビジョンシス
テム10のソフトウェアとビデオ画像の数フレームを収
容するに足る記憶装置を包含すると共に、コンピュータ
を種々の周辺装置に結合する周辺機器インタフェース制
御用各種データ送受信口を包含する。
システムのソフトウェア システムのソフトウェアを第5図に示す。このシステム
のソフトウェアは、好ましくは、3つの同時に進行する
プロセス、つまり、ブロック46.48及び50によっ
てそれぞれに図示されているビジョン、コミニュケーシ
ョン及びスーパバイザの各個別機能を実行するための、
3つのタスクから成るように構成される。これらの3つ
のタスクのうちで最大であり、しかも最も複雑なものは
システムスーパバイザ、つまりスーパバイザタスク50
である。このスーパバイザタスクは初期化モージュール
54、較正モジュール56及びラン・タイムモジュール
58の各モジュールから成る。
54.56及び58の各モジュールはそれ自身のユーザ
・インタフェースを包含する。
ビジョンタスク46はスーパバイザ50からの要求に応
じてカメラ26の発生する二次元の、目に見える情報を
処理することに主として係わる。
コミニュケーションタスク48は、スーパバイザタスク
50からの要求に従って、システムのソフトウェアに、
ロボット、プログラマブルコントローラなどの外部装置
にアクセスする能力を賦与する、インタフェースとして
の、入出カプロセスを包含する。ライン52は種々のタ
スク、モジュール及び外部装置間でやりとりされるデー
タの流れを示す。
ビジョンタスク ビジョンタスク46はスーパバイザタスク50からの要
求に応じて、カメラ26によって発生されたビジョン情
報をセット・アップし、見つけ出して表示する。このタ
スク46は画像のグレイスケール処理を行なうものであ
って、カメラ26によって形成された二次元画像平面内
の(たとえば、ゲージホール24などの)所定の幾何学
的形状を見つけ出すことに係わる。スーパバイザタスク
50から代表的な呼出し命令をビジョンタスク46が受
けている間、ビジョンタスク46は画像平面の諸座標位
置にもどり、そこに格納されている命令を見出してこれ
を実行する。このタスクを実行するには、通常のビジョ
ンタスクが使用される。ビジョンタスク46はライブな
カメラ画像を入出力端末装置に表示させると共に、かか
るビジョンデータを元の値に戻して大容量記憶装置42
上の定められた場所に保存する。
コミニュケーションタスク コミニュケーションタスク48の機能は、任意タイプ及
び任意個数の、ロボットやプログラマブルコントローラ
などの周辺装置を相手にして行なわれる外的なコミニュ
ケーションを処理することである。かかる周辺装置とし
ては、数値制御工作機械、別のビジョ゛ンシステム、デ
ータ管理システムなどを含めてもよい。このタスクを実
行するには、通常のコミニュケーションタスクが使用さ
れる。
初期化モジュールを含むスーパバイザタスクスーパバイ
ザタスク50はフローチャートの形で第7図に示されて
いる。一般に、スーパバイザタスク50はシステム10
の全構成部品のオペレーションを制御する。スーパバイ
ザタスク50が始動すると、コミニュケーションタスク
48とビジョンタスク46とが開始させられる。スーパ
バイザタスク50は較正データ構造と呼ばれるモジュー
ルを含み、このモジュールの中には較正、射影、スケー
リング及び変換に関する全必要情報が入っている。これ
らの情報については後に詳述する。スーパバイザタスク
50がタスクを開始して後、初期化モジュール54がこ
のスーパバイザタスク50によって呼び出されると、こ
のモジュール54は較正データ構造にデータを入れるた
め記憶装置を確保し、かかる記憶装置の番地に格納され
ている内容を最初に定めた値に指定する。初期化モジュ
ール54が入出力端末装置44を介してユーザーに質問
を発して、ユーザーがシステムの大容量記憶装置42か
らデータファイルを選定するのを望んでいるのか、それ
とも望んでいないのかを決定する。さもなければ、デフ
ォルト値を使用する。このようにして、モジュール54
はシステムの較正データ構造の初期化を行なう。
ついで、スーパバイザタスク50が、入出力端末装置4
4を介して、ユーザーに、較正モードやシステム運転モ
ードなどの、システムの種々のオペレーションモードの
中からどのモードを選定するかを尋ねる。スーパバイザ
タスク50は又、システム10の運転を中止して運転停
止を行なわせるオプションも具備している。ユーザーが
所望のオペレーションモードを指定すると、スーパバイ
ザータスク50が適当なモジュールを呼び出し、今度は
、この呼び出されたモジュールが指定モード内のオペレ
ーションを全て処理する。いずれにしても、較正データ
構造は選定モジュールに移され、このモジュールに移さ
れたデータ構造はスーパバイザータスクに戻される。コ
ミニュケーションタスク48の場合と同様に、ビジョン
タスク46はラン・タイムモジュール58と較正モジュ
−ル56のどちらからも呼び出すことが可能である。
較正ブタ−構造は以下に列挙する諸内容物を包含する。
すなわち、システムの使用することのできるカメラの数
、各カメラに付された論理的名称、各カメラに組み合さ
れた、カメラの見る標的(つまり、ゲージホール)、標
的とカメラの各対に組み合わされた自動車の組み立てに
関する情報。キューブ36などの較正用目標の実寸法に
関する情報。実像空間とカメラ空間を結びつける変換、
およびカメラ像のパースペクティブ歪曲に関する情報。
ビジョンシステムの局所的基準座標系と、ロボットと相
対性理論でいう時空世界(四次元空間)における座標系
とを結びつける変換。車体12の公称位置(つまり、ロ
ボット14が数え込まれて辿る、車体上の作業経路)。
較正モジュール 第8図を参照して説明するに、同図にはスーパバイザタ
スク50から呼び出された較正モジュール56がフロー
チャートの形で示されている。較正モジュール56を使
用すれば、ユーザーは入出力端末装置44を介して較正
変数を手動で入力及び/又は変更することができる。較
正モジュール56は以下に記載する諸機能を果たす。
a、 ユーザーはシステム10が位置決めしようとして
いる剛体16上の標的のデカルト座標を指定する。かか
るデカルト座標は時空世界における基準座標系に関して
指定される。
b、 較正モジュール56は、個々のカメラの画像平面
上への較正設備34の射影に関する情報を得、ることを
可能にする。これは手動によっても、あるいはロボット
に較正目標をシステムのカメラ26の視野内に持ち来た
らせて、かかる較正目標の表面がもつ特徴から射影情報
を自動的に生成させることによっても達成される。こう
するには、ビジョンタスク46の呼び出しを必要とし、
ロボット14の1つが使用されていれば、コミニュケー
ションタスク48の呼び出しが必要になる。
C0較正モジュール56は較正情報を入出力端末装置に
表示することができる。
d、較正モジュール56を使用して、ユーザーは他の較
正データや諸定数を、相互作用の結果として、印字した
り編集したりすることができる。
e、較正モジュール56はカメラの視野内の、車体1G
の公称位置を自動的に定める。
f、較正モジュール56は、大容量記憶装置42から、
もしくはホストコンピュータ(図示せず)とのコミニュ
ケーションにより、較正データを受取って記憶する。
ラン・タイムモジュール 第9図を参照して説明するに、同図にはソフトウェアの
フローチャートの形でラン・タイムモジュールが示され
ている。一般に、ラン・タイムモジュール58はカメラ
26の視野内にある目標の三次元位置偏差を生成する。
まずはじめに、ラン・タイムモジュール58はビジョン
タスク46を呼び出し、車体16をカメラ26の視野内
で凝視して車体16上の標点(つまり、ゲージホール2
4)の座標をカメラの画像平面上で見つけ出す。ついで
、ラン・タイムモジュール58はこうして見つけ出した
特徴を入出力端末装置44の映像モニタに表示する。こ
うして求めた画像平面上の座標と前に生成しておいた較
正データとを使用して、車体16の位置を二次の摂動項
までとる公式によって求める。この公式によって得られ
る二次の斉次方程式の組を、たとえばニュトンの二次近
似法のような標準的な繰り返し計算法によって解く。こ
うして、6個の自由度を指定すれば空間中の車体の位置
が決まるように、上記方程式を解くことができる。かか
る手順の基礎になっている数学については、第10A図
乃至第10に図を参照して後に詳述する。
ついで、ラン・タイムモジュール58は、6個の運動の
自由度に関する情報を入出力端末装置44のモニタに表
示する。この時点で、モジュール58はかかる情報を車
体16の前に測定しておいた公称位置からの、6つの白
変の偏差に変換するための別のアルゴリズムを呼び出す
。ついで、モジュール58はビジョン座標系における偏
差を1個以上のロボットなどの周辺装置の結びつけられ
ている基準座標系における偏差に変換する。最後に、モ
ジュール58はコミニュケーションタスク48を呼出し
て、こうして求めた偏差をロボット14へ伝達し、ロボ
ット14は現在加工中の剛体に関して数え込まれている
経路を補償するためにこうして受は取った偏差を使用す
ることができる。
システムの数学的背景 車体16が若干の偏差をもつ位置にあるときは、前に指
摘しておいたように、画像平面上の標点(つまり、ゲー
ジホール24)は一般に種々のSCS座標系の原点から
離れた位置へ移動してしまっている。第10A図のグラ
フは1枚の画像平面とこの平面に結びつけられた幾つか
の射影、及び若干の偏差をもつ位置にある車体16から
投射された1つの標点の画像平面上への射影P1を示し
ている。第10A乃至第10に図を参照して後に詳述す
るように、一般に、画像平面上への3個の射影を較正デ
ータと組み合わせることによって、車体16のその公称
位置からの偏差の6個の自由度を決定することが可能で
ある。
第10A図と第10B図を参照して説明するに、点P1
がS CS I座標系のX−Y平面上にあるものと仮定
すれば、各カメラ26は互に独立してかかる点P1の位
置を解くことができるはずである。
ベクトルA、B及びPを第10B図に示すように定義す
る。ベクトルAとベクトルBは、5C3I座標系におけ
るX方向の単位ベクトルとY方向の単位ベクトルの画像
平面上への射影である。点P。
のX座標とY座標(つまり、xlとyI)は第10C図
に示す方程式(1)乃至(4)から得られる。方程式(
4)の解はこの限定された場合の単純群を与える。
第10D図を参照して説明するに、これはより一般化し
た場合であって、この場合2は任意の値をとりうるちと
仮定している。x、とyIを解きZlで表わすことが可
能である。3つの画像平面の全てについてそのようにし
、かつ成る種の拘束条件を課することによって、解の値
を求めようとする全システムに対して、21 s zz
及びz3で表わされた1つの表弐を得ることができる。
方程式(5)乃至(9)で与えられるベクトルはカメラ
の結びつけられている座標系1について定義されたもの
であり、xlとylは第10D図及び第1OE図に示さ
れている方程式(9)乃至(12)を解いてzlで表わ
すことができる。方程式(12)はX、とy、が共にz
、の線形関数であることを示す。同様の方程式を他の2
個の画像平面についても導出することができて、かかる
方程式の完全な組は第LOF図に示す方程式(13)乃
至(15)によって与えられる。
方程式(12)乃至(15)に現われる諸定数はカメラ
26の各カメラに対する較正モジュールによって計算さ
れる。
方程式(13)乃至(15)は9個の未知数をもった6
個の一次方程式である。これらの方程式が解けるために
必要な追加の拘束条件は、車体が剛体であることを考慮
することによって得られる。3個の標点間の距離は一定
であるから、これらの距離は第10G図に示すように、
vC8座標系において測った3つのSCS座標系の各原
点間の距離に等しい。これらの3つの一定距離は第10
H図に示す方程式によって与えられ、また、変位後にか
かる距離は方程式(10)で与えられる。
第101図を参照して説明するに、方程式(13)、(
14)及び(15)を(16)に代入することによって
、第101図に示す方程式の第1の組が得られるが、こ
れらの方程式を書き換えると第1OI図の方程式の第2
の組が得られる。これらの方程式中のk、l及びm項は
容易に計算することのできる定数である。
第101図に示す方程式の第2の組を解くための種々の
数値計算法が従来技術によって開示されている。しかし
ながら、21 、zz及び2.の値を求めるのに最も好
ましい方法はニュートン(New ton )の相互作
用を用いるものである。これらの値が求まったら、かか
る値を方程式(13)、(14)、(15)の中に代入
し、そうすることによって第1OJ図に示すようなxl
、x2、x3、yl、y2及びy3の値が得られる。前
に述べたように、これらの値はビジョン標的、つまりゲ
ージホール24のかかる値のそれぞれが結びつけられて
いる各SO8座標系における位置の座標をめいめいに表
わしている。
標点24の、SCS座標系における座標値はついでvC
8座標系における座標値に変換される。
しかる後、偏差値をユーザーの望むようにロボットが作
業経路を移動するような形に変換することが可能である
繰す返しパースペクティブ補償 四角形法は3点の位置偏差を計算する際に、かかる点が
画像平面上へ正射影として投影されるということを仮定
している。しかしながら、実射影は真のパースペクティ
ブ射影に近いものである。
実際のパースペクティブ射影において、X軸、y軸及び
z軸の各射影は画像平面上で見て直線目盛りと見做すこ
とができないが、その理由は各座標軸の終点がカメラか
らそれぞれに異なる距離にあることによる。
かかる誤差を補償するには、第10に図に示す方程式の
第2の組によって与えられるような写像関係を実座標軸
とその各射影軸との間に確立する必要がある。各軸に対
する、この写像関係は較正時に各座標軸上で3点以上の
測定を行ない、ついで必要な関係を得るため補間法を使
用することによって獲得することが可能である。新しい
スケールファクターの計算結果が第10に図に方程式の
組により与えられている。
この補償法は3点の位置偏差を公称の四角形法を用いて
計算するというものである。四角形性計算の、最後に、
座標軸の射影に新しいスケールファクターを乗じて非直
線性を補償する。第10に図の第3組の方程式によって
与えられている新しいスケールファクターを使用して、
第10E図に示す各定数を各画像平面について計算し直
す。その後、四角性計算をまた続ける。
上述のシステム及び方法は、立体照明を使用することな
く3台のカメラ26の各カメラから得られる特徴的な単
一点照明を利用することによって、空間中の剛体の位置
と姿勢を定めることを可能にする。3台のカメラ26と
車体上の3つの標点とを使用することによって、システ
ム10は車体の位置を正確、かつ迅速に決定することが
できる。
その後、こうして得られた情報をロボットなどの任意タ
イプの周辺装置との間でやりとりすることが可能である
本発明の自動車ビジョンシステムは高度に特殊であった
り複雑であったりするハードウェアを必要とせず、しか
も頑丈である(つまり、システムの性能を著しく劣化さ
せることなく工作物、カメラの調節及び周囲光の小さな
変動に耐えることができる)。システム10の較正は迅
速、かつ容易に実施され、しかもカメラやレンズの交換
を必要とするような場合にはその特定のカメラやレンズ
だけを再較正すればよい。
以上、本発明を例示する形で説明してきたけれども、こ
れまで使用してきた術語は限定するという意味よりはむ
しろ記述する言葉がもつ本来の性質の意味でかかる術語
を使用したものであると解すべきである。
以上教示したところに照らして、本発明に対して種々の
修正や変形を施しうろことは明白である。
従って、本発明は、添付の特許請求の範囲から逸れるこ
となく、本明細書に記載したものとは別に実施できるも
のと解すべきである。
【図面の簡単な説明】
第1図は、組立てるべき自動車の両側にロボットが配置
されているワークステーション、つまりワークセルにお
いて組立中の自動車について、本発明の方法及びシステ
ムの動作を示す斜視図である。 第2図は第1図に示した本発明のシステムの端面図であ
る。 第3図はビジョン座標系(VC3)における、ビジョン
システムの3個のカメラと剛体との間の相対位置を示す
略図であって、この剛体は3個の標点を有し、かかる標
点がそれぞれに3つのセンサー座標系(SO3)の座標
原点を形成している。 第4図は本発明の方法及びシステムにおいて使用される
較正設備を示す斜視図である。 第5図は本発明のソフトウェアの諸モジュールと諸タス
ク、及びかかるモジュールとかかるタスクとの間でやり
とりされるデータの流れを示す略図である。 第6図は初期化モジュールのフローチャートである。 第7図はスーパバイザタスクのフローチャートである。 第8図は較正モジュールのフローチャートである。 第9図はラン・タイムモジュールのフローチャートであ
る。 第10A図乃至第10に図は本発明の方法及びシステム
の数学的基礎を説明する図形と数式とを示したものであ
る。 図面の灯心C内室に1更なし) /″7g、5 P # P、 −0,# lUP、−u、lυ*(vp
、−V;、IVA m A、 −0,a (uA−IJ
、、11J*(VA、−V、、)V8−θ、 −0,a
(u@ −u6.)LI*(V、、−%、 )YPII
(up、o、)u” ”+’+”’p−x、a φ〜−
θ               (1)Pa jUP
、。/u * (還、)f    (2)P a X、
((uA、。、)CJ * (’4.−YJ # 9+
B翫o+” 4 (Y、1゜、)幻   c3101’
−OH’ )+(C+ −0+3 ” (’Jo、’2
+uc6) Ll + (V6 ”)lVcoJ V”
   (5)P、”aP、−0:’(tl、−u6−’
)、u、、)up(Yp−Vo−>+Vco)i  (
6)AHA、−0,・(IJa6)篩心。)f    
(r)8”a、 −0,’ (u、−a(Y、。>i 
   (B)P” xIA* V+ 8       
      (9)Fig、 10 D v−′ど1フl+JI Fig、 l0E X、ITへり一β。 t7r” r+ ’)+9J+ ν2す2;)2争j2 すR’84M’JR Fig、 IOF Fig、 IOG 4g・111・1K)1 43’ 1O70sl m I召1 ’i+啼q1.1・1呵フ、1 dt2”「(”OH−×oH”壷(Yo、 −Y、、 
)”◆(20,−3’o、)”] ’d@ ’ [Xo
、%Yo、”+74.:J 17゜d、s’EXo、’
;Y6:+j”6.、a ’/@d3+・トl−ちs+
 ’ ”31″Jシ・Fjg、10H Cxo、”’+2’ρ’−”2m−/3x”’(%、1
)7.り−j+−at’)a−’Q” (2゜j 2+
−2x)’ d*(xo、、 リt’fi”A z−C
8sls−/)s)” ”(’o、、 ”;1ava”
 Jl−J 53s−1)” ” (り’hiり「りl
)”’18(Xo、 +メs3s’As−’+3+−/
3I)2’(Yo、、・l、2.す、−ざ乃r−J+3
”φ’ 2 %lす、−プ+3”’、τ”I+’;11
  ”  ’l。’;l+ ”  ”、’fi”tx3
12t” ”y3S’ ”oo  ” ’lzr′)ジ
ノ20’JR”1MO’2B’ノfl、%プCノ33外
ノOO’0ff1312s’m5o)’−10’)p+
””5r)sり1”??”r+2?””00”0Fjg
、10J

Claims (18)

    【特許請求の範囲】
  1. (1)固定の座標系を有する観察ステーションに置かれ
    た少なくとも3つの目標点を有する三次元物体の空間位
    置と姿勢を自動的に決定する方法において、 上記観察ステーションにおける上記物体の予想位置に関
    する校正データを形成し、 上記目標点の3つに対し単一平面の像データを形成し、
    各像データ平面は各々の目標点に関するデータを含むも
    のであり、 各々の像平面内の目標点の位置を決定して、位置データ
    を得、そして 上記校正データ及び位置データを一緒に処理して、上記
    固定の座標系に対する上記物体の位置及び姿勢に関する
    データを形成することを特徴とする方法。
  2. (2)校正データを形成する上記段階は、上記観察ステ
    ーションに目盛の付いた校正器具を配置する段階を含み
    、そして 上記器具に光を当てて、三次元空間に少なくとも3つの
    像を形成する特許請求の範囲第1項に記載の方法。
  3. (3)校正データを形成する上記段階は、上記三次元空
    間における像を3つの像データ平面に変換する段階を含
    み、上記像データ平面の各々は、上記校正器具における
    少なくとも4つの目標点に関するデータを含んでいる特
    許請求の範囲第2項に記載の方法。
  4. (4)3つの像データ平面を形成する上記段階は、上記
    目標点の各々のリニアな投影に関する中間データセット
    を得る段階を含む特許請求の範囲第1項に記載の方法。
  5. (5)3つの像データ平面を形成する上記段階は、上記
    像データの遠近を補償するように上記中間データセット
    を変更する段階を含む特許請求の範囲第4項に記載の方
    法。
  6. (6)組織化照明を使用せずに固定の座標系を有する観
    察ステーションに配置された少なくとも3つの目標点を
    有する三次元物体の位置及び姿勢を自動的に決定する方
    法において、 上記観察ステーションにおける上記物体の予想位置に関
    する校正データを形成し、 上記物体に非組織化光を当てて、三次元空間に少なくと
    も3つの像を形成し、 上記三次元空間の像を3つの像データ平面に変換し、各
    像データ平面は、各々の目標点に関するデータを含むも
    のであり、 各々の像平面内の目標点の位置を決定して、位置データ
    を得、そして 上記校正データ及び位置データを一緒に処理して、上記
    固定の座標系に対する上記物体の位置及び姿勢に関する
    データを形成することを特徴とする方法。
  7. (7)プログラム式のロボット制御器によって制御され
    るロボットが該制御器に最初にプログラムされた経路と
    は別の新たな経路に沿って移動して、固定の座標系を有
    するワークステーションで三次元物体を処理することが
    できるように、上記プログラム式ロボット制御器に経路
    補償データを自動的に供給する方法であって、この補償
    データがワークステーションにある三次元物体の実際の
    位置と予想位置との差に関連したものであるような方法
    において、 ワークステーションにある三次元物体の予想位置に関す
    る校正データを形成し、 上記物体上の単一の目標点に関する像データを各々含む
    3つの像データ平面を形成し、 各々の像平面内の各目標点の位置を決定して、位置デー
    タを得、 上記校正データ及び目標位置の位置データを一緒に処理
    して、上記固定の座標系に対する上記物体の位置及び姿
    勢に関する合成データを得、上記合成データを、上記固
    定の座標系における上記物体の実際の位置と予想位置と
    の差に関連した第1のオフセットデータセットに変換し
    、上記第1のオフセットデータセットをロボットの座標
    系における第2のオフセットデータセットに変換し、そ
    して 上記第2のオフセットデータセットを上記制御器へ転換
    することを特徴とする方法。
  8. (8)プログラム式のロボット制御器によって制御され
    るロボットが該制御器に最初にプログラムされた経路と
    は別の新たな経路に沿って移動して、固定の座標系を有
    するワークステーションで三次元物体を処理することが
    できるように、上記プログラム式ロボット制御器に経路
    補償データを自動的に供給する方法であって、この補償
    データがワークステーションにある三次元物体の実際の
    位置と予想位置との差に関連したものであるような方法
    において、 ワークステーションにある三次元物体の予想位置に関す
    る校正データを形成し、 上記物体に非組織化光を当てて、三次元空間に少なくと
    も3つの像を形成し、 上記三次元空間の像を3つの像データ平面に変換し、各
    像データ平面は、上記物体上の単一の目標点に関する像
    データを含むものであり、各々の像平面内の各目標点の
    位置を決定して、位置データを得、 上記校正データ及び上記目標点の位置データを一緒に処
    理して、上記固定の座標系に対する上記物体の位置及び
    姿勢に関する合成データを得、 上記合成データを、上記固定の座標系における上記物体
    の実際の位置と予想位置との差に関連した第1のオフセ
    ットデータセットに変換し、上記第1のオフセットデー
    タセットをロボットの座標系における第2のオフセット
    データセットに変換し、そして 上記第2のオフセットデータセットを上記制御器へ転送
    することを特徴とする方法。
  9. (9)固定の座標系を有する観察ステーションに置かれ
    た少なくとも3つの目標点を有する三次元物体の空間位
    置と姿勢を自動的に決定する装置において、 上記観察ステーションにおける上記物体の各位置に関連
    した校正データを記憶する手段と、単一の目標点に関連
    した像データを含む像データ平面を各々形成する少なく
    とも3つの離間されたカメラと、 各々の像平面内の目標点の位置に関する位置データを形
    成する手段と、 上記校正データ及び位置データを一緒に処理して、上記
    固定の座標系に対する上記物体の位置及び姿勢に関する
    データを形成する手段とを具備したことを特徴とする装
    置。
  10. (10)組織化光を使用せずに固定の座標系を有する観
    察ステーションに配置された少なくとも3つの目標点を
    有する三次元物体の空間位置及び姿勢を自動的に決定す
    る装置において、 上記観察ステーションにおける上記物体の予想位置に関
    する校正データを記憶する手段と、上記観察ステーショ
    ンにおいて所定の位置に取り付けられ、各々視野を有し
    ているような少なくとも3つの離間されたカメラと、 上記物体に非組織化光を当てて、三次元空間に少なくと
    も3つの像を形成する手段と、 各々の目標点が各々のカメラの視野に入るように上記観
    察ステーションで上記カメラに対して上記物体を移動す
    る手段とを具備し、各カメラは、三次元空間の像を、各
    々の目標点に関連した像データを各々含む3つの像デー
    タ平面に変換し、 更に、各像平面内の目標点の位置に関連した位置データ
    を形成する手段と、 上記校正データ及び位置データを一緒に処理して、上記
    固定の座標系に対する上記物体の位置及び姿勢に関する
    データを形成する手段とを具備したことを特徴とする装
    置。
  11. (11)校正データを形成する手段を具備した特許請求
    の範囲第9項又は第10項に記載の装置。
  12. (12)校正データを形成する上記手段は、各々の上記
    カメラの視野内で上記観察ステーションに配置される目
    盛付きの校正器具を備えている特許請求の範囲第11項
    に記載の装置。
  13. (13)上記の器具は、キュービックソリッドを含む特
    許請求の範囲第12項に記載の装置。
  14. (14)プログラム式のロボット制御器によって制御さ
    れるロボットが該制御器に最初にプログラムされた経路
    とは別の新たな経路に沿って移動して、固定の座標系を
    有するワークステーションで三次元物体を処理すること
    ができるように、上記プログラム式ロボット制御器に経
    路補償データを自動的に供給する装置であって、この補
    償データがワークステーションにある三次元物体の実際
    の位置と予想位置との差に関連したものであるような装
    置において、 上記ワークステーションにおける上記物体の予想位置に
    関する校正データを記憶する手段と、上記ワークステー
    ションにおいて所定の位置に取り付けられ、各々視野を
    有しているような少なくとも3つの離間されたカメラと
    、 各々の目標点が各々のカメラの視野に入るように上記ワ
    ークステーションで上記物体を移動する手段とを具備し
    、各カメラは、各々の目標点に関連した像データを含む
    像データ平面に形成し、 更に、各像平面内の目標点の位置に関連した位置データ
    を形成する手段と、 上記校正データ及び上記目標点の位置データを一緒に処
    理して、上記固定の座標系に対する上記物体の位置及び
    姿勢に関する合成データを得る手段と、 上記合成データを、上記固定の座標系における上記物体
    の実際の位置と予想位置との差に関連した第1のオフセ
    ットデータセットに変換する手段と、 上記第1のオフセットデータセットをロボットの座標系
    における第2のオフセットデータセットに変換する手段
    と、 上記第2のオフセットデータセットを上記制御器へ転送
    する手段とを具備することを特徴とする装置。
  15. (15)プログラム式のロボット制御器によって制御さ
    れるロボットが該制御器に最初にプログラムされた経路
    とは別の新たな経路に沿って移動して、固定の座標系を
    有するワークステーションで三次元物体を処理すること
    ができるように、上記プログラム式ロボット制御器に経
    路補償データを自動的に供給する装置であって、この補
    償データがワークステーションにある三次元物体の実際
    の位置と予想位置との差に関連したものであるような装
    置において、 上記ワークステーションにおける上記三次元物体の予想
    位置に関する校正データを記憶する手段と、 上記ワークステーションにおいて所定の位置に取り付け
    られ、各々視野を有しているような少なくとも3つの離
    間されたカメラと、 上記物体に非組織化光を当てて、三次元空間に少なくと
    も3つの像を形成する手段と、 各々の目標点が各々のカメラの視野に入るように上記観
    察ステーションで上記物体を移動する手段とを具備し、
    各カメラは、三次元空間の像を、各々の目標点に関連し
    た像データを各々含む3つの像データ平面に変換し、 更に、各像平面内の目標点の位置に関連した位置データ
    を形成する手段と、 上記校正データ及び上記目標点の位置データを一緒に処
    理して、上記固定の座標系に対する上記物体の位置及び
    姿勢に関する合成データを得る手段と、 上記合成データを、上記固定の座標系における上記物体
    の実際の位置と予想位置との差に関連した第1のオフセ
    ットデータセットに変換する手段と、 上記第1のオフセットデータセットをロボットの座標系
    における第2のオフセットデータセットに変換する手段
    と、 上記第2のオフセットデータセットを上記制御器へ転送
    する手段とを具備することを特徴とする装置。
  16. (16)校正データを形成する手段を具備した特許請求
    の範囲第14項又は第15項に記載の装置。
  17. (17)校正データを形成する上記手段は、各々の上記
    カメラの視野内で上記観察ステーションに配置される目
    盛付きの校正器具を備えている特許請求の範囲第16項
    に記載の装置。
  18. (18)上記の器具は、キュービックソリッドを含む特
    許請求の範囲第17項に記載の装置。
JP61129992A 1985-06-04 1986-06-04 三次元物体の位置と姿勢との決定方法と装置 Expired - Fee Related JP2602812B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US741123 1985-06-04
US06/741,123 US4639878A (en) 1985-06-04 1985-06-04 Method and system for automatically determining the position and attitude of an object

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP5354803A Division JP2511246B2 (ja) 1985-06-04 1993-12-22 ロボット制御方法

Publications (2)

Publication Number Publication Date
JPS6254115A true JPS6254115A (ja) 1987-03-09
JP2602812B2 JP2602812B2 (ja) 1997-04-23

Family

ID=24979491

Family Applications (2)

Application Number Title Priority Date Filing Date
JP61129992A Expired - Fee Related JP2602812B2 (ja) 1985-06-04 1986-06-04 三次元物体の位置と姿勢との決定方法と装置
JP5354803A Expired - Fee Related JP2511246B2 (ja) 1985-06-04 1993-12-22 ロボット制御方法

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP5354803A Expired - Fee Related JP2511246B2 (ja) 1985-06-04 1993-12-22 ロボット制御方法

Country Status (3)

Country Link
US (1) US4639878A (ja)
JP (2) JP2602812B2 (ja)
DE (1) DE3618480C2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008511454A (ja) * 2004-09-01 2008-04-17 レニショウ パブリック リミテッド カンパニー 工作機械の方法
JP2010175539A (ja) * 2009-01-27 2010-08-12 General Electric Co <Ge> センサパラメータダウンロードによるセンサの自動較正
US10960424B2 (en) 2015-02-17 2021-03-30 Exel Industries Method for applying a coating product to a component being moved by a conveyor, and coating product application installation
US11565421B2 (en) 2017-11-28 2023-01-31 Fanuc Corporation Robot and robot system

Families Citing this family (146)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6163946A (en) * 1981-05-11 2000-12-26 Great Lakes Intellectual Property Vision target based assembly
US5602967A (en) * 1981-05-11 1997-02-11 Sensor Adaptive Machines, Inc. Vision target based assembly
US6317953B1 (en) * 1981-05-11 2001-11-20 Lmi-Diffracto Vision target based assembly
US5608847A (en) * 1981-05-11 1997-03-04 Sensor Adaptive Machines, Inc. Vision target based assembly
JPS61281305A (ja) * 1985-06-06 1986-12-11 Toyota Motor Corp 多関節ロボツト制御装置
US4750123A (en) * 1985-08-30 1988-06-07 Texas Instruments Incorporated Method for predicting tracking cameras for free-roaming mobile robots
US4754402A (en) * 1985-08-30 1988-06-28 Texas Instruments Incorporated Mobile vehicle controller utilization of delayed absolute position data for guidance and navigation
US4887223A (en) * 1985-08-30 1989-12-12 Texas Instruments Incorporated Visual navigation system for a mobile robot having capabilities of regenerating of hidden images
US4939439A (en) * 1985-09-26 1990-07-03 Unisearch Limited Robot vision and optical location systems
JPH0772844B2 (ja) * 1985-10-23 1995-08-02 株式会社日立製作所 ロボット教示装置
JPS62105811A (ja) * 1985-10-31 1987-05-16 Mazda Motor Corp 板状部材の位置決め搬送装置
US5117348A (en) * 1986-03-28 1992-05-26 The Ingersoll Milling Machine Company Method for alignment of a representative surface to an actual surface for a tape laying machine
FI74556C (fi) * 1986-04-11 1988-02-08 Valtion Teknillinen Foerfarande foer tredimensionell oevervakning av ett maolutrymme.
US4811250A (en) * 1986-05-02 1989-03-07 Applied Power Inc. Deviation measurement system
US4831561A (en) * 1986-06-19 1989-05-16 Tokico Ltd. Work position error detecting apparatus
US4782273A (en) * 1986-08-08 1988-11-01 Control Data Corporation Automatic part location and mechanical testing of part insertion
GB8626499D0 (en) * 1986-11-06 1986-12-10 Busm Co Ltd Treating workpieces
US4899218A (en) * 1987-02-18 1990-02-06 Perceptron, Inc. Vehicle wheel alignment apparatus and method
US4745469A (en) * 1987-02-18 1988-05-17 Perceptron, Inc. Vehicle wheel alignment apparatus and method
US4941182A (en) * 1987-07-29 1990-07-10 Phoenix Software Development Co. Vision system and method for automated painting equipment
US4841460A (en) * 1987-09-08 1989-06-20 Perceptron, Inc. Method and apparatus for calibrating a non-contact gauging sensor with respect to an external coordinate system
EP0308539A1 (de) * 1987-09-25 1989-03-29 Waldrich Siegen Werkzeugmaschinenbau GmbH Verfahren zum Ausrichten einer konkreten bzw. wirklichen Fläche, z. B. einer Form, auf ein internes Koordinatensystem einer sich relativ zu ihr bewegenden Maschine, insbesondere einer Mehrachsen-Bandlegemaschine sowie Positionierungssystem bzw. -vorrichtung zur Durchführung des verfahrens
US4884216A (en) * 1987-11-09 1989-11-28 Michael Kuperstein Neural network system for adaptive sensory-motor coordination of multijoint robots for single postures
US4942538A (en) * 1988-01-05 1990-07-17 Spar Aerospace Limited Telerobotic tracker
EP0323875A3 (en) * 1988-01-08 1989-11-15 Prolion B.V. Ultrasonic detector, methods for searching a moving object, ultrasonic sensor unit, element for positioning an animal, terminal apparatus for an automatic milking system, and method for automatically milking an animal
JP2759324B2 (ja) * 1988-04-23 1998-05-28 ファナック株式会社 ロボットのミラーイメージ方法
US5276777A (en) * 1988-04-27 1994-01-04 Fanuc Ltd. Locus correcting method for industrial robots
US4998050A (en) * 1988-06-13 1991-03-05 Nissan Motor Co., Ltd. System and method for teaching robots
GB2222047A (en) * 1988-07-25 1990-02-21 Unisearch Ltd Optical mapping of field of view and information storage
US4881581A (en) * 1988-09-23 1989-11-21 Hollerback James A Vehicle automatic fueling assembly
US4945493A (en) * 1988-09-26 1990-07-31 Ford Motor Company Method and system for correcting a robot path
US4942539A (en) * 1988-12-21 1990-07-17 Gmf Robotics Corporation Method and system for automatically determining the position and orientation of an object in 3-D space
US5131754A (en) * 1989-09-21 1992-07-21 Kabushiki Kaisha Kobe Seiko Sho Method of and device for detecting position of body
GB8923948D0 (en) * 1989-10-24 1989-12-13 Lk Ltd Calibration of measuring apparatus
US4980971A (en) * 1989-12-14 1991-01-01 At&T Bell Laboratories Method and apparatus for chip placement
JP2646776B2 (ja) * 1989-12-28 1997-08-27 日立工機株式会社 視覚補正位置決め装置
US5198990A (en) * 1990-04-23 1993-03-30 Fanamation, Inc. Coordinate measurement and inspection methods and apparatus
JP2686351B2 (ja) * 1990-07-19 1997-12-08 ファナック株式会社 視覚センサのキャリブレーション方法
JP2779072B2 (ja) * 1991-01-28 1998-07-23 ファナック株式会社 ロボットの教示方法
FR2683036B1 (fr) * 1991-10-25 1995-04-07 Sextant Avionique Procede et dispositif de determination de l'orientation d'un solide.
SE501263C2 (sv) * 1991-12-10 1994-12-19 Asea Brown Boveri Förfarande för kalibrering av rörelseaxlar hos en industrirobot
JPH07503188A (ja) * 1992-02-04 1995-04-06 ファナック ロボティクス ノース アメリカ インコーポレイテッド 軽量ロボット機構
US5331232A (en) * 1992-05-14 1994-07-19 Storage Technology Corporation On-the-fly position calibration of a robotic arm
JP3273443B2 (ja) * 1992-05-22 2002-04-08 本田技研工業株式会社 ロボットのリンクなどの軌道生成方法及び装置
JP3269852B2 (ja) * 1992-05-29 2002-04-02 本田技研工業株式会社 脚式移動ロボットの姿勢安定化制御装置
US5300869A (en) * 1992-07-30 1994-04-05 Iowa State University Research Foundation, Inc. Nonholonomic camera space manipulation
US5428726A (en) * 1992-08-28 1995-06-27 University Of South Florida Triangulation of random and scattered data
WO1994008443A1 (en) * 1992-09-29 1994-04-14 Berg N Edward Method and apparatus for fabricating printed circuit boards
WO1994011795A1 (en) * 1992-11-19 1994-05-26 United Technologies Corporation Method for cnc machining
FR2698306B1 (fr) * 1992-11-24 1994-12-30 Peugeot Procédé et dispositif pour le positionnement relatif d'un robot et d'une pièce sur laquelle le robot doit effectuer une opération donnée.
JP3306781B2 (ja) * 1992-12-31 2002-07-24 株式会社ダイヘン 産業用ロボットの手動操作による教示制御装置および教示方法
FR2706999A1 (en) * 1993-06-21 1994-12-30 Peugeot Calibration method for determining a transfer matrix between sensor means and an object, such as one or more hinges of a motor vehicle body, and device for implementing this method
US5457367A (en) * 1993-08-06 1995-10-10 Cycle Time Corporation Tool center point calibration apparatus and method
US5426722A (en) * 1993-09-09 1995-06-20 Stratasys, Inc. Method for optimizing the motion of a multi-axis robot
DE4330845C1 (de) * 1993-09-11 1994-12-15 Fraunhofer Ges Forschung Verfahren zur Bearbeitung eines Objekts mittels eines mindestens eine Bearbeitungseinheit aufweisenden Bearbeitungsgeräts
JPH07295619A (ja) * 1994-04-25 1995-11-10 Mitsubishi Electric Corp 工作機械の数値制御装置
JPH0816221A (ja) * 1994-06-28 1996-01-19 Fanuc Ltd レーザセンサを用いたロボット教示経路の変更方法
US5675229A (en) * 1994-09-21 1997-10-07 Abb Robotics Inc. Apparatus and method for adjusting robot positioning
US5657228A (en) * 1995-06-07 1997-08-12 Hyundai Motor Company Dynamic behavior test system of a vehicle and method thereof
PT763406E (pt) * 1995-09-15 2000-08-31 Enis Ersu Processo para a determinacao da posicao de um corpo no espaco
JPH09244730A (ja) * 1996-03-11 1997-09-19 Komatsu Ltd ロボットシステムおよびロボットの制御装置
US5943476A (en) * 1996-06-13 1999-08-24 August Design, Inc. Method and apparatus for remotely sensing orientation and position of objects
DE19625361A1 (de) * 1996-06-25 1998-01-02 Jenoptik Jena Gmbh Verfahren und Vorrichtung zur geometrischen Vermessung großer Objekte mit einer Mehrkameraanordnung
US5943089A (en) * 1996-08-23 1999-08-24 Speedline Technologies, Inc. Method and apparatus for viewing an object and for viewing a device that acts upon the object
EP0941450B1 (en) * 1996-09-16 2006-02-15 Snap-on Incorporated Measuring device for use with vehicles
US5943445A (en) * 1996-12-19 1999-08-24 Digital Equipment Corporation Dynamic sprites for encoding video data
JPH10264067A (ja) * 1997-03-28 1998-10-06 Fanuc Ltd 作業線探索機能を備えたロボット−レーザセンサシステム
US6044308A (en) * 1997-06-13 2000-03-28 Huissoon; Jan Paul Method and device for robot tool frame calibration
NL1006896C2 (nl) * 1997-09-01 1999-03-02 Hollandse Signaalapparaten Bv Schip voorzien van een vervormingssensor en vervormingssensor-stelsel voor het meten van de vervorming van een schip.
DE19757763A1 (de) 1997-12-23 1999-07-01 Bosch Gmbh Robert Vorrichtung zum Bestimmen der Rad- und/oder Achsgeometrie von Kraftfahrzeugen
DE19757760A1 (de) * 1997-12-23 1999-07-01 Bosch Gmbh Robert Vorrichtung zum Bestimmen der Rad- und/oder Achsgeometrie von Kraftfahrzeugen
US6101455A (en) * 1998-05-14 2000-08-08 Davis; Michael S. Automatic calibration of cameras and structured light sources
US6377700B1 (en) * 1998-06-30 2002-04-23 Intel Corporation Method and apparatus for capturing stereoscopic images using image sensors
FR2786268B1 (fr) * 1998-11-20 2001-04-13 Cie Europ D Equipements De Gar Installation et procede optiques de determination des positions relatives d'au moins deux objets dans l'espace
DE19909479A1 (de) * 1999-02-09 2000-08-10 Krause Johann A Verfahren zur Positionsermittlung und/oder Steuerung ortsveränderlicher Komponenten von zum Beispiel Bearbeitungseinrichtungen und Vorrichtung zur Durchführung des Verfahrens
ES2166275B1 (es) * 1999-07-30 2003-04-01 Univ Zaragoza Sistema optico de medida de chasis de vehiculos.
US6327520B1 (en) 1999-08-31 2001-12-04 Intelligent Machine Concepts, L.L.C. Planar normality sensor
US6259519B1 (en) 1999-08-31 2001-07-10 Intelligent Machine Concepts, L.L.C. Method of determining the planar inclination of a surface
US6194860B1 (en) * 1999-11-01 2001-02-27 Yoder Software, Inc. Mobile camera-space manipulation
US6601434B2 (en) * 1999-12-02 2003-08-05 Thermwood Corporation System and method of calibrating a multi-toolhead machine
DE20004174U1 (de) * 2000-03-06 2001-07-19 Braun, Hartmut, 76307 Karlsbad Spielgerät, Einrichtung zur Erfassung des Spielgeräts sowie Teile dieser Einrichtung
US6789039B1 (en) * 2000-04-05 2004-09-07 Microsoft Corporation Relative range camera calibration
US7050928B2 (en) * 2004-08-25 2006-05-23 Microsoft Corporation Relative range camera calibration
DE10016963C2 (de) * 2000-04-06 2002-02-14 Vmt Vision Machine Technic Gmb Verfahren zur Bestimmung der Position eines Werkstücks im 3D-Raum
DE10039442A1 (de) * 2000-08-11 2002-02-21 Duerr Systems Gmbh Verfahren und Programmsteuersystem zum Beschichten oder Bearbeiten von Werkstücken längs toleranzbehafteter Pfade
EP1309832B1 (en) * 2000-08-14 2008-10-22 Snap-on Incorporated Self-calibrating 3D machine measuring system useful in motor vehicle wheel alignment
DE10050653A1 (de) * 2000-10-13 2002-05-02 Bosch Gmbh Robert Vorrichtung zum Bestimmen der Rad-und/oder Achsgeometrie
DE10053655A1 (de) * 2000-10-28 2002-05-23 Bernhard Kreuzer Vorrichtung zur Steuerung der Schweißparameter beim Widerstandsschweißen mit manuellen Punktschweißanlagen
DE10164944B4 (de) * 2001-10-15 2013-03-28 Hermann, Dr.-Ing. Tropf Vorrichtung und Verfahren zur Korrektur der Bewegung von Greif- und Bearbeitungswerkzeugen
FI111755B (fi) * 2001-11-23 2003-09-15 Mapvision Oy Ltd Menetelmä ja järjestelmä konenäköjärjestelmän kalibroimiseksi
US6908642B2 (en) * 2002-07-03 2005-06-21 Christopher J. Hubert Method of sealing an aircraft wing
US7024032B2 (en) * 2002-10-31 2006-04-04 Perceptron, Inc. Method for assessing fit and alignment of a manufactured part
DE10257567B4 (de) * 2002-12-10 2015-10-08 GM Global Technology Operations LLC (n. d. Ges. d. Staates Delaware) Verfahren und Computerprogramm und computerlesbares Medium zum computergesteuerten Auftragen von Kleberaupen auf ein Bauteil
US7627197B2 (en) * 2003-04-07 2009-12-01 Honda Motor Co., Ltd. Position measurement method, an apparatus, a computer program and a method for generating calibration information
CZ301255B6 (cs) * 2003-08-01 2009-12-23 Zpusob a zarízení pro urcení polohy objektu v prostoru
JP2005106614A (ja) * 2003-09-30 2005-04-21 Tdk Corp 立体カメラ用校正治具および当該カメラの校正方法
JP4502361B2 (ja) * 2003-09-30 2010-07-14 キヤノン株式会社 指標姿勢検出方法および装置
US7376492B2 (en) * 2003-12-04 2008-05-20 Matrix Electronic Measuring, L.P. System for measuring points on a vehicle during damage repair
US20050175217A1 (en) * 2004-02-05 2005-08-11 Mueller Louis F. Using target images to determine a location of a stage
EP1763421A1 (en) * 2004-03-16 2007-03-21 Abb Ab System of manupulators and method for controlling such a system
US20050227049A1 (en) * 2004-03-22 2005-10-13 Boyack James R Process for fabrication of printed circuit boards
DE102004029279A1 (de) * 2004-06-17 2006-01-12 Daimlerchrysler Ag Werkzeug für einen Industrieroboter eines Handhabungssystems mit einer Messeinrichtung und geeignetes Verfahren zum Prüfen der Positioniergenauigkeit des Industrieroboters
WO2007041696A2 (en) * 2005-10-04 2007-04-12 Alexander Eugene J System and method for calibrating a set of imaging devices and calculating 3d coordinates of detected features in a laboratory coordinate system
US8848035B2 (en) * 2005-10-04 2014-09-30 Motion Analysis Corporation Device for generating three dimensional surface models of moving objects
US8223208B2 (en) * 2005-11-10 2012-07-17 Motion Analysis Corporation Device and method for calibrating an imaging device for generating three dimensional surface models of moving objects
DE102006004197A1 (de) * 2006-01-26 2007-08-09 Klett, Rolf, Dr.Dr. Verfahren und Vorrichtung zur Aufzeichnung von Körperbewegungen
CN101632029A (zh) * 2007-02-23 2010-01-20 格斯图尔泰克股份有限公司 增强的单一传感器位置检测
US8021086B2 (en) * 2007-03-28 2011-09-20 Controlled Automation, Incorporated Drilling apparatus and method
US7864309B2 (en) * 2007-05-04 2011-01-04 Burke E. Porter Machinery Company Non contact wheel alignment sensor and method
DE102007033309A1 (de) * 2007-07-18 2009-01-22 Abb Ag Verfahren zum Bearbeiten einer Kontur an wenigstens einem Werkstück mittels eines Roboters
DE102007047424A1 (de) 2007-10-04 2009-04-09 Robert Bosch Gmbh Kraftfahrzeugbauteil-Vermessungssystem, Verwendung sowie Verfahren
DE102008006329A1 (de) 2008-01-28 2009-07-30 Robert Bosch Gmbh Verfahren und Vorrichtung zum Überprüfen der Referenzierung von Messköpfen eines Fahrwerksvermessungssystems
DE102008000833A1 (de) 2008-03-26 2009-10-01 Robert Bosch Gmbh Messkopf für ein Fahrwerksvermessungssystem, Fahrwerksvermessungssystem sowie Verfahren zum Bestimmen der Lageparameter von Messköpfen eines Fahrwerksvermessungssystems
DE102008000837A1 (de) 2008-03-26 2009-10-01 Robert Bosch Gmbh Fahrwerksvermessungssystem sowie Verfahren zum Bestimmen der Lageparameter von Messköpfen eines Fahrwerksvermessungssystems
JP2010115723A (ja) * 2008-11-11 2010-05-27 Seiko Epson Corp ロボット及びロボットシステム
JP5282014B2 (ja) * 2009-11-18 2013-09-04 本田技研工業株式会社 教示ライン補正装置、教示ライン補正方法、及びそのプログラム
CA2796369A1 (en) * 2010-04-13 2011-10-20 National Research Council Of Canada Laser processing control method
JP6000579B2 (ja) * 2012-03-09 2016-09-28 キヤノン株式会社 情報処理装置、情報処理方法
JP5975685B2 (ja) 2012-03-09 2016-08-23 キヤノン株式会社 情報処理装置、情報処理方法
JP5977544B2 (ja) 2012-03-09 2016-08-24 キヤノン株式会社 情報処理装置、情報処理方法
US9420275B2 (en) 2012-11-01 2016-08-16 Hexagon Technology Center Gmbh Visual positioning system that utilizes images of a working environment to determine position
US9441974B2 (en) 2013-03-15 2016-09-13 Novatel Inc. System and method for calculating lever arm values photogrammetrically
JP6169902B2 (ja) * 2013-06-19 2017-07-26 タカタ株式会社 エアバッグ装置
CN104374321B (zh) * 2014-12-02 2016-09-28 吉林大学 基于点到坐标轴距离约束的汽车形貌检测结构光标定***
CZ2014981A3 (cs) * 2014-12-31 2016-08-10 Vysoká Škola Báňská - Technická Univerzita Ostrava Způsob měření a vyhodnocení prostorového pohybu konstrukčních celků s využitím snímačů vzdálenosti a zařízení k jeho provádění
EP3147086B1 (de) 2015-09-22 2020-11-04 Airbus Defence and Space GmbH Automatisieren von roboteroperationen im flugzeugbau
NL2015542B1 (en) * 2015-10-01 2017-04-20 Rexnord Flattop Europe Bv Planning system and method for maintaining a cycle time in an automobile factory.
US10551180B2 (en) 2016-09-30 2020-02-04 Burke E. Porter Marchinery Company Wheel alignment measurement method and system for vehicle wheels
JP6490037B2 (ja) 2016-10-04 2019-03-27 ファナック株式会社 移動可能な台車に支持されたロボットを備えるロボットシステム
JP6815924B2 (ja) * 2017-04-19 2021-01-20 トヨタ自動車株式会社 キャリブレーション装置
KR102429013B1 (ko) * 2017-07-11 2022-08-03 현대자동차 주식회사 자동 액 주입 시스템
US11072074B2 (en) * 2017-12-13 2021-07-27 Cognex Corporation Calibration and operation of vision-based manipulation systems
CZ2017834A3 (cs) * 2017-12-22 2019-03-06 Ĺ KODA AUTO a.s. Systém pro svařování karoserie automobilu
JP6608977B2 (ja) * 2018-01-25 2019-11-20 ファナック株式会社 物品搬送システム
US11835646B2 (en) 2018-04-30 2023-12-05 BPG Sales and Technology Investments, LLC Target alignment for vehicle sensor calibration
US11781860B2 (en) 2018-04-30 2023-10-10 BPG Sales and Technology Investments, LLC Mobile vehicular alignment for sensor calibration
EP3788341B1 (en) 2018-04-30 2024-02-07 BPG Sales and Technology Investments, LLC Vehicular alignment for sensor calibration
US11597091B2 (en) 2018-04-30 2023-03-07 BPG Sales and Technology Investments, LLC Robotic target alignment for vehicle sensor calibration
US11243074B2 (en) 2018-04-30 2022-02-08 BPG Sales and Technology Investments, LLC Vehicle alignment and sensor calibration system
CN109483539A (zh) * 2018-11-19 2019-03-19 施努卡(苏州)智能装备有限公司 视觉定位方法
US10906184B2 (en) * 2019-03-29 2021-02-02 Mujin, Inc. Method and control system for verifying and updating camera calibration for robot control
CN110052349A (zh) * 2019-05-23 2019-07-26 济南希润自动化科技有限公司 卡车整车自动化涂胶***及涂胶方法
CN111300418B (zh) * 2020-03-13 2021-03-16 易思维(杭州)科技有限公司 装配过程中的间隙面差调整方法
US11325256B2 (en) * 2020-05-04 2022-05-10 Intrinsic Innovation Llc Trajectory planning for path-based applications
US11911915B2 (en) * 2021-06-09 2024-02-27 Intrinsic Innovation Llc Determining robotic calibration processes
CN115682926B (zh) * 2022-09-07 2023-08-29 广东爱吉尔机器人科技有限公司 一种一对多快速手眼标定的方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS56110010A (en) * 1980-02-04 1981-09-01 Yamada Yuki Seizo Kk Detecting method for space coordinates
JPS56125610A (en) * 1980-03-08 1981-10-02 Yamada Yuki Seizo Kk Deformation measuring method of automotive body
JPS6044815A (ja) * 1983-08-23 1985-03-11 Nissan Motor Co Ltd 三次元座標値変換方法

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3618742A (en) * 1970-05-18 1971-11-09 Stanley J Blanchard Automatic object adjustment
US3804270A (en) * 1973-01-12 1974-04-16 Bendix Corp Bulk storage and automatic presenter system with image producing means
US3986007A (en) * 1975-08-20 1976-10-12 The Bendix Corporation Method and apparatus for calibrating mechanical-visual part manipulating system
US4146924A (en) * 1975-09-22 1979-03-27 Board Of Regents For Education Of The State Of Rhode Island System for visually determining position in space and/or orientation in space and apparatus employing same
US4105925A (en) * 1977-03-14 1978-08-08 General Motors Corporation Optical object locator
CA1103803A (en) * 1978-03-01 1981-06-23 National Research Council Of Canada Method and apparatus of determining the center of area or centroid of a geometrical area of unspecified shape lying in a larger x-y scan field
US4187051A (en) * 1978-05-26 1980-02-05 Jerry Kirsch Rotary video article centering, orienting and transfer device for computerized electronic operating systems
US4373804A (en) * 1979-04-30 1983-02-15 Diffracto Ltd. Method and apparatus for electro-optically determining the dimension, location and attitude of objects
US4335962A (en) * 1979-07-20 1982-06-22 Robotic Vision Systems, Inc. Method and apparatus for determining spatial information
US4357108A (en) * 1980-06-06 1982-11-02 Robotic Vision Systems, Inc. Method for reproducton of object surfaces
US4402053A (en) * 1980-09-25 1983-08-30 Board Of Regents For Education For The State Of Rhode Island Estimating workpiece pose using the feature points method
US4380696A (en) * 1980-11-12 1983-04-19 Unimation, Inc. Method and apparatus for manipulator welding apparatus with vision correction for workpiece sensing
JPH065486B2 (ja) * 1981-03-26 1994-01-19 株式会社安川電機 ロボットの軌跡制御方法
US4453085A (en) * 1981-05-11 1984-06-05 Diffracto Ltd. Electro-optical systems for control of robots, manipulator arms and co-ordinate measuring machines
US4396945A (en) * 1981-08-19 1983-08-02 Solid Photography Inc. Method of sensing the position and orientation of elements in space
US4458628A (en) * 1981-09-16 1984-07-10 Toyo Kogyo Co., Ltd. Apparatus for applying adhesive to automobile windshield glass panels
JPS5856003A (ja) * 1981-09-30 1983-04-02 Hitachi Ltd 工業用ロボツトの制御方法
US4456961A (en) * 1982-03-05 1984-06-26 Texas Instruments Incorporated Apparatus for teaching and transforming noncoincident coordinate systems
JPS58177295A (ja) * 1982-04-07 1983-10-17 株式会社日立製作所 ロボット制御装置
US4437114A (en) * 1982-06-07 1984-03-13 Farrand Optical Co., Inc. Robotic vision system
US4590578A (en) * 1983-07-11 1986-05-20 United Technologies Corporation Off-line programmable robot
SE8304101L (sv) * 1983-07-22 1985-01-23 Ibm Svenska Ab System for automatisk kalibrering av rymdkoordinater hos en robotgripper i sex frihetsgrader
JPS6054011A (ja) * 1983-09-03 1985-03-28 Fanuc Ltd 工業用ロボツトの位置制御方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS56110010A (en) * 1980-02-04 1981-09-01 Yamada Yuki Seizo Kk Detecting method for space coordinates
JPS56125610A (en) * 1980-03-08 1981-10-02 Yamada Yuki Seizo Kk Deformation measuring method of automotive body
JPS6044815A (ja) * 1983-08-23 1985-03-11 Nissan Motor Co Ltd 三次元座標値変換方法

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008511454A (ja) * 2004-09-01 2008-04-17 レニショウ パブリック リミテッド カンパニー 工作機械の方法
JP2010175539A (ja) * 2009-01-27 2010-08-12 General Electric Co <Ge> センサパラメータダウンロードによるセンサの自動較正
US10960424B2 (en) 2015-02-17 2021-03-30 Exel Industries Method for applying a coating product to a component being moved by a conveyor, and coating product application installation
US11565421B2 (en) 2017-11-28 2023-01-31 Fanuc Corporation Robot and robot system
US11992962B2 (en) 2017-11-28 2024-05-28 Fanuc Corporation Robot and robot system

Also Published As

Publication number Publication date
JP2511246B2 (ja) 1996-06-26
DE3618480C2 (de) 1995-05-11
US4639878A (en) 1987-01-27
DE3618480A1 (de) 1986-12-04
JPH0713613A (ja) 1995-01-17
JP2602812B2 (ja) 1997-04-23

Similar Documents

Publication Publication Date Title
JPS6254115A (ja) 三次元物体の位置と姿勢を自動的に決定する方法及び装置
EP3706080A1 (en) Automatic calibration for a robot optical sensor
US5828566A (en) Vision assisted fixture construction
US8798794B2 (en) Method and system for highly precisely positioning at least one object in an end position in space
US6166811A (en) Robot-based gauging system for determining three-dimensional measurement data
US6044308A (en) Method and device for robot tool frame calibration
US8346392B2 (en) Method and system for the high-precision positioning of at least one object in a final location in space
US8989897B2 (en) Robot-cell calibration
CN110202573B (zh) 全自动手眼标定、工作平面标定方法及装置
US5160977A (en) Position detection device
CN112907682B (zh) 一种五轴运动平台的手眼标定方法、装置及相关设备
CN113246142B (zh) 一种基于激光引导的测量路径规划方法
CN107953333A (zh) 一种机械手末端工具标定的控制方法及***
CN114001653A (zh) 一种机器人工具中心点标定方法
JPH07237158A (ja) 位置・姿勢検出方法及びその装置並びにフレキシブル生産システム
CN111360789B (zh) 工件加工的示教方法、控制方法及机器人示教***
CN115619877A (zh) 单目线激光传感器与二轴机床***的位置关系标定方法
CN114670199B (zh) 识别定位装置、***、实时跟踪***
Hefele et al. Real-time photogrammetric algorithms for robot calibration
Motta Robot Calibration: Modeling, Measurement and Applications
CN217932765U (zh) 一种机器人面结构光立体相机位姿在线标定装置
WO2023135764A1 (ja) 3次元センサを備えるロボット装置およびロボット装置の制御方法
CN217833667U (zh) 机器人校准***
TWI788134B (zh) 用於自動控制設備之校正裝置與校正方法
EP1190207A1 (en) Measurement apparatus for measuring the position and orientation of a first part to be worked, inspected or moved

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees