JP6503153B2 - ビジョンシステムにおいて3dアライメントアルゴリズムを自動選択するためのシステム及び方法 - Google Patents

ビジョンシステムにおいて3dアライメントアルゴリズムを自動選択するためのシステム及び方法 Download PDF

Info

Publication number
JP6503153B2
JP6503153B2 JP2017140389A JP2017140389A JP6503153B2 JP 6503153 B2 JP6503153 B2 JP 6503153B2 JP 2017140389 A JP2017140389 A JP 2017140389A JP 2017140389 A JP2017140389 A JP 2017140389A JP 6503153 B2 JP6503153 B2 JP 6503153B2
Authority
JP
Japan
Prior art keywords
training
image
alignment
algorithm
features
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017140389A
Other languages
English (en)
Other versions
JP2018055674A (ja
Inventor
バーカー サイモン
バーカー サイモン
ジェイ.マイケル デイヴィッド
ジェイ.マイケル デイヴィッド
Original Assignee
コグネックス・コーポレイション
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by コグネックス・コーポレイション filed Critical コグネックス・コーポレイション
Publication of JP2018055674A publication Critical patent/JP2018055674A/ja
Application granted granted Critical
Publication of JP6503153B2 publication Critical patent/JP6503153B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/344Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • G06T7/85Stereo camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/506Illumination models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/0006Industrial image inspection using a design-rule based approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/35Determination of transform parameters for the alignment of images, i.e. image registration using statistical methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/77Determining position or orientation of objects or cameras using statistical methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • H04N13/232Image signal generators using stereoscopic image cameras using a single 2D image sensor using fly-eye lenses, e.g. arrangements of circular lenses
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/56Particle system, point based geometry or rendering

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Geometry (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Description

本出願は2016年1月8日に出願された「ビジョンシステムにおいて3Dアライメントアルゴリズムを自動選択するためのシステム及び方法」と題する同時係属米国特許仮出願第62/369,702号の利益を主張するものであり、その教示内容は参照により本明細書に組み込まれる。
本発明はマシンビジョンシステムに係り、より具体的には訓練された3Dパターンを基準にして3次元(3D)画像特徴を特定してアライメントするビジョンシステムに関する。
本明細書で「ビジョンシステム」とも呼ばれるマシンビジョンシステムは、製造環境において多様なタスクを実行するために使用される。一般にビジョンシステムは、製造中のオブジェクトを包含するシーンのグレースケール、カラー画像及び/又は3次元(3D)画像を取得する画像センサ(又は「イメージャ」)を備えた1台以上のカメラアセンブリからなる。オブジェクトの画像を分析してデータ/情報をユーザ及び関連する製造工程に提供することができる。カメラによって生み出されるデータは通常ビジョンシステムにより1台以上のビジョンシステムプロセッサで分析及び処理することができ、ビジョンシステムプロセッサはそれ専用に製造されたものであるか、或いは汎用コンピュータ(例えばPC、ラップトップ、タブレット又はスマートフォン)内で作成される1以上のソフトウェアアプリケーションの一部であってよい。
ビジョンシステムの共通タスクは、アライメントと検査を含む。アライメントタスクにおいてビジョンシステムツール、例えばコグネックス社(マサチューセッツ州ネイティック)から市販されている周知のPatMax(登録商標)システムは、あるシーンの2次元(2D)画像内の特徴を(実際のモデル又は合成モデルを用いて)訓練された2Dパターンと比較して、2D撮像されたシーンにおける2Dパターンの存在/欠如及びポーズを決定する。この情報は後続の検査(又は他の)操作に使用して欠陥を探し及び/又は部品拒否など他の操作を行うことができる。
ビジョンシステムを用いる特定のタスクは、実行時に訓練された3Dモデル形状に基づいて3次元(3D)ターゲット形状をアライメントすることである。3Dカメラは多様な技術、例えばレーザ変位センサ(プロファイラ)、立体カメラ、ソナー、レーザ又はLIDARレンジ検出カメラ、ToFカメラ、及びその他の多様な受動的及び能動的レンジ検出技術に基づくことができる。そのようなカメラはレンジ画像を生み出し、そこにおいて画像ピクセルの配列(典型的には直交するx軸とy軸に沿った位置として特徴付けられる)が作られ、これはまた各ピクセルに対する第3の次元(高さ)(典型的にはx−y面に対して垂直な軸に沿った位置として特徴付けられる)も含んでいる。或いは、そのようなカメラは撮像されたオブジェクトのポイントクラウド表現を生成できる。ポイントクラウドは、各ポイントiが(Xi、Yi、Zi)として表わすことができる空間における3Dポイントの集合である。ポイントクラウドは、オブジェクトの背面及び側面、頂面と底面を含む完全な3Dオブジェクトを表現できる。3Dポイント(Xi、Yi、Zi)は、オブジェクトがカメラに見える空間内の位置を表す。この表現において空の空間はポイントが存在しないことによって表される。
比較により、3Dレンジ画像表現Z(x、y)は2D画像表現I(x、y)に類似しており、奥行又は高さZは画像内の位置x、yにおける輝度/明度Iに相当するものに取って代わる。唯一奥行のみが任意のポイント位置x、yと関連しているので、レンジ画像は専ら直接カメラに対面するオブジェクトの正面を表現する。レンジ画像は典型的にオブジェクトの背面又は側面、頂面又は底面を表現できない。レンジ画像は典型的にカメラにそのような位置の情報が欠けている場合も、あらゆる位置(x、y)のデータを有する。レンジ画像は当業者にとって明白なやり方で3Dポイントクラウドに変換することが可能である。
取得された又は合成(例えばCAD)プロセスによって生成されたターゲット画像を(やはり取得又は合成された)モデル画像にアライメントする際に、1つの手法は最もよく一致するポーズを見つける努力においてターゲット3Dポイントクラウドのモデルとの一致/比較を伴う。この比較は、モデルを基準にしたターゲットのカバレッジのスコアリングを含むことができる。ある閾値を超えるスコアは受入れ可能な一致/ポーズ推定と見なされ、この情報はアライメント結果を生成するために使用される。それにもかかわらず3D画像に基づいてアライメント結果を正確かつ効率的に生成することは困難である。
3Dレンジ画像又は3Dポイントクラウド画像で3Dオブジェクトをアライメントすることは、それぞれそれらのオブジェクトの3D形状に適した1以上の3Dアライメント(登録)アルゴリズムを用いて最もよく達成される。不適切な3Dアライメントアルゴリズムが使用されると、3Dアライメント手順は失敗するか、或いは不十分に実行されて不正確な結果ポーズを見つけるか、若しくは結果を全く見つけないことがある。現在用いられている手法は典型的に、ユーザがどのアルゴリズムがどの関心のあるオブジェクト又は応用状況に適しているかの詳細を理解して、セットアップ時にビジョンシステムインタフェースによって提供された適切なアライメントアルゴリズムを手動で選択する(或いはビジョンシステムによって提供されたモジュールから選んでアルゴリズムをアセンブルする)ことを強いる。
本発明は、3Dポイントクラウド画像又は3Dレンジ画像として定義された訓練された3Dモデルを基準に3Dオブジェクトをアライメントする際に使用する適切な3Dアライメント(登録)アルゴリズムを自動的に選択するためのシステム及び方法を提供することによって先行技術の難点を克服する。このシステムは、訓練時にビジョンシステムのインタフェースを介して自動的に選択される3Dアライメントアルゴリズムを提供する。例を挙げると、アルゴリズムは面法線の高分散を有する画像で使用するのにより適している反復最近傍点(ICP)アルゴリズムと、エッジを含み、面法線の比較的にユニモーダルな分布を有するオブジェクトの形状を分析するのにより適しているICPとエッジ特徴に基づくアルゴリズムのハイブリッドを含むことができる。システムは訓練時に訓練された3D画像を分析して、それがどのタイプの形状を表わしているか決定し、適切なアルゴリズムを選択する。この訓練時選択は実行時に使用するために保存されて、訓練されたモデル3D画像を基準にして実行時オブジェクトを分析する際に用いられる。代替的に、多数のアルゴリズムを訓練でき、自動選択を実行時操作まで延期できる。
例示的な実施形態において、3Dビジョンシステムにおいて3Dアライメントアルゴリズムを選択するためのシステム及び方法が提供される。このシステム及び方法は、実行時オブジェクトの特徴を有する3Dポイントクラウド又は実行時3Dレンジ画像によって定義された少なくとも1つの実行時画像を取得するための3Dカメラアセンブリと、ビジョンシステムプロセッサを含む。訓練画像が提供される。訓練画像はモデルの特徴を有する3Dポイントクラウド又は3Dレンジ画像によって定義される。選択プロセスはビジョンプロセッサによって操作される。ビジョンプロセッサは、モデルの特徴を有する訓練画像の少なくとも1つの訓練領域を分析して、少なくとも1つの訓練領域で面法線の分布を決定する。ビジョンプロセッサはまた分布の性格に基づいて、複数の利用可能な3Dアライメントアルゴリズムから少なくとも1つの3Dアライメントアルゴリズムを選択して、実行時オブジェクトの特徴に対して(基準にして)モデルの特徴をアライメントする。例示的に、選択プロセスは訓練が実行される訓練画像内で少なくとも1つの訓練領域の位置を特定するように構成されており、訓練画像は3Dカメラアセンブリによって取得されるか又は合成画像として提供される。選択された3Dアライメントアルゴリズムは、3Dコースアライメントプロセス(粗いアライメント)と3Dファインアライメントプロセスの少なくとも1つで実行時オブジェクトの特徴を基準にしてモデルの特徴をアライメントする。分布の性格は面法線のユニモーダル分布と比べた分散の程度であってよく、選択プロセスは分散の程度を閾値と比較するように構成されている。例示的に、分散が高閾値より高い場合は、選択プロセスはICPアルゴリズムを選択するように構成されている。反対に、分散が低閾値より低い場合は、選択プロセスはエッジベースのアルゴリズムとICPのハイブリッドを選択するように構成されている。高閾値と低閾値の少なくとも1つは、(a)自動化されたプロセス又は(b)ユーザ指定のプロセスの少なくとも1つによって設定される。また、自動化されたプロセスとユーザ指定のプロセスの少なくとも1つは、訓練画像内のオブジェクトのタイプに基づいている。例示的に、分散が高閾値と低閾値の間にある場合は、選択プロセスはユーザに少なくとも1つの3Dアライメントアルゴリズムを選択することを促すように構成されている。種々の実施形態において、3Dカメラアセンブリは実行時オブジェクトを包含するシーンを撮像するために、離間した位置に配置された複数の離散的3Dカメラを含むことができる。代替的に、3Dカメラアセンブリは、多様な3D画像取得技術の1つを用いる離散的3Dカメラを含むことができる。例示的に、高閾値が低閾値より低く設定され、分散が高閾値と低閾値の間にある場合は、一方又は両方のアルゴリズムを訓練できる。
以下に本発明を添付の図面を参照して説明する。
訓練又は実行時にオブジェクトの画像を取得して、ビジョンシステムによって適切な3Dアライメント(登録)アルゴリズムが自動的に選択される、1台以上の3Dカメラアセンブリを含むビジョンシステムの概念図である。
例示的な実施形態による、訓練時に3Dポイントクラウド画像又はレンジ画像内の所定の特徴に使用するための適切な3Dアライメントアルゴリズムを自動的に選択する手順を示すフローチャートである。
3D特徴の周囲に設けられた境界ボックス及び各模範的特徴セットの3D表面ジオメトリと関連する面法線を示す模範的なユーザインタフェーススクリーンの概念図である。
図2による、3Dアライメントアルゴリズムの選択において閾値を決定するための例示的な手順のフローチャートである。
例示的な実施形態による、実行時に図2の手順から選択された3Dアライメントアルゴリズムを適用するための手順のフローチャートである。
図1は、1台以上の3Dビジョンシステムカメラアセンブリ120及び130の視野(FOV)内で撮像された、オブジェクト110の表面112の特徴の検査及び/又は分析に使用するためのマシンビジョンシステム構成(本明細書では「ビジョンシステム」とも呼ばれる)100を示している。各カメラアセンブリ120、130は、3D撮像のためのコンポーネントの任意の受入れ可能な構成であってよい。カメラアセンブリ120、130は各々オブジェクト表面112の3D「レンジ画像」を構成する第3の直交次元(例えば各々のカメラの座標系128、138のそれぞれのz、z軸に沿った高さ)を決定するように適合されている。それぞれの画像ピクセルについて高さデータを生成するために多様な技術、例えばレーザ変位センサ(プロファイラ)、立体カメラ、ソナー、レーザ又はLIDARレンジ検出カメラ、ToFカメラ、及びその他の多様な受動的及び能動的レンジ検出技術を用いることができる。全体構成においては単一のカメラアセンブリ又はより多くの数の(例えば3台以上の)カメラアセンブリを用いることができ、また本明細書ではオブジェクト表面の3Dポイントクラウド又はレンジ画像表現を生成するための1台以上の離散的3Dカメラアセンブリからなる全体構成を記述するために代替的に「3Dカメラアセンブリ」という言葉を使用できることに留意されたい。
図示されていないが、3Dレンジ画像又はポイントクラウドを生成するために用いられる3Dカメラアセンブリの1つの模範的なタイプはレーザ変位センサであり、これはレーザ光(又は他の構造化された照明)の扇形をオブジェクト表面112に投影して(例えばx軸方向に対して横断方向に向けられた)ラインを形成し、投影されたラインからレーザ変位センサのそれぞれのイメージャ126、136で反射光を照明扇形の平面とそれぞれのイメージャの光学軸OA、OAとの間の相対的角度(鋭角)(A)で受け取る。上述したように、使用されるレンジ又は高さ情報を生成するために他の様態も使用でき、例えばLIDAR、構造化された照明システム、立体ビジョンシステム(例えば1対の離間したカメラ120及び130)、DLP計測などを含む。これらのシステムはすべてピクセルに高さ値(例えばz座標)を与える画像を生成する。
典型的な構成において、3Dカメラアセンブリ120及び/又はオブジェクト110は相対的に(例えば1台以上のカメラの物理的y軸座標方向で)運動できるので、オブジェクト表面112はレーザ変位センサによってスキャンされて、レーザラインの一連の画像が所望された空間的間隔で、典型的には運動情報140をシステムビジョンプロセッサ(150、以下に説明する)に送るモーションコントローラ及び関連するエンコーダ又は他の運動測定デバイスと連携して(或いは時間ベースの間隔で)取得される。これに関して、運動方向に沿ったオブジェクト上のポイントの位置は、座標Yiとして定義される。3Dカメラアセンブリによって取得されるポイント(Xi、Yi、Zi)の集合は、ポイントクラウドとして定義される。他の実施形態では、3Dカメラアセンブリはオブジェクトに対して相対的に運動しない。
カメラ本体124、134は、関連するビジョンプロセスを操作するビジョンシステムプロセッサ150を構成する種々の画像処理コンポーネントを含むことができる。ビジョンプロセッサ150はシーン及び/又は他のソース(例えばモデルのCAD表現)の取得した画像に基づく画像データ142上で作動し、ビジョンシステムツールする及びプロセス152を用いて取得した画像から情報を抽出できる。この情報は関心のある特徴及び画像内に現れる他のアイテムに関係づけることができ、例えば米国マサチューセッツ州ネイティック市のコグネックス株式会社から市販されている既知のPatMax(登録商標)などのビジョンシステムツールを使用して、画像内の2D及び3D特徴を解析して、相対的ポーズ、アライメント及び他のディテール、例えば、エッジ、ブロブなどに関する情報を提供することができる。ビジョンシステムプロセスの一部又は全部をカメラアセンブリ120、130の本体124,134内で実行できるが、プロセスの一部又は全部を(有線又は無線で)相互接続されたコンピューティングデバイス/プロセッサ160、例えば適切なユーザインタフェース(マウス/キーボード)162及び/又はディスプレイ164(例えばタッチスクリーン)を有する専用プロセッサ又は汎用コンピュータ(例えばサーバー、PC、ラップトップ、スマートフォン、タブレットなど)によって実行できることが明確に想定されている。相互接続されたコンピューティングデバイス/プロセッサ160は、処理された画像データを用いて更にユーティライゼーションプロセス若しくはタスクを、通信リンク166又は他のインタフェース構成を通して実行できる。例えばビジョンシステムが検査タスクを実行する場合に、これらの情報を用いて品質管理情報をデータベースに送ったり、加工ライン上の欠陥品を拒否したりできる。情報はオブジェクト上のラベル及び/又はIDコードを読み取ることによって(例えば)物流用途にも使用できる。以下に述べるように、ユーティライゼーションタスクは、3Dアライメント情報168の使用を含む。
訓練プロセス(プロセッサ)又はモジュール154は、特徴を定義する3Dレンジ画像又はポイントクラウドデータからなる1以上の3Dモデル/表現の訓練と保存を扱い、これらの特徴はモデルを実行時(ターゲット)オブジェクトの実行時3Dレンジ画像又はポイントクラウド画像から見つけた特徴とアライメントするのを容易にする。訓練されたモデルは、オブジェクトのスコアリング及び偽ポイント除去、特定のオブジェクトの異なる部分又は向き及び/又は多数のオブジェクトで見いだされた特徴を包含できる。
例示的な実施形態において、ビジョンプロセス及びプロセッサ150は、モデルの特徴と実行時(ターゲット)3D画像の特徴とのアライメントを試みる適切なアライメントアルゴリズム(又はプロセス)を用いるアライメントプロセス(プロセッサ)又はモジュール156を含んでいる。アライメントプロセス(プロセッサ)156と訓練プロセス(プロセッサ)154は、各々3Dアライメントアルゴリズム選択プロセス(プロセッサ)又はモジュール158と相互作用し、これは3Dレンジ画像か又は3Dポイントクラウド画像でモデルの3D表面特徴を分析して、複数の3Dアルゴリズムのどれが表面形状に最も適しているか決定する。
図2の訓練手順200を参照して、システムは訓練時にモデルの画像を3Dポイントクラウド又はレンジ画像として取得するか又は提供される。この画像はモデル/訓練オブジェクトを1つ以上の向きで包含するシーンを撮像するか、又はオブジェクト及び/又はオブジェクト部分の「合成」(例えばCAD)表現を提供することによって生み出すことができる。ステップ212で実際の画像又は合成画像はインタフェースを介してユーザに訓練プロセスの一部として提供され得る。ステップ212は任意的であり、画像はオブジェクトのタイプ又は閾値設定に関してユーザが何ら入力することなく直接システムに提供されることに留意されたい。代替的に、閾値はビジョンシステムツールを用いてオブジェクトのタイプ又は表面特徴の自動化された特定に基づいて設定され得る。をインタフェースを用いる場合は、画像は一般的に図3のディスプレイ300に示されているように表示される。ユーザは画像を操作することができ、これはそれぞれ画像312及び322の周囲の境界ボックス310及び320によって図示されているように、訓練オブジェクトの一部又は全部の周囲に境界ボックスを配置することを含む(ステップ214)。境界ボックスの寸法と形状はユーザによって決定されることができ、又は関心領域は当業者には自明であるはずの自動化された機構によって囲むこともできる。代替的に、関心領域及びこれに対応する訓練特徴は、CADデータのソースによって、又は他の何らかの様態による画像データによって/と共に提供され得る。分析する関心領域を囲むことによって、アライメントプロセスはアライメントに関係しないモデル特徴及び/又はモデルから分離した背景特徴を除外する。代替的に、取得された全画像をモデルに使用できる。
手順200のステップ216において、アルゴリズム選択プロセス(プロセッサ)(図1の158)は、囲まれた関心領域(310、320)内の特徴上に面法線を決定し、そのような面法線の分布(ステップ218)を用いて当該オブジェクト及び分布に対する適切なアライメントアルゴリズムを決定する。
図3に示されているように、モデル312、322の図示されている表面(実際には3Dレンジ画像又は3Dポイントクラウドとして定義される)は、それぞれの表面に沿った局所的ポイントにおける垂線を表わす面法線のセットを含んでいる。法線の粒度は、極めて可変である。一般に、それは訓練時にユーザが指定するパラメータの一部であるか、又は訓練時に(例えば)当業者には自明な技術を用いてアライメントシステムによって自動的に決定できる。一般に、システムは種々のタイプの表面及び/又は通常システムが出会うオブジェクト(例えばボルト、ボール、コンピュータスクリーン、回路チップ、瓶、缶、キャップなど)のクラスに対するパラメータのセットを保存できる。そのような品目に対して所定のパラメータが設けられる。代替的に、特定のモデルに対してユーザにより特殊なパラメータが設定され、又は自動的に決定され得る。パラメータはまたモデルの特定の向きに対しても設定できる。例えば瓶は側方から見るのと上方から見るのとでは異なって見える。
図4を参照して、面法線の分布を分析することによってアルゴリズムを選択するための模範的な手順400が設けられている。この手順は法線が互いに示す角度変化の大きさを測定し、この測定をアルゴリズム選択の基礎として用いる。上述したように手順は各領域における面法線を決定する(ステップ410)。法線は法線方向の共分散マトリクスを形成するために使用される。例示的に、方向は極座標としてラジアンで表されるために分散は直線状である(ステップ420)。共分散マトリクスが分解されてその固有値が決定される(ステップ430)。固有値は加算でき、この合計が適切な3Dアルゴリズムを決定する閾値化操作(ステップ440)で使用される。より一般的に、手順400はある領域における法線の分布が統計的にユニモーダルであるか決定することを試みる。分布を決定するために、当業者には自明であるはずの他の技術を用いることができる。とりわけ、アルゴリズムを決定するために使用される閾値は、オブジェクトのタイプ又は表面及びオブジェクトの向きによって影響を与えることができるが、これらはユーザが入力するか又は自動的に決定される(オブジェクトタイプがビジョンシステムによって確実に特定される場合)。
図2の訓練手順200において、分布が決まったレンジの外にある場合があり(決定ステップ240及び分岐242)、その結果としてシステムはプロセスで使用するための適切な3Dアライメントアルゴリズムを確定できない。そのため手順200は、ステップ250でこの不確かな結果を掲げる。そのような場合、ユーザはインタフェースによってアルゴリズムを手動で選択するように促されるか(ステップ252)、又はこの決定を実行時まで延期することができる。決定(ステップ230)が閾値の範囲内で行われた場合(決定ステップ240)、手順260で実行時に訓練されたモデルで使用するための適切な3Dアライメントアルゴリズムを自動的に選択する。代替的に、手順は.複数のアルゴリズムが最も効果的/効率的に作動できるように決定して、実行時間が一番短いものを選択することができる。ステップ270で、自動又は手動技術によるアルゴリズムの選択は実行時に使用するために保存される。
分布決定の結果がある閾値の範囲外にある場合は、与えられたモデル上で多数のアルゴリズムも訓練できることに留意されたい。この場合は、1つのアルゴリズムの最終的な選択は、実行時操作まで延期され、場合により、アライメントと、どのアルゴリズムがより良いアライメント結果を生成するかの決定の両方を達成することを試みる。
非限定的な例として、2つの通常の3Dアライメントアルゴリズムは、ICPとエッジベース/ICPのハイブリッドである。ICPアルゴリズムにおいては、1つの3Dポイントクラウド、参照ポイントクラウド又はターゲットは固定されている一方で、他の3Dポイントクラウド即ちソースは、ターゲットに最もよく一致するように変換される。アルゴリズムは、ソースから参照ポイントクラウドまでの距離を最小化するために必要とされる変換(並進と回転の組み合わせ)を反復的に修正する。ソースを参照ポイントクラウドにアライメントするための変換の初期推定があることができ、反復を停止するための1つ以上の基準が提供される。アルゴリズムは精緻化された変換(結果ポーズ)を出力する。操作においてアルゴリズムは次のように進行する。
ソースポイントクラウド内の各ポイントについて、参照ポイントクラウドにおける最も近いのポイントを見つける。
平均平方誤差費用関数を用いて、各ソースポイントを前段ステップで見いだされた一致に最もよくアライメントする回転と並進の組み合わせを推定する。
獲得された変換を用いてソースポイントを変換する。
反復してポイントを再結合する。
ICPアルゴリズムは、面法線分布分散が高い場合に(例えばモデル322)(与えられた「高」閾値以上)、あるオブジェクト形状にとって有用である。反対に、ICPとエッジベースのアルゴリズムのハイブリッドは、分散が小さい場合に(与えられた「低」閾値以下)(例えばモデル312)、より望ましい。エッジベースのアライメント原理(例えば3Dエッジ検出を使用してモデルと実行時画像との間で一致した3D特徴を創出する)とICPを組み合わせて用いる多様なアルゴリズムが利用できる。例を挙げると、法線間の分散が低い平坦な表面又は箱状の表面は、ICPアルゴリズムがソースとターゲットの法線のアライメントを反復しようと試みると失敗するであろう。反対に、そのような3D構造で見いだされた3Dエッジは、ソースとターゲットのアライメントに対する強力な制約を形成できる。従ってアルゴリズムは(例えば)最初にアライメントするためにエッジベースのプロセスを採用し、エッジアライメントされたソースとターゲットの制約内でICPを採用できる。有益な背景情報として、ICP及び関連する3Dアライメントアルゴリズムを用いる3Dアライメントの記述は、ホルツ他「ポイントクラウドライブラリの登録」(IEEEロボット工学及び自動化マガジン、110−124ページ、2015年9月16日)によって提供されている。
訓練時にモデルを基準にして選択された1つ以上の3Dアライメントアルゴリズムを保存した後、取得された画像のモデルと特徴をアライメントするための実行時手順500を図5に示して説明する。ステップ510で、1つ以上の実行時オブジェクトが1台以上の3Dカメラの視野内に配置され、シーンの1つ以上の画像が取得される。ステップ520で、訓練ステップから保存された選択情報を用いて適切なアライメントアルゴリズムを選択する(これはコースアライメントの前又は後で行うことができる)。代替として、訓練時に3Dアルゴリズムの離散的選択が行われない場合は、実行時にユーザはオブジェクトの実行時画像のための最良のアルゴリズムを特定するよう促される。ステップ530でコースアライメントが実行されて、オブジェクトの特定された特徴がモデル特徴で粗く登録される。これは実行時画像における特徴を種々のモデルと比較して最も近い一致、例えば実行時特徴の向きに最も近いモデルの向きを提供することを含んでよい。コースアライメントは、他の粗い登録技術と並んで、エッジのアライメント又はソースとターゲットの面法線の比較に基づくことができる。選択に基づいて、3Dアライメントはステップ540で精緻化され、実行時手順500は3Dアライメント結果をステップ550に戻す。3Dファインアライメントは選択されたアルゴリズム又は他の技術に基づくことができ、(任意的に)専ら3Dコースアライメントステップで自動的に選択されたアルゴリズムが用いられる。反対に、選択されたアルゴリズムは3Dコースアライメントと3Dファインアライメントの両方で用いることができる。代替的に、コースアライメント(例えばエッジベース)に1つのタイプのアルゴリズムを採用でき、3Dファインアライメントに別のタイプのアライメント(例えばICP)を使用できる。
特殊なタイプのアライメントタスク及び関連するモデルジオメトリに対して追加のアルゴリズムを使用でき、これらは実行時のコースアライメント又はファインアライメントで使用するために訓練時のモデルのタイプと関連付け得ることが明確に想定されていることに留意されたい。例えば、ある3D形状を2D画像に分解し、ビジョンツールを使ってエッジベースのアフィン変換を適用することである(図1の152)。
上述したシステム及び方法が、3Dアライメントシステムを訓練して、複数の選択肢がある場合に自動的に適切な3Dアライメントアルゴリズムを選択するために用いる簡便で効果的な技術をユーザに提供することは明白であろう。このシステム及び方法により、全オブジェクトの種々異なる部分及びオブジェクトの種々異なる向きに種々異なるアルゴリズムを用いることが可能になり、その結果として最も効率的な解決が提供される。このシステム及び方法はまた自動的に特定の選択が行われない状況において、ユーザが訓練時又は実行時に1つ以上のアルゴリズムを選択することを可能にする。
以上、本発明の例示的な実施形態を詳細に説明した。本発明の精神と範囲を逸脱することなく種々の改変及び追加を行うことができる。上述した種々の実施形態の各々の特徴は、関連する新しい実施形態において多数の特徴の組み合わせを提供するのに適する限り、別の記載された実施形態の特徴と組み合わされてよい。更に、上に本発明の装置と方法の多数の別個の実施形態を記したが、ここに記載されたものは本発明の原理の応用を例示したものに過ぎない。例えば、本明細書で使用される様々な方向及び/又は向きを表わす用語、例えば、「垂直」、「水平」、「上」、「下」、「底部」、「頂部」、「側部」、「前部」、「後部」、「左」、「右」及びこれに類するものは、相対的な表現法として用いられているに過ぎず、重力の作用方向など固定した座標系を基準とした絶対的な向きを表わすものではない。更に、図示されたプロセス又はプロセッサは他のプロセス及び/又はプロセッサと組み合わせ、又は種々のサブプロセス又はサブプロセッサに分割されてよい。そのようなサブプロセス及び/又はサブプロセッサは、本明細書に記載された実施形態に従って多様に組み合わせることができる。同様に、本明細書中の何らかの機能、プロセス及び/又はプロセッサは、プログラム命令の非一時的コンピュータ可読媒体からなる電子ハードウェア、ソフトウェア、或いはハードウェアとソフトウェアの組み合わせを用いて実施できることが明確に想定されている。従ってこの説明は例示の方法によるものであり、本発明の範囲を別途制限することを意味するものではない。
以下に特許請求の範囲を記載する。

Claims (20)

  1. 3Dビジョンシステムにおいて3Dアライメントアルゴリズムを選択するためのシステムであって、
    当該システムは3Dカメラアセンブリとビジョンシステムプロセッサとを有し、
    前記3Dカメラアセンブリは、少なくとも、実行時オブジェクトの特徴を有する3Dポイントクラウド又は実行時3Dレンジ画像によって定義される実行時画像を取得し、
    前記ビジョンシステムプロセッサは選択プロセスを操作するものであって、前記選択プロセスは(a)モデルの特徴を有する3Dポイントクラウド又は3Dレンジ画像によって定義される訓練画像の少なくとも1つの訓練領域を分析して、前記少なくとも1つの訓練領域における面法線の分布を決定し、(b)前記分布の性格に基づいて、実行時オブジェクトの特徴に対してモデルの特徴をアライメントするために利用可能な複数の3Dアライメントアルゴリズムから少なくとも1つの3Dアライメントアルゴリズムを選択するものである
    上記システム。
  2. 前記選択プロセスは、訓練が実行される訓練画像内で少なくとも1つの訓練領域の位置を特定するように構成されている、請求項1に記載のシステム。
  3. 前記訓練画像は、3Dカメラアセンブリによって取得されるか、又は合成画像として提供される、請求項1に記載のシステム。
  4. 上記少なくとも1つの3Dアライメントアルゴリズムは、3Dコースアライメントプロセスと3Dファインアライメントプロセスの少なくとも1つにおいて前記実行時オブジェクトの特徴に対して前記モデルの特徴をアライメントする、請求項1に記載のシステム。
  5. 前記分布の性格は面法線のユニモーダル分布と比べた分散の程度であり、前記選択プロセスは分散の程度を閾値と比較するように構成されている、請求項1に記載のシステム。
  6. (a)分散が高閾値より高い場合は、選択プロセスはICPアルゴリズムを選択するように構成され、(b)分散が低閾値より低い場合は、選択プロセスはエッジ特徴に基づくアルゴリズムとICPアルゴリズムのハイブリッドを選択するように構成される、請求項5に記載のシステム。
  7. 少なくとも1つの高閾値と低閾値は、(a)自動化されたプロセス又は(b)ユーザ指定のプロセスの少なくとも1つによって設定される、請求項6に記載のシステム。
  8. 自動化されたプロセスとユーザ指定のプロセスの少なくとも1つは、訓練画像内のオブジェクトのタイプに基づいている、請求項7に記載のシステム。
  9. 前記分散が高閾値と低閾値の間にある場合、選択プロセスはユーザに少なくとも1つの3Dアライメントアルゴリズムを選択することを促すように構成されている、請求項6に記載のシステム。
  10. 前記3Dカメラアセンブリは、実行時オブジェクトを包含するシーンを撮像するために離間した位置に配置された複数の離散的3Dカメラを含む、請求項1に記載のシステム。
  11. 3Dビジョンシステムにおいて3Dアライメントアルゴリズムを選択するための方法であって、
    3Dカメラアセンブリにより、実行時オブジェクトの特徴を有する3Dポイントクラウド又は実行時3Dレンジ画像によって定義される実行時画像、を取得するステップと、
    ビジョンシステムプロセッサにより、(a)モデルの特徴を有する3Dポイントクラウド又は3Dレンジ画像によって定義される訓練画像の少なくとも1つの訓練領域を分析して、前記少なくとも1つの訓練領域における面法線の分布を決定し、(b)前記分布の性格に基づいて、実行時オブジェクトの特徴に対してモデルの特徴をアライメントするために利用可能な複数の3Dアライメントアルゴリズムから少なくとも1つの3Dアライメントアルゴリズムを選択する、選択ステップと、
    を含む方法。
  12. 前記選択ステップは、訓練が実行される訓練画像内で少なくとも1つの訓練領域の位置を特定する、請求項11に記載の方法。
  13. 前記訓練画像は、3Dカメラアセンブリによって取得されるか、又は合成画像として提供される、請求項11に記載の方法。
  14. 更に、前記少なくとも1つの3Dアライメントアルゴリズムで、3Dコースアライメントプロセスと3Dファインアライメントプロセスの少なくとも1つにおいて前記実行時オブジェクトの特徴に対して前記モデルの特徴をアライメントすることを含む、請求項11に記載の方法
  15. 前記分布の性格は面法線のユニモーダル分布と比べた分散の程度であり、前記選択ステップは分散の程度を閾値と比較することを含む、請求項11に記載の方法
  16. (a)分散が高閾値より高い場合は、前記選択ステップはICPアルゴリズムを選択し、(b)分散が低閾値より低い場合は、前記選択ステップはエッジ特徴に基づくアルゴリズムとICPのハイブリッドを選択する、請求項15に記載の方法。
  17. 更に、少なくとも1つの高閾値と低閾値は、(a)自動化されたプロセス又は(b)ユーザ指定のプロセスの少なくとも1つによって設定されることを含む、請求項16に記載の方法。
  18. 自動化されたプロセスとユーザ指定のプロセスの少なくとも1つは、訓練画像内のオブジェクトのタイプに基づいている、請求項17に記載の方法。
  19. 分散が高閾値と低閾値の間にある場合、前記選択ステップはユーザに少なくとも1つの3Dアライメントアルゴリズムを選択することを促す、請求項16に記載の方法
  20. 前記3Dカメラアセンブリは、実行時オブジェクトを包含するシーンを撮像するために離間した位置に配置された複数の離散的3Dカメラを含む、請求項11に記載の方法。
JP2017140389A 2016-08-01 2017-07-19 ビジョンシステムにおいて3dアライメントアルゴリズムを自動選択するためのシステム及び方法 Active JP6503153B2 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201662369702P 2016-08-01 2016-08-01
US62/369,702 2016-08-01
US15/634,003 2017-06-27
US15/634,003 US10380767B2 (en) 2016-08-01 2017-06-27 System and method for automatic selection of 3D alignment algorithms in a vision system

Publications (2)

Publication Number Publication Date
JP2018055674A JP2018055674A (ja) 2018-04-05
JP6503153B2 true JP6503153B2 (ja) 2019-04-17

Family

ID=60951019

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017140389A Active JP6503153B2 (ja) 2016-08-01 2017-07-19 ビジョンシステムにおいて3dアライメントアルゴリズムを自動選択するためのシステム及び方法

Country Status (5)

Country Link
US (1) US10380767B2 (ja)
JP (1) JP6503153B2 (ja)
KR (1) KR102011564B1 (ja)
CN (1) CN107680125B (ja)
DE (1) DE102017116853A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10452949B2 (en) * 2015-11-12 2019-10-22 Cognex Corporation System and method for scoring clutter for use in 3D point cloud matching in a vision system
US10937150B2 (en) * 2018-06-28 2021-03-02 General Electric Company Systems and methods of feature correspondence analysis
TWI706841B (zh) * 2019-03-22 2020-10-11 達明機器人股份有限公司 3d相機與機械手臂座標系統的校正裝置及方法
US11132845B2 (en) * 2019-05-22 2021-09-28 Microsoft Technology Licensing, Llc Real-world object recognition for computing device
US10841483B1 (en) * 2019-07-11 2020-11-17 Denso International America, Inc. System and method for calibrating at least one camera and a light detection and ranging sensor
US10962630B1 (en) * 2019-10-18 2021-03-30 Toyota Research Institute, Inc. System and method for calibrating sensors of a sensor system
KR20220167753A (ko) 2021-06-14 2022-12-21 한국전자통신연구원 머신 비전을 위한 영상 처리 방법 및 장치
KR102662130B1 (ko) * 2021-09-30 2024-04-30 한국전자기술연구원 포인트 클라우드 컨텍스트 및 경량화 딥러닝 기반 3차원 객체 인지 방법

Family Cites Families (50)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5028138A (en) 1989-05-23 1991-07-02 Wolff Lawrence B Method of and apparatus for obtaining object data by machine vision form polarization information
US5078496A (en) 1990-08-14 1992-01-07 Autospect, Inc. Machine vision surface characterization system
US5557324A (en) 1992-10-29 1996-09-17 The Johns Hopkins University Polorization viewer
USRE37752E1 (en) 1992-10-29 2002-06-18 Equinox Corporation Polarization viewer
EP0718624A3 (en) 1994-12-19 1997-07-30 At & T Corp Device and method for illuminating transparent and semi-transparent materials
US5988862A (en) 1996-04-24 1999-11-23 Cyra Technologies, Inc. Integrated system for quickly and accurately imaging and modeling three dimensional objects
US6858826B2 (en) 1996-10-25 2005-02-22 Waveworx Inc. Method and apparatus for scanning three-dimensional objects
US6064759A (en) 1996-11-08 2000-05-16 Buckley; B. Shawn Computer aided inspection machine
US6690841B2 (en) * 1997-07-07 2004-02-10 General Electric Company Method and apparatus for image registration
US6173070B1 (en) 1997-12-30 2001-01-09 Cognex Corporation Machine vision method using search models to find features in three dimensional images
AU2001251539A1 (en) 2000-04-11 2001-10-23 Cornell Research Foundation Inc. System and method for three-dimensional image rendering and analysis
JP3513562B2 (ja) * 2000-04-20 2004-03-31 インターナショナル・ビジネス・マシーンズ・コーポレーション 形状解析システム、3次元形状モデルの差分検出システム、類似形状検索システム、形状解析方法及び記憶媒体
US6701005B1 (en) 2000-04-29 2004-03-02 Cognex Corporation Method and apparatus for three-dimensional object segmentation
US20040012600A1 (en) * 2002-03-22 2004-01-22 Deering Michael F. Scalable high performance 3d graphics
US6947579B2 (en) 2002-10-07 2005-09-20 Technion Research & Development Foundation Ltd. Three-dimensional face recognition
US20040184653A1 (en) * 2003-03-20 2004-09-23 Baer Richard L. Optical inspection system, illumination apparatus and method for use in imaging specular objects based on illumination gradients
US7295220B2 (en) 2004-05-28 2007-11-13 National University Of Singapore Interactive system and method
US20050286767A1 (en) 2004-06-23 2005-12-29 Hager Gregory D System and method for 3D object recognition using range and intensity
WO2006138525A2 (en) 2005-06-16 2006-12-28 Strider Labs System and method for recognition in 2d images using 3d class models
US8064731B2 (en) * 2006-11-13 2011-11-22 Siemens Audiologische Technik Gmbh Generalized rigid alignment of 3D ear impression models
ATE529836T1 (de) * 2007-08-13 2011-11-15 Aqsense S L Verfahren und system zur ausrichtung dreidimensionaler oberflächen
DE102007048320A1 (de) 2007-10-09 2008-05-15 Daimler Ag Verfahren zur Anpassung eines Objektmodells an eine dreidimensionale Punktwolke
US8090160B2 (en) 2007-10-12 2012-01-03 The University Of Houston System Automated method for human face modeling and relighting with application to face recognition
US8085987B2 (en) 2007-10-26 2011-12-27 Ahmed Shalaby Method and tool for surface texture evaluation
US8786595B2 (en) * 2008-06-10 2014-07-22 Pinpoint 3D Systems and methods for estimating a parameter for a 3D model
CN101996416B (zh) 2009-08-24 2015-05-20 三星电子株式会社 3d人脸捕获方法和设备
JP5624394B2 (ja) * 2010-07-16 2014-11-12 キヤノン株式会社 位置姿勢計測装置、その計測処理方法及びプログラム
RU2431889C1 (ru) * 2010-08-06 2011-10-20 Дмитрий Валерьевич Шмунк Способ суперразрешения изображений и нелинейный цифровой фильтр для его осуществления
WO2012027541A1 (en) * 2010-08-27 2012-03-01 Abb Research Ltd Vision-guided alignment system and method
BR112013010122A2 (pt) * 2010-10-25 2018-07-24 Lockheed Corp detecção de alterações estruturais para estrururas subaquáticas
WO2012117381A1 (en) * 2011-03-03 2012-09-07 Koninklijke Philips Electronics N.V. System and method for automated initialization and registration of navigation system
US20120314031A1 (en) 2011-06-07 2012-12-13 Microsoft Corporation Invariant features for computer vision
EP2751748B1 (en) 2011-08-30 2019-05-08 Digimarc Corporation Methods and arrangements for identifying objects
US9129277B2 (en) * 2011-08-30 2015-09-08 Digimarc Corporation Methods and arrangements for identifying objects
US9367770B2 (en) 2011-08-30 2016-06-14 Digimarc Corporation Methods and arrangements for identifying objects
US8908913B2 (en) * 2011-12-19 2014-12-09 Mitsubishi Electric Research Laboratories, Inc. Voting-based pose estimation for 3D sensors
US9593982B2 (en) 2012-05-21 2017-03-14 Digimarc Corporation Sensor-synchronized spectrally-structured-light imaging
US9183631B2 (en) * 2012-06-29 2015-11-10 Mitsubishi Electric Research Laboratories, Inc. Method for registering points and planes of 3D data in multiple coordinate systems
US9269156B2 (en) 2012-07-24 2016-02-23 Siemens Aktiengesellschaft Method and system for automatic prostate segmentation in magnetic resonance images
JP6323993B2 (ja) * 2012-08-28 2018-05-16 キヤノン株式会社 情報処理装置、情報処理方法、及びコンピュータプログラム
US20140192050A1 (en) * 2012-10-05 2014-07-10 University Of Southern California Three-dimensional point processing and model generation
CN103106688B (zh) * 2013-02-20 2016-04-27 北京工业大学 基于双层配准方法的室内三维场景重建方法
US9196088B2 (en) * 2013-03-14 2015-11-24 Robert Bosch Gmbh System and method for classification of three-dimensional models in a virtual environment
US9154773B2 (en) 2013-03-15 2015-10-06 Seiko Epson Corporation 2D/3D localization and pose estimation of harness cables using a configurable structure representation for robot operations
CN103198192B (zh) * 2013-04-12 2016-04-27 厦门大学 一种用于虚拟三维零部件快速装配的吸附方法
US10198865B2 (en) * 2014-07-10 2019-02-05 Seiko Epson Corporation HMD calibration with direct geometric modeling
CN104463948B (zh) * 2014-09-22 2017-05-17 北京大学 三维虚拟现实***与地理信息***的无缝可视化方法
KR102306780B1 (ko) * 2014-12-15 2021-09-30 삼성전자주식회사 영상 처리 장치 및 방법
US10115035B2 (en) * 2015-01-08 2018-10-30 Sungkyunkwan University Foundation For Corporation Collaboration Vision system and analytical method for planar surface segmentation
WO2017028961A1 (en) * 2015-08-14 2017-02-23 Thomson Licensing 3d reconstruction of a human ear from a point cloud

Also Published As

Publication number Publication date
CN107680125B (zh) 2021-06-11
JP2018055674A (ja) 2018-04-05
DE102017116853A1 (de) 2018-02-01
CN107680125A (zh) 2018-02-09
US10380767B2 (en) 2019-08-13
KR20180014676A (ko) 2018-02-09
KR102011564B1 (ko) 2019-08-16
US20180130234A1 (en) 2018-05-10

Similar Documents

Publication Publication Date Title
JP6503153B2 (ja) ビジョンシステムにおいて3dアライメントアルゴリズムを自動選択するためのシステム及び方法
EP3168812B1 (en) System and method for scoring clutter for use in 3d point cloud matching in a vision system
JP7339316B2 (ja) ビジョンシステムにより画像特徴におけるエッジと法線を同時に考慮するためのシステム及び方法
KR102296236B1 (ko) 3d 이미지 데이터에서 3d 포즈와 기생포인트 제거의 스코어링을 개선하는 시스템 및 방법
US20120148145A1 (en) System and method for finding correspondence between cameras in a three-dimensional vision system
US11488322B2 (en) System and method for training a model in a plurality of non-perspective cameras and determining 3D pose of an object at runtime with the same
Takimoto et al. 3D reconstruction and multiple point cloud registration using a low precision RGB-D sensor
JP6899189B2 (ja) ビジョンシステムで画像内のプローブを効率的に採点するためのシステム及び方法
Sansoni et al. Optoranger: A 3D pattern matching method for bin picking applications
JP6172432B2 (ja) 被写体識別装置、被写体識別方法および被写体識別プログラム
JP2024069286A (ja) 複合三次元ブロブツール及び複合三次元ブロブツールを動作させるための方法
JP2009014415A (ja) 物体認識装置および物体認識方法
Cui et al. ACLC: Automatic Calibration for non-repetitive scanning LiDAR-Camera system based on point cloud noise optimization
Radkowski HoloLens integration into a multi-kinect tracking environment
Masuta et al. Unknown object extraction for robot partner using depth sensor
Kornuta et al. Utilization of textured stereovision for registration of 3D models of objects
Goron et al. Automatic Layered 3D Reconstruction of Simplified Object Models for Grasping
KR20240076344A (ko) 저원가구조의 센서퓨전기술을 이용한 slam
Sha Efficient Object Localization and Scene Registration Using Contour-Enhanced Point Cloud Resampling Techniques
Henderson et al. Creating a New Dataset for Efficient Transfer Learning for 6D Pose Estimation

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180119

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180709

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180726

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20181025

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190128

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190208

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20190309

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190323

R150 Certificate of patent or registration of utility model

Ref document number: 6503153

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250