JP2023505611A - 複合三次元ブロブツール及び複合三次元ブロブツールを動作させるための方法 - Google Patents

複合三次元ブロブツール及び複合三次元ブロブツールを動作させるための方法 Download PDF

Info

Publication number
JP2023505611A
JP2023505611A JP2022548144A JP2022548144A JP2023505611A JP 2023505611 A JP2023505611 A JP 2023505611A JP 2022548144 A JP2022548144 A JP 2022548144A JP 2022548144 A JP2022548144 A JP 2022548144A JP 2023505611 A JP2023505611 A JP 2023505611A
Authority
JP
Japan
Prior art keywords
image data
objects
camera
shadow
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022548144A
Other languages
English (en)
Inventor
リュウ,ギャン
ケアリー,ベン,アール
ミュラン,ニコラス,ジェイ
スピアー,キャレブ
パレット,アンドリュー
Original Assignee
コグネックス・コーポレイション
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by コグネックス・コーポレイション filed Critical コグネックス・コーポレイション
Publication of JP2023505611A publication Critical patent/JP2023505611A/ja
Priority to JP2024031908A priority Critical patent/JP2024069286A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0014Image feed-back for automatic industrial control, e.g. robot with camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/507Depth or shape recovery from shading
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • G06T7/85Stereo camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/12Acquisition of 3D measurements of objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Quality & Reliability (AREA)
  • Optics & Photonics (AREA)
  • Robotics (AREA)
  • Multimedia (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Stereoscopic And Panoramic Photography (AREA)

Abstract

本発明は、イメージデータが失われる可能性が高い複雑な物体の3Dイメージングを実行するシステム及び方法を提供する。利用可能な3Dイメージデータは、イメージデータの欠如/喪失と組合わせて、x寸法、y寸法およびz寸法の計算を可能にする。データの欠如/喪失は、単なるもう一つのタイプのイメージデータであると仮定され、正確なデータが対象物のイメージにおいて生成されるのを邪魔する或る物の存在を表わす。データのセグメントは、存在しないデータの領域に結び付けられ、最大の境界ボックスを生成することができる。この物体が生成する影は、負のデータ又は欠落しているデータとして表わされ得るが、物理的な物体の表現ではない。正のデータからの高さ、その高さに基づいた物体の影のサイズ、FOVにおける場所、及びイメージを生成する光線の角度が推定されて、物体の影のサイズがその結果から取り除かれる。【選択図】図1

Description

本発明は、三次元(3D)空間において物体を解析(分析)する機械視覚システムに関し、より具体的には、複雑な形状を有する物体を解析するためのシステム及び方法に関する。
物体の測定、検査、位置合わせ、及び/又はコード(例えば、バーコード(「識別コード」とも呼ばれる))の復号を行う機械視覚システム(本明細書において「視覚システム」とも呼ばれる)は、広範囲の応用形態および産業で使用される。これらシステムは、対象物または物体のイメージ(一般に、グレースケール又はカラー、及び一次元、二次元または三次元において)を取得するイメージセンサの使用に基づいており、オンボード又は相互接続された視覚システムのプロセッサを用いて、これら取得されたイメージを処理する。プロセッサは一般に、イメージの処理された情報に基づいて所望の出力を生成するように1つ又は複数の視覚システムのプロセス(処理)を実行する処理ハードウェア及び持続性コンピュータ可読プログラム命令の双方を含む。このイメージ情報は一般に、イメージピクセルのアレイ内に提供され、当該イメージピクセルのそれぞれは、様々な色および/または輝度を有する。
上述されたように、1つ又は複数の視覚システムのカメラ(単数または複数)は、撮像されたシーンにおける物体の二次元(2D)又は三次元(3D)のイメージを取得するように構成され得る。2Dイメージは一般に、全体としてのN X Mイメージアレイ(カメラのイメージセンサのピクセルアレイにより定義されることが多い)内のx成分およびy成分を有するピクセルとして特徴付けられる。イメージが3Dで取得される場合、x成分およびy成分に加えて、高さ成分またはz軸成分が存在する。3Dイメージデータは、立体カメラの三角測量、LiDAR、飛行時間型センサ及び(例えば)レーザ変位プロファイリングを含む様々なメカニズム/技術を用いて取得され得る。
類似した又は本質的に異なるアイテムの複雑な構成の測定を行う際に3Dカメラシステムで生じる典型的な問題は、イメージデータが、(例えば)グループに構成された物体間で失われる可能性があることである。例えば、典型的な複雑な物体は、水の入ったボトルの一包み(パック)であり、この場合、水の入ったボトルのキャップは、潜在的にボトルの寸法の半分以下である。3Dイメージセンサで観測される場合に、結果としてのイメージデータは一般に、イメージ高さの頂点(上部)で完全に露出されているキャップから導出される。しかしながら、キャップ間の(例えば、ボトルの、及びキャップ間の空間の)有用なイメージデータは、失われる。これは、照明における影、及び光線が照明器から物体へ進み、イメージセンサに戻る角度に起因する可能性がある。一般に、水の入ったボトル、鏡のような表面、又は特定の空間周波数の小さい特徴要素のような複雑な物体は、視覚システムにおいて3Dデータ収集(キャプチャ)の喪失を生じる可能性がある。水の入ったボトルの例において、キャップ/上部は一般に、3Dイメージデータの固体応答を提供するが、キャップを取り囲む領域は、普通は3Dイメージを生成する光フィードバックを濁らせるパッケージの水/プラスチック/ラップに起因して、使用可能なイメージデータを提供しない場合がある。
発明の概要
本発明は、イメージデータが失われる可能性が高い複雑な物体の3Dイメージングを実行するシステム及び方法を提供することにより、従来技術の欠点を克服する。当該システム及び方法は、イメージデータの欠如/喪失と組合わせて、利用可能な3Dイメージデータを利用し、存在する/存在しないイメージデータのこの全体としてのセットを単一の物体とみなすことができ、それによりx寸法、y寸法およびz寸法に関して、この単一の物体に関して正確に計算されることが可能になる。一般に、イメージデータの欠如/喪失は、本明細書のシステム及び方法により、単なるもう一つのタイプのデータと仮定され、正確な3Dイメージデータが対象物のイメージにおいて生成されるのを邪魔する或る物の存在を表わす。この仮定を用いて、イメージデータのセグメントは、存在しないデータの領域に結び付けられることができ、それにより最大の境界ボックスを生成することができる。背の高い複雑な物体の場合、この物体が生成する影(シャドー)も、負のデータ又は欠落しているデータとして表わされ得るが、物理的な物体の表現(表示)ではない。正のデータからの高さデータを用いて、その高さに基づいた物体の影のサイズ、視野における場所、及びイメージを生成する光線の角度が推定されて、その結果から取り除かれて、より正確な3Dイメージの結果を提供する。
例示的な実施形態において、複合3Dブロブツール及び複合3Dブロブツールを動作させるための方法が、視覚システムのために提供され得る。視覚システムは、3Dカメラアセンブリを用いて物体から取得された3Dイメージデータを受け取るプロセッサを有することができる。当該ツール及び関連した方法は、取得された3Dイメージデータにおいて正の3Dイメージデータ及び負の3Dイメージデータを識別し、z寸法の高さ情報を定義する正の3Dイメージデータと負の3Dイメージデータを組合わせて、それにより少なくとも1つの結び付けられた物体を画定するブロブツールプロセスを含むことができる。負の3Dイメージデータは、物体に関するデータの欠如および物体に関する影を定義する直交x-y寸法を少なくとも部分的に含むことができる。z寸法の高さ情報は、(1)3Dカメラアセンブリと関連した照明により投影されて3Dカメラアセンブリのイメージセンサにより受け取られた光線の角度の知識、及び(2)イメージセンサの視野内の物体の位置、に基づいて、物体のx-y寸法を洗練するために使用されることができ、その結果、物体に対する影の寄与が、物体の洗練されたx-y寸法に基づいて変更される。例示的に、ブロブツールプロセスは、3Dカメラアセンブリの校正情報に基づいて、取得された3Dイメージデータの空間的意味に関して、結び付けられた物体を分析することができる。物体は、(a)ほぼ同様の高さからなる上部をそれぞれ有する複数の並んだ物体の、及び(b)複数の異なる高さをそれぞれ画定する上面を有する1つ又は複数の物体の、少なくとも1つを含むことができる。3Dカメラアセンブリは、ステレオカメラ、構造化照明ベースのカメラ、飛行時間型カメラ、及びプロファイラーの少なくとも1つを含むことができる。影および正の3Dイメージデータは、影および基準表面の上にある正の3Dイメージデータの双方を含む境界ボックスを画定することができる。例示的に、基準表面は、物体があるコンベヤ表面を画定することができる。物体は、パッケージであることができ、3Dブロブツールの結果は、物体の特徴に基づいて、複数の異なる宛先の1つへ物体を送るコンベヤのゲート制御アセンブリに提供される。特徴は、欠陥のある物体を示すことができ、それによりその欠陥のある物体は、ゲート制御されるコンベヤにより、欠陥のある物体の場所および/または不合格物体の場所へ送られる。
以下の本発明の説明は、添付図面を参照する。
イメージ欠落データの予測を提供するための複合3Dブロブツールを利用する、複雑な物体の3Dイメージを取得して処理するためのシステムの概観である。
本明細書の例示的な複合3Dブロブツールでもって撮像されて解析され得る、影および他の影響に起因したイメージデータの欠如を蒙る例示的な物体のグループ(群)の斜視図である。
イメージデータの関連した欠如を有する、イメージのx-y平面に沿ったイメージデータを示す、図2の物体の3Dポイントクラウド(点群)イメージの表示の図である。
z寸法に沿った高さの比較的精密な測定を示す、図3の表示の図である。
物体のグループの上での3Dカメラアセンブリの配置、及び影の発生および結果としてのイメージデータの欠如の可能性を示す図である。
異なる方向および異なるサイズのそれぞれにおける物体の個々の影を示す、図5のカメラアセンブリにより取得されたイメージの上から見下ろした図である。
影の投影および幾何学的配置を示す、カメラアセンブリFOVのエッジの近くに存在する基本的な矩形物体の3Dポイントクラウドイメージの表示の図である。
影のより複雑な投影および幾何学的配置を示す、カメラアセンブリFOVの中央に近づいて存在する図7の基本的な矩形物体の3Dポイントクラウドイメージの表示の図である。
例示的な実施形態による、複合3Dブロブツールを動作させるための手順ステップの流れ図である。
マルチレベルの物体、又は物体のグループにおいて特徴要素を求める(決定する)ために、例示的な実施形態の複合3Dブロブツールによる境界ボックスの作成を示す図である。
詳細な説明
I.システムの概観
図1は、構成100の概観を示し、構成100において、視覚システムのカメラアセンブリ(簡単に「カメラ」又は「センサ」とも呼ばれる)110は、例示的な物体122のグループ120が可動コンベヤ130に対してその視野(FOV)の下を通過する際に、当該物体122のグループ120の3Dイメージデータを取得する。この例において、物体122は、グループ(例えば、木箱またはシュリンクラップ内)に構成された瓶またはボトルのグループ120である。留意すべきは、物体(複数)の任意の構成、又は複雑な上面を有する単一の物体は、本明細書のシステム及び方法に従って撮像されて解析され得る。
企図された3Dカメラ/イメージングアセンブリ110は、以下に限定されないが、ステレオカメラ、飛行時間型カメラ、LiDAR、超音波測距カメラ、構造化照明システム及びレーザ変位センサ(プロファイラー)を含む、物体の3Dイメージを取得する任意のアセンブリであることができ、かくして、用語3Dカメラは、これらシステム、及び物体の2Dイメージと関連して高さ情報を生成する任意の他のシステムを含むように幅広く解釈されるべきである。また、単一のカメラ、又は複数のカメラのアレイが提供されることができ、用語「カメラ」及び/又は「カメラアセンブリ」は、シーンに関する所望の3Dイメージデータを生成するようにイメージ(単数または複数)を取得する1つ又は複数のカメラを意味することができる。図示されたカメラアセンブリ110は、物体が通過する際に、流れている物体を撮像するチェックポイント又は検査ステーションのようなやり方で、コンベヤ130の表面を覆うように取り付けられて示される。物体122は、コンベヤの運用速度およびカメラのイメージセンサ(S)及び関連した電子回路110の収集時間(部分的に、フレームレート及び絞り設定に依存する)に依存して、動いたままである又は撮像(イメージング)のために一時的に停止することができる。代替の実施形態において、コンベヤは省略されることができ、物体は、移動しないステージ又は表面上に配置され得る。制限しない例として、カメラ110は、コンベヤ130の表面に対してほぼ垂直である光軸OAを確定する。カメラ軸OAは代案として、代替の構成におけるコンベヤの表面に対して垂直でない角度で向けられ得る。カメラの校正は、内部座標系と撮像されるシーンの座標系との間で変換することができる。留意する点は、局所的なx軸、y軸およびz軸(又は他の座標系)138が基準として示される。この例において、コンベヤ表面の平面は、x-y寸法を表わし、コンベヤ表面に垂直な高さは、z寸法を表わす。
カメラ110は、そのハウジングの内部で3Dイメージデータを134を生成するように適合されたイメージセンサSを含む。カメラアセンブリは、一体型照明アセンブリI(例えば、軸OAに対して予測可能な方向に光を投射するLEDのリング照明器)を含む。外部照明(図示せず)が、代替の構成において設けられ得る。適切な光学パッケージOが、軸OAに沿って、センサSと光学的に連絡するように示される。センサSは、内部および/または外部の視覚システムプロセッサ(単数または複数)140と通信し、当該プロセッサ(単数または複数)140は、カメラ110からイメージデータ134を受け取り、本明細書のシステム及び方法に従って、当該データに様々な視覚システムのタスクを実行する。当該プロセッサ(単数または複数)140は、基本的な処理/プロセッサモジュール又は機能モジュールを含み、一組の視覚システムツール142を含み、当該ツール142は、以下に限定されないが、エッジ検出器、ブロブツール、パターン認識ツール、深層学習ネットワークなどを含む、イメージデータの特徴要素を識別および解析する様々な標準的ツール及び特注ツールを含むことができる。視覚システムプロセッサ(単数または複数)140は、本明細書のシステム及び方法に従って、寸法測定プロセッサ(単数または複数)144を更に含むことができる。このプロセッサ(単数または複数)144は、更なる結果が計算され得る特定の特徴要素の存在を求めるように、3Dイメージデータにおいて識別される特徴要素に様々な解析および測定のタスク実行する。当該プロセッサ(単数または複数)は、例示的な実施形態による、3Dブロブツール144を含む、様々な従来の及び特注の(例えば、3D)視覚システムツール142を使用する。システムのセットアップ及び結果の表示は、サーバ(例えば、クラウドベース又は局所的)、PC、ノート型パソコン、タブレット及び/又はスマートフォンのような、別個のコンピューティング装置150により、処理され得る。コンピューティング装置150は、従来のディスプレイ又はタッチスクリーン152、キーボード154及びマウス156(これらは、ひとまとめにしてグラフィカル・ユーザ・インターフェース(GUI)機能を提供する)と共に(制限しない例として)示される。様々なインターフェース装置および/またはフォームファクターが、装置150の代替の具現化形態において設けられ得る。GUIは、部分的に、ウェブブラウザーのアプリケーションによって動作させることができ、当該アプリケーションは、本明細書の例示的な構成に従って、デバイスのオペレーティングシステムに常駐し、プロセッサ(単数または複数)140からの制御およびデータ情報と共にウェブページを表示する。
留意すべきは、プロセッサ(単数または複数)140は、カメラアセンブリ110のハウジング内で完全に又は部分的にオンボードで設けられることができ、様々な処理モジュール/ツール142及び144は、必要に応じて、オンボードのプロセッサ(単数または複数)140又は遠隔のコンピューティング装置150に完全に又は部分的にインスタンス化され得る。例示的な実施形態において、全ての視覚システム及びインターフェース機能は、オンボードのプロセッサ(単数または複数)140にインスタンス化されることができ、コンピューティング装置150は、学習、監視、及びオンボードのプロセッサ(単数または複数)140によって生成され、有線または無線ネットワークリンクを介してコンピューティング装置に伝達されるインターフェースウェブページ(例えば、HTML)と関連した動作のために主として利用され得る。代案として、プロセッサ(単数または複数)140の全て又は一部は、コンピューティング装置150に設けられ得る。当該プロセッサによる解析からの結果は、下流の利用装置またはプロセス160に伝達され得る。係る装置/プロセスは、物体/パッケージを操作する(例えば、解析された特徴要素に基づいて異なる宛先に物体を送るためにコンベヤ130をゲート制御する又は欠陥のある物体を退ける)ために結果162を使用することができる。
II.例示的なイメージ及び問題
図2は、例示的な実行時の物体、又は物体210のグループを更に示し、この制限しない例において、瓶またはボトルの木箱がガラス本体212を画定し、上部またはキャップ220に重なる。図1に示されたタイプの上にある3Dカメラアセンブリからの、この物体の例示的な(例えば、3Dポイントクラウド)ディスプレイ表示は、図3及び図4に示される。特に、図3は、瓶の上部220がX-Y平面に沿って撮像されているディスプレイ表示300を示す。上部220は、周囲のコンベヤ表面320とは異なる高さに基づいて画定され得る適切なサイズの境界ボックスにより、囲まれる。興味のある領域(長方形330)は、エッジファインダのような視覚システムのツールが個々のキャップを解明することを困難にする、影および他のデータ(キャップの下にある瓶本体)により不明瞭にされている(暗くされている)様々な上部を示す。逆に、同じ領域(外側境界ボックス410内の長方形420)が、図4のディスプレイ表示400に示され、Z方向/Z寸法に沿ったかなり精密な測定結果を明示する。更なる例示のために、図5に示されたカメラアセンブリ510は、シーンの結果としての2Dイメージの上に重なる及び覆い隠す、上面(キャップ)520からの一連の外方に扇状に広がる影522を生成するようにカメラアセンブリにより、(照明および光学部品の配置に起因したオフセットで)反射光514として受け取られる投影された扇状の照明512を生成する。図6の上面図に示されるように、各上部520は、照明の角度および光軸OAとの比較で、シーンにおける上部520の相対位置に基づいて、別個の方向にも偏倚される一意のサイズ/形状の影を提示することができる。これは、全体的なイメージにおいて複雑性と不確実性を増加させる。
更に図7を参照して、基本的な矩形物体720の上から見下ろした図である図示された3Dディスプレイ表示710は、影を解明することに対する問題を示し、この場合、物体720がFOVの1つのエッジに対して十分に離れており、1つの側面730に影が無く、1つの(反対側)側面740に奥行きのある影が存在し、2つの奥行きの無い影750が存在する。同様に、図8の表示810は、基本的な物体820を示す(同様に矩形であり、上から見下ろした図)。この物体820は、FOVの中央に近づいており、図7の物体720に対して僅かに回転している。この表示において、物体820は、カメラからの4つの角の影860で重畳する照明プロジェクタからの4つの角の影850を含む、8個の角を有する全体的な影830を画定する。視野などの位置に依存して変化する複雑な影の存在は、幾つかの高さデータが影に起因して欠落する場合があるので、未処理の(生の)高さデータと組合わせても、2Dイメージデータを用いた特徴要素の解明を困難にする。しかしながら、利用可能である高さデータは、上述したようにかなり精密であることができる。
IIIブロブツール及び動作方法
図9は、例示的な実施形態による、手順900を示す流れ図である。ステップ910において、視野(FOV)内の物体(単数)の又は物体のグループの、1つ又は複数の3Dイメージが、カメラアセンブリにより取得される。ステップ920において、この3Dイメージデータを用いて、興味のある1つ又は複数の領域(例えば、高さデータが基準平面(例えば、コンベヤ表面)より上にある領域)、及び更なる境界領域(ボックス)が、興味のある係る領域(単数または複数)において物体(単数または複数)の周りに配置される。ステップ930において、興味のある領域(単数または複数)においてイメージデータの欠如を有する領域(非データとも呼ばれる)が識別される。これは、様々な方法(例えば、当業者に知られているセグメンテーションツール及び/又は他の適切な視覚システムのツール)を用いて達成され得る。一般に、それらは、高さの値および/またはx-yピクセル値が存在しない領域である。特に、手順900は、その次に、連結性および/またはシャドーイングを示すためにイメージデータの欠如を使用する。かくして、ステップ940において、手順は、接触している全てのデータ(基準平面より上)及び全ての非データを結び付ける。次いで、手順は、ステップ950において、興味のある領域(単数または複数)における境界ボックス(単数または複数)の位置を求める。これは、物体が全体のFOVにおいて何処にあるかに対する相対基準を与える。(工場の校正ステップ中に及び/又はセットアップ(設置)時の現場校正中に)カメラアセンブリに格納された、図1の校正データ170に基づいて、手順は、様々な高さにおけるFOVの各ポイント(点)に関して、照明器からカメラに戻る光線の(格納された)経路を推測する。かくして、FOV内の境界ボックス内の各ポイントに関する高さデータと共に、このデータ及び境界ボックスの位置に基づいて、手順は、対象物のイメージデータから影を取り除くために、境界ボックスに戻って洗練化することができる(ステップ960)。これは、結び付けられた形状における予想された光線の経路に次いで、それらをイメージデータの既知の高さにマッピングすることを必要とする。ステップ970において、この計算の結果は、洗練されたイメージデータとして下流の利用プロセス(例えば、寸法測定、検査などを実行する更なる視覚システムのツール)に送られ得る。
IV.様々な高さ(マルチレベル)の物体
図10は、カメラアセンブリ1010のFOV1020内の、複数の物体または当該物体の異なる部分(この例において互いに比較的隣接している異なる高さの1030及び1032)のイメージを取得するカメラアセンブリ1010を示す図である。留意すべきは、予想される物体の最大高さは、ユーザにより予めプログラムされており、それらはこの例において(図示されたように)FOV内に完全に存在する。対象の物体1030、1032の形状は、比較的立方体状であると更に仮定される。この仮定は、任意の修正を始める前に、アイテムの全ての上面(1034及び1036)のポイントの特質と形状を観測することにより確認(検証)され得る。
第1のステップにおいて、任意の観測されたデータと共に、影により生じた欠落しているポイントデータを用いて、基準表面A(例えば、コンベヤ表面1040)の上にある影および任意の観測されたデータの双方を含む最も小さい境界ボックス1042を生成する。次に、第1の境界ボックス1042を用いて、境界ボックス1042の最上面1044と一致する平面Aを生成する。次いで、基準表面1040上にある境界ボックス1042のそれぞれの角/頂点(v[i])(1046及び1048)から、以下のステップを実行する。
a.照明源への光線に沿ってv[i]を投影し、光線が表面1044と一致する上面と交差する交点(ポイントB)、並びにポイントAとポイントBとの間の距離(距離B)を求める。
b.撮像装置への光線に沿ってv[i]を投影し、光線が最上面1044と一致する平面と交差する交点(ポイントC)、並びにポイントAとポイントCとの間の距離(距離C)を求める。
c.v[i](表面A上にある)の真上にある最上面1044上のボックスAの頂点(u[i])を取得する。
d.距離Bと距離Cを比較し(例えばどちらがより大きいか)、対応するポイント(ポイントB又はポイントC)を検査し、それが最上面1044内にあるか否かを判断する;
i.イエスの場合、そのポイント(ポイントB又はポイントC)に対応する新たなポイントu’[i]を作成する、
ii.ノーの場合、u[i]に対応する新たなポイントu’[i]を作成する。
結果としての上側の頂点u’[] 1050及び1052は、修正された影を表わす本質的に長方形を形成するはずであり、必要に応じて、これらの頂点に最も適合する長方形を適用し、表面A(1040)まで下がって当該長方形を投影することにより、最終の修正されたボックスを生成する。
留意すべきは、完全に正方形の境界ボックス1060は、それが上側の影と下側のボックス1032と交差するので、幾何学的形状の間違った推定を生じる。従って、最初のボックス1042は、基準平面1040の上の完全な構造体を包含するために細長い態様で描画される。
V.結論
明らかであるように、上述したシステム及び方法は、3Dイメージにおける欠けたイメージデータを効率的に提供することができ、この場合、カメラアセンブリの幾何学的形状および照明の特性(特質)は知られている。このシステム及び方法は、隣接して間隔をおいて配置された物体および様々な高さを画定する物体または様々な高さの部分に効果的に作用する。
上述したことは、本発明の例示的な実施形態の詳細な説明である。様々な変形および追加が、本発明の思想および範囲から逸脱せずに行われ得る。上述された様々な実施形態のそれぞれの特徴は、関連した新たな実施形態における特徴の多数の組合わせを提供するために、必要に応じて他の説明された実施形態の特徴と組合わせられ得る。更に、上述したことは、本発明の装置および方法に関する多数の別個の実施形態を説明するが、本明細書で説明されたことは、本発明の原理の応用形態に関する単なる例示である。例えば、本明細書で使用される限り、用語「プロセス」及び/又は「プロセッサ」は、機能および構成要素(代替として、機能的「モジュール」又は「要素」と呼ばれ得る)に基づいた様々な電子ハードウェア及び/又はソフトウェアを含むように広く解釈されるべきである。更に、図示されたプロセス又はプロセッサは、様々なサブプロセス又はサブプロセッサへ分割される他のプロセス及び/又はプロセッサと組合わせられ得る。係るサブプロセス及び/又はサブプロセッサは、本明細書の実施形態に従って様々に組合わせられ得る。同様に、本明細書の任意の機能、プロセス及び/又はプロセッサは、電子ハードウェア、プログラム命令の持続性コンピュータ可読媒体からなるソフトウェア、又はハードウェア及びソフトウェアの組合わせを用いて具現化され得ることが明確に企図されている。更に、本明細書で使用される限り、「垂直」、「水平」、「上」、「下」、「底部」、「上部」、「側部」、「前面」、「後面」、「左」、「右」などのような様々な方向性の用語および配置の用語は、相対的な慣習としてのみ使用されており、重力の作用方向のような、固定座標空間に関して絶対的な方向/配置として使用されていない。更に、用語「実質的に」又は「約(ほぼ)」は、所与の測定値、値または特性に関して使用される場合、それは、所望の結果を達成するために正規の動作範囲内にあるが、固有の不正確さ及びシステムの許容誤差(例えば、1~5%)内の誤差に起因した何らかのバラツキを含む数量を意味する。制限しない例として、3Dカメラは、ライン走査型のアセンブリ(例えば、プロファイラー)を含み、エンコーダ又は他の動作検知デバイスが、FOVの完全な3Dイメージのために、y寸法をライン毎に構築するように撮像装置と連係して使用される。従って、本説明は、単なる例示として解釈されることが意図されており、本発明の範囲を制限することが意図されていない。

Claims (15)

  1. 3Dカメラアセンブリを用いて物体から取得された3Dイメージデータを受け取るプロセッサを有する視覚システム用の複合3Dブロブツールであって、
    前記取得された3Dイメージデータにおいて正の3Dイメージデータ及び負の3Dイメージデータを識別し、z寸法の高さ情報を定義する前記正の3Dイメージデータと前記負の3Dイメージデータを組合わせて、それにより少なくとも1つの結び付けられた物体を画定するブロブツールプロセスを含み、
    前記負の3Dイメージデータは、前記物体に関するデータの欠如および前記物体に関する影を定義する直交x-y寸法を少なくとも部分的に含み、
    前記z寸法の高さ情報は、(1)前記3Dカメラアセンブリと関連した照明により投影されて前記3Dカメラアセンブリのイメージセンサにより受け取られた光線の角度の知識、及び(2)前記イメージセンサの視野内の前記物体の位置、に基づいて、前記物体のx-y寸法を洗練化するために使用され、その結果、前記物体に対する前記影の寄与が、前記物体の洗練化されたx-y寸法に基づいて変更される、複合3Dブロブツール。
  2. 前記ブロブツールプロセスは、前記3Dカメラアセンブリの校正情報に基づいて、前記取得された3Dイメージデータの空間的意味に関して前記結び付けられた物体を分析する、請求項1に記載の複合3Dブロブツール。
  3. 前記物体は、(a)ほぼ同様の高さからなる上部をそれぞれ有する複数の並んだ物体の、及び(b)複数の異なる高さをそれぞれ画定する上面を有する1つ又は複数の物体の、少なくとも1つを含む、請求項1に記載の複合3Dブロブツール。
  4. 前記3Dカメラアセンブリは、ステレオカメラ、構造化照明ベースのカメラ、飛行時間型カメラ、及びプロファイラーの少なくとも1つを含む、請求項1に記載の複合3Dブロブツール。
  5. 前記影および前記正の3Dイメージデータは、前記影および基準表面の上にある前記正の3Dイメージデータの双方を含む境界ボックスを画定する、請求項1に記載の複合3Dブロブツール。
  6. 前記基準表面は、前記物体があるコンベヤ表面を画定する、請求項5に記載の複合3Dブロブツール。
  7. 前記物体は、パッケージであり、前記3Dブロブツールの結果は、前記物体の特徴に基づいて、複数の異なる宛先の1つへ前記物体を送る前記コンベヤのゲート制御アセンブリに提供される、請求項6に記載の複合3Dブロブツール。
  8. プロセッサを有する視覚システム用の3Dブロブツールを動作させるための方法であって、以下のステップ、即ち
    3Dカメラアセンブリを用いて取得された物体の3Dイメージデータを準備し、
    前記取得された3Dイメージデータにおいて正の3Dイメージデータ及び負の3Dイメージデータを識別して、前記正の3Dイメージデータと前記負の3Dイメージデータを組合わせ、
    少なくとも1つの結び付けられた物体を画定し、前記3Dカメラの校正情報に基づいて、前記取得された3Dイメージデータの空間的意味に関して前記結び付けられた物体を分析し、
    前記正の3Dイメージデータは、z寸法の高さ情報を画定し、前記負の3Dイメージデータは、前記物体に関するデータの欠如および前記物体に関する影を定義する直交x-y寸法を少なくとも部分的に含み、
    前記物体に対する前記影の寄与を取り除くように、前記3Dカメラアセンブリと関連した照明により投影されて前記3Dカメラアセンブリのイメージセンサにより受け取られた光線の角度の知識、及び視野内の前記物体の位置に基づいて、前記z寸法の高さ情報を用いて、前記物体のx-y寸法を洗練化することを含む、方法。
  9. 前記3Dカメラアセンブリの校正情報に基づいて、前記取得された3Dイメージデータの空間的意味に関して前記結び付けられた物体を分析することを更に含む、請求項8に記載の方法。
  10. 前記物体は、(a)ほぼ同様の高さからなる上部をそれぞれ有する複数の並んだ物体の、及び(b)複数の異なる高さをそれぞれ画定する上面を有する1つ又は複数の物体の、少なくとも1つを含む、請求項8に記載の方法。
  11. 前記3Dカメラアセンブリは、ステレオカメラ、構造化照明ベースのカメラ、飛行時間型カメラ、及びプロファイラーの少なくとも1つを含む、請求項8に記載の方法。
  12. 前記影および前記正の3Dイメージデータを用いて、前記影および基準表面の上にある前記正の3Dイメージデータの双方を含む境界ボックスを画定することを更に含む、請求項8に記載の方法。
  13. 前記基準表面は、前記物体があるコンベヤ表面を画定する、請求項12に記載の方法。
  14. 前記物体は、パッケージであり、前記物体の特徴に基づいて、複数の異なる宛先の1つへ前記物体を送るように前記コンベヤをゲート制御することを更に含む、請求項13に記載の方法。
  15. 前記物体の欠陥を識別し、前記物体を不合格の宛先へ送るように前記コンベヤをゲート制御することを更に含む、請求項14に記載の方法。
JP2022548144A 2020-02-10 2021-02-10 複合三次元ブロブツール及び複合三次元ブロブツールを動作させるための方法 Pending JP2023505611A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2024031908A JP2024069286A (ja) 2020-02-10 2024-03-04 複合三次元ブロブツール及び複合三次元ブロブツールを動作させるための方法

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US202062972114P 2020-02-10 2020-02-10
US62/972,114 2020-02-10
PCT/US2021/017498 WO2021163219A1 (en) 2020-02-10 2021-02-10 Composite three-dimensional blob tool and method for operating the same

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2024031908A Division JP2024069286A (ja) 2020-02-10 2024-03-04 複合三次元ブロブツール及び複合三次元ブロブツールを動作させるための方法

Publications (1)

Publication Number Publication Date
JP2023505611A true JP2023505611A (ja) 2023-02-09

Family

ID=74853792

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2022548144A Pending JP2023505611A (ja) 2020-02-10 2021-02-10 複合三次元ブロブツール及び複合三次元ブロブツールを動作させるための方法
JP2024031908A Pending JP2024069286A (ja) 2020-02-10 2024-03-04 複合三次元ブロブツール及び複合三次元ブロブツールを動作させるための方法

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2024031908A Pending JP2024069286A (ja) 2020-02-10 2024-03-04 複合三次元ブロブツール及び複合三次元ブロブツールを動作させるための方法

Country Status (6)

Country Link
US (1) US11966996B2 (ja)
EP (1) EP4104137B1 (ja)
JP (2) JP2023505611A (ja)
KR (1) KR20220137926A (ja)
CN (1) CN115362469A (ja)
WO (1) WO2021163219A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11937019B2 (en) 2021-06-07 2024-03-19 Elementary Robotics, Inc. Intelligent quality assurance and inspection device having multiple camera modules
US11605159B1 (en) 2021-11-03 2023-03-14 Elementary Robotics, Inc. Computationally efficient quality assurance inspection processes using machine learning
US11675345B2 (en) 2021-11-10 2023-06-13 Elementary Robotics, Inc. Cloud-based multi-camera quality assurance architecture
US11605216B1 (en) * 2022-02-10 2023-03-14 Elementary Robotics, Inc. Intelligent automated image clustering for quality assurance

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009115783A (ja) * 2007-11-07 2009-05-28 Mitsubishi Electric Research Laboratories Inc シーン内の物体の3d姿勢を求める方法及びシステム
JP2012042396A (ja) * 2010-08-20 2012-03-01 Canon Inc 位置姿勢計測装置、位置姿勢計測方法、およびプログラム

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5831621A (en) * 1996-10-21 1998-11-03 The Trustees Of The University Of Pennyslvania Positional space solution to the next best view problem
US20020186878A1 (en) * 2001-06-07 2002-12-12 Hoon Tan Seow System and method for multiple image analysis
CA2455359C (en) 2004-01-16 2013-01-08 Geotango International Corp. System, computer program and method for 3d object measurement, modeling and mapping from single imagery
KR100612932B1 (ko) * 2005-12-14 2006-08-14 주식회사 고영테크놀러지 3차원 형상 측정장치 및 방법
US7539533B2 (en) 2006-05-16 2009-05-26 Bao Tran Mesh network monitoring appliance
WO2008124397A1 (en) * 2007-04-03 2008-10-16 David Fishbaine Inspection system and method
WO2009019887A1 (ja) * 2007-08-07 2009-02-12 Panasonic Corporation 画像処理装置および画像処理方法
US10642364B2 (en) 2009-04-02 2020-05-05 Oblong Industries, Inc. Processing tracking and recognition data in gestural recognition systems
US8121618B2 (en) 2009-10-28 2012-02-21 Digimarc Corporation Intuitive computing methods and systems
US8660355B2 (en) 2010-03-19 2014-02-25 Digimarc Corporation Methods and systems for determining image processing operations relevant to particular imagery
US9370799B2 (en) 2011-05-17 2016-06-21 Gii Acquisition, Llc Method and system for optically inspecting a manufactured part at a single inspection station having a measurement axis
JP6024658B2 (ja) 2011-07-01 2016-11-16 日本電気株式会社 物体検出装置、物体検出方法及びプログラム
US9367770B2 (en) 2011-08-30 2016-06-14 Digimarc Corporation Methods and arrangements for identifying objects
US10474858B2 (en) 2011-08-30 2019-11-12 Digimarc Corporation Methods of identifying barcoded items by evaluating multiple identification hypotheses, based on data from sensors including inventory sensors and ceiling-mounted cameras
US9530060B2 (en) * 2012-01-17 2016-12-27 Avigilon Fortress Corporation System and method for building automation using video content analysis with depth sensing
US20140378810A1 (en) 2013-04-18 2014-12-25 Digimarc Corporation Physiologic data acquisition and analysis
US10113910B2 (en) 2014-08-26 2018-10-30 Digimarc Corporation Sensor-synchronized spectrally-structured-light imaging
WO2017021753A1 (en) 2015-08-06 2017-02-09 Accenture Global Services Limited Condition detection using image processing
WO2017021751A1 (en) 2015-08-06 2017-02-09 Accenture Global Services Limited Vegetation management for power line corridor monitoring using computer vision
US10074160B2 (en) 2016-09-30 2018-09-11 Disney Enterprises, Inc. Point cloud noise and outlier removal for image-based 3D reconstruction
US10695150B2 (en) 2016-12-16 2020-06-30 Align Technology, Inc. Augmented reality enhancements for intraoral scanning
CN109993046B (zh) * 2018-06-29 2021-04-09 长城汽车股份有限公司 基于视觉摄像机的自阴影物体边缘识别方法、装置及车辆
FI128443B (en) * 2018-12-21 2020-05-15 Valmet Automation Oy Contactless thickness measurement
US10866322B2 (en) * 2018-12-31 2020-12-15 Datalogic Usa, Inc. Identification of shadowing on flat-top volumetric objects scanned by laser scanning devices

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009115783A (ja) * 2007-11-07 2009-05-28 Mitsubishi Electric Research Laboratories Inc シーン内の物体の3d姿勢を求める方法及びシステム
JP2012042396A (ja) * 2010-08-20 2012-03-01 Canon Inc 位置姿勢計測装置、位置姿勢計測方法、およびプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
TOMMY HINKS, HAMISH CARR, HAMID GHARIBI, DEBRA F. LAEFER,: ""Visualisation of urban airborne laser scanning data with occlusion images"", ISPRS JOURNAL OF PHOTOGRAMMETRY AND REMOTE SENSING, vol. 104, JPN6023011911, 2015, pages 77 - 87, XP055797294, ISSN: 0005023069, DOI: 10.1016/j.isprsjprs.2015.01.014 *

Also Published As

Publication number Publication date
JP2024069286A (ja) 2024-05-21
CN115362469A (zh) 2022-11-18
EP4104137B1 (en) 2024-06-26
WO2021163219A1 (en) 2021-08-19
KR20220137926A (ko) 2022-10-12
US20210350495A1 (en) 2021-11-11
EP4104137A1 (en) 2022-12-21
US11966996B2 (en) 2024-04-23

Similar Documents

Publication Publication Date Title
JP2023505611A (ja) 複合三次元ブロブツール及び複合三次元ブロブツールを動作させるための方法
JP6506731B2 (ja) ビジョンシステムで3dポイントクラウドマッチングに使用するクラッタをスコアリングするためのシステム及び方法
EP1761738B1 (en) Measuring apparatus and method for range inspection
JP6465789B2 (ja) デプスカメラの内部パラメータを算出するプログラム、装置及び方法
US20200380229A1 (en) Systems and methods for text and barcode reading under perspective distortion
CN108074267B (zh) 交点检测装置及方法、摄像头校正***及方法及记录介质
KR20180014677A (ko) 3d 이미지 데이터에서 3d 포즈와 기생포인트 제거의 스코어링을 개선하는 시스템 및 방법
CN109141373A (zh) 用于防护机器的传感器
JP6984633B2 (ja) 対象物の位置姿勢を検出する装置、方法およびプログラム
CN107680125A (zh) 在视觉***中自动选择三维对准算法的***和方法
US20220036118A1 (en) Systems, methods, and media for directly recovering planar surfaces in a scene using structured light
Nishimoto Three dimensional measurement using fisheye stereo vision
JP7127046B2 (ja) モデルベースのピーク選択を使用した3dプロファイル決定のためのシステム及び方法
US11748838B2 (en) System and method for three-dimensional scan of moving objects longer than the field of view
So et al. 3DComplete: Efficient completeness inspection using a 2.5 D color scanner
US20220414916A1 (en) Systems and methods for assigning a symbol to an object
WO2023167984A1 (en) System and method for use of polarized light to image transparent materials applied to objects
Lo et al. Evaluating the LiDAR and Kinect Calibration Methods and Application
JP2024524249A (ja) 物体にシンボルを割り当てるシステム及び方法
JPH0682217A (ja) 高速動画像三次元位置測定装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230120

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230120

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20230120

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230328

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230621

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230926

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20231107

A524 Written submission of copy of amendment under article 19 pct

Free format text: JAPANESE INTERMEDIATE CODE: A524

Effective date: 20240304

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240305

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20240404