JP7251631B2 - テンプレート作成装置、物体認識処理装置、テンプレート作成方法、物体認識処理方法及びプログラム - Google Patents

テンプレート作成装置、物体認識処理装置、テンプレート作成方法、物体認識処理方法及びプログラム Download PDF

Info

Publication number
JP7251631B2
JP7251631B2 JP2021534891A JP2021534891A JP7251631B2 JP 7251631 B2 JP7251631 B2 JP 7251631B2 JP 2021534891 A JP2021534891 A JP 2021534891A JP 2021534891 A JP2021534891 A JP 2021534891A JP 7251631 B2 JP7251631 B2 JP 7251631B2
Authority
JP
Japan
Prior art keywords
viewpoint
template
dimensional
template creation
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021534891A
Other languages
English (en)
Other versions
JPWO2021014538A1 (ja
Inventor
嘉典 小西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp filed Critical Omron Corp
Publication of JPWO2021014538A1 publication Critical patent/JPWO2021014538A1/ja
Application granted granted Critical
Publication of JP7251631B2 publication Critical patent/JP7251631B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B21/00Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C15/00Surveying instruments or accessories not provided for in groups G01C1/00 - G01C13/00

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Description

本発明は、テンプレート作成装置、物体認識処理装置、テンプレート作成方法、物体認識処理方法及びプログラムに関する。
画像から物体を認識(検出)する方法の一つとしてテンプレートマッチングがある。テンプレートマッチングは、認識対象となる物体のモデル(テンプレート)を予め用意しておき、入力画像とモデルとの間の画像特徴の一致度を評価することで入力画像に含まれる物体を検出する方法である。テンプレートマッチングによる物体認識は、例えばFA(Factory Automation)における検査やピッキング、ロボットビジョン、監視カメラなど、多岐にわたる分野で利用されている。
このようなテンプレートは、認識対象となる物体(以下、「対象物体」ともいう。)の3DCADデータを用いて作成することができる。しかし、対象物体の3DCADデータがない場合や、3DCADデータと実際の対象物体との差異が大きい場合のように、3DCADデータと用いることができない、又は適切でない場合がある。このような場合には、実際の対象物体を3次元計測した3次元計測データを用いてテンプレートを作成する。
従来、様々な視点で計測した3次元点群データを統合する際には、視野が重なっている領域では近傍にある点群データを統合する必要があった。このため、位置姿勢の認識誤差やノイズ等を含んだデータを平均化することで細部の形状情報が失われるという課題があった。(例えば、特許文献1参照)。
また、特許文献2に記載された技術では、3次元空間上に設定したボクセル(立方体の箱)に各視点からの3次元計測データを重みづけして累積していく。このため、計測誤差やノイズ、視点の位置姿勢認識誤差も蓄積されていき、角や細かな形状は丸められたり消失したりする。また、物体表面のテクスチャも同様に平均化されることでぼけたり消失したりする。
このようにして統合して作成された3次元形状をもとに物体認識用のテンプレート作成を行うと、実物の異なる形状やテクスチャのテンプレートが作成されてしまい認識精度が低下するという課題があった。
特許第6298035号公報 米国特許第9053571号明細書
本発明は、上記のような問題に鑑みてなされたものであり、異なる視点で計測した3次元計測データを用いて物体認識用のテンプレートを作成する際に、細かな形状やテクスチャが失われることなく実物に近いテンプレートを作成することができる技術を提供することを目的とする。
上記の課題を解決するための本発明は、
視点から見た対象物体に対応するテンプレートを作成するテンプレート作成装置であって、
前記テンプレートを作成するための前記視点としてのテンプレート作成視点の位置姿勢に関するデータを取得するテンプレート作成視点位置姿勢データ取得部と、
前記対象物体の3次元計測データを取得する3次元計測データ取得部と、
前記対象物体を3次元計測する視点としての計測視点の位置姿勢に関するデータを取得する計測視点位置姿勢データ取得部と、
異なる前記計測視点に対応する前記3次元計測データを前記テンプレート作成視点に対する所定の平面に投影し、投影された前記3次元計測データに基づいて、特徴量を抽出するための基礎3次元データを生成する基礎3次元データ生成部と、
を備え、
前記基礎3次元データ生成部は、前記テンプレート作成視点に対する距離がより近い前記計測視点を選択し、選択された該計測視点に対応する前記3次元計測データを、前記基礎3次元データを生成するために優先して用いることを特徴とするテンプレート作成装置である。
本発明によれば、異なる計測視点で計測した3次元計測データから、特徴量を抽出するための基礎3次元データを生成する際に、テンプレート作成視点に対する距離がより近い計測視点に対応する3次元計測データを優先して用いるので、異なる計測視点で計測した3次元計測データを均して細かな形状やテクスチャが失われることない。従って、実物に近いテンプレートを作成することができる。
本発明において、テンプレート作成視点に対する計測視点の距離は、種々の方法で評価することができる。例えば、テンプレート作成視点から対象物体の中心までのベクトルと、計測視点から対象物体の中心までのベクトルのなす角度の大きさによって評価してもよいし、両視点間のユークリッド距離や測地線距離によって評価してもよく、これらに限られない。
また、本発明において、3次元計測データは、3次元計測によって取得される、各点が3次元情報をもつ複数の点から構成されるデータである。点群データのように、各点がカメラ座標系における3次元座標値をもつ形式のデータでもよいし、2次元画像の各点(各画素)にデプス値(奥行き距離の情報)が関連づけられた形式のデータでもよい。
また、本発明において、テンプレート作成視点に対する所定の平面は、テンプレートによる物体認識の対象となる画像を取得する画像取得部をCCDカメラによって構成する場合の、CCDカメラの焦点に対するCCD平面のような画像平面である。異なる計測視点に対応する3次元計測データをテンプレート作成視点に対する所定の平面に投影し、投影された3次元計測データに基づいて、特徴量を抽出するための対象となる基礎3次元データを生成する際に、3次元空間上で3次元計測データを統合して生成する場合に比べて、メモリ使用量を小さくでき、処理時間も短縮できる。
本発明において、
前記基礎3次元データ生成部は、前記基礎3次元データのうち、前記所定の平面に投影された、より優先される前記3次元計測データに含まれない部分を、前記3次元計測データを前記所定の平面に投影されたデータによって補うようにしてもよい。
このようにすれば、基礎3次元データを生成する際に、より優先される計測視点に対応する3次元計測データが選択的に用いられるので、異なる計測視点に対応する3次元計測データが均されることがなく、対象物体の細かな形状やテクスチャが失われることない。従って、実物に近いテンプレートを作成することができる。
また、本発明は、
前記対象物体を含む画像を取得する画像取得部と、
前記取得された画像から特徴量を抽出する特徴抽出部と、
前記テンプレート作成装置によって作成されたテンプレートを用いたテンプレートマッチングにより前記取得された画像に含まれる前記対象物体を認識するテンプレートマッチング部と、
を備えた物体認識処理装置である。
本発明によれば、対象物体の細かな形状やテクスチャを反映した実物に近いテンプレートによって物体認識が行われるので、より高精度の物体認識が可能となる。
また、本発明は、
視点から見た対象物体に対応するテンプレートを作成するテンプレート作成方法であって、
前記テンプレートを作成するための前記視点としてのテンプレート作成視点の位置姿勢に関する情報を取得するステップと、
前記対象物体の3次元計測データを取得するステップと、
前記対象物体を3次元計測する視点としての計測視点の位置姿勢に関するデータを取得するステップと、
前記テンプレート作成視点に対する距離がより近い前記計測視点を選択するステップと、
前記選択された前記計測視点に対応する前記3次元計測データを、前記テンプレート作成視点に対する所定の平面に投影するステップと、
前記投影された前記3次元計測データに基づいて、特徴量を抽出するための基礎3次元データを生成する際に、前記距離がより近い前記計測視点に対応する前記3次元計測データを優先して用いて基礎3次元データを生成するステップと、
を含むテンプレート作成方法である。
本発明によれば、異なる計測視点で計測した3次元計測データから、特徴量を抽出するための基礎3次元データを生成する際に、テンプレート作成視点に対する距離がより近い計測視点に対応する3次元計測データを優先して用いるので、異なる計測視点で計測した3次元計測データを均して細かな形状やテクスチャが失われることない。従って、実物に近いテンプレートを作成することができる。
また、本発明に含まれる各ステップの順序は、記載された順序に限定されるものではない。
本発明において、テンプレート作成視点に対する計測視点の距離は、種々の方法で評価することができる。例えば、テンプレート作成視点から対象物体の中心までのベクトルと、計測視点から対象物体の中心までのベクトルのなす角度の大きさによって評価してもよいし、両視点間のユークリッド距離や測地線距離によって評価してもよく、これらに限られない。
また、本発明において、3次元計測データは、3次元計測によって取得される、各点が3次元情報をもつ複数の点から構成されるデータである。点群データのように、各点がカメラ座標系における3次元座標値をもつ形式のデータでもよいし、2次元画像の各点(各画素)にデプス値(奥行き距離の情報)が関連づけられた形式のデータでもよい。
また、本発明は、
テンプレートを用いて対象物体を認識する物体認識処理方法であって、
前記対象物体を含む画像を取得するステップと、
前記取得された画像から特徴量を抽出するステップと、
前記テンプレート作成方法により作成されたテンプレートを用いたテンプレートマッチングにより前記対象物体を認識するステップと、
を含む物体認識処理方法である。
本発明によれば、対象物体の細かな形状やテクスチャを反映した実物に近いテンプレートによって物体認識が行われるので、より高精度の物体認識が可能となる。
また、本発明は、
前記テンプレート作成方法の各ステップをコンピュータに実行させるためのプログラムである。
また、本発明は、
前記物体認識方法の各ステップをコンピュータに実行させるためのプログラムである。
本発明によれば、異なる視点で計測した3次元計測を用いて物体認識用のテンプレートを作成する際に、細かな形状やテクスチャが失われることなく実物に近いテンプレートを作成することができる技術を提供することが可能となる。
本発明の実施形態における物体認識装置の全体構成の一例を示す図である。 本発明の実施例形態における物体認識装置の機能ブロック図である。 本発明の実施形態におけるテンプレート作成処理の一例を示すフローチャートである。 本発明の実施形態における対象物体の撮影及び撮影視点位置姿勢の取得構成を説明する図である。 本発明の実施形態におけるテンプレート作成視点と撮影視点との関係を説明するである。 本発明の実施形態に対する画像平面上での統合処理を模式的に示す図である。 本発明の実施形態における物体認識処理の一例を示すフローチャートである。 本発明の適用例を説明する図である。
〔適用例〕
以下、本発明の適用例について、図面を参照しつつ説明する。
図8は、本発明におけるテンプレート作成方法の原理を説明する図である。
図8(A)は、視点VPからの対象物体227のテンプレートを作成する例である。ここでは、視点VPから対象物体227の中心227cに至る矢印を実線で表示している。
従来は、視点VPから対象物体227のテンプレートを作成する場合には、IMPa,IMPb,IMPcの複数の異なる視点から対象物体227を3次元センサ220によって取得された3次元計測データを3次元空間上で統合していた。視点IMPa,IMPb,IMPcからそれぞれ取得された3次元計測データIMa,IMb,IMcを図8(B)の左側に模式的に示す。このとき、3次元センサ220の視点位置姿勢認識の誤差や、計測誤差、ノイズ等により、各3次元計測データ図8(B)の左側に示すように、3次元計測データIMa,IMb,IMcは必ずしも一致しない。このような3次元計測データを3次元空間で統合されたデータIM0では、図8(B)の右側に示すように、各3次元計測データが平均化されることにより、対象物体の形状が均されてしまう。
これに対して、本発明では、視点VPから対象物体227のテンプレートを作成する場合には、複数の異なる視点から対象物体227を3次元センサ220によって取得された3次元計測データのうち、視点位置がテンプレート作成視点VPの位置に最も近いデータをテンプレート作成視点VPの画像平面上に投影したものを優先して用いる。そして、テンプレート作成視点VPの画像平面上に投影されていない画素を、テンプレート作成視点VPの位置から遠い視点位置からの対象物体の3次元計測データの投影によって補う。
このため、3次元センサ220の視点位置姿勢認識の誤差はあるものの、対象物体227の形状情報は失われない。
また、3次元センサによって取得された3次元計測データを3次元空間上で統合するのではなく、テンプレート作成視点VPの画像平面上に投影した2次元データとして統合するため、メモリ使用量が少なく、処理時間を短縮することができる。
〔実施形態〕
(物体認識装置の全体構成)
図1を参照して、本発明の実施形態に係る物体認識装置について説明する。
物体認識装置2は、物品の組み立てや加工などを行う生産ラインに設置され、センサユニット20から取り込まれたデータを用いて、テンプレートマッチングによりトレイ26に積載された物体27の位置・姿勢を認識(3次元の物体認識)するシステムである。トレイ26上には、認識対象の物体27がバラ積みされている。
物体認識装置2は、概略、センサユニット20と画像処理装置21から構成される。センサユニット20と画像処理装置21のあいだは有線又は無線で接続されており、センサユニット20の出力は画像処理装置21に取り込まれる。画像処理装置21は、センサユニット20から取り込まれたデータを用いて各種の処理を行うデバイスである。画像処理装置21の処理としては、例えば、距離計測(測距)、3次元形状認識、物体認識、シーン認識などが含まれてもよい。物体認識装置2の認識結果は、例えばPLC(プログラマブルロジックコントローラ)25やディスプレイ22などに出力される。認識結果は、例えば、ピッキング・ロボット28の制御、加工装置や印字装置の制御、対象物体27の検査や計測などに利用される。
(センサユニット)
センサユニット20は、対象物体27の光学像を撮影するためのカメラを少なくとも有する。さらに、センサユニット20は、対象物体27の3次元計測を行うために必要な構成(センサ、照明装置、投光装置など)を含んでもよい。例えば、ステレオマッチング(ステレオビジョン、ステレオカメラ方式などとも呼ばれる。)によって奥行き距離を計測する場合には、センサユニット20に複数台のカメラが設けられる。アクティブステレオの場合はさらに、対象物体27にパターン光を投射する投光装置がセンサユニット20に設けられる。空間コード化パターン投影方式により3次元計測を行う場合には、パターン光を投射する投光装置とカメラがセンサユニット20に設けられる。他にも、照度差ステレオ法、TOF(タイムオブフライト)法、位相シフト法など、対象物体27の3次元情報を取得可能な方法であればいかなる方式を用いてもよい。
(画像処理装置)
画像処理装置21は、例えば、CPU(プロセッサ)、RAM(メモリ)、不揮発性記憶装置(ハードディスク、SSDなど)、入力装置、出力装置などを備えるコンピュータにより構成される。この場合、CPUが、不揮発性記憶装置に格納されたプログラムをRAMに展開し、当該プログラムを実行することによって、後述する各種の構成が実現される。ただし、画像処理装置21の構成はこれに限られず、後述する構成のうちの全部又は一部を、FPGAやASICなどの専用回路で実現してもよいし、クラウドコンピューティングや分散コンピューティングにより実現してもよい。
図2は、画像処理装置21の構成を示すブロック図である。画像処理装置21は、テンプレート作成装置30の構成と、物体認識処理装置31の構成を有している。
テンプレート作成装置30は、物体認識処理で利用するテンプレートを作成するための構成であり、複数視点3次元計測データ取得部300、撮影視点3次元位置姿勢データ取得部301、テンプレート作成視点位置情報取得部302、テンプレート作成視点の3次元データ生成部303、特徴抽出部304、テンプレート作成部305、テンプレート情報出力部306を有する。本実施形態では、複数視点3次元計測データ取得部300が本発明の「3次元計測データ取得部」に対応する。また、本実施形態では、撮影視点3次元位置姿勢データ取得部301が本発明の「計測視点位置姿勢データ取得部」に対応する。また、本実施形態では、テンプレート作成視点位置情報取得部302が本発明の「テンプレート作成視点位置姿勢データ取得部」に対応する。そして、本実施形態では、テンプレート作成視点の3次元データ生成部303が本発明の「基礎3次元データ生成部」に対応する。
物体認識処理装置31は、テンプレートマッチングによる物体認識処理を実行するための構成であり、画像取得部310、画像ピラミッド作成部311、特徴抽出部312、テンプレート情報取得部313、テンプレートマッチング部314、認識結果出力部315を有する。本実施形態では、画像取得部310、特徴抽出部312、テンプレートマッチング部314が、それぞれ本発明の「画像取得部」、「特徴抽出部」、「テンプレートマッチング部」に対応する。
(テンプレート作成処理)
図3のフローチャートを参照して、テンプレート作成装置30によるテンプレート作成処理の一例を説明する。
ステップS101において、テンプレート作成視点の3次元データ生成部303が、異なる視点から撮影した対象物体の3次元計測データ、撮影視点の3次元位置姿勢に関する情報、テンプレート作成視点位置に関する情報を取得する。ここでは、複数の異なる視点からの対象物体の3次元計測データは、複数視点3次元計測データ取得部300によって取得される。このため、テンプレート作成視点の3次元データ生成部303は、異なる視点から撮影した対象物体の3次元計測データを、この複数視点3次元計測データ取得部300から取得する。また、複数視点3次元計測データ取得部が複数の異なる視点から対象物体を撮影して当該対象物体の3次元計測データを取得する際の撮影視点の3次元位置姿勢データが、撮影視点3次元位置姿勢データ取得部301によって取得される。このため、テンプレート作成視点の3次元データ生成部303は、撮影視点の3次元位置姿勢に関する情報を、この撮影視点3次元位置姿勢データ取得部301から取得する。そして、テンプレート作成視点の位置姿勢に関するデータは、テンプレート作成視点位置情報取得部302によって取得されるので、テンプレート作成視点の3次元データ生成部303は、テンプレート作成視点位置姿勢に関するデータを、テンプレート作成視点位置情報取得部302から取得する。本実施形態では、撮影視点が本発明の「計測視点」に対応する。
図4は、異なる複数の視点から対象物体の3次元計測データ及び撮影視点の3次元位置姿勢に関する情報を取得する構成の概略を説明する図である。
対象物体27に対して、3次元センサ220を所定の位置姿勢に配置して、対象物体27の3次元計測データを取得(撮影)するとともに、撮影視点の位置姿勢情報を取得する。3次元センサ220によって対象物体を複数の異なる視点から撮影して3次元計測データを取得する場合には、3次元センサ220を固定して、対象物体27の姿勢を変えるようにしてもよいし、対象物体27を固定して、3次元センサ220の姿勢を変えるようにしてもよく、3次元センサ220と対象物体27の相対的な位置関係が変わればよい。図4では、3次元センサ220によって載置面32上に載置された対象物体27を撮影して3次元計測データを取得する場合の一例を示す。ここでは、3次元センサ220を固定して、載置面32の姿勢を変えてもよいし、載置面32の姿勢を固定し、3次元センサ220の姿勢を変えるようにしてもよい。
また、撮影視点の3元位置姿勢は、対象物体の載置面32に表示された平面マーカ33や、載置面に対して固定して配置された参照物体(3DCADデータ等により形状が分かっている物体)を認識することによって取得してもよいし、対象物体の載置面32をゴニオステージ上に設けることによって取得してもよい。
図5は、テンプレート作成視点と撮影視点との例を示している。この例では、対象物体27を包含する正八十面体の42個の頂点をテンプレート作成視点VPとし、ここでは一つの頂点VP1(黒丸で図示)にテンプレート作成視点を設定している。なお、テンプレート作成視点VPの数や配置は、要求される分解能、対象物体27の形状や取り得る姿勢などに応じて適宜設定すればよい。テンプレート作成視点VPの数や位置は、ユーザが指定したものを、テンプレート作成視点位置情報取得部302が取得するようにしてもよいし、テンプレート作成視点位置情報取得部302が自動で設定したものを保持しておくようにしてもよい。図5に示す例では、正八十面体の中心に対象物体を配置しているので、この正八十面体の頂点の位置を指定することで、テンプレート作成視点の位置とともに姿勢も一義的に定まるが、テンプレート作成視点の位置姿勢の設定方法はこれに限られない。なお、図5では、正八十面体の頂点のうち、紙面手前側に存在する頂点を白丸で示している。
図5において、矢印IMP1、矢印IMP2及び矢印IMP3がそれぞれ第1の撮影視点、第2の撮影視点及び第3の撮影視点を示す。ここでは、例として3つの撮影視点を示しているが、これに限られるものではない。
図3のフローチャートに戻り、ステップS102において、テンプレートを作成していない視点位置を選択する。ここでは、テンプレートを作成していない視点位置として、図5の黒丸の視点位置が選択されたものとする。
次に、ステップS103において、テンプレート作成視点ベクトルと全ての撮影視点ベクトルとの角度を算出する。ここでは、全ての撮影視点が、矢印IMP1、矢印IMP2、矢印IMP3であるとする。
テンプレート作成視点ベクトルとは、テンプレート作成視点VPから対象物体の中心に向かうベクトルである。図5において黒丸で示されるテンプレート作成視点については、テンプレート作成視点ベクトルは、正八十面体の黒丸で示される頂点から、この正八十面体の中心に一致するように配置された対象物体の中心に向うベクトルである。そして、撮影視点ベクトルとは、複数視点3次元計測データ取得部300によって対象物体27を撮影する際の、撮影視点から対象物体の中心に向うベクトルである。図5において、第1の撮影視点、第2の撮影視点及び第3の撮影視点に対応する撮影視点ベクトルは、それぞれ矢印IMP1、矢印IMP2及び矢印IMP3の方向ベクトルである。
ここでは、黒丸で示された正八十面体の頂点から中心に向かうベクトルと、矢印IMP1、矢印IMP2及び矢印IMP3の方向のベクトルとの角度を算出する。
ステップS104において、未投影の撮影視点、計測データの中から最も角度が小さいものを選択する。ここでは、全ての撮影視点が未投影であるとする。図5の例では、矢印IMP1の撮影視点に対する撮影視点ベクトルとテンプレート作成視点ベクトルとの角度が最も小さいので、矢印IMP1で示される第1の撮影視点と、この第1の撮影視点から撮影された3次元計測データを選択する。
次に、ステップS105において、矢印IMP1で示される第1の撮影視点から、複数視点3次元計測データ取得部300によって撮影された3次元計測データを、ステップS102で選択されたテンプレート作成視点VP1に対する画像平面に投影する。図6(A)は、矢印IMP1で示される第1の撮影視点から撮影された3次元計測データを画像平面に投影した画像を模式的に示したものである。図6(A)~(C)では、各撮影視点からの3次元計測データに対応する部分を実線で示し、比較のために統合後のデータを破線で示している。本実施形態では、画像平面が、本発明の「所定の平面」に対応する。
このように、テンプレート作成視点に対する画像平面上に、異なる撮影視点から撮影された3次元計測データを投影し、該平面上で統合処理を行うようにしたので、メモリ使用量が小さく処理時間も短縮できる。
そして、ステップS106において、全ての撮影視点について、当該撮影視点から撮影された3次元計測データを、テンプレート作成視点VP1に対する画像平面に投影したか否かを判断する。
ステップS106において、Noと判断された場合、すなわち、全ての撮影視点のうち、当該撮影視点から撮影された3次元計測データのうち、テンプレート作成視点VP1に対する画像平面に投影していない撮影視点が存在している場合には、ステップS104に戻る。図5の例では、未投影の撮影視点のうちで、テンプレート作成視点ベクトルとなす角度が最も小さい、矢印IMP3で示される第3の撮影視点からの撮影視点ベクトルと、この第3の撮影視点から撮影された3次元計測データを選択し、ステップS105に進む。同様に、次に、ステップS106からステップS104に戻った際には、矢印IMP2で示される第2の撮影視点からの撮影視点ベクトルと、第2の撮影視点から撮影された3次元計測データが選択される。図6(B)は、矢印IMP3で示される第3の撮影視点から撮影された3次元計測データを画像平面に投影した画像を模式的に示したものである。そして、図6(C)は、矢印IMP2で示される第2の撮影視点から撮影された3次元計測データを画像平面に投影した画像を模式的に示したものである。このように、第1の撮影視点から第3の撮影視点からの3次元計測データを画像平面に投影して統合した画像を図6(D)に模式的に示す。
このように、テンプレート作成視点から近い撮影視点から順に、テンプレート作成視点に対する画像平面に投影し、撮影点群データが存在しない画素、すなわち、より優先される撮影点群データに含まれない部分について他の撮影視点からの点群データを補う。これにより、対象物体の細かな形状やテクスチャが失われることがなく、実物に近いテンプレートの作成が可能となる。
ステップS106において、Yesと判断された場合、すなわち、全ての撮影視点について、当該撮影視点から撮影された3次元計測データを、テンプレート作成視点VP1に対する画像平面に投影したと判断された場合には、ステップS107に進む。
ステップS107においては、特徴抽出部304が、ステップS102で選択されたテンプレート作成視点VP1に対する画像平面に投影された全撮影視点からの対象物体27の3次元計測データに基づいて、対象物体27の画像特徴を抽出する。画像特徴としては、例えば、輝度、色、輝度勾配方向、量子化勾配方向、HoG(Histogram of Oriented Gradients)、表面の法線方向、HAAR-like、SIFT(Scale-Invariant Feature Transform)などを用いることができる。輝度勾配方向は、特徴点を中心とする局所領域での輝度の勾配の方向(角度)を連続値で表すものであり、量子化勾配方向は、特徴点を中心とする局所領域での輝度の勾配の方向を離散値で表す(例えば、8方向を0~7の1バイトの情報で保持する)ものである。特徴抽出部304は、テンプレート作成視点に対する画像平面に投影された画像60の全ての点(画素)について画像特徴を求めてもよいし、所定の規則に従ってサンプリングした一部の点について画像特徴を求めてもよい。画像特徴が得られた点を特徴点と呼ぶ。
ステップS108において、テンプレート作成部305が、ステップS107で抽出された画像特徴に基づいて、テンプレート作成視点VP1に対応するテンプレートを作成する。テンプレートは、例えば、各特徴点の座標値と抽出された画像特徴とを含むデータセットである。
ステップS102~S108の処理が、ステップS101で取得された全てのテンプレート作成視点VPについて行われる(ステップS109)。全てのテンプレート作成視点VPについてテンプレートの作成が完了すると、テンプレート作成部305は、テンプレート情報出力部306を介して、テンプレートのデータを物体認識処理装置31に出力する(ステップS110)。
(物体認識処理)
図7のフローチャートを参照して、物体認識処理装置31による物体認識処理方法の一例を説明する。
まず、ステップS201において、テンプレート情報取得部313は、テンプレート作成装置30のテンプレート情報出力部306から出力されるテンプレートのデータを取得し、テンプレートマッチング部314に供給する。
次に、ステップS202において、画像取得部310が、対象物体を含み、物体認識処理の対象となる画像を取得する。この画像は、画像処理装置21の内部記憶装置から読み込んでもよいし、外部のストレージ等からネットワークを介して取得してもよい。また、センサユニット20で撮影された画像を取得するようにしてもよい。なお、認識結果をピッキング・ロボット28の制御に用いる場合には、センサユニット20をピッキング・ロボット28のアームに取り付けるようにしてもよい。
次に、ステップS203において、画像ピラミッド作成部311が、画像取得部310によって取得された画像から低解像度画像を生成し、画像ピラミッドを生成する。例えば、第1層画像として160画素×120画素、第2層画像として320画素×240画素等のように低解像度画像から高解像度画像へと解像度を段階的に異ならせた複数の画像から画像ピラミッドを構成することができる。
次に、ステップS204において、特徴抽出部312は、画像ピラミッドを構成する各層画像に対して画像特徴を抽出する。抽出される画像特徴は、テンプレート作成の際の画像特徴と同種の特徴量である。画像ピラミッドの最上層である第1層画像(最も解像度が低い画像)に対する画像特徴の抽出の結果として、第1層画像と同じ解像度を有し、第1層画像の各画素位置で抽出された特徴量データを画素値としてもつ画像(以下、「第1層特徴画像」ともいう。)が得られる。同様に、第2層画像に対する画像特徴の抽出の結果として、第2層特徴画像が得られる。
次に、ステップS205において、テンプレートマッチング部314は、テンプレート情報取得部313から供給される視点ごとのテンプレートのデータと、各テンプレートのデータに対応する特徴抽出部312算出した各特徴量とを用いてテンプレートマッチングを行う。
ここでは、テンプレートマッチング部314は、まず、第1層特徴画像と第1層用の視点ごとのテンプレートを用いてマッチング処理を行う。テンプレートマッチング部314は、第1層用の視点ごとのテンプレートを用いたマッチング処理の結果、正解候補となるテンプレートを検出すると、検出結果に基づき、第2層特徴画像の探索範囲を設定し、第2層特徴画像と第2層用の視点ごとのテンプレートを用いてマッチング処理を行う。第3層画像、第4層画像が存在する場合には、これらの層画像に対しても同様の処理が行われる。このような処理が行われる結果、最下層(最も画像の解像度が高い層)における物体の存在位置姿勢を認識することができる。
次に、ステップS206において、テンプレートマッチング部314は、対象物体の存在位置や姿勢などを認識すると、認識結果を示す認識情報を認識結果出力部315に出力する。認識結果出力部315は、テンプレートマッチング部314から供給される認識情報を、外部装置や液晶パネル等に出力する。認識情報は、例えば、対象物体の検査・計測や、ピッキング・ロボット28の制御などに利用される。
(本実施形態の利点)
以上述べた構成及び処理では、異なる視点から撮影した対象物体の3次元計測データを3次元空間において統合処理するのではなく、異なる視点から撮影した対象物体の3次元計測データをテンプレート作成視点に対する画像平面に投影することにより得られたデータに基づいて、対象物体の画像特徴を抽出することにより、テンプレートのデータを生成している。このように、画像平面において統合処理を行うため、メモリ使用量が小さく処理時間も短縮できる。従って、テンプレート作成処理を高速化できる。
また、異なる視点から撮影した対象物体の3次元計測データのうち、テンプレート作成視点に近い視点の撮影点群データを優先的に使用して統合する。このように、テンプレート作成視点に近い視点の撮影点群データから順に画像平面に投影し、点群が存在しない画素だけを、他の撮影視点からの撮影点群データによって補う。このため、対象物体の細かな形状やテクスチャが失われることなく、実物に近いテンプレートを作成することができる。
<その他>
上記実施形態は、本発明の構成例を例示的に説明するものに過ぎない。本発明は上記の具体的な形態には限定されることはなく、その技術的思想の範囲内で種々の変形が可能である。
また、テンプレート作成視点は、上述のように正多面体の頂点を視点として採用してもよいし、対象物体の中心を中心とする天球上を等間隔にサンプリングする任意の方法によって作成してもよい。
テンプレート作成視点と撮影視点との距離の指標は、テンプレート作成視点ベクトルと撮影視点ベクトルとの角度に限られず、テンプレート作成視点と撮影視点間のユークリッド距離や測地線距離を用いてもよい。
また、テンプレート作成視点と撮影視点とが遠い場合、例えば、テンプレート作成視点ベクトルと撮影視点ベクトルとのなす角度が所定の閾値以上である場合には、そのような撮影視点に対しては、ステップS105の投影処理を行わないようにしてもよい。対象物体の計測点の法線ベクトルにより、テンプレート作成視点から見える点か否かを判別することができるので、テンプレート作成視点から見えない点については、ステップS105の投影処理を行わないようにしてもよい。
なお、以下には本発明の構成要件と実施例の構成とを対比可能とするために、本発明の構成要件を図面の符号付きで記載しておく。
<発明1>
視点から見た対象物体(27)に対応するテンプレートを作成するテンプレート作成装置(30)であって、
前記テンプレートを作成するための前記視点としてのテンプレート作成視点の位置姿勢に関するデータを取得するテンプレート作成視点位置姿勢データ取得部(302)と、
前記対象物体(27)の3次元計測データを取得する3次元計測データ取得部(300)と、
前記対象物体(37)を3次元計測する視点としての計測視点の位置姿勢に関するデータを取得する計測視点位置姿勢データ取得部(301)と、
異なる前記計測視点に対応する前記3次元計測データを前記テンプレート作成視点に対する所定の平面に投影し、投影された前記3次元計測データに基づいて、特徴量を抽出するための基礎3次元データを生成する基礎3次元データ生成部(303)と、
を備え、
前記基礎3次元データ生成部(303)は、前記テンプレート作成視点に対する距離がより近い前記計測視点を選択し、選択された該計測視点に対応する前記3次元計測データを、前記基礎3次元データを生成するために優先して用いることを特徴とするテンプレート作成装置(30)。
2:物体認識装置
21:画像処理装置
27:対象物体
30:テンプレート作成装置
31:物体認識処理装置
300:複数視点3次元計測データ取得部
301:撮影視点3次元位置姿勢データ取得部
302:テンプレート作成視点位置情報取得部
303:テンプレート作成視点の3次元データ生成部
310:画像取得部
312:特徴抽出部
314:テンプレートマッチング部

Claims (7)

  1. 視点から見た対象物体に対応するテンプレートを作成するテンプレート作成装置であって、
    前記テンプレートを作成するための前記視点としてのテンプレート作成視点の位置姿勢に関するデータを取得するテンプレート作成視点位置姿勢データ取得部と、
    前記対象物体の3次元計測データを取得する3次元計測データ取得部と、
    前記対象物体を3次元計測する視点としての計測視点の位置姿勢に関するデータを取得する計測視点位置姿勢データ取得部と、
    異なる前記計測視点に対応する前記3次元計測データを前記テンプレート作成視点に対する所定の平面に投影し、投影された前記3次元計測データに基づいて、特徴量を抽出するための基礎3次元データを生成する基礎3次元データ生成部と、
    前記基礎3次元データに基づいて前記特徴量を抽出する特徴抽出部と、
    前記テンプレート作成視点のそれぞれについて、該テンプレート作成視点に対して抽出された前記特徴量に基づいて、前記テンプレートを作成するテンプレート作成部と、
    を備え、
    前記基礎3次元データ生成部は、前記テンプレート作成視点に対する距離がより近い前記計測視点を選択し、選択された該計測視点に対応する前記3次元計測データを、前記基礎3次元データを生成するために優先して用いることを特徴とするテンプレート作成装置。
  2. 前記基礎3次元データ生成部は、前記基礎3次元データのうち、前記所定の平面に投影された、より優先される前記3次元計測データに含まれない部分を、前記3次元計測データを前記所定の平面に投影されたデータによって補うことを特徴とする請求項1に記載のテンプレート作成装置。
  3. 前記対象物体を含む画像を取得する画像取得部と、
    前記取得された画像から前記特徴量を抽出する特徴抽出部と、
    請求項1又は2に記載のテンプレート作成装置によって作成されたテンプレートを用いたテンプレートマッチングにより前記取得された画像に含まれる前記対象物体を認識する
    テンプレートマッチング部と、
    を備えた物体認識処理装置。
  4. 視点から見た対象物体に対応するテンプレートを作成するテンプレート作成方法であって、
    前記テンプレートを作成するための前記視点としてのテンプレート作成視点の位置姿勢に関する情報を取得するステップと、
    前記対象物体の3次元計測データを取得するステップと、
    前記対象物体を3次元計測する視点としての計測視点の位置姿勢に関するデータを取得するステップと、
    前記テンプレート作成視点に対する距離がより近い前記計測視点を選択するステップと、
    前記選択された前記計測視点に対応する前記3次元計測データを、前記テンプレート作成視点に対する所定の平面に投影するステップと、
    前記投影された前記3次元計測データに基づいて、特徴量を抽出するための基礎3次元データを生成する際に、前記距離がより近い前記計測視点に対応する前記3次元計測データを優先して用いて基礎3次元データを生成するステップと、
    前記基礎3次元データに基づいて前記特徴量を抽出するステップと、
    前記テンプレート作成視点のそれぞれについて、該テンプレート作成視点に対して抽出された前記特徴量に基づいて、前記テンプレートを作成するステップと、
    を含むテンプレート作成方法。
  5. テンプレートを用いて対象物体を認識する物体認識処理方法であって、
    前記対象物体を含む画像を取得するステップと、
    前記取得された画像から前記特徴量を抽出するステップと、
    請求項4に記載のテンプレート作成方法により作成されたテンプレートを用いたテンプレートマッチングにより前記対象物体を認識するステップと、
    を含む物体認識処理方法。
  6. 請求項4に記載のテンプレート作成方法の各ステップをコンピュータに実行させるためのプログラム。
  7. 請求項5に記載の物体認識処理方法の各ステップをコンピュータに実行させるためのプログラム。
JP2021534891A 2019-07-22 2019-07-22 テンプレート作成装置、物体認識処理装置、テンプレート作成方法、物体認識処理方法及びプログラム Active JP7251631B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/028679 WO2021014538A1 (ja) 2019-07-22 2019-07-22 テンプレート作成装置、物体認識処理装置、テンプレート作成方法、物体認識処理方法及びプログラム

Publications (2)

Publication Number Publication Date
JPWO2021014538A1 JPWO2021014538A1 (ja) 2021-01-28
JP7251631B2 true JP7251631B2 (ja) 2023-04-04

Family

ID=74193515

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021534891A Active JP7251631B2 (ja) 2019-07-22 2019-07-22 テンプレート作成装置、物体認識処理装置、テンプレート作成方法、物体認識処理方法及びプログラム

Country Status (2)

Country Link
JP (1) JP7251631B2 (ja)
WO (1) WO2021014538A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7391342B2 (ja) * 2021-08-09 2023-12-05 株式会社Mujin 計算システム、方法及び非一時的コンピュータ可読媒体

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012043308A (ja) 2010-08-20 2012-03-01 Canon Inc 位置姿勢決定方法、位置姿勢決定装置、物体モデル生成方法、物体モデル生成装置、およびプログラム
JP2013217893A (ja) 2012-03-13 2013-10-24 Canon Inc モデル生成装置、位置姿勢推定装置、情報処理装置、モデル生成方法、位置姿勢推定方法、情報処理方法
JP2018081410A (ja) 2016-11-15 2018-05-24 セイコーエプソン株式会社 コンピュータープログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012043308A (ja) 2010-08-20 2012-03-01 Canon Inc 位置姿勢決定方法、位置姿勢決定装置、物体モデル生成方法、物体モデル生成装置、およびプログラム
JP2013217893A (ja) 2012-03-13 2013-10-24 Canon Inc モデル生成装置、位置姿勢推定装置、情報処理装置、モデル生成方法、位置姿勢推定方法、情報処理方法
JP2018081410A (ja) 2016-11-15 2018-05-24 セイコーエプソン株式会社 コンピュータープログラム

Also Published As

Publication number Publication date
WO2021014538A1 (ja) 2021-01-28
JPWO2021014538A1 (ja) 2021-01-28

Similar Documents

Publication Publication Date Title
CN110568447B (zh) 视觉定位的方法、装置及计算机可读介质
TWI729995B (zh) 基於場景之拍攝圖像而產生合併、融合三維點雲
JP6363863B2 (ja) 情報処理装置および情報処理方法
JP6426968B2 (ja) 情報処理装置およびその方法
CN110728671B (zh) 基于视觉的无纹理场景的稠密重建方法
US7769205B2 (en) Fast three dimensional recovery method and apparatus
WO2021140886A1 (ja) 三次元モデル生成方法、情報処理装置およびプログラム
JP6733267B2 (ja) 情報処理プログラム、情報処理方法および情報処理装置
EP3382645B1 (en) Method for generation of a 3d model based on structure from motion and photometric stereo of 2d sparse images
US9704255B2 (en) Three-dimensional shape measurement device, three-dimensional shape measurement method, and three-dimensional shape measurement program
JP2011129082A (ja) 3次元物体認識装置及び3次元物体認識方法
Weinmann et al. Geometric point quality assessment for the automated, markerless and robust registration of unordered TLS point clouds
US20130287293A1 (en) Active Lighting For Stereo Reconstruction Of Edges
Sun et al. High-accuracy three-dimensional measurement based on multi-directional cooperative target with weighted SfM algorithm
JP7298687B2 (ja) 物体認識装置及び物体認識方法
JP7251631B2 (ja) テンプレート作成装置、物体認識処理装置、テンプレート作成方法、物体認識処理方法及びプログラム
KR101000859B1 (ko) 어안렌즈를 이용한 hdri파노라마 영상 생성장치 및 방법
GB2569609A (en) Method and device for digital 3D reconstruction
KR102195762B1 (ko) 포토그래메트리를 이용한 고품질 3차원 공간 정보 획득 방법
CN110363806B (zh) 一种利用不可见光投射特征进行三维空间建模的方法
KR101673144B1 (ko) 부분 선형화 기반의 3차원 영상 정합 방법
CN110378964A (zh) 一种摄像机外参标定方法及装置、存储介质
JP2014178967A (ja) 3次元物体認識装置及び3次元物体認識方法
JP7327484B2 (ja) テンプレート作成装置、物体認識処理装置、テンプレート作成方法、物体認識処理方法及びプログラム
JP2002135807A (ja) 3次元入力のためのキャリブレーション方法および装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220927

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221121

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230221

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230306

R150 Certificate of patent or registration of utility model

Ref document number: 7251631

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150