JP2016197287A - 情報処理装置、情報処理方法、プログラム - Google Patents

情報処理装置、情報処理方法、プログラム Download PDF

Info

Publication number
JP2016197287A
JP2016197287A JP2015076076A JP2015076076A JP2016197287A JP 2016197287 A JP2016197287 A JP 2016197287A JP 2015076076 A JP2015076076 A JP 2015076076A JP 2015076076 A JP2015076076 A JP 2015076076A JP 2016197287 A JP2016197287 A JP 2016197287A
Authority
JP
Japan
Prior art keywords
image
orientation
target object
shadow
measurement target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015076076A
Other languages
English (en)
Other versions
JP6736257B2 (ja
Inventor
潤 庭山
Jun Niwayama
潤 庭山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015076076A priority Critical patent/JP6736257B2/ja
Priority to DE102016003294.4A priority patent/DE102016003294A1/de
Priority to CN201610191851.8A priority patent/CN106052646B/zh
Priority to US15/087,482 priority patent/US10332275B2/en
Publication of JP2016197287A publication Critical patent/JP2016197287A/ja
Application granted granted Critical
Publication of JP6736257B2 publication Critical patent/JP6736257B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/254Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Geometry (AREA)

Abstract

【課題】 ノイズがある状況においても、ロバストな位置姿勢計測を行うこと。
【解決手段】 撮像装置により撮像された、計測対象物体を含む画像を取得し、前記計測対象物体の概略位置姿勢情報を取得し、前記撮像装置の位置に基づいて、前記画像における前記計測対象物体の影の方向を推定し、前記概略位置姿勢に基づき前記複数の幾何特徴を2次元平面に投影し、前記影の方向に基づいて前記幾何特徴ごとに前記計測対象物体の影に対応する可能性があるかを判定し、該可能性があると判定された幾何特徴に対して第1のフラグを設定し、前記画像から複数の画像特徴を検出し、前記概略位置姿勢に基づいて前記複数の幾何特徴を前記画像に投影し、前記設定手段で設定された第1のフラグに基づいて該投影された複数の幾何特徴と前記複数の画像特徴とを対応づける対応づけ手段と、前記対応付け手段で対応付けされた結果に基づいて、前記計測対象物体の位置姿勢を導出する。
【選択図】 図2

Description

本発明は、3次元形状が既知である物体の位置及び姿勢を計測する技術に関する。
生産現場では、生産効率向上のため、ロボットによる自動化が進められている。ロボットによる組み立て作業では、対象物体を認識し、正確な位置姿勢を取得する必要がある。これを実現する方法として、対象物体を撮影した濃淡画像や距離画像を用いた方法が開発されている。濃淡画像や距離画像には、様々な要因で発生するノイズが混在しているため、ノイズに対してロバスト性の高い方法が望まれる。
例えば、対象物体を撮影した濃淡画像や距離画像から得られる計測データを形状モデルに当て嵌めるモデルフィッティングの手法により、カメラの位置姿勢計測を行う方法が知られている。具体的には、対象物体の概略の位置姿勢である概略位置姿勢を与え、濃淡画像から抽出したエッジや距離画像から得られる距離値が形状モデルとより正しくフィッティングするように位置姿勢を最適化していく方法である。また、カメラの位置姿勢計測をロバスト化する手段としては、カメラの位置姿勢が取り得る範囲に所定のサンプリング間隔で複数の概略位置姿勢を生成して、それぞれの概略位置姿勢においてフィッティングの繰り返し計算を行い最も成績の良いフィッティング結果をフィッティングの最終結果とする方法が知られている。
対象物体を撮影した濃淡画像や距離画像に存在する影へのロバスト化の方法としては、取得された画像中で対象物体の影領域に関する情報を推定した上で、影領域内の偽の輪郭に誤って対応づかないような処理を行う方法が提案されている。特許文献1では、距離画像中の距離値が欠損を含む領域を影領域と判定した上で、フィッティングの最適化計算時に対応付ける点が影領域内に存在するか否かで異なる重みづけ係数を用いている。
特開2012−42396号公報
特許文献1で開示されている方法は、影が発生している箇所が距離画像中に欠損部として明確に反映される場合を前提としており、二次的な反射光等の影響によって距離画像中で距離値をもってしまっているような影については対応できない。
本発明は、上記課題に鑑みてなされたものであり、物体を含む画像に影が含まれていても、前記物体の位置姿勢を精度よく計測することを目的とする。
上記課題を解決するために、本初発明の情報処理装置は、例えば、撮像装置により撮像された、計測対象物体を含む画像を取得する取得手段と、前記計測対象物体の概略位置姿勢情報を取得する概略位置姿勢取得手段と、前記計測対象物体の複数の幾何特徴を表す3次元モデル情報を保持するモデル情報保持手段と、前記撮像装置の位置に基づいて、前記画像における前記計測対象物体の影の方向を推定する推定手段と、前記概略位置姿勢に基づき前記複数の幾何特徴を2次元平面に投影し、前記影の方向に基づいて前記幾何特徴ごとに前記計測対象物体の影に対応する可能性があるかを判定し、該可能性があると判定された幾何特徴に対して第1のフラグを設定する第1の設定手段と、前記画像から複数の画像特徴を検出する検出手段と、前記概略位置姿勢に基づいて前記複数の幾何特徴を前記画像に投影し、前記設定手段で設定された第1のフラグに基づいて該投影された複数の幾何特徴と前記複数の画像特徴とを対応づける対応づけ手段と、前記対応付け手段で対応付けされた結果に基づいて、前記計測対象物体の位置姿勢を導出する導出手段とを有することを特徴とする。
本発明によれば、物体を含む画像に影が含まれていても、前記物体の位置姿勢を精度よく計測することが可能になる。
第1〜第3の実施形態におけるシステムの構成を示す図。 第1〜第3の実施形態におけるプログラムのモジュール構成を示す図。 第1、第2の実施形態における位置姿勢算出手順を示すフローチャート。 第1の実施形態における誤対応箇所検出の詳細な手順を示すフローチャート。 第1、第2の実施形態における位置姿勢算出処理の詳細な手順を示すフローチャート。 第1〜第3の実施形態における対応点の探索の原理を示す図。 第1〜第3の実施形態におけるエッジの投影像と検出されたエッジの関係を説明する図。 第2の実施形態における誤対応箇所検出の詳細な手順を示すフローチャート。 (a)第2の実施形態における計測対象物体101を撮影した濃淡画像と計測対象物体の関係を説明する概念図、(b)第2の実施形態における濃淡画像中のエッジ点近傍の各画素における輝度値を示す図。 第3の実施形態における位置姿勢算出手順を示すフローチャート。 第3の実施形態における位置姿勢算出処理の詳細な手順を示すフローチャート。 第2の実施形態における影方向算出処理の詳細な手順を示すフローチャート。 第1の実施形態における3次元モデルの概略位置姿勢と撮像装置102の画像面との仮想空間上での関係を説明する図。 変形例2−1における位置姿勢算出処理の詳細な手順を示すフローチャート。 本発明にかかる情報処理装置のハードウェア構成の例を示す図である。
以下、添付図面を参照して本発明の好適な実施形態について詳細に説明する。
以下、本発明にかかる実施形態の情報処理装置を詳細に説明する。
本発明にかかる実施形態を説明するのに先立ち、各実施形態に示す情報処理装置が実装されるハードウェア構成について、図15を用いて説明する。
図15は、本実施形態における情報処理装置104のハードウェア構成図である。同図において、CPU1510は、バス1500を介して接続する各デバイスを統括的に制御する。CPU1510は、読み出し専用メモリ(ROM)1520に記憶された処理ステップやプログラムを読み出して実行する。オペレーティングシステム(OS)をはじめ、本実施形態に係る各処理プログラム、デバイスドライバ等はROM1520に記憶されており、ランダムアクセスメモリ(RAM)1530に一時記憶され、CPU1510によって適宜実行される。また、入力I/F1540は、外部の装置(撮像装置、表示装置、操作装置など)から情報処理装置104で処理可能な形式で入力信号として入力する。また、出力I/F1550は、外部の装置(表示装置など)へ該外部装置が処理可能な形式で出力信号として出力する。
[第1の実施形態]3次元モデルについて誤対応しやすい点を抽出する
図1は、第1の実施形態における情報処理装置104を用いたシステム構成の模式図である。
計測対象物体101は、位置及び姿勢(位置姿勢)を計測する対象となる物体である。本実施形態では、説明を簡単にするために、位置姿勢計測対象としての計測対象物体101は、図1に示すごとく、1つのみがある位置に載置されているものとする。しかし、以下に説明する位置姿勢計測処理は、計測対象物体101の形状や個数、載置形態に大きく依存するものではない。例えば、複数の異形状の計測対象物体が混合されて山積みされているような状態において、ある計測対象物体の位置姿勢を計測する場合にも、本実施形態は適用可能である。
図2は、第1の実施形態における情報処理装置104を用いたシステム構成の構成図である。
情報処理装置104は、撮像装置102および投影装置103と接続されており、投影装置103及び撮像装置102の動作制御を行うと共に、撮像装置103から得られた撮像画像を用いて、計測対象物体101の位置姿勢を求める。
撮像装置102は、現実空間の静止画若しくは動画像を撮像するものであり、本実施形態では、投影装置103によって光が照射された計測対象物体101を撮像するために使用する。そして撮像装置103は、撮像した画像(撮像画像)を、情報処理装置104に対して送出する。撮像装置102の内部パラメータ(焦点距離、主点位置、レンズ歪みパラメータ)は、例えば、後述のZhangの方法により事前に校正しておく。
投影装置103は、計測対象物体101に所定の光を照射するために使用する。投影装置103は、液晶プロジェクタである。投影装置の内部パラメータ(焦点距離、主点位置、レンズ歪みパラメータ)は、例えば、下記の文献に開示される方法により事前に校正しておく。なお、スリット光の投影ができれば投影装置103以外の装置を用いても良く、例えば、DMD(デジタルミラーデバイス)やLCOSを用いたプロジェクタであってもよい。
Z. Zhang,“A flexible new technique for camera calibration,”IEEE Transactions on Pattern Analysis and Machine Intelligence,vol.22,no.11,pp.1330−1334,2000
次に、情報処理装置104の機能構成例について説明する。
計測情報取得部201は、撮像装置102が取得した濃淡画像と距離画像を計測情報として情報処理装置104に取り込む(画像取得)。
装置情報取得部202は、投影装置103と撮像装置102との位置関係情報を事前情報として取得する。投影装置103と撮像装置102との位置関係情報は、投影装置102からパターン光を照射してカメラで撮影し、例えば以下の文献に記載された方法で求める。
M、Kimura、“Projector Calibration using Arbitrary Planes and Calibrated Camera”Computer Vision and Pattern Recognition、CVPR、2007.
概略位置姿勢取得部203は、撮像装置102に対する計測対象物体101の位置及び姿勢の概略値を取得する(概略位置姿勢取得)。入力された概略位置姿勢は、計測対象物体101の位置姿勢を求める為の繰り返し演算の初期値として与えられるものである。本実施形態では、情報処理装置104は時間軸方向に連続して計測を行うものとして、前回(前時刻)の計測値を概略の位置及び姿勢として用いる。
しかしながら、位置及び姿勢の概略値の入力方法はこれに限るものではない。例えば、過去の位置及び姿勢の計測をもとに物体の速度や角速度を時系列フィルタにより推定し、過去の位置及び姿勢と推定された速度・加速度から現在の位置及び姿勢を予測したものでもよい。また、様々な姿勢で撮像した対象物体の画像をテンプレートとして保持しておき、入力する画像に対してテンプレートマッチング(パターンマッチング)を行うことによって、計測対象物体101の大まかな位置と姿勢を推定してもよい。あるいは、他のセンサによる計測対象物体101の位置及び姿勢の計測が可能である場合には、該センサによる出力値を位置及び姿勢の概略値として用いてもよい。
センサは、例えばトランスミッタが発する磁界を物体に装着するレシーバで検出することにより位置及び姿勢を計測する磁気式センサであってもよい。また、物体上に配置されたマーカをシーンに固定されたカメラによって撮影することにより位置及び姿勢を計測する光学式センサであってもよい。その他、6自由度の位置及び姿勢を計測するセンサであればいかなるセンサであってもよい。また、物体の置かれているおおよその位置や姿勢があらかじめ分かっている場合にはその値を概略値として用いる。
モデル情報取得部204は、計測対象物体101の3次元モデル情報を保持する。3次元モデル情報は、3次元CADソフトで取り扱うことができるCADモデルそのもの、もしくは3次元CADモデルをComputer Graphics分野で使われる複数のポリゴン要素に変換したものである。本実施形態では、計測対象物体101の形状を模した3次元幾何モデルであって、ポリゴン要素で構成される3次元幾何モデルを用いる。しかしながら、形状モデルはこれにかぎられるものではなく、エッジを含めた形状を表すモデルであればなんでもよい。
エッジ検出部205は、取得した計測情報、装置情報、概略位置姿勢情報、およびモデル情報から、後述の影方向算出部206、誤対応箇所検出部207、および位置姿勢算出部208で用いるエッジの情報を検出する。ここで、検出するエッジの情報は、3次元モデルについてのものと、濃淡画像についてのものがある。検出されるエッジの情報として、本実施形態では3次元モデルのエッジ上での点の3次元座標や、仮想的に設定した画像面上でのエッジ点の2次元座標や、濃淡画像上でのエッジ点の2次元座標を用いる。しかしながら、検出するものは点に限定されず、例えば各エッジ点が属するエッジの方向(直線の方向や曲線の接線方向)を表すベクトルであってもよい。
影方向算出部206は、エッジ検出部205で算出した3次元モデルにおける各エッジ、もしくはエッジ上に設定した各点について、影方向を算出して付与する。影方向とは、投影装置103と撮像装置102、および仮想的に位置姿勢を設定された3次元モデルの間の相対的な位置関係によって算出される、計測対象物体101のあるエッジ近傍に発生すると推測される影の方向を示すベクトルである。本実施形態では、算出される影方向ベクトルは2次元平面上のベクトルとする。このような影方向ベクトルの例としては、後述のステップS302のように、投影装置103から仮想的に設定した概略位置姿勢の3次元モデルに向かう方向ベクトルを、撮像装置102の画像面に投影したものを用いる。
しかしながら、算出される影方向ベクトルはこれに限られるものではなく、3次元ベクトルであっても構わない。3次元ベクトルの例としては、投影装置103から仮想的に設定した概略位置姿勢の3次元モデルの各エッジに向かう方向ベクトルそのものを用いるのが良い。付与する影方向ベクトルは、本実施形態では3次元モデル上の各エッジ点ごとに算出することで最も厳密な影発生方向の情報を得ているが、計算処理の簡略化のために、一つのエッジを形成する直線や曲線上に複数のエッジ点が存在する場合、エッジごとに一つのまとまりとしてグループ化し、代表的な影方向ベクトルを付与しても良い。また、3次元モデルで代表的な一つの影方向ベクトルを付与しても良い。
誤対応箇所検出部207は、影方向の情報に基づき、誤対応箇所を抽出する。誤対応箇所とは、位置姿勢算出の際に影由来のエッジに誤って対応づく可能性のある箇所を意味する。抽出する箇所は、本実施形態では3次元モデルのエッジ上に設定した点であるが、上述の、複数のエッジ点をグループ化したエッジを抽出しても良い。
位置姿勢導出部208は、取得した計測情報、装置情報、概略位置姿勢の情報に加え、検出した誤対応箇所の情報を用いて、計測対象物体101の位置姿勢を導出(算出)する。具体的には、誤対応箇所の情報を3次元モデルのエッジの情報に反映させた上で、不図示の対応付け部が、3次元モデルのエッジと濃淡画像のエッジとの対応付けと対応点間の距離の総和が最小となる位置姿勢を最小二乗法による最適化計算を繰り返すことで、計測対象物体101の位置姿勢を導出する。
以上が、情報処理装置104の構成の一例についての説明である。
情報処理装置104を構成する各機能部は、CPU1510が、ROM1520に格納されたプログラムをRAM1530に展開し、後述する各フローチャートに従った処理を実行することで実現されている。また例えば、CPU1510を用いたソフトウェア処理の代替としてハードウェアを構成する場合には、ここで説明する各機能部の処理に対応させた演算部や回路を構成すればよい。
次に、本実施形態における位置姿勢算出の処理手順について説明する。図3は、本実施形態における位置姿勢算出の処理手順を示すフローチャートである。
[ステップS301]
まず、ステップS301においては、後の位置姿勢の算出に必要な情報が取得される。具体的には、計測情報、装置情報、概略位置姿勢、モデル情報が取得される。これらの情報は、それぞれ計測情報取得部201、装置情報取得部202、概略位置姿勢取得部203、モデル情報取得部204によって取得される。取得された情報については、エッジ点算出部205へ送られる。ここで、計測情報である濃淡画像は、投影装置103を用いて照明を照射した計測対象物体101を、撮像装置102で撮影された画像である。しかしながら、予め外部のメモリやネットワーク上に保持しておいたものを計測情報入力部201が読み込んだものであってもよい。また、ステップS301において取得される情報について、取得されるタイミングは、情報処理装置104の処理速度性能によって、同時であっても、順番に取得されても良く、取得される順番についても任意である。
[ステップS302]
次に、ステップS302において、エッジ検出部205によって3次元モデルと濃淡画像についてエッジの情報が算出される。
本実施形態では、具体的にエッジを以下のように求める。
3次元モデルについては、まず、3次元モデルのエッジ上に点を生成させることでエッジ点(幾何特徴)の3次元情報を得る。ここで、3次元モデルのエッジとは、仮想的に設定した撮像装置102の画像面で概略位置姿勢の3次元モデルを見たときに、3次元モデルの輪郭を形成している箇所を指す。エッジ上への点の生成方法は、例えば仮想的な3次元空間において配置された3次元モデルのエッジ上で等間隔になるように複数の点を生成させる方法があるが、必ずしもその方法を用いる必要はない。例えば、仮想的に設定した撮像装置102の画像面で概略位置姿勢の3次元モデルを見た時に画像面上でエッジ点が等間隔になるように、逆算的に3次元モデルのエッジ上の3次元座標を生成しても良い。なお、同じエッジ上に生成したエッジ点間のベクトルを算出することで、エッジの方向を表す3次元ベクトルを算出することも可能である。
次に、概略位置姿勢における3次元モデル上でのエッジ点を、仮想的に設定した撮像装置102の画像面上に投影させることで、画像面上で見た時のエッジ点の2次元座標を得る。算出されたエッジ点の2次元座標については、モデル上の対応するエッジ点の情報と紐づけて保存する。
濃淡画像については、画像中の輝度値を参照し、任意の探索方向の周辺画素に対して輝度値が極値をとっているような画素の2次元座標をエッジ点(画像特徴)と判定して情報を保存する。エッジ点の判定基準については閾値を設けてもよく、輝度値や輝度勾配の値が閾値以上でかつ極値をとる濃淡画像中の画素をエッジ点と判定しても構わない。また、後述のステップS503で述べるような、画像面上に投影した3次元モデルのエッジ点を起点に探索を行い、近傍に位置する濃淡画像上のエッジ点を検出する処理をあらかじめ実施してもよい。
[ステップS303]
次に、ステップS303において、影方向算出部206によってモデル情報のエッジについて影が発生すると推測される方向が算出され、モデル情報に付与される。本実施形態では、算出される影方向ベクトルは、投影装置103から仮想的に設定した概略位置姿勢の3次元モデルに向かう方向ベクトルを、撮像装置102の画像面に投影したものとする。
本実施形態では、具体的に影方向を以下のように求める。
まず、仮想的に設定した3次元モデルの概略位置姿勢におけるエッジ点の3次元位置(Xo、Yo、Zo)及び投影装置103の3次元位置(Xp、Yp、Zp)を、撮像装置102の画像面に投影するためのプロジェクション行列Pを求める。ここで用いる3次元モデルの3次元位置は、カメラに対する計測対象物体の概略位置姿勢の位置成分とする。投影装置103の3次元位置は、撮像装置102に対する3次元モデルの概略位置姿勢及び事前情報である投影装置103と撮像装置102の位置関係情報に基づいて求める。プロジェクション行列Pは、カメラパラメータK(式1)と世界座標系からカメラ座標系への変換行列RT(式2)の積K・RTで表される。

(式1)

(式2)
ここでは、カメラ座標系を世界座標系と設定する。これにより、プロジェクション行列Pは(式3)となる。なお、カメラパラメータKの各要素a、b、c、d、eは、カメラ固有のパラメータであり上記のように予め求めておく。

(式3)
次に、プロジェクション行列P、3次元モデルの3次元位置の斉次座標(Xo、Yo、Zo、1)と撮像装置102の3次元位置の斉次座標(Xp、Yp、Zp、1)、及びそれぞれを画像面に投影した点の斉次座標(uo、vo、1)、(up、vp、1)の関係式(式4)、(式5)から、3次元モデルの画像面での位置(uo、vo)と投影装置103の画像面での位置(up、vp)を求める。そして、3次元モデルの画像面での位置(uo、vo)から投影装置103の画像面での位置(up、vp)へのベクトルr’=(up−uo、vp−vo)を求め、更に単位ベクトルr=r’/|r’|に変換し、これを影方向とする。

(式4)

(式5)
次に、画像面上での3次元モデルのエッジ点を影方向と関連付ける。この関連付けにより、以降のステップ304における誤対応箇所の抽出が可能となる。
[ステップS304]
次に、ステップS304において、誤対応箇所検出部207は、ステップS303で3次元モデルのエッジ点ごとに算出した影方向の情報に基づき、誤対応箇所として影由来のエッジ(影に起因したエッジ)に誤って対応づく可能性のあるエッジ点を抽出する。
図4は、本実施形態における処理手順を示すフローチャートである。以下、ステップS304内の各ステップについて説明する。
(ステップS401)
まず、誤対応箇所検出部207は、概略位置姿勢に基づいて仮想的に設定された3次元モデルについて、モデルの面上の任意の点を撮像装置102の画像面上に投影する。3次元モデルの面上への点の設定方法としては、例えば面上で等間隔になるように設定する方法が良い。また、投影した画像面上で等間隔になるように、逆算的に3次元モデルの面上の点を求めても良い。
(ステップS402)
次に、誤対応箇所検出部207は、画像面上に設定した点から、対応する3次元モデル上の点までの距離を算出する。ここで、距離計算の対象となる点は、ステップS401において設定した3次元モデルの面に対応する点と、ステップS302において設定した3次元モデルのエッジに対応する点の両方である。つまり、ステップS402においては、撮像装置102が計測対象物体101についての距離画像を取得するように、仮想的に設定した空間上で、3次元モデルに関しての距離画像を取得するのと等価な処理を行っている。算出された距離値については、対応する画像面上の点に紐づけて保存する。
(ステップS403)
次に、誤対応箇所検出部207は、着目するエッジ点について画像面上での影方向に画像面上での近傍点を探索し、対応する距離値を取得する。ここで取得する距離値はステップS402において求めたものである。
図13は、エッジ上のある点について、影方向に画像面上の近傍点を探索したときの点と距離値の関係を示す概念図である。図13(a)と図13(b)では異なる3次元モデルについて示している。図13(a)、図13(b)ではそれぞれ点Pa、点Pbを着目するエッジ点として示している。また、点Pa、点Pbに対応する距離値はdPa、dPbとして示している。さらに、図13(b)において、影方向に探索したときに得られる近傍点Pb+1に対応する距離値をdPb+1として示している。
(ステップS404)
次に、誤対応箇所検出部207は、着目するエッジ点について、次の2つの条件のいずれかを満たすかどうかを判定する。この条件は、着目するエッジ点を境界として影方向に大きな段差が存在するかを判定している。言い換えると、仮想的に設定した空間上で、着目するエッジ点近傍に影が発生しうるかを判定することで、後述の位置姿勢算出処理において誤って対応付く可能性の有無を判定している。
条件(a):影方向の近傍点が存在しない
条件(b):着目するエッジ点の距離値と近傍点の距離値の差分が閾値以上
条件(a)を満足する場合、(投影された点Pa(着目幾何特徴)から影の方向に所定の範囲を探索した結果、Pa以外(着目幾何特徴以外)のエッジ点が検出されない場合)、画像面上では点Paと背景が接して見えており、点Pから見て影方向に影が発生する可能性がある。図13(a)は条件(a)を満足する例である。一方、条件(b)を満足する場合、3次元モデルが大きな段差をもつ形状であり、点Pが段差のエッジとなっていると考えられる。この場合についても、点Pから見て影方向に影が発生する可能性がある。図13(b)は条件(b)を満足する例である。この場合、閾値と比較する値はdPb+1とdPbの差分である。条件(a)もしくは条件(b)を満足する場合、ステップS405に進み、それ以外の場合はステップS406に進む。
(ステップS405)
ステップS404において条件(a)もしくは条件(b)を満足する場合、着目するエッジ点(着目幾何特徴)の近傍には影が発生する可能性があるため、計測対象物体101の位置姿勢を算出する際には誤って対応づいてしまう可能性が生じる。よって、ステップS405では、誤対応箇所検出部207は、誤対応する可能性のある点について誤対応箇所として新たにフラグ情報を付与する。
(ステップS406)
ステップS406では、誤対応箇所検出部207は、全エッジ点について誤対応箇所であるかどうかの判定がされたかをチェックする。全エッジ点について判定がされた場合は、ステップS303の処理を終了してステップS304に移行する。一方、まだ判定がされていないエッジ点が存在する場合は、ステップS403に移行して、ステップS404からステップS406の処理を繰り返す。
以上、ステップS401からステップS406までの処理を実施することにより、誤対応箇所を抽出する。
[ステップS305]
次に、ステップS305において、誤対応箇所検出部207は、ステップ304で抽出したエッジ点の情報を用いて、以下で説明する処理により計測対象物体101の位置姿勢を算出する。
図5はステップS305で示した、概略位置姿勢を用いた最適化計算により位置姿勢を算出する位置姿勢算出処理の詳細な手順を示したフローチャートである。
本実施形態では、Gauss−Newton法により計測対象物体の位置姿勢(以下、sで表す)の概略位置姿勢を反復演算により繰り返し補正することにより位置姿勢を算出する。ここでは、濃淡画像上で検出されたエッジと推定される位置姿勢に基づいて画像上に投影される形状モデルのエッジとの距離の総和が最小化されるように位置姿勢を最適化する。より具体的には、濃淡画像上での点と直線の符号付距離、1次のテイラー展開によってそれぞれ物体の位置姿勢の微小変化の1次関数として表現する。そして、符号付距離が0になるような位置姿勢の微小変化に関する線形の連立方程式を立式して解くことにより、物体の位置姿勢の微小変化を求めて位置姿勢を補正することを繰り返す。
(ステップS501)
ステップS501において、位置姿勢算出部208が、初期化を行う。ここでは、ステップS301で取得された概略位置姿勢を3次元モデルの位置姿勢として設定する。また、モデル上のエッジ点の情報や、濃淡画像上のエッジ点の情報、および誤対応箇所に関する情報も取得する。
(ステップS502)
ステップS502において、位置姿勢算出部208は、3次元モデル上のエッジ点からステップS304で抽出した誤対応箇所と判定された点を以降の計算に反映させる処理を行う。これらの点については、フラグ情報が付与されているために容易に抽出が可能である。反映方法としては、本実施形態では、誤対応箇所の点を不活性化して以降の計算に用いないようにする。そのため、フラグ情報が付与されている点については、ステップS503で対応付けを行わない。しかしながら必ずしも不活性化する必要はない。不活性化する以外の反映方法としては、例えば後述のステップS503において、位置姿勢計測のための重み係数の値へ反映させてもよい。具体的には、誤対応箇所の点に対応する重み係数の値を誤対応箇所以外の点に対応する重み係数よりも低く設定することにより、誤対応箇所の位置姿勢算出結果への寄与を低くすることができる。
(ステップS503)
ステップS503において、位置姿勢算出部208が、エッジの対応付けを行う。図6はエッジの対応付け方法を示す図である。図6(a)は濃淡画像上に3次元モデルのエッジを投影した図である。まず画像上(画像中)に投影されたエッジ601上の制御点602ごとに、投影されたエッジ601の法線方向に探索ライン603をとる。次に、制御点を原点とした探索ラインの所定の範囲内で1次元のエッジの検出を行い、検出されたエッジの中で制御点に最も近い点を対応点として保持する。図6(b)は原点が制御点で、横軸に探索ライン、縦軸に輝度勾配の絶対値をとるグラフである。先の画像上にエッジは画素値の輝度勾配の絶対値の極値として検出される。ここでは輝度勾配の絶対値の極値が所定の閾値605よりも大きく、且つ最も制御点に近い点604を対応点とする。
上述したように、ステップS502において、誤対応箇所と判定されたモデル点にフラグが付いている。そのため、そのフラグがついたモデル点については、本ステップで、対応付けを行わないようにしてもよい。また、対応付けした場合にも、後述するステップS505の演算において、重みを小さくしてもよい。
なお、本実施形態では、濃淡画像だけでなく、取得した距離画像についても対応付けを行う。距離画像との対応付けについては、3次元モデルの面上から任意の数の点を抽出して、概略位置姿勢に基づいて距離画像上に投影する。そして、投影された点の近傍の計測点と対応づけるようにすればよい。
(ステップS504)
ステップS504において、位置姿勢算出部208は、線形連立方程式を解くための係数行列と誤差ベクトルの算出を行う。ここで係数行列の各要素は、位置姿勢の推定値の微小変化に対する一次の偏微分係数であり、具体的には画像座標の偏微分係数である。誤差ベクトルは、投影されたエッジと検出されたエッジの画像上での距離である。
図7は、エッジの投影像と検出されたエッジの関係を説明する図である。図7では、画像の水平方向、垂直方向をそれぞれu軸、v軸としている。ある制御点(投影された各エッジを画像上で等間隔に分割する点)の画像上での位置を(u、v)、該制御点が所属するエッジの画像上での傾きをu軸に対する傾きθと表す。傾きθは、エッジの両端の3次元座標をsに基づいて画像上に投影し、画像上での両端の座標を結んだ直線の傾きとして算出する。該エッジの画像上での法線ベクトルは(sinθ、−cosθ)となる。また、該制御点の対応点の画像座標を(u’、v’)とする。ここで、点(u’、v’)を通り、傾きがθである直線上の点(u、v)は、

と表せる(θは定数)。ここで、

(定数)とした。制御点の画像上での位置は計測対象物体101の位置姿勢により変化する。また、計測対象物体101の位置姿勢の自由度は6自由度である。すなわちsは6次元ベクトルであり、計測対象物体101の位置を表す3つの要素と、姿勢を表す3つの要素からなる。姿勢を表す3つの要素は、例えばオイラー角による表現や、方向が回転軸を表して大きさが回転角を表す3次元ベクトルなどによって表現される。位置姿勢により変化する制御点の画像座標(u、v)は(u、v)の近傍で1次のテイラー展開によって(式8)のように近似できる。但しΔs(i=1、2、・・・、6)はsの各成分の微小変化を表す。

正しいsによって得られる制御点の画像上での位置は数6が表す直線上にあると仮定できる。(式8)によって近似されるu、vを(式7)に代入することにより、(式9)が得られる。

ただし、

(定数)とした。
情報処理装置1の座標系における3次元座標は、計測対象物体101の位置姿勢sによってモデル座標系における3次元座標(x、y、z)に変換することができる。位置姿勢の推定値により、ある点がモデル座標系の点(x、y、z)に変換されるとする。(x、y、z)は計測対象物体101の位置姿勢により変化するものであり、(x、y、z)の近傍で1次のテイラー展開によって数9のように近似できる。

(式9)はステップS502において対応付けが行われたすべてのエッジについて成り立つため、(式11)のようなΔsに関する線形連立方程式が成り立つ。

ここで(式11)を(式12)のように表す。

(式12)の線形連立方程式の係数行列Jを算出するための偏微分係数の算出は、例えば、以下の文献に記載されている方法で行う。
V.Lepetit and P.Fua、“Keypoint recognition using randomized trees、”IEEE Transactions on Pattern Analysis and Machine Intelligence、vol.28、no.9、2006.
(ステップS505)
ステップS505において、位置姿勢算出部208が、(式12)をもとに、行列Jの一般化逆行列(J・J)−1・Jを用いてΔsを求める。
しかしながら、エッジには誤検出などによる外れ値が多いため、次に述べるようなロバスト推定手法を用いる。一般に、外れ値であるエッジでは、誤差d−rが大きくなる。そのため(式11)、(式12)の連立方程式に対する寄与度が大きくなり、その結果得られるΔsの精度が低下してしまう。そこで、誤差d−rが大きいデータには小さな重みを与え、誤差d−rが小さいデータには大きな重みを与える。重みは例えば(式13)に示すようなTukeyの関数により与える。

、cは定数である。なお、重みを与える関数はTukeyの関数である必要はなく、例えばHuberの関数など、誤差が大きいデータには小さな重みを与え、誤差が小さいデータには大きな重みを与える関数であればなんでもよい。
各データ(エッジ)に対応する重みをwとする。ここで(式14)のように重み行列Wを定義する。

重み行列Wは、対角成分以外はすべて0の正方行列であり、対角成分には重みwが入る。この重み行列Wを用いて、(式11)を(式14)のように変形する。

(式16)のように(式15)を解くことにより補正値Δsを求める。

上記演算を、ステップS504で得られた距離画像についての対応付けについても行うことにより、濃淡画像だけでなく、距離画像を用いて精度の良い補正値を得ることができる。具体的には、距離画像も併用することによって、面方向だけでなく、奥行き方向についての位置姿勢の算出の精度が向上するという効果を得ることができる。
(ステップS506)
ステップS506では、位置姿勢算出部208が、ステップS505において算出された位置姿勢の補正値Δsにより、位置姿勢をs+Δsに更新する。
(ステップS507)
ステップS507では、位置姿勢算出部208が、位置姿勢が収束したか否かの判定を行い、収束したと判定された場合はその時の位置姿勢をフィッティング結果として処理を終了する。収束していないと判定された場合は収束するまでS502〜S506を繰り返し行う。収束判定では、S506の補正量が所定の値以下でほぼ変化がないと判定された場合に収束したと判定する。なお、収束判定の方法はこの方法に限定されるものではなく反復回数が所定回数に達した場合には、収束したものと判定してもよい。
以上説明したように、ステップS501〜S507の処理により計測対象物体101の位置姿勢が算出される。
なお、上記では3次元の位置姿勢を算出すると説明したが、2次元の位置姿勢を算出してもよい。この場合、ベクトルsは、位置を表す2つの要素と姿勢を表す1つの要素からなる3次元ベクトルとなる。
また、本実施形態における計測対象物体101の位置姿勢の算出方法はGauss−Newton法に限るものではない。例えば、より計算がロバストであるLevenberg−Marquardt法によって行ってもよいし、よりシンプルな方法である最急降下法によって行ってもよい。また、共役勾配法やICCG法など、他の非線形最適化計算手法を用いてもよい。
(変形例1−1)
第1の実施形態のその他の変形例としては、誤対応箇所の抽出方法として、概略位置姿勢の3次元モデルの各エッジ点について、あらかじめ影が発生しうる方向を算出しておき、影方向の情報と合わせて判定することで、誤対応箇所を抽出することができる。
具体的には、まず、影方向算出部206で影方向を算出する。影方向の算出方法は、上述のステップS303と同様である。次に、誤対応箇所検出部207で3次元モデルの各エッジ点について、エッジ方向に対する法線方向を算出する。エッジ方向とは、三次元モデルを構成する各線分の進行方向である。具体的には、まず、3次元モデルの各エッジ点を2次元平面に投影する。そして、投影された各モデル点のエッジ方向に対する法線方向を取得する。ここで、エッジ方向に対する法線方向は、モデルの内側に向かうものと外側に向かうものの2通りが考えられるが、本変形例では影が発生しうる方向として、外側に向かう法線方向を算出する。次に、各エッジ点について上記の法線方向と影方向との内積値を算出し、誤対応箇所であるかどうかを判定する。ここで、内積値が所定値以上であるエッジ点について、誤対応箇所と判定する。なぜなら、内積値が大きいほど影方向と法線方向が近い方向であることを示すため、これらの方向に紐づけられるエッジ点は、誤って対応づく可能性が高くなるためである。本変形例においては、以降の処理方法は第1の実施形態と同様である。
(変形例1−2)
第1の実施形態では、概略位置姿勢取得部203で取得する概略位置姿勢が、計測対象物体101の位置姿勢を求める演算を実施する度に任意の概略位置姿勢を取得することを想定しており、影方向算出部は演算の度に新たに影方向を算出する必要がある。一方で、計測対象物体の形状や配置の方法などによって、計測対象物体101の位置姿勢がおおよそ何通りかに決まってしまっている場合には、計算処理時間の短縮のために、あらかじめ想定される概略位置姿勢について誤って対応づく可能性のあるエッジ点を抽出しておくことが可能である。
具体的には、ステップS301からステップS304を、あらかじめ想定される概略位置姿勢について繰り返し、各概略位置姿勢に紐づけて誤対応箇所の情報を保存する。その後、計測情報取得部201で取得した濃淡画像と概略位置姿勢の情報を用いて、計測対象物体101の位置姿勢を算出する演算処理(ステップS501からステップS506まで)を実施する。このとき、ステップS501では、上述のあらかじめ想定される概略位置姿勢が設定され、ステップS502では、概略位置姿勢に紐づいて保存された誤対応箇所が呼び出される。この変形例では、ステップS301からステップS304までの処理が各概略位置姿勢について1回で済むため、毎回計算する場合と比較して計算処理時間を短縮させることができる。
[第2の実施形態]
第1の実施形態では、ステップS302において3次元モデルについて算出したエッジ点について誤対応箇所の抽出を行った。
これに対して本発明の第2の実施形態では、同じくステップS302において濃淡画像について検出したエッジについて誤対応箇所の抽出を行う点が、第1の実施形態と異なる。誤対応箇所の抽出方法としては、エッジ点と近傍の画素における輝度値の情報を用いて誤対応箇所であるかどうかの判別を行う。
図9は、ある位置姿勢の計測対象物体101について撮像を実施して取得した濃淡画像について、計測対象物体101の位置姿勢と取得される濃淡画像での見え方との関係、および濃淡画像と輝度値プロファイルとの関係を示す概念図である。図9(a)のような計測対象物体101に位置姿勢で撮像装置102が撮像を実施した場合、取得される濃淡画像においては、計測対象物体101のエッジに加えて影によるエッジも映り込む。影によるエッジ近傍では、輝度値が影方向に沿って一旦低下し、その後増大するように変化するという特徴がある。
例えば、図9(b)に示すような濃淡画像が得られ、濃淡画像から抽出したエッジ点の中で、影由来のエッジ点Pに着目する場合、影方向についての近傍の画素P+1、P−1における輝度値LP+1とLP−1はエッジ点Pの輝度値Lを境界として影方向に増大する。このとき、エッジ点近傍に存在する計測対象物体101由来のエッジ点P´の影方向について近傍の画素P´+1、P´−1における輝度値LP´+1とLP´−1は、エッジ点Pの輝度値LP´を境界として影方向に減少する。エッジ点P近傍の箇所を濃淡画像上で見た場合、影方向に「明、暗、明」と変化しているような見え方になる。具体的には、ステップS802からステップS805にかけて濃淡画像における着目するエッジ点近傍の影方向の輝度値の変化を参照することで、このエッジが影由来のものかどうかを判定することが可能となる。
以下、本実施形態における、位置姿勢算出の処理手順について説明する。
まず、計測情報、装置情報、概略位置姿勢、モデル情報を取得し、続いてエッジを検出するが、これら一連の方法は第1の実施形態と同様なので説明を省略する。
次に、影方向を算出する。図12は、本実施形態における影方向算出の処理手順を示すフローチャートである。以下、図12の各ステップについて説明する。
[ステップS1201]
まず、影方向算出部206は、3次元モデルのエッジ点について影方向を算出する。ステップS1201における影方向の算出方法は、第1の実施形態における、ステップS303と同様である。算出された影方向は、3次元モデルのエッジ点に紐づけられて保存される。
[ステップS1202]
次に、影方向算出部206は、影方向を算出した3次元モデルのエッジ点について、濃淡画像のエッジ点との対応付けを行う。ステップS1202における対応付けの方法は、第1の実施形態における、ステップS503と同様である。
[ステップS1203]
次に、影方向算出部206は、ステップS1202において対応づけられた濃淡画像のエッジ点について、ステップS1201で算出された影方向を紐づけて保存する。
[ステップS1204]
次に、影方向算出部206は、3次元モデルの全エッジ点について、ステップS1201からステップS1203までの処理が完了したかをチェックする。全ての3次元モデルのエッジ点について処理が完了している場合は、ステップS1205に進む。一方、まだ処理が完了されていない3次元モデルのエッジ点が存在する場合は、ステップS1201からステップS1204の処理を繰り返す。
[ステップS1205]
次に、影方向算出部206は、対応付けられていない濃淡画像のエッジ点が残っているかどうかを判定する。残っていない場合は、以降の処理を省略し、影算出の処理は終了する。残っている場合は、ステップS1206に進む。
[ステップS1206]
ステップS1206では、影方向算出部206は、対応付けられていない濃淡画像のエッジ点の影方向を、既に対応付けられていている近傍のエッジ点の影方向の情報を参照して決定する。影方向の決定方法としては、例えば既に対応付けられているエッジ点のうち、最も近傍にあるエッジ点に紐づいている影方向としてよい。また、近傍の所定の領域内に複数の対応づけられたエッジ点が存在する場合は、それらのエッジ点に紐づく影方向の平均値としてもよい。ステップS1206で影方向を決定した後は、ステップS1205に戻る。
以上の処理を実施することにより、影方向算出部206は、影方向を算出する。
次に、誤対応箇所を抽出する。図8は、本実施形態における誤対応箇所抽出の処理手順を示すフローチャートである。以下、図8の各ステップについて説明する。
[ステップS801]
まず、誤対応箇所検出部207は、濃淡画像中の着目するエッジ点について、影方向に近傍(周囲)の画素を探索し、それらの輝度値(画素値)を取得する。ここで用いる濃淡画像は第1の実施形態において、3次元モデルとの位置姿勢算出に用いたものと同じであって構わない。
[ステップS802]
次に、誤対応箇所検出部207は、着目するエッジ点を境界として、取得した輝度値が影方向に増大しているかどうかを判定する。具体的には、図9(b)に示すような輝度プロファイルが得られた場合、着目するエッジ点Pに対する影方向の近傍に存在する画素P+1、P−1に対応する輝度値LP+1、LPー1について比較し、LP+1>LPー1の関係にあるかどうかを判定する。判定の結果、輝度値が増大していれば誤対応箇所の候補としてステップS803に進み、それ以外の場合にはステップS803からステップS806までの処理を省略してステップS807に進む。
[ステップS803]
ステップS803では、誤対応箇所検出部207は、着目するエッジ点を起点として、影方向とは逆の方向へ別のエッジ点が存在するかどうかを探索し、結果を出力する。具体的には、図9(b)のエッジ点Pを起点に影方向とは逆の方向へ探索し、探索する画素がエッジ点P´のようなエッジ点である場合は、フラグ情報を新たに付与して出力する。
[ステップS804]
ステップS804では、誤対応箇所検出部207は、ステップS803探索の結果を参照し、別のエッジ点が発見されたと判定した場合は、エッジ点P´について影方向の近傍画素の輝度値を取得してステップS805に進む。近傍に別のエッジ点が発見されなかった場合は、着目するエッジ点は誤対応箇所の候補から外れたと判定し、ステップS805とステップS806の処理を省略してステップS807に進む。
[ステップS805]
ステップS805では、誤対応箇所検出部207は、ステップS803で発見した別のエッジ点を境界として、取得した輝度値が影方向に低下しているかどうかを判定する。具体的には、図9(b)のエッジ点P´に対する影方向の近傍に存在する画素P´+1、P´−1に対応する輝度値LP´+1、LP´−1について比較し、LP´+1<LP´−1の関係にあるかどうかを判定する。判定の結果、輝度値が低下していれば誤対応箇所としてステップS806に進み、それ以外の場合には着目するエッジ点は誤対応箇所の候補から外れたと判断してステップS807に進む。
[ステップS806]
ステップS806では、誤対応箇所検出部207は、ステップS805において誤対応箇所として判定されたエッジ点について、新たにフラグ情報を付与する。なお、ステップS806での処理内容は、第1の実施形態におけるステップS405の処理内容と同様である。
[ステップS807]
ステップS807では、誤対応箇所検出部207は、全エッジ点について誤対応箇所であるかどうかの判定がされたかをチェックする。全エッジ点について判定がされた場合は、誤対応箇所抽出の処理を終了して位置姿勢の算出のための処理に移行する。一方、まだ判定がされていないエッジ点が存在する場合は、ステップS801に移行して、ステップS801からステップS807の処理を繰り返す。なお、ステップS807での処理内容は、第1の実施形態におけるステップS406の処理内容と同様である。
以上の処理を実施することにより、誤対応箇所を抽出する。
次に、位置姿勢を算出する。位置姿勢の算出方法は第1の実施形態における方法と同様であるため、説明を省略する。
以上の処理を実施することにより、計測対象物101の位置姿勢を算出することが可能である。
(変形例2−1)
本実施形態は、3次元モデル上のエッジ点と対応づく濃淡画像上のエッジ点について誤対応箇所であるかどうかの判定を行い、誤対応箇所と判定された場合には、第1の実施形態と同様に以降の位置姿勢算出に反映させる、という処理を行うものである。位置姿勢算出における変形例としては、誤対応箇所について以降の計算への反映を行わずに対応づけを実施し、3次元モデルのエッジ点と濃淡画像の誤対応箇所が対応づいている場合には、近傍の別のエッジ点と置き換えるという方法を用いても良い。
図14は、本変形例における位置姿勢算出の処理手順を示すフローチャートである。図14におけるステップS1401、ステップS1402の処理内容は、第1の実施形態および第2の実施形態におけるステップS501、ステップS503と同様であるが、ステップS1402で対応づけられる濃淡画像のエッジ点は、誤対応箇所を含んでいる。ステップS1403では、ステップS1402で3次元モデルのエッジ点と対応づけた濃淡画像のエッジ点について、誤対応箇所であるかどうかの判別を行う。ステップS1403において誤対応箇所であると判定された場合は、ステップS1404において、近傍点への置き換えを行う。
ステップS1404において置き換えられる近傍点は、誤対応箇所以外のエッジ点である必要がある。具体的な例としては、ステップS803において探索された、影方向とは逆の方向に存在するエッジ点が好ましい。なぜなら、そのようなエッジ点は、計測対象物101のエッジに由来する点である可能性が高いからである。
以降のステップS1405からステップS1408の処理内容は、第1の実施形態および第2の実施形態におけるステップS504からステップS507までの処理内容と同様である。本変形例では、対応づいた誤対応箇所を、計測対象物に由来している可能性が高い別のエッジ点に置き換え以降の計算に用いることで、誤対応を防ぐことができる。
[第3の実施形態]
第1の実施形態では、3次元モデル上のエッジ点について誤対応箇所の抽出を行った。一方、第2の実施形態では、計測情報取得部で取得した濃淡画像上のエッジ点について、誤対応箇所の抽出を行った。これらに対し、本発明における第3の実施形態では、それぞれについて誤対応箇所の抽出を行った上で、位置姿勢算出の計算を行う。本実施形態は、第1の実施形態と第2の実施形態とを組み合わせることで、それぞれの方法において発生しうる課題をお互いに補うことを可能としている。
第1の実施形態においては、3次元モデル上のエッジ点について、影由来のエッジに誤って対応する可能性のある箇所を抽出している。この方法では、仮想的な三次元空間内において計測対象物体101が3次元モデルと同じく理想的な形状であり、なおかつ撮像装置102、投影装置103との相対的な位置関係が理想的な配置となっていることを前提に計算を行っている。しかしながら、実際に撮像を行う際の状況は理想的であるとは限らない。誤対応箇所として抽出していても、計測対象物101の形状誤差や、撮像装置102と投影装置103の位置関係の誤差などによって、誤対応箇所と対応づいた濃淡画像上のエッジ点近傍には影由来のエッジが存在しない可能性がある。つまり、そのような場合、位置姿勢算出に用いても問題ないエッジ点についても余計に排除してしまっていることになる。よって、3次元モデル上のエッジ点について抽出した誤対応箇所について、実際に撮像を行って取得した濃淡画像の情報から抽出した誤対応箇所に含まれるかどうか判定する処理を新たに加えることで、そのような課題を解決することができる。
一方、第2の実施形態においては、濃淡画像上のエッジ点について輝度値を参照し、影由来のエッジ点を抽出している。この方法では、抽出したエッジ点全てについて近傍の画素の輝度が「明、暗、明」の条件を満足するかどうかの判定を行うため、計測対象物体101の材質・形状や位置姿勢によっては、影由来ではないエッジについても不活性化してしまう可能性がある。その場合、位置姿勢算出に用いるエッジ点の数が減少するため、位置姿勢算出の精度が悪化してしまう可能性がある。よって、濃淡画像上のエッジ点について抽出した誤対応箇所について、3次元モデルと概略位置姿勢の情報から抽出した誤対応箇所に含まれるかどうか判定する処理を新たに加えることで、そのような課題を解決することができる。
以下、第3の実施形態における、位置姿勢の算出方法について説明する。図10は、本実施形態における誤対応箇所抽出の処理手順を示すフローチャートである。図10においては、ステップS1001、ステップS1002はそれぞれ第1の実施形態におけるステップS301、ステップS302と同様の処理である。また、ステップS1003とステップS1004はともに誤対応箇所の抽出を行うステップであり、第1の実施形態、第2の実施形態およびそれらの変形例におけるステップS304に対応するが、ステップS1003は3次元モデルについて誤対応箇所の抽出を行うのに対し、ステップS1004は濃淡画像について誤対応箇所の抽出を行う。ステップS1003とステップS1003を実行する順番については、並列に処理を行っても良いし、どちらか一方を先に実行した後にもう一方を実行しても良い。ステップS1005では、抽出した誤対応箇所の情報を反映させた上で位置姿勢算出が行われるが、本実施形態においては、3次元モデル上のエッジ点と濃淡画像上のエッジ点の両方から抽出した誤対応箇所を用いる点で第1の実施形態、第2の実施形態とは異なる。
図11は、本実施形態におけるステップS1005の具体的な処理手順を示すフローチャートである。以下、図11におけるステップについて説明する。
(ステップS1101)
ステップS1101では、位置姿勢導出部205が初期化を行う。概略位置姿勢やエッジ点の情報を取得する点は第1の実施形態、第2の実施形態と同様である。ただし、本実施形態では他の実施形態と異なり、3次元モデル上のエッジ点において抽出した誤対応箇所と濃淡画像上のエッジ点において抽出した誤対応箇所の両方を取得する。
(ステップS1102)
ステップS1102では、位置姿勢導出部205は、3次元モデル上のエッジ点から抽出した誤対応箇所と濃淡画像上のエッジ点から抽出した誤対応箇所の点の位置を比較し、画像面上で一致する点があるかどうかを判定する。2種類の誤対応箇所の点の位置は完全に一致していなくても、着目する点間の距離がある許容範囲内であれば、一致するとみなしても良い。その場合、点間距離の許容範囲をあらかじめ設定しておく必要があり、また、点間距離を算出するステップが別途必要となる。ステップS1102において、2種対の誤対応箇所が一致すると判定された場合はステップS1103へ進み、それ以外の場合は、誤対応箇所ではないと判定してステップS1104へ進む。
(ステップS1103)
ステップS1103では、位置姿勢導出部205は、ステップS1102において一致した誤対応箇所について、以降の計算に反映させる処理を行う。ここで、反映させるのは3次元モデル上のエッジ点と濃淡画像上のエッジ点の両方についてであるが、片方を反映させることで位置姿勢算出の結果に十分に効果があるのであれば、どちらか一方だけを反映させる処理であっても良い。
(ステップS1104〜ステップS1108)
ステップS1104からステップS1108までにかけての処理は、第1の実施形態、第2の実施形態におけるステップS503からステップS507までにかけての処理と同様であるため、説明を省略する。
(変形例3−1)
本実施形態においては、3次元モデルのエッジ点についての誤対応箇所の検出と、濃淡画像のエッジ点についての誤対応箇所の検出を独立に行っていたが、処理時間短縮のためには、必ずしも独立に実施する必要はない。例えば、どちらか一方の検出処理を先に行ってから対応付けを行い、対応付けの結果、誤対応箇所と対応づいたエッジ点が存在する場合に限り、そのエッジ点が誤対応箇所であるかどうかの判定を行ってもよい。本変形例においては、2つの誤対応箇所が一致するかどうかの判定を行わずに済むため、処理時間の短縮効果が期待できる。
<各実施形態の効果>
第1の実施形態では、3次元モデル上のエッジ点について、影の発生する方向と概略位置姿勢の情報を用いて誤って影由来のエッジに対応づく可能性があるかどうかを判定し、位置姿勢算出において反映させることで位置姿勢計測の安定性を向上させ、ロバスト性の高い位置姿勢計測が可能となる。
第2の実施形態では、濃淡画像上のエッジ点について、影の発生する方向と輝度値の情報を用いて影由来のエッジであるかどうかを判定し、位置姿勢算出において誤対応箇所の情報を反映させることで位置姿勢計測の安定性を向上させ、ロバスト性の高い位置姿勢計測が可能となる。
第3の実施形態では、3次元モデル上のエッジ点と濃淡画像上のエッジ点の各々について抽出した誤対応箇所について、一致するものがあるかどうかを判定し、位置姿勢算出において反映させることで位置姿勢計測の安定性を向上させ、ロバスト性の高い位置姿勢計測が可能となる。
(その他の実施形態)
また、本発明は、以下の処理を実行することによっても実現される。
即ち、上述した各実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行する処理である。
このプログラム及び当該プログラムを記憶したコンピュータ読み取り可能な記憶媒体は、本発明に含まれる。

Claims (12)

  1. 撮像装置により撮像された、計測対象物体を含む画像を取得する取得手段と、
    前記計測対象物体の概略位置姿勢情報を取得する概略位置姿勢取得手段と、
    前記計測対象物体の複数の幾何特徴を表す3次元モデル情報を保持する保持手段と、
    前記撮像装置の位置に基づいて、前記画像における前記計測対象物体の影の方向を推定する推定手段と、
    前記概略位置姿勢に基づき前記複数の幾何特徴を2次元平面に投影し、前記影の方向に基づいて前記幾何特徴ごとに前記計測対象物体の影に対応する可能性があるかを判定し、該可能性があると判定された幾何特徴に対して第1のフラグを設定する第1の設定手段と、
    前記画像から複数の画像特徴を検出する検出手段と、
    前記概略位置姿勢に基づいて前記複数の幾何特徴を前記画像に投影し、前記設定手段で設定された第1のフラグに基づいて該投影された複数の幾何特徴と前記複数の画像特徴とを対応づける対応づけ手段と、
    前記対応付け手段で対応付けされた結果に基づいて、前記計測対象物体の位置姿勢を導出する導出手段とを有することを特徴とする情報処理装置。
  2. 前記導出手段は、前記対応づけられた前記画像特徴と前記幾何特徴とのずれを小さくするように前記概略位置姿勢を更新することにより、前記計測対象物体の位置姿勢を導出することを特徴とする請求項1に記載の情報処理装置。
  3. 前記設定手段は、前記概略位置姿勢に基づき前記複数の幾何特徴を前記2次元平面に投影し、該投影された複数の幾何特徴のうちの着目幾何特徴から前記影の方向に所定の範囲内で探索を行った結果、前記着目幾何特徴以外の他の幾何特徴が検出されなかった場合に、前記計測対象物体の影に対応する可能性があると判定し前記第1のフラグを設定することを特徴とする請求項1に記載の情報処理装置。
  4. 前記設定手段は、前記概略位置姿勢に基づき三次元空間に配置された前記複数の幾何特徴を前記2次元平面に投影し、前記2次元平面における前記投影された複数の幾何特徴のうちの着目幾何特徴の方向と前記影の方向とに基づいて、前記計測対象物体の影に対応する可能性があると判定し前記フラグを設定することを特徴とする請求項1または2に記載の情報処理装置。
  5. 更に、前記検出手段によって検出された複数の画像特徴に対して、該画像特徴の近傍の画素値に基づいて、該画像特徴が前記計測対象物体の影に起因する画像特徴かを判定し、該影に起因する画像特徴と判定された場合に前記画像特徴に対して第2のフラグを設定する第2の設定手段を備え、
    前記対応付け手段は、更に前記第2のフラグに基づいて該投影された複数の幾何特徴と前記複数の画像特徴とを対応づけることを特徴とする請求項1乃至4のいずれか1項に記載の情報処理装置。
  6. 前記対応付け手段は、前記第1のフラグが設定されている幾何特徴については、前記画像特徴との対応付けを行わないことを特徴とする請求項1乃至5のいずれか1項に記載の情報処理装置。
  7. 撮像装置により撮像された、計測対象物体を含む画像を取得する取得手段と、
    前記計測対象物体の概略位置姿勢情報を取得する概略位置姿勢取得手段と、
    前記計測対象物体の複数の幾何特徴を表す3次元モデル情報を保持する保持手段と、
    前記撮像装置の位置に基づいて、前記画像における前記計測対象物体の影の方向を推定する推定手段と、
    前記画像から複数の画像特徴を検出する検出手段と、
    前記検出手段によって検出された複数の画像特徴に対して、前記複数の画像特徴それぞれの位置から前記影の方向に存在する画素値に基づいて、前記複数の画像特徴それぞれが前記計測対象物体の影に起因する画像特徴かを判定し、影に起因する画像特徴と判定された場合に該画像特徴に対して第2のフラグを設定する第2の設定手段と、
    前記概略位置姿勢に基づいて前記複数の幾何特徴を前記画像に投影し、前記設定手段で設定された第2のフラグに基づいて該投影された複数の幾何特徴と前記複数の画像特徴とを対応づける対応づけ手段と、
    前記対応付け手段で対応付けされた結果に基づいて、前記計測対象物体の位置姿勢を導出する導出手段とを有することを特徴とする情報処理装置。
  8. 前記対応付け手段は、前記第2のフラグが設定されている画像特徴については、前記幾何特徴との対応付けを行わないことを特徴とする請求項1乃至7のいずれか1項に記載の情報処理装置。
  9. 前記対応付け手段は、前記幾何特徴と対応付けられた画像特徴に前記第2のフラグが設定されている場合、前記画像特徴とは異なる画像特徴を抽出し、該抽出した画像特徴と前記幾何特徴とを対応付けることを特徴とする請求項1乃至7のいずれか1項に記載の情報処理装置。
  10. 計測対象物体を含む画像を取得する取得工程と、
    前記計測対象物体の概略位置姿勢情報を取得する概略位置姿勢取得工程と、
    前記撮像装置の位置に基づいて、前記画像における前記計測対象物体の影の方向を推定する推定手段と、
    前記概略位置姿勢に基づき前記計測対象物体を表す複数の幾何特徴を2次元平面に投影し、前記影の方向に基づいて前記幾何特徴ごとに前記計測対象物体の影に対応する可能性があるかを判定し、該可能性があると判定された幾何特徴に対して第1のフラグを設定する第1の設定工程と、
    前記画像から複数の画像特徴を検出する検出工程と、
    前記概略位置姿勢に基づいて前記複数の幾何特徴を前記画像に投影し、前記設定手段で設定された第1のフラグに基づいて該投影された複数の幾何特徴と前記複数の画像特徴とを対応づける対応づけ工程と、
    前記対応付け手段で対応付けされた結果に基づいて、前記計測対象物体の位置姿勢を導出する導出工程とを有することを特徴とする情報処理方法。
  11. 撮像装置により撮像された、計測対象物体を含む画像を取得する取得工程と、
    前記計測対象物体の概略位置姿勢情報を取得する概略位置姿勢取得工程と、
    前記撮像装置の位置に基づいて、前記画像における前記計測対象物体の影の方向を推定する推定手段と、
    前記画像から複数の画像特徴を検出する検出手段と、
    前記検出手段によって検出された複数の画像特徴に対して、前記複数の画像特徴それぞれの位置から前記影の方向に存在する画素値に基づいて、前記複数の画像特徴それぞれが前記計測対象物体の影に起因する画像特徴かを判定し、影に起因する画像特徴と判定された場合に該画像特徴に対して第2のフラグを設定する設定工程と、
    前記概略位置姿勢に基づいて前記計測対象物体を表す複数の幾何特徴を前記画像に投影し、前記設定工程において設定された第2のフラグに基づいて該投影された複数の幾何特徴と前記複数の画像特徴とを対応づける対応づけ工程と、
    前記対応付け工程で対応付けされた結果に基づいて、前記計測対象物体の位置姿勢を導出する導出工程とを有することを特徴とする情報処理装置。
  12. コンピュータを、請求項1乃至9のいずれか1項に記載の情報処理装置の各手段として機能させるためのプログラム。
JP2015076076A 2015-04-02 2015-04-02 情報処理装置、情報処理方法、プログラム Expired - Fee Related JP6736257B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2015076076A JP6736257B2 (ja) 2015-04-02 2015-04-02 情報処理装置、情報処理方法、プログラム
DE102016003294.4A DE102016003294A1 (de) 2015-04-02 2016-03-17 Informationsverarbeitungsvorrichtung, Informationsverarbeitungsverfahren und Speichermedium
CN201610191851.8A CN106052646B (zh) 2015-04-02 2016-03-30 信息处理装置及信息处理方法
US15/087,482 US10332275B2 (en) 2015-04-02 2016-03-31 Information processing apparatus, information processing method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015076076A JP6736257B2 (ja) 2015-04-02 2015-04-02 情報処理装置、情報処理方法、プログラム

Publications (2)

Publication Number Publication Date
JP2016197287A true JP2016197287A (ja) 2016-11-24
JP6736257B2 JP6736257B2 (ja) 2020-08-05

Family

ID=57017366

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015076076A Expired - Fee Related JP6736257B2 (ja) 2015-04-02 2015-04-02 情報処理装置、情報処理方法、プログラム

Country Status (4)

Country Link
US (1) US10332275B2 (ja)
JP (1) JP6736257B2 (ja)
CN (1) CN106052646B (ja)
DE (1) DE102016003294A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020144784A1 (ja) * 2019-01-09 2020-07-16 株式会社Fuji 画像処理装置、作業ロボット、基板検査装置および検体検査装置
US11170528B2 (en) * 2018-12-11 2021-11-09 Ubtech Robotics Corp Ltd Object pose tracking method and apparatus

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017182274A (ja) * 2016-03-29 2017-10-05 セイコーエプソン株式会社 情報処理装置およびコンピュータープログラム
JP6744747B2 (ja) * 2016-04-01 2020-08-19 キヤノン株式会社 情報処理装置およびその制御方法
US10621751B2 (en) 2017-06-16 2020-04-14 Seiko Epson Corporation Information processing device and computer program
US10970425B2 (en) * 2017-12-26 2021-04-06 Seiko Epson Corporation Object detection and tracking
CN108245893B (zh) * 2018-02-09 2021-06-29 腾讯科技(深圳)有限公司 三维虚拟环境中虚拟对象的姿态确定方法、装置及介质
US10311833B1 (en) 2018-03-27 2019-06-04 Seiko Epson Corporation Head-mounted display device and method of operating a display apparatus tracking an object
JP7257752B2 (ja) * 2018-07-31 2023-04-14 清水建設株式会社 位置検出システム
JP7190919B2 (ja) * 2019-01-25 2022-12-16 株式会社ソニー・インタラクティブエンタテインメント 画像解析システム
KR102208708B1 (ko) * 2019-08-14 2021-01-28 한국과학기술연구원 공통 좌표계 기반의 가상공간에서 가상 컨텐츠 제공 방법 및 장치
JP7310526B2 (ja) * 2019-10-14 2023-07-19 株式会社デンソー 障害物識別装置および障害物識別プログラム
US11348280B2 (en) 2020-01-24 2022-05-31 Seiko Epson Corporation Method and computer readable medium for pose estimation
CN111862199B (zh) * 2020-06-17 2024-01-09 北京百度网讯科技有限公司 定位方法、装置、电子设备和存储介质
JP7163947B2 (ja) * 2020-10-22 2022-11-01 セイコーエプソン株式会社 投写領域の設定支援方法、設定支援システム、及びプログラム
CN112633372B (zh) * 2020-12-22 2023-03-24 三星电子(中国)研发中心 一种ar设备的光源估计方法和装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012042396A (ja) * 2010-08-20 2012-03-01 Canon Inc 位置姿勢計測装置、位置姿勢計測方法、およびプログラム
JP2015090560A (ja) * 2013-11-05 2015-05-11 キヤノン株式会社 画像処理装置、画像処理方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102004023322A1 (de) * 2004-05-07 2005-11-24 Daimlerchrysler Ag Lage- und Positionsvermessung von Objekten mittels Bildverarbeitungsverfahren
JP2011175477A (ja) * 2010-02-24 2011-09-08 Canon Inc 3次元計測装置、処理方法及びプログラム
US8165351B2 (en) * 2010-07-19 2012-04-24 General Electric Company Method of structured light-based measurement
JP6092530B2 (ja) * 2012-06-18 2017-03-08 キヤノン株式会社 画像処理装置、画像処理方法
JP5711702B2 (ja) * 2012-08-23 2015-05-07 日本電信電話株式会社 投影型3次元形状復元装置、投影型3次元形状復元方法及び投影型3次元形状復元プログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012042396A (ja) * 2010-08-20 2012-03-01 Canon Inc 位置姿勢計測装置、位置姿勢計測方法、およびプログラム
JP2015090560A (ja) * 2013-11-05 2015-05-11 キヤノン株式会社 画像処理装置、画像処理方法

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11170528B2 (en) * 2018-12-11 2021-11-09 Ubtech Robotics Corp Ltd Object pose tracking method and apparatus
WO2020144784A1 (ja) * 2019-01-09 2020-07-16 株式会社Fuji 画像処理装置、作業ロボット、基板検査装置および検体検査装置
CN113196337A (zh) * 2019-01-09 2021-07-30 株式会社富士 图像处理装置、作业机器人、基板检查装置及检体检查装置
JPWO2020144784A1 (ja) * 2019-01-09 2021-09-30 株式会社Fuji 画像処理装置、作業ロボット、基板検査装置および検体検査装置
JP7174074B2 (ja) 2019-01-09 2022-11-17 株式会社Fuji 画像処理装置、作業ロボット、基板検査装置および検体検査装置
CN113196337B (zh) * 2019-01-09 2023-08-29 株式会社富士 图像处理装置、作业机器人、基板检查装置及检体检查装置
US11972589B2 (en) 2019-01-09 2024-04-30 Fuji Corporation Image processing device, work robot, substrate inspection device, and specimen inspection device

Also Published As

Publication number Publication date
US20160292889A1 (en) 2016-10-06
JP6736257B2 (ja) 2020-08-05
US10332275B2 (en) 2019-06-25
CN106052646B (zh) 2019-01-04
CN106052646A (zh) 2016-10-26
DE102016003294A1 (de) 2016-10-27

Similar Documents

Publication Publication Date Title
JP6736257B2 (ja) 情報処理装置、情報処理方法、プログラム
JP5671281B2 (ja) 位置姿勢計測装置、位置姿勢計測装置の制御方法及びプログラム
JP6271953B2 (ja) 画像処理装置、画像処理方法
JP6348093B2 (ja) 入力データから検出対象物の像を検出する画像処理装置および方法
JP5618569B2 (ja) 位置姿勢推定装置及びその方法
JP5612916B2 (ja) 位置姿勢計測装置、その処理方法、プログラム、ロボットシステム
JP5832341B2 (ja) 動画処理装置、動画処理方法および動画処理用のプログラム
JP5746477B2 (ja) モデル生成装置、3次元計測装置、それらの制御方法及びプログラム
JP6370038B2 (ja) 位置姿勢計測装置及び方法
JP6092530B2 (ja) 画像処理装置、画像処理方法
JP5480667B2 (ja) 位置姿勢計測装置、位置姿勢計測方法、プログラム
CN110926330B (zh) 图像处理装置和图像处理方法
JP2016103230A (ja) 画像処理装置、画像処理方法、及びプログラム
JP5290865B2 (ja) 位置姿勢推定方法および装置
JP2015532077A (ja) 少なくとも1つの画像を撮影する撮影装置に関連する装置の位置及び方向の決定方法
JP6860620B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP2019114103A (ja) 物体認識処理装置、物体認識処理方法及びプログラム
JP5976089B2 (ja) 位置姿勢計測装置、位置姿勢計測方法、およびプログラム
JP6922348B2 (ja) 情報処理装置、方法、及びプログラム
JP2016148956A (ja) 位置合わせ装置、位置合わせ方法及び位置合わせ用コンピュータプログラム
JP6486083B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP6890422B2 (ja) 情報処理装置、情報処理装置の制御方法およびプログラム
JP2011174878A (ja) 位置姿勢計測装置
CN118154693A (zh) 相机内参标定方法、终端设备及存储介质
JP2019168473A (ja) 位置姿勢計測装置及び方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180402

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190527

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190611

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190802

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191217

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200213

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200616

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200715

R151 Written notification of patent or utility model registration

Ref document number: 6736257

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees