JP2015045919A - 画像認識方法及びロボット - Google Patents

画像認識方法及びロボット Download PDF

Info

Publication number
JP2015045919A
JP2015045919A JP2013175497A JP2013175497A JP2015045919A JP 2015045919 A JP2015045919 A JP 2015045919A JP 2013175497 A JP2013175497 A JP 2013175497A JP 2013175497 A JP2013175497 A JP 2013175497A JP 2015045919 A JP2015045919 A JP 2015045919A
Authority
JP
Japan
Prior art keywords
image
distance information
template
matching
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013175497A
Other languages
English (en)
Inventor
絢子 安間
Ayako Yasuma
絢子 安間
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2013175497A priority Critical patent/JP2015045919A/ja
Priority to US14/467,458 priority patent/US20150063637A1/en
Publication of JP2015045919A publication Critical patent/JP2015045919A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • G06V10/7515Shifting the patterns to accommodate for positional errors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/46Sensing device
    • Y10S901/47Optical

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)
  • Manipulator (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

【課題】マッチング処理の精度を維持しつつ、マッチング処理の処理時間を短縮することができる画像認識方法及びロボットを提供すること。
【解決手段】本発明にかかる画像認識方法は、カメラ10(三次元センサ20)を用いて被写体を撮像することにより生成されたカメラ画像(三次元画像)を取得する。カメラ画像内の注目画素における被写体距離情報を取得する。そして、1つの検出物体を検出するために予め作成された複数のテンプレート画像であって、それぞれ異なる距離情報に関連付けられているテンプレート画像から、取得した被写体距離情報に対応するテンプレート画像を抽出する。カメラ画像に対して、抽出したテンプレート画像を用いてパターンマッチングを行う。
【選択図】図7

Description

本発明は画像認識方法及びロボットに関する。
画像認識分野において、テンプレートマッチング(パターンマッチング)が知られている。テンプレートマッチングは、特定のパターンの画像(テンプレート画像)を予め記憶しておき、カメラ等により取得された画像とテンプレート画像との特徴量を比較し、取得された画像から特定のパターンを検出する(例えば、特許文献1)。
特開2013−101423号公報
しかしながら、テンプレートマッチングにおいては、取得した画像の全領域に対して、あらゆるサイズのテンプレート画像を照らし合わせる必要がある。このため、計算量が増加し、処理に時間がかかるという問題がある。
一方、計算量を削減するために、画像の特徴量を削減してテンプレートマッチングを行うことも考えられる。しかし、特徴量を削減するため、マッチング処理の精度が低下し、誤認識してしまう恐れがある。
本発明は、このような問題を解決するためになされたものであり、マッチング処理の精度を維持しつつ、マッチング処理の処理時間を短縮することができる画像認識方法及びロボットを提供することを目的としている。
本発明の一態様にかかる画像認識方法は、画像生成装置を用いて被写体を撮像することにより生成された撮像画像を取得し、前記撮像画像内の注目画素における前記被写体から前記画像生成装置までの距離を示す被写体距離情報を取得し、1つの検出物体を検出するために予め作成された複数の画像パターンであって、それぞれ異なる距離情報に関連付けられている画像パターンから、取得した前記被写体距離情報に対応する前記画像パターンを抽出し、前記撮像画像に対して、抽出した前記画像パターンを用いてパターンマッチングを行うものである。これにより、被写体距離情報を用いて、パターンマッチングに使用する画像パターンを絞ることができる。そのため、あらゆる大きさの画像パターンを用いてパターンマッチングを行う必要がない。また、画像パターン自体の特徴量の削減も行っていない。その結果、マッチング処理の精度を維持しつつ、マッチング処理の処理時間を短縮することができる。
また、前記撮像画像は、各画素が前記被写体距離情報を有する三次元画像を含み、前記画像パターンは、前記検出物体の前記三次元画像を含み、前記注目画素における前記被写体距離情報を前記撮像画像としての前記三次元画像から取得し、取得した前記被写体距離情報に対応する前記検出物体の前記三次元画像を抽出し、前記撮像画像としての前記三次元画像に対して、抽出した前記検出物体の前記三次元画像を用いてパターンマッチングを行ってもよい。
また、前記撮像画像は、各画素が色彩情報を有する色画像をさらに含み、前記画像パターンは、前記検出物体の前記色画像をさらに含み、前記撮像画像としての前記三次元画像及び前記色画像に対して、前記検出物体の前記三次元画像及び前記色画像を用いてパターンマッチングを行ってもよい。
また、前記画像パターンは、前記検出物体を示すテンプレート画像を含み、前記テンプレート画像のサイズは、当該テンプレート画像に関連付けられた前記距離情報に応じて異なり、前記撮像画像内において前記テンプレート画像と比較される比較領域のサイズは、前記パターンマッチングに用いる前記テンプレート画像のサイズに応じて変化してもよい。
また、前記注目画素が有する前記被写体距離情報と、前記注目画素の周囲の画素が有する前記被写体距離情報と、を取得し、取得した複数の前記被写体距離情報の平均値を算出し、予め作成された複数の前記画像パターンから、算出した前記平均値に対応する前記画像パターンを抽出してもよい。
また、予め作成された複数の前記画像パターンのうち、取得した前記被写体距離情報との差分が最も小さい前記距離情報に関連付けられた前記画像パターンを抽出してもよい。
本発明の一態様にかかるロボットは、前記画像生成装置と、複数の前記画像パターンを、それぞれ異なる前記距離情報に関連付けて予め記憶するメモリと、上記の画像認識方法を実行する画像認識装置と、を備えるものである。
本発明により、マッチング処理の精度を維持しつつ、マッチング処理の処理時間を短縮することができる画像認識方法及びロボットを提供することができる。
実施の形態にかかるテンプレートマッチングの処理を説明するための図である。 実施の形態にかかる画像処理システムのブロック図である。 実施の形態にかかるカメラ画像の一例である。 実施の形態にかかる三次元画像の一例である。 実施の形態にかかるテンプレート画像の作成方法を説明するための図である。 実施の形態にかかるテンプレート画像のデータ構造を説明するための図である。 実施の形態にかかる画像処理システムの動作を示すフローチャートである。 実施の形態にかかるテンプレート画像群の抽出方法を説明するための図である。 実施の形態にかかる誤検出の防止効果を説明するための図である。 変形例にかかる注目画素の被写体距離の算出方法を説明するための図である。 変形例にかかるテンプレート画像群の抽出方法を説明するための図である。
実施の形態
以下、図面を参照して本発明の実施の形態について説明する。本実施の形態にかかる画像認識装置は、カメラを用いて撮像されたカメラ画像から、予め設定された所定の画像パターンを検索するパターンマッチングを行う。なお、以下の説明においては、パターンマッチングのうち、いわゆるテンプレートマッチングを使用した場合について説明する。テンプレートマッチングとは、検出の対象となる物体(以下、検出物体)のテンプレート画像を画像パターンとして使用し、カメラ画像とテンプレート画像とを照合し、カメラ画像における検出物体の位置や姿勢を推定する方法である。
ここで、テンプレートマッチングの動作について図1を参照して簡単に説明する。まず、カメラ画像S1において注目画素P1を決定する。なお、カメラ画像S1とは、カメラにより生成された撮像画像である。そして、注目画素P1を含むマッチング領域M1(破線領域)を設定する。マッチング領域M1は、カメラ画像の一部の領域であり、テンプレート画像と比較される比較領域である。つまり、注目画素P1は、カメラ画像におけるマッチング領域M1の位置を決定するための画素である。なお、図1に示した例においては、注目画素P1がマッチング領域M1の中心となるようにマッチング領域M1が設定されている。このとき、マッチング領域M1のサイズ(画素数)は、テンプレート画像と同様のサイズである。注目画素P1を所定の距離で所定の方向に移動させる度にマッチング領域M1とテンプレート画像とを比較し、スコア(画像の一致度)を算出する。そして、カメラ画像S1全体に注目画素P1を移動させることにより、マッチング領域M1を用いてカメラ画像S1全体に対して、テンプレートマッチングが行われる。
なお、マッチング領域M1とテンプレート画像との比較、及びスコアの算出については、既存の手法を用いることができ、特に限定されるものではない。例えば、SAD(Sum of Absolute Differences)、SSD(Sum of Squared Differences)、NCC(Normalized Cross Correlation)、及びPOC(Phase-Only Correlation)等のいわゆる領域(相関)ベースマッチングを用いることができる。そのため、比較処理及びスコア算出処理の詳細な説明は省略する。
<画像処理システムの構成>
図1に本実施の形態にかかる画像処理システムのブロック図を示す。画像処理システムは、カメラ10と、三次元センサ20と、画像認識装置30と、を備える。
カメラ10(画像生成装置)は、図示しないレンズ群やイメージセンサ等を有する。カメラ10は、撮像処理を行い、撮像画像としてカメラ画像を生成する。カメラ画像(色画像)とは、例えば、図2に示すような画像であり、各画素がRGBの値(色彩情報)を有する。
三次元センサ20(画像生成装置)は、撮像処理を行い、撮像画像として三次元画像を生成する。具体的には、三次元センサ20は、カメラ10の画角に対応する画角において、カメラ10(または三次元センサ20)から被写体までの距離を示す情報(被写体距離情報)を取得する。より詳細には、三次元センサ20は、カメラ10の近傍に配置されており、三次元センサ20から被写体までの距離を被写体距離情報として取得する。そして、三次元センサ20は、被写体距離情報を用いて、三次元画像を生成する。三次元画像においては、各画素が写体距離情報を有する。つまり、三次元画像は、被写体の奥行きに関する情報を含む画像である。例えば、図3に示すように、三次元画像は、グレースケールの画像であり、被写体距離情報に応じて画素の色の濃淡が変化する。なお、三次元センサとして、例えば、TOF(Time Of Flight)方式のカメラやステレオカメラ等を用いることができる。
画像認識装置30は、制御部31と、画像抽出部32と、画像処理部33と、物体DB(Database)34と、を備える。制御部31は、CPU(Central Processing Unit)、各種プログラムが格納されたROM(Read Only Memory)、及びワークエリアとしてのRAM(Random Access Memory)等を含む半導体集積回路により構成される。制御部31は、画像認識装置30の各ブロックに対して指示し、画像認識装置30全体の処理を統括的に制御する。
画像抽出部32は、カメラ画像内の注目画素の被写体距離情報を三次元画像から取得する。そして、画像抽出部32は、取得した被写体距離情報に基づいて、物体DB34に予め格納された複数のテンプレート画像(画像パターン)から、テンプレートマッチングに用いるテンプレート画像を抽出する。なお、注目画素は、カメラ画像内ではなく、三次元画像内に設定されていてもよい。
画像処理部33は、カメラ画像及び三次元画像に対して、画像抽出部32が抽出したテンプレート画像を用いてテンプレートマッチングを行う。そして、画像処理部33は、スコア(画像の一致度)が所定の閾値以上となったテンプレート画像を認識結果とする。つまり、画像処理部33は、スコアが所定の閾値以上のテンプレート画像に含まれる検出物体がカメラ画像中に存在すると判定する。
物体DB34は、例えばHDD(Hard Disk Drive)等のメモリである。物体DB34は、複数の被写体距離情報に関連付けて複数のテンプレート画像を予め記憶している。具体的には、物体DB34は、1つの検出物体を検出するために予め作成された複数のテンプレート画像を、それぞれ異なる距離情報に関連付けて記憶している。図5及び図6を用いて物体DB34のデータ作成及びデータ構造の詳細について説明する。
まず、図5を参照して、物体DB34のデータ作成について説明する。ユーザは、事前に、カメラ10及び三次元センサ20を用いて、複数の異なる被写体距離において、検出物体90を撮像する。これにより、ユーザは、カメラ10を用いて撮像されたカメラ画像51aと、三次元センサ20を用いて撮像された三次元画像51bと、を取得する。なお、以下の説明では、検出物体のカメラ画像51aと検出物体の三次元画像51bとを単にテンプレート画像51と称す場合もある。そして、ユーザは、撮像したときの被写体距離を距離情報として、カメラ画像51a及び三次元画像51bに対応付けて物体DB34に格納する。図5の例に示すように、被写体距離500mmにおいて撮像されたカメラ画像51a及び三次元画像51bは、500mmという距離情報と紐づけられて、テンプレート画像として物体DB34に格納される。なお、カメラ画像51a及び三次元画像51bに関連付けられる距離情報は、三次元画像から取得してもよいし、ユーザが手動で入力してもよい。
次に、物体DB34のデータ構造について図6を参照して説明する。1つの検出物体(例えば物体A)のテンプレート画像としては、検出物体のカメラ画像51aと検出物体の三次元画像51bとが存在する。また、カメラ画像51aと三次元画像51bとを合わせてテンプレート画像ペア52と称す。このとき、1つのテンプレート画像ペア52には、検出物体を1つの角度から見たテンプレート画像51(カメラ画像51a及び三次元画像51b)が含まれる。物体DB34は、異なる角度から検出物体を撮像したテンプレート画像ペア52を複数記憶する。つまり、物体DB34は、角度毎にテンプレート画像ペア52を記憶する。例えば、図6に示すように、検出物体の周囲を60°毎に撮像した場合、物体DB34は、0°、60°、120°、180°、240°、300°のそれぞれの角度において撮像されたテンプレート画像ペア52を記憶する。以下の説明では、異なる角度から検出物体を撮像した複数のテンプレート画像ペアを、合わせてテンプレート画像群53と称す。
つまり、1つのテンプレート画像群53には、(テンプレート画像ペア52の数)×(各テンプレート画像ペア52に含まれるカメラ画像と三次元画像(=2))枚のテンプレート画像が含まれる。例えば、検出物体を6つの異なる角度から見たテンプレート画像ペア52が存在する場合、1つのテンプレート画像群53には、6×2=12枚のテンプレート画像が含まれる。
また、物体DB34は、1つの検出物体に対して、複数のテンプレート画像群53をそれぞれ異なる距離情報に関連付けて予め記憶する。例えば、複数の距離情報が400mm、500mm、600mmの3種類の場合、400mmの距離情報に対して1つのテンプレート画像群が関連付けられる。同様に、500mmの距離情報に対して1つのテンプレート画像群が関連付けられ、600mmの距離情報に対して1つのテンプレート画像群が関連付けられる。
つまり、物体DB34には、1つの検出物体に対して、(距離情報の種類の数)×(1つのテンプレート画像群に含まれるテンプレート画像の枚数)のテンプレート画像が含まれる。例えば、上記の例の通り、検出物体を6つの異なる角度から見たテンプレート画像ペアが存在する場合、1つのテンプレート画像群には、12枚のテンプレート画像が含まれる。このとき、距離情報の種類が3種類であるとすると、1つの検出物体に対して、3×12=36枚のテンプレート画像が物体DB34に記憶されている。
さらに、複数種類の検出物体が存在する場合、物体DB34は、1つの距離情報に対して、各検出物体に対応した複数の異なるテンプレート画像群を関連付けて記憶する。例えば、検出物体が3種類(物体A、物体B、物体C)の場合、1つの距離情報に、物体Aに対応するテンプレート画像群が1つ、物体Bに対応するテンプレート画像群が1つ、及び物体Cに対応するテンプレート画像群が1つの計3つのテンプレート画像群が関連付けられる。上述の例を用いて説明すると、物体DB34は、3(検出物体の種類の数)×36(1つの検出物体あたりのテンプレート画像枚数)=108枚のテンプレート画像を記憶する。このように、物体DB34には、図6の破線で囲まれた構造のデータが格納されている。
加えて、テンプレート画像51のサイズ(画素数)は、関連付けられた距離情報に応じて異なる。つまり、サイズの異なる複数のテンプレート画像群53が、それぞれ異なる距離情報に関連付けられる。具体的には、距離情報が短い(作成時の被写体距離が近い)場合の方が、距離情報が長い(作成時の被写体距離が遠い)場合よりもテンプレート画像のサイズが大きい。これは、被写体距離が近い場合の方が、被写体距離が遠い場合よりも、カメラ画像(または三次元画像)における検出物体のサイズ(画素数)が大きいからである。このように、距離情報に応じて、テンプレート画像の大きさを予め変えておくことにより、被写体距離情報が遠くなるほど、小さいサイズのテンプレート画像を使用する。このため、全ての被写体距離において同じサイズのテンプレート画像を用いてマッチングする場合に比べて、比較すべき画素の数を減らすことができる。その結果、マッチング処理の時間を短縮することができる。
なお、画像パターンとしては、テンプレート画像のような検出物体の画像そのものに限られず、画像を特定するための様々な特徴量を用いることができる。
<画像処理システムの動作>
続いて、本実施の形態にかかる画像認識方法について、図7に示すフローチャートを参照して説明する。なお、図7に示す動作の前に、物体DB34は、距離情報が関連付けられた複数のテンプレート画像群を予め記憶しているものとする(図6参照)。
まず、カメラ10及び三次元センサ20は、被写体を撮像する。これにより、カメラ10は、カメラ画像(色画像)を生成する。また、三次元センサ20は、三次元画像を生成する。
画像処理部33は、カメラ10及び三次元センサ20から、生成されたカメラ画像及び三次元画像を取得する(ステップS101)。
次に、画像処理部33は、カメラ画像及び三次元画像において、注目画素の位置を決定する(ステップS102)。つまり、画像処理部33は、カメラ画像及び三次元画像のそれぞれにおいて、テンプレート画像とマッチングを行うマッチング領域の位置を決定する。注目画素は、図3及び図4の星印で示す点である。なお、注目画素の位置は、例えば、画像中のxy座標を用いて指定される。
また、注目画素は、カメラ画像及び三次元画像において、同じ被写体の同じ点に位置する。このとき、カメラ10と三次元センサ20とは、互いに近接して配置されているものの、同一の位置ではない。そのため、カメラ画像の画角と三次元画像の画角との間には、若干のずれが生じている。つまり、それぞれの画像における同じ被写体の同じ点の座標は、異なっている。しかしながら、カメラ10と三次元センサ20との間の間隔は予め測定可能である。そのため、その間隔の分だけ、いずれか一方の画像における注目画素の座標をずらすことにより、カメラ画像及び三次元画像において、同じ被写体の同じ点に注目画素を配置することができる。
画像処理部33が注目画素の位置を決定すると、画像抽出部32は、三次元画像における当該注目画素が有する被写体距離情報を三次元画像から取得する(ステップS103)。そして、画像抽出部32は、取得した被写体距離情報に対応するテンプレート画像群を物体DB34から抽出する(ステップS104)。
画像抽出部32によるテンプレート画像群の抽出処理について図8を用いて説明する。図8に示した例においては、注目画素における被写体距離情報が530mmである場合を示している。また、物体DB34には、距離情報400mm、500mm、600mm、700mm、及び800mmに関連付けられたテンプレート画像群が記憶されているものとする。
画像抽出部32は、三次元画像における注目画素の被写体距離情報として530mmを取得すると、物体DB34に予め記憶された距離情報のうち、530mm付近の距離情報を検索する。例えば、画像抽出部32は、物体DB34において、取得した被写体距離情報の前後の距離情報を検索する。つまり、画像抽出部32は、530mmよりも前の(手前の)距離であり、かつ、最も近い距離である500mmを検出する。また、画像抽出部32は、530mmよりも後ろの(奥の)距離であり、かつ、最も近い距離である600mmを検出する。そして、画像抽出部32は、500mmの距離情報に関連付けられたテンプレート画像群及び600mmの距離情報に関連付けられたテンプレート画像群を、物体DB34から抽出する。このとき、画像抽出部32は、複数の検出物体(物体A、物体B、及び物体C)のそれぞれについて、500mm、600mmの距離情報に関連付けられたテンプレート画像群を抽出する。
その後、画像抽出部32は、抽出したテンプレート画像群を、画像処理部33に出力する。そして、画像処理部33は、抽出されたテンプレート画像群に含まれるテンプレート画像を用いて、ステップS102において決定された注目画素を中心とした領域(マッチング領域。図3及び図4の破線領域)に対してテンプレートマッチングを行う(ステップS105)。つまり、画像処理部33は、各テンプレート画像とマッチング領域とを比較して、スコアを算出する。なお、画像処理部33は、ステップS101において取得したカメラ画像に対して、検出物体のカメラ画像51a(図5及び図6参照)をテンプレート画像として用いてマッチング処理を行う。同様に、画像処理部33は、ステップS101において取得した三次元画像に対して、検出物体の三次元画像51b(図5及び図6参照)をテンプレート画像として用いてマッチング処理を行う。
なお、カメラ画像におけるマッチング領域のサイズは、マッチングを行うテンプレート画像のサイズと同じである。つまり、マッチング領域のサイズは、使用するテンプレート画像のサイズに対応しており、テンプレート画像のサイズに応じて変化する。具体的には、マッチング領域のサイズは、注目画素における被写体距離情報が短い場合の方が、被写体距離情報が長い場合よりも、小さいサイズになる。このように、マッチング領域のサイズとしてテンプレート画像のサイズを用いることができる。
このとき、被写体距離や検出物体の大きさに基づいて、最適なマッチング領域のサイズを算出する方法も考えられるが、マッチング領域が移動する度に最適なマッチング領域のサイズを算出する必要があるため、処理に時間がかかってしまう。これに対して、本発明においては、マッチング領域のサイズとしてテンプレート画像のサイズを用いることができるため、マッチング領域のサイズを決定するための演算が不要となる。したがって、マッチング処理の高速化を実現することができる。
そして、画像処理部33は、算出したマッチングスコアが所定の閾値より高いか否かを判定する(ステップS106)。マッチングスコアが所定の閾値より高い場合(ステップS106:Yes)、画像処理部33は、画像全体を検索したか否かを判定する(ステップS108)。つまり、画像処理部33は、画像の全て領域についてマッチング処理を行ったか否かを判定する。
画像全体を検索した場合(ステップS108:Yes)、画像認識装置30は、動作を終了する。一方、画像全体を検索していない場合(ステップS108:No)、画像処理部33は、新たな注目画素を決定する(ステップS102)。つまり、画像処理部33は、画像全体を検索するまで、ステップS102〜S107の処理をループ処理する。
一方、マッチングスコアが所定の閾値以下の場合(ステップS106:No)、画像処理部33は、当該マッチング領域に対して、抽出された全てのテンプレート画像を用いてマッチングを行ったか否かを判定する(ステップS107)。
全てのテンプレート画像についてマッチングを行った場合(ステップS107:Yes)、画像処理部33は、画像全体を検索したか否かを判定する(ステップS108)。画像認識装置30は、画像全体を検索した場合(ステップS108:Yes)、動作を終了し、画像全体を検索していない場合(ステップS108:No)、新たな注目画素を決定する(ステップS102)。
一方、全てのテンプレート画像についてマッチングを行っていない場合(ステップS107:No)、画像処理部33は、抽出されたテンプレート画像のうち、未だマッチングを行っていないテンプレート画像を用いてマッチングを行う(ステップS105)。つまり、画像処理部33は、マッチングスコアが所定の閾値より高い場合(ステップS106:Yes)、または、抽出されたテンプレート画像の全てについてマッチングが完了した場合(ステップS108:Yes)になるまで、ステップS105、S106の処理をループ処理する。
以上のように、本実施の形態にかかる画像認識装置30の構成によれば、画像処理部33が、カメラ10を用いて撮像されたカメラ画像及び三次元センサ20を用いて撮像された三次元画像を取得する。また、画像抽出部32が、注目画素における被写体距離情報を三次元画像から取得する。そして、画像抽出部32は、物体DB34に予め記憶された複数のテンプレート画像群から、取得した被写体距離情報に対応するテンプレート画像群を抽出する。画像処理部33は、抽出されたテンプレート画像群を用いて、カメラ画像及び三次元画像に対してテンプレートマッチングを行う。つまり、画像処理部33は、物体DB34に記憶されたテンプレート画像のうち、被写体距離情報に基づいて抽出されたテンプレート画像のみを用いてテンプレートマッチングを行う。このため、物体DB34に格納されたテンプレート画像の全てについてマッチング処理を行う必要がない。その結果、マッチング処理の計算量が低減するため、処理時間を低減させることができる。
また、マッチング処理において、画像の特徴量の削減を行っていないため、マッチング処理の精度の低下も防止できる。
さらに、本発明の構成によれば、マッチング処理における誤検出も防止できる。図9を用いて誤検出の防止効果について説明する。図9は、物体DB34に格納されているテンプレート画像及び距離情報の一例である。テンプレート画像T11、T12は、壁掛け時計を検出物体とするテンプレート画像である。テンプレート画像T11は、100mmの距離情報に関連付けられており、テンプレート画像T12は、500mmの距離情報に関連付けられている。一方、テンプレート画像T21、T22は、置時計を検出物体とするテンプレート画像である。テンプレート画像T21は、100mmの距離情報に関連付けられており、テンプレート画像T22は、500mmの距離情報に関連付けられている。なお、説明の便宜のため、全てのテンプレート画像のサイズは同じサイズであるものとする。また、例えば、壁掛け時計の直径は40cm、置時計の直径は5cmであり、検出物体の実物の大きさが異なるものとする。
このとき、注目画素の被写体距離情報に関係なく、1か所のマッチング領域に対して、テンプレート画像T11、T12、T21、T22の全てを使用する場合を考える。この場合、テンプレート画像T12とT21は、検出物体の種類は異なるものの、テンプレート画像内における検出物体のサイズ(画素数)や形状が似ている。そのため、例えば、カメラ画像内に存在する壁掛け時計を置時計と誤検出してしまったり、置時計を壁掛け時計と誤検出してしまったりする。
これに対して、本発明の構成によれば、三次元画像から取得された被写体距離情報が例えば120mmであるとすると、画像抽出部32は、距離情報100mmに関連付けられたテンプレート画像T11、T21を抽出する。そして、画像処理部33が、テンプレート画像T11、T21を用いてマッチング処理を行う。テンプレート画像T11とT21の画像内において、壁掛け時計が占める画素数と置時計が占める画素数とは大きく異なる。そのため、カメラ画像内に存在する壁掛け時計を置時計と誤検出したり、置時計を壁掛け時計と誤検出したりすることを防止できる。また、三次元画像から取得された被写体距離情報が例えば480mmの場合、画像抽出部32は、テンプレート画像内における時計のサイズ(画素数)が異なるテンプレート画像T12、T22を抽出する。このため、上記と同様に誤検出を防止することができる。
なお、上述の実施の形態においては、テンプレートマッチングにおいて、カメラ画像と三次元画像との双方を用いていたが、いずれか一方の画像のみを用いてマッチング処理を行ってもよい。ただし、それぞれの画像を用いたテンプレートマッチングは、異なる特徴を有する。カメラ画像を用いたマッチング処理においては、特徴的な模様(色彩情報)を有する物体の検出に適している。これに対して、三次元画像を用いたマッチング処理においては、色彩情報は考慮されないため、特徴的な形状を有する物体の検出に適している。したがって、カメラ画像及び三次元画像の双方を用いてテンプレートマッチングを行うことにより、それぞれの特徴を活かすことができるため、検出精度を向上させることができる。
また、物体DB34においては、1つの検出物体について、1つの距離情報に複数のテンプレート画像(つまり、テンプレート画像群)が関連付けられていたが、これに限られるものではない。つまり、1つの距離情報に1枚のテンプレート画像が関連付けられていてもよい。
(変形例1)
本実施の形態にかかる変形例1について説明する。上記の実施の形態においては、テンプレートマッチングに用いられるテンプレート画像が輝度や色彩に関する情報を含む画像データであった。これに対して、変形例1においては、画像の特徴量(例えばエッジ特徴量)を比較することにより、テンプレートマッチングを行う。
例えば、画像処理部33が、マッチング領域のエッジ特徴量を算出し、エッジ特徴量画像を生成する。エッジ特徴量画像の各画素には、輝度や色彩等ではなく、画素に含まれる線分の方向と強さに関する情報が含まれている。また、画像処理部33は、物体DB34から抽出されたテンプレート画像からエッジ特徴量画像を生成する。そして、画像処理部33は、マッチング領域とテンプレート画像とのエッジ特徴量を比較することにより、スコア(一致度)を算出する。
(変形例2)
本実施の形態にかかる変形例2について説明する。上記の実施の形態においては、パターンマッチング手法として領域ベースマッチングを用いていた。これに対して、変形例2においては、パターンマッチングの手法として、特徴ベースマッチングを用いる。特徴ベースマッチングとは、画像からコーナーなどの特徴点を検出し、その周囲の局所領域に対して局所記述子や、輝度情報や色彩情報のヒストグラム等(特徴量)を定義し、特徴量の距離に基づいて画像間のマッチングを行う手法である。つまり、特徴ベースマッチングとは、画像(画素や領域)同士の比較ではなく、画像に含まれる特徴同士の比較である。
例えば、物体DB34が、テンプレート画像の代わりに、当該テンプレート画像に関する情報を特徴量として記憶する。当該特徴量は、テンプレート画像と同様に、予め距離情報と対応付けて物体DB34に格納されている。つまり、物体DB34は、画像パターンとして、テンプレート画像の代わりに画像の特徴量を記憶する。
そして、画像処理部33が、カメラ画像におけるマッチング領域の特徴量を算出する。画像処理部33は、物体DB34に記憶された特徴量の中から、注目画素の被写体距離情報に関連付けられた特徴量を抽出する。画像処理部33は、算出した特徴量と抽出した特徴量とを比較することにより、マッチング処理を行う。
(変形例3)
本実施の形態にかかる変形例3について説明する。上記の実施の形態においては、画像処理部33は、三次元画像から注目画素の被写体距離情報を取得する際に、注目画素(1画素)が有する被写体距離情報を取得していた。これに対して、変形例3においては、画像処理部33は、注目画素となる画素と、注目画素の周囲の画素と、が有する複数の被写体距離情報の平均値を算出する。そして、画像抽出部32は、物体DB34に記憶された複数の距離情報から、算出した平均値付近の距離情報を検出し、検出した距離情報に関連付けられたテンプレート画像群を抽出する。
例えば、画像抽出部32は、図10に示すように、注目画素P1に対応する画素と当該画素に隣接する8つの画素が有する被写体距離情報の平均値を、注目画素P1の被写体距離情報とする。具体的には、注目画素P1に対応する画素が有する被写体距離情報は、530mmであるが、9画素全ての被写体距離情報の平均値は、540mmとなる。このため、画像抽出部32は、物体DB34に記憶された距離情報から、算出した平均値540mm付近の距離情報を検出し、当該距離情報に関連付けられたテンプレート画像群を抽出する。
このように、注目画素の周囲の画素の被写体距離情報の平均値を用いることにより、注目画素のノイズの影響を低減できる。なお、平均に用いる画素は注目画素に対応する画素に隣接する画素に限られず、さらに広い範囲の画素を用いてもよい。また、9画素の単純な平均値ではなく、注目画素の被写体距離情報を周囲の画素の被写体距離情報よりも重みづけした重みづけ平均値を用いてもよい。
(変形例4)
本実施の形態にかかる変形例4について説明する。上記の実施の形態においては、図8に示したように、画像抽出部32は、物体DB34に記憶された複数の距離情報のうち、注目画素の被写体距離情報の前後の距離情報を検出していた。これに対して、変形例4においては、画像抽出部32は、注目画素の被写体距離情報に最も近い1つの距離情報を検出する。つまり、画像抽出部32は、取得した被写体距離情報と最も差分の小さい距離情報を物体DB34から検出する。
例えば、図11に示した例においては、画像抽出部32が取得した注目画素の被写体距離情報は530mmである。このため、画像抽出部32は、530mmに最も近い(最も距離差が短い)距離情報である500mmを検出する。そして、画像抽出部32は、検出した500mmの距離情報に関連付けられたテンプレート画像群のみを抽出する。したがって、上記の実施の形態に比べて、マッチング処理を行うテンプレート画像の枚数が少なくなる。その結果、さらにマッチング処理の計算量が低減するため、処理時間を低減させることができる。
(変形例5)
本実施の形態にかかる変形例5について説明する。上記の実施の形態においては、画像認識装置を含む画像処理システムとして説明を行ったが、これらのシステム全体をロボットに適用してもよい。
例えば、周囲環境から所定の検出物体を検出する必要があるロボットに対して、上記の画像処理システムを適用することができる。具体的には、ロボットは、カメラと、三次元センサと、画像認識装置と、を備える。なお、周囲環境に応じて移動するロボットは、通常、周囲環境の状況を把握するために、カメラと三次元センサとを備えているため、これらの装置を流用してもよい。
ロボットは、カメラを用いてカメラ画像を生成する。また、三次元センサを用いて三次元画像を生成する。そして、上述したように、画像認識装置は、三次元画像における注目画素の被写体距離情報を取得し、物体DBからテンプレート画像を抽出し、抽出した画像を用いて、カメラ画像及び三次元画像に対してテンプレートマッチングを行う。
このとき、ロボットは、必ずしも三次元画像を生成しなくてもよい。例えば、ロボットは、単純な距離センサ等を用いて、注目画素に対応する被写体までの被写体距離を、注目画素が移動する度に個別に検出してもよい。これにより、三次元画像を生成することなく、注目画素における被写体距離を取得することができる。
なお、本発明は上記実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更及び組み合わせをすることが可能である。例えば、テンプレート画像は、予め被写体(検出物体)を撮影した画像だけでなく、仮想物体画像(CADモデルや三次元構築された物体)を用いてもよい。テンプレート画像として仮想物体画像を用いる場合には、仮想物体画像を所定距離から撮影したと仮定し、仮想物体画像を距離情報に関連付けてテンプレート画像群を生成する。
10 カメラ
20 三次元センサ
30 画像認識装置
31 制御部
32 画像抽出部
33 画像処理部
34 物体DB
51 テンプレート画像
51a カメラ画像
51b 三次元画像
52 テンプレート画像ペア
53 テンプレート画像群
90 検出物体

Claims (7)

  1. 画像生成装置を用いて被写体を撮像することにより生成された撮像画像を取得し、
    前記撮像画像内の注目画素における前記被写体から前記画像生成装置までの距離を示す被写体距離情報を取得し、
    1つの検出物体を検出するために予め作成された複数の画像パターンであって、それぞれ異なる距離情報に関連付けられている画像パターンから、取得した前記被写体距離情報に対応する前記画像パターンを抽出し、
    前記撮像画像に対して、抽出した前記画像パターンを用いてパターンマッチングを行う画像認識方法。
  2. 前記撮像画像は、各画素が前記被写体距離情報を有する三次元画像を含み、
    前記画像パターンは、前記検出物体の前記三次元画像を含み、
    前記注目画素における前記被写体距離情報を前記撮像画像としての前記三次元画像から取得し、
    取得した前記被写体距離情報に対応する前記検出物体の前記三次元画像を抽出し、
    前記撮像画像としての前記三次元画像に対して、抽出した前記検出物体の前記三次元画像を用いてパターンマッチングを行う請求項1に記載の画像認識方法。
  3. 前記撮像画像は、各画素が色彩情報を有する色画像をさらに含み、
    前記画像パターンは、前記検出物体の前記色画像をさらに含み、
    前記撮像画像としての前記三次元画像及び前記色画像に対して、前記検出物体の前記三次元画像及び前記色画像を用いてパターンマッチングを行う請求項2に記載の画像認識方法。
  4. 前記画像パターンは、前記検出物体を示すテンプレート画像を含み、
    前記テンプレート画像のサイズは、当該テンプレート画像に関連付けられた前記距離情報に応じて異なり、
    前記撮像画像内において前記テンプレート画像と比較される比較領域のサイズは、前記パターンマッチングに用いる前記テンプレート画像のサイズに応じて変化する請求項1〜3のいずれか一項に記載の画像認識方法。
  5. 前記注目画素が有する前記被写体距離情報と、前記注目画素の周囲の画素が有する前記被写体距離情報と、を取得し、
    取得した複数の前記被写体距離情報の平均値を算出し、
    予め作成された複数の前記画像パターンから、算出した前記平均値に対応する前記画像パターンを抽出する請求項1〜4のいずれか一項に記載の画像認識方法。
  6. 予め作成された複数の前記画像パターンのうち、取得した前記被写体距離情報との差分が最も小さい前記距離情報に関連付けられた前記画像パターンを抽出する請求項1〜5のいずれか一項に記載の画像認識方法。
  7. 前記画像生成装置と、
    複数の前記画像パターンを、それぞれ異なる前記距離情報に関連付けて予め記憶するメモリと、
    請求項1〜6のいずれか一項に記載の画像認識方法を実行する画像認識装置と、
    を備えるロボット。
JP2013175497A 2013-08-27 2013-08-27 画像認識方法及びロボット Pending JP2015045919A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2013175497A JP2015045919A (ja) 2013-08-27 2013-08-27 画像認識方法及びロボット
US14/467,458 US20150063637A1 (en) 2013-08-27 2014-08-25 Image recognition method and robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013175497A JP2015045919A (ja) 2013-08-27 2013-08-27 画像認識方法及びロボット

Publications (1)

Publication Number Publication Date
JP2015045919A true JP2015045919A (ja) 2015-03-12

Family

ID=52583329

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013175497A Pending JP2015045919A (ja) 2013-08-27 2013-08-27 画像認識方法及びロボット

Country Status (2)

Country Link
US (1) US20150063637A1 (ja)
JP (1) JP2015045919A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018151830A (ja) * 2017-03-13 2018-09-27 オムロン株式会社 画像処理装置、画像処理方法及びプログラム
JP2020126492A (ja) * 2019-02-05 2020-08-20 株式会社リコー 情報処理装置、発話認識システム及び発話認識プログラム
CN113361651A (zh) * 2021-03-05 2021-09-07 牧今科技 生成用于物体检测的安全空间列表的方法和计算***

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110287787B (zh) * 2019-05-21 2022-05-06 平安国际智慧城市科技股份有限公司 图像识别方法、装置及计算机可读存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001143075A (ja) * 1999-11-10 2001-05-25 Yaskawa Electric Corp テンプレートマッチング方法
JP2004317332A (ja) * 2003-04-17 2004-11-11 Nippon Telegr & Teleph Corp <Ntt> 3次元形状計測方法、3次元形状計測装置、プログラム、および記録媒体
JP2007072665A (ja) * 2005-09-06 2007-03-22 Fujitsu Ten Ltd 物体判別装置、物体判別方法および物体判別プログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001143075A (ja) * 1999-11-10 2001-05-25 Yaskawa Electric Corp テンプレートマッチング方法
JP2004317332A (ja) * 2003-04-17 2004-11-11 Nippon Telegr & Teleph Corp <Ntt> 3次元形状計測方法、3次元形状計測装置、プログラム、および記録媒体
JP2007072665A (ja) * 2005-09-06 2007-03-22 Fujitsu Ten Ltd 物体判別装置、物体判別方法および物体判別プログラム

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018151830A (ja) * 2017-03-13 2018-09-27 オムロン株式会社 画像処理装置、画像処理方法及びプログラム
JP2020126492A (ja) * 2019-02-05 2020-08-20 株式会社リコー 情報処理装置、発話認識システム及び発話認識プログラム
JP7299587B2 (ja) 2019-02-05 2023-06-28 株式会社リコー 情報処理装置、発話認識システム及び発話認識プログラム
CN113361651A (zh) * 2021-03-05 2021-09-07 牧今科技 生成用于物体检测的安全空间列表的方法和计算***
CN113361651B (zh) * 2021-03-05 2022-01-04 牧今科技 生成用于物体检测的安全空间列表的方法和计算***

Also Published As

Publication number Publication date
US20150063637A1 (en) 2015-03-05

Similar Documents

Publication Publication Date Title
JP6620888B2 (ja) 煙検出装置、方法及び画像処理装置
US9361520B2 (en) Method and system for tracking objects
CN102834845A (zh) 用于多摄像装置校准的方法与装置
JP2011185872A (ja) 情報処理装置、その処理方法及びプログラム
KR20160003776A (ko) 자세 추정 방법 및 로봇
US20180150969A1 (en) Information processing device, measuring apparatus, system, calculating method, storage medium, and article manufacturing method
JP2015045919A (ja) 画像認識方法及びロボット
JP2011237296A (ja) 3次元形状計測方法、3次元形状計測装置、及びプログラム
CN111354038A (zh) 锚定物检测方法及装置、电子设备及存储介质
JP2014170368A (ja) 画像処理装置、方法及びプログラム並びに移動体
JP2018036898A5 (ja) 画像処理装置及び画像処理方法及びプログラム
US20190313082A1 (en) Apparatus and method for measuring position of stereo camera
JP5743935B2 (ja) 対象物検出装置および対象物検出方法
KR101188296B1 (ko) 스트랩다운 이중 모드 영상탐색기의 가중치 기반 표적 결정 방법 및 이를 이용한 가중치 기반 표적 결정 시스템
JP5217917B2 (ja) 物体検知追跡装置,物体検知追跡方法および物体検知追跡プログラム
JP2009301242A (ja) 頭部候補抽出方法、頭部候補抽出装置、頭部候補抽出プログラムおよびそのプログラムを記録した記録媒体
JP2017033556A (ja) 画像処理方法及び電子機器
JP6393495B2 (ja) 画像処理装置および物体認識方法
JP2020071739A (ja) 画像処理装置
JP6852406B2 (ja) 距離測定装置、距離測定方法および距離測定プログラム
JP5347798B2 (ja) 物体検出装置、物体検出方法及び物体検出プログラム
JP6408414B2 (ja) 動物体検出装置及びその背景モデル構築方法
JP2007140729A (ja) 物品の位置及び姿勢を検出する方法および装置
JP6278757B2 (ja) 特徴量生成装置、特徴量生成方法、およびプログラム
JP2013114381A (ja) 対象物識別装置および対象物識別方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150326

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150820

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150825

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150925

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160301