JP6508134B2 - 物体判別装置 - Google Patents

物体判別装置 Download PDF

Info

Publication number
JP6508134B2
JP6508134B2 JP2016118233A JP2016118233A JP6508134B2 JP 6508134 B2 JP6508134 B2 JP 6508134B2 JP 2016118233 A JP2016118233 A JP 2016118233A JP 2016118233 A JP2016118233 A JP 2016118233A JP 6508134 B2 JP6508134 B2 JP 6508134B2
Authority
JP
Japan
Prior art keywords
parameter
boundary portion
region
pixels
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016118233A
Other languages
English (en)
Other versions
JP2017224110A (ja
Inventor
和宏 宮里
和宏 宮里
雅道 大杉
雅道 大杉
英明 澤田
英明 澤田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2016118233A priority Critical patent/JP6508134B2/ja
Priority to US15/595,381 priority patent/US10380743B2/en
Priority to CN201710362282.3A priority patent/CN107506685B/zh
Priority to DE102017209631.4A priority patent/DE102017209631B4/de
Publication of JP2017224110A publication Critical patent/JP2017224110A/ja
Application granted granted Critical
Publication of JP6508134B2 publication Critical patent/JP6508134B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Geometry (AREA)
  • Optics & Photonics (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は、画像に写っている物体を判別することが可能な物体判別装置の技術分野に関する。
カメラで撮像した画像に写っている物体を判別する物体判別装置が知られている。このような物体判別装置の一例として、画像に写っている物体が煙状の物体であるか否かを判別する物体判別装置が特許文献1に記載されている。特許文献1に記載された物体判別装置は、ステレオカメラで撮像した一対の画像から視差を算出し、算出した視差に基づいて、判別対象となる物体が写っている対象物領域を画像中で特定する。その後、特許文献1に記載された物体判別装置は、対象物領域のエッジ強度に基づいて、対象物領域に写っている物体が煙状の物体であるか否かを判別する。具体的には、物体判別装置は、抽出したエッジ強度のヒストグラムを作成し、作成したヒストグラムをエッジ強度が高い順に累積することで得られる累積強度が全体のN%以上となるエッジ強度ENを特定し、特定したエッジ強度ENが閾値S以下となる場合に、対象物領域に写っている物体が煙状の物体であると判別する。
その他、物体判別装置の他の例が、特許文献2から特許文献7に記載されている。但し、特許文献2から特許文献7に記載された物体判別装置は、特許文献1に記載された物体判別装置と比較して、本願発明に対する関連性がそれほど大きくないため、その詳細な説明を省略する。
特開2012−118698号公報 特開2015−075826号公報 特開2014−215718号公報 特開2014−017771号公報 特開2013−206328号公報 特開2013−203337号公報 特開2016−001435号公報
特許文献1に記載された物体判別装置は、エッジ強度の強弱に基づいて物体が煙状の物体であるか否かを判別している。このような判別が可能な理由は、煙状の物体のエッジ強度が、煙状の物体とは異なる他の物体(例えば、ガードレールやポールや電柱等の人工構造物)のエッジ強度に対して弱くなる傾向が強いからである。
しかしながら、煙状の物体の色(或いは、輝度等のその他の任意の特性、以下この段落及び次の段落において同じ)と当該物体の背景の色とが大きく異なる場合には煙状の物体の色と当該物体の背景の色とがそれほど大きくは異なっていない場合と比較して、煙状の物体のエッジ強度が強くなる。このため、対象物領域に写っている物体が煙状の物体であるにもかかわらず、上述したエッジ強度ENが閾値S以下とならないと判定される可能性がある。その結果、画像に写っている物体が煙状の物体であると本来は判別されるべき状況下で、画像に写っている物体が煙状の物体ではない(例えば、人工構造物である)と誤って判別されてしまう可能性がある。
同様に、画像に写っている煙状の物体とは異なる他の物体の色と当該他の物体の背景の色とがそれほど大きくは異なっていない場合には、画像に写っている他の物体の色と当該他の物体の背景の色とが大きく異なっている場合と比較して、他の物体のエッジ強度が弱くなる。このため、対象物領域に写っている物体が煙状の物体ではないにもかかわらず、上述したエッジ強度ENが閾値S以下となると判定される可能性がある。その結果、画像に写っている物体が煙状の物体とは異なる他の物体である(例えば、人工構造物である)と本来は判別されるべき状況下で、画像に写っている物体が他の物体ではない(例えば、煙状の物体である)と誤って判別されてしまう可能性がある。
このように、単にエッジ強度の強弱に基づいて画像に写っている物体を判別する物体判別装置には、その判別精度が必ずしも良好であるとは限らないという技術的問題が存在する。
本発明が解決しようとする課題には上記の課題が挙げられる。本発明は、画像に写っている物体をより一層精度よく判別することが可能な物体判別装置を提供することを課題とする。
<1>
開示の物体判別装置は、判別対象となり得る物体が写っている第1領域を画像中で特定する第1特定手段と、前記第1領域内で、画像特徴量の勾配の大きさが所定量以上となる前記物体の境界のうち、前記画像特徴量の勾配の方向が一の方向となる特定境界部分であって且つ前記画像特徴量の勾配の方向が前記一の方向とは異なる他の方向となる他の境界部分よりも前記第1領域内での分布範囲が大きくなる特定境界部分を特定する第2特定手段と、前記第1領域の長さを示す第1パラメータと前記特定境界部分の長さを示す第2パラメータとに基づいて、前記物体を判別する判別手段とを備える。
後に図面を参照しながら詳述するように、物体の色(或いは、輝度等のその他の任意の特性、以下この段落において同じ)と当該物体の背景の色との関係に依存することなく、第1及び第2パラメータの少なくとも一方は、主として物体の種類に応じて変わる。従って、開示の物体判別装置は、単に画像特徴量の勾配の大きさに基づいて物体を判別する比較例の物体判別装置と比較して、物体を精度よく判別することができる。
<2>
開示の物体判別装置の他の態様では、前記判別手段は、前記第1パラメータと前記第2パラメータとの間の相対関係に基づいて、前記物体を判別する。
後に図面を参照しながら詳述するように、物体の色(或いは、輝度等のその他の任意の特性、以下この段落において同じ)と当該物体の背景の色との関係に依存することなく、第1及び第2パラメータの相対関係は、主として物体の種類に応じて変わる。従って、この態様によれば、判別手段は、第1及び第2パラメータの相対関係に基づいて、物体を精度よく判別することができる。
<3>
上述の如く第1及び第2パラメータの相対関係に基づいて物体を判別する物体判別装置の他の態様では、前記判別手段は、前記相対関係が、前記物体が煙である場合に観測され得る前記相対関係として予め規定された第1関係である場合に、前記物体が煙であると判別し、前記判別手段は、前記相対関係が、前記第1関係とは異なり且つ前記物体が人工構造物である場合に観測され得る前記相対関係として予め規定された第2関係である場合に、前記物体が人工構造物であると判別する。
物体が煙である場合における第1及び第2パラメータの相対関係と、物体が人工構造物である場合における第1及び第2パラメータの相対関係とは、比較的容易に識別可能である。従って、この態様によれば、判別手段は、第1及び第2パラメータの相対関係に基づいて、物体が煙であるか否か及び人工構造物であるか否かを精度よく判別することができる。
<4>
上述の如く第1及び第2パラメータの相対関係に基づいて物体を判別する物体判別装置の他の態様では、前記相対関係は、前記第1パラメータと前記第2パラメータとの比及び前記第1パラメータと前記第2パラメータとの差分のうちの少なくとも一方を含む。
この態様によれば、判別手段は、第1及び第2パラメータの比及び差分のうちの少なくとも一方に基づいて、物体を精度よく判別することができる。
<5>
上述の如く比及び差分のうちの少なくとも一方に基づいて物体を判別する物体判別装置の他の態様では、前記判別手段は、前記比が第1閾値よりも小さい又は前記差分が第2閾値よりも大きい場合に、前記物体が煙であると判別し、前記判別手段は、前記比が前記第1閾値以上である第3閾値よりも大きい又は前記差分が前記第2閾値以下である第4閾値よりも小さい場合に、前記物体が人工構造物であると判別する。
後に図面を用いて詳述するように、物体が煙である場合における第1及び第2パラメータの比は、物体が人工構造物である場合における第1及び第2パラメータの比よりも小さくなる可能性が高い。更に、物体が煙である場合における第1及び第2パラメータの差分は、物体が人工構造物である場合における第1及び第2パラメータの差分よりも大きくなる可能性が高い。従って、この態様によれば、判別手段は、第1及び第2パラメータの比及び差分のうちの少なくとも一方に基づいて、物体が煙であるか否か及び人工構造物であるか否かを精度よく判別することができる。
<6>
開示の物体判別装置の他の態様では、前記第1パラメータは、前記第1領域の外縁上の2点を結ぶことで得られる第1の線分の長さを、前記第1領域の長さとして示し、前記第2パラメータは、前記第1の線分に対して前記特定境界部分を投影することで得られる第2の線分の長さを、前記特定境界部分の長さとして示す。
この態様によれば、第1及び第2パラメータは、物体を精度よく判別可能なパラメータとなる。
<7>
上述の如く第1パラメータが第1の線分の長さを示す物体判別装置の他の態様では、前記第1領域の形状は、矩形であり、前記第1の線分は、前記第1領域の一の辺である。
この態様によれば、第1及び第2パラメータは、物体を精度よく判別可能なパラメータとなる。
<8>
上述の如く第1の線分が第1領域の一の辺である物体判別装置の他の態様では、前記一の辺は、前記第1領域の長辺である。
後に詳述するように、物体判別装置は、物体の境界が第1領域の少なくとも一部に渡って直線状に境界部分を含むか否かという判別基準を用いて、物体を判別可能である。ここで、人工構造物や煙等を含む物体は、3次元空間中である方向に沿って(例えば、垂直方向又は水平方向)に延びる形状を有している可能性が高い。このため、第1領域の少なくとも一部に渡って直線状に延びる境界部分もまた、物体が3次元空間中で延びる方向に対応する第1領域の長辺に沿って延びる可能性が高い。従って、第1領域の長辺の長さを示す第1パラメータ及び特定境界部分を当該長辺に投影することで得られる第2の線分の長さを示す第2パラメータが用いられることで、物体判別装置による判別精度の向上が期待できる。
<9>
開示の物体判別装置の他の態様では、前記第1特定手段は、前記画像を第1の解析方法で解析することで前記第1領域を特定し、前記画像を前記第1の解析方法又は前記第1の解析方法とは異なる第2の解析方法で解析して、判別対象から除外可能な所定物が写っている第2領域を前記画像中で特定する第3特定手段を更に備え、前記第2特定手段は、前記第2領域と重複しない前記第1領域内で前記特定境界部分を特定する一方で、前記第2領域と重複する前記第1領域内で前記特定境界部分を特定しない。
この態様によれば、第2特定手段が第2領域と重複する第1領域内で特定境界部分を特定しなくてもよくなるがゆえに、物体判別装置の処理負荷が低減可能である。更には、所定物が判別対象から除外されるがゆえに、所定物が本来の物体とは異なる物体であると誤判別されることに起因した判別精度の悪化が抑制可能である。
<10>
開示の物体判別装置の他の態様では、前記第1特定手段は、前記画像を第1の解析方法で解析することで前記第1領域を特定し、前記画像を前記第1の解析方法又は前記第1の解析方法とは異なる第2の解析方法で解析して、判別対象から除外可能な所定物が写っている第2領域を前記画像中で特定する第3特定手段を更に備え、前記判別手段は、前記第1及び第2パラメータ、並びに、前記第3特定手段の特定結果に基づいて、前記物体を判別する。
この態様によれば、判別手段は、判別対象から除外可能な所定物を考慮して、物体を判別することができる。このため、所定物が本来の物体とは異なる物体(つまり、判別対象となり得る物体の一つ)であると誤判別されることに起因した判別精度の悪化が抑制可能である。
<11>
開示の物体判別装置の他の態様では、前記境界は、前記画像を構成する複数の第1画素のうち前記画像特徴量の勾配の大きさが前記所定量以上となる複数の第2画素から構成され、前記特定境界部分は、前記複数の第2画素のうち、前記画像特徴量の勾配の方向が前記一の方向となる複数の第3画素であって且つ前記画像特徴量の勾配の方向が前記他の方向となる複数の第4画素よりも数が多い複数の第3画素から構成され、
前記第2パラメータは、前記複数の第3画素の数に関する指標を用いて、前記特定境界部分の長さを示す。
この態様によれば、画像を構成する画素という観点から、境界、特定境界部分及び第2パラメータが定義される。
図1は、本実施形態の車両の構成を示すブロック図である。 図2(a)は、ガードレールの境界の一例を示す平面図であり、図2(b)は、ポールの境界の一例を示す平面図であり、図2(c)は、煙の境界の一例を示す平面図である。 図3は、物体判別動作の流れを示すフローチャートである。 図4(a)は、立体物領域の一例を示す平面図であり、図4(b)は、人・車領域の一例を示す平面図であり、図4(c)は、対象領域の一例を示す平面図である。 図5(a)は、対象画像を構成する各画素における画像特徴量を示す模式図であり、図5(b)は、対象物の境界の一例を示す平面図である。 図6(a)及び図6(b)は、夫々、境界を構成する画素を分類するための角度範囲を示す平面図である。 図7(a)及び図7(b)は、夫々、勾配の方向が同じになる画素から構成される境界部分を示す平面図である。 図8(a)及び図8(b)は、夫々、第1及び第2パラメータの算出動作を対象領域上で示す模式図である。 図9は、判別用パラメータの出現頻度と閾値との関係を示すグラフである。 図10(a)から図10(c)は、夫々、第1パラメータが示す対象の他の例を示す平面図である。 図11は、対象領域の少なくとも一部に渡って直線状に延びる複数の境界部分を特定境界部分が含む例を示す平面図である。 図12は、判別用パラメータの出現頻度と複数の閾値との関係を示すグラフである。 図13は、変形例の物体判別動作の流れを示すフローチャートである。
以下、図面を参照しながら、本発明の物体判別装置の実施形態について説明する。以下では、本発明の物体判別装置の実施形態が搭載された車両1を用いて説明を進める。但し、本発明の物体判別装置の実施形態は、車両1とは異なる任意の装置に搭載されてもよい。
(1)車両の構成
はじめに、図1のブロック図を参照して、本実施形態の車両1の構成について説明する。図1に示すように、車両1は、カメラ11と、LIDAR(Light Detection and Ranging)12と、「物体判別装置」の一具体例であるECU(Electrical Control Unit)13とを備える。
カメラ11は、車両1の前方の外部状況を撮像する撮像機器である。カメラ11が撮像した画像は、ECU13に出力される。
LIDAR12は、車両の前方に向けて光を出射すると共に車両1の前方に存在する物体で反射した光を検出することで、物体までの距離を示す距離情報を検出する。LIDAR12が検出した距離情報は、ECU13に出力される。
ECU13は、カメラ11が撮像した画像に写っている物体がどのような物体であるかを判別するための物体判別動作を行う。物体判別動作を行うために、ECU13は、ECU13の内部に論理的に実現される処理ブロックとして、「第1特定手段」の一具体例である立体物領域特定部131と、「第3特定手段」の一具体例である人・車特定部132と、対象領域特定部133と、「第2特定手段」の一具体例である境界特定部134と、判別パラメータ算出部135と、「判別手段」の一具体例である物体判別部136とを備えている。これらの処理ブロックの動作の詳細については、後に詳述するが(図3等参照)、以下にその概要について簡単に説明する。
立体物領域特定部131は、カメラ11から出力される画像及びLIDAR12から出力される距離情報に基づいて、立体物(つまり、立体的な又は3次元の物体)が写っている立体物領域231を画像内で特定する。立体物領域特定部131は、特定結果を、対象領域特定部133に通知する。尚、立体物領域231は、「第1領域」の一具体例である。
人・車特定部132は、カメラ11から出力される画像に基づいて、人又は車が写っている人・車領域232を画像内で特定する。人・車特定部132は、特定結果を、対象領域特定部133に通知する。尚、人・車領域232は、「第2領域」の一具体例である。
対象領域特定部133は、立体物領域231及び人・車領域232に基づいて、物体判別動作の対象となる対象領域233を特定する。
境界特定部134は、対象領域233に含まれる物体(以降、“対象物”と称する)の境界301を特定する。本実施形態での「境界301」とは、対象物と対象物とは異なる他の物体若しくは背景とを区分可能な線分(或いは、線状の領域)、並びに、対象物のうちの一の部分と対象物の他の部分とを区分可能な線分(或いは、線状の領域)の少なくとも一方を意味する。このような境界301は、画像特徴量の勾配が所定量以上になる(つまり、隣り合う画素との間での画像特徴量の変化量が一定量以上)画素に一致する。言い換えれば、境界301は、このような画素が存在する領域に一致する。
境界特定部134は更に、特定した境界301のうちの少なくとも一部に相当する特定境界部分302を特定する。特定境界部分302は、画像特徴量の勾配の方向が同じになる画素(つまり、このような画素が存在する領域)に一致する。
判別パラメータ算出部135は、対象領域特定部133の特定結果及び境界特定部134の特定結果に基づいて、判別パラメータPを算出する。
物体判別部136は、判別パラメータ算出部135が算出した判別パラメータPに基づいて、対象領域233に写っている対象物がどのような物体であるかを判別する。具体的には、物体判別部136は、対象物が煙であるか否か(より具体的には、煙である可能性がある候補であるか否か、以下同じ)を判別可能である。物体判別部136は、対象物が煙であるか否かを判別することに加えて又は代えて、対象物が人工構造物(典型的には、道路上に設置される人工構造物であって、例えば、ガードレールや、ポールや、電柱等)であるか否か(より具体的には、人工構造物である可能性がある候補であるか否か、以下同じ)を判別可能であってもよい。以下では、説明の便宜上、対象物が煙であるか又は人工構造物であるかを物体判別部136が判別可能である例について説明を進める。
(2)物体判別動作
続いて、ECU13が行う物体判別動作について説明する。
(2−1)物体判別動作の概要
まず、図2(a)から図2(c)を参照しながら、物体判別動作の概要について説明する。
図2(a)は、対象物の一例となり得るガードレール(つまり、人工構造物)が写っている対象領域233内で特定される境界301の一例を実線で示す。図2(a)に示すように、ガードレールの境界301は、対象領域233の全体(或いは、場合によっては一部、以下同じ)に渡って直線状に延びる境界部分301a(太い実線参照)を含む。
図2(b)は、対象物の一例となり得るポール(いわゆるポールコーンであり、つまりは人工構造物)が写っている対象領域233内で特定される境界301の一例を実線で示す。図2(b)に示すように、ポールの境界301は、対象領域233の全体(或いは、場合によっては一部)に渡って直線状に延びる境界部分301a(太い実線参照)を含む。尚、図示しないものの、対象物の一例となり得る電柱(つまり、人工構造物)の境界301もまた、対象領域233の全体に渡って直線状に延びる境界部分301aを含むはずである。
図2(c)は、対象物の一例となり得る煙が写っている対象領域233内で特定される境界301の一例を実線で示す。図2(c)に示すように、煙の境界301には、対象領域233の全体に渡って直線状に延びる境界部分301aが含まれていない。
図2(a)から図2(c)から分かるように、煙の境界301が対象領域233の少なくとも一部に渡って直線状に延びる境界部分301aを含まない一方で、人工構造物の境界301が対象領域233の少なくとも一部に渡って直線状に延びる境界部分301aを含む。つまり、対象領域233内での煙の境界301の分布態様は、対象領域233内での人工構造物の境界301の分布態様とは異なる。本実施形態の物体判別動作は、このような煙の境界301の分布態様と人工構造物の境界301の分布態様との違いに基づいて、対象物が煙であるか又は人工構造物であるか否かを判別する。
(2−2)物体判別動作の具体的な流れ
続いて、図3のフローチャートを参照しながら、物体判別動作の具体的な流れについて説明する。図3に示すように、立体物領域特定部131及び人・車特定部132の夫々は、カメラ11から画像を取得する(ステップS11)。更に、立体物領域特定部131は、LIDAR12から距離情報を取得する。尚、ステップS11で取得された画像は、物体判別動作の対象となる画像であることから、以下では適宜“対象画像”と称する。また、以下に説明するステップS12からステップS21の動作は、ステップS11で取得された対象画像及び距離情報に基づいて行われる。従って、ECU13は、実質的には、対象画像及び距離情報を取得する都度、物体判別動作(特に、ステップS12からステップS21の動作)を繰り返し行うと言える。言い換えれば、ECU13は、実質的には、対象画像及び距離情報の取得をトリガとして、物体判別動作を開始すると言える。
その後、立体物領域特定部131は、距離情報に基づいて、対象画像中で立体物領域231を特定する(ステップS12)。以下、立体物領域231を特定する動作の一例について簡単に説明するが、立体物領域特定部131は、以下に説明する方法とは異なる方法を用いて立体物領域231を特定してもよい。例えば、立体物領域特定部131は、距離情報に基づいて、対象画像上の2次元の座標系を3次元の座標系に変換する。その後、立体物領域特定部131は、3次元の座標系上で、道路面や床面よりも高い位置にあり且つ車両1からの距離が所定閾値以内にある対象画像中の小領域の集合を、1つの領域群に分類する。このとき、立体物が3次元の座標系上である方向(例えば、垂直方向、水平方向、又はこれらに交わる斜め方向)に沿って延在する物体である可能性が高いことを考慮して、立体物領域特定部131は、車両1からの距離が所定閾値以内にあり且つある方向に沿って連なる対象画像中の小領域の集合を、1つの領域群に分類してもよい。その後、立体物領域特定部131は、2次元の座標系上で各領域群の座標の最小値及び最大値を結ぶことで得られる矩形の領域を、立体物領域231として特定する。各領域群の座標の最小値及び最大値を結ぶことで得られる矩形の領域が立体物領域231となるため、立体物領域231は、立体物領域231に写っている立体物が大きくなるほど大きくなるという性質を有している。
対象画像に単一の立体物が写っている場合には、立体物領域特定部131は、当該立体物が写っている単一の立体物領域231を特定する。一方で、対象画像に複数の立体物が写っている場合には、立体物領域特定部131は、夫々に異なる立体物が写っている複数の立体物領域231を特定する。従って、各立体物領域231は、原則として、単一の立体物が写った領域に相当する。尚、図4(a)は、対象画像に複数の立体物が写っている場合に特定される複数の立体物領域231を示す。具体的には、図4(a)は、立体物であるガードレールが写っている立体物領域231aと、立体物である車が写っている立体物領域231bと、立体物である煙が写っている立体物領域231cと、立体物である電柱が写っている立体物領域231dと、立体物である人(具体的には、歩行者)が写っている立体物領域231eとが特定された例を示している。
ステップS12の動作に続いて(或いは、並行して)、人・車特定部132は、対象画像中で人・車領域232を特定する(ステップS13)。以下、人・車領域232を特定する動作の一例について簡単に説明するが、人・車特定部132は、以下に説明する方法とは異なる方法を用いて人・車領域232を特定してもよい。人・車特定部132は、立体物領域特定部131が立体物領域231を特定するために用いる解析方法とは異なる解析方法で対象画像を解析することで、人・車領域232を特定する。このような解析方法の一例として、人又は車を示すテンプレート画像に基づくパターンマッチング法があげられる。但し、人・車特定部132は、立体物領域特定部131が立体物領域231を特定するために用いる解析方法と同じ又は類似の解析方法で対象画像を解析することで、人・車領域232を特定してもよい。尚、図4(b)は、車が写っている人・車領域232aと、人が写っている人・車領域232bとが特定された例を示している。
その後、対象領域特定部133は、ステップS12で特定された立体物領域231及びステップS13で特定された人・車領域232に基づいて、対象領域233を特定する(ステップS14)。具体的には、対象領域特定部133は、人・車領域232と重複しない立体物領域231を、対象領域233に設定する。一方で、対象領域特定部133は、人・車領域232と重複する立体物領域231を、対象領域233に設定しない。尚、図4(c)は、図4(a)に示す立体物領域231及び図4(b)に示す人・車領域232に基づいて特定された対象領域233を示している。具体的には、図4(a)に示す立体物領域231b及び231eは、夫々、図4(b)に示す人・車領域232a及び232bと重複する。従って、図4(a)に示す立体物領域231a、231c及び231dが、夫々、対象領域233a、233b及び233cに設定される。一方で、図4(a)に示す立体物領域231b及び231eは、夫々、対象領域233に設定されない。
その後、ECU13は、ステップS14で特定された各対象領域233に対して、ステップS15からステップS20の動作を行う。
具体的には、まず、境界特定部134は、対象領域233を解析することで、対象領域233に写っている物体の境界301を特定する(ステップS15)。ここで、上述したように、境界301は、画像特徴量の勾配が所定量以上になる画素が存在する領域に一致する。画像特徴量の勾配が所定量以上になる画素が存在する領域が対象画像中にただ一つ存在する場合には、境界301は、このようなただ一つの領域と一致する。画像特徴量の勾配が所定量以上になる画素が存在する領域が対象画像中に複数存在する場合には、境界301は、このような複数の領域の集合と一致する。従って、境界特定部134は、図5(a)に示すように、対象領域233を構成する各画素の画像特徴量に基づいて、画像特徴量の勾配を算出する。ここで言う「勾配」は、ある画素における画像特徴量の水平方向及び垂直方向の夫々に沿った導関数から特定されるベクトル(典型的には、2次元のベクトル)のみならず、ある画素における画像特徴量の変化度合いを特定し得る任意のパラメータをも意味していてもよい。その後、境界特定部134は、画像特徴量の勾配が所定量以上になる画素を特定する。その結果、特定された画素が存在する領域が、対象領域233に写っている対象物の境界301となる。例えば、図5(b)は、対象物の一例となり得るガードレールが写っている対象領域233中で特定される境界301の一例を示す。また、尚、対象画像を構成する各画素は、上述した「第1画素」の一具体例であり、境界301を構成する各画素(つまり、画像特徴量の勾配が所定量以上になる各画素)は、上述した「第2画素」の一具体例である。
尚、図5(a)に示す矢印は、勾配の方向(つまり、2次元のベクトルの向きであり、ある画素において画像特徴量の変化度合いが相対的に大きくなる又は最大となる特定の方向)を示す。図5(a)は、画像特徴量が小さくなるように変化する方向を勾配の方向として規定する例を示しているが、画像特徴量が大きくなるように変化する方向を勾配の方向として規定してもよい。
画像特徴量が輝度(或いは、明度)である場合には、画像特徴量の勾配が所定量以上になる画素は、いわゆる狭義のエッジに一致する。このため、境界特定部134は、いわゆるエッジ検出を行うことで、輝度の勾配が所定量以上になる画素を特定し、当該特定した画素が存在する領域を境界301として特定してもよい。もちろん、画像特徴量は、輝度とは異なる任意のパラメータ(例えば、彩度や色相等)であってもよい。
但し、境界特定部134は、画像特徴量を直接的に用いることなく又は画像特徴量の勾配を直接的に算出することなく、対象領域に対して所望の画像解析を施すことで、画像特徴量の勾配が所定量以上になる画素(或いは、画素と関連して又は画素と無関係に定義可能な対象画像上の領域)を、境界301として特定してもよい。
その後、境界特定部134は、ステップS15で特定した境界301を解析することで、境界301の少なくとも一部に相当する特定境界部分302を特定する(ステップS16)。特定境界部分302は、画像特徴量の勾配の方向が同じになる画素が存在する領域である。尚、ここで言う「勾配の方向が同じになる」状態は、勾配の方向が文字通り完全に同じになる状態のみならず、勾配の方向がばらついているものの、勾配の方向のばらつきが、物体判別動作の精度の悪化を防ぐという観点から見て勾配の方向が実質的に同じであるとみなすことが可能な程度に小さく抑えられている状態をも含んでいる。勾配の方向のばらつきが小さく抑えられている状態の一例として、図6(a)及び図6(b)を用いて後述する、勾配の方向が完全に同じではないもののある角度範囲に含まれる状態があげられる。
但し、画像特徴量の勾配の方向が同じになる画素が存在する領域は、勾配の方向に応じて対象画像内に複数存在する可能性が高い。例えば、対象画像内には、画像特徴量の勾配の方向が第1の方向となる領域と、画像特徴量の勾配の方向が第2の方向となる領域とが少なくとも存在する可能性が高い。特定境界部分302は、このような勾配の方向に応じた複数の領域のうち対象領域233内での分布範囲が最大になる領域である。尚、本実施形態でいう「分布範囲」とは、共通の特性を有する画素の集合から構成されるある領域が分布する範囲(つまり、ある領域が占める、位置する又は存在する範囲)を意味している。このため、対象領域233内での分布範囲は、対象領域233内である領域が分布する(つまり、占める、位置する又は存在する範囲)を意味する。ある領域のサイズが大きくなるほど当該ある領域が分布する範囲が大きくなることから、ある領域の分布範囲は、当該ある領域のサイズ(例えば、後述する長さや、大きさや、面積等)と等価であるとも言える。
このような特定境界部分302を特定するために、境界特定部134は、まず、境界301を構成する各画素を、各画素における画像特徴量の勾配の方向に基づいて分類する。例えば、図6(a)に示すように、境界特定部134は、2次元の座標系上において、360度を等角度間隔で分割することで、N(但し、Nは2以上の整数)個の角度範囲を定義する。境界特定部134は、各画素の勾配の方向がN個の角度範囲のうちのいずれの角度範囲に含まれる方向であるかを判定する。その結果、境界特定部134は、各画素を、各画素の勾配の方向が含まれる角度範囲に属する画素として分類する。
通常は、図6(a)に示すN個の角度範囲を用いた分類によって、物体判別動作の精度を十分に確保可能な特定境界部分302が特定可能である。しかしながら、場合には、N個の角度範囲を用いた分類によって特定された特定境界部分302では、物体判別動作の精度が悪化する可能性がある。具体的には、各画素の勾配の方向は、隣り合う2つの角度範囲の境界付近に対応する方向と一致する可能性がある。この場合には、ある2つの画素の勾配の方向が実質的に同じであるにも関わらず、当該2つの画素の勾配の方向が同じ角度範囲に含まれる方向ではないと判定される可能性がある。このような分類は、対象領域233内での分布範囲が最大になる画素が存在する領域である特定境界部分302を特定する際の精度の悪化に繋がる可能性がある。このため、境界特定部134は、物体判別精度の悪化を予め防止するために、図6(a)に示すN個の角度範囲に加えて、図6(b)に示すように、2次元の座標系上において、N個の角度範囲を各角度範囲の角度の幅よりも小さい角度(例えば、各角度範囲の角度の幅の半分に相当する角度)だけずらすことで得られる新たなN個の角度範囲も定義してもよい。この場合、境界特定部134は、各画素の勾配の方向が元のN個の角度範囲及び新たなN個の角度範囲のうちのいずれの角度範囲に含まれる方向であるかを判定する。
その後、境界特定部134は、各角度範囲に分類された画素の総数を算出する。ここで、対象画像が画素の単位で構成されていることを考慮すれば、ある角度範囲に分類された画素の総数が多くなるほど、ある角度範囲に分類された画素の対象画像内での分布範囲が大きくなる。つまり、ある角度範囲に分類された画素の総数は、ある角度範囲に分類された画素の分布範囲と等価である(つまり、分布範囲を示すパラメータの一例である)と言える。従って、境界特定部134は、分布範囲が最大になる画素が分類された角度範囲を特定するべく、分類された画素の総数が最大となる角度範囲を特定する。その後、境界特定部134は、特定した角度範囲に分類された画素が存在する領域を、特定境界部分302として特定する。例えば、図7(a)及び図7(b)は、夫々、ガードレールの境界301を構成する画素のうちある角度範囲に分類された画素が存在する線状の領域の一例を、当該画素における画像特徴量の勾配の方向と共に示している。図7(a)及び図7(b)に示す例では、図7(a)に示す角度範囲に分類された画素の総数が、図7(b)に示す角度範囲に分類された画素の総数よりも多い。つまり、図7(a)に示す角度範囲に分類された画素の分布範囲は、図7(b)に示す角度範囲に分類された画素の分布範囲よりも大きくなる。このため、境界特定部134は、図7(b)に示す角度範囲に分類された画素が存在する領域を、特定境界部分302として特定することはない。一方で、図7(a)に示す角度範囲に分類された画素の総数が最大となる場合には、境界特定部134は、図7(a)に示す角度範囲に分類された画素が存在する領域を、特定境界部分302として特定する。尚、図7(a)に示す角度範囲に分類された各画素(つまり、特定境界部分302を構成する各画素)は、上述した「第3画素」の一具体例であり、図7(b)に示す角度範囲に分類された各画素(つまり、特定境界部分302を構成しないものの、境界301を構成すると共に画像特徴量の勾配の方向が同じになる複数の画素の夫々)は、上述した「第4画素」の一具体例である。
その後、判別パラメータ算出部135は、ステップS14で特定された対象領域233及びステップS16で特定された特定境界部分302に基づいて、判別パラメータPを算出する(ステップS17)。判別パラメータPは、対象領域233に関連する第1パラメータA及び特定境界領域302に関連する第2パラメータBに基づいて定まるパラメータである。以下、判別パラメータPの算出方法の一具体例について、図8(a)を参照しながら説明する。図8(a)は、対象物の一例となり得るガードレールが写っている対象領域233中で特定される境界301の一例を示す。また、図8(a)中では、特定境界部分302が太線で示されている。
図8(a)に示すように、第1パラメータAは、対象領域233の長辺に沿って並ぶ一列の画素の数を示す。判別パラメータ算出部135は、対象領域233を解析することで、対象領域233の長辺に沿って並ぶ画素の数を算出する。図8(a)に示す例では、対象領域233の長辺に沿って並ぶ画素の数が40であるため、第1パラメータAは、40という数値を示す。
一方で、第2パラメータBは、対象領域233の長辺に沿って並ぶ一列の画素のうち特定境界部分302を対象領域233の長辺に投影した場合に特定境界部分302が投影された画素の数を示す。つまり、第2パラメータBは、対象領域233の長辺に沿って並ぶ一列の画素のうち特定境界部分302を構成する画素を対象領域233の長辺に投影した場合に特定境界部分302を構成する画素が投影された画素の数を示す。判別パラメータ算出部135は、対象領域233を解析することで、特定境界部分302を対象領域233の長辺に投影した場合に特定境界部分302が投影された画素を特定する共に、当該特定した画素の数を算出する。図8(a)に示す例では、特定境界部分302が投影された画素の数が38であるため、第2パラメータBは、38という数値を示す。
尚、図8(b)は、対象物の一例となり得る煙が写っている対象領域233から特定される第1パラメータA及び第2パラメータBの一例を示す。図8(b)に示す例では、対象領域233の長辺に沿って並ぶ一列の画素の数が40であるため、第1パラメータAは、40という数値を示す。加えて、図8(b)に示す例では、特定境界部分302を対象領域233の長辺に投影した場合に特定境界部分302が投影された画素の数が9であるため、第2パラメータBは、9という数値を示す。
その後、判別パラメータ算出部135は、第1パラメータAに対する第2パラメータBの比率(つまり、B/A)を算出する。第1パラメータAに対する第2パラメータBの比率は、判別パラメータPとして用いられる。このため、判別パラメータPは、実質的には、対象領域233の長辺に投影された特定境界部分302の対象領域233の長辺に対する分布率を示しているとも言える。
再び図3において、その後、物体判別部136は、ステップS17で算出した判別パラメータPが所定の閾値TH1より大きいか否かを判定する(ステップS18)。ステップS18の判定の結果、判別パラメータPが閾値TH1よりも大きいと判定される場合には(ステップS18:Yes)、物体判別部136は、対象物が人工構造物であると判別する(ステップS19)。一方で、ステップS18の判定の結果、判別パラメータPが閾値TH1よりも小さいと判定される場合には(ステップS18:No)、物体判別部136は、対象物が煙であると判別する(ステップS20)。尚、判別パラメータPが閾値TH1と同じであると判定される場合には、物体判別部136は、対象物が煙であると判別してもよいし、人工構造物であると判定してもよい。ECU13は、以上のステップS15からステップS20までの動作を、ステップS14で特定した全ての対象領域233を対象に繰り返す(ステップS21)。
ここで、図8(a)に示すように、対象物が人工構造物である場合には、当該対象物の境界301が対象領域233の少なくとも一部に渡って直線状に延びる境界部分301aを含む。このような境界部分301aは、直線状に延びるがゆえに、画像特徴量の勾配の方向が同じ複数の画素から構成される可能性が高い。このため、画像特徴量の勾配の方向が同じになる画素が存在する領域である特定境界部分302は、このような境界部分301aを含む可能性が高い。このため、対象物が人工構造物である場合には、対象物が人工構造物でない(例えば、煙である)場合と比較して、第2パラメータBが大きくなる。言い換えれば、対象物が人工構造物である場合には、対象物が人工構造物でない場合と比較して、第2パラメータBが第1パラメータAにより一層近い値を示す。その結果、判別パラメータPが相対的に大きくなる。従って、判別パラメータPが閾値TH1より大きい場合には、判別パラメータPが閾値TH1より小さい場合と比較して、対象物が人工構造物である可能性が高い。一方で、図8(b)に示すように、対象物が煙である場合には、当該対象物の境界301が対象領域233の少なくとも一部に渡って直線状に延びる境界部分301aを含んでいない。つまり、特定境界部分302は、対象領域233の少なくとも一部に渡って直線状に延びる境界部分301aを含んでいない可能性が高い。このため、対象物が煙である場合には、対象物が煙でない(例えば、人工構造物である)場合と比較して、第2パラメータBが小さくなる。言い換えれば、対象物が煙である場合には、対象物が煙でない(例えば、人工構造物である)場合と比較して、第2パラメータBが第1パラメータAからより一層乖離した値を示す。その結果、判別パラメータPが相対的に小さくなる。従って、判別パラメータPが閾値TH1より小さい場合には、判別パラメータPが閾値TH1より大きい場合と比較して、対象物が煙である可能性が高い。従って、物体判別部136は、判別パラメータPと閾値TH1とを比較することで、対象物が煙であるか又は人工構造物であるかを判別することができる。
閾値TH1は、対象物が煙である場合に算出されるであろう判別パラメータPと、対象物が人工構造物である場合に算出されるであろう判別パラメータPとを区別可能な適切な値が設定されることが好ましい。例えば、対象物が複数の異なる煙である場合に夫々算出される判別パラメータPの出現頻度は、図9に示すように、相対的に小さい判別パラメータP1を中心とする領域において相対的に大きくなる。一方で、例えば、対象物が複数の異なる人工構造物である場合に夫々算出される判別パラメータPの出現頻度は、図9に示すように、相対的に大きい判別パラメータP2(但し、P2>P1)を中心とする領域において相対的に大きくなる。従って、閾値TH1は、対象物が複数の異なる煙である場合に夫々算出される判別パラメータPの分布と対象物が複数の異なる人工構造物である場合に夫々算出される判別パラメータPの分布とを分離可能な適切な値に設定されてもよい。
以上説明したように、本実施形態のECU13は、煙の境界301の分布態様と人工構造物の境界301の分布態様との違いに基づいて、対象物が煙であるか又は人工構造物であるか否かを判別することができる。ここで、対象画像に写っている煙の色(或いは、その他の任意の特性、以下この段落において同じ)と当該煙の背景の色とが大きく異なる場合であっても、煙の境界301が対象領域233の少なくとも一部に渡って直線状に延びる境界部分301aを含まないことに変わりはない。このため、煙の色と背景の色とが大きく異なる場合であっても、煙の色と背景の色とがそれほど大きくは異ならない場合と同様に、第2パラメータBが相対的に小さくなるがゆえに判別パラメータPが相対的に小さくなる。従って、煙の色と背景の色とが大きく異なる場合であっても、ECU13は、煙の色と背景の色とがそれほど大きくは異ならない場合と同様の精度で、対象物が煙であるか否かを判別することができる。同様に、対象画像に写っている人工構造物の色と当該人工構造物の背景の色とがそれほど大きくは異ならない場合であっても、人工構造物の境界301が対象領域233の少なくとも一部に渡って直線状に延びる境界部分301aを含むことに変わりはない。このため、人工構造物の色と背景の色とがそれほど大きくは異ならない場合であっても、人工構造物の色と背景の色とが大きく異なる場合と同様に、第2パラメータBが相対的に大きくなるがゆえに判別パラメータPが相対的に大きくなる。従って、人工構造物の色と背景の色とがそれほど大きくは異ならない場合であっても、ECU13は、人工構造物の色と背景の色とが大きく異なる場合と同様の精度で、対象物が人工構造物であるか否かを判別することができる。このため、ECU13は、単にエッジ強度の強弱(つまり、画像特徴量の一例である輝度の勾配の大きさそのもの)に基づいて画像に写っている物体を判別する比較例の物体判別装置と比較して、対象物を精度よく判別することができる。
更に、ECU13は、人・車特定部132の特定結果に基づいて、立体物領域231の一部を対象領域233から除外することができる。従って、ECU13は、立体物領域231の一部に対して、境界301や特定境界部分302を特定するための処理を行わなくてもよい。その結果、物体判別動作に要する処理負荷が低減可能である。更には、人や車が煙や人工構造物であると誤判別されることに起因した判別精度の悪化が抑制可能である。
更に、ECU13は、対象領域233の長辺に沿って並ぶ一列の画素の数を示す第1パラメータA及び対象領域233の長辺に沿って並ぶ一列の画素のうち特定境界部分302が投影された画素の数を示す第2パラメータBを用いて、物体を判別することができる。つまり、ECU13は、対象領域233の長辺の長さに関連する判別パラメータPを用いて、物体を判別することができる。ここで、人工構造物や煙等を含む対象物は、3次元空間中である方向に沿って延在する可能性が高いことは上述したとおりである。このため、対象領域233の少なくとも一部に渡って直線状に延びる境界部分301aは、対象領域233の長辺に沿って延びる可能性が高い。従って、対象領域233の長辺に関する判別パラメータPが用いられる場合には、対象物が煙である場合に算出される(つまり、対象領域233の長辺に沿って直線状に延びる可能性が高い境界部分301aが存在しない場合に算出される)であろう判別用パラメータPは、対象物が人工構造物である場合に算出される(つまり、対象領域233の長辺に沿って直線状に延びる可能性が高い境界部分301aが存在する場合に算出される)であろう判別用パラメータPから明確に分離可能な数値をとる可能性が高くなる。従って、物体の判別精度の向上が期待できる。
(3)変形例
上述した説明では、境界特定部134は、分類された画素の総数が最大となる角度範囲を特定すると共に、特定した角度範囲に分類された画素が存在する領域を、特定境界部分302として特定している。しかしながら、特定境界部分302は、分類された画素の総数が最大とはならないものの所定数以上となる一の角度範囲を特定すると共に、特定した一の角度範囲に分類された画素が存在する領域を、特定境界部分302として特定してもよい。言い換えれば、特定境界部分302は、分類された画素の対象領域233内での分布範囲が最大とはならないものの所定範囲以上となる一の角度範囲を特定すると共に、特定した一の角度範囲に分類された画素が存在する領域を、特定境界部分302として特定してもよい。この場合の所定数(或いは、所定範囲)は、上述した煙の境界301の分布態様と人工構造物の境界301の分布態様との違いに基づいて設定されてもよい。具体的には、人工構造物の境界301は、対象領域233の少なくとも一部に渡って直線状に延びる境界部分301aを含み得る。このため、人工構造物の境界301を構成する画素のうち画像特徴量の勾配の方向が同じになる画素の数は、対象領域233の少なくとも一部に渡って直線状に延びる境界部分301aを構成し得る程度に多くなる可能性が相対的に高い。このため、対象領域233の少なくとも一部に渡って直線状に延びる境界部分301aを構成し得る画素の数が、所定数として設定されてもよい。或いは、対象領域233の少なくとも一部に渡って直線状に延びる境界部分301aを構成し得る程度に対象領域233内で分布可能な画素の分布範囲が、所定範囲として設定されてもよい。
勾配の方向が一の方向となる画素の数が、勾配の方向が一の方向とは異なる他の方向となる画素の数よりも大きい場合には、勾配の方向が他の方向となる画素よりも、勾配の方向が一の方向となる画素の方が、直線状に延びる境界部分301aを構成する可能性が高いと想定される。このため、境界特定部134は、他の角度範囲に分類された画素の総数よりも多くの数の画素が分類された一の角度範囲を特定すると共に、特定した一の角度範囲に分類された画素が存在する領域を、特定境界部分302として特定してもよい。言い換えれば、特定境界部分302は、対象領域233内での分布範囲が他の角度範囲に分類された画素の分布範囲よりも大きくなる一の角度範囲を特定すると共に、特定した一の角度範囲に分類された画素が存在する領域を、特定境界部分302として特定してもよい。
上述した説明では、第1パラメータAは、対象領域233の長辺に沿って並ぶ一列の画素の数を示している。ここで、対象領域233の長辺が長くなればなるほど、対象領域233の長辺に沿って並ぶ一列の画素の数もまた多くなる。従って、対象領域233の長辺に沿って並ぶ一列の画素の数は、対象領域233の長辺の長さと等価であると言える。このため、第1パラメータAは、対象領域233の長辺に沿って並ぶ画素の数とは異なるものの対象領域233の長辺の長さを示す任意のパラメータであってもよい。言い換えれば、第1パラメータAは、対象領域233の長辺の長さが長くなるほど大きくなる任意のパラメータであってもよい。
或いは、図10(a)に示すように、第1パラメータAは、対象領域233の短辺の長さを示す任意のパラメータであってもよい。つまり、第1パラメータAは、対象領域233の短辺が長くなるほど大きくなる任意のパラメータであってもよい。或いは、第1パラメータAは、図10(b)に示すように、対象領域233の外縁上の2点を結ぶことで得られる線分の長さ(例えば、線分そのものの長さ、又は、対象領域233の長辺若しくは短辺に沿った線分の長さ)を示す任意のパラメータであってもよい。つまり、第1パラメータAは、対象領域233の外縁上の2点を結ぶことで得られる線分が長くなるほど大きくなる任意のパラメータであってもよい。尚、図10(c)は、対象領域233の外縁上の2点を結ぶことで得られる線分の一例として、対象領域233の対角線を示している。いずれの場合であっても、第1パラメータAは、対象領域233のサイズが大きくなるほど大きくなり得るパラメータである。このため、第1パラメータAは、実質的には、対象領域233のサイズ(特に、長さ)を示すパラメータであるとも言える。
上述した説明では、第2パラメータBは、対象領域233の長辺に沿って並ぶ一列の画素のうち特定境界部分302を対象領域233の長辺に投影した場合に特定境界部分302が投影された画素の数を示す。ここで、特定境界部分302が長くなればなるほど(特に、対象領域233の長辺に沿った方向において長くなればなるほど)、特定境界部分302が投影された画素の数もまた多くなる。従って、特定境界部分302が投影された画素の数は、特定境界部分302の長さ(特に、第1パラメータAが長さを示す対象領域233の長辺に沿った長さ)と等価であると言える。このため、第2パラメータBは、特定境界部分302が投影された画素の数とは異なるものの特定境界部分302の長さを示す任意のパラメータであってもよい。言い換えれば、第2パラメータBは、特定境界部分302の長さが長くなるほど大きくなる任意のパラメータであってもよい。
尚、対象物が煙である場合には、特定境界部分302は、図8(b)に示すように、夫々が少数の画素を含む複数の領域となる可能性が高い。この場合であっても、特定境界部分302を構成する各領域が極めて短いにせよ長さという次元で特定可能である以上、特定境界部分302もまた長さという次元で特定可能である。具体的には、例えば、特定境界部分302は、特定境界部分302を構成する複数の領域の長さの総和というパラメータで特定可能である。但し、対象物が煙である場合には、特定境界部分302の長さは、実質的には、特定境界部分302の対象領域233内での分布範囲(特に、対象領域233の長辺に沿った方向での分布範囲)と等価であると言える。尚、対象物が人工構造物(或いは、その他の物体)である場合にも、特定境界部分302の長さは、実質的には、特定境界部分302の対象領域233内での分布範囲(特に、対象領域233の長辺に沿った方向での分布範囲)と等価であるとも言える。
以下、特定境界部分302の長さを示す任意のパラメータの一例について説明する。特定境界部分302を対象領域233の長辺に投影すると、長辺上には、特定境界部分302が投影された線分である投影線分が規定される。この投影線分の長さは、特定境界部分302の長さが長くなるほど長くなる。このため、第2パラメータBは、特定境界部分302を対象領域233の長辺に投影することで得られる投影線分の長さを示す任意のパラメータであってもよい。第1パラメータAが対象領域233の短辺の長さを示す場合には、第2パラメータBは、特定境界部分302を対象領域233の短辺に投影することで得られる投影線分の長さを示す任意のパラメータであってもよい。第1パラメータAが対象領域233の外縁上の2点を結ぶことで得られる線分の長さを示す場合には、第2パラメータBは、特定境界部分302をこのような線分に投影することで得られる投影線分の長さを示す任意のパラメータであってもよい。或いは、第2パラメータBは、特定境界部分302そのものの長さを示す任意のパラメータであってもよい。例えば、第2パラメータBは、特定境界部分302を構成する画素の数を示していてもよい。いずれの場合であっても、第2パラメータBは、特定境界部分302のサイズが大きくなるほど大きくなり得るパラメータである。このため、第2パラメータBは、実質的には、特定境界部分302のサイズ(特に、長さ)を示すパラメータであるとも言える。
図11に示すように、ある対象領域233内で、対象領域233の少なくとも一部に渡って直線状に延びる境界部分301aが複数存在する場合がある。ここで、複数の境界部分301aを構成する複数の画素における画像特徴量の勾配の方向が同じになる場合には、特定境界部分302は、これら複数の境界部分301aを含むことになる。この場合には、第2パラメータBは、対象領域233の長辺に沿って並ぶ一列の画素のうち複数の境界部分301aの少なくとも一つを対象領域233の長辺に投影した場合に当該少なくとも一つの境界部分301aが投影された画素の数を示していてもよい。例えば、第2パラメータBは、対象領域233の長辺に沿って並ぶ一列の画素のうちいずれか一つの境界部分301aのみを対象領域233の長辺に投影した場合に当該いずれか一つの境界部分301aが投影された画素の数を示していてもよい。例えば、第2パラメータBは、対象領域233の長辺に沿って並ぶ一列の画素のうち複数の境界部分301aの全てを対象領域233の長辺に投影した場合に少なくとも一つの境界部分301aが投影され画素の数を示していてもよい。或いは、第2パラメータBは、複数の境界部分301aの少なくとも一つの長さに関する任意のパラメータであってもよい。例えば、第2パラメータBは、複数の境界部分301aの長さの総和を示していてもよい。例えば、第2パラメータBは、複数の境界部分301aのうちのいずれか一つの長さを示していてもよい。但し、判別精度を向上させるという観点から言えば、第2パラメータBは、特定境界部分302を構成する複数の境界部分301aの全ての長さを考慮したパラメータであることが好ましい。
上述したように、本実施形態の物体判別動作は、人工構造物の境界301が対象領域233の少なくとも一部に渡って直線状に延びる境界部分301aを含むことを前提とした動作である。このため、対象物が人工構造物であるか否かを判別する精度を向上させるためには、対象物が人工構造物である場合に特定される特定境界部分302は、直線状に延びる境界部分301aである一方で、対象物が人工構造物である場合に特定される特定境界部分302は、直線状に延びる境界部分301aでないことが好ましい。そこで、境界特定部134は、第2パラメータBを算出する際に、特定境界部分302を構成する画素(例えば、エッジ)のうち直線状に延びるように分布する画素を抽出するための処理を行うと共に、当該抽出した画素を対象領域233の長辺に対して投影してもよい。直線状に延びるように分布する画素を抽出するための処理の一例として、特定境界部分302を構成する画素に対してハフ変換等の線分検出処理を施すことで特定境界部分302を構成する画素から特定可能な線分を特定し、特定境界部分302を構成する画素のうち特定した線分から所定距離以内にある画素を直線状に延びる画素として抽出する処理があげられる。
上述した説明では、判別パラメータPと比較する閾値として、単一の閾値TH1が用いられている。しかしながら、図9に示すグラフを検討するに、判別用パラメータPが上述した閾値TH1付近である場合には、対象物が煙でもなく且つ人工構造物でもない可能性がある。また、判別用パラメータPが上述した判別パラメータP1よりもずっと小さい場合には、対象物が煙でない可能性がある。また、判別用パラメータPが上述した判別パラメータP2よりもずっと大きい場合には、対象物が人工構造物でない可能性がある。そこで、判別パラメータPと比較する閾値として、複数の閾値THが用いられてもよい。例えば、図12に示すように、物体判別部136は、判別パラメータPが所定の閾値TH2(但し、TH2<P1)より大きく且つ所定の閾値TH3(但し、P1<TH3≦TH1)より小さい場合に、対象物が煙であると判別してもよい。物体判別部136は、判別パラメータPが所定の閾値TH4(但し、TH1≦TH4<P2)より大きく且つ所定の閾値TH5(但し、P2<TH5)より小さい場合に、対象物が人工構造物であると判別してもよい。物体判別部136は、判別パラメータPが閾値TH2より小さい、閾値TH3より大きく且つ閾値TH4より小さい、又は、閾値TH5よりも大きい場合には、対象物が煙及び人工構造物とは異なる他の物体であると判別してもよい。この場合、物体の判別精度が向上する。
上述した説明では、判別パラメータPは、第1パラメータAに対する第2パラメータBの比率である。しかしながら、判別パラメータPは、第1パラメータAと第2パラメータBとの差分であってもよい。この場合、物体判別部136は、差分と所定の閾値TH6とを比較して物体を判別する。具体的には、差分が閾値TH6より小さい場合には、物体判別部136は、対象物が人工構造物であると判別してもよい。差分が閾値TH6より大きい場合には、物体判別部136は、対象物が煙であると判別してもよい。尚、閾値TH6は、閾値TH1と同じ観点から設定されてもよい。
第1パラメータAと第2パラメータBとの比率及び差分は、いずれも、第1パラメータAと第2パラメータBと間の相対関係を示すパラメータに相当する。従って、判別パラメータPは、第1パラメータAと第2パラメータBとの間の相対関係を示す任意のパラメータであってもよい。この場合、相対関係が第1関係にある場合には、物体判別部136は、対象物が人工構造物であると判別してもよい。相対関係が第2関係にある(或いは、第1関係にない)場合には、物体判別部136は、対象物が煙であると判別してもよい。尚、第1関係及び第2関係もまた、閾値TH1と同じ観点から設定されてもよい。
上述した説明では、立体物領域231及び対象領域233(更には、人・車領域232)は、矩形の領域である。しかしながら、立体物領域231及び対象領域233(更には、人・車領域232)は、矩形とは異なる形状(例えば、多角形、円形又は楕円形)の領域であってもよい。この場合も、第1パラメータAは、対象領域233の外縁上の2点を結ぶことで得られる線分(或いは、曲線)に沿って並ぶ一列の画素の数を示す任意のパラメータ(或いは、上述した第1パラメータAの変形例に対応する任意のパラメータ)であってもよい。第2パラメータBは、対象領域233の外縁上の2点を結ぶことで得られる線分(或いは、曲線)に沿って並ぶ一列の画素のうち特定境界部分302をこの線分又は曲線に投影した場合に特定境界部分302が投影される画素の数を示す任意のパラメータ(或いは、上述した第2パラメータBの変形例に対応する任意のパラメータ)であってもよい。
人・車特定部132が特定した人・車領域232は、立体物領域231の一部を対象領域233から除外するために用いられる。つまり、人・車特定部132は、物体判別動作によって判別されるべき対象物から除外可能な物体に相当する人及び車を特定していると言える。このため、人・車特定部132は、人又は車が写っている人・車領域232を特定することに加えて又は代えて、物体判別動作によって判別されるべき対象物から除外可能な物体が写っている除外領域を特定してもよい。この場合、対象領域特定部133は、除外領域と重複しない立体物領域231を対象領域233に設定する一方で、除外領域と重複する立体物領域231を対象領域233に設定しない。
上述した説明では、人・車特定部132の特定結果は、立体物領域231の一部を対象領域233から除外するために対象領域特定部133によって用いられる。しかしながら、人・車特定部132の特定結果は、物体判別部136が物体を判別する際に用いられてもよい。このような物体判別動作の変形例の流れについて、図13を参照しながら説明する。尚、物体判別動作の変形例を行う車両1の構成自体は、図1に示す車両1の構成と同じである(但し、人・車特定部132の特定結果が、対象領域特定部133に代えて物体判別部136に通知されるという点で異なる)ため、車両1の構成の説明は省略する。
図13に示すように、変形例においても、ステップS11からステップS13までの動作が行われる。変形例では、対象領域特定部133は、人・車領域232を考慮することなく、立体物領域231をそのまま対象領域233に設定する(ステップS31)。その後、変形例においても、ステップS15からステップS18までの動作が行われる。判別パラメータPが閾値TH1よりも大きいと判定される場合には(ステップS18:Yes)、物体判別部136は、対象物が人工構造物であると判別する(ステップS19)。判別パラメータPが閾値TH1よりも小さいと判定される場合には(ステップS18:No)、物体判別部136は、物体判別動作の対象となっている対象領域233が人・車領域232と重複するか否かを判定する(ステップS32)。対象領域233が人・車領域232と重複しないと判定される場合には(ステップS32:No)、物体判別部136は、対象物が煙であると判別する(ステップS20)。対象領域233が人・車領域232と重複すると判定される場合には(ステップS32:Yes)、物体判別部136は、対象物が煙でもなく且つ人工構造物でもない他の物体であると判別する(ステップS33)。このような物体判別動作の変形例によれば、立体物領域231の一部を対象領域233から除外するために人・車特定部132の特定結果が対象領域特定部133によって用いられる場合と同様に、物体の判別精度が向上する。
車両1は、カメラ11を備えていなくてもよい。この場合、車両1は、車両1の外部に位置するカメラが撮像した画像に対して、上述した物体判別動作を行ってもよい。
車両1は、LIDAR12に加えて又は代えて、距離情報を検出可能な任意のセンサを備えていてもよい。このようなセンサの一例として、ステレオカメラや、レーダーがあげられる。尚、車両1がステレオカメラを備えている場合には、ステレオカメラがカメラ11として用いられてもよい。或いは、車両1は、LIDAR12(或いは、距離情報を検出可能な任意のセンサ)を備えていなくてもよい。この場合、車両1は、車両1の外部に位置するLIDAR(或いは、距離情報を検出可能な任意のセンサ)から距離情報を取得してもよい。
ECU13は、人・車特定部132及び対象領域特定部133を備えていなくてもよい。この場合、立体物領域231がそのまま、対象領域233に設定される。
上述した実施形態及び変形例の構成要件の少なくとも一部は、実施形態及び変形例の構成要件の少なくとも他の一部と適宜組み合わせることができる。実施形態及び変形例の構成要件の少なくとも一部が用いられなくてもよい。
尚、本発明は、請求の範囲及び明細書全体から読み取るこのできる発明の要旨又は思想に反しない範囲で適宜変更可能であり、そのような変更を伴う物体判別装置もまた本発明の技術思想に含まれる。
1 車両
11 カメラ
12 LIDAR
13 ECU
131 立体物領域特定部
132 人・車特定部
133 対象領域特定部
134 境界特定部
135 判別パラメータ算出部
136 物体判別部
231 立体物領域
232 人・車領域
233 対象領域
301 境界
302 特定境界部分

Claims (11)

  1. 判別対象となり得る物体が写っている第1領域を画像中で特定する第1特定手段と、
    前記第1領域内で、画像特徴量の勾配の大きさが所定量以上となる前記物体の境界のうち、前記画像特徴量の勾配の方向が一の方向となる特定境界部分であって且つ前記画像特徴量の勾配の方向が前記一の方向とは異なる他の方向となる他の境界部分よりも前記第1領域内での分布範囲が大きくなる特定境界部分を特定する第2特定手段と、
    前記第1領域の長さを示す第1パラメータと前記特定境界部分の長さを示す第2パラメータとに基づいて、前記物体を判別する判別手段と
    を備えることを特徴とする物体判別装置。
  2. 前記判別手段は、前記第1パラメータと前記第2パラメータとの間の相対関係に基づいて、前記物体を判別する
    ことを特徴とする請求項1に記載の物体判別装置。
  3. 前記判別手段は、前記相対関係が、前記物体が煙である場合に観測され得る前記相対関係として予め規定された第1関係である場合に、前記物体が煙であると判別し、
    前記判別手段は、前記相対関係が、前記第1関係とは異なり且つ前記物体が人工構造物である場合に観測され得る前記相対関係として予め規定された第2関係である場合に、前記物体が人工構造物であると判別する
    ことを特徴とする請求項2に記載の物体判別装置。
  4. 前記相対関係は、前記第1パラメータと前記第2パラメータとの比及び前記第1パラメータと前記第2パラメータとの差分のうちの少なくとも一方を含む
    ことを特徴とする請求項2又は3に記載の物体判別装置。
  5. 前記判別手段は、前記比が第1閾値よりも小さい又は前記差分が第2閾値よりも大きい場合に、前記物体が煙であると判別し、
    前記判別手段は、前記比が前記第1閾値以上である第3閾値よりも大きい又は前記差分が前記第2閾値以下である第4閾値よりも小さい場合に、前記物体が人工構造物であると判別する
    ことを特徴とする請求項4に記載の物体判別装置。
  6. 前記第1パラメータは、前記第1領域の外縁上の2点を結ぶことで得られる第1の線分の長さを、前記第1領域の長さとして示し、
    前記第2パラメータは、前記第1の線分に対して前記特定境界部分を投影することで得られる第2の線分の長さを、前記特定境界部分の長さとして示す
    ことを特徴とする請求項1から5のいずれか一項に記載の物体判別装置。
  7. 前記第1領域の形状は、矩形であり、
    前記第1の線分は、前記第1領域の一の辺である
    ことを特徴とする請求項6に記載の物体判別装置。
  8. 前記一の辺は、前記第1領域の長辺である
    ことを特徴とする請求項7に記載の物体判別装置。
  9. 前記第1特定手段は、前記画像を第1の解析方法で解析することで前記第1領域を特定し、
    前記画像を前記第1の解析方法又は前記第1の解析方法とは異なる第2の解析方法で解析して、判別対象から除外可能な所定物が写っている第2領域を前記画像中で特定する第3特定手段を更に備え、
    前記第2特定手段は、前記第2領域と重複しない前記第1領域内で前記特定境界部分を特定する一方で、前記第2領域と重複する前記第1領域内で前記特定境界部分を特定しない
    ことを特徴とする請求項1から8のいずれか一項に記載の物体判別装置。
  10. 前記第1特定手段は、前記画像を第1の解析方法で解析することで前記第1領域を特定し、
    前記画像を前記第1の解析方法又は前記第1の解析方法とは異なる第2の解析方法で解析して、判別対象から除外可能な所定物が写っている第2領域を前記画像中で特定する第3特定手段を更に備え、
    前記判別手段は、前記第1及び第2パラメータ、並びに、前記第3特定手段の特定結果に基づいて、前記物体を判別する
    ことを特徴とする請求項1から8のいずれか一項に記載の物体判別装置。
  11. 前記境界は、前記画像を構成する複数の第1画素のうち前記画像特徴量の勾配の大きさが前記所定量以上となる複数の第2画素から構成され、
    前記特定境界部分は、前記複数の第2画素のうち、前記画像特徴量の勾配の方向が前記一の方向となる複数の第3画素であって且つ前記画像特徴量の勾配の方向が前記他の方向となる複数の第4画素よりも数が多い複数の第3画素から構成され、
    前記第2パラメータは、前記複数の第3画素の数に関する指標を用いて、前記特定境界部分の長さを示す
    ことを特徴とする請求項1から10のいずれか一項に記載の物体判別装置。
JP2016118233A 2016-06-14 2016-06-14 物体判別装置 Active JP6508134B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2016118233A JP6508134B2 (ja) 2016-06-14 2016-06-14 物体判別装置
US15/595,381 US10380743B2 (en) 2016-06-14 2017-05-15 Object identifying apparatus
CN201710362282.3A CN107506685B (zh) 2016-06-14 2017-05-22 物体判别装置
DE102017209631.4A DE102017209631B4 (de) 2016-06-14 2017-06-08 Objektidentifizierungsvorrichtung

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016118233A JP6508134B2 (ja) 2016-06-14 2016-06-14 物体判別装置

Publications (2)

Publication Number Publication Date
JP2017224110A JP2017224110A (ja) 2017-12-21
JP6508134B2 true JP6508134B2 (ja) 2019-05-08

Family

ID=60419919

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016118233A Active JP6508134B2 (ja) 2016-06-14 2016-06-14 物体判別装置

Country Status (4)

Country Link
US (1) US10380743B2 (ja)
JP (1) JP6508134B2 (ja)
CN (1) CN107506685B (ja)
DE (1) DE102017209631B4 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7120835B2 (ja) * 2018-07-18 2022-08-17 トヨタ自動車株式会社 画像処理装置
KR102205325B1 (ko) * 2019-06-14 2021-01-21 경북대학교 산학협력단 라인 검출 방법
US11107238B2 (en) * 2019-12-13 2021-08-31 Zebra Technologies Corporation Method, system and apparatus for detecting item facings
JP2022186023A (ja) * 2021-06-04 2022-12-15 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法およびプログラム

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS50826A (ja) 1973-04-28 1975-01-07
JP3505362B2 (ja) * 1997-08-13 2004-03-08 名古屋電機工業株式会社 車両検出方法
US7245315B2 (en) * 2002-05-20 2007-07-17 Simmonds Precision Products, Inc. Distinguishing between fire and non-fire conditions using cameras
US8427538B2 (en) * 2004-04-30 2013-04-23 Oncam Grandeye Multiple view and multiple object processing in wide-angle video camera
JP4864043B2 (ja) * 2008-05-13 2012-01-25 株式会社豊田中央研究所 画像処理装置、方法及びプログラム
US8509526B2 (en) * 2010-04-13 2013-08-13 International Business Machines Corporation Detection of objects in digital images
CA2801137A1 (en) * 2010-08-19 2012-02-23 Bae Systems Plc Sensor data processing
JP5658963B2 (ja) * 2010-09-29 2015-01-28 オリンパス株式会社 画像処理装置、画像処理方法、および画像処理プログラム
JP2012118698A (ja) * 2010-11-30 2012-06-21 Fuji Heavy Ind Ltd 画像処理装置
JP5594672B2 (ja) * 2011-04-14 2014-09-24 株式会社 日立産業制御ソリューションズ 物体認識装置および物体認識方法
KR101237089B1 (ko) 2011-10-12 2013-02-26 계명대학교 산학협력단 랜덤 포레스트 분류 기법을 이용한 산불연기 감지 방법
JP2013206328A (ja) 2012-03-29 2013-10-07 Fuji Heavy Ind Ltd 物体検出装置
JP5600332B2 (ja) 2012-03-29 2014-10-01 富士重工業株式会社 運転支援装置
JP2014010771A (ja) 2012-07-02 2014-01-20 Toshiba Corp 車両検知装置
KR101353952B1 (ko) * 2012-10-05 2014-01-23 계명대학교 산학협력단 시공간적 비오에프와 랜덤 포레스트를 이용한 산불 연기 감지 방법
JP2014215718A (ja) 2013-04-23 2014-11-17 株式会社東芝 車両検知装置、および、車両検知システム
JP6204782B2 (ja) 2013-10-07 2017-09-27 日立建機株式会社 オフロードダンプトラック
JP6445775B2 (ja) * 2014-04-01 2018-12-26 キヤノン株式会社 画像処理装置、画像処理方法
JP6329438B2 (ja) 2014-06-12 2018-05-23 株式会社Subaru 車外環境認識装置
JP6236363B2 (ja) * 2014-06-30 2017-11-22 本田技研工業株式会社 対象物認識装置

Also Published As

Publication number Publication date
US10380743B2 (en) 2019-08-13
DE102017209631A1 (de) 2017-12-14
DE102017209631B4 (de) 2022-09-01
CN107506685A (zh) 2017-12-22
JP2017224110A (ja) 2017-12-21
CN107506685B (zh) 2021-01-12
US20170358089A1 (en) 2017-12-14

Similar Documents

Publication Publication Date Title
JP3880759B2 (ja) 移動物体検出方法
US8947508B2 (en) Image processing apparatus
JP6508134B2 (ja) 物体判別装置
US8498449B2 (en) Eye detecting device, eye detecting method, and program
US9197860B2 (en) Color detector for vehicle
US10586321B2 (en) Automatic detection, counting, and measurement of lumber boards using a handheld device
JP2008286725A (ja) 人物検出装置および方法
JP2007156626A (ja) 物体種別判定装置及び物体種別判定方法
RU2395787C2 (ru) Способ обнаружения объектов
KR20130028610A (ko) 실시간 차선 검출 장치 및 방법과 이에 관한 기록매체
WO2013116598A1 (en) Low-cost lane marker detection
JP6846230B2 (ja) 車載制御装置及び車載環境認識装置
KR101026778B1 (ko) 차량 영상 검지 장치
JP6375911B2 (ja) カーブミラー検出装置
JP5189556B2 (ja) 車線検出装置
JP6326622B2 (ja) 人物検出装置
TWI589468B (zh) 行人偵測系統
JP6569416B2 (ja) 画像処理装置、物体認識装置、機器制御システム、画像処理方法及び画像処理プログラム
JP6364189B2 (ja) 歩行者検出方法
JP2004326559A (ja) 車線区分線検出装置
US11138447B2 (en) Method for detecting raised pavement markers, computer program product and camera system for a vehicle
JP5505439B2 (ja) 移動体検出装置、コンピュータプログラム及び移動体検出方法
JP5505440B2 (ja) 移動体判定装置、コンピュータプログラム及び移動体判定方法
KR101843625B1 (ko) 비디오 프레임 내의 공간 특징을 이용하여 스트로브를 검출하기 위한 시스템과 방법
KR101676376B1 (ko) 차선 인식 장치 및 차선 인식 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180129

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190124

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190305

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190318

R151 Written notification of patent or utility model registration

Ref document number: 6508134

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151