JP7298436B2 - 障害物識別装置および障害物識別プログラム - Google Patents

障害物識別装置および障害物識別プログラム Download PDF

Info

Publication number
JP7298436B2
JP7298436B2 JP2019188273A JP2019188273A JP7298436B2 JP 7298436 B2 JP7298436 B2 JP 7298436B2 JP 2019188273 A JP2019188273 A JP 2019188273A JP 2019188273 A JP2019188273 A JP 2019188273A JP 7298436 B2 JP7298436 B2 JP 7298436B2
Authority
JP
Japan
Prior art keywords
image
optical flow
unit
flow
processing unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019188273A
Other languages
English (en)
Other versions
JP2021064155A (ja
Inventor
卓矢 三輪
敬之 弘光
明宏 貴田
真澄 福万
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Toyota Motor Corp
Original Assignee
Denso Corp
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp, Toyota Motor Corp filed Critical Denso Corp
Priority to JP2019188273A priority Critical patent/JP7298436B2/ja
Priority to US17/068,236 priority patent/US11704911B2/en
Publication of JP2021064155A publication Critical patent/JP2021064155A/ja
Application granted granted Critical
Publication of JP7298436B2 publication Critical patent/JP7298436B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/211Selection of the most significant subset of features
    • G06F18/2113Selection of the most significant subset of features by ranking or filtering the set of features, e.g. using a measure of variance or of feature cross-correlation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/76Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries based on eigen-space representations, e.g. from pose or different illumination conditions; Shape manifolds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/24Character recognition characterised by the processing or recognition method
    • G06V30/248Character recognition characterised by the processing or recognition method involving plural approaches, e.g. verification by template match; Resolving confusion among similar patterns, e.g. "O" versus "Q"
    • G06V30/2504Coarse or fine approaches, e.g. resolution of ambiguities or multiscale approaches

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Description

本開示は、障害物識別装置および障害物識別プログラム
従来、特許文献1に記載されているように、自車両が走行しているときに、オプティカルフローを用いて移動物体を検出する装置が知られている。
特開2009-146153号公報
発明者等の検討によれば、自車両が走行しているとき、静止物体のオプティカルフローの方向が自車両の走行方向とは逆方向になるため、物体が静止物体および移動物体のいずれであるかを識別することができる。しかし、静止物体が柵等であって類似模様を有する場合、互いに対応しない特徴点が結ばれたオプティカルフローOPが生成されることがあるため、静止物体のオプティカルフローの方向が自車両の走行方向の逆方向とは異なる方向に出力されることがある。このため、静止物体が移動物体であると誤検知することがある。
本開示は、物体の識別精度を向上させる障害物識別装置および障害物識別プログラムを提供することを目的とする。
請求項1に記載の発明は、車両(90)に搭載されるカメラ(11、12、13、14)によって撮像された画像を取得する取得部(S110)と、画像の特徴点を抽出する抽出部(S120)と、現時点よりも前に取得部が取得した画像の特徴点から、現時点で取得部が取得した画像の特徴点への移動ベクトルであるオプティカルフロー(OP)を生成する生成部(S130)と、特徴点の画素位置に基づいて、オプティカルフローをグループに分類する分類部(S150)と、分類部によって分類されたグループ内におけるオプティカルフローの長さ(Lf)のバラつき度合に基づいて、画像に映る物体が、類似模様を有する静止物体および移動物体のいずれであるかを判定する識別部(S165、S170、S180、S190)と、を備える障害物識別装置である。
また、請求項11に記載の発明は、障害物識別装置を、車両(90)に搭載されるカメラ(11、12、13、14)によって撮像された画像を取得する取得部(S110)、画像の特徴点を抽出する抽出部(S120)、現時点よりも前に取得部が取得した画像の特徴点から、現時点で取得部が取得した画像の特徴点への移動ベクトルであるオプティカルフロー(OP)を生成する生成部(S130)、特徴点の画素位置に基づいて、オプティカルフローをグループに分類する分類部(S150)、および、分類部によって分類されたグループ内におけるオプティカルフローの長さ(Lf)のバラつき度合に基づいて、画像に映る物体が、類似模様を有する静止物体および移動物体のいずれであるかを判定する識別部(S165、S170、S180、S190)として機能させる障害物識別プログラムである。
これにより、物体が静止物体および移動物体のいずれであるかを識別することができるため、物体の識別精度が向上する。
なお、各構成要素等に付された括弧付きの参照符号は、その構成要素等と後述する実施形態に記載の具体的な構成要素等との対応関係の一例を示すものである。
実施形態の障害物識別装置が用いられるシステムの構成図。 カメラの撮像範囲を示す車両の上面図。 U方向の勾配を演算するSobelフィルタを示す図。 V方向の勾配を演算するSobelフィルタを示す図。 カメラによって撮像された画像の一例。 処理部による処理のフローチャート。 クラスタリングを示す画像図。 類似模様物体のオプティカルフローを示す画像図。 霧状物体を示す画像図。 処理部によるパラメータ演算のサブフローチャート。 処理部の実行回数と類似模様物体のフロー長さの分散との関係図。 処理部の実行回数と移動物体のフロー長さの分散との関係図。 処理部の実行回数と類似模様物体のフロー方向差分の分散との関係図。 処理部の実行回数と移動物体のフロー方向差分の分散との関係図。 処理部の実行回数と霧状物体のフロー速度の分散との関係図。 処理部の実行回数と障害物のフロー速度の分散との関係図。
以下、実施形態について図面を参照しつつ説明する。なお、以下の各実施形態相互において、互いに同一もしくは均等である部分には、同一符号を付し、その説明を省略する。
本実施形態の障害物識別装置30は、車両90に搭載される障害物識別システム10に用いられる。この障害物識別システム10は、車両90の周辺の物体が静止物体および移動物体のいずれであるかを識別する。また、この障害物識別システム10は、移動物体のうち、液体と気体とを含む霧状物体等の流体、および、人や先行車等の障害物のいずれであるかを識別する。まず、この障害物識別システム10について説明する。
図1に示すように、障害物識別システム10は、フロントカメラ11、リアカメラ12、左側カメラ13、右側カメラ14、車速センサ15、舵角センサ16、障害物識別装置30および表示装置50を備えている。また、ここでは、車速センサ15、舵角センサ16および障害物識別装置30は、例えば、車内LAN60に接続されている。この車内LAN60には、例えば、CANが用いられる。なお、CANは、Controller Area Networkの略である。
フロントカメラ11、リアカメラ12、左側カメラ13および右側カメラ14は、それぞれ単眼のデジタルカメラである。また、フロントカメラ11、リアカメラ12、左側カメラ13および右側カメラ14が魚眼レンズをそれぞれ有しており、フロントカメラ11、リアカメラ12、左側カメラ13および右側カメラ14の視野角は、それぞれ180度である。そして、フロントカメラ11は、例えば、車両90の図示しないラジエータグリルの内側に取り付けられており、図2に示すように、車両90の前方を撮像する。リアカメラ12は、例えば、車両90の後端の下側に取り付けられており、車両90の後方を撮像する。左側カメラ13は、例えば、車両90の左ドアミラーの下側に取り付けられており、車両90の前方に対して左側を撮像する。右側カメラ14は、例えば、車両90の右ドアミラーの下側に取り付けられており、車両90の前方に対して右側を撮像する。そして、このフロントカメラ11、リアカメラ12、左側カメラ13および右側カメラ14によって撮像された画像は、障害物識別装置30にそれぞれ出力される。なお、図2において、フロントカメラ11、リアカメラ12、左側カメラ13および右側カメラ14の撮像範囲がそれぞれ模式的に斜線ハッチングで示されている。また、フロントカメラ11、リアカメラ12、左側カメラ13および右側カメラ14の撮像範囲が重複する部分は、それぞれ模式的に網掛けハッチングで示されている。
車速センサ15は、車両90の速度である自車速度Vcに応じた信号を車内LAN60に出力する。
舵角センサ16は、車両90のステアリング操作に基づく操舵角θsに応じた信号を車内LAN60に出力する。
障害物識別装置30は、マイコン等を主体として構成されており、CPU、ROM、RAM、フラッシュメモリ、I/Oおよびこれらの構成を接続するバスライン等を備えている。具体的には、障害物識別装置30は、通信部31、入力部32、フィルタ33、記憶部34、電源部35、出力部36および処理部40を有する。
通信部31は、車内LAN60と通信することにより、車速センサ15および舵角センサ16から自車速度Vcおよび操舵角θsをそれぞれ取得する。
入力部32は、フロントカメラ11、リアカメラ12、左側カメラ13および右側カメラ14によって撮像された画像を取得する。そして、入力部32は、これらの取得した画像をフィルタ33および処理部40に出力する。
フィルタ33は、フィルタリング処理を行うのに特化した専用のアクセラレータである。このフィルタ33は、入力部32からの各画像における画素の輝度値およびその画素の近傍の輝度値に基づいて、出力画像の輝度値を演算する。ここでは、フィルタ33は、入力部32からの各画像に対して、解像度σiを変更する、例えば、ガウシアンピラミッド用の画像縮小を行う。また、フィルタ33は、ノイズ除去のためのガウシアンフィルタを用いて演算を行う。さらに、フィルタ33は、図3および図4に示すように、エッジ検出のためのSobelフィルタを用いて演算を行う。したがって、フィルタ33は、入力部32からの各画像および縮小した各画像に対して、ガウシアンフィルタおよびSobelフィルタを用いて演算を行った各画像の値を処理部40に出力する。
ここで、図3は、図5に示すフロントカメラ11、リアカメラ12、左側カメラ13および右側カメラ14によって撮像されたそれぞれの画像のU方向への勾配を求めるSobelフィルタの例である。さらに、図4は、図5に示すフロントカメラ11、リアカメラ12、左側カメラ13および右側カメラ14によって撮像されたそれぞれの画像のV方向への勾配を求めるSobelフィルタの例である。また、ここでは、U方向は、画像に対して左右方向とする。また、画像左側から画像右側への方向をU方向の正方向とする。さらに、V方向は、画像に対して上下方向とする。また、画像上側から画像下側への方向をV方向の正方向とする。また、図5では、フロントカメラ11、リアカメラ12、左側カメラ13および右側カメラ14のいずれかによって撮像された画像の例として、地平線91が映し出されている。
記憶部34は、RAM、ROM、フラッシュメモリ等を含んでおり、後述の処理部40によって実行されるプログラムおよび処理部40によって識別された物体の種類を記憶している。
電源部35は、車両90のイグニッションがオンされたときに、後述の処理部40がプログラムを実行するための電力を処理部40に供給する。
出力部36は、後述の処理部40によって処理された画像データを表示装置50に出力する。
処理部40は、取得部、抽出部、生成部、分類部、識別部、選定部に対応しており、記憶部34に記憶されているプログラムを実行する装置である。また、処理部40は、このプログラムを実行するとき、記憶部34のRAMを作業領域として使用する。
表示装置50は、出力部36からの画像データを表示する。これにより、障害物識別システム10では、処理部40によって処理された画像が視認可能になっている。
以上のように、障害物識別システム10は構成されている。この障害物識別システム10では、障害物識別装置30の処理部40がプログラムを実行することにより、車両90の周辺の物体が識別される。具体的には、フロントカメラ11、リアカメラ12、左側カメラ13および右側カメラ14によって撮像された画像に映る物体が、静止物体および移動物体のいずれであるかが識別される。また、移動物体が霧状物体および障害物のいずれであるかが識別される。
次に、図6のフローチャートを参照して、この処理部40による識別について説明する。ここでは、例えば、処理部40は、車両90のイグニッションがオンされたとき、ROMに記憶されているプログラムを実行することにより、物体の識別を行う。また、ここでは、便宜上、処理部40のステップS110の処理が開始されてからステップS110の処理に戻るまでの一連の動作の期間を処理部40の処理周期τとする。この処理部40の処理周期τの時間は、例えば、数十ミリ秒から百ミリ秒である。また、ここでは、便宜上、現時点の処理周期τを今回処理周期τ(n)と適宜記載する。さらに、現時点に対して前回の処理周期τを前回処理周期τ(n-1)と適宜記載する。なお、nは、1以上の自然数であって、処理部40のステップS110からステップS110に戻るまでの処理の実行回数である。また、車両90のイグニッションがオンされた初期の処理周期τ(0)における処理部40の後述する各値は、予め設定されている。
ステップS110において、処理部40は、フロントカメラ11、リアカメラ12、左側カメラ13および右側カメラ14のそれぞれによって撮像された画像を入力部32から取得する。また、処理部40は、この取得した画像にそれぞれ対応し、フィルタ33によって処理された画像をフィルタ33から取得する。
続いて、ステップS120において、処理部40は、ステップS110にて取得した画像のそれぞれについて、物体の特徴点を抽出する。ここで、この特徴点の抽出を説明するために、入力部32から取得した画像内の各画素の輝度値を入力輝度Ic(U、V)とする。なお、ここでは、画素の輝度値とは、例えば、1画素中の値を0~255の数値で表したものである。また、(U、V)のUは、画像内の基準位置からのU方向の画素位置を示す。さらに、(U、V)のVは、画像内の基準位置からのV方向の画素位置を示す。
そして、具体的には、処理部40は、以下関係式(1)に示すように、各画素の輝度勾配Mcを演算する。輝度勾配Mcは、Iuの自乗とIvの自乗との和の正の平方根である。この関係式(1)において、Iuは、入力輝度Ic(U、V)のU方向の勾配であって、フィルタ33によって演算されている。また、Iuは、第1勾配に対応する。さらに、Ivは、入力輝度Ic(U、V)のV方向の勾配であって、フィルタ33によって演算されている。また、Ivは、第2勾配に対応する。
Figure 0007298436000001
そして、処理部40は、以下関係式(2)に示すように、輝度勾配Mcが特徴点閾値Mp_th以上である画素を特徴点として抽出する。なお、特徴点閾値Mp_thは、画像内の物体の特徴点を抽出するための値であって、実験やシミュレーション等によって設定される。
Mc≧Mp_th ・・・(2)
続いて、ステップS130において、処理部40は、ステップS120にて抽出した特徴点に基づいて、オプティカルフローOPを生成する。例えば、処理部40は、ブロックマッチング法を用いてオプティカルフローOPを生成する。なお、ここでは、オプティカルフローOPは、前回処理周期τ(n-1)にて抽出した特徴点に対応する今回処理周期τ(n)にて抽出した特徴点の画像中の移動ベクトルである。
具体的には、処理部40は、今回処理周期τ(n)にて取得した画像上において、前回処理周期τ(n-1)にて抽出した特徴点の画素を中心とする画素ブロックを、テンプレートとして走査する。このとき、処理部40は、このテンプレートの画素位置の輝度値と、今回処理周期τ(n)にて取得した画像におけるそのテンプレートの画素位置に対応する画素位置の輝度値との差分をそれぞれ演算する。そして、処理部40は、この画素ブロック内の輝度値の差分絶対値和、すなわち、SADを演算する。これによって、処理部40は、前回処理周期τ(n-1)の特徴点と今回処理周期τ(n)の特徴点との類似度を推定する。なお、SADは、Sum of Absolute Differenceの略である。
そして、処理部40は、この演算したSADが最小となる、すなわち、類似度が最大となる前回処理周期τ(n-1)の特徴点と今回処理周期τ(n)の特徴点とを結ぶ。これによって、処理部40は、前回処理周期τ(n-1)で抽出した特徴点のオプティカルフローOPを生成する。また、ここでは、処理部40は、各画像に対して画像の解像度σiすなわちピラミッドレベルを変更して、各解像度σiの画像におけるオプティカルフローOPを上記のように生成する。
続いて、ステップS140において、処理部40は、ステップS130にて生成した各オプティカルフローOPの信頼性を判定する。具体的には、処理部40は、画像に映る物体が移動物体であるという信頼性が比較的高いオプティカルフローOPを選定する。ここで、このオプティカルフローOPの選定を説明するために、以下の用語を定義する。処理周期τ間で互いに対応するオプティカルフローOPが連続して生成された回数、すなわち、連続して追跡された回数をトラッキング回数Ntとする。このトラッキング回数Ntは、処理周期τ間で互いに対応するオプティカルフローOPが生成される度に、処理部40によって計上される。また、オプティカルフローOPのU方向の座標成分をフローU成分ΔUとする。オプティカルフローOPのV方向の座標成分をフローV成分ΔVとする。オプティカルフローOPの長さをフロー長さLfとする。フロー長さLfから、車両90の移動距離に対応するオプティカルフローOPの長さを除去した長さをエゴキャンセルフロー長Lcとする。オプティカルフローOPとU方向に延びる軸とでなす角度をフロー角度θfとする。今回処理周期τ(n)で生成されたオプティカルフローOPの角度から、前回処理周期τ(n-1)で生成されたオプティカルフローOPの角度を減算した値をフロー方向差分Δθfとする。画像内において2つの際立ったエッジが存在するコーナーであるか否かを示す指標をコーナー度Rfとする。
そして、処理部40は、上記した各解像度σiの画像において生成したオプティカルフローOPのうち、以下関係式(3-1)に示すように解像度σiが解像度閾値σi_th以上の画像で生成したオプティカルフローOPを選定する。
σi≧σi_th ・・・(3-1)
また、処理部40は、上記により選定したオプティカルフローOPのうち、以下関係式(3-2)に示すようにトラッキング回数Ntがトラッキング閾値Nt_th以上であるオプティカルフローOPを選定する。
Nt≧Nt_th ・・・(3-2)
また、処理部40は、以下関係式(3-3)に示すように、それぞれのオプティカルフローOPのフローU成分ΔUおよびフローV成分ΔVに基づいて、フロー長さLfを演算する。
Figure 0007298436000002
そして、処理部40は、上記により選定したオプティカルフローOPのうち、以下関係式(3-4)に示すようにフロー長さLfがフロー長閾値Lf_th以上であるオプティカルフローOPを選定する。
Lf≧Lf_th ・・・(3-4)
また、処理部40は、車速センサ15および舵角センサ16から車内LAN60および通信部31を経由して、自車速度Vcおよび操舵角θsをそれぞれ取得する。さらに、処理部40は、自車速度Vc、操舵角θsおよび処理周期τの時間に基づいて、3次元空間座標系における処理周期τ間の車両90の移動ベクトルである車両移動ベクトルΔLを演算する。このとき、処理部40は、フロントカメラ11、リアカメラ12、左側カメラ13、右側カメラ14のそれぞれの向き、焦点距離、路面に対する位置および角度に基づいて、3次元空間座標系からUV座標系への座標変換を行う。また、処理部40は、この3次元空間座標系における車両移動ベクトルΔLを画像のUV座標系に変換することにより、車両移動ベクトルΔLに対応するフロー長さLfを演算する。そして、処理部40は、フローU成分ΔUおよびフローV成分ΔVに基づいて演算したフロー長さLfから、この車両移動ベクトルΔLに対応するフロー長さLfを減算することにより、エゴキャンセルフロー長Lcを演算する。
そして、処理部40は、上記により選定したオプティカルフローOPのうち、以下関係式(3-5)に示すようにエゴキャンセルフロー長Lcがキャンセル閾値Lc_th以上であるオプティカルフローOPを選定する。
Lc≧Lc_th ・・・(3-5)
また、処理部40は、以下関係式(3-6)に示すように、それぞれのオプティカルフローOPのフローU成分ΔUおよびフローV成分ΔVに基づいて、フロー角度θfを演算する。
Figure 0007298436000003
さらに、処理部40は、以下関係式(3-7)に示すように、この演算したフロー角度θfに基づいて、フロー方向差分Δθfを演算する。そして、処理部40は、上記により選定したオプティカルフローOPのうち、以下関係式(3-8)に示すようにフロー方向差分Δθfが方向差分閾値Δθf_th以下であるオプティカルフローOPを選定する。なお、ここでは、今回処理周期τ(n)で生成されたオプティカルフローOPは、前回処理周期τ(n-1)における特徴点の移動ベクトルである。このため、関係式(3-7)では、今回処理周期τ(n)にて演算されたフロー角度θfがθf(n-1)と表されている。同様に、前回処理周期τ(n-1)で生成されたオプティカルフローOPは、2回前処理周期τ(n-2)における特徴点の移動ベクトルである。このため、関係式(3-7)では、前回処理周期τ(n-1)にて演算されたフロー角度θfがθf(n-2)と表されている。
θf=θf(n-1)-θf(n-2) ・・・(3-7)
Δθf≦Δθf_th ・・・(3-8)
また、処理部40は、ハリスコーナー法を用いて、オプティカルフローOPを生成した特徴点のコーナー度Rfを演算する。具体的には、処理部40は、以下関係式(3-9)に示すように、ヘッセ行列Hを用いて、コーナー度Rfを演算する。このヘッセ行列Hは、関係式(3-9)に示すように、IuおよびIvに基づいた成分を有する。なお、Iuは、上記したように、入力輝度Ic(U、V)のU方向の勾配であって、フィルタ33によって演算される。また、Ivは、上記したように、入力輝度Ic(U、V)のV方向の勾配であって、フィルタ33によって演算される。さらに、λ1およびλ2は、それぞれ、ヘッセ行列Hの固有値である。また、kは、定数であって、例えば、0.04~0.06である。
Figure 0007298436000004
そして、処理部40は、上記により選定したオプティカルフローOPのうち、以下関係式(3-10)に示すようにコーナー度Rfがコーナー閾値Rf_thよりも大きい特徴点に対応するオプティカルフローOPを選定する。
Rf≧Rf_th ・・・(3-10)
以上のように、処理部40は、オプティカルフローOPの信頼性を判定する。これにより、以下に説明するように、物体が移動物体であるという信頼性が比較的高いオプティカルフローOPが選定される。
例えば、静止物体のフロー長さLfは、自車速度Vcによるため比較的小さくなる。また、移動物体のフロー長さLfは、自車速度Vcおよび移動物体の移動速度によるため比較的大きくなる。このため、フロー長さLfがフロー長閾値Lf_th以上であるオプティカルフローOPが選定される。また、エゴキャンセルフロー長Lcがキャンセル閾値Lc_th以上であるオプティカルフローOPが選定される。さらに、一方向に移動する物体のフロー方向差分Δθfは、比較的小さくなる。このため、フロー方向差分Δθfが方向差分閾値Δθf_th以下であるオプティカルフローOPが選定される。これらにより、例えば、画像内の移動物体のオプティカルフローOPが選定される。また、今回処理周期τ(n)における画像内の静止物体のオプティカルフローOPが除去される。したがって、ここでのフロー長閾値Lf_th、キャンセル閾値Lc_thおよび方向差分閾値Δθf_thは、上記のように選定されるように実験およびシミュレーション等により設定される。
また、上記したように、各解像度σiの画像においてオプティカルフローOPが生成されており、解像度σiが解像度閾値σi_th以上の画像で生成されたオプティカルフローOPが選定される。また、トラッキング回数Ntがトラッキング閾値Nt_th以上であるオプティカルフローOPが選定される。これらにより、オプティカルフローOPの精度が高くなるため、例えば、フロー長さLf、フロー方向差分Δθfおよびエゴキャンセルフロー長Lcの精度が高くなる。したがって、ここでの解像度閾値σi_thおよびトラッキング閾値Nt_thは、上記のように選定されるように実験およびシミュレーション等により設定される。
また、移動物体のうち歩行者等の人の足元は、路面に接するため、人の足元のオプティカルフローOPが車両90から歩行者までの距離検出等に用いられる。したがって、ここでは、コーナー度Rfがコーナー閾値Rf_thよりも大きい特徴点に対応するオプティカルフローOPが選定される。これにより、例えば、人の足元のオプティカルフローOPが選定されやすくなる。よって、ここでのコーナー閾値Rf_thは、上記のように選定されるように実験およびシミュレーション等により設定される。
続いて、ステップS150において、処理部40は、ステップS140にて選定したオプティカルフローOPをグループに分類することにより、クラスタリングを行う。具体的には、処理部40は、前回処理周期τ(n-1)にて撮像された画像の特徴点の画素位置とその特徴点のフロー長さLfとフロー角度θfとが類似するオプティカルフローOP同士を1つのグループに分類する。例えば、処理部40は、前回処理周期τ(n-1)における特徴点の位置同士の距離が所定の距離範囲内、フロー長さLfが所定の長さ範囲内、かつ、フロー角度θfが所定の角度範囲内であるオプティカルフローOP同士を抽出する。そして、処理部40は、図7に示すように、これらの抽出したオプティカルフローOPを1つのグループにする。なお、図7において、クラスタリングされた1つの物体がY(n-1)および実線で模式的に示されている。
続いて、ステップS160において、処理部40は、ステップS150にてクラスタリングした各グループ、すなわち、前回処理周期τ(n-1)における特徴点のグループの物理量を演算する。ここでは、処理部40は、3次元空間座標系における各グループの位置、そのグループの大きさを示す長さおよび幅、ならびに、そのグループの移動ベクトルを演算する。具体的には、処理部40は、処理部40は、フロントカメラ11、リアカメラ12、左側カメラ13、右側カメラ14のそれぞれの向き、焦点距離、路面に対する位置および角度に基づいて、画像のUV座標系から3次元空間座標系への座標変換を行う。そして、処理部40は、画像のUV座標系の各グループの特徴点およびオプティカルフローOPを、3次元空間座標系の各グループの特徴点およびオプティカルフローOPに変換する。また、処理部40は、この座標変換した特徴点に基づいて、各グループの代表位置Pr、そのグループの大きさを示す長さおよび幅を演算する。さらに、処理部40は、この座標変換したオプティカルフローOPに基づいて、各グループの代表移動ベクトルOrを演算する。なお、代表位置Prは、例えば、物体の重心である。また、物体が人である場合、代表位置Prは、人の足元であってもよい。
ここで、図8に示すように、静止物体のオプティカルフローOPは、車両90の走行方向とは逆方向になる。しかし、物体が柵等であって類似模様を有する場合、ステップS130にて前回処理周期τ(n-1)の特徴点と対応しない今回処理周期τ(n)の特徴点とで、上記SADが最小、すなわち、類似度が最大となることがある。このため、ステップS130にて前回処理周期τ(n-1)の特徴点と、その特徴点に対応すべき今回処理周期τ(n)の特徴点とが対応しないことがある。したがって、ステップS130において、物体が静止物体であるにもかかわらず、類似模様を有する静止物体のオプティカルフローOPの長さは、他の静止物体と異なることがある。また、類似模様を有する静止物体のオプティカルフローOPの方向は、車両90の走行方向の逆方向とは異なることがある。このため、類似模様を有する静止物体が移動物体であると誤検知されることがある。また、図9に示すように、移動物体が水滴と水蒸気とを含む霧状物体等の流体であるとき、霧状物体のオプティカルフローOPが出力されるため、霧状物体を人や先行車等の障害物であると誤検知されることがある。なお、図8において、類似模様を有する静止物体がXsで示されている。また、図9において、先行車がXcで示されており、霧状物体がXmで示されている。
よって、ステップS150にてクラスタリングされた物体は、類似模様を有する静止物体、霧状物体および移動物体のいずれである場合がある。このため、ステップS160に続くステップS165において、処理部40は、類似模様を有する静止物体、霧状物体および移動物体のいずれであるかを識別するために、後述のパラメータをグループ毎に演算する。具体的には、処理部40は、ステップS150にてクラスタリングしたグループにおけるオプティカルフローOPのバラつき度合として、グループにおけるフロー長さLf、フロー方向差分Δθfおよび後述のフロー速度Vfの分散を演算する。以下では、処理部40は、図10のサブフローチャートを参照して、このパラメータの演算について説明する。また、以下では、便宜上、類似模様を有する静止物体を類似模様物体と記載する。
ステップS310において、処理部40は、ステップS140にて演算したフロー長さLfのうち、ステップS150にてクラスタリングしたグループに対応する各フロー長さLfを抽出する。また、処理部40は、この抽出したフロー長さLfおよびグループ内のオプティカルフローOPの個数に基づいて、フロー長さLfの平均を演算する。そして、処理部40は、この抽出したフロー角度θf、この演算したフロー長さLfの平均およびグループの個数に基づいて、グループにおけるフロー長さLfの分散を演算する。
続いて、ステップS320において、処理部40は、ステップS140にて演算したフロー方向差分Δθfのうち、ステップS150にてクラスタリングしたグループに対応する各フロー方向差分Δθfを抽出する。また、処理部40は、この抽出したフロー方向差分Δθfおよびグループ内のオプティカルフローOPの個数に基づいて、フロー方向差分Δθfの平均を演算する。そして、処理部40は、この抽出したフロー方向差分Δθf、この演算したフロー方向差分Δθfの平均およびグループの個数に基づいて、グループにおけるフロー方向差分Δθfの分散を演算する。
続いて、ステップS330において、処理部40は、以下関係式(4)に示すように、上記にて抽出したフロー長さLfおよび処理周期τに基づいて、各オプティカルフローOPに対応する速さであるフロー速度Vfを演算する。
Vf=Lf/τ ・・・(4)
そして、処理部40は、この演算したフロー速度Vfおよびグループ内のオプティカルフローOPの個数に基づいて、フロー速度Vfの平均を演算する。そして、処理部40は、この抽出したフロー速度Vf、この演算したフロー速度Vfの平均およびグループの個数に基づいて、グループにおけるフロー速度Vfの分散を演算する。
このようにして、処理部40は、ステップS165において、フロー長さLf、フロー方向差分Δθfおよびフロー速度Vfの分散をグループ毎に演算する。
ステップS165に続くステップS170において、処理部40は、ステップS165にて演算した各パラメータに基づいて、物体が、類似模様物体および移動物体のいずれであるかを判定する。また、処理部40は、移動物体のうち、液体と気体とを含む霧状物体等の流体、および、人や先行車等の障害物のいずれであるかを判定する。
例えば、上記したように、物体が類似模様物体である場合、前回処理周期τ(n-1)の特徴点と、その特徴点に対応すべき今回処理周期τ(n)の特徴点とが対応しないことがある。このため、クラスタリングされたグループ内のフロー長さLfの分散が比較的大きくなることがある。したがって、図11に示すように、処理部40の実行回数に対する類似模様物体のフロー長さLfの分散のバラつきは、比較的大きくなる。これに対して、物体が移動物体である場合、移動物体は、移動物体は一様に移動するため、図12に示すように、処理部40の実行回数に対する移動物体のフロー長さLfの分散のバラつきは、比較的小さくなる。
よって、処理部40は、ステップS150にてクラスタリングしたグループのうち、ステップS165にて演算したフロー長さLfの分散が閾値より大きいグループを抽出する。また、処理部40は、前回処理周期τ(n-1)および前々回処理周期τ(n-2)において、この抽出したグループに対応するグループを抽出していたとき、そのグループを類似模様物体と判定する。したがって、処理部40は、今回処理周期τ(n)と今回処理周期τ(n)よりも前とに互いに対応するグループを連続して所定回数Ns以上、フロー長さLfの分散が大きいとして抽出したとき、そのグループを類似模様物体と判定する。また、処理部40は、ステップS150にてクラスタリングしたグループのうち、ステップS165にて演算したフロー長さLfの分散が閾値以下であるグループを移動物体と判定する。なお、このフロー長さLfの分散に関する閾値は、実験やシミュレーション等によって設定される。また、所定回数Nsは、2以上の自然数である。
また、上記したように、物体が類似模様物体である場合、オプティカルフローOPの方向は、車両90の走行方向と異なることがある。このため、クラスタリングされたグループ内のフロー方向差分Δθfの分散が比較的大きくなることがある。したがって、図13に示すように、処理部40の実行回数に対する類似模様物体のフロー方向差分Δθfの分散のバラつきは、比較的大きくなる。これに対して、物体が移動物体である場合、移動物体は一様に移動するため、図14に示すように、処理部40の実行回数に対する移動物体のフロー方向差分Δθfの分散のバラつきは、比較的小さくなる。
よって、処理部40は、ステップS150にてクラスタリングしたグループのうち、ステップS165にて演算したフロー方向差分Δθfの分散が閾値より大きいグループを抽出する。また、処理部40は、前回処理周期τ(n-1)および前々回処理周期τ(n-2)において、この抽出したグループに対応するグループを抽出していたとき、そのグループを類似模様物体と判定する。したがって、処理部40は、今回処理周期τ(n)と今回処理周期τ(n)よりも前とに互いに対応するグループを連続して所定回数Ns以上、フロー方向差分Δθfの分散が大きいとして抽出したとき、そのグループを類似模様物体と判定する。また、処理部40は、ステップS150にてクラスタリングしたグループのうち、ステップS165にて演算したフロー方向差分Δθfの分散が閾値以下であるグループを移動物体と判定する。なお、このフロー方向差分Δθfの分散に関する閾値は、実験やシミュレーション等によって設定される。また、処理部40は、ステップS150にてクラスタリングしたグループのうち、ステップS165にて演算したフロー方向差分Δθfの分散が閾値以下であるグループを移動物体と判定する。なお、このフロー方向差分Δθfの分散に関する閾値は、実験やシミュレーション等によって設定される。また、ここでは、処理部40は、上記したフロー長さLfおよびフロー方向差分Δθfの条件のいずれかを満たすとき、ステップS150にてクラスタリングしたグループを類似模様物体と判定する。
このようにして、物体が類似模様物体および移動物体のいずれであるかが判定される。
また、移動物体が霧状物体である場合、車両90の周辺の風等の環境により霧状物体の速さおよび大きさの変化が生じやすい。このため、クラスタリングされたグループ内のフロー速度Vfの分散が比較的大きくなることがある。したがって、図15に示すように、処理部40の実行回数に対する霧状物体のフロー速度Vfの分散のバラつきは、比較的大きくなる。これに対して、移動物体が人や先行車等の障害物である場合、これらの障害物は一様に移動するため、急激な速さの変化が起こりにくい。このため、図16に示すように、処理部40の実行回数に対する障害物のフロー速度Vfの分散のバラつきは、比較的小さくなる。
よって、処理部40は、上記で移動物体と判定したグループのうち、ステップS165にて演算したフロー速度Vfの分散が閾値より大きいグループを抽出する。また、処理部40は、前回処理周期τ(n-1)および前々回処理周期τ(n-2)において、この抽出したグループに対応するグループを抽出していたとき、そのグループを霧状物体と判定する。したがって、処理部40は、今回処理周期τ(n)と今回処理周期τ(n)よりも前とに互いに対応するグループを連続して所定回数Ns以上、フロー速度Vfの分散が閾値より大きいとして抽出したとき、そのグループを霧状物体と判定する。また、処理部40は、上記で移動物体と判定したグループのうち、ステップS165にて演算したフロー速度Vfの分散が閾値以下であるグループを、人や先行車等の障害物と判定する。なお、このフロー速度Vfの分散に関する閾値は、実験やシミュレーション等によって設定される。
このようにして、物体が移動物体のうち霧状物体および障害物のいずれであるかが判定される。
ステップS170に続くステップS180において、処理部40は、ステップS170にて障害物と判定したグループを障害物として記憶部34のRAMに記憶させる。その後、処理は、ステップS110に戻る。
ステップS170に続くステップS190において、処理部40は、ステップS170にて類似模様物体と判定したグループを障害物以外として記憶部34のRAMに記憶させる。また、処理部40は、ステップS170にて霧状物体と判定したグループを障害物以外として記憶部34のRAMに記憶させる。その後、処理は、ステップS110に戻る。
このようにして、障害物識別システム10では、処理部40により車両90の周辺の物体が識別される。
次に、この障害物識別システム10では、物体の識別精度が向上することについて説明する。
上記図11に示したように、処理部40の実行回数に対する類似模様物体のフロー長さLfの分散のバラつきは、比較的大きくなる。したがって、処理部40は、ステップS150にて分類したグループ内におけるフロー長さLfの分散に基づいて、物体が類似模様物体および移動物体のいずれであるかを識別する。具体的には、処理部40は、ステップS150にてクラスタリングしたグループのうち、ステップS165にて演算したフロー長さLfの分散が閾値より大きいグループを、類似模様物体と判定する。また、処理部40は、ステップS150にてクラスタリングしたグループのうち、ステップS165にて演算したフロー長さLfの分散が閾値以下であるグループを移動物体と判定する。これにより、物体が類似模様物体および移動物体のいずれであるかを識別できるため、物体の識別精度が向上する。
また、この障害物識別装置30では、以下[1]-[4]に説明するような効果も奏する。
[1]上記図13に示したように、処理部40の実行回数に対する類似模様物体のフロー方向差分Δθfの分散のバラつきは、比較的大きくなる。したがって、処理部40は、ステップS150にて分類したグループ内におけるフロー方向差分Δθfの分散に基づいて、物体が類似模様物体および移動物体のいずれであるかを識別する。具体的には、処理部40は、ステップS150にてクラスタリングしたグループのうち、ステップS165にて演算したフロー方向差分Δθfの分散が閾値より大きいグループを、類似模様物体と判定する。また、処理部40は、ステップS150にてクラスタリングしたグループのうち、ステップS165にて演算したフロー方向差分Δθfの分散が閾値以下であるグループを移動物体と判定する。これにより、物体が類似模様物体および移動物体のいずれであるかを識別できるため、物体の識別精度が向上する。
[2]上記図15に示したように、処理部40の実行回数に対する霧状物体のフロー速度Vfの分散のバラつきは、比較的大きくなる。したがって、処理部40は、ステップS150にて分類したグループ内におけるフロー速度Vfの分散に基づいて、移動物体が霧状物体および障害物のいずれであるかを識別する。具体的には、処理部40は、上記で移動物体と判定したグループのうち、ステップS165にて演算したフロー速度Vfの分散が閾値より大きいグループを、霧状物体と判定する。また、処理部40は、上記で移動物体と判定したグループのうち、ステップS165にて演算したフロー速度Vfの分散が閾値以下であるグループを、人や先行車等の障害物と判定する。これにより、移動物体が霧状物体および障害物のいずれであるかを識別できるため、物体の識別精度が向上する。
[3]処理部40は、解像度σi、トラッキング回数Nt、フロー長さLf、エゴキャンセルフロー長Lc、フロー方向差分Δθfおよびコーナー度Rfに基づいて、ステップS130にて生成したオプティカルフローOPを選定する。これにより、物体が移動物体であるという信頼性が比較的高いオプティカルフローOPが選定される。
[4]処理部40は、輝度勾配Mcに基づいて、特徴点を抽出する。これにより、特徴点の抽出が容易になるとともに、必要な特徴点が比較的多く抽出される。
(他の実施形態)
本開示は、上記実施形態に限定されるものではなく、上記実施形態に対して、適宜変更が可能である。また、上記各実施形態において、実施形態を構成する要素は、特に必須であると明示した場合および原理的に明らかに必須であると考えられる場合等を除き、必ずしも必須のものではないことは言うまでもない。
本開示に記載の処理部等およびその手法は、コンピュータプログラムにより具体化された一つ乃至は複数の機能を実行するようにプログラムされたプロセッサおよびメモリを構成することによって提供された専用コンピュータにより、実現されてもよい。あるいは、本開示に記載の処理部等およびその手法は、一つ以上の専用ハードウエア論理回路によってプロセッサを構成することによって提供された専用コンピュータにより、実現されてもよい。もしくは、本開示に記載の処理部等およびその手法は、一つ乃至は複数の機能を実行するようにプログラムされたプロセッサおよびメモリと一つ以上のハードウエア論理回路によって構成されたプロセッサとの組み合わせにより構成された一つ以上の専用コンピュータにより、実現されてもよい。また、コンピュータプログラムは、コンピュータにより実行されるインストラクションとして、コンピュータ読み取り可能な非遷移有形記録媒体に記憶されていてもよい。
(1)上記実施形態では、処理部40は、SADを演算することにより、前回処理周期τ(n-1)の特徴点と今回処理周期τ(n)の特徴点との類似度を推定する。これに対して、処理部40は、SADを演算することに限定されない。処理部40は、この画素ブロック内の差分二乗和、すなわち、SSDを演算することによって前回処理周期τ(n-1)の特徴点と今回処理周期τ(n)の特徴点との類似度を推定してもよい。また、処理部40は、この画素ブロック内の正規化相互相関、すなわち、NCCを演算することによって、前回処理周期τ(n-1)の特徴点と今回処理周期τ(n)の特徴点との類似度を推定してもよい。なお、SSDは、Sum of Squared Differenceの略である。NCCは、Normalized Cross Correlationの略である。
(2)上記実施形態では、フィルタ33は、Sobelフィルタを用いて、画像のU方向への勾配および画像のV方向への勾配を演算する。これに対して、フィルタ33は、Sobelフィルタを用いることに限定されないで、微分フィルタ、PrewittフィルタおよびRobertsフィルタ等を用いて、画像のU方向への勾配および画像のV方向への勾配を演算してもよい。
(3)上記実施形態では、具体的には、処理部40は、ステップS150にてクラスタリングしたグループにおけるオプティカルフローOPのバラつき度合として、グループにおけるフロー長さLf、フロー方向差分Δθfおよびフロー速度Vfの分散を演算する。これに対して、処理部40は、バラつき度合として、これらの分散を演算することに限定されない。例えば、処理部40は、ステップS150にてクラスタリングしたグループにおけるオプティカルフローOPのバラつき度合として、グループにおけるフロー長さLf、フロー方向差分Δθfおよびフロー速度Vfの標準偏差を演算してもよい。また、処理部40は、このバラつき度合として、処理周期τ毎に対するグループにおけるフロー長さLf、フロー方向差分Δθfおよびフロー速度Vfのそれぞれの平均の変化量を演算してもよい。
10 障害物識別システム
11 フロントカメラ
12 リアカメラ
13 左側カメラ
14 右側カメラ
30 障害物識別装置
90 車両

Claims (11)

  1. 車両(90)に搭載されるカメラ(11、12、13、14)によって撮像された画像を取得する取得部(S110)と、
    前記画像の特徴点を抽出する抽出部(S120)と、
    現時点よりも前に前記取得部が取得した前記画像の前記特徴点から、現時点で前記取得部が取得した前記画像の前記特徴点への移動ベクトルであるオプティカルフロー(OP)を生成する生成部(S130)と、
    前記特徴点の画素位置に基づいて、前記オプティカルフローをグループに分類する分類部(S150)と、
    前記分類部によって分類されたグループ内における前記オプティカルフローの長さ(Lf)のバラつき度合に基づいて、前記画像に映る物体が、類似模様を有する静止物体および移動物体のいずれであるかを判定する識別部(S165、S170、S180、S190)と、
    を備える障害物識別装置。
  2. 前記識別部は、前記分類部によって分類されたグループ内における前記オプティカルフローの長さ(Lf)のバラつき度合が閾値より大きいとき、前記画像に映る物体が静止物体であると判定し、前記分類部によって分類されたグループ内における前記オプティカルフローの長さ(Lf)のバラつき度合が閾値以下であるとき、前記画像に映る物体が移動物体であると判定する請求項1に記載の障害物識別装置。
  3. 前記識別部は、前記分類部によって分類されたグループ内における前記オプティカルフローの角度(θf)の変化である方向差分(Δθf)のバラつき度合に基づいて、前記画像に映る物体が静止物体および移動物体のいずれであるかを判定する請求項1または2に記載の障害物識別装置。
  4. 前記識別部は、前記分類部によって分類されたグループ内における前記オプティカルフローの角度(θf)の変化である方向差分(Δθf)のバラつき度合が閾値より大きいとき、前記画像に映る物体が静止物体であると判定し、前記分類部によって分類されたグループ内における前記オプティカルフローの角度(θf)の変化である方向差分(Δθf)のバラつき度合が閾値以下であるとき、前記画像に映る物体が移動物体であると判定する請求項3に記載の障害物識別装置。
  5. 前記識別部は、前記分類部によって分類されたグループ内における前記オプティカルフローの速度(Vf)のバラつき度合に基づいて、前記画像に映る移動物体が霧状物体および障害物のいずれであるかを判定する請求項1ないし4のいずれか1つに記載の障害物識別装置。
  6. 前記識別部は、前記分類部によって分類されたグループ内における前記オプティカルフローの速度(Vf)のバラつき度合が閾値より大きいとき、前記画像に映る物体が霧状物体であると判定し、前記分類部によって分類されたグループ内における前記オプティカルフローの速度(Vf)のバラつき度合が閾値以下であるとき、前記画像に映る物体が移動物体であると判定する請求項5に記載の障害物識別装置。
  7. 前記画像における画素の輝度値の一方向の勾配である第1勾配(Iu)と、前記第1勾配の方向に対して直交する方向の輝度値の勾配である第2勾配(Iv)とを演算するフィルタ(33)と、
    前記オプティカルフローの長さ(Lf)と、前記オプティカルフローの角度(θf)の変化である方向差分(Δθf)と、前記画像の解像度(σi)と、互いに対応する前記オプティカルフローが生成される毎に計上される回数であるトラッキング回数(Nt)と、前記第1勾配および前記第2勾配に基づく前記特徴点のコーナー度(Rf)と、前記生成部によって生成された前記オプティカルフローの長さ(Lf)から前記車両の移動距離に対応する前記オプティカルフローの長さを除去した長さであるエゴキャンセルフロー長(Lc)と、に基づいて、前記オプティカルフローを選定する選定部(S140)と、
    をさらに備え、
    前記分類部は、前記選定部によって選定された前記オプティカルフローをグループに分類する請求項1ないし6のいずれか1つに記載の障害物識別装置。
  8. 前記フィルタは、Sobelフィルタを用いて、前記第1勾配と前記第2勾配とを演算する請求項7に記載の障害物識別装置。
  9. 前記抽出部は、前記第1勾配の自乗と前記第2勾配の自乗との和の平方根(Mc)に基づいて、前記特徴点を抽出する請求項7または8に記載の障害物識別装置。
  10. 前記分類部は、前記オプティカルフローの長さ(Lf)および前記オプティカルフローの角度(θf)に基づいて、前記オプティカルフローをグループに分類する請求項1ないし9のいずれか1つに記載の障害物識別装置。
  11. 障害物識別装置を、
    車両(90)に搭載されるカメラ(11、12、13、14)によって撮像された画像を取得する取得部(S110)、
    前記画像の特徴点を抽出する抽出部(S120)、
    現時点よりも前に前記取得部が取得した前記画像の前記特徴点から、現時点で前記取得部が取得した前記画像の前記特徴点への移動ベクトルであるオプティカルフロー(OP)を生成する生成部(S130)、
    前記特徴点の画素位置に基づいて、前記オプティカルフローをグループに分類する分類部(S150)、および、
    前記分類部によって分類されたグループ内における前記オプティカルフローの長さ(Lf)のバラつき度合に基づいて、前記画像に映る物体が、類似模様を有する静止物体および移動物体のいずれであるかを判定する識別部(S165、S170、S180、S190)として機能させる障害物識別プログラム。
JP2019188273A 2019-10-14 2019-10-14 障害物識別装置および障害物識別プログラム Active JP7298436B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019188273A JP7298436B2 (ja) 2019-10-14 2019-10-14 障害物識別装置および障害物識別プログラム
US17/068,236 US11704911B2 (en) 2019-10-14 2020-10-12 Apparatus and method for identifying obstacle around vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019188273A JP7298436B2 (ja) 2019-10-14 2019-10-14 障害物識別装置および障害物識別プログラム

Publications (2)

Publication Number Publication Date
JP2021064155A JP2021064155A (ja) 2021-04-22
JP7298436B2 true JP7298436B2 (ja) 2023-06-27

Family

ID=75384006

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019188273A Active JP7298436B2 (ja) 2019-10-14 2019-10-14 障害物識別装置および障害物識別プログラム

Country Status (2)

Country Link
US (1) US11704911B2 (ja)
JP (1) JP7298436B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113537254B (zh) * 2021-08-27 2022-08-26 重庆紫光华山智安科技有限公司 图像特征提取方法、装置、电子设备及可读存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006245677A (ja) 2005-02-28 2006-09-14 Toshiba Corp 画像処理装置、画像処理方法および画像処理プログラム
JP2013186668A (ja) 2012-03-07 2013-09-19 Clarion Co Ltd 車両周囲監視装置

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4259357B2 (ja) * 2004-03-12 2009-04-30 三菱ふそうトラック・バス株式会社 車両走行状態判定装置
JP2007195141A (ja) * 2005-12-20 2007-08-02 Nissan Motor Co Ltd 画像速度算出装置及び画像速度算出方法
JP4674179B2 (ja) 2006-03-30 2011-04-20 株式会社デンソーアイティーラボラトリ 影認識方法及び影境界抽出方法
JP2008219063A (ja) * 2007-02-28 2008-09-18 Sanyo Electric Co Ltd 車両周辺監視装置及び方法
JP4853444B2 (ja) 2007-09-28 2012-01-11 株式会社デンソー 移動物体検出装置
JP2009146153A (ja) 2007-12-13 2009-07-02 Fujitsu Ltd 移動体検出装置、移動体検出方法および移動体検出プログラム
JP5066558B2 (ja) 2009-09-17 2012-11-07 日立オートモティブシステムズ株式会社 自車影認識装置
DE102014225797A1 (de) * 2014-12-15 2016-06-16 Bayerische Motoren Werke Aktiengesellschaft Vordergrund-Hintergrund Differenzierung im Fahrzeug

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006245677A (ja) 2005-02-28 2006-09-14 Toshiba Corp 画像処理装置、画像処理方法および画像処理プログラム
JP2013186668A (ja) 2012-03-07 2013-09-19 Clarion Co Ltd 車両周囲監視装置

Also Published As

Publication number Publication date
US11704911B2 (en) 2023-07-18
US20210110175A1 (en) 2021-04-15
JP2021064155A (ja) 2021-04-22

Similar Documents

Publication Publication Date Title
US11854272B2 (en) Hazard detection from a camera in a scene with moving shadows
Wu et al. Lane-mark extraction for automobiles under complex conditions
JP7025912B2 (ja) 車載環境認識装置
US9811742B2 (en) Vehicle-surroundings recognition device
JP7310527B2 (ja) 障害物識別装置および障害物識別プログラム
Jung et al. Parking slot markings recognition for automatic parking assist system
US7231288B2 (en) System to determine distance to a lead vehicle
US8005266B2 (en) Vehicle surroundings monitoring apparatus
Yan et al. A method of lane edge detection based on Canny algorithm
KR101176693B1 (ko) 거리센서를 이용한 차선인식 방법 및 그 시스템
JP2012118698A (ja) 画像処理装置
JP2009064410A (ja) 車両の死角における移動物体を検知するための方法、および死角検知装置
KR101483742B1 (ko) 지능형 차량의 차선 검출방법
WO2016059643A1 (en) System and method for pedestrian detection
JP7310526B2 (ja) 障害物識別装置および障害物識別プログラム
JP7298436B2 (ja) 障害物識別装置および障害物識別プログラム
JP2005157731A (ja) 車線認識装置および車線認識方法
Romdhane et al. A generic obstacle detection method for collision avoidance
Mandlik et al. Raspberry-pi based real time lane departure warning system using image processing
JP6701905B2 (ja) 検出装置、視差値導出装置、物体認識装置、機器制御システム、およびプログラム
KR101717222B1 (ko) 시선 검출 시스템 및 그 방법
KR100976142B1 (ko) 차량검출방법
JP2001116545A (ja) 距離画像算出装置
JP2006078261A (ja) 物体検出装置
Wen et al. Feature-level image fusion for SAR and optical images

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220119

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230131

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230316

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230516

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230529

R150 Certificate of patent or registration of utility model

Ref document number: 7298436

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150