JP6822815B2 - 道路標示認識装置 - Google Patents

道路標示認識装置 Download PDF

Info

Publication number
JP6822815B2
JP6822815B2 JP2016203848A JP2016203848A JP6822815B2 JP 6822815 B2 JP6822815 B2 JP 6822815B2 JP 2016203848 A JP2016203848 A JP 2016203848A JP 2016203848 A JP2016203848 A JP 2016203848A JP 6822815 B2 JP6822815 B2 JP 6822815B2
Authority
JP
Japan
Prior art keywords
vehicle
road marking
templates
template
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016203848A
Other languages
English (en)
Other versions
JP2018067063A (ja
Inventor
俊貴 木下
俊貴 木下
太久磨 伊藤
太久磨 伊藤
慧 中村
慧 中村
実 鎌田
実 鎌田
ポンサトーン ラクシンチャラーンサク
ポンサトーン ラクシンチャラーンサク
清水 司
司 清水
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NATIONAL UNIVERSITY CORPORATION TOKYO UNIVERSITY OF AGRICULUTURE & TECHNOLOGY
University of Tokyo NUC
Toyota Motor Corp
Toyota Central R&D Labs Inc
Original Assignee
NATIONAL UNIVERSITY CORPORATION TOKYO UNIVERSITY OF AGRICULUTURE & TECHNOLOGY
University of Tokyo NUC
Toyota Motor Corp
Toyota Central R&D Labs Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NATIONAL UNIVERSITY CORPORATION TOKYO UNIVERSITY OF AGRICULUTURE & TECHNOLOGY, University of Tokyo NUC, Toyota Motor Corp, Toyota Central R&D Labs Inc filed Critical NATIONAL UNIVERSITY CORPORATION TOKYO UNIVERSITY OF AGRICULUTURE & TECHNOLOGY
Priority to JP2016203848A priority Critical patent/JP6822815B2/ja
Priority to DE102017123219.2A priority patent/DE102017123219A1/de
Priority to CN201710953839.0A priority patent/CN107957258B/zh
Priority to US15/784,457 priority patent/US10679077B2/en
Publication of JP2018067063A publication Critical patent/JP2018067063A/ja
Application granted granted Critical
Publication of JP6822815B2 publication Critical patent/JP6822815B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/582Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of traffic signs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/09623Systems involving the acquisition of information from passive traffic signs by means mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Navigation (AREA)

Description

本発明は、自車両が走行している道路の路面の道路標示を認識する道路標示認識装置の技術分野に関する。
この種の装置として、例えば、路面を撮像した画像から道路標示の複数の特徴部位を検出し、各特徴部位の検出自信度が閾値よりも高い場合に検出対象の道路標示を認識したと判定し、検出自信度が閾値よりも低い特徴部位については検出条件を変更して再検出を行う装置が提案されている(特許文献1参照)。また、自車両の周辺に認識対象の道路標示と形状が類似している道路標示があるか否かに応じて、例えば検出すべき特徴量の数等の道路標示認識に係る判定条件を変更する装置が提案されている(特許文献2参照)。
特開2010−108049号公報 特開2009−139306号公報
上述の背景技術では、自車両が比較的高速で走行している場合、例えば複数の特徴部位を検出したり、再検出を行ったりすること等に起因して、道路標示の認識処理に係る演算負荷が高くなる可能性があるという技術的問題点がある。
本発明は、上記問題点に鑑みてなされたものであり、演算負荷を抑制しつつ、認識精度を向上することができる道路標示認識装置を提供することを課題とする。
本発明の道路標示認識装置は、上記課題を解決するために、自車両が走行している道路の路面を撮像した画像から道路標示を認識する認識処理を実行可能な道路標示認識装置であって、前記自車両の位置である自車位置を検出する検出手段と、地図情報を記憶する第1記憶手段と、(i)各道路標示の位置を示す位置情報、及び、(ii)認識対象の道路標示の複数の特徴部位の一部に対応する一又は複数の第1のテンプレートと、前記複数の特徴部位の他の一部に対応し、前記第1のテンプレートとは種別の異なる複数の第2のテンプレートとを含んでなるテンプレートセットを記憶する第2記憶手段と、前記検出された自車位置、前記地図情報及び前記位置情報に基づいて、自車両と一の道路標示との間の距離が所定の範囲内である場合に、前記一の道路標示を認識対象とした前記認識処理として、(i)前記画像から、前記一の道路標示に係る前記一又は複数の第1のテンプレートに対応する特徴部位の検出を行い、(ii)前記画像から前記一又は複数の第1のテンプレートの少なくとも一つに対応する特徴部位が検出されたことを条件に、前記複数の第2のテンプレートのうち、前記検出された特徴部位よりも前記自車両の進行方向前側に位置する一又は複数の第2のテンプレートに対応する特徴部位の検出を行う認識手段と、を備え、前記一又は複数の第1のテンプレートと前記複数の第2のテンプレートとは、互いの相対的な位置関係が既知であり、且つ、前記複数の第2のテンプレートは、前記認識対象の道路標示が設けられている車線に係る進行方向において、前記一又は複数の第1のテンプレートより奥側に位置しており、前記一又は複数の第1のテンプレート各々は、前記画像から対応する特徴部位が検出されることにより、前記認識手段に前記画像から前記複数の第2のテンプレートの少なくとも一つに対応する特徴部位の検出を開始させるテンプレートであり、前記認識対象の道路標示は、複数の数字の組合せからなるパターンであり、前記一又は複数の第1のテンプレートには、前記パターンを構成する複数の数字のうち一の数字に係る特徴部位の一部にのみ対応するテンプレートが含まれており、前記複数の第2テンプレートには、前記パターンを構成する複数の数字のうち一の数字に係る特徴部位の一部にのみ対応するテンプレートが含まれている

当該道路標示認識装置は、路面を撮像した画像から、認識対象の道路標示の複数の特徴部位うち一の特徴部位が検出されたことを条件に(即ち、第1のテンプレートに対応する特徴部位が検出されたことを条件に)、該検出された一の特徴部位との相対的な位置関係が既知である他の特徴部位(即ち、第2のテンプレートに対応する特徴部位)の検出が行われる。つまり、当該道路標示認識装置は、道路標示全体を一度に認識しようとはせず、路面を撮像した画像から、認識対象の道路標示の一部に対応する部分を検出し、該部分が検出されたことを条件に、認識対象の道路標示の他の部分に対応する部分を検出する。従って、当該道路標示認識装置によれば、道路標示全体を一度に認識しようとする場合に比べて、認識処理に係る演算負荷を低減することができる。
加えて、例えば道路標示の一部が擦れていたり、建物等の影が道路標示の一部にかかっていたりする等の外乱が存在する場合であっても、当該道路標示認識装置は部分的(局所的)な特徴部位に着目するために、外乱の影響を全く又は殆ど受けることなく、認識処理を行うことができる。このため、当該道路標示認識装置によれば、道路標示全体を一度に認識しようとする場合に比べて、認識処理の精度を向上させることができる。
本発明の道路標示認識装置の一態様では、前記認識手段は、前記一又は複数の第2のテンプレートに対応する特徴部位が検出されたことを条件に、前記認識対象の道路標示を認識したと判定する。当該道路標示認識装置は、互いの相対的な位置関係が既知であるテンプレートを用いて認識対象の道路標示の検出を行っている。このため、検出された第1及び第2のテンプレート各々に対応する特徴部位間の相対的な位置関係も、第1及び第2のテンプレート間の相対的な位置関係と同じである。このため、第1及び第2のテンプレートに夫々対応する二つの特徴部位が検出された場合、認識対象の道路標示が認識された可能性は比較的高いと考えられる。従って、この態様によれば、比較的容易にして、演算負荷を抑制しつつ、認識処理の精度を向上させることができる。
本発明の作用及び他の利得は次に説明する実施するための形態から明らかにされる。
実施形態に係る車両の構成を示すブロック図である。 実施形態に係る道路標示認識を実現する構成を示すブロック図である。 実施形態に係るテンプレートの一例を示す図である。 実施形態に係るセットテンプレートを用いたマッチング方法を示す概念図である。 実施形態に係る道路標示認識処理の一部を示すフローチャートである。 図5に示すフローチャートに続く工程の一部を示すフローチャートである。 図5に示すフローチャートに続く工程の他の部分を示すフローチャートである。 図6及び図7に示すフローチャートに続く工程を示すフローチャートである。
本発明の道路標示認識装置に係る実施形態について、図1乃至図8を参照して説明する。以下の実施形態では、本発明の道路標示認識装置が搭載された車両Mを用いて説明を進める。
(車両の構成)
車両Mの構成について、図1を参照して説明する。図1は、実施形態に係る車両の構成を示すブロック図である。
図1において、車両Mは、車両制御装置1を備えて構成されている。車両制御装置1は、車両Mの走行を制御する。具体的には例えば、車両制御装置1は、地図情報に基づく車両Mの現在位置から目的地までの経路に沿って、自動運転により走行するように車両Mを制御する。
車両制御装置1は、ECU(Electronic Control Unit)2、外部センサ3、内部センサ4、GPS(Global Positioning System)受信部5、地図関連情報提供部6及びアクチュエータ7を備えて構成されている。
外部センサ3は、カメラ31及びレーダ32を有している。カメラ31は、例えば車両Mのフロントガラスの裏側及び車両Mの後面に設けられている。カメラ31は、車両Mの前方及び後方に関する撮像情報をECU2へ送信する。尚、カメラ31は、単眼カメラであってもよいし、ステレオカメラであってもよい。カメラ31がステレオカメラである場合には、撮像情報に視差情報(即ち、距離情報)が含まれてよい。
レーダ32は、例えばミリ波等の電波を利用して車両Mの外部の障害物(例えば、他車両、歩行者、自転車、構造物等)を検出する。レーダ32は、検出した障害物を示す障害物情報をECU2へ送信する。尚、レーダ32に代えて、光を利用するライダ(LIDAR:Light Detection And Ranging)が用いられてもよい。
内部センサ4は、車両Mの走行状態を検出する検出機器である。内部センサ4は、例えば車速センサ、加速度センサ、ヨーレートセンサ等を有する。内部センサ4は、例えば車速、加速度、ヨーレート等を示す情報をECU2へ送信する。
GPS受信部5は、3個以上のGPS衛生から信号を受信することにより、車両Mの位置(例えば車両Mの緯度及び経度)を測定する。GPS受信部5は、測定した車両Mの位置を示す位置情報をECU2へ送信する。
地図関連情報提供部6は、車両Mに搭載されている情報提供システムである。地図関連情報提供部6は、ECU2からの要求により、例えば地図情報、操舵変更ポイント、車速目標ポイントに関するデータをECU2に送信する。ここで、操舵変更ポイント及び車速目標ポイント各々は、地図情報に関連付けられている。操舵変更ポイントとは、車線上で車両Mの操舵変更が設定される箇所(例えばカーブ、交差点等)を意味する。車速目標ポイントとは、車線上で車両Mの目標車速が設定された箇所(例えば一時停止線や横断歩道が設置されている地点等)を意味する。
地図関連情報提供部6は、その内部に論理的に実現される処理ブロックとして又は物理的に実現される処理回路として、地図情報記憶部61、ポイント情報記憶部62及びターゲット記憶部63を有している。
地図情報記憶部61は、地図情報を記憶するデータベースである。ポイント情報記憶部62は、地図情報に関連付けられた操舵変更ポイント及び車速目標ポイントを記憶するデータベースである。
ターゲット記憶部63は、ランドマークターゲットに関するターゲット情報を記憶するデータベースである。ターゲット情報には、ランドマークターゲットの位置情報(例えば車線に応じた車線進行距離の情報)、ランドマークターゲットの検出特徴情報が含まれる。
ランドマークターゲットの検出特徴情報とは、カメラ31及びレーダ32によるランドマークターゲットの検出に用いられる情報である。検出特徴情報には、例えばカメラ31による検出で用いられる形状情報、レーダ32による検出で用いられる反射特性情報等が含まれる。
尚、地図関連情報提供部6は、外部の情報管理センタ等の施設のコンピュータと無線通信を行う機能を有していてもよい。この場合、地図関連情報提供部6は、必要に応じて無線通信を行うことにより、地図情報、操舵変更ポイント及び車速目標ポイントを更新することができる。
アクチュエータ7は、車両Mの走行を制御する装置である。アクチュエータ7は、例えばスロットルアクチュエータ、ブレーキアクチュエータ、操舵アクチュエータ等を有する。
(車両制御装置による自動運転の概要)
上述の如く構成された車両制御装置1が実施する車両Mの自動運転の概要について説明する。
車両制御装置1は、車両Mが走行すべき経路が設定された場合、地図情報、操舵変更ポイント及び車速目標ポイントに基づいて、車両Mの走行に用いる車線走行マップデータを生成する。「経路」は、車両Mが現在位置から目的地に至るために走行する道路(車線)から構成される。経路は、車両Mの運転者により手動で設定されてもよいし、車両制御装置1により自動で設定されてもよい。
車線走行マップデータは、経路に沿って走行する車両Mの目標位置の情報、目標向きの情報及び目標車速の情報を含んでいる。車線走行マップデータは、車線毎に生成される。車線走行マップデータは、車線進入位置から車両Mが当該車線を進行する距離である車線進行距離を基準として生成される。
車線走行マップデータには、例えばウェイポイントマップ、ランドマークマップ及びコントロールターゲットマップが含まれる。ウェイポイントマップは、経路に沿って走行する車両Mの目標位置及び目標向きに関するデータ配列である。ここで、地図情報上において目標位置及び目標向きが関連付けられた地点をウェイポイントと呼ぶ。ウェイポイントマップは、車線毎の車線進行距離を基準として、一定距離毎にウェイポイントが設定されたデータ配列となる。
車両制御装置1は、車両Mの走行中に、車両Mの経路、車両Mの現在値及び操舵変更ポイントを用いてウェイポイントマップの動的な生成を行う。尚、車両制御装置1は、経路を構成する車線のうち操舵変更ポイント以外は直線形状であると仮定して、ウェイポイントマップを生成する。つまり、ウェイポイントマップは、操舵変更ポイント以外の箇所においては、車線に沿って直線状に連なるウェイポイントから構成される。
ランドマークマップは、車両Mの位置補正に用いるランドマークターゲットに関するデータ配列である。ランドマークターゲットとは、車線に対し位置が固定された検出対象である。ランドマークターゲットには、路面上に描かれた、例えば数字やダイヤマーク等の道路標示が含まれる。ランドマークターゲットには、他にも、例えばガードレール等の道路脇の構造物が含まれる。車両制御装置1は、例えばカメラ31によりランドマークターゲットが検出された場合、ランドマークターゲットと車両Mとの距離に基づき、地図情報上におけるランドマークターゲットの位置を基準として車両Mの位置を補正する。
コントロールターゲットマップは、経路に沿って走行する車両Mの目標車速に関するデータ配列である。コントロールターゲットマップは、例えば、車線毎の車速目標ポイントを車線進行距離に応じて並べたデータ配列である。
車両制御装置1は、生成された車線走行マップデータに基づいて、車両Mを制御することによって経路に沿った車両Mの走行を実現する。具体的には、車両制御装置1は、ウェイポイントマップに基づいて、車両Mの操舵を制御しつつ、ウェイポイントマップ及びコントロールターゲットマップに基づいて、車両Mの車速を制御する。
(ECUの構成)
車両制御装置1において、当該車両制御装置1を統括的に制御するECU2は、車両Mの自動運転を実現するために、その内部に論理的に実現される処理ブロックとして又は物理的に実現される処理回路として、位置検出部21、ターゲット検出部22、ターゲット距離検出部23、位置補正部24、進行方向検出部25、車線進行距離算出部26、データ生成部27、前方注視点算出部28及び車両制御部29を有する。
位置検出部21は、車両Mの位置を検出する。位置検出部21は、例えばGPS受信部5の測定した車両Mの位置情報に基づいて、既存の方法により、車線に応じた車両Mの位置を検出する。位置検出部21は、カメラ31の撮像情報に基づいて、車両Mが走行する車線に係る白線を認識することにより、車両Mの横位置(即ち、車線の幅方向における位置)を検出してもよい。
ターゲット検出部22は、外部センサ3の検出結果と地図関連情報提供部6のターゲット情報に基づいて、具体的にはターゲット記憶部63のターゲット情報を参照して、カメラ31の撮像情報及びレーダ32の障害物情報の少なくとも一方から、車両Mの前後のランドマークターゲットを検出する。
ターゲット距離検出部23は、ターゲット検出部22がランドマークターゲットを検出した場合、ランドマークターゲットと車両Mとの距離を検出する。
位置補正部24は、ターゲット距離検出部23がランドマークターゲットと車両Mとの距離を検出した場合、ランドマークターゲットと車両Mとの距離と、地図情報におけるランドマークターゲットの位置とに基づいて、該ランドマークターゲットの位置(この場合、xy座標上の位置として表される)を基準として、位置検出部21の検出した車両Mの位置情報の補正を行う。位置補正部24は、更に、ランドマークターゲットと車両Mとの距離と、地図情報におけるランドマークターゲットの位置とに基づいて、該ランドマークターゲットの位置(この場合、車線進行距離として表される)を基準として、車線進行距離算出部26により算出された車線進行距離を補正する。
進行方向検出部25は、内部センサ4のヨーレート情報及び位置検出部21により検出された車両Mの位置情報の時間変化の少なくとも一方に基づいて、車両Mの進行方向を検出する。
車線進行距離算出部26は、位置検出部21により検出された車両Mの位置情報に基づいて、走行中の車線における車両Mの車線進行距離の候補となる第1車線進行距離候補を算出する。車線進行距離算出部26は、更に、走行中の車線の車線進入位置から現在値までの内部センサ4の車速情報に基づいて、車線進行距離の候補となる第2車線進行距離候補を算出する。
車線進行距離算出部26は、第1車線進行距離候補と第2車線進行距離候補との差分が所定閾値以上であるか否かを判定する。車線進行距離算出部26は、上記差分が所定閾値以上ではないと判定された場合、第1車線進行距離候補を車線進行距離とする。他方、車線進行距離算出部26は、上記差分が所定閾値以上であると判定された場合、第2車線進行距離候補を車線進行距離とする。
データ生成部26は、車線走行マップデータを生成する。データ生成部26は、車線走行マップデータを生成するために、その内部に論理的に実現される処理ブロックとして又は物理的に実現される処理回路として、ウェイポイントマップ生成部271、ランドマークマップ生成部272及びコントロールターゲットマップ生成部273を有する。
ウェイポイントマップ生成部271は、車両Mの経路及び車両Mの位置(現在地)に基づいて、地図関連情報提供部6のポイント情報記憶部62の操舵変更ポイントを参照して、ウェイポイントマップを生成する。ランドマークマップ生成部272は、車両Mの経路及び車両Mの位置(現在地)に基づいて、地図関連情報提供部6のターゲット記憶部63のターゲット情報を参照して、ランドマークターゲットに関するランドマークマップを生成する。コントロールターゲットマップ生成部273は、車両Mの経路及び車両Mの位置(現在地)に基づいて、ポイント情報記憶部62の車速目標ポイントを参照して、コントロールターゲットマップを生成する。
前方注視点算出部28は、内部センサ4の車速情報に基づいて、車両Mの前方注視点を算出する。前方注視点とは、車両Mの前方に設定された地点であり、例えば運転者が車両Mを手動で運転する場合に注視する地点に相当する地点である。前方注視点算出部28は、車両Mの車速が大きくなるほど、車両Mから離れた前方の位置に前方注視点を設定する。
車両制御部29は、車両Mの位置、車両Mの車線進行距離、ウェイポイントマップ及び前方注視点に基づいて、車両Mの操舵制御を行う。車両制御部29は、車両Mの位置、車両Mの車線進行距離、ウェイポイントマップ及びコントロールターゲットマップに基づいて、車両Mの車速制御を行う。
尚、車両制御装置1による車両Mの自動運転の詳細については、本願出願人による特許願(特願2015−100287)を参照されたし。
(道路標示認識)
本発明に係る道路標示認識装置の一具体例としての、ターゲット検出部22による、ランドマークターゲットの一例としての道路標示の認識(検出)方法について説明する。
道路標示は、上述の如く、車両Mの位置の補正に用いられる。走行している車両Mの現在値は時々刻々と変化するので、道路標示が比較的速やかに認識されることが求められる。加えて、車両Mの位置の補正に用いることができる程度の認識精度が求められる。他方で、道路標示認識を行うターゲット検出部22への要求性能が比較的高くなると、例えばコストの増大を招いてしまう。
従って、道路標示の認識に係る処理には、要求される認識精度を満たすと共に、処理負荷(演算負荷)を抑制しつつ比較的高速に道路標示を認識できる処理であることが求められる。そこで、本実施形態に係る道路標示認識では、認識対象の道路標示の局所的な(部分的な)特徴に着目した道路標示の認識が行われる。具体的には、認識対象の道路標示の局所的な特徴を示す画像パターン(即ち、テンプレート)を用いたテンプレートマッチングにより道路標示の認識が行われる。
ここで、認識対象である道路標示は、その大きさ及び形状が法令で定められている。加えて、車両Mが道路標示を通過する方向はほぼ一定である。つまり、道路標示の認識に当たり認識対象の大きさや向きの変化は考慮しなくてよい。このため、テンプレートマッチングは道路標示の認識に適した認識方法であると言える。
道路標示認識のための構成
先ず、道路標示認識(更には、車両Mの位置補正)を行うための構成について、図2を参照して説明する。図2は、実施形態に係る道路標示認識を実現する構成を示すブロック図である。図2において、矢印は情報の流れを示している。
図2において、ターゲット検出部22は、その内部に論理的に実現される処理ブロックとして又は物理的に実現される処理回路として、システム起動部2201、歪み補正部2202、投影変換部2203、マッチング部2204、2206及び2208、検出信頼度算出部2205及び2209、マッチング範囲算出部2207並びに検出結果選択部2210を有する。
ターゲット距離検出部23は、その内部に論理的に実現される処理ブロックとして又は物理的に実現される処理回路として、自車−標示間距離算出部2301及び誤差補正部2302を有する。位置補正部24は、その内部に論理的に実現される処理ブロックとして又は物理的に実現される処理回路として、自車位置算出部2401を有する。
ターゲット検出部22のシステム起動部2201は、位置補正部24により補正された車両Mの位置情報と、ランドマークマップ生成部272により生成されたランドマークマップに含まれるランドマークターゲットとしての道路標示とに基づいて、認識対象の道路標示から所定の範囲内に車両Mが入ったことを条件に、道路標示の検出システム(言い換えれば、検出プログラム)を起動する。
歪み補正部2202は、カメラ31の撮像情報から得られる画像に対し、例えばターゲット記憶部63に相当する記憶部6301に予め記憶されている歪み補正係数に基づいて、既存の方法により画像の歪みを補正する。投影変換部2203は、歪み補正部2202により歪みが補正された画像に対し、記憶部6301に予め記憶されている投影変換パラメータに基づいて、既存の方法により投影変換を行い、道路真上から鳥瞰した画像を生成する。投影変換部2203により生成された画像を、以降、適宜「探索対象画像」と称する。
ここで、歪み補正部2202及び投影変換部2203は、システム起動部2201により検出システムが起動された後は、カメラ31の撮像情報から逐次得られる複数の画像各々に対して、逐次、歪み補正及び投影変換を行う。この結果、探索対象画像が逐次生成されることとなる。尚、「歪み補正係数」及び「投影変換パラメータ」は、例えばカメラ31に係るキャリブレーション結果等に基づいて求めればよい。
記憶部6301には、ランドマークターゲットの検出特徴情報として、認識対象の道路標示の局所的な特徴を示す画像パターンであるテンプレートが予め記憶されている。ここで、本実施形態に係るテンプレートについて、図3を参照して説明する。図3は、実施形態に係るテンプレートの一例を示す図である。図3では、道路標示の一例として「最高速度40km」(図3(a))及び「横断歩道又は自転車横断帯あり」(図3(b))を挙げているが、これに限定されないことは言うまでもない。
図3(a)上段において、道路標示(最高速度40km)のうち点線で囲まれた部分が、該道路標示の特徴的な部位である。この結果、図3(a)下段に示す、5つの画像40_1〜40_5がテンプレートとして設定される。同様に、図3(b)上段において、道路標示(横断歩道又は自転車横断帯あり)のうち点線で囲まれた部分が、該道路標示の特徴的な部位である。この結果、図3(b)下段に示す、4つの画像dia_1〜dia_4がテンプレートとして設定されている。
テンプレートは、次の4つの条件、即ち、(i)直線等の単純な部位ではなく、幾何学的に特徴のある部位であること、(ii)一の道路標示についての複数のテンプレートが、該一の道路標示全体にまんべんなく分布していること、(iii)摩耗による道路標示の劣化の影響を抑制するため、タイヤの通過機会が少ないと考えられる部位を含めること、(iv)道路標示の敷設の際に塗料が重なる部位を含めること、を満たすように設定されることが望ましい。
本実施形態では、一の道路標示についての複数のテンプレート各々に、次の3種類の役割、即ち、(i)ダイレクトテンプレート、(ii)トリガテンプレート及び(iii)セットテンプレート、のうち少なくとも一つの役割を持たせている。
ダイレクトテンプレートとは、テンプレートとして設定された画像に含まれる特徴部位のみで、一の道路標示を特定可能なテンプレートを意味する。トリガテンプレート及びセットテンプレートは、テンプレート間の相対的な位置関係が既知のテンプレートである。トリガテンプレートは、そのテンプレートが検出されることにより、セットテンプレートの検出が開始されるテンプレートを意味する。トリガテンプレートは、典型的には、道路標示のうち前進走行する車両が接近する側の特徴部位を含むテンプレート(例えば画像40_1、画像dia_4)である。セットテンプレートとは、テンプレート間の相対的な位置関係を用いて検出されるテンプレートを意味する。セットテンプレートは、道路標示のうち、トリガテンプレートに対応する特徴部位よりも車両の進行方向前方に位置する特徴部位を含むテンプレート(例えば画像40_2〜40_5、画像dia_1〜dia_3)である。トリガテンプレート又はセットテンプレートとして用いられる画像が、ダイレクトテンプレートとして用いられてもよい。
再び図2に戻り、マッチング部2204は、認識対象の道路標示に対応するダイレクトテンプレートを記憶部6301から取得して、該取得されたダイレクトテンプレートによるマッチングを行う。
ランドマークマップ生成部272により生成されるランドマークマップは、上述の如く、ランドマークターゲット(ここでは、道路標示)に関するデータ配列である。つまり、マッチング部2204は、認識すべき道路標示に関するデータ(例えば種別等)を予め取得している。このため、マッチング部2204は、例えば認識すべき道路標示が「最高速度40km」である場合には、「最高速度40km」に係るダイレクトテンプレートのみを記憶部6301から取得する。(後述のマッチング部2206及び2208についても同様)
尚、テンプレートマッチングは、例えば、輝度に基づいてテンプレートと探索対象画像との相関度を算出する相関度算出方法や、エッジ特徴量に基づくマッチング方法等の既存の方法により行われてよい。テンプレートマッチングにおいてマッチングしたか否かを判定するための閾値は、例えば天候や時間帯等の複数の状況に夫々対応可能なように複数用意されていることが望ましい。
検出信頼度算出部2205は、ダイレクトテンプレートによるマッチングが成功した場合に、マッチング結果の信頼度を算出する。「信頼度」は、テンプレートマッチングに相関度算出方法が用いられた場合には、例えば“信頼度=相関度/所定閾値”とされてよい。
マッチング部2206は、認識対象の道路標示に対応するトリガテンプレートを記憶部6301から取得して、該取得されたトリガテンプレートによるマッチングを行う。
マッチング範囲算出部2207は、マッチング部2206によるマッチングが成功した場合に、上記トリガテンプレートと、認識対象の道路標示に対応するセットテンプレートとの相対的な位置関係に基づいて、セットテンプレートを探索する範囲を設定する。
マッチング部2208は、認識対象の道路標示に対応するセットテンプレートを記憶部6301から取得して、該取得されたセットテンプレートによるマッチングを、マッチング範囲算出部2207により設定された範囲内で行う。
検出信頼度算出部2209は、セットテンプレートによるマッチングが成功した場合に、マッチング結果の信頼度を算出する。
ここで、セットテンプレートを用いたマッチングについて、図4を参照して説明を加える。図4は、実施形態に係るセットテンプレートを用いたマッチング方法を示す概念図である。図4において、車両Mは、図面下から上に向かって走行しているものとする。
図3(a)の画像40_1がトリガテンプレートであり、図3(a)の画像40_2〜40_5がセットテンプレートであるとする。図4では、画像40_1を“GroupA”、画像40_3及び40_4を“GroupB”、画像40_2及び40_5を“GroupC”としている。
図4(a)において、マッチング部2206により、一の探索対象画像から、トリガテンプレートとしての画像40_1に対応する特徴部位が検出された場合、マッチング範囲算出部2207は、トリガテンプレートとしての画像40_1とGroupBに含まれるセットテンプレート(即ち、画像40_3及び40_4)との相対的な位置関係に基づいて、車両Mの進行方向(即ち、図4の下から上に向かう方向)のGroupBの探索範囲、及びトリガテンプレートとしての画像40_1とGroupCに含まれるセットテンプレート(即ち、画像40_2及び40_5)との相対的な位置関係に基づいて、車両Mの進行方向のGroupCの探索範囲を決定する。
マッチング部2208は、GroupBの探索範囲について、道路標示のうちGroupBの探索範囲に対応する部分を含む探索対象画像(上記一の探索対象画像と同一とは限らない)に対し、セットテンプレートとしての画像40_3及び40_4を用いてマッチングを行う。マッチング部2208は、GroupCの探索範囲について、道路標示のうちGroupCの探索範囲に対応する部分を含む探索対象画像(上記一の探索対象画像と同一とは限らない)に対し、セットテンプレートとしての画像40_2及び40_5を用いてマッチングを行う。
例えば、探索対象画像から画像40_2に対応する特徴部位が検出された場合、マッチング部2208は、トリガテンプレートとしての画像40_1とセットテンプレートとしての画像40_2との相対的な位置関係に基づいて、検出された特徴部位の車両Mの幅方向(即ち、図4の左右方向)の位置が妥当であるか否かを判定する。具体的には、マッチング部2208は、図4(b)の“40_2の存在許容範囲”内に検出された特徴部位が存在するか否かを判定する。
“40_2の存在許容範囲”内に検出された特徴部位が存在する場合のみ、セットテンプレートとしての画像40_2によるマッチングが真に成功したことになる。仮に、図4(b)の点線枠w1又はw2で囲まれた範囲に、検出された特徴部位が存在したとしても、その特徴部位は、トリガテンプレートとしての画像40_1とセットテンプレートとしての画像40_2との相対的な位置関係を満たさないので、検出された特徴部位は見せかけのマッチングによるものであると言える。
尚、本実施形態では、セットテンプレートとしての画像40_2〜40_5の少なくとも一つに対応する特徴部位が検出された場合に、セットテンプレートによるマッチングが成功したと判定される。
再び図2に戻り、検出結果選択部2210は、検出信頼度算出部2205及び2209各々により算出された信頼度を比較して、信頼度の最も高いマッチング結果を選択する。
ターゲット距離検出部23の自車−標示間距離算出部2301は、検出結果選択部2201により選択されたマッチング結果に基づいて、記憶部6301に予め記憶されている座標変換のためのパラメータを用いた座標変換により、車両Mの重心と道路標示の中心との距離を算出する。
誤差補正部2302は、マッチング対象の画像(即ち、探索対象画像の元の画像)が撮像された時刻と、現在時刻と、内部センサ4から取得した車速情報とに基づいて、道路標示認識に係る処理等が行われた期間に車両Mが移動した距離を算出して、自車−標示間距離算出部2301により算出された距離を補正する。例えば、車両Mが時速36kmで走行しており、道路標示認識に0.1秒かかった場合の車両Mの移動距離は1mとなる。誤差補正部2302により該移動距離が考慮されることにより、車両制御装置1による車両Mの自動運転が適切に行われるのである。
位置補正部24の自車位置算出部2401は、誤差補正部2302により補正された車両Mの重心と道路標示の中心との距離と、地図情報におけるランドマークターゲット(ここでは、道路標示)の位置とに基づいて、地図上における車両Mの重心位置を算出する。該算出された車両Mの重心位置が、位置補正部24により補正された車両Mの位置情報に相当する。
道路標示認識処理
次に、道路標示認識処理について、図5乃至図8のフローチャートを参照して説明する。
図5において、ターゲット検出部22のシステム起動部2201は、ランドマークマップ生成部272により生成されたランドマークマップに含まれるランドマークターゲットとしての道路標示のうち、車両Mの現在地に最も近い道路標示に係る情報(例えば、位置及び種別)を取得する(ステップS101)。ステップS101の処理と並行して、システム起動部2201は、位置補正部24により補正された車両Mの位置情報(即ち、前回処理により求められた車両Mの位置情報)を取得する(ステップS102)。
次に、システム起動部2201は、認識すべき道路標示に係る情報と車両Mの位置情報に基づいて、車両Mと認識すべき道路標示との間の距離が設定条件を満たすか否か(即ち、認識すべき道路標示から所定の範囲内に車両Mが入ったか否か)を判定する(ステップS103)。この判定において、設定条件を満たしていないと判定された場合(ステップS103:No)、ステップS102の処理が再び行われる。
他方、ステップS103の判定において、設定条件を満たすと判定された場合(ステップS103:Yes)、システム起動部2201は、道路標示の検出システムを起動する(ステップS104)。
次に、歪み補正部2202は、カメラ31の撮像情報から撮像画像を取得する(ステップS105)。続いて、歪み補正部2202は、記憶部6301に予め記憶されている歪み補正係数を呼び出し(ステップS106)、撮像画像の歪みを補正する(ステップS107)。
次に、投影変換部2203は、記憶部6301から投影変換パラメータを呼び出し(ステップS108)、歪み補正部2202により歪みが補正された画像に対し投影変換を行い、探索対象画像を生成する(ステップS109)。尚、「道路標示認識のための構成」で述べたように、探索対象画像は逐次生成される。つまり、検出システムが起動された後は、ステップS105〜S109の処理が、ステップS110以降の処理の状況によらずに繰り返し行われる。
次に、マッチング部2204は、記憶部6301から、認識すべき道路標示に対応するダイレクトテンプレートを呼び出す。マッチング部2206は、記憶部6301から、認識すべき道路標示に対応するトリガテンプレートを呼び出す(ステップS110)。
図6において、マッチング部2204は、ダイレクトテンプレートを用いたマッチングに成功したか否かを判定する(ステップS111)。この判定において、マッチングに成功していないと判定された場合(ステップS111:No)、後述するステップS126の処理(図8参照)が行われる。
他方、ステップS111の判定において、マッチングに成功したと判定された場合(ステップS111:Yes)、マッチング部2204は、探索対象画像のうちダイレクトテンプレートに対応する特徴部位として検出された部分を、検出信頼度算出部2205に示す(ステップS112)。
次に、検出信頼度算出部2205は、マッチング部2204によるマッチング結果の信頼度を算出する(ステップS113)。その後、後述するステップS126の処理(図8参照)が行われる。
図7において、マッチング部2206は、トリガテンプレートを用いたマッチングに成功したか否かを判定する(ステップS114)。この判定において、マッチングに成功していないと判定された場合(ステップS114:No)、後述するステップS126の処理(図8参照)が行われる。尚、トリガテンプレートによるマッチングに用いられる探索対象画像は、ダイレクトテンプレートによるマッチングに用いられる探索対象画像と同じとは限らない。
ステップS114の判定において、マッチングに成功したと判定された場合(ステップS114:Yes)、マッチング範囲算出部2207は、トリガテンプレートとセットテンプレートとの相対的な位置関係に基づいて、セットテンプレートを探索する縦方向(即ち、車両Mの進行方向)の探索範囲を設定する(ステップS115)。
ステップS115の処理と並行して、マッチング部2206は、探索対象画像のうちトリガテンプレートに対応する特徴部位として検出された部分を、マッチング部2208に示す(ステップS116)。マッチング部2208は、トリガテンプレートに対応する特徴部位が検出された時刻を記録する(ステップS117)と共に、CAN(Controller Area Network)を介して、内部センサ4の車速情報を呼び出す(ステップS118)。
マッチング部2208は、ステップS117の処理で記録された時刻からの経過時間と、車速情報とに基づいて、車両Mが、認識すべき道路標示のうちトリガテンプレートに対応する特徴部位が敷設された地点を通過してからの距離を算出する(ステップS119)。
次に、マッチング部2208は、ステップS119の処理で算出された距離に基づいて、車両Mが、ステップS115の処理で設定された探索範囲を通過していないか否かを判定する(ステップS120)。つまり、カメラ31が、認識すべき道路標示のうち、ステップS115の処理で設定された探索範囲に対応する特徴部位を撮像可能な地点を、車両Mが通過していないか否かを判定する。この判定において、車両Mが探索範囲を通過したと判定された場合(ステップS120:No)、後述するステップS126の処理(図8参照)が行われる。
他方、ステップS120の判定において、車両Mが探索範囲を通過していないと判定された場合(ステップS120:Yes)、マッチング部2208は、ステップS119の処理で算出された距離に基づいて、車両Mが探索範囲に到達したか否かを判定する(ステップS121)。つまり、カメラ31が、認識すべき道路標示のうち、ステップS115の処理で設定された探索範囲に対応する特徴部位を撮像可能な地点に、車両Mが到達したか否かを判定する。この判定において、車両Mが探索範囲に到達していないと判定された場合(ステップS121:No)、ステップS119の処理が再び行われる。
他方、ステップS121の判定において、車両Mが探索範囲に到達したと判定された場合(ステップS121:Yes)、マッチング部2208は、セットテンプレートを用いたマッチングに成功したか否かを判定する(ステップS122)。この判定において、マッチングに成功していないと判定された場合(ステップS122:No)、ステップS119の処理が再び行われる。尚、セットテンプレートによるマッチングに用いられる探索対象画像は、ダイレクトテンプレート及び/又はトリガテンプレートによるマッチングに用いられる探索対象画像と同じとは限らない。
他方、ステップS122の判定において、マッチングに成功したと判定された場合(ステップS122:Yes)、マッチング部2208は、マッチングに成功したセットテンプレートに対応する特徴部位の横位置(即ち、車両Mの幅方向の位置)が、セットテンプレートに対応する特徴部位として妥当であるか否かを判定する(ステップS123)。この判定において、横位置が妥当でないと判定された場合(ステップS123:No)、誤検出の可能性が高いので、ステップS119の処理が再び行われる。
他方、ステップS123の判定において、横位置が妥当であると判定された場合(ステップS123:Yes)、マッチング部2208は、探索対象画像のうちセットテンプレートに対応する特徴部位として検出された部分を、検出信頼度算出部2209に示す(ステップS124)。次に、検出信頼度算出部2209は、マッチング部2208によるマッチング結果の信頼度を算出する(ステップS125)。
図8において、検出結果選択部2210は、ダイレクトテンプレート又はセットテンプレートに対応する特徴部位が検出されたか否かを判定する(ステップS126)。この判定において、ダイレクトテンプレートに対応する特徴部位も、セットテンプレートに対応する特徴部位も検出されてないと判定された場合(ステップS126:No)、後述するステップS136の処理が行われる。
他方、ステップS126の判定において、ダイレクトテンプレート又はセットテンプレートに対応する特徴部位が検出されたと判定された場合(ステップS126:Yes)、検出結果選択部2210は、検出信頼度算出部2205及び2209各々により算出された信頼度を比較して、信頼度の最も高いマッチング結果を選択する(ステップS127)。尚、ダイレクトテンプレートに対応する特徴部位のみ、又は、セットテンプレートに対応する特徴部位のみが検出された場合は、検出された特徴部位に係るマッチング結果が自動的に選択される。
次に、ターゲット距離検出部23の自車−標示間距離算出部2301は、記憶部6301から座標変換のためのパラメータを呼び出す(ステップS128)。続いて、自車−標示間距離算出部2301は、座標変換のためのパラメータを用いて、検出結果選択部2201により選択されたマッチング結果から、車両Mの重心と道路標示の中心との距離を算出する(ステップS129)。
次に、誤差補正部2302は、車両Mの重心と道路標示の中心との距離が算出された時刻(現在時刻)を記録する(ステップS130)と共に、CANを介して、内部センサ4の車速情報を呼び出す(ステップS131)。
次に、誤差補正部2302は、マッチング対象の画像(即ち、探索対象画像の元の画像)が撮像された時刻と、現在時刻と、内部センサ4から取得した車速情報とに基づいて、道路標示認識に係る処理等が行われた期間に車両Mが移動した距離を算出して、自車−標示間距離算出部2301により算出された距離を補正する(ステップS132)。
次に、位置補正部24の自車位置算出部2401は、地図情報におけるランドマークターゲットとしての道路標示の位置を呼び出す(ステップS133)。続いて、自車位置算出部2401は、道路標示の位置と、誤差補正部2302により補正された車両Mの重心と道路標示の中心との距離とに基づいて、地図上における車両Mの重心位置を算出し(ステップS134)、算出結果を位置補正部24に出力する(ステップS135)。
その後、ターゲット検出部22のシステム起動部2201は、ランドマークマップ生成部272により生成されたランドマークマップに含まれるランドマークターゲットとしての道路標示のうち、車両Mの現在地に最も近い新たな道路標示に係る情報を取得する(ステップS136)。その後、ステップS102以降の処理が行われる。
(技術的効果)
実施形態に係る道路標示認識では、道路標示の部分的な特徴部位に着目して(即ち、ダイレクトテンプレート、トリガテンプレート、セットテンプレートを用いて)道路標示の認識が行われる。このため、例えば、道路標示の一部が擦れていたり、建物等の影が道路標示の一部にかかっていたりする場合、或いは、道路標示の一部が他車両により覆われている場合等の外乱が存在する場合にも、認識対象の道路標示を認識することができる。
当該道路標示認識では、上述の如く、道路標示の部分的な特徴部位に着目して道路標示の認識が行われるので、道路標示全体を一度に認識しようとする場合に比べて、処理負荷を軽減することができる。また、テンプレートマッチングに用いる探索対象画像は、道路標示全体を含む画像でなくてよいので、例えば路面を撮像した画像を複数枚累積することなく、道路標示の認識を行うことができる。更に、当該道路標示認識は、認識すべき道路標示の近辺に車両Mが到達したときのみ探索対象画像の生成やマッチングが行われるので、常に探索対象画像の生成等が行われる場合に比べて、処理負荷を著しく軽減することができる。
当該道路標示認識では特に、互いの相対的な位置関係を利用する、トリガテンプレート及びセットテンプレートを用いたテンプレートマッチングが行われる。つまり、当該道路標示認識では、特徴部位と相対的な位置関係との2つの観点から道路標示の認識が行われるので、道路標示の認識精度を向上させることができる。
実施形態に係る「マッチング部2208」及び「記憶部6301」は、夫々、本発明に係る「認識手段」及び「記憶手段」の一例である。実施形態に係る「トリガテンプレート」及び「セットテンプレート」は、夫々、本発明に係る「第1のテンプレート」及び「第2のテンプレート」の一例である。
本発明は、上述した実施形態に限られるものではなく、特許請求の範囲及び明細書全体から読み取れる発明の要旨或いは思想に反しない範囲で適宜変更可能であり、そのような変更を伴う道路標示認識装置もまた本発明の技術的範囲に含まれるものである。
1…車両制御装置、2…ECU、3…外部センサ、4…内部センサ、5…GPS受信部、6…地図関連情報提供部、7…アクチュエータ、21…位置検出部、22…ターゲット検出部、23…ターゲット距離検出部、24…位置補正部、25…進行方向検出部、26…車線進行距離検出部、27データ生成部、28…前方注視点算出部、29…車両制御部、2204、2206、2208…マッチング部、6301…記憶部、M…車両

Claims (2)

  1. 自車両が走行している道路の路面を撮像した画像から道路標示を認識する認識処理を実行可能な道路標示認識装置であって、
    前記自車両の位置である自車位置を検出する検出手段と、
    地図情報を記憶する第1記憶手段と、
    (i)各道路標示の位置を示す位置情報、及び、(ii)認識対象の道路標示の複数の特徴部位の一部に対応する一又は複数の第1のテンプレートと、前記複数の特徴部位の他の一部に対応し、前記第1のテンプレートとは種別の異なる複数の第2のテンプレートとを含んでなるテンプレートセットを記憶する第2記憶手段と、
    前記検出された自車位置、前記地図情報及び前記位置情報に基づいて、自車両と一の道路標示との間の距離が所定の範囲内である場合に、前記一の道路標示を認識対象とした前記認識処理として、(i)前記画像から、前記一の道路標示に係る前記一又は複数の第1のテンプレートに対応する特徴部位の検出を行い、(ii)前記画像から前記一又は複数の第1のテンプレートの少なくとも一つに対応する特徴部位が検出されたことを条件に、前記複数の第2のテンプレートのうち、前記検出された特徴部位よりも前記自車両の進行方向前側に位置する一又は複数の第2のテンプレートに対応する特徴部位の検出を行う認識手段と、
    を備え、
    前記一又は複数の第1のテンプレートと前記複数の第2のテンプレートとは、互いの相対的な位置関係が既知であり、且つ、前記複数の第2のテンプレートは、前記認識対象の道路標示が設けられている車線に係る進行方向において、前記一又は複数の第1のテンプレートより奥側に位置しており、
    前記一又は複数の第1のテンプレート各々は、前記画像から対応する特徴部位が検出されることにより、前記認識手段に前記画像から前記複数の第2のテンプレートの少なくとも一つに対応する特徴部位の検出を開始させるテンプレートであり、
    前記認識対象の道路標示は、複数の数字の組合せからなるパターンであり、
    前記一又は複数の第1のテンプレートには、前記パターンを構成する複数の数字のうち一の数字に係る特徴部位の一部にのみ対応するテンプレートが含まれており、
    前記複数の第2テンプレートには、前記パターンを構成する複数の数字のうち一の数字に係る特徴部位の一部にのみ対応するテンプレートが含まれている
    ことを特徴とする道路標示認識装置。
  2. 前記認識手段は、前記一又は複数の第2のテンプレートに対応する特徴部位が検出されたことを条件に、前記認識対象の道路標示を認識したと判定することを特徴とする請求項1に記載の道路標示認識装置。
JP2016203848A 2016-10-17 2016-10-17 道路標示認識装置 Active JP6822815B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2016203848A JP6822815B2 (ja) 2016-10-17 2016-10-17 道路標示認識装置
DE102017123219.2A DE102017123219A1 (de) 2016-10-17 2017-10-06 Strassenmarkierungserkennungsvorrichtung
CN201710953839.0A CN107957258B (zh) 2016-10-17 2017-10-13 道路标记识别装置
US15/784,457 US10679077B2 (en) 2016-10-17 2017-10-16 Road marking recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016203848A JP6822815B2 (ja) 2016-10-17 2016-10-17 道路標示認識装置

Publications (2)

Publication Number Publication Date
JP2018067063A JP2018067063A (ja) 2018-04-26
JP6822815B2 true JP6822815B2 (ja) 2021-01-27

Family

ID=61764906

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016203848A Active JP6822815B2 (ja) 2016-10-17 2016-10-17 道路標示認識装置

Country Status (4)

Country Link
US (1) US10679077B2 (ja)
JP (1) JP6822815B2 (ja)
CN (1) CN107957258B (ja)
DE (1) DE102017123219A1 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7035945B2 (ja) * 2018-10-04 2022-03-15 トヨタ自動車株式会社 地図情報システム
JP7032280B2 (ja) * 2018-10-11 2022-03-08 トヨタ自動車株式会社 横断歩道標示推定装置
DE102019209226A1 (de) * 2019-06-26 2020-12-31 Volkswagen Aktiengesellschaft Verfahren, Computerprogramm und Vorrichtung zur Verarbeitung von durch ein Kraftfahrzeug erfassten Daten
US11210551B2 (en) * 2019-07-29 2021-12-28 Hong Kong Applied Science And Technology Research Institute Co., Ltd. Iterative multi-directional image search supporting large template matching
CN112825196B (zh) * 2019-11-20 2023-04-25 阿里巴巴集团控股有限公司 一种道路标记的确定方法、装置、存储介质及编辑平台
JP7111118B2 (ja) * 2020-01-29 2022-08-02 トヨタ自動車株式会社 地図生成用データ収集装置及び地図生成用データ収集方法
CN112598932A (zh) * 2020-12-11 2021-04-02 湖南汽车工程职业学院 一种基于车路协同技术的汽车防碰撞预警模型

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7979172B2 (en) * 1997-10-22 2011-07-12 Intelligent Technologies International, Inc. Autonomous vehicle travel control systems and methods
JP3777938B2 (ja) * 1999-12-13 2006-05-24 トヨタ自動車株式会社 画像認識装置および画像認識方法
JP4557288B2 (ja) * 2005-01-28 2010-10-06 アイシン・エィ・ダブリュ株式会社 画像認識装置及び画像認識方法、並びにそれを用いた位置特定装置、車両制御装置及びナビゲーション装置
JP4522387B2 (ja) * 2006-03-31 2010-08-11 トヨタ自動車株式会社 画像認識装置
JP4703605B2 (ja) * 2007-05-31 2011-06-15 アイシン・エィ・ダブリュ株式会社 地物抽出方法、並びにそれを用いた画像認識方法及び地物データベース作成方法
WO2009072507A1 (ja) * 2007-12-05 2009-06-11 Nec Corporation 路面標示認識装置,路面標示認識方法及び路面標示認識プログラム
JP4951481B2 (ja) 2007-12-10 2012-06-13 日立オートモティブシステムズ株式会社 路面標示認識装置
JP5090313B2 (ja) 2008-10-28 2012-12-05 日立オートモティブシステムズ株式会社 路面標示認識装置
TWI420906B (zh) * 2010-10-13 2013-12-21 Ind Tech Res Inst 興趣區域之追蹤系統與方法及電腦程式產品
US9053372B2 (en) * 2012-06-28 2015-06-09 Honda Motor Co., Ltd. Road marking detection and recognition
JP6308546B2 (ja) 2013-11-21 2018-04-11 国立大学法人北陸先端科学技術大学院大学 凍結による細胞内分子導入法
JP6325806B2 (ja) * 2013-12-06 2018-05-16 日立オートモティブシステムズ株式会社 車両位置推定システム
KR101906951B1 (ko) * 2013-12-11 2018-10-11 한화지상방산 주식회사 차선 검출 시스템 및 차선 검출 방법
JP6235528B2 (ja) 2015-05-15 2017-11-22 トヨタ自動車株式会社 車両制御装置
KR20180061686A (ko) * 2016-11-30 2018-06-08 삼성전자주식회사 자율 주행 경로 생성 방법 및 그 장치
EP3576400B1 (en) * 2017-01-25 2024-05-29 Panasonic Intellectual Property Management Co., Ltd. Operation control system and operation control method
US10522038B2 (en) * 2018-04-19 2019-12-31 Micron Technology, Inc. Systems and methods for automatically warning nearby vehicles of potential hazards

Also Published As

Publication number Publication date
CN107957258A (zh) 2018-04-24
JP2018067063A (ja) 2018-04-26
DE102017123219A1 (de) 2018-04-19
US20180107884A1 (en) 2018-04-19
US10679077B2 (en) 2020-06-09
CN107957258B (zh) 2020-07-14

Similar Documents

Publication Publication Date Title
JP6822815B2 (ja) 道路標示認識装置
US10384679B2 (en) Travel control method and travel control apparatus
RU2703440C1 (ru) Способ и устройство управления движением
JP6269552B2 (ja) 車両走行制御装置
CN108628324B (zh) 基于矢量地图的无人车导航方法、装置、设备及存储介质
US11092442B2 (en) Host vehicle position estimation device
KR102086270B1 (ko) 주행 제어 장치의 제어 방법 및 주행 제어 장치
KR20220033477A (ko) 자동 발렛 파킹 시스템의 위치 추정 장치 및 방법
CN109791408B (zh) 自身位置推定方法及自身位置推定装置
JP7077967B2 (ja) 走行車線推定装置、走行車線推定方法、及び制御プログラム
JP6989284B2 (ja) 車両位置推定装置及びプログラム
JP2018048949A (ja) 物体識別装置
KR101281499B1 (ko) 자동차 자동 운행 시스템
JP6943127B2 (ja) 位置補正方法、車両制御方法及び位置補正装置
JP6819441B2 (ja) 物標位置推定方法及び物標位置推定装置
US20220194397A1 (en) Autonomous driving system and abnormality determination method
JP7463997B2 (ja) 車両制御装置、車両制御方法及び車両制御用コンピュータプログラム
JP6604052B2 (ja) 走路境界推定装置及び走路境界推定方法
JP7067290B2 (ja) 軌道設定装置
US11867526B2 (en) Map generation apparatus
JP7491281B2 (ja) 走行車線計画装置、走行車線計画用コンピュータプログラム及び走行車線計画方法
US20230322258A1 (en) Vehicle control device, storage medium for storing computer program for vehicle control, and method for controlling vehicle
US20240059288A1 (en) Vehicle control device, storage medium storing computer program for vehicle control, and method for controlling vehicle
US20230242113A1 (en) Vehicle control device, storage medium for storing computer program for vehicle control, and method for controlling vehicle
US20230260294A1 (en) Apparatus, method, and computer program for estimating road edge

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180420

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190522

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190528

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190726

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190917

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191126

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20191126

C11 Written invitation by the commissioner to file amendments

Free format text: JAPANESE INTERMEDIATE CODE: C11

Effective date: 20191210

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20200117

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20200121

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20200131

C211 Notice of termination of reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C211

Effective date: 20200204

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20200414

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20200811

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20201020

C23 Notice of termination of proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C23

Effective date: 20201117

C03 Trial/appeal decision taken

Free format text: JAPANESE INTERMEDIATE CODE: C03

Effective date: 20201215

C30A Notification sent

Free format text: JAPANESE INTERMEDIATE CODE: C3012

Effective date: 20201215

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210107

R151 Written notification of patent or utility model registration

Ref document number: 6822815

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250