JP7183729B2 - 撮影異常診断装置 - Google Patents

撮影異常診断装置 Download PDF

Info

Publication number
JP7183729B2
JP7183729B2 JP2018220646A JP2018220646A JP7183729B2 JP 7183729 B2 JP7183729 B2 JP 7183729B2 JP 2018220646 A JP2018220646 A JP 2018220646A JP 2018220646 A JP2018220646 A JP 2018220646A JP 7183729 B2 JP7183729 B2 JP 7183729B2
Authority
JP
Japan
Prior art keywords
shape
vehicle
road
image
detection unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018220646A
Other languages
English (en)
Other versions
JP2020086956A (ja
Inventor
将尭 横田
佳 孫
尚宏 曽田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2018220646A priority Critical patent/JP7183729B2/ja
Priority to US16/690,250 priority patent/US11295429B2/en
Publication of JP2020086956A publication Critical patent/JP2020086956A/ja
Application granted granted Critical
Publication of JP7183729B2 publication Critical patent/JP7183729B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q9/00Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/04Mounting of cameras operative during drive; Arrangement of controls thereof relative to the vehicle
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/48Extraction of image or video features by mapping characteristic values of the pattern into a parameter space, e.g. Hough transformation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30168Image quality inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Quality & Reliability (AREA)
  • Mechanical Engineering (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Automation & Control Theory (AREA)
  • Human Computer Interaction (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Electromagnetism (AREA)
  • Traffic Control Systems (AREA)
  • Navigation (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Image Analysis (AREA)

Description

本発明は、撮影異常診断装置に関する。
近年、多くの車両に、車両の周囲を撮影する車載カメラが設けられている。斯かる車載カメラは、例えば、撮影された画像から検出された道路上の区画線の情報に基づいて、車両が車線内を走行できるようにステアリング操作を補助するレーンキープシステムや、車両が車線に近づいた場合にドライバに警告する車線逸脱警報システム等に用いられる(例えば、特許文献1)。
特開2013-196341号公報
ところで、車載カメラの前に設けられたガラス等の車載カメラ用カバーに局所的な傷や汚れが存在する場合、車載カメラで撮影された画像に局所的な歪みが生じている歪み領域ができる可能性がある。斯かる歪み領域は車外の様子を適切に表せていないため、歪み領域を含む画像の情報を信頼して区画線の推定等を行うと、区画線の推定等に誤差が生じる可能性がある。その結果、レーンキープシステムの適切なステアリング操作、車線逸脱警報システムの適切な警報等が行われなくなる。したがって、車載カメラによって撮影された画像内に歪み領域等の異常が存在するか否かを適切に診断することが必要になる。
上記課題に鑑みて、本発明の目的は、車載カメラによって撮影された画像内の歪み領域等の異常を適切に診断することができるようにすることにある。
本発明の要旨は以下のとおりである。
(1)車載カメラによって撮影された車両の前方又は後方の路面の画像内の区画線の形状を検出する区画線形状検出部と、車載カメラ以外の検出器の出力に基づいて車両が走行している道路の形状を推定する道路形状推定部と、前記道路の形状と前記区画線の形状とが一致しない前記画像内の領域を該画像中に局所的な歪みが生じている歪み領域であるとして検出する歪み領域検出部と、を備える。
本開示によれば、車載カメラによって撮影された画像内の歪み領域等の異常を適切に診断することができるようになる。
図1は、撮影異常診断装置が実装される車両の構成を概略的に示す図である。 図2は、ECUのハードウェア構成図である。 図3は、撮影異常検出処理に関するECUの機能ブロック図である。 図4は、車載カメラによって撮影された画像の例を示す図である。 図5は、車載カメラによって撮影された画像の例を示す、図4と同様な図である。 図6は、撮影異常診断処理を示すフローチャートである。 図7は、区画線形状検出処理を示すフローチャートである。 図8は、歪み領域検出処理を示すフローチャートである。
以下、図面を参照して、一つの実施形態に係る撮影異常診断装置ついて詳細に説明する。なお、以下の説明では、同様な構成要素には同一の参照番号を付す。
<車両の構成>
図1は、本実施形態に係る撮影異常診断装置が実装される車両の構成を概略的に示す図である。図1に示したように、車両1は、車載カメラ2、加速度センサ3、ヨーレートセンサ4、ステアリングホイール5、操舵角センサ6、GPS受信機7及び電子制御ユニット(ECU)8を備える。車載カメラ2、加速度センサ3、ヨーレートセンサ4、ステアリングホイール5、操舵角センサ6、GPS受信機7及びECU8は、CAN(Controller Area Network)等の規格に準拠した車内ネットワーク9を介して互いに通信可能に接続される。
車載カメラ2は、車両周囲の所定範囲を撮影してその範囲の画像を生成する。車載カメラ2は、レンズ及び撮像素子を含み、例えばCMOS(相補型金属酸化膜半導体)カメラ又はCCD(電荷結合素子)カメラである。
本実施形態では、車載カメラ2は、車両1に設けられ、車両1の周囲を撮影する。具体的には、車載カメラ2は、車両1のフロントウィンドウの内側に設けられ、車両1の前方領域を撮影する。例えば、車載カメラ2は車両1のフロントウィンドウの中央上部に設けられる。フロントウィンドウは、車載カメラ2のレンズを保護する車載カメラ用カバーとして機能する。
車載カメラ2は、車両1のイグニッションスイッチがオンである間、所定の撮影間隔(例えば1/30秒~1/10秒)毎に車両1の前方領域を撮影し、前方領域の画像を生成する。車載カメラ2によって生成された画像は、車載カメラ2から車内ネットワーク9を介してECU8に送信される。車載カメラ2によって生成される画像はカラー画像であってもよいし、グレー画像であってもよい。なお、車載カメラ2は車両1の後方領域を撮影するように設けられてもよい。
加速度センサ3は、車両1に発生する加速度を検出する。本実施形態では、加速度センサ3は、車両1の前後方向、横方向、上下方向の加速度を検出することができる。ヨーレートセンサ4は、車両1が鉛直軸線回りで回転する角加速度(ヨーレート)を検出する。加速度センサ3及びヨーレートセンサ4は、いずれも任意の位置において車両1のボディに取り付けられている。なお、加速度センサ3とヨーレートセンサ4とは別々のセンサではなく、加速度とヨーレートを検出する一体的な一つのセンサであってもよい。
ステアリングホイール5は、車両1の運転席に取り付けられ、ドライバによって回動操作されると車両1の前輪の向きが変化するように構成されている。操舵角センサ6は、ステアリングホイール5の回動角度を検出する。操舵角センサ6は、車両1が直進するような前輪の向きに対応するステアリングホイール5の操舵角をゼロ度とし、このゼロ度のときのステアリングホイール5の操舵角に対する現在のステアリングホイール5の角度を出力する。加速度センサ3、ヨーレートセンサ4及び操舵角センサ6は、共に車内ネットワーク9を介してECU8に信号を送信する。
GPS受信機7は、3個以上のGPS衛星から信号を受信して、車両1の現在位置(例えば、車両1の緯度及び経度)を検出するための装置である。GPS受信機7は、検出された車両1の現在位置情報をECU8へ送信する。
ECU8は、車載カメラ2による撮影に異常を診断する撮影異常診断装置として機能する。加えて、ECU8は、車載カメラ2によって撮影された画像に基づいて運転支援処理を行う運転支援装置として機能するように構成されてもよい。運転支援処理としては、例えば、車両1が区画線内を走行できるようにステアリング操作を補助することや、車両1が区画線にドライバに警告すること等が考えられる。或いは、ECU8は、車載カメラ2によって撮影された画像に基づいて車両1が完全に又は部分的に自律運転されるように車両1を制御してもよい。
図2は、ECU6のハードウェア構成図である。図2に示したように、ECU6は、通信インターフェース21と、メモリ22と、プロセッサ23とを有する。通信インターフェース21及びメモリ22は信号線を介してプロセッサ23に接続されている。
通信インターフェース21は、ECU6を車内ネットワーク9に接続するためのインターフェース回路を有する。すなわち、通信インターフェース21は車内ネットワーク9を介して車載カメラ2、加速度センサ3、ヨーレートセンサ4、操舵角センサ6及びGPS受信機7に接続される。そして、通信インターフェース21は、車載カメラ2から画像を受信し、受信した画像をプロセッサ23に伝送する。同様に、通信インターフェース21は、加速度センサ3、ヨーレートセンサ4、操舵角センサ6からそれぞれ車両1の加速度情報、ヨーレート情報及び操舵角情報を受信し、受信した情報をプロセッサ23に伝送する。
メモリ22は、例えば、揮発性の半導体メモリ及び不揮発性の半導体メモリを有する。メモリ22は、プロセッサ23によって各種処理が実行されるときに使用される各種データ等を記憶する。例えば、メモリ22は、車載カメラ2から受信した画像、後述する区画線の形状に関する情報、地図情報等を記憶する。また、メモリ22は、プロセッサ23によって各種処理を実行するためのコンピュータプログラムを記憶する。
プロセッサ23は、一つ又は複数のCPU(Central Processing Unit)及びその周辺回路を有する。プロセッサ23は、更にGPU(Graphics Processing Unit)を有していてもよい。プロセッサ23は、車両1のイグニッションスイッチがオンである間、車載カメラ2から画像を受信する毎に、撮影異常診断処理を実行する。なお、プロセッサ23は、論理演算ユニット又は数値演算ユニットのような他の演算回路を更に有していてもよい。
また、プロセッサ23は、車載カメラ2によって撮影された画像に基づいて、車両1が自律的に運転されるように車両1を制御する車両制御処理を実行するように構成されてもよい。
<撮影異常検出処理>
図3は、撮影異常検出処理に関するECU8の機能ブロック図である。ECU8は、区画線形状検出部31、道路形状推定部32及び歪み領域検出部33を有する。ECU6のこれら機能ブロックは、例えば、プロセッサ23上で動作するコンピュータプログラムにより実現される機能モジュールである。なお、これら機能ブロックは、プロセッサ23に設けられた専用の演算回路であってもよい。
区画線形状検出部31は、車載カメラ2によって撮影された車両1の前方の路面の画像内の区画線の形状を検出する。区画線形状検出部31には、車載カメラ2によって撮影された画像が所定の撮影間隔毎に入力される。区画線形状検出部31では、後述する区画線形状検出処理により、入力された各画像に表されている区画線が検出される。そして、区画線形状検出部31からは、区画線102が表されている画像の各領域毎に、画像に表されている区画線の形状が出力される。
図4は、車載カメラ2によって撮影された画像の例を示す図である。図4に示した例では、内容を理解し易くするために、撮影された画像100のうち道路101及び道路上の車両110のみが表されている。
図4に示した例では、画像100には三つの区画線102が表されている。特に、図4に示した例では、画像100に表されている区画線102は全て直線状である。したがって、区画線形状検出部31は、区画線102が表されている画像の各領域について、区画線102の形状が直線状である旨を出力する。
図5は、車載カメラ2によって撮影された画像の例を示す、図4と同様な図である。特に、図5に示した例では、画像200は、車両1の周囲の状況が図4に示した画像を撮影した時と同じ状況であるときに撮影されている。したがって、画像200に表されている区画線202は基本的に直線状である。
しかしながら、図5に示した例は、車載カメラ2の前方に設けられたフロントウィンドウに傷が存在することにより、画像200の一部の領域205に局所的な歪みが生じている場合を示している。また、この歪み領域205は、画像200に表されている一つの区画線202上に位置する。この結果、図5に示した例では、歪み領域205において、区画線202は湾曲しているように画像200に表されている。したがって、区画線形状検出部31は、歪み領域205については、画像に表されている区画線202が湾曲していること及びこのときの曲率を出力する。加えて、区画線形状検出部31は、歪み領域205以外の領域については、区画線202の形状が直線状である旨を出力する。
道路形状推定部32は、車載カメラ2以外の検出器の出力に基づいて車両が走行している道路の形状を推定する。車載カメラ2以外の検出器としては、道路の形状を推定するのに用いることができる様々な検出器が用いられる。具体的には、斯かる検出器としては、例えば、加速度センサ3、ヨーレートセンサ4、操舵角センサ6又はGPS受信機7が用いられる。なお、これらセンサは単なる例示であり、道路の形状を推定するのに用いることができれば他の検出器が用いられてもよい。
検出器として加速度センサ3を用いる場合、道路形状推定部32は、車両1の横方向の加速度に基づいて、車両1が現在走行している道路の形状を推定する。車両1の横方向の加速度がほぼゼロである場合には、道路形状推定部32は車両1が現在走行している道路の形状は直線であると推定する。一方、車両1の横方向の加速度がゼロではない場合には、道路形状推定部32は、車両1が現在走行している道路の形状はカーブであると推定すると共に、加速度の大きさに基づいてカーブの曲率を算出する。また、車両1の横方向の加速度の変化量が一定である場合には、道路形状推定部32は、車両1が現在走行している道路の形状はクロソイド形状であると推定する。
検出器としてヨーレートセンサ4を用いる場合、道路形状推定部32は、車両1のヨーレートに基づいて、車両1が現在走行している道路の形状を推定する。車両1のヨーレートがほぼゼロである場合には、道路形状推定部32は車両1が現在走行している道路の形状は直線であると推定する。一方、車両1のヨーレートがゼロではない場合には、道路形状推定部32は、車両1が現在走行している道路の形状はカーブであると推定すると共に、ヨーレートの大きさに基づいてカーブの曲率を算出する。また、ヨーレートの変化量が一定である場合には、道路形状推定部32は、車両1が現在走行している道路の形状はクロソイド形状であると推定する。
検出器として操舵角センサ6を用いる場合、道路形状推定部32は、ステアリングホイール5の操舵角に基づいて、車両1が現在走行している道路の形状を推定する。ステアリングホイール5の操舵角がほぼゼロである場合(ステアリングホイール5が直進方向を向いている場合)には、道路形状推定部32は車両1が現在走行している道路の形状は直線であると推定する。一方、ステアリングホイール5の操舵角がゼロではない場合には、道路形状推定部32は、車両1が現在走行している道路の形状はカーブであると推定すると共に、操舵角の大きさに基づいてカーブの曲率を算出する。また、操舵角の変化量が一定である場合には、道路形状推定部32は、車両1が現在走行している道路の形状はクロソイド形状であると推定する。
検出器としてGPS受信機7を用いる場合、道路形状推定部32は、車両1の現在位置と、メモリ22に記憶されている地図情報とに基づいて、車両1が現在走行している道路の形状を推定する。
なお、道路の形状を推定するのにあたっては、これら検出器のうち一つの検出器のみが用いられてもよいし、複数の検出器が用いられてもよい。複数の検出器を用いる場合には、複数の検出器の検出結果から総合的に道路の形状が推定される。このように複数の検出器を用いることにより、道路の形状の推定精度を高めることができる。
歪み領域検出部33は、道路形状推定部32によって推定された道路の形状と、区画線形状検出部31によって検出された区画線の形状とが一致しない画像内の領域を画像中に局所的な歪みが生じている歪み領域であるとして検出する。
本実施形態では、歪み領域検出部33は、区画線形状検出部31によって過去の画像から検出された区画線の形状と、道路形状推定部32によって推定された現在の道路形状とを比較する。具体的には、過去の画像の部分毎に異なる時期に撮影された過去の画像から検出された区画線の形状と、現在の道路形状とが比較される。
例えば、歪み領域検出部33は、道路形状推定部32によって推定された現在の道路形状と、1秒前に撮影された画像の最も下方に位置する部分(図4の部分P1)に表された区画線の形状とを比較する。加えて、歪み領域検出部33は、現在の道路形状と、2秒前に撮影された画像の下から2番目に位置する部分(図4の部分P2)に表された区画線の形状とを比較する。同様にして、歪み領域検出部33は、現在の道路形状と、3秒前及び4秒前に撮影された画像の下から3番目及び4番目に位置する部分(図4の部分P2)に表された区画線の形状とを比較する。
ここで、車載カメラ2によって撮影された画像内の任意の位置は、車両1が現在走行している位置ではなく、車両1が将来走行する予定の位置を表している。したがって、本実施形態では、歪み領域検出部33は、過去の画像から検出された、車両1が現在走行している道路における区画線の形状と、現在の道路の形状とを比較していることになる。
道路形状推定部32によって推定された道路の形状と区画線形状検出部31によって検出された区画線の形状とを比較すると、車載カメラ2によって撮影された画像に局所的な歪みが生じていなければ、両者の形状は一致する。したがって、例えば、直線道路の走行中に車載カメラ2によって図4に示したような画像が撮影された場合には、道路の形状と区画線の形状とは共に直線形状となり一致する。ところが、直線道路の走行中に車載カメラ2によって図5に示したような画像が撮影された場合には、歪み領域205に表されている区画線の形状は、道路の形状とは異なったものとなる。したがって、歪み領域検出部33は、道路の形状と区画線の形状とが一致しない画像内の領域(歪み領域205)には局所的な歪みが生じていると判断する。
歪み領域検出部33によって歪み領域が検出された場合には、ECU8は、車載カメラ2の画像を用いて行う各種処理に歪み領域内の画像を利用しないようにする。例えば、特許文献1に記載されているように画像の近傍領域に表された区画線の形状に基づいて遠方領域に表された区画線の形状を推定するような場合には、歪み領域に表された画像(区画線)は遠方領域に表された区画線の推定には用いられない。また、画像に表された標識や路面表示の認識を行う場合には、歪み領域検出部33によって歪み領域が検出されたときには、歪み領域内の画像はこれらの認識には用いられない。また、車載カメラ2の画像を用いて運転支援処理や自動運転を行っている場合には、歪み領域検出部33によって歪み領域が検出されたときには、運転支援処理や自動運転が停止される。加えて、歪み領域検出部33によって歪み領域が検出された場合には、ECU8は、任意のインターフェースを介してドライバに対して警告を発するように構成されてもよい。
本実施形態によれば、このように道路形状推定部32によって推定された道路と区画線形状検出部31によって検出された区画線の形状とを比較することにより、画像内の歪み領域等の異常を適切に診断することができるようになる。
<具体的な制御>
次に、図6~図8を参照して、撮影異常診断処理について説明する。図6は、撮影異常診断処理を示すフローチャートである。図6に示した撮影異常診断処理は、ECU8のプロセッサ23によって所定の実行間隔で繰り返し実行される。所定の実行間隔は、例えば、車載カメラ2からECU8に画像情報が送信される間隔である。
まず、ステップS11では、ECU8が、車載カメラ2から通信インターフェース21を介して画像を取得する。同様に、ECU8は、各種センサから通信インターフェース21を介してセンサ出力を取得する。センサ出力としては、例えば、加速度センサ3、ヨーレートセンサ4、操舵角センサ6、GPS受信機7のうちの少なくともいずれか一つの出力が含まれる。
次いで、ステップS12では、区画線形状検出部31が、画像に表されている区画線の形状を検出する区画線形状検出処理を実行する。区画線形状検出処理により、各画像に表されている各区画線の形状が検出される。本実施形態では、各画像の下方から上方に向かって区切られた部分毎に、その部分に表された区画線の形状が検出される。検出された各画像の区画線の形状の情報は、将来の撮影異常診断処理に用いるために、メモリ22に保存される。
次いで、ステップS13では、道路形状推定部32が、車両1が現在走行している道路の形状を推定する。道路形状の推定は、上述したように、加速度センサ3、ヨーレートセンサ4、操舵角センサ6、GPS受信機7のうちの少なくともいずれか一つの出力に基づいて行われる。
次いで、ステップS14では、歪み領域検出部33が、画像中に局所的な歪みが生じている歪み領域を検出する歪み領域検出処理を実行する。歪み領域検出処理は、過去の区画線形状検出処理において算出されてメモリ22に保存されていた過去の画像に表された区画線の形状と、道路形状推定部32によって推定された道路形状とに基づいて行われる。歪み領域検出処理により、歪み領域の検出が行われると、制御ルーチンが終了せしめられる。
図7は、図6のステップS12で行われる区画線形状検出処理を示すフローチャートである。図7に示した区画線形状検出処理は、図6のフローチャートがステップS12に到達する毎に実行される。
まず、ステップS21では、区画線形状検出部31は、車載カメラ2から取得した画像の中のエッジ成分を抽出する。特に、本実施形態では、区画線形状検出部31は、画像に表された道路内におけるエッジ成分を抽出する。エッジの抽出は公知の様々な手法によって行われる。具体的には、例えば、ラプラシアン法、ソーベル法、キャニー法等によって画像内のエッジ成分が抽出される。これにより、区画線と道路との境界がエッジ成分として抽出される。
次いで、ステップS22では、区画線形状検出部31は、ステップS21で抽出されたエッジ成分について一般化ハフ変換により任意の形状の図形(直線、任意の形状の曲線、等)を検出する。具体的には、任意の形状及び位置の図形について、投票数が一定数以上になった図形が画像内に表れている図形として検出される。
次いで、ステップS23では、区画線形状検出部31は、ステップS22において検出された多数の図形から区画線と道路の境界を表す図形を抽出する。具体的には、例えば、ステップS22において抽出された任意の図形の両側におけるコントラストの比率や輝度の比率が所定値以上である場合や、抽出された一つの図形にほぼ平行にもう一つの同様な図形が抽出されている場合に、その図形は区画線の境界を表す図形であるとして抽出される。
その後、ステップS24では、区画線形状検出部31は、ステップS23において区画線の境界を表すとして抽出された図形に基づいて、区画線の形状が検出される。本実施形態では、区画線の形状の検出は、画像の下方から上方に向かって区切られた各部分毎に行われる。このようにして検出された各画像内に表されている区画線の形状は、画像の撮影時刻と共にメモリ22に保存される。
図8は、図6のステップS14で行われる歪み領域検出処理を示すフローチャートである。図8に示した歪み領域検出処理は、図6のフローチャートがステップS14に到達する毎に実行される。
まず、ステップS31では、歪み領域検出部33は、図6のステップS13において道路形状推定部32によって推定された現在の道路形状を取得する。次いで、ステップS32では、歪み領域検出部33は、図6のステップS12において実行された区画線形状検出処理によって検出された区画線の形状を取得する。特に、本実施形態では、歪み領域検出部33は、過去n秒間に撮影された画像に表された区画線の形状を取得する。
次いで、ステップS33では、歪み領域検出部33は、車両1が現在走行している道路に対応する各画像の部分における区画線の形状を抽出する。歪み領域検出部33は、例えば、1秒前に撮影された画像の最も下方に位置する部分(図4の部分P1)に表された区画線の形状と、2秒前に撮影された画像の下から2番目に位置する部分(図4の部分P2)に表された区画線の形状と、を抽出する。同様に、歪み領域検出部33は、n秒前に撮影された画像の下からn番目に位置する部分に表された区画線の形状を抽出する。
なお、撮影からの時間と画像内の位置との関係は、車両1の速度や、車両1の走行している道路の傾斜等によって調整される。具体的には、撮影からの時間と画像内の位置との関係は、画像に表された道路の各部分と、車両1が現在走行している道路とが対応するように調整される。したがって、車両1の速度が速い場合には、撮影からの時間が相対的に短くなるように調整される。
次いで、ステップS34では、歪み領域検出部33は、ステップS31で抽出された現在の道路の形状と、ステップS32において抽出された対応する区画線の形状とがほぼ一致するか否かを判定する。具体的には、例えば、現在の道路の形状における曲率と区画線の形状における曲率との比が所定の閾値以下である場合には、両者はほぼ一致すると判定される。
ステップS34において、現在の道路の形状と区画線の形状とが全ての画像において一致すると判定された場合には、制御ルーチンが終了せしめられる。一方、ステップS34において、現在の道路の形状と区画線の形状とが一部の画像において一致しないと判定された場合には、ステップS35へと進む。
ステップS35では、歪み領域検出部33は、区画線の形状が現在の道路の形状と一致しない画像において、対象となる区画線が表されていた領域に、局所的な歪みが生じていると判断する。例えば、ステップS34において、2秒前に撮影された画像の下から2番目に位置する部分(図4の部分P2)に表された区画線の形状と道路の形状とが一致しないと判定された場合には、ステップS35において歪み領域検出部33は画像の下から2番目に位置する部分において区画線が表された領域に局所的な歪みが生じていると判定する。
<効果>
上記実施形態によれば、車載カメラ2によって撮影された画像に表された区画線のみならず、車載カメラ2以外の検出器の出力に基づいて推定された車両1が走行している道路の形状に基づいて、歪み領域が検出される。したがって、車載カメラによって撮影された画像内の歪み領域等の異常を適切に診断することができる。
<変形例>
以上、本発明に係る好適な実施形態を説明したが、本発明はこれら実施形態に限定されるものではなく、特許請求の範囲の記載内で様々な修正及び変更を施すことができる。
例えば、上記実施形態では、区画線形状検出部31は、直線のみならず、任意の形状の図形を検出するように構成されている。これに対して、区画線形状検出部31は、直線のみを検出するように構成されてもよい。この場合、車両1が直線道路を走行している場合にのみ異常診断が行われ、車両1がカーブを走行している場合には異常診断は行われない。また、この場合、区画線形状検出部31は、一般化ハフ変換ではなく、ハフ変換によりエッジ成分について直線を検出することになるため、区画線形状検出部31における演算負荷を低く抑えることができる。
また、上記実施形態では、区画線形状検出部31は、車載カメラ2から画像が送信されてくる毎に区画線の形状を検出している。しかしながら、例えば、上述したように区画線形状検出部31が直線のみを検出するように構成されている場合には、車載カメラ2によって撮影された全ての画像を一時的にメモリ22に保存すると共に、道路形状推定部32によって車両1が現在走行している道路の形状が直線である場合にのみ、その直前数秒間の画像について区画線の形状の検出を行うようにしてもよい。この場合、車載カメラ2から送信される全ての画像について区画線形状の検出処理を行う必要がなくなるため、区画線形状検出部31における演算負荷を低く抑えることができる。
加えて、上記実施形態では、歪み領域検出部33は、道路形状推定部によって推定された現在の道路形状と、過去の画像に表された区画線の形状とを比較している。しかしながら、歪み領域検出部33は、道路形状推定部によって推定された過去の道路形状と、過去の画像に表された区画線の形状とを比較してもよい。ただし、この場合でも、歪み領域検出部33は、過去の画像から検出された、車両1が過去の或る時点に走行していた道路における区画線の形状と、上記過去の或る時点に走行していた道路の形状とを比較することが必要である。
また、上記実施形態では、車載カメラ2は車両1の前方領域を撮影しており、区画線形状検出部31は車両1の前方の路面の画像内の区画線の形状を検出する。しかしながら、車載カメラ2は車両1の後方領域を撮影してもよく、この場合、区画線形状検出部31は車両1の後方の路面の画像内の区画線の形状を検出する。
さらに、上記実施形態では、歪み領域検出部33は、道路形状推定部によって推定された道路形状と、過去の画像に表された区画線の形状とを比較している。しかしながら、歪み領域検出部33は、道路形状推定部によって推定された道路形状に対応する形状の仮想的な区画線を各画像上に基準線として投影し、この投影された基準線と画像内に表されている区画線との距離が所定の閾値以上離れている場合に、その領域には局所的な歪みが生じていると判断してもよい。
1 車両
2 車載カメラ
3 加速度センサ
4 ヨーレートセンサ
6 操舵角センサ
7 GPS受信機
8 電子制御ユニット(ECU)
31 区画線形状検出部
32 道路形状推定部
33 歪み領域検出部

Claims (1)

  1. 車載カメラによって撮影された車両の前方又は後方の路面の画像内の区画線の形状を検出する区画線形状検出部と、
    加速度センサによって検出された前記車両の横方向の加速度、ヨーレートセンサによって検出された前記車両のヨーレート及び操舵角センサによって検出されたステアリングホイールの操舵角のうちの少なくとも何れか一つのみに基づいて車両が走行している道路の形状を推定する道路形状推定部と、
    前記道路の形状と前記区画線の形状とが一致しない前記画像内の領域を該画像中に局所的な歪みが生じている歪み領域であるとして検出する歪み領域検出部と、を備える、撮影異常診断装置。
JP2018220646A 2018-11-26 2018-11-26 撮影異常診断装置 Active JP7183729B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018220646A JP7183729B2 (ja) 2018-11-26 2018-11-26 撮影異常診断装置
US16/690,250 US11295429B2 (en) 2018-11-26 2019-11-21 Imaging abnormality diagnosis device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018220646A JP7183729B2 (ja) 2018-11-26 2018-11-26 撮影異常診断装置

Publications (2)

Publication Number Publication Date
JP2020086956A JP2020086956A (ja) 2020-06-04
JP7183729B2 true JP7183729B2 (ja) 2022-12-06

Family

ID=70769959

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018220646A Active JP7183729B2 (ja) 2018-11-26 2018-11-26 撮影異常診断装置

Country Status (2)

Country Link
US (1) US11295429B2 (ja)
JP (1) JP7183729B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7440237B2 (ja) 2019-10-16 2024-02-28 トヨタ自動車株式会社 表示装置
JP6968475B1 (ja) * 2021-06-03 2021-11-17 望 窪田 情報処理方法、プログラム及び情報処理装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004310525A (ja) 2003-04-08 2004-11-04 Toyota Motor Corp 車両用画像処理装置
JP2007004669A (ja) 2005-06-27 2007-01-11 Honda Motor Co Ltd 車両及び車線認識装置
JP2014104853A (ja) 2012-11-27 2014-06-09 Clarion Co Ltd 車載用制御装置
US20170261327A1 (en) 2016-03-10 2017-09-14 Volvo Car Corporation Method and system for estimating a boundary of a road
JP2018022206A (ja) 2016-08-01 2018-02-08 三菱電機株式会社 車線区画線検知補正装置、車線区画線検知補正方法、及び自動運転システム

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5926080B2 (ja) * 2012-03-19 2016-05-25 株式会社日本自動車部品総合研究所 走行区画線認識装置およびプログラム
CN104508726B (zh) * 2012-07-27 2017-05-03 日产自动车株式会社 三维物体检测装置和三维物体检测方法
US9751534B2 (en) * 2013-03-15 2017-09-05 Honda Motor Co., Ltd. System and method for responding to driver state
US9892328B2 (en) * 2014-06-18 2018-02-13 Mobileye Vision Technologies Ltd. Hazard detection from a camera in a scene with moving shadows
US10078133B2 (en) * 2014-08-15 2018-09-18 Aeye, Inc. Method and system for ladar transmission with closed loop feedback control of dynamic scan patterns
US9892296B2 (en) * 2014-11-12 2018-02-13 Joseph E. Kovarik Method and system for autonomous vehicles
US10077050B2 (en) * 2016-05-24 2018-09-18 GM Global Technology Operations LLC Automated driving system for evaluating lane cut-out and method of using the same
US10369994B2 (en) * 2016-07-20 2019-08-06 Ford Global Technologies, Llc Rear camera stub detection
CN110325823B (zh) * 2017-01-12 2023-08-29 御眼视觉技术有限公司 基于规则的导航
US10549762B2 (en) * 2017-07-31 2020-02-04 GM Global Technology Operations LLC Distinguish between vehicle turn and lane change
US10628671B2 (en) * 2017-11-01 2020-04-21 Here Global B.V. Road modeling from overhead imagery
JP6643297B2 (ja) * 2017-11-16 2020-02-12 株式会社Subaru 運転支援装置
JP6760251B2 (ja) * 2017-12-15 2020-09-23 株式会社デンソー 道路地図生成システム及び道路地図生成方法
CN108470159B (zh) * 2018-03-09 2019-12-20 腾讯科技(深圳)有限公司 车道线数据处理方法、装置、计算机设备和存储介质
KR102595897B1 (ko) * 2018-08-27 2023-10-30 삼성전자 주식회사 차선 결정 방법 및 장치
US10762360B2 (en) * 2018-11-19 2020-09-01 Waymo Llc Automatically detecting unmapped drivable road surfaces for autonomous vehicles

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004310525A (ja) 2003-04-08 2004-11-04 Toyota Motor Corp 車両用画像処理装置
JP2007004669A (ja) 2005-06-27 2007-01-11 Honda Motor Co Ltd 車両及び車線認識装置
JP2014104853A (ja) 2012-11-27 2014-06-09 Clarion Co Ltd 車載用制御装置
US20170261327A1 (en) 2016-03-10 2017-09-14 Volvo Car Corporation Method and system for estimating a boundary of a road
JP2018022206A (ja) 2016-08-01 2018-02-08 三菱電機株式会社 車線区画線検知補正装置、車線区画線検知補正方法、及び自動運転システム

Also Published As

Publication number Publication date
JP2020086956A (ja) 2020-06-04
US11295429B2 (en) 2022-04-05
US20200167906A1 (en) 2020-05-28

Similar Documents

Publication Publication Date Title
US11657604B2 (en) Systems and methods for estimating future paths
US11745659B2 (en) Vehicular system for controlling vehicle
EP3608635A1 (en) Positioning system
US10325171B2 (en) Object detection device, driving assistance device, object detection method, and object detection program
JP6137081B2 (ja) 車載機器
WO2015125590A1 (ja) 外界認識システム、車両、及びカメラの汚れ検出方法
US9953227B2 (en) In-vehicle image processing device
WO2015118806A1 (ja) 画像解析装置、および画像解析方法
CN113160594B (zh) 变化点检测装置以及地图信息发布***
EP3140777A1 (en) Method for performing diagnosis of a camera system of a motor vehicle, camera system and motor vehicle
EP3935560A1 (en) Method for training and using a neural network to detect ego part position
US20200090347A1 (en) Apparatus for estimating movement information
JP2012166705A (ja) 車載カメラレンズ用異物付着判定装置
JP7426174B2 (ja) 車両周囲画像表示システム及び車両周囲画像表示方法
JP7183729B2 (ja) 撮影異常診断装置
WO2018149539A1 (en) A method and apparatus for estimating a range of a moving object
JP2020060899A (ja) 車載カメラのキャリブレーション装置
CN109345591A (zh) 一种车辆自身姿态检测方法和装置
WO2015182148A1 (ja) 物体検出装置および物体検出装置を設置した車両
JP6288204B1 (ja) 車両用制限速度検出装置
CN113170057B (zh) 摄像部控制装置
WO2017122688A1 (ja) 車載カメラのレンズ異常検出装置
JP5040831B2 (ja) 車両用撮影装置および撮影方法
US20190279385A1 (en) Vision system and method for a motor vehicle
US20190185016A1 (en) Vehicle position attitude calculation apparatus and vehicle position attitude calculation program

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20210521

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210614

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20210521

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220527

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220531

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220627

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221025

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221107

R151 Written notification of patent or utility model registration

Ref document number: 7183729

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151