JP7391117B2 - Vehicle image processing device and vehicle image processing method - Google Patents

Vehicle image processing device and vehicle image processing method Download PDF

Info

Publication number
JP7391117B2
JP7391117B2 JP2022001400A JP2022001400A JP7391117B2 JP 7391117 B2 JP7391117 B2 JP 7391117B2 JP 2022001400 A JP2022001400 A JP 2022001400A JP 2022001400 A JP2022001400 A JP 2022001400A JP 7391117 B2 JP7391117 B2 JP 7391117B2
Authority
JP
Japan
Prior art keywords
road surface
vehicle
point
flow
candidate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022001400A
Other languages
Japanese (ja)
Other versions
JP2023101069A (en
Inventor
将大 矢田
雄史 長谷川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2022001400A priority Critical patent/JP7391117B2/en
Publication of JP2023101069A publication Critical patent/JP2023101069A/en
Application granted granted Critical
Publication of JP7391117B2 publication Critical patent/JP7391117B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Road Signs Or Road Markings (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

本願は、車両用画像処理装置および車両用画像処理方法に関する。 The present application relates to a vehicle image processing device and a vehicle image processing method.

車両の走行、経年劣化などによって道路の路面は劣化し、路面にひび割れ、陥没などが生じることがある。また、車両の搭載物の落下、自然物の飛来などによって、路面上に落下障害物が生じることがある。これらの道路劣化および落下障害物は車両事故の原因となりうるため、車両の安全な走行を維持するためには、路面の状態の検査を定期的に行う必要がある。なお、以下、道路劣化および落下障害物などの路面上の静止物体を総称して道路異常と呼び、道路異常に関する情報を道路異常情報と呼ぶ。 Road surfaces deteriorate due to vehicle driving and deterioration over time, and cracks, depressions, etc. may occur on the road surface. In addition, falling obstacles may occur on the road surface due to falling objects from a vehicle or flying natural objects. These road deterioration and falling obstacles can cause vehicle accidents, so in order to maintain safe driving of vehicles, it is necessary to periodically inspect the condition of the road surface. Hereinafter, road deterioration and stationary objects on the road surface such as falling obstacles will be collectively referred to as road abnormalities, and information regarding road abnormalities will be referred to as road abnormality information.

特許文献1には、道路環境の保全を目的として、車両に搭載された撮像装置から得られる情報(以下、撮像情報と呼ぶ)に基づき、機械学習手法によって道路の路面の劣化を検出する路面検査装置および路面検査方法が開示されている。 Patent Document 1 describes a road surface inspection that uses machine learning techniques to detect road surface deterioration based on information obtained from an imaging device mounted on a vehicle (hereinafter referred to as imaging information) for the purpose of preserving the road environment. An apparatus and road surface inspection method are disclosed.

また、特許文献2には、移動体の撮像情報に基づき、事前に与えられた固定パラメータおよび実行時に与えられる変数パラメータを用いて撮像画像上の特徴点の座標を変換し、第1および第2のオプティカルフローの差異から、路面上の静止物体を検出する物体検出装置が開示されている。 Furthermore, Patent Document 2 discloses that the coordinates of feature points on a captured image are transformed using fixed parameters given in advance and variable parameters given at the time of execution based on imaging information of a moving object, and An object detection device has been disclosed that detects stationary objects on a road surface based on differences in optical flows.

国際公開2020/261568号公報International Publication No. 2020/261568 特許第4958279号公報Patent No. 4958279

しかしながら、特許文献1に記載の路面検査装置および路面検査方法では、機械学習手法によって道路の劣化を検出するため、処理負荷が高いといった課題がある。したがって、特許文献1に記載の路面検査装置および路面検査方法によってリアルタイムで精度よく道路異常を検出するためには高価な処理装置を車両に搭載せざるを得ず、路面検査装置の普及を妨げる要因となる。 However, the road surface inspection device and road surface inspection method described in Patent Document 1 detect road deterioration using a machine learning method, so there is a problem that the processing load is high. Therefore, in order to accurately detect road abnormalities in real time using the road surface inspection device and road surface inspection method described in Patent Document 1, an expensive processing device must be installed in the vehicle, which is a factor that hinders the spread of road surface inspection devices. becomes.

なお、車両への高価な処理装置の搭載を避けるために、車両から外部サーバーに撮像情報を送信し、車載装置ではなく外部サーバーを用いて、機械学習手法による道路劣化の検出を行うという手段も考えられる。しかしながら、かかる方法では、全ての撮像情報を逐一外部サーバーに送信する必要があるため、通信コストの増加が課題となる。 In addition, in order to avoid installing expensive processing equipment in the vehicle, there is also a method of transmitting image information from the vehicle to an external server, and using the external server instead of the in-vehicle device to detect road deterioration using machine learning techniques. Conceivable. However, with this method, it is necessary to transmit all the imaging information to the external server one by one, which poses a problem of increased communication costs.

また、特許文献2に記載の物体検出装置を路面上の静止物体の検出に適用する場合、撮像手段の路面からの高さ、撮像手段の水平面に対する傾きなどといった固定パラメータを事前に測定および設定(以下、事前キャリブレーションと呼ぶ)する必要があるといった課題がある。例えば、特許文献2に記載の物体検出装置を既製の車両に設置して使用する場合、車両への設置のたびに、かつ、車両ごとに事前キャリブレーションを行う必要があるため、利便性に著しく欠ける。 In addition, when applying the object detection device described in Patent Document 2 to detecting a stationary object on a road surface, fixed parameters such as the height of the imaging means from the road surface and the inclination of the imaging means with respect to the horizontal plane are measured and set in advance ( There is a problem in that it is necessary to perform pre-calibration (hereinafter referred to as pre-calibration). For example, when the object detection device described in Patent Document 2 is installed and used in a ready-made vehicle, it is necessary to perform pre-calibration each time it is installed in the vehicle and for each vehicle, which significantly reduces convenience. Missing.

本開示は、上記のような課題を解決するためになされたものであり、道路異常の検出に際して、通信コストも発生せず、かつ、事前キャリブレーションも不要となるような、道路異常の検出に要する処理負荷が低減された車両用画像処理装置および車両用画像処理方法を提供することを目的とする。 The present disclosure has been made in order to solve the above-mentioned problems, and provides a method for detecting road abnormalities that does not incur communication costs and does not require pre-calibration. It is an object of the present invention to provide a vehicle image processing device and a vehicle image processing method with reduced processing load.

本開示に係る車両用画像処理装置は、
車両に設置され、前記車両の周囲の路面を撮像して、時系列で連続する複数の撮像画像を取得する撮像部と、
前記撮像画像に基づき、前記車両の移動方向の消失点を推定する消失点推定部と、
前記時系列で連続する複数の撮像画像の間で対応する特徴点を算出する特徴点算出部と、
前記撮像画像から道路異常が存在する可能性のある候補対象領域を検出する候補対象領域検出部と、
前記特徴点算出部で算出された前記特徴点のうち、前記候補対象領域に含まれる特徴点を候補特徴点として抽出する候補特徴点抽出部と、
前記撮像画像から路面上の特徴点を路面特徴点として抽出あるいは算出する路面特徴点特定部と、
前記候補特徴点に基づき、候補フローを算出する候補フロー算出部と、
前記路面特徴点に基づき、路面フローを算出する路面フロー算出部と、
前記路面フローに基づき、固定路面定数を算出する固定路面定数算出部と、
前記車両の車両速度を前記固定路面定数によって除算することにより算出される瞬時路面定数が、前記消失点と前記候補フローの始点の距離の逆数から前記消失点と前記候補フローの終点の距離の逆数を引いた数値と一致するか否かを判定するフロー比率判定部と、
前記消失点、前記候補フローの始点および終点が同一の直線上に位置するか否かを判定するフロー方向判定部と、
前記フロー方向判定部および前記フロー比率判定部の判定結果に基づき、前記候補対象領域における前記道路異常の存在を判定する路面フロー判定部と、
を備える。
The vehicle image processing device according to the present disclosure includes:
an imaging unit that is installed in a vehicle and captures images of a road surface around the vehicle to obtain a plurality of consecutive captured images in chronological order;
a vanishing point estimation unit that estimates a vanishing point in the moving direction of the vehicle based on the captured image;
a feature point calculation unit that calculates corresponding feature points among the plurality of captured images that are continuous in the time series;
a candidate target area detection unit that detects a candidate target area in which a road abnormality may exist from the captured image;
a candidate feature point extracting unit that extracts feature points included in the candidate target area as candidate feature points from among the feature points calculated by the feature point calculating unit;
a road surface feature point identification unit that extracts or calculates feature points on the road surface from the captured image as road surface feature points;
a candidate flow calculation unit that calculates a candidate flow based on the candidate feature points;
a road surface flow calculation unit that calculates a road surface flow based on the road surface feature points;
a fixed road surface constant calculation unit that calculates a fixed road surface constant based on the road surface flow;
An instantaneous road surface constant calculated by dividing the vehicle speed of the vehicle by the fixed road surface constant is calculated from the reciprocal of the distance between the vanishing point and the starting point of the candidate flow to the reciprocal of the distance between the vanishing point and the end point of the candidate flow. a flow ratio determination unit that determines whether or not the value obtained by subtracting .
a flow direction determining unit that determines whether the vanishing point, the starting point, and the ending point of the candidate flow are located on the same straight line;
a road surface flow determination unit that determines the presence of the road abnormality in the candidate target area based on the determination results of the flow direction determination unit and the flow ratio determination unit;
Equipped with.

本開示に係る車両用画像処理方法は、
車両の周囲の路面を撮像して、時系列で連続する複数の撮像画像を取得する撮像ステップと、
前記撮像画像に基づき、前記車両の移動方向の消失点を推定する消失点推定ステップと、
前記時系列で連続する複数の撮像画像の間で対応する特徴点を算出する特徴点算出ステップと、
前記撮像画像から道路異常が存在する可能性のある候補対象領域を検出する候補対象領域検出ステップと、
前記特徴点算出ステップで算出された前記特徴点のうち、前記候補対象領域に含まれる特徴点を候補特徴点として抽出する候補特徴点抽出ステップと、
前記撮像画像から路面上の特徴点を路面特徴点として抽出あるいは算出する路面特徴点特定ステップと、
前記候補特徴点に基づき、候補フローを算出する候補フロー算出ステップと、
前記路面特徴点に基づき、路面フローを算出する路面フロー算出ステップと、
前記路面フローに基づき、固定路面定数を算出する固定路面定数算出ステップと、
前記車両の車両速度を前記固定路面定数によって除算することにより算出される瞬時路面定数が、前記消失点と前記候補フローの始点の距離の逆数から前記消失点と前記候補フロー終点の距離の逆数を引いた数値と一致するか否かを判定するフロー比率判定ステップと、
前記消失点、前記候補フローの始点および終点が同一の直線上に位置するか否かを判定するフロー方向判定ステップと、
前記フロー方向判定ステップおよび前記フロー比率判定ステップの判定結果に基づき、前記候補対象領域における前記道路異常の存在を判定する路面フロー判定ステップと、
を含む。
The vehicle image processing method according to the present disclosure includes:
an imaging step of imaging a road surface around the vehicle to obtain a plurality of consecutive captured images in chronological order;
a vanishing point estimating step of estimating a vanishing point in the moving direction of the vehicle based on the captured image;
a feature point calculation step of calculating corresponding feature points between the plurality of captured images that are continuous in the time series;
a candidate target area detection step of detecting a candidate target area where a road abnormality may exist from the captured image;
a candidate feature point extracting step of extracting feature points included in the candidate target area as candidate feature points from among the feature points calculated in the feature point calculating step;
a road surface feature point identifying step of extracting or calculating feature points on the road surface from the captured image as road surface feature points;
a candidate flow calculation step of calculating a candidate flow based on the candidate feature points;
a road surface flow calculation step of calculating a road surface flow based on the road surface feature points;
a fixed road surface constant calculation step of calculating a fixed road surface constant based on the road surface flow;
An instantaneous road surface constant calculated by dividing the vehicle speed of the vehicle by the fixed road surface constant is calculated from the reciprocal of the distance between the vanishing point and the starting point of the candidate flow to the reciprocal of the distance between the vanishing point and the end point of the candidate flow. a flow ratio determination step of determining whether or not it matches the value obtained by subtracting .
a flow direction determining step of determining whether the vanishing point, the starting point and the ending point of the candidate flow are located on the same straight line;
a road surface flow determination step of determining the presence of the road abnormality in the candidate target area based on the determination results of the flow direction determination step and the flow ratio determination step;
including.

本開示に係る車両用画像処理装置によれば、撮像画像から取得されるオプティカルフローを用いて道路異常を簡易に検出できるため、道路異常の検出に要する処理負荷が低減される車両用画像処理装置が得られる。 According to the vehicle image processing device according to the present disclosure, road abnormalities can be easily detected using optical flows acquired from captured images, so the processing load required for detecting road abnormalities is reduced. is obtained.

本開示に係る車両用画像処理方法によれば、撮像画像から取得されるオプティカルフローを用いて道路異常を簡易に検出できるため、道路異常の検出に要する処理負荷が低減される。 According to the image processing method for a vehicle according to the present disclosure, road abnormalities can be easily detected using optical flows acquired from captured images, so that the processing load required for detecting road abnormalities is reduced.

実施の形態1から4に係る車両用画像処理装置を含む自車両および自車両の周辺の状況を示す模式図である。1 is a schematic diagram showing a vehicle including a vehicle image processing device according to embodiments 1 to 4 and a situation around the vehicle; FIG. 実施の形態1に係る車両用画像処理装置の構成を示す機能ブロック図である。1 is a functional block diagram showing the configuration of a vehicle image processing device according to a first embodiment. FIG. 実施の形態1から4に係る車両用画像処理装置の撮像画像の一例を示す模式図である。FIG. 3 is a schematic diagram showing an example of an image captured by the vehicle image processing device according to Embodiments 1 to 4. FIG. 実施の形態1から4に係る車両用画像処理装置による道路異常が存在する可能性のある候補対象領域の検出の一例を示す模式図である。FIG. 2 is a schematic diagram illustrating an example of detection of a candidate target area in which a road abnormality may exist by the vehicle image processing apparatus according to the first to fourth embodiments. 実施の形態1から3に係る車両用画像処理装置による特徴点の算出の一例を示す模式図である。FIG. 3 is a schematic diagram showing an example of calculation of feature points by the vehicle image processing device according to the first to third embodiments. 実施の形態1から3に係る車両用画像処理装置による路面領域の検出の一例を示す模式図である。FIG. 3 is a schematic diagram showing an example of detection of a road surface area by the vehicle image processing device according to the first to third embodiments. オプティカルフローを用いた計算に関する各数値の定義を表す模式図である。FIG. 2 is a schematic diagram showing the definition of each numerical value regarding calculation using optical flow. 実施の形態1に係る車両用画像処理方法を示すフローチャート図である。FIG. 2 is a flowchart showing a vehicle image processing method according to the first embodiment. 数式を説明する模式図である。It is a schematic diagram explaining a mathematical formula. 数式を説明する模式図である。It is a schematic diagram explaining a mathematical formula. 実施の形態2に係る車両用画像処理装置の構成を示す機能ブロック図である。FIG. 2 is a functional block diagram showing the configuration of a vehicle image processing device according to a second embodiment. 実施の形態2に係る車両用画像処理装置による実寸法検出および車速計算の一例を示す模式図である。FIG. 7 is a schematic diagram showing an example of actual size detection and vehicle speed calculation by the vehicle image processing device according to the second embodiment. 実施の形態2に係る車両用画像処理装置による実寸法検出および車速計算の一例を示す模式図である。FIG. 7 is a schematic diagram showing an example of actual size detection and vehicle speed calculation by the vehicle image processing device according to the second embodiment. 実施の形態2に係る車両用画像処理方法を示すフローチャート図である。FIG. 3 is a flowchart showing a vehicle image processing method according to a second embodiment. 実施の形態3に係る車両用画像処理装置の構成を示す機能ブロック図である。FIG. 3 is a functional block diagram showing the configuration of a vehicle image processing device according to a third embodiment. 実施の形態3に係る車両用画像処理方法を示すフローチャート図である。FIG. 7 is a flowchart diagram showing a vehicle image processing method according to Embodiment 3; 実施の形態4に係る車両用画像処理装置の構成を示す機能ブロック図である。FIG. 3 is a functional block diagram showing the configuration of a vehicle image processing device according to a fourth embodiment. 実施の形態4に係る車両用画像処理装置による路面特徴点の算出の一例を示す模式図である。FIG. 7 is a schematic diagram showing an example of calculation of road surface feature points by the vehicle image processing device according to the fourth embodiment. 実施の形態4に係る車両用画像処理方法を示すフローチャート図である。FIG. 7 is a flowchart showing a vehicle image processing method according to a fourth embodiment. 実施の形態1から4に係る車両用画像処理装置のハードウエアの一例を示す図である。1 is a diagram illustrating an example of hardware of a vehicle image processing device according to embodiments 1 to 4. FIG.

実施の形態1.
図1は、実施の形態1に係る車両用画像処理装置500を含む自車両101および自車両101の周辺の状況を示す模式図である。なお、図1は、実施の形態1のみならず後述する実施の形態2から4においても、共通して用いられる図である。
Embodiment 1.
FIG. 1 is a schematic diagram showing a vehicle 101 including a vehicle image processing device 500 according to the first embodiment and a situation around the vehicle 101. Note that FIG. 1 is a diagram commonly used not only in Embodiment 1 but also in Embodiments 2 to 4 described later.

図1において、自車両101は、実施の形態1に係る車両用画像処理装置500を搭載する(図示せず)。自車両101には撮像部102が設置されている。撮像部102は、自車両101の前方の撮像範囲102a内の路面を撮像する。路面上には、自車両101の走行の障害となるような落下障害物などの路面上の静止物体103が存在する。自車両101には、自車両101の位置、つまり、自車位置を測位する測位センサー104aが設けられている。測位センサー104aは、位置測位部104を構成する。位置測位部104については後述する。 In FIG. 1, a host vehicle 101 is equipped with a vehicle image processing device 500 according to the first embodiment (not shown). An imaging unit 102 is installed in the vehicle 101 . The imaging unit 102 images the road surface within the imaging range 102a in front of the own vehicle 101. On the road surface, there is a stationary object 103 on the road surface, such as a falling obstacle that may obstruct the running of the host vehicle 101 . The own vehicle 101 is provided with a positioning sensor 104a that measures the position of the own vehicle 101, that is, the own vehicle position. The positioning sensor 104a constitutes the positioning section 104. The positioning unit 104 will be described later.

撮像部102は、一例として光学カメラで構成される。しかしながら、撮像部102は光学カメラに限定されるわけではなく、自車両101の周囲の環境を画像として取得できる機器であれば、例えば、赤外線カメラなどの各種センサー類を用いてもよい。なお、実施の形態1に係る車両用画像処理装置500を構成する撮像部102としては、理想的なピンホールカメラを想定するものの、広角カメラを用いた上で、広角カメラのレンズ歪みを補正する処理を行って利用するようなものでもよい。 The imaging unit 102 includes, for example, an optical camera. However, the imaging unit 102 is not limited to an optical camera, and various sensors such as an infrared camera may be used as long as it is a device that can capture the environment around the own vehicle 101 as an image. Although an ideal pinhole camera is assumed as the imaging unit 102 constituting the vehicle image processing device 500 according to the first embodiment, a wide-angle camera is used and lens distortion of the wide-angle camera is corrected. It may also be something that can be processed and used.

撮像部102の撮像範囲102aは、撮像範囲102aの一部に自車両101の周辺の路面が含まれていればよい。また、撮像部102の設置個所は自車両101の前方でなくてもよい。例えば、撮像部102を自車両101の後方に設置して、撮影してもよい。 The imaging range 102a of the imaging unit 102 only needs to include the road surface around the own vehicle 101 as a part of the imaging range 102a. Furthermore, the location where the imaging unit 102 is installed does not have to be in front of the own vehicle 101. For example, the imaging unit 102 may be installed behind the own vehicle 101 to take a picture.

路面上の静止物体103は、実施の形態1に係る車両用画像処理装置500の検出対象となる道路異常の一態様である。路面上の静止物体103は、例えば、落下障害物などである。車両用画像処理装置500の検出対象として、路面上の静止物体103以外に、道路のひび割れ、***、陥没などの道路劣化、停車車両、駐車車両が挙げられる。 Stationary object 103 on the road surface is one type of road abnormality that is a detection target of vehicle image processing device 500 according to the first embodiment. The stationary object 103 on the road surface is, for example, a falling obstacle. Detection targets of the vehicle image processing device 500 include, in addition to the stationary object 103 on the road surface, road deterioration such as cracks, bumps, and depressions, stopped vehicles, and parked vehicles.

位置測位部104を構成する測位センサー104aとして、例えば、GNSS(Global Navigation Satellite System:全地球測位衛星システム)の受信装置を適用することができる。測位センサー104aによって、自車両101の自車位置を常時把握することができる。測位センサー104aとしてGNSSではなく、DMI(Distance Measuring Instrument:走行距離計)とIMU(Inertial Measurement Unit:慣性計測機)、加速度センサー、地磁気計測器などを用いて、自律的に自車両101の自車位置を把握してもよい。また、道路上に設置された電磁マーカ、サインポストの読み取りによって、自車両101の自車位置を把握することとしてもよい。 As the positioning sensor 104a that constitutes the positioning unit 104, for example, a GNSS (Global Navigation Satellite System) receiving device can be applied. With the positioning sensor 104a, the position of the own vehicle 101 can be grasped at all times. The positioning sensor 104a uses a DMI (Distance Measuring Instrument: odometer), IMU (Inertial Measurement Unit), acceleration sensor, geomagnetic measuring instrument, etc., instead of GNSS, to autonomously locate the own vehicle 101. You can also know the location. Alternatively, the position of the vehicle 101 may be determined by reading electromagnetic markers or sign posts installed on the road.

<実施の形態1に係る車両用画像処理装置500の構成>
図2は、実施の形態1に係る車両用画像処理装置500の構成を示す機能ブロック図である。また、図3から図6に、撮像部102が撮像した撮像画像301、301cの模式図をそれぞれ示す。
<Configuration of vehicle image processing device 500 according to Embodiment 1>
FIG. 2 is a functional block diagram showing the configuration of the vehicle image processing device 500 according to the first embodiment. Further, FIGS. 3 to 6 show schematic diagrams of captured images 301 and 301c captured by the imaging unit 102, respectively.

撮像部102は、撮像範囲102aの範囲内を撮像し、撮像画像を出力する。図3は、撮像部102が撮像する撮像画像301を示す模式図である。 The imaging unit 102 captures an image within an imaging range 102a and outputs a captured image. FIG. 3 is a schematic diagram showing a captured image 301 captured by the imaging unit 102.

消失点推定部201は、撮像部102から出力された撮像画像301に対して、自車両101の移動方向の消失点を推定する。消失点の推定手段として、例えば、図3に示すように、撮像画像301内の区画線302aおよび区画線302bを画像処理によって検出し、区画線302aと区画線302bの交点を消失点とみなしてもよい。あるいは、過去の撮像画像および現在の撮像画像を用いて撮像画像の背景のオプティカルフローを算出し、オプティカルフローの集中する点を消失点とみなしてもよい。なお、実施の形態1に係る車両用画像処理装置500では、自車両101の移動方向の消失点を推定することができればよく、消失点の推定手段は上述の手段に限定されるものではない。 The vanishing point estimating unit 201 estimates the vanishing point in the moving direction of the own vehicle 101 with respect to the captured image 301 output from the imaging unit 102. As a means for estimating the vanishing point, for example, as shown in FIG. 3, a partition line 302a and a partition line 302b in a captured image 301 are detected by image processing, and the intersection of the partition line 302a and partition line 302b is regarded as the vanishing point. Good too. Alternatively, the optical flow in the background of the captured image may be calculated using the past captured image and the current captured image, and the point where the optical flow is concentrated may be regarded as the vanishing point. Note that the vehicle image processing device 500 according to the first embodiment only needs to be able to estimate the vanishing point in the moving direction of the host vehicle 101, and the means for estimating the vanishing point is not limited to the above-mentioned means.

撮像結果記憶部202は、過去の撮像画像を記憶し、要求に応じて適宜出力する。撮像結果記憶部202の動作の一例として、1フレーム前の撮像画像を記憶し、要求に応じて適宜出力するような動作が挙げられる。例えば、時系列で連続する第一撮像画像301aおよび第二撮像画像301bを撮像するような場合は、現在の第二撮像画像301bに対して、第一撮像画像301aは撮像結果記憶部202に記憶された1フレーム前の過去の撮像画像となる。なお、過去の撮像画像とは、上述した現在の撮像画像に対する1フレーム前の撮像画像に限定されるわけではなく、2フレーム前、3フレーム前など、予め設定された過去の一定の時点において撮像された撮像画像でもよい。 The imaging result storage unit 202 stores past captured images and outputs them as appropriate in response to a request. An example of the operation of the imaging result storage unit 202 is an operation of storing a captured image one frame before, and outputting it as appropriate in response to a request. For example, when capturing a first captured image 301a and a second captured image 301b that are continuous in time series, the first captured image 301a is stored in the imaging result storage unit 202 with respect to the current second captured image 301b. This is the past image taken one frame before. Note that a past captured image is not limited to an image captured one frame before the current captured image described above, but also an image captured at a preset point in time in the past, such as two frames before or three frames before. It may also be a captured image.

候補対象領域検出部203は、撮像部102から出力された撮像画像301に対して、道路異常の一態様である路面上の静止物体103が存在する可能性のある領域(以下、候補対象領域と呼ぶ)を検出する。 The candidate target area detection unit 203 detects an area (hereinafter referred to as a candidate target area) in which a stationary object 103 on the road surface, which is an aspect of road abnormality, may exist in the captured image 301 output from the imaging unit 102. detect).

実施の形態1に係る車両用画像処理装置500による候補対象領域310の検出方法として、撮像画像301上で特定の色域の画素を有し、かつ、連続する強いエッジを囲う領域を路面上の静止物体103が存在する可能性のある候補対象領域310として検出し、出力する。例えば、図3に示す撮像画像301の一例では、路面上の静止物体103が実際に存在する候補対象領域310および候補対象領域310ではあるものの路面上の静止物体103、すなわち、道路異常とはみなされない先行車両303の固有色および連続する強いエッジをそれぞれ検出する。さらに、図4に示すように、路面上の静止物体103を囲う矩形領域である候補対象領域310および先行車両303を囲う矩形領域である候補対象領域310をそれぞれ特定する。 As a method for detecting candidate target area 310 by vehicle image processing device 500 according to the first embodiment, an area on the road surface that has pixels of a specific color gamut and surrounds continuous strong edges on captured image 301 is detected. The stationary object 103 is detected as a candidate target area 310 in which there is a possibility of being present, and is output. For example, in an example of the captured image 301 shown in FIG. 3, there is a candidate target area 310 where a stationary object 103 on the road surface actually exists and a candidate target area 310, but the stationary object 103 on the road surface is not considered to be a road abnormality. The unique color and continuous strong edges of the preceding vehicle 303 that are not detected are detected. Furthermore, as shown in FIG. 4, a candidate target area 310 that is a rectangular area surrounding the stationary object 103 on the road surface and a candidate target area 310 that is a rectangular area that surrounds the preceding vehicle 303 are respectively specified.

なお、候補対象領域検出部203によって候補対象領域310が検出されない場合は、候補対象領域310を出力しなくてもよい。一方、候補対象領域検出部203によって候補対象領域310が複数検出される場合は、候補対象領域310を複数出力してもよい。また、本開示では候補対象領域310を検出できればよく、候補対象領域310の検出方法は、上述の検出方法に限定されるものではない。例えば、上述の検出方法以外にも、撮像画像上の特徴量と予め記憶している道路異常の各態様の特徴量とを比較するテンプレートマッチング手法によって、道路異常が存在する可能性のある候補対象領域310を検出してもよい。 Note that if the candidate target area 310 is not detected by the candidate target area detection unit 203, the candidate target area 310 does not need to be output. On the other hand, when a plurality of candidate target regions 310 are detected by the candidate target region detection unit 203, a plurality of candidate target regions 310 may be output. Further, in the present disclosure, it is sufficient to detect the candidate target area 310, and the method of detecting the candidate target area 310 is not limited to the above-described detection method. For example, in addition to the above-mentioned detection method, a template matching method that compares the feature amount on the captured image with the feature amount of each aspect of road abnormality stored in advance can be used to detect candidate targets where road abnormality may exist. Region 310 may also be detected.

特徴点算出部204は、撮像部102で撮像された撮像画像301に対して、後述する機能ブロックで複数の撮像画像301間の画素を対応付けるための特徴点を算出する。実施の形態1に係る車両用画像処理装置500では、特徴点の検出方法として、Shi-Tomasiのコーナー検出(Good Features to Track特徴点)を用いる。 The feature point calculation unit 204 calculates feature points for associating pixels between a plurality of captured images 301 using a functional block described later, for the captured image 301 captured by the imaging unit 102. The vehicle image processing device 500 according to the first embodiment uses Shi-Tomasi's corner detection (Good Features to Track feature points) as a feature point detection method.

例えば、図5に示す撮像画像301cの一例では、落下障害物などの路面上の静止物体103に起因する特徴点として、候補特徴点103bおよび候補特徴点103cが撮像画像301cから検出される。なお、候補特徴点の意味については後述する。また、先行車両303に起因する特徴点として、候補特徴点303b、候補特徴点303cおよび候補特徴点303dが撮像画像301cから検出される。さらに、破線区画線304に起因する特徴点として、路面特徴点304aおよび路面特徴点304bが撮像画像301cから算出される。路面特徴点の意味については後述する。 For example, in an example of the captured image 301c shown in FIG. 5, candidate feature points 103b and 103c are detected from the captured image 301c as feature points caused by a stationary object 103 on the road surface such as a falling obstacle. Note that the meaning of the candidate feature points will be described later. Further, as feature points caused by the preceding vehicle 303, candidate feature points 303b, 303c, and 303d are detected from the captured image 301c. Furthermore, road surface feature points 304a and road surface feature points 304b are calculated from the captured image 301c as feature points resulting from the broken line marking line 304. The meaning of the road surface feature points will be described later.

特徴点算出部204によって抽出される特徴点は、連続して撮像された複数の撮像画像間で、互いに対応づけられている。すなわち、時系列で連続する第一撮像画像301aおよび第二撮像画像301bを撮像するような場合は、現在の撮像画像である第二撮像画像301bのフレーム上で抽出された候補特徴点303bは、自車両101の移動および先行車両303の移動によって候補特徴点303bが撮像画像のフレーム外となってしまわない限り、1フレーム前の過去の第一撮像画像301aのフレーム上に候補特徴点303bを対応付けることができる。要するに、連続する複数の撮像画像間で共通する対象物に起因する特徴点は、互いに対応付けることができる。 The feature points extracted by the feature point calculation unit 204 are associated with each other among a plurality of continuously captured images. That is, when capturing a first captured image 301a and a second captured image 301b that are continuous in time series, the candidate feature point 303b extracted on the frame of the second captured image 301b, which is the current captured image, is As long as the candidate feature point 303b does not fall outside the frame of the captured image due to the movement of the host vehicle 101 and the movement of the preceding vehicle 303, the candidate feature point 303b is associated with the frame of the past first captured image 301a one frame before. be able to. In short, feature points caused by a common object between a plurality of consecutive captured images can be associated with each other.

なお、上述の特徴点の検出手段として、Harrisのコーナー検出手段を用いてもよいし、あるいは、SIFT(Scale Invariant Feature Transform)特徴量、SURF(Speeded Up Robust Features)特徴量、ORB(Oriented FAST and Rotated BRIEF)特徴量などを検出してもよい。要するに、実施の形態1に係る車両用画像処理装置500では、特徴点算出部204による特徴点の検出手段として、公知の様々な検出手段を適用してもよい。 As the feature point detection means described above, Harris corner detection means may be used, or SIFT (Scale Invariant Feature Transform) feature amounts, SURF (Speed Up Robust Features) feature amounts, ORB (Oriented F Features) may be used. AST and Rotated BRIEF) feature quantities, etc. may also be detected. In short, in the vehicle image processing device 500 according to the first embodiment, various known detection means may be applied as the feature point detection means by the feature point calculation unit 204.

路面領域検出部205は、撮像部102で撮像された撮像画像301に対して、路面領域311を検出する。ここで、路面領域311とは、例えば、図6に示される撮像画像301において、破線で囲まれる領域である。路面領域311は、撮像画像301において、自車両101の走行路面と高さが概ね一致している画素領域を指す。路面領域検出部205による路面領域311の検出手段として、例えば、国際公開2019/202628号公報に開示されている検出手段を用いて、予め設定した参照領域の色ヒストグラムから路面領域311を検出することが可能である。 The road surface area detection unit 205 detects a road surface area 311 in the captured image 301 captured by the imaging unit 102. Here, the road surface area 311 is, for example, an area surrounded by a broken line in the captured image 301 shown in FIG. 6 . The road surface area 311 refers to a pixel area in the captured image 301 whose height is approximately the same as the road surface on which the host vehicle 101 is traveling. As the detection means for the road surface area 311 by the road surface area detection unit 205, for example, the detection means disclosed in International Publication No. 2019/202628 may be used to detect the road surface area 311 from the color histogram of a preset reference area. is possible.

上述の検出方法以外でも、撮像画像中の特定の画素領域、例えば、図3における区画線302aおよび区画線302bに囲まれた領域を、路面領域311として特定するような検出手段であってもよい。本開示では路面領域311の検出手段を特に限定しない。要するに、実施の形態1に係る車両用画像処理装置500では、路面領域検出部205による路面領域311の検出手段として、公知の様々な検出手段を適用してもよい。 In addition to the above-mentioned detection method, a detection means may be used that specifies a specific pixel area in a captured image, for example, an area surrounded by the partition line 302a and the partition line 302b in FIG. 3 as the road surface area 311. . In the present disclosure, the means for detecting the road surface area 311 is not particularly limited. In short, in the vehicle image processing device 500 according to the first embodiment, various known detection means may be applied as the means for detecting the road surface area 311 by the road surface area detection unit 205.

位置測位部104は、道路に対する自車両101の自車位置を測位する。上述したように、自車両101の自車位置の測位に際しては、自車両101に設置された測位センサー104aを用いて測位する。なお、自車両101の自車位置の測位は、走行中、連続的に実行される。 The positioning unit 104 measures the position of the own vehicle 101 with respect to the road. As described above, the position of the own vehicle 101 is determined using the positioning sensor 104a installed in the own vehicle 101. Note that positioning of the own vehicle 101 is continuously performed while the vehicle is traveling.

車速取得部206は、位置測位部104で測位された自車両101の自車位置の履歴を記憶し、自車両101の自車位置の時間変化から、自車両101の車両速度を取得する。 The vehicle speed acquisition unit 206 stores the history of the position of the own vehicle 101 determined by the positioning unit 104, and acquires the vehicle speed of the own vehicle 101 from the change in the position of the own vehicle 101 over time.

路面静止判定部207は、撮像部102によって撮像された現在の撮像画像(第二撮像画像301b)、消失点推定部201によって推定された消失点、撮像結果記憶部202に記憶された過去、つまり、1フレーム前の撮像画像(第一撮像画像301a)、候補対象領域検出部203によって検出された候補対象領域310、特徴点算出部204によって抽出された特徴点、路面領域検出部205によって検出された路面領域311、車速取得部206によって取得された自車両101の車両速度vなどを用いて、候補対象領域310に含まれる可能性のある何らかの道路異常、例えば、路面上の静止物体103が存在するか否かを判定する。 The road surface stationary determination unit 207 uses the current captured image (second captured image 301b) captured by the imaging unit 102, the vanishing point estimated by the vanishing point estimation unit 201, and the past stored in the imaging result storage unit 202, that is, , a captured image one frame before (the first captured image 301a), a candidate target area 310 detected by the candidate target area detection unit 203, a feature point extracted by the feature point calculation unit 204, and a captured image detected by the road surface area detection unit 205. Using the obtained road surface area 311 and the vehicle speed v of the host vehicle 101 acquired by the vehicle speed acquisition unit 206, it is determined that there is some kind of road abnormality that may be included in the candidate target area 310, such as the presence of a stationary object 103 on the road surface. Determine whether or not to do so.

実施の形態1に係る車両用画像処理装置500では、図2に示すように、路面静止判定部207を構成する内部の機能ブロックとして、候補特徴点抽出部207a、候補フロー算出部207b、路面特徴点抽出部207c、路面フロー算出部207d、仮瞬時路面定数算出部207e、固定路面定数算出部207f、瞬時路面定数算出部207g、フロー方向判定部207h、フロー比率判定部207iおよび路面フロー判定部207jがそれぞれ路面静止判定部207内に設けられている。路面静止判定部207の各機能ブロックについて、以下でさらに詳しく説明する。 In the vehicle image processing device 500 according to the first embodiment, as shown in FIG. 2, internal functional blocks constituting the road surface stationary determination section 207 include a candidate feature point extraction section 207a, a candidate flow calculation section 207b, and a road surface feature point extraction section 207a. Point extraction section 207c, road surface flow calculation section 207d, provisional instantaneous road surface constant calculation section 207e, fixed road surface constant calculation section 207f, instantaneous road surface constant calculation section 207g, flow direction determination section 207h, flow ratio determination section 207i, and road surface flow determination section 207j. are provided in the road surface stationary determination unit 207, respectively. Each functional block of the road surface stationary determination unit 207 will be explained in more detail below.

候補特徴点抽出部207aは、特徴点算出部204で算出された特徴点のうち、候補対象領域検出部203で検出された候補対象領域310に含まれる候補特徴点を抽出する。例えば、図5に示す撮像画像301cの一例では、撮像画像301cから落下障害物である路面上の静止物体103の候補特徴点103bおよび候補特徴点103c、並びに、路面上の静止物体103ではないものの同様に検出される先行車両303の候補特徴点303b、候補特徴点303cおよび候補特徴点303dが、それぞれ候補特徴点として抽出される。 The candidate feature point extraction unit 207a extracts candidate feature points included in the candidate target area 310 detected by the candidate target area detection unit 203 from among the feature points calculated by the feature point calculation unit 204. For example, in an example of the captured image 301c shown in FIG. 5, the captured image 301c shows candidate feature points 103b and 103c of a stationary object 103 on the road surface that is a falling obstacle, and Candidate feature points 303b, 303c, and 303d of the preceding vehicle 303, which are similarly detected, are each extracted as candidate feature points.

候補フロー算出部207bは、撮像部102で撮像された現在の撮像画像である第二撮像画像301bと、撮像結果記憶部202に記憶されている過去の撮像画像である1フレーム前の第一撮像画像301aと、候補特徴点抽出部207aで抽出された現在の第二撮像画像301bにおける候補対象領域310の候補特徴点とに対してLucas-Kanade法を適用することにより、かかる候補特徴点に対応する、オプティカルフロー(候補対象領域オプティカルフロー、以下、候補フローと略して呼ぶ)を算出する。以下の説明では、候補フローの過去側の候補特徴点を始点、現在側の候補特徴点を終点と呼ぶ。 The candidate flow calculation unit 207b generates a second captured image 301b which is the current captured image captured by the imaging unit 102, and a first captured image taken one frame before, which is a past captured image stored in the captured image result storage unit 202. By applying the Lucas-Kanade method to the image 301a and the candidate feature points of the candidate target area 310 in the current second captured image 301b extracted by the candidate feature point extracting unit 207a, the candidate feature points are dealt with. An optical flow (candidate target area optical flow, hereinafter abbreviated as candidate flow) is calculated. In the following explanation, a candidate feature point on the past side of a candidate flow is called a starting point, and a candidate feature point on the current side is called an end point.

例えば、撮像部102において時系列で連続する第一撮像画像301aおよび第二撮像画像301bを撮像した場合は、現在の第二撮像画像301bから抽出され、第一撮像画像301aに対応づけられる候補特徴点が候補フローの終点となり、過去側、つまり、1フレーム前の第一撮像画像301aに対応付けられた特徴点が候補フローの始点となる。候補特徴点抽出部207aが候補特徴点を複数出力する場合は、候補フロー算出部207bにおいて、候補フローを複数出力してもよい。 For example, when the imaging unit 102 captures a first captured image 301a and a second captured image 301b that are continuous in time series, candidate features are extracted from the current second captured image 301b and associated with the first captured image 301a. The point becomes the end point of the candidate flow, and the feature point associated with the first captured image 301a on the past side, that is, one frame before, becomes the start point of the candidate flow. When the candidate feature point extraction unit 207a outputs a plurality of candidate feature points, the candidate flow calculation unit 207b may output a plurality of candidate flows.

路面特徴点抽出部207cは、特徴点算出部204で算出された特徴点のうち、路面領域検出部205によって検出された路面領域311には含まれるものの、候補対象領域検出部203で検出された候補対象領域310には含まれない特徴点を抽出する。すなわち、路面特徴点抽出部207cの処理によって、路面領域311のみに存在する特徴点が抽出される。以下、路面領域311のみに存在する特徴点を、路面特徴点と呼ぶ。なお、路面特徴点抽出部207cと後述の路面特徴点算出部207kとを総称して、路面特徴点特定部と呼ぶ。 The road surface feature point extraction unit 207c extracts feature points calculated by the feature point calculation unit 204 that are included in the road surface area 311 detected by the road surface area detection unit 205 but detected by the candidate target area detection unit 203. Feature points not included in the candidate target area 310 are extracted. That is, the process of the road surface feature point extraction unit 207c extracts feature points that exist only in the road surface area 311. Hereinafter, feature points that exist only in the road surface area 311 will be referred to as road surface feature points. Note that the road surface feature point extraction section 207c and the road surface feature point calculation section 207k, which will be described later, are collectively referred to as a road surface feature point identification section.

例えば、図5に示す撮像画像301c内の各特徴点の抽出の一例では、路面上の破線区画線304の路面特徴点304aおよび路面特徴点304bが抽出される。ここで、色彩が一様な路面では路面特徴点が抽出されないことも想定されるが、このような場合は、路面特徴点抽出部207cは路面特徴点を出力しない。 For example, in an example of extraction of each feature point in the captured image 301c shown in FIG. 5, the road surface feature point 304a and the road surface feature point 304b of the broken line marking line 304 on the road surface are extracted. Here, it is assumed that road surface feature points may not be extracted on a road surface with uniform color, but in such a case, the road surface feature point extraction unit 207c does not output road surface feature points.

路面フロー算出部207dは、撮像部102で撮像された現在の撮像画像である第二撮像画像301bと、撮像結果記憶部202に記憶されている過去、すなわち、1フレーム前の撮像画像である第一撮像画像301aについて、路面特徴点抽出部207cでそれぞれ抽出された第一撮像画像301aおよび第二撮像画像301bにおける路面領域311の路面特徴点に基づき、路面領域311のオプティカルフロー(路面オプティカルフロー、以下、路面フローと略して呼ぶ)を算出する。路面フローの算出は、候補フロー算出部207bによる候補フローの算出と同様な手順で実施される。路面フローの始点および終点の呼称も候補フローの場合と同じである。 The road surface flow calculation unit 207d calculates a second captured image 301b which is the current captured image captured by the imaging unit 102, and a second captured image 301b which is the current captured image captured by the imaging unit 102, and a second captured image which is the previous captured image stored in the imaging result storage unit 202. Regarding one captured image 301a, based on the road surface feature points of the road surface region 311 in the first captured image 301a and the second captured image 301b extracted by the road surface feature point extraction unit 207c, the optical flow of the road surface region 311 (road surface optical flow, (hereinafter abbreviated as road surface flow). The calculation of the road surface flow is performed in the same procedure as the calculation of the candidate flow by the candidate flow calculation unit 207b. The names of the starting point and ending point of the road surface flow are also the same as in the case of the candidate flow.

なお、路面特徴点抽出部207cが路面特徴点を複数出力する場合、路面フロー算出部207dによって路面フローを複数出力してもよい。路面特徴点抽出部207cが路面特徴点を出力しない場合は、路面フロー算出部207dは路面フローを出力しない。 Note that when the road surface feature point extraction unit 207c outputs a plurality of road surface feature points, the road surface flow calculation unit 207d may output a plurality of road surface flows. When the road surface feature point extraction unit 207c does not output road surface feature points, the road surface flow calculation unit 207d does not output road surface flow.

仮瞬時路面定数算出部207eは、図7の模式図に示すように、撮像画像のフレームの上下方向における消失点と路面フローの始点との距離、すなわち、Y軸に沿った両者の距離(以下、路面始点距離と呼ぶ)をy0、撮像画像のフレームの上下方向における消失点と終点との距離、すなわち、Y軸に沿った両者の距離(以下、路面終点距離と呼ぶ)をy1とする場合、以下の式(1)を用いて、仮瞬時路面定数Bを算出する。 As shown in the schematic diagram of FIG. 7, the temporary instantaneous road constant calculation unit 207e calculates the distance between the vanishing point in the vertical direction of the captured image frame and the starting point of the road surface flow, that is, the distance between the two along the Y axis (hereinafter referred to as , road surface start point distance) is y t 0, and the distance between the vanishing point and the end point in the vertical direction of the frame of the captured image, that is, the distance between the two along the Y axis (hereinafter referred to as road surface end point distance) is y t 1, the temporary instantaneous road surface constant Bt is calculated using the following equation (1).

Figure 0007391117000001
つまり、路面始点距離y0の逆数から路面終点距離y1の逆数を減算することにより、仮瞬時路面定数Bを算出する。なお、図7では、便宜上、y0をy0と、y1をy1と表記している。
Figure 0007391117000001
That is, the temporary instantaneous road surface constant B t is calculated by subtracting the reciprocal of the road surface end point distance y t 1 from the reciprocal of the road surface start point distance y t 0. Note that in FIG. 7, for convenience, y t 0 is expressed as y0, and y t 1 is expressed as y1.

仮瞬時路面定数Bは、現在の撮像画像のフレーム、すなわち、第二撮像画像301bのフレームにおいて、消失点の方向に沿う路面フローのうち、路面の高さにある路面フローが位置によらず一定値となるような数値である。 The temporary instantaneous road surface constant B t is determined by the fact that in the frame of the current captured image, that is, the frame of the second captured image 301b, among the road surface flows along the direction of the vanishing point, the road surface flow at the height of the road surface is independent of the position. It is a numerical value that is a constant value.

路面フローが複数存在する場合は、それぞれの路面フローに対して仮瞬時路面定数Bを算出して、各路面フローの仮瞬時路面定数Bの平均値を、平均仮瞬時路面定数Btaveとして出力してもよい。あるいは、最頻値あるいは中央値などの統計処理を経た数値を仮瞬時路面定数として出力してもよい。 If there are multiple road surface flows, calculate the temporary instantaneous road surface constant B t for each road surface flow, and use the average value of the temporary instantaneous road surface constant B t of each road surface flow as the average temporary instantaneous road surface constant B tave . You can also output it. Alternatively, numerical values that have undergone statistical processing, such as the mode or median value, may be output as the provisional instantaneous road surface constant.

式(1)ではY軸に沿った路面始点距離y0および路面終点距離y1を用いた。しかしながら、路面始点距離y0および路面終点距離y1は、上述の定義以外であっても、路面フローが消失点方向に沿う場合に消失点との距離に比例する量であればよい。例えば、消失点に対する始点および終点のX軸に沿った距離、あるいはユークリッド距離でもよいし、さらに、マンハッタン距離でもよい。 In equation (1), the road surface starting point distance y t 0 and the road surface end point distance y t 1 along the Y axis are used. However, the road surface start point distance y t 0 and the road surface end point distance y t 1 may be other than the above definitions as long as they are proportional to the distance from the vanishing point when the road surface flow follows the direction of the vanishing point. For example, it may be the distance along the X-axis between the starting point and the ending point with respect to the vanishing point, the Euclidean distance, or even the Manhattan distance.

なお、路面フロー算出部207dが路面フローを出力しない場合、仮瞬時路面定数算出部207eは仮瞬時路面定数Bを算出しない。すなわち、仮瞬時路面定数Bが算出できない可能性があるため、仮の瞬時路面定数としている。 Note that when the road surface flow calculation section 207d does not output the road surface flow, the temporary instantaneous road surface constant calculation section 207e does not calculate the temporary instantaneous road surface constant Bt . That is, since there is a possibility that the temporary instantaneous road surface constant Bt cannot be calculated, it is set as a temporary instantaneous road surface constant.

固定路面定数算出部207fは、仮瞬時路面定数算出部207eによって仮瞬時路面定数Bが算出された場合に、車速取得部206において取得された車両速度をvとすると、以下の式(2)を用いて、まず、仮固定路面定数Aを算出する。なお、仮固定路面定数Aは仮瞬時路面定数Bから算出された仮の固定路面定数であって、後述する固定路面定数Aとは必ずしも一致しない。 The fixed road surface constant calculation section 207f calculates the following equation (2), where v is the vehicle speed acquired by the vehicle speed acquisition section 206 when the temporary instantaneous road surface constant Bt is calculated by the temporary instantaneous road surface constant calculation section 207e. First, a temporary fixed road surface constant A t is calculated using Note that the temporary fixed road surface constant A t is a temporary fixed road surface constant calculated from the temporary instantaneous road surface constant B t , and does not necessarily match the fixed road surface constant A described later.

Figure 0007391117000002
式(2)において、車両速度vの単位は任意である。
Figure 0007391117000002
In equation (2), the unit of vehicle speed v is arbitrary.

理論上は、仮固定路面定数Aは撮像画像フレームに依存しない一定値となる。しかしながら、自車両101の振動あるいは車両速度vの測定誤差によって、仮固定路面定数Aは誤差を含む可能性がある。したがって、固定路面定数算出部207fでは、固定路面定数算出部207fにおいて過去の仮固定路面定数Aの履歴を記憶し、仮固定路面定数Aを統計処理することによって取得された統計値を固有の固定路面定数Aとして出力する。 Theoretically, the temporarily fixed road surface constant A t is a constant value that does not depend on the captured image frame. However, the temporarily fixed road surface constant A t may include an error due to vibrations of the host vehicle 101 or measurement errors in the vehicle speed v. Therefore, the fixed road surface constant calculation unit 207f stores the past history of the temporary fixed road surface constant A t and uses the statistical value obtained by statistically processing the temporary fixed road surface constant A t as a unique value. It is output as the fixed road surface constant A.

統計処理の一例として、一定期間内に取得された仮固定路面定数Aの平均値を、平均固定路面定数Ataveとして出力する方法が挙げられる。かかる算出方法を用いることにより、固定路面定数Aはある時点における仮瞬時路面定数Bの算出可否にかかわらず、常に算出することができる。統計処理の他の例として、最頻値、中央値などの統計処理を経た数値を固定路面定数Aとして出力してもよい。 An example of statistical processing is a method of outputting the average value of temporarily fixed road surface constants A t acquired within a certain period of time as an average fixed road surface constant A tave . By using such a calculation method, the fixed road surface constant A can always be calculated regardless of whether or not the temporary instantaneous road surface constant Bt can be calculated at a certain point in time. As another example of statistical processing, numerical values that have undergone statistical processing, such as the mode value and the median value, may be output as the fixed road surface constant A.

さらに、固定路面定数算出部207fにおいて、ある期間内における仮固定路面定数Aを繰り返し演算して取得された仮固定路面定数Aを統計処理することによって算出された統計値としての固定路面定数Aを適用することにより、固定路面定数A自体の精度を高めることができる。 Further, in the fixed road surface constant calculation unit 207f, a fixed road surface constant is calculated as a statistical value by statistically processing the temporary fixed road surface constant A t obtained by repeatedly calculating the temporary fixed road surface constant A t within a certain period. By applying A, the accuracy of the fixed road surface constant A itself can be improved.

瞬時路面定数算出部207gは、固定路面定数算出部207fによって算出された固定路面定数Aおよび車両速度vを用いて、以下の式(3)によって瞬時路面定数Bを算出する。 The instantaneous road surface constant calculating section 207g calculates the instantaneous road surface constant B using the following equation (3) using the fixed road surface constant A and the vehicle speed v calculated by the fixed road surface constant calculating section 207f.

Figure 0007391117000003
Figure 0007391117000003

式(3)によって算出される瞬時路面定数Bは、仮瞬時路面定数Bと類似した数式で導ける数値である。しかしながら、固定路面定数Aおよび車両速度vは常に取得可能なため、瞬時路面定数Bは、仮瞬時路面定数Bとは異なり、路面フローの算出可否に関わらず常に算出することができる。 The instantaneous road surface constant B calculated by equation (3) is a numerical value that can be derived from a formula similar to the temporary instantaneous road surface constant Bt . However, since the fixed road surface constant A and the vehicle speed v can always be obtained, the instantaneous road surface constant B, unlike the temporary instantaneous road surface constant Bt , can always be calculated regardless of whether or not the road surface flow can be calculated.

フロー方向判定部207hは、消失点推定部201で推定した消失点と、候補フロー算出部207bで算出した候補フローについて、撮像画像301のフレーム上で、消失点、候補フローの始点および終点が一直線上に並ぶか否かを判定する。これらの各点が一直線上に並ぶ場合は、対象の候補特徴点が自車両101の進行方向に沿って移動したと判定する。なお、これらの各点が完全に一直線上に並んでいなくともよく、一定範囲内の誤差を含んでいても、一直線上に並んでいると肯定的に判定してよい。 The flow direction determination unit 207h determines whether the vanishing point estimated by the vanishing point estimation unit 201 and the candidate flow calculated by the candidate flow calculation unit 207b are aligned on the frame of the captured image 301. Determine whether they line up on the line. If these points are aligned in a straight line, it is determined that the target candidate feature point has moved along the traveling direction of the own vehicle 101. Note that these points do not have to be perfectly aligned on a straight line, and even if they include errors within a certain range, it may be determined positively that they are aligned on a straight line.

フロー比率判定部207iでは、図7の模式図に示すように、撮像画像301における消失点と候補フローの始点とのY軸に沿った距離(以下、候補始点距離と呼ぶ)をy0、消失点と終点とのY軸に沿った距離(以下、候補終点距離と呼ぶ)をy1、瞬時路面定数をBとする場合に、以下の式(4)を満足するか否かを判定する。 As shown in the schematic diagram of FIG. 7, the flow ratio determination unit 207i calculates the distance along the Y axis between the vanishing point in the captured image 301 and the starting point of the candidate flow (hereinafter referred to as candidate starting point distance) by y0, the vanishing point. When the distance along the Y axis between and the end point (hereinafter referred to as candidate end point distance) is y1, and the instantaneous road surface constant is B, it is determined whether the following equation (4) is satisfied.

Figure 0007391117000004
Figure 0007391117000004

すなわち、フロー比率判定部207iは、路面フローに基づき算出された路面フローの瞬時路面定数Bが、消失点と候補フローの始点のY軸に沿った距離の逆数である1/y0から、消失点と候補フローの始点のY軸に沿った距離の逆数である1/y1を減算した数値と一致するか否かを判定する。式(4)を満足する場合、対象の候補特徴点が路面に沿って、かつ、自車両101と同じ速度で移動したと判定できる。なお、式(4)を完全に満たしていなくてもよい。つまり、一定範囲内の誤差を含んでいても誤差が充分に小さい場合は、式(4)を満たしていると肯定的に判定してよい。 That is, the flow ratio determination unit 207i determines that the instantaneous road surface constant B of the road surface flow calculated based on the road surface flow is determined from 1/y0, which is the reciprocal of the distance along the Y-axis between the vanishing point and the starting point of the candidate flow, to the vanishing point. It is determined whether or not the value matches the value obtained by subtracting 1/y1, which is the reciprocal of the distance along the Y axis from the starting point of the candidate flow. When formula (4) is satisfied, it can be determined that the candidate feature point of interest has moved along the road surface and at the same speed as the own vehicle 101. Note that equation (4) does not need to be completely satisfied. In other words, even if the error is within a certain range, if the error is sufficiently small, it may be determined positively that equation (4) is satisfied.

路面フロー判定部207jは、候補対象領域検出部203によって検出された候補対象領域310のうち、フロー方向判定部207hおよびフロー比率判定部207iの両方で肯定的に判定される、すなわち、自車両101と同一の進行方向および同一の車両速度vで、かつ、路面に沿って移動したと判定される候補フロー(以下、路面静止フローと呼ぶ)がどの候補対象領域310に含まれるかを調べ、路面静止フローを1つでも含む候補対象領域310に存在する対象物を、路面上の静止物体103として判定する。 The road surface flow determining unit 207j determines whether the candidate target area 310 detected by the candidate target area detecting unit 203 is positively determined by both the flow direction determining unit 207h and the flow ratio determining unit 207i, that is, if the host vehicle 101 It is determined which candidate target region 310 includes a candidate flow that is determined to have moved along the road surface in the same direction of travel and at the same vehicle speed v (hereinafter referred to as a road surface stationary flow). An object existing in the candidate target area 310 that includes at least one stationary flow is determined as a stationary object 103 on the road surface.

例えば、図3の一例において、先行車両303はフロー比率判定部207iにおいて否定的に判定されるため、路面上の静止物体103としては判定されない可能性が極めて高い。先行車両303は移動体であるため、先行車両303を表す候補フローは、自車両101とは異なる速度で移動するからである。 For example, in the example of FIG. 3, since the preceding vehicle 303 is determined negatively by the flow ratio determination unit 207i, it is extremely likely that the preceding vehicle 303 will not be determined as the stationary object 103 on the road surface. This is because the preceding vehicle 303 is a moving object, and therefore the candidate flow representing the preceding vehicle 303 moves at a speed different from that of the own vehicle 101.

一方、落下障害物である路面上の静止物体103は、フロー方向判定部207hおよびフロー比率判定部207iの両方で肯定的に判定されるため、道路異常の一態様である路面上の静止物体103として判定される可能性が極めて高い。 On the other hand, since the stationary object 103 on the road surface, which is a falling obstacle, is positively determined by both the flow direction determination unit 207h and the flow ratio determination unit 207i, the stationary object 103 on the road surface, which is a form of road abnormality, There is a very high possibility that it will be judged as

なお、フロー方向判定部207hおよびフロー比率判定部207iのいずれか一方で否定的に判定された候補フロー(以下、非路面静止フローと呼ぶ)が1つも含まれない場合は、候補対象領域310内には路面上の静止物体103が存在すると判定してもよい。あるいは、候補対象領域310内に含まれる路面静止フローと非路面静止フローの割合に基づき、候補対象領域310内には路面上の静止物体103が存在すると判定してもよい。実施の形態1に係る車両用画像処理装置500では、路面静止フローを適用して候補対象領域310内に路面上の静止物体103が存在するか否かを判定するに当たっては、判定方法は上述の方法に特に限定されない。 Note that if there is no candidate flow (hereinafter referred to as a non-road surface stationary flow) that is negatively determined by either the flow direction determination unit 207h or the flow ratio determination unit 207i, the candidate flow within the candidate target area 310 It may be determined that there is a stationary object 103 on the road surface. Alternatively, it may be determined that the stationary object 103 on the road surface exists within the candidate target region 310 based on the ratio of the road surface stationary flow and the non-road surface stationary flow included in the candidate target region 310. In the vehicle image processing device 500 according to the first embodiment, when determining whether or not a stationary object 103 on the road surface exists within the candidate target region 310 by applying the road surface stationary flow, the determination method is as described above. The method is not particularly limited.

<実施の形態1に係る車両用画像処理方法>
実施の形態1に係る車両用画像処理方法について、図8のフローチャートを用いて説明する。
<Vehicle image processing method according to Embodiment 1>
The vehicle image processing method according to Embodiment 1 will be described using the flowchart of FIG. 8.

まず、ステップS101において、撮像部102は自車両101の前方の撮像範囲102a内の路面を撮像し、仮に現在の撮像画像として、ステップS102に進む。なお、ステップS101とステップS102の処理の間には、画像処理ループL101が設けられている。 First, in step S101, the imaging unit 102 images the road surface within the imaging range 102a in front of the host vehicle 101, and proceeds to step S102, temporarily using the image as the current captured image. Note that an image processing loop L101 is provided between the processing in step S101 and step S102.

画像処理ループL101から画像処理ループを開始する。一連の処理が終了し、画像処理ループL102に至ると画像処理ループL101に戻り、画像処理ループL101から画像処理ループL102までの処理を繰り返す。 The image processing loop starts from image processing loop L101. When the series of processes is completed and reaches the image processing loop L102, the process returns to the image processing loop L101, and the processes from the image processing loop L101 to the image processing loop L102 are repeated.

ステップS102において、撮像結果記憶部202は、仮に現在の撮像画像とした撮像画像を、1フレーム前の過去の撮像画像、すなわち、第一撮像画像301aとして記憶し、ステップS103に進む。 In step S102, the imaging result storage unit 202 temporarily stores the current captured image as a past captured image one frame before, that is, the first captured image 301a, and proceeds to step S103.

ステップS103において、撮像部102は、撮像画像を撮像し、現在の撮像画像、すなわち、第二撮像画像301bとして更新し、ステップS104に進む。 In step S103, the imaging unit 102 captures the captured image, updates it as the current captured image, that is, the second captured image 301b, and proceeds to step S104.

ステップS104において、消失点推定部201は、現在の撮像画像、すなわち、第二撮像画像301bの消失点を推定して、ステップS105に進む。 In step S104, the vanishing point estimating unit 201 estimates the vanishing point of the current captured image, that is, the second captured image 301b, and proceeds to step S105.

ステップS105において、候補対象領域検出部203は、現在の撮像画像、すなわち、第二撮像画像301bに対して、道路異常の一態様である路面上の静止物体103が存在する可能性のある候補対象領域310を検出して、ステップS106に進む。 In step S105, the candidate target area detection unit 203 detects a candidate target area in which a stationary object 103 on the road surface, which is an aspect of road abnormality, may exist for the current captured image, that is, the second captured image 301b. The area 310 is detected and the process advances to step S106.

ステップS106において、候補対象領域310が1つ以上存在する場合は、ステップS107に進む。一方、候補対象領域310が1つも存在しない場合は、画像処理ループを繰り返すためにステップS102に戻る。 In step S106, if one or more candidate target regions 310 exist, the process advances to step S107. On the other hand, if there is no candidate target area 310, the process returns to step S102 to repeat the image processing loop.

ステップS107において、特徴点算出部204は現在の撮像画像、すなわち、第二撮像画像301bに対して特徴点を算出して、ステップS108に進む。 In step S107, the feature point calculation unit 204 calculates feature points for the current captured image, that is, the second captured image 301b, and proceeds to step S108.

ステップS108において、候補特徴点抽出部207aは現在の撮像画像、すなわち、第二撮像画像301bにおける候補対象領域310内の候補特徴点を抽出して、ステップS109に進む。 In step S108, the candidate feature point extraction unit 207a extracts candidate feature points within the candidate target area 310 in the current captured image, that is, the second captured image 301b, and the process proceeds to step S109.

ステップS109において、候補対象領域310の候補特徴点が1つ以上存在する場合は、ステップS110に進む。一方、候補対象領域310の候補特徴点が1つも存在しない場合は、画像処理ループを繰り返すためにステップS102に戻る。 In step S109, if one or more candidate feature points of the candidate target region 310 exist, the process advances to step S110. On the other hand, if there is no candidate feature point in the candidate target area 310, the process returns to step S102 to repeat the image processing loop.

ステップS110において、候補フロー算出部207bは、現在の撮像画像である第二撮像画像301bと、過去の撮像画像である1フレーム前の第一撮像画像301aと、候補特徴点抽出部207aで抽出された第二撮像画像301bにおける候補対象領域310の候補特徴点に基づき、候補フローを算出して、ステップS111に進む。 In step S110, the candidate flow calculation unit 207b uses the second captured image 301b, which is the current captured image, and the first captured image 301a, which is one frame before, which is the past captured image, and the candidate feature point extraction unit 207a extracts A candidate flow is calculated based on the candidate feature points of the candidate target area 310 in the second captured image 301b, and the process proceeds to step S111.

ステップS111において、候補フローが1つ以上存在する場合は、ステップS112に進む。一方、候補フローが1つも存在しない場合は、画像処理ループを繰り返すためにステップS102に戻る。 In step S111, if one or more candidate flows exist, the process advances to step S112. On the other hand, if there is no candidate flow, the process returns to step S102 to repeat the image processing loop.

ステップS112において、路面領域検出部205は、現在の撮像画像、すなわち、第二撮像画像301bに対して路面領域311を検出して、ステップS113に進む。 In step S112, the road surface area detection unit 205 detects the road surface area 311 in the current captured image, that is, the second captured image 301b, and proceeds to step S113.

ステップS113において、路面特徴点抽出部207cは、路面領域311内の路面特徴点を抽出して、ステップS114に進む。 In step S113, the road surface feature point extraction unit 207c extracts road surface feature points within the road surface area 311, and the process proceeds to step S114.

ステップS114において、路面領域311の路面特徴点が1つ以上存在する場合は、ステップS115に進む。一方、路面領域311の路面特徴点が1つも存在しない場合は、ステップS121に進む。 In step S114, if one or more road surface feature points exist in the road surface area 311, the process advances to step S115. On the other hand, if there is no road surface feature point in the road surface area 311, the process advances to step S121.

ステップS115において、路面フロー算出部207dは、現在の撮像画像である第二撮像画像301bと、過去の撮像画像である1フレーム前の第一撮像画像301aと、路面特徴点抽出部207cによって抽出された第二撮像画像301bにおける路面領域の路面特徴点に基づき、路面フローを算出して、ステップS116に進む。 In step S115, the road surface flow calculation unit 207d uses the second captured image 301b, which is the current captured image, the first captured image 301a, which is one frame before, which is the past captured image, and the road surface flow calculation unit 207c. The road surface flow is calculated based on the road surface feature points of the road surface area in the second captured image 301b, and the process proceeds to step S116.

ステップS116において、路面フローが1つ以上存在する場合は、ステップS117に進む。一方、路面フローが1つも存在しない場合は、ステップS121に進む。 In step S116, if one or more road surface flows exist, the process advances to step S117. On the other hand, if there is no road surface flow, the process advances to step S121.

ステップS117において、仮瞬時路面定数算出部207eは、第二撮像画像301bにおける路面始点距離および路面終点距離を用いて、式(1)によって仮瞬時路面定数Bを算出して、ステップS118に進む。 In step S117, the temporary instantaneous road surface constant calculation unit 207e calculates the temporary instantaneous road constant Bt using equation (1) using the road surface start point distance and road surface end point distance in the second captured image 301b, and proceeds to step S118. .

ステップS118において、位置測位部104は、自車両101の現在の自車位置を示す現時点における緯度および経度を取得して、ステップS119に進む。 In step S118, the positioning unit 104 acquires the current latitude and longitude indicating the current position of the own vehicle 101, and proceeds to step S119.

ステップS119において、車速取得部206は、位置測位部104で測位された自車両101の自車位置の履歴を用いて、自車両101の自車位置の時間変化から、自車両101の車両速度vを計算して、ステップS120に進む。 In step S119, the vehicle speed acquisition unit 206 uses the history of the position of the own vehicle 101 measured by the positioning unit 104 to determine the vehicle speed v of the own vehicle 101 from the time change in the own position of the own vehicle 101. is calculated, and the process proceeds to step S120.

ステップS120において、固定路面定数算出部207fは、仮瞬時路面定数Bおよび車両速度vを用いて、式(2)によって仮固定路面定数Aを算出して、ステップS121に進む。 In step S120, the fixed road surface constant calculation unit 207f calculates the temporary fixed road surface constant A t using equation (2) using the temporary instantaneous road surface constant B t and the vehicle speed v, and the process proceeds to step S121.

ステップS121において、瞬時路面定数算出部207gは、固定路面定数Aおよび車両速度vを用いて、式(3)によって瞬時路面定数Bを算出して、ステップS122に進む。 In step S121, the instantaneous road surface constant calculation unit 207g calculates the instantaneous road surface constant B using equation (3) using the fixed road surface constant A and the vehicle speed v, and proceeds to step S122.

ステップS122において、フロー方向判定部207hは、ステップS104において推定した消失点と、ステップS110において算出した候補フローについて、消失点、候補フローの始点および終点が一直線上に並ぶか否かを判定する。消失点と候補フローの始点および終点が一直線上に並ぶ場合は、肯定的に判定されたとする。ステップS122の処理後は、ステップS123に進む。 In step S122, the flow direction determining unit 207h determines whether the vanishing point estimated in step S104 and the candidate flow calculated in step S110 are aligned with the vanishing point, the starting point, and the ending point of the candidate flow. If the vanishing point and the starting point and ending point of the candidate flow are aligned in a straight line, it is assumed that the determination is positive. After the processing in step S122, the process advances to step S123.

ステップS123において、フロー比率判定部207iは、式(4)を用いた判定を行う。式(4)を満足する場合は、肯定的に判定されたとする。ステップS123の処理後は、ステップS124に進む。 In step S123, the flow ratio determination unit 207i performs determination using equation (4). If formula (4) is satisfied, it is assumed that the determination is affirmative. After the processing in step S123, the process advances to step S124.

ステップS124において、路面フロー判定部207jは、ステップS122におけるフロー方向判定およびステップS123におけるフロー比率判定の両方において、肯定的に判定されているか否かを判定する。フロー方向判定およびフロー比率判定の両方で肯定的に判定された場合は、ステップS125に進む。一方、フロー方向判定およびフロー比率判定の両方で肯定的に判定されなかった場合は、画像処理ループを繰り返すためにステップS102に戻る。 In step S124, the road surface flow determination unit 207j determines whether or not both the flow direction determination in step S122 and the flow ratio determination in step S123 are affirmative. If both the flow direction determination and the flow ratio determination are affirmative, the process advances to step S125. On the other hand, if both the flow direction determination and the flow ratio determination are not positive, the process returns to step S102 to repeat the image processing loop.

なお、フロー方向判定およびフロー比率判定のいずれか一方において肯定的に判定された場合は、ステップS125に進むとすることも可能であり、あるいは、ステップS102に戻るという処理を選択することも可能であって、路面上の静止物体103をどの程度の精度によって検出すべきかで決定される事項である。 Note that if either the flow direction determination or the flow ratio determination is affirmative, it is possible to proceed to step S125, or it is also possible to select a process of returning to step S102. This is a matter determined by how accurately the stationary object 103 on the road surface should be detected.

ステップS125において、路面フロー判定部207jは、フロー方向判定およびフロー比率判定の両方で肯定的に判定された候補フローを、路面静止フローと判定して、ステップS126に進む。 In step S125, the road surface flow determination unit 207j determines the candidate flow that has been positively determined in both the flow direction determination and the flow ratio determination as a road surface stationary flow, and proceeds to step S126.

ステップS126において、路面フロー判定部207jは、路面静止フローが含まれる候補対象領域310を、路面上の静止物体103が存在する領域、つまり、道路異常である領域であるとして検出する。 In step S126, the road surface flow determination unit 207j detects the candidate target region 310 including the road surface stationary flow as a region where the stationary object 103 on the road surface exists, that is, a region where there is a road abnormality.

処理が画像処理ループL102に達すると、画像処理ループL101に戻り、上述の動作を繰り返す。
以上が、車両用画像処理装置500の動作の説明である。
When the process reaches the image processing loop L102, the process returns to the image processing loop L101 and the above-described operations are repeated.
The above is the explanation of the operation of the vehicle image processing device 500.

<式(4)の導出>
式(4)の導出について、以下に補足的に説明する。
撮像部102として理想的なピンホールカメラを仮定する。撮像部102および撮像画像301上で特徴点となりうる対象点の位置関係について、
(a)対象点の移動方向からカメラまでの距離(対象物体が路面上を移動する場合は、すなわちカメラ高さ):h
(b)カメラ垂線から対象点までの距離:z
(c)カメラ見降ろし角:φ
(d)カメラ縦半画角:θ
(e)撮像画像301における消失点から対象点までの高さ方向の長さ:y(ピクセル)
(f)撮像画像301における消失点から画像下端までの長さ:H(ピクセル)
とすると、以下の式(5)で表される関係が得られる。なお、図9および図10に上述の各パラメータが図示されている。
<Derivation of formula (4)>
The derivation of equation (4) will be supplementarily explained below.
Assume that the imaging unit 102 is an ideal pinhole camera. Regarding the positional relationship of target points that can be feature points on the imaging unit 102 and the captured image 301,
(a) Distance from the moving direction of the target point to the camera (if the target object moves on the road surface, that is, the camera height): h
(b) Distance from camera perpendicular to target point: z
(c) Camera viewing angle: φ
(d) Camera vertical half angle of view: θ
(e) Length in the height direction from the vanishing point to the target point in the captured image 301: y (pixels)
(f) Length from the vanishing point to the bottom edge of the captured image 301: H (pixels)
Then, the relationship expressed by the following equation (5) is obtained. Note that the above-mentioned parameters are illustrated in FIGS. 9 and 10.

Figure 0007391117000005
Figure 0007391117000005

式(5)において、自車両101の走行中はH、φ、θが定数とみなせる。また、対象点を路面上の点に限定すると、さらに、hも定数とみなせる。したがって、式(5)は、A、Cを定数として、以下の式(6)のようになる。 In equation (5), H, φ, and θ can be regarded as constants while the own vehicle 101 is running. Further, if the target points are limited to points on the road surface, h can also be regarded as a constant. Therefore, equation (5) becomes the following equation (6) with A and C as constants.

Figure 0007391117000006
つまり、式(5)を式(6)のように簡略化できる。さらに、対象点のオプティカルフローの始点と終点の座標をそれぞれy0、y1、カメラ垂線から対象点のオプティカルフローの始点に対応する世界座標までの距離をz0、カメラ垂線から対象点のオプティカルフローの終点に対応する世界座標までの距離をz1とすると、以下の式(7)で表される関係が得られる。
Figure 0007391117000006
In other words, equation (5) can be simplified as equation (6). Furthermore, the coordinates of the start and end points of the optical flow of the target point are y0 and y1, respectively, the distance from the camera perpendicular to the world coordinates corresponding to the start point of the optical flow of the target point is z0, and the distance from the camera perpendicular to the end point of the optical flow of the target point is Letting z1 be the distance to the world coordinates corresponding to , the relationship expressed by the following equation (7) is obtained.

Figure 0007391117000007
Figure 0007391117000007

式(7)において、対象点を路面上の静止物体103に限定すると、Δzはすなわち自車両101の車両速度vとなる。自車両101の走行中は、Aは定数となるため、自車両101の走行中に何らかの手法によってAを推定することができれば、自車両101の車両速度vを用いてオプティカルフローが路面上の静止物体103に起因するものか否かを判定できる。 In equation (7), if the target point is limited to the stationary object 103 on the road surface, Δz becomes the vehicle speed v of the own vehicle 101. Since A is a constant while the host vehicle 101 is running, if A can be estimated by some method while the host vehicle 101 is running, the optical flow can be calculated using the vehicle speed v of the host vehicle 101 when the vehicle is stationary on the road surface. It can be determined whether the problem is caused by the object 103 or not.

<実施の形態1の効果>
以上、実施の形態1に係る車両用画像処理装置および車両用画像処理方法によれば、撮像画像から取得されるオプティカルフローを用いて道路異常を簡易に検出するため、道路異常の検出に要する処理負荷が低減される車両用画像処理装置および車両用画像処理方法が得られるという効果を奏する。
<Effects of Embodiment 1>
As described above, according to the vehicular image processing device and the vehicular image processing method according to the first embodiment, road abnormalities are easily detected using optical flows acquired from captured images, so the processing required for detecting road abnormalities is performed. This has the effect of providing a vehicular image processing device and a vehicular image processing method in which the load is reduced.

実施の形態2.
図11は、実施の形態2に係る車両用画像処理装置600の構成を示す機能ブロック図である。実施の形態2に係る車両用画像処理装置600が実施の形態1に係る車両用画像処理装置500と構成上異なる点は、位置測位部104が無い点および実寸法検出部220を設けた点である。
Embodiment 2.
FIG. 11 is a functional block diagram showing the configuration of a vehicle image processing device 600 according to the second embodiment. The vehicular image processing device 600 according to the second embodiment differs in configuration from the vehicular image processing device 500 according to the first embodiment in that the positioning section 104 is not provided and the actual size detection section 220 is provided. be.

実施の形態2に係る車両用画像処理装置600の動作は、実施の形態1のものとは実寸法検出部220および車速取得部206の動作の部分のみが異なる。したがって、以下では、実寸法検出部220および車速取得部206の動作のみを説明する。なお、これら以外の構成の動作は実施の形態1と同様である。 The operation of the vehicle image processing device 600 according to the second embodiment differs from that of the first embodiment only in the operations of the actual size detection section 220 and the vehicle speed acquisition section 206. Therefore, only the operations of the actual size detection section 220 and the vehicle speed acquisition section 206 will be described below. Note that the operations of the configuration other than these are the same as in the first embodiment.

実寸法検出部220は、撮像部102が撮像した撮像画像から、現実世界上での長さ(以下、実寸法と呼ぶ)を、既知の物体によるパターンマッチング手法などによって検出し、少なくとも2点間(以下、各点を基準点と呼ぶ)の実寸法を推定する。例えば、図12に示す撮像画像301dの一例では、一般に、破線区画線304の長さは一定であるため、破線区画線304を検出した上で、破線区画線304上の基準点304cから基準点304dまでの実寸法を、一般的な破線区画線の長さL[m]と推定する。なお、図12中のyは、図12に示す撮像画像301dにおいて、破線区画線304の基準点304dを含む水平基準線を表す。 The actual size detection unit 220 detects the length in the real world (hereinafter referred to as the actual size) from the captured image captured by the imaging unit 102 by a pattern matching method using a known object, and detects the length between at least two points. (hereinafter, each point is referred to as a reference point). For example, in an example of the captured image 301d shown in FIG. 12, the length of the broken line marking line 304 is generally constant, so after detecting the broken line marking line 304, from the reference point 304c on the broken line marking line 304 to the reference point The actual size up to 304d is estimated to be the length L r [m] of a general broken line marking line. Note that y r in FIG. 12 represents a horizontal reference line that includes the reference point 304d of the dashed partition line 304 in the captured image 301d shown in FIG.

車速取得部206は、実寸法検出部220から出力された基準点群および実寸法の長さLの履歴を記憶し、各基準点の移動履歴から自車両101の車両速度vを算出する。例えば、図12の撮像画像301dである第一撮像画像、および、時系列で図12の撮像画像301dの後に撮像された図13の撮像画像301eである第二撮像画像において、第一撮像画像である撮像画像301d上では基準点304dが水平基準線yの位置にあり、第二撮像画像である撮像画像301e上では基準点304cが水平基準線yの位置にあったとする。この場合において、図12および図13の各撮像画像の撮像時間の差をΔt[秒]とすると、自車両101の車両速度vは、L/Δt[m/秒]として算出することができる。なお、実施の形態2に係る車両用画像処理装置600では、路面上の何らかのマーカによる実寸法から車両速度vを求めることができればよく、車両速度vの算出方法は上述の方法に限定されるものではない。 The vehicle speed acquisition unit 206 stores the reference point group and the history of the actual size length Lr output from the actual size detection unit 220, and calculates the vehicle speed v of the own vehicle 101 from the movement history of each reference point. For example, in the first captured image, which is the captured image 301d in FIG. 12, and the second captured image, which is the captured image 301e in FIG. 13, which was captured after the captured image 301d in FIG. Assume that on a certain captured image 301d, a reference point 304d is located at the horizontal reference line yr , and on a captured image 301e, which is a second captured image, the reference point 304c is located at the horizontal reference line yr . In this case, if the difference in imaging time between the captured images in FIGS. 12 and 13 is Δt [seconds], the vehicle speed v of the own vehicle 101 can be calculated as L r /Δt [m/seconds]. . Note that the vehicle image processing device 600 according to the second embodiment only needs to be able to obtain the vehicle speed v from the actual dimensions of some markers on the road surface, and the method for calculating the vehicle speed v is limited to the method described above. isn't it.

<実施の形態2に係る車両用画像処理方法>
実施の形態2に係る車両用画像処理方法について、図14のフローチャートを用いて説明する。実施の形態2に係る車両用画像処理方法は、実施の形態1に係る車両用画像処理方法とはステップS218およびステップS219の処理のみが異なる。以下、異なるステップの処理のみについて説明する。なお、これら以外のステップの処理は、実施の形態1に係る車両用画像処理方法の場合と同様である。
<Vehicle image processing method according to Embodiment 2>
The vehicle image processing method according to the second embodiment will be explained using the flowchart of FIG. 14. The vehicle image processing method according to the second embodiment differs from the vehicle image processing method according to the first embodiment only in the processing of step S218 and step S219. Hereinafter, only the processing of different steps will be explained. Note that the processing in steps other than these is the same as in the case of the vehicle image processing method according to the first embodiment.

ステップS218およびステップS219は、実施の形態1に係る車両用画像処理方法を示す図8のフローチャート中のステップS118およびステップS119をそれぞれ置き換えたものである。 Step S218 and step S219 replace step S118 and step S119, respectively, in the flowchart of FIG. 8 showing the vehicle image processing method according to the first embodiment.

ステップS218において、実寸法検出部220は現在の撮像画像、つまり、第二撮像画像から基準点間の実寸法を推定して、ステップS219に進む。 In step S218, the actual size detection unit 220 estimates the actual size between the reference points from the current captured image, that is, the second captured image, and proceeds to step S219.

ステップS219において、車速取得部206は、推定された実寸法に基づき、自車両101の車両速度vを算出する。 In step S219, the vehicle speed acquisition unit 206 calculates the vehicle speed v of the own vehicle 101 based on the estimated actual size.

<実施の形態2の効果>
以上、実施の形態2に係る車両用画像処理装置および車両用画像処理方法によれば、実寸法検出部220による実寸法の推定に基づき自車両101の車両速度vを算出するので、実施の形態1が奏する効果に加えて、より簡便な方法で車両速度vを算出することが可能となる車両用画像処理装置および車両用画像処理方法が得られるという効果を奏する。
<Effects of Embodiment 2>
As described above, according to the vehicle image processing device and the vehicle image processing method according to the second embodiment, the vehicle speed v of the host vehicle 101 is calculated based on the estimation of the actual size by the actual size detection unit 220. In addition to the effects of Embodiment 1, it is possible to obtain a vehicular image processing device and a vehicular image processing method that make it possible to calculate the vehicle speed v using a simpler method.

実施の形態3.
図15は、実施の形態3に係る車両用画像処理装置700の構成を示す機能ブロック図である。実施の形態3に係る車両用画像処理装置700が実施の形態1に係る車両用画像処理装置500と構成上異なる点は、位置測位部104が無い点および車両情報受信部230を設けた点である。
Embodiment 3.
FIG. 15 is a functional block diagram showing the configuration of a vehicle image processing device 700 according to the third embodiment. The configuration of the vehicle image processing device 700 according to the third embodiment differs from the vehicle image processing device 500 according to the first embodiment in that the positioning section 104 is not provided and the vehicle information receiving section 230 is provided. be.

実施の形態3に係る車両用画像処理装置700の動作は、実施の形態1のものとは車両情報受信部230および車速取得部206の動作の部分のみが異なる。したがって、以下では、車両情報受信部230および車速取得部206の動作のみを説明する。なお、これら以外の構成の動作は実施の形態1と同様である。 The operation of the vehicle image processing device 700 according to the third embodiment differs from that of the first embodiment only in the operations of the vehicle information receiving section 230 and the vehicle speed obtaining section 206. Therefore, only the operations of vehicle information receiving section 230 and vehicle speed obtaining section 206 will be described below. Note that the operations of the configuration other than these are the same as in the first embodiment.

車両情報受信部230は、自車両101に搭載されたECU(Electronic Control Unit:電子制御ユニット)から、自車両101の車両速度vを含む車両情報をCAN(Controller Area Network)通信などによって受信する。なお、CAN以外にもEthernetなどの通信プロトコルを用いてもよい。 The vehicle information receiving unit 230 receives vehicle information including the vehicle speed v of the own vehicle 101 from an ECU (Electronic Control Unit) mounted on the own vehicle 101 through CAN (Controller Area Network) communication or the like. Note that a communication protocol such as Ethernet may be used in addition to CAN.

車速取得部206は、車両情報受信部230において受信した車両情報に基づき、自車両101の車両速度vを取得する。 The vehicle speed acquisition unit 206 acquires the vehicle speed v of the own vehicle 101 based on the vehicle information received by the vehicle information reception unit 230.

<実施の形態3に係る車両用画像処理方法>
実施の形態3に係る車両用画像処理方法について、図16に示すフローチャートを用いて説明する。実施の形態3に係る車両用画像処理方法は、実施の形態1に係る車両用画像処理方法とはステップS318およびステップS319の処理のみが異なる。以下、異なるステップの処理についてのみ説明する。なお、異なるステップ以外のステップの処理は、実施の形態1に係る車両用画像処理方法と同様である。
<Vehicle image processing method according to Embodiment 3>
A vehicle image processing method according to Embodiment 3 will be described using a flowchart shown in FIG. 16. The vehicle image processing method according to the third embodiment differs from the vehicle image processing method according to the first embodiment only in the processing of step S318 and step S319. Hereinafter, only the processing of different steps will be explained. Note that the processing of the steps other than the different steps is the same as that of the vehicle image processing method according to the first embodiment.

ステップS318およびステップS319は、実施の形態1に係る車両用画像処理方法を示す図8のフローチャート中のステップS118およびステップS119をそれぞれ置き換えたものである。 Step S318 and step S319 replace step S118 and step S119, respectively, in the flowchart of FIG. 8 showing the vehicle image processing method according to the first embodiment.

ステップS318において、車両情報受信部230は、自車両101に搭載されたECUからの車両情報を受信して、ステップS319に進む。 In step S318, the vehicle information receiving unit 230 receives vehicle information from the ECU mounted on the own vehicle 101, and the process proceeds to step S319.

ステップS319において、車速取得部206はECUから受信した車両情報に基づき、自車両101の車両速度vを取得する。 In step S319, the vehicle speed acquisition unit 206 acquires the vehicle speed v of the host vehicle 101 based on the vehicle information received from the ECU.

<実施の形態3の効果>
以上、実施の形態3に係る車両用画像処理装置および車両用画像処理方法によれば、車両情報受信部230がECUから受信する車両情報に基づき自車両101の車両速度vを算出するので、実施の形態1が奏する効果に加えて、より簡便な方法で車両速度vを算出することが可能となる車両用画像処理装置および車両用画像処理方法が得られるという効果を奏する。
<Effects of Embodiment 3>
As described above, according to the vehicle image processing device and the vehicle image processing method according to the third embodiment, the vehicle information receiving unit 230 calculates the vehicle speed v of the host vehicle 101 based on the vehicle information received from the ECU, so the implementation In addition to the effects of the first embodiment, there is an effect that a vehicle image processing device and a vehicle image processing method that can calculate the vehicle speed v using a simpler method can be obtained.

実施の形態4.
図17は、実施の形態4に係る車両用画像処理装置800の構成を示す機能ブロック図である。実施の形態4に係る車両用画像処理装置800が実施の形態1に係る車両用画像処理装置500と構成上異なる点は、実施の形態1の構成の路面領域検出部205を路面標示検出部240に置き換える点、および、実施の形態1の構成の路面特徴点抽出部207cを路面特徴点算出部207kに置き換える点である。
Embodiment 4.
FIG. 17 is a functional block diagram showing the configuration of a vehicle image processing device 800 according to the fourth embodiment. The difference in configuration between the vehicle image processing device 800 according to the fourth embodiment and the vehicle image processing device 500 according to the first embodiment is that the road surface area detection section 205 configured in the first embodiment is replaced with the road surface marking detection section 240. and that the road surface feature point extraction section 207c configured in the first embodiment is replaced with the road surface feature point calculation section 207k.

実施の形態4に係る車両用画像処理装置800の動作は、実施の形態1に係る車両用画像処理装置500の動作とは、路面標示検出部240および路面特徴点算出部207kの動作の部分のみが異なる。したがって、以下では、路面標示検出部240および路面特徴点算出部207kの動作のみを説明する。なお、これら以外の構成の動作は実施の形態1と同様である。 The operation of the vehicle image processing device 800 according to the fourth embodiment differs from the operation of the vehicle image processing device 500 according to the first embodiment only in the operations of the road marking detection unit 240 and the road surface feature point calculation unit 207k. are different. Therefore, only the operations of the road marking detection section 240 and the road surface feature point calculation section 207k will be described below. Note that the operations of the configuration other than these are the same as in the first embodiment.

路面標示検出部240は、撮像部102が撮像した撮像画像301から、路面にペイントされた路面標示をパターンマッチング手法などの検出方法によって検出する。例えば、図3の撮像画像301では、路面標示検出部240は、路面上にペイントされた制限速度標示306を画像処理によって検出する。路面標示検出部240によって路面標示が検出されなかった場合は、路面標示検出部240は路面標示を出力しない。なお、制限速度標示306は路面標示の一例であって、他のどのような路面標示であってもよい。 The road marking detection unit 240 detects road markings painted on the road surface from the captured image 301 captured by the imaging unit 102 using a detection method such as a pattern matching method. For example, in the captured image 301 of FIG. 3, the road marking detection unit 240 detects a speed limit marking 306 painted on the road surface by image processing. If no road marking is detected by the road marking detection section 240, the road marking detection section 240 does not output a road marking. Note that the speed limit sign 306 is an example of a road surface marking, and may be any other road surface marking.

路面特徴点算出部207kは、路面標示検出部240で検出した路面標示の路面特徴点を、路面特徴点抽出部207cと同様に算出する。例えば、図18に示す撮像画像301では、路面特徴点算出部207kは、制限速度標示306の路面特徴点306aおよび路面特徴点306bを算出する。かかる動作によって、実施の形態1における路面特徴点抽出部207cと同様に、路面領域311の路面特徴点を算出することができる。なお、路面特徴点算出部207kと前述の路面特徴点抽出部207cとを総称して、路面特徴点特定部と呼ぶ。 The road surface feature point calculation unit 207k calculates the road surface feature points of the road markings detected by the road marking detection unit 240 in the same manner as the road surface feature point extraction unit 207c. For example, in the captured image 301 shown in FIG. 18, the road surface feature point calculation unit 207k calculates the road surface feature point 306a and the road surface feature point 306b of the speed limit sign 306. Through this operation, the road surface feature points of the road surface region 311 can be calculated similarly to the road surface feature point extraction unit 207c in the first embodiment. Note that the road surface feature point calculation section 207k and the aforementioned road surface feature point extraction section 207c are collectively referred to as a road surface feature point identification section.

<実施の形態4に係る車両用画像処理方法>
実施の形態4に係る車両用画像処理方法について、図19に示すフローチャートを用いて説明する。実施の形態4に係る車両用画像処理方法は、実施の形態1に係る車両用画像処理方法とはステップS411、ステップS412およびステップS413の処理のみが異なる。以下、異なるステップの処理のみについて説明する。なお、異なるステップ以外のステップの処理は、実施の形態1に係る車両用画像処理方法と同様である。
<Vehicle image processing method according to Embodiment 4>
A vehicle image processing method according to Embodiment 4 will be described using a flowchart shown in FIG. 19. The vehicle image processing method according to the fourth embodiment differs from the vehicle image processing method according to the first embodiment only in the processing of step S411, step S412, and step S413. Hereinafter, only the processing of different steps will be explained. Note that the processing of the steps other than the different steps is the same as that of the vehicle image processing method according to the first embodiment.

ステップS411およびステップS412は、実施の形態1に係る車両用画像処理方法を示す図8のフローチャート中のステップS111の後に追加されたステップであり、ステップS413は、ステップS113を置き換えたものである。 Step S411 and step S412 are steps added after step S111 in the flowchart of FIG. 8 showing the vehicle image processing method according to the first embodiment, and step S413 replaces step S113.

ステップS411において、路面標示検出部240は現在の撮像画像、すなわち、第二撮像画像301bから路面標示を検出して、ステップS412に進む。 In step S411, the road marking detection unit 240 detects road markings from the current captured image, that is, the second captured image 301b, and proceeds to step S412.

ステップS412において、路面標示検出部240が路面標示を1つ以上検出した場合はステップS413に進む。一方、路面標示検出部240が路面標示を検出しなかった場合は、ステップS121に進む。 In step S412, if the road marking detection unit 240 detects one or more road markings, the process advances to step S413. On the other hand, if the road marking detection unit 240 does not detect a road marking, the process advances to step S121.

ステップS413において、路面特徴点算出部207kは路面標示上、すなわち路面領域311の路面特徴点を算出して、ステップS114に進む。 In step S413, the road surface feature point calculation unit 207k calculates road surface feature points on the road surface marking, that is, in the road surface area 311, and the process proceeds to step S114.

<実施の形態4の効果>
以上、実施の形態4に係る車両用画像処理装置および車両用画像処理方法によれば、路面標示検出部240が撮像画像から路面標示を検出するので、道路異常の検出に要する処理負荷が一層低減される車両用画像処理装置が得られる。
<Effects of Embodiment 4>
As described above, according to the vehicle image processing device and the vehicle image processing method according to the fourth embodiment, the road marking detection unit 240 detects road markings from the captured image, so that the processing load required for detecting road abnormalities is further reduced. A vehicle image processing device is obtained.

なお、上述の実施の形態1から4による車両用画像処理装置500、600、700、800の構成は機能ブロックとして説明されているが、車両用画像処理装置500、600、700、800を格納するハードウエアとしての構成の一例を図14に示す。ハードウエア900は、プロセッサ901と記憶装置902から構成される。記憶装置902は図示していないが、ランダムアクセスメモリ等の揮発性記憶装置と、フラッシュメモリ等の不揮発性の補助記憶装置とを具備する。 Although the configurations of the vehicle image processing devices 500, 600, 700, and 800 according to the first to fourth embodiments described above are described as functional blocks, the vehicle image processing devices 500, 600, 700, and 800 are stored in the vehicle image processing devices 500, 600, 700, and 800. An example of a hardware configuration is shown in FIG. Hardware 900 includes a processor 901 and a storage device 902. Although not shown, the storage device 902 includes a volatile storage device such as a random access memory and a nonvolatile auxiliary storage device such as a flash memory.

また、フラッシュメモリの代わりにハードディスクの補助記憶装置を具備してもよい。プロセッサ901は、記憶装置902から入力されたプログラムを実行する。この場合、補助記憶装置から揮発性記憶装置を介してプロセッサ901にプログラムが入力される。また、プロセッサ901は、演算結果等のデータを記憶装置902の揮発性記憶装置に出力してもよいし、揮発性記憶装置を介して補助記憶装置にデータを保存してもよい。 Further, an auxiliary storage device such as a hard disk may be provided instead of the flash memory. Processor 901 executes a program input from storage device 902. In this case, the program is input to the processor 901 from the auxiliary storage device via the volatile storage device. Furthermore, the processor 901 may output data such as calculation results to a volatile storage device of the storage device 902, or may store data in an auxiliary storage device via the volatile storage device.

本開示は、様々な例示的な実施の形態及び実施例が記載されているが、1つ、または複数の実施の形態に記載された様々な特徴、態様、及び機能は特定の実施の形態の適用に限られるのではなく、単独で、または様々な組み合わせで実施の形態に適用可能である。 Although this disclosure describes various exemplary embodiments and examples, the various features, aspects, and functions described in one or more embodiments may differ from those of a particular embodiment. The invention is not limited to application, and can be applied to the embodiments alone or in various combinations.

従って、例示されていない無数の変形例が、本願明細書に開示される技術の範囲内において想定される。例えば、少なくとも1つの構成要素を変形する場合、追加する場合または省略する場合、さらには、少なくとも1つの構成要素を抽出し、他の実施の形態の構成要素と組み合わせる場合が含まれるものとする。 Accordingly, countless variations not illustrated are envisioned within the scope of the technology disclosed herein. For example, this includes cases where at least one component is modified, added, or omitted, and cases where at least one component is extracted and combined with components of other embodiments.

101 自車両、102 撮像部、102a 撮像範囲、103 路面上の静止物体、103b、103c、303b、303c、303d 候補特徴点、104 位置測位部、104a 測位センサー、201 消失点推定部、202 撮像結果記憶部、203 候補対象領域検出部、204 特徴点算出部、205 路面領域検出部、206 車速取得部、207 路面静止判定部、207a 候補特徴点抽出部、207b 候補フロー算出部、207c 路面特徴点抽出部、207d 路面フロー算出部、207e 仮瞬時路面定数算出部、207f 固定路面定数算出部、207g 瞬時路面定数算出部、207h フロー方向判定部、207i フロー比率判定部、207j 路面フロー判定部、207k 路面特徴点算出部、220 実寸法検出部、230 車両情報受信部、240 路面標示検出部、301、301c、301d、301e 撮像画像、301a 第一撮像画像、301b 第二撮像画像、302a、302b 区画線、303 先行車両、304 破線区画線、304a、304b、306a、306b 路面特徴点、304c、304d 基準点、306 制限速度標示、310 候補対象領域、311 路面領域、500、600、700、800 車両用画像処理装置、900 ハードウエア、901 プロセッサ、902 記憶装置 Reference Signs List 101 Own vehicle, 102 Imaging unit, 102a Imaging range, 103 Stationary object on road surface, 103b, 103c, 303b, 303c, 303d Candidate feature points, 104 Positioning unit, 104a Positioning sensor, 201 Vanishing point estimation unit, 202 Imaging result Storage unit, 203 Candidate target area detection unit, 204 Feature point calculation unit, 205 Road surface area detection unit, 206 Vehicle speed acquisition unit, 207 Road surface stationary determination unit, 207a Candidate feature point extraction unit, 207b Candidate flow calculation unit, 207c Road surface feature point Extraction unit, 207d Road surface flow calculation unit, 207e Temporary instantaneous road constant calculation unit, 207f Fixed road constant calculation unit, 207g Instantaneous road constant calculation unit, 207h Flow direction determination unit, 207i Flow ratio determination unit, 207j Road flow determination unit, 207k Road surface feature point calculation unit, 220 Actual size detection unit, 230 Vehicle information reception unit, 240 Road marking detection unit, 301, 301c, 301d, 301e Captured image, 301a First captured image, 301b Second captured image, 302a, 302b Section line, 303 preceding vehicle, 304 broken line marking line, 304a, 304b, 306a, 306b road surface feature point, 304c, 304d reference point, 306 speed limit sign, 310 candidate target area, 311 road surface area, 500, 600, 700, 800 vehicle image processing device, 900 hardware, 901 processor, 902 storage device

Claims (22)

車両に設置され、前記車両の周囲の路面を撮像して、時系列で連続する複数の撮像画像を取得する撮像部と、
前記撮像画像に基づき、前記車両の移動方向の消失点を推定する消失点推定部と、
前記時系列で連続する複数の撮像画像の間で対応する特徴点を算出する特徴点算出部と、
前記撮像画像から道路異常が存在する可能性のある候補対象領域を検出する候補対象領域検出部と、
前記特徴点算出部で算出された前記特徴点のうち、前記候補対象領域に含まれる特徴点を候補特徴点として抽出する候補特徴点抽出部と、
前記撮像画像から路面上の特徴点を路面特徴点として抽出あるいは算出する路面特徴点特定部と、
前記候補特徴点に基づき、候補フローを算出する候補フロー算出部と、
前記路面特徴点に基づき、路面フローを算出する路面フロー算出部と、
前記路面フローに基づき、固定路面定数を算出する固定路面定数算出部と、
前記車両の車両速度を前記固定路面定数によって除算することにより算出される瞬時路面定数が、前記消失点と前記候補フローの始点の距離の逆数から前記消失点と前記候補フローの終点の距離の逆数を引いた数値と一致するか否かを判定するフロー比率判定部と、
前記消失点、前記候補フローの始点および終点が同一の直線上に位置するか否かを判定するフロー方向判定部と、
前記フロー方向判定部および前記フロー比率判定部の判定結果に基づき、前記候補対象領域における前記道路異常の存在を判定する路面フロー判定部と、
を備える車両用画像処理装置。
an imaging unit that is installed in a vehicle and captures images of a road surface around the vehicle to obtain a plurality of consecutive captured images in chronological order;
a vanishing point estimation unit that estimates a vanishing point in the moving direction of the vehicle based on the captured image;
a feature point calculation unit that calculates corresponding feature points among the plurality of captured images that are continuous in the time series;
a candidate target area detection unit that detects a candidate target area in which a road abnormality may exist from the captured image;
a candidate feature point extracting unit that extracts feature points included in the candidate target area as candidate feature points from among the feature points calculated by the feature point calculating unit;
a road surface feature point identification unit that extracts or calculates feature points on the road surface from the captured image as road surface feature points;
a candidate flow calculation unit that calculates a candidate flow based on the candidate feature points;
a road surface flow calculation unit that calculates a road surface flow based on the road surface feature points;
a fixed road surface constant calculation unit that calculates a fixed road surface constant based on the road surface flow;
An instantaneous road surface constant calculated by dividing the vehicle speed of the vehicle by the fixed road surface constant is calculated from the reciprocal of the distance between the vanishing point and the starting point of the candidate flow to the reciprocal of the distance between the vanishing point and the end point of the candidate flow. a flow ratio determination unit that determines whether or not the value obtained by subtracting .
a flow direction determining unit that determines whether the vanishing point, the starting point, and the ending point of the candidate flow are located on the same straight line;
a road surface flow determination unit that determines the presence of the road abnormality in the candidate target area based on the determination results of the flow direction determination unit and the flow ratio determination unit;
A vehicle image processing device comprising:
前記候補フロー算出部は、前記複数の撮像画像において、時系列で連続する第一撮像画像及び前記第一撮像画像の後に撮像された第二撮像画像について、前記候補特徴点抽出部によって抽出された一方の撮像画像における候補特徴点を他方の撮像画像上の特徴点と対応付け、前記第一撮像画像における特徴点である始点から、前記第二撮像画像に対応付けられた特徴点である終点に向かう候補フローを算出する請求項1に記載の車両用画像処理装置。 The candidate flow calculation unit is configured to extract information extracted by the candidate feature point extraction unit for a first captured image that is continuous in time series and a second captured image that is captured after the first captured image in the plurality of captured images. A candidate feature point in one captured image is associated with a feature point on the other captured image, and from a starting point, which is a feature point in the first captured image, to an end point, which is a feature point associated with the second captured image. The image processing device for a vehicle according to claim 1, which calculates a destination candidate flow. 前記路面フロー算出部は、前記路面特徴点特定部によって算出された一方の撮像画像における前記路面特徴点を他方の撮像画像上の特徴点と対応付け、前記第一撮像画像における前記特徴点である始点から、前記第二撮像画像に対応付けられた前記特徴点である終点に向かう路面フローを算出する請求項2に記載の車両用画像処理装置。 The road surface flow calculation unit associates the road surface feature point in one captured image calculated by the road surface feature point identification unit with the feature point on the other captured image, and the road surface flow calculation unit associates the road surface feature point in one captured image calculated by the road surface feature point identification unit with the feature point in the other captured image, and The image processing device for a vehicle according to claim 2, which calculates a road surface flow from a starting point toward an end point that is the feature point associated with the second captured image. 前記第二撮像画像のフレーム上で、前記消失点と前記路面フローの始点および終点との間の距離をそれぞれ路面始点距離および路面終点距離として設定し、前記路面始点距離の逆数から前記路面終点距離の逆数を減算することにより前記路面フローの瞬時路面定数を算出する瞬時路面定数算出部と、
をさらに備える請求項3に記載の車両用画像処理装置。
On the frame of the second captured image, the distances between the vanishing point and the start point and end point of the road surface flow are set as a road surface start point distance and a road surface end point distance, respectively, and the road surface end point distance is calculated from the reciprocal of the road surface start point distance. an instantaneous road surface constant calculation unit that calculates an instantaneous road surface constant of the road surface flow by subtracting the reciprocal of the
The vehicle image processing device according to claim 3, further comprising:.
前記路面フロー判定部は、前記第二撮像画像のフレーム上で、前記消失点、前記候補フローの始点および終点が同一の直線上にあり、かつ、前記瞬時路面定数が、前記消失点と前記候補フローの始点の距離の逆数から前記消失点と前記候補フローの始点の距離の逆数を引いた数値と一致する場合は、前記候補フローを含む前記候補対象領域に前記道路異常が存在すると判定する請求項2から4のいずれか1項に記載の車両用画像処理装置。 The road surface flow determination unit is arranged such that the vanishing point, the start point and the end point of the candidate flow are on the same straight line on the frame of the second captured image, and the instantaneous road surface constant is arranged so that the vanishing point and the candidate flow are on the same straight line. If the value matches a value obtained by subtracting the reciprocal of the distance between the vanishing point and the starting point of the candidate flow from the reciprocal of the distance between the starting point of the flow, it is determined that the road abnormality exists in the candidate target area including the candidate flow. The vehicle image processing device according to any one of items 2 to 4. 前記道路異常は、路面上の静止物体あるいは道路劣化である請求項1から5のいずれか1項に記載の車両用画像処理装置。 6. The vehicle image processing apparatus according to claim 1, wherein the road abnormality is a stationary object on the road surface or road deterioration. 前記固定路面定数算出部は、前記車両の車両速度を、路面始点距離の逆数から路面終点距離の逆数を減算することにより算出された仮瞬時路面定数によって除算する演算を一定期間内に複数回繰り返し、演算ごとに算出される仮固定路面定数を統計処理することにより固定路面定数を算出し、
前記統計処理は、演算ごとに算出される仮固定路面定数の平均値、最頻値および中央値のいずれかの算出である請求項1から6のいずれか1項に記載の車両用画像処理装置。
The fixed road surface constant calculation unit repeats an operation of dividing the vehicle speed of the vehicle by a provisional instantaneous road surface constant calculated by subtracting the reciprocal of the road surface end point distance from the reciprocal of the road surface start point distance multiple times within a certain period of time. , Calculate the fixed road surface constant by statistically processing the temporary fixed road surface constant calculated for each calculation,
The vehicle image processing device according to any one of claims 1 to 6, wherein the statistical processing is a calculation of an average value, a mode value, or a median value of temporarily fixed road surface constants calculated for each calculation. .
前記車両の自車位置を測位する位置測位部をさらに備え、
前記位置測位部が取得した前記自車位置の履歴を用いて、前記車両の車両速度を算出する請求項1から7のいずれか1項に記載の車両用画像処理装置。
further comprising a positioning unit that measures the position of the vehicle,
The image processing device for a vehicle according to any one of claims 1 to 7, wherein the vehicle speed of the vehicle is calculated using the history of the own vehicle position acquired by the position positioning unit.
前記撮像画像から撮像された前記道路異常の実寸法を検出する実寸法検出部をさらに備え、
前記実寸法検出部によって出力される前記道路異常の実寸法に基づき前記車両の車両速度を算出する請求項1から7のいずれか1項に記載の車両用画像処理装置。
further comprising an actual size detection unit that detects an actual size of the road abnormality captured from the captured image,
The vehicle image processing device according to any one of claims 1 to 7, wherein the vehicle speed of the vehicle is calculated based on the actual size of the road abnormality output by the actual size detection section.
前記車両が搭載する電子制御ユニットによって前記車両の車両速度を取得する車両情報受信部をさらに備える請求項1から7のいずれか1項に記載の車両用画像処理装置。 The image processing device for a vehicle according to any one of claims 1 to 7, further comprising a vehicle information receiving section that acquires the vehicle speed of the vehicle using an electronic control unit installed in the vehicle. 前記撮像画像から路面標示を検出する路面標示検出部をさらに備え、
前記路面特徴点特定部は、前記路面標示から前記路面特徴点を算出する請求項1から10のいずれか1項に記載の車両用画像処理装置。
further comprising a road marking detection unit that detects a road marking from the captured image,
The vehicle image processing device according to any one of claims 1 to 10, wherein the road surface feature point identification unit calculates the road surface feature points from the road surface markings.
車両の周囲の路面を撮像して、時系列で連続する複数の撮像画像を取得する撮像ステップと、
前記撮像画像に基づき、前記車両の移動方向の消失点を推定する消失点推定ステップと、
前記時系列で連続する複数の撮像画像の間で対応する特徴点を算出する特徴点算出ステップと、
前記撮像画像から道路異常が存在する可能性のある候補対象領域を検出する候補対象領域検出ステップと、
前記特徴点算出ステップで算出された前記特徴点のうち、前記候補対象領域に含まれる特徴点を候補特徴点として抽出する候補特徴点抽出ステップと、
前記撮像画像から路面上の特徴点を路面特徴点として抽出あるいは算出する路面特徴点特定ステップと、
前記候補特徴点に基づき、候補フローを算出する候補フロー算出ステップと、
前記路面特徴点に基づき、路面フローを算出する路面フロー算出ステップと、
前記路面フローに基づき、固定路面定数を算出する固定路面定数算出ステップと、
前記車両の車両速度を前記固定路面定数によって除算することにより算出される瞬時路面定数が、前記消失点と前記候補フローの始点の距離の逆数から前記消失点と前記候補フロー終点の距離の逆数を引いた数値と一致するか否かを判定するフロー比率判定ステップと、
前記消失点、前記候補フローの始点および終点が同一の直線上に位置するか否かを判定するフロー方向判定ステップと、
前記フロー方向判定ステップおよび前記フロー比率判定ステップの判定結果に基づき、前記候補対象領域における前記道路異常の存在を判定する路面フロー判定ステップと、
を含む車両用画像処理方法。
an imaging step of imaging a road surface around the vehicle to obtain a plurality of consecutive captured images in chronological order;
a vanishing point estimating step of estimating a vanishing point in the moving direction of the vehicle based on the captured image;
a feature point calculation step of calculating corresponding feature points between the plurality of captured images that are continuous in the time series;
a candidate target area detection step of detecting a candidate target area where a road abnormality may exist from the captured image;
a candidate feature point extraction step of extracting feature points included in the candidate target area as candidate feature points from among the feature points calculated in the feature point calculation step;
a road surface feature point identifying step of extracting or calculating feature points on the road surface from the captured image as road surface feature points;
a candidate flow calculation step of calculating a candidate flow based on the candidate feature points;
a road surface flow calculation step of calculating a road surface flow based on the road surface feature points;
a fixed road surface constant calculation step of calculating a fixed road surface constant based on the road surface flow;
An instantaneous road surface constant calculated by dividing the vehicle speed of the vehicle by the fixed road surface constant is calculated from the reciprocal of the distance between the vanishing point and the starting point of the candidate flow to the reciprocal of the distance between the vanishing point and the end point of the candidate flow. a flow ratio determination step of determining whether or not it matches the value obtained by subtracting .
a flow direction determining step of determining whether the vanishing point, the starting point and the ending point of the candidate flow are located on the same straight line;
a road surface flow determination step of determining the presence of the road abnormality in the candidate target area based on the determination results of the flow direction determination step and the flow ratio determination step;
An image processing method for a vehicle including.
前記候補フロー算出ステップは、前記複数の撮像画像において、時系列で連続する第一撮像画像及び前記第一撮像画像の後に撮像された第二撮像画像について、前記候補特徴点抽出ステップによって抽出された一方の撮像画像における候補特徴点を他方の撮像画像上の特徴点と対応付け、前記第一撮像画像における特徴点である始点から、前記第二撮像画像に対応付けられた特徴点である終点に向かう候補フローを算出する請求項12に記載の車両用画像処理方法。 The candidate flow calculation step includes extracting candidate feature points extracted by the candidate feature point extraction step for a first captured image that is continuous in time series and a second captured image that is captured after the first captured image in the plurality of captured images. A candidate feature point in one captured image is associated with a feature point on the other captured image, and from a starting point, which is a feature point in the first captured image, to an end point, which is a feature point associated with the second captured image. The image processing method for a vehicle according to claim 12, further comprising calculating a destination candidate flow. 前記路面フロー算出ステップは、前記路面特徴点特定ステップによって算出された一方の撮像画像における路面特徴点を他方の撮像画像上の特徴点と対応付け、前記第一撮像画像における前記特徴点である始点から、前記第二撮像画像に対応付けられた前記特徴点である終点に向かう路面フローを算出する請求項13に記載の車両用画像処理方法。 The road surface flow calculation step associates the road surface feature point in one captured image calculated in the road surface feature point specifying step with the feature point on the other captured image, and the starting point which is the feature point in the first captured image. 14. The image processing method for a vehicle according to claim 13, wherein a road surface flow toward an end point that is the feature point associated with the second captured image is calculated from the above. 前記第二撮像画像のフレーム上で、前記消失点と前記路面フローの始点および終点との間の距離をそれぞれ路面始点距離および路面終点距離として設定し、前記路面始点距離の逆数から前記路面終点距離の逆数を減算することにより前記路面フローの瞬時路面定数を算出する瞬時路面定数算出ステップをさらに含む請求項14に記載の車両用画像処理方法。 On the frame of the second captured image, the distances between the vanishing point and the start point and end point of the road surface flow are set as a road surface start point distance and a road surface end point distance, respectively, and the road surface end point distance is calculated from the reciprocal of the road surface start point distance. 15. The image processing method for a vehicle according to claim 14, further comprising an instantaneous road constant calculating step of calculating an instantaneous road constant of the road surface flow by subtracting a reciprocal of the road surface flow. 前記路面フロー判定ステップは、前記第二撮像画像のフレーム上で、前記消失点、前記候補フローの始点および終点が同一の直線上にあり、かつ、前記瞬時路面定数が、前記消失点と前記候補フローの始点の距離の逆数から前記消失点と前記候補フローの始点の距離の逆数を引いた数値と一致する場合は、前記候補フローを含む前記候補対象領域に前記道路異常が存在すると判定する請求項13から15のいずれか1項に記載の車両用画像処理方法。 The road surface flow determining step includes the vanishing point, the start point and the end point of the candidate flow being on the same straight line on the frame of the second captured image, and the instantaneous road surface constant being between the vanishing point and the candidate flow. If the value matches a value obtained by subtracting the reciprocal of the distance between the vanishing point and the starting point of the candidate flow from the reciprocal of the distance between the starting point of the flow, it is determined that the road abnormality exists in the candidate target area including the candidate flow. The vehicle image processing method according to any one of Items 13 to 15. 前記道路異常は、路面上の静止物体あるいは道路劣化である請求項12から16のいずれか1項に記載の車両用画像処理方法。 17. The image processing method for a vehicle according to claim 12, wherein the road abnormality is a stationary object on the road surface or road deterioration. 前記固定路面定数算出ステップは、前記車両の車両速度を、路面始点距離の逆数から路面終点距離の逆数を減算することにより算出された仮瞬時路面定数によって除算する演算を一定期間内に複数回繰り返し、演算ごとに算出される仮固定路面定数を統計処理することにより固定路面定数を算出し、
前記統計処理は、演算ごとに算出される仮固定路面定数の平均値、最頻値および中央値のいずれかの算出である請求項12から17のいずれか1項に記載の車両用画像処理方法。
The fixed road surface constant calculation step includes repeating an operation of dividing the vehicle speed of the vehicle by a temporary instantaneous road surface constant calculated by subtracting the reciprocal of the road surface end point distance from the reciprocal of the road surface start point distance multiple times within a certain period of time. , Calculate the fixed road surface constant by statistically processing the temporary fixed road surface constant calculated for each calculation,
The image processing method for a vehicle according to any one of claims 12 to 17, wherein the statistical processing is the calculation of any one of an average value, a mode value, and a median value of temporarily fixed road surface constants calculated for each calculation. .
前記車両の自車位置を測位する位置測位ステップをさらに含み、
前記位置測位ステップによって取得した前記自車位置の履歴を用いて、前記車両の車両速度を算出する請求項12から18のいずれか1項に記載の車両用画像処理方法。
further comprising a positioning step of positioning the own vehicle position of the vehicle,
The image processing method for a vehicle according to any one of claims 12 to 18, wherein the vehicle speed of the vehicle is calculated using the history of the own vehicle position acquired in the position positioning step.
前記撮像画像から撮像された前記道路異常の実寸法を検出する実寸法検出ステップをさらに含み、
前記実寸法検出ステップによって出力される前記道路異常の実寸法に基づき前記車両の車両速度を算出する請求項12から18のいずれか1項に記載の車両用画像処理方法。
further comprising an actual size detection step of detecting an actual size of the road abnormality captured from the captured image,
The image processing method for a vehicle according to any one of claims 12 to 18, wherein the vehicle speed of the vehicle is calculated based on the actual size of the road abnormality output by the actual size detection step.
前記車両が搭載する電子制御ユニットによって前記車両の車両速度を取得する車両情報受信ステップをさらに含む請求項12から18のいずれか1項に記載の車両用画像処理方法。 The image processing method for a vehicle according to any one of claims 12 to 18, further comprising a vehicle information receiving step of acquiring vehicle speed of the vehicle by an electronic control unit mounted on the vehicle. 前記撮像画像から路面標示を検出する路面標示検出ステップをさらに含み、
前記路面特徴点特定ステップは、前記路面標示から前記路面特徴点を算出する請求項12から21のいずれか1項に記載の車両用画像処理方法。
further comprising a road marking detection step of detecting a road marking from the captured image,
22. The vehicle image processing method according to claim 12, wherein the road surface feature point specifying step calculates the road surface feature point from the road surface marking.
JP2022001400A 2022-01-07 2022-01-07 Vehicle image processing device and vehicle image processing method Active JP7391117B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022001400A JP7391117B2 (en) 2022-01-07 2022-01-07 Vehicle image processing device and vehicle image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022001400A JP7391117B2 (en) 2022-01-07 2022-01-07 Vehicle image processing device and vehicle image processing method

Publications (2)

Publication Number Publication Date
JP2023101069A JP2023101069A (en) 2023-07-20
JP7391117B2 true JP7391117B2 (en) 2023-12-04

Family

ID=87201757

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022001400A Active JP7391117B2 (en) 2022-01-07 2022-01-07 Vehicle image processing device and vehicle image processing method

Country Status (1)

Country Link
JP (1) JP7391117B2 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4958279B2 (en) 2006-05-17 2012-06-20 株式会社デンソーアイティーラボラトリ Object detection device
WO2020261568A1 (en) 2019-06-28 2020-12-30 日本電気株式会社 Road surface inspection device, road surface inspection method, and program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4958279B2 (en) 2006-05-17 2012-06-20 株式会社デンソーアイティーラボラトリ Object detection device
WO2020261568A1 (en) 2019-06-28 2020-12-30 日本電気株式会社 Road surface inspection device, road surface inspection method, and program

Also Published As

Publication number Publication date
JP2023101069A (en) 2023-07-20

Similar Documents

Publication Publication Date Title
KR102483649B1 (en) Vehicle localization method and vehicle localization apparatus
US11151741B2 (en) System and method for obstacle avoidance
US8259998B2 (en) Image processing device for vehicle
WO2018142900A1 (en) Information processing device, data management device, data management system, method, and program
JP4973736B2 (en) Road marking recognition device, road marking recognition method, and road marking recognition program
JP4363295B2 (en) Plane estimation method using stereo images
JP4702569B2 (en) Image processing apparatus for vehicle
EP3032818B1 (en) Image processing device
WO2013133129A1 (en) Moving-object position/attitude estimation apparatus and method for estimating position/attitude of moving object
EP3113145B1 (en) Local location computation device and local location computation method
JP6552448B2 (en) Vehicle position detection device, vehicle position detection method, and computer program for vehicle position detection
US11468691B2 (en) Traveling lane recognition apparatus and traveling lane recognition method
JP2018048949A (en) Object recognition device
CN111164648A (en) Position estimation device and position estimation method for moving body
KR20230000585A (en) Method and apparatus for calibrating multiple sensors
JP5107154B2 (en) Motion estimation device
EP3813020A1 (en) Camera orientation estimation
JP2001076128A (en) Device and method for detecting obstacle
KR102195040B1 (en) Method for collecting road signs information using MMS and mono camera
JP7391117B2 (en) Vehicle image processing device and vehicle image processing method
JP2023118759A (en) Measuring device, measuring method and program
CN109344677B (en) Method, device, vehicle and storage medium for recognizing three-dimensional object
JP6886136B2 (en) Alignment device, alignment method and computer program for alignment
CN115790616A (en) Determination of an absolute initial position of a vehicle
JP7380443B2 (en) Partial image generation device and computer program for partial image generation

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220107

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230620

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230710

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231024

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231121

R151 Written notification of patent or utility model registration

Ref document number: 7391117

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151