JP7119462B2 - Imaging system, imaging method, moving body equipped with imaging system, imaging device, and moving body equipped with imaging device - Google Patents

Imaging system, imaging method, moving body equipped with imaging system, imaging device, and moving body equipped with imaging device Download PDF

Info

Publication number
JP7119462B2
JP7119462B2 JP2018051841A JP2018051841A JP7119462B2 JP 7119462 B2 JP7119462 B2 JP 7119462B2 JP 2018051841 A JP2018051841 A JP 2018051841A JP 2018051841 A JP2018051841 A JP 2018051841A JP 7119462 B2 JP7119462 B2 JP 7119462B2
Authority
JP
Japan
Prior art keywords
imaging
road surface
image
camera
stereo
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018051841A
Other languages
Japanese (ja)
Other versions
JP2019164018A (en
Inventor
学 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2018051841A priority Critical patent/JP7119462B2/en
Publication of JP2019164018A publication Critical patent/JP2019164018A/en
Application granted granted Critical
Publication of JP7119462B2 publication Critical patent/JP7119462B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)

Description

本発明は、撮像システム、撮像方法、撮像システムを搭載した移動体、撮像装置および撮像装置を搭載した移動体に関する。 TECHNICAL FIELD The present invention relates to an imaging system, an imaging method, a moving body equipped with the imaging system, an imaging device, and a moving body equipped with the imaging device.

各種道路において、車両走行の安全性、快適性の確保、要修繕箇所の抽出などのため、路面のひび割れ率、わだち掘れ量、平坦性などの路面性状の測定が定期的に行われている。これらの測定を行う際には、対象路線において車両通行規制を行い、規制領域内で人手により測定を行うことが従来一般的であった。近年では、カメラやセンサを搭載した車両により走行しながら道路面の情報を取得することで、通行規制を行うことなく路面性状測定を実施する技術が提案されている。 On various roads, road surface properties such as crack rate, rut amount, flatness, etc., are regularly measured in order to ensure vehicle travel safety and comfort, and to identify areas requiring repair. Conventionally, when performing these measurements, it has been common practice to restrict vehicle traffic on the target route and manually perform measurements within the restricted area. In recent years, technology has been proposed for measuring road surface conditions without restricting traffic by acquiring information on the road surface while driving using vehicles equipped with cameras and sensors.

特許文献1には、複数の照明を用いて路面を撮像し、路面のひび割れなどの欠損の検出率を高めるようにした道路補正面調査装置が開示されている。 Japanese Patent Laid-Open No. 2002-200001 discloses a road correction surface investigation device that captures an image of a road surface using a plurality of illuminations to increase the detection rate of defects such as cracks in the road surface.

車両にカメラを搭載し、走行しながら道路面を撮像する手法において、ひび割れの検出や、わだち掘れの測定を行う際には、撮像画像に含まれる特徴物の画像が十分なコントラストを有していることが望ましい。ところが、路面の状況、例えば舗装種の違いや影の有無などにより、撮像画像内に十分なコントラストが得られない場合がある。この場合、撮像画像に基づく測定が困難となるおそれがある。 When detecting cracks or measuring ruts in the method of mounting a camera on a vehicle and capturing images of the road surface while driving, the image of the feature included in the captured image must have sufficient contrast. It is desirable to be However, there are cases where sufficient contrast cannot be obtained in the captured image due to road surface conditions, such as differences in pavement types and the presence or absence of shadows. In this case, it may become difficult to perform measurement based on the captured image.

これを解消するために、撮影対象領域に照明を当てることで適切なコントラストの画像を取得する手法がある。しかしながら、この手法では、撮像に必要な光量を得るために、大きな照明と、大容量のバッテリあるいは発電機とが必要になるため、コストが嵩む、専用車両が必要になってしまう、などの問題点があった。また、一般的な露出制御により路面の輝度変化に応じた自動露出を行うことも考えられる。しかしながら、車両走行しながらの路面撮像では、自動露光の追従タイムラグにより十分なコントラストが得られないフレームが多数発生しまう可能性があるという問題があった。 In order to solve this problem, there is a method of acquiring an image with appropriate contrast by illuminating the imaging target area. However, this method requires a large amount of lighting and a large-capacity battery or generator in order to obtain the amount of light necessary for imaging. there was a point It is also conceivable to perform automatic exposure according to changes in the brightness of the road surface by general exposure control. However, in road surface imaging while a vehicle is running, there is a problem that there may be many frames in which sufficient contrast is not obtained due to the follow-up time lag of automatic exposure.

本発明は、上記に鑑みてなされたものであって、車両で走行しながら道路面を撮像する場合において、路面性状の測定に適した十分なコントラストの画像を容易に取得可能とすることを目的とする。 SUMMARY OF THE INVENTION The present invention has been made in view of the above, and it is an object of the present invention to make it possible to easily obtain an image with sufficient contrast suitable for measuring the road surface properties when imaging the road surface while driving a vehicle. and

上述した課題を解決し、目的を達成するために、本発明は、移動体に搭載され、移動体が移動する路面を撮像する第1の撮像装置と、移動体に搭載され、第1の撮像装置に対して移動体の進行方向側の路面を撮像する第2の撮像装置と、移動体の現在位置を示す現在位置情報を取得する取得部と、第2の撮像装置により撮像された撮像画像に基づき第1の撮像装置の撮像条件として露出パラメータを決定する撮像制御部と、を備え、撮像制御部は、さらに撮像条件を第1の撮像装置に設定するタイミングを、現在位置情報と、予め定められた、第2の撮像装置による撮像範囲の移動体からの距離と、に基づき決定するIn order to solve the above-described problems and achieve the object, the present invention provides a first imaging device mounted on a mobile body for imaging a road surface on which the mobile body moves, and a first imaging device mounted on the mobile body for imaging a road surface on which the mobile body moves. A second imaging device that captures an image of a road surface on the traveling direction side of the moving body with respect to the device, an acquisition unit that acquires current position information indicating the current position of the moving body, and a captured image captured by the second imaging device and an imaging control unit that determines an exposure parameter as an imaging condition of the first imaging device based on the current position information and the timing of setting the imaging condition to the first imaging device in advance. It is determined based on the determined distance from the moving object in the imaging range of the second imaging device .

本発明によれば、車両で走行しながら道路面を撮像する場合において、路面性状の測定に適した十分なコントラストの画像を容易に取得可能となるという効果を奏する。 ADVANTAGE OF THE INVENTION According to this invention, when imaging a road surface while driving by vehicle, it is effective in being able to acquire easily the image of sufficient contrast suitable for the measurement of a road surface property.

図1は、わだち掘れ量の計測を説明するための図である。FIG. 1 is a diagram for explaining the measurement of the amount of rutting. 図2は、平坦性の計測を説明するための図である。FIG. 2 is a diagram for explaining flatness measurement. 図3は、第1の実施形態に係る撮像システムの構成例を示す図である。FIG. 3 is a diagram showing a configuration example of an imaging system according to the first embodiment. 図4は、第1の実施形態に適用可能な、ステレオカメラによる、車両の進行方向の撮像範囲を説明するための図である。FIG. 4 is a diagram for explaining an imaging range in the direction of travel of a vehicle by a stereo camera, which is applicable to the first embodiment. 図5は、第1の実施形態に適用可能な、ステレオカメラによる、車両の道路幅方向の撮像範囲を説明するための図である。FIG. 5 is a diagram for explaining an imaging range of a vehicle in the road width direction by a stereo camera, which is applicable to the first embodiment. 図6は、第1の実施形態に適用可能な、ステレオカメラによるステレオ撮像範囲の、車両の進行方向における重複を示す図である。FIG. 6 is a diagram showing overlapping of stereo imaging ranges of stereo cameras in the traveling direction of the vehicle, which is applicable to the first embodiment. 図7は、第1の実施形態に係る、3台のステレオカメラを備える撮像システムの例を示す図である。FIG. 7 is a diagram illustrating an example of an imaging system including three stereo cameras according to the first embodiment; 図8は、第1の実施形態に係る撮像システムの概略的な構成の例を示すブロック図である。FIG. 8 is a block diagram showing an example of a schematic configuration of an imaging system according to the first embodiment; 図9は、第1の実施形態に係る撮像システムのハードウェア構成の例を示すブロック図である。FIG. 9 is a block diagram showing an example of the hardware configuration of the imaging system according to the first embodiment; 図10は、第1の実施形態に係るステレオカメラの一例の構成を示すブロック図である。FIG. 10 is a block diagram showing an example configuration of a stereo camera according to the first embodiment. 図11は、第1の実施形態に適用可能な情報処理装置の一例の構成を示すブロック図である。FIG. 11 is a block diagram showing an example configuration of an information processing apparatus applicable to the first embodiment. 図12は、第1の実施形態に適用可能な情報処理装置の機能を説明するための一例の機能ブロック図である。FIG. 12 is an example functional block diagram for explaining functions of an information processing apparatus applicable to the first embodiment. 図13は、第1の実施形態に係る平坦性の算出処理を示す一例のフローチャートである。FIG. 13 is an exemplary flowchart illustrating flatness calculation processing according to the first embodiment. 図14は、第1の実施形態に適用可能なデプスマップの生成処理を示す一例のフローチャートである。FIG. 14 is an exemplary flowchart illustrating depth map generation processing applicable to the first embodiment. 図15は、第1の実施形態に適用可能な三角法を説明するための図である。FIG. 15 is a diagram for explaining trigonometry applicable to the first embodiment. 図16は、第1の実施形態に適用可能な、カメラ位置および向きの推定処理を示す一例のフローチャートである。FIG. 16 is a flowchart of an example of camera position and orientation estimation processing applicable to the first embodiment. 図17は、第1の実施形態に適用可能な、カメラ位置および向きの推定処理を説明するための図である。FIG. 17 is a diagram for explaining camera position and orientation estimation processing applicable to the first embodiment. 図18は、路面において大きな輝度変化がある箇所の例を示す図である。FIG. 18 is a diagram showing an example of a location on the road surface where there is a large luminance change. 図19は、第1の実施形態に係る、進行方向用カメラに関する処理を示す一例のフローチャートである。FIG. 19 is a flowchart of an example of processing related to the traveling direction camera according to the first embodiment. 図20は、第1の実施形態に係る、路面撮像用カメラに関する処理を示す一例のフローチャートである。FIG. 20 is a flowchart of an example of processing related to a road surface imaging camera according to the first embodiment. 図21は、第1の実施形態の第1の変形例に係る、進行方向用カメラに関する処理を示す一例のフローチャートである。FIG. 21 is a flowchart of an example of processing related to the traveling direction camera according to the first modification of the first embodiment. 図22は、第1の実施形態の第1の変形例に適用可能な、進行方向用カメラによる撮像範囲と、路面撮像用カメラによるステレオ撮像範囲との関係を説明するための図である。FIG. 22 is a diagram for explaining the relationship between the imaging range of the traveling direction camera and the stereo imaging range of the road surface imaging camera, which can be applied to the first modification of the first embodiment. 図23は、第1の実施形態の第1の変形例に適用可能な、路面撮像用カメラおよび進行方向用カメラによる撮像画像の例を示す図である。23A and 23B are diagrams showing examples of images captured by the road surface imaging camera and the traveling direction camera, which are applicable to the first modification of the first embodiment. 図24は、第1の実施形態の第1の変形例に係る、路面撮像用カメラに関する処理を示す一例のフローチャートである。FIG. 24 is a flowchart of an example of processing related to a road surface imaging camera according to the first modification of the first embodiment. 図25は、第1の実施形態の第2の変形例に係る、進行方向用カメラに関する処理を示す一例のフローチャートである。FIG. 25 is a flowchart of an example of processing related to the traveling direction camera according to the second modification of the first embodiment. 図26は、第2の実施形態に係る、撮像条件設定処理を示す一例のフローチャートである。FIG. 26 is a flowchart of an example of imaging condition setting processing according to the second embodiment.

以下に添付図面を参照して、撮像システム、撮像方法、撮像システムを搭載した移動体、撮像装置および撮像装置を搭載した移動体の実施形態を詳細に説明する。 Embodiments of an image capturing system, an image capturing method, a mobile body equipped with the image capturing system, an image capturing device, and a mobile body equipped with the image capturing device will be described below in detail with reference to the accompanying drawings.

[既存の道路性状の検査方法の概略]
実施形態の説明に先んじて、既存の道路性状の検査方法について、概略的に説明する。道路性状を評価するための指標として、舗装の維持管理指数(MCI:Maintenance Control Index)が定められている。MCIは、舗装の供用性を、「ひび割れ率」、「わだち掘れ量」および「平坦性」という3種類の路面性状値によって定量的に評価するものである。
[Overview of existing road property inspection methods]
Before describing the embodiments, an existing method for inspecting road properties will be briefly described. As an index for evaluating road properties, a pavement maintenance control index (MCI: Maintenance Control Index) is defined. MCI quantitatively evaluates the usability of pavement using three types of road surface property values: "crack rate", "rutting amount" and "flatness".

これらのうち、「ひび割れ率」は、路面を50cmのメッシュに分割した各領域において、ひび割れの本数およびパッチング面積に応じて、下記の通り、ひび割れ面積を算出し、算出結果を式(1)に適用して、ひび割れ率を求める。 Among these, the "crack rate" is obtained by calculating the crack area according to the number of cracks and the patching area in each area in which the road surface is divided into 50 cm meshes, as follows, and the calculation result is expressed in formula (1). Apply to determine the crack rate.

ひび割れ1本⇒0.15m2のひび
ひび割れ2本⇒0.25m2のひび
パッチング面積0~25%⇒ひび割れ0m2
パッチング面積25~75%⇒ひび割れ0.125m2
パッチング面積75%以上⇒ひび割れ0.25m2
1 crack ⇒ 0.15 m 2 crack 2 cracks ⇒ 0.25 m 2 crack Patching area 0 to 25% ⇒ 0 m 2 crack
Patching area 25-75% ⇒ Crack 0.125m 2
Patching area 75% or more ⇒ Crack 0.25m 2

Figure 0007119462000001
Figure 0007119462000001

「わだち掘れ量」は、図1(a)および図1(b)に例示されるように、1車線について2本発生する「わだち」の深さD1およびD2を計測し、計測された深さD1およびD2のうち大きい値を採用する。「わだち」の掘れ方には、幾つかのパターンがあるので、それぞれのパターンに合わせた計測方法が規定される。図1(a)は、2本の「わだち」の間が、2本の「わだち」の両端より高い場合、図1(b)は、2本の「わだち」の間が、2本の「わだち」の両端より低い場合の計測方法の例を示している。 The "rut amount" is measured by measuring the depths D1 and D2 of two "ruts" generated per lane, as illustrated in Figs. 1(a) and 1(b). The larger of the depths D 1 and D 2 is taken. Since there are several patterns in how "ruts" are dug, a measurement method suitable for each pattern is defined. In FIG. 1(a), the distance between two "ruts" is higher than both ends of the two "ruts." It shows an example of the measurement method when it is lower than both ends of the rut.

平坦性は、路面の車両の進行方向に沿って、基準面からの高さを1.5m間隔で3箇所、計測する。例えば、図2に示されるように、車両の下面に1.5m間隔で3箇所、測定器を設け、高さX1、X2およびX3を計測する。計測された高さX1、X2およびX3に基づき式(2)により変位量dを求める。この計測を、車両を移動させながら複数回実行する。これにより得られた複数の変位量dに基づき式(3)を計算し、平坦性σを算出する。 The flatness is measured by measuring the height from the reference plane at three points at intervals of 1.5 m along the traveling direction of the vehicle on the road surface. For example, as shown in FIG. 2, three measuring instruments are provided on the underside of the vehicle at intervals of 1.5 m to measure heights X 1 , X 2 and X 3 . Based on the measured heights X 1 , X 2 and X 3 , the amount of displacement d is obtained by equation (2). This measurement is performed multiple times while moving the vehicle. Equation (3) is calculated based on the plurality of displacement amounts d thus obtained to calculate the flatness σ.

Figure 0007119462000002
Figure 0007119462000002

Figure 0007119462000003
Figure 0007119462000003

上述した「ひび割れ率」、「わだち掘れ量」および「平坦性」の計測を、100mの評価区間毎に実行する。損傷箇所が予め分かっている場合は、100mを40m+60mなどより小さい単位に分割して計測を行う場合もある。100m単位で実行された計測結果に基づきMCIを算出し、調書を作成する。 The "crack rate", "rutting amount" and "flatness" described above are measured for each 100 m evaluation section. If the location of damage is known in advance, 100m may be divided into smaller units such as 40m+60m for measurement. MCI is calculated based on the results of measurements performed in units of 100m, and a report is created.

MCIは、計測したひび割れ率C[%]、わだち掘れ量D[mm]、および、平坦性σ[mm」に基づき、表1に示される4つの式を計算して値MCI、MCI1、MCI2およびMCI3を算出する。そして、算出された値MCI、MCI1、MCI2およびMCI3のうち、最小値をMCIとして採用する。採用されたMCIに基づき表2に示す評価基準に従い評価を行い、評価区間の路面に修繕が必要か否かを判定する。 MCI is calculated using the four formulas shown in Table 1 based on the measured crack rate C [%], rutting amount D [mm], and flatness σ [mm] to obtain the values MCI, MCI1, MCI2 and Calculate MCI3. Then, among the calculated values MCI, MCI1, MCI2 and MCI3, the minimum value is adopted as MCI. Evaluation is performed according to the evaluation criteria shown in Table 2 based on the adopted MCI, and it is determined whether or not the road surface in the evaluation section needs repair.

Figure 0007119462000004
Figure 0007119462000004

Figure 0007119462000005
Figure 0007119462000005

[第1の実施形態]
次に、第1の実施形態に係る撮像システムについて説明する。第1の実施形態では、ステレオ撮像が可能なカメラ(ステレオカメラ)を車両に取り付けて路面を撮像する。撮像されたステレオ撮像画像に基づき撮像位置から路面に対する奥行き情報を取得して路面の3次元形状を生成し、3次元路面データを作成する。この3次元路面データを解析することで、MCIを求めるために用いる「ひび割れ率」、「わだち掘れ量」および「平坦性」を取得することができる。
[First embodiment]
Next, an imaging system according to the first embodiment will be described. In the first embodiment, a camera capable of stereo imaging (stereo camera) is attached to a vehicle to capture an image of the road surface. Depth information for the road surface is obtained from the imaging position based on the captured stereo images, the three-dimensional shape of the road surface is generated, and three-dimensional road surface data is created. By analyzing this three-dimensional road surface data, it is possible to obtain the "crack rate", "rutting amount" and "flatness" used to obtain the MCI.

より具体的に説明する。ステレオカメラは、所定の長さ(基線長と呼ぶ)を離して設けられた2つのカメラを備え、この2つのカメラで撮像された2枚ペアの撮像画像(ステレオ撮像画像と呼ぶ)を出力する。このステレオ撮像画像に含まれる2枚の撮像画像間で対応する点を探索することで、撮像画像中の任意の点について、奥行き距離を復元することができる。撮像画像の全域について奥行きを復元し、各画素を奥行き情報により表したデータを、デプスマップと呼ぶ。すなわち、デプスマップは、それぞれ3次元の情報を持つ点の集合からなる3次元点群情報である。 More specific description will be given. A stereo camera is provided with two cameras separated by a predetermined length (referred to as a base line length), and outputs a pair of captured images (referred to as stereo captured images) captured by these two cameras. . By searching for a corresponding point between two captured images included in this stereo captured image, the depth distance can be restored for any point in the captured image. Data obtained by restoring the depth of the entire captured image and representing each pixel with depth information is called a depth map. That is, the depth map is three-dimensional point group information consisting of a set of points each having three-dimensional information.

このステレオカメラを車両の後方など1箇所に下向きに取り付け地面を撮像できるようにし、計測したい道路に沿って車両を移動させる。説明のため、測定のために車両に搭載するステレオカメラは、撮像範囲が、道路幅方向の規定の長さをカバーしているものとする。 This stereo camera is mounted downward at one location such as the rear of the vehicle so that it can take an image of the ground, and the vehicle is moved along the road to be measured. For the sake of explanation, it is assumed that the imaging range of the stereo camera mounted on the vehicle for measurement covers a specified length in the road width direction.

わだち掘れ量Dは、このステレオカメラにより撮像されたステレオ撮像画像から復元されたデプスマップ中の道路幅方向にストライプ状に切り取った部分の奥行き値を並べる。この奥行きの道路幅方向の変化に基づき、わだち掘れ深さD1およびD2を計算することができる。 For the rutting amount D, the depth values of the striped portions cut in the road width direction in the depth map restored from the stereo image captured by the stereo camera are arranged. Based on this road width variation in depth, the rut depths D 1 and D 2 can be calculated.

ひび割れ率Cは、路面を撮像した撮像画像を解析して「ひび」などを検出し、検出結果に基づき上述した式(1)による計算を行うことで取得する。 The crack rate C is obtained by analyzing a captured image of the road surface to detect "cracks" and the like, and performing calculation using the above-described formula (1) based on the detection results.

ここで、車両の進行方向では、1回の撮像による撮像範囲が限定されるため、例えば100m区間のひび割れ率Cを1回の撮像による撮像画像に基づき計算することができない。そこで、車両を道路に従い移動させながら、撮像範囲の車両の進行方向の長さに応じた移動毎に順次、撮像を行う。このとき、前回の撮像における撮像範囲と、今回の撮像における撮像範囲とが、予め設計された重複率以上で重複するように、撮像のトリガを制御する。 Here, in the traveling direction of the vehicle, since the imaging range of one imaging is limited, for example, the crack rate C of a 100 m section cannot be calculated based on the imaging image obtained by one imaging. Therefore, while moving the vehicle along the road, images are sequentially captured for each movement corresponding to the length of the imaging range in the direction in which the vehicle travels. At this time, the imaging trigger is controlled so that the imaging range of the previous imaging and the imaging range of the current imaging overlap at a predetermined overlapping rate or more.

このように、車両の移動に応じて撮像のトリガを制御することで、計測したい道路の路面を漏れなく撮像できる。そのため、車両の進行に応じて順次撮像された撮像画像をスティッチングと呼ばれる画像処理などを用いて繋ぎ合わせて、例えば100m区間の路面の画像を含む1枚の画像を生成する。この画像を目視確認あるいは解析することで、道路面上のひび割れ率Cを計測できる。 In this way, by controlling the imaging trigger according to the movement of the vehicle, the road surface to be measured can be imaged without omission. For this reason, captured images that are sequentially captured in accordance with the progress of the vehicle are joined using image processing called stitching, for example, to generate a single image including an image of the road surface in a 100 m section. By visually confirming or analyzing this image, the crack rate C on the road surface can be measured.

平坦性の測定は、Structure from Motion(以下、SfM)と呼ばれる、異なる撮像地点の画像から十分に重複して撮像された画像に基づき、その撮像位置を推定する技術を使う。 Flatness measurement uses a technique called Structure from Motion (SfM), which estimates the imaging position based on sufficiently overlapped images taken from images at different imaging points.

SfMの処理の概要について説明する。まず、撮像範囲を重複して撮像された画像を用い、それぞれの画像中で同一地点を撮像した点を対応点として検出する。対応点は、可能な限り多数を検出することが望ましい。次に、例えば1枚目の画像の撮像地点から、2枚目の画像の撮像地点へのカメラの移動を、回転と並進を未知パラメータとして、検出した対応点の座標を用いた連立方程式を立て、最もトータルの誤差が小さくなるようなパラメータを求める。このようにして、2枚目の画像の撮像位置を算出できる。 An outline of the SfM processing will be described. First, using images captured in overlapping imaging ranges, points obtained by imaging the same point in each image are detected as corresponding points. It is desirable to detect as many corresponding points as possible. Next, for example, simultaneous equations are established using the coordinates of the detected corresponding points for the movement of the camera from the imaging point of the first image to the imaging point of the second image, with rotation and translation as unknown parameters. , find the parameters that minimize the total error. In this way, the imaging position of the second image can be calculated.

上述したように、それぞれの撮像地点におけるステレオ撮像画像から、画像中の任意の点の奥行きがデプスマップとして復元できている。1枚目のステレオ撮像画像に対応するデプスマップに対して、2枚目のステレオ撮像画像に対応するデプスマップを、上述の連立方程式により求めた2枚目のカメラの撮像位置を原点としたデプスマップに座標変換する。これにより、2枚のデプスマップを、1枚目のデプスマップの座標系に統一することができる。換言すれば、2枚のデプスマップを合成して1枚のデプスマップを生成できる。 As described above, the depth of an arbitrary point in the image can be restored as a depth map from the stereo-captured image at each imaging point. The depth map corresponding to the second stereo-captured image is obtained from the simultaneous equations described above with respect to the depth map corresponding to the first stereo-captured image, with the imaging position of the second camera as the origin. Coordinate transformation to map. As a result, the two depth maps can be unified into the coordinate system of the first depth map. In other words, one depth map can be generated by synthesizing two depth maps.

この処理を、例えば100m区間において撮像した全てのステレオ撮像画像に基づくデプスマップについて行い合成することで、1つの3次元空間中に、100m区間の道路面が復元される。このようにして復元された道路面の奥行き値を上述の式(2)に適用することで、変位量dを算出できる。この変位量dを上述の式(3)に適用して、平坦性σを算出する。 By performing this processing for, for example, depth maps based on all stereo imaged images captured in a 100 m section and synthesizing them, the road surface of the 100 m section is restored in one three-dimensional space. The amount of displacement d can be calculated by applying the depth value of the road surface thus restored to the above equation (2). Applying this displacement amount d to the above equation (3), the flatness σ is calculated.

第1の実施形態では、車両に搭載したステレオカメラによる撮像と、撮像されたステレオ撮像画像に対する画像処理を行うことによって、MCIを求めるための、道路面の平坦性σ、わだち掘れ量D、および、ひび割れ率Cを、纏めて計測することができる。第1の実施形態では、この計測を、ステレオカメラとステレオ撮像画像に対する画像処理を行う情報処理装置とからなる撮像システムを用いて実施可能であり、MCIを簡易な構成により求めることが可能となる。 In the first embodiment, images are captured by a stereo camera mounted on a vehicle, and image processing is performed on the captured stereo images. , the crack rate C can be collectively measured. In the first embodiment, this measurement can be performed using an imaging system that includes a stereo camera and an information processing device that performs image processing on stereo-captured images, and MCI can be obtained with a simple configuration. .

[第1の実施形態の概要]
第1の実施形態では、この路面の3次元形状を生成するためのステレオカメラによる路面撮像に当たり、当該撮像システムが搭載される車両の進行方向前方における、ステレオカメラにて路面が撮像されるべき撮像範囲を撮像する。この進行方向前方の撮像範囲にて撮像された撮像画像に基づき、ステレオカメラにて当該撮像範囲を撮像する際の、露光量を含む撮像条件を求め、求めた撮像条件を当該ステレオカメラに対して設定する。これにより、ステレオカメラにて路面を撮像する際の撮像条件を適切に制御でき、ステレオ撮像画像に基づきより高精度に3次元形状を生成可能となる。
[Overview of the first embodiment]
In the first embodiment, when the road surface is imaged by a stereo camera for generating the three-dimensional shape of the road surface, an image of the road surface to be imaged by the stereo camera in front of the vehicle in which the imaging system is mounted is taken. Take an image of the range. Based on the captured image captured in the imaging range forward in the direction of travel, the imaging conditions including the amount of exposure when capturing the imaging range with the stereo camera are obtained, and the obtained imaging conditions are applied to the stereo camera. set. As a result, it is possible to appropriately control the imaging conditions when imaging the road surface with the stereo camera, and to generate a three-dimensional shape with higher accuracy based on the stereo-captured images.

[第1の実施形態に適用可能なカメラ配置]
次に、第1の実施形態に適用可能なカメラ配置の例について説明する。図3は、第1の実施形態に係る撮像システムの構成例を示す図である。図3(a)は、第1の実施形態に係る撮像システムが車両1に搭載される様子を車両1の側面から示した図である。図3(a)において、図の左端に向けた方向が、車両1の進行方向とする。すなわち、図3(a)において、車両1の左端側が車両1の前部であり、右端側が車両1の後部である。図3(b)は、当該車両1を後部側から見た例を示す図である。
[Camera Arrangement Applicable to First Embodiment]
Next, an example of camera arrangement applicable to the first embodiment will be described. FIG. 3 is a diagram showing a configuration example of an imaging system according to the first embodiment. FIG. 3A is a side view of the vehicle 1 showing how the imaging system according to the first embodiment is mounted on the vehicle 1. FIG. In FIG. 3( a ), the direction toward the left end of the drawing is the traveling direction of the vehicle 1 . That is, in FIG. 3( a ), the left end side of the vehicle 1 is the front portion of the vehicle 1 , and the right end side is the rear portion of the vehicle 1 . FIG. 3(b) is a diagram showing an example of the vehicle 1 viewed from the rear side.

第1の実施形態に係る撮像システムは、当該撮像システムを搭載する移動体としての車両1の車体後部に撮像装置取付用の取付部2を備える取付部材3を固定し、取付部2に1以上のステレオカメラ6を取り付ける。ここでは、図3(b)に例示されるように、車両1の車体の幅方向の両端側に、2台のステレオカメラ6Lおよび6Rが取り付けられるものとする。各ステレオカメラ6Lおよび6Rは、車両1が移動する路面4を撮像する向きに取り付けられる。好ましくは、各ステレオカメラ6Lおよび6Rは、路面4を垂直方向から撮像するように取り付けられる。 In the imaging system according to the first embodiment, a mounting member 3 having a mounting portion 2 for mounting an imaging device is fixed to the rear portion of a vehicle body 1 as a mobile body on which the imaging system is mounted, and one or more Attach the stereo camera 6 of . Here, as exemplified in FIG. 3B, two stereo cameras 6L and 6R are attached to both end sides of the vehicle body of the vehicle 1 in the width direction. Each of the stereo cameras 6L and 6R is attached in an orientation to image the road surface 4 on which the vehicle 1 moves. Preferably, each stereo camera 6L and 6R is mounted so as to image the road surface 4 from the vertical direction.

以降、ステレオカメラ6Lおよび6Rを区別する必要の無い場合には、ステレオカメラ6Lおよび6Rをステレオカメラ6として纏めて記述する。 Hereinafter, the stereo cameras 6L and 6R will be collectively described as the stereo camera 6 when there is no need to distinguish between the stereo cameras 6L and 6R.

ステレオカメラ6は、例えば車両1の内部に設置された、例えばパーソナルコンピュータ(PC)5により制御される。作業者はPC5を操作し、ステレオカメラ6による撮像開始を指示する。撮像開始が指示されると、PC5は、ステレオカメラ6による撮像を開始する。撮像は、ステレオカメラ6すなわち車両1の移動速度に応じてタイミング制御され、繰り返し実行される。 The stereo camera 6 is controlled by, for example, a personal computer (PC) 5 installed inside the vehicle 1, for example. The operator operates the PC 5 and instructs the stereo camera 6 to start imaging. When instructed to start imaging, the PC 5 starts imaging with the stereo camera 6 . The imaging is controlled in timing according to the moving speed of the stereo camera 6, that is, the vehicle 1, and is repeatedly executed.

作業者は、例えば必要な区間の撮像の終了に応じてPC5を操作し撮像終了を指示する。PC5は、撮像終了の指示に応じて、ステレオカメラ6による撮像を終了させる。 The operator operates the PC 5 and instructs the end of imaging, for example, according to the end of imaging of a required section. The PC 5 terminates the imaging by the stereo camera 6 in response to the imaging termination instruction.

車両1に対して、さらに、車両1の進行方向前方の路面4を撮像するためのカメラ7が設けられる。すなわち、カメラ7は、ステレオカメラ6が撮像すべき路面4の所定領域を、ステレオカメラ6による当該所定領域の撮像に先んじて撮像する。カメラ7で撮像された撮像画像(進行方向撮像画像と呼ぶ)は、PC5に送られる。PC5は、カメラ7から送られた進行方向撮像画像に基づき、当該所定領域の明るさを検出し、検出結果に基づきステレオカメラ6の露光量を含む撮像条件を設定する。 The vehicle 1 is further provided with a camera 7 for capturing an image of the road surface 4 ahead of the vehicle 1 in the traveling direction. That is, the camera 7 images a predetermined area of the road surface 4 to be imaged by the stereo camera 6 prior to imaging of the predetermined area by the stereo camera 6 . A captured image captured by the camera 7 (referred to as a moving direction captured image) is sent to the PC 5 . The PC 5 detects the brightness of the predetermined area based on the traveling direction captured image sent from the camera 7, and sets the imaging conditions including the exposure amount of the stereo camera 6 based on the detection result.

以降、カメラ7を進行方向用カメラ7と呼ぶ。また、ステレオカメラ6Lおよび6Rは、MCI算出のために路面4を垂直方向から撮像するカメラであるため、特に記載の無い限り、ステレオカメラ6Lおよび6Rを、路面撮像用カメラ6Lおよび6Rとして記述し、進行方向用カメラ7と区別する。 The camera 7 is hereinafter referred to as a traveling direction camera 7 . Further, since the stereo cameras 6L and 6R are cameras that capture images of the road surface 4 from the vertical direction for MCI calculation, the stereo cameras 6L and 6R are described as the road surface imaging cameras 6L and 6R unless otherwise specified. , and the traveling direction camera 7 .

図4および図5は、第1の実施形態に適用可能な、路面撮像用カメラ6の撮像範囲の例を示す図である。なお、図4および図5において、上述した図3と共通する部分には同一の符号を付して、詳細な説明を省略する。 4 and 5 are diagrams showing examples of the imaging range of the road surface imaging camera 6 applicable to the first embodiment. In FIGS. 4 and 5, the same reference numerals are given to the parts common to FIG. 3 described above, and detailed description thereof will be omitted.

図4は、第1の実施形態に適用可能な、路面撮像用カメラ6による、車両1の進行方向の撮像範囲(進行方向視野Vpとする)を説明するための図である。なお、図4は、上述の図1と同様に、図の左端に向けた方向を、車両1の進行方向としている。進行方向視野Vpは、図4に示されるように、路面撮像用カメラ6の画角αと、路面撮像用カメラ6の路面4に対する高さhとに従い決定される。 FIG. 4 is a diagram for explaining an imaging range in the traveling direction of the vehicle 1 (referred to as traveling direction visual field Vp) by the road surface imaging camera 6, which is applicable to the first embodiment. 4, as in FIG. 1 described above, the direction toward the left end of the drawing is the traveling direction of the vehicle 1. As shown in FIG. The traveling direction visual field Vp is determined according to the angle of view α of the road surface imaging camera 6 and the height h of the road surface imaging camera 6 with respect to the road surface 4, as shown in FIG.

図5は、第1の実施形態に適用可能な、路面撮像用カメラ6による、車両1の道路幅方向の撮像範囲を説明するための図である。図5は、車両1を後部側から見た図であり、図3(b)と共通する部分には同一の符号を付して、詳細な説明を省略する。 FIG. 5 is a diagram for explaining an imaging range of the vehicle 1 in the road width direction by the road surface imaging camera 6, which is applicable to the first embodiment. FIG. 5 is a view of the vehicle 1 viewed from the rear side, and parts common to those in FIG.

図5(a)において、路面撮像用カメラ6Lは、2つの撮像レンズ6LLおよび6LRを備える。撮像レンズ6LLおよび6LRを結ぶ線を基線、その長さを基線長と呼び、路面撮像用カメラ6Lは、基線が車両1の進行方向に対して垂直になるように配置される。路面撮像用カメラ6Rも同様に、基線長だけ離れた2つの撮像レンズ6RLおよび6RRを備え、基線が車両1の進行方向に対して垂直になるように配置される。 In FIG. 5(a), the road surface imaging camera 6L has two imaging lenses 6L L and 6L R. In FIG. A line connecting the imaging lenses 6L L and 6LR is called a base line, and its length is called a base line length. Similarly, the road surface imaging camera 6R also includes two imaging lenses 6R L and 6R R separated by the base line length, and arranged so that the base line is perpendicular to the traveling direction of the vehicle 1 .

図5(b)は、第1の実施形態に適用可能な、路面撮像用カメラ6Lおよび6Rの撮像範囲の例を示す。路面撮像用カメラ6Lにおいて、撮像レンズ6LLおよび6LRそれぞれの撮像範囲60LLおよび60LRは、基線長および高さhに応じてずれて重ねられる。路面撮像用カメラ6Rについても同様に、撮像レンズ6RLおよび6RRそれぞれによる、撮像範囲60RLおよび60RRは、基線長および高さhに応じてずれて重ねられる。 FIG. 5(b) shows an example of the imaging range of the road surface imaging cameras 6L and 6R applicable to the first embodiment. In the road surface imaging camera 6L, the imaging ranges 60L L and 60LR of the imaging lenses 6L L and 6LR are overlapped with a shift according to the base line length and the height h. Similarly, with respect to the road surface imaging camera 6R, imaging ranges 60R L and 60R R respectively by the imaging lenses 6R L and 6R R are overlapped with a shift according to the base line length and height h.

以下、特に記載の無い限り、これら撮像範囲60LLおよび60LR、ならびに、撮像範囲60RLおよび60RRを、それぞれ纏めてステレオ撮像範囲60Lおよび60Rと呼ぶ。路面撮像用カメラ6Lおよび6Rは、図5(b)に示されるように、ステレオ撮像範囲60Lおよび60Rが、ステレオ撮像範囲60Lの車両1の幅方向の一端と、ステレオ撮像範囲60Rの当該幅方向の他端とが、領域61において所定の重複率で重複するように、配置される。 Hereinafter, unless otherwise specified, these imaging ranges 60L L and 60LR and imaging ranges 60R L and 60R R are collectively referred to as stereo imaging ranges 60L and 60R, respectively. As shown in FIG. 5(b), the road surface imaging cameras 6L and 6R have stereo imaging ranges 60L and 60R that extend from one end of the stereo imaging range 60L in the width direction of the vehicle 1 to the width direction of the stereo imaging range 60R. are arranged so as to overlap with the other end of the region 61 at a predetermined overlap rate.

図6は、第1の実施形態に適用可能な、路面撮像用カメラ6Lによるステレオ撮像範囲60Lの、車両1の進行方向における重複を示す図である。移動中の車両1において、路面撮像用カメラ6Lにより2回の撮像を行ったものとする。路面撮像用カメラ6Lは、1回目は、ステレオ撮像範囲60L(撮像範囲60LLおよび60LR)の撮像を行い、2回目は、ステレオ撮像範囲60Lに対して、車両1の進行方向に、車両1の移動距離に応じた距離だけ移動したステレオ撮像範囲60L’(撮像範囲60LL’および60LR’)の撮像を行う。 FIG. 6 is a diagram showing overlap in the travel direction of the vehicle 1 of the stereo imaging range 60L by the road surface imaging camera 6L, which is applicable to the first embodiment. It is assumed that two images are taken by the road surface imaging camera 6L in the moving vehicle 1 . The road surface imaging camera 6L first captures the stereo imaging range 60L (imaging ranges 60L L and 60LR ), and the second time, the vehicle 1 in the traveling direction of the vehicle 1 with respect to the stereo imaging range 60L. The stereo imaging range 60L' (imaging ranges 60L L ' and 60L R ') moved by a distance corresponding to the moving distance of .

このとき、ステレオ撮像範囲60Lとステレオ撮像範囲60L’とが、進行方向視野Vpに対して予め定められた進行方向重複率Dr以上の重複率で重複するように、路面撮像用カメラ6Lの撮像タイミングを制御する。このように、時間軸に沿ってステレオ撮像範囲60Lおよび60L’を順次撮像することで、ステレオ撮像範囲60Lおよび60L’を撮像した2枚のステレオ撮像画像を繋ぎ合わせる処理を容易とすることができる。 At this time, the imaging timing of the road surface imaging camera 6L is such that the stereo imaging range 60L and the stereo imaging range 60L' overlap with the traveling direction visual field Vp at an overlap rate equal to or greater than the predetermined travel direction overlap rate Dr. to control. In this way, by sequentially imaging the stereo imaging ranges 60L and 60L' along the time axis, it is possible to facilitate the process of joining two stereo imaging images obtained by imaging the stereo imaging ranges 60L and 60L'. .

なお、上述では、第1の実施形態に係る撮像システムが2台の路面撮像用カメラ6Lおよび6Rを用いるものとして説明したが、これはこの例に限定されない。例えば、第1の実施形態に係る撮像システムは、図7(a)に示されるように、路面撮像用カメラ6Lおよび6Rに対してさらに1台のステレオカメラ(路面撮像用カメラ)6Cを加え、3台の路面撮像用カメラ6L、6Rおよび6Cを用いて構成してもよい。 Although the imaging system according to the first embodiment uses the two road surface imaging cameras 6L and 6R in the above description, it is not limited to this example. For example, as shown in FIG. 7A, the imaging system according to the first embodiment further adds one stereo camera (road surface imaging camera) 6C to the road surface imaging cameras 6L and 6R. It may be configured using three road surface imaging cameras 6L, 6R and 6C.

図7(a)の例では、路面撮像用カメラ6Lおよび6Rの間隔が、路面撮像用カメラ6Lおよび6Rのみを用いる場合に比べて広げられ、その中央部に路面撮像用カメラ6Cが配置されている。図7(b)に示されるように、路面撮像用カメラ6Cの撮像レンズ6CLおよび6CRによる撮像範囲60CLおよび60CRにより、ステレオ撮像範囲60Cが構成される。路面撮像用カメラ6L、6Cおよび6Rは、それぞれによる各ステレオ撮像範囲60L、60Cおよび60Rが車両1の幅方向に所定の重複率で以て重複するように配置される。 In the example of FIG. 7A, the distance between the road surface imaging cameras 6L and 6R is wider than when only the road surface imaging cameras 6L and 6R are used, and the road surface imaging camera 6C is arranged in the center. there is As shown in FIG. 7B, imaging ranges 60C L and 60C R formed by imaging lenses 6C L and 6C R of the road surface imaging camera 6C constitute a stereo imaging range 60C. The road surface imaging cameras 6L, 6C and 6R are arranged so that the respective stereo imaging ranges 60L, 60C and 60R overlap in the width direction of the vehicle 1 at a predetermined overlap ratio.

このように、1車線を撮像するために、3台の路面撮像用カメラ6L、6Cおよび6Rを用いることで、車線の右側、中央および左側にそれぞれ撮像範囲を設定して撮像が可能となり、高画質(高解像)なステレオ撮像画像を、少ない台数の路面撮像用カメラで撮像可能となる。ここで、特に道路幅は、一般的には、3.5mと規定されている。そこで、この道路幅の3.5mに対応して、路面撮像用カメラ6Lおよび6Rにより車線の道路幅方向の両端を撮像し、路面撮像用カメラ6Cにより中央部を撮像することが考えられる。 In this way, by using the three road surface imaging cameras 6L, 6C and 6R in order to image one lane, it is possible to set imaging ranges on the right side, the center and the left side of the lane, respectively. A high-quality (high-resolution) stereo image can be captured by a small number of road surface imaging cameras. Here, especially the road width is generally defined as 3.5 m. Therefore, it is conceivable that both ends of the lane in the road width direction are imaged by the road surface imaging cameras 6L and 6R, and the central portion is imaged by the road surface imaging camera 6C, corresponding to the road width of 3.5 m.

なお、撮像範囲がこの規定される道路幅(3.5m)をカバー可能な画角を有する路面撮像用カメラを1台のみ用いて、撮像システムを構成してもよい。 The image pickup system may be configured using only one road surface image pickup camera having an angle of view capable of covering the road width (3.5 m) for which the image pickup range is defined.

[第1の実施形態に係る撮像システムの構成]
次に、第1の実施形態に係る撮像システムの構成について説明する。以下では、撮像システムが2台の路面撮像用カメラを備えるものとして説明を行う。
[Configuration of Imaging System According to First Embodiment]
Next, the configuration of the imaging system according to the first embodiment will be described. In the following description, it is assumed that the imaging system has two road surface imaging cameras.

図8は、第1の実施形態に係る撮像システムの概略的な構成の例を示すブロック図である。図8において、撮像システム10は、撮像部1001および1002と、位置情報取得部101と、撮像制御部102と、進行方向用撮像部103と、を含む。 FIG. 8 is a block diagram showing an example of a schematic configuration of an imaging system according to the first embodiment; In FIG. 8, the imaging system 10 includes imaging units 100 1 and 100 2 , a position information acquisition unit 101 , an imaging control unit 102 , and a traveling direction imaging unit 103 .

撮像部1001および1002は、それぞれ上述した路面撮像用カメラ6Lおよび6Rに対応する。位置情報取得部101は、車両1の現在位置を取得する。進行方向用撮像部103は、上述した進行方向用カメラ7に対応し、車両1の進行方向前方の路面4を撮像し、進行方向撮像画像を取得する。 The imaging units 100 1 and 100 2 correspond to the above-described road surface imaging cameras 6L and 6R, respectively. The position information acquisition unit 101 acquires the current position of the vehicle 1 . The travel direction imaging unit 103 corresponds to the travel direction camera 7 described above, and images the road surface 4 in front of the vehicle 1 in the travel direction to acquire a travel direction captured image.

撮像制御部102は、それぞれ撮像部1001および1002の撮像タイミング、露光、シャッタ速度などの撮像動作を制御する。撮像制御部102は、進行方向用撮像部103により取得された進行方向撮像画像に基づき、撮像部1001および1002が撮像すべき領域の明るさを求め、求めた明るさに基づき、撮像部1001および1002に対して露光量を含めた撮像条件の設定を行う。また、撮像制御部102は、位置情報取得部101が取得した車両1の現在位置に基づき、撮像部1001および1002に対して撮像条件を設定するタイミングを決定する。 The imaging control unit 102 controls imaging operations such as imaging timing, exposure, and shutter speed of the imaging units 100 1 and 100 2 . The imaging control unit 102 obtains the brightness of the area to be imaged by the imaging units 100 1 and 100 2 based on the traveling direction captured image acquired by the traveling direction imaging unit 103, and based on the obtained brightness, the imaging unit Imaging conditions including the amount of exposure are set for 100 1 and 100 2 . Also, the imaging control unit 102 determines the timing of setting imaging conditions for the imaging units 100 1 and 100 2 based on the current position of the vehicle 1 acquired by the position information acquiring unit 101 .

図9は、第1の実施形態に係る撮像システム10のハードウェア構成の例を示すブロック図である。図9において、撮像システム10は、路面撮像用カメラ6Lおよび6R(ステレオカメラ6Lおよび6R)と、進行方向用カメラ7と、図3のPC5に対応する情報処理装置50と、位置情報取得部51と、を含む。 FIG. 9 is a block diagram showing an example of the hardware configuration of the imaging system 10 according to the first embodiment. 9, the imaging system 10 includes road surface imaging cameras 6L and 6R (stereo cameras 6L and 6R), a traveling direction camera 7, an information processing device 50 corresponding to the PC 5 in FIG. and including.

情報処理装置50は、所定のタイミングでトリガを生成し、生成したトリガを路面撮像用カメラ6Lおよび6Rに送る。路面撮像用カメラ6Lおよび6Rは、このトリガに応じて同期して撮像を行う。路面撮像用カメラ6Lおよび6Rにより撮像された各ステレオ撮像画像は、情報処理装置50に供給される。情報処理装置50は、路面撮像用カメラ6Lおよび6Rから供給された各ステレオ撮像画像をストレージなどに記憶、蓄積する。情報処理装置50は、蓄積したステレオ撮像画像に基づき、デプスマップの生成、生成したデプスマップの繋ぎ合わせ、などの画像処理を実行する。 The information processing device 50 generates a trigger at a predetermined timing and sends the generated trigger to the road surface imaging cameras 6L and 6R. The road surface imaging cameras 6L and 6R perform imaging synchronously in response to this trigger. Each stereo captured image captured by the road surface capturing cameras 6L and 6R is supplied to the information processing device 50 . The information processing device 50 stores and accumulates the stereo captured images supplied from the road surface capturing cameras 6L and 6R in a storage or the like. The information processing device 50 performs image processing such as generating a depth map and connecting the generated depth maps based on the accumulated stereo captured images.

また、情報処理装置50は、進行方向用カメラ7の撮像を指示するトリガを生成し、進行方向用カメラ7に送る。このトリガは、上述の路面撮像用カメラ6Lおよび6Rに送るトリガと動悸している必要は無い。進行方向用カメラ7は、このトリガに応じて撮像を行う。情報処理装置50は、進行方向用カメラ7から供給された進行方向撮像画像に基づき、路面撮像用カメラ6Lおよび6Rに対する露光量を含む撮像条件を求め、求めた撮像条件を設定情報として路面撮像用カメラ6Lおよび6Rにそれぞれ供給する。ここで、情報処理装置50は、路面撮像用カメラ6Lと、路面撮像用カメラ6Rと、に対してそれぞれ撮像条件を求めることができる。情報処理装置50は、路面撮像用カメラ6Lおよび6Rについてそれぞれ求めた撮像条件を含む各設定情報を、路面撮像用カメラ6Lおよび6Rにそれぞれ供給する。このとき、情報処理装置50は、位置情報取得部51により取得された車両1の現在位置に基づき、路面撮像用カメラ6Lおよび6Rに対して設定情報を設定するタイミングを決定する。 The information processing device 50 also generates a trigger for instructing the camera 7 for the direction of travel to take an image, and sends the trigger to the camera 7 for the direction of travel. This trigger does not have to be synchronized with the trigger sent to the road surface imaging cameras 6L and 6R described above. The traveling direction camera 7 takes an image in response to this trigger. The information processing device 50 obtains imaging conditions including the amount of exposure for the road surface imaging cameras 6L and 6R based on the traveling direction captured image supplied from the traveling direction camera 7, and uses the obtained imaging conditions as setting information for road surface imaging. They are supplied to cameras 6L and 6R, respectively. Here, the information processing device 50 can obtain imaging conditions for the road surface imaging camera 6L and the road surface imaging camera 6R. The information processing device 50 supplies each setting information including the imaging conditions determined for the road surface imaging cameras 6L and 6R to the road surface imaging cameras 6L and 6R, respectively. At this time, the information processing device 50 determines the timing of setting the setting information for the road surface imaging cameras 6L and 6R based on the current position of the vehicle 1 obtained by the position information obtaining section 51 .

図10は、第1の実施形態に係る路面撮像用カメラ6Lの一例の構成を示すブロック図である。なお、路面撮像用カメラ6Rは、この路面撮像用カメラ6Lと同様の構成にて実現可能であるので、ここでの説明を省略する。 FIG. 10 is a block diagram showing an example configuration of the road surface imaging camera 6L according to the first embodiment. Note that the road surface imaging camera 6R can be realized with the same configuration as the road surface imaging camera 6L, so description thereof will be omitted here.

図10において、路面撮像用カメラ6Lは、撮像光学系600Lおよび600Rと、撮像素子601Lおよび601Rと、駆動部602Lおよび602Rと、信号処理部603Lおよび603Rと、出力部604と、を含む。これらのうち、撮像光学系600L、撮像素子601L、駆動部602L、および、信号処理部603Lは、上述した撮像レンズ6LLに対応する構成である。同様に、撮像光学系600R、撮像素子601R、駆動部602R、および、信号処理部603Rは、上述した撮像レンズ6LRに対応する構成である。 In FIG. 10, the road surface imaging camera 6L includes imaging optical systems 600 L and 600 R , imaging elements 601 L and 601 R , driving units 602 L and 602 R , signal processing units 603 L and 603 R , and output and a portion 604 . Among these, the imaging optical system 600 L , the imaging device 601 L , the driving unit 602 L , and the signal processing unit 603 L are configured to correspond to the imaging lens 6L L described above. Similarly, the imaging optical system 600 R , the imaging element 601 R , the drive unit 602 R , and the signal processing unit 603 R are configured to correspond to the imaging lens 6L R described above.

撮像光学系600Lは、画角α、焦点距離fを有する光学系であって、被写体からの光を撮像素子601Lに投射する。撮像素子601Lは、例えばCMOS(Complementary Metal Oxide Semiconductor)を用いた光センサであって、投射された光に応じた信号を出力する。なお、撮像素子601Lに、CCD(Charge Coupled Device)による光センサを適用してもよい。駆動部602Lは、撮像素子601Lを駆動し、撮像素子601Lから出力された信号に対してノイズ除去、ゲイン調整などの所定の処理を施して出力する。信号処理部603Lは、駆動部602Lから出力された信号に対してA/D変換を施して、当該信号をディジタル方式の画像信号(撮像画像)に変換する。信号処理部603Lは、変換した画像信号に対してガンマ補正など所定の画像処理を施して出力する。信号処理部603Lから出力された撮像画像は、出力部604に供給される。 The imaging optical system 600L is an optical system having an angle of view α and a focal length f, and projects light from a subject onto an imaging element 601L . The imaging element 601 L is, for example, an optical sensor using CMOS (Complementary Metal Oxide Semiconductor), and outputs a signal corresponding to projected light. An optical sensor using a CCD (Charge Coupled Device) may be applied to the imaging device 601L . The drive unit 602L drives the image sensor 601L , performs predetermined processing such as noise removal and gain adjustment on the signal output from the image sensor 601L , and outputs the processed signal. The signal processing unit 603L performs A/D conversion on the signal output from the driving unit 602L to convert the signal into a digital image signal (captured image). The signal processing unit 603 L performs predetermined image processing such as gamma correction on the converted image signal and outputs the processed image signal. The captured image output from the signal processing unit 603 L is supplied to the output unit 604 .

撮像光学系600R、撮像素子601R、駆動部602R、および、信号処理部603Rの動作は、上述の撮像光学系600L、撮像素子601L、駆動部602L、および、信号処理部603Lと同様なので、ここでの説明を省略する。 The operations of the imaging optical system 600 R , the imaging device 601 R , the driving unit 602 R , and the signal processing unit 603 R are similar to those of the imaging optical system 600 L , the imaging device 601 L , the driving unit 602 L , and the signal processing unit described above. Since it is the same as 603L , the explanation here is omitted.

駆動部602Lおよび602Rは、例えば情報処理装置50から出力されたトリガが供給される。このトリガは、路面撮像用カメラ6Rに含まれる駆動部602Lおよび602Rと同期して、供給される。駆動部602Lおよび602Rは、このトリガに従い、撮像素子601Lおよび601Rから信号を取り込み、撮像を行う。 The driving units 602 L and 602 R are supplied with triggers output from the information processing device 50, for example. This trigger is supplied in synchronization with drive units 602L and 602R included in the road surface imaging camera 6R. The driving units 602 L and 602 R take in signals from the imaging elements 601 L and 601 R according to this trigger and perform imaging.

ここで、駆動部602Lおよび602Rは、撮像素子601Lおよび601Rにおける露光を、一括同時露光方式により行う。この方式は、グローバルシャッタと呼ばれる。これに対して、ローリングシャッタは、画素位置の上から順番(ライン順)に光を取り込んでいく方式であるため、フレーム中の各ラインは、厳密に同じ時刻の被写体を写したものではない。ローリングシャッタ方式の場合、1フレームの撮像信号を取り込んでいる間にカメラもしくは被写体が高速に動いてしまうと、被写体の像がライン位置に応じてずれて撮像されてしまう。そのため、第1の実施形態に係る路面撮像用カメラ6Lおよび6Rでは、グローバルシャッタを用いて、投影幾何的に正しく道路形状が撮像されるようにする。 Here, the drive units 602 L and 602 R perform exposure in the imaging elements 601 L and 601 R by a batch simultaneous exposure method. This method is called a global shutter. On the other hand, since the rolling shutter takes in light in order from the top of the pixel position (line order), each line in the frame does not exactly capture the subject at the same time. In the case of the rolling shutter method, if the camera or the object moves at high speed while one frame of imaging signal is captured, the image of the object is picked up shifted according to the line position. Therefore, in the road surface imaging cameras 6L and 6R according to the first embodiment, a global shutter is used so that the road shape is imaged correctly in terms of projection geometry.

また、情報処理装置50から出力された、露光に係る撮像条件を含む設定情報が、駆動部602Lおよび602R、ならびに、信号処理部603Lおよび603Rにそれぞれ供給される。駆動部602Lおよび602Rは、この設定条件に従い、例えばゲインや露光時間を設定する。また、信号処理部603Lおよび603Rは、この設定条件に従い、ガンマ補正の際のガンマ係数や階調の設定を行うことができる。 Further, setting information including imaging conditions related to exposure output from the information processing device 50 is supplied to the driving units 602L and 602R and the signal processing units 603L and 603R , respectively. The driving units 602 L and 602 R set, for example, gain and exposure time according to this setting condition. In addition, the signal processing units 603 L and 603 R can set gamma coefficients and gradations for gamma correction according to these setting conditions.

出力部604は、信号処理部603Lおよび603Rから供給された各フレームの撮像画像を、1組のステレオ撮像画像として出力する。出力部604から出力されたステレオ撮像画像は、情報処理装置50に送られ、蓄積される。 The output unit 604 outputs the captured images of each frame supplied from the signal processing units 603 L and 603 R as a set of stereo captured images. The stereo captured images output from the output unit 604 are sent to the information processing device 50 and accumulated.

図11は、第1の実施形態に適用可能な情報処理装置50の一例の構成を示すブロック図である。図11において、情報処理装置50は、それぞれバス5030に接続されたCPU(Central Processing Unit)5000と、ROM(Read Only Memory)5001と、RAM(Random Access Memory)5002と、グラフィクスI/F(インタフェース)5003と、ストレージ5004と、入力デバイス5005と、データI/F5006と、通信I/F5007と、を備える。さらに、情報処理装置50は、それぞれバス5030に接続されたカメラI/F5010aおよび5010bと、速度取得部5021と、位置情報取得部5022と、を備える。 FIG. 11 is a block diagram showing an example configuration of an information processing apparatus 50 applicable to the first embodiment. 11, the information processing device 50 includes a CPU (Central Processing Unit) 5000, a ROM (Read Only Memory) 5001, a RAM (Random Access Memory) 5002, and a graphics I/F (interface) connected to a bus 5030. ) 5003 , a storage 5004 , an input device 5005 , a data I/F 5006 and a communication I/F 5007 . Further, the information processing apparatus 50 includes camera I/Fs 5010a and 5010b connected to the bus 5030, a speed acquisition section 5021, and a position information acquisition section 5022, respectively.

ストレージ5004は、データを不揮発に記憶する記憶媒体であって、ハードディスクドライブやフラッシュメモリを適用できる。ストレージ5004は、CPU5000が動作するためのプログラムやデータが記憶される。 The storage 5004 is a storage medium that stores data in a nonvolatile manner, and can be a hard disk drive or flash memory. The storage 5004 stores programs and data for the CPU 5000 to operate.

CPU5000は、例えば、ROM5001やストレージ5004に予め記憶されたプログラムに従い、RAM5002をワークメモリとして用い、この情報処理装置50の全体の動作を制御する。グラフィクスI/F5003は、CPU5000によりプログラムに従い生成された表示制御信号に基づき、ディスプレイ5020が対応可能な表示信号を生成する。ディスプレイ5020は、グラフィクスI/F5003から供給された表示信号に応じた画面を表示する。 The CPU 5000 uses the RAM 5002 as a work memory according to programs pre-stored in the ROM 5001 and the storage 5004 , for example, and controls the overall operation of the information processing apparatus 50 . The graphics I/F 5003 generates display signals that can be handled by the display 5020 based on display control signals generated by the CPU 5000 according to a program. A display 5020 displays a screen according to the display signal supplied from the graphics I/F 5003 .

入力デバイス5005は、ユーザ操作を受け付け、受け付けたユーザ操作に応じた制御信号を出力する。入力デバイス5005としては、マウスやタブレットといったポインティングデバイスや、キーボードを適用できる。また、入力デバイス5005とディスプレイ5020とを一体的に形成し、所謂タッチパネル構成としてもよい。 The input device 5005 receives user operations and outputs control signals according to the received user operations. As the input device 5005, a pointing device such as a mouse or a tablet, or a keyboard can be applied. Further, the input device 5005 and the display 5020 may be integrally formed to form a so-called touch panel configuration.

データI/F5006は、外部の機器との間でデータの送受信を行う。データI/F5006としては、例えばUSB(Universal Serial Bus)を適用可能である。通信I/F5007は、CPU5000の指示に従い、外部のネットワークに対する通信を制御する。 A data I/F 5006 transmits and receives data to and from an external device. As the data I/F 5006, for example, a USB (Universal Serial Bus) is applicable. A communication I/F 5007 controls communication with an external network according to instructions from the CPU 5000 .

カメラI/F5010aは、各路面撮像用カメラ6Lおよび6Rに対するインタフェースである。各路面撮像用カメラ6Lおよび6Rから出力された各ステレオ撮像画像は、カメラI/F5010aを介して、例えばCPU5000に渡される。また、カメラI/F5010aは、CPU5000の指示に従い上述したトリガを生成し、生成したトリガを各路面撮像用カメラ6Lおよび6Rに送る。さらに、カメラI/F5010aは、CPU5000により生成された設定情報を、各路面撮像用カメラ6Lおよび6Rに送る。 The camera I/F 5010a is an interface for the road surface imaging cameras 6L and 6R. Each stereo picked-up image output from each road surface imaging camera 6L and 6R is passed to CPU5000, for example via camera I/F5010a. In addition, the camera I/F 5010a generates the above-described triggers according to instructions from the CPU 5000, and sends the generated triggers to the road surface imaging cameras 6L and 6R. Furthermore, the camera I/F 5010a sends the setting information generated by the CPU 5000 to the road surface imaging cameras 6L and 6R.

カメラI/F5010bは、進行方向用カメラ7に対するインタフェースである。進行方向用カメラ7から出力された進行方向撮像画像は、カメラI/F5010bを介して例えばCPU5000に渡される。また、カメラI/F5010bは、CPU5000により生成された、撮像タイミングを指示するためのトリガを、進行方向用カメラ7に送る。 A camera I/F 5010b is an interface for the traveling direction camera 7 . The traveling direction captured image output from the traveling direction camera 7 is passed to, for example, the CPU 5000 via the camera I/F 5010b. The camera I/F 5010b also sends a trigger, which is generated by the CPU 5000, to instruct the imaging timing, to the traveling direction camera 7. FIG.

速度取得部5021は、車両1の速度を示す速度情報を取得する。車両1に各路面撮像用カメラ6Lおよび6Rが取り付けられている場合、速度取得部5021が取得する速度情報は、各路面撮像用カメラ6Lおよび6Rの、被写体(路面)に対する速度を示す。速度取得部5021は、例えば、GNSS(Global Navigation Satellite System)の信号を受信する機能を有し、受信したGNSSによる信号のドップラー効果に基づき車両1の速度を示す速度情報を取得する。これに限らず、速度取得部5021は、車両1から直接的に速度情報を取得することもできる。 The speed acquisition unit 5021 acquires speed information indicating the speed of the vehicle 1 . When the road surface imaging cameras 6L and 6R are attached to the vehicle 1, the speed information acquired by the speed acquisition unit 5021 indicates the speed of the road surface imaging cameras 6L and 6R with respect to the subject (road surface). The speed acquisition unit 5021 has, for example, a function of receiving a GNSS (Global Navigation Satellite System) signal, and acquires speed information indicating the speed of the vehicle 1 based on the Doppler effect of the received GNSS signal. The speed acquisition unit 5021 can also acquire the speed information directly from the vehicle 1 without being limited to this.

位置情報取得部5022は、車両1の現在位置を示す位置情報を取得する。位置情報取得部5022は、例えば速度取得部5021が有するGNSS信号の受信機能を利用して、当該位置情報を取得する。 The position information acquisition unit 5022 acquires position information indicating the current position of the vehicle 1 . The position information acquisition unit 5022 acquires the position information using, for example, the GNSS signal reception function of the velocity acquisition unit 5021 .

図12は、第1の実施形態に適用可能な情報処理装置50の機能を説明するための一例の機能ブロック図である。図12において、情報処理装置50は、撮像画像取得部500aおよび500bと、UI部501と、制御部502と、撮像画像記憶部503と、撮像制御部504と、を含む。情報処理装置50は、さらに、マッチング処理部510と、3D情報生成部511と、3D情報取得部520と、状態特性値算出部521と、調書作成部522と、を含む。 FIG. 12 is an example functional block diagram for explaining functions of the information processing apparatus 50 applicable to the first embodiment. In FIG. 12 , the information processing apparatus 50 includes captured image acquisition units 500 a and 500 b, a UI unit 501 , a control unit 502 , a captured image storage unit 503 and an imaging control unit 504 . The information processing device 50 further includes a matching processing unit 510 , a 3D information generation unit 511 , a 3D information acquisition unit 520 , a state characteristic value calculation unit 521 , and a record creation unit 522 .

これら撮像画像取得部500、UI部501、制御部502、撮像制御部504、マッチング処理部510、3D情報生成部511、3D情報取得部520、状態特性値算出部521および調書作成部522は、CPU5000上で動作するプログラムにより実現される。これに限らず、これら撮像画像取得部500、UI部501、制御部502、撮像制御部504、マッチング処理部510、3D情報生成部511、3D情報取得部520、状態特性値算出部521および調書作成部522の一部または全部を、互いに協働して動作するハードウェア回路により構成してもよい。 These captured image acquisition unit 500, UI unit 501, control unit 502, imaging control unit 504, matching processing unit 510, 3D information generation unit 511, 3D information acquisition unit 520, state characteristic value calculation unit 521, and record creation unit 522 are It is implemented by a program running on the CPU 5000 . The captured image acquisition unit 500, the UI unit 501, the control unit 502, the imaging control unit 504, the matching processing unit 510, the 3D information generation unit 511, the 3D information acquisition unit 520, the state characteristic value calculation unit 521, and the record A part or all of the creation unit 522 may be configured by hardware circuits that operate in cooperation with each other.

撮像画像取得部500aは、各路面撮像用カメラ6Lおよび6Rから、ステレオ撮像画像を取得する。撮像画像取得部500bは、進行方向用カメラ7から進行方向撮像画像を取得する。撮像画像記憶部503は、撮像画像取得部500aおよび500bにより取得されたステレオ撮像画像および進行方向撮像撮像を、例えばストレージ5004に記憶する。また、撮像画像記憶部503は、ストレージ5004から、記憶されたステレオ撮像画像および進行方向撮像撮像を取得する。 The captured image acquisition unit 500a acquires stereo captured images from the road surface imaging cameras 6L and 6R. The captured image acquisition unit 500b acquires a traveling direction captured image from the traveling direction camera 7 . The captured image storage unit 503 stores the stereo captured images and the traveling direction captured images acquired by the captured image acquisition units 500a and 500b in the storage 5004, for example. Also, the captured image storage unit 503 acquires the stored stereo captured image and traveling direction captured image from the storage 5004 .

UI部501は、入力デバイス5005やディスプレイ5020に対する表示によるユーザインタフェースを実現する。制御部502は、この情報処理装置50全体の動作を制御する。 The UI unit 501 implements a user interface by displaying on the input device 5005 and display 5020 . A control unit 502 controls the operation of the information processing apparatus 50 as a whole.

撮像制御部504は、上述した位置情報取得部101および撮像制御部102に対応する。すなわち、撮像制御部504は、撮像画像取得部500bにより取得された進行方向撮像画像に基づき進行方向用カメラ7の撮像条件を生成する。また、撮像制御部504は、位置情報取得部101により取得された車両1の現在位置を示す位置情報に基づき、進行方向用カメラ7に対して撮像を指示するためのトリガを生成する。 The imaging control unit 504 corresponds to the position information acquisition unit 101 and the imaging control unit 102 described above. That is, the imaging control unit 504 generates imaging conditions for the traveling direction camera 7 based on the traveling direction captured image acquired by the captured image acquiring unit 500b. Based on the position information indicating the current position of the vehicle 1 acquired by the position information acquisition unit 101, the imaging control unit 504 generates a trigger for instructing the traveling direction camera 7 to take an image.

また、撮像制御部504は、各路面撮像用カメラ6Lおよび6Rの被写体(路面4)に対する速度を示す速度情報を取得し、取得した速度情報と、予め設定される各路面撮像用カメラ6Lおよび6Rの画角α、高さhと、に基づき、各路面撮像用カメラ6Lおよび6Rの同期撮像を指示するためのトリガを生成する。 In addition, the imaging control unit 504 acquires speed information indicating the speed of each of the road surface imaging cameras 6L and 6R with respect to the subject (road surface 4). A trigger for instructing synchronous imaging of the road surface imaging cameras 6L and 6R is generated based on the angle of view α and the height h of .

マッチング処理部510は、撮像画像取得部500により取得されたステレオ撮像画像を構成する2枚の撮像画像を用いてマッチング処理を行う。3D情報生成部511は、3次元情報に係る処理を行う。例えば、3D情報生成部511は、マッチング処理部510によるマッチング処理の結果を用いて三角法などにより深度情報を求め、求めた深度情報に基づき3次元点群情報を生成する。 The matching processing unit 510 performs matching processing using the two captured images forming the stereo captured image acquired by the captured image acquisition unit 500 . The 3D information generation unit 511 performs processing related to 3D information. For example, the 3D information generation unit 511 obtains depth information by trigonometry or the like using the result of matching processing by the matching processing unit 510, and generates 3D point group information based on the obtained depth information.

3D情報取得部520は、3D情報生成部511によりステレオ撮像画像毎に求めた3次元点群情報を取得する。状態特性値算出部521は、3D情報取得部520により取得された各3次元点群情報と、撮像画像取得部500により取得された各ステレオ撮像画像とを用いて、MCIを求めるための、ひび割れ率C、わだち掘れ量Dおよび平坦性σの各状態特性値を算出する。調書作成部522は、状態特性値算出部521により算出された各状態特性値に基づきMCIを求め、調書を作成する。 The 3D information acquisition unit 520 acquires the 3D point cloud information obtained for each stereo image by the 3D information generation unit 511 . The state characteristic value calculation unit 521 uses each three-dimensional point cloud information acquired by the 3D information acquisition unit 520 and each stereo captured image acquired by the captured image acquisition unit 500 to determine the cracks for obtaining MCI. Each state characteristic value of the rate C, the amount of rutting D, and the flatness σ is calculated. The report creating unit 522 obtains MCI based on each state characteristic value calculated by the state characteristic value calculating unit 521 and creates a report.

情報処理装置50における第1の実施形態に係る各機能を実現するためのプログラムは、インストール可能な形式または実行可能な形式のファイルでCD(Compact Disk)、フレキシブルディスク(FD)、DVD(Digital Versatile Disk)などのコンピュータで読み取り可能な記録媒体に記録して提供される。これに限らず、当該プログラムを、インターネットなどのネットワークに接続されたコンピュータ上に格納し、当該ネットワークを介してダウンロードさせることにより提供してもよい。また、当該プログラムをインターネットなどのネットワークを経由して提供または配布するように構成してもよい。 A program for realizing each function according to the first embodiment in the information processing device 50 is a file in an installable format or an executable format, and can be stored on a CD (Compact Disk), a flexible disk (FD), or a DVD (Digital Versatile). Disc) or other computer-readable recording medium. Alternatively, the program may be provided by storing it on a computer connected to a network such as the Internet and downloading it via the network. Also, the program may be configured to be provided or distributed via a network such as the Internet.

当該プログラムは、撮像画像取得部500aおよび500b、UI部501、制御部502、撮像画像記憶部503、撮像制御部504、マッチング処理部510、3D情報生成部511、3D情報取得部520、状態特性値算出部521および調書作成部522を含むモジュール構成となっている。実際のハードウェアとしては、CPU5000がストレージ5004などの記憶媒体から当該プログラムを読み出して実行することにより、上述した各部がRAM5002などの主記憶装置上にロードされ、撮像画像取得部500aおよび500b、UI部501、制御部502、撮像画像記憶部503、撮像制御部504、マッチング処理部510、3D情報生成部511、3D情報取得部520、状態特性値算出部521および調書作成部522が主記憶装置上に生成されるようになっている。 The program includes captured image acquisition units 500a and 500b, UI unit 501, control unit 502, captured image storage unit 503, imaging control unit 504, matching processing unit 510, 3D information generation unit 511, 3D information acquisition unit 520, state property It has a module configuration including a value calculation unit 521 and a record creation unit 522 . As actual hardware, the CPU 5000 reads out the program from a storage medium such as the storage 5004 and executes it, so that the above-described units are loaded onto the main storage such as the RAM 5002, and the captured image acquisition units 500a and 500b, the UI A unit 501, a control unit 502, a captured image storage unit 503, an imaging control unit 504, a matching processing unit 510, a 3D information generation unit 511, a 3D information acquisition unit 520, a state characteristic value calculation unit 521, and a record creation unit 522 are main storage devices. generated above.

[第1の実施形態に適用可能なトリガ生成方法]
次に、第1の実施形態に適用可能な、各路面撮像用カメラ6Lおよび6Rに対して撮像を指示するためのトリガの生成方法について、より詳細に説明する。第1の実施形態において、生成部103は、路面撮像用カメラ6Lおよび6Rの被測定物(路面4)に対するステレオ撮像範囲の、車両1の速度の方向の距離を、車両1が速度情報が示す速度で移動する時間に対して、当該時間より短い所定時間以下の時間間隔でトリガを生成する。
[Trigger Generation Method Applicable to First Embodiment]
Next, a method of generating triggers for instructing the road surface imaging cameras 6L and 6R to perform imaging, which is applicable to the first embodiment, will be described in more detail. In the first embodiment, the generation unit 103 determines the distance in the direction of the speed of the vehicle 1 in the stereo imaging range of the road surface imaging cameras 6L and 6R with respect to the object to be measured (road surface 4). Triggers are generated at time intervals of a predetermined time or less, which is shorter than the time during which the object moves at a high speed.

すなわち、トリガは、路面撮像用カメラ6Lおよび6Rにおける路面4の撮影範囲が、車両1の進行方向に所定の重複率(進行方向重複率Dr)を保つように発生させる必要がある。これは、後述するように、各ステレオ撮像画像から撮像位置を算出する処理において、安定的に精度の高いカメラ位置を算出するため、十分な対応点を検出できるようにすることが目的である。進行方向重複率Drの下限値は、例えば実験的に「60%」のように決定される。 That is, the trigger needs to be generated so that the range of the road surface 4 photographed by the road surface imaging cameras 6L and 6R maintains a predetermined overlapping rate (advancing direction overlapping rate Dr) in the traveling direction of the vehicle 1 . As will be described later, the purpose of this is to detect sufficient corresponding points in order to stably and accurately calculate the camera position in the process of calculating the imaging position from each stereo imaged image. The lower limit of the traveling direction overlap rate Dr is experimentally determined, for example, as "60%".

第1の実施形態において、トリガの生成方法は、下記の3通りの方法を適用できる。
(1)一定時間間隔で生成する方法(第1の生成方法)
(2)カメラの移動速度を検出して生成する方法(第2の生成方法)
(3)撮像画像を用いて移動距離を算出して生成する方法(第3の生成方法)
In the first embodiment, the following three methods can be applied to the trigger generation method.
(1) Method of generating at regular time intervals (first generation method)
(2) A method of generating by detecting the movement speed of the camera (second generation method)
(3) A method of calculating and generating a movement distance using a captured image (third generation method)

(第1の生成方法)
先ず、トリガの第1の生成方法について説明する。第1の生成方法においては、撮像中の車両1の最高速度Speedと、撮像範囲の大きさ(撮像範囲の車両1の進行方向の長さ)と、からトリガの時間間隔を決める。速度取得部5021は、車両1におけるシステム設定値や、情報処理装置50に対するユーザ入力により、車両1の最高速度Speedを予め取得しておく。撮像制御部504は、速度取得部5021から最高速度Speedを取得し、トリガの時間間隔を、取得した最高速度Speedと、進行方向視野Vpおよび進行方向重複率Drと、を用いて、下記の式(4)により算出する。なお、進行方向重複率Drは、上述した下限値が適用される。
(First generation method)
First, the first trigger generation method will be described. In the first generation method, the trigger time interval is determined from the maximum speed Speed of the vehicle 1 during imaging and the size of the imaging range (the length of the imaging range in the traveling direction of the vehicle 1). The speed acquisition unit 5021 acquires the maximum speed Speed of the vehicle 1 in advance based on system setting values in the vehicle 1 and user input to the information processing device 50 . The imaging control unit 504 acquires the maximum speed Speed from the speed acquisition unit 5021, and uses the acquired maximum speed Speed, the traveling direction visual field Vp, and the traveling direction overlapping rate Dr to obtain the trigger time interval using the following equation: Calculated by (4). Note that the above-described lower limit value is applied to the traveling direction overlapping rate Dr.

Figure 0007119462000006
Figure 0007119462000006

式(4)により、1秒間に生成すべきトリガ数fpsが算出される。トリガ数fpsの逆数が、生成すべき次のトリガまでの時間間隔となる。 The number of triggers fps to be generated per second is calculated by the formula (4). The reciprocal of the number of triggers fps is the time interval until the next trigger to be generated.

進行方向視野Vpは、模式的には、図4を用いて説明したように、各路面撮像用カメラ6Lおよび6Rの路面4からの高さhと、各路面撮像用カメラ6Lおよび6Rの画角αと、に基づき設定できる。実際は、さらに、各路面撮像用カメラ6Lおよび6Rの路面4に対する角度なども考慮して、進行方向視野Vpを設定する。 As described with reference to FIG. 4, the traveling direction visual field Vp is schematically defined by the height h of the road surface imaging cameras 6L and 6R from the road surface 4 and the angle of view of the road surface imaging cameras 6L and 6R. can be set based on α. In practice, the angle of the road surface imaging cameras 6L and 6R with respect to the road surface 4 is also taken into consideration when setting the traveling direction visual field Vp.

ここで、移動中の車両1が右もしくは左にカーブした際には、路面撮像用カメラ6Lおよび6Rのうち外側にあるカメラの移動量が大きくなる。そのため、車両1の最高速度Speedをそのまま使うのではなく、外側カメラの位置に基づく回転移動の速度を使うと、より好ましい。 Here, when the moving vehicle 1 curves to the right or left, the amount of movement of the outer camera of the road surface imaging cameras 6L and 6R increases. Therefore, it is more preferable to use the speed of rotational movement based on the position of the outer camera instead of using the maximum speed Speed of the vehicle 1 as it is.

撮像制御部504は、生成したトリガに応じて撮像されたステレオ撮像画像を、全て例えばストレージ5004やRAM5002に記憶し、蓄積する。 The imaging control unit 504 stores and accumulates all the stereo imaged images imaged according to the generated trigger in the storage 5004 or the RAM 5002, for example.

(第2の生成方法)
次に、トリガの第2の生成方法について説明する。上述した第1の方法は、シンプルである一方、車両1が停止している状態や、所定の速度よりも低速で移動している状態では、最高速度Speedに対して過剰に細かい間隔で撮像することになり、蓄積されるステレオ撮像画像の量が大きくなってしまう。第2の生成方法では、撮像制御部504は、カメラの移動速度を検出し、検出された移動速度に応じてトリガを生成する。
(Second generation method)
Next, a second trigger generation method will be described. While the above-described first method is simple, when the vehicle 1 is stopped or moving at a speed lower than a predetermined speed, images are captured at excessively fine intervals with respect to the maximum speed Speed. As a result, the amount of stereo imaged images to be accumulated becomes large. In the second generation method, the imaging control unit 504 detects the moving speed of the camera and generates a trigger according to the detected moving speed.

撮像制御部504は、速度取得部5021により取得された速度情報が示す現在の車両1の速度を、式(4)の最高速度Speedとして用いて、次のトリガまでの時間間隔を算出し、撮像を行う。第2の生成方法によれば、車両1の移動速度が小さいほど、トリガ生成の時間間隔が長くなり、無駄な撮像が行われることが抑制される。 The imaging control unit 504 uses the current speed of the vehicle 1 indicated by the speed information acquired by the speed acquisition unit 5021 as the maximum speed Speed in expression (4) to calculate the time interval until the next trigger, and performs imaging. I do. According to the second generation method, the slower the moving speed of the vehicle 1 is, the longer the time interval of trigger generation is, thereby suppressing wasteful imaging.

撮像制御部504は、生成したトリガに応じて撮像されたステレオ撮像画像を、全て例えばストレージ5004やRAM5002に記憶し、蓄積する。 The imaging control unit 504 stores and accumulates all the stereo imaged images imaged according to the generated trigger in the storage 5004 or the RAM 5002, for example.

なお、この第2の生成方法と、上述した第1の生成方法は、組み合わせて実施することが可能である。 Note that this second generation method and the above-described first generation method can be implemented in combination.

(第3の生成方法)
次に、トリガの第3の生成方法について説明する。第3の生成方法では、上述した第1の生成方法と同様に、車両1の最高速度Speedに基づいた一定時間間隔でトリガを生成する。ここで、第3の生成方法においては、トリガに応じて撮像されたステレオ撮像画像を、全て蓄積するのではなく、進行方向重複率Drが予め設定された値を下回った場合にのみ蓄積する。
(Third generation method)
Next, a third trigger generation method will be described. In the third generation method, as in the first generation method described above, triggers are generated at regular time intervals based on the maximum speed Speed of the vehicle 1 . Here, in the third generation method, not all the stereo images captured in response to the trigger are accumulated, but only when the traveling direction overlapping rate Dr is less than a preset value.

後述するが、車両1の進行方向に重複するように撮像されたステレオ撮像画像のみを用いて、カメラ(車両1)の移動距離を算出することが可能である。 As will be described later, it is possible to calculate the moving distance of the camera (vehicle 1) using only the stereo captured images captured so as to overlap with the traveling direction of the vehicle 1 .

撮像制御部504は、最後に蓄積されたステレオ撮像画像と、直前に撮像されたステレオ撮像画像とを用いてカメラの移動距離を算出する。撮像制御部504は、算出した距離が、進行方向重複率Drの下限値に対応した移動距離を超えたか否かを判定する。撮像制御部504は、超えたと判定した場合には、直前に撮像されたステレオ撮像画像を蓄積する。一方、撮像制御部504は、超えていないと判定した場合は、直前に撮像したステレオ撮像画像を破棄する。 The imaging control unit 504 calculates the moving distance of the camera using the last accumulated stereo image and the immediately preceding stereo image. The imaging control unit 504 determines whether or not the calculated distance exceeds the moving distance corresponding to the lower limit of the traveling direction overlapping rate Dr. If the imaging control unit 504 determines that the threshold has been exceeded, the imaging control unit 504 accumulates the previously captured stereo image. On the other hand, if the image capturing control unit 504 determines that it does not exceed the threshold, it discards the stereo captured image captured immediately before.

これにより、車両1の現在速度を計測するためのセンサを用いずとも、移動速度が小さいときには無駄な画像蓄積が行われないことになる。 As a result, even without using a sensor for measuring the current speed of the vehicle 1, wasteful image accumulation is not performed when the moving speed is low.

[第1の実施形態に適用可能な路面性状値の算出方法]
次に、第1の実施形態に適用可能な路面性状値の算出方法について説明する。以下では、第1の実施形態に適用可能な平坦性σ、わだち掘れ量Dおよびひび割れ率Cの計測方法について説明する。
[Method for Calculating Road Condition Value Applicable to First Embodiment]
Next, a method of calculating road surface property values applicable to the first embodiment will be described. A method of measuring the flatness σ, the amount of rutting D, and the crack ratio C applicable to the first embodiment will be described below.

(平坦性)
図13は、第1の実施形態に適用可能な平坦性の算出処理を示す一例のフローチャートである。ステップS100で、撮像画像取得部500により、路面撮像用カメラ6Lおよび6Rにより撮像され、例えばストレージ5004に記憶されたステレオ撮像画像が取得される。ステレオ撮像画像が取得されると、処理は、並列して処理が可能なステップS101aおよびステップS101bに移行する。
(flatness)
FIG. 13 is a flowchart of an example of flatness calculation processing applicable to the first embodiment. In step S100, the captured image acquisition unit 500 acquires stereo captured images captured by the road surface imaging cameras 6L and 6R and stored in the storage 5004, for example. When the stereo imaged images are acquired, the process moves to steps S101a and S101b, which can be processed in parallel.

ステップS101aでは、ステップS100で取得されたステレオ撮像画像に基づきデプスマップが生成される。図14および図15を用いて、第1の実施形態に適用可能なデプスマップの生成処理について説明する。図14は、第1の実施形態に適用可能なデプスマップの生成処理を示す一例のフローチャートである。 In step S101a, a depth map is generated based on the stereo captured image acquired in step S100. Depth map generation processing applicable to the first embodiment will be described with reference to FIGS. 14 and 15 . FIG. 14 is an exemplary flowchart illustrating depth map generation processing applicable to the first embodiment.

ステップS120で、マッチング処理部510は、撮像画像取得部500からステレオ撮像画像を取得する。次のステップS121で、マッチング処理部510は、取得したステレオ撮像画像を構成する2枚の撮像画像に基づきマッチング処理を行う。次のステップS122で、3D情報生成部511は、ステップS121のマッチング処理結果に基づき深度情報を計算し、3次元点群情報であるデプスマップを生成する。 In step S<b>120 , the matching processing unit 510 acquires stereo captured images from the captured image acquisition unit 500 . In the next step S121, the matching processing unit 510 performs matching processing based on the two captured images forming the acquired stereo captured image. In the next step S122, the 3D information generation unit 511 calculates depth information based on the matching processing result of step S121, and generates a depth map, which is three-dimensional point group information.

ステップS121およびステップS122の処理について、より具体的に説明する。第1の実施形態では、ステレオ撮像画像を構成する2枚の撮像画像を用いて、ステレオ法により深度情報を計算する。ここでいうステレオ法は、2つのカメラにより異なる視点から撮像された2枚の撮像画像を用い、一方の撮像画像のある画素(参照画素)に対して、他方の撮像画像内における対応する画素(対応画素)を求め、参照画素と対応画素とに基づき三角法により深度(奥行き値)を算出する方法である。 The processing of steps S121 and S122 will be described more specifically. In the first embodiment, depth information is calculated by a stereo method using two captured images that constitute a stereo captured image. The stereo method here uses two captured images captured from different viewpoints by two cameras, and for a certain pixel (reference pixel) in one captured image, a corresponding pixel (reference pixel) in the other captured image ( In this method, the corresponding pixel) is obtained, and the depth (depth value) is calculated by triangulation based on the reference pixel and the corresponding pixel.

ステップS121で、マッチング処理部510は、撮像画像取得部500から取得した、ステレオ撮像画像を構成する2枚の撮像画像を用い、基準となる一方の撮像画像における参照画素を中心とする所定サイズの領域に対応する、探索対象となる他方の撮像画像内の領域を、当該他方の撮像画像内で移動させて、探索を行う。 In step S121, the matching processing unit 510 uses the two captured images constituting the stereo captured image, which are acquired from the captured image acquisition unit 500, and a predetermined size centering on the reference pixel in one captured image serving as a reference. A search is performed by moving a region corresponding to the region in the other captured image to be searched within the other captured image.

対応画素の探索は、様々な方法が知られており、例えば、ブロックマッチング法を適用することができる。ブロックマッチング法は、一方の撮像画像において参照画素を中心としてM画素×N画素のブロックとして切り出される領域の画素値を取得する。また、他方の撮像画像において、対象画素を中心としてM画素×N画素のブロックとして切り出される領域の画素値を取得する。画素値に基づき、参照画素を含む領域と、対象画素を含む領域との類似度を計算する。探索対象の画像内でM画素×N画素のブロックを移動させながら類似度を比較し、最も類似度が高くなる位置のブロックにおける対象画素を、参照画素に対応する対応画素とする。 Various methods are known for searching for corresponding pixels, and for example, a block matching method can be applied. The block matching method acquires pixel values of a region cut out as a block of M pixels×N pixels centering on a reference pixel in one captured image. Also, in the other captured image, a pixel value of a region cut out as a block of M pixels×N pixels centering on the target pixel is acquired. Based on the pixel values, the degree of similarity between the area containing the reference pixel and the area containing the target pixel is calculated. The similarity is compared while moving blocks of M pixels×N pixels in the search target image, and the target pixel in the block at the position where the similarity is highest is taken as the corresponding pixel corresponding to the reference pixel.

類似度は、様々な計算方法により算出できる。例えば、式(5)に示される、正規化相互相関(NCC:Normalized Cross-Correlation)は、コスト関数の1つであって、コストを示す数値CNCCの値が大きいほど、類似度が高いことを示す。式(5)において、値MおよびNは、探索を行うための画素ブロックのサイズを表す。また、値I(i,j)は、基準となる一方の撮像画像における画素ブロック内の画素の画素値を表し、値T(i,j)は、探索対象となる他方の撮像画像における画素ブロック内の画素値を表す。 Similarity can be calculated by various calculation methods. For example, the normalized cross-correlation (NCC) shown in Equation (5) is one of the cost functions, and the higher the value of the numerical value C NCC indicating the cost, the higher the similarity. indicates In equation (5), the values M and N represent the size of the pixel block to search. Also, the value I(i, j) represents the pixel value of a pixel in a pixel block in one of the reference captured images, and the value T(i, j) represents the pixel block in the other captured image to be searched. represents the pixel value in

Figure 0007119462000007
Figure 0007119462000007

マッチング処理部510は、上述したように、一方の撮像画像における、M画素×N画素の画素ブロックに対応する、他方の撮像画像における画素ブロックを、他方の撮像画像内で例えば画素単位で移動ながら式(5)の計算を実行し、数値CNCCを算出する。他方の撮像画像において、数値CNCCが最大となる画素ブロックの中心画素を、参照画素に対応する対象画素とする。 As described above, the matching processing unit 510 moves the pixel block in the other captured image corresponding to the pixel block of M pixels×N pixels in the other captured image, for example, in units of pixels. Calculate the numerical value C NCC by performing the calculation of equation (5). In the other captured image, the center pixel of the pixel block with the largest numerical value C NCC is set as the target pixel corresponding to the reference pixel.

図14の説明に戻り、ステップS122で、3D情報生成部511は、ステップS121のマッチング処理により求められた、参照画素および対応画素とに基づき、三角法を用いて奥行き値(深度情報)を算出し、ステレオ撮像画像を構成する一方の撮像画像および他方の撮像画像に係る3次元点群情報を生成する。 Returning to the description of FIG. 14, in step S122, the 3D information generation unit 511 calculates a depth value (depth information) using trigonometry based on the reference pixels and corresponding pixels obtained by the matching processing in step S121. Then, three-dimensional point cloud information relating to one captured image and the other captured image that constitute the stereo captured image is generated.

図15は、第1の実施形態に適用可能な三角法を説明するための図である。図中のターゲット物体403(例えば路面4上の1点)までの距離Sを、各撮像素子402(撮像素子601Lおよび601Rに対応)に撮像された画像内の撮像位置情報から算出することが処理の目的である。すなわち、この距離Sが、対象となる画素の深度情報に対応する。距離Sは、下記の式(6)により計算される。 FIG. 15 is a diagram for explaining trigonometry applicable to the first embodiment. Calculating the distance S to the target object 403 (for example, one point on the road surface 4) in the figure from the imaging position information in the image captured by each imaging element 402 (corresponding to the imaging elements 601 L and 601 R ). is the purpose of processing. That is, this distance S corresponds to the depth information of the target pixel. The distance S is calculated by Equation (6) below.

なお、式(6)において、値baselineは、カメラ400aおよび400b間の基線の長さ(基線長)を表す。これは、図5の例では、撮像レンズ6LLおよび6LR(路面撮像用カメラ6Lの場合)による基線長に対応する。値fは、レンズ401(撮像レンズ6LLおよび6LRに対応)の焦点距離を表す。値qは、視差を表す。視差qは、参照画素と対応画素の座標値の差分に、撮像素子の画素ピッチを乗じた値である。対応画素の座標値は、ステップS121のマッチング処理の結果に基づき得られる。 In equation (6), the value baseline represents the length of the baseline (baseline length) between the cameras 400a and 400b. In the example of FIG. 5, this corresponds to the baseline length by the imaging lenses 6L L and 6L R (in the case of the road surface imaging camera 6L). The value f represents the focal length of the lens 401 (corresponding to the imaging lenses 6L L and 6L R ). The value q represents parallax. The parallax q is a value obtained by multiplying the difference between the coordinate values of the reference pixel and the corresponding pixel by the pixel pitch of the imaging device. The coordinate values of the corresponding pixels are obtained based on the result of matching processing in step S121.

Figure 0007119462000008
Figure 0007119462000008

この式(6)が、2つのカメラ400aおよび400b、すなわち、撮像レンズ6LLおよび6LRを利用した場合の距離Sの算出方法となる。これは2つのカメラ400aおよび400b、すなわち、撮像レンズ6LLおよび6LRによりそれぞれ撮像された撮像画像から距離Sを算出するものである。第1の実施形態では、この式(6)による算出方法を、路面撮像用カメラ6Lの撮像レンズ6LLおよび6LR、ならびに、路面撮像用カメラ6Rの撮像レンズ6RLおよび6RRにより撮像された各撮像画像に適用して、画素毎に距離Sを算出する。 This formula (6) is a method of calculating the distance S when the two cameras 400a and 400b, that is, the imaging lenses 6L L and 6L R are used. This is to calculate the distance S from the captured images captured by the two cameras 400a and 400b, that is, the imaging lenses 6L L and 6L R , respectively. In the first embodiment, the calculation method based on this equation (6) is performed by the imaging lenses 6L L and 6LR of the road surface imaging camera 6L and the imaging lenses 6RL and 6R R of the road surface imaging camera 6R. Applied to each captured image, the distance S is calculated for each pixel.

図13の説明に戻り、ステップS101bで、3D情報生成部511は、カメラ位置および向きを推定する。ここで、カメラ位置は、例えば路面撮像用カメラ6Lを一体と捉えた場合のその中心座標を示す。ステップS101bの処理の詳細については、後述する。 Returning to the description of FIG. 13, in step S101b, the 3D information generation unit 511 estimates the camera position and orientation. Here, the camera position indicates, for example, the coordinates of the center of the road surface imaging camera 6L when viewed as one unit. Details of the processing in step S101b will be described later.

ステップS101aおよびステップS101bの処理が終了すると、処理がステップS102に移行される。ステップS102で、3D情報生成部511は、時系列上で隣接する2つのデプスマップについて、ステップS101bで推定したカメラ位置および向きに基づき、前時刻のデプスマップの座標系に合うように、当該前時刻の次の次時刻のデプスマップの座標変換を行う。 When the processing of steps S101a and S101b ends, the processing moves to step S102. In step S102, the 3D information generating unit 511 converts two depth maps that are adjacent in time series to match the coordinate system of the depth map at the previous time based on the camera position and orientation estimated in step S101b. Coordinate transformation of the depth map of the next time after the time is performed.

なお、前時刻および次時刻は、路面撮像用カメラ6Lおよび6Rにおいてトリガに応じて時系列上で連続的に実行された1回目の撮像と、2回目の撮像とにおいて、1回目の撮像が行われた時刻を前時刻、2回目の撮像が行われた時刻を次時刻としている。すなわち、前時刻のデプスマップは、1回目の撮像によるステレオ撮像画像に基づき生成されたデプスマップであり、次時刻のデプスマップは、2回目の撮像によるステレオ撮像画像に基づき生成されたデプスマップである。 Note that the previous time and the next time are the first time and the second time that the road surface imaging cameras 6L and 6R continuously perform the first and second imaging in time series in response to a trigger. The time at which the image was captured is the previous time, and the time at which the second imaging is performed is the next time. That is, the depth map at the previous time is a depth map generated based on the stereo image captured by the first imaging, and the depth map at the next time is a depth map generated based on the stereo image captured by the second imaging. be.

次のステップS103で、3D情報生成部511は、ステップS102で座標変換された次時刻のデプスマップを、前時刻のデプスマップに統合する。すなわち、ステップS102の座標変換により、前時刻および次時刻の2つのデプスマップが共通の座標系に並ぶため、これら2つのデプスマップを統合することができる。この、ステップS102およびステップS103の処理を、全ての時刻で撮像されたステレオ撮像画像に対して実施する。 In the next step S103, the 3D information generation unit 511 integrates the depth map of the next time coordinate-transformed in step S102 into the depth map of the previous time. That is, the two depth maps of the previous time and the next time are arranged in a common coordinate system by the coordinate conversion in step S102, so that these two depth maps can be integrated. The processing of steps S102 and S103 is performed on stereo captured images captured at all times.

なお、図5や図7に示すように、路面撮像用カメラ6Lおよび6R、あるいは、路面撮像用カメラ6L、6Cおよび6Rを道路幅方向に複数台並べて用いる場合、道路幅方向に並んだ路面撮像用カメラ同士(例えば路面撮像用カメラ6Lおよび6R)においても、同様にしてカメラ位置および向きを推定し、その後、デプスマップ統合を行う。 As shown in FIGS. 5 and 7, when a plurality of road surface imaging cameras 6L and 6R or road surface imaging cameras 6L, 6C and 6R are arranged side by side in the width direction of the road, road surface imaging cameras arranged in the road width direction are used. The camera positions and orientations of the road surface imaging cameras (for example, the road surface imaging cameras 6L and 6R) are estimated in the same manner, and depth map integration is then performed.

また、上述した第3の生成方法における、カメラ(車両1)の移動距離は、ステップS102の座標変換、および、ステップS103のデプスマップ統合処理において、算出が可能である。 Further, the moving distance of the camera (vehicle 1) in the above-described third generation method can be calculated in the coordinate conversion in step S102 and the depth map integration processing in step S103.

次のステップS104で、3D情報取得部520は、3D情報生成部511から、ステップS103で統合されたデプスマップを取得する。そして、状態特性値算出部521は、3D情報取得部520に取得されたデプスマップに基づき、平坦性σを算出する。すなわち、デプスマップが統合されると、計測した区間の道路について路面形状が、1つの3次元空間中の点群として復元される。点群が復元されると、路面上の各サンプリング地点について、規定に従い前後1.5m地点の座標を結んだ座標系を取り、中心部分の3次元点群までの距離を算出することで、式(2)と同様に変位量dを算出でき、式(3)に従い、この変位量dから平坦性σを算出できる。 In the next step S104, the 3D information acquisition unit 520 acquires the depth map integrated in step S103 from the 3D information generation unit 511. FIG. Then, the state characteristic value calculator 521 calculates the flatness σ based on the depth map acquired by the 3D information acquirer 520 . That is, when the depth maps are integrated, the road surface shape of the road in the measured section is restored as a point cloud in one three-dimensional space. When the point cloud is restored, for each sampling point on the road surface, take a coordinate system that connects the coordinates of the 1.5m points before and after according to the regulations, and calculate the distance to the 3D point cloud at the center, using the formula The amount of displacement d can be calculated in the same manner as in (2), and the flatness σ can be calculated from the amount of displacement d according to equation (3).

(わだち掘れ量)
わだち掘れ量Dについては、ステップS104で、状態特性値算出部521は、3D情報取得部520に取得されたデプスマップを道路幅方向にスキャンすることで、図1(a)および図1(b)に示されるような深さD1およびD2を取得することができる。これら取得した深さD1およびD2と、デプスマップをスキャンした断面の情報に基づき、わだち掘れ量Dを求めることができる。
(rutting amount)
Regarding the rutting amount D, in step S104, the state characteristic value calculation unit 521 scans the depth map acquired by the 3D information acquisition unit 520 in the road width direction to obtain the values shown in FIGS. ), the depths D 1 and D 2 can be obtained. The rutting amount D can be obtained based on the obtained depths D1 and D2 and the cross - sectional information obtained by scanning the depth map.

(ひび割れ率)
状態特性値算出部521は、例えば、ステップS103において統合されたデプスマップに対し、ステップS100で取得されたステレオ撮像画像を適用する。すなわち、状態特性値算出部521は、車両1の進行方向に、進行方向重複率Drで以て重複して撮像された各ステレオ撮像画像を統合する。状態特性値算出部521は、統合した画像に対して規定に従い50cmのメッシュを設定し、画像解析により各メッシュ内のひび、パッチングなどの情報を取得し、取得した情報に基づき規定に従いひび割れ率Cを算出する。
(crack rate)
For example, the state characteristic value calculation unit 521 applies the stereo captured image acquired in step S100 to the depth map integrated in step S103. That is, the state characteristic value calculation unit 521 integrates each stereo captured image that is overlapped in the direction of travel of the vehicle 1 with the rate of overlap of the direction of travel Dr. The state characteristic value calculation unit 521 sets a mesh of 50 cm according to regulations for the integrated image, acquires information such as cracks and patching in each mesh by image analysis, and calculates the crack rate C according to regulations based on the acquired information. Calculate

(カメラ位置および向きの推定処理)
次に、上述した図13のフローチャートにおけるステップS101bの、カメラ位置および向きの推定処理について、より詳細に説明する。図16は、第1の実施形態に適用可能な、カメラ位置および向きの推定処理を示す一例のフローチャートである。第1の実施形態では、カメラ位置および向きを、上述したSfMを用いて推定する。
(Processing for estimating camera position and orientation)
Next, the estimation processing of the camera position and direction in step S101b in the flowchart of FIG. 13 described above will be described in more detail. FIG. 16 is a flowchart of an example of camera position and orientation estimation processing applicable to the first embodiment. In a first embodiment, the camera position and orientation are estimated using the SfM described above.

ステップS130で、3D情報生成部511は、撮像画像取得部500からステレオ撮像画像を取得する。ここで、3D情報生成部511は、時系列上で連続的に撮像された2枚のステレオ撮像画像(前時刻のステレオ撮像画像、次時刻のステレオ撮像画像、とする)を取得する。次に、ステップS131で、3D情報生成部511は、取得した各ステレオ撮像画像から特徴点を抽出する。この特徴点抽出処理は、各ステレオ撮像画像の対応点として検出しやすい点を見つける処理であって、典型的には、画像中の変化があり、かつ変化が一様でないコーナーと呼ばれる点を検出する。 In step S<b>130 , the 3D information generation unit 511 acquires stereo captured images from the captured image acquisition unit 500 . Here, the 3D information generation unit 511 acquires two stereo captured images (a stereo captured image at the previous time and a stereo captured image at the next time) continuously captured in time series. Next, in step S131, the 3D information generation unit 511 extracts feature points from each acquired stereo image. This feature point extraction process is a process of finding points that can be easily detected as corresponding points in each stereoscopic image. do.

次のステップS132で、3D情報生成部511は、前時刻のステレオ撮像画像内で特徴点として抽出された点と同じ場所を撮像した点を、次時刻のステレオ撮像画像内から検出する。この検出処理は、オプティカルフローと呼ばれる手法や、SIFT(Scale-Invariant Feature Transform)、SURF(Speed-Upped Robust Feature)などに代表される特徴点マッチングと呼ばれる手法を適用することができる。 In the next step S132, the 3D information generation unit 511 detects, from the stereo image of the next time, the point captured at the same place as the point extracted as the feature point in the stereo image of the previous time. For this detection processing, a technique called optical flow or a technique called feature point matching represented by SIFT (Scale-Invariant Feature Transform), SURF (Speed-Upped Robust Feature), and the like can be applied.

次のステップS133で、3D情報生成部511は、カメラの初期位置および向きを推定する。3D情報生成部511は、ステップS132において各ステレオ撮像画像で検出された対応点の座標を固定値とし、次時刻のステレオ撮像画像を撮像したカメラの位置および向きをパラメータとして連立方程式を解くことで、カメラの位置を推定し、3次元座標を算出する(ステップS134)。 At the next step S133, the 3D information generation unit 511 estimates the initial position and orientation of the camera. The 3D information generating unit 511 fixes the coordinates of the corresponding points detected in each stereoscopic image in step S132, and solves the simultaneous equations using the position and orientation of the camera that captured the stereoscopic image at the next time as parameters. , the position of the camera is estimated, and the three-dimensional coordinates are calculated (step S134).

図17を参照しながら、カメラの初期位置および向きの推定方法について説明する。式(7)は、空間の点Xjを、カメラ(視点)Piに投影した座標xijの関係を表している。なお、式(7)において、値nが3次元空間における点の数、値mは、カメラ(撮像画像)の数をそれぞれ表す。 A method for estimating the initial position and orientation of the camera will be described with reference to FIG. Equation (7) expresses the relationship between the coordinates x ij of the spatial point X j projected onto the camera (viewpoint) P i . In equation (7), the value n represents the number of points in the three-dimensional space, and the value m represents the number of cameras (captured images).

Figure 0007119462000009
Figure 0007119462000009

各値Pは、それぞれのカメラについて、3次元空間の点の座標をその画像の2次元座標に変換する投影行列であって、次式(8)で表される。式(8)は、右辺に示す3次元座標の2行2列の変換行列と、3次元座標から2次元座標への射影変換fiから成る。 Each value P is a projection matrix that transforms the coordinates of a point in the three-dimensional space into the two-dimensional coordinates of the image for each camera, and is expressed by the following equation (8). Equation (8) consists of a transformation matrix of 2 rows and 2 columns of three-dimensional coordinates shown on the right side, and a projective transformation f i from the three-dimensional coordinates to the two-dimensional coordinates.

Figure 0007119462000010
Figure 0007119462000010

図17において、カメラに映った座標xijのみが与えられた連立方程式を用いて、値Xjと値Piとを算出する。この連立方程式の解法には、線形最小二乗法を用いることができる。 In FIG. 17, the values X j and P i are calculated using simultaneous equations given only the coordinates x ij captured by the camera. A linear least-squares method can be used to solve this simultaneous equation.

次のステップS135で、3D情報生成部511は、ステップS134で算出されたカメラ位置を示す3次元座標を最適化する。連立方程式を解いて算出されたカメラの位置および向きは、十分な精度を有していない場合がある。そのため、算出された値を初期値として最適化処理を行うことで、精度を向上させる。 At the next step S135, the 3D information generation unit 511 optimizes the three-dimensional coordinates indicating the camera position calculated at step S134. The position and orientation of the camera calculated by solving the system of equations may not have sufficient accuracy. Therefore, the accuracy is improved by performing the optimization process using the calculated value as the initial value.

画像上探索により取得された対応点座標と、ステップS134で算出された3次元座標および式(8)の投影行列をパラメータとして上述した式(7)により算出される2次元座標xij(再投影座標と呼ばれる)と、の差は、残差と呼ばれる。カメラの位置および向きを算出するために用いた全てのステレオ撮像画像中の、全ての対応点について、この残差の総和が最小になるように、パラメータを最適化演算によって調整する。これを、バンドル調整と呼ぶ。バンドル調整による全体最適化を行うことで、カメラの位置および向きの精度を向上させることができる。 The two-dimensional coordinates x ij (reprojection (called coordinates) and the difference is called the residual. For all corresponding points in all stereoscopic images used to calculate the position and orientation of the camera, the parameters are adjusted by an optimization operation so that the sum of residual errors is minimized. This is called bundle adjustment. Global optimization by bundle adjustment can improve the accuracy of camera position and orientation.

以上が、通常のSfMにおけるカメラ位置および向き推定のベース処理である。第1の実施形態では、基線長が既知の路面撮像用カメラ6Lおよび6Rを使用しているため、車両1の移動に応じて撮像範囲を重複させて撮像されたステレオ撮像画像における対応点の検出に加えて、ステレオ撮像画像を構成する2枚の撮像画像における対応点の探索が容易である。したがって、空間での3次元座標Xjが実スケール(現実の大きさ)で確定し、移動後のカメラの位置および向きも安定的に算出できる。 The above is the base processing of camera position and orientation estimation in normal SfM. In the first embodiment, since the road surface imaging cameras 6L and 6R with known base line lengths are used, corresponding points are detected in the stereo images captured by overlapping the imaging ranges according to the movement of the vehicle 1. In addition, it is easy to search for corresponding points in two captured images that constitute a stereo captured image. Therefore, the three-dimensional coordinates X j in space are determined on an actual scale (actual size), and the position and orientation of the camera after movement can also be stably calculated.

なお、上述したように、第1の実施形態に適用可能な撮像システム10では、情報処理装置50においてトリガを生成し、生成したトリガを各路面撮像用カメラ6Lおよび6Rに全てのカメラに分配することで、各路面撮像用カメラ6Lおよび6Rが同期して撮像を行う構成となっている。このとき、各路面撮像用カメラ6Lおよび6Rが有するクロック生成器や、情報処理装置50においてトリガを分配するためのトリガ分配部品、情報処理装置50や各路面撮像用カメラ6Lおよび6Rにおけるトリガ配線長の差異などの影響により、実際に各路面撮像用カメラ6Lおよび6Rがトリガを取り込んで撮像を実行するタイミングに僅かなズレが発生する可能性がある。この撮像タイミングのズレは、可能な限り抑制することが好ましい。 As described above, in the imaging system 10 applicable to the first embodiment, the information processing device 50 generates triggers, and distributes the generated triggers to the road surface imaging cameras 6L and 6R. Thus, the road surface imaging cameras 6L and 6R are configured to perform imaging in synchronism. At this time, clock generators of the road surface imaging cameras 6L and 6R, trigger distribution components for distributing triggers in the information processing device 50, trigger wiring lengths in the information processing device 50 and the road surface imaging cameras 6L and 6R , there is a possibility that a slight deviation may occur in the timing at which the road surface imaging cameras 6L and 6R actually capture the trigger and execute imaging. It is preferable to suppress this imaging timing lag as much as possible.

特に基線長が既知である路面撮像用カメラ6Lおよび6Rの間では、撮像タイミングのズレを極力抑えることが望ましい。例えば、カメラI/F5010aから各路面撮像用カメラ6Lおよび6Rにトリガ供給の配線を行う際に、トリガの品質確保のための中継器や、静電ノイズなどから保護するためにフォトカプラを経由する場合がある。この場合に、路面撮像用カメラ6Lおよび6R間でこれら中継器やフォトカプラを共有することが望ましい。 Especially between the road surface imaging cameras 6L and 6R whose baseline lengths are known, it is desirable to minimize the deviation in imaging timing. For example, when wiring the trigger supply from the camera I/F 5010a to the road surface imaging cameras 6L and 6R, a repeater for ensuring trigger quality and a photocoupler for protection from electrostatic noise are used. Sometimes. In this case, it is desirable to share these repeaters and photocouplers between the road surface imaging cameras 6L and 6R.

[第1の実施形態に係る撮像条件の決定処理]
次に、第1の実施形態に係る撮像条件の決定処理について、より詳細に説明する。第1の実施形態は、路面撮像用カメラ6Lおよび6Rにて撮像するステレオ撮像範囲が大きな輝度変化を含む場合であっても、路面撮像用カメラ6Lおよび6Rによる、適切な撮像条件での撮像を可能とするものである。
[Processing for Determining Imaging Conditions According to First Embodiment]
Next, the imaging condition determination process according to the first embodiment will be described in more detail. In the first embodiment, even when the stereo imaging range captured by the road surface imaging cameras 6L and 6R includes a large luminance change, the road surface imaging cameras 6L and 6R can perform imaging under appropriate imaging conditions. It is possible.

図18は、路面4において大きな輝度変化がある箇所の例を示す図である。なお、図18(a)および図18(b)は、図の下方から上方に向けて走行しながら撮像をした画像の例を示している。 FIG. 18 is a diagram showing an example of a location on the road surface 4 where there is a large luminance change. Note that FIGS. 18A and 18B show examples of images captured while traveling from the bottom to the top of the drawing.

図18(a)は、日向から日陰に入る箇所の例である。画像の下半分が日向領域41、上半分が日陰領域40となっており、日陰領域40は、日向領域41と比較して路面輝度が低くなっている。図18(b)は、路面4が途中から新しく舗装し直された箇所の例である。画像の上部分が修繕をされて間もない箇所で新しく舗装し直された新規舗装領域42である。新規舗装領域42は、路面4の他の領域43と比べ反射率が低くなっており、路面輝度が低くなっている。 FIG. 18(a) is an example of a portion that enters the shade from the sun. The lower half of the image is a sunny area 41 and the upper half is a shaded area 40. The shaded area 40 has lower road luminance than the sunny area 41. FIG. FIG. 18(b) is an example of a part where the road surface 4 is newly paved from the middle. The upper portion of the image is a newly paved area 42 that has been newly repaved at a location that has just been repaired. The newly paved area 42 has a lower reflectance than the other area 43 of the road surface 4, and has a lower road luminance.

図18(a)および図18(b)の何れも、明るい箇所(日向領域41、他の領域43)での露出設定のまま暗い箇所(日陰領域40、新規舗装領域42)を撮像すると、暗い箇所において十分なコントラストの画像が得られない。また、自動露出で撮像する場合であっても、車両1で走行しながら撮像を実行すると、自動露出の追従におけるタイムラグからコントラストの十分でない画像が撮像されてしまうおそれがある。 In both FIGS. 18A and 18B, when a dark place (the shaded area 40 and the new pavement area 42) is imaged with the exposure set for the bright place (the sunny area 41 and the other area 43), it becomes dark. Images with sufficient contrast cannot be obtained in some areas. Also, even when the image is captured using automatic exposure, if the vehicle 1 is running and the image is captured, an image with insufficient contrast may be captured due to the time lag in following the automatic exposure.

そこで、第1の実施形態では、進行方向用カメラ7により、路面撮像用カメラ6Lおよび6Rによる撮像に先んじて、路面撮像用カメラ6Lおよび6Rにより撮像されるステレオ撮像範囲を撮像し、撮像により得られた進行方向撮像画像に基づき、路面撮像用カメラ6Lおよび6Rによる撮像条件を決定する。 Therefore, in the first embodiment, the traveling direction camera 7 captures an image of the stereo imaging range captured by the road surface imaging cameras 6L and 6R prior to imaging by the road surface imaging cameras 6L and 6R. Based on the traveling direction captured image thus obtained, the imaging conditions for the road surface imaging cameras 6L and 6R are determined.

図19および図20は、第1の実施形態に係る撮像条件決定処理を示す一例のフローチャートである。ここで、進行方向用カメラ7と、路面撮像用カメラ6Lおよび6Rは、情報処理装置50から供給されるトリガにより、撮像の同期が取られている。図19および図20のフローチャートにおいては、進行方向用カメラ7により1フレームの撮像を行った際に、当該撮像により得られた進行方向撮像画像に基づき路面撮像用カメラ6Lおよび6Rの撮像条件を決定する。 19 and 20 are flowcharts of an example of imaging condition determination processing according to the first embodiment. Here, the traveling direction camera 7 and the road surface imaging cameras 6L and 6R are synchronized in imaging by a trigger supplied from the information processing device 50. FIG. In the flowcharts of FIGS. 19 and 20, when one frame is captured by the traveling direction camera 7, the imaging conditions of the road surface imaging cameras 6L and 6R are determined based on the traveling direction captured image obtained by the imaging. do.

先ず、図19のフローチャートによる処理について説明する。図19のフローチャートは、第1の実施形態に係る、進行方向用カメラ7に関する処理を示している。ステップS200で、情報処理装置50は、撮像制御部504により、位置情報取得部51から現在位置を示す位置情報を取得する。次のステップS201で、撮像画像取得部500bは、進行方向用カメラ7で撮像された進行方向撮像画像を取得する。取得された進行方向撮像画像は、撮像画像記憶部503により情報処理装置50のメモリ(例えばRAM5002)に記憶される。 First, the processing according to the flowchart of FIG. 19 will be described. The flowchart of FIG. 19 shows processing related to the traveling direction camera 7 according to the first embodiment. In step S<b>200 , the information processing apparatus 50 acquires position information indicating the current position from the position information acquisition unit 51 by the imaging control unit 504 . In the next step S201, the captured image acquisition unit 500b acquires a traveling direction captured image captured by the traveling direction camera 7. FIG. The acquired traveling direction captured image is stored in the memory (for example, the RAM 5002 ) of the information processing apparatus 50 by the captured image storage unit 503 .

次のステップS202で、情報処理装置50は、撮像制御部504により、ステップS201で記憶した進行方向撮像画像を解析し、撮像条件の変更が必要か否かを判定する。撮像制御部504は、進行方向用カメラ7の露出設定と、進行方向撮像画像の注目領域における画像輝度とから進行方向用カメラ7の撮像範囲(撮像道路面)の輝度を算出し、算出された輝度に応じて、撮像条件の変更が必要か否か、必要な場合、どのような設定にするかを決定する。ここで、撮像条件は、例えば露出設定である。 In the next step S202, the information processing apparatus 50 causes the imaging control unit 504 to analyze the traveling direction captured image stored in step S201, and determines whether or not the imaging conditions need to be changed. The imaging control unit 504 calculates the brightness of the imaging range (imaging road surface) of the traveling direction camera 7 from the exposure setting of the traveling direction camera 7 and the image brightness in the attention area of the traveling direction captured image. Depending on the brightness, it is determined whether or not the imaging conditions need to be changed, and if so, what setting to use. Here, the imaging condition is, for example, exposure setting.

例えば、撮像制御部504は、道路面輝度の変化が閾値を超えた場合に、変化量に応じて、輝度が明るくなる方向に変化した場合は撮像される画像が暗くなるように、輝度が暗くなる方向に変化した場合は、撮像される画像が明るくなるように、露出パラメータを決定する。露出パラメータとは、露光時間、ゲインのうち少なくとも一方である。 For example, when the change in road surface brightness exceeds a threshold value, the image capturing control unit 504 reduces the brightness so that the captured image becomes darker when the brightness changes in the brighter direction according to the amount of change. The exposure parameter is determined so that the captured image becomes brighter when the direction changes. The exposure parameter is at least one of exposure time and gain.

ステップS203で、撮像制御部504は、ステップS202の判定処理により撮像条件の変更が必要であると判定した場合(ステップS203、「有り」)、処理をステップS204に移行させる。ステップS204で、撮像制御部504は、変更した撮像条件と、撮像条件の変更を行うための位置を示す変更位置情報とを関連付けて、例えばRAM5002に記憶する。これは、進行方向用カメラ7と、路面撮像用カメラ6Lおよび6Rと、では撮像方向が異なるため、進行方向用カメラ7で撮像した箇所を道路面撮像カメラで撮像するまでのタイムラグがあり、適切なタイミングで露出の変更をする必要があるためである。 In step S203, when the imaging control unit 504 determines that the imaging conditions need to be changed by the determination processing in step S202 (step S203, "yes"), the process proceeds to step S204. In step S204, the imaging control unit 504 associates the changed imaging conditions with change position information indicating the position for changing the imaging conditions, and stores them in the RAM 5002, for example. This is because the traveling direction camera 7 and the road surface imaging cameras 6L and 6R have different imaging directions. This is because it is necessary to change the exposure at appropriate timing.

なお、変更位置情報は、例えば、ステップS200で取得された位置情報に、既知の、進行方向用カメラ7により撮像される撮像範囲の、位置情報取得部5021(情報処理装置50またはGNSS受信機)からの距離を加算した値を適用できる。 Note that the changed position information is, for example, the position information acquisition unit 5021 (information processing device 50 or GNSS receiver) of the imaging range imaged by the traveling direction camera 7 in addition to the position information acquired in step S200. can be applied by adding the distance from

ステップS204における設定情報と変更位置情報との記憶が完了すると、図19のフローチャートによる一連の処理が終了される。また、上述したステップS203で、露出設定の変更の必要が無いと判定された場合(ステップS203、「無し」)、図19のフローチャートによる一連の処理が終了される。 When the storage of the setting information and the changed position information in step S204 is completed, the series of processing according to the flowchart of FIG. 19 is terminated. If it is determined in step S203 described above that there is no need to change the exposure setting (step S203, "No"), the series of processes according to the flowchart of FIG. 19 is terminated.

上述したステップS200~ステップS204の処理は、所定の時間間隔で繰り返し実行される。 The processes of steps S200 to S204 described above are repeatedly executed at predetermined time intervals.

図20は、第1の実施形態に係る、路面撮像用カメラ6Lおよび6Rに関する処理を示す一例のフローチャートである。なお、情報処理装置50は、位置情報取得部5022により、所定の時間間隔で高頻度に位置情報を取得している。情報処理装置50において、撮像制御部504は、ステップS300で、位置情報取得部5022により取得された現在位置を示す位置情報に基づき、現在位置が、図19のステップS204で記憶された変更位置情報が示す位置であるか否かを判定する。 FIG. 20 is a flow chart showing an example of processing related to the road surface imaging cameras 6L and 6R according to the first embodiment. The information processing apparatus 50 acquires position information at high frequency at predetermined time intervals by the position information acquisition unit 5022 . In the information processing device 50, the imaging control unit 504 changes the current position from the changed position information stored in step S204 of FIG. is the position indicated by .

撮像制御部504は、現在位置が変更位置情報が示す位置であると判定した場合(ステップS300、「Yes」)、処理をステップS301に移行させる。ステップS301で、撮像制御部504は、路面撮像用カメラ6Lおよび6Rに対して、図19のステップS204において当該変更位置情報と関連付けられて記憶される設定情報を設定し、路面撮像用カメラ6Lおよび6Rの撮像条件を変更する。 When the imaging control unit 504 determines that the current position is the position indicated by the changed position information (step S300, "Yes"), the process proceeds to step S301. In step S301, the imaging control unit 504 sets the setting information stored in association with the changed position information in step S204 of FIG. Change the 6R imaging conditions.

次のステップS302で、撮像制御部504は、撮像を指示するためのトリガを生成して、路面撮像用カメラ6Lおよび6Rに送り、当該トリガに従い路面撮像用カメラ6Lおよび6Rにより撮像された各ステレオ撮像画像を取得する。撮像制御部504は、取得した各ステレオ撮像画像を、例えばRAM5002に記憶し、ストレージ5004に格納する。 In the next step S302, the imaging control unit 504 generates a trigger for instructing imaging, sends it to the road surface imaging cameras 6L and 6R, and according to the trigger, each stereo imaged by the road surface imaging cameras 6L and 6R is captured. Acquire a captured image. The imaging control unit 504 stores each acquired stereoscopic image in, for example, the RAM 5002 and the storage 5004 .

一方、撮像制御部504は、ステップS300で、現在位置が変更位置情報が示す位置ではないと判定した場合、処理をステップS302に移行させ、撮像を指示するためのトリガを生成して、路面撮像用カメラ6Lおよび6Rに送り、当該トリガに従い路面撮像用カメラ6Lおよび6Rにより撮像された各ステレオ撮像画像を取得する。 On the other hand, if the imaging control unit 504 determines in step S300 that the current position is not the position indicated by the changed position information, the process proceeds to step S302, generates a trigger for instructing imaging, and performs road surface imaging. Then, according to the trigger, each stereo captured image captured by the road surface imaging cameras 6L and 6R is obtained.

第1の実施形態に係る撮像システム10は、これら図19および図20のフローチャートによる各処理を車両1の移動中に繰り返し実施し、路面4のステレオ撮像画像を取得する。 The imaging system 10 according to the first embodiment repeatedly performs each process according to the flowcharts of FIGS.

第1の実施形態によれば、進行方向用カメラ7により、路面撮像用カメラ6Lおよび6Rによるステレオ撮像範囲の輝度情報を、路面撮像用カメラ6Lおよび6Rの撮像に先立って取得し、撮像条件を決定している。そのため、路面撮像用カメラ6Lおよび6Rによるステレオ撮像範囲の撮像を、適切な撮像条件にて実行できる。これにより、ひび割れ率C、わだち掘れ量Dおよび平坦性σを、路面撮像用カメラ6Lおよび6Rにより撮像されたステレオ撮像画像に基づき、より高精度に算出でき、これらを用いたMCIによる評価の信頼性を高めることが可能である。 According to the first embodiment, the traveling direction camera 7 acquires the brightness information of the stereo imaging range of the road surface imaging cameras 6L and 6R prior to imaging by the road surface imaging cameras 6L and 6R, and the imaging conditions are set. have decided. Therefore, the imaging of the stereo imaging range by the road surface imaging cameras 6L and 6R can be performed under appropriate imaging conditions. As a result, the crack rate C, the amount of rutting D, and the flatness σ can be calculated with higher accuracy based on the stereo images captured by the road surface imaging cameras 6L and 6R, and the reliability of evaluation by MCI using these can be calculated. It is possible to improve

[第1の実施形態の第1の変形例]
次に、第1の実施形態の第1の変形例について説明する。第1の実施形態の第1の変形例は、撮像システム10が備える、MCI算出のために路面4を撮像するための複数の路面撮像用カメラ(例えば路面撮像用カメラ6Lおよび6R)毎に、撮像条件を設定するようにしている。
[First Modification of First Embodiment]
Next, the 1st modification of 1st Embodiment is demonstrated. In a first modification of the first embodiment, for each of a plurality of road surface imaging cameras (for example, road surface imaging cameras 6L and 6R) for imaging the road surface 4 for MCI calculation, the imaging system 10 includes: The imaging conditions are set.

図21~図24を用いて、第1の実施形態の第1の変形例に係る撮像条件決定処理について説明する。上述と同様に、進行方向用カメラ7と、路面撮像用カメラカメラ6Lおよび6Rは、情報処理装置50から供給されるトリガにより、撮像の同期が取られている。第1の実施形態の第1の変形例では、進行方向用カメラ7により1フレームの撮像を行った際に、当該撮像により得られた進行方向撮像画像に基づき路面撮像用カメラ6Lおよび6Rそれぞれの撮像条件を決定する。 The imaging condition determination process according to the first modification of the first embodiment will be described with reference to FIGS. 21 to 24. FIG. In the same manner as described above, the traveling direction camera 7 and the road surface imaging cameras 6L and 6R are synchronized in imaging by a trigger supplied from the information processing device 50. FIG. In the first modification of the first embodiment, when one frame is imaged by the traveling direction camera 7, each of the road surface imaging cameras 6L and 6R is detected based on the traveling direction captured image obtained by the imaging. Determine imaging conditions.

図21は、第1の実施形態の第1の変形例に係る、進行方向用カメラ7に関する処理を示す一例のフローチャートである。ステップS210で、情報処理装置50は、撮像制御部504により、位置情報取得部51から現在位置を示す位置情報を取得する。次のステップS211で、撮像画像取得部500bは、進行方向用カメラ7で撮像された進行方向撮像画像を取得する。取得された進行方向撮像画像は、撮像画像記憶部503により情報処理装置50のメモリ(例えばRAM5002)に記憶される。 FIG. 21 is a flowchart of an example of processing related to the traveling direction camera 7 according to the first modification of the first embodiment. In step S<b>210 , the information processing apparatus 50 acquires position information indicating the current position from the position information acquisition unit 51 by the imaging control unit 504 . In the next step S211, the captured image acquisition unit 500b acquires the traveling direction captured image captured by the traveling direction camera 7. FIG. The acquired traveling direction captured image is stored in the memory (for example, the RAM 5002 ) of the information processing apparatus 50 by the captured image storage unit 503 .

次のステップS212で、情報処理装置50は、撮像制御部504により、ステップS211で記憶した進行方向撮像画像を解析し、撮像条件の変更が必要か否かを判定する。撮像制御部504は、進行方向用カメラ7の露出設定と、進行方向撮像画像の注目領域における画像輝度とから進行方向用カメラ7の撮像範囲(撮像道路面)の輝度を算出し、算出された輝度に応じて、撮像条件の変更が必要か否か、必要な場合、どのような設定にするかを決定する。ここで、撮像条件は、例えば露出パラメータである。 In the next step S212, the information processing apparatus 50 causes the imaging control unit 504 to analyze the traveling direction captured image stored in step S211, and determines whether or not the imaging conditions need to be changed. The imaging control unit 504 calculates the brightness of the imaging range (imaging road surface) of the traveling direction camera 7 from the exposure setting of the traveling direction camera 7 and the image brightness in the attention area of the traveling direction captured image. Depending on the brightness, it is determined whether or not the imaging conditions need to be changed, and if so, what setting to use. Here, the imaging condition is, for example, an exposure parameter.

例えば、撮像制御部504は、道路面輝度の変化が閾値を超えた場合に、変化量に応じて、輝度が明るくなる方向に変化した場合は撮像される画像が暗くなるように、輝度が暗くなる方向に変化した場合は、撮像される画像が明るくなるように、露出パラメータを決定する。第1の実施形態の第1の変形例では、路面撮像用カメラ6Lおよび6Rそれぞれについて、個別に露出パラメータを決定する。 For example, when the change in road surface brightness exceeds a threshold value, the image capturing control unit 504 reduces the brightness so that the captured image becomes darker when the brightness changes in the brighter direction according to the amount of change. The exposure parameter is determined so that the captured image becomes brighter when the direction changes. In the first modification of the first embodiment, the exposure parameters are individually determined for each of the road surface imaging cameras 6L and 6R.

図22は、第1の実施形態の第1の変形例に適用可能な、進行方向用カメラ7による撮像範囲と、路面撮像用カメラ6Lおよび6Rによるステレオ撮像範囲との関係を説明するための図である。 FIG. 22 is a diagram for explaining the relationship between the imaging range of the traveling direction camera 7 and the stereo imaging range of the road surface imaging cameras 6L and 6R, which can be applied to the first modification of the first embodiment. is.

図22に示されるように、路面撮像用カメラ6Lおよび6Rは、車両1の後方を、路面撮像用カメラ6Lおよび6Rそれぞれの撮像範囲60Lおよび60Rが互いに重複部分を持ち、且つ、車両1が走行中の路面4における車線の幅方向全てが当該撮像範囲60Lおよび60Rの何れかに入るように撮像を行う。例えば、路面撮像用カメラ6Lおよび6Rは、撮像範囲60Lおよび60Rの何れかに車線の両端を示す白線44および45が含まれるように、配置される。また、進行方向用カメラ7は、車両1の進行方向前方において、当該車線の幅方向全てが撮影範囲70に入るように撮像を行う。 As shown in FIG. 22, the road surface imaging cameras 6L and 6R cover the rear of the vehicle 1. The imaging ranges 60L and 60R of the road surface imaging cameras 6L and 6R overlap each other, and the vehicle 1 is traveling. Imaging is performed so that the entire width direction of the lane on the road surface 4 in the middle falls within either of the imaging ranges 60L and 60R. For example, the road surface imaging cameras 6L and 6R are arranged so that the white lines 44 and 45 indicating both ends of the lane are included in either of the imaging ranges 60L and 60R. Further, the traveling direction camera 7 captures an image in front of the vehicle 1 in the traveling direction so that the entire width direction of the lane is included in the photographing range 70 .

図23は、第1の実施形態の第1の変形例に適用可能な、路面撮像用カメラ6Lおよび6R、ならびに、進行方向用カメラ7による撮像画像の例を示す図である。なお、図23において、上述の図23と共通する部分には同一の符号を付し、詳細な説明を省略する。図23(a)は、上述した図23と対応し、図23(b)は、進行方向用カメラ7が撮像範囲70を撮像した進行方向撮像画像71の例を示す。また、図23(c)は、路面撮像用カメラ6Lおよび6Rが撮像範囲60Lおよび60Rを撮像したステレオ撮像画像61Lおよび61Rの例を示す。 FIG. 23 is a diagram showing an example of an image captured by the road surface imaging cameras 6L and 6R and the traveling direction camera 7 applicable to the first modification of the first embodiment. In addition, in FIG. 23, the same reference numerals are given to the same parts as in FIG. 23 described above, and detailed description thereof will be omitted. FIG. 23(a) corresponds to FIG. 23 described above, and FIG. 23(b) shows an example of a traveling direction captured image 71 in which the imaging range 70 is captured by the traveling direction camera 7. FIG. Also, FIG. 23(c) shows an example of stereo captured images 61L and 61R captured by the road surface imaging cameras 6L and 6R in the imaging ranges 60L and 60R.

進行方向用カメラ7の進行方向撮像画像に基づき路面撮像用カメラ6Lおよび6Rの撮像条件(露光パラメータ)を決定するに当たり、進行方向撮像画像71に対して、輝度評価を行うための評価領域が、各ステレオ撮像画像61Lおよび61Rそれぞれに対応して決められる。図23(b)に示されるように、各ステレオ撮像画像61Lおよび61Rそれぞれに対応して輝度評価を行う評価領域710Lおよび710Rは、各路面撮像用カメラ6Lおよび6Rの撮像範囲60Lおよび60Rの中央付近に合わせて設定される。この評価領域710Lおよび710R内の輝度情報に応じて、各路面撮像用カメラ6Lおよび6Rの撮像条件(露出パラメータ)を個別に決定する。 In determining the imaging conditions (exposure parameters) of the road surface imaging cameras 6L and 6R based on the traveling direction captured image of the traveling direction camera 7, the evaluation area for evaluating the brightness of the traveling direction captured image 71 is: It is determined corresponding to each of the stereo imaged images 61L and 61R. As shown in FIG. 23(b), evaluation areas 710L and 710R for luminance evaluation corresponding to the respective stereo images 61L and 61R are located at the center of the imaging ranges 60L and 60R of the respective road surface imaging cameras 6L and 6R. It is set according to the neighborhood. The imaging conditions (exposure parameters) of the road surface imaging cameras 6L and 6R are individually determined according to the luminance information in the evaluation areas 710L and 710R.

ステップS213で、撮像制御部504は、ステップS212の判定処理により撮像条件の変更が必要であると判定した場合(ステップS213、「有り」)、処理をステップS214に移行させる。ステップS204で、撮像制御部504は、路面撮像用カメラ6Lおよび6R毎に、変更した撮像条件と、撮像条件の変更を行うための位置を示す変更位置情報とを関連付けて、例えばRAM5002に記憶する。 In step S213, when the imaging control unit 504 determines that the imaging conditions need to be changed by the determination processing in step S212 (step S213, "yes"), the process proceeds to step S214. In step S204, the imaging control unit 504 associates the changed imaging conditions with changed position information indicating positions for changing the imaging conditions for each of the road surface imaging cameras 6L and 6R, and stores them in the RAM 5002, for example. .

ステップS214における、路面撮像用カメラ6Lおよび6Rそれぞれに対する設定情報と変更位置情報との記憶が完了すると、図21のフローチャートによる一連の処理が終了される。また、上述したステップS213で、露出設定の変更の必要が無いと判定された場合(ステップS213、「無し」)、図21のフローチャートによる一連の処理が終了される。 When the storage of the setting information and the changed position information for each of the road surface imaging cameras 6L and 6R in step S214 is completed, the series of processing according to the flowchart of FIG. 21 is terminated. If it is determined in step S213 described above that there is no need to change the exposure setting (step S213, "NO"), the series of processes according to the flowchart of FIG. 21 is terminated.

上述したステップS210~ステップS214の処理は、所定の時間間隔で繰り返し実行される。 The processes of steps S210 to S214 described above are repeatedly executed at predetermined time intervals.

図24は、第1の実施形態の第1の変形例に係る、路面撮像用カメラ6Lおよび6Rに関する処理を示す一例のフローチャートである。情報処理装置50において、撮像制御部504は、ステップS310で、位置情報取得部5022により取得された現在位置を示す位置情報に基づき、現在位置が、図23のステップS214で記憶された変更位置情報が示す位置であるか否かを判定する。 FIG. 24 is a flow chart showing an example of processing related to the road surface imaging cameras 6L and 6R according to the first modification of the first embodiment. In the information processing device 50, the imaging control unit 504 changes the current position from the changed position information stored in step S214 of FIG. is the position indicated by .

撮像制御部504は、現在位置が変更位置情報が示す位置であると判定した場合(ステップS310、「Yes」)、処理をステップS311に移行させる。ステップS301で、撮像制御部504は、路面撮像用カメラ6Lおよび6Rに対して、図19のステップS214において、路面撮像用カメラ6Lおよび6R毎に当該変更位置情報と関連付けられて記憶される各設定情報を設定し、路面撮像用カメラ6Lおよび6Rそれぞれの撮像条件を変更する。 When the imaging control unit 504 determines that the current position is the position indicated by the changed position information (step S310, "Yes"), the process proceeds to step S311. In step S301, the imaging control unit 504 sets each setting stored in association with the changed position information for each of the road surface imaging cameras 6L and 6R in step S214 of FIG. Information is set, and the imaging conditions of the road surface imaging cameras 6L and 6R are changed.

次のステップS312で、撮像制御部504は、撮像を指示するためのトリガを生成して、路面撮像用カメラ6Lおよび6Rに送り、当該トリガに従い路面撮像用カメラ6Lおよび6Rにより撮像された各ステレオ撮像画像を取得する。撮像制御部504は、取得した各ステレオ撮像画像を、例えばRAM5002に記憶し、ストレージ5004に格納する。 In the next step S312, the imaging control unit 504 generates a trigger for instructing imaging, sends it to the road surface imaging cameras 6L and 6R, and according to the trigger, each stereo imaged by the road surface imaging cameras 6L and 6R is captured. Acquire a captured image. The imaging control unit 504 stores each acquired stereoscopic image in, for example, the RAM 5002 and the storage 5004 .

一方、撮像制御部504は、ステップS310で、現在位置が変更位置情報が示す位置ではないと判定した場合、処理をステップS312に移行させ、撮像を指示するためのトリガを生成して、路面撮像用カメラ6Lおよび6Rに送り、当該トリガに従い路面撮像用カメラ6Lおよび6Rにより撮像された各ステレオ撮像画像を取得する。 On the other hand, if the imaging control unit 504 determines in step S310 that the current position is not the position indicated by the changed position information, the process proceeds to step S312, generates a trigger for instructing imaging, and performs road surface imaging. Then, according to the trigger, each stereo captured image captured by the road surface imaging cameras 6L and 6R is obtained.

第1の実施形態に係る撮像システム10は、これら図23および図24のフローチャートによる各処理を車両1の移動中に繰り返し実施し、路面4のステレオ撮像画像を取得する。 The imaging system 10 according to the first embodiment repeatedly performs each process according to the flowcharts of FIGS.

第1の実施形態の第1の変形例によれば、進行方向用カメラ7により、路面撮像用カメラ6Lおよび6Rそれぞれのステレオ撮像範囲の輝度情報を、路面撮像用カメラ6Lおよび6Rの撮像に先立って取得し、路面撮像用カメラ6Lおよび6R個別に撮像条件を決定している。そのため、路面撮像用カメラ6Lおよび6Rそれぞれによるステレオ撮像範囲の撮像を、適切な撮像条件にて実行できる。これにより、ひび割れ率C、わだち掘れ量Dおよび平坦性σを、路面撮像用カメラ6Lおよび6Rにより撮像されたステレオ撮像画像に基づき、より高精度に算出でき、これらを用いたMCIによる評価の信頼性をより高めることが可能である。 According to the first modification of the first embodiment, the traveling direction camera 7 captures the brightness information of the stereo imaging ranges of the road surface imaging cameras 6L and 6R prior to imaging by the road surface imaging cameras 6L and 6R. , and the imaging conditions are determined individually for the road surface imaging cameras 6L and 6R. Therefore, the imaging of the stereo imaging range by each of the road surface imaging cameras 6L and 6R can be performed under appropriate imaging conditions. As a result, the crack rate C, the amount of rutting D, and the flatness σ can be calculated with higher accuracy based on the stereo images captured by the road surface imaging cameras 6L and 6R, and the reliability of evaluation by MCI using these can be calculated. It is possible to increase the reliability.

[第1の実施形態の第2の変形例]
次に、第1の実施形態の第2の変形例について説明する。第1の実施形態の第2の変形例は、異物検出処理を含むものであって、上述した第1の実施形態の第1の変形例による処理を、より具体的としたものである。
[Second Modification of First Embodiment]
Next, a second modification of the first embodiment will be described. The second modification of the first embodiment includes foreign matter detection processing, and is a more specific version of the processing according to the first modification of the first embodiment.

図25は、第1の実施形態の第2の変形例に係る、進行方向用カメラ7に関する処理を示す一例のフローチャートである。ステップS400で、情報処理装置50は、撮像制御部504により、位置情報取得部51から現在位置を示す位置情報を取得する。次のステップS401で、撮像画像取得部500bは、進行方向用カメラ7で撮像された進行方向撮像画像を取得する。取得された進行方向撮像撮像は、撮像画像記憶部503により、情報処理装置50のメモリ(例えばRAM5002)に記憶される。 FIG. 25 is a flowchart of an example of processing related to the traveling direction camera 7 according to the second modification of the first embodiment. In step S<b>400 , the information processing apparatus 50 acquires position information indicating the current position from the position information acquisition unit 51 using the imaging control unit 504 . In the next step S401, the captured image acquisition unit 500b acquires a traveling direction captured image captured by the traveling direction camera 7. FIG. The acquired traveling direction imaging is stored in the memory (for example, the RAM 5002 ) of the information processing device 50 by the captured image storage unit 503 .

次のステップS402で、撮像制御部504は、ステップS401で記憶した進行方向撮像画像を解析し、当該進行方向撮像画像内から異物を示す画像を検出する。ここで、異物とは、例えば白線、道路標示、マンホール、落ち葉、花びら、土砂、雪、ゴミ、といった、道路面舗装以外のものを指す。異物の検出方法としては、例えばハフ変換による直線検出による白線検出、同じくハフ変換による円検出によるマンホール(丸型)検出、を適用できる。また、異物検出の方法として、ディープラーニングでの学習結果によりその他の異物を検出することも可能である。 In the next step S402, the imaging control unit 504 analyzes the traveling direction captured image stored in step S401, and detects an image showing a foreign object from the traveling direction captured image. Here, foreign matter refers to things other than road surface pavement, such as white lines, road markings, manholes, fallen leaves, flower petals, earth and sand, snow, and garbage. As a foreign matter detection method, for example, white line detection by straight line detection by Hough transform and manhole (round) detection by circle detection by Hough transform can be applied. Further, as a foreign matter detection method, it is also possible to detect other foreign matter based on the learning results of deep learning.

ステップS403で、撮像制御部504は、ステップS402の処理の結果、異物が検出されたか否かを判定する。撮像制御部504は、異物が検出されたと判定した場合(ステップS403、「有り」)、処理をステップS404に移行させ、異物の画像を含まない領域を評価領域710Lおよび710Rとして設定する。例えば、路面撮像用カメラ6Lのステレオ撮像範囲に対応して初期設定された評価領域710Lが異物の画像を含むと判定された場合、撮像制御部504は、当該評価領域710Lの位置を前後あるいは左右にずらす処理を行い、評価領域710Lが異物の画像を含まないようにする。これに限らず、当該評価領域710Lを縮小あるいは変形させてもよい。 In step S403, the imaging control unit 504 determines whether or not a foreign object is detected as a result of the processing in step S402. If the imaging control unit 504 determines that a foreign object has been detected (“Yes” in step S403), the imaging control unit 504 shifts the process to step S404, and sets areas that do not include an image of the foreign material as evaluation areas 710L and 710R. For example, when it is determined that the evaluation region 710L initially set corresponding to the stereo imaging range of the road surface imaging camera 6L includes an image of a foreign object, the imaging control unit 504 moves the position of the evaluation region 710L forward and backward or left and right. A shift process is performed so that the evaluation area 710L does not include the image of the foreign matter. Not limited to this, the evaluation area 710L may be reduced or deformed.

一方、撮像制御部504は、ステップS403で異物が検出されないと判定した場合(ステップS403、「無し」)、処理をステップS405に移行させる。ステップS405で、撮像制御部504は、進行方向撮像画像71における評価領域710Lおよび710Rの本来の位置、例えば進行方向撮像画像71の中央領域を、評価領域710Lおよび710Rに設定する。 On the other hand, when the imaging control unit 504 determines that no foreign object is detected in step S403 (step S403, "none"), the process proceeds to step S405. In step S405, the imaging control unit 504 sets the original positions of the evaluation areas 710L and 710R in the traveling direction captured image 71, for example, the central area of the traveling direction captured image 71, to the evaluation areas 710L and 710R.

ステップS404またはステップS405の処理の後、処理がステップS410に移行される。ステップS410で、撮像制御部504は、ステップS404またはステップS405で決定された評価領域710Lおよび710Rに含まれる画素に基づき当該評価領域710Lおよび710Rの輝度を求め、求めた輝度が予め定めた適正な輝度であるか否かを判定する。撮像処理部504は、適正な輝度であると判定した場合(ステップS410、「Yes」)、この図25のフローチャートによる一連の処理を終了させる。 After the process of step S404 or step S405, the process proceeds to step S410. In step S410, the imaging control unit 504 obtains the luminance of the evaluation regions 710L and 710R based on the pixels included in the evaluation regions 710L and 710R determined in step S404 or S405, and the obtained luminance is a predetermined appropriate value. It is determined whether or not it is luminance. When the imaging processing unit 504 determines that the luminance is appropriate (step S410, “Yes”), the series of processing according to the flowchart of FIG. 25 is terminated.

撮像制御部504は、ステップS410で、適正な輝度ではないと判定した場合、処理をステップS411に移行させる。ステップS411で撮像制御部504は、評価領域710Lおよび710Rの輝度が所定より明るい値を示しているか否かを判定する。撮像制御部504は、当該輝度が所定より明るい値を示していると判定した場合、処理をステップS412に移行させる。ステップS412で、撮像制御部504は、撮像画像を暗くする方向に撮像条件(露出パラメータ)を変更する。 If the imaging control unit 504 determines in step S410 that the luminance is not appropriate, the process proceeds to step S411. In step S411, the imaging control unit 504 determines whether or not the brightness of the evaluation areas 710L and 710R indicates a brighter value than a predetermined value. If the imaging control unit 504 determines that the brightness indicates a value brighter than the predetermined value, the imaging control unit 504 causes the process to proceed to step S412. In step S412, the imaging control unit 504 changes the imaging condition (exposure parameter) so as to darken the captured image.

一方、撮像制御部504は、ステップS411で当該輝度が所定より暗い値を示していると判定した場合、処理をステップS413に移行させる。ステップS413で、撮像制御部504は、撮像画像を明るくする方向に撮像条件(露光パラメータ)を変更する。 On the other hand, if the imaging control unit 504 determines in step S411 that the luminance is darker than the predetermined value, the process proceeds to step S413. In step S413, the imaging control unit 504 changes the imaging condition (exposure parameter) so as to brighten the captured image.

撮像制御部504は、ステップS412またはステップS413の処理の後、処理をステップS414に移行させる。ステップS414で、撮像制御部504は、ステップS412またはステップS413で変更した撮像条件と、撮像条件の変更を行うための位置を示す変更位置情報とを関連付けて、例えばRAM5002に記憶する。ステップS414における設定情報と変更位置情報との記憶が完了すると、図25のフローチャートによる一連の処理が終了される。 After the process of step S412 or step S413, the imaging control unit 504 shifts the process to step S414. In step S414, the imaging control unit 504 associates the imaging conditions changed in step S412 or S413 with change position information indicating the position for changing the imaging conditions, and stores them in the RAM 5002, for example. When the storage of the setting information and the changed position information in step S414 is completed, a series of processing according to the flowchart of FIG. 25 is terminated.

第1の実施形態の第2の変形例によれば、進行方向用カメラ7により、路面撮像用カメラ6Lおよび6Rによるステレオ撮像範囲の輝度情報を、路面撮像用カメラ6Lおよび6Rの撮像に先立って取得し、撮像条件を決定している。その際、撮像制御部504は、進行方向用カメラ7により撮像された進行方向撮像画像71における評価領域710Lおよび710Rに異物の画像が含まれる場合に、この異物の画像を避けて、評価領域710Lおよび710Rを設定している。そのため、路面撮像用カメラ6Lおよび6Rによるステレオ撮像範囲の撮像を、異物の画像の影響を受けること無く、適切な撮像条件にて実行できる。これにより、ひび割れ率C、わだち掘れ量Dおよび平坦性σを、路面撮像用カメラ6Lおよび6Rにより撮像されたステレオ撮像画像に基づき、より高精度に算出でき、これらを用いたMCIによる評価の信頼性を高めることが可能である。 According to the second modification of the first embodiment, the traveling direction camera 7 detects the luminance information of the stereo imaging range of the road surface imaging cameras 6L and 6R prior to imaging by the road surface imaging cameras 6L and 6R. It acquires and determines imaging conditions. At this time, if images of a foreign object are included in the evaluation areas 710L and 710R in the traveling direction captured image 71 captured by the traveling direction camera 7, the imaging control unit 504 avoids the image of the foreign matter and and 710R are set. Therefore, the imaging of the stereo imaging range by the road surface imaging cameras 6L and 6R can be performed under appropriate imaging conditions without being affected by the image of the foreign matter. As a result, the crack rate C, the amount of rutting D, and the flatness σ can be calculated with higher accuracy based on the stereo images captured by the road surface imaging cameras 6L and 6R. It is possible to improve

[第2の実施形態」
次に、第2の実施形態について説明する。第2の実施形態は、上述した進行方向用カメラ7の代わりに、対象物の光を検出する光センサを用いた例である。光センサとしては、単純に対象物からの光を検出するフォトダイオードやフォトトランジスタなどを用いてもよいし、レーザスキャナなどを用いてもよい。
[Second embodiment]
Next, a second embodiment will be described. The second embodiment is an example in which an optical sensor for detecting light from an object is used instead of the traveling direction camera 7 described above. As the optical sensor, a photodiode or a phototransistor that simply detects light from an object may be used, or a laser scanner or the like may be used.

図26は、第2の実施形態に係る、撮像条件設定処理を示す一例のフローチャートである。図26のフローチャートにおいて、上述した図19のフローチャートと共通する処理には同一の符号を付して、詳細な説明を省略する。なお、光センサの出力は、上述同様に、撮像画像取得部500bにより取得されるものとする。ステップS200で、情報処理装置50は、撮像制御部504により、位置情報取得部51から現在位置を示す位置情報を取得する。次のステップS221で、撮像画像取得部500bは、光センサの出力を取得する。取得された出力値は、撮像画像記憶部503により、出力値を情報処理装置50のメモリ(例えばRAM5002)に記憶される。 FIG. 26 is a flowchart of an example of imaging condition setting processing according to the second embodiment. In the flowchart of FIG. 26, the same reference numerals are assigned to the processes that are common to the flowchart of FIG. 19 described above, and detailed description thereof will be omitted. It should be noted that the output of the optical sensor is obtained by the captured image obtaining unit 500b in the same manner as described above. In step S<b>200 , the information processing apparatus 50 acquires position information indicating the current position from the position information acquisition unit 51 by the imaging control unit 504 . In the next step S221, the captured image acquisition unit 500b acquires the output of the optical sensor. The captured image storage unit 503 stores the acquired output values in the memory (for example, the RAM 5002 ) of the information processing apparatus 50 .

次のステップS222で、撮像制御部504は、ステップS221で記憶した光センサの出力値を解析し、撮像条件の変更が必要か否かを判定する。撮像制御部504は、光センサの出力値に基づき検出範囲(撮像道路面)の輝度を算出し、算出された輝度に応じて、撮像条件(露出パラメータ)の変更が必要か否か、必要な場合、どのような設定にするかを決定する。 In the next step S222, the imaging control unit 504 analyzes the output value of the optical sensor stored in step S221 and determines whether or not the imaging conditions need to be changed. The imaging control unit 504 calculates the brightness of the detection range (imaging road surface) based on the output value of the optical sensor, and determines whether or not the imaging condition (exposure parameter) needs to be changed according to the calculated brightness. If so, decide what settings to use.

例えば、撮像制御部504は、道路面輝度の変化が閾値を超えた場合に、変化量に応じて、輝度が明るくなる方向に変化した場合は撮像される画像が暗くなるように、輝度が暗くなる方向に変化した場合は、撮像される画像が明るくなるように、露出パラメータを決定する。露出パラメータとは、露光時間、ゲインのうち少なくとも一方である。 For example, when the change in road surface brightness exceeds a threshold value, the image capturing control unit 504 reduces the brightness so that the captured image becomes darker when the brightness changes in the brighter direction according to the amount of change. The exposure parameter is determined so that the captured image becomes brighter when the direction changes. The exposure parameter is at least one of exposure time and gain.

ステップS203で、撮像制御部504は、ステップS222の判定処理により撮像条件の変更が必要であると判定した場合(ステップS203、「有り」)、処理をステップS204に移行させる。ステップS204で、撮像制御部504は、変更した撮像条件と、撮像条件の変更を行うための位置を示す変更位置情報とを関連付けて、例えばRAM5002に記憶する。これは、光センサの検出範囲と、路面撮像用カメラ6Lおよび6Rのステレオ撮像範囲と、では方向が異なるため、光センサで輝度を検出した箇所を路面撮像用カメラ6Lおよび6Rで撮像するまでのタイムラグがあり、適切なタイミングで露出の変更をする必要があるためである。 In step S203, when the imaging control unit 504 determines that the imaging conditions need to be changed by the determination processing in step S222 (step S203, "yes"), the process proceeds to step S204. In step S204, the imaging control unit 504 associates the changed imaging conditions with change position information indicating the position for changing the imaging conditions, and stores them in the RAM 5002, for example. This is because the directions of the detection range of the optical sensor and the stereo imaging range of the road surface imaging cameras 6L and 6R are different, so that the location where the luminance is detected by the optical sensor is captured by the road surface imaging cameras 6L and 6R. This is because there is a time lag and it is necessary to change the exposure at the appropriate timing.

なお、変更位置情報は、上述と同様に、例えば、ステップS200で取得された位置情報に、既知の、光センサが検出対象とする検出範囲の、位置情報取得部5021からの距離を加算した値を適用できる。 Note that the changed position information is, for example, a value obtained by adding the distance from the position information acquisition unit 5021 to the known detection range of the detection target of the optical sensor to the position information acquired in step S200, in the same manner as described above. can be applied.

ステップS504における設定情報と変更位置情報との記憶が完了すると、図26のフローチャートによる一連の処理が終了される。また、上述したステップS203で、露出設定の変更の必要が無いと判定された場合(ステップS203、「無し」)、図26のフローチャートによる一連の処理が終了される。 When the storage of the setting information and the change position information in step S504 is completed, the series of processing according to the flowchart of FIG. 26 is terminated. If it is determined in step S203 described above that there is no need to change the exposure setting (step S203, "No"), the series of processes according to the flowchart of FIG. 26 is terminated.

上述したステップS200、ステップS221、ステップS222、ステップS203およびステップS204の処理は、所定の時間間隔で繰り返し実行される。 The processes of steps S200, S221, S222, S203 and S204 described above are repeatedly executed at predetermined time intervals.

なお、路面撮像用カメラ6Lおよび6Rに関する処理は、例えば図20を用いて説明した処理と同様なので、ここでの説明を省略する。 Note that the processing relating to the road surface imaging cameras 6L and 6R is the same as the processing described with reference to FIG.

第2の実施形態によれば、車両1の進行方向前方の評価領域の輝度を検出するために、進行方向用カメラ7に対してより簡易な構成により実現可能な光センサを用いてる。これにより、撮像システムをより小規模に構成することが可能である。 According to the second embodiment, in order to detect the brightness of the evaluation area in front of the vehicle 1 in the direction of travel, an optical sensor that can be implemented with a simpler configuration than the camera 7 for the direction of travel is used. This allows the imaging system to be configured on a smaller scale.

なお、上述の各実施形態は、本発明の好適な実施の例ではあるがこれに限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変形による実施が可能である。 Although each of the above-described embodiments is a preferred embodiment of the present invention, it is not limited thereto, and various modifications can be made without departing from the scope of the present invention.

1 車両
4 路面
5 PC
6,6C,6L,6R ステレオカメラ
6LL,6LR,6RL,6RR 撮像レンズ
7 進行方向用カメラ
10 撮像システム
50 情報処理装置
51,5022 位置情報取得部
60C,60L,60R ステレオ撮像範囲
60CL,60CR,60LL,60LR,60RL,60RR 撮像範囲
1001,1002 撮像部
102,504 撮像制御部
103 生成部
500a,500b 撮像画像取得部
503 撮像画像記憶部
710L,710R 評価領域
5021 速度取得部
1 vehicle 4 road surface 5 PC
6, 6C, 6L, 6R stereo cameras 6L L , 6L R , 6R L , 6R R imaging lens 7 traveling direction camera 10 imaging system 50 information processing device 51, 5022 position information acquisition unit 60C, 60L, 60R stereo imaging range 60C L , 60C R , 60L L , 60L R , 60R L , 60R R Imaging ranges 100 1 , 100 2 Imaging units 102, 504 Imaging control unit 103 Generation units 500a, 500b Captured image acquisition unit 503 Captured image storage units 710L, 710R Evaluation Area 5021 Velocity acquisition unit

特開2013-096740号公報JP 2013-096740 A

Claims (8)

移動体に搭載され、該移動体が移動する路面を撮像する第1の撮像装置と、
前記移動体に搭載され、前記第1の撮像装置に対して該移動体の進行方向側の前記路面を撮像する第2の撮像装置と、
前記移動体の現在位置を示す現在位置情報を取得する取得部と、
前記第2の撮像装置により撮像された撮像画像に基づき前記第1の撮像装置の撮像条件として露出パラメータを決定する撮像制御部と、
を備え
前記撮像制御部は、さらに
前記撮像条件を前記第1の撮像装置に設定するタイミングを、前記現在位置情報と、予め定められた、前記第2の撮像装置による撮像範囲の前記移動体からの距離と、に基づき決定する
撮像システム。
a first imaging device mounted on a moving body and capturing an image of a road surface on which the moving body moves;
a second imaging device that is mounted on the moving body and captures an image of the road surface on the traveling direction side of the moving body with respect to the first imaging device;
an acquisition unit that acquires current position information indicating the current position of the moving object;
an imaging control unit that determines an exposure parameter as an imaging condition of the first imaging device based on the captured image captured by the second imaging device;
with
The imaging control unit further
A timing for setting the imaging conditions in the first imaging device is determined based on the current position information and a predetermined distance from the moving body of the imaging range of the second imaging device.
imaging system.
複数の前記第1の撮像装置が前記移動体に搭載され、
前記撮像制御部は、
前記第2の撮像装置の撮像範囲における前記複数の前記第1の撮像装置それぞれの撮像範囲に対応する各領域の画像に基づき、該複数の前記第1の撮像装置それぞれの前記撮像条件を決定する
請求項1に記載の撮像システム。
A plurality of the first imaging devices are mounted on the moving body,
The imaging control unit is
determining the imaging conditions for each of the plurality of first imaging devices based on images of respective regions corresponding to the imaging ranges of the plurality of first imaging devices in the imaging range of the second imaging device; The imaging system of Claim 1 .
前記撮像制御部は、
前記撮像画像に前記路面に対する異物の画像が含まれる場合に、該像画像の、該異物の画像を除いた領域の画像を用いて、前記撮像条件を決定する
請求項1又は請求項2に記載の撮像システム。
The imaging control unit is
Claim 1 or Claim 2 , wherein when the imaged image includes an image of a foreign object on the road surface, the imaging condition is determined using an image of an area of the imaged image excluding the image of the foreign object. The imaging system described.
それぞれ移動体に搭載される第1の撮像装置および第2の撮像装置を含む撮像システムの撮像方法であって、
前記第1の撮像装置は、前記移動体が移動する路面を撮像し、
前記第2の撮像装置は、前記第1の撮像装置に対して該移動体の進行方向側の前記路面を撮像し、
前記移動体の現在位置を示す現在位置情報を取得する取得ステップと、
前記第2の撮像装置により撮像された撮像画像に基づき前記第1の撮像装置の撮像条件として露出パラメータを決定する撮像制御ステップ
を有し、
前記撮像制御ステップでは、さらに
前記撮像条件を前記第1の撮像装置に設定するタイミングを、前記現在位置情報と、予め定められた、前記第2の撮像装置による撮像範囲の前記移動体からの距離と、に基づき決定する
撮像方法。
An image capturing method for an image capturing system including a first image capturing device and a second image capturing device each mounted on a moving body,
The first imaging device images a road surface on which the moving object moves,
The second imaging device images the road surface on the traveling direction side of the moving body with respect to the first imaging device,
an acquisition step of acquiring current position information indicating the current position of the moving object;
an imaging control step of determining an exposure parameter as an imaging condition of the first imaging device based on the captured image captured by the second imaging device ;
The imaging control step further includes
A timing for setting the imaging conditions in the first imaging device is determined based on the current position information and a predetermined distance from the moving body of the imaging range of the second imaging device.
Imaging method.
請求項1乃至請求項の何れか1項に記載の撮像システムを搭載した移動体。 A moving body equipped with the imaging system according to any one of claims 1 to 3 . 移動体に搭載される撮像装置であって、
前記移動体が移動する路面の第1の撮像範囲を撮像する撮像部と、
前記移動体の現在位置を示す現在位置情報を取得する位置情報取得部と、
前記第1の撮像範囲とは異なる、移動体の進行方向側の路面の第2の撮像範囲を撮像した撮像画像に基づき前記撮像部の撮像条件として露出パラメータを決定する撮像制御部と、
を備え
前記撮像制御部は、さらに
前記撮像条件を前記撮像部に設定するタイミングを、前記現在位置情報と、予め定められた、前記第2の撮像範囲の前記移動体からの距離と、に基づき決定する
撮像装置。
An imaging device mounted on a mobile body,
an imaging unit that captures a first imaging range of the road surface on which the moving object moves ;
a location information acquisition unit that acquires current location information indicating the current location of the moving object;
an imaging control unit that determines an exposure parameter as an imaging condition of the imaging unit based on a captured image obtained by imaging a second imaging range of a road surface on the traveling direction side of the moving body, which is different from the first imaging range;
with
The imaging control unit further
determining the timing for setting the imaging conditions in the imaging unit based on the current position information and a predetermined distance from the moving body in the second imaging range;
Imaging device.
前記撮像部とは異なる他の撮像部が前記第2の撮像範囲を撮像した前記撮像画像を取得する取得部
をさらに備える
請求項に記載の撮像装置。
7. The imaging apparatus according to claim 6 , further comprising an acquisition section that acquires the captured image obtained by imaging the second imaging range by another imaging section different from the imaging section.
請求項または請求項に記載の撮像装置を搭載した移動体。 A moving body equipped with the imaging device according to claim 6 or 7 .
JP2018051841A 2018-03-19 2018-03-19 Imaging system, imaging method, moving body equipped with imaging system, imaging device, and moving body equipped with imaging device Active JP7119462B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018051841A JP7119462B2 (en) 2018-03-19 2018-03-19 Imaging system, imaging method, moving body equipped with imaging system, imaging device, and moving body equipped with imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018051841A JP7119462B2 (en) 2018-03-19 2018-03-19 Imaging system, imaging method, moving body equipped with imaging system, imaging device, and moving body equipped with imaging device

Publications (2)

Publication Number Publication Date
JP2019164018A JP2019164018A (en) 2019-09-26
JP7119462B2 true JP7119462B2 (en) 2022-08-17

Family

ID=68065539

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018051841A Active JP7119462B2 (en) 2018-03-19 2018-03-19 Imaging system, imaging method, moving body equipped with imaging system, imaging device, and moving body equipped with imaging device

Country Status (1)

Country Link
JP (1) JP7119462B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102184998B1 (en) * 2020-03-05 2020-12-01 (주)한국어스하드닝 Drilling and mixing apparatus with lift blade and construction method using the same

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021215009A1 (en) * 2020-04-24 2021-10-28 三菱電機株式会社 Internal defect estimation device
CN111896721B (en) * 2020-08-31 2021-05-14 刘小梅 Municipal road engineering quality intelligent acceptance detection management system based on big data

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002074575A (en) 2000-08-28 2002-03-15 Matsushita Electric Ind Co Ltd On-vehicle camera device monitoring road
JP2011090367A (en) 2009-10-20 2011-05-06 Pasuko:Kk Road surface image capturing/editing device and road surface image capturing/editing program
JP2015025727A (en) 2013-07-26 2015-02-05 三菱電機株式会社 Road surface imaging apparatus

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09292213A (en) * 1996-04-30 1997-11-11 Hoei:Kk Road surface photographing device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002074575A (en) 2000-08-28 2002-03-15 Matsushita Electric Ind Co Ltd On-vehicle camera device monitoring road
JP2011090367A (en) 2009-10-20 2011-05-06 Pasuko:Kk Road surface image capturing/editing device and road surface image capturing/editing program
JP2015025727A (en) 2013-07-26 2015-02-05 三菱電機株式会社 Road surface imaging apparatus

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102184998B1 (en) * 2020-03-05 2020-12-01 (주)한국어스하드닝 Drilling and mixing apparatus with lift blade and construction method using the same

Also Published As

Publication number Publication date
JP2019164018A (en) 2019-09-26

Similar Documents

Publication Publication Date Title
JP6717534B2 (en) Stereo support with rolling shutter
JP6551623B1 (en) Information processing apparatus, moving body, image processing system, and information processing method
JP7163601B2 (en) Information processing device and information processing method
JP5615441B2 (en) Image processing apparatus and image processing method
JP7119462B2 (en) Imaging system, imaging method, moving body equipped with imaging system, imaging device, and moving body equipped with imaging device
US11671574B2 (en) Information processing apparatus, image capture apparatus, image processing system, and method of processing a plurality of captured images of a traveling surface where a moveable apparatus travels
JP4872769B2 (en) Road surface discrimination device and road surface discrimination method
JP2009041972A (en) Image processing device and method therefor
JP6177006B2 (en) Camera calibration apparatus and camera calibration method
EP2887313B1 (en) Image processing apparatus, system, image processing method, and computer-readable recording medium
JP2023029441A (en) Measuring device, measuring system, and vehicle
JP2010091426A (en) Distance measuring device and program
JP2014130404A (en) Road surface image generation system, shadow removing apparatus, method and program
CN107145828B (en) Vehicle panoramic image processing method and device
JP2007133007A (en) Road surface imaging device and road marking measuring device
JP6369897B2 (en) Self-position calculation device and self-position calculation method
JP6299319B2 (en) Self-position calculation device and self-position calculation method
JP7114963B2 (en) Imaging system, imaging device, imaging method, and mobile object equipped with imaging system
JP2007233487A (en) Pedestrian detection method, device, and program
KR102498028B1 (en) Surveillance Camera Systems and Mothod of Using the Same
JP7293931B2 (en) Position measurement data generation device, position measurement data generation method, and position measurement data generation program
JP7457971B2 (en) Quantity calculation device and quantity calculation method
JP6369898B2 (en) Self-position calculation device and self-position calculation method
CN115244594A (en) Information processing apparatus, information processing method, and computer program
KR100187455B1 (en) Traffic lane sensing apparatus using an image system and method thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210118

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211206

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220111

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220221

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220705

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220718

R151 Written notification of patent or utility model registration

Ref document number: 7119462

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151