JP7171666B2 - 路面状況推定装置、路面状況推定プログラム - Google Patents

路面状況推定装置、路面状況推定プログラム Download PDF

Info

Publication number
JP7171666B2
JP7171666B2 JP2020157787A JP2020157787A JP7171666B2 JP 7171666 B2 JP7171666 B2 JP 7171666B2 JP 2020157787 A JP2020157787 A JP 2020157787A JP 2020157787 A JP2020157787 A JP 2020157787A JP 7171666 B2 JP7171666 B2 JP 7171666B2
Authority
JP
Japan
Prior art keywords
vehicle
road
road surface
surface condition
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020157787A
Other languages
English (en)
Other versions
JP2022051355A (ja
Inventor
正治 明井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Information Systems Japan Corp
Original Assignee
Toshiba Information Systems Japan Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Information Systems Japan Corp filed Critical Toshiba Information Systems Japan Corp
Priority to JP2020157787A priority Critical patent/JP7171666B2/ja
Publication of JP2022051355A publication Critical patent/JP2022051355A/ja
Application granted granted Critical
Publication of JP7171666B2 publication Critical patent/JP7171666B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A10/00TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE at coastal zones; at river basins
    • Y02A10/40Controlling or monitoring, e.g. of flood or hurricane; Forecasting, e.g. risk assessment or mapping

Landscapes

  • Road Repair (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は、路面状況推定装置、路面状況推定プログラムに関する。
道路を中心とする交通インフラは、建設以降の経過劣化に従い、雪害、水害、及び下水管などの地下埋設物の老朽化等により、路面状態が劣化し、穴、凸凹、段差等が生じている。これにより、自動車関連の直接的/間接的事故、自転車、歩行者の事故が発生しており、管理責任や補償において道路管理者に対する負担が増大している。
これに対応するための手段としては、現状では道路パトロールと住民からの情報提供に依存している。道路パトロールは、担当員による徒歩巡視、及び専用車両による目視、及び専用機材を用いた巡視実施となっている(特許文献1,2参照)。
道路パトロールによる監視では、コスト面などの問題から、巡視間隔の制限や他車交通等の影響からの制限があり、それを補う形で住民からの情報提供が活用されている。
特開2020-013537号公報 特開2019-109293号公報
従来技術では、路面状態を検出するための専用車両の利用が前提となっている。これは、専門の担当者による目視という点で精度の点では有利であるが、確認の時間的間隔や、交通量によっては、他車の遮蔽による確認困難の発生等も考えられる。
また、住民による情報提供では、目に見えての事象発生時の通報となること、内容の精度や頻度的には住民個々の判断に依存するため、事故/障害発生防止の観点では路面状況の検出精度について信頼性が十分とはいえなかった。
本発明が解決しようとする課題は、路面状況を検出するための専用車両を用いた道路パトロールをすることなく、信頼性が高く路面状況を検出することができる路面状況推定装置、路面状況推定プログラムを提供することである。
実施形態によれば、路面状況推定装置は、受信手段、認識手段、推定手段を有する。受信手段は、道路上を通行する車両を連続的に撮影した画像を受信する。認識手段は、前記画像から車両及び前照灯の光を認識する。推定手段は、前記画像から認識された複数の車両の位置と、それぞれに対応する前記光の変化をもとに前記道路の路面状況を推定するものであり、連続した画像から認識された同一車両に対応する前記光の明度の最大変動幅について複数の車両の平均値を算出し、前記平均値をもとに前記道路の路面状況を推定する
本実施形態における路面状況推定システムの構成を示すブロック図。 本実施形態におけるサーバ(路面状況推定装置)の構成を示すブロック図。 本実施形態におけるサーバの機能構成を示すブロック図。 本実施形態における路面状況推定システムの概要について説明するための図。 本実施形態におけるサーバ(路面状況推定装置)の記録処理を説明するためのフローチャート。 本実施形態におけるサーバの判定処理の動作を説明するためのフローチャート。 路面の損傷部による車両の動揺を説明するための図。 本実施形態における車両動揺推定結果のデータの一例を示す図。 本実施形態における車両動揺統計処理結果のデータの一例を示す図。 本実施形態における推定結果出力部により提供される確認画面の一例を示す図。 本実施形態における推定結果出力部により提供される詳細画面の一例を示す図。 本実施形態の変形例における画像記録状況を示す図。
以下、実施形態について図面を参照して説明する。
図1は、本実施形態における路面状況推定システムの構成を示すブロック図である。路面状況推定システムは、道路(トンネル内、橋などを含む)の路面状況の点検に用いられるシステムである。本実施形態の路面状況推定システムでは、路面監視用の専用車両を用いることなく、道路周辺に設置された道路上を通行する車両を撮影するカメラから画像データを受信し、画像データに対する処理によって路面状況推定をする。すなわち、本実施形態における路面状況推定システムでは、専用車両を用いた道路パトロールなどを実施することなく、道路周辺の例えば信号機、歩道橋、標識等に設置された固定カメラ、あるいは路面状況の監視対象とする道路周辺に設置されたカメラにより撮影された画像を利用する。路面状況としては、例えば、路面に生じた穴、凸凹、轍、橋等の繋ぎ目やマンホールにおける段差など(以下、損傷部と称する)がある。
本実施形態における路面状況推定システムは、図1に示すように、サーバ12と、ネットワーク19を介して、複数のカメラ10(10-1,…,10-m)、電子機器16、交通状況監視システム18が接続されて構成される。本実施形態におけるサーバ12は、路面状況推定プログラムにより実現される機能により路面状況推定装置として動作する。
サーバ12(路面状況推定装置)は、カメラ10により撮影された道路上を通行する車両を連続的に撮影した画像を入力して、車両の前照灯の光の変化と、光の特徴的な変動が検出された時の車両の位置をもとに路面状態を推定して推定結果を出力する。すなわち、路面に穴、凸凹、轍、段差などの損傷部が存在しない場合には、連続的に撮影された画像から検出される車両の前照灯の光は、車両がカメラ10に近づくに従って安定して変化していく。これに対して、路面に損傷部がある場合には、車両のタイヤが損傷部を通過する際に車体の位置が変動する。一般に、車両の前照灯は、車体に固定された光軸を持つと考えて良い。従って、前照灯の光(光軸揺れ)による変化は、車体の動揺とみなしてよい。サーバ12は、画像から認識された車両の位置と、前照灯の光の変化をもとに道路の路面状況を推定する。
カメラ10は、信号機、歩道橋、標識等に設置された、道路の渋滞監視や事故監視等の目的のために設置されている固定カメラを利用することができる。また、カメラ10は、路面状況の監視対象とする道路周辺に設置される。
交通状況監視システム18は、例えばVICS(登録商標)(Vehicle Information and Communication System)や、その他の道路状況に関する交通状況情報18Aを収集し、それらの交通状況情報を提供するシステムである。交通状況監視システム18は、例えば、通行車両数、車種等の情報、通常とは異なる事故/工事に起因する渋滞等状況等の交通状況情報18Aを収集する。サーバ12は、交通状況監視システム18からの交通状況情報18Aをネットワーク19を通じて受信し、カメラ10から受信される画像の受信/破棄の判定などに使用する。
電子機器16は、例えばパーソナルコンピュータ、タブレットコンピュータ、スマートフォンなどの機器であり、サーバ12にアクセスして路面状況推定の処理結果を出力するために使用される。電子機器16は、例えばインフラ管理者(道路管理会社担当者、自治体担当者など)などの操作員により使用される。サーバ12は、路面状況推定のための処理結果を、自機に設けられた表示装置において出力する他、ネットワーク19を通じて電子機器16において出力させる。
ネットワーク19は、無線通信網、有線通信網、インターネットなどの各種の通信網を含む。
なお、サーバ12は、例えばクラウドコンピューティングにより実現されるものとし、ネットワーク19(インターネット)を介して接続された1台のサーバ、あるいは複数のサーバが協働して動作することで実現されても良い。以下の説明では、サーバ12は、1台のサーバにより実現されるものとして説明する。
図2は、本実施形態におけるサーバ12(路面状況推定装置)の構成を示すブロック図である。サーバ12は、プロセッサ12a、メモリ12b、記憶装置12c、表示装置12e、入力装置12f、通信装置12hを有する。
プロセッサ12aは、メモリ12bに記憶された基本プログラム(OS)やアプリケーションプログラムを実行して、各種の機能を実現するための回路である。例えば、プロセッサ12aは、路面状況推定プログラムを実行することで、後述する各機能部を実現する(図3参照)。
メモリ12bは、プロセッサ12aにより実行されるプログラムや一時的なデータ等を記憶する。
記憶装置12cは、各種のプログラムや各種データが記憶される。記憶装置12cに記憶されるデータには、カメラ10から受信される画像(あるいは映像)の画像データ、交通状況監視システム18から受信した交通情報、地図データ、推定処理結果のデータなどを含む。
表示装置12eは、LCD(Liquid Crystal Display)などであり、プロセッサ12aの処理に応じた画面を表示させる。入力装置12fは、キーボードやポインティングデバイスなどである。
通信装置12hは、ネットワーク19を通じた外部装置、例えばカメラ10、交通状況監視システム18、他の情報処理装置との通信を制御する。
図3は、本実施形態におけるサーバ12のプロセッサ12aにより路面状況推定プログラムを実行することにより実現される機能構成20を示すブロック図である。
図3に示すように、サーバ12の機能構成20は、画像データ受信処理部21、画像データベース(DB)22、交通状況情報受信部23、車両動揺推定部25、情報蓄積処理部27、車両動揺推定結果データベース(DB)28、車両動揺統計処理部29、推定結果出力部30、地図データベース(DB)31を含む。
画像データ受信処理部21は、カメラ10からネットワーク19を通じて画像データを受信する。本実施形態では、画像に撮影された車両の前照灯の光をもとに路面に生じた損傷部の存在を推定する。このため、画像データ受信処理部21は、例えば日没から夜明けまでの夜間に撮影された画像データを受信するものとする。画像データ受信処理部21は、カメラ10により撮影された映像から一定間隔(例えば0.05秒)で切り出された連続する画像の画像データを受信する。
また、画像データ受信処理部21は、交通状況情報受信部23によって交通状況監視システム18から受信される交通状況情報18Aをもとに、路面状況の推定処理に不適な画像データを破棄するようにしても良い。例えば、カメラ10による撮影対象となっている道路に渋滞が発生していること(あるいは事故の発生/工事実施)を示す交通状況情報18Aを受信した場合、渋滞発生により車両が通常とは異なる走行(低速走行など)をしている可能性があるので渋滞発生時に受信される画像データを破棄する。その他、通行車両数が通常と大きく異なる場合、通行車両の車種が異なる場合(通常は乗用車の通行が多い道路においてトラックなどの大型車が多いなど)に画像データを破棄するようにしても良い。その他、天候(大雨や霧の発生)の状況に応じて、画像データを破棄するようにしても良い。
画像DB22は、画像データ受信処理部21によって受信された画像データを記憶する。
交通状況情報受信部23は、交通状況監視システム18から交通状況情報18Aを受信して、記憶装置12cに記憶させる。
車両動揺推定部25は、画像DB22に記憶された、カメラ10により撮影された道路上を通行する車両を連続的に撮影した画像から車両の前照灯の光を認識し、車両の前照灯の光の変化と、光の特徴的な変動(例えば前照灯光量の最大変動幅)が検出された時の車両の位置をもとに路面状態を推定した車両動揺推定結果を作成する。
車両動揺推定部25は、画像DB22に記憶された画像から認識された複数の車両の位置と、それぞれに対応する前照灯の光の変化をもとに道路の路面状況を推定し、推定結果を示す車両動揺推定結果を生成して記録する記録処理を実行する。
情報蓄積処理部27は、車両動揺推定部25により求められた、車両毎の車両動揺推定結果を車両動揺推定結果DB28に記憶させる。
車両動揺統計処理部29は、車両動揺推定結果DB28に記憶された複数の車両に対応する車両動揺推定結果をもとに、路面状況を判定するための統計値を算出して、路面の損傷部の発生を判定する判定処理を実行する。すなわち、車両動揺統計処理部29は、複数の車両を対象として、前照灯の光の変化を表す統計値を求め、その統計値の時間経過に伴う変化から路面の損傷部の変化を推定する。
推定結果出力部30は、車両動揺推定部25あるいは車両動揺統計処理部29による判定結果(路面の状態を通知するための情報)を出力する。推定結果出力部30は、自機の表示装置12e、あるいはネットワーク19を介して接続された電子機器16などに対して判定結果を出力する。判定結果とする表示画面には、例えば地図DB31に記録された地図データをもとにした損傷部と判定された箇所(あるいは道路、カメラによる撮影範囲など)を示す地図、車両動揺統計処理部29によって求められた統計値の変化を表すグラフ、損傷部と判定された箇所を撮影対象とするカメラ10に関する撮影情報(設置位置、カメラに関する情報など)等を表示させる。また、推定結果出力部30は、判定結果に対する操作員(インフラ管理者等)による損傷部確認の作業を容易にするため、車両動揺統計処理部29による判定処理により損傷部と判定された道路に関する情報の一覧表示するための表示画面を出力するようにしても良い。
地図DB31は、地図データが記憶されたデータベースであり、道路毎の経路を示す位置データを含む。
次に、本実施形態における路面状況推定システムの動作について説明する。
図4は、本実施形態における路面状況推定システムの概要について説明するための図である。図4の画像記録状況2に示すように、車両が道路を走行している間、例えば信号機に設置された固定カメラ10は、道路上を通行する車両を連続的に撮影する。カメラ10は、撮影範囲内に1台の車両の通行を撮影する場合だけでなく、複数の車両の通行を撮影する場合もある。カメラ10によって撮影された画像は、サーバ12において収集される。
サーバ12は、多数の道路の周辺に設置されたカメラ10から画像を収集して、それぞれのカメラ10により撮影対象とする道路の路面状況について損傷部の発生を推定することができる。サーバ12は、交通状況監視システム18から提供される交通状況情報18Aをもとにして、路面状況の推定処理に不適な画像データを破棄するため判定精度を維持することができる。サーバ12は、多数のカメラ10から収集された画像をもとに損傷部の発生を推定することで、多くの道路について多頻度で巡回した場合と同様の路面状況の監視を実行することができる。
図4に示す確認状況4に示すように、インフラ管理者等(道路管理会社担当者、自治体担当者など)の操作員は、電子機器16を通じて、サーバ12による処理結果を確認することができる。電子機器16では、サーバ12において損傷部として判定された位置が地図上で明示され、損傷部に関する情報(カメラ10の設置場所、道路位置など道路)を確認できるため、路面の状況確認を容易にすることができる。
図5は、本実施形態におけるサーバ12(路面状況推定装置)の記録処理を説明するためのフローチャート、図6は、本実施形態におけるサーバ12の判定処理の動作を説明するためのフローチャートである。
サーバ12の画像データ受信処理部21(プロセッサ12a)は、画像データ処理によって、画像データをカメラ10からネットワーク19を介して受信する(ステップA1)。画像データには、撮影時刻(撮影時間)などの撮影情報が付加されているものとする。
例えば、画像データ受信処理部21は、1つのカメラ10において、日没から夜明けまでの夜間に撮影された画像データを受信する。なお、日没から夜明けまでに限らず、例えばサーバ12に提供する画像を撮影する時間帯をカメラ10毎に設定しても良い。この場合、サーバ12に対して、管理者の操作などによってカメラ10毎の対象時間帯を設定できるようにしておく。
道路によっては、特定の時間帯において通行する車両の車種の割合が安定する場合がある。例えば、大型車(トラック)の割合が大きくなる時間帯、あるいは大型車と乗用車の割合が、ほぼ一定となる時間帯などがある。こうした時間帯に撮影された画像をもとに判定処理をすることによって、安定した統計値が算出されやすくなり、路面上の損傷部の推定精度を向上することができる。
画像データ受信処理部21は、交通状況情報受信部23によって交通状況監視システム18から受信された交通状況情報18Aをもとに、カメラ10から受信した画像データの破棄/記録を判断する(ステップA2)。画像データ受信処理部21は、カメラ10から受信した画像データのうち、路面状況の推定処理に不適な画像が撮影された可能性がある時間帯の画像データを破棄し、その他の画像データを画像DB22に記録する(ステップA3)。
次に、車両動揺推定部25は、車両動揺推定処理において、1つのカメラ10によって撮影された画像毎(カメラ10による監視対象とする道路毎)に車両動揺推定のための処理を実行する。
車両動揺推定部25は、画像内に撮影されている車両と、車両の前照灯の光を、例えば既知の物体認識処理技術により認識し、連続する複数の画像内で動きを追跡する。車両動揺推定部25は、画像から認識された車両に対して固有の識別子(車両ID)を設定する。また、車両動揺推定部25は、車両と前照灯の光を追跡するために用いた複数の画像のそれぞれに対して識別子(画像ID)を設定する。画像中に複数の車両が撮影されている場合には、個別に各車両とそれぞれの前照灯の光を認識して動きを追跡する(ステップA4)。
また、車両動揺推定部25は、車両の前照灯の光、ここでは画像中の前照灯箇所の明度を推定する(ステップA5)。画像中に複数の車両が撮影されている場合には、個別に各車両を追跡すると共に、各車両の前照灯箇所の明度を推定する。
車両動揺推定部25は、画像から抽出された車両毎に、前照灯箇所の明度の変化を変動幅時系列データとして記録すると共に変動幅時系列データをもとに最大変動幅を算出する(ステップA6)。
例えば、図7(A)に示すように、路面に損傷部などが存在していない場合には、道路上を通行する車両CA1の動揺は少ない。この場合、一般に、車両の前照灯が車体に固定された光軸を持つため、光軸の揺れも少なくなる。従って、カメラ10により撮影された画像から認識される前照灯箇所の明度の変化も少なく、車両の通行に応じた安定した変化となる。
一方、図7(B)に示すように、路面に損傷部(例えば凸部)が存在した場合には、車両CA2が損傷部(凸部)を通過する時に車体の動揺が大きくなり、前照灯の光軸も変化する。この場合、カメラ10により撮影された画像から認識される前照灯箇所の明度の変化も損傷部(例えば凸部)の通過時に大きくなる。
路面に発生した損傷部が小さく、この損傷部を通過する車両CA2の車体の動揺が小さい場合であっても、車両CA2から離れた位置に設置されたカメラ10により撮影される画像では前照灯の光が大きく変動する。従って、車両の前照灯の光の変化をもとに、損傷部の発生を検出することができる。
また、車両動揺推定部25は、最大変動幅が算出された画像をもとに、この画像から認識された車両の道路上の位置を算出する。例えば、処理対象としている画像を撮影したカメラ10については、予め、カメラ画角情報(カメラ指向角度、カメラ設置高、撮影範囲、道路に対する相対位置など)、カメラ属性(カメラ種別、撮影条件(絞り等))等を含むカメラ属性情報がわかっている。サーバ12は、カメラ10毎のカメラ属性情報を予め記録しておく。車両動揺推定部25は、画像から認識された車両の位置と、カメラ属性情報をもとにして、車両の道路上の位置を算出する。
なお、車両動揺推定処理によって求める車両の道路上の位置は、厳密な位置である必要はない。すなわち、路面に損傷部が生じていることが判別された場合に、実際に管理者が目視等によって確認するので、損傷部の周辺が特定できれば十分である。例えば、カメラ10による撮影対象とする道路の範囲を複数の道路区画に区分して、車両が含まれる何れかの道路区分を車両の道路上の位置として特定する。
車両動揺推定部25は、前述した各処理によって求めた情報を含む車両動揺推定結果を作成する。
情報蓄積処理部27は、車両動揺推定部25によって作成された車両動揺推定結果を車両動揺推定結果DB28に記録する(ステップA8)。
図8には、本実施形態における車両動揺推定結果のデータの一例を示している。
車両動揺推定結果のデータとしては、画像から認識された車両毎に、例えば、日付/時刻、車両ID、画像ID列、画像位置、対象車両、最大振幅変動幅、変動幅時系列が対応つけて記録される。日付/時刻は、車両が認識された画像が撮影された日付と時刻を示す。車両IDは、画像から認識された車両に対して設定された固有の識別子である。画像ID列は、車両と前照灯の光を追跡するために用いた複数の画像のそれぞれに対して設定された識別子(画像ID)の画像IDリストである。画像位置は、対象画像の位置(例えば道路区画)を示す情報である。対象車両は、画像から認識した車両に対する画像ID毎の各画像において特定された車両の位置のリストである。最大振幅変動幅は、画像から認識した車両に対応する前照灯光量の最大振幅の変動幅を示す。変動幅時系列は、対象車両の前照灯箇所の明度の変化を時系列的に記録した変動幅時系列データである。
次に、サーバ12の判定処理について説明する。
サーバ12の車両動揺統計処理部29は、車両動揺統計処理において、車両動揺推定結果DB28に記録された複数の車両の車両動揺推定結果をもとに、処理対象とする道路(カメラ10が設置された位置)毎に、路面状況を判定するための統計値を算出して、路面の損傷部の発生を判定する。車両動揺統計処理は、予め設定された統計処理実施周期、例えば1ヶ月に1回実行するものとする。
まず、車両動揺統計処理部29は、車両動揺統計処理において、車両動揺推定結果DB28に記録された全車両の車両動揺推定結果をもとに、予め設定された平均時間幅、例えば1日の最大振幅変動幅平均値、最大振幅変動幅分散値を算出する(ステップB1)。すなわち、車両動揺統計処理部29は、1日内でカメラ10により撮影された画像から認識された全車両について、下式(1)の通り、日毎の最大振幅変動幅平均値を算出し、下式(2)の通り、日毎の最大振幅変動幅分散値を算出する。
最大振幅変動幅平均値(日付)
=(Σ(最大変動幅(車両ID))/(全車両数) …(1)
最大振幅変動幅分散値(日付)
=(Σ(最大変動幅(車両ID)-最大振幅変動幅平均値(日付)))/(全車両数) …(2)
さらに、車両動揺統計処理部29は、予め設定された統計処理実施周期内、例えば1ヶ月内での最大振幅変動幅平均値変化率、最大振幅変動幅分散値変化率について、以下の式(3)の通り算出して、車両動揺統計処理結果を作成する(ステップB2)。
変動幅変化率(日付)=Abs(1-((最大振幅変動幅平均値(日付))/(Σ(最大振幅変動幅平均値(日付))/(統計処理実施周期幅))) …(3)
車両動揺統計処理部29は、統計処理実施周期内(1ヶ月内)での最大振幅変動幅平均値変化率、最大振幅変動幅分散値変化率が、予め設定された何れの基準範囲内に含まれるかによって路面状況を判定する(ステップB3)。
例えば、車両動揺統計処理部29は、1ヶ月内で、日付毎の最大振幅変動幅平均値変化率が、例えば平均の10%以内の範囲に含まれると判定された場合には路面状況が正常状態と判定し、平均の10%以上20%未満に含まれる場合には注意状態と判定し、20%以上の範囲に含まれる場合には異常状態と判定する。
同様にして、両動揺統計処理部29は、日付毎の最大振幅変動幅分散値変化率に対して判定を行う。 最大振幅変動幅分散値変化率に対する基準範囲は、最大振幅変動幅平均値変化率と同じでも良いし、異なっていても良い。
また、前述した説明では、正常状態、注意状態、異常状態の3段階で判定しているが、その他の数段階で判定しても良い。その場合、それぞれの段階に応じて基準範囲が設定されるものとする。
また、基準範囲は、処理対象とする道路毎(処理対象とする画像を撮影したカメラ10毎)に異なる値が設定されていても良い。例えば、損傷部を許容できる道路については、異常状態と判定する基準値(前述した例では20%)を高くしたり、逆に、僅かな損傷部についても注意が必要な道路については、注意状態と異常状態を判定する基準値を低くしたりすることも可能である。
車両動揺統計処理部29は、車両動揺統計処理結果の各データを記憶装置12cに記録しておく。
図9には、本実施形態における車両動揺統計処理結果のデータの一例を示している。
車両動揺統計処理結果のデータとしては、判定日付/時刻、位置情報、推定結果ID列、判定結果、統計処理用パラメータ、変動幅時系列、分散時系列が対応つけて記録される。日付/時刻は、処理対象に使用された車両動揺推定結果の最も古いデータの日付と時刻を示す。位置情報は、処理対象としている画像位置の情報(例えば道路区画)を示す情報である。推定結果ID列は、処理に用いた車両動揺推定結果の個々のデータに付された推定結果IDの識別子リストを示す。判定結果は、統計値をもとに判定された判定結果(正常状態/注意状態/異常状態)を示す。統計処理用パラメータは、統計処理を行うための時間幅、統計処理実施周期を示す。変動幅時系列は、動揺推定結果の最大振幅変動幅を時間幅毎に平均した値の、統計処理周期内の時系列データを示す。分散時系列は、動揺推定結果の最大振幅変動幅の時間幅毎の分散値の統計処理周期内の時系列データを示す。
車体の振動は、車両毎の車体に備わる振動吸収機構により影響され、損傷部により生じる路面上の凸凹の大きさと車体の大きさにより変化する。しかしながら、車両が道路を通行することにより検出される車両動揺を、多数の車両から検出された車両動揺推定結果をもとに統計値を求めることで、この統計値が損傷部の影響による値に収束していく。特に、一般の道路であれば、例えば1日といった期間内での通行車両数、車種は大きく変動しない場合であれば、顕著に損傷部の影響を表すことが期待できる。従って、通行車両数、車種がおおむね一定となる時間幅内を最大振幅変動幅平均値の算出に用いれば、車体動揺が道路の凸凹等の路面変化を反映すると期待できる。
また、路面の一部だけに凸凹があり、該当部分にタイヤが乗り上げる車両等、影響を受ける車両が限定される場合は、最大振幅変動幅の分散値に変化が現れることが期待できる。
サーバ12は、例えばインフラ管理者等の操作員より電子機器16を通じて処理結果の表示要求を受信した場合、処理結果を示す画面を電子機器16に提供する。推定結果出力部30は、表示処理において、車両動揺統計処理結果の判定内容と位置情報を表示する確認画面D1を、地図DB31の地図データを用いて作成し、電子機器16において表示させる。
図10は、本実施形態における推定結果出力部30により提供される確認画面D1の一例を示す図である。
図10に示す確認画面D1では、車両動揺統計処理結果の判定結果(注意状態、異常状態)と位置情報に従い、地図上に注意状態あるいは異常状態と判定された位置(範囲)D11を表示する。ここでは、例えば位置情報をもとに、道路区画の位置をマークなどで表示しても良いし、該当する道路区画を含むカメラ10による撮影対象とする範囲の道路部分を範囲表示しても良い。また、注意状態と判定された位置については黄色、異常状態と判定された位置について赤色など、判定結果に応じて表示形態を変えて表示することで、操作員による確認操作を容易にすることができる。
確認画面D1において、操作員の操作によってカーソルD12により当該箇所がクリックされると、推定結果出力部30は、クリック操作によって指定された位置に対応する車両動揺統計処理結果のデータをもとに詳細画面D2を表示する。ここでは、詳細画面として、例えば車両動揺統計処理結果の変動幅時系列のデータをもとに、最大振幅変動幅を時間幅毎に平均した値の変化を表すグラフを表示する。
図11は、本実施形態における推定結果出力部30により提供される詳細画面D2の一例を示す図である。
図11に示す詳細画面D2では、変動幅時系列のデータが示すグラフと、平均値、及び路面状態を判定するための基準値(10%、20%)が表示されている。これにより、操作員は、確認対象としている位置の損傷部が時間経過に伴って、どのように状態が変化しているかを推定することができる。
なお、図11では、変動幅時系列のデータをもとにグラフ表示しているが、同時に分散時系列のデータをもとにグラフ表示してもよい。また、位置情報をもとにした、該当位置のカメラ10により撮影された画像を表示してもよい。さらに、変動幅時系列及び分散時系列のデータに限らず、その他の車両動揺統計処理結果あるいは車両動揺推定結果として記録されたデータをもとに詳細画面を作成して、電子機器16において表示できるようにしても良い。操作員は、確認画面D1、詳細画面D2においてサーバ12による推定結果を確認することで、次回の専用車両による巡回や徒歩による巡視経路の計画を策定するなど業務に利用して、業務の効率化を図ることができる。
このようにして、本実施形態におけるサーバ12(路面状況推定装置)では、路面の損傷部(凸凹等)の影響で発生する車体の揺れを前照灯の光量変化として検出し、ある地点において、車両毎にその光量変化の大きさを、例えば通行車両数及び車種数が平均的とみなせる観測時間幅で統計値をもとめ、その統計値の時間経過に伴う変化から、路面の継時変化を推定し、損傷部の発生を判定することができる。従って、路面状況を検出するための専用車両を用いた道路パトロールをすることなく、信頼性が高く路面状況を検出することができる。
なお、前述した説明では、カメラ10によって前照灯箇所を含む車両を撮影した画像から損傷部の存在を推定しているが、直接的に前照灯箇所を撮影しない変形例により実施することができる。例えば、道路わきなどに投射板を設置し、この投射板に車両から投射された光の変動幅を監視する変形例について説明する。
図12は、本実施形態の変形例における画像記録状況6を示す図である。図12の画像記録状況6を示すように、車両進行方向前方の道路わきに設置された投射板40を、信号機等に設置されたカメラ10Bにより撮影する。なお、カメラ10Bは投射板40をその画角にとらえるものであればよい。また、信号機等には、道路を通行する車両を撮影するカメラ10Aを設置する。
カメラ10Aによって撮影された画像については、前述したように、車両の道路上の位置を算出するために処理される。一方、カメラ10Bによって撮影された画像については、前述と同様にして車両動揺推定処理を実行する。
車両動揺推定処理では、画像内に撮影された車両の前照灯箇所の光量の変化を検出する代わりに、車両毎に連続する画像内における投射光の上下方向の変動幅について検出する。連続する画像上の投射光の変動幅の変化を時系列データとして、車両毎に取得される時間Tsの間、記録し、各時間Tsにおける最大変動幅を最大変動幅(i)として求め、車両動揺推定結果として車両動揺推定結果DB28に記録する。
このとき、時間Tsは、例えば、すれ違い用前照灯(下向き)の有効範囲40m、夜間走行の平均時速を30km/hとした場合、以下のような値となる。
Ts=40/(30000/3600)=4.8[s] …(4)
また、時間Tsに対応する計測区間において、投射板40に接近する車両を、図12に示すカメラ10Aにより撮影し、その位置に応じて制御してもよい。
続く、車両動揺統計処理では、車両動揺推定結果DB28に記録された車両毎の車両動揺推定結果から、平均時間幅、例えば1日内で観測された全車両(取得された時間Tsの数)について、下式(5)の通り、日毎の最大振幅変動幅平均値を算出し、下式(6)の通り、日毎の最大振幅変動幅分散値を算出する。
最大振幅変動幅平均値(日付)
=(Σ最大変動幅(i))/(1日内に取得されたTs間隔の数) …(5)
最大振幅変動幅分散値(日付)
=(Σ(最大変動幅(i)-最大振幅変動幅平均値(i)))/(一日内に取得されたTs間隔の数) …(6)
車両動揺統計処理では、前述同様にして、最大振幅変動幅平均値(日付)及び最大振幅変動幅分散値(日付)の統計処理実施周期、例えば1か月内の変化率を算出し、変化率をもとに路面状況を判定し、表示処理により操作員に推定結果を提示する。
なお、前述した説明では、投射光の上下方向の変動幅について検出するとしているが、左右方向の変動(轍などによる車両の左右方向の動揺)を検出しても良いし、上下方向と左右方向の変動をそれぞれ検出するようにしても良い。
このようにして、車両の前照灯から投射板40に投射された光の変動をもとに車両の同様を推定することで、路面の損傷部により生じる車両の僅かな動揺であっても投射板40に投射された光が大きく変動することから、より明確に路面の損傷部により生じる車両の動揺を検出することができる。従って、路面の損傷部についての判定を確実にすることができる。
なお、上記の各実施形態に記載した手法は、コンピュータに実行させることのできるプログラムとして、磁気ディスク(フレキシブルディスク、ハードディスクなど)、光ディスク(CD-ROM、DVDなど)、光磁気ディスク(MO)、半導体メモリなどの記憶媒体に格納して頒布することもできる。
また、この記憶媒体としては、プログラムを記憶でき、かつコンピュータが読み取り可能な記憶媒体であれば、その記憶形式は何れの形態であっても良い。
また、記憶媒体からコンピュータにインストールされたプログラムの指示に基づきコンピュータ上で稼働しているOS(オペレーティングシステム)や、データベース管理ソフト、ネットワークソフト等のMW(ミドルウェア)等が上記実施形態を実現するための各処理の一部を実行しても良い。
さらに、各実施形態における記憶媒体は、コンピュータと独立した媒体に限らず、LANやインターネット等により伝送されたプログラムをダウンロードして記憶または一時記憶した記憶媒体も含まれる。
また、記憶媒体は1つに限らず、複数の媒体から上記の各実施形態における処理が実行される場合も本発明における記憶媒体に含まれ、媒体構成は何れの構成であっても良い。
なお、各実施形態におけるコンピュータは、記憶媒体に記憶されたプログラムに基づき、上記の各実施形態における各処理を実行するものであって、パーソナルコンピュータ等の1つからなる装置、複数の装置がネットワーク接続されたシステム等の何れの構成であっても良い。
また、各実施形態におけるコンピュータとは、情報処理機器に含まれる演算処理装置、マイコン等も含み、プログラムによって本発明の機能を実現することが可能な機器、装置を総称している。
なお、本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
10(10-1,…,10-m)…カメラ、12…サーバ、12a…プロセッサ、12b…メモリ、12c…記憶装置、12e…表示装置、12f…入力装置、12h…通信装置、18…交通状況監視システム。

Claims (8)

  1. 道路上を通行する車両を連続的に撮影した画像を受信する受信手段と、
    前記画像から車両及び前照灯の光を認識する認識手段と、
    前記画像から認識された複数の車両の位置と、それぞれに対応する前記光の変化をもとに前記道路の路面状況を推定するものであり、連続した画像から認識された同一車両に対応する前記光の明度の最大変動幅について複数の車両の平均値を算出し、前記平均値をもとに前記道路の路面状況を推定する推定手段とを有する路面状況推定装置。
  2. 道路上を通行する車両を連続的に撮影した画像を受信する受信手段と、
    前記画像から車両及び前照灯の光を認識する認識手段と、
    前記画像から認識された複数の車両の位置と、それぞれに対応する前記光の変化をもとに前記道路の路面状況を推定するものであり、連続した画像から認識された同一車両に対応する前記光の上下方向の最大変動幅について複数の車両の平均値を算出し、前記平均値をもとに前記道路の路面状況を推定する推定手段とを有する路面状況推定装置。
  3. 道路上を通行する車両を連続的に撮影した第1画像と、前記車両の前照灯の光が投射される投射板を撮影した第2画像を受信する受信手段と、
    前記第1画像から車両を認識し、前記第2画像から前記投射板に投射された光を認識する認識手段と、
    前記第1画像から認識された車両の位置と前記光の変化をもとに前記道路の路面状況を推定する推定手段とを有する路面状況推定装置。
  4. 道路上を走行する車両の位置を検出する検出手段をさらに有し、
    前記受信手段は、前記検出手段により検出された位置をもとに、前記車両が撮影対象とする範囲に位置する場合に撮影された画像を受信する請求項1~請求項3の何れかに記載の路面状況推定装置。
  5. コンピュータを、
    道路上を通行する車両を連続的に撮影した画像を受信する受信手段と、
    前記画像から車両及び前照灯の光を認識する認識手段と、
    前記画像から認識された複数の車両の位置と、それぞれに対応する前記光の変化をもとに前記道路の路面状況を推定するものであり、連続した画像から認識された同一車両に対応する前記光の明度の最大変動幅について複数の車両の平均値を算出し、前記平均値をもとに前記道路の路面状況を推定する推定手段として機能させるための路面状況推定プログラム。
  6. コンピュータを、
    道路上を通行する車両を連続的に撮影した画像を受信する受信手段と、
    前記画像から車両及び前照灯の光を認識する認識手段と、
    前記画像から認識された複数の車両の位置と、それぞれに対応する前記光の変化をもとに前記道路の路面状況を推定するものであり、連続した画像から認識された同一車両に対応する前記光の上下方向の最大変動幅について複数の車両の平均値を算出し、前記平均値をもとに前記道路の路面状況を推定する推定手段として機能させるための路面状況推定プログラム。
  7. コンピュータを、
    道路上を通行する車両を連続的に撮影した第1画像と、前記車両の前照灯の光が投射される投射板を撮影した第2画像を受信する受信手段と、
    前記第1画像から車両を認識し、前記第2画像から前記投射板に投射された光を認識する認識手段と、
    前記第1画像から認識された車両の位置と前記光の変化をもとに前記道路の路面状況を推定する推定手段として機能させるための路面状況推定プログラム。
  8. コンピュータを、
    道路上を走行する車両の位置を検出する検出手段としてさらに機能させ、
    前記受信手段は、前記検出手段により検出された位置をもとに、前記車両が撮影対象とする範囲に位置する場合に撮影された画像を受信するように機能させるための請求項5~請求項7の何れかに記載の路面状況推定プログラム。
JP2020157787A 2020-09-18 2020-09-18 路面状況推定装置、路面状況推定プログラム Active JP7171666B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020157787A JP7171666B2 (ja) 2020-09-18 2020-09-18 路面状況推定装置、路面状況推定プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020157787A JP7171666B2 (ja) 2020-09-18 2020-09-18 路面状況推定装置、路面状況推定プログラム

Publications (2)

Publication Number Publication Date
JP2022051355A JP2022051355A (ja) 2022-03-31
JP7171666B2 true JP7171666B2 (ja) 2022-11-15

Family

ID=80854946

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020157787A Active JP7171666B2 (ja) 2020-09-18 2020-09-18 路面状況推定装置、路面状況推定プログラム

Country Status (1)

Country Link
JP (1) JP7171666B2 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000180378A (ja) 1998-12-18 2000-06-30 Omron Corp 路面状態検出装置
JP2004155250A (ja) 2002-11-05 2004-06-03 Koito Mfg Co Ltd 車両用灯具の照射方向制御装置
JP2018166292A (ja) 2017-03-28 2018-10-25 トヨタ自動車株式会社 情報収集システムおよび情報収集装置
JP2019211814A (ja) 2018-05-31 2019-12-12 株式会社東芝 渋滞予測装置、および、渋滞予測方法
JP2020077077A (ja) 2018-11-06 2020-05-21 オムロン株式会社 設備管理装置、設備管理方法、及び設備管理プログラム
JP2020101923A (ja) 2018-12-20 2020-07-02 オムロン株式会社 検知装置、移動体システム、及び検知方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3128606B2 (ja) * 1995-12-28 2001-01-29 株式会社小糸製作所 車輌用灯具の照射方向制御装置
JPH1144200A (ja) * 1997-07-25 1999-02-16 Toshiba Corp 道路トンネル総合監視制御装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000180378A (ja) 1998-12-18 2000-06-30 Omron Corp 路面状態検出装置
JP2004155250A (ja) 2002-11-05 2004-06-03 Koito Mfg Co Ltd 車両用灯具の照射方向制御装置
JP2018166292A (ja) 2017-03-28 2018-10-25 トヨタ自動車株式会社 情報収集システムおよび情報収集装置
JP2019211814A (ja) 2018-05-31 2019-12-12 株式会社東芝 渋滞予測装置、および、渋滞予測方法
JP2020077077A (ja) 2018-11-06 2020-05-21 オムロン株式会社 設備管理装置、設備管理方法、及び設備管理プログラム
JP2020101923A (ja) 2018-12-20 2020-07-02 オムロン株式会社 検知装置、移動体システム、及び検知方法

Also Published As

Publication number Publication date
JP2022051355A (ja) 2022-03-31

Similar Documents

Publication Publication Date Title
US11990036B2 (en) Driver behavior monitoring
US9335178B2 (en) Method for using street level images to enhance automated driving mode for vehicle
TWI674210B (zh) 偵測具威脅性車輛之系統及方法
CN109686088B (zh) 一种交通视频告警方法、设备及***
Chen et al. CRSM: Crowdsourcing based road surface monitoring
US9245444B2 (en) Detecting traffic
US11380105B2 (en) Identification and classification of traffic conflicts
US9008359B2 (en) Detection of static object on thoroughfare crossings
JP6713505B2 (ja) 舗装情報収集点検システム、舗装情報収集点検方法、及びプログラム
US11860979B2 (en) Synchronizing image data with either vehicle telematics data or infrastructure data pertaining to a road segment
WO2015129045A1 (ja) 画像取得システム、端末、画像取得方法および画像取得プログラム
KR102262810B1 (ko) 도로 상황에 따른 가변형 제한속도 관리시스템과 판단방법
US20200066156A1 (en) Management of mobile objects
CN110070729B (zh) 一种基于雾计算的违停车辆检测***及方法
KR101730398B1 (ko) 차량 정보 관리 시스템 및 그 방법
CN112447060A (zh) 识别车道的方法、装置及计算设备
JP7171666B2 (ja) 路面状況推定装置、路面状況推定プログラム
JP7293174B2 (ja) 道路周辺物監視装置、道路周辺物監視プログラム
Bhandari et al. Fullstop: A camera-assisted system for characterizing unsafe bus stopping
TW202121332A (zh) 影像偵測區域取得方法及空間使用情況的判定方法
JP7238821B2 (ja) 地図生成システム及び地図生成プログラム
TWI712997B (zh) 違規偵測方法及裝置
WO2024069674A1 (ja) 除雪支援システム、除雪支援方法および記録媒体
CN110956803A (zh) 一种基于多模态的车辆检测方法及***
CN117935538A (zh) 一种肇事车辆的监控方法、装置、介质和电子设备

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210806

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20211105

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20211210

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220727

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220802

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220920

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221004

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221102

R150 Certificate of patent or registration of utility model

Ref document number: 7171666

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150