JP2020052909A - 提供装置および提供方法 - Google Patents

提供装置および提供方法 Download PDF

Info

Publication number
JP2020052909A
JP2020052909A JP2018183949A JP2018183949A JP2020052909A JP 2020052909 A JP2020052909 A JP 2020052909A JP 2018183949 A JP2018183949 A JP 2018183949A JP 2018183949 A JP2018183949 A JP 2018183949A JP 2020052909 A JP2020052909 A JP 2020052909A
Authority
JP
Japan
Prior art keywords
weather condition
vehicle
weather
sensors
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018183949A
Other languages
English (en)
Other versions
JP7210208B2 (ja
Inventor
杉山 裕一
Yuichi Sugiyama
裕一 杉山
幸太郎 石本
Kotaro Ishimoto
幸太郎 石本
利裕 松元
Toshihiro Matsumoto
利裕 松元
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Japan Automobile Research Institute Inc
Original Assignee
Denso Ten Ltd
Japan Automobile Research Institute Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd, Japan Automobile Research Institute Inc filed Critical Denso Ten Ltd
Priority to JP2018183949A priority Critical patent/JP7210208B2/ja
Publication of JP2020052909A publication Critical patent/JP2020052909A/ja
Application granted granted Critical
Publication of JP7210208B2 publication Critical patent/JP7210208B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A90/00Technologies having an indirect contribution to adaptation to climate change
    • Y02A90/10Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation

Landscapes

  • Traffic Control Systems (AREA)

Abstract

【課題】高精度に天候を検出するとともに、周囲に注意を促すことができる提供装置および提供方法を提供すること。【解決手段】実施形態に係る提供装置は、取得部と、判定部と、提供部とを備える。取得部は、周囲の状況を検出する複数のセンサの検出結果を取得する。判定部は、取得部が取得した複数のセンサの検出結果に基づいて天候状況を判定する。提供部は、判定部によって判定された天候状況に関する天候状況情報を外部へ提供する。【選択図】図2

Description

本発明は、提供装置および提供方法に関する。
従来、例えば、物標等といった周囲の状況をセンサで検出し、検出結果に基づいた車両制御を実行したり、検出した物標を運転者へ通知したりする等の技術がある。上記のセンサの例として、カメラ、レーダおよびライダー(LiDAR:Laser Imaging Detection and Ranging)等がある。
特開2017−159789号公報
ところで、上記したセンサは、天候の影響を受けて検出結果の精度が低下するおそれがある。また、上記したセンサを搭載していない車両の運転者にとっては、天候が急変した場合に、かかる急変に即座に対応することは容易ではない。
本発明は、上記に鑑みてなされたものであって、高精度に天候を検出するとともに、周囲に注意を促すことができる提供装置および提供方法を提供することを目的とする。
上述した課題を解決し、目的を達成するために、本発明に係る提供装置は、センサ検出結果取得部と、天候状況判定部と、提供部とを備える。前記センサ検出結果取得部は、周囲の状況を検出する複数のセンサの検出結果を取得する。前記天候状況判定部は、前記センサ検出結果取得部が取得した前記複数のセンサの検出結果に基づいて天候状況を判定する。前記提供部は、前記天候状況判定部によって判定された前記天候状況に関する情報である天候状況情報を外部へ提供する。
本発明によれば、高精度に天候を検出するとともに、周囲に注意を促すことができる。
図1は、実施形態に係る提供方法の概要を示す図である。 図2は、実施形態に係る提供装置を備えた車両の構成を示すブロック図である。 図3は、重み情報の一例を示す図である。 図4は、判定部による白線検出を用いた天候検出の処理内容を示す図である。 図5は、実施形態に係る提供装置が実行する処理の処理手順を示すフローチャートである。
以下、添付図面を参照して、本願の開示する提供装置および提供方法の実施形態を詳細に説明する。なお、この実施形態により本発明が限定されるものではない。
まず、図1を用いて、実施形態に係る提供方法の概要について説明する。図1は、実施形態に係る提供方法の概要を示す図である。図1では、実施形態に係る提供装置1は、車両Cに搭載され、実施形態に係る提供方法を実行する。なお、提供装置1の搭載対象は、車両に限らず、バイクや、自転車、船舶、航空機等といった他の移動体であってもよい。あるいは、提供装置1は、移動体に限らず、例えば、街灯や道路側方物(ガードレールや、信号機等)といった静止物に搭載されてもよい。
また、車両Cは、周囲の状況を検出する複数のセンサの検出結果を総合して周囲に存在する物標を検出する物標検出装置(図示せず)を備えていることとする。なお、複数のセンサには、例えば、カメラ、レーダおよびLiDAR(Laser Imaging Detection and Ranging)等がある。
また、図1では、実施形態に係る提供装置1は、車両Cの前方に発生した濃霧を検出し、検出した濃霧に対する注意喚起の情報である天候状況情報を外部へ提供する提供方法について説明する。
具体的には、実施形態に係る提供装置1は、まず、上記した複数のセンサの検出結果を取得する(ステップS1)。つづいて、提供装置1は、取得した複数のセンサの検出結果に基づいて車両Cの周囲で発生する天候状況を判定する(ステップS2)。
なお、ここでいう天候とは、濃霧や、雨、雪等といった悪天候を指す。換言すれば、提供装置1が検出する天候とは、上記したセンサの検出結果の精度を低下させる天候である。なお、天候は、昼と夜とで区別されてもよい。すなわち、提供装置1は、昼の雨および夜の雨等のように、雨という天候を昼と夜とに細分化された天候状況を判定してもよい。
このように、実施形態に係る提供装置1は、本来、物標の検出に用いるセンサの検出結果を利用して天候状況を判定する。なお、詳細な天候状況の判定方法については後述する。
つづいて、実施形態に係る提供装置1は、判定した天候状況に関する天候状況情報を道路管理者が扱う道路管理端末(道路管理サーバSV)または周辺車両OC1に搭載された車載機へ提供する(ステップS3−1,S3−2)。
具体的には、実施形態に係る提供装置1は、車両Cが走行する道路を管理する道路管理端末に対して、例えば、天候コード等の天候状況を示す情報、車両Cの位置および現在時刻等を含む天候状況情報を提供する(ステップS2−1)。
これにより、例えば、道路管理者は、車両Cよりも後方に設置された電光掲示板等に「この先濃霧注意!」等といった注意喚起の表示を行うことができる。そして、かかる表示を見た後方の周辺車両OC2の運転者は、予め濃霧に対する準備を行うことができるため、発生した濃霧に対して戸惑うことなく対応することができる。
また、実施形態に係る提供装置1は、上記した物標検出装置が用いる複数のセンサそれぞれの検出結果に付与する重みを、判定した天候に応じて変更するとともに、車両Cの後方を走行する周辺車両OC1の物標検出装置に対して、かかる重みに関する情報(以下、重み情報と記載する場合がある)を含む天候状況情報(出願時削除※以下は、赤字下線を省略しています。)を提供する(ステップS2−2)。
これにより、例えば、周辺車両OC1に搭載された物標検出装置において、複数のセンサそれぞれの検出結果の重みを天候に合わせて変更できる。例えば、濃霧の場合には、カメラの検出結果の重みを軽くし、レーダ装置の検出結果の重みを重くする。従って、周辺車両OC1が濃霧に進入した場合であっても、濃霧に合わせて最適な重みを付与して物標検出を行うことができるため、濃霧により物標検出の精度が低下することを防ぐことができる。
なお、周辺車両OC1が物標検出装置を備えない場合、実施形態に係る提供装置1は、重み情報に代えて、濃霧の発生を示す天候状況情報を周辺車両OC1のナビゲーション装置等へ提供することもできる。これにより、周辺車両OC1の運転者は、予め濃霧に対する準備を行うことができるため、発生した濃霧に対して戸惑うことなく対応することができる。
上述したように、実施形態に係る提供方法では、複数のセンサの検出結果を用いて天候状況を判定し、天候状況情報を外部へ提供する。従って、実施形態に係る提供方法によれば、高精度に天候を検出するとともに、周囲に注意を促すことができる。
次に、図2を参照して、実施形態に係る提供装置1の構成について詳細に説明する。図2は、実施形態に係る提供装置1を備えた車両Cの構成を示すブロック図である。図2に示すように、実施形態に係る車両Cは、提供装置1と、物標検出装置100とを備える。提供装置1および物標検出装置100は、所定の車内ネットワークによって通信可能に接続され、互いに情報の送受信を行うことができる。なお、図2では、物標検出装置100と提供装置1とが別体で構成される場合を示したが、物標検出装置100と提供装置1とが一体的に1つの装置として構成されてもよい。
物標検出装置100は、複数のセンサである、カメラ10、レーダ装置11およびLiDAR12を備える。カメラ10は、車両Cの外部状況を撮像する撮像装置である。カメラ10は、例えば、車両Cのフロントガラスに設けられ、車両Cの前方を撮像する。なお、カメラ10は、車両Cの左右側面を撮像する位置および車両Cの後方を撮像する位置に設けられていてもよい。物標検出装置100は、カメラ10の画像を解析することで、車両Cの周囲に存在する物標を検出する。
レーダ装置11は、ミリ波等の電波を利用して車両Cの周辺の物標を検出する。具体的には、レーダ装置11は、電波を車両Cの周辺に送信し、物標で反射した反射波を受信することで物標を検出する。
LiDAR12は、レーザー光を利用して車両Cの周囲の物標を検出する。具体的には、LiDAR12は、レーザー光を車両Cの周辺に送信し、物標で反射された反射光を受信することで物標を検出する。
物標検出装置100は、カメラ10、レーダ装置11およびLiDAR12それぞれの検出結果を総合して最終的な物標を検出する。具体的には、物標検出装置100は、各センサの検出結果に所定の重みを付与した結果に基づいて最終的な物標を検出する。なお、かかる重みは、提供装置1により提供されるが、詳細については後述する。
実施形態に係る提供装置1は、制御部2と、記憶部3とを備える。制御部2は、取得部20(センサ検出結果取得部の一例)、判定部21(天候状況判定部の一例)、決定部22および提供部23を備える。記憶部3は、重み情報31を記憶する。
ここで、提供装置1は、たとえば、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、データフラッシュ、入出力ポートなどを有するコンピュータや各種の回路を含む。
コンピュータのCPUは、たとえば、ROMに記憶されたプログラムを読み出して実行することによって、制御部2の取得部20、判定部21、決定部22および提供部23として機能する。
また、制御部2の取得部20、判定部21、決定部22および提供部23の少なくともいずれか一つまたは全部をASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等のハードウェアで構成することもできる。
また、記憶部3は、たとえば、RAMやデータフラッシュに対応する。RAMやデータフラッシュは、重み情報31や、各種プログラムの情報等を記憶することができる。なお、提供装置1は、有線や無線のネットワークで接続された他のコンピュータや可搬型記録媒体を介して上記したプログラムや各種情報を取得することとしてもよい。
重み情報31は、物標検出装置100の物標検出処理に用いる重みに関する情報である。重み情報31には、複数のセンサそれぞれに割り当てられた重みに関する情報が含まれる。図3は、重み情報31の一例を示す図である。
図3に示すように、重み情報31は、「センサID」、「センサ名」および「重み」といった項目が対応付けられる。「センサID」は、各センサを識別する識別情報である。「センサ名」は、センサの名称である。「重み」は、物標検出処理の際にセンサの検出結果に付与する重みを示す情報である。「重み」は、後述の提供部23によって、天候に応じて決定された重みが入力される。
なお、図3では、それぞれのセンサが1つの場合について示したが、例えば、同じセンサ名のセンサが複数搭載される場合には、各センサにセンサIDが割り当てられてもよい。つまり、複数のカメラが搭載される場合、複数のカメラそれぞれにセンサIDおよび重みが割り当てられてもよい。
制御部2は、周囲の状況を検出する複数のセンサ(例えば、カメラ10、レーダ装置11およびLiDAR12)の検出結果に基づいて天候状況を判定し、判定した天候状況に関する情報である天候状況情報を提供する。
取得部20は、周囲の状況を検出する複数のセンサの検出結果を取得する。例えば、取得部20は、カメラ10、レーダ装置11およびLiDAR12それぞれから検出結果を取得する。検出結果は、例えば、物標に関する情報(物標の有無、相対速度や位置等の情報)であってもよく、あるいは、カメラ10の画像等のような物標検出に用いられる元データであってもよい。
判定部21(出願時削除※以下は、赤字下線を省略しています。)は、取得部20が取得した複数のセンサの検出結果に基づいて天候状況を判定する。具体的には、判定部21は、複数のセンサそれぞれで検出された物標の検出結果に基づいて天候状況を判定する。
例えば、判定部21は、同一の物標について、カメラ10の画像およびLiDAR12からは物標が検出されず、レーダ装置11からは物標が検出された場合、天候状況が悪天候であることと判定する。かかる場合、さらに、判定部21は、例えば、カメラ10のレンズに付着した付着物に基づいて悪天候の種別を判別する。
すなわち、判定部21は、カメラ10の画像に基づいてレンズに雨滴が付着していた場合、かかる悪天候は雨であると判定する。また、判定部21は、カメラ10の画像に基づいてカメラ10のレンズが雪埋もれであることを検出した場合、悪天候は雪であると判定する。そして、判定部21は、レンズに付着物が付着していない、または、霧状の水滴が付着していた場合、悪天候が濃霧であると判定する。
なお、判定部21は、カメラ10、レーダ装置11およびLiDAR12それぞれで同一の物標が検出された場合、天候状況が晴れであると判定する。このように、物標の検出結果に基づいて天候状況を判定することで、精度良く天候を検出することができる。
また、判定部21は、物標として例えば、白線等の車両Cが走行する道路を区画する区画線の検出結果に基づいて天候状況を判定することができる。かかる点について、図4を用いて説明する。
図4は、判定部21による白線検出を用いた天候状況判定の処理内容を示す図である。図4では、車両Cが直進走行(操舵角が略ゼロ)する道路の左右を区画する実線の区画線Lを示している。なお、区画線Lは、実線に限らず、破線等の断続的な区画線であってもよい。また、区画線Lは、白線であってもよく、黄線であってもよい。また、図4では、区画線Lの白線(あるいは黄線)の劣化度合いが等しく、区画線Lのかすれや汚れは同一であることとする。
なお、区画線Lの存在は、各センサの検知データに基づく画像認識処理や、ナビゲーション装置の地図データ(地図データに含まれる区画線データ)と自車位置データによる区画線位置判定処理等により判定できる。
図4に示すように、判定部21は、まず、複数のセンサそれぞれで検出された区画線Lの検出結果を取得する。つづいて、判定部21は、複数のセンサそれぞれで検出された区画線Lに基づいて天候状況を判定する。
具体的には、図4に示すように、判定部21は、複数のセンサそれぞれについて、車両Cから所定距離以上である遠距離に存在する区画線Lと、車両Cから所定距離未満である近距離に存在する区画線Lとの検出結果を比較した結果に基づいて天候を検出する。
例えば、判定部21は、カメラ10およびLiDAR12については近距離の区画線Lのみ検出、あるいは、遠距離の区画線Lの検出精度が所定の閾値以下で著しく低い、一方で、レーダ装置11については近距離および遠距離双方の区画線Lが検出された場合、天候状況が濃霧であると判定する。これは、濃霧が発生した場合、遠距離の視認性が低下することを利用した判定方法である。このような判定方法により、濃霧を精度良く判定することができる。
なお、区画線Lの検出精度は、区画線の画像処理で得られるエッジ(コントラストが急変する部分(物体境界における画像の区切れ部分))の連続性(区画線存在位置におけるエッジ直線の長さ:直線路の区画線の場合、精度が高いと長い直線となり、精度が低いと細かく分断された直線となる)やエッジ強度(コントラスト強度)の変化(直線路の区画線の場合、精度が高いとエッジ強度が高く安定した直線となり、精度が低いとエッジ強度が低く不安定な直線となる)、等により検出できる。
また、例えば、判定部21は、カメラ10およびLiDAR12について近距離の区画線Lの認識精度よりも遠距離の区画線Lの認識精度が低く、一方で、レーダ装置11について近距離および遠距離双方の区画線Lの認識精度が同程度である場合、天候状況が雨であると判定する。これは、雨が降っている場合、濃霧のように遠距離の区画線Lが検出できない状況とは異なり、遠距離の区画線Lについてもある程度は検出できることを利用した判定方法である。このような判定方法により、雨を精度良く検出することができる。
また、例えば、判定部21は、カメラ10について近距離および遠距離双方の区画線Lが検出されず、レーダ装置11およびLiDAR12について近距離および遠距離双方の区画線Lが検出された場合、天候状況は晴れでかつ逆光である、あるいは夜であることを判定する。なお、晴れの逆光か夜かは、時刻情報を取得することで判別可能である。これは、逆光や夜では、カメラ10の画像が白または黒の画像となってしまい、物標を検出できないことを利用した判定方法である。これにより、晴れの逆光および夜を精度良く検出することができる。
このような天候判別は各センサの出力状態と天候の関係を示すテーブルを用いた処理により実現することができ、また天候の判別種別は提供する天候情報種別や天候情報を用いる処理装置等に応じて設定すれば良い。
なお、判定部21は、例えば、夜の場合には、車両Cのライトが点灯するため、かかるライトによる影響を加味して上記の判定方法を実行することが好ましい。このように、複数のセンサそれぞれの検出結果について、近距離の区画線Lと遠距離の区画線Lとの検出結果を比較することで、天候状況を精度良く判定することができる。
また、図4では、区画線Lの検出結果を2種類(近距離および遠距離)に分けて比較したが、所定距離毎に分ける、つまり、検出結果を3種類以上に分けて比較してもよい。
図2に戻って決定部22について説明する。決定部22は、判定部21によって判定された天候状況に基づいて物標検出装置100の物標検出処理における複数のセンサそれぞれに割り当てる重みを決定する。
例えば、決定部22は、判定部21によって濃霧が判定された場合、物標検出処理におけるカメラ10およびLiDAR12の検出結果の重みをレーダ装置11の検出結果の重みよりも軽くする。これにより、濃霧が発生時には、レーダ装置11の検出結果をカメラ10およびLiDAR12の検出結果よりも重視した物標検出処理を行うため、物標の検出精度が低下することを防ぐことができる。
また、決定部22は、判定部21によって雨または雪が判定された場合、カメラ10およびLiDAR12の検出結果の重みをレーダ装置11の検出結果の重みよりも軽くする。これにより、雨または雪が発生時には、レーダ装置11の検出結果をカメラ10およびLiDAR12の検出結果よりも重視した物標検出処理を行うため、物標の検出精度が低下することを防ぐことができる。
決定部22は、決定した各センサの重みに関する情報を重み情報31として記憶部3に記憶するとともに、かかる重みに関する情報を提供部23へ出力する。
提供部23は、判定部21によって検出された天候状況に関する天候状況情報天候状況情報を外部へ提供する。
例えば、提供部23は、車両Cの周辺に存在する周辺車両OC1へ天候状況情報を提供する。具体的には、提供部23は、車両Cがいる位置(悪天候発生位置)をこれから通過する予定の周辺車両OC1へ天候状況情報を提供する。
なお、かかる場合の天候状況情報は、周辺車両OC1が物標検出装置101を搭載しているか否かで内容を変えることが好ましい。具体的には、周辺車両OC1が物標検出装置101を搭載している場合、提供部23は、決定部22によって決定された重み情報31を含む天候状況情報を周辺車両OC1へ提供する。
これにより、周辺車両OC1の物標検出装置101は、予め濃霧に対応した重みに設定変更できるため、濃霧進入時において物標の検出精度が低下することを防止できる。
なお、提供部23は、周辺車両OC1へ重み情報31を提供する場合に限らず、例えば、悪天候を検出した際の各センサの検出結果をそのまま天候状況情報として提供してもよい。かかる場合、周辺車両OC1の物標検出装置101は、天候状況情報に含まれる各センサの検出結果に基づいて、自己のセンサそれぞれに割り当てる重みを決定することができる。
一方、周辺車両OC1が物標検出装置101を搭載していない場合、提供部23は、天候の種別(例えば、濃霧や雨、雪等)、車両Cの位置、現在時刻等を含む天候状況情報を提供する。これにより、天候状況情報を受信した周辺車両OC1の運転者は、予め悪天候に対する準備を行うことができるため、悪天候の発生に戸惑うことなく対応することができる。
また、提供部23は、周辺車両OC1以外に、例えば、車両Cが走行する道路を管理する道路管理者が扱う道路管理端末(道路管理サーバSV)へ天候状況情報を提供してもよい。具体的には、提供部23は、天候の種別(例えば、濃霧や雨、雪等)、車両Cの位置、現在時刻等を含む天候状況情報を提供する。これにより、例えば、道路管理者は、車両Cよりも後方に設置された電光掲示板等に悪天候に対する注意喚起の表示を行うことができる。
次に、図5を用いて、実施形態に係る提供装置1が実行する処理の処理手順について説明する。図5は、実施形態に係る提供装置1が実行する処理の処理手順を示すフローチャートである。
図5に示すように、まず、取得部20は、物標検出装置100から周囲の状況を検出する複数のセンサの検出結果を取得する(ステップS101)。つづいて、判定部21は、取得した検出結果に基づいて天候状況を判定する(ステップS102)。
つづいて、提供部23は、判定部21によって判定された天候状況が悪天候であるか否かを判定する(ステップS103)。提供部23は、判定部21によって判定された天候状況が悪天候である場合(ステップS103,Yes)、周辺車両OC1へ天候状況情報の提供を行うか否かを判定する(ステップS104)。
提供部23は、周辺車両OC1へ天候状況情報の提供を行う場合(ステップS104,Yes)、決定部22によって決定された各センサの重みに関する重み情報31を含む天候状況情報を周辺車両OC1へ提供する(ステップS105)。つづいて、提供部23は、天候の種別や、車両Cの位置、現在時刻等を含む天候状況情報を道路管理サーバSVへ提供し(ステップS106)、処理を終了する。
一方、ステップS103において、提供部23は、判定部21によって判定された天候状況が悪天候ではない場合(ステップS103,No)、すなわち天候が晴れである場合、外部へ天候状況情報の提供を行わず、処理を終了する。
また、ステップS104において、提供部23は、周辺車両OC1へ天候状況情報の提供を行わない場合(ステップS104,No)、ステップS106へ移行する。
上述してきたように、実施形態に係る提供装置1は、取得部20と、判定部21と、提供部23とを備える。取得部20は、周囲の状況を検出する複数のセンサの検出結果を取得する。判定部21は、取得部20が取得した複数のセンサの検出結果に基づいて天候状況を判定する。提供部23は、判定部21によって判定された天候状況に関する天候状況情報を外部へ提供する。これにより、高精度に天候を検出するとともに、周囲に注意を促すことができる。
さらなる効果や変形例は、当業者によって容易に導き出すことができる。このため、本発明のより広範な態様は、以上のように表しかつ記述した特定の詳細および代表的な実施形態に限定されるものではない。したがって、添付の特許請求の範囲およびその均等物によって定義される総括的な発明の概念の精神または範囲から逸脱することなく、様々な変更が可能である。
1 提供装置
2 制御部
3 記憶部
10 カメラ
11 レーダ装置
12 LiDAR
20 取得部
21 判定部
22 決定部
23 提供部
31 重み情報
100、101 物標検出装置
C 車両
L 区画線
OC1、OC2 周辺車両

Claims (7)

  1. 周囲の状況を検出する複数のセンサの検出結果を取得するセンサ検出結果取得部と、
    前記センサ検出結果取得部が取得した前記複数のセンサの検出結果に基づいて天候状況を判定する天候状況判定部と、
    前記天候状況判定部によって判定された前記天候状況に関する情報である天候状況情報を外部へ提供する提供部と
    を備えることを特徴とする提供装置。
  2. 前記複数のセンサは、
    周囲に存在する物標を検出するセンサであって、
    前記天候状況判定部は、
    前記複数のセンサそれぞれで検出された物標の検出結果に基づいて天候状況を判定すること
    を特徴とする請求項1に記載の提供装置。
  3. 車両に搭載される提供装置であって、
    前記複数のセンサは、
    車両が走行する道路を区画する区画線を物標として検出し、
    前記天候状況判定部は、
    前記複数のセンサそれぞれで検出された区画線に基づいて天候状況を判定すること
    を特徴とする請求項2に記載の提供装置。
  4. 前記天候状況判定部は、
    前記複数のセンサそれぞれについて、前記車両から所定距離以上である遠距離に存在する前記区画線と、前記所定距離未満である近距離に存在する前記区画線との検出結果を比較した結果に基づいて天候状況を判定すること
    を特徴とする請求項3に記載の提供装置。
  5. 前記提供部は、
    車両の周辺に存在する周辺車両搭載の車載機、または、車両が走行する道路を管理する道路管理端末へ天候状況情報を提供すること
    を特徴とする請求項3または4に記載の提供装置。
  6. 前記提供部は、
    各センサの検出結果に付与する重みに関する重み情報を含む天候状況情報を周辺車両へ提供すること
    を特徴とする請求項5に記載の提供装置。
  7. 周囲の状況を検出する複数のセンサの検出結果を取得するセンサ検出結果取得工程と、
    前記センサ検出結果取得工程が取得した前記複数のセンサの検出結果に基づいて天候状況を判定する天候状況判定工程と、
    前記天候状況判定工程によって判定された前記天候状況に関する情報である天候状況情報を外部へ提供する提供工程と
    を含むことを特徴とする提供方法。
JP2018183949A 2018-09-28 2018-09-28 提供装置 Active JP7210208B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018183949A JP7210208B2 (ja) 2018-09-28 2018-09-28 提供装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018183949A JP7210208B2 (ja) 2018-09-28 2018-09-28 提供装置

Publications (2)

Publication Number Publication Date
JP2020052909A true JP2020052909A (ja) 2020-04-02
JP7210208B2 JP7210208B2 (ja) 2023-01-23

Family

ID=69997404

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018183949A Active JP7210208B2 (ja) 2018-09-28 2018-09-28 提供装置

Country Status (1)

Country Link
JP (1) JP7210208B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210124037A1 (en) * 2019-10-25 2021-04-29 Hyundai Mobis Co., Ltd. Automotive sensor integration module
JP2022014729A (ja) * 2020-07-07 2022-01-20 株式会社デンソー 悪環境判定装置、悪環境判定方法

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11223674A (ja) * 1998-02-06 1999-08-17 Honda Motor Co Ltd 天候状態検出システム
JP2005174059A (ja) * 2003-12-12 2005-06-30 Matsushita Electric Ind Co Ltd ナビゲーション情報提供システム
JP2007057331A (ja) * 2005-08-23 2007-03-08 Denso Corp 車載霧判定装置
JP2007255979A (ja) * 2006-03-22 2007-10-04 Nissan Motor Co Ltd 物体検出方法および物体検出装置
JP2008070979A (ja) * 2006-09-12 2008-03-27 Denso Corp 車載霧判定装置
WO2010029707A2 (ja) * 2008-09-12 2010-03-18 株式会社 東芝 画像照射システム及び画像照射方法
JP2016522886A (ja) * 2013-04-11 2016-08-04 グーグル インコーポレイテッド 車載センサを用いて気象状態を検出する方法及びシステム
JP2017062539A (ja) * 2015-09-24 2017-03-30 三菱自動車工業株式会社 走行制御装置
JP2019005904A (ja) * 2017-06-20 2019-01-17 凸版印刷株式会社 包装材用フィルム、およびこれを用いた包装材、包装体

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11223674A (ja) * 1998-02-06 1999-08-17 Honda Motor Co Ltd 天候状態検出システム
JP2005174059A (ja) * 2003-12-12 2005-06-30 Matsushita Electric Ind Co Ltd ナビゲーション情報提供システム
JP2007057331A (ja) * 2005-08-23 2007-03-08 Denso Corp 車載霧判定装置
JP2007255979A (ja) * 2006-03-22 2007-10-04 Nissan Motor Co Ltd 物体検出方法および物体検出装置
JP2008070979A (ja) * 2006-09-12 2008-03-27 Denso Corp 車載霧判定装置
WO2010029707A2 (ja) * 2008-09-12 2010-03-18 株式会社 東芝 画像照射システム及び画像照射方法
JP2016522886A (ja) * 2013-04-11 2016-08-04 グーグル インコーポレイテッド 車載センサを用いて気象状態を検出する方法及びシステム
JP2017062539A (ja) * 2015-09-24 2017-03-30 三菱自動車工業株式会社 走行制御装置
JP2019005904A (ja) * 2017-06-20 2019-01-17 凸版印刷株式会社 包装材用フィルム、およびこれを用いた包装材、包装体

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210124037A1 (en) * 2019-10-25 2021-04-29 Hyundai Mobis Co., Ltd. Automotive sensor integration module
US11768918B2 (en) * 2019-10-25 2023-09-26 Hyundai Mobis Co., Ltd. Automotive sensor integration module
JP2022014729A (ja) * 2020-07-07 2022-01-20 株式会社デンソー 悪環境判定装置、悪環境判定方法

Also Published As

Publication number Publication date
JP7210208B2 (ja) 2023-01-23

Similar Documents

Publication Publication Date Title
US10717384B2 (en) System and method for projecting trajectory path of an autonomous vehicle onto a road surface
US8988276B2 (en) Vehicle surroundings monitoring device
US20150120160A1 (en) Method and device for detecting a braking situation
JP2011118482A (ja) 車載装置および認知支援システム
CA2990775A1 (en) Vehicle position determination apparatus and vehicle position determination method
US10229505B2 (en) Motion determination system and method thereof
US11738747B2 (en) Server device and vehicle
CN106019283A (zh) 一种汽车盲区检测方法、装置及***
JP2019212188A (ja) 道路標識認識装置
JP2019211416A (ja) 運転支援装置
WO2019216386A1 (ja) 車両制御装置および車両
JP6699344B2 (ja) 逆走車検出装置、逆走車検出方法
JP7210208B2 (ja) 提供装置
JP2019146012A (ja) 撮像装置
JP2021018465A (ja) 物体認識装置
US20200393264A1 (en) Information display device, control method, and storage medium
CN113033493A (zh) 目标物巡检方法、装置、电子设备及存储介质
KR102298869B1 (ko) 차량 충돌 방지 장치 및 그 방법
US10132642B2 (en) Unit setting apparatus and unit setting method
JP2008056163A (ja) 車両の障害物検知装置
JP2007212418A (ja) 車載レーダ装置
CN110422176B (zh) 基于v2x的智能交通***、汽车
US11435191B2 (en) Method and device for determining a highly precise position and for operating an automated vehicle
CN111028544A (zh) 一种v2v技术和车载多传感器融合的行人预警***
JP6548147B2 (ja) 車両用制御装置

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7426

Effective date: 20181030

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20181030

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210906

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20211018

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20211115

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20220217

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220721

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220830

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221024

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221213

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230111

R150 Certificate of patent or registration of utility model

Ref document number: 7210208

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150