JP2021039464A - 走行状況記録装置 - Google Patents

走行状況記録装置 Download PDF

Info

Publication number
JP2021039464A
JP2021039464A JP2019159235A JP2019159235A JP2021039464A JP 2021039464 A JP2021039464 A JP 2021039464A JP 2019159235 A JP2019159235 A JP 2019159235A JP 2019159235 A JP2019159235 A JP 2019159235A JP 2021039464 A JP2021039464 A JP 2021039464A
Authority
JP
Japan
Prior art keywords
event
data
unit
vehicle
event detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019159235A
Other languages
English (en)
Inventor
好州 三木
Yoshikuni Miki
好州 三木
山田 浩
Hiroshi Yamada
浩 山田
浩行 渡部
Hiroyuki Watabe
浩行 渡部
村下 君孝
Kimitaka Murashita
君孝 村下
康貴 岡田
Yasutaka Okada
康貴 岡田
竜介 関
Ryusuke Seki
竜介 関
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2019159235A priority Critical patent/JP2021039464A/ja
Priority to US17/008,764 priority patent/US11295608B2/en
Publication of JP2021039464A publication Critical patent/JP2021039464A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0108Measuring and analyzing of parameters relative to traffic conditions based on the source of data
    • G08G1/0112Measuring and analyzing of parameters relative to traffic conditions based on the source of data from the vehicle, e.g. floating car data [FCD]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/08Registering or indicating performance data other than driving, working, idle, or waiting time, with or without registering driving, working, idle or waiting time
    • G07C5/0841Registering performance data
    • G07C5/085Registering performance data using electronic data carriers
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0108Measuring and analyzing of parameters relative to traffic conditions based on the source of data
    • G08G1/012Measuring and analyzing of parameters relative to traffic conditions based on the source of data from other sources than vehicle or roadside beacons, e.g. mobile networks
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0125Traffic data processing
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0125Traffic data processing
    • G08G1/0129Traffic data processing for creating historical data or processing based on historical data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/584Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/008Registering or indicating the working of vehicles communicating information to a remotely located station
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/20Monitoring the location of vehicles belonging to a group, e.g. fleet of vehicles, countable or determined number of vehicles
    • G08G1/205Indicating the location of the monitored vehicles as destination, e.g. accidents, stolen, rental

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Databases & Information Systems (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Traffic Control Systems (AREA)
  • Time Recorders, Dirve Recorders, Access Control (AREA)

Abstract

【課題】所定のイベントの発生時における車両の走行状況を容易に確認できる走行状況記録装置を提供することを課題とする。
【解決手段】走行状況記録装置10において、データ取得部11は、車両1の走行状況を示す走行状況データ21を取得する。イベント検出部12は、取得された走行状況データ21のうち、第1走行状況データに基づいて、車両1で発生する所定のイベントを検出する。データ解析部13は、所定のイベントが検出された場合、取得された走行状況データ21のうち第2走行状況データを人工知能を用いて解析する。記録制御部14は、取得された第2走行状況データの解析結果を、検出された所定のイベントを示すイベント検出情報24に対応付けて記憶部に記録する。
【選択図】図2

Description

本発明は、車両に搭載される走行状況記録装置に関する。
近年、ドライブレコーダの普及が進んでいる。ドライブレコーダは、車両に搭載されたカメラにより生成された撮影画像を記録する走行状況記録装置である。ドライブレコーダがトラックに搭載されている場合、トラックの運行管理者は、ドライブレコーダに記録された撮影画像に基づいて、トラックの運転者が安全にトラックを運転しているか否かを確認することができる。
特許文献1は、車両の急減速等の所定のイベントを検出するドライブレコーダを開示している。このドライブレコーダは、所定のイベントを検出した場合、所定のイベントの発生を示す車両情報を生成する。このドライブレコーダは、カメラにより生成された動画像を圧縮して低解像度の動画データを生成し、生成した動画データに含まれる各フレームのヘッダに車両情報を付加する。車両情報が負荷された動画データは、サーバに送信される。
特開2019−032725号公報
運行管理者は、特許文献1に係るドライブレコーダより生成された動画データを確認する場合、車両情報を参照して急ブレーキが発生した時間帯を特定する。運行管理者は、特定した時間帯の動画データを用いて、トラックの走行状況を確認する。
しかし、運行管理者は、車両情報を参照した場合であっても、急ブレーキの発生の有無を確認できるにとどまる。運行管理者は、急ブレーキの発生した時刻の前後の時間端における動画データを視聴しなければ、急ブレーキの発生の原因を特定することができない。つまり、従来のドライブレコーダは、所定のイベントの発生時における車両の走行状況の確認に時間を要するという問題があった。
上記問題点に鑑み、本発明の目的は、所定のイベントの発生時における車両の走行状況を容易に確認することができる走行状況記録装置を提供することである。
上記課題を解決するため、第1の発明は、車両の走行状況を記録する走行状況記録装置であって、データ取得部と、イベント検出部と、データ解析部と、記録制御部とを備える。データ取得部は、車両の走行状況を示す第1走行状況データ及び第2走行状況データを取得する。イベント検出部は、データ取得部により取得された第1走行状況データに基づいて、車両で発生する所定のイベントを検出する。データ解析部は、所定のイベントがイベント検出部により検出された場合、データ取得部により取得された第2走行状況データを人工知能を用いて解析する。記録制御部は、取得された第2走行状況データのデータ解析部による解析結果を、イベント検出部により検出されたイベントを示すイベント検出情報に対応付けて記憶部に記録する。
車両で発生する所定のイベントが第1走行状況データから検出された場合、第1の発明は、第2走行状況データを人工知能を用いて解析し、その解析結果を記録する。従って、第1の発明は、所定のイベントの発生時における車両の走行状況を容易に確認することができる。
第2の発明は、第1の発明であって、さらに、送信部を備える。送信部は、記憶部に記録されたイベント検出情報の送信要求を通信装置から受けた場合、記録されたイベント検出情報と、記録されたイベント検出情報に対応付けられた解析結果とを通信装置に送信する。
第2の発明によれば、記録されたイベント検出情報に対応付けられた解析結果を容易に取得することができる。
第3の発明は、第1又は第2の発明であって、イベント検出部は、イベントの検出条件を示すイベント設定情報を受けた場合、イベント検出情報に基づいてイベントの検出条件を変更する。データ解析部は、第2走行状況データの解析内容を示す解析設定情報を受けた場合、解析設定情報に基づいて走行状況データの解析内容を変更する。
第3の発明によれば、イベントの検出条件及び第2走行状況データの解析内容を容易に変更することができる。
第4の発明は、車両の走行状況を記録する走行状況記録方法であって、a)ステップと、b)ステップと、c)ステップと、d)ステップとを備える。a)ステップは、車両の走行状況を示す第1走行状況データ及び第2走行状況データを取得する。b)ステップは、取得された第1走行状況データに基づいて、車両で発生する所定のイベントを検出する。c)ステップは、所定のイベントが検出された場合、取得された第2走行状況データを人工知能を用いて解析する。d)ステップは、取得された第2走行状況データの解析結果を、検出されたイベントを示すイベント検出情報に対応付けて記憶部に記録する。
第4の発明は、第1の発明に用いられる。
本発明によれば、所定のイベントの発生時における車両の走行状況を容易に確認することができる走行状況記録装置を提供することができる。
本発明の実施の形態に係る走行状況管理システムの構成を示す機能ブロック図である。 図1に示す走行状況記録装置の構成を示す機能ブロック図である。 図1に示す走行状況記録装置の動作設定時における動作を示すフローチャートである。 図2に示すデータ解析部により設定される解析設定テーブルの一例である。 図1に示す走行状況記録装置が走行状況データを記録する動作を示すフローチャートである。 図1に示す車両の急減速が検出された場合に生成されるイベント補足情報の一例を示す図である。 図2に示すデータ解析部により設定される解析設定テーブルの他の例である。 図1に示す車両の急減速が検出された場合に生成されるイベント補足情報の他の例を示す図である。 CPUバス構成を示す図である。
以下、図面を参照し、本発明の実施の形態を詳しく説明する。図中同一又は相当部分には同一符号を付してその説明は繰り返さない。
[1.走行状況管理システム100の構成]
図1は、本実施の形態に係る走行状況管理システム100の構成を示す機能ブロック図である。走行状況管理システム100は、走行状況記録装置10と、ネットワーク20と、サーバ30とを備える。
走行状況記録装置10は、自動車等の車両1に搭載され、車両1の走行状況を記録する。走行状況記録装置10は、ネットワーク20を介してサーバ30と通信する。走行状況記録装置10は、サーバ30からの要求に応じて、記録した車両1の走行状況をサーバ30に送信する。
ネットワーク20は、インターネット等の広域ネットワークである。走行状況記録装置10は、無線通信を用いて、ネットワーク20にアクセスする。無線通信の方式は、例えば、LTE(Long Term Evolution)あるいは第5世代移動通信システムである。
サーバ30は、車両1の走行状況を、ネットワーク20を介して走行状況記録装置10から取得し、その取得した走行状況を蓄積する。
[2.車両1の搭載機器]
図2は、図1に示す走行状況記録装置10の構成を示す機能ブロック図である。図2を参照して、走行状況記録装置10は、車両1に搭載される各種機器からの出力を、車両1の走行状況を示す走行状況データとして記録する。各種機器は、車両1の走行状況を取得する装置であり、本実施の形態では、GPS(Global Positioning System)装置2、車速センサ3、車室カメラ4、フロントカメラ5、ミリ波レーダ6及び回転角センサ7である。
GPS装置2は、GPS衛星からの信号を受信し、その受信した信号に基づいて車両1の現在位置2Aを特定する。GPS装置2は、現在位置2Aを特定するたびに、その特定した現在位置2Aを走行状況記録装置10のデータ取得部11に出力する。
車速センサ3は、車両1の駆動輪における単位時間あたりの回転量を計測し、その計測した回転量を車速情報3Aとしてデータ取得部11に出力する。
車室カメラ4は、例えば、車両1のバックミラーに取り付けられ、運転席を含む車両1の車室を撮影する。従って、車室カメラ4は、車両1の走行時において、車両1の運転者を撮影する。車室カメラ4は、車室画像4Aを生成し、その生成した車室画像4Aをデータ取得部11に出力する。車室画像4Aは、動画像を構成するフレームである。
フロントカメラ5は、例えば、車両1の前端面に取り付けられ、車両1の前方の景色を撮影して前方画像5Aを生成する。フロントカメラ5が車両1の前方の景色を撮影できるのであれば、フロントカメラ5の取付位置は限定されない。フロントカメラ5は、前方画像5Aをデータ取得部11に出力する。前方画像5Aは、動画像を構成するフレームである。
ミリ波レーダ6は、車両1の前端面に取り付けられ、車両1の前方に位置する物標を検出する。ミリ波レーダ6は、物標の検出結果として物標情報6Aを生成し、生成した物標情報6Aをデータ取得部11に出力する。物標情報6Aは、検出した物標の位置、距離及び相対速度を含む。
回転角センサ7は、図示しない車両1のステアリングホイールの回転量を検出し、その検出した回転量をステアリング操作量7Aとしてデータ取得部11に出力する。
[3.走行状況記録装置10の構成]
図2を参照して、走行状況記録装置10は、データ取得部11と、イベント検出部12と、データ解析部13と、記録制御部14と、受信部15と、送信部16と、記憶部17とを備える。
データ取得部11は、現在位置2Aと、車速情報3Aと、車室画像4Aと、前方画像5Aと、物標情報6Aと、ステアリング操作量7Aとを、走行状況データ21として車両1に搭載された各種機器から取得する。データ取得部11は、取得した走行状況データ21をデータ解析部13及び記録制御部14に出力する。
データ取得部11は、指定情報22をイベント検出部12から受ける。指定情報22は、データ取得部11が取得する走行状況データ21のうち少なくとも1つを特定する情報である。データ取得部11は、走行状況データ21のうち、その受けた指定情報22に対応するデータを指定走行状況データ23としてイベント検出部12に出力する。
イベント検出部12は、指定情報22をデータ取得部11に出力し、指定走行状況データ23をデータ取得部11から受ける。イベント検出部12は、人工知能を用いて、データ取得部11から受けた指定走行状況データ23からイベントを検出する。イベントとは、車両1で発生する特定の走行状況であり、例えば、車両1の急減速、運転者の疲労等である。イベント検出部12は、イベントの検出結果を示すイベント検出情報24をデータ解析部13及び記録制御部14に出力する。
イベント検出部12は、イベント設定情報26を受信部15から受けた場合、その受けたイベント設定情報26に基づいて、検出するイベントの種類や、イベント検出条件を変更する。イベント検出部12は、検出するイベントの種類を変更した場合、指定情報22をデータ取得部11に送信して、指定走行状況データ23の変更をデータ取得部11に指示する。
データ解析部13は、イベント検出情報24をイベント検出部12から受けた場合、人工知能を用いて、データ取得部11から受けた走行状況データ21の各々を解析する。人工知能を用いた解析の内容は、イベント検出情報24が示すイベントの内容に応じて異なる。データ解析部13は、走行状況データ21を解析することにより、走行状況データ21から所定の条件を満たすデータを抽出する。
例えば、イベント検出情報24が車両1の急減速を示す場合、データ解析部13は、前方画像5Aから赤信号を検出する画像認識処理を実行する。赤信号の検出には、例えば、ニューラルネットワークや、サポートベクターマシン等の人工知能が用いられる。データ解析部13は、前方画像5Aから赤信号を検出した場合、前方画像5Aから赤信号が検出されたことを示すイベント補足情報25を生成する。イベント補足情報25は、イベント検出部12から受けたイベント検出情報24に関連付けられた上で、記録制御部14に出力される。
また、データ解析部13は、解析設定情報27を受信部15から受けた場合、その受けた解析設定情報27に基づいて、走行状況データ21の解析内容を変更する。
記録制御部14は、記憶部17に設けられたデータベースに各種情報を記録する。具体的には、記録制御部14は、走行状況データ21をデータ取得部11から受け、その受けた走行状況データ21を、記憶部17に設けられた走行状況DB(DataBase)171に記録する。
記録制御部14は、イベント検出情報24をイベント検出部12から受け、イベント補足情報25をデータ解析部13から受ける。記録制御部14は、その受けたイベント検出情報24及びイベント補足情報25を、記憶部17に設けられたイベントDB172に記録する。
記録制御部14は、サーバ30により発行された送信要求28を受信部15から受けた場合、その受けた送信要求28により指定されたイベント検出情報24を、イベントDB172から読み出す。記録制御部14は、読み出されたイベント検出情報24に関連付けられたイベント補足情報25を、イベントDB172から読み出す。記録制御部14は、読み出したイベント検出情報24及びイベント補足情報25を含む応答データ29を生成し、その生成した応答データ29を送信部16に出力する。
受信部15は、イベント設定情報26、解析設定情報27及び送信要求28をサーバ30から受ける。受信部15は、イベント設定情報26を受けた場合、その受けたイベント設定情報26をイベント検出部12に出力する。受信部15は、解析設定情報27を受けた場合、その受けた解析設定情報27をデータ解析部13に出力する。受信部15は、送信要求28を受けた場合、その受けた送信要求28を記録制御部14に出力する。
送信部16は、応答データ29を記録制御部14から受けた場合、その受けた応答データ29をサーバ30へ送信する。
[4.動作]
[4.1.動作条件の設定]
図3は、図1に示す走行状況記録装置10が動作条件を設定する時の動作を示すフローチャートである。図3において、ステップS101〜S102が、イベント検出の設定に関する処理である。ステップS103が、走行状況データ21の解析の設定に関する処理である。本実施の形態では、サーバ30が、オペレータの指示に応じて、イベント設定情報26及び解析設定情報27を走行状況記録装置10に送信する。
走行状況記録装置10は、イベント設定情報26及び解析設定情報27をサーバ30から受信した場合、図3に示す処理を開始する。受信部15は、サーバ30から受信したイベント設定情報26をイベント検出部12に出力し、サーバ30から受信した解析設定情報27をデータ解析部13に出力する。
(イベント検出部12の設定)
イベント検出部12は、受信部15から受けたイベント設定情報26に基づいて、イベント検出に用いる走行状況データを指定する(ステップS101)。
イベント設定情報26が、例えば、運転者の疲労をイベントとして検出することを指示している場合、イベント設定情報26は、車室画像4Aを指定する指定情報22を含む。イベント検出部12は、イベント設定情報26に含まれる指定情報22をデータ取得部11に出力する。これにより、車室画像4Aが、運転者の疲労の検出に用いられる指定走行状況データとして指定される。
イベント設定情報26が、車両1の急減速をイベントとして検出することを指示する場合、車速情報3Aを指定する指定情報22を含む。イベント検出部12は、車速情報3Aを指定する指定情報22をデータ取得部11に出力する。これにより、車速情報3Aが、車両1の急減速の検出に用いられる指定走行状況データ23として指定される。
イベント検出部12は、受信部15から受けたイベント設定情報26に基づいて、イベント検出条件を設定する(ステップS102)。
例えば、イベント検出部12は、運転者の疲労を検出する場合、車室画像4Aから切り出された窓画像をニューラルネットワークに入力し、ニューラルネットワークからの出力に基づいて運転者が疲労しているか否かを判断する。ニューラルネットワークは、人工知能の一種である。このため、イベント設定情報26は、車両1の急減速をイベントして検出することを指示する場合、ニューラルネットワークの各ノードに入力される数値データの重み付け係数や、活性化関数等のニューラルネットワークに関する各種パラメータを含む。イベント検出部12は、イベント設定情報26に従って、運転者の疲労に検出に用いられるニューラルネットワークを設定する。
(データ解析部13の設定)
データ解析部13は、受信部15から受けた解析設定情報27に基づいて、走行状況データ21の各々を解析する際の動作を設定する(ステップS103)。例えば、解析設定情報27が、運転者の疲労検出時における解析内容を設定する情報である場合、データ解析部13は、解析設定情報27に基づいて、図4に示すテーブルを更新する。
図4に示す解析設定テーブル40は、運転者の疲労がイベントとして検出された場合に実行される走行状況データ21の解析内容を示す。車両1の急減速がイベントとして検出された場合における解析内容については、後述する。
図4に示す解析設定テーブル40において、対象データは、運転者の疲労がイベントとして検出された場合に解析される走行状況データ21を示す。運転者の疲労がイベントとして検出された場合、車速情報3Aが、データ解析に用いられることが分かる。
解析内容は、対象データの解析により検出される特定のパターンを示す。例えば、運転者の疲労がイベントとして検出された場合、データ解析部13は、車速情報3Aを解析して、疲労度に応じた車速変化のパターンと居眠り運転時に発生する車速変化のパターンとを検出する。疲労度に応じた車速変化のパターンは、疲労度「低」、「中」、「高」の各々に対応した3種類である。
格納先は、データ解析部13が対象データを解析する際に用いる設定データの格納先を示すパスである。データ解析部13が、対象データの解析にニューラルネットワークを用いる場合、設定データは、ニューラルネットワークの各ノードに入力される数値データの重み付け係数や、活性化関数等のニューラルネットワークに関する各種パラメータを含む。
ステップS103により、イベント検出時におけるデータ解析の内容が変更される。例えば、解析設定情報27が、運転者の疲労がイベントとして検出された場合に実行されるデータ解析として、ステアリング操作量7Aの解析の追加を指示していると仮定する。データ解析部13は、解析設定テーブル40にレコード42を追加して、追加したレコード42の対象データの欄に「ステアリング操作量」を記録し、解析内容として「疲労度に応じたステアリング操作量の変化」を記録する。データ解析部13は、設定データを解析設定情報27から抽出し、抽出した設定データを記憶部17に保存する。データ解析部13は、保存した設定データの格納先を、レコード42の格納先の欄に記録する。
なお、データ解析部13は、ステップS103において、解析設定テーブル40に記録されたレコードを削除してもよいし、レコード41における解析内容を一部変更してもよい。例えば、データ解析部13は、レコード41の解析内容において、「居眠り運転における速度変化」を削除してもよい。この場合、データ解析部13は、車速情報3Aの解析時に、居眠り運転における速度変化のパターンを検出しない。
このように、走行状況記録装置10は、サーバ30から送信されたイベント設定情報26に基づいて、車両1で発生するイベントの検出条件を変更する。走行状況記録装置10は、サーバ20から送信された解析設定情報27に基づいて、イベント検出時における解析内容を変更する。これにより、イベントの検出条件及び解析内容を容易に変更することができる。
[4.2.走行状況データ21の記録]
図5は、図1に示す走行状況記録装置10が走行状況データ21を記録する時の動作を示すフローチャートである。図5に示すように、走行状況記録装置10は、走行状況データ21の記録と並行して、車両1で発生するイベントを検出する。
以下、走行状況記録装置10が下記の2つのイベントを検出する場合に分けて、走行状況データ21を記録する走行状況記録装置10の動作を説明する。2つのイベントとは、(1)運転者の疲労と、(2)車両1の急減速である。
[4.2.1.運転者の疲労が検出された場合]
図4に示す解析設定テーブル40がレコード41及び42を含む場合を例にして、運転者の疲労をイベントとして検出する走行状況記録装置10の動作を説明する。走行状況記録装置10は、図示しない車両1のイグニッションスイッチがオンされた場合、図5に示す処理を開始する。
図5を参照して、データ取得部11は、走行状況データ21を車両1に搭載された各種機器から取得する(ステップS201)。現在位置2A、車速情報3A、車室画像4A、前方画像5A、物標情報6A及びステアリング操作量7Aの各々をデータ取得部11が取得するタイミングは、同じであってもよいし、異なっていてもよい。
データ取得部11は、ステップS201で取得した走行状況データ21を記録制御部14に出力する。記録制御部14は、データ取得部11から受けた走行状況データ21を、走行状況DB171に記録する(ステップS202)。データ取得部11は、ステップS101で取得した走行状況データ21のうち指定情報22で指定された車室画像4Aを、指定走行状況データ23としてイベント検出部12に出力する。
イベント検出部12は、データ取得部11から受けた指定走行状況データ23からイベントを検出する(ステップS203)。具体的には、イベント検出部12は、車室画像4Aにおいて、車両1の運転者の顔を含む領域を特定し、特定した領域における画像を窓画像として切り出す。イベント検出部12は、切り出した窓画像を用いて、車両1の運転者が疲労しているか否かを判断する。なお、切り出される窓画像の数は複数でもよい。
さらに具体的には、イベント検出部12は、目を瞑っている人間の顔を学習したニューラルネットワークに、車室画像4Aから切り出した窓画像を入力する。イベント検出部12は、ニューラルネットワークの出力に基づいて、車両1の運転者が目を瞑っているか否かを判断する。イベント検出部12は、目を瞑っているか否かの判断結果に基づいて、単位時間(例えば、10秒間)における運転者の瞬きの回数を特定する。イベント検出部12は、人工知能を用いて、運転者が疲労しているか否かを運転者の瞬きの回数の時間変化に基づいて判断する。
イベント検出部12は、運転者の疲労を検出できなかった場合(ステップS204においてNo)、後述するステップS209に進む。
イベント検出部12は、運転者の疲労を検出した場合(ステップS204においてYes)、運転者の疲労を検出したことを示すイベント検出情報24を生成する(ステップS205)。イベント検出部12は、生成したイベント検出情報24をデータ解析部13及び記録制御部14に出力する。
図6は、図1に示す走行状況記録装置10により生成されるイベント検出情報24及びイベント補足情報25の一例を示す図である。イベント検出部12は、運転者の疲労を検出した場合、図6に示すイベント検出情報24を生成する。
図6を参照して、イベント検出情報24は、イベントIDと、イベント種別と、検出時刻と、検出位置とを含む。イベントIDは、イベント検出情報24に一意に割り当てられる識別情報である。イベント種別は、検出されたイベントを特定する情報である。上述のように、運転者の疲労が検出された場合、イベント種別は、「4A」である。検出時刻は、イベント検出部12がイベントを検出した時刻である。検出位置は、イベントが検出された位置を示し、位置情報2Aに基づいて記述される。
再び、図5を参照して、データ解析部13は、イベント検出情報24をイベント検出部12から受けた場合、その受けたイベント検出情報24に基づいて、走行状況データ21を解析する(ステップS206)。ステップS206の結果、少なくとも1つのイベント補足情報25が生成される。データ解析部13は、生成した少なくとも1つのイベント補足情報25を記録制御部14に出力する。
ステップS206を具体的に説明する。イベント検出情報24に記録されたイベント種別が、図6に示す「4A」である場合、データ解析部13は、図4に示す更新後の解析設定テーブル40を参照して、車速情報3A及びステアリング操作量7Aの解析を決定する。データ解析部13は、レコード41及び42の各々に記録された格納先に従って設定データを記憶部17から読み出し、読み出した設定データを用いてニューラルネットワークを変更する。データ解析部13は、変更したニューラルネットワークを用いて車速情報3A及びステアリング操作量7Aの各々を解析する。車速情報3Aの解析と、ステアリング操作量7Aの解析とにおいて、互いに異なるニューラルネットワークが用いられる。
データ解析部13は、走行状況データ21の解析結果を記録したイベント補足情報25を生成する(ステップS207)。
例えば、運転者の疲労がイベントとして検出された場合、データ解析部13は、図6に示すイベント補足情報25A及び25Bを生成する。図6を参照して、イベント補足情報25Aは、車速情報3Aの解析結果であり、補足IDと、解析時刻と、関連イベントIDと、解析対象と、解析結果とを含む。補足IDは、イベント補足情報25Aに割り当てられる固有の識別情報である。解析時刻は、データ解析部13が走行状況データ21の解析を開始した時刻である。
関連イベントIDは、イベント補足情報25Aに対応するイベント検出情報24のイベントIDである。イベント補足情報25Aにおける関連イベントIDは、図6に示すイベント検出情報24におけるイベントIDと一致する。従って、イベント補足情報25Aは、図6に示すイベント検出情報24に関連付けられていることが分かる。
解析対象は、データ解析部13が解析した走行状況データを示す。イベント補足情報25Aは、車速情報3Aの解析結果を記録している。解析結果は、走行状況データ21の解析の結果を示す。イベント補足情報25Aに記録された解析結果は、運転者の疲労度が「中」であり、運転者が居眠りをしていないことを示している。
イベント補足情報25Bは、ステアリング操作量7Aの解析結果を記録する。以下、イベント補足情報25Bについてイベント補足情報25Aと異なる点を説明する。イベント補足情報25Bにおいて、解析結果が「左右ふらつきあり」と記録されている。従って、イベント補足情報25Bは、運転者の疲労検出に合わせて、車両1の左右のふらつきが検出されたことを示す。
再び、図5を参照して、記録制御部14は、ステップS205で生成されたイベント検出情報24と、ステップS207で生成されたイベント補足情報25とを、イベントDB172に記録する(ステップS208)。
ステップS208の後に、走行状況記録装置10は、走行状況データ21の記録を終了するか否かを判断する(ステップS209)。例えば、車両1のイグニッションスイッチがオフされた場合、走行状況記録装置10は、走行状況データ21の記録の終了を決定し(ステップS209においてYes)、図5に示す処理を終了する。車両1のイグニッションスイッチがオンである場合、走行状況記録装置10は、走行状況データ21の記録の継続を決定し(ステップS209においてNo)、ステップS201に戻る。
このように、車両1の運転者の疲労がイベントとして検出された場合、走行状況記録装置10は、車速情報3A及びステアリング操作量7Aを解析し、その解析結果をイベント補足情報25A及び25Bに記録する。これにより、イベント補足情報25A及び25Bを参照することにより、運転者の疲労が検出された場合における車両1の走行状況を容易に確認することができる。
[4.2.2.車両1の急減速が検出された場合]
図7は、車両1の急減速がイベントして検出された場合に実行される走行状況データ21の解析内容を示すテーブルである。車両1の急減速がイベントして検出された場合、データ解析部13は、図7に示す解析設定テーブル50に基づいて、車室画像4Aと、前方画像5Aと、物標情報6Aと、ステアリング操作量7Aとを解析する。
以下、車両1の急減速がイベントして検出された場合における走行状況記録装置10の動作を説明する。ステップS201〜S202は、運転者の疲労がイベントとして検出される場合の走行状況記録装置10の動作で説明済みであるため、その説明を省略する。
データ取得部11は、車速情報3Aを指定走行状況データ23としてイベント検出部12に出力する。イベント検出部12は、データ取得部11から受けた車速情報3Aを用いてイベント検出処理を実行する(ステップS203)。具体的には、イベント検出部12は、車速情報3Aの時間変化に基づいて、車両1が急減速したか否かを判断する。イベント検出部12は、運転者の疲労検出と同様に、車両1が急減速したか否かの判断に、ニューラルネットワーク等の人工知能を用いる。
車両1の急減速が検出された場合(ステップS204においてYes)、イベント検出部12は、車両1の急減速を検出したことを示すイベント検出情報24を生成する(ステップS205)。イベント検出部12は、生成したイベント検出情報24をデータ解析部13及び記録制御部14に出力する。
図8は、車両1の急減速がイベントして検出された場合に生成されるイベント検出情報24及びイベント補足情報25の一例を示す図である。図8に示すイベント検出情報24において、イベント種別は、車両1の急減速を示す「5A」である。イベントID、検出時刻及び検出位置は、運転者の疲労がイベントとして検出された場合と同じである。
図5を参照して、データ解析部13は、車両1の急減速を検出したことを示すイベント検出情報24を受けた場合、解析設定テーブル50に基づいて、走行状況データ21を解析する(ステップS206)。図7に示す解析設定テーブル50を参照しながら、車両1の急減速が検出された場合における解析内容を具体的に説明する。
車両1の急減速がイベントとして検出された場合、データ解析部13は、人工知能を用いて車室画像4Aを解析することにより、運転者が脇見をしていたか否かを判断する。運転者が脇見をした場合、運転者が、車両1から前方車両までの距離が短くなることに遅れて気づくことがある。前方車両とは、車両1が走行する車線を走行し、かつ、車両1の前方に位置する車両である。運転者が脇見をしていたか否かの判断結果に基づいて、車両1が急減速した原因を特定することが容易となる。
データ解析部13は、人工知能を用いて、赤信号及び黄信号の各々を前方画像5Aから検出する。運転者は、黄信号又は赤信号に気づくことが遅れた場合、急ブレーキをかける可能性がある。データ解析部13が赤信号又は黄信号を検出することにより、車両1が急減速した原因を特定することが容易となる。
データ解析部13は、人工知能を用いて、ステアリングホイールを用いた障害物回避操作をステアリング操作量7Aから検出する。障害物が路上にある場合、運転者は、この障害物を回避するために、車両1に急ブレーキをかけるとともに車両1を急旋回させる可能性がある。障害物回避操作が急減速とともに検出された場合、運転者が、障害物を回避するために車両1を急旋回させたと推測することができる。
データ解析部13は、人工知能を用いて、前方車両が急減速したか否かを車速情報3A及び物標情報6Aを用いて判断する。物標情報6Aは、車両1の前方に位置する物標の位置、距離及び相対速度を含む。従って、データ解析部13は、車速情報3A及び物標情報6Aに基づいて、前方車両が急減速したか否かを判断することができる。前方車両が急減速した場合、車両1の急減速は、前方車両の急減速に起因すると推測することができる。
このように、データ解析部13が図7に示す解析設定テーブル50に基づいて走行状況データ21を解析することにより、車両1の急減速が検出された場合における車両1の走行状況を特定することが容易となる。
図5を参照して、データ解析部13は、車両1の急減速の検出に伴うデータ解析の結果として、イベント補足情報25を生成する(ステップS207)。車両1の急減速がイベントとして検出された場合、データ解析部13は、図8に示すイベント補足情報25P〜25Sを生成する。
イベント補足情報25P〜25Sの各々における項目は、図6に示すイベント補足情報25A及び25Bにおける項目と同じである。なお、イベント補足情報25P〜25Sは、図8に示すイベント検出情報24に関連付けられている。イベント補足情報25P〜25Sに記録された関連イベントIDは、図9に示すイベント検出情報24に記録されたイベントIDと同じであるためである。
図8を参照して、イベント補足情報25Pは、車室画像4Aの解析結果を記録しており、運転者が脇見をしていないことが解析結果として記録されている。イベント補足情報25Qは、前方画像5Aの解析結果であり、黄信号及び赤信号の両者が検出されなかったことを記録している。イベント補足情報25Sは、物標情報6Aの解析結果であり、前方車両の急減速が検出されなかったことを記録している。
イベント補足情報25Rは、ステアリング操作量7Aの解析結果であり、障害物回避操作が検出されたことを記録している。このため、車両1の急減速の原因は、路面に放置された障害物が原因であると推定することができる。
[4.3.イベント検出情報24の送信]
サーバ30は、オペレータの操作に応じて、走行状況記録装置10により生成されたイベント検出情報24及びイベント補足情報25を、走行状況記録装置10から取得する。以下、具体的に説明する。
例えば、オペレータが、車両1の急減速が記録されたイベント検出情報24の取得をサーバ30に指示した場合、サーバ30は、イベント種別が「5A」であるイベント検出情報24の送信を要求する送信要求28を走行状況記録装置10に送信する。
走行状況記録装置10が送信要求28をサーバ30から受けた場合、記録制御部14は、その受けた送信要求28に含まれるイベント種別「5A」に対応するイベント検出情報24を、イベントDB172から検索する。記録制御部14は、検索されたイベント検出情報24に関連付けられたイベント補足情報25Aを、イベントDB172から検索する。記録制御部14は、検索したイベント検出情報24及びイベント補足情報25を含む応答データ29を生成する。送信部16は、記録制御部14により生成された応答データ29をサーバ30に送信する。
このように、オペレータは、車両1で検出可能なイベントを指定して、指定したイベントを記録したイベント検出情報24の送信を走行状況記録装置10に要求する。走行状況記録装置10は、要求されたイベントに対応するイベント検出情報24と、このイベント検出情報24に関連付けられたイベント補足情報25をサーバ30に送信する。これにより、オペレータは、車両1で特定のイベントが発生した場合、特定のイベントの発生時における車両1の走行状況を容易に確認することができる。
[変形例]
上記実施の形態では、車両1が車室カメラ4及びフロントカメラ5を搭載する例を説明したが、これに限られない。車両1は、車室カメラ4及びフロントカメラ5以外のカメラを搭載してもよい。例えば、車両1は、右サイドカメラと、左サイドカメラと、リアカメラとを搭載してもよい。右サイドカメラは、車両1の右ドアミラーに設置される。左サイドカメラは、車両1の左ドアミラーに設置される。リアカメラは、車両1の後端面に設置される。車両1の急減速が検出された場合、データ解析部13は、右サイドカメラ、左サイドカメラ及びリアカメラにより生成された撮影画像から、検出対象の物体(歩行者、自転車等)を検出すればよい。
上記実施の形態では、走行状況記録装置10が検出するイベントの例として、運転者の疲労及び車両1の急減速を説明したが、これに限られない。イベント検出部12により検出されるイベントは、特に限定されない。イベント検出部12は、走行状況データ21の少なくとも1つから所定の条件を満たすデータを検出した場合に、イベントを検出したと判断すればよい。
例えば、イベント検出部12は、車両1の現在位置2Aが予め設定された領域内であると判断した場合に、イベントを検出したと判断してもよい。予め設定された領域は、例えば、交通事故が多発する地点を中心とした円形領域であってもよいし、高速道路であってもよい。
また、データ解析部13は、検出されたイベントに対応する解析を実行するのであれば、走行状況データ21の解析内容は特に限定されない。例えば、イベント検出部12は、車両1が高速道路を走行していると判断した場合に、車速情報3Aや、ステアリング操作量7Aを解析して煽り運転を行っているか否かを判断してもよい。
また、上記実施の形態において、走行状況記録装置10の各機能ブロックは、LSIなどの半導体装置により個別に1チップ化されてもよいし、一部又は全部を含むように1チップ化されてもよい。ここでは、LSIとしたが、集積度の違いにより、IC、システムLSI、スーパーLSI、ウルトラLSIと呼称されることもある。
集積回路化の手法はLSIに限るものではなく、専用回路又は汎用プロセサで実現してもよい。LSI製造後に、プログラムすることが可能なFPGA(Field Programmable Gate Array)や、LSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサを利用してもよい。
また、走行状況記録装置10により実行される処理の一部または全部は、プログラムにより実現されてもよい。そして、上記各実施の形態の各機能ブロックの処理の一部または全部は、コンピュータにおいて、中央演算装置(CPU)により行われる。また、それぞれの処理を行うためのプログラムは、ハードディスク、ROMなどの記憶装置に格納されており、ROMにおいて、あるいはRAMに読み出されて実行される。
また、上記実施の形態の各処理をハードウェアにより実現してもよいし、ソフトウェア(OS(オペレーティングシステム)、ミドルウェア、あるいは、所定のライブラリとともに実現される場合を含む。)により実現してもよい。さらに、ソフトウェアおよびハードウェアの混在処理により実現しても良い。
例えば、走行状況記録装置10の各機能ブロックを、ソフトウェアにより実現する場合、図9に示したハードウェア構成(例えば、CPU、ROM、RAM、入力部、出力部等をバスBusにより接続したハードウェア構成)を用いて、各機能部をソフトウェア処理により実現するようにしてもよい。
また、上記実施の形態における処理方法の実行順序は、上記実施の形態の記載に制限されるものではなく、発明の要旨を逸脱しない範囲で実行順序を入れ替えてもよい。
前述した方法をコンピュータに実行させるコンピュータプログラム及びそのプログラムを記録したコンピュータ読み取り可能な記録媒体は、本発明の範囲に含まれる。ここで、コンピュータ読み取り可能な記録媒体としては、例えば、フレキシブルディスク、ハードディスク、CD−ROM、MO、DVD、DVD−ROM、DVD−RAM、大容量DVD、次世代DVD、半導体メモリを挙げることができる。
以上、本発明の実施の形態を説明したが、上述した実施の形態は本発明を実施するための例示に過ぎない。よって、本発明は上述した実施の形態に限定されることなく、その趣旨を逸脱しない範囲内で上述した実施の形態を適宜変形して実施することが可能である。
10 走行状況記録装置
11 データ取得部
12 イベント検出部
13 データ解析部
14 記録制御部
15 受信部
16 送信部
17 記憶部
30 サーバ

Claims (4)

  1. 車両の走行状況を示す第1走行状況データ及び第2走行状況データを取得するデータ取得部と、
    前記データ取得部により取得された第1走行状況データに基づいて、前記車両で発生する所定のイベントを検出するイベント検出部と、
    前記所定のイベントが前記イベント検出部により検出された場合、前記データ取得部により取得された第2走行状況データを人工知能を用いて解析するデータ解析部と、
    前記取得された第2走行状況データのデータ解析部による解析結果を、前記イベント検出部により検出されたイベントを示すイベント検出情報に対応付けて記憶部に記録する記録制御部と、を備える走行状況記録装置。
  2. 請求項1に記載の走行状況記録装置であって、さらに、
    前記記憶部に記録されたイベント検出情報の送信要求を通信装置から受けた場合、前記記録されたイベント検出情報と、前記記録されたイベント検出情報に対応付けられた解析結果とを前記通信装置に送信する送信部、を備える走行状況記録装置。
  3. 請求項1又は2に記載の走行状況記録装置であって、さらに、
    前記イベント検出部は、イベントの検出条件を示すイベント設定情報を受けた場合、前記イベント検出情報に基づいてイベントの検出条件を変更し、
    前記データ解析部は、前記第2走行状況データの解析内容を示す解析設定情報を受けた場合、前記解析設定情報に基づいて前記走行状況データの解析内容を変更する、走行状況記録装置。
  4. 車両の走行状況を示す第1走行状況データ及び第2走行状況データを取得するステップと、
    前記取得された第1走行状況データに基づいて、前記車両で発生する所定のイベントを検出するステップと、
    前記所定のイベントが検出された場合、前記取得された第2走行状況データを人工知能を用いて解析するステップと、
    前記取得された第2走行状況データの解析結果を、前記検出されたイベントを示すイベント検出情報に対応付けて記憶部に記録するステップと、を備える走行状況記録方法。
JP2019159235A 2019-09-02 2019-09-02 走行状況記録装置 Pending JP2021039464A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019159235A JP2021039464A (ja) 2019-09-02 2019-09-02 走行状況記録装置
US17/008,764 US11295608B2 (en) 2019-09-02 2020-09-01 Travel status recording apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019159235A JP2021039464A (ja) 2019-09-02 2019-09-02 走行状況記録装置

Publications (1)

Publication Number Publication Date
JP2021039464A true JP2021039464A (ja) 2021-03-11

Family

ID=74682671

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019159235A Pending JP2021039464A (ja) 2019-09-02 2019-09-02 走行状況記録装置

Country Status (2)

Country Link
US (1) US11295608B2 (ja)
JP (1) JP2021039464A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115951159A (zh) * 2023-03-14 2023-04-11 天津华能变压器有限公司 一种干式变压器的运行状态分析方法、装置及存储介质
CN116090938A (zh) * 2023-04-06 2023-05-09 江苏华溯大数据有限公司 一种后装车辆载重状态识别方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006160032A (ja) * 2004-12-06 2006-06-22 Toyota Motor Corp 運転状態判定装置及び運転状態判定方法
JP2018125777A (ja) * 2017-02-02 2018-08-09 パナソニックIpマネジメント株式会社 撮像装置、学習サーバ、撮像システム
JP2019032725A (ja) * 2017-08-09 2019-02-28 株式会社ユピテル 車載電子機器、サーバ、及びクライアント端末

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006160032A (ja) * 2004-12-06 2006-06-22 Toyota Motor Corp 運転状態判定装置及び運転状態判定方法
JP2018125777A (ja) * 2017-02-02 2018-08-09 パナソニックIpマネジメント株式会社 撮像装置、学習サーバ、撮像システム
JP2019032725A (ja) * 2017-08-09 2019-02-28 株式会社ユピテル 車載電子機器、サーバ、及びクライアント端末

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115951159A (zh) * 2023-03-14 2023-04-11 天津华能变压器有限公司 一种干式变压器的运行状态分析方法、装置及存储介质
CN116090938A (zh) * 2023-04-06 2023-05-09 江苏华溯大数据有限公司 一种后装车辆载重状态识别方法

Also Published As

Publication number Publication date
US20210065539A1 (en) 2021-03-04
US11295608B2 (en) 2022-04-05

Similar Documents

Publication Publication Date Title
US10757551B2 (en) Vehicle-to-infrastructure (V2I) messaging system
CN111028382B (zh) 自主交通工具中待收集数据的实时选择
KR102613792B1 (ko) 촬상 장치, 화상 처리 장치 및 화상 처리 방법
US11202030B2 (en) System and method for providing complete event data from cross-referenced data memories
JP2009205368A (ja) 事故通報システム、及び、車載装置
US11295608B2 (en) Travel status recording apparatus
WO2017024880A1 (zh) 车辆主动安全功能的误工作抑制方法及装置和车辆
US20210124916A1 (en) System and Method for Monitoring for Driver Presence and Position Using a Driver Facing Camera
CN108068809B (zh) 车辆控制装置、车辆控制方法以及存储介质
US11605297B2 (en) Vehicle and controlling method thereof
KR20150028258A (ko) 정보 이용을 위한 방법 및 시스템
US10977882B1 (en) Driver health profile
JP7158947B2 (ja) 危険車両情報収集方法、危険車両情報収集システム、危険車両情報収集プログラム
EP4250267A1 (en) Vehicle of interest detection by autonomous vehicles based on amber alerts
JP2020166416A (ja) 制御装置、サーバ、安全システム、および制御装置の制御方法
JP7115872B2 (ja) ドライブレコーダ、及び画像記録方法
JP2022063068A (ja) ドライブレコーダ装置
JP2021117853A (ja) ドライブレコーダ、データ記録システム、データ記録方法、及び、プログラム
US12027050B2 (en) Hazard notification method and system for implementing
US20230316919A1 (en) Hazard notification method and system for implementing
US20240017732A1 (en) Notification apparatus, notification method, and non-transitory computer-readable storage medium
JP7509939B2 (ja) 危険通知方法及び実装するためのシステム
JP7363062B2 (ja) 走行環境異常判定システム
US20230401870A1 (en) Autonomous driving system, autonomous driving method, and autonomous driving program
US20230199450A1 (en) Autonomous Vehicle Communication Gateway Architecture

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220331

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221227

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221228

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230215

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230404