JP2023064572A - 事故分析装置、事故分析方法、およびプログラム - Google Patents

事故分析装置、事故分析方法、およびプログラム Download PDF

Info

Publication number
JP2023064572A
JP2023064572A JP2021174920A JP2021174920A JP2023064572A JP 2023064572 A JP2023064572 A JP 2023064572A JP 2021174920 A JP2021174920 A JP 2021174920A JP 2021174920 A JP2021174920 A JP 2021174920A JP 2023064572 A JP2023064572 A JP 2023064572A
Authority
JP
Japan
Prior art keywords
accident
data
vehicle
analysis
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021174920A
Other languages
English (en)
Other versions
JP7089103B1 (ja
Inventor
展章 村田
Nobuaki Murata
正教 那須
Masakazu Nasu
大樹 佐々木
Hiroki Sasaki
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tokio Marine and Nichido Fire Insurance Co Ltd
Original Assignee
Tokio Marine and Nichido Fire Insurance Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tokio Marine and Nichido Fire Insurance Co Ltd filed Critical Tokio Marine and Nichido Fire Insurance Co Ltd
Priority to JP2021174920A priority Critical patent/JP7089103B1/ja
Priority to JP2022093505A priority patent/JP2023064686A/ja
Application granted granted Critical
Publication of JP7089103B1 publication Critical patent/JP7089103B1/ja
Publication of JP2023064572A publication Critical patent/JP2023064572A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Time Recorders, Dirve Recorders, Access Control (AREA)
  • Financial Or Insurance-Related Operations Such As Payment And Settlement (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】車両の運転者の視界状況を考慮した事故分析を可能とする事故分析装置、事故分析方法およびプログラムを提供する。【解決手段】事故分析装置10は、事故事例を示す事故事例データを保存する記憶部100と、事故車両が備えるセンサにより計測される車両データであって事故車両についての事故現場の位置を示す位置データを含む車両データと、事故車両が備えるカメラで撮影された映像データと、位置データが示す位置における三次元マップデータとを取得する取得部101と、取得された車両データと映像データと三次元マップデータとに基づいて、事故車両が起こした事故の状況を分析する分析部102と、分析部102により分析された事故の状況に基づいて事故事例データを検索する検索部104と、を備える。【選択図】図6

Description

本発明は、事故分析装置、事故分析方法、およびプログラムに関する。
交通事故が発生した場合、保険会社では、事故状況に応じて過失割合を算出する。このような過失割合を算出して事故を分析するための事故分析装置として、例えば、特許文献1には、事故状況と過去の事故事例との突合を迅速に行う事故分析装置が開示されている。
特開2020-194263号公報
ところで、保険会社が算出する過失割合は、保険契約者及び相手方の視界によって変動しうる。例えば、保険契約者にとって死角となる位置から相手方が飛び出して事故が生じた場合、過失割合は保険契約者にとって有利なものとなりうる。
特許文献1に記載の事故分析装置は、保険契約者の車両に設けられたカメラが撮影した映像を解析して事故現場の周辺物を特定し、事故の状況を再現した画像を生成する。そのため、この映像解析を応用して、保険契約者及び相手方の視界も再現することも考えられる。
しかし、保険契約者の車両に設けられたカメラは、前方のみ、あるいは前方及び後方のみを撮影するものであることが一般的であり、左右方向については撮影されていないことが多い。また、保険契約者の車両に設けられたカメラが撮影した映像からは、保険契約者の視界に関する情報をある程度は得られるものの、相手方の視界に関する情報を当該映像から得るのは困難である。
したがって、保険契約者の車両に設けられたカメラが撮影した映像を解析するのみでは、保険契約者及び相手方の視界を十分に考慮した事故分析をすることができず、過失割合の算出を適切に行うことができないおそれがある。
本発明の目的は、上記の事情に鑑み、車両の運転者の視界状況を考慮した事故分析を可能とする事故分析装置、事故分析方法およびプログラムを提供することにある。
上記目的を達成するため、本発明の第1の観点に係る事故分析装置は、
事故事例を示す事故事例データを保存する記憶手段と、
事故車両が備えるセンサにより計測される車両データであって前記事故車両についての事故現場の位置を示す位置データを含む車両データと、前記事故車両が備えるカメラで撮影された映像データとを取得する事故データ取得手段と、
前記位置データが示す位置における三次元マップデータを取得するマップデータ取得手段と、
取得された前記車両データと前記映像データと三次元マップデータとに基づいて、前記事故車両が起こした事故の状況を分析する分析手段と、
前記分析手段により分析された前記事故の状況に基づいて前記事故事例データを検索する検索手段と、
を備える。
前記分析手段は、取得された前記車両データに基づいて前記事故車両が事故を起こしたときの位置を分析し、分析した前記位置と前記三次元マップデータとに基づいて前記事故車両の運転者の視界状況を分析する、
ようにしてもよい。
前記検索手段は、前記分析手段が分析した前記視界状況に基づいて前記事故事例データを検索する、
ようにしてもよい。
前記事故事例データは、視界状況に応じて過失割合を修正する修正情報を含み、
前記検索手段は、前記分析手段が分析した前記視界状況に基づいて前記事故事例データが含む前記修正情報を検索する、
ようにしてもよい。
上記目的を達成するため、本発明の第2の観点に係る事故分析方法は、
事故車両が備えるセンサにより計測される車両データであって前記事故車両についての事故現場の位置を示す位置データを含む車両データと、前記事故車両が備えるカメラで撮影された映像データとを取得する事故データ取得ステップと、
前記位置データが示す位置における三次元マップデータを取得するマップデータ取得ステップと、
取得された前記車両データと前記映像データと三次元マップデータとに基づいて、前記事故車両が起こした事故の状況を分析する分析ステップと、
前記分析ステップにて分析された前記事故の状況に基づいて、記憶手段に保存された事故事例を示す事故事例データを検索する検索ステップと、
を含む。
上記目的を達成するため、本発明の第3の観点に係るプログラムは、
コンピュータに、
事故車両が備えるセンサにより計測される車両データであって前記事故車両についての事故現場の位置を示す位置データを含む車両データと、前記事故車両が備えるカメラで撮影された映像データとを取得する事故データ取得ステップと、
前記位置データが示す位置における三次元マップデータを取得するマップデータ取得ステップと、
取得された前記車両データと前記映像データと三次元マップデータとに基づいて、前記事故車両が起こした事故の状況を分析する分析ステップと、
前記分析ステップにて分析された前記事故の状況に基づいて、記憶手段に保存された事故事例を示す事故事例データを検索する検索ステップと、
を実行させる。
本発明によれば、車両の運転者の視界状況を考慮した事故分析を可能とする事故分析装置、事故分析方法、およびプログラムを提供することができる。
本実施の形態に係る事故分析システムの一例を示す図である。 本実施の形態において車両内部から前方に向いた状態を示す模式図である。 本実施の形態に係るドライブレコーダーの機能ブロック図である。 本実施の形態に係る処理フローを示す図である。 本実施の形態に係る事故分析装置のハードウェア構成例を示す図である。 本実施の形態に係る事故分析装置の機能ブロック図である。 本実施の形態に係る事故分析装置が事故の状況を分析し事故事例を検索する際の処理手順の概要を示すフローチャートである。
以下、本発明の実施の形態について、図面を参照しながら説明する。なお、図中同一または対応する部分には同一符号を付す。
図1は、本実施の形態に係る事故分析システムの一例を示す図である。本実施の形態に係る事故分析システム1では、ドライブレコーダー1100(図2参照)が保険契約者の車両1000に搭載されており、当該ドライブレコーダー1100は、無線通信にてネットワーク(公衆回線網などを含む)を介して、クラウドのストレージサーバ(図示省略)に接続する。なお、本実施の形態では、ドライブレコーダー1100が無線通信にてネットワーク(公衆回線網などを含む)を介して、クラウドのストレージサーバ(図示省略)に接続する例を示しているが、例えば、同様の機能を有するミラー型の専用端末装置を用意して、ミラー1300の代わりに設置するようにしても良い。
クラウドのストレージサーバには、本システム用のデータ格納領域が確保される。より具体的には、車両1000に搭載されているドライブレコーダー1100毎に、事故分析装置10によってアクセス可能なデータ格納領域が確保される。
事故分析装置10は、事故車両である車両1000(以下の説明において、便宜上「自車」と呼ぶことがある)が備えるセンサにより計測される車両データと、車両1000のドライブレコーダー1100が備えるカメラで撮影された映像データとを、クラウドのストレージサーバからネットワークを介して取得し、取得した車両データと映像データとに基づいて、車両1000が起こした事故の状況を分析する機能を有する。また、事故分析装置10は、分析により得られた事故の状況と、過去に生じた事故の状況と過去の事故事例に関する情報(以下、「事故事例」という)とを対応づけた事故事例データベースとを比較することで、車両1000が起こした事故の状況と事故事例とを突合する機能を有する。
なお、「車両1000が備えるセンサ」は、以下の説明では車両1000に直接内蔵されるものではなく、車両1000に搭載されるドライブレコーダー1100が備えるセンサである。後述するように、ドライブレコーダー1100は例えば、車両1000の絶対位置を取得する測位センサ、車両1000の加速度を測定する加速度センサなどのセンサを備える。ドライブレコーダー1100は車両1000に搭載されるので、ドライブレコーダー1100が備える各種センサも「車両1000が備えるセンサ」である。
端末20は、例えば保険会社のオペレータが操作する端末であり、事故分析装置10が分析した事故の状況、事故の状態に対応する事故事例、及び事故分析装置10が生成した画像を表示する。端末20は、PC、ノートPC、タブレット端末、スマートフォンなど、ディスプレイを備えた情報処理装置であればあらゆる情報処理装置を用いることができる。端末20は、ネットワークを介して事故分析装置と通信可能に接続されている。保険会社のオペレータは、例えば車両1000を運転する保険契約者から事故の通報を受けたときに、端末20を操作して事故の状況、事故事例等を把握し、事故の状況と事故事例とを突合した結果に基づいて過失割合を算出する。
図2に、車両1000内において車両1000の前方向を見た状態を示す。ドライブレコーダー1100にはカメラが含まれており、図示するように、少なくとも車両1000の進行方向の映像を撮影することができるよう、車両1000のフロント部分又はフロントガラスに取り付けられている。カメラは、車両1000の側面方向及び後方を撮影可能なものであってもよい。なお、図2に示すように、車両1000の内部には、周知の自動診断システム1400(例えば、OBD(On-Board Diagnostic system -II))が搭載されており、当該自動診断システム1400は、ドライブレコーダー1100と接続するものとする。
図3に、本実施の形態に係るドライブレコーダー1100の機能ブロック図を示す。車両1000に搭載されるドライブレコーダー1100は、通信部1120と、測位部1130と、録画部1140と、録音部1150と、加速度測定部1160と、自動診断データ取得部1170と、制御部1180と、データ格納部1200とを有する。
制御部1180は、CPU(Central Processing Unit)、GPU(Graphical processing unit)等のプロセッサから構成され、本顧客サービスに関連する処理を、各構成要素に対して実行させる。
通信部1120は、例えば公衆回線網を利用した無線通信によるパケット通信にてデータをクラウドのストレージサーバに送信する機能を有する。
測位部1130は、制御部1180によって指示されると例えばGPS(Global Positioning System)などによって車両1000の絶対位置(例えば緯度経度)を取得し、データ格納部1200に格納する。事故が発生したとき、データ格納部1200には、事故現場の位置を示す位置データが格納されることとなる。
録画部1140は、例えばドライブレコーダー1100に搭載されているカメラより撮影される動画像のデータ(映像データ)をデータ格納部1200に格納する。録音部1150は、マイクから入力される音のデータをデータ格納部1200に格納する。録音部1150は、録画部1140と一体化されている場合もある。また、録画部1140は、例えば制御部1180によって作動を指示されると継続的に録画を行い、データ格納部1200に格納するものとする。制御部1180は、特定の時刻より前一定時間の映像データと当該特定の時刻以降一定時間の映像データとを併せて抽出できるものとする。録音部1150についても同様である。録画部1140は、車両1000外部の動画像と車両1000内部の動画像とを撮影可能である。
加速度測定部1160は、例えば加速度センサにより加速度の値を測定し、制御部1180に出力する。自動診断データ取得部1170は、制御部1180によって指示されると、車両1000内部に搭載されている自動診断システム1400から自動診断データを取得する。
データ格納部1200は、メモリ、HDD(Hard Disk Drive)及び/又はSSD(Solid State Drive)等の記憶装置から構成され、予め機器データとして、企業名、組織名、車両登録番号、ドライバ識別子(ID)、電話番号等を格納しており、制御部1180による指示に応じて各構成要素が取得するデータも格納する。
次に、図4を用いて、図1に示した事故分析システムにおいて、事故が発生してから事故に関するデータがクラウドのストレージサーバに送信されるまでの処理内容について説明する。
車両1000に搭載されるドライブレコーダー1100の制御部1180は、継続的に加速度測定部1160に加速度の計測を行わせて、計測された加速度が、予め定められた閾値以上であるか否かを判断する。ここで、制御部1180は、閾値以上の加速度が検出されたものとする(図4:ステップS100)。
閾値以上の加速度が検出されると、制御部1180は、データ格納部1200から機器データを読み出すと共に、衝撃事象データを含む車両データと、映像データ等を抽出する(ステップS101)。衝撃事象データは、時計から取得された日時と、測位部1130が取得した位置データと、検出した加速度と、自動診断データ取得部1170により取得された自動診断データとを含む。映像データは、録画部1140によって撮影された映像データと、録音部1150によって録音された音データとを含む。上でも述べたように、映像データ等は、閾値以上の加速度が検出される時点より前一定時間の映像データ等と、その時点以降一定時間の映像データ等とを含む。自動診断データは、エンジン、バッテリ、燃料系などの各々について損傷の有無を表すデータを含む。なお、機器データと衝撃事象データとを車両データと言う。事故が発生したとき、測位部1130が取得した位置データは事故現場の位置を示す位置データとなるので、車両データは、事故現場の位置を示す位置データを含むこととなる。
そして、制御部1180は、通信部1120に、抽出データ(車両データ(機器データ、衝撃事象データ)及び映像データなど)をクラウドのストレージサーバに送信する(ステップS102)。その後、制御部1180は、以降の処理を終了する(ステップS103)。
クラウドのストレージサーバは、ドライブレコーダー1100から抽出データを受信すると、例えば機器データに含まれる車両登録番号や電話番号等から特定されるデータ格納領域に格納する(ステップS103)。
続いて図5から図7を用いて、図1に示した事故分析システムにおける事故分析装置10による事故の状況の分析及び事故状況と事故事例との突合について説明する。
上述したように、事故分析装置10は、車両データと映像データとを、クラウドのストレージサーバからネットワークを介して取得し、取得した車両データと映像データとに基づいて、車両1000が起こした事故の状況を分析し、車両1000が起こした事故の状況と事故事例とを突合する機能を有する。また、事故分析装置10は、事故の状況を分析することで得られた車両1000の位置と他車の位置とを地図データ上にマッピングすることで、車両1000が起こした事故の状況を示す画像を生成する機能を有する。車両1000が起こした事故の状況を示す画像はどのようなものであってもよいが、例えば俯瞰図であってもよいし、動画であってもよい。
事故分析装置10は、メインフレームやワークステーション、あるいはパーソナルコンピュータ(PC)などの1又は複数の物理的な情報処理装置等から構成されていてもよいし、ハイパーバイザー(hypervisor)上で動作する仮想的な情報処理装置を用いて構成されていてもよいし、クラウドサーバを用いて構成されていてもよい。
図5は、事故分析装置10のハードウェア構成例を示す図である。事故分析装置10は、CPU(Central Processing Unit)、GPU(Graphical processing unit)等のプロセッサ11、メモリ、HDD(Hard Disk Drive)及び/又はSSD(Solid State Drive)等の記憶装置12、有線又は無線通信を行う通信IF(Interface)13、入力操作を受け付ける入力デバイス14、及び情報の出力を行う出力デバイス15を有する。入力デバイス14は、例えば、キーボード、タッチパネル、マウス及び/又はマイク等である。出力デバイス15は、例えば、ディスプレイ及び/又はスピーカ等である。
図6は、本実施の形態に係る事故分析装置10の機能ブロック図である。事故分析装置10は、記憶部100と、取得部101と、分析部102と、生成部103と、検索部104と、出力部105とを含む。記憶部100は、事故分析装置10が備える記憶装置12を用いて実現することができる。また、取得部101と、分析部102と、生成部103と、検索部104と、出力部105とは、事故分析装置10のプロセッサ11が、記憶装置12に記憶されたプログラムを実行することにより実現することができる。また、当該プログラムは、記憶媒体に格納することができる。当該プログラムを格納した記憶媒体は、コンピュータ読み取り可能な非一時的な記憶媒体(Non-transitory computer readable medium)であってもよい。非一時的な記憶媒体は特に限定されないが、例えば、USBメモリ又はCD-ROM等の記憶媒体であってもよい。
記憶部100は、事故の状況と事故の事故事例とを対応づけた事故事例DB(database)と、地図データDBと、三次元マップデータとを記憶する。事故事例DBには、過失割合を示す情報が含まれていてもよい。発生した事故の状況に対応する事故事例及び過失割合は、事故の状況を示す情報をキーとして検索可能であってもよい。地図データDBには、道路データ、道路幅、進行方向、道路種別、交通標識(一時停止、進入禁止等)、制限速度、信号機の位置、交差点における交差道路数等の各種データが含まれる。三次元マップデータには、都市内の道路、道路の周辺に存在する建築物、街路樹、信号機、標識、踏切、橋梁等を三次元の情報にて表したデータが含まれる。なお、記憶部100は、事故分析装置10と通信可能な外部のサーバで実現されることとしてもよい。記憶部100は、記憶手段に対応する。
三次元マップデータとして、例えば国土交通省が推進するProject PLATEAUにて提供される3D都市モデルのデータを採用することができる。あるいは、三次元マップデータとして、地図情報サイトが提供するストリートビューサービスにより得られるデータを援用してもよい。
取得部101は、車両1000(事故車両)により計測、撮影される車両データと映像データとを、クラウドのストレージサーバから取得する機能を有する。また、取得部101は、車両データに含まれる位置データに基づいて、記憶部100から事故現場の位置における三次元マップデータを取得する機能も有する。取得部101は、事故データ取得手段及びマップデータ取得手段に対応する。
分析部102は、取得部101が取得した車両データと映像データとに基づいて、車両1000が起こした事故の状況を分析する機能を有する。分析部102は、分析手段に対応する。なお、分析部102が分析する事故の状況には、少なくとも、車両1000が起こした事故の道路状況(道路が一般道路か高速道路か、道路が単路か交差点かなど)、車両1000が交差点を通過する場合における信号の色、交差点を通過する際の優先関係、及び、車両1000の車速が制限速度を超えているか否かを含んでいてもよい。
また、車両1000の車両データには、少なくとも測位部1130のGPSにより測定された車両1000の絶対位置を示す情報が含まれており、分析部102は、車両1000の絶対位置を示す情報(測位部1130が取得した位置データ)と、映像データに写っている他車の映像を解析することで得られる、車両1000と当該他車との相対的な位置関係を示す情報とに基づいて当該他車の絶対位置を推定するようにしてもよい。また、分析部102は、車両1000及び他車の絶対位置を時系列で推定するようにしてもよい。また、分析部102は、SfM(Structure from Motion)技術により、GPSにより測定された絶対位置を示す情報と映像データの各フレームのデータとに基づいて、自車の絶対位置をより精密に推定してもよい。
また、分析部102は、映像データのうち他車が写っている箇所の画像サイズと、画像サイズと距離との対応関係を示すデータとを比較し、車両1000と他車との相対的な位置関係を示す情報の一つである、車両1000と当該他車との間の距離を推定することで、事故の状況を分析するようにしてもよい。
また、分析部102は、映像データのうち他車が写っている箇所の座標と映像データの中心座標との差分と、座標と角度との対応関係を示すデータとを比較し、車両1000と他車との相対的な位置関係を示す情報の一つである、車両1000の進行方向と他車が存在する方向との角度差を推定することで、事故の状況を分析するようにしてもよい。
また、分析部102は、車両1000の絶対位置と推定した他車の絶対位置とに基づいて三次元マップデータを参照し、事故現場の周辺に存在する建物、街路樹、壁などの遮蔽物を検出する。分析部102は、検出した遮蔽物の絶対位置(緯度・経度)及び高さと、車両1000の絶対位置と、推定した他車の絶対位置とに基づいて、保険契約者及び相手方の視界状況を分析する。視界状況とは、例えば保険契約者あるいは相手方が相手方あるいは保険契約者の車両をどの程度視認可能であったか、保険契約者あるいは相手方が事故現場周辺の信号機をどの程度視認可能であったか、などの状況である。
生成部103は、車両1000の絶対位置と他車の絶対位置とを地図データにマッピングすることで、車両1000が起こした事故の状況を示す画像を生成する機能を有する。当該画像には、俯瞰図や動画を含んでいてもよい。例えば、生成部103は、事故の状況を示す画像を時系列順に並べた動画を生成するようにしてもよい。また、当該画像には、保険契約者あるいは相手方の視界状況を示す画像が含まれるものであってもよい。
検索部104は、分析部102により分析された車両1000が起こした事故の状況と、事故の状況と過去の事故事例とを対応づけた事故事例DB(事故事例データ)とを比較することで、車両1000が起こした事故の状況に対応する事故事例を検索する機能を有する。つまり、事故の状況と事故事例とを突合できる。上記のとおり、分析部102は視界状況を分析するので、検索部104は、視界状況を考慮して事故事例を検索することができる。また、検索部104は、車両1000が起こした事故の状況に対応する事故事例として、車両1000が起こした事故における車両1000の過失割合を検索するようにしてもよい。検索部104は、検索手段に対応する。
また、事故事例には、過失割合を修正する1以上の修正割合(修正情報)が含まれていてもよい。検索部104は、1以上の修正割合の中に、事故車両が起こした事故の状況に対応する修正割合が存在する場合、事故車両の過失割合を当該修正割合に従って修正するようにしてもよい。例えば、事故事例には、視界状況に対応する修正情報が含まれていてもよい。これにより、分析部102が三次元マップデータに基づいて分析した視界状況に応じて過失割合を修正することができる。
出力部105は、分析部102が分析した事故の状況を示す情報、検索部104が検索した事故の状態に対応する事故事例、及び、生成部103が生成した事故の状況を示す画像を端末20に出力する機能を有する。
なお、事故分析装置10の機能については端末20と連携して実現する場合もあるので、端末20側に設けられる機能が存在する場合もある。また、事故分析装置10と端末20とが一体となった一の情報処理装置であってもよい。
続いて、事故分析装置10による事故状況の分析及び事故事例の検索の処理手順を、図7を参照して説明する。図7は、事故分析装置10が事故の状況を分析し事故事例を検索する際の処理手順の概要を示すフローチャートである。なお、以下の説明において、車両データ及び映像データには、それぞれ時刻情報又は同期情報が含まれているものとする。すなわち、本実施の形態では、ある時点における映像データを分析する際、当該時点に対応する車両データを用いて分析を行うことが可能である、逆に、ある時点における車両データを分析する際、当該時点に対応する映像データを用いて分析を行うことが可能である。
まず、事故分析装置10の取得部101は、事故を起こした車両1000の車両データと事故時の映像データとを取得する(ステップS10、ステップS11)。具体的に、事故分析装置10は、当該車両データ及び映像データを、クラウドのストレージサーバからネットワークを介して取得する。その他にも、例えば、SDカードやUSBメモリ等の非一時的な記憶媒体に記録されており、当該記録媒体を事故分析装置10に接続することで車両データ及び映像データを事故分析装置10に取り込むようにしてもよい。ステップS10およびステップS11の処理は、事故データ取得ステップに対応する。
次に、取得部101は、ステップS10にて取得した車両データに含まれる位置データに基づいて、記憶部100から事故現場の位置における三次元マップデータを取得する(ステップS12)。ステップS12の処理は、マップデータ取得ステップに対応する。
次に、事故分析装置10の分析部102は、ステップS10にて取得した車両データとS11にて取得した映像データとステップS12にて取得した三次元マップデータと基づいて、車両1000が起こした事故の状況を分析する(ステップS13)。ステップS13の処理は、分析ステップに対応する。
次に、事故分析装置10の検索部104は、ステップS13にて分析された事故の状況と、記憶部100に保存された事故事例DBの各事故事例とを対比して、車両1000が起こした事故の状況に対応する事故事例を検索する(ステップS14)。ステップS14の処理は、検索ステップに対応する。
次に、事故分析装置10の生成部103は、ステップS13にて得られた分析結果に基づいて、事故の状況を示す画像を生成する(ステップS15)。なお、ステップS15の処理は、ステップS13からステップS14の各処理の間に行われてもよいし、これらの処理と並行して行われてもよい。
そして事故分析装置10の出力部107は、ステップS13にて得られた分析結果(事故の状況)を示す情報、ステップS14により得られた検索結果を示す情報、ステップS15にて生成した事故の状況を示す画像を端末20に出力し(ステップS16)、事故分析装置10は分析及び検索の処理を終了する。
なお、これらの処理は、処理に矛盾が生じない限り任意の順番で行われてもよい。
以上説明した実施の形態によれば、事故分析装置10は、分析部102が事故現場周辺の三次元マップデータに基づいて視界状況を分析するので、車両の運転者の視界状況を考慮した事故分析を可能とする。また、事故分析装置10は、分析部102が分析した視界状況に基づいて、検索部104が事故事例を検索するので、視界状況を反映した事故事例を検索することができる。例えば、事故分析装置10は、視界状況を反映して修正された過失割合を検索することができる。
(変形例)
なお、この発明は、上記実施の形態に限定されず、様々な変形及び応用が可能である。例えば、車両1000、ドライブレコーダー1100、クラウドのストレージサーバ、事故分析装置10および端末20は、上記実施の形態で示した全ての技術的特徴を備えるものでなくてもよく、従来技術における少なくとも1つの課題を解決できるように、上記実施の形態で説明した一部の構成を備えたものであってもよい。また、下記の変形例それぞれについて、少なくとも一部を組み合わせてもよい。
上記実施の形態では、ドライブレコーダー1100が保険契約者の車両1000に搭載されている例を示したが、これは一例である。ドライブレコーダー1100ではなく、ドライバの所有するスマートフォンであってもよい。当該スマートフォンの背面と前面に搭載されたカメラにより、外部映像データと内部映像データとを撮影すればよい。
なお、上記実施の形態では、ドライブレコーダー1100が各種センサを備えるものとしたが、ドライブレコーダー1100でなく車両1000が各種センサを内蔵するものであってもよい。この場合、車両1000が上記実施の形態における通信部1120、測位部1130、自動診断データ取得部1170、制御部1180、加速度測定部1160及びデータ格納部1200と同様の構成を備えることとなる。そして事故分析装置10は、ドライブレコーダー1100から映像データを取得し、車両1000から車両データを取得することとなる。
事故分析システム1は、専用の装置によらず、通常のコンピュータを用いて実現可能である。例えば、コンピュータに上述のいずれかを実行するためのプログラムを格納した記録媒体から該プログラムをコンピュータにインストールすることにより、上述の処理を実行する事故分析システム1を構成してもよい。また、複数のコンピュータが協同して動作することによって、1つの事故分析システム1を構成しても良い。
また、コンピュータにプログラムを供給するための手法は、任意である。例えば、通信回線、通信ネットワーク、通信システム等を介して供給しても良い。
また、上述の機能の一部をOS(Operation System)が提供する場合には、OSが提供する機能以外の部分をプログラムで提供すれば良い。
以上説明した実施の形態は、本発明の理解を容易にするためのものであり、本発明を限定して解釈するためのものではない。実施形態で説明したフローチャート、シーケンス、実施形態が備える各要素並びにその配置、材料、条件、形状及びサイズ等は、例示したものに限定されるわけではなく適宜変更することができる。また、異なる実施形態で示した構成同士を部分的に置換し又は組み合わせることが可能である。
1…事故分析システム、10…事故分析装置、11…プロセッサ、12…記憶装置、13…通信インターフェース、14…入力デバイス、15…出力デバイス、20…端末、100…記憶部、101…取得部、102…分析部、103、1200…生成部、104…検索部、105…出力部、1000…車両、1100…ドライブレコーダー、1120…通信部、1130…測位部、1140…録画部、1150…録音部、1160…加速度測定部、1170…自動診断データ取得部、1180…制御部、1200…データ格納部、1300…ミラー、1400…自動診断システム。

Claims (6)

  1. 事故事例を示す事故事例データを保存する記憶手段と、
    事故車両が備えるセンサにより計測される車両データであって前記事故車両についての事故現場の位置を示す位置データを含む車両データと、前記事故車両が備えるカメラで撮影された映像データとを取得する事故データ取得手段と、
    前記位置データが示す位置における三次元マップデータを取得するマップデータ取得手段と、
    取得された前記車両データと前記映像データと三次元マップデータとに基づいて、前記事故車両が起こした事故の状況を分析する分析手段と、
    前記分析手段により分析された前記事故の状況に基づいて前記事故事例データを検索する検索手段と、
    を備える事故分析装置。
  2. 前記分析手段は、取得された前記車両データに基づいて前記事故車両が事故を起こしたときの位置を分析し、分析した前記位置と前記三次元マップデータとに基づいて前記事故車両の運転者の視界状況を分析する、
    請求項1に記載の事故分析装置。
  3. 前記検索手段は、前記分析手段が分析した前記視界状況に基づいて前記事故事例データを検索する、
    請求項2に記載の事故分析装置。
  4. 前記事故事例データは、視界状況に応じて過失割合を修正する修正情報を含み、
    前記検索手段は、前記分析手段が分析した前記視界状況に基づいて前記事故事例データが含む前記修正情報を検索する、
    請求項3に記載の事故分析装置。
  5. 事故車両が備えるセンサにより計測される車両データであって前記事故車両についての事故現場の位置を示す位置データを含む車両データと、前記事故車両が備えるカメラで撮影された映像データとを取得する事故データ取得ステップと、
    前記位置データが示す位置における三次元マップデータを取得するマップデータ取得ステップと、
    取得された前記車両データと前記映像データと三次元マップデータとに基づいて、前記事故車両が起こした事故の状況を分析する分析ステップと、
    前記分析ステップにて分析された前記事故の状況に基づいて、記憶手段に保存された事故事例を示す事故事例データを検索する検索ステップと、
    を含む事故分析方法。
  6. コンピュータに、
    事故車両が備えるセンサにより計測される車両データであって前記事故車両についての事故現場の位置を示す位置データを含む車両データと、前記事故車両が備えるカメラで撮影された映像データとを取得する事故データ取得ステップと、
    前記位置データが示す位置における三次元マップデータを取得するマップデータ取得ステップと、
    取得された前記車両データと前記映像データと三次元マップデータとに基づいて、前記事故車両が起こした事故の状況を分析する分析ステップと、
    前記分析ステップにて分析された前記事故の状況に基づいて、記憶手段に保存された事故事例を示す事故事例データを検索する検索ステップと、
    を実行させるプログラム。
JP2021174920A 2021-10-26 2021-10-26 事故分析装置、事故分析方法、およびプログラム Active JP7089103B1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021174920A JP7089103B1 (ja) 2021-10-26 2021-10-26 事故分析装置、事故分析方法、およびプログラム
JP2022093505A JP2023064686A (ja) 2021-10-26 2022-06-09 事故分析装置、事故分析方法、およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021174920A JP7089103B1 (ja) 2021-10-26 2021-10-26 事故分析装置、事故分析方法、およびプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022093505A Division JP2023064686A (ja) 2021-10-26 2022-06-09 事故分析装置、事故分析方法、およびプログラム

Publications (2)

Publication Number Publication Date
JP7089103B1 JP7089103B1 (ja) 2022-06-21
JP2023064572A true JP2023064572A (ja) 2023-05-11

Family

ID=82100026

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2021174920A Active JP7089103B1 (ja) 2021-10-26 2021-10-26 事故分析装置、事故分析方法、およびプログラム
JP2022093505A Pending JP2023064686A (ja) 2021-10-26 2022-06-09 事故分析装置、事故分析方法、およびプログラム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2022093505A Pending JP2023064686A (ja) 2021-10-26 2022-06-09 事故分析装置、事故分析方法、およびプログラム

Country Status (1)

Country Link
JP (2) JP7089103B1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017051735A1 (ja) * 2015-09-25 2017-03-30 富士フイルム株式会社 撮像支援システム及び装置及び方法、並びに撮像端末
JP2018505479A (ja) * 2015-01-16 2018-02-22 クゥアルコム・インコーポレイテッドQualcomm Incorporated ロケーションデータと画像データのスケール空間表現とを使用する物体検出
JP2018206014A (ja) * 2017-06-02 2018-12-27 阪神高速道路株式会社 交通情報取得装置、交通情報取得システム、交通情報取得方法、および交通情報取得プログラム
JP6679152B1 (ja) * 2019-05-27 2020-04-15 東京海上日動火災保険株式会社 事故分析装置、事故分析方法及びプログラム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59209758A (ja) * 1983-05-12 1984-11-28 Nakamuratome Seimitsu Kogyo Kk 研削装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018505479A (ja) * 2015-01-16 2018-02-22 クゥアルコム・インコーポレイテッドQualcomm Incorporated ロケーションデータと画像データのスケール空間表現とを使用する物体検出
WO2017051735A1 (ja) * 2015-09-25 2017-03-30 富士フイルム株式会社 撮像支援システム及び装置及び方法、並びに撮像端末
JP2018206014A (ja) * 2017-06-02 2018-12-27 阪神高速道路株式会社 交通情報取得装置、交通情報取得システム、交通情報取得方法、および交通情報取得プログラム
JP6679152B1 (ja) * 2019-05-27 2020-04-15 東京海上日動火災保険株式会社 事故分析装置、事故分析方法及びプログラム

Also Published As

Publication number Publication date
JP7089103B1 (ja) 2022-06-21
JP2023064686A (ja) 2023-05-11

Similar Documents

Publication Publication Date Title
US20210004363A1 (en) Updating high definition maps based on age of maps
US11002540B1 (en) Accident reconstruction implementing unmanned aerial vehicles (UAVs)
US9256995B2 (en) Apparatus for diagnosing driving behavior, method for diagnosing driving behavior, and program thereof
US9092981B2 (en) Road condition management system and road condition management method
US20130086109A1 (en) Accident information aggregation and management systems and methods for accident information aggregation and management thereof
US20210001891A1 (en) Training data generation for dynamic objects using high definition map data
KR102200299B1 (ko) 3d-vr 멀티센서 시스템 기반의 도로 시설물 관리 솔루션을 구현하는 시스템 및 그 방법
JP2010510559A (ja) 地上モバイルマッピングデータからオブジェクトを検出する方法及び装置
JP2010511212A (ja) 画像内の平面オブジェクトを識別し且つ位置判定する方法及び装置
WO2020264222A1 (en) Image-based keypoint generation
US11328441B2 (en) Information processing device and information processing system
US20210024058A1 (en) Evaluating the safety performance of vehicles
KR20160112580A (ko) Obd, gps 및 블랙박스 영상정보를 이용한 교통사고 현장 재현시스템 및 그 방법
WO2020039937A1 (ja) 位置座標推定装置、位置座標推定方法およびプログラム
CN111652072A (zh) 轨迹获取方法、轨迹获取装置、存储介质和电子设备
US20220028262A1 (en) Systems and methods for generating source-agnostic trajectories
US20220204009A1 (en) Simulations of sensor behavior in an autonomous vehicle
JPWO2016031229A1 (ja) 道路地図作成システム、データ処理装置および車載装置
JP2020095565A (ja) 情報処理システム、プログラム、及び情報処理方法
CN108286973B (zh) 一种行驶数据校验方法及装置、及混合导航***
KR100809359B1 (ko) 3차원 맵 데이터를 제공하는 차량용 항법 장치 및 상기장치의 동작 방법
JP7089103B1 (ja) 事故分析装置、事故分析方法、およびプログラム
Moseva et al. Development of a Platform for Road Infrastructure Digital Certification
JP7089102B1 (ja) 事故分析装置、事故分析方法、およびプログラム
US12020330B2 (en) Accident reconstruction implementing unmanned aerial vehicles (UAVs)

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211026

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20211026

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220111

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220208

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220510

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220609

R150 Certificate of patent or registration of utility model

Ref document number: 7089103

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150