JP2021071780A - 情報処理装置、情報処理方法及びプログラム - Google Patents

情報処理装置、情報処理方法及びプログラム Download PDF

Info

Publication number
JP2021071780A
JP2021071780A JP2019196471A JP2019196471A JP2021071780A JP 2021071780 A JP2021071780 A JP 2021071780A JP 2019196471 A JP2019196471 A JP 2019196471A JP 2019196471 A JP2019196471 A JP 2019196471A JP 2021071780 A JP2021071780 A JP 2021071780A
Authority
JP
Japan
Prior art keywords
collision
vehicle
data
time
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019196471A
Other languages
English (en)
Inventor
昌希 内田
Masaki Uchida
昌希 内田
錬 松山
Ren Matsuyama
錬 松山
伊藤 直之
Naoyuki Ito
直之 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP2019196471A priority Critical patent/JP2021071780A/ja
Publication of JP2021071780A publication Critical patent/JP2021071780A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Time Recorders, Dirve Recorders, Access Control (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)

Abstract

【課題】煩雑な作業を行うことなく、車両から車両の周囲を撮影した映像から、事故の状況を容易に確認することが可能な情報処理装置等を提供する。【解決手段】情報処理装置は、車両から撮影した映像データ、及び/又は、車両から車両の周囲の物体までの距離を計測する距離センサによる計測データから、物体を検出する。情報処理装置は、映像データを解析し、及び/又は、計測データを用いることにより得られる距離データを時系列に複数取得する。また情報処理装置は、車両の物体との衝突時点を推定及び/又は取得し、衝突時点において車両に最近接している衝突物体を、距離データに基づいて特定する。そして情報処理装置は、衝突時点からの各時間におけるデータに対して衝突物体を追跡する処理を行う。【選択図】図1

Description

本発明は、事故発生時の解析を行うための情報処理装置、情報処理方法及びプログラムに関する。
例えば車両の進行方向(前方)をカメラにて撮影し、得られた映像データを記憶(記録)するドライブレコーダーが、四輪車及び二輪車等の車両に搭載されている。特許文献1には、水平平面の360度及び垂直平面の360度の全方位を撮影するドライブレコーダーが開示されている。ドライブレコーダーは、例えば車両が動作(走行)を開始した場合、車両に何らかの衝撃が加わった場合、撮影開始を指示するための操作を受け付けた場合等に、カメラによる撮影を開始して映像データを記憶するように構成されている。
特開2018−196066号公報
近年、交通事故が発生した場合に、事故が発生した際の車両周囲の状況を把握するために、ドライブレコーダーで事故の状況を撮影した事故映像が用いられている。そこで、ドライブレコーダーで撮影した録画映像から、事故の状況が撮影された箇所(事故映像)を特定する必要があるが、一般的に、録画映像から事故映像(事故が撮影された箇所)を探す作業は手作業で行われることが多い。例えば、ドライブレコーダーによる録画映像を再生させて、事故の撮影箇所を目視で特定する作業が行われている。ドライブレコーダーが数時間〜数十時間の録画が可能である場合、数時間〜数十時間の録画映像から、事故が撮影された数秒〜数十秒の事故映像を特定する必要があり、また、事故映像を正確に特定するために録画映像を繰り返し確認する必要があり、煩雑な作業が強いられる。
本発明は、このような事情に鑑みてなされたものであり、その目的とするところは、車両の周囲を撮影した録画映像から、事故の状況を容易に確認することを可能にする情報処理装置等を提供することにある。
本発明の一態様に係る情報処理装置は、車両から該車両の周囲の物体を撮影して得られた映像データ、及び/又は、車両から該車両の周囲の物体までの距離を計測する距離センサによる計測データから物体を検出する物体検出部と、前記映像データを解析し、及び/又は、前記計測データを用いることにより得られる距離データを時系列に複数取得する取得部と、前記車両の物体との衝突時点を推定及び/又は取得する衝突特定部と、前記距離データに基づいて、衝突時点における前記車両に最近接している衝突物体を特定する特定部と、前記衝突時点からの各時間におけるデータの前記衝突物体を衝突時点のデータを基に特定して追跡する追跡部とを備える。
本発明の一態様にあっては、煩雑な作業を行うことなく、車両の周囲を撮影した録画映像から、事故の状況を容易に確認することが可能となる。
ドライブレコーダーの構成例を示すブロック図である。 ドライブレコーダーによる記憶処理手順の一例を示すフローチャートである。 ドライブレコーダーによる撮影箇所の抽出処理手順の一例を示すフローチャートである。 撮影箇所の抽出処理を説明するための模式図である。 実施形態2のドライブレコーダーによる撮影箇所の抽出処理手順の一例を示すフローチャートである。 撮影箇所の抽出処理を説明するための模式図である。 実施形態3のドライブレコーダーによる撮影箇所の抽出処理手順の一例を示すフローチャートである。 撮影箇所の抽出処理を説明するための模式図である。
以下に、本開示の情報処理装置、情報処理方法及びプログラムについて、その実施形態を示す図面に基づいて詳述する。
(実施形態1)
本開示の情報処理装置をドライブレコーダーに適用した実施形態について説明する。図1は、ドライブレコーダーの構成例を示すブロック図である。本実施形態のドライブレコーダー10は、四輪車及び二輪車等の車両、あるいはドライバが装着するヘルメット等に設置され、車両の進行方向の風景を撮影して記憶する撮影装置である。なお、ドライブレコーダー10は、車両の後ろ方向又は全方向の風景を撮影するように構成されていてもよい。
本実施形態のドライブレコーダー10は、制御部11、記憶部12、カメラ13、加速度センサ14、距離センサ15、記憶読出部16、入力部17、通信部18等を含み、これらの各部はバスを介して相互に接続されている。制御部11は、CPU(Central Processing Unit)、MPU(Micro-Processing Unit)又はGPU(Graphics Processing Unit)等の1又は複数のプロセッサを含む。制御部11は、記憶部12に記憶してある制御プログラム12Pを適宜実行することにより、本開示の情報処理装置が行うべき種々の情報処理及び制御処理をドライブレコーダー10に行わせる。制御部11には、日時(年/月/日/時/分/秒)を示す時計11aが接続してあり、制御部11は、時計11aから現在日時を取得する。
記憶部12は、RAM(Random Access Memory)、フラッシュメモリ、ハードディスク、SSD(Solid State Drive)等を含む。記憶部12は、制御部11が実行する制御プログラム12P及び制御プログラム12Pの実行に必要な各種のデータ等を予め記憶している。また記憶部12は、制御部11が制御プログラム12Pを実行する際に発生するデータ等を一時的に記憶する。
カメラ13は、レンズ及び撮像素子等を有する撮像装置であり、レンズを介して被写体像の画像データを取得する。カメラ13は、制御部11からの指示に従って撮影を行い、1枚(1フレーム)の画像データ(撮影画像)を順次取得する。カメラ13は、例えば1秒間に60フレーム、30フレーム又は15フレームの映像データを取得するように構成されており、カメラ13にて取得された映像データ13aは、順次記憶読出部16へ送出され、記憶読出部16によって記憶媒体16aに記憶される。本実施形態のドライブレコーダー10は、搭載された車両の進行方向の風景をカメラ13にて撮影するので、カメラ13のレンズは、車両の進行方向に向けて配置されている。なお、カメラ13は、ドライブレコーダー10に内蔵された構成のほかに、ドライブレコーダー10に外付けされる構成でもよい。この場合、ドライブレコーダー10は、外部カメラの接続が可能な接続部又は外部カメラとの無線通信が可能な無線通信部を備え、外部カメラが撮影した映像データを接続部又は無線通信部を介して取得する。また、カメラ13は、車両の進行方向(前方)だけでなく、車両の後方、左側、右側、又は周囲の風景を撮影するように構成されていてもよい。
加速度センサ14は、例えば3次元の直交座標系におけるxyz軸の3方向のそれぞれの加速度を検知する3軸加速度センサである。加速度センサ14は例えば、ドライブレコーダー10が搭載された車両の進行方向と、進行方向に交差する2方向との3方向における加速度を検知できるように設けてある。進行方向に交差する2方向は、具体的には、鉛直方向及び水平方向であり、車両内から進行方向を向いて上下方向及び左右方向である。なお、加速度センサ14は、互いに直交する2方向における加速度を検知する2軸加速度センサであってもよい。加速度センサ14は、制御部11からの指示に従って加速度の検知処理を行って検知データ(加速度データ)を順次取得し、加速度センサ14による検知データ14aは、順次記憶読出部16へ送出され、記憶読出部16によって記憶媒体16aに記憶される。加速度センサ14は、ドライブレコーダー10に内蔵された構成のほかに、ドライブレコーダー10に外付けされる構成でもよい。この場合、ドライブレコーダー10は、外部の加速度センサの接続が可能な接続部又は外部の加速度センサとの無線通信が可能な無線通信部を備え、外部の加速度センサにて検知された加速度を接続部又は無線通信部を介して取得する。例えば、衝突検知等を行うための加速度センサが車両に搭載されている場合、この加速度センサによる検知データがドライブレコーダー10に入力されるように構成してもよい。
距離センサ15は、近赤外光又は赤外光等の光を出射する発光部と、発光部が出射した光の対象物による反射光を受光する受光部とを有し、受光した反射光に基づいて対象物までの距離を計測するセンサである。距離センサ15は、例えば車両の前方、後方、左側、右側、又は周囲の対象物までの距離を計測するように設けてある。距離センサ15は、制御部11からの指示に従って距離の計測処理を行って検知データ(距離データ、計測データ)を順次取得し、距離センサ15による検知データ15aは、順次記憶読出部16へ送出され、記憶読出部16によって記憶媒体16aに記憶される。距離センサ15は、ドライブレコーダー10に内蔵された構成のほかに、ドライブレコーダー10に外付けされる構成でもよい。この場合、ドライブレコーダー10は、外部の距離センサの接続が可能な接続部又は外部の距離センサとの無線通信が可能な無線通信部を備え、外部の距離センサにて検知された対象物までの距離を接続部又は無線通信部を介して取得する。例えば、衝突検知又は近接検知等を行うための距離センサが車両に搭載されている場合、この距離センサによる検知データがドライブレコーダー10に入力されるように構成してもよい。
記憶読出部16は、例えば記憶媒体16aの着脱が可能に構成してあり、装着された記憶媒体16aに対してデータの記憶処理(書き込み処理)及び読み出し処理を行う。記憶媒体16aは例えば、SD(Secure Digital)メモリカード、USB(Universal Serial Bus)メモリ等の可搬型記憶媒体である。記憶媒体16aはドライブレコーダー10に着脱可能である必要はないが、着脱可能に構成した場合、ドライブレコーダー10から取り外した記憶媒体16aを他の装置に装着することにより、記憶媒体16aに記憶したデータを他の装置で処理することができる。本実施形態のドライブレコーダー10では、カメラ13にて撮影した映像データ13a、加速度センサ14にて検知した加速度の検知データ14a、距離センサ15にて計測した距離の検知データ15aが逐次記憶媒体16aに記憶される。
入力部17は、ドライブレコーダー10を操作するユーザによる操作入力を受け付け、操作内容に対応した制御信号を制御部11へ送出する。通信部18は、有線通信又は無線通信によってインターネット等のネットワークに接続するためのインタフェースであり、ネットワークを介して他の装置との間で情報の送受信を行う。
本実施形態のドライブレコーダー10は、上述した構成のほかに、液晶ディスプレイ又は有機ELディスプレイ等の表示部を備えてもよく、表示部を備える場合、表示部及び入力部17を一体として構成したタッチパネルが設けられてもよい。また、ドライブレコーダー10は、記憶媒体16aに記憶する映像データ13aに対して所定の圧縮規格に従った圧縮処理及び伸張処理を行う圧縮伸張部、集音して音声データを取得するマイク、音声データ及び音楽データを出力するスピーカ等を備えてもよい。また、本実施形態のドライブレコーダー10において、記憶部12に記憶される制御プログラム12P及び各種のデータは、制御部11が通信部18を介して他の装置からダウンロードして記憶部12に記憶してもよく、制御部11が記憶読出部16にて記憶媒体16aから読み取って記憶部12に記憶してもよい。
上述した構成を有する本実施形態のドライブレコーダー10は、例えばドライブレコーダー10が搭載された車両のエンジンがオンされた場合に、カメラ13による撮影、加速度センサ14による加速度の検知、距離センサ15による距離の計測等の処理を開始する。なお、ドライブレコーダー10は、車両が走行を開始した場合、カメラ13による撮影の開始指示を受け付けた場合等に、上述した各処理を開始するように構成されていてもよく、上述した各処理を常時行うように構成されていてもよい。そして、ドライブレコーダー10は、例えば車両のエンジンがオフされた場合に、上述した各処理を終了する。なお、ドライブレコーダー10は、車両が走行を終了した場合、カメラ13による撮影の終了が指示された場合等に、上述した各処理を終了するように構成されていてもよい。
以下に、本実施形態のドライブレコーダー10による各種データの記憶処理について説明する。図2は、ドライブレコーダー10による記憶処理手順の一例を示すフローチャートである。以下の処理は、ドライブレコーダー10の記憶部12に記憶してある制御プログラム12Pに従って制御部11によって実行される。以下の処理の一部を専用のハードウェア回路で実現してもよい。
本実施形態のドライブレコーダー10は、例えば車両のエンジンがオンされた場合、又は撮影開始の指示を受け付けた場合等に、カメラ13による撮影等の各処理を実行する。よって、制御部11は、カメラ13による撮影等の各処理を実行すべきタイミングが到来したか否かを判断し(S11)、到来していないと判断した場合(S11:NO)、待機する。各処理を実行すべきタイミングが到来したと判断した場合(S11:YES)、制御部11は、カメラ13による撮影処理を開始し(S12)、加速度センサ14による加速度の検知処理を開始し(S13)、距離センサ15による距離の計測処理を開始する(S14)。これにより、カメラ13による撮影処理によって得られる映像データ13a、加速度センサ14による検知処理によって得られる加速度の検知データ14a、距離センサ15による計測処理によって得られる距離の検知データ15aのそれぞれが逐次記憶媒体16aに記憶される。なお、カメラ13は、撮影処理を終了するまで、例えば1秒間に60フレーム、30フレーム又は15フレームの映像データ13aの取得を継続する。加速度センサ14は、検知処理を終了するまで定期的に加速度の取得を継続し、距離センサ15は、計測処理を終了するまで定期的に距離の取得を継続する。なお、カメラ13が1フレームの映像データを取得するタイミング(例えば1秒間に60回、30回又は15回)で、加速度センサ14が加速度を検知し、距離センサ15が距離を計測した場合、1フレームの映像データ毎の加速度及び距離を取得できる。なお、映像データ13a、加速度の検知データ14a及び距離の検知データ15aは、各データの取得日時(撮影日時又は検知日時)に対応付けて記憶される。
本実施形態のドライブレコーダー10は、例えば車両のエンジンがオフされた場合、又は撮影終了の指示を受け付けた場合等に、カメラ13による撮影等の各処理を終了する。よって、制御部11は、カメラ13による撮影処理、加速度センサ14による検知処理、及び距離センサ15による計測処理を行いつつ、これらの処理を終了すべきタイミングが到来したか否かに応じ、処理を終了すべきか否かを判断する(S15)。処理を終了すべきでないと判断した場合(S15:NO)、制御部11は、カメラ13による撮影処理、加速度センサ14による検知処理、及び距離センサ15による計測処理を継続する。処理を終了すべきであると判断した場合(S15:YES)、制御部11は処理を終了する。具体的には、制御部11は、カメラ13による撮影処理、加速度センサ14による検知処理、距離センサ15による計測処理を終了する。
上述した処理により、ドライブレコーダー10は、車両の走行中にカメラ13で撮影した映像データ13a、加速度センサ14で検知した加速度の検知データ14a、距離センサ15で計測した距離の検知データ15aを記憶媒体16aに記憶することができる。このように映像データ13a等が記憶媒体16aに記憶されたドライブレコーダー10は、映像データ13aに、この車両に発生した事故(衝突)の状況が撮影されている場合に、映像データ13aから事故の状況が撮影された箇所を抽出する処理を行う。
なお、ドライブレコーダー10において、車両が物体に衝突した場合又は衝突しそうになった場合に衝突したこと又は衝突しそうになったことを入力するための入力ボタン(図示せず)を入力部17に設けておいてもよい。この場合、制御部11は、この入力ボタンを介して、車両が物体に衝突したこと又は衝突しそうになったことの通知を受け付け、通知を受け付けた日時を記憶しておく。これにより、車両が物体に衝突したタイミング(日時)又は衝突しそうになったタイミング(日時)をドライブレコーダー10に記憶させることができる。
以下に、本実施形態のドライブレコーダー10によって衝突の状況が撮影された箇所を抽出する処理について説明する。図3は、ドライブレコーダー10による撮影箇所の抽出処理手順の一例を示すフローチャート、図4は、撮影箇所の抽出処理を説明するための模式図である。以下の処理は、ドライブレコーダー10の記憶部12に記憶してある制御プログラム12Pに従って制御部11によって実行される。以下の処理の一部を専用のハードウェア回路で実現してもよい。
本実施形態のドライブレコーダー10において、記憶媒体16aに記憶された映像データ13aから、車両が物体に衝突した状況が撮影された箇所を抽出する場合、制御部11(衝突特定部)はまず、車両が衝突した可能性が高いタイミング(衝突時点の日時)があるか否かを検出する(S21)。例えば制御部11は、記憶媒体16aに記憶された加速度センサ14の検知データ14aに基づいて、加速度が所定閾値以上のタイミング(日時)があるか否かに応じて、車両が衝突した可能性が高いタイミングがあるか否かを推定する。所定閾値は、車両が物体に衝突した場合又は急ブレーキがかけられた場合に相当する加速度であり、予め記憶部12に記憶しておく。例えば車両の上下方向及び左右方向における加速度が共に所定閾値以上の値である場合、車両が物体に衝突した可能性が高いと判定できる。これに対して、上下方向及び左右方向における加速度の少なく一方が所定閾値未満の値である場合、車両が通常の走行状態である可能性が高いと判定できる。よって、制御部11は、車両の上下方向及び左右方向における加速度が共に所定閾値以上となった場合に、車両が物体に衝突した可能性が高いと推定する。
また制御部11は、記憶媒体16aに記憶された距離センサ15の検知データ15aに基づいて、物体(対象物)までの距離が所定閾値未満のタイミング(日時)があるか否かに応じて、車両が衝突した可能性が高いタイミングがあるか否かを判定してもよい。所定閾値は、例えば0であってもよく、車両が物体に衝突した場合に相当する距離であり、予め記憶部12に記憶しておく。よって、制御部11は、物体までの距離が所定閾値未満となった場合に、車両が物体に衝突した可能性が高いと推定する。また制御部11は、記憶媒体16aに記憶された映像データ13aに基づいて、車両が衝突したか否かを推定してもよい。この場合、例えば制御部11は、映像データ13aの各フレームに対して、物体を検出する処理を行い、検出した物体の領域(面積)が所定サイズ以上となった場合に、この物体に衝突した可能性が高いと判定する。なお、制御部11は、例えば機械学習によって衝突瞬間の映像(画像)を学習させた学習モデルを用いて、映像データ13aの各フレームが、車両が物体に衝突した瞬間の画像であるか否かを判定してもよい。また例えば車両に衝突検知センサが取り付けられている場合、制御部11は、衝突検知センサからの出力信号に基づいて、車両が衝突したか否かを判定してもよい。また例えば車両のドライバ等が衝突日時を把握している場合、ドライバ等が入力部17を介して衝突日時を入力してもよく、この場合、制御部11は入力部17を介して衝突タイミング(衝突日時)が入力されたか否かに応じて、車両が衝突したか否かを判定してもよい。なお、ドライバ等は入力部17を介して映像データ13a中の任意のフレームを指定することによって衝突日時を入力してもよい。また制御部11は、車両の走行中に入力部17を介して、車両が物体に衝突したこと又は衝突しそうになったことの通知を受け付け、車両が物体に衝突したタイミング(日時)又は衝突しそうになったタイミング(日時)を記憶している場合、車両が衝突したと判定してもよい。更に、制御部11は、上述した処理のいくつかを組み合わせて、車両が物体に衝突したか否かを判定してもよく、上述したいくつかの処理によって取得された衝突タイミング(衝突日時)を統合して衝突タイミングを特定してもよい。
制御部11は、衝突タイミング(衝突日時)を検出しないと判断した場合(S21:NO)、即ち、車両が衝突した可能性が高いタイミングがないと判断した場合、処理を終了する。制御部11は、衝突タイミング(衝突時点)を検出したと判断した場合(S21:YES)、即ち、車両が衝突した可能性が高いタイミングがあると判断した場合、検出した衝突タイミング(衝突日時)に対応するフレームを映像データ13aから抽出する(S22)。例えば図4A〜Cに示すフレームがA〜Cの順に撮影されたフレームであり、図4Cに示すフレームが衝突タイミングに撮影されたフレームである場合、制御部11は、図4Cに示すフレームを映像データ13aから抽出する。このとき制御部11は、衝突タイミング(衝突時点)に対応するフレームだけでなく、このフレームの前後数枚ずつのフレームも抽出してもよい。衝突時点の前後のフレームを抽出しておくことにより、衝突時点のフレームがぶれた映像であっても、前後のフレームを用いて以降の処理を行うことができる。
制御部11(物体検出部)は、抽出したフレームに対して物体検出処理を行い、フレーム中の物体を検出する(S23)。制御部11は、フレーム中に撮影された自動車(四輪車)、二輪車、自転車、人、ガードレール、信号機、電柱、壁等の物体を検出する。例えば制御部11は、検出すべき各物体について予め機械学習等で学習済みの判別モデルを用いて、フレーム中に、判別モデルで判別可能な物体が存在するか否かを検出してもよい。また制御部11は、テンプレートマッチング技術によって、フレーム中に含まれる物体を検出してもよい。この場合、検出すべき各物体の画像特徴量を示すテンプレートを予め記憶部12に記憶しておき、制御部11は、フレームに、いずれかのテンプレートに一致する領域が存在するか否かに応じて、物体が存在するか否かを検出してもよい。例えば図4Cに示すフレームの場合、制御部11は、フレーム中に車両C(物体)が存在することを検出する。なお、制御部11は、物体を検出した場合、図4Cに示すように、検出した物体の領域を囲む矩形のバウンディングボックス(図4C中の破線)にて物体を特定してもよく、また、検出した物体の領域の輪郭線(図4C中の実線)にて物体を特定してもよい。
衝突タイミングに対応するフレームには、車両(ドライブレコーダー10が搭載された車両)が衝突した物体が撮影されている可能性が高い。よって、ステップS22で抽出されたフレーム中には少なくとも1つの物体(衝突相手の物体)が撮影されている可能性が高く、制御部11は、このフレームから物体を検出できる。しかし、ステップS22で抽出したフレームに物体が含まれない場合、制御部11は、ステップS23でフレーム中に物体を検出できない。この場合、制御部11は例えば、このフレーム(物体を検出できなかったフレーム)の前後のフレームを映像データ13aから抽出し、抽出したフレームに対して物体検出処理を実行してもよい。このような構成とした場合、衝突タイミングに撮影された物体を確実に検出できる。また、衝突タイミングに対応するフレームは、ぶれた映像である可能性があり、この場合、ステップS22で衝突タイミングの前後のフレームも抽出していれば、抽出したフレーム中のより良好な画質のフレームに基づいて、フレーム中の物体を検出してもよい。
制御部11(特定部)は、フレーム中の物体を検出した後、検出(認識)した物体から、車両が衝突した可能性の高い物体(以下、衝突物体という)を特定する(S24)。例えば制御部11は、ステップS23で検出したフレーム中の物体のうちで、撮影領域(検出領域)が最大の物体を衝突物体に特定する。車両に最近接している物体は、他の物体よりも撮影領域が大きく撮影されるので、フレーム中の撮影領域の大きさに応じて衝突物体を特定できる。即ち、フレーム中の撮影領域の大きさによって、衝突物体までの距離が推定でき、衝突物体までの距離データは、映像データを解析することによって得られる、時系列における衝突物体の撮影領域の大きさの変化によって推定できる。また制御部11は、フレーム中の下側の位置に撮影されている物体を衝突物体に特定してもよい。例えば車両の前方を撮影範囲とするドライブレコーダー10では、車両の前面に最近接している物体は撮影画像(フレーム)の最も下側に撮影されるので、フレーム中の撮影位置に応じて衝突物体を特定できる。制御部11は、フレーム中の衝突物体を特定した場合、衝突物体を特定したフレームの撮影日時を特定し、特定した撮影日時を衝突タイミング(衝突日時)として記憶部12に記憶する(S25)。
次に制御部11(追跡部)は、記憶部12に記憶した衝突タイミングに対応するフレームから時間軸の逆方向(過去に遡る過去方向)に衝突物体の追跡処理を行う。具体的には、制御部11は、衝突タイミングに対応するフレームの直前のフレーム(以下では直前フレームという)を映像データ13aから抽出する(S26)。そして制御部11は、直前フレーム中の衝突物体を特定する(S27)。例えば制御部11は、ステップS24で特定した衝突物体の領域をフレームから抽出して追跡領域に設定しておき、設定した追跡領域が、ステップS26で抽出した直前フレーム中に含まれる箇所(領域)を特定する。なお、制御部11は、追跡領域における画像の特徴量を抽出し、特徴量に基づいて、直前フレーム中に含まれる追跡領域を特定してもよい。これにより、追跡領域(衝突物体)を時系列方向の逆方向(過去に遡る過去方向)に追跡する処理を行うことができる。
制御部11は、直前フレームにおける衝突物体(追跡領域)を特定した場合、特定した衝突物体の撮影領域(追跡領域)に基づいて、追跡処理を終了する条件を満たすか否かを判断する(S28)。例えば制御部11は、直前フレーム中に特定した衝突物体の撮影領域の大きさが所定値未満となった場合に、追跡処理を終了する条件を満たすと判断する。また制御部11は、直前フレーム中に特定した衝突物体の撮影領域が、他の物体に隠れた状態となった場合に、追跡処理を終了する条件を満たすと判断してもよい。なお、衝突物体が他の物体に隠れた状態となったか否かは、例えば衝突物体の領域を示すバウンディングボックス内に他の物体が含まれるか否か(進入したか否か)に応じて判断してもよい。また制御部11は、直前フレームの撮影タイミング(撮影日時)における距離センサ15の検知データ15aを抽出し、撮影タイミングにおける衝突物体までの距離が所定距離以上(所定値以上)となった場合に、追跡処理を終了する条件を満たすと判断してもよい。
制御部11は、追跡処理を終了する条件を満たしていないと判断した場合(S28:NO)、ステップS26の処理に戻り、ステップS26〜S28の処理を繰り返す。具体的には、制御部11は、直近のステップS26で抽出した直前フレームに対して更に直前のフレームを映像データ13aから抽出し(S26)、抽出した直前フレーム中の衝突物体を特定する(S27)。ここでは、制御部11は、直近のステップS27で特定した衝突物体の領域を追跡領域として設定し、設定した追跡領域が、ステップS26で新たに抽出した直前フレーム中に含まれる箇所を特定する。そして制御部11は、新たに抽出した直前フレームにおける衝突物体(追跡領域)を特定した場合、特定した衝突物体の撮影領域(追跡領域)に基づいて、追跡処理を終了する条件を満たすか否かを判断する(S28)。
制御部11は、追跡処理を終了する条件を満たすと判断するまで、ステップS26〜S28の処理を繰り返す。追跡処理を終了する条件を満たすと判断した場合(S28:YES)、制御部11は、ここでのフレーム(即ち、追跡処理を終了する条件を満たすと判断したフレーム)の撮影日時を、衝突前タイミング(衝突が発生する前の日時)として記憶部12に記憶する(S29)。制御部11は、ステップS26〜S28の処理を繰り返すことにより、衝突物体との衝突が発生する前の所定のタイミング(例えば車両から衝突物体までの距離が所定距離以上であるタイミング)まで衝突物体の追跡処理を行うことができ、衝突前タイミングを特定することができる。
上述した処理により、衝突物体との衝突が発生したタイミング(衝突日時)と、衝突が発生する前の所定のタイミング(衝突前タイミング)の日時とを特定することができる。よって、制御部11は、ステップS29で記憶部12に記憶した衝突前タイミングから、ステップS25で記憶部12に記憶した衝突日時までの時間(期間)に対応するフレームを、衝突の状況を撮影した衝突撮影フレームとして映像データ13aから抽出する(S30)。例えば図4Aに示すフレームが、追跡処理を終了する条件を満たしたフレームである場合、即ち、衝突前タイミングに対応するフレームである場合、制御部11は、図4Aに示すフレームから図4Cに示すフレームまでの複数のフレームを抽出する。このように抽出された衝突撮影フレームは、例えば通信部18を介して外部の装置へ送信され、又は記憶媒体16aに記憶され、記憶媒体16aを介して外部の装置に入力される。なお、制御部11は、ステップS21で、車両が衝突した可能性が高いタイミング(日時)を複数検出した場合、それぞれ検出したタイミングについて、ステップS22〜S30の処理を行うことにより、それぞれの衝突撮影フレームを抽出してもよい。
上述した処理により、ドライブレコーダー10は、車両の走行中にカメラ13で撮影した映像データ13a、加速度センサ14で検知した加速度の検知データ14a、距離センサ15で計測した距離の検知データ15aに基づいて、車両が物体に衝突したタイミングを特定することができる。また、ドライブレコーダー10は、特定した衝突タイミングから、時間軸の逆方向(過去に遡る方向)のフレームに対して衝突物体を追跡処理することにより、衝突前の所定のタイミングまで遡ることができ、衝突前の所定のタイミングから、衝突が発生した衝突タイミングまでの衝突撮影フレームを抽出することができる。よって、ユーザが煩雑な作業を行うことなく、ドライブレコーダー10による撮影映像から、ドライブレコーダー10が搭載された車両に発生した事故(衝突)の状況が撮影されている箇所(衝突撮影フレーム)を抽出することができる。このような衝突撮影フレームは、衝突相手との衝突までの状況を把握する際に用いることができる。従って、衝突の状況を把握する際に、ドライブレコーダー10の録画映像(映像データ13a)から、衝突の瞬間が撮影された箇所を探し出すための操作負担を削減できる。また、衝突撮影フレームは、映像データ(画像データ)が入力された場合に、衝突物体に衝突した瞬間の画像であるか否かを判別する学習モデルを学習させる際の教師データに用いることができる。
本実施形態において、ドライブレコーダー10が、車両の走行中に撮影した映像データ13a、加速度センサ14による検知データ14a、距離センサ15による検知データ15aに基づいて、車両が物体に衝突したタイミングを特定し、特定した衝突タイミングに基づいて衝突撮影フレームを抽出する構成に限定されない。例えばドライブレコーダー10が記憶媒体16aに記憶した映像データ13a、加速度センサ14の検知データ14a、距離センサ15の検知データ15aを、通信部18又は記憶媒体16a経由で他の装置に入力し、他の装置が、映像データ13a、加速度センサ14の検知データ14a、距離センサ15の検知データ15aに基づいて、車両が物体に衝突したタイミングを特定し、特定した衝突タイミングに基づいて衝突撮影フレームを抽出する処理を行う構成でもよい。この場合にも、ドライブレコーダー10による大量の撮影映像からドライブレコーダー10が搭載された車両に発生した事故(衝突)の状況が撮影されている箇所(フレーム)を抽出することができる。なお、他の装置は、例えばクラウドサーバ、車両内に搭載された車載コンピュータ等を用いることができる。車載コンピュータを用いる場合、車両に設けられたカメラ、加速度センサ、距離センサからの出力データが車載コンピュータに入力されるように構成してもよい。これにより、カメラで撮影した映像データ、加速度センサで検知した加速度データ、距離センサで計測した距離データに基づいて、車載コンピュータが、車両が物体に衝突したタイミングを特定し、特定した衝突タイミングに対応する衝突撮影フレームを生成できる。また、本実施形態の構成は、ドライブレコーダー10のほかに、カメラ及び加速度センサを備えたスマートフォンに適用できる。スマートフォンに適用した場合、スマートフォンのカメラで例えば車両の前方を撮影した映像データと、加速度センサで検知した加速度とを蓄積し、車両が物体に衝突したタイミングに基づく衝突撮影フレームを生成する構成を実現できる。
本実施形態のドライブレコーダー10において、例えば加速度センサ14による検知データ14a、距離センサ15による検知データ15a等に基づいて、車両が衝突物体と衝突したことを検出するように構成し、衝突の発生を検出した場合に、検出時点から所定時間遡った日時までの期間の映像データ13a及び検知データ14a,15aを自動的に抽出して所定のサーバに送信するように構成してもよい。この場合、衝突が発生した時点で、それまでにドライブレコーダー10で撮影した映像データ13a、加速度センサ14で検知した検知データ14a、距離センサ15で検知した検知データ15aが、所定のサーバに確保されるので、衝突の発生後に映像データ13a及び検知データ14a,15aが改ざん又は削除されることを防止できる。
(実施形態2)
カメラ13で撮影した映像データ13aから抽出した衝突撮影フレームに対して、各フレーム中の衝突物体にマークを付加するアノテーション処理を行うドライブレコーダーについて説明する。本実施形態のドライブレコーダーは、実施形態1のドライブレコーダー10と同様の構成を有するので、構成についての説明は省略する。また、本実施形態のドライブレコーダー10は、図2に示す処理と同様の処理を行う。これにより、本実施形態のドライブレコーダー10においても、車両の走行中にカメラ13で撮影した映像データ13a、加速度センサ14で検知した加速度の検知データ14a、距離センサ15で計測した距離の検知データ15aが記憶媒体16aに記憶される。
図5は、実施形態2のドライブレコーダー10による撮影箇所の抽出処理手順の一例を示すフローチャート、図6は、撮影箇所の抽出処理を説明するための模式図である。図5に示す処理は、図3に示す処理において、ステップS25の代わりにステップS41〜S42を追加し、ステップS27,S28の間にステップS43〜S44を追加し、ステップS29〜S30を削除したものである。図3と同じステップについては説明を省略する。以下の処理においても一部を専用のハードウェア回路で実現してもよい。
本実施形態のドライブレコーダー10において、制御部11は、図3中のステップS21〜S24と同様の処理を行う。これにより、制御部11は、ドライブレコーダー10が搭載された車両が衝突物体と衝突した可能性が高い衝突タイミングを検出することができ、衝突タイミングに対応するフレームから衝突相手の物体(衝突物体)を特定することができる。制御部11は、衝突タイミングに対応するフレーム中の衝突物体を特定した後、このフレームに対して、衝突物体を示すマークを付加するアノテーション処理を行う(S41)。なお、制御部11(付加部)は、フレーム中の衝突物体を特定した場合、例えばフレーム中の衝突物体の位置及び領域を示すメタデータを生成し、フレームに対してメタデータを付加する。これにより、制御部11は、衝突タイミングに対応するフレームに対して、衝突物体にマークを付加することができる。例えば図6Cに示すように、制御部11は、フレーム中の衝突物体の領域を覆うように、フレーム中の衝突物体に縁取りを付加する。また、制御部11は、フレーム中の衝突物体を囲むバウンディングボックスを付加してもよく、このようにフレーム中の衝突物体にマークを付加することにより、フレーム中のどの物体が衝突物体であることを明示することができる。
制御部11は、衝突物体を示すマークを付加したフレームの撮影日時を特定し、マークを付加したフレームと、特定した撮影日時とを記憶部12に記憶する(S42)。次に制御部11は、図3中のステップS26〜S27と同様の処理を行い、マークを付加したフレームの直前のフレームを抽出し(S26)、直前フレーム中の衝突物体を特定する(S27)。これにより、マークを付加したフレームから時間軸の逆方向(過去に遡る方向)に衝突物体の追跡処理を行うことができる。そして制御部11は、直前フレームに対して、衝突物体を示すマークを付加し(S43)、マークを付加した直前フレームと、直前フレームの撮影日時とを記憶部12に記憶する(S44)。ここでも、制御部11は、特定した直前フレーム中の衝突物体に縁取り又はバウンディングボックス等のマークを付加する。
そして制御部11は、マークを付加した直前フレームにおける衝突物体の撮影領域(追跡領域)に基づいて、追跡処理を終了する条件を満たすか否かを判断し(S28)、追跡処理を終了する条件を満たしていないと判断した場合(S28:NO)、ステップS26の処理に戻り、ステップS26〜S27,S43〜S44及びS28の処理を繰り返す。これにより、時間軸の逆方向(過去に遡る方向)に各フレーム中の衝突物体を追跡することができ、追跡した各フレーム中の衝突物体にマークを付加することができ、衝突物体にマークを付加したフレームを記憶部12に記憶することができる。追跡処理を終了する条件を満たすと判断した場合(S28:YES)、制御部11は処理を終了する。
上述した処理により、ドライブレコーダー10は、車両が物体と衝突したタイミングから、時間軸の逆方向に、衝突物体と衝突する前の所定タイミング(追跡処理の終了条件を満たすフレームの撮影タイミング)まで各フレーム中の衝突物体を追跡することができる。そして、ドライブレコーダー10は、衝突物体を追跡した各フレーム(衝突の状況が撮影された衝突撮影フレーム)を抽出することができ、抽出した各フレーム中の衝突物体にマークを付加した衝突撮影フレームを生成することができる。例えば図6Aに示すフレームが、衝突物体との衝突前の所定タイミングに撮影されたフレームであり、図6Cに示すフレームが、衝突タイミングに撮影されたフレームであり、図6Bに示すフレームが、その中間のタイミングで撮影されたフレームであるとする。この場合、ドライブレコーダー10は、図6Aに示すフレームから図6Cに示すフレームまでの複数のフレームを抽出し、それぞれのフレーム中の衝突物体にマークを付加した衝突撮影フレームを生成する。
本実施形態においても、ドライブレコーダー10が生成した衝突撮影フレームは、例えば通信部18を介して外部の装置へ送信され、又は記憶媒体16aを介して外部の装置に入力することができる。また、本実施形態においても、制御部11は、ステップS21で、車両が衝突した可能性が高いタイミングを複数検出した場合、それぞれ検出したタイミングについて、上述した処理を行うことにより、それぞれの衝突撮影フレームを抽出してもよい。
本実施形態では、上述した実施形態1と同様の効果が得られる。また本実施形態では、カメラ13で撮影した映像データ13aから抽出された衝突撮影フレームに、各フレーム中の衝突物体にマークを付加できるので、フレーム中の衝突物体を把握し易い衝突撮影フレームを生成できる。本実施形態のドライブレコーダー10においても、実施形態1で適宜説明した変形例の適用が可能である。例えば、ドライブレコーダー10が取得した映像データ13a、加速度センサ14の検知データ14a、距離センサ15の検知データ15aに基づいて、車両が物体に衝突したタイミングを特定し、特定した衝突タイミングに基づいて衝突撮影フレームを抽出する処理を他の装置が実行するように構成してもよい。また、ドライブレコーダー10を、ドライブレコーダー10が搭載された車両が衝突物体と衝突したことを検出するように構成し、衝突の発生を検出した場合に、検出時点から所定時間遡った日時までの期間の映像データ13a及び検知データ14a,15aを自動的に抽出して所定のサーバ(他の装置)に送信するように構成してもよい。
(実施形態3)
衝突タイミングから時間軸の逆方向(過去に遡る方向)のフレームだけでなく、時間軸の順方向(時間の経過方向)のフレームについても衝突物体の追跡処理を行うドライブレコーダーについて説明する。本実施形態のドライブレコーダーは、実施形態1のドライブレコーダー10と同様の構成を有するので、構成についての説明は省略する。また、本実施形態のドライブレコーダー10は、図2に示す処理と同様の処理を行う。これにより、本実施形態のドライブレコーダー10においても、車両の走行中にカメラ13で撮影した映像データ13a、加速度センサ14で検知した加速度の検知データ14a、距離センサ15で計測した距離の検知データ15aが記憶媒体16aに記憶される。
図7は、実施形態3のドライブレコーダー10による撮影箇所の抽出処理手順の一例を示すフローチャート、図8は、撮影箇所の抽出処理を説明するための模式図である。図7に示す処理は、図3に示す処理において、ステップS29,S30の間にステップS51〜S54を追加したものである。図3と同じステップについては説明を省略する。以下の処理においても一部を専用のハードウェア回路で実現してもよい。
本実施形態のドライブレコーダー10において、制御部11は、図3中のステップS21〜S29と同様の処理を行う。これにより、制御部11は、ドライブレコーダー10が搭載された車両が衝突物体と衝突した可能性が高い衝突タイミングを検出し、検出した衝突タイミングから、衝突発生前の所定タイミング(衝突前タイミング)まで、時間軸の逆方向のフレームに対して衝突物体を追跡処理する。よって、制御部11は、衝突発生前の所定タイミング(追跡処理の終了条件を満たすタイミング)を衝突前タイミングとして特定できる。
次に制御部11は、ステップS25で記憶部12に記憶した衝突タイミングに対応するフレームから時間軸の順方向(時系列方向)に衝突物体の追跡処理を行う。具体的には、制御部11は、衝突タイミングに対応するフレームの直後のフレーム(以下では直後フレームという)を映像データ13aから抽出する(S51)。そして制御部11は、直後フレーム中の衝突物体を特定する(S52)。ここでは、制御部11は、ステップS27と同様の処理によって、直後フレーム中の衝突物体の領域を特定する。これにより、制御部11は、衝突物体を時系列方向の順方向に追跡することができる。
制御部11は、直後フレームにおいて特定した衝突物体の撮影領域(追跡領域)に基づいて、追跡処理を終了する条件を満たすか否かを判断する(S53)。ここでは、制御部11は、ステップS28と同様の処理によって判断する。即ち、衝突物体までの距離が所定距離以上となった場合、又は、衝突物体の撮影領域が他の物体に隠れた状態となった場合に、追跡処理を終了する条件を満たすと判断できる。また制御部11は、衝突物体が撮影範囲内に存在しなくなった場合、又は、衝突タイミングから所定時間が経過した場合に、追跡処理を終了する条件を満たすと判断してもよい。
制御部11は、追跡処理を終了する条件を満たしていないと判断した場合(S53:NO)、ステップS51の処理に戻り、ステップS51〜S53の処理を繰り返す。具体的には、制御部11は、直近のステップS51で抽出した直後フレームに対して更に直後のフレームを映像データ13aから抽出し(S51)、抽出した直後フレーム中の衝突物体を特定する(S52)。制御部11は、追跡処理を終了する条件を満たすと判断するまで、ステップS51〜S53の処理を繰り返し、追跡処理を終了する条件を満たすと判断した場合(S53:YES)、ここでのフレーム(即ち、追跡処理を終了する条件を満たすと判断した直後フレーム)の撮影日時を、衝突後タイミング(衝突が発生した後の日時)として記憶部12に記憶する(S54)。制御部11は、ステップS51〜S53の処理を繰り返すことにより、衝突物体との衝突が発生した後の所定のタイミング(例えば衝突物体が撮影範囲内に存在しなくなったタイミング)まで衝突物体の追跡処理を行うことができ、衝突後タイミングを特定することができる。
上述した処理により、本実施形態では、衝突物体との衝突が発生する前の所定のタイミング(衝突前タイミング)の日時と、衝突が発生した後の所定のタイミング(衝突後タイミング)とを特定することができる。よって、制御部11は、ステップS29で記憶部12に記憶した衝突前タイミングから、ステップS54で記憶部12に記憶した衝突後タイミングまでの時間(期間)に対応するフレームを、衝突の状況を撮影した衝突撮影フレームとして映像データ13aから抽出し(S30)、処理を終了する。例えば図8Aに示すフレームが衝突前タイミングで撮影されたフレームであり、図8Cに示すフレームが衝突タイミングで撮影されたフレームであり、図8Dに示すフレームが衝突後タイミングで撮影されたフレームであるとする。この場合、制御部11は、図8Aに示すフレームから図8Dに示すフレームまでの複数のフレームを抽出する。
上述した処理により、本実施形態のドライブレコーダー10は、車両が物体と衝突したタイミングから、時間軸の逆方向に衝突前の所定タイミングまで各フレーム中の衝突物体を追跡すると共に、時間軸の順方向に衝突後の所定タイミングまで各フレーム中の衝突物体を追跡する。そして、ドライブレコーダー10は、衝突物体を追跡した各フレームを、衝突の状況が撮影された衝突撮影フレームとして抽出することができる。これにより、車両が物体と衝突する前から、車両が物体と衝突した後までの状況を撮影した衝突撮影フレームを抽出できる。
本実施形態においても、ドライブレコーダー10が生成した衝突撮影フレームは、例えば通信部18を介して外部の装置へ送信され、又は記憶媒体16aを介して外部の装置に入力することができる。また、本実施形態においても、制御部11は、ステップS21で、車両が衝突した可能性が高いタイミングを複数検出した場合、それぞれ検出したタイミングについて、上述した処理を行うことにより、それぞれの衝突撮影フレームを抽出してもよい。本実施形態の構成は、上述した実施形態2のドライブレコーダー10にも適用できる。実施形態2のドライブレコーダー10に適用した場合、車両が物体と衝突する前から、車両が物体と衝突した後までの衝突撮影フレームにおいて、各フレーム中の衝突物体にマークが付加された衝突撮影フレームを生成できる。
本実施形態では、上述した各実施形態と同様の効果が得られる。また本実施形態では、車両が物体と衝突する前から衝突するまでのフレームに加えて、車両が物体と衝突してから所定時間までのフレームも抽出するので、衝突前の状況だけでなく衝突後の状況も把握できる衝突撮影フレームを生成できる。本実施形態のドライブレコーダー10においても、上述した各実施形態で適宜説明した変形例の適用が可能である。なお、ドライブレコーダー10を、ドライブレコーダー10が搭載された車両が物体と衝突したことを検出するように構成し、衝突の発生を検出した場合に、映像データ13a及び検知データ14a,15aを自動的に抽出して他の装置に送信するように構成する場合、衝突発生時点から所定時間遡った日時から、衝突発生時点から所定時間経過した日時までの期間の映像データ13a及び検知データ14a,15aを他の装置に送信するように構成してもよい。
(実施形態4)
上述した実施形態1〜3のドライブレコーダー10は、近赤外光又は赤外光等の光を用いて車両の周囲の対象物までの距離を計測する距離センサ15を備える構成であった。このような距離センサ15に加えて、又は距離センサ15の代わりに、ミリ波レーダー又は超音波センサを用いて距離を計測するように構成された距離センサを備えるドライブレコーダーについて説明する。距離センサ以外の構成は、実施形態1〜3のドライブレコーダー10と同様の構成であるので、構成についての説明は省略する。なお、ミリ波レーダー又は超音波センサによって構成された距離センサを備えるドライブレコーダー10においても、上述した実施形態1〜3の各ドライブレコーダー10と同様の処理を実行でき、同様の効果が得られる。
ミリ波レーダーは、例えば77GHz、79GHz等の周波数帯の電波を送信する送信器と、送信器が送信した電波の対象物による反射波を受信する受信器とを有し、受信した反射波に基づいて対象物までの距離を計測する距離センサである。超音波センサは、超音波を発信する送波器と、送波器が送信した超音波の対象物による反射波を受信する受波器とを有し、超音波の発信から反射波の受信までに要した時間に基づいて対象物までの距離を計測するセンサである。ミリ波レーダー又は超音波センサは、例えば車両の前方、後方、左側、右側、又は周囲の対象物までの距離を計測するように設けられる。以下では、代表してミリ波レーダーを備える構成について説明するが、超音波センサを備える場合であっても同様の処理が可能である。
ミリ波レーダーを備える本実施形態のドライブレコーダー10は、図2に示す処理と同様の処理を行う。なお、図2中のステップS14において、制御部11は、ミリ波レーダーによる距離の計測処理を開始する。即ち、制御部11(取得部)は、ミリ波レーダーを用いて、車両の周囲の対象物までの距離を計測することによって時系列の距離データを取得する。これにより、本実施形態のドライブレコーダー10においても、車両の走行中にカメラ13による映像データ13a、加速度センサ14による検知データ14a、ミリ波レーダーによる計測処理によって得られる距離データが逐次記憶媒体16aに記憶される。なお、ミリ波レーダーは、計測処理を終了するまで定期的に距離の検知を継続し、距離の検知データは検知日時に対応付けて記憶される。
また、本実施形態のドライブレコーダー10は、図3に示す処理と同様の処理を行う。なお、図3中のステップS22において、制御部11は、車両が衝突した可能性が高い衝突タイミング(衝突日時)に検知された距離データを、記憶媒体16aに記憶された距離データから抽出する。そして、ステップS23において、制御部11(物体検出部)は、抽出した距離データに対して物体検出処理を行い、距離データ中の物体を検出する。なお、ミリ波レーダーによって検知された距離データによれば、周囲の物体の形状及びサイズを特定できる。ここでも、制御部11は、検出すべき各物体について予め機械学習等で学習済みの判別モデルを用いて、距離データ中に、判別モデルで判別可能な物体が存在するか否かを検出してもよく、テンプレートマッチング技術によって、距離データ中に含まれる物体を検出してもよい。更に、ステップS24において、制御部11(特定部)は、距離データ中に検出した物体から衝突物体を特定する。
本実施形態のドライブレコーダー10では、制御部11(追跡部)は、ミリ波レーダーによる距離データに対して、ステップS26〜S28の処理を繰り返すことにより、距離データに対して、衝突タイミングから時間軸の逆方向に衝突物体の追跡処理を行うことができる。よって、本実施形態においても、衝突タイミングから、衝突物体との衝突が発生する前の所定のタイミング(例えば車両から衝突物体までの距離が所定距離以上であるタイミング)まで衝突物体を追跡することができる。従って、本実施形態では、ユーザが煩雑な作業を行うことなく、ミリ波レーダーによって検知した距離データに基づいて、衝突前タイミングから衝突タイミングまでの期間にミリ波レーダーによって検知された距離データを抽出することができる。このように抽出された距離データによっても、衝突相手との衝突までの状況を把握することができる。従って、衝突の状況を把握する際に、ドライブレコーダー10(ミリ波レーダー)による検知データ(距離データ)から、衝突の瞬間に検知された箇所を探し出すための操作負担を削減できる。また、このように抽出された距離データも、距離データが入力された場合に、衝突物体に衝突した瞬間の距離データであるか否かを判別する学習モデルを学習させる際の教師データに用いることができる。
本実施形態のドライブレコーダー10では、上述した処理を行う場合、カメラ13、加速度センサ14、近赤外光又は赤外光等の光を用いて距離を計測する距離センサ15を備えていなくてもよい。この場合、ミリ波レーダーによる距離データに基づいて、衝突タイミング及び衝突前タイミングを検知し、衝突前タイミングから衝突タイミングまでの期間にミリ波レーダーによって検知された距離データを提供できる。なお、本実施形態のドライブレコーダー10は、ミリ波レーダーによる距離データに基づいて衝突タイミング及び衝突前タイミングを特定した後、カメラ13で撮影した映像データ13aから、特定した衝突前タイミングから衝突タイミングまでの期間におけるフレーム(衝突撮影フレーム)を抽出する構成とすることもできる。
本実施形態の構成は、上述した実施形態2,3のドライブレコーダー10にも適用できる。実施形態2のドライブレコーダー10に適用した場合、ミリ波レーダーによる距離データから抽出された、衝突の前後に検知された距離データにおいて、距離データ中の衝突物体にマークを付加することができ、衝突物体を把握し易い距離データを生成できる。また、実施形態3のドライブレコーダー10に適用した場合、車両が衝突物体と衝突する前から衝突した後までの距離データを抽出でき、衝突前の状況だけでなく衝突後の状況も把握できる距離データを生成できる。
今回開示された実施の形態はすべての点で例示であって、制限的なものではないと考えられるべきである。本発明の範囲は、上記した意味ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。
10 ドライブレコーダー
11 制御部
12 記憶部
13 カメラ
14 加速度センサ
15 距離センサ
16 記憶読出部
17 入力部
16a 記憶媒体

Claims (8)

  1. 車両から該車両の周囲の物体を撮影して得られた映像データ、及び/又は、車両から該車両の周囲の物体までの距離を計測する距離センサによる計測データから物体を検出する物体検出部と、
    前記映像データを解析し、及び/又は、前記計測データを用いることにより得られる距離データを時系列に複数取得する取得部と、
    前記車両の物体との衝突時点を推定及び/又は取得する衝突特定部と、
    前記距離データに基づいて、衝突時点における前記車両に最近接している衝突物体を特定する特定部と、
    前記衝突時点からの各時間におけるデータの前記衝突物体を衝突時点のデータを基に特定して追跡する追跡部と
    を備える情報処理装置。
  2. 前記追跡部は、前記衝突時点から過去方向の各時間におけるデータの前記衝突物体を追跡する
    請求項1に記載の情報処理装置。
  3. 前記追跡部が前記衝突物体を追跡する各時間におけるデータに対して、前記衝突物体を示すメタデータを付加する付加部
    を更に備える請求項1又は2に記載の情報処理装置。
  4. 前記距離データは、前記映像データから認識した物体の時系列における大きさの変化により推定する
    請求項1から3までのいずれかひとつに記載の情報処理装置。
  5. 前記衝突特定部は、前記車両に取り付けられたセンサにより前記衝突時点を取得する
    請求項1から4までのいずれかひとつに記載の情報処理装置。
  6. 前記追跡部は、前記各時間におけるデータにおける前記衝突物体の大きさが所定値未満となった場合、又は前記各時間におけるデータに基づく前記衝突物体までの距離が所定値以上となった場合、前記衝突物体の追跡を終了する
    請求項1から5までのいずれかひとつに記載の情報処理装置。
  7. 車両から該車両の周囲の物体を撮影して得られた映像データ、及び/又は、車両から該車両の周囲の物体までの距離を計測する距離センサによる計測データから物体を検出し、
    前記映像データを解析し、及び/又は、前記計測データを用いることにより得られる距離データを時系列に複数取得し、
    前記車両の物体との衝突時点を推定及び/又は取得し、
    前記距離データに基づいて、衝突時点における前記車両に最近接している衝突物体を特定し、
    前記衝突時点からの各時間におけるデータの前記衝突物体を衝突時点のデータを基に特定して追跡する
    処理を情報処理装置が実行する情報処理方法。
  8. 車両から該車両の周囲の物体を撮影して得られた映像データ、及び/又は、車両から該車両の周囲の物体までの距離を計測する距離センサによる計測データから物体を検出し、
    前記映像データを解析し、及び/又は、前記計測データを用いることにより得られる距離データを時系列に複数取得し、
    前記車両の物体との衝突時点を推定及び/又は取得し、
    前記距離データに基づいて、衝突時点における前記車両に最近接している衝突物体を特定し、
    前記衝突時点からの各時間におけるデータの前記衝突物体を衝突時点のデータを基に特定して追跡する
    処理を情報処理装置に実行させるプログラム。
JP2019196471A 2019-10-29 2019-10-29 情報処理装置、情報処理方法及びプログラム Pending JP2021071780A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019196471A JP2021071780A (ja) 2019-10-29 2019-10-29 情報処理装置、情報処理方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019196471A JP2021071780A (ja) 2019-10-29 2019-10-29 情報処理装置、情報処理方法及びプログラム

Publications (1)

Publication Number Publication Date
JP2021071780A true JP2021071780A (ja) 2021-05-06

Family

ID=75713100

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019196471A Pending JP2021071780A (ja) 2019-10-29 2019-10-29 情報処理装置、情報処理方法及びプログラム

Country Status (1)

Country Link
JP (1) JP2021071780A (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004224105A (ja) * 2003-01-21 2004-08-12 Matsushita Electric Ind Co Ltd ドライブレコーダ装置
JP2014134912A (ja) * 2013-01-09 2014-07-24 Fujitsu Ten Ltd 再生装置、再生システム、再生方法及びプログラム
JP2016057490A (ja) * 2014-09-10 2016-04-21 スズキ株式会社 運転支援システム
JP2016215786A (ja) * 2015-05-19 2016-12-22 株式会社デンソー 保護制御装置
JP2019169191A (ja) * 2019-06-12 2019-10-03 株式会社Jvcケンウッド 画像記録装置、画像記録方法および画像記録プログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004224105A (ja) * 2003-01-21 2004-08-12 Matsushita Electric Ind Co Ltd ドライブレコーダ装置
JP2014134912A (ja) * 2013-01-09 2014-07-24 Fujitsu Ten Ltd 再生装置、再生システム、再生方法及びプログラム
JP2016057490A (ja) * 2014-09-10 2016-04-21 スズキ株式会社 運転支援システム
JP2016215786A (ja) * 2015-05-19 2016-12-22 株式会社デンソー 保護制御装置
JP2019169191A (ja) * 2019-06-12 2019-10-03 株式会社Jvcケンウッド 画像記録装置、画像記録方法および画像記録プログラム

Similar Documents

Publication Publication Date Title
CN105512632B (zh) 活体检测方法及装置
JP6853494B2 (ja) ドライブレコーダ
JP4391839B2 (ja) 撮影条件設定プログラム、撮影条件設定方法および撮影条件設定装置
JP6817531B2 (ja) 運転状況記録装置
US11651594B2 (en) Systems and methods of legibly capturing vehicle markings
US9158738B2 (en) Apparatus for monitoring vicinity of a vehicle
US9020696B2 (en) Event data recorder having traffic monitoring and warning function within safe range
JP2019220084A (ja) 解析装置、車載器、及びパターン解析補助装置
JP4445493B2 (ja) 運転支援装置
CN114764912A (zh) 驾驶行为识别方法、设备和存储介质
JP6063189B2 (ja) ドライブレコーダ
CN114387780A (zh) 车辆损坏识别和事故管理***和方法
JP5743580B2 (ja) ドライブレコーダ装置
JP2018124825A (ja) ドライブレコーダ、画像記録方法及び監視装置
JP2021071780A (ja) 情報処理装置、情報処理方法及びプログラム
KR20180022405A (ko) 주행 중 신고 방법 및 시스템
JP2020140457A (ja) 衝突判定サーバ、プログラム及び記録媒体
GB2539646A (en) Image capture device and associated method
CN113034724B (zh) 信息记录与再现装置、非暂时性存储介质和信息记录与再现***
JP2009181429A (ja) 位置方向推定システム、情報処理装置、位置方向推定方法、プログラム、及び記録媒体
TWI363709B (ja)
JP5085693B2 (ja) 運転支援装置および運転支援方法
JP2017107411A (ja) ドライビングレコーダ、ドライビングレコーダ用プログラム、及び走行管理システム
JP5139480B2 (ja) 運転支援装置、運転支援システム、運転支援ソフトおよび運転支援方法
JP4719605B2 (ja) 対象物検出用データ生成装置、方法及びプログラム並びに対象物検出装置、方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220826

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230703

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230801

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20240213