JP7112191B2 - 画像処理装置及び画像処理方法 - Google Patents

画像処理装置及び画像処理方法 Download PDF

Info

Publication number
JP7112191B2
JP7112191B2 JP2017205386A JP2017205386A JP7112191B2 JP 7112191 B2 JP7112191 B2 JP 7112191B2 JP 2017205386 A JP2017205386 A JP 2017205386A JP 2017205386 A JP2017205386 A JP 2017205386A JP 7112191 B2 JP7112191 B2 JP 7112191B2
Authority
JP
Japan
Prior art keywords
vehicle
image
contact
appearance
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017205386A
Other languages
English (en)
Other versions
JP2019080158A (ja
Inventor
史晃 板東
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2017205386A priority Critical patent/JP7112191B2/ja
Publication of JP2019080158A publication Critical patent/JP2019080158A/ja
Application granted granted Critical
Publication of JP7112191B2 publication Critical patent/JP7112191B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Time Recorders, Dirve Recorders, Access Control (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Emergency Alarm Devices (AREA)
  • Alarm Systems (AREA)

Description

本発明は、画像処理装置及び画像処理方法に関する。
近年、車両に対するセキュリティー機能が種々提案されている。例えば、窓ガラスを割られるなどの危害が車両に加えられた場合に、サイレン等の警報を鳴らしたり、ランプ等を点滅させたりする装置が車両に搭載される。さらに、例えば特許文献1では、車両に対して接近者を検知した場合に、車載カメラで接近者を撮影し、その画像を車両の所有者の携帯端末に送信するセキュリティー機能が提案されている。
特開2011-207444号公報
しかしながら、従来技術のように車内視点で車両に接近する人や他の物体を撮影する場合、車両に人や他の物体が接近し、接触された車両の部分の外観を詳細に把握することができない虞があることに課題があった。したがって、車両に危害が加えられた際に、車両に接近する人や他の物体を画像として記録しても、その画像を有効に活用できないことが懸念された。
本発明は、上記の課題に鑑みなされたものであり、車両に危害が加えられた際に、状況把握や事後対応において有効な画像を得ることを可能とする技術を提供することを目的とする。
本発明に係る画像処理装置は、少なくとも車両の室外に搭載されて前記車両の全周囲を撮像する車載カメラで撮影された撮影画像を処理する画像処理装置であって、前記車載カメラが搭載された前記車両の内部に乗員がいないことを検出した場合に、前記車両への外部からの接触を予測または検出する接近検出部と、前記車両の外部の所定位置を視点位置とし、前記視点位置から見た前記接触の位置の方向を視線方向とし、前記車両の像を含む前記車両の外観画像を生成する画像生成部と、前記外観画像を外部装置に対して送信する通信部と、を備え、前記接近検出部が前記車両への前記接触を予測した場合に、前記画像生成部が前記外観画像を生成し、さらに、前記接近検出部が前記車両への前記接触を検出した場合に、前記通信部が当該外観画像を前記外部装置に対して送信する構成(第1の構成)である。
また、上記第1の構成の画像処理装置において、前記外観画像の記録が可能な記憶部を備える構成(第2の構成)であっても良い。
また、上記第2の構成の画像処理装置において、前記外観画像は、前記接近検出部が前記車両への前記接触を予測したことに基づいて前記記憶部に記憶され、前記記憶部に記憶された当該外観画像は、前記接近検出部が前記車両への前記接触を検出した場合に、前記記憶部に保存され、前記接近検出部が前記車両への前記接触を予測しなくなった場合に、前記記憶部から破棄される構成(第3の構成)であっても良い。
本発明に係る画像処理装置は、少なくとも車両の室外に搭載されて前記車両の全周囲を撮像する車載カメラで撮影された撮影画像を処理する画像処理装置であって、前記車載カメラが搭載された前記車両の内部に乗員がいないことを検出した場合に、前記車両への外部からの接触を予測または検出する接近検出部と、前記車両の外部の所定位置を視点位置とし、前記視点位置から見た前記接触の位置の方向を視線方向とし、前記車両の像を含む前記車両の外観画像を生成する画像生成部と、前記外観画像を外部装置に対して送信する通信部と、前記外観画像の記録が可能な記憶部と、を備え、前記接近検出部が前記車両への前記接触を予測または検出した場合に、前記画像生成部が前記外観画像を生成し、当該外観画像を前記通信部を介して前記外部装置に対して送信するものであり、前記記憶部に記憶された当該外観画像は、前記接近検出部が前記車両への前記接触を検出した場合に、前記記憶部に保存され、前記接近検出部が前記車両への前記接触を予測しなくなった場合に、前記記憶部から破棄される構成(第4の構成)である。
また、上記第1から第4の構成の画像処理装置において、前記接近検出部は、前記車両に接近する物体を検出し、前記画像生成部は、前記接触の位置を頂点として前記車両と前記物体とで形成される角の内側にある位置を前記視点位置に係る前記所定位置とする構成(第の構成)であっても良い。
また、上記第1からの構成の画像処理装置において、前記接近検出部は、前記車両に接近する物体を検出し、前記物体による前記車両への前記接触を予測する構成(第の構成)であっても良い。
また、上記第の構成の画像処理装置において、前記接近検出部は、前記物体が前記車両への接近後、前記物体が所定時間、前記車両から所定範囲内に滞在することで、前記物体による前記車両への前記接触を予測する構成(第の構成)であっても良い。
また、上記第1から第の構成の画像処理装置において、前記接近検出部が前記車両への前記接触を予測した場合に、前記画像生成部が前記外観画像の生成を開始し、さらに、前記接近検出部が前記車両への前記接触を検出した場合に、前記通信部が前記外観画像を前記外部装置に対して送信する構成(第の構成)であっても良い。
また、上記第1から第8の構成の画像処理装置において、前記通信部は、前記外観画像の記録に係る指令を前記外部装置に対して送信する構成(第9の構成)であっても良い。
また、本発明に係る画像処理方法は、少なくとも車両の室外に搭載されて前記車両の全周囲を撮像する車載カメラで撮影された撮影画像を処理する画像処理方法であって、前記車載カメラが搭載された前記車両の内部に乗員がいないことを検出した場合に、前記車両への外部からの接触を予測または検出する工程と、前記車両への外部からの接触が予測された場合に、前記車両の外部の所定位置を視点位置とし、前記視点位置から見た前記接触の位置の方向を視線方向とし、前記車両の像を含む前記車両の外観画像を生成する工程と、前記車両への前記接触が検出された場合に、前記外観画像を外部装置に対して送信する工程と、を含む構成(第10の構成)である。
また、本発明に係る画像処理方法は、少なくとも車両の室外に搭載されて前記車両の全周囲を撮像する車載カメラで撮影された撮影画像を処理する画像処理方法であって、前記車載カメラが搭載された前記車両の内部に乗員がいないことを検出した場合に、前記車両への外部からの接触を予測または検出する工程と、前記車両への外部からの接触が予測または検出された場合に、前記車両の外部の所定位置を視点位置とし、前記視点位置から見た前記接触の位置の方向を視線方向とし、前記車両の像を含む前記車両の外観画像を生成する工程と、前記外観画像を外部装置に対して送信する工程と、前記車両への前記接触が予測されたことに基づいて前記外観画像を記憶部に記憶する工程と、前記車両への前記接触が検出された場合には、前記記憶部に記憶された前記外観画像を記憶部に保存する一方、前記車両への前記接触が予測されなくなった場合に、前記記憶部から前記外観画像を破棄する工程と、を含む構成(第11の構成)である。
本発明の構成によれば、例えば車両に外部から人や他の物体が接近し、接触された車両の部分の外観を、画像として確認することができる。すなわち、車両に危害が加えられた際に、状況把握や事後対応において有効な画像を得ることが可能になる。
実施形態の画像処理装置の構成を示すブロック図 車載カメラが車両に配置される位置を例示する図 仮想視点画像を生成する手法を説明するための図 第1実施形態の外観画像の生成、送信に係る処理フローの例を示すフローチャート 車両への外部からの接触の状況を示す説明図 外観画像の第1例を示す模式図 外観画像の第1例が表示された外部装置を示す模式図 外観画像の第2例を示す模式図 外観画像の第2例が表示された外部装置を示す模式図 外観画像の第3例を示す模式図 第2実施形態の外観画像の生成、送信に係る処理フローの例を示すフローチャート 外観画像の第4例を示す模式図 外観画像の第5例を示す模式図 第3実施形態の外観画像の生成、送信に係る処理フローの例を示すフローチャート 第4実施形態の外観画像の生成、送信に係る処理フローの例を示すフローチャート
以下、本発明の例示的な実施形態について、図面を参照しながら詳細に説明する。なお、本発明は以下に示す実施形態の内容に限定されるものではない。
また、以下の説明では、車両の直進進行方向であって、運転席からハンドルに向かう方向を「前方向(前方)」とする。車両の直進進行方向であって、ハンドルから運転席に向かう方向を「後方向(後方)」とする。車両の直進進行方向及び鉛直線に垂直な方向であって、前方を向いている運転手の右側から左側に向かう方向を「左方向」とする。車両の直進進行方向及び鉛直線に垂直な方向であって、前方を向いている運転手の左側から右側に向かう方向を「右方向」とする。
<1.画像処理装置の概略>
図1は、実施形態の画像処理装置1の構成を示すブロック図である。画像処理装置1は、例えば撮影部2と、センサ部3と、外部装置4と、を含む車両周辺監視システムに組み込むことができる。車両周辺監視システムは、撮影部2(車載カメラ)が搭載された車両の周辺状況を監視するシステムである。
画像処理装置1は、車載カメラで撮影された撮影画像を処理する装置である。画像処理装置1は、車載カメラを搭載する車両ごとに備えられる。本実施形態では、画像処理装置1は、撮影部2から撮影画像を取得して処理する。また、画像処理装置1は、センサ部3から情報を取得し、当該取得情報に基づいて画像処理に関する判断を行う。
撮影部2は、車両周辺及び車室内部の状況を監視する目的で設けられる。撮影部2は、例えば4つのカメラ21~24を備える。4つのカメラ21~24は、車載カメラである。図2は、車載カメラ21~24が車両5に配置される位置を例示する図である。
車載カメラ21は車両5の前端に設けられる。このため、車載カメラ21をフロントカメラ21とも呼ぶ。フロントカメラ21の光軸21aは上からの平面視で車両5の前後方向に沿って延びる。フロントカメラ21は車両5の前方向を撮影する。車載カメラ23は車両5の後端に設けられる。このため、車載カメラ23をバックカメラ23とも呼ぶ。バックカメラ23の光軸23aは上からの平面視で車両5の前後方向に沿って延びる。バックカメラ23は車両5の後方向を撮影する。フロントカメラ21及びバックカメラ23の取付位置は、車両5の左右中央であることが好ましいが、左右中央から左右方向に多少ずれた位置であっても良い。
車載カメラ22は車両5の右側ドアミラー51に設けられる。このため、車載カメラ22を右サイドカメラ22とも呼ぶ。右サイドカメラ22の光軸22aは上からの平面視で車両5の左右方向に沿って延びる。右サイドカメラ22は車両5の右方向を撮影する。車載カメラ24は車両5の左側ドアミラー52に設けられる。このため、車載カメラ24を左サイドカメラ24とも呼ぶ。左サイドカメラ24の光軸24aは上からの平面視で車両5の左右方向に沿って延びる。左サイドカメラ24は車両5の左方向を撮影する。
なお、車両5がいわゆるドアミラーレス車である場合、右サイドカメラ22は右サイドドアの回転軸(ヒンジ部)の周辺にドアミラーを介することなく設けられ、左サイドカメラ24は左サイドドアの回転軸(ヒンジ部)の周辺にドアミラーを介することなく設けられる。
車載カメラ21~24のレンズとしては、例えば魚眼レンズが使用される。車載カメラ21~24は、それぞれの水平方向の画角θが180度以上であるため、車両5の水平方向における全周囲を撮影することができる。
図1に戻って、センサ部3は、車載カメラ21~24が搭載される車両5に関する情報を検出する複数のセンサを有する。車両5に関する情報には、車両自体の情報と、車両周辺の情報とが含まれて良い。本実施形態では、センサ部3は、例えば車両の乗員のシートへの着座を検出する着座センサ、車両の変速装置のシフトレバーの操作位置を検出するシフトセンサ、車両のドアの開閉を検知するドア開閉センサ、車両の振動を検出する振動センサ、車両の傾きを検出する傾斜センサ、車両周辺の人や動物、車両、その他の物体を検出する超音波センサ及びレーダ等が含まれる。なお、超音波センサ、レーダのほか、赤外線等を用いた光センサなどを利用し、人などを検出しても良い。
外部装置4は、画像処理装置1から出力される表示用画像を受信する装置である。外部装置4は、例えば車両5の所有者等が所持する端末、サーバ等が含まれる。端末としては、例えばスマートフォン等の携帯端末、パーソナルコンピュータ等の据え置き型情報端末等が含まれる。本実施形態では、外部装置4は、例えばスマートフォン等の携帯端末であって、画像処理装置1から出力された表示用画像を画面表示する表示部41を備える表示装置である。表示部41は、例えば液晶表示パネルであって、タッチパネル方式等の入力部を備え、外部から情報を入力できる構成であって良い。
<2.画像処理装置の詳細>
画像処理装置1は、画像生成部11、制御部12、記憶部13及び通信部14を含んで構成される。
画像生成部11は、撮影部2で撮影された撮影画像を処理して表示用画像を生成する。本実施形態では、画像生成部11は、各種の画像処理が可能なハードウェア回路として構成される。本実施形態では、画像生成部11は、車両5に搭載された車載カメラ21~24によって撮影された撮影画像に基づき、仮想視点から見た車両5の周辺を示す仮想視点画像を生成する。さらに、画像生成部11は、仮想視点画像に基づき、表示装置である外部装置4で表示するための表示用画像を生成する。仮想視点画像を生成する手法の詳細については後述する。
制御部12は、不図示のCPU(Central Processing Unit)、RAM(Random Access Memory)、及びROM(Read Only Memory)を含む、いわゆるマイコンである。記憶部13は、不揮発性のメモリである。制御部12は、記憶部13に記憶されたプログラムに基づいて情報の処理及び送受信を行う。制御部12は、有線または無線で、撮影部2、センサ部3及び外部装置4に接続される。
制御部12は、画像取得部121と、画像制御部122と、接近検出部123と、を備える。制御部12が備えるこれらの各構成要素それぞれの機能は、プログラムに従ってCPUが演算処理を行うことによって実現される。
画像取得部121は、車載カメラ21~24で撮影された撮影画像を取得する。本実施形態では、車載カメラ21~24の数は4つであり、画像取得部121は、車載カメラ21~24それぞれで撮影された撮影画像を取得する。
画像制御部122は、画像生成部11によって実行される画像処理の制御を行う。例えば、画像制御部122は、画像生成部11に対して、仮想視点画像及び表示用画像を生成するために必要となる各種のパラメータ等の指示を行う。また、画像制御部122は、画像生成部11によって生成された表示用画像を外部装置4に対して出力する際の制御を行う。
接近検出部123は、車載カメラ21~24が搭載された車両5への外部からの接触を予測または検出する。詳細には、接近検出部123は、車両5に対して接近する人や動物、車両、その他の物体を検出するとともに、それらによる車両5への接触を検出する。
さらに具体的には、接近検出部123は、車両5への外部からの接触の予測または検出の開始に先立って、例えばセンサ部3の着座センサ、シフトセンサ、ドア開閉センサからの検出信号に基づき、車両5の内部に乗員がいないことを検出する。例えば、乗員が着座しておらず、且つイグニッションスイッチがOFFである場合、車両5の内部に乗員がいないことが検出される。また例えば、乗員の着座しておらず、且つドアが閉じている場合、車両5の内部に乗員がいないことが検出される。また例えば、乗員の着座しておらず、且つシフトレバーが「P」、「N」、「R」のいずれかの位置である場合、車両5の内部に乗員がいないことが検出される。なお、車両5の内部に乗員がいないことを検出する手段は、これらに限定されない。例えば、イグニッションスイッチがOFFになり、その後運転席ドアが閉から開になりさらに閉になる、すなわち運転者が降車したと推定され、且つ全ドアが閉且つロックされた場合に車両5の内部に乗員がいないと検出されても良い。
続いて、接近検出部123は、例えば振動センサから車両の振動の程度を表す検出信号を取得し、また、傾斜センサから車両の傾きの程度を表す検出信号を取得する。これらの検出信号の取得に基づき、接近検出部123は、車両5への外部からの接触を検出する。そして、画像処理装置1は撮影部2に、車載カメラ21~24による車両周辺の撮影を指示する指令を送信する。接近検出部123は、車載カメラ21~24で撮影された車両周辺の撮影画像に基づき、車両周辺の人や動物、車両、その他の物体を画像認識により検出する。これにより、接近検出部123は、車両5に対して接近または接触する人や車両などの有無や方向、位置を検出する。
なお、車載カメラ21~24の起動トリガーとして振動センサや傾斜センサ等を用いることなく、例えば車載カメラ21~24を一定の時間を隔てて周期的に起動させ、車載カメラ21~24に車両周辺を撮影させても良い。
また、車両周辺の人や動物、車両、その他の物体の検出には、例えばセンサ部3の超音波センサ、レーダを用いても良い。超音波センサ及びレーダは、例えば車両5のフロントバンパー、リアバンパー及びドアなどの複数箇所に埋設される。超音波センサ及びレーダは、送信波を車両周辺に向けて送信し、人や他の車両などで反射した反射波を受信することで、人や他の車両などの有無や方向、位置を検出する。
記憶部13は、例えばフラッシュメモリ等の不揮発性のメモリであり、各種の情報を記憶する。記憶部13は、例えばファームウェアとしてのプログラム、画像生成部11が仮想視点画像及び表示用画像を生成するための各種のデータを記憶する。また、記憶部13は、画像取得部121及び接近検出部123が処理を実行するために必要となる各種のデータを記憶する。
通信部14は、例えば無線によって外部装置4と接続される。画像処理装置1は、通信部14を介して外部装置4に、画像生成部11で生成された表示用画像を出力することが可能である。
<3.仮想視点画像の生成>
画像生成部11が、仮想視点から見た車両5の周辺の様子を示す仮想視点画像を生成する手法について説明する。図3は、仮想視点画像を生成する手法を説明するための図である。
フロントカメラ21、右サイドカメラ22、バックカメラ23及び左サイドカメラ24によって、車両5の前方、右側方、後方及び左側方それぞれを示す4つの撮影画像P21~P24が同時に取得される。これら4つの撮影画像P21~P24には、車両5の全周囲のデータが含まれる。画像生成部11は、これら4つの撮影画像P21~P24を、画像取得部121を介して取得する。
画像生成部11は、これら4つの撮影画像P21~P24に含まれるデータ(各画素の値)を、仮想的な三次元空間における立体的な曲面である投影面TSに投影する。投影面TSは、例えば略半球形状(お椀形状)をしており、その中心部(お椀の底部分)が車両5の位置として定められる。
投影面TSでは、車両5の領域の外側の領域に、撮影画像のデータが投影される。撮影画像P21~P24に含まれる各画素の位置と、投影面TSの各画素の位置とは予め対応関係が定められる。この対応関係を示すテーブルデータは、記憶部13に記憶される。投影面TSの各画素の値は、この対応関係と、撮影画像P21~P24に含まれる各画素の値とに基づいて決定できる。
次に、画像生成部11は、画像制御部122の制御により、三次元空間に対して仮想視点VPを設定する。仮想視点VPは、視点位置と視線方向とで規定される。画像生成部11は、任意の視点位置、且つ、任意の視線方向の仮想視点VPを三次元空間に設定できる。画像生成部11は、投影面TSのうち、設定された仮想視点VPから見た視野内に含まれる領域に投影されたデータを画像として切り出す。これにより、画像生成部11は、任意の仮想視点VPから見た仮想視点画像を生成する。
例えば、図3に示すように、視点位置を車両5の直上、視線方向を直下とした仮想視点VPaを想定した場合、車両5及び車両5の周辺を俯瞰する仮想視点画像(俯瞰画像)CPaを生成することができる。また、視点位置を車両5の外部の右前方、視線方向を車両5の左後方とした仮想視点VPbを想定した場合、車両5の外部の右前方から見た車両5の全体を示す仮想視点画像CPbを生成することができる。
なお、仮想視点画像CPa、CPb中に示す車両5の像5pは、予めビットマップなどのデータとして用意され、記憶部24に記憶される。仮想視点画像の生成の際には、当該仮想視点画像の仮想視点VPの視点位置と視線方向とに応じた形状の車両5の像5pのデータが読み出されて、仮想視点画像CPa、CPb中に含められる。
図3の仮想視点画像CPbについて、より詳細に説明すれば、仮想視点画像CPbは、車両5の外部の右前方の所定位置を視点位置とし、車両5の左後方を視線方向とした仮想視点に基づく車両5の外観画像である。以下の説明において、車両5の外部の所定位置を視点位置とし、当該視点位置から見た車両5の方向を視線方向とした仮想視点画像のことを、車両5の外観画像Pzと呼ぶ場合がある。
このようにして、画像生成部11は、仮想の立体的な投影面TSを用いることで、現実に近い臨場感のある仮想視点画像CPa、CPbを生成することができる。さらに、画像生成部11は、車両5の外部の所定位置を仮想視点VPの視点位置とし、当該視点位置から見た車両5の方向を視線方向とし、車両5の像5pを含む車両5の外観画像Pzを生成する。
<4.車両の外観画像の生成、送信に係る処理>
本実施形態において、画像処理装置1は、車両5の外観画像Pzを生成し、当該外観画像Pzを外部装置4に対して送信する。
<4-1.第1実施形態>
図4は、第1実施形態の外観画像Pzの生成、送信に係る処理フローの例を示すフローチャートである。第1実施形態の外観画像Pzの生成、送信に係る処理について、図4を参照しつつ説明する。
図4に示すように、まず、車両5では、車両5への外部からの接触が接近検出部123によって監視される。(ステップS101)。画像処理装置1では、所定の開始条件が成立すると、車両5への外部からの接触の監視が開始される。所定の開始条件とは、例えば先に説明したように、車両5の内部に乗員がいなくなった場合であっても良い。例えば、乗員が着座しておらず、且つイグニッションスイッチがOFFである場合、車両5の内部に乗員がいないことが検出され、監視モードに入り、車両5への外部からの接触の監視が開始される。なお、監視モードは正規のユーザーが車両の運転を開始するときに解除される。例えば、キーによりドアがアンロックされた場合や、図示せぬキーレスエントリ装置の送信機によりドアがアンロックされた場合に、正規のユーザーが車両の運転を開始すると判断される。
次に、車両5への外部からの接触を検出したか否かが判定される(ステップS102)。車両5への外部からの接触は、例えばセンサ部3の振動センサから取得した車両の振動の程度を表す検出信号に基づき判定される。また、車両5への外部からの接触は、例えばセンサ部3の傾斜センサから取得した車両の傾きの程度を表す検出信号に基づき判定される。また、車両5への外部からの接触の検出に、例えばセンサ部3の超音波センサ、レーダを用いても良い。
車両5への外部からの接触を検出しない場合(ステップS102のNo)、ステップS101に戻って、車両5への物体の接触の監視が継続される。
車両5への外部からの接触を検出した場合(ステップS102のYes)、車両5の周辺画像の取得が行われる(ステップS103)。図5は、車両5への外部からの接触の状況を示す説明図である。図5に示すように、本実施形態では、例えば、駐車中の車両5に他車両Trが接触したこととする。接触位置は、車両5の右前部5fである。車両5の周辺画像は、車載カメラ21~24に車両周辺を撮影させることで取得することができる。画像処理装置1は撮影部2に、車載カメラ21~24による車両周辺の撮影を指示する指令を送信する。画像処理装置1は、車載カメラ21~24それぞれで撮影された撮影画像を画像取得部121を介して取得し、記憶部13に記憶する。
図4に戻って、次に、接触位置及び接触方向が検出される(ステップS104)。例えば、接触位置及び接触方向は、車載カメラ21~24に撮影させた車両周辺の撮影画像に基づいて検出される。接近検出部123は、車両5に対して外部から接触する他車両Trの接触位置及び接触方向を検出する。また例えば、接触位置及び接触方向は、センサ部3の超音波センサ、レーダを用いても検出することができる。
次に、仮想視点画像が生成される(ステップS105)。画像生成部11は、ステップS103で取得し、記憶部13に記憶した車両周辺の複数の撮影画像に基づき、仮想視点から見た車両5の周辺の様子を示す仮想視点画像を生成する。
次に、画像生成部11は、車両5の像5pを含む車両5の外観画像Pzを生成し、記憶部13に記憶させる(ステップS106)。図6は、外観画像Pzの第1例を示す模式図である。例えば、本実施形態では、ステップS104において、車両5の右前部5fで、車両5への外部からの接触を検出したこととする。これにより、画像生成部11は、車両5の外部の右前方の所定位置を視点位置とし、当該視点位置から見た接触の位置である車両5の右前部5fの方向を視線方向とした仮想視点VPz(図5参照)に基づき、図6に示す車両5の外観画像Pzを生成する。
外観画像Pzは、画像生成部11が生成した仮想視点画像に、車両5の像5pを含む。さらに、画像生成部11は、外観画像Pzの仮想視点画像に基づき、外部装置4で表示するための外観画像Pzの表示用画像を生成する。
図4に戻って、次に、通信部14が、外観画像Pzを外部装置4に対して送信する(ステップS107)。画像処理装置1は、例えば外観画像Pzの表示用画像が添付された電子メール等を作成し、当該電子メールを通信部14を介して外部装置4に送信する。電子メール等には、例えば車両5に対して他車両Trが接触したことを知らせる旨のメッセージが記載される。
図6は、外観画像Pzの第1例が表示された外部装置4を示す模式図である。例えば、スマートフォン等の携帯端末である外部装置4では、表示部41に外観画像Pzを表示させることができる。外観画像Pzが外部装置4に対して送信されると、図4に示す処理フローが終了される。
なお、外観画像Pzの外部装置4への送信は、電子メール等に画像データを添付して行うほか、例えば、外観画像Pzが保存されたネットワーク上のアドレスを送信することでも行うことが可能である。この場合、外観画像Pzは、画像処理装置1の記憶部13、またはネットワーク上の他の外部装置(サーバ等)に保存される。
また、外部装置4で表示可能な外観画像Pzは、既に撮影済みの画像(静止画)であるほか、画像生成部11によって生成される撮影済みの外観画像Pzの映像(動画)であっても良い。さらに、この外観画像Pzの映像(動画)は、現在の状況を示すリアルタイム(生中継)の映像であっても良い。これらの場合、画像処理装置1から外部装置4に送信される電子メール等には、リアルタイムの外観画像Pzである映像にアクセスするためのネットワークアドレス、閲覧方法等を知らせる旨のメッセージが記載される。
また、外観画像Pzの静止画及び動画は、記録、録画することができる。外観画像Pzの静止画及び動画の記録、録画は、画像処理装置1の記憶部13で行っても良いし、外部装置4の記憶部(不図示)で行っても良い。外観画像Pzを外部装置4に記録させる場合、通信部14は、外観画像Pz自体の送信に加えて、外観画像Pzの記録に係る指令を外部装置4に対して送信する。
また、外部装置4の表示部41では、外観画像Pz及びそのリアルタイム映像に対して、例えば拡大、縮小などといった操作を行うことができる。この場合、例えば表示部41に備えられたタッチパネル等を用いて操作することができる。
また、外部装置4の表示部41において、外観画像Pz及びそのリアルタイム映像は、自由に視点切替ができることにしても良い。この場合、例えば表示部41に備えられたタッチパネル等を用いて操作し、視点切替を行うことができる。
具体的には、外部装置4の表示部41において、タッチパネル等を用いて新たな視点位置及び視線方向が決定される。外部装置4は、決定した視点位置及び視線方向の情報(以下、視線情報という)を通信部14に送信する。画像制御部122は、通信部14を介して受信した視線情報に基づき画像生成部11に新たな外観画像Pzまたはリアルタイム映像を生成させ、通信部14から外部装置4に送信する。このようにして、外部装置4で視点位置及び視線方向が変更されると、その変更された新たな外観画像Pzまたはリアルタイム映像が外部装置4の表示部41に表示される。さらに、視点位置が異なる複数の外観画像Pzを同時に、表示部41に表示させることにしても良い。
上記のように、本実施形態の画像処理装置1は、車両5への外部からの接触を検出した場合に、仮想視点画像に車両5の像5pを含む車両5の外観画像Pzを生成し、当該外観画像Pzを外部装置4に対して送信する。これにより、車両5の、外部から接触された部分の外観を、外観画像Pzとして確認することができる。すなわち、車両5に危害が加えられた際に、状況把握や事後対応において有効な外観画像Pzを得ることが可能になる。
また、接近検出部123は、車両5の振動または傾きに基づいて車両5への外部からの接触を検出する。これにより、車両5への物体の接触のタイミングを、適正に判別することができる。そして、車両5への物体の接触の直後から、車両5の、外部から接触された部分の外観を、外観画像Pzとして確認することが可能である。
また、接近検出部123は、車両5の内部に乗員がいないことを検出し、さらに車両5への外部からの接触の検出を開始する。これにより、画像処理装置1は、車両5の内部に乗員がいる場合に作動せず、適正なタイミングで作動させることが可能である。
また、外部装置4に送信される外観画像Pzは、静止画または動画である。さらに、外観画像Pzの動画は、生中継の映像である。これらにより、静止画、動画及び生中継映像によって、車両5の、外部から接触された部分の外観を見ることができる。したがって、車両5に危害が加えられた際の、状況把握や事後対応において一層有効である。
また、画像処理装置1は、外観画像Pzの記録が可能な記憶部13を備える。これにより、任意のタイミングで、画像処理装置1の外観画像Pzを見ることが可能である。
また、通信部14は、外観画像Pz自体の送信に加えて、外観画像Pzの記録に係る指令を外部装置4に対して送信する。これにより、外観画像Pzを外部装置4に記録させることができる。したがって、外部装置4において、任意のタイミングで、画像処理装置1の外観画像Pzを見ることが可能である。
<4-1-1.第1実施形態の変形例>
図8は、外観画像Pzの第2例を示す模式図である。図9は、外観画像Pzの第2例が表示された外部装置4を示す模式図である。図8及び図9に示す外観画像Pzの第2例の仮想視点は、先に説明した図6及び図7に示す外観画像Pzの第1例の仮想視点とは異なる視点位置である。なお、車両5に対する外部からの接触の位置は、同様に車両5の右前部5fである。
外観画像Pzの第2例の場合、画像生成部11は、車両5の外部の右後方の所定位置を視点位置とし、当該視点位置から見た接触の位置である車両5の右前部5fの方向を視線方向とした仮想視点に基づき、図8及び図9に示す車両5の外観画像Pzを生成する。すなわち、図8に示すように、画像生成部11は、接触の位置である車両5の右前部5fを頂点Vとし、車両5と他車両Trとで形成される角αの内側にある位置を視点位置に係る所定位置とする。外観画像Pzの第2例には、車両5の像5pに加えて、車両5に接触した他車両Trの像Tpが含まれる。
図10は、外観画像Pzの第3例を示す模式図である。図10に示す外観画像Pzの第3例の場合、画像処理装置1は、例えば他車両TrがドアTdを開放したことによる車両5への接触を検出する。車両5に対する外部からのドアTdの接触の位置は、同様に車両5の右前部5fである。
外観画像Pzの第3例の仮想視点は、図8及び図9に示す外観画像Pzの第2例と同様に、車両5の外部の右後方の所定位置が視点位置である。すなわち、図10に示すように、画像生成部11は、接触の位置である車両5の右前部5fを頂点Vとし、車両5と他車両Trとで形成される角βの内側にある位置を視点位置に係る所定位置とする。外観画像Pzの第3例には、車両5の像5pに加えて、車両5に接触したドアTdを開放した他車両Trの像Tpが含まれる。
外観画像Pzの第2例、第3例によれば、車両5の外部に接触した他車両Trの外観や挙動を、外観画像Pzとして確認することができる。すなわち、車両5に危害が加えられた際に、状況把握や事後対応においてより一層有効な外観画像Pzを得ることが可能になる。
なお、外部装置4の表示部41では、複数の外観画像Pzを同時に表示させても良い。例えば、外部装置4の表示部41では、車両5の外部の右前方の所定位置が視点位置である外観画像Pzの第1例と、車両5の外部の右後方の所定位置が視点位置である外観画像Pzの第2例或いは第3例と、の両方を同時に表示させても良い。
<4-2.第2実施形態>
図11は、第2実施形態の外観画像Pzの生成、送信に係る処理フローの例を示すフローチャートである。なお、第2実施形態の基本的な構成は先に説明した第1実施形態と同じであるので、第1実施形態と異なる構成については以下で説明し、第1実施形態と共通する構成については詳細な説明を省略する。
第2実施形態の画像処理装置1は、接近検出部123が、車両5に接近する物体を検出し、当該物体による車両5への接触を予測する。すなわち、図11に示すように、まず、車両5では、車両5に対して外部から接近する人や動物、車両、その他の物体が接近検出部123によって監視される(ステップS201)。画像処理装置1では、例えば車両5の内部に乗員がいなくなった場合等の所定の開始条件が成立すると、監視モードとなり、車両5への外部からの接近の監視が開始される。
次に、車両5への外部からの接近を検出したか否かが判定される(ステップS202)。車両5に接近する物体の検出に関して、詳細には、接近検出部123は、物体が車両5から所定範囲内に進入することで、物体による車両5への接触を予測する。車両5からの所定範囲としては、例えば半径3m以内などといった範囲を任意に設定することができる。車両周辺の人や動物、車両、その他の物体の検出には、例えばセンサ部3の超音波センサ、レーダの検出信号、またはカメラ21~24の撮影画像による画像認識に基づき判定される。
車両5への外部からの接近を検出した場合(ステップS202のYes)、車両5の周辺画像の取得が行われる(ステップS203)。以下、接近位置及び接近方向の検出(ステップS204)、仮想視点画像の生成(ステップS205)、車両5の像5pを含む車両5の外観画像Pzの生成及び記憶(ステップS206)、外観画像Pzの外部装置4への送信(ステップS207)が、順次行われる。
なお、本実施形態では、車両5に接近する物体を検出し、当該物体による車両5への接触を予測するので、予測される接触の位置は、車両5に接近する物体の位置である。図12は、外観画像Pzの第4例を示す模式図である。図12は、例えば図8を用いて説明した外観画像Pzの第2例の、車両5への他車両Trの接触の直前の状況を示す図である。図13は、外観画像Pzの第5例を示す模式図である。図13は、例えば図10を用いて説明した外観画像Pzの第3例の、車両5への他車両Trの接触の直前の状況を示す図である。すなわち、外観画像Pzの第4例及び第5例において車両5に接近する他車両Trの位置は、車両5の右前部5fである。
したがって、画像生成部11は、車両5の外部の右後方の所定位置を視点位置とし、当該視点位置から見た車両5に接近する他車両Trの位置である車両5の右前部5fの方向を視線方向とした仮想視点に基づき、車両5の外観画像Pzを生成する(ステップS206)。すなわち、図12及び図13に示すように、画像生成部11は、車両5に接近する他車両Trの位置である車両5の右前部5fを頂点Vとし、車両5と他車両Trとで形成される角α、角βの内側にある位置を視点位置に係る所定位置とする。外観画像Pzの仮想視点画像には、車両5の像5pに加えて、車両5に接近する他車両Trの像Tpが含まれる。
ステップS203~S205、S207の詳細は、第1実施形態と同様であるので、説明を省略する。
上記のように、第2実施形態の画像処理装置1は、接近検出部123が、車両5に接近する物体(他車両Tr)を検出し、物体(他車両Tr)による車両5への接触を予測する。これにより、他車両Trが車両5に接近する段階において、その他車両Trの外観や挙動を外観画像Pzとして確認することができる。すなわち、その後、車両5に危害が加えられた際に、状況把握や事後対応において有効な外観画像Pzを得ることが可能になる。
<4-3.第3実施形態>
図14は、第3実施形態の外観画像Pzの生成、送信に係る処理フローの例を示すフローチャートである。なお、第3実施形態の基本的な構成は先に説明した第1及び第2の実施形態と同じであるので、これらの実施形態と異なる構成については以下で説明し、これらの実施形態と共通する構成については詳細な説明を省略する。
第3実施形態の画像処理装置1では、図14に示すように、まず、車両5では、車両5に対して外部から接近する人や動物、車両、その他の物体が接近検出部123によって監視される(ステップS301)。画像処理装置1では、例えば車両5の内部に乗員がいなくなった場合等の所定の開始条件が成立すると、監視モードとなり、車両5への外部からの接近の監視が開始される。
次に、車両5への外部からの接近を検出したか否かが判定される(ステップS302)。車両5に接近する物体の検出に関して、詳細には、接近検出部123は、物体が車両5から所定範囲内(例えば半径3m以内)に進入することで、物体による車両5への接触を予測する。車両周辺の人や動物、車両、その他の物体の検出は、例えばセンサ部3の超音波センサ、レーダの検出信号、またはカメラ21~24の撮影画像による画像認識に基づき判定される。
車両5への外部からの接近を検出した場合(ステップS302のYes)、物体が車両5に接近した状態で、所定時間経過したか否かが判定される(ステップS303)。詳細には、接近検出部123は、物体が車両5への接近後、物体が所定時間、車両5から所定範囲内に滞在することで、物体による車両5への接触を予測する。物体の滞在に係る所定時間としては、例えば1分などといった時間を任意に設定することができる。車両周辺の物体の検出は、引き続き、例えばセンサ部3の超音波センサ、レーダの検出信号等に基づき判定される。
物体が車両5に接近した状態で、所定時間経過していない場合(ステップS303のNo)、ステップS302に戻って、物体の接近状態の監視が継続される。さらに、車両5への物体の接近を検出しない場合、または車両5への物体の接近を検出しなくなった場合(ステップS302のNo)、ステップS301に戻って、車両5への物体の接近の監視が継続される。
物体が車両5に接近した状態で、所定時間経過した場合(ステップS303のYes)、車両5の周辺画像の取得が行われる(ステップS304)。以下、接近位置及び接近方向の検出(ステップS305)、仮想視点画像の生成(ステップS306)、車両5の像5pを含む車両5の外観画像Pzの生成及び記憶(ステップS307)、外観画像Pzの外部装置4への送信(ステップS308)が、順次行われる。ステップS304~ステップS308の詳細は、第1及び第2の実施形態と同様であるので、説明を省略する。
上記のように、第3実施形態の画像処理装置1は、接近検出部123が、物体が車両5への接近後、物体が所定時間、車両5から所定範囲内に滞在することで、物体による車両5への接触を予測する。これにより、例えば他車両が車両5に接近し、車両周辺に長く滞在した場合に、その他車両の外観や挙動を外観画像Pzとして確認することができる。そして、例えば車両周辺を人や動物、車両、その他の物体が単に通過しただけの場合に、外観画像Pzの生成、送信を行わないようにすることができる。したがって、効率良く、車両5に危害が加えられた際の、状況把握や事後対応において有効な外観画像Pzを得ることが可能になる。
<4-4.第4実施形態>
図15は、第4実施形態の外観画像Pzの生成、送信に係る処理フローの例を示すフローチャートである。なお、第4実施形態の基本的な構成は先に説明した第1、第2及び第3の実施形態と同じであるので、これらの実施形態と異なる構成については以下で説明し、これらの実施形態と共通する構成については詳細な説明を省略する。
第4実施形態の画像処理装置1では、図15に示すように、まず、車両5では、車両5に対して外部から接近する人や動物、車両、その他の物体が接近検出部123によって監視される(ステップS401)。以下、車両5への物体の接近の判定(ステップS402)、車両5の周辺画像の取得(ステップS403)、接近位置及び接近方向の検出(ステップS404)、仮想視点画像の生成(ステップS405)、車両5の像5pを含む車両5の外観画像Pzの生成及び記憶(ステップS406)が、順次行われる。ステップS401~ステップS406の詳細は、第1及び第2の実施形態と同様であるので、説明を省略する。
次に、車両5への外部からの接触を検出したか否かが判定される(ステップS407)。車両5への外部からの接触は、例えばセンサ部3の振動センサ、傾斜センサ、超音波センサ、レーダ等の検出信号に基づき判定される。
車両5への外部からの接触を検出した場合(ステップS407のYes)、通信部14が、外観画像Pzを外部装置4に対して送信する(ステップS408)。外観画像Pzが外部装置4に対して送信されると、図15に示す処理フローが終了される。
車両5への外部からの接触を検出しない場合(ステップS407のNo)、物体が車両5に接近した状態であるか否かが判定される(ステップS409)。引き続き、車両周辺の物体の検出は、例えばセンサ部3の超音波センサ、レーダの検出信号等に基づき判定される。物体が車両5に接近した状態である場合(ステップS409のYes)、ステップS407に戻って、車両5への物体の接触の判定が行われる。
車両5への物体の接近を検出しなくなった場合(ステップS409のNo)、ステップS406で生成された外観画像Pzは破棄される(ステップS410)。すなわち、画像処理装置1は、一時的に記憶部13に記憶させた外観画像Pzを消去する。そして、ステップS401に戻って、車両5への物体の接近の監視が継続される。
上記のように、第4実施形態の画像処理装置1は、接近検出部123が車両5への外部からの接触を予測した場合に、画像生成部11が外観画像Pzの生成を開始し、さらに接近検出部123が車両5への外部からの接触を検出した場合に、通信部14が外観画像Pzを外部装置4に対して送信する。これにより、例えば他車両が車両5に接近する段階において、迅速に、その他車両の外観や挙動を外観画像Pzとして確認することができる。さらに、実際に車両5に接触した場合のみ、その外観画像Pzを外部装置4に対して送信することができる。したがって、より一層効率良く、車両5に危害が加えられた際の、状況把握や事後対応において有効な外観画像Pzを得ることが可能になる。
また、外観画像Pzは、接近検出部123が車両5への接触を予測したこと、すなわち車両5への接近を検出したことに基づいて記憶部13に記憶され、記憶部13に記憶された当該外観画像Pzは、接近検出部123が車両5への接触を検出した場合に、記憶部13に保存され、接近検出部123が車両5への接触を予測しなくなった、すなわち車両5への接近を検出しなくなった場合に、記憶部13から破棄される。したがって、記憶部13の記憶容量を有効に活用することができる。
<5.その他>
本明細書中に開示されている種々の技術的特徴は、上記実施形態のほか、その技術的創作の主旨を逸脱しない範囲で種々の変更を加えることが可能である。すなわち、上記実施形態は全ての点で例示であって、制限的なものではないと考えられるべきである。本発明の技術的範囲は上記実施形態の説明ではなく、特許請求の範囲によって示されるものであり、特許請求の範囲と均等の意味及び範囲内に属する全ての変更が含まれると理解されるべきである。また、上記の複数の実施形態及び実施例は可能な範囲で組み合わせて実施しても良い。
例えば、上記実施形態では、車両5と他車両Trとで形成される角α、角βの内側にある位置を視点位置とする場合、車両5の外部の後方の所定位置を視点位置としたが、車両5の外部の前方の所定位置を視点位置としても良い。これにより、車両5の外観を、様々な方向から見ることができる。
また、上記実施形態では、プログラムに従ったCPUの演算処理によってソフトウェア的に各種の機能が実現されていると説明したが、これらの機能のうちの一部は電気的なハードウェア回路によって実現されても良い。また逆に、ハードウェア回路によって実現されるとした機能のうちの一部は、ソフトウェア的に実現されても良い。
1 画像処理装置
3 センサ部
4 外部装置
5 車両
11 画像生成部
12 制御部
13 記憶部
14 通信部
21 フロントカメラ(車載カメラ)
22 右サイドカメラ(車載カメラ)
23 バックカメラ(車載カメラ)
24 左サイドカメラ(車載カメラ)
123 接近検出部

Claims (11)

  1. 少なくとも車両の室外に搭載されて前記車両の全周囲を撮像する車載カメラで撮影された撮影画像を処理する画像処理装置であって、
    前記車載カメラが搭載された前記車両の内部に乗員がいないことを検出した場合に、前記車両への外部からの接触を予測または検出する接近検出部と、
    前記車両の外部の所定位置を視点位置とし、前記視点位置から見た前記接触の位置の方向を視線方向とし、前記車両の像を含む前記車両の外観画像を生成する画像生成部と、
    前記外観画像を外部装置に対して送信する通信部と、を備え、
    前記接近検出部が前記車両への前記接触を予測した場合に、前記画像生成部が前記外観画像を生成し、さらに、前記接近検出部が前記車両への前記接触を検出した場合に、前記通信部が当該外観画像を前記外部装置に対して送信する画像処理装置。
  2. 前記外観画像の記録が可能な記憶部を備える請求項1に記載の画像処理装置。
  3. 前記外観画像は、前記接近検出部が前記車両への前記接触を予測したことに基づいて前記記憶部に記憶され、
    前記記憶部に記憶された当該外観画像は、
    前記接近検出部が前記車両への前記接触を検出した場合に、前記記憶部に保存され、
    前記接近検出部が前記車両への前記接触を予測しなくなった場合に、前記記憶部から破棄される請求項に記載の画像処理装置。
  4. 少なくとも車両の室外に搭載されて前記車両の全周囲を撮像する車載カメラで撮影された撮影画像を処理する画像処理装置であって、
    前記車載カメラが搭載された前記車両の内部に乗員がいないことを検出した場合に、前記車両への外部からの接触を予測または検出する接近検出部と、
    前記車両の外部の所定位置を視点位置とし、前記視点位置から見た前記接触の位置の方向を視線方向とし、前記車両の像を含む前記車両の外観画像を生成する画像生成部と、
    前記外観画像を外部装置に対して送信する通信部と
    前記外観画像の記録が可能な記憶部と、を備え、
    前記接近検出部が前記車両への前記接触を予測または検出した場合に、前記画像生成部が前記外観画像を生成し、当該外観画像を前記通信部を介して前記外部装置に対して送信するものであり、
    前記記憶部に記憶された当該外観画像は、
    前記接近検出部が前記車両への前記接触を検出した場合に、前記記憶部に保存され、
    前記接近検出部が前記車両への前記接触を予測しなくなった場合に、前記記憶部から破棄される画像処理装置。
  5. 前記接近検出部は、前記車両に接近する物体を検出し、
    前記画像生成部は、前記接触の位置を頂点として前記車両と前記物体とで形成される角の内側にある位置を前記視点位置に係る前記所定位置とする請求項1から請求項4のいずれかに記載の画像処理装置。
  6. 前記接近検出部は、前記車両に接近する物体を検出し、前記物体による前記車両への前記接触を予測する請求項1から請求項5のいずれかに記載の画像処理装置。
  7. 前記接近検出部は、前記物体が前記車両への接近後、前記物体が所定時間、前記車両から所定範囲内に滞在することで、前記物体による前記車両への前記接触を予測する請求項に記載の画像処理装置。
  8. 前記接近検出部が前記車両への前記接触を予測した場合に、前記画像生成部が前記外観画像の生成を開始し、さらに、
    前記接近検出部が前記車両への前記接触を検出した場合に、前記通信部が前記外観画像を前記外部装置に対して送信する請求項1から請求項のいずれかに記載の画像処理装置。
  9. 前記通信部は、前記外観画像の記録に係る指令を前記外部装置に対して送信する請求項1から請求項のいずれかに記載の画像処理装置。
  10. 少なくとも車両の室外に搭載されて前記車両の全周囲を撮像する車載カメラで撮影された撮影画像を処理する画像処理方法であって、
    前記車載カメラが搭載された前記車両の内部に乗員がいないことを検出した場合に、前記車両への外部からの接触を予測または検出する工程と、
    前記車両への外部からの接触が予測された場合に、前記車両の外部の所定位置を視点位置とし、前記視点位置から見た前記接触の位置の方向を視線方向とし、前記車両の像を含む前記車両の外観画像を生成する工程と、
    前記車両への前記接触が検出された場合に、前記外観画像を外部装置に対して送信する工程と、
    を含む画像処理方法。
  11. 少なくとも車両の室外に搭載されて前記車両の全周囲を撮像する車載カメラで撮影された撮影画像を処理する画像処理方法であって、
    前記車載カメラが搭載された前記車両の内部に乗員がいないことを検出した場合に、前記車両への外部からの接触を予測または検出する工程と、
    前記車両への外部からの接触が予測または検出された場合に、前記車両の外部の所定位置を視点位置とし、前記視点位置から見た前記接触の位置の方向を視線方向とし、前記車両の像を含む前記車両の外観画像を生成する工程と、
    前記外観画像を外部装置に対して送信する工程と
    前記車両への前記接触が予測されたことに基づいて前記外観画像を記憶部に記憶する工程と、
    前記車両への前記接触が検出された場合には、前記記憶部に記憶された前記外観画像を記憶部に保存する一方、前記車両への前記接触が予測されなくなった場合に、前記記憶部から前記外観画像を破棄する工程と、
    を含む画像処理方法。
JP2017205386A 2017-10-24 2017-10-24 画像処理装置及び画像処理方法 Active JP7112191B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017205386A JP7112191B2 (ja) 2017-10-24 2017-10-24 画像処理装置及び画像処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017205386A JP7112191B2 (ja) 2017-10-24 2017-10-24 画像処理装置及び画像処理方法

Publications (2)

Publication Number Publication Date
JP2019080158A JP2019080158A (ja) 2019-05-23
JP7112191B2 true JP7112191B2 (ja) 2022-08-03

Family

ID=66628028

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017205386A Active JP7112191B2 (ja) 2017-10-24 2017-10-24 画像処理装置及び画像処理方法

Country Status (1)

Country Link
JP (1) JP7112191B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4216179A4 (en) * 2020-10-30 2024-03-06 Jvckenwood Corp VEHICLE RECORDING CONTROL APPARATUS AND VEHICLE RECORDING CONTROL METHOD

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006168401A (ja) 2004-12-13 2006-06-29 Tokai Rika Co Ltd 車両盗難防止装置
JP2011013801A (ja) 2009-06-30 2011-01-20 Sanyo Electric Co Ltd 無線装置
JP2011207444A (ja) 2010-03-30 2011-10-20 Denso Corp 車両用制御装置及び車両用保安システム
JP2011221686A (ja) 2010-04-07 2011-11-04 Nissan Motor Co Ltd 画像情報提供装置および画像情報提供方法
JP2012121384A (ja) 2010-12-06 2012-06-28 Fujitsu Ten Ltd 画像表示システム
JP2014134912A (ja) 2013-01-09 2014-07-24 Fujitsu Ten Ltd 再生装置、再生システム、再生方法及びプログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006168401A (ja) 2004-12-13 2006-06-29 Tokai Rika Co Ltd 車両盗難防止装置
JP2011013801A (ja) 2009-06-30 2011-01-20 Sanyo Electric Co Ltd 無線装置
JP2011207444A (ja) 2010-03-30 2011-10-20 Denso Corp 車両用制御装置及び車両用保安システム
JP2011221686A (ja) 2010-04-07 2011-11-04 Nissan Motor Co Ltd 画像情報提供装置および画像情報提供方法
JP2012121384A (ja) 2010-12-06 2012-06-28 Fujitsu Ten Ltd 画像表示システム
JP2014134912A (ja) 2013-01-09 2014-07-24 Fujitsu Ten Ltd 再生装置、再生システム、再生方法及びプログラム

Also Published As

Publication number Publication date
JP2019080158A (ja) 2019-05-23

Similar Documents

Publication Publication Date Title
US10146227B2 (en) Driving assistance apparatus
EP2163428B1 (en) Intelligent driving assistant systems
US9199607B2 (en) In-vehicle apparatus
JP5177515B2 (ja) 周辺認知支援システム
JP5093611B2 (ja) 車両周辺確認装置
US20190286123A1 (en) Remote vehicle control device and remote vehicle control method
CN112165609A (zh) 图像显示装置和图像显示***
JPWO2018235274A1 (ja) 駐車制御方法及び駐車制御装置
CN107809577A (zh) 通过全景相机进行车辆入侵检测
US11181909B2 (en) Remote vehicle control device, remote vehicle control system, and remote vehicle control method
JP4984521B2 (ja) 車載カメラの制御装置
JP2013078151A (ja) 車両用表示装置
JP5105880B2 (ja) 車両状況監視装置及び画像処理装置
US20190286118A1 (en) Remote vehicle control device and remote vehicle control method
WO2018123546A1 (ja) 車両用視認装置
JP7112191B2 (ja) 画像処理装置及び画像処理方法
JP7168367B2 (ja) 事故通報装置
JP7051369B2 (ja) 画像処理装置及び画像処理方法
JP2019145951A (ja) 車両遠隔操作装置、車両遠隔操作システム及び車両遠隔操作方法
JP2020150295A (ja) 車両防犯装置
JP7103773B2 (ja) 画像処理装置及び画像処理方法
JP2005182305A (ja) 車両走行支援装置
KR102288952B1 (ko) 차량 및 그 제어 방법
KR101941607B1 (ko) 차량용 촬영 표시 장치 및 기록 매체
KR101284169B1 (ko) 사고 영상 기록 장치 및 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200930

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20211007

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211028

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220126

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220628

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220722

R150 Certificate of patent or registration of utility model

Ref document number: 7112191

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150