JP7051369B2 - Image processing device and image processing method - Google Patents
Image processing device and image processing method Download PDFInfo
- Publication number
- JP7051369B2 JP7051369B2 JP2017205387A JP2017205387A JP7051369B2 JP 7051369 B2 JP7051369 B2 JP 7051369B2 JP 2017205387 A JP2017205387 A JP 2017205387A JP 2017205387 A JP2017205387 A JP 2017205387A JP 7051369 B2 JP7051369 B2 JP 7051369B2
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- image
- external
- contact
- image processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
- Emergency Alarm Devices (AREA)
- Alarm Systems (AREA)
- Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
- Time Recorders, Dirve Recorders, Access Control (AREA)
- Image Processing (AREA)
Description
本発明は、画像処理装置及び画像処理方法に関する。 The present invention relates to an image processing apparatus and an image processing method.
近年、車両に対するセキュリティー機能が種々提案されている。例えば、窓ガラスを割られるなどの危害が車両に加えられた場合に、サイレン等の警報を鳴らしたり、ランプ等を点滅させたりする装置が車両に搭載される。さらに、例えば特許文献1では、車両に対して接近者を検知した場合に、車載カメラで接近者を撮影し、その画像を車両の所有者の携帯端末に送信するセキュリティー機能が提案されている。 In recent years, various security functions for vehicles have been proposed. For example, a device for sounding an alarm such as a siren or blinking a lamp or the like is mounted on the vehicle when harm such as a broken window glass is applied to the vehicle. Further, for example, Patent Document 1 proposes a security function in which, when an approaching person is detected with respect to a vehicle, the approaching person is photographed by an in-vehicle camera and the image is transmitted to the mobile terminal of the owner of the vehicle.
しかしながら、従来技術のように車内視点で車両に接近する人や他の物体を撮影する場合、画像上で、例えば窓枠やボディ等の車両の一部が対象物と重なって記録されることがある。すなわち、対象物の全貌を把握することができない虞があることに課題があった。また、従来技術のように車内視点で車両に接近する人や他の物体を撮影する場合、車両に人や他の物体が接近し、接触された車両の部分の外観を詳細に把握することができない虞があることに課題があった。したがって、車両に危害が加えられた際に、車両に接近する人や他の物体を画像として記録しても、その画像を有効に活用できないことが懸念された。 However, when a person or other object approaching the vehicle is photographed from the viewpoint inside the vehicle as in the conventional technology, a part of the vehicle such as a window frame or a body may be recorded on the image so as to overlap with the object. be. That is, there is a problem that the whole picture of the object may not be grasped. In addition, when shooting a person or other object approaching the vehicle from the viewpoint inside the vehicle as in the conventional technology, it is possible to grasp in detail the appearance of the part of the vehicle in which the person or other object approaches the vehicle and is in contact with the vehicle. There was a problem that there was a possibility that it could not be done. Therefore, when the vehicle is harmed, there is a concern that even if a person or another object approaching the vehicle is recorded as an image, the image cannot be effectively used.
本発明は、上記の課題に鑑みなされたものであり、車両に危害が加えられた際に、状況把握や事後対応において有効な画像を得ることを可能とする技術を提供することを目的とする。 The present invention has been made in view of the above problems, and an object of the present invention is to provide a technique capable of obtaining an effective image in grasping a situation and responding after the fact when a vehicle is harmed. ..
本発明に係る画像処理装置は、車載カメラで撮影された撮影画像を処理する画像処理装置であって、前記車載カメラが搭載された車両への外部からの接触を予測または検出する接近検出部と、前記車両の内部の所定位置を第1視点位置とし、前記第1視点位置から見た前記接触の位置の方向を視線方向とし、前記車両の像を透過像として含む車外画像、及び前記車両の外部の所定位置を第2視点位置とし、前記第2視点位置から見た前記接触の位置の方向を視線方向とし、前記車両の像を含む前記車両の外観画像を生成する画像生成部と、前記車外画像及び前記外観画像を外部装置に対して送信する通信部と、を備え、前記接近検出部が前記車両への前記接触を予測または検出した場合に、前記画像生成部が前記車外画像及び前記外観画像を生成し、当該車外画像及び当該外観画像を前記通信部を介して前記外部装置に対して送信する構成(第1の構成)である。 The image processing device according to the present invention is an image processing device that processes an image taken by an in-vehicle camera, and is a proximity detection unit that predicts or detects an external contact with a vehicle on which the in-vehicle camera is mounted. A predetermined position inside the vehicle is set as the first viewpoint position, the direction of the contact position viewed from the first viewpoint position is set as the line-of-sight direction, and an outside image including the image of the vehicle as a transmission image, and the vehicle An image generation unit that generates an external image of the vehicle including an image of the vehicle, with a predetermined external position as the second viewpoint position and the direction of the contact position as seen from the second viewpoint position as the line-of-sight direction, and the above. A communication unit that transmits an external image and the external image to an external device is provided, and when the approach detecting unit predicts or detects the contact with the vehicle, the image generating unit predicts or detects the external image and the external device. It is a configuration (first configuration) in which an external image is generated and the external image and the external image are transmitted to the external device via the communication unit.
また、上記第1の構成の画像処理装置において、前記接近検出部は、前記車両に接近する物体を検出し、前記画像生成部は、前記接触の位置を頂点として前記車両と前記物体とで形成される角の内側にある位置を前記第2視点位置に係る前記所定位置とする構成(第2の構成)であっても良い。 Further, in the image processing apparatus having the first configuration, the approach detection unit detects an object approaching the vehicle, and the image generation unit is formed by the vehicle and the object with the contact position as an apex. The position inside the corner to be formed may be the predetermined position related to the second viewpoint position (second configuration).
また、上記第1または第2の構成の画像処理装置において、前記接近検出部は、前記車両に接近する物体を検出し、前記物体による前記車両への前記接触を予測する構成(第3の構成)であっても良い。 Further, in the image processing apparatus having the first or second configuration, the approach detection unit detects an object approaching the vehicle and predicts the contact of the object with the vehicle (third configuration). ) May be.
また、上記第3の構成の画像処理装置において、前記接近検出部は、前記物体が前記車両への接近後、前記物体が所定時間、前記車両から所定範囲内に滞在することで、前記物体による前記車両への前記接触を予測する構成(第4の構成)であっても良い。 Further, in the image processing apparatus having the third configuration, the approach detection unit is based on the object by allowing the object to stay within a predetermined range from the vehicle for a predetermined time after the object approaches the vehicle. It may be a configuration (fourth configuration) that predicts the contact with the vehicle.
また、上記第1から第4の構成の画像処理装置において、前記接近検出部が前記車両への前記接触を予測した場合に、前記画像生成部が前記車外画像及び前記外観画像の生成を開始し、さらに、前記接近検出部が前記車両への前記接触を検出した場合に、前記通信部が前記車外画像及び前記外観画像を前記外部装置に対して送信する構成(第5の構成)であっても良い。 Further, in the image processing apparatus having the first to fourth configurations, when the approach detection unit predicts the contact with the vehicle, the image generation unit starts to generate the outside image and the appearance image. Further, when the approach detection unit detects the contact with the vehicle, the communication unit transmits the vehicle exterior image and the appearance image to the external device (fifth configuration). Is also good.
また、上記第1から第5の構成の画像処理装置において、前記接近検出部は、前記車両の内部に乗員がいないことを検出すると、前記車両への外部からの前記接触の予測または検出を開始する構成(第6の構成)であっても良い。 Further, in the image processing apparatus having the first to fifth configurations, when the approach detection unit detects that there is no occupant inside the vehicle, it starts predicting or detecting the contact from the outside to the vehicle. It may be the configuration (sixth configuration).
また、上記第1から第6の構成の画像処理装置において、前記車外画像及び前記外観画像の記録が可能な記憶部を備える構成(第7の構成)であっても良い。 Further, the image processing apparatus having the first to sixth configurations may have a configuration (seventh configuration) including a storage unit capable of recording the vehicle exterior image and the appearance image.
また、上記第7の構成の画像処理装置において、前記車外画像及び前記外観画像は、前記接近検出部が前記車両への前記接触を予測したことに基づいて前記記憶部に記憶され、前記記憶部に記憶された当該車外画像及び当該外観画像は、前記接近検出部が前記車両への前記接触を検出した場合に、前記記憶部に保存され、前記接近検出部が前記車両への前記接触を予測しなくなった場合に、前記記憶部から破棄される構成(第8の構成)であっても良い。 Further, in the image processing device having the seventh configuration, the vehicle exterior image and the appearance image are stored in the storage unit based on the fact that the approach detection unit predicts the contact with the vehicle, and the storage unit. The outside image and the appearance image stored in the storage unit are stored in the storage unit when the approach detection unit detects the contact with the vehicle, and the approach detection unit predicts the contact with the vehicle. It may be a configuration (eighth configuration) in which the storage unit discards the image when the image is no longer used.
また、上記第1から第8の構成の画像処理装置において、前記通信部は、前記車外画像及び前記外観画像の記録に係る指令を前記外部装置に対して送信する構成(第9の構成)であっても良い。 Further, in the image processing apparatus having the first to eighth configurations, the communication unit has a configuration (nineth configuration) in which a command relating to recording of the vehicle exterior image and the appearance image is transmitted to the external device. There may be.
また、本発明に係る画像処理方法は、車載カメラで撮影された撮影画像を処理する画像処理方法であって、前記車載カメラが搭載された車両への外部からの接触を予測または検出する工程と、前記車両への外部からの接触が予測または検出された場合に、前記車両の内部の所定位置を第1視点位置とし、前記第1視点位置から見た前記接触の位置の方向を視線方向とし、前記車両の像を透過像として含む車外画像を生成する工程と、前記車両への外部からの接触が予測または検出された場合に、前記車両の外部の所定位置を第2視点位置とし、前記第2視点位置から見た前記接触の位置の方向を視線方向とし、前記車両の像を含む前記車両の外観画像を生成する工程と、前記車外画像及び前記外観画像を外部装置に対して送信する工程と、を含む構成(第10の構成)である。 Further, the image processing method according to the present invention is an image processing method for processing an image taken by an in-vehicle camera, and is a step of predicting or detecting an external contact with a vehicle on which the in-vehicle camera is mounted. When an external contact with the vehicle is predicted or detected, the predetermined position inside the vehicle is defined as the first viewpoint position, and the direction of the contact position viewed from the first viewpoint position is defined as the line-of-sight direction. A step of generating an outside image including an image of the vehicle as a transmission image, and when an external contact with the vehicle is predicted or detected, a predetermined position outside the vehicle is set as a second viewpoint position, and the above-mentioned A step of generating an external image of the vehicle including an image of the vehicle, and transmitting the external image and the external image to an external device with the direction of the contact position viewed from the second viewpoint position as the line-of-sight direction. It is a configuration (10th configuration) including the process.
本発明の構成によれば、例えば車両に接近する人や他の物体の外観や挙動を、画像として確認することができる。さらに、例えば車両に外部から人や他の物体が接近し、接触された車両の部分の外観を、画像として確認することができる。すなわち、車両に危害が加えられた際に、状況把握や事後対応において有効な画像を得ることが可能になる。 According to the configuration of the present invention, for example, the appearance and behavior of a person approaching a vehicle or another object can be confirmed as an image. Further, for example, the appearance of a portion of the vehicle in which a person or another object approaches the vehicle from the outside and is in contact with the vehicle can be confirmed as an image. That is, when the vehicle is harmed, it is possible to obtain an effective image for grasping the situation and responding after the fact.
以下、本発明の例示的な実施形態について、図面を参照しながら詳細に説明する。なお、本発明は以下に示す実施形態の内容に限定されるものではない。 Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the drawings. The present invention is not limited to the contents of the embodiments shown below.
また、以下の説明では、車両の直進進行方向であって、運転席からハンドルに向かう方向を「前方向(前方)」とする。車両の直進進行方向であって、ハンドルから運転席に向かう方向を「後方向(後方)」とする。車両の直進進行方向及び鉛直線に垂直な方向であって、前方を向いている運転手の右側から左側に向かう方向を「左方向」とする。車両の直進進行方向及び鉛直線に垂直な方向であって、前方を向いている運転手の左側から右側に向かう方向を「右方向」とする。 Further, in the following description, the direction from the driver's seat to the steering wheel, which is the straight-ahead traveling direction of the vehicle, is referred to as "forward direction (forward)". The direction in which the vehicle travels straight from the steering wheel to the driver's seat is referred to as "rear direction (rear)". The direction from the right side to the left side of the driver facing forward, which is the direction perpendicular to the straight line and the vertical direction of the vehicle, is referred to as "left direction". The direction from the left side to the right side of the driver facing forward, which is the direction perpendicular to the straight line and the vertical direction of the vehicle, is referred to as "right direction".
<1.画像処理装置の概略>
図1は、実施形態の画像処理装置1の構成を示すブロック図である。画像処理装置1は、例えば撮影部2と、センサ部3と、外部装置4と、を含む車両周辺監視システムに組み込むことができる。車両周辺監視システムは、撮影部2(車載カメラ)が搭載された車両の周辺状況を監視するシステムである。
<1. Outline of image processing device>
FIG. 1 is a block diagram showing the configuration of the image processing device 1 of the embodiment. The image processing device 1 can be incorporated into a vehicle peripheral monitoring system including, for example, a photographing
画像処理装置1は、車載カメラで撮影された撮影画像を処理する装置である。画像処理装置1は、車載カメラを搭載する車両ごとに備えられる。本実施形態では、画像処理装置1は、撮影部2から撮影画像を取得して処理する。また、画像処理装置1は、センサ部3から情報を取得し、当該取得情報に基づいて画像処理に関する判断を行う。
The image processing device 1 is a device that processes a captured image captured by an in-vehicle camera. The image processing device 1 is provided for each vehicle equipped with an in-vehicle camera. In the present embodiment, the image processing device 1 acquires a photographed image from the photographing
撮影部2は、車両周辺及び車室内部の状況を監視する目的で設けられる。撮影部2は、例えば4つのカメラ21~24を備える。4つのカメラ21~24は、車載カメラである。図2は、車載カメラ21~24が車両5に配置される位置を例示する図である。
The photographing
車載カメラ21は車両5の前端に設けられる。このため、車載カメラ21をフロントカメラ21とも呼ぶ。フロントカメラ21の光軸21aは上からの平面視で車両5の前後方向に沿って延びる。フロントカメラ21は車両5の前方向を撮影する。車載カメラ23は車両5の後端に設けられる。このため、車載カメラ23をバックカメラ23とも呼ぶ。バックカメラ23の光軸23aは上からの平面視で車両5の前後方向に沿って延びる。バックカメラ23は車両5の後方向を撮影する。フロントカメラ21及びバックカメラ23の取付位置は、車両5の左右中央であることが好ましいが、左右中央から左右方向に多少ずれた位置であっても良い。
The vehicle-mounted
車載カメラ22は車両5の右側ドアミラー51に設けられる。このため、車載カメラ22を右サイドカメラ22とも呼ぶ。右サイドカメラ22の光軸22aは上からの平面視で車両5の左右方向に沿って延びる。右サイドカメラ22は車両5の右方向を撮影する。車載カメラ24は車両5の左側ドアミラー52に設けられる。このため、車載カメラ24を左サイドカメラ24とも呼ぶ。左サイドカメラ24の光軸24aは上からの平面視で車両5の左右方向に沿って延びる。左サイドカメラ24は車両5の左方向を撮影する。
The vehicle-mounted
なお、車両5がいわゆるドアミラーレス車である場合、右サイドカメラ22は右サイドドアの回転軸(ヒンジ部)の周辺にドアミラーを介することなく設けられ、左サイドカメラ24は左サイドドアの回転軸(ヒンジ部)の周辺にドアミラーを介することなく設けられる。
When the
車載カメラ21~24のレンズとしては、例えば魚眼レンズが使用される。車載カメラ21~24は、それぞれの水平方向の画角θが180度以上であるため、車両5の水平方向における全周囲を撮影することができる。
As the lenses of the in-
図1に戻って、センサ部3は、車載カメラ21~24が搭載される車両5に関する情報を検出する複数のセンサを有する。車両5に関する情報には、車両自体の情報と、車両周辺の情報とが含まれて良い。本実施形態では、センサ部3は、例えば車両の乗員のシートへの着座を検出する着座センサ、車両の変速装置のシフトレバーの操作位置を検出するシフトセンサ、車両のドアの開閉を検知するドア開閉センサ、車両の振動を検出する振動センサ、車両の傾きを検出する傾斜センサ、車両周辺の人や動物、車両、その他の物体を検出する超音波センサ及びレーダ等が含まれる。なお、超音波センサ、レーダのほか、赤外線等を用いた光センサなどを利用し、人などを検出しても良い。
Returning to FIG. 1, the
外部装置4は、画像処理装置1から出力される表示用画像を受信する装置である。外部装置4は、例えば車両5の所有者等が所持する端末、サーバ等が含まれる。端末としては、例えばスマートフォン等の携帯端末、パーソナルコンピュータ等の据え置き型情報端末等が含まれる。本実施形態では、外部装置4は、例えばスマートフォン等の携帯端末であって、画像処理装置1から出力された表示用画像を画面表示する表示部41を備える表示装置である。表示部41は、例えば液晶表示パネルであって、タッチパネル方式等の入力部を備え、外部から情報を入力できる構成であって良い。
The
<2.画像処理装置の詳細>
画像処理装置1は、画像生成部11、制御部12、記憶部13及び通信部14を含んで構成される。
<2. Details of image processing device>
The image processing device 1 includes an
画像生成部11は、撮影部2で撮影された撮影画像を処理して表示用画像を生成する。本実施形態では、画像生成部11は、各種の画像処理が可能なハードウェア回路として構成される。本実施形態では、画像生成部11は、車両5に搭載された車載カメラ21~24によって撮影された撮影画像に基づき、仮想視点から見た車両5の周辺を示す仮想視点画像を生成する。さらに、画像生成部11は、仮想視点画像に基づき、表示装置である外部装置4で表示するための表示用画像を生成する。仮想視点画像を生成する手法の詳細については後述する。
The
制御部12は、不図示のCPU(Central Processing Unit)、RAM(Random Access Memory)、及びROM(Read Only Memory)を含む、いわゆるマイコンである。記憶部13は、不揮発性のメモリである。制御部12は、記憶部13に記憶されたプログラムに基づいて情報の処理及び送受信を行う。制御部12は、有線または無線で、撮影部2、センサ部3及び外部装置4に接続される。
The
制御部12は、画像取得部121と、画像制御部122と、接近検出部123と、を備える。制御部12が備えるこれらの各構成要素それぞれの機能は、プログラムに従ってCPUが演算処理を行うことによって実現される。
The
画像取得部121は、車載カメラ21~24で撮影された撮影画像を取得する。本実施形態では、車載カメラ21~24の数は4つであり、画像取得部121は、車載カメラ21~24それぞれで撮影された撮影画像を取得する。
The
画像制御部122は、画像生成部11によって実行される画像処理の制御を行う。例えば、画像制御部122は、画像生成部11に対して、仮想視点画像及び表示用画像を生成するために必要となる各種のパラメータ等の指示を行う。また、画像制御部122は、画像生成部11によって生成された表示用画像を外部装置4に対して出力する際の制御を行う。
The
接近検出部123は、車載カメラ21~24が搭載された車両5への外部からの接触を予測または検出する。詳細には、接近検出部123は、車両5に対して接近する人や動物、車両、その他の物体を検出するとともに、それらによる車両5への接触を検出する。
The
さらに具体的には、接近検出部123は、車両5への外部からの接触の予測または検出の開始に先立って、例えばセンサ部3の着座センサ、シフトセンサ、ドア開閉センサからの検出信号に基づき、車両5の内部に乗員がいないことを検出する。例えば、乗員が着座しておらず、且つイグニッションスイッチがOFFである場合、車両5の内部に乗員がいないことが検出される。また例えば、乗員の着座しておらず、且つドアが閉じている場合、車両5の内部に乗員がいないことが検出される。また例えば、乗員の着座しておらず、且つシフトレバーが「P」、「N」、「R」のいずれかの位置である場合、車両5の内部に乗員がいないことが検出される。なお、車両5の内部に乗員がいないことを検出する手段は、これらに限定されない。例えば、イグニッションスイッチがOFFになり、その後運転席ドアが閉から開になりさらに閉になる、すなわち運転者が降車したと推定され、且つ全ドアが閉且つロックされた場合に車両5の内部に乗員がいないと検出されても良い。
More specifically, the
続いて、接近検出部123は、例えば振動センサから車両の振動の程度を表す検出信号を取得し、また、傾斜センサから車両の傾きの程度を表す検出信号を取得する。これらの検出信号の取得に基づき、接近検出部123は、車両5への外部からの接触を検出する。そして、画像処理装置1は撮影部2に、車載カメラ21~24による車両周辺の撮影を指示する指令を送信する。接近検出部123は、車載カメラ21~24で撮影された車両周辺の撮影画像に基づき、車両周辺の人や動物、車両、その他の物体を画像認識により検出する。これにより、接近検出部123は、車両5に対して接近または接触する人や車両などの有無や方向、位置を検出する。
Subsequently, the
なお、車載カメラ21~24の起動トリガーとして振動センサや傾斜センサ等を用いることなく、例えば車載カメラ21~24を一定の時間を隔てて周期的に起動させ、車載カメラ21~24に車両周辺を撮影させても良い。
It should be noted that, for example, the in-
また、車両周辺の人や動物、車両、その他の物体の検出には、例えばセンサ部3の超音波センサ、レーダを用いても良い。超音波センサ及びレーダは、例えば車両5のフロントバンパー、リアバンパー及びドアなどの複数箇所に埋設される。超音波センサ及びレーダは、送信波を車両周辺に向けて送信し、人や他の車両などで反射した反射波を受信することで、人や他の車両などの有無や方向、位置を検出する。
Further, for detecting a person, an animal, a vehicle, or another object around the vehicle, for example, an ultrasonic sensor or a radar of the
記憶部13は、例えばフラッシュメモリ等の不揮発性のメモリであり、各種の情報を記憶する。記憶部13は、例えばファームウェアとしてのプログラム、画像生成部11が仮想視点画像及び表示用画像を生成するための各種のデータを記憶する。また、記憶部13は、画像取得部121及び接近検出部123が処理を実行するために必要となる各種のデータを記憶する。
The
通信部14は、例えば無線によって外部装置4と接続される。画像処理装置1は、通信部14を介して外部装置4に、画像生成部11で生成された表示用画像を出力することが可能である。
The
<3.仮想視点画像の生成>
画像生成部11が、仮想視点から見た車両5の周辺の様子を示す仮想視点画像を生成する手法について説明する。図3は、仮想視点画像を生成する手法を説明するための図である。
<3. Generation of virtual viewpoint image>
The method in which the
フロントカメラ21、右サイドカメラ22、バックカメラ23及び左サイドカメラ24によって、車両5の前方、右側方、後方及び左側方それぞれを示す4つの撮影画像P21~P24が同時に取得される。これら4つの撮影画像P21~P24には、車両5の全周囲のデータが含まれる。画像生成部11は、これら4つの撮影画像P21~P24を、画像取得部121を介して取得する。
The
画像生成部11は、これら4つの撮影画像P21~P24に含まれるデータ(各画素の値)を、仮想的な三次元空間における立体的な曲面である投影面TSに投影する。投影面TSは、例えば略半球形状(お椀形状)をしており、その中心部(お椀の底部分)が車両5の位置として定められる。
The
投影面TSでは、車両5の領域の外側の領域に、撮影画像のデータが投影される。撮影画像P21~P24に含まれる各画素の位置と、投影面TSの各画素の位置とは予め対応関係が定められる。この対応関係を示すテーブルデータは、記憶部13に記憶される。投影面TSの各画素の値は、この対応関係と、撮影画像P21~P24に含まれる各画素の値とに基づいて決定できる。
On the projection surface TS, the data of the captured image is projected on the area outside the area of the
次に、画像生成部11は、画像制御部122の制御により、三次元空間に対して仮想視点VPを設定する。仮想視点VPは、視点位置と視線方向とで規定される。画像生成部11は、任意の視点位置、且つ、任意の視線方向の仮想視点VPを三次元空間に設定できる。画像生成部11は、投影面TSのうち、設定された仮想視点VPから見た視野内に含まれる領域に投影されたデータを画像として切り出す。これにより、画像生成部11は、任意の仮想視点VPから見た仮想視点画像を生成する。
Next, the
例えば、図3に示すように、視点位置を車両5の直上、視線方向を直下とした仮想視点VPaを想定した場合、車両5及び車両5の周辺を俯瞰する仮想視点画像(俯瞰画像)CPaを生成することができる。また、視点位置を車両5の内部、視線方向を車両5の右前方とした仮想視点VPbを想定した場合、車両5の内部から見た車両5の右前方の周辺を示す仮想視点画像CPbを生成することができる。また、視点位置を車両5の外部の右前方、視線方向を車両5の左後方とした仮想視点VPcを想定した場合、車両5の外部の右前方から見た車両5の全体を示す仮想視点画像CPcを生成することができる。
For example, as shown in FIG. 3, assuming a virtual viewpoint VPa with the viewpoint position directly above the
なお、仮想視点画像CPa、CPc中に示す車両5の像5pは、予めビットマップなどのデータとして用意され、記憶部24に記憶される。仮想視点画像の生成の際には、当該仮想視点画像の仮想視点VPの視点位置と視線方向とに応じた形状の車両5の像5pのデータが読み出されて、仮想視点画像CPa、CPc中に含められる。
The
図3の仮想視点画像CPbについて、より詳細に説明すれば、仮想視点画像CPbは、車両5の内部の所定位置である運転者の視点付近を視点位置とし、車両5の右前方を視線方向とした仮想視点に基づく車両5の車外画像である。以下の説明において、車両5の内部の所定位置を視点位置とし、当該視点位置から見た車両5の外部の方向を視線方向とした仮想視点画像のことを、車外画像Pxと呼ぶ場合がある。
The virtual viewpoint image CPb of FIG. 3 will be described in more detail. In the virtual viewpoint image CPb, the viewpoint position is near the driver's viewpoint, which is a predetermined position inside the
車外画像Pxである仮想視点画像CPbには、画像生成部11が生成した仮想視点画像に、車両5の透過像5tが含められる。車外画像Pxは、車両5の内部を仮想視点の視点位置とした場合に、視線方向に見える現実の光景により近い状況を表現した画像であり、車両5とその周囲の物体との位置関係も理解し易い。車外画像Pxでは、車両5の周囲の物体が、車両5の一部と重なって隠れてしまうことを防ぐため、車両5の像を透過像5tとする。
In the virtual viewpoint image CPb which is the outside vehicle image Px, the
なお、車外画像Px中に示す車両5の透過像5tは、予めビットマップなどのデータとして用意され、記憶部24に記憶される。車外画像の生成の際には、当該車外画像の仮想視点VPの視点位置と視線方向とに応じた形状の透過像5tのデータが読み出されて、車外画像Px中に含められる。
The
図3の仮想視点画像CPcについて、より詳細に説明すれば、仮想視点画像CPcは、車両5の外部の右前方の所定位置を視点位置とし、車両5の左後方を視線方向とした仮想視点に基づく車両5の外観画像である。以下の説明において、車両5の外部の所定位置を視点位置とし、当該視点位置から見た車両5の方向を視線方向とした仮想視点画像のことを、車両5の外観画像Pzと呼ぶ場合がある。
To explain the virtual viewpoint image CPc in FIG. 3 in more detail, the virtual viewpoint image CPc has a viewpoint position at a predetermined position on the right front outside the
このようにして、画像生成部11は、仮想の立体的な投影面TSを用いることで、現実に近い臨場感のある仮想視点画像CPa、CPb、CPcを生成することができる。さらに、画像生成部11は、車両5の内部の所定位置を仮想視点VPの視点位置とし、当該視点位置から見た車両5の外部の方向を視線方向とし、車両5の像を透過像5tとして含む車外画像Pxを生成する。また、画像生成部11は、車両5の外部の所定位置を仮想視点VPの視点位置とし、当該視点位置から見た車両5の方向を視線方向とし、車両5の像5pを含む車両5の外観画像Pzを生成する。
In this way, the
<4.車両の外観画像の生成、送信に係る処理>
本実施形態において、画像処理装置1は、車外画像Px及び車両5の外観画像Pzを生成し、当該車外画像Px及び当該外観画像Pzを外部装置4に対して送信する。
<4. Processing related to vehicle appearance image generation and transmission>
In the present embodiment, the image processing device 1 generates an external image Px and an external image Pz of the
<4-1.第1実施形態>
図4は、第1実施形態の車外画像Px及び外観画像Pzの生成、送信に係る処理フローの例を示すフローチャートである。第1実施形態の車外画像Px及び外観画像Pzの生成、送信に係る処理について、図4を参照しつつ説明する。
<4-1. First Embodiment>
FIG. 4 is a flowchart showing an example of a processing flow related to generation and transmission of an external image Px and an external image Pz according to the first embodiment. The processing related to the generation and transmission of the vehicle exterior image Px and the appearance image Pz of the first embodiment will be described with reference to FIG.
図4に示すように、まず、車両5では、車両5への外部からの接触が接近検出部123によって監視される。(ステップS101)。画像処理装置1では、所定の開始条件が成立すると、車両5への外部からの接触の監視が開始される。所定の開始条件とは、例えば先に説明したように、車両5の内部に乗員がいなくなった場合であっても良い。例えば、乗員が着座しておらず、且つイグニッションスイッチがOFFである場合、車両5の内部に乗員がいないことが検出され、監視モードに入り、車両5への外部からの接触の監視が開始される。なお、監視モードは正規のユーザーが車両の運転を開始するときに解除される。例えば、キーによりドアがアンロックされた場合や、図示せぬキーレスエントリ装置の送信機によりドアがアンロックされた場合に、正規のユーザーが車両の運転を開始すると判断される。
As shown in FIG. 4, first, in the
次に、車両5への外部からの接触を検出したか否かが判定される(ステップS102)。車両5への外部からの接触は、例えばセンサ部3の振動センサから取得した車両の振動の程度を表す検出信号に基づき判定される。また、車両5への外部からの接触は、例えばセンサ部3の傾斜センサから取得した車両の傾きの程度を表す検出信号に基づき判定される。また、車両5への外部からの接触の検出に、例えばセンサ部3の超音波センサ、レーダを用いても良い。
Next, it is determined whether or not an external contact with the
車両5への外部からの接触を検出しない場合(ステップS102のNo)、ステップS101に戻って、車両5への物体の接触の監視が継続される。
If no external contact with the
車両5への外部からの接触を検出した場合(ステップS102のYes)、車両5の周辺画像の取得が行われる(ステップS103)。図5は、車両5への外部からの接触の状況を示す説明図である。図5に示すように、本実施形態では、例えば、駐車中の車両5に他車両Trが接触したこととする。接触位置は、車両5の右前部5fである。車両5の周辺画像は、車載カメラ21~24に車両周辺を撮影させることで取得することができる。画像処理装置1は撮影部2に、車載カメラ21~24による車両周辺の撮影を指示する指令を送信する。画像処理装置1は、車載カメラ21~24それぞれで撮影された撮影画像を画像取得部121を介して取得し、記憶部13に記憶する。
When an external contact with the
図4に戻って、次に、接触位置及び接触方向が検出される(ステップS104)。例えば、接触位置及び接触方向は、車載カメラ21~24に撮影させた車両周辺の撮影画像に基づいて検出される。接近検出部123は、車両5に対して外部から接触する他車両Trの接触位置及び接触方向を検出する。また例えば、接触位置及び接触方向は、センサ部3の超音波センサ、レーダを用いても検出することができる。
Returning to FIG. 4, the contact position and the contact direction are then detected (step S104). For example, the contact position and the contact direction are detected based on the captured images around the vehicle taken by the vehicle-mounted
次に、仮想視点画像が生成される(ステップS105)。画像生成部11は、ステップS103で取得し、記憶部13に記憶した車両周辺の複数の撮影画像に基づき、仮想視点から見た車両5の周辺の様子を示す仮想視点画像を生成する。
Next, a virtual viewpoint image is generated (step S105). The
次に、画像生成部11は、車両5の透過像5tを含む車外画像Pxを生成し、記憶部13に記憶させる(ステップS106)。図6は、車外画像Pxの第1例を示す模式図である。例えば、本実施形態では、ステップS104において、車両5の右前部5fで、車両5への外部からの接触を検出したこととする。これにより、画像生成部11は、車両5の内部の所定位置である運転者の視点付近を第1視点位置とし、当該第1視点位置から見た接触の位置である車両5の右前部5fの方向を視線方向とした仮想視点VPx(図5参照)に基づき、図6に示す車外画像Pxを生成する。
Next, the
車外画像Pxは、画像生成部11が生成した仮想視点画像に、車両5の像を透過像5tとして含む。車外画像Pxの仮想視点画像には、車両5に接触した他車両Trの像Tpが含まれる。さらに、画像生成部11は、車外画像Pxの仮想視点画像に基づき、外部装置4で表示するための車外画像Pxの表示用画像を生成する。
The vehicle exterior image Px includes an image of the
なお、図6及び後述する図8において、車外画像Pxに含まれる車両5に接触した他車両Trの像Tpは簡略化して描画されているが、実際には、接触した他車両Trの車種やナンバープレート等を識別可能な程度に表示される。さらに、後述する他の図面の他車両Trの像Tpについても同様である。
In addition, in FIG. 6 and FIG. 8 described later, the image Tp of the other vehicle Tr in contact with the
図4に戻って、次に、画像生成部11は、車両5の像5pを含む車両5の外観画像Pzを生成し、記憶部13に記憶させる(ステップS107)。図7は、外観画像Pzの第1例を示す模式図である。例えば、本実施形態では、ステップS104において、車両5の右前部5fで、車両5への外部からの接触を検出したこととする。これにより、画像生成部11は、車両5の外部の右前方の所定位置を第2視点位置とし、当該第2視点位置から見た接触の位置である車両5の右前部5fの方向を視線方向とした仮想視点VPz(図5参照)に基づき、図7に示す車両5の外観画像Pzを生成する。
Returning to FIG. 4, the
外観画像Pzは、画像生成部11が生成した仮想視点画像に、車両5の像5pを含む。さらに、画像生成部11は、外観画像Pzの仮想視点画像に基づき、外部装置4で表示するための外観画像Pzの表示用画像を生成する。
The appearance image Pz includes an
図4に戻って、次に、通信部14が、車外画像Px及び外観画像Pzを外部装置4に対して送信する(ステップS108)。画像処理装置1は、例えば車外画像Pxの表示用画像、及び外観画像Pzの表示用画像が添付された電子メール等を作成し、当該電子メールを通信部14を介して外部装置4に送信する。電子メール等には、例えば車両5に対して他車両Trが接触したことを知らせる旨のメッセージが記載される。
Returning to FIG. 4, the
図8は、車外画像Pxの第1例及び外観画像Pzの第1例が表示された外部装置4を示す模式図である。例えば、スマートフォン等の携帯端末である外部装置4では、表示部41に車外画像Px及び外観画像Pzを表示させることができる。車外画像Px及び外観画像Pzが外部装置4に対して送信されると、図4に示す処理フローが終了される。
FIG. 8 is a schematic view showing an
なお、車外画像Px及び外観画像Pzの外部装置4への送信は、電子メール等に画像データを添付して行うほか、例えば、車外画像Px及び外観画像Pzが保存されたネットワーク上のアドレスを送信することでも行うことが可能である。この場合、車外画像Px及び外観画像Pzは、画像処理装置1の記憶部13、またはネットワーク上の他の外部装置(サーバ等)に保存される。
The external device Px and the external image Pz are transmitted to the
また、外部装置4で表示可能な車外画像Px及び外観画像Pzは、既に撮影済みの画像(静止画)であるほか、画像生成部11によって生成される撮影済みの車外画像Px及び外観画像Pzの映像(動画)であっても良い。さらに、これらの車外画像Px及び外観画像Pzの映像(動画)は、現在の状況を示すリアルタイム(生中継)の映像であっても良い。これらの場合、画像処理装置1から外部装置4に送信される電子メール等には、リアルタイムの車外画像Px及び外観画像Pzである映像にアクセスするためのネットワークアドレス、閲覧方法等を知らせる旨のメッセージが記載される。
Further, the vehicle exterior image Px and the exterior image Pz that can be displayed by the
また、車外画像Px及び外観画像Pzの静止画及び動画は、記録、録画することができる。車外画像Px及び外観画像Pzの静止画及び動画の記録、録画は、画像処理装置1の記憶部13で行っても良いし、外部装置4の記憶部(不図示)で行っても良い。車外画像Px及び外観画像Pzを外部装置4に記録させる場合、通信部14は、車外画像Px自体及び外観画像Pz自体の送信に加えて、車外画像Px及び外観画像Pzの記録に係る指令を外部装置4に対して送信する。
Further, the still images and moving images of the vehicle exterior image Px and the external image Pz can be recorded and recorded. Recording and recording of still images and moving images of the vehicle exterior image Px and the external image Pz may be performed by the
また、外部装置4の表示部41では、車外画像Px及び外観画像Pz及びそのリアルタイム映像に対して、例えば拡大、縮小などといった操作を行うことができる。この場合、例えば表示部41に備えられたタッチパネル等を用いて操作することができる。また、この場合、車外画像Px及び外観画像Pzのいずれか一方に対して拡大、縮小等の操作を行うと、それに連動して他方も自動的に拡大、縮小等の操作が行われることにしても良いし、個別に拡大、縮小等ができることにしても良い。
Further, the
また、外部装置4の表示部41において、車外画像Px、外観画像Pz及びそれらのリアルタイム映像は、自由に視点切替ができることにしても良い。この場合、例えば表示部41に備えられたタッチパネル等を用いて操作し、視点切替を行うことができる。
Further, on the
具体的には、外部装置4の表示部41において、タッチパネル等を用いて車外画像Pxまたは外観画像Pzに対して新たな視点位置及び視線方向が決定される。外部装置4は、決定した視点位置及び視線方向の情報(以下、視線情報という)を通信部14に送信する。画像制御部122は、通信部14を介して受信した視線情報に基づき画像生成部11に新たな車外画像Px、外観画像Pzまたはリアルタイム映像を生成させ、通信部14から外部装置4に送信する。このようにして、外部装置4で視点位置及び視線方向が変更されると、その変更された新たな車外画像Px、外観画像Pzまたはリアルタイム映像が外部装置4の表示部41に表示される。また、この場合、車外画像Px及び外観画像Pzのいずれか一方の視点切替を行うと、それに連動して他方も自動的に視点切替が行われることにしても良いし、個別に視点切替ができることにしても良い。
Specifically, in the
また、外部装置4の表示部41では、車外画像Px及び外観画像Pzの両方を同時に表示させても良いし、車外画像Px及び外観画像Pzのいずれか一方を個別に表示させても良い。
Further, the
上記のように、本実施形態の画像処理装置1は、車両5への外部からの接触を検出した場合に、仮想視点画像に車両5の像を透過像5tとして含む車外画像Pxと、仮想視点画像に車両5の像5pを含む車両5の外観画像Pzと、を生成し、当該車外画像Px及び当該外観画像Pzを外部装置4に対して送信する。これにより、車両5に接触した他車両Trの外観や挙動を、車外画像Pxとして確認することができる。さらに、車両5の、外部から接触された部分の外観を、外観画像Pzとして確認することができる。すなわち、車両5に危害が加えられた際に、状況把握や事後対応において有効な車外画像Px及び外観画像Pzを得ることが可能になる。
As described above, when the image processing device 1 of the present embodiment detects an external contact with the
また、接近検出部123は、車両5の振動または傾きに基づいて車両5への外部からの接触を検出する。これにより、車両5への物体の接触のタイミングを、適正に判別することができる。そして、車両5への物体の接触の直後から、車両5に接触した他車両Trの外観や挙動を車外画像Pxとして確認することが可能であり、車両5の、外部から接触された部分の外観を外観画像Pzとして確認することが可能である。
Further, the
また、接近検出部123は、車両5の内部に乗員がいないことを検出し、さらに車両5への外部からの接触の検出を開始する。これにより、画像処理装置1は、車両5の内部に乗員がいる場合に作動せず、適正なタイミングで作動させることが可能である。
Further, the
また、外部装置4に送信される車外画像Px及び外観画像Pzは、静止画または動画である。さらに、車外画像Pxの動画及び外観画像Pzの動画は、生中継の映像である。これらにより、静止画、動画及び生中継映像によって、車両5に接触した他車両Trの外観や挙動と、車両5の、外部から接触された部分の外観と、を見ることができる。したがって、車両5に危害が加えられた際の、状況把握や事後対応において一層有効である。
Further, the vehicle exterior image Px and the appearance image Pz transmitted to the
また、画像処理装置1は、車外画像Px及び外観画像Pzの記録が可能な記憶部13を備える。これにより、任意のタイミングで、画像処理装置1の車外画像Px及び外観画像Pzを見ることが可能である。
Further, the image processing device 1 includes a
また、通信部14は、車外画像Px自体及び外観画像Pz自体の送信に加えて、車外画像Px及び外観画像Pzの記録に係る指令を外部装置4に対して送信する。これにより、車外画像Px及び外観画像Pzを外部装置4に記録させることができる。したがって、外部装置4において、任意のタイミングで、画像処理装置1の車外画像Px及び外観画像Pzを見ることが可能である。
Further, in addition to transmitting the vehicle exterior image Px itself and the appearance image Pz itself, the
<4-1-1.第1実施形態の変形例>
図9は、外観画像Pzの第2例を示す模式図である。図10は、車外画像Pxの第1例及び外観画像Pzの第2例が表示された外部装置4を示す模式図である。図9及び図10に示す外観画像Pzの第2例の仮想視点は、先に説明した図7及び図8に示す外観画像Pzの第1例の仮想視点とは異なる視点位置である。なお、車両5に対する外部からの接触の位置は、同様に車両5の右前部5fである。
<4-1-1. Modification example of the first embodiment>
FIG. 9 is a schematic view showing a second example of the appearance image Pz. FIG. 10 is a schematic view showing an
外観画像Pzの第2例の場合、画像生成部11は、車両5の外部の右後方の所定位置を第2視点位置とし、当該第2視点位置から見た接触の位置である車両5の右前部5fの方向を視線方向とした仮想視点に基づき、図9及び図10に示す車両5の外観画像Pzを生成する。すなわち、図9に示すように、画像生成部11は、接触の位置である車両5の右前部5fを頂点Vとし、車両5と他車両Trとで形成される角αの内側にある位置を第2視点位置に係る所定位置とする。外観画像Pzの第2例には、車両5の像5pに加えて、車両5に接触した他車両Trの像Tpが含まれる。
In the case of the second example of the external image Pz, the
図11は、車外画像Pxの第2例を示す模式図である。図11に示す車外画像Pxの第2例の場合、画像処理装置1は、例えば他車両TrがドアTdを開放したことによる車両5への接触を検出する。車両5に対する外部からのドアTdの接触の位置は、同様に車両5の右前部5fである。
FIG. 11 is a schematic view showing a second example of the external image Px. In the case of the second example of the vehicle exterior image Px shown in FIG. 11, the image processing device 1 detects contact with the
車外画像Pxの第2例の仮想視点は、図6に示す車外画像Pxの第1例とほぼ同じ、車両5の内部の運転者の視点付近が第1視点位置である。そして、画像生成部11は、車両5の内部の所定位置である運転者の視点付近を第1視点位置とし、当該第1視点位置から見た接触の位置である車両5の右前部、すなわち他車両TrのドアTdの方向を視線方向とした仮想視点に基づき、図11に示す車外画像Pxを生成する。車外画像Pxの第2例には、車両5の透過像5tに加えて、車両5に接触したドアTdを開放した他車両Trの像Tpが含まれる。
The virtual viewpoint of the second example of the vehicle exterior image Px is substantially the same as the first example of the vehicle exterior image Px shown in FIG. 6, and the vicinity of the viewpoint of the driver inside the
図12は、外観画像Pzの第3例を示す模式図である。図12に示す外観画像Pzの第3例は、図11と同じ車両5への外部からの接触の状況、すなわち他車両TrがドアTdを開放したことによる車両5への接触の状況を示す。
FIG. 12 is a schematic view showing a third example of the external image Pz. The third example of the external image Pz shown in FIG. 12 shows the situation of external contact with the
外観画像Pzの第3例の仮想視点は、図9及び図10に示す外観画像Pzの第2例と同様に、車両5の外部の右後方の所定位置が第2視点位置である。すなわち、図12に示すように、画像生成部11は、接触の位置である車両5の右前部5fを頂点Vとし、車両5と他車両Trとで形成される角βの内側にある位置を第2視点位置に係る所定位置とする。外観画像Pzの第3例には、車両5の像5pに加えて、車両5に接触したドアTdを開放した他車両Trの像Tpが含まれる。
As in the virtual viewpoint of the third example of the external image Pz, the predetermined position on the right rear outside the
車外画像Pxの第2例によれば、車両5の外部に接触した他車両Trの外観や挙動を、運転者の視点付近から見た車外画像Pxとして確認することができる。すなわち、車両5に危害が加えられた際に、状況把握や事後対応においてより一層有効な車外画像Pxを得ることが可能になる。
According to the second example of the vehicle exterior image Px, the appearance and behavior of the other vehicle Tr in contact with the outside of the
外観画像Pzの第2例、第3例によれば、車両5の外部に接触した他車両Trの外観や挙動を、外観画像Pzとして確認することができる。すなわち、車両5に危害が加えられた際に、状況把握や事後対応においてより一層有効な外観画像Pzを得ることが可能になる。
According to the second and third examples of the appearance image Pz, the appearance and behavior of the other vehicle Tr in contact with the outside of the
なお、外部装置4の表示部41では、複数の外観画像Pzを同時に表示させても良い。例えば、外部装置4の表示部41では、車両5の外部の右前方の所定位置が視点位置である外観画像Pzの第1例と、車両5の外部の右後方の所定位置が視点位置である外観画像Pzの第2例或いは第3例と、の両方を同時に表示させても良い。
The
<4-2.第2実施形態>
図13は、第2実施形態の車外画像Px及び外観画像Pzの生成、送信に係る処理フローの例を示すフローチャートである。なお、第2実施形態の基本的な構成は先に説明した第1実施形態と同じであるので、第1実施形態と異なる構成については以下で説明し、第1実施形態と共通する構成については詳細な説明を省略する。
<4-2. 2nd Embodiment>
FIG. 13 is a flowchart showing an example of a processing flow related to generation and transmission of the vehicle exterior image Px and the appearance image Pz of the second embodiment. Since the basic configuration of the second embodiment is the same as that of the first embodiment described above, the configurations different from the first embodiment will be described below, and the configurations common to the first embodiment will be described below. A detailed description will be omitted.
第2実施形態の画像処理装置1は、接近検出部123が、車両5に接近する物体を検出し、当該物体による車両5への接触を予測する。すなわち、図13に示すように、まず、車両5では、車両5に対して外部から接近する人や動物、車両、その他の物体が接近検出部123によって監視される(ステップS201)。画像処理装置1では、例えば車両5の内部に乗員がいなくなった場合等の所定の開始条件が成立すると、監視モードとなり、車両5への外部からの接近の監視が開始される。
In the image processing device 1 of the second embodiment, the
次に、車両5への外部からの接近を検出したか否かが判定される(ステップS202)。車両5に接近する物体の検出に関して、詳細には、接近検出部123は、物体が車両5から所定範囲内に進入することで、物体による車両5への接触を予測する。車両5からの所定範囲としては、例えば半径3m以内などといった範囲を任意に設定することができる。車両周辺の人や動物、車両、その他の物体の検出には、例えばセンサ部3の超音波センサ、レーダの検出信号、またはカメラ21~24の撮影画像による画像認識に基づき判定される。
Next, it is determined whether or not the approach to the
車両5への外部からの接近を検出した場合(ステップS202のYes)、車両5の周辺画像の取得が行われる(ステップS203)。以下、接近位置及び接近方向の検出(ステップS204)、仮想視点画像の生成(ステップS205)、車両5の透過像5tを含む車外画像Pxの生成及び記憶(ステップS206)、車両5の像5pを含む車両5の外観画像Pzの生成及び記憶(ステップS207)、車外画像Px及び外観画像Pzの外部装置4への送信(ステップS208)が、順次行われる。
When the approach to the
なお、本実施形態では、車両5に接近する物体を検出し、当該物体による車両5への接触を予測するので、予測される接触の位置は、車両5に接近する物体の位置である。
In the present embodiment, an object approaching the
図14は、車外画像Pxの第3例を示す模式図である。図14は、例えば図6を用いて説明した車外画像Pxの第1例の、車両5への他車両Trの接触の直前の状況を示す図である。図15は、外観画像Pzの第4例を示す模式図である。図15は、例えば図9を用いて説明した外観画像Pzの第2例の、車両5への他車両Trの接触の直前の状況を示す図である。すなわち、車外画像Pxの第3例及び外観画像Pzの第4例において車両5に接近する他車両Trの位置は、車両5の右前部5fである。
FIG. 14 is a schematic view showing a third example of the external image Px. FIG. 14 is a diagram showing a situation immediately before the contact of another vehicle Tr with the
図16は、車外画像Pxの第4例を示す模式図である。図16は、例えば図11を用いて説明した車外画像Pxの第2例の、車両5への他車両Trの接触の直前の状況を示す図である。図17は、外観画像Pzの第5例を示す模式図である。図17は、例えば図12を用いて説明した外観画像Pzの第3例の、車両5への他車両Trの接触の直前の状況を示す図である。すなわち、車外画像Pxの第4例及び外観画像Pzの第5例において車両5に接近する他車両Trの位置は、車両5の右前部5fである。
FIG. 16 is a schematic diagram showing a fourth example of the external image Px. FIG. 16 is a diagram showing a situation immediately before the contact of another vehicle Tr with the
これらの状況において、画像生成部11は、車両5の内部の所定位置である運転者の視点付近を第1視点位置とし、当該第1視点位置から見た車両5に接近する他車両Trの位置である車両5の右前部5fの方向を視線方向とした仮想視点に基づき、車外画像Pxを生成する(ステップS206)。すなわち、図14及び図16に示すように、車外画像Pxの仮想視点画像には、車両5の透過像5tに加えて、車両5に接近する他車両Trの像Tpが含まれる。
In these situations, the
また、画像生成部11は、車両5の外部の右後方の所定位置を第2視点位置とし、当該第2視点位置から見た車両5に接近する他車両Trの位置である車両5の右前部5fの方向を視線方向とした仮想視点に基づき、車両5の外観画像Pzを生成する(ステップS207)。すなわち、図15及び図17に示すように、画像生成部11は、車両5に接近する他車両Trの位置である車両5の右前部5fを頂点Vとし、車両5と他車両Trとで形成される角α、角βの内側にある位置を第2視点位置に係る所定位置とする。外観画像Pzの仮想視点画像には、車両5の像5pに加えて、車両5に接近する他車両Trの像Tpが含まれる。
Further, the
ステップS203~S205、S208の詳細は、第1実施形態と同様であるので、説明を省略する。 The details of steps S203 to S205 and S208 are the same as those in the first embodiment, and thus the description thereof will be omitted.
上記のように、第2実施形態の画像処理装置1は、接近検出部123が、車両5に接近する物体(他車両Tr)を検出し、物体(他車両Tr)による車両5への接触を予測する。これにより、他車両Trが車両5に接近する段階において、その他車両Trの外観や挙動を車外画像Px及び外観画像Pzとして確認することができる。すなわち、その後、車両5に危害が加えられた際に、状況把握や事後対応において有効な車外画像Px及び外観画像Pzを得ることが可能になる。
As described above, in the image processing device 1 of the second embodiment, the
<4-3.第3実施形態>
図18は、第3実施形態の車外画像Px及び外観画像Pzの生成、送信に係る処理フローの例を示すフローチャートである。なお、第3実施形態の基本的な構成は先に説明した第1及び第2の実施形態と同じであるので、これらの実施形態と異なる構成については以下で説明し、これらの実施形態と共通する構成については詳細な説明を省略する。
<4-3. Third Embodiment>
FIG. 18 is a flowchart showing an example of a processing flow related to generation and transmission of an external image Px and an external image Pz according to a third embodiment. Since the basic configuration of the third embodiment is the same as that of the first and second embodiments described above, configurations different from these embodiments will be described below and are common to these embodiments. A detailed description of the configuration to be performed will be omitted.
第3実施形態の画像処理装置1では、図18に示すように、まず、車両5では、車両5に対して外部から接近する人や動物、車両、その他の物体が接近検出部123によって監視される(ステップS301)。画像処理装置1では、例えば車両5の内部に乗員がいなくなった場合等の所定の開始条件が成立すると、監視モードとなり、車両5への外部からの接近の監視が開始される。
In the image processing device 1 of the third embodiment, as shown in FIG. 18, first, in the
次に、車両5への外部からの接近を検出したか否かが判定される(ステップS302)。車両5に接近する物体の検出に関して、詳細には、接近検出部123は、物体が車両5から所定範囲内(例えば半径3m以内)に進入することで、物体による車両5への接触を予測する。車両周辺の人や動物、車両、その他の物体の検出は、例えばセンサ部3の超音波センサ、レーダの検出信号、またはカメラ21~24の撮影画像による画像認識に基づき判定される。
Next, it is determined whether or not the approach to the
車両5への外部からの接近を検出した場合(ステップS302のYes)、物体が車両5に接近した状態で、所定時間経過したか否かが判定される(ステップS303)。詳細には、接近検出部123は、物体が車両5への接近後、物体が所定時間、車両5から所定範囲内に滞在することで、物体による車両5への接触を予測する。物体の滞在に係る所定時間としては、例えば1分などといった時間を任意に設定することができる。車両周辺の物体の検出は、引き続き、例えばセンサ部3の超音波センサ、レーダの検出信号等に基づき判定される。
When the approach to the
物体が車両5に接近した状態で、所定時間経過していない場合(ステップS303のNo)、ステップS302に戻って、物体の接近状態の監視が継続される。さらに、車両5への物体の接近を検出しない場合、または車両5への物体の接近を検出しなくなった場合(ステップS302のNo)、ステップS301に戻って、車両5への物体の接近の監視が継続される。
When the object is close to the
物体が車両5に接近した状態で、所定時間経過した場合(ステップS303のYes)、車両5の周辺画像の取得が行われる(ステップS304)。以下、接近位置及び接近方向の検出(ステップS305)、仮想視点画像の生成(ステップS306)、車両5の透過像5tを含む車外画像Pxの生成及び記憶(ステップS307)、車両5の像5pを含む車両5の外観画像Pzの生成及び記憶(ステップS308)、車外画像Px及び外観画像Pzの外部装置4への送信(ステップS309)が、順次行われる。ステップS304~ステップS309の詳細は、第1及び第2の実施形態と同様であるので、説明を省略する。
When a predetermined time has elapsed with the object approaching the vehicle 5 (Yes in step S303), the peripheral image of the
上記のように、第3実施形態の画像処理装置1は、接近検出部123が、物体が車両5への接近後、物体が所定時間、車両5から所定範囲内に滞在することで、物体による車両5への接触を予測する。これにより、例えば他車両が車両5に接近し、車両周辺に長く滞在した場合に、その他車両の外観や挙動を車外画像Px及び外観画像Pzとして確認することができる。そして、例えば車両周辺を人や動物、車両、その他の物体が単に通過しただけの場合に、車外画像Px及び外観画像Pzの生成、送信を行わないようにすることができる。したがって、効率良く、車両5に危害が加えられた際の、状況把握や事後対応において有効な車外画像Px及び外観画像Pzを得ることが可能になる。
As described above, in the image processing device 1 of the third embodiment, the
<4-4.第4実施形態>
図19は、第4実施形態の車外画像Px及び外観画像Pzの生成、送信に係る処理フローの例を示すフローチャートである。なお、第4実施形態の基本的な構成は先に説明した第1、第2及び第3の実施形態と同じであるので、これらの実施形態と異なる構成については以下で説明し、これらの実施形態と共通する構成については詳細な説明を省略する。
<4-4. Fourth Embodiment>
FIG. 19 is a flowchart showing an example of a processing flow related to generation and transmission of an external image Px and an external image Pz according to a fourth embodiment. Since the basic configuration of the fourth embodiment is the same as that of the first, second, and third embodiments described above, configurations different from these embodiments will be described below, and these embodiments will be described. A detailed description of the configuration common to the form will be omitted.
第4実施形態の画像処理装置1では、図19に示すように、まず、車両5では、車両5に対して外部から接近する人や動物、車両、その他の物体が接近検出部123によって監視される(ステップS401)。以下、車両5への物体の接近の判定(ステップS402)、車両5の周辺画像の取得(ステップS403)、接近位置及び接近方向の検出(ステップS404)、仮想視点画像の生成(ステップS405)、車両5の透過像5tを含む車外画像Pxの生成及び記憶(ステップS406)、車両5の像5pを含む車両5の外観画像Pzの生成及び記憶(ステップS407)が、順次行われる。ステップS401~ステップS407の詳細は、第1及び第2の実施形態と同様であるので、説明を省略する。
In the image processing device 1 of the fourth embodiment, as shown in FIG. 19, first, in the
次に、車両5への外部からの接触を検出したか否かが判定される(ステップS408)。車両5への外部からの接触は、例えばセンサ部3の振動センサ、傾斜センサ、超音波センサ、レーダ等の検出信号に基づき判定される。
Next, it is determined whether or not an external contact with the
車両5への外部からの接触を検出した場合(ステップS408のYes)、通信部14が、車外画像Px及び外観画像Pzを外部装置4に対して送信する(ステップS409)。車外画像Px及び外観画像Pzが外部装置4に対して送信されると、図19に示す処理フローが終了される。
When the external contact with the
車両5への外部からの接触を検出しない場合(ステップS408のNo)、物体が車両5に接近した状態であるか否かが判定される(ステップS410)。引き続き、車両周辺の物体の検出は、例えばセンサ部3の超音波センサ、レーダの検出信号等に基づき判定される。物体が車両5に接近した状態である場合(ステップS410のYes)、ステップS408に戻って、車両5への物体の接触の判定が行われる。
When no external contact with the
車両5への物体の接近を検出しなくなった場合(ステップS410のNo)、ステップS406で生成された車外画像Px、及びステップS407で生成された外観画像Pzは破棄される(ステップS411)。すなわち、画像処理装置1は、一時的に記憶部13に記憶させた車外画像Px及び外観画像Pzを消去する。そして、ステップS401に戻って、車両5への物体の接近の監視が継続される。
When the approach of the object to the
上記のように、第4実施形態の画像処理装置1は、接近検出部123が車両5への外部からの接触を予測した場合に、画像生成部11が車外画像Px及び外観画像Pzの生成を開始し、さらに接近検出部123が車両5への外部からの接触を検出した場合に、通信部14が車外画像Px及び外観画像Pzを外部装置4に対して送信する。これにより、例えば他車両が車両5に接近する段階において、迅速に、その他車両の外観や挙動を車外画像Px及び外観画像Pzとして確認することができる。さらに、実際に車両5に接触した場合のみ、車外画像Px及び外観画像Pzを外部装置4に対して送信することができる。したがって、より一層効率良く、車両5に危害が加えられた際の、状況把握や事後対応において有効な車外画像Px及び外観画像Pzを得ることが可能になる。
As described above, in the image processing device 1 of the fourth embodiment, when the
また、車外画像Px及び外観画像Pzは、接近検出部123が車両5への接触を予測したこと、すなわち車両5への接近を検出したことに基づいて記憶部13に記憶され、記憶部13に記憶された当該車外画像Px及び当該外観画像Pzは、接近検出部123が車両5への接触を検出した場合に、記憶部13に保存され、接近検出部123が車両5への接触を予測しなくなった、すなわち車両5への接近を検出しなくなった場合に、記憶部13から破棄される。したがって、記憶部13の記憶容量を有効に活用することができる。
Further, the external image Px and the external image Pz are stored in the
<5.その他>
本明細書中に開示されている種々の技術的特徴は、上記実施形態のほか、その技術的創作の主旨を逸脱しない範囲で種々の変更を加えることが可能である。すなわち、上記実施形態は全ての点で例示であって、制限的なものではないと考えられるべきである。本発明の技術的範囲は上記実施形態の説明ではなく、特許請求の範囲によって示されるものであり、特許請求の範囲と均等の意味及び範囲内に属する全ての変更が含まれると理解されるべきである。また、上記の複数の実施形態及び実施例は可能な範囲で組み合わせて実施しても良い。
<5. Others>
The various technical features disclosed herein can be modified in addition to the above embodiments without departing from the gist of the technical creation. That is, it should be considered that the above embodiments are exemplary in all respects and are not restrictive. It should be understood that the technical scope of the present invention is shown by the scope of claims, not the description of the above embodiment, and includes all modifications belonging to the meaning and scope equivalent to the scope of claims. Is. Further, the above-mentioned plurality of embodiments and examples may be combined and carried out to the extent possible.
例えば、上記実施形態では、車両5と他車両Trとで形成される角α、角βの内側にある位置を第2視点位置とする場合、車両5の外部の後方の所定位置を第2視点位置としたが、車両5の外部の前方の所定位置を第2視点位置としても良い。これにより、車両5の外観、及び車両5に接近する人や他の物体の外観を、様々な方向から見ることができる。
For example, in the above embodiment, when the position inside the angle α and the angle β formed by the
また、上記実施形態では、プログラムに従ったCPUの演算処理によってソフトウェア的に各種の機能が実現されていると説明したが、これらの機能のうちの一部は電気的なハードウェア回路によって実現されても良い。また逆に、ハードウェア回路によって実現されるとした機能のうちの一部は、ソフトウェア的に実現されても良い。 Further, in the above embodiment, it has been explained that various functions are realized by software by the arithmetic processing of the CPU according to the program, but some of these functions are realized by the electric hardware circuit. May be. On the contrary, some of the functions realized by the hardware circuit may be realized by software.
1 画像処理装置
3 センサ部
4 外部装置
5 車両
11 画像生成部
12 制御部
13 記憶部
14 通信部
21 フロントカメラ(車載カメラ)
22 右サイドカメラ(車載カメラ)
23 バックカメラ(車載カメラ)
24 左サイドカメラ(車載カメラ)
123 接近検出部
1
22 Right side camera (vehicle-mounted camera)
23 Back camera (vehicle-mounted camera)
24 Left side camera (vehicle-mounted camera)
123 Approach detector
Claims (10)
前記車載カメラが搭載された車両への外部からの接触を予測または検出する接近検出部と、
前記車両の内部の所定位置を第1視点位置とし、前記第1視点位置から見た前記接触の位置の方向を視線方向とし、前記車両の像を透過像として含む車外画像、及び
前記車両の外部の所定位置を第2視点位置とし、前記第2視点位置から見た前記接触の位置の方向を視線方向とし、前記車両の像を含む前記車両の外観画像を生成する画像生成部と、
前記車外画像及び前記外観画像を外部装置に対して送信する通信部と、
を備え、
前記接近検出部が前記車両への前記接触を予測または検出した場合に、前記画像生成部が前記車外画像及び前記外観画像を生成し、当該車外画像及び当該外観画像を前記通信部を介して前記外部装置に対して送信する画像処理装置。 An image processing device that processes images taken by an in-vehicle camera.
An approach detection unit that predicts or detects external contact with the vehicle equipped with the in-vehicle camera, and
A predetermined position inside the vehicle is set as the first viewpoint position, the direction of the contact position seen from the first viewpoint position is set as the line-of-sight direction, an outside image including the image of the vehicle as a transmission image, and the outside of the vehicle. The predetermined position is the second viewpoint position, the direction of the contact position seen from the second viewpoint position is the line-of-sight direction, and an image generation unit that generates an external image of the vehicle including an image of the vehicle.
A communication unit that transmits the outside image and the appearance image to an external device,
Equipped with
When the approach detection unit predicts or detects the contact with the vehicle, the image generation unit generates the vehicle exterior image and the appearance image, and the vehicle exterior image and the appearance image are transmitted to the vehicle via the communication unit. An image processing device that sends to an external device.
前記画像生成部は、前記接触の位置を頂点として前記車両と前記物体とで形成される角の内側にある位置を前記第2視点位置に係る前記所定位置とする請求項1に記載の画像処理装置。 The approach detection unit detects an object approaching the vehicle and detects an object.
The image processing according to claim 1, wherein the image generation unit sets a position inside the corner formed by the vehicle and the object as the apex of the contact position as the predetermined position related to the second viewpoint position. Device.
前記接近検出部が前記車両への前記接触を検出した場合に、前記通信部が前記車外画像及び前記外観画像を前記外部装置に対して送信する請求項1から請求項4のいずれかに記載の画像処理装置。 When the approach detection unit predicts the contact with the vehicle, the image generation unit starts to generate the outside image and the appearance image, and further
The aspect according to any one of claims 1 to 4, wherein when the approach detection unit detects the contact with the vehicle, the communication unit transmits the vehicle exterior image and the appearance image to the external device. Image processing device.
前記記憶部に記憶された当該車外画像及び当該外観画像は、
前記接近検出部が前記車両への前記接触を検出した場合に、前記記憶部に保存され、
前記接近検出部が前記車両への前記接触を予測しなくなった場合に、前記記憶部から破棄される請求項7に記載の画像処理装置。 The outside image and the appearance image are stored in the storage unit based on the fact that the approach detection unit predicts the contact with the vehicle.
The vehicle exterior image and the external image stored in the storage unit are
When the approach detection unit detects the contact with the vehicle, it is stored in the storage unit.
The image processing device according to claim 7, wherein when the approach detection unit does not predict the contact with the vehicle, the image processing device is discarded from the storage unit.
接近検出部が、前記車載カメラが搭載された車両への外部からの接触を予測または検出する工程と、
前記車両への外部からの接触が予測または検出された場合に、前記車両の内部の所定位置を第1視点位置とし、前記第1視点位置から見た前記接触の位置の方向を視線方向とし、前記車両の像を透過像として含む車外画像を、画像生成部が生成する工程と、
前記車両への外部からの接触が予測または検出された場合に、前記車両の外部の所定位置を第2視点位置とし、前記第2視点位置から見た前記接触の位置の方向を視線方向とし、前記車両の像を含む前記車両の外観画像を、画像生成部が生成する工程と、
通信部が、前記車外画像及び前記外観画像を外部装置に対して送信する工程と、
を含む画像処理方法。 It is an image processing method that processes images taken by an in-vehicle camera using an image processing device .
The process in which the proximity detection unit predicts or detects external contact with the vehicle on which the in-vehicle camera is mounted, and
When an external contact with the vehicle is predicted or detected, a predetermined position inside the vehicle is set as the first viewpoint position, and the direction of the contact position as seen from the first viewpoint position is set as the line-of-sight direction. A process in which the image generation unit generates an image of the outside of the vehicle including the image of the vehicle as a transmission image, and
When an external contact with the vehicle is predicted or detected, a predetermined position outside the vehicle is set as the second viewpoint position, and the direction of the contact position as seen from the second viewpoint position is set as the line-of-sight direction. A step of generating an external image of the vehicle including an image of the vehicle by an image generation unit , and
The process in which the communication unit transmits the vehicle exterior image and the exterior image to the external device, and
Image processing methods including.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017205387A JP7051369B2 (en) | 2017-10-24 | 2017-10-24 | Image processing device and image processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017205387A JP7051369B2 (en) | 2017-10-24 | 2017-10-24 | Image processing device and image processing method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019079250A JP2019079250A (en) | 2019-05-23 |
JP7051369B2 true JP7051369B2 (en) | 2022-04-11 |
Family
ID=66626559
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017205387A Active JP7051369B2 (en) | 2017-10-24 | 2017-10-24 | Image processing device and image processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7051369B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116057588A (en) * | 2020-10-30 | 2023-05-02 | Jvc建伍株式会社 | Recording control device for vehicle and recording control method for vehicle |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014197818A (en) | 2013-03-29 | 2014-10-16 | 富士通テン株式会社 | Image processing unit, image processing method and image processing system |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6014433B2 (en) * | 2012-09-19 | 2016-10-25 | 富士通テン株式会社 | Image processing apparatus, image processing method, and image processing system |
-
2017
- 2017-10-24 JP JP2017205387A patent/JP7051369B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014197818A (en) | 2013-03-29 | 2014-10-16 | 富士通テン株式会社 | Image processing unit, image processing method and image processing system |
Also Published As
Publication number | Publication date |
---|---|
JP2019079250A (en) | 2019-05-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108958467B (en) | Apparatus and method for controlling display of hologram, vehicle system | |
US9199607B2 (en) | In-vehicle apparatus | |
JP5093611B2 (en) | Vehicle periphery confirmation device | |
US20190286123A1 (en) | Remote vehicle control device and remote vehicle control method | |
CN107809577A (en) | Vehicle intrusion detection is carried out by panorama camera | |
CN112165609A (en) | Image display device and image display system | |
JP5708669B2 (en) | Vehicle display device | |
US11092960B2 (en) | Remote vehicle control device and remote vehicle control method | |
JP2010257249A (en) | On-vehicle security device | |
JP2008087651A (en) | In-vehicle camera system | |
US11181909B2 (en) | Remote vehicle control device, remote vehicle control system, and remote vehicle control method | |
JP4984521B2 (en) | In-vehicle camera control device | |
WO2018177702A1 (en) | Parking assist system and method and a vehicle equipped with the system | |
US20190286118A1 (en) | Remote vehicle control device and remote vehicle control method | |
JP5105880B2 (en) | Vehicle status monitoring device and image processing device | |
KR101305310B1 (en) | Method for providing around view of vehicle | |
JP7063652B2 (en) | Vehicle remote control device, vehicle remote control system and vehicle remote control method | |
JP7051369B2 (en) | Image processing device and image processing method | |
JP2018107573A (en) | Visual confirmation device for vehicle | |
JP7112191B2 (en) | Image processing device and image processing method | |
JP2020150295A (en) | Vehicle crime prevention device | |
JP7103773B2 (en) | Image processing device and image processing method | |
WO2023284748A1 (en) | Auxiliary driving system and vehicle | |
JP2005182305A (en) | Vehicle travel support device | |
JP2020149088A (en) | Vehicle-crime prevention device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200930 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210824 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210831 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211007 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20211019 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220308 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220330 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7051369 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |