JP6590538B2 - Image processing apparatus and image processing method - Google Patents

Image processing apparatus and image processing method Download PDF

Info

Publication number
JP6590538B2
JP6590538B2 JP2015116829A JP2015116829A JP6590538B2 JP 6590538 B2 JP6590538 B2 JP 6590538B2 JP 2015116829 A JP2015116829 A JP 2015116829A JP 2015116829 A JP2015116829 A JP 2015116829A JP 6590538 B2 JP6590538 B2 JP 6590538B2
Authority
JP
Japan
Prior art keywords
notification
image
image processing
divided
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015116829A
Other languages
Japanese (ja)
Other versions
JP2017005468A (en
Inventor
明英 藤尾
明英 藤尾
周樹 村角
周樹 村角
裕生 松本
裕生 松本
茂人 竹内
茂人 竹内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2015116829A priority Critical patent/JP6590538B2/en
Publication of JP2017005468A publication Critical patent/JP2017005468A/en
Application granted granted Critical
Publication of JP6590538B2 publication Critical patent/JP6590538B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Traffic Control Systems (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

本発明は、画像処理装置および画像処理方法に関する。   The present invention relates to an image processing apparatus and an image processing method.

従来、車両の周囲に存在する所定の対象物を検出した場合に、警告マークを表示部に表示することで、検出した対象物を運転者に提示する装置が知られている。かかる装置では、表示した警告マークを対象物に徐々に近づくように移動させている(例えば、特許文献1参照)。   2. Description of the Related Art Conventionally, there has been known an apparatus that presents a detected object to a driver by displaying a warning mark on a display unit when a predetermined object existing around the vehicle is detected. In such an apparatus, the displayed warning mark is moved so as to gradually approach the object (see, for example, Patent Document 1).

特開2010−160606号公報JP 2010-160606 A

しかしながら、従来の装置では、警告マークを表示部に表示してから対象物近辺に移動させていた。そのため、運転者が当該対象物を認識するまでに時間がかかる可能性があり、運転者が対象物を認識しやすいとは言えなかった。   However, in the conventional apparatus, the warning mark is displayed on the display unit and then moved to the vicinity of the object. Therefore, it may take time for the driver to recognize the object, and it cannot be said that the driver can easily recognize the object.

本発明は、上記に鑑みてなされたものであって、運転者に対して報知対象物をより容易に認識できるように報知することができる画像処理装置および画像処理方法を提供することを目的とする。   The present invention has been made in view of the above, and an object of the present invention is to provide an image processing apparatus and an image processing method capable of notifying a driver so that a notification object can be recognized more easily. To do.

上記課題を解決し、目的を達成するために、本発明の画像処理装置は、検出部と、決定部と、画像処理部とを備える。検出部は、移動体に搭載された撮像装置から入力される撮像画像から報知対象物を検出する。決定部は、前記撮像画像を複数に分割した分割領域のうち前記報知対象物が含まれる対象領域を決定する。画像処理部は、前記報知対象物を報知する報知画像を、前記撮像画像の前記対象領域に対応する位置に重畳して表示部に表示させる。   In order to solve the above problems and achieve the object, an image processing apparatus of the present invention includes a detection unit, a determination unit, and an image processing unit. The detection unit detects a notification object from a captured image input from an imaging device mounted on the moving body. The determination unit determines a target area including the notification target object among divided areas obtained by dividing the captured image into a plurality of areas. The image processing unit causes the display unit to display a notification image for notifying the notification target object on a position corresponding to the target region of the captured image.

本発明によれば、運転者に対して報知対象物をより容易に認識できるように報知することができる画像処理装置および画像処理方法を提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the image processing apparatus and the image processing method which can alert | report so that a notification target object can be recognized more easily with respect to a driver | operator can be provided.

図1は、実施形態に係る画像処理方法を示す説明図である。FIG. 1 is an explanatory diagram illustrating an image processing method according to the embodiment. 図2は、実施形態に係る周辺監視システムの構成例を示す図である。FIG. 2 is a diagram illustrating a configuration example of the periphery monitoring system according to the embodiment. 図3は、実施形態に係る撮像装置の配置例を示す図である。FIG. 3 is a diagram illustrating an arrangement example of the imaging devices according to the embodiment. 図4は、実施形態に係る複数の分割領域を説明する図である。FIG. 4 is a diagram for explaining a plurality of divided regions according to the embodiment. 図5は、実施形態に係る決定部による対象領域の決定について説明する図である。FIG. 5 is a diagram illustrating determination of a target area by the determination unit according to the embodiment. 図6は、実施形態に係る複数の分割領域の一例を示す図である。FIG. 6 is a diagram illustrating an example of a plurality of divided regions according to the embodiment. 図7は、実施形態に係る複数の分割領域の一例を示す図である。FIG. 7 is a diagram illustrating an example of a plurality of divided regions according to the embodiment. 図8は、実施形態に係る報知画像選択テーブルを説明する図である。FIG. 8 is a diagram illustrating a notification image selection table according to the embodiment. 図9は、実施形態に係る報知画像選択テーブルの一例を示す図である。FIG. 9 is a diagram illustrating an example of a notification image selection table according to the embodiment. 図10は、実施形態に係る報知画像選択テーブルの一例を示す図である。FIG. 10 is a diagram illustrating an example of a notification image selection table according to the embodiment. 図11は、実施形態に係る報知対象物までの距離と点滅速度との関係を示す図である。FIG. 11 is a diagram illustrating the relationship between the distance to the notification object and the blinking speed according to the embodiment. 図12は、実施形態に係る報知対象物までの距離と点滅速度との関係を示す図である。FIG. 12 is a diagram illustrating a relationship between the distance to the notification target object and the blinking speed according to the embodiment. 図13は、実施形態に係る画像処理部が生成する合成画像の一例を示す図である。FIG. 13 is a diagram illustrating an example of a composite image generated by the image processing unit according to the embodiment. 図14は、実施形態に係る画像処理部が生成する合成画像の一例を示す図である。FIG. 14 is a diagram illustrating an example of a composite image generated by the image processing unit according to the embodiment. 図15は、実施形態に係る画像処理装置が行う画像表示処理を示すフローチャートである。FIG. 15 is a flowchart illustrating image display processing performed by the image processing apparatus according to the embodiment. 図16は、実施形態に係る画像処理装置の変形例を説明する図である。FIG. 16 is a diagram illustrating a modification of the image processing apparatus according to the embodiment.

以下、添付図面を参照して、本願の開示する画像処理装置および画像処理方法の実施形態を詳細に説明する。なお、以下に示す実施形態によりこの発明が限定されるものではない。   Hereinafter, embodiments of an image processing apparatus and an image processing method disclosed in the present application will be described in detail with reference to the accompanying drawings. In addition, this invention is not limited by embodiment shown below.

<1.画像処理方法>
図1は、本発明の実施形態に係る画像処理方法を示す説明図である。かかる画像処理方法は、例えば移動体に搭載される画像処理装置10(図示せず)によって実行される。
<1. Image processing method>
FIG. 1 is an explanatory diagram showing an image processing method according to an embodiment of the present invention. Such an image processing method is executed by, for example, an image processing apparatus 10 (not shown) mounted on a moving body.

なお、以下では移動体が車両C(図示せず)である場合を例にとって説明するが、移動体は自動車に限られない。移動体は、たとえば電車や船舶、航空機などの、利用者が乗車、搭乗または操縦等するものであってもよい。   In the following, a case where the moving body is a vehicle C (not shown) will be described as an example, but the moving body is not limited to an automobile. The moving body may be one on which the user gets on, boarding, or maneuvering, such as a train, a ship, or an aircraft.

本実施形態に係る画像処理方法では、まず、車両Cに搭載された撮像装置(図示せず)から入力される撮像画像P1から報知対象物を検出する。図1の例では、画像処理装置10は、撮像画像P1から報知対象物として歩行者Hを検出する。   In the image processing method according to the present embodiment, first, a notification target is detected from a captured image P1 input from an imaging device (not shown) mounted on the vehicle C. In the example of FIG. 1, the image processing apparatus 10 detects a pedestrian H as a notification object from the captured image P1.

以下、報知対象物の例として歩行者Hを検出した場合について説明するが、報知対象物は歩行者Hに限られない。報知対象物として、例えば走行中の車両、自転車、バイクといった移動物体や、停止車両、電柱や木などの静止物体などがあげられる。   Hereinafter, although the case where the pedestrian H is detected as an example of the notification target will be described, the notification target is not limited to the pedestrian H. Examples of the notification target include moving objects such as traveling vehicles, bicycles, and motorcycles, stationary vehicles, and stationary objects such as utility poles and trees.

画像処理装置10は、例えば所定間隔をあけて連続して撮像された複数の撮像画像P1の時間変化に基づいて報知対象物を検出する。   For example, the image processing apparatus 10 detects a notification target object based on temporal changes of a plurality of captured images P1 captured continuously at a predetermined interval.

画像処理装置10は、撮像画像P1を複数に分割した分割領域のうち、歩行者Hが含まれる対象領域R4を決定する。具体的には、画像処理装置10は、例えば撮像画像P1を複数の領域に分割した分割領域に関する情報を記憶しており、撮像画像P1における歩行者Hの位置が複数の分割領域に含まれるか否か判定することで、歩行者Hが含まれる対象領域を決定する。   The image processing apparatus 10 determines a target region R4 including the pedestrian H among the divided regions obtained by dividing the captured image P1 into a plurality of regions. Specifically, for example, the image processing apparatus 10 stores information related to a divided region obtained by dividing the captured image P1 into a plurality of regions, and whether the position of the pedestrian H in the captured image P1 is included in the plurality of divided regions. By determining whether or not, the target area including the pedestrian H is determined.

なお、図1の画像P2は、撮像画像P1の分割例を示す画像である。図1の例では、撮像画像P1を9個の分割領域に分割している。すなわち、図1の画像P2では、長方形状の分割領域を3行3列のマトリクス状に配置している例を示している。   Note that the image P2 in FIG. 1 is an image showing an example of division of the captured image P1. In the example of FIG. 1, the captured image P1 is divided into nine divided areas. That is, the image P2 in FIG. 1 shows an example in which rectangular divided areas are arranged in a matrix of 3 rows and 3 columns.

画像処理装置10は、歩行者Hを報知する報知画像を撮像画像P1の対象領域R4に対応する位置に重畳して合成画像P3を生成する。画像処理装置10は、生成した合成画像P3を表示部(図示せず)に表示させる。図1の例では、画像処理装置10は、歩行者Hを報知する報知画像として注意マークM1を表示する。   The image processing apparatus 10 generates a composite image P3 by superimposing a notification image that notifies the pedestrian H on a position corresponding to the target region R4 of the captured image P1. The image processing apparatus 10 displays the generated composite image P3 on a display unit (not shown). In the example of FIG. 1, the image processing apparatus 10 displays a caution mark M <b> 1 as a notification image that notifies the pedestrian H.

なお、撮像画像P1の対象領域R4に対応する位置は、撮像画像P1の対象領域R4内の予め決められた位置である。したがって、歩行者Hが移動したとしても、歩行者Hが対象領域R4に含まれている場合は、報知画像である注意マークM1は撮像画像P1の同じ位置に表示される。   Note that the position corresponding to the target area R4 of the captured image P1 is a predetermined position in the target area R4 of the captured image P1. Therefore, even if the pedestrian H moves, when the pedestrian H is included in the target region R4, the caution mark M1 that is a notification image is displayed at the same position in the captured image P1.

また、図1では、画像処理装置10は、注意マークM1に加え、歩行者Hを囲う枠線M2を表示する。歩行者Hが移動した場合は、歩行者Hの移動に応じて枠線M2も移動する。このように、注意マークM1で歩行者Hが存在する大まかな領域を報知しつつ、枠線M2で歩行者Hそのものを報知することで、運転者に対して報知対象物をより容易に認識できるように報知することができる。   In FIG. 1, the image processing apparatus 10 displays a frame line M2 surrounding the pedestrian H in addition to the caution mark M1. When the pedestrian H moves, the frame line M2 also moves according to the movement of the pedestrian H. In this way, by notifying the pedestrian H itself by the frame line M2 while notifying the rough area where the pedestrian H exists by the attention mark M1, the driver can more easily recognize the notification object. Can be notified.

さらに、図1では、画像処理装置10は、報知画像に加え、車両Cの予測された進行方向を示す予測線L1、車両Cの車幅W2の延長線を示す車幅線L2および車両Cからの距離D1、D2を示す固定線L21、L22を重畳して合成画像P3を生成する。このように、合成画像P3に、報知対象物以外の情報を報知する画像を重畳することができる。   Further, in FIG. 1, the image processing apparatus 10 includes a prediction line L1 indicating the predicted traveling direction of the vehicle C, a vehicle width line L2 indicating an extension line of the vehicle width W2 of the vehicle C, and the vehicle C in addition to the notification image. The fixed lines L21 and L22 indicating the distances D1 and D2 are superimposed to generate a composite image P3. Thus, the image which alert | reports information other than a notification target object can be superimposed on the synthesized image P3.

以上のように、画像処理装置10は、撮像画像P1を複数に分割した分割領域のうち歩行者Hが含まれる対象領域を決定し、当該対象領域に対応する位置に報知画像を表示する。これにより、画像処理装置10は、運転者に対して報知対象物をより容易に認識できるように報知することができる。より具体的には、報知画像を報知対象物に付随させて表示させるのではなく、報知対象物は含まれる領域に付随させて表示させることで、運転者が画面上のどの領域に報知対象物が存在するかを直感的に認識できるように報知することができる。以下、画像処理装置10を含む周辺監視システム1についてさらに説明する。   As described above, the image processing apparatus 10 determines the target area including the pedestrian H among the divided areas obtained by dividing the captured image P1 into a plurality, and displays the notification image at a position corresponding to the target area. Thereby, the image processing apparatus 10 can notify the driver so that the notification object can be recognized more easily. More specifically, instead of displaying the notification image in association with the notification object, the notification object is displayed in association with the included area, so that the driver can display the notification object in any region on the screen. Can be notified so that it can be recognized intuitively. Hereinafter, the periphery monitoring system 1 including the image processing apparatus 10 will be further described.

<2.周辺監視システム1>
図2は、本発明の実施形態に係る周辺監視システム1の構成例を示す図である。図2に示すように、周辺監視システム1は、画像処理装置10と、撮像装置20と、ナビゲーション装置30と、シフトセンサ40と、ステアリングセンサ50とを備える。
<2. Perimeter monitoring system 1>
FIG. 2 is a diagram illustrating a configuration example of the periphery monitoring system 1 according to the embodiment of the present invention. As shown in FIG. 2, the periphery monitoring system 1 includes an image processing device 10, an imaging device 20, a navigation device 30, a shift sensor 40, and a steering sensor 50.

<2.1.撮像装置20>
図3は、撮像装置20の配置例を示す図である。撮像装置20は、図3に示すように、車両Cの後方に配置され、車両Cの後方を撮像方向として撮像を行う。図3に示す領域Rは、撮像装置20の撮像範囲を示す領域である。
<2.1. Imaging Device 20>
FIG. 3 is a diagram illustrating an arrangement example of the imaging device 20. As illustrated in FIG. 3, the imaging device 20 is disposed behind the vehicle C and performs imaging with the rear of the vehicle C as an imaging direction. A region R illustrated in FIG. 3 is a region indicating an imaging range of the imaging device 20.

撮像装置20は、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子を備え、かかる撮像素子によって撮像した車両C後方の画像(以下、撮像画像と記載する)を画像処理装置10に出力する。   The imaging device 20 includes an imaging device such as a charge coupled device (CCD) or a complementary metal oxide semiconductor (CMOS), and an image processing device that captures an image behind the vehicle C (hereinafter referred to as a captured image) captured by the imaging device. 10 is output.

また、撮像装置20のレンズとして魚眼レンズなどの広角レンズを採用することで、撮像装置20の画角を180度以上としてもよい。これにより車両Cの後方を広く撮影することが可能となる。   Further, by adopting a wide-angle lens such as a fisheye lens as the lens of the imaging device 20, the angle of view of the imaging device 20 may be 180 degrees or more. As a result, it is possible to photograph the rear of the vehicle C widely.

なお、ここでは、撮像装置20を後方に配置する例について説明したが、これに限られない。例えば撮像装置20が車両Cの前方に配置される前方撮像部と、車両Cの後方に配置される後方撮像部と、車両Cの右方に配置される右方撮像部と、車両Cの左方に配置される左方撮像部とを備え、車両Cの前方、後方、右方および左方をそれぞれ撮像方向として撮像を行うようにしてもよい。これにより、車両C全周囲を撮影することが可能となる。   In addition, although the example which arrange | positions the imaging device 20 back was demonstrated here, it is not restricted to this. For example, the imaging device 20 is disposed in front of the vehicle C, the rear imaging unit disposed behind the vehicle C, the right imaging unit disposed on the right side of the vehicle C, and the left side of the vehicle C. And a left imaging unit arranged in the direction, and imaging may be performed with the front, rear, right, and left sides of the vehicle C as imaging directions. As a result, the entire periphery of the vehicle C can be photographed.

<2.2.ナビゲーション装置30>
図2のナビゲーション装置30は、表示部31と、音声出力部32と、入力操作部33と、制御部34とを備える。ナビゲーション装置30は、車両Cの運転者が運転する際のナビゲーション機能やオーディオ機能などを有する。
<2.2. Navigation Device 30>
The navigation device 30 of FIG. 2 includes a display unit 31, an audio output unit 32, an input operation unit 33, and a control unit 34. The navigation device 30 has a navigation function and an audio function when the driver of the vehicle C drives.

表示部31は、LCD(Liquid Crystal Display)を備え、制御部34の指示に従って例えばナビ画像やテレビジョン放送信号に基づく画像を表示する。また、表示部31は、画像処理装置10から入力された撮像画像P1、合成画像P3を表示する。   The display unit 31 includes an LCD (Liquid Crystal Display), and displays, for example, a navigation image or an image based on a television broadcast signal in accordance with an instruction from the control unit 34. The display unit 31 displays the captured image P1 and the composite image P3 input from the image processing apparatus 10.

音声出力部32は、スピーカを備え、制御部34の指示に従って例えばナビゲーション機能の音声案内や、テレビジョン放送信号に基づく音声を出力する。また、入力操作部33は、操作者からのナビゲーション装置30に対する入力操作を受け付ける。なお、表示部31が例えばタッチパネル式ディスプレイである場合、表示部31が入力操作部33の機能を備えるようにしてもよい。   The audio output unit 32 includes a speaker, and outputs audio based on, for example, audio guidance for a navigation function or a television broadcast signal in accordance with an instruction from the control unit 34. The input operation unit 33 receives an input operation on the navigation device 30 from the operator. When the display unit 31 is a touch panel display, for example, the display unit 31 may have the function of the input operation unit 33.

制御部34は、ナビゲーション装置30が備える各部を制御する。制御部34は、例えば入力操作部33が受け付けた入力操作に基づいて、表示部31に所定の画像を表示させたり、音声出力部32に音声データを出力させたりする。   The control unit 34 controls each unit included in the navigation device 30. For example, based on the input operation received by the input operation unit 33, the control unit 34 displays a predetermined image on the display unit 31 or causes the audio output unit 32 to output audio data.

<2.3.シフトセンサ40およびステアリングセンサ50>
周辺監視システム1は、シフトセンサ40やステアリングセンサ50など、車両Cの状態を検出する各種センサを備える。
<2.3. Shift sensor 40 and steering sensor 50>
The periphery monitoring system 1 includes various sensors that detect the state of the vehicle C, such as a shift sensor 40 and a steering sensor 50.

シフトセンサ40は、シフトレバー(図示せず)のポジションを検出する。シフトレバーのポジションとしては、車両Cが完全に停車している「パーキング」や車両Cが後退している「リア」等が挙げられる。シフトセンサ40は、検出したシフトレバーのポジションを画像処理装置10に出力する。   The shift sensor 40 detects the position of a shift lever (not shown). Examples of the position of the shift lever include “parking” where the vehicle C is completely stopped, “rear” where the vehicle C is moving backward, and the like. The shift sensor 40 outputs the detected position of the shift lever to the image processing apparatus 10.

ステアリングセンサ50は、車両Cのハンドルの舵角を検出する。あるいは、車両Cの車輪の舵角を検出するようにしてもよい。ステアリングセンサ50は、検出した舵角を画像処理装置10に出力する。   The steering sensor 50 detects the steering angle of the steering wheel of the vehicle C. Alternatively, the steering angle of the wheel of the vehicle C may be detected. The steering sensor 50 outputs the detected steering angle to the image processing apparatus 10.

<2.4.画像処理装置10>
画像処理装置10は、進行予測部11、検出部12、決定部13、画像処理部14および記憶部15を備える。
<2.4. Image Processing Device 10>
The image processing apparatus 10 includes a progress prediction unit 11, a detection unit 12, a determination unit 13, an image processing unit 14, and a storage unit 15.

<2.4.1.進行予測部11>
進行予測部11は、ステアリングセンサ50から入力される車輪の舵角に基づき、車両Cの進行方向を予測する。例えば、進行予測部11は、車輪の舵角を維持した状態で車両Cが移動した場合の軌跡線を、進行方向を示す予測線L1として算出する。進行方向予測部11は、算出した予測線L1を決定部13および画像処理部14に出力する。
<2.4.1. Progression Prediction Unit 11>
The progress prediction unit 11 predicts the traveling direction of the vehicle C based on the steering angle of the wheels input from the steering sensor 50. For example, the progress prediction unit 11 calculates a trajectory line when the vehicle C moves while maintaining the steering angle of the wheel as the prediction line L1 indicating the traveling direction. The traveling direction prediction unit 11 outputs the calculated prediction line L1 to the determination unit 13 and the image processing unit 14.

なお、進行予測部11による進行方向の予測は、車輪の舵角に基づく方法に限られない。例えば、進行予測部11が撮像装置20による撮像画像P1に基づいて進行方向を予測するようにしてもよい。撮像画像P1に基づいた進行方向の予測方法としては、例えば時間的に連続する複数の撮像画像P1からオプティカルフローを用いて進行方向を予測する方法がある。   In addition, the prediction of the advancing direction by the advancing prediction part 11 is not restricted to the method based on the steering angle of a wheel. For example, the progress prediction unit 11 may predict the traveling direction based on the captured image P <b> 1 by the imaging device 20. As a method for predicting the traveling direction based on the captured image P1, for example, there is a method of predicting the traveling direction from a plurality of temporally continuous captured images P1 using an optical flow.

<2.4.2.検出部12>
検出部12は、所定間隔をあけて連続して撮像された複数の撮像画像P1の時間変化に基づいて報知対象物を検出する。検出部12は、検出した報知対象物を決定部13および画像処理部14に出力する。
<2.4.2. Detection unit 12>
The detection unit 12 detects a notification target object based on temporal changes of a plurality of captured images P1 that are continuously captured at a predetermined interval. The detection unit 12 outputs the detected notification object to the determination unit 13 and the image processing unit 14.

検出部12による報知対象物の検出方法としては、例えば上述したオプティカルフローを用いた方法がある。具体的には、まず、検出部12は、時刻t1に撮像された撮像画像から特徴点F1を検出する。画像から特徴点を検出する方法としては、例えばエッジとエッジの交点であるコーナーを検出する方法や、KLT法などがある。   As a detection method of the notification target object by the detection unit 12, for example, there is a method using the optical flow described above. Specifically, first, the detection unit 12 detects the feature point F1 from the captured image captured at time t1. As a method of detecting feature points from an image, for example, there are a method of detecting a corner which is an intersection of edges and a KLT method.

続いて、検出部12は、時刻t1の次の時刻t2に撮像された撮像画像から特徴点F2を検出する。検出部12は、時刻t1における特徴点F1の位置および時刻t2における特徴点F2を結んだ移動ベクトル(オプティカルフロー)を算出し、算出したオプティカルフローに基づいて報知対象物を検出する。   Subsequently, the detection unit 12 detects the feature point F2 from the captured image captured at time t2 next to time t1. The detection unit 12 calculates a movement vector (optical flow) connecting the position of the feature point F1 at time t1 and the feature point F2 at time t2, and detects a notification target object based on the calculated optical flow.

なお、検出部12が検出する特徴点F1、F2の個数は1個に限られない。進行予測部11が、複数の特徴点F1、F2を検出するようにしてもよい。また、検出部12による報知対象物の検出方法は、オプティカルフローを用いる方法に限られない。例えば、撮像画像とパターン画像とを照合するパターンマッチング法を用いて報知対象物を検出するようにしてもよい。   The number of feature points F1 and F2 detected by the detection unit 12 is not limited to one. The progress prediction unit 11 may detect a plurality of feature points F1 and F2. Moreover, the detection method of the notification target object by the detection part 12 is not restricted to the method using an optical flow. For example, the notification target may be detected by using a pattern matching method that collates a captured image with a pattern image.

<2.4.3.決定部13>
決定部13は、例えばシフトセンサ40から入力される検出結果に基づいて車両Cが後退している場合に、撮像画像P1を複数に分割した分割領域R1〜R9のうち、報知対象物が含まれる対象領域を決定する。ここでは、検出部12が報知対象物として歩行者Hを検出した場合について説明する。
<2.4.3. Determination unit 13>
For example, when the vehicle C is moving backward based on the detection result input from the shift sensor 40, the determination unit 13 includes the notification target object among the divided regions R1 to R9 obtained by dividing the captured image P1 into a plurality of regions. Determine the target area. Here, the case where the detection part 12 detects the pedestrian H as a notification target object is demonstrated.

まず、図4を用いて複数の分割領域R1〜R9について説明する。図4は、複数の分割領域R1〜R9を説明する図である。   First, the plurality of divided regions R1 to R9 will be described with reference to FIG. FIG. 4 is a diagram illustrating a plurality of divided regions R1 to R9.

図4に示すように、画像P2は、縦方向に伸びる2本の直線LH1、LH2および横方向に伸びる2本の直線LW1、LW2によって区切られている。そのため、図4に示す画像P2には9個の分割領域R1〜R9が含まれている。   As shown in FIG. 4, the image P2 is divided by two straight lines LH1 and LH2 extending in the vertical direction and two straight lines LW1 and LW2 extending in the horizontal direction. Therefore, nine divided regions R1 to R9 are included in the image P2 shown in FIG.

ここで2本の直線LH1、LH2の間の距離W1は、例えば車幅W2、すなわち車幅線L2の2本の直線の間の距離のうち最も長い距離と同じ長さW2(図1参照)であるとする。また、横方向に伸びる直線LW1は、車両Cから第1の距離D1離れた位置を示す線であり、固定線L21を左右に延長した線である(図1参照)。横方向に伸びる直線LW2は、車両Cから第2の距離D2離れた位置を示す線であり、固定線L22を左右に延長した線である(図1参照)。   Here, the distance W1 between the two straight lines LH1 and LH2 is, for example, the vehicle width W2, that is, the same length W2 as the longest distance among the two straight lines of the vehicle width line L2 (see FIG. 1). Suppose that The straight line LW1 extending in the lateral direction is a line indicating a position away from the vehicle C by the first distance D1, and is a line obtained by extending the fixed line L21 to the left and right (see FIG. 1). A straight line LW2 extending in the lateral direction is a line indicating a position away from the vehicle C by the second distance D2, and is a line obtained by extending the fixed line L22 to the left and right (see FIG. 1).

決定部13は、4つの直線で区切られた9個の分割領域R1〜R9のうち、歩行者Hが含まれる分割領域を対象領域に決定する。例えば歩行者Hが複数の分割領域にまたがって存在する場合、決定部13は、各分割領域における歩行者Hの面積に応じて対象領域を決定する。例えば、決定部13は、歩行者Hを示す画像に含まれる画素数を分割領域R1〜R9ごとにカウントしていき、画素数が最も多い分割領域を対象領域に決定する。   The determination unit 13 determines a divided region including the pedestrian H as a target region among the nine divided regions R1 to R9 divided by four straight lines. For example, when the pedestrian H exists over a plurality of divided regions, the determination unit 13 determines the target region according to the area of the pedestrian H in each divided region. For example, the determination unit 13 counts the number of pixels included in the image indicating the pedestrian H for each of the divided regions R1 to R9, and determines the divided region having the largest number of pixels as the target region.

このように、決定部13は、分割領域R1〜R9のうち歩行者Hが含まれる割合が最も多い分割領域を対象領域に決定する。ここで、分割領域R1〜R9のうち歩行者Hが含まれる割合が同じ分割領域が存在する場合、すなわち各分割領域における歩行者Hの面積が等しい場合、決定部13は、車両Cの進行方向に応じて対象領域を決定する。かかる点について図5を用いて説明する。   Thus, the determination part 13 determines the division area with the largest ratio in which the pedestrian H is included among division area R1-R9 as an object area | region. Here, when there is a divided area where the ratio of the pedestrian H is included in the divided areas R1 to R9, that is, when the area of the pedestrian H in each divided area is equal, the determination unit 13 determines the traveling direction of the vehicle C. The target area is determined according to the above. This point will be described with reference to FIG.

図5は、決定部13による対象領域の決定について説明する図である。図5に示すように、撮像画像P1の歩行者Hの位置によっては、歩行者Hが複数の分割領域(図5では分割領域R5、R6)にまたがって存在する場合がある。   FIG. 5 is a diagram illustrating determination of the target area by the determination unit 13. As shown in FIG. 5, depending on the position of the pedestrian H in the captured image P1, the pedestrian H may exist across a plurality of divided regions (divided regions R5 and R6 in FIG. 5).

上述したように、歩行者Hが複数の分割領域の1つに偏って存在している場合は、決定部13は、歩行者Hが偏って存在する分割領域を対象領域に決定する。一方、図5に示すように複数の分割領域に含まれる歩行者Hの割合が同じ場合、決定部13は、進行予測部11が予測した進行方向に応じて対象領域を決定する。   As described above, when the pedestrian H exists in one of the plurality of divided areas, the determination unit 13 determines the divided area in which the pedestrian H exists as a target area. On the other hand, when the ratio of the pedestrians H included in the plurality of divided regions is the same as illustrated in FIG. 5, the determination unit 13 determines the target region according to the traveling direction predicted by the progress prediction unit 11.

決定部13は、車両Cの進行方向が直進である場合、歩行者Hが存在する複数の分割領域R5、R6のうち、撮像画像P1すなわち画像P2の中央側に近い分割領域R5を対象領域に決定する。   When the traveling direction of the vehicle C is straight, the determination unit 13 sets the divided region R5 close to the center side of the captured image P1, that is, the image P2 among the plurality of divided regions R5 and R6 where the pedestrian H exists as a target region. decide.

ここで、画像P2の中央側に最も近い分割領域とは、例えば複数の分割領域のうち、分割領域の中心画素と画像P2の中心画素との距離が最も短い分割領域を指すものとする。したがって、例えば歩行者Hが複数の分割領域R5、R8に同じ割合でまたがっている場合、決定部13は、分割領域R5を対象領域に決定する。   Here, the divided region closest to the center side of the image P2 indicates, for example, a divided region in which the distance between the central pixel of the divided region and the central pixel of the image P2 is the shortest among a plurality of divided regions. Therefore, for example, when the pedestrian H straddles a plurality of divided regions R5 and R8 at the same rate, the determination unit 13 determines the divided region R5 as the target region.

撮像画像P1の周辺領域に比べ中央領域は運転者にとって注目しやすい領域である。したがって複数の分割領域R1〜R9のうち画像P2の中央側に近い分割領域を対象領域とすることで、運転者に対して報知画像をより容易に認識できるように報知することができる。   The central region is a region that is more easily noticed by the driver than the peripheral region of the captured image P1. Therefore, by making a divided region close to the center side of the image P2 among the plurality of divided regions R1 to R9 as a target region, it is possible to notify the driver so that the notification image can be recognized more easily.

次に、決定部13は、車両Cの進行方向が旋回である場合、歩行者Hが存在する複数の分割領域R5、R6のうち、進行方向側の分割領域を対象領域に決定する。例えば車両Cの進行方向が右である場合、決定部13は、複数の分割領域R5、R6のうち右側の分割領域R6を対象領域に決定する。   Next, when the traveling direction of the vehicle C is turning, the determination unit 13 determines a divided region on the traveling direction side as a target region among the plurality of divided regions R5 and R6 where the pedestrian H exists. For example, when the traveling direction of the vehicle C is right, the determination unit 13 determines the right divided region R6 among the plurality of divided regions R5 and R6 as the target region.

なお、例えば歩行者Hが複数の分割領域R5、R8といった縦方向に並ぶ領域に同じ割合でまたがっている場合は、例えば上述したように画像P2の中央側に近い分割領域R5を対象領域に決定するようにしてもよい。   Note that, for example, when the pedestrian H is straddling at the same ratio in a plurality of vertically aligned regions such as the divided regions R5 and R8, for example, as described above, the divided region R5 close to the center side of the image P2 is determined as the target region. You may make it do.

ここで、決定部13が車両Cの進行方向に応じて対象領域を決定する場合について説明したが、かかる場合について車両Cは必ずしも移動している必要はない。車両Cが停止している場合においても、例えば進行予測部11が車輪の舵角に応じて車両Cの進行方向を予測するようにし、進行予測部11が予測した進行方向に応じて、決定部13が対象領域を決定するようにしてもよい。   Here, although the case where the determination unit 13 determines the target area according to the traveling direction of the vehicle C has been described, the vehicle C does not necessarily have to move in such a case. Even when the vehicle C is stopped, for example, the progress prediction unit 11 predicts the traveling direction of the vehicle C according to the steering angle of the wheel, and the determination unit according to the traveling direction predicted by the progress prediction unit 11. 13 may determine the target area.

なお、車両Cの進行方向が直進である場合とは、進行予測部11が予測した予測線L1が直線である場合に限られない。例えば、車両Cの予測線L1の曲率半径が所定の閾値以上である場合に、車両Cの進行方向が直進であるとし、所定の閾値未満である場合に旋回であるとしてもよい。   Note that the case where the traveling direction of the vehicle C is straight is not limited to the case where the prediction line L1 predicted by the traveling prediction unit 11 is a straight line. For example, the traveling direction of the vehicle C may be straight when the radius of curvature of the prediction line L1 of the vehicle C is equal to or greater than a predetermined threshold, and the vehicle may be turned when it is less than the predetermined threshold.

また、図5では、分割領域R5、R6に含まれる歩行者Hの割合が同じ、すなわち分割領域R5、R6における歩行者Hの面積が等しい場合に、決定部13が車両Cの進行方向に応じて対象領域を決定するとしたが、これに限られない。例えば分割領域R5、R6における歩行者Hの面積の差が所定の閾値Sth以下である場合に、決定部13が車両Cの進行方向に応じて対象領域を決定してもよい。   In FIG. 5, when the ratio of the pedestrians H included in the divided areas R5 and R6 is the same, that is, when the areas of the pedestrians H in the divided areas R5 and R6 are equal, the determination unit 13 responds to the traveling direction of the vehicle C However, the present invention is not limited to this. For example, when the difference in the area of the pedestrian H in the divided regions R5 and R6 is equal to or less than the predetermined threshold value Sth, the determination unit 13 may determine the target region according to the traveling direction of the vehicle C.

なお、複数の分割領域R1〜R9は、図4に示す例に限られない。例えば、図6に示すように、複数の分割領域R1〜R9のうち横方向における中央部に位置する分割領域R2、R5、R8をさらに複数のサブ領域R2_L、R2_R、R5_L、R5_R、R8_L、R8_Rに分割してもよい。なお、図6は、複数の分割領域の一例を示す図である。   Note that the plurality of divided regions R1 to R9 are not limited to the example illustrated in FIG. For example, as shown in FIG. 6, among the plurality of divided regions R1 to R9, the divided regions R2, R5, and R8 positioned at the center in the horizontal direction are further subdivided into a plurality of subregions R2_L, R2_R, R5_L, R5_R, R8_L, and R8_R. You may divide into. FIG. 6 is a diagram illustrating an example of a plurality of divided regions.

この場合、決定部13は、撮像画像P1すなわち画像P2の左右に位置する分割領域R1、R3、R4、R6、R7、R9、および、撮像画像P1の略中央に位置する複数のサブ領域R2_L、R2_R、R5_L、R5_R、R8_L、R8_Rの中から歩行者Hが含まれる対象領域を決定する。   In this case, the determination unit 13 includes the divided regions R1, R3, R4, R6, R7, and R9 positioned on the left and right of the captured image P1, that is, the image P2, and a plurality of sub-regions R2_L positioned substantially at the center of the captured image P1. A target region including the pedestrian H is determined from among R2_R, R5_L, R5_R, R8_L, and R8_R.

なお、図6では、分割領域R2、R5、R8をそれぞれ2つのサブ領域に分割する例について示したが、分割数は2つ以上であってもよい。また、他の分割領域R1、R3、R4、R6、R7、R9を複数のサブ領域に分割してもよい。複数の分割領域の個数は9個に限られず、9個より多くても少なくてもよい。   Although FIG. 6 shows an example in which each of the divided areas R2, R5, and R8 is divided into two sub-areas, the number of divisions may be two or more. Further, the other divided regions R1, R3, R4, R6, R7, and R9 may be divided into a plurality of subregions. The number of the plurality of divided regions is not limited to nine, and may be more or less than nine.

また、分割領域の他の例について図7を用いて説明する。図7は、複数の分割領域の一例を示す図である。図7では、撮像画像P1すなわち画像P2を車幅線L2および固定線L21、L22に沿って9個の分割領域R21〜R29に分割した例を示している。   Another example of the divided area will be described with reference to FIG. FIG. 7 is a diagram illustrating an example of a plurality of divided regions. FIG. 7 shows an example in which the captured image P1, that is, the image P2, is divided into nine divided regions R21 to R29 along the vehicle width line L2 and the fixed lines L21 and L22.

このように、画像P2を分割する縦方向の2本の直線LH1、LH2および横方向の2本の直線LW1、LW2は、それぞれ平行である必要はなく、例えば図示しないが、互いに交差していてもよい。   As described above, the two straight lines LH1 and LH2 in the vertical direction and the two straight lines LW1 and LW2 in the horizontal direction that divide the image P2 do not have to be parallel to each other. Also good.

図7では、撮像画像P1すなわち画像P2を車幅線L2および固定線L21、L22に沿って複数の分割領域R21〜R29に分割したが、これに限られない。例えば予測線L1および固定線L21、L22に沿って分割してもよい。このように、画像P2を曲線によって分割するようにしてもよい。   In FIG. 7, the captured image P1, that is, the image P2, is divided into the plurality of divided regions R21 to R29 along the vehicle width line L2 and the fixed lines L21 and L22. For example, you may divide | segment along the prediction line L1 and the fixed lines L21 and L22. In this way, the image P2 may be divided by a curve.

複数の分割領域の個数や形状は、例えば報知対象物の大きさや報知画像の大きさ等に応じて任意の個数や形状とすることができる。   The number and shape of the plurality of divided regions may be any number or shape depending on, for example, the size of the notification object or the size of the notification image.

<2.4.4.画像処理部14>
図2の画像処理部14は、歩行者Hを報知する報知画像を撮像画像P1の対象領域(例えば図1の例では分割領域R4)に対応する位置に重畳する。画像処理部14は、例えば歩行者Hを報知する報知画像として注意マークM1を撮像画像P1に重畳する。さらに画像処理部14は、歩行者Hを囲う枠線M2を撮像画像P1に重畳する。
<2.4.4. Image Processing Unit 14>
The image processing unit 14 in FIG. 2 superimposes a notification image for notifying the pedestrian H on a position corresponding to a target region (for example, the divided region R4 in the example of FIG. 1) of the captured image P1. For example, the image processing unit 14 superimposes the caution mark M1 on the captured image P1 as a notification image for notifying the pedestrian H. Furthermore, the image processing unit 14 superimposes a frame line M2 surrounding the pedestrian H on the captured image P1.

さらに、画像処理部14は、車両Cの予測された進行方向を示す予測線L1、車両Cの車幅W2の延長線を示す車幅線L2および車両Cからの距離D1、D2を示す固定線L21、L22を重畳して合成画像P3を生成する。画像処理部14は、生成した合成画像P3を表示部31に表示させる。例えば、画像処理部14は、車両Cが後退している場合に、合成画像P3を生成し、表示部31に出力する。   The image processing unit 14 further includes a prediction line L1 indicating the predicted traveling direction of the vehicle C, a vehicle width line L2 indicating an extension line of the vehicle width W2 of the vehicle C, and fixed lines indicating distances D1 and D2 from the vehicle C. A composite image P3 is generated by superimposing L21 and L22. The image processing unit 14 causes the display unit 31 to display the generated composite image P3. For example, when the vehicle C is moving backward, the image processing unit 14 generates a composite image P3 and outputs it to the display unit 31.

ここで、画像処理部14は、歩行者Hを報知する報知画像を報知画像選択テーブルに従って選択し、選択した報知画像を撮像画像に重畳する。かかる報知画像選択テーブルについて図8を用いて説明する。   Here, the image processing unit 14 selects a notification image that notifies the pedestrian H according to the notification image selection table, and superimposes the selected notification image on the captured image. The notification image selection table will be described with reference to FIG.

<2.4.4.1.報知画像選択テーブル>
図8は、本実施形態に係る報知画像選択テーブルを説明する図である。図8に示す報知画像選択テーブルは、各分割領域R1〜R9と、表示する報知画像の種類(表示画像)、表示場所および表示方法とをそれぞれ対応付けて記憶している。なお、図8に示す報知画像選択テーブルの「領域No.」は、例えば図5に示す分割領域R1〜R9の符号と対応している。
<2.4.4.1. Notification image selection table>
FIG. 8 is a diagram illustrating a notification image selection table according to the present embodiment. The notification image selection table shown in FIG. 8 stores each of the divided areas R1 to R9 in association with the type (display image) of the notification image to be displayed, the display location, and the display method. Note that “area No.” in the notification image selection table shown in FIG. 8 corresponds to, for example, the symbols of the divided areas R1 to R9 shown in FIG.

図8に示すように、分割領域R1〜R3は、表示画像が「表示なし」となっている。この場合、画像処理部14は、報知画像を撮像画像P1に重畳しない。なお、分割領域R1〜R3は、車両Cから第2の距離D2以上離れた領域である。   As shown in FIG. 8, the display images of the divided regions R1 to R3 are “no display”. In this case, the image processing unit 14 does not superimpose the notification image on the captured image P1. The divided areas R1 to R3 are areas that are separated from the vehicle C by a second distance D2 or more.

このように、図8の例では、画像処理部14は、車両Cから第2の距離D2以上離れた位置に存在する報知対象物に関しては、危険度が低く報知優先度が低いとして、報知画像を用いた報知を行わない。ただし、例えば報知対象物を枠線M2で囲うなどして、報知対象物自体の報知は行うようにしてもよい。   As described above, in the example of FIG. 8, the image processing unit 14 determines that the notification object existing at a position separated from the vehicle C by the second distance D2 or more is low in risk and low in notification priority. No notification is made using. However, the notification object itself may be notified by, for example, surrounding the notification object with a frame line M2.

また、図8の報知画像選択テーブルにおいて、分割領域R4〜R9は、表示画像が「注意マーク」、表示場所のうち領域(以下、表示領域とも称する)が対応する分割領域R4〜R9、表示場所のうち位置、すなわち表示領域内の表示位置(以下、表示位置とも称する)が「中央」となっている。分割領域R4〜R6の表示方法は「点滅」、分割領域R7〜R9の表示方法は「点灯」である。   In the notification image selection table of FIG. 8, the divided areas R4 to R9 include the divided areas R4 to R9 and the display places corresponding to the display image “Caution Mark” and the display area (hereinafter also referred to as the display area). Among them, the position, that is, the display position in the display area (hereinafter also referred to as the display position) is “center”. The display method of the divided areas R4 to R6 is “flashing”, and the display method of the divided areas R7 to R9 is “lighting”.

このように、車両Cと第2の距離D2との間に存在する報知対象物に関しては、画像処理部14は、決定部13が決定した対象領域内の表示位置に注意マークM1を表示する。ここで、注意マークM1は、例えば三角形の黄色の枠線内に感嘆符を表示したマークであるとする。このとき、画像処理部14は、第1の距離D1と第2の距離D2の間に存在する報知対象物に関して、注意マークM1を点滅表示させ、車両Cと第1の距離D1との間に存在する報知対象物に関して、注意マークM1を点灯表示させる。   As described above, for the notification object existing between the vehicle C and the second distance D2, the image processing unit 14 displays the attention mark M1 at the display position in the target area determined by the determination unit 13. Here, it is assumed that the caution mark M1 is, for example, a mark displaying an exclamation mark in a triangular yellow frame. At this time, the image processing unit 14 blinks the caution mark M1 for the notification object existing between the first distance D1 and the second distance D2, and between the vehicle C and the first distance D1. The caution mark M1 is lit on the existing notification object.

これにより、車両Cとの距離に応じて報知対象物を運転者に報知することができ、運転者が、報知対象物に加えて報知対象物と車両Cとの距離をより容易に認識できるようになる。   Accordingly, the notification object can be notified to the driver according to the distance from the vehicle C, and the driver can more easily recognize the distance between the notification object and the vehicle C in addition to the notification object. become.

報知画像選択テーブルは、図8に示す例に限られない。例えば画像処理部14が、図9および図10に示す報知画像選択テーブルにしたがって報知画像を撮像画像P1に重畳させるようにしてもよい。図9および図10は、本実施形態に係る報知画像選択テーブルの一例を示す図である。   The notification image selection table is not limited to the example shown in FIG. For example, the image processing unit 14 may superimpose the notification image on the captured image P1 according to the notification image selection table shown in FIGS. 9 and 10 are diagrams illustrating an example of the notification image selection table according to the present embodiment.

図9に示す報知画像選択テーブルは、図8の報知画像選択テーブルの各項目に加え、「点滅速度」、「表示サイズ」の項目を備えている。また、分割領域R1〜R6の表示画像を「注意マーク」とし、分割領域R7〜R9の表示画像を「警告マーク」としている。ここで警告マークは、例えば三角形の赤色の枠線内に感嘆符を表示したマークである。   The notification image selection table shown in FIG. 9 includes items of “flashing speed” and “display size” in addition to the items of the notification image selection table of FIG. In addition, the display images of the divided areas R1 to R6 are “caution marks”, and the display images of the divided areas R7 to R9 are “warning marks”. Here, the warning mark is, for example, a mark in which an exclamation mark is displayed within a triangular red frame.

また、図9に示す報知画像選択テーブルでは、表示画像の表示位置を各領域の「左側」、「中央」、「右側」と横方向における各分割領域R1〜R9の位置に応じて変更している。このように、撮像画像P1における各分割領域R1〜R9の位置に応じて、表示画像の表示位置を変更するようにしてもよい。   Further, in the notification image selection table shown in FIG. 9, the display position of the display image is changed according to the positions of the divided areas R1 to R9 in the horizontal direction, such as “left side”, “center”, and “right side” of each area. Yes. Thus, the display position of the display image may be changed according to the positions of the divided areas R1 to R9 in the captured image P1.

さらに、表示方法を各分割領域R1〜R9のいずれにおいても「点滅」とし、点滅速度を、車両Cからの距離に応じて変更している。具体的には、分割領域R1〜R6では点滅速度を「遅い」とし、分割領域R7〜R9では「速い」としている。表示サイズは、分割領域R1〜R3で「小」、分割領域R4〜R6で「中」、分割領域R7〜R9で「大」とする。   Further, the display method is “flashing” in any of the divided regions R1 to R9, and the flashing speed is changed according to the distance from the vehicle C. Specifically, the blinking speed is “slow” in the divided areas R1 to R6, and “fast” in the divided areas R7 to R9. The display size is “small” in the divided areas R1 to R3, “medium” in the divided areas R4 to R6, and “large” in the divided areas R7 to R9.

次に、図10に示す報知画像選択テーブルでは、分割領域R4〜R9の表示位置を、対象領域に隣接する分割領域の所定位置としている。具体的には、表示部31において各分割領域R4〜R9の上に位置する分割領域R1〜R6を、分割領域R4〜R9の表示領域としている。   Next, in the notification image selection table shown in FIG. 10, the display positions of the divided areas R4 to R9 are set as predetermined positions of the divided areas adjacent to the target area. Specifically, the divided areas R1 to R6 located above the divided areas R4 to R9 in the display unit 31 are set as the display areas of the divided areas R4 to R9.

このように、報知画像は必ずしも対象領域内に表示する必要はない。上述したように、例えば隣接する分割領域内に表示することで、歩行者Hの表示を妨げることなく報知画像を表示部31に表示することができる。   Thus, the notification image does not necessarily have to be displayed in the target area. As described above, the notification image can be displayed on the display unit 31 without hindering the display of the pedestrian H, for example, by displaying in the adjacent divided regions.

上述した例では、点滅速度や表示サイズを変更する場合について説明したが、これに限られない。例えば分割領域R1〜R3といった報知対象物までの距離が遠い領域に報知対象物が存在する場合は青色で、分割領域R4〜R6といった報知対象物までの距離が中程度の領域に報知対象物が存在する場合は黄色で、分割領域R7〜R9といった報知対象物までの距離が近い領域に報知対象物が存在する場合は赤色で、報知画像を表示するようにしてもよい。このように、報知対象物までの距離に応じて報知画像の表示色を変更するようにしてもよい。   In the above-described example, the case where the blinking speed and the display size are changed has been described. However, the present invention is not limited to this. For example, when there is a notification target in a region where the distance to the notification target such as the divided regions R1 to R3 is far, the notification target is blue in a region where the distance to the notification target such as the divided regions R4 to R6 is medium. The notification image may be displayed in yellow when it exists, and in red when the notification target exists in a region close to the notification target such as the divided regions R7 to R9. In this way, the display color of the notification image may be changed according to the distance to the notification object.

このように、分割領域R1〜R9ごとに報知画像の表示形式を項目にわけて決定しておけばよく、かかる項目の数や内容は図8〜図10に示す報知画像選択テーブルに示す例に限られない。また、例えば運転者が各項目内容を変更できるようにしてもよい。   In this way, the display format of the notification image may be determined separately for each of the divided regions R1 to R9, and the number and contents of such items are shown in the examples shown in the notification image selection tables shown in FIGS. Not limited. Further, for example, the driver may be able to change the contents of each item.

なお、図9に示す例では、分割領域ごとに点滅速度を設定するようにしているが、これに限られない。例えば図11に示すように、報知対象物と車両Cとの距離に応じて点滅速度を変更するようにしてもよい。   In the example shown in FIG. 9, the blinking speed is set for each divided area, but the present invention is not limited to this. For example, as shown in FIG. 11, the blinking speed may be changed according to the distance between the notification object and the vehicle C.

図11は、報知対象物までの距離と点滅速度との関係を示す図である。図11の縦軸は、車両Cから報知対象物までの距離を示しており、横軸は、報知画像の点滅速度を示している。   FIG. 11 is a diagram illustrating the relationship between the distance to the notification object and the blinking speed. The vertical axis in FIG. 11 indicates the distance from the vehicle C to the notification object, and the horizontal axis indicates the blinking speed of the notification image.

図11に示すように、車両Cから報知対象物までの距離が長い場合は点滅速度を遅くし、近づくほど点滅速度が速くなるようにする。上述したように、本実施形態では各分割領域R1〜R9の所定位置に報知画像を表示するようにしている。したがって、報知対象物が移動して対象領域が変更した場合に、報知対象物を知らせる報知画像の位置を変更するようにしている。   As shown in FIG. 11, when the distance from the vehicle C to the notification object is long, the blinking speed is slowed down, and the blinking speed becomes faster as it gets closer. As described above, in this embodiment, a notification image is displayed at a predetermined position in each of the divided regions R1 to R9. Therefore, when the notification target moves and the target area changes, the position of the notification image that notifies the notification target is changed.

そこで、図11に示す例では、報知対象物が移動しても対象領域が変更にならない場合であっても報知対象物と車両Cとの距離に応じて報知画像の点滅速度を変更するようにしている。これにより、報知対象物が車両Cに接近していることを運転者に通知することができる。   Therefore, in the example shown in FIG. 11, the flashing speed of the notification image is changed according to the distance between the notification target and the vehicle C even when the target area does not change even if the notification target moves. ing. Thereby, it is possible to notify the driver that the notification object is approaching the vehicle C.

なお、図11に示す例では、報知画像の点滅速度が距離に応じて連続して変化する場合について例示しているが、これに限られない。例えば、図12に示すように、階段状に点滅速度が速くなるようにしてもよい。なお、図12は、報知対象物までの距離と点滅速度との関係を示す図である。   In the example illustrated in FIG. 11, the case where the blinking speed of the notification image continuously changes according to the distance is illustrated, but the present invention is not limited thereto. For example, as shown in FIG. 12, the blinking speed may be increased stepwise. FIG. 12 is a diagram illustrating the relationship between the distance to the notification object and the blinking speed.

画像処理部14は、決定部13から対象領域の通知を受けると、例えば図8に示す報知画像選択テーブルに基づき、当該報知画像の表示内容を決定する。例えば、対象領域が分割領域R4である場合、画像処理部14は、「注意マーク」を分割領域R4の中央に点滅させて表示させる。   When receiving the notification of the target area from the determination unit 13, the image processing unit 14 determines the display content of the notification image based on, for example, the notification image selection table illustrated in FIG. 8. For example, when the target region is the divided region R4, the image processing unit 14 causes the “caution mark” to blink in the center of the divided region R4 for display.

なお、ここでは、画像処理部14が報知画像として注意マークまたは警告マークを分割領域内に表示させる場合について説明したが、表示させる報知画像はこれに限られない。例えば図13および図14に示すように、撮像画像P1の上部に報知画像を表示させるようにしてもよい。   In addition, although the case where the image processing unit 14 displays a caution mark or a warning mark in the divided area as a notification image has been described here, the notification image to be displayed is not limited thereto. For example, as shown in FIGS. 13 and 14, a notification image may be displayed on the upper part of the captured image P1.

図13および図14は、画像処理部14が生成する合成画像P31の一例を示す図である。図13に示す合成画像P31では、報知画像として注意マークM1を表示させるとともに、略長方形の画像M3を表示させる。   13 and 14 are diagrams illustrating an example of the composite image P31 generated by the image processing unit 14. In the composite image P31 shown in FIG. 13, a caution mark M1 is displayed as a notification image, and a substantially rectangular image M3 is displayed.

画像M3は、長さが合成画像P31の横幅と同じであり、所定の幅を有する帯状の画像である。以下、画像M3を報知バーM3とも称する。   The image M3 is a band-like image having the same length as the horizontal width of the composite image P31 and having a predetermined width. Hereinafter, the image M3 is also referred to as a notification bar M3.

例えば日光など、強い光が表示部31に照射されている場合に、光の反射によっては運転者が表示部31に表示される合成画像P31を視認しにくくなる場合がある。このように、運転者が合成画像P31を視認しにくい場合であっても、画像処理部14が注意マークM1より大きな報知バーM3を重畳して合成画像P31を生成することで、運転者に報知対象物を報知することができる。   For example, when strong light such as sunlight is applied to the display unit 31, it may be difficult for the driver to visually recognize the composite image P <b> 31 displayed on the display unit 31 due to light reflection. Thus, even if it is difficult for the driver to visually recognize the composite image P31, the image processing unit 14 generates a composite image P31 by superimposing the notification bar M3 larger than the caution mark M1, thereby informing the driver. An object can be notified.

また、表示部31の上部は光の影響を受けにくいため、報知バーM3を表示部31の上部に表示されるように重畳することで、運転者が報知バーM3をより容易に認識することができるようになる。   Further, since the upper part of the display unit 31 is not easily affected by light, the driver can easily recognize the notification bar M3 by superimposing the notification bar M3 so as to be displayed on the upper part of the display unit 31. become able to.

なお、車両Cから報知対象物までの距離に応じて、例えば報知バーM3の表示色を変更することで、報知対象物までの距離を運転者に報知するようにしてもよい。また、報知バーM3に例えば文字情報(図示せず)を重畳することで、かかる文字情報によっても運転者に対して報知対象物を報知するようにしてもよい。   In addition, according to the distance from the vehicle C to the notification target, the driver may be notified of the distance to the notification target by changing the display color of the notification bar M3, for example. Moreover, you may make it alert | report a notification target object with respect to a driver | operator also by this character information by superimposing character information (not shown) on alerting | reporting bar M3, for example.

あるいは、図14に示すように、下側ほど報知バーM3の透過率を高くすることで、グラデーション表示させるようにしてもよい。これにより、運転者が報知バーM3の背面に表示される画像をより視認しやすくすることができる。   Alternatively, as shown in FIG. 14, gradation display may be performed by increasing the transmittance of the notification bar M3 toward the lower side. This makes it easier for the driver to visually recognize the image displayed on the back surface of the notification bar M3.

なお、ここでは、撮像装置20が車両Cの後方の画像を撮像する場合について述べたが、例えば車両Cの全周囲を撮像する場合、画像処理部14が全周囲を撮像した撮像画像に基づき仮想視点画像を生成するようにしてもよい。   Here, the case where the imaging device 20 captures an image behind the vehicle C has been described. However, for example, when the entire periphery of the vehicle C is captured, the image processing unit 14 performs virtual processing based on the captured image obtained by capturing the entire periphery. A viewpoint image may be generated.

この場合、例えば撮像装置20からは車両Cの前方、後方、右方および左方をそれぞれ撮像方向とする複数の撮像画像が入力される。画像処理部14は、かかる複数の撮像画像に対して座標変換処理を行い、仮想視点から見た画像である仮想視点画像を生成する。画像処理部14は、座標変換処理として、例えば撮像画像を所定の投影面に投影(マッピング)し、所定の投影面に投影された撮像画像P1のうち仮想視点から見て所定の視野角に含まれる領域の画像を仮想視点画像とする。   In this case, for example, from the imaging device 20, a plurality of captured images with the front, rear, right side, and left side of the vehicle C as imaging directions are input. The image processing unit 14 performs coordinate conversion processing on the plurality of captured images, and generates a virtual viewpoint image that is an image viewed from the virtual viewpoint. As the coordinate conversion process, the image processing unit 14 projects (maps) a captured image on a predetermined projection plane, for example, and is included in a predetermined viewing angle as viewed from the virtual viewpoint in the captured image P1 projected on the predetermined projection plane. The image of the area to be recorded is assumed to be a virtual viewpoint image.

画像処理部14は、例えば複数の撮像画像に含まれるデータの位置と、所定の投影面の位置との対応関係を示すテーブルを記憶しており、かかるテーブルを用いて、複数の撮像画像に含まれるデータを所定の投影面の対応する位置に投影する。   The image processing unit 14 stores, for example, a table indicating the correspondence between the positions of data included in a plurality of captured images and the position of a predetermined projection plane, and is included in the plurality of captured images using such a table. Data to be projected onto a corresponding position on a predetermined projection plane.

かかる所定の投影面は、例えば、略半球状(例えば、お椀形状)をしており、その中心領域(例えば、お椀の底部分)は車両Cの位置であり、車両Cの位置の外側(例えば、略半球状の外周領域)は、車両Cの周辺の領域に相当する。なお、所定の投影面は、例えば、曲面でなく平面であってもよい。   The predetermined projection surface has, for example, a substantially hemispherical shape (for example, bowl shape), and the central area (for example, the bottom portion of the bowl) is the position of the vehicle C, and is outside the position of the vehicle C (for example, The substantially hemispherical outer peripheral area) corresponds to an area around the vehicle C. The predetermined projection surface may be a flat surface instead of a curved surface, for example.

画像処理部14は、生成した仮想視点画像に報知画像等を重畳して合成画像P3を生成してナビゲーション装置30の表示部31に表示させる。   The image processing unit 14 generates a composite image P3 by superimposing a notification image or the like on the generated virtual viewpoint image and displays it on the display unit 31 of the navigation device 30.

また、ここでは、画像処理部14が、車両Cが後退している場合に合成画像P3を表示部31に表示させるとしたが、これに限られない。例えば車両Cが前進している場合にも合成画像P3を表示部31に表示させるようにしてもよい。この場合、画像処理部14は、撮像装置20が撮像した車両Cの前方の撮像画像に報知画像等を重畳させて表示させる。   Here, although the image processing unit 14 displays the composite image P3 on the display unit 31 when the vehicle C is moving backward, the present invention is not limited to this. For example, the composite image P3 may be displayed on the display unit 31 even when the vehicle C is moving forward. In this case, the image processing unit 14 displays a notification image or the like superimposed on the captured image in front of the vehicle C captured by the imaging device 20.

例えば幅が狭い道路を車両Cが通過する場合や、車両Cが他車両とすれ違う場合に、合成画像P3を表示部31に表示させることで、運転者に対して安全に走行できる進行方向を提示することができる。   For example, when the vehicle C passes through a narrow road or when the vehicle C passes another vehicle, the composite image P3 is displayed on the display unit 31 to show the traveling direction in which the vehicle can travel safely. can do.

<2.4.5.記憶部15>
記憶部15は、例えば図8に示す報知画像選択テーブルを記憶する。また、記憶部15は、複数の分割領域R1〜R9に関する情報を記憶する。このように、記憶部15は、画像処理装置10の各部による処理に用いられる種々の情報を記憶する。また、記憶部15は、各部の処理結果を記憶する。かかる記憶部15は、例えばRAM(Random Access Memory)、フラッシュメモリ等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置で構成される。
<2.4.5. Storage unit 15>
The storage unit 15 stores, for example, a notification image selection table shown in FIG. In addition, the storage unit 15 stores information related to the plurality of divided regions R1 to R9. Thus, the storage unit 15 stores various information used for processing by each unit of the image processing apparatus 10. The storage unit 15 stores the processing results of each unit. The storage unit 15 is configured by a semiconductor memory device such as a RAM (Random Access Memory) or a flash memory, or a storage device such as a hard disk or an optical disk.

<3.画像表示処理>
続いて、画像処理装置10が行う画像表示処理について説明する。図15は、画像処理装置10が行う画像表示処理を示すフローチャートである。画像処理装置10は、例えば車両Cのシフトレバーのポジションが「リア」に変更になったことを契機として画像表示処理を開始する。
<3. Image display processing>
Subsequently, an image display process performed by the image processing apparatus 10 will be described. FIG. 15 is a flowchart illustrating image display processing performed by the image processing apparatus 10. For example, the image processing apparatus 10 starts the image display process when the shift lever position of the vehicle C is changed to “rear”.

画像処理装置10は、撮像装置20から撮像画像P1を取得する(ステップS101)。画像処理装置10は、取得した撮像画像P1に報知対象物が存在するか否かを判定する(ステップS102)。報知対象物が存在しない場合(ステップS102;No)、画像処理装置10は、画像表示処理を終了する。   The image processing device 10 acquires the captured image P1 from the imaging device 20 (step S101). The image processing apparatus 10 determines whether or not a notification target exists in the acquired captured image P1 (step S102). When the notification target does not exist (step S102; No), the image processing apparatus 10 ends the image display process.

一方、報知対象物が存在する場合(ステップS102;Yes)、画像処理装置10は、報知対象物が存在する分割領域を対象領域として決定する(ステップS103)。画像処理装置10は、撮像画像P1のステップS103で決定した対象領域に対応する位置に報知画像を重畳することで、報知画像を表示部31に表示させる(ステップS104)。   On the other hand, when a notification target exists (step S102; Yes), the image processing apparatus 10 determines a divided region where the notification target exists as a target region (step S103). The image processing apparatus 10 causes the display unit 31 to display the notification image by superimposing the notification image on the position corresponding to the target region determined in step S103 of the captured image P1 (step S104).

なお、ここでは、例えば車両Cのシフトレバーのポジションが「リア」に変更になったことを契機として画像表示処理を開始するとしたが、これに限られない。例えばシフトレバーのポジションが「ドライブ」に変更になった場合、すなわち車両Cが直進している場合に、画像表示処理を開始するようにしてもよい。あるいは、運転者の操作によって画像表示処理を開始するようにしてもよい。   Here, for example, the image display process is started when the position of the shift lever of the vehicle C is changed to “rear”, but the present invention is not limited to this. For example, when the position of the shift lever is changed to “drive”, that is, when the vehicle C is traveling straight, the image display process may be started. Or you may make it start an image display process by a driver | operator's operation.

以上のように、撮像画像P1を複数に分割した分割領域のうち歩行者Hが含まれる対象領域を決定し、当該対象領域に対応する位置に報知画像を表示する。これにより、画像処理装置10は、運転者に対して報知対象物をより容易に認識できるように報知することができる。   As described above, the target area including the pedestrian H is determined from the divided areas obtained by dividing the captured image P1 into a plurality of areas, and the notification image is displayed at a position corresponding to the target area. Thereby, the image processing apparatus 10 can notify the driver so that the notification object can be recognized more easily.

また、分割領域ごとに報知画像を表示することで報知対象物の位置を運転者に対して報知することができる。また、画像処理装置10が、例えば点滅速度や表示サイズなど車両Cから報知対象物までの距離に応じて報知画像の表示を変更することで、運転者に対して車両Cから報知対象物までの距離を報知することができる。   Moreover, the position of the notification target object can be notified to the driver by displaying a notification image for each divided region. Further, the image processing apparatus 10 changes the display of the notification image according to the distance from the vehicle C to the notification target, such as the blinking speed and the display size, for example, so that the driver can move from the vehicle C to the notification target. The distance can be notified.

<4.変形例>
図16は、本実施形態に係る画像処理装置10の変形例を説明する図である。図1に示す画像処理装置10は、報知画像を表示部31に表示させることで、報知対象物を運転者に報知する。
<4. Modification>
FIG. 16 is a diagram illustrating a modification of the image processing apparatus 10 according to the present embodiment. The image processing apparatus 10 illustrated in FIG. 1 notifies the driver of the notification target object by causing the display unit 31 to display a notification image.

本変形例では、報知画像に加え、音声を用いて報知対象物を報知する。それ以外の構成要素および動作は実施形態にかかる画像処理装置10と同じであるため説明を省略する。   In this modification, in addition to the notification image, the notification target object is notified using sound. Since other components and operations are the same as those of the image processing apparatus 10 according to the embodiment, description thereof is omitted.

具体的には、画像処理装置10は音声処理部16をさらに備える。音声処理部16は、決定部13が決定した対象領域に対応する音(以下、報知音と称する)を生成し、例えばナビゲーション装置30の音声出力部32に出力する。   Specifically, the image processing apparatus 10 further includes an audio processing unit 16. The voice processing unit 16 generates a sound (hereinafter referred to as a notification sound) corresponding to the target area determined by the determination unit 13 and outputs the sound to the voice output unit 32 of the navigation device 30, for example.

音声処理部16は、音データに対して周波数変換や振幅増幅など種々の信号処理を施して報知音を生成する。かかる報知音は、例えばアラーム音や警告音といった機械音でもよく、あるいは合成音声など文字情報を読み上げる音声であってもよい。音データは、例えば記憶部15に記憶される。   The sound processing unit 16 performs various signal processing such as frequency conversion and amplitude amplification on the sound data to generate a notification sound. The notification sound may be, for example, a mechanical sound such as an alarm sound or a warning sound, or may be a voice that reads out character information such as a synthesized voice. The sound data is stored in the storage unit 15, for example.

音声処理部16は、例えば複数の分割領域R1〜R9ごとに種類の異なる音データから報知音を生成する。かかる場合、例えば分割領域R1〜R3では第1音データ、分割領域R4〜R6では第2音データおよび分割領域R7〜R9では第3音データというように、車両Cと各分割領域R1〜R9までの距離に応じて異なる音データとするようにしてもよい。   For example, the sound processing unit 16 generates a notification sound from different types of sound data for each of the plurality of divided regions R1 to R9. In this case, for example, the first sound data in the divided areas R1 to R3, the second sound data in the divided areas R4 to R6, and the third sound data in the divided areas R7 to R9, up to the vehicle C and the divided areas R1 to R9. Different sound data may be used depending on the distance.

あるいは、報知音の高さ、すなわち周波数または報知音の音量を分割領域R1〜R9に応じて異ならせてもよい。この場合、例えば図11および図12に示す点滅速度のように、分割領域R1〜R9によらず、車両Cから報知対象物までの距離に応じて連続して、あるいは階段状に変化するようにしてもよい。   Or you may vary the height of a notification sound, ie, a frequency, or the volume of a notification sound according to division area R1-R9. In this case, for example, like the blinking speed shown in FIG. 11 and FIG. 12, it changes continuously or stepwise depending on the distance from the vehicle C to the notification object regardless of the divided regions R1 to R9. May be.

このとき、車両Cから報知対象物までの距離が近いほど、報知音が高くなるよう報知音の周波数を高くする。あるいは、車両Cから報知対象物までの距離が近いほど、報知音の音量を大きくする。これにより、車両Cから報知対象物までの距離が近く、危険度が高いほど、危険度をより強調して報知対象物を運転者に報知することができる。   At this time, the frequency of the notification sound is increased so that the notification sound becomes higher as the distance from the vehicle C to the notification object is shorter. Alternatively, the volume of the notification sound is increased as the distance from the vehicle C to the notification target is shorter. As a result, the closer the distance from the vehicle C to the notification object and the higher the risk level, the higher the risk level, and the driver can be notified of the notification target.

以上のように、画像処理装置10が報知画像および報知音を用いて報知対象物を運転者に報知することで、例えば運転者が表示部31を視認していないときでも報知対象物を運転者に報知することができる。   As described above, the image processing device 10 notifies the driver of the notification target object using the notification image and the notification sound, so that the notification target object is displayed even when the driver is not viewing the display unit 31, for example. Can be notified.

このとき、例えば、報知音を対象領域に応じて変更することで、例えば運転者が表示部31を視認していないときでも、報知対象物が含まれる分割領域R1〜R9、すなわち報知対象物の位置を運転者に報知することができる。   At this time, for example, by changing the notification sound according to the target region, for example, even when the driver is not viewing the display unit 31, the divided regions R1 to R9 including the notification target, that is, the notification target The driver can be notified of the position.

さらなる効果や変形例は、当業者によって容易に導き出すことができる。このため、本発明のより広範な態様は、以上のように表しかつ記述した特定の詳細および代表的な実施形態に限定されるものではない。したがって、添付の特許請求の範囲およびその均等物によって定義される総括的な発明の概念の精神または範囲から逸脱することなく、様々な変更が可能である。   Further effects and modifications can be easily derived by those skilled in the art. Thus, the broader aspects of the present invention are not limited to the specific details and representative embodiments shown and described above. Accordingly, various modifications can be made without departing from the spirit or scope of the general inventive concept as defined by the appended claims and their equivalents.

1 周辺監視システム
10 画像処理装置
11 進行予測部
12 検出部
13 決定部
14 画像処理部
15 記憶部
16 音声処理部
20 撮像装置
30 ナビゲーション装置
31 表示部
32 音声出力部
33 入力操作部
34 制御部
40 シフトセンサ
50 ステアリングセンサ
DESCRIPTION OF SYMBOLS 1 Perimeter monitoring system 10 Image processing apparatus 11 Progression prediction part 12 Detection part 13 Determination part 14 Image processing part 15 Memory | storage part 16 Audio | voice processing part 20 Imaging device 30 Navigation apparatus 31 Display part 32 Voice output part 33 Input operation part 34 Control part 40 Shift sensor 50 Steering sensor

Claims (7)

移動体に搭載された撮像装置から入力される撮像画像から報知対象物を検出する検出部と、
前記撮像画像を複数に分割した分割領域のうち前記報知対象物が含まれる対象領域を決定する決定部と、
前記報知対象物を報知する報知画像を、前記撮像画像の前記対象領域に対応する位置に重畳して表示部に表示させる画像処理部と
を備え
前記決定部は、
前記報知対象物が複数の前記分割領域にまたがって存在する場合において、複数の前記分割領域における前記報知対象物の面積の差が所定の閾値以下である場合、前記移動体の進行方向に応じて前記対象領域を決定すること
を特徴とする画像処理装置。
A detection unit that detects a notification object from a captured image input from an imaging device mounted on a moving body;
A determination unit that determines a target region including the notification target object among divided regions obtained by dividing the captured image;
An image processing unit for displaying a notification image for notifying the notification object on a display unit so as to be superimposed on a position corresponding to the target region of the captured image ;
The determination unit
In the case where the notification object exists over a plurality of the divided areas, and when the difference in area of the notification objects in the plurality of divided areas is equal to or less than a predetermined threshold, depending on the traveling direction of the moving object An image processing apparatus that determines the target area .
前記決定部は、
前記移動体が直進している場合、前記報知対象物が存在する複数の前記分割領域のうち、前記撮像画像の中央側に近い領域を前記対象領域に決定すること
を特徴とする請求項に記載の画像処理装置。
The determination unit
If the moving body is straight, among the plurality of the divided regions the notification object is present, the area close to the center of the captured image to claim 1, wherein the determining the target region The image processing apparatus described.
前記決定部は、
前記移動体が旋回している場合、前記報知対象物が存在する複数の前記分割領域のうち、前記移動体の進行方向側の領域を前記対象領域に決定すること
を特徴とする請求項1または2に記載の画像処理装置。
The determination unit
If the moving body is turning, among the plurality of the divided regions the notification object is present, according to claim 1, characterized in that to determine the traveling direction of the area of the moving body to the target area or 2. The image processing apparatus according to 2.
前記決定部は、
前記撮像画像の左右に位置する前記分割領域、および、前記撮像画像の略中央に位置する前記分割領域をさらに複数に分割したサブ領域の中から前記報知対象物が含まれる前記対象領域を決定すること
を特徴とする請求項1、2または3に記載の画像処理装置。
The determination unit
The target area including the notification target is determined from the divided areas located on the left and right of the captured image and the sub areas obtained by further dividing the divided area located substantially in the center of the captured image. The image processing apparatus according to claim 1, 2, or 3 .
前記画像処理部は、
前記報知画像を前記対象領域に隣接する前記分割領域の所定位置に重畳して前記表示部に表示させること
を特徴とする請求項1〜のいずれか一項に記載の画像処理装置。
The image processing unit
The image processing apparatus according to any one of claims 1 to 4, characterized in that to be displayed on the display unit superimposes the notification image to the predetermined position of the divided area adjacent to the target area.
前記画像処理部は、
前記移動体から前記報知対象物までの距離に応じて前記報知画像の表示を変更すること
を特徴とする請求項1〜のいずれか一項に記載の画像処理装置。
The image processing unit
The image processing apparatus according to any one of claims 1 to 5, characterized in that to change the display of the notification image in accordance with the distance from the moving body to the notification object.
移動体に搭載された撮像装置から入力される撮像画像から報知対象物を検出する工程と、
前記撮像画像を複数に分割した分割領域のうち前記報知対象物が含まれる対象領域を決定する工程と、
前記報知対象物を報知する報知画像を、前記撮像画像の前記対象領域に対応する位置に重畳して表示部に表示させる工程と
を含み、
前記決定する工程は、
前記報知対象物が複数の前記分割領域にまたがって存在する場合において、複数の前記分割領域における前記報知対象物の面積の差が所定の閾値以下である場合、前記移動体の進行方向に応じて前記対象領域を決定すること
を特徴とする画像処理方法。
Detecting a notification object from a captured image input from an imaging device mounted on a moving body;
Determining a target area including the notification target object among divided areas obtained by dividing the captured image;
The notification image for notifying the notification object, seen including a step of displaying on the display unit so as to overlap a position corresponding to the target region of the captured image,
The step of determining includes
In the case where the notification object exists over a plurality of the divided areas, and when the difference in area of the notification objects in the plurality of divided areas is equal to or less than a predetermined threshold, depending on the traveling direction of the moving body An image processing method, wherein the target region is determined .
JP2015116829A 2015-06-09 2015-06-09 Image processing apparatus and image processing method Active JP6590538B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015116829A JP6590538B2 (en) 2015-06-09 2015-06-09 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015116829A JP6590538B2 (en) 2015-06-09 2015-06-09 Image processing apparatus and image processing method

Publications (2)

Publication Number Publication Date
JP2017005468A JP2017005468A (en) 2017-01-05
JP6590538B2 true JP6590538B2 (en) 2019-10-16

Family

ID=57752859

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015116829A Active JP6590538B2 (en) 2015-06-09 2015-06-09 Image processing apparatus and image processing method

Country Status (1)

Country Link
JP (1) JP6590538B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190103346A (en) 2017-01-16 2019-09-04 가부시키가이샤 도모에가와 세이시쇼 Copper fiber nonwoven fabric for wiring, unit for wiring, cooling method of copper fiber nonwoven fabric for wiring, and temperature control method for copper fiber nonwoven fabric for wiring

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3559083B2 (en) * 1994-12-26 2004-08-25 本田技研工業株式会社 Driving support device
JP4961160B2 (en) * 2006-04-18 2012-06-27 パナソニック株式会社 Vehicle surroundings confirmation device
JP2011076214A (en) * 2009-09-29 2011-04-14 Alps Electric Co Ltd Obstacle detection device
JP5603835B2 (en) * 2011-06-27 2014-10-08 クラリオン株式会社 Vehicle perimeter monitoring device

Also Published As

Publication number Publication date
JP2017005468A (en) 2017-01-05

Similar Documents

Publication Publication Date Title
JP6379779B2 (en) Vehicle display device
JP5896505B2 (en) Vehicle driving support device
JP6205640B2 (en) Warning device for vehicle
JP5113881B2 (en) Vehicle periphery monitoring device
JP6443716B2 (en) Image display device, image display method, and image display control program
JP2005222425A (en) Vehicle periphery monitoring system, vehicle periphery monitoring method, control program, and readable recording medium
JP2013060128A (en) Rear side video display device for motorcycle
JP2015139128A (en) Vehicular periphery monitoring device
JP4693561B2 (en) Vehicle periphery monitoring device
JP2012221116A (en) Danger prediction system for vehicle
JP6081247B2 (en) Display switching device and display switching method for vehicle rear image
JP3952305B2 (en) Moving object periphery monitoring device, moving object periphery monitoring method, control program, and readable recording medium
JP2019120994A (en) Display control device and display control method
JP7047586B2 (en) Vehicle display control device
JP2018081363A (en) Driving support device
JP2018074286A (en) Driving support device
JP2009265802A (en) Vehicle visual field support device
JP2015014948A (en) Driving support device for vehicle
JP6590538B2 (en) Image processing apparatus and image processing method
JP4930432B2 (en) Vehicle periphery monitoring device
JP5477394B2 (en) Vehicle periphery monitoring device
JP2007200191A (en) Lane detection device and lane deviation warning device
JP2008310690A (en) Recognition support device for vehicle
JP2010009491A (en) Driving assist system, driving assist method, and driving assist program
JP6523801B2 (en) Image processing apparatus and image processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180330

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190205

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190403

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190827

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190917

R150 Certificate of patent or registration of utility model

Ref document number: 6590538

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250