JP7300316B2 - Moving object detector - Google Patents

Moving object detector Download PDF

Info

Publication number
JP7300316B2
JP7300316B2 JP2019101291A JP2019101291A JP7300316B2 JP 7300316 B2 JP7300316 B2 JP 7300316B2 JP 2019101291 A JP2019101291 A JP 2019101291A JP 2019101291 A JP2019101291 A JP 2019101291A JP 7300316 B2 JP7300316 B2 JP 7300316B2
Authority
JP
Japan
Prior art keywords
moving object
image
detection
reliability
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019101291A
Other languages
Japanese (ja)
Other versions
JP2020194492A (en
Inventor
武生 松本
周樹 村角
博丈 須佐美
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2019101291A priority Critical patent/JP7300316B2/en
Publication of JP2020194492A publication Critical patent/JP2020194492A/en
Application granted granted Critical
Publication of JP7300316B2 publication Critical patent/JP7300316B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、車両に搭載されたカメラにより生成された画像から移動物を検出する移動物検出装置に関する。 The present invention relates to a moving object detection device that detects a moving object from an image generated by a camera mounted on a vehicle.

車両に搭載された複数のカメラにより生成された複数の画像から、俯瞰画像を生成する技術が知られている。俯瞰画像は、車両の上方に設定された仮想視点から、車両と車両の周辺領域とを俯瞰した画像である。 2. Description of the Related Art Techniques for generating a bird's-eye view image from a plurality of images generated by a plurality of cameras mounted on a vehicle are known. A bird's-eye view image is a bird's-eye view of the vehicle and the surrounding area of the vehicle from a virtual viewpoint set above the vehicle.

また、車両に搭載されたカメラにより生成された画像から移動物を検出する移動物検出装置が知られている。移動物検出装置は、カメラにより生成された画像から移動物を検出した場合、移動物の存在を車両の運転者に報知する。これにより、運転者は、移動物の存在を把握することが可能となる。 Also known is a moving object detection device that detects a moving object from an image generated by a camera mounted on a vehicle. The moving object detection device notifies the presence of the moving object to the driver of the vehicle when the moving object is detected from the image generated by the camera. This enables the driver to grasp the presence of the moving object.

特許文献1は、車両に搭載された前方カメラ、後方カメラ、右カメラ及び左カメラにより撮影された画像から俯瞰画像を生成する車両周辺監視装置を開示している。この車両周辺監視装置は、俯瞰画像から特徴点を抽出し、俯瞰画像における特徴点の位置の変化を追跡する。特徴点は、例えば、車両の周辺を移動する移動物である。つまり、特許文献1に係る車両周辺監視装置は、俯瞰画像を用いて移動物を検出する。 Patent Literature 1 discloses a vehicle periphery monitoring device that generates a bird's-eye view image from images captured by a front camera, a rear camera, a right camera, and a left camera mounted on a vehicle. This vehicle periphery monitoring device extracts feature points from a bird's-eye view image and tracks changes in the position of the feature points in the bird's-eye view image. A feature point is, for example, a moving object that moves around the vehicle. That is, the vehicle periphery monitoring device according to Patent Document 1 detects a moving object using a bird's-eye view image.

しかし、車両と移動物との位置関係によっては、カメラにより生成された画像から検出された移動物の検出精度が、俯瞰画像から検出された移動物の検出精度よりも高くなる場合がある。つまり、特許文献1に係る車両周辺監視装置には、検出精度の向上の余地がある。 However, depending on the positional relationship between the vehicle and the moving object, the detection accuracy of the moving object detected from the image generated by the camera may be higher than the detection accuracy of the moving object detected from the overhead image. In other words, the vehicle periphery monitoring device according to Patent Document 1 has room for improvement in detection accuracy.

特開2013-93865号公報JP 2013-93865 A

本発明の目的は、移動物の検出精度を向上できる移動物検出装置を提供することを目的とする。 SUMMARY OF THE INVENTION An object of the present invention is to provide a moving object detection device capable of improving detection accuracy of a moving object.

上記課題を解決するため、第1の発明は、車両に搭載され、かつ、各々の撮影領域の一部が重複する第1カメラ及び第2カメラにより生成された画像を用いて、車両の周囲を移動する移動物を検出する移動物検出装置であって、第1検出部と、第2検出部と、俯瞰画像生成部と、第3検出部と、結果選択部と、出力部とを備える。第1検出部は、第1カメラにより生成された第1画像から第1移動物を検出し、検出された第1移動物の検出精度を示す第1信頼度を第1画像における第1移動物の位置に基づいて取得する。第2検出部は、第2カメラにより生成された第2画像から第2移動物を検出し、検出された第2移動物の検出精度を示す第2信頼度を第2画像における第2移動物の位置に基づいて取得する。俯瞰画像生成部は、第1画像及び第2画像に含まれる各画素を予め設定された仮想投影面に投影することにより、所定の仮想視点から車両を俯瞰した俯瞰画像を生成する。第3検出部は、俯瞰画像生成部により生成された俯瞰画像から第3移動物を検出する。結果選択部は、第1信頼度と第2信頼度とに基づいて、検出された第1移動物を示す第1検出情報と、検出された第2移動物を示す第2検出情報と、第3検出部により検出された第3移動物を示す第3検出情報とのうち少なくとも1つを選択する。出力部は、結果選択部により選択された検出情報を出力する。
In order to solve the above problems, the first invention uses images generated by a first camera and a second camera that are mounted on a vehicle and that partially overlap each photographing area to capture the surroundings of the vehicle. A moving object detection device for detecting a moving moving object includes a first detection unit, a second detection unit, an overhead image generation unit, a third detection unit, a result selection unit, and an output unit. The first detection unit detects a first moving object from a first image generated by the first camera, and calculates a first reliability indicating detection accuracy of the detected first moving object from the first moving object in the first image. Get based on the position of the . The second detection unit detects the second moving object from the second image generated by the second camera, and calculates a second reliability indicating detection accuracy of the detected second moving object from the second moving object in the second image. Get based on the position of the . The bird's-eye view image generator projects each pixel included in the first image and the second image onto a preset virtual projection plane to generate a bird's-eye view image of the vehicle viewed from a predetermined virtual viewpoint. The third detection unit detects a third moving object from the overhead image generated by the overhead image generation unit. Based on the first reliability and the second reliability, the result selection unit selects first detection information indicating the detected first moving object, second detection information indicating the detected second moving object, 3. At least one of third detection information indicating a third moving object detected by the detection unit is selected. The output unit outputs the detection information selected by the result selection unit.

第1の発明によれば、結果選択部は、第1移動物の検出精度及び第2移動物の検出精度に基づいて、第1検出情報と第2検出情報と第3検出情報との中から少なくとも1つを選択する。第1移動物の検出精度及び第2移動物の検出精度に応じて出力する検出情報を変更することにより、移動物の検出精度を向上させることができる。 According to the first invention, the result selection unit selects from among the first detection information, the second detection information, and the third detection information based on the detection accuracy of the first moving object and the detection accuracy of the second moving object. Choose at least one. By changing the detection information to be output according to the detection accuracy of the first moving object and the detection accuracy of the second moving object, it is possible to improve the detection accuracy of the moving object.

第2の発明は、第1の発明であって、第1信頼度及び第2信頼度のうち一方の信頼度が予め設定された基準値よりも高く、かつ、他方の信頼度が基準値以下である場合、結果選択部は第3検出情報を選択する。 A second invention is the first invention, wherein one of the first reliability and the second reliability is higher than a preset reference value, and the other reliability is equal to or less than the reference value , the result selection unit selects the third detection information.

第2の発明によれば、第1信頼度及び第2信頼度のうち一方の信頼度が基準値よりも高く、かつ、他方の信頼度が基準値以下である場合、俯瞰画像から検出された第3移動物を示す第3検出情報が選択される。これにより、移動物検出装置は、第1移動物が第2移動物と同じ物体であるか否かを判断しなくてもよいため、検出情報の選択を簡略化できるとともに、移動物の誤検出を防ぐことができる。 According to the second invention, when one of the first reliability and the second reliability is higher than the reference value and the other reliability is equal to or less than the reference value, the Third detection information indicative of a third moving object is selected. As a result, the moving object detection device does not need to determine whether the first moving object is the same object as the second moving object. can be prevented.

第3の発明は、第1又は第2の発明であって、さらに、判断部を備える。判断部は、第1信頼度及び第2信頼度が予め設定された基準値よりも高い場合、検出された第1移動物が検出された同一物体であるか否かを判断する。判断部が、検出された第1移動物が検出された第2移動物と同一物体であると判断した場合、結果選択部は、第1信頼度及び第2信頼度のうち高い信頼度に対応する移動物の検出情報を選択する。 A third invention is the first or second invention, further comprising a determination unit. The determination unit determines whether the detected first moving object is the same detected object when the first reliability and the second reliability are higher than a preset reference value. If the determining unit determines that the detected first moving object is the same object as the detected second moving object, the result selecting unit corresponds to the higher reliability out of the first reliability and the second reliability. Select the moving object detection information to be used.

第3の発明によれば、第1移動物が第2移動物と同じ物体である場合、移動物検出装置は、第1信頼度及び第2信頼度のうち高い信頼度に対応する移動物の検出情報を選択する。これにより、移動物検出装置は、精度の高い移動物の検出結果を出力することができる。 According to the third invention, when the first moving object is the same object as the second moving object, the moving object detection device detects the moving object corresponding to the higher reliability out of the first reliability and the second reliability. Select discovery information. As a result, the moving object detection device can output a moving object detection result with high accuracy.

第4の発明は、第3の発明であって、判断部が、検出された第1移動物が検出された第2移動物と異なる物体であると判断した場合、結果選択部は、第1検出情報及び第2検出情報を選択する。 In a fourth invention based on the third invention, when the determination unit determines that the detected first moving object is different from the detected second moving object, the result selection unit selects the first Select detection information and second detection information.

第4の発明によれば、移動物検出装置は、第1移動物と第2移動物との各々の検出結果を出力することができる。 According to the fourth invention, the moving object detection device can output detection results of each of the first moving object and the second moving object.

第5の発明は、第1~第4の発明のいずれかであって、結果選択部は、第1信頼度の変化量に基づいて第1信頼度を重み付けし、重み付けされた第1信頼度と第2検出部により取得された第2信頼度とに基づいて第1検出情報と第2検出情報と第3検出情報とのうち少なくとも1つを選択する。 A fifth invention is any one of the first to fourth inventions, wherein the result selection unit weights the first reliability based on the amount of change in the first reliability, and weights the weighted first reliability and the second reliability obtained by the second detection unit, at least one of the first detection information, the second detection information, and the third detection information is selected.

第5の発明によれば、移動物検出装置は、選択される検出情報の変更が頻繁に変更することを防ぐことができる。 According to the fifth invention, the moving object detection device can prevent frequent changes in the selected detection information.

第6の発明は、第1の発明であって、第1検出部は、第1画像から第1移動物を検出した場合、第1画像における第1移動物の移動方向を特定する。第2検出部は、第2画像から第2移動物を検出した場合、第2画像における第2移動物の移動方向を特定する。第1信頼度及び第2信頼度のうち一方の信頼度が予め設定された基準値よりも高く、かつ、他方の信頼度が基準値以下である場合、結果選択部は、一方の信頼度に対応する移動物の移動方向に基づいて、第1画像及び第2画像のうち他方の信頼度に対応する移動物が検出された画像に検出領域を設定する。第1検出部又は第2検出部は、検出領域が設定された画像を新たに取得した場合、新たに取得した画像のうち検出領域の画像から移動物を検出する。 A sixth aspect of the invention is the first aspect of the invention, wherein when the first moving object is detected from the first image, the first detecting section specifies the moving direction of the first moving object in the first image. The second detection unit identifies the movement direction of the second moving object in the second image when the second moving object is detected from the second image. If one of the first reliability and the second reliability is higher than a preset reference value and the other reliability is equal to or less than the reference value, the result selection unit selects one reliability Based on the moving direction of the corresponding moving object, the detection area is set in the image in which the moving object corresponding to the reliability of the other of the first image and the second image is detected. The first detection unit or the second detection unit detects a moving object from the image of the detection area in the newly acquired image when the image in which the detection area is set is newly acquired.

第6の発明によれば、基準値よりも低い信頼度に対応する移動物が検出された画像において、移動物を検出すべき領域を限定することができる。これにより、移動物の検出精度を向上させるとともに、移動物の検出負荷を低減することができる。 According to the sixth invention, it is possible to limit the area in which the moving object should be detected in the image in which the moving object corresponding to the reliability lower than the reference value is detected. As a result, the moving object detection accuracy can be improved, and the moving object detection load can be reduced.

第7の発明は、車両に搭載され、かつ、各々の撮影領域の一部が重複する第1カメラ及び第2カメラにより生成された画像を用いて、車両の周囲を移動する移動物を検出する移動物検出方法であって、第1検出ステップと、第2検出ステップと、画像生成ステップと、第3検出ステップと、結果選択ステップと、出力ステップとを備える。第1検出ステップは、第1カメラにより生成された第1画像から第1移動物を検出し、検出された第1移動物の検出精度を示す第1信頼度を第1画像における第1移動物の位置に基づいて取得する。第2検出ステップは、第2カメラにより生成された第2画像から第2移動物を検出し、検出された第2移動物の検出精度を示す第2信頼度を第2画像における第2移動物の位置に基づいて取得する。画像生成ステップは、第1画像及び第2画像を用いて、所定の仮想視点から車両を俯瞰した俯瞰画像を生成する。第3検出ステップは、生成された俯瞰画像から第3移動物を検出する。結果選択ステップは、第1信頼度と第2信頼度とに基づいて、検出された第1移動物を示す第1検出情報と、検出された第2移動物を示す第2検出情報と、検出された第3移動物を示す第3検出情報とのうち少なくとも1つを選択する。出力ステップは、選択された検出情報を出力する。 A seventh invention detects a moving object moving around the vehicle by using images generated by a first camera and a second camera mounted on the vehicle and having partially overlapping imaging areas. A moving object detection method comprising a first detection step, a second detection step, an image generation step, a third detection step, a result selection step, and an output step. The first detection step detects the first moving object from the first image generated by the first camera, and calculates a first reliability indicating detection accuracy of the detected first moving object from the first moving object in the first image. Get based on the position of the . The second detection step detects the second moving object from the second image generated by the second camera, and calculates a second reliability indicating detection accuracy of the detected second moving object from the second moving object in the second image. Get based on the position of the . The image generating step uses the first image and the second image to generate a bird's-eye view image of the vehicle from a predetermined virtual viewpoint. The third detection step detects a third moving object from the generated overhead image. The result selection step includes first detection information indicating the detected first moving object, second detection information indicating the detected second moving object, and detection and third detection information indicating the detected third moving object. The output step outputs the selected detection information.

第7の発明は、第1の発明に用いられる。 A seventh invention is used for the first invention.

本発明によれば、移動物の検出精度を向上できる移動物検出装置を提供することができる。 ADVANTAGE OF THE INVENTION According to this invention, the moving object detection apparatus which can improve the detection accuracy of a moving object can be provided.

本発明の実施の形態に係る移動物検出装置を搭載する車両の構成を示す機能ブロック図である。1 is a functional block diagram showing the configuration of a vehicle equipped with a moving object detection device according to an embodiment of the present invention; FIG. 図1に示すカメラの配置の一例を示す図である。2 is a diagram showing an example of the arrangement of cameras shown in FIG. 1; FIG. 図1に示す移動物検出装置の構成を示す機能ブロック図である。2 is a functional block diagram showing the configuration of the moving object detection device shown in FIG. 1; FIG. 図1に示す移動物検出装置の動作概略を示す図である。2 is a diagram showing an outline of the operation of the moving object detection device shown in FIG. 1; FIG. 図1に示す移動物検出装置の動作を示すフローチャーである。2 is a flowchart showing the operation of the moving object detection device shown in FIG. 1; 図5に示す移動物検出処理のフローチャートである。FIG. 6 is a flowchart of a moving object detection process shown in FIG. 5; FIG. 図4に示す右方画像の拡大図である。5 is an enlarged view of the right image shown in FIG. 4; FIG. 図3に示す第2検出部により生成される検出情報の一例を示す図である。4 is a diagram showing an example of detection information generated by a second detection unit shown in FIG. 3; FIG. 図5に示す検出情報選択処理のフローチャートである。6 is a flowchart of detection information selection processing shown in FIG. 5; 図1に示す車両の周囲を移動する移動物の位置の一例を示す図である。2 is a diagram showing an example of positions of moving objects moving around the vehicle shown in FIG. 1; FIG. 図4に示す前方画像において俯瞰画像の生成に用いられる領域の一例を示す図である。5 is a diagram showing an example of a region used for generating a bird's-eye view image in the forward image shown in FIG. 4; FIG. 図4に示す右方画像において俯瞰画像の生成に用いられる領域の一例を示す図である。5 is a diagram showing an example of a region used for generating a bird's-eye view image in the right image shown in FIG. 4; FIG. 図11に示す前方画像及び図12に示す右方画像を用いて生成された俯瞰画像の一例を示す図である。12. It is a figure which shows an example of the bird's-eye view image produced|generated using the front image shown in FIG. 11, and the right image shown in FIG. 図5に示す結果画像生成処理のフローチャートである。FIG. 6 is a flowchart of a result image generation process shown in FIG. 5; FIG. 図3に示す検出部により取得される信頼度の時間変化の一例を示す図である。FIG. 4 is a diagram showing an example of temporal change in reliability acquired by the detection unit shown in FIG. 3 ; 図15に示す信頼度を重み付けした場合における信頼度の時間変化を示す図である。FIG. 16 is a diagram showing temporal changes in reliability when the reliability shown in FIG. 15 is weighted; CPUバス構成を示す図である。FIG. 2 is a diagram showing a CPU bus configuration; FIG.

以下、図面を参照し、本発明の実施の形態を詳しく説明する。図中同一又は相当部分には同一符号を付してその説明は繰り返さない。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. The same reference numerals are given to the same or corresponding parts in the drawings, and the description thereof will not be repeated.

[1.車両100の構成]
図1は、本発明の一実施の形態に係る移動物検出装置10を搭載する車両100の構成を示す機能ブロック図である。図1を参照して、車両100は、車体1と、左前輪1FLと、右前輪1FRと、左後輪1RLと、右後輪1RRと、車軸1SF及び1SRとを備える。
[1. Configuration of vehicle 100]
FIG. 1 is a functional block diagram showing the configuration of a vehicle 100 equipped with a moving object detection device 10 according to an embodiment of the invention. Referring to FIG. 1, vehicle 100 includes a vehicle body 1, a left front wheel 1FL, a right front wheel 1FR, a left rear wheel 1RL, a right rear wheel 1RR, and axles 1SF and 1SR.

左前輪1FLは、車体1の左前方に配置される。右前輪1FRは、車体1の右前方に配置される。左前輪1FL及び右前輪1FRは、車体1の前方に配置された車軸1SFを回転軸として回転する。車軸1SFは、車両100のドライブシャフトであり、図示しないエンジンの出力を左前輪1FL及び右前輪1FRに伝える。左前輪1FL及び右前輪1FRは、車両100の操舵輪である。左前輪1FL及び右前輪1FRの舵角は、図示しないステアリングホイールの回転に応じて変化する。 The left front wheel 1FL is arranged on the front left side of the vehicle body 1. As shown in FIG. The right front wheel 1FR is arranged on the front right side of the vehicle body 1 . The front left wheel 1FL and the front right wheel 1FR rotate about an axle 1SF arranged in front of the vehicle body 1 as a rotation axis. The axle 1SF is a drive shaft of the vehicle 100, and transmits the output of an engine (not shown) to the front left wheel 1FL and the front right wheel 1FR. The front left wheel 1FL and the front right wheel 1FR are steering wheels of the vehicle 100. FIG. The steering angles of the front left wheel 1FL and the front right wheel 1FR change according to the rotation of a steering wheel (not shown).

左後輪1RLは、車体1の左後方に配置される。右後輪1RRは、車体1の右後方に配置される。左後輪1RL及び右後輪1RRは、車体1の後方に配置された車軸1SRを回転軸として回転する。 The left rear wheel 1RL is arranged on the rear left side of the vehicle body 1 . The right rear wheel 1RR is arranged on the rear right side of the vehicle body 1 . The left rear wheel 1RL and the right rear wheel 1RR rotate about an axle 1SR arranged at the rear of the vehicle body 1 as a rotation axis.

車両100は、さらに、方向指示スイッチ4と、表示装置5と、移動物検出装置10と、フロントカメラ21と、左サイドカメラ24と、リアカメラ23と、右サイドカメラ22とを備える。以下の説明において、フロントカメラ21と、左サイドカメラ24と、リアカメラ23と、右サイドカメラ22とを総称する場合、単に「カメラ」と記載する。 Vehicle 100 further includes direction indicator switch 4 , display device 5 , moving object detection device 10 , front camera 21 , left side camera 24 , rear camera 23 and right side camera 22 . In the following description, the front camera 21, the left side camera 24, the rear camera 23, and the right side camera 22 are collectively referred to simply as "cameras".

方向指示スイッチ4は、車両100の運転者によって操作される。方向指示スイッチ4は、運転者の操作に応じて、方向指示信号4Sを移動物検出装置10に出力する。方向指示信号4Sは、図示しない左ウィンカー又は右ウィンカーの点滅を指示する信号である。 Direction switch 4 is operated by the driver of vehicle 100 . The direction indicator switch 4 outputs a direction indicator signal 4S to the moving object detection device 10 according to the driver's operation. The direction indication signal 4S is a signal that instructs blinking of a left winker or a right winker (not shown).

表示装置5は、液晶表示装置等の薄型パネルであり、運転者から見やすい位置に配置される。例えば、表示装置5は、車両100のスピードメータの近傍に配置される。表示装置5は、移動物の検出結果を示す結果画像50を移動物検出装置10から受け、その受けた結果画像50を表示する。結果画像50の詳細については、後述する。 The display device 5 is a thin panel such as a liquid crystal display device, and is arranged at a position easily visible to the driver. For example, the display device 5 is arranged near the speedometer of the vehicle 100 . The display device 5 receives the result image 50 indicating the moving object detection result from the moving object detection device 10 and displays the received result image 50 . Details of the result image 50 will be described later.

フロントカメラ21は、車両100の前方の景色を撮影して前方画像31を生成し、その生成した前方画像31を移動物検出装置10に供給する。左サイドカメラ24は、車両100の左方の景色を撮影して左方画像34を生成し、その生成した左方画像34を移動物検出装置10に供給する。リアカメラ23は、車両100の後方の景色を撮影して後方画像33を生成し、その生成した後方画像33を移動物検出装置10に供給する。右サイドカメラ22は、車両100の右方の景色を撮影して右方画像34を生成し、その生成した右方画像34を移動物検出装置10に供給する。 The front camera 21 captures a scene in front of the vehicle 100 to generate a front image 31 and supplies the generated front image 31 to the moving object detection device 10 . The left side camera 24 captures the scenery to the left of the vehicle 100 to generate a left image 34 and supplies the generated left image 34 to the moving object detection device 10 . The rear camera 23 captures the scenery behind the vehicle 100 to generate a rearward image 33 , and supplies the generated rearward image 33 to the moving object detection device 10 . The right side camera 22 captures the scenery on the right side of the vehicle 100 to generate a right side image 34 and supplies the generated right side image 34 to the moving object detection device 10 .

以下の説明において、前方画像31、左方画像34、後方画像33及び右方画像34を総称して「撮影画像」と記載する場合がある。撮影画像は、動画像を構成するフレームである。車両100に搭載されたカメラの各々は、撮影画像を所定の時間間隔で生成して、その生成した撮影画像を移動物検出装置10に出力する。 In the following description, the front image 31, the left image 34, the rear image 33, and the right image 34 may be collectively referred to as "captured images". A captured image is a frame that constitutes a moving image. Each camera mounted on vehicle 100 generates a captured image at predetermined time intervals and outputs the generated captured image to moving object detection device 10 .

移動物検出装置10は、カメラにより撮影された撮影画像を用いて、車両100の周辺を移動する移動物を検出する。移動物は、例えば、歩行者や自転車である。移動物検出装置10は、移動物を検出した場合、結果画像50を表示装置5に出力して、移動物を検出したことを運転者に通知する。これにより、運転者は、車両100を周囲を移動する移動物の存在を把握できる。 The moving object detection device 10 detects a moving object moving around the vehicle 100 using a captured image captured by a camera. A moving object is, for example, a pedestrian or a bicycle. When a moving object is detected, the moving object detection device 10 outputs a result image 50 to the display device 5 to notify the driver of the detection of the moving object. This allows the driver to grasp the presence of moving objects moving around the vehicle 100 .

[2.カメラの配置]
図2は、図1に示すカメラの配置の一例を示す図である。最初に、ワールド座標系を説明する。ワールド座標系の原点Owは、車両100の重心である。Y軸は、車両100の直進方向に延びる。Y軸の正方向は、車両100の後端面から前端面に向かう方向である。X軸は、車両100の直進方向及び鉛直方向の両者に垂直な方向に延びる。X軸の正方向は、車両100の左側面から右側面に向かう方向である。
[2. camera placement]
FIG. 2 is a diagram showing an example of arrangement of the cameras shown in FIG. First, the world coordinate system will be explained. The origin Ow of the world coordinate system is the center of gravity of the vehicle 100 . The Y-axis extends in the straight-ahead direction of vehicle 100 . The positive direction of the Y-axis is the direction from the rear end surface of vehicle 100 toward the front end surface. The X-axis extends in a direction perpendicular to both the straight-ahead direction and the vertical direction of the vehicle 100 . The positive direction of the X-axis is the direction from the left side to the right side of vehicle 100 .

フロントカメラ21は、車両100の前端に取り付けられたナンバープレートの近傍に設けられ、その光軸21KはY軸の正方向に向けられている。リアカメラ23は、車両100の後端に取り付けられたナンバープレートの近傍に設けられ、その光軸23KはY軸の負方向に向けられている。フロントカメラ21及びリアカメラ23の取付位置は、X軸上であることが望ましいが、X軸から多少ずれた位置であってもよい。 The front camera 21 is provided near the license plate attached to the front end of the vehicle 100, and its optical axis 21K is directed in the positive direction of the Y axis. The rear camera 23 is provided near the license plate attached to the rear end of the vehicle 100, and its optical axis 23K is directed in the negative direction of the Y axis. The mounting positions of the front camera 21 and the rear camera 23 are desirably on the X-axis, but may be positioned slightly off the X-axis.

左サイドカメラ24は、車両100における左のドアミラー6Lに設けられ、その光軸22KはX軸の負方向に向けられている。右サイドカメラ22は、車両100における右のドアミラー6Rに設けられ、その光軸24KはX軸の正方向に向けられている。 The left side camera 24 is provided on the left door mirror 6L of the vehicle 100, and its optical axis 22K is directed in the negative direction of the X axis. The right side camera 22 is provided on the right door mirror 6R of the vehicle 100, and its optical axis 24K is directed in the positive direction of the X axis.

カメラのレンズは、180°以上の画角を有する広角レンズである。車両100に搭載される4台のカメラを用いることにより、車両100の全周囲の撮影が可能である。 The camera lens is a wide-angle lens with an angle of view of 180° or more. By using four cameras mounted on the vehicle 100, it is possible to photograph the entire surroundings of the vehicle 100. FIG.

車両100は、左ウィンカー7L及び右ウィンカー7Rをさらに備える。左ウィンカー7L及び右ウィンカー7Rは、方向指示スイッチ4から出力される方向指示信号4Sに応じて点滅する。 Vehicle 100 further includes a left winker 7L and a right winker 7R. The left winker 7L and the right winker 7R blink according to the direction signal 4S output from the direction switch 4. FIG.

[3.移動物検出装置10の構成]
図3は、図1に示す移動物検出装置10の構成を示す機能ブロック図である。図3を参照して、移動物検出装置10は、画像選択部11と、第1検出部12と、第2検出部13と、判断部14と、俯瞰画像生成部15と、第3検出部16と、結果選択部17と、結果出力部18と、挙動特定部19とを備える。
[3. Configuration of moving object detection device 10]
FIG. 3 is a functional block diagram showing the configuration of the moving object detection device 10 shown in FIG. Referring to FIG. 3, moving object detection apparatus 10 includes image selection unit 11, first detection unit 12, second detection unit 13, determination unit 14, overhead image generation unit 15, and third detection unit. 16 , a result selection unit 17 , a result output unit 18 , and a behavior identification unit 19 .

挙動特定部19は、方向指示信号4Sを方向指示スイッチ4から受け、前方画像31をフロントカメラ21から受ける。挙動特定部19は、その受けた方向指示信号4S及び前方画像31を用いて、車両100の挙動を判断する。挙動特定部19は、車両100が右折又は左折をすると判断した場合、車両100が右折又は左折することを通知するための挙動情報19Aを画像選択部11に出力する。 The behavior specifying unit 19 receives the direction indication signal 4S from the direction indication switch 4 and the forward image 31 from the front camera 21 . The behavior identifying unit 19 determines the behavior of the vehicle 100 using the received direction indication signal 4S and the forward image 31 . When the behavior specifying unit 19 determines that the vehicle 100 is to turn right or left, it outputs behavior information 19A for notifying that the vehicle 100 is turning right or left to the image selection unit 11 .

画像選択部11は、撮影画像(前方画像31、右方画像32、後方画像33及び左方画像34)をカメラから取得し、挙動情報19Aを挙動特定部19から取得する。画像選択部11は、取得した挙動情報19Aに基づいて、第1検出部12に出力する第1画像41と第2検出部13に出力する第2画像42とを取得した撮影画像の中から選択する。撮影画像の選択の詳細は後述する。画像選択部11は、選択した第1画像41を第1検出部12に出力し、選択した第2画像42を第2検出部に出力する。 The image selection unit 11 acquires the captured images (the front image 31 , the right image 32 , the rear image 33 and the left image 34 ) from the cameras, and acquires the behavior information 19A from the behavior identification unit 19 . The image selection unit 11 selects the first image 41 to be output to the first detection unit 12 and the second image 42 to be output to the second detection unit 13 from the acquired captured images based on the acquired behavior information 19A. do. The details of the selection of the captured image will be described later. The image selection unit 11 outputs the selected first image 41 to the first detection unit 12 and outputs the selected second image 42 to the second detection unit.

第1検出部12は、第1画像41を画像選択部11から受け、その受けた第1画像41から第1移動物を検出する。第1検出部12は、第1移動物の検出結果に基づいて、検出された第1移動物の確からしさを示す第1信頼度を取得する。第1検出部12は、第1信頼度と第1移動物の検出結果とを含む検出情報42Aを、判断部14及び結果選択部17に出力する。第1移動物の検出結果は、第1画像41における第1移動物の位置及び第1移動物の移動方向を含む。 The first detection unit 12 receives the first image 41 from the image selection unit 11 and detects the first moving object from the received first image 41 . Based on the detection result of the first moving object, the first detection unit 12 acquires a first reliability indicating the likelihood of the detected first moving object. The first detection unit 12 outputs detection information 42A including the first reliability and the detection result of the first moving object to the determination unit 14 and the result selection unit 17 . The detection result of the first moving object includes the position of the first moving object in the first image 41 and the moving direction of the first moving object.

第2検出部13は、第2画像42を画像選択部11から受け、その受けた第2画像42から第2移動物を検出する。第2検出部13は、第2移動物の検出結果に基づいて、検出された第2移動物の確からしさを示す第2信頼度を取得する。第2検出部13は、第2信頼度と、第2移動物の検出結果とを含む検出情報42Aを判断部14及び結果選択部17に出力する。第2移動物の検出結果は、第2画像42における第2移動物の位置及び第2移動物の移動方向を含む。 The second detection unit 13 receives the second image 42 from the image selection unit 11 and detects the second moving object from the received second image 42 . The second detection unit 13 acquires a second reliability indicating the likelihood of the detected second moving object based on the detection result of the second moving object. The second detection unit 13 outputs detection information 42A including the second reliability and the detection result of the second moving object to the determination unit 14 and the result selection unit 17 . The detection result of the second moving object includes the position of the second moving object in the second image 42 and the moving direction of the second moving object.

判断部14は、検出情報41Aを第1検出部12から受け、検出情報42Aを第2検出部13から受ける。判断部14は、その受けた検出情報41A及び42Aに基づいて、第1移動物が第2移動物と同じ物体であるか否かを判断する。判断部14は、第1移動物が第2移動物と同じ物体であるか否かを示す同一判断情報44を結果選択部17に出力する。 The determination unit 14 receives detection information 41 A from the first detection unit 12 and receives detection information 42 A from the second detection unit 13 . The determination unit 14 determines whether the first moving object is the same object as the second moving object based on the received detection information 41A and 42A. The determination unit 14 outputs identity determination information 44 indicating whether or not the first moving object is the same object as the second moving object to the result selection unit 17 .

俯瞰画像生成部15は、撮影画像をカメラから取得し、取得した撮影画像を用いて俯瞰画像43を生成する。俯瞰画像43は、車両100の上方に設定された仮想視点から、車両100と車両100の周辺領域とを俯瞰した画像である。俯瞰画像生成部15は、生成した俯瞰画像43を第3検出部16及び結果出力部18に出力する。 The bird's-eye view image generating unit 15 acquires a captured image from the camera and generates a bird's-eye view image 43 using the acquired captured image. Bird's-eye view image 43 is an image of vehicle 100 and surrounding areas of vehicle 100 viewed from a virtual viewpoint set above vehicle 100 . The bird's-eye view image generation unit 15 outputs the generated bird's-eye view image 43 to the third detection unit 16 and the result output unit 18 .

第3検出部16は、俯瞰画像43を俯瞰画像生成部15から受け、その受けた俯瞰画像43から第3移動物を検出する。第3検出部16は、第3移動物の検出結果を示す検出情報43Aを結果選択部17に出力する。第3移動物の検出結果は、俯瞰画像43における第3移動物の位置及び移動方向を含む。 The third detection unit 16 receives the overhead image 43 from the overhead image generation unit 15 and detects the third moving object from the received overhead image 43 . The third detection unit 16 outputs detection information 43A indicating the detection result of the third moving object to the result selection unit 17 . The detection result of the third moving object includes the position and moving direction of the third moving object in the overhead image 43 .

結果選択部17は、検出情報41Aを第1検出部12から受け、検出情報42Aを第2検出部13から受け、第3検出部16から検出情報43Aを受ける。結果選択部17は、検出情報41A及び42Aに記録された信頼度に基づいて、検出情報41A~43Aのうち少なくとも1つを選択する。結果選択部17は、選択された検出情報を通知対象情報45として結果出力部18に出力する。 The result selection unit 17 receives detection information 41 A from the first detection unit 12 , detection information 42 A from the second detection unit 13 , and detection information 43 A from the third detection unit 16 . The result selection unit 17 selects at least one of the detection information 41A to 43A based on the reliability recorded in the detection information 41A and 42A. The result selection unit 17 outputs the selected detection information to the result output unit 18 as the notification target information 45 .

結果選択部17は、同一判断情報44を判断部14から受ける。結果選択部17は、検出情報41A及び42Aを選択可能と判断した場合、受けた同一判断情報44に基づいて、検出情報41A及び42Aの両者を通知対象情報45として出力するか否かを判断する。具体的には、同一判断情報44が、第1移動物が第2移動物と同じ物体であることを示す場合、結果選択部17は、検出情報41A及び42Aのいずれか一方を通知対象情報45として結果出力部18に出力する。同一判断情報44が、第1移動物が第2移動物と異なる物体であることを示す場合、結果選択部17は、検出情報41A及び42Aの両者を通知対象情報45として結果出力部18に出力する。 The result selection unit 17 receives the same determination information 44 from the determination unit 14 . When determining that the detection information 41A and 42A can be selected, the result selection unit 17 determines whether to output both the detection information 41A and 42A as the notification target information 45 based on the same determination information 44 received. . Specifically, when the same determination information 44 indicates that the first moving object is the same object as the second moving object, the result selection unit 17 selects one of the detection information 41A and 42A as the notification target information 45 , and output to the result output unit 18 . When the identical determination information 44 indicates that the first moving object is an object different from the second moving object, the result selection unit 17 outputs both the detection information 41A and 42A as the notification target information 45 to the result output unit 18. do.

結果出力部18は、前方画像31をフロントカメラ21から受け、俯瞰画像43を俯瞰画像生成部15から受け、通知対象情報45を結果選択部17から受ける。結果出力部18は、受けた前方画像31及び俯瞰画像43のうちいずれか一方を、受けた通知対象情報45に基づいて選択する。結果出力部18は、受けた通知対象情報45に基づいて、移動物が存在する領域を選択した画像において強調する。結果出力部18は、移動物が存在する領域が強調された画像を結果画像50として表示装置5に出力する。 The result output unit 18 receives the front image 31 from the front camera 21 , the overhead image 43 from the overhead image generation unit 15 , and the notification target information 45 from the result selection unit 17 . The result output unit 18 selects one of the received forward image 31 and the overhead image 43 based on the received notification target information 45 . Based on the notification target information 45 received, the result output unit 18 emphasizes the area in which the moving object exists in the selected image. The result output unit 18 outputs to the display device 5 as a result image 50 an image in which the region in which the moving object exists is emphasized.

[4.移動物検出装置10の動作
[4.1.動作概略]
図4は、図1に示す移動物検出装置10の動作概略を説明する図である。図4を参照しながら、車両100が右折する場合を例にして、移動物検出装置10の動作概略を説明する。図4において、道路R1は南北方向に延び、道路R2は東西方向に延びる。道路R1及び道路R2は、交差点Pにおいて交差する。
[4. Operation of moving object detection device 10 [4.1. Operation outline]
4A and 4B are diagrams for explaining an outline of the operation of the moving object detection device 10 shown in FIG. An outline of the operation of the moving object detection device 10 will be described with reference to FIG. 4, taking as an example the case where the vehicle 100 turns right. In FIG. 4, the road R1 extends in the north-south direction and the road R2 extends in the east-west direction. A road R1 and a road R2 intersect at an intersection P.

図4において、車両100は、道路R1を交差点Pに向かって走行し、交差点Pにおいて右折する。具体的には、車両100は、右ウィンカー7Rの点滅を時刻t1から開始し、時刻t1よりも後の時刻t2に交差点Pに進入する。車両100は、時刻t2よりも後の時刻t3において、右ウィンカー7Rの点滅を終了する。自転車25は、移動物検出装置10によって検出される移動物である。自転車25は、道路R1を交差点Pに向かって走行し、横断歩道C2を渡る。 In FIG. 4, vehicle 100 travels along road R1 toward intersection P and turns right at intersection P. In FIG. Specifically, the vehicle 100 starts blinking the right winker 7R at time t1, and enters the intersection P at time t2 after time t1. Vehicle 100 stops flashing of right winker 7R at time t3 later than time t2. A bicycle 25 is a moving object detected by the moving object detection device 10 . The bicycle 25 runs on the road R1 toward the intersection P and crosses the crosswalk C2.

移動物検出装置10は、図示しない車両100のイグニッションスイッチがオンされている期間において、前方画像31から横断歩道を検出する処理を繰り返す。 The moving object detection device 10 repeats the process of detecting a pedestrian crossing from the forward image 31 while the ignition switch of the vehicle 100 (not shown) is turned on.

時刻t1において、移動物検出装置10は、交差点Pの横断歩道C1を検出し、右ウィンカー7Rの点滅を指示する方向指示信号4Sを方向指示スイッチ4から受ける。この結果、移動物検出装置10は、車両100が右折すると判断する(ステップS1)。 At time t1, moving object detection device 10 detects pedestrian crossing C1 at intersection P, and receives direction indication signal 4S from direction indication switch 4 instructing blinking of right winker 7R. As a result, the moving object detection device 10 determines that the vehicle 100 will turn right (step S1).

移動物検出装置10は、車両100が右折すると判断した場合、前方画像31及び右方画像32の各々から移動物を検出する(ステップS2)。なお、前方画像31が第1画像41に相当し、右方画像32が第2画像42に相当する。この結果、時刻t1において、自転車25が、前方画像31及び右方画像34の各々から検出される。フロントカメラ31の撮影領域の一部が右サイドカメラ34の撮影領域の一部と重複するためである。 When the moving object detection device 10 determines that the vehicle 100 is to turn right, it detects a moving object from each of the front image 31 and the right image 32 (step S2). Note that the front image 31 corresponds to the first image 41 and the right image 32 corresponds to the second image 42 . As a result, the bicycle 25 is detected from each of the front image 31 and the right image 34 at time t1. This is because part of the photographing area of the front camera 31 overlaps part of the photographing area of the right side camera 34 .

移動物検出装置10は、前方画像31から検出された自転車25の検出精度を示す第1信頼度と、右方画像34から検出された自転車25の検出精度を示す信頼度とを取得する(ステップS3)。 The moving object detection device 10 acquires a first reliability indicating the detection accuracy of the bicycle 25 detected from the front image 31 and a reliability indicating the detection accuracy of the bicycle 25 detected from the right image 34 (step S3).

また、移動物検出装置10は、時刻t1に取得された撮影画像を用いて俯瞰画像43を生成する。移動物検出装置10は、生成した俯瞰画像43から自転車25を検出する(ステップS4)。すなわち、移動物検出装置10は、時刻t1において、前方画像31と、右方画像34と、俯瞰画像43との各々から自転車25を検出する。移動物検出装置10は、ステップS3で取得された第1信頼度及び第2信頼度の各々を予め設定された基準値比較する。移動物検出装置10は、その比較結果に基づいて前方画像31、右方画像31及び俯瞰画像43の各々から得られた検出情報のうち、検出情報を少なくとも1つ選択する(ステップS5)。 Further, the moving object detection device 10 generates a bird's-eye view image 43 using the photographed image acquired at time t1. The moving object detection device 10 detects the bicycle 25 from the generated overhead image 43 (step S4). That is, moving object detection apparatus 10 detects bicycle 25 from front image 31, right image 34, and overhead image 43 at time t1. The moving object detection device 10 compares each of the first reliability and the second reliability obtained in step S3 with a preset reference value. The moving object detection device 10 selects at least one piece of detection information from the detection information obtained from each of the front image 31, the right image 31, and the overhead image 43 based on the comparison result (step S5).

図4に示す前方画像31において、自転車25の前輪のみが前方画像31の右下端部に表れている。前方画像31から検出された自転車25の第1信頼度は、比較的低く、基準値を下回る。一方、右方画像34において、自転車25の全体が右方画像34に表れており、自転車25は右方画像34の中央付近に位置している。右方画像34から検出された自転車25の第2信頼度は、比較的高く、基準値を上回る。この場合、移動物検出装置10は、俯瞰画像43から得られた検出情報43Aを選択する。つまり、第1信頼度及び第2信頼度の一方が基準値を超え、かつ、他方が基準値を下回る場合、移動物検出装置10は、俯瞰画像43から検出された第3移動物を示す検出情報43Aが選択される。 In the front image 31 shown in FIG. 4, only the front wheel of the bicycle 25 appears in the lower right corner of the front image 31. As shown in FIG. The first reliability of the bicycle 25 detected from the front image 31 is relatively low and below the reference value. On the other hand, in the right image 34 , the entire bicycle 25 appears in the right image 34 and the bicycle 25 is positioned near the center of the right image 34 . The second reliability of the bicycle 25 detected from the right image 34 is relatively high and exceeds the reference value. In this case, the moving object detection device 10 selects detection information 43A obtained from the overhead image 43 . That is, when one of the first reliability and the second reliability exceeds the reference value and the other is below the reference value, the moving object detection device 10 detects the third moving object detected from the bird's-eye view image 43. Information 43A is selected.

移動物が前方画像31から検出され、かつ、移動物が右方画像32から検出されなかった場合、移動物検出装置10は、前方画像31から得られた検出情報41Aが選択される。移動物が右方画像32のみから検出され、かつ、移動物が前方画像31から検出されなかった場合、結果画像50は、右方画像32から得られた検出情報42Aが選択される。 When a moving object is detected from the front image 31 and no moving object is detected from the right image 32, the moving object detection device 10 selects detection information 41A obtained from the front image 31. FIG. When a moving object is detected only from the right image 32 and no moving object is detected from the front image 31, the detection information 42A obtained from the right image 32 is selected as the resulting image 50. FIG.

第1信頼度及び第2信頼度の両者が基準値を超える場合、移動物検出装置10は、ステップS6において、検出情報41A及び42Aを選択可能と判断する。この場合、移動物検出装置10は、検出情報41A及び42Aのうち信頼度の高い検出情報が選択される。 When both the first reliability and the second reliability exceed the reference values, the moving object detection device 10 determines in step S6 that the detection information 41A and 42A can be selected. In this case, the moving object detection device 10 selects detection information with high reliability from the detection information 41A and 42A.

移動物検出装置10は、ステップS6で選択された検出情報を用いて、結果画像50を生成する(ステップS6)。移動物検出装置10は、右ウィンカー7Rの点滅終了を指示する方向指示信号4Sを方向指示スイッチ4から受けた場合、車両100の右折が終了したと判断する。この場合、移動物検出装置10は、移動物の検出を終了する(ステップS7)。 The moving object detection device 10 uses the detection information selected in step S6 to generate a result image 50 (step S6). The moving object detection device 10 determines that the right turn of the vehicle 100 has been completed when the direction instruction signal 4S instructing the blinking end of the right winker 7R is received from the direction instruction switch 4 . In this case, the moving object detection device 10 ends the detection of moving objects (step S7).

図4に示す例では、方向指示信号4Sは、時刻t1から時刻t3までの期間にかけて、右ウィンカー7Rの点滅を指示する。従って、移動物検出装置10は、時刻t1から時刻t3までの期間において、前方画像31及び右方画像32を用いて移動物を検出する。 In the example shown in FIG. 4, the direction instruction signal 4S instructs the blinking of the right blinker 7R during the period from time t1 to time t3. Therefore, the moving object detection apparatus 10 detects a moving object using the front image 31 and the right image 32 during the period from time t1 to time t3.

このように、移動物検出装置10は、第1信頼度及び第2信頼度に基づいて検出情報41A~43Aのうち少なくとも1つを選択し、選択した検出情報を用いて移動物の存在を運転者に通知する。移動物検出装置10は、検出情報41A~43Aのうち適切な検出情報を用いることができるため、移動物の検出精度の向上することができる。 In this way, the moving object detection device 10 selects at least one of the detection information 41A to 43A based on the first reliability and the second reliability, and uses the selected detection information to detect the presence of the moving object. notify the person. Since the moving object detection apparatus 10 can use the appropriate detection information among the detection information 41A to 43A, the moving object detection accuracy can be improved.

[4.2.詳細動作]
図5は、図1に示す移動物検出装置10の動作を示すフローチャートである。図5を参照して、移動物検出装置10は、図示しない車両100のイグニッションスイッチがオンされた場合、図5に示す処理を開始する。
[4.2. Detailed operation]
FIG. 5 is a flow chart showing the operation of the moving object detection device 10 shown in FIG. Referring to FIG. 5, moving object detection device 10 starts the processing shown in FIG. 5 when the ignition switch of vehicle 100 (not shown) is turned on.

移動物検出装置10は、カメラから撮影画像を取得する(ステップS11)。上述のように、撮影画像は、動画像を構成するフレームである。このため、移動物検出装置10は、車両100に搭載された4台のカメラの全てからフレームを取得した場合、ステップS12に進む。 The moving object detection device 10 acquires a captured image from the camera (step S11). As described above, a captured image is a frame that forms a moving image. Therefore, when the moving object detection device 10 acquires frames from all four cameras mounted on the vehicle 100, the process proceeds to step S12.

移動物検出装置10において、挙動特定部19は、ステップS11で取得した前方画像31及び方向指示スイッチ4から受ける方向指示信号4Sに基づいて、車両100が右折又は左折するかを判断する(ステップS12)。 In the moving object detection device 10, the behavior identifying unit 19 determines whether the vehicle 100 turns right or left based on the forward image 31 acquired in step S11 and the direction indication signal 4S received from the direction indication switch 4 (step S12). ).

具体的には、挙動特定部19は、ステップS21で取得した前方画像31から横断歩道を検出する処理を実行する。例えば、挙動特定部19は、各々が車両100の進行方向に延びる複数の白線を検出する。挙動特定部19は、検出した複数の白線が車両100の左右方向に配列されている場合、横断歩道を検出したと判断する。 Specifically, the behavior identifying unit 19 executes processing for detecting a pedestrian crossing from the forward image 31 acquired in step S21. For example, the behavior identifying unit 19 detects multiple white lines each extending in the traveling direction of the vehicle 100 . The behavior identifying unit 19 determines that a pedestrian crossing is detected when a plurality of detected white lines are arranged in the lateral direction of the vehicle 100 .

横断歩道が検出され、かつ、方向指示信号4Sが左ウィンカー7L及び右ウィンカー7Rのいずれか一方の点滅を示す場合、挙動特定部19は、車両100が右折又は左折すると判断する(ステップS12においてYes)。横断歩道が検出されない場合、又は、方向指示信号4Sが左ウィンカー7L又は右ウィンカー7Rの点滅を指示しない場合、移動物検出装置10は、車両100が直進すると判断する(ステップS12においてNo)。この場合、移動物検出装置10は、後述ステップS18に進む。 When a pedestrian crossing is detected and the direction indication signal 4S indicates blinking of either the left winker 7L or the right winker 7R, the behavior identifying unit 19 determines that the vehicle 100 turns right or left (Yes in step S12). ). If no pedestrian crossing is detected, or if the direction indication signal 4S does not indicate blinking of the left winker 7L or the right winker 7R, the moving object detection device 10 determines that the vehicle 100 will go straight (No in step S12). In this case, the moving object detection device 10 proceeds to step S18, which will be described later.

画像選択部11は、車両100が右折又は左折すると判断された場合(ステップS12においてYes)、移動物の検出に用いるカメラを選択する(ステップS13)。車両100が右折する場合、車両100は、車両100の右方を移動する移動物と衝突する虞がある。このため、画像選択部11は、車両100が右折すると判断した場合、フロントカメラ21及び右サイドカメラ22を選択する。車両100が左折する場合、車両100は、車両100の左方を移動する移動物と衝突する虞がある。このため、画像選択部11は、車両100が左折すると判断した場合、フロントカメラ21及び左サイドカメラ24を選択する。 When it is determined that vehicle 100 will turn right or left (Yes in step S12), image selection unit 11 selects a camera to be used for detecting a moving object (step S13). When vehicle 100 turns right, vehicle 100 may collide with a moving object moving to the right of vehicle 100 . Therefore, the image selection unit 11 selects the front camera 21 and the right side camera 22 when determining that the vehicle 100 is to turn right. When vehicle 100 turns left, vehicle 100 may collide with a moving object moving to the left of vehicle 100 . Therefore, the image selection unit 11 selects the front camera 21 and the left side camera 24 when determining that the vehicle 100 is to turn left.

以下、特に説明のない限り、車両100が右折する場合を例にして、移動物検出装置10の動作を説明する。この場合、フロントカメラ21及び右サイドカメラ22が選択される(ステップS13)。画像選択部11は、前方画像31を第1検出部12に出力し、右方画像32を第2検出部13に出力する。前方画像31は、図3に示す第1画像41に対応する。右方画像32は、図3に示す第2画像42に対応する。このため、前方画像31から検出された移動物を「第1移動物」、右方画像32から検出された移動物を「第2移動物」と記載する。 Hereinafter, unless otherwise specified, the operation of the moving object detection device 10 will be described using the case where the vehicle 100 turns right as an example. In this case, the front camera 21 and the right side camera 22 are selected (step S13). The image selection unit 11 outputs the front image 31 to the first detection unit 12 and outputs the right image 32 to the second detection unit 13 . The forward image 31 corresponds to the first image 41 shown in FIG. The right image 32 corresponds to the second image 42 shown in FIG. Therefore, the moving object detected from the front image 31 will be referred to as a "first moving object", and the moving object detected from the right image 32 will be referred to as a "second moving object".

移動物検出装置10は、前方画像31と、右方画像32と、俯瞰画像43との各々から移動物を検出する(ステップS14)。具体的には、第1検出部12は、前方画像31から第1移動物を検出した場合、第1信頼度を取得し、検出情報41Aを生成する。第2検出部13は、右方画像32から第2移動物を検出した場合、第2信頼度を取得し、検出情報42Aを生成する。第3検出部16は、俯瞰画像43から第3移動物を検出した場合、検出情報43Aを生成する。第3検出部16は、第3移動物の信頼度を取得しない。なお、ステップS14の詳細については、後述する。 The moving object detection device 10 detects a moving object from each of the front image 31, the right image 32, and the overhead image 43 (step S14). Specifically, when the first moving object is detected from the front image 31, the first detection unit 12 acquires the first reliability and generates the detection information 41A. When the second moving object is detected from the right image 32, the second detection unit 13 acquires the second reliability and generates detection information 42A. When detecting the third moving object from the overhead image 43, the third detection unit 16 generates detection information 43A. The third detector 16 does not acquire the reliability of the third moving object. Details of step S14 will be described later.

結果選択部17が、ステップS14の結果として生成される検出情報41A~43Aの中から、移動物の検出通知に用いられる少なくとも1つの検出情報を選択する(ステップS15)。検出情報41Aに含まれる第1信頼度と、検出情報42Aに含まれる第2信頼度とが、検出情報の選択に用いられる。ステップS15の詳細については、後述する。 The result selection unit 17 selects at least one piece of detection information to be used for notification of detection of a moving object from among the detection information 41A to 43A generated as a result of step S14 (step S15). The first reliability included in the detection information 41A and the second reliability included in the detection information 42A are used for selection of detection information. Details of step S15 will be described later.

結果出力部18が、ステップS15で選択された検出情報に基づいて、結果画像50を生成する(ステップS16)。具体的には、結果出力部18は、選択された検出情報に基づいて、前方画像31及び俯瞰画像43のいずれか一方を選択する。移動物検出装置10は、選択した画像に含まれる移動物を強調し、移動物が強調された画像を結果画像50として表示装置5に出力する。ステップS16の詳細については、後述する。 The result output unit 18 generates a result image 50 based on the detection information selected in step S15 (step S16). Specifically, the result output unit 18 selects either the front image 31 or the overhead image 43 based on the selected detection information. The moving object detection device 10 emphasizes the moving object included in the selected image, and outputs the image in which the moving object is emphasized to the display device 5 as the resulting image 50 . Details of step S16 will be described later.

移動物検出装置10は、車両100が右折又は左折を終了したか否かを判断する(ステップS17)。例えば、移動物検出装置10は、ステップS17の判断において、方向指示信号4Sを用いる。 The moving object detection device 10 determines whether or not the vehicle 100 has finished turning right or left (step S17). For example, the moving object detection device 10 uses the direction instruction signal 4S in the determination of step S17.

方向指示信号4Sが右ウィンカー7R又は左ウィンカー7Lの点滅を指示する場合、移動物検出装置10は、車両100が右折又は左折中であると判断する(ステップS17においてNo)。移動物検出装置10は、ステップS11で取得した撮影画像と異なる撮影画像を新たに取得する(ステップS19)。移動物検出装置10は、新たに取得した撮影画像を用いて、移動物検出処理(ステップS14)を再び実行する。 When direction indication signal 4S instructs blinking of right winker 7R or left winker 7L, moving object detection device 10 determines that vehicle 100 is turning right or left (No in step S17). The moving object detection device 10 newly acquires a photographed image different from the photographed image acquired in step S11 (step S19). The moving object detection device 10 performs the moving object detection process (step S14) again using the newly acquired photographed image.

方向指示信号4Sが右ウィンカー7R又は左ウィンカー7Lの点滅終了を指示する場合、移動物検出装置10は、車両100が右折又は左折を終了したと判断する(ステップS17においてYes)。移動物検出装置10は、移動物の検出を終了し、ステップS18に進む。 When the direction indication signal 4S instructs the right winker 7R or the left winker 7L to stop blinking, the moving object detection device 10 determines that the vehicle 100 has finished turning right or left (Yes in step S17). The moving object detection device 10 ends the detection of the moving object, and proceeds to step S18.

イグニッションスイッチのオンが継続している場合(ステップS18においてNo)、移動物検出装置10は、ステップS11に戻る。イグニッションスイッチがオンからオフに変化した場合(ステップS18においてYes)、移動物検出装置10は、図5に示す処理を終了する。 If the ignition switch continues to be on (No in step S18), the moving object detection device 10 returns to step S11. If the ignition switch has changed from on to off (Yes in step S18), the moving object detection device 10 ends the processing shown in FIG.

[4.3.移動物検出処理(ステップS14)]
(撮影画像からの移動物の検出)
図6は、図5に示す移動物検出処理(ステップS14)のフローチャートである。図6を参照して、第1検出部12は、検出領域が前方画像31(第1画像41)に設定されているか否かを判断する(ステップS401)。詳細については後述するが、検出領域は、所定の条件が満たされた場合に第1画像41及び第2画像42の一方に設定される。
[4.3. Moving Object Detection Processing (Step S14)]
(Detection of moving objects from captured images)
FIG. 6 is a flow chart of the moving object detection process (step S14) shown in FIG. Referring to FIG. 6, first detection unit 12 determines whether or not the detection area is set in forward image 31 (first image 41) (step S401). Although the details will be described later, the detection area is set in one of the first image 41 and the second image 42 when a predetermined condition is satisfied.

検出領域が前方画像31に設定されている場合(ステップS401においてYes)、第1検出部12は、前方画像31のうち検出領域に含まれる画像から第1移動物を検出する(ステップS402)。検出領域が前方画像31に設定されていない場合(ステップS401においてNo)、第1検出部12は、前方画像31の全体から第1移動物を検出する(ステップS403)。第1検出部12は、ステップS402又はS403の結果、前方画像31における第1移動物の位置と、前方画像31における第1移動物の移動方向とを取得する。 When the detection area is set in the front image 31 (Yes in step S401), the first detection unit 12 detects the first moving object from the image included in the detection area in the front image 31 (step S402). If the detection area is not set in the forward image 31 (No in step S401), the first detection unit 12 detects the first moving object from the entire forward image 31 (step S403). The first detection unit 12 acquires the position of the first moving object in the front image 31 and the moving direction of the first moving object in the front image 31 as a result of step S402 or S403.

第2検出部13は、検出領域が右方画像32(第2画像42)に設定されているか否かを判断する(ステップS404)。検出領域が右方画像32に設定されている場合(ステップS404においてYes)、第2検出部13は、右方画像32のうち検出領域に含まれる画像から第2移動物を検出する(ステップS405)。検出領域が右方画像32に設定されていない場合(ステップS404においてNo)、第2検出部13は、右方画像32の全体から第2移動物を検出する(ステップS406)。第2検出部13は、ステップS405又はS406の結果、右方画像32における第2移動物の位置と、右方画像32における第2移動物の移動方向とを取得する。 The second detection unit 13 determines whether or not the detection area is set in the right image 32 (second image 42) (step S404). When the detection area is set in the right image 32 (Yes in step S404), the second detection unit 13 detects the second moving object from the image included in the detection area in the right image 32 (step S405). ). If the detection area is not set in the right image 32 (No in step S404), the second detection unit 13 detects the second moving object from the entire right image 32 (step S406). The second detection unit 13 acquires the position of the second moving object in the right image 32 and the moving direction of the second moving object in the right image 32 as a result of step S405 or S406.

図7は、図4に示す右方画像32の拡大図である。図7を参照しながら、検出領域の具体例について説明する。検出領域22Lが右方画像32に設定されている。検出領域22Lは右方画像32における左半分の領域である。検出領域22Lが右方画像32に設定されている場合、第2検出部13は、右方画像32のうち、検出領域22Lに含まれる画像から第2移動物を検出する。右方画像32の右半分の領域は、第2移動物の検出対象から除外される。 FIG. 7 is an enlarged view of the right image 32 shown in FIG. A specific example of the detection area will be described with reference to FIG. A detection area 22L is set in the right image 32 . The detection area 22L is the left half area in the right image 32 . When the detection area 22L is set in the right image 32, the second detection unit 13 detects the second moving object from the image included in the detection area 22L in the right image 32. FIG. The right half area of the right image 32 is excluded from the second moving object detection target.

移動物の検出(ステップS14)について、図7に示す右方画像32から自転車25を検出する場合を例に説明する。なお、検出領域22Lが右方画像32に設定されていないと仮定する。 Moving object detection (step S14) will be described with an example of detecting a bicycle 25 from the right image 32 shown in FIG. It is assumed that the detection area 22L is not set in the right image 32. FIG.

第2検出部13は、右方画像32から図示しないエッジ画像を生成し、生成したエッジ画像からエッジにより囲まれた領域25Rを抽出する。第2検出部13は、抽出した領域25Rのサイズが予め設定された基準サイズよりも大きい場合、抽出した領域25Rが物体であると判断する。領域25Rで囲まれる物体は、自転車25である。説明の便宜上、領域25Rを図7において矩形で示している。第2検出部13は、抽出した領域25Rの中心を自転車25の位置25Pに決定する。 The second detection unit 13 generates an edge image (not shown) from the right image 32, and extracts a region 25R surrounded by edges from the generated edge image. When the size of the extracted region 25R is larger than a preset reference size, the second detection unit 13 determines that the extracted region 25R is an object. The object surrounded by the area 25R is the bicycle 25. FIG. For convenience of explanation, the region 25R is indicated by a rectangle in FIG. The second detection unit 13 determines the center of the extracted area 25R as the position 25P of the bicycle 25. FIG.

第2検出部13は、自転車25の位置25P及び領域25Rに基づいて、自転車25が移動物であるか否かを判断する。以下、図7に示す右方画像32を「現在右方画像」と記載し、現在画像の直前に取得された右方画像32Aを「過去右方画像」と記載する。図7において、過去領域26Rは、過去右方画像から検出された自転車25の領域である。過去位置26Pは、過去領域26Rの中心である。図7において、位置25Pから過去位置26Pまでの距離Dを誇張して表現している。 The second detection unit 13 determines whether the bicycle 25 is a moving object based on the position 25P of the bicycle 25 and the area 25R. Hereinafter, the right image 32 shown in FIG. 7 is referred to as the "current right image", and the right image 32A acquired immediately before the current image is referred to as the "past right image". In FIG. 7, the past area 26R is the area of the bicycle 25 detected from the past right image. The past position 26P is the center of the past area 26R. In FIG. 7, the distance D from the position 25P to the past position 26P is exaggerated.

位置25P及び過去位置26Pは、右方画像32の画素座標系により記述される。画素座標系の原点は右方画像32の左上頂点である。画素座標系において、Xa軸は原点から右方向に延び、Ya軸は原点から下方向に延びる。 Position 25 P and past position 26 P are described by the pixel coordinate system of right image 32 . The origin of the pixel coordinate system is the upper left vertex of the right image 32 . In the pixel coordinate system, the Xa axis extends rightward from the origin, and the Ya axis extends downward from the origin.

第2検出部13は、以下の2つの条件が満たされた場合、現在右方画像から検出された自転車25が移動物であると判断する。 The second detection unit 13 determines that the bicycle 25 currently detected from the right image is a moving object when the following two conditions are satisfied.

第1条件は、領域25Rのサイズと過去領域26Rのサイズとの比が所定範囲内であることである。現在右方画像の生成時刻と過去右方画像の生成時刻との差は、右サイドカメラ32により生成される動画像のフレーム間隔に相当する。自転車25が現在右方画像及び過去右方画像の両者から検出された場合、領域25Rのサイズは、過去領域26Rのサイズから大幅に変化しないと想定される。 The first condition is that the ratio between the size of the region 25R and the size of the past region 26R is within a predetermined range. The difference between the generation time of the current right image and the generation time of the past right image corresponds to the frame interval of the moving images generated by the right side camera 32 . If the bicycle 25 is detected in both the current right image and the past right image, it is assumed that the size of the region 25R does not change significantly from the size of the past region 26R.

第2条件は、距離Dが所定距離以下であることである。車両100の速さ及び動画像のフレーム間隔を考慮した場合、距離Dは、所定距離以下であると想定されるためである。 A second condition is that the distance D is equal to or less than a predetermined distance. This is because the distance D is assumed to be less than or equal to the predetermined distance when the speed of the vehicle 100 and the frame interval of the moving image are taken into consideration.

第2検出部13は、上記の2つの条件に基づいて現在右方画像から自転車25を検出したと判断した場合、現在右方画像における自転車25の位置及び移動方向を特定する。 When the second detection unit 13 determines that the bicycle 25 has been detected from the current right image based on the above two conditions, it identifies the position and movement direction of the bicycle 25 in the current right image.

領域25Rの位置25Pが、現在右方画像における自転車25の位置として特定される。第2検出部13は、現在右方画像における自転車25の移動方向を示すベクトル25Vを生成する。ベクトル25Vにおいて、始点は過去位置26Pであり、終点は位置25Pである。 A position 25P in the area 25R is identified as the position of the bicycle 25 in the current right image. The second detection unit 13 generates a vector 25V indicating the moving direction of the bicycle 25 in the current right image. The vector 25V starts at a past position 26P and ends at a position 25P.

(信頼度の取得)
移動物検出装置10は、ステップS403及びS406により検出された第1移動物及び第2移動物の信頼度を取得する(ステップS407)。具体的には、第1検出部12は、ステップS403で特定された第1移動物の位置に基づいて、第1移動物の検出精度を示す第1信頼度を決定する。第2検出部13は、ステップS406で特定された第2移動物の位置に基づいて、第2移動物の検出精度を示す第2信頼度を決定する。
(Acquisition of reliability)
The moving object detection apparatus 10 acquires the reliability of the first moving object and the second moving object detected in steps S403 and S406 (step S407). Specifically, the first detection unit 12 determines the first reliability indicating the detection accuracy of the first moving object based on the position of the first moving object specified in step S403. The second detection unit 13 determines a second reliability indicating the detection accuracy of the second moving object based on the position of the second moving object specified in step S406.

以下、第2信頼度の決定を例にして、ステップS407を説明する。第1信頼度は、第2信頼度と同様に決定されるため、第1信頼度の決定の説明を省略する。図7を参照して、第2検出部13は、ステップS403において特定された自転車25の位置25Pに基づいて、第2信頼度を決定する。具体的には、第2検出部13は、第2信頼度は、自転車25の位置25Pが右方画像32の中心Cから離れるに従って第2信頼度を低下させる。 The step S407 will be described below using the determination of the second reliability as an example. Since the first reliability is determined in the same manner as the second reliability, the description of the determination of the first reliability is omitted. Referring to FIG. 7, second detection unit 13 determines a second reliability based on position 25P of bicycle 25 identified in step S403. Specifically, the second detection unit 13 decreases the second reliability as the position 25P of the bicycle 25 moves away from the center C of the right image 32 .

右方画像32に含まれる物体は、右サイドカメラ22のレンズの焦点距離や収差に起因して中心Cから離れるに従ってぼやけ、不鮮明になる。従って、エッジ検出を移動物の検出に用いた場合、物体の検出精度は、右方画像32の中心Cから離れるに従って低下する。第2信頼度と中心Cからの距離との対応関係は、右サイドカメラ22が備える光学系の焦点距離などの特性に基づいて、第2検出部13に予め設定されている。 Due to the focal length and aberration of the lens of the right side camera 22, the objects included in the right side image 32 become blurred and unclear as they move away from the center C. Therefore, when edge detection is used to detect a moving object, the accuracy of object detection decreases as the distance from the center C of the right image 32 increases. The correspondence relationship between the second reliability and the distance from the center C is preset in the second detection unit 13 based on the characteristics such as the focal length of the optical system of the right side camera 22 .

ステップS407の後に、検出情報41Aが第1検出部12により生成され、検出情報42Aが第2検出部13により生成される。検出情報41A及び42Aの各々は、判断部14及び結果選択部17に出力される。 After step S407, detection information 41A is generated by the first detection unit 12, and detection information 42A is generated by the second detection unit 13. FIG. Each of the detection information 41A and 42A is output to the determination section 14 and the result selection section 17. FIG.

図8は、第2検出部13により生成される検出情報42Aの一例を示す図である。図8を参照して、検出情報42Aは、移動物が検出された撮影画像を特定する情報と、撮影画像における第2移動物の位置と、撮影画像における第2移動物の移動方向と、第2移動物の信頼度を記録する。 FIG. 8 is a diagram showing an example of detection information 42A generated by the second detection section 13. As shown in FIG. Referring to FIG. 8, detection information 42A includes information specifying the captured image in which the moving object is detected, the position of the second moving object in the captured image, the moving direction of the second moving object in the captured image, and the moving direction of the second moving object in the captured image. 2. Record the reliability of the moving objects.

(俯瞰画像からの移動物の検出)
再び、図6を参照して、俯瞰画像生成部15は、カメラから取得した撮影画像を用いて俯瞰画像43を生成する(ステップS408)。例えば、俯瞰画像生成部15は、撮影画像に含まれる各画素を予め設定された仮想投影面に投影することにより、俯瞰画像43を生成する。俯瞰画像生成部15は、生成した俯瞰画像43を第3検出部16及び結果出力部18に出力する。
(Detection of moving object from bird's-eye view image)
Again referring to FIG. 6, the bird's-eye view image generation unit 15 generates the bird's-eye view image 43 using the captured image acquired from the camera (step S408). For example, the bird's-eye view image generator 15 generates the bird's-eye view image 43 by projecting each pixel included in the captured image onto a preset virtual projection plane. The bird's-eye view image generation unit 15 outputs the generated bird's-eye view image 43 to the third detection unit 16 and the result output unit 18 .

第3検出部16は、俯瞰画像43を俯瞰画像生成部15から受け、その受けた俯瞰画像43から第3移動物を検出する(ステップS409)。第3検出部16は、第1検出部12及び第2検出部13で用いられる処理と同様の処理を用いて、移動物を検出する。なお、第3検出部16は、第3移動物の信頼度を取得しない。第3検出部16は、ステップS409の結果を記録した検出情報43Aを生成し、その生成した検出情報43Aを結果選択部17に出力する。検出情報43Aは、第3移動物の信頼度を記録しない点を除き、図8に示す検出情報42Aと同様の内容を記録する。 The third detection unit 16 receives the bird's-eye view image 43 from the bird's-eye view image generation unit 15, and detects the third moving object from the received bird's-eye view image 43 (step S409). The third detection unit 16 detects moving objects using the same processing as the processing used by the first detection unit 12 and the second detection unit 13 . Note that the third detection unit 16 does not acquire the reliability of the third moving object. The third detection unit 16 generates detection information 43A recording the result of step S409 and outputs the generated detection information 43A to the result selection unit 17. FIG. The detection information 43A records the same contents as the detection information 42A shown in FIG. 8, except that the reliability of the third moving object is not recorded.

[4.4.検出情報選択処理(ステップS15)]
図9は、図5に示す検出情報選択処理(ステップS15)のフローチャートである。図9を参照しながら、検出情報選択処理(ステップS15)について詳しく説明する。結果選択部17は、検出情報41A~43Aを取得した場合、図9に示す処理を開始する。
[4.4. Detection information selection process (step S15)]
FIG. 9 is a flow chart of the detection information selection process (step S15) shown in FIG. The detection information selection process (step S15) will be described in detail with reference to FIG. The result selection unit 17 starts the process shown in FIG. 9 when the detection information 41A to 43A is acquired.

結果選択部17は、検出情報41A及び42Aを参照して、第1移動物及び第2移動物のうちいずれか一方のみが検出されたか否かを判断する(ステップS501)。 The result selection unit 17 refers to the detection information 41A and 42A and determines whether only one of the first moving object and the second moving object is detected (step S501).

例えば、検出情報41Aが、未検出メッセージを含み、かつ、検出情報42Aが、第2移動物の位置を記録している場合、結果選択部17は、第2移動物のみが検出されたと判断する(ステップS501においてYes)。この場合、結果選択部17は、後述するステップS502を実行する。検出情報41A及び42Aが移動物の位置を記録している場合、あるいは、検出情報41A及び42が未検出メッセージを記録している場合(ステップS501においてNo)、結果選択部17は、後述するステップS506を実行する。 For example, when the detection information 41A includes an undetected message and the detection information 42A records the position of the second moving object, the result selection unit 17 determines that only the second moving object has been detected. (Yes in step S501). In this case, the result selection unit 17 executes step S502, which will be described later. If the detection information 41A and 42A record the position of a moving object, or if the detection information 41A and 42 record an undetected message (No in step S501), the result selection unit 17 performs step Execute S506.

ステップS502において、結果選択部17は、検出情報41A及び42Aのうち、移動物の位置が記録された検出情報を特定する。結果選択部17は、特定した検出情報に記録された信頼度が予め設定された基準値よりも高いか否かを判断する(ステップS503)。 In step S502, the result selection unit 17 specifies the detection information in which the position of the moving object is recorded, from among the detection information 41A and 42A. The result selection unit 17 determines whether or not the reliability recorded in the identified detection information is higher than a preset reference value (step S503).

特定した検出情報に記録された信頼度が基準値以下である場合(ステップS503においてNo)、結果選択部17は、検出情報を選択しないことを決定する(ステップS505)。移動物ではない物体が、誤って移動物と判断された可能性が高いためである。結果選択部17は、未検出メッセージを含む通知対象情報45を結果出力部18に出力する。 If the reliability recorded in the specified detection information is equal to or lower than the reference value (No in step S503), the result selection unit 17 determines not to select the detection information (step S505). This is because there is a high possibility that an object that is not a moving object is erroneously determined to be a moving object. The result selection unit 17 outputs the notification target information 45 including the undetected message to the result output unit 18 .

特定した検出情報に記録された信頼度が基準値よりも高い場合(ステップS503においてYes)、結果選択部17は、特定した検出情報を選択する(ステップS504)。結果選択部17は、ステップS504で選択された検出情報を含む通知対象情報45を結果出力部18に出力する。 If the reliability recorded in the specified detection information is higher than the reference value (Yes in step S503), the result selection unit 17 selects the specified detection information (step S504). The result selection unit 17 outputs the notification target information 45 including the detection information selected in step S504 to the result output unit 18 .

ステップS506において、結果選択部17は、検出情報41A及び検出情報42Aに基づいて、第1移動物及び第2移動物が検出されたか否かを判断する。 In step S506, the result selection unit 17 determines whether the first moving object and the second moving object are detected based on the detection information 41A and the detection information 42A.

検出情報41A及び42が未検出メッセージを含む場合、結果選択部17は、第1移動物及び第2移動物が検出されなかったと判断する(ステップS506においてNo)。結果選択部17は、検出情報を選択しないことを決定する(ステップS514)。結果選択部17は、未検出メッセージを含む通知対象情報45を結果出力部18に出力する。 When the detection information 41A and 42 includes the undetected message, the result selection unit 17 determines that the first moving object and the second moving object have not been detected (No in step S506). The result selection unit 17 determines not to select detection information (step S514). The result selection unit 17 outputs the notification target information 45 including the undetected message to the result output unit 18 .

検出情報41A及び42が移動物の位置を記録している場合、結果選択部17は、第1移動物及び第2移動物が検出されたと判断する(ステップS506においてYes)。結果選択部17は、検出情報41Aに記録された第1信頼度と検出情報42Aに記録された第2信頼度との各々を基準値と比較する(ステップS507)。 When the detection information 41A and 42 record the position of the moving object, the result selection unit 17 determines that the first moving object and the second moving object have been detected (Yes in step S506). The result selection unit 17 compares each of the first reliability recorded in the detection information 41A and the second reliability recorded in the detection information 42A with a reference value (step S507).

第1信頼度及び第2信頼度の少なくとも一方が基準値以下である場合(ステップS507においてNo)、結果選択部17は、ステップS511に進む。ステップS511については、後述する。 If at least one of the first reliability and the second reliability is equal to or less than the reference value (No in step S507), the result selection unit 17 proceeds to step S511. Step S511 will be described later.

第1信頼度及び第2信頼度の両者が基準値よりも大きい場合(ステップS507においてYes)、判断部14が、第1移動物が第2移動物と同じ物体であるか否かを判断する(ステップS508)。 If both the first reliability and the second reliability are greater than the reference value (Yes in step S507), the determination unit 14 determines whether the first moving object is the same object as the second moving object. (Step S508).

具体的には、判断部14が、最初に、検出情報41Aに記録されている第1移動物の位置を、ワールド座標系における位置に変換する。第1移動物の位置は、検出情報41Aにおいて、前方画像31における画素座標系に従って記述されている。判断部14は、ワールド座標系と前方画像31の画素座標系との対応関係を示すテーブルを用いて、ワールド座標系における第1移動物の位置を特定する。同様に、判断部14は、ワールド座標系と右方画像32の画素座標系との対応関係を示すテーブルを用いて、ワールド座標系における第2移動物の位置を特定する。 Specifically, the determination unit 14 first transforms the position of the first moving object recorded in the detection information 41A into a position in the world coordinate system. The position of the first moving object is described according to the pixel coordinate system in the forward image 31 in the detection information 41A. The determination unit 14 identifies the position of the first moving object in the world coordinate system using a table showing the correspondence relationship between the world coordinate system and the pixel coordinate system of the forward image 31 . Similarly, the determination unit 14 identifies the position of the second moving object in the world coordinate system using a table showing the correspondence relationship between the world coordinate system and the pixel coordinate system of the right image 32 .

判断部14は、次に、ワールド座標系における第1移動物から第2移動物までの距離を算出し、算出した距離を予め設定された同一判断距離と比較する。同一判断距離は、第1移動物が第2移動物と同一物体であるとみなすことができる距離である。算出した距離が同一判断距離以下である場合、判断部14は、第1移動物が第2移動物を同じ物体であると判断する(ステップS508においてYes)。算出した距離が同一判断距離よりも大きい場合、判断部14は、第1移動物と第2移動物とは互いに異なる物体であると判断する(ステップS508においてNo)。判断部14は、第1移動物が第2移動物と同じ物体であるか否かを示す同一判断情報44を結果選択部17に出力する。 Next, the determination unit 14 calculates the distance from the first moving object to the second moving object in the world coordinate system, and compares the calculated distance with the preset identical determination distance. The same determination distance is the distance at which the first moving object can be regarded as the same object as the second moving object. If the calculated distance is equal to or less than the same determination distance, the determination unit 14 determines that the first moving object is the same object as the second moving object (Yes in step S508). If the calculated distance is greater than the same determination distance, the determination unit 14 determines that the first moving object and the second moving object are different objects (No in step S508). The determination unit 14 outputs identity determination information 44 indicating whether or not the first moving object is the same object as the second moving object to the result selection unit 17 .

同一判断情報44が、第1移動物と第2移動物とが異なる物体であることを示す場合(ステップS508においてNo)、結果選択部17は、第1移動物及び第2移動物の各々が高い精度で検出されているため、第1移動物及び第2移動物の両者の存在を運転者に通知する必要があると判断する。結果選択部17は、検出情報41A及び42Aを選択する(ステップS510)。結果選択部17は、検出情報41A及び42Aを含む通知対象情報45を結果出力部18に出力する。 If the identical determination information 44 indicates that the first moving object and the second moving object are different objects (No in step S508), the result selection unit 17 determines that the first moving object and the second moving object are different objects. Since they are detected with high accuracy, it is determined that it is necessary to notify the driver of the presence of both the first moving object and the second moving object. The result selection unit 17 selects the detection information 41A and 42A (step S510). The result selection unit 17 outputs notification target information 45 including the detection information 41A and 42A to the result output unit 18 .

同一判断情報44が、第1移動物と第2移動物とが同じ物体であることを示している場合(ステップS508においてYes)、結果選択部17は、検出情報41A及び42Aのうち、信頼度の高い検出情報を選択する(ステップS509)。より検出精度の高い検出結果を用いて、移動物の存在を運転者に通知するためである。 If the same determination information 44 indicates that the first moving object and the second moving object are the same object (Yes in step S508), the result selection unit 17 determines the reliability of the detection information 41A and 42A. is selected (step S509). This is for notifying the driver of the presence of a moving object using detection results with higher detection accuracy.

図10を参照して、第1信頼度及び第2信頼度の両者が基準値よりも大きい場合の例を説明する。図10は、図1に示す車両100の周囲を移動する移動物の位置の一例を示す図である。図10に示す車両100の位置は、図5に示す時刻t1の位置に対応する。撮影領域21Sは、フロントカメラ21が被写体を撮影できる範囲である。撮影領域22Sは、右サイドカメラ22が被写体を撮影できる範囲である。 An example in which both the first reliability and the second reliability are greater than the reference value will be described with reference to FIG. FIG. 10 is a diagram showing an example of positions of moving objects moving around the vehicle 100 shown in FIG. The position of vehicle 100 shown in FIG. 10 corresponds to the position at time t1 shown in FIG. The photographing area 21S is a range in which the front camera 21 can photograph a subject. The photographing area 22S is a range in which the right side camera 22 can photograph a subject.

第1移動物が位置P1において移動中であり、自転車25(第2移動物)が位置P3を交差点Pに向かって移動中であると仮定する。位置P1は、撮影領域21S内にある。前方画像31に含まれる第1移動物は、前方画像31の中心に比較的近いと仮定する。位置P3は、撮影領域22S内にある。右方画像32に含まれる自転車25が右方画像32の中心に比較的近いと仮定する。この結果、第1移動物の検出精度を示す第1信頼度と、自転車25(第2移動物)の検出精度を示す第2信頼度とは、基準値よりも高くなる(図5に示すステップS507においてYes)。 Assume that the first moving object is moving at position P1 and the bicycle 25 (second moving object) is moving at position P3 toward intersection P. The position P1 is within the imaging area 21S. It is assumed that the first moving object included in forward image 31 is relatively close to the center of forward image 31 . The position P3 is within the imaging area 22S. Assume that the bicycle 25 included in the right image 32 is relatively close to the center of the right image 32 . As a result, the first reliability indicating the detection accuracy of the first moving object and the second reliability indicating the detection accuracy of the bicycle 25 (second moving object) become higher than the reference value (step shown in FIG. 5). Yes in S507).

位置P1から位置P3までの距離D13が同一判断距離以上であるため、位置P1における第1移動物は、位置P2における自転車25(第2移動物)と異なる物体(ステップS508においてYes)。従って、移動物検出装置10は、位置P1における第1移動物と、位置P3における自転車25との存在を運転者に通知する。 Since the distance D13 from the position P1 to the position P3 is equal to or greater than the same judgment distance, the first moving object at the position P1 is different from the bicycle 25 (second moving object) at the position P2 (Yes in step S508). Therefore, the moving object detection device 10 notifies the driver of the presence of the first moving object at the position P1 and the bicycle 25 at the position P3.

図10を参照して、第1移動物が第2移動物と同一物体である場合の例を説明する。自転車25が、図10に示す位置P2を交差点Pに向かって移動している。位置P2は、撮影領域21S及び22Pの各々に含まれる。従って、自転車25が位置P2を走行している場合、自転車25は、第1検出部12により第1移動物として検出され、第2検出部13により第2移動物として検出される。 An example in which the first moving object is the same object as the second moving object will be described with reference to FIG. A bicycle 25 is moving toward an intersection P at a position P2 shown in FIG. Position P2 is included in each of imaging regions 21S and 22P. Therefore, when the bicycle 25 is traveling at the position P2, the bicycle 25 is detected by the first detection section 12 as the first moving object and by the second detection section 13 as the second moving object.

第1信頼度及び第2信頼度が基準値より高く(ステップS507においてYes)、かつ、第1移動物から第2移動物までの距離が同一判断距離よりも短い(ステップS508においてYes)と仮定する。この場合、判断部14は、第2信頼度を記録した検出情報42Aを選択する(ステップS509)。位置P2は、フロントカメラ21の光軸21Kよりも右サイドカメラ22の光軸22Kに近いことから、第2移動物が、第1移動物よりも画像の中心に近くに位置すると考えられるためである。 Assume that the first reliability and the second reliability are higher than the reference value (Yes in step S507) and the distance from the first moving object to the second moving object is shorter than the same judgment distance (Yes in step S508) do. In this case, the determination unit 14 selects the detection information 42A in which the second reliability is recorded (step S509). This is because the position P2 is closer to the optical axis 22K of the right side camera 22 than to the optical axis 21K of the front camera 21, so the second moving object is considered to be positioned closer to the center of the image than the first moving object. be.

ステップS511について説明する。第1信頼度及び第2信頼度の両者が基準値よりも低い場合(ステップS511においてNo)、結果選択部17は、検出情報を選択しないことを決定する(ステップS514)。結果選択部17は、未検出メッセージを含む通知対象情報45を結果出力部18に出力する。つまり、第1移動物及び第2移動物の両者の検出精度が低い場合、移動物の存在が運転者に通知されない。これにより、誤った移動物の検出情報を運転者に通知することを防ぐことができる。 Step S511 will be described. If both the first reliability and the second reliability are lower than the reference value (No in step S511), the result selection unit 17 determines not to select the detection information (step S514). The result selection unit 17 outputs the notification target information 45 including the undetected message to the result output unit 18 . That is, when the detection accuracy of both the first moving object and the second moving object is low, the presence of the moving object is not notified to the driver. As a result, it is possible to prevent the driver from being notified of erroneous moving object detection information.

第1信頼度及び第2信頼度のうち、一方が基準値よりも高く、他方が基準値以下である場合(ステップS511においてYes)、結果選択部17は、俯瞰画像43から検出された第3移動物を示す検出情報43Aを選択することを決定する(ステップS512)。 If one of the first reliability and the second reliability is higher than the reference value and the other is equal to or lower than the reference value (Yes in step S511), the result selection unit 17 selects the third It is determined to select the detection information 43A indicating the moving object (step S512).

このように、第1移動物及び第2移動物の一方の信頼度が基準値以下である場合、移動物検出装置10は、俯瞰画像43の検出結果を選択することにより、誤った検出結果を運転者に通知することを防ぐことができる。以下、詳しく説明する。 As described above, when the reliability of one of the first moving object and the second moving object is equal to or less than the reference value, the moving object detection device 10 selects the detection result of the bird's-eye view image 43, thereby detecting an erroneous detection result. It is possible to prevent notifying the driver. A detailed description will be given below.

最初に、第1移動物及び第2移動物の一方の信頼度が基準値以下である場合に、ステップS508と同様の同一物体判断を行うことにより発生する問題点を説明する。 First, a problem caused by performing the same object determination as in step S508 when the reliability of one of the first moving object and the second moving object is lower than the reference value will be described.

図11は、前方画像31において俯瞰画像の生成に用いられる領域の一例を示す図である。自転車25が図10に示す位置P3を走行している場合、前方画像31は、図11に示すように、自転車25の全体ではなく、自転車25の前輪を含む。前方画像31において、自転車25の前輪は、前方画像31の右下端部に位置しており、前方画像31の中心から離れている。従って、前方画像31から検出される自転車25の第1信頼度は、基準値よりも低くなる。 FIG. 11 is a diagram showing an example of a region in the forward image 31 that is used for generating a bird's-eye view image. When the bicycle 25 is traveling at the position P3 shown in FIG. 10, the forward image 31 includes the front wheel of the bicycle 25 rather than the entire bicycle 25 as shown in FIG. In the front image 31 , the front wheel of the bicycle 25 is positioned at the lower right end of the front image 31 and away from the center of the front image 31 . Therefore, the first reliability of the bicycle 25 detected from the forward image 31 is lower than the reference value.

図12は、右方画像32において俯瞰画像の生成に用いられる領域の一例を示す図である。自転車25が図10に示す位置P3を走行している場合、右方画像25は、図12に示すように、自転車25の全体を含む。図12に示す右方画像32において、自転車25は、右方画像32の中心Cに近い。従って、右方画像32から検出される自転車25の第2信頼度は、基準値よりも高い。 FIG. 12 is a diagram showing an example of a region in the right image 32 that is used for generating a bird's-eye view image. When the bicycle 25 is running at the position P3 shown in FIG. 10, the right image 25 includes the entire bicycle 25 as shown in FIG. In the right image 32 shown in FIG. 12, the bicycle 25 is close to the center C of the right image 32 . Therefore, the second reliability of the bicycle 25 detected from the right image 32 is higher than the reference value.

第1移動物及び第2移動物の一方の信頼度が基準値よりも低い場合、第1移動物が第2移動物と同一物体であるか否かの判断精度が、後述するように低くなる。この結果、図11及び図12の各々に示す自転車25が、互いに異なる物体であると誤判断される可能性が高くなる。 When the reliability of one of the first moving object and the second moving object is lower than the reference value, the accuracy of determining whether the first moving object is the same object as the second moving object decreases as described later. . As a result, there is a high possibility that the bicycles 25 shown in FIGS. 11 and 12 are erroneously determined to be different objects.

第1移動物が第2移動物と同一物体であるか否かの判断精度が低下する理由を説明する。撮影画像の1画素あたりの距離は、画素が撮影画像の中心から離れるにつれて大きくなる。つまり、移動物が撮影画像の中心から離れるにつれて、移動物の信頼度が低下し、かつ、ワールド座標系における移動物の位置精度が低下する。ワールド座標系における移動物の位置精度が低下した場合、第1移動物から第2移動物までの距離の精度が低下する。この結果、第1移動物及び第2移動物のうち一方の信頼度が基準値を下回る場合、第1移動物が第2移動物と同一の物体であるか否かの判断精度が低下する。 The reason why the accuracy of determining whether the first moving object is the same object as the second moving object is lowered will be explained. The distance per pixel of the captured image increases as the pixel moves away from the center of the captured image. That is, as the moving object moves away from the center of the captured image, the reliability of the moving object decreases, and the positional accuracy of the moving object in the world coordinate system decreases. When the positional accuracy of the moving object in the world coordinate system decreases, the accuracy of the distance from the first moving object to the second moving object decreases. As a result, when the reliability of one of the first moving object and the second moving object is lower than the reference value, the accuracy of determining whether the first moving object is the same object as the second moving object decreases.

これに対して、移動物検出装置10は、俯瞰画像43を用いることにより、基準値以下の信頼度を有する移動物を検出することを防ぐことができる。俯瞰画像43は、4つの撮影画像から生成された4つの視点変換画像を合成することにより生成される。俯瞰画像生成部15は、4つの視点変換画像を合成する際に、4つの視点変換画像の各々に設定された指定領域の画像を、4つの視点変換画像の各々から切り出す。 On the other hand, the moving object detection apparatus 10 can prevent detecting a moving object having a reliability lower than the reference value by using the bird's-eye view image 43 . The bird's-eye view image 43 is generated by synthesizing four viewpoint-converted images generated from four captured images. When synthesizing the four viewpoint-transformed images, the bird's-eye view image generation unit 15 cuts out the image of the designated area set in each of the four viewpoint-transformed images from each of the four viewpoint-transformed images.

図11を参照して、指定領域21Tは、前方画像31に描かれた1点鎖線よりも内側の領域である。図11において、自転車25の前輪は、指定領域21Tよりも外に位置する。従って、俯瞰画像43は、前方画像31に由来する自転車25を含まない。 Referring to FIG. 11 , designated region 21T is a region inside the dashed-dotted line drawn on forward image 31 . In FIG. 11, the front wheel of the bicycle 25 is positioned outside the designated area 21T. Therefore, the bird's-eye view image 43 does not include the bicycle 25 derived from the forward image 31 .

図12を参照して、指定領域22Tは、右方画像32に描かれた1点鎖線よりも内側の領域である。図12に示す右方画像32において、自転車25の全体は、指定領域22Tの中に位置する。従って、俯瞰画像43は、右方画像32に由来する自転車25の全体を含む。 Referring to FIG. 12 , designated region 22T is a region inside the dashed-dotted line drawn on right image 32 . In the right image 32 shown in FIG. 12, the entire bicycle 25 is located within the designated area 22T. Therefore, the bird's-eye view image 43 includes the entire bicycle 25 derived from the right image 32 .

図13は、図11に示す前方画像31及び図12に示す右方画像32を用いて生成された俯瞰画像43の一例を示す図である。図13は、図4に示す俯瞰画像43の拡大図に相当する。図13を参照して、前方画像31に含まれる自転車25の前輪は、俯瞰画像43に表れない。右方画像32に含まれる自転車25の全体は、俯瞰画像43に含まれる。つまり、俯瞰画像43を用いることにより、信頼度が基準値以下となる移動物が検出されることを防ぐことできる。第1移動物及び第2移動物の一方の信頼度が基準値以下である場合において、移動物検出装置10は、移動物の存在を誤って通知することを防ぐことができる。 FIG. 13 is a diagram showing an example of a bird's-eye view image 43 generated using the front image 31 shown in FIG. 11 and the right image 32 shown in FIG. FIG. 13 corresponds to an enlarged view of the overhead image 43 shown in FIG. Referring to FIG. 13 , the front wheel of bicycle 25 included in forward image 31 does not appear in overhead image 43 . The entire bicycle 25 included in the right image 32 is included in the overhead image 43 . That is, by using the bird's-eye view image 43, it is possible to prevent detection of a moving object whose reliability is equal to or lower than the reference value. When the reliability of one of the first moving object and the second moving object is equal to or lower than the reference value, the moving object detection device 10 can prevent erroneous notification of the existence of the moving object.

図9の説明に戻る。第1信頼度及び第2信頼度の一方が基準値以下である場合(ステップS511においてYes)、結果選択部17は、俯瞰画像43から検出された第3移動物の検出結果を示す検出情報43Aを選択する。その後、結果選択部17は、基準値以下である信頼度を有する移動物が検出された撮影画像に検出領域を設定する(ステップS513)。 Returning to the description of FIG. If one of the first reliability and the second reliability is equal to or less than the reference value (Yes in step S511), the result selection unit 17 detects the detection information 43A indicating the detection result of the third moving object detected from the bird's-eye view image 43. to select. After that, the result selection unit 17 sets the detection area in the photographed image in which the moving object having the reliability equal to or less than the reference value is detected (step S513).

具体的には、結果選択部17は、基準値よりも大きい信頼度を有する移動物の検出情報に基づいて、検出領域を設定する。以下、詳しく説明する。検出領域の設定の説明において、基準値よりも大きい信頼度を有する移動物を「基準移動物」と記載する。基準値以下である信頼度を有する移動物が検出された撮影画像を「対象画像」と記載する。 Specifically, the result selection unit 17 sets the detection area based on the detection information of the moving object having reliability greater than the reference value. A detailed description will be given below. In the description of setting the detection area, a moving object having a higher reliability than the reference value is referred to as a "reference moving object". A photographed image in which a moving object having a reliability level equal to or lower than the reference value is detected is referred to as a “target image”.

結果選択部17は、基準移動物の検出情報に記録されたベクトルを、ワールド座標系のベクトルに変換する。結果選択部17は、変換されたベクトルに基づいて、新たに取得される対象画像において、基準移動物が検出されるであろう予測位置を取得する。 The result selection unit 17 transforms the vector recorded in the reference moving object detection information into a vector in the world coordinate system. Based on the transformed vector, the result selection unit 17 acquires the predicted position where the reference moving object will be detected in the newly acquired target image.

例えば、図10を参照して、自転車25が位置P3を走行していると仮定する。この場合、対象画像は、前方画像31である。対象移動物は、右方画像32から検出された自転車25である。結果選択部17は、検出情報42Aに記録されたベクトル25Vを、ワールド座標系のベクトル25Vwに変換する。結果選択部17は、ベクトル25Vwの起点が位置P3となるようにベクトル25Vwを移動させる。移動後のベクトル25が示す位置を、自転車25の予測位置として決定する。予測位置が位置P2である場合、結果選択部17は、位置P2に対応する前方画像31の画素を特定し、特定した画素を含む領域を、前方画像31の検出領域に設定する。検出領域のサイズは、前方画像31のサイズよりも小さければ、特に限定されない。なお、検出領域を設定するか否かは、フレームごとに決定されることが望ましい。移動物の移動方向を示すベクトル25Vが移動物の実際の動きに応じて変化することに伴い、予測位置も変動するためである。 For example, referring to FIG. 10, assume bicycle 25 is traveling at position P3. In this case, the target image is the forward image 31 . The target moving object is the bicycle 25 detected from the right image 32 . The result selection unit 17 converts the vector 25V recorded in the detection information 42A into the vector 25Vw in the world coordinate system. The result selection unit 17 moves the vector 25Vw so that the starting point of the vector 25Vw is at the position P3. The position indicated by vector 25 after movement is determined as the predicted position of bicycle 25 . When the predicted position is the position P2, the result selection unit 17 specifies the pixels of the forward image 31 corresponding to the position P2, and sets the region including the specified pixels as the detection region of the forward image 31. FIG. The size of the detection area is not particularly limited as long as it is smaller than the size of the forward image 31 . It should be noted that it is desirable to determine whether or not to set the detection area for each frame. This is because the predicted position also fluctuates as the vector 25V indicating the moving direction of the moving object changes according to the actual movement of the moving object.

この結果、移動物検出装置10は、前方画像31を新たに取得した場合、前方画像31の全体ではなく、前方画像31のうち検出領域22Lから移動物を検出する。これにより、移動物を検出する負荷を低減できる。また、信頼度の高い移動物の検出結果に基づいて、信頼度の低い移動物が検出された撮影画像に検出領域を設定することにより、前方画像31における移動物の検出精度を低減することができる。 As a result, when the forward image 31 is newly acquired, the moving object detection apparatus 10 detects the moving object from the detection region 22L of the forward image 31 instead of the entire forward image 31 . As a result, the load of detecting moving objects can be reduced. Further, by setting a detection region in a photographed image in which a moving object with a low reliability is detected based on the detection result of a moving object with a high reliability, it is possible to reduce the detection accuracy of the moving object in the forward image 31. can.

[4.5.結果画像生成処理(ステップS16)]
図14は、図5に示す結果画像生成処理(ステップS16)のフローチャートである。図14を参照しながら、結果出力部18が結果画像50を生成する動作を説明する。
[4.5. Result image generation processing (step S16)]
FIG. 14 is a flow chart of the result image generation process (step S16) shown in FIG. The operation of generating the result image 50 by the result output unit 18 will be described with reference to FIG. 14 .

結果出力部18は、通知対象情報45を結果選択部17から受けた場合、図14に示す処理を開始する。結果出力部18は、受けた通知対象情報45に基づいて、移動物が検出されたか否かを判断する(ステップS601)。 When receiving the notification target information 45 from the result selection unit 17, the result output unit 18 starts the processing shown in FIG. The result output unit 18 determines whether or not a moving object is detected based on the received notification target information 45 (step S601).

通知対象情報45が未検出メッセージを含む場合(ステップS601においてNo)、結果出力部18は、結果出力部18から前方画像31を取得し、その取得した前方画像31を結果画像50として出力する(ステップS608)。この場合、結果出力部18は、車両100の周囲の確認を促すメッセージを付した前方画像31を、結果画像50として出力してもよい。すなわち、結果出力部18が、ステップS608において、前方画像31に対して所定の画像処理を施してもよい。
通知対象情報45が検出情報を含む場合、結果出力部18は、移動物が検出されたと判断する(ステップS601においてYes)。結果出力部18は、俯瞰画像43から検出された移動物を示す検出情報43Aが通知対象情報45に含まれているか否かを判断する
(ステップS602)。
通知対象情報45が検出情報43Aを含む場合(ステップS602においてYes)、結果出力部18は、結果画像50の生成に用いる画像として俯瞰画像43を選択する(ステップS603)。この場合、移動物が、フロントカメラ21の撮影領域21Sと右サイドカメラ22の撮影領域22Sとが重複する領域内に位置しているため、車両100のピラーなどにより形成される死角を移動する可能性がある。結果出力部18は、結果画像50の生成に用いることにより、運転者の死角に位置する移動物を運転者に通知できる。また、また、結果出力部18は、結果画像50の生成に用いることにより、運転者が車両100と移動物との位置関係を直感的に把握できる。
If the notification target information 45 includes an undetected message (No in step S601), the result output unit 18 acquires the forward image 31 from the result output unit 18, and outputs the acquired forward image 31 as the result image 50 ( step S608). In this case, the result output unit 18 may output, as the result image 50, the forward image 31 attached with a message prompting confirmation of the surroundings of the vehicle 100. FIG. That is, the result output unit 18 may perform predetermined image processing on the forward image 31 in step S608.
If the notification target information 45 includes detection information, the result output unit 18 determines that a moving object has been detected (Yes in step S601). The result output unit 18 determines whether or not the notification target information 45 includes the detection information 43A indicating the moving object detected from the overhead image 43 (step S602).
If the notification target information 45 includes the detection information 43A (Yes in step S602), the result output unit 18 selects the overhead image 43 as the image used to generate the result image 50 (step S603). In this case, since the moving object is located in the area where the photographing area 21S of the front camera 21 and the photographing area 22S of the right side camera 22 overlap, it is possible to move through the blind spots formed by the pillars of the vehicle 100. have a nature. By using the result output unit 18 to generate the result image 50, the driver can be notified of a moving object located in the driver's blind spot. Further, by using the result output unit 18 to generate the result image 50, the driver can intuitively grasp the positional relationship between the vehicle 100 and the moving object.

結果出力部18は、ステップS603で選択された俯瞰画像43において、検出情報43Aに記録された第3移動物を強調する(ステップS604)。例えば、俯瞰画像43に含まれる第3移動物が、赤枠で囲まれることにより、第3移動物が強調される。結果出力部18は、ステップS604により生成された結果画像50を表示装置5に出力し(ステップS605)、図14に示す処理を終了する。 The result output unit 18 emphasizes the third moving object recorded in the detection information 43A in the overhead image 43 selected in step S603 (step S604). For example, the third moving object included in the bird's-eye view image 43 is highlighted by surrounding it with a red frame. The result output unit 18 outputs the result image 50 generated in step S604 to the display device 5 (step S605), and ends the processing shown in FIG.

ステップS602の説明に戻る。通知対象情報45が検出情報43Aを含まない場合(ステップS602においてNo)、結果出力部18は、右方画像32から検出された移動物を示す検出情報42Aが通知対象情報45に含まれるか否かを判断する(ステップS606)。 Returning to the description of step S602. When the notification target information 45 does not include the detection information 43A (No in step S602), the result output unit 18 determines whether the notification target information 45 includes the detection information 42A indicating the moving object detected from the right image 32. (step S606).

通知対象情報45が検出情報42Aを含む場合(ステップS606においてYes)、結果出力部18は、結果画像50の生成に用いる画像として、俯瞰画像43を選択する(ステップS603)。この場合、移動物が車両100の右方を移動している。右方画像32を結果画像50として用いた場合、運転者は、移動物と車両100との位置関係を直感的に判断することは難しい。結果画像50が俯瞰画像43から生成されることにより、運転者は、移動物と車両100との位置関係を直感的に把握することができる。 If the notification target information 45 includes the detection information 42A (Yes in step S606), the result output unit 18 selects the overhead image 43 as the image used to generate the result image 50 (step S603). In this case, the moving object is moving to the right of the vehicle 100 . When the right image 32 is used as the resulting image 50, it is difficult for the driver to intuitively determine the positional relationship between the moving object and the vehicle 100. FIG. By generating the resulting image 50 from the overhead image 43 , the driver can intuitively grasp the positional relationship between the moving object and the vehicle 100 .

通知対象情報45が検出情報42Aを含まない場合(ステップS606においてNo)、前方画像31から検出された移動物を示す検出情報41Aのみが通知対象情報45に含まれる。この場合、結果出力部18は、結果画像50の生成に用いる画像として、前方画像31を選択する(ステップS607)。この場合、結果出力部18は、運転者から見える景色と同様の景色を撮影した前方画像31を結果画像50の生成に用いる。運転席から見た景色とほぼ同じ景色を示す撮影画像において移動物が強調されるため、運転者は、移動物の存在を容易に把握できる。 When the notification target information 45 does not include the detection information 42A (No in step S606), the notification target information 45 includes only the detection information 41A indicating the moving object detected from the front image 31. FIG. In this case, the result output unit 18 selects the front image 31 as the image used for generating the result image 50 (step S607). In this case, the result output unit 18 uses the front image 31 photographing the same scenery as the scenery seen by the driver to generate the result image 50 . Since the moving object is emphasized in the photographed image showing the scenery that is substantially the same as the scenery seen from the driver's seat, the driver can easily grasp the presence of the moving object.

なお、車両100が左折する場合、移動物検出装置10は、フロントカメラ21及び左サイドカメラ24を選択する。前方画像31が第1画像41に対応し、左方画像34が第2画像42に対応する。この場合における移動物検出装置10の動作は、上記と同様であるため、その説明を省略する。 Note that when the vehicle 100 turns left, the moving object detection device 10 selects the front camera 21 and the left side camera 24 . The front image 31 corresponds to the first image 41 and the left image 34 corresponds to the second image 42 . Since the operation of the moving object detection device 10 in this case is the same as described above, its explanation is omitted.

以上説明したように、移動物検出装置10は、第1画像41から検出された第1移動物の信頼度と第2画像42から検出された第2移動物の信頼度とに基づいて、第1画像41と第2画像42と俯瞰画像43とのうち少なくとも1つの画像から得られた移動物の検出結果を選択する。移動物検出装置10は、移動物の検出状況に応じて検出結果を選択できるため、移動物の検出精度を向上させることができる。 As described above, the moving object detection apparatus 10 detects the second moving object based on the reliability of the first moving object detected from the first image 41 and the reliability of the second moving object detected from the second image 42 . A moving object detection result obtained from at least one of the first image 41, the second image 42, and the overhead image 43 is selected. Since the moving object detection apparatus 10 can select the detection result according to the detection status of the moving object, it is possible to improve the detection accuracy of the moving object.

[変形例1]
上記実施の形態では、移動物検出装置10が、第1移動物の検出精度を示す第1信頼度と第2移動物の検出精度を示す第2信頼度とに基づいて、検出情報を選択する例を説明したが、これに限られない。移動物検出装置10は、重み付けされた第1信頼度及び第2信頼度に基づいて、検出情報を選択してもよい。
[Modification 1]
In the above embodiment, the moving object detection apparatus 10 selects detection information based on the first reliability indicating the detection accuracy of the first moving object and the second reliability indicating the detection accuracy of the second moving object. Although an example has been described, it is not limited to this. The moving object detection device 10 may select detection information based on the weighted first reliability and second reliability.

図15は、図1に示す第1検出部12及び第2検出部13により取得される第1信頼度及び第2信頼度の時間変化の一例を示す図である。図15を参照して、第1信頼度51は、時刻Taから時刻Tfの期間において単調減少する。第2信頼度52は、時刻Tbから時刻Tgまでの期間において単調増加する。 FIG. 15 is a diagram showing an example of temporal changes in the first reliability and the second reliability obtained by the first detection unit 12 and the second detection unit 13 shown in FIG. Referring to FIG. 15, first reliability 51 monotonously decreases in the period from time Ta to time Tf. The second reliability 52 monotonically increases during the period from time Tb to time Tg.

第1信頼度51及び第2信頼度52が図15に示すように変化する場合、結果選択部17は、図15に示す基準値Thを用いて、以下のように検出情報を選択する。すなわち、時刻Taから時刻Tbまでの期間A1と、時刻Tcから時刻Tdまでの期間C1において、結果選択部17は、検出情報42Aを選択する。時刻Tbから時刻Tcまでの期間B1と、時刻Teから時刻Tfまでの期間E1において、結果選択部17は、検出情報43Aを選択する。時刻Tdから時刻Teまでの期間D1と、時刻Tfから時刻Tgまでの期間F1において、結果選択部17は、検出情報41Aを選択する。 When the first reliability 51 and the second reliability 52 change as shown in FIG. 15, the result selection unit 17 selects detection information as follows using the reference value Th shown in FIG. That is, the result selection unit 17 selects the detection information 42A in a period A1 from time Ta to time Tb and a period C1 from time Tc to time Td. During a period B1 from time Tb to time Tc and a period E1 from time Te to time Tf, the result selection unit 17 selects the detection information 43A. During a period D1 from time Td to time Te and a period F1 from time Tf to time Tg, the result selection unit 17 selects the detection information 41A.

図16は、第1信頼度及び第2信頼度のうち第2信頼度を重み付けした場合における、第1信頼度及び第2信頼度の時間変化の一例を示す図である。図16に示す第1信頼度51は、図15に示す第1信頼度51と同じである。図16に示す第2信頼度52Aは、図15に示す第2信頼度52に、1よりも小さい係数を乗じることにより重み付けすることにより算出される。具体的には、結果選択部17は、単調増加する信頼度に1よりも小さい係数を乗じる。単調減少する信頼度は、重み付けされない。 FIG. 16 is a diagram illustrating an example of temporal changes in the first reliability and the second reliability when the second reliability is weighted among the first reliability and the second reliability. The first reliability 51 shown in FIG. 16 is the same as the first reliability 51 shown in FIG. The second reliability 52A shown in FIG. 16 is calculated by weighting the second reliability 52 shown in FIG. 15 by multiplying it by a factor smaller than one. Specifically, the result selection unit 17 multiplies the monotonically increasing reliability by a factor smaller than one. Monotonically decreasing confidences are not weighted.

第2信頼度52が図16に示すように重み付けされた場合、結果選択部17は、基準値Thを用いて、以下のように検出情報を選択する。すなわち、時刻Taから時刻Tbまでの期間A2において、結果選択部17は、検出情報42Aを選択する。時刻Tbから時刻Tfまでの期間B2において、結果選択部17は、検出情報43Aを選択する。時刻Tfから時刻Tgまでの期間C2において、結果選択部17は、検出情報41Aを選択する。 When the second reliability 52 is weighted as shown in FIG. 16, the result selection unit 17 uses the reference value Th to select detection information as follows. That is, the result selection unit 17 selects the detection information 42A during the period A2 from the time Ta to the time Tb. During a period B2 from time Tb to time Tf, the result selection unit 17 selects the detection information 43A. During a period C2 from time Tf to time Tg, the result selection unit 17 selects the detection information 41A.

このように信頼度を重み付けすることにより、移動物検出装置10は、ステップS5において選択される検出情報の変更回数を削減することができる。結果画像50の生成に用いられる画像の変更回数が削減されるため、表示装置5において、前方画像31と俯瞰画像43との切換が頻繁に発生することを防ぐことができる。 By weighting the reliability in this way, the moving object detection device 10 can reduce the number of times the detection information selected in step S5 is changed. Since the number of changes of the images used to generate the resulting image 50 is reduced, frequent switching between the front image 31 and the bird's-eye view image 43 can be prevented in the display device 5 .

なお、結果選択部17は、単調増加する信頼度に1よりも大きい係数を乗ずることにより、信頼度を重み付けしてもよい。この場合であっても、移動物検出装置10は、選択される検出情報の変更回数を削減することができる。 Note that the result selection unit 17 may weight the reliability by multiplying the monotonically increasing reliability by a coefficient larger than one. Even in this case, the moving object detection device 10 can reduce the number of times the selected detection information is changed.

[変形例2]
上記実施の形態では、車両100が右折又は左折をする場合に移動物検出装置10が移動物を検出する例を説明したが、これに限られない。移動物検出装置10は、車両100が駐車場を走行している時に移動物を検出してもよい。
[Modification 2]
In the above embodiment, an example in which the moving object detection device 10 detects a moving object when the vehicle 100 turns right or left has been described, but the present invention is not limited to this. The moving object detection device 10 may detect a moving object while the vehicle 100 is traveling in a parking lot.

移動物検出装置10は、前方画像31を用いて、車両100が駐車場を走行しているか否かを判断する。移動物検出装置10は、予め設定された駐車場の白線のパターンを前方画像31から検出した場合、車両100が駐車場を走行していると判断する。あるいは、移動物検出装置10は、駐車場の位置が設定された地図情報と、図示しないGPS装置から取得した現在位置とに基づいて、車両100が駐車場を走行しているか否かを判断してもよい。 The moving object detection device 10 uses the forward image 31 to determine whether the vehicle 100 is traveling in a parking lot. The moving object detection device 10 determines that the vehicle 100 is traveling in the parking lot when a preset pattern of white lines in the parking lot is detected from the forward image 31 . Alternatively, moving object detection device 10 determines whether or not vehicle 100 is traveling in a parking lot based on map information in which the position of the parking lot is set and the current position obtained from a GPS device (not shown). may

移動物検出装置10は、車両100が駐車場を走行していると判断した場合、撮影領域が重複する2つのカメラを所定の順番で選択することにより、移動物を検出する。例えば、後述する第1~第4の組み合わせが所定の順序に従って選択される。第1の組み合わせは、フロントカメラ21及び右サイドカメラ22である。第2の組み合わせは、右サイドカメラ22及びリアカメラ23である。第3の組み合わせは、リアカメラ23及び左サイドカメラ24である。第4の組み合わせは、左サイドカメラ24及びフロントカメラ21である。 When the moving object detection device 10 determines that the vehicle 100 is traveling in a parking lot, it detects the moving object by selecting two cameras having overlapping shooting areas in a predetermined order. For example, first to fourth combinations, which will be described later, are selected according to a predetermined order. A first combination is the front camera 21 and the right side camera 22 . A second combination is the right side camera 22 and the rear camera 23 . A third combination is the rear camera 23 and the left side camera 24 . A fourth combination is the left side camera 24 and the front camera 21 .

移動物検出装置10は、選択した2つのカメラにより撮影された2つの撮影画像から移動物を検出し、移動物の検出結果に基づいて検出情報を選択すればよい。移動物検出装置10は、車両100が駐車場を走行している場合、選択された検出情報に基づいて、俯瞰画像43を用いて結果画像50を生成する。これにより、移動物検出装置10は、車両100が駐車場を走行する場合において、車両100の周囲を移動する移動物を検出することができる。 The moving object detection apparatus 10 may detect a moving object from two captured images captured by the two selected cameras, and select detection information based on the detection result of the moving object. When the vehicle 100 is traveling in a parking lot, the moving object detection device 10 generates a result image 50 using the overhead image 43 based on the selected detection information. Thereby, the moving object detection device 10 can detect a moving object moving around the vehicle 100 when the vehicle 100 runs in a parking lot.

[変形例3]
上記実施の形態において、移動物検出装置10は、移動物が検出された撮影画像に基づいて、結果画像50の生成に用いる撮影画像を変更する例を説明したがこれに限られない。例えば、移動物検出装置10は、移動物が検出された撮影画像に関係なく、俯瞰画像43を用いて結果画像50を生成してもよい。
[Modification 3]
In the above-described embodiment, the moving object detection apparatus 10 changes the captured image used for generating the result image 50 based on the captured image in which the moving object is detected, but the present invention is not limited to this. For example, the moving object detection apparatus 10 may generate the result image 50 using the bird's-eye view image 43 regardless of the captured image in which the moving object is detected.

[変形例4]
上記実施の形態において、移動物検出装置10が撮影画像を用いて結果画像50を生成する例を説明したが、これに限られない。結果画像50が通知対象情報45を用いて移動物の存在を通知することができれば、移動物の存在を通知する方法は特定に限定されない。
[Modification 4]
In the above embodiment, an example in which the moving object detection device 10 generates the result image 50 using the captured image has been described, but the present invention is not limited to this. As long as the result image 50 can notify the presence of the moving object using the notification target information 45, the method of notifying the presence of the moving object is not particularly limited.

[その他の変形例]
上記実施の形態において、車両100が右折又は左折する場合、あるいは、車両100が駐車場を走行する場合に、移動物の検出を開始する例を説明した。しかし、移動物検出装置は、車両100の移動状況が所定の条件を満たす場合に、移動物の検出を開始してもよい。所定の条件は、上記実施の形態の他に、車両100のスピードが所定の検出開始速度よりも遅いことである。所定の検出開始速度は、例えば、20km/hである。このように、車両の移動状況に応じて移動物の検出を開始することにより、移動物の検出負荷が恒常的に高くなることを抑制できる。
[Other Modifications]
In the above-described embodiment, an example has been described in which detection of a moving object is started when vehicle 100 turns right or left, or when vehicle 100 travels in a parking lot. However, the moving object detection device may start detecting the moving object when the movement state of the vehicle 100 satisfies a predetermined condition. The predetermined condition is that the speed of vehicle 100 is slower than a predetermined detection start speed, in addition to the above embodiment. The predetermined detection start speed is, for example, 20 km/h. In this way, by starting the detection of moving objects according to the moving state of the vehicle, it is possible to prevent the detection load of moving objects from constantly increasing.

上記実施の形態において、挙動特定部19が、横断歩道の検出及びウィンカーの点滅指示に基づいて、車両100が交差点で右折又は左折すると判断する例を説明したが、これに限られない。例えば、挙動特定部19は、車両100に搭載されたカーナビゲーション装置から取得した車両100の走行ルートに基づいて、車両100が右折又は左折をすると判断してもよい。走行ルートは、車両100が右折又は左折をする交差点を指定する情報を含む。挙動特定部19は、車両100の現在位置と取得した走行ルートとに基づいて、車両100の現在位置から、右折又は左折が指定された交差点までの距離を算出する。挙動特定部19は、算出した距離が所定距離以下である場合、車両100が右折又は左折すると判断すればよい。 In the above-described embodiment, an example has been described in which the behavior identifying unit 19 determines that the vehicle 100 will turn right or left at an intersection based on the detection of a pedestrian crossing and the blinking instruction of the blinker, but the present invention is not limited to this. For example, the behavior identifying unit 19 may determine that the vehicle 100 turns right or left based on the travel route of the vehicle 100 acquired from the car navigation device mounted on the vehicle 100 . The travel route includes information specifying an intersection at which the vehicle 100 turns right or left. The behavior identifying unit 19 calculates the distance from the current position of the vehicle 100 to the intersection designated to turn right or left, based on the current position of the vehicle 100 and the acquired travel route. The behavior identifying unit 19 may determine that the vehicle 100 turns right or left when the calculated distance is equal to or less than the predetermined distance.

あるいは、挙動特定部19は、前方撮影画像31Aを用いて車両100が走行する車線を特定し、特定した車線に基づいて車両100が右折又は左折をする交差点に進入するか否かを判断してもよい。挙動特定部19は、右折専用レーンを前方撮影画像31Aから検出した場合に、車両100が右折すると判断する。挙動特定部19は、左折専用レーンを前方撮影画像31Aから検出した場合に、車両100が左折すると判断する。 Alternatively, the behavior identifying unit 19 identifies the lane in which the vehicle 100 travels using the front captured image 31A, and determines whether the vehicle 100 enters an intersection where the vehicle 100 turns right or left based on the identified lane. good too. The behavior identifying unit 19 determines that the vehicle 100 turns right when the right-turn-only lane is detected from the front captured image 31A. The behavior identifying unit 19 determines that the vehicle 100 turns left when a left-turn-only lane is detected from the front captured image 31A.

あるいは、挙動特定部19は、左ウィンカー7L又は右ウィンカー7Rのいずれか一方が点滅した場合に、初期検出画像21Aから移動物を検出する処理を開始してもよい。左ウィンカー7Lが点滅している場合、左方撮影画像32Aが初期検出画像21Aとして選択される。右ウィンカー7Rが点滅している場合、右方画像34が初期検出画像21Aとして選択される。 Alternatively, the behavior identifying unit 19 may start the process of detecting a moving object from the initial detection image 21A when either the left winker 7L or the right winker 7R blinks. When the left winker 7L is blinking, the left shot image 32A is selected as the initial detection image 21A. When the right blinker 7R is blinking, the right image 34 is selected as the initial detection image 21A.

上記実施の形態において、移動物検出装置10が挙動特定部19を備える例を説明したが、これに限られない。移動物検出装置は、挙動特定部19を備えなくてもよい。つまり、移動物検出装置10は、車両100の挙動に関係なく、移動物を検出してもよい。 In the above embodiment, an example in which the moving object detection device 10 includes the behavior identification unit 19 has been described, but the present invention is not limited to this. The moving object detection device does not have to include the behavior identification unit 19 . That is, the moving object detection device 10 may detect moving objects regardless of the behavior of the vehicle 100 .

また、上記実施の形態で説明した移動物検出装置10において、各機能ブロックは、LSIなどの半導体装置により個別に1チップ化されても良いし、一部又は全部を含むように1チップ化されても良い。 Further, in the moving object detection device 10 described in the above embodiment, each functional block may be individually integrated into one chip by a semiconductor device such as an LSI, or may be integrated into one chip so as to include part or all of them. can be

ここでは、LSIとしたが、集積度の違いにより、IC、システムLSI、スーパーLSI、ウルトラLSIと呼称されることもある。 Although LSI is used here, it may also be called IC, system LSI, super LSI, or ultra LSI depending on the degree of integration.

また、集積回路化の手法はLSIに限るものではなく、専用回路又は汎用プロセサで実現してもよい。LSI製造後に、プログラムすることが可能なFPGA(Field Programmable Gate Array)や、LSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサを利用しても良い。 Further, the method of circuit integration is not limited to LSI, and may be implemented by a dedicated circuit or a general-purpose processor. An FPGA (Field Programmable Gate Array) that can be programmed after the LSI is manufactured, or a reconfigurable processor that can reconfigure connections and settings of circuit cells inside the LSI may be used.

また、上記各実施の形態の各機能ブロックの処理の一部または全部は、プログラムにより実現されるものであってもよい。そして、上記各実施の形態の各機能ブロックの処理の一部または全部は、コンピュータにおいて、中央演算装置(CPU)により行われる。また、それぞれの処理を行うためのプログラムは、ハードディスク、ROMなどの記憶装置に格納されており、ROMにおいて、あるいはRAMに読み出されて実行される。 Also, part or all of the processing of each functional block in each of the above embodiments may be implemented by a program. Part or all of the processing of each functional block in each of the above embodiments is performed by a central processing unit (CPU) in a computer. A program for performing each process is stored in a storage device such as a hard disk or ROM, and is read from the ROM or RAM and executed.

また、上記実施の形態の各処理をハードウェアにより実現してもよいし、ソフトウェア(OS(オペレーティングシステム)、ミドルウェア、あるいは、所定のライブラリとともに実現される場合を含む。)により実現してもよい。さらに、ソフトウェアおよびハードウェアの混在処理により実現しても良い。 Further, each process of the above embodiment may be realized by hardware, or may be realized by software (including cases where it is realized together with an OS (operating system), middleware, or a predetermined library). . Furthermore, it may be realized by mixed processing of software and hardware.

例えば、上記実施の形態(変形例を含む)の各機能ブロックを、ソフトウェアにより実現する場合、図17に示したハードウェア構成(例えば、CPU、ROM、RAM、入力部、出力部等をバスBusにより接続したハードウェア構成)を用いて、各機能部をソフトウェア処理により実現するようにしてもよい。 For example, when the functional blocks of the above embodiments (including modifications) are implemented by software, the hardware configuration shown in FIG. Each functional unit may be realized by software processing using a hardware configuration connected by

また、上記実施の形態における処理方法の実行順序は、必ずしも、上記実施の形態の記載に制限されるものではなく、発明の要旨を逸脱しない範囲で、実行順序を入れ替えることができるものである。 Also, the execution order of the processing methods in the above embodiment is not necessarily limited to the description of the above embodiment, and the execution order can be changed without departing from the gist of the invention.

前述した方法をコンピュータに実行させるコンピュータプログラム及びそのプログラムを記録したコンピュータ読み取り可能な記録媒体は、本発明の範囲に含まれる。ここで、コンピュータ読み取り可能な記録媒体としては、例えば、フレキシブルディスク、ハードディスク、CD-ROM、MO、DVD、DVD-ROM、DVD-RAM、大容量DVD、次世代DVD、半導体メモリを挙げることができる。 A computer program that causes a computer to execute the method described above and a computer-readable recording medium that records the program are included in the scope of the present invention. Examples of computer-readable recording media include flexible disks, hard disks, CD-ROMs, MOs, DVDs, DVD-ROMs, DVD-RAMs, large-capacity DVDs, next-generation DVDs, and semiconductor memories. .

上記コンピュータプログラムは、上記記録媒体に記録されたものに限られず、電気通信回線、無線又は有線通信回線、インターネットを代表とするネットワーク等を経由して伝送されるものであってもよい。 The computer program is not limited to being recorded on the recording medium, and may be transmitted via an electric communication line, a wireless or wired communication line, a network represented by the Internet, or the like.

以上、本発明の実施の形態を説明したが、上述した実施の形態は本発明を実施するための例示に過ぎない。よって、本発明は上述した実施の形態に限定されることなく、その趣旨を逸脱しない範囲内で上述した実施の形態を適宜変形して実施することが可能である。 Although the embodiments of the present invention have been described above, the above-described embodiments are merely examples for carrying out the present invention. Therefore, the present invention is not limited to the above-described embodiment, and can be implemented by appropriately modifying the above-described embodiment without departing from the spirit of the present invention.

10 移動物検出装置
11 画像選択部
12 第1検出部
13 第2検出部
14 判断部
15 俯瞰画像生成部
16 第3検出部
17 結果選択部
18 結果出力部
10 moving object detection device 11 image selection unit 12 first detection unit 13 second detection unit 14 determination unit 15 overhead image generation unit 16 third detection unit 17 result selection unit 18 result output unit

Claims (7)

車両に搭載され、かつ、各々の撮影領域の一部が重複する第1カメラ及び第2カメラにより生成された画像を用いて、前記車両の周囲を移動する移動物を検出する移動物検出装置であって、
前記第1カメラにより生成された第1画像から第1移動物を検出し、検出された第1移動物の検出精度を示す第1信頼度を前記第1画像における第1移動物の位置に基づいて取得する第1検出部と、
前記第2カメラにより生成された第2画像から第2移動物を検出し、検出された第2移動物の検出精度を示す第2信頼度を前記第2画像における第2移動物の位置に基づいて取得する第2検出部と、
前記第1画像及び第2画像に含まれる各画素を予め設定された仮想投影面に投影することにより、所定の仮想視点から前記車両を俯瞰した俯瞰画像を生成する俯瞰画像生成部と、
記俯瞰画像から第3移動物を検出する第3検出部と、
前記第1信頼度と前記第2信頼度とに基づいて、前記検出された第1移動物を示す第1検出情報と、前記検出された第2移動物を示す第2検出情報と、前記第3検出部により検出された第3移動物を示す第3検出情報とのうち少なくとも1つを選択する結果選択部と、
記選択された検出情報を出力する出力部と、を備える移動物検出装置。
A moving object detection device that detects a moving object moving around a vehicle by using images generated by a first camera and a second camera that are mounted on a vehicle and that partially overlap each other in their photographing areas. There is
A first moving object is detected from a first image generated by the first camera, and a first reliability indicating detection accuracy of the detected first moving object is based on a position of the first moving object in the first image. a first detection unit obtained by
detecting a second moving object from a second image generated by the second camera, and determining a second reliability indicating detection accuracy of the detected second moving object based on the position of the second moving object in the second image; a second detection unit that acquires
a bird's-eye view image generator that generates a bird's-eye view image of the vehicle from a predetermined virtual viewpoint by projecting each pixel included in the first image and the second image onto a preset virtual projection plane;
a third detection unit that detects a third moving object from the bird's-eye view image;
First detection information indicating the detected first moving object, second detection information indicating the detected second moving object, and the second detection information indicating the detected second moving object, based on the first reliability and the second reliability. a result selection unit that selects at least one of third detection information indicating a third moving object detected by the three detection units;
and an output unit that outputs the selected detection information.
請求項1に記載の移動物検出装置であって、
前記第1信頼度及び前記第2信頼度のうち一方の信頼度が予め設定された基準値よりも高く、かつ、他方の信頼度が前記基準値以下である場合、前記結果選択部は第3検出情報を選択する、移動物検出装置。
The moving object detection device according to claim 1,
When one of the first reliability and the second reliability is higher than a preset reference value and the other reliability is equal to or less than the reference value, the result selection unit performs a third A moving object detection device that selects detection information.
請求項1又は2に記載の移動物検出装置であって、さらに、
前記第1信頼度及び前記第2信頼度が予め設定された基準値よりも高い場合、前記検出された第1移動物が前記検出された同一物体であるか否かを判断する判断部、を備え、
前記判断部が、前記検出された第1移動物が前記検出された第2移動物と同一物体であると判断した場合、前記結果選択部は、前記第1信頼度及び第2信頼度のうち高い信頼度に対応する移動物の検出情報を選択する、移動物検出装置。
The moving object detection device according to claim 1 or 2, further comprising:
a determination unit that determines whether the detected first moving object is the same detected object when the first reliability and the second reliability are higher than a preset reference value; prepared,
If the determination unit determines that the detected first moving object is the same object as the detected second moving object, the result selection unit selects A moving object detection device for selecting moving object detection information corresponding to high reliability.
請求項3に記載の移動物検出装置であって、
前記判断部が、前記検出された第1移動物が前記検出された第2移動物と異なる物体であると判断した場合、前記結果選択部は、前記第1検出情報及び第2検出情報を選択する、移動物検出装置。
The moving object detection device according to claim 3,
When the determination unit determines that the detected first moving object is an object different from the detected second moving object, the result selection unit selects the first detection information and the second detection information. , a moving object detection device.
請求項1~4のいずれか1項に記載の移動物検出装置であって、
前記結果選択部は、前記第1信頼度の変化量に基づいて前記第1信頼度を重み付けし、重み付けされた第1信頼度と前記第2検出部により取得された第2信頼度とに基づいて第1検出情報と前記第2検出情報と前記第3検出情報とのうち少なくとも1つを選択する、移動物検出装置。
The moving object detection device according to any one of claims 1 to 4,
The result selection unit weights the first reliability based on the amount of change in the first reliability, and based on the weighted first reliability and the second reliability acquired by the second detection unit a moving object detection device that selects at least one of the first detection information, the second detection information, and the third detection information.
請求項1に記載の移動物検出装置であって、
前記第1検出部は、前記第1画像から前記第1移動物を検出した場合、前記第1画像における前記第1移動物の移動方向を特定し、
前記第2検出部は、前記第2画像から前記第2移動物を検出した場合、前記第2画像における前記第2移動物の移動方向を特定し、
前記第1信頼度及び前記第2信頼度のうち一方の信頼度が予め設定された基準値よりも高く、かつ、他方の信頼度が前記基準値以下である場合、前記結果選択部は、前記一方の信頼度に対応する移動物の移動方向に基づいて、前記第1画像及び前記第2画像のうち前記他方の信頼度に対応する移動物が検出された画像に検出領域を設定し、
前記第1検出部又は前記第2検出部は、前記検出領域が設定された画像を新たに取得した場合、新たに取得した画像のうち検出領域の画像から移動物を検出する、移動物検出装置。
The moving object detection device according to claim 1,
When the first moving object is detected from the first image, the first detecting unit identifies a moving direction of the first moving object in the first image,
When the second moving object is detected from the second image, the second detection unit identifies a moving direction of the second moving object in the second image,
If one of the first reliability and the second reliability is higher than a preset reference value and the other reliability is equal to or less than the reference value, the result selection unit setting a detection region in an image in which a moving object corresponding to the other reliability is detected from the first image and the second image, based on the moving direction of the moving object corresponding to one reliability;
The moving object detection device, wherein the first detection unit or the second detection unit detects a moving object from the image of the detection area in the newly acquired image when the image in which the detection area is set is newly acquired. .
車両に搭載され、かつ、各々の撮影領域の一部が重複する第1カメラ及び第2カメラにより生成された画像を用いて、前記車両の周囲を移動する移動物を検出する移動物検出方法であって、
前記第1カメラにより生成された第1画像から第1移動物を検出し、検出された第1移動物の検出精度を示す第1信頼度を前記第1画像における第1移動物の位置に基づいて取得する第1検出ステップと、
前記第2カメラにより生成された第2画像から第2移動物を検出し、検出された第2移動物の検出精度を示す第2信頼度を前記第2画像における第2移動物の位置に基づいて取得する第2検出ステップと、
記第1画像及び第2画像に含まれる各画素を予め設定された仮想投影面に投影することにより、所定の仮想視点から前記車両を俯瞰した俯瞰画像を生成する画像生成ステップと、
記俯瞰画像から第3移動物を検出する第3検出ステップと、
前記第1信頼度と前記第2信頼度とに基づいて、前記検出された第1移動物を示す第1検出情報と、前記検出された第2移動物を示す第2検出情報と、前記検出された第3移動物を示す第3検出情報とのうち少なくとも1つを選択する選択ステップと、
前記選択された検出情報を出力する出力ステップと、を備える移動物検出方法。
A moving object detection method for detecting a moving object moving around a vehicle by using images generated by a first camera and a second camera mounted on the vehicle and having partially overlapping photographing areas. There is
A first moving object is detected from a first image generated by the first camera, and a first reliability indicating detection accuracy of the detected first moving object is based on a position of the first moving object in the first image. a first detection step obtained by
detecting a second moving object from a second image generated by the second camera, and determining a second reliability indicating detection accuracy of the detected second moving object based on the position of the second moving object in the second image; a second detection step obtained by
an image generation step of generating a bird's-eye view image of the vehicle from a predetermined virtual viewpoint by projecting each pixel included in the first image and the second image onto a preset virtual projection plane;
a third detection step of detecting a third moving object from the overhead image;
First detection information indicating the detected first moving object, second detection information indicating the detected second moving object, and the detection, based on the first reliability and the second reliability. a selecting step of selecting at least one of third detection information indicating the third moving object that has been detected;
and an output step of outputting the selected detection information.
JP2019101291A 2019-05-30 2019-05-30 Moving object detector Active JP7300316B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019101291A JP7300316B2 (en) 2019-05-30 2019-05-30 Moving object detector

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019101291A JP7300316B2 (en) 2019-05-30 2019-05-30 Moving object detector

Publications (2)

Publication Number Publication Date
JP2020194492A JP2020194492A (en) 2020-12-03
JP7300316B2 true JP7300316B2 (en) 2023-06-29

Family

ID=73546444

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019101291A Active JP7300316B2 (en) 2019-05-30 2019-05-30 Moving object detector

Country Status (1)

Country Link
JP (1) JP7300316B2 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011077772A (en) 2009-09-30 2011-04-14 Hitachi Automotive Systems Ltd Apparatus for assisting checking of surroundings

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011077772A (en) 2009-09-30 2011-04-14 Hitachi Automotive Systems Ltd Apparatus for assisting checking of surroundings

Also Published As

Publication number Publication date
JP2020194492A (en) 2020-12-03

Similar Documents

Publication Publication Date Title
US20240132154A1 (en) Road profile along a predicted path
US20190197323A1 (en) Travel assistance device and computer program
US10477102B2 (en) Method and device for determining concealed regions in the vehicle environment of a vehicle
JP2011118482A (en) In-vehicle device and recognition support system
EP3800111A1 (en) Periphery monitoring device
JP2007221200A (en) Vehicle periphery monitoring system
CN104369698A (en) Image displaying method and apparatus therefor
CN111186432A (en) Vehicle blind area early warning method and device
JP6081247B2 (en) Display switching device and display switching method for vehicle rear image
JP2009231938A (en) Surrounding monitoring device for vehicle
CN108680157A (en) A kind of planing method, device and the terminal in detection of obstacles region
JP5422622B2 (en) Head-up display device
JP2012153256A (en) Image processing apparatus
JP2018074286A (en) Driving support device
JP4930432B2 (en) Vehicle periphery monitoring device
US11100353B2 (en) Apparatus of controlling region of interest of image and method for controlling the same
JP7300316B2 (en) Moving object detector
US10864856B2 (en) Mobile body surroundings display method and mobile body surroundings display apparatus
JP7218237B2 (en) Moving object detector
JP6174884B2 (en) Outside environment recognition device and outside environment recognition method
RU2706757C1 (en) Control method and unit for rear view
JP7244562B2 (en) Mobile body control device, control method, and vehicle
JP4218441B2 (en) On-vehicle moving body detection device
CN112734981A (en) Vehicle surroundings monitoring device and vehicle surroundings monitoring method
CN113538965A (en) Display control device, display control method, and recording medium having program recorded thereon

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230124

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230530

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230619

R150 Certificate of patent or registration of utility model

Ref document number: 7300316

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150