JP2021163096A - Object detection method, object detection apparatus, and program - Google Patents
Object detection method, object detection apparatus, and program Download PDFInfo
- Publication number
- JP2021163096A JP2021163096A JP2020063012A JP2020063012A JP2021163096A JP 2021163096 A JP2021163096 A JP 2021163096A JP 2020063012 A JP2020063012 A JP 2020063012A JP 2020063012 A JP2020063012 A JP 2020063012A JP 2021163096 A JP2021163096 A JP 2021163096A
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- person
- moving object
- unit
- disappearance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
本開示は、物体検出方法、物体検出装置、及び、プログラムに関する。 The present disclosure relates to object detection methods, object detection devices, and programs.
車両、特にダンプカー又はトラックなどの大型車両には、自車両の車体下部に広い空間が存在する。そのような車体下部の空間に物体(例えば、人)が存在している状態で、当該車両が発車すると事故につながる危険がある。そこで、特許文献1には、車両の車体下部に超音波を送受波する装置を設置し、受波された超音波の反射波に基づいて、車体下部の空間に存在する物体を検出する物体検出装置が開示されている。 Vehicles, especially large vehicles such as dump trucks or trucks, have a large space under the vehicle body of the own vehicle. If an object (for example, a person) is present in the space under the vehicle body and the vehicle departs, there is a risk of causing an accident. Therefore, in Patent Document 1, a device for transmitting and receiving ultrasonic waves is installed in the lower part of the vehicle body, and object detection is performed to detect an object existing in the space under the vehicle body based on the reflected wave of the received ultrasonic waves. The device is disclosed.
しかしながら、特許文献1に記載の技術では、車体下部の環境又は路面の状態の影響を受けて、物体を精度よく検出できない場合がある。 However, the technique described in Patent Document 1 may not be able to accurately detect an object due to the influence of the environment under the vehicle body or the condition of the road surface.
そこで、本開示は、車体下部の空間に存在する移動物体を精度よく検出することができる物体検出方法、物体検出装置、及び、プログラムを提供することを目的とする。 Therefore, an object of the present disclosure is to provide an object detection method, an object detection device, and a program capable of accurately detecting a moving object existing in the space under the vehicle body.
本開示の一態様に係る物体検出方法は、周囲を撮像する複数の撮像装置を備える車両における物体検出方法であって、前記車両が停車している状態で、前記複数の撮像装置のそれぞれから前記車両の前記周囲を撮像した映像を取得し、複数の前記映像に基づいて、前記複数の撮像装置の撮像領域内に存在している移動物体の、前記車両の近傍での消失を検出し、複数の前記映像に基づいて、前記車両の近傍から前記撮像領域内への移動物体の出現を検出し、前記車両の前記停車が終了した時点において、前記消失の検出結果及び前記出現の検出結果に基づいて、前記車両の下に移動物体が存在するか否かを判定し、前記車両の下に移動物体が存在する場合、前記車両の下に移動物体が存在することを示す情報を出力する。 The object detection method according to one aspect of the present disclosure is an object detection method in a vehicle provided with a plurality of imaging devices for imaging the surroundings, and the object detection method is performed from each of the plurality of imaging devices while the vehicle is stopped. Images of the surroundings of the vehicle are acquired, and based on the plurality of images, the disappearance of moving objects existing in the imaging regions of the plurality of imaging devices in the vicinity of the vehicle is detected, and a plurality of images are taken. Based on the above-mentioned image, the appearance of a moving object from the vicinity of the vehicle into the imaging region is detected, and when the stop of the vehicle is completed, the disappearance detection result and the appearance detection result are used. It is determined whether or not there is a moving object under the vehicle, and if there is a moving object under the vehicle, information indicating that the moving object exists under the vehicle is output.
本開示の一態様に係る物体検出装置は、周囲を撮像する複数の撮像装置を備える車両における物体検出装置であって、前記車両が停車している状態で、前記複数の撮像装置のそれぞれから前記車両の前記周囲を撮像した映像を取得する取得部と、複数の前記映像に基づいて、前記複数の撮像装置の撮像領域内に存在している移動物体の、前記車両の近傍での消失を検出する第1検出部と、複数の前記映像に基づいて、前記車両の近傍から前記撮像領域内への移動物体の出現を検出する第2検出部と、前記車両の前記停車が終了した時点において、前記消失の検出結果及び前記出現の検出結果に基づいて、前記車両の下に移動物体が存在するか否かを判定する制御部と、前記車両の下に移動物体が存在する場合、前記車両の下に移動物体が存在することを示す情報を出力する出力部とを備える。 The object detection device according to one aspect of the present disclosure is an object detection device in a vehicle including a plurality of image pickup devices that image the surroundings, and the object detection device is described from each of the plurality of image pickup devices while the vehicle is stopped. Based on the acquisition unit that acquires images of the surroundings of the vehicle and the plurality of images, the disappearance of moving objects existing in the imaging regions of the plurality of imaging devices in the vicinity of the vehicle is detected. The first detection unit, the second detection unit that detects the appearance of a moving object from the vicinity of the vehicle into the imaging region based on the plurality of the images, and the second detection unit that detects the appearance of the moving object from the vicinity of the vehicle, and at the time when the stop of the vehicle is completed. A control unit that determines whether or not a moving object exists under the vehicle based on the disappearance detection result and the appearance detection result, and if a moving object exists under the vehicle, the vehicle It is provided with an output unit that outputs information indicating that a moving object exists below.
本開示の一態様に係るプログラムは、上記の物体検出方法をコンピュータに実行させるためのプログラムである。 The program according to one aspect of the present disclosure is a program for causing a computer to execute the above-mentioned object detection method.
本開示の一態様に係る物体検出方法等によれば、車体下部の空間に存在する移動物体を精度よく検出することができる。 According to the object detection method or the like according to one aspect of the present disclosure, it is possible to accurately detect a moving object existing in the space under the vehicle body.
(本開示に至った経緯)
上記特許文献1では、超音波を送受波する装置(超音波送受波装置)を車両の車体下部に設置する。車両の車体下部には、様々な設備が配置されており、例えば、大型車両などでは原動機などが配置されていることがある。このため、車体下部に超音波送受波装置を設置すると、原動機の振動など、様々な設備からの振動、熱などの影響を受ける。また、路面の状態により、反射波の状態が変化することも起こり得る。このように、特許文献1に記載の技術では、車体下部の環境又は路面の状態の影響により、物体を精度よく検出できない場合がある。
(Background to this disclosure)
In Patent Document 1, a device for transmitting and receiving ultrasonic waves (ultrasonic wave transmitting and receiving device) is installed in the lower part of the vehicle body. Various equipments are arranged in the lower part of the vehicle body, and for example, a motor may be arranged in a large vehicle or the like. Therefore, if an ultrasonic wave transmitting / receiving device is installed in the lower part of the vehicle body, it is affected by vibrations from various facilities such as vibrations of the prime mover and heat. In addition, the state of the reflected wave may change depending on the state of the road surface. As described above, in the technique described in Patent Document 1, the object may not be detected accurately due to the influence of the environment of the lower part of the vehicle body or the condition of the road surface.
そこで、本願発明者は、車体下部の空間に存在する物体を精度よく検出することができる物体検出方法等について、鋭意検討を行い、以下に説明する物体検出方法等を創案した。 Therefore, the inventor of the present application has diligently studied an object detection method and the like capable of accurately detecting an object existing in the space under the vehicle body, and devised an object detection method and the like described below.
本開示の一態様に係る物体検出方法は、周囲を撮像する複数の撮像装置を備える車両における物体検出方法であって、前記車両が停車している状態で、前記複数の撮像装置のそれぞれから前記車両の前記周囲を撮像した映像を取得し、複数の前記映像に基づいて、前記複数の撮像装置の撮像領域内に存在している移動物体の、前記車両の近傍での消失を検出し、複数の前記映像に基づいて、前記車両の近傍から前記撮像領域内への移動物体の出現を検出し、前記車両の前記停車が終了した時点において、前記消失の検出結果及び前記出現の検出結果に基づいて、前記車両の下に移動物体が存在するか否かを判定し、前記車両の下に移動物体が存在する場合、前記車両の下に移動物体が存在することを示す情報を出力する。 The object detection method according to one aspect of the present disclosure is an object detection method in a vehicle provided with a plurality of imaging devices for imaging the surroundings, and the object detection method is performed from each of the plurality of imaging devices while the vehicle is stopped. Images of the surroundings of the vehicle are acquired, and based on the plurality of images, the disappearance of moving objects existing in the imaging regions of the plurality of imaging devices in the vicinity of the vehicle is detected, and a plurality of images are taken. Based on the above-mentioned image, the appearance of a moving object from the vicinity of the vehicle into the imaging region is detected, and when the stop of the vehicle is completed, the disappearance detection result and the appearance detection result are used. It is determined whether or not there is a moving object under the vehicle, and if there is a moving object under the vehicle, information indicating that the moving object exists under the vehicle is output.
これにより、物体検出方法は、車両の周囲を撮像する複数の撮像装置からの映像に基づいて、移動物体の消失及び出現を検出する。つまり、映像に基づいて物体を検出しており、超音波の跳ね返り等により直接物体を検出していないので、路面の状態の影響を受けにくい。よって、本開示に係る物体検出方法によれば、路面の状態の影響を受けにくいので、車体下部の空間に存在する物体を精度よく検出することができる。 Thereby, the object detection method detects the disappearance and appearance of the moving object based on the images from a plurality of imaging devices that image the surroundings of the vehicle. That is, since the object is detected based on the image and the object is not directly detected due to the bounce of ultrasonic waves or the like, it is not easily affected by the condition of the road surface. Therefore, according to the object detection method according to the present disclosure, since it is not easily affected by the condition of the road surface, it is possible to accurately detect an object existing in the space under the vehicle body.
また、例えば、前記消失の検出結果が前記消失の検出を含む場合、さらに、複数の前記映像に基づいて、消失した移動物体が人であるか否かを判定し、前記出現の検出結果が前記出現の検出を含む場合、さらに、複数の前記映像に基づいて、出現した移動物体が人であるか否かを判定し、前記車両の前記停車が終了した時点において、前記消失の判定結果及び前記出現の判定結果に基づいて、前記車両の下に人が存在するか否かを判定し、前記車両の下に人が存在する場合、前記車両の下に人が存在することを示す情報を出力してもよい。 Further, for example, when the disappearance detection result includes the disappearance detection, it is further determined based on the plurality of the images whether or not the disappeared moving object is a person, and the appearance detection result is the said. When the detection of appearance is included, it is further determined whether or not the moving object that has appeared is a person based on the plurality of the images, and when the stop of the vehicle is completed, the determination result of the disappearance and the said Based on the appearance determination result, it is determined whether or not there is a person under the vehicle, and if there is a person under the vehicle, information indicating that a person exists under the vehicle is output. You may.
これにより、車体下部に人がいるか否かを精度よく検出することができる。例えば、車体下部に人がいることに気づかずにドライバが車両を発車させてしまい重大な事故が発生することを抑制することができる。 As a result, it is possible to accurately detect whether or not there is a person in the lower part of the vehicle body. For example, it is possible to prevent the driver from starting the vehicle without noticing that there is a person in the lower part of the vehicle body and causing a serious accident.
また、例えば、消失した移動物体が人である場合、さらに、複数の前記映像に基づいて、当該消失した人の特徴量を取得し、取得した特徴量を記憶部に記憶し、出現した移動物体が人である場合、さらに、複数の前記映像に基づいて、当該出現した人の特徴量を取得し、前記消失した人の特徴量と、前記出現した人の特徴量とに基づいて、前記消失した人と前記出現した人とが同一人物であるか否かを判定し、同一人物と判定された場合、当該人に対応する特徴量を前記記憶部から削除してもよい。 Further, for example, when the disappeared moving object is a person, the feature amount of the disappeared person is acquired based on the plurality of the images, the acquired feature amount is stored in the storage unit, and the appearing moving object is stored. When is a person, further, the feature amount of the appearing person is acquired based on the plurality of the images, and the disappearance is based on the feature amount of the disappeared person and the feature amount of the appearing person. It is determined whether or not the person who has made the appearance and the person who has appeared are the same person, and if it is determined that the person is the same person, the feature amount corresponding to the person may be deleted from the storage unit.
これにより、車体下部にいる人をさらに精度よく検出することができる。 As a result, the person at the lower part of the vehicle body can be detected more accurately.
また、例えば、さらに、前記車両が停車したか否かを判定してもよい。 Further, for example, it may be further determined whether or not the vehicle has stopped.
これにより、車両が停車すると自動で車体下部に対する物体検出の処理を行うことができるので、検出開始タイミングを車両の停車タイミングに制御することができる。例えば、ドライバ自身が検出開始タイミングを指示する場合など、車両の停車タイミングと、検出開始タイミングとがズレている(例えば、検出開始タイミングが停車タイミングより遅い)場合に比べて、車両の下に移動物体が存在するか否かの判定を正確に行うことができる。 As a result, when the vehicle is stopped, the object detection process for the lower part of the vehicle body can be automatically performed, so that the detection start timing can be controlled to the vehicle stop timing. For example, when the driver himself instructs the detection start timing, the vehicle moves under the vehicle as compared with the case where the stop timing of the vehicle and the detection start timing are different (for example, the detection start timing is later than the stop timing). It is possible to accurately determine whether or not an object exists.
また、例えば、前記複数の撮像装置のそれぞれは、前記車両のサラウンドビューシステムが有するカメラであってもよい。 Further, for example, each of the plurality of imaging devices may be a camera included in the surround view system of the vehicle.
これにより、サラウンドビューシステムを搭載している車両であれば、追加の装置を設置することなく、車体下部の空間に存在する物体を精度よく検出することができる。つまり、サラウンドビューシステムから取得する画像(車両の全周囲の画像)を利用して、車体下部の空間に存在する物体を精度よく検出することができる。 As a result, if the vehicle is equipped with a surround view system, it is possible to accurately detect an object existing in the space under the vehicle body without installing an additional device. That is, it is possible to accurately detect an object existing in the space under the vehicle body by using an image (an image of the entire circumference of the vehicle) acquired from the surround view system.
また、例えば、前記車両の停車中には、前記車両の下に人が存在することを示す情報を出力しなくてもよい。 Further, for example, when the vehicle is stopped, it is not necessary to output information indicating that a person is present under the vehicle.
これにより、車両の停車中に当該車両の下に人が存在することを示す情報を出力している場合に比べて通信量を削減することができる。 As a result, the amount of communication can be reduced as compared with the case where information indicating that a person exists under the vehicle is output while the vehicle is stopped.
また、本開示の一態様に係る物体検出装置は、周囲を撮像する複数の撮像装置を備える車両における物体検出装置であって、前記車両が停車している状態で、前記複数の撮像装置のそれぞれから前記車両の前記周囲を撮像した映像を取得する取得部と、複数の前記映像に基づいて、前記複数の撮像装置の撮像領域内に存在している移動物体の、前記車両の近傍での消失を検出する第1検出部と、複数の前記映像に基づいて、前記車両の近傍から前記撮像領域内への移動物体の出現を検出する第2検出部と、前記車両の前記停車が終了した時点において、前記消失の検出結果及び前記出現の検出結果に基づいて、前記車両の下に移動物体が存在するか否かを判定する制御部と、前記車両の下に移動物体が存在する場合、前記車両の下に移動物体が存在することを示す情報を出力する出力部とを備える。また、本開示の一態様に係るプログラムは、上記の物体検出方法をコンピュータに実行させるためのプログラムである。 Further, the object detection device according to one aspect of the present disclosure is an object detection device in a vehicle including a plurality of image pickup devices that image the surroundings, and each of the plurality of image pickup devices is in a state where the vehicle is stopped. The acquisition unit that acquires an image of the surroundings of the vehicle from the vehicle, and the moving object existing in the imaging region of the plurality of imaging devices based on the plurality of images disappears in the vicinity of the vehicle. A first detection unit that detects the appearance of a moving object from the vicinity of the vehicle to the imaging region based on the plurality of images, and a time point when the vehicle has stopped. In the control unit for determining whether or not a moving object exists under the vehicle based on the disappearance detection result and the appearance detection result, and when the moving object exists under the vehicle, the above. It is provided with an output unit that outputs information indicating that a moving object exists under the vehicle. Further, the program according to one aspect of the present disclosure is a program for causing a computer to execute the above-mentioned object detection method.
これにより、上記の物体検出方法と同様の効果を奏する。 As a result, the same effect as that of the above-mentioned object detection method is obtained.
なお、これらの全般的または具体的な態様は、システム、方法、集積回路、コンピュータプログラムまたはコンピュータで読み取り可能なCD−ROM等の非一時的記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラムまたは記録媒体の任意な組み合わせで実現されてもよい。プログラムは、記録媒体に予め記憶されていてもよいし、インターネット等を含む広域通信網を介して記録媒体に供給されてもよい。 It should be noted that these general or specific aspects may be realized by a system, a method, an integrated circuit, a computer program, or a non-temporary recording medium such as a computer-readable CD-ROM, and the system, the method, the integrated. It may be realized by any combination of circuits, computer programs or recording media. The program may be stored in the recording medium in advance, or may be supplied to the recording medium via a wide area communication network including the Internet or the like.
以下、実施の形態について、図面を参照しながら具体的に説明する。 Hereinafter, embodiments will be specifically described with reference to the drawings.
なお、以下で説明する実施の形態は、いずれも包括的または具体的な例を示すものである。以下の実施の形態で示される数値、形状、構成要素、構成要素の配置位置および接続形態、ステップ、ステップの順序などは、一例であり、本開示を限定する主旨ではない。例えば、数値は、厳格な意味のみを表す表現ではなく、実質的に同等な範囲、例えば数%程度の差異をも含むことを意味する表現である。また、以下の実施の形態における構成要素のうち、独立請求項に記載されていない構成要素については、任意の構成要素として説明される。また、各図は、模式図であり、必ずしも厳密に図示されたものではない。また、各図において、同じ構成部材については同じ符号を付している。 It should be noted that all of the embodiments described below show comprehensive or specific examples. Numerical values, shapes, components, arrangement positions and connection forms of components, steps, step order, and the like shown in the following embodiments are examples, and are not intended to limit the present disclosure. For example, a numerical value is not an expression that expresses only a strict meaning, but an expression that includes a substantially equivalent range, for example, a difference of about several percent. Further, among the components in the following embodiments, the components not described in the independent claims will be described as arbitrary components. Further, each figure is a schematic view and is not necessarily exactly illustrated. Further, in each figure, the same components are designated by the same reference numerals.
(実施の形態)
以下、本実施の形態に係る物体検出システムついて、図1〜図5Bを参照しながら説明する。
(Embodiment)
Hereinafter, the object detection system according to the present embodiment will be described with reference to FIGS. 1 to 5B.
[1.物体検出システムの構成]
まず、本実施の形態に係る物体検出システムの構成について、図1を参照しながら説明する。図1は、本実施の形態に係る物体検出システム1の機能構成を示すブロック図である。図2は、本実施の形態に係るカメラシステムを説明するための図である。なお、図2では、撮像装置の撮像領域をドット状のハッチングで示している。
[1. Object detection system configuration]
First, the configuration of the object detection system according to the present embodiment will be described with reference to FIG. FIG. 1 is a block diagram showing a functional configuration of the object detection system 1 according to the present embodiment. FIG. 2 is a diagram for explaining a camera system according to the present embodiment. In FIG. 2, the imaging region of the imaging apparatus is shown by dot-shaped hatching.
図1に示すように、物体検出システム1は、撮像装置10a〜10dと、物体検出装置20と、表示装置70とを備える。なお、以降では、物体検出システム1が備える各構成要素は、車両100(図2参照)に搭載されている例について説明するが、これに限定されない。
As shown in FIG. 1, the object detection system 1 includes
撮像装置10a〜10dは、車両100に搭載され、車両100の周囲を撮像する。撮像装置10a〜10dのそれぞれは、例えば、可視光カメラである。また、撮像装置10a〜10dのそれぞれは、広角レンズを有していてもよい。つまり、撮像装置10a〜10dのそれぞれは、広角カメラであってもよい。
The
撮像装置10a〜10dのそれぞれは、例えば、車両100のサラウンドビューシステムが有する車載カメラであってもよい。これにより、車両100がサラウンドビューシステムを搭載する車両である場合、追加の設備を設置することなく、車両100の車体下部の空間に存在する移動物体を間接的に検出することができる。なお、移動物体は、停車している車両100に対して移動している物体を意味する。
Each of the
図2に示すように、本実施の形態では、車両100には、4台の撮像装置10a〜10dが搭載され、当該4台の撮像装置10a〜10dにより、車両100の全視界を十分にカバーするように配置されている。撮像装置10aは、車両100の前方を撮像する前方カメラであり、例えば、車両100の前方部(例えば、フロントグリル付近)に取り付けられる。撮像装置10bは、車両100の右方を撮像する右方カメラであり、例えば、車両100の右側のサイドミラーに取り付けられる。撮像装置10cは、車両100の左方を撮像する左方カメラであり、例えば、車両100の左側のサイドミラーに取り付けられる。撮像装置10dは、車両100の後方を撮像する後方カメラであり、例えば、車両100の後方部に取り付けられる。撮像装置10a〜10dは、複数の撮像装置の一例である。
As shown in FIG. 2, in the present embodiment, the
撮像領域Raは、撮像装置10aの撮像領域を示す。撮像領域Rbは、撮像装置10bの撮像領域を示す。撮像領域Rcは、撮像装置10cの撮像領域を示す。撮像領域Rdは、撮像装置10dの撮像領域を示す。撮像領域Ra〜Rdはそれぞれ、半円状の領域である。また、1つの撮像装置の撮像領域は、当該1つの撮像装置と車両100の周囲方向に隣接する2つの撮像装置の撮像領域と少なくとも一部が重なっていてもよい。例えば、撮像領域Raの撮像領域は、撮像領域Rb及びRcのそれぞれと少なくとも一部が重なっていてもよい。これにより、撮像装置10a〜10dのそれぞれを用いて、車両100の全周囲(全視界)を撮像可能である。
The imaging region Ra indicates an imaging region of the
なお、車両が備える撮像装置の数及び設置位置は、上記に特に限定されない。例えば、車両は、撮像装置を1〜3台備えていてもよいし、5台以上備えていてもよい。また、撮像装置10a〜10dは、例えば、車両100の車両下部以外の部分に取り付けられる。撮像装置10a〜10dは、例えば、車体側部に取り付けられるが、これに限定されない。
The number and installation positions of the imaging devices provided in the vehicle are not particularly limited to the above. For example, the vehicle may be provided with 1 to 3 imaging devices, or may be provided with 5 or more imaging devices. Further, the
図1を再び参照して、物体検出装置20は、撮像装置10a〜10dのそれぞれから、車両100の周囲を撮像した映像を取得し、取得した映像に基づいて、車両100が停車しているときに当該車両100の車体下部の空間に所定の物体が存在するか否かを判定する。なお、映像は、画像が時系列に並んで構成される。また、本明細書における停車は、物体検出システム1の各構成要素に電力が供給されており、かつ、車両100が停止している状態を意味する。例えば、車両100が信号待ちなどの停車中にエンジンを停止したアイドリングストップの状態なども、本明細書における停車に含まれる。停止とは、車両100の速度が実質的にゼロであることを意味する。物体検出装置20は、取得部30と、制御部40と、記憶部50と、出力部60とを有する。
With reference to FIG. 1 again, the
取得部30は、撮像装置10a〜10dのそれぞれと通信可能に接続されており、撮像装置10a〜10dのそれぞれから映像を取得する。取得部30は、例えば、取得した映像をフレームごとの画像に変換して制御部40に出力する。取得部30は、例えば、撮像装置10a〜10dそれぞれの映像をフレームごとの画像に変換し、撮像装置10a〜10dのそれぞれにおいて同時刻に撮像された画像を、1つの画像群として制御部40に出力する。取得部30は、例えば、撮像装置10a〜10dのそれぞれから取得した映像を、同一フレームの画像(画像群)に変換し、同一フレームの画像の各々を制御部40に出力する。
The
取得部30は、例えば、車両100の底部以外の部分に取り付けられた撮像装置(例えば、撮像装置10a〜10d)から映像を取得するとも言える。取得部30は、例えば、車両100の車体側部に取り付けられた撮像装置から映像を取得してもよい。
It can be said that the
なお、取得部30は、必ずしも映像をフレームごとの画像に変換できる必要はなく、時系列的に並んだ画像を複数の撮像装置から取得できるものであればよい。
The
制御部40は、物体検出装置20の各構成要素を制御する制御装置であり、取得部30からの画像に基づいて、車両100の停車終了時に、当該車両100の車体下部の空間に移動物体が存在するか否かを判定する処理を行う。制御部40は、合成部41と、消失検出部42と、認識部43と、出現検出部44と、追跡部45とを有する。
The control unit 40 is a control device that controls each component of the
合成部41は、撮像装置10a〜10dのそれぞれの映像を合成することで、例えば、図2に示すような鳥瞰画像を生成する。合成部41は、取得部30から取得した画像群に含まれる同一フレームの複数の画像(本実施の形態では、4枚の画像)を合成することで、鳥瞰画像を生成する。合成部41は、フレームごとに鳥瞰画像を生成する。
The
消失検出部42は、合成部41が生成した鳥瞰画像の時系列データに基づいて、移動物体が車両100の近傍で消失したことを検出する。移動物体が車両100付近で消失した場合、移動物体が車両100の車体下部の空間に潜り込んだ可能性がある。消失検出部42は、撮像装置10a〜10dのいずれかの撮像領域内に存在している移動物体の車両100の近傍での消失を検出するとも言える。なお、車両100の近傍とは、例えば、撮像範囲内における車両100と近い領域を意味しており、鳥瞰画像における車両100の外形線付近の領域であってもよい。
The
消失検出部42が移動物体の消失を検出する手法は特に限定されないが、例えば、オプティカルフローの計算、又は、ニューラルネットワーク等の学習済モデルを用いた検出技術により行われてもよい。オプティカルフローの計算を用いる場合、消失検出部42は、例えば、鳥瞰画像の時系列データに基づいて、複数の鳥瞰画像間におけるオプティカルフローを算出し、算出したオプティカルフローに基づいて物体検出を行う。消失検出部42は、例えば、車両100の周囲にあった移動物体の移動ベクトルが次のフレームの鳥瞰画像において消えた場合、当該移動物体が消失したことを検出する。これにより、消失検出部42は、撮像装置10a〜10dの撮像領域内において移動する物体の消失を検出することが可能である。
The method by which the
また、ニューラルネットワーク等の学習済モデルの検出技術を用いる場合、消失検出部42は、例えば、学習済モデルに鳥瞰画像の時系列データを入力し、移動物体の消失の有無を学習済モデルの出力として取得する。このような学習済モデルは、ニューラルネットワークを用いて、深層学習(ディープラーニング)により生成される。学習済モデルは、例えば、回帰型のニューラルネットワーク構造を有する。学習済モデルは、例えば、複数のLSTM(Long Short−Term Memory)ブロックを有するLSTMのニューラルネットワーク構造を有していてもよいし、RNN(Recurrent Neural Network)、又は、GRU(Gated Recurrent Unit)などのニューラルネットワーク構造を有していてもよい。なお、学習済モデルは、上記に限定されず、既知のいかなる回帰型のニューラルネットワーク構造を有していてもよい。学習済モデルは、例えば、鳥瞰画像の時系列データを訓練データとし、そのときの移動物体の消失の有無を正解データとして機械学習を用いて生成されるが、学習済モデルの生成方法はこれに限定されない。
Further, when using a learning model detection technique such as a neural network, the
上記では、消失検出部42は、オプティカルフローによる計算又は学習済モデルにより移動物体の消失を検出したが、画像(例えば、鳥瞰画像)により移動物体の消失を検出することができれば、上記以外の方法により移動物体の消失が検出されてもよい。また、消失検出部42は、撮像装置10a〜10dが撮像した撮像画像(合成前の画像)に基づいて、移動物体の消失を検出してもよい。消失検出部42は、第1検出部の一例である。
In the above, the
認識部43は、鳥瞰画像又は撮像装置が撮像した画像(以降において、撮像画像とも記載する)に基づいて、消失検出部42が消失したことを検出した移動物体が所定の物体であるか否かを認識する。認識部43は、消失した移動物体が所定の物体であるか否かを判定するとも言える。認識部43は、消失検出部42により移動物体が消失したことが検出されたフレームより過去のフレーム(例えば、1フレーム前のフレーム)の鳥瞰画像又は撮像画像に基づいて、消失した移動物体が所定の物体であるか否かを判定する。以下では、所定の物体は、人である例について説明するが、所定の物体は人に限定されない。所定の物体は、人以外の動物、又は、人が取りに来ることが想定される物体(例えば、遊具)などであってもよい。所定の物体は、例えば、犬、猫などの動物であってもよいし、ボールなどの遊具であってもよい。なお、所定の物体には、路上のゴミ(例えば、空き缶など)、道路に固定されている物体などは含まれない。
Whether or not the moving object that the
認識部43が人を認識する手法は特に限定されないが、例えば、パターン認識技術、又は、ニューラルネットワーク等の学習済モデルを用いた認識技術により行われてもよい。パターン認識技術により行われる場合、認識部43は、例えば、鳥瞰画像又は撮像画像に基づいて、移動物体の形状を抽出し、抽出した抽出結果を用いて、人の認識を行う。認識部43は、例えば、抽出結果に対してサポートベクタマシン等のパターン認識技術により人の形状の認識を行ってもよい。
The method by which the
また、ニューラルネットワーク等の学習済モデルの検出技術を用いる場合、認識部43は、例えば、学習済モデルに消失した移動物体が写っている鳥瞰画像又は撮像画像を入力し、移動物体が人であるか否かの結果を学習済モデルの出力として取得する。このような学習済モデルは、ニューラルネットワークを用いて、深層学習により生成される。学習済モデルは、例えば、順伝搬型のニューラルネットワーク構造を有する。学習済モデルは、例えば、CNN(Convolutional Neural Network)などのニューラルネットワーク構造を有していてもよい。なお、学習済モデルは、上記に限定されず、既知のいかなる順伝搬型のニューラルネットワーク構造を有していてもよい。学習済モデルは、例えば、鳥瞰画像又は撮像画像を訓練データとし、画像に写る移動物体が人であるか否かを正解データとして機械学習を用いて生成されるが、学習済モデルの生成方法はこれに限定されない。
Further, when using a detection technique of a trained model such as a neural network, the
上記では、認識部43は、パターン認識又は学習済モデルにより人の認識をしたが、鳥瞰画像又は撮像画像により人を認識することができれば、上記以外の方法により人の認識を行ってもよい。例えば、認識部43は、テンプレートマッチングにより人の認識を行ってもよい。
In the above, the
出現検出部44は、合成部41が生成した鳥瞰画像の時系列データに基づいて、移動物体が車両100の近傍で出現したことを検出する。移動物体が車両100付近で出現した場合、車両100の車体下部の空間に潜り込んだ移動物体が当該車体下部から這い出てきた可能性がある。出現検出部44は、撮像装置10a〜10dそれぞれの撮像領域内に存在していなかった移動物体の車両100の近傍での出現を検出するとも言える。
The
出現検出部44が移動物体の出現を検出する手法は特に限定されないが、例えば、オプティカルフローの計算、又は、ニューラルネットワーク等の学習済モデルを用いた検出技術により行われてもよい。オプティカルフローの計算を用いる場合、出現検出部44は、例えば、鳥瞰画像の時系列データに基づいて、複数の鳥瞰画像間におけるオプティカルフローを算出し、算出したオプティカルフローに基づいて物体検出を行う。出現検出部44は、車両100の周囲になかった移動ベクトルが次のフレームの鳥瞰画像において出現した場合、移動物体が出現したことを検出する。これにより、出現検出部44は、撮像装置10a〜10dの撮像領域において移動する物体を検出することが可能である。
The method by which the
また、ニューラルネットワーク等の学習済モデルの検出技術を用いる場合、出現検出部44は、例えば、学習済モデルに鳥瞰画像の時系列データを入力し、移動物体の出現の有無を学習済モデルの出力として取得する。このような学習済モデルは、ニューラルネットワークを用いて、深層学習により生成される。学習済モデルは、例えば、回帰型のニューラルネットワーク構造を有する。学習済モデルは、例えば、複数のLSTMブロックを有するLSTMのニューラルネットワーク構造を有していてもよいし、RNN、又は、GRUなどのニューラルネットワーク構造を有していてもよい。なお、学習済モデルは、上記に限定されず、既知のいかなる回帰型のニューラルネットワーク構造を有していてもよい。また、出現検出部44が用いる学習済モデルのニューラルネットワーク構造は、消失検出部42が用いる学習済モデルのニューラルネットワーク構造と同じであってもよいし、異なっていてもよい。学習済モデルは、例えば、鳥瞰画像の時系列データを訓練データとし、そのときの移動物体の出現の有無を正解データとして機械学習を用いて生成される。
When a trained model detection technique such as a neural network is used, the
上記では、出現検出部44は、オプティカルフローによる計算又は学習済モデルにより移動物体の出現を検出したが、画像(例えば、鳥瞰画像)により移動物体の出現を検出することができれば、上記以外の方法により移動物体の出現が検出されてもよい。また、出現検出部44は、撮像装置10a〜10dが撮像した撮像画像(合成前の画像)に基づいて、移動物体の出現を検出してもよい。出現検出部44は、第2検出部の一例である。
In the above, the
追跡部45は、鳥瞰画像又は撮像画像に基づいて、出現検出部44が出現したことを検出した移動物体が所定の物体であるか否かを認識する。追跡部45における所定の物体と、認識部43における所定の物体とは、例えば、同じ物体(例えば、人)である。追跡部45は、出現した移動物体が所定の物体であるか否かを判定するとも言える。また、追跡部45は、消失したフレーム及び出現したフレーム間で、同一の移動物体を追跡するとも言える。追跡部45は、出現検出部44により移動物体が出現したことが検出されたフレーム又は当該フレームより新しいフレーム(例えば、1フレーム後のフレーム)の鳥瞰画像又は撮像画像に基づいて、出現した移動物体が所定の物体(例えば、人)であるか否かを判定する。
The
追跡部45が人を認識する手法は特に限定されないが、例えば、パターン認識技術、又は、ニューラルネットワーク等の学習済モデルを用いた認識技術により行われてもよい。パターン認識技術により行われる場合、追跡部45は、例えば、鳥瞰画像又は撮像画像に基づいて、出現した移動物体の形状を抽出し、抽出した抽出結果を用いて、人の認識を行う。追跡部45は、例えば、抽出結果に対してサポートベクタマシン等のパターン認識技術により人の形状の認識を行う。
The method by which the
また、ニューラルネットワーク等の学習済モデルの検出技術を用いる場合、追跡部45は、例えば、出現した移動物体が写っている鳥瞰画像又は撮像画像を学習済モデルに入力し、移動物体が人であるか否かの結果を学習済モデルの出力として取得する。このような学習済モデルは、ニューラルネットワークを用いて、深層学習により生成される。学習済モデルは、例えば、順伝搬型のニューラルネットワーク構造を有する。学習済モデルは、例えば、CNNなどのニューラルネットワーク構造を有していてもよい。なお、学習済モデルは、上記に限定されず、既知のいかなる順伝搬型のニューラルネットワーク構造を有していてもよい。学習済モデルは、例えば、鳥瞰画像又は撮像画像を訓練データとし、画像に写る移動物体が人であるか否かを正解データとして機械学習を用いて生成される。
Further, when using a learning model detection technique such as a neural network, the
なお、上記では、追跡部45は、パターン認識又は学習済モデルにより人の認識をしたが、鳥瞰画像又は撮像画像により人を認識することができれば、上記以外の方法により人の認識を行ってもよい。例えば、追跡部45は、テンプレートマッチングにより人の認識を行ってもよい。
In the above, the
記憶部50は、取得部30が取得した撮像画像、合成部41が生成した鳥瞰画像などを記憶する記憶装置である。記憶部50は、消失検出部42が検出した車両100近傍で消失した移動物体に関する情報を記憶してもよい。移動物体に関する情報は、例えば、消失時刻、消失位置、認識部43の認識結果、消失したフレーム及びその前後のフレームの鳥瞰画像又は撮像画像、撮像領域内における移動物体の移動軌跡の少なくとも1つを含む。
The
また、認識部43及び追跡部45の少なくとも一方がパターン認識により所定の物体であるか否かを判定する場合、当該所定の物体のパターンに関する情報を記憶してもよい。記憶部50は、例えば、人の形状に関するデータを記憶していてもよい。記憶部50は、例えば、半導体メモリなどにより実現される。
Further, when determining whether or not at least one of the
出力部60は、表示装置70と通信可能に接続され、車両100の車体下部の空間に所定の物体が存在する場合、車両100の車体下部に所定の物体が存在することを示す情報を出力する。出力部60は、少なくとも車両100の停車が終了した時点において、車両100の車体下部に所定の物体が存在する場合(例えば、車両100の車体下部に下に人が存在する場合)、車両100の車体下部に所定の物体が存在することを示す危険情報をドライバに通知するための情報を出力する。本実施の形態では、表示装置70が表示によりドライバに当該通知を行うので、出力部60は、表示装置70に車両100の車体下部に所定の物体が存在することを示す危険情報を表示させるための情報を表示装置70に出力する。
The
上記では、物体検出システム1において、車両100の車体下部に所定の物体が存在することを画像によりドライバに通知する例を説明したが、通知態様はこれに限定されない。物体検出システム1は、例えば、音、光、振動などの少なくとも1つによりドライバに危険情報を通知してもよいし、画像、音、光、振動の少なくとも2以上の組み合わせによりドライバに危険情報を通知してもよい。
In the above, in the object detection system 1, an example of notifying the driver of the existence of a predetermined object in the lower part of the vehicle body of the
表示装置70は、出力部60から出力された情報を表示する。表示装置70は、例えば、車両100の車体下部に所定の物体が存在することを示す危険情報を表示する。表示装置70は、車両100に搭載されたナビゲーションシステムに備えられていてもよい。表示装置70は、例えば、液晶ディスプレイなどにより実現される。なお、表示装置70は、ドライバが所持する携帯端末が備えていてもよい。表示装置70は、例えば、スマートフォンなどが備えていてもよい。なお、表示装置70が携帯端末である場合、当該携帯端末の送信先アドレスは、予め記憶部50に記憶されている。
The
[2.物体検出システムの動作]
続いて、本実施の形態に係る物体検出システム1の動作について、図3〜5Bを参照しながら説明する。図3は、本実施の形態に係る物体検出システム1の動作を示すフローチャートである。図3は、物体検出装置20における動作を示す。
[2. Operation of object detection system]
Subsequently, the operation of the object detection system 1 according to the present embodiment will be described with reference to FIGS. 3 to 5B. FIG. 3 is a flowchart showing the operation of the object detection system 1 according to the present embodiment. FIG. 3 shows the operation of the
図3に示すように、物体検出装置20は、車両100が停車したか否かを判定する(S11)。物体検出装置20は、例えば、車両100の速度が実質的にゼロであり、かつ、物体検出システム1の各構成要素に電力が供給されている状態であれば、車両100が停車したと判定する。物体検出装置20は、例えば、車両100に搭載された各種センサ(図示しない)のセンシング結果に基づいて、車両100が停車したか否かを判定してもよい。物体検出装置20は、例えば、車両100が備える速度センサから車両100の速度がゼロとなったことを示す情報を取得してもよい。なお、センシング結果は、例えば、取得部30を介して取得される。
As shown in FIG. 3, the
物体検出装置20は、車両100が停車すると(S11でYes)、移動物体の消失及び出現の検出を開始する(S12)。このように、物体検出装置20は、車両100が停車したことをトリガとして、移動物体の消失及び出現の検出を開始する。具体的には、取得部30は撮像装置10a〜10dのそれぞれからの映像の取得を開始し、かつ、消失検出部42及び出現検出部44は、当該映像から生成された鳥瞰画像の時系列データに基づいて、移動物体の消失及び出現を検出する。ステップS12は、車両100が停車している状態で、複数の撮像装置10a〜10dのそれぞれから車両100の周囲を撮像した映像を取得することの一例である。また、物体検出装置20は、車両100が停車していないと(S11でNo)、ステップS11に戻り停車するまで移動物体の消失及び出現の検出を開始しない。
When the
次に、消失検出部42は、鳥瞰画像に基づいて、オプティカルフローによる計算又は学習済モデルを用いて、移動物体の消失を検知したか否かを判定する(S13)。消失検出部42は、複数の映像に基づいて、複数の撮像装置10a〜10dの撮像領域Ra〜Rd内に存在している移動物体の、車両100の近傍での消失を検出するとも言える。オプティカルフローによる移動物体の消失の検出について、図4を参照しながら説明する。図4は、本実施の形態に係る移動物体の消失及び出現を説明するための図である。図4に示す位置P1〜P11は、人の移動軌跡を示しており、人は位置P1から位置P11へ移動したとする。位置P1は、例えば、第1フレームの鳥瞰画像における人の位置を示しており、位置P2は例えば、第1フレームより後の第2フレームの鳥瞰画像における人の位置を示している。位置P3以降においても、同様である。
Next, the
また、図4に示す実線丸で示す位置P1〜P3、及び、位置P9〜P11は、鳥瞰画像において実際に人が写っている位置である。また、破線丸で示す位置P4〜P8は、鳥瞰画像において実際に人が写っていないときの位置である。つまり、破線丸は、人が車両100の車体下部の空間に潜り込んだときの位置を示す。また、矢印は、移動ベクトルを示す。
Further, the positions P1 to P3 and the positions P9 to P11 shown by the solid circles shown in FIG. 4 are the positions where a person is actually shown in the bird's-eye view image. Further, the positions P4 to P8 indicated by the broken line circles are the positions when no person is actually captured in the bird's-eye view image. That is, the broken line circle indicates the position when a person sneaks into the space under the vehicle body of the
図4に示すように、消失検出部42は、例えば、第2フレームの位置P2、及び、第3フレームの位置P3に基づいて、移動ベクトルを算出する。当該移動ベクトルは、例えば、人が車両100に接近していることを示す。また、消失検出部42は、人が車両100の車体下部の空間に潜り込んだので、第4フレームの位置P4を検出することができない。つまり、第3フレームの後の第4フレームにおいて、車両100の周囲にあった移動ベクトルが消えてしまう。消失検出部42は、当該移動ベクトルが消えた場合、人が車両100の車体下部の空間に潜り込んだ、つまり人が消失したことを検出する。
As shown in FIG. 4, the
なお、図4では、車両100の前方の位置において人が車両100の車体下部の空間に潜り込んだ例について説明したが、人が車両100の車体下部の空間に潜り込む位置は前方に限定されない。
Although FIG. 4 has described an example in which a person sneaks into the space under the vehicle body of the
なお、消失検出部42は、ステップS13において、移動物体の移動ベクトルが消えて、かつ、当該移動ベクトルが消えた時点で車両100に当該移動物体が乗車したことが検出されていない場合に、当該移動物体が消失したことを検出してもよい。消失検出部42は、取得部30を介して車両100に搭載された各種センサからセンシング結果を取得し、取得したセンシング結果に基づいて、移動物体が車両100に乗車したか否かを判定してもよい。
In addition, when the movement vector of the moving object disappears in step S13 and the movement vector has not been detected that the moving object has boarded the
消失検出部42は、移動物体の移動ベクトルが消えた時点及び当該時点の前後の時点において、移動物体が乗車したことを示すセンシング結果を取得した場合、移動ベクトルが消えた移動物体は車両100の車体下部の空間に潜り込んだのではなく当該車両100に乗車したので、当該移動物体の消失を検出しない。この場合、消失検出部42は、ステップS13でNoと判定する。
When the
各種センサは座席に設けられた感圧センサであってもよいし、車内を撮像する車内カメラであってもよいし、ドアの開閉を検出するセンサであってもよいし、シートベルトが絞められたことを検出するセンサであってもよいし、その他の移動物体(例えば、人)を検出できるその他のセンサであってもよい。 The various sensors may be a pressure-sensitive sensor provided in the seat, an in-vehicle camera that images the inside of the vehicle, a sensor that detects the opening / closing of the door, or the seat belt is fastened. It may be a sensor that detects that, or it may be another sensor that can detect other moving objects (for example, a person).
これにより、例えば、人が車両100に乗車したことを、人が車両100の車体下部の空間に潜り込んだと誤検出されてしまうことを抑制することができる。
Thereby, for example, it is possible to prevent a person from being erroneously detected as having entered the space under the vehicle body of the
また、消失検出部42は、移動物体の移動ベクトルが消えた時点及び当該時点の前後の時点において、移動物体が乗車したことを示すセンシング結果を取得していない場合、移動ベクトルが消えた移動物体は車両100の車体下部の空間に潜り込んだので、当該移動物体の消失を検出する。この場合、消失検出部42は、ステップS13でYesと判定する。
Further, if the
図3を再び参照して、認識部43は、消失検出部42が移動物体の消失を検出すると(S13でYes)、消失検出部42が移動物体の消失を検出したフレームの前のフレームの鳥瞰画像又は撮像画像に基づいて、当該移動物体が人であるか否かを判定する(S14)。認識部43は、消失の検出結果が消失の検出を含む場合、つまりステップS13で消失を検出した場合、さらに、複数の映像に基づいて、消失した移動物体が人であるか否かを判定するとも言える。認識部43は、例えば、パターン認識又は学習済モデルを用いて、消失した移動物体が人であるか否かを判定する。人は、所定の物体の一例である。なお、認識部43は、ステップS14の認識に用いた鳥瞰画像又は撮像画像を、記憶部50に記憶してもよい。
With reference to FIG. 3 again, when the
認識部43は、消失した移動物体が人である場合(S14でYes)、つまり消失した移動物体を人と認識した場合、当該人の消失を記憶部50に記憶する(S15)。認識部43は、例えば、1人の人が車両100の車体下部に潜り込んだことを示す情報を記憶部50に記憶する。また、認識部43は、ステップS15において、記憶部50に記憶されている現時点における車両100の車体下部にいる人の人数を更新してもよい。つまり、認識部43は、ステップS14でYesの場合、車両100の車体下部にいる人の人数を1増やしてもよい。人数を1増やすことは、人の消失を記憶することの一例である。また、認識部43は、さらに、消失時刻、消失位置などを記憶部50に記憶してもよい。
When the disappeared moving object is a person (Yes in S14), that is, when the disappeared moving object is recognized as a person, the
次に、出現検出部44は、ステップS13及びS14でNoである場合、又は、ステップS15の次に、鳥瞰画像を用いて、移動物体が出現したか否かを判定する(S16)。出現検出部44は、例えば、消失の検出の処理に用いられた映像に対して、出現の検出の処理を実行する。出現検出部44は、複数の映像に基づいて、車両100の近傍から撮像領域Ra〜Rd内への移動物体の出現を検出するとも言える。オプティカルフローによる移動物体の出現の検出について、図4を参照しながら説明する。
Next, the
図4に示すように、出現検出部44は、例えば、人が車両100の車体下部に潜り込んでいるので、第8フレームの位置P8を検出することができない。また、出現検出部44は、第9フレームでは人が車両100に車体下部から這い出ているので、第9フレームの位置P9以降の位置を検出することができる。出現検出部44は、例えば、第9フレームの位置P9、及び、第10フレームの位置P10に基づいて、移動ベクトルを算出する。つまり、第9フレームの後の第10フレームにおいて、車両100の周囲になかった移動ベクトルが現れる。出現検出部44は、当該移動ベクトルが現れた場合、人が車両100の車体下部から出てきた、つまり人が出現したことを検出する。なお、当該移動ベクトルは、例えば、人が車両100から離れていくことを示す。
As shown in FIG. 4, the
なお、図4では、車両100の後方の位置において人が車両100の車体下部から現れた例について説明したが、人が車両100の車体下部から現れる位置は後方に限定されない。
In FIG. 4, an example in which a person appears from the lower part of the vehicle body of the
なお、出現検出部44は、ステップS16において、移動物体の移動ベクトルが現れて、かつ、当該移動ベクトルが現れた時点で車両100から当該移動物体が降車したことが検出されていない場合に、当該移動物体が出現したと判定してもよい。出現検出部44は、取得部30を介して車両100に搭載された各種センサからセンシング結果を取得し、取得したセンシング結果に基づいて、移動物体が車両100から降車したか否かを判定してもよい。
In addition, when the movement vector of the moving object appears in step S16 and the movement vector has not been detected from the
出現検出部44は、移動物体の移動ベクトルが現れた時点及び当該時点の前後の時点において、移動物体が降車したことを示すセンシング結果を取得した場合、移動ベクトルが現れた移動物体は車両100から降車したので、当該移動物体の出現を検出しない。この場合、出現検出部44は、ステップS16でNoと判定する。
When the
各種センサは座席に設けられた感圧センサであってもよいし、車内を撮像する車内カメラであってもよいし、ドアの開閉を検出するセンサであってもよいし、シートベルトが外されたことを検出するセンサであってもよいし、移動物体(例えば、人)の降車を検出できるその他のセンサであってもよい。 The various sensors may be a pressure-sensitive sensor provided in the seat, an in-vehicle camera that images the inside of the vehicle, a sensor that detects the opening / closing of the door, or the seat belt is removed. It may be a sensor that detects that, or it may be another sensor that can detect the getting off of a moving object (for example, a person).
これにより、例えば、人が車両100から降車したことを、人が車両100の車体下部から出てきたと判定されてしまうことを抑制することができる。
Thereby, for example, it is possible to suppress that a person getting off the
また、出現検出部44は、移動物体の移動ベクトルが現れた時点及び当該時点の前後の時点において、移動物体が降車したことを示すセンシング結果を取得していない場合、移動ベクトルが現れた移動物体は車両100の車体下部の空間から出てきたので、当該移動物体の出現を検出する。この場合、出現検出部44は、ステップS16でYesと判定する。
Further, when the
図3を再び参照して、追跡部45は、出現検出部44が移動物体の出現を検出すると(S16でYes)、出現検出部44が移動物体の出現を検出したフレームの鳥瞰画像又は撮像画像に基づいて、当該移動物体が人であるか否かを判定する(S17)。追跡部45は、出現の検出結果が出現の検出を含む場合、つまりステップS16で出現を検出した場合、さらに、複数の映像に基づいて、出現した移動物体が人であるか否かを判定するとも言える。追跡部45は、例えば、パターン認識又は学習済モデルを用いて、出現した移動物体が人であるか否かを判定する。なお、追跡部45は、ステップS17の判定に用いた鳥瞰画像又は撮像画像を、記憶部50に記憶してもよい。また、追跡部45は、出現検出部44が移動物体の出現を検出していないと(S16でNo)、ステップS19に進む。
With reference to FIG. 3 again, when the
追跡部45は、出現した移動物体が人である場合(S17でYes)、つまり出現した移動物体を人と認識した場合、当該人の出現を記憶部50に記憶する(S18)。追跡部45は、例えば、1人の人が車両100の車体下部から現れたことを示す情報を記憶部50に記憶する。また、追跡部45は、ステップS18において、記憶部50に記憶されている現時点における車両100の車体下部にいる人の人数を更新してもよい。つまり、追跡部45は、ステップS17でYesの場合、車両100の車体下部にいる人の人数を1減らしてもよい。人数を1減らすことは、人の出現を記憶することの一例である。そして、ステップS19に進む。また、追跡部45は、出現した移動物体が人ではない場合(S17でNo)、ステップS19に進む。
When the appearing moving object is a person (Yes in S17), that is, when the appearing moving object is recognized as a person, the
次に、物体検出装置20は、車両100の停車が終了したか否かを判定する(S19)。物体検出装置20は、例えば、車両100に搭載された各種センサ(図示しない)のセンシング結果に基づいて、車両100の停車が終了したか否かを判定してもよい。物体検出装置20は、車両100が信号で停車していた場合、撮像装置10aの撮像画像に基づいて、信号機が青に変わったことを検出すると、車両100の停車が終了したと判定してもよい。また、物体検出装置20は、ドライバが運転操作を開始したことを検出すると、車両100の停車が終了したと判定してもよい。運転操作を開始するとは、例えば、ドライバがブレーキペダルを緩めたことなどであってもよいし、ドライバがハンドルを握ったことであってもよいし、ドライバがシフトレバーを操作したことであってもよい。また、物体検出装置20は、例えば、ドライバが車両100の外に出ていた場合、当該ドライバが車両100に戻ってきた(乗車した)ことを座席に設けられた感圧センサ又は車内カメラ(例えば、図4に示す車内カメラ110)のセンシング結果に基づいて検出すると、車両100の停車が終了したと判定してもよい。なお、センシング結果は、例えば、取得部30を介して取得される。
Next, the
次に、物体検出装置20は、車両100の停車が終了した場合(S19でYes)、車両100の車体下部に人がいるか否かを判定する(S20)。物体検出装置20の制御部40は、例えば、ステップS15において記憶された人の消失に関する情報と、ステップS18において記憶された人の出現に関する情報とに基づいて、車両100の車体下部に人がいるか否かを判定してもよい。制御部40は、車両100の停車が終了した時点において、消失の検出結果及び出現の検出結果に基づいて、車両100の下に移動物体が存在するか否かを判定するとも言える。出現の検出結果は、ステップS13における消失の検出の結果であり、出現の検出結果は、ステップS16における出現の検出の結果である。なお、所定の物体が人である場合、制御部40は、車両の停車が終了した時点において、消失の判定結果及び出現の判定結果に基づいて、車両100の下に人が存在するか否かを判定するとも言える。
Next, when the
また、制御部40は、例えば、車両100の車体下部にいる人の最新の人数を取得し、取得した人数に基づいて、車両100の車体下部に人がいるか否かを判定してもよい。制御部40は、例えば、車両100の車体下部にいる人の人数がゼロである場合、車両100の車体下部に人がいないと判定し、車両100の車体下部にいる人の人数がゼロ以外である場合、車両100の車体下部に人がいると判定してもよい。
Further, the control unit 40 may acquire, for example, the latest number of people in the lower part of the vehicle body of the
次に、制御部40は、車両100の車体下部(下)に人がいる場合(S20でYes)、車両100の車体下部に人がいることを示す情報をドライバに通知する(S21)。例えば、制御部40は、車両100の車体下部に人がいることを示す情報を、出力部60を介して表示装置70に出力する。このように、制御部40は、車両100の停車終了後に、車両100の車体下部に人がいることを示す情報を、出力部60を介して表示装置70に出力する。言い換えると、制御部40は、車両100の停車中には、車両100の車体下部に人がいることを示す情報を、出力部60を介して表示装置70に出力しない。
Next, when there is a person in the lower part (lower) of the vehicle body of the vehicle 100 (Yes in S20), the control unit 40 notifies the driver of information indicating that there is a person in the lower part of the vehicle body of the vehicle 100 (S21). For example, the control unit 40 outputs information indicating that there is a person under the vehicle body of the
また、制御部40は、車両100の車体下部に人がいない場合(S20でNo)、処理を終了する。制御部40は、例えば、停車中に車両100の車体下部に人が潜り込んでも、停車終了時に車両100の車体下部に人がいない場合、ドライバに通知を行わない。なお、制御部40は、ステップS20でNoである場合、車両100の車体下部に人がいないことを示す情報を、出力部60を介して表示装置70に出力してもよい。
Further, when there is no person in the lower part of the vehicle body of the vehicle 100 (No in S20), the control unit 40 ends the process. For example, even if a person sneaks into the lower part of the vehicle body of the
ここで、表示装置70が表示する情報について、図5A及び図5Bを参照しながら説明する。図5Aは、本実施の形態に係る車両100の車体下部に人が存在することを示す通知の一例を示す図である。図5Aは、車室から前方を見た場合の模式図である。
Here, the information displayed by the
図5Aに示すように、制御部40は、車両100に搭載されたナビゲーションシステム120の表示部121に、車両100の車体下部に人がいることを示す表示を行わせてもよい。また、制御部40は、さらにドライバに推奨される行動を表示部121に表示させてもよい。制御部40は、例えば、車両100の下を確認することを推奨する情報を表示させてもよい。なお、表示部121は、図1に示す表示装置70の一例である。
As shown in FIG. 5A, the control unit 40 may cause the
図5Bは、本実施の形態に係る車両100の車体下部に人が存在することを示す通知の他の一例を示す図である。
FIG. 5B is a diagram showing another example of a notification indicating that a person is present in the lower part of the vehicle body of the
図5Bに示すように、制御部40は、車両100のサラウンドビューシステムが備える撮像装置10a〜10dから撮像画像を取得することで、車両100を含む鳥瞰画像上に、車両100の車体下部に人がいることを示す表示を行わせてもよい。制御部40は、さらに、鳥瞰画像上に、人の消失位置122を表示してもよい。これにより、ドライバは、消失位置122を参考に車両100の車体下部を確認することができる。
As shown in FIG. 5B, the control unit 40 acquires an image taken from the
図3を再び参照して、物体検出装置20は、車両100の停車が終了していない場合(S19でNo)、ステップS13に戻り、次のフレームの画像に対してステップS13以降の処理を行う。ステップS13〜S19の処理は、車両100が停車している期間中、繰り返し実行される。
With reference to FIG. 3 again, when the
なお、上記では、出力部60は、車両100の停車が終了した時点で、車両100の車体下部に人がいる場合に、ドライバに通知を行う例について説明したが、停車中にドライバに所定の通知を行ってもよい。出力部60は、例えば、消失検出部42が移動物体の消失を検出する、又は、認識部43が移動物体を人であると認識するごとに、検出結果又は認識結果をドライバに通知してもよい。
In the above description, the
以上のように、本実施の形態に係る物体検出装置20は、車両100に搭載された複数の撮像装置10a〜10dから取得した映像に基づいて、車両100の車体下部に所定の物体(例えば、人)がいるか否かを判定する。
As described above, the
物体検出装置20は、超音波の跳ね返り等により直接物体を検出しておらず、映像に基づいて物体を間接的に検出するので、路面の状態の影響を受けにくい。よって、本開示に係る物体検出装置20によれば、路面の状態の影響を受けにくいので、車体下部の空間に存在する物体を精度よく検出することができる。
Since the
また、このような車両100の周囲を撮像する撮像装置10a〜10dが車両100の車体下部以外の部分(例えば、車体側部)に取り付けられている場合、つまり、取得部30が車体底部以外に取り付けられた撮像装置10a〜10dから映像を取得する場合、取得される映像は、車体下部に設置された様々な設備などの車体下部の環境の影響を受けにくい映像となる。この場合、物体検出装置20は、車体底部以外の部分に取り付けられた撮像装置10a〜10dから映像を取得するので、物体検出における車体下部の環境の影響を受けにくく、車体下部の空間に存在する物体をさらに精度よく検出することができる。
Further, when the
(実施の形態の変形例)
以下、本変形例に係る物体検出システムついて、図6を参照しながら説明する。なお、本変形例に係る物体検出システムの機能構成は、実施の形態と同様であり、実施の形態と同様の符号を付して説明を行う。本変形例では、主に追跡部45が、消失した人と出現した人とが同一人物であるか否かを判定する点において、実施の形態と相違する。以下において、実施の形態との相違点を中心に説明する。
(Modified example of the embodiment)
Hereinafter, the object detection system according to this modification will be described with reference to FIG. The functional configuration of the object detection system according to this modification is the same as that of the embodiment, and the description will be given with the same reference numerals as those of the embodiment. This modification is different from the embodiment in that the
追跡部45は、鳥瞰画像又は撮像画像に基づいて、認識部43が認識した所定の物体と、出現検出部44が検出した移動物体とが同一の物体であるか否かを認識する。以下では所定の物体は人である例について説明するが、所定の物体は人に限定されない。本実施の形態では、追跡部45は、鳥瞰画像又は撮像画像に基づいて、認識部43が認識した人と、出現検出部44が検出した移動物体とが同一の物体(同一の人物)であるか否かを認識する。
Based on the bird's-eye view image or the captured image, the
追跡部45は、認識部43が認識した人と、出現検出部44が検出した移動物体とが同一の人物であるか否かを認識してもよいし、出現検出部44が検出した移動物体が人であると認識した場合に、認識部43が認識した人と、追跡部45が認識した人物とが同一人物であるか否かをさらに認識してもよい。
The
追跡部45が同一人物を認識する手法は特に限定されないが、例えば、特徴マッチング技術、又は、ニューラルネットワーク等の学習済モデルを用いた認識技術により行われてもよい。特徴マッチング技術により行われる場合、追跡部45は、例えば、認識部43が人と認識したときの鳥瞰画像又は撮像画像における人の特徴量と、出現検出部44が移動物体を検出したときの鳥瞰画像又は撮像画像における当該移動物体の特徴量とに基づいて、同一人物であるか否かを認識してもよい。追跡部45は、認識部43が人と認識したときの鳥瞰画像又は撮像画像に基づいて、人の特徴量を抽出する。また、追跡部45は、出現検出部44が移動物体を検出したときの鳥瞰画像又は撮像画像に基づいて、移動物体の特徴量を抽出する。そして、追跡部45は、抽出された2つの画像それぞれの特徴量を比較することで、認識部43が認識した人と、出現検出部44が検出した移動物体とが同一の人物であるか否かを認識する。追跡部45は、抽出された2つの画像それぞれの特徴量を比較することで、認識部43が認識した人と、出現検出部44が検出した移動物体とが同一の人物であるか否かを判定するとも言える。また、追跡部45は、消失したフレーム及び出現したフレーム間で、同一人物を追跡するとも言える。
The method by which the
また、ニューラルネットワーク等の学習済モデルの認識技術を用いる場合、追跡部45は、例えば、学習済モデルに鳥瞰画像又は撮像画像を入力し、当該移動物体のニューラルネットワークの認識時における任意の中間層の特徴量(例えば、スコアであり、中間生成物の一例)を取得し、取得された特徴量に基づいて、同一人物であるか否かを認識してもよい。追跡部45は、認識部43が人と認識したときの鳥瞰画像又は撮像画像を学習済モデルに入力し、消失した人の特徴量を取得する。また、追跡部45は、出現検出部44が移動物体を検出したときの鳥瞰画像又は撮像画像を学習済モデルに入力し、出現した人の特徴量を取得する。そして、追跡部45は、取得された2つの画像それぞれの特徴量を比較することで、認識部43が認識した人と、出現検出部44が検出した移動物体とが同一の人物であるか否かを認識する。追跡部45は、抽出された2つの画像それぞれの特徴量を比較することで、認識部43が認識した人と、出現検出部44が検出した移動物体とが同一の人物であるか否かを判定するとも言える。なお、特徴量は、例えば、画像勾配、色分布のヒストグラムなどを含んでいてもよい。
Further, when using a recognition technique of a trained model such as a neural network, the
このような学習済モデルは、実施の形態の追跡部45が有する学習済モデルであってもよい。つまり、本変形例に係る追跡部45は、実施の形態の追跡部45が有する学習済モデルを用いて、人の認識及び同一人物の認識を行ってもよい。また、学習済モデルは、入力層で次元数を意味するニューロン数が多く、徐々に後続の層のニューロンの数が減っていき、中心部分の隠れ層で最も次元数が圧縮されてニューロンの数が少なくなるニューラルネットワーク構造を有していてもよい。つまり、学習済モデルは、入力情報の次元を削減することができる、いわゆるエンコーダを有していてもよい。なお、次元が削減された入力情報は、例えば、入力情報における特徴量を示す。言い換えると、学習済モデルは、入力情報から特徴量を抽出するように学習されているとも言える。学習済モデルは、例えば、エンコーダ、及び、特徴量に基づいて入力情報が復元するデコーダを有するオートエンコーダであってもよい。なお、追跡部45は、主成分分析により画像の次元を圧縮してもよい。
Such a trained model may be a trained model included in the
続いて、本変形例に係る物体検出システム1の動作について、図6を参照しながら説明する。図6は、本変形例に係る物体検出システム1の動作を示すフローチャートである。図6は、物体検出装置20における動作を示す。なお、実施の形態の物体検出装置20における動作と同一又は類似の動作については、図3と同一の符号を付し、説明を省略又は簡略化する。
Subsequently, the operation of the object detection system 1 according to this modification will be described with reference to FIG. FIG. 6 is a flowchart showing the operation of the object detection system 1 according to this modification. FIG. 6 shows the operation of the
図6に示すように、認識部43は、消失した移動物体が人である場合(S14でYes)、ステップS13で消失した人の情報を記憶部50に記憶する(S101)。認識部43は、例えば、消失した移動物体が人である場合、さらに、複数の映像に基づいて、当該消失した人の特徴量を取得し、取得した特徴量を記憶する。認識部43は、ステップS101において、ステップS13で消失した人の情報を記憶することで、車両100の車体下部にいる人の情報を更新するとも言える。
As shown in FIG. 6, when the disappeared moving object is a person (Yes in S14), the
人の情報は、例えば、当該人の特徴量であってもよいし、消失検出部42が移動物体を検出し、かつ、認識部43が移動物体を人と認識した画像であってもよい。認識部43は、学習済モデルを用いて人の認識を行う場合、ニューラルネットワークの認識時における任意の層の特徴量を記憶部50に記憶してもよいし、次元圧縮された特徴量を記憶部50に記憶してもよい。つまり、本変形例では、認識部43は、人の消失だけではなく、消失した人を特定可能な情報を記憶部50に記憶する。
The information on a person may be, for example, a feature amount of the person, or an image in which the
そして、追跡部45は、出現検出部44が移動物体の出現を検出すると(S16でYes)、出現検出部44が移動物体の出現を検出したフレームの鳥瞰画像又は撮像画像に基づいて、当該移動物体がステップS13で消失した人であるか否かを判定する(S102)。追跡部45は、例えば、特徴マッチング又は学習済モデルを用いて、出現した移動物体がステップS13で消失した人と同一人物であるか否かを判定する。追跡部45は、出現した移動物体が人である場合、さらに、複数の映像に基づいて、例えば、当該出現した人の特徴量を取得し、消失した人の特徴量と、出現した人の特徴量とに基づいて、消失した人と出現した人とが同一人物であるか否かを判定する。追跡部45は、例えば、ステップS16で出現した移動物体(人)が、ステップS13で消失した人のうちのいずれの人であるかを特定することを含む処理を実行するとも言える。なお、追跡部45は、ステップS102の判定に用いた鳥瞰画像又は撮像画像を、記憶部50に記憶してもよい。
Then, when the
次に、追跡部45は、同一人物である場合(S102でYes)、例えば、ステップS16で出現した移動物体(人)が、ステップS13で消失した人のうちのいずれの人であるかを特定できた場合、ステップS13で消失した人の情報を記憶部50から削除する。つまり、追跡部45は、ステップS101で記憶された人の情報のうち、ステップS102で同一人物であると判定された人の情報を記憶部50から削除する。追跡部45は、例えば、同一人物であると判定された人に対応する特徴量、つまりステップS101で記憶された当該人に対応する特徴量を記憶部50から削除する。追跡部45は、ステップS103において、ステップS13で消失した人の情報を記憶部50から削除することで、車両100の車体下部にいる人の情報を更新するとも言える。
Next, when the
また、追跡部45は、同一人物でない場合(S102No)、例えば、ステップS16で出現した移動物体(人)が、ステップS13で消失した人のうちのいずれの人であるかを特定できなかった場合、ドライバに検出異常を通知する(S104)。ここでの検出異常は、例えば、消失を検出していない人が出現したことを示す。例えば、車両100に乗車している人が降車した場合、出現検出部44が検出ミスした場合などにより検出異常は発生し得る。追跡部45は、ステップS104において、消失を検出していない人が出現したことを示す情報を、ドライバに通知するとも言える。例えば、追跡部45は、出力部60を介して当該情報をドライバの携帯端末に出力する。追跡部45は、例えば、ステップS16の処理で用いた画像を当該情報に含めてドライバの携帯端末に出力してもよい。
Further, when the
なお、追跡部45は、ステップS102でNoである場合、ドライバに検出異常を通知することに限定されない。追跡部45は、例えば、当該人の出現を記憶部50に記憶してもよい。追跡部45は、例えば、消失を検出していない人が車両100の下から現れたことを示す情報を記憶部50に記憶してもよい。また、追跡部45は、ステップS102でNoである場合、ステップS16で出現を検出した移動物体に関する処理(例えば、通知、記憶などの処理)を行わずにステップS19に進んでもよい。
If the
なお、本変形例の場合、物体検出装置20の制御部40は、ステップS13で消失が検出された人の全てが、ステップS16で検出された場合、ステップS20でYesと判定してもよい。また、制御部40は、消失を検出していない人が車両100の下から現れたことを示す情報が記憶部50に記憶されている場合、ステップS20でNoと判定してもよい。
In the case of this modification, the control unit 40 of the
以上のように、本変形例に係る物体検出装置20の追跡部45は、消失した人と出現した人とが同一人物であるか否かを判定する。そして、追跡部45は、同一人物である場合、記憶部50に記憶されている当該人の情報を削除する。
As described above, the
これにより、物体検出装置20は、車体下部にいる人をさらに精度よく検出することができる。物体検出装置20は、車両下部にいる人を正確に検出することができるとも言える。制御部40は、車両100の停車終了時に車体下部に人がいる場合、ステップS13で消失を検出した人のうち、どの人が車体下部にいるかを特定することができる。制御部40は、例えば、どのフレームに写っていた人が車体下部にいるかを特定することができる。この場合、制御部40は、車体下部にいる人が写っている画像を、表示装置70に表示させてもよい。当該画像は、車両100の下に人が存在することを示す情報の一例である。
As a result, the
(その他の実施の形態)
以上、一つまたは複数の態様に係る物体検出方法等について、実施の形態に基づいて説明したが、本開示は、この実施の形態に限定されるものではない。本開示の趣旨を逸脱しない限り、当業者が思いつく各種変形を本実施の形態に施したものや、異なる実施の形態における構成要素を組み合わせて構築される形態も、本開示に含まれてもよい。
(Other embodiments)
Although the object detection method and the like according to one or more aspects have been described above based on the embodiment, the present disclosure is not limited to this embodiment. As long as the purpose of the present disclosure is not deviated, various modifications that can be conceived by those skilled in the art may be applied to the present embodiment, or a form constructed by combining components in different embodiments may be included in the present disclosure. ..
例えば、上記実施の形態等では、物体検出システムが備える複数の撮像装置は、サラウンドビューシステムが備えるカメラシステムである例について説明したが、物体検出システムが備える複数の撮像装置はサラウンドビューシステムが備えるカメラシステムであることに限定されない。物体検出システムは、例えば、サラウンドビューシステムを備えない車両に設置された複数の撮像装置を備えていてもよい。 For example, in the above-described embodiment, the example in which the plurality of imaging devices included in the object detection system is a camera system included in the surround view system has been described, but the plurality of imaging devices included in the object detection system are included in the surround view system. It is not limited to a camera system. The object detection system may include, for example, a plurality of imaging devices installed in a vehicle that does not have a surround view system.
また、上記実施の形態等では、鳥瞰画像を用いて移動物体の消失及び出現の検出を行ったが、これに限定されない。例えば、撮像画像を用いて、移動物体の消失及び出現の検出が行われてもよい。この場合、物体検出装置は、合成部を有していなくてもよい。 Further, in the above-described embodiment and the like, the disappearance and appearance of the moving object are detected by using the bird's-eye view image, but the present invention is not limited to this. For example, the disappearance and appearance of a moving object may be detected by using a captured image. In this case, the object detection device does not have to have a compositing unit.
また、上記実施の形態等では、物体検出装置は、認識部及び追跡部を有する例について説明したが、これに限定されない。物体検出装置は、認識部及び追跡部の少なくとも一方を有していなくてもよい。物体検出装置は、例えば、認識部及び追跡部の両方を有していなくてもよい。この場合、物体検出装置は、消失検出部の消失の検出結果、及び、出現検出部の出現の検出結果に基づいて、車両下に移動物体がいるか否かを判定してもよい。 Further, in the above-described embodiment and the like, an example in which the object detection device has a recognition unit and a tracking unit has been described, but the present invention is not limited thereto. The object detection device may not have at least one of a recognition unit and a tracking unit. The object detection device may not have, for example, both a recognition unit and a tracking unit. In this case, the object detection device may determine whether or not there is a moving object under the vehicle based on the disappearance detection result of the disappearance detection unit and the appearance detection result of the appearance detection unit.
また、上記実施の形態等で説明した物体検出システムは、サラウンドビューシステムの一部として実現されてもよい。 Further, the object detection system described in the above-described embodiment or the like may be realized as a part of the surround view system.
また、上記実施の形態等では、物体検出装置は車両の一例である自動車に搭載される例について説明したが、これに限定されない。車両は、ダンプカー、ブルドーザーなどの建築車両、トラクターなどの農業機械、又は、電車などの鉄道車両に搭載されてもよい。 Further, in the above-described embodiment and the like, the example in which the object detection device is mounted on an automobile, which is an example of a vehicle, has been described, but the present invention is not limited to this. The vehicle may be mounted on a construction vehicle such as a dump truck or a bulldozer, an agricultural machine such as a tractor, or a railroad vehicle such as a train.
また、上記実施の形態等では、図5A及び図5Bに示すような画像が表示される例について説明したが、表示される画像はこれに限定されない。例えば、表示装置は、撮像装置が撮像した画像であって、車体下部にいる人が写っている画像を、表示装置に表示してもよい。 Further, in the above-described embodiment and the like, an example in which an image as shown in FIGS. 5A and 5B is displayed has been described, but the displayed image is not limited to this. For example, the display device may display on the display device an image captured by the image pickup device and showing a person in the lower part of the vehicle body.
また、上記実施の形態における、移動物体の消失を検出するフローと、移動物体の出現を検出するフローとは、並行して行われてもよい。 Further, the flow for detecting the disappearance of a moving object and the flow for detecting the appearance of a moving object in the above embodiment may be performed in parallel.
また、上記実施の形態等では、物体検出システムの各構成要素は、車両に搭載される例について説明したが、これに限定されない。 Further, in the above-described embodiment and the like, each component of the object detection system has been described as an example of being mounted on a vehicle, but the present invention is not limited thereto.
また、上記実施の形態等に係る物体検出装置は、複数の装置により実現されてもよい。物体検出装置が複数の装置によって実現される場合、当該物体検出装置が有する各構成要素は、複数の装置にどのように振り分けられてもよい。また、物体検出装置が備える各構成要素の少なくとも1つは、サーバ装置により実現されてもよい。例えば、取得部、合成部、消失検出部、認識部、出現検出部、追跡部、出力部などの処理部の少なくとも1つは、サーバ装置により実現されてもよい。また、物体検出装置がサーバ装置を含む複数の装置で実現される場合、当該複数の装置間の通信方法は、特に限定されず、無線通信であってもよいし、有線通信であってもよい。また、装置間では、無線通信および有線通信が組み合わされてもよい。なお、本明細書では、物体検出装置が複数の装置で実現されている、いわゆるシステムにより実現されている場合も、物体検出装置と記載する。つまり、1つの装置により物体検出装置の機能が実現される、及び、複数の装置により物体検出装置の機能が実現されるものを、本明細書では物体検出装置と記載する。 Further, the object detection device according to the above embodiment or the like may be realized by a plurality of devices. When the object detection device is realized by a plurality of devices, each component of the object detection device may be distributed to the plurality of devices in any way. Further, at least one of the components included in the object detection device may be realized by the server device. For example, at least one of the processing units such as the acquisition unit, the synthesis unit, the disappearance detection unit, the recognition unit, the appearance detection unit, the tracking unit, and the output unit may be realized by the server device. When the object detection device is realized by a plurality of devices including a server device, the communication method between the plurality of devices is not particularly limited, and may be wireless communication or wired communication. .. Further, wireless communication and wired communication may be combined between the devices. In this specification, even when the object detection device is realized by a plurality of devices, that is, it is realized by a so-called system, it is also described as an object detection device. That is, a device in which the function of the object detection device is realized by one device and the function of the object detection device is realized by a plurality of devices is described as an object detection device in this specification.
また、フローチャートにおける各ステップが実行される順序は、本開示を具体的に説明するために例示するためのものであり、上記以外の順序であってもよい。また、上記ステップの一部が他のステップと同時(並列)に実行されてもよいし、上記ステップの一部は実行されなくてもよい。 Further, the order in which each step in the flowchart is executed is for exemplifying the present disclosure in detail, and may be an order other than the above. Further, a part of the above steps may be executed simultaneously with other steps (parallel), or a part of the above steps may not be executed.
また、ブロック図における機能ブロックの分割は一例であり、複数の機能ブロックを一つの機能ブロックとして実現したり、一つの機能ブロックを複数に分割したり、一部の機能を他の機能ブロックに移してもよい。また、類似する機能を有する複数の機能ブロックの機能を単一のハードウェア又はソフトウェアが並列又は時分割に処理してもよい。 Further, the division of the functional block in the block diagram is an example, and a plurality of functional blocks can be realized as one functional block, one functional block can be divided into a plurality of functional blocks, and some functions can be transferred to other functional blocks. You may. Further, the functions of a plurality of functional blocks having similar functions may be processed by a single hardware or software in parallel or in a time division manner.
また、上記実施の形態における物体検出装置が備える構成要素の一部または全部は、1個のシステムLSI(Large Scale Integration:大規模集積回路)から構成されているとしてもよい。 Further, a part or all of the components included in the object detection device in the above embodiment may be composed of one system LSI (Large Scale Integration: large-scale integrated circuit).
システムLSIは、複数の処理部を1個のチップ上に集積して製造された超多機能LSIであり、具体的には、マイクロプロセッサ、ROM(Read Only Memory)、RAM(Random Access Memory)などを含んで構成されるコンピュータシステムである。ROMには、コンピュータプログラムが記憶されている。マイクロプロセッサが、コンピュータプログラムに従って動作することにより、システムLSIは、その機能を達成する。 The system LSI is an ultra-multifunctional LSI manufactured by integrating a plurality of processing units on one chip, and specifically, a microprocessor, a ROM (Read Only Memory), a RAM (Random Access Memory), and the like. It is a computer system configured to include. A computer program is stored in the ROM. The system LSI achieves its function by operating the microprocessor according to the computer program.
また、本開示の一態様は、図3又は図6などに示す物体検出方法に含まれる特徴的な各ステップをコンピュータに実行させるコンピュータプログラムであってもよい。例えば、プログラムは、コンピュータに実行させるためのプログラムであってもよい。また、本開示の一態様は、そのようなプログラムが記録された、コンピュータ読み取り可能な非一時的な記録媒体であってもよい。例えば、そのようなプログラムを記録媒体に記録して頒布又は流通させてもよい。例えば、頒布されたプログラムを、他のプロセッサを有する装置にインストールして、そのプログラムをそのプロセッサに実行させることで、その装置に、上記各処理を行わせることが可能となる。 Further, one aspect of the present disclosure may be a computer program that causes a computer to execute each characteristic step included in the object detection method shown in FIG. 3 or FIG. For example, the program may be a program to be executed by a computer. Also, one aspect of the present disclosure may be a computer-readable, non-temporary recording medium on which such a program is recorded. For example, such a program may be recorded on a recording medium and distributed or distributed. For example, by installing the distributed program on a device having another processor and causing the processor to execute the program, it is possible to cause the device to perform each of the above processes.
本開示は、車両に搭載される物体検出装置に有用である。 The present disclosure is useful for an object detection device mounted on a vehicle.
1 物体検出システム
10a、10b、10c、10d 撮像装置
20 物体検出装置
30 取得部
40 制御部
41 合成部
42 消失検出部(第1検出部)
43 認識部
44 出現検出部(第2検出部)
45 追跡部
50 記憶部
60 出力部
70 表示装置
100 車両
110 車内カメラ
120 ナビゲーションシステム
121 表示部
122 消失位置
Ra、Rb、Rc、Rd 撮像領域
1
43
45
Claims (8)
前記車両が停車している状態で、前記複数の撮像装置のそれぞれから前記車両の前記周囲を撮像した映像を取得し、
複数の前記映像に基づいて、前記複数の撮像装置の撮像領域内に存在している移動物体の、前記車両の近傍での消失を検出し、
複数の前記映像に基づいて、前記車両の近傍から前記撮像領域内への移動物体の出現を検出し、
前記車両の前記停車が終了した時点において、前記消失の検出結果及び前記出現の検出結果に基づいて、前記車両の下に移動物体が存在するか否かを判定し、
前記車両の下に移動物体が存在する場合、前記車両の下に移動物体が存在することを示す情報を出力する
物体検出方法。 It is an object detection method in a vehicle equipped with a plurality of imaging devices that image the surroundings.
While the vehicle is stopped, images of the surroundings of the vehicle are acquired from each of the plurality of imaging devices.
Based on the plurality of the images, the disappearance of the moving object existing in the imaging region of the plurality of imaging devices in the vicinity of the vehicle is detected.
Based on the plurality of the images, the appearance of a moving object from the vicinity of the vehicle into the imaging region is detected.
At the time when the stop of the vehicle is completed, it is determined whether or not there is a moving object under the vehicle based on the detection result of the disappearance and the detection result of the appearance.
An object detection method that outputs information indicating that a moving object exists under the vehicle when a moving object exists under the vehicle.
前記出現の検出結果が前記出現の検出を含む場合、さらに、複数の前記映像に基づいて、出現した移動物体が人であるか否かを判定し、
前記車両の前記停車が終了した時点において、前記消失の判定結果及び前記出現の判定結果に基づいて、前記車両の下に人が存在するか否かを判定し、前記車両の下に人が存在する場合、前記車両の下に人が存在することを示す情報を出力する
請求項1に記載の物体検出方法。 When the disappearance detection result includes the disappearance detection, it is further determined whether or not the disappeared moving object is a person based on the plurality of the images.
When the detection result of the appearance includes the detection of the appearance, it is further determined whether or not the moving object that appears is a person based on the plurality of the images.
At the time when the stop of the vehicle is completed, it is determined whether or not there is a person under the vehicle based on the determination result of the disappearance and the determination result of the appearance, and the person is present under the vehicle. The object detection method according to claim 1, wherein the information indicating that a person exists under the vehicle is output.
出現した移動物体が人である場合、さらに、複数の前記映像に基づいて、当該出現した人の特徴量を取得し、
前記消失した人の特徴量と、前記出現した人の特徴量とに基づいて、前記消失した人と前記出現した人とが同一人物であるか否かを判定し、
同一人物と判定された場合、当該人に対応する特徴量を前記記憶部から削除する
請求項2に記載の物体検出方法。 When the disappeared moving object is a person, the feature amount of the disappeared person is further acquired based on the plurality of the images, and the acquired feature amount is stored in the storage unit.
When the moving object that appears is a person, the feature amount of the appearing person is further acquired based on the plurality of the images.
Based on the feature amount of the disappeared person and the feature amount of the appearing person, it is determined whether or not the disappeared person and the appearing person are the same person.
The object detection method according to claim 2, wherein when the same person is determined, the feature amount corresponding to the person is deleted from the storage unit.
請求項1〜3のいずれか1項に記載の物体検出方法。 Further, the object detection method according to any one of claims 1 to 3, wherein it is determined whether or not the vehicle has stopped.
請求項1〜4のいずれか1項に記載の物体検出方法。 The object detection method according to any one of claims 1 to 4, wherein each of the plurality of imaging devices is a camera included in the surround view system of the vehicle.
請求項1〜5のいずれか1項に記載の物体検出方法。 The object detection method according to any one of claims 1 to 5, wherein information indicating that a person exists under the vehicle is not output while the vehicle is stopped.
前記車両が停車している状態で、前記複数の撮像装置のそれぞれから前記車両の前記周囲を撮像した映像を取得する取得部と、
複数の前記映像に基づいて、前記複数の撮像装置の撮像領域内に存在している移動物体の、前記車両の近傍での消失を検出する第1検出部と、
複数の前記映像に基づいて、前記車両の近傍から前記撮像領域内への移動物体の出現を検出する第2検出部と、
前記車両の前記停車が終了した時点において、前記消失の検出結果及び前記出現の検出結果に基づいて、前記車両の下に移動物体が存在するか否かを判定する制御部と、
前記車両の下に移動物体が存在する場合、前記車両の下に移動物体が存在することを示す情報を出力する出力部とを備える
物体検出装置。 An object detection device in a vehicle equipped with a plurality of image pickup devices for capturing the surroundings.
An acquisition unit that acquires an image of the surroundings of the vehicle from each of the plurality of imaging devices while the vehicle is stopped.
A first detection unit that detects the disappearance of a moving object existing in the imaging region of the plurality of imaging devices in the vicinity of the vehicle based on the plurality of the images.
A second detection unit that detects the appearance of a moving object from the vicinity of the vehicle into the imaging region based on the plurality of images.
A control unit that determines whether or not a moving object exists under the vehicle based on the detection result of the disappearance and the detection result of the appearance at the time when the stop of the vehicle is completed.
An object detection device including an output unit that outputs information indicating that a moving object exists under the vehicle when a moving object exists under the vehicle.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020063012A JP2021163096A (en) | 2020-03-31 | 2020-03-31 | Object detection method, object detection apparatus, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020063012A JP2021163096A (en) | 2020-03-31 | 2020-03-31 | Object detection method, object detection apparatus, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021163096A true JP2021163096A (en) | 2021-10-11 |
Family
ID=78004872
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020063012A Pending JP2021163096A (en) | 2020-03-31 | 2020-03-31 | Object detection method, object detection apparatus, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2021163096A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023176854A1 (en) * | 2022-03-15 | 2023-09-21 | オムロン株式会社 | Bird's-eye data generation device, learning device, bird's-eye data generation program, bird's-eye data generation method, and robot |
JP7438515B2 (en) | 2022-03-15 | 2024-02-27 | オムロン株式会社 | Bird's-eye view data generation device, learning device, bird's-eye view data generation program, bird's-eye view data generation method, and robot |
-
2020
- 2020-03-31 JP JP2020063012A patent/JP2021163096A/en active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023176854A1 (en) * | 2022-03-15 | 2023-09-21 | オムロン株式会社 | Bird's-eye data generation device, learning device, bird's-eye data generation program, bird's-eye data generation method, and robot |
JP7438515B2 (en) | 2022-03-15 | 2024-02-27 | オムロン株式会社 | Bird's-eye view data generation device, learning device, bird's-eye view data generation program, bird's-eye view data generation method, and robot |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2018092265A1 (en) | Driving assistance device and driving assistance method | |
JP5240316B2 (en) | Vehicle occupant non-operation driving system | |
JP6917827B2 (en) | Vehicle control devices, vehicles, vehicle control methods and programs | |
CN110103878B (en) | Method and device for controlling unmanned vehicle | |
JP6613623B2 (en) | On-vehicle device, operation mode control system, and operation mode control method | |
US10948915B2 (en) | Computer-assisted or autonomous driving vehicle incident management method and apparatus | |
JP2009202610A (en) | Parking assist system | |
JP7031072B2 (en) | Cognitive function estimation device, learning device, and cognitive function estimation method | |
JP2021163096A (en) | Object detection method, object detection apparatus, and program | |
JP2018151693A (en) | Drive supporting device and drive supporting method | |
US20200175474A1 (en) | Information processing system, program, and control method | |
CN106710267A (en) | Vehicle driving data processing method and vehicle driving data processing device | |
WO2018163490A1 (en) | Visual recognition support device, method, and program | |
JP2017129973A (en) | Driving support apparatus and driving support method | |
US11221495B2 (en) | Aid for a driver with impaired field of view | |
JP2021140423A (en) | Vehicle controller | |
CN111612701A (en) | Periphery monitoring device | |
WO2019187626A1 (en) | Image processing device, image capturing device, and moving body | |
CN116461534A (en) | Driver monitoring device, driver monitoring method, and driver monitoring computer program | |
JP2020093575A (en) | Control apparatus and control system | |
JP2020187456A (en) | Travel information recording device, travel information recording method, and travel information recording program | |
JP7068156B2 (en) | Information processing equipment and programs | |
JP2020071594A (en) | History storage device and history storage program | |
CN113753057A (en) | State determination device and state determination method | |
CN112349084A (en) | Driving behavior evaluation device, method, and recording medium |