JP6492577B2 - Vehicle detection system, image processing server, and vehicle detection method - Google Patents

Vehicle detection system, image processing server, and vehicle detection method Download PDF

Info

Publication number
JP6492577B2
JP6492577B2 JP2014238827A JP2014238827A JP6492577B2 JP 6492577 B2 JP6492577 B2 JP 6492577B2 JP 2014238827 A JP2014238827 A JP 2014238827A JP 2014238827 A JP2014238827 A JP 2014238827A JP 6492577 B2 JP6492577 B2 JP 6492577B2
Authority
JP
Japan
Prior art keywords
vehicle
dimensional model
image
detection system
vehicle detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014238827A
Other languages
Japanese (ja)
Other versions
JP2016099945A (en
Inventor
弘志 海野
弘志 海野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2014238827A priority Critical patent/JP6492577B2/en
Publication of JP2016099945A publication Critical patent/JP2016099945A/en
Application granted granted Critical
Publication of JP6492577B2 publication Critical patent/JP6492577B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、車両検知システム、画像処理サーバ及び車両検知方法に関する。   The present invention relates to a vehicle detection system, an image processing server, and a vehicle detection method.

車両検知システムは、車庫等へ出入りする車両や、高速道路などで料金所を通過する車両の監視や車種の判定等に用いられている。例えば特許文献1には、画像撮像装置と、撮像した画像を処理する画像処理装置と、赤外線センサを備え、画像撮像装置の検知状態と赤外線センサの検知状態の組合せにより、通過車両の判定を行う車両検知装置が、開示されている。特許文献1に記載の車両検知装置は、車路上の天井に画像撮像装置と赤外線センサが設置される構成となっている。その他の関連文献としては、特開2013−117768号公報、特開2013−134667号公報、特開2014−010771号公報などが挙げられる。特開2013−117768号公報、特開2013−134667号公報、特開2014−010771号公報に記載の車両検知装置は、ステレオカメラ等で斜め上から車路を撮影する構成となっている。 The vehicle detection system is used for monitoring a vehicle entering and exiting a garage or the like, a vehicle passing through a toll gate on a highway or the like, and determining a vehicle type. For example, Patent Document 1 includes an image capturing device, an image processing device that processes captured images, and an infrared sensor, and determines a passing vehicle based on a combination of a detection state of the image capturing device and a detection state of the infrared sensor. A vehicle detection device is disclosed. The vehicle detection device described in Patent Document 1 has a configuration in which an image pickup device and an infrared sensor are installed on a ceiling on a roadway. Other related documents include JP2013-117768A, JP2013-134667A, JP2014-010771A, and the like. The vehicle detection devices described in Japanese Patent Application Laid-Open Nos. 2013-117768, 2013-134667, and 2014-010771 are configured to take an image of a road from diagonally above with a stereo camera or the like.

特開2003−030778号公報Japanese Patent Laid-Open No. 2003-030778 特開2013−117768号公報JP2013-117768A 特開2013−134667号公報JP 2013-134667 A 特開2014−010771号公報JP 2014-010771 A

しかしながら特許文献1から4に記載の車両検知装置の構成では、検知精度が低い場合があった。
However, in the configuration of the vehicle detection device described in Patent Documents 1 to 4 , the detection accuracy may be low.

本発明は、検知性を向上することができる車両検知システム、画像処理サーバ及び車両検知方法を提供することを目的とする。   It is an object of the present invention to provide a vehicle detection system, an image processing server, and a vehicle detection method that can improve the detectability.

本発明の車両検知システムは、対象物の画像を取得するカメラと、カメラ撮影方向と異なる方向から対象物の形状を検知する検知器と、カメラの画像及び検知器の出力信号から対象物の3次元モデルを生成する3次元モデル生成部と、対象物の3次元モデルに基づいて対象物の判定を行う判定部と、を有している。   The vehicle detection system of the present invention includes a camera that acquires an image of an object, a detector that detects the shape of the object from a direction different from the camera shooting direction, and an object 3 based on the image of the camera and the output signal of the detector. A three-dimensional model generation unit that generates a three-dimensional model; and a determination unit that determines a target based on the three-dimensional model of the target.

本発明によれば、車両検知システムの検知性を向上することができる。   According to the present invention, the detectability of the vehicle detection system can be improved.

図1は、第1の実施形態の構成を示すブロック図である。FIG. 1 is a block diagram showing the configuration of the first embodiment. 図2は、図1の車両判定の動作を示すフローチャートである。FIG. 2 is a flowchart showing the vehicle determination operation of FIG. 図3は、第2の実施形態の構成を示すブロック図である。FIG. 3 is a block diagram showing the configuration of the second embodiment. 図4は、図3の車両判定の動作を示すフローチャートである。FIG. 4 is a flowchart showing the vehicle determination operation of FIG. 図5は、第3の実施形態の構成を示すブロック図である。FIG. 5 is a block diagram showing a configuration of the third embodiment. 図6は、第3の実施形態の各構成要素の配置を示す斜視図である。FIG. 6 is a perspective view showing the arrangement of each component of the third embodiment. 図7は、図5の車両判定及び本体部分把握の動作を示すフローチャートである。FIG. 7 is a flowchart showing operations of vehicle determination and main body part grasping in FIG.

図1は、本発明の第1の実施形態の車両検知システム1の構成を示すブロック図である。   FIG. 1 is a block diagram showing a configuration of a vehicle detection system 1 according to the first embodiment of the present invention.

図1に示すように、本実施形態の車両検知システム1は、対象物を撮影するカメラ11と、カメラ撮影方向と異なる方向から対象物の形状を検知する検知器12と、画像処理サーバ13とを備えている。また画像処理サーバ13は、カメラ11の画像及び検知器12の出力信号から対象物である車両の3次元モデルを生成する3次元モデル生成部131と、車両の判定を行う判定部132とを備えている。   As shown in FIG. 1, the vehicle detection system 1 of the present embodiment includes a camera 11 that captures an object, a detector 12 that detects the shape of the object from a direction different from the camera capturing direction, and an image processing server 13. It has. Further, the image processing server 13 includes a three-dimensional model generation unit 131 that generates a three-dimensional model of a target vehicle from the image of the camera 11 and the output signal of the detector 12, and a determination unit 132 that determines the vehicle. ing.

カメラ11は、例えば、料金所等のETC(Electronic Toll Collection)レーンに車両が進入する方向に対して、直角方向から、例えば車両の真上からETCレーンを走行する車両の俯瞰画像を取得し、取得した画像を時々刻々と3次元モデル生成部131に出力する。   For example, the camera 11 acquires an overhead view image of a vehicle traveling on the ETC lane from a direction perpendicular to the direction in which the vehicle enters an ETC (Electronic Toll Collection) lane such as a toll gate, for example, The acquired image is output to the three-dimensional model generation unit 131 every moment.

また検知器12は、例えばETCレーンの両側に設置されたポールに、発光素子と受光センサを対向して上下方向に1列に並べた構成としてもよい。検知器12は、時々刻々と、各発光素子からの光線が遮光されたか否かを示す信号を3次元モデル生成部131に出力することにより、通過中の移動物体の横方向から見た形状を3次元モデル生成部131に出力する。   The detector 12 may have a configuration in which, for example, light emitting elements and light receiving sensors are arranged in a line in the vertical direction on poles installed on both sides of the ETC lane. The detector 12 outputs a signal indicating whether or not the light beam from each light emitting element is shielded from moment to moment to the three-dimensional model generation unit 131, so that the shape of the moving object viewed from the lateral direction is displayed. The result is output to the three-dimensional model generation unit 131.

3次元モデル生成部131は、カメラ11で取得された画像と、検知器12から入力される信号に基づいて撮影している移動物体の3次元モデルを生成する。   The three-dimensional model generation unit 131 generates a three-dimensional model of the moving object being photographed based on the image acquired by the camera 11 and the signal input from the detector 12.

判定部132は、生成された3次元モデルをもとに、ETCレーンを通過する移動物体が車両であるか、等の判定を行う。   The determination unit 132 determines whether the moving object passing through the ETC lane is a vehicle based on the generated three-dimensional model.

図2は、図1の車両判定の動作を示すフローチャートである。   FIG. 2 is a flowchart showing the vehicle determination operation of FIG.

画像処理サーバ13は、カメラ11より配信される画像に対して、例えば、動的背景差分法等の車両と背景を分離する手法を用いて、移動物体の画像の範囲を特定する(ステップS1)。   The image processing server 13 specifies the range of the moving object image with respect to the image distributed from the camera 11 using, for example, a method of separating the vehicle and the background, such as a dynamic background difference method (step S1) .

次に、検出した移動物体が車両であるか判断する(ステップS2)。具体的には、例えば、検出した移動物体の大きさを算出し、大きさが閾値以上か否か、判定し、大きさが閾値以下の場合は、物体は車両ではないと判定し、画像処理を中断する。また車両候補として検出した移動物体の左右対称性を算出し、左右対称性が閾値以上か否か、判定する。左右対称性は、例えば、検出物体の中心線に対して分割されたエリアに対して画素の平均値を算出し、その差分により判定する。左右対称性が閾値以上の場合(左右の差が大きい場合)は、物体は車両ではないと判定し、画像処理を中断する。また、車両候補として検出した移動物体の矩形度を算出し、検出物体が車両かどうか判定する。矩形度は、例えば、検出物体の対角線の長さを比較することで求める。矩形度が閾値以下の場合、物体は車両ではないと判定し、画像処理を中断する。   Next, it is determined whether the detected moving object is a vehicle (step S2). Specifically, for example, the size of the detected moving object is calculated, and it is determined whether or not the size is greater than or equal to a threshold. If the size is less than or equal to the threshold, it is determined that the object is not a vehicle, and image processing is performed. Interrupt. Moreover, the left-right symmetry of the moving object detected as a vehicle candidate is calculated, and it is determined whether left-right symmetry is more than a threshold value. The left / right symmetry is determined, for example, by calculating an average value of pixels for an area divided with respect to the center line of the detected object. If the left / right symmetry is greater than or equal to the threshold (if the left / right difference is large), it is determined that the object is not a vehicle, and the image processing is interrupted. Further, the rectangularity of the moving object detected as the vehicle candidate is calculated, and it is determined whether the detected object is a vehicle. The rectangularity is obtained, for example, by comparing the lengths of the diagonal lines of the detected object. If the rectangularity is less than or equal to the threshold value, it is determined that the object is not a vehicle, and the image processing is interrupted.

次に3次元モデル生成部131は、カメラ11より配信される画像について、画像処理によって速度を検知し、画像処理で検知した速度を用いて、車両の3次元モデルを復元する。具体的には、例えば、カメラ11より配信された画像から移動物体の横方向の外形を特定する。また検知器12から連続的に入力されたサイズを示す信号と検知した速度に基づいて撮影している移動物体の横方向の外形を特定する。そしてこの2方向の外形を合成して移動物体の3次元モデルを生成する(ステップS3)。   Next, the three-dimensional model generation unit 131 detects the speed of the image distributed from the camera 11 by image processing, and restores the three-dimensional model of the vehicle using the speed detected by the image processing. Specifically, for example, the lateral outline of the moving object is specified from the image distributed from the camera 11. Further, the lateral outline of the moving object being photographed is specified based on the signal indicating the size continuously input from the detector 12 and the detected speed. Then, a three-dimensional model of the moving object is generated by synthesizing these two-direction outer shapes (step S3).

判定部132は、車両の3次元モデルに基づき、車両の判定を行う(ステップS4)。具体的には、例えば料金所であればどの料金が適用される車両であるか、判定を行う。   The determination unit 132 determines the vehicle based on the three-dimensional model of the vehicle (step S4). Specifically, for example, if it is a toll gate, it is determined which fee is applied to the vehicle.

以上、説明したように本実施形態の車両検知システム1は、カメラ11で取得された画像及び検知器12の出力信号から3次元モデルを生成して車両の台数及び特徴を判定する。検知器12のみによって横方向車両の形状を検出するものでは、飛来した異物やセンサの汚れにより対象物があると誤検出してしまうことがある。本実施形態によれば、カメラ11による画像と合わせて3次元モデルを確認することで通過車両は存在しないことを検知できる。本実施形態によれば、誤検知を抑制することができ、ETCシステム全体としての性能が向上し、ETC利用者および、道路管理者の負担を軽減することが可能となる。   As described above, the vehicle detection system 1 of the present embodiment generates a three-dimensional model from the image acquired by the camera 11 and the output signal of the detector 12, and determines the number and characteristics of the vehicles. In the case of detecting the shape of the vehicle in the lateral direction only by the detector 12, there may be a false detection that there is an object due to flying foreign matter or sensor contamination. According to this embodiment, it can be detected that there is no passing vehicle by checking the three-dimensional model together with the image from the camera 11. According to the present embodiment, erroneous detection can be suppressed, the performance of the ETC system as a whole can be improved, and the burden on the ETC user and the road administrator can be reduced.

次に本発明の第2の実施形態について説明する。第2の実施形態の車両検知システム2は、検知器12で車両を検知した場合に、検知器12からの検知信号をトリガとして画像処理サーバ13が車両判定の動作をスタートする。また図3に示すように、画像処理サーバ13に、牽引車両を精度高く検知するための一体判定部133を備えている点で第1の実施形態と異なる。   Next, a second embodiment of the present invention will be described. In the vehicle detection system 2 of the second embodiment, when the vehicle is detected by the detector 12, the image processing server 13 starts an operation of vehicle determination using a detection signal from the detector 12 as a trigger. As shown in FIG. 3, the image processing server 13 is different from the first embodiment in that the image processing server 13 includes an integrated determination unit 133 for detecting the tow vehicle with high accuracy.

図3は、本発明の第2の実施形態の車両検知システム1の構成を示すブロック図である。図4は、図3の車両判定の動作を示すフローチャートである。   FIG. 3 is a block diagram showing the configuration of the vehicle detection system 1 according to the second embodiment of the present invention. FIG. 4 is a flowchart showing the vehicle determination operation of FIG.

本実施形態では、検知器12で車両を検知した場合に、検知器12からの検知信号をトリガとして画像処理サーバ13が車両判定の動作をスタートする。画像処理サーバ13は、第1の実施形態と同様に、ステップS1からs3の処理を実行する。すなわち画像処理サーバ13は、車両検知カメラ11より配信される画像に対して、例えば、動的背景差分法等の車両と背景を分離する手法を用いて、移動物体の候補を検出する(ステップS1)。検出した移動物体が車両であるかを、大きさ、左右対称性、矩形度を算出し、それぞれの閾値と比較して判断する(ステップS2)。車両でないと判断された場合、画像処理を中断し、車両候補については車両ではないと判断した理由、排除記録を保存する。画像処理サーバ13の3次元モデル生成部131は、車両と判断された対象物について、車両検知カメラ11より配信される画像について、画像処理によって車両の速度を検知し、車両の速度を用いて車両の3次元モデルを復元する(ステップS3)。   In the present embodiment, when the vehicle is detected by the detector 12, the image processing server 13 starts the vehicle determination operation using the detection signal from the detector 12 as a trigger. Similar to the first embodiment, the image processing server 13 executes the processing from steps S1 to s3. In other words, the image processing server 13 detects moving object candidates for an image distributed from the vehicle detection camera 11 using, for example, a method of separating the vehicle and the background, such as a dynamic background subtraction method (step S1). ). Whether the detected moving object is a vehicle is determined by calculating the size, left-right symmetry, and rectangularity, and comparing with the respective threshold values (step S2). When it is determined that the vehicle is not a vehicle, the image processing is interrupted, and the reason why the vehicle candidate is determined not to be a vehicle and the exclusion record are stored. The three-dimensional model generation unit 131 of the image processing server 13 detects the speed of the vehicle by image processing for an image distributed from the vehicle detection camera 11 for the object determined to be a vehicle, and uses the vehicle speed to The three-dimensional model is restored (step S3).

次に本実施形態では、画像処理サーバ13の一体判定部133が、前後に別物体(車両)があるか判断する(ステップS10)。前後に別物体(車両)がある場合、3次元モデルに基づいて、2つの別物体(車両)が1体であるかを判断する(ステップS11)。例えば牽引棒など検知したい物体の3次元モデルを画像処理サーバ13の一体判定部133に登録しておき、2つの車両の間の部分の3次元モデルと、その3次元モデルと比較して、相関を算出するなどの処理によって、牽引棒があるか特定することができる。   Next, in this embodiment, the integrated determination unit 133 of the image processing server 13 determines whether there are separate objects (vehicles) before and after (step S10). When there are separate objects (vehicles) before and after, it is determined whether two separate objects (vehicles) are one based on the three-dimensional model (step S11). For example, a three-dimensional model of an object to be detected, such as a tow bar, is registered in the integrated determination unit 133 of the image processing server 13, and the correlation between the three-dimensional model of a portion between two vehicles and the three-dimensional model is compared. It is possible to determine whether there is a tow bar by processing such as calculating.

牽引棒がある場合は、判定部132が、2つの車両が牽引車両であり、一体であるものとして2つの3次元モデルを統合し、統合された3次元モデルに基づいて車両を判定する(ステップS12)。牽引棒と特定されるものが無い場合、後続車両を別車両としてそれぞれの3次元モデルに基づいて車両を判定する(ステップS13)。   When there is a tow bar, the determination unit 132 integrates the two three-dimensional models as if the two vehicles are tow vehicles and is integrated, and determines the vehicle based on the integrated three-dimensional model (step S12). If there is nothing specified as a tow bar, the vehicle is determined based on the respective three-dimensional model with the following vehicle as a separate vehicle (step S13).

以上、説明したように本実施形態の車両検知システムは、3次元モデルを復元して判定するため、第1の実施形態と同様の効果を奏することできるとともに、牽引車両の高精度検知により、ETCシステムにおける牽引車両の誤課金を抑えることが可能となる。   As described above, since the vehicle detection system of the present embodiment restores and determines the three-dimensional model, the same effect as that of the first embodiment can be obtained, and the ETC can be detected by high-precision detection of the tow vehicle. It is possible to suppress erroneous charging of the towing vehicle in the system.

次に、本発明の第3の実施形態について説明する。本実施形態の車両検知システム3は、3次元モデルに基づく車両判定において、車両の本体部分を把握する機能を有している点で第1、第2の実施形態と異なる。車両の全体の形状のみを検出するものでは、高所作業用の車両のバケットや、いわゆるユニック車におけるクレーンなど、車両の先端がETCゲートに設置された無線部との通信を行う本体部分と離れている場合、先端が通過してから通信が完了する時間が長くなり通信エラーと判定される恐れがあった。本実施形態によれば、第1、第2の実施形態と同様に適切に車両を判定できるとともに、ETCゲートに設置された無線部との通信を適切に行うことが可能となる。   Next, a third embodiment of the present invention will be described. The vehicle detection system 3 of the present embodiment is different from the first and second embodiments in that it has a function of grasping the main body of the vehicle in vehicle determination based on the three-dimensional model. In the case of detecting only the overall shape of the vehicle, the tip of the vehicle is separated from the main body part that communicates with the radio unit installed at the ETC gate, such as a bucket of a vehicle for working at high places or a crane in a so-called unic vehicle. In such a case, the time required for completing communication after the tip has passed increases and it may be determined that a communication error has occurred. According to the present embodiment, it is possible to appropriately determine the vehicle as in the first and second embodiments, and it is possible to appropriately perform communication with the radio unit installed in the ETC gate.

図5は、本発明の第3の実施形態の車両検知システム3の構成を示すブロック図である。図6は、第3の実施形態の各構成要素の配置を示す斜視図である。図5に示すように、本実施形態の車両検知システム3は、カメラ11、検知器12、画像処理サーバ13に加えて、車線サーバ21、ETCゲート22に設置された無線部221、ディスプレイ23、遮断機24を備えている。また本実施形態の車両検知システム3は、図6に示すようにETCレーン10の車両流入方向から、カメラ11、検知器12、ETCゲート22、ディスプレイ23、遮断機24、等が配置されている。車線サーバ21は、ETCゲート22に設置された無線部221に通過車両に対する通信指示を行い、ディスプレイ23に車両に対する料金等の表示指示を行い、遮断機24に対し遮断機の開閉指示を行う。ETCゲートに設置された無線部221は、車線サーバ21からの通信指示に従って、通過車両に対し通信を行い、通信内容や通信失敗等を車線サーバに出力する。ディスプレイ23は、車線サーバ21からの表示指示に従って表示する。遮断機24は、車線サーバ21からの開閉指示に従って、バーを開閉する。   FIG. 5 is a block diagram showing the configuration of the vehicle detection system 3 according to the third embodiment of the present invention. FIG. 6 is a perspective view showing the arrangement of each component of the third embodiment. As shown in FIG. 5, in addition to the camera 11, the detector 12, and the image processing server 13, the vehicle detection system 3 of the present embodiment includes a lane server 21, a wireless unit 221 installed in the ETC gate 22, a display 23, A circuit breaker 24 is provided. In the vehicle detection system 3 of this embodiment, as shown in FIG. 6, a camera 11, a detector 12, an ETC gate 22, a display 23, a breaker 24, and the like are arranged from the vehicle inflow direction of the ETC lane 10. . The lane server 21 instructs the radio unit 221 installed in the ETC gate 22 to communicate with the passing vehicle, instructs the display 23 to display a charge to the vehicle, and instructs the breaker 24 to open and close the breaker. The radio unit 221 installed in the ETC gate communicates with the passing vehicle in accordance with a communication instruction from the lane server 21, and outputs communication contents, communication failure, and the like to the lane server. The display 23 displays according to a display instruction from the lane server 21. The circuit breaker 24 opens and closes the bar according to the opening / closing instruction from the lane server 21.

本実施形態の車両検知システム3は、第1、第2の実施形態と同様な、車両を撮影するカメラ11と、車両の通過を検知する検知器12と、カメラ11の画像及び検知器12の出力信号から車両の3次元モデルを生成する3次元モデル生成部131を備えている。   The vehicle detection system 3 of the present embodiment is similar to the first and second embodiments, in the camera 11 that captures the vehicle, the detector 12 that detects the passage of the vehicle, the image of the camera 11 and the detector 12. A three-dimensional model generation unit 131 that generates a three-dimensional model of the vehicle from the output signal is provided.

本実施形態の判定部142は、第1、第2の実施形態の判定部132と同様に、車両の3次元モデルに基づき、車両の判定を行い、ETCの車両管理対象として、車線サーバ21に車両判定結果、車両速度を通知する。判定部142は、車両信頼度の低い検知物体は、ETCの車両管理対象外とし、車線サーバ21に通知せず、車両信頼度の高い検知物体をETCの車両管理対象とし、車線サーバ21に通知する。   Similar to the determination unit 132 of the first and second embodiments, the determination unit 142 of this embodiment determines a vehicle based on the three-dimensional model of the vehicle, and sets the vehicle management target of the ETC to the lane server 21. The vehicle determination result and vehicle speed are notified. The determination unit 142 does not notify a detected object with low vehicle reliability as an ETC vehicle management target and does not notify the lane server 21, and notifies a detected object with high vehicle reliability as an ETC vehicle management target and notifies the lane server 21. To do.

さらに本実施形態の判定部142は、高所作業用の車両のバケットや、いわゆるユニック車におけるクレーンなど、本体部分の前後に突出する付属物がある車両についてETCゲートに設置された無線部221との通信を行う本体部分の位置を把握する機能を備えている。   Further, the determination unit 142 according to the present embodiment includes a radio unit 221 installed at the ETC gate for a vehicle having an appendage protruding before and after the main body, such as a bucket of a vehicle for working at a high place or a crane in a so-called unic vehicle. It has a function to grasp the position of the main body part that performs communication.

図7は、図5の車両判定及び本体部分把握の動作を示すフローチャートである。   FIG. 7 is a flowchart showing operations of vehicle determination and main body part grasping in FIG.

本実施形態では、まず、第1、第2の実施形態と同様に、ステップS1からS3の処理を行う。すなわち、車両検知カメラ11より配信される画像に対して、例えば、動的背景差分法等の車両と背景を分離する手法を用いて、移動物体の候補を検出する(ステップS1)。検出した移動物体が車両であるかを、大きさ、左右対称性、矩形度を算出し、それぞれの閾値と比較して判断する(ステップS2)。車両でないと判断された場合、画像処理を中断し、車両候補については車両ではないと判断した理由、排除記録を保存する。3次元モデル生成部13は、車両と判断された対象物について、車両検知カメラ11より配信される画像について、画像処理によって車両の速度を検知し、車両の速度を用いて車両の3次元モデルを復元する(ステップS3)。   In the present embodiment, first, similarly to the first and second embodiments, the processes of steps S1 to S3 are performed. That is, moving object candidates are detected from the image distributed from the vehicle detection camera 11 using, for example, a method of separating the vehicle and the background, such as a dynamic background subtraction method (step S1). Whether the detected moving object is a vehicle is determined by calculating the size, left-right symmetry, and rectangularity, and comparing with the respective threshold values (step S2). When it is determined that the vehicle is not a vehicle, the image processing is interrupted, and the reason why the vehicle candidate is determined not to be a vehicle and the exclusion record are stored. The three-dimensional model generation unit 13 detects the speed of the vehicle by image processing for an image distributed from the vehicle detection camera 11 for the object determined to be a vehicle, and uses the vehicle speed to determine the three-dimensional model of the vehicle. Restore (step S3).

次に判定部142は、車両の3次元モデルに基づき、対象物の前後に別物体があるか判断する(ステップS10)。別物体があると判断した場合、それらが一体として取り扱うべきものであるか判定する(ステップS11)。具体的には、対象物の3次元モデルと、バケットがある高所作業用の車両の3次元モデルと比較し類似であると判断できれば、一体として扱うべきものとして判定する。また同様に近接している2つの対象物の3次元モデルと、クレーンがあるいわゆるユニック車の3次元モデルと比較し類似であると判断できれば、一体として扱うべきものとして3次元モデルや他の情報を統合して車両を判定する(ステップS12)。そうでなければ、3次元モデルや他の情報を統合せず、別車両として車両を判定し、車線サーバ21にそれぞれの判定結果を送信する。   Next, the determination unit 142 determines whether there is another object before and after the object based on the three-dimensional model of the vehicle (step S10). If it is determined that there are other objects, it is determined whether they should be handled as a unit (step S11). Specifically, if it can be determined that the three-dimensional model of the target object is similar to the three-dimensional model of the vehicle for working at a certain height, the bucket is determined to be handled as a unit. Similarly, if it can be judged that the three-dimensional model of two objects that are close to each other is similar to the three-dimensional model of a so-called unic vehicle, the three-dimensional model and other information should be treated as a unit. Are integrated to determine the vehicle (step S12). Otherwise, the three-dimensional model and other information are not integrated, the vehicle is determined as another vehicle, and each determination result is transmitted to the lane server 21.

ステップS10において対象物の前後に別物体がないと判断した場合、及び、ステップS12において1つの対象物として3次元モデルや他の情報を統合した場合、対象物の3次元モデルに基づいて車両を判定し、本体部分の位置を把握する(ステップS20)。例えば、バケットやクレーンなど付属物がある車両と判定した場合は、車両全体の3次元モデルからバケットやクレーンなどの付属物の3次元モデルを削除した3次元モデルを生成して、本体部分を把握するとしてもよい。判定部142は、車線サーバ13に対して、車両の先端、後端等の全体形状の情報とともに、本体部分の位置に関する情報を車線サーバに送信する。   When it is determined in step S10 that there is no separate object before and after the object, and when a three-dimensional model or other information is integrated as one object in step S12, the vehicle is determined based on the three-dimensional model of the object. Determine and grasp the position of the main body portion (step S20). For example, if it is determined that the vehicle has accessories such as buckets and cranes, a 3D model is created by deleting the 3D models of accessories such as buckets and cranes from the 3D model of the entire vehicle, and the body part is grasped. You may do that. The determination unit 142 transmits information on the position of the main body portion to the lane server 13 together with information on the overall shape such as the front and rear ends of the vehicle.

車線サーバ21は、ETCゲート22に設置された無線部221に対して、通信の動作を車両の本体部分の通過に合わせて行うよう指示する(ステップS21)。   The lane server 21 instructs the wireless unit 221 installed in the ETC gate 22 to perform communication operation in accordance with the passage of the vehicle main body (step S21).

以上、説明したように本実施形態の車両検知システム3は、3次元モデルに基づいて全体の形状の情報とともに、本体部分の情報を車線サーバに送信するので、第1の実施形態と同様の効果を奏することできるとともに、ETCゲートに設置された無線部221との通信を適切に行うことが可能となる。   As described above, since the vehicle detection system 3 according to the present embodiment transmits information on the main body portion together with information on the entire shape based on the three-dimensional model to the lane server, the same effects as those of the first embodiment are obtained. And communication with the wireless unit 221 installed in the ETC gate can be appropriately performed.

上述の第1、第2、第3の実施形態では、画像処理サーバ13は不揮発性メモリ(不図示)に記憶されているプログラムを実行することで画像処理及び車両の判定処理等の機能を実現することができる。この場合、画像処理サーバ13が実行するプログラムはコンピュータ読取り可能な記録媒体に記憶してもよく、通信回線を介してサーバからダウンロードするようにしてもよい。また、画像処理サーバ13は内部にコンピュータシステムを有しており、その処理手順はプログラム形式でコンピュータ読取り可能な記録媒体によって記憶されており、コンピュータシステムが当該プログラムを読み出して実行することにより画像処理及び車両の判定処理等を実現することができる。尚、「コンピュータシステム」とはCPU、メモリ、周辺機器などのハードウェア、オペレーティングシステム(OS)などのソフトウェアを包含する。また、「コンピュータシステム」はWWWシステムを利用している場合であれば、ホームページ提供環境・表示環境を包含する。   In the first, second, and third embodiments described above, the image processing server 13 implements functions such as image processing and vehicle determination processing by executing programs stored in a nonvolatile memory (not shown). can do. In this case, the program executed by the image processing server 13 may be stored in a computer-readable recording medium, or may be downloaded from the server via a communication line. The image processing server 13 has a computer system therein, and the processing procedure is stored in a computer-readable recording medium in a program format, and the image processing is performed by the computer system reading and executing the program. In addition, vehicle determination processing and the like can be realized. The “computer system” includes CPU, memory, hardware such as peripheral devices, and software such as an operating system (OS). Further, the “computer system” includes a homepage providing environment and a display environment if the WWW system is used.

また、上述のフローチャートに表された画像処理及び車両の判定機能を実現するプログラムをコンピュータ読取り可能な記録媒体に記録して、当該プログラムをコンピュータシステムに読み込ませて実行するようにしてもよい。「コンピュータ読取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、フラッシュメモリなどの書込可能な不揮発性メモリ、CD−ROMなどの可搬記録媒体、コンピュータシステムに内蔵されるハードディスクなどの記憶装置を意味する。   Further, a program that realizes the image processing and vehicle determination functions shown in the above-described flowchart may be recorded on a computer-readable recording medium, and the program may be read and executed by a computer system. “Computer-readable recording medium” refers to a writable non-volatile memory such as a flexible disk, a magneto-optical disk, a ROM, and a flash memory, a portable recording medium such as a CD-ROM, and a hard disk built in a computer system. Means a storage device.

また、「コンピュータ読取り記録媒体」とは、インターネットなどのネットワーク、通信回線、電話回線を介してプログラムを送信する場合に用いられるサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(例えば、DRAM)のように一定時間プログラムを保持しているものを含む。上述のプログラムを記憶装置に格納したコンピュータシステムから伝送媒体を介して、或いは、伝送媒体中の伝送波により他のコンピュータシステムに伝送するようにしてもよい。「プログラムを伝送する伝送媒体」とはインターネットなどのネットワーク(通信網)、電話回線、通信回線のように情報を伝送する機能を有する媒体を意味する。また、上述のプログラムは本発明に係る画像処理及び車両の判定機能の一部を実現するものであってもよい。或いは、上述のプログラムはコンピュータシステムに既に記録されているプログラムとの組合せで本発明の機能を実現するような差分プログラム(又は、差分ファイル)としてもよい。   The “computer-readable recording medium” refers to a volatile memory (for example, DRAM) in a computer system serving as a server or client used when transmitting a program via a network such as the Internet, a communication line, or a telephone line. So that the program is held for a certain period of time. You may make it transmit the above-mentioned program to another computer system via the transmission medium from the computer system which stored the memory | storage device, or by the transmission wave in a transmission medium. The “transmission medium for transmitting a program” means a medium having a function of transmitting information, such as a network (communication network) such as the Internet, a telephone line, and a communication line. Moreover, the above-mentioned program may implement | achieve a part of image processing which concerns on this invention, and the determination function of a vehicle. Or the above-mentioned program is good also as a difference program (or difference file) which implement | achieves the function of this invention in combination with the program already recorded on the computer system.

以上、実施形態を参照して本願発明を説明したが、本願発明は上記実施形態に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。   While the present invention has been described with reference to the embodiments, the present invention is not limited to the above embodiments. Various changes that can be understood by those skilled in the art can be made to the configuration and details of the present invention within the scope of the present invention.

例えば、上述の実施形態においては、カメラによりETCレーンを真上から画像を撮影するとして説明したが、これに限られるものではない。移動物体の横幅を検出できるものであればよく、例えば、ETCレーンの真上から光センサや電波センサをレーン横断方向に並べて移動物体の外形を検出するものでもよい。   For example, in the above-described embodiment, it has been described that the camera captures an image from directly above the ETC lane. However, the present invention is not limited to this. Any device can be used as long as it can detect the lateral width of the moving object. For example, the outer shape of the moving object may be detected by arranging optical sensors and radio wave sensors in the transverse direction of the lane from directly above the ETC lane.

1、2、3 車両検知システム
10 ETCレーン
11 カメラ
12 検知器
13 画像処理サーバ
131 3次元モデル生成部
132 判定部
133 一体判定部
21 車線サーバ
22 ETCゲート
221 無線部
23 ディスプレイ
24 遮断機
1, 2, 3 Vehicle detection system 10 ETC lane 11 Camera 12 Detector 13 Image processing server 131 Three-dimensional model generation unit 132 Determination unit 133 Integrated determination unit 21 Lane server 22 ETC gate 221 Radio unit 23 Display 24 Blocker

Claims (8)

車両の画像を取得するカメラと、カメラ撮影方向と異なる方向から前記車両の形状を検知する検知器と、前記カメラにより取得された前記画像及び前記検知器により取得された前記形状から前記車両の3次元モデルを生成する3次元モデル生成部と、前記3次元モデルに基づいて前記車両の判定を行う判定部と、を有する車両検知システム。 A camera that acquires an image of the vehicle, a detector that detects the shape of the vehicle from a direction different from the camera shooting direction, the image acquired by the camera, and the shape acquired by the detector. A vehicle detection system comprising: a three-dimensional model generation unit that generates a three-dimensional model; and a determination unit that determines the vehicle based on the three-dimensional model. 前記3次元モデル生成部から入力された複数の車両の3次元モデルに基づいて前記複数の車両が一体であるか判定する一体判定部を有する請求項1に記載の車両検知システム。 The vehicle detection system according to claim 1, further comprising an integrated determination unit that determines whether the plurality of vehicles are integrated based on a three-dimensional model of the plurality of vehicles input from the three-dimensional model generation unit. 前記判定部は、前記検知器で車両を検知した場合に、前記車両の判定を行う請求項1又は2に記載の車両検知システム。 The vehicle detection system according to claim 1, wherein the determination unit determines the vehicle when the detector detects the vehicle. 前記判定部は、前記3次元モデルに基づいて前記車両の本体部分の判定を行う請求項1ないし3のいずれかに記載の車両検知システム。 The vehicle detection system according to claim 1, wherein the determination unit determines a main body portion of the vehicle based on the three-dimensional model. 前記車両の通過に合わせて前記車両と無線通信を行う無線部と、前記判定部から前記車両の全体の情報と前記本体部分の情報を受信し、前記無線部に前記本体部分の通過に合わせて前記車両と通信を行うよう指示する車線サーバと、を有する請求項に記載の車両検知システム。 A wireless unit that performs wireless communication with the vehicle in accordance with the passage of the vehicle, and receives information on the entire vehicle and information on the main body part from the determination unit, and the wireless unit adjusts to the passage of the main body part. The vehicle detection system according to claim 4 , further comprising: a lane server that instructs to communicate with the vehicle. 車両の画像及び前記画像の取得方向と異なる方向から検知した前記車両の形状から前記車両の3次元モデルを生成する3次元モデル生成部と、前記3次元モデルに基づいて前記車両の判定を行う判定部と、を有する画像処理サーバ。 A three-dimensional model generation unit configured to generate a three-dimensional model of the vehicle from a vehicle image and a shape of the vehicle detected from a direction different from an acquisition direction of the image, and a determination to determine the vehicle based on the three-dimensional model An image processing server. 車両の画像を取得し、前記画像の取得方向と異なる方向から前記車両の形状を検知し、前記画像及び前記形状から前記車両の3次元モデルを生成し、前記3次元モデルに基づいて前記車両の判定を行う車両検知方法。 An image of the vehicle is acquired, a shape of the vehicle is detected from a direction different from the acquisition direction of the image, a three-dimensional model of the vehicle is generated from the image and the shape, and the vehicle is based on the three-dimensional model. A vehicle detection method for making a determination. コンピュータに、車両の画像及び前記画像の取得方向と異なる方向から検知した前記車両の形状から前記車両の3次元モデルを生成する処理と、前記3次元モデルに基づいて前記車両の判定を行う処理と、を実行させる車両検知プログラム。 A process of generating a three-dimensional model of the vehicle from a vehicle image and a shape of the vehicle detected from a direction different from the image acquisition direction, and a process of determining the vehicle based on the three-dimensional model; A vehicle detection program for executing
JP2014238827A 2014-11-26 2014-11-26 Vehicle detection system, image processing server, and vehicle detection method Active JP6492577B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014238827A JP6492577B2 (en) 2014-11-26 2014-11-26 Vehicle detection system, image processing server, and vehicle detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014238827A JP6492577B2 (en) 2014-11-26 2014-11-26 Vehicle detection system, image processing server, and vehicle detection method

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2019038153A Division JP2019133684A (en) 2019-03-04 2019-03-04 Vehicle detection system, image processing server and vehicle detection method

Publications (2)

Publication Number Publication Date
JP2016099945A JP2016099945A (en) 2016-05-30
JP6492577B2 true JP6492577B2 (en) 2019-04-03

Family

ID=56075892

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014238827A Active JP6492577B2 (en) 2014-11-26 2014-11-26 Vehicle detection system, image processing server, and vehicle detection method

Country Status (1)

Country Link
JP (1) JP6492577B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020101365A (en) * 2017-04-11 2020-07-02 コニカミノルタ株式会社 Surveillance system

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07320189A (en) * 1994-05-26 1995-12-08 Omron Corp Vehicle discriminating device, vehicle passage processing device, and parking lot device
JP2007249800A (en) * 2006-03-17 2007-09-27 Toshiba Corp Communication system and method
JP5677281B2 (en) * 2011-12-27 2015-02-25 株式会社東芝 Vehicle detection device

Also Published As

Publication number Publication date
JP2016099945A (en) 2016-05-30

Similar Documents

Publication Publication Date Title
WO2013132947A1 (en) Distance calculation device and distance calculation method
US9898823B2 (en) Disparity deriving apparatus, movable apparatus, robot, method of deriving disparity, method of producing disparity, and storage medium
WO2013132951A1 (en) Distance calculation device and distance calculation method
JP6906567B2 (en) Obstacle detection methods, systems, computer devices, computer storage media
JP2014101075A (en) Image processing apparatus, image processing method and program
JP6138861B2 (en) Distance calculation device
CN104103030A (en) Image analysis method, camera apparatus, control apparatus and control method
JPWO2012086821A1 (en) Positioning device and positioning method
JP2017045396A (en) Image recorder and image recording method
WO2014132490A1 (en) Vehicle specifications measurement processing device, vehicle specifications measuring method, and recording medium
JP6716857B2 (en) Mobile object, measuring system, measuring method and program
JP6677474B2 (en) Perimeter recognition device
WO2022227548A1 (en) Spill-out event detection method and apparatus, electronic device, storage medium, and computer program product
KR20120067890A (en) Apparatus for video analysis and method thereof
JP5387847B2 (en) Recording system
JPWO2016151976A1 (en) MOBILE BODY DETECTING DEVICE, IMAGE PROCESSING DEVICE, MOBILE BODY DETECTING METHOD, AND INTEGRATED CIRCUIT
JP6492577B2 (en) Vehicle detection system, image processing server, and vehicle detection method
KR102221158B1 (en) Apparatus and method for detecting vehicle type, speed and traffic using radar device and image processing
JP6577595B2 (en) Vehicle external recognition device
JP7135579B2 (en) Object detection device
JP2014238409A (en) Distance calculation device and distance calculation method
JP2019133684A (en) Vehicle detection system, image processing server and vehicle detection method
KR20210009666A (en) Apparatus for recording drive video of vehice and method thereof
JP4788399B2 (en) Pedestrian detection method, apparatus, and program
JP2013182562A (en) Shadow detector

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171016

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180718

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180724

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180913

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190218

R150 Certificate of patent or registration of utility model

Ref document number: 6492577

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150