JP2019121356A - Interference region detection apparatus and method, and electronic apparatus - Google Patents

Interference region detection apparatus and method, and electronic apparatus Download PDF

Info

Publication number
JP2019121356A
JP2019121356A JP2018200562A JP2018200562A JP2019121356A JP 2019121356 A JP2019121356 A JP 2019121356A JP 2018200562 A JP2018200562 A JP 2018200562A JP 2018200562 A JP2018200562 A JP 2018200562A JP 2019121356 A JP2019121356 A JP 2019121356A
Authority
JP
Japan
Prior art keywords
score
current frame
pixel
gray scale
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018200562A
Other languages
Japanese (ja)
Other versions
JP7163718B2 (en
Inventor
ジャン・ナヌ
Nan Zhang
ワン・チィ
Qi Wang
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Publication of JP2019121356A publication Critical patent/JP2019121356A/en
Application granted granted Critical
Publication of JP7163718B2 publication Critical patent/JP7163718B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/0008Industrial image inspection checking presence/absence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance

Landscapes

  • Engineering & Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

To provide an interference region detection apparatus and a method, and an electronic apparatus.SOLUTION: Such an interference region detection apparatus comprises: a first determination unit that determines a foreground region of a current frame of monitor video; a second determination unit that determines a gray scale reference value on the basis of gray scale value distribution within a predetermined region in a current frame; an update unit that updates a score in the current frame of the pixel on the basis of a difference between a gray scale value of the pixel and a gray scale reference value and the score in one frame before the current frame of the pixel for each pixel which exists within the predetermined region and which does not belong to a foreground point; and a third determination unit that determines an interference region on the basis of the score in the current frame of each pixel in the current frame.SELECTED DRAWING: Figure 1

Description

本発明は、情報技術に関し、特に、領域検出装置と方法及び電子機器に関する。   The present invention relates to information technology, and more particularly, to an area detection apparatus and method, and an electronic apparatus.

シティ(都市)の交通状況が複雑になるにつれて、交通状況への監視及び制御のニーズが高まっている。ビデオ監視分野では、遺失物や忘れ物に対しての検出が、多くのイベントの検出、例えば、違法駐車検出、落とし物検出、道路侵入検出などの基礎である。大部分の遺失物検出のアルゴリズムが、異なる背景モデルによるものである。しかし、現実シーンの変化が誤検出を来す恐れがあり、特に、例えば道路標識や電柱、広告看板、道路境界という干渉領域では、誤検出がよりシビアである。   As the traffic situation in the city becomes more complex, the need for monitoring and control of the traffic situation is increasing. In the field of video surveillance, detection of lost or missing items is the basis of many events such as illegal parking detection, drop detection, road intrusion detection and the like. Most lost property detection algorithms come from different background models. However, changes in the real scene may cause erroneous detection, and in particular, in an interference area such as a road sign, a telephone pole, an advertising signboard, and a road boundary, for example, the erroneous detection is more severe.

従来の道路検出アルゴリズムは、特徴に基づくアルゴリズム及びモデルに基づくアルゴリズムに分けることができ、そのうち、特徴に基づくアルゴリズムは、色特徴、幅及び辺縁(エッジ)に基づいて、各画素を線の領域又は線でない領域と標識(タグ付け)し、また、モデルに基づくアルゴリズムは、モデルに基づいて線を検出し、それは、まず、画像ブロック特徴を抽出し、その後、予め定義されたモデルとマッチングするが、この方法は、ノイズに敏感でない。   Conventional road detection algorithms can be divided into feature-based algorithms and model-based algorithms, among which feature-based algorithms are based on color features, widths and edges, and each pixel is an area of line Or tag with non-line regions and also tag-based algorithms detect lines based on the model, which first extract image block features and then match with predefined models However, this method is not sensitive to noise.

本発明の発明者は、次のようなことを発見した。即ち、上述の従来の道路検出方法のうち、特徴に基づくアルゴリズムは、参照画像が十分に明晰であり、且つ道路に他の物体がないことを要求し、モデルに基づくアルゴリズムは、そのモデルに一般的に直線モデル及び曲線モデルのみが含まれるため、各種の形状を有する道路標識などの干渉領域についてその検出効果が良くない。これらのアルゴリズムは、通常、監視開始の段階でのみ検出を行うため、監視ビデオの画像が明晰でない時に、その検出効果が悪くなり、また、監視シーンの変化又は監視カメラの振れが生じた時に、道路検出結果の信頼性が低くなる。また、リアルタイムで道路の検出を行う場合、システム処理の時間及び負担の増加を引き起こす恐れもある。   The inventor of the present invention discovered the following. That is, among the above-mentioned conventional road detection methods, the feature-based algorithm requires that the reference image is sufficiently clear and that there are no other objects on the road, and the model-based algorithm Since only straight line models and curve models are included, the detection effect is not good for interference areas such as road signs having various shapes. Since these algorithms usually detect only at the stage of surveillance start, when the surveillance video image is not clear, the detection effect becomes worse, and also when the surveillance scene changes or the surveillance camera shake occurs. The reliability of road detection results is low. In addition, when detecting roads in real time, it may cause an increase in time and burden on system processing.

本発明の実施例は、干渉領域検出装置と方法及び電子機器を提供し、監視画像の所定領域内でのグレースケール値分布に基づいてグレースケール参照値を確定し、該グレースケール参照値に基づいて画素に点数(スコア)を付け、そして、採点の結果に基づいて干渉領域を確定することで、監視シーンの変化又は監視カメラの振れが生じた場合、リアルタイム且つ正確に干渉領域を検出することができ、従来のイベント検出システムに比べ、良好な互換性を有し、各種のイベントのための検出を補助することができ、且つ計算量が少ない。   Embodiments of the present invention provide an interference area detection apparatus and method, and an electronic device, and determine gray scale reference values based on gray scale value distribution within a predetermined area of a monitoring image, and based on the gray scale reference values. By giving a score to each pixel and then determining the interference area based on the result of the marking, so as to detect the interference area in real time and accurately when a change in the surveillance scene or a shake of the surveillance camera occurs. Compared to conventional event detection systems, it has better compatibility, can help detect for various events, and has less computational effort.

本発明の実施例の第一側面によれば、干渉領域検出装置が提供され、前記装置は、監視ビデオの現在フレームの前景領域を確定する第一確定ユニット;前記現在フレーム中の所定領域内でのグレースケール値分布に基づいて、グレースケール参照値を確定する第二確定ユニット;前記所定領域内にあり且つ前景点に属しない各画素について、前記画素のグレースケール値と前記グレースケール参照値との差、及び前記画素の、前記現在フレームの前の1つのフレームにおけるスコアに基づいて、前記画素の、現在フレームにおけるスコアを更新する更新ユニット;及び、前記現在フレーム中の各画素の、現在フレームにおけるスコアに基づいて、干渉領域を確定する第三確定ユニットを含む。   According to a first aspect of an embodiment of the present invention, there is provided an apparatus for detecting an interference area, said apparatus comprising: a first determining unit for determining a foreground area of a current frame of surveillance video; within a predetermined area in the current frame A second determining unit for determining a gray scale reference value based on the gray scale value distribution of: gray scale value of the pixel and the gray scale reference value for each pixel within the predetermined area and not belonging to the foreground point An updating unit updating the score in the current frame of the pixel based on the difference of the pixels and the score of the pixel in the previous frame of the current frame; and the current frame of each pixel in the current frame And a third determination unit that determines an interference area based on the score at.

本発明の実施例の第二側面によれば、電子機器が提供され、それは、本発明の実施例の第一側面に記載の干渉領域検出装置を含む。   According to a second aspect of the embodiments of the present invention, an electronic device is provided, which includes the interference area detection device described in the first aspect of the embodiments of the present invention.

本発明の実施例の第三側面によれば、干渉領域検出方法が提供され、前記方法は、監視ビデオの現在フレームの前景領域を確定し;前記現在フレーム中の所定領域内でのグレースケール値分布に基づいて、グレースケール参照値を確定し;前記所定領域内にあり且つ前景点に属しない各画素について、前記画素のグレースケール値と前記グレースケール参照値との差、及び前記画素の、前記現在フレームの前の1つのフレームにおけるスコアに基づいて、前記画素の、現在フレームにおけるスコアを更新し;及び、前記現在フレーム中の各画素の、現在フレームにおけるスコアに基づいて、干渉領域を確定することを含む。   According to a third aspect of the present invention, there is provided a method of interference region detection, said method determining the foreground region of a current frame of surveillance video; gray scale values within a predetermined region in said current frame Based on the distribution, a gray scale reference value is determined; for each pixel in the predetermined area and not belonging to the foreground point, the difference between the gray scale value of the pixel and the gray scale reference value, and of the pixel Update the score in the current frame of the pixel based on the score in the previous one frame of the current frame; and determine the interference area based on the score in the current frame of each pixel in the current frame To do.

本発明の有益な効果は、次の通りである。即ち、監視画像の所定領域内でのグレースケール値分布に基づいてグレースケール参照値を確定し、該グレースケール参照値に基づいて画素にスコアを付け、そして、採点の結果に基づいて干渉領域を確定することで、監視シーンの変化又は監視カメラの振れが生じた場合、リアルタイム且つ正確に干渉領域を検出することができ、従来のイベント検出システムに比べ、良好な互換性を有し、各種のイベントのための検出を補助することができ、且つ計算量が少ない。   The beneficial effects of the present invention are as follows. That is, the gray scale reference value is determined based on the gray scale value distribution within the predetermined area of the monitoring image, the pixels are scored based on the gray scale reference value, and the interference area is determined based on the scoring result. By determining, if there is a change in the surveillance scene or a shake of the surveillance camera, the interference area can be detected in real time and accurately, which has better compatibility than conventional event detection systems and It can help detect for events and is less computationally intensive.

本発明の実施例1における干渉領域検出方法を示す図である。It is a figure which shows the interference area | region detection method in Example 1 of this invention. 本発明の実施例1におけるグレースケール参照値確定方法を示す図である。It is a figure which shows the gray scale reference value determination method in Example 1 of this invention. 本発明の実施例1における現在フレームを示す図である。It is a figure which shows the present flame | frame in Example 1 of this invention. 本発明の実施例1における所定領域内での前景領域以外の領域のグレースケール値のヒストグラムである。It is a histogram of the gray scale value of the area | regions other than the foreground area in the predetermined area | region in Example 1 of this invention. 本発明の実施例1において所定領域内にあり且つ前景画素に属しない各画素についてそのスコアを確定する方法を示す図である。It is a figure which shows the method of determining the score about each pixel which exists in a predetermined area | region and does not belong to a foreground pixel in Example 1 of this invention. 本発明の実施例1におけるシーン1の現在フレームを示す図である。It is a figure which shows the present flame | frame of the scene 1 in Example 1 of this invention. 図6に示す画像の検出結果画像である。It is a detection result image of the image shown in FIG. 本発明の実施例1におけるシーン2の現在フレームを示す図である。It is a figure which shows the present frame of the scene 2 in Example 1 of this invention. 図8に示す画像の検出結果画像である。It is a detection result image of the image shown in FIG. 本発明の実施例1におけるシーン3の現在フレームを示す図である。It is a figure which shows the present flame | frame of the scene 3 in Example 1 of this invention. 図10に示す画像の検出結果画像である。It is a detection result image of the image shown in FIG. 本発明の実施例2における誤検出除去方法を示す図である。It is a figure which shows the misdetection removal method in Example 2 of this invention. 図8と同じ監視ビデオの異なるフレームを示す図である。Fig. 9 shows different frames of the surveillance video as in Fig. 8; 図13に示す画像の検出結果画像である。It is a detection result image of the image shown in FIG. 図13中の候補領域4の第一勾配画像と第二勾配画像の重なり合いを示す図である。It is a figure which shows the overlap of the 1st gradient image of the candidate area | region 4 in FIG. 13, and a 2nd gradient image. 本発明の実施例2における道路標識検出方法を示す図である。It is a figure which shows the road sign detection method in Example 2 of this invention. 本発明の実施例4における干渉領域検出装置を示す図である。It is a figure which shows the interference area | region detection apparatus in Example 4 of this invention. 本発明の実施例4における第二確定ユニット1702を示す図である。It is a figure which shows the 2nd determination unit 1702 in Example 4 of this invention. 本発明の実施例4における更新ユニット1703を示す図である。It is a figure which shows the update unit 1703 in Example 4 of this invention. 本発明の実施例4における第三確定ユニット1704を示す図である。It is a figure which shows the 3rd determination unit 1704 in Example 4 of this invention. 本発明の実施例5における電子機器を示す図である。It is a figure which shows the electronic device in Example 5 of this invention. 本発明の実施例5における電子機器のシステム構成図である。It is a system block diagram of the electronic device in Example 5 of this invention.

以下、添付した図面を参照しながら、本発明を実施するための好適な実施例を詳しく説明する。   Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the attached drawings.

本実施例は、干渉領域検出方法を提供する。図1は、本実施例1における干渉領域検出方法を示す図である。図1に示すように、該方法は、次のようなステップを含む。   The present embodiment provides an interference area detection method. FIG. 1 is a diagram showing an interference area detection method in the first embodiment. As shown in FIG. 1, the method includes the following steps.

ステップ101:監視ビデオの現在フレームの前景領域を確定し;
ステップ102:該現在フレーム中の所定領域内でのグレースケール値分布に基づいて、グレースケール参照値を確定し;
ステップ103:該所定領域内にあり且つ前景点に属しない各画素について、該画素のグレースケール値と該グレースケール参照値との差、及び該画素の、現在フレームの前の1つのフレームにおけるスコアに基づいて、該画素の、現在フレームにおけるスコアを更新し;
ステップ104:該現在フレーム中の各画素の、現在フレームにおけるスコアに基づいて、干渉領域を確定する。
Step 101: Determine the foreground area of the current frame of surveillance video;
Step 102: determine a grayscale reference value based on the grayscale value distribution within the predetermined area in the current frame;
Step 103: For each pixel in the predetermined area and not belonging to the foreground point, the difference between the gray scale value of the pixel and the gray scale reference value, and the score of the pixel in one frame before the current frame Update the score in the current frame of the pixel based on
Step 104: Determine an interference area based on the score in the current frame of each pixel in the current frame.

本実施例から分かるように、監視画像の所定領域内でのグレースケール値分布に基づいてグレースケール参照値を確定し、該グレースケール参照値に基づいて画素にスコアを付け、そして、採点の結果に基づいて干渉領域を確定することで、監視シーンの変化又は監視カメラの振れが生じた場合に、リアルタイム且つ正確に干渉領域を検出することができ、従来のイベント検出システムに比べ、良好な互換性を有し、各種のイベントのための検出を補助することができ、且つ計算量が少ない。   As can be seen from this example, the gray scale reference value is determined based on the gray scale value distribution within the predetermined area of the surveillance image, the pixels are scored based on the gray scale reference value, and the scoring result By determining the interference area on the basis of this, it is possible to detect the interference area in real time and accurately when a change in the surveillance scene or a shake of the surveillance camera occurs, and it is better compatible than the conventional event detection system Can be used to aid in detection for various events, and has low computational complexity.

本実施例では、該監視ビデオは、監測する必要がある領域の上方に取り付けられたカメラにより得られても良い。   In this embodiment, the surveillance video may be obtained by a camera mounted above the area that needs to be monitored.

本実施例では、該監視ビデオは、時間的に連続した複数のフレームを有し、複数のフレームは、1つずつ検出されても良い。   In this embodiment, the surveillance video may have a plurality of temporally consecutive frames, and the plurality of frames may be detected one by one.

ステップ101では、監視ビデオの現在フレームの前景領域の確定は、従来の方法、例えば、混合ガウスモデル法、Vibeアルゴリズム、フレーム差分アルゴリズムなどを用いることができる。本実施例では、カラー背景モデル法を用いて、移動(移動物体)前景及び遺失(遺失物)前景を同時に検出する。   In step 101, the foreground region of the current frame of the surveillance video can be determined using a conventional method, for example, mixed Gaussian model method, Vibe algorithm, frame difference algorithm, and the like. In this embodiment, a color background model method is used to simultaneously detect moving (moving object) foreground and lost (lost object) foreground.

本実施例では、前景領域内での画素点は、前景点(又は、前景画素)と称されても良い。   In this embodiment, pixel points in the foreground area may be referred to as foreground points (or foreground pixels).

ステップ102では、該現在フレーム中の所定領域内でのグレースケール値分布に基づいて、グレースケール参照値を確定する。   At step 102, a gray scale reference value is determined based on the gray scale value distribution within the predetermined area in the current frame.

本実施例では、該所定領域は、関心領域(Region of Interest、ROI)であっても良く、例えば、ROI領域は、道路が所在する(存在する)領域である。   In the present embodiment, the predetermined region may be a region of interest (ROI). For example, the ROI region is a region where a road is located.

本実施例では、該グレースケール参照値は、下色(under color)のグレースケール値、例えば、路面色のグレースケール値であっても良い。   In this embodiment, the grayscale reference value may be an under color grayscale value, for example, a road surface grayscale value.

以下、本実施例におけるグレースケール参照値の取得方法を例示的に説明する。   Hereinafter, a method of obtaining gray scale reference values in the present embodiment will be described by way of example.

図2は、本発明の実施例1におけるグレースケール参照値確定方法を示す図である。図2に示すように、該方法は、次のようなステップを含む。   FIG. 2 is a diagram showing a gray scale reference value determination method in Embodiment 1 of the present invention. As shown in FIG. 2, the method includes the following steps.

ステップ201:該所定領域内での前景領域以外の領域のグレースケール値のヒストグラムを取得し;
ステップ202:所定ステップ長に従って該ヒストグラムの各ウィンドウ内での画素に対して計数を行い;
ステップ203:最大数量の画素を有するウィンドウを確定し;
ステップ204:最大数量の画素を有するウィンドウ内での画素数量最大の点に対応するグレースケール値を該グレースケール参照値とする。
Step 201: Obtain a histogram of grayscale values of an area other than the foreground area within the predetermined area;
Step 202: Count pixels in each window of the histogram according to a predetermined step length;
Step 203: Determine the window with the largest number of pixels;
Step 204: The gray scale value corresponding to the point of the maximum number of pixels in the window having the maximum number of pixels is used as the gray scale reference value.

本実施例では、所定ステップ長は、ウィンドウの幅よりも小さく、該所定ステップ長及びウィンドウの幅は、実際のニーズに応じて設定されても良い。   In the present embodiment, the predetermined step length is smaller than the width of the window, and the predetermined step length and the width of the window may be set according to the actual needs.

図3は、本発明の実施例1における現在のフレームを示す図である。図3に示すように、領域1は、ROI領域を表し、領域2は、前景領域を表す。   FIG. 3 is a diagram showing a current frame in Embodiment 1 of the present invention. As shown in FIG. 3, region 1 represents the ROI region and region 2 represents the foreground region.

図4は、本発明の実施例1における所定領域内での前景領域以外の領域のグレースケール値のヒストグラムである。図4に示すように、横坐標は、グレースケール値(0〜255)であり、縦坐標は、該グレースケール値を有する画素の数量である。所定ステップ長stepに従って各ウィンドウwin 1,win 2,……,win n中の画素に対して計数し、最大数量の画素を有するウィンドウwin maxを確定し、該ウィンドウwin max内での画素数量最大の点(縦坐標上での最高点)に対応するグレースケール値は、グレースケール参照値thresである。   FIG. 4 is a histogram of gray scale values of an area other than the foreground area in a predetermined area according to the first embodiment of the present invention. As shown in FIG. 4, the cross-seat is a grayscale value (0-255) and the vertical is the number of pixels having the grayscale value. Count the pixels in each window win 1, win 2, ..., win n according to a predetermined step length step, determine the window win max having the largest number of pixels, and maximize the number of pixels in the window win max The grayscale value corresponding to the point of (the highest point on the vertical seat) is the grayscale reference value thres.

このように、上述のステップ201〜204により、グレースケール参照値の正確性を保証することができる。   Thus, the accuracy of the gray scale reference can be ensured by the above-described steps 201-204.

ステップ103では、該所定領域内にあり且つ前景点に属しない各画素について、該画素のグレースケール値と該グレースケール参照値との差、及び該画素の、現在フレームの前の1つのフレームにおけるスコアに基づいて、該画素の、現在のフレームにおけるスコアを更新する。   In step 103, for each pixel in the predetermined area and not belonging to the foreground point, the difference between the gray scale value of the pixel and the gray scale reference value, and the pixel in the previous one frame of the current frame Based on the score, update the score in the current frame of the pixel.

本実施例では、監視ビデオの第1個目のフレームの画像を処理する前に、各画素について1つの初期スコアを設定しても良く、例えば、初期スコアは、0である。   In this embodiment, one initial score may be set for each pixel before processing the image of the first frame of the surveillance video, for example, the initial score is zero.

例えば、上述の差が0以上であり且つ該グレースケール参照値以下である時に、該画素の、現在フレームの前の1つのフレームにおけるスコアから所定スコアを減算して、該画素の、現在フレームにおけるスコアを得ることができ、該差が該グレースケール参照値よりも大きく且つ255以下である時に、該画素の、現在フレームの前の1つのフレームにおけるスコアに所定スコアを加算して、該画素の、現在フレームにおけるスコアを得ることができる。   For example, when the above difference is greater than or equal to 0 and less than or equal to the grayscale reference value, a predetermined score is subtracted from the score of the pixel in one frame before the current frame to generate the pixel in the current frame. A score can be obtained, and when the difference is greater than the gray scale reference value and less than or equal to 255, a predetermined score is added to the score of the pixel in one frame before the current frame to , You can get the score in the current frame.

本実施例では、該所定スコアは、実際のニーズに応じて設定されても良い。例えば、
該差が0〜第一閾値t1の間の数値である時に、該画素の、現在フレームの前の1つのフレームにおけるスコアから2を減算して、該画素の、現在フレームにおけるスコアを取得し;
該差が第一閾値t1〜該グレースケール参照値thresの間の数値である時に、該画素の、現在フレームの前の1つのフレームにおけるスコアから1を減算して、該画素の、現在フレームにおけるスコアを取得し;
該差が該グレースケール参照値thres〜第二閾値t2の間の数値である時に、該画素の、現在フレームの前の1つのフレームにおけるスコアに1を加算して、該画素の、現在フレームにおけるスコアを取得し;
該差が第二閾値t2〜255の間の数値である時に、該画素の、現在フレームの前の1つのフレームにおけるスコアに2を加算して、該画素の、現在フレームにおけるスコアを取得する。
In the present embodiment, the predetermined score may be set according to actual needs. For example,
2. Subtract 2 from the score of the pixel in the previous frame of the current frame when the difference is a numerical value between 0 and the first threshold t 1 to obtain the score of the pixel in the current frame;
When the difference is a numerical value between the first threshold t1 and the grayscale reference value thres, subtracting 1 from the score of the pixel in one frame before the current frame, the pixel in the current frame Get score;
When the difference is a numerical value between the gray scale reference value thres and the second threshold t2, 1 is added to the score of the pixel in one frame before the current frame, and the pixel in the current frame Get score;
When the difference is a numerical value between the second threshold t2 to 255, 2 is added to the score of the pixel in the previous one frame of the current frame to obtain the score of the pixel in the current frame.

本実施例では、各画素グレースケール値の最大範囲は、0〜255であり、第一閾値t1は、0〜thresの数値であり、第二閾値t2は、thres〜255の数値であり、その具体的な数値は、実際のニーズに応じて設定されても良い。   In the present embodiment, the maximum range of each pixel grayscale value is 0 to 255, the first threshold t1 is a numerical value of 0 to thres, and the second threshold t2 is a numerical value of thres to 255, Specific numerical values may be set according to actual needs.

例えば、以下の公式(1)に基づいて、該所定領域内にあり且つ前景点に属しない各画素のスコアを計算することができる。

Figure 2019121356
For example, based on the following formula (1), the score of each pixel within the predetermined area and not belonging to the foreground point can be calculated.
Figure 2019121356

そのうち、(x,y)は、該所定領域内にあり且つ前景点に属しない画素P(x,y)が所在する位置を示し、SCORE(x,y)は、該画素P(x,y)の、現在フレームにおけるスコアを示し、score(x,y)は、該画素P(x,y)の、前の1つのフレームにスコアを示し、Dは、該画素P(x,y)のグレースケール値と、グレースケール参照値thresとの差を示し、t1は、第一閾値を示し、t2は、第二閾値を示す。   Among them, (x, y) indicates the position where the pixel P (x, y) that is within the predetermined area and does not belong to the foreground point is located, and SCORE (x, y) indicates the position of the pixel P (x, y). In the current frame, score (x, y) indicates the score in one previous frame of the pixel P (x, y), and D indicates the score in the pixel P (x, y) The difference between the gray scale value and the gray scale reference value thres is indicated, t1 indicates a first threshold, and t2 indicates a second threshold.

図5は、本発明の実施例1において該所定領域内にあり且つ前景点に属しない各画素についてそのスコアを確定する方法を示す図である。図5に示すように、該方法は、次のようなステップを含む。   FIG. 5 is a diagram showing a method of determining the score of each pixel within the predetermined area and not belonging to the foreground point in the first embodiment of the present invention. As shown in FIG. 5, the method includes the following steps.

ステップ501:該画素のグレースケール値と、グレースケール参照値との差の絶対値|D|を計算し;
ステップ502:|D|∈[0,t1]であるかを判断し、判断結果が“はい”の場合、ステップ503に進み、判断結果が“いいえ”の場合、ステップ504に進み;
ステップ503:SCORE(x,y)=score(x,y)-2;
ステップ504:|D|∈(t1,thres]であるかを判断し、判断結果が“はい”の場合、ステップ505に進み、判断結果が“いいえ”の場合、ステップ506に進み;
ステップ505:SCORE(x,y)=score(x,y)-1;
ステップ506:|D|∈(thres,t2)であるかを判断し、判断結果が“はい”の場合、ステップ507に進み、判断結果が“いいえ”の場合、ステップ508に進み;
ステップ507:SCORE(x,y)=score(x,y)+1;
ステップ508:|D|∈[t2,255]であるかを判断し、判断結果が“はい”の場合、ステップ509に進み、判断結果が“いいえ”の場合、ステップ510に進み;
ステップ509:SCORE(x,y)=score(x,y)+2;
ステップ510:SCORE(x,y)を出力する。
Step 501: Calculate the absolute value | D | of the difference between the grayscale value of the pixel and the grayscale reference value;
Step 502: Judge whether | D | ∈ [0, t1], and if the judgment result is “yes”, proceed to step 503, and if the judgment result is “no”, proceed to step 504;
Step 503: SCORE (x, y) = score (x, y) -2;
Step 504: Judge whether | D | ∈ (t1, thres) and if the result of the determination is “Yes”, then the process proceeds to Step 505, and if the result of the determination is “No”, the process proceeds to Step 506;
Step 505: SCORE (x, y) = score (x, y) -1;
Step 506: Judge whether | D | th (thres, t2), and if the result of the determination is “Yes”, proceed to Step 507, and if the result of the determination is “No”, proceed to Step 508;
Step 507: SCORE (x, y) = score (x, y) +1;
Step 508: Judge whether | D | ∈ [t2, 255], and if the result of the determination is "Yes", proceed to Step 509, and if the result of the determination is "No", proceed to Step 510;
Step 509: SCORE (x, y) = score (x, y) +2;
Step 510: Output SCORE (x, y).

本実施例では、該所定領域内にあり且つ前景点に属しない各画素について、上述のステップ501〜510を繰り返して実行することで、該所定領域内にあり且つ前景点に属しない全ての画素のスコアを得ることができる。   In the present embodiment, by repeatedly executing steps 501 to 510 described above for each pixel in the predetermined area and not belonging to the foreground point, all the pixels in the predetermined area and not belonging to the foreground point You can get a score of

ステップ104では、該現在フレーム中の各画素の、現在フレームにおけるスコアに基づいて、干渉領域を確定する。   In step 104, an interference area is determined based on the score in the current frame of each pixel in the current frame.

例えば、現在フレーム中の各画素について、該所定領域内にあり且つ前景点に属しない画素のスコアが更新されたが、他の画素のスコアが更新されず、依然として、該画素の、前の1つのフレームにおけるスコアを保持する。現在フレームのサイズがm×nであり、m及びnは、それぞれ、現在フレームの長さ及び幅上での画素の数量であるとすれば、現在フレームの全ての画素の、現在フレームにおけるスコアにより、1つのm×nのスコア行列を構成することができる。   For example, for each pixel in the current frame, the score of the pixel within the predetermined area and not belonging to the foreground point is updated, but the score of the other pixels is not updated, and the previous one of the pixels is still Hold the score in one frame. If the size of the current frame is m × n and m and n are the numbers of pixels on the length and width of the current frame, respectively, by the score in the current frame of all the pixels of the current frame , One m × n score matrix can be constructed.

その後、現在フレーム中の各画素の、現在フレームにおけるスコアを、各画素のグレースケール値とし、現在フレームの検出結果画像を構成する。   Thereafter, the score in the current frame of each pixel in the current frame is set as the gray scale value of each pixel, and the detection result image of the current frame is configured.

本実施例では、監視ビデオの複数の連続したフレームに対して1つずつ干渉領域の検出を行い、また、各フレームの検出に当たって該スコア行列を更新する。よって、監視シーンが変わったとしても、新しいシーンに対して各画素のスコアを迅速に更新し、検出結果の正確性を保証することができる。   In this embodiment, detection of an interference area is performed one by one for a plurality of continuous frames of surveillance video, and the score matrix is updated in detecting each frame. Therefore, even if the surveillance scene changes, the score of each pixel can be rapidly updated for the new scene, and the accuracy of the detection result can be guaranteed.

図6は、本発明の実施例1におけるシーン1の現在フレームを示す図である。図7は、図6に示す画像の検出結果画像である。図6及び図7に示すように、晴天で影があるシーンについて、干渉領域検出後に、道路標識(道路分離線、矢印)、道路境界、欄干及び木の影などの干渉領域が正確に検出されている。   FIG. 6 is a diagram showing a current frame of scene 1 in the first embodiment of the present invention. FIG. 7 is a detection result image of the image shown in FIG. As shown in FIGS. 6 and 7, for a scene with clear weather and shadows, after detection of interference areas, interference areas such as road signs (road separation lines, arrows), road boundaries, balustrades and tree shadows are accurately detected. ing.

図8は、本発明の実施例1におけるシーン2の現在フレームを示す図である。図9は、図8に示す画像の検出結果画像である。図8及び図9に示すように、ノーマルシーンについて、干渉領域検出後に、道路標識(道路分離線、矢印)、道路境界、電柱などの干渉領域が正確に検出されている。   FIG. 8 is a diagram showing a current frame of scene 2 in the first embodiment of the present invention. FIG. 9 is a detection result image of the image shown in FIG. As shown in FIGS. 8 and 9, in a normal scene, after detection of an interference area, interference areas such as road signs (road separation lines, arrows), road boundaries, utility poles, etc. are accurately detected.

図10は、本発明の実施例1におけるシーン3の現在フレームを示す図である。図11は、図10に示す画像の検出結果画像である。図10及び図11に示すように、雨の夜のシーンについて、干渉領域検出後に、道路標識(道路分離線、矢印)、光が反射する路面に溜まった水などの干渉領域が正確に検出されている。   FIG. 10 shows the current frame of scene 3 in the first embodiment of the present invention. FIG. 11 is a detection result image of the image shown in FIG. As shown in FIGS. 10 and 11, for a rainy night scene, after detection of an interference area, an interference area such as a road sign (road separation line, arrow) and water accumulated on a road surface on which light is reflected is accurately detected. ing.

本実施例から分かるように、監視画像の所定領域内でのグレースケール値分布に基づいてグレースケール参照値を確定し、該グレースケール参照値に基づいて画素にスコアを付け、そして、採点の結果に基づいて干渉領域を確定すること、監視シーンの変化又は監視カメラの振れが生じた場合、リアルタイム且つ正確に干渉領域を検出することができ、従来のイベント検出システムに比べ、良好な互換性を有し、各種イベントのための検出を補助することができ、且つ計算量が少ない。   As can be seen from this example, the gray scale reference value is determined based on the gray scale value distribution within the predetermined area of the surveillance image, the pixels are scored based on the gray scale reference value, and the scoring result The interference area can be determined on the basis of a change in the surveillance scene or the camera shake, and the interference area can be detected in real time and accurately, and the compatibility is improved compared to the conventional event detection system. It can help to detect for various events, and has a small amount of calculation.

本実施例は、さらに、誤検出除去方法を提供する。図12は、本発明の実施例2における誤検出除去方法を示す図である。図12に示すように、該方法は、次のようなステップを含む。   The present embodiment further provides a method of false detection removal. FIG. 12 is a diagram showing a method for removing and detecting erroneous detection in the second embodiment of the present invention. As shown in FIG. 12, the method includes the following steps.

ステップ1201:監視ビデオの現在フレームの干渉領域検出結果画像を取得し;
ステップ1202:現在フレームの候補領域のグレースケール画像の第一勾配画像を取得し;
ステップ1203:現在フレームの干渉領域検出結果画像中の該候補領域所在領域に対応する第二勾配画像を取得し;
ステップ1204:第一勾配画像と第二勾配画像との重なった(重畳した)部分の面積と、第一勾配画像面積との比が所定閾値よりも大きい時に、該候補領域を除去する。
Step 1201: Obtain an interference area detection result image of a current frame of surveillance video;
Step 1202: Obtain a first gradient image of the grayscale image of the candidate area of the current frame;
Step 1203: Acquire a second gradient image corresponding to the candidate area location area in the interference area detection result image of the current frame;
Step 1204: The candidate region is removed when the ratio of the area of the overlapped portion of the first gradient image and the second gradient image to the first gradient image area is larger than a predetermined threshold.

本実施例では、干渉領域検出結果画像の取得方法は、実施例1を参照でき、ここでは、その詳しい説明を省略する。   In the present embodiment, the method of acquiring the interference region detection result image can refer to the first embodiment, and the detailed description thereof is omitted here.

本実施例では、勾配画像の取得方法は、従来技術を参照でき、ここでは、その詳しい説明を省略する。   In the present embodiment, the gradient image acquisition method can refer to the prior art, and the detailed description thereof is omitted here.

本実施例では、該候補領域は、イベント検出の目標物体の候補領域であっても良く、例えば、該目標物体は、移動中の車両又は道路に落とした遺失物であっても良い。   In this embodiment, the candidate area may be a candidate area of a target object for event detection. For example, the target object may be a moving vehicle or a lost object dropped on a road.

本実施例では、該所定閾値は、実際のニーズに応じて設定されても良い。   In the present embodiment, the predetermined threshold may be set according to actual needs.

図13は、図8と同じ監視ビデオの異なるフレームを示す図である。図14は、図13に示す画像の検出結果画像である。図13に示すように、それは、候補領域3及び候補領域4を有する。候補領域4については、上述のステップ1202〜1204を行う。   FIG. 13 is a diagram showing a different frame of the same surveillance video as FIG. FIG. 14 is a detection result image of the image shown in FIG. As shown in FIG. 13, it has candidate area 3 and candidate area 4. The above steps 1202 to 1204 are performed for the candidate area 4.

図15は、図13中の候補領域4の第一勾配画像と第二勾配画像の重なり合いを示す図である。図15に示すように、重なり合った領域5の面積が占める比が所定閾値よりも大きいため、候補領域4を目標物体から排除する。   FIG. 15 is a diagram showing the overlapping of the first gradient image and the second gradient image of the candidate area 4 in FIG. As shown in FIG. 15, since the ratio occupied by the area of the overlapping region 5 is larger than the predetermined threshold, the candidate region 4 is excluded from the target object.

本実施例から分かるように、検出された干渉領域を候補領域の排除のために用いることで、誤検出を有効に除去し、イベント検出の正確性を向上させることができる。   As can be understood from the present embodiment, by using the detected interference area for the exclusion of the candidate area, false detection can be effectively removed and the accuracy of event detection can be improved.

本実施例は、さらに、道路標識検出方法を提供する。図16は、本発明の実施例3における道路標識検出方法を示す図である。図16に示すように、該方法は、次のようなステップを含む。   This embodiment further provides a road sign detection method. FIG. 16 is a diagram showing a method of detecting a road sign according to a third embodiment of the present invention. As shown in FIG. 16, the method includes the following steps.

ステップ1601:監視ビデオの現在フレームの干渉領域検出結果画像を取得し;
ステップ1602:道路標識分類器を用いて、該領域検出結果画像に対して検出を行い、道路標識を取得する。
Step 1601: Obtain an interference area detection result image of a current frame of surveillance video;
Step 1602: Using a road sign classifier, detection is performed on the area detection result image to acquire a road sign.

本実施例では、干渉領域検出結果画像の取得方法は、実施例1を参照でき、ここでは、その詳しい説明を省略する。   In the present embodiment, the method of acquiring the interference region detection result image can refer to the first embodiment, and the detailed description thereof is omitted here.

本実施例では、該道路標識分類器は、従来の方法(例えば、ニューラルネットワークを利用した方法)で訓練により得ることができる。   In this embodiment, the road sign classifier can be obtained by training in a conventional manner (e.g., a method utilizing a neural network).

本実施例から分かるように、道路標識分類器を用いて、直接、干渉領域検出結果画像に対して検出を行うため、検出効率を大幅に向上させることができ、また、風などの原因でカメラが移動して監視画像中の道路標識位置が変わったとしても、干渉領域検出結果画像が道路標識を含む干渉領域をリアルタイム且つ正確に反映し得るので、道路標識検出結果の正確性及び安定性を保証することができる。   As can be understood from the present embodiment, since detection is directly performed on the interference area detection result image using a road sign classifier, the detection efficiency can be greatly improved, and a camera is caused by a wind or the like. As the interference area detection result image can reflect the interference area including the road sign in real time and accurately even if the vehicle moves and the road sign position in the surveillance image changes, the accuracy and stability of the road sign detection result Can be guaranteed.

本実施例は、さらに、干渉領域検出装置を提供し、それは、実施例1に記載の干渉領域検出方法に対応するため、該干渉領域検出装置の具体的な実施は、実施例1の干渉領域検出方法の実施を参照でき、重複記載は、省略される。   The present embodiment further provides an interference area detection apparatus, which corresponds to the interference area detection method described in the first embodiment, so a specific implementation of the interference area detection apparatus is the interference area of the first embodiment. Reference can be made to the implementation of the detection method and duplicate descriptions are omitted.

図17は、本発明の実施例4における干渉領域検出装置を示す図である。図17に示すように、干渉領域検出装置1700は、次のようなものを含む。   FIG. 17 is a diagram showing an interference area detection apparatus according to a fourth embodiment of the present invention. As shown in FIG. 17, the interference area detection device 1700 includes the following.

第一確定ユニット1701:監視ビデオの現在フレームの前景領域を確定し;
第二確定ユニット1702:現在フレーム中の所定領域内でのグレースケール値分布に基づいて、グレースケール参照値を確定し;
更新ユニット1703:該所定領域内にあり且つ前景点に属しない各画素について、該画素のグレースケール値と該グレースケール参照値との差、及び該画素の、現在フレームの前の1つのフレームにおけるスコアに基づいて、該画素の、現在フレームにおけるスコアを更新し;
第三確定ユニット1704:該現在フレーム中の各画素の、現在フレームにおけるスコアに基づいて、干渉領域を確定する。
First determining unit 1701: determining the foreground area of the current frame of the surveillance video;
Second determination unit 1702: determine gray scale reference values based on gray scale value distribution within a predetermined area in the current frame;
Update unit 1703: for each pixel in the predetermined area and not belonging to a foreground point, the difference between the gray scale value of the pixel and the gray scale reference value, and the pixel in one frame before the current frame Update the score in the current frame of the pixel based on the score;
Third determination unit 1704: determine an interference area based on the score in the current frame of each pixel in the current frame.

図18は、本発明の実施例4における第二確定ユニット1702を示す図である。図18に示すように、第二確定ユニット1702は、次のようなものを含む。   FIG. 18 is a diagram showing a second determination unit 1702 in the fourth embodiment of the present invention. As shown in FIG. 18, the second determination unit 1702 includes the following.

取得ユニット1801:該所定領域内での前景領域以外の領域のグレースケール値のヒストグラムを取得し;
計数ユニット1802:所定ステップ長に従って、該ヒストグラムの各ウィンドウ内での画素に対して計数を行い;
第四確定ユニット1803:最大数量の画素を有するウィンドウを確定し;
第五確定ユニット1804:最大数量の画素を有するウィンドウ内での画素数量最大の点に対応するグレースケール値を該グレースケール参照値とする。
Acquisition unit 1801: acquire a histogram of grayscale values in an area other than the foreground area within the predetermined area;
Counting unit 1802: Counting the pixels in each window of the histogram according to a predetermined step length;
Fourth determination unit 1803: determine the window with the largest number of pixels;
Fifth determination unit 1804: A gray scale value corresponding to the point of the maximum number of pixels in the window having the maximum number of pixels is used as the gray scale reference value.

図19は、本発明の実施例4における更新ユニット1703を示す図である。図19に示すように、更新ユニット1703は、次のようなものを含む。   FIG. 19 is a diagram showing the update unit 1703 in the fourth embodiment of the present invention. As shown in FIG. 19, the update unit 1703 includes the following.

第一更新ユニット1901:上述の差が0以上であり且つ該グレースケール参照値以下である時に、該画素の、現在フレームの前の1つのフレームにおけるスコアから所定スコアを減算して、該画素の、現在フレームにおけるスコアを取得し;
第二更新ユニット1902:該差が該グレースケール参照値よりも大きく且つ255以下である時に、該画素の、現在フレームの前の1つのフレームにおけるスコアに所定スコアを加算して、該画素の、現在フレームにおけるスコアを取得する。
First update unit 1901: Subtracting a predetermined score from the score of the pixel in one frame before the current frame, when the above difference is not less than 0 and not more than the gray scale reference value, , Get the score in the current frame;
Second update unit 1902: When the difference is greater than the gray scale reference value and less than or equal to 255, a predetermined score is added to the score of the pixel in one frame before the current frame, and the pixel of Get the score in the current frame.

例えば、第一更新ユニット1901は、該差が0以上であり且つ第一閾値以下である時に、該画素の、現在フレームの前の1つのフレームにおけるスコアから2を減算して、該画素の、現在フレームにおけるスコアを取得し、該差が第一閾値よりも大きく且つ該グレースケール参照値以下である時に、該画素の、現在フレームの前の1つのフレームにおけるスコアから1を減算して、該画素の、現在フレームにおけるスコアを取得し;
第二更新ユニット1902は、該差が該グレースケール参照値よりも大きく且つ第二閾値よりも小さい時に、該画素の、現在フレームの前の1つのフレームにおけるスコアに1を加算して、該画素の、現在フレームにおけるスコアを取得し、該差が第二閾値以上であり且つ255以下である時に、該画素の、現在フレームの前の1つのフレームにおけるスコアに2を加算して、画素の、現在フレームにおけるスコアを取得する。
For example, when the difference is greater than or equal to 0 and less than or equal to the first threshold, the first update unit 1901 subtracts 2 from the score of the pixel in one frame before the current frame to Taking a score in the current frame and subtracting 1 from the score of the pixel in the previous frame of the current frame when the difference is greater than the first threshold and less than the grayscale reference value Get the score in the current frame of the pixel;
The second updating unit 1902 adds 1 to the score of the pixel in one frame before the current frame when the difference is larger than the gray scale reference value and smaller than the second threshold value, and the pixel Obtain a score in the current frame, and when the difference is greater than or equal to the second threshold and less than or equal to 255, add 2 to the score of the pixel in one frame before the current frame; Get the score in the current frame.

図20は、本発明の実施例4における第三確定ユニット1704を示す図である。図20に示すように、第三確定ユニット1704は、次のようなものを含む。   FIG. 20 is a diagram showing a third determination unit 1704 in the fourth embodiment of the present invention. As shown in FIG. 20, the third determination unit 1704 includes the following.

構成ユニット2001:現在フレーム中の各画素の、現在フレームにおけるスコアを各画素のグレースケール値として、現在フレームの検出結果画像を構成する。   Constituent unit 2001: Constructs a detection result image of the current frame, with the score in the current frame of each pixel in the current frame as a gray scale value of each pixel.

本実施例から分かるように、道路標識分類器を用いて、直接、干渉領域検出結果画像に対して検出を行うため、検出効率を大幅に向上させることができ、また、風などの原因でカメラが移動して監視画像中の道路標識位置が変わったとしても、干渉領域検出結果画像が道路標識を含む干渉領域をリアルタイム且つ正確に反映し得るので、道路標識検出結果の正確性及び安定性を保証することができる。   As can be understood from the present embodiment, since detection is directly performed on the interference area detection result image using a road sign classifier, the detection efficiency can be greatly improved, and a camera is caused by a wind or the like. As the interference area detection result image can reflect the interference area including the road sign in real time and accurately even if the vehicle moves and the road sign position in the surveillance image changes, the accuracy and stability of the road sign detection result Can be guaranteed.

本実施例は、さらに、電子機器を提供する。図21は、本発明の実施例5における電子機器を示す図である。図21に示すように、電子機器2100は、干渉領域検出装置2101を含み、該干渉領域検出装置2101の構造及び機能は、実施例4中の記載と同じであるため、ここでは、その詳しい説明を省略する。   This embodiment further provides an electronic device. FIG. 21 is a view showing the electronic device in the fifth embodiment of the present invention. As shown in FIG. 21, the electronic device 2100 includes the interference area detection device 2101, and the structure and function of the interference area detection device 2101 are the same as those described in the fourth embodiment, and therefore, the detailed description thereof is here. Omit.

図22は、本発明の実施例5における電子機器のシステム構成図である。図22に示すように、電子機器2200は、中央処理装置2201及び記憶器2202を含んでも良く、該記憶器2202は、該中央処理装置2201に接続される。該図は、例示に過ぎず、さらに他の類型の構造により該構造に対して補充又は代替を行うことで、電気通信機能又は他の機能を実現しても良い。   FIG. 22 is a system configuration diagram of the electronic device in the fifth embodiment of the present invention. As shown in FIG. 22, the electronic device 2200 may include a central processing unit 2201 and a storage unit 2202, and the storage unit 2202 is connected to the central processing unit 2201. The figure is merely an example, and the telecommunication function or other function may be realized by supplementing or substituting the structure with another type of structure.

図22に示すように、該電子機器2200は、さらに、入力ユニット2203、表示器2204、及び電源2205を含んでも良い。   As shown in FIG. 22, the electronic device 2200 may further include an input unit 2203, a display 2204, and a power supply 2205.

1つの実施方式では、実施例4に記載の干渉領域検出装置の機能は、該中央処理装置2201に統合することができる。そのうち、該中央処理装置2201は、次のように構成されても良く、即ち、監視ビデオの現在フレームの前景領域を確定し;前記現在フレーム中の所定領域内でのグレースケール値分布に基づいてグレースケール参照値を確定し;前記所定領域内にあり且つ前景点に属しない各画素について、前記画素のグレースケール値と前記グレースケール参照値との差、及び前記画素の、前記現在フレームの前の1つのフレームにおけるスコアに基づいて、前記画素の、現在フレームにおけるスコアを更新し;前記現在フレーム中の各画素の、現在フレームにおけるスコアに基づいて、干渉領域を確定する。   In one implementation, the functionality of the interference area detection apparatus described in Example 4 can be integrated into the central processing unit 2201. Among them, the central processing unit 2201 may be configured as follows: to determine the foreground area of the current frame of the surveillance video; based on the gray scale value distribution within the predetermined area in the current frame Determine the gray scale reference value; for each pixel in the predetermined area and not belonging to the foreground point, the difference between the gray scale value of the pixel and the gray scale reference value, and of the pixel before the current frame The score of the pixel in the current frame is updated based on the score in one frame of ;; an interference area is determined based on the score in the current frame of each pixel in the current frame.

例えば、前記現在フレーム中の所定領域内でのグレースケール値分布に基づくグレースケール参照値の確定は、前記所定領域内での前景領域以外の領域のグレースケール値のヒストグラムを取得し;所定ステップ長に従って、前記ヒストグラムの各ウィンドウ内での画素に対して計数を行い;最大数量の画素を有するウィンドウを確定し;最大数量の画素を有するウィンドウ内での最高点に対応するグレースケール値を前記グレースケール参照値とする。   For example, the determination of the gray scale reference value based on the gray scale value distribution in the predetermined area in the current frame is obtained by obtaining the histogram of the gray scale values of the area other than the foreground area in the predetermined area; Count the pixels in each window of the histogram; determine the window with the largest number of pixels; gray the gray scale value corresponding to the highest point in the window with the largest number of pixels Set as scale reference value.

例えば、前記画素のグレースケール値と前記グレースケール参照値との差、及び前記画素の、前記現在フレームの前の1つのフレームにおけるスコアに基づく前記画素の、現在フレームにおけるスコアの確定は、該差が0以上であり且つ前記グレースケール参照値以下である時に、前記画素の、前記現在フレームの前の1つのフレームにおけるスコアから所定スコアを減算して、前記画素の、現在フレームにおけるスコアを取得し;該差が前記グレースケール参照値よりも大きく且つ255以下である時に、前記画素の、前記現在フレームの前の1つのフレームにおけるスコアに所定スコアを加算して、前記画素の、現在フレームにおけるスコアを取得することを含む。   For example, the difference between the gray scale value of the pixel and the gray scale reference value, and the determination of the score in the current frame of the pixel based on the score of the pixel in the previous one frame of the current frame is the difference A predetermined score is subtracted from the score of the pixel in one frame before the current frame when N is greater than or equal to 0 and less than or equal to the gray scale reference value to obtain a score of the pixel in the current frame A score of the pixel in the current frame, adding a predetermined score to the score of the pixel in one frame before the current frame when the difference is greater than the gray scale reference value and less than or equal to 255 Including getting.

例えば、該差が0以上であり且つ前記グレースケール参照値以下である時に、前記画素の、前記現在フレームの前の1つのフレームにおけるスコアから所定スコアを減算して、前記画素の、現在フレームにおけるスコアを取得することは、該差が0以上であり且つ第一閾値以下である時に、前記画素の、前記現在フレームの前の1つのフレームにおけるスコアから2を減算して、前記画素の、現在フレームにおけるスコアを取得し;該差が前記第一閾値よりも大きく且つ前記グレースケール参照値以下である時に、前記画素の、前記現在フレームの前の1つのフレームにおけるスコアから1を減算して、前記画素の、現在フレームにおけるスコアを取得することを含み、また、該差が前記グレースケール参照値よりも大きく且つ255以下である時に、前記画素の、前記現在フレームの前の1つのフレームにおけるスコアに所定スコアを加算して、前記画素の現在フレームにおけるスコアを取得することは、該値が前記グレースケール参照値よりも大きく且つ第二閾値よりも小さい時に、前記画素の、前記現在フレームの前の1つのフレームにおけるスコアに1を加算して、前記画素の、現在フレームにおけるスコアを取得し;該差が前記第二閾値以上であり且つ255以下である時に、前記画素の、前記現在フレームの前の1つのフレームにおけるスコアに2を加算して、前記画素の、現在フレームにおけるスコアを取得することを含む。   For example, when the difference is greater than or equal to 0 and less than or equal to the gray scale reference value, a predetermined score is subtracted from the score of the pixel in one frame before the current frame to generate the pixel in the current frame. In obtaining a score, when the difference is greater than or equal to 0 and less than or equal to a first threshold, 2 is subtracted from the score of the pixel in one frame before the current frame, and Obtaining a score in the frame; subtracting one from the score of the pixel in one frame before the current frame when the difference is greater than the first threshold and less than or equal to the grayscale reference value, Obtaining a score in the current frame of the pixel, and when the difference is greater than the grayscale reference value and less than or equal to 255; The predetermined score is added to the score of the pixel in one frame before the current frame to obtain the score in the current frame of the pixel, the value is larger than the gray scale reference value and the second When smaller than the threshold, add 1 to the score of the pixel in the previous frame of the current frame to obtain the score of the pixel in the current frame; the difference is greater than or equal to the second threshold And when less than or equal to 255, adding 2 to the score of the pixel in one frame before the current frame to obtain a score of the pixel in the current frame.

例えば、前記所定領域内にあり且つ前景点に属しない画素の、現在フレームにおけるスコアに基づく干渉領域の確定は、前記現在フレーム中の前記所定領域内にあり且つ前景点に属しない画素以外の他の画素のスコアを0と確定し;前記現在フレーム中の各画素の、現在フレームにおけるスコアを各画素のグレースケール値とし、前記現在フレームの検出結果画像を構成することを含む。   For example, the determination of the interference area based on the score in the current frame of the pixels in the predetermined area and not belonging to the foreground point is other than the pixels other than the pixels not in the predetermined area and not belonging to the foreground point in the current frame. The score of each pixel in the current frame is determined as the gray scale value of each pixel, and the detection result image of the current frame is configured.

もう1つの実施方式では、実施例4に記載の干渉領域検出装置は、該中央処理装置2201と別々で配置されても良く、例えば、該干渉領域検出装置を、該中央処理装置2201に接続されるチップとして構成し、該中央処理装置2201の制御で該干渉領域検出装置の機能を実現しても良い。   In another implementation, the interference area detection apparatus according to the fourth embodiment may be disposed separately from the central processing unit 2201, for example, the interference area detection apparatus may be connected to the central processing unit 2201. The chip may be configured as a chip and the function of the interference area detection device may be realized by the control of the central processing unit 2201.

本実施例では、該電子機器2200は、必ずしも図22中の全ての部品を含む必要がない。   In the present embodiment, the electronic device 2200 does not necessarily have to include all the parts in FIG.

図22に示すように、該中央処理装置2201は、制御器又は操作コントローラと称される場合があり、マイクロプロセッサ又は他の処理装置及び/又は論理装置を含んでも良く、該中央処理装置2201は、入力を受けて該電子機器2200の各部品の操作を制御することができる。   As shown in FIG. 22, the central processing unit 2201 may be referred to as a controller or an operation controller, and may include a microprocessor or other processing unit and / or logic unit, and the central processing unit 2201 , And can control the operation of each component of the electronic device 2200.

該記憶器2202は、例えば、バッファ、フレッシュメモリ、HDD、移動可能な媒体、揮発性記憶器、不揮発性記憶器又は他の適切な装置のうちの1つ又は複数であっても良い。該中央処理装置2201は、該記憶器2202に記憶のプログラムを、情報の記憶又は処理を実現するために用いられる。なお、他の部品の機能は、従来と同様であるため、ここでは、その詳しい説明を省略する。また、該電子機器2200の各部品は、専用ハードウェア、ファームウェア、ソフトウェア又はその組み合わせにより実現されても良いが、これらは、すべて、本発明の範囲に属する。   The storage 2202 may be, for example, one or more of a buffer, fresh memory, HDD, removable media, volatile storage, non-volatile storage or other suitable device. The central processing unit 2201 is used to implement a program stored in the storage unit 2202 to realize storage or processing of information. In addition, since the function of other components is the same as conventional, the detailed description is abbreviate | omitted here. Also, each component of the electronic device 2200 may be realized by dedicated hardware, firmware, software or a combination thereof, but all of them fall within the scope of the present invention.

本実施例から分かるように、道路標識分類器を用いて、直接、干渉領域検出結果画像に対して検出を行うため、検出効率を大幅に向上させることができ、また、風などの原因でカメラが移動して監視画像中の道路標識位置が変わったとしても、干渉領域検出結果画像が道路標識を含む干渉領域をリアルタイム且つ正確に反映し得るので、道路標識検出結果の正確性及び安定性を保証することができる。   As can be understood from the present embodiment, since detection is directly performed on the interference area detection result image using a road sign classifier, the detection efficiency can be greatly improved, and a camera is caused by a wind or the like. As the interference area detection result image can reflect the interference area including the road sign in real time and accurately even if the vehicle moves and the road sign position in the surveillance image changes, the accuracy and stability of the road sign detection result Can be guaranteed.

本発明の実施例は、さらに、コンピュータ可読プログラムを提供し、そのうち、干渉領域検出装置又は電子機器中で前記プログラムを実行する時、前記プログラムは、コンピュータに、干渉領域検出装置又は電子機器中で実施例1に記載の干渉領域検出方法を実行させることができる。   The embodiment of the present invention further provides a computer readable program, wherein when executing the program in an interference area detection device or an electronic device, the program comprises a computer, an interference region detection device or an electronic device. The interference area detection method described in the first embodiment can be implemented.

本発明の実施例は、さらに、コンピュータ可読プログラムを記憶した記憶媒体を提供し、そのうち、前記コンピュータ可読プログラムは、コンピュータに、干渉領域検出装置又は電子機器中で、実施例1に記載の干渉領域検出方法を実行させることができる。   The embodiment of the present invention further provides a storage medium storing a computer readable program, wherein the computer readable program causes the computer to execute the interference area described in the embodiment 1 in the interference area detection device or the electronic device. The detection method can be implemented.

また、本発明の実施例による装置、方法などは、ソフトウェアにより実現されても良く、ハードェアにより実現されてもよく、ハードェア及びソフトウェアの組み合わせにより実現されても良い。また、本発明は、このようなコンピュータ可読プログラムにも関し、即ち、前記プログラムは、ロジック部品により実行される時に、前記ロジック部品に、上述の装置又は構成要素を実現させることができ、又は、前記ロジック部品に、上述の方法又はそのステップを実現させることができる。さらに、本発明は、上述のプログラムを記憶するための記憶媒体、例えば、ハードディスク、磁気ディスク、光ディスク、DVD、フレッシュメモリなどにも関する。   In addition, an apparatus, a method, and the like according to an embodiment of the present invention may be realized by software, may be realized by hardware, or may be realized by a combination of hardware and software. The invention also relates to such a computer readable program, i.e. the program may, when executed by a logic component, cause the logic component to implement the apparatus or components described above, or The logic component may implement the above method or its steps. Furthermore, the present invention relates to a storage medium for storing the above-mentioned program, such as a hard disk, a magnetic disk, an optical disk, a DVD, a fresh memory and the like.

以上、本発明の好ましい実施形態を説明したが、本発明はこの実施形態に限定されず、本発明の趣旨を離脱しない限り、本発明に対するあらゆる変更は本発明の技術的範囲に属する。   Although the preferred embodiment of the present invention has been described above, the present invention is not limited to this embodiment, and all modifications to the present invention fall within the technical scope of the present invention unless departing from the spirit of the present invention.

Claims (10)

渉領域検出装置であって、
監視ビデオの現在フレームの前景領域を確定する第一確定ユニット;
前記現在フレーム中の所定領域内でのグレースケール値分布に基づいて、グレースケール参照値を確定する第二確定ユニット;
前記所定領域内にあり且つ前景点に属しない各画素について、前記画素のグレースケール値と前記グレースケール参照値との差、及び前記画素の、前記現在フレームの前の1つのフレームにおけるスコアに基づいて、前記画素の、前記現在フレームにおけるスコアを更新する更新ユニット;及び
前記現在フレーム中の各画素の、前記現在フレームにおけるスコアに基づいて、干渉領域を確定する第三確定ユニットを含む、装置。
It is a negotiation area detection device, and
A first determining unit for determining the foreground area of the current frame of the surveillance video;
A second determining unit for determining gray scale reference values based on gray scale value distribution within a predetermined area in the current frame;
Based on the difference between the gray scale value of the pixel and the gray scale reference value and the score of the pixel in the previous frame of the current frame for each pixel within the predetermined area and not belonging to the foreground point An updating unit updating the score in the current frame of the pixel; and a third determining unit determining an interference area based on the score in the current frame of each pixel in the current frame.
請求項1に記載の装置であって、
前記第二確定ユニットは、
前記所定領域内での前景領域以外の領域のグレースケール値のヒストグラムを取得する取得ユニット;
所定ステップ長に従って、前記ヒストグラムの各ウィンドウ内での画素に対して計数を行う計数ユニット;
最大数量の画素を有するウィンドウを確定する第四確定ユニット;及び
前記最大数量の画素を有するウィンドウ内での画素数量最大の点に対応するグレースケール値を前記グレースケール参照値とする第五確定ユニットを含む、装置。
An apparatus according to claim 1, wherein
The second determining unit is
An acquisition unit for acquiring a histogram of grayscale values of an area other than the foreground area within the predetermined area;
Counting unit for counting pixels in each window of the histogram according to a predetermined step length;
A fourth determining unit for determining a window having a maximum number of pixels; and a fifth determining unit for determining a gray scale value corresponding to a point of the maximum number of pixels in the window having the maximum number of pixels as the gray scale reference value. Devices, including:
請求項1に記載の装置であって、
前記更新ユニットは、
前記差が0以上であり且つ前記グレースケール参照値以下である時に、前記画素の、前記現在フレームの前の1つのフレームにおけるスコアから所定スコアを減算して、前記画素の、前記現在フレームにおけるスコアを得る第一更新ユニット;及び
前記差が前記グレースケール参照値よりも大きく且つ255以下である時に、前記画素の、前記現在フレームの前の1つのフレームにおけるスコアに所定スコアを加算して、前記画素の、前記現在フレームにおけるスコアを得る第二更新ユニットを含む、装置。
An apparatus according to claim 1, wherein
The update unit is
When the difference is greater than or equal to 0 and less than or equal to the grayscale reference value, a predetermined score is subtracted from the score of the pixel in one frame before the current frame to score the pixel in the current frame And adding a predetermined score to the score of the pixel in one frame before the current frame when the difference is greater than the gray scale reference value and less than or equal to 255, An apparatus, comprising: a second update unit for obtaining a score in the current frame of a pixel.
請求項3に記載の装置であって、
前記第一更新ユニットは、前記差が0以上であり且つ第一閾値以下である時に、前記画素の、前記現在フレームの前の1つのフレームにおけるスコアから2を減算して、前記画素の、前記現在フレームにおけるスコアを取得し;前記差が前記第一閾値よりも大きく且つ前記グレースケール参照値以下である時に、前記画素の、前記現在フレームの前の1つのフレームにおけるスコアから1を減算して、前記画素の、前記現在フレームにおけるスコアを取得し、
前記第二更新ユニットは、前記差が前記グレースケール参照値よりも大きく且つ第二閾値よりも小さい時に、前記画素の、前記現在フレームの前の1つのフレームにおけるスコアに1を加算して、前記画素の、前記現在フレームにおけるスコアを取得し;前記差が前記第二閾値以上であり且つ255以下である時に、前記画素の、前記現在フレームの前の1つのフレームにおけるスコアに2を加算して、前記画素の、前記現在フレームにおけるスコアを取得する、装置。
The apparatus according to claim 3, wherein
The first update unit subtracts 2 from the score of the pixel in one frame before the current frame when the difference is greater than or equal to 0 and less than or equal to a first threshold, and the first update unit Obtaining a score in the current frame; subtracting one from the score of the pixel in the previous frame of the current frame when the difference is greater than the first threshold and less than or equal to the grayscale reference value , Get the score of the current frame in the pixel,
The second updating unit adds 1 to the score of the pixel in one frame before the current frame when the difference is larger than the gray scale reference value and smaller than a second threshold value. Obtaining a score of the pixel in the current frame; adding 2 to the score of the pixel in a frame before the current frame when the difference is greater than or equal to the second threshold and less than or equal to 255 An apparatus for obtaining a score in the current frame of the pixel.
請求項1に記載の装置であって、
前記第三確定ユニットは、
前記現在フレーム中の各画素の、前記現在フレームにおけるスコアを各画素のグレースケール値として、前記現在フレームの検出結果画像を構成する構成ユニットを含む、装置。
An apparatus according to claim 1, wherein
The third determined unit is
An apparatus, comprising: a configuration unit that configures a detection result image of the current frame, using the score of each pixel in the current frame in the current frame as a gray scale value of each pixel.
請求項1〜5のうちの任意の1項に記載の干渉領域検出装置を含む、電子機器。   An electronic apparatus comprising the interference area detection device according to any one of claims 1 to 5. 干渉領域検出方法であって、
監視ビデオの現在フレームの前景領域を確定し;
前記現在フレーム中の所定領域内でのグレースケール値分布に基づいて、グレースケール参照値を確定し;
前記所定領域内にあり且つ前景点に属しない各画素について、前記画素のグレースケール値と前記グレースケール参照値との差、及び前記画素の、前記現在フレームの前の1つのフレームにおけるスコアに基づいて、前記画素の、前記現在フレームにおけるスコアを更新し;及び
前記現在フレーム中の各画素の、前記現在フレームにおけるスコアに基づいて、干渉領域を確定するステップを含む、方法。
A method of detecting an interference area,
Determine the foreground area of the current frame of surveillance video;
Determining a gray scale reference value based on the gray scale value distribution within the predetermined area in the current frame;
Based on the difference between the gray scale value of the pixel and the gray scale reference value and the score of the pixel in the previous frame of the current frame for each pixel within the predetermined area and not belonging to the foreground point And updating the score of the pixel in the current frame; and determining an interference region based on the score in the current frame of each pixel in the current frame.
請求項7に記載の方法であって、
前記現在フレーム中の所定領域内でのグレースケール値分布に基づいて、グレースケール参照値を確定するステップは、
前記所定領域内での前景領域以外の領域のグレースケール値のヒストグラムを取得し;
所定ステップ長に従って、前記ヒストグラムの各ウィンドウ内での画素に対して計数を行い;
最大数量の画素を有するウィンドウを確定し;及び
前記最大数量の画素を有するウィンドウ内での画素数量最大の点に対応するグレースケール値を前記グレースケール参照値とすることを含む、方法。
The method according to claim 7, wherein
Determining a gray scale reference value based on the gray scale value distribution in a predetermined area in the current frame;
Obtaining a histogram of gray scale values of an area other than the foreground area within the predetermined area;
Count pixels in each window of the histogram according to a predetermined step length;
Defining a window with the largest number of pixels; and taking the grayscale value corresponding to the point of the largest number of pixels in the window with the largest number of pixels as the gray scale reference value.
請求項7に記載の方法であって、
前記画素のグレースケール値と前記グレースケール参照値との差、及び前記画素の、前記現在フレームの前の1つのフレームにおけるスコアに基づいて、前記画素の、前記現在フレームにおけるスコアを確定するステップは、
前記差が0以上であり且つ前記グレースケール参照値以下である時に、前記画素の、前記現在フレームの前の1つのフレームにおけるスコアから所定スコアを減算して、前記画素の、前記現在フレームにおけるスコアを取得し;
前記差が前記グレースケール参照値よりも大きく且つ255以下である時に、前記画素の、前記現在フレームの前の1つのフレームにおけるスコアに所定スコアを加算して、前記画素の、前記現在フレームにおけるスコアを取得することを含む、方法。
The method according to claim 7, wherein
Determining the score of the pixel in the current frame based on the gray scale value of the pixel and the difference between the gray scale reference value and the score of the pixel in one frame before the current frame; ,
When the difference is greater than or equal to 0 and less than or equal to the grayscale reference value, a predetermined score is subtracted from the score of the pixel in one frame before the current frame to score the pixel in the current frame To get;
When the difference is greater than the gray scale reference value and less than or equal to 255, a predetermined score is added to the score of the pixel in one frame before the current frame to score the pixel in the current frame How to get involved.
請求項9に記載の方法であって、
前記差が0以上であり且つ前記グレースケール参照値以下である時に、前記画素の、前記現在フレームの前の1つのフレームにおけるスコアから所定スコアを減算して、前記画素の、前記現在フレームにおけるスコアを取得するステップは、
前記差が0以上であり且つ第一閾値以下である時に、前記画素の、前記現在フレームの前の1つのフレームにおけるスコアから2を減算して、前記画素の、前記現在フレームにおけるスコアを取得し;及び
前記差が前記第一閾値よりも大きく且つ前記グレースケール参照値以下である時に、前記画素の、前記現在フレームの前の1つのフレームにおけるスコアから1を減算して、前記画素の、前記現在フレームにおけるスコアを取得することを含み、
前記差が前記グレースケール参照値よりも大きく且つ255以下である時に、前記画素の、前記現在フレームの前の1つのフレームにおけるスコアに所定スコアを加算して、前記画素の、前記現在フレームにおけるスコアを取得するステップは、
前記差が前記グレースケール参照値よりも大きく且つ第二閾値よりも小さい時に、前記画素の、前記現在フレームの前の1つのフレームにおけるスコアに1を加算して、前記画素の、前記現在フレームにおけるスコアを取得し;及び
前記差が前記第二閾値以上であり且つ255以下である時に、前記画素の、前記現在フレームの前の1つのフレームにおけるスコアに2を加算して、前記画素の、前記現在フレームにおけるスコアを取得することを含む、方法。
The method according to claim 9, wherein
When the difference is greater than or equal to 0 and less than or equal to the grayscale reference value, a predetermined score is subtracted from the score of the pixel in one frame before the current frame to score the pixel in the current frame The steps to get
When the difference is greater than or equal to 0 and less than or equal to a first threshold, 2 is subtracted from the score of the pixel in the previous frame of the current frame to obtain the score of the pixel in the current frame And subtracting one from the score of the pixel in the previous one frame of the current frame when the difference is greater than the first threshold and less than or equal to the grayscale reference value; Including obtaining the score in the current frame,
When the difference is greater than the gray scale reference value and less than or equal to 255, a predetermined score is added to the score of the pixel in one frame before the current frame to score the pixel in the current frame The steps to get
When the difference is greater than the gray scale reference value and less than a second threshold, adding 1 to the score of the pixel in one frame before the current frame, the pixel in the current frame Obtaining a score; and adding 2 to the score of the pixel in a frame before the current frame when the difference is greater than or equal to the second threshold and less than or equal to 255; A method, including obtaining a score in the current frame.
JP2018200562A 2018-01-10 2018-10-25 INTERFERENCE AREA DETECTION DEVICE AND METHOD, AND ELECTRONIC DEVICE Active JP7163718B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201810021654.0A CN110033425B (en) 2018-01-10 2018-01-10 Interference area detection device and method and electronic equipment
CN201810021654.0 2018-01-10

Publications (2)

Publication Number Publication Date
JP2019121356A true JP2019121356A (en) 2019-07-22
JP7163718B2 JP7163718B2 (en) 2022-11-01

Family

ID=67234171

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018200562A Active JP7163718B2 (en) 2018-01-10 2018-10-25 INTERFERENCE AREA DETECTION DEVICE AND METHOD, AND ELECTRONIC DEVICE

Country Status (2)

Country Link
JP (1) JP7163718B2 (en)
CN (1) CN110033425B (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110782501A (en) * 2019-09-09 2020-02-11 西安万像电子科技有限公司 Image processing method and device

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110569840B (en) * 2019-08-13 2023-05-16 浙江大华技术股份有限公司 Target detection method and related device
CN115063323B (en) * 2022-08-16 2022-11-15 威海凯思信息科技有限公司 Image processing method and device based on adaptive network

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008293325A (en) * 2007-05-25 2008-12-04 Noritsu Koki Co Ltd Face image analysis system
JP2016219935A (en) * 2015-05-18 2016-12-22 シャープ株式会社 Image processing system, image processing method, and program
JP2017030380A (en) * 2015-07-29 2017-02-09 株式会社京三製作所 Train detection system and train detection method

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA1216933A (en) * 1984-06-01 1987-01-20 George F. Blackwell Gray scale image processor
WO2005099423A2 (en) * 2004-04-16 2005-10-27 Aman James A Automatic event videoing, tracking and content generation system
US7865015B2 (en) * 2006-02-22 2011-01-04 Huper Laboratories Co. Ltd. Method for video object segmentation
CN100468245C (en) * 2007-04-29 2009-03-11 浙江工业大学 Air conditioner energy saving controller based on omnibearing computer vision
GB2446293A (en) * 2008-01-31 2008-08-06 Siemens Ag Video based monitoring system and method
CN101398894B (en) * 2008-06-17 2011-12-07 浙江师范大学 Automobile license plate automatic recognition method and implementing device thereof
CN101630363B (en) * 2009-07-13 2011-11-23 中国船舶重工集团公司第七〇九研究所 Rapid detection method of face in color image under complex background
US8660355B2 (en) * 2010-03-19 2014-02-25 Digimarc Corporation Methods and systems for determining image processing operations relevant to particular imagery
US9129277B2 (en) * 2011-08-30 2015-09-08 Digimarc Corporation Methods and arrangements for identifying objects
KR20150084939A (en) * 2012-11-12 2015-07-22 비헤이버럴 레코그니션 시스템즈, 인코포레이티드 Image stabilization techniques for video surveillance systems
CN103778786B (en) * 2013-12-17 2016-04-27 东莞中国科学院云计算产业技术创新与育成中心 A kind of break in traffic rules and regulations detection method based on remarkable vehicle part model
US9471844B2 (en) * 2014-10-29 2016-10-18 Behavioral Recognition Systems, Inc. Dynamic absorption window for foreground background detector
WO2016069902A2 (en) * 2014-10-29 2016-05-06 Behavioral Recognition Systems, Inc. Background foreground model with dynamic absorbtion window and incremental update for background model thresholds
US9460522B2 (en) * 2014-10-29 2016-10-04 Behavioral Recognition Systems, Inc. Incremental update for background model thresholds
WO2017028029A1 (en) * 2015-08-14 2017-02-23 富士通株式会社 Background model extracting method and apparatus and image processing device
WO2017028047A1 (en) * 2015-08-14 2017-02-23 富士通株式会社 Background model extracting method and apparatus and image processing device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008293325A (en) * 2007-05-25 2008-12-04 Noritsu Koki Co Ltd Face image analysis system
JP2016219935A (en) * 2015-05-18 2016-12-22 シャープ株式会社 Image processing system, image processing method, and program
JP2017030380A (en) * 2015-07-29 2017-02-09 株式会社京三製作所 Train detection system and train detection method

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
鷲見 育亮 外4名: "自己組織化マップを用いた濃淡画像からの輪郭抽出手法DCDAM", 情報処理学会研究報告, vol. 第2008巻 第10号, JPN6022028255, 31 January 2008 (2008-01-31), JP, pages 7 - 13, ISSN: 0004822935 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110782501A (en) * 2019-09-09 2020-02-11 西安万像电子科技有限公司 Image processing method and device
CN110782501B (en) * 2019-09-09 2024-02-23 西安万像电子科技有限公司 Image processing method and device

Also Published As

Publication number Publication date
CN110033425A (en) 2019-07-19
JP7163718B2 (en) 2022-11-01
CN110033425B (en) 2023-03-28

Similar Documents

Publication Publication Date Title
Sommer et al. A survey on moving object detection for wide area motion imagery
JP5747549B2 (en) Signal detector and program
CN104392468B (en) Based on the moving target detecting method for improving visual background extraction
JP2018205920A (en) Learning program, learning method and object detecting apparatus
JP2013065304A (en) High-speed obstacle detection
CN104700430A (en) Method for detecting movement of airborne displays
JP2012038318A (en) Target detection method and device
CN111932596B (en) Method, device and equipment for detecting camera occlusion area and storage medium
JP7163718B2 (en) INTERFERENCE AREA DETECTION DEVICE AND METHOD, AND ELECTRONIC DEVICE
Lian et al. A novel method on moving-objects detection based on background subtraction and three frames differencing
WO2017120796A1 (en) Pavement distress detection method and apparatus, and electronic device
JP2017522647A (en) Method and apparatus for object tracking and segmentation via background tracking
KR101841966B1 (en) Method and apparatus for removing shadow of moving object in an image
CN115761668A (en) Camera stain recognition method and device, vehicle and storage medium
US20130027550A1 (en) Method and device for video surveillance
Verma et al. Analysis of moving object detection and tracking in video surveillance system
Shi et al. A method for detecting pedestrian height and distance based on monocular vision technology
CN110858392A (en) Monitoring target positioning method based on fusion background model
Balisavira et al. Real-time object detection by road plane segmentation technique for ADAS
CN117041484B (en) People stream dense area monitoring method and system based on Internet of things
CN111191482A (en) Brake lamp identification method and device and electronic equipment
Balcilar et al. Extracting vehicle density from background estimation using Kalman filter
Sridevi et al. Automatic generation of traffic signal based on traffic volume
CN111027560B (en) Text detection method and related device
KR102516172B1 (en) System, Method for Extracting Color of Foreground and Computer Readable Record Medium Thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210709

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220624

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220712

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220907

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220920

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221003

R150 Certificate of patent or registration of utility model

Ref document number: 7163718

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150