KR20200122900A - Vehicle tracking system based on surveillance videos - Google Patents

Vehicle tracking system based on surveillance videos Download PDF

Info

Publication number
KR20200122900A
KR20200122900A KR1020190046304A KR20190046304A KR20200122900A KR 20200122900 A KR20200122900 A KR 20200122900A KR 1020190046304 A KR1020190046304 A KR 1020190046304A KR 20190046304 A KR20190046304 A KR 20190046304A KR 20200122900 A KR20200122900 A KR 20200122900A
Authority
KR
South Korea
Prior art keywords
vehicle
data
image
license plate
byte array
Prior art date
Application number
KR1020190046304A
Other languages
Korean (ko)
Inventor
황인준
정승원
Original Assignee
고려대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 고려대학교 산학협력단 filed Critical 고려대학교 산학협력단
Priority to KR1020190046304A priority Critical patent/KR20200122900A/en
Publication of KR20200122900A publication Critical patent/KR20200122900A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/5846Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using extracted text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/63Querying
    • G06K9/3258
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/62Text, e.g. of license plates, overlay texts or captions on TV images
    • G06V20/625License plates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/62Text, e.g. of license plates, overlay texts or captions on TV images
    • G06V20/63Scene text, e.g. street names
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • G06K2209/15

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Library & Information Science (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Traffic Control Systems (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

Disclosed is a vehicle tracking system based on surveillance videos. The disclosed system comprises: a frame distribution unit configured to receive video streams from a plurality of video acquisition devices existing in different positions, divide the video streams into video frame units, convert each of the divided video frames into data in a byte array, and transmit the data in the byte array corresponding to the video frames according to the video frame units; a feature extraction unit configured to restore the video frames using the data in the byte array transmitted from the frame distribution unit and extract a license plate of a vehicle in the video streams based on the restored video frames; and an information management unit configured to store the extracted license plate of the vehicle, transmitted from the feature extraction unit, and provide the user with a query processing result of the vehicle tracking based on the stored license plate, when a query for vehicle tracking is inputted from a user. Each of the frame distribution unit, the feature extraction unit, and the information management unit is configured based on a distributed processing framework. According to the present invention, the vehicle tracking system can accurately identify the location of a specific vehicle.

Description

감시 영상 기반의 차량 추적 시스템{Vehicle tracking system based on surveillance videos}Vehicle tracking system based on surveillance videos

본 발명의 실시예들은 CCTV, 차량 블랙박스, 드론 카메라 등의 감시 영상 촬영 장치에서 수집된 감시 영상을 수집하고, 분산 처리 프레임워크 기반에서 처리하여 영상 속에 목격된 차량을 추적하는 차량 추적 시스템에 관한 것이다. Embodiments of the present invention relates to a vehicle tracking system that collects surveillance images collected from surveillance video recording devices such as CCTV, vehicle black box, and drone camera, and processes them based on a distributed processing framework to track a vehicle observed in the image. will be.

CCTV, 차량의 블랙박스, 드론 카메라 등의 감시 영상 촬영 장치가 사용되고, 수많은 감시 영상이 실시간으로 생성되고 있다. 최근, 하둡을 기반으로 한 분산 처리 프레임워크가 발달하였고, 실시간으로 수많은 영상들이 생성되더라도 빠르게 처리할 수 있는 기반이 마련되어 있다.Surveillance video recording devices such as CCTV, vehicle black boxes, and drone cameras are used, and numerous surveillance images are being generated in real time. In recent years, a distributed processing framework based on Hadoop has been developed, and even if a large number of images are generated in real time, a basis for fast processing has been established.

한편, 차량의 경로를 추적할 수 있는 시스템은 범죄 차량을 추적할 때 드는 시간과 노동력을 줄여줄 수 있고, 상기한 시스템에 누적된 데이터는 도로 건설, 빠른 경로 검색 등에 사용할 참고 자료가 될 수 있다. On the other hand, a system capable of tracking a vehicle's path can reduce the time and labor required to track a criminal vehicle, and the data accumulated in the above-described system can be used as a reference material for use in road construction, fast route search, etc. .

종래의 차량 경로를 추적하는 시스템의 대부분은 차량에 설치된 GPS 장치의 신호를 기반으로 한다. 그러나, 상기한 종래 시스템은 높은 정확도를 보여줄 수 있지만 GPS 장치가 설치되지 않은 차량의 경우 전혀 추적을 할 수 없다는 단점이 존재한다. 이러한 단점은 특히 범죄 차량을 추적하게 될 경우 두드러진다. Most of the conventional vehicle path tracking systems are based on signals from GPS devices installed in the vehicle. However, although the above-described conventional system can show high accuracy, there is a disadvantage that a vehicle without a GPS device cannot be tracked at all. This shortcoming is especially noticeable when you're tracking a criminal vehicle.

따라서, 상기한 종래 시스템의 단점을 보완하기 위해, 감시 영상 기반의 차량 추적 연구가 최근 진행되고 있다. 하지만, 감시 영상 내에서만 차량을 추적하거나 좁은 지역에서만 차량을 추적하는 등 실제로 활용될 수 있을 만큼 발전은 이루지 못했다. Therefore, in order to compensate for the shortcomings of the above-described conventional system, research on vehicle tracking based on a surveillance image has been recently conducted. However, it has not been developed enough to be practically utilized, such as tracking vehicles only within surveillance images or tracking vehicles only in a small area.

상기한 바와 같은 종래기술의 문제점을 해결하기 위해, 본 발명에서는 CCTV, 차량 블랙박스, 드론 카메라 등의 감시 영상 촬영 장치에서 수집된 감시 영상을 수집하고, 분산 처리 프레임워크 기반에서 처리하여 영상 속에 목격된 차량을 추적하는 차량 추적 시스템을 제안하고자 한다. In order to solve the problems of the prior art as described above, in the present invention, in the present invention, surveillance images collected from surveillance video recording devices such as CCTV, vehicle black box, and drone camera are collected, processed based on a distributed processing framework, and observed in the image. We would like to propose a vehicle tracking system that tracks a broken vehicle.

본 발명의 다른 목적들은 하기의 실시예를 통해 당업자에 의해 도출될 수 있을 것이다.Other objects of the present invention may be derived by those skilled in the art through the following examples.

상기한 목적을 달성하기 위해 본 발명의 바람직한 일 실시예에 따르면, 서로 다른 위치에 존재하는 복수의 영상 획득 장치로부터 영상 스트림을 수신하고, 상기 영상 스트림을 영상 프레임 단위로 분할하고, 상기 분할된 영상 프레임들 각각을 바이트 배열의 데이터로 변환하고, 상기 영상 프레임들과 대응되는 바이트 배열의 데이터를 상기 영상 프레임 단위로 전송하는 프레임 분배부; 상기 프레임 분배부로부터 전송된 상기 바이트 배열의 데이터를 이용하여 상기 영상 프레임들을 복원하고, 상기 복원된 영상 프레임들에 기초하여 상기 영상 스트림 내의 차량의 번호판을 추출하는 특징 추출부; 및 상기 특징 추출부로부터 전달된 상기 추출된 차량의 번호판을 저장하고, 사용자로부터 차량 추적의 질의가 입력되면 상기 저장된 번호판에 기반하여 상기 차량 추적의 질의 처리 결과를 상기 사용자에게 제공하는 정보 관리부;를 포함하되, 상기 프레임 분배부, 상기 특징 추출부 및 상기 정보 관리부 각각은 분산 처리 프레임워크를 기반으로 구성되는 것을 특징으로 하는 차량 추적 시스템이 제공된다. In order to achieve the above object, according to a preferred embodiment of the present invention, an image stream is received from a plurality of image acquisition devices located at different locations, the image stream is divided into image frames, and the divided image A frame distribution unit for converting each of the frames into data in a byte array and transmitting data in a byte array corresponding to the image frames in units of the image frames; A feature extracting unit for restoring the image frames using the data of the byte array transmitted from the frame distribution unit, and extracting a license plate of a vehicle in the image stream based on the restored image frames; And an information management unit that stores the extracted vehicle license plate transmitted from the feature extraction unit, and provides a result of the vehicle tracking query processing result to the user based on the stored license plate when a vehicle tracking query is input by the user. Including, wherein each of the frame distribution unit, the feature extraction unit, and the information management unit is provided based on a distributed processing framework.

상기 프레임 분배부는 적어도 하나의 스트림 매니저 및 복수의 분배 노드를 포함하고, 상기 적어도 하나의 스트림 매니저 각각은, 상기 복수의 영상 획득 장치 중 대응되는 일부의 영상 획득 장치로부터 상기 영상 스트림을 수신하고, 상기 영상 스트림을 상기 영상 프레임 단위로 분할하고, 상기 분할된 영상 프레임들 각각을 바이트 배열의 데이터로 변환하고, 상기 변환된 바이트 배열의 데이터를 상기 영상 프레임 단위로 상기 복수의 분배 노드 중 대응되는 일부의 분배 노드로 전송할 수 있다. The frame distribution unit includes at least one stream manager and a plurality of distribution nodes, and each of the at least one stream manager receives the image stream from a corresponding partial image acquisition device among the plurality of image acquisition devices, and the Dividing the video stream into the unit of the video frame, converting each of the divided video frames into data of a byte array, and converting the converted data of the byte array into the unit of the video frame. Can be transmitted to the distribution node.

상기 특징 추출부는 복수의 처리 노드를 포함하되, 상기 복수의 처리 노드 각각은 상기 바이트 배열의 데이터를 이용하여 상기 차량의 번호판을 추출하며, 상기 정보 관리부는 복수의 저장 노드를 포함하되, 상기 복수의 저장 노드 각각은 상기 추출된 차량의 번호판을 저장할 수 있다. The feature extracting unit includes a plurality of processing nodes, each of the plurality of processing nodes extracting the license plate of the vehicle using the data of the byte array, and the information management unit includes a plurality of storage nodes, wherein the plurality of processing nodes Each of the storage nodes may store the extracted license plate of the vehicle.

상기 복수의 분배 노드는 카프카 클러스터 내의 카프카 노드이고, 상기 복수의 저장 노드는 HBase 노드일 수 있다. The plurality of distribution nodes may be Kafka nodes in a Kafka cluster, and the plurality of storage nodes may be HBase nodes.

상기 복수의 영상 획득 장치는 제1 메타데이터를 상기 영상 스트림과 함께 상기 프레임 분배부로 더 전송하되, 상기 제1 메타데이터는 상기 영상 스트림이 생성된 시간 및 공간의 정보를 포함하고, 상기 프레임 분배부는 상기 바이트 배열의 데이터를 전송하기 전에 제2 메타데이터를 미리 전송하고, 상기 제1 메타데이터를 상기 바이트 배열의 데이터와 함께 전송하되, 상기 제2 메타데이터는 상기 영상 프레임의 너비, 높이, 채널 정보를 포함하며, 상기 특징 추출부는 상기 제2 메타데이터를 참조하여 상기 차량의 번호판을 추출할 수 있다. The plurality of image acquisition devices further transmit first metadata together with the image stream to the frame distribution unit, wherein the first metadata includes information on time and space when the image stream is generated, and the frame distribution unit Before transmitting the data of the byte array, second metadata is transmitted in advance, and the first metadata is transmitted together with the data of the byte array, wherein the second metadata includes width, height, and channel information of the image frame. Including, the feature extracting unit may extract the license plate of the vehicle by referring to the second metadata.

상기 정보 관리부에 저장된 차량의 번호판은 상기 제1 메타데이터를 이용한 인덱스 기반으로 저장될 수 있다. The license plate of the vehicle stored in the information management unit may be stored based on an index using the first metadata.

본 발명에 따르면, 넓은 범위에 분포된 감시 영상 촬영 장치에서 생성된 감시 영상을 처리하여 통합함으로써, 특정 차량의 위치와 시각을 정확하게 파악하여 사용자에게 제공할 수 있는 장점이 있다. According to the present invention, by processing and integrating a surveillance image generated by a surveillance image capturing apparatus distributed over a wide range, the location and time of a specific vehicle can be accurately identified and provided to a user.

또한, 본 발명에 따르면, 차량 추적 시스템에서 처리되어 저장되는 데이터들은 범죄 차량 추적뿐만 아니라 도로 건설 계획의 참고 자료, 실시간 길 찾기에 필요한 교통 정보 등으로 활용될 수 있다.In addition, according to the present invention, the data processed and stored in the vehicle tracking system can be used as a reference material for road construction plans, traffic information required for real-time road finding, and the like, as well as criminal vehicle tracking.

또한, 본 발명의 효과는 상기한 효과로 한정되는 것은 아니며, 본 발명의 상세한 설명 또는 특허청구범위에 기재된 발명의 구성으로부터 추론 가능한 모든 효과를 포함하는 것으로 이해되어야 한다.In addition, the effects of the present invention are not limited to the above effects, and should be understood to include all effects that can be deduced from the configuration of the invention described in the detailed description or claims of the present invention.

도 1은 본 발명의 일 실시예에 따른 차량 추적 시스템의 개략적인 구성을 도시한 도면이다.
도 2는 본 발명에 따른 적어도 하나의 스트림 매니저와 복수의 분배 노드 간의 통신의 개념을 도시한 도면이다.
도 3은 본 발명에 따른 복수의 처리 노드 각각의 차량 번호판 추출 동작의 개념을 도시한 도면이다.
도 4는 본 발명에 따라서, 영상 프레임에서 차량의 번호판을 인식하는 결과 및 영상 프레임의 제1 메타데이터를 도시한 도면이다.
도 5 및 도 6는 본 발명에 따른 HBase에서의 데이터 저장의 개념을 도시한 도면이다.
도 7은 본 발명의 일 실시예에 따른 정보 관리부에서 제공되는 질의에 대한 검색 결과를 도시한 도면이다.
1 is a diagram showing a schematic configuration of a vehicle tracking system according to an embodiment of the present invention.
2 is a diagram illustrating a concept of communication between at least one stream manager and a plurality of distribution nodes according to the present invention.
3 is a diagram showing a concept of an operation of extracting a vehicle license plate of each of a plurality of processing nodes according to the present invention.
4 is a diagram illustrating a result of recognizing a license plate of a vehicle in an image frame and first metadata of an image frame according to the present invention.
5 and 6 are diagrams showing the concept of data storage in HBase according to the present invention.
7 is a diagram illustrating a search result for a query provided from an information management unit according to an embodiment of the present invention.

본 명세서에서 사용되는 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "구성된다" 또는 "포함한다" 등의 용어는 명세서상에 기재된 여러 구성 요소들, 또는 여러 단계들을 반드시 모두 포함하는 것으로 해석되지 않아야 하며, 그 중 일부 구성 요소들 또는 일부 단계들은 포함되지 않을 수도 있고, 또는 추가적인 구성 요소 또는 단계들을 더 포함할 수 있는 것으로 해석되어야 한다. 또한, 명세서에 기재된 "...부", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.Singular expressions used in the present specification include plural expressions unless the context clearly indicates otherwise. In the present specification, terms such as “consisting of” or “comprising” should not be construed as necessarily including all of the various elements or various steps described in the specification, and some of the elements or some steps It may not be included, or it should be interpreted that it may further include additional elements or steps. In addition, terms such as "... unit" and "module" described in the specification mean units that process at least one function or operation, which may be implemented as hardware or software, or as a combination of hardware and software. .

이하, 본 발명의 다양한 실시예들을 첨부된 도면을 참조하여 상술한다. Hereinafter, various embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시예에 따른 차량 추적 시스템의 개략적인 구성을 도시한 도면이다. 1 is a diagram showing a schematic configuration of a vehicle tracking system according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 일 실시예에 따른 차량 추적 시스템(100)는 프레임 분배부(110), 특징 추출부(120) 및 정보 관리부(130)를 포함한다. Referring to FIG. 1, a vehicle tracking system 100 according to an embodiment of the present invention includes a frame distribution unit 110, a feature extraction unit 120, and an information management unit 130.

이 때, 프레임 분배부(110), 특징 추출부(120) 및 정보 관리부(130) 각각은 분산 처리 프레임워크를 기반으로 구성되는 것으로서, 프레임 분배부(110)는 적어도 하나의 스트림 매니저(111) 및 복수의 분배 노드(112)를 포함하고, 특징 추출부(120)는 복수의 처리 노드(121)를 포함하고, 정보 관리부(130)는 복수의 저장 노드(131)를 포함한다. At this time, each of the frame distribution unit 110, the feature extraction unit 120, and the information management unit 130 is configured based on a distributed processing framework, and the frame distribution unit 110 includes at least one stream manager 111 And a plurality of distribution nodes 112, the feature extraction unit 120 includes a plurality of processing nodes 121, and the information management unit 130 includes a plurality of storage nodes 131.

이하, 각 구성 요소 별로 그 기능을 상세하게 설명하기로 한다. Hereinafter, the function of each component will be described in detail.

프레임 분배부(110)는 서로 다른 위치에 존재하는 복수의 감시 영상 획득 장치(스트림 소스)로부터 영상 스트림 및 상기 영상 스트림에 대한 제1 메타데이터를 수신하고, 이를 특징 추출부(120)로 전달한다. 이 때 제1 메타데이터는 영상 스트림이 생성된 시간 및 공간의 정보를 포함한다. 한편, 복수의 감시 영상 획득 장치는 넓은 범위에 걸쳐 배치되는 것으로서, CCTV, 차량의 블랙박스, 드론 카메라 등일 수 있다. The frame distribution unit 110 receives an image stream and first metadata for the image stream from a plurality of surveillance image acquisition devices (stream sources) existing at different locations, and transmits the received image stream to the feature extraction unit 120. . In this case, the first metadata includes information on time and space when the video stream is generated. Meanwhile, a plurality of surveillance image acquisition devices are disposed over a wide range, and may be CCTV, vehicle black boxes, drone cameras, and the like.

즉, 본 발명에 따르면, 프레임 분배부(110)는 서로 다른 위치에 존재하는 복수의 감지 영상 획득 장치로부터 영상 스트림 및 제1 메타데이터를 수신하고, 수신된 영상 스트림을 영상 프레임 단위로 분할하고, 분할된 영상 프레임들 각각을 바이트 배열의 데이터로 변환하고, 영상 프레임들과 대응되는 바이트 배열의 데이터를 영상 프레임 단위로 전송한다. 더불어, 프레임 분배부(110)는 제1 메타데이터를 바이트 배열의 데이터와 함께 전송한다. That is, according to the present invention, the frame distribution unit 110 receives an image stream and first metadata from a plurality of sensing image acquisition devices existing at different locations, divides the received image stream into image frame units, Each of the divided image frames is converted into data of a byte array, and data of a byte array corresponding to the image frames is transmitted in units of image frames. In addition, the frame distribution unit 110 transmits the first metadata together with the byte array data.

보다 상세하게, 프레임 분배부(110) 내의 적어도 하나의 스트림 매니저(111) 각각은 하나 이상의 감시 영상 획득 장치를 담당하는 것으로서, 각각의 스트림 매니저(111)는, 복수의 영상 획득 장치 중 대응되는 일부의 감시 영상 획득 장치로부터 영상 스트림 및 제1 메타데이터를 수신하고, 영상 스트림을 영상 프레임 단위로 분할하고, 분할된 영상 프레임들 각각을 바이트 배열의 데이터로 변환하고, 변환된 바이트 배열의 데이터 및 제1 메타데이터를 프레임 분배부(110) 내의 복수의 분배 노드(112) 중 대응되는 일부의 분배 노드로 영상 프레임 단위로 전송한다. In more detail, each of the at least one stream manager 111 in the frame distribution unit 110 is in charge of one or more surveillance image acquisition devices, and each stream manager 111 is a corresponding part of the plurality of image acquisition devices. Receives an image stream and first metadata from the surveillance image acquisition device of, divides the image stream into image frame units, converts each of the divided image frames into data in a byte array, and converts data and data in a byte array. 1 Metadata is transmitted to corresponding distribution nodes among the plurality of distribution nodes 112 in the frame distribution unit 110 in units of image frames.

복수의 분배 노드(112) 각각은 전송 오버헤드를 줄이기 위해 영상 프레임 이미지의 너비, 높이, 채널 정보를 포함하는 영상 프레임의 제2 메타데이터를 먼저 전송하고, 제2 메타데이터를 저장한다. 그리고, 복수의 분배 노드(112) 각각은 대응되는 스트림 매니저(111)로부터 바이트 배열의 데이터 및 제1 메타데이터가 수신될 때 마다 이를 특징 추출부(120) 내의 대응되는 처리 노드(121)로 전송한다. 즉, 복수의 분배 노드(112)는 적어도 하나의 스트림 매니저(110)에서 전송된 프레임을 특징 추출부(120) 내의 복수의 처리 노드(121)로 분배하는 역할을 수행한다. 도 2에서는 적어도 하나의 스트림 매니저(111)와 복수의 분배 노드(112) 간의 통신의 개념을 도시하고 있다. Each of the plurality of distribution nodes 112 first transmits second metadata of an image frame including width, height, and channel information of the image frame image and stores the second metadata in order to reduce transmission overhead. Each of the plurality of distribution nodes 112 transmits the data of the byte array and the first metadata to the corresponding processing node 121 in the feature extraction unit 120 whenever the data of the byte array and the first metadata are received from the corresponding stream manager 111. do. That is, the plurality of distribution nodes 112 distributes the frames transmitted from at least one stream manager 110 to the plurality of processing nodes 121 in the feature extraction unit 120. 2 illustrates a concept of communication between at least one stream manager 111 and a plurality of distribution nodes 112.

한편, 복수의 분배 노드(112)는 카프카 클러스터 내의 카프카 노드일 수 있다. 카프카 클러스터는 메모리 기반 분산 처리 프레임워크가 아닌 디스크 기반 분산 처리 프레임워크로, 처리해야 할 데이터의 수가 많아지더라도 메모리 기반 프레임워크에 비해 오류가 발생할 가능성이 낮고 복구도 빠르며, 처리 속도도 느리지 않는 장점이 있다. Meanwhile, the plurality of distribution nodes 112 may be Kafka nodes in a Kafka cluster. Kafka Cluster is a disk-based distributed processing framework, not a memory-based distributed processing framework. Even if the number of data to be processed increases, the possibility of errors is lower, recovery is faster, and processing speed is not slow compared to a memory-based framework. There is this.

특징 추출부(120)는 수신된 영상 프레임 내에서 차량의 번호판을 추출하고 이를 정보 관리부(130)로 전달한다. 이를 위해, 특징 추출부(120)는 프레임 분배부(110)로부터 전송된 바이트 배열의 데이터를 이용하여 영상 프레임들을 복원하고, 복원된 영상 프레임들에 기초하여 영상 스트림 내의 차량의 번호판을 추출한다. 즉, 특징 추출부(120) 내의 복수의 처리 노드(121) 각각은 바이트 배열의 데이터를 이용하여 차량의 번호판을 추출하며, 이 때 제2 메타데이터가 참조될 수 있다. The feature extraction unit 120 extracts the license plate of the vehicle from the received image frame and transmits it to the information management unit 130. To this end, the feature extraction unit 120 restores image frames using data of the byte array transmitted from the frame distribution unit 110, and extracts a license plate of a vehicle in the image stream based on the restored image frames. That is, each of the plurality of processing nodes 121 in the feature extraction unit 120 extracts the license plate of the vehicle using data of a byte array, and at this time, the second metadata may be referred to.

도 3에서는 복수의 처리 노드(121) 각각의 차량 번호판 추출 동작의 개념을 도시하고 있다. 3 shows the concept of the vehicle license plate extraction operation of each of the plurality of processing nodes 121.

도 3을 참조하면, 영상 프레임이 수신되면, 처리 노드(121)는 영상 프레임을 RGB 스케일에서 그레이 스케일로 변환하고, 가우시안 블러링(Gaussian blurring)을 수행하여 그레이 스케일 영상의 노이즈를 제거한다. 그 후, 처리 노드(121)는 차량의 번호판이 포함된 관심 영역(ROI)을 선택한다. 이 때, 그레이 스케일 영상은 Otsu의 이진화 방법을 이용하여 그레이 스케일 영상을 이진 영상으로 축소한다.  최적의 임계값이 발견되면 처리 노드(121)는 이 임계값을 사용하여 영상을 이진 영상으로 변환한다.   그리고, 처리 노드(121)는 이진 영상에 형태 연산 중 하나인 top-hat 필터를 적용하며, 템플릿을 사용하여 후보 ROI 영역을 산출하며, 다양한 번호판 템플릿을 기반으로 차량의 번호판으로 추정되는 후보군을 선정한다. 그리고, 처리 노드(121)는 후보군 영역마다 수직으로 투영하고 픽셀이 없는 영역을 글자와 글자 사이로 판단하여 차량의 번호판이라 판단된 경우 광학 문자 인식을 통해 차량의 번호판을 인식한다. 도 4에서는 영상 프레임에서 차량의 번호판을 인식하는 결과 및 영상 프레임의 제1 메타데이터(즉, 시간 및 공장 정보)를 도시하고 있다. Referring to FIG. 3, when an image frame is received, the processing node 121 converts the image frame from RGB scale to gray scale, and performs Gaussian blurring to remove noise from the gray scale image. After that, the processing node 121 selects a region of interest (ROI) including the license plate of the vehicle. In this case, the gray scale image is reduced to a binary image using Otsu's binarization method. When an optimal threshold is found, the processing node 121 uses this threshold to convert the image into a binary image. And, the processing node 121 applies a top-hat filter, which is one of the shape calculations, to the binary image, calculates a candidate ROI area using a template, and selects a candidate group estimated as the license plate of the vehicle based on various license plate templates. do. In addition, the processing node 121 vertically projects each candidate group region, determines the region without pixels as between letters and letters, and recognizes the license plate of the vehicle through optical character recognition when it is determined that it is the license plate of the vehicle. 4 shows a result of recognizing the license plate of the vehicle in the image frame and first metadata (ie, time and factory information) of the image frame.

정보 관리부(130)는 특징 추출부(120)로부터 전달된 제1 메타데이터와 차량의 번호판 정보를 저장한다. 또한, 정보 관리부(130)는 사용자로부터 차량 추적의 질의가 입력되면 저장된 번호판에 기반하여 차량 추적의 질의 처리 결과를 사용자에게 제공한다. 이는 정보 관리부(130) 내의 복수의 저장 노드(131)에서 수행된다. 이 때, 정보 관리부(130)에 저장된 차량의 번호판은 제1 메타데이터를 이용한 인덱스 기반으로 저장되며, 이에 따라 빠르게 검색 결과를 제공할 수 있다. The information management unit 130 stores the first metadata transmitted from the feature extraction unit 120 and license plate information of the vehicle. In addition, when a vehicle tracking query is input from the user, the information management unit 130 provides the vehicle tracking query processing result to the user based on the stored license plate. This is performed by a plurality of storage nodes 131 in the information management unit 130. In this case, the license plate of the vehicle stored in the information management unit 130 is stored based on an index using the first metadata, and accordingly, a search result can be quickly provided.

보다 상세하게, 복수의 저장 노드(131)는 아파치 기반의 HBase(Apache HBase)일 수 있다. HBase는 하둡 플랫폼을 위한 공개 비관계형 분산 처리 데이터 베이스로서, 클러스터 내의 노드의 개수가 늘어날수록 빠르게 데이터 처리가 가능하지만 데이터 자체의 개수가 많으면 늘어날 수 있는 한계가 존재한다. 인덱스 구조는 이러한 HBase의 단점을 보완하는 방법이다. 데이터의 저장 시 Hilbert Space-filling Curve과 R-tree를 이용하고, 영상 프레임의 제1 메타데이터 내의 위도와 경도를 이용하여 구성된다. 저장될 데이터인 차량의 번호판 정보에 대한 위도 및 경도는 힐버트 공간 채움 곡선에 의해 변환되고, R-tree에 데이터의 주소 정보가 저장된다. 공간 데이터 검색 시, 해당하는 공간의 모든 R-tree를 탐색하고 데이터의 주소들을 수집하고, 해당하는 주소에만 데이터 검색을 시도하여 데이터 검색의 오버헤드를 줄일 수 있다. In more detail, the plurality of storage nodes 131 may be Apache HBase (HBase) based on Apache. HBase is an open non-relational distributed processing database for the Hadoop platform. It can process data faster as the number of nodes in the cluster increases, but there is a limit to increasing the number of data itself. The index structure is a way to compensate for these shortcomings of HBase. When data is stored, the Hilbert Space-filling Curve and R-tree are used, and the latitude and longitude in the first metadata of the image frame are used. The latitude and longitude of the vehicle license plate information, which is the data to be stored, is converted by the Hilbert space filling curve, and the address information of the data is stored in the R-tree. When searching for spatial data, the overhead of data search can be reduced by searching all R-trees in the corresponding space, collecting data addresses, and attempting to search data only at the corresponding address.

보다 상세하게, 위도와 경도는 지리 정보를 나타내는 기본 속성이므로, 두 속성에 대한 색인 구조를 만들 수 있고, 색인 구조는 R-tree 및 Hilbert space-filling curve로 구성된다. In more detail, since latitude and longitude are basic attributes representing geographic information, an index structure can be created for both attributes, and the index structure is composed of R-tree and Hilbert space-filling curve.

R-tree는 공간 데이터 색인을 위한 가장 보편적인 데이터 구조 중 하나로서, R-tree는 다수의 데이터 포인트를 바인딩하고 최소 경계 사각형으로 알려진 경계를 최소화하는 사각형에 기초한다. R-tree의 중요한 특성은 높이가 균형 잡힌 구조이며 데이터 위치에 관계없이 안정적인 성능을 제공한다. 한편, 저장된 데이터의 양이 클수록 R-tree의 높이가 커지고 쿼리 응답 시간이 길어지는데, 이 문제를 해결하기 위해 본 발명에서는 Hilbert Space-filling Curve를 사용하여 R-tree를 분산시킨다. R-tree is one of the most common data structures for spatial data indexing, R-tree is based on a rectangle that binds multiple data points and minimizes the bounds known as the smallest bounding rectangle. An important characteristic of R-tree is its well-balanced structure and provides stable performance regardless of data location. Meanwhile, as the amount of stored data increases, the height of the R-tree increases and the query response time increases. In order to solve this problem, in the present invention, the R-tree is distributed using a Hilbert space-filling curve.

Space-filling Curve은 2차원 사각형이 포함된 커브이며, 2차원 데이터를 1차원 데이터로 변환하는데 사용된다. Hilbert Space-filling Curve은 로컬리티를 보존하는 데있어 최고의 성능을 보인다.  이러한 속성 때문에 본 발명에서는 Hilbert Space-filling Curve을 사용하여 공간 데이터 (X, Y)를 1차원 지점에 매핑한다.  Hilbert Space-filling Curve의 전체 길이는 순서에 따라 다르다.  The space-filling curve is a curve containing a 2D square and is used to convert 2D data into 1D data. Hilbert Space-filling Curve performs best in preserving locality. Because of this property, in the present invention, spatial data (X, Y) is mapped to a one-dimensional point using Hilbert Space-filling Curve. The total length of the Hilbert Space-filling Curve depends on the order.

일례로서, 도 5에서는 Hilbert Space-filling Curve를 도시하고 있다. 이 경우, X와 Y의 범위는 각각 0~3 이다. 각 사각형의 값은 X 및 Y에 해당하는 Hilbert Curve의 값이고, 빨간색 선은 Hilbert Curve를 나타낸다. 이 곡선에서 (3, 2)는 (1011)로 변환되고, (0, 0), (3,3) 및 (3,1)은 각각 (0000), (1010) 및 (1100)로 변환된다. As an example, FIG. 5 shows a Hilbert Space-filling Curve. In this case, the ranges of X and Y are 0-3, respectively. The value of each square is the value of the Hilbert Curve corresponding to X and Y, and the red line represents the Hilbert Curve. In this curve, (3, 2) is converted to (1011), and (0, 0), (3,3) and (3,1) are converted to (0000), (1010) and (1100), respectively.

도 6에서는 공간 정보(즉, GPS 데이터)의 전체 색인 구조를 도시하고 있다. 도 6을 참조하면, HBase의 각 노드에는 노드의 모든 영역 색인을 관리하는 IndexManager가 존재하며, IndexManager는 Hilbert Space-filling Curve 및 R-tree를 사용한다. 도 6에서는 차수 2의 Hilbert Space-filling Curve를 도시한다. Hilbert Space-filling Curve는 부동 소수점 값을 사용하지 않으므로, GPS 데이터인 위도 및 경도 정보는 정수 값으로 변환된다. (위도, 경도)로 표현된 가능한 모든 영역을 Hilbert Space-filling Curve에 맞게 나누고, 곡선의 영역에 영역을 매핑한다. 따라서, GPS 데이터는 곡선의 일부 정수 값에 할당되며 이 값을 사용한다. 그런 다음, 각 독립 영역에는 노드가 위도, 경도 및 데이터가 저장되는 주소 이름이 있는 하나의 R-tree가 존재한다. 6 shows the entire index structure of spatial information (ie, GPS data). Referring to FIG. 6, each node of HBase has an IndexManager that manages indexes of all regions of the node, and the IndexManager uses Hilbert Space-filling Curve and R-tree. 6 shows a Hilbert space-filling curve of order 2. Since Hilbert Space-filling Curve does not use floating point values, the latitude and longitude information, which is GPS data, is converted to integer values. All possible areas expressed in (latitude, longitude) are divided according to Hilbert Space-filling Curve, and the area is mapped to the area of the curve. Therefore, GPS data is assigned to some integer value of the curve and this value is used. Then, in each independent region, there is one R-tree with the node's latitude, longitude and address name where the data is stored.

이하, 공간 쿼리를 처리하는 일례를 설명한다.  (2, 2)에서 (3, 3)까지의 공간 질의가 주어질 때, 그 공간 조건은 (1000)에서 (1011)까지 Hilbert Space-filling Curve의 범위로 변환된다.  이 범위는 도 6의 녹색 직사각형으로 표시된다. 그 후, 범위에 포함된 영역에 R-tree가 있는지가 판단된다.  예를 들어, 도 6의 IndexManager에는 영역 1 및 영역 2가 존재하며, 영역 1에는 (1010)과 (1100)에 R-tree가 있고, 영역 2에는 (0001)과 (1001)에 R-tree가 있다. 질의 범위를 고려하면, 영역 1은 (1010)에 R-tree가 있고 영역 2는 (1001)에 R-tree가 있음을 확인할 수 있다.  영역에 R- 트리가 있으면, 공간 조건에 적합한 데이터 주소가 인덱스 구조에서 검색된다.  따라서, 영역 1에 대해, (1010)에서 R-tree를 탐색하기 시작하고, 데이터 어드레스를 수집한다. 그리고 영역 2에 대해, (1001)에서 상기한 동작이 수행된다. 모든 데이터 주소가 R-tree 검색을 통해 수집된 후 HBase는 사용자를 위해 결과를 기록한다. 전체 쿼리 결과를 얻으려면, 인덱스 구조의 지연 업데이트 정책으로 인해 메모리의 데이터를 확인해야 하며, 공간 질의 결과는 인덱스 및 메모리 검색 모두로부터의 데이터 어드레스를 포함한다. Hereinafter, an example of processing a spatial query will be described. When a spatial query from (2, 2) to (3, 3) is given, the spatial condition is converted into the range of Hilbert Space-filling Curve from (1000) to (1011). This range is denoted by the green rectangle in Fig. 6. After that, it is determined whether there is an R-tree in the area included in the range. For example, in the IndexManager of FIG. 6, area 1 and area 2 exist,   area 1 has R-trees in (1010) and (1100), and area 2 has R-trees in (0001) and (1001). have. Considering the range of the query, it can be seen that area 1 has an R-tree in (1010) and area 2 has an R-tree in (1001). If there is an R-tree in the region, the data address suitable for the spatial condition is searched in the index structure. Thus, for area 1, it starts to search the R-tree at 1010 and collects the data address. And for region 2, the above-described operation is performed in (1001). After all data addresses have been collected through R-tree search, HBase records the results for the user. To get the full query result, you need to check the data in memory due to the delayed update policy of the index structure, and the spatial query result contains the data address from both the index and memory search.

도 6에서는 본 발명의 일 실시예에 따른 정보 관리부(130)에서 제공되는 질의에 대한 검색 결과를 도시하고 있다. 도 6을 참조하면, 사용자가 질의로서, "차량 번호, 시작 시간 및 마지막 시간"을 입력하면 해당하는 구간의 데이터를 시각화하여 보여준다. 파란색 핀은 맨 처음 포착된 데이터이고 빨간색 핀은 맨 마지막 포착된 데이터다.6 shows a search result for a query provided from the information management unit 130 according to an embodiment of the present invention. Referring to FIG. 6, when a user inputs "vehicle number, start time, and last time" as a query, data of a corresponding section is visualized and displayed. The blue pin is the first captured data, and the red pin is the last captured data.

요컨대, 본 발명에 따르면, 넓은 범위에 분포된 감시 영상 촬영 장치에서 생성된 감시 영상을 처리하여 통합함으로써, 특정 차량의 위치와 시각을 정확하게 파악하여 사용자에게 제공할 수 있는 장점이 있다. 또한, 본 발명에 따르면, 차량 추적 시스템에서 처리되어 저장되는 데이터들은 범죄 차량 추적뿐만 아니라 도로 건설 계획의 참고 자료, 실시간 길 찾기에 필요한 교통 정보 등으로 활용될 수 있다.In short, according to the present invention, by processing and integrating a surveillance image generated by a surveillance image photographing apparatus distributed over a wide range, there is an advantage in that the location and time of a specific vehicle can be accurately identified and provided to a user. In addition, according to the present invention, the data processed and stored in the vehicle tracking system can be used as a reference material for road construction plans, traffic information required for real-time road finding, and the like, as well as criminal vehicle tracking.

이상과 같이 본 발명에서는 구체적인 구성 요소 등과 같은 특정 사항들과 한정된 실시예 및 도면에 의해 설명되었으나 이는 본 발명의 전반적인 이해를 돕기 위해서 제공된 것일 뿐, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상적인 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다. 따라서, 본 발명의 사상은 설명된 실시예에 국한되어 정해져서는 아니되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등하거나 등가적 변형이 있는 모든 것들은 본 발명 사상의 범주에 속한다고 할 것이다. As described above, in the present invention, specific matters such as specific components, etc., and limited embodiments and drawings have been described, but these are provided only to help the general understanding of the present invention, and the present invention is not limited to the above embodiments Anyone of ordinary skill in the field to which the present invention belongs can make various modifications and variations from this description. Therefore, the spirit of the present invention is limited to the described embodiments and should not be defined, and all things that are equivalent or equivalent to the claims as well as the claims to be described later fall within the scope of the spirit of the present invention. .

Claims (6)

서로 다른 위치에 존재하는 복수의 영상 획득 장치로부터 영상 스트림을 수신하고, 상기 영상 스트림을 영상 프레임 단위로 분할하고, 상기 분할된 영상 프레임들 각각을 바이트 배열의 데이터로 변환하고, 상기 영상 프레임들과 대응되는 바이트 배열의 데이터를 상기 영상 프레임 단위로 전송하는 프레임 분배부;
상기 프레임 분배부로부터 전송된 상기 바이트 배열의 데이터를 이용하여 상기 영상 프레임들을 복원하고, 상기 복원된 영상 프레임들에 기초하여 상기 영상 스트림 내의 차량의 번호판을 추출하는 특징 추출부; 및
상기 특징 추출부로부터 전달된 상기 추출된 차량의 번호판을 저장하고, 사용자로부터 차량 추적의 질의가 입력되면 상기 저장된 번호판에 기반하여 상기 차량 추적의 질의 처리 결과를 상기 사용자에게 제공하는 정보 관리부;를 포함하되,
상기 프레임 분배부, 상기 특징 추출부 및 상기 정보 관리부 각각은 분산 처리 프레임워크를 기반으로 구성되는 것을 특징으로 하는 차량 추적 시스템.
Receives an image stream from a plurality of image acquisition devices located at different locations, divides the image stream into image frames, converts each of the divided image frames into byte array data, and includes the image frames A frame distribution unit that transmits data of a corresponding byte array in units of the image frame;
A feature extracting unit for restoring the image frames using the data of the byte array transmitted from the frame distribution unit, and extracting a license plate of a vehicle in the image stream based on the restored image frames; And
And an information management unit that stores the extracted vehicle license plate transmitted from the feature extraction unit, and provides a query processing result of the vehicle tracking to the user based on the stored license plate when a vehicle tracking query is input from the user. But,
Each of the frame distribution unit, the feature extraction unit, and the information management unit is configured based on a distributed processing framework.
제1항에 있어서,
상기 프레임 분배부는 적어도 하나의 스트림 매니저 및 복수의 분배 노드를 포함하고,
상기 적어도 하나의 스트림 매니저 각각은, 상기 복수의 영상 획득 장치 중 대응되는 일부의 영상 획득 장치로부터 상기 영상 스트림을 수신하고, 상기 영상 스트림을 상기 영상 프레임 단위로 분할하고, 상기 분할된 영상 프레임들 각각을 바이트 배열의 데이터로 변환하고, 상기 변환된 바이트 배열의 데이터를 상기 영상 프레임 단위로 상기 복수의 분배 노드 중 대응되는 일부의 분배 노드로 전송하는 것을 특징으로 하는 차량 추적 시스템.
The method of claim 1,
The frame distribution unit includes at least one stream manager and a plurality of distribution nodes,
Each of the at least one stream manager receives the image stream from a corresponding partial image acquisition device among the plurality of image acquisition devices, divides the image stream into units of the image frame, and each of the divided image frames And transforming the converted byte array data into data of the byte array, and transmitting the converted data of the byte array to a corresponding part of the distribution nodes among the plurality of distribution nodes in units of the image frame.
제2항에 있어서,
상기 특징 추출부는 복수의 처리 노드를 포함하되, 상기 복수의 처리 노드 각각은 상기 바이트 배열의 데이터를 이용하여 상기 차량의 번호판을 추출하며,
상기 정보 관리부는 복수의 저장 노드를 포함하되, 상기 복수의 저장 노드 각각은 상기 추출된 차량의 번호판을 저장하는 특징으로 하는 차량 추적 시스템.
The method of claim 2,
The feature extraction unit includes a plurality of processing nodes, each of the plurality of processing nodes extracting a license plate of the vehicle using data of the byte array,
The information management unit includes a plurality of storage nodes, each of the plurality of storage nodes storing the extracted license plate of the vehicle.
제3항에 있어서,
상기 복수의 분배 노드는 카프카 클러스터 내의 카프카 노드이고,
상기 복수의 저장 노드는 HBase 노드인 것을 특징으로 하는 차량 추적 시스템.
The method of claim 3,
The plurality of distribution nodes are Kafka nodes in a Kafka cluster,
Vehicle tracking system, characterized in that the plurality of storage nodes are HBase nodes.
제3항에 있어서,
상기 복수의 영상 획득 장치는 제1 메타데이터를 상기 영상 스트림과 함께 상기 프레임 분배부로 더 전송하되, 상기 제1 메타데이터는 상기 영상 스트림이 생성된 시간 및 공간의 정보를 포함하고,
상기 프레임 분배부는 상기 바이트 배열의 데이터를 전송하기 전에 제2 메타데이터를 미리 전송하고, 상기 제1 메타데이터를 상기 바이트 배열의 데이터와 함께 전송하되, 상기 제2 메타데이터는 상기 영상 프레임의 너비, 높이, 채널 정보를 포함하며,
상기 특징 추출부는 상기 제2 메타데이터를 참조하여 상기 차량의 번호판을 추출하는 것을 특징으로 하는 차량 추적 시스템.
The method of claim 3,
The plurality of image acquisition devices further transmit first metadata to the frame distribution unit together with the image stream, wherein the first metadata includes information on time and space when the image stream is generated,
The frame distribution unit transmits second metadata in advance before transmitting the data of the byte array, and transmits the first metadata together with the data of the byte array, wherein the second metadata is a width of the image frame, Contains height, channel information,
And the feature extraction unit extracts the license plate of the vehicle by referring to the second metadata.
제5항에 있어서,
상기 정보 관리부에 저장된 차량의 번호판은 상기 제1 메타데이터를 이용한 인덱스 기반으로 저장되는 것을 특징으로 하는 차량 추적 시스템.
The method of claim 5,
Vehicle tracking system, characterized in that the license plate of the vehicle stored in the information management unit is stored based on an index using the first metadata.
KR1020190046304A 2019-04-19 2019-04-19 Vehicle tracking system based on surveillance videos KR20200122900A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190046304A KR20200122900A (en) 2019-04-19 2019-04-19 Vehicle tracking system based on surveillance videos

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190046304A KR20200122900A (en) 2019-04-19 2019-04-19 Vehicle tracking system based on surveillance videos

Publications (1)

Publication Number Publication Date
KR20200122900A true KR20200122900A (en) 2020-10-28

Family

ID=73018512

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190046304A KR20200122900A (en) 2019-04-19 2019-04-19 Vehicle tracking system based on surveillance videos

Country Status (1)

Country Link
KR (1) KR20200122900A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230153267A1 (en) * 2021-11-18 2023-05-18 Nanhu Laboratory High-performance data lake system and data storage method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230153267A1 (en) * 2021-11-18 2023-05-18 Nanhu Laboratory High-performance data lake system and data storage method
US11789899B2 (en) * 2021-11-18 2023-10-17 Nanhu Laboratory High-performance data lake system and data storage method

Similar Documents

Publication Publication Date Title
CN105164695B (en) System and method for detecting the high interesting event in video data
CN104200671B (en) A kind of virtual bayonet socket management method based on large data platform and system
US20140003708A1 (en) Object retrieval in video data using complementary detectors
CN108683877B (en) Spark-based distributed massive video analysis system
CN104486585B (en) A kind of city magnanimity monitor video management method and system based on GIS
US20220301317A1 (en) Method and device for constructing object motion trajectory, and computer storage medium
CN116824859B (en) Intelligent traffic big data analysis system based on Internet of things
CN109902681B (en) User group relation determining method, device, equipment and storage medium
Jung et al. Real-time car tracking system based on surveillance videos
Le et al. Weakly Labeling the Antarctic: The Penguin Colony Case.
CN114724131A (en) Vehicle tracking method and device, electronic equipment and storage medium
Kazhamiaka et al. Challenges and Opportunities for Autonomous Vehicle Query Systems.
Gloudemans et al. So you think you can track?
KR20200122900A (en) Vehicle tracking system based on surveillance videos
Abdelli et al. A four-frames differencing technique for moving objects detection in wide area surveillance
Kamenetsky et al. Aerial car detection and urban understanding
CN112306985A (en) Digital retina multi-modal feature combined accurate retrieval method
Ganesh et al. An intelligent video surveillance framework with big data management for Indian road traffic system
Schroth et al. Exploiting prior knowledge in mobile visual location recognition
KR101527003B1 (en) Big data system for blackbox
KR20210074180A (en) System and method for estimating the location of object in crowdsourcing environment
Kulbacki et al. VMASS: massive dataset of multi-camera video for learning, classification and recognition of human actions
US20230012137A1 (en) Pedestrian search method, server, and storage medium
KR102637949B1 (en) Server and method for managing thumbnail, and device for using thumbnail
Kim Lifelong Learning Architecture of Video Surveillance System

Legal Events

Date Code Title Description
E601 Decision to refuse application