KR20200122900A - Vehicle tracking system based on surveillance videos - Google Patents
Vehicle tracking system based on surveillance videos Download PDFInfo
- Publication number
- KR20200122900A KR20200122900A KR1020190046304A KR20190046304A KR20200122900A KR 20200122900 A KR20200122900 A KR 20200122900A KR 1020190046304 A KR1020190046304 A KR 1020190046304A KR 20190046304 A KR20190046304 A KR 20190046304A KR 20200122900 A KR20200122900 A KR 20200122900A
- Authority
- KR
- South Korea
- Prior art keywords
- vehicle
- data
- image
- license plate
- byte array
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/583—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
- G06F16/5846—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using extracted text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/60—Information retrieval; Database structures therefor; File system structures therefor of audio data
- G06F16/63—Querying
-
- G06K9/3258—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/62—Text, e.g. of license plates, overlay texts or captions on TV images
- G06V20/625—License plates
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/62—Text, e.g. of license plates, overlay texts or captions on TV images
- G06V20/63—Scene text, e.g. street names
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
-
- G06K2209/15—
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Databases & Information Systems (AREA)
- Library & Information Science (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Signal Processing (AREA)
- Traffic Control Systems (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
Description
본 발명의 실시예들은 CCTV, 차량 블랙박스, 드론 카메라 등의 감시 영상 촬영 장치에서 수집된 감시 영상을 수집하고, 분산 처리 프레임워크 기반에서 처리하여 영상 속에 목격된 차량을 추적하는 차량 추적 시스템에 관한 것이다. Embodiments of the present invention relates to a vehicle tracking system that collects surveillance images collected from surveillance video recording devices such as CCTV, vehicle black box, and drone camera, and processes them based on a distributed processing framework to track a vehicle observed in the image. will be.
CCTV, 차량의 블랙박스, 드론 카메라 등의 감시 영상 촬영 장치가 사용되고, 수많은 감시 영상이 실시간으로 생성되고 있다. 최근, 하둡을 기반으로 한 분산 처리 프레임워크가 발달하였고, 실시간으로 수많은 영상들이 생성되더라도 빠르게 처리할 수 있는 기반이 마련되어 있다.Surveillance video recording devices such as CCTV, vehicle black boxes, and drone cameras are used, and numerous surveillance images are being generated in real time. In recent years, a distributed processing framework based on Hadoop has been developed, and even if a large number of images are generated in real time, a basis for fast processing has been established.
한편, 차량의 경로를 추적할 수 있는 시스템은 범죄 차량을 추적할 때 드는 시간과 노동력을 줄여줄 수 있고, 상기한 시스템에 누적된 데이터는 도로 건설, 빠른 경로 검색 등에 사용할 참고 자료가 될 수 있다. On the other hand, a system capable of tracking a vehicle's path can reduce the time and labor required to track a criminal vehicle, and the data accumulated in the above-described system can be used as a reference material for use in road construction, fast route search, etc. .
종래의 차량 경로를 추적하는 시스템의 대부분은 차량에 설치된 GPS 장치의 신호를 기반으로 한다. 그러나, 상기한 종래 시스템은 높은 정확도를 보여줄 수 있지만 GPS 장치가 설치되지 않은 차량의 경우 전혀 추적을 할 수 없다는 단점이 존재한다. 이러한 단점은 특히 범죄 차량을 추적하게 될 경우 두드러진다. Most of the conventional vehicle path tracking systems are based on signals from GPS devices installed in the vehicle. However, although the above-described conventional system can show high accuracy, there is a disadvantage that a vehicle without a GPS device cannot be tracked at all. This shortcoming is especially noticeable when you're tracking a criminal vehicle.
따라서, 상기한 종래 시스템의 단점을 보완하기 위해, 감시 영상 기반의 차량 추적 연구가 최근 진행되고 있다. 하지만, 감시 영상 내에서만 차량을 추적하거나 좁은 지역에서만 차량을 추적하는 등 실제로 활용될 수 있을 만큼 발전은 이루지 못했다. Therefore, in order to compensate for the shortcomings of the above-described conventional system, research on vehicle tracking based on a surveillance image has been recently conducted. However, it has not been developed enough to be practically utilized, such as tracking vehicles only within surveillance images or tracking vehicles only in a small area.
상기한 바와 같은 종래기술의 문제점을 해결하기 위해, 본 발명에서는 CCTV, 차량 블랙박스, 드론 카메라 등의 감시 영상 촬영 장치에서 수집된 감시 영상을 수집하고, 분산 처리 프레임워크 기반에서 처리하여 영상 속에 목격된 차량을 추적하는 차량 추적 시스템을 제안하고자 한다. In order to solve the problems of the prior art as described above, in the present invention, in the present invention, surveillance images collected from surveillance video recording devices such as CCTV, vehicle black box, and drone camera are collected, processed based on a distributed processing framework, and observed in the image. We would like to propose a vehicle tracking system that tracks a broken vehicle.
본 발명의 다른 목적들은 하기의 실시예를 통해 당업자에 의해 도출될 수 있을 것이다.Other objects of the present invention may be derived by those skilled in the art through the following examples.
상기한 목적을 달성하기 위해 본 발명의 바람직한 일 실시예에 따르면, 서로 다른 위치에 존재하는 복수의 영상 획득 장치로부터 영상 스트림을 수신하고, 상기 영상 스트림을 영상 프레임 단위로 분할하고, 상기 분할된 영상 프레임들 각각을 바이트 배열의 데이터로 변환하고, 상기 영상 프레임들과 대응되는 바이트 배열의 데이터를 상기 영상 프레임 단위로 전송하는 프레임 분배부; 상기 프레임 분배부로부터 전송된 상기 바이트 배열의 데이터를 이용하여 상기 영상 프레임들을 복원하고, 상기 복원된 영상 프레임들에 기초하여 상기 영상 스트림 내의 차량의 번호판을 추출하는 특징 추출부; 및 상기 특징 추출부로부터 전달된 상기 추출된 차량의 번호판을 저장하고, 사용자로부터 차량 추적의 질의가 입력되면 상기 저장된 번호판에 기반하여 상기 차량 추적의 질의 처리 결과를 상기 사용자에게 제공하는 정보 관리부;를 포함하되, 상기 프레임 분배부, 상기 특징 추출부 및 상기 정보 관리부 각각은 분산 처리 프레임워크를 기반으로 구성되는 것을 특징으로 하는 차량 추적 시스템이 제공된다. In order to achieve the above object, according to a preferred embodiment of the present invention, an image stream is received from a plurality of image acquisition devices located at different locations, the image stream is divided into image frames, and the divided image A frame distribution unit for converting each of the frames into data in a byte array and transmitting data in a byte array corresponding to the image frames in units of the image frames; A feature extracting unit for restoring the image frames using the data of the byte array transmitted from the frame distribution unit, and extracting a license plate of a vehicle in the image stream based on the restored image frames; And an information management unit that stores the extracted vehicle license plate transmitted from the feature extraction unit, and provides a result of the vehicle tracking query processing result to the user based on the stored license plate when a vehicle tracking query is input by the user. Including, wherein each of the frame distribution unit, the feature extraction unit, and the information management unit is provided based on a distributed processing framework.
상기 프레임 분배부는 적어도 하나의 스트림 매니저 및 복수의 분배 노드를 포함하고, 상기 적어도 하나의 스트림 매니저 각각은, 상기 복수의 영상 획득 장치 중 대응되는 일부의 영상 획득 장치로부터 상기 영상 스트림을 수신하고, 상기 영상 스트림을 상기 영상 프레임 단위로 분할하고, 상기 분할된 영상 프레임들 각각을 바이트 배열의 데이터로 변환하고, 상기 변환된 바이트 배열의 데이터를 상기 영상 프레임 단위로 상기 복수의 분배 노드 중 대응되는 일부의 분배 노드로 전송할 수 있다. The frame distribution unit includes at least one stream manager and a plurality of distribution nodes, and each of the at least one stream manager receives the image stream from a corresponding partial image acquisition device among the plurality of image acquisition devices, and the Dividing the video stream into the unit of the video frame, converting each of the divided video frames into data of a byte array, and converting the converted data of the byte array into the unit of the video frame. Can be transmitted to the distribution node.
상기 특징 추출부는 복수의 처리 노드를 포함하되, 상기 복수의 처리 노드 각각은 상기 바이트 배열의 데이터를 이용하여 상기 차량의 번호판을 추출하며, 상기 정보 관리부는 복수의 저장 노드를 포함하되, 상기 복수의 저장 노드 각각은 상기 추출된 차량의 번호판을 저장할 수 있다. The feature extracting unit includes a plurality of processing nodes, each of the plurality of processing nodes extracting the license plate of the vehicle using the data of the byte array, and the information management unit includes a plurality of storage nodes, wherein the plurality of processing nodes Each of the storage nodes may store the extracted license plate of the vehicle.
상기 복수의 분배 노드는 카프카 클러스터 내의 카프카 노드이고, 상기 복수의 저장 노드는 HBase 노드일 수 있다. The plurality of distribution nodes may be Kafka nodes in a Kafka cluster, and the plurality of storage nodes may be HBase nodes.
상기 복수의 영상 획득 장치는 제1 메타데이터를 상기 영상 스트림과 함께 상기 프레임 분배부로 더 전송하되, 상기 제1 메타데이터는 상기 영상 스트림이 생성된 시간 및 공간의 정보를 포함하고, 상기 프레임 분배부는 상기 바이트 배열의 데이터를 전송하기 전에 제2 메타데이터를 미리 전송하고, 상기 제1 메타데이터를 상기 바이트 배열의 데이터와 함께 전송하되, 상기 제2 메타데이터는 상기 영상 프레임의 너비, 높이, 채널 정보를 포함하며, 상기 특징 추출부는 상기 제2 메타데이터를 참조하여 상기 차량의 번호판을 추출할 수 있다. The plurality of image acquisition devices further transmit first metadata together with the image stream to the frame distribution unit, wherein the first metadata includes information on time and space when the image stream is generated, and the frame distribution unit Before transmitting the data of the byte array, second metadata is transmitted in advance, and the first metadata is transmitted together with the data of the byte array, wherein the second metadata includes width, height, and channel information of the image frame. Including, the feature extracting unit may extract the license plate of the vehicle by referring to the second metadata.
상기 정보 관리부에 저장된 차량의 번호판은 상기 제1 메타데이터를 이용한 인덱스 기반으로 저장될 수 있다. The license plate of the vehicle stored in the information management unit may be stored based on an index using the first metadata.
본 발명에 따르면, 넓은 범위에 분포된 감시 영상 촬영 장치에서 생성된 감시 영상을 처리하여 통합함으로써, 특정 차량의 위치와 시각을 정확하게 파악하여 사용자에게 제공할 수 있는 장점이 있다. According to the present invention, by processing and integrating a surveillance image generated by a surveillance image capturing apparatus distributed over a wide range, the location and time of a specific vehicle can be accurately identified and provided to a user.
또한, 본 발명에 따르면, 차량 추적 시스템에서 처리되어 저장되는 데이터들은 범죄 차량 추적뿐만 아니라 도로 건설 계획의 참고 자료, 실시간 길 찾기에 필요한 교통 정보 등으로 활용될 수 있다.In addition, according to the present invention, the data processed and stored in the vehicle tracking system can be used as a reference material for road construction plans, traffic information required for real-time road finding, and the like, as well as criminal vehicle tracking.
또한, 본 발명의 효과는 상기한 효과로 한정되는 것은 아니며, 본 발명의 상세한 설명 또는 특허청구범위에 기재된 발명의 구성으로부터 추론 가능한 모든 효과를 포함하는 것으로 이해되어야 한다.In addition, the effects of the present invention are not limited to the above effects, and should be understood to include all effects that can be deduced from the configuration of the invention described in the detailed description or claims of the present invention.
도 1은 본 발명의 일 실시예에 따른 차량 추적 시스템의 개략적인 구성을 도시한 도면이다.
도 2는 본 발명에 따른 적어도 하나의 스트림 매니저와 복수의 분배 노드 간의 통신의 개념을 도시한 도면이다.
도 3은 본 발명에 따른 복수의 처리 노드 각각의 차량 번호판 추출 동작의 개념을 도시한 도면이다.
도 4는 본 발명에 따라서, 영상 프레임에서 차량의 번호판을 인식하는 결과 및 영상 프레임의 제1 메타데이터를 도시한 도면이다.
도 5 및 도 6는 본 발명에 따른 HBase에서의 데이터 저장의 개념을 도시한 도면이다.
도 7은 본 발명의 일 실시예에 따른 정보 관리부에서 제공되는 질의에 대한 검색 결과를 도시한 도면이다. 1 is a diagram showing a schematic configuration of a vehicle tracking system according to an embodiment of the present invention.
2 is a diagram illustrating a concept of communication between at least one stream manager and a plurality of distribution nodes according to the present invention.
3 is a diagram showing a concept of an operation of extracting a vehicle license plate of each of a plurality of processing nodes according to the present invention.
4 is a diagram illustrating a result of recognizing a license plate of a vehicle in an image frame and first metadata of an image frame according to the present invention.
5 and 6 are diagrams showing the concept of data storage in HBase according to the present invention.
7 is a diagram illustrating a search result for a query provided from an information management unit according to an embodiment of the present invention.
본 명세서에서 사용되는 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "구성된다" 또는 "포함한다" 등의 용어는 명세서상에 기재된 여러 구성 요소들, 또는 여러 단계들을 반드시 모두 포함하는 것으로 해석되지 않아야 하며, 그 중 일부 구성 요소들 또는 일부 단계들은 포함되지 않을 수도 있고, 또는 추가적인 구성 요소 또는 단계들을 더 포함할 수 있는 것으로 해석되어야 한다. 또한, 명세서에 기재된 "...부", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.Singular expressions used in the present specification include plural expressions unless the context clearly indicates otherwise. In the present specification, terms such as “consisting of” or “comprising” should not be construed as necessarily including all of the various elements or various steps described in the specification, and some of the elements or some steps It may not be included, or it should be interpreted that it may further include additional elements or steps. In addition, terms such as "... unit" and "module" described in the specification mean units that process at least one function or operation, which may be implemented as hardware or software, or as a combination of hardware and software. .
이하, 본 발명의 다양한 실시예들을 첨부된 도면을 참조하여 상술한다. Hereinafter, various embodiments of the present invention will be described in detail with reference to the accompanying drawings.
도 1은 본 발명의 일 실시예에 따른 차량 추적 시스템의 개략적인 구성을 도시한 도면이다. 1 is a diagram showing a schematic configuration of a vehicle tracking system according to an embodiment of the present invention.
도 1을 참조하면, 본 발명의 일 실시예에 따른 차량 추적 시스템(100)는 프레임 분배부(110), 특징 추출부(120) 및 정보 관리부(130)를 포함한다. Referring to FIG. 1, a vehicle tracking system 100 according to an embodiment of the present invention includes a
이 때, 프레임 분배부(110), 특징 추출부(120) 및 정보 관리부(130) 각각은 분산 처리 프레임워크를 기반으로 구성되는 것으로서, 프레임 분배부(110)는 적어도 하나의 스트림 매니저(111) 및 복수의 분배 노드(112)를 포함하고, 특징 추출부(120)는 복수의 처리 노드(121)를 포함하고, 정보 관리부(130)는 복수의 저장 노드(131)를 포함한다. At this time, each of the
이하, 각 구성 요소 별로 그 기능을 상세하게 설명하기로 한다. Hereinafter, the function of each component will be described in detail.
프레임 분배부(110)는 서로 다른 위치에 존재하는 복수의 감시 영상 획득 장치(스트림 소스)로부터 영상 스트림 및 상기 영상 스트림에 대한 제1 메타데이터를 수신하고, 이를 특징 추출부(120)로 전달한다. 이 때 제1 메타데이터는 영상 스트림이 생성된 시간 및 공간의 정보를 포함한다. 한편, 복수의 감시 영상 획득 장치는 넓은 범위에 걸쳐 배치되는 것으로서, CCTV, 차량의 블랙박스, 드론 카메라 등일 수 있다. The
즉, 본 발명에 따르면, 프레임 분배부(110)는 서로 다른 위치에 존재하는 복수의 감지 영상 획득 장치로부터 영상 스트림 및 제1 메타데이터를 수신하고, 수신된 영상 스트림을 영상 프레임 단위로 분할하고, 분할된 영상 프레임들 각각을 바이트 배열의 데이터로 변환하고, 영상 프레임들과 대응되는 바이트 배열의 데이터를 영상 프레임 단위로 전송한다. 더불어, 프레임 분배부(110)는 제1 메타데이터를 바이트 배열의 데이터와 함께 전송한다. That is, according to the present invention, the
보다 상세하게, 프레임 분배부(110) 내의 적어도 하나의 스트림 매니저(111) 각각은 하나 이상의 감시 영상 획득 장치를 담당하는 것으로서, 각각의 스트림 매니저(111)는, 복수의 영상 획득 장치 중 대응되는 일부의 감시 영상 획득 장치로부터 영상 스트림 및 제1 메타데이터를 수신하고, 영상 스트림을 영상 프레임 단위로 분할하고, 분할된 영상 프레임들 각각을 바이트 배열의 데이터로 변환하고, 변환된 바이트 배열의 데이터 및 제1 메타데이터를 프레임 분배부(110) 내의 복수의 분배 노드(112) 중 대응되는 일부의 분배 노드로 영상 프레임 단위로 전송한다. In more detail, each of the at least one
복수의 분배 노드(112) 각각은 전송 오버헤드를 줄이기 위해 영상 프레임 이미지의 너비, 높이, 채널 정보를 포함하는 영상 프레임의 제2 메타데이터를 먼저 전송하고, 제2 메타데이터를 저장한다. 그리고, 복수의 분배 노드(112) 각각은 대응되는 스트림 매니저(111)로부터 바이트 배열의 데이터 및 제1 메타데이터가 수신될 때 마다 이를 특징 추출부(120) 내의 대응되는 처리 노드(121)로 전송한다. 즉, 복수의 분배 노드(112)는 적어도 하나의 스트림 매니저(110)에서 전송된 프레임을 특징 추출부(120) 내의 복수의 처리 노드(121)로 분배하는 역할을 수행한다. 도 2에서는 적어도 하나의 스트림 매니저(111)와 복수의 분배 노드(112) 간의 통신의 개념을 도시하고 있다. Each of the plurality of
한편, 복수의 분배 노드(112)는 카프카 클러스터 내의 카프카 노드일 수 있다. 카프카 클러스터는 메모리 기반 분산 처리 프레임워크가 아닌 디스크 기반 분산 처리 프레임워크로, 처리해야 할 데이터의 수가 많아지더라도 메모리 기반 프레임워크에 비해 오류가 발생할 가능성이 낮고 복구도 빠르며, 처리 속도도 느리지 않는 장점이 있다. Meanwhile, the plurality of
특징 추출부(120)는 수신된 영상 프레임 내에서 차량의 번호판을 추출하고 이를 정보 관리부(130)로 전달한다. 이를 위해, 특징 추출부(120)는 프레임 분배부(110)로부터 전송된 바이트 배열의 데이터를 이용하여 영상 프레임들을 복원하고, 복원된 영상 프레임들에 기초하여 영상 스트림 내의 차량의 번호판을 추출한다. 즉, 특징 추출부(120) 내의 복수의 처리 노드(121) 각각은 바이트 배열의 데이터를 이용하여 차량의 번호판을 추출하며, 이 때 제2 메타데이터가 참조될 수 있다. The
도 3에서는 복수의 처리 노드(121) 각각의 차량 번호판 추출 동작의 개념을 도시하고 있다. 3 shows the concept of the vehicle license plate extraction operation of each of the plurality of
도 3을 참조하면, 영상 프레임이 수신되면, 처리 노드(121)는 영상 프레임을 RGB 스케일에서 그레이 스케일로 변환하고, 가우시안 블러링(Gaussian blurring)을 수행하여 그레이 스케일 영상의 노이즈를 제거한다. 그 후, 처리 노드(121)는 차량의 번호판이 포함된 관심 영역(ROI)을 선택한다. 이 때, 그레이 스케일 영상은 Otsu의 이진화 방법을 이용하여 그레이 스케일 영상을 이진 영상으로 축소한다. 최적의 임계값이 발견되면 처리 노드(121)는 이 임계값을 사용하여 영상을 이진 영상으로 변환한다. 그리고, 처리 노드(121)는 이진 영상에 형태 연산 중 하나인 top-hat 필터를 적용하며, 템플릿을 사용하여 후보 ROI 영역을 산출하며, 다양한 번호판 템플릿을 기반으로 차량의 번호판으로 추정되는 후보군을 선정한다. 그리고, 처리 노드(121)는 후보군 영역마다 수직으로 투영하고 픽셀이 없는 영역을 글자와 글자 사이로 판단하여 차량의 번호판이라 판단된 경우 광학 문자 인식을 통해 차량의 번호판을 인식한다. 도 4에서는 영상 프레임에서 차량의 번호판을 인식하는 결과 및 영상 프레임의 제1 메타데이터(즉, 시간 및 공장 정보)를 도시하고 있다. Referring to FIG. 3, when an image frame is received, the
정보 관리부(130)는 특징 추출부(120)로부터 전달된 제1 메타데이터와 차량의 번호판 정보를 저장한다. 또한, 정보 관리부(130)는 사용자로부터 차량 추적의 질의가 입력되면 저장된 번호판에 기반하여 차량 추적의 질의 처리 결과를 사용자에게 제공한다. 이는 정보 관리부(130) 내의 복수의 저장 노드(131)에서 수행된다. 이 때, 정보 관리부(130)에 저장된 차량의 번호판은 제1 메타데이터를 이용한 인덱스 기반으로 저장되며, 이에 따라 빠르게 검색 결과를 제공할 수 있다. The
보다 상세하게, 복수의 저장 노드(131)는 아파치 기반의 HBase(Apache HBase)일 수 있다. HBase는 하둡 플랫폼을 위한 공개 비관계형 분산 처리 데이터 베이스로서, 클러스터 내의 노드의 개수가 늘어날수록 빠르게 데이터 처리가 가능하지만 데이터 자체의 개수가 많으면 늘어날 수 있는 한계가 존재한다. 인덱스 구조는 이러한 HBase의 단점을 보완하는 방법이다. 데이터의 저장 시 Hilbert Space-filling Curve과 R-tree를 이용하고, 영상 프레임의 제1 메타데이터 내의 위도와 경도를 이용하여 구성된다. 저장될 데이터인 차량의 번호판 정보에 대한 위도 및 경도는 힐버트 공간 채움 곡선에 의해 변환되고, R-tree에 데이터의 주소 정보가 저장된다. 공간 데이터 검색 시, 해당하는 공간의 모든 R-tree를 탐색하고 데이터의 주소들을 수집하고, 해당하는 주소에만 데이터 검색을 시도하여 데이터 검색의 오버헤드를 줄일 수 있다. In more detail, the plurality of
보다 상세하게, 위도와 경도는 지리 정보를 나타내는 기본 속성이므로, 두 속성에 대한 색인 구조를 만들 수 있고, 색인 구조는 R-tree 및 Hilbert space-filling curve로 구성된다. In more detail, since latitude and longitude are basic attributes representing geographic information, an index structure can be created for both attributes, and the index structure is composed of R-tree and Hilbert space-filling curve.
R-tree는 공간 데이터 색인을 위한 가장 보편적인 데이터 구조 중 하나로서, R-tree는 다수의 데이터 포인트를 바인딩하고 최소 경계 사각형으로 알려진 경계를 최소화하는 사각형에 기초한다. R-tree의 중요한 특성은 높이가 균형 잡힌 구조이며 데이터 위치에 관계없이 안정적인 성능을 제공한다. 한편, 저장된 데이터의 양이 클수록 R-tree의 높이가 커지고 쿼리 응답 시간이 길어지는데, 이 문제를 해결하기 위해 본 발명에서는 Hilbert Space-filling Curve를 사용하여 R-tree를 분산시킨다. R-tree is one of the most common data structures for spatial data indexing, R-tree is based on a rectangle that binds multiple data points and minimizes the bounds known as the smallest bounding rectangle. An important characteristic of R-tree is its well-balanced structure and provides stable performance regardless of data location. Meanwhile, as the amount of stored data increases, the height of the R-tree increases and the query response time increases. In order to solve this problem, in the present invention, the R-tree is distributed using a Hilbert space-filling curve.
Space-filling Curve은 2차원 사각형이 포함된 커브이며, 2차원 데이터를 1차원 데이터로 변환하는데 사용된다. Hilbert Space-filling Curve은 로컬리티를 보존하는 데있어 최고의 성능을 보인다. 이러한 속성 때문에 본 발명에서는 Hilbert Space-filling Curve을 사용하여 공간 데이터 (X, Y)를 1차원 지점에 매핑한다. Hilbert Space-filling Curve의 전체 길이는 순서에 따라 다르다. The space-filling curve is a curve containing a 2D square and is used to convert 2D data into 1D data. Hilbert Space-filling Curve performs best in preserving locality. Because of this property, in the present invention, spatial data (X, Y) is mapped to a one-dimensional point using Hilbert Space-filling Curve. The total length of the Hilbert Space-filling Curve depends on the order.
일례로서, 도 5에서는 Hilbert Space-filling Curve를 도시하고 있다. 이 경우, X와 Y의 범위는 각각 0~3 이다. 각 사각형의 값은 X 및 Y에 해당하는 Hilbert Curve의 값이고, 빨간색 선은 Hilbert Curve를 나타낸다. 이 곡선에서 (3, 2)는 (1011)로 변환되고, (0, 0), (3,3) 및 (3,1)은 각각 (0000), (1010) 및 (1100)로 변환된다. As an example, FIG. 5 shows a Hilbert Space-filling Curve. In this case, the ranges of X and Y are 0-3, respectively. The value of each square is the value of the Hilbert Curve corresponding to X and Y, and the red line represents the Hilbert Curve. In this curve, (3, 2) is converted to (1011), and (0, 0), (3,3) and (3,1) are converted to (0000), (1010) and (1100), respectively.
도 6에서는 공간 정보(즉, GPS 데이터)의 전체 색인 구조를 도시하고 있다. 도 6을 참조하면, HBase의 각 노드에는 노드의 모든 영역 색인을 관리하는 IndexManager가 존재하며, IndexManager는 Hilbert Space-filling Curve 및 R-tree를 사용한다. 도 6에서는 차수 2의 Hilbert Space-filling Curve를 도시한다. Hilbert Space-filling Curve는 부동 소수점 값을 사용하지 않으므로, GPS 데이터인 위도 및 경도 정보는 정수 값으로 변환된다. (위도, 경도)로 표현된 가능한 모든 영역을 Hilbert Space-filling Curve에 맞게 나누고, 곡선의 영역에 영역을 매핑한다. 따라서, GPS 데이터는 곡선의 일부 정수 값에 할당되며 이 값을 사용한다. 그런 다음, 각 독립 영역에는 노드가 위도, 경도 및 데이터가 저장되는 주소 이름이 있는 하나의 R-tree가 존재한다. 6 shows the entire index structure of spatial information (ie, GPS data). Referring to FIG. 6, each node of HBase has an IndexManager that manages indexes of all regions of the node, and the IndexManager uses Hilbert Space-filling Curve and R-tree. 6 shows a Hilbert space-filling curve of
이하, 공간 쿼리를 처리하는 일례를 설명한다. (2, 2)에서 (3, 3)까지의 공간 질의가 주어질 때, 그 공간 조건은 (1000)에서 (1011)까지 Hilbert Space-filling Curve의 범위로 변환된다. 이 범위는 도 6의 녹색 직사각형으로 표시된다. 그 후, 범위에 포함된 영역에 R-tree가 있는지가 판단된다. 예를 들어, 도 6의 IndexManager에는 영역 1 및 영역 2가 존재하며, 영역 1에는 (1010)과 (1100)에 R-tree가 있고, 영역 2에는 (0001)과 (1001)에 R-tree가 있다. 질의 범위를 고려하면, 영역 1은 (1010)에 R-tree가 있고 영역 2는 (1001)에 R-tree가 있음을 확인할 수 있다. 영역에 R- 트리가 있으면, 공간 조건에 적합한 데이터 주소가 인덱스 구조에서 검색된다. 따라서, 영역 1에 대해, (1010)에서 R-tree를 탐색하기 시작하고, 데이터 어드레스를 수집한다. 그리고 영역 2에 대해, (1001)에서 상기한 동작이 수행된다. 모든 데이터 주소가 R-tree 검색을 통해 수집된 후 HBase는 사용자를 위해 결과를 기록한다. 전체 쿼리 결과를 얻으려면, 인덱스 구조의 지연 업데이트 정책으로 인해 메모리의 데이터를 확인해야 하며, 공간 질의 결과는 인덱스 및 메모리 검색 모두로부터의 데이터 어드레스를 포함한다. Hereinafter, an example of processing a spatial query will be described. When a spatial query from (2, 2) to (3, 3) is given, the spatial condition is converted into the range of Hilbert Space-filling Curve from (1000) to (1011). This range is denoted by the green rectangle in Fig. 6. After that, it is determined whether there is an R-tree in the area included in the range. For example, in the IndexManager of FIG. 6,
도 6에서는 본 발명의 일 실시예에 따른 정보 관리부(130)에서 제공되는 질의에 대한 검색 결과를 도시하고 있다. 도 6을 참조하면, 사용자가 질의로서, "차량 번호, 시작 시간 및 마지막 시간"을 입력하면 해당하는 구간의 데이터를 시각화하여 보여준다. 파란색 핀은 맨 처음 포착된 데이터이고 빨간색 핀은 맨 마지막 포착된 데이터다.6 shows a search result for a query provided from the
요컨대, 본 발명에 따르면, 넓은 범위에 분포된 감시 영상 촬영 장치에서 생성된 감시 영상을 처리하여 통합함으로써, 특정 차량의 위치와 시각을 정확하게 파악하여 사용자에게 제공할 수 있는 장점이 있다. 또한, 본 발명에 따르면, 차량 추적 시스템에서 처리되어 저장되는 데이터들은 범죄 차량 추적뿐만 아니라 도로 건설 계획의 참고 자료, 실시간 길 찾기에 필요한 교통 정보 등으로 활용될 수 있다.In short, according to the present invention, by processing and integrating a surveillance image generated by a surveillance image photographing apparatus distributed over a wide range, there is an advantage in that the location and time of a specific vehicle can be accurately identified and provided to a user. In addition, according to the present invention, the data processed and stored in the vehicle tracking system can be used as a reference material for road construction plans, traffic information required for real-time road finding, and the like, as well as criminal vehicle tracking.
이상과 같이 본 발명에서는 구체적인 구성 요소 등과 같은 특정 사항들과 한정된 실시예 및 도면에 의해 설명되었으나 이는 본 발명의 전반적인 이해를 돕기 위해서 제공된 것일 뿐, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상적인 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다. 따라서, 본 발명의 사상은 설명된 실시예에 국한되어 정해져서는 아니되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등하거나 등가적 변형이 있는 모든 것들은 본 발명 사상의 범주에 속한다고 할 것이다. As described above, in the present invention, specific matters such as specific components, etc., and limited embodiments and drawings have been described, but these are provided only to help the general understanding of the present invention, and the present invention is not limited to the above embodiments Anyone of ordinary skill in the field to which the present invention belongs can make various modifications and variations from this description. Therefore, the spirit of the present invention is limited to the described embodiments and should not be defined, and all things that are equivalent or equivalent to the claims as well as the claims to be described later fall within the scope of the spirit of the present invention. .
Claims (6)
상기 프레임 분배부로부터 전송된 상기 바이트 배열의 데이터를 이용하여 상기 영상 프레임들을 복원하고, 상기 복원된 영상 프레임들에 기초하여 상기 영상 스트림 내의 차량의 번호판을 추출하는 특징 추출부; 및
상기 특징 추출부로부터 전달된 상기 추출된 차량의 번호판을 저장하고, 사용자로부터 차량 추적의 질의가 입력되면 상기 저장된 번호판에 기반하여 상기 차량 추적의 질의 처리 결과를 상기 사용자에게 제공하는 정보 관리부;를 포함하되,
상기 프레임 분배부, 상기 특징 추출부 및 상기 정보 관리부 각각은 분산 처리 프레임워크를 기반으로 구성되는 것을 특징으로 하는 차량 추적 시스템.Receives an image stream from a plurality of image acquisition devices located at different locations, divides the image stream into image frames, converts each of the divided image frames into byte array data, and includes the image frames A frame distribution unit that transmits data of a corresponding byte array in units of the image frame;
A feature extracting unit for restoring the image frames using the data of the byte array transmitted from the frame distribution unit, and extracting a license plate of a vehicle in the image stream based on the restored image frames; And
And an information management unit that stores the extracted vehicle license plate transmitted from the feature extraction unit, and provides a query processing result of the vehicle tracking to the user based on the stored license plate when a vehicle tracking query is input from the user. But,
Each of the frame distribution unit, the feature extraction unit, and the information management unit is configured based on a distributed processing framework.
상기 프레임 분배부는 적어도 하나의 스트림 매니저 및 복수의 분배 노드를 포함하고,
상기 적어도 하나의 스트림 매니저 각각은, 상기 복수의 영상 획득 장치 중 대응되는 일부의 영상 획득 장치로부터 상기 영상 스트림을 수신하고, 상기 영상 스트림을 상기 영상 프레임 단위로 분할하고, 상기 분할된 영상 프레임들 각각을 바이트 배열의 데이터로 변환하고, 상기 변환된 바이트 배열의 데이터를 상기 영상 프레임 단위로 상기 복수의 분배 노드 중 대응되는 일부의 분배 노드로 전송하는 것을 특징으로 하는 차량 추적 시스템.The method of claim 1,
The frame distribution unit includes at least one stream manager and a plurality of distribution nodes,
Each of the at least one stream manager receives the image stream from a corresponding partial image acquisition device among the plurality of image acquisition devices, divides the image stream into units of the image frame, and each of the divided image frames And transforming the converted byte array data into data of the byte array, and transmitting the converted data of the byte array to a corresponding part of the distribution nodes among the plurality of distribution nodes in units of the image frame.
상기 특징 추출부는 복수의 처리 노드를 포함하되, 상기 복수의 처리 노드 각각은 상기 바이트 배열의 데이터를 이용하여 상기 차량의 번호판을 추출하며,
상기 정보 관리부는 복수의 저장 노드를 포함하되, 상기 복수의 저장 노드 각각은 상기 추출된 차량의 번호판을 저장하는 특징으로 하는 차량 추적 시스템.The method of claim 2,
The feature extraction unit includes a plurality of processing nodes, each of the plurality of processing nodes extracting a license plate of the vehicle using data of the byte array,
The information management unit includes a plurality of storage nodes, each of the plurality of storage nodes storing the extracted license plate of the vehicle.
상기 복수의 분배 노드는 카프카 클러스터 내의 카프카 노드이고,
상기 복수의 저장 노드는 HBase 노드인 것을 특징으로 하는 차량 추적 시스템.The method of claim 3,
The plurality of distribution nodes are Kafka nodes in a Kafka cluster,
Vehicle tracking system, characterized in that the plurality of storage nodes are HBase nodes.
상기 복수의 영상 획득 장치는 제1 메타데이터를 상기 영상 스트림과 함께 상기 프레임 분배부로 더 전송하되, 상기 제1 메타데이터는 상기 영상 스트림이 생성된 시간 및 공간의 정보를 포함하고,
상기 프레임 분배부는 상기 바이트 배열의 데이터를 전송하기 전에 제2 메타데이터를 미리 전송하고, 상기 제1 메타데이터를 상기 바이트 배열의 데이터와 함께 전송하되, 상기 제2 메타데이터는 상기 영상 프레임의 너비, 높이, 채널 정보를 포함하며,
상기 특징 추출부는 상기 제2 메타데이터를 참조하여 상기 차량의 번호판을 추출하는 것을 특징으로 하는 차량 추적 시스템.The method of claim 3,
The plurality of image acquisition devices further transmit first metadata to the frame distribution unit together with the image stream, wherein the first metadata includes information on time and space when the image stream is generated,
The frame distribution unit transmits second metadata in advance before transmitting the data of the byte array, and transmits the first metadata together with the data of the byte array, wherein the second metadata is a width of the image frame, Contains height, channel information,
And the feature extraction unit extracts the license plate of the vehicle by referring to the second metadata.
상기 정보 관리부에 저장된 차량의 번호판은 상기 제1 메타데이터를 이용한 인덱스 기반으로 저장되는 것을 특징으로 하는 차량 추적 시스템.The method of claim 5,
Vehicle tracking system, characterized in that the license plate of the vehicle stored in the information management unit is stored based on an index using the first metadata.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190046304A KR20200122900A (en) | 2019-04-19 | 2019-04-19 | Vehicle tracking system based on surveillance videos |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190046304A KR20200122900A (en) | 2019-04-19 | 2019-04-19 | Vehicle tracking system based on surveillance videos |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20200122900A true KR20200122900A (en) | 2020-10-28 |
Family
ID=73018512
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190046304A KR20200122900A (en) | 2019-04-19 | 2019-04-19 | Vehicle tracking system based on surveillance videos |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20200122900A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20230153267A1 (en) * | 2021-11-18 | 2023-05-18 | Nanhu Laboratory | High-performance data lake system and data storage method |
-
2019
- 2019-04-19 KR KR1020190046304A patent/KR20200122900A/en not_active Application Discontinuation
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20230153267A1 (en) * | 2021-11-18 | 2023-05-18 | Nanhu Laboratory | High-performance data lake system and data storage method |
US11789899B2 (en) * | 2021-11-18 | 2023-10-17 | Nanhu Laboratory | High-performance data lake system and data storage method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105164695B (en) | System and method for detecting the high interesting event in video data | |
CN104200671B (en) | A kind of virtual bayonet socket management method based on large data platform and system | |
US20140003708A1 (en) | Object retrieval in video data using complementary detectors | |
CN108683877B (en) | Spark-based distributed massive video analysis system | |
CN104486585B (en) | A kind of city magnanimity monitor video management method and system based on GIS | |
US20220301317A1 (en) | Method and device for constructing object motion trajectory, and computer storage medium | |
CN116824859B (en) | Intelligent traffic big data analysis system based on Internet of things | |
CN109902681B (en) | User group relation determining method, device, equipment and storage medium | |
Jung et al. | Real-time car tracking system based on surveillance videos | |
Le et al. | Weakly Labeling the Antarctic: The Penguin Colony Case. | |
CN114724131A (en) | Vehicle tracking method and device, electronic equipment and storage medium | |
Kazhamiaka et al. | Challenges and Opportunities for Autonomous Vehicle Query Systems. | |
Gloudemans et al. | So you think you can track? | |
KR20200122900A (en) | Vehicle tracking system based on surveillance videos | |
Abdelli et al. | A four-frames differencing technique for moving objects detection in wide area surveillance | |
Kamenetsky et al. | Aerial car detection and urban understanding | |
CN112306985A (en) | Digital retina multi-modal feature combined accurate retrieval method | |
Ganesh et al. | An intelligent video surveillance framework with big data management for Indian road traffic system | |
Schroth et al. | Exploiting prior knowledge in mobile visual location recognition | |
KR101527003B1 (en) | Big data system for blackbox | |
KR20210074180A (en) | System and method for estimating the location of object in crowdsourcing environment | |
Kulbacki et al. | VMASS: massive dataset of multi-camera video for learning, classification and recognition of human actions | |
US20230012137A1 (en) | Pedestrian search method, server, and storage medium | |
KR102637949B1 (en) | Server and method for managing thumbnail, and device for using thumbnail | |
Kim | Lifelong Learning Architecture of Video Surveillance System |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E601 | Decision to refuse application |