KR20090130977A - System of traffic conflict decision for signalized intersections using image processing technique - Google Patents

System of traffic conflict decision for signalized intersections using image processing technique Download PDF

Info

Publication number
KR20090130977A
KR20090130977A KR1020080056719A KR20080056719A KR20090130977A KR 20090130977 A KR20090130977 A KR 20090130977A KR 1020080056719 A KR1020080056719 A KR 1020080056719A KR 20080056719 A KR20080056719 A KR 20080056719A KR 20090130977 A KR20090130977 A KR 20090130977A
Authority
KR
South Korea
Prior art keywords
conflict
signal
vehicle
intersection
traffic
Prior art date
Application number
KR1020080056719A
Other languages
Korean (ko)
Other versions
KR100969995B1 (en
Inventor
오주택
김응철
민준영
Original Assignee
한국교통연구원
인천대학교 산학협력단
상지영서대학 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국교통연구원, 인천대학교 산학협력단, 상지영서대학 산학협력단 filed Critical 한국교통연구원
Priority to KR1020080056719A priority Critical patent/KR100969995B1/en
Publication of KR20090130977A publication Critical patent/KR20090130977A/en
Application granted granted Critical
Publication of KR100969995B1 publication Critical patent/KR100969995B1/en

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/54Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/08Detecting or categorising vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Abstract

PURPOSE: A system and a method for determining traffic conflict of a signalized intersection using an image process method are provided to analyze conflict accurately by determining the conflict in consideration of the conflict severity when analyzing the traffic conflict. CONSTITUTION: An image sensing system(200) senses the image by extracting the moving vehicle individually based on a sense line inside a sensing region automatically formed at a signalized intersection. A traveling trace tracker(310) tracks the position information on a screen at every frame by tracking the moving trace of the moving vehicles according to the sense image provided from the image sensing system. An individual vehicle ID granting unit(320) grants the identification to each moving vehicle. A conflict determining unit determines the conflict between the moving vehicles according to the tracked traveling trace of the moving vehicle with the identification in consideration of the conflict severity type.

Description

영상처리기법을 이용한 신호교차로의 교통상충 판단 시스템 및 방법 {System of traffic conflict decision for signalized intersections using image processing technique}System and method for traffic conflict determination using signal processing intersection {image of traffic conflict decision for signalized intersections using image processing technique}

본 발명은 신호교차로의 교통상충 판단 시스템 및 방법에 관한 것으로, 보다 구체적으로, 신호교차로에서 영상처리-기반 주행궤적 추적기법을 이용하여 교통상충을 판단하는 시스템 및 그 방법에 관한 것이다.The present invention relates to a system and method for determining traffic conflicts in a signal intersection, and more particularly, to a system and method for determining a traffic conflict using an image processing-based driving trajectory tracking technique in a signal intersection.

신호교차로의 교통사고는 통행 특성상 단일로에 비하여 많은 상충점을 가지고 있기 때문에 사고의 잠재성이 높다. 최근에는, 교통사고에 영향을 미치는 독립변수들을 이용하여 대상 신호교차로의 사고예측 모형을 개발하고, 이를 통하여 신호교차로의 안전도를 평가하려는 시도가 이루어지고 있다.Traffic accidents at signal intersections have a lot of trade-offs compared to single roads due to the nature of traffic. In recent years, attempts have been made to develop an accident prediction model of a target signal intersection using independent variables affecting traffic accidents, and to evaluate the safety of the signal intersection.

이러한 교통사고 자료를 기반으로 한 사고예측 모형의 개발은 사고 발생 후의 처리 측면이 보다 강하며, 교통사고 이력자료(historical data)의 취득이 쉽지 않고, 경찰에 보고된 교통사고 건수와 실제 발생한 교통사고 건수와는 불일치하는 경우가 빈번히 발생한다. 이것은 단순사고의 경우, 신고가 누락되기 때문이며, 또한, 교통사고 이력자료는 운전자의 인적 측면이나 현장상황을 보다 현실적 으로 고려하기 어렵다는 문제점이 있다. 이에 따라 근본적인 신호교차로에서의 안전도 향상을 위해서는 사고발생 이전에 처리할 수 있는 방법으로서, 교통상충 판단 기법이 거론되고 있다. The development of the accident prediction model based on the traffic accident data has a stronger process after the accident, and it is not easy to obtain historical data, and the number of traffic accidents reported to the police and the actual traffic accidents Inconsistencies with the number of cases occur frequently. This is because, in the case of a simple accident, the report is missing, and the traffic accident history data has a problem that it is difficult to consider the human aspect or the situation of the driver more realistically. Accordingly, in order to improve safety at the fundamental signal intersection, a traffic conflict determination technique has been proposed as a method that can be handled before an accident occurs.

교통상충 판단 기법(Traffic Conflict Technique: TCT)은 교차로에서의 잠재적인 교통사고를 측정하기 위한 방법으로 개발되었으며, 교통상충은 한 운전자가 다른 차량과의 충돌을 피하기 위해 제동이나 엇갈림에 의한 회피행동을 할 때 발생한다.Traffic Conflict Technique (TCT) has been developed as a way to measure potential traffic accidents at intersections. Traffic collisions can be used to avoid avoidance by braking or staggering to avoid a collision with another vehicle. Occurs when

구체적으로, 교통상충(Traffic conflict)은 사고를 유발시킬 수 있는 차량간의 상호작용이며, 도로이용자들은 "같은 시점에 같은 지점을 점유하려는 시도"를 함으로써 상충을 포함한 충돌의 과정에 놓이게 된다고 설명하고 있다. 이에 따르면, 사고는 도로 사용자와 도로 환경 및 차량 사이의 상호 작용의 실패로 인해 발생되는 것으로서, 예를 들면, 사고와 같은 형태로 상충이 발생한다. 즉, 상충과 사고발생 과정의 유사성이 존재한다.Specifically, a traffic conflict is an interaction between vehicles that can cause an accident and explains that road users are in the process of a collision involving conflicts by "trying to occupy the same point at the same time." . According to this, the accident is caused by the failure of the interaction between the road user and the road environment and the vehicle, for example, a conflict occurs in the form of an accident. In other words, there is a similarity between the conflict and the accident process.

한편, 도 1은 운전자간의 반응을 나타내는 입체 피라미드를 나타내는 도면이다. 1 is a view showing a three-dimensional pyramid showing the reaction between the drivers.

도 1을 참조하면, 주행 중 발생하는 상충은, 대략적으로 무방해 주행(Undisturbed Passages), 잠재적인 상충(Potential Conflicts), 가벼운 상충(Slight Conflict) 및 심각한 상충(Serious Conflict)의 단계로 구분될 수 있다. 이때, 주행시 발생하는 심각한 상충의 정점은 사고로 이어질 수 있고, 그 정점에는 사망과 중상 등 치명적인 사고가 위치하게 된다.Referring to FIG. 1, a conflict that occurs during driving can be roughly divided into stages of undisturbed passports, potential conflicts, light conflicts, and severe conflicts. have. At this time, the peak of a serious conflict that occurs during driving may lead to an accident, where fatal accidents such as death and serious injury are located.

또한, 일반적으로 사고의 유형은 크게 후 미추돌, 측면충돌, 직각충돌, 대향좌회전충돌 등으로 구분되기 때문에, 상충의 유형을 구분하는데 있어서도 후미추돌, 측면충돌, 직각충돌, 대향좌회전 충돌 상충의 유형으로 구분하여 상충을 판단하고 있다.In addition, since the types of accidents are generally classified into rear tail collisions, side collisions, right angle collisions, and counterclockwise collision collisions, there are also types of tail collisions, side collisions, right angle collisions, and counterclockwise collision conflicts. To determine the conflict.

도 2는 신호교차로에서의 다양한 상충점을 예시하는 도면이다.2 is a diagram illustrating various trade-offs at the signal crossroads.

도 2를 참조하면, 신호교차로에서는 신호현시에 따라 직진-직진, 좌회전-좌회전, 직진-좌회전의 상충점이 감소될 수 있으나, 신호현시에 의해서 적색신호에서의 각 접근로별 정지에 의한 상충이 추가됨으로써, 교차, 합류, 분류, 정지에 대한 총 24개의 상충점을 가질 수 있다. 도 2는 신호교차로에서의 전체 24개 상충점을 나타낸다.Referring to FIG. 2, in the signal intersection, the conflict points of the straight-forward, the left-turn and the left-turn, and the straight-left turn may be reduced according to the signal manifestation, but the conflict caused by the stop of each approach path in the red signal is added by the signal manifestation. As a result, there may be a total of 24 trade-offs for crossing, joining, sorting, and stopping. 2 shows a total of 24 tradeoffs at the signal crossroads.

또한, 교차로에서 통상적으로 발생하는 교통상충 유형으로는 동일방향(Same-direction) 상충, 대향좌회전(Opposing left-turn) 상충, 교차교통(Cross traffic) 상충, RTOR(Right-Turn-On-Red) 상충, 보행자(Pedestrian) 상충, 2차(Secondary) 상충 및 U-턴(U-turn) 상충 등이 있다. 이러한 상충 중에서 신호위반에 의하여 발생하는 상충 유형으로는 사고유형에 따른 상충유형에 따른 분류 중에서 직각충돌과 대향좌회전 충돌이 있으며, 이들 차량은 진입 과정에서 황색신호가 점등되면 정지하는 것이 원칙임에도 불구하고 신호를 위반하여 교차로에 진입을 시도하는 차량들이다. 이로 인하여 대향 방향에서 정상적인 신호를 받고 주행하려는 후행차량에게 회피행동 내지는 선행차량이 교차로를 통과하기까지 대기하게 되는 상황을 유발하게 된다.In addition, traffic conflict types commonly encountered at intersections include Same-direction conflicts, Opposing left-turn conflicts, Cross traffic conflicts, and Right-Turn-On-Red (RTOR). Conflict, pedestrian conflict, secondary conflict, and U-turn conflict. Among these conflicts, the types of conflicts generated by signal violations include right-angle collisions and counter-left turn collisions among the categories of conflict types according to the accident type, and these vehicles stop when the yellow signal turns on during entry. Vehicles attempting to enter an intersection in violation of a signal. This causes a situation in which a trailing vehicle or a preceding vehicle waits until the vehicle crosses an intersection to receive a normal signal in the opposite direction.

도 3은 신호 위반시 대향좌회전 상충을 예시하는 도면이고, 도 4는 신호위반시 직각충돌 유형을 예시하는 도면이다.FIG. 3 is a diagram illustrating a counter-left turn conflict in case of a signal violation, and FIG. 4 is a diagram illustrating a right angle collision type when a signal violation occurs.

도 3은 신호 위반시 대향좌회전 상충을 나타내는 도면으로서, 신호교차로(30)에서 제1 차량(31)이 제2 차량에 대해 대향좌회전을 하는 경우를 나타내고 있다.3 is a diagram illustrating a counter-left turn conflict when a signal is violated, and illustrates a case in which the first vehicle 31 makes a counter-left turn with respect to the second vehicle in the signal intersection 30.

도 4의 a)는 교차교통에서 좌측직진을 나타내며, 도 4의 b)는 교차교통에서 우측직진을 나타내고, 도 4의 c)는 교차교통, 좌측좌회전을 나타내며, 도 4의 d)는 교차교통에서 우측좌회전을 나타낸다. 즉, 제1 차량(41)이 제2 차량(42)에 대해 각각 좌측직진, 우측직진, 좌측좌회전 및 우측좌회전을 하면서 상충이 발생하는 것을 나타낸다.Figure 4 a) represents the left straight in the cross traffic, Figure 4 b) represents the right straight in the cross traffic, c) of Figure 4 represents the cross traffic, left turn left, d) of Figure 4 cross traffic Turn right at. That is, the first vehicle 41 shows that the conflict occurs while the left straight, the right straight, the left left turn and the right left turn relative to the second vehicle 42, respectively.

한편, 영상처리를 이용하여 도로, 차량 등 이동물체를 추적하는 기법에 대해 다양하게 개발되어 왔다. 이러한 영상처리 기법을 위해 사용되는 CCTV 카메라는 광범위한 지역의 교통상황을 파악할 수 있다는 장점이 있는 반면에, CCTV 시스템 자체 내에 정보수집 및 분석기능을 갖추고 있지 않기 때문에 현장 운영자에 의하여 순간 교통정보 파악에만 활용될 뿐 그 이외의 유용한 정보를 수집하지 못하는 단점을 가지고 있다.Meanwhile, various techniques have been developed for tracking moving objects such as roads and vehicles using image processing. CCTV cameras used for these image processing techniques have the advantage of being able to identify traffic conditions in a wide range of areas, while they do not have information collection and analysis functions within the CCTV system itself. It has the disadvantage of not collecting any other useful information.

그러나 교통상충 분석을 수행하는데 있어서, 비디오 촬영을 통한 영상분석 은 궁극적으로는 분석자의 주관이 반영되기 쉬운 측면이 존재하기 때문에 보다 정밀하고 정확한 교차로의 안전도를 판단하는 지표로서 전술한 교통상충 기법을 이용하기에는 한계가 있다는 문제점이 있다. 또한, 기존의 교통상충 기법은 사고 및 상충이 가지는 심각도에 대한 고려가 부족하다는 문제점이 있다.However, in conducting traffic conflict analysis, image analysis through video shooting ultimately reflects the subjectivity of the analyst. Therefore, the above-mentioned traffic conflict technique is used as an indicator for determining the safety of the intersection more precisely and accurately. There is a problem that there is a limit. In addition, the existing traffic conflict technique has a problem that there is a lack of consideration of the severity of accidents and conflicts.

전술한 문제점을 해결하기 위한 본 발명이 이루고자 하는 기술적 과제는, 교통상충 분석시에 각 유형별로 상충 심각도를 고려하여 상충을 판단함으로써, 상충을 정확하게 분석할 수 있는 영상처리기법을 이용한 신호교차로의 교통상충 판단 시스템 및 방법을 제공하기 위한 것이다.Technical problem to be solved by the present invention for solving the above problems, traffic collisions using the image processing technique that can accurately analyze the conflict by determining the conflict in consideration of the severity of the conflict for each type when analyzing traffic conflicts It is to provide a conflict determination system and method.

본 발명이 이루고자 하는 다른 기술적 과제는, 신호교차로의 안전도(위험도) 평가 시에 조사자의 주관적 오류를 배제시켜 신뢰성을 향상시킬 수 있는 영상처리기법을 이용한 신호교차로의 교통상충 판단 시스템 및 방법을 제공하기 위한 것이다.Another technical problem to be solved by the present invention is to provide a system and method for determining a traffic collision using a signal processing method that can improve reliability by excluding subjective errors of an investigator when evaluating the safety (risk) of a signal crossing. It is to.

전술한 기술적 과제를 달성하기 위한 수단으로서, 본 발명에 따른 영상처리기법을 이용한 신호교차로의 교통상충 판단 시스템은, 신호교차로(Signalized Intersection)에 자동으로 형성된 검지영역 내의 검지라인을 기반으로 이동 차량들을 개별적으로 추적하여 영상을 감지하는 영상감지 시스템; 상기 영상감지 시스템으로부터 제공되는 감지영상에 따라 상기 이동 차량들의 이동궤적을 추적하여 매 프레임별로 화면상의 위치정보를 추적하는 주행궤적 추적부; 상기 이동 차량들 각각에 식별번호(ID)를 부여하는 개별차량 ID 부여부; 및 상기 개별차량 ID가 부여된 이동 차량들의 추적된 주행궤적에 따라 상기 이동 차량들 간의 상충을 각각 의 유형별로 상충의 심각도를 고려하여 판단하는 상충 판단부를 포함하여 구성된다.As a means for achieving the above-described technical problem, the traffic conflict determination system of the signal intersection using the image processing technique according to the present invention, moving vehicles based on the detection line in the detection area automatically formed in the signalized intersection (Signalized Intersection) An image detection system for individually tracking and detecting an image; A driving trajectory tracking unit for tracking the movement trajectories of the moving vehicles according to the detected image provided from the image sensing system and tracking position information on the screen for each frame; An individual vehicle ID assigning unit which assigns an identification number to each of the moving vehicles; And a conflict determination unit that determines a conflict between the moving vehicles in consideration of the severity of the conflict for each type according to the tracked driving trajectory of the moving vehicles to which the individual vehicle ID is assigned.

여기서, 상기 상충 판단부는, 상기 이동 차량들의 신호위반시 발생하는 대향좌회전 상충 또는 직각충돌 상충 유형에 대하여 영상처리 기반으로 교통상충을 판단할 수 있다.Here, the conflict determination unit may determine a traffic conflict based on image processing with respect to a counter-left turn conflict or a right-angle collision conflict type generated when a signal of the moving vehicles violates.

여기서, 상기 상충 판단부는 신호위반, 약한 상충, 위험한 상충 및 심각한 상충으로 구분하여 판단할 수 있다.Here, the conflict determination unit may be determined by dividing into a signal violation, a weak conflict, a dangerous conflict, and a serious conflict.

여기서, 상기 상충 판단부는 영상처리기반으로 각 차량들의 시간에 따른 위치자료와 교차로 신호현시를 연결하여 각 차량이 교차로 안으로 진입한 시간과 밖으로 진출한 시간을 신호시간과 비교하여 신호위반을 판단하고, 신호위반 건수를 측정하는 것을 특징으로 한다.Here, the conflict determination unit connects the location data according to the time of each vehicle and the intersection signal manifestation on the basis of image processing, and determines the signal violation by comparing the time when each vehicle enters the intersection and the time when the vehicle exits with the signal time. The number of violations is measured.

여기서, 상기 상충 판단부는 이전 신호의 차량이 신호위반을 하였을 때 다음 신호의 차량이 교차로 내로 진입한 경우, 두 차량간의 제동거리를 계산하여 약한 상충을 판단하는 것을 특징으로 한다.Herein, when the vehicle of the previous signal violates the signal when the vehicle of the next signal enters the intersection, the conflict determination unit may determine a weak conflict by calculating a braking distance between the two vehicles.

여기서, 상기 상충 판단부는 주행 중인 두 차량의 상기 제동정지 거리를 계산하여 좌표화하였을 때, 상기 두 차량의 주행궤적이 상호 교차하는 경우, 위험한 상충으로 판단하는 것을 특징으로 한다.Here, the conflict determination unit, when calculating and coordinates the braking stop distance of the two vehicles running, characterized in that it is determined as a dangerous conflict when the driving trajectories of the two vehicles cross each other.

여기서, 상기 상충 판단부는 주행 중인 두 차량의 좌표에서 각각 차량의 범위를 나타내는 부분이 만나거나 겹치는 경우, 심각한 상충인 사고로 판단하는 것을 특징으로 한다.In this case, the conflict determination unit is characterized in that it is determined as a serious conflict when the parts representing the range of the vehicle in each of the coordinates of the two vehicles running or overlapping.

여기서, 상기 개별차량 ID 부여부는 상기 매 프레임에서 개별차량 MOR(Moving Object Region)이 감지되면 ID를 부여하고, 상기 MOR의 (left, top) 및 (right, bottom)의 좌표값을 참조테이블(Reference Table: RT)에 저장하는 것을 특징으로 한다.Herein, the individual vehicle ID granting unit assigns an ID when the individual vehicle moving object region (MOR) is detected in each frame, and references coordinate values of (left, top) and (right, bottom) of the MOR. Table: RT).

여기서, 상기 영상감지 시스템은 배경영상과 현재영상의 차영상(difference image)으로 이동 차량을 추출하고, 상기 이동 차량의 MOR(Moving Object Region)을 추출하기 위해 모폴로지를 이용하여 차량영역을 추출하며, 상기 검지라인을 통과하는 차량에 대해 속도와 점유시간을 산출하는 것을 특징으로 한다.Here, the image detection system extracts a moving vehicle into a difference image of a background image and a current image, and extracts a vehicle region using a morphology to extract a moving object region (MOR) of the moving vehicle, It is characterized by calculating the speed and occupancy time for the vehicle passing through the detection line.

전술한 기술적 과제를 달성하기 위한 수단으로서, 본 발명에 따른 영상처리기법을 이용한 신호교차로의 교통상충 판단 방법은, a) 신호 교차로(Signalized Intersection)에 자동으로 검지영역 및 검지라인을 설정하는 단계; b) 상기 자동으로 형성된 검지영역 내의 검지라인을 기반으로 이동 차량들을 개별적으로 추적하여 영상을 감지하는 단계; c) 상기 감지된 영상에 따라 상기 이동 차량들의 이동궤적을 추적하여 매 프레임별로 화면상의 위치정보를 추적하는 단계; d) 상기 이동 차량들 각각에 식별번호(ID)를 부여하는 단계; 및 e) 상기 개별차량 ID가 부여된 이동 차량들의 추적된 주행궤적에 따라 상기 이동 차량들 간의 상충을 각각의 유형별로 상충의 심각도를 고려하여 판단하는 단계를 포함하여 이루어진다.As a means for achieving the above-described technical problem, a traffic conflict determination method of the signal intersection using the image processing method according to the present invention, a) automatically setting the detection area and the detection line at the signal intersection (Signalized Intersection); b) sensing images by individually tracking moving vehicles based on detection lines in the automatically formed detection area; c) tracking the movement trajectories of the moving vehicles according to the detected image to track position information on the screen for each frame; d) assigning an identification number (ID) to each of said moving vehicles; And e) determining a conflict between the moving vehicles in consideration of the severity of the conflict for each type according to the tracked driving trajectory of the moving vehicles to which the individual vehicle ID is assigned.

여기서, 상기 a) 단계는 상기 신호교차로 전 영역에 걸쳐 검지영역을 수동으로 설정한 후, 카메라의 원근에 따라 일정 길이로 정렬하여 자동으로 검지라인 을 설정할 수 있다.Here, in the step a), after manually setting the detection area over the entire area by the signal intersection, the detection line may be automatically set by arranging the detection area according to the perspective of the camera.

여기서, 상기 b) 단계는, 상기 신호교차로로부터 촬영되는 영상의 픽셀거리를 보정하는 단계; 및 상기 이동 차량을 개별적으로 영역-기반 추적(Region Based Tracking)하는 단계를 포함할 수 있다.Here, step b) may include correcting a pixel distance of an image photographed from the signal intersection; And region-based tracking the moving vehicle individually.

여기서, 상기 d) 단계는, 상기 매 프레임에서 개별차량 MOR(Moving Object Region)이 감지되면 ID를 부여하는 단계; 및 상기 MOR의 (left, top) 및 (right, bottom)의 좌표값을 참조테이블(Reference Table: RT)에 저장하는 단계를 포함할 수 있다.The step d) may include: assigning an ID when a moving object region (MOR) is detected in each frame; And storing coordinate values of (left, top) and (right, bottom) of the MOR in a reference table (RT).

여기서, 상기 e) 단계는 신호위반, 약한 상충, 위험한 상충 및 심각한 상충으로 구분하여 판단하는 것을 특징으로 한다.Here, the step e) is characterized by judging by signal violation, weak conflict, dangerous conflict and serious conflict.

본 발명에 따르면, 교통상충 분석시에 각 유형별로 상충 심각도를 고려하여 상충을 판단함으로써, 상충을 정확하게 분석할 수 있다.According to the present invention, it is possible to accurately analyze the conflict by determining the conflict in consideration of the severity of the conflict for each type in the traffic conflict analysis.

본 발명에 따르면, 신호교차로의 안전도(위험도) 평가 시에 조사자의 주관적 오류를 배제시켜 신뢰성을 향상시킬 수 있다.According to the present invention, reliability can be improved by excluding subjective errors of the investigator when evaluating the safety (risk) of the signal intersection.

아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하 기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.DETAILED DESCRIPTION Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art may easily implement the present invention. As those skilled in the art would realize, the described embodiments may be modified in various different ways, all without departing from the spirit or scope of the present invention. In the drawings, parts irrelevant to the description are omitted in order to clearly describe the present invention, and like reference numerals designate like parts throughout the specification.

먼저, 이동물체(moving Object)의 추적에 대해 설명한다. 이동물체의 추적은 크게 모델-기반 추적(Model Based Tracking) 방식, 영역-기반 추적(Region Based Tracking) 방식, 능동 윤곽선-기반 추적(Active Contour Based Tracking) 방식 및 특징-기반 추적(Feature Based Tracking) 방식의 네 가지 종류가 있다.First, tracking of a moving object will be described. Tracking of moving objects is largely based on model-based tracking, region-based tracking, active contour-based tracking, and feature-based tracking. There are four kinds of methods.

도 5a 및 도 5b는 각각 3차원으로 차량 모델을 특성화한 것을 예시하는 도면들로서, 도 5a는 개별차량의 3차원(3D) 모델을 예시하며, 도 3b는 다양한 모델들을 나타낸다.5A and 5B are diagrams illustrating characterizing a vehicle model in three dimensions, respectively, and FIG. 5A illustrates a three-dimensional (3D) model of an individual vehicle, and FIG. 3B shows various models.

도 5a에 도시된 바와 같이, 모델-기반 추적 방식은 개별차량 형태를 3D 모델(50)로 표현하고, 도 5b에 도시된 바와 같이, 기 저장된 영상 내의 개별차량의 모델들(51, 52, 53, 54, 55)과 영상정합(Template Matching)을 통하여 차량을 추적하는 방법으로서, 예를 들면, 3D 모델로 표현된 차량(50)이 기저장된 영상 내의 개별차량의 모델들(51, 52, 53, 54, 55) 중에서 Car-sedan(51)인 것을 판단할 수 있다. 그런데, 모델-기반 추적 방식은 거리를 통과하는 모든 차량의 3D 모델화를 한다는 것이 현실적으로 어렵기 때문에, 이 방법은 차량이 적게 다니는 경우에 적합하다.As shown in FIG. 5A, the model-based tracking method expresses the individual vehicle type as a 3D model 50, and as shown in FIG. 5B, the models 51, 52, 53 of individual vehicles in the pre-stored image. , 54, 55) and a method of tracking a vehicle through image matching. For example, the models 50, 51, 52, and 53 of individual vehicles in a pre-stored image of the vehicle 50 represented as a 3D model are stored. , 54, 55), it can be determined that the car-sedan (51). However, because the model-based tracking method is practically difficult to 3D model all of the vehicles passing through the street, this method is suitable for the case where the vehicle travels less.

다음으로, 영역-기반 추적 방식은 차량 추적에서 가장 많이 쓰이는 방법으로, 다음의 수학식 1과 같이 배경영상과 현재영상의 차영상(difference image)으로 이동물체(moving object)를 추출하고, 이를 세그먼테이션(Segmentation)하게 된다.Next, the area-based tracking method is the most widely used method for vehicle tracking. The moving object is extracted as a difference image of the background image and the current image as shown in Equation 1 below, and segmentation is performed. (Segmentation).

Figure 112008043153963-PAT00001
Figure 112008043153963-PAT00001

여기서, 배경영상이 항상 일정하지 않기 때문에 배경영상을 재설정(refinement)하는 방법이 도입되어야 한다. 예를 들면, 대체적으로 주간, 야간, 일몰 시간대 등 하루의 사간변화와 나무의 흔들림(Waving Trees), 갑작스런 환경변화(Light switch) 등에 따라 배경영상을 재설정할 수 있다.Here, since the background image is not always constant, a method of refining the background image should be introduced. For example, a background image may be reset according to daytime changes, daytime, nighttime, sunset time zones, and the like, such as waving trees and sudden light changes.

대부분의 상용화 제품은 이러한 영역-기반 추적 방법을 채택하고 있으며, 그 이유는 상용화 제품인 경우, 단순히 개별차량 추적뿐만 아니라 교통정보수집, 사고감지 등 매 프레임별 처리해야하는 계산량이 많으므로 CCTV 카메라에서 컬러영상이 입력되었다 하더라도, 이를 256 Gray(8비트/pixel)로 변환하여 처리하게 되고, 이 경우 영역-기반 추적 방식이 이를 처리하는데 가장 유리하기 때문이다.Most commercialized products adopt this area-based tracking method. The reason is that commercialized products are not only tracking individual vehicles but also calculating a lot for each frame such as traffic information collection and accident detection. Even if is input, it is processed by converting it to 256 Gray (8 bits / pixel), in which case the area-based tracking method is most advantageous for processing it.

다음으로, 도 6은 능동 윤곽선-기반 추적(Active Contour Based Tracking)을 설명하기 위한 도면으로서, 도 6의 a)는 촬영된 영상을 나타내고, 도 6의 b)는 이동물체의 윤곽선을 추출한 것을 나타낸다.Next, FIG. 6 is a diagram for explaining active contour based tracking, in which a) of FIG. 6 shows a photographed image and b) of FIG. 6 shows that the contour of the moving object is extracted. .

도 6을 참조하면, 능동 윤곽선-기반 추적 방식은, 물체의 윤곽선(Contour 또는 Snake)(61)을 그려 이를 매 프레임마다 추적하는 방법으로서, 이는 전술한 영역-기반 방식보다는 계산량을 줄일 수 있으나, 영상 겹침에 대해서는 매우 취약 하다는 단점이 있다.Referring to FIG. 6, the active contour-based tracking method is a method of drawing a contour (Snake or Snake) 61 of the object and tracking it every frame, which can reduce the calculation amount than the area-based method described above. The disadvantage is that it is very vulnerable to image overlap.

마지막으로, 특징-기반 추적(Feature Based Tracking) 방식은 이동물체의 특징을 추출하여, 이 추출된 특징을 매 프레임별로 추적하는 방식으로서, 즉, 이동차량의 부분 특징(예를 들어, 컬러값)을 찾아 이를 매 프레임별로 추적하는 방법으로서, 영상 겹침 문제에 대해 다른 방법에 비하여 우수하다는 장점이 있다. 하지만 전반적으로 특징-기반 추적 방법은 이동물체의 특징을 추출하는데, 계산량이 많고, 이에 따라 계산시간이 많이 결린다는 문제점이 있다. 이를 해결하기 위한 방법으로, Constrained Delaunay Triangulation(CDT) 알고리즘이 있는데, 이 방법은 이동물체의 정확한 윤곽을 추출하는 것 보다는 계산량을 감소시키는데 유용하게 이용된다. 도 7은 CDT(Constrained Delaunay Triangulation)를 이용한 차량 감지를 설명하기 위한 도면으로서, 도 7의 a)는 촬영된 차량(71)의 영상을 나타내며, 도 7의 b)는 CDT(72)를 이용하여 차량을 감지하는 것을 나타낸다.Finally, the feature based tracking method extracts a feature of a moving object and tracks the extracted feature every frame, that is, a partial feature of the moving vehicle (for example, color value). As a method of tracking and tracking each frame by frame, the image overlap problem is superior to other methods. However, in general, the feature-based tracking method extracts the feature of the moving object, which has a large amount of computation and thus a lot of computation time. A solution to this problem is the Constrained Delaunay Triangulation (CDT) algorithm, which is useful for reducing the computational complexity rather than extracting the exact contours of moving objects. FIG. 7 is a view for explaining vehicle detection using Constrained Delaunay Triangulation (CDT), in which FIG. 7A illustrates an image of the photographed vehicle 71 and FIG. 7B illustrates the use of the CDT 72. Indicates detecting a vehicle.

한편, 영상-기반의 교통정보 수집시스템은 관리 및 운영상의 한계를 보이고 있는 기존의 루프 검지기의 역할을 대체하는 검지기로써의 역할 뿐만 아니라, 다양한 교통류의 정보를 제공하고 관리할 수 있다는 점에서 전 세계적으로 널리 사용되고 있다.On the other hand, the image-based traffic information collection system is not only to replace the role of the existing loop detector, which shows the limitation of management and operation, but also to provide and manage the information of various types of traffic. Widely used.

본 발명의 실시예로서, 교통신호와 연관되어 발생하는 상충의 유형을 구분하고 발생 가능한 상황에 대해 분석함으로써, 신호교차로의 안전성을 자동으로 판별하고 감시할 수 있는 영상처리기법을 이용한 신호교차로의 교통상충 판단 시스템 및 방법이 제공된다.According to an embodiment of the present invention, traffic classification is performed using an image processing technique that can automatically identify and monitor the safety of signal intersections by classifying the types of conflicts occurring in connection with traffic signals and analyzing the possible situations. Conflict determination systems and methods are provided.

여기서, 교통상충 판단기법은 상충수를 측정함으로써 교통안전 변화의 효율성을 결정하기 위한 비교적 빠른 방법이다. 특히, 교통상충 판단 기법은 적은 시간과 한정된 공간에서 조사를 통해 자료를 취득하고 분석할 수 있고, 또한 다양한 측면에서 기존의 교통사고 자료를 활용한 분석 방법보다 그 활용도가 높다.Here, the traffic conflict determination technique is a relatively fast method for determining the efficiency of traffic safety change by measuring the number of conflicts. In particular, the traffic conflict determination technique can acquire and analyze data through surveys in a small amount of time and in a limited space, and is more versatile than an analysis method using existing traffic accident data in various aspects.

또한, 본 발명의 실시예는 교통상충을 분석하는데 있어 각 유형별로 상충 심각도를 고려하여 상충을 판단할 수 있는 판단기준을 제시하고, 조사자의 주관이 개입됨으로써 발생할 수 있는 분석의 정확도를 확보하기 위하여 영상처리기반의 개별차량 추적 기법을 이용한다.In addition, the embodiment of the present invention to provide a criterion for judging the conflict in consideration of the severity of the conflict for each type in the analysis of traffic conflicts, and to ensure the accuracy of the analysis that may occur by the involvement of investigators It uses image processing based individual vehicle tracking technique.

한편, 도 8은 본 발명의 실시예에 따른 영상처리기법을 이용한 신호교차로의 교통상충 판단 시스템의 구성도이다.On the other hand, Figure 8 is a block diagram of a traffic conflict determination system of the signal intersection using the image processing method according to an embodiment of the present invention.

도 8을 참조하면, 본 발명의 실시예에 따른 영상처리기법을 이용한 신호교차로의 교통상충 판단 시스템은, 검지라인 기반 영상감지 시스템(200) 및 교통상충 판단 시스템(300)을 포함한다. 검지라인 기반 영상감지 시스템(200)은 촬상부(CCTV: 210), 영상변환부(220), 영상처리부(230) 및 검지라인 자동계산부(240) 등을 포함할 수 있다. 교통상충 판단 시스템(300)은 주행궤적 추적부(310), 개별차량 ID 부여부(320), 대향좌회전 상충 판단부(330), 직각충돌 상충 판단부(340) 및 상충정보 DB(350)를 포함할 수 있다.Referring to FIG. 8, the traffic conflict determination system using the image processing technique according to an embodiment of the present invention includes a detection line-based image detection system 200 and a traffic conflict determination system 300. The detection line-based image detection system 200 may include an imaging unit (CCTV) 210, an image conversion unit 220, an image processing unit 230, and an detection line automatic calculation unit 240. The traffic conflict determination system 300 includes a driving trajectory tracking unit 310, an individual vehicle ID granting unit 320, an opposing left turn conflict determination unit 330, a right angle collision conflict determination unit 340, and a conflict information DB 350. It may include.

영상감지 시스템(200)은 신호교차로(Signalized Intersection:100)에 자동으로 형성된 검지영역(110) 내의 검지라인(Detection Line Segments: 120)을 기반으로 이동 차량들을 개별적으로 추적하여 영상을 감지한다. 즉, 상기 영상감지 시스템(200)은 상기 신호교차로(100) 전 영역에 걸쳐 검지영역(110)을 수동으로 설정한 후, 카메라의 원근에 따라 일정 길이로 정렬하여 자동으로 검지라인(120)을 설정할 수 있다.The image detection system 200 detects an image by individually tracking moving vehicles based on a detection line segment 120 in the detection area 110 that is automatically formed at a signalized intersection (100). That is, the image detection system 200 manually sets the detection area 110 over the entire area of the signal intersection 100, and then automatically arranges the detection line 120 by arranging the detection area 110 according to the perspective of the camera. Can be set.

상기 영상감지 시스템(200)은 상기 신호교차로로부터 촬영되는 영상의 픽셀거리를 픽셀거리 보정 알고리즘(252)에 따라 보정하고, 또한, 차량검지 및 추적 알고리즘(251)에 따라 상기 이동 차량을 개별적으로 영역-기반 추적(Region Based Tracking)한다.The image detection system 200 corrects the pixel distance of the image photographed from the signal intersection according to the pixel distance correction algorithm 252, and separately covers the moving vehicle according to the vehicle detection and tracking algorithm 251. Region Based Tracking.

또한, 상기 영상감지 시스템(200)은 배경영상과 현재영상의 차영상(difference image)으로 이동 차량을 추출하고, 상기 이동 차량의 MOR(Moving Object Region)을 추출하기 위해 모폴로지를 이용하여 차량영역을 추출하며, 상기 검지라인(120)을 통과하는 차량에 대해 속도와 점유시간을 산출한다.In addition, the image detection system 200 extracts a moving vehicle as a difference image of a background image and a current image, and extracts a moving region using a morphology to extract a moving object region (MOR) of the moving vehicle. Extract the speed and occupancy time for the vehicle passing through the detection line 120.

상기 영상감지 시스템(200)의 촬상부(CCTV: 210), 영상변환부(220) 및 영상처리부(230)는 기존의 영상감지 시스템과 동일하므로 상세한 설명은 생략하며, 또한, 상기 영상감지 시스템(200)의 검지라인 자동계산부(240)에 대해서는 후술하기로 한다.Since the imaging unit (CCTV) 210, the image conversion unit 220, and the image processing unit 230 of the image detection system 200 are the same as the existing image detection system, a detailed description thereof will be omitted, and the image detection system ( The detection line automatic calculation unit 240 of 200 will be described later.

교통상충 판단 시스템(300)의 주행궤적 추적부(310)는 상기 영상감지 시스템(200)으로부터 제공되는 상충 분석용 원시 데이터(Raw Data)인 감지영상에 따라 상기 이동 차량들의 이동궤적을 추적하여 매 프레임별로 화면상의 위치정보를 추적한다.The driving trajectory tracking unit 310 of the traffic collision determination system 300 tracks the movement trajectories of the moving vehicles according to the detected image which is the raw data for conflict analysis provided from the image sensing system 200. Track location information on the screen by frame.

교통상충 판단 시스템(300)의 개별차량 ID 부여부(320)는 상기 이동 차량 들 각각에 식별번호(ID)를 부여한다. 구체적으로, 개별차량 ID 부여부(320)는 상기 매 프레임에서 개별차량 MOR(Moving Object Region)이 감지되면 ID를 부여하고, 상기 MOR의 (left, top) 및 (right, bottom)의 좌표값을 참조테이블(Reference Table: RT)에 저장하게 된다.The individual vehicle ID granting unit 320 of the traffic conflict determination system 300 assigns an identification number (ID) to each of the moving vehicles. Specifically, the individual vehicle ID granting unit 320 assigns an ID when the individual vehicle moving object region (MOR) is detected in each frame, and provides coordinate values of (left, top) and (right, bottom) of the MOR. It is stored in a reference table (RT).

상충 판단부는 이동 차량들의 신호위반시 발생하는 대향좌회전 상충 판단부(330) 또는 직각충돌 상충 판단부(340)를 포함하며, 상기 개별차량 ID가 부여된 이동 차량들의 추적된 주행궤적에 따라 상기 이동 차량들 간의 상충을 각각의 유형별로 상충의 심각도를 고려하여 판단하게 된다.The conflict determination unit may include a counter-left turn conflict determination unit 330 or a right-angle collision conflict determination unit 340 generated when a signal of the moving vehicles is violated, and the movement may be performed according to tracked driving trajectories of the mobile vehicles to which the individual vehicle ID is assigned. Conflicts between vehicles are determined by considering the severity of the conflict for each type.

이때, 대향좌회전 상충 판단부(330)는 대향좌회전 상충 판단 알고리즘(331)에 따라 상충을 판단하고, 직각충돌 상충 판단부(340)는 직각충돌 상충 판단 알고리즘(341)에 따라 상충을 판단한다. 상기 대향좌회전 상충 판단부(330) 또는 직각충돌 상충 판단부(340)는 신호위반, 약한 상충, 위험한 상충 및 심각한 상충으로 구분하여 판단하게 된다.At this time, the counterclockwise conflict conflict determination unit 330 determines the conflict according to the counterclockwise conflict conflict determination algorithm 331, and the right angle conflict conflict determination unit 340 determines the conflict according to the right angle conflict conflict determination algorithm 341. The counterclockwise conflict conflict determination unit 330 or the right-angle collision conflict determination unit 340 may be classified into a signal violation, a weak conflict, a dangerous conflict, and a serious conflict.

상기 대향좌회전 상충 판단부(330) 또는 직각충돌 상충 판단부(340)는 영상처리-기반으로 각 차량들의 시간에 따른 위치자료와 교차로 신호현시를 연결하여 각 차량이 교차로 안으로 진입한 시간과 밖으로 진출한 시간을 신호시간과 비교하여 신호위반을 판단하고, 신호위반 건수를 측정한다.The opposite left turn conflict determination unit 330 or the right-angle collision conflict determination unit 340 connects the location data according to the time of each vehicle and the intersection signal appearance based on the image processing-based, and advances out of the time when each vehicle enters into the intersection. The signal violation is determined by comparing the time with the signal time, and the number of signal violations is measured.

또한, 상기 대향좌회전 상충 판단부(330) 또는 직각충돌 상충 판단부(340)는 이전 신호의 차량이 신호위반을 하였을 때 다음 신호의 차량이 교차로 내로 진입한 경우, 두 차량간의 제동거리를 계산하여 약한 상충을 판단하게 되며, 또한, 주행 중인 두 차량간의 상기 제동거리에 따라 두 차량간의 제동지점까지의 연장선이 서로 만나거나, 상호 교차하지 않는다면, 심각하지 않은 약한 상충으로 판단하게 된다.In addition, the opposing left turn conflict determination unit 330 or the right-angle collision conflict determination unit 340 calculates a braking distance between two vehicles when the vehicle of the next signal enters the intersection when the vehicle of the previous signal violates the signal. The weak conflict is determined, and if the extension lines to the braking point between the two vehicles meet each other or do not cross each other according to the braking distance between the two vehicles being driven, it is determined that the weak conflict is not serious.

또한, 상기 대향좌회전 상충 판단부(330) 또는 직각충돌 상충 판단부(340)는 주행 중인 두 차량의 상기 제동정지 거리를 계산하여 좌표화하였을 때, 상기 두 차량의 주행궤적이 상호 교차하는 경우, 위험한 상충으로 판단하게 된다. In addition, when the counter-left turn conflict determination unit 330 or the right-angle collision conflict determination unit 340 calculates and coordinates the braking stop distances of the two vehicles being driven, when the driving trajectories of the two vehicles cross each other, It is a dangerous conflict.

또한, 상기 대향좌회전 상충 판단부(330) 또는 직각충돌 상충 판단부(340)는 주행 중인 두 차량의 좌표에서 각각 차량의 범위를 나타내는 부분이 만나거나 겹치는 경우, 심각한 상충인 사고로 판단하게 된다.In addition, the opposing left turn conflict determination unit 330 or the right-angle collision conflict determination unit 340 is determined as a serious conflict when a portion representing the range of the vehicle meets or overlaps, respectively, in the coordinates of the two vehicles being driven.

이때, 상기 신호위반, 약한 상충, 위험한 상충 또는 심각한 상충에 대한 정보는 상충정보 DB(350) 내에 저장될 수 있다.At this time, the information about the signal violation, weak conflict, dangerous conflict or serious conflict may be stored in the conflict information DB (350).

따라서 본 발명의 실시예에 따르면, 교통신호와 연관되어 발생하는 상충의 유형을 구분하고 발생 가능한 상황에 대해 분석함으로써, 신호교차로의 안전성을 자동으로 판별하고 감시할 수 있고, 특히, 사고다발 신호교차로에 적용한 교통상충 판단 시스템 및 방법을 통하여 기존 신호교차로 및 신설되는 신호교차로의 안전도를 평가하고 감시하는데 이용할 수 있다.Therefore, according to an embodiment of the present invention, by identifying the type of conflict that occurs in connection with the traffic signal and analyzing the possible situation, it is possible to automatically determine and monitor the safety of the signal intersection, in particular, accident incident signal intersection Traffic collision determination system and method can be used to evaluate and monitor the safety of existing signal intersections and newly established signal intersections.

도 9는 본 발명의 실시예에 따른 검지영역의 자동설정을 설명하기 위한 도면이다.9 is a view for explaining automatic setting of a detection area according to an embodiment of the present invention.

도 9를 참조하면, 본 발명의 실시예에 따른 검지영역 자동설정 알고리즘을 실제 교차로(100)에 적용하여 검지영역(110)을 설정한 후, 교통량, 속도, 점유율 등의 교통정보를 수집한다. 이때, 교통정보는 추적-기반의 개별차량 주행궤적 추적하여 수집하는 것이기 때문에 전체 차로에 걸쳐 검지영역(WIde Detection Area: WIDA)(110)을 먼저 수동으로 설정하고, 이후, 카메라의 원근에 따라 일정 길이에 맞춰 자동으로 검지라인(120)을 설정하게 된다.Referring to FIG. 9, after detecting the detection area 110 by applying the detection area automatic setting algorithm according to an embodiment of the present invention to the actual intersection 100, traffic information such as traffic volume, speed, and occupancy is collected. At this time, since the traffic information is collected by tracking the track-based individual vehicle driving trajectory, the detection area (WIDA) 110 is set manually first over the entire lane, and then, according to the perspective of the camera, The detection line 120 is automatically set according to the length.

구체적으로, 본 발명의 실시예에서, 자동 설정된 검지영역을 통하여 교통정보를 수집을 위한 차량감지(Vehicle Detection)를 수행할 때, 배경영상과 차영상(Background subtraction image)을 이용하는 방법을 사용하고, 이후, 수집된 교통정보를 상용화된 영상검지기 결과와 비교하기 위해서, 기존 상용화된 영상검지기인 Autoscope와 동일한 영상을 대상으로 비교하게 된다.Specifically, in an embodiment of the present invention, when performing vehicle detection for collecting traffic information through an automatically set detection area, a method using a background image and a background subtraction image is used. Thereafter, in order to compare the collected traffic information with a commercialized image detector, the same image as that of Autoscope, which is an existing commercialized image detector, is compared.

도 10은 본 발명의 실시예에 따른 CCTV를 통해 들어오는 교차로 영상을 예시하는 도면이다.10 is a diagram illustrating an intersection image coming through CCTV in accordance with an embodiment of the present invention.

영상기반 교통정보 수집시스템은 기존의 Tripwire 기반의 영상검지기와 개별차량 주행궤적 추적(tracking) 기법으로 크게 두 가지로 나눌 수 있는데, 두 기능 모두 검지영역을 설정함에 있어 수동으로 설정하여야 하고, 이때, 주행궤적 추적 기법의 영상 검지기는 최소 30m 이상의 검지영역을 설정하여야 한다. 특히, 연속류 도로가 아닌 교차로에서는 CCTV의 주시방향에 따라 사각(oblique angle)으로 영상이 들어오며, 이 영상으로 교통량을 제외한 다른 교통정보를 얻는다는 것이 어렵게 된다.Image-based traffic information collection system can be divided into two types of existing tripwire-based image detector and individual vehicle driving trajectory tracking technique. Both functions must be set manually in setting the detection area. The image detector of the driving trajectory tracking technique should have a detection area of at least 30m. In particular, at intersections other than continuous flow roads, images are entered at oblique angles depending on the direction of CCTV, and it becomes difficult to obtain other traffic information except traffic volume.

즉, 신호교차로 CCTV를 통해 들어오는 영상은, 도 10에 도시된 바와 같이, 사각(oblique angle)으로 들어오기 때문에 신호교차로 내 거리를 정확히 산출하지 못하며, 이에 따라 교통량을 제외한 속도, 점유율, 상충정보 등을 판단하는데 어려움이 있다.That is, the image coming through the CCTV at the signal intersection, as shown in Figure 10, because it enters the oblique angle does not accurately calculate the distance within the signal intersection, according to the speed, occupancy, conflict information, etc. There is a difficulty in judging.

따라서 본 발명의 실시예에 따른 영상기반 감지 시스템은, 검지라인 자동계산을 이용한 차량 추적시, 픽셀(Pixel)거리 보정 알고리즘을 이용하게 된다.Therefore, the image-based detection system according to the embodiment of the present invention uses a pixel distance correction algorithm when tracking a vehicle using automatic detection line detection.

픽셀(Pixel)거리 보정 알고리즘은, 먼저, 두점

Figure 112008043153963-PAT00002
Figure 112008043153963-PAT00003
를 지나는 직선의 방정식은 수학식 2와 같다.Pixel distance correction algorithm, first, two points
Figure 112008043153963-PAT00002
and
Figure 112008043153963-PAT00003
The equation of the straight line passing through is shown in Equation 2.

Figure 112008043153963-PAT00004
Figure 112008043153963-PAT00005
Figure 112008043153963-PAT00004
Figure 112008043153963-PAT00005

또한, 두 직선

Figure 112008043153963-PAT00006
Figure 112008043153963-PAT00007
의 교차점을
Figure 112008043153963-PAT00008
라 했을 때, 다음의 수학식 3과 같이
Figure 112008043153963-PAT00009
를 구할 수 있다.Also, two straight lines
Figure 112008043153963-PAT00006
And
Figure 112008043153963-PAT00007
At the intersection of
Figure 112008043153963-PAT00008
When we say, as shown in equation (3)
Figure 112008043153963-PAT00009
Can be obtained.

Figure 112008043153963-PAT00010
,
Figure 112008043153963-PAT00010
,

여기서,

Figure 112008043153963-PAT00011
이다.here,
Figure 112008043153963-PAT00011
to be.

도 11은 본 발명의 실시예에 따른 픽셀거리 보정 알고리즘을 실제로 교차로 영상에 적용한 것을 예시하는 도면이다.FIG. 11 illustrates an example of actually applying a pixel distance correction algorithm to an intersection image according to an exemplary embodiment of the present invention.

도 11은 전술한 수학식 3에 따른 픽셀거리 보정 알고리즘을 실제 교차로 영상에 적용한 결과로서, CCTV 카메라 위치를 원점으로 하는 Global 좌표축

Figure 112008043153963-PAT00012
와 영상을 기준으로 하는
Figure 112008043153963-PAT00013
로 구분한다. 여기서, Global 좌표 기준으로
Figure 112008043153963-PAT00014
으로 이루어진 네 점을 통과하는 직선의 교차점
Figure 112008043153963-PAT00015
을 구한다. 11 is a result of applying the pixel distance correction algorithm according to Equation 3 to the actual intersection image, a global coordinate axis with the origin of the CCTV camera
Figure 112008043153963-PAT00012
Based on the and video
Figure 112008043153963-PAT00013
Separate by. Where the global coordinate
Figure 112008043153963-PAT00014
The intersection of a straight line through four points
Figure 112008043153963-PAT00015
Obtain

다음으로, 교차로 내 같은 거리의 검지라인을 구분하기 위해서,

Figure 112008043153963-PAT00016
Figure 112008043153963-PAT00017
의 사이각
Figure 112008043153963-PAT00018
와 같은 각도로 Line
Figure 112008043153963-PAT00019
을 구한다. Next, to distinguish detection lines of the same distance in the intersection,
Figure 112008043153963-PAT00016
Wow
Figure 112008043153963-PAT00017
Angle between
Figure 112008043153963-PAT00018
Line at the same angle as
Figure 112008043153963-PAT00019
Obtain

이때, Line

Figure 112008043153963-PAT00020
Figure 112008043153963-PAT00021
의 직선의 방정식을 점
Figure 112008043153963-PAT00022
를 중심으로 -
Figure 112008043153963-PAT00023
각도만큼 회전을 시킨 직선이기 때문에 다음의 수학식 4에 의해서 구할 수 있다.At this time, Line
Figure 112008043153963-PAT00020
silver
Figure 112008043153963-PAT00021
Dot equation of straight line
Figure 112008043153963-PAT00022
Centered on-
Figure 112008043153963-PAT00023
Since it is a straight line rotated by an angle, the following equation (4) can be obtained.

Figure 112008043153963-PAT00024
,
Figure 112008043153963-PAT00024
,

Figure 112008043153963-PAT00025
,
Figure 112008043153963-PAT00025
,

Figure 112008043153963-PAT00026
Figure 112008043153963-PAT00026

여기서,

Figure 112008043153963-PAT00027
,
Figure 112008043153963-PAT00028
이다.here,
Figure 112008043153963-PAT00027
,
Figure 112008043153963-PAT00028
to be.

이후, 교차로

Figure 112008043153963-PAT00029
,
Figure 112008043153963-PAT00030
사이의 픽셀을 동일한 길이로 N등분하고, Line
Figure 112008043153963-PAT00031
직선상
Figure 112008043153963-PAT00032
의 길이를 N등분하며, N등분된 각각의 좌 표값과
Figure 112008043153963-PAT00033
점과 연결하는 직선의 방정식을 구하여, 교차점
Figure 112008043153963-PAT00034
을 지나는 직선과 만나는 점을 구한다.After, intersection
Figure 112008043153963-PAT00029
,
Figure 112008043153963-PAT00030
Divide pixels in equal lengths by N, line
Figure 112008043153963-PAT00031
Straight
Figure 112008043153963-PAT00032
Divide the length of N into
Figure 112008043153963-PAT00033
Find the equation of a straight line connecting a point, the intersection
Figure 112008043153963-PAT00034
Find the point where the line meets the straight line.

구체적으로, 본 발명의 실시예에 따른 픽셀거리 보정 알고리즘을 단계별로 정리하면 다음과 같다.Specifically, the pixel distance correction algorithm according to the embodiment of the present invention is summarized as follows.

(제1 단계) CCTV 카메라를 원점으로 하는 Global 좌표축

Figure 112008043153963-PAT00035
와 영상을 기준으로 하는 좌표축
Figure 112008043153963-PAT00036
을 설정한다. (Step 1) Global coordinate axis based on CCTV camera
Figure 112008043153963-PAT00035
Axes based on the image and the image
Figure 112008043153963-PAT00036
Set.

(제2 단계) 전술한 수학식 2 및 수학식 3에 의해, 교차로 다각형 검지영역의

Figure 112008043153963-PAT00037
를 통과하는 직선의 교차점
Figure 112008043153963-PAT00038
을 구한다. (Second Step) By the above equations (2) and (3), the intersection polygon detection area is
Figure 112008043153963-PAT00037
The intersection of a straight line through
Figure 112008043153963-PAT00038
Obtain

(제3 단계) 전술한 수학식 4에 따라

Figure 112008043153963-PAT00039
의 직선의 방정식을 점
Figure 112008043153963-PAT00040
를 중심으로 -
Figure 112008043153963-PAT00041
각도만큼 회전시킨 직선 Line
Figure 112008043153963-PAT00042
을 구한다. (Step 3) According to Equation 4 described above
Figure 112008043153963-PAT00039
Dot equation of straight line
Figure 112008043153963-PAT00040
Centered on-
Figure 112008043153963-PAT00041
Straight line rotated by an angle
Figure 112008043153963-PAT00042
Obtain

(제4 단계)

Figure 112008043153963-PAT00043
직선 만나는 영역을 N등분하고, N등분한 각 점
Figure 112008043153963-PAT00044
과의 직선의 방정식을 산출한다. (Fourth step)
Figure 112008043153963-PAT00043
Each point that divides N area into straight lines
Figure 112008043153963-PAT00044
Calculate the equation of a straight line with.

(제5 단계)

Figure 112008043153963-PAT00045
,
Figure 112008043153963-PAT00046
을 지나는 직선과 만나는 점을 구한다. (Step 5)
Figure 112008043153963-PAT00045
,
Figure 112008043153963-PAT00046
Find the point where the line meets the straight line.

(제6 단계) 제3 단계와 동일한 방법으로

Figure 112008043153963-PAT00047
의 직선의 방정식을 점
Figure 112008043153963-PAT00048
를 중심으로
Figure 112008043153963-PAT00049
각도만큼 회전을 시킨 직선 Line
Figure 112008043153963-PAT00050
을 구한다. (Sixth Step) In the same manner as the third step
Figure 112008043153963-PAT00047
Dot equation of straight line
Figure 112008043153963-PAT00048
Around
Figure 112008043153963-PAT00049
Straight line rotated by angle
Figure 112008043153963-PAT00050
Obtain

(제7 단계)

Figure 112008043153963-PAT00051
직선과 만나는 영역을 M등분하고, M등분한 각 점
Figure 112008043153963-PAT00052
과의 직선의 방정식을 산출한다. (Step 7)
Figure 112008043153963-PAT00051
Each point that divides M area into straight lines and divides M
Figure 112008043153963-PAT00052
Calculate the equation of a straight line with.

(제8 단계)

Figure 112008043153963-PAT00053
,
Figure 112008043153963-PAT00054
을 지나는 직선과 만나는 점을 구한다. (Step 8)
Figure 112008043153963-PAT00053
,
Figure 112008043153963-PAT00054
Find the point where the line meets the straight line.

(제9 단계)

Figure 112008043153963-PAT00055
,
Figure 112008043153963-PAT00056
을 지나는 직선과 만나는 점을 구한다. 따라서 전술한 제1 내지 제9 단계에 의해 픽셀이 보정된다. (Step 9)
Figure 112008043153963-PAT00055
,
Figure 112008043153963-PAT00056
Find the point where the line meets the straight line. Therefore, the pixel is corrected by the first to ninth steps described above.

한편, 도 12는 본 발명의 실시예에 따른 배경영상과 현재영상의 차영상 처리를 나타내는 도면이다.12 is a diagram illustrating difference image processing between a background image and a current image according to an embodiment of the present invention.

도 12를 참조하면, 본 발명의 실시예에 따른 차량검지 및 추적 알고리즘은 도면부호 121로 도시된 배경영상과 도면부호 122로 도시된 현재 영상의 차영상(도면부호 123 참조)을 이용한 영역 기반(Region Based) 방식을 적용하며, 그 이유로는 일반 상용화 제품과 같이 단지 추적만을 처리하는 것이 아니라 추적을 기반으로 교통정보까지 계산하게 되면 많은 처리시간이 필요하다. 따라서 영상처리를 8비트로 단순화하여 계산량을 줄여야 하며, 또한 속도, 점유시간을 계산하려면, 이동차량의 전체 윤곽을 추출해야 정확한 교통정보가 산출되기 때문이다.Referring to FIG. 12, a vehicle detection and tracking algorithm according to an embodiment of the present invention is based on a region-based image using a difference image (see reference numeral 123) of a background image shown at 121 and a current image shown at 122. Region Based) is applied, because it requires a lot of processing time to calculate traffic information based on tracking rather than just tracking like general commercial products. Therefore, it is necessary to reduce the amount of calculation by simplifying the image processing to 8 bits, and to calculate the speed and occupancy time, it is necessary to extract the entire outline of the moving vehicle to obtain accurate traffic information.

도 13은 본 발명의 실시예에 따른 추적 처리 절차를 나타내는 동작흐름도이다.  13 is a flowchart illustrating a tracking processing procedure according to an embodiment of the present invention.

도 13을 참조하면, 본 발명의 실시예에 따른 추적 처리는 크게 세 영역으로 나누어 수행된다. 첫째, 배경영상과 현재영상의 차영상(difference image)으로 이동차량을 추출하고(S1301, S1302, S1311, S1312), 둘째, 차량의 MOR(Moving Object Region)을 추출하기 위해 모폴로지를 이용하여 정확한 차량영역을 추출하며(S1321 내지 S1329), 셋째, 검지라인을 통과하는 차량에 대해 속도와 점유시간을 산출한다(S1331 내지 S1334).Referring to FIG. 13, the tracking process according to the embodiment of the present invention is largely divided into three areas. First, the moving vehicle is extracted from the difference image of the background image and the current image (S1301, S1302, S1311, S1312), and second, the exact vehicle using the morphology to extract the moving object region (MOR) of the vehicle. The area is extracted (S1321 to S1329), and third, the speed and the occupancy time are calculated for the vehicle passing through the detection line (S1331 to S1334).

다음으로, 차량 검지(Vehicle Detection)시 배경영상과 현재영상의 차영상(S1321)에서 이진화 영상(Binalization)으로 변환하기 위해 임계값을 결정하는데(S1322), 이때, 보다 정확한 임계값을 구하기 위하여 각 지점의 경험값을 적용하여 27에서 255 사이의 값으로 구한다. Next, when the vehicle detection (Vehicle Detection), the threshold value is determined to convert from the difference image (S1321) of the background image and the current image to the binarization image (Binalization) (S1322), at this time, to obtain a more accurate threshold value Obtain the value between 27 and 255 using the empirical value of the point.

S1323 단계 내지 S1325 단계의 모폴로지는 Dilation과 Closing을 이용하였으며 Dilation은 차량의 윤곽을 명확히 하기 위한 것이고, Closing은 차량의 이진영상에서 순수한 차량만 추출하기 위한 것이다. 이때, 해당 Dilation 관련 수학식 및 Closing 관련 수학식은 각각 수학식 5 및 수학식 6과 같다.The morphology of steps S1323 to S1325 uses dilation and closing. Dilation is for clarifying the outline of the vehicle, and closing is for extracting only pure vehicle from the binary image of the vehicle. In this case, the equations related to dilation and the equations related to closing are the same as Equations 5 and 6, respectively.

Figure 112008043153963-PAT00057
Figure 112008043153963-PAT00057

Figure 112008043153963-PAT00058
Figure 112008043153963-PAT00058

여기서, A는 차량구분 영역(Vehicle Segmented Area)이고, B는 Structuring Element이다.Here, A is a vehicle segmented area and B is a structuring element.

도 14는 본 발명의 실시예에 따른 차량감지 절차를 나타내는 도면이다.14 is a view showing a vehicle detection procedure according to an embodiment of the present invention.

도 14를 참조하면, 본 발명의 실시예에 따른 차량감지 절차는, 도면부호 S1401 내지 S1405 단계의 모폴로지에 의해 이동차량이 감지된 후 3ㅧ 3 이내의 영역은 노이즈로 처리하여 제거하고(S1401), 그 이상의 크기만을 이동차량이라 판단하여 MOR(Moving Object Region)으로 처리한다(S1402 내지 S1405).Referring to FIG. 14, in the vehicle detecting procedure according to the embodiment of the present invention, after detecting the moving vehicle by the morphology of steps S1401 to S1405, an area within 3 ㅧ 3 is treated as noise and removed (S1401). In operation S1402 to S1405, only the size larger than that is determined as the moving vehicle (MOR).

도 15는 본 발명의 실시예에 따른 개별차량에 대한 ID 부여 및 MOR 좌표값을 RT에 저장하는 방법의 동작흐름도이다.FIG. 15 is a flowchart illustrating a method of storing an ID grant and a MOR coordinate value for an individual vehicle according to an exemplary embodiment of the present invention.

도 15를 참조하면, 본 발명의 실시예에 따른 개별차량에 대한 ID(Index 또는 Identification number) 부여 및 MOR(Moving Object Region) 좌표값을 RT(Reference table)에 저장하는 방법은, 먼저, 프레임

Figure 112008043153963-PAT00059
에서 개별차량 MOR이 감지되면 ID를 부여함과 동시에 MOR의 (left, top) 및 (right, bottom)의 좌표값을 참조테이블(Reference Table: RT)에 저장한다(S1501 내지 S1506). 다음으로, 프레임
Figure 112008043153963-PAT00060
에서는 MOR의 (left, top) 및 (right, bottom) 좌표값이 참조테이블(RT) 내에 저장된
Figure 112008043153963-PAT00061
의 (X, Y)의 영역을 포함하고 있을 때(S1507), 동일 차량이라 보고 RT에서 해당 차량 ID를 검색하여 (left, top) 및 (right, bottom)의 좌표값을 갱신한다(S1510). 만일, 해당 ID가 존재하지 않을 경우, 새로운 ID를 생성하여 MOR 좌표값을 저장한다(S1508, 1509). 이후, 인덱스 ID를 Fetch하고, ID를 디스플레이한다(S1511).Referring to FIG. 15, a method of granting an index (ID) or an identification number (MOR) and a moving object region (MOR) coordinate value for an individual vehicle according to an embodiment of the present invention, first, a frame
Figure 112008043153963-PAT00059
If the individual vehicle MOR is detected in S, the ID is assigned and the coordinate values of (left, top) and (right, bottom) of the MOR are stored in a reference table (RT) (S1501 to S1506). Next, the frame
Figure 112008043153963-PAT00060
In MOR, the (left, top) and (right, bottom) coordinate values of MOR are stored in the reference table (RT).
Figure 112008043153963-PAT00061
When it includes the area of (X, Y) (S1507), it is regarded as the same vehicle and the corresponding vehicle ID is searched for from RT to update the coordinate values of (left, top) and (right, bottom) (S1510). If the corresponding ID does not exist, a new ID is generated and the MOR coordinate value is stored (S1508 and 1509). Thereafter, the index ID is etched and the ID is displayed (S1511).

도 16은 본 발명의 실시예에 따른 현장시험 환경을 위해 CCTV의 설치 높이와 위치를 나타내는 도면이다.16 is a view showing the installation height and location of the CCTV for the field test environment according to an embodiment of the present invention.

도 16을 참조하면, 본 발명의 실시예에 따른 알고리즘의 검증을 위한 현장 적용 시험(Field Test)으로서, 분당교차로 정자 교차로, 내정 교차로 두개 지점에 대해 실측을 하였다. 실험은 기존 교차로에 설치되어 있는 CCTV 영상을 통해 획득한 영상을 대상으로 하였으며, CCTV의 설치 높이 및 위치는 각각 도 16의 a) 및 도 16의 b)에 도시된 바와 같고, 이것은 단지 예를 위한 것이므로 이에 국한되는 것은 아니다. Referring to FIG. 16, as a field test for verifying an algorithm according to an embodiment of the present invention, two points were measured at a sperm intersection and an internal intersection at a Bundang intersection. The experiment was performed on the images acquired through the CCTV images installed at the existing intersection, and the installation height and position of the CCTV are as shown in Figs. 16A and 16B, respectively, which are for illustrative purposes only. It is not so limited.

도 17은 본 발명의 실시예에 따른 신호교차로 내의 검지영역 자동 설정을 설명하기 위한 도면으로, 도 17의 a)는 내정 사거리에서, 도 17의 b)는 정자 사거리에서의 검지영역 자동 설정을 나타낸다.FIG. 17 is a view for explaining automatic detection area setting in a signal intersection according to an exemplary embodiment of the present invention. FIG. 17A shows an internal setting range, and FIG. 17B shows an automatic setting range for a sperm range. .

도 17을 참조하면, 교차로 내 검지영역 자동설정을 위하여, 교차로 전 영역에 걸쳐 검지영역을 수동으로 설정하고(WIde Detection Area: WIDA), 카메라의 원근에 따라 본 알고리즘을 적용하여, 일정 길이에 맞춰 자동으로 검지선(Detection Line Segments: DLS)을 설정하게 된다.Referring to FIG. 17, in order to automatically set the detection area in the intersection, the detection area is manually set over the entire intersection area (WIde Detection Area: WIDA), and the present algorithm is applied according to the perspective of the camera to fit a predetermined length. It will automatically set up the Detection Line Segments (DLS).

한편, 도 18a 및 도 18b는 각각 본 발명의 실시예에 따른 내정교차로 및 정자사거리의 교통정보 비교분석을 위한 테이블이다.18A and 18B are tables for comparing and analyzing traffic information of internal intersections and sperm crossroads, respectively, according to an embodiment of the present invention.

본 발명의 실시예에서는 교차로 검지영역 자동설정 알고리즘에 의해 검지영역을 설정하고, 이 검지영역을 통과하는 차량에 대하여 가장 기본적인 교통정보에 해당하는 교통량과 속도, 그리고 점유율을 산출하였다. 측정은 상용화된 VDS가 회전차량 및 가로통과 차량에 대해서는 측정이 불가능하므로, 이와의 비교 검증을 위하여 직진차량에 한해서 측정하였다. In the embodiment of the present invention, the detection area is set by the intersection detection area automatic setting algorithm, and the traffic volume, speed, and occupancy corresponding to the most basic traffic information for the vehicle passing through the detection area are calculated. Since the measurement of commercially available VDS is impossible for rolling vehicles and transverse vehicles, it was measured only for straight vehicles for comparison and verification.

그 결과, 두개 교차로에 대한 결과값은 도 18a 및 도 18b와 같다. 도 18a 및 도 18b의 결과에 따라 픽셀보정 알고리즘에 의해 검지영역을 자동으로 설정한 방법으로 개별차량 추적시스템에 적용한 교통정보 산출 결과와 상용화 제품과의 비교 결과 교통량에서만 각각 2대의 오차가 있었으며, 속도와 점유시간에서는 오차범위 내에서 유효한 결과가 나왔다. As a result, the results for the two intersections are the same as in Figs. 18A and 18B. According to the results of FIG. 18A and FIG. 18B, the traffic information calculation result applied to the individual vehicle tracking system by the method of automatically setting the detection area by the pixel correction algorithm and the comparison with the commercialized product showed two errors only in the traffic volume. And occupancy time were valid within the margin of error.

또한, 본 발명의 실시예에 따른 추적 기법의 VDS에서 검지영역을 설정할 때, 단위거리별 픽셀길이를 자동 계산하여, 검지영역을 설정하며, 그 방법으로서, 교차로 네 방면 직선의 방정식을 이용하여 검지영역의 전체길이를 계산하고, 기울기의 비례를 통하여 검지라인을 자동으로 계산한다.In addition, when setting the detection area in the VDS of the tracking method according to an embodiment of the present invention, the pixel area for each unit distance is automatically calculated, and the detection area is set. As a method, the detection area is detected using the equation of a straight line in four intersections. The overall length of the area is calculated and the detection line is automatically calculated through the proportion of the slope.

따라서 본 발명의 실시예에 따르면, 검지영역 내 감지라인을 자동 계산함으로써 개별차량별 이동거리를 정확히 계산할 수 있으며, 차두간의 거리 계산을 통해 사고위험을 자동으로 감지할 수 있다.Therefore, according to an embodiment of the present invention, by automatically calculating the sensing line in the detection area, it is possible to accurately calculate the moving distance for each vehicle, and automatically detect the risk of accident through the distance calculation between the two heads.

한편, 기존에 사용한 일반적인 대향좌회전 상충 판단은 신호위반 차량만을 카운트하여 그 수를 누적하는 것이었다. 이것은 실제로 차량과 차량사이에 거리나 회피반응 등을 전혀 고려하지 않은 것이므로 위와 같은 신호위반 차량을 기준으로 상충을 판단한 경우, 실제 발생한 상충과 비교하였을 때 더 많은 수가 측정되어 정확도가 결여된다. 본 발명의 실시예에서는 선행 차량의 신호위반시 보다 정확한 상충의 판단기준을 세우기 위해서 그 정도에 따라 세분화한다.On the other hand, the conventional counter-left turn conflict determination used in the past was to count only the number of signal violation vehicles and accumulate the number. Since it does not consider the distance or avoidance reaction between the vehicle and the vehicle at all, when the collision is judged based on the above-mentioned signal violation vehicle, a larger number is measured and the accuracy is insufficient when compared with the actual collision. In an embodiment of the present invention, in order to establish a more accurate criterion for determining a conflict when a signal of a preceding vehicle is violated, it is subdivided according to the extent thereof.

도 19a 내지 도 19d는 본 발명의 실시예에 따른 대향좌회전 상충 판단기준을 설명하기 위한 도면들이다.19A to 19D are diagrams for describing a counterclockwise conflict determination criterion according to an embodiment of the present invention.

도 19a에 도시된 바와 같이, 신호위반 단계(제1 단계)는 기존에 교차로에 서 상충을 판단하기 위하여 사용하는 방법으로서, 선행 차량(192)이 제1 신호등(193)의 황색신호에 무리하게 교차로 내로 진입하여 신호위반을 한 경우를 카운트한다. 영상처리-기반으로 각 차량들(192, 194)의 시간에 따른 위치자료와 교차로 신호현시를 연결하여 각 차량(192, 194)이 교차로 안으로 진입한 시간과 밖으로 진출한 시간을 신호시간과 비교함으로써 신호위반 건수를 측정한다.As shown in FIG. 19A, the signal violation step (first step) is a method used to determine a conflict at an intersection in the past, and the preceding vehicle 192 unreasonably with the yellow signal of the first traffic light 193. Count the number of violations by entering the intersection. Signaling by comparing the time signal of each vehicle 192, 194 into and out of the intersection with the signal time by connecting the location data with the time signal of each vehicle 192, 194 and the intersection signal display based on image processing-based Measure the number of violations.

다음으로, 도 19b에 도시된 바와 같이, 약한 상충 단계(제2 단계)는, 전 신호의 차량(192)이 신호위반을 하였을 때 다음 신호의 차량(194)이 교차로 내로 진입하였을 경우, 두 차량(192, 194) 간의 제동거리를 계산하여 상충을 판단할 수 있다.Next, as shown in FIG. 19B, the weak conflict stage (second stage) is performed when the vehicle 194 of the next signal enters the intersection when the vehicle 192 of the previous signal violates the signal. The conflict can be determined by calculating the braking distance between 192 and 194.

영상처리를 통하여 획득한 차량간의 좌표를 통하여 두 차량(192, 194)의 제동거리를 계산한다. 두 차량(192, 194)간의 제동거리를 계산한 뒤, 실시간으로 반영된 좌표에 두 차량(192, 194)의 제동지점을 표시하면, 두 차량(192, 194)이 제동하는 지점의 좌표를 확인할 수 있게 된다.The braking distances of the two vehicles 192 and 194 are calculated based on the coordinates between the vehicles obtained through the image processing. After calculating the braking distance between the two vehicles 192 and 194, if the braking points of the two vehicles 192 and 194 are displayed on the coordinates reflected in real time, the coordinates of the braking points of the two vehicles 192 and 194 can be checked. Will be.

이때, 표시된 두 차량(192, 194) 간의 제동지점까지의 연장선이 서로 만나거나, 상호교차하지 않는다면, 심각하지 않은 약한 상충으로 판단한다.At this time, if the extension lines to the braking point between the displayed two vehicles 192, 194 meet each other or do not cross each other, it is determined that the weak conflict is not serious.

(

Figure 112008043153963-PAT00062
,
Figure 112008043153963-PAT00063
)는 t-1 프레임에서 신호위반 차량(A)의 좌표를 나타내고, (
Figure 112008043153963-PAT00064
,
Figure 112008043153963-PAT00065
)는 t 프레임에서 신호위반 차량(A)의 좌표를 나타낸다.(
Figure 112008043153963-PAT00062
,
Figure 112008043153963-PAT00063
) Represents the coordinates of the signal violation vehicle A in the t-1 frame,
Figure 112008043153963-PAT00064
,
Figure 112008043153963-PAT00065
Denotes the coordinates of the signal violation vehicle A in the t frame.

t-1 프레임에서 t 프레임 동안 A 차량의 좌표를 이용하여 이동거리를 계산한다. The distance traveled is calculated using the coordinates of vehicle A during the t-1 to t frames.

Figure 112008043153963-PAT00066
Figure 112008043153963-PAT00066

여기서,

Figure 112008043153963-PAT00067
는 t-1 프레임에서 t 프레임 동안 A 차량의 이동시간을 나타낸다.here,
Figure 112008043153963-PAT00067
Denotes the travel time of vehicle A during t frames in t-1 frames.

이후, t-1 프레임에서 t 프레임 동안 A 차량의 이동거리(l)와 이동시간을 이용하여 A차량의 속도를 계산한다.Then, the speed of the vehicle A is calculated using the movement distance l and the movement time of the vehicle A during the t frame from the t-1 frame.

Figure 112008043153963-PAT00068
는 t-1 프레임에서 t 프레임 동안 A 차량의 속도를 나타낸다.
Figure 112008043153963-PAT00068
Denotes the speed of vehicle A during t frames in t-1 frames.

이후, 차량의 속도(

Figure 112008043153963-PAT00069
)와 종방향 마찰계수(f)를 이용하여 A 차량의 제동정지 거리를 계산한다.After that, the speed of the vehicle (
Figure 112008043153963-PAT00069
) And the longitudinal friction coefficient (f) to calculate the braking stop distance of vehicle A.

Figure 112008043153963-PAT00070
Figure 112008043153963-PAT00070

여기서,

Figure 112008043153963-PAT00071
는 선행 차량의 제동정지 거리를 나타낸다.here,
Figure 112008043153963-PAT00071
Denotes the braking stop distance of the preceding vehicle.

또한, 종방향 마찰계수 f는 설계속도 80kph에서의 노면 건조 상태의 값인 0.58을 사용하였다.In addition, the longitudinal friction coefficient f used 0.58 which is the value of the road surface dry state at the design speed of 80 kph.

이후, 제동정지 거리는 t-1 프레임에서 t 프레임 동안 A 차량이 진행한 연장선상에 있다고 가정한다. 따라서

Figure 112008043153963-PAT00072
를 계산한다.Then, it is assumed that the braking stop distance is on an extension line traveled by vehicle A during t frames in t-1 frames. therefore
Figure 112008043153963-PAT00072
Calculate

Figure 112008043153963-PAT00073
Figure 112008043153963-PAT00073

이후,

Figure 112008043153963-PAT00074
가 계산되면, 제동정지 거리를 다음과 같이 좌표화할 수 있다.after,
Figure 112008043153963-PAT00074
When is calculated, the braking stop distance can be coordinated as follows.

Figure 112008043153963-PAT00075
,
Figure 112008043153963-PAT00076
Figure 112008043153963-PAT00075
,
Figure 112008043153963-PAT00076

여기서, (

Figure 112008043153963-PAT00077
,
Figure 112008043153963-PAT00078
)는 t 프레임에서 계산된 신호위반 차량(A)의 제동정지거리 좌표를 나타낸다.here, (
Figure 112008043153963-PAT00077
,
Figure 112008043153963-PAT00078
) Represents the braking stop distance coordinates of the signal violation vehicle A calculated in the t frame.

전술한 방법으로 차량(B)의 주행궤적을 추적한다. 차량(B)은 정상적인 주행권을 가진 차량이다. The driving trajectory of the vehicle B is tracked by the method described above. The vehicle B is a vehicle having a normal driving right.

(

Figure 112008043153963-PAT00079
,
Figure 112008043153963-PAT00080
)는 t-1 프레임에서 차량(B)의 좌표를 나타내고, (
Figure 112008043153963-PAT00081
,
Figure 112008043153963-PAT00082
)는 t 프레임에서 차량(B)의 좌표를 나타낸다.(
Figure 112008043153963-PAT00079
,
Figure 112008043153963-PAT00080
) Represents the coordinates of the vehicle B in frame t-1, (
Figure 112008043153963-PAT00081
,
Figure 112008043153963-PAT00082
Denotes the coordinates of the vehicle B in the t frame.

다음으로, t-1 프레임에서 t 프레임 동안 B 차량의 좌표를 이용하여 이동거리를 계산한다.Next, the moving distance is calculated using the coordinates of the vehicle B during the t frame from the t-1 frame.

Figure 112008043153963-PAT00083
Figure 112008043153963-PAT00083

Figure 112008043153963-PAT00084
는 t-1 프레임에서 t 프레임 동안 B 차량의 이동시간을 나타낸다.
Figure 112008043153963-PAT00084
Denotes the travel time of vehicle B during t frames in t-1 frames.

다음으로, t-1 프레임에서 t 프레임 동안 B 차량의 이동거리(

Figure 112008043153963-PAT00085
)와 이동시간을 이용하여 B 차량의 속도를 계산한다.Next, the travel distance of vehicle B during frame t to frame t-1
Figure 112008043153963-PAT00085
) And travel time to calculate the speed of vehicle B.

Figure 112008043153963-PAT00086
는 t-1 프레임에서 t 프레임 동안 B차량의 속도를 나타낸다.
Figure 112008043153963-PAT00086
Denotes the speed of the vehicle B during t frames in t-1 frames.

차량의 속도(

Figure 112008043153963-PAT00087
)와 종방향 마찰계수(f)를 이용하여 B차량의 제동정지거리 를 계산한다.Vehicle speed (
Figure 112008043153963-PAT00087
Calculate the braking stopping distance of vehicle B by using) and the longitudinal friction coefficient (f).

Figure 112008043153963-PAT00088
,
Figure 112008043153963-PAT00088
,

여기서,

Figure 112008043153963-PAT00089
는 후행차량(B)의 제동정지 거리를 나타내며, 종방향 마찰계수 f는 설계속도 80kph에서의 노면건조 상태의 값인 0.58을 사용하였다.here,
Figure 112008043153963-PAT00089
Denotes the braking stop distance of the trailing vehicle (B), and the longitudinal friction coefficient f is 0.58, which is a value of road dry condition at a design speed of 80 kph.

제동정지 거리는 t-1 프레임에서 t 프레임 동안 B차량이 진행한 연장선상에 있다고 가정한다. 따라서

Figure 112008043153963-PAT00090
를 계산한다.The braking stop distance is assumed to be on the extension line of the vehicle B during t frames from t-1 frames. therefore
Figure 112008043153963-PAT00090
Calculate

Figure 112008043153963-PAT00091
Figure 112008043153963-PAT00091

이후,

Figure 112008043153963-PAT00092
가 계산되면, 다음과 같이 제동정지거리를 좌표화할 수 있다. after,
Figure 112008043153963-PAT00092
When is calculated, the braking stop distance can be coordinated as follows.

Figure 112008043153963-PAT00093
.
Figure 112008043153963-PAT00093
.

Figure 112008043153963-PAT00094
Figure 112008043153963-PAT00094

여기서, (

Figure 112008043153963-PAT00095
,
Figure 112008043153963-PAT00096
)는 t 프레임에서 계산된 후행차량(B)의 제동정지 거리 좌표를 나타낸다.here, (
Figure 112008043153963-PAT00095
,
Figure 112008043153963-PAT00096
) Represents the braking stop distance coordinates of the following vehicle B calculated in the t frame.

구체적으로, 선행차량(A)와 후행차량(B)의 제동정지 거리 좌표가 계산되면, 이를 바탕으로 두 차량의 충돌할 것으로 예상되는 교차점을 계산한다. t 프레임에서의 선행차량(A)의 좌표(

Figure 112008043153963-PAT00097
,
Figure 112008043153963-PAT00098
)와 t 프레임에서 계산된 제동정지 거리 좌표(
Figure 112008043153963-PAT00099
,
Figure 112008043153963-PAT00100
)를 이루는 하나의 직선과, t 프레임에서 후행차량(B)의 좌표(
Figure 112008043153963-PAT00101
,
Figure 112008043153963-PAT00102
)와 t 프레임에서 계산된 제동정지 거리의 좌표(
Figure 112008043153963-PAT00103
,
Figure 112008043153963-PAT00104
)를 이루는 직선을 통하여 교차점을 계산할 수 있게 된다.Specifically, when the braking stop distance coordinates of the preceding vehicle A and the following vehicle B are calculated, an intersection point at which the two vehicles are expected to collide is calculated based on this. coordinates of the preceding vehicle A in frame t (
Figure 112008043153963-PAT00097
,
Figure 112008043153963-PAT00098
) And the braking stop distance coordinates calculated at frame t (
Figure 112008043153963-PAT00099
,
Figure 112008043153963-PAT00100
) And the coordinates of the trailing vehicle B in the t frame (
Figure 112008043153963-PAT00101
,
Figure 112008043153963-PAT00102
) And the coordinates of the braking stop distance calculated at frame t (
Figure 112008043153963-PAT00103
,
Figure 112008043153963-PAT00104
It is possible to calculate the intersection point through a straight line.

만일, 두 직선이 교차점을 형성하지 않는다면 두 차량의 충돌하지 않는 상황으로 판단할 수 있으므로 약한 상충이다.If the two straight lines do not form an intersection point, the two cars may be judged as not colliding, which is a weak conflict.

전술한 제2 단계에서는 신호를 위반한 상황이지만, 두 차량의 제동정지 거리 내에서 주행한다고 할 수 있다. 도 19c에 도시된 바와 같이, 위험한 상충(제3 단계)은 두 차량(192, 194)의 제동정지거리를 계산하고 좌표화할 때, 두 차량(192, 194)의 주행궤적이 상호 교차하는 상황이다.In the above-described second stage, the signal is violated, but it can be said that the vehicle travels within the braking stop distance of the two vehicles. As shown in FIG. 19C, a dangerous conflict (third step) is a situation in which driving trajectories of two vehicles 192 and 194 cross each other when calculating and coordinated braking stop distances of the two vehicles 192 and 194. .

구체적인 상충 판단기준의 정립 절차는 전술한 약한 상충(제2 단계) 상황에서의 판단기준과 동일한 절차를 따르며, 제동지점을 좌표화하여 상호 교차하면 위험한 상충으로 판단한다. 구체적으로, t 프레임에서의 선행차량(A)의 좌표(

Figure 112008043153963-PAT00105
,
Figure 112008043153963-PAT00106
)와 t 프레임에서 계산된 제동정지 거리 좌표(
Figure 112008043153963-PAT00107
,
Figure 112008043153963-PAT00108
)를 이루는 하나의 직선과, t 프레임에서 후행차량(B)의 좌표(
Figure 112008043153963-PAT00109
,
Figure 112008043153963-PAT00110
)와 t 프레임에서 계산된 제동정지 거리의 좌표(
Figure 112008043153963-PAT00111
,
Figure 112008043153963-PAT00112
)를 이루는 직선을 통하여 교차점이 형성되면 충돌하는 상황으로 예상할 수 있으므로 위험한 상충(제3 단계) 상황이다.The procedure for establishing a concrete conflict judgment criteria follows the same procedure as the above criteria for the weak conflict (second stage) situation, and if the braking points are coordinated and cross each other, it is determined as a dangerous conflict. Specifically, the coordinates of the preceding vehicle A in the t frame (
Figure 112008043153963-PAT00105
,
Figure 112008043153963-PAT00106
) And the braking stop distance coordinates calculated at frame t (
Figure 112008043153963-PAT00107
,
Figure 112008043153963-PAT00108
) And the coordinates of the trailing vehicle B in the t frame (
Figure 112008043153963-PAT00109
,
Figure 112008043153963-PAT00110
) And the coordinates of the braking stop distance calculated at frame t (
Figure 112008043153963-PAT00111
,
Figure 112008043153963-PAT00112
If an intersection is formed through a straight line, it is a dangerous conflict (step 3).

다음으로, 도 19d에 도시된 바와 같이, 심각한 상충 단계(제4 단계: 사고)는, 영상처리-기반으로 수집한 두 차량(192, 194)의 좌표에서 각각 차량의 범위를 나타내는 부분이 만나거나 겹치게 되었을 때, 사고로 판단한다. 즉, 두 차량(192, 194)간의 최소거리 D≤0 이면 사고로 판단한다. Next, as shown in FIG. 19D, in the severe conflict stage (fourth step: accident), a portion representing the range of the vehicle meets each other in the coordinates of the two vehicles 192 and 194 collected on the image processing-based basis. When overlapped, it is judged as an accident. That is, if the minimum distance D≤0 between the two vehicles 192 and 194, it is determined as an accident.

한편, 기전의 직각충돌 상충의 판단기준 역시, 신호위반 차량만을 카운트하여 그 수를 누적하는 것이었다. 이것은 실제로 차량과 차량사이에 거리나 회피반응 등을 전혀 고려하지 않은 것이므로 위와 같은 신호위반 차량을 기준으로 상충을 판단하였을 경우, 실제 발생한 상충과 비교하였을 때 더 많은 수가 측정되어 정확도가 결여된다.On the other hand, the criterion for determining the conflict of right angle collisions was also to count only the signal violation vehicles and accumulate the number. Since it does not consider the distance or avoidance reaction between the vehicle and the vehicle at all, when the collision is judged based on the above-mentioned signal violation vehicle, a larger number is measured and the accuracy is insufficient when compared with the actual conflict.

본 발명의 실시예에 따른 직각충돌 상충의 판단기준은 전술한 대향좌회전 상충 판단기준과 동일한 기준이 적용되며, 기본적으로 차량의 이동궤적을 추적하여 매 프레임별로 화면상의 위치정보를 추적하는 방법은 전술한 대향좌회전 상충의 판단기준과 실질적으로 동일하다.The criterion for the determination of the right-angle collision conflict according to the embodiment of the present invention is the same criteria as the above-described counterclockwise conflict conflict criterion is applied. It is substantially the same as the criterion for the counter-left turn conflict.

도 20a 내지 도 20d는 본 발명의 실시예에 따른 직각충돌 상충 판단기준을 설명하기 위한 도면들이다.20A to 20D are diagrams for explaining a right-angle collision conflict determination criterion according to an embodiment of the present invention.

도 20a에 도시된 바와 같이, 신호위반 단계(제1 단계)는, 기존에 교차로에서 상충을 판단하기 위하여 사용함 방법으로 선행 차량(202)이 제1 신호등(201)의 황색신호에 무리하게 교차로 내로 진입하여 신호위반을 한 경우를 카운트한다.As shown in FIG. 20A, the signal violation step (first step) is a method used to determine a conflict at an intersection previously, and the preceding vehicle 202 forcibly enters the intersection with the yellow signal of the first traffic light 201. Count the number of violations by entering.

구체적으로, 교차로 내의 영상 추적을 이용한 각 차량들(202, 204)의 시간에 따른 위치자료와 교차로 신호현시를 연결하여 각 차량(202, 204)이 교차로 안으로 진입한 시간과 밖으로 진출한 시간을 신호시간과 비교함으로서 신호위반 건수를 측정할 수 있다.Specifically, by connecting the location data according to the time of each vehicle 202 and 204 using the image tracking in the intersection and the intersection signal manifestation, the time when each vehicle 202 and 204 entered into the intersection and the time when it went out was signaled. By comparing with, we can measure the number of signal violations.

도 20b에 도시된 바와 같이, 약한 상충 단계(제2 단계)는 이전 신호의 차량(202)이 신호위반을 하였을 때, 다음 신호의 차량(204)이 교차로 내로 진입하였 을 경우, 두 차량(202, 204) 간의 제동거리를 계산하여 상충을 판단할 수 있다. As shown in FIG. 20B, the weak conflict stage (second stage) is performed when the vehicle 202 of the previous signal violates, when the vehicle 204 of the next signal enters the intersection. , 204 may be used to determine a conflict.

구체적으로, 영상추적으로 얻은 차량(202, 204) 간의 좌표를 통하여 두 차량(202, 204)의 제동거리를 계산한다. 이후, 두 차량(202, 204)간의 제동거리를 계산한 뒤, 실시간으로 반영된 좌표에 두 차량(202, 204)의 제동지점을 표시하면 두 차량(202, 204)이 제동하는 지점의 좌표를 확인할 수 있다.Specifically, the braking distances of the two vehicles 202 and 204 are calculated based on the coordinates between the vehicles 202 and 204 obtained by image tracking. Then, after calculating the braking distance between the two vehicles 202 and 204, if the braking points of the two vehicles 202 and 204 are displayed on the coordinates reflected in real time, the coordinates of the braking points of the two vehicles 202 and 204 can be checked. Can be.

이때, 표시된 두 차량(202, 204) 간의 제동지점까지의 연장선이 서로 만나거나, 상호교차하지 않는다면, 심각하지 않은 약한 상충으로 판단한다. 구체적인 상충 판단기준은 전술한 대향좌회전 상충 판단기준과 실질적으로 동일하다. At this time, if the extension lines to the braking point between the two displayed vehicles 202, 204 meet each other or do not cross each other, it is determined that the weak conflict is not serious. Specific conflict determination criteria are substantially the same as the aforementioned counterclockwise conflict determination criteria.

다시 말하면, t 프레임에서 계산된 후행차량(B)의 제동정지거리를 좌표화하여 두 차량의 t 프레임에서의 예상 제동정지 거리가 상호 교차하지 않는다면 약한 상충이다. 구체적으로, 선행차량(A)와 후행차량(B)의 제동정지 거리 좌표가 계산되면, 이를 바탕으로 두 차량의 충돌할 것으로 예상되는 교차점을 계산한다. t 프레임에서의 선행차량(A)의 좌표(

Figure 112008043153963-PAT00113
,
Figure 112008043153963-PAT00114
)와 t 프레임에서 계산된 제동정지 거리 좌표(
Figure 112008043153963-PAT00115
,
Figure 112008043153963-PAT00116
)를 이루는 하나의 직선과, t 프레임에서 후행차량(B)의 좌표(
Figure 112008043153963-PAT00117
,
Figure 112008043153963-PAT00118
)와 t 프레임에서 계산된 제동정지 거리의 좌표(
Figure 112008043153963-PAT00119
,
Figure 112008043153963-PAT00120
)를 이루는 직선을 통하여 교차점을 계산할 수 있게 된다.In other words, if the braking stop distances of the following vehicle B calculated in the t frame are coordinated, the anticipated braking stop distances in the t frames of the two vehicles are weakly conflicted. Specifically, when the braking stop distance coordinates of the preceding vehicle A and the following vehicle B are calculated, an intersection point at which the two vehicles are expected to collide is calculated based on this. coordinates of the preceding vehicle A in frame t (
Figure 112008043153963-PAT00113
,
Figure 112008043153963-PAT00114
) And the braking stop distance coordinates calculated at frame t (
Figure 112008043153963-PAT00115
,
Figure 112008043153963-PAT00116
) And the coordinates of the trailing vehicle B in the t frame (
Figure 112008043153963-PAT00117
,
Figure 112008043153963-PAT00118
) And the coordinates of the braking stop distance calculated at frame t (
Figure 112008043153963-PAT00119
,
Figure 112008043153963-PAT00120
It is possible to calculate the intersection point through a straight line.

만일, 두 직선이 교차점을 형성하지 않는다면 두 차량의 충돌하지 않는 상황으로 판단할 수 있으므로 약한 상충이다.If the two straight lines do not form an intersection point, the two cars may be judged as not colliding, which is a weak conflict.

전술한 제2 단계에서는 신호를 위반한 상황이지만, 두 차량(202, 204)의 제동정지거리 내에서 주행한다고 할 수 있다. 도 20c에 도시된 바와 같이, 위험한 상충 단계(제3 단계)는, 두 차량(202, 204)의 제동정지거리를 계산하고 좌표화하였을 때, 두 차량(202, 204)의 예상 제동정지 거리가 상호 교차하는 상황이다.In the above-described second stage, the signal is violated, but it can be said that the vehicle travels within the braking stop distances of the two vehicles 202 and 204. As shown in FIG. 20C, the dangerous conflict stage (third stage) is that when the braking stop distances of the two vehicles 202 and 204 are calculated and coordinated, the estimated braking stop distances of the two vehicles 202 and 204 are not. It is a situation where they cross each other.

구체적인 위험한 상충 단계의 상충 판단기준은 약한 상충(제2 단계) 상황에서의 판단기준과 동일한 절차를 따른다. 즉, t 프레임에서의 선행차량(A)의 좌표(

Figure 112008043153963-PAT00121
,
Figure 112008043153963-PAT00122
)와 t 프레임에서 계산된 제동정지 거리 좌표(
Figure 112008043153963-PAT00123
,
Figure 112008043153963-PAT00124
)를 이루는 하나의 직선과, t 프레임에서 후행차량(B)의 좌표(
Figure 112008043153963-PAT00125
,
Figure 112008043153963-PAT00126
)와 t 프레임에서 계산된 제동정지 거리의 좌표(
Figure 112008043153963-PAT00127
,
Figure 112008043153963-PAT00128
)를 이루는 직선을 통하여 교차점이 형성되면 충돌하는 상황으로 예상할 수 있으므로 위험한 상충(제3 단계) 상황이다.Conflict criteria for specific dangerous conflict stages follow the same procedures as those for weak conflict situations. That is, the coordinates of the preceding vehicle A in the t frame (
Figure 112008043153963-PAT00121
,
Figure 112008043153963-PAT00122
) And the braking stop distance coordinates calculated at frame t (
Figure 112008043153963-PAT00123
,
Figure 112008043153963-PAT00124
) And the coordinates of the trailing vehicle B in the t frame (
Figure 112008043153963-PAT00125
,
Figure 112008043153963-PAT00126
) And the coordinates of the braking stop distance calculated at frame t (
Figure 112008043153963-PAT00127
,
Figure 112008043153963-PAT00128
If an intersection is formed through a straight line, it is a dangerous conflict (step 3).

도 20d에 도시된 바와 같이, 심각한 상충 단계(제4 단계: 사고)는, 영상 추적을 통하여 얻은 두 차량(202, 204)의 좌표에서 각각 차량의 범위를 나타내는 부분이 만나거나 또는 겹치게 되었을 때 사고로 판단한다. 즉, 두 차량(202, 204)간의 최소거리 D≤0 이면, 사고로 판단한다.As shown in FIG. 20D, the severe conflict phase (fourth step: accident) is an accident when a portion representing the range of the vehicle meets or overlaps, respectively, in coordinates of two vehicles 202 and 204 obtained through image tracking. Judging by. That is, if the minimum distance D≤0 between the two vehicles 202 and 204, it is determined as an accident.

한편, 도 21은 본 발명의 실시예에 따른 정자사거리 촬영영상 및 내정사거리 촬영영상을 나타내는 도면으로서, 도 21의 a)는 정자사거리 촬영영상이고, 도 21의 b)는 내정사거리 촬영영상을 나타낸다.Meanwhile, FIG. 21 is a diagram illustrating a sperm range photographed image and an internal range photographed image according to an embodiment of the present invention, in which a) of FIG. 21 is a sperm range photographed image, and b) of FIG. .

도 21을 참조하면, 본 발명의 실시예에 따른 대향좌회전 상충과 직각충돌 상충유형의 판단기준을 적용하기 위하여 경기도 성남시에 소재한 정자사거리와 내정사거리의 영상을 수집하였다. 두 지점은 교통사고 발생이 많이 발생하는 영향 으로 교차로 안전감시 CCTV 카메라가 설치되어 있는 장소이다. 본 발명의 실시예에 따른 분석을 위하여 정자사거리 및 내정사거리에 대한 영상을 수집하는 것과 동시에 현재 운영되고 있는 교차로의 신호현시를 조사하였다.Referring to FIG. 21, in order to apply the criterion of the counter-left turn conflict and the right-angle collision conflict type according to an embodiment of the present invention, images of sperm and internal ranges in Seongnam, Gyeonggi-do were collected. The two sites are the places where CCTV cameras are installed at intersections because of the high number of traffic accidents. For the analysis according to the embodiment of the present invention, the image of the sperm range and the internal range was collected and at the same time the signal manifestation of the currently operating intersection was investigated.

먼저, 도 21의 a)에 도시된 바와 같이, 정자사거리의 영상촬영 시간은 2007년 9월 27일 오후 3시 36분 오후 3시 51분까지로 약 15분간 비디오카메라를 이용하여 수집하였다. 현재 운영되고 있는 신호체계는 고정식(정주기식) 신호체계로서, 오전 10시부터 오후 4시까지는 동일한 신호시간으로 운영되고 있으며, 실제 운영되고 있는 현시의 구성은 다음과 같다.First, as shown in a) of FIG. 21, the image capturing time of the sperm range was collected using a video camera for about 15 minutes until 3:36 pm and 3:51 pm on September 27, 2007. Currently operating signal system is a fixed (periodical) signal system, and operates from 10 am to 4 pm at the same signal time.

Figure 112008043153963-PAT00129
Figure 112008043153963-PAT00129

도 21의 b)에 도시된 바와 같이, 내정사거리의 영상촬영 시간은 2007년 9월 27일 오후 2시 42부터 오후 2시 57분까지로 약 15분간 비디오카메라를 이용하여 수집하였다. 내정사거리 역시 고정식(정주기식) 신호체계로서, 오전 10시부터 오후 4시까지는 동일한 신호시간으로 운영되고 있으며, 실제 운영되고 있는 현시의 구성은 다음과 같다.As shown in b) of FIG. 21, the image shooting time of the internal range was collected using a video camera for about 15 minutes from 2:42 pm to 2:57 pm on September 27, 2007. Internal range is also a fixed (periodic) signaling system, which operates from 10 am to 4 pm at the same signal time.

Figure 112008043153963-PAT00130
Figure 112008043153963-PAT00130

도 22는 본 발명의 실시예에 따른 정자사거리의 추적 화면을 나타내는 도 면이다.22 is a diagram illustrating a tracking screen of sperm range according to an embodiment of the present invention.

도 22를 참조하면, 본 발명의 실시예에 따른 교통상충 판단기준의 적용을 위하여 정자사거리와 내정사거리의 주행궤적 추적을 통하여 기초자료가 수집된다. 도시된 화면(221)에서, 좌측 상단의 교차로(222)는 정자사거리를 나타낸 것이고, 좌측 하단(223)은 각 차량이 통과하게 될 때, 발생되는 개별차량의 ID와 주행 궤적을 나타내는 것이다. 또한, 우측 하단(224)은 현재 정자사거리에서 운영하고 있는 신호체계를 보여준다. 이를 바탕으로 정자사거리에 대한 추적 작업을 수행하면, 상충분석을 위한 원시 데이터(Raw data)를 얻을 수 있다. 또한, 도시되지 않았지만, 내정사거리에 대해서도 정자사거리의 분석절차와 동일하게 분석을 수행하였다.Referring to FIG. 22, basic data is collected through tracking of trajectories of sperm range and internal range for application of a traffic conflict determination criterion according to an embodiment of the present invention. In the illustrated screen 221, the intersection 222 of the upper left shows the sperm range, and the lower left 223 shows the ID and driving trajectory of the individual vehicle generated when each vehicle passes. In addition, the lower right 224 shows the signal system currently operating at the sperm range. Based on this, if the tracking work for sperm range is performed, raw data for conflict analysis can be obtained. In addition, although not shown, the analysis was carried out in the same manner as in the analysis procedure of sperm range for the internal range.

한편, 도 23은 본 발명의 실시예에 따른 대향좌회전 상충 판단기준에 따른 신호위반 차량의 주행궤적 추적자료를 도식화한 것을 나타내는 도면이고, 도 24는 신호위반차량과 정상주행차량의 시간별 LOC(Level of Conflict)를 도식화한 것을 나타내는 도면이다.On the other hand, Figure 23 is a diagram showing the driving trajectory tracking data of the signal violation vehicle according to the counterclockwise conflict conflict criterion according to an embodiment of the present invention, Figure 24 is a time-dependent LOC (level of signal violation vehicle and normal driving vehicle) of Conflict).

내정사거리와 정자사거리의 영상을 이용하여 본 발명의 실시예에 따른 대향좌회전 상충의 판단기준을 적용하였다. 분석을 수행한 두 교차로에서 신호위반 상황은 총 13회 발생하였으며, 이때, 신호위반 차량은 26대로 확인되었다. 각 신호위반 차량에 대한 분석결과, 대부분의 경우에서 확인되듯이 신호위반 차량이 무리하게 교차로를 진입하더라도 대향차량은 교차로가 완전히 소거된 후 주행을 시작하는 것으로 확인되었다. 이러한 경우에 대한 신호위반 차량의 주행궤적 추적 자료는 도 23에 도시된 바와 같다. ID 99620을 부여받은 차량이 녹색신호에서 교차로를 주행하고 있는 상황에서 신호위반 차량인 ID 1659 차량이 진입함으로써 상충의 정도가 제2 단계를 형성하는 것을 도 24를 통하여 확인할 수 있으며, 두 차량간의 상충의 정도에 있어서는 더 이상 심각해지는 제3 단계(심각한 상충) 및 제4 단계(위험한 상충: 사고) 상황은 확인되지 않았다.The criteria of counterclockwise conflict of conflict according to the embodiment of the present invention were applied using the images of the internal range and the sperm range. At the two intersections where the analysis was performed, a total of 13 violations occurred, and 26 vehicles were identified. As a result of analysis of each signal violation vehicle, it is confirmed that even if the signal violation vehicle enters the intersection forcibly in most cases, the opposite vehicle starts driving after the intersection is completely erased. The driving trajectory tracking data of the signal violation vehicle in this case is as shown in FIG. 23. 24, it can be seen from FIG. 24 that the ID 1659 vehicle, which is a signal violation vehicle, enters a second stage when a vehicle assigned with ID 99620 is driving at an intersection with a green signal. In terms of the level of severity, no more serious stage 3 (severe conflicts) and stage 4 (dangerous conflicts: accidents) situations have been identified.

총 26회의 신호위반 상황 중에서 상충이 발생할 수 있는 지점을 향하여 상호 주행하는 경우는 2회 발생하였다. 이를 도식화하여 나타내면 도 24와 같다. 분석결과, 총 26건의 신호위반 중에 24건에서 상충의 심각도가 제1 단계로 확인되었으며, 제2 단계는 2건으로 확인되었다.Of the 26 signal violations, two cases of mutual driving towards the point of conflict could occur. This is illustrated in FIG. 24. As a result, 24 out of 26 signal violations were identified as severity of conflict as the first stage and 2 cases as the second stage.

도 25는 본 발명의 실시예에 따른 직각충돌 상충 판단기준에 따른 신호위반 차량과 정상주행 차량의 시간별 LOC를 도식화한 것을 나타내는 도면이다.FIG. 25 is a diagram illustrating a time-dependent LOC of a signal violation vehicle and a normal driving vehicle according to a right-angle collision conflict determination criterion according to an embodiment of the present invention.

직각충돌 상충 판단기준 적용 및 분석을 위해, 정자사거리와 내정사거리의 분석을 수행한 결과, 총 48대의 차량이 신호를 위반하여 LOC를 계산하였으나, 45대의 경우에서, 교차로를 주행하는 동안 주행을 시도하거나, 갑자기 교차로에 진입하는 차량이 발생하지 않아 상충의 단계가 제1 단계(신호위반) 상황으로 분석되었다. For the application and analysis of the right angle conflict conflict criteria, sperm range and internal range were analyzed, and a total of 48 vehicles calculated LOC in violation of the signal, but in 45 cases, attempted to drive while crossing the intersection. As a result, a car crashing into the intersection did not occur, and the conflict was analyzed as the first step (violation) situation.

그러나 총 3대의 경우에서는 제2 단계(약한 상충)상황을 연출하는 것으로 확인되었으며, 대표적으로 신호위반 차량(ID: 6953)과 정상주행 차량(ID: 34670)의 시간단위별 LOC는 도식화하면 도 25와 같이 나타난다. 분석을 수행한 결과, 총 48회의 신호위반 상황 중에서 상충이 발생할 수 있는 지점을 향하여 상호 주행 하는 경우는 3회 발생하였다.However, in three cases, it was confirmed that the second stage (weak conflict) situation was produced, and representative LOCs by time unit of the signal violation vehicle (ID: 6953) and the normal driving vehicle (ID: 34670) are illustrated in FIG. 25. Appears as As a result of the analysis, out of total 48 signal violations, three cases of mutual driving toward the point of conflict could occur.

결국, 본 발명의 실시예는, 기존에 신호위반시 발생하는 회피행동을 단순히 카운팅하는 것이 아니라, 발생할 수 있는 상충을 구체적으로 구분(Level of Conflict)하여 상충 판단기준을 정립하였다. 또한, 본 발명의 실시예는, 기존의 교통상충기법이 가지는 한계인 조사자의 주관적 오류를 배제하기 위하여 영상처리기법을 이용하며, 미소시간 단위의 Microscopic한 분석을 통하여 분석의 신뢰도를 향상시킬 수 있고, 또한, 조사자로 인하여 발생할 수 있는 오차를 감소시킬 수 있다.As a result, the embodiment of the present invention establishes a conflict determination criterion by specifically classifying a conflict that may occur, rather than simply counting the avoidance behavior that occurs during the signal violation. In addition, the embodiment of the present invention uses an image processing technique to exclude the subjective error of the investigator, which is a limitation of the existing traffic conflict technique, and can improve the reliability of the analysis through microscopic analysis of minute time units. In addition, it is possible to reduce the error that may occur due to the investigator.

전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.The foregoing description of the present invention is intended for illustration, and it will be understood by those skilled in the art that the present invention may be easily modified in other specific forms without changing the technical spirit or essential features of the present invention. will be. Therefore, it should be understood that the embodiments described above are exemplary in all respects and not restrictive. For example, each component described as a single type may be implemented in a distributed manner, and similarly, components described as distributed may be implemented in a combined form.

본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present invention is shown by the following claims rather than the above description, and all changes or modifications derived from the meaning and scope of the claims and their equivalents should be construed as being included in the scope of the present invention. do.

도 1은 운전자간의 반응을 나타내는 입체 피라미드를 나타내는 도면이다. 1 is a view showing a three-dimensional pyramid showing the reaction between the drivers.

도 2는 신호교차로에서의 다양한 상충점을 예시하는 도면이다.2 is a diagram illustrating various trade-offs at the signal crossroads.

도 3은 신호 위반시 대향좌회전 상충을 예시하는 도면이다.3 is a diagram illustrating a counter-left turn conflict in the event of a signal violation.

도 4는 신호위반시 직각충돌 유형을 예시하는 도면이다.4 is a diagram illustrating a right angle collision type when a signal violation occurs.

도 5a 및 도 5b는 각각 3차원으로 차량 모델을 특성화한 것을 예시하는 도면들이다.5A and 5B are diagrams illustrating the characterization of a vehicle model in three dimensions, respectively.

도 6은 능동 윤곽선-기반 추적(Active Contour Based Tracking)을 설명하기 위한 도면이다.FIG. 6 is a diagram for explaining active contour based tracking.

도 7은 CDT(Constrained Delaunay Triangulation)를 이용한 차량 감지를 설명하기 위한 도면이다.FIG. 7 is a diagram for describing vehicle detection using Constrained Delaunay Triangulation (CDT).

도 8은 본 발명의 실시예에 따른 영상처리기법을 이용한 신호교차로의 교통상충 판단 시스템의 구성도이다.8 is a block diagram of a traffic conflict determination system for signal intersection using an image processing technique according to an exemplary embodiment of the present invention.

도 9는 본 발명의 실시예에 따른 검지영역의 자동설정을 설명하기 위한 도면이다.9 is a view for explaining automatic setting of a detection area according to an embodiment of the present invention.

도 10은 본 발명의 실시예에 따른 CCTV를 통해 들어오는 교차로 영상을 예시하는 도면이다.10 is a diagram illustrating an intersection image coming through CCTV in accordance with an embodiment of the present invention.

도 11은 본 발명의 실시예에 따른 픽셀거리 보정 알고리즘을 실제로 교차로 영상에 적용한 것을 예시하는 도면이다.FIG. 11 illustrates an example of actually applying a pixel distance correction algorithm to an intersection image according to an exemplary embodiment of the present invention.

도 12는 본 발명의 실시예에 따른 배경영상과 현재영상의 차영상 처리를 나타내는 도면이다.12 is a diagram illustrating difference image processing between a background image and a current image according to an embodiment of the present invention.

도 13은 본 발명의 실시예에 따른 추적 처리 절차를 나타내는 동작흐름도이다.13 is a flowchart illustrating a tracking processing procedure according to an embodiment of the present invention.

도 14는 본 발명의 실시예에 따른 차량감지 절차를 나타내는 도면이다.14 is a view showing a vehicle detection procedure according to an embodiment of the present invention.

도 15는 본 발명의 실시예에 따른 개별차량에 대한 ID 부여 및 MOR 좌표값을 RT에 저장하는 방법의 동작흐름도이다.FIG. 15 is a flowchart illustrating a method of storing an ID grant and a MOR coordinate value for an individual vehicle according to an exemplary embodiment of the present invention.

도 16은 본 발명의 실시예에 따른 현장시험 환경을 위해 CCTV의 설치 높이와 위치를 나타내는 도면이다.16 is a view showing the installation height and location of the CCTV for the field test environment according to an embodiment of the present invention.

도 17은 본 발명의 실시예에 따른 신호교차로내의 검지영역 자동 설정을 설명하기 위한 도면이다.FIG. 17 is a view for explaining automatic detection area setting in a signal intersection according to an embodiment of the present invention.

도 18a 및 도 18b는 각각 본 발명의 실시예에 따른 내정교차로 및 정자사거리의 교통정보 비교분석을 위한 테이블이다.18A and 18B are tables for comparing and analyzing traffic information of internal intersections and sperm crossroads according to embodiments of the present invention, respectively.

도 19a 내지 도 19d는 본 발명의 실시예에 따른 대향좌회전 상충 판단기준을 설명하기 위한 도면들이다. 19A to 19D are diagrams for describing a counterclockwise conflict determination criterion according to an embodiment of the present invention.

도 20a 내지 도 20d는 본 발명의 실시예에 따른 직각충돌 상충 판단기준을 설명하기 위한 도면들이다. 20A to 20D are diagrams for explaining a right-angle collision conflict determination criterion according to an embodiment of the present invention.

도 21은 본 발명의 실시예에 따른 정자사거리 촬영영상 및 내정사거리 촬영영상을 나타내는 도면이다. 21 is a diagram illustrating a sperm range photographed image and an internal range photographed image according to an embodiment of the present invention.

도 22는 본 발명의 실시예에 따른 정자사거리의 추적 화면을 나타내는 도 면이다. 22 is a diagram illustrating a tracking screen of sperm range according to an embodiment of the present invention.

도 23은 본 발명의 실시예에 따른 대향좌회전 상충 판단기준에 따른 신호위반 차량의 주행궤적 추적자료를 도식화한 것을 나타내는 도면이다.FIG. 23 is a diagram illustrating driving trace tracking data of a signal violation vehicle according to a counter-left turn conflict determination criterion according to an embodiment of the present invention.

도 24는 본 발명의 실시예에 따른 대향좌회전 상충 판단기준에 따른 신호위반차량과 정상주행차량의 시간별 LOC(Level of Conflict)를 도식화한 것을 나타내는 도면이다.FIG. 24 is a diagram illustrating a time-of-course level of conflict (LOC) of a signal violation vehicle and a normal driving vehicle according to a counter-left turn conflict determination criterion according to an embodiment of the present invention.

도 25는 본 발명의 실시예에 따른 직각충돌 상충 판단기준에 따른 신호위반 차량과 정상주행 차량의 시간별 LOC를 도식화한 것을 나타내는 도면이다.FIG. 25 is a diagram illustrating a time-dependent LOC of a signal violation vehicle and a normal driving vehicle according to a right-angle collision conflict determination criterion according to an embodiment of the present invention.

< 도면부호의 간단한 설명 ><Brief Description of Drawings>

100: 신호교차로 110: 검지영역100: signal intersection 110: detection area

120: 검지라인 200: 검지라인 기반 영상감지 시스템120: detection line 200: detection line based image detection system

210: 촬상부(CCTV) 220: 영상변환부210: imaging unit (CCTV) 220: image conversion unit

230: 영상처리부 240: 검지라인 자동계산부230: image processing unit 240: detection line automatic calculation unit

251: 차량검지 및 추적 알고리즘 252: 픽셀거리 보정 알고리즘251: vehicle detection and tracking algorithm 252: pixel distance correction algorithm

300: 교통상충 판단 시스템 310: 주행궤적 추적부300: traffic conflict determination system 310: driving track tracking unit

320: 개별차량 ID 부여부 330: 대향좌회전 상충 판단부320: Individual vehicle ID granting unit 330: Opposite left turn conflict determination unit

331: 대향좌회전 상충 판단 알고리즘 340: 직각충돌 상충 판단부331: Algorithm for opposing left turn conflict 340: Right angle collision conflict determination unit

341: 직각충돌 상충 판단 알고리즘 350: 상충정보 DB341: right angle conflict conflict determination algorithm 350: conflict information DB

Claims (23)

신호교차로(Signalized Intersection)에 자동으로 형성된 검지영역 내의 검지라인을 기반으로 이동 차량들을 개별적으로 추적하여 영상을 감지하는 영상감지 시스템;An image sensing system for individually detecting the moving vehicles based on a detection line in a detection area automatically formed at a signalized intersection to detect an image; 상기 영상감지 시스템으로부터 제공되는 감지영상에 따라 상기 이동 차량들의 이동궤적을 추적하여 매 프레임별로 화면상의 위치정보를 추적하는 주행궤적 추적부;A driving trajectory tracking unit for tracking the movement trajectories of the moving vehicles according to the detected image provided from the image sensing system and tracking position information on the screen for each frame; 상기 이동 차량들 각각에 식별번호(ID)를 부여하는 개별차량 ID 부여부; 및An individual vehicle ID assigning unit which assigns an identification number to each of the moving vehicles; And 상기 개별차량 ID가 부여된 이동 차량들의 추적된 주행궤적에 따라 상기 이동 차량들 간의 상충을 각각의 유형별로 상충의 심각도를 고려하여 판단하는 상충 판단부Conflict determination unit for determining the conflict between the mobile vehicle in consideration of the severity of the conflict for each type according to the tracked driving trajectory of the mobile vehicle to which the individual vehicle ID is assigned 를 포함하는 영상처리기법을 이용한 신호교차로의 교통상충 판단 시스템.Traffic conflict determination system of the signal intersection using the image processing method comprising a. 제1항에 있어서,The method of claim 1, 상기 상충 판단부는, 상기 이동 차량들의 신호위반시 발생하는 대향좌회전 상충 또는 직각충돌 상충 유형에 대하여 영상처리 기반으로 교통상충을 판단하는 것을 특징으로 하는 영상처리기법을 이용한 신호교차로의 교통상충 판단 시스템.The conflict determination unit, the traffic conflict determination system of the signal intersection using the image processing method, characterized in that for determining the traffic conflict on the basis of the image processing based on the counter-left turn conflict or the right angle conflict conflict that occurs when the signal of the moving vehicles. 제1항 또는 제2항에 있어서,The method according to claim 1 or 2, 상기 상충 판단부는 신호위반, 약한 상충, 위험한 상충 및 심각한 상충으로 구분하여 판단하는 것을 특징으로 하는 영상처리기법을 이용한 신호교차로의 교통상충 판단 시스템.The conflict determination unit is a traffic conflict determination system of the signal intersection using the image processing method, characterized in that divided into judging signal violation, weak conflict, dangerous conflict and serious conflict. 제3항에 있어서,The method of claim 3, 상기 상충 판단부는 영상처리기반으로 각 차량들의 시간에 따른 위치자료와 교차로 신호현시를 연결하여 각 차량이 교차로 안으로 진입한 시간과 밖으로 진출한 시간을 신호시간과 비교하여 신호위반을 판단하고, 신호위반 건수를 측정하는 것을 특징으로 하는 영상처리기법을 이용한 신호교차로의 교통상충 판단 시스템.The conflict determination unit connects the location data according to the time of each vehicle and the intersection signal manifestation based on the image processing to determine the signal violations by comparing the time when each vehicle enters the intersection and the time when the vehicle exits with the signal time, and the number of signal violations Traffic conflict determination system using a signal processing method characterized in that for measuring the intersection. 제3항에 있어서,The method of claim 3, 상기 상충 판단부는 이전 신호의 차량이 신호위반을 하였을 때 다음 신호의 차량이 교차로 내로 진입한 경우, 두 차량간의 제동거리를 계산하여 약한 상충을 판단하는 것을 특징으로 하는 영상처리기법을 이용한 신호교차로의 교통상충 판단 시스템.When the vehicle of the previous signal violates the signal, when the vehicle of the next signal enters the intersection, the conflict determination unit calculates a braking distance between the two vehicles to determine a weak conflict. Traffic Conflict Determination System. 제5항에 있어서,The method of claim 5, 상기 상충 판단부는 주행 중인 두 차량간의 상기 제동거리에 따라 두 차량 간의 제동지점까지의 연장선이 서로 만나거나, 상호 교차하지 않는다면, 심각하지 않은 약한 상충으로 판단하는 것을 특징으로 하는 영상처리기법을 이용한 신호교차로의 교통상충 판단 시스템.The conflict determination unit determines that the extension lines to the braking points between the two vehicles are not severe or cross each other according to the braking distance between the two vehicles being driven, and thus determine that they are not serious weak conflicts. Traffic conflict determination system at intersections. 제3항에 있어서,The method of claim 3, 상기 상충 판단부는 주행 중인 두 차량의 상기 제동정지 거리를 계산하여 좌표화하였을 때, 상기 두 차량의 주행궤적이 상호 교차하는 경우, 위험한 상충으로 판단하는 것을 특징으로 하는 영상처리기법을 이용한 신호교차로의 교통상충 판단 시스템.When the collision determination unit calculates and coordinates the braking stop distances of the two vehicles that are driving, when the driving trajectories of the two vehicles cross each other, the conflict determination unit determines that the collision is a dangerous conflict. Traffic Conflict Determination System. 제3항에 있어서,The method of claim 3, 상기 상충 판단부는 주행 중인 두 차량의 좌표에서 각각 차량의 범위를 나타내는 부분이 만나거나 겹치는 경우, 심각한 상충인 사고로 판단하는 것을 특징으로 하는 영상처리기법을 이용한 신호교차로의 교통상충 판단 시스템.The conflict determination unit, the traffic conflict determination system of the signal intersection using the image processing method, characterized in that the judging or overlapping the respective parts representing the range of the vehicle in the coordinates of the two vehicles running, a serious conflict. 제1항에 있어서,The method of claim 1, 상기 개별차량 ID 부여부는 상기 매 프레임에서 개별차량 MOR(Moving Object Region)이 감지되면 ID를 부여하고, 상기 MOR의 (left, top) 및 (right, bottom)의 좌표값을 참조테이블(Reference Table: RT)에 저장하는 것을 특징으로 하는 영상처리기법을 이용한 신호교차로의 교통상충 판단 시스템.The individual vehicle ID assigning unit assigns an ID when a moving object region (MOR) is detected in each frame and assigns coordinate values of (left, top) and (right, bottom) of the MOR to a reference table. RT) Traffic conflict determination system using the image processing method characterized in that the storage. 제1항에 있어서,The method of claim 1, 상기 영상감지 시스템은 상기 신호교차로로부터 촬영되는 영상의 픽셀거리를 보정하고, 상기 이동 차량을 개별적으로 영역-기반 추적(Region Based Tracking)하는 것을 특징으로 하는 영상처리기법을 이용한 신호교차로의 교통상충 판단 시스템.The image sensing system determines a traffic conflict by using an image processing technique by correcting a pixel distance of an image photographed from the signal intersection and separately performing region-based tracking of the moving vehicle. system. 제1항에 있어서,The method of claim 1, 상기 영상감지 시스템은 배경영상과 현재영상의 차영상(difference image)으로 이동 차량을 추출하고, 상기 이동 차량의 MOR(Moving Object Region)을 추출하기 위해 모폴로지를 이용하여 차량영역을 추출하며, 상기 검지라인을 통과하는 차량에 대해 속도와 점유시간을 산출하는 것을 특징으로 하는 영상처리기법을 이용한 신호교차로의 교통상충 판단 시스템.The image detection system extracts a moving vehicle from a difference image of a background image and a current image, extracts a vehicle region using a morphology to extract a moving object region (MOR) of the moving vehicle, and detects A system for determining a traffic conflict in a signal intersection using an image processing technique, which comprises calculating a speed and an occupancy time for a vehicle passing through a line. 제1항에 있어서,The method of claim 1, 상기 영상감지 시스템은 상기 신호교차로 전 영역에 걸쳐 검지영역을 수동으로 설정한 후, 카메라의 원근에 따라 일정 길이로 정렬하여 자동으로 검지라인(Detection Line Segments)을 설정하는 것을 특징으로 하는 영상처리기법을 이용한 신호교차로의 교통상충 판단 시스템.The image sensing system manually sets a detection area over the entire area by the signal intersection, and then automatically sets the detection line segments by aligning the predetermined length according to the perspective of the camera. Traffic Conflict Determination System Using Signal Intersection. a) 신호 교차로(Signalized Intersection)에 자동으로 검지영역 및 검지라인을 설정하는 단계;a) automatically setting a detection area and a detection line at a signalized intersection; b) 상기 자동으로 형성된 검지영역 내의 검지라인을 기반으로 이동 차량들을 개별적으로 추적하여 영상을 감지하는 단계;b) sensing images by individually tracking moving vehicles based on detection lines in the automatically formed detection area; c) 상기 감지된 영상에 따라 상기 이동 차량들의 이동궤적을 추적하여 매 프레임별로 화면상의 위치정보를 추적하는 단계;c) tracking the movement trajectories of the moving vehicles according to the detected image to track position information on the screen for each frame; d) 상기 이동 차량들 각각에 식별번호(ID)를 부여하는 단계; 및d) assigning an identification number (ID) to each of said moving vehicles; And e) 상기 개별차량 ID가 부여된 이동 차량들의 추적된 주행궤적에 따라 상기 이동 차량들 간의 상충을 각각의 유형별로 상충의 심각도를 고려하여 판단하는 단계e) determining the conflict between the moving vehicles in consideration of the severity of the conflict for each type according to the tracked driving trajectory of the moving vehicles to which the individual vehicle ID is assigned. 를 포함하는 영상처리기법을 이용한 신호교차로의 교통상충 판단 방법.Traffic conflict determination method of the signal intersection using the image processing method comprising a. 제13항에 있어서,The method of claim 13, 상기 a) 단계는 상기 신호교차로 전 영역에 걸쳐 검지영역을 수동으로 설정한 후, 카메라의 원근에 따라 일정 길이로 정렬하여 자동으로 검지라인을 설정하는 것을 특징으로 하는 영상처리기법을 이용한 신호교차로의 교통상충 판단 방법.In the step a), the detection area is manually set over the entire area by the signal intersection, and then the detection line is automatically set by aligning with a predetermined length according to the perspective of the camera. How to determine a traffic conflict. 제13항에 있어서, 상기 b) 단계는,The method of claim 13, wherein b), 상기 신호교차로로부터 촬영되는 영상의 픽셀거리를 보정하는 단계; 및Correcting a pixel distance of an image photographed from the signal intersection; And 상기 이동 차량을 개별적으로 영역-기반 추적(Region Based Tracking)하는 단계Region-based tracking of the moving vehicle individually 를 포함하는 영상처리기법을 이용한 신호교차로의 교통상충 판단 방법.Traffic conflict determination method of the signal intersection using the image processing method comprising a. 제13항에 있어서, 상기 d) 단계는, The method of claim 13, wherein the d) step, 상기 매 프레임에서 개별차량 MOR(Moving Object Region)이 감지되면 ID를 부여하는 단계; 및Assigning an ID when an individual vehicle moving object region (MOR) is detected in each frame; And 상기 MOR의 (left, top) 및 (right, bottom)의 좌표값을 참조테이블(Reference Table: RT)에 저장하는 단계Storing coordinate values of (left, top) and (right, bottom) of the MOR in a reference table (RT) 를 포함하는 영상처리기법을 이용한 신호교차로의 교통상충 판단 방법.Traffic conflict determination method of the signal intersection using the image processing method comprising a. 제13항에 있어서,The method of claim 13, 상기 e) 단계는 상기 이동 차량들의 신호위반시 발생하는 대향좌회전 상충 또는 직각충돌 상충 유형에 대하여 영상처리 기반으로 교통상충을 판단하는 것을 특징으로 하는 영상처리기법을 이용한 신호교차로의 교통상충 판단 방법.In the step e), the traffic conflict determination method using the image processing technique is characterized in that the traffic conflict is determined based on image processing for the counter-left turn conflict or the right-angle collision conflict type generated by the signal violation of the moving vehicles. 제13항 또는 제17항에 있어서,The method according to claim 13 or 17, 상기 e) 단계는 신호위반, 약한 상충, 위험한 상충 및 심각한 상충으로 구분하여 판단하는 것을 특징으로 하는 영상처리기법을 이용한 신호교차로의 교통상충 판단 방법.The method of determining the traffic conflict of the signal intersection using the image processing method, characterized in that the step e) is divided into the signal violation, weak conflict, dangerous conflict and serious conflict. 제18항에 있어서,The method of claim 18, 상기 e) 단계는 영상처리기반으로 각 차량들의 시간에 따른 위치자료와 교차로 신호현시를 연결하여 각 차량이 교차로 안으로 진입한 시간과 밖으로 진출한 시간을 신호시간과 비교하여 신호위반을 판단하고, 신호위반 건수를 측정하는 것을 특징으로 하는 영상처리기법을 이용한 신호교차로의 교통상충 판단 방법.In step e), the signal violation is determined by comparing the time signal of each vehicle entering the intersection and the time of entering the intersection with the signal time by connecting the location data according to the time of each vehicle and the intersection signal manifestation based on the image processing. Traffic collision determination method using a signal processing method characterized by measuring the number of traffic intersections. 제18항에 있어서,The method of claim 18, 상기 e) 단계는 이전 신호의 차량이 신호위반을 하였을 때 다음 신호의 차량이 교차로 내로 진입한 경우, 두 차량간의 제동거리를 계산하여 약한 상충을 판단하는 것을 특징으로 하는 영상처리기법을 이용한 신호교차로의 교통상충 판단 방법.In the step e), when the vehicle of the previous signal violates the signal, when the vehicle of the next signal enters the intersection, the signal intersection using the image processing technique is characterized by calculating the braking distance between the two vehicles. To determine traffic conflicts 제20항에 있어서,The method of claim 20, 상기 e) 단계는 주행 중인 두 차량간의 상기 제동거리에 따라 두 차량간의 제동지점까지의 연장선이 서로 만나거나, 상호 교차하지 않는다면, 심각하지 않은 약한 상충으로 판단하는 것을 특징으로 하는 영상처리기법을 이용한 신호교차로의 교통상충 판단 방법.In the step e), if the extension lines to the braking point between the two vehicles meet each other or do not cross each other according to the braking distance between the two vehicles being driven, it is determined that it is not a serious weak conflict. How to determine traffic conflicts at signal intersections. 제18항에 있어서,The method of claim 18, 상기 e) 단계는 주행 중인 두 차량의 상기 제동정지 거리를 계산하여 좌표화하였을 때, 상기 두 차량의 주행궤적이 상호 교차하는 경우, 위험한 상충으로 판단하는 것을 특징으로 하는 영상처리기법을 이용한 신호교차로의 교통상충 판단 방법.In the step e), when the braking stop distances of the two vehicles driving are calculated and coordinated, when the driving trajectories of the two vehicles cross each other, a signal conflict using the image processing technique is determined as a dangerous conflict. To determine traffic conflicts 제18항에 있어서,The method of claim 18, 상기 e) 단계는 주행 중인 두 차량의 좌표에서 각각 차량의 범위를 나타내는 부분이 만나거나 겹치는 경우, 심각한 상충인 사고로 판단하는 것을 특징으로 하는 영상처리기법을 이용한 신호교차로의 교통상충 판단 방법.The step (e) is a method of determining a traffic conflict using signal processing according to an image processing method, in which, when the coordinates of two vehicles that meet each other indicate or overlap the portions of the range of the vehicle, the accident is a serious conflict.
KR1020080056719A 2008-06-17 2008-06-17 System of traffic conflict decision for signalized intersections using image processing technique KR100969995B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020080056719A KR100969995B1 (en) 2008-06-17 2008-06-17 System of traffic conflict decision for signalized intersections using image processing technique

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020080056719A KR100969995B1 (en) 2008-06-17 2008-06-17 System of traffic conflict decision for signalized intersections using image processing technique

Publications (2)

Publication Number Publication Date
KR20090130977A true KR20090130977A (en) 2009-12-28
KR100969995B1 KR100969995B1 (en) 2010-07-15

Family

ID=41690295

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020080056719A KR100969995B1 (en) 2008-06-17 2008-06-17 System of traffic conflict decision for signalized intersections using image processing technique

Country Status (1)

Country Link
KR (1) KR100969995B1 (en)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101055789B1 (en) * 2010-05-14 2011-08-11 주식회사 비츠로시스 Auto transportation information extraction system
KR20140011247A (en) * 2012-07-17 2014-01-28 한국전자통신연구원 Apparatus for providing driving information in intersection and method thereof
CN104680790A (en) * 2015-03-17 2015-06-03 天津市市政工程设计研究院 Assembling and evacuating port road security evaluation method based on error back-propagation algorithm
CN108711288A (en) * 2018-06-07 2018-10-26 郑州大学 Joint intersection non-motor vehicle, which is turned right, is connected the method for quantitatively evaluating of safety problem
KR20190046553A (en) * 2017-10-26 2019-05-07 서울대학교산학협력단 Image analysis apparatus and operating method thereof
KR102019047B1 (en) * 2018-06-12 2019-09-10 대한민국 Apparatus and method for estimating vehicle speed within moving picture images
CN112991799A (en) * 2019-12-17 2021-06-18 现代自动车株式会社 Vehicle autopilot system and method using V2X communication
KR20210092036A (en) * 2020-01-15 2021-07-23 주식회사 오션소프트 Standalone apparatus for controlling traffic signal lamp
KR102343822B1 (en) * 2021-10-01 2021-12-27 한국건설기술연구원 Apparatus and method for determining whether an entry vehicle to a non-signal intersection is paused or not at stop line
CN113905941A (en) * 2019-10-29 2022-01-07 索尼集团公司 Vehicle control in a geographic control zone
KR20230097314A (en) * 2021-12-24 2023-07-03 한국교통대학교산학협력단 Dangerous situation warning service method and system for vehicles in port
KR102559798B1 (en) * 2022-02-21 2023-07-27 렉스젠(주) Traffic signal control system and traffic signal control method
KR102563147B1 (en) * 2022-02-18 2023-08-04 렉스젠(주) System for controlling traffic signal and method of the same
CN116653937A (en) * 2023-08-02 2023-08-29 蘑菇车联信息科技有限公司 Traffic light-free left turn scene vehicle passing method, system, equipment and storage medium
CN117152959A (en) * 2023-09-13 2023-12-01 武汉理工大学 Intersection left-turning vehicle continuous passing method and system based on Internet of things
CN117475646A (en) * 2023-10-06 2024-01-30 纬创软件(武汉)有限公司 Pedestrian detection method based on artificial intelligence

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107705635B (en) * 2017-11-24 2020-11-10 吉林大学 Method for judging traffic conflict of electric bicycles at signalized intersection
KR20220144672A (en) 2021-04-20 2022-10-27 구성진 Traffic signal violation automatic detection and notification system
KR20230093612A (en) 2021-12-20 2023-06-27 주식회사 티앤피넷 Object movement monitoring device on the road
KR20240000299A (en) 2022-06-23 2024-01-02 주식회사 티앤피넷 Object movement monitoring device on the road

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6662141B2 (en) * 1995-01-13 2003-12-09 Alan R. Kaub Traffic safety prediction model
KR100438981B1 (en) * 2001-06-02 2004-07-03 엘지산전 주식회사 Traffic information extracting method and apparatus using a image information

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101055789B1 (en) * 2010-05-14 2011-08-11 주식회사 비츠로시스 Auto transportation information extraction system
KR20140011247A (en) * 2012-07-17 2014-01-28 한국전자통신연구원 Apparatus for providing driving information in intersection and method thereof
CN104680790A (en) * 2015-03-17 2015-06-03 天津市市政工程设计研究院 Assembling and evacuating port road security evaluation method based on error back-propagation algorithm
KR20190046553A (en) * 2017-10-26 2019-05-07 서울대학교산학협력단 Image analysis apparatus and operating method thereof
CN108711288A (en) * 2018-06-07 2018-10-26 郑州大学 Joint intersection non-motor vehicle, which is turned right, is connected the method for quantitatively evaluating of safety problem
CN108711288B (en) * 2018-06-07 2020-11-20 郑州大学 Quantitative evaluation method for right turn connection safety problem of non-motor vehicles at connection intersection
KR102019047B1 (en) * 2018-06-12 2019-09-10 대한민국 Apparatus and method for estimating vehicle speed within moving picture images
CN113905941A (en) * 2019-10-29 2022-01-07 索尼集团公司 Vehicle control in a geographic control zone
CN112991799A (en) * 2019-12-17 2021-06-18 现代自动车株式会社 Vehicle autopilot system and method using V2X communication
KR20210092036A (en) * 2020-01-15 2021-07-23 주식회사 오션소프트 Standalone apparatus for controlling traffic signal lamp
KR102343822B1 (en) * 2021-10-01 2021-12-27 한국건설기술연구원 Apparatus and method for determining whether an entry vehicle to a non-signal intersection is paused or not at stop line
KR20230097314A (en) * 2021-12-24 2023-07-03 한국교통대학교산학협력단 Dangerous situation warning service method and system for vehicles in port
KR102563147B1 (en) * 2022-02-18 2023-08-04 렉스젠(주) System for controlling traffic signal and method of the same
KR102559798B1 (en) * 2022-02-21 2023-07-27 렉스젠(주) Traffic signal control system and traffic signal control method
WO2023158149A1 (en) * 2022-02-21 2023-08-24 렉스젠(주) Traffic signal control system and method therefor
CN116653937A (en) * 2023-08-02 2023-08-29 蘑菇车联信息科技有限公司 Traffic light-free left turn scene vehicle passing method, system, equipment and storage medium
CN116653937B (en) * 2023-08-02 2023-11-17 蘑菇车联信息科技有限公司 Traffic light-free left turn scene vehicle passing method, system, equipment and storage medium
CN117152959A (en) * 2023-09-13 2023-12-01 武汉理工大学 Intersection left-turning vehicle continuous passing method and system based on Internet of things
CN117475646A (en) * 2023-10-06 2024-01-30 纬创软件(武汉)有限公司 Pedestrian detection method based on artificial intelligence
CN117475646B (en) * 2023-10-06 2024-03-29 纬创软件(武汉)有限公司 Pedestrian detection method based on artificial intelligence

Also Published As

Publication number Publication date
KR100969995B1 (en) 2010-07-15

Similar Documents

Publication Publication Date Title
KR100969995B1 (en) System of traffic conflict decision for signalized intersections using image processing technique
US10032085B2 (en) Method and system to identify traffic lights by an autonomous vehicle
CN106652465B (en) Method and system for identifying abnormal driving behaviors on road
CN109670376B (en) Lane line identification method and system
CN112700470B (en) Target detection and track extraction method based on traffic video stream
CN100452110C (en) Automobile video frequency discrimination speed-testing method
CN102765365B (en) Pedestrian detection method based on machine vision and pedestrian anti-collision warning system based on machine vision
US10627228B2 (en) Object detection device
US7046822B1 (en) Method of detecting objects within a wide range of a road vehicle
AU2015352462B2 (en) Method of controlling a traffic surveillance system
CA2885019C (en) Robust windshield detection via landmark localization
TWI452540B (en) Image based detecting system and method for traffic parameters and computer program product thereof
CN110379168B (en) Traffic vehicle information acquisition method based on Mask R-CNN
CN103226891B (en) Video-based vehicle collision accident detection method and system
CN106650730A (en) Turn signal lamp detection method and system in car lane change process
JP6139088B2 (en) Vehicle detection device
JP2015090679A (en) Vehicle trajectory extraction method, vehicle region extraction method, vehicle speed estimation method, vehicle trajectory extraction program, vehicle region extraction program, vehicle speed estimation program, vehicle trajectory extraction system, vehicle region extraction system, and vehicle speed estimation system
Lee et al. Accurate ego-lane recognition utilizing multiple road characteristics in a Bayesian network framework
CN103473925B (en) A kind of verification method of road vehicle detection system
CN114693722B (en) Vehicle driving behavior detection method, detection device and detection equipment
Chai et al. Automatic vehicle classification and tracking method for vehicle movements at signalized intersections
MUNAJAT et al. A NEW METHOD FOR ANALYZING CONGESTION LEVELS BASED ON ROAD DENSITY AND VEHICLE SPEED.
CN113128264A (en) Vehicle area determination method and device and electronic equipment
Li et al. Automated region-based vehicle conflict detection using computer vision techniques
Gao et al. Crossing road monitoring system based on adaptive decision for illegal situation

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130423

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20140418

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20150423

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20160526

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20190702

Year of fee payment: 10