KR101484263B1 - 폭력 감지 시스템 및 폭력 감지 방법 - Google Patents

폭력 감지 시스템 및 폭력 감지 방법 Download PDF

Info

Publication number
KR101484263B1
KR101484263B1 KR1020130127390A KR20130127390A KR101484263B1 KR 101484263 B1 KR101484263 B1 KR 101484263B1 KR 1020130127390 A KR1020130127390 A KR 1020130127390A KR 20130127390 A KR20130127390 A KR 20130127390A KR 101484263 B1 KR101484263 B1 KR 101484263B1
Authority
KR
South Korea
Prior art keywords
image
violent
edge
grid
situation condition
Prior art date
Application number
KR1020130127390A
Other languages
English (en)
Inventor
조민국
Original Assignee
주식회사 에스원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 에스원 filed Critical 주식회사 에스원
Priority to KR1020130127390A priority Critical patent/KR101484263B1/ko
Application granted granted Critical
Publication of KR101484263B1 publication Critical patent/KR101484263B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)

Abstract

본 발명의 실시예에 따르면, 폭력 감지 시스템이 제공된다. 상기 폭력 감지 시스템은, 카메라를 통해 촬영된 영상으로부터 적어도 하나의 객체를 검출하는 객체 검출부, 상기 적어도 하나의 객체로부터 움직임이 있는 전경(foreground) 에지를 검출하는 에지 검출부, 그리고 상기 전경 에지를 이용하여 상기 적어도 하나의 객체가 폭력 상황 조건을 만족하는 지를 판단하는 제1 판단부를 포함한다.

Description

폭력 감지 시스템 및 폭력 감지 방법{SYSTEM AND METHOD FOR DETECTING VIOLENCE}
본 발명은 폭력을 감지하는 시스템 및 방법에 관한 것이다.
폭력(폭력 상황)을 감지하는 시스템 및 방법은 사회적 요구에 의해 영상 처리 및 인식 분야에서 활발히 연구되고 있다. 지금까지 연구되고 있는 폭력 감지 방법들 중에서 가장 널리 사용되고 있는 방법은 모션 추정을 기반한 방법이다. 모션 추정은 프레임에서의 임의 픽셀의 위치가 다음 프레임에서 변경된 경우에 해당 임의 픽셀의 모션 벡터를 계산하는 것을 의미한다. 도 1은 모션 추정을 통해 계산되는 모션 벡터의 일예를 나타낸 도면이다. 6x6 영상인 T 프레임에서 임의 픽셀(P)의 위치가 (3, 3)이고, T+1 프레임에서 임의 픽셀(P)의 위치가 (4, 1)인 경우에, 임의 픽셀(P)의 모션 벡터(Vx, Vy)는 아래의 수학식 1과 같다.
Figure 112013096508332-pat00001
이러한 모션 추정을 위해서, 일반적으로 블록 매칭 방법 또는 옵티칼 플로우(optical flow) 방법이 사용된다. 여기서 옵티칼 플로우 방법은 매우 짧은 시간 동안에 픽셀의 밝기 값은 변하지 않고 위치의 변화만 일어난다는 가정에서 출발한다. 이때 각각의 작은 위치 변화가 각각 x, y 축에서 일어났다면, 위치 변화 I(x, y, t)는 아래의 수학식 2와 같다.
Figure 112013096508332-pat00002
수학식 2의 오른쪽 항을 테일러 급수(Taylor series) 전개하면, 아래의 수학식 3와 같다.
Figure 112013096508332-pat00003
여기서 H.O.T.는 Higher-Order Terms의 약자이다.
한편, 수학식 2과 수학식 3가 동시에 만족하려면, 수학식 3의 오른쪽 항에서의 미분식의 합이 0이어야 하고, 각각의 변수(x, y, t)에 대해 편미분을 하면 아래의 수학식 4과 같다.
Figure 112013096508332-pat00004
수학식 4을 각각의 편미분 항을 나타내는 항으로 바꾸어 정리하면, 아래의 수학식 5와 같다.
Figure 112013096508332-pat00005
수학식 5를 행렬 식으로 표현하면 아래의 수학식 6와 같다.
Figure 112013096508332-pat00006
결국, 옵티칼 플로우 방법은 영상을 x축, y축, 시간(t)축으로 각각 미분함으로써 모션 벡터를 계산한다. 하지만 이와 같은 계산을 통해서 하나의 영상에 대해 하나의 모션 벡터가 추출된다. 따라서 옵티칼 플로우 방법은 일반적으로 임의 픽셀 주변의 일정 크기의 부분 영상에 대해 모션 벡터를 계산하고, 이러한 계산 과정을 전체 픽셀에 대해 수행한다. 이를 통해, 옵티칼 플로우 방법은 각 픽셀에 대한 모션 벡터를 추출하여 해당 영상에서 모션을 추정한다. 여기서 추정된 모션은 일반적으로 모션 벡터에서 의미 있는 데이터들의 집합이고, 이러한 데이터 집합은 이후 신경망(Neural Network), SVM(Support Vector Machine) 등과 같은 분류기의 입력 파라미터로 사용되고, 이러한 분류기를 통해서 해당 영상(또는 해당 영상의 객체)이 폭력 상황인지 여부가 판별된다.
한편, 폭력을 감지하기 위한 또 다른 접근법으로써, 영상의 에지를 기반으로 하는 HOG(Histogram of Oriented Gradients) 방법이 있다. HOG 방법은 검출된 객체를 정의된 부분 영역으로 분할한 후, 분할된 영역에 존재하는 에지의 각도를 계산하여 각도 히스토그램을 얻는다. HOG 방법은 이렇게 얻어진 각도 히스토그램을 의미있는 특징(feature)으로 사용한다. HOG 방법에 대해서 도 2를 참고하여 자세히 설명한다.
도 2는 HOG 방법을 설명하기 위한 일예를 나타낸 도면이다.
먼저, HOG 방법은 객체(O1)를 영상으로부터 검출한다. 그리고 HOG 방법은 해당 객체(O1)의 에지를 계산한다. 이후, HOG 방법은 해당 객체(O1)를 정의된 일정 크기의 격자(G1)로 영역을 분할한 뒤, 분할된 각 영역(R1)에 존재하는 에지의 각도를 계산한다. HOG 방법은 각 영역(R1)에서 계산된 에지의 각도를 각 영역(R1)에서의 각도 히스토그램으로 변환한 뒤 모든 영역(R1)의 각도 히스토그램을 연결하고, 연결된 각도 히스토그램을 해당 객체(O1)의 하나의 특징 값으로 사용한다. 하지만 검출된 객체의 크기가 다양하므로, HOG 방법에서는 피라미드 영상을 이용하여 객체 크기에 대한 정규화 과정이 필요하다. 여기서 피라미드 영상에 대해서는 도 3을 참고하여 설명한다.
도 3은 피라미드 영상(Image Pyramids)의 개념을 나타낸 도면이다.
피라미드 영상은 입력 영상에 가우시안 필터 또는 라플라시안 필터를 적용함으로써 획득된 다양한 크기(level 0~level k)의 영상의 집합이다. HOG 방법은 피라미드 영상을 이용하여 객체 크기에 대한 정규화 과정을 수행하고, 이후, 정규화된 각도 히스토그램을 입력 파라미터로 사용하는 분류기(신경망, SVM 등)를 이용하여 해당 영상(또는 해당 영상의 객체)이 폭력 상황인지를 판별한다.
하지만 모션 추정을 기반으로 하는 방법들은 일반적으로 정교한 모션 추정이 어렵다. 그리고 HOG를 이용한 접근법은 객체의 크기가 다양함에 따라 계산 복잡도가 높은 단점을 가진다.
본 발명이 해결하고자 하는 과제는, 안정적이고 효율적으로 폭력을 감지할 수 있는 폭력 감지 시스템 및 폭력 감지 방법을 제공하는 것이다.
본 발명의 실시예에 따르면, 폭력 감지 시스템이 제공된다. 상기 폭력 감지 시스템은, 카메라를 통해 촬영된 영상으로부터 적어도 하나의 객체를 검출하는 객체 검출부; 상기 적어도 하나의 객체로부터 움직임이 있는 전경(foreground) 에지를 검출하는 에지 검출부; 및 상기 전경 에지를 이용하여 상기 적어도 하나의 객체가 폭력 상황 조건을 만족하는 지를 판단하는 제1 판단부를 포함한다.
상기 적어도 하나의 객체는 제1 객체 및 제2 객체를 포함한다. 그리고 상기 폭력 상황 조건은 상기 제1 객체와 상기 제2 객체 간에 겹침(occlusion)이 존재하는 경우로 정의될 수 있다.
상기 제1 판단부는 상기 폭력 상황 조건이 만족되는 경우에, 히스토리 로그에 상기 폭력 상황 조건의 부합 정보를 기록할 수 있다.
상기 폭력 감지 시스템은 상기 폭력 상황 조건이 만족되는 경우에, 상기 전경 에지에 대한 격자를 구성하는 격자 구성부를 더 포함할 수 있다.
상기 격자 구성부는 상기 객체의 크기에 따라 상기 격자의 크기를 결정할 수 있다.
상기 폭력 감지 시스템은 상기 격자의 각 영역에 대응하는 각도 히스토그램을 추출하고, 상기 각도 히스토그램 각각을 연결하여 특징 벡터(feature vector)를 추출하는 HOG(Histogram of Oriented Gradients) 특징 벡터 추출부를 더 포함할 수 있다.
상기 폭력 감지 시스템은 상기 특징 벡터를 입력 파라미터로 사용하는 분류 알고리즘을 통하여 상기 영상이 폭력 영상인지 여부를 판단하는 제2 판단부를 더 포함할 수 있다.
상기 분류 알고리즘은 SVM(Support Vector Machine) 분류 알고리즘, 신경망(Neural Network) 분류 알고리즘, 자기 조직화 지도(SOM: Self Organizing Map) 분류 알고리즘, 및 K-NN(K-Nearest Neighbors) 분류 알고리즘 중 어느 하나일 수 있다.
상기 폭력 감지 시스템은 상기 영상이 폭력 영상으로 판단된 경우에, 상기 히스토리 로그에 기록된 정보를 이용하여 상기 영상이 지속된 시간을 확인하고, 상기 영상의 지속 시간에 기초하여 상기 객체의 폭력 상황을 판단하는 제3 판단부를 더 포함할 수 있다.
상기 제3 판단부는 상기 영상의 지속 시간이 임계 시간 이상인 경우에 상기 객체가 폭력 상황에 있는 것으로 판단할 수 있다. 여기서 상기 임계 시간은 변경 가능하다.
상기 제3 판단부는 상기 객체가 폭력 상황에 있는 것으로 판단한 경우에 사용자에게 알림 메시지를 전송할 수 있다.
상기 카메라는 한 방향만을 촬영하는 하나의 고정형 카메라일 수 있다.
또한, 본 발명의 다른 실시예에 따르면, 폭력 감지 시스템의 감지 방법이 제공된다. 상기 폭력 감지 방법은 카메라를 통해 촬영된 영상으로부터 적어도 하나의 객체를 검출하는 단계; 상기 적어도 하나의 객체로부터 움직임이 있는 전경 에지를 검출하는 단계; 및 상기 전경 에지를 이용하여 상기 적어도 하나의 객체가 폭력 상황 조건을 만족하는 지를 판단하는 단계를 포함한다.
기존의 폭력 상황 감지 방법들은 모션 추정을 기반으로 의미 있는 특징을 추출하여 폭력 상황을 판별하는데 사용한다. 하지만 기존의 폭력 상황 감지 방법에서는 정교한 모션 추정이 어렵기 때문에, 의미 있는 특징을 추출하는 것이 어렵다. 또한, 영상의 에지(edge)를 기반으로 HOG를 이용하는 방법은 검출되는 객체의 크기가 다양함에 따라 피라미드 영상을 이용해야 하고, 이로 인해 계산 복잡도가 높아지는 단점을 가진다.
하지만, 본 발명은 영상 처리 기법을 이용하여 영상 내에서 폭력 상황을 판별한다. 구체적으로 본 발명은 영상 에지를 기반으로 적응적 격자 크기를 이용한 HOG 특징을 효율적으로 추출하고, 추출된 HOG 특징을 이용하여 폭력 상황을 감지한다. 본 발명은 기존의 HOG 방법과 달리, 객체 크기의 다양성으로 인한 피라미드 영상의 적용이 요구되지 않는다. 그리고 본 발명의 실시예에 따르면, 일반적인 트랙킹 알고리즘을 적용하여 폭력 상황 조건을 정의함으로써, 안정적이고 효율적인 폭력 상황 감지 시스템을 구축할 수 있다.
또한, 본 발명의 실시예에 따르면, 기존의 모션 추정을 기반으로 하는 방법과 다르게 모션 벡터를 계산할 필요가 없으므로 더 효율적으로 폭력 상황을 판별할 수 있다. 그리고 본 발명은 피라미드 영상을 이용하지 않기 때문에, 피라미드 영상을 이용하는 기존 방법에 비해 계산 복잡도가 낮고 처리 시간이 빠르고 구현이 용이한 장점을 가진다.
또한, 본 발명을 학교와 같은 교육 기관에 적용하면, 학생들의 안전을 지키고, 사회 문제로 부각되고 있는 학교 폭력에 신속하게 대처할 수 있다. 또한, 본 발명을 통해서 사후 처리 및 범죄 예방에도 많은 도움을 줄 수 있다.
도 1은 모션 추정을 통해 계산되는 모션 벡터의 일예를 나타낸 도면.
도 2는 HOG 방법을 설명하기 위한 일예를 나타낸 도면.
도 3은 피라미드 영상(Image Pyramids)의 개념을 나타낸 도면.
도 4는 본 발명의 실시예에 따른 폭력 감지 시스템을 나타낸 도면.
도 5는 본 발명이 사용하는 코드북을 기반으로 하는 배경 모델링 방법(Codebook-based Background modeling)을 나타낸 도면.
도 6은 시간에 따른 입력 영상의 일 예를 나타낸 도면.
도 7은 전경 에지 추출의 개념을 나타낸 도면.
도 8은 유사 연산자 기법을 이용한 공간 에지 검출 방법을 설명하는 도면.
도 9는 차 연산자 기법을 이용한 공간 에지 검출 방법을 설명하는 도면.
도 10은 입력 영상에 대한 로버츠 필터, 프리윗 필터, 및 소벨 필터에 의해 획득되는 공간 에지 영상을 나타낸 도면.
도 11은 공간 에지와 시간 에지로부터 추출되는 전경 에지의 일 예를 나타낸 도면.
도 12는 본 발명의 실시예에 따른 각도 히스토그램 추출 과정을 나타낸 도면.
도 13은 본 발명의 실시 예에 따른 SVM 분류기의 동작 특성을 나타낸 도면.
도 14은 본 발명의 실시예에 따른 폭력 감지 시스템이 폭력 상황을 감지하는 과정을 나타낸 순서도.
아래에서는 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
도 4는 본 발명의 실시예에 따른 폭력 감지 시스템(1000)을 나타낸 도면이다.
폭력 감지 시스템(1000)은 객체 검출부(100), 에지 검출부(200), 폭력 상황 조건 판별부(300), 격자 구성부(400), HOG 특징 벡터 추출부(500), 폭력 영상 판별부(600), 및 폭력 상황 판별부(700)를 포함한다.
객체 검출부(100)는 카메라를 통해 촬영된 영상으로부터 적어도 하나의 객체를 검출한다. 객체 검출부(100)는 검출 알고리즘을 이용해 객체를 검출할 수 있다. 구체적으로, 객체 검출부(100)는 코드북을 기반으로 하는 배경 모델링 방법(Codebook-based Background modeling)을 이용해 영상 내에서 객체를 검출할 수 있다. 코드북을 기반으로 하는 배경 모델링 방법은 도 5와 함께 자세히 설명한다. 한편, 카메라는 고정형 단일 카메라일 수 있다. 고정형 단일 카메라는 PTZ(Pan-Tilt-Zoom) 카메라처럼 회전하지 않고, 고정되어 있어서 한 방향만을 촬영한다.
에지 검출부(200)는 객체 검출부(100)에 의해 검출된 적어도 하나의 객체(이하 '검출 객체')로부터 움직임이 있는 전경 에지(foreground edge)를 검출한다. 구체적으로, 에지 검출부(200)는 검출 객체로부터 움직임이 있는 전경 에지를 검출한다. 일반적인 폭력 감지 알고리즘 및 판별 알고리즘은 검출 객체의 에지를 이용하지만, 본 발명은 움직임이 있는 전경 에지를 폭력 감지를 위해 사용한다. 에지 검출부(200)에 의해 검출되는 전경 에지에 대해서는 도 6 내지 도 11을 참고하여 자세히 설명한다.
폭력 상황 조건 판별부(300)는 에지 검출부(200)에 의해 검출된 움직임이 있는 전경 에지(이하 '움직임 전경 에지')를 이용하여 검출 객체가 폭력 상황 조건을 만족하는 지를 판별한다. 구체적으로, 폭력 상황 조건 판별부(300)는 트랙킹 알고리즘을 이용하여 검출 객체가 정의된 폭력 상황 조건에 부합하는지를 판별한다. 여기서 트랙킹 알고리즘은 Mean-Shift 알고리즘, CAMShift 알고리즘 등 일 수 있다. 폭력 상황 조건은 두 개 이상의 검출 객체 간에 서로 겹침(occlusion)이 발생하는 경우로 정의될 수 있다. 한편, 폭력 상황 조건 판별부(300)는 검출 객체가 폭력 상황 조건을 만족하는 경우에, 히스토리 로그에 폭력 상황 조건의 부합 정보(예, 시간 정보 등)를 기록할 수 있다.
격자 구성부(400)는 검출 객체가 폭력 상황 조건을 만족하는 경우에, 움직임 전경 에지에 대한 격자를 구성한다. 구체적으로, 격자 구성부(400)는 HOG(Histogram of Oriented Gradients) 특징(feature)을 추출하기 위해서, 검출 객체의 영역에 대한 적응적 격자를 구성한다. 여기서 적응적 격자의 크기는 검출 객체의 크기에 따라 결정된다. 검출 객체의 크기는 카메라와의 거리, 실제 객체 크기 등과 같은 원인으로 다양할 수 있다. 상술한 바와 같이, 기존의 HOG 방법에서는 피라미드 영상과 같은 방법을 이용하는 검출 객체의 크기에 대한 정규화 작업이 반드시 필요하다. 하지만, 본 발명은 검출 객체의 크기에 따르는 적응적 격자를 검출 객체에 적용한다.
HOG 특징 벡터 추출부(500)는 적응적 격자의 각 영역에 대응하는 각도 히스토그램을 추출하고, 추출된 각도 히스토그램 각각을 연결하여 특징 벡터(feature vector)를 추출한다. 각도 히스토그램 추출에 대해서는 도 12를 참고하여 자세히 설명한다.
폭력 영상 판별부(600)는 HOG 특징 벡터 추출부(500)에 의해 추출된 특징 벡터(이하 '특징 벡터')를 입력 파라미터로 사용하는 분류기를 통하여 해당 영상이 폭력 영상인지 여부를 판별한다. 여기서 분류기는 기계 학습, 패턴인식 분야 등에서 널리 사용되는 SVM(Support Vector Machine) 분류기, 신경망(Neural Network) 분류기, 자기 조직화 지도(SOM: Self Organizing Map) 분류기, K-NN(K-Nearest Neighbors) 분류기 등 중 어느 하나일 수 있다. 본 발명의 실시예에서는 SVM 분류기를 사용하였으나, 분류기가 상술한 분류기에 한정되지는 않는다. SVM 분류기는 이진 분류기이며, 두 개의 클래스(집합)들을 가장 효과적으로 분류할 수 있는 결정 경계를 찾는 것을 목적으로 한다. SVM 분류기에 대해서는 도 13을 참고하여 자세히 설명한다.
폭력 상황 판별부(700)는 폭력 영상 판별부(600)에 의해서 해당 영상이 폭력 영상으로 판별된 경우에, 히스토리 로그에 기록된 정보를 이용하여 해당 영상이 지속된 시간을 확인하고, 해당 영상의 지속 시간에 기초하여 검출 객체의 폭력 상황을 최종적으로 판별한다. 구체적으로 폭력 상황 판별부(700)는 해당 영상의 지속 시간이 임계 시간 이상인 경우에, 검출 객체가 폭력 상황에 있는(놓인) 것으로 판별할 수 있다. 여기서, 임계 시간은 사용자 정의 파라미터로써, 사용자의 요구에 따라 변경될 수 있다. 한편, 폭력 상황 판별부(700)는 검출 객체가 폭력 상황에 있는 것으로 최종적으로 판단된 경우에, 사용자에게 알림 메시지를 전송할 수 있다.
도 5는 본 발명(구체적으로 객체 검출부(100))가 사용하는 코드북을 기반으로 하는 배경 모델링 방법을 나타낸 도면이다.
코드북을 기반으로 하는 배경 모델링 방법은 영상에서 각 픽셀이 가지는 값의 분산을 학습하고, 정의된 임계치 이상의 값을 가지는 픽셀을 전경으로 간주하여 객체를 검출한다. 여기서 각 픽셀은 하나의 코드북(B)에 대응한다. 한편, 코드북을 기반으로 하는 배경 모델링 방법은 당업자에게 이미 잘 알려진 기술이므로, 이에 대한 자세한 설명은 생략한다.
도 6은 시간에 따른 입력 영상의 일 예를 나타낸 도면이고, 도 7은 움직임 전경 에지의 추출 개념을 나타낸 도면이고, 도 11은 공간 에지와 시간 에지로부터 추출되는 움직임 전경 에지의 일 예를 나타낸 도면이다.
에지 검출부(200)는 도 6과 같이 시간(t-1, t, t+1)에 따라서 입력된 3개의 입력 영상에 대하여 아래의 수학식 7과 같은 2차 미분을 이용하여 시간 에지를 검출할 수 있다.
Figure 112013096508332-pat00007
도 7에 도시된 바와 같이, 에지 검출부(200)는 공간 에지를 포함하는 공간 에지 영상(IMG_S)과 시간 에지를 포함하는 시간 에지 영상(IMG_T)의 공통 성분을 추출한다. 여기서, 공간 에지는 입력되는 하나의 전체 영상으로부터 검출되는 일반적인 에지이다. 공간 에지 검출은 일반적으로 입력되는 점이나 선을 검출하는 것이다. 구체적으로, 에지 검출부(200)는 유사 연산자(Homogeneity Operator), 차 연산자(Difference Operator), 그리고 미분 연산자(Derivative Operator) 중 적어도 하나를 이용한 방법으로 공간 에지를 검출할 수 있다. 여기서, 유사 연산자, 차 연산자, 또는 미분 연산자를 이용해 공간 에지를 검출하는 방법은 일반적으로 잘 알려진 방식으로써, 도 8 내지 도 10을 참고하여 간단히 설명한다. 한편, 공간 에지와 시간 에지를 동시에 만족하는 에지 성분을 움직임 전경 에지로 정의한다. 전경 에지 영상(IMG_F)은 추출된 움직임 전경 에지를 포함하는 영상이다.
도 8은 유사 연산자 기법을 이용한 공간 에지 검출 방법을 설명하는 도면이다.
유사 연산자 기법은 아래의 수학식 8와 같이 중앙 픽셀 값(center)에서 이웃 픽셀 값을 뺄셈한 값에서 최대값을 결정하여 에지를 검출한다.
Figure 112013096508332-pat00008
예를 들어, 3*3 크기의 마스크에서 중앙 픽셀 값이 7이고, m1, m2, m3, m4, m5, m6, m7, m8이 각각 7, 10, 13, 14, 7, 14, 8, 7인 경우, 수학식 8와 같이 중앙 픽셀 값을 기준으로 이웃하는 8개의 픽셀 값을 각각 뺄셈하고, 그 결과 값(|7-7|, |7-10|, |7-13|, |7-14|, |7-7|, |7-14|, |7-8|, |7-7|) 중에서 최대 값인 7을 새로운 중앙 픽셀 값으로 할당한다.
도 9는 차 연산자 기법을 이용한 공간 에지 검출 방법을 설명하는 도면이다.
차 연산자 기법은 아래의 수학식 9와 같이 중앙 픽셀 값(m5)을 기준으로 특정 방향(①~④)으로 이웃하는 두 픽셀 값간 뺄셈한 값에서 최대 값을 결정하여 에지를 검출한다.
Figure 112013096508332-pat00009
예를 들어, 3*3 크기의 마스크에서 중앙 픽셀 값이 7이고, m1, m2, m3, m4, m6, m7, m8, m9이 각각 7, 10, 13, 14, 7, 14, 8, 7인 경우, 수학식 9와 같이 중앙 픽셀 값을 기준으로 마주보는 4개의 픽셀 쌍간 픽셀 값을 뺄셈하고, 그 결과 값(|7-14|, |13-14|, |10-8|, |7-7|) 중에서 최대 값인 7을 새로운 중앙 픽셀 값으로 할당한다.
한편, 미분 연산자 기법은 아래의 수학식 10과 같은 영상의 1차 미분(first-order derivative)이나 수학식 11과 같은 2차 미분(second-order derivative)을 이용하여 영상 내에 존재하는 에지를 검출한다. 이때 미분 값은 양자화하여 근사될 수 있다.
Figure 112013096508332-pat00010
여기서, (x, y)는 현재 영상의 좌표를 나타낸다.
Figure 112013096508332-pat00011
미분 연산자 기법은 일반적으로 3*3 필터를 이용하여 각 영상에 적용하는데, 1차 미분 연산자로는 로버츠(Roberts) 필터, 프리윗(Prewitt) 필터, 또는 소벨(Sobel) 필터가 주로 사용될 수 있다.
도 10의 (a)는 입력 영상의 일 예이고, 도 10의 (b) 내지 (d) 각각은 도 10의 (a) 입력 영상에 대한 로버츠 필터, 프리윗 필터 및 소벨 필터 각각에 의해 획득된 에지 영상을 나타낸다. 로버츠 필터, 프리윗 필터 및 소벨 필터는 각각의 고유한 특징을 가지고 있다.
도 11을 참고하면, 현재의 입력 영상이 도 11의 (a)와 같은 경우에, 하나의 입력 영상으로부터 필터(예, 소벨 필터)에 의해 검출된 에지 영상(구체적으로, 공간 에지 영상)은 도 11의 (b)와 같다. 그리고 현재의 입력 영상과 복수의 이전 입력 영상을 이용하여 검출된 시간 에지 영상은 도 11의 (c)와 같다. 도 11의 (b)와 같은 공간 에지와 도 11의 (c)와 같은 시간 에지로부터 도 11의 (d)와 같은 움직임 전경 에지가 추출될 수 있다. 즉, 도 11과 같이, 에지 추출부(200)는 공간 에지에 포함될 수 있는 배경 에지를 최소화함으로써, 실제 움직임이 있는 전경 에지를 추출할 수 있다.
도 12는 본 발명의 실시예에 따른 각도 히스토그램 추출 과정을 나타낸 도면이다.
입력 영상이 도 12의 (a)와 같은 경우에, 객체 검출부(100)에 의해서 검출된객체(O2)는 도 12의 (b)와 같다. 검출 객체(O2)의 크기에 기초하여 구성된 적응적 격자(G2)는 도 12의 (c)와 같다. 적응적 격자(G2)는 검출 객체(O2)의 가로/세로 비에 기초하여 그 크기(예, 가로 4등분, 세로 4등분)가 결정된다. 적응적 격자(G2)를 통해서 검출 객체(O2)는 다수의 영역(R2)으로 분할된다.
구체적으로, HOG 특징 벡터 추출부(500)는 분할된 각 영역(R2)에 대한 각도 히스토그램(H1)을 추출한다. 각 각도 히스토그램(H1)은 각 영역(R2)에 대응한다. 그리고 HOG 특징 벡터 추출부(500)는 추출된 각도 히스토그램들(H1)을 도 12의 (d)와 같이 연결하여, 폭력 영상을 판별하기 위해 사용되는 하나의 특징 벡터를 추출한다. 도 12의 (d)에 대응하는 특징 벡터는 144차원 벡터((4x4 격자) x (9등분 각도))이다. 본 발명은 검출 객체(예, O2)의 크기에 따르는 적응적 격자를 검출 객체(예, O2)에 적용함으로써, 다양한 크기의 객체로부터 동일한 차원의 각도 히스토그램(또는 특징 벡터)을 추출할 수 있다. 예를 들어, 객체(예, O2)보다 더 큰 크기의 객체(이하 'O3'라 함)가 검출된 경우에, HOG 특징 벡터 추출부(500)는 객체(O2)와 동일한 차원(예, 144차원 = (4x4 격자) x (9등분 각도))의 특징 벡터를 추출할 수 있다. 이 경우에 4x4 격자에 의해서 분할되는 객체 O3의 각 영역(이하 'R3'라 함)은 객체(O2)의 각 영역(R2) 보다 더 크다. 즉, 분할된 각 영역(예, R2, R3)의 크기는 검출 객체(예, O2, O3)의 크기마다 달라지지만, HOG 특징 벡터 추출부(500)에 의해 추출되는 각도 히스토그램(또는 특징 벡터)의 차원(예, 144차원)은 동일하고, 이후 정규화 과정을 통해 검출 객체(예, O2, O3)의 크기에 영향을 받지 않는 각도 히스토그램(또는 특징 벡터)을 계산할 수 있다.
도 13은 본 발명의 실시 예에 따른 SVM 분류기의 동작 특성을 나타낸 도면이다.
SVM 분류기는 서로 다른 클래스(+1, -1)에 속하는 2차원 데이터들을 분류하기 위하여, 두 클래스(+1, -1)의 중간에 해당하는 결정 경계를 찾기 위한 예측 모델을 사용한다. SVM 분류기는 각 특징 벡터들에 대한 서포트 벡터(support vector)들을 산출한다. SVM 분류기는 서포트 벡터들을 토대로 결정 경계를 나타내는 구분선을 찾는다. SVM 분류기는 서포트 벡터에 의해 마진(margin)이 최대가 되는 구분선을 찾아서 결정 경계로 사용하며, 이러한 결정 경계를 토대로 데이터들을 두 클래스(+1, -1)로 분류한다. 이후, 본 발명의 실시 예에 따라 학교 등과 같은 검출 장소에 대하여 폭력 상황 후보 데이터가 설정되고, 폭력 상황 후보 데이터들에 대하여 특징 벡터가 검출되면, 검출된 특징 벡터가 도 13에서와 같이, 임의 클래스(폭력 상황 또는 정상 상황)에 속하는 하나의 입력 데이터 x로 사용된다. 여기서 정상 상황은 폭력 상황이 아닌 상황을 의미한다. SVM 분류기는 입력 데이터 x에 대한 결정 경계 식(
Figure 112013096508332-pat00012
)을 산출한다. 여기서, W와 b는 상위 학습 데이터(예, 상당한 개수의 특징 벡터)를 이용한 SVM 분류 학습을 통해서 계산되는 결정 경계 변수이다. 결정 경계 식의 값이 양수 또는 음수인지에 따라 입력 데이터 x가 폭력 상황 또는 정상 상황에 속하는 것으로 판별될 수 있다. 예를 들어, 결정 경계 식의 값이 양수인 경우에는 정상 상황에 속하는 것으로 판별되고, 결정 경계 식의 값이 음수인 경우에는 폭력 상황에 속하는 것으로 판별될 수 있다.
도 14은 본 발명의 실시예에 따른 폭력 감지 시스템이 폭력 상황을 감지하는 과정을 나타낸 순서도이다.
카메라를 통해서 감시 대상 구역을 촬영한 영상이 객체 검출부(100)로 입력된다(S110).
객체 검출부(100)는 코드북을 기반으로 하는 배경 모델링 방법을 이용하여 객체를 검출한다(S120).
에지 검출부(200)는 검출 객체로부터 움직임 전경 에지를 검출한다(S130).
폭력 상황 조건 판별부(300)는 움직임 전경 에지를 이용하여 검출 객체가 폭력 상황 조건(적어도 2개의 객체 간에 겹침이 발생)을 만족하는 지를 판별한다(S140). 만약 검출 객체가 폭력 상황 조건을 만족한다면, 폭력 상황 조건 판별부(300)는 해당 사실(예, 시간 정보 등)을 히스토리 로그에 기록한다.
만약 검출 객체가 폭력 상황 조건을 만족한다면, 격자 구성부(400)는 움직임 전경 에지에 대한 적응적 격자를 구성한다(S150).
HOG 특징 벡터 추출부(500)는 적응적 격자를 통해 분할된 검출 객체의 각 영역에 대하여 각도 히스토그램을 추출하고, 추출된 각도 히스토그램 각각을 연결하여 특징 벡터를 추출한다(S160).
폭력 영상 판별부(600)는 특징 벡터를 입력 파라미터로 사용하는 분류기(예, SVM 분류기)를 통하여 해당 영상이 폭력 영상인지를 판별한다(S170).
폭력 상황 판별부(700)는 S170 과정에서 해당 영상이 폭력 영상으로 판별된 경우에, 히스토리 로그를 이용하여 해당 폭력 영상이 지속된 시간을 확인하고, 해당 폭력 영상의 지속 시간이 임계 시간 이상인 경우에 검출 객체가 폭력 상황에 있는 것으로 최종 판별한다(S180).
한편, 본 발명의 실험에서는 정상 상황 영상과 폭력 상황 영상으로부터 131개의 HOG 특징 벡터를 획득하고, 이들의 좌우 반대 영상으로부터 131개의 HOG 특징 벡터를 획득하고, 총 262개의 HOG 특징 벡터를 이용하여 SVM 분류기를 학습하였다. 또한, 본 발명의 실험에서는 검출 객체의 영역을 4x4의 적응적 격자를 통해 분할하였고, 에지의 각도를 9등분하여 각도 히스토그램을 구성하였다.
실제 폭력 상황이 존재하는 폭력 상황 영상 30씬과 정상 상황 영상 30씬에 대해 본 발명을 적용하여 실험해 본 결과, 감지율 90.00%, 오보율 3.33%의 성능을 보였다. 또한, 2개의 다른 장소(서울 모초등학교)에서 본 발명에 대한 실용 시험을 2주간 수행한 결과, 1일 평균 0.1건의 오보가 발생하였고, 1건의 실제 폭력 상황과 유사한 학생들의 행동이 감지되었다. 실용 시험 장소는 학생 및 교직원의 출입이 빈번한 건물 외 주차장에서 수행된 것이므로, 실제 학교와 같은 교육기관에 본 발명을 설치한다면 학생들의 안전 및 학교 폭력 예방에 큰 도움을 줄 수 있다.
이상에서 본 발명의 실시예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속하는 것이다.

Claims (20)

  1. 카메라를 통해 촬영된 영상으로부터 적어도 하나의 객체를 검출하는 객체 검출부;
    상기 적어도 하나의 객체로부터 움직임이 있는 전경(foreground) 에지를 검출하는 에지 검출부;
    상기 전경 에지를 이용하여 상기 적어도 하나의 객체가 폭력 상황 조건을 만족하는 지를 판단하는 제1 판단부; 및
    상기 폭력 상황 조건이 만족되는 경우에, 상기 전경 에지에 대한 격자를 구성하는 격자 구성부
    를 포함하는 감지 시스템.
  2. 제1항에 있어서,
    상기 적어도 하나의 객체는 제1 객체 및 제2 객체를 포함하고,
    상기 폭력 상황 조건은
    상기 제1 객체와 상기 제2 객체 간에 겹침(occlusion)이 존재하는 경우로 정의되는
    감지 시스템.
  3. 제2항에 있어서,
    상기 제1 판단부는
    상기 폭력 상황 조건이 만족되는 경우에, 히스토리 로그에 상기 폭력 상황 조건의 부합 정보를 기록하는
    감지 시스템.
  4. 삭제
  5. 제3항에 있어서,
    상기 격자 구성부는
    상기 객체의 크기에 따라 상기 격자의 크기를 결정하는
    감지 시스템.
  6. 제5항에 있어서,
    상기 격자의 각 영역에 대응하는 각도 히스토그램을 추출하고, 상기 각도 히스토그램 각각을 연결하여 특징 벡터(feature vector)를 추출하는 HOG(Histogram of Oriented Gradients) 특징 벡터 추출부
    를 더 포함하는 감지 시스템.
  7. 제6항에 있어서,
    상기 특징 벡터를 입력 파라미터로 사용하는 분류 알고리즘을 통하여 상기 영상이 폭력 영상인지 여부를 판단하는 제2 판단부
    를 더 포함하는 감지 시스템.
  8. 제7항에 있어서,
    상기 분류 알고리즘은
    SVM(Support Vector Machine) 분류 알고리즘, 신경망(Neural Network) 분류 알고리즘, 자기 조직화 지도(SOM: Self Organizing Map) 분류 알고리즘, 및 K-NN(K-Nearest Neighbors) 분류 알고리즘 중 어느 하나인
    감지 시스템.
  9. 제8항에 있어서,
    상기 영상이 폭력 영상으로 판단된 경우에, 상기 히스토리 로그에 기록된 정보를 이용하여 상기 영상이 지속된 시간을 확인하고, 상기 영상의 지속 시간에 기초하여 상기 객체의 폭력 상황을 판단하는 제3 판단부
    를 더 포함하는 감지 시스템.
  10. 제9항에 있어서,
    상기 제3 판단부는
    상기 영상의 지속 시간이 임계 시간 이상인 경우에 상기 객체가 폭력 상황에 있는 것으로 판단하고,
    상기 임계 시간은 변경 가능한
    감지 시스템.
  11. 제10항에 있어서,
    상기 제3 판단부는
    상기 객체가 폭력 상황에 있는 것으로 판단한 경우에 사용자에게 알림 메시지를 전송하는
    감지 시스템.
  12. 제11항에 있어서,
    상기 카메라는 한 방향만을 촬영하는 하나의 고정형 카메라인
    감지 시스템.
  13. 카메라를 통해 촬영된 영상으로부터 적어도 하나의 객체를 검출하는 단계;
    상기 적어도 하나의 객체로부터 움직임이 있는 전경 에지를 검출하는 단계;
    상기 전경 에지를 이용하여 상기 적어도 하나의 객체가 폭력 상황 조건을 만족하는 지를 판단하는 단계; 및
    상기 적어도 하나의 객체가 상기 폭력 상황 조건을 만족하는 경우에, 상기 전경 에지에 대한 격자를 구성하는 단계
    를 포함하는 폭력 감지 시스템의 감지 방법.
  14. 제13항에 있어서,
    상기 적어도 하나의 객체는 제1 객체 및 제2 객체를 포함하고,
    상기 폭력 상황 조건은
    상기 제1 객체와 상기 제2 객체 간에 겹침이 존재하는 경우로 정의되는
    감지 방법.
  15. 제14항에 있어서,
    상기 적어도 하나의 객체가 상기 폭력 상황 조건을 만족하는 경우에, 히스토리 로그에 상기 폭력 상황 조건의 부합 정보를 기록하는 단계
    를 더 포함하는 감지 방법.
  16. 삭제
  17. 제15항에 있어서,
    상기 격자를 구성하는 단계는
    상기 객체의 크기에 따라 상기 격자의 크기를 결정하는 단계를 포함하는
    감지 방법.
  18. 제17항에 있어서,
    상기 격자의 각 영역에 대응하는 각도 히스토그램을 추출하는 단계; 및
    상기 각도 히스토그램 각각을 연결하여 특징 벡터를 추출하는 단계
    를 더 포함하는 감지 방법.
  19. 제18항에 있어서,
    상기 특징 벡터를 입력 파라미터로 사용하는 분류 알고리즘을 통하여 상기 영상이 폭력 영상인지 여부를 판단하는 단계
    를 더 포함하는 감지 방법.
  20. 제19항에 있어서,
    상기 영상이 폭력 영상으로 판단된 경우에, 상기 히스토리 로그에 기록된 정보를 이용하여 상기 영상이 지속된 시간을 확인하는 단계; 및
    상기 확인된 영상의 지속 시간이 임계 시간 이상인 경우에, 상기 객체가 폭력 상황에 놓인 것으로 판단하는 단계
    를 더 포함하는 감지 방법.
KR1020130127390A 2013-10-24 2013-10-24 폭력 감지 시스템 및 폭력 감지 방법 KR101484263B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020130127390A KR101484263B1 (ko) 2013-10-24 2013-10-24 폭력 감지 시스템 및 폭력 감지 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130127390A KR101484263B1 (ko) 2013-10-24 2013-10-24 폭력 감지 시스템 및 폭력 감지 방법

Publications (1)

Publication Number Publication Date
KR101484263B1 true KR101484263B1 (ko) 2015-01-16

Family

ID=52590940

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130127390A KR101484263B1 (ko) 2013-10-24 2013-10-24 폭력 감지 시스템 및 폭력 감지 방법

Country Status (1)

Country Link
KR (1) KR101484263B1 (ko)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180072561A (ko) * 2016-12-21 2018-06-29 엑시스 에이비 비디오 감시 시스템에서 경보들을 발생시키는 방법
KR102101623B1 (ko) * 2018-11-16 2020-04-17 주식회사 에스원 영상 정보를 이용하여 이상 상황을 감지하는 방법 및 장치
WO2020111932A1 (en) * 2018-11-29 2020-06-04 Mimos Berhad A system and method for detecting aggressive behaviour
WO2020139071A1 (en) * 2018-12-26 2020-07-02 Mimos Berhad System and method for detecting aggressive behaviour activity
KR102210250B1 (ko) * 2020-10-13 2021-02-01 주식회사 웨이센 Ai 예측 모델을 이용한 예측 결과의 시각화 방법
KR102286229B1 (ko) * 2020-02-19 2021-08-06 한국기술교육대학교 산학협력단 특징벡터 기반 싸움 이벤트 인식 방법
KR20220058002A (ko) * 2020-10-30 2022-05-09 에이치엔티 일렉트로닉스(주) 차량 카메라를 이용한 감시 방법 및 그 시스템
KR20230004421A (ko) 2020-10-29 2023-01-06 주식회사 아디아랩 인공지능 기반의 이상행동 감지 시스템

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012141686A (ja) * 2010-12-28 2012-07-26 Secom Co Ltd 異常検知装置

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012141686A (ja) * 2010-12-28 2012-07-26 Secom Co Ltd 異常検知装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
논문1:SCHOOL OF ELECTRICAL ENGINEERING & COMPUTER SCIENCE *

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180072561A (ko) * 2016-12-21 2018-06-29 엑시스 에이비 비디오 감시 시스템에서 경보들을 발생시키는 방법
KR102553883B1 (ko) * 2016-12-21 2023-07-11 엑시스 에이비 비디오 감시 시스템에서 경보들을 발생시키는 방법
KR102101623B1 (ko) * 2018-11-16 2020-04-17 주식회사 에스원 영상 정보를 이용하여 이상 상황을 감지하는 방법 및 장치
WO2020111932A1 (en) * 2018-11-29 2020-06-04 Mimos Berhad A system and method for detecting aggressive behaviour
WO2020139071A1 (en) * 2018-12-26 2020-07-02 Mimos Berhad System and method for detecting aggressive behaviour activity
KR102286229B1 (ko) * 2020-02-19 2021-08-06 한국기술교육대학교 산학협력단 특징벡터 기반 싸움 이벤트 인식 방법
KR102210250B1 (ko) * 2020-10-13 2021-02-01 주식회사 웨이센 Ai 예측 모델을 이용한 예측 결과의 시각화 방법
KR20230004421A (ko) 2020-10-29 2023-01-06 주식회사 아디아랩 인공지능 기반의 이상행동 감지 시스템
KR20220058002A (ko) * 2020-10-30 2022-05-09 에이치엔티 일렉트로닉스(주) 차량 카메라를 이용한 감시 방법 및 그 시스템
KR102469583B1 (ko) * 2020-10-30 2022-11-22 주식회사 미래오토스 차량 카메라를 이용한 감시 방법 및 그 시스템

Similar Documents

Publication Publication Date Title
KR101484263B1 (ko) 폭력 감지 시스템 및 폭력 감지 방법
Chen et al. Motion-based unusual event detection in human crowds
Chauhan et al. Moving object tracking using gaussian mixture model and optical flow
Ihaddadene et al. Real-time crowd motion analysis
Andrade et al. Hidden markov models for optical flow analysis in crowds
Lee et al. Occlusion handling in videos object tracking: A survey
Alamgir et al. Combining multi-channel color space with local binary co-occurrence feature descriptors for accurate smoke detection from surveillance videos
Swathi et al. Crowd behavior analysis: A survey
Maddalena et al. People counting by learning their appearance in a multi-view camera environment
KR102217253B1 (ko) 행동패턴 분석 장치 및 방법
GB2431718A (en) Estimation of the number of individuals in an image
Chen et al. Dynamic human crowd modeling and its application to anomalous events detcetion
Sahoo et al. Fusion of histogram based features for Human Action Recognition
Aitfares et al. Suspicious behavior detection of people by monitoring camera
Verma et al. Analysis of moving object detection and tracking in video surveillance system
Hamdi et al. Hybrid deep learning and HOF for Anomaly Detection
Lu et al. Detecting unattended packages through human activity recognition and object association
Chebi et al. Dynamic detection of anomalies in crowd's behavior analysis
Li et al. An efficient anomaly detection approach in surveillance video based on oriented GMM
KR20160035631A (ko) 히스토그램 기반의 움직임 검출 방법 및 그 장치
KR20150081797A (ko) 객체 추적 장치 및 방법
Kausalya et al. Idle object detection in video for banking ATM applications
Teoh et al. Computer vision and machine learning approaches on crowd density estimation: A review
Akella et al. Crowd density analysis and suspicious activity detection
Vaishnavi et al. Implementation of Abnormal Event Detection using Automated Surveillance System

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20190103

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20191230

Year of fee payment: 6