KR101081861B1 - 움직이는 객체의 영상정보에 기반한 폭행상황 검출방법 - Google Patents

움직이는 객체의 영상정보에 기반한 폭행상황 검출방법 Download PDF

Info

Publication number
KR101081861B1
KR101081861B1 KR1020090058578A KR20090058578A KR101081861B1 KR 101081861 B1 KR101081861 B1 KR 101081861B1 KR 1020090058578 A KR1020090058578 A KR 1020090058578A KR 20090058578 A KR20090058578 A KR 20090058578A KR 101081861 B1 KR101081861 B1 KR 101081861B1
Authority
KR
South Korea
Prior art keywords
head
frame image
vector
assault
current frame
Prior art date
Application number
KR1020090058578A
Other languages
English (en)
Other versions
KR20110001172A (ko
Inventor
최경호
박순영
김성진
김영환
고득구
이훈
이형각
Original Assignee
주식회사세오
목포대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사세오, 목포대학교산학협력단 filed Critical 주식회사세오
Priority to KR1020090058578A priority Critical patent/KR101081861B1/ko
Publication of KR20110001172A publication Critical patent/KR20110001172A/ko
Application granted granted Critical
Publication of KR101081861B1 publication Critical patent/KR101081861B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/53Recognition of crowd images, e.g. recognition of crowd congestion
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • G10L2015/027Syllables being the recognition units

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • Acoustics & Sound (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

본 발명은 폭행상황 검출방법에 관한 것으로, 보다 구체적으로는 입력되는 프레임 영상 내의 움직이는 객체 중 사람객체를 검출하고, 검출된 사람객체들 각각의 움직임벡터, 상기 사람객체들 간의 위치벡터 및 상기 프레임 영상의 음성정보를 분석하여 폭행상황 여부를 판단하여, 폭행상황 발생시에 영상메시지나 음성메시지를 외부로 출력함으로써, 감시자에게 폭행상황 발생을 알려 줄 수 있는 움직이는 객체의 영상정보에 기반한 폭행상황 검출방법에 관한 것이다.
폭행, 프레임 영상, 머리이동벡터, 머리위치벡터, 객체추적

Description

움직이는 객체의 영상정보에 기반한 폭행상황 검출방법{Violence detection method by analyzing the motion image of moving peoples}
본 발명은 폭행상황 검출방법에 관한 것으로, 보다 구체적으로는 입력되는 프레임 영상 내의 움직이는 객체 중 사람객체를 검출하고, 검출된 사람객체들 각각의 움직임벡터, 상기 사람객체들 간의 위치벡터 및 상기 프레임 영상의 음성정보를 분석하여 폭행상황 여부를 판단하여, 폭행상황 발생시에 영상메시지나 음성메시지를 외부로 출력함으로써, 감시자에게 폭행상황 발생을 알려 줄 수 있는 움직이는 객체의 영상정보에 기반한 폭행상황 검출방법에 관한 것이다.
CCTV(CCTV: closed-circuit television, 폐쇄 회로 텔레비전, 이하 'CCTV'라 함) 감시 시스템은 최근 범죄수사분야나 보안분야, 교통사고처리분야 등에서 영상정보를 통해 감시구역의 이상 유무를 판단하는 영상정보기술의 하나로써, 초기에는 공공장소나 위험장소에 설치되어 범죄를 예방하는 목적으로 주로 사용되어 왔으나, 최근에는 보안관리가 필요한 회사나 도로 등 다양한 장소에 설치되어 사용되고 있 다.
종래의 CCTV 감시 시스템은 대부분 감시자의 모니터링을 통해 관리가 이루어지므로, 감시 소홀이 빈번하게 발생하게 되고, 감시할 CCTV 화면 수의 증가로 인한 실시간 대처 능력이 현저하게 떨어지는 문제점이 있다.
이러한 경우 녹화된 CCTV 영상을 분석하여 문제점을 해결할 수 있으나, 녹화된 CCTV 영상을 분석하는 방법은 위급상황에 실시간으로 대처할 수 없는 문제점이 있고, 또한, 영상의 해상도나 데이터 저장상태에 따라서 올바르지 않은 결과가 도출되기도 하는 문제점이 있다.
본 발명자들은 감시자의 모니터링에 의존하지 않고, CCTV영상을 영상 처리에 의해 실시간으로 폭행상황을 판단하여, 상기 감시자에게 폭행상황을 인지시켜 줄 수 있는 방법을 연구 노력한 결과, CCTV영상 내의 사람 객체의 움직임이나 사람 객체들 간의 관계 및 CCTV영상의 음성정보를 이용하여 폭행상황을 실시간으로 검출하고 감시자로 하여금 폭행상황을 인식할 수 있게 하는 기술적 구성을 개발하게 되어 본 발명을 완성하게 되었다.
따라서, 본 발명의 목적은 CCTV 영상과 같은 영상의 사람객체 각각의 움직임, 사람객체 간의 움직임을 검출하여 폭행상황을 실시간으로 자동으로 판단할 수 있는 폭행상황 검출방법을 제공하는 것이다.
또한, 본 발명의 다른 목적은 폭행상황 발생시에 영상메시지 또는 음성메시지를 감시자에게 제공하여 감시자로 하여금 즉시 감시구역 내의 폭행상황 발생여부를 인지시켜 줄 수 있는 폭행상황 검출방법을 제공하는 것이다.
본 발명의 목적들은 이상에서 언급한 목적들로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
상기의 목적을 달성하기 위하여 본 발명은 현재 프레임 영상을 입력받아 움직임이 없는 배경은 삭제하고, 움직이는 객체들 중 사람객체들을 검출하는 제1단계, 상기 각 사람객체들의 머리 영역을 포함하는 머리추적박스들을 생성하는 제2단계, 상기 머리추적박스들의 중심좌표가 서로 일정한 거리 내에 위치할 경우, 상기 현재 프레임 영상을 폭행 후보 영상으로 선정하는 제3단계, 이전 프레임 영상들에서 상기 현재 프레임 영상까지 상기 머리추적박스들 각각의 움직임벡터인 제1머리이동벡터들을 구하는 제4단계, 상기 현재 프레임 영상에서 다음 프레임 영상으로 상기 머리추적박스들 각각의 움직임벡터인 제2머리이동벡터들을 구하는 제5단계 및 상기 제1머리이동벡터와 상기 제2머리이동벡터를 비교하여 상기 머리이동벡터들 간의 각도차인 제1각도차를 계산하고, 상기 제1각도 차와 상기 제2머리이동벡터의 가속도정보를 이용하여 제1변화벡터를 도출한 후, 상기 제1변화벡터의 값이 일정한 범위 내의 값으로 변화할 경우 폭행상황으로 판단하는 제6단계를 포함하는 폭행상황 검출방법을 제공한다.
바람직한 실시예에 있어서, 상기 제3단계 이후, 상기 제6단계 이전에, 상기 현재 프레임 영상 내의 머리추적박스들 간의 위치벡터인 제1머리위치벡터를 구하는 제3-1단계 및 상기 다음 프레임 영상에서 상기 머리추적박스들 간의 위치벡터인 제2머리위치벡터를 구하는 제3-2단계를 더 포함하고, 상기 제6단계는 상기 제1머리위치벡터와 상기 제2머리위치벡터를 비교하여 상기 머리위치벡터들 간의 각도차인 제2각도차를 계산하고, 상기 제2각도차와 상기 제2머리위치벡터의 가속도정보를 이용하여 제2변화벡터를 도출한 후, 상기 제2변화벡터의 값이 일정한 범위 내의 값으로 더 변화할 경우 상기 폭행상황으로 판단한다.
바람직한 실시예에 있어서, 상기 제6단계는 상기 현재 프레임 영상 또는 상기 다음 프레임 영상의 음성정보가 폭행음성인지 아닌지 판단하여, 상기 음성정보가 폭행음성으로 더 판단될 경우 상기 폭행상황으로 판단한다.
바람직한 실시예에 있어서, 상기 제1단계는 가우시안 믹스쳐 모델(Gaussian Mixture Model)을 이용하여 상기 현재 프레임 영상의 배경을 제거하고 상기 움직이는 객체를 검출하는 제1-1단계, 미디언 필터링(Median Filtering) 및 마스크 연산(Masking)을 이용하여 상기 움직이는 객체의 영상잡음을 제거하는 제1-2단계 및 상기 움직이는 객체를 포함하는 사람객체박스를 생성하고, 상기 사람객체박스의 히스토그램을 구하여 사람객체표본의 히스토그램과 비교함으로써, 상기 움직이는 객체가 사람객체인지 판단하는 제1-3단계를 포함한다.
바람직한 실시예에 있어서, 상기 제1-3단계는 상기 사람객체박스의 가로 및 세로의 비율을 이용하여 상기 움직이는 객체가 상기 사람객체인지 더 판단한다.
바람직한 실시예에 있어서, 상기 제2단계는 상기 사람객체박스를 Y축으로 삼등분하여 세 개의 박스로 분할하여, 상기 세 개의 박스들 중 최상위 박스의 Y축 히스토그램을 구하여 그 값의 도함수의 최고점을 사람의 목 좌표로 설정하고, 상기 목 좌표로부터 상기 사람객체의 최상위 좌표까지를 상기 머리영역으로 판단하여 상기 머리추적박스들을 생성한다.
바람직한 실시예에 있어서, 상기 제3단계는 상기 각 머리추적박스들을 포함하는 후보영상검출영역을 설정하고, 상기 각 후보영상검출영역이 서로 교차할 경 우, 상기 현재 프레임 영상을 폭행 후보 영상으로 선정한다.
바람직한 실시예에 있어서, 상기 제1 및 제2머리이동벡터들과 상기 제1 및 제2머리위치벡터들은 상기 각 머리추적박스의 중심좌표의 움직임벡터로 계산된다.
바람직한 실시예에 있어서, 상기 폭행상황으로 판단될 경우, 영상메시지 또는 음성메시지를 출력하여 상기 폭행상황을 알리는 제7단계를 더 포함한다.
바람직한 실시예에 있어서, 상기 제1변화벡터는 아래의 수학식 1에 의해 도출된다.
Figure 112009039608087-pat00001
여기서, V1은 상기 제1변화벡터, θ1은 상기 제1각도차, α1은 상기 제2머리이동벡터의 가속도정보이다.
바람직한 실시예에 있어서, 상기 제1변화벡터의 값이 40 내지 100 사이의 일정한 값일 경우 상기 폭행상황으로 판단한다.
바람직한 실시예에 있어서, 상기 제2변화벡터는 아래의 수학식 2에 의해 도출된다.
Figure 112009039608087-pat00002
여기서, V2은 상기 제2변화벡터, θ2은 상기 제2각도차, α2은 상기 제2머리 위치벡터의 가속도정보이다.
바람직한 실시예에 있어서, 상기 프레임 영상들은 시시티브이(CCTV:closed-circuit television, 폐쇄 회로 텔레비전)로부터 입력된다.
본 발명은 다음과 같은 우수한 효과를 가진다.
먼저, 본 발명의 폭행상황 검출방법에 의하면, CCTV로부터 입력되는 프레임영상 내의 각각의 사람객체의 움직임에 대한 변화벡터, 프레임 영상 내의 사람객체들 간의 위치에 대한 변화벡터, 및 프레임 영상의 음성정보를 복합적으로 판단하여 폭행상황을 실시간으로 정확하게 판단할 수 있는 효과가 있다.
또한, 본 발명의 폭행상황 검출방법에 의하면, 폭행상황 발생시에 영상메시지 또는 음성메시지를 감시자에게 즉시 전달하여 감시자로 하여금 빠르게 감시구역 내의 폭행상황에 대해 대처할 수 있게 하는 효과가 있다.
본 발명에서 사용되는 용어는 가능한 현재 널리 사용되는 일반적인 용어를 선택하였으나, 특정한 경우는 출원인이 임의로 선정한 용어도 있는데 이 경우에는 단순한 용어의 명칭이 아닌 발명의 상세한 설명 부분에 기재되거나 사용된 의미를 고려하여 그 의미가 파악되어야 할 것이다.
이하, 첨부한 도면 및 바람직한 실시예들을 참조하여 본 발명의 기술적 구성 을 상세하게 설명한다.
그러나, 본 발명은 여기서 설명되는 실시예에 한정되지 않고 다른 형태로 구체화 될 수도 있다. 명세서 전체에 걸쳐 동일한 참조번호는 동일한 구성요소를 나타낸다.
도 1은 본 발명의 일 실시예에 따른 폭행상황 검출방법을 수행하기 위한 폭행상황 검출시스템을 보여주는 도면, 도 2는 본 발명의 일 실시예에 따른 폭행상황 검출방법의 머리추적박스를 설명하기 위한 도면, 도 3은 본 발명의 일 실시예에 따른 폭행상황 검출방법의 프레임 영상들을 보여주는 도면, 도 4는 본 발명의 일 실시예에 따른 폭행상황 검출방법의 폭행 후보 영상 선정방법을 설명하기 위한 도면, 도 5는 본 발명의 일 실시예에 따른 폭행상황 검출방법의 머리이동벡터를 설명하기 위한 도면, 도 6은 본 발명의 일 실시예에 따른 폭행상황 검출방법의 머리위치벡터를 설명하기 위한 도면, 도 7은 본 발명의 일 실시예에 따른 폭행상황 검출방법의 흐름도이다.
도 1을 참조하면, 본 발명의 일 실시예에 따른 폭행상황 검출방법은 폭행상황 검출시스템(100)을 이용하여 수행되며, 상기 폭행상황 검출시스템(100)은 배경삭제모듈(110), 객체추적모듈(120), 음성분석모듈(130), 폭행상황 판단모듈(140), 폭행상황 알람모듈(150), 디스플레이 수단(160) 및 스피커 수단(170)을 포함하여 이루어진다.
또한, 상기 폭행상황 검출시스템(100)의 각 모듈들은 프로그래밍되어 컴퓨터의 저장매체에 저장되어 기능을 수행한다.
또한, 상기 폭행상황 검출시스템(100)의 각 구성요소의 기능들은 도 7을 참조하여 설명하기로 한다.
도 7을 참조하면, 본 발명의 일 실시예에 따른 폭행상황 검출방법은 먼저, 상기 배경삭제모듈(110)이 CCTV(10)로부터 실시간으로 영상들을 입력받아, 현재 입력된 영상인 현재 프레임 영상(11) 중 움직임이 없는 배경은 삭제하고, 움직이는 객체들 중 사람객체들(11a,11b)을 검출한다(S1000).
도 2를 참조하여 더욱 자세하게 설명하면, 먼저 상기 배경삭제모듈(110)은 가우시안 믹스쳐 모델(GMM:Gaussian Mixture Model)을 이용하여 상기 현재 프레임 영상(11) 중 움직임이 없는 배경은 삭제하고 상기 움직이는 객체들을 검출한다. 다음, 미디언 필터링(Median filtering) 및 마스크 연산(Masking)을 통해 상기 움직이는 객체들의 영상잡음을 제거하며, 상기 각각의 움직이는 객체들을 포함하는 사람객체박스들(11a',11b')을 생성하여 상기 사람객체박스들(11a',11b')의 영상을 분석하고, 상기 움직이는 객체들이 각각 사람객체(11a,11b)인지 판단한다.
또한, 상기 사람객체(11a,11b)의 판단방법은 먼저, 상기 각 사람객체박스(11a',11b')의 영상 히스토그램(Image histogram)을 계산하고, 다음, 계산된 각 사람객체박스(11a',11b')의 영상 히스토그램과 일반적인 사람의 표본인 사람객체표본이 갖는 영상 히스토그램의 유사성을 비교하여 상기 각 사람객체박스(11a',11b') 내의 움직이는 객체가 사람객체(11a,11b)인지 판단한다.
또한, 상기 영상 히스토그램을 이용하여 사람객체(11a,11b)로 판단된 각 사람객체박스(11a',11b')의 가로(x) 및 세로(y)의 비율을 계산하여 일반적인 사람객체표본이 갖는 가로(x) 및 세로(y)의 비율과 비교하여 유사성을 판단한 후 상기 움직이는 객체가 진정한 사람객체(11a,11b)인지 판단한다.
즉, 상기 현재 프레임 영상(11)에서 상기 사람객체를 검출하는 단계(S1000)는 상기 각 사람객체박스(11a',11b') 영상 히스토그램 및 가로 및 세로비율을 복합적으로 이용하여 움직이는 객체 중 사람객체(11a,11b)만을 정확하게 판단해낼 수 있다.
다음, 상기 객체추적모듈(120)은 상기 각 사람객체박스(11a',11b') 중에서 상기 각 사람객체(11a,11b)의 머리영역을 포함하는 머리추적박스(121a,121b)를 생성한다(S2000).
또한, 상기 머리추적박스들(121a,121b)은 상기 각 사람객체박스(11a',11b')를 y축으로 삼등분하여 세 개의 박스로 분할한 후, 상기 세 개의 박스들 중 최상위 박스의 y축 히스토그램을 구하여 그 값의 도함수의 최고점, 즉, y축 상에서 객체의 폭이 가장 좁은 좌표를 상기 각 사람객체(11a,11b)의 목 좌표로 설정하고, 상기 목 좌표로부터 상기 각 사람객체(11a,11b)의 최상위 좌표까지의 영역으로 생성된다.
여기서 상기 사람객체박스들(11a',11b') 중 상기 머리추적박스들(121a,121b)을 생성하여 추적하는 이유는 사람의 머리영역은 각 프레임 영상들(11-2,11-1,11,11+1)에서 변화가 가장 작게 일어나는 부분이므로, 추적이 쉽고 추적의 정확도도 높기 때문이다.
또한, 상기 머리추적박스들(121a,121b)은 각각 RGB데이터와 중심좌표(H1,H2)로 캐쉬메모리(도시하지 않음)에 저장된다.
다음, 상기 객체추적모듈(120)은 상기 머리추적박스들(121a,121b)이 서로 일정한 거리에 위치하는지 판단하여 상기 머리추적박스들(121a,121b)이 일정한 거리 내에 위치할 경우 상기 현재 프레임 영상(11)을 폭행 후보 영상으로 선정한다(S3000).
도 3 및 도 4를 참조하면, 상기 객체추적모듈(120)은 상기 현재 프레임 영상(11) 내의 각 머리추적박스들(121a,121b)을 포함한 일정한 영역을 갖는 후보영상 검출영역들(122a,122b)을 설정하고, 상기 현재 프레임 영상(11) 내의 후보영상 검출영역들(122a,122b)이 서로 교차하면, 상기 현재 프레임 영상(11)을 상기 폭행 후보 영상으로 선정한다.
다시 말해서, 상기 각 머리추적박스들(121a,121b)의 중심좌표들(H1,H2)이 서로 일정한 거리에 위치하면 상기 현재 프레임 영상(11)을 상기 폭행 후보 영상으로 선정하게 되는 것이다.
또한, 상기 후보영상 검출영역들(122a,122b)의 영역범위는 감시자의 요구에 따라 조절이 가능하며, 영역범위를 크게 할 경우 검출의 감도가 높으나 폭행상황 검출에 계산량이 많아지고, 영역범위를 작게 할 경우 검출의 감도는 낮으나 계산량이 적어지게 되므로 선택적으로 조절할 수 있다.
또한, 상기 후보영상 검출영역들(122a,122b)은 사각형의 영역으로 도시하였 으나 원형의 영역으로 선정될 수도 있다.
다음, 상기 객체추적모듈(120)은 상기 머리추적박스들(121a,121b) 각각의 RGB데이터와 중심좌표(H1,H2)를 이용하여 상기 현재 프레임 영상(11)의 이전 프레임 영상들(11-1)(11-2) 각각의 중심좌표들(H1-1,H2-1)(H1-2,H2-2)을 구한다.
이때, 상기 각 프레임 영상(11)(11-1)(11-2) 간의 머리추적박스들의 동일성은 상기 RGB데이터의 유사성과 상기 중심좌표들(H1,H2)(H1-1,H2-1)(H1-2,H2-2)의 거리를 이용하여 판단되며, 상기 RGB데이터가 서로 다르거나 상기 각 프레임 영상(11)(11-1)(11-2) 내의 동일한 중심좌표들(H1,H2)(H1-1,H2-1)(H1-2,H2-2)이 갑자기 멀어질 경우 동일성이 서로 낮은 것으로 판단하여 배경으로 처리된다.
다음, 상기 객체추적모듈(120)은 상기 이전 프레임 영상들(11-1,11-2)부터 상기 현재 프레임 영상(11)까지 상기 현재 프레임 영상(11)의 중심좌표(H1,H2)가 이동한 이동궤적을 이용하여 상기 각 중심좌표(H1,H2)의 움직임벡터인 제1머리이동벡터들(V1',V1")을 계산한다.
즉, 상기 제1머리이동벡터들(V1',V1")은 하나의 사람객체가 과거에서부터 현재까지 이동한 움직임벡터로써, 폭행상황이 발생하기 이전의 움직임정보를 제공한다.
또한, 상기 제1머리이동벡터들(V1',V1")은 각각 x-y평면에서 이동한 방향에 관한 정보인 각도정보와, 얼마나 빨리 이동했는지에 관한 정보인 가속도정보를 포함한다.
다음, 상기 객체추적모듈(120)은 상기 현재 프레임 영상(11)의 다음 프레임 영상(11+1) 내의 각 중심좌표들(H1+1,H2+1)을 추출하고, 상기 현재 프레임 영상(11)의 각 중심좌표(H1,H2)가 상기 다음 프레임 영상(11+1)에서 이동한 움직임벡터인 제2머리이동벡터들(V1'+1,V1"+1)를 도출한다(S4000a).
또한, 상기 각 제2머리이동벡터들(V1'+1,V1"+1) 역시 상기 제1머리이동벡터들(V1',V1")과 마찬가지로 각각 각도정보와 가속도정보를 포함한다.
다음, 상기 각 제2머리이동벡터들(V1'+1,V1"+1)과 상기 각 제1머리이동벡터들(V1',V1")의 각도차인 제1각도차(θ1',θ1") 및 상기 각 제2머리이동벡터들(V1'+1,V1"+1)의 가속도정보를 이용하여, 상기 현재 프레임 영상(11)의 각 중심좌표(H1,H2)와 상기 다음 프레임 영상(11+1)의 각 중심좌표(H1+1,H2+1) 간의 움직임벡터인 제1변화벡터들(V1)을 도출한다(S4000b).
또한, 상기 각 제1변화벡터들(V1)은 아래의 수학식 3에 의해 도출된다.
Figure 112009039608087-pat00003
여기서, V1은 상기 제1변화벡터, θ1은 상기 제1각도차, α1은 상기 각 제2머리이동벡터(V1'+1,V1"+1)의 가속도정보이다.
즉, 상기 제1변화벡터(V1)는 상기 다음 프레임 영상(11+1) 내의 각각의 중심좌표(H1+1,H2+1)에 대해 도출된다.
한편, 상기 다음 프레임 영상(11+1)의 그 다음 프레임 영상(11+2)의 각 제1변화벡터들(V1)은 상기 다음 프레임 영상(11+1)의 제1각도차(θ1',θ1")와 상기 그 다음 프레임 영상(11+2)의 제1각도차의 변화량 및 상기 다음 프레임 영상(11+1)의 가속도정보(α1)와 상기 그 다음 프레임 영상(11+2)의 가속도정보의 변화량에 의해 도출된다.
따라서, 상기 그 다음 프레임 영상(11+2)부터의 제1변화벡터들(V1)은 아래의 수학식 4에 의해 도출된다.
Figure 112009039608087-pat00004
여기서, 상기 △θ1은 상기 다음 프레임 영상(11+1)의 제1각도차(θ1',θ1") 및 상기 그 다음 프레임 영상(11+2)의 제1각도차의 변화량이고, 상기 △α1은 상기 다음 프레임 영상(11+1) 및 상기 그 다음 프레임 영상(11+1)의 제2머리이동벡터들의 가속도정보의 변화량이다.
다음, 상기 폭행상황 판단모듈(140)은 상기 제1변화벡터들(V1)을 분석하여 상기 다음 프레임 영상(11+1)이 폭행상황인지 아닌지 판단한다(S5000).
더욱 자세하게는 상기 폭행상황 판단모듈(140)은 상기 다음 프레임 영상(11+1) 내의 각각의 중심좌표(H1+1,H2+1)에 대한 제1변화벡터들(V1) 중 어느 하나의 제1변화벡터(V1)의 값이 40 내지 100 사이의 일정한 값일 경우, 상기 다음 프레임 영상(11+1)을 폭행상황으로 판단한다.
참고로, 상기 사람객체(11a,11b)가 이동할 경우 상기 제1변화벡터(V1)는 10 내지 30의 값을 갖는다.
즉, 상기 폭행상황 판단모듈(140)은 상기 제1변화벡터(V1)의 값이 갑자기 커질 경우 폭행상황으로 판단하는 것이다.
다음, 상기 폭행상황 알람모듈(150)은 상기 다음 프레임 영상(11+1)이 폭행상황으로 판단될 경우, 영상 메시지 및 음성 메시지를 생성하여 각각 디스플레이수단(160) 및 스피커 수단(170)으로 출력해준다.
예들 들면, 상기 영상 메시지는 상기 CCTV(10)로부터 입력되는 프레임 영상들에 붉은색 영상을 주기적으로 오버랩하는 방법을 사용할 수 있고, 상기 음성 메시지는 사이렌음성과 같은 경보 음성일 수 있다.
그러나 상기 폭행상황 알람모듈(150)은 SMS(Short Message Service:단문메시지서비스)나 MMS(Multimedia Messaging Service:멀티미디어메시지서비스)를 이용하 여 감시자의 휴대전화 등으로 폭행상황 발생을 알려 줄 수도 있다.
한편, 도 6을 참조하면, 상기 객체추적모듈(120)은 상기 현재 프레임 영상(11)이 폭행 후보 영상으로 선정되면, 상기 현재 프레임 영상(11) 내의 중심좌표(H1,H2)들 간의 위치벡터인 제1머리위치벡터(V2')를 더 도출한다.
또한, 상기 제1머리위치벡터(V2')의 도출은 상기 제1변화벡터(V1)의 도출 후에 도출될 수도 있으며, 상기 제1변화벡터(V1)의 도출과 동시에 이루어질 수 있다.
다음, 상기 객체추적모듈(120)은 다음 프레임 영상(11+1) 내의 중심좌표들(H1+1,H2+1) 간의 위치벡터인 제2머리위치벡터(V2")를 도출한다(S4000c).
다음, 상기 객체추적모듈(120)은 상기 제1머리위치벡터(V2')와 상기 제2머리위치벡터(V2")의 변화벡터인 제2변화벡터(V2)를 도출한다.
더욱 자세하게는 상기 제2변화벡터(V2)는 상기 제1머리위치벡터(V2')와 상기 제2머리위치벡터(V2")를 비교하여 상기 머리위치벡터들(V2',V2") 간의 각도차인 제2각도차(θ2)를 계산하고, 상기 제2각도차(θ2)와 상기 제2머리위치벡터의 가속도정보를 이용하여(α2) 상기 제2변화벡터(V2)를 도출한다(S4000d).
또한, 상기 제2변화벡터(V2)는 아래의 수학식 4에 의해 도출된다.
Figure 112009039608087-pat00005
여기서, V2은 상기 제2변화벡터, θ2은 상기 제2각도차, α2은 상기 제2머리위치벡터(V2")의 가속도정보이다.
한편, 상기 그 다음 프레임 영상(11+2)의 제2변화벡터(V2)는 상기 다음 프레임 영상(11+1)의 제2각도차(θ2)와 상기 그 다음 프레임 영상(11+2)의 제2각도차(θ2)의 변화량 및 상기 다음 프레임 영상(11+1)의 제2머리위치벡터(V2")의 가속도정보(α1)와 상기 그 다음 프레임 영상(11+2)의 제2머리위치벡터(V2"')의 가속도정보의 변화량에 의해 도출된다.
따라서, 상기 그 다음 프레임 영상(11+2)부터의 제2변화벡터들(V2)은 아래의 수학식 6에 의해 도출된다.
Figure 112009039608087-pat00006
여기서, 여기서, 상기 △θ2은 상기 다음 프레임 영상(11+1)과 상기 그 다음 프레임 영상(11+2)의 제2각도차 간의 변화량이고, 상기 △α2은 상기 다음 프레임 영상(11+1)과 상기 그 다음 프레임 영상(11+2)의 제2변화벡터들(V2) 간의 가속도정 보(α2)의 변화량이다.
즉, 상기 제1변화벡터(V1)는 하나의 중심좌표가 여러 프레임 영상에서 이동한 움직임정보에 의해 도출되고, 상기 제2변화벡터(V2)는 하나의 프레임 영상의 여러 중심좌표들 간의 거리 정보에 의해 도출되는 것이다.
또한, 상기 폭행상황 판단모듈(140)은 상기 제2변화벡터(V2)의 값이 일정한 값으로 계산될 경우 상기 다음 프레임 영상(11+1)을 폭행상황이 발생한 것으로 판단한다.
즉, 상기 폭행상황 판단모듈(140)은 상기 제1변화벡터(V1)와 제2변화벡터(V2)가 모두 폭행상황으로 판단될 경우 상기 다음 프레임 영상(11+1)을 폭행상황으로 판단하는 것이다.
그러나, 상기 폭행상황 판단모듈(140)은 상기 제1변화벡터(V1)와 제2변화벡터(V2) 중 어느 하나의 벡터만이 폭행상황으로 판단되더라도 상기 다음 프레임 영상(11+1)을 폭행상황으로 판단할 수 있다.
또 한편, 상기 음성분석모듈(130)은 상기 CCTV(10)로부터 상기 현재 프레임 영상(11) 또는 상기 다음 프레임 영상(11+1)의 음성정보를 입력받고, 상기 음성정보가 폭행음성인지 아닌지 판단한다(S4000e).
또한, 상기 폭행음성의 판단은 상기 제1변화벡터(V1)와 제2변화벡터(V2)의 도출과정 이후에 이루어질 수도 있고, 상기 제1변화벡터(V1)와 제2변화벡터(V2)의 도출과정과 동시에 이루어질 수 있다.
예를 들면, 상기 음성분석모듈(130)은 상기 음성정보가 일정한 범위 내의 데시벨(dB) 값일 경우 상기 음성정보를 폭행음성으로 판단할 수 있고, 상기 음성정보의 음절정보가 "살려줘" 등의 폭행상황에서 발생하는 음절일 경우, 상기 음성정보를 폭생상황으로 판단할 수 있다.
즉, 상기 폭행상황 판단모듈(140)은 상기 제1변화벡터(V1), 상기 제2변화벡터(V2) 및 상기 음성정보가 모두 폭행상황으로 판단될 경우 상기 다음 프레임 영상(11+1)을 폭행상황으로 판단하는 것이다.
그러나 상기 폭행상황 판단모듈(140)은 상기 제1변화벡터(V1), 상기 제2변화벡터(V2) 및 상기 음성정보 중 어느 하나가 폭행상황으로 판단될 경우, 상기 다음 프레임 영상(11+1)을 폭행상황으로 판단할 수도 있다.
따라서, 상기 CCTV의 영상정보 및 음성정보를 복합적으로 이용하여 폭행상황을 정확하게 검출할 수 있는 효과가 있다.
이상에서 살펴본 바와 같이 본 발명은 바람직한 실시예를 들어 도시하고 설명하였으나, 상기한 실시예에 한정되지 아니하며 본 발명의 정신을 벗어나지 않는 범위 내에서 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양 한 변경과 수정이 가능할 것이다.
도 1은 본 발명의 일 실시예에 따른 폭행상황 검출방법을 수행하기 위한 폭행상황 검출시스템을 보여주는 도면,
도 2는 본 발명의 일 실시예에 따른 폭행상황 검출방법의 머리추적박스를 설명하기 위한 도면,
도 3은 본 발명의 일 실시예에 따른 폭행상황 검출방법의 프레임 영상들을 보여주는 도면,
도 4는 본 발명의 일 실시예에 따른 폭행상황 검출방법의 폭행 후보 영상 선정방법을 설명하기 위한 도면,
도 5는 본 발명의 일 실시예에 따른 폭행상황 검출방법의 머리이동벡터를 설명하기 위한 도면,
도 6은 본 발명의 일 실시예에 따른 폭행상황 검출방법의 머리위치벡터를 설명하기 위한 도면,
도 7은 본 발명의 일 실시예에 따른 폭행상황 검출방법의 흐름도이다.
본 발명에 따른 도면들에서 실질적으로 동일한 구성과 기능을 가진 구성요소들에 대하여는 동일한 참조부호를 사용한다.
<도면의 주요부분에 대한 부호의 설명>
100:폭행상황 검출 시스템 110:배경삭제모듈
120:객체추적모듈 130:음성분석모듈
140:폭행상황 판단모듈 150:폭행상황 알람모듈
160:디스플레이 수단 170:스피커 수단
11-2,11-1,11,11+1,11+2:프레임 영상 11a,11b:사람객체
11a',11b':사람객체박스 121a,121b:머리추적박스

Claims (13)

  1. 현재 프레임 영상을 입력받아 움직임이 없는 배경은 삭제하고, 움직이는 객체들 중 사람객체들을 검출하는 제1단계;
    상기 각 사람객체들의 머리 영역을 포함하는 머리추적박스들을 생성하는 제2단계;
    상기 머리추적박스들의 중심좌표가 서로 일정한 거리 내에 위치할 경우, 상기 현재 프레임 영상을 폭행 후보 영상으로 선정하는 제3단계;
    이전 프레임 영상들에서 상기 현재 프레임 영상까지 상기 머리추적박스들 각각의 움직임벡터인 제1머리이동벡터들을 구하는 제4단계;
    상기 현재 프레임 영상에서 다음 프레임 영상으로 상기 머리추적박스들 각각의 움직임벡터인 제2머리이동벡터들을 구하는 제5단계; 및
    상기 제1머리이동벡터와 상기 제2머리이동벡터를 비교하여 상기 머리이동벡터들 간의 각도차인 제1각도차를 계산하고, 상기 제1각도 차와 상기 제2머리이동벡터의 가속도정보를 이용하여 제1변화벡터를 도출한 후, 상기 제1변화벡터의 값이 일정한 범위 내의 값으로 변화할 경우 폭행상황으로 판단하는 제6단계;를 포함하고,
    상기 제1단계는,
    상기 움직이는 객체를 포함하는 사람객체박스를 생성하고, 상기 사람객체박스의 히스토그램을 구하여 사람객체표본의 히스토그램과 비교함으로써, 상기 움직이는 객체가 사람객체인지 판단하는 것을 특징으로 하는 폭행상황 검출방법.
  2. 제 1 항에 있어서,
    상기 제3단계 이후, 상기 제6단계 이전에,
    상기 현재 프레임 영상 내의 머리추적박스들 간의 위치벡터인 제1머리위치벡터를 구하는 제3-1단계; 및
    상기 다음 프레임 영상에서 상기 머리추적박스들 간의 위치벡터인 제2머리위치벡터를 구하는 제3-2단계;를 더 포함하고,
    상기 제6단계는 상기 제1머리위치벡터와 상기 제2머리위치벡터를 비교하여 상기 머리위치벡터들 간의 각도차인 제2각도차를 계산하고, 상기 제2각도차와 상기 제2머리위치벡터의 가속도정보를 이용하여 제2변화벡터를 도출한 후, 상기 제2변화벡터의 값이 일정한 범위 내의 값으로 변화할 경우 상기 폭행상황으로 판단하는 것을 특징으로 하는 폭행상황 검출방법.
  3. 삭제
  4. 제 1 항 또는 제 2 항에 있어서,
    상기 제1단계:는
    가우시안 믹스쳐 모델(Gaussian Mixture Model)을 이용하여 상기 현재 프레임 영상의 배경을 제거하고 상기 움직이는 객체를 검출하는 제1-1단계; 및
    미디언 필터링(Median Filtering) 및 마스크 연산(Masking)을 이용하여 상기 움직이는 객체의 영상잡음을 제거하는 제1-2단계;를 포함하는 것을 특징으로 하는 폭행상황 검출방법.
  5. 현재 프레임 영상을 입력받아 움직임이 없는 배경은 삭제하고, 움직이는 객체들 중 사람객체들을 검출하는 제1단계;
    상기 각 사람객체들의 머리 영역을 포함하는 머리추적박스들을 생성하는 제2단계;
    상기 머리추적박스들의 중심좌표가 서로 일정한 거리 내에 위치할 경우, 상기 현재 프레임 영상을 폭행 후보 영상으로 선정하는 제3단계;
    이전 프레임 영상들에서 상기 현재 프레임 영상까지 상기 머리추적박스들 각각의 움직임벡터인 제1머리이동벡터들을 구하는 제4단계;
    상기 현재 프레임 영상에서 다음 프레임 영상으로 상기 머리추적박스들 각각의 움직임벡터인 제2머리이동벡터들을 구하는 제5단계; 및
    상기 제1머리이동벡터와 상기 제2머리이동벡터를 비교하여 상기 머리이동벡터들 간의 각도차인 제1각도차를 계산하고, 상기 제1각도 차와 상기 제2머리이동벡터의 가속도정보를 이용하여 제1변화벡터를 도출한 후, 상기 제1변화벡터의 값이 일정한 범위 내의 값으로 변화할 경우 폭행상황으로 판단하는 제6단계;를 포함하고,
    상기 제1단계는,
    상기 움직이는 객체를 포함하는 사람객체박스를 생성하고, 상기 사람객체박스의 가로 및 세로의 비율을 이용하여 상기 움직이는 객체가 상기 사람객체인지 판단하는 것을 특징으로 하는 폭행상황 검출방법.
  6. 현재 프레임 영상을 입력받아 움직임이 없는 배경은 삭제하고, 움직이는 객체들 중 사람객체들을 검출하는 제1단계;
    상기 각 사람객체들의 머리 영역을 포함하는 머리추적박스들을 생성하는 제2단계;
    상기 머리추적박스들의 중심좌표가 서로 일정한 거리 내에 위치할 경우, 상기 현재 프레임 영상을 폭행 후보 영상으로 선정하는 제3단계;
    이전 프레임 영상들에서 상기 현재 프레임 영상까지 상기 머리추적박스들 각각의 움직임벡터인 제1머리이동벡터들을 구하는 제4단계;
    상기 현재 프레임 영상에서 다음 프레임 영상으로 상기 머리추적박스들 각각의 움직임벡터인 제2머리이동벡터들을 구하는 제5단계; 및
    상기 제1머리이동벡터와 상기 제2머리이동벡터를 비교하여 상기 머리이동벡터들 간의 각도차인 제1각도차를 계산하고, 상기 제1각도 차와 상기 제2머리이동벡터의 가속도정보를 이용하여 제1변화벡터를 도출한 후, 상기 제1변화벡터의 값이 일정한 범위 내의 값으로 변화할 경우 폭행상황으로 판단하는 제6단계;를 포함하고,
    상기 제2단계는 상기 각 사람객체를 Y축으로 삼등분하여 세 개의 박스로 분할하고, 상기 세 개의 박스들 중 최상위 박스의 Y축 히스토그램을 구하여 그 값의 도함수의 최고점을 사람의 목 좌표로 설정하고, 상기 목 좌표로부터 상기 사람객체의 최상위 좌표까지를 상기 머리영역으로 판단하여 상기 머리추적박스들을 생성하는 것을 특징으로 하는 폭행상황 검출방법.
  7. 제 1 항, 제 5 항 또는 제 6 항에 있어서,
    상기 제3단계는 상기 각 머리추적박스들을 포함하는 후보영상검출영역을 설정하고, 상기 각 후보영상검출영역이 서로 교차할 경우, 상기 현재 프레임 영상을 폭행 후보 영상으로 선정하는 것을 특징으로 하는 폭행상황 검출방법.
  8. 현재 프레임 영상을 입력받아 움직임이 없는 배경은 삭제하고, 움직이는 객체들 중 사람객체들을 검출하는 제1단계;
    상기 각 사람객체들의 머리 영역을 포함하는 머리추적박스들을 생성하는 제2단계;
    상기 머리추적박스들의 중심좌표가 서로 일정한 거리 내에 위치할 경우, 상기 현재 프레임 영상을 폭행 후보 영상으로 선정하는 제3단계;
    이전 프레임 영상들에서 상기 현재 프레임 영상까지 상기 머리추적박스들 각각의 움직임벡터인 제1머리이동벡터들을 구하는 제4단계;
    상기 현재 프레임 영상에서 다음 프레임 영상으로 상기 머리추적박스들 각각의 움직임벡터인 제2머리이동벡터들을 구하는 제5단계; 및
    상기 제1머리이동벡터와 상기 제2머리이동벡터를 비교하여 상기 머리이동벡터들 간의 각도차인 제1각도차를 계산하고, 상기 제1각도 차와 상기 제2머리이동벡터의 가속도정보를 이용하여 제1변화벡터를 도출한 후, 상기 제1변화벡터의 값이 일정한 범위 내의 값으로 변화할 경우 폭행상황으로 판단하는 제6단계;를 포함하고,
    상기 제1 및 제2머리이동벡터들과 상기 제1 및 제2머리위치벡터들은 상기 각 머리추적박스의 중심좌표의 움직임벡터로 계산되는 것을 특징으로 하는 폭행상황 검출방법.
  9. 현재 프레임 영상을 입력받아 움직임이 없는 배경은 삭제하고, 움직이는 객체들 중 사람객체들을 검출하는 제1단계;
    상기 각 사람객체들의 머리 영역을 포함하는 머리추적박스들을 생성하는 제2단계;
    상기 머리추적박스들의 중심좌표가 서로 일정한 거리 내에 위치할 경우, 상기 현재 프레임 영상을 폭행 후보 영상으로 선정하는 제3단계;
    이전 프레임 영상들에서 상기 현재 프레임 영상까지 상기 머리추적박스들 각각의 움직임벡터인 제1머리이동벡터들을 구하는 제4단계;
    상기 현재 프레임 영상에서 다음 프레임 영상으로 상기 머리추적박스들 각각의 움직임벡터인 제2머리이동벡터들을 구하는 제5단계;
    상기 제1머리이동벡터와 상기 제2머리이동벡터를 비교하여 상기 머리이동벡터들 간의 각도차인 제1각도차를 계산하고, 상기 제1각도 차와 상기 제2머리이동벡터의 가속도정보를 이용하여 제1변화벡터를 도출한 후, 상기 제1변화벡터의 값이 일정한 범위 내의 값으로 변화할 경우 폭행상황으로 판단하는 제6단계; 및
    상기 폭행상황으로 판단될 경우, 영상메시지 또는 음성메시지를 출력하여 상기 폭행상황을 알리는 제7단계를 포함하는 것을 특징으로 하는 폭행상황 검출방법.
  10. 현재 프레임 영상을 입력받아 움직임이 없는 배경은 삭제하고, 움직이는 객체들 중 사람객체들을 검출하는 제1단계;
    상기 각 사람객체들의 머리 영역을 포함하는 머리추적박스들을 생성하는 제2단계;
    상기 머리추적박스들의 중심좌표가 서로 일정한 거리 내에 위치할 경우, 상기 현재 프레임 영상을 폭행 후보 영상으로 선정하는 제3단계;
    이전 프레임 영상들에서 상기 현재 프레임 영상까지 상기 머리추적박스들 각각의 움직임벡터인 제1머리이동벡터들을 구하는 제4단계;
    상기 현재 프레임 영상에서 다음 프레임 영상으로 상기 머리추적박스들 각각의 움직임벡터인 제2머리이동벡터들을 구하는 제5단계; 및
    상기 제1머리이동벡터와 상기 제2머리이동벡터를 비교하여 상기 머리이동벡터들 간의 각도차인 제1각도차를 계산하고, 상기 제1각도 차와 상기 제2머리이동벡터의 가속도정보를 이용하여 제1변화벡터를 도출한 후, 상기 제1변화벡터의 값이 일정한 범위 내의 값으로 변화할 경우 폭행상황으로 판단하는 제6단계;를 포함하고,
    상기 제1변화벡터는 아래의 수학식 1에 의해 도출되는 것을 특징으로 하는 폭행상황 검출방법.
    [수학식 1]
    Figure 112010067162658-pat00007
    여기서, V1은 상기 제1변화벡터, θ1은 상기 제1각도차, α1은 상기 제2머리이동벡터의 가속도정보이다.
  11. 제 10 항에 있어서,
    상기 제1변화벡터의 값이 40 내지 100 사이의 일정한 값일 경우 상기 폭행상황으로 판단하는 것을 특징으로 하는 폭행상황 검출방법.
  12. 제 2 항에 있어서,
    상기 제2변화벡터는 아래의 수학식 2에 의해 도출되는 것을 특징으로 하는 폭행상황 검출방법.
    [수학식 2]
    Figure 112009039608087-pat00008
    여기서, V2은 상기 제2변화벡터, θ2은 상기 제2각도차, α2은 상기 제2머리위치벡터의 가속도정보이다.
  13. 삭제
KR1020090058578A 2009-06-29 2009-06-29 움직이는 객체의 영상정보에 기반한 폭행상황 검출방법 KR101081861B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020090058578A KR101081861B1 (ko) 2009-06-29 2009-06-29 움직이는 객체의 영상정보에 기반한 폭행상황 검출방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090058578A KR101081861B1 (ko) 2009-06-29 2009-06-29 움직이는 객체의 영상정보에 기반한 폭행상황 검출방법

Publications (2)

Publication Number Publication Date
KR20110001172A KR20110001172A (ko) 2011-01-06
KR101081861B1 true KR101081861B1 (ko) 2011-11-09

Family

ID=43609771

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090058578A KR101081861B1 (ko) 2009-06-29 2009-06-29 움직이는 객체의 영상정보에 기반한 폭행상황 검출방법

Country Status (1)

Country Link
KR (1) KR101081861B1 (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101459104B1 (ko) 2014-04-01 2014-11-13 주식회사 다이나맥스 동작분석을 통하여 위급상황을 감지하는 지능형 cctv시스템 및 이를 이용한 위급상황 감지방법
KR102247112B1 (ko) * 2020-12-30 2021-05-03 주식회사세오 위험 지역에서의 엣지 컴퓨팅 기반의 ip 카메라, 이를 포함하는 인공지능 영상 감시 시스템, 및 이의 동작 방법
KR20230091380A (ko) * 2021-12-16 2023-06-23 숭실대학교산학협력단 행동인식 기반 위험 상황 감지 시스템 및 방법

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101292790B1 (ko) * 2011-11-30 2013-08-02 최두 실시간 보안 시스템 및 그 방법
KR101509223B1 (ko) * 2013-03-07 2015-04-10 최숙자 모니터링 자동 포착기능이 구비된 보안 시스템 및 그 보안 처리방법
KR101423873B1 (ko) * 2013-03-26 2014-08-06 가천대학교 산학협력단 영상감시 통합관제 시스템 및 이를 이용한 폭행상황 감지방법
KR101336825B1 (ko) * 2013-04-19 2013-12-04 주원통신 주식회사 학교폭력 및 범죄 예방을 위한 감시시스템
KR101644443B1 (ko) * 2014-02-05 2016-08-01 김세영 시공적 상황데이터를 이용한 경고 방법 및 시스템
KR101593187B1 (ko) 2014-07-22 2016-02-11 주식회사 에스원 3차원 영상 정보를 이용한 이상 행동 감시 장치 및 방법
CN108353149B (zh) * 2015-10-26 2020-10-13 李炯勇 Cctv自动选别监测***、cctv自动选别监测管理方法及介质
KR101669885B1 (ko) * 2016-05-30 2016-10-27 이형각 영상 기반 보행자 추돌 자동 검출 방법 및 이를 적용한 사물 인터넷 장치
CN110274590B (zh) * 2019-07-08 2022-10-28 哈尔滨工业大学 一种基于决策树的暴力动作检测方法及***
CN113570575A (zh) * 2021-07-28 2021-10-29 精英数智科技股份有限公司 一种基于目标检测的钻探深度统计方法及***

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006276969A (ja) 2005-03-28 2006-10-12 Mitsubishi Electric Corp 暴れ検知装置
KR100887942B1 (ko) * 2007-01-31 2009-03-30 (주)씽크게이트테크놀러지 실시간 이상현상 감지 시스템 및 그 제어방법
KR100896949B1 (ko) * 2006-08-30 2009-05-14 (주)로직아이텍 객체식별이 가능한 영상처리 감시시스템 및 감시방법

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006276969A (ja) 2005-03-28 2006-10-12 Mitsubishi Electric Corp 暴れ検知装置
KR100896949B1 (ko) * 2006-08-30 2009-05-14 (주)로직아이텍 객체식별이 가능한 영상처리 감시시스템 및 감시방법
KR100887942B1 (ko) * 2007-01-31 2009-03-30 (주)씽크게이트테크놀러지 실시간 이상현상 감지 시스템 및 그 제어방법

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101459104B1 (ko) 2014-04-01 2014-11-13 주식회사 다이나맥스 동작분석을 통하여 위급상황을 감지하는 지능형 cctv시스템 및 이를 이용한 위급상황 감지방법
KR102247112B1 (ko) * 2020-12-30 2021-05-03 주식회사세오 위험 지역에서의 엣지 컴퓨팅 기반의 ip 카메라, 이를 포함하는 인공지능 영상 감시 시스템, 및 이의 동작 방법
KR20230091380A (ko) * 2021-12-16 2023-06-23 숭실대학교산학협력단 행동인식 기반 위험 상황 감지 시스템 및 방법
KR102615378B1 (ko) * 2021-12-16 2023-12-19 숭실대학교 산학협력단 행동인식 기반 위험 상황 감지 시스템 및 방법

Also Published As

Publication number Publication date
KR20110001172A (ko) 2011-01-06

Similar Documents

Publication Publication Date Title
KR101081861B1 (ko) 움직이는 객체의 영상정보에 기반한 폭행상황 검출방법
US11228715B2 (en) Video surveillance system and video surveillance method
US7639840B2 (en) Method and apparatus for improved video surveillance through classification of detected objects
JP4966820B2 (ja) 混雑推定装置および方法
US8189049B2 (en) Intrusion alarm video-processing device
JP2022166067A (ja) 情報処理システム、情報処理方法及びプログラム
AU2014101406B4 (en) A portable alerting system and a method thereof
JP4984575B2 (ja) 画像処理による侵入者検知装置
US11776274B2 (en) Information processing apparatus, control method, and program
US9761248B2 (en) Action analysis device, action analysis method, and action analysis program
Velastin et al. A motion-based image processing system for detecting potentially dangerous situations in underground railway stations
JP2006252248A (ja) 画像処理による侵入者検知装置
CN102810208B (zh) 基于行进方向检测的刑侦视频预处理方法
US8665329B2 (en) Apparatus for automatically ignoring cast self shadows to increase the effectiveness of video analytics based surveillance systems
Ketcham et al. The intruder detection system for rapid transit using CCTV surveillance based on histogram shapes
Veni et al. Road accident detection and severity determination from CCTV surveillance
KR101840042B1 (ko) 복합 가상 팬스 라인 설정 방법 및 이를 이용한 침입 감지 시스템
CN111460917B (zh) 基于多模态信息融合的机场异常行为检测***及方法
Davies et al. A progress review of intelligent CCTV surveillance systems
Huang et al. Rapid detection of camera tampering and abnormal disturbance for video surveillance system
US20110033087A1 (en) Video content analysis
CN114220069A (zh) 对象监测方法、电子设备及计算机可读存储介质
KR101669885B1 (ko) 영상 기반 보행자 추돌 자동 검출 방법 및 이를 적용한 사물 인터넷 장치
CN110827316A (zh) 人群恐慌四散检测方法、***、可读存储介质和电子设备
KR101407394B1 (ko) 방치물 및 도난물 탐지 시스템

Legal Events

Date Code Title Description
A201 Request for examination
N231 Notification of change of applicant
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20141030

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20150706

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20161025

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20171025

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20181029

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20191031

Year of fee payment: 9