KR20170012666A - 이동 물체 검출 장치 및 그 제어 방법 - Google Patents

이동 물체 검출 장치 및 그 제어 방법 Download PDF

Info

Publication number
KR20170012666A
KR20170012666A KR1020150103514A KR20150103514A KR20170012666A KR 20170012666 A KR20170012666 A KR 20170012666A KR 1020150103514 A KR1020150103514 A KR 1020150103514A KR 20150103514 A KR20150103514 A KR 20150103514A KR 20170012666 A KR20170012666 A KR 20170012666A
Authority
KR
South Korea
Prior art keywords
pixel
image data
pixels
data
frame
Prior art date
Application number
KR1020150103514A
Other languages
English (en)
Other versions
KR101722969B1 (ko
Inventor
최명진
김태영
이교일
박현우
Original Assignee
(주)인스페이스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)인스페이스 filed Critical (주)인스페이스
Priority to KR1020150103514A priority Critical patent/KR101722969B1/ko
Publication of KR20170012666A publication Critical patent/KR20170012666A/ko
Application granted granted Critical
Publication of KR101722969B1 publication Critical patent/KR101722969B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)

Abstract

본 발명은 이동 물체 검출 장치에 관한 것으로서, 상기 이동 물체 검출 장치는 현재 프레임의 데이터에서 인접한 두 화소간 영상 데이터의 차에 대한 절대값을 이용하여 예비 특정 화소로 정하고, 예비 특정 화소와 이전 프레임의 최종 특정 화소를 비교하여 예비 특정 화소 중에서 현재 프레임에 대한 최종 특정 화소를 선택하며, 최종 특정 화소 각각에 대한 호모그래피를 산출한 후 그 중 하나를 대표 호모그래프로 선정하고, 대표 호모그래피를 이용하여 이전 프레임의 각 화소에 대한 위치를 변경하여 추정 이전 프레임을 생성하고, 추정 이전 프레임과 현재 프레임의 영상 데이터의 차의 절대값을 화소 별로 산출하여 현재 프레임의 화소를 동영상 화소와 정지 영상 화소로 나눠 현재 프레임의 영상 데이터를 이진화 영상 데이터로 변환하는 데이터 처리부, 그리고 이진화 영상 데이터에서 바로 인접한 화소가 동영상 화소로 이루어진 동영상 화소군을 판정하고, 동영상 화소군을 이루는 동영상 화소의 개수가 설정 개수 이상이면 동영상 화소군을 이동 물체로 판정하는 이동 물체 검출부를 포함한다.

Description

이동 물체 검출 장치 및 그 제어 방법{APPARATUS FOR DETECTING MOVING OBJECT AND METHOD FOR CONTROLLING THE SAME}
본 발명은 이동 물체 검출 장치 및 그 제어 방법에 관한 것이다.
촬영 기술의 발달과 함께 급속히 발전한 영상 처리 기술로 인하여 사람이 촬영 장치를 직접 조작하지 않고도 움직이는 이동 물체를 자동으로 인식하는 것이 가능해졌다.
대부분의 영상 처리 시스템은 카메라등과 같은 촬영 장치를 이용하여 피사체에 대한 영상 데이터를 획득한 후 획득된 영상 데이터를 처리하는 원하는 정보를 얻게 된다.
일반적으로 영상 데이터를 이용하여 이동 물체를 검출하는 방식으로는 인접한 두 프레임을 각각 구성하는 각 화소의 영상 데이터에 대한 값(즉, 화소값)의 차를 이용하는 방식, 광류(optical flow)를 이용하는 방식 및 한 프레임에 대한 영상 데이터의 컬러 분포를 이용하는 방식이 있다.
하지만, 광류를 이용하는 방식과 컬러 분포를 이용하는 방식은 처리해야 하는 영상 데이터의 양이 많으므로, 처리 시간이 오래 걸리고 대용량의 영상 처리가 가능한 대용량 영상 처리 시스템에서만 사용될 수 있으므로, 사용 범위가 한정되는 문제가 있었다.
또한, 화소값의 차를 이용하는 경우, 피사체뿐만 아니라 촬영 장치도 함께 이동하는 경우, 이전 프레임의 영상과 현재 프레임의 영상의 배경이 달라지게 되어, 정확하게 배경에 해당하는 영상(즉, 정지 영상)과 이동 물체에 해당하는 영상(즉, 동영상)을 분리하지 못하는 문제가 발생한다.
이로 인해, 이동 물체에 대한 검출 동작의 정확도가 떨어지는 문제가 발생한다.
따라서 본 발명이 이루고자 하는 기술적 과제는 이동 물체의 검출 동작의 정확도를 증가시키기 위한 것이다.
본 발명이 이루고자 하는 다른 기술적 과제는 이동 물체를 검출하기 위해 처리되는 데이터의 양을 감소시켜 영상 처리 시간을 단축시키기 위한 것이다.
본 발명의 한 특징에 따른 이동 물체 검출 장치는 현재 프레임의 데이터에서 인접한 두 화소간 영상 데이터의 차에 대한 절대값을 이용하여 예비 특정 화소로 정하고, 상기 예비 특정 화소와 상기 이전 프레임의 최종 특정 화소를 비교하여 상기 예비 특정 화소 중에서 현재 프레임에 대한 최종 특정 화소를 선택하며, 상기 최종 특정 화소 각각에 대한 호모그래피를 산출한 후 그 중 하나를 대표 호모그래프로 선정하고, 상기 대표 호모그래피를 이용하여 이전 프레임의 각 화소에 대한 위치를 변경하여 추정 이전 프레임을 생성하고, 상기 추정 이전 프레임과 상기 현재 프레임의 영상 데이터의 차의 절대값을 화소 별로 산출하여 현재 프레임의 화소를 동영상 화소와 정지 영상 화소로 나눠 현재 프레임의 영상 데이터를 이진화 영상 데이터로 변환하는 데이터 처리부, 그리고 상기 데이터 처리부로부터 입력되는 이진화 영상 데이터에서 바로 인접한 화소가 동영상 화소로 이루어진 동영상 화소군을 판정하고, 상기 동영상 화소군을 이루는 상기 동영상 화소의 개수가 설정 개수 이상이면 상기 동영상 화소군을 이동 물체로 판정하는 이동 물체 검출부를 포함한다.
상기 데이터 처리부는 산출된 인접한 두 화소간 영상 데이터의 차에 대한 절대값 중에서 가장 큰 값을 갖는 화소에서부터 크기 순으로 정해진 개수만큼의 화소를 상기 예비 특정 화소로 정하고, 각 예비 특정 화소의 영상 데이터 및 각 예비 특정 화소를 중심으로 정해진 범위 내에서의 영상 데이터 분포를 이전 프레임의 최종 특정 화소의 영상 데이터 및 각 최종 특정 화소를 중심으로 정해진 범위 내에서의 영상 데이터 분포와 비교하여, 이전 프레임의 최종 특정 화소와 동일한 예비 특정 화소를 현재 프레임의 최종 특정 화소로 설정하는 것이 좋다.
상기 데이터 처리부는 상기 호모그래피 중에서 가장 많은 개수의 값을 갖는 호모그래피를 대표 호모그래피로서 판정할 수 있다.
상기 데이터 처리부는 상기 영상 데이터의 차의 절대값이 설정값을 초과하는 화소를 상기 동영상 화소로 지정하고 상기 영상 데이터의 차의 절대값이 설정값 이하인 화소를 정지 영상 화소로 지정할 수 있다.
상기 현재 프레임의 데이터와 상기 이전 프레임의 데이터는 각각 컬러 영상이 흑백 처리된 흑백 데이터인 것이 좋다.
상기 현재 프레임과 상기 이전 프레임은 설정 프레임 개수만큼의 간격이 발생하고, 상기 설정 프레임 개수는 2개 이상인 것이 바람직하다.
본 발명의 다른 특징에 따른 이동 물체 검출 장치의 제어 방법은 데이터 처리부는 현재 프레임의 데이터에서 인접한 두 화소간 영상 데이터의 차에 대한 절대값을 산출하는 단계, 상기 데이터 처리부는 산출된 상기 두 화소간 영상 데이터의 차에 대한 절대값의 크기 순에 기초하여 현재 프레임의 예비 특정 화소를 정하는 단계, 상기 데이터 처리부는 상기 예비 특정 화소와 상기 이전 프레임의 최종 특정 화소를 비교하여 상기 예비 특정 화소 중에서 최종 특정 화소를 선택하는 단계, 상기 데이터 처리부는 상기 최종 특정 화소 각각에 대한 호모그래피를 산출하는 단계, 상기 데이터 처리부는 상기 호모그래피의 값을 이용하여 산출된 상기 호모그래피 중에서 하나를 대표 호모그래프로 선정하는 단계, 상기 데이터 처리부는 상기 대표 호모그래피를 이용하여 이전 프레임의 각 화소에 대한 위치를 변경하여 추정 이전 프레임을 생성하는 단계, 상기 데이터 처리부는 상기 추정 이전 프레임과 상기 현재 프레임의 영상 데이터의 차의 절대값을 화소 별로 산출하여 현재 프레임의 화소를 동영상 화소와 정지 영상 화소로 나눠 현재 프레임의 영상 데이터를 이진화 영상 데이터로 변환하여 이동 물체 검출부로 출력하는 단계, 상기 이동 물체 검출부는 상기 이진화 영상 데이터에서 바로 인접한 화소가 동영상 화소로 이루어진 동영상 화소군을 판정하는 단계, 그리고 상기 이동 물체 검출부는 상기 동영상 화소군을 이루는 상기 동영상 화소의 개수가 설정 개수 이상이면 상기 동영상 화소군을 이동 물체로 판정하는 단계를 포함한다.
상기 특징에 따른 이동 물체 검출 장치의 제어 방법은 상기 데이터 처리부가상기 최종 특정 화소를 선택하는 단계, 상기 데이터 처리부가 각 예비 특정 화소의 영상 데이터 및 각 예비 특정 화소를 중심으로 정해진 범위 내에서의 영상 데이터 분포를 이전 프레임의 최종 특정 화소의 영상 데이터 및 각 최종 특정 화소를 중심으로 정해진 범위 내에서의 영상 데이터 분포와 비교하는 단계, 그리고 상기 데이터 처리부가 상기 이전 프레임의 최종 특정 화소의 영상 데이터 및 영상 데이터 분포와 동일한 영상 데이터 및 영상 데이터 분포를 갖는 예비 특정 화소를 현재 프레임의 최종 특정 화소로 설정하는 단계를 더 포함할 수 있다.
상기 대표 호모그래프로 선정하는 단계는 상기 호모그래피 중에서 가장 많은 개수의 값을 갖는 호모그래피를 대표 호모그래피로서 판정하는 것이 좋다.
상기 동영상 화소는 상기 영상 데이터의 차의 절대값이 설정값을 초과하는 화소이고, 상기 정지 영상 화소는 상기 영상 데이터의 차의 절대값이 설정값 이하인 화소일 수 있다.
상기 특징에 따른 이동 물체 검출 장치의 제어 방법은 상기 데이터 처리부가 해당 번째의 프레임의 데이터가 입력되는지 판단하는 단계, 상기 데이터 처리부가 입력된 데이터에 대한 프레임 번호를 판정하는 단계, 상기 데이터 처리부가 판정된 프레임 번호가 설정 간격에 해당하는 프레임 번호인지 판정하는 단계, 그리고, 상기 데이터 처리부가 판정된 프레임 번호가 설정 간격에 해당하는 프레임 번호이면, 입력된 상기 데이터를 현재 프레임의 데이터로 판정하는 단계를 더 포함할 수 있다.
상기 설정 간격은 2개 이상의 프레임 개수인 것이 좋다.
이러한 특징에 따르면, 이전 프레임의 각 화소에 현재 프레임의 대표 호모그래피를 적용하여 새로운 추정 이전 프레임을 생성하고, 생성된 추정 이전 프레임과 현재 프레임의 각 화소의 영상 데이터를 이용하여 이동 물체를 판정한다.
이로 인해, 정지 영상 화소들로 이루어진 배경 부분과 동영상 화소들로 이루어진 이동 물체의 구분이 명확해지므로, 이동 물체의 판정 동작의 정확도가 증가하게 된다.
또한, 이전 프레임과 현재 프레임이 시간적으로 바로 인접한 두 프레임이 아니고, 복수 개의 프레임 개수만큼 이격되어 있는 두 프레임이므로, 이동 물체를 판정하기 위한 영상 데이터의 양이 크게 줄어든다.
도 1은 본 발명의 한 실시예에 따른 이동 물체 검출 장치의 개략적인 블록블럭도이다.
도 2a 및 도 2b는 본 발명의 한 실시예에 따른 이동 물체 검출 장치의 제어 방법에 대한 동작 순서도로서 데이터 처리부의 동작 순서도이다.
도 3은 본 발명의 한 실시예에 따른 이동 물체 검출 장치의 제어 방법에 대한 동작 순서도로서 이동 물체 검출부의 동작 순서도이다.
도 4의 (a)와 (b)는 본 발명의 한 실시예에 따라 이전 프레임과 추정 이정 프레임의 한 예를 각각 도시한 도면이다.
도 5는 한 예로서, 종래의 기술에 따라 이전 프레임과 현재 프레임의 영상을 비교하여 산출된 영상과 본 발명의 한 실시예에 따라 이전 프레임과 추정 이전 프레임의 영상을 비교하여 산출된 영상을 도시한 도면으로서, (a)는 이전 프레임의 영상이고, (b)는 현재 프레임의 영상이며, (c)는 (a)에 도시한 이전 프레임에 대한 추정 이전 프레임의 영상이고, (d)는 (a)의 이전 프레임의 영상과 (b)이 현재 프레임의 영상을 비교하여 생성된 영상이고, (d)는 (a)의 이전 프레임의 영상과 (c)의 추정 이전 프레임의 영상을 비교하여 생성된 영상이다.
아래에서는 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
어떤 구성요소가 다른 구성요소에 "접속되어" 있다거나 "연결되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 접속되어 있거나 연결되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 한다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 접속되어" 있다거나 "직접 연결되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.
그러면 첨부한 도면을 참고로 하여 본 발명의 한 실시예에 따른 이동 물체 검출 장치 및 그 제어 방법에 대하여 설명한다.
먼저, 도 1을 참고로 하여 본 발명의 한 실시예에 따른 이동 물체 검출 장치에 대하여 상세하게 설명한다.
도 1에 도시한 본 발명의 한 실시예에 따른 이동 물체 검출 장치는 카메라(10)의 영상 데이터를 입력 받는 데이터 처리부(20), 데이터 처리부(20)와 연결되어 있는 이동 물체 검출부(30), 그리고 데이터 처리부(20)와 이동 물체 검출부(30)에 연결되어 있는 메모리부(40)를 구비한다.
카메라(10)는 사용자에 의해 해당 물체(즉, 이동 물체)를 포함하는 영역에 대한 촬영 동작을 실시하여 촬영된 영상(즉, 원본 영상)에 대한 영상 데이터(즉, 원본 데이터)를 획득하는 영상 획득 장치이다.
이러한 카메라(10)의 촬영 동작에 획득된 원본 데이터는 데이터 처리부(20)로 입력된다.
이때, 원본 데이터는 유선 또는 무선 방식으로 영상 처리부(20)로 입력될 수 있다.
또한 데이터 처리부(20)는 USB(universal serial bus) 메모리(memory)와 같은 저장 매체를 이용하여 카메라(10)에서 생성된 원본 데이터를 입력 받을 수 있다.
카메라(10)는 CCD 카메라(charge coupled device) 카메라나 CMOS(complementary metal-oxide semiconductor) 이미지 센서(image sensor)를 이용한 CMOS 카메라일 수 있다.
데이터 처리부(20)는 카메라(10)에서 생성된 원본 데이터를 프레임 단위로 입력받아 이전 프레임과 설정 간격을 두고 입력된 현재 프레임에 대한 원본 데이터를 흑백 영상 데이터로 처리하고, 현재 프레임에 대한 흑백 영상 데이터(이하, '현재 흑백 영상 데이터'라 함)에 의해 산출된 현재 프레임의 예비 특정 화소 중에서 이전 프레임에 대한 최종 특정 화소를 이용하여 현재 프레임의 최종 특정 화소를 판정한다.
그런 다음, 데이터 처리부(20)는 현재 프레임의 최종 특정 화소에 대한 호모그래피를 산출하여, 가장 많은 값을 갖는 호모그래피를 대표 호모그래피로 선정해, 대표 호모그래프를 이용하여 이전 프레임의 각 화소를 위치를 변경해 추정 이전 프레임을 산출한다.
따라서, 서로 대응되는 현재 프레임의 각 화소와 추정 이전 프레임의 각 화소의 영상 데이터의 차를 이용하여 현재 프레임의 각 화소를 정지 화소와 동영상 화소로 분리하여, 현재 프레임에 대한 이진화 영상 데이터를 생성해, 이동 물체 검출부(30)로 출력한다.
이때, 설정 간격의 크기는 촬영 장치인 카메라의 비행 속도에 따라 정해지며, 카메라의 비행 속도가 증가하면 설정 간격의 크기는 감소하고, 반대로 카메라의 비행 속도가 감소하면 설정 간격의 크기는 증가하게 된다.
예를 들어, 카메라가 드론(drone)과 같은 비행체에 장착되어 있는 경우, 카메라는 비행체의 비행 동작에 따라 위치가 변하면서 촬영 범위 내에 존재하는 영상을 촬영하게 된다. 이 경우, 촬영 범위 내의 영상은 정지 영상과 함께 동영상이 함께 존재할 수 있다.
비행체의 속도, 즉 카메라의 이동 속도가 증가하게 되면 현재 프레임에 대한 영상 데이터는 바로 이전 프레임에 대한 영상 데이터와의 차이가 많게 되고, 반대로 비행체의 속도가 감소하게 되면 현재 프레임에 대한 영상 데이터는 바로 이전 프레임에 대한 영상 데이터와의 차이가 적게 된다.
따라서, 카메라의 이동 속도가 감소할수록 이동 물체를 감지하기 위해 영상데이터 처리가 행해지는 두 개의 프레임인 현재 프레임과 이전 프레임간의 시간 간격을 증가시켜도 이전 프레임과 현재 프레임간의 영상 데이터의 변화가 많지 않으므로, 오차 발생이 적어지게 된다.
본 예의 경우, 영상 데이터 처리를 위한 현재 프레임과 이전 프레임간의 간격은 5 프레임 내지 20 프레임으로서, 이전 프레임이 10번째 입력된 프레임이면 현재 프레임은 20번째로 입력된 프레임일 수 있다.
이동 물체 검출부(30)는 데이터 처리부(20)로부터 전송된 현재 프레임에 대한 이진화 영상 데이터에서 동영상 화소군을 판정하고, 동일한 동영상 화소군에 포함되어 있는 동영상 화소의 개수가 설정 개수 이상인 동영상 화소군을 이동 물체에 해당하는 화소군, 즉, 이동 물체로 판정한다.
메모리부(40)는 데이터 처리부(20)와 이동 물체 검출부(30)의 동작에 필요한 설정 데이터와 이동 물체를 감지하기 위해 생성되는 한 프레임의 영상 데이터 등이 프레임 단위로 저장되어 있다. 따라서, 메모리부(40)는 복수의 프레임 메모리를 구비하고 있다.
다음, 본 발명의 한 실시예에 다른 이동 물체 감지 장치의 동작을 도 2a 및 도 2b를 참고로 하여 상세히 설명한다.
먼저, 이동 물체 감지 장치의 동작이 시작되면(S10), 데이터 처리부(20)는 카메라(10)로부터 해당 번째의 프레임의 원본 데이터가 입력되는지 판단하고(S11), 카메라(10)로부터 해당 번째의 프레임의 원본 데이터가 입력되면 입력된 원본 데이터에 대한 프레임 번호를 판정한다(S12).
다음, 데이터 처리부(20)는 메모리부(40)에 저장된 설정 간격을 이용하여 판정된 프레임 번호가 설정 간격에 해당하는 프레임 번호인지 판정한다(S13).
판정된 입력된 원본 데이터의 해당 프레임의 번호가 설정 간격에 해당한 경우, 즉 이전 프레임(N)의 원본 데이터(이하, '이전 프레임 원본 데이터'라 함)로서 메모리부(40)에 저장된 원본 데이터에 해당하는 프레임과 설정 간격(즉, 설정 프레임의 개수)(m, 여기서 m은 2 이상의 자연수)만큼 차이가 나는 (N+m)번째 프레임의 원본 데이터가 입력되면, 데이터 처리부(20)는 입력된 해당 프레임의 원본 데이터를 현재 프레임(N+m)의 원본 데이터(이하, '현재 프레임 원본 데이터'라 함)로서 메모리부(40)에 저장한다(S14).
예를 들어, 설정 간격이 10(즉, 10개의 프레임 개수)으로 설정되어 있는 경우, 설정 간격에 해당하는 프레임은 1번째의 프레임, 11번째의 프레임, 21번째의 프레임 등과 같이 이전 프레임(N)의 원본 데이터(즉, 이전 프레임 원본 데이터)와의 10개의 간격의 두고 입력되는 프레임이 된다. 따라서, 한 예로, 현재 프레임 원본 데이터가 11번째 프레임에 해당하는 경우, 메모리부(40)에 이미 저장되어 있는 이전 프레임 원본 데이터는 1번째 프레임에 해당하는 원본 데이터가 된다.
그런 다음, 데이터 저장부(20)는 메모리부(40)에 저장되어 있는 현재 프레임 원본 데이터에서 적색 화소에 해당하는 화소 또는 명도를 나타내는 화소에 해당하는 화소들만은 추출하여 현재 프레임에 대한 흑백 데이터(이하, 현재 프레임 흑백 데이터)를 생성하여 메모리부(40)에 저장한다(S16). 이로 인해, 현재 프레임(N+m)에 대한 컬러 영상은 단색 영상으로 변환된다.
예를 들어, 현재 프레임 원본 데이터가 적색(red), 녹색(green) 및 청색(blue)과 같은 빛의 3원색을 이용하여 컬러를 표현하는 경우, 적색을 나타내는 화소인 적색 화소만을 추출하여 현재 프레임 흑백 데이터로서 저장하게 된다.
하지만, 색상(hue), 채도(saturation) 및 밝기(lightness)를 이용하여 컬러를 표현하는 경우, 색상(hue)을 나타내는 화소만을 추출하여 현재 프레임 흑백 데이터를 생성하게 된다.
이처럼, 컬러 영상인 원본 영상을 흑백 영상으로 변환하여, 흑백 영상을 이용해 이후의 영상 처리 동작이 행해질 수 있도록 하므로, 영상 처리되는 데이터의 양이 크게 감소한다.
예를 들어, 원본 영상이 적색, 녹색 및 청색의 영상 데이터로 이루어진 경우, 처리되는 영상 데이터는 적색의 영상 데이터로 이루어지므로 영상 데이터 처리량은 원본 영상에 비해 1/3로 감소하게 된다.
이처럼, 현재 프레임(N+m)에 대한 컬러 영상을 단색 영상으로 변환한 후, 데이터 처리부(20)는 현재 프레임 흑백 데이터와 메모리부(40)에 저장되어 있는 이전 프레임 흑백 데이터를 이용하여 현재 프레임에 대한 특정 화소를 추출한다.
이를 위해, 데이터 처리부(20)는 현재 프레임 흑백 데이터에서 인접한 두 화소에 대한 영상 데이터를 각각 비교하여 인접한 화소간 영상 데이터의 차를 산출하여 절대값을 취한다(S16).
그런 다음, 산출된 화소간 영상 데이터의 차에 대한 절대값 중에서 인접한 화소와 가장 큰 차를 갖는 화소에서부터 크기 순으로 정해진 개수만큼의 화소를 선택하여 선택된 설정 개수의 화소들을 예비 특정 화소로서 메모리부(40)에 저장한다(S17).
본 예의 경우, 정해진 개수는 대략 300개 내지 700개이므로, 예를 들어, 크기 순으로 인접한 화소와 큰 차를 갖는 500개의 화소가 선택될 수 있다.
이처럼, 인접한 화소와의 영상 데이터의 차가 큰 화소를 설정 개수만큼 선택하면, 데이터 처리부(20)는 메모리부(40)에 저장된 이전 프레임(즉, 흑백 처리된 이전 프레임)의 흑백 데이터를 읽어와 이전 프레임을 이루는 화소 중에서 최종 특정 화소와 현재 프레임의 예비 특정 화소를 비교하여 현재 프레임의 최종 특정 화소를 추출한다(S18).
따라서, 데이터 처리부(21)는 먼저, 현재 프레임의 각 예비 특정 화소의 영상 데이터와 각 예비 특정 화소를 중심으로 정해진 범위 내에서의 영상 데이터 분포와 이전 프레임의 최종 특정 화소의 영상 데이터와 각 최종 특정 화소를 중심으로 정해진 범위 내에서의 영상 데이터 분포와 같은 화소 특성을 각각 비교하여, 이전 프레임의 최종 특정 화소와 동일한 특성을 갖는 예비 특정 화소를 현재 프레임의 최종 특정 화소로 설정한다.
이때, 정해진 범위는, 한 예로서, 각 해당 화소를 가운데로 위치시킨 후 각각 행 방향과 열 방향으로 설정 개수만큼의 화소 수(예, 3개)로 이루어진 영역(예, 3×3 화소 행렬 영역)일 수 있다.
현재 프레임에 대한 최종 특정 화소가 설정되면, 데이터 처리부(20)는 현재 프레임의 각 최종 특정 화소에 대한 3×3 행렬 형태의 호모그래피(H)를 산출한다(S19).
호모그래피(H)는 이전 프레임의 영상에 비해 현재 프레임의 영상의 변환 상태를 판정하기 위한 값으로서, 이전 프레임의 영상을 기준으로 하여 현재 영상의 확대 비율, 축소 비율, 영상의 위치 이동 등을 따라 값이 달라진다.
각 화소에 호모그래피(H)를 산출하기 위해, 먼저, 각 화소에 대한 2개의 값으로 이루어진 좌표값(행번호, 열번호)을 세 개의 값을 갖는 좌표값(행번호, 열번호, 1)으로 변환된다.
따라서, 각 화소에 대해 세 개의 값을 갖는 좌표값으로의 변환는 단순히 2차원을 3차원으로 변환하는 개념으로, 두 개의 좌표값에 단순히 '1'을 더하여 3차원 좌표값을 생성한다. 예를 들어, 화소(P1)의 좌표값이 (11, 13)이면 (11, 13, 1)로 변환된다.
다음, 해당 화소의 이동량(t), 회전량(θ), 크기(s), 기울기(h)를 구하기 위한 호모그래피 행렬을 다음의 [수학식 1]과 같이 생성하여, 해당 화소에 대한 이동량(t), 회전량(θ), 크기(s) 및 기울기(h)를 산출하게 된다.
Figure pat00001
[수학식 1]에서, ty는 해당 화소가 열방향(y)으로 t만큼 이동한 이동량이고, tx는 해당 화소가 행방향(x)으로 t만큼 이동한 이동량이다. H(θ)는 해당 화소가 θ만큼 회전한 회전량을 나타내며, sy는 해당 화소가 열방향(y)으로 s만큼 확대된 확대량이고, sx는 해당 화소가 행방향(x)으로 s만큼 확대된 확대량이다. 또한, hx는 행방향(x)으로 h만큼 기울어진 기울기량이고, hy는 행방향(y)으로 h만큼 기울어진 기울기량이다.
이와 같이, 해당 화소에 대한 네 개[이동량(t), 회전량(θ), 크기(s) 및 기울기(h)]의 변수에 대한 값이 산출되면, 산출된 네 개의 값이 모두 적용된 3×3 행렬 형태의 호모그래피(H)를 산출하게 된다. 이러한 방식으로 해당 화소에 대한 호모그래피(H)가 산출된다.
이처럼, 현재 프레임의 각 최종 특정 화소에 대한 호모그래피(H)를 산출한 후(S19), 데이터 처리부(20)는 산출된 최종 특정 화소에 대한 호모그래피(H) 중에서 가장 많은 개수의 값을 갖는 호모그래피를 대표 호모그래피로서 판정한다(S110).
이때, 배경 부분에 해당하는 영상, 즉 정지 영상을 나타내는 최종 특정 화소의 개수가 이동 물체에 해당하는 영상, 즉 동영상을 나타나는 최종 특정 화소의 개수보다 훨씬 많게 되므로, 대표 호모그래피(H)는 정지 영상을 나타내는 최종 특정 화소들 중 하나가 된다.
다음, 데이터 처리부(20)는 판정된 대표 호모그래피의 값을 이전 프레임(즉, 이전 프레임 흑백 데이터를 이루는 프레임)의 각 화소의 좌표값(즉 화소 위치)(행 방향으로의 위치와 열 방향으로의 위치)에 곱하여 즉, 현재 프레임에 대한 대표 호모그래피의 값을 이전 프레임의 각 화소의 위치에 반영하여, 이전 프레임의 각 화소의 위치가 대표 호모그래피만큼 이동한 새로운 이전 프레임(즉, 추정 이전 프레임)을 생성해 메모리부(40)에 저장한다(S111).
설명의 편의성을 위하여, 도 4의 (a)와 (b)에 도시한 것처럼, 현재 프레임의 영상이 이전 프레임의 영상에 비해 행 방향과 열 방향으로 위치만 변하고 영상이 회전되거나 크기가 변하거나 또는 기울기가 변하지 않은 경우를 예를 들어 설명한다.
따라서, 도 4의 (a)에 도시한 이전 프레임의 각 화소가 대표 호모그래피 적용에 의해 동영상 화소의 위치가 이동해 (b)에 도시한 것과 같이 동영상(즉, 빗금친 부분)의 위치 이동이 발생한 경우, 동영상을 나타내는 화소인 이전 프레임의 동영상 화소[(P3,3), (P4, 3), (P5,3), (P3,4), (P4,4), (P5,4), (P3,5), (P4,5), (P5,5)]가 존재할 때, 이들 동영상 화소[(P3 ,3), (P4 , 3), (P5 ,3), (P3 ,4), (P4 ,4), (P5 ,4), (P3 ,5), (P4,5), (P5 ,5)]의 위치는 추정 이전 프레임에서 각각 [(P7 ,6), (P8 ,6), (P9 ,6), (P7 ,7), (P8 ,7), (P9 ,7), (P7 ,8), (P8 ,8), (P9,8)]로 변경되고, 이들 동영상 화소 이외의 다른 화소의 위치 역시 대표 호모그래피의 값에 대응되게 각 대응되는 화소 위치가 변하게 된다.
추정 이전 프레임을 이루는 각 화소에서, 이전 프레임에 비해 위치가 변경된 추정 이전 프레임의 각 화소의 영상 데이터는 대응되는 이전 프레임의 각 화소의 영상 데이터를 그대로 유지된다.
예를 들어, 이전 프레임에서 화소(P3,3)가 대표 호모그래피의 값 반영에 의해 화소(P7, 7)로 행 방향으로 4개 화소만큼 이동하고 열 방향으로 4개 화소만큼 이동한 경우, 추정 이전 프레임의 화소(P7, 7)에 대한 영상 데이터는 이전 프레임의 화소(P3,3)의 영상 데이터와 동일한 값을 갖게 된다.
대표 호모그래피의 값에 의해 이전 프레임의 각 화소의 위치가 변경되어 추정 이전 프레임을 생성할 때, 추정 이전 프레임에는 이전 프레임에 대응하는 화소가 존재하지 않는 화소들이 존재한다.
이러한 추정 이전 프레임의 화소(즉, 도 4에서 이전 프레임에 대응하는 화소가 존재하지 않는 추정 이전 프레임의 화소)의 영상 데이터는 이미 설정된 영상 데이터(예, '0')를 갖게 된다.
또한, 추정 이전 프레임을 구성하는 화소에 대응되지 않는 이전 프레임의 화소는 추정 이전 프레임을 생성할 때 무시된다.
결과적으로, 이전 프레임에 현재 프레임의 대표 호모그래피가 적용되어 추정 이전 프레임이 생성됨에 따라, 추정 이전 프레임은 현재 프레임의 영상이 획득될 때의 촬영 조건[즉, 줌인(zoon-in) 또는 줌 아웃(zoon-out) 비율, 촬영 거리 등]과 동일한 조건을 갖게 된다.
따라서, 추정 이전 프레임을 생성함에 따라 이전 프레임의 영상이 획득될 때의 조건(예를 들어, 배경 화면)을 현재 프레임의 영상이 획득될 때의 조건과 일치시키는 결과가 발생하게 된다.
다음, 데이터 처리부(20)는 추정 이전 프레임과 현재 프레임에서 대응되는 각 화소의 두 영상 데이터를 비교하여, 각 화소 별로 이전 프레임과 현재 프레임의 영상 데이터의 차의 절대값(즉, 차이값)(Δd)을 산출한다(S112).
그런 다음, 데이터 처리부(20)는 각 화소에 대해 산출된 차이값(Δd)을 설정값과 비교하여(S113), 산출된 차이값(Δd)이 설정값을 초과하면 해당 화소의 값인 영상 데이터를 '1'로 하고(S114) 그렇지 않는 경우 해당 화소의 영상 데이터를 '0'으로 하여(S115) 현재 프레임의 각 화소의 값을 이진화시킨 후, 이진화된 현재 프레임의 영상 데이터(즉, 현재 프레임에 대한 이진화 영상 데이터)를 이동 물체 검출부(30)로 출력한다(S116).
이때, 산출된 차이값(Δd)이 설정값을 초과하는 화소는 동영상 화소이고, 반대로 산출된 차이값(Δd)이 설정값을 이하인 화소는 정지 영상 화소이다.
이와 같이, 본 예의 경우, 동영상 화소와 정지 영상 화소를 산출하기 위해, 현재 프레임의 영상을 이전 프레임의 영상과 비교하는 대신, 대표 호모그래피가 적용되어 새롭게 산출된 추정 이전 프레임과 비교하게 되므로, 좀더 정확하게 동영상 부분과 정지 영상 부분(즉, 배경 부분)의 구분이 명확해 진다.
한 예로, 도 5의 (a)와 같은 이전 프레임의 영상과 (b)과 같은 현재 프레임의 영상이 존재할 경우, 종래의 방식에 따라 이전 프레임의 영상과 현재 프레임의 영상이 비교될 때, (d)와 현재 프레임의 배경 부분인 정지 영상 화소의 일부가 이전 프레임의 대응되는 화소에 대한 영상 데이터의 차이로 인해 추출되어 동영상 화소로서 처리된다.
반면, 본 발명의 예에 따라 도 5의 (c)에 도시된 추정 이전 프레임의 영상과 (b)의 현재 프레임의 영상이 비교되는 경우, 도 5의 (e)와 같이 동영상 화소 부분만이 추출되어, 종래에 비해 좀더 정확하게 동영상 부분의 추출 동작이 행해짐을 알 수 있다.
도 5에서, 추전 이전 프레임에서 이전 프레임의 해당 화소의 확대로 인해, 이전 프레임의 특정 화소가 차지하는 범위가 증가하게 되여 추정 이전 프레임에서 특정 화소의 범위가 넓어지면, 넓어진 부분의 화소[도 5의 (b)에서 동영상 화소들의 부분과 제1 영상 데이터를 갖는 정지 영상 화소들의 부분]에 대한 영상 데이터는 이전 프레임의 해당 화소와 동일한 영상 데이터를 가질 수 있다.
그런 다음, 데이터 처리부(20)는 메모리부(40)에 저장되어 있는 현재 프레임에 관련된 데이터(예, 현재 프레임 흑백 데이터, 현재 프레임의 최종 특정 화소)를 이전 프레임에 관련된 데이터(이전 프레임 흑백 데이터, 이전 흑백의 최종 특정 화소)로서 변경 저장된다(S117).
이처럼, 데이터 처리부(20)의 동작에 의해 현재 프레임의 이진화 영상 데이터가 입력되면, 이동 물체 검출부(30)는, 도 3에 도시한 것처럼, 이진화 영상 데이터에서 바로 인접한 화소의 값이 모두 '1'인 복수의 동영상 화소로 이루어진 동영상 화소군을 판정하고(S21), 동일한 동영상 화소군에 포함되어 있는 동영상 화소의 개수가 설정 개수 이상인 동영상 화소군을 이동 물체로 판정하여, 해당 동영상 화소군을 이루는 각 동영상 화소를 최종 동영상 화소로서 메모리부(40)에 저장한다(S22, S23).
하지만, 동일한 동영상 화소군을 이루는 복수의 동영상 화소의 개수가 설정 개수 미만인 동영상 화소군은 정지 물체로 판정한다.
이와 같이, 본 예의 경우, 이동 물체를 감지하기 위해 처리 동작이 매 프레임마다 행해지는 대신, 두 프레임 이상의 설정 간격을 두고 현재 프레임과 이전 프레임이 정의되어 처리되므로 처리되는 프레임의 개수가 감소하게 된다.
이로 인해, 이동 물체를 검출하기 위해 처리되는 영상 데이터의 양이 크게 감소하므로, 영상 데이터 처리 시간이 크게 줄어들게 된다.
또한, 동영상 화소를 판정하기 위해 이전 프레임의 각 화소의 위치를 대표 호모그래피의 값을 이용하여 변경하여 추정 이전 프레임을 생성한다.
따라서, 현재 프레임에서 동영상 부분 즉, 이동 물체를 판정하기 위해 이전 프레임과 현재 프레임을 비교하여 서로 대응되는 화소의 값을 비교하는 대신, 현재 프레임과 추정 이전 프레임을 비교하여 서로 대응되는 화소의 값을 비교하므로, 정확하게 정지 영상 부분인 배경 부분과 동영상 부분인 이동 물체의 구분이 좀더 정확하게 이루어지므로, 이동 물체의 판정 동작의 정확성이 향상된다.
이상에서 본 발명의 실시예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속하는 것이다.
10: 카메라 20: 데이터 처리부
30: 이동 물체 검출부 40: 메모리

Claims (12)

  1. 현재 프레임의 데이터에서 인접한 두 화소간 영상 데이터의 차에 대한 절대값을 이용하여 예비 특정 화소로 정하고, 상기 예비 특정 화소와 이전 프레임의 최종 특정 화소를 비교하여 상기 예비 특정 화소 중에서 현재 프레임에 대한 최종 특정 화소를 선택하며, 상기 최종 특정 화소 각각에 대한 호모그래피를 산출한 후 그 중 하나를 대표 호모그래프로 선정하고, 상기 대표 호모그래피를 이용하여 이전 프레임의 각 화소에 대한 위치를 변경하여 추정 이전 프레임을 생성하고, 상기 추정 이전 프레임과 상기 현재 프레임의 영상 데이터의 차의 절대값을 화소 별로 산출하여 현재 프레임의 화소를 동영상 화소와 정지 영상 화소로 나눠 현재 프레임의 영상 데이터를 이진화 영상 데이터로 변환하는 데이터 처리부, 그리고
    상기 데이터 처리부로부터 입력되는 이진화 영상 데이터에서 바로 인접한 화소가 동영상 화소로 이루어진 동영상 화소군을 판정하고, 상기 동영상 화소군을 이루는 상기 동영상 화소의 개수가 설정 개수 이상이면 상기 동영상 화소군을 이동 물체로 판정하는 이동 물체 검출부
    를 포함하는 이동 물체 검출 장치.
  2. 제1항에서,
    상기 데이터 처리부는 산출된 인접한 두 화소간 영상 데이터의 차에 대한 절대값 중에서 가장 큰 값을 갖는 화소에서부터 크기 순으로 정해진 개수만큼의 화소를 상기 예비 특정 화소로 정하고, 각 예비 특정 화소의 영상 데이터 및 각 예비 특정 화소를 중심으로 정해진 범위 내에서의 영상 데이터 분포를 이전 프레임의 최종 특정 화소의 영상 데이터 및 각 최종 특정 화소를 중심으로 정해진 범위 내에서의 영상 데이터 분포와 비교하여, 이전 프레임의 최종 특정 화소와 동일한 예비 특정 화소를 현재 프레임의 최종 특정 화소로 설정하는 이동 물체 검출 장치.
  3. 제1항에서,
    상기 데이터 처리부는 상기 호모그래피 중에서 가장 많은 개수의 값을 갖는 호모그래피를 대표 호모그래피로서 판정하는 이동 물체 검출 장치.
  4. 제1항에서,
    상기 데이터 처리부는 상기 영상 데이터의 차의 절대값이 설정값을 초과하는 화소를 상기 동영상 화소로 지정하고 상기 영상 데이터의 차의 절대값이 설정값 이하인 화소를 정지 영상 화소로 지정하는 이동 물체 검출 장치.
  5. 제1항에서,
    상기 현재 프레임의 데이터와 상기 이전 프레임의 데이터는 각각 컬러 영상이 흑백 처리된 흑백 데이터인 이동 물체 검출 장치.
  6. 제1항에서,
    상기 현재 프레임과 상기 이전 프레임은 설정 프레임 개수만큼의 간격이 발생하고, 상기 설정 프레임 개수는 2개 이상인 이동 물체 검출 장치.
  7. 데이터 처리부는 현재 프레임의 데이터에서 인접한 두 화소간 영상 데이터의 차에 대한 절대값을 산출하는 단계,
    상기 데이터 처리부는 산출된 상기 두 화소간 영상 데이터의 차에 대한 절대값의 크기순에 기초하여 현재 프레임의 예비 특정 화소를 정하는 단계,
    상기 데이터 처리부는 상기 예비 특정 화소와 이전 프레임의 최종 특정 화소를 비교하여 상기 예비 특정 화소 중에서 최종 특정 화소를 선택하는 단계,
    상기 데이터 처리부는 상기 최종 특정 화소 각각에 대한 호모그래피를 산출하는 단계,
    상기 데이터 처리부는 상기 호모그래피의 값을 이용하여 산출된 상기 호모그래피 중에서 하나를 대표 호모그래프로 선정하는 단계,
    상기 데이터 처리부는 상기 대표 호모그래피를 이용하여 이전 프레임의 각 화소에 대한 위치를 변경하여 추정 이전 프레임을 생성하는 단계,
    상기 데이터 처리부는 상기 추정 이전 프레임과 상기 현재 프레임의 영상 데이터의 차의 절대값을 화소 별로 산출하여 현재 프레임의 화소를 동영상 화소와 정지 영상 화소로 나눠 현재 프레임의 영상 데이터를 이진화 영상 데이터로 변환하여 이동 물체 검출부로 출력하는 단계,
    상기 이동 물체 검출부는 상기 이진화 영상 데이터에서 바로 인접한 화소가 동영상 화소로 이루어진 동영상 화소군을 판정하는 단계, 그리고
    상기 이동 물체 검출부는 상기 동영상 화소군을 이루는 상기 동영상 화소의 개수가 설정 개수 이상이면 상기 동영상 화소군을 이동 물체로 판정하는 단계
    를 포함하는 이동 물체 검출 장치의 제어 방법.
  8. 제7항에서,상기 데이터 처리부는 상기 최종 특정 화소를 선택하는 단계,
    상기 데이터 처리부는 각 예비 특정 화소의 영상 데이터 및 각 예비 특정 화소를 중심으로 정해진 범위 내에서의 영상 데이터 분포를 이전 프레임의 최종 특정 화소의 영상 데이터 및 각 최종 특정 화소를 중심으로 정해진 범위 내에서의 영상 데이터 분포와 비교하는 단계, 그리고
    상기 데이터 처리부는 상기 이전 프레임의 최종 특정 화소의 영상 데이터 및 영상 데이터 분포와 동일한 영상 데이터 및 영상 데이터 분포를 갖는 예비 특정 화소를 현재 프레임의 최종 특정 화소로 설정하는 단계
    를 포함하는 이동 물체 검출 장치의 제어 방법.
  9. 제7항에서,
    상기 대표 호모그래프로 선정하는 단계는 상기 호모그래피 중에서 가장 많은 개수의 값을 갖는 호모그래피를 대표 호모그래피로서 판정하는 이동 물체 검출 장치의 제어 방법.
  10. 제7항에서,
    상기 동영상 화소는 상기 영상 데이터의 차의 절대값이 설정값을 초과하는 화소이고, 상기 정지 영상 화소는 상기 영상 데이터의 차의 절대값이 설정값 이하인 화소인 이동 물체 검출 장치의 제어 방법.
  11. 제7항에서,
    상기 데이터 처리부는 해당 번째의 프레임의 데이터가 입력되는지 판단하는 단계,
    상기 데이터 처리부는 입력된 데이터에 대한 프레임 번호를 판정하는 단계,
    상기 데이터 처리부는 판정된 프레임 번호가 설정 간격에 해당하는 프레임 번호인지 판정하는 단계, 그리고
    상기 데이터 처리부는 판정된 프레임 번호가 설정 간격에 해당하는 프레임 번호이면, 입력된 상기데이터를 현재 프레임의 데이터로 판정하는 단계
    를 더 포함하는 이동 물체 검출 장치의 제어 방법.
  12. 제11항에서,
    상기 설정 간격은 2개 이상의 프레임 개수인 이동 물체 검출 장치의 제어 방법.
KR1020150103514A 2015-07-22 2015-07-22 이동 물체 검출 장치 및 그 제어 방법 KR101722969B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020150103514A KR101722969B1 (ko) 2015-07-22 2015-07-22 이동 물체 검출 장치 및 그 제어 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020150103514A KR101722969B1 (ko) 2015-07-22 2015-07-22 이동 물체 검출 장치 및 그 제어 방법

Publications (2)

Publication Number Publication Date
KR20170012666A true KR20170012666A (ko) 2017-02-03
KR101722969B1 KR101722969B1 (ko) 2017-04-13

Family

ID=58156588

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150103514A KR101722969B1 (ko) 2015-07-22 2015-07-22 이동 물체 검출 장치 및 그 제어 방법

Country Status (1)

Country Link
KR (1) KR101722969B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102629213B1 (ko) * 2023-04-18 2024-01-24 국방과학연구소 경사 촬영 동영상 이동물체 탐지 방법 및 장치

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090103399A (ko) * 2008-03-28 2009-10-01 삼성모바일디스플레이주식회사 의사윤곽 검출 장치 및 방법
KR101480824B1 (ko) * 2014-02-13 2015-01-13 국방과학연구소 다중 호모그래피 기법을 이용한 배경 움직임 보상 방법

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090103399A (ko) * 2008-03-28 2009-10-01 삼성모바일디스플레이주식회사 의사윤곽 검출 장치 및 방법
KR101480824B1 (ko) * 2014-02-13 2015-01-13 국방과학연구소 다중 호모그래피 기법을 이용한 배경 움직임 보상 방법

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Sheikh, Yaser, Omar Javed, and Takeo Kanade. "Background subtraction for freely moving cameras." Computer Vision, 2009 IEEE 12th International Conference on. IEEE, 2009. *
이주신, "중첩된 윤곽선 영상의 화소색상 변화를 이용한 이동물체 검출", 한국정보기술학회논문지 제10권 제10호, 2012.10, pp.39-46.* *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102629213B1 (ko) * 2023-04-18 2024-01-24 국방과학연구소 경사 촬영 동영상 이동물체 탐지 방법 및 장치

Also Published As

Publication number Publication date
KR101722969B1 (ko) 2017-04-13

Similar Documents

Publication Publication Date Title
EP3477931B1 (en) Image processing method and device, readable storage medium and electronic device
KR101441786B1 (ko) 피사체 판정 장치, 피사체 판정 방법, 및 기록 매체
EP3684046B1 (en) Autofocus in an image-capturing apparatus operating using the scheimpflug principle
US20150213611A1 (en) Image processing apparatus that identifies image area, and image processing method
CN107959841B (zh) 图像处理方法、装置、存储介质和电子设备
CN109922325B (zh) 图像处理设备及其控制方法和计算机可读存储介质
US20150334373A1 (en) Image generating apparatus, imaging apparatus, and image generating method
US20210067689A1 (en) Image processing apparatus, image processing method, and program
US8699750B2 (en) Image processing apparatus
KR20130064556A (ko) 다중 검출 방식을 이용한 얼굴 검출 장치 및 방법
JP5395650B2 (ja) 被写体領域抽出装置およびその制御方法、被写体追跡装置、並びにプログラム
WO2019146419A1 (ja) 画像処理装置、および画像処理方法、並びにプログラム
KR101722969B1 (ko) 이동 물체 검출 장치 및 그 제어 방법
US11575841B2 (en) Information processing apparatus, imaging apparatus, method, and storage medium
KR102389284B1 (ko) 인공지능 기반 이미지 인페인팅 방법 및 디바이스
US9710897B2 (en) Image processing apparatus, image processing method, and recording medium
KR102354704B1 (ko) 열화상 영상의 이상치 온도 제거를 통한 자동 컬러맵 표현 방법
US10885348B2 (en) Information processing device, information processing method, and storage medium
JP7518629B2 (ja) 撮像装置、撮像装置の制御方法、システム、及び、プログラム
CN109447925B (zh) 图像处理方法和装置、存储介质、电子设备
JP2009239772A (ja) 撮像装置、画像処理装置、および画像処理方法、並びにプログラム
JP5988725B2 (ja) 撮像装置及び現像装置
JP6946049B2 (ja) 画像処理装置、画像処理方法、及びプログラム
KR102311435B1 (ko) 3차원 열화상 카메라
US11659149B2 (en) Image processing apparatus and non-transitory computer readable medium

Legal Events

Date Code Title Description
A201 Request for examination
FPAY Annual fee payment

Payment date: 20200224

Year of fee payment: 4