KR101467663B1 - 영상 모니터링 시스템에서 영상 제공 방법 및 시스템 - Google Patents

영상 모니터링 시스템에서 영상 제공 방법 및 시스템 Download PDF

Info

Publication number
KR101467663B1
KR101467663B1 KR1020130010467A KR20130010467A KR101467663B1 KR 101467663 B1 KR101467663 B1 KR 101467663B1 KR 1020130010467 A KR1020130010467 A KR 1020130010467A KR 20130010467 A KR20130010467 A KR 20130010467A KR 101467663 B1 KR101467663 B1 KR 101467663B1
Authority
KR
South Korea
Prior art keywords
image
remaining
connection information
images
cameras
Prior art date
Application number
KR1020130010467A
Other languages
English (en)
Other versions
KR20140097844A (ko
Inventor
최성훈
Original Assignee
주식회사 엘지씨엔에스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 엘지씨엔에스 filed Critical 주식회사 엘지씨엔에스
Priority to KR1020130010467A priority Critical patent/KR101467663B1/ko
Priority to US14/058,786 priority patent/US20140211019A1/en
Publication of KR20140097844A publication Critical patent/KR20140097844A/ko
Application granted granted Critical
Publication of KR101467663B1 publication Critical patent/KR101467663B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Studio Devices (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

영상 모니터링 시스템에서 영상 제공 방법은 복수의 카메라들이 설치된 공간 내에서, 상기 복수의 카메라들에 의해 촬영되는 영상들의 공간적인 배치를 나타내는 공간 연결 정보를 저장하는 단계; 상기 영상들 중 제1 영상의 선택을 수신하는 단계; 및 상기 공간 연결 정보를 기초로 상기 제1 영상 및 적어도 하나의 나머지 제2 영상을 배열하는 단계를 포함한다.

Description

영상 모니터링 시스템에서 영상 제공 방법 및 시스템{METHOD AND SYSTEM OF PROVIDING DISPLAY IN DISPLAY MONITORING SYSTEM}
본 발명은 영상 모니터링 시스템에서 영상 제공 시스템 및 그 방법에 관한 것으로, 보다 구체적으로 여러 채널을 감시하고 있는 환경에서 특정 채널에서 발생되는 사건의 사람, 동물 및 관련 물체가 해당 카메라를 벗어나 다른 곳으로 이동할 때, 사건의 사람, 동물 및 관련 물체를 추적할 수 있도록 도와주는 영상 제공 기술에 관한 것이다.
영상 모니터링 시스템에서 영상 제공 기술은 여러 대의 카메라를 가지고 감시하는 대규모의 CCTV 감시 시스템에서 여러 채널을 감시하는 영상을 제공하는 기술로, 복수의 카메라를 배치하고, 복수의 카메라가 촬영하는 각각의 영상을 기초로 여러 채널을 감시하는 영상을 제공할 수 있다.
영상 모니터링 시스템은 복수의 카메라가 배치되는 전체적인 카메라 배치도 및 복수의 카메라가 촬영하는 각각의 영상들을 포함한다.
본 발명의 일실시예에 따른 영상 제공 방법은 복수의 카메라들이 설치된 공간 내에서, 상기 복수의 카메라들에 의해 촬영되는 영상들의 공간적인 배치를 나타내는 공간 연결 정보를 저장하는 단계; 상기 영상들 중 제1 영상의 선택을 수신하는 단계; 및 상기 공간 연결 정보를 기초로 상기 제1 영상 및 적어도 하나의 나머지 제2 영상을 배열하는 단계를 포함한다.
상기 공간 연결 정보는 상기 복수의 카메라들 각각의 설치 위치, 상기 복수의 카메라들 각각의 시선 또는 시야 중 적어도 하나를 기초로 생성되는 정보일 수 있다.
상기 제1 영상 및 상기 적어도 하나의 나머지 제2 영상을 배열하는 단계는 상기 제1 영상을 기준으로 상기 공간 연결 정보를 참조하여 상기 제1 영상 및 상기 적어도 하나의 나머지 제2 영상을 배열하는 단계일 수 있다.
상기 영상 제공 방법은 상기 복수의 카메라들 각각에 의해 촬영되는 영상에 대응하는 영역의 실제 좌표를 계산하는 단계를 더 포함할 수 있다.
상기 제1 영상 및 상기 적어도 하나의 나머지 제2 영상을 배열하는 단계는 배열된 영상들 중에서 상기 제1 영상을 중심 영역에 배치하는 단계; 및 상기 제1 영상의 공간 연결 정보와 상기 적어도 하나의 나머지 제2 영상의 공간 연결 정보를 비교하여 상기 제1 영상 주변에 상기 적어도 하나의 나머지 제2 영상을 배치하는 단계를 포함할 수 있다.
상기 공간 연결 정보는 상기 복수의 카메라들에 의해 촬영되는 영상들 각각에서 중심점에서의 좌표에 대응하는 실제 좌표를 포함하고, 상기 제1 영상 주변에 상기 적어도 하나의 나머지 제2 영상을 배치하는 단계는 상기 제1 영상에서 중심점에서의 좌표에 대응하는 실제 좌표와 상기 적어도 하나의 나머지 제2 영상에서 중심점에서의 좌표에 대응하는 실제 좌표를 비교하는 단계를 포함할 수 있다.
상기 영상 제공 방법은 상기 공간에 대한 2D(dimensional) 또는 3D의 지도를 입력하는 단계를 더 포함할 수 있다.
상기 공간 연결 정보를 저장하는 단계는 상기 복수의 카메라들에 의해 촬영되는 영상들 각각에서 중심점에서의 좌표에 대응하는 실제 좌표를 저장하는 단계를 포함할 수 있다.
상기 영상 제공 방법은 상기 공간에 대한 지도 상에서 상기 복수의 카메라들 각각에 의해 촬영되는 영상을 디스플레이하는 단계를 더 포함할 수 있다.
상기 영상 제공 방법은 상기 제1 영상을 확대하는 단계; 및 상기 확대된 제1 영상 위에 상기 적어도 하나의 나머지 제2 영상을 오버레이하는 단계를 포함할 수 있다.
상기 확대된 제1 영상 위에 상기 적어도 하나의 나머지 제2 영상을 오버레이하는 단계는 상기 적어도 하나의 나머지 제2 영상의 공간 연결 정보 및 상기 제1 영상의 공간 연결 정보를 비교하여 상기 확대된 제1 영상 위에서 상기 적어도 하나의 제2 영상이 오버레이되는 위치를 결정하는 단계를 더 포함할 수 있다.
상기 영상 제공 방법은 상기 공간 연결 정보에 기초하여 상기 제1 영상으로부터 상기 적어도 하나의 나머지 제2 영상으로의 방향을 추출하는 단계; 및 상기 방향을 나타내는 화살표를 상기 제1 영상 상에 더 디스플레이하는 단계를 더 포함할 수 있다.
상기 방향을 나타내는 화살표를 상기 제1 영상 상에 더 디스플레이하는 단계는 상기 적어도 하나의 나머지 제2 영상 상에서 마우스 오버가 발생하면, 상기 방향을 나타내는 화살표를 상기 제1 영상 상에 더 디스플레이하는 단계일 수 있다.
상기 제1 영상은 상기 영상들 중 선택된 임의의 영상이고, 상기 적어도 하나의 나머지 제2 영상은 상기 선택된 임의의 영상과 구별되는 영상일 수 있다.
본 발명의 일실시예에 따른 영상 모니터링 시스템은 복수의 카메라들; 영상 분석 장치; 및 영상 표시장치를 포함하고 상기 영상 분석 장치는 상기 복수의 카메라들에 의해 촬영되는 영상들의 공간적인 배치를 나타내는 공간 연결 정보를 저장하고, 상기 영상들 중 제1 영상의 선택을 수신하며, 상기 제1 영상을 확대하고, 상기 영상 표시 장치는 상기 공간에 대한 지도 상에서 상기 복수의 카메라들 각각에 의해 촬영되는 영상을 디스플레이하고, 상기 공간 연결 정보를 기초로 상기 제1 영상 및 적어도 하나의 나머지 제2 영상을 배열하며, 상기 확대된 제1 영상 위에 상기 적어도 하나의 나머지 제2 영상을 오버레이한다.
상기 영상 표시 장치는 배열된 영상들 중에서 상기 제1 영상을 중심 영역에 배치하고, 상기 제1 영상의 공간 연결 정보와 상기 적어도 하나의 나머지 제2 영상의 공간 연결 정보를 비교하여 상기 제1 영상 주변에 상기 적어도 하나의 나머지 제2 영상을 배치할 수 있다.
상기 영상 표시 장치는 상기 제1 영상에서 중심점에서의 좌표에 대응하는 실제 좌표와 상기 적어도 하나의 나머지 제2 영상에서 중심점에서의 좌표에 대응하는 실제 좌표를 비교할 수 있다.
상기 영상 분석 장치는 상기 복수의 카메라들 각각에 의해 촬영되는 영상에 대응하는 영역의 실제 좌표를 계산하고, 상기 복수의 카메라들에 의해 촬영되는 영상들 각각에서 중심점에서의 좌표에 대응하는 실제 좌표를 저장할 수 있다.
상기 영상 표시 장치는 상기 적어도 하나의 나머지 제2 영상의 공간 연결 정보 및 상기 제1 영상의 공간 연결 정보를 비교하여 상기 확대된 제1 영상 위에서 상기 적어도 하나의 제2 영상이 오버레이되는 위치를 결정할 수 있다.
도 1은 영상 모니터링 시스템을 나타낸 도면이다.
도 2는 본 발명의 일실시예에 따른 영상 모니터링 시스템에서 공간 연결 정보 및 카메라 캘리브레이션을 나타낸 도면이다.
도 3은 본 발명의 일실시예에 따른 영상 모니터링 시스템에서 카메라 공간 연결 정보 분석을 나타낸 도면이다.
도 4는 본 발명의 일실시예에 따른 영상 모니터링 시스템에서 영상 제공 방법을 나타낸 플로우 차트이다.
도 5는 도 4에 도시된 영상 제공 단계(440)를 구체적으로 나타낸 플로우 차트이다.
도 6은 본 발명의 일실시예에 따른 영상 모니터링 시스템을 나타낸 도면이다.
도 7은 본 발명의 일실시예에 따른 영상 모니터링 시스템에서 영상 제공 시스템을 나타낸 블록도이다.
도 1은 영상 모니터링 시스템을 나타낸 도면이다.
도 1을 참조하면, 기존의 영상 모니터링 시스템의 제공 영상 개수에 맞춘 화면 배치 방법은 카메라 배치도(110)를 기초로 격자형 영상(120)을 제공한다. 카메라 배치도(110)에서는 카메라(111)와 카메라(112)가 인접해 있지만, 격자형 영상에서는 카메라(111)가 촬영한 D 영상과 카메라(112)가 촬영한 A 영상처럼 멀리 떨어져서 격자형 영상이 제공될 수 있다.
또한, 기존의 영상 모니터링 시스템의 기준 카메라 별 배치 방법은 카메라 배치도(130)를 기초로 B 카메라 기준 배치(140) 및 D 카메라 기준 배치(150)의 영상을 제공한다. 카메라 배치도(130)에서 B 카메라(131)의 시선 방향이 D 카메라(132)의 시선 방향과 일치하지 않기 때문에, B 카메라를 기준으로 영상을 제공하면 B 카메라 기준 배치(140)처럼 영상의 방향이 배치도와 다르게 반대로 나오고, D 카메라를 기준으로 영상을 제공하면 D 카메라 기준 배치(150)와 같이 영상의 방향이 배치도와 다르게 반대로 나타날 수 있다.
기존의 영상 모니터링 시스템의 지도를 이용한 영상 제공 방법은 카메라 지도 배치도(160)를 기초로 카메라 각각의 세부영상(170)을 제공한다. 지도를 이용한 영상 제공 방법은 카메라 지도 배치도(160)에서 영상들을 작게 표출하므로 사용자의 식별이 어렵고 또한, 카메라 지도 배치도(160) 상에서 카메라의 영상(163)의 상행 방향(161) 및 하행 방향(162)이 카메라 영상(163)을 확대한 세부영상(170)에서의 상행 방향(171) 및 하행 방향(172)과 일치하지 않을 수 있다.
기존의 영상 모니터링 시스템의 집중 감시 영상 제공 방법은 집중 감시 카메라 배치도(180)를 기초로 집중 감시 격자형 영상(190)을 제공한다. 집중 감시 카메라 배치도(180)의 B 카메라(182)의 위치에서 사건이 발생했다면, 집중 감시 격자형 영상은 B 영상(191)과 거리상 인접해 있는 A, C, D 및 E 영상을 제공한다. 하지만, 사건 관련 물체의 실제 이동이 집중 감시 카메라 배치도(180)와 같이 B 카메라(182) 위치에서 E 카메라(185) 위치, I 카메라(189) 위치로 이루어진다면, 해당 물체의 추적이 불가능해질 수 있다.
도 2는 본 발명의 일실시예에 따른 영상 모니터링 시스템에서 공간 연결 정보 및 카메라 캘리브레이션(calibration)을 나타낸 도면이다.
본 발명의 일실시예에 따른 방법은 복수의 카메라들이 설치된 공간의 2차원 지도 정보(210) 및 3차원 모델링 정보(220)를 획득할 수 있다. 이 정보들을 기초로 실제 좌표계를 형성할 수 있다.
또한, 카메라의 시야 정보(230), 설치 위치 정보(240) 및 시선 정보(250)를 포함하는 공간 연결 정보를 획득할 수 있다.
카메라의 시야 정보(230)는 카메라가 촬영하는 영상의 시야에 대한 정보로써, 영상의 너비(H°) 및 높이(V°)를 포함한 정보이다. 설치 위치 정보(240)는 실제 좌표계를 기준으로 카메라가 설치되는 공간적 좌표로, (x, y, z)로 표현된다. 카메라의 시선 정보(250)는 카메라가 촬영하는 영상의 시선의 벡터값들로 시선 벡터(u, v, w)로 표현된다.
본 발명의 일실시예에 따른 방법은 공간 연결 정보의 영상 좌표들을 실제 좌표계의 실제 좌표들과 대응시켜 조정하는 과정인 카메라 캘리브레이션(260)을 진행한다. 카메라 캘리브레이션은 카메라 영상 좌표의 중심점(261)(Xi, Yi)에 대응하는 실제 좌표의 중심점(262)(Xr, Yr, Zr=0)을 조정하여, 카메라 영상 영역(263)에 대응하는 실제 좌표의 영역(264)을 획득할 수 있다.
도 3은 본 발명의 일실시예에 따른 영상 모니터링 시스템에서 카메라 공간 연결 정보 분석을 나타낸 도면이다.
도 3을 참조하면, 카메라 배치 공간(310)에는 카메라(311), 카메라(312), 카메라(313) 및 카메라(314)가 배치되어 있고, 카메라(321), 카메라(322), 카메라(323) 및 카메라(324)가 촬영하는 공간 영역에서 카메라(322)가 촬영하는 영역과 카메라(324)가 촬영하는 영역이 서로 연결된 영역(325)을 공통으로 가지고 있음을 알 수 있다. 공간 연결 정보 분석(320)은 위와 같이 복수의 카메라가 촬영하는 각각의 영상의 서로 연결된 영역을 분석하는 과정이다.
공간 연결 정보를 분석 및 저장하는 과정은 공간 연결 정보를 기초로 복수의 카메라가 촬영하는 각각의 영상에 대응하는 영역의 실제 좌표를 계산하고, 각각의 촬영 영상 중심점에서의 좌표에 대응하는 실제 좌표를 저장하는 과정이다.
도 4는 본 발명의 일실시예에 따른 영상 모니터링 시스템에서 영상 제공 방법을 나타낸 플로우 차트이다.
본 발명의 일실시예에 따른 방법은 복수의 카메라가 설치된 공간의 지도 정보를 획득한다(410).
또한, 획득한 지도 정보의 실 좌표계를 생성한다(420).
이어서 공간 연결 정보를 획득한다(430). 공간 연결 정보는 도 2의 카메라의 시야 정보(230), 설치 위치 정보(240) 및 시선 정보(250)를 카메라 캘리브레이션 처리하여 획득한 정보들을 포함할 수 있다.
본 발명의 일 실시예에 따른 방법은 일련의 과정을 거쳐 감시 영상을 제공한다(440). 이에 대해서는 도 5를 참조하여 자세히 설명한다.
도 5는 도 4에 도시된 영상 제공 단계(440)를 구체적으로 나타낸 플로우 차트이다.
도 5를 참조하면, 본 발명의 일실시예에 따른 방법은 공간 연결 정보를 분석 및 저장한다(505). 도 4에서 획득한 공간 연결 정보를 기초로 복수의 카메라가 촬영하는 각각의 영상에 대응하는 영역의 실제 좌표를 계산하고, 각각의 촬영 영상 중심점에서의 좌표에 대응하는 실제 좌표를 저장한다.
또한, 공간에 대한 지도 상에서 복수의 카메라들 각각에 의해 촬영되는 기본 영상을 디스플레이한다(510). 특히, 계산된 공간상의 좌표를 근거로, 최초의 한 영상을 중심으로 주변 영상들을 떨어진 거리 기준으로 단계를 두어 디스플레이할 수 있다.
디스플레이된 기본 영상에서 미리 설정된 제스처로 제1 영상을 선택하는지를 판단한다(515). 주변 영상들 중에서 어떠한 방향의 영상이 선택되는지를 모니터링하다가 사용자의 선택이 있는지 여부를 판단한다.
미리 설정된 제스처로 제1 영상을 선택하지 않았다면, 사용자로부터 복수의 카메라들의 위치에 대응하는 영상들 중 어느 하나에 대한 선택을 수신한다(520).
본 발명의 일실시예에 따른 방법은 공간 연결 정보를 기초로 제1 영상 및 적어도 하나의 나머지 제2 영상을 배열한다(525). 배열된 영상들 중에서 제1 영상을 중심 영역에 배치하고, 적어도 하나의 나머지 제2 영상의 공간 연결 정보를 비교하여 제1 영상 주변에 적어도 하나의 나머지 제2 영상을 배치하여 디스플레이한다. 이때, 제1 영상 주변에 적어도 하나의 나머지 제2 영상을 배치하는 단계는 선택된 영상에서의 중심점에서의 좌표에 대응하는 실제 좌표와 나머지 영상에서 중심점에서의 좌표에 대응하는 실제 좌표를 비교하는 단계를 포함할 수 있다.
또한, 배열된 영상에서 미리 설정된 제스처로 제1 영상을 선택하는지를 판단한다(530).
미리 설정된 제스처로 제1 영상을 선택하였다면, 제1 영상 선택을 수신한다(535).
그리고 공간 연결 정보에 기초하여 미리 정의된 사용자의 제스처를 감지됨에 응답하여 제1 영상 주변의 적어도 하나의 나머지 제2 영상을 추출한다(540).
본 발명의 일실시예에 따른 방법은 선택된 제1 영상을 확대한다(545).
이어서, 제1 영상 위에 적어도 하나의 나머지 제2 영상을 오버레이한다(550). 이때, 적어도 하나의 나머지 제2 영상의 공간 연결 정보 및 제1 영상의 공간 연결 정보를 비교하여 제1 영상 위에서 적어도 하나의 나머지 제2 영상이 오버레이되는 위치를 결정한다.
또한, 공간 연결 정보에 기초하여 제1 영상으로부터 적어도 하나의 나머지 제2 영상으로의 방향을 추출한다(555).
이때, 사용자 적어도 하나의 나머지 제2 영상에서 마우스 오버가 발생하는지를 판단한다(560). 여기서 마우스 오버라 함은 특정 객체 위에 사용자의 마우스 커서 등이 위에 놓여져 있는 것을 의미한다.
적어도 하나의 나머지 제2 영상 상에서 마우스 오버가 발생하면, 제1 영상으로부터 적어도 하나의 나머지 제2 영상으로의 방향을 나타내는 화살표를 제1 영상에 디스플레이한다(565).
도 6는 본 발명의 일실시예에 따른 영상 모니터링 시스템을 나타낸 도면이다.
도 6을 참조하면, 카메라 배치도(610)는 복수의 카메라들(611, 612, 613, 614, 615, 616, 617), 카메라(611) 영상의 중심점(618) 및 카메라(612) 영상의 중심점(619)을 포함한다. 또한, 기본 영상(620)은 복수의 카메라 각각의 영상들(621, 622, 623, 624, 625, 626, 627)을 포함하고, 특정 영상(630)도 복수의 카메라 각각의 영상들(631, 632, 633, 634, 635, 636, 637)을 포함한다. 동선 추적 영상(640)은 선택된 제1 영상(641), 나머지 제2 영상들(642, 643, 644, 645, 647) 및 제1 영상에서 사용자의 마우스 오버가 발생된 적어도 하나의 나머지 제2 영상으로의 방향을 나타내는 화살표(649)를 포함한다.
본 발명의 일실시예에 따른 방법은 배치된 복수의 카메라들(611, 612, 613, 614, 615, 616, 617)의 공간 연결 정보를 획득하고, 분석 및 저장하여 기본 영상(620)을 제공한다. 기본 영상(620)에서 영상(621)은 카메라 배치도(610)에서의 카메라(611)의 촬영 영상이고, 영상(622)은 카메라(612)의 촬영 영상이며 영상(623)은 카메라(613)의 촬영 영상이다. 나머지 영상들(624, 625, 626, 627)도 각각의 대응하는 카메라(614, 615, 616, 617)가 촬영한 영상이다. 이렇게 카메라가 배치된 공간의 지도 정보를 기초로 복수의 카메라 각각에 대응하는 영상을 제공한다.
또한, 사용자로부터 복수의 카메라들의 위치에 대응하는 영상들 중 어느 하나에 대한 선택을 수신하고, 이에 선택된 제1 영상을 화면 중심 영역에 배치하고, 나머지 영상의 공간 연결 정보를 비교하여 선택된 영상 주변에 적어도 하나의 나머지 제2 영상을 배열한다. 이렇게 배열된 영상이 특정 영상(630)이다.
특정 영상(630)에서 영상(631)은 사용자로부터 선택된 영상이며, 카메라 배치도(610)에서의 카메라(611)의 촬영 영상이다. 나머지 영상들(632, 633, 634, 635, 636, 637)도 각각의 대응하는 카메라(612, 613, 614, 615, 616, 617)가 촬영한 영상이다. 이때, 카메라 배치도(610)에서의 카메라(611)와 카메라(612)의 설치 위치만을 비교하여 촬영 영상을 배치한다면, 카메라(612)의 촬영 영상(632)이 카메라(611)의 촬영 영상(631)의 하단에 위치해야 하지만, 본 발명의 일실시예에 따른 방법은 공간 연결 정보를 기초로 특정 영상(630)을 제공하기 때문에 카메라(612)의 촬영 영상(632)이 카메라(611)의 촬영 영상(631)을 기준으로 우측 상단에 배치된다. 왜냐하면, 카메라(612)의 영상의 중심점(619)이 카메라(611)의 영상의 중심점(618) 보다 우측 상단에 존재하기 때문이다. 특정 영상(630)에서 선택된 영상 주변에 나머지 영상을 배치하는 과정은 선택된 영상에서의 중심점에서의 좌표에 대응하는 실제 좌표와 나머지 영상에서 중심점에서의 좌표에 대응하는 실제 좌표를 비교할 수 있다. 각각의 나머지 영상들(632, 633, 634, 635, 636, 637) 역시, 선택된 영상(631)을 기준으로 공간 연결 정보를 비교하여 각각의 위치에 배치될 수 있다. 또한, 사용자의 요구에 맞추어 4방향, 8방향 및 16방향의 위치에 각각의 영상들을 배치할 수 있다.
본 발명의 일실시예에 따른 방법은 동선 추적 영상(640)을 제공한다. 동선 추적 영상(640)은 기본 영상(620) 및 특정 영상(630)에서 사용자로부터 제1 영상 선택을 수신 받아, 화면에 선택된 제1 영상(641)을 확대하여 디스플레이한다. 이어서, 적어도 하나의 나머지 제2 영상의 공간 연결 정보 및 제1 영상의 공간 연결 정보를 비교하여 확대된 제1 영상 위에서 적어도 하나의 나머지 제2 영상이 오버레이 되는 위치를 결정한다. 각각의 나머지 제2 영상들(642, 643, 644, 645, 647)은 제1 영상을 촬영한 카메라(611)의 영상의 중심점 좌표와 각각의 나머지 제2 영상을 촬영한 카메라(612, 613, 614, 615, 617)들의 영상의 중심점 좌표를 비교하여 배치될 수 있다.
또한, 나머지 제2 영상들 중 영상(642) 위에 마우스 오버가 발생되면, 제1 영상으로부터 적어도 하나의 나머지 제2 영상으로의 방향을 나타내는 화살표(649)를 나타낸다.
예를 들면, 추적하는 대상인 사람이 카메라 배치도(640)와 같이 위치해 있다면, 추적 대상은 카메라(611)와 카메라(612)에 의해 촬영될 수 있다. 촬영된 영상은 기본 영상(620)으로 사용자에게 보여지며, 사용자가 추적 대상을 확대하여 보기 위해 기본 영상(620) 상의 영상(621)을 선택하면 영상(621) 중심의 특정 영상(630)이 제공될 수 있다. 특정 영상(630)은 영상(631)을 중심으로 공간 영역 정보를 기초로 인접한 나머지 영상들(632, 633, 634, 635, 636, 637)을 배열하여, 추적 대상이 촬영되는 공간 및 인접 공간들에 대한 영상을 디스플레이할 수 있다. 여기서 영상(621)과 영상(631) 및 영상(641)을 카메라(611)로 촬영된 동일한 영상들이다. 이때, 추적 대상을 효율적으로 추적하기 위해 미리 정의된 제스처로 영상(631)을 선택하면, 동선 추적 영상(640)이 제공될 수 있다. 동선 추적 영상(640)에서 영상(641)은 추적 대상을 촬영하는 카메라(611)의 촬영 영상이며, 이는 제1 영상으로 공간 연결 정보를 기초로 나머지 제2 영상들(642, 643, 644, 645, 647)을 추출, 제1 영상(641) 위에 오버레이할 수 있다. 여기서 적어도 하나의 제2 영상(641) 상에서 사용자의 마우스 오버가 발생하면, 제1 영상(641)으로부터 적어도 하나의 제2 영상(642)으로의 방향을 추출, 방향을 나타내는 화살표(649)를 나타낼 수 있다. 이와 같이 추적 대상을 촬영하는 공간, 추적 대상의 동선을 고려하여 인접한 공간의 영상 및 해당 공간으로의 방향을 나타낼 수 있다.
도 7은 본 발명의 일실시예에 따른 영상 모니터링 시스템에서 영상 제공 장치를 나타낸 블록도이다.
도 7을 참조하면, 영상 모니터링 시스템에서 영상 제공 시스템은 카메라 1(711), 카메라 2(712) 및 카메라 3(713) 등을 포함하는 복수의 카메라(710), 영상 분석 장치(720) 및 영상 표시 장치(730)를 포함한다.
여기서 영상 분석 장치(720)는 복수의 카메라들(710)에 의해 촬영되는 영상들의 공간적인 배치를 나타내는 공간 연결 정보를 저장하고 영상들 중 제1 영상의 선택을 수신하며 상기 제1 영상을 확대할 수 있다.
또한, 영상 표시 장치(730)는 공간에 대한 지도 상에서 복수의 카메라들(710) 각각에 의해 촬영되는 영상을 디스플레이하고, 공간 연결 정보를 기초로 제1 영상 및 나머지 적어도 하나의 제2 영상들을 배열하며, 확대된 제1 영상 위에 적어도 하나의 제2 영상을 오버레이할 수 있다.
이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPA(field programmable array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.

Claims (20)

  1. 복수의 카메라들이 설치된 공간 내에서, 상기 복수의 카메라들에 의해 촬영되는 영상들의 공간적인 배치를 나타내는 상기 영상들의 공간 연결 정보를 저장하는 단계;
    상기 영상들 중 제1 영상의 선택을 수신하는 단계; 및
    상기 공간 연결 정보를 기초로 상기 제1 영상 및 상기 영상들 중 상기 제1 영상을 제외한 적어도 하나의 나머지 제2 영상을 배열하는 단계
    를 포함하고,
    상기 배열하는 단계는 상기 제1 영상이 나타내는 실제 좌표 및 상기 적어도 하나의 나머지 제2 영상이 나타내는 실제 좌표에 기반하여 상기 제1 영상을 기준으로 상기 제2 영상을 배열하고,
    상기 공간 연결 정보는 상기 제1 영상이 나타내는 실제 좌표 및 상기 적어도 하나의 나머지 제2 영상이 나타내는 실제 좌표를 포함하는 영상 모니터링 시스템에서 영상 제공 방법.
  2. 제1항에 있어서,
    상기 공간 연결 정보는
    상기 복수의 카메라들 각각의 설치 위치, 상기 복수의 카메라들 각각의 시선 또는 시야 중 적어도 하나를 기초로 생성되는 정보인 영상 모니터링 시스템에서 영상 제공 방법.
  3. 삭제
  4. 제1항에 있어서,
    상기 복수의 카메라들 각각에 의해 촬영되는 영상에 대응하는 영역의 실제 좌표를 계산하는 단계
    를 더 포함하는 영상 모니터링 시스템에서 영상 제공 방법.
  5. 제1항에 있어서,
    상기 제1 영상 및 상기 적어도 하나의 나머지 제2 영상을 배열하는 단계는
    배열된 영상들 중에서 상기 제1 영상을 중심 영역에 배치하는 단계; 및
    상기 제1 영상의 공간 연결 정보와 상기 적어도 하나의 나머지 제2 영상의 공간 연결 정보를 비교하여 상기 제1 영상 주변에 상기 적어도 하나의 나머지 제2 영상을 배치하는 단계
    를 포함하는 영상 모니터링 시스템에서 영상 제공 방법.
  6. 제5항에 있어서,
    상기 제1 영상 주변에 상기 적어도 하나의 나머지 제2 영상을 배치하는 단계는
    상기 제1 영상의 중심점에서의 좌표에 대응하는 실제 좌표와 상기 적어도 하나의 나머지 제2 영상의 중심점에서의 좌표에 대응하는 실제 좌표를 비교하는 단계
    를 포함하는 영상 모니터링 시스템에서 영상 제공 방법.
  7. 제1항에 있어서,
    상기 공간에 대한 2D(dimensional) 또는 3D의 지도를 입력하는 단계
    를 더 포함하는 영상 모니터링 시스템에서 영상 제공 방법.
  8. 제1항에 있어서,
    상기 공간 연결 정보를 저장하는 단계는
    상기 복수의 카메라들에 의해 촬영되는 영상들 각각에서 중심점에서의 좌표에 대응하는 실제 좌표를 저장하는 단계
    를 포함하는 영상 모니터링 시스템에서 영상 제공 방법.
  9. 제1항에 있어서,
    상기 공간에 대한 지도 상에서 상기 복수의 카메라들 각각에 의해 촬영되는 영상을 디스플레이하는 단계
    를 더 포함하는 영상 모니터링 시스템에서 영상 제공 방법.
  10. 제1항에 있어서,
    상기 제1 영상을 확대하는 단계; 및
    상기 확대된 제1 영상 위에 상기 적어도 하나의 나머지 제2 영상을 오버레이하는 단계
    를 포함하는 영상 모니터링 시스템에서 영상 제공 방법.
  11. 제10항에 있어서,
    상기 확대된 제1 영상 위에 상기 적어도 하나의 나머지 제2 영상을 오버레이하는 단계는
    상기 적어도 하나의 나머지 제2 영상의 공간 연결 정보 및 상기 제1 영상의 공간 연결 정보를 비교하여 상기 확대된 제1 영상 위에서 상기 적어도 하나의 제2 영상이 오버레이되는 위치를 결정하는 단계
    를 더 포함하는 영상 모니터링 시스템에서 영상 제공 방법.
  12. 제10항에 있어서,
    상기 공간 연결 정보에 기초하여 상기 제1 영상으로부터 상기 적어도 하나의 나머지 제2 영상으로의 방향을 추출하는 단계; 및
    상기 방향을 나타내는 화살표를 상기 제1 영상 상에 더 디스플레이하는 단계
    를 더 포함하는 영상 모니터링 시스템에서 영상 제공 방법.
  13. 제12항에 있어서,
    상기 방향을 나타내는 화살표를 상기 제1 영상 상에 더 디스플레이하는 단계는
    상기 적어도 하나의 나머지 제2 영상 상에서 마우스 오버가 발생하면, 상기 방향을 나타내는 화살표를 상기 제1 영상 상에 더 디스플레이하는 단계인 영상 모니터링 시스템에서 영상 제공 방법.
  14. 제1항에 있어서,
    상기 제1 영상은 상기 영상들 중 선택된 임의의 영상이고, 상기 적어도 하나의 나머지 제2 영상은 상기 선택된 임의의 영상과 구별되는 영상인 영상 모니터링 시스템에서 영상 제공 방법.
  15. 제1항, 제2항 및 제4항 내지 제14항 중 어느 한 항의 방법을 수행하기 위한 프로그램이 기록된 컴퓨터로 판독 가능한 기록 매체.
  16. 영상 모니터링 시스템에서,
    복수의 카메라들;
    영상 분석 장치; 및
    영상 표시장치
    를 포함하고
    상기 영상 분석 장치는 상기 복수의 카메라들에 의해 촬영되는 영상들의 공간적인 배치를 나타내는 상기 영상들의 공간 연결 정보를 저장하고, 상기 영상들 중 제1 영상의 선택을 수신하며, 상기 제1 영상을 확대하고,
    상기 영상 표시 장치는 상기 공간에 대한 지도 상에서 상기 복수의 카메라들 각각에 의해 촬영되는 영상을 디스플레이하고, 상기 공간 연결 정보를 기초로 상기 제1 영상 및 상기 영상들 중 상기 제1 영상을 제외한 적어도 하나의 나머지 제2 영상을 배열하며, 상기 확대된 제1 영상 위에 상기 적어도 하나의 나머지 제2 영상을 오버레이하고,
    상기 영상 표시장치는 상기 제1 영상이 나타내는 실제 좌표 및 상기 적어도 하나의 나머지 제2 영상이 나타내는 실제 좌표에 기반하여 상기 제1 영상을 기준으로 상기 제2 영상을 배열하고,
    상기 공간 연결 정보는 상기 제1 영상이 나타내는 실제 좌표 및 상기 적어도 하나의 나머지 제2 영상이 나타내는 실제 좌표를 포함하는 영상 모니터링 시스템.
  17. 제16항에 있어서,
    상기 영상 표시 장치는
    배열된 영상들 중에서 상기 제1 영상을 중심 영역에 배치하고, 상기 제1 영상의 공간 연결 정보와 상기 적어도 하나의 나머지 제2 영상의 공간 연결 정보를 비교하여 상기 제1 영상 주변에 상기 적어도 하나의 나머지 제2 영상을 배치하는 영상 모니터링 시스템.
  18. 제17항에 있어서,
    상기 영상 표시 장치는
    상기 제1 영상에서 중심점에서의 좌표에 대응하는 실제 좌표와 상기 적어도 하나의 나머지 제2 영상에서 중심점에서의 좌표에 대응하는 실제 좌표를 비교하는 영상 모니터링 시스템.
  19. 제16항에 있어서,
    상기 영상 분석 장치는
    상기 복수의 카메라들 각각에 의해 촬영되는 영상에 대응하는 영역의 실제 좌표를 계산하고, 상기 복수의 카메라들에 의해 촬영되는 영상들 각각에서 중심점에서의 좌표에 대응하는 실제 좌표를 저장하는 영상 모니터링 시스템.
  20. 제16항에 있어서,
    상기 영상 표시 장치는
    상기 적어도 하나의 나머지 제2 영상의 공간 연결 정보 및 상기 제1 영상의 공간 연결 정보를 비교하여 상기 확대된 제1 영상 위에서 상기 적어도 하나의 제2 영상이 오버레이되는 위치를 결정하는 영상 모니터링 시스템.
KR1020130010467A 2013-01-30 2013-01-30 영상 모니터링 시스템에서 영상 제공 방법 및 시스템 KR101467663B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020130010467A KR101467663B1 (ko) 2013-01-30 2013-01-30 영상 모니터링 시스템에서 영상 제공 방법 및 시스템
US14/058,786 US20140211019A1 (en) 2013-01-30 2013-10-21 Video camera selection and object tracking

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130010467A KR101467663B1 (ko) 2013-01-30 2013-01-30 영상 모니터링 시스템에서 영상 제공 방법 및 시스템

Publications (2)

Publication Number Publication Date
KR20140097844A KR20140097844A (ko) 2014-08-07
KR101467663B1 true KR101467663B1 (ko) 2014-12-01

Family

ID=51222518

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130010467A KR101467663B1 (ko) 2013-01-30 2013-01-30 영상 모니터링 시스템에서 영상 제공 방법 및 시스템

Country Status (2)

Country Link
US (1) US20140211019A1 (ko)
KR (1) KR101467663B1 (ko)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150312535A1 (en) * 2014-04-23 2015-10-29 International Business Machines Corporation Self-rousing surveillance system, method and computer program product
KR102183904B1 (ko) * 2014-10-14 2020-11-27 한화테크윈 주식회사 실내위치인식기반 보안관리장치 및 방법
US10687022B2 (en) * 2014-12-05 2020-06-16 Avigilon Fortress Corporation Systems and methods for automated visual surveillance
US9237307B1 (en) * 2015-01-30 2016-01-12 Ringcentral, Inc. System and method for dynamically selecting networked cameras in a video conference
US9996749B2 (en) * 2015-05-29 2018-06-12 Accenture Global Solutions Limited Detecting contextual trends in digital video content
US11082666B1 (en) 2015-12-03 2021-08-03 Amazon Technologies, Inc. In-content security camera data streaming
US10491864B1 (en) 2015-12-03 2019-11-26 Amazon Technologies, Inc. In-content security camera data streaming
US10455198B1 (en) * 2015-12-03 2019-10-22 Amazon Technologies, Inc. In-content security camera data streaming
US11258985B2 (en) * 2016-04-05 2022-02-22 Verint Systems Inc. Target tracking in a multi-camera surveillance system
US10489659B2 (en) 2016-09-07 2019-11-26 Verint Americas Inc. System and method for searching video
US10397662B1 (en) * 2017-05-04 2019-08-27 Amazon Technologies, Inc. Generating live broadcasts of product usage from multiple users
GB2569573A (en) * 2017-12-20 2019-06-26 Canon Kk Video surveillance method and system
KR102454920B1 (ko) * 2018-03-29 2022-10-14 한화테크윈 주식회사 감시 시스템 및 그 동작 방법
US10594987B1 (en) * 2018-05-30 2020-03-17 Amazon Technologies, Inc. Identifying and locating objects by associating video data of the objects with signals identifying wireless devices belonging to the objects

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1066062A (ja) * 1996-08-20 1998-03-06 Fujitsu General Ltd 多画面表示システム
KR100757261B1 (ko) * 2005-07-08 2007-09-11 전자부품연구원 다중 시야 추적 방법 및 추적 시스템
KR100862398B1 (ko) * 2008-07-18 2008-10-13 한국비전기술(주) 다중 카메라를 이용한 방범용 씨씨티브이 기능을 갖는 불법주정차 무인 자동 단속방법 및 그 시스템
KR20100138832A (ko) * 2009-06-23 2010-12-31 꼼미사리아 아 레네르지 아토미끄 에뜨 옥스 에너지스 앨터네이티브즈 표시장치, 표시방법 및 표시방법을 위한 기록매체
KR20110121056A (ko) * 2010-04-30 2011-11-07 주식회사 아이티엑스시큐리티 디브이알 및 그 영상 감시방법
KR101084597B1 (ko) * 2011-03-30 2011-11-17 (주)리얼허브 감시카메라의 실시간 영상 관제 방법
JP4829290B2 (ja) * 2005-03-25 2011-12-07 センサーマティック・エレクトロニクス・エルエルシー インテリジェントなカメラ選択および対象追跡
KR20120098649A (ko) * 2009-10-28 2012-09-05 프라운호퍼-게젤샤프트 츄어 푀르더룽 데어 안게반텐 포르슝에.파우. 캘리브레이션된 투사를 생성하기 위한 방법 및 장치
KR101212082B1 (ko) * 2011-04-04 2012-12-13 주식회사 아이티엑스시큐리티 영상인식장치 및 그 영상 감시방법

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9298986B2 (en) * 2011-12-09 2016-03-29 Gameonstream Inc. Systems and methods for video processing

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1066062A (ja) * 1996-08-20 1998-03-06 Fujitsu General Ltd 多画面表示システム
JP4829290B2 (ja) * 2005-03-25 2011-12-07 センサーマティック・エレクトロニクス・エルエルシー インテリジェントなカメラ選択および対象追跡
KR100757261B1 (ko) * 2005-07-08 2007-09-11 전자부품연구원 다중 시야 추적 방법 및 추적 시스템
KR100862398B1 (ko) * 2008-07-18 2008-10-13 한국비전기술(주) 다중 카메라를 이용한 방범용 씨씨티브이 기능을 갖는 불법주정차 무인 자동 단속방법 및 그 시스템
KR20100138832A (ko) * 2009-06-23 2010-12-31 꼼미사리아 아 레네르지 아토미끄 에뜨 옥스 에너지스 앨터네이티브즈 표시장치, 표시방법 및 표시방법을 위한 기록매체
KR20120098649A (ko) * 2009-10-28 2012-09-05 프라운호퍼-게젤샤프트 츄어 푀르더룽 데어 안게반텐 포르슝에.파우. 캘리브레이션된 투사를 생성하기 위한 방법 및 장치
KR20110121056A (ko) * 2010-04-30 2011-11-07 주식회사 아이티엑스시큐리티 디브이알 및 그 영상 감시방법
KR101084597B1 (ko) * 2011-03-30 2011-11-17 (주)리얼허브 감시카메라의 실시간 영상 관제 방법
KR101212082B1 (ko) * 2011-04-04 2012-12-13 주식회사 아이티엑스시큐리티 영상인식장치 및 그 영상 감시방법

Also Published As

Publication number Publication date
US20140211019A1 (en) 2014-07-31
KR20140097844A (ko) 2014-08-07

Similar Documents

Publication Publication Date Title
KR101467663B1 (ko) 영상 모니터링 시스템에서 영상 제공 방법 및 시스템
JP6203406B2 (ja) 拡張現実環境内の平面の広がりを判定するためのシステムおよび方法
US10445887B2 (en) Tracking processing device and tracking processing system provided with same, and tracking processing method
US9953618B2 (en) Using a plurality of sensors for mapping and localization
US10171794B2 (en) Method for selecting cameras and image distribution system capable of appropriately selecting cameras
US9805509B2 (en) Method and system for constructing a virtual image anchored onto a real-world object
US9807310B2 (en) Field display system, field display method, and field display program
JP2011146796A5 (ko)
CN106463032A (zh) 利用方向感应的入侵检测
JP2020536431A5 (ko)
KR102303779B1 (ko) 복수 영역 검출을 이용한 객체 탐지 방법 및 그 장치
JP6768123B2 (ja) 拡張現実方法及び装置
CN108629799B (zh) 一种实现增强现实的方法及设备
JP2012083157A (ja) 屋外地物検知システム、屋外地物検知システム用プログラム、および屋外地物検知システム用プログラムの記録媒体
US20180020203A1 (en) Information processing apparatus, method for panoramic image display, and non-transitory computer-readable storage medium
US20180005036A1 (en) Cluster based photo navigation
JP2015079433A5 (ko)
KR102344227B1 (ko) 동체 검출 장치, 동체 검출 방법, 동체 검출 프로그램
JP6593922B2 (ja) 画像監視システム
JP5574551B2 (ja) 画像処理装置および画像処理方法
US11729494B2 (en) Information processing apparatus, control method therefor, and storage medium
KR20140061164A (ko) 깊이 영상을 이용한 손 검출 장치 및 방법
JP7056342B2 (ja) ガス検知用画像処理装置、ガス検知用画像処理方法、及び、ガス検知用画像処理プログラム
JP5960471B2 (ja) 画像監視装置
JP2017028688A (ja) 画像管理装置、画像管理方法及びプログラム

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20171011

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20181008

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20191007

Year of fee payment: 6