KR20230007792A - 클라우드 서버, 시스템 및 그 제어 방법 - Google Patents

클라우드 서버, 시스템 및 그 제어 방법 Download PDF

Info

Publication number
KR20230007792A
KR20230007792A KR1020210088549A KR20210088549A KR20230007792A KR 20230007792 A KR20230007792 A KR 20230007792A KR 1020210088549 A KR1020210088549 A KR 1020210088549A KR 20210088549 A KR20210088549 A KR 20210088549A KR 20230007792 A KR20230007792 A KR 20230007792A
Authority
KR
South Korea
Prior art keywords
image
client device
images
received
cloud server
Prior art date
Application number
KR1020210088549A
Other languages
English (en)
Inventor
산지브 바
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020210088549A priority Critical patent/KR20230007792A/ko
Publication of KR20230007792A publication Critical patent/KR20230007792A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/222Secondary servers, e.g. proxy server, cable television Head-end
    • H04N21/2223Secondary servers, e.g. proxy server, cable television Head-end being a public access point, e.g. for downloading to or uploading from clients
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/242Synchronization processes, e.g. processing of PCR [Program Clock References]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/47202End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for requesting content on demand, e.g. video on demand
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20132Image cropping

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Human Computer Interaction (AREA)
  • Image Processing (AREA)

Abstract

복수의 보안 카메라와 통신하는 클라우드 서버가 개시된다. 클라우드 서버는 통신 인터페이스, 메모리 및 통신 인터페이스를 통해 복수의 보안 카메라로부터 복수의 이미지가 수신되면 수신된 복수의 이미지를 메모리에 저장하고, 수신된 복수의 이미지 각각에 포함된 동기화 정보에 기초하여 복수의 이미지 중 적어도 일부 이미지를 포함하는 합성 이미지를 획득하여 메모리에 저장하고, 클라이언트 기기로부터 합성 이미지와 관련된 요청이 수신되면 합성 이미지와 관련된 정보를 통신 인터페이스를 통해 클라이언트 기기로 전송하는 프로세서를 포함할 수 있다.

Description

클라우드 서버, 시스템 및 그 제어 방법{CLOWD SERVER, SYSTEM COMPRISING CLOWD SERVER AND CLIENT DEVICE AND CONTROLLING METHOD THEREOF}
본 발명은 보안 카메라로부터 획득된 이미지를 처리하는 클라우드 서버, 시스템 및 그 제어 방법에 관한 것이다.
최근 실내 공간을 촬영하는 보안 카메라의 보급이 활발해지고 있다. 사용자는 복수의 보안 카메라로부터 획득된 복수의 이미지를 제공받을 수 있으며, 이를 위해 클라우드 서버는 보안 카메라로부터 획득된 이미지를 처리하여 클라이언트 기기로 전송할 수 있다. 그러나, 사용자가 보안 카메라로부터 획득된 이미지를 제공받기 위해서는 각 카메라에 대응되는 복수의 요청을 해야만 하는 불편함이 있었으며, 각 카메라로부터 획득된 이미지의 제공과 관련된 프로토콜(Protocol)이 상이할 수 있어 클라우드 서버가 사용자가 보내온 복수의 요청을 처리하는 데 있어 높은 서버 트래픽(Server Traffic)이 발생하는 문제점이 있었다.
이에 따라 복수의 보안 카메라로부터 획득된 이미지와 관련된 단일한 합성 이미지를 획득하여 사용자가 요청한 이미지를 클라이언트 기기에 제공할 수 있는 클라우드 서버에 대한 지속적인 요구가 있었다.
본 개시는 상술한 필요성에 따른 것으로, 복수의 보안 카메라로부터 획득된 이미지에 기초하여 합성 이미지를 획득하고, 합성 이미지와 관련된 정보를 클라이언트 기기로 전송하는 클라우드 서버, 시스템 및 그 제어 방법을 제공함에 있다.
이상과 같은 목적을 달성하기 위한 본 발명의 일 실시 예에 따른 클라우드 서버는, 통신 인터페이스, 메모리 및 상기 통신 인터페이스를 통해 상기 복수의 보안 카메라로부터 복수의 이미지가 수신되면, 상기 수신된 복수의 이미지를 상기 메모리에 저장하고, 상기 수신된 복수의 이미지 각각에 포함된 동기화 정보에 기초하여 상기 복수의 이미지 중 적어도 일부 이미지를 포함하는 합성 이미지를 획득하여 상기 메모리에 저장하고, 클라이언트 기기로부터 상기 합성 이미지와 관련된 요청이 수신되면, 상기 합성 이미지와 관련된 정보를 상기 통신 인터페이스를 통해 상기 클라이언트 기기로 전송하는 프로세서를 포함할 수 있다.
여기서, 상기 프로세서는, 상기 수신된 복수의 이미지 각각에 포함된 동기화 정보에 기초하여 상기 복수의 이미지 중 동일한 시간에 촬영된 적어도 일부 이미지를 식별하고, 상기 클라이언트 기기의 출력 포맷에 기초하여 상기 적어도 일부 이미지의 출력 포맷을 변환하고, 상기 출력 포맷이 변환된 적어도 일부 이미지를 포함하는 합성 이미지를 획득할 수 있다.
또한, 상기 프로세서는, 상기 클라이언트 기기로부터 상기 합성 이미지 중 관심 영역에 대한 정보 요청이 수신되면, 상기 합성 이미지에서 상기 관심 영역에 대응되는 이미지를 크랍핑(cropping)하여 상기 크랍핑된 이미지를 포함하는 정보를 상기 클라이언트 기기로 전송할 수 있다.
또한, 상기 프로세서는, 상기 클라이언트 기기로부터 상기 합성 이미지와 관련된 요청이 수신되면, 상기 요청이 수신된 상기 클라이언트 기기의 출력 포맷에 기초하여 상기 합성 이미지의 출력 포맷을 변환하고, 상기 출력 포맷이 변환된 합성 이미지에 기초하여 상기 합성 이미지와 관련된 정보를 상기 클라이언트 기기로 전송할 수 있다.
또한, 상기 프로세서는, 상기 적어도 일부 이미지에 포함된 카메라 식별 정보에 기초하여 상기 적어도 일부 이미지를 상기 카메라 식별 정보에 대응되는 위치에 배치하여 상기 합성 이미지를 획득하여 상기 클라이언트 기기로 전송하고, 상기 클라이언트 기기로부터 상기 합성 이미지 중 일부 영역에 대응되는 위치 정보가 수신되면, 상기 위치 정보에 대응되는 카메라 식별 정보를 획득하고, 상기 획득된 카메라 식별 정보에 기초하여 합성 이미지를 획득하고, 상기 획득된 합성 이미지를 상기 클라이언트 기기로 전송할 수 있다.
또한, 상기 프로세서는, 상기 적어도 일부 이미지 중 동적 객체를 포함하는 이미지, 상기 적어도 일부 이미지 중 기 설정된 장소에서 촬영된 이미지 또는 상기 적어도 일부 이미지 중 임계 밝기 이상의 이미지 중 적어도 하나를 특정 위치에 배치하여 상기 합성 이미지를 획득할 수 있다.
또한, 상기 프로세서는, 상기 클라이언트 기기로부터 상기 합성 이미지와 관련된 요청이 수신되면, 상기 클라이언트 기기의 위치 정보 및 상기 복수의 보안 카메라 각각의 위치 정보에 기초하여 상기 복수의 보안 카메라 중 상기 클라이언트 기기로부터 임계 거리 내에 위치한 보안 카메라를 식별하고, 상기 합성 이미지에서 상기 식별된 카메라로부터 획득된 이미지 영역을 제외한 나머지 영역의 이미지를 포함하는 정보를 상기 클라이언트 기기로 전송할 수 있다.
한편, 본 발명의 일 실시 예에 따른 클라우드 서버 및 클라이언트 기기를 포함하는 시스템은, 복수의 보안 카메라로부터 복수의 이미지가 수신되면, 상기 수신된 복수의 이미지를 저장하고, 상기 수신된 복수의 이미지 각각에 포함된 동기화 정보에 기초하여 상기 복수의 이미지 중 적어도 일부 이미지를 포함하는 합성 이미지를 획득하여 저장하고, 상기 클라이언트 기기로부터 상기 합성 이미지와 관련된 요청이 수신되면, 상기 합성 이미지와 관련된 정보를 상기 클라이언트 기기로 전송하는 클라우드 서버 및 상기 클라우드 서버로부터 수신된 정보에 포함된 상기 합성 이미지를 디스플레이하고, 상기 합성 이미지에 포함된 관심 영역에 대한 선택 명령이 수신되면, 상기 수신된 선택 명령에 기초하여 상기 합성 이미지를 디스플레이하는 클라이언트 기기를 포함할 수 있다.
여기서, 상기 클라이언트 기기는, 상기 수신된 선택 명령에 기초하여 상기 관심 영역에 대한 정보를 상기 클라우드 서버로 전송하고, 상기 클라우드 서버는, 상기 클라이언트 기기로부터 수신된 상기 관심 영역에 대한 정보에 기초하여 상기 관심 영역을 포함하는 합성 이미지를 처리하고, 상기 처리된 합성 이미지를 상기 클라이언트 기기로 전송하며, 상기 클라이언트 기기는, 상기 클라우드 서버로부터 수신된 상기 처리된 합성 이미지를 디스플레이할 수 있다.
또한, 상기 클라이언트 기기는, 상기 수신된 선택 명령에 기초하여 상기 합성 이미지를 처리하고, 상기 처리된 합성 이미지를 디스플레이할 수 있다.
한편, 본 발명의 일 실시 예에 따른 클라우드 서버의 제어 방법은, 복수의 보안 카메라로부터 복수의 이미지가 수신되면 상기 수신된 복수의 이미지를 저장하는 단계, 상기 수신된 복수의 이미지 각각에 포함된 동기화 정보에 기초하여 상기 복수의 이미지 중 적어도 일부 이미지를 포함하는 합성 이미지를 획득하여 저장하는 단계 및 클라이언트 기기로부터 상기 합성 이미지와 관련된 요청이 수신되면, 상기 합성 이미지와 관련된 정보를 상기 클라이언트 기기로 전송하는 단계를 포함할 수 있다.
여기서, 상기 합성 이미지를 획득하여 저장하는 단계는, 상기 수신된 복수의 이미지 각각에 포함된 동기화 정보에 기초하여 상기 복수의 이미지 중 동일한 시간에 촬영된 적어도 일부 이미지를 식별하는 단계 및 상기 클라이언트 기기의 출력 포맷에 기초하여 상기 적어도 일부 이미지의 출력 포맷을 변환하고, 상기 출력 포맷이 변환된 적어도 일부 이미지를 포함하는 합성 이미지를 획득하는 단계를 포함할 수 있다.
또한, 상기 전송하는 단계는, 상기 클라이언트 기기로부터 상기 합성 이미지 중 관심 영역에 대한 정보 요청이 수신되면, 상기 합성 이미지에서 상기 관심 영역에 대응되는 이미지를 크랍핑(cropping)하여 상기 크랍핑된 이미지를 포함하는 정보를 상기 클라이언트 기기로 전송할 수 있다.
또한, 상기 전송하는 단계는, 상기 클라이언트 기기로부터 상기 합성 이미지와 관련된 요청이 수신되면, 상기 요청이 수신된 상기 클라이언트 기기의 출력 포맷에 기초하여 상기 합성 이미지의 출력 포맷을 변환하고, 상기 출력 포맷이 변환된 합성 이미지에 기초하여 상기 합성 이미지와 관련된 정보를 상기 클라이언트 기기로 전송할 수 있다.
또한, 상기 합성 이미지를 획득하여 저장하는 단계는, 상기 적어도 일부 이미지에 포함된 카메라 식별 정보에 기초하여 상기 적어도 일부 이미지를 상기 카메라 식별 정보에 대응되는 위치에 배치하여 상기 합성 이미지를 획득하는 단계, 상기 클라이언트 기기로부터 상기 합성 이미지 중 일부 영역에 대응되는 위치 정보가 수신되면, 상기 위치 정보에 대응되는 카메라 식별 정보를 획득하는 단계 및 상기 획득된 카메라 식별 정보에 기초하여 합성 이미지를 획득하는 단계를 포함할 수 있다.
또한, 상기 합성 이미지를 획득하여 저장하는 단계는, 상기 적어도 일부 이미지 중 동적 객체를 포함하는 이미지, 상기 적어도 일부 이미지 중 기 설정된 장소에서 촬영된 이미지 또는 상기 적어도 일부 이미지 중 임계 밝기 이상의 이미지 중 적어도 하나를 특정 위치에 배치하여 상기 합성 이미지를 획득할 수 있다.
또한, 상기 전송하는 단계는, 상기 클라이언트 기기로부터 상기 합성 이미지와 관련된 요청이 수신되면, 상기 클라이언트 기기의 위치 정보 및 상기 복수의 보안 카메라 각각의 위치 정보에 기초하여 상기 복수의 보안 카메라 중 상기 클라이언트 기기로부터 임계 거리 내에 위치한 보안 카메라를 식별하는 단계 및 상기 합성 이미지에서 상기 식별된 카메라로부터 획득된 이미지 영역을 제외한 나머지 영역의 이미지를 포함하는 정보를 상기 클라이언트 기기로 전송하는 단계를 포함할 수 있다.
본 개시의 다양한 실시 예에 따르면, 클라우드 서버는 복수의 보안 카메라로부터 획득된 이미지와 관련된 단일한 합성 이미지를 획득하고 사용자가 요청한 이미지를 클라이언트 기기로 제공할 수 있으므로 사용자의 편의성이 향상된다.
도 1은 본 개시의 일 실시 예에 따른 클라우드 서버의 동작을 개략적으로 설명하기 위한 도면이다.
도 2는 본 개시의 일 실시 예에 따른 클라우드 서버의 구성을 설명하기 위한 블록도이다.
도 3은 본 개시의 일 실시 예에 따른 합성 이미지 획득 동작을 개략적으로 설명하기 위한 도면이다.
도 4는 본 개시의 일 실시 예에 따른 동기화 정보에 기초하여 합성 이미지를 획득하는 동작을 설명하기 위한 도면이다.
도 5a 및 도 5b는 본 개시의 일 실시 예에 따른 이미지의 출력 포맷 변환에 따른 합성 이미지 획득 동작을 설명하기 위한 도면이다.
도 6은 본 개시의 일 실시 예에 따른 합성 이미지의 일부를 클라이언트 기기로 제공하는 동작을 설명하기 위한 도면이다.
도 7은 본 개시의 다른 실시 예에 따른 합성 이미지의 획득 동작을 설명하기 위한 도면이다.
도 8은 본 개시의 일 실시 예에 따른 클라이언트 기기의 및 복수의 보안 카메라의 위치 정보에 기초하여 합성 이미지를 획득하는 동작을 설명하기 위한 도면이다.
도 9는 본 개시의 일 실시 예에 따른 제어 방법을 설명하기 위한 흐름도이다.
도 10은 본 개시의 일 실시 예에 따른 클라우드 서버와 클라이언트 기기가 연동하여 합성 이미지를 제공하는 실시 예를 설명하기 위한 시퀀스도이다.
이하에서는 첨부 도면을 참조하여 본 개시를 상세히 설명한다.
본 개시의 실시 예에서 사용되는 용어는 본 개시에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 개시의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 개시에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 개시의 전반에 걸친 내용을 토대로 정의되어야 한다.
본 개시에서, "가진다," "가질 수 있다," "포함한다," 또는 "포함할 수 있다" 등의 표현은 해당 특징(예: 수치, 기능, 동작, 또는 부품 등의 구성요소)의 존재를 가리키며, 추가적인 특징의 존재를 배제하지 않는다.
A 또는/및 B 중 적어도 하나라는 표현은 "A" 또는 "B" 또는 "A 및 B" 중 어느 하나를 나타내는 것으로 이해되어야 한다.
본 개시에서 사용된 "제1," "제2," "첫째," 또는 "둘째,"등의 표현들은 다양한 구성요소들을, 순서 및/또는 중요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다.
어떤 구성요소(예: 제1 구성요소)가 다른 구성요소(예: 제2 구성요소)에 "(기능적으로 또는 통신적으로) 연결되어((operatively or communicatively) coupled with/to)" 있다거나 "접속되어(connected to)" 있다고 언급된 때에는, 어떤 구성요소가 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제3 구성요소)를 통하여 연결될 수 있다고 이해되어야 할 것이다.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "구성되다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
본 개시에서 "모듈" 혹은 "부"는 적어도 하나의 기능이나 동작을 수행하며, 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다. 또한, 복수의 "모듈" 혹은 복수의 "부"는 특정한 하드웨어로 구현될 필요가 있는 "모듈" 혹은 "부"를 제외하고는 적어도 하나의 모듈로 일체화되어 적어도 하나의 프로세서(미도시)로 구현될 수 있다.
본 개시에서 사용자라는 용어는 클라이언트 기기를 사용하는 사람을 지칭할 수 있다.
도 1은 본 개시의 일 실시 예에 따른 클라우드 서버의 동작을 개략적으로 설명하기 위한 도면이다.
도 1에 따르면 클라우드 서버(100)는 복수의 보안 카메라(11, 12, 13, 14)와 통신하며, 복수의 보안 카메라(11, 12, 13, 14)로부터 획득된 이미지를 클라이언트 기기(201, 202, 203, 204)에 제공할 수 있다.
복수의 보안 카메라(11, 12, 13, 14)는 기 설정된 화각(Field of View; FoV) 내에 영역에 대한 촬영을 수행하여 이미지를 획득할 수 있다. 복수의 보안 카메라(11, 12, 13, 14)는 오브젝트에 의해 반사되어 수신되는 가시광 기타 광학 신호를 이미지 센서로 포커싱하는 렌즈 및 가시광 기타 광학 신호를 감지할 수 있는 이미지 센서를 포함할 수 있다. 여기서, 이미지 센서는 복수의 픽셀로 구분되는 2D의 픽셀 어레이(Array)를 포함할 수 있다.
클라이언트 기기(201, 202, 203, 204)는 스마트폰, 태블릿 PC, 이동 전화기, 영상 전화기, 전자책 리더기, 데스크탑 PC, 랩탑 PC, 넷북 컴퓨터, 워크스테이션, 서버, PDA, PMP(portable multimedia player), MP3 플레이어, 카메라, 또는 웨어러블 장치 등으로 구현될 수 있으나, 이에 한정되는 것은 아니며 이미지를 표시하기 위한 디스플레이를 구비하고 있는 전자 장치라면 어떠한 유형의 기기라도 클라이언트 기기로 사용될 수 있다.
클라이언트 기기는 특정 보안 카메라로부터 획득된 이미지의 제공을 위한 요청을 클라우드 서버(100)로 전송할 수 있으며, 클라우드 서버(100)는 클라이언트 기기로부터 수신된 요청에 기초하여 특정 보안 카메라로부터 획득된 이미지와 관련된 정보를 요청이 수신된 클라이언트 기기로 전송할 수 있다.
예를 들어, 클라이언트 기기 중 거실에 위치한 TV(201)에서 주방을 촬영하는 보안 카메라(13)로부터 획득된 이미지를 제공 받기 위해서는 TV(201)는 클라우드 서버(100)로 보안 카메라(13)로부터 획득된 이미지의 제공과 관련된 요청을 전송할 수 있다.
그러나 복수의 보안 카메라(11, 12, 13, 14)가 획득한 이미지가 서로 상이한 타입의 이미지일 수 있으므로, 클라이언트 기기가 복수의 보안 카메라(11, 12, 13, 14)로부터 획득된 이미지를 제공받기 위해서는 서로 상이한 타입의 이미지의 처리와 관련된 개별적인 요청을 전송해야 할 수 있다.
여기서, 클라우드 서버(100)는 복수의 상이한 프로토콜에 따라 개별적인 요청을 수신할 수도 있으나, RESTful API(Representational State Transfer Application Programming Interface)에 따라 개별적인 요청을 수신할 수도 있다. 클라우드 서버(100)가 복수의 상이한 프로토콜에 또는 API에 따라 개별적인 요청을 수신하는 경우 복수의 요청을 수신하는 과정에서 과도한 서버 트래픽(Server Traffic) 또는 연산 부담이 발생할 수 있다.
서버 트래픽과 연산 부담을 감소시키기 위하여, 본 개시의 일 실시 예에 따른 클라우드 서버(100)는 서로 상이한 타입의 이미지를 합성하여 단일한 합성 이미지를 획득하고, 합성 이미지에 포함된 일 영역에 대응되는 이미지와 관련한 요청을 클라이언트 기기로부터 수신하여 적어도 하나의 보안 카메라로부터 획득된 이미지를 클라이언트 기기로 제공할 수 있다.
이하에서는, 복수의 보안 카메라로부터 획득된 이미지를 포함하는 합성 이미지를 획득하여 클라이언트 기기로 전송할 수 있는 다양한 실시 예에 대해 좀더 구체적으로 설명하도록 한다.
도 2는 본 개시의 일 실시 예에 따른 클라우드 서버의 구성을 설명하기 위한 블록도이다.
도 2에 따르면 클라우드 서버(100)는 통신 인터페이스(110), 메모리(120) 및 프로세서(130)를 포함할 수 있다. 다만, 도 2에 도시된 구성은 본 개시의 실시 예들을 구현하기 위한 예시도이며, 통상의 기술자에게 자명한 수준의 적절한 하드웨어 및 소프트웨어 구성들이 클라우드 서버(100)에 추가로 포함될 수 있다.
통신 인터페이스(110)는 다양한 타입의 데이터를 입력 및 출력할 수 있다. 예를 들어 통신 인터페이스(110)는 AP 기반의 Wi-Fi(와이파이, Wireless LAN 네트워크), 블루투스(Bluetooth), 지그비(Zigbee), 유/무선 LAN(Local Area Network), WAN(Wide Area Network), 이더넷(Ethernet), IEEE 1394, HDMI(High-Definition Multimedia Interface), USB(Universal Serial Bus), MHL(Mobile High-Definition Link), AES/EBU(Audio Engineering Society/ European Broadcasting Union), 옵티컬(Optical), 코액셜(Coaxial) 등과 같은 통신 방식을 통해 외부 장치(예를 들어, 소스 장치), 외부 저장 매체(예를 들어, USB 메모리), 외부 서버(예를 들어 웹 하드)와 다양한 타입의 데이터를 송수신할 수 있다.
메모리(120)는 본 개시의 다양한 실시 예를 위해 필요한 데이터를 저장할 수 있다. 메모리(120)는 데이터 저장 용도에 따라 클라우드 서버 (100)에 임베디드된 메모리 형태로 구현되거나, 클라우드 서버 (100)에 탈부착이 가능한 메모리 형태로 구현될 수도 있다. 예를 들어, 클라우드 서버 (100)의 구동을 위한 데이터의 경우 클라우드 서버 (100)에 임베디드된 메모리에 저장되고, 클라우드 서버 (100)의 확장 기능을 위한 데이터의 경우 클라우드 서버 (100)에 탈부착이 가능한 메모리에 저장될 수 있다. 한편, 클라우드 서버 (100)에 임베디드된 메모리의 경우 휘발성 메모리(예: DRAM(dynamic RAM), SRAM(static RAM), 또는 SDRAM(synchronous dynamic RAM) 등), 비휘발성 메모리(non-volatile Memory)(예: OTPROM(one time programmable ROM), PROM(programmable ROM), EPROM(erasable and programmable ROM), EEPROM(electrically erasable and programmable ROM), mask ROM, flash ROM, 플래시 메모리(예: NAND flash 또는 NOR flash 등), 하드 드라이브, 또는 솔리드 스테이트 드라이브(solid state drive(SSD)) 중 적어도 하나로 구현될 수 있다. 또한, 클라우드 서버 (100)에 탈부착이 가능한 메모리의 경우 메모리 카드(예를 들어, CF(compact flash), SD(secure digital), Micro-SD(micro secure digital), Mini-SD(mini secure digital), xD(extreme digital), MMC(multi-media card) 등), USB 포트에 연결가능한 외부 메모리(예를 들어, USB 메모리) 등과 같은 형태로 구현될 수 있다.
프로세서(130)는 클라우드 서버(100)의 동작을 전반적으로 제어한다. 구체적으로, 프로세서(130)는 클라우드 서버(100)의 각 구성과 연결되어 클라우드 서버 (100)의 동작을 전반적으로 제어할 수 있다. 예를 들어, 프로세서(130)는 통신 인터페이스(110) 및 메모리(120)와 연결되어 클라우드 서버 (100)의 동작을 제어할 수 있다.
일 실시 예에 따라 프로세서(130)는 디지털 시그널 프로세서(digital signal processor(DSP), 마이크로 프로세서(microprocessor), 중앙처리장치(central processing unit(CPU)), MCU(Micro Controller Unit), MPU(micro processing unit), NPU(Neural Processing Unit), 컨트롤러(controller), 어플리케이션 프로세서(application processor(AP)) 등 다양한 이름으로 명명될 수 있으나, 본 명세서에서는 프로세서(130)로 기재한다.
프로세서(130)는 SoC(System on Chip), LSI(large scale integration)로 구현될 수도 있고, FPGA(Field Programmable gate array) 형태로 구현될 수도 있다. 또한, 프로세서(130)는 SRAM 등의 휘발성 메모리를 포함할 수 있다.
본 개시의 일 실시 예에 따른 프로세서(130)는 통신 인터페이스(110)를 통해 복수의 보안 카메라로부터 복수의 이미지가 수신되면 수신된 복수의 이미지를 메모리(120)에 저장할 수 있다.
또한, 프로세서(130)는 수신된 복수의 이미지 각각에 포함된 동기화 정보에 기초하여 복수의 이미지 중 적어도 일부 이미지를 포함하는 합성 이미지를 획득하여 메모리(120)에 저장할 수 있다.
동기화 정보란 복수의 이미지에 포함된 각 프레임과 관련된 시간 정보일 수 있다. 일 예에 따른 동기화 정보는 복수의 이미지에 포함된 특정 프레임이 획득된 시점에 관한 정보일 수 있으나, 이에 한정되는 것은 아니다.
프로세서(130)는 클라이언트 기기로부터 합성 이미지와 관련된 요청이 수신되면 합성 이미지와 관련된 정보를 통신 인터페이스(110)를 통해 클라이언트 기기로 전송할 수 있다.
프로세서(130)는 수신된 복수의 이미지 각각에 포함된 동기화 정보에 기초하여 복수의 이미지 중 동일한 시간에 촬영된 적어도 일부 이미지를 식별하고, 클라이언트 기기의 출력 포맷에 기초하여 적어도 일부 이미지의 출력 포맷을 변환할 수 있다. 여기서, 동일한 시간에 촬영된 적어도 일부 이미지를 식별한다고 함은 복수의 이미지에 포함된 복수의 프레임 중에서 동일한 시간에 획득된 적어도 하나의 프레임을 식별하는 것을 의미할 수 있다.
클라이언트 기기의 출력 포맷은 클라이언트 기기를 통해 제공될 이미지의 타입, 이미지의 해상도 또는 이미지의 프레임 레이트(Frame rate) 중 적어도 하나를 포함할 수 있다.
또한, 프로세서(130)는 클라이언트 기기로부터 합성 이미지 중 관심 영역에 대한 요청이 수신되면 합성 이미지에서 관심 영역에 대응되는 이미지를 크랍핑(cropping)하여 크랍핑된 이미지를 포함하는 정보를 클라이언트 기기로 전송할 수 있다.
합성 이미지 중 관심 영역이란 합성 이미지에 포함된 일 영역 중 임계 수치 이상의 보안상 중요도를 갖는 영역을 의미할 수 있다. 일 예에 따른 관심 영역은 사용자가 클라이언트 기기를 제어함으로써 선택된 영역이거나 클라이언트 기기에 저장된 알고리즘에 따라 결정된 영역일 수 있다.
또한, 관심 영역은 복수의 보안 카메라 중 적어도 하나의 카메라로부터 획득된 이미지가 포함된 영역 또는 해당 영역 중 관심 오브젝트가 위치하는 일부 영역을 포함할 수 있다. 관심 영역은 사각형 형태를 가질 수 있으나, 이에 한정되는 것은 아니다.
크랍핑이란 합성 이미지에 포함된 관심 영역에 포함된 이미지를 포함하는 정보를 획득하는 동작을 의미한다. 구체적으로 프로세서(130)는 관심 영역에 포함된 이미지를 포함하는 이미지 정보를 획득하고, 획득된 이미지 정보 및 이미지 정보의 제공과 관련된 UI(User Interface)정보를 클라이언트 기기로 전송하도록 통신 인터페이스(110)를 제어할 수 있다.
일 예에 따른 프로세서(130)는 클라이언트 기기로부터 합성 이미지와 관련된 요청이 수신되면 요청이 수신된 클라이언트 기기의 출력 포맷에 기초하여 합성 이미지의 출력 포맷을 변환할 수 있다. 구체적으로, 클라이언트 기기는 클라우드 서버(100)로부터 제공받을 합성 이미지의 타입, 이미지의 해상도 또는 이미지의 프레임 레이트 중 적어도 하나와 관련된 요청을 클라우드 서버(100)로 전송할 수 있다.
예를 들어, 프로세서(130)가 획득한 합성 이미지가 1080p의 해상도와 120fps의 프레임 레이트를 가지는 경우 클라이언트 기기로부터 720p의 해상도와 60fps의 프레임 레이트를 가지는 합성 이미지를 제공받기 위한 요청이 수신되면, 프로세서(130)는 메모리(120)에 저장된 합성 이미지가 720p의 해상도 및 60fps의 프레임 레이트를 갖도록 합성 이미지의 출력 포맷을 변환할 수 있다.
또한, 프로세서(130)는 출력 포맷이 변환된 합성 이미지에 기초하여 합성 이미지와 관련된 정보를 클라이언트 기기로 전송할 수 있다.
프로세서(130)는 적어도 일부 이미지에 포함된 카메라 식별 정보에 기초하여 적어도 일부 이미지를 카메라 식별 정보에 대응되는 위치에 배치하여 합성 이미지를 획득하고, 획득된 합성 이미지를 클라이언트 기기로 전송할 수 있다.
또한, 프로세서(130)는 클라이언트 기기로부터 합성 이미지 중 일부 영역에 대응되는 위치 정보가 수신되면 위치 정보에 대응되는 카메라 식별 정보를 획득하고, 획득된 카메라 식별 정보에 기초하여 합성 이미지를 획득하고 획득된 합성 이미지를 클라이언트 기기로 전송할 수 있다.
프로세서(130)는 복수의 보안 카메라로부터 획득된 복수의 이미지 중 일정한 조건을 충족하는 이미지만을 조합하여 합성 이미지를 획득할 수도 있다. 예를 들어, 프로세서(130)는 적어도 일부 이미지 중 동적 객체를 포함하는 이미지, 적어도 일부 이미지 중 기 설정된 장소에서 촬영된 이미지 또는 적어도 일부 이미지 중 임계 밝기 이상의 이미지 중 적어도 하나를 특정 위치에 배치하여 합성 이미지를 획득할 수도 있다.
또한, 프로세서(130)는 클라이언트 기기로부터 합성 이미지와 관련된 요청이 수신되면 클라이언트 기기의 위치 정보 및 복수의 보안 카메라 각각의 위치 정보에 기초하여 복수의 보안 카메라 중 클라이언트 기기로부터 임계 거리 내에 위치한 보안 카메라를 식별할 수 있다. 구체적으로, 클라우드 서버(100)의 메모리(120)에는 복수의 보안 카메라가 위치한 실내 공간에 대응되는 맵 데이터가 저장되어 있을 수 있다. 프로세서(130)는 맵 데이터에 기초하여 복수의 보안 카메라 및 합성 이미지와 관련된 요청이 수신된 클라이언트 기기의 위치 정보를 식별하고, 식별된 복수의 위치 정보에 기초하여 클라이언트 기기와 임계 거리 내에 위치한 보안 카메라를 식별할 수 있다.
이어서, 프로세서(130)는 합성 이미지에서 클라이언트 기기와 임계 거리 내에 위치한 보안 카메라로부터 획득된 이미지를 포함하는 영역을 제외한 나머지 영역에 포함된 이미지에 관한 정보만을 클라이언트 기기로 전송할 수 있다.
도 3은 본 개시의 일 실시 예에 따른 합성 이미지 획득 동작을 개략적으로 설명하기 위한 도면이다.
본 개시의 일 실시 예에 따른 클라우드 서버(100)는 복수의 보안 카메라로부터 획득된 복수의 이미지(301, 302, 303, 304)에 기초하여 단일한 합성 이미지(310)를 획득할 수 있다. 복수의 이미지(301, 302, 303, 304) 각각은 실내 공간에 위치한 복수의 보안 카메라가 촬영한 각기 다른 공간에 대한 이미지일 수 있다.
또한, 제1 내지 제4 이미지(301, 302, 303, 304) 각각이 여러 프레임을 포함하는 동적 이미지(Video Stream)일 수 있기 때문에, 제1 내지 제4 이미지(301, 302, 303, 304)에 기초하여 획득된 합성 이미지(310) 역시 동적 이미지일 수 있다.
일 예에 따른 클라우드 서버(100)는 제1 카메라 내지 제4 카메라로부터 각각 획득된 제1 내지 제4 이미지(301, 302, 303, 304)에 기초하여 단일한 합성 이미지(310)를 획득할 수 있다.
제1 내지 제4 이미지(301, 302, 303, 304)는 각기 상이한 타입의 이미지일 수 있다. 예를 들어, 제1 이미지(301) 및 제3 이미지(303)를 구성하는 각 프레임은 jpg 타입의 이미지이며, 제2 이미지(302) 및 제4 이미지(304)럴 구성하는 각 프레임은 png 타입의 이미지일 수 있다. 클라우드 서버(100)는 제1 이미지(301) 및 제3 이미지(303)를 구성하는 각 프레임을 png 타입의 이미지로 변환하고, 변환된 제1 이미지(301) 및 제3 이미지(303), 제2 이미지(302) 및 제4 이미지(304)에 기초하여 png 타입을 갖는 복수의 프레임을 포함하는 합성 이미지(310)를 획득할 수 있다.
클라우드 서버(100)는 기 설정된 레이아웃(Layout)에 기초하여 제1 내지 제4 이미지(301, 302, 303, 304)를 특정 위치에 배치하여 합성 이미지(310)를 획득할 수 있다. 여기서, 기 설정된 레이아웃은 N*M의 형태를 갖는 정형 배치 또는 비정형 배치 중 적어도 하나를 포함할 수 있다.
정형 배치에 대응되는 레이아웃에 따를 때, 제1 내지 제4 이미지(301, 302, 303, 304)가 2*2의 배열로 배치되며 합성 이미지(310)에 포함된 제1 내지 제4 이미지(301, 302, 303, 304) 각각에 대응되는 영역의 크기는 동일할 수 있다. 이를 위해 클라우드 서버(100)는 제1 내지 제4 이미지(301, 302, 303, 304) 각각의 크기를 모두 동일하게 조절하고, 조절된 각 이미지에 기초하여 합성 이미지(310)를 획득할 수 있다.
한편, 비정형 배치에 대응되는 레이아웃에 따를 때, 제1 내지 제4 이미지(301, 302, 303, 304) 중 적어도 하나의 이미지에 대응되는 영역은 나머지 이미지에 대응되는 영역보다 클 수 있다. 이 경우 합성 이미지(310) 내에는 서로 다른 크기의 영역에 배치된 제1 내지 제4 이미지(301, 302, 303, 304) 및 여백이 포함되어 있을 수 있다.
일 예에 따른 클라우드 서버(100)는 카메라 식별 정보에 기초하여 제1 내지 제4 이미지를 각 이미지에 대한 카메라 식별 정보에 대응되는 위치에 배치하여 합성 이미지(310)를 획득할 수 있다. 구체적으로, 클라우드 서버(100)는 제1 카메라의 카메라 식별 정보에 기초하여 제1 카메라로부터 획득된 이미지(301)를 2*2의 정형 배치를 가지는 합성 이미지(310)의 좌측 상단에 배치할 수 있다.
마찬가지로, 클라우드 서버(100)는 제2 카메라 내지 제4 카메라의 카메라 식별 정보에 기초하여 제2 카메라로부터 획득된 이미지(302)를 합성 이미지(310)의 우측 상단에, 제3 카메라로부터 획득된 이미지(303)를 합성 이미지(310)의 좌측 하단에, 제4 카메라로부터 획득된 이미지(304)를 합성 이미지(310)의 우측 하단에 각각 배치하여 합성 이미지(310)를 획득할 수 있다.
이 경우, 클라우드 서버(100)는 획득된 합성 이미지(310)에 포함된 각 이미지(301, 302, 303, 304)에 대응되는 위치 정보를 획득할 수 있다. 만일 합성 이미지(310)를 구성하는 이미지가 일부 또는 전부 변경되는 경우, 클라우드 서버(100)는 합성 이미지(310)의 일 영역에 대응되는 카메라 식별 정보 및 위치 정보를 새롭게 매핑(mapping)하여 메모리(120)에 저장할 수 있다. 구체적으로, 합성 이미지(310)의 좌측 상단에 배치되는 이미지가 제5 보안 카메라로부터 획득된 이미지로 대체되는 경우, 클라우드 서버(100)는 합성 이미지(310)의 좌측 상단 영역에 대응되는 위치 정보와 제5 보안 카메라에 대한 카메라 식별 정보를 매핑하여 메모리(120)에 저장할 수 있다.
도 4는 본 개시의 일 실시 예에 따른 동기화 정보에 기초하여 합성 이미지를 획득하는 동작을 설명하기 위한 도면이다.
본 개시의 일 실시 예에 따른 클라우드 서버(100)는 복수의 이미지 각각에 포함된 동기화 정보에 기초하여 복수의 이미지 중 동일한 시간에 촬영된 적어도 일부 이미지를 식별할 수 있다.
동기화 정보는 복수의 이미지에 포함된 복수의 프레임이 획득된 시간에 대한 정보를 포함할 수 있으나, 이에 한정되는 것은 아니다.
예를 들어, 제1 카메라로부터 획득된 이미지는 복수의 프레임(411, 412, 413, 414)이 포함할 수 있다. 마찬가지로 제2 카메라 내지 제4 카메라로부터 획득된 이미지 각각도 복수의 프레임(421 내지 424, 431 내지 434, 441 내지 444)을 포함할 수 있다.
클라우드 서버(100)는 동일한 시간에 촬영된 프레임(411, 421, 431, 441)에 기초하여 합성 이미지의 제1 프레임(451)을 획득할 수 있다.
제1 카메라 및 제3 카메라로부터 획득된 이미지의 프레임 레이트는 60fps이며, 제2 카메라 및 제4 카메라로부터 획득된 이미지의 프레임 레이트는 120fps인 경우 합성 이미지의 제2 프레임(452)은 동일한 시간에 제1 카메라 내지 제4 카메라로부터 획득된 프레임(412, 423, 432, 443)을 포함할 수 있다. 이 경우 합성 이미지의 프레임 레이트는 복수의 이미지 중 낮은 프레임 레이트를 갖는 이미지의 프레임 레이트와 동일한 60fps일 수 있다.
도 5a 및 도 5b는 본 개시의 일 실시 예에 따른 이미지의 출력 포맷 변환에 따른 합성 이미지 획득 동작을 설명하기 위한 도면이다.
도 5a에 따르면, 클라이언트 기기와 클라우드 서버(100) 간의 통신이 원활하지 않은 경우 등과 같이 사용자가 합성 이미지의 출력 해상도를 감소시키고자 하는 경우가 있을 수 있다. 이 경우 클라이언트 기기는 합성 이미지의 해상도를 360p로 설정하기 위한 요청을 클라우드 서버(100)로 전송할 수 있다. 클라우드 서버(100)는 클라이언트 기기로부터 합성 이미지와 관련된 요청이 수신되면 요청이 수신된 클라이언트 기기의 출력 포맷에 기초하여 합성 이미지의 출력 해상도를 변경할 수 있다.
구체적으로, 기존에 제1 카메라 내지 제4 카메라로부터 획득된 복수의 이미지(511, 512, 513, 514)에 기초하여 획득한 합성 이미지를 저장하고 있던 클라우드 서버(100)는 합성 이미지와 관련된 요청이 수신되면 합성 이미지에 포함된 복수의 영역에 포함된 이미지의 해상도를 360p로 조정하고, 해상도가 조정된 합성 이미지(520)와 관련된 정보를 클라이언트 기기로 전송할 수 있다.
도 5b에 따르면, 보다 높은 프레임 레이트를 갖는 합성 이미지를 제공받기를 원하는 사용자의 클라이언트 기기는 복수의 보안 카메라로부터 획득된 복수의 이미지 중 적어도 일부의 프레임 레이트를 변경하기 위한 요청을 클라우드 서버(100)로 전송할 수 있다.
예를 들어, 사용자가 120fps의 해상도를 갖는 합성 이미지를 제공받고자 하는 경우 클라이언트 기기는 합성 이미지의 프레임 레이트를 120fps로 설정하기 위한 요청을 클라우드 서버(100)로 전송할 수 있다. 클라우드 서버(100)는 클라이언트 기기로부터 합성 이미지와 관련된 요청이 수신되면 요청이 수신된 클라이언트 기기의 출력 포맷에 기초하여 합성 이미지의 프레임 레이트를 변경할 수 있다.
구체적으로, 제1 카메라 및 제3 카메라로부터 획득된 이미지는 60fps의 프레임 레이트를 가지고, 제2 카메라 및 제4 카메라로부터 획득된 이미지는 120fps의 프레임 레이트를 가지므로 클라우드 서버(100)는 제1 카메라 및 제3 카메라로부터 획득된 이미지와 관련하여 보간 프레임을 삽입할 수 있다.
일 예에 따른 클라우드 서버(100)는 제1 카메라 내지 제4 카메라로부터 특정 시점에 촬영된 복수의 이미지 프레임(531, 532, 533, 534)에 기초하여 합성 이미지에 포함된 제1 프레임(541)을 획득할 수 있다.
또한, 클라우드 서버(100)는 제1 카메라로부터 특정 시점에 획득된 프레임(531)과 동일한 보간 프레임(531-1) 및 제3 카메라로부터 특정 시점에 획득된 프레임(533)과 동일한 보간 프레임(533-1)을 획득할 수 있다.
또한, 클라우드 서버(100)는 특정 시점 이후의 시점에 제2 카메라 및 제4 카메라로부터 획득된 프레임(532-1, 534-1) 및 획득된 보간 프레임(531-1, 533-1)에 기초하여 합성 이미지에 포함된 제2 프레임(542)을 획득할 수 있다. 여기서, 제4 카메라에 의해 상이한 시점에서 획득된 두 프레임(534, 534-1)은 제4 카메라가 촬영하는 공간에 동적 객체가 존재하지 않는 경우 동일할 수 있다.
따라서 제1 프레임(541) 및 제2 프레임(542)를 포함하는 합성 이미지는 120fps의 프레임 레이트를 가질 수 있으며, 이는 보간 프레임의 삽입 없이 합성 이미지를 획득하는 동작과 관련된 도 4에서 설명한 것과 달리 복수의 이미지 중 높은 프레임 레이트를 가지는 이미지의 프레임 레이트와 합성 이미지의 프레임 레이트를 동일하게 설정할 수 있다.
이미지의 해상도를 360p로 설정하기 요청을 클라우드 서버(100)로 전송할 수 있다. 클라우드 서버(100)는 클라이언트 기기로부터 합성 이미지와 관련된 요청이 수신되면 요청이 수신된 클라이언트 기기의 출력 포맷에 기초하여 합성 이미지의 출력 포맷을 변환할 수 있다.
구체적으로, 기존에 제1 카메라 내지 제4 카메라로부터 획득된 복수의 이미지(511, 512, 513, 514)에 기초하여 획득한 합성 이미지를 저장하고 있던 클라우드 서버(100)는 합성 이미지와 관련된 요청이 수신되면 합성 이미지에 포함된 복수의 영역에 포함된 이미지의 해상도를 360p로 조정하고, 해상도가 조정된 합성 이미지(520)와 관련된 정보를 클라이언트 기기로 전송할 수 있다.
한편, 도 5a 및 도 5b에서 설명한 것과는 다른 실시 예에 따른 클라우드 서버(100)가 복수의 레벨에 대응되는 상이한 해상도 및 복수의 레벨에 대응되는 상이한 프레임 레이트를 갖는 복수의 합성 이미지를 획득하여 메모리(120)에 저장하고, 클라이언트 기기로부터 수신된 요청에 대응되는 해상도 및 프레임 레이트를 가지는 합성 이미지를 클라이언트 기기로 전송할 수도 있다.
도 6은 본 개시의 일 실시 예에 따른 합성 이미지의 일부를 클라이언트 기기에 제공하는 동작을 설명하기 위한 도면이다.
도 6에 따르면, 클라우드 서버(100)는 클라이언트 기기(200)로부터 합성 이미지 중 관심 영역에 대한 정보 요청(610)을 수신할 수 있다. 여기서, 관심 영역에 대한 정보는 관심 영역에 포함된 이미지에 관련된 정보를 의미할 수 있다. 일 예에 따른 관심 영역은 2*2의 정형 배치 레이아웃을 가지는 합성 이미지 중에서 적어도 하나의 카메라로부터 획득된 이미지가 포함된 영역 또는 해당 영역 중 관심 오브젝트가 위치하는 일부 영역을 의미할 수 있다.
관심 영역이 사각형의 형태를 가지는 것을 전제하는 경우 관심 영역은 사각형의 좌측 상단의 꼭지점의 좌표, 사각형의 가로 사이즈 및 세로 사이즈에 관한 정보로써 표현될 수 있다. 예를 들어 합성 이미지의 가로 사이즈가 640 픽셀, 세로 사이즈가 480 픽셀인 경우, 일 예에 따른 관심 영역은 (0, 0, 320, 240), (320, 0, 320, 240), (0, 240, 320, 240) 또는 (320, 240, 320, 240)로 표현될 수 있다. 다만, 상술한 관심 영역의 표현 방식은 본 개시의 일 실시 예에 불과하며, 클라우드 서버(100)가 상술한 방식과 상이한 방식으로 관심 영역을 식별할 수 있음은 물론이다.
일 예에 따르면, 클라이언트 기기(200)는 특정 관심 영역을 식별하고, 식별된 관심 영역에 대한 정보 요청(610)을 클라우드 서버(100)로 전송할 수 있다. 이 경우 클라우드 서버(100)는 요청(610)에 기초하여 클라이언트 기기(200)기 식별한 관심 영역에 대한 정보(620)를 클라이언트 기기(200)로 전송할 수 있다.
또한, 클라이언트 기기(200)는 식별한 관심 영역에 대응되는 카메라 식별 정보 또는 카메라 식별 정보에 대응되는 합성 이미지와 관련한 위치 정보 중 적어도 하나를 포함하는 요청(610)을 클라우드 서버(100)로 전송할 수 있다. 이 경우 클라우드 서버(100)는 요청(610)에 포함된 카메라 식별 정보 또는 합성 이미지와 관련한 위치 정보 중 적어도 하나에 기초하여 합성 이미지에 포함된 관심 영역을 식별하고, 식별한 관심 영역에 대한 정보(620)를 클라이언트 기기(200)로 전송할 수 있다.
본 개시의 일 실시 예에 따라 클라이언트 기기(200)로부터 합성 이미지 중 일부 영역에 대응되는 위치 정보(610)가 수신되는 경우, 클라우드 서버(100)는 수신된 위치 정보(610)에 대응되는 카메라 식별 정보를 획득할 수 있다. 예를 들어, 클라우드 서버(100)는 클라이언트 기기(200)로부터 합성 이미지의 좌측 상단 영역에 대응되는 위치 정보(610)가 수신되면 해당 영역의 위치 정보에 대응되는 카메라 식별 정보를 획득할 수 있다. 클라우드 서버(100)는 획득된 카메라 식별 정보에 대응되는 보안 카메라로부터 획득된 이미지를 크랍핑하여 크랍핑된 이미지를 포함하는 정보(620)를 클라이언트 기기(200)로 전송할 수 있다.
따라서, 합성 이미지를 구성하는 이미지가 일부 또는 전부 변경되는 경우에도 클라우드 서버(100)는 클라이언트 기기(200)로부터 수신된 위치 정보(610)에 기초하여 합성 이미지의 일 영역에 대응되는 카메라 식별 정보에 기초하여 사용자가 제공받기를 원하는 이미지를 클라이언트 기기(200)로 전송할 수 있다.
다른 예에 따르면, 클라이언트 기기(200)는 클라우드 서버(100)에 관심 영역의 식별 및 관심 영역에 대한 정보의 전송을 요청할 수도 있다. 이 경우 클라우드 서버(100)는 수신된 요청(610)에 기초하여 합성 이미지에 포함된 관심 영역을 식별하고, 관심 영역에 포함된 이미지에 관련된 정보(620)를 클라이언트 기기(200)로 전송할 수도 있다.
클라이언트 기기(200)는 클라우드 서버(100)로부터 수신한 관심 영역에 대한 정보(620)에 기초하여 관심 영역에 포함된 이미지를 디스플레이하는 UI(630)를 사용자에게 제공할 수 있다.
도 7은 본 개시의 다른 실시 예에 따른 합성 이미지의 획득 동작을 설명하기 위한 도면이다.
도 7에 따르면, 클라우드 서버(100)는 합성 이미지(700)에 포함된 복수의 이미지(701, 702, 703, 704, 705, 706, 707, 708, 709)중 적어도 하나의 이미지를 식별할 수 있다. 또한, 클라우드 서버(100)는 식별된 이미지를 특정 위치에 배치하여 새로운 합성 이미지(710)를 획득할 수 있다.
구체적으로, 클라우드 서버(100)는 합성 이미지(700)에 포함된 복수의 이미지(701, 702, 703, 704, 705, 706, 707, 708, 709)중 동적 객체를 포함하는 이미지, 기 설정된 장소에서 촬영된 이미지 또는 임계 밝기 이상의 이미지 중 적어도 하나를 특정 위치에 배치하여 새로운 합성 이미지(710)를 획득할 수 있다.
예를 들어, 클라우드 서버(100)는 3*3의 정형 배치를 가지는 합성 이미지(700)에 포함된 영역 중에서 임계 밝기 미만의 이미지(704, 709)를 제외한 나머지 이미지에 기초하여 새로운 합성 이미지(710)를 획득할 수 있다. 임계 밝기 미만의 이미지(704, 709)는 사용자가 관심을 갖지 않는 공간을 촬영한 이미지일 수 있기 때문이다.
다만, 사용자는 임계 밝기 미만의 이미지에 대응되는 장소라고 하더라도 해당 장소에 우선순위를 부여할 수 있으며, 클라이언트 기기는 장소에 대한 우선순위 정보를 포함하는 합성 이미지와 관련된 요청을 클라우드 서버(100)로 전송할 수 있다. 이 경우 클라우드 서버(100)는 우선순위가 부여된 장소에 대응되는 이미지가 포함된 새로운 합성 이미지(710)를 획득할 수 있다.
또한, 클라우드 서버(100)는 임계 밝기 미만의 이미지를 제외한 나머지 이미지 중에서 동적 객체를 포함하는 이미지(702, 706, 707, 708)를 특정 위치에 배치하여 새로운 합성 이미지(710)를 획득할 수 있다. 동적 객체를 포함하는 이미지(702, 706, 707, 708)는 사용자가 관심을 갖는 공간을 촬영한 이미지일 수 있기 때문이다.
이를 통해 클라우드 서버(100)는 사용자가 관심을 갖는 공간을 촬영한 적어도 하나의 이미지를 포함하는 새로운 합성 이미지(710)를 획득하여 획득된 새로운 합성 이미지(710)와 관련된 정보를 클라이언트 기기로 제공할 수 있다.
도 8은 본 개시의 일 실시 예에 따른 클라이언트 기기의 및 복수의 보안 카메라의 위치 정보에 기초하여 합성 이미지를 획득하는 동작을 설명하기 위한 도면이다. 도 8에서는 복수의 보안 카메라 및 복수의 보안 카메라로부터 획득된 이미지에 동일한 식별 부호를 붙였다.
도 8에 따르면, 클라우드 서버(100)는 클라이언트 기기(200)로부터 합성 이미지와 관련된 요청이 수신되면 클라이언트 기기(200)의 위치 정보 및 복수의 보안 카메라 각각(801, 802, 803, 804, 805)의 위치 정보에 기초하여 복수의 보안 카메라(801, 802, 803, 804, 805) 중 클라이언트 기기(200)로부터 임계 거리 내에 위치한 보안 카메라(801, 805)를 식별할 수 있다.
클라이언트 기기(200)의 위치(800)와 임계 거리 내에 위치한 보안 카메라(801, 805)는 클라이언트 기기(200)의 위치(800)를 촬영하는 카메라일 가능성이 높으므로, 해당 카메라(801, 805)로부터 획득된 이미지는 사용자가 제공받기를 원하지 않는 이미지일 수 있다. 클라우드 서버(100)는 클라이언트 기기(200)의 위치(800)와 클라이언트 기기(200)로부터 임계 거리 내에 위치한 보안 카메라의 위치(801, 805) 사이의 가시선 정보 및 거리 정보에 기초하여 클라이언트 기기(200)의 위치(800)를 직접 촬영하는 카메라(801)를 식별할 수 있다. 이를 위해 클라우드 서버(100)는 메모리(120)에 저장된 맵 데이터를 활용할 수 있다.
또한, 클라우드 서버(100)는 식별된 보안 카메라(801)를 제외한 나머지 보안 카메라(802, 803, 804, 805)로부터 획득된 이미지에 기초하여 합성 이미지(810)를 획득하고, 획득된 합성 이미지(810)에 관련된 정보를 클라이언트 기기(200)로 전송할 수 있다.
이를 통해 클라우드 서버(100)는 사용자의 위치(800)를 제외한 다른 공간을 촬영하는 보안 카메라(802, 803, 804, 805)로부터 획득된 이미지를 포함하는 합성 이미지(810)를 제공받을 수 있게 된다.
도 9는 본 개시의 일 실시 예에 따른 제어 방법을 설명하기 위한 흐름도이다.
본 개시의 일 실시 예에 따른 클라우드 서버의 제어 방법에 따르면, 복수의 보안 카메라로부터 복수의 이미지가 수신되면 수신된 복수의 이미지를 저장한다(S910).
이어서, 복수의 이미지 각각에 포함된 동기화 정보에 기초하여 복수의 이미지 중 적어도 일부 이미지를 포함하는 합성 이미지를 획득하여 저장한다(S920).
마지막으로, 클라이언트 기기로부터 합성 이미지와 관련된 요청이 수신되면 합성 이미지와 관련된 정보를 클라이언트 기기로 전송한다(S930).
여기서, 합성 이미지를 획득하여 저장하는 단계(S920)는 수신된 복수의 이미지 각각에 포함된 동기화 정보에 기초하여 복수의 이미지 중 동일한 시간에 촬영된 적어도 일부 이미지를 식별하는 단계 및 클라이언트 기기의 출력 포맷에 기초하여 적어도 일부 이미지의 출력 포맷을 변환하고, 출력 포맷이 변환된 적어도 일부 이미지를 포함하는 합성 이미지를 획득하는 단계를 포함할 수 있다.
또한, 합성 이미지와 관련된 정보를 클라이언트 기기로 전송하는 단계(S930)에서는 클라이언트 기기로부터 합성 이미지 중 관심 영역에 대한 정보 요청이 수신되면 합성 이미지에서 관심 영역에 대응되는 이미지를 크랍핑(cropping)하여 크랍핑된 이미지를 포함하는 정보를 클라이언트 기기로 전송할 수 있다.
또한, 합성 이미지와 관련된 정보를 클라이언트 기기로 전송하는 단계(S930)에서는 클라이언트 기기로부터 합성 이미지와 관련된 요청이 수신되면 요청이 수신된 클라이언트 기기의 출력 포맷에 기초하여 합성 이미지의 출력 포맷을 변환하고, 출력 포맷이 변환된 합성 이미지에 기초하여 합성 이미지와 관련된 정보를 클라이언트 기기로 전송할 수 있다.
또한, 합성 이미지를 획득하여 저장하는 단계(S920)는 적어도 일부 이미지에 포함된 카메라 식별 정보에 기초하여 적어도 일부 이미지를 카메라 식별 정보에 대응되는 위치에 배치하여 합성 이미지를 획득하는 단계, 클라이언트 기기로부터 합성 이미지 중 일부 영역에 대한 위치 정보가 수신되면 위치 정보에 대응되는 카메라 식별 정보를 획득하는 단계 및 획득된 카메라 식별 정보에 기초하여 합성 이미지를 획득하는 단계를 포함할 수 있다.
또한, 합성 이미지를 획득하여 저장하는 단계(S920)에서는 적어도 일부 이미지 중 동적 객체를 포함하는 이미지, 적어도 일부 이미지 중 기 설정된 장소에서 촬영된 이미지 또는 적어도 일부 이미지 중 임계 밝기 이상의 이미지 중 적어도 하나를 특정 위치에 배치하여 합성 이미지를 획득할 수 있다.
또한, 합성 이미지와 관련된 정보를 클라이언트 기기로 전송하는 단계(S930)는 클라이언트 기기로부터 합성 이미지와 관련된 요청이 수신되면 클라이언트 기기의 위치 정보 및 복수의 보안 카메라 각각의 위치 정보에 기초하여 복수의 보안 카메라 중 클라이언트 기기로부터 임계 거리 내에 위치한 보안 카메라를 식별하는 단계 및 합성 이미지에서 식별된 카메라로부터 획득된 이미지 영역을 제외한 나머지 영역의 이미지를 포함하는 정보를 클라이언트 기기로 전송하는 단계를 포함할 수 있다.
도 10은 본 개시의 일 실시 예에 따른 클라우드 서버와 클라이언트 기기가 연동하여 합성 이미지를 제공하는 실시 예를 설명하기 위한 시퀀스도이다.
도 10에 따르면 본 개시의 일 실시 예에 따른 시스템은 클라우드 서버(100) 및 클라이언트 기기(200)를 포함할 수 있다.
클라우드 서버(100)는 복수의 보안 카메라로부터 복수의 이미지가 수신되면 수신된 복수의 이미지를 저장할 수 있다(S1010). 이어서, 클라우드 서버(100)는 수신된 복수의 이미지 각각에 포함된 동기화 정보에 기초하여 복수의 이미지 중 적어도 일부 이미지를 포함하는 합성 이미지를 획득하여 저장할 수 있다(S1020).
또한, 클라우드 서버(100)는 클라이언트 기기(200)로부터 합성 이미지와 관련된 요청이 수신되면(S1030) 합성 이미지와 관련된 정보를 클라이언트 기기(200)로 전송할 수 있다(S1040).
일 예에 따른 클라이언트 기기(200)는 클라우드 서버(100)로부터 수신된 정보에 포함된 합성 이미지를 디스플레이할 수 있다. 또한, 클라이언트 기기(200)는 합성 이미지에 포함된 관심 영역에 대한 선택 명경에 기초하여 관심 영역에 대한 정보를 클라우드 서버(100)로 전송할 수 있다(S1060). 여기서, 관심 영역에 대한 선택 명령이란 합성 이미지에 포함된 영역 중 적어도 하나의 영역에 대응되는 이미지의 제공을 요청하기 위한 명령을 의미할 수 있다. 또한, 관심 영역에 대한 정보는 합성 이미지의 출력 포맷에 관한 정보, 관심 영역에 대응되는 보안 카메라의 카메라 식별 정보 또는 관심 영역에 대응되는 위치 정보 중 적어도 하나를 포함할 수 있다.
이어서, 클라우스 서버(100)는 관심 영역에 대한 정보에 기초하여 관심 영역을 포함하는 합성 이미지를 처리할 수 있다(S1070). 또한, 클라우드 서버(100)는 처리된 합성 이미지를 클라이언트 기기(200)로 전송할 수 있다(S1080).
클라우드 서버(100)로부터 처리된 합성 이미지가 수신되면, 클라이언트 기기(200)는 수신된 정보에 포함된 합성 이미지를 디스플레이할 수 있다(S1090).
한편, 상술한 본 개시의 다양한 실시 예들에 따른 방법들은, 기존 클라우드 서버(100)에 설치 가능한 어플리케이션 형태로 구현될 수 있다.
또한, 상술한 본 개시의 다양한 실시 예들에 따른 방법들은, 기존 클라우드 서버(100)에 대한 소프트웨어 업그레이드, 또는 하드웨어 업그레이드 만으로도 구현될 수 있다.
한편, 이상에서 설명된 다양한 실시 예들은 소프트웨어(software), 하드웨어(hardware) 또는 이들의 조합을 이용하여 컴퓨터(computer) 또는 이와 유사한 장치로 읽을 수 있는 기록 매체 내에서 구현될 수 있다. 일부 경우에 있어 본 명세서에서 설명되는 실시 예들이 프로세서(130) 자체로 구현될 수 있다. 소프트웨어적인 구현에 의하면, 본 명세서에서 설명되는 절차 및 기능과 같은 실시 예들은 별도의 소프트웨어 모듈들로 구현될 수 있다. 소프트웨어 모듈들 각각은 본 명세서에서 설명되는 하나 이상의 기능 및 동작을 수행할 수 있다.
한편, 상술한 본 개시의 다양한 실시 예들에 따른 클라우드 서버 (100)의 프로세싱 동작을 수행하기 위한 컴퓨터 명령어(computer instructions)는 비일시적 컴퓨터 판독 가능 매체(non-transitory computer-readable medium) 에 저장될 수 있다. 이러한 비일시적 컴퓨터 판독 가능 매체에 저장된 컴퓨터 명령어는 특정 기기의 프로세서에 의해 실행되었을 때 상술한 다양한 실시 예에 따른 클라우드 서버 (100)에서의 처리 동작을 특정 기기가 수행하도록 한다.
비일시적 컴퓨터 판독 가능 매체란 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 비일시적 컴퓨터 판독 가능 매체의 구체적인 예로는, CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리카드, ROM 등이 있을 수 있다.
이상에서는 본 개시의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 개시는 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 개시의 요지를 벗어남이 없이 당해 개시에 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 개시의 기술적 사상이나 전망으로부터 개별적으로 이해 되어져서는 안될 것이다.
100 : 클라우드 서버 110 : 통신 인터페이스
120 : 메모리 130 : 프로세서
200: 클라이언트 기기

Claims (17)

  1. 복수의 보안 카메라와 통신하는 클라우드 서버에 있어서,
    통신 인터페이스;
    메모리; 및
    상기 통신 인터페이스를 통해 상기 복수의 보안 카메라로부터 복수의 이미지가 수신되면, 상기 수신된 복수의 이미지를 상기 메모리에 저장하고,
    상기 수신된 복수의 이미지 각각에 포함된 동기화 정보에 기초하여 상기 복수의 이미지 중 적어도 일부 이미지를 포함하는 합성 이미지를 획득하여 상기 메모리에 저장하고,
    클라이언트 기기로부터 상기 합성 이미지와 관련된 요청이 수신되면, 상기 합성 이미지와 관련된 정보를 상기 통신 인터페이스를 통해 상기 클라이언트 기기로 전송하는 프로세서;를 포함하는 클라우드 서버.
  2. 제1항에 있어서,
    상기 프로세서는,
    상기 수신된 복수의 이미지 각각에 포함된 동기화 정보에 기초하여 상기 복수의 이미지 중 동일한 시간에 촬영된 적어도 일부 이미지를 식별하고,
    상기 클라이언트 기기의 출력 포맷에 기초하여 상기 적어도 일부 이미지의 출력 포맷을 변환하고, 상기 출력 포맷이 변환된 적어도 일부 이미지를 포함하는 합성 이미지를 획득하는, 클라우드 서버.
  3. 제1항에 있어서,
    상기 프로세서는,
    상기 클라이언트 기기로부터 상기 합성 이미지 중 관심 영역에 대한 정보 요청이 수신되면, 상기 합성 이미지에서 상기 관심 영역에 대응되는 이미지를 크랍핑(cropping)하여 상기 크랍핑된 이미지를 포함하는 정보를 상기 클라이언트 기기로 전송하는, 클라우드 서버.
  4. 제1항에 있어서,
    상기 프로세서는,
    상기 클라이언트 기기로부터 상기 합성 이미지와 관련된 요청이 수신되면, 상기 요청이 수신된 상기 클라이언트 기기의 출력 포맷에 기초하여 상기 합성 이미지의 출력 포맷을 변환하고, 상기 출력 포맷이 변환된 합성 이미지에 기초하여 상기 합성 이미지와 관련된 정보를 상기 클라이언트 기기로 전송하는, 클라우드 서버.
  5. 제1항에 있어서,
    상기 프로세서는,
    상기 적어도 일부 이미지에 포함된 카메라 식별 정보에 기초하여 상기 적어도 일부 이미지를 상기 카메라 식별 정보에 대응되는 위치에 배치하여 상기 합성 이미지를 획득하여 상기 클라이언트 기기로 전송하고,
    상기 클라이언트 기기로부터 상기 합성 이미지 중 일부 영역에 대응되는 위치 정보가 수신되면, 상기 위치 정보에 대응되는 카메라 식별 정보를 획득하고, 상기 획득된 카메라 식별 정보에 기초하여 합성 이미지를 획득하고, 상기 획득된 합성 이미지를 상기 클라이언트 기기로 전송하는, 클라우드 서버.
  6. 제1항에 있어서,
    상기 프로세서는,
    상기 적어도 일부 이미지 중 동적 객체를 포함하는 이미지, 상기 적어도 일부 이미지 중 기 설정된 장소에서 촬영된 이미지 또는 상기 적어도 일부 이미지 중 임계 밝기 이상의 이미지 중 적어도 하나를 특정 위치에 배치하여 상기 합성 이미지를 획득하는, 클라우드 서버.
  7. 제1항에 있어서,
    상기 프로세서는,
    상기 클라이언트 기기로부터 상기 합성 이미지와 관련된 요청이 수신되면, 상기 클라이언트 기기의 위치 정보 및 상기 복수의 보안 카메라 각각의 위치 정보에 기초하여 상기 복수의 보안 카메라 중 상기 클라이언트 기기로부터 임계 거리 내에 위치한 보안 카메라를 식별하고,
    상기 합성 이미지에서 상기 식별된 카메라로부터 획득된 이미지 영역을 제외한 나머지 영역의 이미지를 포함하는 정보를 상기 클라이언트 기기로 전송하는, 클라우드 서버.
  8. 클라우드 서버 및 클라이언트 기기를 포함하는 시스템에 있어서,
    복수의 보안 카메라로부터 복수의 이미지가 수신되면, 상기 수신된 복수의 이미지를 저장하고, 상기 수신된 복수의 이미지 각각에 포함된 동기화 정보에 기초하여 상기 복수의 이미지 중 적어도 일부 이미지를 포함하는 합성 이미지를 획득하여 저장하고, 상기 클라이언트 기기로부터 상기 합성 이미지와 관련된 요청이 수신되면, 상기 합성 이미지와 관련된 정보를 상기 클라이언트 기기로 전송하는 클라우드 서버; 및
    상기 클라우드 서버로부터 수신된 정보에 포함된 상기 합성 이미지를 디스플레이하고, 상기 합성 이미지에 포함된 관심 영역에 대한 선택 명령이 수신되면, 상기 수신된 선택 명령에 기초하여 상기 합성 이미지를 디스플레이하는 클라이언트 기기;를 포함하는, 시스템.
  9. 제8항에 있어서,
    상기 클라이언트 기기는,
    상기 수신된 선택 명령에 기초하여 상기 관심 영역에 대한 정보를 상기 클라우드 서버로 전송하고,
    상기 클라우드 서버는,
    상기 클라이언트 기기로부터 수신된 상기 관심 영역에 대한 정보에 기초하여 상기 관심 영역을 포함하는 합성 이미지를 처리하고, 상기 처리된 합성 이미지를 상기 클라이언트 기기로 전송하며,
    상기 클라이언트 기기는,
    상기 클라우드 서버로부터 수신된 상기 처리된 합성 이미지를 디스플레이하는, 시스템.
  10. 제8항에 있어서,
    상기 클라이언트 기기는,
    상기 수신된 선택 명령에 기초하여 상기 합성 이미지를 처리하고, 상기 처리된 합성 이미지를 디스플레이하는, 시스템.
  11. 클라우드 서버의 제어 방법에 있어서,
    복수의 보안 카메라로부터 복수의 이미지가 수신되면 상기 수신된 복수의 이미지를 저장하는 단계;
    상기 수신된 복수의 이미지 각각에 포함된 동기화 정보에 기초하여 상기 복수의 이미지 중 적어도 일부 이미지를 포함하는 합성 이미지를 획득하여 저장하는 단계; 및
    클라이언트 기기로부터 상기 합성 이미지와 관련된 요청이 수신되면, 상기 합성 이미지와 관련된 정보를 상기 클라이언트 기기로 전송하는 단계;를 포함하는 제어 방법.
  12. 제11항에 있어서,
    상기 합성 이미지를 획득하여 저장하는 단계는,
    상기 수신된 복수의 이미지 각각에 포함된 동기화 정보에 기초하여 상기 복수의 이미지 중 동일한 시간에 촬영된 적어도 일부 이미지를 식별하는 단계; 및
    상기 클라이언트 기기의 출력 포맷에 기초하여 상기 적어도 일부 이미지의 출력 포맷을 변환하고, 상기 출력 포맷이 변환된 적어도 일부 이미지를 포함하는 합성 이미지를 획득하는 단계;를 포함하는, 제어 방법.
  13. 제11항에 있어서,
    상기 전송하는 단계는,
    상기 클라이언트 기기로부터 상기 합성 이미지 중 관심 영역에 대한 정보 요청이 수신되면, 상기 합성 이미지에서 상기 관심 영역에 대응되는 이미지를 크랍핑(cropping)하여 상기 크랍핑된 이미지를 포함하는 정보를 상기 클라이언트 기기로 전송하는, 제어 방법.
  14. 제11항에 있어서,
    상기 전송하는 단계는,
    상기 클라이언트 기기로부터 상기 합성 이미지와 관련된 요청이 수신되면, 상기 요청이 수신된 상기 클라이언트 기기의 출력 포맷에 기초하여 상기 합성 이미지의 출력 포맷을 변환하고, 상기 출력 포맷이 변환된 합성 이미지에 기초하여 상기 합성 이미지와 관련된 정보를 상기 클라이언트 기기로 전송하는, 제어 방법.
  15. 제11항에 있어서,
    상기 합성 이미지를 획득하여 저장하는 단계는,
    상기 적어도 일부 이미지에 포함된 카메라 식별 정보에 기초하여 상기 적어도 일부 이미지를 상기 카메라 식별 정보에 대응되는 위치에 배치하여 상기 합성 이미지를 획득하는 단계;
    상기 클라이언트 기기로부터 상기 합성 이미지 중 일부 영역에 대응되는 위치 정보가 수신되면, 상기 위치 정보에 대응되는 카메라 식별 정보를 획득하는 단계; 및
    상기 획득된 카메라 식별 정보에 기초하여 합성 이미지를 획득하는 단계;를 포함하는, 제어 방법.
  16. 제11항에 있어서,
    상기 합성 이미지를 획득하여 저장하는 단계는,
    상기 적어도 일부 이미지 중 동적 객체를 포함하는 이미지, 상기 적어도 일부 이미지 중 기 설정된 장소에서 촬영된 이미지 또는 상기 적어도 일부 이미지 중 임계 밝기 이상의 이미지 중 적어도 하나를 특정 위치에 배치하여 상기 합성 이미지를 획득하는, 제어 방법.
  17. 제11항에 있어서,
    상기 전송하는 단계는,
    상기 클라이언트 기기로부터 상기 합성 이미지와 관련된 요청이 수신되면, 상기 클라이언트 기기의 위치 정보 및 상기 복수의 보안 카메라 각각의 위치 정보에 기초하여 상기 복수의 보안 카메라 중 상기 클라이언트 기기로부터 임계 거리 내에 위치한 보안 카메라를 식별하는 단계; 및
    상기 합성 이미지에서 상기 식별된 카메라로부터 획득된 이미지 영역을 제외한 나머지 영역의 이미지를 포함하는 정보를 상기 클라이언트 기기로 전송하는 단계;를 포함하는, 제어 방법.
KR1020210088549A 2021-07-06 2021-07-06 클라우드 서버, 시스템 및 그 제어 방법 KR20230007792A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210088549A KR20230007792A (ko) 2021-07-06 2021-07-06 클라우드 서버, 시스템 및 그 제어 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210088549A KR20230007792A (ko) 2021-07-06 2021-07-06 클라우드 서버, 시스템 및 그 제어 방법

Publications (1)

Publication Number Publication Date
KR20230007792A true KR20230007792A (ko) 2023-01-13

Family

ID=84900296

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210088549A KR20230007792A (ko) 2021-07-06 2021-07-06 클라우드 서버, 시스템 및 그 제어 방법

Country Status (1)

Country Link
KR (1) KR20230007792A (ko)

Similar Documents

Publication Publication Date Title
US11496696B2 (en) Digital photographing apparatus including a plurality of optical systems for acquiring images under different conditions and method of operating the same
US9619861B2 (en) Apparatus and method for improving quality of enlarged image
US10334162B2 (en) Video processing apparatus for generating panoramic video and method thereof
US10158795B2 (en) Electronic apparatus for communicating with another apparatus
EP3499410A1 (en) Image processing method and apparatus, and electronic device
US10148875B1 (en) Method and system for interfacing multiple channels of panoramic videos with a high-definition port of a processor
CN111726520B (zh) 摄影装置、摄影***、图像处理方法
US11303871B2 (en) Server and display apparatus, and control methods thereof
CN109413399B (zh) 使用深度图合成对象的装置及其方法
US11062422B2 (en) Image processing apparatus, image communication system, image processing method, and recording medium
US20140204083A1 (en) Systems and methods for real-time distortion processing
US11373273B2 (en) Method and device for combining real and virtual images
WO2023093438A1 (zh) 图像显示方法、装置、电子设备及计算机可读存储介质
US11102448B2 (en) Image capturing apparatus, image processing system, image processing method, and recording medium
JP2019149785A (ja) 映像変換装置及びプログラム
CN112492247A (zh) 一种基于lvds输入的视频显示设计方法
KR20230007792A (ko) 클라우드 서버, 시스템 및 그 제어 방법
US10645282B2 (en) Electronic apparatus for providing panorama image and control method thereof
US11284094B2 (en) Image capturing device, distribution system, distribution method, and recording medium
US20210352206A1 (en) Digital media frame and method for configuring a field of view of a digital media frame
US11064103B2 (en) Video image transmission apparatus, information processing apparatus, system, information processing method, and recording medium
US20230140152A1 (en) Image processing apparatus, image capturing apparatus, control method, and storage medium
KR102400790B1 (ko) Vr 영상 제작 방법, 이를 수행하기 위한 장치 및 시스템
EP4258678A1 (en) Image processing apparatus, image processing method, program, and computer readable medium
WO2015015584A1 (ja) 映像伝送システム、送信装置、および受信装置