KR102228457B1 - 단말과 서버간의 정보 동기화 방법 및 시스템 - Google Patents

단말과 서버간의 정보 동기화 방법 및 시스템 Download PDF

Info

Publication number
KR102228457B1
KR102228457B1 KR1020140003087A KR20140003087A KR102228457B1 KR 102228457 B1 KR102228457 B1 KR 102228457B1 KR 1020140003087 A KR1020140003087 A KR 1020140003087A KR 20140003087 A KR20140003087 A KR 20140003087A KR 102228457 B1 KR102228457 B1 KR 102228457B1
Authority
KR
South Korea
Prior art keywords
image
image processing
resolution
parameter
server
Prior art date
Application number
KR1020140003087A
Other languages
English (en)
Other versions
KR20150083491A (ko
Inventor
장성규
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020140003087A priority Critical patent/KR102228457B1/ko
Priority to PCT/KR2015/000227 priority patent/WO2015105372A1/en
Priority to CN201580003021.1A priority patent/CN105814905B/zh
Publication of KR20150083491A publication Critical patent/KR20150083491A/ko
Priority to US15/157,521 priority patent/US10070175B2/en
Application granted granted Critical
Publication of KR102228457B1 publication Critical patent/KR102228457B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/437Interfacing the upstream path of the transmission network, e.g. for transmitting client requests to a VOD server
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00127Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture
    • H04N1/00204Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a digital computer or a digital computer system, e.g. an internet server
    • H04N1/00244Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a digital computer or a digital computer system, e.g. an internet server with a server, e.g. an internet server
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/27Server based end-user applications
    • H04N21/274Storing end-user multimedia data in response to end-user request, e.g. network recorder
    • H04N21/2743Video hosting of uploaded data from client
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/63Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/63Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
    • H04N21/637Control signals issued by the client directed to the server or network components
    • H04N21/6377Control signals issued by the client directed to the server or network components directed to server

Abstract

본 발명은, 단말과 서버간의 정보 동기화 방법 및 시스템에 관한 것이다.
일 실시 예에 따른 단말과 서버간의 정보 동기화 방법은, 상기 단말의 소정 동작 모드에서 사용자 입력을 수신하는 단계; 상기 수신된 사용자 입력에 따라 제1 해상도의 영상에 대한 영상처리 동작을 수행하는 단계; 상기 영상처리 동작에 대응되는 영상 처리 파라미터를 수집하는 단계; 및 상기 영상 처리 파라미터를 상기 서버로 전송하는 단계를 포함할 수 있다.

Description

단말과 서버간의 정보 동기화 방법 및 시스템{METHED AND SYSTEM FOR SYNCHRONIZING USAGE INFORMATION BETWEEN DEVICE AND SERVER}
본 발명은 단말과 서버 기반의 영상 처리에서 단말과 서버간의 정보 동기화 방법 및 시스템에 관한 것이다.
디지털 촬영장치의 발전에 따라 점점 더 다양한 모드에서 이미지를 촬영하고, 다양한 기능을 이용하는 것이 가능해 졌다. 특히, 통신 기술이 발달함에 따라 영상 촬영 기능을 갖는 단말을 이용하여 촬영된 영상을 클라우드 서버 또는 SNS(Social Network Service) 서버로 업로드 하여 보관하는 것이 가능해지고 있다.
그러나, 서버의 성능, 네트워크 환경 등 여러가지 요인으로 인하여 단말에서 수행된 다양한 액티비티를 서버에 보관된 영상에 제대로 반영하지 못하고 있다.
본 발명은 단말에서 캡쳐된 영상에 대해 또는 단말에서 재생된 영상에 대해 수행된 다양한 액티비티를 클라우드 서버에서도 보유할 수 있도록 정보를 동기화하는 방법 및 시스템을 제공하는 것을 특징으로 한다.
따라서, 단말에서 발생한 다양한 액티비티에 대한 정보를 클라우드 서버가 보유함으로써, 사용자는 별도의 노력 없이 단말에서 이용한 것과 동일한 컨텐츠를 클라우드 서버 또는 SNS 서버에 접속하여 이용할 수 있다.
나아가, 단말에서 발생한 액티비티에 대한 정보를 바탕으로 관심도 및 상관도를 분석하고, 분석결과에 기초하여 별도의 영상처리 동작을 수행할 수 있다.
물론, 본 발명의 기술적 과제들은 이상에서 언급한 특징으로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 당해 기술분야의 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
바람직한 일 실시 예에 따른 정보 동기화 방법은, 상기 단말의 소정 동작 모드에서 사용자 입력을 수신하는 단계; 상기 수신된 사용자 입력에 따라 제1 해상도의 영상에 대한 영상처리 동작을 수행하는 단계; 상기 영상처리 동작에 대응되는 영상 처리 파라미터를 수집하는 단계; 및 상기 영상 처리 파라미터를 상기 서버로 전송하는 단계를 포함할 수 있다.
일 실시 예에 따른 상기 정보 동기화 방법은 상기 서버가 상기 영상 처리 파라미터를 수신하는 단계; 및 상기 영상 처리 파라미터에 기초하여 상기 단말에서 수행된 영상처리 동작과 동일한 영상 처리 동작을 상기 제1 해상도의 영상보다 해상도가 높은 제2 해상도의 영상에 대해 수행하는 단계를 포함 할 수 있다.
일 실시 예에 따른 상기 제1 해상도의 영상은 스크린네일 해상도 영상이며, 상기 제2 해상도 영상은 풀 해상도 영상인 것을 특징으로 하는 정보 동기화 방법.
일 실시 예에 따른 상기 정보 동기화 방법은 상기 단말이 피사체를 촬영하여 상기 제1 해상도 영상 및 제2 해상도 영상을 생성하는 단계; 및 상기 제 2해상도 영상을 상기 영상 처리 파라미터와 함께 상기 서버로 전송하는 단계를 더 포함 할 수 있다.
일 실시 예에 따른 상기 정보 동기화 방법은 상기 서버가 상기 제2 해상도 영상으로부터 상기 제1 해상도 영상을 생성하는 단계; 및 상기 제 1해상도 영상을 상기 단말로 전송하는 단계를 더 포함 할 수 있다.
일 실시 예에 따른 상기 서버가 영상처리 동작을 수행하는 단계는 상기 영상 처리 파라미터 및 상기 서버에 미리 설정된 서버 파라미터에 기초하여 상기 제2 해상도의 영상에 대해 영상 처리 동작을 수행하는 단계를 포함 할 수 있다.
일 실시 예에 따른 상기 소정 동작 모드는 정지영상 촬영 모드, 동영상 촬영 모드 및 영상 재생 모드 중 하나일 수 있다.
일 실시 예에 따른 상기 소정 동작 모드는 정지영상 촬영 모드이고, 상기 영상 처리 파라미터는 촬영 장소, 촬영 설정 및 촬영 해상도 중 적어도 하나를 포함 할 수 있다.
일 실시 예에 따른 상기 소정 동작 모드는 영상 재생 모드이고 상기 영상 처리 파라미터는 영상 회전, 영상 크롭(crop), 태그, 영상 보정 정보 및 영상 재생 히스토리 중 적어도 하나에 대응 되는 파라미터를 포함 할 수 있다.
일 실시 예에 따른 상기 소정 동작 모드는 동영상 촬영 모드이고 영상 처리 파라미터는 촬영 장소, 촬영 설정, 해상도 및 프레임 레이트 중 적어도 하나를 포함 할 수 있다.
일 실시 예에 따른 상기 서버는 클라우드 서비스 또는 소셜 네트워크 서비스를 제공 할 수 있다.
일 실시 예에 따른 상기 파라미터를 수집하는 단계는, 상기 제1 해상도 영상에 대한 사용자의 관심도를 나타내는 관심도 파라미터 및 상기 제1 해상도 영상과 상기 단말에서 이용된 기능의 상관성을 나타내는 상관 정보 파라미터 중 적어도 하나를 수집하는 단계를 더 포함하고, 상기 서버로 전송하는 단계는, 상기 관심도 파라미터 및 상기 상관 정보 파라미터 중 적어도 하나를 서버로 전송하는 단계를 더 포함 할 수 있다.
일 실시 예에 따른 상기 정보 동기화 방법은, 상기 서버가 상기 영상 처리 파라미터, 상기 관심도 파라미터 및 상기 상관 정보 파라미터 중 적어도 하나를 수신하는 단계; 상기 영상 처리 파라미터, 상기 관심도 파라미터 및 상기 상관 정보 파라미터 중 적어도 하나를 분석하는 단계; 및 제2 해상도 영상에 대해 상기 분석 결과에 대응하는 영상처리 동작을 수행하고, 상기 영상처리 동작의 결과물을 제공하는 단계를 포함 할 수 있다.
본 발명의 바람직한 일 실시 예에 따른 단말은, 단말의 소정 동작 모드에서 사용자 입력을 수신하는 사용자 입력부; 상기 수신된 사용자 입력에 따라 제1 해상도의 영상에 대한 영상처리 동작을 수행하도록 제어하는 제어부; 상기 영상처리 동작에 대응되는 영상 처리 파라미터를 수집하는 파라미터 수집부; 및 상기 영상 처리 파라미터를 상기 서버로 전송하는 통신부를 포함 할 수 있다.
일 실시 예에 따른 상기 영상 처리 단말은 피사체를 촬영하는 촬영부를 더 포함하고, 상기 제어부는, 상기 제1 해상도 영상 및 제1 해상도 영상 보다 높은 해상도를 갖는 제2 해상도 영상을 생성하고, 상기 전송부를 통해 상기 제 2해상도 영상을 상기 영상 처리 파라미터와 함께 상기 서버로 전송하도록 제어 할 수 있다.
일 실시 예에 따른 상기 제1 해상도의 영상은 스크린네일 해상도 영상이며, 상기 제2 해상도 영상은 풀 해상도 영상일 수 있다.
일 실시 예에 따른 상기 소정 동작 모드는 정지영상 촬영 모드, 동영상 촬영 모드 및 영상 재생 모드 중 하나일 수 있다.
일 실시 예에 따른 상기 소정 동작 모드는 정지영상 촬영 모드이고, 상기 영상 처리 파라미터는 촬영 장소, 촬영 설정 및 촬영 해상도 중 적어도 하나를 포함 할 수 있다.
일 실시 예에 따른 상기 소정 동작 모드는 영상 재생 모드이고 상기 영상 처리 파라미터는 영상 회전, 영상 크롭(crop), 태그, 영상 보정 정보 및 영상 재생 히스토리 중 적어도 하나에 대응 되는 파라미터를 포함 할 수 있다.
일 실시 예에 따른 상기 소정 동작 모드는 동영상 촬영 모드이고 영상 처리 파라미터는 촬영 장소, 촬영 설정, 해상도 및 프레임 레이트 중 적어도 하나를 포함 할 수 있다.
일 실시 예에 따른 상기 파라미터 수집부는, 상기 제1 해상도 영상에 대한 사용자의 관심도를 나타내는 관심도 파라미터 및 상기 제1 해상도 영상과 상기 단말에서 이용된 기능의 상관성을 나타내는 상관 정보 파라미터 중 적어도 하나를 더 수집 할 수 있다.
일 실시 예에 따른 상기 통신부는, 상기 관심도 파라미터 및 상기 상관 정보 파라미터 중 적어도 하나를 상기 서버로 더 전송 할 수 있다.
본 발명의 바람직한 일 실시 예에 따른 서버는, 제1 해상도 영상에 대해 단말에서 수행된 영상처리 동작에 대응되는 영상 처리 파라미터를 수신하는 통신부; 상기 영상 처리 파라미터에 기초하여 상기 단말에서 수행된 영상처리 동작과 동일한 영상 처리 동작을 상기 제1 해상도의 영상보다 해상도가 높은 제2 해상도의 영상에 대해 수행하도록 제어하는 제어부를 포함 할 수 있다.
일 실시 예에 따른 상기 서버는 상기 제2 해상도 영상을 저장하는 데이터 베이스를 더 포함하고, 상기 제어부는, 상기 제2 해상도 영상으로부터 상기 제1 해상도 영상을 생성하고, 상기 통신부를 통해 상기 제 1해상도 영상을 상기 단말로 전송하도록 제어 할 수 있다.
일 실시 예에 따른 상기 제1 해상도의 영상은 스크린네일 해상도 영상이며, 상기 제2 해상도 영상은 풀 해상도 영상일 수 있다.
일 실시 예에 따른 상기 제어부는 상기 영상 처리 파라미터 및 상기 서버에 미리 설정된 서버 파라미터에 기초하여 상기 제2 해상도의 영상에 대해 영상 처리 동작을 수행하는 할 수 있다.
일 실시 예에 따른 상기 통신부는 상기 영상 처리 파라미터와 함께, 관심도 파라미터 및 상관 정보 파라미터 중 적어도 하나를 수신하고, 상기 제어부는 상기 영상 처리 파라미터, 상기 관심도 파라미터 및 상기 상관 정보 파라미터 중 적어도 하나를 분석하여 상기 제2 해상도 영상에 대해 상기 분석 결과에 대응하는 영상처리 동작을 수행하고, 상기 영상처리 동작의 결과물을 제공 할 수 있다.
이 외에도, 본 발명을 구현하기 위한 다른 방법, 다른 시스템 및 상기 방법을 실행하기 위한 컴퓨터 프로그램을 기록하는 컴퓨터 판독 가능한 기록 매체가 더 제공될 수 있다.
도 1은 일 실시 예에 따른 단말과 서버간의 정보 동기화 방법을 설명하기 위한 도면이다.
도 2는 일 실시 예에 따른 단말과 서버간의 정보 동기화를 위한 단말의 동작을 설명하기 위한 흐름도이다.
도 3은 일 실시 예에 따른 단말과 서버간의 정보 동기화 방법을 설명하기 위한 흐름도이다.
도 4는 일 실시 예에 따른 단말의 정지 영상 처리 동작을 동기화 하는 일 예를 설명하기 위한 도이다.
도 5는 일 실시 예에 따른 단말의 정지 영상 처리 동작을 동기화 하는 다른 예를 설명하기 위한 도이다.
도 6은 일 실시 예에 따른 단말의 동영상 처리 동작을 동기화 하는 일 예를 설명하기 위한 도이다.
도 7은 다른 실시 예에 따른 단말과 서버간의 정보 동기화 방법을 설명하기 위한 흐름도이다.
도 8은 다른 실시 예에 따른 단말의 정지 영상 처리 동작을 동기화 하는 일 예를 설명하기 위한 도이다.
도 9는 다른 실시 예에 따른 단말의 동영상 처리 동작을 동기화 하는 일 예를 설명하기 위한 도이다.
도 11 및 도 12는 일 실시 예에 따른 단말의 블럭도이다.
도 13은 일 실시 예에 따른 서버의 블록도이다.
이하, 본 발명을 제조하고 사용하는 방법이 상세하게 설명된다. 본 명세서에 기재된 "...부", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.
본 명세서에서 본 발명의 원리의 "일 실시예" 또는 "실시예"라는 것은 본 발명의 원리의 적어도 하나의 실시 예에 포함되는 실시예와 함께 설명된 특별한 특성, 구조, 특징 등을 의미하는 것이다. 그러므로, 본 명세서 전반에 걸쳐 다양한 곳에 등장하는 "일 실시 예에서" 또는 "실시 예에서"라는 어구의 등장은 반드시 모두 동일한 실시예를 가리키는 것은 아니다.
또한, 일 실시예들에서 사용되는 용어는 일 실시예들에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 일 실시예의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 일 실시예들에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 일 실시예들의 전반에 걸친 내용을 토대로 정의되어야 한다.
일 실시 예에서 “통신”, “통신망” 및 “네트워크”는 동일한 의미로 사용될 수 있다. 상기 세 용어들은, 소정 데이터를 영상 처리 단말 및 클라우드 서버 사이에서 송수신할 수 있는 유무선의 근거리 및 광역 데이터 송수신망을 의미한다.
일 실시 예에서 “클라우드 서버”란 클라우드 컴퓨팅 서비스(이하, 클라우드 서비스)를 제공받기 위해 클라이언트가 접속하게 되는 서버 컴퓨터를 의미한다. 여기서 클라우드 서비스란, 소정 정보가 인터넷 상의 서버에 영구적으로 저장되고, 디지털 촬영 장치, 태블릿, 컴퓨터, 노트북, 넷북, 스마트폰 등의 IT 기기 등과 같은 클라이언트에는 일시적으로 보관되는 컴퓨터 환경을 뜻한다. 즉 이용자의 모든 정보를 인터넷 상의 서버에 저장하고, 이 정보를 각종 IT 기기를 통하여 언제 어디서든 이용할 수 있다는 개념이다. 다시 말하면 구름(cloud)과 같이 무형의 형태로 존재하는 하드웨어?소프트웨어 등의 컴퓨팅 자원을 자신이 필요한 만큼 빌려 쓰고 이에 대한 사용요금을 지급하는 방식의 컴퓨팅 서비스로, 서로 다른 물리적인 위치에 존재하는 컴퓨팅 자원을 가상화 기술로 통합해 제공하는 기술을 의미한다.
일 실시 예에서 영상 처리 단말은 다양한 형태로 구현될 수 있다. 예를 들어, 본 명세서에서 기술되는 영상 처리 단말에는 디지털 카메라, 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(laptop computer), 태블릿 PC, 전자북 단말기, 디지털방송용 단말기, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 네비게이션 등이 있을 수 있으나, 이에 한정되는 것은 아니다.
일 실시 예에 따른 nM(n Megapixel)해상도 영상에서 n은 각 영상의 사이즈에 대응하는 값으로, 영상의 전체 픽셀수를 나타낼 수 있다. 예를 들면 2M해상도는 1920X1080급 해상도를 나타내며, 4M해상도는 2560X1440급 해상도, 8M해상도는 UHD(Ultra High Definition: 3840X2160)급 해상도를 나타낸다. 한편, 여기서 2M, 4M 및 8M는 각 해상도 영상의 전체 화소수와 근사하게 대응하는 값으로, 따라서 본 발명이 속하는 기술분야의 통상의 기술자는 2M해상도, 8M해상도 또는 nM해상도 등은 상술한 가로세로 크기의 조합에 반드시 한정되는 용어는 아니며 임의의 가로세로 크기 조합의 해상도에서 전체 화소수에 대응될 수 있는 용어임을 이해할 수 있을 것이다.
아래에서는 첨부한 도면을 참고하여 바람직한 실시 예들에 대하여 당 업계의 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 바람직한 실시 예들은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예들로 한정되지 않는다. 그리고 도면에서 바람직한 실시 예들을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
도 1은 일 실시 예에 따른 단말과 서버간의 정보 동기화 방법을 설명하기 위한 도면이다.
도 1을 참조하면, 일 실시 예에 따른 단말과 서버간의 정보 동기화 시스템(1)은 영상 처리 단말(이하, 단말(100)) 및 서버(200)를 포함한다. 단말(100) 및 서버(200)가 유무선 통신이 가능한 네트워크(30)를 통해 연결 된다. 또한, 서버(200)는 홈 싱크 시스템(40)을 이용하여 집이나 사무실 등 기타 환경에서 TV(50) 또는 스마트폰(60) 같은 각종 스마트 기기가 연결되어 데이터를 송수신 할 수 있다.
일 실시 예에 따른 단말(100)은 영상을 촬영하고, 촬영된 영상에 대해 영상 신호 처리를 수행하여, 소정 해상도의 영상 데이터를 생성할 수 있다. 여기서, 영상 신호 처리는 촬영된 원본 영상 데이터에 대한 화질 개선 및 특수 효과 제공을 위한 영상 신호 처리 및 소정 압축 표준에 따라 압축된 형태의 영상 데이터를 생성하기 위한 일련의 동작을 의미할 수 있다. 한편, 본 발명에서 영상은, 정지영상 또는 동영상을 포함하는 개념일 수 있다.
구체적으로, 영상 촬영 모드에서 단말(100)은 사용자가 라이브 뷰에서 피사체를 타겟팅(targeting) 한 후 반 셔터(반셔터가 없는 기기도 있을 수 있다)를 누르거나 터치 입력 수행하면, 이에 대응하여 단말(100)은 3A(AE/AWB/AF: Auto Exposure, Auto White Balance, Auto Focus)를 조절하는 동작을 수행 할 수 있다. 그 이후 단말(100)은 셔터 입력에 대응하여 영상을 촬영 하고 풀 해상도 원본 데이터(full resolution RAW data)를 입력 받을 수 있다.
다음으로, 입력된 풀 해상도 원본 데이터에 대해 영상 신호 처리가 수행 된 후 이를 소정 해상도의 영상으로 압축 함으로써 제1 해상도 영상(11)을 생성할 수 있다. 생성된 제1 해상도 영상(11)은 우선적으로 단말(100)의 디스플레이부에 퀵뷰(quick view) 될 수 있다. 퀵뷰는 빠른 영상 처리를 요구하기 때문에, 풀 해상도 영상보다 작은 해상도를 가진 영상이 스크린네일 이미지가 퀵뷰 영상으로 이용될 수 있다.
한편, 단말(100)은 퀵뷰 영상을 디스플레이 하고 있는 도중에 풀 해상도 원본 데이터에 대해 소정의 영상 처리를 수행하여 퀵뷰 영상 보다 높은 해상도를 가지는 제2 해상도 영상(12)을 생성하게 된다. 또한, 제2 해상도 영상(12)은 다시 디스플레이 되지 않고 JPEG, MPEG 형태나 기타 압축 영상 형태로 생성되어 저장될 수 있다. 또한, 추후에 단말(100)은 생성된 제2 해상도 영상(12)을 재생 하거나 편집 가능 할 수 있다. 여기서 제1 해상도 영상(11)은 스크린 네일 영상(예컨대, 2M 해상도 영상)이며, 제2 해상도 영상은 제1 해상도 영상보다 해상도가 높은 영상 또는 풀 해상도(단말(100)이 촬영할 수 있는 최대 해상도, 예컨대 8M 해상도) 원본 데이터일 수 있다.
그러데, 단말(100)에서 제2 해상도 영상(12)을 재생 또는 편집하는 경우 그 처리 시간이 많이 필요할 수 있다. 즉, 비용 및 크기 측면에서 단말(100)의 하드웨어 성능에는 한계가 존재할 수 있기 때문에 해상도가 높아질수록 사용자가 체감하는 처리속도가 느릴 수 있다. 심지어 단말(100)의 하드웨어 성능에 따라서 소정 해상도(예컨대 8M 해상도) 이상의 영상 압축을 처리하지 못할 수도 있다.
마찬가지로, 재생(Play back) 모드에서는 일반적으로 단말(100)은 저장부에 압축 또는 비압축 형태로 저장된 영상을 읽어와 복호화 하는 등의 영상 처리 동작 수행 후 디스플레이를 할 수 있다. 이때, 영상을 복호화 하는 동작 등이 수행될 영상의 해상도가 높을 수록 많은 처리시간이 소요될 수 있다.
따라서, 일 실시 예에 따른 단말(100)은 제1 해상도(예를 들면, 2M 해상도)의 영상(11)만을 처리하고, 제2 해상도 영상(12)은 서버(200)로 전송하여, 서버(200)가 제2 해상도 영상(12)에 대한 영상 처리를 수행 하는 방식의 분산 처리를 수행할 수 있다. 즉, 일 실시 예에 따른 단말(100)은 제1 해상도 영상을 이용하여 영상 처리를 수행함으로써, 속도저하 없이 영상 편집 및 디스플레이 가능하다.
예를 들면, 서버(200)는 풀 해상도 원본 데이터를 제2 해상도 영상(12)으로 압축하거나 특수 효과를 적용하는 등의 영상 처리 동작을 수행할 수 있다.
도1 에서는 설명의 편의를 위해 단말(100)이 제1 해상도 영상(11) 및 제2 해상도 영상(12)을 모두 보유하고, 또한, 제2 해상도 영상(12)을 서버(200)로 전송하여 서버(200)가 제2 해상도 영상(12)만을 보유하는 것으로 도시하였지만, 반드시 이러한 구성에 한정되는 것은 아니다. 예를 들면, 서버(200)가 제1 해상도 영상(11) 및 제2 해상도 영상(12)을 모두 보유하고, 단말(100)의 영상 재생 모드에서 소정 영상을 요청하면 요청된 영상에 대응하는 제1 해상도 영상(11)만을 단말(100)로 전송하여 재생하도록 할 수 있다.
따라서, 이하의 실시 예에서 신속한 영상 처리를 위해 단말(100)은 제1 해상도 영상(11)을 디스플레이하고 제1 해상도 영상(11)에 대한 영상처리 동작을 수행한다. 그리고 제1 해상도 영상의 원본 영상에 대응하는 제2 해상도 영상을 보유한 서버(200)는 정보 동기화를 통해 제2 해상도 영상에 대해 동일한 영상처리 동작을 수행한다.
한편, 상술한 분산 처리 시스템에 있어서, 단말(100)의 제1 해상도 영상(11)에는 사용자 입력에 따른 다양한 설정 및 편집이 수행되고 실시간으로 반영될 수 있다. 하지만, 서버(200)에 있는 제2 해상도 영상(12)에 대해서 동일한 설정 및 편집을 적용하기 위해 동일한 동작을 반복 수행해야 하는 불편함이 있을 수 있다.
따라서, 일 실시 예에 따른 단말(100)과 서버(200)간의 정보 동기화 시스템(1)은 제1 해상도 영상을 처리함에 있어서 단말(100)에서 적용되었던 설정 및 영상처리 동작에 대응되는 정보를 서버(200)로 전송하여 서버(200)에서도 동일하거나 유사한 동작을 수행할 수 있도록 할 수 있다.
또한, 단말(100)의 촬영 또는 재생 모드에 있어서 사용자의 선호도에 대한 정보나, 전처리/후처리에 사용한 어플리케이션의 동작 정보를 서버(200)로 전송하여, 해당 동작이 서버(200)에 저장된 제2 해상도 영상에 적용되도록 할 수 있다. 즉, 단말 자체의 영상처리 동작에 관련된 기록뿐 아니라, 단말에서 사용된 각종 어플리케이션의 처리 기록도 추가적으로 서버로 전송함으로써 서버(200)에 보관된 제2 해상도 영상에 사용자의 선호도 및 편의성이 반영될 수 있도록 할 수 있다.
특히, 서버(200)가 클라우드 서버 또는 SNS(Social Network Service) 서버일 수 있으며, 서버(200)에 네트워크(30)로 연결된 각종 디바이스(예를 들면, TV(50) 또는 스마트폰(60))에 단말(100)에서 수행된 영상처리 동작 및 사용자의 선호도/편의성이 반영된 제2 해상도 영상이 디스플레이 될 수 있다.
이하, 도 2 내지 도 9를 참조하여 일 실시 예에 따른 단말(100)과 서버(200)간의 정보 동기화를 위한 방법에 대해 후술한다.
도 2는 일 실시 예에 따른 단말(100)과 서버(200)간의 정보 동기화를 위한 단말(100)의 동작을 설명하기 위한 흐름도이다.
도 2를 참조하면,
단계 s210에서, 일 실시 예에 따른 단말(100)은 소정 동작 모드에서 사용자 입력을 수신 할 수 있다. 여기서, 소정 동작 모드는 정지영상 촬영 모드, 동영상 촬영 모드 및 영상 재생 모드 중 하나일 수 있다.
예를 들면, 단말(100)은 정지영상 촬영 모드 또는 동영상 촬영 모드에 있어서, 촬영 개시 신호 및 촬영 설정 신호를 입력 받을 수 있다. 다른 예로 단말(100)은 영상 재생 모드에 있어서 디스플레이 되는 영상을 회전 또는 잘라(crop)내거나 영상 보정을 수행하기 위한 조작 신호를 입력 받을 수 있다.
단계 s220에서, 일 실시 예에 따른 단말(100)은 수신된 사용자 입력에 따라 제1 해상도의 영상에 대한 영상처리 동작을 수행할 수 있다. 여기서 제1 해상도 영상은 퀵뷰 화면을 디스플레이 하기 위한 스크린네일 영상일 수 있다.
다음으로, 단계 s230에서, 일 실시 예에 따른 단말(100)은 영상처리 동작에 대응되는 영상 처리 파라미터를 수집할 수 있다.
일 예로, 단말(100)이 정지영상 촬영 모드라면, 영상 처리 파라미터는 촬영 장소, 촬영 모드, 촬영 설정 및 촬영 해상도 등을 포함할 수 있다.
한편, 촬영 설정에는 인물 촬영, 풍경 촬영, 접사 촬영, 연속 촬영 또는 셀프 촬영 설정 등이 포함될 수 있다. 또한, 촬영 설정은 얼굴 인식, 손떨림 보정 또는 렌즈 왜곡 보정 기능을 사용할지 여부나 ISO 및 화이트 밸런스 설정 등이 포함될 수 있다.
다른 예로, 단말(100)이 동영상 촬영 모드라면, 영상 처리 파라미터는 촬영 장소, 촬영 설정, 해상도 및 프레임레이트 등을 포함할 수 있다. 여기서 촬영 설정은 얼굴 인식, 손떨림 보정 또는 렌즈 왜곡 보정 기능을 사용할지 여부나 ISO 및 화이트 밸런스 설정 등이 포함될 수 있다.
또 다른 예로, 단말(100)이 영상 재생 모드라면, 영상 처리 파라미터는 영상 회전, 영상 크롭(crop), 태그, 영상 보정 정보 및 영상 재생 히스토리 등을 포함할 수 있다.
여기서, 영상 재생 히스토리는 제1 해상도 영상에 대한 사용자의 영상 처리 동작을 시간 순서에 따라 기록된 정보 일 수 있다. 따라서, 제1 해상도에 대해 수행한 영상 처리 동작을 동일한 순서로 제2 해상도 영상에 대해 반복함으로써, 서버(200)는 단말(100)에서와 동일한 영상 처리 동작이 수행된 제2 해상도 영상을 생성할 수 있다.
한편, 영상 처리 파라미터는 상술한 구성으로 한정되는 것은 아니며 단말(100)에서 제1 해상도 영상에 대해 수행된 영상 처리 동작을 서버(200)에서 제2 해상도 영상에 대해 수행하기 위해 필요한 모드 파라미터가 포함될 수 있다. 따라서, 영상 처리 파라미터는 도 7 내지 9에 대한 설명에서 후술하는 관심도 파라미터 및 상관 정보 파라미터를 포함할 수도 있다.
또한, 여기서 수집되는 영상 처리 파라미터는 영상 데이터와 하나의 데이터 형태 또는 별도의 데이터 형태로서 저장될 수 있다. 예를 들면, 단말(100)의 영상처리 동작에 의해 생성된 결과물이 제1 해상도 영상이라면, 제1 해상도 영상의 헤더에 기록될 수 있다. 다른 예로, 단말(100)에서 서버(200)로 전송되는 것은 제1 해상도 영상이 아닌 제2 해상도 영상일 수 있으므로 제1 해상도 영상에 대한 영상 처리 파라미터는 제2 해상도 영상의 헤더 또는 테일에 저장될 수 있다. 또 다른 예로 제1 해상도 영상 및 제2 해상도 영상과 별도의 데이터 형태로 관리될 수 있다.
단계 s240에서, 일 실시 예에 따른 단말(100)은 영상 처리 파라미터를 서버(200)로 전송할 수 있다. 여기서 영상 처리 파라미터에 대응되는 영상처리 동작이 수행된 영상 데이터가 함께 서버(200)로 전송될 수 있다.
따라서, 서버(200)는 전송 받은 영상 처리 파라미터에 기초하여 제2 해상도 영상에 대해 소정 영상 처리 동작을 수행할 수 있다.
도 3은 일 실시 예에 따른 단말과 서버간의 정보 동기화 방법을 설명하기 위한 흐름도이다.
도 3을 참조하면, 단계 s310 내지 s330은 도 2의 단계 s210 내지 s230에 대응하므로 구체적인 설명은 생략한다.
단계 s340에서, 일 실시 예에 따른 단말(100)은 수집된 영상 처리 파라미터를 서버(200)에 동기화 할 지 여부를 확인 받을 수 있다. 따라서, 단말(100)은 파라미터의 동기화 확인 신호가 입력될 때까지 영상 처리 동작에 대응하는 영상 처리 파라미터를 누적적으로 계속 기록 할 수 있다. 여기서, 파라미터 공유 확인 신호는 사용자 입력에 기초하여 또는 미리 정해진 설정에 따라 소정 주기로 입력될 수 있다.
단계 s350에서 단말(100)은 파라미터 동기화 확인 신호가 입력 되면, 영상 처리 파리미터를 서버(200)로 전송 할 수 있다.
단계 s350에서, 일 실시 예에 따른 서버(200)는 수신된 영상 처리 파라미터에 기초하여 단말(100)에서 수행된 영상처리 동작과 동일한 영상 처리 동작을 제2 해상도의 영상에 대해 수행할 수 있다. 또는 서버(200)는 영상 처리 파라미터 및 상기 서버에 기 설정되어 있는 서버 파라미터에 기초하여 상기 제2 해상도의 영상에 대해 영상 처리 동작을 수행할 수 있다. 여기서, 서버 파라미터는 소정 태그를 추가하는 영상 처리 동작 또는 동일한 촬영 설정을 가진 영상을 분류하도록 하는 영상 처리 동작을 수행하도록 하는 파라미터 일 수 있다.
이하, 도 4는 일 실시 예에 따른 단말의 정지 영상 처리 동작을 동기화 하는 일 예를 설명하기 위한 도이다.
도 4를 참조하면, 단말(100)에서 수행된 제1 해상도 영상(111)에 대한 영상 처리 동작이, 서버(200)에서 제2 해상도 영상(112)에 대해 동일하게 수행될 수 있다.
예를 들면, 단계 s401에서 단말(100)은 영상을 촬영하고, 풀 해상도 영상 데이터를 생성할 수 있다. 그리고, 풀 해상도 원본 데이터를 제1 해상도 영상(111)으로 압축하여 디스플레이 할 수 있다. 한편, 여기서 풀 해상도 원본 데이터는 서버(200)로 전송되어 제1 해상도 영상 보다 높은 해상도를 가지는 제2 해상도 영상으로 압축 될 수 있다. 물론 이러한 구성으로 한정되는 것은 아니며, 다양한 방식으로 서버(200)는 제1 해상도 영상 보다 높은 해상도를 가지는 제2 해상도 영상을 보유할 수 있다. 또한, 일 실시 예에 따른 서버(200)가 클라우드 컴퓨팅 기능을 제공한다면, 제2 해상도 영상은 풀 해상도 원본 데이터 형태로 서버(200)에 저장되고, 영상 처리에 이용될 수 있다.
또한, 단말(100)은 영상 촬영 모드에서 촬영 설정(411)을 기록하고 단계 s403에서 서버(200)로 영상 처리 파라미터로서 전송 할 수 있다. 예를 들면 렌즈 왜곡 보정이 설정되어 있는지에 관한 영상 처리 파라미터가 서버(200)로 전송될 수 있다. 풀 해상도 원본 데이터를 제1 해상도 영상(111)으로 압축하는 과정에서 렌즈 왜곡 보정이 수행되지 않으면, 렌즈 왜곡 보정 수행 안함에 대한 영상 처리 파라미터가 수집된다.
단계 s404에서는 서버(200)는 영상 처리 파라미터에 대응하는 동작을 제2 해상도 영상(112)에 대해 수행할 수 있다. 예를 들면, 영상 파라미터의 촬영 설정에 있어서 렌즈 왜곡 보정이 수행되지 않았다면, 풀 해상도 원본 데이터에서 제2 해상도 영상(112) 압축시 렌즈 보정이 수행되지 않도록 할 수 있다.
다시, 단계 s402에서, 단말(100)은 영상 재생 모드에서 사용자 입력에 기초하여 소정 영상 처리 동작을 수행할 수 있다. 예를 들면, 제1 해상도 영상(111)에 대해 영상 영상 회전 동작(412), 크롭 동작(413), 태그를 입력하는 동작 및 영상 보정 동작(414) 등을 수행할 수 있다. 그러면, 단말(100)은 수행된 영상 처리 동작에 대응하는 영상 처리 파라미터를 수집하여 단계 s403에서 서버(200)로 전송 할 수 있다.
단계 s404에서 서버(200)는 단말(100)에서 수행된 영상처리 동작과 동일한 영상 처리 동작을 수행할 수 있다. 예를 들면, 제2 해상도 영상(112)에 대해 영상 회전 동작(422), 크롭 동작(423), 태그를 입력하는 동작 및 영상 보정 동작(424) 등을 수행할 수 있다. 여기서, 영상 보정 동작은 영상의 색, 선 등을 변경하는 동작을 의미할 수 있다.
상술한 바에 따라서, 단말(100)에서 촬영 또는 재생된 영상에 대해 수행된 다양한 액티비티를 서버(200)에서도 보유할 수 있으며, 나아가 동일한 액티비티를 수행할 수 있다.
도 5는 일 실시 예에 따른 단말의 정지 영상 처리 동작을 동기화 하는 다른 예를 설명하기 위한 도이다.
도 5를 참조하면,
단계 s501에서, 단말(100)은 재생 모드에서 소정 영상 처리 동작을 수행할 수 있다. 여기서, 소정 영상 처리 동작은 도 4의 단계 s402에서 상술하였으므로 생략한다.
단계 s502에서, 단말(100)은 영상 처리 동작에 대응하는 영상 처리 파라미터를 수집하여 서버(200)로 전송할 수 있다.
단계 s503에서, 서버(200)는 수신된 영상 처리 파라미터 및 상기 서버(200)에 미리 설정된 서버 파라미터에 기초하여 상기 제2 해상도의 영상(112)에 대해 영상 처리 동작을 수행 할 수 있다. 예를 들면, 단말에서 수행되었던 영상 보정(511)동작과 HDR과 같이 서버에 미리 설정된 동작(512)을 제2 해상도 영상(112)에 대해 수행할 수 있다. 다른 예로, 영상 처리 파라미터의 촬영 장소 또는 촬영 설정에 기초하여 제2 해상도 영상들을 촬영 장소 또는 촬영 설정 별로 구별할 수 있다.
도 6은 일 실시 예에 따른 단말의 동영상 처리 동작을 동기화 하는 일 예를 설명하기 위한 도이다.
한편, 동영상은 복수의 정지영상의 결합으로 이해할 수 있으므로, 일 실시 예에 따른 동영상에 대한 동기화 방법은, 정지 영상에 대해 상술한 동기화 방법을 그대로 적용 가능하다.
다만, 도 6을 참조하면
단계 s601에서 단말(100)은 동영상 촬영시에 도 4의 제1 해상도 영상(111)에 대응하는 제1 해상도 동영상(611) 및 제2 해상도 영상(112)에 대응하는 제2 해상도 동영상(612)을 생성할 수 있다. 예를 들면, 제2 해상도 동영상(612)은 풀 HD(High Definition) 영상으로 1920X1080 이상의 해상도로 1초 동안 60프레임을 재생 가능한 고화질 동영상 일 수 있다. 반면에, 제1 해상도 동영상(611)은 상기 제2 해상도 동영상에 있어서 I프레임(intra frame) 만을 추출 하거나 촬영된 영상을 추가적으로 축소하여 생성된 저화질 동영상 일 수 있다.
단계 s602에서 단말(100)은 영상 재생 모드에서, 제1 해상도 영상에 대한 영상 처리 동작을 수행할 수 있다. 예를 들면, 단말(100)은 제1 해상도 동영상에 손떨림 보정을 적용하거나 트랜스 코딩(예를 들면 avi 파일을 mp4파일로 변환)을 수행할 수 있다. 다른 예로 단말(100)은 동영상을 자르고 붙이거나 소정 정지영상 파일을 추출 할 수 있다. 즉, 단말은 제2 해상도 동영상(612) 대신에, 제1 해상도 동영상(611)에 대한 영상 처리를 수행함으로써 영상 처리 시간을 보다 단축 할 수 있다.
단계 s603에서 단말(100)은 영상 처리 파라미터를 서버(200)로 전송할 수 있다. 또한, 제2 해상도 동영상(612)을 함께 전송할 수 있다. 이때, 영상 처리 파라미터는 제2 해상도 동영상에 포함되어 전송되거나 별도로 전송될 수 있다.
단계 s604에서 서버(200)는 단말(100)에서 수행된 영상처리 동작과 동일한 영상 처리 동작을 수행할 수 있다. 예를 들면, 서버(200)는 제1 해상도 동영상(611)에 대해 수행되었던 영상 처리 동작에 대응하도록 제2 해상도 동영상(612)에 손떨림 보정을 적용하거나 트랜스 코딩을 수행할 수 있다. 다른 예로 서버(200)는 동영상을 자르고 붙이거나 소정 정지영상 파일을 추출 할 수 있다.
물론 반드시 상술한 구성에 한정되는 것은 아니며, 단말(100)은 제1 해상도 동영상(611)을 이용하지 않고 제2 해상도 동영상(612)에 대해 영상처리 동작을 수행할 수도 있다.
도 7은 다른 실시 예에 따른 단말(100)과 서버(200)간의 정보 동기화 방법을 설명하기 위한 흐름도이다.
단계 s710에서 일 실시 예에 따른 단말(100)은 소정 동작모드에서 사용자 입력을 수신할 수 있다. 여기서, 소정 동작 모드는 정지영상 촬영 모드, 동영상 촬영 모드 및 영상 재생 모드 중 하나일 수 있다.
단계 s720에서 일 실시 예에 따른 단말(100)은 일 실시 예에 따른 단말(100)은 수신된 사용자 입력에 따라 제1 해상도의 영상에 대한 영상처리 동작을 수행할 수 있다. 여기서 제1 해상도 영상은 퀵뷰 화면을 디스플레이 하기 위한 스크린네일 영상일 수 있다.
다음으로, 단계 s730에서, 일 실시 예에 따른 단말(100)은 영상처리 동작에 대응되는 영상 처리 파라미터, 관심도 파라미터 및 상관 정보 파라미터를 수집 할 수 있다. 여기서, 관심도 파라미터는 제1 해상도 영상에 대한 사용자의 관심도를 나타내며, 상관 정보 파라미터는 상기 제1 해상도 영상과 단말(100)에서 이용된 기능의 상관성을 나타낼 수 있다.
예를 들면, 단말(100)이 영상 촬영 모드일때, 관심도 파라미터는 유사한 영상의 촬영 기록, 영상 촬영시 사용자의 상태(예컨대, 심장 박동 또는 혈압), 촬영 당시의 날씨(예컨대 기압, 기온)를 포함할 수 있다.
다른 예로, 단말(100)이 영상 재생 모드일 때, 관심도 파라미터는 영상 재생 시간 및 영상 확대(zoom) 영역에 대한 정보를 포함할 수 있다.
따라서, 후술하는 서버(200)는 관심도 파라미터를 분석하여 소정 영상에 대한 관심도를 판단할 수 있다.
또 다른 예로, 단말(100)이 수집된 관심도 파라미터를 기초로 직접 관심도를 판단하거나 또는 사용자로부터 수동으로 관심도를 설정 받고, 관심도에 따라서 영상에 대해 별도의 영상 처리 동작을 수행 할 수 있다. 먼저, 사용자가 단말(100)의 영상 재생 중에, 관심이 있거나 중요하다고 판단되는 영상에 소정 마킹(marking)을 수행하고, 마킹이 수행된 영상이 관심도가 높은 영상으로 판단 할 수 있다. 여기서, 마킹은 영상 클릭 등의 동작과 같이 관심도가 높은 영상을 선택하는 일련의 행동을 모두 포함하는 동작을 의미할 수 있다. 그리고, 별도의 영상 처리 동작으로 단말(100)은 관심도가 높다고 판단된 영상에 대응하는 제2 해상도 영상만을 서버(200)에 업로드 하거나, 관심도가 낮은 영상을 서버(200)로 업로드 하지 않거나, 관심도에 따라 디스플레이 순위 및 디스플레이 형태를 다르게 할 수 있다. 물론, 반드시 이러한 구성에 한정되는 것은 아니며 별도의 영상 처리 동작에는 관심도에 따라 다르게 처리될 수 있는 일련의 영상처리 동작이 더 포함될 수 있음을 본 실시예가 속하는 기술분야의 통상의 기술자은 쉽게 이해할 수 있을 것이다.
또한, 단말(100)이 영상 재생 모드일 때, 상관정보 파라미터는 연락처 태그 지정 정보, 사용된 특정 어플리케이션 정보, 영상 공유 정보 및 음악 지정 정보를 포함할 수 있다.
단계 s740에서, 일 실시 예에 따른 단말(100)은 수집된 영상 처리 파라미터를 서버(200)에 동기화 할 지 여부를 확인 받을 수 있다. 따라서, 단말(100)은 파라미터의 동기화 확인 신호가 입력될 때까지 영상 처리 동작에 대응하는 영상 처리 파라미터를 누적적으로 계속 기록 할 수 있다.
단계 s750에서, 단말(100)은 파라미터 동기화 확인 신호가 입력 되면 영상 처리 파라미터, 관심도 파라미터 및 상관 정보 파라미터를 서버(200)로 전송 할 수 있다.단계 s760에서, 서버(200)는 수집된 영상 처리 파라미터, 관심도 파라미터 및 상관 정보 파라미터를 분석 하여 사용자의 관심도 및 상관 정보를 도출 할 수 있다. 예를 들면, 유사한 영상의 촬영 기록, 영상 촬영시 사용자의 상태, 영상 재생 시간 및 영상 확대(zoom) 영역에 기초하여 소정 영상에 대한 사용자의 관심도를 판단할 수 있다. 또는, 단계 s730에서 전술한 바와 같이 소정 영상에 대한 마킹등을 통해 수동으로 설정 받은 관심도를 바탕으로 소정 영상에 대한 관심도를 판단할 수 있다.
또한, 단계 s770에서, 서버(200)는 상기 분석 결과에 대응하는 영상처리 동작을 수행하고, 분석 결과에 대응하는 영상 처리 결과물을 제공 할 수 있다. 즉, 추후에 서버(200)에 접속하는 단말(100) 또는 네트워크로 연결된 각종 스마트 기기(예컨데, TV(50) 또는 스마트폰(60))가 상기 영상 처리 결과물을 제공 받을 수 있다.
한편, 영상 처리 파라미터에 대응되는 영상 처리동작은 도 3 내지 도 6에 대한 설명에서 상술하였으므로 생략한다. 한편, 서버(200)에서 처리되는 영상 처리동작은 제2 해상도 영상에 대해 수행됨을 가정하지만, 반드시 이러한 구성에 한정되는 것은 아니며, 단말(100) 및 서버(200)가 동일한 해상도의 영상을 보유하고 있는 경우에도 본 실시예가 적용될 수 있다.
먼저, 일 실시예에 따른 서버(200)는 관심도 파라미터 분석에 기초하여 영상에 대해 별도의 영상 처리 동작을 수행 할 수 있다.
예를 들면, 서버(200)는 영상 촬영시 사용자의 상태를 기초로 사용자의 기분을 판단하고, 판단된 기분 별로 영상을 다르게 처리할 수 있다.
다른 예로, 서버(200)는 영상 촬영시 날씨를 기초로 영상을 다르게 처리(예컨대, 날씨별 화이트 밸런스 차등적용)할 수 있다.
또 다른 예로, 서버(200)는 관심도 파라미터에 기초하여 영상 재생 시간이 높은 긴 정지영상을 관심도가 높은 영상으로 분류하여, 추후 단말(100)이 서버(200)의 영상을 재생할 경우 관심도가 높은 영상을 먼저 재생할 수 있다.
또 다른 예로, 서버(200)는 관심도 파라미터에 기초하여 영상 확대 영역을 관심도가 높은 영역으로 분류하여, 단말(100)이 서버(200)의 영상을 재생할 경우 확대된 영상을 디스플레이 하거나, ROI(region of interest)로 별도 보존할 수 있다.
또 다른 예로, 서버(200)는 관심도에 따라 소정 영상을 다른 해상도로 처리하거나, 관심도에 따라 디스플레이 순위 및 디스플레이 형태를 다르게 할 수 있다.
또 다른 예로, 서버(200)는 관심도가 높은 영상을 미리 등록된 타 사용자에게 자동으로 전송하고, 관심도가 낮은 영상은 별도의 영상 처리동작을 수행하지 않고 그대로 보존 할 수 있다.
물론, 반드시 상술한 구성에 한정되는 것은 아니며 별도의 영상 처리 동작에는 관심도에 따라 다르게 처리될 수 있는 일련의 영상 처리 동작이 더 포함될 수 있음을 본 실시예가 속하는 기술분야의 통상의 기술자은 쉽게 이해할 수 있을 것이다.또 다른 예로, 서버(200)는 상관 정보 분석 결과에 기초하여, 제1 해상도 영상에 태그된 연락처로 서버에 저장된 제2 해상도 영상을 전송하거나, 동일한 연락처가 태그된 제2 해상도 영상을 동일 폴더로 분류할 수 있다.
또 다른 예로, 서버(200)는 상관 정보 분석 결과에 기초하여, 특정 인물에게 공유된 영상만을 별도로 분류 할 수 있다.
또 다른 예로, 서버(200)는 상관 정보 분석 결과에 기초하여, 제1 해상도 영상에 지정된 음악을 사용자에게 구매 요청하거나 이미 구매된 음악 파일이라면 제2 해상도 영상에도 지정할 수 있다. 나아가 추후 사용자가 해당 음악가의 다른 음악 파일도 용이하게 사용할 수 있도록 문의(query) 하거나 추천(recommend)할 수 있다.
또 다른 예로, 서버(200)는 상관 정보 분석시 단말(100)에서 수행된 어플리케이션 리스트를 분석한다. 그리고, 단말(100)에서 사용된 어플리케이션의 풀 버전을 제2 해상도 영상에 적용(invoke)할 수 있다. 여기서, 영상에 적용될 어플리케이션의 라이선스를 서버(200)만 획득하고 단말은 제한된 라이선스만을 획득하여 사용될 수 있다. 즉, 단말(100)은 제1 해상도 영상에 대해서만 영상처리 가능한 어플리케이션을 활용하여 영상처리 수행하되, 추후 영상 처리 파라미터 및 상관 정보 파라미터를 서버(200)로 전송하여 서버(200)에 저장된 제2 해상도 영상에 대해서는 라이선스를 획득한 어플리케이션을 적용하여 영상처리 가능할 수 있다.
도 8은 다른 실시 예에 따른 단말의 정지 영상 처리 동작을 동기화 하는 일 예를 설명하기 위한 도이다.
도 8을 참조하면, 단계 s810에서 단말(100)은 제1 해상도 영상(811)의 영상처리 동작에 대응되는 영상 처리 파라미터(801), 관심도 파라미터(802) 및 상관 정보 파라미터(803)를 수집 할 수 있다. 여기서, 영상 처리 파라미터에 대한 설명은 도 3 내지 도 6에 대한 설명에서 상술하였으므로 생략 한다.
예를 들면, 단말(100)이 영상 촬영 모드일 때, 관심도 파라미터(802)는 유사한 영상의 촬영 기록, 영상 촬영시 사용자의 상태(예컨대, 심장 박동 또는 혈압), 촬영 조건(예컨대 기압, 기온, 조명 조건)을 포함할 수 있다. 여기서, 유사한 영상의 촬영 기록은 연속촬영 기능을 사용하였는지 여부로 판단될 수 있으며, 또는 복수의 영상에 대해 히스토그램 기반 연관도(correlation)을 분석하는 방법으로 획득 될 수 있다.
다른 예로, 단말(100)이 영상 재생 모드일 때, 관심도 파라미터(802)는 영상 재생 시간 및 영상 확대(zoom) 영역에 대한 정보를 포함할 수 있다. 예컨대, 단말(100)이 정지영상에 대한 슬라이드 쇼를 제공할 때, 사용자는 관심 없는 영상을 짧게 재생할 것이므로 재생시간이 짧은 영상에 대해 관심도가 낮음을 관심도 파라미터(802)에 기록할 수 있다.
또한, 단말(100)의 영상 재생 중에 사용자 입력에 기초하여 제1 해상도 영상의 소정 영역이 확대된다면, 단말(100)은 확대된 영역 또는 확대된 영상을 관심도 파라미터에 기록함으로써, 확대된 영역 또는 영상 확대가 수행된 영상에 관심도가 존재함을 기록할 수 있다.
또 다른 예로, 사용자가 단말(100)의 영상 재생 중에, 관심이 있거나 중요하다고 판단되는 영상에 소정 마킹(marking)을 수행하고, 마킹이 수행된 영상이 관심도가 높은 영상으로 판단 할 수 있다. 그리고, 별도의 영상 처리 동작으로 단말(100)은 관심도가 높다고 판단된 영상에 대응하는 제2 해상도 영상만을 서버(200)에 업로드 하거나, 관심도가 낮은 영상을 서버(200)로 업로드 하지 않거나, 관심도에 따라 디스플레이 순위 및 디스플레이 형태를 다르게 할 수 있다.
또 다른 예로, 단말(100)이 영상 재생 모드일 때, 상관정보 파라미터(802)는 연락처 태그 지정 정보, 사용된 특정 어플리케이션 정보, 영상 공유 정보 및 음악 지정 정보를 포함할 수 있다.
단계 s820에서 단말(100)은 수집된 영상 처리 파라미터(801), 관심도 파라미터(802) 및 상관 정보 파라미터(803)를 서버(200)로 전송 할 수 있다. 여기서, 영상 처리 파라미터(801), 관심도 파라미터(802) 및 상관 정보 파라미터(803)는 제2 해상도 영상 데이터(812)에 포함되어 함께 전송 될 수 있으며, 또는 별도의 데이터 형식으로 서버에 전송될 수 있다.
단계 s830에서 서버(200)는 수집된 영상 처리 파라미터, 관심도 파라미터 및 상관 정보 파라미터를 분석 하여 사용자의 관심도 및 상관 정보를 도출 할 수 있다.
한편, 서버(200)는 단말(100)의 영상 처리 파라미터, 관심도 파라미터 및 상관 정보 파라미터 뿐 아니라 다른 단말의 관련 히스토리(813)를 저장하고 있을 수 있다. 따라서, 서버(200)는 단말(100)로부터 수신된 관심도 파라미터(802) 및 상관 정보 파라미터(803)를 관련 히스토리(813)와 비교하여 사용자에게 의미가 있다고 판단될 수 있는 사용자 동작에 관련된 관심도 및 상관 정보를 추출할 수 있다.
또한, 서버(200)는 미리 결정된 서버 파라미터(814)들을 보유하고 있을 수 있다. 여기서, 서버 파라미터는 소정 태그를 추가하는 영상 처리 동작 또는 동일한 촬영 설정을 가진 영상을 분류하도록 하는 영상 처리 동작을 수행하도록 하는 파라미터 일 수 있다.
단계 S840에서는 분석된 파라미터를 기초로 제2 해상도 영상에 대한 영상 처리 동작을 수행할 수 있다.
여기서 영상 처리 파라미터에 대응되는 영상 처리동작은 도 3 내지 도 6에 대한 설명에서 상술하였으므로 생략한다.
서버(200)는 관심도 파라미터에서 영상 촬영시 사용자의 상태를 분석하여 사용자의 기분을 판단하고, 판단된 기분 별로 영상을 다르게 처리할 수 있다.
또한, 서버(200)는 관심도 파라미터에서 영상 촬영시 날씨를 분석하고, 분석 결과를 기초로 영상을 다르게 처리(예컨대, 날씨별 화이트 밸런스 차등적용)할 수 있다. 이때, 날씨 분석에는 다른 단말의 관련 히스토리(813)가 추가로 이용되어, 제2 해상도 영상의 촬영시 날씨를 예측할 수도 있다.
다른 예로, 서버(200)는 관심도 파라미터에 기초하여 영상 재생 시간이 높은 긴 정지영상을 관심도가 높은 영상으로 분류하여, 추후 단말(100)이 서버(200)의 영상을 재생할 경우 관심도가 높은 영상을 먼저 재생할 수 있다.
마찬가지로, 서버(200)는 관심도 파라미터에 기초하여 영상 확대 영역을 관심도가 높은 영역으로 분류하여, 단말(100)이 서버(200)의 영상을 재생할 경우 확대된 영상을 디스플레이 하거나, ROI(region of interest)로 별도 보존할 수 있다.
또 다른 예로, 서버(200)는 관심도 파라미터에 기초하여 유사한 영상들을 하나의 폴더로 분류하여 관리할 수 있다. 유사한 영상인지 여부는 연속촬영 기능을 사용하였는지 여부로 판단될 수 있으며, 또는 복수의 영상에 대해 히스토그램 기반 연관도(correlation)을 분석하는 방법으로 획득 될 수 있다.
또 다른 예로, 서버(200)는 관심도에 따라 소정 영상을 다른 해상도로 처리하거나, 관심도에 따라 디스플레이 순위 및 디스플레이 형태를 다르게 할 수 있다.
또 다른 예로, 서버(200)는 관심도가 높은 영상을 미리 등록된 타 사용자에게 자동으로 전송하고, 관심도가 낮은 영상은 별도의 영상 처리동작을 수행하지 않고 그대로 보존 할 수 있다.
물론, 반드시 상술한 구성에 한정되는 것은 아니며 별도의 영상 처리 동작에는 관심도에 따라 다르게 처리될 수 있는 일련의 영상 처리 동작이 더 포함될 수 있음을 본 실시예가 속하는 기술분야의 통상의 기술자은 쉽게 이해할 수 있을 것이다.
또 다른 예로, 서버(200)는 상관 정보 분석 결과에 기초하여, 제1 해상도 영상에 태그된 연락처로 서버에 저장된 제2 해상도 영상을 전송하거나, 동일한 연락처가 태그된 제2 해상도 영상을 동일 폴더로 분류할 수 있다.
또 다른 예로, 서버(200)는 상관 정보 분석 결과에 기초하여, 특정 인물에게 공유된 영상만을 별도로 분류 할 수 있다.
또 다른 예로, 서버(200)는 상관 정보 분석 결과에 기초하여, 제1 해상도 영상에 지정된 음악을 사용자에게 구매 요청하거나 이미 구매된 음악 파일이라면 제2 해상도 영상에도 지정할 수 있다. 나아가 추후 사용자가 해당 음악가의 다른 음악 파일도 용이하게 사용할 수 있도록 문의(query) 하거나 추천(recommend)할 수 있다.
또 다른 예로, 서버(200)는 상관 정보 분석시 단말(100)에서 수행된 어플리케이션 리스트를 분석한다. 그리고, 단말(100)에서 사용된 어플리케이션의 풀 버전을 제2 해상도 영상에 적용(invoke)할 수 있다. 여기서, 영상에 적용될 어플리케이션의 라이선스를 서버(200)만 획득하고 단말은 제한된 라이선스만을 획득하여 사용될 수 있다. 즉, 단말(100)은 제1 해상도 영상에 대해서만 영상처리 가능한 어플리케이션을 활용하여 영상처리 수행하되, 추후 영상 처리 파라미터(801), 관심도 파라미터(802) 및 상관 정보 파라미터(803)를 서버(200)로 전송하여 서버(200)에 저장된 제2 해상도 영상에 대해서는 라이선스를 획득한 어플리케이션을 적용하여 영상처리 가능할 수 있다.
단계 s850에서, 서버(200)는 파라미터 분석 결과에 기초하여 제2 해상도 영상(812)에 대해 사용자 입력을 필요로 하는 수동 처리를 수행할 수 있다. 다라서 서버(200)는 상관정보 분석 결과에 기초하여 사용자에게 영상에 지정된 음악을 구매하도록 문의 및 추천할 수 있다. 또는 서버(200)는 제2 해상도 영상의 영상 처리를 위해 단말(100)에서 제1 해상도 영상 처리에 이용된 어플리케이션의 구매를 요청할 수 있다.
도 9는 다른 실시 예에 따른 단말의 동영상 처리 동작을 동기화 하는 일 예를 설명하기 위한 도이다.
도 9를 참조하면, 일 실시 예에 따른 단말(100)은 제2 해상도 동영상(912)으로부터 단말(100)내 영상처리를 위한 제1 해상도 동영상(911)을 생성할 수 있다. 여기서, 제1 해상도 동영상은 VGA해상도, 15 frame/s의 프레임레이트를 가지는 동영상을 수 있다. 또한 그 압축 형식은 MJPEG 또는 H.264 표준에 따를 수 있다. 제2 해상도 동영상은 FHD해상도, 60 frame/s의 프레임레이트를 가지는 동영상 일 수 있다. 또한 그 압축 형식은 H.264표준에 따를 수 있다.
단계 s910에서, 단말(100)은 제1 해상도 동영상에 대한 영상처리 동작과 관련된 영상 처리 파라미터, 관심도 파라미터 및 상관 정보 파라미터를 수집할 수 있다.
예를 들면, 영상 처리 파라미터는 제1 해상도 동영상의 일부 구간을 잘라내는 등의 편집 동작에 대한 히스토리를 포함할 수 있다.
또한, 관심도 파라미터는 제1 해상도 동영상 속에서 사용자가 시청한 영상 재생 위치 및 재생 시간 정보를 포함할 수 있다.
또한, 상관 정보 파라미터는 제1 해상도 동영상과 관련된 음악 지정 동작 또는 공유 동작에 관련된 정보를 포함할 수 있다.
단계 s920에서, 단말(100)은 수집된 영상 처리 파라미터, 관심도 파라미터 및 상관 정보 파라미터를 서버(200)로 전송 할 수 있다. 이때, 영상 처리 파라미터는 제2 해상도 동영상에 포함되어 전송되거나 별도로 전송될 수 있다.
단계 s930에서, 서버(200)는 수집된 영상 처리 파라미터, 관심도 파라미터 및 상관 정보 파라미터를 분석하고, 분석 결과에 따른 영상처리 동작을 수행한 결과 컨텐츠를 생성할 수 있다.
예를 들면, 서버(200)는 제1 해상도 동영상에 대해 수행되었던 영상 처리 동작에 대응하도록 제2 해상도 동영상에 동영상 편집 동작을 수행할 수 있다.
다른 예로, 서버(200)는 관심도 파라미터에 기초하여 단말(100)에서 사용자가 동영상을 재생한 위치 별로 영상 클립을 생성할 수 있다. 즉, 관심도가 높은 영상을 추출해 낼 수 있다.
또 다른 예로, 서버(200)는 상관 정보 파라미터에 기초하여 제2 해상도 동영상에 지정 음악을 삽입하거나 또는 공유 동작을 수행할 수 있다.
도 11 내지 도 13은 일 실시 예에 따른 단말(100) 및 서버(200)의 구성도를 나타낸다. 단말(100) 및 서버(200)는 상술한 정보 동기화 방법을 수행할 수 있는 장치로, 도 1 내지 도 10에서 상술한 단말 및 서버간의 정보 동기화 방법을 수행하기 위한 모든 실시예의 구현이 가능하다.
도 11 및 도 12는 일 실시 예에 따른 단말의 블럭도이다.
도 11 및 도 12에 도시된 단말(100)에는 본 실시 예와 관련된 구성요소들만이 도시되어 있다. 따라서 도11 및 도12에 도시된 구성요소 이외의 다른 범용적인 구성요소 들이 더 포함도리 수 있음을 본 실시 예와 관련된 기술분야에서 통상의 지식을 가진 자라면 이해할 수 있다.
도 11을 참조하면 일 실시 예에 따른 단말(100)은 사용자 입력부(1010), 제어부(1020), 파라미터 수집부(1030) 및 통신부(1040)를 포함할 수 있다.
일 실시 예에 따른 사용자 입력부(1010)는 터치 패널, 키(key) 버튼 등 사용자가 원하는 정보를 입력할 수 있도록 해주는 각종 입력장치를 포함하며, 단말의 소정 동작 모드에서 사용자 입력을 수신할 수 있다. 예를 들면, 사용자는 사용자 입력부(1010)를 통해서 단말(100)의 동작 모드를 일반 촬영 모드, 동영상 촬영 모드, 재생 모드 등으로 설정 할 수 있다. 또한, 재생 모드에서 디스플레이 되는 영상을 줌하는 동작을 수행하는 신호를 입력 받을 수 있다.
일 실시 예에 따른 제어부(1020)는 수신된 사용자 입력에 따라 제1 해상도의 영상에 대한 영상처리 동작을 수행하도록 제어할 수 있다. 여기서, 제어부(1020)는 하나 또는 복수의 프로세서로 구현될 수 있으며, 단말(100)의 전반적인 동작을 제어할 수 있다. 즉, 제어부(1020)는 사용자 입력부(1010), 파라미터 수집부(1030) 및 통신부(1040)를 제어할 수 있다.
일 실시 예에 따른 파라미터 수집부(1030)는 영상처리 동작에 대응되는 영상 처리 파라미터를 수집할 수 있다.
다른 예로, 파라미터 수집부(1030)는 제1 해상도 영상에 대한 사용자의 관심도를 나타내는 관심도 파라미터 및 제1 해상도 영상과 단말(100)에서 이용된 기능의 상관성을 나타내는 상관 정보 파라미터를 더 수집할 수 있다.
일 실시 예에 따른 통신부(1030)는 영상 처리 파라미터를 서버로 전송 할 수 있다. 다른 예로 통신부(1040)는 관심도 파라미터 및 상관 정보 파라미터를 서버(200)로 더 전송 할 수도 있다.
여기서, 통신부(1030)는 단말(100)과 서버(200)과 데이터를 송수신 하도록 하는 역할을 수행하는 네트워크 인터페이스 카드(NIC: Network Interface Card)나 모뎀 등을 포함할 수 있다.
도 12를 참조하면 일 실시 예에 따른 단말(100)은 도 11과 비교하여 저장부(1050), 디스플레이부(1060), 촬영부(1070) 및 센서부(1080)를 더 포함할 수 있다.
일 실시 예에 따른 저장부(1050)는 영상을 저장할 수 있다. 또한, 촬영된 풀 해상도 원본 데이터 또는 HD해상도 동영상을 저장할 수도 있다. 여기서, 저장부(1050)는 하드 디스크 드라이브(HDD: Hard Disk Drive)나 플래시 메모리 등 디지털 데이터를 저장하는 비 휘발성 저장매체를 이용하여 구성될 수 있다.
일 실시 예에 따른 디스플레이부(1060)는 LCD, LED 모듈 등 화면을 시각적으로 디스플레이 하기 위한 수단을 포함할 수 있다. 디스플레이부(1060)에는 제어부(1020)의 제어에 따라 제1 해상도 영상 및 영상 편집을 위한 사용자 인터페이스가 디스플레이 될 수 있다. 또한 디스플레이부(1060)가 터치패널로 구성된 경우 사용자 입력부(1010)에서 수행하는 동작을 함께 수행할 수도 있다.
일 실시 예에 따른 촬영부(1070)는 피사체를 촬영하여 풀 해상도 원본 데이터를 생성할 수 있다. 촬영부(1070)는 피사체를 촬영하기 위한 렌즈, 조리개, 셔터 및 이미지 센서 등을 포함할 수 있으며, 촬영된 영상의 해상도는 이미지 센서에 의해 결정될 수 있다.
일 실시 예에 따른 센서부(1080)는 영상 촬영시 사용자의 상태(예컨대, 심장 박동 또는 혈압), 촬영 당시의 날씨(예컨대 기압, 기온)를 센싱하기 위한 각종 센서를 포함할 수 있다.
도 13은 일 실시 예에 따른 서버의 블록도이다.
도 13에 도시된 서버(200)에는 본 실시 예와 관련된 구성요소들만이 도시되어 있다. 따라서 도 13에 도시된 구성요소 이외의 다른 범용적인 구성요소 들이 더 포함도리 수 있음을 본 실시 예와 관련된 기술분야에서 통상의 지식을 가진 자라면 이해할 수 있다.
도 13을 참조하면, 일 실시 예에 따른 서버(200)는 통신부(1210) 및 제어부(1220)를 더 포함할 수 있다.
일 실시 예에 따른 통신부(1210)는 제1 해상도 영상에 대해 단말에서 수행된 영상처리 동작에 대응되는 영상 처리 파라미터를 수신할 수 있다. 다른 예로, 통신부(1210)는 영상 처리 파라미터와 함께, 관심도 파라미터 및 상관 정보 파라미터를 수신할 수 있다.
일 실시 예에 따른 제어부(1220)는 수신된 영상 처리 파라미터에 기초하여 단말(100)에서 수행된 영상처리 동작과 동일한 영상 처리 동작을 제2 해상도의 영상에 대해 수행하도록 제어할 수 있다.
다른 예로, 제어부(1220)는 영상 처리 파라미터, 관심도 파라미터 및 상관 정보 파라미터를 분석하여 제2 해상도 영상에 대해 분석 결과에 대응하는 영상처리 동작을 수행하고, 상기 영상처리 동작의 결과물을 제공 할 수 있다.
한편, 서버(200)는 데이터베이스(미도시)를 더 포함하며 데이터베이스에는 제1 해상도 영상 및 제2 해상도 영상이 저장되어 있을 수 있다.
상술한 바에 따라서, 일 실시 예에 따라 단말에서 캡쳐된 영상에 대해 또는 단말에서 재생된 영상에 대해 수행된 다양한 액티비티를 클라우드 서버에서도 보유할 수 있도록 정보를 동기화하는 방법 및 시스템을 제공할 수 있다.
또한, 단말에서 발생한 다양한 액티비티에 대한 정보를 클라우드 서버가 보유함으로써, 사용자는 별도의 노력 없이 단말에서 이용한 것과 동일한 컨텐츠를 클라우드 서버 또는 SNS 서버에 접속하여 이용할 수 있다.
나아가, 단말에서 발생한 액티비티에 대한 정보를 바탕으로 관심도 및 상관도를 분석하고, 분석결과에 기초하여 별도의 영상처리 동작을 수행함으로써 차별화된 서비스를 제공할 수 있다.
본 발명의 일 실시 예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.
이상에서 본 발명의 실시 예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속한다.

Claims (27)

  1. 단말과 서버간의 정보 동기화 방법에 있어서,
    상기 단말이,
    소정 동작 모드에서 사용자 입력을 수신하는 단계;
    상기 수신된 사용자 입력에 따라 제1 해상도 영상에 대한 영상 처리 동작을 수행하는 단계;
    상기 영상 처리 동작에 대응되는 영상 처리 파라미터를 수집하는 단계; 및
    상기 영상 처리 파라미터를 상기 서버로 전송하는 단계를 포함하고,
    상기 영상 처리 파라미터를 수집하는 단계는,
    상기 수신된 사용자 입력에 기초하여, 상기 제 1 해상도 영상에 대한 사용자의 관심도를 나타내는 관심도 파라미터를 획득하는 단계를 포함하고,
    상기 영상 처리 파라미터를 상기 서버로 전송하는 단계는,
    상기 관심도 파라미터에 기초하여, 상기 사용자의 관심도가 높은 제 1 해상도 영상에 대응하는 제2 해상도 영상을 상기 영상 처리 파라미터와 함께 상기 서버로 전송하는 단계; 및
    상기 영상 처리 파라미터에 기초하여 상기 서버에 의해서 영상 처리 동작이 수행된 상기 제2 해상도 영상에 액세스(access)하는 단계를 포함하는 정보 동기화 방법.
  2. 제 1항에 있어서, 상기 정보 동기화 방법은
    상기 서버가,
    상기 영상 처리 파라미터에 기초하여, 상기 제1 해상도 영상보다 해상도가 높은 제2 해상도 영상에 대하여 상기 단말에서 수행된 영상 처리 동작과 동일한 영상 처리 동작을 수행하는 단계를 포함하는 것을 특징으로 하는 정보 동기화 방법.
  3. 제 2항에 있어서,
    상기 제1 해상도 영상은 스크린네일 해상도 영상이며,
    상기 제2 해상도 영상은 풀 해상도 영상인 것을 특징으로 하는 정보 동기화 방법.
  4. 삭제
  5. 삭제
  6. 제 2항에 있어서,
    상기 서버가 영상 처리 동작을 수행하는 단계는,
    상기 서버가 상기 영상 처리 파라미터 및 상기 서버에 미리 설정된 서버 파라미터에 기초하여, 상기 제2 해상도의 영상에 대해 영상 처리 동작을 수행하는 단계를 포함하는 것을 특징으로 하는 정보 동기화 방법.
  7. 제 1항에 있어서,
    상기 소정 동작 모드는 정지영상 촬영 모드, 동영상 촬영 모드 및 영상 재생 모드 중에서 하나인 것을 특징으로 하는 정보 동기화 방법.
  8. 제 7항에 있어서,
    상기 소정 동작 모드는 정지영상 촬영 모드이고,
    상기 영상 처리 파라미터는 촬영 장소, 촬영 설정 및 촬영 해상도 중에서 적어도 하나를 포함하는 것을 특징으로 하는 정보 동기화 방법.
  9. 제 7항에 있어서,
    상기 소정 동작 모드는 영상 재생 모드이고
    상기 영상 처리 파라미터는 영상 회전, 영상 크롭(crop), 태그, 영상 보정 정보 및 영상 재생 히스토리 중에서 적어도 하나에 대응 되는 파라미터를 포함하는 것을 특징으로 하는 정보 동기화 방법.
  10. 제 7항에 있어서,
    상기 소정 동작 모드는 동영상 촬영 모드이고
    영상 처리 파라미터는 촬영 장소, 촬영 설정, 해상도 및 프레임 레이트 중에서 적어도 하나를 포함하는 것을 특징으로 하는 정보 동기화 방법.
  11. 제 1항에 있어서,
    상기 서버는 클라우드 서비스 또는 소셜 네트워크 서비스를 제공하는 것을 특징으로 하는 정보 동기화 방법.
  12. 제 1항에 있어서,
    상기 영상 처리 파라미터를 수집하는 단계는,
    상기 제1 해상도 영상과 상기 단말에서 이용된 기능의 상관성을 나타내는 상관 정보 파라미터 중에서 적어도 하나를 수집하는 단계를 더 포함하고,
    상기 영상 처리 파라미터를 상기 서버로 전송하는 단계는,
    상기 단말이 상기 상관 정보 파라미터를 상기 서버로 전송하는 단계를 더 포함하는 것을 특징으로 하는 정보 동기화 방법.
  13. 제 12항에 있어서, 상기 정보 동기화 방법은,
    상기 서버가,
    상기 영상 처리 파라미터, 상기 관심도 파라미터 및 상기 상관 정보 파라미터 중에서 적어도 하나를 분석하는 단계; 및
    제2 해상도 영상에 대하여 상기 분석 결과에 대응하는 영상 처리 동작을 수행하고, 상기 영상 처리 동작의 결과물을 제공하는 단계를 포함하는 것을 특징으로 하는 정보 동기화 방법.
  14. 소정 동작 모드에서 사용자 입력을 수신하는 사용자 입력부;
    상기 수신된 사용자 입력에 따라 제1 해상도 영상에 대한 영상 처리 동작을 수행하도록 제어하는 제어부;
    상기 영상 처리 동작에 대응되는 영상 처리 파라미터를 수집하는 파라미터 수집부; 및
    상기 영상 처리 파라미터를 영상 처리 서버로 전송하는 통신부를 포함하고,
    상기 파라미터 수집부는
    상기 수신된 사용자 입력에 기초하여, 상기 제 1 해상도 영상에 대한 사용자의 관심도를 나타내는 관심도 파라미터를 획득하고,
    상기 통신부는,
    상기 관심도 파라미터에 기초하여, 상기 사용자의 관심도가 높은 제 1 해상도 영상에 대응하는 제2 해상도 영상을 상기 영상 처리 파라미터와 함께 상기 서버로 전송하고, 상기 영상 처리 파라미터에 기초하여 상기 서버에 의해서 영상 처리 동작이 수행된 상기 제2 해상도 영상에 액세스(access)하는 영상 처리 단말.
  15. 제 14항에 있어서,
    상기 영상 처리 단말은 피사체를 촬영하는 촬영부를 더 포함하고,
    상기 제어부는,
    제1 해상도 영상 및 상기 제1 해상도 영상 보다 높은 해상도를 갖는 제2 해상도 영상을 생성하고,
    상기 제2 해상도 영상을 상기 영상 처리 파라미터와 함께 상기 영상 처리 서버로 전송하도록 상기 통신부를 제어하는 것을 특징으로 하는 영상 처리 단말.
  16. 제 15항에 있어서,
    상기 제1 해상도의 영상은 스크린네일 해상도 영상이며,
    상기 제2 해상도 영상은 풀 해상도 영상인 것을 특징으로 하는 영상 처리 단말.
  17. 제 14항에 있어서,
    상기 소정 동작 모드는 정지영상 촬영 모드, 동영상 촬영 모드 및 영상 재생 모드 중에서 하나인 것을 특징으로 하는 영상 처리 단말.
  18. 제 14항에 있어서,
    상기 소정 동작 모드는 정지영상 촬영 모드이고,
    상기 영상 처리 파라미터는 촬영 장소, 촬영 설정 및 촬영 해상도 중에서 적어도 하나를 포함하는 것을 특징으로 하는 영상 처리 단말.
  19. 제 14항에 있어서,
    상기 소정 동작 모드는 영상 재생 모드이고
    상기 영상 처리 파라미터는 영상 회전, 영상 크롭(crop), 태그, 영상 보정 정보 및 영상 재생 히스토리 중에서 적어도 하나에 대응 되는 파라미터를 포함하는 것을 특징으로 하는 영상 처리 단말.
  20. 제 14항에 있어서,
    상기 소정 동작 모드는 동영상 촬영 모드이고
    영상 처리 파라미터는 촬영 장소, 촬영 설정, 해상도 및 프레임 레이트 중에서 적어도 하나를 포함하는 것을 특징으로 영상 처리 단말.
  21. 제 14항에 있어서,
    상기 파라미터 수집부는,
    상기 제1 해상도 영상과 상기 영상 처리 단말에서 이용된 기능의 상관성을 나타내는 상관 정보 파라미터를 더 수집하고,
    상기 통신부는,
    상기 상관 정보 파라미터 중에서 적어도 하나를 상기 영상 처리 서버로 더 전송하는 것을 특징으로 하는 영상 처리 단말.
  22. 제1 해상도 영상에 대하여 영상 처리 단말에서 수행된 영상 처리 동작에 대응되는 영상 처리 파라미터 및 사용자 입력에 기초하여 획득되는 상기 제 1 해상도 영상에 대한 상기 사용자의 관심도를 나타내는 관심도 파라미터, 상기 관심도 파라미터에 기초하여 상기 사용자의 관심도가 높은 제 1 해상도 영상에 대응하는 제2 해상도 영상을 수신하는 통신부;
    상기 영상 처리 파라미터에 기초하여, 상기 제1 해상도 영상보다 해상도가 높은 제2 해상도 영상에 대하여 상기 영상 처리 단말에서 수행된 영상 처리 동작과 동일한 영상 처리 동작을 수행하도록 제어하는 제어부를 포함하는 것을 특징으로 하는 영상 처리 서버.
  23. 제 22항에 있어서,
    상기 영상 처리 서버는 상기 제2 해상도 영상을 저장하는 데이터 베이스를 더 포함하는 것을 특징으로 하는 영상 처리 서버.
  24. 제 22항에 있어서,
    상기 제1 해상도의 영상은 스크린네일 해상도 영상이며,
    상기 제2 해상도 영상은 풀 해상도 영상인 것을 특징으로 하는 영상 처리 서버.
  25. 제 22항에 있어서,
    상기 제어부는,
    상기 영상 처리 파라미터 및 상기 영상 처리 서버에 미리 설정된 서버 파라미터에 기초하여, 상기 제2 해상도의 영상에 대해 영상 처리 동작을 수행하는 것을 특징으로 하는 영상 처리 서버.
  26. 제 22항에 있어서,
    상기 통신부는,
    상기 영상 처리 파라미터 및 관심도 파라미터와 함께 상관 정보 파라미터를 수신하고,
    상기 제어부는,
    상기 영상 처리 파라미터, 상기 관심도 파라미터 및 상기 상관 정보 파라미터 중에서 적어도 하나를 분석하고,
    상기 제2 해상도 영상에 대하여 상기 분석 결과에 대응하는 영상 처리 동작을 수행하고,
    상기 영상 처리 동작의 결과물을 제공하는 것을 특징으로 하는 영상 처리 서버.
  27. 제 1항 내지 제 3 항, 제 6 항 내지 제 13항 중에서 어느 한 항의 방법을 구현하기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.
KR1020140003087A 2014-01-09 2014-01-09 단말과 서버간의 정보 동기화 방법 및 시스템 KR102228457B1 (ko)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020140003087A KR102228457B1 (ko) 2014-01-09 2014-01-09 단말과 서버간의 정보 동기화 방법 및 시스템
PCT/KR2015/000227 WO2015105372A1 (en) 2014-01-09 2015-01-09 Method and system for synchronizing usage information between device and server
CN201580003021.1A CN105814905B (zh) 2014-01-09 2015-01-09 用于使使用信息在装置与服务器之间同步的方法和***
US15/157,521 US10070175B2 (en) 2014-01-09 2016-05-18 Method and system for synchronizing usage information between device and server

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140003087A KR102228457B1 (ko) 2014-01-09 2014-01-09 단말과 서버간의 정보 동기화 방법 및 시스템

Publications (2)

Publication Number Publication Date
KR20150083491A KR20150083491A (ko) 2015-07-20
KR102228457B1 true KR102228457B1 (ko) 2021-03-16

Family

ID=53524141

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140003087A KR102228457B1 (ko) 2014-01-09 2014-01-09 단말과 서버간의 정보 동기화 방법 및 시스템

Country Status (4)

Country Link
US (1) US10070175B2 (ko)
KR (1) KR102228457B1 (ko)
CN (1) CN105814905B (ko)
WO (1) WO2015105372A1 (ko)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10789472B1 (en) * 2017-06-14 2020-09-29 Amazon Technologies, Inc. Multiple image processing and sensor targeting for object detection
CN107622788B (zh) * 2017-09-18 2021-01-22 张一荃 一种云影像交互式高精度显示方法
KR102495753B1 (ko) * 2017-10-10 2023-02-03 삼성전자주식회사 카메라를 이용하여 획득한 원시 이미지를 외부 전자 장치를 이용하여 처리하는 방법 및 전자 장치
KR102609734B1 (ko) * 2018-07-20 2023-12-05 삼성전자 주식회사 전자 장치 및 이미지의 전송 상태에 기반하여 이미지를 보정하는 방법
KR102608127B1 (ko) 2019-04-08 2023-12-01 삼성전자주식회사 이미지 프로세싱을 수행하는 전자 장치 및 방법
CN111833234B (zh) * 2020-07-10 2024-05-07 京东方科技集团股份有限公司 图像显示方法、图像处理装置和计算机可读存储介质

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110026899A1 (en) * 2009-07-31 2011-02-03 Paul Lussier Systems and Methods for Viewing and Editing Content Over a Computer Network in Multiple Formats and Resolutions

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040093432A1 (en) * 2002-11-07 2004-05-13 Eastman Kodak Company Method and system for conducting image processing from a mobile client device
JP4443181B2 (ja) * 2003-10-15 2010-03-31 株式会社日立製作所 コミュニケーションシステム及び方法
JP4145246B2 (ja) 2004-01-15 2008-09-03 オリンパス株式会社 画像処理方法、画像処理装置及びプログラム
US8169639B2 (en) * 2004-11-05 2012-05-01 Brother Kogyo Kabushiki Kaisha Communication system providing services from a server to a client device
US7653302B2 (en) 2005-03-24 2010-01-26 Syabas Technology Inc. Techniques for transmitting personal data and metadata among computing devices
US7839429B2 (en) * 2005-05-26 2010-11-23 Hewlett-Packard Development Company, L.P. In-camera panorama stitching method and apparatus
JP4689440B2 (ja) * 2005-11-04 2011-05-25 キヤノン株式会社 撮像装置、及び処理方法
US20070104479A1 (en) * 2005-11-10 2007-05-10 Akihiro Machida Correcting photographs obtained by a handheld device
CN100507917C (zh) * 2006-02-24 2009-07-01 佳能株式会社 图像处理设备、图像处理方法以及服务器及其控制方法
JP4810420B2 (ja) * 2006-02-24 2011-11-09 キヤノン株式会社 画像処理装置及び画像処理方法、サーバ及びその制御方法、プログラム並びに記憶媒体
KR100917606B1 (ko) * 2007-09-21 2009-09-17 한국전자통신연구원 영상데이터를 이용한 응용서비스 제공 시스템 및 방법
CN101217431B (zh) * 2007-12-29 2012-06-27 腾讯科技(深圳)有限公司 同步移动终端、网络电视、网络相册的图片的方法及***
US8310556B2 (en) * 2008-04-22 2012-11-13 Sony Corporation Offloading processing of images from a portable digital camera
CN101582963A (zh) * 2008-04-22 2009-11-18 索尼株式会社 从便携式数码相机卸载对图像的处理
US8624989B2 (en) 2008-07-01 2014-01-07 Sony Corporation System and method for remotely performing image processing operations with a network server device
KR101339469B1 (ko) * 2009-12-14 2013-12-10 에스케이플래닛 주식회사 컨텐츠 선호도정보를 제공하는 컨텐츠 서비스 시스템 및 컨텐츠 서비스 방법
US8856823B2 (en) * 2010-02-24 2014-10-07 Verizon Patent And Licensing Inc. Methods and systems for synchronizing delivery of media content streams having different resolutions
WO2013085546A1 (en) * 2011-12-09 2013-06-13 Hewlett-Packard Development Company, Lp Modification of images based on orientation
US10136097B2 (en) * 2012-02-02 2018-11-20 Apple Inc. Digital camera raw image support
KR101992397B1 (ko) * 2012-06-27 2019-09-27 삼성전자주식회사 영상 처리 장치, 영상 중계 장치, 영상 처리 방법 및 영상 중계 방법

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110026899A1 (en) * 2009-07-31 2011-02-03 Paul Lussier Systems and Methods for Viewing and Editing Content Over a Computer Network in Multiple Formats and Resolutions

Also Published As

Publication number Publication date
CN105814905B (zh) 2019-02-15
WO2015105372A1 (en) 2015-07-16
US20160261906A1 (en) 2016-09-08
KR20150083491A (ko) 2015-07-20
US10070175B2 (en) 2018-09-04
CN105814905A (zh) 2016-07-27

Similar Documents

Publication Publication Date Title
US11159763B2 (en) Low power framework for controlling image sensor mode in a mobile image capture device
US10732809B2 (en) Systems and methods for selective retention and editing of images captured by mobile image capture device
KR102228457B1 (ko) 단말과 서버간의 정보 동기화 방법 및 시스템
US9013604B2 (en) Video summary including a particular person
US8665345B2 (en) Video summary including a feature of interest
US9838641B1 (en) Low power framework for processing, compressing, and transmitting images at a mobile image capture device
US20150222815A1 (en) Aligning videos representing different viewpoints
US9836819B1 (en) Systems and methods for selective retention and editing of images captured by mobile image capture device
US20150039621A1 (en) Method for capturing the moment of the photo capture
TW201602922A (zh) 自動***視頻成爲相片故事
US9781293B2 (en) Apparatus and method for managing image files by displaying backup information
US9449646B2 (en) Methods and systems for media file management
JP2002176613A (ja) 動画像編集装置、動画像編集方法および記録媒体
US20150036020A1 (en) Method for sharing original photos along with final processed image
US8648925B2 (en) Control apparatus, control method, and control system for reproducing captured image data
US10474743B2 (en) Method for presenting notifications when annotations are received from a remote device
JP6463967B2 (ja) 撮像装置及びその制御方法
JP5665380B2 (ja) 画像処理装置、画像処理装置の制御方法、プログラム、及び記録媒体
US10360942B1 (en) Systems and methods for changing storage of videos
JP6604268B2 (ja) 情報処理装置、情報処理装置におけるコンテンツデータ表示方法及びプログラム
JP2014204235A (ja) コンテンツ記録再生装置、コンテンツ管理方法及びプログラム
JP2020077922A (ja) 画像編集装置、画像編集方法、及びプログラム

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant