KR20160051390A - 전자장치 및 전자장치의 필터 제공 방법 - Google Patents

전자장치 및 전자장치의 필터 제공 방법 Download PDF

Info

Publication number
KR20160051390A
KR20160051390A KR1020140151302A KR20140151302A KR20160051390A KR 20160051390 A KR20160051390 A KR 20160051390A KR 1020140151302 A KR1020140151302 A KR 1020140151302A KR 20140151302 A KR20140151302 A KR 20140151302A KR 20160051390 A KR20160051390 A KR 20160051390A
Authority
KR
South Korea
Prior art keywords
filter
information
data
electronic device
image data
Prior art date
Application number
KR1020140151302A
Other languages
English (en)
Inventor
이준호
이공욱
정진회
조익환
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020140151302A priority Critical patent/KR20160051390A/ko
Priority to US14/930,940 priority patent/US20160127653A1/en
Priority to EP15857436.8A priority patent/EP3216207A4/en
Priority to AU2015343983A priority patent/AU2015343983A1/en
Priority to PCT/KR2015/011723 priority patent/WO2016072714A1/en
Priority to CN201510737322.9A priority patent/CN105574910A/zh
Publication of KR20160051390A publication Critical patent/KR20160051390A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • H04N23/632Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/5866Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using information manually generated, e.g. tags, keywords, comments, manually generated location and time information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/64Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Library & Information Science (AREA)
  • Human Computer Interaction (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

다양한 실시예에 따르면, 전자장치는, 이미지 센서; 및 상기 이미지센서를 통해 촬영된 영상데이터를 획득하고, 상기 영상데이터의 객체를 기반으로, 적어도 하나 이상의 필터 데이터를 추출하며, 요청정보에 의해, 적어도 하나 이상의 상기 필터 데이터를 화면에 표시하도록 설정된 필터추천 제어모듈을 포함할 수 있다. 다른 실시예가 가능하다.

Description

전자장치 및 전자장치의 필터 제공 방법{ELECTRONIC DEVICE AND METHOD FOR PROVIDING FILTER N ELECTRONIC DEVICE}
다양한 실시예는 전자장치 및 전자장치의 필터 제공 방법에 관한 것이다.
사진을 편집할 수 있는 다양한 기능들 중 필터기능은 사진에 다양한 효과를 적용하여 특별한 느낌의 사진을 만들 수 있는 기능이다. 하나의 사진에 대해 하나의 필터기능이 선택되면, 사진 전체에 선택된 필터기능에 대응되는 동일한 효과가 적용되고 있다.
사진 전체에 선택된 필터기능에 대응되는 동일한 효과가 적용됨으로, 사진에 포함된 다양한 객체의 종류에 따라 사용자가 원한 하나의 필터기능을 적용하거나, 또는 사진에 포함된 다양한 객체들 중 사용자가 원하는 객체에만 사용자가 원하는 필터기능을 적용할 수 없다.
다양한 실시예는 전술한 문제점 또는 다른 문제점을 해결하기 위해 영상데이터에 포함된 객체의 종류에 따라 다양한 필터기능을 제공할 수 있는 전자장치 및 전자장치의 필터 제공 방법을 제공할 수 있다.
전술한 과제 또는 다른 과제를 해결하기 위한 한 실시예에 따른 전자장치는, 이미지 센서; 및 상기 이미지센서를 통해 촬영된 영상데이터를 획득하고, 상기 영상데이터의 객체를 기반으로, 적어도 하나 이상의 필터 데이터를 추출하며, 요청정보에 의해, 적어도 하나 이상의 상기 필터 데이터를 화면에 표시하도록 설정된 필터추천 제어모듈을 포함할 수 있다.
한 실시예에 따른 전자장치는, 촬영정보 또는 객체정보 중 적어도 하나를 포함하는 필터추천 요청정보에 대응되는 적어도 하나의 필터 데이터가 저장된 저장 모듈; 및 다른 전자장치로부터 적어도 하나의 필터 데이터 요청정보가 수신되면, 적어도 하나의 필터 데이터에 포함된 촬영정보 또는 객체정보 중 적어도 하나를 기반으로, 적어도 하나의 필터 데이터를 검출하여 다른 전자장치에게 전송하도록 설정된 필터추천 제어모듈을 포함할 수 있다.
한 실시예에 따른 전자장치의 필터 제공 방법은, 이미지센서를 통해 촬영된 영상데이터를 획득하는 동작; 상기 영상데이터의 객체를 기반으로, 적어도 하나 이상의 필터 데이터를 추출하는 동작; 요청정보에 의해, 적어도 하나 이상의 상기 필터 데이터를 화면에 표시하는 동작을 포함할 수 있다.
한 실시예에 따른 전자장치의 필터 제공 방법은, 촬영정보 또는 객체정보 중 적어도 하나를 포함하는 필터 데이터에 대응되는 적어도 하나의 필터 데이터를 저장하는 동작; 및 다른 전자장치로부터 적어도 하나의 필터 데이터가 수신되면, 적어도 하나의 필터 데이터요청정보에 포함된 촬영정보 또는 객체정보 중 적어도 하나를 기반으로, 적어도 하나의 필터 데이터를 추출하여 다른 전자장치에게 전송하는 동작을 포함할 수 있다.
다양한 실시예에 따른 전자장치 및 전자장치의 필터 제공 방법은, 영상데이터에 포함된 객체의 종류에 따라 다양한 필터기능을 제공할 수 있다.
도 1은 다양한 실시예에 따른 전자장치에 대한 블록도를 도시한다.
도 2는 다양한 실시예에 따른 필터 제공을 위한 전자 장치에 대한 블록도를 도시한다.
도 3은 다양한 실시예에 따른 필터 제공 방법을 보여주는 흐름도를 도시한다.
도 4는 다양한 실시예에 따른 필터 제공 방법을 보여주는 흐름도를 도시한다.
도 5는 다양한 실시예에 따른 동영상에서 필터제공 동작을 설명하기 위한 도면을 도시한다.
도 6은 다양한 실시예에 따른 정지영상에서 필터 제공 동작을 설명하기 위한 도면을 도시한다.
도 7은 다양한 실시예에 따른 영상데이터에서 객체의 상세정보 제공 동작을 설명하기 위한 도면을 도시한다.
도 8은 다양한 실시예에 따른 영상데이터에서 객체의 상세정보제공 동작을 설명하기 위한 도면을 도시한다.
도 9는 다양한 실시예에 따른 영상데이터에서 객체의 상세정보제공 동작을 설명하기 위한 도면을 도시한다.
도 10은 다양한 실시예에 따른 전자 장치의 블록도를 도시한다.
이하, 첨부된 도면을 참조하여 본 발명(present disclosure)를 설명한다. 본 발명은 특정 실시예가 도면에 예시되고 관련된 상세한 설명이 기재되어 있으나, 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있다. 따라서, 본 발명은 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경 또는 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조부호가 사용되었다. 또한 본 발명의 요지를 흐리게 할 수 있는 공지 기능 및 구성에 대한 상세한 설명은 생략할 것이다. 하기의 설명에서는 본 발명의 다양한 실시예에 따른 동작을 이해하는데 필요한 부분만이 설명되며, 그 이외 부분의 설명은 본 발명의 요지를 흩트리지 않도록 생략될 것이라는 것을 유의하여야 한다.
본 발명 가운데 사용될 수 있는“포함한다,”“포함할 수 있다” 등의 표현은 개시된 해당 기능, 동작, 구성요소 등의 존재를 가리키며, 추가적인 하나 이상의 기능, 동작, 구성요소 등을 제한하지 않는다. 또한, 본 발명에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
본 발명에서 “또는” 등의 표현은 함께 나열된 단어들의 어떠한, 그리고 모든 조합을 포함한다. 예를 들어, “A 또는 B”는, A를 포함할 수도, B를 포함할 수도, 또는 A 와 B 모두를 포함할 수도 있다.
본 발명 가운데 “제 1,”“제2,”“첫째,”또는“둘째,”등의 표현들이 본 발명의 다양한 구성요소들을 수식할 수 있지만, 해당 구성요소들을 한정하지 않는다. 예를 들어, 상기 표현들은 해당 구성요소들의 순서 및/또는 중요도 등을 한정하지 않는다. 상기 표현들은 한 구성요소를 다른 구성요소와 구분 짓기 위해 사용될 수 있다. 예를 들어, 제1 사용자 기기와 제 2 사용자 기기는 모두 사용자 기기이며, 서로 다른 사용자 기기를 나타낸다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해될 수 있어야 할 것이다.
본 발명에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 발명에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
본 발명에 따른 전자 장치는, 디스플레이 기능이 포함된 장치일 수 있다. 예를 들면, 전자 장치는 스마트 폰(smartphone), 태블릿 PC(tablet personal computer), 이동전화기(mobile phone), 화상전화기, 전자북 리더기(e-book reader), 데스크탑 PC(desktop personal computer), 랩탑 PC(laptop personal computer), 넷북 컴퓨터(netbook computer), PDA(personal digital assistant), PMP(portable multimedia player), MP3 플레이어, 모바일 의료기기, 카메라(camera), 웨어러블 장치(wearable device)(예: 전자 안경과 같은 head-mounted-device(HMD), 전자 의복, 전자 팔찌, 전자 목걸이, 전자 앱세서리(appcessory), 또는 스마트 와치(smartwatch) 중의 적어도 하나를) 포함할 수 있다.
어떤 실시예에 따르면, 전자 장치는 디스플레이 기능을 갖춘 스마트 가전 제품(smart home appliance)일 수 있다. 스마트 가전 제품은, 예를 들자면, 텔레비전, DVD(digital video disk) 플레이어, 오디오, 냉장고, 에어컨, 청소기, 오븐, 전자레인지, 세탁기, 공기 청정기, 셋톱 박스(set-top box), TV 박스(예를 들면, 삼성 HomeSyncTM , 애플TVTM , 또는 구글 TVTM), 게임 콘솔(game consoles), 전자 사전, 전자 키, 캠코더(camcorder), 또는 전자 액자 중의 적어도 하나를 포함할 수 있다.
어떤 실시예에 따르면, 전자 장치는 각종 의료기기(예: MRA(magnetic resonance angiography), MRI(magnetic resonance imaging), CT(computed tomography), 촬영기, 초음파기, 네비게이션(navigation) 장치, GPS 수신기(global positioning system receiver), EDR(event data recorder), FDR(flight data recorder), 자동차 인포테인먼트(infotainment) 장치, 선박용 전자 장비(예: 선박용 항법 장치 및 자이로 콤파스 등), 항공 전자기기(avionics), 또는 보안 기기 중의 적어도 하나를 포함할 수 있다.
어떤 실시예에 따르면, 전자 장치는, 디스플레이 기능을 포함한 가구(furniture) 또는 건물/구조물의 일부, 전자 보드(electronic board), 전자 사인 입력장치(electronic signature receiving device), 프로젝터(projector), 또는 각종 계측기기(예: 수도, 전기, 가스, 또는 전파 등) 중의 적어도 하나를 포함할 수 있다. 본 발명에 따른 전자 장치는 전술한 다양한 장치들 중 하나 또는 그 이상의 조합일 수 있다. 또한, 본 발명에 따른 전자 장치는 전술한 기기들에 한정되지 않음은 당업자에게 자명하다.
이하, 첨부된 도면을 참조하여 다양한 실시예에 따른 전자 장치에 대해서 살펴본다. 다양한 실시예에서 이용되는 사용자라는 용어는 전자 장치를 사용하는 사람 또는 전자 장치를 사용하는 장치(예: 인공지능 전자 장치)를 포함하여 지칭할 수 있다.
도 1은 다양한 실시예에 따른 전자장치에 대한 블록도를 도시한다. 도 1을 참조하면, 상기 전자장치(100)는 버스(110), 프로세서(120), 메모리(130), 입출력 인터페이스 (140), 디스플레이(150), 통신 모듈(160) 또는 필터추천 제어 모듈(170)을 포함할 수 있다.
상기 버스(110)는 전술한 구성요소들을 서로 연결하고, 전술한 구성요소들 간의 통신(예: 제어 메시지)을 전달하는 회로일 수 있다.
상기 프로세서(120)는 상기 버스(110)를 통해 전술한 다른 구성요소들(예: 상기 메모리(130), 상기 입출력 인터페이스(140), 상기 디스플레이(150), 상기 통신 모듈(160) 등)로부터 명령을 수신하여, 수신된 명령을 해독하고, 해독된 명령에 따른 연산이나 데이터 처리를 실행할 수 있다.
상기 메모리(130)는, 상기 프로세서(120) 또는 다른 구성요소들(예: 상기 입출력 인터페이스(140), 상기 디스플레이(150), 상기 통신 모듈(160)등)로부터 수신되거나 상기 프로세서(120) 또는 다른 구성요소들에 의해 생성된 명령 또는 데이터를 저장할 수 있다. 상기 메모리(130)는, 예를 들면, 커널(131), 미들웨어(132), 어플리케이션 프로그래밍 인터페이스(API: application programming interface, 133) 또는 적어도 하나의 어플리케이션(134) 등의 프로그래밍 모듈들을 포함할 수 있다. 전술한 각각의 프로그래밍 모듈들은 소프트웨어, 펌웨어, 하드웨어 또는 이들 중 적어도 둘 이상의 조합으로 구성될 수 있다.
상기 커널(131)은 나머지 다른 프로그래밍 모듈들, 예를 들면, 상기 미들웨어(132), 상기 API(133) 또는 상기 어플리케이션(134)에 구현된 동작 또는 기능을 실행하는 데 사용되는 시스템 리소스들(예: 상기 버스(110), 상기 프로세서(120) 또는 상기 메모리(130) 등)을 제어 또는 관리할 수 있다. 또한, 상기 커널(131)은 상기 미들웨어(132), 상기 API(133) 또는 상기 어플리케이션(134)에서 상기 전자 장치(100)의 개별 구성요소에 접근하여 제어 또는 관리할 수 있는 인터페이스를 제공할 수 있다.
상기 미들웨어(132)는 상기 API(133) 또는 상기 어플리케이션(134)이 상기 커널(131)과 통신하여 데이터를 주고받을 수 있도록 중개 역할을 수행할 수 있다. 또한, 상기 미들웨어(132)는 상기 다수의 어플리케이션들(134)로부터 수신된 작업 요청들과 관련하여, 예를 들면, 상기 다수의 어플리케이션들(134) 중 적어도 하나의 어플리케이션에 상기 전자 장치(100)의 시스템 리소스(예: 상기 버스(110), 상기 프로세서(120) 또는 상기 메모리(130) 등)를 사용할 수 있는 우선 순위를 배정하는 등의 방법을 이용하여 작업 요청에 대한 로드 밸런싱을 수행할 수 있다.
상기 API(133)는 상기 어플리케이션(134)이 상기 커널 131 또는 상기 미들웨어(132)에서 제공하는 기능을 제어할 수 있는 인터페이스로, 예를 들면, 파일 제어, 창 제어, 화상 처리 또는 문자 제어 등을 위한 적어도 하나의 인터페이스 또는 함수를 포함할 수 있다.
상기 입출력 인터페이스(140)는, 예를 들면, 사용자로부터 명령 또는 데이터를 입력받아 상기 버스(110)를 통해 상기 프로세서(120) 또는 상기 메모리(130)에 전달할 수 있다. 상기 디스플레이(150)은 사용자에게 화상, 영상 또는 데이터(예: 멀티미디어 데이터 또는 텍스트 데이터 등) 등을 표시할 수 있다.
상기 통신 모듈(160)은 다른 전자 장치(102, 104) 또는 서버(164)와 상기 전자 장치(100) 간의 통신을 연결할 수 있다. 상기 통신 모듈(160)은 소정의 근거리 유무선 통신(예: Wifi(wireless fidelity), BT(Bluetooth), NFC(near field communication), 소정의 네트워크 통신(예: 인터넷(Internet), LAN(local area network), WAN(wire area network), 텔레커뮤니케이션 네트워크(telecommunication network), 셀룰러 네트워크(cellular network), 위성 네트워크(satellite network), USB(universal serial bus), RS-232(recommended standard 232) 또는 POTS(plain old telephone service) 등) 등의 유무선 통신(162)을 지원할 수 있다. 상기 전자 장치(102, 104) 각각은 상기 전자 장치(100)와 동일한 장치(예: 같은 타입의 장치)이거나 또는 다른 장치(예: 다른 타입의 장치) 일 수 있다.
상기 필터추천 제어 모듈(170)은 복수의 영상데이터들을 연락처 정보를 기준으로 분류된 파일그룹으로 생성으로, 파일그룹을 연관된 연락처 정보로 전송할 수 있다. 후술하는 도 2 내지 도 10과 연관하여, 상기 필터추천 제어 모듈(170)에 대한 추가적인 정보가 제공된다.
도 2는 다양한 실시예에 따른 전송 제어를 위한 전자 장치(200)에 대한 블록도를 도시한다. 상기 전자 장치(200)는, 예를 들면, 도 1에 도시된 전자 장치(100)일 수 있다. 도 2를 참조하면, 전자 장치(200)는 필터추천 제어 모듈(210) 및 저장 모듈(220)을 포함할 수 있다.
한 실시예에 따르면, 필터추천 모듈(210)은, 도 1에 도시된 필터추천 제어 모듈(170) 일 수 있다. 한 실시예에 따르면, 필터추천 제어 모듈(210)은, 도 1에 도시된 프로세서(120)일 수 있다. 필터추천 제어 모듈(210)은, 예를 들어, 하드웨어, 소프트웨어 또는 펌웨어(firmware) 중 하나 또는 둘 이상의 조합을 포함할 수 있다.
한 실시예에 따르면, 필터추천 제어 모듈(210)은, 영상데이터를 표시하는 동안, 사용자에 의해 필터추천이 선택되면 영상데이터에서 촬영정보 또는 객체정보 중 적어도 하나를 포함하는 필터 데이터 요청정보를 검출할 수 있다. 필터추천 제어 모듈(210)은 저장 모듈(220)에 저장된 영상데이터를 표시하는 동안 필터추천의 선택에 따라 필터 데이터 요청정보를 검출할 수 있다. 필터추천 제어 모듈(210)은 카메라 모듈을 통해 수신되는 영상데이터를 표시하는 프리뷰 모드에서 필터추천의 선택에 따라 필터 데이터 요청정보를 검출할 수 있다.
필터추천 제어 모듈(210)은 영상데이터에 포함된 정보 예를 들어, EXIF정보(예를 들어, 카메라 제조사, 카메라 모델, 회전방향, 날짜와 시간, 색 공간, 초점거리, 플래시, ISO속도, 조리개, 셔터속도, GPS정보등)에서 촬영정보를 검출할 수 있다. 촬영정보는 예를 들어, 촬영장소, 촬영날씨, 촬영날짜 또는 촬영시간 중 적어도 하나를 포함할 수 있으며, 또는 영상데이터에 포함된 정보(예를 들어, EXIF정보) 중 다른 정보가 될 수 있다. 필터추천 제어 모듈(210)은 프리뷰 모드에서 영상데이터를 표시하는 동안에는, GPS를 통해 수신되는 현재 장소를 촬영장소로, 외부 전자장치(예를 들어, 날씨 제공 서버)로부터 제공받는 현재 날씨를 촬영날씨로, 현재 날짜 및 현재 시간을 촬영날짜 및 촬영시간으로 검출할 수 있다.
필터추천 제어 모듈(210)은 영상데이터에서 객체의 종류, 객체의 위치, 객체의 비중 또는 객체의 선명도 중 적어도 하나를 포함하는 객체정보를 검출할 수 있으며, 객체 정보의 개수는 영상데이터에 포함된 객체의 개수에 대응되게 생성할 수 있다. 필터추천 제어 모듈(210)은 공지된 객체인식 기술을 이용하여, 영상데이터에 포함된 객체의 종류, 영상데이터에서의 객체의 위치, 영상데이터에서 객체가 차지하는 비중 또는 객체의 선명도를 검출할 수 있다.
필터추천 제어모듈(210)은 객체정보를 기반으로 영상데이터에 포함된 적어도 하나의 객체 각각에 대한 분류정보를 검출할 수 있으며, 상기 분류정보는 객체의 위치, 객체의 비중 및 객체의 선명도의 우선순위에 따라 결정될 수 있다. 영상데이터에 포함된 적어도 하나의 객체 각각이 가지는 분류정보에 따라 필터 데이터가 다르게 제공될 수 있다. 필터추천 제어모듈(210)은 상기 촬영정보를 기반으로 촬영위치를 검출하거나, 또는 촬영위치 및 촬영날씨를 검출할 수 있다. 필터추천 제어모듈(210)은 상기 촬영정보에 촬영날씨가 포함되어 있지 않는 경우, 외부 전자장치(예를 들어, 날씨 제공서버)로부터 촬영위치, 촬영 날짜 및 촬영시간에 대응되는 날씨정보를 촬영 날씨로 제공받을 수 있다.
필터추천 제어 모듈(210)은 저장 모듈(220)의 필터 DB에서 촬영위치 또는 적어도 하나의 객체의 분류정보에 대응되는 적어도 하나의 필터 데이터를 검출할 수 있다. 필터추천 제어 모듈(210)은 저장 모듈(220)의 필터 DB에서 촬영위치 및 촬영날씨 또는 적어도 하나의 객체의 분류정보에 대응되는 적어도 하나의 필터 데이터를 검출할 수 있다. 필터추천 제어 모듈(210)은 영상데이터를 표시하는 동안 영상데이터에 포함된 각각의 객체에 대한 적어도 하나의 필터 데이터를 표시할 수 있다. 필터추천 제어 모듈(210)은 영상데이터에 포함된 각각의 객체에 대한 적어도 하나의 필터 데이터를 표시하는 동안 필터 데이터가 선택되면, 선택된 필터 데이터에 대응되는 필터기능을 해당 객체에 적용하고, 저장 모듈(220)의 필터 DB에서 해당 객체에 대한 필터 데이터를 업데이트할 수 있다. 필터추천 제어 모듈(210)는 사용자에 의해 선택된 필터 데이터가 수신되면, 해당 객체에 대한 분류정보(예를 들어, 객체의 위치, 객체의 비중 및 객체의 선명도) 또는 촬영위치(및 촬영 날씨) 중 적어도 하나에 기반하여, 해당 객체에 대한 필터 데이터가 학습되어 저장 모듈(220)의 필터 DB에 저장될 수 있다. 예를 들어, 가을 많은 날 한강 공원에서 촬영한 두 사람의 사진에서 촬영된 사진에 적합한 사람, 강, 및 배경에 대한 필터 데이터가 사용자의 선택에 의해 학습되어 유사도가 높은 필터 데이터가 각각의 객체에 따라 제공될 수 있다. 필터추천 제어 모듈(210)는 다른 전자장치(예를 들어, 필터 데이터 제공서버)로부터 여러 사람들의 선택에 의해 학습된 객체에 대한 필터 데이터를 주기적으로 또는 사용자의 요청에 의해 수신할 수 있다.
한 실시예에 따르면, 필터추천 제어 모듈(210)은, 영상데이터에서 검출된 필터데이터 요청정보를 다른 전자장치(예를 들어, 필터 데이터 제공서버)에게 전송할 수 있다. 상기 다른 전자장치는, 예를 들면, 도 1에 도시된 전자 장치(102, 104) 또는 서버(164)가 될 수 있다. 필터추천 제어 모듈(210)은 다른 전자장치로부터 필터 데이터가 수신되면, 영상데이터를 표시하는 동안 적어도 하나의 객체 각각에 대해 수신된 적어도 하나의 필터 데이터를 표시할 수 있다. 필터추천 제어 모듈(210)은, 영상데이터에 포함된 각각의 객체에 대한 적어도 하나의 필터 데이터를 표시하는 동안 필터 데이터가 선택되면, 선택된 필터 데이터에 대응되는 필터기능을 해당 객체에 적용하고, 다른 전자장치에서 해당 객체에 대한 필터 데이터를 업데이트할 수 있도록 선택된 필터 데이터를 전송할 수 있다.
한 실시예에 따르면, 필터추천 제어 모듈(210)은, 다른 전자장치로부터 필터 데이터 요청정보가 수신되면, 수신된 필터 데이터 요청정보를 기반으로 저장 모듈(220)의 필터 DB에서 적어도 하나의 필터 데이터를 검출하여 다른 전자장치에게 전송할 수 있다. 필터추천 제어 모듈(210)은, 다른 전자장치로부터 사용자에 의해 선택된 필터 데이터가 수신되면, 해당 객체에 대한 필터 데이터를 학습하여 저장 모듈(220)의 필터 DB에 저장할 수 있다.
한 실시예에 따르면, 필터추천 제어 모듈(210)은, 영상데이터를 표시하는 동안, 객체에 대한 상세정보가 요청되면, 외부 전자장치로부터 수신된 객체에 대한 상세정보를 표시할 수 있다. 예를 들어, 음식점에서 촬영된 음식에 대한 필터 데이터뿐만 아니라, 촬영된 음식에 대한 상세정보(예를 들어, 음식이름, 음식 칼로리등)를 외부 전자장치로부터 제공받을 수 있다.
저장 모듈(220)은, 예를 들면, 도 1에 도시된 메모리(130)일 수 있다. 한 실시예에 따르면, 저장 모듈(220)은 객체정보 또는 촬영정보 중 적어도 하나를 포함하는 적어도 하나의 필터 데이터가 저장될 수 있다.
다양한 실시예에 따르면, 이미지 센서, 및 필터추천 제어모듈(210)은, 상기 이미지센서를 통해 촬영된 영상데이터를 획득하고, 상기 영상데이터의 객체를 기반으로, 적어도 하나 이상의 필터 데이터를 추출하며, 요청정보에 의해, 적어도 하나 이상의 상기 필터 데이터를 화면에 표시하도록 설정될 수 있다.
다양한 실시예에 따르면, 상기 영상데이터는, 촬영정보 또는 객체정보 중 적어도 하나를 포함할 수 있다.
다양한 실시예에 따르면, 상기 촬영정보는 촬영장소, 촬영날씨, 촬영날짜 또는 촬영시간 중 적어도 하나를 포함할 수 있다.
다양한 실시예에 따르면, 상기 객체정보는 객체의 종류, 객체의 위치, 객체의 비중 또는 객체의 선명도 중 적어도 하나를 포함하고, 상기 객체정보는 상기 영상데이터에 포함된 적어도 하나의 객체 개수에 대응되게 존재하도록 설정될 수 있다.
다양한 실시예에 따르면, 필터추천 제어모듈(210)은, 상기 영상데이터에서 영역을 구분하여 객체를 추출하도록 설정될 수 있다.다양한 실시예에 따르면, 필터추천 제어모듈(210)은, 상기 필터 데이터를 추출하고, 상기 영상데이터의 촬영정보를 기반으로 촬영위치를 추출하며, 저장된 필터DB에서, 촬영위치 또는 객체의 분류정보 중 적어도 하나에 대응되는 적어도 하나의 필터 데이터를 추출하도록 설정될 수 있다.다양한 실시예에 따르면, 필터추천 제어모듈(210)은, 객체의 위치, 객체의 비중 또는 객체의 선명도의 우선순위에 따라, 상기 영상데이터에 포함된 적어도 하나의 객체 각각에 대한 상기 객체의 분류정보를 결정하도록 설정될 수 있다.다양한 실시예에 따르면, 필터추천 제어모듈(210)은, 적어도 하나의 필터 데이터를 표시하는 동안, 적어도 하나의 필터 데이터가 선택되면, 적어도 하나의 객체 각각에 적어도 하나의 데이터에 대응되는 필터기능을 적용하고, 선택된 필터추천 정보에 대응되는 객체의 필터 데이터를 업데이트하도록 설정될 수 있다. 다양한 실시예에 따르면, 필터추천 제어모듈(210)은, 상기 영상데이터에서 촬영정보 또는 객체정보를 중 적어도 하나를 필터 데이터 요청정보로 추출하여 다른 전자장치에게 전송하고, 상기 다른 전자장치로부터 수신된 적어도 하나의 필터 데이터를 영상데이터에 포함된 적어도 하나의 객체 각각에 대한 적어도 하나의 필터정보로 제공하며, 선택된 필터 데이터에 대응되는 객체의 필터 데이터를 상기 다른 전자장치에 전송하도록 설정될 수 있다..
다양한 실시예에 따르면, 저장 모듈(220)은 촬영정보 또는 객체정보 중 적어도 하나를 포함하는 필터추천 요청정보에 대응되는 적어도 하나의 필터 데이터가 저장되고, 필터추천 제어모듈(210)은, 다른 전자장치로부터 적어도 하나의 필터 데이터 요청정보가 수신되면, 적어도 하나의 필터 데이터에 포함된 촬영정보 또는 객체정보 중 적어도 하나를 기반으로, 적어도 하나의 필터 데이터를 추출하여 다른 전자장치에게 전송하도록 설정될 수 있다.
다양한 실시예에 따르면, 필터추천 제어모듈(210)은, 상기 객체정보를 기반으로 영상데이터에 포함된 적어도 하나의 객체 각각에 대한 분류정보를 추출하고, 상기 촬영정보를 기반으로 촬영위치를 추출하며, 저장된 필터DB 에서, 촬영위치 또는 객체의 분류정보 중 적어도 하나에 대응되는 적어도 하나의 필터 데이터를 추출하도록 설정될 수 있다.
다양한 실시예에 따르면, 필터추천 제어모듈(210)은, 객체의 위치, 객체의 비중 또는 객체의 선명도의 우선순위에 따라, 상기 영상데이터에 포함된 적어도 하나의 객체 각각에 대한 상기 객체의 분류정보를 결정하도록 설정될 수 있다.
다양한 실시예에 따르면, 필터추천 제어모듈(210)은, 다른 전자장치로부터 선택된 필터 데이터가 수신되면, 선택된 필터 데이터에 대응되는 객체의 필터 데이터를 업데이트하도록 설정될 수 있다.
도 3은 다양한 실시예에 따른 필터 제공 방법을 보여주는 흐름도를 도시한다. 도 3을 참조하면, 다양한 실시예에 따른 필터추천 제어 방법(300)은 310 동작 내지 355동작을 포함한다. 310동작에서 필터추천 제어모듈(210)은 영상데이터를 표시할 수 있다. 상기 310동작에서 표시되는 영상데이터는 저장 모듈(220)에 저장된 영상데이터들 중 사용자에 의해 선택된 영상데이터 또는 프리뷰 모드에서 수신되는 영상데이터가 될 수 있다. 315동작에서 필터추천 제어모듈(210)은 필터추천이 선택되는지 판단할 수 있다. 상기 315동작에서 필터추천 제어모듈(210)은 영상데이터를 표시하는 동안 필터추천의 선택이 판단되면, 320동작에서 영상데이터에 포함된 객체들 각각에 대한 객체정보 또는 영상데이터의 촬영정보 중 적어도 하나를 포함하는 필터 데이터 요청정보를 검출할 수 있다. 325동작에서 필터추천 제어모듈(210)은 객체정보를 기반으로 영상데이터에 포함된 적어도 하나의 객체 각각에 대한 적어도 하나의 객체의 분류정보(예를 들어, 객체의 위치, 객체의 비중 및 객체의 선명도)를 검출할 수 있다. 330동작에서 필터추천 제어모듈(210)은 촬영정보를 기반으로 촬영 위치(또는 촬영 장소) 또는 촬영 날짜(및 촬영 날씨) 중 적어도 하나를 검출할 수 있다. 335동작에서 필터추천 제어모듈(210)은 검출된 촬영 위치(또는 촬영 장소) 또는 촬영 날짜(및 촬영 날씨) 중 적어도 하나 또는, 적어도 하나의 객체의 분류정보를 기반으로, 저장 모듈(220)의 필터 DB에서 영상데이터에 포함된 적어도 하나의 객체 각각에 대한 적어도 하나의 필터 데이터를 검출할 수 있다. 340동작에서 필터추천 제어모듈(210)은 영상데이터를 표시하는 동안, 영상데이터에 포함된 적어도 하나의 객체 각각에 대한 적어도 하나의 필터 데이터를 표시할 수 있다. 345동작에서 필터추천 제어모듈(210)은 적어도 하나의 객체 각각에 대한 적어도 하나의 필터 데이터 중 필터 데이터의 선택을 판단할 수 있다. 상기 345동작에서 필터추천 제어모듈(210)은 필터 데이터의 선택이 판단되면, 350동작에서 선택된 필터 데이터에 대응되는 필터기능을 해당 객체에 적용할 수 있다. 355동작에서 필터추천 제어모듈(210)은 선택된 필터 데이터에 따라 해당 객체에 대한 필터 데이터를 학습하고 학습결과를 반영하여 저장 모듈(220)의 필터 DB에서 해당 객체에 대한 필터 데이터를 업데이트할 수 있다.
도 4는 다양한 실시예에 따른 필터 제공 방법을 보여주는 흐름도를 도시한다. 도 4를 참조하면, 다양한 실시예에 따른 필터추천 제어 방법(400)은 410 동작 내지 470동작을 포함한다. 제1 전자장치(400A)와 제2 전자장치(400B) 각각은 도 1의 전자장치(100)와 도 2의 전자장치(200)가 될 수 있다. 또는 제2 전자장치(400B)은 도 1의 서버(164)가 될 수 있으며, 상기 서버(164)는 도 1 의 전자장치(100)의 필터추천 제어모듈(170)과 도 2의 전자장치(200)의 필터추천 제어모듈(210)과 동일한 기능을 가지는 필터추천 서버 제어모듈을 포함할 수 있다. 410동작에서 제1 전자장치(400A, 예를 들어, 도 2의 전자장치(200)의 필터추천 제어모듈(210)과 동일한 기능을 수행할 수 있는 필터추천 제어모듈)은 영상데이터를 표시할 수 있다. 상기 410동작에서 표시되는 영상데이터는 저장 모듈(220)에 저장된 영상데이터들 중 사용자에 의해 선택된 영상데이터 또는 프리뷰 모드에서 수신되는 영상데이터가 될 수 있다. 415동작에서 제1 전자장치(400A)는 필터추천이 선택되는지 판단할 수 있다. 상기 415동작에서 제1 전자장치(400A)는 영상데이터를 표시하는 동안 필터추천의 선택이 판단되면, 420동작에서 영상데이터에 포함된 객체들 각각에 대한 객체정보 또는 영상데이터의 촬영정보 중 적어도 하나를 포함하는 필터 데이터 요청정보를 검출할 수 있다. 425동작에서 제1 전자장치(400A)는 필터 데이터 요청정보를 제2 전자장치(400B)에게 전송할 수 있다. 430동작에서, 제2 전자장치(400B, 예를 들어, 도 2의 전자장치(200)의 필터추천 제어모듈(210)과 동일한 기능을 수행할 수 있는 필터추천 제어모듈)는 제1 전자장치(400A)로부터 수신된 필터추천 요청정보에 포함된 객체정보를 기반으로 영상데이터에 포함된 적어도 하나의 객체 각각에 대한 적어도 하나의 객체의 분류정보(예를 들어, 객체의 위치, 객체의 비중 및 객체의 선명도)를 검출할 수 있다. 435동작에서 제2 전자장치(400B)는 필터 데이터 요청정보에 포함된 촬영정보를 기반으로 촬영 위치(또는 촬영 장소) 또는 촬영 날짜(및 촬영 날씨) 중 적어도 하나를 검출할 수 있다. 440동작에서 제2 전자장치(400B)는 검출된 촬영 위치(또는 촬영 장소) 또는 촬영 날짜(및 촬영 날씨) 중 적어도 하나 또는, 적어도 하나의 객체의 분류정보를 기반으로, 제2 전자장치의 저장 모듈의 필터 DB에서 영상데이터에 포함된 적어도 하나의 객체 각각에 대한 적어도 하나의 필터 데이터를 검출할 수 있다. 445동작에서 제2 전자장치(400B)는 검출된 적어도 하나의 필터 데이터를 제1 전자장치(400A)에게 전송할 수 있다. 450동작에서 제1 전자장치(400A)는 영상데이터를 표시하는 동안, 영상데이터에 포함된 적어도 하나의 객체 각각에 대한 적어도 하나의 필터 데이터를 제2 전자장치(400B)로부터 수신하여 표시할 수 있다. 455동작에서 제1 전자장치(400A)는 적어도 하나의 객체 각각에 대한 적어도 하나의 필터 데이터 중 필터 데이터의 선택을 판단할 수 있다. 상기 455동작에서 제1 전자장치(400A)는 필터 데이터의 선택이 판단되면, 460동작에서 선택된 필터 데이터에 대응되는 필터기능을 해당 객체에 적용할 수 있다. 465동작에서 제1 전자장치(400A)는 선택된 필터 데이터를 제2 전자장치(400B)에게 적용할 수 있다. 470동작에서 제2 전자장치(400B)는 제1 전자장치(400A)로부터 수신된 선택된 필터 데이터에 따라 해당 객체에 대한 필터 데이터를 학습하고, 학습결과를 반영하여 제2 전자장치(400B)의 저장 모듈(220)의 필터 DB에서 해당 객체에 대한 필터 데이터를 업데이트할 수 있다.
도 5는 다양한 실시예에 따른 동영상에서 필터제공 동작을 설명하기 위한 도면을 도시한다. 도 5를 참조하면, 영상데이터 중 동영상의 경우, 매 프레임마다 객체정보(예를 들어, 객체의 종류, 객체의 위치, 객체의 비중 및 객체의 선명도)가 변경될 수 있음으로, 매 프레임마다 변경된 객체정보를 검출하여 각 객체에 대응되는 적어도 하나의 필터 데이터를 표시할 수 있다. 도 5와 같이 필터추천 제어모듈(210)은 동영상의 특정 프레임에 포함된 “잔디”, “사람1” 및 “나무1”과 같은 3개의 객체에 대응되는 3개의 객체정보(객체의 종류, 객체의 위치, 객체의 비중 및 객체의 선명도) 또는 동영상의 촬영정보 중 적어도 하나를 필터 데이터 요청정보로 검출할 수 있다. 필터추천 제어모듈(210)은 각 객체정보를 기반으로 각 객체에 대한 객체의 분류정보(객체의 위치, 객체의 비중 및 객체의 선명도)를 검출하고, 동영상의 촬영정보를 기반으로 촬영위치(및 촬영날씨)검출할 수 있다. 필터추천 제어모듈(210)은 검출된 촬영위치(및 촬영날씨) 또는 검출된 각 객체에 대한 객체의 분류정보 중 적어도 하나에 대응되는 필터 데이터를 저장 모듈(220)의 필터DB에서 검출할 수 있다. 필터추천 제어모듈(210)은 적어도 하나를 필터추천 요청정보를 다른 전자장치에게 전송하고, 다른 전자장치로부터 3개의 객체 각각에 대한 적어도 하나의 필터 데이터를 제공받을 수 있다. 필터추천 제어모듈(210)은 도 5와 같이 “잔디”의 객체에 대한 필터 데이터로, “더 푸르게”, “흐리게”을 표시하고, “사람 1”의 객체에 대한 필터 데이터로 “선명하게”,”밝기”을 표시할 수 있다. 필터추천 제어모듈(210)은 도 5와 같이 “나무1”에 대한 필터 데이터가 표시되지 않는 경우, 수동으로 필터정보를 선택할 수 있다.
도 6은 다양한 실시예에 따른 정지영상에서 필터 제공 동작을 설명하기 위한 도면을 도시한다. 도 6에서 필터추천 제어모듈(210)은 영상데이터 중 정지영상에 포함된 잔디, 사람 및 사탕과 같은 3개의 객체 각각에 대한 필터 데이터를 검출하여 표시하고 있다. 도 6에서와 같이 필터추천 제어모듈(210)은 “잔디”(601)의 객체에 대한 필터 데이터로, “더 푸르르게(뚜렷하게)”, “흐리게(조금 덜 집중하게)”을 표시하고, “사람”(602)의 객체에 대한 필터 데이터로 “뽀샤시, “주름제거”,”어려 보이게”및”이목구비 뚜렷하게”을 표시하고, “사탕”(603)의 객체에 대한 필터 데이터로 “원색으로”,”차가워 보이게” 및 “따뜻하게 보이게”를 표시할 수 있다.
도 7은 다양한 실시예에 따른 영상데이터에서 객체의 상세정보 제공 동작을 설명하기 위한 도면을 도시한다. 도 7에서는 전자장치(200)의 프리뷰 모드에서 옷 매장에서 카메라 모듈을 통해 수신되는 영상데이터 또는 촬영된 영상데이터를 표시하고 있는 동안, “이미지”(701)가 선택된 영상데이터에 포함된 객체를 위한 적어도 하나의 필터 데이터가 표시되고, “정보”(702)가 선택되면 도 7과 같이 영상데이터에 포함된 객체에 대한 상세정보를 외부 전자장치로부터 제공받아 표시할 수 있다.
도 8은 다양한 실시예에 따른 영상데이터에서 객체의 상세정보제공 동작을 설명하기 위한 도면을 도시한다. 도 8에서는 전자장치(200)의 프리뷰 모드에서 음식점에서 카메라 모듈을 통해 수신되는 영상데이터 또는 촬영된 영상데이터를 표시하고 있는 동안, 이미지”(801)가 선택된 영상데이터에 포함된 객체를 위한 적어도 하나의 필터 데이터가 표시되고, “정보”(802)가 선택되면 도 8과 같이 영상데이터에 포함된 객체에 대한 상세정보(803)를 외부 전자장치로부터 제공받아 표시할 수 있다.
도 9는 다양한 실시예에 따른 영상데이터에서 객체의 상세정보제공 동작을 설명하기 위한 도면을 도시한다. 필터추천 제어모듈(210)은 전자장치(200)에서 영상데이터를 표시하는 동안, 도 9와 같이 영상데이터(901)에 포함된 적어도 하나의 객체 각각에 대한 적어도 하나의 필터 데이터를 표시할 수 있다. 사용자가 적어도 하나의 필터 데이터를 사용하여 영상데이터(901)에 필터기능을 사용하는 경우, 도 9와 같이, 영상데이터(901)에 제공한 적어도 하나의 필터 데이터와 유사한 적어도 하나의 필터 데이터를 가질 수 있는 추천 장소들을 검출하여 영상데이터들(902 내지 904)로 표시할 수 있다. 필터추천 제어모듈(210)은 검출된 추천 장소들 중 영상데이터(901)를 촬영한 위치에 근접된 위치의 추천 장소들에 대한 영상데이터들(902 내지 904)을 우선순위로 표시할 수 있다
다양한 실시예에 따르면, 전자장치의 필터제공 방법은, 이미지센서를 통해 촬영된 영상데이터를 획득하는 동작; 상기 영상데이터의 객체를 기반으로, 적어도 하나 이상의 필터 데이터를 추출하는 동작; 요청정보에 의해, 적어도 하나 이상의 상기 필터 데이터를 화면에 표시하는 동작을 포함할 수 있다.다양한 실시예에 따르면, 촬영정보 또는 객체정보 중 적어도 하나를 포함할 수 있다.
다양한 실시예에 따르면, 상기 촬영정보는 촬영장소, 촬영날씨, 촬영날짜 또는 촬영시간 중 적어도 하나를 포함할 수 있다.
다양한 실시예에 따르면, 상기 객체정보는 객체의 종류, 객체의 위치, 객체의 비중 또는 객체의 선명도 중 적어도 하나를 포함하고, 상기 객체정보는 상기 영상데이터에 포함된 적어도 하나의 객체 개수에 대응되게 존재하도록 설정될 수 있다
다양한 실시예에 따르면, 상기 필터 데이터를 추출하는 동작은, 상기 영상데이터에서 영역을 구분하여 객체를 추출하는 동작을 포함할 수 있다. 다양한 실시예에 따르면, 상기 필터 데이터를 추출하는 동작은, 상기 영상데이터의 촬영정보를 기반으로 촬영위치를 추출하는 동작, 및 저장된 필터DB에서, 촬영위치 또는 객체의 분류정보 중 적어도 하나에 대응되는 적어도 하나의 필터 데이터를 추출하는 동작을 포함할 수 있다.
다양한 실시예에 따르면, 상기 분류정보를 추출하는 동작은, 객체의 위치, 객체의 비중 또는객체의 선명도의 우선순위에 따라, 상기 영상데이터에 포함된 적어도 하나의 객체 각각에 대한 상기 객체의 분류정보를 결정하는 동작을 포함할 수 있다.
다양한 실시예에 따르면, 적어도 하나의 필터 데이터를 표시하는 동안, 적어도 하나의 필터 데이터가 선택되면, 적어도 하나의 객체 각각에 적어도 하나의 데이터에 대응되는 필터기능을 적용하고, 선택된 필터추천 정보에 대응되는 객체의 필터 데이터를 업데이트하는 동작을 더 포함할 수 있다.
다양한 실시예에 따르면, 상기 영상데이터에서 촬영정보 또는 객체정보를 중 적어도 하나를 필터 데이터 요청정보로 추출하여 다른 전자장치에게 전송하는 동작, 상기 다른 전자장치로부터 수신된 적어도 하나의 필터 데이터를 영상데이터에 포함된 적어도 하나의 객체 각각에 대한 적어도 하나의 필터정보로 제공하는 동작, 및 선택된 필터 데이터에 대응되는 객체의 필터 데이터를 상기 다른 전자장치에 전송하는 동작을 더 포함할 수 있다.
다양한 실시예에 따르면, 전자장치의 필터제공 방법은, 촬영정보 또는 객체정보 중 적어도 하나를 포함하는 필터 데이터 요청정보에 대응되는 적어도 하나의 필터 데이터를 저장하는 동작; 및 다른 전자장치로부터 적어도 하나의 필터 데이터 요청정보가 수신되면, 적어도 하나의 필터 데이터 요청정보에 포함된 촬영정보 또는 객체정보 중 적어도 하나를 기반으로, 적어도 하나의 필터 데이터를 검출하여 다른 전자장치에게 전송하는 동작을 포함할 수 있다.
다양한 실시예에 따르면, 상기 필터추천 정보를 추출하는 동작은, 상기 객체정보를 기반으로 영상데이터에 포함된 적어도 하나의 객체 각각에 대한 분류정보를 추출하는 동작, 상기 촬영정보를 기반으로 촬영위치를 추출하는 동작. 및 저장된 필터DB 에서, 촬영위치 또는 객체의 분류정보 중 적어도 하나에 대응되는 적어도 하나의 필터 데이터를 추출하는 동작을 포함할 수 있다.
다양한 실시예에 따르면, 상기 분류정보를 추출하는 동작은, 객체의 위치, 객체의 비중 또는 객체의 선명도의 우선순위에 따라, 상기 영상데이터에 포함된 적어도 하나의 객체 각각에 대한 상기 객체의 분류정보를 결정하는 동작을 포함할 수 있다.
다양한 실시예에 따르면, 다른 전자장치로부터 선택된 필터 데이터가 수신되면, 선택된 필터 데이터에 대응되는 객체의 필터 데이터를 업데이트하는 동작을 더 포함할 수 있다.
도 10은 다양한 실시예에 따른 전자 장치 1000의 블록도를 도시한다. 상기 전자 장치(1000)은, 예를 들면, 도 1에 도시된 전자 장치(100)의 전체 또는 일부를 구성할 수 있다. 도 10을 참조하면, 상기 전자 장치(1000)는 하나 이상의 프로세서(1010), SIM(subscriber identification module) 카드(1014), 메모리(1020), 통신 모듈(1030), 센서 모듈(1040), 입력 모듈(1050), 디스플레이(1060), 인터페이스(1070), 오디오 모듈(1080), 카메라 모듈(1091), 전력관리 모듈(1095), 배터리(1096), 인디케이터(1097), 또는 모터(1098)를 포함할 수 있다.
상기 프로세서(1010)는 하나 이상의 애플리케이션 프로세서(AP: application processor, 1011) 또는 하나 이상의 커뮤니케이션 프로세서(CP: communication processor, 1013)를 포함할 수 있다. 상기 프로세서(1010)는, 예를 들면, 도 1에 도시된 프로세서(120)일 수 있다. 도 10에서는 상기 AP(1011) 및 상기 CP(1013)가 프로세서(1010) 내에 포함된 것으로 도시되었으나, 상기 AP(1011)와 상기 CP(1013)는 서로 다른 IC 패키지들 내에 각각 포함될 수 있다. 한 실시예에 따르면, 상기 AP(1011) 및 상기 CP(1013)는 하나의 IC 패키지 내에 포함될 수 있다.
상기 AP(1011)는 운영체제 또는 응용 프로그램을 구동하여 상기 AP(1011)에 연결된 다수의 하드웨어 또는 소프트웨어 구성 요소들을 제어할 수 있고, 멀티미디어 데이터를 포함한 각종 데이터 처리 및 연산을 수행할 수 있다. 상기 AP(1011)는, 예를 들면, SoC(system on chip) 로 구현될 수 있다. 한 실시예에 따르면, 상기 프로세서(1010)는 GPU(graphic processing unit, 미도시)를 더 포함할 수 있다.
상기 CP(1013)는 상기 전자 장치(1000)와 네트워크로 연결된 다른 전자 장치들 간의 통신에서 데이터 링크를 관리하고 통신 프로토콜을 변환하는 기능을 수행할 수 있다. 상기 CP(1013)는, 예를 들면, SoC로 구현될 수 있다. 한 실시예에 따르면, 상기 CP(1013)는 멀티미디어 제어 기능의 적어도 일부를 수행할 수 있다. 상기 CP(1013)는, 예를 들면, 가입자 식별 모듈(예: SIM 카드(1014))을 이용하여 통신 네트워크 내에서 상기 전자 장치(1000)의 구별 및 인증을 수행할 수 있다. 또한, 상기 CP(1013)는 사용자에게 음성 통화, 영상 통화, 문자 메시지 또는 패킷 데이터(packet data) 등의 서비스들을 제공할 수 있다.
또한, 상기 CP(1013)는 상기 통신 모듈(1030)의 데이터 송수신을 제어할 수 있다. 도 10에서는, 상기 CP(1013), 상기 전력관리 모듈(1095) 또는 상기 메모리(1020) 등의 구성 요소들이 상기 AP(1011)와 별개의 구성 요소로 도시되어 있으나, 한 실시예에 따르면, 상기 AP(1011)가 전술한 구성 요소들의 적어도 일부(예: 상기 CP(1013))를 포함하도록 구현될 수 있다.
한 실시예에 따르면, 상기 AP(1011) 또는 상기 CP(1013)는, 각각에 연결된 비휘발성 메모리 또는 다른 구성요소 중 적어도 하나로부터 수신한 명령 또는 데이터를, 휘발성 메모리에 로드(load)하여 처리할 수 있다. 또한, 상기 AP(1011) 또는 상기 CP(1013)는 다른 구성 요소 중 적어도 하나로부터 수신하거나 다른 구성 요소 중 적어도 하나에 의해 생성된 데이터를, 비휘발성 메모리에 저장(store)할 수 있다.
상기 SIM 카드(1014)는 가입자 식별 모듈을 구현한 카드일 수 있으며, 전자 장치(1000)의 특정 위치에 형성된 슬롯에 삽입될 수 있다. 상기 SIM 카드(1014)는 고유한 식별 정보(예: ICCID(integrated circuit card identifier))또는 가입자 정보(예: IMSI(international mobile subscriber identity))를 포함할 수 있다.
상기 메모리(1020)는 내장 메모리(1022) 또는 외장 메모리(1024)를 포함할 수 있다. 상기 메모리(1020)는, 예를 들면, 도 1에 도시된 메모리(130)일 수 있다. 상기 내장 메모리(1022)는, 예를 들면, 휘발성 메모리(예를 들면, DRAM(dynamic RAM), SRAM(static RAM), SDRAM(synchronous dynamic RAM) 등) 또는 비휘발성 메모리(non-volatile Memory, 예를 들면, OTPROM(one time programmable ROM), PROM(programmable ROM), EPROM(erasable and programmable ROM), EEPROM(electrically erasable and programmable ROM), mask ROM, flash ROM, NAND flash memory, NOR flash memory 등) 중 적어도 하나를 포함할 수 있다. 한 실시예에 따르면, 상기 내장 메모리(1022)는 Solid State Drive(SSD)일 수 있다. 상기 외장 메모리(1024)는 flash drive, 예를 들면, CF(compact flash), SD(secure digital), Micro-SD(micro secure digital), Mini-SD(mini secure digital), xD(extreme digital) 또는 Memory Stick 등을 더 포함할 수 있다. 상기 외장 메모리(1024)는 다양한 인터페이스를 통하여 상기 전자 장치(1000)와 기능적으로 연결될 수 있다.
도시되지는 않았으나, 상기 전자 장치(1000)는 하드 드라이브와 같은 저장 장치(또는 저장 매체)를 더 포함할 수 있다.
상기 통신 모듈(1030)은 무선 통신 모듈(1031) 또는 RF 모듈(1034)을 포함할 수 있다. 상기 통신 모듈(1030)은, 예를 들면, 도 1에 도시된 통신 모듈(160)에 포함될 수 있다. 상기 무선 통신 모듈(1031)은, 예를 들면, WiFi(1033), BT(bluetooth, 935), GPS(1037) 또는 NFC(near field communication, 939)를 포함할 수 있다. 예를 들면, 상기 무선 통신 모듈(1031)은 무선 주파수를 이용하여 무선 통신 기능을 제공할 수 있다. 추가적으로 또는 대체적으로, 상기 무선 통신 모듈(1031)은 상기 전자 장치(1000)를 네트워크(예: Internet, LAN(local area network), WAN(wire area network), telecommunication network, cellular network, satellite network 또는 POTS(plain old telephone service) 등)와 연결시키기 위한 네트워크 인터페이스(예: LAN card) 또는 모뎀 등을 포함할 수 있다.
상기 RF 모듈(1034)은 음성 또는 데이터 신호의 송수신을 처리할 수 있다. 상기 RF 모듈(1034)은, 도시되지는 않았으나, 예를 들면, 트랜시버(transceiver), PAM(power amp module), 주파수 필터(frequency filter) 또는 LNA(low noise amplifier) 등을 포함할 수 있다. 또한, 상기 RF 모듈(1034)은 무선통신에서 자유 공간상의 전자파를 송수신하기 위한 부품, 예를 들면, 도체 또는 도선 등을 더 포함할 수 있다.
상기 센서 모듈(1040)은, 예를 들면, 제스쳐 센서(1040A), 자이로 센서(1040B), 기압 센서(1040C), 마그네틱 센서(1040D), 가속도 센서(1040E), 그립 센서(1040F), 근접 센서(1040G), RGB(red, green, blue) 센서(1040H), 생체 센서(1040I), 온/습도 센서(1040J), 조도 센서(1040K) 또는 UV(ultra violet) 센서(1040M), IR(infra red) 센서(미도시) 중의 적어도 하나를 포함할 수 있다. 상기 센서 모듈(1040)은 물리량을 계측하거나 전자 장치의 작동 상태를 감지하여, 계측 또는 감지된 정보를 전기 신호로 변환할 수 있다. 추가적으로 또는 대체적으로, 상기 센서 모듈(1040)은, 예를 들면, 후각 센서(E-nose sensor, 미도시), EMG 센서(electromyography sensor, 미도시), EEG 센서(electroencephalogram sensor, 미도시), ECG 센서(electrocardiogram sensor, 미도시) 또는 지문 센서 등을 포함할 수 있다. 상기 센서 모듈(1040)은 그 안에 속한 적어도 하나 이상의 센서들을 제어하기 위한 제어 회로를 더 포함할 수 있다.
상기 입력 모듈(1050)은 터치 패널(touch panel, 1052), (디지털) 펜 센서(pen sensor, 1054), 키(key, 1056) 또는 초음파 입력 장치(울트라소닉, 1058)를 포함할 수 있다. 상기 입력 모듈(1050)은, 예를 들면, 도 1에 도시된 입출력 인터페이스(140)에 포함될 수 있다. 상기 터치 패널(1052)은, 예를 들면, 정전식, 감압식, 적외선 방식 또는 초음파 방식 중 적어도 하나의 방식으로 터치 입력을 인식할 수 있다. 또한, 상기 터치 패널(1052)은 컨트롤러(미도시)를 더 포함할 수도 있다. 정전식의 경우, 물리적인 접촉뿐만 아니라 근접 인식도 가능하다. 상기 터치 패널(1052)은 택타일(tactile layer) 기능을 더 포함할 수도 있다. 이 경우, 상기 터치 패널(1052)은 사용자에게 촉각 반응을 제공할 수 있다.
상기 (디지털) 펜 센서(1054)는, 예를 들면, 사용자의 터치 입력을 받는 것과 동일 또는 유사한 방법 또는 별도의 인식용 쉬트(sheet)를 이용하여 구현될 수 있다. 상기 키(1056)는, 예를 들면, 물리적인 버튼을 포함할 수 있다. 또한, 예를 들면, 광학식 키, 키패드, 또는 터치 키가 포함될 수 있다. 상기 초음파 입력 장치(울트라소닉, 1058)는 초음파 신호를 발생하는 입력도구를 통해, 단말에서 마이크(예: 마이크(1088))로 음파를 감지하여 데이터를 확인할 수 있는 장치로서, 무선 인식이 가능하다. 한 실시예에 따르면, 상기 전자 장치(1000)는 상기 통신 모듈(1030)를 이용하여, 이와 연결된 외부 장치(예: 네트워크, 컴퓨터 또는 서버)로부터 사용자 입력을 수신할 수도 있다.
상기 디스플레이(1060)은 패널(1062), 홀로그램(1064), 또는 프로젝터(1066)를 포함할 수 있다. 상기 디스플레이(1060)는, 예를 들면, 도 1에 도시된 디스플레이(150)일 수 있다. 상기 패널(1062)은, 예를 들면, LCD(liquid-crystal display) 또는 AM-OLED(active-matrix organic light-emitting diode) 등일 수 있다. 상기 패널(1062)은, 예를 들면, 유연하게(flexible), 투명하게(transparent) 또는 착용할 수 있게(wearable) 구현될 수 있다. 상기 패널(1062)은 상기 터치 패널(1052)과 하나의 모듈로 구성될 수도 있다. 상기 홀로그램(1064)은 빛의 간섭을 이용하여 입체 영상을 허공에 보여줄 수 있다. 상기 프로젝터(1066)는 빛의 투사를 통해 영상을 외부 스크린에 보여줄 수 있다. 한 실시예에 따르면, 상기 디스플레이(1060)는 상기 패널(1062), 상기 홀로그램(1064), 또는 프로젝터(1066)를 제어하기 위한 제어 회로를 더 포함할 수 있다.
상기 인터페이스(1070)는, 예를 들면, HDMI(high-definition multimedia interface, 1072, USB(universal serial bus, 1074), Optical(광통신, 1076) 또는 D-sub(D-subminiature, 1078)를 포함할 수 있다. 상기 통신 모듈(1030)은, 예를 들면, 도 1에 도시된 통신 모듈(760)에 포함될 수 있다. 추가적으로 또는 대체적으로, 상기 인터페이스(1070)는, 예를 들면, SD(secure Digital)/MMC(multi-media card)(미도시) 또는 IrDA(infrared data association, 미도시)를 포함할 수 있다.
상기 오디오 모듈(1080)은 소리와 전기 신호를 쌍방향으로 변환시킬 수 있다. 상기 오디오 모듈(1080)은, 예를 들면, 도 1에 도시된 입출력 인터페이스(140)에 포함될 수 있다. 오디오 모듈(1080)은, 예를 들면, 스피커(1082), 리시버(1084), 이어폰(1086) 또는 마이크(1088) 등을 통해 입력 또는 출력되는 소리 정보를 처리할 수 있다.
상기 카메라 모듈(1091)은 화상 및 동영상을 촬영할 수 있는 장치로서, 한 실시예에 따르면, 하나 이상의 이미지 센서(예: 전면 센서 또는 후면 센서), 렌즈, ISP(image signal processor, 미도시) 또는 플래쉬(flash, 미도시)(예: LED 또는 xenon lamp)를 포함할 수 있다.
상기 전력관리 모듈(1095)은 상기 전자 장치(1000)의 전력을 관리할 수 있다. 도시하지는 않았으나, 상기 전력관리 모듈(1095)은, 예를 들면, PMIC(power management integrated circuit), 충전 IC(charger integrated circuit) 또는 배터리 게이지(battery fuel gauge)를 포함할 수 있다.
상기 PMIC는, 예를 들면, 집적회로 또는 SoC 반도체 내에 탑재될 수 있다. 충전 방식은 유선과 무선으로 구분될 수 있다. 상기 충전 IC는 배터리를 충전시킬 수 있으며, 충전기로부터의 과전압 또는 과전류 유입을 방지할 수 있다. 한 실시예에 따르면, 상기 충전 IC는 유선 충전 방식 또는 무선 충전 방식 중 적어도 하나를 위한 충전 IC를 포함할 수 있다. 무선 충전 방식으로는, 예를 들면, 자기공명 방식, 자기유도 방식 또는 전자기파 방식 등이 있으며, 무선 충전을 위한 부가적인 회로, 예를 들면, 코일 루프, 공진 회로, 정류기 등의 회로가 추가될 수 있다.
상기 배터리 게이지는, 예를 들면, 상기 배터리(1096)의 잔량, 충전 중 전압, 전류 또는 온도를 측정할 수 있다. 상기 배터리(1096)는 전기를 저장하여 전원을 공급할 수 있다. 상기 배터리(1096)는, 예를 들면, 충전식 전지(rechargeable battery) 또는 태양 전지(solar battery)를 포함할 수 있다.
상기 인디케이터(1097)는 상기 전자 장치(1000) 혹은 그 일부(예: 상기 AP(1011))의 특정 상태, 예를 들면, 부팅 상태, 메시지 상태 또는 충전 상태 등을 표시할 수 있다. 상기 모터(1098)는 전기적 신호를 기계적 진동으로 변환할 수 있다.
도시되지는 않았으나, 상기 전자 장치(1000)는 모바일 TV지원을 위한 처리 장치(예: GPU)를 포함할 수 있다. 상기 모바일 TV 지원을 위한 처리 장치는, 예를 들면, DMB(digital multimedia broadcasting), DVB(digital video broadcasting) 또는 미디어플로우(media flow) 등의 규격에 따른 미디어 데이터를 처리할 수 있다.
본 발명에 따른 전자 장치의 전술한 구성 요소들 각각은 하나 또는 그 이상의 부품(component)으로 구성될 수 있으며, 해당 구성 요소의 명칭은 전자 장치의 종류에 따라서 달라질 수 있다. 본 발명에 따른 전자 장치는 전술한 구성요소 중 적어도 하나를 포함하여 구성될 수 있으며, 일부 구성요소가 생략되거나 또는 추가적인 다른 구성요소를 더 포함할 수 있다. 또한, 본 발명에 따른 전자 장치의 구성 요소들 중 일부가 결합되어 하나의 개체(entity)로 구성됨으로써, 결합되기 이전의 해당 구성 요소들의 기능을 동일하게 수행할 수 있다.
본 발명에 사용된 용어“모듈”은, 예를 들어, 하드웨어, 소프트웨어 또는 펌웨어(firmware) 중 하나 또는 둘 이상의 조합을 포함하는 단위(unit)를 의미할 수 있다. “모듈”은 예를 들어, 유닛(unit), 로직(logic), 논리 블록(logical block), 부품(component) 또는 회로(circuit) 등의 용어와 바꾸어 사용(interchangeably use)될 수 있다. “모듈”은, 일체로 구성된 부품의 최소 단위 또는 그 일부가 될 수 있다. “모듈”은 하나 또는 그 이상의 기능을 수행하는 최소 단위 또는 그 일부가 될 수도 있다. “모듈”은 기계적으로 또는 전자적으로 구현될 수 있다. 예를 들면, 본 발명에 따른 “모듈”은, 알려졌거나 앞으로 개발될, 어떤 동작들을 수행하는 ASIC(application-specific integrated circuit) 칩, FPGAs(field-programmable gate arrays) 또는 프로그램 가능 논리 장치(programmable-logic device) 중 적어도 하나를 포함할 수 있다.
본 발명에 따른 전자 장치는 유선 또는 무선으로 연결되는 프로그램 제공 장치로부터 상기 전자 장치가 필터추천 제어 방법을 수행하도록 하는 명령들을 포함하는 프로그램을 수신하여 저장할 수 있고, 도 1에 도시된 전자 장치 또는 서버가 프로그램 제공 장치가 될 수도 있다. 상기 프로그램 제공 장치는 상기 프로그램을 저장하기 위한 메모리와, 상기 전자 장치와의 유선 또는 무선 통신을 수행하기 위한 통신 모듈과, 상기 전자 장치의 요청 또는 자동으로 해당 프로그램을 상기 전자 장치로 전송하는 프로세서를 포함할 수 있다.

Claims (26)

  1. 전자장치에 있어서,
    이미지 센서; 및
    상기 이미지센서를 통해 촬영된 영상데이터를 획득하고, 상기 영상데이터의 객체를 기반으로, 적어도 하나 이상의 필터 데이터를 추출하며, 요청정보에 의해, 적어도 하나 이상의 상기 필터 데이터를 화면에 표시하도록 설정된 필터추천 제어모듈을 포함하는 전자 장치.
  2. 제1 항에 있어서,
    상기 영상데이터는, 촬영정보 또는 객체정보 중 적어도 하나를 포함하는 전자 장치.
  3. 제 2항에 있어서,
    상기 촬영정보는 촬영장소, 촬영날씨, 촬영날짜 또는 촬영시간 중 적어도 하나를 포함하는 전자 장치.
  4. 제 2항에 있어서,
    상기 객체정보는 객체의 종류, 객체의 위치, 객체의 비중 또는 객체의 선명도 중 적어도 하나를 포함하고,
    상기 객체정보는 영상데이터에 포함된 적어도 하나의 객체 개수에 대응되게 존재하도록 설정된 전자 장치.
  5. 제 1항에 있어서, 상기 필터추천 제어모듈은,
    상기 영상데이터에서 영역을 구분하여 객체를 추출하도록 설정된 전자 장치.
  6. 제1 항에 있어서, 상기 필터추천 제어모듈은,
    상기 필터 데이터를 추출하고, 상기 영상데이터의 촬영정보를 기반으로 촬영위치를 추출하며, 저장된 필터DB에서, 촬영위치 또는 객체의 분류정보 중 적어도 하나에 대응되는 적어도 하나의 필터 데이터를 추출하도록 설정된 전자 장치.
  7. 제6항에 있어서, 상기 필터추천 제어모듈은,
    객체의 위치, 객체의 비중 또는 객체의 선명도의 우선순위에 따라, 상기 영상데이터에 포함된 적어도 하나의 객체 각각에 대한 상기 객체의 분류정보를 결정하도록 설정된 전자 장치.
  8. 제1 항에 있어서, 상기 필터추천 제어모듈은,
    적어도 하나의 필터 데이터를 표시하는 동안, 적어도 하나의 필터 데이터가 선택되면, 적어도 하나의 객체 각각에 적어도 하나의 데이터에 대응되는 필터기능을 적용하고, 선택된 필터추천 정보에 대응되는 객체의 필터 데이터를 업데이트하도록 설정된 전자 장치.
  9. 제1 항에 있어서, 상기 필터추천 제어모듈은,
    상기 영상데이터에서 촬영정보 또는 객체정보를 중 적어도 하나를 필터 데이터 요청정보로 추출하여 다른 전자장치에게 전송하고, 상기 다른 전자장치로부터 수신된 적어도 하나의 필터 데이터를 영상데이터에 포함된 적어도 하나의 객체 각각에 대한 적어도 하나의 필터정보로 제공하며, 선택된 필터 데이터에 대응되는 객체의 필터 데이터를 상기 다른 전자장치에 전송하도록 설정된 전자 장치.
  10. 전자장치에 있어서,
    촬영정보 또는 객체정보 중 적어도 하나를 포함하는 필터추천 요청정보에 대응되는 적어도 하나의 필터 데이터가 저장된 저장 모듈; 및
    다른 전자장치로부터 적어도 하나의 필터 데이터 요청정보가 수신되면, 적어도 하나의 필터 데이터에 포함된 촬영정보 또는 객체정보 중 적어도 하나를 기반으로, 적어도 하나의 필터 데이터를 추출하여 다른 전자장치에게 전송하도록 설정된 필터추천 제어모듈을 포함하는 전자장치.
  11. 제10 항에 있어서, 상기 필터 추천 제어모듈은,
    상기 객체정보를 기반으로 영상데이터에 포함된 적어도 하나의 객체 각각에 대한 분류정보를 추출하고,
    상기 촬영정보를 기반으로 촬영위치를 추출하며,
    저장된 필터DB 에서, 촬영위치 또는 객체의 분류정보 중 적어도 하나에 대응되는 적어도 하나의 필터 데이터를 추출하도록 설정된 전자장치.
  12. 제11 항에 있어서, 상기 필터추천 제어모듈은,
    객체의 위치, 객체의 비중 또는 객체의 선명도의 우선순위에 따라, 상기 영상데이터에 포함된 적어도 하나의 객체 각각에 대한 상기 객체의 분류정보를 결정하도록 설정된 전자장치.
  13. 제11 항에 있어서, 상기 필터추천 제어모듈은,
    다른 전자장치로부터 선택된 필터 데이터가 수신되면, 선택된 필터 데이터에 대응되는 객체의 필터 데이터를 업데이트하도록 설정된 전자장치.
  14. 전자장치의 필터제공 방법에 있어서,
    이미지센서를 통해 촬영된 영상데이터를 획득하는 동작;
    상기 영상데이터의 객체를 기반으로, 적어도 하나 이상의 필터 데이터를 추출하는 동작;
    요청정보에 의해, 적어도 하나 이상의 상기 필터 데이터를 화면에 표시하는 동작을 포함하는 방법.
  15. 제14 항에 있어서,
    상기 영상데이터는, 촬영정보 또는 객체정보 중 적어도 하나를 포함하는 방법.
  16. 제 15항에 있어서,
    상기 촬영정보는 촬영장소, 촬영날씨, 촬영날짜 또는 촬영시간 중 적어도 하나를 포함하는 방법.
  17. 제 15항에 있어서,
    상기 객체정보는 객체의 종류, 객체의 위치, 객체의 비중 또는 객체의 선명도 중 적어도 하나를 포함하고,
    상기 객체정보는 영상데이터에 포함된 적어도 하나의 객체 개수에 대응되게 존재하도록 설정된 방법.
  18. 제 14항에 있어서, 상기 필터 데이터를 추출하는 동작은,
    상기 영상데이터에서 영역을 구분하여 객체를 추출하는 동작을 포함하는 방법.
  19. 제14 항에 있어서, 상기 필터 데이터를 추출하는 동작은,
    상기 영상데이터의 촬영정보를 기반으로 촬영위치를 추출하는 동작; 및
    저장된 필터DB에서, 촬영위치 또는 객체의 분류정보 중 적어도 하나에 대응되는 적어도 하나의 필터 데이터를 추출하는 동작을 포함하는 방법.
  20. 제19항에 있어서, 상기 분류정보를 추출하는 동작은,
    객체의 위치, 객체의 비중 또는 객체의 선명도의 우선순위에 따라, 상기 영상데이터에 포함된 적어도 하나의 객체 각각에 대한 상기 객체의 분류정보를 결정하는 동작을 포함하는 방법.
  21. 제14 항에 있어서,
    적어도 하나의 필터 데이터를 표시하는 동안, 적어도 하나의 필터 데이터가 선택되면, 적어도 하나의 객체 각각에 적어도 하나의 데이터에 대응되는 필터기능을 적용하고, 선택된 필터추천 정보에 대응되는 객체의 필터 데이터를 업데이트하는 동작을 더 포함하는 방법.
  22. 제14 항에 있어서,
    상기 영상데이터에서 촬영정보 또는 객체정보를 중 적어도 하나를 필터 데이터 요청정보로 추출하여 다른 전자장치에게 전송하는 동작;
    상기 다른 전자장치로부터 수신된 적어도 하나의 필터 데이터를 영상데이터에 포함된 적어도 하나의 객체 각각에 대한 적어도 하나의 필터정보로 제공하는 동작; 및
    선택된 필터 데이터에 대응되는 객체의 필터 데이터를 상기 다른 전자장치에 전송하는 동작을 더 포함하는 방법.
  23. 전자장치의 필터제공 방법에 있어서,
    촬영정보 또는 객체정보 중 적어도 하나를 포함하는 필터 데이터에 대응되는 적어도 하나의 필터 데이터를 저장하는 동작; 및
    다른 전자장치로부터 적어도 하나의 필터 데이터가 수신되면, 적어도 하나의 필터 데이터요청정보에 포함된 촬영정보 또는 객체정보 중 적어도 하나를 기반으로, 적어도 하나의 필터 데이터를 추출하여 다른 전자장치에게 전송하는 동작을 포함하는 방법.
  24. 제23 항에 있어서, 상기 필터추천 정보를 추출하는 동작은,
    상기 객체정보를 기반으로 영상데이터에 포함된 적어도 하나의 객체 각각에 대한 분류정보를 추출하는 동작;
    상기 촬영정보를 기반으로 촬영위치를 추출하는 동작; 및
    저장된 필터DB 에서, 촬영위치 또는 객체의 분류정보 중 적어도 하나에 대응되는 적어도 하나의 필터 데이터를 추출하는 동작을 포함하는 방법.
  25. 제24 항에 있어서, 상기 분류정보를 추출하는 동작은,
    객체의 위치, 객체의 비중 또는 객체의 선명도의 우선순위에 따라, 상기 영상데이터에 포함된 적어도 하나의 객체 각각에 대한 상기 객체의 분류정보를 결정하는 동작을 포함하는 방법.
  26. 제23 항에 있어서,
    다른 전자장치로부터 선택된 필터 데이터가 수신되면, 선택된 필터 데이터에 대응되는 객체의 필터 데이터를 업데이트하는 동작을 더 포함하는 방법
KR1020140151302A 2014-11-03 2014-11-03 전자장치 및 전자장치의 필터 제공 방법 KR20160051390A (ko)

Priority Applications (6)

Application Number Priority Date Filing Date Title
KR1020140151302A KR20160051390A (ko) 2014-11-03 2014-11-03 전자장치 및 전자장치의 필터 제공 방법
US14/930,940 US20160127653A1 (en) 2014-11-03 2015-11-03 Electronic Device and Method for Providing Filter in Electronic Device
EP15857436.8A EP3216207A4 (en) 2014-11-03 2015-11-03 Electronic device and method for providing filter in electronic device
AU2015343983A AU2015343983A1 (en) 2014-11-03 2015-11-03 Electronic device and method for providing filter in electronic device
PCT/KR2015/011723 WO2016072714A1 (en) 2014-11-03 2015-11-03 Electronic device and method for providing filter in electronic device
CN201510737322.9A CN105574910A (zh) 2014-11-03 2015-11-03 电子设备和用于在电子设备中提供过滤器的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140151302A KR20160051390A (ko) 2014-11-03 2014-11-03 전자장치 및 전자장치의 필터 제공 방법

Publications (1)

Publication Number Publication Date
KR20160051390A true KR20160051390A (ko) 2016-05-11

Family

ID=55854149

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140151302A KR20160051390A (ko) 2014-11-03 2014-11-03 전자장치 및 전자장치의 필터 제공 방법

Country Status (6)

Country Link
US (1) US20160127653A1 (ko)
EP (1) EP3216207A4 (ko)
KR (1) KR20160051390A (ko)
CN (1) CN105574910A (ko)
AU (1) AU2015343983A1 (ko)
WO (1) WO2016072714A1 (ko)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170120589A (ko) * 2015-01-09 2017-10-31 스냅 인코포레이티드 물체 인식 기반 포토 필터들
KR20180051367A (ko) * 2016-11-08 2018-05-16 삼성전자주식회사 디바이스가 이미지를 보정하는 방법 및 그 디바이스
WO2018088794A3 (ko) * 2016-11-08 2018-06-28 삼성전자 주식회사 디바이스가 이미지를 보정하는 방법 및 그 디바이스
WO2020085694A1 (ko) * 2018-10-23 2020-04-30 삼성전자 주식회사 이미지 획득 장치 및 그의 제어 방법
KR20210018378A (ko) * 2020-04-27 2021-02-17 주식회사 하이퍼커넥트 서버 및 그것의 동작 방법
KR20210061230A (ko) * 2019-11-19 2021-05-27 주식회사 쓰리아이 화상 합성 시스템 및 방법
US11076087B2 (en) 2018-08-08 2021-07-27 Samsung Electronics Co., Ltd. Method for processing image based on scene recognition of image and electronic device therefor
KR20220002852A (ko) * 2019-11-19 2022-01-07 주식회사 쓰리아이 화상 합성 시스템 및 방법
US11575840B2 (en) 2019-11-19 2023-02-07 3I Inc. Method for controlling mobile device cradle and composing images

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11553157B2 (en) 2016-10-10 2023-01-10 Hyperconnect Inc. Device and method of displaying images
KR101932844B1 (ko) 2017-04-17 2018-12-27 주식회사 하이퍼커넥트 영상 통화 장치, 영상 통화 방법 및 영상 통화 중개 방법
KR102079091B1 (ko) * 2018-01-31 2020-02-19 주식회사 하이퍼커넥트 단말기 및 그것의 이미지 처리 방법
KR20190098518A (ko) 2018-02-14 2019-08-22 주식회사 하이퍼커넥트 서버 및 그것의 동작 방법
KR102558166B1 (ko) * 2018-08-08 2023-07-24 삼성전자주식회사 복수의 객체들을 포함하는 이미지를 보정하는 전자 장치 및 그 제어 방법
WO2020077494A1 (zh) * 2018-10-15 2020-04-23 华为技术有限公司 智能拍照方法、***及相关装置
JP6705533B2 (ja) * 2018-10-19 2020-06-03 ソニー株式会社 センサ装置、パラメータ設定方法
KR102282963B1 (ko) 2019-05-10 2021-07-29 주식회사 하이퍼커넥트 단말기, 서버 및 그것의 동작 방법
KR102311603B1 (ko) 2019-10-01 2021-10-13 주식회사 하이퍼커넥트 단말기 및 그것의 동작 방법
EP4049235A4 (en) * 2020-01-23 2023-01-11 Samsung Electronics Co., Ltd. ELECTRONIC DEVICE AND ELECTRONIC DEVICE CONTROL METHOD
KR102293422B1 (ko) 2020-01-31 2021-08-26 주식회사 하이퍼커넥트 단말기 및 그것의 동작 방법
US20240104912A1 (en) * 2021-07-01 2024-03-28 Deepx Co., Ltd. Image processing method using artificial neural network, and neural processing unit

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6301440B1 (en) * 2000-04-13 2001-10-09 International Business Machines Corp. System and method for automatically setting image acquisition controls
JP4696407B2 (ja) * 2001-06-20 2011-06-08 株式会社ニコン 商品推奨システムおよび商品推奨方法
JP2007097090A (ja) * 2005-09-30 2007-04-12 Fujifilm Corp 画像表示装置および方法ならびにプログラム、さらに写真プリント注文受付装置
KR100843094B1 (ko) * 2006-10-30 2008-07-02 삼성전자주식회사 이미지 파일 관리 장치 및 방법
US8649625B2 (en) * 2007-04-25 2014-02-11 Nec Corporation Method, device and program for measuring image quality adjusting ability, and method, device and program for adjusting image quality
KR101041366B1 (ko) * 2007-11-02 2011-06-14 주식회사 코아로직 객체 추적을 이용한 디지털 영상의 손떨림 보정 장치 및방법
US20090175551A1 (en) * 2008-01-04 2009-07-09 Sony Ericsson Mobile Communications Ab Intelligent image enhancement
KR101434564B1 (ko) * 2008-02-13 2014-08-29 삼성전자 주식회사 촬영 정보 자동 추출 시스템 및 방법
JP5043736B2 (ja) * 2008-03-28 2012-10-10 キヤノン株式会社 撮像装置及びその制御方法
US8385971B2 (en) * 2008-08-19 2013-02-26 Digimarc Corporation Methods and systems for content processing
US8355059B2 (en) * 2009-02-06 2013-01-15 Canon Kabushiki Kaisha Image capturing apparatus and control method thereof
JP5397059B2 (ja) * 2009-07-17 2014-01-22 ソニー株式会社 画像処理装置および方法、プログラム、並びに記録媒体
US8379130B2 (en) * 2009-08-07 2013-02-19 Qualcomm Incorporated Apparatus and method of processing images based on an adjusted value of an image processing parameter
US20110102630A1 (en) * 2009-10-30 2011-05-05 Jason Rukes Image capturing devices using device location information to adjust image data during image signal processing
US8508622B1 (en) * 2010-01-15 2013-08-13 Pixar Automatic real-time composition feedback for still and video cameras
JP5616819B2 (ja) * 2010-03-10 2014-10-29 富士フイルム株式会社 撮影アシスト方法、そのプログラム、その記録媒体、撮影装置および撮影システム
KR20120082786A (ko) * 2011-01-14 2012-07-24 엘지이노텍 주식회사 이미지 센서를 회전할 수 있는 네트워크 카메라 및 영상 인식 방법
JP5136669B2 (ja) * 2011-03-18 2013-02-06 カシオ計算機株式会社 画像処理装置、画像処理方法及びプログラム
JP5855862B2 (ja) * 2011-07-07 2016-02-09 オリンパス株式会社 撮像装置、撮像方法およびプログラム
CA2775451C (en) * 2012-03-01 2014-06-03 Research In Motion Tat Ab Drag handle for applying image filters in picture editor
KR102004262B1 (ko) * 2012-05-07 2019-07-26 엘지전자 주식회사 미디어 시스템 및 이미지와 연관된 추천 검색어를 제공하는 방법
WO2013183338A1 (ja) * 2012-06-07 2013-12-12 ソニー株式会社 情報処理装置および記憶媒体
KR101349699B1 (ko) * 2012-06-29 2014-01-10 에스케이플래닛 주식회사 영상 추출 및 합성 장치, 이의 방법
US9154709B2 (en) * 2012-12-21 2015-10-06 Google Inc. Recommending transformations for photography
CN103544216B (zh) * 2013-09-23 2017-06-06 Tcl集团股份有限公司 一种结合图像内容和关键字的信息推荐方法及***
US9558428B1 (en) * 2014-07-18 2017-01-31 Samuel B. Green Inductive image editing based on learned stylistic preferences
WO2016017987A1 (en) * 2014-07-31 2016-02-04 Samsung Electronics Co., Ltd. Method and device for providing image

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180085817A (ko) * 2015-01-09 2018-07-27 스냅 인코포레이티드 물체 인식 기반 포토 필터들
KR20220130236A (ko) * 2015-01-09 2022-09-26 스냅 인코포레이티드 위치-기반 이미지 필터들
KR20210088762A (ko) * 2015-01-09 2021-07-14 스냅 인코포레이티드 물체 인식 기반 포토 필터들
KR20170120589A (ko) * 2015-01-09 2017-10-31 스냅 인코포레이티드 물체 인식 기반 포토 필터들
KR20220010061A (ko) * 2015-01-09 2022-01-25 스냅 인코포레이티드 위치-기반 이미지 필터들
US11222413B2 (en) 2016-11-08 2022-01-11 Samsung Electronics Co., Ltd. Method for correcting image by device and device therefor
KR20180051367A (ko) * 2016-11-08 2018-05-16 삼성전자주식회사 디바이스가 이미지를 보정하는 방법 및 그 디바이스
WO2018088794A3 (ko) * 2016-11-08 2018-06-28 삼성전자 주식회사 디바이스가 이미지를 보정하는 방법 및 그 디바이스
KR20220140673A (ko) * 2016-11-08 2022-10-18 삼성전자주식회사 디바이스가 이미지를 보정하는 방법 및 그 디바이스
KR20220020296A (ko) * 2016-11-08 2022-02-18 삼성전자주식회사 디바이스가 이미지를 보정하는 방법 및 그 디바이스
US11076087B2 (en) 2018-08-08 2021-07-27 Samsung Electronics Co., Ltd. Method for processing image based on scene recognition of image and electronic device therefor
WO2020085694A1 (ko) * 2018-10-23 2020-04-30 삼성전자 주식회사 이미지 획득 장치 및 그의 제어 방법
US11699213B2 (en) 2018-10-23 2023-07-11 Samsung Electronics Co., Ltd. Image-capturing device and method for controlling same
KR20220002852A (ko) * 2019-11-19 2022-01-07 주식회사 쓰리아이 화상 합성 시스템 및 방법
KR20210061230A (ko) * 2019-11-19 2021-05-27 주식회사 쓰리아이 화상 합성 시스템 및 방법
US11575840B2 (en) 2019-11-19 2023-02-07 3I Inc. Method for controlling mobile device cradle and composing images
KR20210018378A (ko) * 2020-04-27 2021-02-17 주식회사 하이퍼커넥트 서버 및 그것의 동작 방법

Also Published As

Publication number Publication date
EP3216207A4 (en) 2017-11-15
WO2016072714A1 (en) 2016-05-12
CN105574910A (zh) 2016-05-11
AU2015343983A1 (en) 2017-02-02
EP3216207A1 (en) 2017-09-13
US20160127653A1 (en) 2016-05-05

Similar Documents

Publication Publication Date Title
US11350033B2 (en) Method for controlling camera and electronic device therefor
KR20160051390A (ko) 전자장치 및 전자장치의 필터 제공 방법
KR102276847B1 (ko) 가상 오브젝트 제공 방법 및 그 전자 장치
KR102251483B1 (ko) 영상을 처리하는 전자 장치 및 방법
KR102170781B1 (ko) 이미지를 처리하는 전자장치 및 방법
KR102031874B1 (ko) 구도 정보를 이용하는 전자 장치 및 이를 이용하는 촬영 방법
KR20160017954A (ko) 전자장치 및 전자장치의 전송 제어 방법
US20160037067A1 (en) Method for generating image and electronic device thereof
KR102547104B1 (ko) 전자 장치 및 복수의 영상을 처리하는 방법
US9894275B2 (en) Photographing method of an electronic device and the electronic device thereof
CN113890989B (zh) 一种拍摄方法以及电子装置
US10440262B2 (en) Electronic device and method for processing image
KR102326275B1 (ko) 이미지 표시 방법 및 장치
KR102279674B1 (ko) 전자 장치의 멀티미디어 데이터 처리 방법 및 그 전자 장치
US10999501B2 (en) Electronic device and method for controlling display of panorama image
KR20170028941A (ko) 생체정보를 인식하는 방법 및 장치
KR20150106719A (ko) 전자 장치의 촬영 위치 안내 방법 및 이를 이용한 전자 장치
KR102268540B1 (ko) 데이터 관리 방법 및 그 방법을 처리하는 전자 장치
KR102187227B1 (ko) 컨텐츠 생성 방법 및 그 전자 장치
KR20150141426A (ko) 전자 장치 및 전자 장치에서의 이미지 처리 방법
KR102246645B1 (ko) 영상 획득을 위한 장치 및 방법
EP3328066A1 (en) Electronic device and method for autofocusing
KR102157295B1 (ko) 이미지 처리 방법 및 그 전자 장치
KR20150050695A (ko) 이미지 처리 방법 및 그 전자 장치
KR20150083703A (ko) 데이터 처리 방법 및 그 전자 장치

Legal Events

Date Code Title Description
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid