KR20160112810A - 이미지 처리 방법 및 그 전자 장치 - Google Patents

이미지 처리 방법 및 그 전자 장치 Download PDF

Info

Publication number
KR20160112810A
KR20160112810A KR1020150039134A KR20150039134A KR20160112810A KR 20160112810 A KR20160112810 A KR 20160112810A KR 1020150039134 A KR1020150039134 A KR 1020150039134A KR 20150039134 A KR20150039134 A KR 20150039134A KR 20160112810 A KR20160112810 A KR 20160112810A
Authority
KR
South Korea
Prior art keywords
image
configuration information
captured image
downscaled
electronic device
Prior art date
Application number
KR1020150039134A
Other languages
English (en)
Inventor
김성오
박현희
이용만
김광영
김광태
김수형
김현수
류은석
이기혁
정진홍
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020150039134A priority Critical patent/KR20160112810A/ko
Priority to US15/075,926 priority patent/US20160277750A1/en
Publication of KR20160112810A publication Critical patent/KR20160112810A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/14Coding unit complexity, e.g. amount of activity or edge presence estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/182Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/423Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation characterised by memory arrangements
    • H04N19/426Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation characterised by memory arrangements using memory downsizing methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/59Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234381Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by altering the temporal resolution, e.g. decreasing the frame rate by frame skipping
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/917Television signal processing therefor for bandwidth reduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/93Regeneration of the television signal or of selected parts thereof
    • H04N5/9305Regeneration of the television signal or of selected parts thereof involving the mixing of the reproduced video signal with a non-recorded signal, e.g. a text signal

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Studio Devices (AREA)

Abstract

본 발명의 다양한 실시 예는 전자 장치에서 효율적으로 이미지를 처리하기 위한 장치 및 방법에 관한 것이다. 이때, 전자 장치의 동작 방법은, 이미지를 획득하는 동작과 상기 이미지에 대한 객체 구성 정보를 추출하는 동작과 상기 이미지를 다운 스케일링하는 동작과 상기 다운 스케일링된 이미지 및 상기 객체 구성 정보를 저장하는 동작을 포함할 수 있다. 다른 실시 예들도 가능할 수 있다.

Description

이미지 처리 방법 및 그 전자 장치{METHOD FOR PROCESSING IMAGE AND AN ELECTRONIC DEVICE THEREOF}
본 발명의 다양한 실시 예는 전자 장치에서 이미지를 처리하기 위한 장치 및 방법에 관한 것이다.
정보통신 기술 및 반도체 기술의 발전으로 각종 전자 장치들이 다양한 멀티미디어 서비스를 제공하는 멀티미디어 장치로 발전하고 있다. 예를 들어, 휴대용 전자 장치는 방송 서비스, 무선 인터넷 서비스, 카메라 서비스 및 음악 재생 서비스 등의 다양한 멀티미디어 서비스를 제공할 수 있다.
전자 장치는 적어도 하나의 이미지 센서를 통해 다양한 이미지를 획득하는 카메라 서비스를 제공할 수 있다.
전자 장치를 통해 카메라 서비스를 제공하는 경우, 전자 장치는 이미지 센서를 통해 획득한 이미지(예: raw 이미지)를 다운 스케일링(down scaling)하고, 다운 스케일링된 이미지를 영상 신호 처리(ISP: image signal processing)하여 디스플레이에 표시할 수 있다. 추가적으로, 전자 장치는 이미지 캡쳐를 위해 이미지 센서를 통해 획득한 이미지를 영상 신호 처리하여 프레임 버퍼에 임시 저장할 수 있다.
이에 따라, 전자 장치는 동일한 이미지를 사용 용도에 따라 서로 다르게 영상 신호 처리하므로, 이미지 처리에 의한 부하가 발생할 수 있다. 또한, 전자 장치는 이미지를 캡쳐할 때 이미지 센서를 통해 획득한 대용량의 이미지를 저장함으로써, 저장 공간이 낭비되는 문제가 발생할 수 있다.
본 발명의 다양한 실시 예는 전자 장치에서 이미지 처리 부하를 줄이기 위해 장치 및 방법을 제공할 수 있다.
본 발명의 다양한 실시 예는 전자 장치에서 이미지 저장에 따른 메모리 자원의 소모를 줄이기 위한 장치 및 방법을 제공할 수 있다.
본 발명의 다양한 실시 예에 따르면, 전자 장치의 동작 방법은, 이미지를 획득하는 동작과 상기 이미지에 대한 객체 구성 정보를 추출하는 동작과 상기 이미지를 다운 스케일링하는 동작과 상기 다운스케일링된 이미지 및 상기 객체 구성 정보를 저장하는 동작을 포함할 수 있다.
본 발명의 다양한 실시 예에 따르면, 전자 장치는, 이미지 및 이미지와 관련된 정보를 저장하는 메모리와 이미지를 처리하는 프로세서는 포함하며, 상기 프로세서는, 이미지를 획득하고, 상기 이미지에 대한 객체 구성 정보를 추출하고, 상기 이미지를 다운 스케일링하고 상기 다운 스케일링된 이미지 및 상기 객체 구성 정보를 상기 메모리에 저장하도록 제어할 수 있다.
다양한 실시 예에 따른 전자 장치 및 방법은, 예를 들면, 다운 스케일링한 이미지(raw 이미지)를 이용하여 캡쳐 이미지를 생성함으로써, 이미지 처리 부하 및 이미지 저장에 의한 메모리 자원의 소모를 줄일 수 있다.
도 1은 본 발명의 다양한 실시 예에 따른 전자 장치의 블록도를 도시한다.
도 2는 본 발명의 다양한 실시 예에 따른 프로세서의 블록도를 도시한다.
도 3은 본 발명의 다양한 실시 예에 따른 전자 장치의 상세 블록도를 도시한다.
도 4는 본 발명의 다양한 실시 예에 따른 전자 장치에서 이미지를 변환하기 위한 흐름도를 도시한다.
도 5는 본 발명의 다양한 실시 예에 따른 전자 장치에서 카메라를 통해 획득한 이미지를 변환하기 위한 흐름도를 도시한다.
도 6은 본 발명의 다양한 실시 예에 따른 전자 장치에서 카메라를 통해 획득한 이미지를 변환하기 위한 흐름도를 도시한다.
도 7은 본 발명의 다양한 실시 예에 따른 전자 장치에서 캡쳐 이미지를 생성하기 위한 흐름도를 도시한다.
도 8은 본 발명의 다양한 실시 예에 따른 전자 장치에서 캡쳐 이미지를 생성하기 위한 흐름도를 도시한다.
도 9는 본 발명의 다양한 실시 예에 따른 전자 장치에서 캡쳐 이미지를 표시하기 위한 흐름도를 도시한다.
이하, 본 발명의 다양한 실시 예가 첨부된 도면을 참조하여 기재된다. 그러나, 이는 본 발명의 다양한 실시 예를 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 실시 예의 다양한 변경(modification), 균등물(equivalent) 및/또는 대체물(alternative)을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용되었다.
본 문서에서, “가진다,” “가질 수 있다,”“포함한다,” 또는 “포함할 수 있다” 등의 표현은 해당 특징 (예: 수치, 기능, 동작, 또는 부품 등의 구성요소)의 존재를 가리키며, 추가적인 특징의 존재를 배제하지 않는다.
본 문서에서, “A 또는 B”, “A 또는/및 B 중 적어도 하나” 또는 “A 또는/및 B 중 하나 또는 그 이상” 등의 표현은 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. 예를 들면, “A 또는 B”, “A 및 B 중 적어도 하나” 또는 “A 또는 B 중 적어도 하나”는, (1) 적어도 하나의 A를 포함, (2) 적어도 하나의 B를 포함, 또는 (3) 적어도 하나의 A 및 적어도 하나의 B 모두를 포함하는 경우를 모두 지칭할 수 있다.
다양한 실시 예에서 사용된 “제 1”, “제 2”, “첫째” 또는 “둘째” 등의 표현들은 다양한 구성요소들을, 순서 및/또는 중요도에 상관없이 수식할 수 있고, 해당 구성요소들을 한정하지 않는다. 상술한 표현들은 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 수 있다. 예를 들면, 제 1 사용자 기기와 제 2 사용자 기기는, 순서 또는 중요도와 무관하게, 서로 다른 사용자 기기를 나타낼 수 있다. 예를 들면, 본 발명의 권리 범위를 벗어나지 않으면서 제 1 구성요소는 제 2 구성요소로 명명될 수 있고, 유사하게 제 2 구성요소도 제 1 구성요소로 바꾸어 명명될 수 있다.
어떤 구성요소 (예: 제 1 구성요소)가 다른 구성요소 (예: 제 2 구성요소)에 "(기능적으로 또는 통신적으로) 연결되어 ((operatively or communicatively) coupled with/to)" 있다거나 "접속되어 (connected to)" 있다고 언급된 때에는, 어떤 구성요소가 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소 (예: 제 3 구성요소)를 통하여 연결될 수 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소 (예: 제 1 구성요소)가 다른 구성요소 (예: 제 2 구성요소)에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 어떤 구성요소와 다른 구성요소 사이에 다른 구성요소 (예: 제 3 구성요소)가 존재하지 않는 것으로 이해될 수 있다.
본 문서에서 사용된 표현 “~하도록 구성된 (또는 설정된)(configured to)”은 상황에 따라, 예를 들면, “~에 적합한 (suitable for)”, “~하는 능력을 가지는 (having the capacity to)”, “~하도록 설계된 (designed to)”, “~하도록 변경된 (adapted to)”, “~하도록 만들어진 (made to)” 또는 “~를 할 수 있는 (capable of)”과 바꾸어 사용될 수 있다. 용어 “~하도록 구성 (또는 설정)된”은 하드웨어적으로 “특별히 설계된 (specifically designed to)”것만을 반드시 의미하지 않을 수 있다. 대신, 어떤 상황에서는, “~하도록 구성된 전자 장치”라는 표현은, 그 전자 장치가 다른 전자 장치 또는 부품들과 함께 “~할 수 있는” 것을 의미할 수 있다. 예를 들면, 문구 “A, B, 및 C를 수행하도록 구성 (또는 설정)된 프로세서”는 해당 동작을 수행하기 위한 전용 프로세서 (예: 임베디드 프로세서), 또는 메모리 전자 장치에 저장된 하나 이상의 소프트웨어 프로그램들을 실행함으로써, 해당 동작들을 수행할 수 있는 범용 프로세서 (generic-purpose processor)(예: CPU 또는 application processor)를 의미할 수 있다.
본 문서에서 사용된 용어들은 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 다른 실시 예의 범위를 한정하려는 의도가 아닐 수 있다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명의 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가질 수 있다. 일반적으로 사용되는 사전에 정의된 용어들은 관련 기술의 문맥 상 가지는 의미와 동일 또는 유사한 의미를 가지는 것으로 해석될 수 있으며, 본 문서에서 명백하게 정의되지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다. 경우에 따라서, 본 문서에서 정의된 용어일지라도 본 발명의 실시 예들을 배제하도록 해석될 수 없다.
본 발명의 다양한 실시 예들에 따른 전자 장치는, 예를 들면, 전자 장치는 스마트폰 (smartphone), 태블릿 PC (tablet personal computer), 이동 전화기 (mobile phone), 화상 전화기, 전자북 리더기 (e-book reader), 데스크탑 PC (desktop personal computer), 랩탑 PC (laptop personal computer), 넷북 컴퓨터 (netbook computer), 워크스테이션 (workstation), 서버, PDA (personal digital assistant), PMP (portable multimedia player), MP3 플레이어, 모바일 의료기기, 카메라 (camera), 또는 웨어러블 전자 장치 (wearable device)(예: 스마트 안경, 머리 착용형 전자 장치 (head-mounted-device(HMD)), 전자 의복, 전자 팔찌, 전자 목걸이, 전자 앱세서리 (appcessory), 전자 문신, 스마트 미러, 또는 스마트 와치 (smart watch))중 적어도 하나를 포함할 수 있다.
어떤 실시 예들에서, 전자 장치는 스마트 가전 제품 (smart home appliance)일 수 있다. 스마트 가전 제품은, 예를 들면, 텔레비전, DVD (digital video disk) 플레이어, 오디오, 냉장고, 에어컨, 청소기, 오븐, 전자레인지, 세탁기, 공기 청정기, 셋톱 박스 (set-top box), 홈 자동 제어 패널 (home automation control panel), 보안 컨트롤 패널 (security control panel), TV 박스 (예: 삼성 HomeSync™, 애플TV™, 또는 구글 TV™), 게임 콘솔 (예: Xbox™, PlayStation™), 전자 사전, 전자 키, 캠코더 (camcorder), 또는 전자 액자 중 적어도 하나를 포함할 수 있다.
다른 실시 예에서, 전자 장치는, 각종 의료기기 (예: 각종 휴대용 의료측정기기 (혈당 측정기, 심박 측정기, 혈압 측정기, 또는 체온 측정기 등), MRA (magnetic resonance angiography), MRI (magnetic resonance imaging), CT (computed tomography), 촬영기, 또는 초음파기 등), 네비게이션 (navigation) 전자 장치, GPS 수신기 (global positioning system receiver), EDR (event data recorder), FDR (flight data recorder), 자동차 인포테인먼트 (infotainment) 전자 장치, 선박용 전자 장비(예: 선박용 항법 전자 장치, 자이로 콤파스 등), 항공 전자기기 (avionics), 보안 기기, 차량용 헤드 유닛 (head unit), 산업용 또는 가정용 로봇, 금융 기관의 ATM (automatic teller’s machine), 상점의 POS (point of sales), 또는 사물 인터넷 전자 장치 (internet of things)(예: 전구, 각종 센서, 전기 또는 가스 미터기, 스프링클러 전자 장치, 화재경보기, 온도조절기 (thermostat), 가로등, 토스터 (toaster), 운동기구, 온수탱크, 히터, 보일러 등) 중 적어도 하나를 포함할 수 있다.
어떤 실시 예에 따르면, 전자 장치는 가구 (furniture) 또는 건물/구조물의 일부, 전자 보드 (electronic board), 전자 사인 수신 전자 장치 (electronic signature receiving device), 프로젝터 (projector), 또는 각종 계측 기기 (예: 수도, 전기, 가스, 또는 전파 계측 기기 등) 중 적어도 하나를 포함할 수 있다. 다양한 실시 예에서, 전자 장치는 전술한 다양한 전자 장치들 중 하나 또는 그 이상의 조합일 수 있다. 어떤 실시 예에 따른 전자 장치는 플렉서블 전자 장치일 수 있다. 또한, 본 발명의 다양한 실시 예에 따른 전자 장치는 전술한 기기들에 한정되지 않으며, 기술 발전에 따른 새로운 전자 장치를 포함할 수 있다.
이하, 첨부 도면을 참조하여, 다양한 실시 예에 따른 전자 장치가 설명된다. 본 문서에서, 사용자라는 용어는 전자 장치를 사용하는 사람 또는 전자 장치를 사용하는 전자 장치 (예: 인공지능 전자 장치)를 지칭할 수 있다.
이하 본 발명은 전자 장치에서 효율적으로 이미지를 처리하기 위한 기술에 대해 설명한다.
도 1은 본 발명의 다양한 실시 예에 따른 전자 장치의 블록도를 도시하고 있다.
도 1을 참조하면, 전자 장치(100)는 버스(110), 프로세서(120), 메모리(130), 입출력 인터페이스(150), 디스플레이(160) 및 카메라 모듈(170)을 포함할 수 있다. 본 발명의 다양한 예에 따르면, 전자 장치(100)는, 상술한 구성요소들 중 적어도 하나를 생략하거나 다른 구성 요소를 추가적으로 구비할 수 있다.
버스(110)는 상술한 구성요소들(예: 프로세서(120), 메모리(130), 입출력 인터페이스(150), 디스플레이(160) 또는 카메라 모듈(170) 등)을 서로 연결하고, 상술한 구성요소들 간의 통신(예: 제어 메시지)을 전달하는 회로일 수 있다.
프로세서(120)는, 중앙처리전자 장치 (central processing unit (CPU)), 어플리케이션 프로세서 (application processor (AP)), 또는 커뮤니케이션 프로세서 (communication processor(CP)) 중 하나 또는 그 이상을 포함할 수 있다. 프로세서(120)는, 예를 들면, 전자 장치(100)의 적어도 하나의 다른 구성요소들의 제어 및/또는 통신에 관한 연산이나 데이터 처리를 실행할 수 있다.
프로세서(120)는 이미지 캡쳐를 위해 다운 스케일링된 이미지(raw image)를 프레임 버퍼에 저장할 수 있다. 예를 들어, 프레임 버퍼는 프로세서(120) 또는 메모리(130)에 포함되거나 별도의 모듈로 구성될 수 있다.
한 실시 예에 따르면, 프로세서(120)는 카메라 모듈(170)을 통해 획득한 이미지(raw image)에 포함된 객체들의 구성 정보를 추출하고, 해당 이미지를 다운 스케일링할 수 있다. 예컨대, 프로세서(120)는 디스플레이(160) 해상도(display resolution)에 대응하도록 이미지를 다운 스케일링할 수 있다. 프로세서(120)는 다운 스케일링된 이미지를 영상 신호 처리(ISP: image signal processing)하여 프레임 버퍼에 저장할 수 있다. 예컨대, 프로세서(120)는 영상 신호 처리된 이미지와 해당 이미지의 객체 구성 정보를 프레임 버퍼에 저장할 수 있다. 예컨대, 프로세서(120)는 영상 신호 처리된 이미지를 압축(encoding)하여 프레임 버퍼에 저장할 수 있다. 이 경우, 전자 장치는 다운 스케일링된 이미지의 복잡도에 기반하여 이미지의 압축 여부를 결정할 수 있다. 전자 장치는 이미지를 압축하지 않는 것으로 결정한 경우, 다운 스케일링된 이미지를 압축하지 않고 프레임 버퍼에 저장할 수 있다. 추가적으로, 프로세서(120)는 영상 신호 처리된 이미지(예: 프리뷰 이미지)를 디스플레이(160)에 표시하도록 제어할 수 있다. 여기서, 객체 구성 정보는 이미지에 포함되는 객체의 테두리를 나타내는 에지(edge) 정보를 포함할 수 있다. 추가적으로, 객체 구성 정보는 이미지의 깊이 맵을 더 포함할 수 있다.
한 실시 예에 따르면, 프로세서(120)는 카메라 모듈(170)을 통해 획득한 이미지(raw image)를 영상 신호 처리할 수 있다. 프로세서(120)는 영상 신호 처리된 이미지에 포함된 객체들의 구성 정보(예: 에지 정보)를 추출하고, 해당 이미지를 다운 스케일링하여 프레임 버퍼에 저장할 수 있다. 예컨대, 프로세서(120)는 다운 스케일링한 이미지와 해당 이미지의 객체 구성 정보를 프레임 버퍼에 저장할 수 있다. 예컨대, 프로세서(120)는 다운 스케일링한 이미지를 압축(encoding)하여 프레임 버퍼에 저장할 수 있다. 추가적으로, 프로세서(120)는 다운 스케일링한 이미지(예: 프리뷰 이미지)를 디스플레이(160)에 표시하도록 제어할 수 있다.
한 실시 예에 따르면, 프로세서(120)는 외부 기기(예: 다른 전자 장치 또는 서버)로부터 제공받은 이미지(YUV 또는 RGB 포맷의 이미지)에 포함된 객체들의 구성 정보(예: 에지 정보)를 추출하고, 해당 이미지를 다운 스케일링하여 프레임 버퍼에 저장할 수 있다. 예컨대, 프로세서(120)는 다운 스케일링한 이미지와 해당 이미지의 객체 구성 정보를 프레임 버퍼에 저장할 수 있다. 예컨대, 프로세서(120)는 다운 스케일링한 이미지를 압축(encoding)하여 프레임 버퍼에 저장할 수 있다. 추가적으로, 프로세서(120)는 다운 스케일링한 이미지(예: 프리뷰 이미지)를 디스플레이(160)에 표시하도록 제어할 수 있다.
프로세서(120)는 프레임 버퍼에 저장된 다운 스케일링된 이미지를 이용하여 캡쳐 이미지를 생성할 수 있다.
한 실시 예에 따르면, 프로세서(120)는 프레임 버퍼에서 캡쳐 이벤트에 대응하는 이미지를 추출할 수 있다. 예컨대, 프로세서(120)는 프레임 버퍼에 압축된(encoded) 이미지가 저장된 경우, 캡쳐 이벤트에 대응하는 이미지를 추출하여 압축해제(decoding) 할 수 있다. 프로세서(120)는 캡쳐 이벤트에 대응하는 이미지를 업 스케일링(up scaling)하고, 해당 이미지의 객체 구성 정보를 이용하여 이미지를 복원(reconstruct)할 수 있다. 프로세서(120)는 복원한 이미지를 캡쳐 이미지를 저장하기 위한 기준 포맷(예: JPEG(joint photographic coding experts group), HEVC(high efficiency video coding), H.264 등)으로 부호화(encoding)하여 메모리(130)에 저장할 수 있다. 추가적으로, 프로세서(120)는 캡쳐 이미지에 대한 추가적인 이미지 처리를 위해 해당 캡쳐 이미지에 매핑되도록 객체 구성 정보를 메모리(130)에 저장할 수 있다.
한 실시 예에 따르면, 프로세서(120)는 프레임 버퍼에서 캡쳐 이벤트에 대응하는 이미지를 추출할 수 있다. 예컨대, 프로세서(120)는 프레임 버퍼에 압축된(encoded) 이미지가 저장된 경우, 캡쳐 이벤트에 대응하는 이미지를 추출하여 압축해제(decoding) 할 수 있다. 프로세서(120)는 캡쳐 이벤트에 대응하는 이미지를 캡쳐 이미지를 저장하기 위한 기준 포맷(예: JPEG, HEVC, H.264 등)으로 부호화(encoding)하여 객체 구성 정보와 매핑하여 메모리(130)에 저장할 수 있다.
메모리(130)는 휘발성 및/또는 비휘발성 메모리를 포함할 수 있다. 메모리(130)는 전자 장치(100)의 적어도 하나의 다른 구성요소에 관련된 명령 또는 데이터(예: 기준 패턴, 기준 터치 면적)를 저장할 수 있다. 한 실시 예에 따르면, 메모리(130)는 소프트웨어 및/또는 프로그램(140)을 저장할 수 있다. 예를 들어, 프로그램(140)은 커널(141), 미들웨어(143), 응용프로그램 프로그래밍 인터페이스(API: application programming interface)(145) 또는 응용프로그램(147) 등을 포함할 수 있다. 커널(141), 미들웨어(143), 또는 응용프로그램 프로그래밍 인터페이스(API)(145)의 적어도 일부는 운영 시스템(operating system (OS))라 불릴 수 있다.
커널(141)은 다른 프로그램들(예: 미들웨어(143), API(145) 또는 응용프로그램(147))에 구현된 동작 또는 기능을 실행하는데 사용되는 시스템 리소스들(예: 버스(110), 프로세서(120) 또는 메모리(130) 등)을 제어 또는 관리할 수 있다. 커널(141)은 미들웨어(143), API(145) 또는 응용프로그램(147)에서 전자 장치(100)의 개별 구성요소에 접근함으로써, 시스템 리소스들을 제어 또는 관리할 수 있는 인터페이스를 제공할 수 있다.
미들웨어(143)는 API(145) 또는 응용프로그램(147)이 커널(141)과 통신하여 데이터를 주고받을 수 있도록 중개 역할을 수행할 수 있다. 미들웨어(143)는 응용프로그램(147)으로부터 수신된 작업 요청에 대한 제어를 수행할 수 있다. 예를 들어, 미들웨어(143)는 응용프로그램(147) 중 적어도 하나의 응용프로그램에 전자 장치(500)의 시스템 리소스를 사용할 수 있는 우선 순위를 배정하는 등의 방법을 이용하여 작업 요청에 대한 제어(예: 스케쥴링 또는 로드 밸런싱)을 수행할 수 있다.
API(145)는 응용프로그램(147)이 커널(141) 또는 미들웨어(143)에서 제공되는 기능을 제어하기 위한 인터페이스로 또는 함수(예: 명령어)를 포함할 수 있다. 예를 들어, API(145)는 파일 제어, 창 제어, 화상 처리 또는 문자 제어와 같은 적어도 하나의 인터페이스를 포함할 수 있다.
입출력 인터페이스(150)는 사용자 또는 다른 외부 기기로부터 입력된 명령 또는 데이터를 전자 장치(100)의 다른 구성요소(들)에 전달할 수 있는 인터페이스의 역할을 할 수 있다. 또한, 입출력 인터페이스(150)는 전자 장치(100)의 다른 구성요소(들)로부터 수신된 명령 또는 데이터를 사용자 또는 다른 외부 기기로 출력할 수 있다.
디스플레이(160)는, 예를 들면, 액정 디스플레이 (LCD), 발광 다이오드 (LED) 디스플레이, 유기 발광 다이오드 (OLED) 디스플레이, 또는 마이크로 전자기계 시스템 (microelectromechanical systems (MEMS)) 디스플레이, 또는 전자종이 (electronic paper) 디스플레이를 포함할 수 있다. 디스플레이(160)는, 예를 들면, 사용자에게 각종 콘텐츠 (예: 텍스트, 이미지, 비디오, 아이콘, 또는 심볼 등)을 표시할 수 있다. 디스플레이(160)는, 터치 스크린을 포함할 수 있으며, 예를 들면, 전자 펜 또는 사용자의 신체의 일부를 이용한 터치, 제스쳐, 근접, 또는 호버링 입력을 수신할 수 있다.
한 실시 예에 따르면, 디스플레이(160)는 프로세서(120)의 제어에 기반하여 적어도 하나의 이미지(예: 프리뷰 이미지)를 표시할 수 있다.
카메라 모듈(170)은 전자 장치(100)에 기능적으로 연결된 적어도 하나의 이미지 센서를 통해 획득한 피사체에 대한 이미지(raw image)를 프로세서(120)로 제공할 수 있다.
전자 장치(100)는 외부 기기(예: 다른 전자 장치 또는 서버)와의 통신을 연결할 수 있는 통신 인터페이스(미 도시)를 더 포함할 수 있다. 예를 들어, 통신 인터페이스는 무선 통신 또는 유선 통신을 통해서 네트워크에 연결되어 외부 기기와 통신할 수 있다. 예컨대, 무선 통신은, 근거리 통신 프로토콜로서, 예를 들면, WiFi(wireless fidelity), 블루투스(Bluetooth), NFC(near field communication), BLE(bluetooth low energy) 또는 GPS(global positioning system) 등 중 적어도 하나를 포함할 수 있다. 예컨대, 무선 통신은, 셀룰러 통신 프로토콜로서, 예를 들면, LTE(long term evolution), LTE-A(advanced), CDMA(code division multiple access), WCDMA(wide-CDMA), UMTS(universal mobile telecommunication system), WiBro, 또는 GSM(global system for mobile communication) 등 중 적어도 하나를 사용할 수 있다. 예컨대, 유선 통신은, 예를 들면, USB (universal serial bus), HDMI (high definition multimedia interface), RS-332 (recommended standard 332), 또는 POTS (plain old telephone service) 등 중 적어도 하나를 포함할 수 있다. 네트워크는 통신 네트워크 (telecommunications network), 예를 들면, 컴퓨터 네트워크 (computer network)(예: LAN 또는 WAN), 인터넷, 또는 전화 망 (telephone network) 중 적어도 하나를 포함할 수 있다.
도 2는 본 발명의 다양한 실시 예에 따른 프로세서의 블록도를 도시한다.
도 2를 참조하면, 프로세서(120)는 이미지 변환부(200), 프레임 버퍼(210) 및 캡쳐 제어부(220)를 포함할 수 있다.
한 실시 예에 따르면, 이미지 변환부(200)는 이미지 캡쳐를 위해 다운 스케일링된 이미지(raw image)를 프레임 버퍼(210)에 저장할 수 있다. 예를 들어, 이미지 변환부(200)는 이미지 정보 추출부(202), 스케일러부(204) 및 이미지 처리부(206)를 포함할 수 있다.
한 실시 예에 따르면, 이미지 정보 추출부(202)는 카메라 모듈(170)을 통해 획득한 이미지(raw image)에 포함된 객체들의 구성 정보(예: 에지 정보)를 추출할 수 있다. 예컨대, 이미지 정보 추출부(202)는 카메라 모듈(170)을 통해 획득한 이미지(raw image)를 블러(blur) 처리하여 원본 이미지와 블러 처리된 이미지의 차이점을 추출하여 해당 이미지의 객체 구성 정보를 추출할 수 있다. 스케일러부(204)는 이미지 정보 추출부(202)로부터 제공받은 이미지(예: 블러 처리된 이미지 또는 원본 이미지)를 다운 스케일링할 수 있다. 예컨대, 스케일러부(204)는 디스플레이(160) 해상도(display resolution)에 대응하도록 이미지를 다운 스케일링할 수 있다. 이미지 처리부(206)는 스케일러부(204)에서 다운 스케일링된 이미지를 영상 신호 처리(ISP: image signal processing)하여 프레임 버퍼(210)에 저장할 수 있다. 추가적으로, 이미지 처리부(206)는 다운 스케일링된 이미지(예: 프리뷰 이미지)를 디스플레이(160)로 제공할 수 있다.
한 실시 예에 따르면, 이미지 처리부(206)는 카메라 모듈(170)을 통해 획득한 이미지(raw image)를 영상 신호 처리할 수 있다. 이미지 정보 추출부(202)는 이미지 처리부(206)에서 영상 신호 처리된 이미지(예: YUV 또는 RGB 포맷의 이미지)에 포함된 객체들의 구성 정보(예: 에지 정보)를 추출할 수 있다. 예컨대, 이미지 정보 추출부(202)는 영상 신호 처리된 이미지를 블러(blur) 처리하여 영상 신호 처리된 이미지와 블러 처리된 이미지의 차이점을 추출하여 해당 이미지의 객체 구성 정보를 추출할 수 있다. 스케일러부(204)는 이미지 정보 추출부(202)로부터 제공받은 이미지(예: 블러 처리된 이미지 또는 영상 신호 처리된 이미지)를 다운 스케일링하여 프레임 버퍼(210)에 저장할 수 있다. 추가적으로, 스케일러부(204)는 다운 스케일링된 이미지(예: 프리뷰 이미지)를 디스플레이(160)로 제공할 수 있다.
한 실시 예에 따르면, 이미지 정보 추출부(202)는 외부 기기(예: 다른 전자 장치 또는 서버)로부터 제공받은 이미지(YUV 또는 RGB 포맷의 이미지)에 포함된 객체들의 구성 정보(예: 에지 정보)를 추출할 수 있다. 예컨대, 이미지 정보 추출부(202)는 외부 기기로부터 제공받은 이미지를 블러(blur) 처리하여 원본 이미지(예: 외부 기기로부터 제공받은 이미지)와 블러 처리된 이미지의 차이점을 추출하여 해당 이미지의 객체 구성 정보를 추출할 수 있다. 스케일러부(204)는 이미지 정보 추출부(202)로부터 제공받은 이미지(예: 블러 처리된 이미지 또는 영상 신호 처리된 이미지)를 다운 스케일링하여 프레임 버퍼(210)에 저장할 수 있다. 추가적으로, 스케일러부(204)는 다운 스케일링된 이미지(예: 프리뷰 이미지)를 디스플레이(160)로 제공할 수 있다.
한 실시 예에 따르면, 프레임 버퍼(210)는 이미지 변환부(200)에서 다운 스케일링한 이미지를 임시 저장할 수 있다. 예를 들어, 프레임 버퍼(210)는 이미지 변환부(200)로부터 제공받은 이미지(예: 다운 스케일링된 이미지)와 해당 이미지의 객체 구성 정보를 저장할 수 있다. 예를 들어, 프레임 버퍼(210)는 이미지 변환부(200)로부터 제공받은 다운 스케일링된 이미지를 압축(encoding)하여 저장할 수 있다. 예컨대, 프레임 버퍼(210)는 이미지 변환부(200)로부터 제공받은 다운 스케일링된 이미지의 복잡도에 기반하여 이미지의 압축 여부를 결정할 수 있다. 프레임 버퍼(210)는 이미지를 압축하지 않는 것으로 결정한 경우, 다운 스케일링된 이미지를 압축하지 않고 저장할 수 있다. 예컨대, 프레임 버퍼(210)는 링 버퍼(ring buffer)로 구성될 수 있다.
한 실시 예에 따르면, 캡쳐 제어부(220)는 프레임 버퍼(210)에 저장된 다운 스케일링된 이미지를 이용하여 캡쳐 이미지를 생성할 수 있다. 예를 들어, 캡쳐 제어부(220)는 스케일러부(222), 이미지 구성부(224) 및 인코더(226)를 포함할 수 있다.
한 실시 예에 따르면, 스케일러부(222)는 프레임 버퍼(210)에서 캡쳐 이벤트에 대응하는 이미지를 추출하여 업 스케일링(up scaling)할 수 있다. 예를 들어, 스케일러부(2220)는 프레임 버퍼(210)에 압축된(encoded) 이미지가 저장된 경우, 캡쳐 이벤트에 대응하는 이미지를 추출하여 압축해제(decoding)하고, 업 스케일링할 수 있다. 이미지 구성부(224)는 캡쳐 이벤트에 대응하는 이미지의 객체 구성 정보를 이용하여 이미지를 복원(reconstruct)할 수 있다. 인코더(226)는 이미지 구성부(224)에서 복원된 이미지를 캡쳐 이미지를 저장하기 위한 기준 포맷(예: JPEG, HEVC, H.264 등)으로 부호화(encoding)하여 메모리(130)에 저장할 수 있다. 추가적으로, 메모리(130)는 캡쳐 이미지에 대한 추가적인 이미지 처리를 위해 해당 캡쳐 이미지에 매핑되도록 객체 구성 정보를 저장할 수 있다.
한 실시 예에 따르면, 인코더(226)는 프레임 버퍼(210)에서 캡쳐 이벤트에 대응하는 이미지를 추출하여 캡쳐 이미지를 저장하기 위한 기준 포맷(예: JPEG, HEVC, H.264 등)으로 부호화(encoding)하여 메모리(130)에 저장할 수 있다. 예를 들어, 인코더(226)는 프레임 버퍼(210)에 압축된(encoded) 이미지가 저장된 경우, 캡쳐 이벤트에 대응하는 이미지를 추출하여 압축해제(decoding)하고, 부호화할 수 있다. 메모리(130)는 캡쳐 이벤트에 대응하는 이미지와 매핑되는 객체 구성 정보를 저장할 수 있다.
도 2의 경우, 프로세서(120)는 프레임 버퍼(210)를 포함할 수 있다.
본 발명의 다양한 실시 예에 따르면, 프레임 버퍼(210)는 메모리(130)에 포함되거나, 별도의 모듈로 구성될 수 있다.
도 3은 본 발명의 다양한 실시 예에 따른 전자 장치의 상세 블록도를 도시하고 있다. 이하 설명에서 전자 장치(300)는, 예를 들면, 도 1에 도시된 전자 장치(100)의 전체 또는 일부를 구성할 수 있다.
도 3을 참조하면, 전자 장치(300)는 하나 이상의 응용프로그램 프로세서(AP: application processor)(310), 통신 모듈(320), SIM(subscriber identification module) 카드(324), 메모리(330), 센서 모듈(340), 입력 전자 장치(350), 디스플레이(360), 인터페이스(370), 오디오 모듈(380), 이미지 센서 모듈(391), 전력관리 모듈(395), 배터리(396), 인디케이터(397) 또는 모터(398)를 포함할 수 있다.
AP(310)는 운영체제 또는 응용 프로그램을 구동하여 AP(310)에 연결된 다수의 하드웨어 또는 소프트웨어 구성요소들을 제어할 수 있다. AP(310)는 멀티미디어 데이터를 포함한 각종 데이터 처리 또는 연산을 수행할 수 있다.
통신 모듈(320)(예: 통신 인터페이스(170))은 전자 장치(300)(예: 전자 장치(100))와 네트워크를 통해 연결된 다른 전자 장치들간의 통신에서 데이터 송수신을 수행할 수 있다. 한 실시 예에 따르면, 통신 모듈(320)은 셀룰러 모듈(321), Wifi 모듈(323), 블루투스(BT) 모듈(325), GPS 모듈(327), NFC 모듈(328) 또는 RF(radio frequency) 모듈(329)을 포함할 수 있다.
셀룰러 모듈(321)은 통신망(예: LTE, LTE-A, CDMA, WCDMA, UMTS, WiBro 또는 GSM 등)을 통해서 음성 통화, 영상 통화, 문자 서비스 또는 인터넷 서비스 등을 제공할 수 있다.
한 실시 예에 따르면, 셀룰러 모듈(321)은 커뮤니케이션 프로세서(CP: communication processor)를 포함할 수 있다.
한 실시 예에 따르면, AP(310)는 이미지 캡쳐를 위해 다운 스케일링된 이미지(raw image)를 프레임 버퍼에 저장할 수 있다. 예를 들어, 프레임 버퍼는 AP(310) 또는 메모리(330)에 포함되거나 별도의 모듈로 구성될 수 있다.
한 실시 예에 따르면, AP(310)는 프레임 버퍼에 저장된 다운 스케일링된 이미지를 이용하여 캡쳐 이미지를 생성할 수 있다.
WiFi 모듈(323), BT 모듈(325), GPS 모듈(327) 또는 NFC 모듈(328) 각각은, 예를 들면, 해당하는 모듈을 통해서 송수신되는 데이터를 처리하기 위한 프로세서를 포함할 수 있다.
RF 모듈(329)은 데이터의 송수신, 예를 들면, RF 신호의 송수신을 할 수 있다.
SIM 카드(324)는 가입자 식별 모듈을 포함하는 카드일 수 있으며, 전자 장치의 특정 위치에 형성된 슬롯에 삽입될 수 있다. SIM 카드(324)는 고유한 식별 정보(예: ICCID(integrated circuit card identifier)) 또는 가입자 정보(예: IMSI(international mobile subscriber identity))를 포함할 수 있다.
메모리(330)는 내장 메모리(332) 또는 외장 메모리(334)를 포함할 수 있다.
센서 모듈(340)은 물리량을 계측하거나 전자 장치(300)의 작동 상태를 감지하여, 계측 또는 감지된 정보를 전기 신호로 변환할 수 있다. 센서 모듈(340)은, 예를 들면, 제스처 센서(340A), 자이로 센서(340B), 기압 센서(340C), 마그네틱 센서(340D), 가속도 센서(340E), 그립 센서(340F), 근접 센서(340G), color 센서(340H)(예: RGB(red, green, blue) 센서), 생체 센서(340I), 온/습도 센서(340J), 조도 센서(340K) 또는 UV(ultra violet) 센서(340M) 중의 적어도 하나를 포함할 수 있다. 추가적으로 또는 대체적으로, 센서 모듈(340)은, 예를 들면, 후각 센서(E-nose sensor, 미도시), EMG 센서(electromyography sensor, 미도시), EEG 센서(electroencephalogram sensor, 미도시), ECG 센서(electrocardiogram sensor, 미도시), IR(infra red) 센서(미도시), 홍채 센서(미도시) 또는 지문 센서(미도시) 등을 포함할 수 있다. 센서 모듈(340)은 그 안에 속한 적어도 하나 이상의 센서들을 제어하기 위한 제어 회로를 더 포함할 수 있다.
입력 전자 장치(350)는 터치 패널(touch panel)(352), (디지털) 펜 센서(pen sensor)(354), 키(key)(356) 또는 초음파(ultrasonic) 입력 전자 장치(358)를 포함할 수 있다.
디스플레이(360)(예: 디스플레이(160))는 패널(362), 홀로그램 전자 장치(364) 또는 프로젝터(366)를 포함할 수 있다.
인터페이스(370)는, 예를 들면, HDMI(high-definition multimedia interface)(372), USB(universal serial bus)(374), 광 인터페이스(optical interface)(376) 또는 D-sub(D-subminiature)(378)를 포함할 수 있다.
오디오 모듈(380)은 소리(sound)와 전기신호를 쌍방향으로 변환시킬 수 있다. 오디오 모듈(380)은, 예를 들면, 스피커(382), 리시버(384), 이어폰(386) 또는 마이크(388) 등을 통해 입력 또는 출력되는 소리 정보를 처리할 수 있다.
이미지 센서 모듈(391)은 정지 영상 및 동영상을 촬영할 수 있다.
전력 관리 모듈(395)은 전자 장치(300)의 전력을 관리할 수 있다.
인디케이터(397)는 전자 장치(300) 혹은 그 일부(예: AP(310))의 특정 상태, 예를 들면, 부팅 상태, 메시지 상태 또는 충전 상태 등을 표시할 수 있다.
모터(398)는 전기적 신호를 기계적 진동으로 변환할 수 있다.
본 발명의 다양한 실시 예에 따른 전자 장치의 전술한 구성요소들 각각은 하나 또는 그 이상의 부품(component)으로 구성될 수 있으며, 해당 구성 요소의 명칭은 전자 장치의 종류에 따라서 달라질 수 있다. 본 발명의 다양한 실시 예에 따른 전자 장치는 전술한 구성요소 중 적어도 하나를 포함하여 구성될 수 있으며, 일부 구성요소가 생략되거나 또는 추가적인 다른 구성요소를 더 포함할 수 있다. 또한, 본 발명의 다양한 실시 예에 따른 전자 장치의 구성 요소들 중 일부가 결합되어 하나의 개체(entity)로 구성됨으로써, 결합되기 이전의 해당 구성 요소들의 기능을 동일하게 수행할 수 있다.
본 발명의 다양한 실시 예에 따르면, 전자 장치는, 이미지 및 이미지와 관련된 정보를 저장하는 메모리와 이미지를 처리하는 프로세서는 포함하며, 상기 프로세서는, 이미지를 획득하고, 상기 이미지에 대한 객체 구성 정보를 추출하고, 상기 이미지를 다운 스케일링하고, 상기 다운 스케일링된 이미지 및 상기 객체 구성 정보를 상기 메모리에 저장하도록 제어할 수 있다.
다양한 실시 예에 따르면, 상기 프로세서는, 상기 다운 스케일링된 이미지를 영상 신호 처리(ISP: image signal processing)하고, 상기 영상 신호 처리된 다운 스케일링 이미지 및 상기 객체 구성 정보를 상기 메모리에 저장하도록 제어할 수 있다.
다양한 실시 예에 따르면, 상기 프로세서는, 상기 이미지에 대한 영상 신호 처리(ISP: image signal processing)를 수행하고, 상기 영상 신호 처리된 이미지에 대한 객체 구성 정보를 추출할 수 있다.
다양한 실시 예에 따르면, 상기 프로세서는, 상기 이미지에 대한 에지 정보 또는 에지 정보와 깊이 맵을 포함하는 객체 구성 정보를 추출할 수 있다.
다양한 실시 예에 따르면, 상기 프로세서는, 상기 다운 스케일링된 이미지의 복잡도에 기반하여 압축 여부를 결정하고, 상기 다운 스케일링된 이미지의 압축 결정에 대한 응답으로 상기 다운 스케일링된 이미지를 압축하여 상기 메모리의 버퍼에 저장하거나, 상기 다운 스케일링된 이미지의 비압축 결정에 대한 응답으로 상기 다운 스케일리된 이미지를 상기 전자 장치의 버퍼에 저장하도록 제어할 수 있다.
다양한 실시 예에 따르면, 상기 프로세서는, 캡쳐 이벤트에 대한 응답으로, 상기 메모리에 저장된 다운 스케일링된 이미지를 이용하여 캡쳐 이미지를 생성할 수 있다.
다양한 실시 예에 따르면, 상기 프로세서는, 상기 캡쳐 이벤트에 대한 응답으로, 상기 메모리에 저장된 다운 스케일링된 이미지 중 상기 캡쳐 이벤트에 대응하는 이미지를 추출하고, 상기 추출한 이미지를 업 스케일링(up scaling)하고, 상기 업 스케일링된 이미지 및 상기 캡쳐 이벤트에 대응하는 이미지의 객체 구성 정보를 이용하여 이미지를 복원(reconstruct)하고, 상기 복원된 이미지를 기준 포맷으로 인코딩하여 캡쳐 이미지를 생성하고, 상기 캡쳐 이미지를 상기 메모리에 저장하도록 제어할 수 있다.
다양한 실시 예에 따르면, 상기 메모리는, 상기 캡쳐 이미지의 확장 필드에 상기 캡쳐 이벤트에 대응하는 이미지의 객체 구성 정보를 추가하여 저장할 수 있다.
다양한 실시 예에 따르면, 상기 프로세서는, 상기 캡쳐 이벤트에 대한 응답으로, 상기 저장된 다운 스케일링된 이미지 중 상기 캡쳐 이벤트에 대응하는 이미지를 추출하고, 상기 추출한 이미지를 기준 포맷으로 인코딩하여 캡쳐 이미지를 생성하고, 상기 캡쳐 이미지 및 상기 캡쳐 이미지에 대한 객체 구성 정보를 상기 메모리에 저장하도록 제어할 수 있다.
다양한 실시 예에 따르면, 상기 메모리는, 상기 캡쳐 이미지의 확장 필드에 상기 캡쳐 이미지에 대한 객체 구성 정보를 추가하여 저장할 수 있다.
다양한 실시 예에 따르면, 정보를 표시하는 디스플레이를 더 포함하며, 상기 프로세서는, 표시 이벤트에 대한 응답으로, 상기 메모리에 저장된 캡쳐 이미지 중 상기 표시 이벤트에 대응하는 캡쳐 이미지를 추출하고, 상기 추출한 캡쳐 이미지 및 상기 캡쳐 이미지의 객체 구성 정보를 이용하여 캡쳐 이미지를 복원(reconstruct)하고, 상기 복원된 캡쳐 이미지를 상기 디스플레이에 표시하도록 제어할 수 있다.
도 4는 본 발명의 다양한 실시 예에 따른 전자 장치에서 이미지를 변환하기 위한 흐름도를 도시하고 있다.
도 4를 참조하면, 동작 401에서, 전자 장치(예: 도 1의 전자 장치(100) 또는 도 3의 전자 장치(300))는 원본 이미지(예: 영상 신호 처리된 이미지)를 획득할 수 있다. 예를 들어, 전자 장치는 외부 기기로부터 원본 이미지(예: YUV 또는 RGB 포맷의 이미지)를 수신할 수 있다.
동작 403에서, 전자 장치는 원본 이미지에 포함되는 객체들의 구성 정보(예: 에지 정보)를 추출할 수 있다. 예를 들어, 전자 장치는 원본 이미지를 블러(blur) 처리할 수 있다. 전자 장치는 원본 이미지와 블러 처리된 이미지의 차이점을 추출하여 원본 이미지의 에지 정보를 추출할 수 있다. 추가적으로, 전자 장치는 원본 이미지에 대한 깊이 맵을 추출할 수 있다.
동작 405에서, 전자 장치는 이미지(예: 원본 이미지 또는 블러 처리된 이미지)를 다운 스케일링할 수 있다. 예를 들어, 전자 장치는 디스플레이(160) 해상도(display resolution)에 대응하도록 이미지의 크기(예: 해상도)를 축소할 수 있다.
동작 407에서, 전자 장치는 다운 스케일링된 이미지와 해당 이미지의 객체 구성 정보를 프레임 버퍼(예: 프레임 버퍼(210))에 저장할 수 있다. 예를 들어, 전자 장치는 다운 스케일링된 이미지 및 객체 구성 정보 중 적어도 하나를 압축(encoding)하여 프레임 버퍼에 저장할 수 있다. 예컨대, 전자 장치는 다운 스케일링된 이미지의 복잡도에 기반하여 이미지의 압축 여부를 결정할 수 있다. 전자 장치는 이미지를 압축하지 않는 것으로 결정한 경우, 다운 스케일링된 이미지를 압축하지 않고 프레임 버퍼에 저장할 수 있다.
도 5는 본 발명의 다양한 실시 예에 따른 전자 장치에서 카메라를 통해 획득한 이미지를 변환하기 위한 흐름도를 도시하고 있다.
도 5를 참조하면, 동작 501에서, 전자 장치(예: 도 1의 전자 장치(100) 또는 도 3의 전자 장치(300))는 카메라 모듈(예: 카메라 모듈(170))을 통해 원본 이미지(예: raw image)를 획득할 수 있다. 예를 들어, 전자 장치는 전자 장치에 기능적으로 연결된 적어도 하나의 이미지 센서를 이용하여 원본 이미지(예: raw image)를 획득할 수 있다.
동작 503에서, 전자 장치는 원본 이미지에 포함되는 객체들의 구성 정보(예: 에지 정보)를 추출할 수 있다. 추가적으로, 전자 장치는 원본 이미지에 대한 깊이 맵을 추출할 수 있다.
동작 505에서, 전자 장치는 이미지(예: 원본 이미지 또는 객체 구성 정보 추출을 위해 변환된 이미지)를 다운 스케일링할 수 있다. 예를 들어, 전자 장치는 디스플레이(160) 해상도에 대응하도록 이미지의 크기(예: 해상도)를 축소할 수 있다.
동작 507에서, 전자 장치는 다운 스케일링된 이미지에 대한 영상 신호 처리를 수행할 수 있다. 예를 들어, 전자 장치는 다운 스케일링된 이미지에 대한 노이즈 보정, 감마 보정(Gamma Correction), 색필터 배열보간(color filter array interpolation), 색 매트릭스(color matrix), 색보정(color correction), 색 향상(color enhancement) 중 적어도 하나의 화질 개선을 위한 영상 신호 처리를 수행할 수 있다. 전자 장치는 영상 신호 처리를 수행하여 생성한 영상 데이터를 압축 처리하여 YUV 또는 RGB 포맷의 이미지를 생성할 수 있다.
동작 509에서, 전자 장치는 영상 신호 처리된 이미지 및 해당 이미지의 객체 구성 정보를 프레임 버퍼(예: 프레임 버퍼(210))에 저장할 수 있다. 예를 들어, 전자 장치는 영상 신호 처리된 이미지 및 객체 구성 정보 중 적어도 하나를 압축(encoding)하여 프레임 버퍼에 저장할 수 있다. 예컨대, 전자 장치는 영상 신호 처리된 이미지의 복잡도에 기반하여 이미지의 압축 여부를 결정할 수 있다.
도 6은 본 발명의 다양한 실시 예에 따른 전자 장치에서 카메라를 통해 획득한 이미지를 변환하기 위한 흐름도를 도시하고 있다.
도 6을 참조하면, 동작 601에서, 전자 장치(예: 도 1의 전자 장치(100) 또는 도 3의 전자 장치(300))는 카메라 모듈(예: 카메라 모듈(170))을 통해 원본 이미지(예: raw image)를 획득할 수 있다.
동작 603에서, 전자 장치는 원본 이미지에 대한 영상 신호 처리를 수행할 수 있다. 예를 들어, 전자 장치는 원본 이미지에 대한 영상 신호 처리를 수행할 수 있다. 전자 장치는 영상 신호 처리된 이미지에 대한 색상 보간(color interpolation)을 수행할 수 있다.
동작 605에서, 전자 장치는 이미지(예: 원본 이미지 또는 영상 신호 처리된 이미지)에 포함되는 객체들의 구성 정보(예: 에지 정보)를 추출할 수 있다. 추가적으로, 전자 장치는 해당 이미지의 깊이 맵을 추출할 수 있다.
동작 607에서, 전자 장치는 이미지(예: 원본 이미지 또는 객체 구성 정보 추출을 위해 변환된 이미지)를 다운 스케일링할 수 있다. 예를 들어, 전자 장치는 디스플레이(160) 해상도에 대응하도록 이미지의 크기(예: 해상도)를 축소할 수 있다.
동작 609에서, 전자 장치는 다운 스케일링된 이미지 및 해당 이미지의 객체 구성 정보를 프레임 버퍼(예: 프레임 버퍼(210))에 저장할 수 있다. 예를 들어, 전자 장치는 다운 스케일링된 이미지 및 객체 구성 정보 중 적어도 하나를 압축(encoding)하여 프레임 버퍼에 저장할 수 있다. 예컨대, 전자 장치는 다운 스케일링된 이미지의 복잡도에 기반하여 이미지의 압축 여부를 결정할 수 있다.
도 7은 본 발명의 다양한 실시 예에 따른 전자 장치에서 캡쳐 이미지를 생성하기 위한 흐름도를 도시하고 있다.
도 7을 참조하면, 동작 701에서, 전자 장치(예: 도 1의 전자 장치(100) 또는 도 3의 전자 장치(300))는 캡쳐 이벤트 발생을 검출할 수 있다. 예를 들어, 전자 장치는 입출력 인터페이스(150)를 통해 검출한 입력 정보에 기반하여 캡쳐 이벤트가 매핑된 아이콘, 버튼 및 메뉴의 선택이 검출되는지 확인할 수 있다.
동작 703에서, 전자 장치는 프레임 버퍼에 저장된 이미지들 중 캡쳐 이벤트에 대응하는 이미지(예: 다운 스케일링된 이미지)를 추출할 수 있다. 예를 들어, 전자 장치는 프레임 버퍼에 저장된 이미지들 중 캡쳐 이벤트가 발생하는 시점에 디스플레이(160)에 표시된 프리뷰 이미지에 대응하는 이미지를 추출할 수 있다.
동작 705에서, 전자 장치는 캡쳐 이벤트에 대응하는 이미지를 업 스케일링할 수 있다. 예를 들어, 전자 장치는 캡쳐 이벤트에 대응하는 이미지의 크기(예: 해상도)를 확대할 수 있다.
동작 707에서, 전자 장치는 캡쳐 이벤트에 대응하는 이미지의 객체 구성 정보 및 업 스케일링된 이미지를 이용하여 해당 이미지를 복원할 수 있다. 예를 들어, 전자 장치는 업 스케일링된 이미지에 해당 이미지의 에지 정보를 추가하여 이미지를 복원할 수 있다.
동작 709에서, 전자 장치는 복원된 이미지를 기준 포맷(예: JPEG, HEVC, H.264 등)으로 부호화(encoding)하여 캡쳐 이미지를 생성할 수 있다.
동작 711에서, 전자 장치는 캡쳐 이미지를 메모리(예: 도 1의 메모리(130))에 저장할 수 있다. 추가적으로, 전자 장치는 캡쳐 이미지에 대한 추가적인 이미지 처리를 위해 해당 캡쳐 이미지에 매핑되도록 객체 구성 정보를 저장할 수 있다. 예를 들어, 전자 장치는 캡쳐 이미지의 확장된 필드에 객체 구성 정보를 추가하여 저장할 수 있다.
도 7의 경우, 전자 장치는 프레임 버퍼에 저장된 다운 스케일링된 이미지를 업 스케일링하여 캡쳐 이미지를 생성 및 저장할 수 있다. 이에 따라, 전자 장치는, 캡쳐 이미지의 표시 이벤트가 발생하는 경우, 메모리(130)에 저장된 캡쳐 이미지를 추출하여 디스플레이(160)에 표시할 수 있다.
도 8은 본 발명의 다양한 실시 예에 따른 전자 장치에서 캡쳐 이미지를 생성하기 위한 흐름도를 도시하고 있다.
도 8을 참조하면, 동작 801에서, 전자 장치(예: 도 1의 전자 장치(100) 또는 도 3의 전자 장치(300))는 캡쳐 이벤트 발생을 검출할 수 있다. 예를 들어, 전자 장치는 입출력 인터페이스(150)를 통해 검출한 입력 정보에 기반하여 캡쳐 이벤트가 매핑된 아이콘, 버튼 및 메뉴의 선택이 검출되는지 확인할 수 있다.
동작 803에서, 전자 장치는 프레임 버퍼에 저장된 이미지들 중 캡쳐 이벤트에 대응하는 이미지(예: 다운 스케일링된 이미지)를 추출할 수 있다. 예를 들어, 전자 장치는 프레임 버퍼에 저장된 이미지들 중 캡쳐 이벤트가 발생하는 시점에 디스플레이(160)에 표시된 프리뷰 이미지에 대응하는 이미지를 추출할 수 있다.
동작 805에서, 전자 장치는 캡쳐 이벤트에 대응하는 이미지를 기준 포맷(예: JPEG, HEVC, H.264 등)으로 부호화(encoding)하여 캡쳐 이미지를 생성할 수 있다.
동작 807에서, 전자 장치는 캡쳐 이미지와 캡쳐 이미지에 대응하는 객체 구성 정보를 메모리(예: 도 1의 메모리(130))에 저장할 수 있다. 예를 들어, 전자 장치는 캡쳐 이미지의 확장된 필드에 객체 구성 정보를 추가하여 저장할 수 있다.
도 8의 경우, 전자 장치는 프레임 버퍼에 저장된 다운 스케일링된 이미지를 기준 포맷으로 부호화하여 캡쳐 이미지를 생성 및 저장할 수 있다. 이에 따라, 전자 장치는 하기 도 9와 같이 캡쳐 이미지의 표시 이벤트가 발생하는 경우, 메모리(130)에 저장된 캡쳐 이미지를 업 스케일링하여 디스플레이(160)에 표시할 수 있다.
도 9는 본 발명의 다양한 실시 예에 따른 전자 장치에서 캡쳐 이미지를 표시하기 위한 흐름도를 도시하고 있다.
도 9를 참조하면, 동작 901에서, 전자 장치(예: 도 1의 전자 장치(100) 또는 도 3의 전자 장치(300))는 캡쳐 이미지 표시 이벤트 발생을 검출할 수 있다. 예를 들어, 전자 장치는 입출력 인터페이스(150)를 통해 검출한 입력 정보에 기반하여 디스플레이(160)에 표시하기 위한 캡쳐 이미지의 선택이 검출되는지 확인할 수 있다.
동작 903에서, 전자 장치는 메모리(예: 메모리(130))에 저장된 캡쳐 이미지들 중 캡쳐 이미지 표시 이벤트에 대응하는 캡쳐 이미지(예: 다운 스케일링된 캡쳐 이미지)를 추출할 수 있다.
동작 905에서, 전자 장치는 캡쳐 이미지 표시 이벤트에 대응하는 캡쳐 이미지 및 해당 캡쳐 이미지의 객체 구성 정보를 이용하여 해당 캡쳐 이미지를 복원할 수 있다. 예를 들어, 전자 장치는 캡쳐 이미지 표시 이벤트에 대응하는 캡쳐 이미지에 해당 캡쳐 이미지의 에지 정보를 추가하여 이미지를 복원할 수 있다.
동작 907에서, 전자 장치는 복원된 캡쳐 이미지를 디스플레이(160)에 표시할 수 있다.
본 발명의 다양한 실시 예에 따르면, 전자 장치의 동작 방법은, 이미지를 획득하는 동작과 상기 이미지에 대한 객체 구성 정보를 추출하는 동작과 상기 이미지를 다운 스케일링하는 동작, 및 상기 다운 스케일링된 이미지 및 상기 객체 구성 정보를 저장하는 동작을 포함할 수 있다.
다양한 실시 예에 따르면, 상기 이미지를 다운 스케일링한 후, 상기 다운 스케일링된 이미지를 영상 신호 처리(ISP: image signal processing)하는 동작을 더 포함하며, 상기 저장하는 동작은, 상기 영상 신호 처리된 이미지 및 상기 객체 구성 정보를 저장하는 동작을 포함할 수 있다.
다양한 실시 예에 따르면, 상기 객체 구성 정보를 추출하는 동작 이전에 상기 이미지에 대한 영상 신호 처리(ISP: image signal processing)를 수행하는 동작을 더 포함하며, 상기 객체 구성 정보를 추출하는 동작은, 상기 영상 신호 처리된 이미지에 대한 객체 구성 정보를 추출하는 동작을 포함할 수 있다.
다양한 실시 예에 따르면, 상기 객체 구성 정보는, 에지 정보 또는 에지 정보와 깊이 맵을 포함할 수 있다.
다양한 실시 예에 따르면, 상기 저장하는 동작은, 상기 다운 스케일링된 이미지의 복잡도에 기반하여 압축 여부를 결정하는 동작과 상기 다운 스케일링된 이미지의 압축 결정에 대한 응답으로 상기 다운 스케일링된 이미지를 압축하여 상기 전자 장치의 버퍼에 저장하는 동작과 상기 다운 스케일링된 이미지의 비압축 결정에 대한 응답으로 상기 다운 스케일리된 이미지를 상기 전자 장치의 버퍼에 저장하는 동작을 포함할 수 있다.
다양한 실시 예에 따르면, 캡쳐 이벤트에 대한 응답으로, 상기 저장된 다운 스케일링된 이미지를 이용하여 캡쳐 이미지를 생성하는 동작을 더 포함할 수 있다.
다양한 실시 예에 따르면, 상기 캡쳐 이미지를 생성하는 동작은, 상기 캡쳐 이벤트에 대한 응답으로, 상기 저장된 다운 스케일링된 이미지 중 상기 캡쳐 이벤트에 대응하는 이미지를 추출하는 동작과 상기 추출한 이미지를 업 스케일링(up scaling)하는 동작과 상기 업 스케일링된 이미지 및 상기 캡쳐 이벤트에 대응하는 이미지의 객체 구성 정보를 이용하여 이미지를 복원(reconstruct)하는 동작과 상기 복원된 이미지를 기준 포맷으로 인코딩하여 캡쳐 이미지를 생성하는 동작, 및 상기 캡쳐 이미지를 저장하는 동작을 포함할 수 있다.
다양한 실시 예에 따르면, 상기 캡쳐 이미지를 저장하는 동작은, 상기 캡쳐 이미지의 확장 필드에 상기 캡쳐 이벤트에 대응하는 이미지의 객체 구성 정보를 추가하여 저장하는 동작을 포함할 수 있다.
다양한 실시 예에 따르면, 상기 캡쳐 이미지를 생성하는 동작은, 상기 캡쳐 이벤트에 대한 응답으로, 상기 저장된 다운 스케일링된 이미지 중 상기 캡쳐 이벤트에 대응하는 이미지를 추출하는 동작과 상기 추출한 이미지를 기준 포맷으로 인코딩하여 캡쳐 이미지를 생성하는 동작, 및 상기 캡쳐 이미지 및 상기 캡쳐 이미지에 대한 객체 구성 정보를 저장하는 동작을 포함할 수 있다.
다양한 실시 예에 따르면, 상기 캡쳐 이미지에 대한 객체 구성 정보를 저장하는 동작은, 상기 캡쳐 이미지의 확장 필드에 상기 캡쳐 이미지에 대한 객체 구성 정보를 추가하여 저장하는 동작을 포함할 수 있다.
다양한 실시 예에 따르면, 상기 표시 이벤트에 대한 응답으로, 상기 저장된 캡쳐 이미지 중 상기 표시 이벤트에 대응하는 캡쳐 이미지를 추출하는 동작과 상기 추출한 캡쳐 이미지 및 상기 캡쳐 이미지의 객체 구성 정보를 이용하여 캡쳐 이미지를 복원(reconstruct)하는 동작과 상기 복원된 캡쳐 이미지를 디스플레이에 표시하는 동작을 더 포함할 수 있다.
본 문서에서 사용된 용어 “모듈”은, 예를 들면, 하드웨어, 소프트웨어 또는 펌웨어 (firmware) 중 하나 또는 둘 이상의 조합을 포함하는 단위 (unit)를 의미할 수 있다. “모듈”은, 예를 들면, 유닛 (unit), 로직 (logic), 논리 블록 (logical block), 부품 (component), 또는 회로 (circuit) 등의 용어와 바꾸어 사용 (interchangeably use)될 수 있다. “모듈”은, 일체로 구성된 부품의 최소 단위 또는 그 일부가 될 수 있다. “모듈”은 하나 또는 그 이상의 기능을 수행하는 최소 단위 또는 그 일부가 될 수도 있다. “모듈”은 기계적으로 또는 전자적으로 구현될 수 있다. 예를 들면,“모듈”은, 알려졌거나 앞으로 개발될, 어떤 동작들을 수행하는 ASIC (application-specific integrated circuit) 칩, FPGAs (field-programmable gate arrays) 또는 프로그램 가능 논리 전자 장치 (programmable-logic device) 중 적어도 하나를 포함할 수 있다.
다양한 실시 예에 따른 전자 장치 (예: 모듈들 또는 그 기능들) 또는 방법 (예: 동작들)의 적어도 일부는, 예컨대, 프로그램 모듈의 형태로 컴퓨터로 읽을 수 있는 저장매체 (computer-readable storage media)에 저장된 명령어로 구현될 수 있다. 명령어는, 프로세서 (예: 프로세서 120)에 의해 실행될 경우, 하나 이상의 프로세서가 명령어에 해당하는 기능을 수행할 수 있다. 컴퓨터로 읽을 수 있는 저장매체는, 예를 들면, 메모리(130) 가 될 수 있다.
컴퓨터로 판독 가능한 기록 매체는, 하드디스크, 플로피디스크, 마그네틱 매체 (magnetic media)(예: 자기테이프), 광기록 매체 (optical media)(예: CD-ROM (compact disc read only memory), DVD (digital versatile disc), 자기-광 매체 (magneto-optical media)(예: 플롭티컬 디스크 (floptical disk)), 하드웨어 전자 장치 (예: ROM (read only memory), RAM (random access memory), 또는 플래시 메모리 등) 등을 포함할 수 있다. 또한, 프로그램 명령에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함할 수 있다. 상술한 하드웨어 전자 장치는 다양한 실시 예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지다.
다양한 실시 예에 따른 모듈 또는 프로그램 모듈은 전술한 구성요소들 중 적어도 하나 이상을 포함하거나, 일부가 생략되거나, 또는 추가적인 다른 구성요소를 더 포함할 수 있다. 다양한 실시 예에 따른 모듈, 프로그램 모듈 또는 다른 구성요소에 의해 수행되는 동작들은 순차적, 병렬적, 반복적 또는 휴리스틱 (heuristic)한 방법으로 실행될 수 있다. 또한, 일부 동작은 다른 순서로 실행되거나, 생략되거나, 또는 다른 동작이 추가될 수 있다.
그리고 본 문서에 개시된 실시 예는 개시된, 기술 내용의 설명 및 이해를 위해 제시된 것이며, 본 발명의 다양한 실시 예의 범위를 한정하는 것은 아니다. 따라서, 본 발명의 다양한 실시 예의 범위는, 본 발명의 다양한 실시 예의 기술적 사상에 근거한 모든 변경 또는 다양한 다른 실시 예를 포함하는 것으로 해석되어야 한다.

Claims (22)

  1. 전자 장치의 동작 방법에 있어서,
    이미지를 획득하는 동작;
    상기 이미지에 대한 객체 구성 정보를 추출하는 동작;
    상기 이미지를 다운 스케일링하는 동작; 및
    상기 다운 스케일링된 이미지 및 상기 객체 구성 정보를 저장하는 동작을 포함하는 방법.
  2. 제 1항에 있어서,
    상기 이미지를 다운 스케일링한 후, 상기 다운 스케일링된 이미지를 영상 신호 처리(ISP: image signal processing)하는 동작을 더 포함하며,
    상기 저장하는 동작은,
    상기 영상 신호 처리된 이미지 및 상기 객체 구성 정보를 저장하는 동작을 포함하는 방법.
  3. 제 1항에 있어서,
    상기 객체 구성 정보를 추출하는 동작 이전에 상기 이미지에 대한 영상 신호 처리(ISP: image signal processing)를 수행하는 동작을 더 포함하며,
    상기 객체 구성 정보를 추출하는 동작은,
    상기 영상 신호 처리된 이미지에 대한 객체 구성 정보를 추출하는 동작을 포함하는 방법.
  4. 제 1항에 있어서.
    상기 객체 구성 정보는, 에지 정보 또는 에지 정보와 깊이 맵을 포함하는 방법.
  5. 제 1항에 있어서
    상기 저장하는 동작은,
    상기 다운 스케일링된 이미지의 복잡도에 기반하여 압축 여부를 결정하는 동작;
    상기 다운 스케일링된 이미지의 압축 결정에 대한 응답으로 상기 다운 스케일링된 이미지를 압축하여 상기 전자 장치의 버퍼에 저장하는 동작;
    상기 다운 스케일링된 이미지의 비압축 결정에 대한 응답으로 상기 다운 스케일리된 이미지를 상기 전자 장치의 버퍼에 저장하는 동작을 포함하는 방법.
  6. 제 1항에 있어서,
    캡쳐 이벤트에 대한 응답으로, 상기 저장된 다운 스케일링된 이미지를 이용하여 캡쳐 이미지를 생성하는 동작을 더 포함하는 방법.
  7. 제 6항에 있어서,
    상기 캡쳐 이미지를 생성하는 동작은,
    상기 캡쳐 이벤트에 대한 응답으로, 상기 저장된 다운 스케일링된 이미지 중 상기 캡쳐 이벤트에 대응하는 이미지를 추출하는 동작;
    상기 추출한 이미지를 업 스케일링(up scaling)하는 동작;
    상기 업 스케일링된 이미지 및 상기 캡쳐 이벤트에 대응하는 이미지의 객체 구성 정보를 이용하여 이미지를 복원(reconstruct)하는 동작;
    상기 복원된 이미지를 기준 포맷으로 인코딩하여 캡쳐 이미지를 생성하는 동작; 및
    상기 캡쳐 이미지를 저장하는 동작을 포함하는 방법.
  8. 제 7항에 있어서,
    상기 캡쳐 이미지를 저장하는 동작은,
    상기 캡쳐 이미지의 확장 필드에 상기 캡쳐 이벤트에 대응하는 이미지의 객체 구성 정보를 추가하여 저장하는 동작을 포함하는 방법.
  9. 제 6항에 있어서,
    상기 캡쳐 이미지를 생성하는 동작은,
    상기 캡쳐 이벤트에 대한 응답으로, 상기 저장된 다운 스케일링된 이미지 중 상기 캡쳐 이벤트에 대응하는 이미지를 추출하는 동작;
    상기 추출한 이미지를 기준 포맷으로 인코딩하여 캡쳐 이미지를 생성하는 동작; 및
    상기 캡쳐 이미지 및 상기 캡쳐 이미지에 대한 객체 구성 정보를 저장하는 동작을 포함하는 방법.
  10. 제 9항에 있어서,
    상기 캡쳐 이미지에 대한 객체 구성 정보를 저장하는 동작은,
    상기 캡쳐 이미지의 확장 필드에 상기 캡쳐 이미지에 대한 객체 구성 정보를 추가하여 저장하는 동작을 포함하는 방법.
  11. 제 9항에 있어서,
    상기 표시 이벤트에 대한 응답으로, 상기 저장된 캡쳐 이미지 중 상기 표시 이벤트에 대응하는 캡쳐 이미지를 추출하는 동작;
    상기 추출한 캡쳐 이미지 및 상기 캡쳐 이미지의 객체 구성 정보를 이용하여 캡쳐 이미지를 복원(reconstruct)하는 동작;
    상기 복원된 캡쳐 이미지를 디스플레이에 표시하는 동작을 더 포함하는 방법.
  12. 전자 장치에 있어서,
    이미지 및 이미지와 관련된 정보를 저장하는 메모리;
    이미지를 처리하는 프로세서는 포함하며,
    상기 프로세서는, 이미지를 획득하고,
    상기 이미지에 대한 객체 구성 정보를 추출하고,
    상기 이미지를 다운 스케일링하고,
    상기 다운 스케일링된 이미지 및 상기 객체 구성 정보를 상기 메모리에 저장하도록 제어하는 장치.
  13. 제 12항에 있어서,
    상기 프로세서는, 상기 다운 스케일링된 이미지를 영상 신호 처리(ISP: image signal processing)하고, 상기 영상 신호 처리된 다운 스케일링 이미지 및 상기 객체 구성 정보를 상기 메모리에 저장하도록 제어하는 장치.
  14. 제 12항에 있어서,
    상기 프로세서는, 상기 이미지에 대한 영상 신호 처리(ISP: image signal processing)를 수행하고, 상기 영상 신호 처리된 이미지에 대한 객체 구성 정보를 추출하는 장치.
  15. 제 12항에 있어서.
    상기 프로세서는, 상기 이미지에 대한 에지 정보 또는 에지 정보와 깊이 맵을 포함하는 객체 구성 정보를 추출하는 장치.
  16. 제 12항에 있어서
    상기 프로세서는, 상기 다운 스케일링된 이미지의 복잡도에 기반하여 압축 여부를 결정하고, 상기 다운 스케일링된 이미지의 압축 결정에 대한 응답으로 상기 다운 스케일링된 이미지를 압축하여 상기 메모리의 버퍼에 저장하거나, 상기 다운 스케일링된 이미지의 비압축 결정에 대한 응답으로 상기 다운 스케일리된 이미지를 상기 전자 장치의 버퍼에 저장하도록 제어하는 장치.
  17. 제 12항에 있어서,
    상기 프로세서는, 캡쳐 이벤트에 대한 응답으로, 상기 메모리에 저장된 다운 스케일링된 이미지를 이용하여 캡쳐 이미지를 생성하는 장치.
  18. 제 17항에 있어서,
    상기 프로세서는, 상기 캡쳐 이벤트에 대한 응답으로, 상기 메모리에 저장된 다운 스케일링된 이미지 중 상기 캡쳐 이벤트에 대응하는 이미지를 추출하고,
    상기 추출한 이미지를 업 스케일링(up scaling)하고,
    상기 업 스케일링된 이미지 및 상기 캡쳐 이벤트에 대응하는 이미지의 객체 구성 정보를 이용하여 이미지를 복원(reconstruct)하고,
    상기 복원된 이미지를 기준 포맷으로 인코딩하여 캡쳐 이미지를 생성하고,
    상기 캡쳐 이미지를 상기 메모리에 저장하도록 제어하는 장치.
  19. 제 18항에 있어서,
    상기 메모리는, 상기 캡쳐 이미지의 확장 필드에 상기 캡쳐 이벤트에 대응하는 이미지의 객체 구성 정보를 추가하여 저장하는 장치.
  20. 제 17항에 있어서,
    상기 프로세서는, 상기 캡쳐 이벤트에 대한 응답으로, 상기 저장된 다운 스케일링된 이미지 중 상기 캡쳐 이벤트에 대응하는 이미지를 추출하고,
    상기 추출한 이미지를 기준 포맷으로 인코딩하여 캡쳐 이미지를 생성하고,
    상기 캡쳐 이미지 및 상기 캡쳐 이미지에 대한 객체 구성 정보를 상기 메모리에 저장하도록 제어하는 장치.
  21. 제 20항에 있어서,
    상기 메모리는, 상기 캡쳐 이미지의 확장 필드에 상기 캡쳐 이미지에 대한 객체 구성 정보를 추가하여 저장하는 장치.
  22. 제 20항에 있어서,
    정보를 표시하는 디스플레이를 더 포함하며,
    상기 프로세서는, 표시 이벤트에 대한 응답으로, 상기 메모리에 저장된 캡쳐 이미지 중 상기 표시 이벤트에 대응하는 캡쳐 이미지를 추출하고,
    상기 추출한 캡쳐 이미지 및 상기 캡쳐 이미지의 객체 구성 정보를 이용하여 캡쳐 이미지를 복원(reconstruct)하고,
    상기 복원된 캡쳐 이미지를 상기 디스플레이에 표시하도록 제어하는 장치.
KR1020150039134A 2015-03-20 2015-03-20 이미지 처리 방법 및 그 전자 장치 KR20160112810A (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020150039134A KR20160112810A (ko) 2015-03-20 2015-03-20 이미지 처리 방법 및 그 전자 장치
US15/075,926 US20160277750A1 (en) 2015-03-20 2016-03-21 Method of processing image and electronic device thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020150039134A KR20160112810A (ko) 2015-03-20 2015-03-20 이미지 처리 방법 및 그 전자 장치

Publications (1)

Publication Number Publication Date
KR20160112810A true KR20160112810A (ko) 2016-09-28

Family

ID=56924079

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150039134A KR20160112810A (ko) 2015-03-20 2015-03-20 이미지 처리 방법 및 그 전자 장치

Country Status (2)

Country Link
US (1) US20160277750A1 (ko)
KR (1) KR20160112810A (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180048450A (ko) * 2016-10-01 2018-05-10 선전 구딕스 테크놀로지 컴퍼니, 리미티드 지문 이미지 처리 시스템
KR20190082601A (ko) * 2018-01-02 2019-07-10 삼성전자주식회사 상황 정보 기반 이미지 처리 방법 및 이를 사용하는 전자 장치
CN113812152A (zh) * 2019-05-14 2021-12-17 北京字节跳动网络技术有限公司 帧内视频编解码的滤波器选择

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8004542B2 (en) * 2005-01-17 2011-08-23 Kabushiki Kaisha Toshiba Video composition apparatus, video composition method and video composition program
WO2011005717A1 (en) * 2009-07-07 2011-01-13 Intrinsic Bioprobes, Inc. Phenotypic ratio of serum amyloid in pre- and type 2 diabetes
US8886015B2 (en) * 2011-01-28 2014-11-11 Apple Inc. Efficient media import
US20130321675A1 (en) * 2012-05-31 2013-12-05 Apple Inc. Raw scaler with chromatic aberration correction
US20150103200A1 (en) * 2013-10-16 2015-04-16 Broadcom Corporation Heterogeneous mix of sensors and calibration thereof

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180048450A (ko) * 2016-10-01 2018-05-10 선전 구딕스 테크놀로지 컴퍼니, 리미티드 지문 이미지 처리 시스템
US10448059B2 (en) 2016-10-01 2019-10-15 Shenzhen GOODIX Technology Co., Ltd. Fingerprint image processing system
KR20190082601A (ko) * 2018-01-02 2019-07-10 삼성전자주식회사 상황 정보 기반 이미지 처리 방법 및 이를 사용하는 전자 장치
CN113812152A (zh) * 2019-05-14 2021-12-17 北京字节跳动网络技术有限公司 帧内视频编解码的滤波器选择
CN113812152B (zh) * 2019-05-14 2023-10-03 北京字节跳动网络技术有限公司 帧内视频编解码的滤波器选择

Also Published As

Publication number Publication date
US20160277750A1 (en) 2016-09-22

Similar Documents

Publication Publication Date Title
KR102444085B1 (ko) 휴대용 통신 장치 및 휴대용 통신 장치의 영상 표시 방법
KR102287043B1 (ko) 카메라를 이용하여 획득한 이미지를 처리하는 전자 장치 및 그 동작 방법
US10366669B2 (en) Electronic device and method for driving display thereof
US20180025478A1 (en) Electronic device for processing image
KR102272108B1 (ko) 영상 처리 장치 및 방법
US10848669B2 (en) Electronic device and method for displaying 360-degree image in the electronic device
US10650596B2 (en) Electronic device for providing VR image based on polyhedron and image providing method thereof
KR102482067B1 (ko) 전자 장치 및 그의 동작 방법
EP2950273B1 (en) Image processing method and electronic device implementing the same
KR102332782B1 (ko) 시각 특성을 고려한 영상 데이터 압축
US10412339B2 (en) Electronic device and image encoding method of electronic device
KR102386893B1 (ko) 이미지 데이터의 보안 방법 및 이를 지원하는 전자 장치
KR102489279B1 (ko) 이미지 처리장치 및 방법
KR20170086977A (ko) 영상 데이터 처리 방법 및 장치
US11051042B2 (en) Image processing device and method
KR20160149842A (ko) 영상 처리 방법 및 그 장치
US20160277750A1 (en) Method of processing image and electronic device thereof
US20150269188A1 (en) Method and device for providing information using barcode
US9898799B2 (en) Method for image processing and electronic device supporting thereof
KR20160058627A (ko) 컨텐트들을 표시하는 방법 및 이를 위한 전자 장치
KR20150107259A (ko) 영상 처리 방법 및 이를 지원하는 전자 장치
AU2017320166A1 (en) Image streaming method and electronic device for supporting the same
KR20160095762A (ko) 전자장치 및 전자장치의 영상데이터 처리 방법
KR102519803B1 (ko) 촬영 장치 및 그 제어 방법
KR20170019159A (ko) 전자 장치 및 이미지 처리 방법