KR20170082883A - 열화상 이미지를 제공하는 전자 장치 및 그의 동작 방법 - Google Patents

열화상 이미지를 제공하는 전자 장치 및 그의 동작 방법 Download PDF

Info

Publication number
KR20170082883A
KR20170082883A KR1020160002168A KR20160002168A KR20170082883A KR 20170082883 A KR20170082883 A KR 20170082883A KR 1020160002168 A KR1020160002168 A KR 1020160002168A KR 20160002168 A KR20160002168 A KR 20160002168A KR 20170082883 A KR20170082883 A KR 20170082883A
Authority
KR
South Korea
Prior art keywords
image
sensor
substrate
electronic device
color pixel
Prior art date
Application number
KR1020160002168A
Other languages
English (en)
Inventor
김동수
강화영
장동훈
정재오
원종훈
이기혁
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020160002168A priority Critical patent/KR20170082883A/ko
Priority to US15/401,837 priority patent/US20170201662A1/en
Publication of KR20170082883A publication Critical patent/KR20170082883A/ko

Links

Images

Classifications

    • H04N5/2258
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/11Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths for generating image signals from visible and infrared light wavelengths
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/13Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths with multiple sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/20Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from infrared radiation only
    • H04N23/23Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from infrared radiation only from thermal infrared radiation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/54Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • H04N23/6812Motion detection based on additional sensors, e.g. acceleration sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N5/2352
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/30Transforming light or analogous information into electric information
    • H04N5/33Transforming infrared radiation
    • H04N5/332
    • H04N5/35545

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Toxicology (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Telephone Function (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

다양한 실시예에 따른 전자 장치에 있어서, 디스플레이; 컬러 픽셀 센서를 포함하는 이미지 센서; 열화상 센서; 및 프로세서를 포함하고, 상기 프로세서는, 상기 컬러 픽셀 센서를 이용하여, 피사체에 대한 제1 이미지를 획득하고, 상기 열화상 센서를 이용하여, 상기 피사체에 대한 제2 이미지를 획득하고, 상기 제1 이미지의 일부 영역을 상기 제2 이미지로 대체하여 상기 디스플레이를 통하여 출력하도록 설정된다.
다양한 실시예에 따른 전자 장치의 동작 방법에 있어서, 디스플레이, 컬러 픽셀 센서, 열화상 센서 및 프로세서를 포함하는 전자 장치에서, 상기 컬러 픽셀 센서를 이용하여, 피사체에 대한 제1 이미지를 획득하는 동작; 상기 열화상 센서를 이용하여, 상기 피사체에 대한 제2 이미지를 획득하는 동작; 및 상기 프로세서를 이용하여, 상기 제1 이미지의 일부 영역을 상기 제2 이미지로 대체하여 상기 디스플레이를 통하여 출력하는 동작을 포함한다.

Description

열화상 이미지를 제공하는 전자 장치 및 그의 동작 방법{ELECTRONIC APPARATUS AND OPERATING METHOD THEREOF}
본 발명은 열화상 이미지를 제공하는 전자 장치 및 그의 동작 방법에 관한 것으로, 예컨대, 컬러 픽셀 센서와 열화상 센서를 모두 포함하는 전자 장치 및 그의 동작 방법에 관한 것이다.
카메라 장치는 이미지 센서를 통해 획득되는 이미지를 처리할 수 있다. 또한 최근의 전자 장치는 다른 장치들의 기능까지 아우르는 모바일 컨버전스(mobile convergence) 단계에 이르고 있다. 전자 장치는 통화 기능, 메시지 송수신 기능 이외에 이미지 센서를 구비하여 촬영 기능 등을 제공할 수 있다. 나아가 최근의 전자 장치는 피사체로부터 방사되는 적외선 또는 원적외선을 감지하여, 피사체의 온도 데이터를 검출하는 열화상 촬영 기능을 제공할 수 있다.
전자 장치가 열화상 이미지를 제공하기 위해서는, 추가적인 열화상 제공용 모듈이 필요할 수 있다. 그러나, 추가적인 모듈로 인해 전자 장치 내에서 실장 등의 이슈가 발생할 수 있다. 또한, 추가적인 모듈의 실장으로 전자 장치의 소형화에 있어서 불리할 수 있다.
본 발명의 다양한 실시예는 열화상 센서를 포함하는 이미지 센서를 통해 열화상 이미지를 제공할 수 있다. 본 발명의 다양한 실시예는 이미지 센서를 통해 컬러 이미지 및 열화상 이미지를 모두 제공할 수 있다.
다양한 실시예에 따른 전자 장치에 있어서, 디스플레이; 컬러 픽셀 센서를 포함하는 이미지 센서; 열화상 센서; 및 프로세서를 포함하고, 상기 프로세서는, 상기 컬러 픽셀 센서를 이용하여, 피사체에 대한 제1 이미지를 획득하고, 상기 열화상 센서를 이용하여, 상기 피사체에 대한 제2 이미지를 획득하고, 상기 제1 이미지의 일부 영역을 상기 제2 이미지로 대체하여 상기 디스플레이를 통하여 출력하도록 설정된다.
다양한 실시예에 따른 전자 장치의 동작 방법에 있어서, 디스플레이, 컬러 픽셀 센서, 열화상 센서 및 프로세서를 포함하는 전자 장치에서, 상기 컬러 픽셀 센서를 이용하여, 피사체에 대한 제1 이미지를 획득하는 동작; 상기 열화상 센서를 이용하여, 상기 피사체에 대한 제2 이미지를 획득하는 동작; 및 상기 프로세서를 이용하여, 상기 제1 이미지의 일부 영역을 상기 제2 이미지로 대체하여 상기 디스플레이를 통하여 출력하는 동작을 포함한다.
본 발명의 다양한 실시예에 따른 전자 장치는 열화상 이미지를 제공하기 위한 별도의 모듈 없이도 열화상 이미지를 제공할 수 있다. 또한, 본 발명의 다양한 실시예에 따른 전자 장치는 이미지 센서를 통해 컬러 이미지 및 열화상 이미지를 모두 제공할 수 있다.
본 발명의 다양한 실시예에 따른 전자 장치는 이미지 센서의 적층(stack) 구조를 통해 전기적 신호의 전달 속도를 향상할 수 있다. 따라서, 컬러 이미지 또는 열화상 이미지의 획득 속도 또는 처리 속도를 향상할 수 있다.
도 1은 다양한 실시예들에 따른 네트워크 환경 시스템을 도시한다.
도 2는 다양한 실시예들에 따른 전자 장치의 블록도를 도시한다.
도 3은 다양한 실시예들에 따른 프로그래밍 모듈의 블록도를 도시한다.
도 4는 다양한 실시예에 따른 전자 장치의 블록도를 도시한다.
도 5는 다양한 실시예에 따른 전자 장치에서 이미지 센서를 도시한다.
도 6은 다양한 실시예에 따른 전자 장치에서 이미지 센서의 일 사시도를 도시한다.
도 7은 도 6의 Ⅰ-Ⅰ’를 따라 절단한 단면을 도시한다.
도 8은 다양한 실시예에 따른 이미지 센서의 일 예시도를 도시한다.
도 9는 다양한 실시예에 따른 전자 장치의 동작 방법의 흐름도를 도시한다.
도 10 내지 도 12는 다양한 실시예에 따른 전자 장치를 통해 획득한 이미지를 도시한다.
도 13은 다양한 실시예에 따른 전자 장치의 동작 방법의 흐름도를 도시한다.
이하, 본 문서의 다양한 실시예들이 첨부된 도면을 참조하여 기재된다. 실시예 및 이에 사용된 용어들은 본 문서에 기재된 기술을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 해당 실시예의 다양한 변경, 균등물, 및/또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. 본 문서에서, "A 또는 B" 또는 "A 및/또는 B 중 적어도 하나" 등의 표현은 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. "제 1," "제 2," "첫째," 또는 "둘째,"등의 표현들은 해당 구성요소들을, 순서 또는 중요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다. 어떤(예: 제 1) 구성요소가 다른(예: 제 2) 구성요소에 "(기능적으로 또는 통신적으로) 연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제 3 구성요소)를 통하여 연결될 수 있다.
본 문서에서, "~하도록 구성된(또는 설정된)(configured to)"은 상황에 따라, 예를 들면, 하드웨어적 또는 소프트웨어적으로 "~에 적합한," "~하는 능력을 가지는," "~하도록 변경된," "~하도록 만들어진," "~를 할 수 있는," 또는 "~하도록 설계된"과 상호 호환적으로(interchangeably) 사용될 수 있다. 어떤 상황에서는, "~하도록 구성된 장치"라는 표현은, 그 장치가 다른 장치 또는 부품들과 함께 "~할 수 있는" 것을 의미할 수 있다. 예를 들면, 문구 "A, B, 및 C를 수행하도록 구성된(또는 설정된) 프로세서"는 해당 동작을 수행하기 위한 전용 프로세서(예: 임베디드 프로세서), 또는 메모리 장치에 저장된 하나 이상의 소프트웨어 프로그램들을 실행함으로써, 해당 동작들을 수행할 수 있는 범용 프로세서(예: CPU 또는 application processor)를 의미할 수 있다.
본 문서의 다양한 실시예들에 따른 전자 장치는, 예를 들면, 스마트폰, 태블릿 PC, 이동 전화기, 영상 전화기, 전자책 리더기, 데스크탑 PC, 랩탑 PC, 넷북 컴퓨터, 워크스테이션, 서버, PDA, PMP(portable multimedia player), MP3 플레이어, 의료기기, 카메라, 또는 웨어러블 장치 중 적어도 하나를 포함할 수 있다. 웨어러블 장치는 액세서리형(예: 시계, 반지, 팔찌, 발찌, 목걸이, 안경, 콘택트 렌즈, 또는 머리 착용형 장치(head-mounted-device(HMD)), 직물 또는 의류 일체형(예: 전자 의복), 신체 부착형(예: 스킨 패드 또는 문신), 또는 생체 이식형 회로 중 적어도 하나를 포함할 수 있다. 어떤 실시예들에서, 전자 장치는, 예를 들면, 텔레비전, DVD(digital video disk) 플레이어, 오디오, 냉장고, 에어컨, 청소기, 오븐, 전자레인지, 세탁기, 공기 청정기, 셋톱 박스, 홈 오토매이션 컨트롤 패널, 보안 컨트롤 패널, 미디어 박스(예: 삼성 HomeSyncTM, 애플TVTM, 또는 구글 TVTM), 게임 콘솔(예: XboxTM, PlayStationTM), 전자 사전, 전자 키, 캠코더, 또는 전자 액자 중 적어도 하나를 포함할 수 있다.
다른 실시예에서, 전자 장치는, 각종 의료기기(예: 각종 휴대용 의료측정기기(혈당 측정기, 심박 측정기, 혈압 측정기, 또는 체온 측정기 등), MRA(magnetic resonance angiography), MRI(magnetic resonance imaging), CT(computed tomography), 촬영기, 또는 초음파기 등), 네비게이션 장치, 위성 항법 시스템(GNSS(global navigation satellite system)), EDR(event data recorder), FDR(flight data recorder), 자동차 인포테인먼트 장치, 선박용 전자 장비(예: 선박용 항법 장치, 자이로 콤파스 등), 항공 전자기기(avionics), 보안 기기, 차량용 헤드 유닛(head unit), 산업용 또는 가정용 로봇, 드론(drone), 금융 기관의 ATM, 상점의 POS(point of sales), 또는 사물 인터넷 장치 (예: 전구, 각종 센서, 스프링클러 장치, 화재 경보기, 온도조절기, 가로등, 토스터, 운동기구, 온수탱크, 히터, 보일러 등) 중 적어도 하나를 포함할 수 있다. 어떤 실시예에 따르면, 전자 장치는 가구, 건물/구조물 또는 자동차의 일부, 전자 보드(electronic board), 전자 사인 수신 장치(electronic signature receiving device), 프로젝터, 또는 각종 계측 기기(예: 수도, 전기, 가스, 또는 전파 계측 기기 등) 중 적어도 하나를 포함할 수 있다. 다양한 실시예에서, 전자 장치는 플렉서블하거나, 또는 전술한 다양한 장치들 중 둘 이상의 조합일 수 있다. 본 문서의 실시예에 따른 전자 장치는 전술한 기기들에 한정되지 않는다. 본 문서에서, 사용자라는 용어는 전자 장치를 사용하는 사람 또는 전자 장치를 사용하는 장치(예: 인공지능 전자 장치)를 지칭할 수 있다.
도 1을 참조하여, 다양한 실시예에서의, 네트워크 환경(100) 내의 전자 장치(101)가 기재된다. 전자 장치(101)는 버스(110), 프로세서(120), 메모리(130), 입출력 인터페이스(150), 디스플레이(160), 및 통신 인터페이스(170)를 포함할 수 있다. 어떤 실시예에서는, 전자 장치(101)는, 구성요소들 중 적어도 하나를 생략하거나 다른 구성요소를 추가적으로 구비할 수 있다. 버스(110)는 구성요소들(110-170)을 서로 연결하고, 구성요소들 간의 통신(예: 제어 메시지 또는 데이터)을 전달하는 회로를 포함할 수 있다. 프로세서(120)는, 중앙처리장치, 어플리케이션 프로세서, 또는 커뮤니케이션 프로세서(communication processor(CP)) 중 하나 또는 그 이상을 포함할 수 있다. 프로세서(120)는, 예를 들면, 전자 장치(101)의 적어도 하나의 다른 구성요소들의 제어 및/또는 통신에 관한 연산이나 데이터 처리를 실행할 수 있다.
메모리(130)는, 휘발성 및/또는 비휘발성 메모리를 포함할 수 있다. 메모리(130)는, 예를 들면, 전자 장치(101)의 적어도 하나의 다른 구성요소에 관계된 명령 또는 데이터를 저장할 수 있다. 한 실시예에 따르면, 메모리(130)는 소프트웨어 및/또는 프로그램(140)을 저장할 수 있다. 프로그램(140)은, 예를 들면, 커널(141), 미들웨어(143), 어플리케이션 프로그래밍 인터페이스(API)(145), 및/또는 어플리케이션 프로그램(또는 "어플리케이션")(147) 등을 포함할 수 있다. 커널(141), 미들웨어(143), 또는 API(145)의 적어도 일부는, 운영 시스템으로 지칭될 수 있다. 커널(141)은, 예를 들면, 다른 프로그램들(예: 미들웨어(143), API(145), 또는 어플리케이션 프로그램(147))에 구현된 동작 또는 기능을 실행하는 데 사용되는 시스템 리소스들(예: 버스(110), 프로세서(120), 또는 메모리(130) 등)을 제어 또는 관리할 수 있다. 또한, 커널(141)은 미들웨어(143), API(145), 또는 어플리케이션 프로그램(147)에서 전자 장치(101)의 개별 구성요소에 접근함으로써, 시스템 리소스들을 제어 또는 관리할 수 있는 인터페이스를 제공할 수 있다.
미들웨어(143)는, 예를 들면, API(145) 또는 어플리케이션 프로그램(147)이 커널(141)과 통신하여 데이터를 주고받을 수 있도록 중개 역할을 수행할 수 있다. 또한, 미들웨어(143)는 어플리케이션 프로그램(147)으로부터 수신된 하나 이상의 작업 요청들을 우선 순위에 따라 처리할 수 있다. 예를 들면, 미들웨어(143)는 어플리케이션 프로그램(147) 중 적어도 하나에 전자 장치(101)의 시스템 리소스(예: 버스(110), 프로세서(120), 또는 메모리(130) 등)를 사용할 수 있는 우선 순위를 부여하고, 상기 하나 이상의 작업 요청들을 처리할 수 있다. API(145)는 어플리케이션(147)이 커널(141) 또는 미들웨어(143)에서 제공되는 기능을 제어하기 위한 인터페이스로, 예를 들면, 파일 제어, 창 제어, 영상 처리, 또는 문자 제어 등을 위한 적어도 하나의 인터페이스 또는 함수(예: 명령어)를 포함할 수 있다. 입출력 인터페이스(150)는, 예를 들면, 사용자 또는 다른 외부 기기로부터 입력된 명령 또는 데이터를 전자 장치(101)의 다른 구성요소(들)에 전달하거나, 또는 전자 장치(101)의 다른 구성요소(들)로부터 수신된 명령 또는 데이터를 사용자 또는 다른 외부 기기로 출력할 수 있다.
디스플레이(160)는, 예를 들면, 액정 디스플레이(LCD), 발광 다이오드(LED) 디스플레이, 유기 발광 다이오드(OLED) 디스플레이, 또는 마이크로 전자기계 시스템 (MEMS) 디스플레이, 또는 전자종이(electronic paper) 디스플레이를 포함할 수 있다. 디스플레이(160)는, 예를 들면, 사용자에게 각종 콘텐츠(예: 텍스트, 이미지, 비디오, 아이콘, 및/또는 심볼 등)을 표시할 수 있다. 디스플레이(160)는, 터치 스크린을 포함할 수 있으며, 예를 들면, 전자 펜 또는 사용자의 신체의 일부를 이용한 터치, 제스쳐, 근접, 또는 호버링 입력을 수신할 수 있다. 통신 인터페이스(170)는, 예를 들면, 전자 장치(101)와 외부 장치(예: 제 1 외부 전자 장치(102), 제 2 외부 전자 장치(104), 또는 서버(106)) 간의 통신을 설정할 수 있다. 예를 들면, 통신 인터페이스(170)는 무선 통신 또는 유선 통신을 통해서 네트워크(162)에 연결되어 외부 장치(예: 제 2 외부 전자 장치(104) 또는 서버(106))와 통신할 수 있다.
무선 통신은, 예를 들면, LTE, LTE-A(LTE Advance), CDMA(code division multiple access), WCDMA(wideband CDMA), UMTS(universal mobile telecommunications system), WiBro(Wireless Broadband), 또는 GSM(Global System for Mobile Communications) 등 중 적어도 하나를 사용하는 셀룰러 통신을 포함할 수 있다. 한 실시예에 따르면, 무선 통신은, 예를 들면, WiFi(wireless fidelity), 블루투스, 블루투스 저전력(BLE), 지그비(Zigbee), NFC(near field communication), 자력 시큐어 트랜스미션(Magnetic Secure Transmission), 라디오 프리퀀시(RF), 또는 보디 에어리어 네트워크(BAN) 중 적어도 하나를 포함할 수 있다. 한실시예에 따르면, 무선 통신은 GNSS를 포함할 수 있다. GNSS는, 예를 들면, GPS(Global Positioning System), Glonass(Global Navigation Satellite System), Beidou Navigation Satellite System(이하 “Beidou”) 또는 Galileo, the European global satellite-based navigation system일 수 있다. 이하, 본 문서에서는, “GPS”는 “GNSS”와 상호 호환적으로 사용될 수 있다. 유선 통신은, 예를 들면, USB(universal serial bus), HDMI(high definition multimedia interface), RS-232(recommended standard232), 전력선 통신, 또는 POTS(plain old telephone service) 등 중 적어도 하나를 포함할 수 있다. 네트워크(162)는 텔레커뮤니케이션 네트워크, 예를 들면, 컴퓨터 네트워크(예: LAN 또는 WAN), 인터넷, 또는 텔레폰 네트워크 중 적어도 하나를 포함할 수 있다.
제 1 및 제 2 외부 전자 장치(102, 104) 각각은 전자 장치(101)와 동일한 또는 다른 종류의 장치일 수 있다. 다양한 실시예에 따르면, 전자 장치(101)에서 실행되는 동작들의 전부 또는 일부는 다른 하나 또는 복수의 전자 장치(예: 전자 장치(102,104), 또는 서버(106)에서 실행될 수 있다. 한 실시예에 따르면, 전자 장치(101)가 어떤 기능이나 서비스를 자동으로 또는 요청에 의하여 수행해야 할 경우에, 전자 장치(101)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 그와 연관된 적어도 일부 기능을 다른 장치(예: 전자 장치(102, 104), 또는 서버(106))에게 요청할 수 있다. 다른 전자 장치(예: 전자 장치(102, 104), 또는 서버(106))는 요청된 기능 또는 추가 기능을 실행하고, 그 결과를 전자 장치(101)로 전달할 수 있다. 전자 장치(101)는 수신된 결과를 그대로 또는 추가적으로 처리하여 요청된 기능이나 서비스를 제공할 수 있다. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다.
도 2는 다양한 실시예에 따른 전자 장치(201)의 블록도이다. 전자 장치(201)는, 예를 들면, 도 1에 도시된 전자 장치(101)의 전체 또는 일부를 포함할 수 있다. 전자 장치(201)는 하나 이상의 프로세서(예: AP)(210), 통신 모듈(220), (가입자 식별 모듈(224), 메모리(230), 센서 모듈(240), 입력 장치(250), 디스플레이(260), 인터페이스(270), 오디오 모듈(280), 카메라 모듈(291), 전력 관리 모듈(295), 배터리(296), 인디케이터(297), 및 모터(298) 를 포함할 수 있다. 프로세서(210)는, 예를 들면, 운영 체제 또는 응용 프로그램을 구동하여 프로세서(210)에 연결된 다수의 하드웨어 또는 소프트웨어 구성요소들을 제어할 수 있고, 각종 데이터 처리 및 연산을 수행할 수 있다. 프로세서(210)는, 예를 들면, SoC(system on chip) 로 구현될 수 있다. 한 실시예에 따르면, 프로세서(210)는 GPU(graphic processing unit) 및/또는 이미지 신호 프로세서를 더 포함할 수 있다. 프로세서(210)는 도 2에 도시된 구성요소들 중 적어도 일부(예: 셀룰러 모듈(221))를 포함할 수도 있다. 프로세서(210) 는 다른 구성요소들(예: 비휘발성 메모리) 중 적어도 하나로부터 수신된 명령 또는 데이터를 휘발성 메모리에 로드)하여 처리하고, 결과 데이터를 비휘발성 메모리에 저장할 수 있다.
통신 모듈(220)(예: 통신 인터페이스(170))와 동일 또는 유사한 구성을 가질 수 있다. 통신 모듈(220)은, 예를 들면, 셀룰러 모듈(221), WiFi 모듈(223), 블루투스 모듈(225), GNSS 모듈(227), NFC 모듈(228) 및 RF 모듈(229)를 포함할 수 있다. 셀룰러 모듈(221)은, 예를 들면, 통신망을 통해서 음성 통화, 영상 통화, 문자 서비스, 또는 인터넷 서비스 등을 제공할 수 있다. 한 실시예에 따르면, 셀룰러 모듈(221)은 가입자 식별 모듈(예: SIM 카드)(224)을 이용하여 통신 네트워크 내에서 전자 장치(201)의 구별 및 인증을 수행할 수 있다. 한 실시예에 따르면, 셀룰러 모듈(221)은 프로세서(210)가 제공할 수 있는 기능 중 적어도 일부 기능을 수행할 수 있다. 한 실시예에 따르면, 셀룰러 모듈(221)은 커뮤니케이션 프로세서(CP)를 포함할 수 있다. 어떤 실시예에 따르면, 셀룰러 모듈(221), WiFi 모듈(223), 블루투스 모듈(225), GNSS 모듈(227) 또는 NFC 모듈(228) 중 적어도 일부(예: 두 개 이상)는 하나의 integrated chip(IC) 또는 IC 패키지 내에 포함될 수 있다. RF 모듈(229)은, 예를 들면, 통신 신호(예: RF 신호)를 송수신할 수 있다. RF 모듈(229)은, 예를 들면, 트랜시버, PAM(power amp module), 주파수 필터, LNA(low noise amplifier), 또는 안테나 등을 포함할 수 있다. 다른 실시예에 따르면, 셀룰러 모듈(221), WiFi 모듈(223), 블루투스 모듈(225), GNSS 모듈(227) 또는 NFC 모듈(228) 중 적어도 하나는 별개의 RF 모듈을 통하여 RF 신호를 송수신할 수 있다. 가입자 식별 모듈(224)은, 예를 들면, 가입자 식별 모듈을 포함하는 카드 또는 임베디드 SIM을 포함할 수 있으며, 고유한 식별 정보(예: ICCID(integrated circuit card identifier)) 또는 가입자 정보(예: IMSI(international mobile subscriber identity))를 포함할 수 있다.
메모리(230)(예: 메모리(130))는, 예를 들면, 내장 메모리(232) 또는 외장 메모리(234)를 포함할 수 있다. 내장 메모리(232)는, 예를 들면, 휘발성 메모리(예: DRAM, SRAM, 또는 SDRAM 등), 비휘발성 메모리(예: OTPROM(one time programmable ROM), PROM, EPROM, EEPROM, mask ROM, flash ROM, 플래시 메모리, 하드 드라이브, 또는 솔리드 스테이트 드라이브 (SSD) 중 적어도 하나를 포함할 수 있다. 외장 메모리(234)는 플래시 드라이브(flash drive), 예를 들면, CF(compact flash), SD(secure digital), Micro-SD, Mini-SD, xD(extreme digital), MMC(multi-media card) 또는 메모리 스틱 등을 포함할 수 있다. 외장 메모리(234)는 다양한 인터페이스를 통하여 전자 장치(201)와 기능적으로 또는 물리적으로 연결될 수 있다.
센서 모듈(240)은, 예를 들면, 물리량을 계측하거나 전자 장치(201)의 작동 상태를 감지하여, 계측 또는 감지된 정보를 전기 신호로 변환할 수 있다. 센서 모듈(240)은, 예를 들면, 제스처 센서(240A), 자이로 센서(240B), 기압 센서(240C), 마그네틱 센서(240D), 가속도 센서(240E), 그립 센서(240F), 근접 센서(240G), 컬러(color) 센서(240H)(예: RGB(red, green, blue) 센서), 생체 센서(240I), 온/습도 센서(240J), 조도 센서(240K), 또는 UV(ultra violet) 센서(240M) 중의 적어도 하나를 포함할 수 있다. 추가적으로 또는 대체적으로, 센서 모듈(240)은, 예를 들면, 후각(e-nose) 센서, 일렉트로마이오그라피(EMG) 센서, 일렉트로엔씨팔로그램(EEG) 센서, 일렉트로카디오그램(ECG) 센서, IR(infrared) 센서, 홍채 센서 및/또는 지문 센서를 포함할 수 있다. 센서 모듈(240)은 그 안에 속한 적어도 하나 이상의 센서들을 제어하기 위한 제어 회로를 더 포함할 수 있다. 어떤 실시예에서는, 전자 장치(201)는 프로세서(210)의 일부로서 또는 별도로, 센서 모듈(240)을 제어하도록 구성된 프로세서를 더 포함하여, 프로세서(210)가 슬립(sleep) 상태에 있는 동안, 센서 모듈(240)을 제어할 수 있다.
입력 장치(250)는, 예를 들면, 터치 패널(252), (디지털) 펜 센서(254), 키(256), 또는 초음파 입력 장치(258)를 포함할 수 있다. 터치 패널(252)은, 예를 들면, 정전식, 감압식, 적외선 방식, 또는 초음파 방식 중 적어도 하나의 방식을 사용할 수 있다. 또한, 터치 패널(252)은 제어 회로를 더 포함할 수도 있다. 터치 패널(252)은 택타일 레이어(tactile layer)를 더 포함하여, 사용자에게 촉각 반응을 제공할 수 있다. 한 실시예에 따르면, 터치 패널(252)는 사용자의 터치에 대한 압력의 세기를 측정할 수 있는 압력 센서(또는 “포스 센서” interchangeably used hereinafter)를 포함할 수 있다. 상기 압력 센서는 상기 터치 패널(252)와 일체형으로 구현되거나, 또는 상기 터치 패널(252)과는 별도의 하나 이상의 센서로 구현될 수 있다. (디지털) 펜 센서(254)는, 예를 들면, 터치 패널의 일부이거나, 별도의 인식용 쉬트를 포함할 수 있다. 키(256)는, 예를 들면, 물리적인 버튼, 광학식 키, 또는 키패드를 포함할 수 있다. 초음파 입력 장치(258)는 마이크(예: 마이크(288))를 통해, 입력 도구에서 발생된 초음파를 감지하여, 상기 감지된 초음파에 대응하는 데이터를 확인할 수 있다.
디스플레이(260)(예: 디스플레이(160))는 패널(262), 홀로그램 장치(264), 프로젝터(266), 및/또는 이들을 제어하기 위한 제어 회로를 포함할 수 있다. 패널(262)은, 예를 들면, 유연하게, 투명하게, 또는 착용할 수 있게 구현될 수 있다. 패널(262)은 터치 패널(252)과 하나 이상의 모듈로 구성될 수 있다. 홀로그램 장치(264)는 빛의 간섭을 이용하여 입체 영상을 허공에 보여줄 수 있다. 프로젝터(266)는 스크린에 빛을 투사하여 영상을 표시할 수 있다. 스크린은, 예를 들면, 전자 장치(201)의 내부 또는 외부에 위치할 수 있다. 인터페이스(270)는, 예를 들면, HDMI(272), USB(274), 광 인터페이스(optical interface)(276), 또는 D-sub(D-subminiature)(278)를 포함할 수 있다. 인터페이스(270)는, 예를 들면, 도 1에 도시된 통신 인터페이스(170)에 포함될 수 있다. 추가적으로 또는 대체적으로, 인터페이스(270)는, 예를 들면, MHL(mobile high-definition link) 인터페이스, SD카드/MMC(multi-media card) 인터페이스, 또는 IrDA(infrared data association) 규격 인터페이스를 포함할 수 있다.
오디오 모듈(280)은, 예를 들면, 소리와 전기 신호를 쌍방향으로 변환시킬 수 있다. 오디오 모듈(280)의 적어도 일부 구성요소는, 예를 들면, 도 1 에 도시된 입출력 인터페이스(145)에 포함될 수 있다. 오디오 모듈(280)은, 예를 들면, 스피커(282), 리시버(284), 이어폰(286), 또는 마이크(288) 등을 통해 입력 또는 출력되는 소리 정보를 처리할 수 있다. 카메라 모듈(291)은, 예를 들면, 정지 영상 및 동영상을 촬영할 수 있는 장치로서, 한 실시예에 따르면, 하나 이상의 이미지 센서(예: 전면 센서 또는 후면 센서), 렌즈, 이미지 시그널 프로세서(ISP), 또는 플래시(예: LED 또는 xenon lamp 등)를 포함할 수 있다. 전력 관리 모듈(295)은, 예를 들면, 전자 장치(201)의 전력을 관리할 수 있다. 한 실시예에 따르면, 전력 관리 모듈(295)은 PMIC(power management integrated circuit), 충전 IC, 또는 배터리 또는 연료 게이지를 포함할 수 있다. PMIC는, 유선 및/또는 무선 충전 방식을 가질 수 있다. 무선 충전 방식은, 예를 들면, 자기공명 방식, 자기유도 방식 또는 전자기파 방식 등을 포함하며, 무선 충전을 위한 부가적인 회로, 예를 들면, 코일 루프, 공진 회로, 또는 정류기 등을 더 포함할 수 있다. 배터리 게이지는, 예를 들면, 배터리(296)의 잔량, 충전 중 전압, 전류, 또는 온도를 측정할 수 있다. 배터리(296)는, 예를 들면, 충전식 전지 및/또는 태양 전지를 포함할 수 있다.
인디케이터(297)는 전자 장치(201) 또는 그 일부(예: 프로세서(210))의 특정 상태, 예를 들면, 부팅 상태, 메시지 상태 또는 충전 상태 등을 표시할 수 있다. 모터(298)는 전기적 신호를 기계적 진동으로 변환할 수 있고, 진동, 또는 햅틱 효과 등을 발생시킬 수 있다. 전자 장치(201)는, 예를 들면, DMB(digital multimedia broadcasting), DVB(digital video broadcasting), 또는 미디어플로(mediaFloTM) 등의 규격에 따른 미디어 데이터를 처리할 수 있는 모바일 TV 지원 장치(예: GPU)를 포함할 수 있다. 본 문서에서 기술된 구성요소들 각각은 하나 또는 그 이상의 부품(component)으로 구성될 수 있으며, 해당 구성요소의 명칭은 전자 장치의 종류에 따라서 달라질 수 있다. 다양한 실시예에서, 전자 장치(예: 전자 장치(201))는 일부 구성요소가 생략되거나, 추가적인 구성요소를 더 포함하거나, 또는, 구성요소들 중 일부가 결합되어 하나의 개체로 구성되되, 결합 이전의 해당 구성요소들의 기능을 동일하게 수행할 수 있다.
도 3은 다양한 실시예에 따른 프로그램 모듈의 블록도이다. 한 실시예에 따르면, 프로그램 모듈(310)(예: 프로그램(140))은 전자 장치(예: 전자 장치(101))에 관련된 자원을 제어하는 운영 체제 및/또는 운영 체제 상에서 구동되는 다양한 어플리케이션(예: 어플리케이션 프로그램(147))을 포함할 수 있다. 운영 체제는, 예를 들면, AndroidTM, iOSTM, WindowsTM, SymbianTM, TizenTM, 또는 BadaTM를 포함할 수 있다. 도 3을 참조하면, 프로그램 모듈(310)은 커널(320)(예: 커널(141)), 미들웨어(330)(예: 미들웨어(143)), (API(360)(예: API(145)), 및/또는 어플리케이션(370)(예: 어플리케이션 프로그램(147))을 포함할 수 있다. 프로그램 모듈(310)의 적어도 일부는 전자 장치 상에 프리로드 되거나, 외부 전자 장치(예: 전자 장치(102, 104), 서버(106) 등)로부터 다운로드 가능하다.
커널(320)은, 예를 들면, 시스템 리소스 매니저(321) 및/또는 디바이스 드라이버(323)를 포함할 수 있다. 시스템 리소스 매니저(321)는 시스템 리소스의 제어, 할당, 또는 회수를 수행할 수 있다. 한 실시예에 따르면, 시스템 리소스 매니저(321)는 프로세스 관리부, 메모리 관리부, 또는 파일 시스템 관리부를 포함할 수 있다. 디바이스 드라이버(323)는, 예를 들면, 디스플레이 드라이버, 카메라 드라이버, 블루투스 드라이버, 공유 메모리 드라이버, USB 드라이버, 키패드 드라이버, WiFi 드라이버, 오디오 드라이버, 또는 IPC(inter-process communication) 드라이버를 포함할 수 있다. 미들웨어(330)는, 예를 들면, 어플리케이션(370)이 공통적으로 필요로 하는 기능을 제공하거나, 어플리케이션(370)이 전자 장치 내부의 제한된 시스템 자원을 사용할 수 있도록 API(360)를 통해 다양한 기능들을 어플리케이션(370)으로 제공할 수 있다. 한 실시예에 따르면, 미들웨어(330) 는 런타임 라이브러리(335), 어플리케이션 매니저(341), 윈도우 매니저(342), 멀티미디어 매니저(343), 리소스 매니저(344), 파워 매니저(345), 데이터베이스 매니저(346), 패키지 매니저(347), 커넥티비티 매니저(348), 노티피케이션 매니저(349), 로케이션 매니저(350), 그래픽 매니저(351), 또는 시큐리티 매니저(352) 중 적어도 하나를 포함할 수 있다.
런타임 라이브러리(335)는, 예를 들면, 어플리케이션(370)이 실행되는 동안에 프로그래밍 언어를 통해 새로운 기능을 추가하기 위해 컴파일러가 사용하는 라이브러리 모듈을 포함할 수 있다. 런타임 라이브러리(335)는 입출력 관리, 메모리 관리, 또는 산술 함수 처리를 수행할 수 있다. 어플리케이션 매니저(341)는, 예를 들면, 어플리케이션(370)의 생명 주기를 관리할 수 있다. 윈도우 매니저(342)는 화면에서 사용되는 GUI 자원을 관리할 수 있다. 멀티미디어 매니저(343)는 미디어 파일들의 재생에 필요한 포맷을 파악하고, 해당 포맷에 맞는 코덱을 이용하여 미디어 파일의 인코딩 또는 디코딩을 수행할 수 있다. 리소스 매니저(344)는 어플리케이션(370)의 소스 코드 또는 메모리의 공간을 관리할 수 있다. 파워 매니저(345)는, 예를 들면, 배터리의 용량 또는 전원을 관리하고, 전자 장치의 동작에 필요한 전력 정보를 제공할 수 있다. 한 실시예에 따르면, 파워 매니저(345)는 바이오스(BIOS: basic input/output system)와 연동할 수 있다. 데이터베이스 매니저(346)는, 예를 들면, 어플리케이션(370)에서 사용될 데이터베이스를 생성, 검색, 또는 변경할 수 있다. 패키지 매니저(347)는 패키지 파일의 형태로 배포되는 어플리케이션의 설치 또는 갱신을 관리할 수 있다.
커넥티비티 매니저(348)는, 예를 들면, 무선 연결을 관리할 수 있다. 노티피케이션 매니저(349)는, 예를 들면, 도착 메시지, 약속, 근접성 알림 등의 이벤트를 사용자에게 제공할 수 있다. 로케이션 매니저(350)는, 예를 들면, 전자 장치의 위치 정보를 관리할 수 있다. 그래픽 매니저(351)는, 예를 들면, 사용자에게 제공될 그래픽 효과 또는 이와 관련된 사용자 인터페이스를 관리할 수 있다. 보안 매니저(352)는, 예를 들면, 시스템 보안 또는 사용자 인증을 제공할 수 있다. 한 실시예에 따르면, 미들웨어(330)는 전자 장치의 음성 또는 영상 통화 기능을 관리하기 위한 통화(telephony) 매니저 또는 전술된 구성요소들의 기능들의 조합을 형성할 수 있는 하는 미들웨어 모듈을 포함할 수 있다. 한 실시예에 따르면, 미들웨어(330)는 운영 체제의 종류 별로 특화된 모듈을 제공할 수 있다. 미들웨어(330)는 동적으로 기존의 구성요소를 일부 삭제하거나 새로운 구성요소들을 추가할 수 있다. API(360)는, 예를 들면, API 프로그래밍 함수들의 집합으로, 운영 체제에 따라 다른 구성으로 제공될 수 있다. 예를 들면, 안드로이드 또는 iOS의 경우, 플랫폼 별로 하나의 API 셋을 제공할 수 있으며, 타이젠의 경우, 플랫폼 별로 두 개 이상의 API 셋을 제공할 수 있다.
어플리케이션(370)은, 예를 들면, 홈(371), 다이얼러(372), SMS/MMS(373), IM(instant message)(374), 브라우저(375), 카메라(376), 알람(377), 컨택트(378), 음성 다이얼(379), 이메일(380), 달력(381), 미디어 플레이어(382), 앨범(383), 와치(384), 헬스 케어(예: 운동량 또는 혈당 등을 측정), 또는 환경 정보(예: 기압, 습도, 또는 온도 정보) 제공 어플리케이션을 포함할 수 있다. 한 실시예에 따르면, 어플리케이션(370)은 전자 장치와 외부 전자 장치 사이의 정보 교환을 지원할 수 있는 정보 교환 어플리케이션을 포함할 수 있다. 정보 교환 어플리케이션은, 예를 들면, 외부 전자 장치에 특정 정보를 전달하기 위한 노티피케이션 릴레이 어플리케이션, 또는 외부 전자 장치를 관리하기 위한 장치 관리 어플리케이션을 포함할 수 있다. 예를 들면, 알림 전달 어플리케이션은 전자 장치의 다른 어플리케이션에서 발생된 알림 정보를 외부 전자 장치로 전달하거나, 또는 외부 전자 장치로부터 알림 정보를 수신하여 사용자에게 제공할 수 있다. 장치 관리 어플리케이션은, 예를 들면, 전자 장치와 통신하는 외부 전자 장치의 기능(예: 외부 전자 장치 자체(또는, 일부 구성 부품)의 턴-온/턴-오프 또는 디스플레이의 밝기(또는, 해상도) 조절), 또는 외부 전자 장치에서 동작하는 어플리케이션을 설치, 삭제, 또는 갱신할 수 있다. 한 실시예에 따르면, 어플리케이션(370)은 외부 전자 장치의 속성에 따라 지정된 어플리케이션(예: 모바일 의료 기기의 건강 관리 어플리케이션)을 포함할 수 있다. 한 실시예에 따르면, 어플리케이션(370)은 외부 전자 장치로부터 수신된 어플리케이션을 포함할 수 있다. 프로그램 모듈(310)의 적어도 일부는 소프트웨어, 펌웨어, 하드웨어(예: 프로세서(210)), 또는 이들 중 적어도 둘 이상의 조합으로 구현(예: 실행)될 수 있으며, 하나 이상의 기능을 수행하기 위한 모듈, 프로그램, 루틴, 명령어 세트 또는 프로세스를 포함할 수 있다.
본 문서에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구성된 유닛을 포함하며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로 등의 용어와 상호 호환적으로 사용될 수 있다. "모듈"은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는 최소 단위 또는 그 일부가 될 수 있다. "모듈"은 기계적으로 또는 전자적으로 구현될 수 있으며, 예를 들면, 어떤 동작들을 수행하는, 알려졌거나 앞으로 개발될, ASIC(application-specific integrated circuit) 칩, FPGAs(field-programmable gate arrays), 또는 프로그램 가능 논리 장치를 포함할 수 있다.
다양한 실시예에 따른 장치(예: 모듈들 또는 그 기능들) 또는 방법(예: 동작들)의 적어도 일부는 프로그램 모듈의 형태로 컴퓨터로 판독 가능한 저장 매체(예: 메모리(130))에 저장된 명령어로 구현될 수 있다. 상기 명령어가 프로세서(예: 프로세서(120))에 의해 실행될 경우, 프로세서가 상기 명령어에 해당하는 기능을 수행할 수 있다. 컴퓨터로 판독 가능한 기록 매체는, 하드디스크, 플로피디스크, 마그네틱 매체(예: 자기테이프), 광기록 매체(예: CD-ROM, DVD, 자기-광 매체 (예: 플롭티컬 디스크), 내장 메모리 등을 포함할 수 있다. 명령어는 컴파일러에 의해 만들어지는 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다.
다양한 실시예에 따르면, 디스플레이(430), 컬러 픽셀 센서(510), 열화상 센서(530) 및 프로세서(440)를 포함하는 전자 장치(101)에서, 컬러 픽셀 센서(510)를 이용하여, 피사체(1017)에 대한 제1 이미지(1011)를 획득하는 동작 열화상 센서(530)를 이용하여, 피사체(1017)에 대한 제2 이미지(1013)를 획득하는 동작 및 프로세서(440)를 이용하여, 제1 이미지(1011)의 일부 영역을 제2 이미지(1013)로 대체하여 디스플레이(430)를 통하여 출력하는 동작을 실행시키기 위한 프로그램을 기록한 컴퓨터로 판독 가능한 기록매체를 포함할 수 있다.
도 4는 다양한 실시예에 따른 전자 장치의 블록도를 도시한다.
도 4에 도시된 바와 같이, 다양한 실시예에 따른 전자 장치(101)는, 카메라 모듈(401), 움직임 센서(420), 디스플레이(430) 및 프로세서(440)를 포함할 수 있다. 다양한 실시예에 따른 전자 장치(101)는, 이미지 처리 장치일 수 있다. 다양한 실시예에 따른 전자 장치(101)는 열화상 이미지를 제공할 수 있다.
카메라 모듈(401)은 피사체에 대한 정지 이미지 또는 동영상을 촬영할 수 있는 장치로써, 이미지 센서(410), 열화상 센서(530), 렌즈, 이미지 시그널 프로세서(ISP) 등을 포함할 수 있다. 이미지 센서(410)는 컬러 픽셀 센서를 포함할 수 있다. 이미지 센서(410)는 적어도 하나의 열화상 센서(530)를 포함할 수 있다. 이미지 센서(410)는 컬러 픽셀 센서에 대응하는 컬러 정보를 통해 피사체에 대응하는 컬러 이미지를 획득할 수 있다. 이미지 센서(410)는 열화상 센서에 대응하는 열화상 정보를 통해 열화상 이미지를 획득할 수 있다. 이미지 센서(410)는 컬러 이미지와 함께 열화상 이미지를 동시에 획득할 수 있다. 이미지 센서(410)는 컬러 이미지를 제공하고, 열화상 센서(530)는 열화상 정보를 제공할 수 있다. 이미지 센서(410)에 대해서 도 4 이하에서 자세히 설명하기로 한다.
움직임 센서(420)는 전자 장치(101)의 움직임을 감지할 수 있다. 예를 들면, 움직임 센서(420)는 움직임 감지 센서, 제스처 센서, 지자기 센서, 자이로 센서, 또는 가속도 센서 등을 포함할 수 있다. 움직임 센서(420)는 전자 장치(101)의 회전각, 지자기 방향 또는 방위 변화 등을 감지할 수 있다.
디스플레이(430)는 이미지 센서(410)를 통해 획득된 이미지를 표시할 수 있다. 디스플레이(430)는 프로세서(440)를 통해 처리된 이미지를 표시할 수 있다. 디스플레이(430)는 컬러 이미지 또는 열화상 이미지를 표시할 수 있다. 디스플레이(430)는 컬러 이미지 및 열화상 이미지를 동시에 표시할 수 있다. 디스플레이(430)는 전자 장치(101)의 움직임에 따라 변화하는 이미지를 표시할 수 있다. 예를 들면, 디스플레이(430)는 전자 장치(101)의 움직임에 따라 컬러 이미지가 열화상 이미지로 대체되는 과정을 표시할 수 있다.
프로세서(440)는 이미지 센서(410)를 통해 획득된 이미지를 처리할 수 있다. 프로세서(440)는 이미지 센서(410)를 통해 획득된 이미지와 움직임 센서(420)를 통해 감지된 움직임 정보를 이용하여 이미지를 처리할 수 있다. 예를 들면, 프로세서(440)는 움직임 정보를 통해 컬러 이미지 및 열화상 이미지의 얼라인(align)을 수행할 수 있다. 프로세서(440)는 이미지 처리를 위한 ISP(image signal processing)를 구비할 수 있다. 또는, 프로세서(440)와 ISP가 별도로 구비되어, ISP에서 이미지를 처리할 수도 있다.
프로세서(440)는 디스플레이(430)에 컬러 이미지 또는 열화상 이미지를 출력하는 그래픽 처리 모듈(graphic processor unit module)(도시하지 않음)을 더 포함할 수 있다. 프로세서(440)는 이미지 센서(410)에서 출력되는 이미지를 처리하여 디스플레이(430)에 프리뷰 이미지로 처리할 수 있으며, 사용자의 제어에 의해 정지 이미지 또는 동영상 이미지로 처리하여 메모리(예를 들면 도 2의 230)에 저장할 수 있다.
이하, 도 5를 참조하여 이미지 센서(410)를 자세히 설명한다. 도 5는 다양한 실시예에 따른 전자 장치(101)에서 이미지 센서(410)를 도시한다.
도 5에 도시된 바와 같이, 이미지 센서(410)는 컬러 픽셀 센서(510), 열화상 센서(530), 제1 제어부(552), 제2 제어부(553) 및 출력부(570)를 포함할 수 있다. 이미지 센서(410)는 피사체에 대응하는 이미지를 획득할 수 있다. 이미지 센서(410)는 컬러 픽셀 센서(510)를 통해 피사체에 대응하는 제1 이미지(1011)를 획득할 수 있다. 예를 들면, 이미지 센서(410)는 컬러 픽셀 센서(510)를 통해 피사체에 대응하는 컬러 이미지를 획득할 수 있다. 이미지 센서(410)는 열화상 센서(530)를 통해 피사체에 대응하는 제2 이미지(1013)를 획득할 수 있다. 예를 들면, 이미지 센서(410)는 열화상 센서(530)를 통해 피사체에 대응하는 열화상 이미지를 획득할 수 있다.
컬러 픽셀 센서(510)는 컬러 픽셀 어레이(color pixel array)(511)를 포함하는 기반(substrate)일 수 있다. 컬러 픽셀 어레이(511)는 복수의 컬러 픽셀들을 포함할 수 있다. 컬러 픽셀 어레이(511)는 입사되는 광량을 획득할 수 있다. 컬러 픽셀은, 예를 들면, 하나 이상의 마이크로 렌즈(도 7의 710), 하나 이상의 컬러 필터(도 7의 730), 하나 이상의 포토다이오드를 포함할 수 있다.
열화상 센서(530)는 열화상 픽셀 어레이(531)를 포함하는 기반일 수 있다. 열화상 픽셀 어레이(531)는 복수의 열화상 픽셀들을 포함할 수 있다. 열화상 픽셀은 피사체로부터 방사되는 적외선 또는 원적외선을 감지할 수 있다. 열화상 픽셀은 피사체의 온도 분포를 감지하여 온도 데이터를 검출할 수 있다. 열화상 픽셀은, 예를 들면, 마이크로볼로미터(microbolometer) 센서를 포함할 수 있다.
제어부(550)는 컬러 픽셀 센서(510) 및 열화상 센서(530)를 구동할 수 있다. 제어부(550)는 컬러 픽셀 센서(510) 및 열화상 센서(530)의 입력을 제어할 수 있다. 제어부(550)는 컬러 픽셀 센서(510) 및 열화상 센서(530)에 인가되는 입력 신호들을 제어할 수 있다. 제어부(550)는 예를 들면, 행 디코더(row decoder)일 수 있다. 제어부(550)는 입력 라인(예를 들면, 로 시그널 라인(row signal lines))(551)을 통해 선택신호, 리셋 신호 및 전송 신호와 같은 구동 신호들을 컬러 픽셀 어레이(511) 및 열화상 픽셀 어레이(531)에 인가할 수 있다. 제어부(550)는 컬러 픽셀 어레이(511) 및 열화상 픽셀 어레이(531)의 라인 픽셀들을 선택함으로써, 구동 신호들을 컬러 픽셀 어레이(511) 및 열화상 픽셀 어레이(531)에 인가할 수 있다. 제어부(550)는 컬러 픽셀 센서(510)를 구동하는 제1 제어부(552) 및 열화상 센서(530)를 구동하는 제2 제어부(553)를 포함할 수 있다. 컬러 픽셀 센서(510)를 구동하는 제1 제어부(552)는 컬러 픽셀 센서(510)에 인접하게 배치될 수 있다. 예를 들면, 제1 제어부(552)는 컬러 픽셀 센서(510)의 하부에 배치될 수 있다. 또한, 열화상 센서(530)를 구동하는 제2 제어부(553)는 열화상 센서(530)에 인접하게 배치될 수 있다. 예를 들면, 제2 제어부(553)는 열화상 센서(530_의 하부에 배치될 수 있다. 또한, 제2 제어부(553)는 열화상 센서(530)를 독립적으로 제어하기 위해서, 컬러 픽셀 센서(510)를 제어하는 제1 입력부(550)와 별도로 구현되어 열화상 센서(530)를 독립적으로 제어 및 구동할 수 있다.
그러나, 실시예가 이에 한정되는 것은 아니고, 컬러 픽셀 센서(510) 및 열화상 센서(530)를 구동하는 제어부(550)는 하나로 구비될 수도 있다. 다양한 실시예에 따르면, 컬러 픽셀 센서(510) 및 열화상 센서(530)는 동일한 입력 라인(551)을 공유할 수 있다. 따라서, 제어부(550)가 하나로 구비되어 컬러 픽셀 센서(510) 및 열화상 센서(530)를 동시에 제어할 수 있다.
컬러 픽셀 어레이(511)는 제어부(550)의 구동 신호들에 응답하여 각각의 컬러 픽셀들에 의해서 센싱된 전기적 신호인 픽셀 신호를 복수의 아웃풋 라인(571)을 통해서 출력부(570)로 출력할 수 있다. 출력부(570)는 예를 들면, 컬럼 리드아웃(column readout) 및 디지털 회로(digital circuit)일 수 있다. 제어부(550)에서의 제어 신호에 따라서 출력된 신호는 아날로그-디지털 변환기(analog-digital converter: 이하 ‘ADC’라 칭함)(573)에 제공될 수 있다. ADC(573)는 컬러 픽셀 어레이(511)로부터 제공되는 컬러 픽셀 신호를 디지털 신호로 변환할 수 있다. 이미지 센서(410)는 컬러 픽셀 어레이(511)에서 획득되는 광량을 ADC(573)를 통해 컬러 픽셀 데이터로 변환할 수 있다. 컬러 픽셀 데이터는 image pipeline을 포함하는 출력부(570)를 통해서 출력될 수 있다. 컬러 픽셀 데이터는 출력부(570)에서 MIPI(mobile industry processor interface) 등과 같은 인터페이스를 통해서 외부(예를 들면 image signal processor 또는 application processor)로 전달될 수 있다.
열화상 픽셀 어레이(531)는 제어부(550)의 구동 신호들에 응답하여 각각의 열화상 픽셀들에 의해서 센싱된 신호를 출력부(570)로 출력할 수 있다. 제어부(550)에서의 제어 신호에 따라 출력된 신호는 ADC(573)에 제공될 수 있다. ADC(573)는 열화상 픽셀 어레이(531)로부터 제공되는 열화상 픽셀 신호를 디지털 신호로 변환할 수 있다. 이미지 센서(410)는 열화상 픽셀 어레이(531)에서 획득되는 적외선 데이터를 ADC(573)를 통해 열화상 픽셀 데이터로 변환할 수 있다. 열화상 픽셀 데이터는 image pipeline을 포함하는 출력부(570)를 통해서 출력될 수 있다. 열화상 픽셀 데이터는 출력부(570)에서 MIPI 등과 같은 인터페이스를 통해서 외부(예를 들면 image signal processor 또는 application processor)로 전달될 수 있다.
도 6은 다양한 실시예에 따른 전자 장치(101)에서 이미지 센서(410)의 일 사시도를 도시한다. 도 7은 도 6의 Ⅰ-Ⅰ’를 따라 절단한 단면을 도시한다.
도 6에 도시된 바와 같이, 컬러 픽셀 센서(510)는 제1 기판(610)에 구성될 수 있다. 컬러 픽셀 센서(510)는 제1 기판(610)에 구성되는 하나 이상의 마이크로 렌즈(710), 하나 이상의 컬러 필터(730), 하나 이상의 배선(789) 및 하나 이상의 포토다이오드를 포함할 수 있다.
제1 기판(610)은 반도체 기판일 수 있다. 제1 기판(610)은 NMOS(n-channel metal oxide semiconductor) 트랜지스터 및 PMOS(p-channel metal oxide semiconductor) 트랜지스터를 포함할 수 있다. NMOS 트랜지스터는 P형 반도체 기판 내에 형성될 수 있다. PMOS 트랜지스터는 P형 반도체 기판 내의 N형 웰(well) 내에 형성될 수 있다. 제1 기판(610)에 반도체의 일반적인 공정을 적용하여 적층 구조를 형성할 수 있다. 제1 기판(610)에 이온 주입 공정, 패터닝 공정 또는 증착 공정 등 다양한 공정을 통해 적층 구조를 형성할 수 있다. 이를 통해, 제1 기판(610)은 다양한 회로 소자들을 포함할 수 있다.
예를 들면, 제1 기판(610)은 활성 영역과 소자 분리영역으로 구분될 수 있다. 활성 영역은 마이크로 렌즈(710), 컬러 필터(730) 및 포토 다이오드가 형성되는 확산 영역(783) 등을 통해 입사되는 광량을 획득하는 영역일 수 있다. 소자 분리영역은 활성 영역에서 각 입력 영역을 분리하기 위한 영역일 수 있다. 소자 분리영역에는 활성 영역과 소자 분리영역을 구분하기 위한 소자 분리막(781)이 형성될 수 있다. 소자 분리막(781)은 녹생광, 적색광, 청색광의 입력 영역을 분리할 수 있다. 활성 영역에 포토다이오드 및 트랜지스터의 게이트 전극(785) 등이 형성될 수 있다. 제1 기판(610) 내의 활성 영역에 포토다이오드 영역인 확산 영역(783)이 형성될 수 있다. 확산 영역(783)에 불순물 이온을 주입하여 포토다이오드가 형성될 수 있다. 제1 기판(610) 내의 활성 영역에 게이트 전극(785)들이 형성될 수 있다. 마스크를 이용한 패터닝 공정을 통해 게이트 폴리실리콘과 게이트 절연막을 선택적으로 식각하여 게이트 전극(785) 패턴이 형성될 수 있다. 게이트 전극(785)의 측면으로는 소스/드레인 영역(787)이 형성될 수 있다. n형 불순물과 p형 불순물이 선택적으로 이온 주입되어 트랜지스터의 소스/드레인 영역(787)이 형성될 수 있다.
게이트 전극(785)의 전면에 층간 절연막이 형성될 수 있고, 층간 절연막 상에는 일정한 간격을 갖고 각종 금속 배선(789)들이 형성될 수 있다. 도면에는 금속 배선(789)들이 3개의 층으로 형성되는 것으로 도시하였으나, 실시예가 이에 한정되는 것은 아니고, 다수개의 금속 배선(789)들이 형성될 수 있다. 금속 배선(789)의 전면에 평탄화층이 형성될 수 있고, 평탄화층 상에 확산 영역(783)과 대응되게 적색(R), 녹색(G), 청색(B)의 컬러 필터(730)가 형성될 수 있다. 각 컬러 필터(730)와 대응되게 마이크로 렌즈(710)가 형성될 수 있다. 마이크로 렌즈(710)는 외부로부터 입사된 광을 집광할 수 있다. 마이크로 렌즈(710)에서 집광된 광이 확산 영역(783)의 포토다이오드로 입사될 수 있다. 포토다이오드는 광 신호를 전기적 신호로 변환하여 출력부(570)를 통해서 출력할 수 있다.
열화상 센서(530)는 제2 기판(630)에 구성될 수 있다. 열화상 센서(530)는 제2 기판(630)에 구성되는 마이크로볼로미터 센서(740)를 포함할 수 있다.
제2 기판(630)은 반도체 기판일 수 있다. 제2 기판(630)은 P형 반도체 기판 내에 형성되는 NMOS 트랜지스터 및 N형 웰(well) 내에 PMOS 트랜지스터를 포함할 수 있다. 제2 기판(630)은 제1 기판(610)과 동일 또는 유사한 적층 구조를 포함할 수 있다. 또는, 제2 기판(630)은 제1 기판(610)과 서로 다른 적층 구조를 포함할 수 있다. 제2 기판(630)은 다양한 회로 소자들(793)을 포함할 수 있다.
제어부(550) 및 출력부(570)는 제3 기판(650)에 구성될 수 있다. 제3 기판(650)은 제1 기판(610) 및 제2 기판(630)과 상하로 배치될 수 있다. 예를 들면, 제3 기판(650)은 제1 기판(610) 및 제2 기판(630)의 하부에 배치될 수 있다.
제어부(550) 및 출력부(570)는 동일한 기판 상에 구성될 수 있다. 도면에서는 제어부(550) 및 출력부(570)가 제3 기판(650)의 상면에 구성되는 것으로 도시하였으나, 실시예가 이에 한정되는 것은 아니다. 따라서, 제어부(550) 및 출력부(570)는 제3 기판(650)의 상면 및 하면에 각각 형성될 수도 있다. 또는 제어부(550) 및 출력부(570)는 제3 기판(650)의 하면에 형성될 수도 있다.
제3 기판(650)은 반도체 기판일 수 있다. 제3 기판(650)은 제1 기판(610) 또는 제2 기판(630)과 동일 또는 유사한 적층 구조를 포함할 수 있다. 또는, 제3 기판(650)은 제1 기판(610) 및 제2 기판(630)과 다른 적층 구조를 포함할 수 있다. 제3 기판(650)은 다양한 회로 소자들(791)을 포함할 수 있다.
컬러 픽셀 센서(510) 및 열화상 센서(530)는 출력부(570)를 공유할 수 있다. 다양한 실시예에 따르면, 컬러 픽셀 센서(510)를 통한 컬러 픽셀 데이터 및 열화상 센서(530)를 통한 열화상 픽셀 데이터는 동일한 출력부(570)를 통해 출력될 수 있다.
제1 기판(610) 및 제3 기판(650)은 제1 비아(via)(621)를 포함할 수 있다. 제1 비아(621)는 제1 기판(610)을 관통하여 제3 기판(650)까지 형성될 수 있다. 제1 비아(621)는 실리콘 관통 전극(through silicon via, TSV)일 수 있다. 제1 비아(621)는 제1 기판(610) 및 제3 기판(650)을 수직으로 통과할 수 있다. 제1 비아(621)는 제1 기판(610) 및 제3 기판(650)을 수직으로 통과하는 홀(670) 내에 배치될 수 있다.
제1 비아(621)는 도전성 재질 예컨대, 구리(Cu), 알루미늄(A1), 은(Ag), 주석(Sn), 금(Au) 또는 이를 포함하는 합금 등을 포함할 수 있다. 제1 비아(621)는 단일층 또는 다층으로 형성될 수 있다. 한편, 제1 비아(621)의 외부를 둘러싸는 절연층이 더 포함될 수도 있다. 절연층은 산화막, 질화막, 폴리머 또는 이들의 조합을 포함할 수 있다. 절연층을 통해 제1 비아(621)가 제1 기판(610) 또는 제3 기판(650) 내의 회로 소자들과 직접 접촉하는 것을 방지할 수 있다.
제1 비아(621)의 단부는 제3 기판(650) 내에 배치되는 제1 하부 패드(750)와 접촉할 수 있다. 제1 하부 패드(750)는 제3 기판(650) 내의 회로 소자들(791)에 전기적으로 연결될 수 있다. 제1 하부 패드(750)는 알루미늄(A1) 또는 구리(Cu)등으로 형성될 수 있다.
제1 기판(610)은 제1 비아(621)에 인접하여 형성되는 제2 비아(722)를 더 포함할 수 있다. 제2 비아(722)는 제1 기판(610) 내에 형성될 수 있다. 제2 비아(722)는 실리콘 관통 전극일 수 있다. 제2 비아(722)는 제1 기판(610)을 수직으로 통과할 수 있다. 제2 비아(722)는 제1 기판(610)을 수직으로 통과하는 홀(670) 내에 배치될 수 있다. 제2 비아(722)는 도전성 재질을 포함할 수 있다. 한편, 제2 비아(722)의 외부를 둘러싸는 절연층이 더 포함될 수도 있다.
제2 비아(722)의 단부는 제1 기판(610) 내에 배치되는 제2 하부 패드(770)와 접촉할 수 있다. 제2 하부 패드(770)는 제1 기판(610) 내의 회로 소자들에 전기적으로 연결될 수 있다. 제2 비아(722)는 제1 비아(621)를 통해 제어부(550)로부터 인가받은 전기적 신호를 제1 기판(610) 내의 회로 소자들에 전달할 수 있다.
제1 기판(610) 상에는 제1 상부 패드(691)가 배치될 수 있다. 제1 상부 패드(691)는 제1 비아(621) 및 제2 비아(722)의 상면에 배치될 수 있다. 제1 상부 패드(691)는 제1 비아(621) 및 제2 비아(722)를 연결하여, 전기적 신호를 전달할 수 있다.
다양한 실시예에 따르면, 제어부(550)의 구동 신호는 제1 비아(621) 및 제2 비아(722)를 통해 컬러 픽셀 센서(510)에 인가될 수 있다. 즉, 제1 기판(610)에 형성되는 컬러 픽셀 센서(510)는 제3 기판(650)에 형성되는 제어부(550)의 구동 신호를 제1 비아(621) 및 제2 비아(722)를 통해 수신할 수 있다.
제1 비아(621) 및 제2 비아(722)는 복수로 형성될 수 있다. 제1 비아(621) 및 제2 비아(722)는 컬러 픽셀 어레이(511)의 열(row)의 수와 대응되는 수로 형성될 수 있다. 제1 비아(621) 및 제2 비아(722)가 복수로 형성되어, 각각의 픽셀 라인에 구동 신호를 인가할 수 있다.
다양한 실시예에 따른 이미지 센서(410)는 제1 기판(610) 및 제3 기판(650)을 칩투칩(chip to chip) 또는 와이어 본딩(wore bonding)으로 연결하는 방식과는 차이가 있다.
제1 기판(610) 및 제3 기판(650)은 제3 비아(623)를 포함할 수 있다. 제3 비아(623)는 제1 기판(610)을 관통하여 제3 기판(650)까지 형성될 수 있다. 제3 비아(623)는 실리콘 관통 전극일 수 있다. 제3 비아(623)는 제1 기판(610) 및 제3 기판(650)을 수직으로 통과할 수 있다. 제3 비아(623)는 제1 기판(610) 및 제3 기판(650)을 수직으로 통과하는 홀(970) 내에 배치될 수 있다.
제3 비아(623)는 도전성 재질을 포함할 수 있다. 제3 비아(623)는 단일층 또는 다층으로 형성될 수 있다. 한편, 제3 비아(623)의 외부를 둘러싸는 절연층이 더 포함될 수도 있다.
제3 비아(623)의 단부는 제3 기판(650) 내에 배치되는 제3 하부 패드(미도시)와 접촉할 수 있다. 제3 하부 패드는 제3 기판(650) 내의 회로 소자들에 전기적으로 연결될 수 있다. 제3 하부 패드는 알루미늄(A1) 또는 구리(Cu)등으로 형성될 수 있다.
제1 기판(610)은 제3 비아(623)에 인접하여 형성되는 제4 비아(미도시)를 더 포함할 수 있다. 제4 비아는 제1 기판(610) 내에 형성될 수 있다. 제4 비아는 실리콘 관통 전극일 수 있다. 제4 비아는 제1 기판(610)을 수직으로 통과할 수 있다. 제4 비아는 제1 기판(610)을 수직으로 통과하는 홀(670) 내에 배치될 수 있다. 제4 비아 는 도전성 재질을 포함할 수 있다. 한편, 제4 비아의 외부를 둘러싸는 절연층이 더 포함될 수도 있다.
제4 비아의 단부는 제1 기판(610) 내에 배치되는 제4 하부 패드(미도시)와 접촉할 수 있다. 제4 하부 패드는 제1 기판(610) 내의 회로 소자들에 전기적으로 연결될 수 있다. 제4 비아는 제1 기판(610) 내의 회로 소자들로부터 전달받은 컬러 픽셀 신호를 제3 비아(623)를 통해 출력부(570)로 전달할 수 있다.
제1 기판(610) 상에는 제2 상부 패드(693)가 배치될 수 있다. 제2 상부 패드(693)는 제3 비아(623) 및 제4 비아의 상면에 배치될 수 있다. 제2 상부 패드(693)는 제3 비아(623) 및 제4 비아를 연결하여, 전기적 신호를 전달할 수 있다.
다양한 실시예에 따르면, 컬러 픽셀 센서(510)의 컬러 픽셀 신호는 제3 비아(623) 및 제4 비아를 통해 출력부(570)에 전달될 수 있다. 즉, 제3 기판(650)에 형성되는 출력부(570)는 제1 기판(610)에 형성되는 컬러 픽셀 센서(510)의 전기적 신호를 제3 비아(623) 및 제4 비아를 통해 수신할 수 있다.
제3 비아(623) 및 제4 비아는 복수로 형성될 수 있다. 제3 비아(623) 및 제4 비아는 컬러 픽셀 어레이(511)의 행(column)의 수와 대응되는 수로 형성될 수 있다. 제3 비아(623) 및 제4 비아가 복수로 형성되어, 각각의 픽셀 라인으로부터 컬러 픽셀 신호를 수신할 수 있다.
제2 기판(630) 및 제3 기판(650)은 제5 비아(641)를 포함할 수 있다. 제5 비아(641)는 제2 기판(630)을 관통하여 제3 기판(650)까지 형성될 수 있다. 제5 비아(641)는 실리콘 관통 전극일 수 있다. 제5 비아(641)는 제2 기판(630) 및 제3 기판(650)을 수직으로 통과할 수 있다. 제5 비아(641)는 제2 기판(630) 및 제3 기판(650)을 수직으로 통과하는 홀(670) 내에 배치될 수 있다.
제5 비아(641)는 도전성 재질을 포함할 수 있다. 제5 비아(641)는 단일층 또는 다층으로 형성될 수 있다. 한편, 제5 비아(641)의 외부를 둘러싸는 절연층이 더 포함될 수도 있다.
제5 비아(641)의 단부는 제3 기판(650) 내에 배치되는 제5 하부 패드(752)와 접촉할 수 있다. 제5 하부 패드(752)는 제3 기판(650) 내의 회로 소자들(791)에 전기적으로 연결될 수 있다. 제5 하부 패드(752)는 알루미늄(A1) 또는 구리(Cu)등으로 형성될 수 있다.
제2 기판(630)은 제5 비아(641)에 인접하여 형성되는 제6 비아(742)를 더 포함할 수 있다. 제6 비아(742)는 제2 기판(630) 내에 형성될 수 있다. 제6 비아(742)는 실리콘 관통 전극일 수 있다. 제6 비아(742)는 제2 기판(630)을 수직으로 통과할 수 있다. 제6 비아(742)는 도전성 재질을 포함할 수 있다. 한편, 제6 비아(742)의 외부를 둘러싸는 절연층이 더 포함될 수도 있다.
제6 비아(742)의 단부는 제2 기판(630) 내에 배치되는 제6 하부 패드(772)와 접촉할 수 있다. 제6 하부 패드(772)는 제2 기판(630) 내의 회로 소자들(793)에 전기적으로 연결될 수 있다. 제6 비아(742)는 제2 기판(630) 내의 회로 소자(793)들로부터 전달받은 컬러 픽셀 신호를 제5 비아(641)를 통해 출력부(570)로 전달할 수 있다.
제2 기판(630) 상에는 제3 상부 패드(695)가 배치될 수 있다. 제3 상부 패드(695)는 제5 비아(641) 및 제6 비아(742)의 상면에 배치될 수 있다. 제3 상부 패드(695)는 제5 비아(641) 및 제6 비아(742)를 연결하여, 전기적 신호를 전달할 수 있다.
다양한 실시예에 따르면, 제어부(550)의 구동 신호는 제5 비아(641) 및 제6 비아(742)를 통해 열화상 센서(530)에 전달될 수 있다. 즉, 제2 기판(630)에 형성되는 열화상 센서(530)는 제3 기판(650)에 형성되는 제어부(550)의 구동 신호를 제5 비아(641) 및 제6 비아(742)를 통해 수신할 수 있다.
제5 비아(641) 및 제6 비아(742)는 복수로 형성될 수 있다. 제5 비아(641) 및 제6 비아(742)는 열화상 픽셀 어레이(531)의 열(row)의 수와 대응되는 수로 형성될 수 있다. 제5 비아(641) 및 제6 비아(742)가 복수로 형성되어, 각각의 픽셀 라인에 구동 신호를 인가할 수 있다.
도면에서는 제어부가 제1 제어부(552) 및 제2 제어부(553)의 두 개로 구비되는 것으로 도시하였으나, 실시예가 이에 한정되는 것은 아니다. 다양한 실시예에 따르면, 제어부는 하나로 구비되고, 제어부의 구동신호를 제5 비아(641) 및 제6 비아(742)를 통해 수신할 수도 있다.
다양한 실시예에 따른 이미지 센서(410)는 제2 기판(640) 및 제3 기판(650)을 칩투칩(chip to chip) 또는 와이어 본딩(wore bonding)으로 연결하는 방식과는 차이가 있다.
제2 기판(630) 및 제3 기판(650)은 제7 비아(643)를 포함할 수 있다. 제7 비아(643)는 제2 기판(630)을 관통하여 제3 기판(650)까지 형성될 수 있다. 제7 비아(643)는 실리콘 관통 전극일 수 있다. 제7 비아(643)는 제2 기판(630) 및 제3 기판(650)을 수직으로 통과할 수 있다. 제7 비아(643)는 제2 기판(630) 및 제3 기판(650)을 수직으로 통과하는 홀(670) 내에 배치될 수 있다.
제7 비아(643)는 도전성 재질을 포함할 수 있다. 제7 비아(643)는 단일층 또는 다층으로 형성될 수 있다. 한편, 제7 비아(643)의 외부를 둘러싸는 절연층이 더 포함될 수도 있다.
제7 비아(643)의 단부는 제3 기판(650) 내에 배치되는 제7 하부 패드와 접촉할 수 있다. 제7 하부 패드는 제3 기판(650) 내의 회로 소자들에 전기적으로 연결될 수 있다. 제7 하부 패드는 알루미늄(A1) 또는 구리(Cu)등으로 형성될 수 있다.
제2 기판(630)은 제7 비아(643)에 인접하여 형성되는 제8 비아(미도시)를 더 포함할 수 있다. 제8 비아는 제2 기판(630) 내에 형성될 수 있다. 제8 비아는 실리콘 관통 전극일 수 있다. 제8 비아는 제2 기판(630)을 수직으로 통과할 수 있다. 제8 비아는 도전성 재질을 포함할 수 있다. 한편, 제8 비아의 외부를 둘러싸는 절연층이 더 포함될 수도 있다.
제8 비아의 단부는 제2 기판(630) 내에 배치되는 제8 하부 패드(미도시)와 접촉할 수 있다. 제8 하부 패드는 제2 기판(630) 내의 회로 소자들에 전기적으로 연결될 수 있다. 제8 비아는 제2 기판(630) 내의 회로 소자들로부터 전달받은 컬러 픽셀 신호를 제7 비아(643)를 통해 출력부(570)로 전달할 수 있다.
제2 기판(630) 상에는 제4 상부 패드(697)가 배치될 수 있다. 제4 상부 패드(697)는 제7 비아(643) 및 제8 비아의 상면에 배치될 수 있다. 제4 상부 패드(697)는 제7 비아(643) 및 제8 비아를 연결하여, 전기적 신호를 전달할 수 있다.
다양한 실시예에 따르면, 열화상 센서(530)의 열화상 픽셀 신호는 제7 비아(643) 및 제8 비아를 통해 출력부(570)에 전달될 수 있다. 즉, 제3 기판(650)에 형성되는 출력부(570)는 제2 기판(630)에 형성되는 열화상 센서(530)의 전기적 신호를 제7 비아(643) 및 제8 비아를 통해 수신할 수 있다.
제7 비아(643) 및 제8 비아는 복수로 형성될 수 있다. 제7 비아(643) 및 제8 비아는 열화상 픽셀 어레이(531)의 행(column)의 수와 대응되는 수로 형성될 수 있다. 제7 비아(643) 및 제8 비아가 복수로 형성되어, 각각의 픽셀 라인으로부터 열화상 픽셀 신호를 수신할 수 있다.
도 8은 다양한 실시예에 따른 이미지 센서(410)의 일 예시도를 도시한다.
도 8에 도시된 바와 같이, 컬러 픽셀 센서(510) 및 열화상 센서(530)는 동일한 옵티컬 포맷(optical format)에 위치할 수 있다. 옵티컬 포맷은 이미지 센서(410)를 구비하는 카메라 모듈(401)에서 영상을 받아들이는 렌즈가 포커싱(foucusing)할 수 있는 영역을 의미할 수 있다. 다양한 실시예에 따르면, 전자 장치(101)는 카메라 모듈(401)의 한 개의 렌즈 시스템으로 컬러 픽셀 센서(510)를 통한 컬러 이미지 및 열화상 센서(530)를 통한 열화상 이미지를 획득할 수 있다. 열화상 센서(530)는 동일한 옵티컬 포맷 내에서 가장자리에 배치될 수 있다. 즉, 열화상 센서(530)는 동일한 옵티컬 포맷 내에서 컬러 픽셀 센서(510)의 측면에 배치될 수 있다. 열화상 센서(530)는 컬러 픽셀 센서(510)보다 작은 영역으로 배치될 수 있다. 예를 들면, 열화상 센서(530)는 컬러 픽셀 센서(510)의 열의 수보다 작은 열로 배치될 수 있다. 또는, 열화상 센서(530)는 컬러 픽셀 센서(510)의 행의 수보다 작은 행으로 배치될 수 있다. 또는, 열화상 센서(530)는 컬러 픽셀 센서(510)의 면적보다 작은 면적으로 배치될 수 있다. 또는, 열화상 센서(530)는 컬러 픽셀 센서(510)의 크기보다 작은 크기으로 배치될 수 있다.
다양한 실시예에 따른 전자 장치(101)는, 디스플레이(430), 컬러 픽셀 센서(510)를 포함하는 이미지 센서(410), 열화상 센서(530) 및 프로세서(440)를 포함하고, 프로세서(440)는, 컬러 픽셀 센서(510)를 이용하여, 피사체에 대한 제1 이미지(1011)를 획득하고, 열화상 센서(530)를 이용하여, 피사체에 대한 제2 이미지(1013)를 획득하고, 제1 이미지(1011)의 일부 영역을 제2 이미지(1013)로 대체하여 디스플레이(430)를 통하여 출력하도록 설정될 수 있다.
다양한 실시예에 따른 전자 장치(101)에서, 이미지 센서(410)는 적어도 하나의 열화상 센서(530)를 포함하도록 설정될 수 있다.
다양한 실시예에 따른 전자 장치(101)에서, 컬러 픽셀 센서(510)는 제1 기판(610)에 구성하고, 열화상 센서(530)는 제 2 기판(630)에 구성할 수 있다.
다양한 실시예에 따른 전자 장치(101)에서, 프로세서(440)는 컬러 픽셀 센서(510)에 대응하는 컬러 정보, 및 열화상 센서(530)에 대응하는 열화상 정보를 동시에 획득하도록 설정될 수 있다.
다양한 실시예에 따른 전자 장치(101)에서, 프로세서(440)는 전자 장치(101)의 움직임에 적어도 기반하여, 제1 이미지(1011)의 일부 영역을 제2 이미지(1013)의 적어도 일부를 이용하여 변경하도록 설정될 수 있다.
다양한 실시예에 따른 전자 장치(101)에서, 이미지 센서(410)는 제3 기판(650)에 구성하는 제어부(550)를 더 포함하고, 제어부(550)는 컬러 픽셀 센서(510) 및 열화상 센서(530)를 동시에 제어할 수 있다.
다양한 실시예에 따른 전자 장치(101)에서, 이미지 센서(410)는 제3 기판(650)에 구성하는 출력부(570)를 더 포함하고, 컬러 픽셀 센서(510) 및 열화상 센서(530)는 출력부(570)로 신호를 출력할 수 있다.
다양한 실시예에 따른 전자 장치(101)에서, 제3 기판(650)은 제1 기판(610) 및 제2 기판(630)과 상하로 배치될 수 있다.
다양한 실시예에 따른 전자 장치(101)에서, 제3 기판(650)은 상기 제1 기판(610) 및 제2 기판(630)과 실리콘 관통 전극(through silicon via, TSV)을 통해 전기적으로 연결될 수 있다.
다양한 실시예에 따른 전자 장치(101)에서, 제1 기판(610) 및 제3 기판(650)에 형성되는 제1 비아 및 제1 기판(610)에 형성되는 제2 비아를 포함하고, 제어부(550)는 제1 비아 및 상기 제2 비아를 통해, 컬러 픽셀 센서(510) 또는 열화상 센서(530)로 신호를 전달할 수 있다.
다양한 실시예에 따른 전자 장치(101)에서, 제1 기판(610) 및 제3 기판(650)에 형성되는 제3 비아 및 제1 기판(610)에 형성되는 제4 비아를 포함하고, 컬러 픽셀 센서(510) 또는 열화상 센서(530)는 제3 비아 및 제4 비아를 통해, 출력부(570)로 신호를 출력할 수 있다.
다양한 실시예에 따른 전자 장치(101)에서, 이미지 센서(410)는 렌즈를 포함하는 카메라 모듈(401)에 구비되고, 컬러 픽셀 센서(510) 및 열화상 센서(530)는 렌즈가 포커싱하는 영역인 옵티컬 포맷(optical format)에서 동일한 영역에 배치될 수 있다.
다양한 실시예에 따른 전자 장치(101)에서, 전자 장치(101)의 이동 방향에 따라 제1 이미지(1011) 상에 확장된 제2 이미지(1013)가 출력될 수 있다.
도 9는 다양한 실시예에 따른 전자 장치(101)의 동작 방법의 흐름도를 도시한다. 도 10 내지 도 12는 다양한 실시예에 따른 전자 장치(101)를 통해 획득한 이미지를 도시한다.
도 9에 도시된 바와 같이, 전자 장치(101)(예: 프로세서(440))는 901 동작에서 제1 및 제2 이미지(1011, 1013)를 획득할 수 있다. 전자 장치(101)(예: 프로세서(440))는 피사체에 대한 제1 이미지(1011) 및 제2 이미지(1013)를 획득할 수 있다. 전자 장치(101)(예: 프로세서(440))는 컬러 픽셀 센서(510)에 대응하는 컬러 정보를 이용하여 제1 이미지(1011)를 획득할 수 있다. 따라서, 제1 이미지(1011)는 컬러 이미지일 수 있다. 전자 장치(101)(예: 프로세서(440))는 열화상 센서(530)에 대응하는 열화상 정보를 이용하여 제2 이미지(1013)를 획득할 수 있다. 따라서, 제2 이미지(1013)는 열화상 이미지일 수 있다.
전자 장치(101)(예: 프로세서(440))는 903 동작에서 제1 이미지(1011) 또는 제2 이미지(1013)를 출력할 수 있다. 도 10에 도시된 바와 같이, 전자 장치(101)(예: 프로세서(440))는 제1 이미지(1011) 또는 제2 이미지(1013)를 처리하여 전자 장치(101)(예: 디스플레이(430))에 표시할 수 있다. 한편, 앞서 설명한 바와 같이, 컬러 픽셀 센서(510) 및 열화상 센서(530)가 동일한 옵티컬 포맷 하에 위치하므로, 컬러 이미지인 제1 이미지(1011)의 가장자리에 열화상 이미지인 제2 이미지(1013)가 출력될 수 있다. 예를 들면, 이미지 센서(410) 내에서 열화상 센서(530)가 배치되는 위치와 대응되는 위치에 제2 이미지(1013)가 출력될 수 있다. 따라서, 피사체(1017)의 일부분에 대한 열화상 이미지가 출력될 수 있다.
전자 장치(101)(예: 프로세서(440))는 제1 이미지(1011) 또는 제2 이미지(1013)를 전자 장치(101)(예: 디스플레이(430))에 표시하면서, 스캔 요청 동작을 수행할 수 있다. 전자 장치(101)(예: 프로세서(440))는, 전자 장치(101)(예: 디스플레이(430))에 피사체(1017)의 나머지 부분에 대한 열화상 이미지를 제공하기 위해 스캔을 요청하는 아이콘(1015)을 표시할 수 있다. 전자 장치(101)는 전자 장치(101)(예: 디스플레이(430))에 아이콘(1015)을 표시하여 스캔 방향에 대한 알림을 사용자에게 제공할 수 있다. 예를 들면, 아이콘(1015)은 스캔 방향을 알려주는 화살표 형상일 수 있다. 전자 장치(101)(예: 프로세서(440))는 열화상 센서(530)가 해당 피사체(1017)의 나머지 부분을 감지할 수 있도록 스캔을 요청할 수 있다.
전자 장치(101)(예: 프로세서(440))는 905 동작에서 스캔 여부를 판단할 수 있다. 전자 장치(101)(예: 프로세서(440))는, 움직임 센서(420)를 통해 스캔 여부를 판단할 수 있다. 움직임 센서(420)는 스캔을 위한 움직임을 감지할 수 있고, 움직임 감지가 없을 경우 전자 장치(101)(예: 프로세서(440))는 전자 장치(101)(예: 디스플레이(430))에 제1 및 제2 이미지(1011, 1013)를 계속해서 표시할 수 있다.
전자 장치(101)(예: 프로세서(440))는 907 동작에서 스캔을 통해 확장된 제2 이미지(1013)를 획득할 수 있다. 전자 장치(101)(예: 프로세서(440))는 사용자를 통해 스캔을 수행할 수 있다. 열화상 센서(530)를 이루는 열화상 픽셀 어레이(531)는 컬러 픽셀 센서(510)를 이루는 컬러 픽셀 어레이(511)보다 적으므로, 피사체(1017)의 모든 부분에서 열화상 이미지를 획득하기 위해서는, 사용자에 의한 스캔이 수행될 수 있다. 사용자에 의해 해당 피사체(1017)의 모든 부분에서 열화상 이미지를 획득할 수 있도록 전자 장치(101)가 이동할 수 있다. 예를 들면, 사용자에 의해 컬러 이미지인 제1 이미지(1011)가 열화상 이미지로 대체될 수 있는 방향으로 전자 장치(101)가 이동할 수 있다.
전자 장치(101)(예: 전자 장치(101))가 이동함으로써, 전자 장치(101)(예: 프로세서(440))는 피사체(1017)에 대한 제2 이미지(1013)를 확장시킬 수 있다. 전자 장치(101)(예: 프로세서(440))는, 사용자가 스캔을 진행하면서 지속적으로 제2 이미지(1013)를 획득할 수 있다. 전자 장치(101)(예: 프로세서(440))는 열화상 센서(530)를 이용하여 피사체(1017)의 스캔이 이루어진 영역에 해당하는 열화상 이미지를 획득할 수 있다.
전자 장치(101)(예: 프로세서(440))는 909 동작에서 제2 이미지(1013)를 출력할 수 있다. 전자 장치(101)(예: 프로세서(440))는 사용자가 피사체(1017)를 스캔함으로써 얻어지는 제2 이미지(1013)를 처리하여 전자 장치(101)(예: 디스플레이(430))에 표시할 수 있다. 전자 장치(101)(예: 프로세서(440))는 제1 이미지(1011)를 표시하면서, 제1 이미지(1011) 상에서 확대되는 제2 이미지(1013)를 출력할 수 있다.
전자 장치(101)(예: 프로세서(440))는 909 동작에서 움직임 센서(420)를 통해 움직임 정보를 획득할 수 있다. 전자 장치(101)(예: 프로세서(440))는, 제1 이미지(1011) 및 스캔을 통해 획득한 제2 이미지(1013)와 움직임 센서(420)에서 감지한 정보를 이용하여 얼라인(align)을 수행할 수 있다. 예를 들면, 움직임 센서(420)를 통해 감지한 움직임을 이용하여 제1 이미지(1011) 및 제2 이미지(1013)의 얼라인을 수행할 수 있다. 움직임 정보 및 제1 이미지(1011)에서 획득한 피사체의 윤곽선을 이용하여, 제1 이미지(1011) 및 제2 이미지(1013)를 매칭할 수 있다.
예를 들면, 도 11에 도시된 바와 같이, 피사체(1017)에 대해 일부 스캔이 이루어진 경우, 전자 장치(101)(예: 프로세서(440))는 제1 이미지(1011) 및 제2 이미지(1013)를 함께 디스플레이(430)에 표시할 수 있다. 전자 장치(101)(예: 프로세서(440))는 도 10에서의 제1 이미지(1011)의 일부 영역을 제2 이미지(1013)로 변경하여 디스플레이에 표시할 수 있다. 전자 장치(101)(예: 프로세서(440))는 스캔이 이루어진 영역에 해당하는 제2 이미지(1013)를 제1 이미지(1011)에 대체하여 디스플레이(430)에 표시할 수 있다. 스캔이 진행될수록 제1 이미지(1011)가 열화상 이미지인 제2 이미지(1013)로 점점 대체될 수 있다. 따라서, 디스플레이(430)는 전자 장치(101)의 이동 방향에 따라, 제1 이미지(1011) 상에 확장된 제2 이미지(1013)를 표시할 수 있다.
전자 장치(101)(예: 프로세서(440))는 911 동작에서 스캔 종료 여부를 판단할 수 있다. 전자 장치(101)(예: 프로세서(440))는, 움직임 센서(420)를 통해 스캔 종료 여부를 판단할 수 있다. 움직임 센서(420)는 스캔을 위한 움직임을 감지할 수 있고, 움직임 감지가 있을 경우 전자 장치(101)(예: 프로세서(440))는 스캔이 종료되지 않았다고 판단할 수 있다. 또는, 전자 장치(101)(예: 프로세서(440))는, 제1 이미지(1011)의 일부만이 제2 이미지(1013)로 대체되었다고 결정한 경우, 스캔이 종료되지 않았다고 판단할 수 있다. 예를 들면, 전자 장치(101)(예: 프로세서(440))는, 제1 이미지(1011)의 모든 부분이 제2 이미지(1013)로 대체되지 않았다고 결정한 경우, 스캔이 종료되지 않았다고 판단할 수 있다.
전자 장치(101)(예: 프로세서(440))는 스캔이 종료되지 않았다고 판단한 경우, 907 동작으로 돌아가서 계속해서 제2 이미지(1013)를 획득할 수 있다. 예를 들면, 피사체(1017)의 나머지 영역을 스캔함으로써, 확장된 제2 이미지(1013)를 획득할 수 있다. 피사체(1017)에 대한 계속적인 스캔을 통해 도 12에 도시된 바와 같이, 제1 이미지(1011)를 열화상 이미지인 제2 이미지(1013)로 모두 대체할 수 있다.
전자 장치(101)(예: 프로세서(440))는 움직임 센서(420)를 통해 일정 시간 이상 움직임이 감지되지 않으면 스캔이 종료되었다고 판단하고, 동작을 종료할 수 있다. 또는, 전자 장치(101)(예: 프로세서(440)는 제1 이미지(1011)의 모든 부분이 제2 이미지(1013)로 대체되었다고 결정한 경우, 스캔이 종료되었다고 판단하고, 움직임이 감지되더라도 동작을 종료할 수 있다.
도 13은 다양한 실시예에 따른 전자 장치(101)의 동작 방법의 수행 절차를 도시하는 순서도이다.
전자 장치(101)(예: 프로세서(440))는 1301 동작에서 촬영 모드를 결정할 수 있다. 전자 장치(101)(예: 프로세서(440))는 제1 촬영 모드인지 결정할 수 있다. 전자 장치(101)(예: 프로세서(440))는 사용자의 선택에 의해 촬영 모드를 결정할 수 있다. 전자 장치(101)는 결정된 촬영 모드에 따라 이미지를 획득할 수 있다.
전자 장치(101)(예: 프로세서(440))는, 1301 동작에서 제1 촬영 모드라고 결정할 경우, 903 동작에서 제1 촬영 모드 동작을 수행할 수 있다. 제1 촬영 모드는, 컬러 픽셀 센서(510) 및 열화상 센서(530)를 모두 이용하여 촬영하는 모드일 수 있다. 제1 촬영 모드는 컬러 이미지 및 열화상 이미지를 획득하기 위한 촬영 모드일 수 있다. 제1 촬영 모드는 앞서 도 9에서 설명한 바에 대응될 수 있다. 동작 1303, 1305, 1307, 1309, 1311 및 1313은 동작 901, 903, 905, 907, 909 및 911에 각각 대응될 수 있다.
전자 장치(101)(예: 프로세서(440))는 1301 동작에서 제1 촬영 모드가 아닌 것으로 결정한 경우, 1315 동작에서 제2 촬영 모드인지 판단할 수 있다. 제2 촬영 모드는, 컬러 픽셀 센서(510)만을 이용하여 촬영하는 모드일 수 있다.
전자 장치(101)(예: 프로세서(440))는, 제2 촬영 모드라고 판단한 경우, 1317 동작에서 제1 이미지(1011)를 획득할 수 있다. 제1 이미지(1011)는 피사체에 대한 컬러 이미지일 수 있다. 프로세서(440)는 제2 촬영 모드에 따라 피사체에 대한 컬러 이미지만을 획득할 수 있다.
전자 장치(101)(예: 프로세서(440))는, 1319 동작에서 획득한 제1 이미지(1011)를 출력할 수 있다. 전자 장치(101)(예: 프로세서(440))는 제1 이미지(1011)를 처리하여 전자 장치(101)(예: 디스플레이(430))에 표시할 수 있다. 전자 장치(101)(예: 프로세서(440))는 제2 촬영 모드에 따라 피사체에 대한 컬러 이미지만을 처리하여 전자 장치(101)(예: 디스플레이(430))에 표시할 수 있다.
다양한 실시예에 따른 전자 장치(101)의 동작 방법은, 디스플레이(430), 컬러 픽셀 센서(510), 열화상 센서(530) 및 프로세서(440)를 포함하는 전자 장치(101)에서, 컬러 픽셀 센서(510)를 이용하여, 피사체(1017)에 대한 제1 이미지(1011)를 획득하는 동작 열화상 센서(530)를 이용하여, 피사체(1017)에 대한 제2 이미지(1013)를 획득하는 동작 및 프로세서(440)를 이용하여, 제1 이미지(1011)의 일부 영역을 제2 이미지(1013)로 대체하여 디스플레이(430)를 통하여 출력하는 동작을 포함할 수 있다.
다양한 실시예에 따른 전자 장치(101)의 동작 방법에서, 제2 이미지(1013)를 획득하는 동작은, 컬러 픽셀 센서(510)에 대응하는 컬러 정보, 및 열화상 센서(530)에 대응하는 열화상 정보를 동시에 획득할 수 있다.
다양한 실시예에 따른 전자 장치(101)의 동작 방법에서, 출력하는 동작은, 전자 장치(101)의 움직임에 적어도 기반하여, 제1 이미지(1011)의 일부 영역을 제2 이미지(1013)의 적어도 일부를 이용하여 변경하는 동작을 포함할 수 있다.
다양한 실시예에 따른 전자 장치(101)의 동작 방법에서, 출력하는 동작은, 제2 이미지(1013)를 확장하여 출력하는 동작을 포함할 수 있다.
다양한 실시예에 따른 전자 장치(101)의 동작 방법에서, 출력하는 동작은, 제1 이미지(1011), 제2 이미지(1013) 및 피사체에 대한 스캔 방향(1015)을 표시하는 동작을 더 포함할 수 있다.
다양한 실시예에 따른 전자 장치(101)의 동작 방법에서, 제2 이미지(1013)를 획득하는 동작은, 열화상 센서(530)를 이용하여, 피사체에 대한 열화상 이미지를 획득할 수 있다.
다양한 실시예에 따른 전자 장치(101)의 동작 방법에서, 제2 이미지(1013)를 획득하는 동작은, 피사체(1017)를 스캔하는 방향에 따라 피사체(1017)에 대한 열화상 이미지를 획득할 수 있다.
다양한 실시예에 따른 전자 장치(101)의 동작 방법에서, 출력하는 동작은, 피사체(1017)를 스캔하는 움직임 정보를 획득하는 동작을 더 포함하고, 움직임 정보를 이용하여, 제1 이미지(1011) 및 상기 제2 이미지(1013)를 매칭하여 표시할 수 있다.
상술한 실시예에 설명된 특징, 구조, 효과 등은 본 발명의 적어도 하나의 실시예에 포함되며, 반드시 하나의 실시예에만 한정되는 것은 아니다. 나아가, 각 실시예에서 예시된 특징, 구조, 효과 등은 실시예들이 속하는 분야의 통상의 지식을 가지는 자에 의하여 다른 실시예들에 대해서도 조합 또는 변형되어 실시 가능하다. 따라서 이러한 조합과 변형에 관계된 내용들은 본 발명의 범위에 포함되는 것으로 해석되어야 할 것이다.
또한, 이상에서 실시예들을 중심으로 설명하였으나 이는 단지 예시일 뿐 본 발명을 한정하는 것이 아니며, 본 발명이 속하는 분야의 통상의 지식을 가진 자라면 본 실시예의 본질적인 특성을 벗어나지 않는 범위에서 이상에 예시되지 않은 여러 가지의 변형과 응용이 가능함을 알 수 있을 것이다. 예를 들어, 실시예들에 구체적으로 나타난 각 구성 요소는 변형하여 실시할 수 있는 것이다. 그리고 이러한 변형과 응용에 관계된 차이점들은 첨부한 청구 범위에서 규정하는 본 발명의 범위에 포함되는 것으로 해석되어야 할 것이다.

Claims (21)

  1. 전자 장치에 있어서,
    디스플레이;
    컬러 픽셀 센서를 포함하는 이미지 센서;
    열화상 센서; 및
    프로세서를 포함하고, 상기 프로세서는,
    상기 컬러 픽셀 센서를 이용하여, 피사체에 대한 제1 이미지를 획득하고,
    상기 열화상 센서를 이용하여, 상기 피사체에 대한 제2 이미지를 획득하고,
    상기 제1 이미지의 일부 영역을 상기 제2 이미지로 대체하여 상기 디스플레이를 통하여 출력하도록 설정된 전자 장치.
  2. 제 1 항에 있어서,
    상기 이미지 센서는,
    상기 적어도 하나의 열화상 센서를 포함하도록 설정된 전자 장치.
  3. 제 1 항에 있어서,
    상기 컬러 픽셀 센서는 제 1 기판에 구성하고, 상기 열화상 센서는 제 2 기판에 구성하는 전자 장치.
  4. 제 1 항에 있어서,
    상기 프로세서는
    상기 컬러 픽셀 센서에 대응하는 컬러 정보, 및 상기 열화상 센서에 대응하는 열화상 정보를 동시에 획득하도록 설정된 전자 장치.
  5. 제 1 항에 있어서,
    상기 프로세서는
    상기 전자 장치의 움직임에 적어도 기반하여, 상기 제1 이미지의 상기 일부 영역을 상기 제2 이미지의 적어도 일부를 이용하여 변경하도록 설정된 전자 장치.
  6. 제 3 항에 있어서,
    상기 이미지 센서는 제3 기판에 구성하는 제어부를 더 포함하고,
    상기 제어부는 상기 컬러 픽셀 센서 및 열화상 센서를 동시에 제어하는 전자 장치.
  7. 제 6 항에 있어서,
    상기 이미지 센서는 상기 제3 기판에 구성하는 출력부를 더 포함하고,
    상기 컬러 픽셀 센서 및 상기 열화상 센서는 상기 출력부로 신호를 출력하는 전자 장치.
  8. 제 7 항에 있어서,
    상기 제3 기판은 상기 제1 기판 및 상기 제2 기판과 상하로 배치되는 전자 장치.
  9. 제 8 항에 있어서,
    상기 제3 기판은 상기 제1 기판 및 상기 제2 기판과 실리콘 관통 전극(through silicon via, TSV)을 통해 전기적으로 연결되는 전자 장치.
  10. 제 6 항에 있어서,
    상기 제1 기판 및 상기 제3 기판에 형성되는 제1 비아; 및
    상기 제1 기판에 형성되는 제2 비아를 포함하고,
    상기 제어부는 상기 제1 비아 및 상기 제2 비아를 통해, 상기 컬러 픽셀 센서 또는 상기 열화상 센서로 신호를 전달하는 전자 장치.
  11. 제 7 항에 있어서,
    상기 제1 기판 및 상기 제3 기판에 형성되는 제3 비아; 및
    상기 제1 기판에 형성되는 제4 비아를 포함하고,
    상기 컬러 픽셀 센서 또는 상기 열화상 센서는 상기 제3 비아 및 제4 비아를 통해, 상기 출력부로 신호를 출력하는 전자 장치.
  12. 제 1 항에 있어서,
    상기 이미지 센서는 렌즈를 포함하는 카메라 모듈에 구비되고,
    상기 컬러 픽셀 센서 및 상기 열화상 센서는 상기 렌즈가 포커싱하는 영역인 옵티컬 포맷(optical format)에서 동일한 영역에 배치되는 전자 장치.
  13. 제 1 항에 있어서,
    상기 전자 장치의 이동 방향에 따라 상기 제1 이미지 상에 확장된 상기 제2 이미지가 출력되는 전자 장치.
  14. 디스플레이, 컬러 픽셀 센서, 열화상 센서 및 프로세서를 포함하는 전자 장치에서,
    상기 컬러 픽셀 센서를 이용하여, 피사체에 대한 제1 이미지를 획득하는 동작;
    상기 열화상 센서를 이용하여, 상기 피사체에 대한 제2 이미지를 획득하는 동작; 및
    상기 프로세서를 이용하여, 상기 제1 이미지의 일부 영역을 상기 제2 이미지로 대체하여 상기 디스플레이를 통하여 출력하는 동작을 포함하는 전자 장치의 동작 방법.
  15. 제 14 항에 있어서,
    상기 제 2 이미지를 획득하는 동작은,
    상기 컬러 픽셀 센서에 대응하는 컬러 정보, 및 상기 열화상 센서에 대응하는 열화상 정보를 동시에 획득하는 전자 장치의 동작 방법.
  16. 제 14 항에 있어서,
    상기 출력하는 동작은,
    상기 전자 장치의 움직임에 적어도 기반하여, 상기 제1 이미지의 상기 일부 영역을 상기 제2 이미지의 적어도 일부를 이용하여 변경하는 동작을 포함하는 전자 장치의 동작 방법.
  17. 제 14 항에 있어서,
    상기 출력하는 동작은,
    상기 제2 이미지를 확장하여 출력하는 동작을 포함하는 전자 장치의 동작 방법.
  18. 제 14 항에 있어서,
    상기 출력하는 동작은,
    상기 제1 이미지, 상기 제2 이미지 및 상기 피사체에 대한 스캔 방향을 표시하는 동작을 더 포함하는 전자 장치의 동작 방법.
  19. 제 14 항에 있어서,
    상기 제2 이미지를 획득하는 동작은,
    상기 열화상 센서를 이용하여, 상기 피사체에 대한 열화상 이미지를 획득하는 전자 장치의 동작 방법.
  20. 제 14 항에 있어서,
    상기 제2 이미지를 획득하는 동작은,
    상기 피사체를 스캔하는 방향에 따라 상기 피사체에 대한 열화상 이미지를 획득하는 전자 장치의 동작 방법.
  21. 제 14 항에 있어서,
    상기 출력하는 동작은,
    상기 피사체를 스캔하는 움직임 정보를 획득하는 동작을 더 포함하고,
    상기 움직임 정보를 이용하여, 상기 제1 이미지 및 상기 제2 이미지를 매칭하여 표시하는 전자 장치의 동작 방법.
KR1020160002168A 2016-01-07 2016-01-07 열화상 이미지를 제공하는 전자 장치 및 그의 동작 방법 KR20170082883A (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020160002168A KR20170082883A (ko) 2016-01-07 2016-01-07 열화상 이미지를 제공하는 전자 장치 및 그의 동작 방법
US15/401,837 US20170201662A1 (en) 2016-01-07 2017-01-09 Electronic device for providing thermal image and method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160002168A KR20170082883A (ko) 2016-01-07 2016-01-07 열화상 이미지를 제공하는 전자 장치 및 그의 동작 방법

Publications (1)

Publication Number Publication Date
KR20170082883A true KR20170082883A (ko) 2017-07-17

Family

ID=59276310

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160002168A KR20170082883A (ko) 2016-01-07 2016-01-07 열화상 이미지를 제공하는 전자 장치 및 그의 동작 방법

Country Status (2)

Country Link
US (1) US20170201662A1 (ko)
KR (1) KR20170082883A (ko)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102450580B1 (ko) 2017-12-22 2022-10-07 삼성전자주식회사 금속 배선 하부의 절연층 구조를 갖는 반도체 장치
FR3082385B1 (fr) * 2018-06-08 2021-05-14 Ulis Dispositif et procede de compensation de chaleur parasite dans une camera infrarouge
CN110649077B (zh) * 2019-09-29 2021-09-28 武汉天马微电子有限公司 一种电致发光显示面板及显示装置

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0823691B1 (en) * 1996-08-08 2003-12-17 Agfa-Gevaert Method of correcting a radiation image for defects in the recording member
US6717578B1 (en) * 1998-02-17 2004-04-06 Sun Microsystems, Inc. Graphics system with a variable-resolution sample buffer
JP4008328B2 (ja) * 2002-09-30 2007-11-14 富士フイルム株式会社 放射線画像情報読取方法および装置
JP4578797B2 (ja) * 2003-11-10 2010-11-10 パナソニック株式会社 撮像装置
JP4562126B2 (ja) * 2004-09-29 2010-10-13 大日本スクリーン製造株式会社 欠陥検出装置および欠陥検出方法
US7313288B2 (en) * 2005-04-20 2007-12-25 Cypress Semiconductor Corporation Defect pixel correction in an image sensor
EP2667412A1 (en) * 2007-04-18 2013-11-27 Invisage Technologies, INC. Materials, systems and methods for optoelectronic devices
US8135237B2 (en) * 2008-02-25 2012-03-13 Aptina Imaging Corporation Apparatuses and methods for noise reduction
US7915652B2 (en) * 2008-10-24 2011-03-29 Sharp Laboratories Of America, Inc. Integrated infrared and color CMOS imager sensor
US8456620B2 (en) * 2009-07-24 2013-06-04 Empire Technology Development Llc Enabling spectrometry on IR sensors using metamaterials
US20110234750A1 (en) * 2010-03-24 2011-09-29 Jimmy Kwok Lap Lai Capturing Two or More Images to Form a Panoramic Image
US9091903B2 (en) * 2010-07-29 2015-07-28 Logitech Europe S.A. Optimized movable IR filter in cameras
US8625005B2 (en) * 2010-11-05 2014-01-07 Raytheon Company First-in-first-out (FIFO) buffered median scene non-uniformity correction method
US8742311B2 (en) * 2012-02-27 2014-06-03 Omnivision Technologies, Inc. Enhanced pixel cell architecture for an image sensor having a direct output from a buried channel source follower transistor to a bit line
US8953882B2 (en) * 2012-05-31 2015-02-10 Apple Inc. Systems and methods for determining noise statistics of image data
AU2013295553B2 (en) * 2012-07-26 2017-10-19 DePuy Synthes Products, Inc. Continuous video in a light deficient environment
KR102250192B1 (ko) * 2014-05-19 2021-05-10 삼성전자주식회사 이종 화소 구조를 갖는 이미지 센서

Also Published As

Publication number Publication date
US20170201662A1 (en) 2017-07-13

Similar Documents

Publication Publication Date Title
US11418751B2 (en) Electronic device and method for generating image data
US10871798B2 (en) Electronic device and image capture method thereof
CN108153446B (zh) 包含显示器的电子装置以及制造显示器的方法
US10725578B2 (en) Apparatus and method for controlling fingerprint sensor
US11145951B2 (en) Antenna device and electronic device having same
US10386927B2 (en) Method for providing notification and electronic device thereof
KR102328098B1 (ko) 전자장치의 초점 검출 장치 및 방법
US10764521B2 (en) Image sensor and electronic device comprising the same
KR20180106076A (ko) 촬영 모드에 따라 이미지에 대한 표시자를 다르게 제공하는 방법 및 그 전자 장치
US11196945B2 (en) Electronic device including camera module and method for controlling electronic device
EP3342161B1 (en) Image processing device and operational method thereof
US10943404B2 (en) Content output method and electronic device for supporting same
KR20170099157A (ko) 온도 정보를 제공하는 방법 및 이를 지원하는 전자 장치
US20170118402A1 (en) Electronic device and camera control method therefor
KR102425895B1 (ko) 전자장치의 데이터 동기 장치 및 방법
US10412339B2 (en) Electronic device and image encoding method of electronic device
KR102664014B1 (ko) 이미지를 촬영하는 센서 및 그 제어 방법
US11132537B2 (en) Electronic device for determining position of user based on image pixels, and method of controlling said device
US20170118404A1 (en) Method for setting focus and electronic device thereof
KR102477522B1 (ko) 전자 장치 및 그의 카메라 노출 조정 방법
US20170201662A1 (en) Electronic device for providing thermal image and method thereof
KR20180008043A (ko) 전자 장치 및 전자 장치 제어 방법
US10338703B2 (en) Touch pad for electronic device
US11210828B2 (en) Method and electronic device for outputting guide