KR20220144014A - 카메라 모듈 및 카메라 모듈의 동작 방법 - Google Patents

카메라 모듈 및 카메라 모듈의 동작 방법 Download PDF

Info

Publication number
KR20220144014A
KR20220144014A KR1020210049836A KR20210049836A KR20220144014A KR 20220144014 A KR20220144014 A KR 20220144014A KR 1020210049836 A KR1020210049836 A KR 1020210049836A KR 20210049836 A KR20210049836 A KR 20210049836A KR 20220144014 A KR20220144014 A KR 20220144014A
Authority
KR
South Korea
Prior art keywords
pixels
photodetectors
sub
signal
pixel
Prior art date
Application number
KR1020210049836A
Other languages
English (en)
Inventor
윤정빈
이경호
심은섭
정태섭
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020210049836A priority Critical patent/KR20220144014A/ko
Priority to US17/565,591 priority patent/US20220337771A1/en
Priority to CN202210259465.3A priority patent/CN115225835A/zh
Publication of KR20220144014A publication Critical patent/KR20220144014A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/703SSIS architectures incorporating pixels for producing signals other than image signals
    • H04N25/704Pixels specially adapted for focusing, e.g. phase difference pixel sets
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14603Special geometry or disposition of pixel-elements, address-lines or gate-electrodes
    • H01L27/14605Structural or functional details relating to the position of the pixel elements, e.g. smaller pixel elements in the center of the imager compared to pixel elements at the periphery
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/40Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled
    • H04N25/46Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled by combining or binning pixels
    • H04N5/36961
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14609Pixel-elements with integrated switching, control, storage or amplification elements
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14609Pixel-elements with integrated switching, control, storage or amplification elements
    • H01L27/14612Pixel-elements with integrated switching, control, storage or amplification elements involving a transistor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/703SSIS architectures incorporating pixels for producing signals other than image signals
    • H04N25/705Pixels for depth measurement, e.g. RGBZ
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/71Charge-coupled device [CCD] sensors; Charge-transfer registers specially adapted for CCD sensors
    • H04N25/75Circuitry for providing, modifying or processing image signals from the pixel array
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/76Addressed sensors, e.g. MOS or CMOS sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/76Addressed sensors, e.g. MOS or CMOS sensors
    • H04N25/77Pixel circuitry, e.g. memories, A/D converters, pixel amplifiers, shared circuits or shared components
    • H04N25/772Pixel circuitry, e.g. memories, A/D converters, pixel amplifiers, shared circuits or shared components comprising A/D, V/T, V/F, I/T or I/F converters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/76Addressed sensors, e.g. MOS or CMOS sensors
    • H04N25/77Pixel circuitry, e.g. memories, A/D converters, pixel amplifiers, shared circuits or shared components
    • H04N25/778Pixel circuitry, e.g. memories, A/D converters, pixel amplifiers, shared circuits or shared components comprising amplifiers shared between a plurality of pixels, i.e. at least one part of the amplifier must be on the sensor array itself
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/76Addressed sensors, e.g. MOS or CMOS sensors
    • H04N25/78Readout circuits for addressed sensors, e.g. output amplifiers or A/D converters
    • H04N5/347
    • H04N5/378

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Power Engineering (AREA)
  • Electromagnetism (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)

Abstract

본 발명은 카메라 모듈에 관한 것이다. 본 발명의 카메라 모듈은 하나의 행으로 배열된 픽셀들을 포함하고, 픽셀들의 각각은 제1 내지 제4 서브 픽셀들을 포함하는 픽셀 어레이, 행 라인들을 통해 픽셀들에 연결되는 행 드라이버, 열 라인들을 통해 픽셀들에 연결되고, 그리고 열 라인들의 신호들을 디지털 값들로 변환하는 아날로그-디지털 변환 회로, 그리고 로직 회로를 포함한다. 제1 내지 제4 서브 픽셀들의 각각은 제1 영역 및 제2 영역을 포함한다. 제1 및 제2 영역들의 각각은 광 검출기를 포함한다. 행 드라이버가 픽셀들 중 하나의 픽셀에 포함된 광 검출기들 중 절반보다 적은 광 검출기들의 신호들을 활성화하는 것에 응답하여, 아날로그-디지털 변환 회로는 제1 신호를 생성한다. 행 드라이버가 픽셀들 중 하나의 픽셀에 포함된 광 검출기들의 신호들을 비닝하는 것에 응답하여, 아날로그-디지털 변환 회로는 제2 신호를 생성한다. 로직 회로는 제1 신호에 기반하여 오토 포커스 신호를 생성한다.

Description

카메라 모듈 및 카메라 모듈의 동작 방법{CAMERA MODULE AND OPERATING METHOD OF CAMERA MODULE}
본 발명은 전자 장치에 관한 것으로, 더 상세하게는 높은 동적 범위(HDR)(High Dynamic Range)에서 오토 포커싱을 수행하는 카메라 모듈 및 카메라 모듈의 동작 방법을 제공하는 데에 있다.
카메라 모듈은 대상(target) 또는 풍경(scenery)으로부터 대상 또는 풍경을 나타내는 이미지 데이터를 생성할 수 있다. 스마트폰, 스마트패드 등과 같은 모바일 장치들의 성능들이 향상되면서, 모바일 장치들에 카메라 모듈들이 채용되고 있다. 모바일 장치들에 채용된 카메라 모듈들은 이미지 데이터를 생성함으로써, 이미지 기반 콘텐츠를 제작하는데 사용될 수 있다.
향상된 품질의 이미지 데이터를 생성하기 위하여, 카메라 모듈에 오토 포커싱(auto focusing)의 기능이 구현될 수 있다. 오토 포커싱은 카메라 모듈의 이미지 센서의 광 검출기들 중에서 좌안에 해당하는 광 검출기(들)와 우안에 해당하는 광 검출기(들)로부터 생성되는 신호들에 기반하여, 대상 또는 풍경에 대응하는 초점을 결정하는 것을 포함할 수 있다.
그러나 대상 또는 풍경으로부터 입사되는 광의 세기가 광 검출기(들)로부터 생성되는 신호들을 포화시키면, 오토 포커싱에서 오류가 발생할 수 있다.
본 발명의 목적은 오토 포커싱을 위한 신호가 포화되는 것을 방지하는 카메라 모듈 및 카메라 모듈의 동작 방법을 제공하는 데에 있다.
본 발명의 실시 예에 따른 카메라 모듈은 하나의 행으로 배열된 픽셀들을 포함하고, 픽셀들의 각각은 제1 서브 픽셀, 제2 서브 픽셀, 제3 서브 픽셀 및 제4 서브 픽셀을 포함하는 픽셀 어레이, 행 라인들을 통해 픽셀들에 연결되는 행 드라이버, 열 라인들을 통해 픽셀들에 연결되고, 그리고 열 라인들의 신호들을 디지털 값들로 변환하는 아날로그-디지털 변환 회로, 그리고 로직 회로를 포함한다. 제1 서브 픽셀, 제2 서브 픽셀, 제3 서브 픽셀 및 제4 서브 픽셀의 각각은 제1 영역 및 제2 영역을 포함한다. 제1 영역 및 제2 영역의 각각은 광 검출기를 포함한다. 행 드라이버가 픽셀들 중 하나의 픽셀에 포함된 광 검출기들 중 절반보다 적은 광 검출기들의 신호들을 활성화하는 것에 응답하여, 아날로그-디지털 변환 회로는 제1 신호를 생성한다. 행 드라이버가 픽셀들 중 하나의 픽셀에 포함된 광 검출기들의 신호들을 비닝(binning)하는 것에 응답하여, 아날로그-디지털 변환 회로는 제2 신호를 생성한다. 로직 회로는 제1 신호에 기반하여 오토 포커스 신호를 생성한다.
복수의 픽셀들을 포함하고, 복수의 픽셀들은 복수의 서브 픽셀들을 포함하고, 그리고 복수의 서브 픽셀들의 각각은 복수의 광 검출기들을 포함하는 본 발명의 실시 예에 따른 카메라 모듈의 동작 방법은, 복수의 픽셀들 중 하나의 픽셀의 광 검출기들 중 절반보다 적은 광 검출기들로부터 신호를 수신하는 단계, 그리고 신호의 레벨이 제1 문턱보다 작은 것에 응답하여, 절반보다 적은 광 검출기들의 수를 증가시키는 단계를 포함한다. 신호에 기반하여 오토 포커싱이 수행된다.
본 발명의 실시 예에 따른 카메라 모듈은 제1 행에 배열된 제1 광 검출기, 제2 광 검출기, 제3 광 검출기 및 제4 광 검출기, 제2 행에 배열된 제5 광 검출기, 제6 광 검출기, 제7 광 검출기 및 제8 광 검출기, 제1 시간 구간에서 제1 내지 제8 광 검출기들 중 절반보다 수의 광 검출기들을 플로팅 확산 노드에 연결하고, 제2 시간 구간에서 제1 내지 제8 광 검출기들을 플로팅 확산 노드에 연결하고, 그리고 제3 시간 구간에서 제1 내지 제8 광 검출기들을 플로팅 확산 노드에 연결하는 행 드라이버, 그리고 제1 시간 구간에서 플로팅 확산 노드로부터 제1 신호를 생성하고, 제2 시간 구간에서 플로팅 확산 노드로부터 제2 신호를 생성하고, 그리고 제3 시간 구간에서 플로팅 확산 노드로부터 제3 신호를 생성하는 아날로그-디지털 변환 회로를 포함한다. 제1 신호는 오토 포커싱에 사용된다.
본 발명에 따르면, 카메라 모듈은 하나의 픽셀의 광 검출기들의 절반보다 적은 광 검출기들로 오토 포커싱을 위한 신호를 생성한다. 따라서, 오토 포커싱을 위한 신호가 포화되는 것을 방지하고, 그리고 높은 동적 범위(HDR)(High Dynamic Range)에서 오토 포커싱을 수행하는 카메라 모듈 및 카메라 모듈의 동작 방법이 제공된다.
도 1은 본 발명의 실시 예에 따른 카메라 모듈을 보여준다.
도 2는 본 발명의 실시 예에 따른 픽셀의 예를 보여준다.
도 3은 동일한 행에 속한 제1 내지 제3 픽셀들이 대응하는 행 라인의 라인들에 연결되는 제1 예를 보여준다.
도 4는 도 3의 배선 구조에 기반하여 카메라 모듈이 하나의 행의 픽셀들의 이미지 데이터를 캡처하는 예를 보여준다.
도 5는 동일한 행에 속한 제1 내지 제3 픽셀들이 대응하는 행 라인의 라인들에 연결되는 제2 예를 보여준다.
도 6은 도 5의 배선 구조에 기반하여 카메라 모듈이 하나의 행의 픽셀들의 이미지 데이터를 캡처하는 예를 보여준다.
도 7은 도 5의 배선 구조에 기반하여 디지털 HCG 오토 포커스 신호가 생성되는 제3 예의 다양한 케이스들을 보여준다.
도 8 내지 도 14는 동일한 행에 속한 제1 내지 제3 픽셀들이 대응하는 행 라인의 라인들에 연결되는 제3 내지 제9 예들을 보여준다.
도 15는 도 14의 배선 구조에 기반하여 디지털 HCG 오토 포커스 신호가 생성되는 제23 케이스를 보여준다.
도 16은 도 5, 그리고 도 8 내지 도 14 중 어느 하나의 배선 구조에 기반하여 카메라 모듈이 하나의 행의 픽셀들의 이미지 데이터를 캡처하는 예를 보여준다.
도 17은 도 5의 배선 구조로 구현된 카메라 모듈의 동작 방법의 예를 보여준다.
이하에서, 본 발명의 기술 분야에서 통상의 지식을 가진 자가 본 발명을 용이하게 실시할 수 있을 정도로, 본 발명의 실시 예들이 명확하고 상세하게 기재될 것이다.
도 1은 본 발명의 실시 예에 따른 카메라 모듈(100)을 보여준다. 도 1을 참조하면, 카메라 모듈(100)은 픽셀 어레이(110), 행 드라이버(120), 램프 신호 생성기(130)(RSG), 아날로그-디지털 변환 회로(140), 메모리 회로(150), 로직 회로(160), 그리고 타이밍 생성기(170)(TG)를 포함할 수 있다.
픽셀 어레이(110)는 행과 열을 따라 매트릭스 형태로 배치된 복수의 픽셀들(PX)을 포함할 수 있다. 복수의 픽셀들(PX)의 각각은 광 검출기들을 포함할 수 있다. 예를 들어, 광 검출기들은 포토 다이오드, 포토 트랜지스터, 포토 게이트, 또는 핀드 포토 다이오드(pinned photodiode) 등을 포함할 수 있다. 복수의 픽셀들(PX)의 각각은 광 검출기를 이용하여 광을 감지하고, 감지된 광의 양을 전기 신호, 예를 들어, 전압 또는 전류로 변환할 수 있다.
픽셀 어레이(110) 상에 컬러 필터 어레이(CFA)(Color Filter Array) 및 렌즈가 적층될 수 있다. 컬러 필터 어레이는 적색(R), 녹색(G) 및 청색(B)의 필터들을 포함할 수 있다. 복수의 픽셀들(PX)의 각각에 둘 이상의 서로 다른 컬러 필터들이 배치될 수 있다. 예를 들어, 복수의 픽셀들(PX)의 각각에 적어도 하나의 청색 컬러 필터, 적어도 하나의 적색 컬러 필터, 그리고 적어도 두 개의 녹색 컬러 필터들이 배치될 수 있다.
행 드라이버(120)는 제1 내지 제m 행 라인들(RL1~RLm)(m은 양의 정수)을 통해 픽셀 어레이(110)의 픽셀들(PX)의 행들에 각각 연결될 수 있다. 행 드라이버(120)는 타이밍 생성기(170)에 의해 생성된 어드레스 및/또는 제어 신호를 디코딩하여, 픽셀 어레이(110)의 제1 내지 제m 행 라인들(RL1~RLm)을 순차적으로 선택하고, 그리고 선택된 행 라인을 특정한 전압으로 구동할 수 있다. 예를 들어, 행 드라이버(120)는 선택된 행 라인을 광의 감지를 위해 적합한 전압으로 구동할 수 있다.
픽셀들(PX)의 행들에 연결되는 제1 내지 제m 행 라인들(RL1~RLm)의 각각은 둘 이상의 라인들을 포함할 수 있다. 둘 이상의 라인들은, 예를 들어 픽셀의 광 검출기들을 선택(또는 활성화)하기 위한 신호, 플로팅 확산 노드를 리셋하기 위한 신호, 컬럼 라인을 선택하기 위한 신호, 변환 이득(CG)(Conversion Gain)을 조절하기 위한 신호 등을 포함하는 다양한 신호들을 각각 전달할 수 있다.
램프 신호 생성기(130)는 램프 신호(RS)를 생성할 수 있다. 램프 신호 생성기(130)는 타이밍 생성기(170)의 제어 하에 동작할 수 있다. 예를 들어, 램프 신호 생성기(130)는 램프 인에이블 신호, 모드 신호 등과 같은 제어 신호 하에 동작할 수 있다. 램프 인에이블 신호가 활성화되는 것에 응답하여, 램프 신호 생성기(130)는 모드 신호에 기초하여 설정되는 기울기를 가지는 램프 신호를 생성할 수 있다. 예를 들어, 램프 신호 생성기(130)는 시간이 흐름에 따라 초기 레벨로부터 지속적으로 감소 또는 증가하는 램프 신호(RS)를 생성할 수 있다.
아날로그-디지털 변환 회로(140)는 제1 내지 제n 열 라인들(CL1~CLn)(n은 양의 정수)을 통해 픽셀 어레이(110)의 픽셀들(PX)의 열들에 각각 연결될 수 있다. 아날로그-디지털 변환 회로(140)는 제1 내지 제n 열 라인들(CL1~CLn)에 각각 연결되는 제1 내지 제n 아날로그-디지털 변환기들(AD1~ADn)을 포함할 수 있다. 제1 내지 제n 아날로그-디지털 변환기들(AD1~ADn)은 램프 신호 생성기(130)로부터 램프 신호(RS)를 공통으로 수신할 수 있다.
제1 내지 제n 아날로그-디지털 변환기들(AD1~ADn)은 제1 내지 제n 열 라인들(CL1~CLn)의 전압들(또는 전류들)을 램프 신호(RS)와 비교할 수 있다. 지속적으로 감소하는(또는 증가하는) 램프 신호(RS)가 제1 내지 제n 열 라인들(CL1~CLn)의 전압들(또는 전류들)보다 작아질 때(또는 커질 때)까지, 제1 내지 제n 아날로그-디지털 변환기들(AD1~ADn)은 카운트를 수행할 수 있다. 제1 내지 제n 아날로그-디지털 변환기들(AD1~ADn)은 카운트 값을 디지털 값으로 변환하여 출력할 수 있다. 즉, 제1 내지 제n 아날로그-디지털 변환기들(AD1~ADn)은 픽셀들(PX)로부터 제1 내지 제n 열 라인들(CL1~CLn)로 출력된 전압들(또는 전류들)의 크기(또는 양)에 대응하는 디지털 값들을 출력할 수 있다.
제1 내지 제n 아날로그-디지털 변환기들(AD1~ADn)의 각각은 적어도 두 개의 서브 변환기들을 포함할 수 있다. 서브 변환기들은 대응하는 열 라인에 공통으로 연결되고, 그리고 램프 신호(RS)를 공통으로 수신할 수 있다. 서브 변환기들은 동일한 해상도들 또는 서로 다른 해상도들을 가질 수 있다. 서브 변환기들은 서로 다른 타이밍들에 활성화되어, 대응하는 열 라인의 전압(또는 전류)을 디지털 값들(또는 디지털 신호들)로 변환할 수 있다.
메모리 회로(150)는 제1 내지 제n 아날로그-디지털 변환기들(AD1~ADn)에 각각 대응하는 제1 내지 제n 메모리들(M1~Mn)을 포함할 수 있다. 제1 내지 제n 메모리들(M1~Mn)은 제1 내지 제n 아날로그-디지털 변환기들(AD1~ADn)로부터 수신된 디지털 값들(또는 디지털 신호들)을 저장하고, 그리고 저장된 값들(또는 신호들)을 로직 회로(160)로 전달할 수 있다. 예를 들어, 제1 내지 제n 메모리들(M1~Mn)은 래치들 또는 메모리 셀들로 구현될 수 있다.
로직 회로(160)는 메모리 회로(150)로부터 디지털 값들(또는 디지털 신호들)을 수신할 수 있다. 로직 회로(160)는 디지털 값들(또는 디지털 신호들)에 기반하여 오토 포커싱을 수행할 수 있다. 예를 들어, 로직 회로(160)는 위상 검출(PD)(Phase Detection) 오토 포커싱을 수행할 수 있다. 로직 회로(160)는 오토 포커싱에 의해 보정된 디지털 값들(또는 디지털 신호들)을 이미지 데이터(ID)로 출력할 수 있다. 또는, 로직 회로(160)는 디지털 HCG 오토 포커스 신호 및 제2 디지털 HCG 오토 포커스 신호를 오토 포커싱을 위한 정보로서 출력할 수 있다.
타이밍 생성기(170)(TG)는 로직 회로(160)의 제어에 응답하여 카메라 모듈(100)이 동작하는 타이밍들을 제어할 수 있다. 타이밍 생성기(170)는 행 드라이버(120)가 제1 내지 제m 행 라인들(RL1~RLm)을 순차적으로 선택하는 타이밍들을 제어하고, 그리고 제1 내지 제m 행 라인들(RL1~RLm) 중 선택된 행 라인에 포함된 둘 이상의 라인들을 통해 신호들이 전달되는 타이밍들을 제어할 수 있다.
타이밍 생성기(170)는 램프 신호 생성기(130)가 램프 신호(RS)를 생성하고, 그리고 램프 신호를 초기화하는 타이밍들을 제어할 수 있다. 타이밍 생성기(170)는 제1 내지 제n 아날로그-디지털 변환기들(AD1~ADn)이 카운트 및 비교를 시작하는 타이밍들 및 제1 내지 제n 아날로그-디지털 변환기들(AD1~ADn)을 초기화하는 타이밍들을 제어할 수 있다.
도 2는 본 발명의 실시 예에 따른 픽셀(PX)의 예를 보여준다. 도 1 및 도 2를 참조하면, 픽셀(PX)은 제1 서브 픽셀(SP1), 제2 서브 픽셀(SP2), 제3 서브 픽셀(SP3) 및 제4 서브 픽셀(SP4)을 포함할 수 있다.
제1 내지 제4 서브 픽셀들(SP1~SP4)은 픽셀(PX)의 내부에서 행들 및 열들로 배열될 수 있다. 제1 서브 픽셀(SP1) 및 제2 서브 픽셀(SP2)은 동일한 행에 위치할 수 있다. 제3 서브 픽셀(SP3) 및 제4 서브 픽셀(SP4)은 동일한 행에 위치할 수 있다. 제1 서브 픽셀(SP1) 및 제3 서브 픽셀(SP3)은 동일한 열에 위치할 수 있다. 제2 서브 픽셀(SP2) 및 제4 서브 픽셀(SP4)은 동일한 열에 위치할 수 있다.
제1 내지 제4 서브 픽셀들(SP1~SP4)은 플로팅 확산 노드(FD)에 공통으로 연결될 수 있다. 제1 내지 제4 서브 픽셀들(SP1~SP4)의 각각은 제1 영역 및 제2 영역을 포함할 수 있다.
예를 들어, 제1 서브 픽셀(SP1)은 제1 영역(SP1_1) 및 제2 영역(SP1_2)을 포함할 수 있다. 제1 서브 픽셀(SP1)의 제1 영역(SP1_1)은 광 검출기(PD) 및 광 검출기(PD)를 선택적으로 활성화(예를 들어, 플로팅 확산 노드(FD)에 연결되어 신호를 전달하게)하는 전송 게이트(TG)를 포함할 수 있다. 전송 게이트(TG)는 전송 라인(TG1_1)의 신호에 응답하여 턴-온 또는 턴-오프 될 수 있다. 제1 서브 픽셀(SP1)의 제2 영역(SP1_2)은 광 검출기(PD) 및 광 검출기(PD)를 선택적으로 활성화(예를 들어, 플로팅 확산 노드(FD)에 연결)하는 전송 게이트(TG)를 포함할 수 있다. 전송 게이트(TG)는 전송 라인(TG1_2)의 신호에 응답하여 턴-온 또는 턴-오프 될 수 있다.
제2 서브 픽셀(SP2)은 제1 영역(SP2_1) 및 제2 영역(SP2_2)을 포함할 수 있다. 제2 서브 픽셀(SP2)의 제1 영역(SP2_1)은 광 검출기(PD) 및 광 검출기(PD)를 선택적으로 활성화(예를 들어, 플로팅 확산 노드(FD)에 연결)하는 전송 게이트(TG)를 포함할 수 있다. 전송 게이트(TG)는 전송 라인(TG2_1)의 신호에 응답하여 턴-온 또는 턴-오프 될 수 있다. 제2 서브 픽셀(SP2)의 제2 영역(SP2_2)은 광 검출기(PD) 및 광 검출기(PD)를 선택적으로 활성화(예를 들어, 플로팅 확산 노드(FD)에 연결)하는 전송 게이트(TG)를 포함할 수 있다. 전송 게이트(TG)는 전송 라인(TG2_2)의 신호에 응답하여 턴-온 또는 턴-오프 될 수 있다.
제3 서브 픽셀(SP3)은 제1 영역(SP3_1) 및 제2 영역(SP3_2)을 포함할 수 있다. 제3 서브 픽셀(SP3)의 제1 영역(SP3_1)은 광 검출기(PD) 및 광 검출기(PD)를 선택적으로 활성화(예를 들어, 플로팅 확산 노드(FD)에 연결)하는 전송 게이트(TG)를 포함할 수 있다. 전송 게이트(TG)는 전송 라인(TG3_1)의 신호에 응답하여 턴-온 또는 턴-오프 될 수 있다. 제3 서브 픽셀(SP3)의 제2 영역(SP3_2)은 광 검출기(PD) 및 광 검출기(PD)를 선택적으로 활성화(예를 들어, 플로팅 확산 노드(FD)에 연결)하는 전송 게이트(TG)를 포함할 수 있다. 전송 게이트(TG)는 전송 라인(TG3_2)의 신호에 응답하여 턴-온 또는 턴-오프 될 수 있다.
제4 서브 픽셀(SP4)은 제1 영역(SP4_1) 및 제2 영역(SP4_2)을 포함할 수 있다. 제4 서브 픽셀(SP4)의 제1 영역(SP4_1)은 광 검출기(PD) 및 광 검출기(PD)를 선택적으로 활성화(예를 들어, 플로팅 확산 노드(FD)에 연결)하는 전송 게이트(TG)를 포함할 수 있다. 전송 게이트(TG)는 전송 라인(TG4_1)의 신호에 응답하여 턴-온 또는 턴-오프 될 수 있다. 제4 서브 픽셀(SP4)의 제2 영역(SP4_2)은 광 검출기(PD) 및 광 검출기(PD)를 선택적으로 활성화(예를 들어, 플로팅 확산 노드(FD)에 연결)하는 전송 게이트(TG)를 포함할 수 있다. 전송 게이트(TG)는 전송 라인(TG4_2)의 신호에 응답하여 턴-온 또는 턴-오프 될 수 있다.
즉, 픽셀(PX)은 복수의 서브 픽셀들(예를 들어, SP1~SP4)을 포함할 수 있다. 복수의 서브 픽셀들(예를 들어, SP1~SP4)의 각각은 복수의 광 검출기들(PD)을 포함할 수 있다. 픽셀(PX)의 광 검출기들은 서로 독립적으로 플로팅 확산 노드(FD)에 전기적으로 연결되거나 또는 플로팅 확산 노드(FD)와 전기적으로 분리될 수 있다.
예시적으로, 제1 서브 픽셀(SP1)의 광 검출기들(PD)은 동일한 색의 컬러 필터에 대응할 수 있다. 제2 서브 픽셀(SP2)의 광 검출기들(PD)은 동일한 색의 컬러 필터에 대응할 수 있다. 제3 서브 픽셀(SP3)의 광 검출기들(PD)은 동일한 색의 컬러 필터에 대응할 수 있다. 제4 서브 픽셀(SP4)의 광 검출기들(PD)은 동일한 색의 컬러 필터에 대응할 수 있다.
제1 내지 제4 서브 픽셀들(SP1~SP1) 중 하나는 청색의 컬러 필터에 대응하고, 다른 하나는 적색의 컬러 필터에 대응하고, 그리고 나머지 두 개는 녹색의 컬러 필터에 대응할 수 있다. 도 2를 참조하여 설명된 픽셀(PX) 및 컬러 필터들은 테트라 셀(tetra cell)이라 불릴 수 있다.
제1 서브 픽셀(SP1)의 전송 라인들(TG1_1, TG1_2), 제2 서브 픽셀(SP2)의 전송 라인들(TG2_1, TG2_2), 제3 서브 픽셀(SP3)의 전송 라인들(TG3_1, TG3_2), 그리고 제4 서브 픽셀(SP4)의 전송 라인들(TG4_1, TG4_2)은 제1 내지 제m 행 라인들(RL1~RLm) 중 대응하는 행 라인(예를 들어, RL)에 연결될 수 있다. 예를 들어, 대응하는 행 라인(RL)은 둘 이상의 라인들을 포함할 수 있다. 둘 이상의 라인들의 각각은 픽셀(PX)의 전송 라인들(TG1_1, TG1_2, TG2_1, TG2_2, TG3_1, TG3_2, TG4_1, TG4_2) 중 적어도 하나에 연결될 수 있다.
픽셀(PX)은 픽셀 전압(VPIX)(예를 들어, 픽셀(PX)에 인가되는 전원 전압)이 인가되는 전원 노드와 플로팅 확산 노드(FD)의 사이에 직렬 연결되는 제1 트랜지스터(T1) 및 제2 트랜지스터(T2)를 더 포함할 수 있다.
제1 트랜지스터(T1)는 리셋 신호(RG)가 전달되는 게이트, 픽셀 전압(VPIX)이 인가되는 전원 노드에 연결된 제1단, 그리고 제2 트랜지스터(T2)에 연결되는 제2단을 포함할 수 있다. 제1 트랜지스터(T1)는 픽셀(PX)의 내부의 전압(또는 전류)을 리셋(또는 초기화)하는데 사용될 수 있다. 픽셀(PX)의 리셋(또는 초기화) 시에, 제1 트랜지스터(T1), 제2 트랜지스터(T2), 그리고 픽셀(PX)의 전송 게이트들(TG)이 턴-온 될 수 있다. 플로팅 확산 노드(FD)의 전압 및 광 검출기들(PD)의 전압들은 픽셀 전압(VPIX)으로 리셋(또는 초기화)될 수 있다.
제2 트랜지스터(T2)는 동적 변환 이득 신호(DCG)(Dynamic Conversion Gain signal)가 전달되는 게이트, 제1 트랜지스터(T1)에 연결되는 제1단, 그리고 플로팅 확산 노드(FD)에 연결되는 제2단을 포함할 수 있다. 제2 트랜지스터(T2)는 광 검출기들(PD)에 의해 생성된 전압들(또는 전류들)이 플로팅 확산 노드(FD)로 전달될 때의 이득을 조절할 수 있다. 예를 들어, 제2 트랜지스터(T2)가 턴-온 된 때에, 플로팅 확산 노드(FD)는 제1 트랜지스터(T1)와 마주한 영역까지 확장되며, 플로팅 확산 노드(FD)의 커패시턴스가 증가할 수 있다. 제2 트랜지스터(T2)가 턴-오프 된 때에, 플로팅 확산 노드(FD)는 제2 트랜지스터(T2)와 마주한 영역까지 감소되며, 플로팅 확산 노드(FD)의 커패시턴스가 감소할 수 있다.
플로팅 확산 노드(FD)의 커패시턴스가 증가하면, 광 검출기들(PD)에 의해 생성된 전압들(또는 전류들)이 플로팅 확산 노드(FD)로 전달될 때의 이득이 감소할 수 있다. 플로팅 확산 노드(FD)의 커패시턴스가 감소하면, 광 검출기들(PD)에 의해 생성된 전압들(또는 전류들)이 플로팅 확산 노드(FD)로 전달될 때의 이득이 증가할 수 있다. 제2 트랜지스터(T2)는 플로팅 확산 노드(FD)의 커패시턴스를 조절함으로써, 광 검출기들(PD)에 의해 감지되는 광의 세기의 범위를 동적으로 조절할 수 있다. 즉, 높은 동적 범위(HDR)(High Dynamic Range)가 달성될 수 있다.
옵션으로서, HDR을 향상하기 위하여, 플로팅 확산 노드(FD)에 제1 커패시터(CF1)가 추가로 연결될 수 있다. 또는, 옵션으로서, HDR을 향상하기 위하여, 제2 트랜지스터(T2)와 제1 트랜지스터(T1)의 사이에 제2 커패시터(CF2)가 추가로 연결될 수 있다.
픽셀(PX)은 제3 트랜지스터(T3) 및 제4 트랜지스터(T4)를 더 포함할 수 있다. 제3 트랜지스터(T3)는 플로팅 확산 노드(FD)에 연결되는 게이트, 픽셀 전압(VPIX)이 공급되는 전원 노드에 연결되는 제1단, 그리고 제4 트랜지스터(T4)에 연결되는 제2단을 포함할 수 있다. 제3 트랜지스터(T3)는 플로팅 확산 노드(FD)의 전압을 증폭하여 제4 트랜지스터(T4)로 전달하는 소스 팔로워 증폭기(source follower amplifier)로 기능할 수 있다.
제4 트랜지스터(T4)는 선택 신호(SEL)가 전달되는 게이트, 제3 트랜지스터(T3)에 연결되는 제1단, 그리고 제1 내지 제n 열 라인들(CL1~CLn) 중 대응하는 열 라인(CL)에 연결되는 제2단을 포함할 수 있다. 제4 트랜지스터(T4)는 제3 트랜지스터(T3)의 출력 신호, 예를 들어 전압 또는 전류를 대응하는 열 라인(CL)으로 전달할 수 있다.
예시적으로, 리셋 신호(RG), 동적 변환 이득 신호(DCG), 그리고 선택 신호(SEL)는 대응하는 행 라인의 라인들 중 서로 다른 라인들을 통해 전달될 수 있다.
도 3은 동일한 행에 속한 제1 내지 제3 픽셀들(PX1~PX3)이 대응하는 행 라인의 라인들에 연결되는 제1 예를 보여준다. 도면이 불필요하게 복잡해지는 것을 회피하기 위하여, 도 3에서 제1 내지 제4 서브 픽셀들(SP1~SP4)은 구별되지 않고, 제1 내지 제4 서브 픽셀들(SP1~SP4)의 제1 영역들(SP1_1, SP2_1, SP3_1, SP4_1) 및 제2 영역들(SP1_2, SP2_2, SP3_2, SP4_2)만이 도시된다.
또한, 제1 영역들(SP1_1, SP2_1, SP3_1, SP4_1)의 구성들 중에서 전송 라인들(TG1_1, TG2_1, TG3_1, TG4_1)만이 도시되고, 그리고 제2 영역들(SP1_2, SP2_2, SP3_2, SP4_2)의 구성들 중에서 전송 라인들(TG1_2, TG2_2, TG3_2, TG4_2)만이 도시된다.
도 1, 도 2 및 도 3을 참조하면, 하나의 행의 행 라인은 제1 내지 제5 라인들(L1~L5)을 포함할 수 있다. 제1 라인(L1)은 제1 내지 제3 픽셀들(PX1~PX3)의 제1 서브 픽셀들(SP1)의 제1 영역들(SP1_1)의 전송 라인들(TG1_1)에 연결되고, 그리고 제2 서브 픽셀들(SP2)의 제1 영역들(SP2_1)의 전송 라인들(TG2_1)에 연결될 수 있다. 제1 라인(L1)은 제1 및 제2 서브 픽셀들(SP1, SP2)의 제1 영역들(SP1_1, SP2_1), 예를 들어 좌측의 광 검출기들(PD)을 활성화할 수 있다.
제2 라인(L2)은 제1 내지 제3 픽셀들(PX1~PX3)의 제1 서브 픽셀들(SP1)의 제2 영역들(SP1_2)의 전송 라인들(TG1_2)에 연결되고, 그리고 제2 서브 픽셀들(SP2)의 제2 영역들(SP2_2)의 전송 라인들(TG2_2)에 연결될 수 있다. 제2 라인(L2)은 제1 및 제2 서브 픽셀들(SP1, SP2)의 제2 영역들(SP1_2, SP2_2), 예를 들어 우측의 광 검출기들(PD)을 활성화할 수 있다.
제3 라인(L3)은 제1 내지 제3 픽셀들(PX1~PX3)의 제3 서브 픽셀들(SP3)의 제1 영역들(SP3_1)의 전송 라인들(TG3_1)에 연결되고, 그리고 제4 서브 픽셀들(SP4)의 제1 영역들(SP4_1)의 전송 라인들(TG4_1)에 연결될 수 있다. 제3 라인(L3)은 제3 및 제4 서브 픽셀들(SP3, SP4)의 제1 영역들(SP3_1, SP4_1), 예를 들어 좌측의 광 검출기들(PD)을 활성화할 수 있다.
제4 라인(L4)은 제1 내지 제3 픽셀들(PX1~PX3)의 제3 서브 픽셀들(SP3)의 제2 영역들(SP3_2)의 전송 라인들(TG3_2)에 연결되고, 그리고 제4 서브 픽셀들(SP4)의 제2 영역들(SP4_2)의 전송 라인들(TG4_2)에 연결될 수 있다. 제4 라인(L4)은 제3 및 제4 서브 픽셀들(SP3, SP4)의 제2 영역들(SP3_2, SP4_2), 예를 들어 우측의 광 검출기들(PD)을 활성화할 수 있다.
제5 라인들(L5)은 제1 내지 제3 픽셀들(PX1~PX3)에 공통으로 연결될 수 있다. 제5 라인들(L5)은 리셋 신호(RG)를 전달하는 라인, 동적 변환 이득 신호(DCG)를 전달하는 라인, 그리고 선택 신호(SEL)를 전달하는 라인을 포함할 수 있다.
도 4는 도 3의 배선 구조에 기반하여 카메라 모듈(100)이 하나의 행의 픽셀들(PX1~PX3)의 이미지 데이터(ID)를 캡처하는 예를 보여준다. 예시적으로, 도 4에 도시된 예에 선행하여, 리셋 및 노출이 선행될 수 있다. 리셋은 픽셀들(PX)의 행들 중 선택된 하나의 행의 픽셀들(PX)의 광 검출기들(PD) 및 플로팅 확산 노드(FD)를 픽셀 전압(VPIX)으로 리셋(또는 초기화)하는 것을 포함할 수 있다. 노출(exposure)은 리셋 후에 정해진 시간 동안 광 검출기들(PD)이 입사광에 응답하여 신호들을 생성하는 시간 구간을 포함할 수 있다.
도 1, 도 2, 도 3 및 도 4를 참조하면, 하나의 행이 픽셀들(PX1~PX3)의 이미지 데이터(ID)를 캡처하는 과정은 제1 내지 제5 시간 구간들(TI1~TI5)에 의해 수행될 수 있다.
제1 시간 구간(TI1)은 낮은 변환 이득(LCG)(Low Conversion Gain)의 리셋 구간에 대응할 수 있다. 제1 내지 제4 라인들(L1~L4)의 신호들은 비활성 상태(예를 들어, 로우 레벨)로 유지되며, 픽셀들(PX1~PX3)의 광 검출기들(PD)은 플로팅 확산 노드(FD)로 신호를 출력하지 않을 수 있다. 동적 변환 이득 신호(DCG)는 활성 상태(예를 들어, 하이 레벨)를 유지할 수 있다.
각 열 라인(CL)에 연결된 서브 변환기들 중 제1 서브 변환기는 광 검출기들(PD)의 출력들이 없는 때의 각 열 라인(CL)의 신호, 예를 들어 LCG 잡음 신호를 램프 신호(RS)에 기반하여 디지털 값(또는 디지털 신호)(예를 들어, 디지털 LCG 잡음 신호)으로 변환할 수 있다. 제1 예(E1)로 도시된 바와 같이, 각 픽셀의 8개의 광 검출기들(PD)의 출력 신호들은 캡처되지 않으며, 따라서 각 픽셀의 8개의 광 검출기들(PD)에 대응하는 8개의 박스들은 비워진 것으로 도시된다.
제2 시간 구간(TI2)은 높은 변환 이득(HCG)(High Conversion Gain)의 리셋 구간에 대응할 수 있다. 제1 내지 제4 라인들(L1~L4)의 신호들은 비활성 상태(예를 들어, 로우 레벨)로 유지되며, 픽셀들(PX1~PX3)의 광 검출기들(PD)은 플로팅 확산 노드(FD)로 신호를 출력하지 않을 수 있다. 동적 변환 이득 신호(DCG)는 비활성 상태(예를 들어, 로우 레벨)를 유지할 수 있다.
각 열 라인(CL)에 연결된 서브 변환기들 중 제2 서브 변환기는 광 검출기들(PD)의 출력들이 없는 때의 각 열 라인(CL)의 신호, 예를 들어 HCG 잡음 신호를 램프 신호(RS)에 기반하여 디지털 값(또는 디지털 신호)(예를 들어, 디지털 HCG 잡음 신호)으로 변환할 수 있다. 제2 예(E2)로 도시된 바와 같이, 각 픽셀의 8개의 광 검출기들(PD)의 출력 신호들은 캡처되지 않으며, 따라서 각 픽셀의 8개의 광 검출기들(PD)에 대응하는 8개의 박스들은 비워진 것으로 도시된다.
제3 시간 구간(TI3)은 HCG의 제1 신호 캡처 구간에 대응할 수 있다. 제3 시간 구간(TI3) 동안, 카메라 모듈(100)은 오토 포커싱에 필요한 신호를 캡처할 수 있다. 제1 및 제3 라인들(L1, L3)의 신호들은 비활성 상태(예를 들어, 로우 레벨)로부터 활성 상태(예를 들어, 하이 레벨)로 천이하고, 그리고 활성 상태로부터 비활성 상태로 천이할 수 있다. 제2 및 제4 라인들(L2, L4)의 신호들은 비활성 상태를 유지할 수 있다. 동적 변환 이득 신호(DCG)는 비활성 상태(예를 들어, 로우 레벨)를 유지할 수 있다. 각 픽셀(PX)의 제1 내지 제4 서브 픽셀들(SP1~SP4)의 제1 영역들(SP1_1, SP2_1, SP3_1, SP4_1)의 광 검출기들(PD)의 출력들은 플로팅 확산 노드(FD)에서 비닝(binning)될 수 있다.
각 열 라인(CL)에 연결된 서브 변환기들 중 제2 서브 변환기는 제1 내지 제4 서브 픽셀들(SP1~SP4)의 제1 영역들(SP1_1, SP2_1, SP3_1, SP4_1)의 광 검출기들(PD)의 출력들에 대응하는 각 열 라인(CL)의 신호, 예를 들어 HCG 오토 포커스 신호를 램프 신호(RS)에 기반하여 디지털 값(또는 디지털 신호)(예를 들어, 디지털 HCG 오토 포커스 신호)으로 변환할 수 있다. 제3 예(E3)로 도시된 바와 같이, 각 서브 픽셀의 제1 영역의 광 검출기들(PD)의 출력 신호들이 캡처되며, 따라서 각 서브 픽셀의 제1 영역의 광 검출기들(PD)에 대응하는 4개의 박스들은 사선으로 채워지고, 그리고 나머지 박스들은 비워진 것으로 도시된다.
예시적으로, 각 열 라인(CL)에 연결된 제2 서브 변환기들은 디지털 HCG 오토 포커스 신호로부터 디지털 HCG 잡음 신호의 절반을 감함으로써, 디지털 HCG 오토 포커스 신호로부터 잡음 성분을 제거할 수 있다.
제4 시간 구간(TI4)은 HCG의 제2 신호 캡처 구간에 대응할 수 있다. 제4 시간 구간(TI4) 동안, 카메라 모듈(100)은 높은 변환 이득(HCG)의 이미지 신호를 캡처할 수 있다. 제1 내지 제4 라인들(L1~L4)의 신호들은 비활성 상태(예를 들어, 로우 레벨)로부터 활성 상태(예를 들어, 하이 레벨)로 천이하고, 그리고 활성 상태로부터 비활성 상태로 천이할 수 있다. 동적 변환 이득 신호(DCG)는 비활성 상태(예를 들어, 로우 레벨)를 유지할 수 있다. 각 픽셀(PX)의 광 검출기들(PD)의 출력들은 플로팅 확산 노드(FD)에서 비닝(binning)될 수 있다.
각 열 라인(CL)에 연결된 서브 변환기들 중 제2 서브 변환기는 제1 내지 제4 서브 픽셀들(SP1~SP4)의 광 검출기들(PD)의 출력들에 대응하는 각 열 라인(CL)의 신호, 예를 들어 HCG 합 신호를 램프 신호(RS)에 기반하여 디지털 값(또는 디지털 신호)(예를 들어, 디지털 HCG 합 신호)으로 변환할 수 있다. 제4 예(E4)로 도시된 바와 같이, 각 픽셀의 광 검출기들(PD)의 출력 신호들이 캡처되며, 따라서 각 픽셀의 광 검출기들(PD)에 대응하는 8개의 박스들은 사선으로 채워진 것으로 도시된다.
예시적으로, 각 열 라인(CL)에 연결된 제2 서브 변환기들은 디지털 HCG 합 신호로부터 디지털 HCG 잡음 신호를 감함으로써, 디지털 HCG 합 신호로부터 잡음 성분을 제거할 수 있다.
예시적으로, 로직 회로(160)는 디지털 HCG 합 신호로부터 디지털 HCG 오토 포커스 신호를 감함으로써, 제2 디지털 HCG 오토 포커스 신호를 생성할 수 있다. 로직 회로(160)는 디지털 HCG 오토 포커스 신호 및 제2 디지털 HCG 오토 포커스 신호에 기반하여 위상 검출 오토 포커싱을 수행할 수 있다. 또는, 로직 회로(160)는 디지털 HCG 오토 포커스 신호 및 제2 디지털 HCG 오토 포커스 신호를 오토 포커싱을 위한 정보로서 출력할 수 있다.
제5 시간 구간(TI5)은 LCG의 신호 캡처 구간에 대응할 수 있다. 제5 시간 구간(TI5) 동안, 카메라 모듈(100)은 낮은 변환 이득(LCG)의 이미지 신호를 캡처할 수 있다. 제1 내지 제4 라인들(L1~L4)의 신호들은 비활성 상태(예를 들어, 로우 레벨)로부터 활성 상태(예를 들어, 하이 레벨)로 천이하고, 그리고 활성 상태로부터 비활성 상태로 천이할 수 있다. 동적 변환 이득 신호(DCG)는 활성 상태(예를 들어, 하이 레벨)를 유지할 수 있다. 각 픽셀(PX)의 광 검출기들(PD)의 출력들은 플로팅 확산 노드(FD)에서 비닝(binning)될 수 있다.
각 열 라인(CL)에 연결된 서브 변환기들 중 제1 서브 변환기는 제1 내지 제4 서브 픽셀들(SP1~SP4)의 광 검출기들(PD)의 출력들에 대응하는 각 열 라인(CL)의 신호, 예를 들어 LCG 합 신호를 램프 신호(RS)에 기반하여 디지털 값(또는 디지털 신호)(예를 들어, 디지털 LCG 합 신호)으로 변환할 수 있다. 제5 예(E5)로 도시된 바와 같이, 각 픽셀의 광 검출기들(PD)의 출력 신호들이 캡처되며, 따라서 각 픽셀의 광 검출기들(PD)에 대응하는 8개의 박스들은 사선으로 채워진 것으로 도시된다.
예시적으로, 각 열 라인(CL)에 연결된 제1 서브 변환기들은 디지털 LCG 합 신호로부터 디지털 LCG 잡음 신호를 감함으로써, 디지털 LCG 합 신호로부터 잡음 성분을 제거할 수 있다.
도 4를 참조하여 설명된 바와 같이, 카메라 모듈(100)은 각 픽셀(PX)에 속한 모든 광 검출기들(PD)을 이용하여 오토 포커싱을 수행할 수 있다. 그러나 제3 시간 구간(TI3)에서 각 서브 픽셀의 제1 영역으로부터 플로팅 확산 노드(FD)로 전달되는 신호의 세기가 플로팅 확산 노드(FD)의 용량(예를 들어, 커패시턴스)보다 클 때, 디지털 HCG 오토 포커스 신호는 포화될 수 있다. 디지털 HCG 오토 포커스 신호가 포화되면, 카메라 모듈(100)은 오토 포커싱에 실패할 수 있다.
도 5는 동일한 행에 속한 제1 내지 제3 픽셀들(PX1~PX3)이 대응하는 행 라인의 라인들에 연결되는 제2 예를 보여준다. 도 3에 도시된 제1 예와 유사하게, 도면이 불필요하게 복잡해지는 것을 회피하기 위하여, 제1 내지 제3 픽셀들(PX1~PX3)의 일부 구성들이 생략되어 도시된다.
도 1, 도 2 및 도 5를 참조하면, 하나의 행의 행 라인은 제1 내지 제9 라인들(L1~L9)을 포함할 수 있다. 제1 라인(L1)은 제1 내지 제3 픽셀들(PX1~PX3)의 제1 서브 픽셀들(SP1)의 제1 영역들(SP1_1)의 전송 라인들(TG1_1)에 연결될 수 있다. 제1 라인(L1)은 제1 서브 픽셀들(SP1)의 제1 영역들(SP1_1), 예를 들어 좌측의 광 검출기들(PD)을 활성화할 수 있다.
제2 라인(L2)은 제1 내지 제3 픽셀들(PX1~PX3)의 제1 서브 픽셀들(SP1)의 제2 영역들(SP1_2)의 전송 라인들(TG1_2)에 연결될 수 있다. 제2 라인(L2)은 제1 서브 픽셀들(SP1)의 제2 영역들(SP1_2), 예를 들어 우측의 광 검출기들(PD)을 활성화할 수 있다.
제3 라인(L3)은 제1 내지 제3 픽셀들(PX1~PX3)의 제2 서브 픽셀들(SP2)의 제1 영역들(SP2_1)의 전송 라인들(TG2_1)에 연결될 수 있다. 제3 라인(L3)은 제2 서브 픽셀들(SP2)의 제1 영역들(SP2_1), 예를 들어 좌측의 광 검출기들(PD)을 활성화할 수 있다.
제4 라인(L4)은 제1 내지 제3 픽셀들(PX1~PX3)의 제2 서브 픽셀들(SP2)의 제2 영역들(SP2_2)의 전송 라인들(TG2_2)에 연결될 수 있다. 제4 라인(L4)은 제2 서브 픽셀들(SP2)의 제2 영역들(SP2_2), 예를 들어 우측의 광 검출기들(PD)을 활성화할 수 있다.
제5 라인(L5)은 제1 내지 제3 픽셀들(PX1~PX3)의 제3 서브 픽셀들(SP3)의 제1 영역들(SP3_1)의 전송 라인들(TG3_1)에 연결될 수 있다. 제5 라인(L5)은 제3 서브 픽셀들(SP3)의 제1 영역들(SP3_1), 예를 들어 좌측의 광 검출기들(PD)을 활성화할 수 있다.
제6 라인(L6)은 제1 내지 제3 픽셀들(PX1~PX3)의 제3 서브 픽셀들(SP3)의 제2 영역들(SP3_2)의 전송 라인들(TG3_2)에 연결될 수 있다. 제6 라인(L6)은 제3 서브 픽셀들(SP3)의 제2 영역들(SP3_2), 예를 들어 우측의 광 검출기들(PD)을 활성화할 수 있다.
제7 라인(L7)은 제1 내지 제3 픽셀들(PX1~PX3)의 제4 서브 픽셀들(SP4)의 제1 영역들(SP4_1)의 전송 라인들(TG4_1)에 연결될 수 있다. 제7 라인(L7)은 제4 서브 픽셀들(SP4)의 제1 영역들(SP4_1), 예를 들어 좌측의 광 검출기들(PD)을 활성화할 수 있다.
제8 라인(L8)은 제1 내지 제3 픽셀들(PX1~PX3)의 제4 서브 픽셀들(SP4)의 제2 영역들(SP4_2)의 전송 라인들(TG4_2)에 연결될 수 있다. 제8 라인(L8)은 제4 서브 픽셀들(SP4)의 제2 영역들(SP4_2), 예를 들어 우측의 광 검출기들(PD)을 활성화할 수 있다.
제9 라인들(L9)은 제1 내지 제3 픽셀들(PX1~PX3)에 공통으로 연결될 수 있다. 제9 라인들(L9)은 리셋 신호(RG)를 전달하는 라인, 동적 변환 이득 신호(DCG)를 전달하는 라인, 그리고 선택 신호(SEL)를 전달하는 라인을 포함할 수 있다.
도 3의 예와 비교하면, 도 5의 예에서 각 픽셀의 광 검출기들은 서로 독립적인 전송 라인들에 의해 활성화 또는 비활성화될 수 있다. 따라서, 도 5의 예에 따라 구현된 카메라 모듈(100)은 다양한 형태로 디지털 HCG 오토 포커스 신호를 캡처할 수 있다.
도 6은 도 5의 배선 구조에 기반하여 카메라 모듈(100)이 하나의 행의 픽셀들(PX1~PX3)의 이미지 데이터(ID)를 캡처하는 예를 보여준다. 도 1, 도 2, 도 5 및 도 6을 참조하면, 카메라 모듈(100)은 제1 내지 제5 시간 구간들(TI1~TI5)에 기반하여 하나의 행의 픽셀들(PX1~PX3)의 이미지 데이터를 캡처할 수 있다.
예시적으로, 도 4를 참조하여 설명된 바와 같이, 도 6의 제1 내지 제5 시간 구간들(TI1~TI5)에 선행하여 리셋 및 노출이 수행될 수 있다. 제1 시간 구간(TI1), 제2 시간 구간(TI2), 제4 시간 구간(TI4) 및 제5 시간 구간(TI5)은 도 4를 참조하여 설명된 것과 동일하게 수행될 수 있다. 따라서, 중복되는 설명은 생략된다.
제3 시간 구간(TI3)에서, 제1 라인(L1)의 신호는 비활성 상태(예를 들어, 로우 레벨)로부터 활성 상태(예를 들어, 하이 레벨)로 천이하고, 그리고 활성 상태로부터 비활성 상태로 천이할 수 있다. 제2 내지 제4 라인들(L2~L4)의 신호들은 비활성 상태를 유지할 수 있다. 동적 변환 이득 신호(DCG)는 비활성 상태(예를 들어, 로우 레벨)를 유지할 수 있다.
각 열 라인(CL)에 연결된 서브 변환기들 중 제2 서브 변환기는 제1 서브 픽셀(SP1)의 제1 영역(SP1_1)의 광 검출기(PD)의 출력들에 대응하는 각 열 라인(CL)의 신호, 예를 들어 HCG 오토 포커스 신호를 램프 신호(RS)에 기반하여 디지털 값(또는 디지털 신호)(예를 들어, 디지털 HCG 오토 포커스 신호)으로 변환할 수 있다. 제3 예(E3)로 도시된 바와 같이, 제1 서브 픽셀(SP1)의 제1 영역(SP1_1)의 광 검출기(PD)의 출력 신호가 캡처되며, 따라서 제1 서브 픽셀(SP1)의 제1 영역(SP1_1)의 광 검출기(PD)에 대응하는 1개의 박스는 사선으로 채워지고, 그리고 나머지 7개의 박스들은 비워진 것으로 도시된다.
예시적으로, 각 열 라인(CL)에 연결된 제2 서브 변환기들은 디지털 HCG 오토 포커스 신호로부터 디지털 HCG 잡음 신호의 절반을 감함으로써, 디지털 HCG 오토 포커스 신호로부터 잡음 성분을 제거할 수 있다.
도 4의 제3 예(E3)와 비교하면, 도 6의 제3 예(E3)에서 디지털 HCG 오토 포커스 신호는 8개의 광 검출기들(PD) 중 하나의 광 검출기(PD)의 출력으로부터 생성된다. 따라서, 디지털 HCG 오토 포커스 신호가 포화되는 것이 방지될 수 있다.
도 7은 도 5의 배선 구조에 기반하여 디지털 HCG 오토 포커스 신호가 생성되는 제3 예(E3)의 다양한 케이스들을 보여준다. 도 1, 도 2, 도 5, 도 6 및 도 7을 참조하면, 제1 내지 제11 케이스들(C1~C11)에서, 카메라 모듈(100)은 각 픽셀(PX)의 적어도 하나의 서브 픽셀의 제1 영역의 광 검출기(들)(PD)을 이용하여 디지털 HCG 오토 포커스 신호를 생성할 수 있다.
제1 내지 제4 케이스들(C1~C4)에서, 카메라 모듈(100)은 각 픽셀(PX)의 광 검출기들(PD) 중 하나의 광 검출기를 이용하여 디지털 HCG 오토 포커스 신호를 생성할 수 있다.
제1 케이스(C1)에서, 카메라 모듈(100)은 각 픽셀(PX)의 제1 서브 픽셀(SP1)의 제1 영역(SP1_1)(예를 들어, 상부 행의 좌측 서브 픽셀의 좌측)의 광 검출기(PD)의 출력 신호로부터 디지털 HCG 오토 포커스 신호를 생성할 수 있다. 제3 시간 구간(TI3)에서, 제1 라인(L1)의 신호가 비활성 상태(예를 들어, 로우 레벨)로부터 활성 상태(예를 들어, 하이 레벨)로 천이하고, 그리고 활성 상태로부터 비활성 상태로 천이할 수 있다.
제2 케이스(C2)에서, 카메라 모듈(100)은 각 픽셀(PX)의 제2 서브 픽셀(SP2)의 제1 영역(SP2_1)(예를 들어, 상부 행의 우측 서브 픽셀의 좌측)의 광 검출기(PD)의 출력 신호로부터 디지털 HCG 오토 포커스 신호를 생성할 수 있다. 제3 시간 구간(TI3)에서, 제3 라인(L3)의 신호가 비활성 상태(예를 들어, 로우 레벨)로부터 활성 상태(예를 들어, 하이 레벨)로 천이하고, 그리고 활성 상태로부터 비활성 상태로 천이할 수 있다.
제3 케이스(C3)에서, 카메라 모듈(100)은 각 픽셀(PX)의 제3 서브 픽셀(SP3)의 제1 영역(SP3_1)(예를 들어, 하부 행의 좌측 서브 픽셀의 좌측)의 광 검출기(PD)의 출력 신호로부터 디지털 HCG 오토 포커스 신호를 생성할 수 있다. 제3 시간 구간(TI3)에서, 제5 라인(L5)의 신호가 비활성 상태(예를 들어, 로우 레벨)로부터 활성 상태(예를 들어, 하이 레벨)로 천이하고, 그리고 활성 상태로부터 비활성 상태로 천이할 수 있다.
제4 케이스(C4)에서, 카메라 모듈(100)은 각 픽셀(PX)의 제4 서브 픽셀(SP4)의 제1 영역(SP4_1)(예를 들어, 하부 행의 우측 서브 픽셀의 좌측)의 광 검출기(PD)의 출력 신호로부터 디지털 HCG 오토 포커스 신호를 생성할 수 있다. 제3 시간 구간(TI3)에서, 제7 라인(L7)의 신호가 비활성 상태(예를 들어, 로우 레벨)로부터 활성 상태(예를 들어, 하이 레벨)로 천이하고, 그리고 활성 상태로부터 비활성 상태로 천이할 수 있다.
제5 내지 제10 케이스들(C1~C10)에서, 카메라 모듈(100)은 각 픽셀(PX)의 광 검출기들(PD) 중 두 개의 광 검출기들(PD)을 이용하여 디지털 HCG 오토 포커스 신호를 생성할 수 있다.
제5 케이스(C5)에서, 카메라 모듈(100)은 각 픽셀(PX)의 제1 서브 픽셀(SP1)의 제1 영역(SP1_1)(예를 들어, 상부 행의 좌측 서브 픽셀의 좌측)의 광 검출기(PD), 그리고 제3 서브 픽셀(SP3)의 제1 영역(SP3_1)(예를 들어, 하부 행의 좌측 서브 픽셀의 좌측)의 광 검출기(PD)의 출력 신호들로부터 디지털 HCG 오토 포커스 신호를 생성할 수 있다. 제3 시간 구간(TI3)에서, 제1 및 제5 라인들(L1, L5)의 신호들이 비활성 상태(예를 들어, 로우 레벨)로부터 활성 상태(예를 들어, 하이 레벨)로 천이하고, 그리고 활성 상태로부터 비활성 상태로 천이할 수 있다.
제6 케이스(C6)에서, 카메라 모듈(100)은 각 픽셀(PX)의 제2 서브 픽셀(SP2)의 제1 영역(SP2_1)(예를 들어, 상부 행의 우측 서브 픽셀의 좌측)의 광 검출기(PD), 그리고 제4 서브 픽셀(SP4)의 제1 영역(SP4_1)(예를 들어, 하부 행의 우측 서브 픽셀의 좌측)의 광 검출기(PD)의 출력 신호들로부터 디지털 HCG 오토 포커스 신호를 생성할 수 있다. 제3 시간 구간(TI3)에서, 제3 및 제7 라인들(L3, L7)의 신호들이 비활성 상태(예를 들어, 로우 레벨)로부터 활성 상태(예를 들어, 하이 레벨)로 천이하고, 그리고 활성 상태로부터 비활성 상태로 천이할 수 있다.
제7 케이스(C7)에서, 카메라 모듈(100)은 각 픽셀(PX)의 제1 서브 픽셀(SP1)의 제1 영역(SP1_1)(예를 들어, 상부 행의 좌측 서브 픽셀의 좌측)의 광 검출기(PD), 그리고 제2 서브 픽셀(SP2)의 제1 영역(SP2_1)(예를 들어, 상부 행의 우측 서브 픽셀의 좌측)의 광 검출기(PD)의 출력 신호들로부터 디지털 HCG 오토 포커스 신호를 생성할 수 있다. 제3 시간 구간(TI3)에서, 제1 및 제3 라인들(L1, L3)의 신호들이 비활성 상태(예를 들어, 로우 레벨)로부터 활성 상태(예를 들어, 하이 레벨)로 천이하고, 그리고 활성 상태로부터 비활성 상태로 천이할 수 있다.
제8 케이스(C8)에서, 카메라 모듈(100)은 각 픽셀(PX)의 제3 서브 픽셀(SP3)의 제1 영역(SP3_1)(예를 들어, 하부 행의 좌측 서브 픽셀의 좌측)의 광 검출기(PD), 그리고 제4 서브 픽셀(SP4)의 제1 영역(SP4_1)(예를 들어, 하부 행의 우측 서브 픽셀의 좌측)의 광 검출기(PD)의 출력 신호들로부터 디지털 HCG 오토 포커스 신호를 생성할 수 있다. 제3 시간 구간(TI3)에서, 제5 및 제7 라인들(L5, L7)의 신호들이 비활성 상태(예를 들어, 로우 레벨)로부터 활성 상태(예를 들어, 하이 레벨)로 천이하고, 그리고 활성 상태로부터 비활성 상태로 천이할 수 있다.
제9 케이스(C9)에서, 카메라 모듈(100)은 각 픽셀(PX)의 제1 서브 픽셀(SP1)의 제1 영역(SP1_1)(예를 들어, 상부 행의 좌측 서브 픽셀의 좌측)의 광 검출기(PD), 그리고 제4 서브 픽셀(SP4)의 제1 영역(SP4_1)(예를 들어, 하부 행의 우측 서브 픽셀의 좌측)의 광 검출기(PD)의 출력 신호들로부터 디지털 HCG 오토 포커스 신호를 생성할 수 있다. 제3 시간 구간(TI3)에서, 제1 및 제7 라인들(L1, L7)의 신호들이 비활성 상태(예를 들어, 로우 레벨)로부터 활성 상태(예를 들어, 하이 레벨)로 천이하고, 그리고 활성 상태로부터 비활성 상태로 천이할 수 있다.
제10 케이스(C10)에서, 카메라 모듈(100)은 각 픽셀(PX)의 제2 서브 픽셀(SP2)의 제1 영역(SP2_1)(예를 들어, 상부 행의 우측 서브 픽셀의 좌측)의 광 검출기(PD), 그리고 제3 서브 픽셀(SP3)의 제1 영역(SP3_1)(예를 들어, 하부 행의 좌측 서브 픽셀의 좌측)의 광 검출기(PD)의 출력 신호들로부터 디지털 HCG 오토 포커스 신호를 생성할 수 있다. 제3 시간 구간(TI3)에서, 제3 및 제5 라인들(L3, L5)의 신호들이 비활성 상태(예를 들어, 로우 레벨)로부터 활성 상태(예를 들어, 하이 레벨)로 천이하고, 그리고 활성 상태로부터 비활성 상태로 천이할 수 있다.
제11 케이스(C11)에서, 카메라 모듈(100)은 각 픽셀(PX)의 광 검출기들(PD) 중 네 개(예를 들어, 절반)의 광 검출기들(PD)을 이용하여 디지털 HCG 오토 포커스 신호를 생성할 수 있다. 카메라 모듈(100)은 제1 내지 제4 서브 픽셀들(SP1~SP4)의 제1 영역들(SP1_1~SP4_1)(예를 들어, 모든 서브 픽셀들의 좌측)의 광 검출기들(PD)의 출력 신호들로부터 디지털 HCG 오토 포커스 신호를 생성할 수 있다. 제3 시간 구간(TI3)에서, 제1, 제3, 제5 및 제7 라인들(L1, L3, L5, L7)의 신호들이 비활성 상태(예를 들어, 로우 레벨)로부터 활성 상태(예를 들어, 하이 레벨)로 천이하고, 그리고 활성 상태로부터 비활성 상태로 천이할 수 있다.
제12 내지 제22 케이스들(C12~C22)에서, 카메라 모듈(100)은 각 픽셀(PX)의 적어도 하나의 서브 픽셀의 제2 영역의 광 검출기(들)(PD)을 이용하여 디지털 HCG 오토 포커스 신호를 생성할 수 있다.
제12 내지 제15 케이스들(C12~C15)에서, 카메라 모듈(100)은 각 픽셀(PX)의 광 검출기들(PD) 중 하나의 광 검출기를 이용하여 디지털 HCG 오토 포커스 신호를 생성할 수 있다.
제12 케이스(C12)에서, 카메라 모듈(100)은 각 픽셀(PX)의 제1 서브 픽셀(SP1)의 제2 영역(SP1_2)(예를 들어, 상부 행의 좌측 서브 픽셀의 우측)의 광 검출기(PD)의 출력 신호로부터 디지털 HCG 오토 포커스 신호를 생성할 수 있다. 제3 시간 구간(TI3)에서, 제2 라인(L2)의 신호가 비활성 상태(예를 들어, 로우 레벨)로부터 활성 상태(예를 들어, 하이 레벨)로 천이하고, 그리고 활성 상태로부터 비활성 상태로 천이할 수 있다.
제13 케이스(C13)에서, 카메라 모듈(100)은 각 픽셀(PX)의 제2 서브 픽셀(SP2)의 제2 영역(SP2_2)(예를 들어, 상부 행의 우측 서브 픽셀의 우측)의 광 검출기(PD)의 출력 신호로부터 디지털 HCG 오토 포커스 신호를 생성할 수 있다. 제3 시간 구간(TI3)에서, 제4 라인(L4)의 신호가 비활성 상태(예를 들어, 로우 레벨)로부터 활성 상태(예를 들어, 하이 레벨)로 천이하고, 그리고 활성 상태로부터 비활성 상태로 천이할 수 있다.
제14 케이스(C14)에서, 카메라 모듈(100)은 각 픽셀(PX)의 제3 서브 픽셀(SP3)의 제2 영역(SP3_2)(예를 들어, 하부 행의 좌측 서브 픽셀의 우측)의 광 검출기(PD)의 출력 신호로부터 디지털 HCG 오토 포커스 신호를 생성할 수 있다. 제3 시간 구간(TI3)에서, 제6 라인(L6)의 신호가 비활성 상태(예를 들어, 로우 레벨)로부터 활성 상태(예를 들어, 하이 레벨)로 천이하고, 그리고 활성 상태로부터 비활성 상태로 천이할 수 있다.
제15 케이스(C15)에서, 카메라 모듈(100)은 각 픽셀(PX)의 제4 서브 픽셀(SP4)의 제2 영역(SP4_2)(예를 들어, 하부 행의 우측 서브 픽셀의 우측)의 광 검출기(PD)의 출력 신호로부터 디지털 HCG 오토 포커스 신호를 생성할 수 있다. 제3 시간 구간(TI3)에서, 제8 라인(L8)의 신호가 비활성 상태(예를 들어, 로우 레벨)로부터 활성 상태(예를 들어, 하이 레벨)로 천이하고, 그리고 활성 상태로부터 비활성 상태로 천이할 수 있다.
제16 내지 제21 케이스들(C16~C21)에서, 카메라 모듈(100)은 각 픽셀(PX)의 광 검출기들(PD) 중 두 개의 광 검출기들(PD)을 이용하여 디지털 HCG 오토 포커스 신호를 생성할 수 있다.
제16 케이스(C16)에서, 카메라 모듈(100)은 각 픽셀(PX)의 제1 서브 픽셀(SP1)의 제2 영역(SP1_2)(예를 들어, 상부 행의 좌측 서브 픽셀의 우측)의 광 검출기(PD), 그리고 제3 서브 픽셀(SP3)의 제2 영역(SP3_2)(예를 들어, 하부 행의 좌측 서브 픽셀의 우측)의 광 검출기(PD)의 출력 신호들로부터 디지털 HCG 오토 포커스 신호를 생성할 수 있다. 제3 시간 구간(TI3)에서, 제2 및 제6 라인들(L2, L6)의 신호들이 비활성 상태(예를 들어, 로우 레벨)로부터 활성 상태(예를 들어, 하이 레벨)로 천이하고, 그리고 활성 상태로부터 비활성 상태로 천이할 수 있다.
제17 케이스(C17)에서, 카메라 모듈(100)은 각 픽셀(PX)의 제2 서브 픽셀(SP2)의 제2 영역(SP2_2)(예를 들어, 상부 행의 우측 서브 픽셀의 우측)의 광 검출기(PD), 그리고 제4 서브 픽셀(SP4)의 제2 영역(SP4_2)(예를 들어, 하부 행의 우측 서브 픽셀의 우측)의 광 검출기(PD)의 출력 신호들로부터 디지털 HCG 오토 포커스 신호를 생성할 수 있다. 제3 시간 구간(TI3)에서, 제4 및 제8 라인들(L4, L8)의 신호들이 비활성 상태(예를 들어, 로우 레벨)로부터 활성 상태(예를 들어, 하이 레벨)로 천이하고, 그리고 활성 상태로부터 비활성 상태로 천이할 수 있다.
제18 케이스(C18)에서, 카메라 모듈(100)은 각 픽셀(PX)의 제1 서브 픽셀(SP1)의 제2 영역(SP1_2)(예를 들어, 상부 행의 좌측 서브 픽셀의 우측)의 광 검출기(PD), 그리고 제2 서브 픽셀(SP2)의 제2 영역(SP2_2)(예를 들어, 상부 행의 우측 서브 픽셀의 우측)의 광 검출기(PD)의 출력 신호들로부터 디지털 HCG 오토 포커스 신호를 생성할 수 있다. 제3 시간 구간(TI3)에서, 제2 및 제4 라인들(L2, L4)의 신호들이 비활성 상태(예를 들어, 로우 레벨)로부터 활성 상태(예를 들어, 하이 레벨)로 천이하고, 그리고 활성 상태로부터 비활성 상태로 천이할 수 있다.
제19 케이스(C19)에서, 카메라 모듈(100)은 각 픽셀(PX)의 제3 서브 픽셀(SP3)의 제2 영역(SP3_2)(예를 들어, 하부 행의 좌측 서브 픽셀의 우측)의 광 검출기(PD), 그리고 제4 서브 픽셀(SP4)의 제2 영역(SP4_2)(예를 들어, 하부 행의 우측 서브 픽셀의 우측)의 광 검출기(PD)의 출력 신호들로부터 디지털 HCG 오토 포커스 신호를 생성할 수 있다. 제3 시간 구간(TI3)에서, 제6 및 제8 라인들(L6, L8)의 신호들이 비활성 상태(예를 들어, 로우 레벨)로부터 활성 상태(예를 들어, 하이 레벨)로 천이하고, 그리고 활성 상태로부터 비활성 상태로 천이할 수 있다.
제20 케이스(C20)에서, 카메라 모듈(100)은 각 픽셀(PX)의 제1 서브 픽셀(SP1)의 제2 영역(SP1_2)(예를 들어, 상부 행의 좌측 서브 픽셀의 우측)의 광 검출기(PD), 그리고 제4 서브 픽셀(SP4)의 제2 영역(SP4_2)(예를 들어, 하부 행의 우측 서브 픽셀의 우측)의 광 검출기(PD)의 출력 신호들로부터 디지털 HCG 오토 포커스 신호를 생성할 수 있다. 제3 시간 구간(TI3)에서, 제2 및 제8 라인들(L2, L8)의 신호들이 비활성 상태(예를 들어, 로우 레벨)로부터 활성 상태(예를 들어, 하이 레벨)로 천이하고, 그리고 활성 상태로부터 비활성 상태로 천이할 수 있다.
제21 케이스(C21)에서, 카메라 모듈(100)은 각 픽셀(PX)의 제2 서브 픽셀(SP2)의 제2 영역(SP2_2)(예를 들어, 상부 행의 우측 서브 픽셀의 우측)의 광 검출기(PD), 그리고 제3 서브 픽셀(SP3)의 제2 영역(SP3_2)(예를 들어, 하부 행의 좌측 서브 픽셀의 우측)의 광 검출기(PD)의 출력 신호들로부터 디지털 HCG 오토 포커스 신호를 생성할 수 있다. 제3 시간 구간(TI3)에서, 제4 및 제6 라인들(L4, L6)의 신호들이 비활성 상태(예를 들어, 로우 레벨)로부터 활성 상태(예를 들어, 하이 레벨)로 천이하고, 그리고 활성 상태로부터 비활성 상태로 천이할 수 있다.
제22 케이스(C22)에서, 카메라 모듈(100)은 각 픽셀(PX)의 광 검출기들(PD) 중 네 개(예를 들어, 절반)의 광 검출기들(PD)을 이용하여 디지털 HCG 오토 포커스 신호를 생성할 수 있다. 카메라 모듈(100)은 제1 내지 제4 서브 픽셀들(SP1~SP4)의 제1 영역들(SP1_1~SP4_1)(예를 들어, 모든 서브 픽셀들의 우측)의 광 검출기들(PD)의 출력 신호들로부터 디지털 HCG 오토 포커스 신호를 생성할 수 있다. 제3 시간 구간(TI3)에서, 제2, 제4, 제6 및 제8 라인들(L2, L4, L6, L8)의 신호들이 비활성 상태(예를 들어, 로우 레벨)로부터 활성 상태(예를 들어, 하이 레벨)로 천이하고, 그리고 활성 상태로부터 비활성 상태로 천이할 수 있다.
예시적으로, 카메라 모듈(100)은 각 픽셀(PX)에 속한 광 검출기들(PD)의 절반 이하, 또는 절반보다 적은 광 검출기들(PD)을 이용하여 디지털 HCG 오토 포커스 신호를 생성할 수 있다.
제1 그룹(G1)에 속한 제1 내지 제4 케이스들(C1~C4), 그리고 제12 내지 제15 케이스들(C12~C15)은 각 픽셀(PX)에 속한 광 검출기들 중 하나의 광 검출기(PD)의 출력 신호로부터 디지털 HCG 오토 포커스 신호를 생성할 수 있다.
로직 회로(160)는 디지털 HCG 합 신호로부터 디지털 HCG 오토 포커스 신호의 4배를 감함으로써, 제2 디지털 HCG 오토 포커스 신호를 생성할 수 있다. 또는, 로직 회로(160)는 디지털 LCG 합 신호로부터 디지털 HCG 오토 포커스 신호를 감함으로써 제2 디지털 HCG 오토 포커스 신호를 생성할 수 있다. 로직 회로(160)는 디지털 HCG 오토 포커스 회로 및 제2 디지털 HCG 오토 포커스 신호에 대해 위상 검출 오토 포커싱을 수행할 수 있다. 또는, 로직 회로(160)는 디지털 HCG 오토 포커스 신호 및 제2 디지털 HCG 오토 포커스 신호를 오토 포커싱을 위한 정보로서 출력할 수 있다.
제2 그룹(G2)에 속한 제5 내지 제10 케이스들(C5~C10), 그리고 제16 내지 제21 케이스들(C16~C21)은 각 픽셀(PX)에 속한 광 검출기들 중 두 개의 광 검출기들(PD)의 출력 신호들로부터 디지털 HCG 오토 포커스 신호를 생성할 수 있다.
로직 회로(160)는 디지털 HCG 합 신호로부터 디지털 HCG 오토 포커스 신호의 2배를 감함으로써, 제2 디지털 HCG 오토 포커스 신호를 생성할 수 있다. 또는, 로직 회로(160)는 디지털 LCG 합 신호로부터 디지털 HCG 오토 포커스 신호의 절반을 감함으로써 제2 디지털 HCG 오토 포커스 신호를 생성할 수 있다. 로직 회로(160)는 디지털 HCG 오토 포커스 회로 및 제2 디지털 HCG 오토 포커스 신호에 대해 위상 검출 오토 포커싱을 수행할 수 있다. 또는, 로직 회로(160)는 디지털 HCG 오토 포커스 신호 및 제2 디지털 HCG 오토 포커스 신호를 오토 포커싱을 위한 정보로서 출력할 수 있다.
도 8은 동일한 행에 속한 제1 내지 제3 픽셀들(PX1~PX3)이 대응하는 행 라인의 라인들에 연결되는 제3 예를 보여준다. 예시적으로, 도 8의 배선 구조로 구현된 카메라 모듈(100)은 도 7의 제1 및 제2 케이스들(C1, C2)에 기반하여 HCG 오토 포커스 신호를 생성할 수 있다. 도 3에 도시된 제1 예와 유사하게, 도면이 불필요하게 복잡해지는 것을 회피하기 위하여, 제1 내지 제3 픽셀들(PX1~PX3)의 일부 구성들이 생략되어 도시된다.
도 1, 도 2, 도 7 및 도 8을 참조하면, 하나의 행의 행 라인은 제1 내지 제6 라인들(L1~L6)을 포함할 수 있다. 제1 라인(L1)은 제1 내지 제3 픽셀들(PX1~PX3)의 제1 서브 픽셀들(SP1)의 제1 영역들(SP1_1)의 전송 라인들(TG1_1)에 연결될 수 있다. 제1 라인(L1)은 제1 서브 픽셀들(SP1)의 제1 영역들(SP1_1), 예를 들어 좌측의 광 검출기들(PD)을 활성화할 수 있다.
제2 라인(L2)은 제1 내지 제3 픽셀들(PX1~PX3)의 제2 서브 픽셀들(SP2)의 제1 영역들(SP2_1)의 전송 라인들(TG2_1)에 연결될 수 있다. 제2 라인(L2)은 제2 서브 픽셀들(SP2)의 제1 영역들(SP2_1), 예를 들어 좌측의 광 검출기들(PD)을 활성화할 수 있다
제3 라인(L3)은 제1 내지 제3 픽셀들(PX1~PX3)의 제1 서브 픽셀들(SP1)의 제2 영역들(SP1_2)의 전송 라인들(TG1_2)에 연결되고, 그리고 제2 서브 픽셀들(SP2)의 제2 영역들(SP2_2)의 전송 라인들(TG2_2)에 연결될 수 있다. 제3 라인(L3)은 제1 및 제2 서브 픽셀들(SP1, SP2)의 제2 영역들(SP1_2, SP2_2), 예를 들어 우측의 광 검출기들(PD)을 활성화할 수 있다.
제4 라인(L4)은 제1 내지 제3 픽셀들(PX1~PX3)의 제3 서브 픽셀들(SP3)의 제1 영역들(SP3_1)의 전송 라인들(TG3_1)에 연결되고, 그리고 제4 서브 픽셀들(SP4)의 제1 영역들(SP4_1)의 전송 라인들(TG4_1)에 연결될 수 있다. 제4 라인(L4)은 제3 및 제4 서브 픽셀들(SP3, SP4)의 제1 영역들(SP3_1, SP4_1), 예를 들어 좌측의 광 검출기들(PD)을 활성화할 수 있다.
제5 라인(L5)은 제1 내지 제3 픽셀들(PX1~PX3)의 제3 서브 픽셀들(SP3)의 제2 영역들(SP3_2)의 전송 라인들(TG3_2)에 연결되고, 그리고 제4 서브 픽셀들(SP4)의 제2 영역들(SP4_2)의 전송 라인들(TG4_2)에 연결될 수 있다. 제5 라인(L5)은 제3 및 제4 서브 픽셀들(SP3, SP4)의 제2 영역들(SP3_2, SP4_2), 예를 들어 우측의 광 검출기들(PD)을 활성화할 수 있다.
제6 라인들(L6)은 제1 내지 제3 픽셀들(PX1~PX3)에 공통으로 연결될 수 있다. 제6 라인들(L6)은 리셋 신호(RG)를 전달하는 라인, 동적 변환 이득 신호(DCG)를 전달하는 라인, 그리고 선택 신호(SEL)를 전달하는 라인을 포함할 수 있다.
도 9는 동일한 행에 속한 제1 내지 제3 픽셀들(PX1~PX3)이 대응하는 행 라인의 라인들에 연결되는 제4 예를 보여준다. 예시적으로, 도 9의 배선 구조로 구현된 카메라 모듈(100)은 도 7의 제3 및 제4 케이스들(C3, C4)에 기반하여 HCG 오토 포커스 신호를 생성할 수 있다. 도 3에 도시된 제1 예와 유사하게, 도면이 불필요하게 복잡해지는 것을 회피하기 위하여, 제1 내지 제3 픽셀들(PX1~PX3)의 일부 구성들이 생략되어 도시된다.
도 1, 도 2, 도 7 및 도 9를 참조하면, 하나의 행의 행 라인은 제1 내지 제6 라인들(L1~L6)을 포함할 수 있다. 제1 라인(L1)은 제1 내지 제3 픽셀들(PX1~PX3)의 제1 서브 픽셀들(SP1)의 제1 영역들(SP1_1)의 전송 라인들(TG1_1)에 연결되고, 그리고 제2 서브 픽셀들(SP2)의 제1 영역들(SP2_1)의 전송 라인들(TG2_1)에 연결될 수 있다. 제1 라인(L1)은 제1 및 제2 서브 픽셀들(SP1, SP2)의 제1 영역들(SP1_1, SP2_1), 예를 들어 좌측의 광 검출기들(PD)을 활성화할 수 있다.
제2 라인(L2)은 제1 내지 제3 픽셀들(PX1~PX3)의 제1 서브 픽셀들(SP1)의 제2 영역들(SP1_2)의 전송 라인들(TG1_2)에 연결되고, 그리고 제2 서브 픽셀들(SP2)의 제2 영역들(SP2_2)의 전송 라인들(TG2_2)에 연결될 수 있다. 제2 라인(L2)은 제1 및 제2 서브 픽셀들(SP1, SP2)의 제2 영역들(SP1_2, SP2_2), 예를 들어 우측의 광 검출기들(PD)을 활성화할 수 있다.
제3 라인(L3)은 제1 내지 제3 픽셀들(PX1~PX3)의 제3 서브 픽셀들(SP3)의 제1 영역들(SP3_1)의 전송 라인들(TG3_1)에 연결될 수 있다. 제3 라인(L3)은 제3 서브 픽셀들(SP3)의 제1 영역들(SP3_1), 예를 들어 좌측의 광 검출기들(PD)을 활성화할 수 있다.
제4 라인(L4)은 제1 내지 제3 픽셀들(PX1~PX3)의 제4 서브 픽셀들(SP4)의 제1 영역들(SP4_1)의 전송 라인들(TG4_1)에 연결될 수 있다. 제4 라인(L4)은 제4 서브 픽셀들(SP4)의 제1 영역들(SP4_1), 예를 들어 좌측의 광 검출기들(PD)을 활성화할 수 있다.
제5 라인(L5)은 제1 내지 제3 픽셀들(PX1~PX3)의 제3 서브 픽셀들(SP3)의 제2 영역들(SP3_2)의 전송 라인들(TG3_2)에 연결되고, 그리고 제4 서브 픽셀들(SP4)의 제2 영역들(SP4_2)의 전송 라인들(TG4_2)에 연결될 수 있다. 제5 라인(L5)은 제3 및 제4 서브 픽셀들(SP3, SP4)의 제2 영역들(SP3_2, SP4_2), 예를 들어 우측의 광 검출기들(PD)을 활성화할 수 있다.
제6 라인들(L6)은 제1 내지 제3 픽셀들(PX1~PX3)에 공통으로 연결될 수 있다. 제6 라인들(L6)은 리셋 신호(RG)를 전달하는 라인, 동적 변환 이득 신호(DCG)를 전달하는 라인, 그리고 선택 신호(SEL)를 전달하는 라인을 포함할 수 있다.
도 10은 동일한 행에 속한 제1 내지 제3 픽셀들(PX1~PX3)이 대응하는 행 라인의 라인들에 연결되는 제5 예를 보여준다. 예시적으로, 도 10의 배선 구조로 구현된 카메라 모듈(100)은 도 7의 제5, 제6, 제9 및 제10 케이스들(C5, C6, C9, C10)에 기반하여 HCG 오토 포커스 신호를 생성할 수 있다. 도 3에 도시된 제1 예와 유사하게, 도면이 불필요하게 복잡해지는 것을 회피하기 위하여, 제1 내지 제3 픽셀들(PX1~PX3)의 일부 구성들이 생략되어 도시된다.
도 1, 도 2, 도 7 및 도 10을 참조하면, 하나의 행의 행 라인은 제1 내지 제7 라인들(L1~L7)을 포함할 수 있다. 제1 라인(L1)은 제1 내지 제3 픽셀들(PX1~PX3)의 제1 서브 픽셀들(SP1)의 제1 영역들(SP1_1)의 전송 라인들(TG1_1)에 연결될 수 있다. 제1 라인(L1)은 제1 서브 픽셀들(SP1)의 제1 영역들(SP1_1), 예를 들어 좌측의 광 검출기들(PD)을 활성화할 수 있다.
제2 라인(L2)은 제1 내지 제3 픽셀들(PX1~PX3)의 제2 서브 픽셀들(SP2)의 제1 영역들(SP2_1)의 전송 라인들(TG2_1)에 연결될 수 있다. 제2 라인(L2)은 제2 서브 픽셀들(SP2)의 제1 영역들(SP2_1), 예를 들어 좌측의 광 검출기들(PD)을 활성화할 수 있다
제3 라인(L3)은 제1 내지 제3 픽셀들(PX1~PX3)의 제1 서브 픽셀들(SP1)의 제2 영역들(SP1_2)의 전송 라인들(TG1_2)에 연결되고, 그리고 제2 서브 픽셀들(SP2)의 제2 영역들(SP2_2)의 전송 라인들(TG2_2)에 연결될 수 있다. 제3 라인(L3)은 제1 및 제2 서브 픽셀들(SP1, SP2)의 제2 영역들(SP1_2, SP2_2), 예를 들어 우측의 광 검출기들(PD)을 활성화할 수 있다.
제4 라인(L4)은 제1 내지 제3 픽셀들(PX1~PX3)의 제3 서브 픽셀들(SP3)의 제1 영역들(SP3_1)의 전송 라인들(TG3_1)에 연결될 수 있다. 제4 라인(L4)은 제3 서브 픽셀들(SP3)의 제1 영역들(SP3_1), 예를 들어 좌측의 광 검출기들(PD)을 활성화할 수 있다.
제5 라인(L5)은 제1 내지 제3 픽셀들(PX1~PX3)의 제4 서브 픽셀들(SP4)의 제1 영역들(SP4_1)의 전송 라인들(TG4_1)에 연결될 수 있다. 제5 라인(L5)은 제4 서브 픽셀들(SP4)의 제1 영역들(SP4_1), 예를 들어 좌측의 광 검출기들(PD)을 활성화할 수 있다.
제6 라인(L6)은 제1 내지 제3 픽셀들(PX1~PX3)의 제3 서브 픽셀들(SP3)의 제2 영역들(SP3_2)의 전송 라인들(TG3_2)에 연결되고, 그리고 제4 서브 픽셀들(SP4)의 제2 영역들(SP4_2)의 전송 라인들(TG4_2)에 연결될 수 있다. 제6 라인(L6)은 제3 및 제4 서브 픽셀들(SP3, SP4)의 제2 영역들(SP3_2, SP4_2), 예를 들어 우측의 광 검출기들(PD)을 활성화할 수 있다.
제7 라인들(L7)은 제1 내지 제3 픽셀들(PX1~PX3)에 공통으로 연결될 수 있다. 제7 라인들(L7)은 리셋 신호(RG)를 전달하는 라인, 동적 변환 이득 신호(DCG)를 전달하는 라인, 그리고 선택 신호(SEL)를 전달하는 라인을 포함할 수 있다.
도 11은 동일한 행에 속한 제1 내지 제3 픽셀들(PX1~PX3)이 대응하는 행 라인의 라인들에 연결되는 제6 예를 보여준다. 예시적으로, 도 11의 배선 구조로 구현된 카메라 모듈(100)은 도 7의 제12 및 제13 케이스들(C12, C13)에 기반하여 HCG 오토 포커스 신호를 생성할 수 있다. 도 3에 도시된 제1 예와 유사하게, 도면이 불필요하게 복잡해지는 것을 회피하기 위하여, 제1 내지 제3 픽셀들(PX1~PX3)의 일부 구성들이 생략되어 도시된다.
도 1, 도 2, 도 7 및 도 11을 참조하면, 하나의 행의 행 라인은 제1 내지 제6 라인들(L1~L6)을 포함할 수 있다. 제1 라인(L1)은 제1 내지 제3 픽셀들(PX1~PX3)의 제1 서브 픽셀들(SP1)의 제1 영역들(SP1_1)의 전송 라인들(TG1_1)에 연결될 수 있다. 제1 라인(L1)은 제1 서브 픽셀들(SP1)의 제1 영역들(SP1_1), 예를 들어 좌측의 광 검출기들(PD)을 활성화할 수 있다.
제2 라인(L2)은 제1 내지 제3 픽셀들(PX1~PX3)의 제1 서브 픽셀들(SP1)의 제2 영역들(SP1_2)의 전송 라인들(TG1_2)에 연결될 수 있다. 제2 라인(L2)은 제1 서브 픽셀들(SP1)의 제2 영역들(SP1_2), 예를 들어 우측의 광 검출기들(PD)을 활성화할 수 있다.
제3 라인(L3)은 제1 내지 제3 픽셀들(PX1~PX3)의 제1 서브 픽셀들(SP1)의 제2 영역들(SP1_2)의 전송 라인들(TG1_2)에 연결되고, 그리고 제2 서브 픽셀들(SP2)의 제2 영역들(SP2_2)의 전송 라인들(TG2_2)에 연결될 수 있다. 제3 라인(L3)은 제1 및 제2 서브 픽셀들(SP1, SP2)의 제2 영역들(SP1_2, SP2_2), 예를 들어 우측의 광 검출기들(PD)을 활성화할 수 있다.
제4 라인(L4)은 제1 내지 제3 픽셀들(PX1~PX3)의 제3 서브 픽셀들(SP3)의 제1 영역들(SP3_1)의 전송 라인들(TG3_1)에 연결되고, 그리고 제4 서브 픽셀들(SP4)의 제1 영역들(SP4_1)의 전송 라인들(TG4_1)에 연결될 수 있다. 제4 라인(L4)은 제3 및 제4 서브 픽셀들(SP3, SP4)의 제1 영역들(SP3_1, SP4_1), 예를 들어 좌측의 광 검출기들(PD)을 활성화할 수 있다.
제5 라인(L5)은 제1 내지 제3 픽셀들(PX1~PX3)의 제3 서브 픽셀들(SP3)의 제2 영역들(SP3_2)의 전송 라인들(TG3_2)에 연결되고, 그리고 제4 서브 픽셀들(SP4)의 제2 영역들(SP4_2)의 전송 라인들(TG4_2)에 연결될 수 있다. 제5 라인(L5)은 제3 및 제4 서브 픽셀들(SP3, SP4)의 제2 영역들(SP3_2, SP4_2), 예를 들어 우측의 광 검출기들(PD)을 활성화할 수 있다.
제6 라인들(L6)은 제1 내지 제3 픽셀들(PX1~PX3)에 공통으로 연결될 수 있다. 제6 라인들(L6)은 리셋 신호(RG)를 전달하는 라인, 동적 변환 이득 신호(DCG)를 전달하는 라인, 그리고 선택 신호(SEL)를 전달하는 라인을 포함할 수 있다.
도 12는 동일한 행에 속한 제1 내지 제3 픽셀들(PX1~PX3)이 대응하는 행 라인의 라인들에 연결되는 제7 예를 보여준다. 예시적으로, 도 12의 배선 구조로 구현된 카메라 모듈(100)은 도 7의 제14 및 제15 케이스들(C14, C15)에 기반하여 HCG 오토 포커스 신호를 생성할 수 있다. 도 3에 도시된 제1 예와 유사하게, 도면이 불필요하게 복잡해지는 것을 회피하기 위하여, 제1 내지 제3 픽셀들(PX1~PX3)의 일부 구성들이 생략되어 도시된다.
도 1, 도 2, 도 7 및 도 12를 참조하면, 하나의 행의 행 라인은 제1 내지 제6 라인들(L1~L6)을 포함할 수 있다. 제1 라인(L1)은 제1 내지 제3 픽셀들(PX1~PX3)의 제1 서브 픽셀들(SP1)의 제1 영역들(SP1_1)의 전송 라인들(TG1_1)에 연결되고, 그리고 제2 서브 픽셀들(SP2)의 제1 영역들(SP2_1)의 전송 라인들(TG2_1)에 연결될 수 있다. 제1 라인(L1)은 제1 및 제2 서브 픽셀들(SP1, SP2)의 제1 영역들(SP1_1, SP2_1), 예를 들어 좌측의 광 검출기들(PD)을 활성화할 수 있다.
제2 라인(L2)은 제1 내지 제3 픽셀들(PX1~PX3)의 제1 서브 픽셀들(SP1)의 제2 영역들(SP1_2)의 전송 라인들(TG1_2)에 연결되고, 그리고 제2 서브 픽셀들(SP2)의 제2 영역들(SP2_2)의 전송 라인들(TG2_2)에 연결될 수 있다. 제2 라인(L2)은 제1 및 제2 서브 픽셀들(SP1, SP2)의 제2 영역들(SP1_2, SP2_2), 예를 들어 우측의 광 검출기들(PD)을 활성화할 수 있다.
제3 라인(L3)은 제1 내지 제3 픽셀들(PX1~PX3)의 제3 서브 픽셀들(SP3)의 제1 영역들(SP3_1)의 전송 라인들(TG3_1)에 연결될 수 있다. 제3 라인(L3)은 제3 서브 픽셀들(SP3)의 제1 영역들(SP3_1), 예를 들어 좌측의 광 검출기들(PD)을 활성화할 수 있다.
제4 라인(L4)은 제1 내지 제3 픽셀들(PX1~PX3)의 제3 서브 픽셀들(SP3)의 제2 영역들(SP3_2)의 전송 라인들(TG3_2)에 연결될 수 있다. 제4 라인(L4)은 제3 서브 픽셀들(SP3)의 제2 영역들(SP3_2), 예를 들어 우측의 광 검출기들(PD)을 활성화할 수 있다.
제5 라인(L5)은 제1 내지 제3 픽셀들(PX1~PX3)의 제3 서브 픽셀들(SP3)의 제2 영역들(SP3_2)의 전송 라인들(TG3_2)에 연결되고, 그리고 제4 서브 픽셀들(SP4)의 제2 영역들(SP4_2)의 전송 라인들(TG4_2)에 연결될 수 있다. 제5 라인(L5)은 제3 및 제4 서브 픽셀들(SP3, SP4)의 제2 영역들(SP3_2, SP4_2), 예를 들어 우측의 광 검출기들(PD)을 활성화할 수 있다.
제6 라인들(L6)은 제1 내지 제3 픽셀들(PX1~PX3)에 공통으로 연결될 수 있다. 제6 라인들(L6)은 리셋 신호(RG)를 전달하는 라인, 동적 변환 이득 신호(DCG)를 전달하는 라인, 그리고 선택 신호(SEL)를 전달하는 라인을 포함할 수 있다.
도 13은 동일한 행에 속한 제1 내지 제3 픽셀들(PX1~PX3)이 대응하는 행 라인의 라인들에 연결되는 제8 예를 보여준다. 예시적으로, 도 13의 배선 구조로 구현된 카메라 모듈(100)은 도 7의 제16, 제17, 제20 및 제21 케이스들(C16, C17, C20, C21)에 기반하여 HCG 오토 포커스 신호를 생성할 수 있다. 도 3에 도시된 제1 예와 유사하게, 도면이 불필요하게 복잡해지는 것을 회피하기 위하여, 제1 내지 제3 픽셀들(PX1~PX3)의 일부 구성들이 생략되어 도시된다.
도 1, 도 2, 도 7 및 도 12를 참조하면, 하나의 행의 행 라인은 제1 내지 제7 라인들(L1~L7)을 포함할 수 있다. 제1 라인(L1)은 제1 내지 제3 픽셀들(PX1~PX3)의 제1 서브 픽셀들(SP1)의 제1 영역들(SP1_1)의 전송 라인들(TG1_1)에 연결될 수 있다. 제1 라인(L1)은 제1 서브 픽셀들(SP1)의 제1 영역들(SP1_1), 예를 들어 좌측의 광 검출기들(PD)을 활성화할 수 있다.
제2 라인(L2)은 제1 내지 제3 픽셀들(PX1~PX3)의 제1 서브 픽셀들(SP1)의 제2 영역들(SP1_2)의 전송 라인들(TG1_2)에 연결될 수 있다. 제2 라인(L2)은 제1 서브 픽셀들(SP1)의 제2 영역들(SP1_2), 예를 들어 우측의 광 검출기들(PD)을 활성화할 수 있다.
제3 라인(L3)은 제1 내지 제3 픽셀들(PX1~PX3)의 제1 서브 픽셀들(SP1)의 제2 영역들(SP1_2)의 전송 라인들(TG1_2)에 연결되고, 그리고 제2 서브 픽셀들(SP2)의 제2 영역들(SP2_2)의 전송 라인들(TG2_2)에 연결될 수 있다. 제3 라인(L3)은 제1 및 제2 서브 픽셀들(SP1, SP2)의 제2 영역들(SP1_2, SP2_2), 예를 들어 우측의 광 검출기들(PD)을 활성화할 수 있다.
제4 라인(L4)은 제1 내지 제3 픽셀들(PX1~PX3)의 제3 서브 픽셀들(SP3)의 제1 영역들(SP3_1)의 전송 라인들(TG3_1)에 연결될 수 있다. 제4 라인(L4)은 제3 서브 픽셀들(SP3)의 제1 영역들(SP3_1), 예를 들어 좌측의 광 검출기들(PD)을 활성화할 수 있다.
제5 라인(L5)은 제1 내지 제3 픽셀들(PX1~PX3)의 제3 서브 픽셀들(SP3)의 제2 영역들(SP3_2)의 전송 라인들(TG3_2)에 연결될 수 있다. 제5 라인(L5)은 제3 서브 픽셀들(SP3)의 제2 영역들(SP3_2), 예를 들어 우측의 광 검출기들(PD)을 활성화할 수 있다.
제6 라인(L6)은 제1 내지 제3 픽셀들(PX1~PX3)의 제3 서브 픽셀들(SP3)의 제2 영역들(SP3_2)의 전송 라인들(TG3_2)에 연결되고, 그리고 제4 서브 픽셀들(SP4)의 제2 영역들(SP4_2)의 전송 라인들(TG4_2)에 연결될 수 있다. 제6 라인(L6)은 제3 및 제4 서브 픽셀들(SP3, SP4)의 제2 영역들(SP3_2, SP4_2), 예를 들어 우측의 광 검출기들(PD)을 활성화할 수 있다.
제7 라인들(L7)은 제1 내지 제3 픽셀들(PX1~PX3)에 공통으로 연결될 수 있다. 제7 라인들(L7)은 리셋 신호(RG)를 전달하는 라인, 동적 변환 이득 신호(DCG)를 전달하는 라인, 그리고 선택 신호(SEL)를 전달하는 라인을 포함할 수 있다.
예시적으로, 도 3의 배선 구조로 구현된 카메라 모듈(100)은 도 7의 제7, 제8, 제11, 제18, 제19 및 제22 케이스들(C7, C8, C11, C18, C19, C22)에 기반하여 HCG 오토 포커스 신호를 생성할 수 있다.
도 14는 동일한 행에 속한 제1 내지 제3 픽셀들(PX1~PX3)이 대응하는 행 라인의 라인들에 연결되는 제9 예를 보여준다. 도 3에 도시된 제1 예와 유사하게, 도면이 불필요하게 복잡해지는 것을 회피하기 위하여, 제1 내지 제3 픽셀들(PX1~PX3)의 일부 구성들이 생략되어 도시된다.
도 1, 도 2 및 도 14를 참조하면, 하나의 행의 행 라인은 제1 내지 제9 라인들(L1~L9)을 포함할 수 있다. 도 14의 배선 구조는 제1 박스(BX1) 및 제2 박스(BX2)에 대응하는 부분에서 도 5의 배선 구조와 다를 수 있다.
제1 라인(L1)은 제1 픽셀(PX1), 예를 들어 행 방향으로 홀수 번째 픽셀들의 제1 서브 픽셀들(SP1)의 제1 영역들(SP1_1)의 전송 라인들(TG1_1)에 연결될 수 있다. 또한, 제1 라인(L1)은 제2 픽셀(PX2), 예를 들어 행 방향으로 짝수 번째 픽셀들의 제1 서브 픽셀들(SP1)의 제2 영역들(SP1_2)의 전송 라인들(TG1_2)에 연결될 수 있다.
제2 라인(L2)은 제1 픽셀(PX1), 예를 들어 행 방향으로 홀수 번째 픽셀들의 제1 서브 픽셀들(SP1)의 제2 영역들(SP1_2)의 전송 라인들(TG1_2)에 연결될 수 있다. 또한, 제2 라인(L2)은 제2 픽셀(PX2), 예를 들어 행 방향으로 짝수 번째 픽셀들의 제1 서브 픽셀들(SP1)의 제1 영역들(SP1_1)의 전송 라인들(TG1_1)에 연결될 수 있다.
제3 라인(L3)은 제1 내지 제3 픽셀들(PX1~PX3)의 제2 서브 픽셀들(SP2)의 제1 영역들(SP2_1)의 전송 라인들(TG2_1)에 연결될 수 있다. 제3 라인(L3)은 제2 서브 픽셀들(SP2)의 제1 영역들(SP2_1), 예를 들어 좌측의 광 검출기들(PD)을 활성화할 수 있다.
제4 라인(L4)은 제1 내지 제3 픽셀들(PX1~PX3)의 제2 서브 픽셀들(SP2)의 제2 영역들(SP2_2)의 전송 라인들(TG2_2)에 연결될 수 있다. 제4 라인(L4)은 제2 서브 픽셀들(SP2)의 제2 영역들(SP2_2), 예를 들어 우측의 광 검출기들(PD)을 활성화할 수 있다.
제5 라인(L5)은 제1 내지 제3 픽셀들(PX1~PX3)의 제3 서브 픽셀들(SP3)의 제1 영역들(SP3_1)의 전송 라인들(TG3_1)에 연결될 수 있다. 제5 라인(L5)은 제3 서브 픽셀들(SP3)의 제1 영역들(SP3_1), 예를 들어 좌측의 광 검출기들(PD)을 활성화할 수 있다.
제6 라인(L6)은 제1 내지 제3 픽셀들(PX1~PX3)의 제3 서브 픽셀들(SP3)의 제2 영역들(SP3_2)의 전송 라인들(TG3_2)에 연결될 수 있다. 제6 라인(L6)은 제3 서브 픽셀들(SP3)의 제2 영역들(SP3_2), 예를 들어 우측의 광 검출기들(PD)을 활성화할 수 있다.
제7 라인(L7)은 제1 픽셀(PX1), 예를 들어 행 방향으로 홀수 번째 픽셀들의 제4 서브 픽셀들(SP4)의 제1 영역들(SP4_1)의 전송 라인들(TG4_1)에 연결될 수 있다. 또한, 제7 라인(L7)은 제2 픽셀(PX2), 예를 들어 행 방향으로 짝수 번째 픽셀들의 제4 서브 픽셀들(SP4)의 제2 영역들(SP4_2)의 전송 라인들(TG4_2)에 연결될 수 있다.
제8 라인(L8)은 제1 픽셀(PX1), 예를 들어 행 방향으로 홀수 번째 픽셀들의 제4 서브 픽셀들(SP4)의 제2 영역들(SP4_2)의 전송 라인들(TG4_2)에 연결될 수 있다. 또한, 제8 라인(L8)은 제2 픽셀(PX2), 예를 들어 행 방향으로 짝수 번째 픽셀들의 제4 서브 픽셀들(SP4)의 제1 영역들(SP4_1)의 전송 라인들(TG4_1)에 연결될 수 있다.
제9 라인들(L9)은 제1 내지 제3 픽셀들(PX1~PX3)에 공통으로 연결될 수 있다. 제9 라인들(L9)은 리셋 신호(RG)를 전달하는 라인, 동적 변환 이득 신호(DCG)를 전달하는 라인, 그리고 선택 신호(SEL)를 전달하는 라인을 포함할 수 있다.
도 15는 도 14의 배선 구조에 기반하여 디지털 HCG 오토 포커스 신호가 생성되는 제3 예(E3)의 제23 케이스(C23)를 보여준다. 도 1, 도 2, 도 14 및 도 15를 참조하면, 제1 픽셀(PX1) 및 제3 픽셀(PX3), 예를 들어 행 방향으로 홀수 번째 픽셀들의 광 검출기들(PD) 중에서, 제1 서브 픽셀(SP1)의 좌측의 광 검출기(PD) 및 제4 서브 픽셀(SP4)의 좌측의 광 검출기(PD)의 출력 신호들로부터 제1 디지털 HCG 오토 포커스 신호가 생성될 수 있다.
제2 픽셀(PX2), 예를 들어 행 방향으로 짝수 번째 픽셀들의 광 검출기들(PD) 중에서, 제1 서브 픽셀(SP1)의 우측의 광 검출기(PD) 및 제4 서브 픽셀(SP4)의 우측의 광 검출기(PD)의 출력 신호들로부터 제2 디지털 HCG 오토 포커스 신호가 생성될 수 있다. 로직 회로(160)는 제1 및 제2 디지털 HCG 오토 포커스 신호에 기반하여 위상 검출 오토 포커싱을 수행할 수 있다. 또는, 로직 회로(160)는 디지털 HCG 오토 포커스 신호 및 제2 디지털 HCG 오토 포커스 신호를 오토 포커싱을 위한 정보로서 출력할 수 있다.
도 16은 도 5, 그리고 도 8 내지 도 14 중 어느 하나의 배선 구조에 기반하여 카메라 모듈(100)이 하나의 행의 픽셀들(PX1~PX3)의 이미지 데이터(ID)를 캡처하는 예를 보여준다. 도 1, 도 2 및 도 17을 참조하면, 카메라 모듈(100)은 제1 내지 제5 시간 구간들(TI1~TI5)에 기반하여 하나의 행의 픽셀들(PX1~PX3)의 이미지 데이터를 캡처할 수 있다.
도 6에 도시된 것과 달리, 도 17에 도시된 예에서, 카메라 모듈(100)은 제2 시간 구간(TI2), 제3 시간 구간(TI3), 제4 시간 구간(TI4), 제5 시간 구간(TI5), 그리고 제1 시간 구간(TI1)의 순서로 신호들을 캡처할 수 있다.
도 17은 도 5의 배선 구조로 구현된 카메라 모듈(100)의 동작 방법의 예를 보여준다. 도 1, 도 2, 도 5 및 도 17을 참조하면, S110 단계에서, 카메라 모듈(100)의 로직 회로(160)는 디지털 HCG 오토 포커스 신호를 수신할 수 있다. S120 단계에서, 카메라 모듈(100)의 로직 회로(160)는 디지털 HCG 오토 포커스 신호의 레벨이 제1 문턱(TH1)보다 작은지 판단할 수 있다.
디지털 HCG 오토 포커스 신호의 레벨이 제1 문턱(TH1)보다 작은 것에 응답하여, S130 단계에서, 카메라 모듈(100)의 로직 회로(160)는 오토 포커싱에 사용되는 광 검출기들(PD)의 수를 증가시킬 수 있다. 예를 들어, 로직 회로(160)는 도 7에 도시된 케이스들에 기반하여, 디지털 HCG 오토 포커스 신호를 생성하는데 사용되는 광 검출기들의 수를 증가시킬 수 있다.
디지털 HCG 오토 포커스 신호의 레벨이 제1 문턱보다 작지 않은(예를 들어, 제1 문턱 이하) 것에 응답하여, S140 단계에서, 카메라 모듈(100)의 로직 회로(160)는 디지털 HCG 오토 포커스 신호의 레벨이 제2 문턱(TH2)보다 큰지 판단할 수 있다. 제2 문턱(TH2)은 제1 문턱(TH1)보다 클 수 있다.
디지털 HCG 오토 포커스 신호의 레벨이 제2 문턱(TH2)보다 큰 것에 응답하여, 카메라 모듈(100)의 로직 회로(160)는 오토 포커싱에 사용되는 광 검출기들(PD)의 수를 감소시킬 수 있다. 예를 들어, 로직 회로(160)는 도 7에 도시된 케이스들에 기반하여, 디지털 HCG 오토 포커스 신호를 생성하는데 사용되는 광 검출기들의 수를 감소시킬 수 있다.
디지털 HCG 오토 포커스 신호의 레벨이 제2 문턱보다 크지 않은(예를 들어, 제2 문턱 이상) 것에 응답하여, S160 단계에서, 카메라 모듈(100)의 로직 회로(160)는 오토 포커싱에 사용되는 광 검출기들(PD)의 수를 유지시킬 수 있다. 즉, 카메라 모듈(100)은 각 픽셀(PX)에서 오토 포커싱에 사용되는 광 검출기들(PD)의 수를 입사광의 세기에 의존하여 적응적으로 조절함으로써, 오토 포커싱의 정확도를 높일 수 있다.
도 18은 멀티 카메라 모듈을 포함하는 전자 장치의 블록도이다. 도 19는 도 18의 카메라 모듈의 상세 블록도이다.
도 18을 참조하면, 전자 장치(1000)는 카메라 모듈 그룹(1100), 애플리케이션 프로세서(1200), PMIC(1300) 및 외부 메모리(1400)를 포함할 수 있다.
카메라 모듈 그룹(1100)은 복수의 카메라 모듈(1100a, 1100b, 1100c)을 포함할 수 있다. 비록 도면에는 3개의 카메라 모듈(1100a, 1100b, 1100c)이 배치된 실시 예가 도시되어 있으나, 실시 예들이 이에 제한되는 것은 아니다. 몇몇 실시 예에서, 카메라 모듈 그룹(1100)은 2개의 카메라 모듈만을 포함하도록 변형되어 실시될 수 있다. 또한, 몇몇 실시 예에서, 카메라 모듈 그룹(1100)은 i개(i는 4 이상의 자연수)의 카메라 모듈을 포함하도록 변형되어 실시될 수도 있다. 예시적으로, 카메라 모듈 그룹(1100)의 복수의 카메라 모듈(1100a, 1100b, 1100c)의 각각은 도 1의 카메라 모듈(100)을 포함할 수 있다.
이하, 도 19를 참조하여, 카메라 모듈(1100b)의 상세 구성에 대해 보다 구체적으로 설명할 것이나, 이하의 설명은 실시 예에 따라 다른 카메라 모듈들(1100a, 1100b)에 대해서도 동일하게 적용될 수 있다.
도 19를 참조하면, 카메라 모듈(1100b)은 프리즘(1105), 광학 경로 폴딩 요소(Optical Path Folding Element, 이하, 'OPFE')(1110), 액츄에이터(1130), 이미지 센싱 장치(1140) 및 저장부(1150)를 포함할 수 있다.
프리즘(1105)은 광 반사 물질의 반사면(1107)을 포함하여 외부로부터 입사되는 광(L)의 경로를 변형시킬 수 있다.
몇몇 실시 예에서, 프리즘(1105)은 제1 방향(X)으로 입사되는 광(L)의 경로를 제1 방향(X)에 수직인 제2 방향(Y)으로 변경시킬 수 있다. 또한, 프리즘(1105)은 광 반사 물질의 반사면(1107)을 중심축(1106)을 중심으로 A방향으로 회전시키거나, 중심축(1106)을 B방향으로 회전시켜 제1 방향(X)으로 입사되는 광(L)의 경로를 수직인 제2 방향(Y)으로 변경시킬 수 있다. 이때, OPFE(1110)도 제1 방향(X) 및 제2 방향(Y)과 수직인 제3 방향(Z)로 이동할 수 있다.
몇몇 실시 예에서, 도시된 것과 같이, 프리즘(1105)의 A방향 최대 회전 각도는 플러스(+) A방향으로는 15도(degree)이하이고, 마이너스(-) A방향으로는 15도보다 클 수 있으나, 실시 예들이 이에 제한되는 것은 아니다.
몇몇 실시 예에서, 프리즘(1105)은 플러스(+) 또는 마이너스(-) B방향으로 20도 내외, 또는 10도에서 20도, 또는 15도에서 20도 사이로 움직일 수 있고, 여기서, 움직이는 각도는 플러스(+) 또는 마이너스(-) B방향으로 동일한 각도로 움직이거나, 1도 내외의 범위로 거의 유사한 각도까지 움직일 수 있다.
몇몇 실시 예에서, 프리즘(1105)은 광 반사 물질의 반사면(1107)을 중심축(1106)의 연장 방향과 평행한 제3 방향(예를 들어, Z방향)으로 이동할 수 있다.
OPFE(1110)는 예를 들어 j(여기서, j는 자연수)개의 그룹으로 이루어진 광학 렌즈를 포함할 수 있다. j개의 렌즈는 제2 방향(Y)으로 이동하여 카메라 모듈(1100b)의 광학 줌 배율(optical zoom ratio)을 변경할 수 있다. 예를 들어, 카메라 모듈(1100b)의 기본 광학 줌 배율을 Z라고할 때, OPFE(1110)에 포함된 m개의 광학 렌즈를 이동시킬 경우, 카메라 모듈(1100b)의 광학 줌 배율은 3Z 또는 5Z 또는 5Z 이상의 광학 줌 배율로 변경될 수 있다.
액츄에이터(1130)는 OPFE(1110) 또는 광학 렌즈(이하, 광학 렌즈로 지칭)를 특정 위치로 이동시킬 수 있다. 예를 들어 액츄에이터(1130)는 정확한 센싱을 위해 이미지 센서(1142)가 광학 렌즈의 초점 거리(focal length)에 위치하도록 광학 렌즈의 위치를 조정할 수 있다.
이미지 센싱 장치(1140)는 이미지 센서(1142), 제어 로직(1144) 및 메모리(1146)를 포함할 수 있다. 이미지 센서(1142)는 광학 렌즈를 통해 제공되는 광(L)을 이용하여 센싱 대상의 이미지를 센싱할 수 있다.
제어 로직(1144)은 카메라 모듈(1100b)의 전반적인 동작을 제어할 수 있다. 예를 들어, 제어 로직(1144)은 제어 신호 라인(CSLb)을 통해 제공된 제어 신호에 따라 카메라 모듈(1100b)의 동작을 제어할 수 있다.
메모리(1146)는 캘리브레이션 데이터(1147)와 같은 카메라 모듈(1100b)의 동작에 필요한 정보를 저장할 수 있다. 캘리브레이션 데이터(1147)는 카메라 모듈(1100b)이 외부로부터 제공된 광(L)을 이용하여 이미지 데이터를 생성하는데 필요한 정보를 포함할 수 있다. 캘리브레이션 데이터(1147)는 예를 들어, 앞서 설명한 회전도(degree of rotation)에 관한 정보, 초점 거리(focal length)에 관한 정보, 광학 축(optical axis)에 관한 정보 등을 포함할 수 있다. 카메라 모듈(1100b)이 광학 렌즈의 위치에 따라 초점 거리가 변하는 멀티 스테이트(multi state) 카메라 형태로 구현될 경우, 캘리브레이션 데이터(1147)는 광학 렌즈의 각 위치별(또는 스테이트별) 초점 거리 값과 오토 포커싱(auto focusing)과 관련된 정보를 포함할 수 있다.
저장부(1150)는 이미지 센서(1142)를 통해 센싱된 이미지 데이터를 저장할 수 있다. 저장부(1150)는 이미지 센싱 장치(1140)의 외부에 배치될 수 있으며, 이미지 센싱 장치(1140)를 구성하는 센서 칩과 스택된(stacked) 형태로 구현될 수 있다. 몇몇 실시 예에서, 저장부(1150)는 EEPROM(Electrically Erasable Programmable Read-Only Memory)으로 구현될 수 있으나 실시 예들이 이에 제한되는 것은 아니다.
도 18과 도 19를 함께 참조하면, 몇몇 실시 예에서, 복수의 카메라 모듈(1100a, 1100b, 1100c) 각각은 액츄에이터(1130)를 포함할 수 있다. 이에 따라, 복수의 카메라 모듈(1100a, 1100b, 1100c) 각각은 그 내부에 포함된 액츄에이터(1130)의 동작에 따른 서로 동일하거나 서로 다른 캘리브레이션 데이터(1147)를 포함할 수 있다.
몇몇 실시 예에서, 복수의 카메라 모듈(1100a, 1100b, 1100c) 중 하나의 카메라 모듈(예를 들어, 1100b)은 앞서 설명한 프리즘(1105)과 OPFE(1110)를 포함하는 폴디드 렌즈(folded lens) 형태의 카메라 모듈이고, 나머지 카메라 모듈들(예를 들어, 1100a, 1100b)은 프리즘(1105)과 OPFE(1110)가 포함되지 않은 버티컬(vertical) 형태의 카메라 모듈일 수 있으나, 실시 예들이 이에 제한되는 것은 아니다.
몇몇 실시 예에서, 복수의 카메라 모듈(1100a, 1100b, 1100c) 중 하나의 카메라 모듈(예를 들어, 1100c)은 예를 들어, IR(Infrared Ray)을 이용하여 깊이(depth) 정보를 추출하는 버티컬 형태의 깊이 카메라(depth camera)일 수 있다. 이 경우, 애플리케이션 프로세서(1200)는 이러한 깊이 카메라로부터 제공받은 이미지 데이터와 다른 카메라 모듈(예를 들어, 1100a 또는 1100b)로부터 제공받은 이미지 데이터를 병합(merge)하여 3차원 깊이 이미지(3D depth image)를 생성할 수 있다.
몇몇 실시 예에서, 복수의 카메라 모듈(1100a, 1100b, 1100c) 중 적어도 두 개의 카메라 모듈(예를 들어, 1100a, 1100b)은 서로 다른 관측 시야(Field of View, 시야각)를 가질 수 있다. 이 경우, 예를 들어, 복수의 카메라 모듈(1100a, 1100b, 1100c) 중 적어도 두 개의 카메라 모듈(예를 들어, 1100a, 1100b)의 광학 렌즈가 서로 다를 수 있으나, 이에 제한되는 것은 아니다.
또한, 몇몇 실시 예에서, 복수의 카메라 모듈(1100a, 1100b, 1100c) 각각의 시야각은 서로 다를 수 있다. 이 경우, 복수의 카메라 모듈(1100a, 1100b, 1100c) 각각에 포함된 광학 렌즈 역시 서로 다를 수 있으나, 이에 제한되는 것은 아니다.
몇몇 실시 예에서, 복수의 카메라 모듈(1100a, 1100b, 1100c) 각각은 서로 물리적으로 분리되어 배치될 수 있다. 즉, 하나의 이미지 센서(1142)의 센싱 영역을 복수의 카메라 모듈(1100a, 1100b, 1100c)이 분할하여 사용하는 것이 아니라, 복수의 카메라 모듈(1100a, 1100b, 1100c) 각각의 내부에 독립적인 이미지 센서(1142)가 배치될 수 있다.
다시 도 18을 참조하면, 애플리케이션 프로세서(1200)는 이미지 처리 장치(1210), 메모리 컨트롤러(1220), 내부 메모리(1230)를 포함할 수 있다. 애플리케이션 프로세서(1200)는 복수의 카메라 모듈(1100a, 1100b, 1100c)과 분리되어 구현될 수 있다. 예를 들어, 애플리케이션 프로세서(1200)와 복수의 카메라 모듈(1100a, 1100b, 1100c)은 별도의 반도체 칩으로 서로 분리되어 구현될 수 있다.
이미지 처리 장치(1210)는 복수의 서브 이미지 프로세서(1212a, 1212b, 1212c), 이미지 생성기(1214) 및 카메라 모듈 컨트롤러(1216)를 포함할 수 있다.
이미지 처리 장치(1210)는 복수의 카메라 모듈(1100a, 1100b, 1100c)의 개수에 대응하는 개수의 복수의 서브 이미지 프로세서(1212a, 1212b, 1212c)를 포함할 수 있다.
각각의 카메라 모듈(1100a, 1100b, 1100c)로부터 생성된 이미지 데이터는 서로 분리된 이미지 신호 라인(ISLa, ISLb, ISLc)을 통해 대응되는 서브 이미지 프로세서(1212a, 1212b, 1212c)에 제공될 수 있다. 예를 들어, 카메라 모듈(1100a)로부터 생성된 이미지 데이터는 이미지 신호 라인(ISLa)을 통해 서브 이미지 프로세서(1212a)에 제공되고, 카메라 모듈(1100b)로부터 생성된 이미지 데이터는 이미지 신호 라인(ISLb)을 통해 서브 이미지 프로세서(1212b)에 제공되고, 카메라 모듈(1100c)로부터 생성된 이미지 데이터는 이미지 신호 라인(ISLc)을 통해 서브 이미지 프로세서(1212c)에 제공될 수 있다. 이러한 이미지 데이터 전송은 예를 들어, MIPI(Mobile Industry Processor Interface)에 기반한 카메라 직렬 인터페이스(CSI; Camera Serial Interface)를 이용하여 수행될 수 있으나, 실시 예들이 이에 제한되는 것은 아니다.
한편, 몇몇 실시 예에서, 하나의 서브 이미지 프로세서가 복수의의 카메라 모듈에 대응되도록 배치될 수도 있다. 예를 들어, 서브 이미지 프로세서(1212a)와 서브 이미지 프로세서(1212c)가 도시된 것처럼 서로 분리되어 구현되는 것이 아니라 하나의 서브 이미지 프로세서로 통합되어 구현되고, 카메라 모듈(1100a)과 카메라 모듈(1100c)로부터 제공된 이미지 데이터는 선택 소자(예를 들어, 멀티플렉서) 등을 통해 선택된 후, 통합된 서브 이미지 프로세서에 제공될 수 있다.
각각의 서브 이미지 프로세서(1212a, 1212b, 1212c)에 제공된 이미지 데이터는 이미지 생성기(1214)에 제공될 수 있다. 이미지 생성기(1214)는 이미지 생성 정보(Generation Information) 또는 모드 신호(Mode Signal)에 따라 각각의 서브 이미지 프로세서(1212a, 1212b, 1212c)로부터 제공된 이미지 데이터를 이용하여 출력 이미지를 생성할 수 있다.
구체적으로, 이미지 생성기(1214)는 이미지 생성 정보 또는 모드 신호에 따라, 서로 다른 시야각을 갖는 카메라 모듈들(1100a, 1100b, 1100c)로부터 생성된 이미지 데이터 중 적어도 일부를 병합(merge)하여 출력 이미지를 생성할 수 있다. 또한, 이미지 생성기(1214)는 이미지 생성 정보 또는 모드 신호에 따라, 서로 다른 시야각을 갖는 카메라 모듈들(1100a, 1100b, 1100c)로부터 생성된 이미지 데이터 중 어느 하나를 선택하여 출력 이미지를 생성할 수 있다.
몇몇 실시 예에서, 이미지 생성 정보는 줌 신호(zoom signal or zoom factor)를 포함할 수 있다. 또한, 몇몇 실시 예에서, 모드 신호는 예를 들어, 유저(user)로부터 선택된 모드에 기초한 신호일 수 있다.
이미지 생성 정보가 줌 신호(줌 팩터)이고, 각각의 카메라 모듈(1100a, 1100b, 1100c)이 서로 다른 관측 시야(시야각)를 갖는 경우, 이미지 생성기(1214)는 줌 신호의 종류에 따라 서로 다른 동작을 수행할 수 있다. 예를 들어, 줌 신호가 제1 신호일 경우, 카메라 모듈(1100a)로부터 출력된 이미지 데이터와 카메라 모듈(1100c)로부터 출력된 이미지 데이터를 병합한 후, 병합된 이미지 신호와 병합에 사용하지 않은 카메라 모듈(1100b)로부터 출력된 이미지 데이터를 이용하여, 출력 이미지를 생성할 수 있다. 만약, 줌 신호가 제1 신호와 다른 제2 신호일 경우, 이미지 생성기(1214)는 이러한 이미지 데이터 병합을 수행하지 않고, 각각의 카메라 모듈(1100a, 1100b, 1100c)로부터 출력된 이미지 데이터 중 어느 하나를 선택하여 출력 이미지를 생성할 수 있다. 하지만, 실시 예들이 이에 제한되는 것은 아니며, 필요에 따라 이미지 데이터를 처리하는 방법은 얼마든지 변형되어 실시될 수 있다.
몇몇 실시 예에서, 이미지 생성기(1214)는 복수의 서브 이미지 프로세서(1212a, 1212b, 1212c) 중 적어도 하나로부터 노출 시간이 상이한 복수의 이미지 데이터를 수신하고, 복수의 이미지 데이터에 대하여 HDR(high dynamic range) 처리를 수행함으로써, 다이나믹 레인지가 증가된 병합된 이미지 데이터를 생성할 수 있다.
카메라 모듈 컨트롤러(1216)는 각각의 카메라 모듈(1100a, 1100b, 1100c)에 제어 신호를 제공할 수 있다. 카메라 모듈 컨트롤러(1216)로부터 생성된 제어 신호는 서로 분리된 제어 신호 라인(CSLa, CSLb, CSLc)을 통해 대응되는 카메라 모듈(1100a, 1100b, 1100c)에 제공될 수 있다.
복수의 카메라 모듈(1100a, 1100b, 1100c) 중 어느 하나는 줌 신호를 포함하는 이미지 생성 정보 또는 모드 신호에 따라 마스터(master) 카메라(예를 들어, 1100b)로 지정되고, 나머지 카메라 모듈들(예를 들어, 1100a, 1100c)은 슬레이브(slave) 카메라로 지정될 수 있다. 이러한 정보는 제어 신호에 포함되어, 서로 분리된 제어 신호 라인(CSLa, CSLb, CSLc)을 통해 대응되는 카메라 모듈(1100a, 1100b, 1100c)에 제공될 수 있다.
줌 팩터 또는 동작 모드 신호에 따라 마스터 및 슬레이브로서 동작하는 카메라 모듈이 변경될 수 있다. 예를 들어, 카메라 모듈(1100a)의 시야각이 카메라 모듈(1100b)의 시야각보다 넓고, 줌 팩터가 낮은 줌 배율을 나타낼 경우, 카메라 모듈(1100b)이 마스터로서 동작하고, 카메라 모듈(1100a)이 슬레이브로서 동작할 수 있다. 반대로, 줌 팩터가 높은 줌 배율을 나타낼 경우, 카메라 모듈(1100a)이 마스터로서 동작하고, 카메라 모듈(1100b)이 슬레이브로서 동작할 수 있다.
몇몇 실시 예에서, 카메라 모듈 컨트롤러(1216)로부터 각각의 카메라 모듈(1100a, 1100b, 1100c)에 제공되는 제어 신호는 싱크 인에이블 신호(sync enable) 신호를 포함할 수 있다. 예를 들어, 카메라 모듈(1100b)이 마스터 카메라이고, 카메라 모듈들(1100a, 1100c)이 슬레이브 카메라인 경우, 카메라 모듈 컨트롤러(1216)는 카메라 모듈(1100b)에 싱크 인에이블 신호를 전송할 수 있다. 이러한 싱크 인에이블 신호를 제공받은 카메라 모듈(1100b)은 제공받은 싱크 인에이블 신호를 기초로 싱크 신호(sync signal)를 생성하고, 생성된 싱크 신호를 싱크 신호 라인(SSL)을 통해 카메라 모듈들(1100a, 1100c)에 제공할 수 있다. 카메라 모듈(1100b)과 카메라 모듈들(1100a, 1100c)은 이러한 싱크 신호에 동기화되어 이미지 데이터를 애플리케이션 프로세서(1200)에 전송할 수 있다.
몇몇 실시 예에서, 카메라 모듈 컨트롤러(1216)로부터 복수의 카메라 모듈(1100a, 1100b, 1100c)에 제공되는 제어 신호는 모드 신호에 따른 모드 정보를 포함할 수 있다. 이러한 모드 정보에 기초하여 복수의 카메라 모듈(1100a, 1100b, 1100c)은 센싱 속도와 관련하여 제1 동작 모드 및 제2 동작 모드로 동작할 수 있다.
복수의 카메라 모듈(1100a, 1100b, 1100c)은 제1 동작 모드에서, 제1 속도로 이미지 신호를 생성(예를 들어, 제1 프레임 레이트의 이미지 신호를 생성)하여 이를 제1 속도보다 높은 제2 속도로 인코딩(예를 들어, 제1 프레임 레이트보다 높은 제2 프레임 레이트의 이미지 신호를 인코딩)하고, 인코딩된 이미지 신호를 애플리케이션 프로세서(1200)에 전송할 수 있다. 이때, 제2 속도는 제1 속도의 30배 이하일 수 있다.
애플리케이션 프로세서(1200)는 수신된 이미지 신호, 다시 말해서 인코딩된 이미지 신호를 내부에 구비되는 내부 메모리(1230) 또는 애플리케이션 프로세서(1200) 외부의 메모리(1400)에 저장하고, 이후, 내부 메모리(1230) 또는 외부의 메모리(1400)로부터 인코딩된 이미지 신호를 독출하여 디코딩하고, 디코딩된 이미지 신호에 기초하여 생성되는 이미지 데이터를 디스플레이할 수 있다. 예컨대 이미지 처리 장치(1210)의 복수의 서브 프로세서들(1212a, 1212b, 1212c) 중 대응하는 서브 프로세서가 디코딩을 수행할 수 있으며, 또한 디코딩된 이미지 신호에 대하여 이미지 처리를 수행할 수 있다.
복수의 카메라 모듈(1100a, 1100b, 1100c)은 제2 동작 모드에서, 제1 속도보다 낮은 제3 속도로 이미지 신호를 생성(예를 들어, 제1 프레임 레이트보다 낮은 제3 프레임 레이트의 이미지 신호를 생성)하고, 이미지 신호를 애플리케이션 프로세서(1200)에 전송할 수 있다. 애플리케이션 프로세서(1200)에 제공되는 이미지 신호는 인코딩되지 않은 신호일 수 있다. 애플리케이션 프로세서(1200)는 수신되는 이미지 신호에 대하여 이미지 처리를 수행하거나 또는 이미지 신호를 내부의 메모리(1230) 또는 외부의 메모리(1400)에 저장할 수 있다.
PMIC(1300)는 복수의 카메라 모듈(1100a, 1100b, 1100c) 각각에 전력, 예컨대 전원 전압을 공급할 수 있다. 예를 들어, PMIC(1300)는 애플리케이션 프로세서(1200)의 제어 하에, 파워 신호 라인(PSLa)을 통해 카메라 모듈(1100a)에 제1 전력을 공급하고, 파워 신호 라인(PSLb)을 통해 카메라 모듈(1100b)에 제2 전력을 공급하고, 파워 신호 라인(PSLc)을 통해 카메라 모듈(1100c)에 제3 전력을 공급할 수 있다.
PMIC(1300)는 애플리케이션 프로세서(1200)로부터의 전력 제어 신호(PCON)에 응답하여, 복수의 카메라 모듈(1100a, 1100b, 1100c) 각각에 대응하는 전력을 생성하고, 또한, 전력의 레벨을 조정할 수 있다. 전력 제어 신호(PCON)는 복수의 카메라 모듈(1100a, 1100b, 1100c)의 동작 모드 별 전력 조정 신호를 포함할 수 있다. 예를 들어, 동작 모드는 저전력 모드(low power mode)를 포함할 수 있으며, 이때, 전력 제어 신호(PCON)는 저전력 모드로 동작하는 카메라 모듈 및 설정되는 전력 레벨에 대한 정보를 포함할 수 있다. 복수의 카메라 모듈(1100a, 1100b, 1100c) 각각에 제공되는 전력들의 레벨은 서로 동일하거나 또는 서로 상이할 수 있다. 또한, 전력의 레벨은 동적으로 변경될 수 있다.
상술된 실시 예들에서, 제1, 제2, 제3 등의 용어들을 사용하여 본 발명의 기술적 사상에 따른 구성 요소들이 설명되었다. 그러나 제1, 제2, 제3 등과 같은 용어들은 구성 요소들을 서로 구별하기 위해 사용되며, 본 발명을 한정하지 않는다. 예를 들어, 제1, 제2, 제3 등과 같은 용어들은 순서 또는 임의의 형태의 수치적 의미를 내포하지 않는다.
상술된 실시 예들에서, 블록들을 사용하여 본 발명의 실시 예들에 따른 구성 요소들이 참조되었다. 블록들은 IC (Integrated Circuit), ASIC (Application Specific IC), FPGA (Field Programmable Gate Array), CPLD (Complex Programmable Logic Device) 등과 같은 다양한 하드웨어 장치들, 하드웨어 장치들에서 구동되는 펌웨어, 응용과 같은 소프트웨어, 또는 하드웨어 장치와 소프트웨어가 조합된 형태로 구현될 수 있다. 또한, 블록들은 IC 내의 반도체 소자들로 구성되는 회로들 또는 IP(Intellectual Property)로 등록된 회로들을 포함할 수 있다.
상술된 내용은 본 발명을 실시하기 위한 구체적인 실시 예들이다. 본 발명은 상술된 실시 예들뿐만 아니라, 단순하게 설계 변경되거나 용이하게 변경할 수 있는 실시 예들 또한 포함할 것이다. 또한, 본 발명은 실시 예들을 이용하여 용이하게 변형하여 실시할 수 있는 기술들도 포함될 것이다. 따라서, 본 발명의 범위는 상술된 실시 예들에 국한되어 정해져서는 안되며 후술하는 특허청구범위뿐만 아니라 이 발명의 특허청구범위와 균등한 것들에 의해 정해져야 할 것이다.
100: 카메라 모듈 110: 픽셀 어레이
120: 행 드라이버 130: 램프 신호 생성기
140: 아날로그-디지털 변환 회로 150: 메모리 회로
160: 로직 회로 170: 타이밍 생성기
PX: 픽셀 SP1~SP4: 서브 픽셀들
PD: 광 검출기들 TG: 전송 게이트들
T1~T4: 트랜지스터들 RG: 리셋 신호
DCG: 동적 변환 이득 신호 SEL: 선택 신호
VPIX: 픽셀 전압 FD: 플로팅 확산 노드

Claims (20)

  1. 하나의 행으로 배열된 픽셀들을 포함하고, 상기 픽셀들의 각각은 제1 서브 픽셀, 제2 서브 픽셀, 제3 서브 픽셀 및 제4 서브 픽셀을 포함하는 픽셀 어레이;
    행 라인들을 통해 상기 픽셀들에 연결되는 행 드라이버;
    열 라인들을 통해 상기 픽셀들에 연결되고, 그리고 상기 열 라인들의 신호들을 디지털 값들로 변환하는 아날로그-디지털 변환 회로; 그리고
    로직 회로를 포함하고,
    상기 제1 서브 픽셀, 상기 제2 서브 픽셀, 상기 제3 서브 픽셀 및 상기 제4 서브 픽셀의 각각은 제1 영역 및 제2 영역을 포함하고,
    상기 제1 영역 및 상기 제2 영역의 각각은 광 검출기를 포함하고,
    상기 행 드라이버가 상기 픽셀들 중 하나의 픽셀에 포함된 광 검출기들 중 절반보다 적은 광 검출기들의 신호들을 활성화하는 것에 응답하여, 상기 아날로그-디지털 변환 회로는 제1 신호를 생성하고,
    상기 행 드라이버가 상기 픽셀들 중 상기 하나의 픽셀에 포함된 상기 광 검출기들의 신호들을 비닝(binning)하는 것에 응답하여, 상기 아날로그-디지털 변환 회로는 제2 신호를 생성하고, 그리고
    상기 로직 회로는 상기 제1 신호에 기반하여 오토 포커스 신호를 생성하는 카메라 모듈.
  2. 제1항에 있어서,
    상기 행 라인들은:
    상기 픽셀들의 제1 서브 픽셀들의 제1 영역들의 광 검출기들에 연결되는 제1 행 라인;
    상기 픽셀들의 상기 제1 서브 픽셀들의 제2 영역들의 광 검출기들에 연결되는 제2 행 라인;
    상기 픽셀들의 제2 서브 픽셀들의 제1 영역들의 광 검출기들에 연결되는 제3 행 라인;
    상기 픽셀들의 상기 제2 서브 픽셀들의 제2 영역들의 광 검출기들에 연결되는 제4 행 라인;
    상기 픽셀들의 제3 서브 픽셀들의 제1 영역들의 광 검출기들에 연결되는 제5 행 라인;
    상기 픽셀들의 상기 제3 서브 픽셀들의 제2 영역들의 광 검출기들에 연결되는 제6 행 라인;
    상기 픽셀들의 제4 서브 픽셀들의 제1 영역들의 광 검출기들에 연결되는 제7 행 라인; 그리고
    상기 픽셀들의 상기 제4 서브 픽셀들의 제2 영역들의 광 검출기들에 연결되는 제8 행 라인을 포함하는 카메라 모듈.
  3. 제1항에 있어서,
    상기 행 라인들은:
    상기 픽셀들의 제1 서브 픽셀들의 제1 영역들의 광 검출기들에 연결되는 제1 행 라인;
    상기 픽셀들의 제2 서브 픽셀들의 제1 영역들의 광 검출기들에 연결되는 제2 행 라인;
    상기 픽셀들의 상기 제1 서브 픽셀들의 제2 영역들의 광 검출기들 및 상기 픽셀들의 상기 제2 서브 픽셀들의 제2 영역들의 광 검출기들에 연결되는 제3 행 라인;
    상기 픽셀들의 제3 서브 픽셀들의 제1 영역들의 광 검출기들 및 상기 픽셀들의 제4 서브 픽셀들의 제1 영역들의 광 검출기들에 연결되는 제4 행 라인; 그리고
    상기 픽셀들의 상기 제3 서브 픽셀들의 제2 영역들의 광 검출기들 및 상기 픽셀들의 상기 제4 서브 픽셀들의 제2 영역들의 광 검출기들에 연결되는 제5 행 라인을 포함하는 카메라 모듈.
  4. 제1항에 있어서,
    상기 행 라인들은:
    상기 픽셀들의 제1 서브 픽셀들의 제1 영역들의 광 검출기들에 연결되는 제1 행 라인;
    상기 픽셀들의 제2 서브 픽셀들의 제1 영역들의 광 검출기들에 연결되는 제2 행 라인;
    상기 픽셀들의 상기 제1 서브 픽셀들의 제2 영역들의 광 검출기들 및 상기 픽셀들의 상기 제2 서브 픽셀들의 제2 영역들의 광 검출기들에 연결되는 제3 행 라인;
    상기 픽셀들의 제3 서브 픽셀들의 제1 영역들의 광 검출기들에 연결되는 제4 행 라인;
    상기 픽셀들의 제4 서브 픽셀들의 제1 영역들의 광 검출기들에 연결되는 제5 행 라인;
    상기 픽셀들의 상기 제3 서브 픽셀들의 제2 영역들의 광 검출기들 및 상기 픽셀들의 상기 제4 서브 픽셀들의 제2 영역들의 광 검출기들에 연결되는 제6 행 라인을 포함하는 카메라 모듈.
  5. 제1항에 있어서,
    상기 행 라인들은:
    상기 픽셀들 중 제1 픽셀의 제1 서브 픽셀의 제1 영역의 광 검출기 및 상기 픽셀들 중 제2 픽셀의 제1 서브 픽셀의 제2 영역의 광 검출기에 연결되는 제1 행 라인;
    상기 제1 픽셀의 상기 제1 서브 픽셀의 제2 영역의 광 검출기 및 상기 제2 픽셀의 제1 영역의 광 검출기에 연결되는 제2 행 라인;
    상기 제1 픽셀 및 상기 제2 픽셀의 제2 서브 픽셀들의 제1 영역들의 광 검출기들에 연결되는 제3 행 라인;
    상기 제1 픽셀 및 상기 제2 픽셀의 상기 제2 서브 픽셀들의 제2 영역들의 광 검출기들에 연결되는 제4 행 라인;
    상기 제1 픽셀 및 상기 제2 픽셀의 제3 서브 픽셀들의 제1 영역들의 광 검출기들에 연결되는 제5 행 라인;
    상기 제1 픽셀 및 상기 제2 픽셀의 상기 제3 서브 픽셀들의 제2 영역들의 광 검출기들에 연결되는 제6 행 라인;
    상기 제1 픽셀의 제4 서브 픽셀의 제1 영역의 광 검출기 및 상기 제2 픽셀의 상기 제4 서브 픽셀의 제2 영역의 광 검출기에 연결되는 제7 행 라인; 그리고
    상기 제1 픽셀의 상기 제4 서브 픽셀의 제2 영역의 광 검출기 및 상기 제2 픽셀의 상기 제4 서브 픽셀의 제1 영역의 광 검출기에 연결되는 제8 행 라인을 포함하는 카메라 모듈.
  6. 제1항에 있어서,
    상기 행 드라이버가 상기 픽셀들 중 상기 하나의 픽셀에 포함된 상기 광 검출기들 중 상기 절반보다 적은 광 검출기들의 신호들을 활성화하는 것은,
    상기 행 드라이버가 상기 하나의 픽셀에 포함된 상기 광 검출기들 중 하나의 광 검출기의 신호를 활성화하는 것을 포함하는 카메라 모듈.
  7. 제6항에 있어서,
    상기 로직 회로는 상기 제2 신호의 값으로부터 상기 제1 신호의 값의 4배의 값을 감한 값, 그리고 상기 제1 신호의 값에 기반하여 상기 오토 포커스 신호를 생성하는 카메라 모듈.
  8. 제1항에 있어서,
    상기 행 드라이버가 상기 픽셀들 중 상기 하나의 픽셀에 포함된 상기 광 검출기들 중 상기 절반보다 적은 광 검출기들의 신호들을 활성화하는 것은,
    상기 행 드라이버가 상기 픽셀들 중 상기 하나의 픽셀의 제1 서브 픽셀의 제1 영역의 광 검출기 및 상기 하나의 픽셀의 제3 서브 픽셀의 제1 영역의 광 검출기의 신호들을 비닝하는 것을 포함하는 카메라 모듈.
  9. 제8항에 있어서,
    상기 로직 회로는 상기 제2 신호의 값으로부터 상기 제1 신호의 값의 2배의 값을 감한 값, 그리고 상기 제1 신호의 값에 기반하여 상기 오토 포커스 신호를 생성하는 카메라 모듈.
  10. 제1항에 있어서,
    상기 행 드라이버가 상기 픽셀들 중 상기 하나의 픽셀에 포함된 상기 광 검출기들 중 상기 절반보다 적은 광 검출기들의 신호들을 활성화하는 것은,
    상기 행 드라이버가 상기 픽셀들 중 상기 하나의 픽셀의 제1 서브 픽셀의 제1 영역의 광 검출기 및 상기 하나의 픽셀의 제2 서브 픽셀의 제1 영역의 광 검출기의 신호들을 비닝하는 것을 포함하는 카메라 모듈.
  11. 제1항에 있어서,
    상기 행 드라이버가 상기 픽셀들 중 상기 하나의 픽셀에 포함된 상기 광 검출기들 중 상기 절반보다 적은 광 검출기들의 신호들을 활성화하는 것은,
    상기 행 드라이버가 상기 픽셀들 중 상기 하나의 픽셀의 제1 서브 픽셀의 제1 영역의 광 검출기 및 상기 하나의 픽셀의 제4 서브 픽셀의 제1 영역의 광 검출기의 신호들을 비닝하는 것을 포함하는 카메라 모듈.
  12. 제1항에 있어서,
    상기 행 드라이버가 상기 픽셀들 중 상기 하나의 픽셀에 포함된 상기 광 검출기들 중 상기 절반보다 적은 광 검출기들의 신호들을 활성화하는 것은,
    상기 행 드라이버가 상기 픽셀들 중 상기 하나의 픽셀의 제1 서브 픽셀의 제1 영역의 광 검출기 및 상기 하나의 픽셀의 제4 서브 픽셀의 제1 영역의 광 검출기의 신호들을 비닝하고, 그리고
    상기 행 드라이버가 상기 픽셀들 중 다른 하나의 픽셀의 제1 서브 픽셀의 제2 영역의 광 검출기 및 상기 하나의 픽셀의 제4 서브 픽셀의 제2 영역의 광 검출기의 신호들을 비닝하는 것을 포함하는 카메라 모듈.
  13. 제12항에 있어서,
    상기 로직 회로는 상기 제1 신호 중 상기 하나의 픽셀과 연관된 신호, 그리고 상기 제1 신호 중 상기 다른 하나의 픽셀과 연관된 신호에 기반하여 상기 오토 포커스 신호를 생성하는 카메라 모듈.
  14. 제1항에 있어서,
    상기 행 라인들은:
    상기 픽셀들의 제1 서브 픽셀들의 제1 영역들의 광 검출기들 및 제2 서브 픽셀들의 제1 영역들의 광 검출기들에 연결되는 제1 행 라인;
    상기 픽셀들의 상기 제1 서브 픽셀들의 제2 영역들의 광 검출기들 및 상기 제2 서브 픽셀들의 제2 영역들의 광 검출기들에 연결되는 제2 행 라인;
    상기 픽셀들의 제3 서브 픽셀들의 제1 영역들의 광 검출기들 및 제4 서브 픽셀들의 제1 영역들의 광 검출기들에 연결되는 제1 행 라인; 그리고
    상기 픽셀들의 상기 제3 서브 픽셀들의 제2 영역들의 광 검출기들 및 상기 제4 서브 픽셀들의 제2 영역들의 광 검출기들에 연결되는 제2 행 라인을 포함하는 카메라 모듈.
  15. 제1항에 있어서,
    상기 행 드라이버가 상기 픽셀들 중 상기 하나의 픽셀에 포함된 상기 광 검출기들의 신호들을 비닝(binning)하는 것에 응답하여, 상기 아날로그-디지털 변환 회로는 제3 신호를 생성하고, 그리고
    상기 제3 신호가 생성될 때, 상기 행 드라이버는 상기 픽셀들의 플로팅 확산 노드(Floating Difusion)의 커패시턴스를 증가시키는 카메라 모듈.
  16. 복수의 픽셀들을 포함하고, 상기 복수의 픽셀들은 복수의 서브 픽셀들을 포함하고, 그리고 상기 복수의 서브 픽셀들의 각각은 복수의 광 검출기들을 포함하는 카메라 모듈의 동작 방법에 있어서:
    상기 복수의 픽셀들 중 하나의 픽셀의 광 검출기들 중 절반보다 적은 광 검출기들로부터 신호를 수신하는 단계; 그리고
    상기 신호의 레벨이 제1 문턱보다 작은 것에 응답하여, 상기 절반보다 적은 광 검출기들의 수를 증가시키는 단계를 포함하고,
    상기 신호에 기반하여 오토 포커싱이 수행되는 동작 방법.
  17. 제16항에 있어서,
    상기 신호의 레벨이 제2 문턱보다 큰 것에 응답하여, 상기 절반보다 적은 광 검출기들의 수를 감소시키는 단계를 더 포함하고,
    상기 제2 문턱의 값은 상기 제1 문턱의 값보다 큰 동작 방법.
  18. 제17항에 있어서,
    상기 신호의 레벨이 상기 제1 문턱보다 작지 않고 그리고 상기 제2 문턱보다 크지 않은 것에 응답하여, 상기 절반보다 적은 광 검출기들의 수를 유지하는 단계를 더 포함하는 동작 방법.
  19. 제1 행에 배열된 제1 광 검출기, 제2 광 검출기, 제3 광 검출기 및 제4 광 검출기;
    제2 행에 배열된 제5 광 검출기, 제6 광 검출기, 제7 광 검출기 및 제8 광 검출기;
    제1 시간 구간에서 상기 제1 내지 제8 광 검출기들 중 절반보다 수의 광 검출기들을 플로팅 확산 노드에 연결하고, 제2 시간 구간에서 상기 제1 내지 제8 광 검출기들을 상기 플로팅 확산 노드에 연결하고, 그리고 제3 시간 구간에서 상기 제1 내지 제8 광 검출기들을 상기 플로팅 확산 노드에 연결하는 행 드라이버; 그리고
    상기 제1 시간 구간에서 상기 플로팅 확산 노드로부터 제1 신호를 생성하고, 상기 제2 시간 구간에서 상기 플로팅 확산 노드로부터 제2 신호를 생성하고, 그리고 상기 제3 시간 구간에서 상기 플로팅 확산 노드로부터 제3 신호를 생성하는 아날로그-디지털 변환 회로를 포함하고,
    상기 제1 신호는 오토 포커싱에 사용되는 카메라 모듈.
  20. 제19항에 있어서,
    상기 절반보다 적은 광 검출기들의 수는 상기 제1 신호의 레벨에 의존하여 가변되는 카메라 모듈.
KR1020210049836A 2021-04-16 2021-04-16 카메라 모듈 및 카메라 모듈의 동작 방법 KR20220144014A (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020210049836A KR20220144014A (ko) 2021-04-16 2021-04-16 카메라 모듈 및 카메라 모듈의 동작 방법
US17/565,591 US20220337771A1 (en) 2021-04-16 2021-12-30 Camera module and operating method of camera module
CN202210259465.3A CN115225835A (zh) 2021-04-16 2022-03-16 相机模块和相机模块的操作方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210049836A KR20220144014A (ko) 2021-04-16 2021-04-16 카메라 모듈 및 카메라 모듈의 동작 방법

Publications (1)

Publication Number Publication Date
KR20220144014A true KR20220144014A (ko) 2022-10-26

Family

ID=83601842

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210049836A KR20220144014A (ko) 2021-04-16 2021-04-16 카메라 모듈 및 카메라 모듈의 동작 방법

Country Status (3)

Country Link
US (1) US20220337771A1 (ko)
KR (1) KR20220144014A (ko)
CN (1) CN115225835A (ko)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101597785B1 (ko) * 2009-07-14 2016-02-25 삼성전자주식회사 이미지 센서 및 영상 처리 방법
JP5979849B2 (ja) * 2011-11-21 2016-08-31 キヤノン株式会社 撮像素子及び撮像装置
JP6366251B2 (ja) * 2013-01-07 2018-08-01 キヤノン株式会社 撮像装置および撮像装置の制御方法
JP6553881B2 (ja) * 2015-02-05 2019-07-31 キヤノン株式会社 画像処理装置
CN115037888B (zh) * 2017-11-22 2024-05-17 索尼半导体解决方案公司 固态摄像元件和电子设备
US11658202B2 (en) * 2020-05-15 2023-05-23 Omnivision Technologies, Inc. Dual row select pixel for fast pixel binning

Also Published As

Publication number Publication date
US20220337771A1 (en) 2022-10-20
CN115225835A (zh) 2022-10-21

Similar Documents

Publication Publication Date Title
US11825216B2 (en) Image sensor
US11425323B2 (en) Image sensor and operating method thereof
US11588988B2 (en) Image sensor and binning method thereof
US11665444B2 (en) Image sensor, pixel, and method of operating the pixel
KR20210156458A (ko) 이미지 센싱 장치 및 이를 포함하는 전자 장치
KR20220038972A (ko) 전자 장치 및 그 이미지 비닝방법
US11950011B2 (en) Image sensor
JP2023008830A (ja) イメージセンサ、イメージセンサを含むイメージ装置、及びイメージ装置の動作方法
KR20230078460A (ko) 이미지 센서 및 이미지 센서의 자동 초점 동작 방법
KR20220144014A (ko) 카메라 모듈 및 카메라 모듈의 동작 방법
KR20230000673A (ko) 듀얼 컨버전 게인을 이용한 노이즈 감소를 위한 이미지 처리 장치 및 그 동작 방법
US11825226B2 (en) Image sensor and pixel array of image sensor
US11758288B2 (en) Device for improving image resolution in camera system having lens that permits distortion and operation method thereof
US11863893B2 (en) Image sensor including auto-focus pixels that receive the same transmission control signal
US20220408038A1 (en) Image sensing device
US20230154945A1 (en) Image sensor
US12028634B2 (en) Image sensor
US20240147089A1 (en) Image sensor for reducing noise
US20230005980A1 (en) Image sensor
KR20240016799A (ko) 이미지 센서, 상기 이미지 센서의 동작 방법 및 복수의 포토다이오드를 포함하는 픽셀
KR20240050051A (ko) 이미지 센서, 상기 이미지 센서의 동작 방법 및 이미지 처리 장치
KR20240098804A (ko) 이미지 센서
KR20230135389A (ko) 이미지 센싱 장치 및 그 이미지 신호 프로세싱 방법
KR20230120074A (ko) 이미지 센서, 이미지 센서의 프로세서 및 이미지 처리방법
KR20220111770A (ko) 이미지 센서 및 그를 포함하는 전자 장치

Legal Events

Date Code Title Description
A201 Request for examination