KR20140123302A - 영상 처리 장치 및 그 제어방법 - Google Patents

영상 처리 장치 및 그 제어방법 Download PDF

Info

Publication number
KR20140123302A
KR20140123302A KR1020130040454A KR20130040454A KR20140123302A KR 20140123302 A KR20140123302 A KR 20140123302A KR 1020130040454 A KR1020130040454 A KR 1020130040454A KR 20130040454 A KR20130040454 A KR 20130040454A KR 20140123302 A KR20140123302 A KR 20140123302A
Authority
KR
South Korea
Prior art keywords
depth
focus lens
lens position
representative
depth sensor
Prior art date
Application number
KR1020130040454A
Other languages
English (en)
Inventor
손우람
유수진
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020130040454A priority Critical patent/KR20140123302A/ko
Priority to US14/250,579 priority patent/US20140307126A1/en
Publication of KR20140123302A publication Critical patent/KR20140123302A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/958Computational photography systems, e.g. light-field imaging systems for extended depth of field imaging
    • H04N23/959Computational photography systems, e.g. light-field imaging systems for extended depth of field imaging by adjusting depth of field during image capture, e.g. maximising or setting range based on scene characteristics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/634Warning indications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/673Focus control based on electronic image sensor signals based on contrast or high frequency components of image signals, e.g. hill climbing method

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)

Abstract

영상 처리 장치 및 그 제어방법의 일 측면은 피사체로부터 광 신호를 수신하는 촬영 렌즈; 촬영 렌즈를 통해 입사되는 광 신호를 기초로 영상 데이터를 출력하는 깊이 센서(Depth Sensor); 및 깊이 센서로부터 전달되는 영상 데이터로부터 깊이 센서의 포커스 렌즈 위치와 콘트라스트(Contrast) 포커스 렌즈 위치를 산출하여 깊이 센서의 깊이별 포커스 렌즈 기준위치를 보정하는 제어부;를 포함한다.

Description

영상 처리 장치 및 그 제어방법{IMAGE PROCESSING APPARATUS AND METHOD OF CONTROLLING THEREOF}
영상 처리 장치 및 그 제어방법에 관한 것이다.
현재, 깊이와 컬러를 동시에 취득할 수 있는 이미지 센서가 카메라는 물론 모바일 디스플레이에 다양하게 적용되고 있는 추세이다. 이러한 이미지 센서가 장착된 카메라는 깊이 센서(Depth Sensor)로 취득한 사물의 거리를 이용하여 오토 포커스(Auto Focus)를 수행할 수 있다.
상술한 깊이 센서 이외에 콘트라스트 센서(Contrast Sensor)를 이용한 오토 포커스는 모터를 통해 포커스 렌즈를 앞, 뒤로 이동하면서 최적의 AF 위치를 찾는 반면에, 깊이 센서의 오토 포커스는 사물의 거리에 해당하는 위치에 포커스 렌즈를 바로 이동시키는 방식으로 포커싱 속도가 다른 오토 포커싱 방식에 비해 상대적으로 빠르다. 또한, 깊이 센서는 위싱차 오토 포커스와 달리 추가적인 기구물이 요구되지 않는다. 그러나, 깊이 센서의 오토 포커스는 오토 포커스의 오차가 누적되는 현상이 발생하고 있다.
영상 처리 장치 및 그 제어방법의 일 측면은 깊이 센서의 깊이별 포커스 렌즈 위치의 보정을 자동으로 수행할 수 있도록 하기 위한 영상 처리 장치 및 그 제어방법을 제공하기 위한 것이다.
개시된 발명의 일 측면에 따른 영상 처리 장치는 피사체로부터 광 신호를 수신하는 촬영 렌즈; 상기 촬영 렌즈를 통해 입사되는 광 신호를 기초로 영상 데이터를 출력하는 깊이 센서(Depth Sensor); 및 상기 깊이 센서로부터 전달되는 영상 데이터로부터 깊이 센서의 포커스 렌즈 위치와 콘트라스트(Contrast) 포커스 렌즈 위치를 산출하여 상기 깊이 센서의 깊이별 포커스 렌즈 기준위치를 보정하는 제어부;를 포함할 수 있다.
개시된 발명의 일 측면에 따른 영상 처리 장치의 제어방법은 사용자의 선택에 따라 셀프 보정모드를 구동하는 단계; 깊이 센서(Depth Sensor)로부터 전달되는 영상 데이터로부터 복수 개의 깊이별 대표 영역을 추출하는 단계; 및 상기 깊이별 대표 영역에 대한 깊이 센서의 포커스 렌즈 위치와 콘트라스트 포커스 렌즈 위치를 이용하여 상기 깊이 센서의 깊이별 포커스 렌즈 위치를 보정하는 단계;를 포함할 수 있다.
영상 처리 장치 및 그 제어방법의 일 측면에 의하면, 깊이 센서의 깊이별 포커스 렌즈 위치를 자동으로 보정하여 포커스 렌즈 모터의 오차 누적을 제거하기 때문에, 깊이 센서의 오토 포커스 수행 결과에 대한 신뢰성을 향상시킬 수 있다.
도 1은 개시된 발명의 일 실시예에 따른 영상 처리 장치의 구성을 나타내는 도면이다.
도 2는 도 1에 도시된 영상 처리 장치의 일부를 상세하게 나타내는 도면이다.
도 3은 도 1에 도시된 깊이 센서의 구성을 보다 상세하게 나타내는 도면이다.
도 4는 도 1에 도시된 오차 검출부의 구성을 보다 상세하게 나타내는 도면이다.
도 5 내지 도 7은 개시된 발명의 일 실시예에 따른 깊이별 대표 영역을 추출하는 방법을 설명하기 위한 도면이다.
도 8은 개시된 발명의 실시예에 따른 깊이별 포커스 렌즈 위치의 보정값을 산출하는 방법을 설명하기 위한 도면이다.
도 9는 개시된 발명의 일 실시예에 따른 영상 처리 장치의 제어 방법을 설명하기 위한 흐름도이다.
본 발명의 목적, 특정한 장점들 및 신규한 특징들은 첨부된 도면들과 연관되는 이하의 상세한 설명과 바람직한 실시예들로부터 더욱 명백해질 것이다. 본 명세서에서 각 도면의 구성요소들에 참조번호를 부가함에 있어서, 동일한 구성 요소들에 한해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 번호를 가지도록 하고 있음에 유의하여야 한다. 또한, 본 발명을 설명함에 있어서, 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명은 생략한다. 본 명세서에서, 제1, 제2 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하기 위해 사용되는 것으로, 구성요소가 상기 용어들에 의해 제한되는 것은 아니다.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시형태를 상세히 설명하기로 한다.
도 1은 개시된 발명의 일 실시예 따른 영상 처리 장치의 구성을 나타내는 도면이다.
도 1에서 도시하는 바와 같이, 영상 처리 장치(100)는 쵤영렌즈(110), AF 모듈(120), 제어부(130), 촬상부(140), 신호 처리부(150), 메모리(160) 및 디스플레이(170)를 포함할 수 있다.
보다 상세히 설명하면, 촬영렌즈(110)는 피사체의 크기를 확대 또는 축소시킬 수 있는 줌렌즈(미도시), 피사체의 초점을 조절하는 포커스 렌즈(미도시) 및 광량을 조절하는 조리개를 포함하여, 피사체로부터 광신호를 수신할 수 있다.
AF 모듈(120)은 제어부(130)의 제어에 따라 촬영된 피사체의 초점을 검출하고, 피사체의 초점이 맞춰지도록 촬영렌즈(110)의 위치를 이동시키도록 할 수 있다.
제어부(130)는 AF 모듈(120)에서 출력되는 영상 데이터로부터 깊이 센서(Depth Sensor)의 포커스 렌즈 위치와 콘트라스트(Contrast) 포커스 렌즈 위치를 검출할 수 있으며, 이에 대한 상세한 설명은 후술하기로 한다.
촬상부(140)는 촬영렌즈(110)를 통해 입사되는 피사체의 광신호를 전기적 신호로 변환하여 출력하는 촬상소자일 수 있다.
신호처리부(150)는 촬상부(140)에서 출력된 전기적 신호에 대한 이득 조정, 잡음제거, 감마보정, 휘도신호 분리 및 영상신호 압축 등의 신호처리를 수행할 수 있다. 신호처리부(150)는 신호처리된 영상을 메모리(160)에 저장하고, 디스플레이(170)에 디스플레이시킬 수 있다. 이때, 디스플레이(170)는 뷰 파인더를 나타낼 수 있다.
도 2는 도 1에 도시된 영상 처리 장치의 일부를 상세하게 나타내는 도면이고, 도 3은 도 1에 도시된 깊이 센서의 구성을 보다 상세하게 나타내는 도면이고, 도 4는 도 1에 도시된 오차 검출부의 구성을 보다 상세하게 나타내는 도면이다.
이때, 깊이별 대표 영역을 추출하는 방법을 설명하기 위한 도 5 내지 도 7 및 깊이별 포커스 렌즈 위치의 보정값을 산출하기 위한 도 8을 참조하여 설명하기로 한다.
도 2에서 도시하는 바와 같이, 영상 처리 장치는 촬영렌즈(210), 깊이 센서(Depth Sensor)(220), 제어부(230) 및 메모리(290)를 포함할 수 있다. 이때, 제어부(230)는 셀프 보정모드 구동부(240), 깊이 AF(Depth Auto Focus) 검출부(250), 콘트라스트 AF(Contrast Auto Focus) 검출부(260), 오차 검출부(270) 및 핀 교정부(280)를 포함할 수 있다.
보다 상세히 설명하면, 촬영 렌즈(210)는 피사체로부터 광 신호를 수신할 수 있다.
깊이 센서(220)는 촬영 렌즈(210)를 통해 입사되는 광 신호를 기초로 영상 데이터를 출력하는 구성으로, TOF(Time of Flight) 원리를 이용하여 소스(Source)로부터 방사된 펄스 형태의 신호가 대상 물체(예를 들어, 피사체)에 의해 발사되어 되돌아 올 때까지의 지연 시간을 측정하여 깊이 센서와 대상 물체 사이의 깊이(또는 거리)를 계산할 수 있다. 이때, 깊이 센서(220)의 소스로부터 출력되는 신호는 마이크로파(Micro wave), 광파(Light wave), 초음파(Ultrasonic wave) 등일 수 있다.
깊이 센서(220)는 TOF 원리를 이용하여 대상 물체까지의 깊이를 계산하는데, 서로 다른 위상차로 측정된 다수의 프레임 신호를 이용하여 대상 물체까지의 깊이를 계산할 수 있다. 예를 들어, 4-탭 픽셀 구조(4-Tap Pixel Structure)의 깊이 픽셀을 이용하는 깊이 센서는 동시에 0도, 90도, 180도, 270도의 위상차를 갖는 게이트 신호들을 깊이 픽셀에 인가하여 대상 물체로부터 반사되는 광신호로부터 동시에 다수의 프레임 신호들을 추출하여 대상 물체까지의 깊이를 계산할 수 있다. 또한, 1-탭 픽셀 구조 또는 2-탭 픽셀 구조의 깊이 픽셀을 이용하는 깊이 센서는 시간차를 두고 0도, 90도, 180도, 270도의 위상차를 갖는 게이트 신호들을 깊이 픽셀에 인가하며, 시간차를 가지고 측정되는 다수의 프레임 신호들을 이용하여 대상 물체까지의 깊이를 계산할 수 있다.
보다 상세히 설명하면, 도 3에서 도시하는 바와 같이, 깊이 센서(220)는 RGB 데이터 추출부(221) 및 깊이 맵 추출부(223)를 포함할 수 있다.
RGB 데이터 추출부(221)는 촬영된 영상으로부터 RGB 영상 데이터를 추출할 수 있다. 이때, RGB 영상 데이터는 각 픽셀별 RGB 정보를 포함하고 있는 형태일 수 있다.
깊이 맵 추출부(223)는 촬영된 영상으로부터 각 픽셀별 피사체의 거리정보를 포함하는 깊이 맵(Depth Map)을 추출할 수 있다. 이때, 깊이 맵은 각 픽셀별 거리 정보를 포함하고 있는 형태일 수 있다.
제어부(230)는 깊이 센서(220)로부터 전달되는 영상 데이터로부터 깊이 센서의 포커스 렌즈 위치와 콘트라스트(Contrast) 포커스 렌즈 위치를 산출하여 상기 깊이 센서(220)의 깊이별 포커스 렌즈 기준위치를 보정할 수 있다.
도 2에서 도시하는 바와 같이, 제어부(230)는 셀프 보정모드 구동부(240), 깊이 AF 검출부(250), 콘트라스트 AF 검출부(260), 오차 검출부(270) 및 핀 교정부(280)를 포함할 수 있다.
셀프 보정모드 구동부(240)는 사용자의 선택에 따라 셀프 보정모드를 구동시킬 수 있다. 도시하지 않았지만, 영상 처리 장치(100)는 셀프 보정모드 구동을 위한 셀프 보정모드 전환 키 또는 셀프 보정모드 전환 메뉴를 포함할 수 있으며, 이에 한정되지 않는다. 이에 따라, 셀프 보정모드 구동부(240)는 사용자에 의해서 셀프 보정모드 전환 키 또는 셀프 보정모드 전환 메뉴가 선택됨에 따라 입력되는 요청을 수신하여 셀프 보정모드를 구동시킬 수 있다. 이때, 셀프 보정모드는 깊이 센서의 포커스 렌즈 기준위치를 보정하기 위한 모드를 의미하는 것으로 정의하기로 한다.
또한, 셀프 보정모드 구동부(240)는 깊이 센서(220)로부터 전달된 영상 데이터의 조도가 기 설정된 저조도 기준치 이하이거나, 또는 콘트라스트 인식 기준치 이하인 경우, 셀프 보정모드 구동을 제한할 수 있다. 예를 들어, 셀프 보정모드 구동부(240)는 깊이 센서(220)로부터 전달된 영상 데이터의 조도가 기 설정된 저조도 기준치 이하인 경우, 취득된 영상 데이터를 통한 포커스 렌즈 위치 보정은 무리가 있다고 판단하여 셀프 보정모드 전환을 제한하는 것이다. 이때, 저조도 기준치는 운용자에 의해서 임의로 설정될 수 있으며, 이에 한정되지 않는다.
또한, 셀프 보정모드 구동부(240)는 취득된 영상 데이터가 콘트라스트 인식 기준치 이하인 경우, 영상 데이터를 통한 콘트라스트 인식이 어려워 보정 절차는 불가능하다고 판단하여 사용자에 의한 셀프 보정모드 전환요청이 입력되어도 셀프 보정모드 전환을 수행하지 않는 것이다. 예를 들어, 콘트라스트 인식이 어려운 경우는, 취득된 영상 데이터가 단색의 피사체인 경우일 수 있으며, 이에 한정되지 않는다. 이때, 영상 처리 장치(100)는 별도의 디스플레이(170)를 통해 셀프 보정모드 전환 실패를 출력하여 사용자가 인식할 수 있도록 한다.
한편, 셀프 보정모드 구동부(240)에서의 콘트라스트 인식 가능 여부를 파악하는 것은 콘트라스트 AF 검출부(260)를 통해 이루어지는 것도 가능하다 할 것이다.
깊이 AF(Auto Focus) 검출부(250)는 깊이 센서(220)로부터 전달되는 영상 데이터로부터 깊이 센서의 포커스 렌즈 위치를 검출할 수 있다. 깊이 AF 검출부(250)는 깊이 맵으로부터 기 설정된 제1 포커스 렌즈 위치파악기준에 따라 각 픽셀별 깊이 센서의 포커스 렌즈 위치를 산출할 수 있다.
이때, 제1 포커스 렌즈 위치파악기준은 각 픽셀별 거리 정보를 포함하고 있는 형태의 깊이 맵으로부터 깊이 센서의 오토 포커스 수행에 따라 포커스 렌즈 위치를 검출하는 기준을 의미하는 것으로 정의하기로 한다.
콘트라스트 AF 검출부(260)는 깊이 센서(220)로부터 전달되는 영상 데이터로부터 콘트라스트 포커스 렌즈 위치를 검출할 수 있다.
보다 상세히 설명하면, 콘트라스트 AF 검출부(260)는 RGB 데이터 추출부(221)로부터 전달되는 RGB 영상 데이터로부터 기 설정된 제2 포커스 렌즈 위치파악기준에 따라 각 픽셀별 콘트라스트의 포커스 렌즈 위치를 파악할 수 있다. 이때, 제2 포커스 렌즈 위치파악기준은 RGB 영상 데이터로부터 콘트라스트 오토 포커스 수행 시의 포커스 렌즈 위치를 검출하는 기준을 의미하는 것으로 정의하기로 한다.
상기 콘트라스트 AF 검출부(260)는 오토 포커싱 판정에 필요한 대역의 필터에 의해 화상 신호로부터 추출된 고주파 성분이 콘트라스트 AF 평가값으로서 추출될 수 있다. 콘트라스트 AF 검출부(150)는 콘트라스트 AF 평가값이 최대로 되도록 포커스 렌즈를 전후 이동 제어해서 포커스를 조절하는 방식을 적용한다. 즉, 피사체를 촬영하는 경우, 최대 콘트라스트 AF 평가값을 갖는 포커스 렌즈의 위치가 통상적인 인포커스 점인 것이다.
상술한 콘트라스트 AF 검출부(260)는 영상 처리 장치(100) 내에서 깊이 센서(220)로부터 전달된 RGB 영상 데이터로부터 포커스 렌즈 위치를 파악하는 기능을 수행하는 것이 가능하다면 별도의 하드웨어 구성없이 소프트웨어 형태로 구현되는 것이 가능하며, 이에 한정되지 않고, 운용자의 필요에 따라 별도의 하드웨어 형태로 구현하는 것도 가능하다 할 것이다.
오차 검출부(270)는 깊이 센서(220)로부터 전달되는 영상 데이터로부터 깊이별 대표 영역을 추출하고, 추출된 깊이별 대표 영역의 깊이 센서(220)의 포커스 렌즈 위치와 콘트라스트(Contrast) 포커스 렌즈 위치를 기초로 깊이 센서(220)의 깊이별 포커스 렌즈 위치의 보정값을 산출할 수 있다.
즉, 발명의 일 실시예에서는 깊이 센서(220)의 포커스 렌즈 기준위치를 보정하기 위하여 깊이 센서(220)에 비해 포커스 렌즈 위치의 정확도가 상대적으로 양호한 콘트라스트 포커스 렌즈 위치를 기준으로 차이를 비교하여 보정값을 산출하는 것이다.
보다 상세히 설명하면, 도 4에서 도시하는 바와 같이, 오차 검출부(270)는 대표 깊이 영역 추출부(271) 및 오차 파악부(273)를 포함할 수 있다.
대표 깊이 영역 추출부(271)는 깊이 센서(220)로부터 전달되는 영상 데이터로부터 복수 개의 깊이별 대표 영역을 추출할 수 있다. 예를 들어, 도 5에서 도시하는 것과 같이, 대표 깊이 영역 추출부(271)는 깊이 센서(220)로부터 전달되는 첫 번째 영상 데이터(도 5의 (a))로부터 사물을 분리하고 거리별로 대표 영역(도 5 (b)의 A, B, C)을 추출할 수 있다.
이때, 깊이 센서(220)로부터 전달되는 영상 데이터는 피사체에 대한 거리 정보를 포함하고 있기 때문에, 대표 깊이 영역 추출부(271)는 피사체에 대한 거리 정보를 기초로 각각의 깊이별 대표 영역을 추출할 수 있는 것이다.
또한, 도 6에서 도시하는 바와 같이, 대표 깊이 영역 추출부(271)는 두 번째 영상 데이터(도 6의 (a))로부터 도 6 (b)의 D와 같이 깊이별 대표 영역을 추가로 추출할 수 있다.
대표 깊이 영역 추출부(271)는 상술한 과정을 통해 도 7에서 도시하는 바와 같이, 30cm, 50cm, 120cm, 200cm 깊이에 대해 각각 A, B, C 및 D 대표 영역을 추출할 수 있다.
한편, 대표 깊이 영역 추출부(271)는 다양한 깊이에 대한 대표 영역을 추출할수록 다양한 깊이의 포커스 렌즈 위치를 보정할 수 있고, 이로 인해 영상 처리에 대한 신뢰성도 향상되기 때문에, 셀프 보정을 위해 여러 번의 촬영을 수행하여 각각에 대한 복수 개의 깊이별 대표 영역을 추출하는 것이다.
이때, 셀프 보정모드를 위한 촬영은 운용자에 의해서 설정된 횟수에 따라 수행될 수 있으며, 이에 한정되지 않고 사용자에 의해서 실시간으로 설정되는 횟수에 따라 수행되는 것도 가능하다 할 것이다.
또한, 대표 깊이 영역 추출부(271)는 영상 데이터로부터 복수 개의 깊이별 대표 영역을 추출할 때, 기 저장된 깊이별 대표 영역 추출이력을 확인하여 기 설정된 기준시간을 초과한 깊이에 대한 대표 영역을 추출할 수 있다. 이때, 깊이별 대표 영역 추출이력은 대표 영역이 추출된 깊이와 해당 깊이에 대한 대표 영역을 추출한 시간을 나타낼 수 있으며, 이에 한정되지 않고 운용자의 필요에 따라 대표 영역에 대한 추가 정보를 포함하는 것도 가능하다 할 것이다.
즉, 대표 깊이 영역 추출부(271)는 하나의 영상 또는 복수의 영상으로부터 깊이별 대표 영역을 추출할 때, 이미 보정이 완료되거나, 또는 동일 깊이에 대한 대표 영역이 중복으로 추출되는 것을 미연에 방지하기 위하여 깊이에 대한 대표영역을 추출할 수 있는 기준시간을 설정하여, 이를 초과하는 깊이에 대해 대표 영역을 추출할 수 있도록 하는 것이다.
예를 들어, 도 5(a)의 영상이 셀프 보정을 위한 첫 번째 촬영 영상 데이터이고, 도 6(a)의 영상이 두 번째 촬영 영상 데이터이며, 도 6(a)의 피사체 10, 20이 각각 도 5(b)의 B와 C라고 가정할 경우, 대표 깊이 영역 추출부(271)는 도 6(a)의 피사체 30에 대해서만 대표 영역 D로 추출하는 것이다.
이는, 두 번째 촬영 영상의 피사체 중 첫 번째 촬영 영상의 피사체와 중복되는 피사체가 존재하고, 첫 번째 촬영 이후 바로 두 번째 촬영을 진행하여 대표영역으로 추출하기 위한 기준시간을 초과하지 않은 피사체에 대해 대표영역 선정 대상에서 제외하도록 하는 것이다.
이로 인해, 영상 처리 장치(100)는 포커스 렌즈 위치에 대한 보정 시간을 단축할 수 있으며, 보다 다양한 깊이에 대한 대표 영역을 추출하여 영상 처리 결과에 대한 신뢰성을 향상시킬 수 있다는 효과를 기대할 수 있다.
오차 파악부(273)는 복수 개의 깊이별 대표 영역 각각에 대한 깊이 센서(220)의 포커스 렌즈 위치와 콘트라스트 포커스 렌즈 위치를 비교하고 차이를 파악하여 깊이별 포커스 렌즈 위치의 보정값을 산출할 수 있다.
또한, 오차 파악부(273)는 복수 개의 깊이별 대표 영역 각각의 깊이별 포커스 렌즈 위치의 보정값에 보간법을 적용하여 복수 개의 깊이별 대표 영역 사이의 대표 영역외 영역의 깊이별 포커스 렌즈 위치의 보정값을 산출할 수 있다. 즉, 대표 깊이 영역 추출부(271)에 의해서 대표 영역으로 추출되지 않은 깊이에 해당하는 영역의 포커스 렌즈의 위치는 대표 영역으로 추출된 영역의 포커스 렌즈 위치를 기초로 보정값을 산출할 수 있다는 것이다.
예를 들어, 도 8에서 도시하는 바와 같이, 대표 깊이 영역 추출부(271)에서 추출된 대표 영역(도 7의 A, B, C, D)의 깊이가 각각 30cm, 50cm, 120cm, 200cm인 경우, 오차 파악부(273)는 30cm, 50cm, 120cm, 200cm의 깊이에 대한 깊이 센서(220)의 포커스 렌즈 위치와 콘트라스트 포커스 렌즈 위치를 비교하여 깊이별 포커스 렌즈 위치의 보정값을 산출한다.
또한, 대표 깊이 영역 추출부(271)에 의해서 대표 깊이 영역이 추출되지 않은 40cm 깊이에 대한 포커스 렌즈 위치의 보정값은 30cm 깊이와 50cm 깊이에 대한 포커스 렌즈 위치의 보정값의 평균을 통해 산출할 수 있으며, 85cm 깊이에 대한 포커스 렌즈 위치의 보정값은 50cm 깊이와 120cm 깊이에 대한 포커스 렌즈 위치의 보정값의 평균을 통해 산출할 수 있고, 160cm 깊이에 대한 포커스 렌즈 위치의 보정값은 120cm 깊이와 200cm 깊이에 대한 포커스 렌즈 위치의 보정값의 평균을 통해 산출할 수 있다. 이때, 도 8에서 개시하는 수치는 본 발명의 기술 내용을 설명하기 위한 일 예로, 이에 한정되지 않는다.
핀 교정부(280)는 오차 검출부(270)에 의해서 산출된 깊이별 포커스 렌즈 위치의 보정값에 따라 깊이 센서(220)의 깊이별 포커스 렌즈 기준위치 정보를 갱신할 수 있다.
이때, 깊이 센서(220)의 깊이별 포커스 렌즈 기준위치는 영상 처리 장치(100) 내에서 피사체와의 이격 거리에 따라 깊이 센서의 포커스 렌즈가 이동해야 하는 기준위치를 의미하는 것으로 정의하기로 하며, 이는 포커스 렌즈를 이동시키기 위한 모터의 이동 위치인 것도 가능하다 할 것이다.
메모리(290)는 깊이별 포커스 렌즈 기준위치 정보를 비롯하여 영상 처리 장치와 관련된 정보를 저장할 수 있다.
본 발명에서 개시하는 영상 처리 장치(100)는 디지털 카메라, 디지털 캠코더, 카메라가 부착된 휴대폰, 노트북, 개인휴대단말기(PDA), 휴대용 멀티미디어 단말기(PMP)일 수 있으며, 이에 한정되지 않고, 피사체를 촬영하여 영상을 취득하되 깊이 센서를 적용하는 장치라면 모두 적용 가능하다 할 것이다.
도 9는 개시된 발명의 일 실시예에 따른 영상 처리 장치의 제어 방법을 설명하기 위한 흐름도이다.
먼저, 영상 처리 장치(100)는 사용자의 선택에 따라 셀프 보정모드를 구동할 수 있다(S101). 이때, 영상 처리 장치(100)는 사용자에 의해서 셀프 보정모드 전환 키(미도시) 또는 셀프 보정모드 전환 메뉴가 선택됨에 따라 셀프 보정모드를 구동시킬 수 있다.
도시하지 않았지만, 단계 S101의 셀프 보정모드를 구동하는 단계 이전에, 영상 처리 장치(100)는 깊이 센서(220)로부터 전달된 영상 데이터의 조도가 기 설정된 저조도 기준치 이하이거나, 또는 콘트라스트 인식 기준치 이하인 경우, 셀프 보정모드 구동을 제한할 수 있다.
예를 들어, 영상 처리 장치(100)는 깊이 센서(220)로부터 전달된 영상 데이터의 조도가 기 설정된 저조도 기준치 이하인 경우, 취득된 영상 데이터를 통한 포커스 렌즈 위치 보정은 무리가 있다고 판단하여 셀프 보정모드 전환을 제한하는 것이다. 이때, 저조도 기준치는 운용자에 의해서 임의로 설정될 수 있으며, 이에 한정되지 않는다.
또한, 영상 처리 장치(100)는 취득된 영상이 콘트라스트 인식 기준치 이하인 경우, 영상 데이터를 통한 콘트라스트 인식이 어려워 보정 절차는 불가능하다고 판단하여 사용자에 의한 셀프 보정모드 전환요청이 입력되어도 셀프 보정모드 전환을 수행하지 않는 것이다. 예를 들어, 콘트라스트 인식이 어려운 경우는, 취득된 영상이 단색의 피사체인 경우일 수 있으며, 이에 한정되지 않는다.
다음, 영상 처리 장치(100)는 깊이 센서(Depth Sensor)(220)로부터 전달되는 영상 데이터로부터 복수 개의 깊이별 대표 영역을 추출할 수 있다(S103).
이때, 복수 개의 깊이별 대표 영역을 추출할 때, 영상 처리 장치(100)는 기 저장된 깊이별 대표 영역 추출이력을 확인하여 기 설정된 기준시간을 초과한 깊이에 대한 대표 영역을 추출할 수 있다. 이를 위해, 영상 처리 장치(100)는 깊이별 대표 영역을 추출한 후, 관련 정보를 깊이별 대표 영역 추출이력으로 저장할 수 있다.
다음, 영상 처리 장치(100)는 깊이별 대표 영역에 대한 깊이 센서(220)의 포커스 렌즈 위치와 콘트라스트 포커스 렌즈 위치를 이용하여 깊이 센서(140)의 깊이별 포커스 렌즈 위치를 보정할 수 있다.
보다 상세히 설명하면, 먼저, 단계 S103에서 깊이별 대표 영역을 추출한 경우, 영상 처리 장치(100)는 복수 개의 깊이별 대표 영역 중 특정 깊이별 대표 영역에 대한 깊이 센서(220)의 포커스 렌즈 위치를 파악할 수 있다(S105 ~ S109).
이때, 단계 S105의 i는 셀프 보정모드로 전환하여 깊이별 대표 영역을 추출한 이후의 보정절차를 수행하기 위한 기준 카운팅 수를 의미하는 것이고, 단계 S107의 n은 추출된 대표 영역의 수를 의미할 수 있다.
또한, S109의 깊이 센서(220)의 포커스 렌즈 위치를 파악하는 단계는 촬영된 영상으로부터 각 픽셀별 피사체의 거리정보를 포함하는 깊이 맵(Depth Map)을 추출하는 단계 및 깊이 맵으로부터 기 설정된 제1 포커스 렌즈 위치파악기준에 따라 각 픽셀별 깊이 센서의 포커스 렌즈 위치를 산출하는 단계를 포함할 수 있다.
이때, 제1 포커스 렌즈 위치파악기준은 각 픽셀별 거리 정보를 포함하고 있는 형태의 깊이 맵으로부터 깊이 센서의 오토 포커스 수행에 따라 포커스 렌즈 위치를 검출하는 기준을 의미하는 것으로 정의하기로 한다.
다음, 영상 처리 장치(100)는 특정 깊이별 대표 영역에 대한 콘트라스트(Contrast) 포커스 렌즈 위치를 파악할 수 있다(S111).
보다 상세히 설명하면, 단계 S111의 콘트라스트(Contrast) 포커스 렌즈 위치를 파악하는 단계 이전에, 영상 처리 장치(100)는 촬영된 영상으로부터 RGB 영상 데이터를 추출할 수 있다.
이후, 단계 S111에서, RGB 영상 데이터로부터 기 설정된 제2 포커스 렌즈 위치파악기준에 따라 각 픽셀별 콘트라스트의 포커스 렌즈 위치를 파악할 수 있다.
이때, 제2 포커스 렌즈 위치파악기준은 RGB 영상 데이터로부터 콘트라스트 오토 포커스 수행 시의 포커스 렌즈 위치를 검출하는 기준을 의미하는 것으로 정의하기로 한다.
다음, 영상 처리 장치(100)는 깊이 센서(220)의 포커스 렌즈 위치와 콘트라스트 포커스 렌즈 위치를 비교하여 차이가 발생하는지 여부를 확인할 수 있다(S113).
확인 결과, 차이가 발생하는 경우, 영상 처리 장치(100)는 콘트라스트 포커스 렌즈 위치와 깊이 센서(220)의 포커스 렌즈 위치의 차이를 포커스 렌즈 위치의 보정값으로 산출할 수 있다(S115).
만약, 깊이 센서(220)의 포커스 렌즈 위치와 콘트라스트 포커스 렌즈 위치 간에 차이가 발생하지 않는 경우, 영상 처리 장치(100)는 단계 S119를 수행하여, 복수 개의 깊이별 대표 영역 중 다음 대표 영역에 대한 보정을 수행할 수 있도록 할 수 있다.
즉, 단계 S109의 깊이 센서(220)의 깊이별 포커스 렌즈 위치의 보정값을 산출하는 단계로부터 단계 S117의 깊이 센서(220)의 깊이별 포커스 렌즈 기준위치를 갱신하는 단계를 추출된 대표 영역의 개수와 동일하게 반복 수행하는 것이다.
다음, 영상 처리 장치(100)는 포커스 렌즈 위치의 보정값을 기준으로 깊이 센서(220)의 깊이별 포커스 렌즈 기준위치를 갱신할 수 있다(S117).
이때, 깊이 센서(220)의 깊이별 포커스 렌즈 기준위치는 영상 처리 장치(100) 내에서 피사체와의 이격 거리에 따라 깊이 센서의 포커스 렌즈가 이동해야 하는 기준위치를 의미하는 것으로 정의하기로 하며, 이는 포커스 렌즈를 이동시키기 위한 모터의 이동 위치를 의미하는 것도 가능하다 할 것이다.
이후, 영상 처리 장치(100)는 단계 S119를 수행하여, 복수 개의 깊이별 대표 영역 중 다음 대표 영역에 대한 보정을 수행할 수 있도록 할 수 있다.
한편, 단계 S107의 확인 결과, 기준 카운팅 수 i가 대표 영역의 개수보다 작지 않은 경우, 영상 처리 장치(100)는 모든 깊이에 대한 대표 영역의 보정을 완료한 것으로 인식하여 셀프 보정절차를 완료할 수 있다.
다른 한편, 단계 S115의 포커스 렌즈 위치의 보정값으로 산출하는 단계 이후, 영상 처리 장치(100)는 복수 개의 깊이별 대표 영역 각각의 깊이별 포커스 렌즈 위치의 보정값에 보간법을 적용하여 복수 개의 깊이별 대표 영역 사이의 대표 영역외 영역의 깊이별 포커스 렌즈 위치의 보정값을 산출할 수 있다.
개시된 발명의 영상 처리 장치는 콘트라스트 오토 포커스와 위상차 오토 포커스의 장점을 모두 보유하고 있는 동시에, 오토 포커스의 오차가 누적되는 현상을 셀프 보정모드 수행을 통해 해결하고 있어, 오토 포커싱 결과에 대한 신뢰성을 향상시킬 수 있다.
이상 본 발명을 구체적인 실시예를 통하여 상세히 설명하였으나, 이는 본 발명을 구체적으로 설명하기 위한 것으로, 본 발명은 이에 한정되지 않으며, 본 발명의 기술적 사상 내에서 당 분야의 통상의 지식을 가진 자에 의해 그 변형이나 개량이 가능함이 명백하다.
본 발명의 단순한 변형 내지 변경은 모두 본 발명의 영역에 속하는 것으로 본 발명의 구체적인 보호 범위는 첨부된 특허청구범위에 의하여 명확해질 것이다.
100 : 영상 처리 장치 110, 210 : 촬영 렌즈
120 : AF 모듈 130 : 제어부
140 : 촬상부 150 : 신호 처리부
160 : 메모리 170 : 디스플레이
220 : 깊이 센서 221 : RGB 데이터 추출부
223 : 깊이 맵 추출부 230 : 제어부
240 : 셀프 보정모드 구동부 250 : 깊이 AF 검출부
260 : 콘트라스트 AF 검출부 270 : 오차 검출부
271 : 대표 깊이 영역 추출부 273 : 오차 파악부
280 : 핀 교정부 290 : 메모리

Claims (20)

  1. 피사체로부터 광 신호를 수신하는 촬영 렌즈;
    상기 촬영 렌즈를 통해 입사되는 광 신호를 기초로 영상 데이터를 출력하는 깊이 센서(Depth Sensor); 및
    상기 깊이 센서로부터 전달되는 영상 데이터로부터 깊이 센서의 포커스 렌즈 위치와 콘트라스트(Contrast) 포커스 렌즈 위치를 산출하여 상기 깊이 센서의 깊이별 포커스 렌즈 기준위치를 보정하는 제어부;
    를 포함하는 영상 처리 장치.
  2. 청구항 1에 있어서,
    상기 제어부는,
    사용자의 선택에 따라 셀프 보정모드를 구동시키는 셀프 보정모드 구동부;
    상기 깊이 센서로부터 전달되는 영상 데이터로부터 깊이 센서의 포커스 렌즈 위치를 검출하는 깊이 AF(Auto Focus) 검출부;
    상기 깊이 센서로부터 전달되는 영상 데이터로부터 콘트라스트 포커스 렌즈 위치를 검출하는 콘트라스트 AF 검출부;
    상기 영상 데이터로부터 깊이별 대표 영역을 추출하고, 추출된 깊이별 대표 영역의 깊이 센서의 포커스 렌즈 위치와 콘트라스트 포커스 렌즈 위치를 기초로 상기 깊이 센서의 깊이별 포커스 렌즈 위치의 보정값을 산출하는 오차 검출부; 및
    상기 오차 검출부에 의해서 산출된 깊이별 포커스 렌즈 위치의 보정값에 따라 상기 깊이 센서의 깊이별 포커스 렌즈 기준위치 정보를 갱신하는 핀 교정부;
    를 포함하는 영상 처리 장치.
  3. 청구항 2에 있어서,
    상기 오차 검출부는,
    상기 깊이 센서로부터 전달되는 영상 데이터로부터 복수 개의 깊이별 대표 영역을 추출하는 대표 깊이 영역 추출부; 및
    상기 복수 개의 깊이별 대표 영역 각각에 대한 상기 깊이 센서의 포커스 렌즈 위치와 상기 콘트라스트 포커스 렌즈 위치를 비교하고 차이를 파악하여 깊이별 포커스 렌즈 위치의 보정값을 산출하는 오차 파악부;
    를 포함하는 영상 처리 장치.
  4. 청구항 3에 있어서,
    상기 대표 깊이 영역 추출부는,
    영상 데이터로부터 상기 복수 개의 깊이별 대표 영역을 추출할 때, 기 저장된 깊이별 대표 영역 추출이력을 확인하여 기 설정된 기준시간을 초과한 깊이에 대한 대표 영역을 추출하는 영상 처리 장치.
  5. 청구항 3에 있어서,
    상기 오차 파악부는,
    복수 개의 깊이별 대표 영역 사이의 대표 영역외 영역의 깊이별 포커스 렌즈 위치의 보정값은 상기 복수 개의 깊이별 대표 영역 각각의 깊이별 포커스 렌즈 위치의 보정값에 보간법을 적용하여 산출하는 영상 처리 장치.
  6. 청구항 2에 있어서,
    상기 영상 처리 장치는 셀프 보정모드 구동을 위한 셀프 보정모드 전환 키 또는 셀프 보정모드 전환 메뉴를 포함하며,
    상기 셀프 보정모드 구동부는, 사용자에 의해서 상기 셀프 보정모드 전환 키 또는 상기 셀프 보정모드 전환 메뉴가 선택됨에 따라 셀프 보정모드를 구동시키는 영상 처리 장치.
  7. 청구항 2에 있어서,
    상기 셀프 보정모드 구동부는,
    상기 깊이 센서로부터 전달된 영상 데이터의 조도가 기 설정된 저조도 기준치 이하이거나, 또는 콘트라스트 인식 기준치 이하인 경우, 상기 셀프 보정모드 구동을 제한하는 영상 처리 장치.
  8. 청구항 2에 있어서,
    상기 깊이 센서는,
    촬영된 영상으로부터 RGB 영상 데이터를 추출하는 RGB 데이터 추출부; 및
    촬영된 영상으로부터 각 픽셀별 피사체의 거리정보를 포함하는 깊이 맵(Depth Map)을 추출하는 깊이 맵 추출부;
    를 포함하는 영상 처리 장치.
  9. 청구항 8에 있어서,
    상기 깊이 AF 검출부는,
    상기 깊이 맵으로부터 기 설정된 제1 포커스 렌즈 위치파악기준에 따라 각 픽셀별 깊이 센서의 포커스 렌즈 위치를 산출하는 영상 처리 장치.
  10. 청구항 8에 있어서,
    상기 콘트라스트 AF 검출부는,
    상기 RGB 영상 데이터로부터 기 설정된 제2 포커스 렌즈 위치파악기준에 따라 각 픽셀별 콘트라스트의 포커스 렌즈 위치를 파악하는 영상 처리 장치.
  11. 청구항 2에 있어서,
    깊이별 포커스 렌즈 기준위치 정보를 비롯하여 영상 처리 장치와 관련된 정보를 저장하는 메모리;
    를 더 포함하는 영상 처리 장치.
  12. 사용자의 선택에 따라 셀프 보정모드를 구동하는 단계;
    깊이 센서(Depth Sensor)로부터 전달되는 영상 데이터로부터 복수 개의 깊이별 대표 영역을 추출하는 단계; 및
    상기 깊이별 대표 영역에 대한 깊이 센서의 포커스 렌즈 위치와 콘트라스트 포커스 렌즈 위치를 이용하여 상기 깊이 센서의 깊이별 포커스 렌즈 위치를 보정하는 단계;
    를 포함하는 영상 처리 장치의 제어방법.
  13. 청구항 12에 있어서,
    상기 깊이 센서의 깊이별 포커스 렌즈 위치를 보정하는 단계는,
    상기 복수 개의 깊이별 대표 영역 중 특정 깊이별 대표 영역에 대한 깊이 센서의 포커스 렌즈 위치를 파악하는 단계;
    상기 특정 깊이별 대표 영역에 대한 콘트라스트(Contrast) 포커스 렌즈 위치를 파악하는 단계;
    상기 깊이 센서의 포커스 렌즈 위치와 상기 콘트라스트 포커스 렌즈 위치를 비교하여 차이가 발생하는지 여부를 확인하는 단계;
    확인 결과, 차이가 발생하는 경우, 상기 콘트라스트 포커스 렌즈 위치와 상기 깊이 센서의 포커스 렌즈 위치의 차이를 포커스 렌즈 위치의 보정값으로 산출하는 단계; 및
    상기 포커스 렌즈 위치의 보정값을 기준으로 깊이 센서의 깊이별 포커스 렌즈 기준위치를 갱신하는 단계;
    를 포함하는 영상 처리 장치의 제어방법.
  14. 청구항 13에 있어서,
    상기 깊이 센서의 포커스 렌즈 위치를 파악하는 단계는,
    촬영된 영상으로부터 각 픽셀별 피사체의 거리정보를 포함하는 깊이 맵(Depth Map)을 추출하는 단계; 및
    상기 깊이 맵으로부터 기 설정된 제1 포커스 렌즈 위치파악기준에 따라 각 픽셀별 깊이 센서의 포커스 렌즈 위치를 산출하는 단계;
    를 포함하는 영상 처리 장치의 제어방법.
  15. 청구항 13에 있어서,
    상기 콘트라스트(Contrast) 포커스 렌즈 위치를 파악하는 단계 이전에,
    촬영된 영상으로부터 RGB 영상 데이터를 추출하는 단계;
    를 더 포함하는 영상 처리 장치의 제어방법.
  16. 청구항 15에 있어서,
    상기 콘트라스트 포커스 렌즈 위치를 파악하는 단계에서,
    상기 RGB 영상 데이터로부터 기 설정된 제2 포커스 렌즈 위치파악기준에 따라 각 픽셀별 콘트라스트의 포커스 렌즈 위치를 파악하는 영상 처리 장치의 제어방법.
  17. 청구항 13에 있어서,
    상기 포커스 렌즈 위치의 보정값으로 산출하는 단계 이후에,
    상기 복수 개의 깊이별 대표 영역 각각의 깊이별 포커스 렌즈 위치의 보정값에 보간법을 적용하여 복수 개의 깊이별 대표 영역 사이의 대표 영역외 영역의 깊이별 포커스 렌즈 위치의 보정값을 산출하는 단계;
    를 더 포함하는 영상 처리 장치의 제어 방법.
  18. 청구항 12에 있어서,
    상기 깊이 센서의 깊이별 포커스 렌즈 위치를 보정하는 단계를 상기 깊이별 대표 영역의 개수와 동일하게 반복 수행하는 영상 처리 장치의 제어방법.
  19. 청구항 12에 있어서,
    상기 셀프 보정모드를 구동하는 단계 이전에,
    상기 깊이 센서로부터 전달된 영상 데이터의 조도가 기 설정된 저조도 기준치 이하이거나, 또는 콘트라스트 인식 기준치 이하인 경우, 상기 셀프 보정모드 구동을 제한하는 단계;
    를 더 포함하는 영상 처리 장치의 제어방법.
  20. 청구항 12에 있어서,
    상기 복수 개의 깊이별 대표 영역을 추출하는 단계에서,
    상기 복수 개의 깊이별 대표 영역을 추출할 때, 기 저장된 깊이별 대표 영역 추출이력을 확인하여 기 설정된 기준시간을 초과한 깊이에 대한 대표 영역을 추출하는 영상 처리 장치의 제어 방법.
KR1020130040454A 2013-04-12 2013-04-12 영상 처리 장치 및 그 제어방법 KR20140123302A (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020130040454A KR20140123302A (ko) 2013-04-12 2013-04-12 영상 처리 장치 및 그 제어방법
US14/250,579 US20140307126A1 (en) 2013-04-12 2014-04-11 Electronic apparatus and method of controlling the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130040454A KR20140123302A (ko) 2013-04-12 2013-04-12 영상 처리 장치 및 그 제어방법

Publications (1)

Publication Number Publication Date
KR20140123302A true KR20140123302A (ko) 2014-10-22

Family

ID=51686551

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130040454A KR20140123302A (ko) 2013-04-12 2013-04-12 영상 처리 장치 및 그 제어방법

Country Status (2)

Country Link
US (1) US20140307126A1 (ko)
KR (1) KR20140123302A (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180012746A (ko) * 2015-05-27 2018-02-06 인텔 코포레이션 적응형 깊이 감지 시스템
US10009534B2 (en) 2015-02-13 2018-06-26 Samsung Electronics Co., Ltd. Device and method for detecting focus of electronic device
WO2022025630A1 (ko) * 2020-07-31 2022-02-03 삼성전자 주식회사 거리 센서를 포함하는 전자 장치 및 오토 포커스 수행 방법

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6140935B2 (ja) 2012-05-17 2017-06-07 キヤノン株式会社 画像処理装置、画像処理方法、画像処理プログラム、および撮像装置
JP6320075B2 (ja) * 2014-02-19 2018-05-09 キヤノン株式会社 画像処理装置およびその制御方法
US9578311B2 (en) * 2014-10-22 2017-02-21 Microsoft Technology Licensing, Llc Time of flight depth camera
FR3042367A1 (fr) * 2015-10-12 2017-04-14 Stmicroelectronics (Grenoble 2) Sas Procede de capture d'images d'un objet en mouvement et appareil correspondant
US20170230649A1 (en) * 2016-02-05 2017-08-10 Qualcomm Incorporated Calibration of hybrid auto focus (af) imaging systems
KR20200100498A (ko) * 2019-02-18 2020-08-26 삼성전자주식회사 전자 장치 및 그 전자 장치의 자동 초점 제어 방법
CN110113528B (zh) 2019-04-26 2021-05-07 维沃移动通信有限公司 一种参数获取方法及终端设备

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4324402B2 (ja) * 2003-04-08 2009-09-02 Hoya株式会社 カメラの自動焦点調節装置
JP4551708B2 (ja) * 2004-07-21 2010-09-29 キヤノン株式会社 撮像装置
US7767949B2 (en) * 2005-01-18 2010-08-03 Rearden, Llc Apparatus and method for capturing still images and video using coded aperture techniques
JP2011017800A (ja) * 2009-07-07 2011-01-27 Canon Inc 焦点検出装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10009534B2 (en) 2015-02-13 2018-06-26 Samsung Electronics Co., Ltd. Device and method for detecting focus of electronic device
KR20180012746A (ko) * 2015-05-27 2018-02-06 인텔 코포레이션 적응형 깊이 감지 시스템
WO2022025630A1 (ko) * 2020-07-31 2022-02-03 삼성전자 주식회사 거리 센서를 포함하는 전자 장치 및 오토 포커스 수행 방법

Also Published As

Publication number Publication date
US20140307126A1 (en) 2014-10-16

Similar Documents

Publication Publication Date Title
KR20140123302A (ko) 영상 처리 장치 및 그 제어방법
US8233078B2 (en) Auto focus speed enhancement using object recognition and resolution
US9621786B2 (en) Image processing apparatus, image processing method, image processing program, and image pickup apparatus acquiring a focusing distance from a plurality of images
US9568709B2 (en) Automatic focusing apparatus as well as lens apparatus and image pickup system including the automatic focusing apparatus
US20100157135A1 (en) Passive distance estimation for imaging algorithms
US8648961B2 (en) Image capturing apparatus and image capturing method
CN109712192B (zh) 摄像模组标定方法、装置、电子设备及计算机可读存储介质
WO2016049889A1 (zh) 一种自动对焦方法、装置及电子设备
JP5789091B2 (ja) 撮像装置および撮像装置の制御方法
US8855417B2 (en) Method and device for shape extraction, and size measuring device and distance measuring device
JP4957134B2 (ja) 距離計測装置
JP2003131121A (ja) 自動焦点調節装置及び方法
JP2014123070A5 (ko)
CN103986877A (zh) 一种图像获取终端和图像获取方法
CN106031148B (zh) 成像设备,成像设备中自动对焦的方法以及对应计算机程序
US9386215B2 (en) Device and method for measuring distances to multiple subjects
US20110199532A1 (en) Auto focus system and auto focus method
US7957633B2 (en) Focus adjusting apparatus and focus adjusting method
JP5392198B2 (ja) 測距装置及び撮像装置
US20140146219A1 (en) Imaging apparatus, semiconductor integrated circuit, and imaging method
US20100086292A1 (en) Device and method for automatically controlling continuous auto focus
JP3761383B2 (ja) 自動合焦装置、カメラ、携帯情報入力装置、合焦位置検出方法、およびコンピュータが読取可能な記録媒体
JP5164493B2 (ja) 撮像装置
KR101207343B1 (ko) 영상 밝기 조절 방법 및 그 장치와, 스테레오 카메라
JP4996568B2 (ja) 撮像装置および撮像装置の制御方法

Legal Events

Date Code Title Description
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid