KR102032882B1 - 자동 포커싱 방법, 장치 및 전자 장치 - Google Patents

자동 포커싱 방법, 장치 및 전자 장치 Download PDF

Info

Publication number
KR102032882B1
KR102032882B1 KR1020177010752A KR20177010752A KR102032882B1 KR 102032882 B1 KR102032882 B1 KR 102032882B1 KR 1020177010752 A KR1020177010752 A KR 1020177010752A KR 20177010752 A KR20177010752 A KR 20177010752A KR 102032882 B1 KR102032882 B1 KR 102032882B1
Authority
KR
South Korea
Prior art keywords
depth information
image
feature point
threshold
lens
Prior art date
Application number
KR1020177010752A
Other languages
English (en)
Other versions
KR20170056698A (ko
Inventor
청 두
진 우
웨이 뤄
빈 덩
Original Assignee
후아웨이 테크놀러지 컴퍼니 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 후아웨이 테크놀러지 컴퍼니 리미티드 filed Critical 후아웨이 테크놀러지 컴퍼니 리미티드
Publication of KR20170056698A publication Critical patent/KR20170056698A/ko
Application granted granted Critical
Publication of KR102032882B1 publication Critical patent/KR102032882B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/32Means for focusing
    • G03B13/34Power focusing
    • G03B13/36Autofocus systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/02Mountings, adjusting means, or light-tight connections, for optical elements for lenses
    • G02B7/04Mountings, adjusting means, or light-tight connections, for optical elements for lenses with mechanism for focusing or varying magnification
    • G02B7/09Mountings, adjusting means, or light-tight connections, for optical elements for lenses with mechanism for focusing or varying magnification adapted for automatic focusing or varying magnification
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/36Systems for automatic generation of focusing signals using image sharpness techniques, e.g. image processing techniques for generating autofocus signals
    • G02B7/38Systems for automatic generation of focusing signals using image sharpness techniques, e.g. image processing techniques for generating autofocus signals measured at different points on the optical axis, e.g. focussing on two or more planes and comparing image data
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/18Focusing aids
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
    • H04N5/23216
    • H04N5/23296
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B19/00Cameras
    • G03B19/02Still-picture cameras
    • G03B19/023Multi-image cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Optics & Photonics (AREA)
  • Human Computer Interaction (AREA)
  • Studio Devices (AREA)
  • Automatic Focus Adjustment (AREA)

Abstract

본원은 자동 포커싱 방법 및 장치, 및 전자 장치를 제공한다. 자동 포커싱 방법은 동시에, 제1 이미지 촬영 유닛을 사용하여 제1 대상의 제1 이미지를 수집하고, 제2 이미지 촬영 유닛을 사용하여 제1 대상의 제2 이미지를 수집하는 단계, 제1 이미지 및 제2 이미지 내의 대응하는 영역들의 M개의 동일한 특징점 쌍의 M개의 제1 깊이 정보를 계산하는 단계, M개의 제1 깊이 정보의 신뢰도가 임계치를 초과하는지 결정하는 단계, M개의 제1 깊이 정보의 신뢰도가 임계치를 초과하는 때 M개의 제1 깊이 정보 내의 N개의 제1 깊이 정보에 따라 포커싱 깊이 정보를 획득하는 단계 - N은 M 이하의 양수임 -, 그리고 포커싱 깊이 정보에 따라 제1 이미지 촬영 유닛의 제1 렌즈의 타겟 위치를 획득하고, 타겟 위치로 이동하도록 제1 렌즈를 제어하는 단계를 포함한다.

Description

자동 포커싱 방법, 장치 및 전자 장치{AUTOFOCUS METHOD, DEVICE AND ELECTRONIC APPARATUS}
본원은 전자 기술 분야에 관한 것으로, 특히 자동 포커싱 방법 및 장치, 및 전자 장치에 관한 것이다.
자동 포커싱은 촬영될 대상의 피사체가 가장 선명하게 된 상태가 될 수 있도록, 자동 포커싱 알고리즘을 사용하여 렌즈로부터 이미지 센서까지의 거리를 제어하는 것이다.
일반적으로 사용되는 포커싱 알고리즘은 액티브 포커싱(거리 측정 방법: distance measurement method)과 패시브 포커싱(힐 클라이밍 방법: hill climbing method)의 두 가지 유형으로 분류될 수 있다. 액티브 포커싱에서는, 적외선 거리 측정, 초음파 거리 측정, 및 양안 입체시(binocular stereoscopic vision)와 같은 방법을 사용하여 피사체로부터 렌즈까지의 거리가 측정되고, 대상 거리에 대응하는 렌즈 위치가 계산되며, 렌즈 위치는 포커싱이 맞은 이미지를 획득하도록 조정된다. 패시브 포커싱에서는, 초점 거리를 변경하여 초점 거리가 상이한 이미지가 획득되고, 이미지의 정의 및 변경 추세가 분석되며, 최적의 초점 거리가 발견되어, 포커싱이 맞은 이미지를 획득한다. 현재, 패시브 포커싱 솔루션은 스마트폰과 같은 전자 장치에 널리 사용되고 있다.
액티브 포커싱의 속도는 빠르지만, 특정 시나리오에서는, 포커싱 실패율이 높다. 패시브 포커싱의 정밀도는 높지만, 포커싱 속도는 느리다.
본원의 실시예는 액티브 포커싱의 포커싱 정밀도를 향상시키는 자동 포커싱 방법 및 장치, 및 전자 장치를 제공한다.
본원의 제1 양태는 동시에, 제1 이미지 촬영 유닛을 사용하여 제1 대상의 제1 이미지를 수집하고, 제2 이미지 촬영 유닛을 사용하여 제1 대상의 제2 이미지를 수집하는 단계, 제1 이미지 및 제2 이미지 내의 대응하는 영역들의 M개의 동일한 특징점 쌍의 M개의 제1 깊이 정보를 계산하는 단계 - M은 양수임 -, M개의 제1 깊이 정보의 신뢰도가 임계치를 초과하는지 결정하는 단계, M개의 제1 깊이 정보의 신뢰도가 임계치를 초과하는 때 M개의 제1 깊이 정보 내의 N개의 제1 깊이 정보에 따라 포커싱 깊이 정보를 획득하는 단계 - N은 M 이하의 양수임 -, 그리고 포커싱 깊이 정보에 따라 제1 이미지 촬영 유닛의 제1 렌즈의 타겟 위치를 획득하고, 타겟 위치로 이동하도록 제1 렌즈를 제어하는 단계를 포함하는 자동 포커싱 방법을 제공한다.
제1 양태를 참조하여, 제1 양태의 첫 번째 가능한 구현 방식으로, 대응하는 영역은 제1 이미지 및 제2 이미지가 수집되는 때 포커스 윈도우의 위치에 대응하는 영역이고, 제1 이미지 내의 영역은 제1 영역이며, 제2 이미지 내의 영역은 제2 영역이고, M개의 제1 깊이 정보의 신뢰도가 임계치를 초과하는지 결정하는 단계는, 제1 영역 내의 제1 특징점의 수량이 제1 임계치 이상인지 결정하거나 제2 영역 내의 제2 특징점의 수량이 제2 임계치 이상인지 결정하고, 제1 특징점의 수량이 제1 임계치 미만 및/또는 제2 특징점의 수량이 제2 임계치 미만인 때, M개의 제1 깊이 정보의 신뢰도가 임계치 이하인 것으로 결정하는 단계를 포함한다.
제1 양태의 첫 번째 가능한 구현 방식을 참조하여, 제1 양태의 두 번째 가능한 구현 방식으로, 제1 특징점의 수량이 제1 임계치 이상이고 제2 특징점의 수량이 제2 임계치 이상인 때, 자동 포커싱 방법은, 제1 특징점에 대해, 제1 순서로 제2 특징점을 탐색하여 제1 특징점과 매칭되는 제1 매칭 특징점을 찾아내고, 제1 순서와는 반대인 제2 순서로 제2 특징점을 탐색하여 제1 특징점과 매칭되는 제2 매칭 특징점을 찾아내는 단계, 제1 매칭 특징점 및 제2 매칭 특징점 내에 있으면서 또한 제1 특징점 내의 동일한 특징점에 대응하는 동일 매칭 특징점의 수량을 결정하는 단계, 그리고 제1 특징점의 수량에 대한 동일 매칭 특징점의 수량의 비율이 제3 임계치 미만인 때, M개의 제1 깊이 정보의 신뢰도가 임계치 이하인 것으로 결정하거나, 또는 제1 특징점의 수량에 대한 동일 매칭 특징점의 수량의 비율이 제3 임계치 이상인 때, M개의 제1 깊이 정보의 신뢰도가 임계치를 초과하는 것으로 결정하는 단계를 더 포함한다.
제1 양태의 두 번째 가능한 구현 방식을 참조하여, 제1 양태의 세 번째 가능한 구현 방식으로, M개의 제1 깊이 정보 내의 N개의 제1 깊이 정보에 따라 포커싱 깊이 정보를 획득하는 단계는, 동일한 특징점에 대응하는 깊이 정보에 따라 포커싱된 깊이 정보를 획득하는 단계를 포함한다.
제1 양태 또는 제1 양태의 첫 번째 가능한 구현 방식 내지 제1 양태의 세 번째 가능한 구현 방식 중 어느 하나를 참조하여, 제1 양태의 네 번째 가능한 구현 방식으로, 타겟 위치로 제1 렌즈를 이동하도록 제어하는 단계 후에, 자동 포커싱 방법은, 제3 위치로 이동하도록 제2 이미지 촬영 유닛의 제2 렌즈를 제어하는 단계, 제1 렌즈가 타겟 위치로 이동하기 전에 획득되는 이미지의 포커스 윈도우 영역 내의 제1 콘트라스트가 제1 렌즈가 타겟 위치인 때 획득된 이미지의 포커스 윈도우 영역 내의 제2 콘트라스트 및 제2 렌즈가 제3 위치인 때 획득된 이미지의 포커스 윈도우 영역 내의 제3 콘트라스트 미만인 때, 포커싱 깊이 정보에 대한 확인이 성공한 것으로 결정하는 단계, 그리고 타겟 위치에서 이미지 촬영을 수행하는 단계를 더 포함한다.
제1 양태 또는 제1 양태의 첫 번째 가능한 구현 방식 내지 제1 양태의 세 번째 가능한 구현 방식 중 어느 하나를 참조하여, 제1 양태의 다섯 번째 가능한 구현 방식으로, 타겟 위치로 제1 렌즈를 이동하도록 제어하는 단계 전에, 포커싱 깊이 정보에 대한 확인이 성공적인 것으로 결정하는 단계를 더 포함한다.
제1 양태의 다섯 번째 가능한 구현 방식을 참조하여, 제1 양태의 여섯 번째 가능한 구현 방식으로, 사람 얼굴이 포커스 윈도우 내에서 검출되는 때, 포커싱 깊이 정보에 대해 확인이 다음의: 사람 얼굴 및 제1 렌즈 사이의 추정된 거리를 사람 얼굴 프레임의 크기에 따라 추정하는 단계, 그리고 추정된 거리 및 포커싱 깊이 정보 사이의 차의 절댓값이 제4 임계치 이하인 때, 포커싱 깊이 정보에 대한 확인이 성공적인 것으로 결정하는 단계를 사용하여 수행된다.
제1 양태의 네 번째 가능한 구현 방식 내지 제1 양태의 여섯 번째 가능한 구현 방식 중 어느 하나를 참조하여, 제1 양태의 일곱 번째 가능한 구현 방식으로, M개의 제1 깊이 정보의 신뢰도가 임계치 이하이거나 또는 확인이 실패하는 때, 자동 포커싱 방법은, 새로운 위치로 이동하도록 제1 렌즈 및 제2 이미지 촬영 유닛의 제2 렌즈를 제어하는 단계, 새로운 위치에서, 동시에, 제1 이미지 촬영 유닛 및 제2 이미지 촬영 유닛을 사용하여 각각 제1 대상의 제3 이미지 및 제4 이미지를 수집하는 단계, 제3 이미지 및 제4 이미지의 대응하는 영역 내의 P개의 동일한 특징점 쌍의 P개의 제2 깊이 정보를 계산하는 단계 - P는 양수임-, P개의 제2 깊이 정보의 신뢰도가 임계치를 초과하는지 결정하는 단계, P개의 제2 깊이 정보의 신뢰도가 임계치를 초과하는 때 P개의 제2 깊이 정보 내의 L개의 제2 깊이 정보에 따라 새로운 포커싱 깊이 정보를 획득하는 단계 - L은 P 이하의 양수임 -, 그리고 새로운 포커싱 깊이 정보에 따라 제1 렌즈의 새로운 타겟 위치를 획득하고, 새로운 타겟 위치로 이동하도록 제1 렌즈를 제어하는 단계를 더 포함한다.
제1 양태 또는 제1 양태의 첫 번째 가능한 구현 방식 내지 제1 양태의 세 번째 가능한 구현 방식, 제1 양태의 다섯 번째 가능한 구현 방식, 또는 제1 양태의 여섯 번째 가능한 구현 방식 중 어느 하나를 참조하여, 제1 양태의 여덟 번째 가능한 구현 방식으로, 제1 렌즈가 타겟 위치로 이동하도록 제어되는 때, 자동 포커싱 방법은, 타겟 위치에 대응하는 위치로 이동하도록 제2 이미지 촬영 유닛의 제2 렌즈를 제어하는 단계를 더 포함한다.
본원의 제2 양태는 제1 이미지 촬영 유닛을 사용하여 수집된 제1 대상의 제1 이미지, 및 제2 이미지 촬영 유닛을 사용하여 수집된 제1 대상의 제2 이미지를 획득하도록 구성된 취득 유닛, 그리고 제1 이미지 및 제2 이미지 내의 대응하는 영역들의 M개의 동일한 특징점 쌍의 M개의 제1 깊이 정보를 계산하고, M개의 제1 깊이 정보의 신뢰도가 임계치를 초과하는지 결정하며, M개의 제1 깊이 정보의 신뢰도가 임계치를 초과하는 때 M개의 제1 깊이 정보 내의 N개의 제1 깊이 정보에 따라 포커싱 깊이 정보를 획득하고, 포커싱 깊이 정보에 따라 제1 이미지 촬영 유닛의 제1 렌즈의 타겟 위치를 획득하고, 타겟 위치로 이동하도록 제1 렌즈를 제어하도록 구성된 처리 유닛을 포함하고, 제1 이미지 및 제2 이미지는 동시에 수집되며, M은 양수이고, N은 M 이하의 양수인, 자동 포커싱 장치를 제공한다.
제2 양태를 참조하여, 제2 양태의 첫 번째 가능한 구현 방식으로, 대응하는 영역은 제1 이미지 및 제2 이미지가 수집되는 때 포커스 윈도우의 위치에 대응하는 영역이고, 제1 이미지 내의 영역은 제1 영역이며, 제2 이미지 내의 영역은 제2 영역이고, 처리 유닛은 구체적으로, 제1 영역 내의 제1 특징점의 수량이 제1 임계치 이상인지 결정하거나 제2 영역 내의 제2 특징점의 수량이 제2 임계치 이상인지 결정하고, 제1 특징점의 수량이 제1 임계치 미만 및/또는 제2 특징점의 수량이 제2 임계치 미만인 때, M개의 제1 깊이 정보의 신뢰도가 임계치 이하인 것으로 결정하도록 구성된다.
제2 양태의 첫 번째 가능한 구현 방식을 참조하여, 제2 양태의 두 번째 가능한 구현 방식으로, 처리 유닛은, 제1 특징점의 수량이 제1 임계치 이상이고 제2 특징점의 수량이 제2 임계치 이상인 때, 제1 특징점에 대해, 제1 순서로 제2 특징점을 탐색하여 제1 특징점과 매칭되는 제1 매칭 특징점을 찾아내고, 제1 순서와는 반대인 제2 순서로 제2 특징점을 탐색하여 제1 특징점과 매칭되는 제2 매칭 특징점을 찾아내고, 제1 매칭 특징점 및 제2 매칭 특징점 내에 있으면서 또한 제1 매칭 특징점 내의 동일한 특징점에 대응하는 동일 매칭 특징점의 수량을 결정하며, (1) 제1 특징점의 수량에 대한 동일 매칭 특징점의 수량의 비율이 제3 임계치 미만인 때, M개의 제1 깊이 정보의 신뢰도가 임계치 이하인 것으로 결정하거나, 또는 (2) 제1 특징점의 수량에 대한 동일 매칭 특징점의 수량의 비율이 제3 임계치 이상인 때, M개의 제1 깊이 정보의 신뢰도가 임계치를 초과하는 것으로 결정하도록 더 구성된다.
제2 양태의 두 번째 가능한 구현 방식을 참조하여, 제2 양태의 세 번째 가능한 구현 방식으로, 처리 유닛은 구체적으로, 동일한 특징점에 대응하는 깊이 정보에 따라 포커싱된 깊이 정보를 획득하도록 구성된다.
제2 양태 또는 제2 양태의 첫 번째 가능한 구현 방식 내지 제2 양태의 세 번째 가능한 구현 방식 중 어느 하나를 참조하여, 제2 양태의 네 번째 가능한 구현 방식으로, 처리 유닛은, 타겟 위치로 제1 렌즈를 이동하도록 제어한 후에, 제3 위치로 이동하도록 제2 이미지 촬영 유닛의 제2 렌즈를 제어하고, 제1 렌즈가 타겟 위치로 이동하기 전에 획득되는 이미지의 포커스 윈도우 영역 내의 제1 콘트라스트가 제1 렌즈가 타겟 위치인 때 획득된 이미지의 포커스 윈도우 영역 내의 제2 콘트라스트 및 제2 렌즈가 제3 위치인 때 획득된 이미지의 포커스 윈도우 영역 내의 제3 콘트라스트 미만인 때, 포커싱 깊이 정보에 대한 확인이 성공한 것으로 결정하며, 타겟 위치에서 이미지 촬영을 수행하도록 더 구성된다.
제2 양태 또는 제2 양태의 첫 번째 가능한 구현 방식 내지 제2 양태의 세 번째 가능한 구현 방식 중 어느 하나를 참조하여, 제2 양태의 다섯 번째 가능한 구현 방식으로, 처리 유닛은 타겟 위치로 이동하도록 제1 렌즈를 제어하기 전에, 포커싱 깊이 정보에 대한 확인이 성공적인 것으로 결정하도록 더 구성된다.
제2 양태의 다섯 번째 가능한 구현 방식을 참조하여, 제2 양태의 여섯 번째 가능한 구현 방식으로, 처리 유닛은 구체적으로, 사람 얼굴이 포커스 윈도우 내에서 검출되는 때, 사람 얼굴 및 제1 렌즈 사이의 추정된 거리를 사람 얼굴 프레임의 크기에 따라 추정하고, 추정된 거리 및 포커싱 깊이 정보 사이의 차의 절댓값이 제4 임계치 이하인 때, 포커싱 깊이 정보에 대한 확인이 성공적인 것으로 결정하도록 구성된다.
제2 양태의 네 번째 가능한 구현 방식 내지 제2 양태의 여섯 번째 가능한 구현 방식 중 어느 하나를 참조하여, 제2 양태의 일곱 번째 가능한 구현 방식으로, 처리 유닛은 M개의 제1 깊이 정보의 신뢰도가 임계치 이하이거나 또는 확인이 실패하는 때, 새로운 위치로 이동하도록 제1 렌즈 및 제2 이미지 촬영 유닛의 제2 렌즈를 제어하도록 더 구성되고, 취득 유닛은 새로운 위치에서, 제1 이미지 촬영 유닛 및 제2 이미지 촬영 유닛을 사용하여 각각 동시에 수집되는 제1 대상의 제3 이미지 및 제4 이미지를 획득하도록 더 구성되며, 처리 유닛은 제3 이미지 및 제4 이미지의 대응하는 영역 내의 P개의 동일한 특징점 쌍의 P개의 제2 깊이 정보를 계산하고, P개의 제2 깊이 정보의 신뢰도가 임계치를 초과하는지 결정하며, P개의 제2 깊이 정보의 신뢰도가 임계치를 초과하는 때 P개의 제2 깊이 정보 내의 L개의 제2 깊이 정보에 따라 새로운 포커싱 깊이 정보를 획득하고, 새로운 포커싱 깊이 정보에 따라 제1 렌즈의 새로운 타겟 위치를 획득하고, 새로운 타겟 위치로 이동하도록 제1 렌즈를 제어하도록 더 구성되고, P는 양수이고, L은 P 이하의 양수이다.
제2 양태 또는 제2 양태의 첫 번째 가능한 구현 방식 내지 제2 양태의 세 번째 가능한 구현 방식, 제2 양태의 다섯 번째 가능한 구현 방식, 또는 제2 양태의 여섯 번째 가능한 구현 방식 중 어느 하나를 참조하여, 제2 양태의 여덟 번째 가능한 구현 방식으로, 처리 유닛은 타겟 위치로 이동하도록 제1 렌즈를 제어하는 때, 타겟 위치에 대응하는 위치로 이동하도록 제2 이미지 촬영 유닛의 제2 렌즈를 제어하도록 더 구성된다.
본원의 제3 양태는 제1 대상의 제1 이미지 및 제2 이미지를 동시에 각각 수집하도록 구성된 제1 이미지 촬영 유닛 및 제2 이미지 촬영 유닛, 제1 액추에이터, 그리고 제1 이미지 및 제2 이미지 내의 대응하는 영역들의 M개의 동일한 특징점 쌍의 M개의 제1 깊이 정보를 계산하고, M개의 제1 깊이 정보의 신뢰도가 임계치를 초과하는지 결정하며, M개의 제1 깊이 정보의 신뢰도가 임계치를 초과하는 때 M개의 제1 깊이 정보 내의 N개의 제1 깊이 정보에 따라 포커싱 깊이 정보를 획득하고, 포커싱 깊이 정보에 따라 제1 이미지 촬영 유닛의 제1 렌즈의 타겟 위치를 획득하고, 타겟 위치로 제1 렌즈를 이동할 수 있도록 제1 액추에이터를 제어하도록 구성된 프로세서를 포함하고, 제1 이미지 및 제2 이미지는 동시에 수집되며, M은 양수이고, N은 M 이하의 양수인, 전자 장치를 제공한다.
제3 양태를 참조하여, 제3 양태의 첫 번째 가능한 구현 방식으로, 대응하는 영역은 제1 이미지 및 제2 이미지가 수집되는 때 포커스 윈도우의 위치에 대응하는 영역이고, 제1 이미지 내의 영역은 제1 영역이며, 제2 이미지 내의 영역은 제2 영역이고, 프로세서는 구체적으로, 제1 영역 내의 제1 특징점의 수량이 제1 임계치 이상인지 결정하거나 제2 영역 내의 제2 특징점의 수량이 제2 임계치 이상인지 결정하고, 제1 특징점의 수량이 제1 임계치 미만 및/또는 제2 특징점의 수량이 제2 임계치 미만인 때, M개의 제1 깊이 정보의 신뢰도가 임계치 이하인 것으로 결정하도록 구성된다.
제3 양태의 첫 번째 가능한 구현 방식을 참조하여, 제3 양태의 두 번째 가능한 구현 방식으로, 프로세서는, 제1 특징점의 수량이 제1 임계치 이상이고 제2 특징점의 수량이 제2 임계치 이상인 때, 제1 특징점에 대해, 제1 순서로 제2 특징점을 탐색하여 제1 특징점과 매칭되는 제1 매칭 특징점을 찾아내고, 제1 순서와는 반대인 제2 순서로 제2 특징점을 탐색하여 제1 특징점과 매칭되는 제2 매칭 특징점을 찾아내고, 제1 매칭 특징점 및 제2 매칭 특징점 내에 있으면서 또한 제1 매칭 특징점 내의 동일한 특징점에 대응하는 동일 매칭 특징점의 수량을 결정하며, (1) 제1 특징점의 수량에 대한 동일 매칭 특징점의 수량의 비율이 제3 임계치 미만인 때, M개의 제1 깊이 정보의 신뢰도가 임계치 이하인 것으로 결정하거나, 또는 (2) 제1 특징점의 수량에 대한 동일 매칭 특징점의 수량의 비율이 제3 임계치 이상인 때, M개의 제1 깊이 정보의 신뢰도가 임계치를 초과하는 것으로 결정하도록 더 구성된다.
제3 양태의 두 번째 가능한 구현 방식을 참조하여, 제3 양태의 세 번째 가능한 구현 방식으로, 프로세서는 구체적으로, 동일한 특징점에 대응하는 깊이 정보에 따라 포커싱된 깊이 정보를 획득하도록 구성된다.
제3 양태 또는 제3 양태의 첫 번째 가능한 구현 방식 내지 제3 양태의 세 번째 가능한 구현 방식 중 어느 하나를 참조하여, 제3 양태의 네 번째 가능한 구현 방식으로, 제2 액추에이터를 더 포함하고, 프로세서는, 타겟 위치로 제1 렌즈를 이동하도록 제어한 후에, 제2 이미지 촬영 유닛의 제2 렌즈가 제3 위치로 이동할 수 있도록 제2 액추에이터를 제어하고, 제1 렌즈가 타겟 위치로 이동하기 전에 획득되는 이미지의 포커스 윈도우 영역 내의 제1 콘트라스트가 제1 렌즈가 타겟 위치인 때 획득된 이미지의 포커스 윈도우 영역 내의 제2 콘트라스트 및 제2 렌즈가 제3 위치인 때 획득된 이미지의 포커스 윈도우 영역 내의 제3 콘트라스트 미만인 때, 포커싱 깊이 정보에 대한 확인이 성공한 것으로 결정하며, 타겟 위치에서 이미지 촬영 수행을 제어하도록 더 구성된다.
제3 양태 또는 제3 양태의 첫 번째 가능한 구현 방식 내지 제3 양태의 세 번째 가능한 구현 방식 중 어느 하나를 참조하여, 제3 양태의 다섯 번째 가능한 구현 방식으로, 프로세서는 타겟 위치로 이동하도록 제1 렌즈를 제어하기 전에, 포커싱 깊이 정보에 대한 확인이 성공적인 것으로 결정하도록 더 구성된다.
제3 양태의 다섯 번째 가능한 구현 방식을 참조하여, 제3 양태의 여섯 번째 가능한 구현 방식으로, 프로세서는 구체적으로, 사람 얼굴이 포커스 윈도우 내에서 검출되는 때, 사람 얼굴 및 제1 렌즈 사이의 추정된 거리를 사람 얼굴 프레임의 크기에 따라 추정하고, 추정된 거리 및 포커싱 깊이 정보 사이의 차의 절댓값이 제4 임계치 이하인 때, 포커싱 깊이 정보에 대한 확인이 성공적인 것으로 결정하도록 구성된다.
제3 양태의 네 번째 가능한 구현 방식 내지 제3 양태의 여섯 번째 가능한 구현 방식 중 어느 하나를 참조하여, 제3 양태의 일곱 번째 가능한 구현 방식으로, 프로세서는, M개의 제1 깊이 정보의 신뢰도가 임계치 이하이거나 또는 확인이 실패하는 때, 새로운 위치로 이동하도록 제1 렌즈 및 제2 이미지 촬영 유닛의 제2 렌즈를 제어하고, 새로운 위치에서, 제1 이미지 촬영 유닛 및 제2 이미지 촬영 유닛을 사용하여 각각 동시에 수집되는 제1 대상의 제3 이미지 및 제4 이미지를 획득하며, 제3 이미지 및 제4 이미지의 대응하는 영역 내의 N개의 동일한 특징점 쌍의 P개의 제2 깊이 정보를 계산하고, P개의 제2 깊이 정보의 신뢰도가 임계치를 초과하는지 결정하며, P개의 제2 깊이 정보의 신뢰도가 임계치를 초과하는 때 P개의 제2 깊이 정보 내의 L개의 제2 깊이 정보에 따라 새로운 포커싱 깊이 정보를 획득하고, 새로운 포커싱 깊이 정보에 따라 제1 렌즈의 새로운 타겟 위치를 획득하고, 새로운 타겟 위치로 이동하도록 제1 렌즈를 제어하도록 더 구성되고, P는 양수이고, L은 P 이하의 양수이다.
제3 양태 또는 제3 양태의 첫 번째 가능한 구현 방식 내지 제3 양태의 세 번째 가능한 구현 방식, 제3 양태의 다섯 번째 가능한 구현 방식, 또는 제3 양태의 여섯 번째 가능한 구현 방식 중 어느 하나를 참조하여, 제3 양태의 여덟 번째 가능한 구현 방식으로, 프로세서는 타겟 위치로 이동하도록 제1 렌즈를 제어하는 때, 타겟 위치에 대응하는 위치로 이동하도록 제2 이미지 촬영 유닛의 제2 렌즈를 제어하도록 더 구성된다.
본원의 실시예에 제공된 하나 이상의 기술적 솔루션은 적어도 다음과 같은 기술적 효과 또는 이점을 갖는다.
본원의 실시예들에서, 동시에, 제1 이미지 촬영 유닛을 사용하여 제1 대상의 제1 이미지가 수집되고, 제2 이미지 촬영 유닛을 사용하여 제1 대상의 제2 이미지가 수집되며, 제1 이미지 및 제2 이미지 내의 대응하는 영역들의 M개의 동일한 특징점 쌍의 M개의 제1 깊이 정보가 계산되고, M개의 제1 깊이 정보의 신뢰도가 임계치를 초과하는지 결정되며, M개의 제1 깊이 정보의 신뢰도가 임계치를 초과하는 때 M개의 제1 깊이 정보 내의 N개의 제1 깊이 정보에 따라 포커싱 깊이 정보가 획득되고, 그런 다음, 포커싱 깊이 정보에 따라 제1 이미지 촬영 유닛의 제1 렌즈의 타겟 위치가 획득되며, 제1 렌즈가 타겟 위치로 이동하도록 제어된다.
따라서, 실시예들에서, 액티브 포커싱에서 획득된 대상 거리의 신뢰도, 즉 M개의 제1 깊이 정보가 결정된다. 액티브 포커싱 방법은 신뢰도가 임계치를 초과하는 때에만 사용되고, 즉 M개의 제1 깊이 정보에서 N개의 제1 깊이 정보에 따라 포커싱 깊이 정보가 획득되며, 그런 다음 포커싱 깊이 정보에 따라 제1 렌즈의 타겟 위치가 획득되고, 그런 다음 제1 렌즈는 타겟 위치로 이동하도록 제어되어 포커싱을 완료한다. 따라서, 종래의 액티브 포커싱 방식과 비교하여, 포커싱 정밀도가 향상된다.
도 1은 본원의 실시예에 따른 자동 포커싱 방법의 순서도다.
도 2는 본원의 실시예에 따른 이미지 촬영 유닛의 렌즈의 개략적인 배치도이다.
도 3은 본원의 실시예에 따른 자동 포커싱 방법의 예시도이다.
도 4는 본원의 실시예에 따른 자동 포커싱 장치의 기능 블록도이다.
도 5는 본원의 실시예에 따른 전자 장치의 시스템 블록도이다.
본원의 실시예는 액티브 포커싱의 포커싱 정밀도를 향상시키는 자동 포커싱 방법 및 장치, 및 전자 장치를 제공한다.
본원의 실시예의 목적, 기술적 해결책, 및 장점을보다 명확하게 하기 위해, 본원의 실시예에서의 첨부 도면을 참조하여 본원의 실시예에서의 기술적 해결책을 명확하게 설명한다. 명백하게, 기술된 실시예는 본원의 일부 실시예에 불과하지만 전부는 아니다. 창의적인 노력없이 본원의 실시예에 기초하여 당업자에 의해 획득된 다른 모든 실시예는 본원의 보호 범위 내에 속해야 한다.
먼저, 본원의 실시예에서 자동 포커싱 방법의 구현 프로세스가 설명된다. 도 1은 본 실시예의 자동 포커싱 방법의 순서도이며, 이 방법은 이하의 내용을 포함한다.
번호 101로 나타낸 단계는 다음과 같다. 동시에, 제1 이미지 촬영 유닛을 사용하여 제1 대상의 제1 이미지를 수집하고, 제2 이미지 촬영 유닛을 사용하여 제1 대상의 제2 이미지를 수집한다.
선택적으로, 제1 이미지 촬영 유닛 및 제2 이미지 촬영 유닛의 파라미터는 동일하다. 예를 들어, 제1 이미지 촬영 유닛과 제2 이미지 촬영 유닛은 동일한 초점 거리 및 동일한 이미지 센서를 가질 수 있다. 물론, 제1 이미지 촬영 유닛 및 제2 이미지 촬영 유닛은 동일한 렌즈 및 다른 동일한 하드웨어 파라미터를 가질 수도 있다.
제1 이미지 촬영 유닛과 제2 이미지 촬영 유닛이 동일한 하나의 파라미터를 갖는 것은 제1 이미지 촬영 유닛과 제2 이미지 촬영 유닛의 파라미터가 동일하므로 이해될 수 있음을 유의해야 한다. 물론, 제1 이미지 촬영 유닛과 제2 이미지 촬영 유닛이 동일한 다수의 파라미터(예를 들어, 2개 또는 3개의 동일한 파라미터)를 갖는 것은 제1 이미지 촬영 유닛과 제2 이미지 촬영 유닛의 파라미터가 동일하므로 이해될 수 있다. 바람직하게는, 제1 이미지 촬영 유닛 및 제2 이미지 촬영 유닛의 모든 파라미터는 동일하고, 즉, 제1 이미지 촬영 유닛과 제2 이미지 촬영 유닛은 2개의 동일한 촬영 유닛이다.
제1 이미지 촬영 유닛 및 제2 이미지 촬영 유닛은 전자 장치 상에 배치된다. 예를 들어, 전자 장치는 이동 전화기, 태블릿 컴퓨터, 또는 카메라이다.
선택적으로, 제1 이미지 촬영 유닛의 제1 렌즈와 제2 이미지 촬영 유닛의 제2 렌즈는 전자 장치의 동일한 측에 배치된다. 바람직하게는, 제1 렌즈 및 제2 렌즈는 전자 장치의 동일 평면 상에 배치된다. 예를 들어, 이들 모두는 이동 전화기의 후방 커버 상에 배치된다.
선택적으로, 제1 렌즈는 전방 대향 렌즈이고, 제2 렌즈는 후방 대향 렌즈이다. 사용 시에, 렌즈들 중 하나는 다른 렌즈와 동일한 면으로 뒤집힐 수 있다.
바람직하게는, 이미지가 획득될 때, 제1 이미지 촬영 유닛의 광축은 제2 이미지 촬영 유닛의 광축과 평행하여, 수집된 제1 이미지와 제2 이미지 사이의 움직임이 병진 운동(translation motion)인 것을 보장한다. 이와 같이, 보정 연산량이 작다.
도 2를 참조하면, 도 2는 제1 이미지 촬영 유닛(201) 및 제2 이미지 촬영 유닛(202)가 전자 장치(20) 상에 배치되는 경우의 가능한 개략도이다. 제1 이미지 촬영 유닛(201) 및 제2 이미지 촬영 유닛(202)는 전자 장치의 동일 측에 배치된다. 예를 들면, 제1 이미지 촬영 유닛(201) 및 제2 이미지 촬영 유닛(202)은 전자 장치의 후방 커버 측에 배치된다.
전자 장치(20)가 파지되어 사진을 촬영하는 때, 제1 이미지는 제1 이미지 촬영 유닛(201)을 사용하여 촬영되고, 제2 이미지는 제2 이미지 촬영 유닛(202)을 사용하여 동시에 촬영된다. 제1 이미지 촬영 유닛(201) 및 제2 이미지 촬영 유닛(202)이 동일한 대상, 즉 제1 대상에 대한 촬영을 수행하지만, 제1 이미지 촬영 유닛(201)의 광학 축과 제2 이미지 촬영 유닛(202)의 광학 축 사이의 거리가 수평 방향으로 존재하기 때문에, 제1 이미지 촬영 유닛(201)의 제1 수집 영역 및 제2 이미지 촬영 유닛의 제2 수집 영역(201)이 완전히 동일하지는 않다. 그러나, 제1 수집 영역과 제2 수집 영역 사이에 중첩된 수집 영역이 존재한다.
선택적으로, 제1 이미지 및 제2 이미지를 촬영하는 전자 장치 및 번호 102 및 번호 103으로 나타낸 단계들을 수행하는 전자 장치는 동일한 전자 장치일 수 있다. 구체적으로, 전자 장치는 제1 이미지 촬영 유닛 및 제2 이미지 촬영 유닛 내의 CCD(Charge Coupled Device) 또는 CMOS(Complementary Metal Oxide Semiconductor)와 같은 이미지 센서를 사용하여 이미지 신호를 획득한 다음, 이 이미지 신호를 이미지 신호 프로세서(ISP: Image Signal Processor)에 전송한다. ISP는 이미지 신호를 전처리하여 제1 이미지와 제2 이미지를 획득한다.
선택적으로, 제1 이미지 및 제2 이미지를 촬영하는 전자 장치는 번호 102 및 번호 103으로 나타낸 단계를 수행하는 전자 장치와 동일한 전자 장치가 아닐 수 있다. 예를 들어, 제1 이미지 및 제2 이미지를 촬영하는 전자 장치는 휴대 전화, 태블릿 컴퓨터, 또는 일안 리플렉스 카메라이고, 촬영 처리는 상기에서 설명한 바와 같다. 번호 102로 나타낸 단계를 수행하는 전자 장치는 노트북 컴퓨터, 다른 휴대 전화, 또는 다른 태블릿 컴퓨터이다. 이 경우, 촬영에 의해 제1 이미지 및 제2 이미지가 획득된 후, 제1 이미지 및 제2 이미지가 노트북 컴퓨터, 다른 휴대 전화, 또는 다른 태블릿 컴퓨터에 전송되고, 따라서, 노트북 컴퓨터, 다른 휴대 전화, 또는 다른 태블릿 컴퓨터는 제1 이미지 및 제2 이미지를 획득한다.
이하에서, 번호 102로 나타낸 단계를 설명한다. 제1 이미지 및 제2 이미지 내의 대응하는 영역들의 M개의 동일한 특징점 쌍의 M개의 제1 깊이 정보를 계산한다. 여기서 M은 양의 정수이고 제1 이미지 내의 픽셀 총량과 제2 이미지 내의 픽셀 총량 중 더 작은 픽셀 총량 이하이다. 예를 들어, 제1 이미지 내의 픽셀의 총량이 600×1200이고 제2 이미지의 픽셀들의 총량이 600×900 인 경우, M은 600×900 이하이다.
이 기술 분야에서, 깊이 정보는 촬영된 대상과 렌즈 사이의 거리를 나타낸다. 본원의 실시예에서, M개의 제1 깊이 정보는 특징점에 대응하는 제1 대상 상의 M개의 위치 및 제1 렌즈 사이의 개별적인 거리를 나타낸다.
이 기술 분야에서, 특징점은 이미지 내의 특정 특징을 갖는 픽셀이고, 이미지 특징은 색상 특징, 텍스처 특징, 형상 특징, 및 공간 관계 특징을 갖는다. 상이한 특징점 추출 방법에 따라 추출된 특징점은 상이한 특징을 갖는다. 예를 들면, 해리스 코너 지점(Harris corner point) 추출 방법을 사용하여 추출된 코너 지점(즉, 특징점)은 2차원 이미지의 밝기가 극적으로 변화하는 지점 또는 이미지 에지 커브 상의 최대 곡률 값에 대응하는 지점이다. 다른 예를 들면, SIFT(Scale-invariant feature transform)의 특징 추출 방법을 사용하여 추출된 특징점은 스케일 확대, 회전, 및 밝기 변화와 무관한 특징 벡터이다. 본원의 실시예에서, 동일한 특징점들 사이의 시차(parallax)에 따른 특징점 추출 및 특징점의 깊이 정보 계산은 당업자에게 잘 알려진 내용이다. 따라서, 상세한 설명은 여기서 다시 기술하지 않는다.
선택적으로, 대응하는 영역은 제1 이미지 및 제2 이미지가 수집되는 때 포커스 윈도우의 위치에 대응하는 영역이다. 제1 이미지의 영역이 제1 영역이고, 제2 이미지의 영역이 제2 영역인 것으로 가정한다. 포커싱이 수행될 필요가 있으므로, 포커스 윈도우의 위치의 깊이 정보를 계산하는 방식이 선택되는 때 정확도가 상대적으로 높고 계산량이 적다. 물론, 실제 적용에서, 대응하는 영역은 또 다른 영역일 수도 있고, 또는 전체 이미지 영역일 수도 있으며, 이는 본원에서 제한되지 않는다..
선택적으로, 제1 영역의 제1 특징점 및 제2 영역의 제2 특징점이 추출될 수 있고, 특징점의 깊이 정보, 즉 M개의 제1 깊이 정보가 제1 특징점 및 제2 특징점 내의 동일한 특징점들 사이의 시차에 따라 계산될 수 있다.
M개의 제1 깊이 정보가 계산된 후, 번호 103으로 나타낸 단계가 이어서 수행된다. M개의 제1 깊이 정보의 신뢰도가 임계치를 초과하는지 결정한다.
신뢰도는 깊이 정보의 확실성 또는 정밀도를 나타낸다.
실시예에서, 구체적으로, M개의 제1 깊이 정보의 신뢰도가 임계치를 초과하는지 결정하는 단계는 다음의 방식: 제1 특징점의 수량이 제1 임계치 이상인지 결정하거나 제2 특징점의 수량이 제2 임계치 이상인지 결정하고, 제1 특징점의 수량이 제1 임계치 미만 및/또는 제2 특징점의 수량이 제2 임계치 미만인 때, M개의 제1 깊이 정보의 신뢰도가 임계치 이하인 것으로 결정하는 단계로 구현될 수 있다. 제1 영역에는 총 100개의 픽셀이 존재하지만, 특정 특징점 추출 방법에 따라 추출된 특징점의 수량이 임계치보다 작은 때(예를 들어, 임계치가 30임), 예를 들어, 오직 두 개의 특징점이 존재하는 것으로 가정하면, 50개의 특징점에 따라 계산된 깊이 정보의 신뢰도는 두 개의 특징점에 따라 계산된 깊이 정보의 신뢰도를 초과한다. 따라서, 제1 특징점의 수량이 제1 임계치보다 적거나 또는 제2 특징점의 수량이 제2 임계치보다 적은 경우, 제1 특징점 및 제2 특징점에 따라 계산된 깊이 정보의 신뢰도는 상대적으로 낮다.
구체적으로, 다음의 세 가지 경우가 있다. 제1 경우에, 제1 특징점의 수량이 제1 임계치를 초과하는지 결정되고, 제1 특징점의 수량이 제1 임계 미만이면, M개의 제1 깊이 정보의 신뢰도가 임계치 이하인 것으로 결정된다.
제2 경우에, 제2 특징점들의 수량이 제2 임계치 이상인지 결정되고, 제2 특징점의 수량이 제2 임계치보다 미만이면, M개의 제1 깊이 정보의 신뢰도가 임계치 이하인 것으로 결정된다.
제3 경우에, M개의 제1 깊이 정보의 신뢰도가 제1 특징점의 수량이 제1 임계치 미만이거나 제2 특징점의 수량이 제2 임계치 미만인 것으로 제공되는 임계치 이하인 것으로 결정될 수 있다.
대응하여, 제1 경우에, 제1 특징점의 수량이 제1 임계치를 초과하는 때, M개의 제1 깊이 정보의 신뢰도가 임계치를 초과하는 것으로 결정될 수 있다. 선택적으로, M개의 제1 깊이 정보의 신뢰도가 임계치를 초과하는지 더 확인하기 위해, 방법은 제1 특징점에 대해, 제1 순서로 제2 특징점을 탐색하여 제1 특징점과 매칭되는 제1 매칭 특징점을 찾아내고, 제1 순서와는 반대인 제2 순서로 제2 특징점을 탐색하여 제1 특징점과 매칭되는 제2 매칭 특징점을 찾아내는 단계, 제1 매칭 특징점 및 제2 매칭 특징점 내에 있으면서 또한 제1 특징점 내의 동일한 특징점에 대응하는 동일 매칭 특징점의 수량을 결정하는 단계, 그리고 제1 특징점의 수량에 대한 동일 매칭 특징점의 수량의 비율이 제3 임계치 미만인 때, M개의 제1 깊이 정보의 신뢰도가 임계치 이하인 것으로 결정하거나, 또는 제1 특징점의 수량에 대한 동일 매칭 특징점의 수량의 비율이 제3 임계치 이상인 때, M개의 제1 깊이 정보의 신뢰도가 임계치를 초과하는 것으로 결정하는 단계를 더 포함하고, 여기서 동일 매칭 특징점의 각 쌍은 제1 특징점들 내의 동일한 특징점에 대응한다.
구체적으로, 제1 시퀀스는 좌측에서 우측으로의 시퀀스이고, 제2 시퀀스는 우측에서 좌측으로의 시퀀스이다. 실제 응용에서, 제1 시퀀스는 또한 상측에서 하측으로의 시퀀스일 수 있고, 제2 시퀀스는 하측에서 상측으로의 시퀀스이다.
예를 들면, 제1 특징점은 좌측에서 우측으로 연속적으로 A, B, C, 및 D이고, 제2 특징점은 좌측에서 우측으로 연속적으로 a, b, c, 및 d이다. 제1 특징점에 대해, 먼저, 좌측에서 우측으로 제2 특징점이 탐색되어 제1 특징점과 매칭되는 제1 매칭 특징점이 탐색된다. 탐색의 결과는 제2 특징점(b)이 제1 특징점(B)과 매칭되고, 제1 매칭 특징점이 제2 특징점(b)인 것으로 가정한다. 그런 다음, 우측에서 좌측으로 제2 특징점이 탐색되어 제1 특징점과 매칭되는 제2 매칭 특징점이 탐색된다. 탐색의 결과는 제2 특징점(b)이 제1 특징점(B)와 매칭되고, 제2 특징점(c)이 제1 특징점(C)와 매칭되며, 제2 매칭 특징점이 제2 특징점(b) 및 제2 특징점(c)인 것으로 가정한다. 두 번의 탐색 모두에서 제1 특징점(B)이 제2 특징점(b)과 일치하는 것을 알 수 있으므로, 제1 특징점(B)은 높은 신뢰도를 갖는 특징점이며, 제1 서브 특징점이라 지칭될 수 있다. 다시 말해, 제1 매칭 특징점 및 제2 매칭 특징점 내의 동일 매칭 특징점의 수량이 결정되고, 여기서 동일 매칭 특징점의 각 쌍은 제1 특징점 내의 동일한 특징점에 대응한다. 동일 매칭 특징점의 수량은 또한 제1 서브 특징점의 수량이다.
제1 특징점의 수량에 대한 동일 매칭 특징점의 수량의 비율이 제3 임계치 미만인 때, M개의 제1 깊이 정보의 신뢰도가 임계치 이하인 것으로 결정된다.
제1 특징점의 수량에 대한 동일 매칭 특징점의 수량의 비율이 제3 임계치 이상인 때, M개의 제1 깊이 정보의 신뢰도가 임계치를 초과하는 것으로 결정된다.
즉, 본원의 실시예에서, 특징점 매칭이 양방향으로 모두 성공할 수 있고 성공적으로 매칭되는 특징점 쌍 쌍의 수량이 큰 때, 이는 더 확실성 있는 특징점이 존재하고, 특징점을 사용하여 계산된 깊이 정보의 신뢰도가 더 높다는 것을 의미한다. 양방향 모두에서 성공적으로 매칭되는 특징 쌍의 수량이 더 적으면, 확실성 있는 특징점이 더 적고, 특징점을 사용하여 계산된 깊이 정보의 신뢰도가 더 낮다는 것을 의미한다.
전술한 제2 경우에 대응하여, 제2 특징점들의 수량이 제1 임계치를 초과하는 때, M개의 제1 깊이 정보의 신뢰도가 임계치를 초과하는 것으로 결정될 수 있다. 선택적으로, M개의 제1 깊이 정보의 신뢰도가 임계치를 초과하는 것을 더 확인하기 위해, 전술한 것과 동일한 단계가 수행될 수 있다.
전술한 제3 경우에 대응하여, 제1 특징점의 수량이 제1 임계치 이상이고, 제2 특징점의 수량이 제2 임계치 이상인 때, 추가로 M개의 제1 깊이 정보의 신뢰도가 임계치를 초과하는 것을 확인하는 전술한 단계가 수행된다.
상기의 방법들을 사용하여, M개의 제1 깊이 정보의 신뢰도가 임계치를 초과하는 것으로 결정되는 때, 번호 104로 나타낸 단계가 이어서 수행된다. M개의 제1 깊이 정보 내의 N개의 제1 깊이 정보에 따라 포커싱 깊이 정보를 획득하고, 여기서 N은 M 이하의 양수이다.
실시예에서, M개의 제1 깊이 정보 내의 N개의 제1 깊이 정보에 따라 포커싱 깊이 정보를 획득하는 것은 다수의 구현 방식을 가질 수 있다. 구체적으로, 제1 구현 방식에서, M개의 제1 깊이 정보의 가중 평균치가 포커싱 깊이 정보로서 사용된다. 제2 구현 방식에서, 다른 깊이 정보와 크게 상이한 깊이 정보는 먼저 M개의 제1 깊이 정보에서 제외될 수 있고, 그 다음 나머지 제1 깊이 정보의 가중 평균치가 계산되고 포커싱 깊이 정보로서 사용된다. 제3 구현 방식에서, M개의 제1 깊이 정보에서 1개의 제1 깊이 정보가 포커싱 깊이 정보로서 선택된다. 제4 구현 방식에서, M개의 제1 깊이 정보에서 다수의 제1 깊이 정보가 랜덤하게 선택되고, 그 다음 가중 평균 계산이 수행되어 포커싱 깊이 정보를 획득한다.
또 다른 실시예에서, 추가로 M개의 제1 깊이 정보의 신뢰도가 임계치를 초과하는지를 확인하는 전술한 방법이 구현되는 때, M개의 제1 깊이 정보 내의 N개의 제1 깊이 정보에 따라 포커싱 깊이 정보를 획득하는 단계는 동일 특징점, 즉 제1 서브 특징점에 대응하는 깊이 정보에 따라 포커싱 깊이 정보를 획득하는 단계를 포함한다. 특히, 실시예에서, 포커싱 깊이 정보는 모든 제1 서브 특징점의 깊이 정보의 가중 평균치이다. 다른 실시예에서, 깊이 정보가 다수의 깊이 정보와 크게 상이한 제1 서브 특짐점을 먼저 제외하고, 나머지 제1 서브 특징점의 깊이 정보의 가중 평균이 계산되어 최종 포커싱 깊이 정보로서 사용된다. 제1 서브 특징점은 상기의 방법을 사용함으로써 선별하여 획득된 높은 신뢰도를 갖는 특징점이므로, 제1 서브 특징점에 대응하는 깊이 정보에 따라 계산된 포커싱 깊이 정보의 정확도가 더 높다.
번호 105로 나타낸 단계가 이어서 수행된다. 포커싱 깊이 정보에 따라 제1 렌즈의 타겟 위치를 획득하고, 타겟 위치로 이동하도록 제1 렌즈를 제어한다. 구체적으로, 포커싱 깊이 정보에 따라 제1 렌즈의 타겟 위치를 획득하는 단계는 또한 다수의 구현 방식을 가질 수 있다. 예를 들면, 대상 거리 및 제1 렌즈의 위치 사이의 대응 관계가 전자 장치에 저장되어 있으면, 그 대응 관계를 문의함으로써 포커싱 깊이 정보에 대응하는 깊이 위치가 획득될 수 있다. 다른 예를 들면, 포커싱 깊이 정보를 획득하는 것은 대상 거리를 획득하는 것과 동일하므로, 대상 거리에 따라 초점 거리가 계산될 수 있고, 또한 타겟 위치가 획득될 수 있다.
선택적으로, 타겟 위치로 이동하도록 제1 렌즈를 제어하는 단계는 제1 액추에이터, 예를 들어, 보이스 코일 모터(VCM: Voice Coil Motor)를 제어함으로써 제1 렌즈의 이동을 제어하는 것일 수 있다. 구체적으로, 보이스 코일 모터는 코일, 자석 세트, 및 스프링 플레이트를 포함한다. 코일은 2개의 스프링 플레이트: 상부 스프링 플레이트 및 하부 스프링 플레이트를 사용하여 자석 세트 내에서 고정된다. 코일의 전원이 켜지는 때, 코일은 자기장을 생성한다. 코일의 자기장은 자석 세트와 상호 작용하고, 코일은 위쪽으로 이동하며, 코일 내에서 고정된 제1 렌즈는 함께 이동한다. 코일의 전원이 꺼지는 때, 코일은 스프링 플레이트의 탄성력에 의해 원래의 위치로 되돌아간다.
물론, 실제 적용에서, 구체적으로, 제1 렌즈는 다른 형태의 모터 또는 연관된 컴포넌트와 같은 다른 액추에이터를 타겟 위치로 이동하도록 제어함으로써, 추가로 구동될 수 있다.
번호 105로 나타낸 단계는 액티브 포커싱과 유사하며, 즉 M개의 제1 깊이 정보의 신뢰도가 임계치를 초과하는 때, 액티브 포커싱이 사용될 수 있고, 이는 포커싱 속도를 보장하는 경우 포커싱 정밀도를 향상시킨다.
선택적으로, 타겟 위치로 이동하도록 제1 렌즈가 제어되는 때, 방법은 타겟 위치에 대응하는 위치로 이동하도록 제2 이미지 촬영 유닛의 제2 렌즈를 제어하는 단계를 더 포함한다.
특히, 제2 렌즈가 이동해야 하는 위치는 또한 다수의 방식으로 구체적으로 결정될 수 있다. 제1 방식으로, 예를 들어, 대상 거리 및 제2 렌즈의 위치 사이의 대응 관계는 대상 거리와 제1 렌즈의 위치의 대응 관계에 포함될 수 있다. 제2 렌즈가 이동해야 하는 위치는 대응 관계를 문의함으로써 획득될 수 있다. 이 실시예에서, 제1 렌즈 및 제2 렌즈가 이동해야 하는 위치는 타겟 위치 또는 포커싱 깊이 정보를 사용하여 결정될 수 있다.
제2 방식으로, 제2 렌즈는 번호 102 내지 105로 나타낸 단계들과 유사한 단계들을 사용하여 대응하는 위치로 또한 이동될 수 있다. 본 실시예에서, 2개의 렌즈에 대해 개별적으로 처리가 수행되고, 처리 방법은 동일하다.
선택적으로, 제1 렌즈가 타겟 위치로 이동한 후, 사용자는 셔터를 눌러 이미지를 촬영할 수 있다. 포커싱이 수행되므로, 포커스 윈도우에 대응하는 이미지 영역의 선명도는 다른 영역의 선명도보다 더 높다. 제2 이미지 촬영 장치의 경우, 원칙은 동일하다. 제2 렌즈가 타겟 위치에 대응하는 위치로 이동한 후에, 포커싱된 이미지가 또한 획득될 수 있다.
선택적으로, 포커싱 깊이 정보가 획득된 후에, 포커싱 깊이 정보에 대한 확인이 더 수행될 수 있다. 확인이 성공한 후에만 타겟 위치에서 이미지 촬영이 수행된다. 확인의 단계는 구체적으로, 제3 위치로 이동하도록 제2 이미지 촬영 유닛의 제2 렌즈를 제어하는 단계, 그리고 제1 렌즈가 타겟 위치로 이동하기 전에 획득되는 이미지의 포커스 윈도우 영역 내의 제1 콘트라스트가 제1 렌즈가 타겟 위치인 때 획득된 이미지의 포커스 윈도우 영역 내의 제2 콘트라스트 및 제2 렌즈가 제3 위치인 때 획득된 이미지의 포커스 윈도우 영역 내의 제3 콘트라스트 미만인 때, 포커싱 깊이 정보에 대한 확인이 성공한 것으로 결정하는 단계를 포함한다.
이미지 콘트라스트는 이미지 색상 차이를 지칭한다. 실제 적용에서, 상이한 계산 방법이 존재하며, 예를 들어, 포커스 윈도우 영역 내의 이미지에서 가장 밝은 백색 영역 및 가장 어두운 흑색 영역 사이의 상이한 밝기 레벨의 측정, 더 큰 차이 범위는 더 큰 콘트라스트를 나타내며, 더 작은 차이 범위가 더 작은 콘트라스트를 나타낸다. 콘트라스트 계산은 당업자에게 공지되어 있는 내용이다. 따라서, 상세한 설명은 여기서 다시 기술하지 않는다.
예를 들어, 제1 렌즈가 타겟 위치로 이동하기 전의 제1 렌즈의 위치를 P0, 타겟 위치를 P1로 가정한다. 제3 위치는 P2이고, 실시예에서 P2 =(P0 + P1) / 2라고 가정한다. 위치 P0에서, 제1 이미지 촬영 유닛에 의해 획득되고 포커스 윈도우 영역에 있는 이미지의 콘트라스트가 제1 콘트라스트 C(P0)라고 가정한다. 제1 이미지 촬영 유닛에 의해 위치(P1)에서 획득되고 포커스 윈도우 영역에 있는 이미지의 콘트라스트는 제2 콘트라스트 C(P1)이다. 제2 이미지 촬영 유닛에 의해 위치(P2)에서 획득되고 포커스 윈도우 영역에 있는 이미지의 콘트라스트는 제3 콘트라스트 C(P2)이다. C(P2) <C(P1) 및 C(P0) <C(P1)인 때, 포커싱 깊이 정보의 확인이 성공한 것으로 결정된다. C(P2)가 C(P1) 이상이거나, 또는 C(P0)가 C(P1) 이상인 때, 포커싱 깊이 정보의 확인이 실패한 것으로 결정된다.
선택적으로, 타겟 위치로 이동하도록 제1 렌즈가 제어되기 전에, 포커싱 깊이 정보의 확인이 성공적인 것으로 결정될 수 있다. 본 실시예에서, 포커싱 깊이 정보를 확인하는 단계는, 제1 이미지 내의 제1 대상의 크기에 따른 제1 대상의 추정된 크기를 계산하는 단계, 계산을 통해 획득된 추정된 크기를 이전 데이터와 비교하는 단계를 포함하고, 여기서 추정된 크기 및 이전 데이터 사이의 차이의 절댓값이 임계치를 초과하면, 이는 포커싱 깊이 정보에 대한 확인이 실패함을 나타내고, 그렇지 않으면 확인이 성공함을 나타낸다. 제1 대상의 추정된 크기는 제1 이미지 내의 제1 대상의 크기에 따라 계산되며, 이와 같이 구체적으로 계산될 수 있다. 제1 이미지 내의 제1 대상의 크기, 이미지 센서 및 제1 렌즈 사이의 거리, 및 M개의 제1 깊이 정보가 모두 알려져 있으므로, 제1 대상의 추정된 크기는 촬영 원리 및 유사 삼각 원리(similar triangle principle)에 따라 계산되어 획득될 수 있다. 예를 들어, 자동차의 폭은 3미터이나, 제1 이미지에서 자동차의 크기에 따라 계산된 자동차의 추정된 크기는 3미터보다 훨씬 크다고 가정하면, 이는 M개의 제1 깊이 정보의 계산이 잘못됨을 의미하고, 이는 확인이 실패함을 나타내며, 그렇지 않으면 확인이 성공함을 나타낸다.
인물을 촬영하는 시나리오에서, 사람 얼굴이 포커스 윈도우 내에서 검출되는 때, 전술한 확인 방법에 더하여, 확인이 다음의 단계들, 사람 얼굴 및 제1 렌즈 사이의 추정 거리를 사람 얼굴 프레임의 크기에 따라 추정하는 단계, 그리고 추정 거리 및 포커싱 깊이 정보 사이의 차의 절댓값이 제4 임계치 이하인 때, 포커싱 깊이 정보에 대한 확인이 성공적인 것으로 결정하는 단계를 사용하여 포커싱 깊이 정보에 대해 더 수행될 수 있다. 그렇지 않으면, 포커싱 깊이 정보에 대한 확인이 실패한다. 사람의 얼굴 프레임은 사람의 얼굴의 위치를 나타내는 데 사용된다.
사람 얼굴 프레임의 크기에 따라 사람 얼굴 및 제1 렌즈 사이의 추정 거리를 추정하는 단계는 구체적으로 다음과 같다. 사람 얼굴 프레임에 대응하는 픽셀의 수량, 즉 제1 이미지 내의 크기는 사람 얼굴 및 제1 렌즈 사이의 거리에 대해 특정 비율 관계이고, 그 다음 사람 얼굴 프레임의 비율 및 크기에 따라 사람 얼굴 및 제1 렌즈 사이의 추정 거리가 추정될 수 있다. 그리고, 포커싱 깊이 정보 및 이 방법을 사용하여 추정된 추정 거리 사이의 차의 절댓값이 제4 임계치 이하인 때, 이는 확인이 성공함을 의미하고, 그렇지 않으면, 확인이 실패함을 의미한다.
선택적으로, 확인이 성공하는 때, 포커싱 깊이 정보에 따라 거리 측정 방법 포커싱이 이네이블링되어 렌즈를 대응하는 깊이의 위치로 직접 이동시킬 수 있다.
선택적으로, 전술한 확인 방법들 또는 다른 확인 방법 중 어느 것을 사용하는지에 관계 없이, 확인이 실패하거나, 또는 M개의 제1 깊이 정보의 신뢰도가 임계치 이하인 것으로 결정되면, 방법은, 새로운 위치로 이동하도록 제1 렌즈 및 제2 이미지 촬영 유닛의 제2 렌즈를 제어하는 단계, 새로운 위치에서, 동시에, 제1 이미지 촬영 유닛 및 제2 이미지 촬영 유닛을 사용하여 각각 제1 대상의 제3 이미지 및 제4 이미지를 수집하는 단계, 제3 이미지 및 제4 이미지의 대응하는 영역 내의 P개의 동일한 특징점 쌍의 P개의 제2 깊이 정보를 계산하는 단계, P개의 제2 깊이 정보의 신뢰도가 임계치를 초과하는지 결정하는 단계, P개의 제2 깊이 정보의 신뢰도가 임계치를 초과하는 때 P개의 제2 깊이 정보 내의 L개의 제2 깊이 정보에 따라 새로운 포커싱 깊이 정보를 획득하는 단계, 그리고 새로운 포커싱 깊이 정보에 따라 제1 렌즈의 새로운 타겟 위치를 획득하고, 새로운 타겟 위치로 이동하도록 제1 렌즈를 제어하는 단계를 더 포함하고, 여기서 P는 양수이고, L은 P 이하의 양수이다. 물론, P는 제3 이미지 내의 픽셀의 총량 및 제4 이미지 내의 픽셀의 총량 중 더 적은 픽셀의 총량 이하이다.
선택적으로, 제1 렌즈 및 제2 렌즈는 새로운 위치로 이동되고 고정된 스텝 길이 방식으로, 즉 매번 이동 크기가 동일하게 이동될 수 있다. 이동 스텝 길이를 점차적으로 증가시키거나 또는 점차적으로 감소시키는 방식이 또한 렌즈를 이동하는 데 사용될 수 있다. 실제 적용에서, 이동은 또 다른 규칙에 따라 더 수행될 수 있으며, 이는 본원에 제한되지 않는다.
나머지 단계들의 구현 프로세스는 도 1에 나타낸 전술한 단계들의 구현 프로세스와 유사하며, 상세한 설명은 여기서 다시 기술되지 않는다.
이 실시예에서, 이는 패시브 포커싱에서 매번 렌즈가 이동된 후, 깊이 정보가 다시 계산된 다음, 깊이 정보의 신뢰도가 결정되는 것과 동일하고, 여기서 신뢰도가 높은 때, 액티브 포커싱과 유사한 방식이 사용되거나 또는 그 거리에서 확인이 수행된다. 신뢰도가 낮거나 또는 확인이 실패하면, 렌즈가 다시 이동되고, 깊이 정보가 다시 계산된 다음, 깊이 정보의 신뢰도가 다시 결정된다. 이 사이클이 이 방식으로 반복된다. 이 실시예에서의 방법을 사용하여 액티브 포커싱의 속도 및 패시브 포커싱의 정밀도 모두가 보장될 수 있다.
다음은 자동 포커싱 방법의 특정 예를 설명하고, 도 3이 참조될 수 있다.
먼저, 제1 이미지 및 제2 이미지가 획득되고, 구체적으로, 제1 이미지 및 제2 이미지가 촬영되는 때의 포커스 윈도우의 위치 정보가 더 획득된다. 그리고, 제1 이미지 및 제2 이미지 내의 대응하는 영역에서 M개의 동일 특징점 쌍의 M개의 제1 깊이 정보가 계산된다. 구체적으로, 포커스 윈도우 영역 내의 동일한 특징점의 깊이 정보가 계산되어 M개의 제1 깊이 정보로 사용될 수 있다. 그리고, M개의 제1 깊이 정보의 신뢰도가 임계치를 초과하는지 결정된다. 그렇지 않으면, 패시브 포커싱이 이네이블링된다. 그렇다면, M개의 제1 깊이 정보 내의 N개의 제1 깊이 정보에 따라 포커싱 깊이 정보가 획득되고, 포커싱 깊이 정보에 대한 확인이 수행된다. 그런 다음, 확인이 성공했는지 결정된다. 확인이 실패하면, 패시브 포커싱도 이네이블링된다. 확인이 성공하면, 액티브 포커싱이 이네이블링된다. 선택적으로, 패시브 포커싱이 이네이블링되고, 렌즈가 새로운 위치로 이동된 후, 되돌아가서 M개의 제1 깊이 정보를 계산하는 단계를 계속 수행한 다음, 순서도의 순서로 후속하는 단계를 계속 수행한다. 포커싱이 성공할 때까지 이 사이클이 반복된다.
동일한 발명 컨셉에 기초하여, 본원의 실시예는 자동 포커싱 장치를 더 제공한다. 도 4를 참조하면, 도 4는 자동 포커싱 장치의 기능 블록도이다. 이 실시예에 관련된 용어는 상기의 용어와 동일하거나 또는 유사하다. 이 장치는, 제1 이미지 촬영 유닛을 사용하여 수집된 제1 대상의 제1 이미지, 및 제2 이미지 촬영 유닛을 사용하여 수집된 제1 대상의 제2 이미지를 획득하도록 구성된 취득 유닛(301), 그리고 제1 이미지 및 제2 이미지 내의 대응하는 영역들의 M개의 동일한 특징점 쌍의 M개의 제1 깊이 정보를 계산하고, M개의 제1 깊이 정보의 신뢰도가 임계치를 초과하는지 결정하며, M개의 제1 깊이 정보의 신뢰도가 임계치를 초과하는 때 M개의 제1 깊이 정보 내의 N개의 제1 깊이 정보에 따라 포커싱 깊이 정보를 획득하고, 포커싱 깊이 정보에 따라 제1 이미지 촬영 유닛의 제1 렌즈의 타겟 위치를 획득하고, 타겟 위치로 이동하도록 제1 렌즈를 제어하도록 구성된 처리 유닛(302)을 포함하고, 제1 이미지 및 제2 이미지는 동시에 수집되며, M은 양수이고, N은 M 이하의 양수이다.
선택적으로, 대응하는 영역은 제1 이미지 및 제2 이미지가 수집되는 때 포커스 윈도우의 위치에 대응하는 영역이고, 제1 이미지 내의 영역은 제1 영역이며, 제2 이미지 내의 영역은 제2 영역이고, 처리 유닛(302)은 구체적으로, 제1 영역 내의 제1 특징점의 수량이 제1 임계치 이상인지 결정하거나 제2 영역 내의 제2 특징점의 수량이 제2 임계치 이상인지 결정하고, 제1 특징점의 수량이 제1 임계치 미만 및/또는 제2 특징점의 수량이 제2 임계치 미만인 때, M개의 제1 깊이 정보의 신뢰도가 임계치 이하인 것으로 결정하도록 구성된다.
또한, 처리 유닛(302)은 제1 특징점의 수량이 제1 임계치 이상이고 제2 특징점의 수량이 제2 임계치 이상인 때, 제1 특징점에 대해, 제1 순서로 제2 특징점을 탐색하여 제1 특징점과 매칭되는 제1 매칭 특징점을 찾아내고, 제1 순서와는 반대인 제2 순서로 제2 특징점을 탐색하여 제1 특징점과 매칭되는 제2 매칭 특징점을 찾아내고, 제1 매칭 특징점 및 제2 매칭 특징점 내에 있으면서 또한 제1 매칭 특징점 내의 동일한 특징점에 대응하는 동일 매칭 특징점의 수량을 결정하며, (1) 제1 특징점의 수량에 대한 동일 매칭 특징점의 수량의 비율이 제3 임계치 미만인 때, M개의 제1 깊이 정보의 신뢰도가 임계치 이하인 것으로 결정하거나, 또는 (2) 제1 특징점의 수량에 대한 동일 매칭 특징점의 수량의 비율이 제3 임계치 이상인 때, M개의 제1 깊이 정보의 신뢰도가 임계치를 초과하는 것으로 결정하도록 더 구성된다.
또한, 처리 유닛(302)은 구체적으로, 동일한 특징점에 대응하는 깊이 정보에 따라 포커싱된 깊이 정보를 획득하도록 구성된다.
전술한 실시예를 참조하면, 처리 유닛(302)은, 타겟 위치로 제1 렌즈를 이동하도록 제어한 후에, 제3 위치로 이동하도록 제2 이미지 촬영 유닛의 제2 렌즈를 제어하고, 제1 렌즈가 타겟 위치로 이동하기 전에 획득되는 이미지의 포커스 윈도우 영역 내의 제1 콘트라스트가 제1 렌즈가 타겟 위치인 때 획득된 이미지의 포커스 윈도우 영역 내의 제2 콘트라스트 및 제2 렌즈가 제3 위치인 때 획득된 이미지의 포커스 윈도우 영역 내의 제3 콘트라스트 미만인 때, 포커싱 깊이 정보에 대한 확인이 성공한 것으로 결정하며, 타겟 위치에서 이미지 촬영 수행을 제어하도록 더 구성된다.
전술한 실시예를 참조하면, 처리 유닛(302)은 처리 유닛은 타겟 위치로 이동하도록 제1 렌즈를 제어하기 전에, 포커싱 깊이 정보에 대한 확인이 성공적인 것으로 결정하도록 더 구성된다.
또한, 처리 유닛(302)은 구체적으로, 사람 얼굴이 포커스 윈도우 내에서 검출되는 때, 사람 얼굴 및 제1 렌즈 사이의 추정된 거리를 사람 얼굴 프레임의 크기에 따라 추정하고, 추정된 거리 및 포커싱 깊이 정보 사이의 차의 절댓값이 제4 임계치 이하인 때, 포커싱 깊이 정보에 대한 확인이 성공적인 것으로 결정하도록 구성된다.
전술한 실시예를 참조하면, 처리 유닛(302)은 M개의 제1 깊이 정보의 신뢰도가 임계치 이하이거나 또는 확인이 실패하는 때, 새로운 위치로 이동하도록 제1 렌즈 및 제2 이미지 촬영 유닛의 제2 렌즈를 제어하도록 더 구성된다.
또한, 취득 유닛(301)은 새로운 위치에서, 제1 이미지 촬영 유닛 및 제2 이미지 촬영 유닛을 사용하여 각각 동시에 수집되는 제1 대상의 제3 이미지 및 제4 이미지를 획득하도록 더 구성된다.
또한, 처리 유닛(302)은, 제3 이미지 및 제4 이미지의 대응하는 영역 내의 P개의 동일한 특징점 쌍의 P개의 제2 깊이 정보를 계산하고, P개의 제2 깊이 정보의 신뢰도가 임계치를 초과하는지 결정하며, P개의 제2 깊이 정보의 신뢰도가 임계치를 초과하는 때 P개의 제2 깊이 정보 내의 L개의 제2 깊이 정보에 따라 새로운 포커싱 깊이 정보를 획득하고, 새로운 포커싱 깊이 정보에 따라 제1 렌즈의 새로운 타겟 위치를 획득하고, 새로운 타겟 위치로 이동하도록 제1 렌즈를 제어하도록 더 구성되고, P는 양수이고, L은 P 이하의 양수이다.
전술한 실시예를 참조하면, 처리 유닛(302)은 타겟 위치로 이동하도록 제1 렌즈를 제어하는 때, 타겟 위치에 대응하는 위치로 이동하도록 제2 이미지 촬영 유닛의 제2 렌즈를 제어하도록 더 구성된다.
도 1 내지 도 3에서의 전술한 실시예에서 자동 포커싱 방법의 다양한 변형 및 구체적인 예는 본 실시예의 자동 포커싱 장치에도 적용 가능하다. 상기의 자동 포커싱 방법의 상세한 설명을 통해, 당업자는 본 실시예의 자동 포커싱 장치의 구현 방법을 명확하게 이해할 수 있다. 따라서, 명세서의 간결성을 위해, 상세한 설명은 여기서 다시 기술하지 않는다.
동일한 발명 컨셉에 기초하여, 본원의 실시예는 전자 장치를 더 제공한다. 도 5는 본 실시예의 전자 장치의 시스템 블록도이다. 이 실시예에 관련된 용어는 상기의 용어와 동일하거나 또는 유사하다. 전자 장치는 제1 대상의 제1 이미지 및 제2 이미지를 동시에 각각 수집하도록 구성된 제1 이미지 촬영 유닛(401) 및 제2 이미지 촬영 유닛(402), 제1 액추에이터(403), 그리고 제1 이미지 및 제2 이미지 내의 대응하는 영역들의 M개의 동일한 특징점 쌍의 M개의 제1 깊이 정보를 계산하고, M개의 제1 깊이 정보의 신뢰도가 임계치를 초과하는지 결정하며, M개의 제1 깊이 정보의 신뢰도가 임계치를 초과하는 때 M개의 제1 깊이 정보 내의 N개의 제1 깊이 정보에 따라 포커싱 깊이 정보를 획득하고, 포커싱 깊이 정보에 따라 제1 이미지 촬영 유닛의 제1 렌즈의 타겟 위치를 획득하고, 타겟 위치로 제1 렌즈를 이동할 수 있도록 제1 액추에이터를 제어하도록 구성된 프로세서(404)를 포함하고, 제1 이미지 및 제2 이미지는 동시에 수집되며, M은 양수이고, N은 M 이하의 양수이다.
구체적으로, 제1 이미지 촬영 유닛(401)은 제1 렌즈 및 제1 이미지 센서를 포함한다. 제1 이미지 센서는, 예를 들어, CCD(Charge-coupled Device) 또는 CMOS(Complementary Metal Oxide Semiconductor)이다. 제2 이미지 촬영 유닛(402)은 제2 렌즈 및 제2 이미지 센서를 포함한다.
선택적으로, 제1 액츄에이터(403)는 보이스 코일 모터이다.
선택적으로, 대응하는 영역은 제1 이미지 및 제2 이미지가 수집되는 때 포커스 윈도우의 위치에 대응하는 영역이고, 제1 이미지 내의 영역은 제1 영역이며, 제2 이미지 내의 영역은 제2 영역이고, 프로세서(404)는 구체적으로, 제1 영역 내의 제1 특징점의 수량이 제1 임계치 이상인지 결정하거나 제2 영역 내의 제2 특징점의 수량이 제2 임계치 이상인지 결정하고, 제1 특징점의 수량이 제1 임계치 미만 및/또는 제2 특징점의 수량이 제2 임계치 미만인 때, M개의 제1 깊이 정보의 신뢰도가 임계치 이하인 것으로 결정하도록 구성된다.
또한, 프로세서(404)는, 제1 특징점의 수량이 제1 임계치 이상이고 제2 특징점의 수량이 제2 임계치 이상인 때, 제1 특징점에 대해, 제1 순서로 제2 특징점을 탐색하여 제1 특징점과 매칭되는 제1 매칭 특징점을 찾아내고, 제1 순서와는 반대인 제2 순서로 제2 특징점을 탐색하여 제1 특징점과 매칭되는 제2 매칭 특징점을 찾아내고, 제1 매칭 특징점 및 제2 매칭 특징점 내에 있으면서 또한 제1 매칭 특징점 내의 동일한 특징점에 대응하는 동일 매칭 특징점의 수량을 결정하며, (1) 제1 특징점의 수량에 대한 동일 매칭 특징점의 수량의 비율이 제3 임계치 미만인 때, M개의 제1 깊이 정보의 신뢰도가 임계치 이하인 것으로 결정하거나, 또는 (2) 제1 특징점의 수량에 대한 동일 매칭 특징점의 수량의 비율이 제3 임계치 이상인 때, M개의 제1 깊이 정보의 신뢰도가 임계치를 초과하는 것으로 결정하도록 더 구성된다.
또한, 프로세서(404)는 구체적으로, 동일한 특징점에 대응하는 깊이 정보에 따라 포커싱된 깊이 정보를 획득하도록 구성된다.
전술한 실시예를 참조하면, 전자 장치는 제2 액추에이터(405)를 더 포함하고, 프로세서(404)는, 타겟 위치로 제1 렌즈를 이동하도록 제어한 후에, 제2 이미지 촬영 유닛(402)의 제2 렌즈가 제3 위치로 이동할 수 있도록 제2 액추에이터(405)를 제어하고, 제1 렌즈가 타겟 위치로 이동하기 전에 획득되는 이미지의 포커스 윈도우 영역 내의 제1 콘트라스트가 제1 렌즈가 타겟 위치인 때 획득된 이미지의 포커스 윈도우 영역 내의 제2 콘트라스트 및 제2 렌즈가 제3 위치인 때 획득된 이미지의 포커스 윈도우 영역 내의 제3 콘트라스트 미만인 때, 포커싱 깊이 정보에 대한 확인이 성공한 것으로 결정하며, 타겟 위치에서 이미지 촬영 수행을 제어하도록 더 구성된다.
선택적으로, 제2 액추에이터(405)는 제1 액추에이터(405)와 동일하거나 또는 상이할 수 있다.
전술한 실시예를 참조하면, 프로세서(404)는 타겟 위치로 이동하도록 제1 렌즈를 제어하기 전에, 포커싱 깊이 정보에 대한 확인이 성공적인 것으로 결정하도록 더 구성된다.
또한, 프로세서(404)는 구체적으로, 사람 얼굴이 포커스 윈도우 내에서 검출되는 때, 사람 얼굴 및 제1 렌즈 사이의 추정된 거리를 사람 얼굴 프레임의 크기에 따라 추정하고, 추정된 거리 및 포커싱 깊이 정보 사이의 차의 절댓값이 제4 임계치 이하인 때, 포커싱 깊이 정보에 대한 확인이 성공적인 것으로 결정하도록 구성된다.
전술한 실시예를 참조하면, 프로세서(404)는 M개의 제1 깊이 정보의 신뢰도가 임계치 이하이거나 또는 확인이 실패하는 때, 새로운 위치로 이동하도록 제1 렌즈 및 제2 이미지 촬영 유닛(402)의 제2 렌즈를 제어하고, 새로운 위치에서, 제1 이미지 촬영 유닛(401) 및 제2 이미지 촬영 유닛(402)을 사용하여 각각 동시에 수집되는 제1 대상의 제3 이미지 및 제4 이미지를 획득한다.
프로세서(404)는, 제3 이미지 및 제4 이미지의 대응하는 영역 내의 N개의 동일한 특징점 쌍의 P개의 제2 깊이 정보를 계산하고, P개의 제2 깊이 정보의 신뢰도가 임계치를 초과하는지 결정하며, P개의 제2 깊이 정보의 신뢰도가 임계치를 초과하는 때 P개의 제2 깊이 정보 내의 L개의 제2 깊이 정보에 따라 새로운 포커싱 깊이 정보를 획득하고, 새로운 포커싱 깊이 정보에 따라 제1 렌즈의 새로운 타겟 위치를 획득하고, 새로운 타겟 위치로 이동하도록 제1 렌즈를 제어하도록 더 구성되고, P는 양수이고, L은 P 이하의 양수이다.
전술한 실시예를 참조하면, 프로세서(404)는 타겟 위치로 이동하도록 제1 렌즈를 제어하는 때, 타겟 위치에 대응하는 위치로 이동하도록 제2 이미지 촬영 유닛(402)의 제2 렌즈를 제어하도록 더 구성된다.
도 5를 계속 참조하면, 전자 장치는 제1 이미지 촬영 유닛(401) 및/또는 제2 이미지 촬영 유닛(402) 또는 프로세서(404)에 의해 획득된 이미지/이미지들을 표시하도록 구성된 디스플레이(406)를 더 포함한다.
선택적으로, 전자 장치는 프로세서(404)가 동작을 수행하는 때 사용되는 데이터 또는 제1 이미지 촬영 유닛(401) 및/또는 제2 이미지 촬영 유닛(402)에 의해 획득된 임시 이미지 데이터를 저장하도록 구성된 메모리(407)를 더 포함한다.
선택적으로, 프로세서(404)는 중앙 처리 장치(CPU)(404) 및 IPS를 구체적으로 포함할 수 있다.
선택적으로, 프로세서(404)는 CPU이고 물리적으로 IPS와 상호 독립적인 칩이다.
선택적으로, 전자 장치는 전자 장치에 전력을 공급하도록 구성된 배터리를 더 포함한다.
도 1 내지 도 3에서의 전술한 실시예에서의 자동 포커싱 방식의 다양한 변형 및 구체적인 예는 본 실시예의 전자 장치에도 적용 가능하다. 전술한 자동 포커싱 방법의 상세한 설명을 통해, 당업자는 본 실시예의 전자 장치의 구현 방법을 명확하게 이해할 수 있다. 따라서, 명세서의 간결성을 위해, 상세한 설명은 여기서 다시 기술하지 않는다.
본원의 실시예에 제공된 하나 이상의 기술적 솔루션은 적어도 다음과 같은 기술적 효과 또는 이점을 갖는다.
본원의 실시예들에서, 동시에, 제1 이미지 촬영 유닛을 사용하여 제1 대상의 제1 이미지가 수집되고, 제2 이미지 촬영 유닛을 사용하여 제1 대상의 제2 이미지가 수집되며, 제1 이미지 및 제2 이미지 내의 대응하는 영역들의 M개의 동일한 특징점 쌍의 M개의 제1 깊이 정보가 계산되고, M개의 제1 깊이 정보의 신뢰도가 임계치를 초과하는지 결정되며, M개의 제1 깊이 정보의 신뢰도가 임계치를 초과하는 때, M개의 제1 깊이 정보에 따라 제1 렌즈의 타겟 위치가 계산되고, 제1 렌즈가 타겟 위치로 이동하도록 제어된다. 따라서, 실시예들에서, 액티브 포커싱에서 획득된 대상 거리의 신뢰도, 즉 M개의 제1 깊이 정보가 결정된다. 액티브 포커싱 방법은 신뢰도가 임계치를 초과하는 때에만 사용되고, 즉 M개의 제1 깊이 정보 내의 N개의 제1 깊이 정보에 따라 제1 렌즈의 타겟 위치가 획득된 다음, 포커싱을 완료하기 위해 제1 렌즈가 현재 위치로 이동하도록 제어된다. 따라서, 종래의 액티브 포커싱 방식과 비교하여, 포커싱 정밀도가 향상된다.
당업자는 본원의 실시예가 방법 및 장치 실시예로서 제공될 수 있고 하드웨어 또는 소프트웨어 및 하드웨어 방식의 조합으로 구현될 수 있다는 것을 이해해야 한다.
본원은 본원의 실시예에 따른 방법, 장치(시스템), 및 컴퓨터 프로그램 제품의 순서도 또는 블록도를 참조하여 설명된다. 순서도 또는 블록도 내의 각 프로세스 또는 각 블록, 순서도 또는 블록도 내의 프로세스 또는 블록의 조합을 구현하는 데 컴퓨터 프로그램 명령이 사용될 수 있음을 이해해야 한다. 이들 컴퓨터 프로그램 명령들은 기기를 생성하기 위한 범용 컴퓨터, 전용 컴퓨터, 임베디드 프로세서, 또는 임의의 다른 프로그램 가능한 데이터 처리 장치의 프로세서를 위해 제공될 수 있으므로, 컴퓨터 또는 임의의 다른 프로그램 가능한 데이터 처리 장치의 프로세서에 의해 실행되는 명령들은 순서도의 하나 이상의 프로세스 또는 블록도 내의 하나 이상의 블록 내의 특정 기능을 구현하기 위한 장치를 생성한다.
이들 컴퓨터 프로그램 명령은, 컴퓨터 판독 가능 메모리에 저장된 명령이 명령 장치를 포함하는 아티펙트를 생성할 수 있도록, 컴퓨터 또는 임의의 다른 프로그램 가능한 데이터 처리 장치를 지시할 수 있는 컴퓨터 판독 가능 메모리에 저장될 수 있다. 지시 장치는 순서도의 하나 이상의 프로세스 또는 블록도의 하나 이상의 블록에서 특정 기능을 구현한다.
이들 컴퓨터 프로그램 명령은 또한 컴퓨터 또는 다른 프로그램 가능한 데이터 처리 장치 상에 로딩될 수 있으므로, 일련의 동작 및 단계가 컴퓨터 또는 다른 프로그램 가능한 장치 상에서 수행되어, 컴퓨터 구현 처리를 생성한다. 따라서, 컴퓨터 또는 다른 프로그램 가능한 장치에서 실행되는 명령은 순서도의 하나 이상의 프로세스 또는 블록도의 하나 이상의 블록에서 특정 기능을 구현하기 위한 단계들을 제공한다.
명백하게, 당업자는 본원의 사상 및 범위를 벗어나지 않으면서 본원에 대한 다양한 수정 및 변형을 할 수 있다. 본원은 이하의 청구범위 및 그와 동등한 기술에 의해 정의된 보호 범위 내에 있는 한, 이러한 수정 및 변형을 포함하도록 의도된다.

Claims (27)

  1. 동시에, 제1 이미지 촬영 유닛을 사용하여 제1 대상의 제1 이미지를 수집하고, 제2 이미지 촬영 유닛을 사용하여 상기 제1 대상의 제2 이미지를 수집하는 단계,
    상기 제1 이미지 및 상기 제2 이미지 내의 대응하는 영역들의 M개의 동일한 특징점 쌍의 M개의 제1 깊이 정보를 계산하는 단계 - M은 양수임 -,
    상기 M개의 제1 깊이 정보의 신뢰도가 임계치를 초과하는지 결정하는 단계,
    상기 M개의 제1 깊이 정보의 신뢰도가 상기 임계치를 초과하는 때 상기 M개의 제1 깊이 정보 내의 N개의 제1 깊이 정보에 따라 포커싱 깊이 정보를 획득하는 단계 - N은 M 이하의 양수임 -, 그리고
    상기 포커싱 깊이 정보에 따라 상기 제1 이미지 촬영 유닛의 제1 렌즈의 타겟 위치를 획득하고, 상기 타겟 위치로 이동하도록 상기 제1 렌즈를 제어하는 단계
    를 포함하는 자동 포커싱 방법.
  2. 제1항에 있어서,
    상기 대응하는 영역은 상기 제1 이미지 및 상기 제2 이미지가 수집되는 때 포커스 윈도우의 위치에 대응하는 영역이고, 상기 제1 이미지 내의 영역은 제1 영역이며, 상기 제2 이미지 내의 영역은 제2 영역이고, 상기 M개의 제1 깊이 정보의 신뢰도가 임계치를 초과하는지 결정하는 단계는,
    상기 제1 영역 내의 제1 특징점의 수량이 제1 임계치 이상인지 결정하거나 상기 제2 영역 내의 제2 특징점의 수량이 제2 임계치 이상인지 결정하고, 상기 제1 특징점의 수량이 상기 제1 임계치 미만 및/또는 상기 제2 특징점의 수량이 상기 제2 임계치 미만인 때, 상기 M개의 제1 깊이 정보의 신뢰도가 상기 임계치 이하인 것으로 결정하는 단계를 포함하는,
    자동 포커싱 방법.
  3. 제2항에 있어서,
    상기 제1 특징점의 수량이 상기 제1 임계치 이상이고 상기 제2 특징점의 수량이 상기 제2 임계치 이상인 때, 상기 자동 포커싱 방법은,
    상기 제1 특징점에 대해, 제1 순서로 상기 제2 특징점을 탐색하여 상기 제1 특징점과 매칭되는 제1 매칭 특징점을 찾아내고, 상기 제1 순서와는 반대인 제2 순서로 상기 제2 특징점을 탐색하여 상기 제1 특징점과 매칭되는 제2 매칭 특징점을 찾아내는 단계,
    상기 제1 매칭 특징점 및 상기 제2 매칭 특징점 내에 있으면서 또한 상기 제1 특징점 내의 동일한 특징점에 대응하는 동일 매칭 특징점의 수량을 결정하는 단계, 그리고
    상기 제1 특징점의 수량에 대한 상기 동일 매칭 특징점의 수량의 비율이 제3 임계치 미만인 때, 상기 M개의 제1 깊이 정보의 신뢰도가 상기 임계치 이하인 것으로 결정하거나, 또는 상기 제1 특징점의 수량에 대한 상기 동일 매칭 특징점의 수량의 비율이 제3 임계치 이상인 때, 상기 M개의 제1 깊이 정보의 신뢰도가 상기 임계치를 초과하는 것으로 결정하는 단계
    를 더 포함하는 자동 포커싱 방법.
  4. 제3항에 있어서,
    상기 M개의 제1 깊이 정보 내의 N개의 제1 깊이 정보에 따라 포커싱 깊이 정보를 획득하는 단계는,
    상기 동일한 특징점에 대응하는 상기 깊이 정보에 따라 상기 포커싱된 깊이 정보를 획득하는 단계를 포함하는,
    자동 포커싱 방법.
  5. 제1항에 있어서,
    상기 타겟 위치로 상기 제1 렌즈를 이동하도록 제어하는 단계 후에, 상기 자동 포커싱 방법은,
    제3 위치로 이동하도록 상기 제2 이미지 촬영 유닛의 제2 렌즈를 제어하는 단계,
    상기 제1 렌즈가 상기 타겟 위치로 이동하기 전에 획득되는 이미지의 포커스 윈도우 영역 내의 제1 콘트라스트가 상기 제1 렌즈가 상기 타겟 위치인 때 획득된 이미지의 포커스 윈도우 영역 내의 제2 콘트라스트 및 상기 제2 렌즈가 상기 제3 위치인 때 획득된 이미지의 포커스 윈도우 영역 내의 제3 콘트라스트 미만인 때, 포커싱 깊이 정보에 대한 확인이 성공한 것으로 결정하는 단계, 그리고
    상기 타겟 위치에서 이미지 촬영을 수행하는 단계
    를 더 포함하는 자동 포커싱 방법.
  6. 제1항에 있어서,
    상기 타겟 위치로 상기 제1 렌즈를 이동하도록 제어하는 단계 전에,
    상기 포커싱 깊이 정보에 대한 확인이 성공적인 것으로 결정하는 단계
    를 더 포함하는 자동 포커싱 방법.
  7. 제6항에 있어서,
    사람 얼굴이 포커스 윈도우 내에서 검출되는 때, 상기 포커싱 깊이 정보에 대해 상기 확인이 다음의:
    상기 사람 얼굴 및 상기 제1 렌즈 사이의 추정된 거리를 사람 얼굴 프레임의 크기에 따라 추정하는 단계, 그리고
    상기 추정된 거리 및 상기 포커싱 깊이 정보 사이의 차의 절댓값이 제4 임계치 이하인 때, 상기 포커싱 깊이 정보에 대한 확인이 성공적인 것으로 결정하는 단계를 사용하여 수행되는,
    자동 포커싱 방법.
  8. 제5항에 있어서,
    상기 M개의 제1 깊이 정보의 신뢰도가 상기 임계치 이하이거나 또는 상기 확인이 실패하는 때, 상기 자동 포커싱 방법은,
    새로운 위치로 이동하도록 상기 제1 렌즈 및 상기 제2 이미지 촬영 유닛의 제2 렌즈를 제어하는 단계,
    상기 새로운 위치에서, 동시에, 상기 제1 이미지 촬영 유닛 및 상기 제2 이미지 촬영 유닛을 사용하여 각각 상기 제1 대상의 제3 이미지 및 제4 이미지를 수집하는 단계,
    상기 제3 이미지 및 상기 제4 이미지의 대응하는 영역 내의 P개의 동일한 특징점 쌍의 P개의 제2 깊이 정보를 계산하는 단계 - P는 양수임-,
    상기 P개의 제2 깊이 정보의 신뢰도가 상기 임계치를 초과하는지 결정하는 단계,
    상기 P개의 제2 깊이 정보의 신뢰도가 상기 임계치를 초과하는 때 상기 P개의 제2 깊이 정보 내의 L개의 제2 깊이 정보에 따라 새로운 포커싱 깊이 정보를 획득하는 단계 - L은 P 이하의 양수임 -, 그리고
    상기 새로운 포커싱 깊이 정보에 따라 상기 제1 렌즈의 새로운 타겟 위치를 획득하고, 상기 새로운 타겟 위치로 이동하도록 상기 제1 렌즈를 제어하는 단계
    를 더 포함하는 자동 포커싱 방법.
  9. 제1항에 있어서,
    상기 제1 렌즈가 상기 타겟 위치로 이동하도록 제어되는 때, 상기 자동 포커싱 방법은,
    상기 타겟 위치에 대응하는 위치로 이동하도록 상기 제2 이미지 촬영 유닛의 제2 렌즈를 제어하는 단계
    를 더 포함하는 자동 포커싱 방법.
  10. 제1 대상의 제1 이미지 및 제2 이미지를 동시에 각각 수집하도록 구성된 제1 이미지 촬영 유닛 및 제2 이미지 촬영 유닛,
    제1 액추에이터, 그리고
    상기 제1 이미지 및 상기 제2 이미지 내의 대응하는 영역들의 M개의 동일한 특징점 쌍의 M개의 제1 깊이 정보를 계산하고, 상기 M개의 제1 깊이 정보의 신뢰도가 임계치를 초과하는지 결정하며, 상기 M개의 제1 깊이 정보의 신뢰도가 상기 임계치를 초과하는 때 상기 M개의 제1 깊이 정보 내의 N개의 제1 깊이 정보에 따라 포커싱 깊이 정보를 획득하고, 상기 포커싱 깊이 정보에 따라 상기 제1 이미지 촬영 유닛의 제1 렌즈의 타겟 위치를 획득하고, 상기 타겟 위치로 상기 제1 렌즈를 이동할 수 있도록 상기 제1 액추에이터를 제어하도록 구성된 프로세서
    를 포함하고,
    상기 제1 이미지 및 상기 제2 이미지는 동시에 수집되며, M은 양수이고, N은 M 이하의 양수인,
    전자 장치.
  11. 제10항에 있어서,
    상기 대응하는 영역은 상기 제1 이미지 및 상기 제2 이미지가 수집되는 때 포커스 윈도우의 위치에 대응하는 영역이고, 상기 제1 이미지 내의 영역은 제1 영역이며, 상기 제2 이미지 내의 영역은 제2 영역이고,
    상기 프로세서는 구체적으로, 상기 제1 영역 내의 제1 특징점의 수량이 제1 임계치 이상인지 결정하거나 상기 제2 영역 내의 제2 특징점의 수량이 제2 임계치 이상인지 결정하고, 상기 제1 특징점의 수량이 상기 제1 임계치 미만 및/또는 상기 제2 특징점의 수량이 상기 제2 임계치 미만인 때, 상기 M개의 제1 깊이 정보의 신뢰도가 상기 임계치 이하인 것으로 결정하도록 구성된,
    전자 장치.
  12. 제11항에 있어서,
    상기 프로세서는, 상기 제1 특징점의 수량이 상기 제1 임계치 이상이고 상기 제2 특징점의 수량이 상기 제2 임계치 이상인 때, 상기 제1 특징점에 대해, 제1 순서로 상기 제2 특징점을 탐색하여 상기 제1 특징점과 매칭되는 제1 매칭 특징점을 찾아내고, 상기 제1 순서와는 반대인 제2 순서로 상기 제2 특징점을 탐색하여 상기 제1 특징점과 매칭되는 제2 매칭 특징점을 찾아내고, 상기 제1 매칭 특징점 및 상기 제2 매칭 특징점 내에 있으면서 또한 상기 제1 매칭 특징점 내의 동일한 특징점에 대응하는 동일 매칭 특징점의 수량을 결정하며, (1) 상기 제1 특징점의 수량에 대한 상기 동일 매칭 특징점의 수량의 비율이 제3 임계치 미만인 때, 상기 M개의 제1 깊이 정보의 신뢰도가 상기 임계치 이하인 것으로 결정하거나, 또는 (2) 상기 제1 특징점의 수량에 대한 상기 동일 매칭 특징점의 수량의 비율이 제3 임계치 이상인 때, 상기 M개의 제1 깊이 정보의 신뢰도가 상기 임계치를 초과하는 것으로 결정하도록 더 구성되는,
    전자 장치.
  13. 제12항에 있어서,
    상기 프로세서는 구체적으로, 상기 동일한 특징점에 대응하는 상기 깊이 정보에 따라 상기 포커싱된 깊이 정보를 획득하도록 구성된,
    전자 장치.
  14. 제10항에 있어서,
    제2 액추에이터를 더 포함하고,
    상기 프로세서는, 상기 타겟 위치로 상기 제1 렌즈를 이동하도록 제어한 후에, 상기 제2 이미지 촬영 유닛의 제2 렌즈가 제3 위치로 이동할 수 있도록 상기 제2 액추에이터를 제어하고, 상기 제1 렌즈가 상기 타겟 위치로 이동하기 전에 획득되는 이미지의 포커스 윈도우 영역 내의 제1 콘트라스트가 상기 제1 렌즈가 상기 타겟 위치인 때 획득된 이미지의 포커스 윈도우 영역 내의 제2 콘트라스트 및 상기 제2 렌즈가 상기 제3 위치인 때 획득된 이미지의 포커스 윈도우 영역 내의 제3 콘트라스트 미만인 때, 포커싱 깊이 정보에 대한 확인이 성공한 것으로 결정하며, 상기 타겟 위치에서 이미지 촬영 수행을 제어하도록 더 구성된,
    전자 장치.
  15. 제10항에 있어서,
    상기 프로세서는 상기 타겟 위치로 이동하도록 상기 제1 렌즈를 제어하기 전에, 상기 포커싱 깊이 정보에 대한 확인이 성공적인 것으로 결정하도록 더 구성된,
    전자 장치.
  16. 제15항에 있어서,
    상기 프로세서는 구체적으로, 사람 얼굴이 포커스 윈도우 내에서 검출되는 때, 상기 사람 얼굴 및 상기 제1 렌즈 사이의 추정된 거리를 사람 얼굴 프레임의 크기에 따라 추정하고, 상기 추정된 거리 및 상기 포커싱 깊이 정보 사이의 차의 절댓값이 제4 임계치 이하인 때, 상기 포커싱 깊이 정보에 대한 확인이 성공적인 것으로 결정하도록 구성된,
    전자 장치.
  17. 제14항에 있어서,
    상기 프로세서는, 상기 M개의 제1 깊이 정보의 신뢰도가 상기 임계치 이하이거나 또는 상기 확인이 실패하는 때, 새로운 위치로 이동하도록 상기 제1 렌즈 및 상기 제2 이미지 촬영 유닛의 제2 렌즈를 제어하고, 상기 새로운 위치에서, 상기 제1 이미지 촬영 유닛 및 상기 제2 이미지 촬영 유닛을 사용하여 각각 동시에 수집되는 상기 제1 대상의 제3 이미지 및 제4 이미지를 획득하며, 상기 제3 이미지 및 상기 제4 이미지의 대응하는 영역 내의 N개의 동일한 특징점 쌍의 P개의 제2 깊이 정보를 계산하고, 상기 P개의 제2 깊이 정보의 신뢰도가 상기 임계치를 초과하는지 결정하며, 상기 P개의 제2 깊이 정보의 신뢰도가 상기 임계치를 초과하는 때 상기 P개의 제2 깊이 정보 내의 L개의 제2 깊이 정보에 따라 새로운 포커싱 깊이 정보를 획득하고, 상기 새로운 포커싱 깊이 정보에 따라 상기 제1 렌즈의 새로운 타겟 위치를 획득하고, 상기 새로운 타겟 위치로 이동하도록 상기 제1 렌즈를 제어하도록 더 구성되고,
    P는 양수이고, L은 P 이하의 양수인,
    전자 장치.
  18. 제10항에 있어서,
    상기 프로세서는 상기 타겟 위치로 이동하도록 상기 제1 렌즈를 제어하는 때, 상기 타겟 위치에 대응하는 위치로 이동하도록 상기 제2 이미지 촬영 유닛의 제2 렌즈를 제어하도록 더 구성된,
    전자 장치.
  19. 삭제
  20. 삭제
  21. 삭제
  22. 삭제
  23. 삭제
  24. 삭제
  25. 삭제
  26. 삭제
  27. 삭제
KR1020177010752A 2014-09-30 2014-09-30 자동 포커싱 방법, 장치 및 전자 장치 KR102032882B1 (ko)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2014/088003 WO2016049889A1 (zh) 2014-09-30 2014-09-30 一种自动对焦方法、装置及电子设备

Publications (2)

Publication Number Publication Date
KR20170056698A KR20170056698A (ko) 2017-05-23
KR102032882B1 true KR102032882B1 (ko) 2019-10-16

Family

ID=55629316

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020177010752A KR102032882B1 (ko) 2014-09-30 2014-09-30 자동 포커싱 방법, 장치 및 전자 장치

Country Status (5)

Country Link
US (2) US10129455B2 (ko)
EP (1) EP3190781B1 (ko)
KR (1) KR102032882B1 (ko)
CN (2) CN108924428A (ko)
WO (1) WO2016049889A1 (ko)

Families Citing this family (62)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112911252B (zh) 2012-11-28 2023-07-04 核心光电有限公司 多孔径成像***
WO2014199338A2 (en) 2013-06-13 2014-12-18 Corephotonics Ltd. Dual aperture zoom digital camera
CN105359006B (zh) 2013-07-04 2018-06-22 核心光电有限公司 小型长焦透镜套件
CN108718376B (zh) 2013-08-01 2020-08-14 核心光电有限公司 具有自动聚焦的纤薄多孔径成像***及其使用方法
US9392188B2 (en) 2014-08-10 2016-07-12 Corephotonics Ltd. Zoom dual-aperture camera with folded lens
WO2016108093A1 (en) 2015-01-03 2016-07-07 Corephotonics Ltd. Miniature telephoto lens module and a camera utilizing such a lens module
KR102160867B1 (ko) 2015-04-02 2020-09-29 코어포토닉스 리미티드 듀얼 광학 모듈 카메라의 듀얼 보이스 코일 모터 구조체
KR101866482B1 (ko) 2015-04-16 2018-06-11 코어포토닉스 리미티드 소형 접이식 카메라의 오토 포커스 및 광학 이미지 안정화
CN107533208B (zh) 2015-05-28 2019-09-13 核心光电有限公司 用于双孔径数字照相机中的光学图像稳定和自动对焦的双向刚度
KR102143309B1 (ko) 2015-08-13 2020-08-11 코어포토닉스 리미티드 비디오 지원 및 스위칭/비스위칭 동적 제어 기능이 있는 듀얼-애퍼처 줌 카메라
EP3474070B1 (en) 2015-09-06 2020-06-24 Corephotonics Ltd. Auto focus and optical image stabilization with roll compensation in a compact folded camera
CN108353118B (zh) 2015-12-29 2019-04-02 核心光电有限公司 具有自动可调节长焦视场的双孔径变焦数字摄影机
KR102063411B1 (ko) 2016-05-30 2020-01-07 코어포토닉스 리미티드 회전식 볼-가이드 음성 코일 모터
US20170358101A1 (en) * 2016-06-10 2017-12-14 Apple Inc. Optical Image Stabilization for Depth Sensing
WO2017221106A1 (en) 2016-06-19 2017-12-28 Corephotonics Ltd. Frame synchronization in a dual-aperture camera system
US10706518B2 (en) 2016-07-07 2020-07-07 Corephotonics Ltd. Dual camera system with improved video smooth transition by image blending
KR102226315B1 (ko) 2016-07-07 2021-03-12 코어포토닉스 리미티드 폴디드 옵틱용 선형 볼 가이드 음성 코일 모터
CN110140078B (zh) 2016-12-28 2021-11-19 核心光电有限公司 具有延伸光折叠元件扫描范围的折叠相机结构
CN109417589B (zh) 2017-01-12 2021-10-22 核心光电有限公司 紧凑型折叠式摄影机及其组装方法
KR20240066298A (ko) 2017-02-23 2024-05-14 코어포토닉스 리미티드 폴디드 카메라 렌즈 설계
EP3596543B1 (en) 2017-03-15 2024-04-10 Corephotonics Ltd. Camera with panoramic scanning range
CN107277367A (zh) * 2017-07-27 2017-10-20 未来科技(襄阳)有限公司 拍照处理方法、装置、设备和存储介质
KR102338576B1 (ko) * 2017-08-22 2021-12-14 삼성전자주식회사 이미지를 이용하여 획득된 깊이 정보의 속성에 따라 이미지와 연관하여 깊이 정보를 저장하는 전자 장치 및 전자 장치 제어 방법
US10867161B2 (en) * 2017-09-06 2020-12-15 Pixart Imaging Inc. Auxiliary filtering device for face recognition and starting method for electronic device
WO2019048904A1 (en) 2017-09-06 2019-03-14 Corephotonics Ltd. STEREOSCOPIC DEPTH CARTOGRAPHY AND COMBINED PHASE DETECTION IN A DOUBLE-OPENING CAMERA
US10951834B2 (en) 2017-10-03 2021-03-16 Corephotonics Ltd. Synthetically enlarged camera aperture
CN110140076B (zh) 2017-11-23 2021-05-21 核心光电有限公司 紧凑型折叠式摄影机结构
CN107888829B (zh) * 2017-11-23 2020-08-28 努比亚技术有限公司 移动终端的对焦方法、移动终端及存储介质
US10976567B2 (en) 2018-02-05 2021-04-13 Corephotonics Ltd. Reduced height penalty for folded camera
WO2019155289A1 (en) 2018-02-12 2019-08-15 Corephotonics Ltd. Folded camera with optical image stabilization
US20190260943A1 (en) * 2018-02-22 2019-08-22 Perspective Components, Inc. Methods for dynamic camera position adjustment
CN110220493B (zh) * 2018-03-02 2023-11-10 北京图森智途科技有限公司 一种双目测距方法及其装置
US10694168B2 (en) 2018-04-22 2020-06-23 Corephotonics Ltd. System and method for mitigating or preventing eye damage from structured light IR/NIR projector systems
EP4109174A1 (en) 2018-04-23 2022-12-28 Corephotonics Ltd. An optical-path folding-element with an extended two degree of freedom rotation range
CN108600629B (zh) * 2018-05-04 2020-08-21 努比亚技术有限公司 拍照方法、移动终端及计算机可读存储介质
EP3652728B1 (en) 2018-08-04 2023-06-07 Corephotonics Ltd. Switchable continuous display information system above camera
US11635596B2 (en) 2018-08-22 2023-04-25 Corephotonics Ltd. Two-state zoom folded camera
CN109525786B (zh) * 2018-12-26 2021-04-30 北京旷视科技有限公司 视频处理方法、装置、终端设备及存储介质
WO2020144528A1 (en) 2019-01-07 2020-07-16 Corephotonics Ltd. Rotation mechanism with sliding joint
KR102268094B1 (ko) 2019-03-09 2021-06-22 코어포토닉스 리미티드 동적 입체 캘리브레이션을 위한 시스템 및 방법
CN110166675B (zh) * 2019-06-14 2024-02-13 深圳扑浪创新科技有限公司 同步拍摄装置与同步拍摄方法
KR102254947B1 (ko) 2019-07-31 2021-05-24 코어포토닉스 리미티드 카메라 패닝 또는 모션에서 배경 블러링을 생성하는 시스템 및 방법
US11659135B2 (en) 2019-10-30 2023-05-23 Corephotonics Ltd. Slow or fast motion video using depth information
WO2021116851A2 (en) 2019-12-09 2021-06-17 Corephotonics Ltd. Systems and methods for obtaining a smart panoramic image
US11949976B2 (en) 2019-12-09 2024-04-02 Corephotonics Ltd. Systems and methods for obtaining a smart panoramic image
CN111062313A (zh) * 2019-12-13 2020-04-24 歌尔股份有限公司 一种图像识别方法、装置、监控***及存储介质
KR20210096795A (ko) 2020-01-29 2021-08-06 삼성전자주식회사 이미지의 자동 촬영 방법, 상기 방법을 수행하는 이미지의 자동 촬영 장치, 및 상기 방법을 수행하는 이미지의 자동 촬영 시스템
CN114641805A (zh) 2020-02-22 2022-06-17 核心光电有限公司 用于微距摄影的分屏特征
US11693064B2 (en) 2020-04-26 2023-07-04 Corephotonics Ltd. Temperature control for Hall bar sensor correction
CN117372249A (zh) 2020-05-17 2024-01-09 核心光电有限公司 全视场参考图像的图像拼接
CN117518313A (zh) 2020-05-30 2024-02-06 核心光电有限公司 用于获得超微距图像的***
KR20230004887A (ko) 2020-07-15 2023-01-06 코어포토닉스 리미티드 스캐닝 폴디드 카메라에서의 시점 수차-보정
US11637977B2 (en) 2020-07-15 2023-04-25 Corephotonics Ltd. Image sensors and sensing methods to obtain time-of-flight and phase detection information
US11946775B2 (en) 2020-07-31 2024-04-02 Corephotonics Ltd. Hall sensor—magnet geometry for large stroke linear position sensing
EP4038432A4 (en) 2020-08-12 2022-12-14 Corephotonics Ltd. OPTICAL IMAGE STABILIZATION IN A FOLDED SCANNING CAMERA
CN114244999B (zh) * 2020-09-09 2023-11-24 北京小米移动软件有限公司 自动对焦的方法、装置、摄像设备及存储介质
CN112672054B (zh) * 2020-12-25 2022-06-10 维沃移动通信有限公司 对焦方法、装置及电子设备
EP4204885A4 (en) 2021-06-08 2024-03-06 Corephotonics Ltd SYSTEMS AND CAMERAS FOR TILTING A FOCAL PLANE OF A SUPER MACRO-IMAGE
EP4320472A1 (en) 2021-10-12 2024-02-14 Samsung Electronics Co., Ltd. Device and method for predicted autofocus on an object
WO2023065165A1 (zh) * 2021-10-20 2023-04-27 深圳市大疆创新科技有限公司 可移动平台的控制方法、装置、可移动平台和存储介质
CN114339038B (zh) * 2021-12-24 2023-04-18 珠海格力电器股份有限公司 目标对象的监控方法、装置及***
CN117880630B (zh) * 2024-03-13 2024-06-07 杭州星犀科技有限公司 对焦深度获取方法、对焦深度获取***及终端

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007232793A (ja) * 2006-02-27 2007-09-13 Fujifilm Corp 撮像装置
JP2012013514A (ja) * 2010-06-30 2012-01-19 Canon Inc 情報処理装置、3次元位置算出方法及びプログラム

Family Cites Families (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4185191A (en) 1978-06-05 1980-01-22 Honeywell Inc. Range determination system
US7929801B2 (en) * 2005-08-15 2011-04-19 Sony Corporation Depth information for auto focus using two pictures and two-dimensional Gaussian scale space theory
CN101025546A (zh) * 2006-02-17 2007-08-29 明基电通股份有限公司 自动拍摄方法及***
US7683962B2 (en) 2007-03-09 2010-03-23 Eastman Kodak Company Camera using multiple lenses and image sensors in a rangefinder configuration to provide a range map
CN101813867A (zh) * 2009-02-20 2010-08-25 张小频 半通过镜头无反光镜相位比较对焦数码相机***
JP5620651B2 (ja) 2009-06-26 2014-11-05 キヤノン株式会社 再生装置、撮像装置、及びその制御方法
KR101038815B1 (ko) * 2009-08-07 2011-06-03 삼성전기주식회사 고속 오토 포커스가 가능한 촬상 시스템
JP2011075675A (ja) 2009-09-29 2011-04-14 Fujifilm Corp 複眼撮像装置
US8027582B2 (en) * 2009-12-21 2011-09-27 Sony Corporation Autofocus with confidence measure
TWI456253B (zh) * 2010-10-15 2014-10-11 Tdk Taiwan Corp 自動對焦模組之防手震傾斜補正結構
US8411195B2 (en) * 2011-04-01 2013-04-02 Sony Corporation Focus direction detection confidence system and method
US20130057655A1 (en) * 2011-09-02 2013-03-07 Wen-Yueh Su Image processing system and automatic focusing method
JP5586788B2 (ja) * 2011-09-30 2014-09-10 富士フイルム株式会社 画像表示装置及び画像撮像装置
US9020280B2 (en) * 2011-12-01 2015-04-28 Sony Corporation System and method for evaluating focus direction under various lighting conditions
KR101888967B1 (ko) 2011-12-16 2018-08-20 엘지이노텍 주식회사 3차원 카메라 모듈 및 그의 오토 포커싱 방법
CN104221370B (zh) 2012-03-29 2016-01-20 富士胶片株式会社 图像处理装置、摄像装置以及图像处理方法
KR101888956B1 (ko) 2012-05-31 2018-08-17 엘지이노텍 주식회사 카메라 모듈 및 그의 오토 포커싱 방법
CN102999939B (zh) 2012-09-21 2016-02-17 魏益群 坐标获取装置、实时三维重建***和方法、立体交互设备
CN103905709A (zh) 2012-12-25 2014-07-02 联想(北京)有限公司 一种控制电子设备的方法及电子设备
CN103973957B (zh) * 2013-01-29 2018-07-06 上海八运水科技发展有限公司 双目3d相机自动调焦***及方法
US9519972B2 (en) * 2013-03-13 2016-12-13 Kip Peli P1 Lp Systems and methods for synthesizing images from image data captured by an array camera using restricted depth of field depth maps in which depth estimation precision varies
TWI471677B (zh) * 2013-04-11 2015-02-01 Altek Semiconductor Corp 自動對焦方法及自動對焦裝置
US20150201182A1 (en) * 2013-04-11 2015-07-16 Altek Semiconductor Corp. Auto focus method and auto focus apparatus
TWI460523B (zh) * 2013-05-02 2014-11-11 Altek Semiconductor Corp 自動對焦方法及自動對焦裝置
US9423630B2 (en) * 2013-06-17 2016-08-23 Tdk Taiwan Corp. Optical image stabilizer with improved magnetic sensitivity
US9544574B2 (en) * 2013-12-06 2017-01-10 Google Inc. Selecting camera pairs for stereoscopic imaging
US9565416B1 (en) * 2013-09-30 2017-02-07 Google Inc. Depth-assisted focus in multi-camera systems
TWI494680B (zh) * 2014-01-28 2015-08-01 Altek Semiconductor Corp 影像擷取裝置及其影像形變校正方法
CN103841404A (zh) * 2014-03-18 2014-06-04 江西省一元数码科技有限公司 一种新型三维影像拍摄模组
TWI515470B (zh) * 2014-04-30 2016-01-01 聚晶半導體股份有限公司 使用多鏡頭的自動對焦系統及其方法
CN103986876B (zh) * 2014-05-29 2017-06-06 宇龙计算机通信科技(深圳)有限公司 一种图像获取终端和图像获取方法
US11042984B2 (en) * 2016-11-10 2021-06-22 Movea Systems and methods for providing image depth information

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007232793A (ja) * 2006-02-27 2007-09-13 Fujifilm Corp 撮像装置
JP2012013514A (ja) * 2010-06-30 2012-01-19 Canon Inc 情報処理装置、3次元位置算出方法及びプログラム

Also Published As

Publication number Publication date
EP3190781A1 (en) 2017-07-12
KR20170056698A (ko) 2017-05-23
US10455141B2 (en) 2019-10-22
US10129455B2 (en) 2018-11-13
EP3190781A4 (en) 2017-08-09
US20170214846A1 (en) 2017-07-27
CN105659580A (zh) 2016-06-08
US20190028631A1 (en) 2019-01-24
EP3190781B1 (en) 2019-05-22
CN105659580B (zh) 2018-09-07
WO2016049889A1 (zh) 2016-04-07
CN108924428A (zh) 2018-11-30

Similar Documents

Publication Publication Date Title
KR102032882B1 (ko) 자동 포커싱 방법, 장치 및 전자 장치
JP4852591B2 (ja) 立体画像処理装置、方法及び記録媒体並びに立体撮像装置
CN108076278B (zh) 一种自动对焦方法、装置及电子设备
TWI471677B (zh) 自動對焦方法及自動對焦裝置
TWI538512B (zh) 調整對焦位置的方法及電子裝置
TWI515470B (zh) 使用多鏡頭的自動對焦系統及其方法
US9619886B2 (en) Image processing apparatus, imaging apparatus, image processing method and program
US20150201182A1 (en) Auto focus method and auto focus apparatus
CN106031148B (zh) 成像设备,成像设备中自动对焦的方法以及对应计算机程序
JP2015148532A (ja) 距離計測装置、撮像装置、距離計測方法、およびプログラム
JP5392198B2 (ja) 測距装置及び撮像装置
US9247124B2 (en) Imaging apparatus, semiconductor integrated circuit, and imaging method
TWI515471B (zh) 使用多鏡頭的自動對焦系統及其方法
JP5454392B2 (ja) 測距装置及び撮像装置
US20130076868A1 (en) Stereoscopic imaging apparatus, face detection apparatus and methods of controlling operation of same
JP2019083580A (ja) 画像処理装置、画像処理方法、プログラム
WO2018235256A1 (ja) ステレオ計測装置及びシステム
TWI806379B (zh) 特徵點位置偵測方法及電子裝置
US10530985B2 (en) Image capturing apparatus, image capturing system, method of controlling image capturing apparatus, and non-transitory computer-readable storage medium
WO2016047220A1 (ja) 撮像装置及び撮像方法
JP6900228B2 (ja) 撮像装置、撮像システム、撮像装置の制御方法、および、プログラム
WO2024076531A1 (en) Hybrid auto-focus system with robust macro object priority focusing
JP6066765B2 (ja) 撮像装置、その制御方法、および制御プログラム
JP2015102602A (ja) 立体撮像装置、立体撮像システム、立体撮像装置の制御方法、プログラム、および、記憶媒体

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant