KR20200100498A - 전자 장치 및 그 전자 장치의 자동 초점 제어 방법 - Google Patents

전자 장치 및 그 전자 장치의 자동 초점 제어 방법 Download PDF

Info

Publication number
KR20200100498A
KR20200100498A KR1020190018865A KR20190018865A KR20200100498A KR 20200100498 A KR20200100498 A KR 20200100498A KR 1020190018865 A KR1020190018865 A KR 1020190018865A KR 20190018865 A KR20190018865 A KR 20190018865A KR 20200100498 A KR20200100498 A KR 20200100498A
Authority
KR
South Korea
Prior art keywords
lens position
camera
data
electronic device
processor
Prior art date
Application number
KR1020190018865A
Other languages
English (en)
Inventor
임성준
박재희
이소영
이승호
이용구
이기혁
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020190018865A priority Critical patent/KR20200100498A/ko
Priority to PCT/KR2020/002262 priority patent/WO2020171520A1/en
Priority to EP20157614.7A priority patent/EP3697080A3/en
Priority to CN202010098676.4A priority patent/CN111586285A/zh
Priority to US16/793,709 priority patent/US11631190B2/en
Publication of KR20200100498A publication Critical patent/KR20200100498A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • H04N17/002Diagnosis, testing or measuring for television systems or their details for television cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N5/23212
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/18Focusing aids
    • G03B13/20Rangefinders coupled with focusing arrangements, e.g. adjustment of rangefinder automatically focusing camera
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/32Means for focusing
    • G03B13/34Power focusing
    • G03B13/36Autofocus systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/667Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/671Focus control based on electronic image sensor signals in combination with active ranging signals, e.g. using light or sound signals emitted toward objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • H04N23/6812Motion detection based on additional sensors, e.g. acceleration sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/682Vibration or motion blur correction
    • H04N23/685Vibration or motion blur correction performed by mechanical compensation
    • H04N23/687Vibration or motion blur correction performed by mechanical compensation by shifting the lens or sensor position
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • H04N5/23258
    • H04N5/23287

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Optics & Photonics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Studio Devices (AREA)
  • Automatic Focus Adjustment (AREA)
  • Structure And Mechanism Of Cameras (AREA)

Abstract

전자 장치가 개시된다. 전자 장치는, 카메라; 거리 값을 검출하는 거리 센서; 상기 거리 센서에 의해 검출된 거리 값에 따라 상기 카메라에 대한 렌즈 위치를 보정하기 위한 캘리브레이션 데이터를 저장하는 메모리; 및 프로세서를 포함하고, 상기 메모리는 실행 시에 상기 프로세서가, 상기 카메라의 동작 시에 상기 거리 값에 따른 상기 카메라에 대한 렌즈 위치를 결정하고, 상기 거리 값과 상기 결정된 렌즈 위치에 대한 렌즈 위치 데이터를 획득하며, 상기 렌즈 위치 데이터에 기초하여 상기 캘리브레이션 데이터를 업데이트하며, 상기 업데이트된 캘리브레이션 데이터에 기초하여 상기 카메라에 대한 렌즈 위치를 결정하도록 하는 인스트럭션들을 저장할 수 있다. 이 외에도 명세서를 통해 파악되는 다양한 실시 예가 가능하다.

Description

전자 장치 및 그 전자 장치의 자동 초점 제어 방법{AN ELECTRONIC DEVICE AND METHOD OF CONTROLLING AUTO FOCUSING THEREOF}
본 문서에서 개시되는 실시 예들은, 카메라를 구비한 전자 장치의 자동 초점 제어 기술과 관련된다.
디지털 카메라뿐만 아니라 스마트폰과 같이 카메라를 구비한 전자 장치들이 널리 보급되었다. 카메라를 구비한 전자 장치들은 장면의 선택된 지점 내지 구역에 초점을 맞추도록 동작하는 자동 초점(auto focus) 광학 시스템을 포함할 수 있다. 자동 초점 기능은 전자 장치가 사용자의 수동적 개입 없이도 피사체에 초점을 맞출 수 있도록 할 수 있다.
자동 초점 제어 방식은 여러 가지 유형의 제어 방식이 존재한다. 예를 들어, 콘트라스트 AF 같은 수동 제어 방식이나 레이저 AF 같은 능동 제어 방식들이 있다. 자동 초점 제어 기능을 수행하기 위해, 전자 장치는 구동 소자(actuator)를 제어하여 카메라에 구비된 렌즈의 위치를 이동시킬 수 있다. 전자 장치는 자동 초점 제어를 빠르게 수행하기 위해 렌즈의 위치를 빠르게 결정하고 이동시킬 수 있다.
또한, 카메라 모듈의 크기가 소형화 됨에 따라서, 여러 가지 렌즈를 구비한 복수의 카메라들을 구비한 전자 장치들이 보급되고 있다. 전자 장치가 복수의 카메라들을 이용하여 영상을 촬영할 때, 하나의 카메라를 이용하여 영상을 촬영하다 다른 카메라로 전환하여 영상을 촬영할 경우, 전환된 카메라의 초점을 다시 맞추어야 할 경우가 있다.
본 문서에서는 정확하고 빠르게 자동 초점 기능을 수행할 수 있는 전자 장치 및 그 전자 장치의 자동 초점 제어 방법을 제공할 수 있다.
본 문서에 개시되는 일 실시 예에 따른 전자 장치는, 카메라; 거리 값을 검출하는 거리 센서; 상기 거리 센서에 의해 검출된 거리 값에 따라 상기 카메라에 대한 렌즈 위치를 보정하기 위한 캘리브레이션 데이터를 저장하는 메모리; 및 프로세서를 포함하고, 상기 메모리는 실행 시에 상기 프로세서가, 상기 카메라의 동작 시에 상기 거리 값에 따른 상기 카메라에 대한 렌즈 위치를 결정하고, 상기 거리 값과 상기 결정된 렌즈 위치에 대한 렌즈 위치 데이터를 획득하며, 상기 렌즈 위치 데이터에 기초하여 상기 캘리브레이션 데이터를 업데이트하며, 상기 업데이트된 캘리브레이션 데이터에 기초하여 상기 카메라에 대한 렌즈 위치를 결정하도록 하는 인스트럭션들을 저장할 수 있다.
또한 본 문서에 개시되는 일 실시 예에 따른 전자 장치는, 제1 카메라; 제2 카메라; 상기 제1 카메라에 대한 제1 렌즈 위치 데이터와 상기 제2 카메라에 대한 제2 렌즈 위치 데이터를 맵핑하는 렌즈 위치 전환 데이터를 저장하는 메모리; 및 프로세서를 포함하고, 상기 메모리는 실행 시에 상기 프로세서가, 상기 제1 카메라의 동작 시에 상기 제1 카메라에 대한 제1 렌즈 위치 데이터를 획득하고, 상기 제1 카메라로부터 상기 제2 카메라로 선택된 카메라를 전환하도록 하는 제1 카메라 전환 커맨드에 대한 응답으로, 상기 제2 카메라에 대한 제2 렌즈 위치 데이터를 획득하며, 상기 제1 렌즈 위치 데이터 및 상기 제2 렌즈 위치 데이터에 기초하여 상기 렌즈 위치 전환 데이터를 업데이트하며, 상기 제1 카메라로부터 상기 제2 카메라로 선택된 카메라를 전환하도록 하는 제2 카메라 전환 커맨드에 대한 응답으로, 상기 업데이트된 렌즈 위치 전환 데이터에 기초하여 상기 제2 카메라의 렌즈 위치를 결정하는 인스트럭션들을 저장할 수 있다.
또한, 본 문서에 개시되는 일 실시 예에 따른 카메라를 구비한 전자 장치가 렌즈 위치를 결정하는 방법은, 거리 센서를 이용하여 거리 값을 획득하는 동작; 상기 카메라의 동작 시에 상기 거리 값에 따른 렌즈 위치를 결정하는 동작; 상기 거리 값과 상기 결정된 렌즈 위치에 대한 정보를 포함하는 렌즈 위치 데이터에 기초하여 상기 캘리브레이션 데이터를 업데이트하는 동작; 및 상기 업데이트된 캘리브레이션 데이터에 기초하여 상기 카메라에 대한 렌즈 위치를 결정하는 동작을 포함할 수 있다.
또한, 본 문서에 개시되는 일 실시 예에 따른 제1 카메라 및 제2 카메라를 구비하는 전자 장치가 렌즈 위치를 결정하는 방법은, 상기 제1 카메라의 동작 시에 상기 제1 카메라에 대한 제1 렌즈 위치 데이터를 획득하는 동작; 상기 제1 카메라로부터 상기 제2 카메라로 선택된 카메라를 전환하도록 하는 제1 카메라 전환 커맨드에 대한 응답으로, 상기 제2 카메라에 대한 제2 렌즈 위치 데이터를 획득하는 동작; 상기 제1 렌즈 위치 데이터 및 상기 제2 렌즈 위치 데이터에 기초하여 상기 제1 카메라에 대한 제1 렌즈 위치와 상기 제2 카메라에 대한 제2 렌즈 위치를 맵핑하는 렌즈 위치 전환 데이터를 업데이트하는 동작; 및 상기 제1 카메라로부터 상기 제2 카메라로 선택된 카메라를 전환하도록 하는 제2 카메라 전환 커맨드에 대한 응답으로, 상기 업데이트된 렌즈 위치 전환 데이터에 기초하여 상기 제2 카메라의 렌즈 위치를 결정하는 동작;을 포함할 수 있다.
본 문서에 개시되는 실시 예들에 따르면, 전자 장치의 사용 환경에 따라 거리 정보에 매칭되는 렌즈 위치의 정확도를 높일 수 있다.
또한, 본 문서에 개시되는 실시 예들에 따르면, 복수의 카메라를 구비한 전자 장치가 카메라를 전환할 때, 초점을 찾기 위한 렌즈의 위치를 보다 빠르게 결정할 수 있다.
이 외에, 본 문서를 통해 직접적 또는 간접적으로 파악되는 다양한 효과들이 제공될 수 있다.
도 1은, 다양한 실시 예들에 따른, 네트워크 환경 내의 전자 장치의 블럭도이다.
도 2는 일 실시 예에 따른, 전자 장치의 구조를 도시한 블럭도이다.
도 3은 일 실시 예에 따라 전자 장치가 피사체에 초점을 맞추는 프로세스를 도시한 흐름도다.
도 4는 일 실시 예에 따른 캘리브레이션 데이터의 개념을 도시한 도면이다.
도 5는 일 실시 예에 따라 전자 장치가 캘리브레이션 데이터에 기초하여 렌즈 위치를 결정하는 프로세스를 도시한 도면이다.
도 6은 수집된 렌즈 위치 데이터의 예시를 설명하기 위한 그래프를 나타낸다.
도 7은 일 실시 예에 따라 렌즈 위치 데이터를 검증하는 프로세스를 도시한 도면이다.
도 8은 일 실시 예에 따라 전자 장치가 수집된 렌즈 위치 데이터의 분포도에 기초하여 새로운 렌즈 위치 데이터를 획득하는 방법을 설명하기 위한 그래프를 나타낸다.
도 9는 일 실시 예에 따른 업데이트의 실행 여부를 확인하기 위한 사용자 인터페이스의 예시를 나타낸다.
도 10은 일 실시 예에 따라 전자 장치가 학습 데이터를 이용하여 캘리브레이션 데이터를 업데이트하는 방법을 설명하기 위한 도면이다.
도 11은 다른 실시 예에 따른 전자 장치의 구조를 도시한 블럭도이다.
도 12는 카메라 전환 커맨드의 예시를 설명하기 위한 도면이다.
도 13a는 일 실시 예에 따라 전자 장치가 렌즈 위치 전환 데이터를 업데이트하는 프로세스를 도시한 흐름도이다.
도 13b는 일 실시 예에 따라 전자 장치가 업데이트된 렌즈 위치 전환 데이터에 기초하여 렌즈 위치를 결정하는 프로세스를 도시한 흐름도다.
도 14는 일 실시 예에 따른 렌즈 위치 전환 데이터의 예시를 개념적으로 도시한 도면이다.
도 15는 일 실시 예에 따라 수집된 렌즈 위치 데이터와 렌즈 위치 전환 함수의 예시를 설명하기 위한 그래프를 나타낸다.
도 16은 일 실시 예에 따라 렌즈 위치 데이터를 검증하는 프로세스를 도시한 흐름도다.
도 17은 일 실시 예에 따라 전자 장치가 학습 데이터를 이용하여 렌즈 위치 전환 데이터를 결정하는 방법을 설명하기 위한 도면이다.
도면의 설명과 관련하여, 동일 또는 유사한 구성요소에 대해서는 동일 또는 유사한 참조 부호가 사용될 수 있다.
이하, 본 발명의 다양한 실시 예가 첨부된 도면을 참조하여 기재된다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 실시 예의 다양한 변경(modification), 균등물(equivalent), 및/또는 대체물(alternative)을 포함하는 것으로 이해되어야 한다.
도 1은, 다양한 실시 예들에 따른, 네트워크 환경(100) 내의 전자 장치(101)의 블럭도이다. 도 1을 참조하면, 네트워크 환경(100)에서 전자 장치(101)는 제 1 네트워크(198)(예: 근거리 무선 통신 네트워크)를 통하여 전자 장치(102)와 통신하거나, 또는 제 2 네트워크(199)(예: 원거리 무선 통신 네트워크)를 통하여 전자 장치(104) 또는 서버(108)와 통신할 수 있다. 일 실시 예에 따르면, 전자 장치(101)는 서버(108)를 통하여 전자 장치(104)와 통신할 수 있다. 일 실시 예에 따르면, 전자 장치(101)는 프로세서(120), 메모리(130), 입력 장치(150), 음향 출력 장치(155), 표시 장치(160), 오디오 모듈(170), 센서 모듈(176), 인터페이스(177), 햅틱 모듈(179), 카메라 모듈(180), 전력 관리 모듈(188), 배터리(189), 통신 모듈(190), 가입자 식별 모듈(196), 또는 안테나 모듈(197)을 포함할 수 있다. 어떤 실시 예에서는, 전자 장치(101)에는, 이 구성요소들 중 적어도 하나(예: 표시 장치(160) 또는 카메라 모듈(180))가 생략되거나, 하나 이상의 다른 구성요소가 추가될 수 있다. 어떤 실시 예에서는, 이 구성요소들 중 일부들은 하나의 통합된 회로로 구현될 수 있다. 예를 들면, 센서 모듈(176)(예: 지문 센서, 홍채 센서, 또는 조도 센서)은 표시 장치(160)(예: 디스플레이)에 임베디드된 채 구현될 수 있다
프로세서(120)는, 예를 들면, 소프트웨어(예: 프로그램(140))를 실행하여 프로세서(120)에 연결된 전자 장치(101)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)를 제어할 수 있고, 다양한 데이터 처리 또는 연산을 수행할 수 있다. 일 실시 예에 따르면, 데이터 처리 또는 연산의 적어도 일부로서, 프로세서(120)는 다른 구성요소(예: 센서 모듈(176) 또는 통신 모듈(190))로부터 수신된 명령 또는 데이터를 휘발성 메모리(132)에 로드하고, 휘발성 메모리(132)에 저장된 명령 또는 데이터를 처리하고, 결과 데이터를 비휘발성 메모리(134)에 저장할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 메인 프로세서(121)(예: 중앙 처리 장치 또는 어플리케이션 프로세서), 및 이와는 독립적으로 또는 함께 운영 가능한 보조 프로세서(123)(예: 그래픽 처리 장치, 이미지 시그널 프로세서, 센서 허브 프로세서, 또는 커뮤니케이션 프로세서)를 포함할 수 있다. 추가적으로 또는 대체적으로, 보조 프로세서(123)는 메인 프로세서(121)보다 저전력을 사용하거나, 또는 지정된 기능에 특화되도록 설정될 수 있다. 보조 프로세서(123)는 메인 프로세서(121)와 별개로, 또는 그 일부로서 구현될 수 있다.
보조 프로세서(123)는, 예를 들면, 메인 프로세서(121)가 인액티브(예: 슬립) 상태에 있는 동안 메인 프로세서(121)를 대신하여, 또는 메인 프로세서(121)가 액티브(예: 어플리케이션 실행) 상태에 있는 동안 메인 프로세서(121)와 함께, 전자 장치(101)의 구성요소들 중 적어도 하나의 구성요소(예: 표시 장치(160), 센서 모듈(176), 또는 통신 모듈(190))와 관련된 기능 또는 상태들의 적어도 일부를 제어할 수 있다. 일 실시 예에 따르면, 보조 프로세서(123)(예: 이미지 시그널 프로세서 또는 커뮤니케이션 프로세서)는 기능적으로 관련 있는 다른 구성 요소(예: 카메라 모듈(180) 또는 통신 모듈(190))의 일부로서 구현될 수 있다.
메모리(130)는, 전자 장치(101)의 적어도 하나의 구성요소(예: 프로세서(120) 또는 센서모듈(176))에 의해 사용되는 다양한 데이터를 저장할 수 있다. 데이터는, 예를 들어, 소프트웨어(예: 프로그램(140)) 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 포함할 수 있다. 메모리(130)는, 휘발성 메모리(132) 또는 비휘발성 메모리(134)를 포함할 수 있다.
프로그램(140)은 메모리(130)에 소프트웨어로서 저장될 수 있으며, 예를 들면, 운영 체제(142), 미들 웨어(144) 또는 어플리케이션(146)을 포함할 수 있다.
입력 장치(150)는, 전자 장치(101)의 구성요소(예: 프로세서(120))에 사용될 명령 또는 데이터를 전자 장치(101)의 외부(예: 사용자)로부터 수신할 수 있다. 입력 장치(150)은, 예를 들면, 마이크, 마우스, 키보드, 또는 디지털 펜(예: 스타일러스 펜)을 포함할 수 있다.
음향 출력 장치(155)는 음향 신호를 전자 장치(101)의 외부로 출력할 수 있다. 음향 출력 장치(155)는, 예를 들면, 스피커 또는 리시버를 포함할 수 있다. 스피커는 멀티미디어 재생 또는 녹음 재생과 같이 일반적인 용도로 사용될 수 있고, 리시버는 착신 전화를 수신하기 위해 사용될 수 있다. 일 실시 예에 따르면, 리시버는 스피커와 별개로, 또는 그 일부로서 구현될 수 있다.
표시 장치(160)는 전자 장치(101)의 외부(예: 사용자)로 정보를 시각적으로 제공할 수 있다. 표시 장치(160)는, 예를 들면, 디스플레이, 홀로그램 장치, 또는 프로젝터 및 해당 장치를 제어하기 위한 제어 회로를 포함할 수 있다. 일 실시 예에 따르면, 표시 장치(160)는 터치를 감지하도록 설정된 터치 회로(touch circuitry), 또는 상기 터치에 의해 발생되는 힘의 세기를 측정하도록 설정된 센서 회로(예: 압력 센서)를 포함할 수 있다.
오디오 모듈(170)은 소리를 전기 신호로 변환시키거나, 반대로 전기 신호를 소리로 변환시킬 수 있다. 일 실시 예에 따르면, 오디오 모듈(170)은, 입력 장치(150)를 통해 소리를 획득하거나, 음향 출력 장치(155), 또는 전자 장치(101)와 직접 또는 무선으로 연결된 외부 전자 장치(예: 전자 장치(102))(예: 스피커 또는 헤드폰)를 통해 소리를 출력할 수 있다.
센서 모듈(176)은 전자 장치(101)의 작동 상태(예: 전력 또는 온도), 또는 외부의 환경 상태(예: 사용자 상태)를 감지하고, 감지된 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 일 실시 예에 따르면, 센서 모듈(176)은, 예를 들면, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 컬러 센서, IR(infrared) 센서, 생체 센서, 온도 센서, 습도 센서, 또는 조도 센서를 포함할 수 있다.
인터페이스(177)는 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 직접 또는 무선으로 연결되기 위해 사용될 수 있는 하나 이상의 지정된 프로토콜들을 지원할 수 있다. 일 실시 예에 따르면, 인터페이스(177)는, 예를 들면, HDMI(high definition multimedia interface), USB(universal serial bus) 인터페이스, SD카드 인터페이스, 또는 오디오 인터페이스를 포함할 수 있다.
연결 단자(178)는, 그를 통해서 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 물리적으로 연결될 수 있는 커넥터를 포함할 수 있다. 일 실시 예에 따르면, 연결 단자(178)는, 예를 들면, HDMI 커넥터, USB 커넥터, SD 카드 커넥터, 또는 오디오 커넥터(예: 헤드폰 커넥터)를 포함할 수 있다.
햅틱 모듈(179)은 전기적 신호를 사용자가 촉각 또는 운동 감각을 통해서 인지할 수 있는 기계적인 자극(예: 진동 또는 움직임) 또는 전기적인 자극으로 변환할 수 있다. 일 실시 예에 따르면, 햅틱 모듈(179)은, 예를 들면, 모터, 압전 소자, 또는 전기 자극 장치를 포함할 수 있다.
카메라 모듈(180)은 정지 영상 및 동영상을 촬영할 수 있다. 일 실시 예에 따르면, 카메라 모듈(180)은 하나 이상의 렌즈들, 이미지 센서들, 이미지 시그널 프로세서들, 또는 플래시들을 포함할 수 있다.
전력 관리 모듈(188)은 전자 장치(101)에 공급되는 전력을 관리할 수 있다. 일 실시 예에 따르면, 전력 관리 모듈(188)은, 예를 들면, PMIC(power management integrated circuit)의 적어도 일부로서 구현될 수 있다.
배터리(189)는 전자 장치(101)의 적어도 하나의 구성요소에 전력을 공급할 수 있다. 일 실시 예에 따르면, 배터리(189)는, 예를 들면, 재충전 불가능한 1차 전지, 재충전 가능한 2차 전지 또는 연료 전지를 포함할 수 있다.
통신 모듈(190)은 전자 장치(101)와 외부 전자 장치(예: 전자 장치(102), 전자 장치(104), 또는 서버(108))간의 직접(예: 유선) 통신 채널 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 모듈(190)은 프로세서(120)(예: 어플리케이션 프로세서)와 독립적으로 운영되고, 직접(예: 유선) 통신 또는 무선 통신을 지원하는 하나 이상의 커뮤니케이션 프로세서를 포함할 수 있다. 일 실시 예에 따르면, 통신 모듈(190)은 무선 통신 모듈(192)(예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 또는 유선 통신 모듈(194)(예: LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈)을 포함할 수 있다. 이들 통신 모듈 중 해당하는 통신 모듈은 제 1 네트워크(198)(예: 블루투스, WiFi direct 또는 IrDA(infrared data association) 같은 근거리 통신 네트워크) 또는 제 2 네트워크(199)(예: 셀룰러 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN)와 같은 원거리 통신 네트워크)를 통하여 외부 전자 장치(104)와 통신할 수 있다. 이런 여러 종류의 통신 모듈들은 하나의 구성요소(예: 단일 칩)로 통합되거나, 또는 서로 별도의 복수의 구성요소들(예: 복수 칩들)로 구현될 수 있다. 무선 통신 모듈(192)은 가입자 식별 모듈(196)에 저장된 가입자 정보(예: 국제 모바일 가입자 식별자(IMSI))를 이용하여 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크 내에서 전자 장치(101)를 확인 및 인증할 수 있다.
안테나 모듈(197)은 신호 또는 전력을 외부(예: 외부 전자 장치)로 송신하거나 외부로부터 수신할 수 있다. 일 실시 예에 따르면, 안테나 모듈(197)은 서브스트레이트(예: PCB) 위에 형성된 도전체 또는 도전성 패턴으로 이루어진 방사체를 포함하는 하나의 안테나를 포함할 수 있다. 일 실시 예에 따르면, 안테나 모듈(197)은 복수의 안테나들을 포함할 수 있다. 이런 경우, 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크에서 사용되는 통신 방식에 적합한 적어도 하나의 안테나가, 예를 들면, 통신 모듈(190)에 의하여 상기 복수의 안테나들로부터 선택될 수 있다. 신호 또는 전력은 상기 선택된 적어도 하나의 안테나를 통하여 통신 모듈(190)과 외부 전자 장치 간에 송신되거나 수신될 수 있다. 어떤 실시 예에 따르면, 방사체 이외에 다른 부품(예: RFIC)이 추가로 안테나 모듈(197)의 일부로 형성될 수 있다.
상기 구성요소들 중 적어도 일부는 주변 기기들간 통신 방식(예: 버스, GPIO(general purpose input and output), SPI(serial peripheral interface), 또는 MIPI(mobile industry processor interface))을 통해 서로 연결되고 신호(예: 명령 또는 데이터)를 상호간에 교환할 수 있다.
일 실시 예에 따르면, 명령 또는 데이터는 제 2 네트워크(199)에 연결된 서버(108)를 통해서 전자 장치(101)와 외부의 전자 장치(104)간에 송신 또는 수신될 수 있다. 외부 전자 장치(102, 104) 각각은 전자 장치(101)와 동일한 또는 다른 종류의 장치일 수 있다. 일 실시 예에 따르면, 전자 장치(101)에서 실행되는 동작들의 전부 또는 일부는 외부 전자 장치들(102, 104, 또는 108) 중 하나 이상의 외부 전자 장치들에서 실행될 수 있다. 예를 들면, 전자 장치(101)가 어떤 기능이나 서비스를 자동으로, 또는 사용자 또는 다른 장치로부터의 요청에 반응하여 수행해야 할 경우에, 전자 장치(101)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 하나 이상의 외부 전자 장치들에게 그 기능 또는 그 서비스의 적어도 일부를 수행하라고 요청할 수 있다. 상기 요청을 수신한 하나 이상의 외부 전자 장치들은 요청된 기능 또는 서비스의 적어도 일부, 또는 상기 요청과 관련된 추가 기능 또는 서비스를 실행하고, 그 실행의 결과를 전자 장치(101)로 전달할 수 있다. 전자 장치(101)는 상기 결과를, 그대로 또는 추가적으로 처리하여, 상기 요청에 대한 응답의 적어도 일부로서 제공할 수 있다. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다.
도 2는 일 실시 예에 따른, 전자 장치(200)의 구조를 도시한 블럭도이다.
일 실시 예에 따르면, 전자 장치(200)는 카메라(210), 프로세서(220), 메모리(230) 및 거리 센서(240) 중 적어도 하나를 포함할 수 있다. 일 실시 예에 따른 메모리(230)는 전자 장지(200)가 동작하도록 하기 위한 인스트럭션들을 포함하는 프로그램을 저장할 수 있다. 프로세서(220)는 메모리(230)에 저장된 인스트럭션들을 실행하여 전자 장치(200)의 구성요소를 제어하거나 데이터를 처리할 수 있다. 이하에서 설명되는 실시 예에서 프로세서(220) 또는 전자 장치(200)가 수행하는 동작은 프로세서(220)가 메모리(230)에 저장된 인스트럭션들을 실행 시에 수행될 수 있다.
일 실시 예에 따르면, 거리 센서(240)는 프로세서(220)의 제어에 따라 피사체(1)에 대한 거리 값에 대한 정보를 프로세서(220)에 제공할 수 있다. 거리 센서(240)는 피사체(1)에 대한 거리를 검출할 수 있는 센서를 포함할 수 있다. 예를 들어, 거리 센서(240)는 비행 시간(time-of-flight; TOF) 모듈을 포함할 수 있다. TOF 모듈은 복사의 파장 또는 파장들의 범위를 방출하는 조명 소스와 그 파장 또는 파장들의 범위를 검출하도록 동작할 수 있는 광학 수신기를 포함할 수 있다. 비행 시간은 광 펄스(light pulse)의 방출과 피사체(1)에 의한 반사 후 광학 수신기에 도착할 때까지의 시간을 측정하여 결정될 수 있다. 다만, 이에 한정되지 아니하며, 거리 센서(240)는 다른 구현 예에 따라 형성될 수도 있다.
프로세서(220)는 피사체(1)에 대한 거리 값에 기초하여 카메라(210)의 렌즈 위치를 결정할 수 있다. 프로세서(220)는 카메라(210)의 렌즈 위치를 결정하기 위해, 거리 값 및/또는 메모리(230)에 저장된 캘리브레이션(calibration) 데이터를 이용할 수 있다. 일 실시 예에 따르면, 프로세서(220)는 룩-업(look-up) 테이블로 형성된 캘리브레이션 데이터로부터 거리 값에 매치되는 렌즈 위치를 검색할 수 있다. 다른 실시 예에 따르면, 프로세서(220)는 캘리브레이션 데이터로부터 거리 값과 렌즈 위치 사이의 관계를 정의하는 함수를 결정하고, 결정된 함수에 거리 값을 입력하여 렌즈 위치를 반환 받을 수 있다. 또 다른 실시 예에 따르면, 캘리브레이션 데이터가 거리 값과 렌즈 위치 사이의 관계를 정의하는 함수일 수도 있다. 일 실시 예에 따르면, 렌즈 위치는 렌즈를 이동시키는 구동 소자를 제어하기 위한 코드 값의 형태로 형성될 수 있다.
일 실시 예에 따르면, 프로세서(220)는 초점 검출을 수행한 결과에 기초하여 캘리브레이션 데이터를 업데이트할 수 있다. 다만, 저조도 환경이나 Camera 센서의 특성이 좋지 않는 상황에서는 이미지 프로세서의 성능 만으로 정확한 초점을 결정하기 어려우므로, 카메라의 동작 시에 획득된 조도 값이 지정된 값보다 낮은 저조도 환경이나 Camera 센서의 특성이 좋지 않는 상황에서는 프로세서(220)가 캘리브레이션 데이터의 업데이트를 수행하지 않을 수 있다. 이미지 프로세가 초점을 맞추기 어려운 환경에서는 거리측정정보(예: TOF 모듈을 이용하여 측정된 값)를 이용하여 효과적이고, 정확하게 초점을 맞출 수 있다.
프로세서(220)는 결정된 렌즈 위치에 따라서 카메라(210)를 제어할 수 있다. 일 실시 예에 따르면, 프로세서(220)는 결정된 렌즈 코드에 상응하는 제어 신호를 카메라(210)의 구동 소자로 전송할 수 있다. 예를 들어, 프로세서(220)는 결정된 렌즈 위치를 카메라(210)가 자동으로 초점을 맞추기 위한 렌즈의 초기 위치로 설정할 수 있다. 카메라(210)는 피사체(1)를 촬영한 영상 데이터를 생성할 수 있다.
일 실시 예에 따르면, 전자 장치(200)는 표시 장치(250)를 더 포함할 수 있다. 표시 장치(250)는, 예를 들어, 액정 디스플레이(liquid crystal display; LCD)이나 유기 발광 다이오드(organic light emitting diode) 패널 등과 같이 화면을 출력할 수 있는 디스플레이를 포함할 수 있다. 표시 장치(250)는 프로세서(220)의 제어에 따라서 카메라(210)로 촬영된 영상을 라이브 뷰(live view)로 출력하거나, 사용자와 인터랙션하기 위한 사용자 인터페이스를 출력할 수 있다.
도 3은 일 실시 예에 따라 전자 장치가 피사체에 초점을 맞추는 프로세스를 도시한 흐름도(300)이다. 도 3과 관련하여, 도 2에 도시된 도면 부호를 참조하여 설명한다.
동작 310에서, 프로세서(220)는 거리 센서 (240)를 이용하여 거리 값을 획득할 수 있다. 예를 들어, 프로세서(220)는 500 mm 또는 300 mm와 같은 거리에 상응하는 값을 획득할 수 있다.
동작 320에서, 프로세서(220)는 획득한 거리 값에 매치되는 렌즈 위치를 결정할 수 있다. 일 실시 예에 따르면, 프로세서(220)는 메모리(230)에 저장된 캘리브레이션 데이터를 이용하여 거리 값에 매치되는 렌즈 위치를 결정할 수 있다.
동작 330에서, 프로세서(220)는 결정된 렌즈 위치에 따라서 카메라(210)의 렌즈가 결정된 렌즈 위치에 상응하는 위치로 이동하도록 카메라(210)를 제어할 수 있다.
도 4는 일 실시 예에 따른 캘리브레이션 데이터(400)의 개념을 도시한 도면이다.
일 실시 예에 따른 캘리브레이션 데이터(400)는 거리에 대한 정보(410)(예를 들어, 거리 값)와 렌즈 위치에 대한 정보(420)(예를 들어, AF 코드)를 포함할 수 있다.
도 4를 참조하면, 캘리브레이션 데이터(400)에 포함된 거리 값(410)과 AF 코드(420)는 서로 맵핑되어 서로 링크된 상태로 메모리(230)에 저장될 수 있다.
도 5는 일 실시 예에 따라 전자 장치가 캘리브레이션 데이터에 기초하여 렌즈 위치를 결정하는 프로세스를 도시한 흐름도(500)이다.
동작 510에서, 전자 장치(200)의 프로세서(220)는 카메라(210)의 동작 시에 자동 초점 기능을 실행할 수 있다. 예를 들어, 전자 장치(200)에 설치된 카메라 어플리케이션이 실행되면, 프로세서(220)는 카메라(210)를 통해서 획득된 영상을 표시 장치(250)를 통해서 라이브-뷰(live-view)로 출력하면서, 영상의 초점이 피사체(1)에 맺히도록 카메라(210)를 제어할 수 있다.
자동 초점 기능이 실행되면, 동작 520에서, 프로세서(220)는 거리 센서(240)를 통해서 피사체(10)에 대한 거리 값을 획득할 수 있다. 예를 들어, 거리 센서(240)가 TOF 모듈을 포함하는 경우, 복사의 파장을 방출한 후, 피사체(1)에 반사된 복사의 파장을 검출하여 그 복사의 파장의 비행 시간에 상응하는 거리 값이 획득될 수 있다.
동작 530에서, 프로세서(220)는 거리 값에 따라 렌즈 위치를 결정할 수 있다. 일 실시 예에 따르면, 프로세서(220)는 렌즈 위치를 결정하기 위해 메모리(230)에 저장된 캘리브레이션 데이터(예: 도 4의 캘리브레이션 데이터(400))를 이용할 수 있다. 예를 들어, 프로세서(220)는 캘리브레이션 데이터로부터 거리 값(예: 도 4의 거리 값(410))에 상응하는 카메라(210)의 렌즈 위치를 나타내는 AF 코드(예: 도 4의 AF 코드(420))를 획득할 수 있다. 프로세서(220)는 획득된 AF 코드에 상응하는 제어 신호를 카메라(210)로 전송하여, 카메라(210)의 렌즈가 초점을 찾기 위한 위치에 위치되도록 할 수 있다. 프로세서(220)는 카메라(210)에 의해 촬영된 영상을 분석하여, 카메라(210)의 렌즈의 위치를 이동시키면서 피사체에 초점이 위치하도록 하는 렌즈의 위치를 결정할 수 있다.
일 실시 예에 따르면, 캘리브레이션 데이터는 전자 장치(200)의 제조 시에 전자 장치(200)의 특성에 따라 전자 장치(200)에 설정될 수 있다. 그러나, 전자 장치(200)에 충격이 가해지거나, 온도와 같은 환경이 제조 시와 차이가 나는 경우 최초로 설정된 캘리브레이션 데이터는 정확도가 떨어질 수 있다. 따라서, 최초 제조 시와 달라진 환경에서도 정확한 렌즈의 위치를 찾을 수 있도록 하는 캘리브레이션 데이터가 필요할 수 있다.
프로세서(220)는 자동 초점 기능을 실행한 결과로서 피사체에 대한 거리 값과 피사체에 초점이 맞추어진 렌즈 위치에 대한 정보를 포함하는 렌즈 위치 데이터를 획득할 수 있다. 프로세서(220)는 자동 초점 기능의 실행 결과로 획득되는 렌즈 위치 데이터를 수집할 수 있다. 동작 540에서, 프로세서(220)는 렌즈 위치 데이터에 기초하여 메모리(230)에 저장된 캘리브레이션 데이터를 업데이트할 수 있다. 일 실시 예에 따르면, 캘리브레이션 데이터를 업데이트한다는 것은 캘리브레이션 데이터를 수집된 렌즈 위치 데이터와 병합(merge)하는 것을 의미할 수 있다. 일 실시 예에 따르면, 거리 별로 보정된 데이터를 이용하여 카메라(210)를 피팅(fitting)하는 방식과 수집된 데이터를 이용하여 카메라(210)를 피팅하는 방식을 혼합하여 이용할 수 있다.
동작 550에서, 프로세서(220)는 카메라(210)를 동작하여 자동 초점 기능을 실행할 경우 업데이트된 캘리브레이션 데이터에 기초하여 렌즈 위치를 결정할 수 있다.
도 6은 수집된 렌즈 위치 데이터의 예시를 설명하기 위한 그래프(600)를 나타낸다.
일 실시 예에 따른 전자 장치(200)는 자동 초점 기능을 실행하면서, 같이 렌즈의 위치와 거리 값의 쌍으로 이루어진 렌즈 위치 데이터(610)를 수집할 수 있다. 일 실시 예에 따르면, 전자 장치(200)는 수집된 렌즈 위치 데이터(610)에 기초하여 렌즈의 위치와 피사체에 대한 거리 간의 관계(620)를 나타내는 함수를 정의할 수 있다. 예를 들어, 전자 장치(200)는 렌즈 위치 데이터(610)에 기초하여 정의된 함수를 이용하여 검출된 거리 값에 대한 렌즈의 위치를 결정할 수 있다. 예컨대, 전자 장치(200)는 수집된 렌즈 위치 데이터(610)로 거리 값에 대한 렌즈의 위치를 결정할 수도 있다. 예를 들어, 수집된 렌즈 위치 데이터들에 기초하여 y=2300.7x+171.16와 같은 형태로 함수가 정의된 경우, 검출된 거리가 150cm인 피사체에 초점을 맞추기 위해 전자 장치(200)는 186.498 코드의 렌즈 위치를 획득할 수 있다. 상기 예시에서, 1차 다항식의 형태로 함수가 제시되었으나, 함수는 다른 형태로 정의될 수도 있다. 계산의 복잡도와 함수의 정확도를 함께 고려할 때, 함수가 3차 다항식의 형태로 정의될 수도 있다.
본 문서에서, 수집된 렌즈 위치 데이터에 기초하여 캘리브레이션 데이터를 업데이트하거나, 수집된 렌즈 위치 데이터에 기초하여 렌즈의 위치와 거리 값 사이의 관계를 결정하는 것을 렌즈 위치 데이터를 학습한다고 언급할 수 있다.
도 7은 일 실시 예에 따라 렌즈 위치 데이터를 검증하는 프로세스를 도시한 도면이다.
전자 장치(200)가 자동 초점 수행 결과를 학습할 때, 모든 자동 초점 기능을 수행한 결과가 초점이 피사체에 양호하게 맞추어진 것이 아닐 수 있다. 따라서, 양호하지 못한 자동 초점 수행 결과를 학습하여 자동 초점 수행 기능을 수행할 경우 정확도가 낮아질 수 있다. 따라서, 일 실시 예에 따르면, 전자 장치(200)가 획득된 렌즈 위치 데이터의 유효성을 검증하고, 검증 결과 렌즈 위치 데이터가 유효한 경우에 한해서 전자 장치(200)가 그 렌즈 위치 데이터를 학습하도록 할 수 있다.
일 실시 예에 따르면, 프로세서(220)는 도 5의 동작 530에서 렌즈 위치 데이터를 획득하고, 동작 610에서, 획득된 렌즈 위치 데이터와 연관된 촬영 환경 정보를 획득할 수 있다. 촬영 환경 정보는 자동 초점 기능을 이용하여 영상을 촬영할 때, 영상 촬영과 관련된 환경에 대한 정보를 의미할 수 있다. 예를 들어, 촬영 환경 정보는 전자 장치의 움직임에 대한 움직임 정보, 콘트라스트 필터 값과 같은 필터 값 정보, 밝기 값 정보, 신호 대 잡음 비 정보, 영상의 차이도, 또는 BV 값과 같은 정보를 포함할 수 있다.
일 실시 예에서, 동작 610에서, 프로세서(220)는 전자 장치(200)의 센서를 통해서 촬영 환경 정보를 획득할 수 있다. 예를 들어, 프로세서(220)는 자이로 센서, 가속도 센서 또는 중력 센서와 같이 움직임을 감지할 수 있는 센서를 통해서 검출된 값을 촬영 환경 정보로서 획득할 수 있다. 또 다른 예로, 프로세서(220)는 온도 센서를 이용하여 온도 값을 촬영 환경 정보로서 획득할 수도 있다.
일 실시 예에서, 동작 610에서 프로세서(220)는 카메라(210)를 통해서 획득된 영상으로부터 촬영 환경 정보를 획득할 수도 있다. 예를 들어, 프로세서(220)는 카메라(210)를 통해서 촬영된 영상으로부터 밝기 값, 신호 대 잡음 비 또는 영상의 차이도를 촬영 환경 정보로서 산출할 수 있다.
동작 620에서, 프로세서(220)는 획득된 촬영 환경 정보에 기초하여 렌즈 위치 데이터의 유효성을 검증할 수 있다. 일 실시 예에 따르면, 촬영 환경 정보가 지정된 환경 조건을 만족하는 경우, 프로세서(220)는 렌즈 위치 데이터가 유효한 것으로 판단할 수 있다. 촬영 환경 정보가 지정된 환경 조건을 만족하는 경우는, 예를 들어, 촬영 환경 정보에 포함된 값이 지정된 환경 조건에 포함된 범위 내에 포함되는 경우를 의미할 수 있다. 예컨대, 프로세서(220)는 촬영 환경 정보에 포함된 신호 대 잡음비가 1000 미만인 경우는 렌즈 위치 데이터가 유효하지 않은 것으로 판단할 수 있다.
동작 630에서, 렌즈 위치 데이터가 유효한 것으로 판단된 경우, 프로세서(220)는 렌즈 위치 데이터를 학습할 수 있다. 일 실시 예에 따르면, 렌즈 위치 데이터가 유효한 것으로 판단된 경우, 프로세서(220)는 도 5의 동작 540을 수행할 수 있다.
일 실시 예에 따르면, 전자 장치(200)는 자동 초점 기능을 수행한 결과에 기초하여 지정된 환경 조건을 갱신할 수도 있다. 예를 들어, 자동 초점 기능을 이용하여 피사체에 초점이 잘 맞추어진 영상이 획득된 경우, 전자 장치(200)는 영상이 획득된 시점과 연관된 촬영 환경 정보를 획득하고, 해당 촬영 환경 정보에서 획득된 렌즈 위치 데이터가 유효한 것으로 판단하도록 환경 조건을 갱신할 수 있다.
도 8은 일 실시 예에 따라 전자 장치가 수집된 렌즈 위치 데이터의 분포도에 기초하여 새로운 렌즈 위치 데이터를 획득하는 방법을 설명하기 위한 그래프(800)이다.
일 실시 예에 따르면, 전자 장치(200)는 렌즈 위치 데이터의 분포도에 기초하여 일부 거리 구간에 대해서만 데이터 양이 편중되지 않도록 할 수 있다. 예를 들어, 도 8의 그래프(800)와 같이 수집된 렌즈 위치 데이터가 존재할 경우, 전자 장치(200)는 학습에 사용될 렌즈 위치 데이터를 거리 구간 별로 고르게 분포되도록 선택할 수 있다.
또 다른 예로, 렌즈 위치 데이터의 밀도가 낮은 1/거리가 0.05부터 0.09 사이인 구간(810)에 포함되는 렌즈 위치 데이터가 더 많이 수집되도록 할 수도 있다. 예를 들면, 렌즈 위치 데이터가 획득되었을 경우, 프로세서(220)는 획득된 렌즈 위치 데이터에 상응하는 거리 값이 분포도 그래프(800)에서 데이터의 밀도가 지정된 값보다 낮은 영역(810)에 포함된 경우에 한해서 그 렌즈 위치 데이터를 학습에 사용할 수 있다. 또 다른 예를 들면, 프로세서(220)는 획득된 렌즈 위치 데이터에 상응하는 거리 값이 분포도 그래프(800)에서 데이터의 밀도가 지정된 값보다 낮은 영역(810)에 포함된 경우, 렌즈 위치 데이터의 유효성을 판단하기 위한 환경 조건을 완화시킬 수도 있다.
일 실시 예에 따르면, 전자 장치(200)는 렌즈 위치 데이터가 획득될 때마다 렌즈 위치 데이터를 학습하지 않고, 사용자의 학습 명령에 상응하는 사용자 입력이 수신된 경우에 한해서 렌즈 위치 데이터를 학습할 수도 있다. 획득된 렌즈 위치 데이터는 캘리브레이션 데이터와 별도로 메모리(230)에 누적하여 저장될 수 있다. 누적 저장된 렌즈 위치 데이터는 학습 데이터로 언급될 수 있다.
사용자의 학습 명령을 수신하는 방법은 다양한 실시 예에 의해 구현될 수 있다. 예를 들면, 전자 장치(200)는 카메라 설정과 관련된 메뉴 항목 중 렌즈 위치 데이터의 학습에 상응하는 항목이 선택된 경우 학습 데이터에 포함된 렌즈 위치 데이터를 학습할 수 있다. 다른 예를 들면, 전자 장치(200)는 자동 초점 기능을 수행한 이후 하나 이상의 자동 초점 기능의 수행 결과를 평가하여 점수화할 수 있다. 점수화된 평가 결과가 지정된 값 미만이거나 같은 경우, 전자 장치(200)는 도 9에 도시된 바와 같은 메시지(910)를 포함하는 사용자 인터페이스를 출력할 수 있다. 전자 장치(200)는 사용자 인터페이스에 포함된 버튼(920)이 선택되면 학습 데이터에 포함된 렌즈 위치 데이터를 학습할 수 있다. 또는, 점수화된 평가 결과가 지정된 값 미만이거나 같은 경우, 별도 입력 없이 렌즈 위치 데이터를 학습할 수도 있다.
도 10은 일 실시 예에 따라 전자 장치(200)가 학습 데이터(1000)를 이용하여 캘리브레이션 데이터(400)를 업데이트하는 방법을 설명하기 위한 도면이다.
일 실시 예에 따른 전자 장치(200)는 자동 초점 기능을 수행한 결과 렌즈 위치 데이터를 획득한 경우, 캘리브레이션 데이터(400)와는 별개의 학습 데이터(1000)로 렌즈 위치 데이터를 누적하여 저장할 수 있다.
이후, 사용자로부터 렌즈 위치 데이터에 대한 학습 명령을 입력 받거나 학습을 개시하기 위한 조건이 만족된 경우 전자 장치(200)는 캘리브레이션 데이터(400)와 학습 데이터(1000)를 병합하여 캘리브레이션 데이터(400)를 업데이트할 수 있다. 캘리브레이션 데이터(400)의 업데이트 이후, 전자 장치(200)는 메모리(230)에서 학습 데이터(1000)를 삭제할 수 있다.
도 11은 다른 실시 예에 따른 전자 장치(1100)의 구조를 도시한 블럭도이다.
일 실시 예에 따른 전자 장치(1100)는 제1 카메라(1111), 제2 카메라(1112), 프로세서(1120) 및 메모리(1130) 중 적어도 하나를 포함할 수 있다. 일 실시 예에 따른 메모리(1130)는 전자 장치(1100)가 동작하도록 하기 위한 인스트럭션들을 포함하는 프로그램을 저장할 수 있다. 프로세서(1120)는 메모리(1130)에 저장된 인스트럭션들을 실행하여 전자 장치(1100)의 구성요소를 제어하거나 데이터를 처리할 수 있다. 본 명세서에서 프로세서(1120) 또는 전자 장치(1100)가 수행하는 것으로 언급되는 동작은 프로세서(1120)가 메모리(1130)에 저장된 인스트럭션들을 실행 시에 수행되는 것으로 구현될 수 있다.
일 실시 예에 따르면, 전자 장치(1100)는 제1 카메라(1111) 또는 제2 카메라(1112) 중 적어도 하나를 이용하여 피사체(1)를 촬영할 수 있다. 피사체(1)에 제1 카메라(1111) 또는 제2 카메라(1112) 중 적어도 하나의 초점을 맞추기 위하여, 프로세서(1120)는 제1 카메라(1111) 또는 제2 카메라(1112) 중 적어도 하나를 제어할 수 있다. 예를 들어, 프로세서(1120)는 제1 카메라(1111) 또는 제2 카메라(1112) 중 적어도 하나로부터 피사체(1)까지의 거리를 감지하기 위해 거리 센서(도시되지 않음)를 이용하여 피사체(1)에 대한 거리 값에 대한 정보를 획득할 수 있다. 본 실시 예에 따른 거리 센서(도시되지 않음)의 경우에도 도 2의 거리 센서(240)와 같이 다양한 구현 예에 따라 형성될 수 있다.
일 실시 예에 따르면, 프로세서(1120)는 제1 카메라(1111) 또는 제2 카메라(1112) 중 적어도 하나를 이용하여 피사체(1)를 촬영하기 위한 카메라 어플리케이션을 실행할 수 있다. 일 실시 예에 따르면, 카메라 어플리케이션은 메모리(1130)에 저장된 것일 수 있다. 카메라 어플리케이션이 실행된 경우, 프로세서(1120)는 제1 카메라(1111) 또는 제2 카메라(1112) 중 어느 하나로부터 획득된 영상을 라이브-뷰로서 표시 장치(1150)를 통해서 출력할 수 있다.
일 실시 예에 따르면, 프로세서(1120)는 제1 카메라(1111) 또는 제2 카메라(1112) 중 어느 하나를 선택할 수 있다. 이하에서 제1 카메라(1111) 또는 제2 카메라(1112) 중 어느 하나가 선택된 것으로 기술할 경우, 그 반대의 경우도 가능한 것으로 해석될 수 있다. 제1 카메라(1111)로부터 획득된 영상을 라이브-뷰로서 표시 장치(1150)를 통해서 출력할 때, 프로세서(1120)는 피사체(1)에 대한 초점을 맞추기 위하여 영상을 획득하는 카메라를 제어할 수 있다. 또 다른 예로, 전자 장치(1100)가 표시 장치(1150)를 통해서 제1 카메라(1111)로부터 획득된 영상을 출력하고 있는 상태에서, 영상 촬영 커맨드를 입력 받으면 출력 중인 영상을 메모리(1130)에 파일로 저장할 수 있다. 영상 촬영 커맨드는 전자 장치(1100)에 구비된 입력 장치(예: 도 1의 입력 장치(150))를 통해서 입력 될 수 있다.
일 실시 예에 따르면, 프로세서(1120)는 제1 카메라(1111)부터 획득된 영상을 라이브-뷰로서 표시 장치(1150)를 통해서 출력하고 있는 상태에서, 전자 장치(1100)에 카메라 전환 커맨드가 입력될 수 있다. 프로세서(1120)는 카메라 전환 커맨드에 대한 응답으로, 제2 카메라(1112)로부터 획득된 영상을 제1 카메라(1111)로부터 획득된 영상을 대신하여 라이브-뷰로서 표시 장치(1150)를 통해 출력할 수 있다.
카메라 전환 커맨드는 전자 장치(1100)에 구비된 카메라들 중 영상 촬영을 위해 선택되는 카메라를 다른 카메라로 전환시키는 커맨드를 의미할 수 있다. 카메라 전환 커맨드는 실시 예에 따라서 다양하게 구현될 수 있다. 예를 들어, 도 12를 참조하면, 전자 장치(1100)는 1배율로 영상을 촬영하고 있는 상태에서, 광각(wide angle) 렌즈를 구비한 카메라를 이용하여 획득된 영상으로 라이브-뷰 영상(1210)을 출력할 수 있다. 여기서, 줌 인 커맨드가 입력되면, 전자 장치(1100)는 촬영되는 영상의 배율을 증가시킬 수 있다. 영상의 배율이 지정된 값 이상으로 증가하면, 전자 장치(1100)는 협각(telephoto) 렌즈를 구비한 카메라를 이용하여 획득된 영상으로 라이브-뷰 영상(1220)을 출력할 수 있다. 예를 들어, 영상의 배율을 지정된 값 이상으로 증가시키는 커맨드가 카메라 전환 커맨드일 수 있다. 또 다른 예로, 카메라 전환 커맨드는 다른 형태로 구현될 수도 있다. 예를 들어, 전자 장치(1100)는 표시 장치(1150)를 통해서 전자 장치(1100)에 구비된 카메라들(예: 도 11의 제1 카메라(1111) 및 제2 카메라(1112))의 목록을 표시 장치(1150)를 통해서 출력하고, 카메라들의 목록 중 어느 하나를 선택하는 입력을 수신할 수 있다. 예를 들어, 카메라들의 목록 중 어느 하나를 선택하는 입력이 카메라 전환 커맨드로 사용될 수 있다. 또 다른 예를 들면, 전자 장치(1100)의 입력 장치(예: 도 1의 입력 장치(150))를 통해서 "광각 카메라로 전환"이라는 구문을 포함하는 음성을 수신할 수 있다. 프로세서(1120)가 수신된 음성에 대한 음성 인식 기능을 통해서 인식된 결과가 카메라 전환 커맨드로 사용될 수 있다.
일 실시 예에 따르면, 제1 카메라(1111) 및 제2 카메라(1112)는 서로 화각 또는 초점 거리 중 적어도 하나가 다른 렌즈를 포함할 수 있다. 예를 들어, 제1 카메라(1111)는 광각 렌즈를 구비한 광각 카메라이고, 제2 카메라(1112)는 협각 렌즈를 구비한 협각 카메라일 수 있다. 또 다른 예로, 제1 카메라(1111)는 표준각 렌즈를 구비한 표준각 카메라이고, 제2 카메라(1112)는 협각 렌즈를 구비한 협각 카메라일 수 있다. 다른 예를 들면, 제1 카메라(1111)는 망원 렌즈를 구비한 망원 카메라이고, 제2 카메라(1112)는 광각 렌즈를 구비한 광각 카메라일 수 있다. 또 다른 예를 들면, 제1 카메라(1111)에 구비된 렌즈의 초점 거리는 제2 카메라(1112)에 구비된 초점 거리보다 길 수도 있다. 다만, 이에 한정되지 아니하며, 제1 카메라(1111)와 제2 카메라(1112)의 조합은 다양한 실시 예로 구성될 수 있다.
카메라 전환 커맨드에 대한 응답으로 영상 촬영을 위해 선택된 카메라를 제1 카메라(1111)로부터 제2 카메라(1112)로 전환할 경우, 전자 장치(1100)는 제2 카메라(1112)의 초점을 피사체(1)에 맞추기 위하여 자동 초점 기능을 다시 수행할 수 있다. 일 실시 예에서, 빠르고 정확하게 자동 초점 기능을 수행하기 위하여, 제1 카메라(1111)가 피사체(1)에 초점을 맞추기 위해 결정한 렌즈 위치에 대한 정보와 메모리(1130)에 저장된 렌즈 위치 전환 데이터를 이용할 수 있다. 예를 들어, 제1 렌즈 위치 데이터는 제1 카메라(1111)의 렌즈 위치에 대한 정보(예: 제1 카메라의 AF 코드)를 포함하는 데이터를 의미하고, 제2 렌즈 위치 데이터는 제2 카메라(1112)의 렌즈 위치에 대한 정보(예: 제2 카메라의 AF 코드)를 포함하는 데이터를 의미할 수 있다. 일 실시 예에 따르면, 렌즈 위치 전환 데이터는 제1 렌즈 위치 데이터와 제2 렌즈 위치 데이터를 맵핑한 데이터를 포함할 수 있다. 또 다른 실시 예에 따르면, 렌즈 위치 전환 데이터는 제1 렌즈 위치 데이터 및 제2 렌즈 위치 데이터 사이의 관계를 나타내는 전환 함수(또는, 수식)을 포함할 수도 있다. 일 실시 예에 따르면, 렌즈 위치 전환 데이터는 전자 장치(1100)의 제조 시에 메모리(1130)에 저장될 수 있다. 또 다른 실시 예에 따르면, 렌즈 위치 전환 데이터는 카메라 전환 커맨드에 따라 카메라를 전환하여 자동 초점 기능을 수행한 결과를 메모리(1130)에 저장하여 형성될 수도 있다.
일 실시 예에 따르면, 카메라 전환 커맨드에 대한 응답으로, 프로세서(1120)는 렌즈 위치 전환 데이터로부터 피사체(1)에 대해 초점을 맞추기 위해 제1 카메라(1111)에 설정된 제1 렌즈 위치 데이터에 맵핑된 제2 렌즈 위치 데이터를 획득할 수 있다. 프로세서(1120)는 제2 렌즈 위치 데이터를 제2 카메라(1112)가 자동 초점 기능을 수행하기 위한 제2 카메라(1112)의 렌즈의 위치로 이용할 수 있다.
사용자가 전자 장치(1100)를 사용하는 동작에서, 사용 환경이나 제1 카메라(1111) 또는 제2 카메라(1112) 중 적어도 하나의 동작 상태가 변화할 수 있다. 이 경우, 메모리(1130)에 저장된 렌즈 위치 전환 데이터의 제1 렌즈 위치 데이터와 제2 렌즈 위치 데이터의 맵핑 관계가 실제 제1 카메라(1111) 및 제2 카메라(1112)의 동작 상태와 차이가 발생할 수 있다. 일 실시 예에 따르면, 프로세서(1120)는 자동 초점 기능을 완료한 이후에 실제 동작 상태와 일치되는 데이터에 기초하여 렌즈 위치 전환 데이터를 갱신할 수 있다. 예를 들어, 제1 카메라(1111)를 통해 제1 렌즈 위치 데이터에 기초하여 피사체(1)에 제1 카메라(1111)의 초점이 맞추어진 상태에서 카메라 전환 커맨드에 따라 제2 카메라(1112)를 통해 제2 렌즈 위치 데이터에 기초하여 피사체(1)에 제2 카메라(1112)의 초점이 맞추어진 경우, 프로세서(1120)는 제1 렌즈 위치 데이터 및 제2 렌즈 위치 데이터에 기초하여 메모리(1130)에 저장된 렌즈 위치 전환 데이터를 업데이트할 수 있다. 제1 카메라(1111) 및 제2 카메라(1112)가 위상차 정보의 유무와 같이 센서특성의 차이가 클 경우, 위상차 정보가 있는 제1 카메라의 초점 정보를 이용하여 제 2 카메라의 초점을 맞출 때 효과적일 수 있다.
일 실시 예에 따르면, 자동 초점 기능을 수행한 이후에도 초점이 정확하게 맞추어지지 않은 렌즈 위치 데이터에 기초하여 렌즈 위치 전환 데이터를 업데이트할 경우 렌즈 위치 전환 데이터의 정확도가 오히려 낮아질 수 있다. 따라서, 프로세서(1120)는 제1 렌즈 위치 데이터 또는 제2 렌즈 위치 데이터 중 적어도 하나에 대한 유효성을 검증한 후, 유효성이 검증된 데이터에 기초하여 렌즈 위치 전환 데이터를 업데이트할 수 있다.
도 13a는 일 실시 예에 따라 전자 장치(1100)가 렌즈 위치 전환 데이터를 업데이트하는 프로세스를 도시한 흐름도(1300)이다.
일 실시 예에 따르면, 전자 장치(1100)는 제1 카메라(1111) 및 제2 카메라(1112)를 포함할 수 있다. 제1 카메라 및 제2 카메라의 초점 조절이 함께 필요한 경우, 전자 장치(1100)는 제1 카메라(1111) 및 제2 카메라(1112)에 대한 자동 초점 기능을 수행할 수 있다. 예를 들어, 카메라 어플리케이션의 줌 기능이 동작할 때, 광각(wide angle) 렌즈 카메라 및 협각(tele) 렌즈 카메라에 대해 자동 초점 기능이 수행될 수 있다. 또 다른 예로, 미리 보기 영상에 배경 흐림 효과를 적용하기 위한 라이브 보케(bokeh) 모드의 동작 시에도 복수의 렌즈에 대한 자동 초점 기능이 함께 수행될 수 있다.
동작 1301에서, 전자 장치(1100)의 프로세서(1120)는 제1 카메라(1111)의 동작을 활성화할 수 있다.
일 실시 예에 따르면, 동작 1310에서, 전자 장치(1100)의 프로세서(1120)는 자동 초점 기능을 수행한 결과 피사체에 제1 카메라의 초점이 맞추어진 제1 카메라의 렌즈 위치에 상응하는 제1 렌즈 위치 데이터를 획득할 수 있다.
일 실시 예에 따르면, 동작 1312에서, 전자 장치(1100)의 프로세서(1120)는 입력 장치(예: 도 1의 입력 장치(150))를 통해서 카메라 전환 커맨드를 수신할 수 있다. 예를 들어, 카메라 어플리케이션의 줌 기능이 동작할 때, 영상 촬영 배율이 지정된 범위를 벗어나는 경우, 프로세서(1120)는 줌 기능을 제어하는 커맨드를 카메라 전환 커맨드로 처리할 수 있다. 또 다른 예로, 미리 보기 영상에 배경 흐림 효과를 적용하기 위한 라이브 보케(bokeh) 모드의 동작 시에도 복수의 렌즈에 대한 자동 초점 기능이 함께 수행되므로, 프로세서(1120)는 라이브 보케 모드의 실행 커맨드를 카메라 전환 커맨드로서 수신할 수 있다. 카메라 전환 커맨드를 수신한 프로세서(1120)는 영상을 촬영하기 위해 선택된 카메라를 제1 카메라로부터 제2 카메라로 전환한 경우, 제2 카메라에 대한 자동 초점 기능을 수행할 수 있다. 동작 1315에서, 프로세서(1120)는 제2 카메라에 대한 자동 초점 기능을 수행한 결과로 결정된 제2 카메라에 대한 제2 렌즈 위치 데이터를 획득할 수 있다.
다른 실시 예에 따르면, 프로세서(1120)는 제1 렌즈 위치 데이터 또는 제2 렌즈 위치 데이터 중 적어도 하나에 대한 분포도를 산출하고, 제1 렌즈 위치 데이터 또는 제2 렌즈 위치 데이터 중 적어도 하나가 데이터의 밀도가 지정된 값보다 낮은 영역에 포함된 것인 경우에 한해서 동작 1310 및 동작 1315를 수행하거나, 또는 동작 1320을 수행할 수 있다.
동작 1320에서, 제1 렌즈 위치 데이터 및 제2 렌즈 위치 데이터에 기초하여 프로세서(1120)는 메모리(1130)에 저장된 렌즈 위치 전환 데이터를 업데이트할 수 있다. 일 실시 예에 따르면, 프로세서(1120)는 제1 렌즈 위치 데이터와 제2 렌즈 위치 데이터의 쌍을 다수 수집한 이후, 기존의 렌즈 위치 데이터를 수집된 데이터로 대체할 수 있다. 다른 실시 예에 따르면, 프로세서(1120)는 기존의 렌즈 위치 데이터와 수집된 데이터를 병합(merge)할 수도 있다.
일 실시 예에 따르면, 동작 1320에서, 프로세서(1120)는 제1 렌즈 위치 데이터 또는 제2 렌즈 위치 데이터 중 적어도 하나에 대한 유효성을 검증하고, 유효성이 검증된 데이터에 한해서 렌즈 위치 전환 데이터의 업데이트에 사용할 수 있다. 예를 들어, 도 16의 동작 1610, 1620, 1630과 같이, 프로세서(1120)는 촬영 환경 정보에 기초하여 제1 렌즈 위치 데이터 또는 제2 렌즈 위치 데이터 중 적어도 하나에 대한 유효성을 검증할 수 있다.
도 13b는 전자 장치의 프로세서가 업데이트된 렌즈 위치 전환 데이터에 기초하여 렌즈 위치를 결정하는 프로세스를 도시한 흐름도(1380)이다.
일 실시 예에 따르면, 동작 1322에서, 전자 장치(1100)의 프로세서(1120)는 동작 1301과 유사하게 제1 카메라의 동작을 활성화할 수 있다. 동작 1324에서, 프로세서(1120)는 동작 1310과 유사하게 제1 카메라에 대한 제1 렌즈 위치 데이터를 획득할 수 있다.
동작 1330에서, 프로세서(1120)는 카메라 전환 커맨드를 수신할 수 있다. 카메라 전환 커맨드가 수신된 경우, 동작 1340에서, 프로세서(1120)는 메모리(1130)에 저장된 렌즈 위치 전환 데이터 및 제1 렌즈 위치 데이터에 기초하여 제2 카메라의 렌즈 위치를 나타내는 제2 렌즈 위치 데이터를 결정할 수 있다. 동작 1340에서, 프로세서(1120)는 결정된 제2 카메라의 렌즈 위치를 기준으로 자동 초점 기능을 실행할 수 있다. 예를 들어, 도 14의 렌즈 위치 데이터(1400)를 참조하면, 프로세서(1120)는 제1 렌즈 위치 데이터에 포함된 제1 카메라 AF 코드(1410)가 180인 경우, 제2 카메라 AF 코드(1420)가 200인 제2 카메라의 렌즈 위치를 초기 위치로 시작하여 자동 초점 기능을 수행할 수 있다. 프로세서(1120)는 동작 1350을 실행한 결과로 결정된 제2 카메라의 렌즈 위치에 대한 정보를 포함하는 제2 렌즈 위치 데이터를 획득할 수 있다.
동작 1360에서, 프로세서(1120)는 렌즈 위치 전환 데이터에 기초하여 결정된 제2 카메라의 렌즈 위치가 정확한지 여부를 판단할 수 있다. 예를 들어, 렌즈 위치 전환 데이터에 기초하여 결정된 제2 카메라의 렌즈 위치와 동작 1350에서 자동 초점 기능을 실행한 결과로 결정된 제2 카메라의 렌즈 위치 사이의 차이가 지정된 값 이하인 경우, 프로세서(1120)는 렌즈 위치 전환 데이터에 기초하여 결정된 제2 카메라의 렌즈 위치가 정확한 것으로 판단할 수 있다.
렌즈 위치 전환 데이터에 기초하여 결정된 제2 카메라의 렌즈 위치가 정확하지 않은 경우, 동작 1370에서, 프로세서(1120)는 동작 1324에서 획득된 제1 렌즈 위치 데이터 및 동작 1350에서 획득된 제2 렌즈 위치 데이터에 기초하여 렌즈 위치 데이터를 업데이트할 수 있다.
도 14는 일 실시 예에 따른 렌즈 위치 전환 데이터(1400)의 예시를 개념적으로 도시한 도면이다. 도 14를 참조하면, 일 실시 예에 따른 렌즈 위치 전환 데이터(1400)는 제1 카메라(1111)의 렌즈의 위치에 상응하는 제1 카메라 AF 코드(1410)와 그 제1 카메라 AF 코드(1410)에 상응하는 제2 카메라 AF 코드(1420)을 포함할 수 있다. 일 실시 예에 따르면, 렌즈 위치 전환 데이터(1400)는 제1 카메라 AF 코드(1410)와 제2 카메라 AF 코드(1420) 사이를 변환시킬 수 있는 룩업 테이블의 형태로 메모리(1130)에 저장될 수 있다. 또 다른 실시 예에 따르면, 렌즈 위치 전환 데이터(1400)는 제1 카메라 AF 코드(1410)와 제2 카메라 AF 코드(1420) 사이의 관계를 정의하는 함수(또는 수식)의 형태로 메모리(1130)에 저장될 수도 있다.
도 15는 일 실시 예에 따라 수집된 렌즈 위치 데이터와 렌즈 위치 전환 함수의 예시를 설명하기 위한 그래프(1500)이다.
도 15의 그래프(1500)를 참조하면, 프로세서(1120)는 제1 렌즈 위치 데이터와 제2 렌즈 위치 데이터의 쌍으로 형성된 렌즈 위치 데이터(1510)를 수집할 수 있다.
프로세서(1120)는 실시 예에 따라서 렌즈 위치 데이터(1510)에 기초해 렌즈 위치 데이터를 업데이트할 수 있다. 일 실시 예에 따르면, 프로세서(1120)는 수집된 렌즈 위치 데이터(1510)의 집합을 새로운 렌즈 위치 전환 데이터로서 메모리(1130)에 저장할 수 있다. 또 다른 실시 예에 따르면, 프로세서(1120)는 수집된 렌즈 위치 데이터(1510)를 메모리(1130)에 저장된 렌즈 위치 전환 데이터와 병합할 수도 있다. 또 다른 실시 예에 따르면, 프로세서(1120)는 렌즈 위치 데이터(1510)의 집합으로부터 제1 렌즈 위치 데이터와 제2 렌즈 위치 데이터 사이의 관계를 정의하는 함수(1520)를 결정할 수 있다. 프로세서(1120)는 결정된 함수(1520)를 렌즈 위치 전환 데이터로서 저장할 수도 있다. 또 다른 예를 들면, 프로세서(1120)는 메모리(1130)에 저장된 제1 렌즈 위치 데이터와 제2 렌즈 위치 데이터 사이의 관계를 정의하는 함수를 수집된 렌즈 위치 데이터(1510)에 기초하여 수정할 수도 있다. 다만, 렌즈 위치 전환 데이터를 업데이트하는 방식은 이에 한정되어야 하는 것은 아니다.
도 16은 일 실시 예에 따라 렌즈 위치 데이터를 검증하는 프로세스를 도시한 흐름도(1600)이다.
일 실시 예에 따르면, 전자 장치(1100)의 프로세서(1120)는 영상 촬영(또는 자동 초점 기능의 수행)과 관련된 환경 조건에 대한 촬영 환경 정보에 기초하여 렌즈 위치 데이터의 유효성을 검증할 수 있다. 또 다른 예로, 프로세서(1120)는 유효성이 검증된 렌즈 위치 데이터에 한해서 렌즈 위치 전환 데이터를 업데이트에 이용할 수 있다.
일 실시 예에 따르면, 프로세서(1120)는 제1 렌즈 위치 데이터 및 제2 렌즈 위치 데이터를 획득하는 동작 1310 및 동작 1315를 수행할 수 있다. 동작 1610에서, 프로세서(1120)는 제1 렌즈 위치 데이터 및 제2 렌즈 위치 데이터 중 적어도 하나와 관련된 촬영 환경 정보를 획득할 수 있다.
일 실시 예에 따르면, 동작 1610은 프로세서(1120)가 전자 장치(1100)에 구비된 센서 모듈(예: 도 1의 센서 모듈(176))의 센서를 이용하여 감지된 정보를 획득하는 동작을 포함할 수 있다. 예를 들어, 프로세서(1120)는 촬영 환경 정보로서 모션 센서(예: 자이로 센서, 가속도 센서, 또는 중력 센서)로부터 전자 장치(1100)의 움직임에 대한 정보를 획득할 수 있다. 다른 예를 들면, 프로세서(1120)는 촬영 환경 정보로서 온도 센서를 이용하여 온도 값(예를 들어, 전자 장치(1100)의 주변 온도, 또는 카메라 내부 온도)을 획득할 수 있다. 실시 예에 따라서, 촬영 환경 정보에 포함되는 정보는 다른 정보를 포함할 수도 있다.
일 실시 예에 따르면, 동작 1610은 프로세서(1120)가 제1 카메라(1111) 또는 제2 카메라(1112) 중 어느 하나 이상에 관한 정보를 획득하는 동작을 포함할 수 있다. 예를 들어, 프로세서(1120)는 제1 카메라(1111) 또는 제2 카메라(1112) 중 어느 하나 이상에 대한 필터 값을 촬영 환경 정보로서 획득할 수 있다. 또 다른 예를 들면, 프로세서(1120)는 제1 카메라(1111) 또는 제2 카메라(1112) 중 하나 이상에 의해 촬영된 영상에 관련된 정보를 촬영 환경 정보로서 획득할 수도 있다. 예컨대, 프로세서(1120)는 촬영된 영상의 밝기 값, 신호 대 잡음 비(PD Signal to Noise Ratio), 또는 상(phase)의 차이도(disparity) 중 적어도 하나를 촬영 환경 정보로서 획득할 수 있다.
동작 1620에서, 프로세서(1120)는 획득된 렌즈 위치 데이터의 유효성을 검증할 수 있다. 예를 들어, 프로세서(1120)는 렌즈 위치 데이터에 포함된 값이 지정된 범위 내에 포함되는지 여부에 따라서 렌즈 위치 데이터가 유효한지 여부를 결정할 수 있다. 예를 들어, 프로세서(1120)는 자이로 센서의 x 축 값이 -5 이상이고 5 이하이며, y축 값이 -4 이상이고 5 이하이며, z축 값이 -6 이상이고 4 이하인 경우에 렌즈 위치 데이터가 유효한 것으로 판단할 수 있다. 다른 예를 들면, 프로세서(1120)는 필터 값이 3000000 이상인 경우 렌즈 위치 데이터가 유효한 것으로 판단할 수 있다. 또 다른 예를 들면, 신호 대 잡음비가 1000 이상인 경우 렌즈 위치 데이터가 유효한 것으로 판단할 수 있다. 또 다른 예를 들면, 프로세서(1120)는 둘 이상의 유형의 촬영 환경 정보가 지정된 범위 이내에 포함되는 경우에 렌즈 위치 데이터가 유효한 것으로 판단할 수도 있다.
일 실시 예에 따르면, 렌즈 위치 데이터의 유효성을 검증하기 위한 조건은 자동 초점 기능의 수행 결과에 기초하여 갱신될 수도 있다. 예를 들어, 프로세서(1120)는 제1 카메라(1111) 또는 제2 카메라(1112) 중 적어도 하나의 동작 중에 피사체에 초점이 잘 맞추어진 환경의 움직임 값, BV 값, 필터 값 및 신호 대 잡음 비에 기초하여 지정된 범위를 조정할 수 있다.
동작 1630에서, 프로세서(1120)는 검증 결과에 대한 응답으로 렌즈 위치 데이터가 유효한지 여부를 결정할 수 있다. 렌즈 위치 데이터가 유요한 것으로 결정된 경우, 프로세서(1120)는 렌즈 위치 전환 데이터를 업데이트하는 동작 1320을 수행할 수 있다.
도 17은 일 실시 예에 따라 전자 장치(1100)가 학습 데이터(1700)를 이용하여 렌즈 위치 전환 데이터(1400)를 결정하는 방법을 설명하기 위한 도면이다.
일 실시 예에 따르면, 전자 장치(1100)는 제1 카메라(1111)에 대한 제1 렌즈 위치 데이터 및 제2 카메라(1112)에 대한 제2 렌즈 위치 데이터를 획득한 경우, 획득된 제1 렌즈 위치 데이터 및 제2 렌즈 위치 데이터를 맵핑하여 누적 저장할 수 있다. 제1 렌즈 위치 데이터(예: 도 17의 제1 카메라 AF 코드(1710))) 및 제2 렌즈 위치 데이터(예: 도 17의 제2 카메라 AF 코드(1720))를 누적 저장한 데이터는 학습 데이터(1700)라고 언급될 수 있다.
일 실시 예에 따르면, 전자 장치(1100)는 렌즈 위치 전환 데이터(1400)에 대한 업데이트의 실행 여부를 확인하기 위한 사용자 인터페이스를 표시 장치(1150)를 통해서 출력할 수 있다. 표시 장치(1150)를 통해서 출력된 사용자 인터페이스를 통해서 업데이트의 실행을 명령하는 사용자 입력이 수신되면, 전자 장치(1100)는 사용자 입력에 대한 응답으로 학습 데이터(1700)에 기초하여 렌즈 위치 전환 데이터(1400)를 업데이트할 수 있다. 상기 사용자 인터페이스는 메뉴 화면에서 렌즈 위치 전환 데이터(1400)의 업데이트를 지시하는 항목이거나, 도 9에 도시된 메시지(910)와 유사한 메시지일 수 있다.
일 실시 예에 따르면, 렌즈 위치 전환 데이터(1400)의 업데이트와 관련된 사용자 인터페이스는 프로세서(1120)가 자동 초점 기능을 수행한 결과의 평가가 지정된 범위를 벗어나는 경우에 출력될 수 있다. 예를 들어, 자동 초점 기능을 통해서 초점이 맞추어지기까지 소요되는 평균 시간이 지정된 값보다 크거나, 자동 초점 기능을 통해서 초점이 맞추어진 이후에 촬영된 영상의 품질이 지정된 값보다 낮은 경우에 상기 사용자 인터페이스가 출력될 수 있다.
일 실시 예에 따른 전자 장치(예: 도 1의 전자 장치(100) 또는 도 2의 전자 장치(200))는 카메라(예: 도 1의 카메라 모듈(180), 또는 도 2의 카메라(210))와, 거리 센서(예: 도 1의 센서 모듈(176), 또는 도 2의 거리 센서(240))와, 메모리(예: 도 1의 메모리(130) 또는 도 2의 메모리(230)) 및 카메라, 거리 센서 및 메모리에 작동적으로 연결된 프로세서(예: 도 1의 프로세서(120) 또는 도 2의 프로세서(220))를 포함할 수 있다. 거리 센서는 거리 값을 검출하고, 메모리는 거리 센서에 의해 검출된 거리 값에 따라 카메라에 대한 렌즈 위치를 보정하기 위한 캘리브레이션 데이터를 저장할 수 있다. 메모리는 실행 시에 프로세서가 지정된 동작을 수행하도록 하는 인스트럭션들을 저장할 수 있다. 프로세서는 상기 인스트럭션들을 실행 시에 카메라 동작 시의 거리 값에 따라 그 카메라에 대한 렌즈 위치를 결정하는 동작을 수행할 수 있다. 또한, 프로세서는 거리 값과 결정된 렌즈 위치에 대한 렌즈 위치 데이터를 획득하는 동작을 수행할 수 있다. 또한, 프로세서는 렌즈 위치 데이터에 기초하여 캘리브레이션 데이터를 업데이트하고, 업데이트된 캘리브레이션 데이터에 기초하여 카메라에 대한 렌즈 위치를 결정하는 동작을 수행할 수 있다.
여기서, 일 실시 예에 따르면, 캘리브레이션 데이터는 렌즈 위치에 상응하는 코드를 거리 값과 맵핑(mapping)한 데이터일 수 있다.
또한, 일 실시 예에 따르면, 상기 프로세서는 카메라가 영상을 촬영하는 환경 조건과 관련된 촬영 환경 정보를 더 획득하고, 촬영 환경 정보에 기초하여 렌즈 위치 데이터의 유효성을 검증하는 동작을 수행할 수 있다. 프로세서는 캘리브레이션 데이터를 업데이트함에 있어서, 렌즈 위치 데이터의 유효성을 검증한 결과, 유효성이 검증된 렌즈 위치 데이터에 기초하여 캘리브레이션 데이터를 업데이트하는 동작을 수행할 수 있다. 또한, 일 실시 예에 따르면, 상기 환경 정보는 움직임 센서를 통해서 감지된 상기 전자 장치의 움직임을 나타내는 움직임 정보, 필터 값, 밝기 값, 신호 대 잡음 비, 온도 값, 또는 카메라를 통해 촬영된 영상의 차이도(disparity) 중 적어도 하나를 포함할 수 있다.
또한, 일 실시 예에 따르면, 상기 프로세서는 캘리브레이션 데이터에 대한 업데이트의 실행 여부를 확인하기 위한 사용자 인터페이스를 표시 장치(예: 도 1의 표시 장치(160) 또는 도 2의 표시 장치(250))에 출력하고, 사용자 인터페이스를 이용하여 수신된 사용자 입력에 대한 응답으로 캘리브레이션 데이터를 업데이트하는 동작을 수행할 수 있다. 또한, 일 실시 예에 따르면, 상기 프로세서는 렌즈 위치 데이터를 누적한 학습 데이터를 메모리에 저장하여 두었다가, 사용자 입력에 대한 응답으로 학습 데이터에 기초해 캘리브레이션 데이터를 업데이트할 수 있다. 상기 프로세서는 업데이트에 이용된 학습 데이터는 메모리에서 삭제할 수 있다.
또한, 일 실시 예에 따르면, 거리 센서는 비행 시간(time-of-flight; TOF) 모듈을 포함할 수 있다. 프로세서는 카메라의 동작 시에 조도 값을 획득하고, 조도 값이 지정된 값보다 낮은 저조도 환경인 경우, 캘리브레이션 데이터를 업데이트하지 않을 수 있다. 또한, 프로세서는 저조도 환경에서 비행 시간 모듈을 이용하여 측정된 거리측정 정보를 이용하여 자동 초점 기능을 수행할 수 있다.
또한, 일 실시 예에 따르면, 전자 장치(예: 도 1의 전자 장치(100) 또는 도 11의 전자 장치(1100))는 제1 카메라(예: 도 1의 카메라 모듈(180) 또는 도 11의 제1 카메라(1111), 제2 카메라(예: 도 1의 카메라 모듈(180) 또는 도 11의 제2 카메라(1112)), 메모리(예: 도 1의 메모리(130) 또는 도 11의 메모리(1130)), 및 프로세서(예: 도 1의 프로세서(120) 또는 도 11의 프로세서(1120))를 포함할 수 있다. 프로세서는 제1 카메라, 제2 카메라 및 메모리에 작동적으로 연결될 수 있다. 메모리는 제1 카메라에 대한 제1 렌즈 위치 데이터와 제2 카메라에 대한 제2 렌즈 위치 데이터를 맵핑하는 렌즈 위치 전환 데이터를 저장할 수 있다.
메모리는 실행 시에 프로세서가 지정된 동작을 수행하도록 하는 인스트럭션들을 저장할 수 있다. 프로세서는 상기 인스트럭션들을 실행 시에 제1 카메라의 동작 시에 제1 카메라에 대한 제1 렌즈 위치 데이터를 획득할 수 있다. 프로세서는 제1 카메라로부터 제2 카메라로 선택된 카메라를 전환하도록 하는 제1 카메라 전환 커맨드(예: 도 13a의 동작 1312)에 대한 응답으로, 제2 카메라에 대한 제2 렌즈 위치 데이터를 획득하는 동작을 수행할 수 있다. 또한, 프로세서는 제1 렌즈 위치 데이터 및 제2 렌즈 위치 데이터에 기초하여 렌즈 위치 전환 데이터를 업데이트할 수 있다. 렌즈 위치 전환 데이터가 업데이트된 이후에, 프로세서는 제1 카메라로부터 제2 카메라로 선택된 카메라를 전환하도록 하는 제2 카메라 전환 커맨드(예: 도 13b의 동작 1330)에 대한 응답으로, 업데이트된 렌즈 위치 전환 데이터에 기초하여 제2 카메라의 렌즈 위치를 결정하는 동작을 수행할 수 있다.
일 실시 예에 따르면, 환경 정보는 움직임 센서를 통해서 감지된 상기 전자 장치의 움직임을 나타내는 움직임 정보, 필터 값, 밝기 값, 신호 대 잡음 비, 온도 값, 또는 차이도(disparity) 중 적어도 하나를 포함할 수 있다.
일 실시 예에 따르면, 프로세서는 제1 렌즈 위치 데이터 또는 제2 렌즈 위치 데이터 중 적어도 하나와 관련된 분포도를 산출할 수 있다. 프로세서는 제1 렌즈 위치 데이터 또는 제2 렌즈 위치 데이터 중 적어도 하나가 분포도에서 데이터의 밀도가 낮은 영역에 포함된 것인 경우에 렌즈 위치 전환 데이터를 업데이트하는 동작을 수행할 수 있다.
일 실시 예에 따르면, 전자 장치는 표시 장치(예: 도 1의 표시 장치(160) 또는 도 11의 표시 장치(1150))를 더 포함할 수 있다. 프로세서는 렌즈 위치 전환 데이터에 대한 업데이트의 실행 여부를 확인하기 위한 사용자 인터페이스를 표시 장치에 출력하고, 사용자 인터페이스를 이용하여 수신된 사용자 입력에 대한 응답으로 렌즈 위치 전환 데이터를 업데이트하는 동작을 수행할 수 있다.
또한, 일 실시 예에 따르면, 프로세서는 렌즈 위치 데이터를 검증한 결과 렌즈 위치 데이터가 유효한 경우, 제1 렌즈 위치 데이터와 제2 렌즈 위치 데이터가 맵핑된 데이터 쌍을 누적하여 학습 데이터로서 메모리에 저장할 수 있다. 또한, 프로세서는 사용자 인터페이스를 이용하여 수신된 사용자 입력에 대한 응답으로 렌즈 위치 전환 데이터를 학습 데이터에 기초하여 업데이트할 수 있다. 또한, 프로세서는 업데이트에 사용된 학습 데이터는 메모리에서 삭제할 수 있다.
일 실시 예에 따르면, 제1 카메라 및 제2 카메라는 서로 초점거리 또는 화각 중 적어도 하나가 다른 렌즈를 포함할 수 있다.
일 실시 예에 따르면, 프로세서는 렌즈 위치 전환 데이터에 기초하여 렌즈 위치 전환 함수를 결정할 수 있다. 또한, 프로세서는 제2 카메라 전환 커맨드(예: 도 13b의 동작 1330)에 대한 응답으로, 결정된 렌즈 위치 전환 함수에 제1 카메라의 렌즈 위치를 입력할 수 있다. 프로세서는 입력된 제1 카메라의 렌즈 위치에 대한 응답으로 렌즈 위치 전환 함수가 반환한 값에 따라서 제2 카메라의 렌즈 위치를 결정할 수 있다.
일 실시 예에서 카메라(예: 도 1의 카메라 모듈(180), 또는 도 2의 카메라(210))를 구비한 전자 장치(예: 도 1의 전자 장치(100) 또는 도 2의 전자 장치(200))가 렌즈 위치를 결정하는 방법에 따르면, 전자 장치는 거리 (예: 도 1의 센서 모듈(176), 또는 도 2의 거리 센서(240))이용하여 거리 값을 획득하는 동작을 수행할 수 있다. 또한, 전자 장치는 카메라의 동작 시에 거리 값에 따른 렌즈 위치를 결정하는 동작을 수행할 수 있다. 또한, 프로세서는 거리 값과 결정된 렌즈 위치에 대한 정보를 포함하는 렌즈 위치 데이터에 기초하여 캘리브레이션 데이터를 업데이트하는 동작을 수행할 수 있다. 이후, 프로세서는 업데이트된 캘리브레이션 데이터에 기초하여 카메라에 대한 렌즈 위치를 결정하는 동작을 수행할 수 있다.
일 실시 예에 따르면, 전자 장치는 카메라에 대한 촬영 환경 정보를 획득하는 동작을 더 수행할 수 있다. 또한, 업데이트하는 동작은 촬영 환경 정보에 기초하여 렌즈 위치 데이터의 유효성을 검증하는 동작을 포함할 수 있다. 또한, 업데이트하는 동작은 렌즈 위치 데이터의 유효성을 검증한 결과, 유효성이 검증된 렌즈 위치 데이터에 기초하여 캘리브레이션 데이터를 업데이트하는 동작을 포함할 수 있다.
일 실시 예에 따르면, 전자 장치는 렌즈 위치 데이터를 학습 데이터로서 누적하여 저장하는 동작을 더 수행할 수 있다. 또한, 업데이트하는 동작은 캘리브레이션 데이터의 업데이트 실행에 관한 사용자 입력을 수신하고, 사용자 입력에 대한 응답으로 학습 데이터에 기초하여 캘리브레이션 데이터를 업데이트하는 동작을 포함할 수 있다.
일 실시 예에서 제1 카메라(예: 도 1의 카메라 모듈(180) 또는 도 11의 제1 카메라(1111) 및 제2 카메라(예: 도 1의 카메라 모듈(180) 또는 도 11의 제2 카메라(1112))를 구비하는 전자 장치(예: 도 1의 전자 장치(100) 또는 도 11의 전자 장치(1100))가 렌즈 위치를 결정하는 방법에 따르면, 전자 장치는 제1 카메라의 동작 시에 제1 카메라에 대한 제1 렌즈 위치 데이터를 획득할 수 있다. 프로세서는 제1 카메라로부터 제2 카메라로 선택된 카메라를 전환하도록 하는 제1 카메라 전환 커맨드(예: 도 13a의 동작 1312)에 대한 응답으로, 자동 초점 기능을 실행하여 제2 카메라에 대한 제2 렌즈 위치 데이터를 획득하는 동작을 수행할 수 있다. 또한, 전자 장치는 제1 렌즈 위치 데이터 및 제2 렌즈 위치 데이터에 기초하여 제1 카메라에 대한 제1 렌즈 위치와 제2 카메라에 대한 제2 렌즈 위치를 맵핑하는 렌즈 위치 전환 데이터를 업데이트할 수 있다. 이후, 전자 장치는 제1 카메라로부터 제2 카메라로 선택된 카메라를 전환하도록 하는 제2 카메라 전환 커맨드(예: 도 13b의 동작 1330)에 대한 응답으로, 업데이트된 렌즈 위치 전환 데이터에 기초하여 제2 카메라의 렌즈 위치를 결정할 수 있다.
본 문서에 개시된 다양한 실시 예들에 따른 전자 장치는 다양한 형태의 장치가 될 수 있다. 전자 장치는, 예를 들면, 휴대용 통신 장치 (예: 스마트폰), 컴퓨터 장치, 휴대용 멀티미디어 장치, 휴대용 의료 기기, 카메라, 웨어러블 장치, 또는 가전 장치를 포함할 수 있다. 본 문서의 실시 예에 따른 전자 장치는 전술한 기기들에 한정되지 않는다.
본 문서의 다양한 실시 예들 및 이에 사용된 용어들은 본 문서에 기재된 기술적 특징들을 특정한 실시 예들로 한정하려는 것이 아니며, 해당 실시 예의 다양한 변경, 균등물, 또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 또는 관련된 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 아이템에 대응하는 명사의 단수 형은 관련된 문맥상 명백하게 다르게 지시하지 않는 한, 상기 아이템 한 개 또는 복수 개를 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및 B 중 적어도 하나",“A 또는 B 중 적어도 하나,”"A, B 또는 C," "A, B 및 C 중 적어도 하나,”및 “A, B, 또는 C 중 적어도 하나"와 같은 문구들 각각은 그 문구들 중 해당하는 문구에 함께 나열된 항목들 중 어느 하나, 또는 그들의 모든 가능한 조합을 포함할 수 있다. "제 1", "제 2", 또는 "첫째" 또는 "둘째"와 같은 용어들은 단순히 해당 구성요소를 다른 해당 구성요소와 구분하기 위해 사용될 수 있으며, 해당 구성요소들을 다른 측면(예: 중요성 또는 순서)에서 한정하지 않는다. 어떤(예: 제 1) 구성요소가 다른(예: 제 2) 구성요소에, “기능적으로” 또는 “통신적으로”라는 용어와 함께 또는 이런 용어 없이, “커플드” 또는 “커넥티드”라고 언급된 경우, 그것은 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로(예: 유선으로), 무선으로, 또는 제 3 구성요소를 통하여 연결될 수 있다는 것을 의미한다.
본 문서에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구현된 유닛을 포함할 수 있으며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로와 같은 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는, 상기 부품의 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 일 실시 예에 따르면, 모듈은 ASIC(application-specific integrated circuit)의 형태로 구현될 수 있다.
본 문서의 다양한 실시 예들은 기기(machine)(예: 전자 장치(101)) 의해 읽을 수 있는 저장 매체(storage medium)(예: 내장 메모리(136) 또는 외장 메모리(138))에 저장된 하나 이상의 명령어들을 포함하는 소프트웨어(예: 프로그램(140))로서 구현될 수 있다. 예를 들면, 기기(예: 전자 장치(101))의 프로세서(예: 프로세서(120))는, 저장 매체로부터 저장된 하나 이상의 명령어들 중 적어도 하나의 명령을 호출하고, 그것을 실행할 수 있다. 이것은 기기가 상기 호출된 적어도 하나의 명령어에 따라 적어도 하나의 기능을 수행하도록 운영되는 것을 가능하게 한다. 상기 하나 이상의 명령어들은 컴파일러에 의해 생성된 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장 매체는, 비일시적(non-transitory) 저장 매체의 형태로 제공될 수 있다. 여기서, ‘비일시적’은 저장 매체가 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장 매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다.
일 실시 예에 따르면, 본 문서에 개시된 다양한 실시 예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory(CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어™)를 통해 또는 두 개의 사용자 장치들(예: 스마트폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.
다양한 실시 예들에 따르면, 상기 기술한 구성요소들의 각각의 구성요소(예: 모듈 또는 프로그램)는 단수 또는 복수의 개체를 포함할 수 있다. 다양한 실시 예들에 따르면, 전술한 해당 구성요소들 중 하나 이상의 구성요소들 또는 동작들이 생략되거나, 또는 하나 이상의 다른 구성요소들 또는 동작들이 추가될 수 있다. 대체적으로 또는 추가적으로, 복수의 구성요소들(예: 모듈 또는 프로그램)은 하나의 구성요소로 통합될 수 있다. 이런 경우, 통합된 구성요소는 상기 복수의 구성요소들 각각의 구성요소의 하나 이상의 기능들을 상기 통합 이전에 상기 복수의 구성요소들 중 해당 구성요소에 의해 수행되는 것과 동일 또는 유사하게 수행할 수 있다. 다양한 실시 예들에 따르면, 모듈, 프로그램 또는 다른 구성요소에 의해 수행되는 동작들은 순차적으로, 병렬적으로, 반복적으로, 또는 휴리스틱하게 실행되거나, 상기 동작들 중 하나 이상이 다른 순서로 실행되거나, 생략되거나, 또는 하나 이상의 다른 동작들이 추가될 수 있다.

Claims (20)

  1. 전자 장치에 있어서,
    카메라;
    거리 값을 검출하는 거리 센서;
    상기 거리 센서에 의해 검출된 거리 값에 따라 상기 카메라에 대한 렌즈 위치를 보정하기 위한 캘리브레이션 데이터를 저장하는 메모리; 및
    상기 카메라, 상기 거리 센서 및 상기 메모리와 작동적으로 연결된 프로세서,를 포함하고,
    상기 메모리는, 실행 시에, 상기 프로세서가,
    상기 카메라의 동작 시에 상기 거리 값에 따른 상기 카메라에 대한 렌즈 위치를 결정하고,
    상기 거리 값과 상기 결정된 렌즈 위치에 대한 렌즈 위치 데이터를 획득하며,
    상기 렌즈 위치 데이터에 기초하여 상기 캘리브레이션 데이터를 업데이트하며,
    상기 업데이트된 캘리브레이션 데이터에 기초하여 상기 카메라에 대한 렌즈 위치를 결정하도록 하는 인스트럭션들을 저장하는, 전자 장치.
  2. 청구항 1에 있어서,
    상기 캘리브레이션 데이터는,
    렌즈 위치에 상응하는 코드를 거리 값과 맵핑한 것인, 전자 장치.
  3. 청구항 1에 있어서,
    상기 인스트럭션들은, 실행 시에, 상기 프로세서가,
    상기 카메라가 영상을 촬영하는 환경 조건과 관련된 촬영 환경 정보를 더 획득하며,
    상기 촬영 환경 정보에 기초하여 상기 렌즈 위치 데이터의 유효성을 검증하고,
    상기 렌즈 위치 데이터의 유효성을 검증한 결과. 유효성이 검증된 렌즈 위치 데이터에 기초하여 상기 캘리브레이션 데이터를 업데이트하도록 하는, 전자 장치.
  4. 청구항 3에 있어서,
    상기 환경 정보는,
    움직임 센서를 통해서 감지된 상기 전자 장치의 움직임을 나타내는 움직임 정보, 필터 값, 밝기 값, 신호 대 잡음 비, 온도 값, 또는 카메라를 통해 촬영된 영상의 차이도(disparity) 중 적어도 하나를 포함하는, 전자 장치.
  5. 청구항 1에 있어서,
    상기 인스트럭션들은, 실행 시에, 상기 프로세서가,
    상기 획득된 렌즈 위치 데이터의 거리 값에 관련된 분포도를 산출하고,
    상기 획득된 렌즈 위치 데이터에 상응하는 거리 값이 상기 분포도에서 데이터의 밀도가 지정된 값보다 낮은 영역에 포함된 것인 경우에 상기 캘리브레이션 데이터를 업데이트하도록 하는, 전자 장치.
  6. 청구항 1에 있어서,
    상기 전자 장치는,
    표시 장치를 더 구비하고,
    상기 인스트럭션들은, 실행 시에, 상기 프로세서가,
    상기 캘리브레이션 데이터에 대한 업데이트의 실행 여부를 확인하기 위한 사용자 인터페이스를 상기 표시 장치에 출력하고,
    상기 사용자 인터페이스를 이용하여 수신된 사용자 입력에 대한 응답으로 상기 캘리브레이션 데이터를 업데이트하도록 하는, 전자 장치.
  7. 청구항 6에 있어서,
    상기 인스트럭션들은, 실행 시에, 상기 프로세서가,
    상기 렌즈 위치 데이터를 누적한 학습 데이터를 상기 메모리에 저장하며,
    상기 사용자 입력에 대한 응답으로 상기 학습 데이터에 기초하여 상기 캘리브레이션 데이터를 업데이트하고, 상기 학습 데이터를 상기 메모리에서 삭제하도록 하는, 전자 장치.
  8. 청구항 1에 있어서,
    상기 거리 센서는 비행 시간 모듈을 포함하며,
    상기 인스트럭션들은, 실행 시에, 상기 프로세서가,
    상기 카메라의 동작 시에 조도 값을 획득하고,
    상기 조도 값이 지정된 값보다 낮은 경우 상기 캘리브레이션 데이터를 업데이트하지 않고, 상기 비행 시간 모듈을 이용하여 측정된 거리측정 정보를 이용하여 자동 초점 기능을 수행하는, 전자 장치.
  9. 전자 장치에 있어서,
    제1 카메라;
    제2 카메라;
    상기 제1 카메라에 대한 제1 렌즈 위치 데이터와 상기 제2 카메라에 대한 제2 렌즈 위치 데이터를 맵핑하는 렌즈 위치 전환 데이터를 저장하는 메모리; 및
    상기 제1 카메라, 상기 제2 카메라 및 상기 메모리와 작동적으로 연결된 프로세서;를 포함하고,
    상기 메모리는, 실행 시에, 상기 프로세서가,
    상기 제1 카메라의 동작 시에 상기 제1 카메라에 대한 제1 렌즈 위치 데이터를 획득하고,
    상기 제1 카메라로부터 상기 제2 카메라로 선택된 카메라를 전환하도록 하는 제1 카메라 전환 커맨드에 대한 응답으로, 상기 제2 카메라에 대한 제2 렌즈 위치 데이터를 획득하며,
    상기 제1 렌즈 위치 데이터 및 상기 제2 렌즈 위치 데이터에 기초하여 상기 렌즈 위치 전환 데이터를 업데이트하며,
    상기 제1 카메라로부터 상기 제2 카메라로 선택된 카메라를 전환하도록 하는 제2 카메라 전환 커맨드에 대한 응답으로, 상기 업데이트된 렌즈 위치 전환 데이터에 기초하여 상기 제2 카메라의 렌즈 위치를 결정하는 인스트럭션들을 저장하는, 전자 장치.
  10. 청구항 9에 있어서,
    상기 인스트럭션들은, 실행 시에, 상기 프로세서가,
    상기 제1 카메라 또는 상기 제2 카메라 중 적어도 하나가 영상을 촬영하는 환경 조건과 관련된 촬영 환경 정보를 더 획득하고,
    상기 촬영 환경 정보에 기초하여 상기 제1 렌즈 위치 데이터 및 상기 제2 렌즈 위치 데이터의 유효성을 검증하며,
    상기 제1 렌즈 위치 데이터 및 상기 제2 렌즈 위치 데이터의 유효성을 검증한 결과, 유효성이 검증된 상기 제1 렌즈 위치 데이터 및 상기 제2 렌즈 위치 데이터에 기초하여 상기 렌즈 위치 전환 데이터를 업데이트하도록 하는, 전자 장치.
  11. 청구항 10에 있어서,
    상기 환경 정보는,
    움직임 센서를 통해서 감지된 상기 전자 장치의 움직임을 나타내는 움직임 정보, 필터 값, 밝기 값, 신호 대 잡음 비, 온도 값, 또는 차이도(disparity) 중 적어도 하나를 포함하는, 전자 장치.
  12. 청구항 9에 있어서,
    상기 인스트럭션들은, 실행 시에, 상기 프로세서가,
    획득된 상기 제1 렌즈 위치 데이터 또는 상기 제2 렌즈 위치 데이터 중 적어도 하나와 관련된 분포도를 산출하고,
    상기 획득된 상기 제1 렌즈 위치 데이터 또는 상기 제2 렌즈 위치 데이터 중 적어도 하나가 상기 분포도에서 데이터의 밀도가 낮은 영역에 포함된 것인 경우에, 상기 렌즈 위치 전환 데이터를 업데이트하도록 하는, 전자 장치.
  13. 청구항 9에 있어서,
    표시 장치를 더 구비하고,
    상기 인스트럭션들은, 실행 시에, 상기 프로세서가,
    상기 렌즈 위치 전환 데이터에 대한 업데이트의 실행 여부를 확인하기 위한 사용자 인터페이스를 상기 표시 장치에 출력하고,
    상기 사용자 인터페이스를 이용하여 수신된 사용자 입력에 대한 응답으로 상기 렌즈 위치 전환 데이터를 업데이트하도록 하는, 전자 장치.
  14. 청구항 13에 있어서,
    상기 인스트럭션들은, 실행 시에, 상기 프로세서가,
    상기 렌즈 위치 데이터가 유효한 경우, 상기 제1 렌즈 위치 데이터와 상기 제2 렌즈 위치 데이터가 맵핑된 데이터 쌍을 누적한 학습 데이터를 상기 메모리에 저장하며,
    상기 사용자 입력에 대한 응답으로 상기 학습 데이터에 기초하여 상기 렌즈 위치 전환 데이터를 업데이트하고, 상기 학습 데이터를 상기 메모리에서 삭제하도록 하는, 전자 장치.
  15. 청구항 9에 있어서,
    상기 제1 카메라 및 상기 제2 카메라는 서로 초점거리 또는 화각 중 적어도 하나가 다른 렌즈를 포함하는, 전자 장치.
  16. 청구항 9에 있어서,
    상기 인스트럭션들은, 실행 시에, 상기 프로세서가,
    상기 렌즈 위치 전환 데이터에 기초하여 렌즈 위치 전환 함수를 결정하고,
    상기 제2 카메라 전환 커맨드에 대한 응답으로. 상기 결정된 렌즈 위치 전환 함수에 상기 제1 카메라의 렌즈 위치를 입력하고, 상기 렌즈 위치 전환 함수가 반환한 값에 따라서 상기 제2 카메라의 렌즈 위치를 결정하도록 하는, 전자 장치.
  17. 카메라를 구비한 전자 장치가 렌즈 위치를 결정하는 방법에 있어서,
    거리 센서를 이용하여 거리 값을 획득하는 동작;
    상기 카메라의 동작 시에 상기 거리 값에 따른 렌즈 위치를 결정하는 동작;
    상기 거리 값과 상기 결정된 렌즈 위치에 대한 정보를 포함하는 렌즈 위치 데이터에 기초하여 상기 캘리브레이션 데이터를 업데이트하는 동작; 및
    상기 업데이트된 캘리브레이션 데이터에 기초하여 상기 카메라에 대한 렌즈 위치를 결정하는 동작;을 포함하는, 방법.
  18. 청구항 17에 있어서,
    상기 카메라에 대한 촬영 환경 정보를 획득하는 동작을 더 포함하고,
    상기 업데이트하는 동작은,
    상기 촬영 환경 정보에 기초하여 상기 렌즈 위치 데이터의 유효성을 검증하는 동작, 및
    상기 렌즈 위치 데이터의 유효성을 검증한 결과, 유효성이 검증된 렌즈 위치 데이터에 기초하여 상기 캘리브레이션 데이터를 업데이트하는 동작을 포함하는, 방법.
  19. 청구항 17에 있어서,
    상기 업데이트하는 동작은,
    상기 렌즈 위치 데이터를 학습 데이터로서 누적하여 저장하는 동작,
    상기 캘리브레이션 데이터의 업데이트 실행에 관한 사용자 입력을 수신하는 동작, 및
    상기 사용자 입력에 대한 응답으로 상기 학습 데이터에 기초하여 상기 캘리브레이션 데이터를 업데이트하는 동작을 포함하는, 방법.
  20. 제1 카메라 및 제2 카메라를 구비하는 전자 장치가 렌즈 위치를 결정하는 방법에 있어서,
    상기 제1 카메라의 동작 시에 상기 제1 카메라에 대한 제1 렌즈 위치 데이터를 획득하는 동작;
    상기 제1 카메라로부터 상기 제2 카메라로 선택된 카메라를 전환하도록 하는 제1 카메라 전환 커맨드에 대한 응답으로, 상기 제2 카메라에 대한 제2 렌즈 위치 데이터를 획득하는 동작;
    상기 제1 렌즈 위치 데이터 및 상기 제2 렌즈 위치 데이터에 기초하여 상기 제1 카메라에 대한 제1 렌즈 위치와 상기 제2 카메라에 대한 제2 렌즈 위치를 맵핑하는 렌즈 위치 전환 데이터를 업데이트하는 동작; 및
    상기 제1 카메라로부터 상기 제2 카메라로 선택된 카메라를 전환하도록 하는 제2 카메라 전환 커맨드에 대한 응답으로, 상기 업데이트된 렌즈 위치 전환 데이터에 기초하여 상기 제2 카메라의 렌즈 위치를 결정하는 동작;을 포함하는, 방법
KR1020190018865A 2019-02-18 2019-02-18 전자 장치 및 그 전자 장치의 자동 초점 제어 방법 KR20200100498A (ko)

Priority Applications (5)

Application Number Priority Date Filing Date Title
KR1020190018865A KR20200100498A (ko) 2019-02-18 2019-02-18 전자 장치 및 그 전자 장치의 자동 초점 제어 방법
PCT/KR2020/002262 WO2020171520A1 (en) 2019-02-18 2020-02-17 Electronic device and method for controlling auto focusing thereof
EP20157614.7A EP3697080A3 (en) 2019-02-18 2020-02-17 Electronic device and method for controlling auto focusing thereof
CN202010098676.4A CN111586285A (zh) 2019-02-18 2020-02-18 电子设备及用于控制其自动聚焦的方法
US16/793,709 US11631190B2 (en) 2019-02-18 2020-02-18 Electronic device and method for controlling auto focusing thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190018865A KR20200100498A (ko) 2019-02-18 2019-02-18 전자 장치 및 그 전자 장치의 자동 초점 제어 방법

Publications (1)

Publication Number Publication Date
KR20200100498A true KR20200100498A (ko) 2020-08-26

Family

ID=69631416

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190018865A KR20200100498A (ko) 2019-02-18 2019-02-18 전자 장치 및 그 전자 장치의 자동 초점 제어 방법

Country Status (5)

Country Link
US (1) US11631190B2 (ko)
EP (1) EP3697080A3 (ko)
KR (1) KR20200100498A (ko)
CN (1) CN111586285A (ko)
WO (1) WO2020171520A1 (ko)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022250342A1 (ko) * 2021-05-27 2022-12-01 삼성전자 주식회사 렌즈 구동 정보와 이미지를 동기화하는 전자 장치
WO2023008968A1 (ko) * 2021-07-29 2023-02-02 삼성전자 주식회사 카메라를 포함하는 전자 장치 및 전자 장치의 동작 방법
WO2023249231A1 (ko) * 2022-06-22 2023-12-28 삼성전자 주식회사 카메라를 포함하는 전자 장치 및 그 동작 방법
US11985421B2 (en) 2021-10-12 2024-05-14 Samsung Electronics Co., Ltd. Device and method for predicted autofocus on an object

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200100498A (ko) * 2019-02-18 2020-08-26 삼성전자주식회사 전자 장치 및 그 전자 장치의 자동 초점 제어 방법
US11893668B2 (en) 2021-03-31 2024-02-06 Leica Camera Ag Imaging system and method for generating a final digital image via applying a profile to image information

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3339155B2 (ja) * 1993-12-13 2002-10-28 株式会社ニコン カメラ
US5752115A (en) * 1996-11-26 1998-05-12 Eastman Kodak Company Autofocus camera with power control for emitted beam
JP2007010908A (ja) * 2005-06-29 2007-01-18 Canon Inc 焦点調節方法及び装置
US9275459B2 (en) 2012-10-05 2016-03-01 Qualcomm Incorporated Method and apparatus for calibrating an imaging device
KR20140123302A (ko) * 2013-04-12 2014-10-22 삼성전자주식회사 영상 처리 장치 및 그 제어방법
TW201442512A (zh) * 2013-04-19 2014-11-01 Hon Hai Prec Ind Co Ltd 自動對焦設計系統、電子裝置及自動對焦設計方法
US9532041B2 (en) * 2014-07-11 2016-12-27 Intel Corporation Method and system for automatic focus with self-calibration
US9638984B2 (en) * 2015-03-10 2017-05-02 Qualcomm Incorporated Search range extension for depth assisted autofocus
US20160295097A1 (en) 2015-03-31 2016-10-06 Qualcomm Incorporated Dual camera autofocus
US11240421B2 (en) * 2015-04-10 2022-02-01 Qualcomm Incorporated Methods and apparatus for defocus reduction using laser autofocus
JP6293706B2 (ja) * 2015-06-26 2018-03-14 京セラ株式会社 電子機器及び電子機器の動作方法
TWI706181B (zh) 2015-09-11 2020-10-01 新加坡商海特根微光學公司 具有自動對焦控制的成像裝置
CN107924040A (zh) * 2016-02-19 2018-04-17 索尼公司 图像拾取装置、图像拾取控制方法和程序
KR102529928B1 (ko) * 2016-09-22 2023-05-09 삼성전자주식회사 스테레오 카메라의 교정 방법 및 이를 수행하는 전자 장치
KR20180060786A (ko) * 2016-11-29 2018-06-07 삼성전자주식회사 전자 장치 및 전자 장치의 자동 초점 방법
CN107071243B (zh) * 2017-03-09 2019-12-27 成都西纬科技有限公司 相机对焦校准***及对焦校准方法
US10387477B2 (en) * 2017-05-30 2019-08-20 Qualcomm Incorporated Calibration for phase detection auto focus (PDAF) camera systems
KR102382865B1 (ko) * 2017-06-28 2022-04-05 삼성전자주식회사 카메라 모듈, 카메라 모듈을 포함하는 전자 장치
KR102394736B1 (ko) 2017-08-16 2022-05-06 현대모비스 주식회사 차량용 부시장치
KR20200100498A (ko) * 2019-02-18 2020-08-26 삼성전자주식회사 전자 장치 및 그 전자 장치의 자동 초점 제어 방법
US11589825B2 (en) * 2020-10-30 2023-02-28 Biospectal Sa Systems and methods for blood pressure estimation using smart offset calibration

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022250342A1 (ko) * 2021-05-27 2022-12-01 삼성전자 주식회사 렌즈 구동 정보와 이미지를 동기화하는 전자 장치
WO2023008968A1 (ko) * 2021-07-29 2023-02-02 삼성전자 주식회사 카메라를 포함하는 전자 장치 및 전자 장치의 동작 방법
US11985421B2 (en) 2021-10-12 2024-05-14 Samsung Electronics Co., Ltd. Device and method for predicted autofocus on an object
WO2023249231A1 (ko) * 2022-06-22 2023-12-28 삼성전자 주식회사 카메라를 포함하는 전자 장치 및 그 동작 방법

Also Published As

Publication number Publication date
US20200265603A1 (en) 2020-08-20
EP3697080A3 (en) 2020-09-02
CN111586285A (zh) 2020-08-25
US11631190B2 (en) 2023-04-18
EP3697080A2 (en) 2020-08-19
WO2020171520A1 (en) 2020-08-27

Similar Documents

Publication Publication Date Title
KR20200100498A (ko) 전자 장치 및 그 전자 장치의 자동 초점 제어 방법
KR102525000B1 (ko) 복수의 이미지들이 합성된 이미지를 깊이 정보에 기반하여 흐림 처리하는 전자 장치 및 상기 전자 장치의 구동 방법
CN109428997B (zh) 用于减小多个相机的视差的方法和支持该方法的电子装置
KR102472156B1 (ko) 전자 장치 및 그 깊이 정보 생성 방법
KR102452564B1 (ko) 광학식 이미지 안정화 움직임을 추정하기 위한 장치 및 방법
US11258962B2 (en) Electronic device, method, and computer-readable medium for providing bokeh effect in video
EP3718296B1 (en) Electronic device and method for controlling autofocus of camera
KR102382871B1 (ko) 렌즈의 포커스를 제어하기 위한 전자 장치 및 전자 장치 제어 방법
KR20190019504A (ko) 카메라 모듈에 포함된 렌즈부의 흔들림을 제어하는 전자 장치 및 전자 장치의 동작 방법
KR20200067027A (ko) 복수의 카메라들 또는 깊이 센서 중 적어도 하나를 이용하여 깊이 정보를 획득하는 전자 장치
KR20210071253A (ko) 카메라 이동 제어 방법 및 장치
US11297237B2 (en) Electronic device for auto focusing function and operating method thereof
KR102597470B1 (ko) 뎁스 맵 결정 방법 및 그 방법을 적용한 전자 장치
KR20210048725A (ko) 카메라 제어를 위한 방법 및 이를 위한 전자 장치
KR102457559B1 (ko) 이미지에 포함된 오브젝트에 기반하여 이미지를 보정하기 위한 전자 장치 및 방법
US20220268935A1 (en) Electronic device comprising camera and method thereof
KR102668212B1 (ko) 자동 초점 방법 및 이를 수행하는 전자 장치
US11032462B2 (en) Method for adjusting focus based on spread-level of display object and electronic device supporting the same
KR20210144151A (ko) Awb를 수행하여 이미지를 생성하는 전자 장치 및 방법
KR20210142312A (ko) 카메라 및 마이크를 포함하는 전자 장치 및 그 운용 방법
KR20200092762A (ko) 전자 장치 및 이를 이용한 카메라의 가림을 인식하는 방법
KR20210121522A (ko) 카메라의 자동 초점 검출 방법 및 이를 지원하는 전자 장치

Legal Events

Date Code Title Description
A201 Request for examination