KR20180138300A - 관심 객체에 대한 외부 광원의 속성 정보를 제공하는 방법을 지원하는 전자 장치 - Google Patents

관심 객체에 대한 외부 광원의 속성 정보를 제공하는 방법을 지원하는 전자 장치 Download PDF

Info

Publication number
KR20180138300A
KR20180138300A KR1020170078329A KR20170078329A KR20180138300A KR 20180138300 A KR20180138300 A KR 20180138300A KR 1020170078329 A KR1020170078329 A KR 1020170078329A KR 20170078329 A KR20170078329 A KR 20170078329A KR 20180138300 A KR20180138300 A KR 20180138300A
Authority
KR
South Korea
Prior art keywords
processor
image
interest
light source
area
Prior art date
Application number
KR1020170078329A
Other languages
English (en)
Other versions
KR102333101B1 (ko
Inventor
권순환
조정근
곽현미
김준기
김솔
정명기
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020170078329A priority Critical patent/KR102333101B1/ko
Priority to PCT/KR2018/005834 priority patent/WO2018236058A1/en
Priority to EP18178718.5A priority patent/EP3419024B1/en
Priority to CN201810641836.8A priority patent/CN109101873B/zh
Priority to US16/014,656 priority patent/US10827126B2/en
Publication of KR20180138300A publication Critical patent/KR20180138300A/ko
Application granted granted Critical
Publication of KR102333101B1 publication Critical patent/KR102333101B1/ko

Links

Images

Classifications

    • H04M1/72522
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • AHUMAN NECESSITIES
    • A45HAND OR TRAVELLING ARTICLES
    • A45DHAIRDRESSING OR SHAVING EQUIPMENT; EQUIPMENT FOR COSMETICS OR COSMETIC TREATMENTS, e.g. FOR MANICURING OR PEDICURING
    • A45D44/00Other cosmetic or toiletry articles, e.g. for hairdressers' rooms
    • A45D44/005Other cosmetic or toiletry articles, e.g. for hairdressers' rooms for selecting or displaying personal cosmetic colours or hairstyle
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/44Detecting, measuring or recording for evaluating the integumentary system, e.g. skin, hair or nails
    • A61B5/441Skin evaluation, e.g. for skin disorder diagnosis
    • A61B5/445Evaluating skin irritation or skin trauma, e.g. rash, eczema, wound, bed sore
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/02Viewing or reading apparatus
    • G02B27/022Viewing apparatus
    • G02B27/024Viewing apparatus comprising a light source, e.g. for viewing photographic slides, X-ray transparancies
    • G06K9/00221
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • G09G3/34Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters by control of light from an independent source
    • G09G3/3406Control of illumination source
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/63ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/64Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/71Circuitry for evaluating the brightness variation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2201/00Electronic components, circuits, software, systems or apparatus used in telephone systems
    • H04M2201/34Microprocessors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2201/00Electronic components, circuits, software, systems or apparatus used in telephone systems
    • H04M2201/36Memories
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2201/00Electronic components, circuits, software, systems or apparatus used in telephone systems
    • H04M2201/38Displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/12Details of telephonic subscriber devices including a sensor for measuring a physical value, e.g. temperature or motion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/52Details of telephonic subscriber devices including functional features of a camera

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • Medical Informatics (AREA)
  • General Physics & Mathematics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Biophysics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Pathology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • General Business, Economics & Management (AREA)
  • Business, Economics & Management (AREA)
  • Radiology & Medical Imaging (AREA)
  • Optics & Photonics (AREA)
  • Computer Hardware Design (AREA)
  • Dermatology (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

전자 장치에 있어서, 카메라, 디스플레이, 및 프로세서를 포함하고, 상기 프로세서는 상기 카메라를 이용하여 하나 이상의 외부 객체들에 대한 이미지를 획득하고, 상기 이미지에 포함된 상기 하나 이상의 외부 객체들 중 얼굴에 대응하는 관심 객체를 확인하고, 상기 관심 객체를 확인하는 동작은 상기 관심 객체에 대해 상기 얼굴에 대한 인식과 관련된 제1 영역 및 제2 영역을 결정하는 동작을 포함하고, 상기 제1 영역에 대한 제1 밝기 값 및 상기 제2 영역에 대한 제2 밝기 값을 확인하고, 상기 제1 밝기 값 및 상기 제2 밝기 값에 적어도 기반하여, 상기 관심 객체에 대한 외부 광원의 속성 정보를 결정하고, 및 상기 디스플레이를 통해, 상기 속성 정보에 대응하는 가이드 정보를 상기 관심 객체와 관련하여 제공하도록 설정된 전자 장치가 개시된다. 이 외에도 명세서를 통해 파악되는 다양한 실시 예가 가능하다.

Description

관심 객체에 대한 외부 광원의 속성 정보를 제공하는 방법을 지원하는 전자 장치{Electronic device for providing property information of external light source for interest object}
본 문서에서 개시되는 실시 예들은 관심 객체에 대한 외부 광원의 속성 정보를 제공하는 기술과 관련된다.
최근 들어, 피부 관리에 대한 관심과 수요가 증대되면서, 신체 일부에 대한 피부 상태를 측정하고, 측정된 정보를 이용하여 사용자의 피부 건강 상태를 알려주며, 피부 건강 상태에 따라 피부 관리 방법이나 화장품 등을 추천하는 어플리케이션 및 상기 어플리케이션의 실행 환경을 제공하는 전자 장치가 개발되고 있다. 예컨대, 전자 장치는 카메라를 이용해 사용자의 신체 일부를 촬영한 영상(이미지)을 획득하고, 상기 영상을 분석하여 사용자의 피부 상태를 판단하고, 사용자의 피부 건강 상태에 대응되는 객체를 출력할 수 있다.
피부 분석 시, 전자 장치는 획득한 영상의 영상학적 특징, 특히 주변 피부 영역과의 색상 차를 이용하여 주름, 색소, 여드름 등의 존재 여부를 판단할 수 있다.
피부 분석을 위한 전자 장치는 일반적으로 사용자의 신체 일부를 고정시킬 수 있는 틀을 구비하고, 상기 틀에 신체 일부가 고정되면 카메라를 피부에 밀착시킴으로써 외부 광원을 차단한 상태에서 피부를 촬영할 수 있다. 즉, 피부 분석을 위한 전자 장치는 피부 분석에 영향을 주는 외부 요인들 예컨대, 조도, 그림자, 피부의 색온도, 촬영 대상이 되는 피부 영역의 정렬 상태, 촬영 시의 흔들림(또는 선명도(sharpness)), 또는 노이즈(또는 이미지 센서의 감도) 등을 통제할 수 있는 환경을 제공할 수 있다.
그러나, 스마트 폰 등과 같은 전자 장치는 사용자가 임의의 환경에서 촬영을 할 수 있기 때문에 상술한 외부 요인들을 완벽하게 통제하기 어려울 수 있다. 결과적으로, 상술한 외부 요인들이 통제되지 못한 상태에서 촬영된 영상을 기반으로 피부 분석을 하는 경우, 상기 외부 요인들로 인해 영상의 영상학적 특징이 변화되어 피부 분석에 대한 정밀도가 감소하고, 그로 인해 피부 분석에 대한 결과값이 지정된 오차 범위를 벗어나게 되어 피부 분석 결과에 대한 신뢰성을 보장하기 어려울 수 있다.
본 문서에서 개시되는 실시 예들은, 피부 분석을 위한 영상의 촬영 시에, 피부 분석에 영향을 주는 외부 요인들 중 적어도 일부가 일정하게 유지될 수 있도록 가이드하는 영상 처리 방법을 지원하는 전자 장치를 제공할 수 있다.
본 문서에 개시되는 일 실시 예에 따른 전자 장치는, 카메라, 디스플레이, 및 프로세서를 포함하고, 상기 프로세서는 상기 카메라를 이용하여 하나 이상의 외부 객체들에 대한 이미지를 획득하고, 상기 이미지에 포함된 상기 하나 이상의 외부 객체들 중 얼굴에 대응하는 관심 객체를 확인하고, 상기 관심 객체를 확인하는 동작은 상기 관심 객체에 대해 상기 얼굴에 대한 인식과 관련된 제1 영역 및 제2 영역을 결정하는 동작을 포함하고, 상기 제1 영역에 대한 제1 밝기 값 및 상기 제2 영역에 대한 제2 밝기 값을 확인하고, 상기 제1 밝기 값 및 상기 제2 밝기 값에 적어도 기반하여, 상기 관심 객체에 대한 외부 광원의 속성 정보를 결정하고, 및 상기 디스플레이를 통해, 상기 속성 정보에 대응하는 가이드 정보를 상기 관심 객체와 관련하여 제공하도록 설정될 수 있다.
또한, 본 문서에 개시되는 일 실시 예에 따른 전자 장치는, 카메라, 디스플레이, 및 프로세서를 포함하고, 상기 프로세서는 상기 카메라를 통해 촬영된 영상을 획득하고, 상기 영상에서 얼굴에 대응되는 관심 객체를 판단하고, 상기 관심 객체 내에서 제1 비교 영역 및 제2 비교 영역을 결정하고, 상기 제1 비교 영역에 대응하는 제1 휘도값 및 상기 제2 비교 영역에 대응하는 제2 휘도값을 산출하고, 상기 제1 휘도값 및 상기 제2 휘도값의 차이에 적어도 기반하여 외부 광원의 위치를 결정하고, 상기 위치에 대응하는 가이드 정보를 상기 관심 객체와 관련하여 상기 디스플레이에 표시하도록 설정될 수 있다.
또한, 본 문서에 개시되는 일 실시 예에 따른 컴퓨터로 판독 가능한 기록 매체는, 카메라를 통해 하나 이상의 외부 객체들에 대한 이미지를 획득하는 동작, 상기 이미지에 포함된 상기 하나 이상의 외부 객체들 중 얼굴에 대응하는 관심 객체를 확인하고, 상기 관심 객체에 대해 상기 얼굴에 대한 인식과 관련된 제1 영역 및 제2 영역을 결정하는 동작, 상기 제1 영역에 대한 제1 밝기 값 및 상기 제2 영역에 대한 제2 밝기 값을 확인하는 동작, 상기 제1 밝기 값 및 상기 제2 밝기 값에 적어도 기반하여, 상기 관심 객체에 대한 외부 광원의 속성 정보를 결정하는 동작, 및 디스플레이를 통해, 상기 속성 정보에 대응하는 가이드 정보를 상기 관심 객체와 관련하여 제공하는 동작을 포함하는 방법을 수행하기 위한 프로그램이 기록될 수 있다.
본 문서에 개시되는 실시 예들에 따르면, 외부 광원의 위치를 가이드함으로써, 외부 광원에 의해 발생되는 그림자의 영향을 최소화한 상태로 촬영이 가능하도록 지원할 수 있다.
또한, 본 문서에 개시되는 실시 예들에 따르면, 촬영 대상이 되는 피부 영역의 정렬 상태를 일정하게 유지하도록 가이드함으로써, 피부 상태에 대한 이력 정보를 관리함에 있어서 분석 대상의 일관성 유지시킬 수 있다.
이 외에, 본 문서를 통해 직접적 또는 간접적으로 파악되는 다양한 효과들이 제공될 수 있다.
도 1은 일 실시 예에 따른 영상 처리와 관련한 전자 장치의 블록도이다.
도 2는 일 실시 예에 따른 가이드 제공과 관련한 전자 장치의 운용 방법을 나타낸 도면이다.
도 3은 일 실시 예에 따른 촬영 기능 수행과 관련한 전자 장치의 운용 방법을 나타낸 도면이다.
도 4는 일 실시 예에 따른 영상에서의 특징점들을 추출하는 방법을 설명하기 위한 도면이다.
도 5는 일 실시 예에 따른 영상에서의 비교 영역들을 설정하는 방법을 설명하기 위한 도면이다.
도 6a는 일 실시 예에 따른 영상에서의 비교 영역들을 설정하는 다른 방법을 설명하기 위한 도면이다.
도 6b는 일 실시 예에 따른 비교 영역들의 휘도값을 비교하는 방법을 설명하기 위한 도면이다.
도 7은 일 실시 예에 따른 외부 광원의 위치를 가이드하는 객체를 설명하기 위한 도면이다.
도 8은 일 실시 예에 따른 영상에 외부 광원의 위치를 가이드하는 객체를 표시하는 제1 방법을 설명하기 위한 도면이다.
도 9는 일 실시 예에 따른 영상의 품질 및 외부 광원의 위치와의 상관 관계를 설명하기 위한 도면이다.
도 10은 일 실시 예에 따른 영상에 외부 광원의 위치를 가이드하는 객체를 표시하는 제2 방법을 설명하기 위한 도면이다.
도 11은 일 실시 예에 따른 영상에 외부 광원의 위치를 가이드하는 객체를 표시하는 제3 방법을 설명하기 위한 도면이다.
도 12는 일 실시 예에 따른 영상에 외부 광원의 위치를 가이드하는 객체를 표시하는 제4 방법을 설명하기 위한 도면이다.
도 13은 일 실시 예에 따른 촬영 대상이 되는 피부 영역의 정렬 상태를 일정하게 유지하도록 가이드하는 객체를 설명하기 위한 도면이다.
도 14는 다양한 실시 예에 따른 네트워크 환경 내의 전자 장치의 블록도이다.
도면의 설명과 관련하여, 동일 또는 유사한 구성요소에 대해서는 동일 또는 유사한 참조 부호가 사용될 수 있다.
이하, 본 발명의 다양한 실시 예가 첨부된 도면을 참조하여 기재된다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 실시 예의 다양한 변경(modification), 균등물(equivalent), 및/또는 대체물(alternative)을 포함하는 것으로 이해되어야 한다.
도 1은 일 실시 예에 따른 영상 처리와 관련한 전자 장치의 블록도이다.
일 실시 예에 따르면, 전자 장치(100)는 카메라(110)를 통해 촬영된 영상을 기반으로 사용자의 신체 일부(예: 얼굴)에 대한 피부 상태를 분석할 수 있다. 예를 들어, 전자 장치(100)는 획득한 영상의 영상학적 특징(예: 영역들의 색상 차)을 이용하여 주름, 색소, 여드름 등의 존재 여부를 판단할 수 있다.
일 실시 예에 따르면, 전자 장치(100)는 피부 분석에 영향을 주는 조도, 그림자, 피부의 색온도, 촬영 대상이 되는 피부 영역의 정렬 상태, 촬영 시의 흔들림(또는 선명도), 또는 노이즈 등과 같은 외부 요인들 중 적어도 일부가 일정하게 유지될 수 있도록 가이드할 수 있다. 한 예로, 전자 장치(100)는 카메라를 통해 촬영된 프리뷰(preview) 영상에 외부 광원의 위치를 표시하고, 외부 광원에 의해 발생되는 그림자의 영향이 최소화될 수 있도록 촬영 구도(예: 카메라와 피사체와의 위치 관계)를 가이드할 수 있다. 또 다른 예로, 전자 장치(100)는 상기 프리뷰 영상에 촬영 대상이 되는 피부 영역의 정렬 상태(예: 얼굴 영역의 크기 및 위치)를 가이드하는 객체를 출력할 수 있다. 이 경우, 사용자가 카메라를 이동시키거나 몸을 움직여 촬영 대상이 되는 피부 영역(예: 얼굴 영역)이 가이드 객체에 정렬되면, 전자 장치(100)는 상기 피부 영역을 촬영하고, 촬영된 영상을 분석할 수 있다. 이에 따라, 피부 분석의 대상이 되는 피부 영역의 크기 및 위치가 일관성을 유지할 수 있어, 피부 상태에 대한 이력 정보가 유기적으로 관리될 수 있다.
상술한 기능을 수행하기 위한 전자 장치(100)는 도 1을 참조하면, 카메라(110), 프로세서(130), 및 디스플레이(150)를 포함할 수 있다. 그러나, 전자 장치(100)의 구성이 이에 한정되는 것은 아니다. 다양한 실시 예에 따르면, 전자 장치(100)는 상술한 구성요소들 외에 적어도 하나의 다른 구성을 더 포함할 수도 있다. 한 예로, 전자 장치(100)는 외부 전자 장치와의 통신을 위한 통신 모듈(또는 통신 회로), 메모리 등을 더 포함할 수도 있다.
통신 모듈을 포함하는 전자 장치(100)는, 영상을 분석을 통해 사용자의 피부 상태가 판단되면, 통신 모듈을 통해 연결된 외부 전자 장치 예컨대, 의료 기관, 미용 업체, 화장품 업체, 또는 쇼핑몰 등과 관계되는 서버 장치로 사용자의 피부 상태에 대한 정보를 전송할 수 있다. 또한, 전자 장치(100)는 상기 외부 전자 장치로부터 사용자의 피부 상태에 따른 피드백 정보 예컨대, 피부 치료, 피부 관리, 화장품, 또는 피부 관련 물품 등에 대한 추천 정보를 수신할 수도 있다.
메모리를 포함하는 전자 장치(100)는, 상기 메모리에 전자 장치(100)의 적어도 하나의 다른 구성요소에 관계된 명령 또는 데이터를 저장할 수 있다. 일 실시 예에 따르면, 상기 메모리는 소프트웨어 및/또는 프로그램을 저장할 수 있다. 예를 들어, 상기 메모리는 카메라(110)를 이용하여 촬영을 지원하는 어플리케이션(예: 카메라 어플리케이션) 등을 저장할 수 있다. 다른 예로, 상기 메모리는 카메라(110)를 통해 촬영된 영상을 저장할 수 있다. 상기 메모리는, 예를 들어, 휘발성 및/또는 비휘발성 메모리를 포함할 수 있다. 일 실시 예에서, 상기 메모리는 상기 촬영된 영상에 대응되는 데이터가 저장되는 프레임 버퍼를 포함할 수 있다. 한 예로, 상기 프레임 버퍼는 카메라(110)를 통해 획득한 프리뷰 영상에 대응되는 데이터가 저장될 수 있다. 이 경우, 상기 데이터는 지정된 영상 포맷(예: YCbCr 포맷)으로 변환되어 상기 프레임 버퍼에 저장될 수 있다. 또한, 순차적으로 획득된 프리뷰 영상들은 지정된 프레임 레이트(frame rate)로 상기 프레임 버퍼에 업데이트될 수 있다.
카메라(110)는 정지 영상 및 동영상을 촬영할 수 있다. 카메라(113)는 촬상 소자를 포함할 수 있다. 상기 촬상 소자는 예를 들어, 피사체의 영상 광을 받아들여 화상으로 결상시키는 렌즈, 상기 렌즈를 통과하는 광의 양을 조절하는 조리개, 상기 렌즈를 통과하는 광에 의해 이미지 센서가 일정 시간 동안 노출되도록 조래개를 여닫는 기능을 하는 셔터(또는 촬영 버튼), 상기 렌즈에 결상된 화상을 광신호로서 수광하는 이미지 센서, 및 내부 메모리 중 적어도 하나를 포함할 수 있다. 상기 내부 메모리는 촬영된 영상을 임시로 저장할 수 있다. 일 실시 예에 따르면, 상기 내부 메모리는 상기 셔터를 조작하기 전, 상기 이미지 센서를 통해 촬상된 영상을 저장할 수 있다.
프로세서(130)는 전자 장치(100)의 적어도 하나의 다른 구성요소들의 제어 및/또는 통신에 관한 연산이나 데이터 처리를 실행할 수 있다. 프로세서(130)는 예를 들어, 운영 체제(operating system(OS)) 또는 임베디드 S/W 프로그램(embedded software program)을 구동하여 프로세서(130)에 연결된 다수의 하드웨어 구성요소들을 제어할 수 있다. 프로세서(130)는 다른 구성요소들(예: 비활성 메모리) 중 적어도 하나로부터 수신된 명령 또는 데이터를 휘발성 메모리에 로드(load)하여 처리하고, 다양한 데이터를 비휘발성 메모리에 저장(store)할 수 있다. 일 실시 예에 따르면, 프로세서(130)는 상기 메모리에 저장된 영상 처리와 관련된 명령 또는 데이터를 휘발성 메모리에 로드하여 지정된 프로그램 루틴(routine)에 따라 처리할 수 있다. 프로세서(130)는 중앙처리장치, 어플리케이션 프로세서, 또는 커뮤니케이션 프로세서 중 하나 또는 그 이상을 포함할 수 있다.
일 실시 예에 따르면, 프로세서(130)는 카메라(110)에 포함된 렌즈, 조리개, 이미지 센서, 셔터, 또는 내부 메모리 등과 전기적으로 연결되어 카메라(110)과 관련된 기능을 제어할 수 있다. 프로세서(130)는 예컨대, 카메라(110)의 자동 초점, 자동 노출, 커스텀 화이트 밸런스, 줌 인, 줌 아웃, 촬영, 연속 촬영, 타이머 촬영, 플래시 온/오프, 또는 필터 등의 기능을 제어할 수 있다.
프로세서(130)는 영상의 획득, 영상의 분석, 또는 가이드 제공 기능 등과 관련하여 각 기능을 수행하는 복수 개의 모듈들을 포함할 수 있다. 상기 모듈들은 예를 들어, 영상 획득 모듈(131), 영상 분석 모듈(133), 외부 광원의 속성 정보 결정 모듈(135), 및 가이드 제공 모듈(137)을 포함할 수 있다.
영상 획득 모듈(131)은 카메라(110)를 통해 촬영된 영상을 획득할 수 있다. 영상 획득 모듈(131)은 촬영된 영상을 카메라(110)에 포함된 내부 메모리 또는 상기 메모리에 저장할 수 있다. 한 예로, 영상 획득 모듈(131)은 촬영된 영상에 대응되는 데이터를 지정된 영상 포맷(예: YCbCr 포맷, Y는 휘도 성분(또는 밝기 성분), Cb와 Cr은 색차(color difference) 성분으로 Cb는 휘도와 청색 성분의 차, Cr은 휘도와 적색 성분의 차를 나타낸다)으로 변환하고, 변환된 데이터를 상기 메모리에 포함된 상기 프레임 버퍼에 저장할 수 있다. 어떤 실시 예에서, 영상 획득 모듈(131)은 상기 셔터가 조작되어 촬상된 촬영 영상에 대응되는 데이터를 상기 내부 메모리에 저장하고, 입력 장치를 통해 지정된 사용자 입력이 발생하거나 또는 설정된 정보에 의해 상기 촬영 영상에 대응되는 데이터를 상기 메모리에 저장할 수도 있다.
일 실시 예에 다르면, 프로세서(130)는 카메라(110)를 통해 촬영된 영상을 디스플레이(150)에 출력할 수 있다. 예를 들어, 프로세서(130)는 상기 내부 메모리에 저장된 영상을 프리뷰(또는 라이브뷰(liveview)) 영상으로서 디스플레이(150)에 출력할 수 있다.
영상 분석 모듈(133)은 영상을 분석할 수 있다. 일 실시 예에 따르면, 영상 분석 모듈(133)은 영상에 포함된 오브젝트를 검출할 수 있다. 한 예로, 영상 분석 모듈(133)은 윤곽선 검출 필터(edge detection filter) 등과 같은 이미지 프로세싱을 기반으로 영상에 포함된 오브젝트에 대한 윤곽선을 추출할 수 있다. 영상 분석 모듈(133)은 윤곽선으로 구분된 영역들을 각각 하나의 오브젝트로 검출할 수 있다. 어떤 실시 예에서, 영상 분석 모듈(133)은 윤곽선의 형상이 기정의된 형상에 대응되는 경우에만 하나의 오브젝트로 검출할 수도 있다. 이와 관련하여, 상기 기정의된 형상은 예를 들어, 사람의 얼굴에 대응되는 오메가 형상이 될 수 있으며, 상기 기정의된 형상과 관련된 정보는 상기 메모리에 저장되어 관리될 수 있다.
일 실시 예에 따르면, 영상 분석 모듈(133)은 검출된 오브젝트를 구분할 수 있다. 영상 분석 모듈(133)은 각 오브젝트 별로 오브젝트의 속성(예: 형상)을 판단하여 오브젝트들을 구분할 수 있다. 예컨대, 영상 분석 모듈(133)은 영상에서 검출된 오브젝트가 사람, 동물, 또는 물체에 대응되는 오브젝트인지를 판단할 수 있으며, 더 나아가 사람의 신체 부위(예: 얼굴), 동물의 종류, 또는 물체의 종류 등을 판단하여 오브젝트들을 구분할 수 있다.
일 실시 예에 따르면, 영상 분석 모듈(133)은 영상에 포함된 오브젝트가 사용자의 얼굴에 대응되는 오브젝트로 판별되면, 상기 오브젝트에서 특징점들을 추출할 수 있다. 상기 특징점은 오브젝트에서 특정 영역(예: 얼굴의 부위)을 검출, 추적, 또는 인식하기 위해 상기 영역의 특징을 나타내 줄 수 있는 지점으로서, 상기 영상에서 각 영역의 형태, 크기, 또는 위치가 변해도 쉽게 식별 가능한 지점을 포함할 수 있다. 또한, 상기 특징점은 카메라(110)의 촬영 각도 또는 외부 광원(예: 조명 등)이 변해도 상기 영상에서 쉽게 식별 가능한 지점을 포함할 수 있다. 상기 특징점은 예를 들어, 각 영역의 코너점(corner point) 또는 경계점으로 설정될 수 있다. 상기 오브젝트에서 특징점들이 추출되면, 추출된 특징점들을 기반으로, 프로세서(130)는 얼굴의 부위 예컨대, 볼(cheek), 인중(philtrum), 또는 콧등(bridge of the nose)에 대응되는 영역을 검출할 수 있다.
일 실시 예에 따르면, 영상 분석 모듈(133)은 사용자의 신체 일부(예: 얼굴)에 대응되는 오브젝트에서 비교 영역들을 설정할 수 있다. 한 예로, 영상 분석 모듈(133)은 사용자의 얼굴에 대응되는 오브젝트에서 좌우 대칭이 되는 좌측 영역(예: 좌측 볼 영역 또는 좌측 광대 영역) 및 우측 영역(예: 우측 볼 영역 또는 우측 광대 영역)을 비교 영역들로 설정할 수 있다. 또 다른 예로, 영상 분석 모듈(133)은 사용자의 얼굴에 대응되는 오브젝트에서 그림자의 영향을 가장 적게 받을 수 있는 영역(예: 콧등 영역) 및 그림자의 영향을 가장 많이 받을 수 있는 영역(예: 인중 영역)을 비교 영역들로 설정할 수 있다. 상기 그림자의 영향을 가장 적게 받을 수 있는 영역은 예컨대, 얼굴 영역 중 외부로 돌출된 길이가 가장 큰 영역을 포함할 수 있고, 상기 그림자의 영향을 가장 많이 받을 수 있는 영역은 예컨대, 얼굴 영역 중 외부로 돌출된 길이가 가장 작은 영역(또는 내부로 함몰된 길이가 가장 큰 영역)을 포함할 수 있다.
일 실시 예에 따르면, 영상 분석 모듈(133)은 설정된 비교 영역들에 대한 휘도값(또는 밝기값)을 산출할 수 있다. 한 예로, 영상 분석 모듈(133)은 지정된 영상 포맷(예: YCbCr 포맷)으로 변환되어 상기 프레임 버퍼에 저장된 데이터에서 상기 비교 영역들에 각각 대응되는 데이터의 휘도 성분(예: Y 값)을 추출할 수 있다.
외부 광원의 속성 정보 결정 모듈(135)은 상기 비교 영역들 각각에 대한 휘도값을 이용하여, 외부 광원의 속성 정보를 결정할 수 있다. 상기 외부 광원의 속성 정보는 외부 광원의 위치(예: 외부 광원과 피사체와의 위치 관계) 또는 외부 광원의 종류(예: 외부 광원의 밝기에 따른 분류) 등에 대한 정보를 포함할 수 있다. 한 예로, 외부 광원의 속성 정보 결정 모듈(135)은 상기 비교 영역들에 대한 휘도값들을 비교하고, 상기 휘도값들의 차이값을 이용하여 외부 광원의 위치를 판단할 수 있다. 이와 관련하여, 휘도값들을 이용하여 외부 광원의 위치를 판단하는 방법은 도 5, 도 6a, 및 도 6b에서 자세히 설명하도록 한다.
가이드 제공 모듈(137)은 외부 광원의 속성 정보가 결정되면, 외부 광원의 속성 정보를 포함하는 객체를 생성하고, 생성된 객체를 디스플레이(150)에 출력할 수 있다. 한 예로, 가이드 제공 모듈(137)은 외부 광원의 위치 정보를 이용하여 상기 객체를 생성하고, 생성된 객체를 디스플레이(150)에 출력할 수 있다. 외부 광원의 위치 정보를 이용하여 생성되는 객체는 카메라(110)를 통해 촬영되는 피사체와 외부 광원과의 위치 관계를 나타내는 정보를 포함할 수 있다.
일 실시 예에 따르면, 가이드 제공 모듈(137)은 외부 광원의 위치 정보를 이용하여 생성된 객체를 디스플레이(150)에 출력하면서, 외부 광원에 의해 발생되는 그림자의 영향이 최소화될 수 있도록 촬영 구도(또는 촬영 방향)를 가이드하는 객체를 디스플레이(150)에 출력할 수 있다. 한 예로, 가이드 제공 모듈(137)은 외부 광원이 피사체(예: 사용자의 안면)에 대하여 전방(피사체가 카메라(110)를 바라보는 방향) 좌측에 위치한 경우, 피사체의 우측 영역에 그림자가 생길 수 있기 때문에 사용자로 하여금 몸을 좌측 방향으로 돌리도록 가이드하는 객체를 디스플레이(150)에 출력할 수 있다. 이에 따라, 사용자가 몸을 좌측 방향으로 돌려 외부 광원이 피사체의 전방 중앙에 위치하게 되면, 외부 광원으로부터 발산된 광이 피사체의 전면에 골고루 조사되어 그림자의 영향이 최소화될 수 있다. 다른 예로, 가이드 제공 모듈(137)은 외부 광원이 피사체에 대하여 전방 우측에 위치한 경우, 피사체의 좌측 영역에 그림자가 생길 수 있기 때문에 사용자로 하여금 몸을 우측 방향으로 돌리도록 가이드하는 객체를 디스플레이(150)에 출력할 수 있다. 또 다른 예로, 가이드 제공 모듈(137)은 외부 광원이 피사체에 대하여 후방에 위치한 경우(역광의 경우), 피사체의 전면 전체 영역에 그림자가 생길 수 있기 때문에 사용자로 하여금 몸을 뒤로 돌리도록 가이드하는 객체를 디스플레이(150)에 출력할 수 있다. 결과적으로 보면, 가이드 제공 모듈(137)은 외부 광원으로부터 발산된 광이 피사체의 전면에 골고루 조사될 수 있도록 피사체의 전면이 외부 광원을 바라보는 방향으로 피사체의 움직임을 가이드하는 객체를 디스플레이(150)에 출력할 수 있다.
일 실시 예에 따르면, 가이드 제공 모듈(137)은 카메라(110)를 통해 촬영되는 피사체의 정렬 상태(예: 사용자의 안면에 대응되는 객체의 크기 및 위치)를 가이드하는 객체를 디스플레이(150)에 출력할 수 있다. 예컨대, 가이드 제공 모듈(137)은 카메라(110)의 촬상 영역 중 지정된 영역에 피사체가 위치하도록 피사체의 움직임을 가이드하는 객체(예: 피팅(fitting) 가이드 객체)를 디스플레이(150)에 출력할 수 있다.
일 실시 예에 따르면, 프로세서(130)는 카메라(110)의 촬상 영역 중 지정된 영역에 피사체가 위치하는 경우, 사용자의 입력(예: 셔터를 누르는 입력) 또는 설정된 값(예: 자동 촬영으로 설정된 값)에 따라, 촬영 기능을 수행할 수 있다. 예컨대, 프로세서(130)는 피사체가 상기 지정된 영역에 맞춰지면(정렬되면) 카메라(110)가 피사체를 촬영할 수 있도록 카메라(110)를 제어할 수 있다.
일 실시 예에 따르면, 프로세서(130)는 카메라(110)를 통해 피사체가 촬영되면, 촬영된 영상을 기반으로 피사체에 대한 피부 분석을 수행할 수 있다. 한 예로, 프로세서(130)는 피사체에서의 흡광 정도에 따라 영상의 각 픽셀에서 상이하게 나타나는 색상을 기반으로 피사체의 피부 상태를 판단할 수 있다.
디스플레이(150)는 사용자에게 각종 컨텐츠(예: 텍스트, 이미지, 오디오, 비디오, 아이콘, 및/또는 심볼 등)를 표시할 수 있다. 일 실시 예에 따르면, 디스플레이(150)는 카메라(110)를 통해 촬영된 영상을 출력할 수 있다. 상기 촬영된 영상은 카메라(110)의 셔터가 조작되기 전에 획득한 프리뷰 영상 또는 상기 셔터가 조작된 후에 획득한 촬영 영상을 포함할 수 있다. 디스플레이(150)는 예를 들면, 액정 디스플레이(LCD), 발광 다이오드(LED) 디스플레이, 유기 발광 다이오드(OLED) 디스플레이, 또는 마이크로 전자기계 시스템(MEMS) 디스플레이, 또는 전자종이(electronic paper) 디스플레이를 포함할 수 있다. 일 실시 예에 따르면, 디스플레이(150)는 터치 스크린을 포함할 수 있으며, 예를 들면, 전자 펜 또는 사용자의 신체의 일부를 이용한 터치, 제스쳐, 근접, 또는 호버링 입력을 수신할 수 있다.
상술한 바와 같이, 다양한 실시 예에 따르면, 전자 장치(예: 전자 장치(100))는 카메라(예: 카메라(110)), 디스플레이(예: 디스플레이(150)), 및 프로세서(예: 프로세서(130))를 포함하고, 상기 프로세서는 상기 카메라를 이용하여 하나 이상의 외부 객체들에 대한 이미지를 획득하고, 상기 이미지에 포함된 상기 하나 이상의 외부 객체들 중 얼굴에 대응하는 관심 객체를 확인하고, 상기 관심 객체를 확인하는 동작은 상기 관심 객체에 대해 상기 얼굴에 대한 인식과 관련된 제1 영역 및 제2 영역을 결정하는 동작을 포함하고, 상기 제1 영역에 대한 제1 밝기 값 및 상기 제2 영역에 대한 제2 밝기 값을 확인하고, 상기 제1 밝기 값 및 상기 제2 밝기 값에 적어도 기반하여, 상기 관심 객체에 대한 외부 광원의 속성 정보를 결정하고, 및 상기 디스플레이를 통해, 상기 속성 정보에 대응하는 가이드 정보를 상기 관심 객체와 관련하여 제공하도록 설정될 수 있다.
다양한 실시 예에 따르면, 상기 프로세서는 상기 제1 밝기 값과 상기 제2 밝기 값의 차이 값이 지정된 조건을 만족하면, 상기 관심 객체에 대한 다른 이미지를 획득하도록 설정될 수 있다.
다양한 실시 예에 따르면, 상기 프로세서는 상기 다른 이미지를 획득하기 이전에, 상기 다른 이미지를 획득하는 동작과 관련하여 상기 관심 객체의 크기에 대한 기준을 나타내는 제1 표시자 및 상기 관심 객체의 크기에 따라 변화될 수 있는 제2 표시자를 상기 디스플레이를 통해 제공하도록 설정될 수 있다.
다양한 실시 예에 따르면, 상기 프로세서는 상기 제1 표시자와 상기 제2 표시자의 크기가 실질적으로 동일한 조건을 만족하는 결정에 더 기반하여, 상기 다른 이미지를 획득하는 동작을 수행하도록 설정될 수 있다.
다양한 실시 예에 따르면, 상기 프로세서는 상기 가이드 정보의 적어도 일부로, 상기 외부 광원의 위치 정보를 포함하도록 설정될 수 있다.
다양한 실시 예에 따르면, 상기 프로세서는 상기 가이드 정보의 적어도 일부로, 상기 외부 광원이 상기 관심 객체에 대하여 지정된 방향에 위치할 수 있는 촬영 방향을 유도하기 위한 정보를 더 포함하도록 설정될 수 있다.
다양한 실시 예에 따르면, 상기 전자 장치는 메모리를 더 포함하고, 상기 프로세서는 상기 이미지를 획득하는 동작의 적어도 일부로, 상기 이미지에 대응하는 데이터를 지정된 영상 포맷으로 변환하여 상기 메모리에 저장하도록 설정될 수 있다.
다양한 실시 예에 따르면, 상기 프로세서는 상기 지정된 영상 포맷의 적어도 일부로 상기 이미지에 대응하는 밝기 정보를 포함하도록 설정될 수 있다.
다양한 실시 예에 따르면, 상기 프로세서는 상기 밝기 정보에 적어도 기반하여, 상기 제1 밝기 값 및 상기 제2 밝기 값을 확인하도록 설정될 수 있다.
상술한 바와 같이, 다양한 실시 예에 따르면, 전자 장치(예: 전자 장치(100))는 카메라(예: 카메라(110)), 디스플레이(예: 디스플레이(150)), 및 프로세서(예: 프로세서(130))를 포함하고, 상기 프로세서는 상기 카메라를 통해 촬영된 영상을 획득하고, 상기 영상에서 얼굴에 대응되는 관심 객체를 판단하고, 상기 관심 객체 내에서 제1 비교 영역 및 제2 비교 영역을 결정하고, 상기 제1 비교 영역에 대응하는 제1 휘도값 및 상기 제2 비교 영역에 대응하는 제2 휘도값을 산출하고, 상기 제1 휘도값 및 상기 제2 휘도값의 차이에 적어도 기반하여 외부 광원의 위치를 결정하고, 상기 위치에 대응하는 가이드 정보를 상기 관심 객체와 관련하여 상기 디스플레이에 표시하도록 설정될 수 있다.
다양한 실시 예에 따르면, 상기 전자 장치는 메모리를 더 포함하고, 상기 프로세서는, 상기 영상을 획득하는 동작의 적어도 일부로, 상기 영상에 대응되는 데이터를 지정된 영상 포맷으로 변환하여 상기 메모리에 저장하도록 설정될 수 있다.
다양한 실시 예에 따르면, 상기 프로세서는 상기 지정된 영상 포맷의 적어도 일부로, 상기 영상에 대응하는 휘도 정보를 포함하도록 설정될 수 있다.
다양한 실시 예에 따르면, 상기 프로세서는 상기 휘도 정보에 적어도 기반하여, 상기 제1 휘도값 및 상기 제2 휘도값을 산출하도록 설정될 수 있다.
다양한 실시 예에 따르면, 상기 프로세서는 상기 관심 객체 내에서 지정된 영역을 상기 제1 비교 영역으로 결정하고, 상기 지정된 영역에 대칭되는 다른 지정된 영역을 상기 제2 비교 영역으로 결정하도록 설정될 수 있다.
다양한 실시 예에 따르면, 상기 프로세서는 상기 관심 객체 내에서 외부로 돌출된 길이가 가장 큰 영역을 상기 제1 비교 영역으로 결정하고, 상기 관심 객체 내에서 외부로 돌출된 길이가 가장 작은 영역을 상기 제2 비교 영역으로 결정하도록 설정될 수 있다.
다양한 실시 예에 따르면, 상기 프로세서는 상기 가이드 정보의 적어도 일부로, 상기 외부 광원이 상기 관심 객체에 대하여 지정된 방향에 위치할 수 있는 촬영 방향을 유도하기 위한 정보를 포함하도록 설정될 수 있다.
다양한 실시 예에 따르면, 상기 프로세서는 상기 관심 객체가 지정된 영역에 정렬된 상태와 관련된 다른 가이드 정보를 상기 디스플레이를 통해 표시하도록 설정될 수 있다.
도 2는 일 실시 예에 따른 가이드 제공과 관련한 전자 장치의 운용 방법을 나타낸 도면이다.
도 2를 참조하면, 전자 장치(예: 전자 장치(100))의 프로세서(예: 프로세서(130))는 동작 210에서, 카메라(예: 카메라(110))를 이용하여 하나 이상의 외부 객체(오브젝트)들에 대한 영상(이미지)을 획득할 수 있다. 예컨대, 상기 프로세서는 상기 카메라를 이용하여 피사체(예: 사용자의 얼굴)를 촬영한 영상(이미지)을 획득할 수 있다. 일 실시 예에 따르면, 상기 프로세서는 셔터가 조작되기 전에 상기 카메라를 통해 프리뷰 영상을 획득할 수 있다. 일 실시 예에 따르면, 상기 프로세서는 획득된 영상에 대응되는 데이터를 지정된 영상 포맷(예: YCbCr 포맷)으로 변환하고, 변환된 데이터를 프레임 버퍼에 저장할 수 있다.
동작 230에서, 상기 프로세서는 상기 영상에 포함된 상기 하나 이상의 외부 객체들 중 사용자의 얼굴에 대응하는 관심 객체를 확인할 수 있다. 한 예로, 상기 프로세서는 획득된 영상에서 특징점을 추출할 수 있다. 일 실시 예에 따르면, 상기 프로세서는 영상에 포함된 오브젝트를 검출하기 위해 영상에서 특징점들을 추출하고, 상기 특징점들 중 인접한 특징점들로 구성된 형상(예: 오메가 형상)을 하나의 오브젝트(예: 얼굴)로 검출할 수 있다. 이와 관련하여, 상기 특징점은 상기 영상에서의 코너점 또는 경계점이 될 수 있다. 또한, 상기 프로세서는 얼굴 영역을 검출할 수 있다. 일 실시 예에 따르면, 상기 프로세서는 상기 특징점들을 이용하여 상기 영상에 포함된 오브젝트를 검출하고, 검출된 오브젝트가 얼굴에 대응되는지를 판단할 수 있다. 이 경우, 상기 프로세서는 메모리에 저장된 기정의된 형상과 관련된 정보를 이용하여 검출된 오브젝트가 얼굴에 대응되는지를 판단할 수 있다. 예를 들어, 상기 프로세서는 상기 메모리에 저장된 얼굴 형상(예: 오메가 형상)과 관련된 정보를 이용하여 검출된 오브젝트가 얼굴에 대응되는지를 판단할 수 있다. 검출된 오브젝트가 얼굴에 대응된다고 판단되면, 상기 프로세서는 상기 검출된 오브젝트가 상기 영상에서 차지하는 영역을 얼굴 영역으로 검출(또는 판단)할 수 있다. 상기 얼굴 영역을 검출(또는 판단)함으로써, 상기 프로세서는 상기 얼굴 영역에 대응하는 관심 객체를 확인할 수 있다.
일 실시 예에서, 상기 프로세서는 상기 관심 객체를 확인하는 동작 시에, 상기 관심 객체에 대해 상기 얼굴에 대한 인식과 관련된 제1 영역 및 제2 영역을 결정할 수 있다. 상기 제1 영역 및 상기 제2 영역은, 비교 영역으로 사용될 수 있다. 일 실시 예에서, 상기 프로세서는 상기 얼굴 영역 중 좌우 대칭이 되는 좌측 영역(예: 좌측 볼 영역 또는 좌측 광대 영역) 및 우측 영역(예: 우측 볼 영역 또는 우측 광대 영역)을 비교 영역들로 설정할 수 있다. 예컨대, 상기 프로세서는 상기 좌측 영역을 상기 제1 영역으로 결정하고, 상기 우측 영역을 상기 제2 영역으로 결정할 수 있다. 다른 예로, 상기 프로세서는 상기 얼굴 영역 중 그림자의 영향을 가장 적게 받을 수 있는 영역(예: 콧등 영역) 및 그림자의 영향을 가장 많이 받을 수 있는 영역(예: 인중 영역)을 비교 영역들로 설정할 수 있다. 예컨대, 상기 프로세서는 상기 얼굴 영역에서 외부로 돌출된 길이가 가장 큰 영역을 상기 제1 영역으로 결정하고, 상기 얼굴 영역에서 외부로 돌출된 길이가 가장 작은 영역을 상기 제2 영역으로 결정할 수 있다. 이와 관련하여, 상기 비교 영역들은 외부 광원의 속성 정보를 판단할 수 있는 기준 영역이 될 수 있다.
동작 250에서, 상기 프로세서는 상기 비교 영역들에 대한 휘도값(밝기 값)을 확인할 수 있다. 일 실시 예에 따르면, 상기 프로세서는 지정된 영상 포맷(예: YCbCr 포맷)으로 변환되어 상기 프레임 버퍼에 저장된 데이터에서 상기 비교 영역들 각각에 대응되는 데이터의 휘도 성분(예: Y 값)들을 추출할 수 있다.
동작 270에서, 상기 프로세서는 상기 비교 영역들 각각에 대한 휘도값을 이용하여 외부 광원의 속성 정보를 결정할 수 있다. 일 실시 예에 따르면, 상기 프로세서는 상기 비교 영역들에 대한 휘도값들을 비교하고, 상기 휘도값들의 차이값을 이용하여 외부 광원의 위치를 판단할 수 있다. 어떤 실시 예에서, 상기 프로세서는 상기 휘도값들을 이용하여 외부 광원의 종류 또는 외부 광원의 개수 등을 판단할 수도 있다. 한 예로, 상기 프로세서는 상기 휘도값들의 크기에 기반한 외부 광원의 밝기에 따른 분류를 통해 외부 광원의 종류를 판단할 수 있다. 또 다른 예로, 상기 프로세서는 상기 휘도값들을 이용하여 그림자 영역을 판단하고, 상기 그림자 영역의 개수, 상기 그림자 영역의 어두운 정도(density), 또는 상기 그림자 영역이 치우친 방향 등에 기반하여 외부 광원의 개수를 판단할 수 있다.
동작 290에서, 상기 프로세서는 가이드 정보를 제공할 수 있다. 일 실시 예에 따르면, 상기 프로세서는 상기 외부 광원의 속성 정보를 포함하는 객체를 생성하고, 생성된 객체를 디스플레이(예: 디스플레이(150))에 출력할 수 있다. 한 예로, 상기 프로세서는 상기 외부 광원의 위치 정보를 이용하여 상기 객체를 생성하고, 생성된 객체를 상기 디스플레이에 출력할 수 있다. 다른 예로, 상기 프로세서는 상기 외부 광원에 의해 발생되는 그림자의 영향이 최소화될 수 있도록(그림자 영역의 면적이 최소화되도록) 촬영 구도(또는 촬영 방향)를 가이드하는 객체를 상기 디스플레이에 출력할 수 있다. 예컨대, 상기 프로세서는 상기 외부 광원의 위치 정보를 통해 상기 외부 광원의 편향 정도를 판단하고, 상기 외부 광원이 얼굴에 대하여 지정된 방향(예: 전방 중앙)에 위치할 수 있도록 가이드하는 객체를 상기 디스플레이에 출력할 수 있다.
도 3은 일 실시 예에 따른 촬영 기능 수행과 관련한 전자 장치의 운용 방법을 나타낸 도면이다.
도 3을 참조하면, 전자 장치(예: 전자 장치(100))의 프로세서(예: 프로세서(130))는 동작 310에서, 가이드 정보를 제공할 수 있다. 일 실시 예에 따르면, 상기 프로세서는 도 2의 동작 290에서와 동일 또는 유사하게 가이드 정보를 제공할 수 있다. 예컨대, 상기 프로세서는 외부 광원의 속성 정보를 포함하는 객체를 생성하고, 생성된 객체를 디스플레이(예: 디스플레이(150))에 출력할 수 있다. 이 경우, 사용자는 제공된 가이드 정보에 따라, 외부 광원이 얼굴에 대하여 지정된 방향(예: 전방 중앙)에 위치할 수 있도록 얼굴 및/또는 카메라(예: 카메라(110))를 돌릴 수 있다.
동작 330에서, 상기 프로세서는 카메라(예: 카메라(110))를 통해 피사체(예: 사용자의 얼굴)를 촬영한 영상을 획득할 수 있다. 일 실시 예에 따르면, 상기 프로세서는 도 2의 동작 210에서와 동일 또는 유사하게 영상을 획득할 수 있다. 예컨대, 상기 프로세서는 셔터가 조작되기 전에 상기 카메라를 통해 프리뷰 영상을 획득할 수 있다. 또한, 상기 프로세서는 획득된 영상에 대응되는 데이터를 지정된 영상 포맷(예: YCbCr 포맷)으로 변환하고, 변환된 데이터를 프레임 버퍼에 저장할 수 있다.
프리뷰 영상을 획득하면, 상기 프로세서는 도 2의 동작 230에서와 동일 또는 유사하게 획득한 프리뷰 영상에서 사용자의 얼굴에 대응하는 관심 객체를 확인할 수 있다. 한 예로, 상기 프로세서는 상기 프리뷰 영상에서 특징점들을 추출하고, 추출된 특징점들을 이용하여 상기 프리뷰 영상에 포함된 오브젝트를 검출하고, 검출된 오브젝트가 얼굴에 대응되는지를 판단하고, 검출된 오브젝트가 얼굴에 대응된다고 판단되면, 상기 검출된 오브젝트가 상기 프리뷰 영상에서 차지하는 영역을 얼굴 영역으로 판단할 수 있다. 또한, 상기 프로세서는 상기 얼굴 영역 중 일부를 비교 영역들로 설정할 수 있다.
동작 350에서, 상기 프로세서는 비교 영역들에 대한 휘도값을 산출할 수 있다. 일 실시 예에 따르면, 상기 프로세서는 도 2의 동작 250에서와 동일 또는 유사하게 비교 영역들에 대한 휘도값을 확인할 수 있다. 예컨대, 상기 프로세서는 지정된 영상 포맷(예: YCbCr 포맷)으로 변환되어 상기 프레임 버퍼에 저장된 데이터에서 상기 비교 영역들 각각에 대응되는 데이터의 휘도 성분(예: Y 값)들을 추출하고, 추출된 휘도 성분을 비교할 수 있다.
동작 370에서, 상기 프로세서는 상기 휘도값들의 비교 결과가 지정된 조건을 만족하는지를 판단할 수 있다. 일 실시 예에 따르면, 상기 프로세서는 상기 휘도값들의 차이값이 지정된 크기의 범위 내에 포함되는지를 판단할 수 있다. 이와 관련하여, 상기 지정된 크기의 범위는 외부 광원이 얼굴에 대하여 지정된 방향(예: 전방 중앙)에 위치한 상태에 대응되는 범위를 나타낼 수 있다.
일 실시 예에 따르면, 상기 휘도값들의 비교 결과가 지정된 조건을 만족하는 경우, 동작 390에서, 상기 프로세서는 촬영 기능을 수행할 수 있다. 예컨대, 상기 프로세서는 상기 카메라가 피사체를 촬영할 수 있도록 상기 카메라를 제어할 수 있다. 어떤 실시 예에서, 상기 프로세서는 상기 카메라를 통해 촬영되는 피사체의 정렬 상태(예: 사용자의 얼굴에 대응되는 객체의 크기 및 위치)를 가이드하는 객체를 상기 디스플레이에 출력하고, 상기 카메라의 촬상 영역 중 지정된 영역에 피사체가 위치하게 되면, 촬영 기능을 수행할 수도 있다. 예컨대, 상기 프로세서는 상기 외부 광원이 얼굴에 대하여 지정된 방향(예: 전방 중앙)에 위치하더라도, 얼굴에 대응되는 객체가 상기 카메라의 촬상 영역 중 지정된 영역에 위치하지 않으면, 촬영 기능을 수행하지 않다가, 제공된 가이드 정보에 따라 사용자가 얼굴을 움직여 얼굴에 대응되는 객체가 비로소 상기 카메라의 촬상 영역 중 지정된 영역에 위치하게 되면, 촬영 기능을 수행할 수도 있다.
일 실시 예에 따르면, 상기 휘도값들의 비교 결과가 지정된 조건을 만족하지 않는 경우, 상기 프로세서는 동작 310으로 리턴할 수 있다. 일 실시 예에 따르면, 상기 프로세서는 비교 영역들에 대한 휘도값들의 비교 결과가 지정된 조건을 만족할 때까지, 동작 310 내지 동작 370을 반복 수행할 수 있다. 예를 들어, 상기 프로세서는 외부 광원이 얼굴에 대하여 지정된 방향(예: 전방 중앙)에 위치할 때까지 외부 광원의 위치 정보를 포함하는 객체 및/또는 촬영 구도를 가이드하는 객체를 제공할 수 있다.
도 4는 일 실시 예에 따른 영상에서의 특징점들을 추출하는 방법을 설명하기 위한 도면이다.
도 4를 참조하면, 전자 장치(예: 전자 장치(100))의 프로세서(예: 프로세서(130))는 영상(400)(예: 프리뷰 영상)에서 특징점(411)들을 추출할 수 있다. 일 실시 예에 따르면, 상기 프로세서는 영상(400)에 포함된 오브젝트(예: 얼굴에 대응되는 객체)를 검출하기 위해 영상에서 특징점(411)들을 추출할 수 있다. 상기 특징점(411)은 상기 영상(400)에서 특정 영역의 코너점 또는 경계점을 포함할 수 있다.
일 실시 예에 따르면, 상기 프로세서는 상기 특징점(411)들 중 인접한 특징점(411)들 예컨대, 지정된 크기 미만의 이격 거리에 위치한 특징점(411)들을 가상의 선(410)으로 서로 연결했을 때, 상기 가상의 선(410)의 모양이 얼굴의 형태에 대응되는 경우, 상기 가상의 선(410) 내측의 영역을 얼굴 영역으로 판단할 수 있다.
일 실시 예에 따르면, 상기 프로세서는 사용자의 각 얼굴 부위가 차지하는 영역의 코너점 또는 경계점을 특징점(411)으로 추출할 수 있다. 예컨대, 상기 프로세서는 사용자의 눈썹, 눈, 콧등, 인중, 입술, 또는 턱 부위가 차지하는 영역의 코너점 또는 경계점을 특징점(411)으로 추출할 수 있다.
도 5는 일 실시 예에 따른 영상에서의 비교 영역들을 설정하는 방법을 설명하기 위한 도면이다.
도 5를 참조하면, 전자 장치(예: 전자 장치(100))의 프로세서(예: 프로세서(130))는 피부 분석을 위한 촬영 시에, 얼굴 영역에 그림자가 생길 경우, 그림자가 생긴 영역에 대해서는 영상(500)을 제대로 분석하지 못할 수 있다. 예컨대, 상기 프로세서가 피부 분석 알고리즘을 이용하여 영상(500)을 분석할 때, 그림자가 생기지 않은 상태로 촬영된 얼굴의 피부 상태와 그림자가 생긴 상태로 촬영된 얼굴의 피부 상태의 차이를 판단하기 어려울 수 있다. 이에 따라, 상기 프로세서는 얼굴 영역에 그림자가 생기지 않는 상태로 촬영될 수 있도록 가이드 정보를 제공할 수 있다.
그림자가 생기는 형태는 예를 들어, 외부 광원이 얼굴의 전방 중앙에서 좌우측으로 편향되는 경우에 발생되는 측면 그림자, 및 외부 광원이 얼굴의 특정 지점(예: 코끝)을 중심으로 상하측으로 편향되는 경우에 발생되는 상하 그림자를 포함할 수 있다.
일 실시 예에 따르면, 상기 프로세서는 상기 측면 그림자의 영향을 판단할 수 있도록, 얼굴 영역 중 좌우 대칭이 되는 영역들을 비교 영역들로 설정할 수 있다. 도 5에서는, 상기 프로세서가 상기 비교 영역들로 좌측 광대 영역(510) 및 우측 광대 영역(530)을 설정한 상태를 나타낸다. 이 경우, 상기 프로세서는 영상(500)의 좌측 광대 영역(510)에 대응되는 데이터에서 제1 휘도 성분을 추출하고, 우측 광대 영역(530)에 대응되는 데이터에서 제2 휘도 성분을 추출할 수 있다. 또한, 상기 프로세서는 상기 제1 휘도 성분과 상기 제2 휘도 성분의 차이값을 산출하고, 상기 차이값이 지정된 크기의 범위 내에 포함되면, 상기 외부 광원이 얼굴에 대하여 전방 중앙에 위치한 상태 즉, 상기 측면 그림자의 영향이 최소화된 상태라고 판단할 수 있다.
도 6a는 일 실시 예에 따른 영상에서의 비교 영역들을 설정하는 다른 방법을 설명하기 위한 도면이고, 도 6b는 일 실시 예에 따른 비교 영역들의 휘도값을 비교하는 방법을 설명하기 위한 도면이다.
도 6a 및 도 6b를 참조하면, 전자 장치(예: 전자 장치(100))의 프로세서(예: 프로세서(130))는 도 5에서와 같이, 측면 그림자의 영향을 판단하기 위해 얼굴 영역 중 좌우 대칭이 되는 영역들(예: 좌측 광대 영역(510) 및 우측 광대 영역(530))을 비교 영역들로 설정할 수도 있지만, 도 6a에서와 같이, 측면 그림자의 영향 및 상하 그림자의 영향을 모두 판단하기 위해 얼굴 영역 중 좌우 대칭이 되는 좌측 영역(610)(예: 좌측 볼 영역과 좌측 광대 영역을 포함하는 영역)과 우측 영역(630)(예: 우측 볼 영역과 우측 광대 영역을 포함하는 영역), 및 그림자가 잘 생기지 않는 콧등 영역(650)과 그림자가 잘 생기는 인중 영역(670)을 비교 영역들로 설정할 수도 있다. 그러나, 비교 영역들로 설정되는 영역은 이에 한정되는 것은 아니다. 어떤 실시 예에서, 상기 프로세서는 상기 상하 그림자의 영향을 판단하기 위해 얼굴 영역 중 콧등과 인중을 지나는 가상의 세로선상의 임의의 영역들로 설정할 수도 있다.
도 6b에 도시된 수식들은 비교 영역들에 대한 휘도값을 비교하는 수식이다. 제1 수식(601)은 상기 측면 그림자의 영향을 판단하기 위한 수식이고, 제2 수식(603)은 상기 상하 그림자의 영향을 판단하기 위한 수식이다.
제1 수식(601)을 보면, 상기 프로세서는 좌측 영역(610)에 대응되는 데이터에서 추출된 제1 휘도 성분(YL)과 우측 영역(630)에 대응되는 데이터에서 추출된 제2 휘도 성분(YR)의 차이값(diff(YL, YR))을 산출하고, 산출된 차이값을 제1 휘도 성분과 제2 휘도 성분 중 작은 값(min(YL, YR))으로 나눠 제1 비교값(Delta1)을 산출할 수 있다.
제2 수식(603)을 보면, 상기 프로세서는 콧등 영역(650)에 대응되는 데이터에서 추출된 제3 휘도 성분(YN)과 인중 영역(670)에 대응되는 데이터에서 추출된 제4 휘도 성분(YP)의 차이값(diff(YN, YP))을 산출하고, 산출된 차이값을 제4 휘도 성분으로 나눠 제2 비교값(Delta2)을 산출할 수 있다. 제2 수식(603)의 경우, 제4 휘도 성분으로 나누는 이유는 제4 휘도 성분이 일반적으로 제3 휘도 성분보다 작기 때문이다.
일 실시 예에 따르면, 상기 프로세서는 상기 제1 휘도 성분, 상기 제2 휘도 성분, 상기 제3 휘도 성분, 및 상기 제4 휘도 성분을 각각 얼굴의 좌측 영역(610), 우측 영역(630), 콧등 영역(650), 및 인중 영역(670)에 대하여 휘도값의 평균치로 산출할 수도 있다.
일 실시 예에 따르면, 상기 프로세서는 상기 제1 비교값 및 상기 제2 비교값이 지정된 값(예: 제로 값)에 가까울수록 외부 광원에 의한 그림자의 영향이 최소화된 상태라고 판단할 수 있다.
도 7은 일 실시 예에 따른 외부 광원의 위치를 가이드하는 객체를 설명하기 위한 도면이다.
도 7을 참조하면, 전자 장치(예: 전자 장치(100))의 프로세서(예: 프로세서(130))는 외부 광원의 위치를 가이드하는 객체를 생성할 수 있다. 상기 객체는 도 6b에서 산출된 휘도 성분의 비교값(예: Delta1 또는 Delta2)을 기반으로 생성될 수 있다.
일 실시 예에 따르면, 상기 객체는 세로축(711)과 가로축(713)을 포함할 수 있다. 세로축(711)은 얼굴 영역 중 콧등과 인중을 지나는 가상의 세로선에 대응될 수 있고, 가로축(713)은 얼굴 영역 중 좌우 대칭이 되는 영역들의 중심점을 지나는 가상의 가로선에 대응될 수 있다. 또한, 세로축(711)과 가로축(713)이 만나는 제1 중심점(715)은 상기 세로선과 상기 가로선이 만나는 지점에 대응될 수 있다.
일 실시 예에 따르면, 상기 객체는 상기 비교값이 가질 수 있는 크기의 범위를 나타내는 제1 원(710)을 포함할 수 있다. 예컨대, 제1 원(710)의 제1 중심점(715)은 세로축(711)과 가로축(713)이 만나는 지점에 대응되고, 제1 원(710)의 반경은 상기 비교값의 절대값에 대응될 수 있다. 즉, 상기 비교값이 -1 내지 +1의 범위 내의 임의의 값이 될 수 있기 때문에, 상기 제1 원(710)의 반경은 1이 될 수 있다.
일 실시 예에 따르면, 상기 객체는 외부 광원의 위치 정보를 나타내는 제2 원(730)을 포함할 수 있다. 예컨대, 제2 원(730)의 제2 중심점(731)은 도 6b의 제1 수식(601) 및 제2 수식(603)을 통해 각각 산출된 제1 비교값(Delta1) 및 제2 비교값(Delta2)에 대응될 수 있다. 예컨대, 제2 중심점(731)의 가로축 좌표값(d1)(751)은 외부 광원의 좌우 편향 정도를 나타내는 제1 비교값에 대응되고, 제2 중심점(731)의 세로축 좌표값(d2)(753)은 외부 광원의 상하 편향 정도를 나타내는 제2 비교값에 대응될 수 있다. 한 예로, 제1 비교값이 음(-)의 값인 경우, 제2 중심점(731)의 가로축 좌표값(751)은 음(-)의 값을 가지며, 가로축(713) 상에서 제1 중심점(715)으로부터 좌측 방향으로 제1 비교값의 절대값만큼 이동된 거리에 위치하고, 제1 비교값이 양(+)의 값인 경우, 제2 중심점(731)의 가로축 좌표값(751)은 양(+)의 값을 가지며, 가로축(713) 상에서 제1 중심점(715)으로부터 우측 방향으로 제1 비교값의 절대값만큼 이동된 거리에 위치할 수 있다. 또 다른 예로, 제2 비교값이 음(-)의 값인 경우, 제2 중심점(731)의 세로축 좌표값(753)은 음(-)의 값을 가지며, 세로축(711) 상에서 제1 중심점(715)으로부터 하측 방향으로 제2 비교값의 절대값만큼 이동된 거리에 위치하고, 제2 비교값이 양(+)의 값인 경우, 제2 중심점(731)의 세로축 좌표값(753)은 양(+)의 값을 가지며, 세로축(711) 상에서 제1 중심점(715)으로부터 상측 방향으로 제2 비교값의 절대값만큼 이동된 거리에 위치할 수 있다.
도 8은 일 실시 예에 따른 영상에 외부 광원의 위치를 가이드하는 객체를 표시하는 제1 방법을 설명하기 위한 도면이다.
도 8을 참조하면, 전자 장치(예: 전자 장치(100))의 프로세서(예: 프로세서(130))는 외부 광원의 위치를 가이드하는 객체를 디스플레이(예: 디스플레이(150))에 출력할 수 있다. 일 실시 예에 따르면, 상기 프로세서는 상기 객체를 프리뷰 영상(800)의 지정된 영역(예: 우측 상단 영역)에 오버레이(overlay)시킬 수 있다.
일 실시 예에 따르면, 상기 프로세서는 상기 객체를 과녁판의 형상으로 생성할 수 있다. 예를 들어, 상기 프로세서는 상기 객체의 세로축(811)을 얼굴 영역 중 콧등과 인중을 지나는 가상의 세로선(801)에 대응시키고, 상기 객체의 가로축(813)을 얼굴 영역 중 좌우 대칭이 되는 영역들의 중심점을 지나는 가상의 가로선(803)에 대응시킬 수 있다. 이 경우, 상기 객체의 세로축(811)과 가로축(813)이 만나는 중심점(815)은 상기 세로선(801)과 상기 가로선(803)이 만나는 지점(805)에 대응될 수 있다. 또한, 상기 프로세서는 도 6b에서 산출된 휘도 성분의 비교값(예: Delta1 또는 Delta2)이 가질 수 있는 크기의 범위를 나타내는 제1 원(810)뿐만 아니라, 상기 제1 원(810) 내에 상기 제1 원(810)의 중심점(815)을 공유하는 적어도 하나의 다른 원을 상기 객체에 더 포함시킬 수 있다. 또한, 상기 프로세서는 상기 객체에 외부 광원의 위치 정보를 나타내는 제2 원(830)을 포함시킬 수 있다.
도 9는 일 실시 예에 따른 영상의 품질 및 외부 광원의 위치와의 상관 관계를 설명하기 위한 도면이다.
도 9를 참조하면, 전자 장치(930)(예: 전자 장치(100))의 프로세서(예: 프로세서(130))는 외부 광원(950)에 의해 발생되는 그림자의 영향을 최소화시켜 영상의 품질을 높일 수 있도록 촬영 구도를 가이드할 수 있다. 이 경우, 상기 프로세서는 외부 광원(950)과 피사체(910)(예: 사용자의 얼굴)의 위치적 상관 관계를 이용하여 촬영 구도를 가이드하는 객체(990)를 생성할 수 있다.
일 실시 예에 따르면, 상기 프로세서는 외부 광원(950)이 피사체(910)에 대하여 지정된 방향에 위치한 경우를 촬영의 최적 상태로 판단할 수 있다. 상기 지정된 방향은 예를 들어, 외부 광원(950)이 피사체(910)에 대하여 전방(피사체(910)에서 전자 장치(930)를 바라보는 방향)에 위치하면서, 피사체(910)의 중심 세로축을 기준으로 좌우측으로 편향되지 않고, 피사체(910)와 전자 장치(930)의 카메라를 연결하는 가상의 선과 피사체(910)와 외부 광원(950)을 연결하는 가상의 선이 형성하는 각도(a)(970)가 지정된 크기를 형성하는 방향을 나타낼 수 있다. 외부 광원(950)이 상기 지정된 방향에 위치하는 경우, 외부 광원(950)의 위치 정보를 나타내는 원(예: 제2 원(730, 830))은 상기 객체(990)의 중심점(991)에 표시될 수 있다.
도 10은 일 실시 예에 따른 영상에 외부 광원의 위치를 가이드하는 객체를 표시하는 제2 방법을 설명하기 위한 도면이다.
도 10을 참조하면, 전자 장치(예: 전자 장치(100))의 프로세서(예: 프로세서(130))는 외부 광원의 위치 정보를 이용해 상기 외부 광원의 좌우 편향 정도를 판단하고, 상기 외부 광원의 좌우 편향 정도를 나타내는 객체(1031)를 프리뷰 영상(1000)의 가로축(1010) 상에 표시할 수 있다. 예컨대, 상기 프로세서는 상기 외부 광원이 좌측으로 편향된 경우 상기 외부 광원의 좌우 편향 정도를 나타내는 객체(1031)를 가로축(1010)의 좌측 상에 표시하고, 상기 외부 광원이 우측으로 편향된 경우 상기 외부 광원의 좌우 편향 정도를 나타내는 객체(1031)를 가로축(1010)의 우측 상에 표시할 수 있다.
일 실시 예에 따르면, 상기 프로세서는 상기 외부 광원의 좌우 편향 정도를 나타내는 객체(1031)를 표시하면서, 상기 외부 광원의 좌우 편향 정도가 지정된 크기의 범위 내에 포함될 수 있도록 가이드하는 객체(1033)를 더 표시할 수 있다. 도시된 도면에서는, 상기 외부 광원이 좌측으로 편향되어 상기 프로세서가, 사용자로 하여금 몸을 왼쪽으로 돌리도록 가이드하는 텍스트 객체(1033)를 표시한 상태를 나타낸다.
일 실시 예에 따르면, 상기 가이드 객체(1033)가 포함하는 가이드 정보에 따라 사용자가 몸을 일방향(예: 좌측 방향)으로 돌리는 경우, 상기 프로세서는 외부 광원의 좌우 편향 정도를 재판단하고, 재판단된 상기 외부 광원의 좌우 편향 정도를 나타내는 객체(1031)를 가로축(1010) 상에서 상기 일방향(예: 좌측 방향)의 반대 방향(1050)(예: 우측 방향)으로 이동시킬 수 있다.
도시된 도면에서는, 상기 외부 광원의 좌우 편향 정도에 대해서만 설명하였지만, 이에 한정되는 것은 아니다. 다양한 실시 예에 따르면, 상기 외부 광원의 상하 편향 정도에 대해서도 동일 또는 유사하게 적용될 수 있다.
도 11은 일 실시 예에 따른 영상에 외부 광원의 위치를 가이드하는 객체를 표시하는 제3 방법을 설명하기 위한 도면이다. 도 11에서는, 외부 광원의 위치 정보를 이용해 판단된 상기 외부 광원의 좌우 편향 정도를 이미지의 그래픽적 특성을 이용해 표현하는 방법을 나타낸다.
도 11을 참조하면, 전자 장치(예: 전자 장치(100))의 프로세서(예: 프로세서(130))는 외부 광원의 위치 정보를 이용해 상기 외부 광원의 좌우 편향 정도를 판단하고, 상기 외부 광원의 좌우 편향 정도를 나타내는 객체(1110)를 프리뷰 영상(1000)의 지정된 영역(예: 좌측 하단 영역)에 표시할 수 있다. 상기 외부 광원의 좌우 편향 정도를 나타내는 객체(1110)는 이미지를 포함할 수 있다.
일 실시 예에 따르면, 상기 프로세서는 상기 외부 광원의 좌우 편향 정도에 따라, 상기 외부 광원의 좌우 편향 정도를 나타내는 객체(1110)에 대응되는 이미지를 변경할 수 있다. 한 예로, 상기 프로세서는 상기 외부 광원이 후방에 위치한 경우(역광의 경우) 상기 외부 광원의 좌우 편향 정도를 나타내는 객체(1110)에 대응되는 이미지를 제1 이미지(1111)로 변경(또는 지정)할 수 있다. 다른 예로, 상기 프로세서는 상기 외부 광원이 우측으로 편향된 경우 상기 외부 광원의 좌우 편향 정도를 나타내는 객체(1110)에 대응되는 이미지를 제2 이미지(1113)로 변경(또는 지정)할 수 있고, 상기 외부 광원이 좌측으로 편향된 경우 상기 외부 광원의 좌우 편향 정도를 나타내는 객체(1110)에 대응되는 이미지를 제3 이미지(1115)로 변경(또는 지정)할 수 있다. 또 다른 예로, 상기 프로세서는 상기 외부 광원이 편향되지 않은 경우 상기 외부 광원의 좌우 편향 정도를 나타내는 객체(1110)에 대응되는 이미지를 제4 이미지(1117)로 변경(또는 지정)할 수 있다. 이와 관련하여, 상기 제1 이미지(1111)는 배경이 전체적으로 어두울 수 있으며, 상기 제4 이미지(1117)는 배경이 전체적으로 밝을 수 있다. 또한, 상기 제2 이미지(1113)는 배경의 우측 영역이 좌측 영역보다 상대적으로 밝을 수 있고, 상기 제3 이미지(1115)는 배경의 좌측 영역이 우측 영역보다 상대적으로 밝을 수 있다.
도 12는 일 실시 예에 따른 영상에 외부 광원의 위치를 가이드하는 객체를 표시하는 제4 방법을 설명하기 위한 도면이다. 도 12에서는, 외부 광원의 위치 정보를 이용해 판단된 상기 외부 광원의 좌우 편향 정도를 이미지의 그래픽적 특성을 이용해 표시하면서, 상기 외부 광원의 좌우 편향 정도가 지정된 크기의 범위 내에 포함될 수 있도록 가이드하는 객체를 더 표시하는 방법을 나타낸다.
도 12를 참조하면, 전자 장치(예: 전자 장치(100))의 프로세서(예: 프로세서(130))는 외부 광원의 위치 정보를 이용해 상기 외부 광원의 좌우 편향 정도를 판단하고, 상기 외부 광원의 좌우 편향 정도를 나타내는 객체를 프리뷰 영상(1000)의 지정된 영역(예: 하단 영역)에 표시할 수 있다. 상기 외부 광원의 좌우 편향 정도를 나타내는 객체는 이미지를 포함할 수 있다.
일 실시 예에 따르면, 상기 프로세서는 상기 외부 광원의 좌우 편향 정도에 따라, 상기 외부 광원의 좌우 편향 정도를 나타내는 객체에 대응되는 이미지를 변경할 수 있다. 한 예로, 상기 프로세서는 제1 상태(1201)에서와 같이 상기 외부 광원이 좌측으로 편향된 경우, 상기 외부 광원의 좌우 편향 정도를 나타내는 객체에 대응되는 이미지를 제1 이미지(1211)로 변경(또는 지정)할 수 있다. 다른 예로, 상기 프로세서는 제2 상태(1203)에서와 같이 상기 외부 광원이 우측으로 편향된 경우, 상기 외부 광원의 좌우 편향 정도를 나타내는 객체에 대응되는 이미지를 제2 이미지(1213)로 변경(또는 지정)할 수 있다. 또 다른 예로, 상기 프로세서는 제3 상태(1205)에서와 같이 상기 외부 광원이 편향되지 않은 경우, 상기 외부 광원의 좌우 편향 정도를 나타내는 객체에 대응되는 이미지를 제3 이미지(1215)로 변경(또는 지정)할 수 있다. 이와 관련하여, 상기 제1 이미지(1211)는 배경의 좌측 영역이 우측 영역보다 상대적으로 밝을 수 있고, 상기 제2 이미지(1213)는 배경의 우측 영역이 좌측 영역보다 상대적으로 밝을 수 있다. 또한, 상기 제3 이미지(1215)는 배경이 전체적으로 밝을 수 있다.
일 실시 예에 따르면, 상기 프로세서는 상기 외부 광원의 좌우 편향 정도에 따라, 상기 외부 광원의 좌우 편향 정도를 나타내는 객체에 대응되는 이미지를 변경하면서, 상기 외부 광원의 좌우 편향 정도가 지정된 크기의 범위 내에 포함될 수 있도록 가이드하는 객체를 더 표시할 수 있다. 한 예로, 상기 프로세서는 제1 상태(1201)에서와 같이 상기 외부 광원이 좌측으로 편향된 경우, 사용자로 하여금 몸을 좌측으로 돌리도록 가이드하는 좌측 화살표(1231)를 표시하고, 제2 상태(1203)에서와 같이 상기 외부 광원이 우측으로 편향된 경우, 사용자로 하여금 몸을 우측으로 돌리도록 가이드하는 우측 화살표(1233)를 표시할 수 있다. 또 다른 예로, 상기 프로세서는 제3 상태(1205)에서와 같이 상기 외부 광원이 편향되지 않은 경우, 편향되지 않은 상태임을 나타내는 텍스트 객체(1235)를 표시할 수 있다.
도 13은 일 실시 예에 따른 촬영 대상이 되는 피부 영역의 정렬 상태를 일정하게 유지하도록 가이드하는 객체를 설명하기 위한 도면이다.
도 13을 참조하면, 전자 장치(예: 전자 장치(100))의 프로세서(예: 프로세서(130))는 카메라(예: 카메라(110))를 통해 촬영되는 피사체의 정렬 상태를 가이드하는 객체(1330)를 프리뷰 영상(1300)에 표시할 수 있다. 예컨대, 상기 프로세서는 상기 카메라의 촬상 영역 중 지정된 영역에 피사체가 위치하도록 피사체의 움직임을 가이드하는 객체(1330)를 프리뷰 영상(1300)에 표시할 수 있다.
일 실시 예에 따르면, 상기 프로세서는 제1 상태(1301)에서와 같이, 외부 광원이 얼굴에 대하여 지정된 방향(예: 전방 중앙)에 위치하더라도, 얼굴에 대응되는 객체(1310)가 상기 가이드 객체(1330)에 정렬되지 않으면, 촬영 기능을 수행하지 않을 수 있다.
일 실시 예에 따르면, 상기 프로세서는 제2 상태(1303)에서와 같이, 사용자가 얼굴을 이동하거나 상기 카메라를 이동시키는 경우, 얼굴에 대응되는 객체(1310)의 크기 또는 위치를 재판단하고, 재판단된 결과에 기반하여 얼굴에 대응되는 객체(1310)의 크기 또는 위치를 변경할 수 있다.
일 실시 예에 따르면, 상기 프로세서는 제3 상태(1305)에서와 같이, 사용자가 얼굴을 이동하거나 상기 카메라를 이동시켜 얼굴에 대응되는 객체(1310)가 상기 가이드 객체(1330)에 정렬되면, 촬영 기능을 수행할 수 있다. 예컨대, 상기 프로세서는 사용자의 입력(예: 셔터를 누르는 입력) 또는 설정된 값(예: 자동 촬영으로 설정된 값)에 따라, 촬영 기능을 수행할 수 있다. 또한, 상기 프로세서는 사용자로 하여금 움직이지 않도록 지시하는 객체(1351)를 프리뷰 영상(1300)에 표시할 수도 있다.
도 14는 다양한 실시 예들에 따른 네트워크 환경(1400) 내의 전자 장치(1401)의 블록도이다. 본 문서에 개시된 다양한 실시 예들에 따른 전자 장치는 다양한 형태의 장치가 될 수 있다. 전자 장치는, 예를 들면, 휴대용 통신 장치(예: 스마트폰), 컴퓨터 장치(예: PDA(personal digital assistant), 태블릿 PC(tablet PC), 랩탑 PC(, 데스크톱 PC, 워크스테이션, 또는 서버), 휴대용 멀티미디어 장치(예: 전자 책 리더기 또는 MP3 플레이어), 휴대용 의료 기기(예: 심박, 혈당, 혈압, 또는 체온 측정기), 카메라, 또는 웨어러블 장치 중 적어도 하나를 포함할 수 있다. 웨어러블 장치는 액세서리 형(예: 시계, 반지, 팔찌, 발찌, 목걸이, 안경, 콘택트 렌즈, 또는 머리 착용 형 장치(head-mounted-device(HMD)), 직물 또는 의류 일체형(예: 전자 의복), 신체 부착 형(예: 스킨 패드 또는 문신), 또는 생체 이식 형 회로 중 적어도 하나를 포함할 수 있다. 어떤 실시 예들에서, 전자 장치는, 예를 들면, 텔레비전, DVD(digital video disk) 플레이어, 오디오 장치, 오디오 액세서리 장치(예: 스피커, 헤드폰, 또는 헤드 셋), 냉장고, 에어컨, 청소기, 오븐, 전자레인지, 세탁기, 공기 청정기, 셋톱 박스, 홈 오토메이션 컨트롤 패널, 보안 컨트롤 패널, 게임 콘솔, 전자 사전, 전자 키, 캠코더, 또는 전자 액자 중 적어도 하나를 포함할 수 있다.
다른 실시 예에서, 전자 장치는 네비게이션 장치, 위성 항법 시스템(GNSS(global navigation satellite system)), EDR(event data recorder)(예: 차량/선박/비행기 용 블랙박스(black box)), 자동차 인포테인먼트 장치(예: 차량용 헤드-업 디스플레이), 산업용 또는 가정용 로봇, 드론(drone), ATM(automated teller machine), POS(point of sales) 기기, 계측 기기(예: 수도, 전기, 또는 가스 계측 기기), 또는 사물 인터넷 장치(예: 전구, 스프링클러 장치, 화재 경보기, 온도 조절기, 또는 가로등) 중 적어도 하나를 포함할 수 있다. 본 문서의 실시 예에 따른 전자 장치는 전술한 기기들에 한정되지 않으며, 또한, 예를 들면, 개인의 생체 정보(예: 심박 또는 혈당)의 측정 기능이 구비된 스마트폰의 경우처럼, 복수의 장치들의 기능들을 복합적으로 제공할 수 있다. 본 문서에서, 사용자라는 용어는 전자 장치를 사용하는 사람 또는 전자 장치를 사용하는 장치(예: 인공지능 전자 장치)를 지칭할 수 있다.
도 14를 참조하여, 네트워크 환경(1400)에서 전자 장치(1401)(예: 전자 장치(100))는 근거리 무선 통신(1498)을 통하여 전자 장치(1402)와 통신하거나, 또는 네트워크(1499)를 통하여 전자 장치(1404) 또는 서버(1408)와 통신할 수 있다. 일 실시 예에 따르면, 전자 장치(1401)는 서버(1408)을 통하여 전자 장치(1404)와 통신할 수 있다.
일 실시 예에 따르면, 전자 장치(1401)는 버스(1410), 프로세서(1420)(예: 프로세서(130)), 메모리(1430), 입력 장치(1450)(예: 마이크 또는 마우스), 표시 장치(1460)(예: 디스플레이(150)), 오디오 모듈(1470), 센서 모듈(1476), 인터페이스(1477), 햅틱 모듈(1479), 카메라 모듈(1480)(예: 카메라(110)), 전력 관리 모듈(1488), 및 배터리(1489), 통신 모듈(1490), 및 가입자 식별 모듈(1496)을 포함할 수 있다. 어떤 실시 예에서는, 전자 장치(1401)는 구성요소들 중 적어도 하나(예: 표시 장치(1460) 또는 카메라 모듈(1480))를 생략하거나 다른 구성요소를 추가적으로 구비할 수 있다.
버스(1410)는, 구성요소들(1420-1490)을 서로 연결하고, 구성요소들 간의 신호(예: 제어 메시지 또는 데이터)를 전달하는 회로를 포함할 수 있다.
프로세서(1420)는, 중앙처리장치(central processing unit, CPU), 어플리케이션 프로세서(application processor, AP), GPU(graphics processing unit), 카메라의 ISP(image signal processor), 또는 CP(communication processor) 중 하나 또는 그 이상을 포함할 수 있다. 일 실시 예에 따르면, 프로세서(1420)는 SoC(system on chip) 또는 SiP(system in package)로 구현될 수 있다. 프로세서(1420)는, 예를 들면, 운영 체제 또는 응용 프로그램을 구동하여 프로세서(1420)에 연결된 전자 장치(1401)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)를 제어할 수 있고, 각종 데이터 처리 및 연산을 수행할 수 있다. 프로세서(1420)는 다른 구성요소들(예: 통신 모듈(1490)) 중 적어도 하나로부터 수신된 명령 또는 데이터를 휘발성 메모리(1432)에 로드 하여 처리하고, 결과 데이터를 비 휘발성 메모리(1434)에 저장할 수 있다.
메모리(1430)는, 휘발성 메모리(1432) 또는 비 휘발성 메모리(1434)를 포함할 수 있다. 휘발성 메모리(1432)는, 예를 들면, RAM(random access memory)(예: DRAM, SRAM, 또는 SDRAM)로 구성될 수 있다. 비 휘발성 메모리(1434)는, 예를 들면, PROM(programmable read-only memory), OTPROM(one time PROM), EPROM(erasable PROM), EEPROM(electrically EPROM), mask ROM, flash ROM, 플래시 메모리, HDD(hard disk drive), 또는 SSD(solid state drive)로 구성될 수 있다. 또한, 비 휘발성 메모리(1434)는, 전자 장치(1401)와의 연결 형태에 따라, 그 안에 배치된 내장 메모리(1436), 또는 필요 시에만 연결하여 사용 가능한 스탠드-얼론(stand-alone) 형태의 외장 메모리(1438)로 구성될 수 있다. 외장 메모리(1438)는 플래시 드라이브(flash drive), 예를 들면, CF(compact flash), SD(secure digital), Micro-SD, Mini-SD, xD(extreme digital), MMC(multi-media card), 또는 메모리 스틱을 포함할 수 있다. 외장 메모리(1438)는 유선(예: 케이블 또는 USB(universal serial bus)) 또는 무선(예: Bluetooth)을 통하여 전자 장치(1401)와 기능적으로 또는 물리적으로 연결될 수 있다.
메모리(1430)는, 예를 들면, 전자 장치(1401)의 적어도 하나의 다른 소프트웨어 구성요소, 예를 들어, 프로그램(1440)에 관계된 명령 또는 데이터를 저장할 수 있다. 프로그램(1440)은, 예를 들면, 커널(1441), 라이브러리(1443), 어플리케이션 프레임워크(1445), 또는 어플리케이션 프로그램(interchangeably "어플리케이션")(1447)을 포함할 수 있다.
입력 장치(1450)는, 마이크, 마우스, 또는 키보드를 포함할 수 있다. 일 실시 예에 따르면, 키보드는 물리적인 키보드로 연결되거나, 표시 장치(1460)를 통해 가상 키보드로 표시될 수 있다.
표시 장치(1460)는, 디스플레이, 홀로그램 장치, 또는 프로젝터 및 해당 장치를 제어하기 위한 제어 회로를 포함할 수 있다. 디스플레이는, 예를 들면, 액정 디스플레이(LCD), 발광 다이오드(LED) 디스플레이, 유기 발광 다이오드(OLED) 디스플레이, 마이크로 전자기계 시스템(MEMS) 디스플레이, 또는 전자 종이(electronic paper) 디스플레이를 포함할 수 있다. 디스플레이는, 일 실시 예에 따르면, 유연하게, 투명하게, 또는 착용할 수 있게 구현될 수 있다. 디스플레이는 사용자의 터치, 제스처, 근접, 또는 호버링(hovering) 입력을 감지할 수 터치 회로(touch circuitry) 또는 터치에 대한 압력의 세기를 측정할 수 있는 압력 센서(interchangeably "force sensor")를 포함할 수 있다. 상기 터치 회로 또는 압력 센서는 디스플레이와 일체형으로 구현되거나, 또는 디스플레이와는 별도의 하나 이상의 센서들로 구현될 수 있다. 홀로그램 장치는 빛의 간섭을 이용하여 입체 영상을 허공에 보여줄 수 있다. 프로젝터는 스크린에 빛을 투사하여 영상을 표시할 수 있다. 스크린은, 예를 들면, 전자 장치(1401)의 내부 또는 외부에 위치할 수 있다.
오디오 모듈(1470)은, 예를 들면, 소리와 전기 신호를 쌍방향으로 변환시킬 수 있다. 일 실시 예에 따르면, 오디오 모듈(1470)은, 입력 장치(1450)(예: 마이크)를 통해 소리를 획득하거나, 또는 전자 장치(1401)에 포함된 출력 장치(미 도시)(예: 스피커 또는 리시버), 또는 전자 장치(1401)와 연결된 외부 전자 장치(예: 전자 장치(1402)(예: 무선 스피커 또는 무선 헤드폰) 또는 전자 장치(1406)(예: 유선 스피커 또는 유선 헤드폰))를 통해 소리를 출력할 수 있다.
센서 모듈(1476)은, 예를 들면, 전자 장치(1401)의 내부의 작동 상태(예: 전력 또는 온도), 또는 외부의 환경 상태(예: 고도, 습도, 또는 밝기)를 계측 또는 감지하여, 그 계측 또는 감지된 상태 정보에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 센서 모듈(1476)은, 예를 들면, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 컬러(color) 센서(예: RGB(red, green, blue) 센서), IR(infrared) 센서, 생체 센서(예: 홍채 센서, 지문 센서, 또는 HRM(heartbeat rate monitoring) 센서, 후각(electronic nose) 센서, EMG(electromyography) 센서, EEG(Electroencephalogram) 센서, ECG(Electrocardiogram) 센서), 온도 센서, 습도 센서, 조도 센서, 또는 UV(ultra violet) 센서를 포함할 수 있다. 센서 모듈(1476)은 그 안에 속한 적어도 하나 이상의 센서들을 제어하기 위한 제어 회로를 더 포함할 수 있다. 어떤 실시 예에서는, 전자 장치(1401)는 프로세서(1420) 또는 프로세서(1420)와는 별도의 프로세서(예: 센서 허브)를 이용하여, 센서 모듈(1476)을 제어할 수 있다. 별도의 프로세서(예: 센서 허브)를 이용하는 경우에, 전자 장치(1401)는 프로세서(1420)가 슬립(sleep) 상태에 있는 동안, 프로세서(1420)를 깨우지 않고 별도의 프로세서의 작동에 의하여 센서 모듈(1476)의 동작 또는 상태의 적어도 일부를 제어할 수 있다.
인터페이스(1477)는, 일 실시 예에 따르면, HDMI(high definition multimedia interface), USB, 광 인터페이스(optical interface), RS-232(recommended standard 232), D-sub(D-subminiature), MHL(mobile high-definition link) 인터페이스, SD카드/MMC(multi-media card) 인터페이스, 또는 오디오 인터페이스를 포함할 수 있다. 연결 단자(1478)는 전자 장치(1401)와 전자 장치(1406)를 물리적으로 연결시킬 수 있다. 일 실시 예에 따르면, 연결 단자(1478)는, 예를 들면, USB 커넥터, SD 카드/MMC 커넥터, 또는 오디오 커넥터(예: 헤드폰 커넥터)를 포함할 수 있다.
햅틱 모듈(1479)은 전기적 신호를 기계적인 자극(예: 진동 또는 움직임) 또는 전기적인 자극으로 변환할 수 있다. 예를 들면, 햅틱 모듈(1479)은 사용자에게 촉각 또는 운동 감각과 관련된 자극을 제공할 수 있다. 햅틱 모듈(1479)은 예를 들면, 모터, 압전 소자, 또는 전기 자극 장치를 포함할 수 있다.
카메라 모듈(1480)은, 예를 들면, 정지 영상 및 동영상을 촬영할 수 있다. 카메라 모듈(1480)는, 일 실시 예에 따르면, 하나 이상의 렌즈(예: 광각 렌즈 및 망원 렌즈, 또는 전면 렌즈 및 후면 렌즈), 이미지 센서, 이미지 시그널 프로세서, 또는 플래시(예: 발광 다이오드 또는 제논 램프(xenon lamp) 등)를 포함할 수 있다.
전력 관리 모듈(1488)은 전자 장치(1401)의 전력을 관리하기 위한 모듈로서, 예를 들면, PMIC(power management integrated circuit)의 적어도 일부로서 구성될 수 있다.
배터리(1489)는, 예를 들면, 1차 전지, 2차 전지, 또는 연료 전지를 포함하여 외부 전원에 의해 재충전되어, 상기 전자 장치(1401)의 적어도 하나의 구성 요소에 전력을 공급할 수 있다.
통신 모듈(1490)은, 예를 들면, 전자 장치(1401)와 외부 장치(예: 제1 외부 전자 장치(1402), 제2 외부 전자 장치(1404), 또는 서버(1408)) 간의 통신 채널 수립 및 수립된 통신 채널을 통한 유선 또는 무선 통신의 수행을 지원할 수 있다. 일 실시 예에 따르면, 통신 모듈(1490)은 무선 통신 모듈(1492) 또는 유선 통신 모듈(1494)을 포함하고, 그 중 해당하는 통신 모듈을 이용하여 제1 네트워크(1498)(예: Bluetooth 또는 IrDA(infrared data association)와 같은 근거리 통신 네트워크) 또는 제2 네트워크(1499)(예: 셀룰러 네트워크와 같은 원거리 통신 네트워크)를 통하여 외부 장치와 통신할 수 있다.
무선 통신 모듈(1492)은, 예를 들면, 셀룰러 통신, 근거리 무선 통신, 또는 GNSS 통신을 지원할 수 있다. 셀룰러 통신은, 예를 들면, LTE(long-term evolution), LTE-A(LTE Advance), CDMA(code division multiple access), WCDMA(wideband CDMA), UMTS(universal mobile telecommunications system), WiBro(Wireless Broadband), 또는 GSM(Global System for Mobile Communications)을 포함할 수 있다. 근거리 무선 통신은, 예를 들면, Wi-Fi(wireless fidelity), Wi-Fi Direct, Li-Fi(light fidelity), Bluetooth, BLE(Bluetooth low energy), Zigbee, NFC(near field communication), MST(magnetic secure transmission), RF(radio frequency), 또는 BAN(body area network)을 포함할 수 있다. GNSS는, 예를 들면, GPS(Global Positioning System), Glonass(Global Navigation Satellite System), Beidou Navigation Satellite System(이하 "Beidou") 또는 Galileo(the European global satellite-based navigation system)를 포함할 수 있다. 본 문서에서 "GPS"는 "GNSS"와 상호 호환적으로 사용될 수 있다.
일 실시 예에 따르면, 상기 무선 통신 모듈(1492)은, 셀룰러 통신을 지원하는 경우, 예를 들면, 가입자 식별 모듈(1496)을 이용하여 통신 네트워크 내에서 전자 장치(1401)의 구별 및 인증을 수행할 수 있다. 일 실시 예에 따르면, 무선 통신 모듈(1492)은 프로세서(1420)(예: AP)와 별개인 CP를 포함할 수 있다. 이런 경우, CP는, 예를 들면, 프로세서(1420)가 인액티브(예: 슬립) 상태에 있는 동안 프로세서(1420)를 대신하여, 또는 프로세서(1420)가 액티브 상태에 있는 동안 프로세서(1420)과 함께, 전자 장치(1401)의 구성요소들(1410-1496) 중 적어도 하나의 구성 요소와 관련된 기능들의 적어도 일부 기능을 수행할 수 있다. 일 실시 예에 따르면, 무선 통신 모듈(1492)은 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS 통신 모듈 중 해당하는 통신 방식만을 지원하는 복수의 통신 모듈들로 구성될 수 있다.
유선 통신 모듈(1494)은, 예를 들면, LAN(local area network), 전력선 통신 또는 POTS(plain old telephone service)를 포함할 수 있다.
제1 네트워크(1498)는, 예를 들어, 전자 장치(1401)와 제1 외부 전자 장치(1402)간의 무선으로 직접 연결을 통해 명령 또는 데이터를 송신 또는 수신할 수 있는 Wi-Fi 다이렉트 또는 Bluetooth를 포함할 수 있다. 제2 네트워크(1499)는, 예를 들어, 전자 장치(1401)와 제2 외부 전자 장치(1404)간의 명령 또는 데이터를 송신 또는 수신할 수 있는 텔레커뮤니케이션 네트워크(예: LAN(local area network)나 WAN(wide area network)와 같은 컴퓨터 네트워크, 인터넷(internet), 또는 텔레폰(telephone) 네트워크)를 포함할 수 있다.
다양한 실시 예들에 따르면, 상기 명령 또는 상기 데이터는 제2 네트워크에 연결된 서버(1408)를 통해서 전자 장치(1401)와 제2 외부 전자 장치(1404)간에 송신 또는 수신될 수 있다. 제1 및 제2 외부 전자 장치(1402, 1404) 각각은 전자 장치(1401)와 동일한 또는 다른 종류의 장치일 수 있다. 다양한 실시 예들에 따르면, 전자 장치(1401)에서 실행되는 동작들의 전부 또는 일부는 다른 하나 또는 복수의 전자 장치(예: 전자 장치(1402, 1404), 또는 서버(1408))에서 실행될 수 있다. 일 실시 예에 따르면, 전자 장치(1401)가 어떤 기능이나 서비스를 자동으로 또는 요청에 의하여 수행해야 할 경우에, 전자 장치(1401)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 그와 연관된 적어도 일부 기능을 다른 장치(예: 전자 장치(1402, 1404), 또는 서버(1408))에게 요청할 수 있다. 다른 전자 장치(예: 전자 장치(1402, 1404), 또는 서버(1408))는 요청된 기능 또는 추가 기능을 실행하고, 그 결과를 전자 장치(1401)로 전달할 수 있다. 전자 장치(1401)는 수신된 결과를 그대로 또는 추가적으로 처리하여 요청된 기능이나 서비스를 제공할 수 있다. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다.
본 문서의 다양한 실시 예들 및 이에 사용된 용어들은 본 문서에 기재된 기술을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 해당 실시 예의 다양한 변경, 균등물, 및/또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및/또는 B 중 적어도 하나", "A, B 또는 C" 또는 "A, B 및/또는 C 중 적어도 하나" 등의 표현은 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. "제1," "제2," "첫째," 또는 "둘째,"등의 표현들은 해당 구성요소들을, 순서 또는 중요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다. 어떤(예: 제1) 구성요소가 다른(예: 제2) 구성요소에 "(기능적으로 또는 통신적으로) 연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제 3 구성요소)를 통하여 연결될 수 있다.
본 문서에서, "~하도록 설정된(adapted to or configured to)"은 상황에 따라, 예를 들면, 하드웨어적 또는 소프트웨어적으로 "~에 적합한," "~하는 능력을 가지는," "~하도록 변경된," "~하도록 만들어진," "~를 할 수 있는," 또는 "~하도록 설계된"과 상호 호환적으로(interchangeably) 사용될 수 있다. 어떤 상황에서는, "~하도록 구성된 장치"라는 표현은, 그 장치가 다른 장치 또는 부품들과 함께 "~할 수 있는" 것을 의미할 수 있다. 예를 들면, 문구 "A, B, 및 C를 수행하도록 설정된 (또는 구성된) 프로세서"는 해당 동작들을 수행하기 위한 전용 프로세서(예: 임베디드 프로세서), 또는 메모리 장치(예: 메모리 1430)에 저장된 하나 이상의 프로그램들을 실행함으로써, 해당 동작들을 수행할 수 있는 범용 프로세서(예: CPU 또는 AP)를 의미할 수 있다.
본 문서에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어(firmware)로 구성된 유닛(unit)을 포함하며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로 등의 용어와 상호 호환적으로 사용될 수 있다. "모듈"은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는 최소 단위 또는 그 일부가 될 수 있다. "모듈"은 기계적으로 또는 전자적으로 구현될 수 있으며, 예를 들면, 어떤 동작들을 수행하는, 알려졌거나 앞으로 개발될, ASIC(application-specific integrated circuit) 칩, FPGAs(field-programmable gate arrays), 또는 프로그램 가능 논리 장치를 포함할 수 있다.
다양한 실시 예들에 따른 장치(예: 모듈들 또는 그 기능들) 또는 방법(예: 동작들)의 적어도 일부는 프로그램 모듈의 형태로 컴퓨터로 판독 가능한 저장 매체(예: 메모리(1430))에 저장된 명령어로 구현될 수 있다. 상기 명령어가 프로세서(예: 프로세서(1420))에 의해 실행될 경우, 프로세서가 상기 명령어에 해당하는 기능을 수행할 수 있다. 컴퓨터로 판독 가능한 기록 매체는, 하드디스크, 플로피디스크, 마그네틱 매체(예: 자기테이프), 광기록 매체(예: CD-ROM, DVD, 자기-광 매체(예: 플롭티컬 디스크)), 내장 메모리 등을 포함할 수 있다. 명령어는 컴파일러에 의해 만들어지는 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다.
다양한 실시 예에 따르면, 컴퓨터로 판단 가능한 기록 매체(저장 매체)는 카메라를 통해 하나 이상의 외부 객체들에 대한 이미지를 획득하는 동작, 상기 이미지에 포함된 상기 하나 이상의 외부 객체들 중 얼굴에 대응하는 관심 객체를 확인하고, 상기 관심 객체에 대해 상기 얼굴에 대한 인식과 관련된 제1 영역 및 제2 영역을 결정하는 동작, 상기 제1 영역에 대한 제1 밝기 값 및 상기 제2 영역에 대한 제2 밝기 값을 확인하는 동작, 상기 제1 밝기 값 및 상기 제2 밝기 값에 적어도 기반하여, 상기 관심 객체에 대한 외부 광원의 속성 정보를 결정하는 동작, 및 디스플레이를 통해, 상기 속성 정보에 대응하는 가이드 정보를 상기 관심 객체와 관련하여 제공하는 동작을 포함하는 방법을 수행하기 위한 프로그램이 기록될 수 있다.
다양한 실시 예에 따르면, 상기 기록 매체는 상기 제1 밝기 값과 상기 제2 밝기 값의 차이 값이 지정된 조건을 만족하면, 상기 관심 객체에 대한 다른 이미지를 획득하는 동작을 더 포함하는 방법을 수행하기 위한 프로그램이 기록될 수 있다.
다양한 실시 예에 따르면, 상기 기록 매체는 상기 다른 이미지를 획득하기 이전에, 상기 다른 이미지를 획득하는 동작과 관련하여 상기 관심 객체의 크기에 대한 기준을 나타내는 제1 표시자 및 상기 관심 객체의 크기에 따라 변화될 수 있는 제2 표시자를 상기 디스플레이를 통해 제공하는 동작을 더 포함하는 방법을 수행하기 위한 프로그램이 기록될 수 있다.
다양한 실시 예들에 따른 구성 요소(예: 모듈 또는 프로그램 모듈) 각각은 단수 또는 복수의 개체로 구성될 수 있으며, 전술한 해당 서브 구성 요소들 중 일부 서브 구성 요소가 생략되거나, 또는 다른 서브 구성 요소를 더 포함할 수 있다. 대체적으로 또는 추가적으로, 일부 구성 요소들(예: 모듈 또는 프로그램 모듈)은 하나의 개체로 통합되어, 통합되기 이전의 각각의 해당 구성 요소에 의해 수행되는 기능을 동일 또는 유사하게 수행할 수 있다. 다양한 실시 예들에 따른 모듈, 프로그램 모듈 또는 다른 구성 요소에 의해 수행되는 동작들은 순차적, 병렬적, 반복적 또는 휴리스틱(heuristic)하게 실행되거나, 적어도 일부 동작이 다른 순서로 실행되거나, 생략되거나, 또는 다른 동작이 추가될 수 있다.

Claims (20)

  1. 전자 장치에 있어서,
    카메라;
    디스플레이; 및
    프로세서를 포함하고, 상기 프로세서는,
    상기 카메라를 이용하여 하나 이상의 외부 객체들에 대한 이미지를 획득하고,
    상기 이미지에 포함된 상기 하나 이상의 외부 객체들 중 얼굴에 대응하는 관심 객체를 확인하고, 상기 관심 객체를 확인하는 동작은 상기 관심 객체에 대해 상기 얼굴에 대한 인식과 관련된 제1 영역 및 제2 영역을 결정하는 동작을 포함하고,
    상기 제1 영역에 대한 제1 밝기 값 및 상기 제2 영역에 대한 제2 밝기 값을 확인하고,
    상기 제1 밝기 값 및 상기 제2 밝기 값에 적어도 기반하여, 상기 관심 객체에 대한 외부 광원의 속성 정보를 결정하고, 및
    상기 디스플레이를 통해, 상기 속성 정보에 대응하는 가이드 정보를 상기 관심 객체와 관련하여 제공하도록 설정된 전자 장치.
  2. 청구항 1에 있어서,
    상기 프로세서는,
    상기 제1 밝기 값과 상기 제2 밝기 값의 차이 값이 지정된 조건을 만족하면, 상기 관심 객체에 대한 다른 이미지를 획득하도록 설정된 전자 장치.
  3. 청구항 2에 있어서,
    상기 프로세서는,
    상기 다른 이미지를 획득하기 이전에, 상기 다른 이미지를 획득하는 동작과 관련하여 상기 관심 객체의 크기에 대한 기준을 나타내는 제1 표시자 및 상기 관심 객체의 크기에 따라 변화될 수 있는 제2 표시자를 상기 디스플레이를 통해 제공하도록 설정된 전자 장치.
  4. 청구항 3에 있어서,
    상기 프로세서는,
    상기 제1 표시자와 상기 제2 표시자의 크기가 실질적으로 동일한 조건을 만족하는 결정에 더 기반하여, 상기 다른 이미지를 획득하는 동작을 수행하도록 설정된 전자 장치.
  5. 청구항 1에 있어서,
    상기 프로세서는,
    상기 가이드 정보의 적어도 일부로, 상기 외부 광원의 위치 정보를 포함하도록 설정된 전자 장치.
  6. 청구항 5에 있어서,
    상기 프로세서는,
    상기 가이드 정보의 적어도 일부로, 상기 외부 광원이 상기 관심 객체에 대하여 지정된 방향에 위치할 수 있는 촬영 방향을 유도하기 위한 정보를 더 포함하도록 설정된 전자 장치.
  7. 청구항 1에 있어서,
    메모리를 더 포함하고,
    상기 프로세서는,
    상기 이미지를 획득하는 동작의 적어도 일부로, 상기 이미지에 대응하는 데이터를 지정된 영상 포맷으로 변환하여 상기 메모리에 저장하도록 설정된 전자 장치.
  8. 청구항 7에 있어서,
    상기 프로세서는,
    상기 지정된 영상 포맷의 적어도 일부로 상기 이미지에 대응하는 밝기 정보를 포함하도록 설정된 전자 장치.
  9. 청구항 8에 있어서,
    상기 프로세서는,
    상기 밝기 정보에 적어도 기반하여, 상기 제1 밝기 값 및 상기 제2 밝기 값을 확인하도록 설정된 전자 장치.
  10. 전자 장치에 있어서,
    카메라;
    디스플레이; 및
    프로세서를 포함하고, 상기 프로세서는,
    상기 카메라를 통해 촬영된 영상을 획득하고,
    상기 영상에서 얼굴에 대응되는 관심 객체를 판단하고,
    상기 관심 객체 내에서 제1 비교 영역 및 제2 비교 영역을 결정하고,
    상기 제1 비교 영역에 대응하는 제1 휘도값 및 상기 제2 비교 영역에 대응하는 제2 휘도값을 산출하고,
    상기 제1 휘도값 및 상기 제2 휘도값의 차이에 적어도 기반하여 외부 광원의 위치를 결정하고,
    상기 위치에 대응하는 가이드 정보를 상기 관심 객체와 관련하여 상기 디스플레이에 표시하도록 설정된 전자 장치
  11. 청구항 10에 있어서,
    메모리를 더 포함하고,
    상기 프로세서는,
    상기 영상을 획득하는 동작의 적어도 일부로, 상기 영상에 대응되는 데이터를 지정된 영상 포맷으로 변환하여 상기 메모리에 저장하도록 설정된 전자 장치.
  12. 청구항 11에 있어서,
    상기 프로세서는,
    상기 지정된 영상 포맷의 적어도 일부로, 상기 영상에 대응하는 휘도 정보를 포함하도록 설정된 전자 장치.
  13. 청구항 12에 있어서,
    상기 프로세서는,
    상기 휘도 정보에 적어도 기반하여, 상기 제1 휘도값 및 상기 제2 휘도값을 산출하도록 설정된 전자 장치.
  14. 청구항 10에 있어서,
    상기 프로세서는,
    상기 관심 객체 내에서 지정된 영역을 상기 제1 비교 영역으로 결정하고, 상기 지정된 영역에 대칭되는 다른 지정된 영역을 상기 제2 비교 영역으로 결정하도록 설정된 전자 장치.
  15. 청구항 10에 있어서,
    상기 프로세서는,
    상기 관심 객체 내에서 외부로 돌출된 길이가 가장 큰 영역을 상기 제1 비교 영역으로 결정하고, 상기 관심 객체 내에서 외부로 돌출된 길이가 가장 작은 영역을 상기 제2 비교 영역으로 결정하도록 설정된 전자 장치.
  16. 청구항 10에 있어서,
    상기 프로세서는,
    상기 가이드 정보의 적어도 일부로, 상기 외부 광원이 상기 관심 객체에 대하여 지정된 방향에 위치할 수 있는 촬영 방향을 유도하기 위한 정보를 포함하도록 설정된 전자 장치.
  17. 청구항 10에 있어서,
    상기 프로세서는,
    상기 관심 객체가 지정된 영역에 정렬된 상태와 관련된 다른 가이드 정보를 상기 디스플레이를 통해 표시하도록 설정된 전자 장치.
  18. 카메라를 통해 하나 이상의 외부 객체들에 대한 이미지를 획득하는 동작;
    상기 이미지에 포함된 상기 하나 이상의 외부 객체들 중 얼굴에 대응하는 관심 객체를 확인하고, 상기 관심 객체에 대해 상기 얼굴에 대한 인식과 관련된 제1 영역 및 제2 영역을 결정하는 동작;
    상기 제1 영역에 대한 제1 밝기 값 및 상기 제2 영역에 대한 제2 밝기 값을 확인하는 동작;
    상기 제1 밝기 값 및 상기 제2 밝기 값에 적어도 기반하여, 상기 관심 객체에 대한 외부 광원의 속성 정보를 결정하는 동작; 및
    디스플레이를 통해, 상기 속성 정보에 대응하는 가이드 정보를 상기 관심 객체와 관련하여 제공하는 동작을 포함하는 방법을 수행하기 위한 프로그램이 기록된 컴퓨터로 판독 가능한 기록 매체.
  19. 청구항 18에 있어서,
    상기 제1 밝기 값과 상기 제2 밝기 값의 차이 값이 지정된 조건을 만족하면, 상기 관심 객체에 대한 다른 이미지를 획득하는 동작을 더 포함하는 방법을 수행하기 위한 프로그램이 기록된 컴퓨터로 판독 가능한 기록 매체.
  20. 청구항 19에 있어서,
    상기 다른 이미지를 획득하기 이전에, 상기 다른 이미지를 획득하는 동작과 관련하여 상기 관심 객체의 크기에 대한 기준을 나타내는 제1 표시자 및 상기 관심 객체의 크기에 따라 변화될 수 있는 제2 표시자를 상기 디스플레이를 통해 제공하는 동작을 더 포함하는 방법을 수행하기 위한 프로그램이 기록된 컴퓨터로 판독 가능한 기록 매체.
KR1020170078329A 2017-06-21 2017-06-21 관심 객체에 대한 외부 광원의 속성 정보를 제공하는 방법을 지원하는 전자 장치 KR102333101B1 (ko)

Priority Applications (5)

Application Number Priority Date Filing Date Title
KR1020170078329A KR102333101B1 (ko) 2017-06-21 2017-06-21 관심 객체에 대한 외부 광원의 속성 정보를 제공하는 방법을 지원하는 전자 장치
PCT/KR2018/005834 WO2018236058A1 (en) 2017-06-21 2018-05-23 ELECTRONIC DEVICE FOR PROVIDING PROPERTY INFORMATION OF AN EXTERNAL LIGHT SOURCE FOR AN OBJECT OF INTEREST
EP18178718.5A EP3419024B1 (en) 2017-06-21 2018-06-20 Electronic device for providing property information of external light source for interest object
CN201810641836.8A CN109101873B (zh) 2017-06-21 2018-06-21 用于提供针对兴趣对象的外部光源的特性信息的电子设备
US16/014,656 US10827126B2 (en) 2017-06-21 2018-06-21 Electronic device for providing property information of external light source for interest object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170078329A KR102333101B1 (ko) 2017-06-21 2017-06-21 관심 객체에 대한 외부 광원의 속성 정보를 제공하는 방법을 지원하는 전자 장치

Publications (2)

Publication Number Publication Date
KR20180138300A true KR20180138300A (ko) 2018-12-31
KR102333101B1 KR102333101B1 (ko) 2021-12-01

Family

ID=62845926

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170078329A KR102333101B1 (ko) 2017-06-21 2017-06-21 관심 객체에 대한 외부 광원의 속성 정보를 제공하는 방법을 지원하는 전자 장치

Country Status (5)

Country Link
US (1) US10827126B2 (ko)
EP (1) EP3419024B1 (ko)
KR (1) KR102333101B1 (ko)
CN (1) CN109101873B (ko)
WO (1) WO2018236058A1 (ko)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109508587A (zh) * 2017-09-15 2019-03-22 丽宝大数据股份有限公司 身体信息分析装置及其底妆分析方法
CN108134903B (zh) * 2017-12-25 2020-01-14 Oppo广东移动通信有限公司 拍摄方法及相关产品
US20190205634A1 (en) * 2017-12-29 2019-07-04 Idemia Identity & Security USA LLC Capturing Digital Images of Documents
US10574881B2 (en) * 2018-02-15 2020-02-25 Adobe Inc. Smart guide to capture digital images that align with a target image model
CN110740252A (zh) * 2018-07-20 2020-01-31 华为技术有限公司 一种图像获取的方法、装置及终端
CN111053356A (zh) * 2018-10-17 2020-04-24 丽宝大数据股份有限公司 电子化妆镜装置及其显示方法
WO2020149646A1 (en) * 2019-01-17 2020-07-23 Samsung Electronics Co., Ltd. Method of acquiring outside luminance using camera sensor and electronic device applying the method
US10997453B2 (en) * 2019-01-29 2021-05-04 Adobe Inc. Image shadow detection using multiple images
JP2020162873A (ja) * 2019-03-29 2020-10-08 株式会社エクォス・リサーチ 脈波検出装置、及び脈波検出プログラム
JP7211266B2 (ja) * 2019-05-27 2023-01-24 富士フイルムビジネスイノベーション株式会社 情報処理装置、及び情報処理プログラム
CN110532965B (zh) * 2019-08-30 2022-07-26 京东方科技集团股份有限公司 年龄识别方法、存储介质及电子设备
CN112449103B (zh) * 2019-09-05 2022-03-08 华为技术有限公司 一种影像处理方法以及相关设备
CN111540443A (zh) * 2020-04-28 2020-08-14 青岛海信医疗设备股份有限公司 医学影像显示方法和通信终端
US20220070235A1 (en) 2020-08-28 2022-03-03 Tmrw Foundation Ip S.Àr.L. System and method enabling interactions in virtual environments with virtual presence
US12034785B2 (en) 2020-08-28 2024-07-09 Tmrw Foundation Ip S.Àr.L. System and method enabling interactions in virtual environments with virtual presence
US20220070236A1 (en) * 2020-08-28 2022-03-03 Tmrw Foundation Ip S. À R.L. Graphical representation-based user authentication system and method
US11999357B2 (en) * 2020-12-08 2024-06-04 Endera Corporation Vehicle-based wellness diagnostic platform
US11509819B2 (en) * 2021-01-19 2022-11-22 Adobe Inc. Providing contextual augmented reality photo pose guidance

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130033566A1 (en) * 2011-08-02 2013-02-07 Sony Corporation Image processing device, and control method and computer readable medium
US20140300779A1 (en) * 2013-04-09 2014-10-09 Samsung Electronics Co., Ltd. Methods and apparatuses for providing guide information for a camera

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4911544A (en) 1987-11-13 1990-03-27 Walsh John P Skin condition analyzer for cosmetologists
JP4831223B2 (ja) * 2009-09-29 2011-12-07 カシオ計算機株式会社 画像表示装置及び方法並びにプログラム
FR2952519B1 (fr) * 2009-11-13 2012-07-20 O Ts Team Creatif Procede et dispositif pour l'analyse de la tendance d'une peau a etre plus ou moins seche.
US8315461B2 (en) * 2010-01-25 2012-11-20 Apple Inc. Light source detection from synthesized objects
US8687094B2 (en) * 2010-06-15 2014-04-01 Lg Electronics Inc. Mobile terminal and method of displaying object related information therein
JP2012010162A (ja) * 2010-06-25 2012-01-12 Kyocera Corp カメラ装置
US9536345B2 (en) * 2012-12-26 2017-01-03 Intel Corporation Apparatus for enhancement of 3-D images using depth mapping and light source synthesis
GB2519363A (en) * 2013-10-21 2015-04-22 Nokia Technologies Oy Method, apparatus and computer program product for modifying illumination in an image
WO2015137788A1 (en) * 2014-03-14 2015-09-17 Samsung Electronics Co., Ltd. Electronic apparatus for providing health status information, method of controlling the same, and computer-readable storage medium
US9507420B2 (en) * 2014-05-13 2016-11-29 Qualcomm Incorporated System and method for providing haptic feedback to assist in capturing images
KR20160024143A (ko) * 2014-08-25 2016-03-04 삼성전자주식회사 영상 처리 방법 및 전자 장치
US10664686B2 (en) * 2014-11-04 2020-05-26 Samsung Electronics Co., Ltd. Electronic device, and method for analyzing face information in electronic device
KR102424986B1 (ko) 2014-11-04 2022-07-26 삼성전자주식회사 전자 장치 및 전자 장치에서 얼굴 정보를 분석하는 방법
TWI701018B (zh) * 2015-01-29 2020-08-11 日商新力股份有限公司 資訊處理裝置、資訊處理方法、及程式
US9843761B2 (en) * 2015-02-05 2017-12-12 Polycom, Inc. System and method for brightening video image regions to compensate for backlighting
KR102507567B1 (ko) * 2015-06-09 2023-03-09 삼성전자주식회사 이미지를 처리하는 전자 장치 및 그 제어 방법
KR20170016248A (ko) * 2015-08-03 2017-02-13 엘지전자 주식회사 전자기기 및 그의 촬영 가이드 방법
KR102364072B1 (ko) * 2015-08-11 2022-02-17 삼성전자 주식회사 이미지 처리 방법 및 이를 사용하는 전자 장치
US9922452B2 (en) * 2015-09-17 2018-03-20 Samsung Electronics Co., Ltd. Apparatus and method for adjusting brightness of image
CN105654043B (zh) * 2015-12-24 2019-02-12 Oppo广东移动通信有限公司 控制方法、控制装置及拍照***
EP3207823A1 (en) * 2016-02-16 2017-08-23 Braun GmbH Interactive system setup concept
CN106845455B (zh) * 2017-03-01 2021-03-12 中国科学院上海高等研究院 基于肤色检测的图像处理方法、***及服务器

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130033566A1 (en) * 2011-08-02 2013-02-07 Sony Corporation Image processing device, and control method and computer readable medium
US20140300779A1 (en) * 2013-04-09 2014-10-09 Samsung Electronics Co., Ltd. Methods and apparatuses for providing guide information for a camera

Also Published As

Publication number Publication date
US20180376072A1 (en) 2018-12-27
KR102333101B1 (ko) 2021-12-01
US10827126B2 (en) 2020-11-03
EP3419024B1 (en) 2023-09-06
EP3419024A1 (en) 2018-12-26
WO2018236058A1 (en) 2018-12-27
CN109101873A (zh) 2018-12-28
CN109101873B (zh) 2023-12-29

Similar Documents

Publication Publication Date Title
KR102333101B1 (ko) 관심 객체에 대한 외부 광원의 속성 정보를 제공하는 방법을 지원하는 전자 장치
US11281288B2 (en) Eye and head tracking
KR102329765B1 (ko) 홍채 기반 인증 방법 및 이를 지원하는 전자 장치
CN110647865B (zh) 人脸姿态的识别方法、装置、设备及存储介质
US11263469B2 (en) Electronic device for processing image and method for controlling the same
CN111542856B (zh) 一种皮肤检测方法和电子设备
KR102287109B1 (ko) 피부에 해당하는 이미지 처리 영역을 보정하는 방법 및 전자 장치
KR102488563B1 (ko) 차등적 뷰티효과 처리 장치 및 방법
KR20180099026A (ko) 외부 전자 장치를 이용한 촬영 방법 및 이를 지원하는 전자 장치
WO2021147434A1 (zh) 基于人工智能的人脸识别方法、装置、设备及介质
CN111566693B (zh) 一种皱纹检测方法及电子设备
KR20170097884A (ko) 이미지를 처리하기 위한 방법 및 그 전자 장치
US11335090B2 (en) Electronic device and method for providing function by using corneal image in electronic device
KR20190020578A (ko) 외부 광에 기반하여 이미지를 처리하는 방법 및 이를 지원하는 전자 장치
CN113906730A (zh) 获得皮肤图像的电子设备及其控制方法
KR20200137918A (ko) 피부 이미지를 획득하는 전자 장치 및 그 제어 방법
KR102539947B1 (ko) 사용자를 인식하는 전자 장치 및 그 전자 장치를 제어하는 방법
US20220300350A1 (en) Information processing apparatus, control method of information processing apparatus, and recording medium
KR20230080007A (ko) 오토포커싱을 위한 전자 장치 및 그 동작 방법
CN113749614A (zh) 皮肤检测方法和设备
KR20200137916A (ko) 피부 이미지를 획득하는 전자 장치 및 그 제어 방법

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right