KR20210064114A - 이미지 처리 방법 및 장치, 전자 기기 및 저장 매체 - Google Patents

이미지 처리 방법 및 장치, 전자 기기 및 저장 매체 Download PDF

Info

Publication number
KR20210064114A
KR20210064114A KR1020207036012A KR20207036012A KR20210064114A KR 20210064114 A KR20210064114 A KR 20210064114A KR 1020207036012 A KR1020207036012 A KR 1020207036012A KR 20207036012 A KR20207036012 A KR 20207036012A KR 20210064114 A KR20210064114 A KR 20210064114A
Authority
KR
South Korea
Prior art keywords
image
rendered
area
target
feature point
Prior art date
Application number
KR1020207036012A
Other languages
English (en)
Inventor
리우 쑤
Original Assignee
베이징 센스타임 테크놀로지 디벨롭먼트 컴퍼니 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 베이징 센스타임 테크놀로지 디벨롭먼트 컴퍼니 리미티드 filed Critical 베이징 센스타임 테크놀로지 디벨롭먼트 컴퍼니 리미티드
Publication of KR20210064114A publication Critical patent/KR20210064114A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Computer Graphics (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Ophthalmology & Optometry (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Image Generation (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은 이미지 처리 방법 및 장치, 전자 기기 및 저장 매체에 관한 것으로, 상기 이미지 처리 방법은, 목표 이미지에서 렌더링될 제1 대상, 및 목표 이미지에서 제1 대상이 속하는 제2 대상을 인식하는 단계; 목표 이미지 및 제2 대상에 따라, 마크를 포함하는 참조 이미지를 생성하는 단계 - 마크는 제2 대상의 커버리지 영역을 기록하기 위한 것임 - ; 참조 이미지 및 제1 대상에 따라, 렌더링될 영역을 결정하는 단계 - 렌더링될 영역은 마크에 대응하는 커버리지 영역 내에 위치함 - ; 및 목표 재료를 사용하여 렌더링될 영역에 대해 렌더링을 수행하여, 렌더링 결과를 생성하는 단계를 포함한다. 상기 과정을 통해, 제1 대상이 속하는 제2 대상에 의해 생성된 마크를 포함하는 참조 이미지에 따라, 제1 대상을 렌더링할 때, 렌더링 범위를 제약함으로써, 렌더링 결과의 신뢰성 및 진실성을 향상시킬 수 있다.

Description

이미지 처리 방법 및 장치, 전자 기기 및 저장 매체
관련 출원의 상호 참조
본 발명은 2019년 11월 22일에 중국 특허청에 제출한, 출원 번호가 201911154806.5이고, 발명의 명칭이 “이미지 처리 방법 및 장치, 전자 기기 및 저장 매체”인 중국 특허 출원의 우선권을 주장하며, 그 전부 내용은 인용을 통해 본 발명에 결합된다.
본 발명은 이미지 처리 기술분야에 관한 것으로, 특히 이미지 처리 방법 및 장치, 전자 기기 및 저장 매체에 관한 것이다.
이미지 렌더링은 3 차원의 빛 에너지 전달 처리를 하나의 2 차원 이미지로 전환하는 과정이다. 장면 및 실체는 3 차원 형태로 표현되어, 현실에 더욱 가까우므로, 조종 및 변환에 편리하다. 목표 대상에 대해 렌더링을 수행하는 과정에서, 렌더링 오버플로우가 발생하기 쉽다.
본 발명은 이미지 처리 기술방안에 관한 것이다.
본 발명의 일 측면에 따르면, 이미지 처리 방법을 제공하며,
목표 이미지에서 렌더링될 제1 대상, 및 상기 목표 이미지에서 상기 제1 대상이 속하는 제2 대상을 인식하는 단계;
상기 목표 이미지 및 상기 제2 대상에 따라, 마크를 포함하는 참조 이미지를 생성하는 단계 - 상기 마크는 상기 제2 대상의 커버리지 영역을 기록하기 위한 것임 - ;
상기 참조 이미지 및 상기 제1 대상에 따라, 렌더링될 영역을 결정하는 단계 - 상기 렌더링될 영역은 상기 마크에 대응하는 커버리지 영역 내에 위치함 - ; 및
목표 재료를 사용하여 상기 렌더링될 영역에 대해 렌더링을 수행하여, 렌더링 결과를 생성하는 단계를 포함한다.
하나의 가능한 구현 방식에서, 상기 목표 이미지 및 상기 제2 대상에 따라, 마크를 포함하는 참조 이미지를 생성하는 단계는,
상기 목표 이미지와 사이즈가 동일한 제1 초기 이미지를 생성하는 단계; 및
상기 제1 초기 이미지에서, 상기 제2 대상의 커버리지 영역을 마킹하여, 상기 참조 이미지를 얻는 단계를 포함한다.
하나의 가능한 구현 방식에서, 상기 제1 초기 이미지에서, 상기 제2 대상의 커버리지 영역을 마킹하여, 상기 참조 이미지를 얻는 단계는,
상기 제1 초기 이미지에서, 상기 제2 대상의 커버리지 영역에 포함된 적어도 하나의 픽셀점을 목표 픽셀값으로 변경하여, 상기 참조 이미지를 얻는 단계를 포함한다.
하나의 가능한 구현 방식에서, 상기 참조 이미지 및 상기 제1 대상에 따라, 렌더링될 영역을 결정하는 단계는,
상기 목표 이미지와 사이즈가 동일한 제2 초기 이미지를 생성하는 단계; 및
상기 제2 초기 이미지에서, 상기 참조 이미지 및 상기 제1 대상에 따라, 렌더링될 영역을 결정하는 단계를 포함한다.
하나의 가능한 구현 방식에서, 상기 제2 초기 이미지에서, 상기 참조 이미지 및 상기 제1 대상에 따라, 렌더링될 영역을 결정하는 단계는,
상기 제2 초기 이미지에서, 상기 제1 대상에 대응하는 영역을 초기 렌더링될 영역으로 취하는 단계;
상기 초기 렌더링될 영역의 픽셀점을 순회하여, 상기 픽셀점이 상기 참조 이미지에서의 대응 위치에 상기 마크가 포함될 경우, 상기 픽셀점을 렌더링될 픽셀점으로 취하는 단계; 및
상기 렌더링될 픽셀점으로 형성된 영역을 상기 렌더링될 영역으로 취하는 단계를 포함한다.
하나의 가능한 구현 방식에서, 상기 목표 이미지에서 렌더링될 제1 대상, 및 상기 목표 이미지에서 상기 제1 대상이 속하는 제2 대상을 인식하는 단계는,
상기 목표 이미지에 대해 특징 추출을 수행하여, 상기 제1 대상에 대응하는 제1 특징점 집합, 및 상기 제2 대상에 대응하는 제2 특징점 집합을 각각 얻는 단계;
상기 제1 특징점 집합에 포함된 제1 특징점을 제1 기설정된 방식으로 연결하여, 상기 제1 대상에 대응하는 영역을 얻는 단계; 및
상기 제2 특징점 집합에 포함된 제2 특징점을 제2 기설정된 방식으로 연결하여, 상기 제2 대상에 대응하는 영역을 얻는 단계를 포함한다.
하나의 가능한 구현 방식에서, 상기 제1 특징점 집합에 포함된 제1 특징점을 제1 기설정된 방식으로 연결하여, 상기 제1 대상에 대응하는 영역을 얻는 단계는,
적어도 3 개의 상기 제1 특징점을 한 세트로 취하여, 상기 제1 특징점 집합에 대해 분할을 수행하여, 적어도 한 세트의 제1 특징점 서브 집합을 얻는 단계;
적어도 한 세트의 상기 제1 특징점 서브 집합에 포함된 상기 제1 특징점을 순차적으로 연결하여, 적어도 하나의 제1 메쉬를 얻는 단계; 및
상기 적어도 하나의 제1 메쉬에 의해 커버되는 영역을 제1 대상에 대응하는 영역으로 취하는 단계를 포함한다.
하나의 가능한 구현 방식에서, 상기 제2 특징점 집합에 포함된 제2 특징점을 제2 기설정된 방식으로 연결하여, 상기 제2 대상에 대응하는 영역을 얻는 단계는,
적어도 3 개의 상기 제2 특징점을 한 세트로 취하여, 상기 제2 특징점 집합에 대해 분할을 수행하여, 적어도 한 세트의 제2 특징점 서브 집합을 얻는 단계;
적어도 한 세트의 상기 제2 특징점 서브 집합에 포함된 상기 제2 특징점을 순차적으로 연결하여, 적어도 하나의 제2 메쉬를 얻는 단계; 및
상기 적어도 하나의 제2 메쉬에 의해 커버되는 영역을 제2 대상에 대응하는 영역으로 취하는 단계를 포함한다.
하나의 가능한 구현 방식에서, 상기 이미지 처리 방법은,
상기 목표 이미지의 투명도를 변경하여, 변경 결과를 얻는 단계; 및
상기 렌더링 결과와 상기 변경 결과를 융합하여, 융합 이미지를 얻는 단계를 더 포함한다.
하나의 가능한 구현 방식에서, 상기 제1 대상은 동공을 포함하고, 상기 제2 대상은 눈을 포함하며, 상기 목표 재료는 동공 미화를 위한 재료를 포함한다.
본 발명의 일 측면에 따르면, 이미지 처리 장치는,
목표 이미지에서 렌더링될 제1 대상, 및 상기 목표 이미지에서 상기 제1 대상이 속하는 제2 대상을 인식하기 위한 인식 모듈;
상기 목표 이미지 및 상기 제2 대상에 따라, 마크를 포함하는 참조 이미지를 생성하기 위한 참조 이미지 생성 모듈 - 상기 마크는 상기 제2 대상의 커버리지 영역을 기록하기 위한 것임 - ;
상기 참조 이미지 및 상기 제1 대상에 따라, 렌더링될 영역을 결정하기 위한 렌더링될 영역 결정 모듈 - 상기 렌더링될 영역은 상기 마크에 대응하는 커버리지 영역 내에 위치함 - ; 및
목표 재료를 사용하여 상기 렌더링될 영역에 대해 렌더링을 수행하여, 렌더링 결과를 생성하기 위한 렌더링 모듈을 포함한다.
하나의 가능한 구현 방식에서, 상기 참조 이미지 생성 모듈은,
상기 목표 이미지와 사이즈가 동일한 제1 초기 이미지를 생성하고;
상기 제1 초기 이미지에서, 상기 제2 대상의 커버리지 영역을 마킹하여, 상기 참조 이미지를 얻기 위한 것이다.
하나의 가능한 구현 방식에서, 상기 참조 이미지 생성 모듈은 또한,
상기 제1 초기 이미지에서, 상기 제2 대상의 커버리지 영역에 포함된 적어도 하나의 픽셀점을 목표 픽셀값으로 변경하여, 상기 참조 이미지를 얻기 위한 것이다.
하나의 가능한 구현 방식에서, 상기 렌더링될 영역 결정 모듈은,
상기 목표 이미지와 사이즈가 동일한 제2 초기 이미지를 생성하고;
상기 제2 초기 이미지에서, 상기 참조 이미지 및 상기 제1 대상에 따라, 렌더링될 영역을 결정하기 위한 것이다.
하나의 가능한 구현 방식에서, 상기 렌더링될 영역 결정 모듈은 또한,
상기 제2 초기 이미지에서, 상기 제1 대상에 대응하는 영역을 초기 렌더링될 영역으로 취하고;
상기 초기 렌더링될 영역의 픽셀점을 순회하여, 상기 픽셀점이 상기 참조 이미지에서의 대응 위치에 상기 마크가 포함될 경우, 상기 픽셀점을 렌더링될 픽셀점으로 취하며;
상기 렌더링될 픽셀점으로 형성된 영역을 상기 렌더링될 영역으로 취하기 위한 것이다.
하나의 가능한 구현 방식에서, 상기 인식 모듈은,
상기 목표 이미지에 대해 특징 추출을 수행하여, 상기 제1 대상에 대응하는 제1 특징점 집합, 및 상기 제2 대상에 대응하는 제2 특징점 집합을 각각 얻고;
상기 제1 특징점 집합에 포함된 제1 특징점을 제1 기설정된 방식으로 연결하여, 상기 제1 대상에 대응하는 영역을 얻으며;
상기 제2 특징점 집합에 포함된 제2 특징점을 제2 기설정된 방식으로 연결하여, 상기 제2 대상에 대응하는 영역을 얻기 위한 것이다.
하나의 가능한 구현 방식에서, 상기 인식 모듈은 또한,
적어도 3 개의 상기 제1 특징점을 한 세트로 취하여, 상기 제1 특징점 집합에 대해 분할을 수행하여, 적어도 한 세트의 제1 특징점 서브 집합을 얻고;
적어도 한 세트의 상기 제1 특징점 서브 집합에 포함된 상기 제1 특징점을 순차적으로 연결하여, 적어도 하나의 제1 메쉬를 얻으며;
상기 적어도 하나의 제1 메쉬에 의해 커버되는 영역을 제1 대상에 대응하는 영역으로 취하기 위한 것이다.
하나의 가능한 구현 방식에서, 상기 인식 모듈은 또한,
적어도 3 개의 상기 제2 특징점을 한 세트로 취하여, 상기 제2 특징점 집합에 대해 분할을 수행하여, 적어도 한 세트의 제2 특징점 서브 집합을 얻고;
적어도 한 세트의 상기 제2 특징점 서브 집합에 포함된 상기 제2 특징점을 순차적으로 연결하여, 적어도 하나의 제2 메쉬를 얻으며;
상기 적어도 하나의 제2 메쉬에 의해 커버되는 영역을 제2 대상에 대응하는 영역으로 취하기 위한 것이다.
하나의 가능한 구현 방식에서, 상기 장치는 융합 모듈을 더 포함하고, 상기 융합 모듈은,
상기 목표 이미지의 투명도를 변경하여, 변경 결과를 얻고;
상기 렌더링 결과와 상기 변경 결과를 융합하여, 융합 이미지를 얻기 위한 것이다.
하나의 가능한 구현 방식에서, 상기 제1 대상은 동공을 포함하고, 상기 제2 대상은 눈을 포함하며, 상기 목표 재료는 동공 미화를 위한 재료를 포함한다.
본 발명의 일 측면에 따르면, 전자 기기를 제공하며,
프로세서; 및
프로세서에 의해 실행 가능한 명령어를 저장하기 위한 메모리를 포함하며;
상기 프로세서는 상기 이미지 처리 방법을 실행하도록 구성된다.
본 발명의 일 측면에 따르면, 컴퓨터 프로그램 명령어가 저장되어 있는 컴퓨터 판독 가능한 저장 매체를 제공하고, 상기 컴퓨터 프로그램 명령어가 프로세서에 의해 실행될 경우 상기 이미지 처리 방법을 실행한다.
본 발명의 일 측면에 따르면, 컴퓨터 판독 가능 코드를 제공하며, 상기 컴퓨터 판독 가능 코드가 전자 기기에서 작동될 때, 상기 전자 기기에서의 프로세서는 이미지 처리 방법을 실행한다.
본 발명의 실시예의 이미지 처리 방법은, 목표 이미지에서 렌더링될 제1 대상 및 제1 대상이 속하는 제2 대상을 인식하여, 목표 이미지 및 제2 대상에 따라 마크를 포함하는 참조 이미지를 생성하고, 참조 이미지 및 제1 대상에 따라 마크에 대응하는 커버리지 영역 내에 위치하는 렌더링될 영역을 결정함으로써, 목표 재료를 사용하여 렌더링될 영역에 대해 렌더링을 수행하여, 렌더링 결과를 생성한다. 상기 과정을 통해, 제1 대상이 속하는 제2 대상에 의해 생성된 마크를 포함하는 참조 이미지에 따라, 제1 대상을 렌더링할 때, 렌더링 범위를 제약함으로써, 렌더링 결과의 신뢰성 및 진실성을 향상시킬 수 있다.
이해해야 할 것은, 이상의 일반적인 설명 및 하기의 상세한 설명은 다만 예시적이고 해석적인 것이며, 본 발명을 한정하려는 것은 아니다. 다음의 도면에 따라 예시적인 실시예를 상세하게 설명하며, 본 발명의 다른 특징 및 측면은 명백해진다.
아래의 도면은 본 명세서의 일부분으로서 명세서 전체를 구성하며, 이러한 도면은 본 발명에 맞는 실시예를 예시하여, 명세서와 함께 본 발명의 기술방안을 설명하는데 사용된다.
도 1은 본 발명의 실시예에 따른 이미지 처리 방법의 흐름도를 도시한다.
도 2은 본 발명의 실시예에 따른 목표 이미지의 예시도를 도시한다.
도 3은 본 발명의 일 실시예에 따른 목표 재료 예시도를 도시한다.
도 4는 본 발명의 일 실시예에 따른 제1 특징점 집합의 예시도를 도시한다.
도 5는 본 발명의 일 실시예에 따른 제2 특징점 집합의 예시도를 도시한다.
도 6은 본 발명의 일 실시예에 따른 제2 대상의 예시도를 도시한다.
도 7은 본 발명의 일 실시예에 따른 참조 이미지의 예시도를 도시한다.
도 8은 본 발명의 일 실시예에 따른 렌더링 결과의 예시도를 도시한다.
도 9는 본 발명의 일 실시예에 따른 융합 결과의 예시도를 도시한다.
도 10은 본 발명의 일 실시예에 따른 이미지 처리 장치의 블록도를 도시한다.
도 11은 본 발명의 실시예에 따른 전자 기기의 블록도를 도시한다.
도 12는 본 발명의 실시예에 따른 전자 기기의 블록도를 도시한다.
이하, 도면을 참조하여 본 발명의 다양한 예시적인 실시예, 특징 및 측면을 상세하게 설명한다. 도면에서 동일한 도면 부호는 동일하거나 유사한 기능을 갖는 요소를 나타낸다. 실시예의 다양한 측면이 도면에 도시되어 있지만, 특별히 언급되지 않는 한, 도면을 비율에 따라 그릴 필요는 없다.
본문에서 용어 “예시적”은 “예, 실시예 또는 설명으로 사용되는” 것을 의미한다. 여기서 "예시적"으로 설명된 임의의 실시예는 다른 예보다 뛰어나거나 좋은 것으로 해석될 필요는 없다.
본 명세서에서 용어 “ 및 /또는”은 다만 관련 대상의 상관 관계를 설명하기 위한 것일 뿐, 세 가지의 관계가 존재함을 나타내며, 예를 들어, A 및/또는 B는, A가 단독적으로 존재, A 및 B가 동시에 존재, B가 단독적으로 존재하는 세 가지 상황을 나타낸다. 또한, 본 문에서 용어 "적어도 하나"는 복수의 어느 하나 또는 복수의 둘 중 어느 하나의 조합을 의미하고, 예를 들어, A, B, C 중 적어도 하나를 포함하여, A, B 및 C로 구성된 조합에서 선택된 어느 하나 또는 복수 개의 요소를 나타낼 수 있다.
또한, 본 발명을 더 잘 설명하기 위해, 아래의 구체적인 실시형태에서 다수의 구체적인 세부 사항을 제공한다. 본 분야의 기술자는 일부 구체적인 세부 사항이 없이도, 본 발명이 마찬가지로 실시될 수 있음을 이해해야 한다. 일부 예에서, 당업자에게 잘 알려진 방법, 수단, 요소 및 회로는 본 발명의 취지가 명백해지도록 상세하게 설명되지 않는다.
도 1은 본 발명의 일 실시예에 따른 이미지 처리 방법의 흐름도를 도시하며, 상기 방법은 이미지 처리 장치에 적용될 수 있고, 이미지 처리 장치는 단말 기기, 서버 또는 다른 처리 기기 등일 수 있다. 여기서, 단말 기기는 사용자 기기(User Equipment, UE), 모바일 기기, 사용자 단말, 셀룰러 폰, 무선 전화, 개인용 정보 단말기(Personal Digital Assistant, PDA), 핸드헬드 기기, 컴퓨팅 기기, 차량 탑재 기기, 웨어러블 기기 등일 수 있다.
일부 가능한 구현방식에서, 상기 이미지 처리 방법은 프로세서가 메모리에 저장된 컴퓨터 판독 가능한 명령어를 호출하는 방식을 통해 구현될 수 있다.
도 1에 도시된 바와 같이, 상기 이미지 처리 방법은 다음의 단계를 포함할 수 있다.
단계 S11에 있어서, 목표 이미지에서 렌더링될 제1 대상, 및 목표 이미지에서 제1 대상이 속하는 제2 대상을 인식한다.
단계 S12에 있어서, 목표 이미지 및 제2 대상에 따라, 마크를 포함하는 참조 이미지를 생성하며, 마크는 제2 대상의 커버리지 영역을 기록하기 위한 것이다.
단계 S13에 있어서, 참조 이미지 및 제1 대상에 따라, 렌더링될 영역을 결정하며, 렌더링될 영역은 마크에 대응하는 커버리지 영역 내에 위치한다.
단계 S14에 있어서, 목표 재료를 사용하여 렌더링될 영역에 대해 렌더링을 수행하여, 렌더링 결과를 생성한다.
본 발명의 실시예의 이미지 처리 방법은, 목표 이미지에서 렌더링될 제1 대상 및 제1 대상이 속하는 제2 대상을 인식하여, 목표 이미지 및 제2 대상에 따라 마크를 포함하는 참조 이미지를 생성하고, 참조 이미지 및 제1 대상에 따라 마크에 대응하는 커버리지 영역 내에 위치하는 렌더링될 영역을 결정함으로써, 목표 재료를 사용하여 렌더링될 영역에 대해 렌더링을 수행하여, 렌더링 결과를 생성한다. 상기 과정을 통해, 제1 대상이 속하는 제2 대상에 의해 생성된 마크를 포함하는 참조 이미지에 따라, 제1 대상을 렌더링할 때, 렌더링 범위를 제약함으로써, 렌더링 결과의 신뢰성 및 진실성을 향상시킬 수 있다.
상기 개시된 실시예에서, 목표 이미지의 구현 방식은 한정을 받지 않으며, 렌더링 요구사항이 있는 임의의 이미지를 모두 목표 이미지의 구현 방식으로 취할 수 있다. 하나의 가능한 구현 방식에서, 목표 이미지는 프로필 이미지, 반신 이미지 또는 전신 이미지 등과 같은 얼굴 영역을 포함한 대상일 수 있다.
도 2는 본 발명의 일 실시예에 따른 목표 이미지의 예시도, 도면에 도시된 바와 같이, 본 발명의 실시예에서, 목표 이미지는 얼굴을 포함하는 프로필 이미지일 수 있다. 목표 이미지에서 렌더링될 제1 대상의 구체적인 대상 내용도 실제 렌더링 요구사항에 따라 결정될 수 있으며, 본 발명의 실시예에 한정되지 않는다.
하나의 가능한 구현 방식에서, 목표 이미지가 얼굴을 포함하는 영역의 대상일 때, 제1 대상은 동공, 콧대, 귓볼 또는 입술 등과 같은 얼굴에서의 특정 부위일 수 있으며, 실제 필요에 따라 결정하면 된다. 제1 대상이 속하는 제2 대상의 구체적인 내용은, 제1 대상의 실제 상황에 따라 유연하게 결정할 수 있으며, 예컨대, 제1 대상이 동공이면, 제2 대상은 눈일 수 있고; 제1 대상이 콧대이면, 제2 대상은 코일 수 있으며; 제1 대상이 귓볼이면, 제2 대상은 귀일 수 있으며, 제1 대상이 입술이면, 제2 대상은 입일 수 있다. 또한, 목표 이미지의 개수도 한정되지 않으며, 하나의 가능한 구현 방식에서, 목표 이미지는 단일 사진을 포함할 수 있거나, 복수 개의 사진을 포함할 수 있으며, 즉 한번에 복수 개의 사진에서의 대상에 대해 배치 렌더링을 수행한다.
목표 이미지, 제1 대상 및 제2 대상의 구현 방식은 모두 실제 상황에 따라 유연하게 결정할 수 있으므로, 이미지 및 제2 대상에 따라 생성된 참조 이미지, 참조 이미지에 포함된 마크, 및 참조 이미지 및 제1 대상에 따라 결정된 렌더링될 영역은 모두, 목표 이미지 등 구현 방식이 상이함에 따라 유연하게 변화가 발생할 수 있으며, 여기서 더이상 설명하지 않으며, 상세한 내용은 아래에 개시되는 실시예를 참조한다.
상기 발명의 실시예에 따른 단계 S14로부터 알다시피, 렌더링 결과는 목표 재료에 기반하여 렌더링될 영역에 대해 렌더링을 수행하여 얻고, 목표 재료의 구현 방식도, 제1 대상의 실제 상황에 따라 유연하게 설정할 수 있으며, 하기의 각 발명의 실시예에 한정되지 않는다. 예컨대, 제1 대상이 동공이면, 상기 목표 재료는 써클 렌즈 재료일 수 있으며; 제1 대상이 콧대이면, 상기 목표 재료는 섀도우 재료일 수 있으며; 제1 대상이 귓볼이면, 상기 목표 재료는 귀걸이 재료일 수 있으며; 제1 대상이 입술이면, 상기 목표 재료는 립스틱 재료일 수 있다.
하나의 가능한 구현 방식에서, 제1 대상은 동공 대상을 포함할 수 있고, 제2 대상은 눈 대상을 포함할 수 있으며, 목표 재료는 동공 미화를 위한 재료를 포함할 수 있으며, 하나의 예에서, 동공 미화를 위한 재료는 써클 렌즈 재료일 수 있고, 상기 써클 렌즈 재료의 구체적인 내용은 유연학 선택 및 설정될 수 있으며, 그 획득 방식도 실제 상황에 따라 유연하게 설정될 수 있으며, 하나의 예에서, 써클 렌즈 재료는 써클 렌즈 재료 라이브러리로부터 무작위로 선택될 수 있고, 하나의 예에서, 써클 렌즈 재료도 요구사항에 따라 선택된 재료 등일 수 있다. 도 3은 본 발명의 일 실시예에 따른 목표 재료 예시도를 도시하며, 도면으로부터 보다시피, 본 발명의 예에서, 상기 목표 재료는 일정한 광택 텍스처를 갖는 자주색의 써클 렌즈 재료(도면의 제한으로, 자주색은 도면으로부터 볼 수 없음)일 수 있다.
동공 대상의 제1 대상, 눈 대상을 포함하는 제2 대상 및 써클 렌즈 재료를 포함하는 써클 렌즈 재료를 통해, 본 발명의 실시예에서 제안된 이미지 처리 방법은, 얼굴 이미지에 대해 써클 렌즈 처리를 수행하는 과정에 적용됨으로써, 눈 대상에 따라 생성된, 마킹된 참조 이미지를 통해, 렌더링 범위를 효과적으로 제약하여, 렌더링 과정에서 써클 렌즈 재료를 동공 이외의 영역에 렌더링하는 가능성을 감소시킨다.
설명해야 할 것은, 본 발명의 실시예의 이미지 처리 방법은 얼굴을 포함하는 영역에 적용되는 이미지의 처리에 한정되지 않고, 임의의 이미지 처리에 적용될 수 있으며, 본 발명은 이를 한정하지 않는다.
목표 이미지의 획득 방식은 한정되지 않고, 하기의 발명의 실시예에 한정되지 않는다. 하나의 가능한 구현 방식에서, 판독 또는 수신의 방식으로, 목표 이미지를 획득할 수 있으며; 하나의 가능한 구현 방식에서, 능동 촬영 방식 또는 다른 능동 획득 방식으로, 목표 이미지를 획득할 수 있다.
상기 발명의 실시예에 기반하여 얻은 목표 이미지는, 단계 S11을 통해 목표 이미지에서의 제1 대상 및 제2 대상을 인식할 수 있다. 단계 S11의 구현 방식은 한정되지 않으며, 하나의 가능한 구현 방식에서, 목표 이미지에서 대상 검출을 수행하는 방식으로, 목표 이미지에서 렌더링될 제1 대상 및 제2 대상을 결정할 수 있다. 하나의 예에서, 목표 이미지에서 제1 대상을 향한 대상 검출 및 제2 대상을 향한 대상 검출을 각각 수행할 수 있으며; 하나의 예에서, 또한 목표 이미지에서 제2 대상을 향한 대상 검출을 먼저 수행한 다음, 제2 대상의 검출 결과에 따라, 목표 이미지에 대해 크롭을 수행하여 제2 대상의 이미지를 유지하며, 제1 대상은 제2 대상의 일부분에 속하므로, 크롭된 이미지에서 대상 검출을 추가로 수행하여, 제1 대상에 대응하는 영역을 얻을 수 있다.
대상 검출의 방식에 대해서도 본 발명의 실시예는 한정하지 않으며, 이미지로부터 목표 대상에 대해 검출을 수행하거나 실패할 수 있는 임의의 방식은 모두, 대상 검출의 구현 방식으로 취할 수 있다. 하나의 가능한 구현 방식에서, 특징 추출의 방식으로 구현 대상 검출을 구현할 수 있다.
따라서, 하나의 가능한 구현 방식에서, 단계 S11은 다음의 단계를 포함할 수 있다.
단계 S111에 있어서, 목표 이미지에 대해 특징 추출을 수행하여, 제1 대상에 대응하는 제1 특징점 집합, 및 제2 대상에 대응하는 제2 특징점 집합을 각각 얻는다.
단계 S112에 있어서, 제1 특징점 집합에 포함된 제1 특징점을 제1 기설정된 방식으로 연결하여, 제1 대상에 대응하는 영역을 얻는다.
단계 S113에 있어서, 제2 특징점 집합에 포함된 제2 특징점을 제2 기설정된 방식으로 연결하여, 제2 대상에 대응하는 영역을 얻는다.
목표 이미지에 특징 추출을 수행하여 제1 특징점 집합 및 제2 특징점 집합을 수행한 다음, 제1 특징점 집합에서의 점은 제1 기설정된 방식으로 제1 대상에 대응하는 영역을 연결하여 얻고, 제2 특징점 집합에서의 점은 제2 기설정된 방식으로 제2 대상에 대응하는 영역을 연결하여 얻으며, 여기서, 제1 대상에 대응하는 영역은 제1 대상의 커버리지 영역으로 지칭될 수도 있고, 제2 대상에 대응하는 영역은 제2 대상의 커버리지 영역으로 지칭될 수도 있다.
상기 과정을 통해, 특징 추출의 방식으로, 제1 특징점 집합 및 제2 특징점 집합을 기반으로 제1 대상과 제2 대상이 목표 이미지에서의 위치를 빠르고 효율적으로 포지셔닝하여, 제1 대상에 대응하는 영역 및 제1 대상이 속하는 제2 대상에 대응하는 영역을 얻을 수 있으므로, 제2 대상의 위치를 통해 제1 대상의 후속 렌더링 과정을 제약하는데 용이하여, 렌더링 결과의 신뢰성을 향상시킨다.
상기 개시된 실시예에서, 단계 S111의 구현 방식은 한정되지 않으며, 즉 특징 추출의 구체적인 방식은, 본 발명의 실시예에 한정되지 않고, 특징 추출을 수행할 수 있는 임의의 계산 방법은 모두, 단계 S111의 구현 방식으로 사용할 수 있다.
상기 개시된 실시예에서 언급한 바와 같이, 제1 대상 및 제2 대상에 대해 대상 검출을 수행할 때의 순서는 실제 상황에 따라 유연하게 선택될 수 있으며, 특징 추출은 대상 검출의 하나의 가능한 구현 방식이므로, 제1 대상 및 제2 대상에 대해 특징 추출을 동시에 수행할 수 있거나, 먼저 제2 대상에 대해 특징 추출을 수행한 다음 제1 대상의 특징 추출을 추가로 수행할 수도 있으며, 두 가지 특징 추출 방식은 동일하거나 상이할 수도 있으며, 여기서 더이상 설명하지 않는다. 상기 이유로, 제1 특징점 집합과 제2 특징점 집합 사이에는 공통의 특징점을 가질 수 있거나, 공통의 특징점을 가지지 않을 수도 있으며, 공통의 특징점이 있는지 여부에 관계 없이, 후속적으로 제1 대상에 대응하는 영역과 제2 대상에 대응하는 영역을 얻는 과정에 모두 영향을 미치지 않으므로, 본 발명의 실시예에서 두 개의 특징점 집합 사이의 관계에 대해 한정하지 않는다. 도 4는 본 발명의 일 실시예에 따른 제1 특징점 집합의 예시도를 도시하며, 도 5는 본 발명의 일 실시예에 따른 제2 특징점 집합의 예시도를 도시하며, 도면에 도시된 바와 같이, 하나의 예에서, 도 4에서의 제1 특징점 집합은 도 2에서의 얼굴 이미지에 대해 동공 특징점 추출에 의해 얻은 점의 집합이며, 도 5에서의 제2 특징점 집합은 도 2에서의 얼굴 이미지에 대해 눈 특징점 추출에 의해 얻은 점의 집합이며; 도면으로부터 보다시피, 본 발명의 예에서의 제1 특징점 집합 및 제2 특징점 집합은 각각 목표 이미지에 대해 특징 추출을 수행하여 얻으며, 제1 특징점 집합과 제2 특징점 집합은 동공과 눈의 교차점에서 겹치는 특징점을 가진다.
제1 특징점 집합 및 제2 특징점 집합을 얻은 후, 단계 S112 및 단계 S113을 통해, 제1 대상에 대응하는 영역 및 제2 대상에 대응하는 영역을 얻을 수 있으며, 본 발명의 실시예에서, 단계 S112 및 단계 S113의 실행 순서는 한정되지 않고, 동시에 또는 순차적으로 수행될 수 있으며, 순차적으로 수행 시, 단계 S112를 먼주 수행하거나 단계 S113을 먼저 수행할 수 있으며, 여기서 한정하지 않는다.
단계 S112를 통해 보다시피, 제1 대상의 획득 과정은 제1 특징점 집합을 제1 기설정된 방식으로 연결하여, 제1 기설정된 방식의 구체적인 구현 형태이며, 본 발명의 실시예에 한정되지 않으며, 제1 대상의 실제 상황에 따라 결정될 수 있으며, 여기서 한정하지 않는다. 마찬가지로, 제2 대상에 대응하는 영역을 얻는 제2 기설정된 방식도, 실제 상황에 따라 유연하게 선택될 수 있으며, 제2 기설정된 방식은 제1 기설정된 방식과 동일하거나, 상이할 수 있다.
하나의 가능한 구현 방식에서, 단계 S112는,
제1 특징점 집합에 포함된 제1 특징점을, 제1 기설정된 방식의 순서에 따라, 적어도 하나의 제1 메쉬로 연결하여, 제1 메쉬에 의해 커버되는 영역을 제1 대상에 대응하는 영역으로 취하는 단계를 포함할 수 있다.
상기 발명의 실시예를 통해 볼 수 있다시피, 제1 대상에 대응하는 영역을 얻는 경우, 제1 특징점 집합에 포함된 제1 특징점을 제1 기설정된 방식의 순서로 연결할 수 있으며, 상기 개시된 실시예에서 제안된 바와 같이, 제1 기설정된 방식은 실제 상황에 따라 설정될 수 있으므로, 제1 특징점의 연결 순서도 미리 설정되는 방식으로 결정되며, 제1 특징점은 기설정된 순서에 따라 연결된 후, 적어도 하나의 메쉬를 얻을 수 있으며, 본 발명의 실시예에서 이 메쉬를 제1 메쉬라 지칭할 수 있다. 제1 메쉬의 개수와 모양은 모두 제1 특징점 집합에 포함된 제1 특징점 개수와 제1 기설정된 방식의 상황에 따라 결정될 수 있으며, 하나의 예에서, 제1 기설정된 방식은 제1 특징점 집합에서의 3 개의 제1 특징점마다 한 세트로 분할하여 연결하여, 복수 개의 삼각 메쉬를 형성하는 것일 수 있으며, 구체적으로 어느 3 개의 점을 한 세트로 분할할지는 여기서 한정하지 않으며, 실제 상황에 따라 설정하면 된다. 하나의 예에서, 제1 기설정된 방식도 제1 특징점 집합에서의 4 개의 제1 특징점마다 한 세트로 분할하여 연결하여, 복수 개의 사각 메쉬를 형성하는 것일 수 있으며, 분할 방식에 대해서는 여전히 한정하지 않는다.
상기 기설정된 방식에 기반한 발명의 예로부터 보다시피, 하나의 가능한 구현 방식에서, 단계 S112은 다음의 단계를 포함할 수 있다.
단계 S1121에 있어서, 적어도 3 개의 제1 특징점을 한 세트로 취하여, 제1 특징점 집합에 대해 분할을 수행하여, 적어도 한 세트의 제1 특징점 서브 집합을 얻는다.
단계 S1122에 있어서, 적어도 한 세트의 제1 특징점 서브 집합에 포함된 제1 특징점을 순차적으로 연결하여, 적어도 하나의 제1 메쉬를 각각 얻는다.
단계 S1123에 있어서, 적어도 하나의 제1 메쉬에 의해 커버되는 영역을 제1 대상에 대응하는 영역으로 취한다.
여기서, 한 세트로 취해진 제1 특징점의 개수는 3 개일 수 있거나, 3 개보다 많은 4 개, 5 개 또는 6 개 등일 수 있으며, 여기에 한정되지 않는다. 상기 과정을 통해, 많은 계산 자원이 필요 없이, 제1 특징점 집합의 실제 상황에 따라, 제1 대상이 위치한 영역을 완전히 커버할 수 있으며, 제1 대상을 빠르고 효율적으로 결정하여, 후속적인 렌더링 과정에 대비할 수 있다.
마찬가지로, 하나의 가능한 구현 방식에서, 단계 S113은,
제2 특징점 집합에 포함된 제2 특징점을, 제2 기설정된 방식의 순서에 따라, 적어도 하나의 제2 메쉬로 연결하여, 제2 메쉬에 의해 커버되는 영역을 제2 대상에 대응하는 영역으로 취하는 단계를 포함할 수 있다.
상기 발명의 실시예의 구체적인 구현 과정은 제1 대상의 구현 과정을 참조할 수 있으며, 하나의 가능한 구현 방식에서, 단계 S113은 다음의 단계를 포함할 수 있다.
단계 S1131에 있어서, 적어도 3 개의 제2 특징점을 한 세트로 취하여, 제2 특징점 집합에 대해 분할을 수행하여, 적어도 한 세트의 제2 특징점 서브 집합을 얻는다.
단계 S1132에 있어서, 적어도 한 세트의 제2 특징점 서브 집합에 포함된 제2 특징점을 순차적으로 연결하여, 적어도 하나의 제2 메쉬를 얻는다.
단계 S1133에 있어서, 적어도 하나의 제2 메쉬에 의해 커버되는 영역을 제2 대상에 대응하는 영역으로 취한다.
도 6은 본 발명의 일 실시예에 따른 제2 대상의 예시도를 도시하며, 도면으로부터 보다시피, 하나의 예에서, 도 5에서의 제2 특징점 집합 중의 제2 특징점을 제2 기설정된 방식으로 연결하여, 복수 개의 삼각 메쉬를 얻을 수 있으며, 이러한 삼각 메쉬는 제2 대상에 대응하는 영역을 공통으로 형성한다.
여기서, 상기 제1 메쉬 및 제2 메쉬는, 다각형 메쉬(Polygon mesh)로서 3 차원 컴퓨터 그래픽에서 다면체의 모양을 나타내는 정점과 다각형의 집합이며, 비구조화 메쉬라고도 한다. 예시적으로, 제1 메쉬 및 제2 메쉬는 삼각 메쉬의 모양을 채택할 수 있다. 삼각 메쉬는 제1 대상에 대응하는 영역 및 제2 대상에 대응하는 영역으로 둘러싸여, 후속적인 렌더링을 수행하는데 용이하다.
제1 대상 및 제2 대상을 결정한 후, 단계 S12를 통해, 목표 이미지 및 제2 대상에 따라, 마크를 포함하는 참조 이미지를 생성하며, 여기서, 마크는 제2 대상의 커버리지 영역을 기록하기 위한 것이다. 단계 S12의 구현 방식은 제1 대상 및 제2 대상의 실제 상황에 따라 유연하게 결정될 수 있고, 하기의 발명의 실시예에 한정되지 않는다. 하나의 가능한 구현 방식에서, 단계 S12는 다음의 단계를 포함할 수 있다.
단계 S121에 있어서, 목표 이미지의 사이즈와 동일한 제1 초기 이미지를 생성한다.
단계 S122에 있어서, 제1 초기 이미지에서, 제2 대상의 커버리지 영역을 마킹하여, 참조 이미지를 얻는다.
목표 이미지의 사이즈와 동일한 제1 초기 이미지를 생성하고, 제1 초기 이미지에서, 제2 대상의 커버리지 영역을 마킹함으로써 참조 이미지를 얻으며, 이 과정은 하나의 목표 이미지의 사이즈와 동일한 사이즈의 재구성 이미지를 사용하여, 제2 대상의 목표 이미지에서의 위치를 효과적으로 마킹할 수 있으므로, 후속적인 렌더링 과정에서, 마크에 기반하여 제1 대상을 렌더링할 때, 렌더링된 픽셀이 제2 대상의 위치를 초과하는지 여부를 결정할 수 있어, 렌더링 오버플로우의 가능성을 줄여, 렌더링의 신뢰성 및 진실성을 향상시킨다.
상기 개시된 실시예에서, 제1 초기 이미지의 사이즈는 목표 이미지의 사이즈와 동일하며, 그 구체적인 이미지 내용은 본 발명의 실시예에 한정되지 않으며, 하나의 예에서, 제1 초기 이미지는 공백 이미지일 수 있으며, 하나의 예에서, 제1 초기 이미지는 특정 텍스처에 의해 커버된 이미지일 수 있으며, 커버된 텍스처는 본 발명의 실시예에 한정되지 않으며, 실제 상황에 따라 유연하게 설정될 수 있다. 여기서, 텍스처는 물체 표면의 세부 정보를 나타내는 하나 또는 복수 개의 2 차원 그래픽이며, 텍스처 매핑(texture mapping)이라고도 한다. 하나의 예에서, 제1 초기 이미지는 특정 단색 텍스처에 의해 커버되는 이미지일 수 있으며, 상기 텍스처의 색상도 유연하게 설정될 수 있으며, 검정색, 흰색 또는 빨간색일 수 있다. 제1 초기 이미지의 생성 과정은 본 발명의 실시예에 한정되지 않으며, 목표 이미지의 사이즈를 판독한 후, 동일한 사이즈의 이미지를 구성할 수 있다.
제1 초기 이미지를 생성한 후, 단계 S122를 통해, 제1 초기 이미지 내에 제2 대상의 커버리지 영역을 마킹하여, 참조 이미지를 얻는다. 제1 초기 이미지와 목표 이미지의 사이즈가 동일하므로, 마킹된 영역이 제1 초기 이미지에서의 위치는, 제2 대상이 목표 이미지에서의 위치와 일치하다. 마킹 방식은 본 발명의 실시예에 한정되지 않고, 제1 초기 이미지에서 제2 대상에 대응하는 영역과 제1 초기 대상 자체의 나머지 영역을 구분하는 임의의 마킹 방식을 모두, 마킹의 구현 방식으로 취할 수 있다. 하나의 가능한 구현 방식에서, 마킹 방식은 제1 초기 이미지에서 마킹이 필요한 위치에 마커를 추가하는 것일 수 있으며, 마커는 심볼, 데이터 또는 텍스처 등이 될 수 있으며, 여기서 한정하지 않는다.
하나의 가능한 구현 방식에서, 이미지에서의 픽셀값을 조정하는 방식으로 마킹을 구현하며, 상기 구현 방식에서, 단계 S122은,
제1 초기 이미지에서, 제2 대상의 커버리지 영역에 포함된 적어도 하나의 픽셀점을 목표 픽셀값으로 변경하여, 참조 이미지를 얻는 단계를 포함할 수 있다.
여기서, 목표 픽셀값을 가진 이미지 영역은 참조 이미지에서 마크를 포함하는 이미지 영역이다. 또한, 제1 초기 이미지에 대해 제2 대상의 커버리지 영역에 대해 목표 픽셀값의 마킹을 수행하는 것 외에도, 제2 대상의 커버리지 영역을 제외한 다른 영역을 목표 픽셀값과 구별되는 다른 픽셀값으로 조정하여, 두 가지 상이한 영역의 명확한 구분을 구현한다.
제1 초기 이미지에서, 제2 대상의 커버리지 영역에 포함된 적어도 하나의 픽셀점을 목표 픽셀값으로 변경하여, 참조 이미지를 얻으며, 제2 대상의 커버리지 영역의 색상을 변경하는 방식으로, 제2 대상의 커버리지 영역에 대한 마킹을 구현할 수 있으므로, 과정이 간단하고, 비용을 절감한다.
하나의 가능한 구현 방식에서, 단계 S122은,
제1 초기 이미지에서, 제2 대상의 커버리지 영역에 기설정된 텍스처를 통해 렌더링을 수행하여, 참조 이미지를 얻는 단계를 포함할 수 있다.
상기 개시된 실시예에서, 제2 대상에 대응하는 영역에 대해 렌더링을 수행하기 위한 기설정된 텍스처는, 그 구체저인 구현 방식은 본 발명의 실시예에 한정되지 않으며, 제2 대상에 대응하는 영역과 제1 초기 이미지의 다른 영역을 구분하면 된다. 하나의 예에서, 제1 초기 이미지가 공백 이미지인 경우, 기설정된 텍스처는 공백을 포함하지 않은 영역의 임의의 텍스처이며; 하나의 예에서, 제1 초기 이미지가 특정 색상의 단색 텍스처에 의해 커버될 때, 기설정된 텍스처는 상기 색상을 포함하지 않은 임의의 텍스처일 수 있다. 도 7은 본 발명의 일 실시예에 따른 참조 이미지의 예시도를 도시하며, 도면으로부터 보다시피, 본 발명의 예에서, 제1 초기 이미지는 검정색 텍스처에 의해 커버된 이미지이지만, 제2 대상은 빨간색 텍스처에 의해 렌더링이 수행되어, 도면에 도시된 것과 같은 참조 이미지를 얻는다.
제1 초기 이미지에서, 제2 대상의 커버리지 영역을 기설정된 텍스처에 의해 렌더링을 수행하여 참조 이미지를 얻음으로써, 비교적 간단한 방식으로, 제2 대상의 위치가 참조 이미지에서 마킹되어, 마크에 따라 렌더링될 영역에 대해 후속 렌더링을 수행하기 위해 충분한 준비를 하는 동시에, 렌더링으로 마킹된 제2 대상을 전체 렌더링 과정에 적용하여, 동일한 렌더링 방법으로 전체 이미지 처리 과정을 완료할 수 있으므로, 추가적인 자원 소비를 줄여, 이미지 처리의 전반적인 효율을 향상시키는 동시에 비용을 절약할 수 있다.
참조 이미지를 획득한 후, 단계 S13을 통해 렌더링될 영역을 결정하며, 하나의 가능한 구현 방식에서, 단계 S13은 다음의 단계를 포함할 수 있다.
단계 S131에 있어서, 목표 이미지와 사이즈가 동일한 제2 초기 이미지를 생성한다.
단계 S132에 있어서, 제2 초기 이미지에서, 참조 이미지 및 제1 대상에 따라, 렌더링될 영역을 결정한다.
상기 개시된 실시예에서, 목표 이미지와 사이즈가 동일한 제2 초기 이미지에서, 참조 이미지 및 제1 대상에 따라, 렌더링될 영역을 결정하고, 상기 과정을 통해, 참조 이미지는 제2 대상이 목표 이미지에서의 위치에 따라 생성되므로, 렌더링될 영역은 제2 대상 위치의 제약을 받음으로써, 렌더링 오버플로우에 필요한 렌더링 범위의 가능성을 감소시켜, 렌더링 결과의 신뢰성을 향상시킨다.
구체적으로 참조 이미지 및 제1 대상에 따라 렌더링될 영역을 어떻게 결정하는지에 대한 구체적인 구현 형태는 참조 이미지에서 마킹된 실제 상황에 따라 유연하게 결정될 수 있다. 하나의 가능한 구현 방식에서, 단계 S132는 다음의 단계를 포함할 수 있다.
단계 S1321에 있어서, 제2 초기 이미지에서, 제1 대상에 대응하는 영역을 초기 렌더링될 영역으로 취한다.
단계 S1322에 있어서, 초기 렌더링될 영역의 픽셀점을 순회하여, 픽셀점이 참조 이미지에서의 대응 위치에 마크가 포하될 경우, 픽셀점을 렌더링될 픽셀점으로 취한다.
단계 S1323에 있어서, 렌더링될 픽셀점으로 형성된 영역을 렌더링될 영역으로 취한다.
단계 S1321에서, 제2 초기 이미지의 생성 과정과 구현 방식을 모두 한정하지 않으며, 상기 개시된 실시예에서 제안된 제1 초기 이미지의 생성 과정과 구현 방식을 참조할 수 있으며, 여기서 더이상 설명하지 않으며, 유의해야 할 것은, 제2 초기 이미지의 구현 방식은 제1 초기 이미지와 동일하거나, 상이할 수 있다.
제2 초기 이미지가 생성된 후, 단계 S1322를 통해, 초기 렌더링될 영역의 픽셀점을 순회하여, 각 픽셀점을 순회하였으면, 참조 이미지에서, 상기 픽셀점과 동일한 위치를 갖는 픽셀점을 모두 찾을 수 있으며, 본 발명의 실시예에서 순회된 픽셀점을 순회 픽셀점으로 표기하고, 참조 이미지에서 대응하는 픽셀점을 참조 픽셀점으로 표기할 수 있다. 계속하여 참조 픽셀점이 마킹되었는지를 판단하여, 상기 개시된 실시예에서 개시한 내용으로부터 알다시피, 참조 이미지에서 마킹된 영역은 제2 대상이 목표 이미지에서의 위치이므로, 참조 픽셀점이 마킹되면, 렌더링될 영역에서의 순회 픽셀점이 제2 대상의 범위 내에 있음을 설명하고, 이 경우 순회 픽셀점을 렌더링될 픽셀점으로 취할 수 있으며 후속적으로 목표 재료에 의해 렌더링될 것이며; 참조 픽셀점이 마킹되지 않으면, 렌더링될 영역에서의 순회 픽셀점이 제2 대상의 범위를 초과함을 설명할 수 있으며, 이때 상기 순회 픽셀점을 렌더링하면, 렌더링이 기설정된 범위를 초과하는 상황이 발생할 수 있으므로, 상기 참조 픽셀점을 렌더링될 픽셀점으로 취하지 않을 수 있다.
초기 렌더링될 영역에서의 픽셀점을 순회한 후, 모든 렌더링될 픽셀점을 얻을 수 있으며, 이러한 렌더링될 픽셀점은 렌더링될 영역을 공통으로 형성할 수 있다.
렌더링될 영역을 얻은 후, 단계 S14를 통해, 목표 재료를 사용하여 렌더링될 영역에 대해 렌더링을 수행하여, 렌더링 결과를 얻을 수 있다. 렌더링의 구체적인 방식은 본 발명의 실시예에 한정되지 않으며, 적용 가능한 임의의 렌더링 방법은 모두 본 발명의 실시예에서의 구현 방식으로 사용될 수 있으며, 하나의 예에서, 오픈 그래픽 라이브러(Open Graphics Library, OpenGL)가 셰이더(shader)에서 렌더링을 구현함으로써, 상기 개시된 실시예에서 제안된, 제1 초기 이미지에서 기설정된 텍스처를 통해 렌더링을 수행하는 구체적인 구현 방식도, 동일한 렌더링 방식을 채택할 수 있다. 도 8은 본 발명의 일 실시예에 따른 렌더링 결과의 예시도를 도시하며, 도면으로부터 보다시피, 제2 초기 이미지는 검정색 텍스처를 통해 커버된 이미지이며, 도 3에 도시된 써클 렌즈 재료에 의해 렌더링을 수행하여, 도면에 도시된 렌더링 결과를 얻는다.
제2 초기 이미지에서, 제1 대상에 대응하는 영역을 초기 렌더링될 영역으로 취하여, 초기 렌더링될 영역에서의 픽셀점을 순회하고, 상기 픽셀점이 참조 이미지에서 대응하는 픽셀점이 마킹되면, 상기 픽셀점을 렌더링될 픽셀점으로 취하고, 렌더링될 픽셀점이 형성한 영역을 렌더링될 영역으로 취하며, 이러한 과정에 기반하여, 목표 재료가 렌더링되어야 할 영역을 효과적으로 크롭하여, 이 영역이 제1 대상이 속하는 제2 대상의 제약 범위를 벗어나는 가능성을 줄일 수 있으므로, 렌더링 결과의 신뢰성 및 진실성을 향상시킬 수 있다.
렌더링 결과를 얻은 후, 또한 이 렌더링 결과를 원래의 목표 이미지와 결합하여, 목표 이미지에 대해 추가로 수정하거나 보완을 수행할 수 있다. 구체적인 결합 방식은 목표 이미지 및 목표 재료의 실제 상황 및 요구사항에 따라 결정될 수 있으며, 예컨대, 목표 이미지가 얼굴 영역을 포함하는 이미지이고, 목표 재료는 써클 렌즈 재료일 때, 이 결합은 렌더링 결과 및 목표 이미지를 융합한 것 등일 수 있다. 따라서, 하나의 가능한 구현 방식에서, 본 발명의 실시예에서 제안된 방법은 다음의 단계를 더 포함할 수 있다.
단계 S15에 있어서, 목표 이미지의 투명도를 변경하여, 변경 결과를 얻는다.
단계 S16에 있어서, 렌더링 결과와 변경 결과를 융합하여, 융합 이미지를 얻는다.
상기 개시된 실시예에서, 여기서 목표 이미지의 투명도를 변경하는 구체적인 값을 한정하지 않으며, 실제 상황에 따라 유연한 설정을 수행하여, 렌더링 결과 및 목표 이미지의 융합 효과를 확보하면 된다. 렌더링 결과를 생성하는 제2 초기 이미지의 사이즈는 목표 이미지와 동일하므로, 렌더링 결과는 목표 이미지에서의 상응한 위치에 효과적으로 융합되며, 예를 들어, 목표 이미지가 얼굴 이미지이고, 목표 재료가 써클 렌즈이면, 융합 결과에서 써클 렌즈 재료가 렌더링된 위치는 동공이 얼굴 이미지에서의 위치와 일치하므로, 렌더링 결과와 변경된 투명도의 목표 이미지가 융합될 때, 렌더링된 써클 렌즈 재료는 얼굴 이미지에서 동공의 위치에 자연적으로 융합됨으로써, 얼굴 이미지의 써클 렌즈 효과를 구현한다. 도 9는 본 발명의 일 실시예에 따른 융합 결과의 예시도를 도시하며, 도면으로부터 보다시피, 상기 각 발명의 실시예에서 제안된 이미지 처리 방법을 통해, 도 3에서의 써클 렌즈 재료를 도 2에서의 얼굴 이미지의 동공 위치에 효율적이고 정확하게 융합할 수 있다.
적용 장면 예시
얼굴 이미지에 대한 메이크업은 현재 얼굴 이미지 처리 중 하나의 주류 방식으로서, 예컨대, 얼굴 이미지에 대해 써클 렌즈를 적용하고, 얼굴 이미지의 입술에 립스틱을 추가하거나, 콧대 섀도우를 추가하는 등이다. 써클 렌즈를 예로 들면, 얼굴 이미지에 써클 렌즈 재료를 렌더링하면, 얼굴 이미지의 눈의 개폐 정도가 상이할 수 있으므로, 써클 렌즈 과정에서 써클 렌즈 재료를 눈꺼풀 또는 눈꺼플 바깥쪽에 렌더링할 가능성이 매우 높아, 써클 렌즈 결과가 부정확해져, 써클 렌즈 결과의 현실성이 떨어진다.
따라서, 신뢰성 있는 하나의 렌더링 방식에 기반한 이미지 처리 과정은 써클 렌즈의 품질을 크게 향상시켜, 상기 이미지 처리 방법의 품질 및 적용 범위를 확장할 수 있다.
도 2~도 9에 도시된 바와 같이, 본 발명의 실시예는 이미지 처리 방법을 제안하였고, 이 처리 방법의 구체적인 과정은 다음과 같을 수 있다.
도 2는 수행될 써클 렌즈의 얼굴 이미지(즉 상기 발명의 각 실시예에서 제안된 목표 이미지)는, 본 발명의 응용 예에서, 먼저 특징점 추출을 통해, 상기 얼굴 이미지의 동공 윤곽점(도 4에 도시됨)을 제2 대상의 제2 특징점 집합으로서 추출하고, 및 눈 윤곽점(도 5에 도시됨)을 제1 대상의 제1 특징점 집합으로서 추출한다. 눈 윤곽점을 얻은 후, 눈 윤곽점을 기설정된 순서에 따라 눈 삼각 메쉬를 제1 메쉬(도 6에 도시됨)로서 연결하며, 마찬가지로, 동공 윤곽점을 기설정된 순서에 따라 다른 동공 삼각 메쉬를 제2 메쉬로서 연결할 수도 있다.
도 6에 도시된 눈 삼각 메쉬를 얻은 후, 도 2와 크기가 동일한 하나의 검정색 텍스처 이미지를 제1 초기 이미지로 만든 다음, 검정색 텍스처 이미지 및 도 6의 눈 삼각 메쉬의 정점 좌표를 shader에 전달할 수 있으며, OpenGL을 통해 검정색 텍스처 이미지에서 눈 삼각 메쉬에 대응하는 위치의 픽셀점을 빨간색으로 렌더링하여 마킹하며, 나머지 위치의 픽셀점은 여전히 원래 상태를 유지함으로써, 눈 윤곽의 마스크(mask) 텍스처, 즉 마크를 포함하는 참조 이미지(도 7에 도시됨)를 얻는다.
눈 윤곽의 mask 텍스처를 얻은 후, 이 눈 윤곽의 mask 텍스처 및 전에 얻은 동공 삼각 메쉬의 정점 좌표, 또한 도 3에 도시된 써클 렌즈 재료를 공통으로 shader에 전달함으로써, 써클 렌즈 재료의 렌더링을 구현할 수 있으며, 본 발명의 적용 예에서, 써클 렌즈 재료의 렌더링 과정은, 먼저 하나의 검정색 텍스처 이미지를 제2 초기 이미지로 생성한 다음, 동공 삼각 메쉬의 정점 좌표에 따라, 동공의 위치를 결정하며, 계속하여 동공 위치의 각 픽셀점을 순차적으로 순회하여, 하나의 픽셀점을 순회할 때마다, 이 픽셀점이 눈 윤곽의 mask 텍스처에서 대응하는 픽셀점의 색상이 빨간색인지 여부를 비교할 수 있으며, 빨간색인 경우, 이 픽셀점은 눈의 범위 내에 있고, 렌더링될 픽셀점이며, 써클 렌즈 재료를 이 픽셀점에 렌더링할 수 있음을 설명하며, 빨간색이 아닌 경우, 이 픽셀점이 눈의 범위 밖에 있고, 써클 렌즈 재료를 이 픽셀점에 렌더링하지 않을 수 있음을 설명한다. 동공 위치의 각 픽셀점이 모두 순회된 후, 렌더링 결과를 얻을 수 있고, 이 렌더링 결과는 크롭된 써클 렌즈 재료로 간주될 수 있고, 이 써클 렌즈 재료의 위치는 얼굴 이미지에서 동공의 위치와 일치하며, 렌더링 결과는 도 8에 도시된다.
렌더링 결과를 얻은 후, 렌더링 결과를 원래 얼굴 이미지와 투명도 융합을 수행할 수 있으며, 렌더링 결과의 위치가 얼굴 이미지에서의 동공의 위치와 일치하므로, 융합된 써클 렌즈는 얼굴 이미지의 동공에 정확하게 융합될 수 있으므로, 얼굴의 써클 렌즈를 구현하고, 융합된 결과는 도 9에 도시되고, 도면으로부터 보다시피, 상기 과정을 통해, 신뢰성 있는 써클 렌즈 결과를 얻을 수 있어, 융합된 써클 렌즈는 동공의 범위를 벗어나지 않으며, 눈 주위에 렌더링되지 않는다.
설명해야 할 것은, 본 발명의 실시예의 이미지 처리 방법은 얼굴을 포함하는 영역의 이미지 처리에 적용되는 것에 한정되지 않고, 상기 얼굴 이미지에 대해 써클 렌즈 처리를 수행하는 과정에도 한정되지 않으며, 임의의 이미지 처리에 적용될 수 있으며, 본 발명은 이를 한정하지 않는다.
이해할 수 있는 것은, 본 발명에서 언급한 상기 각 방법 실시예는, 원리와 논리를 위반하지 않는 한, 상호 결합되어 결합된 실시예를 형성할 수 있고, 편폭의 제한으로, 본 발명에서 더이상 반복하여 설명하지 않는다.
본 분야의 기술자는 구체적인 실시형태의 상기 이미지 재구성 방법에서, 각 단계의 기록 순서는 엄격한 실행 순서를 의미하지 않고 실시 과정에 대한 임의의 제한을 구성하며, 각 단계의 구체적인 실행 순서는 그 기능 및 가능한 내부 논리에 의해 결정된다.
도 10은 본 발명의 실시예에 따른 이미지 처리 장치의 블록도를 도시한다. 상기 이미지 처리 장치는 단말 기기, 서버 또는 다른 처리 기기 등일 수 있다. 여기서, 단말 기기는 사용자 기기(User Equipment, UE), 모바일 기기, 사용자 단말, 셀룰러 폰, 무선 전화, 개인용 정보 단말기(Personal Digital Assistant, PDA), 핸드헬드 기기, 컴퓨팅 기기, 차량 탑재 기기, 웨어러블 기기 등일 수 있다.
일부 가능한 구현 방식에서, 상기 이미지 처리 장치는 프로세서에 의해 메모리에 저장된 컴퓨터 판독 가능 명령어를 호출하는 방식을 통해 구현될 수 있다.
도 10에 도시된 바와 같이, 상기 이미지 처리 장치(20)는,
목표 이미지에서 렌더링될 제1 대상, 및 제1 대상이 상기 목표 이미지에 속하는 제2 대상을 인식하기 위한 인식 모듈(21);
목표 이미지 및 상기 제2 대상에 기반하여, 마크를 포함하는 참조 이미지를 생성하기 위한 참조 이미지 생성 모듈(22) - 마크는 제2 대상의 커버리지 영역을 기록하기 위한 것임 - ;
참조 이미지 및 제1 대상에 따라, 렌더링될 영역을 결정하기 위한 렌더링될 영역 결정 모듈(23) - 렌더링될 영역은 마크에 대응하는 커버리지 영역 내에 위치함 - ; 및
목표 재료를 사용하여 렌더링될 영역에 대해 렌더링을 수행하여, 렌더링 결과를 생성하기 위한 렌더링 모듈(24)을 포함할 수 있다.
하나의 가능한 구현 방식에서, 참조 이미지 생성 모듈은, 목표 이미지와 사이즈가 동일한 제1 초기 이미지를 생성하고; 제1 초기 이미지에서, 제2 대상의 커버리지 영역을 마킹하여, 참조 이미지를 얻기 위한 것이다.
하나의 가능한 구현 방식에서, 참조 이미지 생성 모듈은 또한, 제1 초기 이미지에서, 제2 대상의 커버리지 영역에 포함된 적어도 하나의 픽셀점을 목표 픽셀값으로 변경하여, 참조 이미지를 얻기 위한 것이다.
하나의 가능한 구현 방식에서, 렌더링될 영역 결정 모듈은, 목표 이미지와 사이즈가 동일한 제2 초기 이미지를 생성하고; 제2 초기 이미지에서, 참조 이미지 및 제1 대상에 따라, 렌더링될 영역을 결정하기 위한 것이다.
하나의 가능한 구현 방식에서, 렌더링될 영역 결정 모듈은 또한, 제2 초기 이미지에서, 제1 대상에 대응하는 영역을 초기 렌더링될 영역으로 취하고; 초기 렌더링될 영역의 픽셀점을 순회하여, 픽셀점이 참조 이미지에서의 대응 위치에 마크가 포함될 때, 픽셀점을 렌더링될 픽셀점으로 취하며; 렌더링될 픽셀점이 형성한 영역을 렌더링될 영역으로 취하기 위한 것이다.
하나의 가능한 구현 방식에서, 인식 모듈은, 목표 이미지에 대해 특징 추출을 수행하여, 제1 대상에 대응하는 제1 특징점 집합, 및 제2 대상에 대응하는 제2 특징점 집합을 각각 얻고; 제1 특징점 집합에 포함된 제1 특징점을 제1 기설정된 방식으로 연결하여, 제1 대상에 대응하는 영역을 얻으며; 제2 특징점 집합에 포함된 제2 특징점을 제2 기설정된 방식으로 연결하여, 제2 대상에 대응하는 영역을 얻기 위한 것이다.
하나의 가능한 구현 방식에서, 인식 모듈은 또한, 적어도 3 개의 제1 특징점을 한 세트로 취하여, 제1 특징점 집합에 대해 분할을 수행하여, 적어도 한 세트의 제1 특징점 서브 집합을 얻고; 적어도 한 세트의 제1 특징점 서브 집합에 포함된 제1 특징점을 순차적으로 연결하여, 적어도 하나의 제1 메쉬를 얻으며; 적어도 하나의 제1 메쉬에 의해 커버되는 영역을 제1 대상에 대응하는 영역으로 취하기 위한 것이다.
하나의 가능한 구현 방식에서, 인식 모듈은 또한, 적어도 3 개의 제2 특징점을 한 세트로 취하여, 제2 특징점 집합에 대해 분할을 수행하여, 적어도 한 세트의 제2 특징점 서브 집합을 얻고; 적어도 한 세트의 제2 특징점 서브 집합에 포함된 제2 특징점을 순차적으로 연결하여, 적어도 하나의 제2 메쉬를 얻으며; 적어도 하나의 제2 메쉬에 의해 커버되는 영역을 제2 대상에 대응하는 영역으로 취하기 위한 것이다.
하나의 가능한 구현 방식에서, 이미지 처리 장치는 융합 모듈을 더 포함하며, 융합 모듈은, 목표 이미지의 투명도를 변경하여, 변경 결과를 얻고; 렌더링 결과과 변경 결과를 융합하여, 융합 이미지를 얻기 위한 것이다.
하나의 가능한 구현 방식에서, 제1 대상은 동공을 포함하고, 제2 대상은 눈을 포함하며, 목표 재료는 동공 미화를 위한 재료를 포함한다.
본 발명 실시예는 또한 컴퓨터 프로그램 명령어가 저장된 컴퓨터 판독 가능 저장 매체를 제공하며, 상기 컴퓨터 프로그램 명령어는 프로세서에 의해 실행될 때 상기 이미지 처리 방법을 구현한다. 컴퓨터 판독 가능 저장 매체는 비휘발성 컴퓨터 판독 가능 저장 매체일 수 있다.
본 발명 실시예는 또한 전자 기기를 제공하며, 프로세서; 및 프로세서 실행 가능 명령어를 저장하기 위한 메모리를 포함하며; 여기서, 상기 프로세서는 상기 이미지 처리 방법을 실행하도록 구성된다.
전자 기기는 단말, 서버 또는 다른 형태의 기기로 제공될 수 있다.
도 11은 본 발명의 실시예에 따른 전자 기기(800)의 블록도를 도시한다. 예를 들어, 전자 기기(800)는 휴대폰, 컴퓨터, 디지털 방송 단말, 메시지 송수신 기기, 게임 콘솔, 태블릿 기기, 의료 기기, 운동 기기, 개인 휴대 정보 단말 등 단말일 수 있다.
도 11을 참조하면, 전자 기기(800)는 처리 컴포넌트(802), 메모리(804), 전원 컴포넌트(806), 멀티미디어 컴포넌트(808), 오디오 컴포넌트(810), 입력/출력(I/O) 인터페이스(812), 센서 컴포넌트(814), 및 통신 컴포넌트(816) 중 하나 또는 복수 개를 포함할 수 있다.
처리 컴포넌트(802)는 일반적으로 디스플레이, 전화 통화, 데이터 통신, 카메라 동작 및 기록 동작과 관련된 동작과 같은 전자 기기(800)의 전체적인 동작을 제어한다. 처리 컴포넌트(802)는 상기 이미지 재구성 방법 단계의 전부 또는 일부를 구현하기 위한 명령어를 실행하기 위한 하나 또는 복수 개의 프로세서(820)를 포함할 수 있다. 또한, 처리 컴포넌트(802)는 처리 컴포넌트(802) 및 다른 컴포넌트 사이의 인터랙션을 용이하게 하기 위한 하나 또는 복수 개의 모듈을 포함할 수 있다. 예를 들어, 처리 컴포넌트(802)는 멀티미디어 컴포넌트(808) 및 처리 컴포넌트(802) 사이의 인터랙션을 용이하게 하기 위한 멀티미디어 모듈을 포함할 수 있다.
메모리(804)는 전자 기기(800)의 동작을 지원하기 위해 다양한 타입의 데이터를 저장하도록 구성된다. 이러한 데이터의 예는 전자 기기(800)에서 동작하는 임의의 애플리케이션 프로그램 또는 방법의 명령어, 연락인 데이터, 전화번호부 데이터, 메시지, 사진, 비디오 등을 포함한다. 메모리(804)는 정적 랜덤 액세스 메모리(Static Random Access Memory, SRAM), 전기적 소거 가능한 프로그래머블 읽기 전용 메모리(Electrically Erasable Programmable Read Only Memory, EEPROM), 소거 가능한 프로그래머블 읽기 전용 메모리(Erasable Programmable Read Only Memory, EPROM), 프로그래머블 읽기 전용 메모리(Programmable Read Only Memory, PROM), 읽기 전용 메모리(Read Only Memory, ROM), 자기 메모리, 플래시 메모리, 자기 디스크 또는 광 디스크 중 어느 한 타입의 휘발성 또는 비휘발성 저장 기기 또는 이들의 조합에 의해 구현될 수 있다.
전원 컴포넌트(806)는 전자 기기(800)의 다양한 컴포넌트에 전력을 제공한다. 전원 컴포넌트(806)는 전원 관리 시스템, 하나 또는 복수 개의 전원 및 전자 기기(800)를 위해 전력을 생성, 관리 및 분배하는 것과 관련된 다른 컴포넌트를 포함할 수 있다.
멀티미디어 컴포넌트(808)는 상기 전자 기기(800) 및 사용자 사이의 하나의 출력 인터페이스를 제공하는 스크린을 포함한다. 일부 실시예에 있어서, 스크린은 액정 모니터(Liquid Crystal Display, LCD) 및 터치 패널(Touch Panel, TP)을 포함할 수 있다. 스크린이 터치 패널을 포함하는 경우, 사용자로부터의 입력 신호를 수신하기 위해 스크린은 터치 스크린으로서 구현될 수 있다. 터치 패널은 터치, 스와이프 및 터치 패널 상의 제스처를 감지하기 위한 하나 또는 복수 개의 터치 센서를 포함한다. 상기 터치 센서는 터치 또는 스와이프 동작의 경계를 감지할 뿐만 아니라 상기 터치 또는 스와이프 동작과 관련된 지속 시간 및 압력을 감지할 수 있다. 일부 실시예에 있어서, 멀티미디어 컴포넌트(808)는 하나의 전방 카메라 및 하나의 후방 카메라 중 적어도 하나를 포함한다. 전자 기기(800)가 촬영 모드 또는 비디오 모드와 같은 동작 모드에 있을 경우, 전방 카메라 및 후방 카메라 중 적어도 하나는 외부의 멀티미디어 데이터를 수신할 수 있다. 각 전방 카메라 및 후방 카메라는 하나의 고정된 광학 렌즈 시스템이거나 초점 거리 및 광학 줌 기능을 구비할 수 있다.
오디오 컴포넌트(810)는 오디오 신호를 출력 및/또는 입력하도록 구성된다. 예를 들어, 오디오 컴포넌트(810)는 하나의 마이크(MIC)를 포함하고, 전자 기기(800)가 통화 모드, 녹음 모드 및 음성 인식과 같은 동작 모드에 있을 때 외부 오디오 신호를 수신하도록 구성된다. 수신된 오디오 신호는 메모리(804)에 추가로 저장되거나 통신 컴포넌트(816)에 의해 송신될 수 있다. 일부 실시예에 있어서, 오디오 컴포넌트(810)는 오디오 신호를 출력하기 위한 하나의 스피커를 더 포함한다.
I/O 인터페이스(812)는 처리 컴포넌트(802)와 외부 인터페이스 모듈 사이에서 인터페이스를 제공하고, 상기 외부 인터페이스 모듈은 키보드, 클릭 휠, 버튼 등일 수 있다. 이러한 버튼은 홈 버튼, 볼륨 버튼, 시작 버튼 및 잠금 버튼을 포함할 수 있지만 이에 한정되지 않는다.
센서 컴포넌트(814)는 전자 기기(800)에 대해 다양한 측면의 상태 평가를 제공하기 위한 하나 또는 복수 개의 센서를 포함한다. 예를 들어, 센서 컴포넌트(814)는 전자 기기(800)의 온/오프 상태, 상기 컴포넌트가 전자 기기(800)에 대한 디스플레이 및 키패드와 같은 컴포넌트의 상대적 위치를 검출할 수 있으며, 센서 컴포넌트(814)는 또한, 전자 기기(800) 또는 전자 기기(800)의 하나의 컴포넌트의 위치 변화, 사용자가 전자 기기(800)와의 접촉의 존재 또는 부재, 전자 기기(800) 방향 또는 가속/감속 및 전자 기기(800)의 온도 변화를 검출할 수 있다. 센서 컴포넌트(814)는 그 어떤 물리적 접촉이 없이 근처의 물체의 존재를 검출하도록 구성된 근접 센서를 포함할 수 있다. 센서 컴포넌트(814)는 이미징 애플리케이션에 사용하기 위한 상보성 금속 산화막 반도체(Complementary Metal Oxide Semiconductor, CMOS) 이미지 센서 또는 전하 결합 소자(Charged Coupled Device, CCD) 이미지 센서와 같은 광 센서를 더 포함할 수 있다. 일부 실시예에 있어서, 상기 센서 컴포넌트(814)는 가속도 센서, 자이로스코프 센서, 자기 센서, 압력 센서 또는 온도 센서를 더 포함할 수 있다.
통신 컴포넌트(816)는 전자 기기(800) 및 다른 기기 사이의 유선 또는 무선 방식의 통신이 용이하도록 구성된다. 전자 기기(800)는 WiFi, 2G 또는 3G 또는 이들의 조합과 같은 통신 기준에 기반한 무선 인터넷에 액세스할 수 있다. 일 예시적 실시예에서, 통신 컴포넌트(816)는 방송 채널을 통해 외부 방송 관리 시스템으로부터의 방송 신호 또는 방송 관련 정보를 수신한다. 예시적 실시예에서, 상기 통신 컴포넌트(816)는 근거리 통신을 추진하는 근거리 무선 통신(Near Field Communication, NFC) 모듈을 더 포함한다. 예를 들어, NFC 모듈은 무선 주파수 식별자(Radio Frequency Identification, RFID) 기술, 적외선 통신 규격(Infrared Data Association, IrDA) 기술, 초광대역(Ultra Wideband, UWB) 기술, 블루투스(Bluetooth, BT) 기술 및 다른 기술을 기반으로 구현될 수 있다.
예시적 실시예에서, 전자 기기(800)는 상기 이미지 재구성 방법을 실행하기 위해, 하나 또는 복수 개의 주문형 집적 회로(ApplicationSpecificIntegratedCircuit, ASIC), 디지털 신호 프로세서(Digital Signal Processor, DSP), 디지털 신호 처리 장치(Digital Signal Processing Devices, DSPD), 프로그래머블 논리 장치(Programmable Logic Device, PLD), 필드 프로그래머블 게이트 어레이(Field Programmable Gate Array, FPGA), 컨트롤러, 마이크로 컨트롤러, 마이크로 프로세서 또는 다른 전자 소자에 의해 구현될 수 있다.
예시적 실시예에서 또한, 컴퓨터 프로그램 명령어를 포함하는 메모리(804)와 같은 비휘발성 컴퓨터 판독 가능 저장 매체를 제공하며, 상기 컴퓨터 프로그램 명령어는 상기 이미지 재구성 방법을 완성하기 위해 전자 기기(800)의 프로세서(820)에 의해 실행될 수 있다.
도 12는 본 발명의 실시예에 따른 전자 기기(1900)의 블록도를 도시한다. 예를 들어, 전자 기기(1900)는 하나의 서버로 제공될 수 있다. 도 12를 참조하면, 전자 기기(1900)는 하나 또는 복수 개의 프로세서를 더 포함하는 처리 컴포넌트(1922), 및 처리 컴포넌트(1922)에 의해 실행되는 명령어를 저장하기 위한 메모리(1932)로 대표되는 메모리 자원을 포함한다. 메모리(1932)에 저장된 애플리케이션은 하나 또는 하나 이상의 한 세트의 명령어에 각각 대응되는 모듈을 포함할 수 있다. 또한, 처리 컴포넌트(1922)는 상기 이미지 재구성 방법을 실행하기 위해 명령어를 실행하도록 구성된다.
전자 기기(1900)는 전자 기기(1900)의 전원 관리를 실행하도록 구성된 하나의 전원 컴포넌트(1926), 전자 기기(1900)를 네트워크에 연결하도록 구성된 하나의 유선 또는 무선 네트워크 인터페이스(1950) 및 하나의 입력 출력(I/O) 인터페이스(1958)를 더 포함할 수 있다. 전자 기기(1900)는 예를 들어 Windows ServerTM, Mac OS XTM, UnixTM, LinuxTM, FreeBSDTM 또는 유사한 것 등과 같은 메모리(1932)에 저장된 것에 기반한 운영 시스템을 조작할 수 있다.
예시적 실시예에 있어서, 컴퓨터 프로그램 명령어를 포함하는 메모리(1932)와 같은 비휘발성 컴퓨터 판독 가능한 저장 매체를 제공하며, 상기 컴퓨터 프로그램 명령어는 상기 이미지 재구성 방법을 완료하도록 전자 기기(1900)의 처리 컴포넌트(1922)에 의해 실행된다.
본 발명은 시스템, 방법 및 컴퓨터 프로그램 제품 중 적어도 하나일 수 있다. 컴퓨터 프로그램 제품은 컴퓨터 판독 가능한 저장 매체를 포함할 수 있고, 컴퓨터 판독 가능한 저장 매체에는 프로세서가 본 발명의 각 측면을 구현하도록 하는 컴퓨터 판독 가능한 프로그램 명령어가 존재한다.
컴퓨터 판독 가능한 저장 매체는 명령어 실행 기기에 의해 사용되는 명령어를 유지 및 저장할 수 있는 형태가 존재하는 기기일 수 있다. 컴퓨터 판독 가능한 저장 매체는 예를 들어 축전 기기, 자기 저장 기기, 광 저장 기기, 전자기 저장 기기, 반도체 저장 기기 또는 전술한 축전 기기, 자기 저장 기기, 광 저장 기기, 전자기 저장 기기, 반도체 저장 기기의 임의의 적절한 조합일 수 있지만 이에 한정되지 않는다. 컴퓨터 판독 가능한 저장 매체의 더 구체적인 예는(비제한 리스트), 휴대용 컴퓨터 디스크, 하드 디스크, 랜덤 액세스 메모리(Random Access Memory, RAM), 판독 전용 메모리(Read Only Memory, ROM) 및 소거 가능하고 프로그램 가능한 판독 전용 메모리((Erasable Programmable Read Only Memory, EPROM) 또는 플래시 메모리), 정적 랜덤 액세스 메모리(Static Random Access Memory, SRAM), 휴대용 컴팩트 디스크 판독 전용 메모리(Portable Compact Disk Read-Only Memory, CD-ROM), DVD (Digital Versatile Disk), 메모리 스틱, 플로피 디스크, 명령어가 저장된 장치와 같은 기계적 코딩 장치 홀 카드 또는 그루브에서의 볼록한 구조 및 전술한 임의의 적절한 조합을 포함한다. 여기서 사용되는 컴퓨터 판독 가능한 저장 매체는 무선 전자파 또는 다른 자유롭게 전파되는 전자기파, 도파관 또는 다른 전송 매체를 통해 전파되는 전자기파(예를 들어, 광섬유 케이블을 통한 광펄스), 또는 와이어를 통해 전송되는 전기 신호와 같은 순간 신호 자체로 해석되지 않아야 한다.
여기서 설명한 컴퓨터 판독 가능한 프로그램 명령어는 컴퓨터 판독 가능한 저장 매체로부터 각 컴퓨팅/처리 기기로 다운 로드될 수 있거나, 인터넷, 근거리 통신망, 광역 통신망 및 무선 네트워크 중 적어도 하나와 같은 네트워크를 통해, 외부 컴퓨터 또는 외부 저장 기기로 다운 로드될 수 있다. 네트워크는 동 전송 케이블, 광섬유 전송, 무선 전송, 라우터, 방화벽, 교환기, 게이트웨이 컴퓨터 및 에지 서버 중 적어도 하나를 포함할 수 있다. 각 컴퓨팅/처리 기기의 네트워크 어댑터 카드 또는 네트워크 인터페이스는 네트워크로부터 컴퓨터 판독 가능한 프로그램 명령어를 수신하고, 각 컴퓨팅/처리 기기에서의 컴퓨터 판독 가능한 저장 매체에 저장하기 위해, 컴퓨터 판독 가능한 프로그램 명령어를 전달한다.
본 발명의 동작을 실행하기 위한 컴퓨터 프로그램 명령어는 어셈블리 명령어, 명령어 세트 아키텍처(Instruction Set Architecture, ISA) 명령어, 머신 명령어, 머신 관련 명령어, 마이크로 코드, 펌웨어 명령어, 상태 설정 데이터, 또는 하나 또는 하나 이상의 프로그래밍 언어의 임의의 조합으로 작성된 소스 코드 또는 객체 코드일 수 있고, 상기 프로그래밍 언어에는 스몰 토크, C++ 등과 같은 객체 지향 프로그래밍 언어 및 "C" 언어 또는 유사한 프로그래밍 언어와 같은 기존 프로그래밍 언어가 포함된다. 컴퓨터 판독 가능 프로그램 명령어는 사용자 컴퓨터에서 완전히 실행되거나, 사용자 컴퓨터에서 부분적으로 실행되거나, 독립적인 소프트웨어 패키지로서 실행되거나, 사용자 컴퓨터에서 일부가 실행되고 원격 컴퓨터에서 일부가 실행되거나, 원격 컴퓨터 또는 서버에서 완전히 실행될 수 있다. 원격 컴퓨터와 관련된 시나리오에서, 원격 컴퓨터는 LAN 또는 WAN을 포함한 모든 유형의 네트워크를 통해 사용자의 컴퓨터에 연결되거나 외부 컴퓨터에 연결(예를 들어, 인터넷 서비스 제공 업체를 사용하여 인터넷을 통해 연결됨)될 수 있다. 일부 실시예에 있어서, 컴퓨터 판독 가능 프로그램 명령어의 상태 정보를 이용하여 프로그램 가능 논리 회로, 필드 프로그램 가능 게이트 어레이(Field Programmable Gate Array, FPGA) 또는 프로그램 가능 논리 어레이(Programmable Logic Array, PLA)와 같은 전자 회로를 맞춤 제작함으로써, 상기 전자 회로는 컴퓨터 판독 가능 프로그램 명령어를 실행할 수 있으므로, 본 발명의 각 측면을 구현한다.
여기서 본 발명의 다양한 측면은 본 발명의 실시예에 따른 방법, 장치(시스템) 및 컴퓨터 프로그램 제품의 흐름도 및 블록도 중 적어도 하나를 참조하여 설명하였다. 이해해야 할 것은, 흐름도 및/또는 블록도의 각 블록 및 흐름도 및/또는 블록도의 각 블록의 조합은, 모두 컴퓨터 판독 가능 프로그램 명령어에 의해 구현될 수 있다.
이러한 컴퓨터 판독 가능한 프로그램 명령어는 범용 컴퓨터, 특수 목적 컴퓨터 또는 다른 프로그램 가능한 데이터 처리 장치의 프로세서에 제공 될 수 있음으로써, 이에 의해 이러한 명령어가 컴퓨터 또는 다른 프로그램 가능한 데이터 처리 장치의 프로세서에 의해 실행되도록 하는 기계가 생성되고, 흐름도 및 블록도 중 적어도 하나에서 하나 또는 복수 개의 블록에 지정된 기능/동작을 구현하는 장치가 생성된다. 이러한 컴퓨터 판독 가능한 프로그램 명령어를 컴퓨터 판독 가능한 저장 매체에 저장할 수도 있으며, 이러한 명령어는 컴퓨터, 프로그램 가능한 데이터 처리 장치 및 다른 기기가 특정한 방식으로 작동될 수 있도록 함으로써, 명령어가 저장되어 있는 컴퓨터 판독 가능한 매체는 제조품을 포함하며, 상기 제조품은 흐름도 및 블록도 중 적어도 하나에서 하나 또는 복수 개의 블록에 지정된 기능/동작을 구현하는 명령어를 포함한다.
컴퓨터 판독 가능한 프로그램 명령어는 또한 컴퓨터, 다른 프로그램 가능한 데이터 처리 장치 또는 다른 기기에 로딩될 수 있어, 컴퓨터로 구현되는 과정을 생성하기 위해, 일련의 동작 단계가 컴퓨터, 다른 프로그램 가능한 데이터 처리 장치 또는 다른 기기에서 수행되도록 함으로써, 컴퓨터, 다른 프로그램 가능한 데이터 처리 장치 또는 다른 기기에서 실행되는 명령어는 흐름도 및 블록도 중 적어도 하나에서 하나 또는 복수 개의 블록에 지정된 기능/동작을 구현한다.
도면의 흐름도 및 블록도는 본 발명의 다양한 실시예에 따른 시스템, 방법 및 컴퓨터 프로그램 제품의 구현 가능한 체계 아키텍처, 기능 및 동작을 디스플레이한다. 이와 관련하여, 흐름도 또는 블록도의 각 블록은 모듈, 프로그램 세그먼트 또는 명령어의 일부를 나타낼 수 있고, 상기 모듈, 프로그램 세그먼트 또는 명령어의 일부는 하나 또는 복수 개의 지정된 논리적 기능을 구현하기 위한 실행 가능한 명령어를 포함한다. 일부 대안적인 구현에서, 블록에 표시된 기능은 도면에 표시된 것과 다른 순서로 발생할 수도 있다. 예를 들어, 두 개의 연속적인 블록은 실제로 병렬로 실행될 수 있으며, 때로는 관련 기능에 따라 역순으로 실행될 수도 있으며, 이는 관련된 기능에 의해 결정된다. 또한 유의해야 할 것은, 블록도 및 흐름도 중 적어도 하나에서의 각 블록, 및 블록도 및 흐름도 중 적어도 하나에서의 블록의 조합은, 지정된 기능 또는 동작의 전용 하드웨어 기반의 시스템에 의해 구현될 수 있거나, 전용 하드웨어와 컴퓨터 명령어의 조합으로 구현될 수 있다.
이상 본 발명의 각 실시예를 설명하였고, 상기 설명은 예시적이고, 비철저하며, 개시된 각 실시예에 한정되지도 않는다. 설명된 각 실시예의 범위 및 사상을 벗어나지 않는 한, 많은 수정 및 변경은 본 기술분야의 기술자에게는 자명한 것이다. 본 명세서에서 사용된 용어의 선택은 각 실시예의 원리, 실제 응용 또는 시장에서의 기술에 대한 기술 개선을 가장 잘 해석하거나, 당업자가 본 명세서에 개시된 각 실시예를 이해할 수 있도록 의도된다.

Claims (20)

  1. 이미지 처리 방법으로서,
    목표 이미지에서 렌더링될 제1 대상, 및 상기 목표 이미지에서 상기 제1 대상이 속하는 제2 대상을 인식하는 단계;
    상기 목표 이미지 및 상기 제2 대상에 따라, 마크를 포함하는 참조 이미지를 생성하는 단계 - 상기 마크는 상기 제2 대상의 커버리지 영역을 기록하기 위한 것임 - ;
    상기 참조 이미지 및 상기 제1 대상에 따라, 렌더링될 영역을 결정하는 단계 - 상기 렌더링될 영역은 상기 마크에 대응하는 커버리지 영역 내에 위치함 - ; 및
    목표 재료를 사용하여 상기 렌더링될 영역에 대해 렌더링을 수행하여, 렌더링 결과를 생성하는 단계를 포함하는 것을 특징으로 하는 이미지 처리 방법.
  2. 제1항에 있어서,
    상기 목표 이미지 및 상기 제2 대상에 따라, 마크를 포함하는 참조 이미지를 생성하는 단계는,
    상기 목표 이미지와 사이즈가 동일한 제1 초기 이미지를 생성하는 단계; 및
    상기 제1 초기 이미지에서, 상기 제2 대상의 커버리지 영역을 마킹하여, 상기 참조 이미지를 얻는 단계를 포함하는 것을 특징으로 하는 이미지 처리 방법.
  3. 제2항에 있어서,
    상기 제1 초기 이미지에서, 상기 제2 대상의 커버리지 영역을 마킹하여, 상기 참조 이미지를 얻는 단계는,
    상기 제1 초기 이미지에서, 상기 제2 대상의 커버리지 영역에 포함된 적어도 하나의 픽셀점을 목표 픽셀값으로 변경하여, 상기 참조 이미지를 얻는 단계를 포함하는 것을 특징으로 하는 이미지 처리 방법.
  4. 제1항 내지 제3항 중 어느 한 항에 있어서,
    상기 참조 이미지 및 상기 제1 대상에 따라, 렌더링될 영역을 결정하는 단계는,
    상기 목표 이미지와 사이즈가 동일한 제2 초기 이미지를 생성하는 단계; 및
    상기 제2 초기 이미지에서, 상기 참조 이미지 및 상기 제1 대상에 따라, 렌더링될 영역을 결정하는 단계를 포함하는 것을 특징으로 하는 이미지 처리 방법.
  5. 제4항에 있어서,
    상기 제2 초기 이미지에서, 상기 참조 이미지 및 상기 제1 대상에 따라, 렌더링될 영역을 결정하는 단계는,
    상기 제2 초기 이미지에서, 상기 제1 대상에 대응하는 영역을 초기 렌더링될 영역으로 취하는 단계;
    상기 초기 렌더링될 영역의 픽셀점을 순회하여, 상기 픽셀점이 상기 참조 이미지에서의 대응 위치에 상기 마크가 포함될 경우, 상기 픽셀점을 렌더링될 픽셀점으로 취하는 단계; 및
    상기 렌더링될 픽셀점으로 형성된 영역을 상기 렌더링될 영역으로 취하는 단계를 포함하는 것을 특징으로 하는 이미지 처리 방법.
  6. 제1항 내지 제5항 중 어느 한 항에 있어서,
    상기 목표 이미지에서 렌더링될 제1 대상, 및 상기 목표 이미지에서 상기 제1 대상이 속하는 제2 대상을 인식하는 단계는,
    상기 목표 이미지에 대해 특징 추출을 수행하여, 상기 제1 대상에 대응하는 제1 특징점 집합, 및 상기 제2 대상에 대응하는 제2 특징점 집합을 각각 얻는 단계;
    상기 제1 특징점 집합에 포함된 제1 특징점을 제1 기설정된 방식으로 연결하여, 상기 제1 대상에 대응하는 영역을 얻는 단계; 및
    상기 제2 특징점 집합에 포함된 제2 특징점을 제2 기설정된 방식으로 연결하여, 상기 제2 대상에 대응하는 영역을 얻는 단계를 포함하는 것을 특징으로 하는 이미지 처리 방법.
  7. 제6항에 있어서,
    상기 제1 특징점 집합에 포함된 제1 특징점을 제1 기설정된 방식으로 연결하여, 상기 제1 대상에 대응하는 영역을 얻는 단계는,
    적어도 3 개의 상기 제1 특징점을 한 세트로 취하여, 상기 제1 특징점 집합에 대해 분할을 수행하여, 적어도 한 세트의 제1 특징점 서브 집합을 얻는 단계;
    적어도 한 세트의 상기 제1 특징점 서브 집합에 포함된 상기 제1 특징점을 순차적으로 연결하여, 적어도 하나의 제1 메쉬를 얻는 단계; 및
    상기 적어도 하나의 제1 메쉬에 의해 커버되는 영역을 제1 대상에 대응하는 영역으로 취하는 단계를 포함하는 것을 특징으로 하는 이미지 처리 방법.
  8. 제6항 또는 제7항에 있어서,
    상기 제2 특징점 집합에 포함된 제2 특징점을 제2 기설정된 방식으로 연결하여, 상기 제2 대상에 대응하는 영역을 얻는 단계는,
    적어도 3 개의 상기 제2 특징점을 한 세트로 취하여, 상기 제2 특징점 집합에 대해 분할을 수행하여, 적어도 한 세트의 제2 특징점 서브 집합을 얻는 단계;
    적어도 한 세트의 상기 제2 특징점 서브 집합에 포함된 상기 제2 특징점을 순차적으로 연결하여, 적어도 하나의 제2 메쉬를 얻는 단계; 및
    상기 적어도 하나의 제2 메쉬에 의해 커버되는 영역을 제2 대상에 대응하는 영역으로 취하는 단계를 포함하는 것을 특징으로 하는 이미지 처리 방법.
  9. 제1항 내지 제8항 중 어느 한 항에 있어서,
    상기 이미지 처리 방법은,
    상기 목표 이미지의 투명도를 변경하여, 변경 결과를 얻는 단계; 및
    상기 렌더링 결과와 상기 변경 결과를 융합하여, 융합 이미지를 얻는 단계를 더 포함하는 것을 특징으로 하는 이미지 처리 방법.
  10. 제1항 내지 제9항 중 어느 한 항에 있어서,
    상기 제1 대상은 동공을 포함하고, 상기 제2 대상은 눈을 포함하며, 상기 목표 재료는 동공 미화를 위한 재료를 포함하는 것을 특징으로 하는 이미지 처리 방법.
  11. 이미지 처리 장치로서,
    목표 이미지에서 렌더링될 제1 대상, 및 상기 목표 이미지에서 상기 제1 대상이 속하는 제2 대상을 인식하기 위한 인식 모듈;
    상기 목표 이미지 및 상기 제2 대상에 따라, 마크를 포함하는 참조 이미지를 생성하기 위한 참조 이미지 생성 모듈 - 상기 마크는 상기 제2 대상의 커버리지 영역을 기록하기 위한 것임 - ;
    상기 참조 이미지 및 상기 제1 대상에 따라, 렌더링될 영역을 결정하기 위한 렌더링될 영역 결정 모듈 - 상기 렌더링될 영역은 상기 마크에 대응하는 커버리지 영역 내에 위치함 - ; 및
    목표 재료를 사용하여 상기 렌더링될 영역에 대해 렌더링을 수행하여, 렌더링 결과를 생성하기 위한 렌더링 모듈을 포함하는 것을 특징으로 하는 이미지 처리 장치.
  12. 제11항에 있어서,
    상기 참조 이미지 생성 모듈은,
    상기 목표 이미지와 사이즈가 동일한 제1 초기 이미지를 생성하고;
    상기 제1 초기 이미지에서, 상기 제2 대상의 커버리지 영역을 마킹하여, 상기 참조 이미지를 얻기 위한 것임을 특징으로 하는 이미지 처리 장치.
  13. 제12항에 있어서,
    상기 참조 이미지 생성 모듈은 또한,
    상기 제1 초기 이미지에서, 상기 제2 대상의 커버리지 영역에 포함된 적어도 하나의 픽셀점을 목표 픽셀값으로 변경하여, 상기 참조 이미지를 얻기 위한 것임을 특징으로 하는 이미지 처리 장치.
  14. 제11항 내지 제13항 중 어느 한 항에 있어서,
    상기 렌더링될 영역 결정 모듈은,
    상기 목표 이미지와 사이즈가 동일한 제2 초기 이미지를 생성하고;
    상기 제2 초기 이미지에서, 상기 참조 이미지 및 상기 제1 대상에 따라, 렌더링될 영역을 결정하기 위한 것임을 특징으로 하는 이미지 처리 장치.
  15. 제14항에 있어서,
    상기 렌더링될 영역 결정 모듈은 또한,
    상기 제2 초기 이미지에서, 상기 제1 대상에 대응하는 영역을 초기 렌더링될 영역으로 취하고;
    상기 초기 렌더링될 영역의 픽셀점을 순회하여, 상기 픽셀점이 상기 참조 이미지에서의 대응 위치에 상기 마크가 포함될 경우, 상기 픽셀점을 렌더링될 픽셀점으로 취하며;
    상기 렌더링될 픽셀점으로 형성된 영역을 상기 렌더링될 영역으로 취하기 위한 것임을 특징으로 하는 이미지 처리 장치.
  16. 제11항 내지 제15항 중 어느 한 항에 있어서,
    상기 인식 모듈은,
    상기 목표 이미지에 대해 특징 추출을 수행하여, 상기 제1 대상에 대응하는 제1 특징점 집합, 및 상기 제2 대상에 대응하는 제2 특징점 집합을 각각 얻고;
    상기 제1 특징점 집합에 포함된 제1 특징점을 제1 기설정된 방식으로 연결하여, 상기 제1 대상에 대응하는 영역을 얻으며;
    상기 제2 특징점 집합에 포함된 제2 특징점을 제2 기설정된 방식으로 연결하여, 상기 제2 대상에 대응하는 영역을 얻기 위한 것임을 특징으로 하는 이미지 처리 장치.
  17. 제11항 내지 제16항 중 어느 한 항에 있어서,
    상기 제1 대상은 동공을 포함하고, 상기 제2 대상은 눈을 포함하며, 상기 목표 재료는 동공 미화를 위한 재료를 포함하는 것을 특징으로 하는 이미지 처리 장치.
  18. 전자 기기로서,
    프로세서; 및
    프로세서에 의해 실행 가능한 명령어를 저장하기 위한 메모리를 포함하며;
    상기 프로세서는 상기 메모리에 저장된 명령어를 호출함으로써, 제1항 내지 제10항 중 어느 한 항에 따른 방법을 실행하도록 구성된 것을 특징으로 하는 전자 기기.
  19. 컴퓨터 프로그램 명령어가 저장된 컴퓨터 판독 가능 저장 매체로서,
    상기 컴퓨터 프로그램 명령어가 프로세서에 의해 실행될 때 제1항 내지 제10항 중 어느 한 방법에 따른 방법을 실행하는 것을 특징으로 하는 컴퓨터 판독 가능 저장 매체.
  20. 컴퓨터 판독 가능한 코드를 포함하는 컴퓨터 프로그램으로서,
    상기 컴퓨터 판독 가능한 코드가 전자 기기에서 작동될 때, 상기 전자 기기에서의 프로세서는 제1항 내지 제10항 중 어느 한 항에 따른 이미지 처리 방법을 실행하는 것을 특징으로 하는 컴퓨터 프로그램.
KR1020207036012A 2019-11-22 2020-03-24 이미지 처리 방법 및 장치, 전자 기기 및 저장 매체 KR20210064114A (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201911154806.5A CN111091610B (zh) 2019-11-22 2019-11-22 图像处理方法及装置、电子设备和存储介质
CN201911154806.5 2019-11-22
PCT/CN2020/080924 WO2021098107A1 (zh) 2019-11-22 2020-03-24 图像处理方法及装置、电子设备和存储介质

Publications (1)

Publication Number Publication Date
KR20210064114A true KR20210064114A (ko) 2021-06-02

Family

ID=70393606

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020207036012A KR20210064114A (ko) 2019-11-22 2020-03-24 이미지 처리 방법 및 장치, 전자 기기 및 저장 매체

Country Status (7)

Country Link
EP (1) EP3852069A4 (ko)
JP (1) JP7159357B2 (ko)
KR (1) KR20210064114A (ko)
CN (1) CN111091610B (ko)
SG (1) SG11202012481UA (ko)
TW (1) TWI752473B (ko)
WO (1) WO2021098107A1 (ko)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111569418B (zh) * 2020-06-10 2023-04-07 网易(杭州)网络有限公司 对于待输出内容的渲染方法、装置、介质及电子设备
CN113657361A (zh) * 2021-07-23 2021-11-16 阿里巴巴(中国)有限公司 页面异常检测方法、装置及电子设备
CN114240742A (zh) * 2021-12-17 2022-03-25 北京字跳网络技术有限公司 图像处理方法、装置、电子设备及存储介质
CN116824018A (zh) * 2023-06-14 2023-09-29 粒界(上海)信息科技有限公司 渲染异常检测方法、装置、存储介质及电子设备

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4435809B2 (ja) * 2002-07-08 2010-03-24 株式会社東芝 仮想化粧装置及びその方法
JP3747918B2 (ja) * 2003-04-25 2006-02-22 ヤマハ株式会社 光ディスク記録装置
US7379071B2 (en) * 2003-10-14 2008-05-27 Microsoft Corporation Geometry-driven feature point-based image synthesis
US7289119B2 (en) * 2005-05-10 2007-10-30 Sony Computer Entertainment Inc. Statistical rendering acceleration
JP2010250420A (ja) * 2009-04-13 2010-11-04 Seiko Epson Corp 顔の特徴部位の座標位置を検出する画像処理装置
JP4760999B1 (ja) * 2010-10-29 2011-08-31 オムロン株式会社 画像処理装置、画像処理方法、および制御プログラム
JP2012181688A (ja) * 2011-03-01 2012-09-20 Sony Corp 情報処理装置、情報処理方法、情報処理システムおよびプログラム
CN102184108A (zh) * 2011-05-26 2011-09-14 成都江天网络科技有限公司 一种利用计算机程序进行虚拟化妆的方法及化妆模拟程序
CN102915308B (zh) * 2011-08-02 2016-03-09 阿里巴巴集团控股有限公司 一种页面渲染的方法及装置
US9652887B2 (en) * 2014-01-22 2017-05-16 Hankookin, Inc. Object oriented image processing and rendering in a multi-dimensional space
CN104679509B (zh) * 2015-02-06 2019-11-15 腾讯科技(深圳)有限公司 一种渲染图形的方法和装置
US10796480B2 (en) * 2015-08-14 2020-10-06 Metail Limited Methods of generating personalized 3D head models or 3D body models
US10360708B2 (en) * 2016-06-30 2019-07-23 Snap Inc. Avatar based ideogram generation
KR102671404B1 (ko) * 2016-12-12 2024-05-31 삼성전자주식회사 모션 기반 영상을 처리하는 방법 및 장치
US10939742B2 (en) * 2017-07-13 2021-03-09 Shiseido Company, Limited Systems and methods for virtual facial makeup removal and simulation, fast facial detection and landmark tracking, reduction in input video lag and shaking, and a method for recommending makeup
CN109583263A (zh) * 2017-09-28 2019-04-05 丽宝大数据股份有限公司 结合扩增实境的身体信息分析装置及其眉型预览方法
JP7087331B2 (ja) * 2017-10-05 2022-06-21 カシオ計算機株式会社 画像処理装置、画像処理方法及びプログラム
JP2019070870A (ja) * 2017-10-05 2019-05-09 カシオ計算機株式会社 画像処理装置、画像処理方法及びプログラム
JP2019070872A (ja) * 2017-10-05 2019-05-09 カシオ計算機株式会社 画像処理装置、画像処理方法及びプログラム
CN107818305B (zh) * 2017-10-31 2020-09-22 Oppo广东移动通信有限公司 图像处理方法、装置、电子设备和计算机可读存储介质
CN108564531B (zh) * 2018-05-08 2022-07-08 麒麟合盛网络技术股份有限公司 一种图像处理方法及装置
CN109242785A (zh) * 2018-08-10 2019-01-18 广州二元科技有限公司 一种基于神经网络和颜色筛选的精准人像上唇彩的方法
CN109302618A (zh) * 2018-11-27 2019-02-01 网易(杭州)网络有限公司 移动终端中的直播画面渲染方法、装置和存储介质
CN109977868A (zh) * 2019-03-26 2019-07-05 深圳市商汤科技有限公司 图像渲染方法及装置、电子设备和存储介质
CN109981989B (zh) * 2019-04-04 2021-05-25 北京字节跳动网络技术有限公司 渲染图像的方法、装置、电子设备和计算机可读存储介质
CN110062157B (zh) * 2019-04-04 2021-09-17 北京字节跳动网络技术有限公司 渲染图像的方法、装置、电子设备和计算机可读存储介质
CN110084154B (zh) * 2019-04-12 2021-09-17 北京字节跳动网络技术有限公司 渲染图像的方法、装置、电子设备和计算机可读存储介质
CN110211211B (zh) * 2019-04-25 2024-01-26 北京达佳互联信息技术有限公司 图像处理方法、装置、电子设备及存储介质

Also Published As

Publication number Publication date
TWI752473B (zh) 2022-01-11
EP3852069A4 (en) 2021-08-18
SG11202012481UA (en) 2021-06-29
CN111091610B (zh) 2023-04-11
WO2021098107A1 (zh) 2021-05-27
CN111091610A (zh) 2020-05-01
TW202121343A (zh) 2021-06-01
EP3852069A1 (en) 2021-07-21
JP2022512048A (ja) 2022-02-02
JP7159357B2 (ja) 2022-10-24

Similar Documents

Publication Publication Date Title
CN110929651B (zh) 图像处理方法、装置、电子设备及存储介质
WO2022179026A1 (zh) 图像处理方法及装置、电子设备和存储介质
JP7262659B2 (ja) 目標対象物マッチング方法及び装置、電子機器並びに記憶媒体
KR20210064114A (ko) 이미지 처리 방법 및 장치, 전자 기기 및 저장 매체
CN109816764B (zh) 图像生成方法及装置、电子设备和存储介质
WO2022179025A1 (zh) 图像处理方法及装置、电子设备和存储介质
CN111553864B (zh) 图像修复方法及装置、电子设备和存储介质
US11030733B2 (en) Method, electronic device and storage medium for processing image
CN111243011A (zh) 关键点检测方法及装置、电子设备和存储介质
JP6923682B2 (ja) 顔画像の処理方法および装置、電子機器ならびに記憶媒体
CN110909654A (zh) 训练图像的生成方法及装置、电子设备和存储介质
CN109472738B (zh) 图像光照校正方法及装置、电子设备和存储介质
WO2023142645A1 (zh) 图像处理方法、装置、电子设备、存储介质和计算机程序产品
CN112597944B (zh) 关键点检测方法及装置、电子设备和存储介质
CN112767288A (zh) 图像处理方法及装置、电子设备和存储介质
CN110929616B (zh) 一种人手识别方法、装置、电子设备和存储介质
CN110807769B (zh) 图像显示控制方法及装置
US11403788B2 (en) Image processing method and apparatus, electronic device, and storage medium
CN112613447A (zh) 关键点检测方法及装置、电子设备和存储介质
WO2022042160A1 (zh) 图像处理方法及装置
CN111754635B (zh) 纹理融合方法及装置、电子设备和存储介质
WO2021073204A1 (zh) 对象的显示方法、装置、电子设备及计算机可读存储介质
US20220270313A1 (en) Image processing method, electronic device and storage medium
CN112633203B (zh) 关键点检测方法及装置、电子设备和存储介质
US20220377309A1 (en) Hardware encoder for stereo stitching

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E601 Decision to refuse application