KR102567379B1 - 3d 모델링 자동 보정을 통한 실감 오브젝트 생성 시스템 - Google Patents

3d 모델링 자동 보정을 통한 실감 오브젝트 생성 시스템 Download PDF

Info

Publication number
KR102567379B1
KR102567379B1 KR1020220088037A KR20220088037A KR102567379B1 KR 102567379 B1 KR102567379 B1 KR 102567379B1 KR 1020220088037 A KR1020220088037 A KR 1020220088037A KR 20220088037 A KR20220088037 A KR 20220088037A KR 102567379 B1 KR102567379 B1 KR 102567379B1
Authority
KR
South Korea
Prior art keywords
defective pixel
information
virtual object
pixel
color
Prior art date
Application number
KR1020220088037A
Other languages
English (en)
Inventor
서인호
Original Assignee
주식회사 호인스컴퍼니
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 호인스컴퍼니 filed Critical 주식회사 호인스컴퍼니
Priority to KR1020220088037A priority Critical patent/KR102567379B1/ko
Application granted granted Critical
Publication of KR102567379B1 publication Critical patent/KR102567379B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • G06T5/001
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Geometry (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Architecture (AREA)
  • Image Generation (AREA)

Abstract

본 발명은 하나 이상의 프로세서 및 상기 프로세서에서 수행 가능한 명령들을 저장하는 하나 이상의 메모리를 포함하는 컴퓨팅 장치에서 구현되는 3D 모델링 자동 보정을 통한 실감 오브젝트 생성 시스템에 있어서, 전자 장치의 카메라를 통해 다방향에서의 촬영 객체에 대한 촬영이 수행됨에 따라 촬영 영상 프레임에 대응되는 영상 이미지가 획득되는 경우, 상기 전자 장치로부터 상기 전자 장치에 탑재된 자이로 센서의 센싱 값에 기반한 촬영 각도 정보와 상기 전자 장치가 상기 촬영 객체를 촬영함에 따라 획득된 영상 이미지 정보를 수신하는 촬영 정보 수신부; 상기 촬영 각도 정보 및 상기 영상 이미지 정보의 수신이 완료되면, 상기 수신된 촬영 각도 정보 및 상기 영상 이미지 정보를 분석해 상기 분석 결과를 기반으로, 상기 촬영 객체와 대응하는 3D 입체 모델인 가상 객체를 3차원 가상 공간에 구현하여, 상기 가상 객체를 구성하는 픽셀들 중 적어도 하나의 흠결 픽셀이 존재하는지를 확인하는 가상 객체 분석부; 및 상기 가상 객체 분석부의 기능 수행으로 인해 상기 가상 객체를 구성하는 픽셀들 중 적어도 하나의 흠결 픽셀이 존재하는 것이 확인되면, 상기 적어도 하나의 흠결 픽셀의 인근 픽셀들 각각에 매칭된 컬러 코드 정보 및 깊이 값 정보를 확인하여, 상기 확인된 컬러 코드 정보 및 깊이 값 정보 중 적어도 하나를 활용해 상기 흠결 픽셀에 대한 보정을 완료해 실감 오브젝트의 생성을 완료하는 실감 오브젝트 생성부;3D 모델링 자동 보정을 통한 실감 오브젝트 생성 시스템를 포함하는 것을 특징으로 한다. 이 외에도 본 문서를 통해 파악되는 다양한 실시예들이 가능하다.

Description

3D 모델링 자동 보정을 통한 실감 오브젝트 생성 시스템{REALISTIC OBJECT CREATION SYSTEM THROUGH 3D MODELING AUTOMATIC CORRECTION}
본 발명은 3D 모델링 자동 보정을 통한 실감 오브젝트 생성 시스템에 관한 것으로, 구체적으로는 전자 장치의 카메라를 통해 다방향에서의 촬영 객체에 대한 촬영이 수행됨에 따라 촬영 영상 프레임에 대응되는 영상 이미지가 획득되는 경우, 전자 장치로부터 촬영 각도 정보 및 영상 이미지 정보를 수신하여, 촬영 객체와 대응하는 3D 입체 모델인 가상 객체를 3차원 가상 공간에 구현해 가상 객체에 대한 분석을 시작하고, 분석 결과를 통해 가상 객체를 구성하는 픽셀들 중 적어도 하나의 흠결 픽셀이 존재하는 경우, 적어도 하나의 흠결 픽셀의 인근 픽셀들 각각에 매칭된 컬러 코드 정보 및 깊이 값 정보 중 적어도 하나를 활용해 흠결 픽셀에 대한 보정을 완료해 실감 오브젝트의 생성을 완료하는 기술에 관한 것이다.
최근 3D 프린터의 가격 하락과 품질 향상의 주기가 점차적으로 단축되면서, 제조업에서 주로 사용되던 과거와는 달리 개인의 취미 활동과 생필품 제작용으로 보편화되고 있다. 그러나, 3D 프린팅을 하기 위한 3D 모델링을 하기 위해서는 오토캐드, 3D 스튜디오 맥스 등 전문적인 프로그램을 습득해야 하며, 능숙하게 습득하려면 수개월에서 수년이 걸리는 문제점이 존재하고 있다. 더불어, 사용자가 전문적인 프로그램을 통해 3D 모델링을 수행하더라도, 숙련된 전문가가 아닌 이상 3D 모델링의 대상에 대한 정밀성 높은 작업을 수행하지 못하여 3D 프린터를 통해 출력되는 결과물의 상태가 양호한 상태가 아닐 수 있다.
이에 따라, 3D 프린팅 업계에서는 3D 모델링에 대한 전문적인 지식이 없어도 쉽게 정밀성 높은 3D 모델링을 수행하는 기술들을 개발하고 있다.
일 예로서, 한국공개특허 10-2019-0074562(VR 기술 기반의 3D 모델링 저작도구를 이용한 3D 프린팅 시스템)에는 VR 기술을 활용하여 전문적인 3D 모델링 툴의 교육을 받지 않더라도 누구나 쉽게 3D 모델링 데이터를 입체적으로 출력하도록 하는 기술이 개시되어 있다.
그러나, 상술한 선행기술에서는 단순히 사용자의 모션을 통해 HMD에서 출력되는 VR 객체를 저작하는 기술만이 개시되어 있을 뿐, 전자 장치의 카메라를 통해 다방향에서의 촬영 객체에 대한 촬영이 수행됨에 따라 촬영 영상 프레임에 대응되는 영상 이미지가 획득되는 경우, 전자 장치로부터 촬영 각도 정보 및 영상 이미지 정보를 수신하여, 촬영 객체와 대응하는 3D 입체 모델인 가상 객체를 3차원 가상 공간에 구현해 가상 객체에 대한 분석을 시작하고, 분석 결과를 통해 가상 객체를 구성하는 픽셀들 중 적어도 하나의 흠결 픽셀이 존재하는 경우, 적어도 하나의 흠결 픽셀의 인근 픽셀들 각각에 매칭된 컬러 코드 정보 및 깊이 값 정보 중 적어도 하나를 활용해 흠결 픽셀에 대한 보정을 완료해 실감 오브젝트의 생성을 완료하는 기술은 개시되어 있지 않아, 이를 해결할 수 있는 기술의 필요성이 대두되고 있다.
이에 본 발명은, 3D 모델링 자동 보정을 통한 실감 오브젝트 생성 시스템을 통해 전자 장치의 카메라에 의해 다방향에서의 촬영 객체에 대한 촬영이 수행됨에 따라 촬영 영상 프레임에 대응되는 영상 이미지가 획득되는 경우, 전자 장치로부터 촬영 각도 정보 및 영상 이미지 정보를 수신하여, 촬영 객체와 대응하는 3D 입체 모델인 가상 객체를 3차원 가상 공간에 구현해 가상 객체에 대한 분석을 시작하고, 분석 결과를 통해 가상 객체를 구성하는 픽셀들 중 적어도 하나의 흠결 픽셀이 존재하는 경우, 적어도 하나의 흠결 픽셀의 인근 픽셀들 각각에 매칭된 컬러 코드 정보 및 깊이 값 정보 중 적어도 하나를 활용해 흠결 픽셀에 대한 보정을 완료해 실감 오브젝트의 생성을 완료함으로써, 3D 모델링에 대한 전문적인 지식이 없어도 가상 객체를 구성하는 픽셀을 통해 가상 객체를 자동 보정해 사용자에게 작업 편의성을 제공함과 동시에 상태가 양호한 3D 모델링에 기반한 작업물(예: 모델링 데이터 또는 3D 프린터 출력물)을 제공하는 것에 그 목적이 있다.
본 발명의 일 실시예에 따른 하나 이상의 프로세서 및 상기 프로세서에서 수행 가능한 명령들을 저장하는 하나 이상의 메모리를 포함하는 컴퓨팅 장치에서 구현되는 3D 모델링 자동 보정을 통한 실감 오브젝트 생성 시스템에 있어서, 전자 장치의 카메라를 통해 다방향에서의 촬영 객체에 대한 촬영이 수행됨에 따라 촬영 영상 프레임에 대응되는 영상 이미지가 획득되는 경우, 상기 전자 장치로부터 상기 전자 장치에 탑재된 자이로 센서의 센싱 값에 기반한 촬영 각도 정보와 상기 전자 장치가 상기 촬영 객체를 촬영함에 따라 획득된 영상 이미지 정보를 수신하는 촬영 정보 수신부; 상기 촬영 각도 정보 및 상기 영상 이미지 정보의 수신이 완료되면, 상기 수신된 촬영 각도 정보 및 상기 영상 이미지 정보를 분석해 상기 분석 결과를 기반으로, 상기 촬영 객체와 대응하는 3D 입체 모델인 가상 객체를 3차원 가상 공간에 구현하여, 상기 가상 객체를 구성하는 픽셀들 중 적어도 하나의 흠결 픽셀이 존재하는지를 확인하는 가상 객체 분석부; 및 상기 가상 객체 분석부의 기능 수행으로 인해 상기 가상 객체를 구성하는 픽셀들 중 적어도 하나의 흠결 픽셀이 존재하는 것이 확인되면, 상기 적어도 하나의 흠결 픽셀의 인근 픽셀들 각각에 매칭된 컬러 코드 정보 및 깊이 값 정보를 확인하여, 상기 확인된 컬러 코드 정보 및 깊이 값 정보 중 적어도 하나를 활용해 상기 흠결 픽셀에 대한 보정을 완료해 실감 오브젝트의 생성을 완료하는 실감 오브젝트 생성부;3D 모델링 자동 보정을 통한 실감 오브젝트 생성 시스템를 포함하는 것을 특징으로 한다.
상기 가상 객체 분석부는, 상기 촬영 각도 정보 및 상기 영상 이미지 정보의 수신이 완료되면, 상기 영상 이미지 정보에 대한 분석을 시작하여, 상기 영상 이미지 정보 상의 촬영 객체에 대한 깊이 값 및 컬러를 추출하고, 상기 다방향에서 촬영한 촬영 객체에 대한 2차원 이미지를 상기 추출된 깊이 값 및 컬러가 반영된 3차원 이미지로 변환하는 이미지 변환부; 및 상기 3차원 이미지의 변환이 완료되면, 상기 촬영 객체의 동일한 영역을 지시하는 픽셀의 깊이 값이 동일해지도록 상기 3차원 이미지의 크기를 보정하고, 상기 촬영 각도 정보에 대응되는 방향에서 상기 3차원 이미지를 정합하여 3D 입체 모델인 가상 객체를 생성하는 가상 객체 생성부;를 포함하는 것이 바람직하다.
상기 가상 객체 분석부는, 상기 가상 객체의 생성이 완료됨에 따라 상기 3차원 가상 공간에 상기 가상 객체의 구현이 완료되면, 상기 가상 객체를 구성하는 픽셀들에 대한 분석 프로세스를 시작하는 프로세스 시작부; 상기 분석 프로세스가 시작되면, 기 저장된 흠결 픽셀 도출 알고리즘을 기반으로, 상기 가상 객체를 구성하는 픽셀들 중 제1 픽셀을 지정하고, 상기 제1 픽셀을 기준으로 지정된 범위 내에 위치한 범위 픽셀에 대한 분석을 시작하여, 상기 분석 결과를 통해 상기 제1 픽셀 및 상기 범위 픽셀 중 적어도 하나가 지정된 흠결 픽셀 조건을 만족하는지를 확인하는 조건 만족 확인부; 및 상기 제1 픽셀 및 상기 범위 픽셀 중 적어도 하나가 상기 지정된 흠결 픽셀 조건을 만족하는 경우, 상기 지정된 흠결 픽셀 조건을 만족하는 픽셀에 식별 정보를 부여해 흠결 픽셀로 지정하는 흠결 픽셀 지정부;를 포함하는 것이 가능하다.
상기 기 저장된 흠결 픽셀 도출 알고리즘은, 상기 분석 프로세스가 시작되면, 상기 가상 객체를 구성하는 픽셀들 각각을 확인하여, 상기 컬러 코드 정보가 반영되어있지 않은 픽셀 및 범위 픽셀 대비 깊이 값이 기 설정된 임계 범위를 초과하거나 미만인 비연속적 픽셀 중 적어도 하나를 식별해 식별 정보를 부여하여 상기 흠결 픽셀로 지정하는 알고리즘인 것이 가능하다.
상기 실감 오브젝트 생성부는, 상기 흠결 픽셀 지정부의 기능 수행으로 인해 상기 가상 객체를 구성하는 픽셀들 중 상기 흠결 픽셀이 확인되는 경우, 상기 흠결 픽셀을 제외하되, 상기 흠결 픽셀을 기준으로 지정된 범위 내에 위치한 범위 픽셀 각각의 컬러 변동에 대한 평균 값을 확인하여, 상기 확인된 평균 값에 대응되는 컬러 코드 정보를 상기 흠결 픽셀에 매칭해 상기 매칭된 컬러 코드 정보에 기반한 컬러를 상기 흠결 픽셀에 반영해 1차 보정을 실시하는 제1 컬러 보정 실시부; 및 상기 제1 컬러 보정 실시부의 기능 수행이 완료되면, 상기 흠결 픽셀을 기준으로 상기 지정된 범위 내에 위치한 범위 픽셀과 상기 흠결 픽셀의 깊이 값을 확인하여, 상기 확인된 깊이 값에 기반한 명도를 상기 흠결 픽셀에 반영된 컬러에 반영해 2차 보정을 실시하고, 상기 흠결 픽셀에 매칭된 컬러 코드 정보를 상기 2차 보정된 컬러에 대응되는 컬러 코드 정보로 재매칭하는 제2 컬러 보정 실시부;를 포함하는 것이 가능하다.
상기 실감 오브젝트 생성부는, 상기 제1 컬러 보정 실시부의 기능이 수행되기 이전에, 상기 가상 객체에 대한 조명 이펙트에 기반한 조명 객체가 존재하는지를 확인하여, 상기 가상 객체의 흠결 픽셀을 포함하는 일 영역에 상기 조명 객체가 검출되는 경우, 상기 검출된 조명 객체의 형태, 컬러 및 텍스쳐를 분석하여, 상기 가상 객체에 대응되는 촬영 객체에 대한 조명의 세기 및 조사 방향을 포함하는 조명의 영향을 판단한 상태에서, 상기 제2 컬러 보정 실시부의 기능이 수행되는 경우, 상기 제2 컬러 보정 실시부로 하여금 상기 지정된 범위 내에 위치한 범위 픽셀과 상기 흠결 픽셀의 깊이 값을 확인하여, 상기 확인된 깊이 값에 기반한 명도에 상기 조명의 영향을 반영해 상기 2차 보정을 실시하도록 요청하는 것이 가능하다.
상기 실감 오브젝트 생성부는, 상기 가상 객체 분석부가 상기 기 저장된 흠결 픽셀 도출 알고리즘을 통해 범위 픽셀 대비 깊이 값이 기 설정된 임계 범위를 초과 또는 미만인 비연속적 픽셀을 식별하는 경우, 상기 식별된 비연속적 픽셀에 인접한 인접 픽셀에 대한 깊이 값의 깊이 평균 값을 산출하여, 상기 산출된 깊이 평균 값에 대응되는 깊이 값을 상기 식별된 비연속적 픽셀에 반영해 보정을 실시하는 것이 가능하다.
본 발명인 3D 모델링 자동 보정을 통한 실감 오브젝트 생성 시스템은 카메라를 통해 촬영되는 촬영 객체와 대응하는 가상 객체를 자동으로 보정해 실감 오브젝트를 생성함에 따라, 사용자에게 작업 편의성을 제공함과 동시에 상태가 양호한 3D 모델링에 기반한 작업물(예: 모델링 데이터 또는 3D 프린터 출력물)을 제공할 수 있다.
또한, 사용자는 3D 모델링에 대한 전문적인 지식을 습득하지 않아도 촬영 객체와 오차율을 현저하게 적은 실감 오브젝트를 생성할 수 있다.
도 1은 본 발명의 일 실시 예에 따른 3D 모델링 자동 보정을 통한 실감 오브젝트 생성 시스템의 블록도이다.
도 2는 본 발명의 일 실시 예에 따른 3D 모델링 자동 보정을 통한 실감 오브젝트 생성 시스템의 가상 객체 분석부에 대한 블록도이다.
도 3은 본 발명의 일 실시 예에 따른 3D 모델링 자동 보정을 통한 실감 오브젝트 생성 시스템의 가상 객체 분석부에 대한 다른 블록도이다.
도 4는 본 발명의 일 실시 예에 따른 3D 모델링 자동 보정을 통한 실감 오브젝트 생성 시스템의 기 저장된 흠결 픽셀 도출 알고리즘을 설명하기 위한 도면이다.
도 5는 본 발명의 일 실시 예에 따른 3D 모델링 자동 보정을 통한 실감 오브젝트 생성 시스템의 실감 오브젝트 생성부를 설명하기 위한 블록도이다.
도 6은 본 발명의 일 실시 예에 따른 3D 모델링 자동 보정을 통한 실감 오브젝트 생성 시스템의 실감 오브젝트 생성부를 설명하기 위한 다른 블록도이다.
도 7은 본 발명의 일 실시 예에 따른 컴퓨팅 장치의 내부 구성의 일 예를 설명하기 위한 도면이다.
이하에서는, 다양한 실시 예들 및/또는 양상들이 이제 도면들을 참조하여 개시된다. 하기 설명에서는 설명을 목적으로, 하나이상의 양상들의 전반적 이해를 돕기 위해 다수의 구체적인 세부사항들이 개시된다. 그러나, 이러한 양상(들)은 이러한 구체적인 세부사항들 없이도 실행될 수 있다는 점 또한 본 발명의 기술 분야에서 통상의 지식을 가진 자에게 인식될 수 있을 것이다. 이후의 기재 및 첨부된 도면들은 하나 이상의 양상들의 특정한 예시적인 양상들을 상세하게 기술한다. 하지만, 이러한 양상들은 예시적인 것이고 다양한 양상들의 원리들에서의 다양한 방법들 중 일부가 이용될 수 있으며, 기술되는 설명들은 그러한 양상들 및 그들의 균등물들을 모두 포함하고자 하는 의도이다.
본 명세서에서 사용되는 "실시 예", "예", "양상", "예시" 등은 기술되는 임의의 양상 또는 설계가 다른 양상 또는 설계들보다 양호하다거나, 이점이 있는 것으로 해석되지 않을 수도 있다.
또한, "포함한다" 및/또는 "포함하는"이라는 용어는, 해당 특징 및/또는 구성요소가 존재함을 의미하지만, 하나이상의 다른 특징, 구성요소 및/또는 이들의 그룹의 존재 또는 추가를 배제하지 않는 것으로 이해되어야 한다.
또한, 제 1, 제 2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제 1 구성요소는 제 2 구성요소로 명명될 수 있고, 유사하게 제 2 구성요소도 제 1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.
또한, 본 발명의 실시 예들에서, 별도로 다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 발명의 실시 예에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
도 1은 본 발명의 일 실시 예에 따른 3D 모델링 자동 보정을 통한 실감 오브젝트 생성 시스템의 블록도이다.
도 1을 참조하면, 3D 모델링 자동 보정을 통한 실감 오브젝트 생성 시스템(100)(이하, 자동 보정 시스템으로 칭함)은 촬영 정보 수신부(101), 가상 객체 분석부(103) 및 실감 오브젝트 생성부(105)를 포함할 수 있다.
일 실시예에 따르면, 상기 촬영 정보 수신부(101)는 전자 장치(101a)의 카메라를 통해 다방향에서의 촬영 객체에 대한 촬영이 수행됨에 따라 촬영 영상 프레임에 대응되는 영상 이미지가 획득되는 경우, 상기 전자 장치(101)로부터 상기 전자 장치(101)에 탑재된 자이로 센서의 센싱 값에 기반한 촬영 각도 정보와 상기 전자 장치(101)가 상기 촬영 개체를 촬영함에 따라 획득된 영상 이미지 정보를 수신할 수 있다.
본 발명에서 상기 전자 장치(101a)는, 카메라, 자이로 센서, 상기 자동 보정 시스템(100) 등이 구현되는 프로세서 및 메모리와 함께 출력 및 입력 수단으로서 예를 들어 디스플레이(또는 터치 스크린)등을 포함하도록 구현될 수 있고, 이는 후술하는 도 7에 대한 설명에서 언급되는 컴퓨팅 장치와 동일한 개념으로 이해될 수 있다.
일 실시예에 따르면, 상기 전자 장치(101a)의 카메라는 정지 이미지 또는 영상을 촬영하는 장치(또는 모듈)를 의미한다.
다른 실시예에 따르면, 상기 카메라는 뎁스 비전 기능이 포함된 카메라를 포함할 수 있다. 일반적인 최근의 스마트폰에 탑재된 카메라가 본 발명에서의 카메라를 지칭할 수 있다. 뎁스 비전이란, 비행시간거리측정(ToF) 카메라로 분류된다. 사물을 향해 쏜 빛이 튕겨져 돌아오는 시간으로 거리를 계산한다. 사물의 입체감과 공간 정보, 움직임을 정확하게 인식할 수 있다. 해당 거리값이 본 발명에서의 깊이 값으로 측정되며, 각 픽셀, 즉 촬영 영상 프레임을 이루는 픽셀들 중 촬영 객체의 경계값 내의 픽셀들에 대한 깊이 값을 측정할 수 있다.
이에 따라, 상기 전자 장치(101a)는 상기 카메라를 통해 촬영 객체 촬영 시, 경계값 식별, 그레이 변환 식별 등 각 영상 프레임을 이루는 이미지들로부터 촬영 객체를 식별하는 다양한 공지의 기술들이 사용될 수 있다.
일 실시예에 따르면, 상기 자이로 센서는 X, Y, Z 3축에 대한 회전 속도를 측정하며, 이를 통해서 전자 장치(101a)의 기울임 정도나 회전 등을 측정할 수 있다. 상기와 관련하여, 상기 자이로 센서는 예를 들어 가속도 센서로서, 가속도를 측정하여 동작 인식 및 감지에 활용되는 센서로 대체될 수 있다. 이를 통해서, 스마트폰 등의 전자 장치를 들고 사용자가 회전하거나 이동하면서 촬영 객체를 촬영 시, 각 프레임별로 측정값을 타임 스탬프에 따라서 매칭 시, 각 프레임을 이루는 영상 이미지에 촬영 시의 전자 장치(101a)의 기울임 등을 이용하여 촬영 각도 정보를 생성하고, 이를 매칭시킬 수 있다.
일 실시예에 따르면, 상기 촬영 각도 정보는 상기 자이로 센서의 센싱 값을 기준으로 도출된 값으로서, 촬영 객체를 원점으로 한 X, Y, Z축 좌표 값에 따라 도출되는 3차원 각도 정보를 의미할 수 있다.
일 실시예에 따르면, 영상 이미지 정보는, 사용자가 전자 장치(101a)를 이용하여 영상을 촬영 시, 촬영 시간 동안 획득된 영상의 프레임을 이루는 각 영상 이미지마다, 상기 촬영 각도 정보를 결합한 일종의 미디어 및 메타 데이터의 결합체를 의미한다. 이 때, 상기 영상 이미지 정보는 다방향에서 상기 촬영 객체를 촬영함에 따라 생성된 복수 개의 영상 이미지를 포함하는 정보일 수 있다.
일 실시예에 따르면, 상기 촬영 정보 수신부(101)는 상기 영상 이미지 정보 수신 시, 상기 영상 이미지 정보에 기반한 각 영상 이미지에 대응되는 촬영 영상 프레임에 대한 촬영 각도 정보도 함께 추가로 수신할 수 있다.
일 실시예에 따르면, 상기 가상 객체 분석부(103)는 상기 촬영 각도 정보 및 상기 영상 이미지 정보의 수신이 완료되면, 상기 수신된 촬영 각도 정보 및 상기 영상 이미지 정보를 기반으로, 상기 촬영 객체와 대응하는 3D 입체 모델인 가상 객체를 3차원 가상 공간에 구현하여, 상기 가상 객체를 구성하는 픽셀들 중 적어도 하나의 흠결 픽셀이 존재하는지를 확인할 수 있다.
일 실시예에 따르면, 상기 가상 객체 분석부(103)는 상기 촬영 각도 정보 및 상기 영상 이미지 정보의 수신이 완료되면, 상기 수신된 영상 이미지 정보에 대한 분석을 시작하여, 상기 영상 이미지 정보 상의 촬영 객체에 대한 깊이 값 및 컬러를 추출하고, 상기 영상 이미지 정보에 기반한 2차원 이미지인 촬영 객체를 상기 추출된 깊이 값 및 컬러가 반영된 3차원 이미지로 변환할 수 있다.
상기와 관련하여, 상기 가상 객체 분석부(103)는 상기 촬영 객체에 대한 3차원 이미지를 생성 시, 상기 촬영 객체에 대한 6면도 및 사시도에 해당하는 이미지를 정합 대상 정보로 선택하여, 활용함으로써, 촬영 상황 및 사용자의 촬영에 영향을 받지 않고 일정한 3차원 모델링의 품질을 확보할 수 있고, 전문적인 지식 없이도 자연스럽게 촬영 대상을 중심으로 주변을 움직이면서 동영상을 촬영하게 되면 자동으로 일정한 도면을 선택하여 3차원 모델링을 수행하여, 그 편의성이 크게 향상될 수 있다.
일 실시예에 따르면, 상기 깊이 값은, 상기 촬영 객체의 3차원 이미지 생성을 위해 사용되는 촬영 영상 프레임에 대응되는 영상 이미지 내의 촬영 객체를 구성하는 픽셀들에 대해서 측정된 깊이 값을 의미할 수 있다. 이에 따라, 상기 가상 객체 분석부(103)는 상기 전자 장치(101a)로부터 수신되는 영상 이미지 정보에 기반한 촬영 객체에 대한 이미지 경계선 내에 포함된 픽셀들을 분석하여, 상기 분석 결과를 통해 상기 촬영 객체를 구성하는 픽셀들 각각에 매칭된 깊이 값을 추출할 수 있다.
본 발명에서 결합 영상 이미지를 이용하여 3차원 이미지 데이터를 생성함은, 공지의 2차원 이미지를 통한 3차원 이미지 생성 기술을 의미할 수 있으며, 이때 상술한 각 영상 이미지 정보에 포함된 픽셀들의 깊이 값들 중, 촬영 객체를 이루는 픽셀 및 그 픽셀들의 깊이 값을 이용하여, 가상 객체 및 실감 오브젝트의 생성에 이용될 수 있다. 이 때, 상기 가상 객체 분석부(103)는 상기 영상 이미지 정보를 이용해 3차원 이미지 데이터 생성 시, 상기 각 영상 이미지 정보에 포함된 촬영 객체를 구성하는 픽셀들의 깊이 값을 추출하고, 추출된 깊이 값에 기반해 상기 촬영 객체를 이루는 픽셀을 구현하되, 상기 구현된 픽셀들 각각에 상기 깊이 값에 대응하는 깊이 값 정보를 매칭하고, 상기 추출된 컬러에 기반해 그 픽셀들의 컬러 코드 정보를 매칭할 수 있다.
일 실시예에 따르면, 상기 가상 객체 분석부(103)는 상기 3차원 이미지를 상기 3차원 가상 공간에 구현함으로써, 3D 입체 모델인 가상 객체(103a)를 생성할 수 있다.
일 실시예에 따르면, 상기 가상 객체 분석부(103)는 상기 가상 객체(103a)의 생성이 완료되면, 상기 가상 객체(103a)를 구성하는 픽셀들 중 적어도 하나의 흠결 픽셀(103b)이 존재하는지를 확인할 수 있다. 상기와 관련하여, 상기 가상 객체 분석부(103)가 상기 흠결 픽셀(103b)의 존재 여부를 확인하는 자세한 설명은 도 3 내지 도 4에서 설명하도록 한다.
일 실시예에 따르면, 상기 흠결 픽셀(103b)은 상기 가상 객체(103a)를 구성하는 픽셀들 중 적어도 하나의 픽셀이 형태가 주변의 픽셀과 달리 비정상적인 형태로 형성되어 있거나, 주변의 픽셀의 컬러와 달리 비정상적인 형태로 형성되어 있는 픽셀을 의미할 수 있다.
일 실시예에 따르면, 상기 실감 오브젝트 생성부(105)는 상기 가상 객체 분석부(103)의 기능 수행으로 인해 상기 가상 객체(103a)를 구성하는 픽셀들 중 적어도 하나의 흠결 픽셀(103b)이 존재하는 것이 확인되면, 상기 적어도 하나의 흠결 픽셀(103b)의 인근 픽셀들 각각에 매칭된 컬러 코드 정보(105a) 및 깊이 값 정보(105b)를 추출하여, 상기 흠결 픽셀에 대한 보정을 완료해 실감 오브젝트를 생성할 수 있다.
일 실시예에 따르면, 상기 컬러 코드 정보(105a)는 상기 가상 객체를 구성하는 픽셀들 및 그 픽셀들에 매칭된 정보로써, 보다 자세하게, 상기 카메라를 통해 촬영한 촬영 객체의 컬러와 대응되는 컬러에 기반한 컬러 코드(예: BLUE(#0000FF, (0, 0, 255)))를 포함하는 정보일 수 있다.
일 실시예에 따르면, 상기 실감 오브젝트 생성부(105)는 상기 흠결 픽셀의 인근 픽셀들 각각에 매칭된 컬러 코드 정보(105a)와 상기 깊이 값 정보(105b)를 추출하여, 상기 컬러 코드 정보(105a)에 기반한 컬러의 평균 값에 대응되는 컬러를 상기 흠결 픽셀에 반영해 색 보정을 실시하거나 상기 깊이 값 정보(105b)에 기반한 깊이 값의 평균 깊이 값에 대응되는 깊이 값을 상기 흠결 픽셀에 반영해 형태 보정을 실시할 수 있다. 상기 실감 오브젝트 생성부(105)가 상기 흠결 픽셀을 보정하는 자세한 설명은 도 5 내지 도 6에서 설명하도록 한다.
도 2는 본 발명의 일 실시 예에 따른 3D 모델링 자동 보정을 통한 실감 오브젝트 생성 시스템의 가상 객체 분석부에 대한 블록도이다.
도 2를 참조하면, 3D 모델링 자동 보정을 통한 실감 오브젝트 생성 시스템(예: 도 1의 3D 모델링 자동 보정을 통한 실감 오브젝트 생성 시스템 (100))(이하, 자동 보정 시스템으로 칭함)은 가상 객체 분석부(200)(예: 가상 객체 분석부(103))를 포함할 수 있다.
일 실시예에 따르면, 상기 가상 객체 분석부(200)는 촬영 정보 수신부(예: 도 1의 촬영 정보 수신부(101))로부터 촬영 각도 정보 및 영상 이미지 정보의 수신이 완료되면, 상기 수신된 촬영 각도 정보 및 상기 영상 이미지 정보를 분석해 상기 분석 결과를 기반으로, 촬영 객체와 대응하는 3D 입체 모델인 가상 객체를 3차원 가상 공간에 구현하여, 상기 가상 객체를 구성하는 픽셀들 중 적어도 하나의 흠결 픽셀이 존재하는지를 확인할 수 있다.
일 실시예에 따르면, 상기 가상 객체 분석부(200)는 상술한 기능을 수행하기 위한 세부 구성으로, 이미지 변환부(201) 및 가상 객체 생성부(203)를 포함할 수 있다.
일 실시예에 따르면, 상기 이미지 변환부(201)는 상기 수신된 영상 이미지 정보를 분석해 촬영 객체에 대한 깊이 값 및 컬러를 추출하고, 다방향에서 촬영한 촬영 객체에 대한 2차원 이미지를 상기 추출된 깊이 값 및 컬러가 반영된 3차원 이미지로 변환할 수 있다.
일 실시예에 따르면, 상기 영상 이미지 정보(201a)는, 사용자가 전자 장치를 이용하여 영상을 촬영 시, 촬영 시간 동안 획득된 영상의 프레임을 이루는 각 영상 이미지마다, 상술한 촬영 각도 정보를 결합한 일종의 미디어 및 메타 데이터의 결합체를 의미한다. 이 때, 상기 영상 이미지 정보(201a)는 다방향에서 상기 촬영 객체를 촬영함에 따라 생성된 복수 개의 영상 이미지를 포함하는 정보일 수 있다.
일 실시예에 따르면, 상기 이미지 변환부(201)는 상기 영상 이미지 정보에 기반한 촬영 객체의 2차원 이미지를 통한 3차원 이미지(201b)를 생성할 수 있다. 보다 자세하게, 상기 이미지 변환부(201)는 상기 영상 이미지 정보에 대한 분석을 시작하여, 분석 결과를 통해 상기 영상 이미지 정보 상의 촬영 객체에 대한 깊이 값 및 컬러를 추출할 수 있다. 이 때, 상기 이미지 변환부(201)는 상기 깊이 값을 기반으로, 상기 촬영 객체를 구성하는 픽셀들을 구현하되, 상기 깊이 값에 대응되는 깊이 값 정보를 매칭하고, 상기 추출된 컬러에 기반해 그 픽셀들에 대한 컬러 코드 정보를 매칭하여, 상기 2차원 이미지를 3차원 이미지(201b)로 변환할 수 있다.
상기와 관련하여, 상기 이미지 변환부(201)는 상기 영상 이미지 정보 분석 시, 기 저장된 이미지 분석 알고리즘을 통해 상기 영상 이미지 정보를 분석할 수 있다. 상기와 관련하여, 상기 기 저장된 이미지 분석 알고리즘은 다른 영상 이미지 정보와 실측 깊이 맵을 학습하면서 실측 깊이 맵과 유사한 깊이 맵을 생성할 수 있는 알고리즘일 수 있다. 이에 따라, 상기 기 저장된 이미지 분석 알고리즘은 상기 영상 이미지 정보에 대한 분석을 시작해 상기 영상 이미지 정보에 기반한 촬영 객체의 깊이 맵을 생성할 수 있다.
이 때, 생성되는 깊이 맵은 상기 촬영 객체를 구성하는 픽셀들에 의해 형성되는 정보일 수 있다. 이에 따라, 상기 이미지 변환부(201)는 생성된 깊이 맵을 통해 상기 촬영 객체에 대한 깊이 값을 추출하고, 상기 촬영 객체를 구성하는 픽셀들 각각에 상기 추출된 깊이 값에 대응되는 깊이 값 정보를 매칭할 수 있다. 또한, 상기, 기 저장된 이미지 분석 알고리즘은 상기 영상 이미지 정보에 기반한 촬영 객체의 컬러를 식별할 수 있다.일 실시예에 따르면, 상기 가상 객체 생성부(203)는 상기 3차원 이미지(201b)의 변환이 완료되면, 상기 촬영 객체의 동일한 영역을 지시하는 픽셀의 깊이 값이 동일해지도록 상기 3차원 이미지(201b)의 크기를 보정하고, 상기 촬영 각도 정보에 대응되는 방향에서 상기 3차원 이미지(201b)를 정합하여 3D 입체 모델인 가상 객체(203a)를 생성할 수 있다.
보다 자세하게, 상기 이미지 변환부(201)는 상기 영상 이미지 정보에 포함된 촬영 객체를 구성하는 픽셀들의 깊이 값들을 이용하여 2차원 이미지들로부터 각 면의 부분 3차원 이미지를 생성하고, 각 면의 각 부분 3차원 이미지에 포함된 픽셀들의 깊이 값 및 픽셀들을 비교하여, 각 부분 3차원 이미지를 통해 촬영 객체의 동일한 포인트를 지시하는 픽셀의 깊이 값이 동일해지도록 각 부분 3차원 이미지의 크기를 보정한 뒤 모든 방향(또는 다방향)에서 부분 3차원 이미지를 정합하여 상하좌우의 3차원 이미지로 구현되는 가상 객체를 생성하는 것이 가능하다.
도 3은 본 발명의 일 실시 예에 따른 3D 모델링 자동 보정을 통한 실감 오브젝트 생성 시스템의 가상 객체 분석부에 대한 다른 블록도이다.
도 3을 참조하면, 3D 모델링 자동 보정을 통한 실감 오브젝트 생성 시스템(예: 도 1의 3D 모델링 자동 보정을 통한 실감 오브젝트 생성 시스템 (100))(이하, 자동 보정 시스템으로 칭함)은 가상 객체 분석부(300)(예: 가상 객체 분석부(103))를 포함할 수 있다.
일 실시예에 따르면, 상기 가상 객체 분석부(300)는 촬영 정보 수신부(예: 도 1의 촬영 정보 수신부(101))로부터 촬영 각도 정보 및 영상 이미지 정보의 수신이 완료되면, 상기 수신된 촬영 각도 정보 및 상기 영상 이미지 정보를 기반으로, 촬영 객체와 대응하는 3D 입체 모델인 가상 객체(301a)를 3차원 가상 공간에 구현하여, 상기 가상 객체에 대한 분석을 시작해 상기 가상 객체를 구성하는 픽셀들 중 적어도 하나의 흠결 픽셀이 존재하는지를 확인할 수 있다.
상기와 관련하여, 상기 가상 객체 분석부(300)가 상기 수신된 촬영 각도 정보 및 상기 영상 이미지 정보를 기반으로, 촬영 객체와 대응하는 3D 입체 모델인 가상 객체(301a)를 3차원 가상 공간에 구현하는 자세한 설명은 도 2를 참고하도록 한다.
일 실시예에 따르면, 상기 가상 객체 분석부(300)는 상기 가상 객체(301a)에 대한 분석을 시작해 상기 가상 객체(301a)를 구성하는 픽셀들 중 적어도 하나의 흠결 픽셀이 존재하는지를 확인하기 위한 세부 구성으로, 프로세스 시작부(301), 조건 만족 확인부(303) 및 흠결 픽셀 지정부(305)를 포함할 수 있다.
일 실시예에 따르면, 상기 프로세스 시작부(301)는 가상 객체 생성부(예: 도 2의 가상 객체 생성부(203))에 의해 상기 가상 객체(301a)의 생성이 완료됨에 따라, 상기 3차원 가상 공간에 상기 가상 객체(301a)의 구현이 완료되면, 상기 가상 객체(301a)를 구성하는 픽셀들에 대한 분석 프로세스를 시작할 수 있다. 상기 분석 프로세스는 상기 가상 객체를 구성하는 픽셀들의 컬러 및 형태가 비정상적인지를 판별하기 위한 프로세스일 수 있다.
일 실시예에 따르면, 상기 조건 만족 확인부(303)는, 상기 분석 프로세스가 시작되면, 기 저장된 흠결 픽셀 도출 알고리즘을 기반으로, 상기 가상 객체(301a)를 구성하는 픽셀들(305a) 중 제1 픽셀(303a)을 지정하고, 상기 제1 픽셀(303a)을 기준으로 지정된 범위 내에 위치한 범위 픽셀에 대한 분석을 시작하여, 상기 분석 결과를 통해 상기 제1 픽셀(303a) 및 상기 범위 픽셀 중 적어도 하나가 지정된 흠결 픽셀 조건을 만족하는지를 확인할 수 있다.
일 실시예에 따르면, 상기 기 저장된 흠결 픽셀 도출 알고리즘은 상기 제1 픽셀 및 상기 범위 픽셀의 깊이 값 및 상기 제1 픽셀(303a) 및 상기 범위 픽셀 각각의 깊이 값, 형태, 위치 및 컬러 간의 상관 관계를 판별하는 머신 러닝 기반의 알고리즘일 수 있다.
일 실시예에 따르면, 상기 조건 만족 확인부(303)는 상기 기 저장된 흠결 픽셀 도출 알고리즘을 통해 상기 가상 객체를 구성하는 픽셀들(305a)을 분석하여, 가상 객체를 구성하는 픽셀들(305a) 중 제1 픽셀(303a) 및 제1 픽셀(303a)을 기준으로 지정된 범위 내에 위치한 범위 픽셀의 깊이 값, 형태, 위치 및 컬러 간의 상관 관계를 확인할 수 있다.
상기 조건 만족 확인부(303)는 상기 제1 픽(303a)셀 및 상기 범위 픽셀의 깊이 값, 형태, 위치 및 컬러 간의 상관 관계를 확인이 완료되는 경우, 상기 확인 결과가 지정된 흠결 픽셀 조건을 만족하는지를 확인할 수 있다.
일 실시예에 따르면, 상기 지정된 흠결 픽셀 조건은 상기 가상 객체를 구성하는 픽셀들(305a) 중 일부가 비 정상적인 픽셀인지를 판별하기 위해 설정한 조건 정보로써, 관리자에 의해 변경되거나 상기 기 저장된 흠결 픽셀 도출 알고리즘에 의해 추가 및 변경될 수 있다.
일 실시예에 따르면, 상기 조건 만족 확인부(303)는 상기 기 저장된 흠결 픽셀 도출 알고리즘을 통해 상기 제1 픽셀(303a) 및 상기 범위 픽셀의 깊이 값, 형태, 위치 및 컬러 간의 상관 관계를 분석하여, 상기 제1 픽셀(303a) 및 상기 범위 픽셀의 컬러 및 형성하고 있는 형태가 비정상적인지를 판단할 수 있다.
예를 들어, 상기 조건 만족 확인부(303)는 상기 기 저장된 흠결 픽셀 도출 알고리즘을 통해 상기 제1 픽셀(303a) 및 상기 범위 픽셀의 깊이 값, 형태, 위치 및 컬러 간의 상관 관계를 분석을 시작할 수 있다.
상기와 관련하여, 상기 조건 만족 확인부(303)는, 기 저장된 흠결 픽셀 도출 알고리즘을 통해 SUV의 형태를 가지는 가상 객체(301a)의 본 네트를 구성하는 픽셀들 중 제1 픽셀을 임의로 지정해 상기 제1 픽셀(303a)의 컬러 코드 정보를 확인하여, 상기 제1 픽셀(303a)의 컬러가 화이트 펄인 것을 식별할 수 있다. 이 때, 상기 조건 만족 확인부(303)는 상기 제1 픽셀(303a)을 기준으로 지정된 범위 내에 위치한 범위 픽셀의 컬러 코드 정보를 확인하여, 상기 범위 픽셀의 컬러가 오로라 블랙 펄인 것을 식별할 수 있다.
상기와 관련하여, 상기 조건 만족 확인부(303)는 화이트 펄 컬러의 제1 픽셀(303a)의 형태와 상기 오로라 블랙 펄 컬러의 범위 픽셀의 형태를 식별하여, 상기 범위 픽셀의 형태가 본 네트의 상부 영역인 것을 식별하고, 상기 제1 픽셀(303a)의 형태가 상기 본 네트의 상부 영역의 일 영역에 위치한 비정상적 형태인 것을 확인할 수 있다. 이에 따라, 상기 조건 만족 확인부(303)는 상기 제1 픽셀의 형태가 비정상적임에 따라 오로라 블랙 펄 컬러에 대응되는 컬러 코드 정보가 매칭되지 않고, 화이트 펄 컬러에 대응되는 컬러 코드 정보가 매칭된 것으로 확인하여, 상기 제1 픽셀(303a)이 상기 기 지정된 흠결 픽셀 조건에 포함된다고 판단할 수 있다.
일 실시예에 따르면, 상기 흠결 픽셀 지정부(305)는 상기 제1 픽셀(303a) 및 상기 범위 픽셀 중 적어도 하나가 상기 지정된 흠결 픽셀 조건을 만족하는 경우, 상기 지정된 흠결 픽셀 조건을 만족하는 픽셀에 식별 정보를 부여해 흠결 픽셀로 지정할 수 있다.
일 실시예에 따르면, 상기 식별 정보는 상기 제1 픽셀(303a) 및 상기 범위 픽셀 중 적어도 하나가 상기 지정된 흠결 픽셀 조건을 만족하는 경우, 상기 픽셀에 부여되는 정보로써, 실감 오브젝트 생성부(예: 도 1의 실감 오브젝트 생성부(105))가 상기 흠결 픽셀을 인식하도록 하는 정보일 수 있다.
예를 들어, 상기 흠결 픽셀 지정부(305)는, 상기 조건 만족 확인부(303)에 의해 상기 제1 픽셀(303a)이 상기 기 지정된 흠결 픽셀 조건에 포함된다고 판단된 경우, 상기 제1 픽셀(303a)에 상기 식별 정보를 부여할 수 있다. 이 때, 상기 제1 픽셀(303a)에 부여되는 식별 정보는 상기 실감 오브젝트 생성부로 하여금 상기 제1 픽셀(303a)이 상기 기 지정된 흠결 픽셀 조건 중 픽셀의 형태가 비 정상적이며, 비 정상적인 컬러 코드 정보가 매칭되어 있다는 것을 식별하도록 하기 위한 정보일 수 있다.
도 4는 본 발명의 일 실시 예에 따른 3D 모델링 자동 보정을 통한 실감 오브젝트 생성 시스템의 기 저장된 흠결 픽셀 도출 알고리즘을 설명하기 위한 도면이다.
도 4를 참조하면, 3D 모델링 자동 보정을 통한 실감 오브젝트 생성 시스템(예: 도 1의 3D 모델링 자동 보정을 통한 실감 오브젝트 생성 시스템 100))(이하, 자동 보정 시스템으로 칭함)은 조건 만족 확인부(401)(예: 조건 만족 확인부(303))를 포함할 수 있다.
일 실시예에 따르면, 상기 조건 만족 확인부(401)는 프로세스 시작부(예: 도 3의 프로세스 시작부(301))에 의해 분석 프로세스가 시작되면, 기 저장된 흠결 픽셀 도출 알고리즘(405)을 기반으로, 가상 객체를 구성하는 픽셀들(403) 중 제1 픽셀을 지정하고, 상기 제1 픽셀을 기준으로 지정된 범위 내에 위치한 범위 픽셀에 대한 분석을 시작하여, 상기 분석 결과를 통해 상기 제1 픽셀 및 상기 범위 픽셀 중 적어도 하나가 지정된 흠결 픽셀 조건을 만족하는지를 확인할 수 있다.
일 실시예에 따르면, 상기 기 저장된 흠결 픽셀 도출 알고리즘(405)은 상기 가상 객체를 구성하는 픽셀들(403) 각각의 깊이 값, 형태, 위치 및 컬러 간의 상관 관계를 분석하여, 상기 분석 결과에 기반한 픽셀들 중 적어도 하나가 기 지정된 흠결 픽셀 조건을 만족하는지 여부를 확인하기 위한 알고리즘일 수 있다.
또한, 상기 기 저장된 흠결 픽셀 도출 알고리즘(405)은 상기 분석 프로세스가 시작되면, 상기 가상 객체를 구성하는 픽셀들 각각을 확인하여, 컬러 코드 정보가 반영되어 있지 않은 픽셀 및 범위 픽셀 대비 깊이 값이 기 설정된 임계 범위를 초과하거나 미만인 비연속적 픽셀 중 적어도 하나를 식별하는 알고리즘일 수 있다.
즉, 상기 기 저장된 흠결 픽셀 도출 알고리즘(405)은 가상 객체를 구성하는 픽셀들(403) 중 제1 픽셀 및 상기 범위 픽셀 각각의 깊이 값, 형태, 위치 및 컬러 간의 상관 관계를 통해 흠결 픽셀은 도출하는 알고리즘이면서, 상기 컬러 코드 정보가 반영되어 있지 않은 픽셀 및 범위 픽셀 대비 깊이 값이 기 설정된 임계 범위를 초과하거나 미만인 비연속적 픽셀을 식별하는 알고리즘일 수 있다.
상기와 관련하여, 상기 기 설정된 임계 범위는 상기 범위 픽셀의 깊이 값의 평균인 평균 깊이 값을 기준으로 설정되는 구성으로써, 상기 평균 깊이 값 대비 상기 깊이 값이 지정된 수치를 초과하거나 미만인 픽셀을 식별하기 위한 기준 정보일 수 있다.
예를 들어, 상기 기 저장된 흠결 픽셀 도출 알고리즘(405)은 PointNet 기반 딥 러닝 알고리즘일 수 있다. 상기 조건 만족 확인부(401)는 상기 PointNet 기반 딥 러닝 알고리즘을 통해 이전에 획득 또는 입력된 가상 객체들을 학습함으로써, 가상 객체들에 포함된 픽셀들(403) 각각에 대한 깊이 값, 형태, 위치 및 색상 등을 판별하여, 상기 가상 객체의 픽셀의 상태를 확인할 수 있다. 또한, 상기 기 저장된 흠결 픽셀 도출 알고리즘(405)은 다른 가상 객체들을 통해 다양한 비정상적인 픽셀들의 깊이 값, 배열(형태 및 위치), 주변 픽셀들 간의 컬러 상관 관계를 확인하도록 하는 알고리즘일 수 있다.
즉, 상기 기 저장된 흠결 픽셀 도출 알고리즘(405)은 PointNet 기반 딥 러닝 알고리즘뿐만 아니라, 이전에 획득 또는 입력된 가상 객체를 머신 러닝(machine learning)함으로써, 새롭게 입력되는 가상 객체를 통해 가상 객체를 구성하는 픽셀들의 비정상 유무를 판단하여, 비정상 상태의 픽셀을 확인 가능한 머신러닝 기반의 알고리즘이면, 이에 한정되지 않는다.
다른 예를 들면, 상기 기 저장된 흠결 픽셀 도출 알고리즘(405)은 자동인지 표준화 알고리즘일 수 있다. 상기 자동인지 표준화 알고리즘은, 상기 조건 만족 확인부(401)가 상기 가상 객체를 구성하는 픽셀들 각각의 깊이 값, 형태, 위치 및 컬러 간의 상관 관계를 확인하여 비정상적인 픽셀로 분류하기 위한 머신 러닝 기반의 알고리즘일 수 있다.
도 5는 본 발명의 일 실시 예에 따른 3D 모델링 자동 보정을 통한 실감 오브젝트 생성 시스템의 실감 오브젝트 생성부를 설명하기 위한 블록도이다.
도 5를 참조하면, 3D 모델링 자동 보정을 통한 실감 오브젝트 생성 시스템(예: 도 1의 3D 모델링 자동 보정을 통한 실감 오브젝트 생성 시스템 100))(이하, 자동 보정 시스템으로 칭함)은 실감 오브젝트 생성부(500)(예: 실감 오브젝트 생성부(105))를 포함할 수 있다.
일 실시예에 따르면, 상기 실감 오브젝트 생성부(500)는 가상 객체 분석부(예: 도 1의 가상 각체 분석부(103))의 기능 수행으로 인해 가상 객체를 구성하는 픽셀들 중 적어도 하나의 흠결 픽셀이 존재하는 것이 확인되면, 상기 적어도 하나의 흠결 픽셀의 인근 픽셀들 각각에 매칭된 컬러 코드 정보 및 깊이 값 정보를 추출하여, 상기 추출된 컬러 코드 정보 및 깊이 값 정보 중 적어도 하나를 활용해 흠결 픽셀에 대한 보정을 완료해 실감 오브젝트의 생성을 완료할 수 있다.
일 실시예에 따르면, 상기 실감 오브젝트 생성부(500)는 상술한 기능을 수행하기 위한 세부 구성으로, 제1 컬러 보정 실시부(501) 및 제2 컬러 보정 실시부(503)를 포함할 수 있다.
일 실시예에 따르면, 상기 제1 컬러 보정 실시부(501)는 흠결 픽셀 지정부(예: 도 3의 흠결 픽셀 지정부(305))의 기능 수행으로 인해 가상 객체를 구성하는 픽셀들(501a) 중 상기 흠결 픽셀(501b)이 확인되는 경우, 상기 흠결 픽셀(501b)을 제외하되, 상기 흠결 픽셀(501b)을 기준으로 지정된 범위 내에 위치한 범위 픽셀 각각의 컬러 변동에 대한 평균 값을 확인하여, 상기 확인된 평균 값에 대응되는 컬러 코드 정보를 상기 흠결 픽셀(501b)에 매칭해 상기 매칭된 컬러 코드 정보에 기반한 컬러를 상기 흠결 픽셀(501b)에 반영해 1차 보정을 실시할 수 있다.
일 실시예에 따르면, 상기 제1 컬러 보정 실시부(501)는 상기 가상 객체를 구성하는 픽셀들(501a) 각각에 식별 정보가 매칭되어 있는지를 확인하여, 상기 식별 정보가 매칭되어 있는 픽셀을 흠결 픽셀(501b)로 식별할 수 있다. 이 때, 상기 제1 컬러 보정 실시부(501)는 상기 식별 정보를 통해 상기 흠결 픽셀(501b)이 기 지정된 흠결 픽셀 조건 중 어느 조건을 만족한지를 확인할 수 있다.
일 실시예에 따르면, 상기 제1 컬러 보정 실시부(501)는 상기 흠결 픽셀(501b)의 식별이 완료되면, 상기 흠결 픽셀(501b)을 기준으로 지정된 범위 내에 위치한 범위 픽셀 각각의 컬러 변동에 대한 평균 값을 확인할 수 있다. 이 때, 상기 제1 컬러 보정 실시부(501)는 상기 컬러 변동에 대한 평균 값 확인 시, 상기 흠결 픽셀(501b)을 제외한 범위 픽셀만을 통해 상기 컬러 변동에 대한 평균 값을 확인할 수 있다.
일 실시예에 따르면, 상기 컬러 변동에 대한 평균 값은 상기 범위 픽셀 각각에 매칭된 컬러 코드 정보에 기반한 컬러의 변화에 따른 평균 컬러를 의미할 수 있다. 예를 들어, 상기 범위 픽셀이 제2 픽셀, 제3 픽셀, 제4 픽셀 및 제5 픽셀 순으로 순차적으로 배열되어 있는 경우, 상기 제1 컬러 보정 실시부(501)는 상기 제2 픽셀, 제3 픽셀, 제4 픽셀 및 제5 픽셀 각각에 매칭되어 있는 컬러 코드 정보를 확인해 제2 픽셀의 컬러가 파랑색, 제3 픽셀의 컬러가 네이비색, 제4 픽셀의 컬러가 검파랑색 및 제5 픽셀의 컬러가 검은색인 것을 식별할 수 있다.
이 때, 상기 제1 컬러 보정 실시부(501)는 기 저장된 컬러 코드 테이블을 통해 파랑색에 매칭된 제1 가중치, 네이비색에 매칭된 제2 가중치, 검파랑색에 매칭된 제3 가중치 및 검은색에 매칭된 제4 가중치를 확인하고, 제1 가중치, 제2 가중치, 제3 가중치 및 제4 가중치를 합산해 상기 범위 픽셀의 개수로 나눈 값을 컬러 변동에 대한 평균 값으로 확인할 수 있다.
상기와 관련하여, 상기 기 저장된 컬러 코드 테이블은 상기 컬러 코드 정보에 대응되는 컬러, 상기 컬러마다 가중치가 매칭된 정보가 다양한 컬러 별로 저장되어 있는 데이터테이블일 수 있다.
이에 따라, 상기 제1 컬러 보정 실시부(501)는 상기 평균 값이 확인되면, 상기 기 저장된 컬러 코드 테이블을 통해 상기 평균 값에 대응되는 가중치가 매칭되어 있는 컬러를 식별하고, 상기 식별된 컬러에 대한 컬러 코드 정보를 상기 흠결 픽셀(501b)에 매칭함으로써, 상기 흠결 픽셀(501b)에 상기 매칭된 컬러 코드 정보에 기반한 컬러를 반영시킬 수 있다.
일 실시예에 따르면, 상기 제2 컬러 보정 실시부(503)는 상기 제1 컬러 보정 실시부(501)의 기능 수행이 완료되면, 상기 흠결 픽셀(501b)을 기준으로 상기 지정된 범위 내에 위치한 범위 픽셀과 상기 흠결 픽셀(501b)의 깊이 값을 확인하여, 상기 확인된 깊이 값에 기반한 명도를 상기 흠결 픽셀에 반영된 컬러에 반영해 2차 보정을 실시하고, 상기 흠결 픽셀에 매칭된 컬러 코드 정보를 상기 2차 보정된 컬러에 대응되는 컬러 코드 정보로 재매칭할 수 있다.
상기와 관련하여, 상기 제2 컬러 보정 실시부(503)의 기능 수행은 상기 제1 컬러 보정 실시부(501)에 의해 확인되는 흠결 픽셀(501b)의 식별 정보에 기반해 수행되거나 수행되지 않을 수 있다.
보다 자세하게, 상기 제1 컬러 보정 실시부(501)에 의해 확인되는 흠결 픽셀(501b)에 부여된 식별 정보에 대한 흠결 픽셀 조건이 픽셀의 컬러만 관련되어 있고, 픽셀의 형태와는 관련되지 않은 조건으로 확인된 경우, 상기 제1 컬러 보정 실시부(501)에 의해 상기 흠결 픽셀(501b)의 컬러만이 보정될 수 있다. 또한, 상기 제1 컬러 보정 실시부(501)에 의해 확인되는 흠결 픽셀(501b)에 부여된 식별 정보에 대한 흠결 픽셀 조건이 픽셀의 컬러 및 픽셀의 형태와 관련된 조건으로 확인된 경우, 상기 제1 컬러 보정 실시부(501) 및 상기 제2 컬러 보정 실시부(503)의 기능이 수행될 수 있다.
일 실시예에 따르면, 상기 제2 컬러 보정 실시부(503)는 상기 흠결 픽셀(501b)을 기준으로 상기 지정된 범위 내에 위치한 범위 픽셀과 상기 흠결 픽셀(501b)의 깊이 값을 확인할 수 있다. 이 때, 상기 제2 컬러 보정 실시부(503)는 상기 확인된 깊이 값에 대응되는 명도를 상기 흠결 픽셀(501b)에 반영된 컬러에 반영할 수 있다. 보다 자세하게, 상기 제2 컬러 보정 실시부(503)는 기 저장된 명도 테이블에 저장된 복수 개의 명도 정보 중 상기 확인된 깊이 값이 매칭되어 있는 명도 정보를 확인하여, 상기 확인된 명도 정보에 기반한 명도를 상기 흠결 픽셀(501b)에 반영할 수 있다. 상기 복수 개의 명도 정보는 상기 깊이 값에 대응되는 명도 정보가 매칭되어 있는 정보일 수 있다.
이에 따라, 상기 제1 컬러 보정 실시부(501)에 의해 컬러가 반영된 흠결 픽셀(501b)은 상기 제2 컬러 보정 실시부(503)에 의해 명도가 반영됨에 따라 매칭되어 있는 컬러 코드 정보가 변경될 수 있다. 이 때, 변경되는 컬러 코드 정보는 상기 제1 컬러 보정 실시부(501)에 의해 반영된 컬러에 상기 제2 컬러 보정 실시부(503)에 의해 반영된 명도가 반영된 컬러에 대응되는 정보일 수 있다.
일 실시예에 따르면, 상기 실감 오브젝트 생성부(500)는 상기 제1 컬러 보정 실시부(501)의 기능이 수행되기 이전에, 상기 가상 객체에 대한 조명 이펙트에 기반한 조명 객체가 존재하는지를 확인하여, 상기 가상 객체의 흠결 픽셀(501b)을 포함하는 일 영역에 상기 조명 객체가 검출되는 경우, 상기 검출된 조명 객체의 형태, 컬러 및 텍스쳐를 분석하여 상기 가상 객체에 대응되는 촬영 객체에 대한 조명의 세기 및 조사 방향을 포함하는 조명의 영향을 판단할 수 있다.
일 실시예에 따르면, 상기 조명 객체는 상기 가상 객체의 일 영역에 위치한 조명 이펙트에 대응되는 형태를 가지는 그래픽 효과일 수 있다. 이에 따라, 상기 실감 오브젝트 생성부(500)는 상기 가상 객체의 일 영역에 상기 조명 객체가 존재하는 것을 확인하는 경우, 상기 조명 객체의 형태, 컬러 및 텍스쳐를 분석할 수 있다. 보다 자세하게, 상기 실감 오브젝트 생성부(500)는 이미지 분석 알고리즘을 통해 상기 가상 객체를 구성하는 픽셀들에 대한 상기 조명 객체의 형태, 컬러 및 텍스쳐를 분석할 수 있다.
이에 따라, 상기 실감 오브젝트 생성부(500)는 상기 기 저장된 이미지 분석 알고리즘을 통해 분석된 조명 객체의 형태, 컬러 및 텍스쳐에 기반한 조명의 영향을 판단할 수 있다. 상기와 관련하여, 상기 조명의 영향은 상기 가상 객체를 구성하는 픽셀들에 대한 조명의 세기 및 조명의 조사 방향을 포함할 수 있다.
일 실시예에 따르면, 상기 기 저장된 이미지 분석 알고리즘은 다른 가상 객체를 구성하는 픽셀들에 대한 조명 객체의 형태, 컬러 및 텍스쳐를 분석하여, 분석 결과를 머신러닝하는 알고리즘일 수 있다. 이에 따라, 상기 기 저장된 이미지 분석 알고리즘은 상기 가상 객체를 구성하는 픽셀들에 대한 조명 객체의 형태, 컬러 및 텍스쳐를 분석해 상기 가상 객체를 구성하는 픽셀들에 대한 조명의 영향을 판단할 수 있다.
일 실시예에 따르면, 상기 실감 오브젝트 생성부(500)는 상기 가상 객체를 구성하는 픽셀들에 대한 조명의 영향을 판단 완료한 상태에서, 상기 제2 컬러 보정 실시부(503)의 기능이 수행되는 경우, 상기 제2 컬러 보정 실시부(503)로 하여금 지정된 범위 내에 위치한 범위 픽셀과 상기 흠결 픽셀(501b)의 깊이 값을 확인하여, 상기 확인된 깊이 값에 기반한 명도에 상기 조명의 영향을 반영해 2차 보정을 실시하도록 할 수 있다.
즉, 상기 실감 오브젝트 생성부(500)는 상기 제2 컬러 보정 실시부(503)의 기능이 수행되기 전에, 상기 조명의 영향을 판단해 상기 판단된 조명의 영향에 기반한 조명의 세기 및 조명의 조사 방향을 상기 흠결 픽셀(501b)에 반영되는 명도와 함께 반영할 수 있다.
도 6은 본 발명의 일 실시 예에 따른 3D 모델링 자동 보정을 통한 실감 오브젝트 생성 시스템의 실감 오브젝트 생성부를 설명하기 위한 다른 블록도이다.
도 6을 참조하면, 3D 모델링 자동 보정을 통한 실감 오브젝트 생성 시스템(예: 도 1의 3D 모델링 자동 보정을 통한 실감 오브젝트 생성 시스템 100))(이하, 자동 보정 시스템으로 칭함)은 실감 오브젝트 생성부(601)(예: 실감 오브젝트 생성부(105))를 포함할 수 있다.
일 실시예에 따르면, 상기 실감 오브젝트 생성부(601)는 가상 객체 분석부(603)(예: 도 1의 가상 객체 분석부(103))의 기능 수행으로 인해 가상 객체를 구성하는 픽셀들 중 적어도 하나의 흠결 픽셀이 존재하는 것이 확인되면, 상기 적어도 하나의 흠결 픽셀의 인근 픽셀들 각각에 매칭된 컬러 코드 정보 및 깊이 값 정보를 추출하여, 상기 추출된 컬러 코드 정보 및 깊이 값 정보 중 적어도 하나를 활용해 흠결 픽셀에 대한 보정을 완료해 실감 오브젝트의 생성을 완료할 수 있다.
상기와 관련하여, 상기 실감 오브젝트 생성부(601)가 흠결 픽셀에 반영된 컬러를 보정하는 자세한 설명은 도 4 내지 도 5를 참고하도록 한다. 도 6에서는 흠결 픽셀의 깊이 값을 보정하기 위한 설명만을 개시하도록 한다.
일 실시예에 따르면, 상기 실감 오브젝트 생성부(601)는, 상기 가상 객체 분석부(603)가 상기 기 저장된 흠결 픽셀 도출 알고리즘을 통해 범위 픽셀 대비 깊이 값이 기 설정된 임계 범위를 초과 또는 미만인 비연속적 픽셀을 식별하는 경우, 상기 식별된 비연속적 픽셀에 인접한 인접 픽셀에 대한 깊이 값의 깊이 평균 값을 산출하여, 상기 산출된 깊이 평균 값에 대응되는 깊이 값을 상기 식별된 비연속적 픽셀에 반영해 보정을 실시할 수 있다.
상기와 관련하여, 상기 기 설정된 임계 범위는, 상기 가상 객체 분석부(603)가 가상 객체를 구성하는 픽셀들 중 하나인 제1 픽셀을 기준으로 지정된 범위 내에 위치한 범위 픽셀의 깊이 값의 평균에 지정된 깊이 값이 반영된 구성일 수 있다. 예를 들어, 상기 범위 픽셀의 깊이 값이 평균이 5인 경우, 상기 기 설정된 임계 범위는 5를 기준으로 -2 및 +2가 적용된 3 내지 7일 수 있다.
상기와 관련하여, 상기 실감 오브젝트 생성부(601)는 상기 가상 객체를 구성하는 픽셀들에서 상기 범위 픽셀에 포함된 일 영역(예: 제1 영역)에 포함된 픽셀들 중 기 설정된 임계 범위인 3 내지 7을 초과하거나 미만인 비연속적 픽셀을 식별할 수 있다. 이에 따라, 상기 실감 오브젝트 생성부(601)는 상기 식별된 비연속적 픽셀에 인접한 인접 픽셀에 대한 깊이 값의 깊이 평균 값을 산출해 상기 산출된 깊이 평균 값에 대응되는 깊이 값을 상기 식별된 비연속적 픽셀에 반영해 보정을 실시할 수 있다.
즉, 상기 실감 오브젝트 생성부(601)는 상기 기 저장된 흠결 픽셀 도출 알고리즘을 통해 범위 픽셀 대비 깊이 값이 기 설정된 임계 범위를 초과하거나 미만인 비연속적 픽셀을 식별하고, 상기 식별된 비연속적 픽셀에 인접해 있는 인접 픽셀의 깊이 평균 값을 산출해 상기 비연속적 픽셀을 보정함으로써, 국소 범위에 대한 픽셀의 보정을 수행할 수 있다.
일 실시예에 따르면, 상기 실감 오브젝트 생성부(601)는 상기 비연속적 픽셀에 상기 인접 픽셀에 대한 평균 값을 반영함으로써, 실감 오브젝트의 생성을 완료할 수 있다. 상기 실감 오브젝트는 촬영 객체와 대응하는 가상 객체를 상기 자동 보정 시스템이 자동으로 보정함에 따라 생성되는 완성된 가상의 객체를 의미할 수 있다.
도 7은 본 발명의 일 실시 예에 따른 컴퓨팅 장치의 내부 구성의 일 예를 설명하기 위한 도면이다.
도 7은 본 발명의 일 실시 예에 따른 컴퓨팅 장치의 내부 구성의 일 예를 도시하였으며, 이하의 설명에 있어서, 상술한 도 1 내지 6에 대한 설명과 중복되는 불필요한 실시 예에 대한 설명은 생략하기로 한다.
도 7에 도시한 바와 같이, 컴퓨팅 장치(10000)은 적어도 하나의 프로세서(processor)(11100), 메모리(memory)(11200), 주변장치 인터페이스(peripEHRal interface)(11300), 입/출력 서브시스템(I/O subsystem)(11400), 전력 회로(11500) 및 통신 회로(11600)를 적어도 포함할 수 있다. 이때, 컴퓨팅 장치(10000)은 촉각 인터페이스 장치에 연결된 유저 단말이기(A) 혹은 전술한 컴퓨팅 장치(B)에 해당될 수 있다.
메모리(11200)는, 일례로 고속 랜덤 액세스 메모리(high-speed random access memory), 자기 디스크, 에스램(SRAM), 디램(DRAM), 롬(ROM), 플래시 메모리 또는 비휘발성 메모리를 포함할 수 있다. 메모리(11200)는 컴퓨팅 장치(10000)의 동작에 필요한 소프트웨어 모듈, 명령어 집합 또는 그밖에 다양한 데이터를 포함할 수 있다.
이때, 프로세서(11100)나 주변장치 인터페이스(11300) 등의 다른 컴포넌트에서 메모리(11200)에 액세스하는 것은 프로세서(11100)에 의해 제어될 수 있다.
주변장치 인터페이스(11300)는 컴퓨팅 장치(10000)의 입력 및/또는 출력 주변장치를 프로세서(11100) 및 메모리 (11200)에 결합시킬 수 있다. 프로세서(11100)는 메모리(11200)에 저장된 소프트웨어 모듈 또는 명령어 집합을 실행하여 컴퓨팅 장치(10000)을 위한 다양한 기능을 수행하고 데이터를 처리할 수 있다.
입/출력 서브시스템(11400)은 다양한 입/출력 주변장치들을 주변장치 인터페이스(11300)에 결합시킬 수 있다. 예를 들어, 입/출력 서브시스템(11400)은 모니터나 키보드, 마우스, 프린터 또는 필요에 따라 터치스크린이나 센서 등의 주변장치를 주변장치 인터페이스(11300)에 결합시키기 위한 컨트롤러를 포함할 수 있다. 다른 측면에 따르면, 입/출력 주변장치들은 입/출력 서브시스템(11400)을 거치지 않고 주변장치 인터페이스(11300)에 결합될 수도 있다.
전력 회로(11500)는 단말기의 컴포넌트의 전부 또는 일부로 전력을 공급할 수 있다. 예를 들어 전력 회로(11500)는 전력 관리 시스템, 배터리나 교류(AC) 등과 같은 하나 이상의 전원, 충전 시스템, 전력 실패 감지 회로(power failure detection circuit), 전력 변환기나 인버터, 전력 상태 표시자 또는 전력 생성, 관리, 분배를 위한 임의의 다른 컴포넌트들을 포함할 수 있다.
통신 회로(11600)는 적어도 하나의 외부 포트를 이용하여 다른 컴퓨팅 장치와 통신을 가능하게 할 수 있다.
또는 상술한 바와 같이 필요에 따라 통신 회로(11600)는 RF 회로를 포함하여 전자기 신호(electromagnetic signal)라고도 알려진 RF 신호를 송수신함으로써, 다른 컴퓨팅 장치와 통신을 가능하게 할 수도 있다.
이러한 도 7의 실시 예는, 컴퓨팅 장치(10000)의 일례일 뿐이고, 컴퓨팅 장치(11000)은 도 7에 도시된 일부 컴포넌트가 생략되거나, 도 7에 도시되지 않은 추가의 컴포넌트를 더 구비하거나, 2개 이상의 컴포넌트를 결합시키는 구성 또는 배치를 가질 수 있다. 예를 들어, 모바일 환경의 통신 단말을 위한 컴퓨팅 장치는 도 7에 도시된 컴포넌트들 외에도, 터치스크린이나 센서 등을 더 포함할 수도 있으며, 통신 회로(1160)에 다양한 통신방식(WiFi, 3G, LTE, Bluetooth, NFC, Zigbee 등)의 RF 통신을 위한 회로가 포함될 수도 있다. 컴퓨팅 장치(10000)에 포함 가능한 컴포넌트들은 하나 이상의 신호 처리 또는 어플리케이션에 특화된 집적 회로를 포함하는 하드웨어, 소프트웨어, 또는 하드웨어 및 소프트웨어 양자의 조합으로 구현될 수 있다.
본 발명의 실시 예에 따른 방법들은 다양한 컴퓨팅 장치를 통하여 수행될 수 있는 프로그램 명령(instruction) 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 특히, 본 실시 예에 따른 프로그램은 PC 기반의 프로그램 또는 모바일 단말 전용의 어플리케이션으로 구성될 수 있다. 본 발명이 적용되는 애플리케이션은 파일 배포 시스템이 제공하는 파일을 통해 이용자 단말에 설치될 수 있다. 일 예로, 파일 배포 시스템은 이용자 단말이기의 요청에 따라 상기 파일을 전송하는 파일 전송부(미도시)를 포함할 수 있다.
이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시 예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술 분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로 (collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상장치(virtual equipment), 컴퓨터 저장 매체 또는 장치에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨팅 장치상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
실시 예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시 예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광 기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상과 같이 실시 예들이 비록 한정된 실시 예와 도면에 의해 설명되었으나, 해당 기술 분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다. 그러므로, 다른 구현들, 다른 실시 예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.

Claims (7)

  1. 하나 이상의 프로세서 및 상기 프로세서에서 수행 가능한 명령들을 저장하는 하나 이상의 메모리를 포함하는 컴퓨팅 장치에서 구현되는 3D 모델링 자동 보정을 통한 실감 오브젝트 생성 시스템에 있어서,
    전자 장치의 카메라를 통해 다방향에서의 촬영 객체에 대한 촬영이 수행됨에 따라 촬영 영상 프레임에 대응되는 영상 이미지가 획득되는 경우, 상기 전자 장치로부터 상기 전자 장치에 탑재된 자이로 센서의 센싱 값에 기반한 촬영 각도 정보와 상기 전자 장치가 상기 촬영 객체를 촬영함에 따라 획득된 영상 이미지 정보를 수신하는 촬영 정보 수신부;
    상기 촬영 각도 정보 및 상기 영상 이미지 정보의 수신이 완료되면, 상기 수신된 촬영 각도 정보 및 상기 영상 이미지 정보를 분석해 상기 분석 결과를 기반으로, 상기 촬영 객체와 대응하는 3D 입체 모델인 가상 객체를 3차원 가상 공간에 구현하여, 상기 가상 객체를 구성하는 픽셀들 중 적어도 하나의 흠결 픽셀이 존재하는지를 확인하는 가상 객체 분석부; 및
    상기 가상 객체 분석부의 기능 수행으로 인해 상기 가상 객체를 구성하는 픽셀들 중 적어도 하나의 흠결 픽셀이 존재하는 것이 확인되면, 상기 적어도 하나의 흠결 픽셀의 인근 픽셀들 각각에 매칭된 컬러 코드 정보 및 깊이 값 정보를 확인하여, 상기 확인된 컬러 코드 정보 및 깊이 값 정보 중 적어도 하나를 활용해 상기 흠결 픽셀에 대한 보정을 완료해 실감 오브젝트의 생성을 완료하는 실감 오브젝트 생성부;를 포함하되,
    상기 가상 객체 분석부는,
    상기 촬영 각도 정보 및 상기 영상 이미지 정보의 수신이 완료되면, 상기 영상 이미지 정보에 대한 분석을 시작하여, 상기 영상 이미지 정보 상의 촬영 객체에 대한 깊이 값 및 컬러를 추출하고, 상기 다방향에서 촬영한 촬영 객체에 대한 2차원 이미지를 상기 추출된 깊이 값 및 컬러가 반영된 3차원 이미지로 변환하는 이미지 변환부; 및
    상기 3차원 이미지의 변환이 완료되면, 상기 촬영 객체의 동일한 영역을 지시하는 픽셀의 깊이 값이 동일해지도록 상기 3차원 이미지의 크기를 보정하고, 상기 촬영 각도 정보에 대응되는 방향에서 상기 3차원 이미지를 정합하여 3D 입체 모델인 가상 객체를 생성하는 가상 객체 생성부;를 포함하되,
    상기 가상 객체 분석부는,
    상기 가상 객체의 생성이 완료됨에 따라 상기 3차원 가상 공간에 상기 가상 객체의 구현이 완료되면, 상기 가상 객체를 구성하는 픽셀들에 대한 분석 프로세스를 시작하는 프로세스 시작부;
    상기 분석 프로세스가 시작되면, 기 저장된 흠결 픽셀 도출 알고리즘을 기반으로, 상기 가상 객체를 구성하는 픽셀들 중 제1 픽셀을 지정하고, 상기 제1 픽셀을 기준으로 지정된 범위 내에 위치한 범위 픽셀에 대한 분석을 시작하여, 상기 분석 결과를 통해 상기 제1 픽셀 및 상기 범위 픽셀 중 적어도 하나가 지정된 흠결 픽셀 조건을 만족하는지를 확인하는 조건 만족 확인부; 및
    상기 제1 픽셀 및 상기 범위 픽셀 중 적어도 하나가 상기 지정된 흠결 픽셀 조건을 만족하는 경우, 상기 지정된 흠결 픽셀 조건을 만족하는 픽셀에 식별 정보를 부여해 흠결 픽셀로 지정하는 흠결 픽셀 지정부;를 포함하되,
    상기 기 저장된 흠결 픽셀 도출 알고리즘은,
    상기 분석 프로세스가 시작되면, 상기 가상 객체를 구성하는 픽셀들 각각을 확인하여, 상기 컬러 코드 정보가 반영되어있지 않은 픽셀 및 범위 픽셀 대비 깊이 값이 기 설정된 임계 범위를 초과하거나 미만인 비연속적 픽셀 중 적어도 하나를 식별해 식별 정보를 부여하여 상기 흠결 픽셀로 지정하는 알고리즘인 것을 특징으로 하는 3D 모델링 자동 보정을 통한 실감 오브젝트 생성 시스템.
  2. 삭제
  3. 삭제
  4. 삭제
  5. 제1항에 있어서,
    상기 실감 오브젝트 생성부는,
    상기 흠결 픽셀 지정부의 기능 수행으로 인해 상기 가상 객체를 구성하는 픽셀들 중 상기 흠결 픽셀이 확인되는 경우, 상기 흠결 픽셀을 제외하되, 상기 흠결 픽셀을 기준으로 지정된 범위 내에 위치한 범위 픽셀 각각의 컬러 변동에 대한 평균 값을 확인하여, 상기 확인된 평균 값에 대응되는 컬러 코드 정보를 상기 흠결 픽셀에 매칭해 상기 매칭된 컬러 코드 정보에 기반한 컬러를 상기 흠결 픽셀에 반영해 1차 보정을 실시하는 제1 컬러 보정 실시부; 및
    상기 제1 컬러 보정 실시부의 기능 수행이 완료되면, 상기 흠결 픽셀을 기준으로 상기 지정된 범위 내에 위치한 범위 픽셀과 상기 흠결 픽셀의 깊이 값을 확인하여, 상기 확인된 깊이 값에 기반한 명도를 상기 흠결 픽셀에 반영된 컬러에 반영해 2차 보정을 실시하고, 상기 흠결 픽셀에 매칭된 컬러 코드 정보를 상기 2차 보정된 컬러에 대응되는 컬러 코드 정보로 재매칭하는 제2 컬러 보정 실시부;를 포함하는 것을 특징으로 하는 3D 모델링 자동 보정을 통한 실감 오브젝트 생성 시스템.
  6. 제5항에 있어서,
    상기 실감 오브젝트 생성부는,
    상기 제1 컬러 보정 실시부의 기능이 수행되기 이전에, 상기 가상 객체에 대한 조명 이펙트에 기반한 조명 객체가 존재하는지를 확인하여, 상기 가상 객체의 흠결 픽셀을 포함하는 일 영역에 상기 조명 객체가 검출되는 경우, 상기 검출된 조명 객체의 형태, 컬러 및 텍스쳐를 분석하여, 상기 가상 객체에 대응되는 촬영 객체에 대한 조명의 세기 및 조사 방향을 포함하는 조명의 영향을 판단한 상태에서, 상기 제2 컬러 보정 실시부의 기능이 수행되는 경우, 상기 제2 컬러 보정 실시부로 하여금 상기 지정된 범위 내에 위치한 범위 픽셀과 상기 흠결 픽셀의 깊이 값을 확인하여, 상기 확인된 깊이 값에 기반한 명도에 상기 조명의 영향을 반영해 상기 2차 보정을 실시하도록 요청하는 것을 특징으로 하는 3D 모델링 자동 보정을 통한 실감 오브젝트 생성 시스템.
  7. 제6항에 있어서,
    상기 실감 오브젝트 생성부는,
    상기 가상 객체 분석부가 상기 기 저장된 흠결 픽셀 도출 알고리즘을 통해 범위 픽셀 대비 깊이 값이 기 설정된 임계 범위를 초과 또는 미만인 비연속적 픽셀을 식별하는 경우, 상기 식별된 비연속적 픽셀에 인접한 인접 픽셀에 대한 깊이 값의 깊이 평균 값을 산출하여, 상기 산출된 깊이 평균 값에 대응되는 깊이 값을 상기 식별된 비연속적 픽셀에 반영해 보정을 실시하는 것을 특징으로 하는 3D 모델링 자동 보정을 통한 실감 오브젝트 생성 시스템.
KR1020220088037A 2022-07-18 2022-07-18 3d 모델링 자동 보정을 통한 실감 오브젝트 생성 시스템 KR102567379B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220088037A KR102567379B1 (ko) 2022-07-18 2022-07-18 3d 모델링 자동 보정을 통한 실감 오브젝트 생성 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220088037A KR102567379B1 (ko) 2022-07-18 2022-07-18 3d 모델링 자동 보정을 통한 실감 오브젝트 생성 시스템

Publications (1)

Publication Number Publication Date
KR102567379B1 true KR102567379B1 (ko) 2023-08-17

Family

ID=87800084

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220088037A KR102567379B1 (ko) 2022-07-18 2022-07-18 3d 모델링 자동 보정을 통한 실감 오브젝트 생성 시스템

Country Status (1)

Country Link
KR (1) KR102567379B1 (ko)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101554241B1 (ko) * 2011-06-24 2015-09-18 소프트키네틱 소프트웨어 3차원 이미지에서의 결함성 픽셀 깊이 데이터 값의 깊이 맵 품질 향상을 위한 방법
KR102398580B1 (ko) * 2021-06-21 2022-05-17 주식회사 호인스컴퍼니 휴대 단말을 이용한 실감 오브젝트 생성 시스템

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101554241B1 (ko) * 2011-06-24 2015-09-18 소프트키네틱 소프트웨어 3차원 이미지에서의 결함성 픽셀 깊이 데이터 값의 깊이 맵 품질 향상을 위한 방법
KR102398580B1 (ko) * 2021-06-21 2022-05-17 주식회사 호인스컴퍼니 휴대 단말을 이용한 실감 오브젝트 생성 시스템

Similar Documents

Publication Publication Date Title
US10803351B2 (en) Image processing apparatus and image processing method
CN107466411B (zh) 二维红外深度感测
US9616572B2 (en) Information processing apparatus for determining interference between peripheral objects and grasping unit, information processing method, and storage medium
US8605987B2 (en) Object-based 3-dimensional stereo information generation apparatus and method, and interactive system using the same
AU2019203928B2 (en) Face location detection
JP6594129B2 (ja) 情報処理装置、情報処理方法、プログラム
WO2017143745A1 (zh) 一种确定待测对象的运动信息的方法及装置
US20120062749A1 (en) Human body identification method using range image camera and human body identification apparatus
JP6352208B2 (ja) 三次元モデル処理装置およびカメラ校正システム
AU2013315491A1 (en) Methods, devices and systems for detecting objects in a video
CN111598065B (zh) 深度图像获取方法及活体识别方法、设备、电路和介质
JP2017120672A (ja) 画像処理装置および画像処理方法
US20180336691A1 (en) Information processing apparatus, information processing method, and non-transitory computer-readable storage medium
KR20200049958A (ko) 3차원 깊이 측정 장치 및 방법
KR102567379B1 (ko) 3d 모델링 자동 보정을 통한 실감 오브젝트 생성 시스템
US20150063637A1 (en) Image recognition method and robot
JP7298687B2 (ja) 物体認識装置及び物体認識方法
CN111742352A (zh) 3d对象建模方法以及相关设备和计算机程序产品
KR102540678B1 (ko) 카메라이미지를 이용하여 객체의 위치정보 출력을 보완하는 방법 및 그 시스템
WO2012105228A2 (en) Imaging apparatus and imaging condition setting method and program
KR102398580B1 (ko) 휴대 단말을 이용한 실감 오브젝트 생성 시스템
US11195290B2 (en) Apparatus and method for encoding in structured depth camera system
CN112016495A (zh) 人脸识别的方法、装置和电子设备
KR102540676B1 (ko) 카메라이미지를 이용하여 객체의 위치를 도출하는 방법 및 그 시스템
WO2019188315A1 (ja) 画像処理装置、画像処理方法及びプログラム

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant