KR20230027817A - 아바타 생성 및 가상 피팅을 위한 전자 장치 및 전자 장치의 동작 방법 - Google Patents

아바타 생성 및 가상 피팅을 위한 전자 장치 및 전자 장치의 동작 방법 Download PDF

Info

Publication number
KR20230027817A
KR20230027817A KR1020210110029A KR20210110029A KR20230027817A KR 20230027817 A KR20230027817 A KR 20230027817A KR 1020210110029 A KR1020210110029 A KR 1020210110029A KR 20210110029 A KR20210110029 A KR 20210110029A KR 20230027817 A KR20230027817 A KR 20230027817A
Authority
KR
South Korea
Prior art keywords
user
electronic device
item
external electronic
processor
Prior art date
Application number
KR1020210110029A
Other languages
English (en)
Inventor
홍성빈
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020210110029A priority Critical patent/KR20230027817A/ko
Priority to PCT/KR2022/012246 priority patent/WO2023022494A1/ko
Publication of KR20230027817A publication Critical patent/KR20230027817A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0631Item recommendations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0641Shopping interfaces
    • G06Q30/0643Graphical representation of items or shoppers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • G06T5/006
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/80Geometric correction

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Finance (AREA)
  • Software Systems (AREA)
  • Accounting & Taxation (AREA)
  • Economics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Business, Economics & Management (AREA)
  • Strategic Management (AREA)
  • Marketing (AREA)
  • Development Economics (AREA)
  • Computing Systems (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Computer Hardware Design (AREA)
  • Mathematical Physics (AREA)
  • Remote Sensing (AREA)
  • Medical Informatics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

다양한 실시예에 따른 전자 장치에서, 전자 장치는, 통신 모듈, 디스플레이 및 프로세서를 포함하고, 상기 프로세서는 상기 통신 모듈을 통하여 외부 전자 장치로부터 사용자를 촬영한 이미지를 획득하고, 상기 이미지에 기반하여 상기 사용자의 신체의 적어도 일부와 관련된 깊이 지도를 생성하고, 상기 깊이 지도에 기반하여 사용자의 신체 정보를 획득하고, 상기 사용자의 신체 정보에 대응하는 사용자 아바타를 생성하고, 상기 사용자와 관련된 정보에 기반하여 상기 사용자에게 아이템을 추천하고, 상기 추천된 아이템 중에서 상기 사용자가 선택한 아이템의 정보와 상기 사용자의 신체 정보를 비교하여, 상기 사용자의 신체에 대응하는 영역 중 상기 영역의 사이즈와 상기 아이템의 사이즈가 불일치하는, 불일치 영역을 확인하고, 상기 디스플레이에 상기 아이템을 렌더링한 사용자 아바타를 출력하고, 상기 사용자 아바타에 상기 불일치 영역을 표시할 수 있다.
이 밖에 다양한 실시예들이 가능하다.

Description

아바타 생성 및 가상 피팅을 위한 전자 장치 및 전자 장치의 동작 방법{ELECTRONIC DEVICE AND OPERATION METHOD OF ELECTRONIC DEVICE FOR CREATING AVATAR AND VIRTUAL FITTING}
본 문서에 개시된 다양한 실시예들은, 아바타 생성 및 가상 피팅을 위한 전자 장치 및 전자 장치의 동작 방법에 관한 것으로서, 보다 상세하게는 사용자의 신체 사이즈에 대응하는 아바타를 생성하고, 신체 사이즈에 기반하여 아이템을 가상 피팅하기 위한 전자 장치 및 전자 장치의 동작 방법에 관한 것이다.
최근 외부의 풍경을 보면서 동시에 원하는 가상 영상을 시각적으로 인식할 수 있도록 해줄 수 있는 장치인 증강 현실 장치(Augmented Reality Device, AR device)에 대한 수요가 증가하고 있다.
예를 들어, 디스플레이를 통해 시각적 정보를 제공함으로써 사용자에게 증강 현실 서비스를 제공하는 웨어러블 디바이스인 AR 글래스(Augmented Reality glass, AR glass)가 다양한 형태로 출시되고 있다.
AR 글래스는, 피사체를 촬영하는 복수의 카메라를 이용하여 3차원 이미지를 획득할 수 있다. 예를 들어, AR 글래스는 스테레오 카메라를 포함하여, 서로 다른 시점으로부터 얻어진 동일한 장면의 두 영상으로부터 한 영상의 화소와 일치하는 화소를 다른 영상에서 찾는 스테레오 정합 방식을 이용하여 3차원 정보를 얻을 수 있다.
한편, 가상의 공간에서 자신과 동일한 아바타를 통해 가상의 옷을 입어 보고, 옷을 구매하는 가상 피팅(Virtual Fitting)에 대한 각 기업 및 소비자의 관심도 증가하고 있다.
가상 피팅에서 핵심이 되는 것 중에 하나는 가상 공간상에서 아바타를 통해 입어 본 옷의 느낌이 실제 세상에서 사용자가 입었을 때의 느낌을 그대로 재현해 줄 수 있어야 한다는 것이다. 구체적으로, 가상 공간에서 입어 본 옷이 색상이나 디자인이 자신에게 잘 어울릴지 뿐만 아니라 옷을 직접 입었을 때나 옷을 입고 움직였을 때 불편함이 없는지가 가상 체험에서 확인이 되어야 한다.
따라서, 가상 피팅은 사용자의 분위기나 실제 모습을 최대한 반영할 수 있어야 하고 가상 공간에서 입어 본 옷이 실제로 사용자의 몸에 얼마나 잘 맞는지 보여 주는 피팅감을 제공할 수 있어야 한다.
본 문서에 개시된 다양한 실시예는 외부 전자 장치로부터 획득한 복수의 이미지에 기반하여 사용자의 신체 사이즈를 확인하고, 사용자의 신체 사이즈에 기반하여 현실에 가까운 아이템의 피팅감을 제공할 수 있다.
구체적으로, 본 문서에 개시된 다양한 실시예의 전자 장치는, 스테레오 카메라를 포함하는 외부 전자 장치로부터 사용자를 촬영한 복수의 이미지를 획득하고, 깊이 지도를 생성한 뒤, 깊이 지도에 기반하여 사용자의 신체 사이즈를 확인할 수 있다.
예를 들어, 본 문서에 개시된 전자 장치는, 사용자를 중심으로 원형으로 배치된 복수의 AR 글래스가 사용자의 360도 모습을 촬영한 이미지를 획득할 수 있다. 전자 장치는 복수의 AR 글래스로부터 획득한 사용자의 이미지를 처리하여, 깊이 지도를 생성하고, 깊이 지도에서 사용자의 신체 부위에 대응하는 픽셀 수에 기반하여 신체 사이즈를 확인할 수 있다. 예를 들어, 깊이 지도에서 픽셀 피치(pixel pitch)가 1cm x 1 cm이고, 사용자의 어깨에 대응하는 가로 영역의 픽셀 수가 100개임에 따라, 전자 장치는 사용자의 어깨 넓이가 100cm라고 확인할 수 있다.
또한, 본 문서에 개시된 다양한 실시예의 전자 장치는, 사용자 신체 사이즈에 기반하여 아바타를 생성할 수 있고, 사용자가 선택한 아이템과 사용자의 신체 사이즈가 불일치 하는 신체 부위에 대응하는 사용자 아바타의 영역에 아이템의 사이즈가 신체 사이즈와 불일치함을 지시하는 정보를 표시를 할 수 있다.
예를 들어, 사용자가 선택한 상의의 어깨 사이즈가 90cm 인 경우, 전자 장치는 사용자의 신체 사이즈와 불일치하다고 결정할 수 있고, 사용자 아바타의 어깨 영역에 아이템의 사이즈가 신체 사이즈와 불일치함을 지시하는 정보를 표시를 할 수 있다.
본 문서에서 이루고자 하는 기술적 과제는 이상에서 언급한 기술적 과제로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
본 문서에 개시된 다양한 실시예에 따른 전자 장치는, 통신 모듈, 디스플레이 및 프로세서를 포함하고, 상기 프로세서는 상기 통신 모듈을 통하여 외부 전자 장치로부터 사용자를 촬영한 이미지를 획득하고, 상기 이미지에 기반하여 상기 사용자의 신체의 적어도 일부와 관련된 깊이 지도를 생성하고, 상기 깊이 지도에 기반하여 사용자의 신체 정보를 획득하고, 상기 사용자의 신체 정보에 대응하는 사용자 아바타를 생성하고, 상기 사용자와 관련된 정보에 기반하여 상기 사용자에게 아이템을 추천하고, 상기 추천된 아이템 중에서 상기 사용자가 선택한 아이템의 정보와 상기 사용자의 신체 정보를 비교하여, 상기 사용자의 신체에 대응하는 영역 중 상기 영역의 사이즈와 상기 아이템의 사이즈가 불일치하는, 불일치 영역을 확인하고, 상기 디스플레이에 상기 아이템을 렌더링한 사용자 아바타를 출력하고, 상기 사용자 아바타에 상기 불일치 영역을 표시할 수 있다.
본 문서에 개시된 다양한 실시예에 따른 전자 장치의 동작 방법은, 외부 전자 장치로부터 사용자를 촬영한 이미지를 획득하는 동작, 상기 이미지에 기반하여 상기 사용자의 신체의 적어도 일부와 관련된 깊이 지도를 생성하는 동작, 상기 깊이 지도에 기반하여 사용자의 신체 정보를 획득하는 동작, 상기 사용자의 신체 정보에 대응하는 사용자 아바타를 생성하는 동작, 상기 사용자와 관련된 정보에 기반하여 상기 사용자에게 아이템을 추천하는 동작, 상기 추천된 아이템 중에서 상기 사용자가 선택한 아이템의 정보와 상기 사용자의 신체 정보를 비교하여, 상기 사용자의 신체에 대응하는 영역 중 상기 영역의 사이즈와 상기 아이템의 사이즈가 불일치하는, 불일치 영역을 확인하는 동작, 디스플레이에 상기 아이템을 렌더링한 사용자 아바타를 출력하는 동작 및 상기 사용자 아바타에 상기 불일치 영역을 표시하는 동작을 포함할 수 있다.
일 실시예에 따르면, 전자 장치는 사용자의 신체 사이즈에 기반하여 실제 피팅감과 유사한 가상 피팅감을 제공할 수 있다.
일 실시예에 따르면, 전자 장치는 AR 글래스를 이용하여 사용자의 신체 사이즈를 확인할 수 있다.
일 실시예에 따르면, 전자 장치는 사용자의 신체 사이즈가 적용되어 실제 체형과 유사한 아바타를 제공할 수 있다.
일 실시예에 따르면, 전자 장치는 사용자의 신체 사이즈, 사용자의 선호도와 같은 주관적 정보와, 계절, 날씨, 유행 아이템과 같은 객관적 정보를 학습하여 아이템을 추천할 수 있다.
일 실시예에 따르면, 전자 장치는 가상 피팅하는 아이템과 사용자의 신체 사이즈가 일치하는지 여부를 확인할 수 있다.
일 실시예에 따르면, 전자 장치는 아이템 사이즈가 사용자의 신체 영역과 불일치하는 영역을 사용자의 아바타에 표시함으로써 피팅감을 시각적으로 제공할 수 있다.
도면의 설명과 관련하여, 동일 또는 유사한 구성 요소에 대해서는 동일 또는 유사한 참조 부호가 사용될 수 있다.
도 1은, 다양한 실시예들에 따른, 네트워크 환경 내의 전자 장치의 블럭도이다.
도 2는, 다양한 실시예에 따른 전자 장치의 블록도이다.
도 3은 다양한 실시예에 따른 외부 전자 장치의 전체 구성도이다.
도 4는, 다양한 실시예에 따른 프로세서가 사용자의 아바타를 생성하여 아이템을 피팅하는 방법을 도시한 흐름도이다.
도 5는, 다양한 실시예에 따른 제 1 외부 전자 장치, 제 2 외부 전자 장치, 제 3 외부 전자 장치 및/또는 제 4 외부 전자 장치가 사용자의 이미지를 획득하는 동작을 설명하기 위하여 도시한 도면이다.
도 6은, 다양한 실시예예 따라, 프로세서가 제 1 외부 전자 장치, 제 2 외부 전자 장치, 제 3 외부 전자 장치 및/또는 제 4 외부 전자 장치로부터 획득한 이미지를 처리하는 동작을 설명하기 위하여 도시한 도면이다.
도 7은, 다양한 실시예에 따라, 프로세서가 사용자의 신체 정보를 획득하여 사용자 아바타를 생성하는 동작을 설명하기 위하여 도시한 도면이다.
도 8은, 다양한 실시예예 따른 프로세서가 사용자에게 아이템을 추천하고, 선택된 아이템의 사이즈와 사용자의 신체 사이즈가 불일치하는 영역을 표시하는 동작을 도시한 흐름도이다.
도 9는, 다양한 실시예에 따라, 프로세서가 사용자의 아바타에 아이템 사이즈와 신체 사이즈가 불일치함을 지시하는 정보를 표시하는 동작을 설명하기 위하여 도시한 도면이다.
도 1은, 다양한 실시예들에 따른, 네트워크 환경(100) 내의 전자 장치(101)의 블록도이다. 도 1을 참조하면, 네트워크 환경(100)에서 전자 장치(101)는 제 1 네트워크(198)(예: 근거리 무선 통신 네트워크)를 통하여 전자 장치(102)와 통신하거나, 또는 제 2 네트워크(199)(예: 원거리 무선 통신 네트워크)를 통하여 전자 장치(104) 또는 서버(108) 중 적어도 하나와 통신할 수 있다. 일실시예에 따르면, 전자 장치(101)는 서버(108)를 통하여 전자 장치(104)와 통신할 수 있다. 일실시예에 따르면, 전자 장치(101)는 프로세서(120), 메모리(130), 입력 모듈(150), 음향 출력 모듈(155), 디스플레이 모듈(160), 오디오 모듈(170), 센서 모듈(176), 인터페이스(177), 연결 단자(178), 햅틱 모듈(179), 카메라 모듈(180), 전력 관리 모듈(188), 배터리(189), 통신 모듈(190), 가입자 식별 모듈(196), 또는 안테나 모듈(197)을 포함할 수 있다. 어떤 실시예에서는, 전자 장치(101)에는, 이 구성요소들 중 적어도 하나(예: 연결 단자(178))가 생략되거나, 하나 이상의 다른 구성요소가 추가될 수 있다. 어떤 실시예에서는, 이 구성요소들 중 일부들(예: 센서 모듈(176), 카메라 모듈(180), 또는 안테나 모듈(197))은 하나의 구성요소(예: 디스플레이 모듈(160))로 통합될 수 있다.
프로세서(120)는, 예를 들면, 소프트웨어(예: 프로그램(140))를 실행하여 프로세서(120)에 연결된 전자 장치(101)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)를 제어할 수 있고, 다양한 데이터 처리 또는 연산을 수행할 수 있다. 일실시예에 따르면, 데이터 처리 또는 연산의 적어도 일부로서, 프로세서(120)는 다른 구성요소(예: 센서 모듈(176) 또는 통신 모듈(190))로부터 수신된 명령 또는 데이터를 휘발성 메모리(132)에 저장하고, 휘발성 메모리(132)에 저장된 명령 또는 데이터를 처리하고, 결과 데이터를 비휘발성 메모리(134)에 저장할 수 있다. 일실시예에 따르면, 프로세서(120)는 메인 프로세서(121)(예: 중앙 처리 장치 또는 어플리케이션 프로세서) 또는 이와는 독립적으로 또는 함께 운영 가능한 보조 프로세서(123)(예: 그래픽 처리 장치, 신경망 처리 장치(NPU: neural processing unit), 이미지 시그널 프로세서, 센서 허브 프로세서, 또는 커뮤니케이션 프로세서)를 포함할 수 있다. 예를 들어, 전자 장치(101)가 메인 프로세서(121) 및 보조 프로세서(123)를 포함하는 경우, 보조 프로세서(123)는 메인 프로세서(121)보다 저전력을 사용하거나, 지정된 기능에 특화되도록 설정될 수 있다. 보조 프로세서(123)는 메인 프로세서(121)와 별개로, 또는 그 일부로서 구현될 수 있다.
보조 프로세서(123)는, 예를 들면, 메인 프로세서(121)가 인액티브(예: 슬립) 상태에 있는 동안 메인 프로세서(121)를 대신하여, 또는 메인 프로세서(121)가 액티브(예: 어플리케이션 실행) 상태에 있는 동안 메인 프로세서(121)와 함께, 전자 장치(101)의 구성요소들 중 적어도 하나의 구성요소(예: 디스플레이 모듈(160), 센서 모듈(176), 또는 통신 모듈(190))와 관련된 기능 또는 상태들의 적어도 일부를 제어할 수 있다. 일실시예에 따르면, 보조 프로세서(123)(예: 이미지 시그널 프로세서 또는 커뮤니케이션 프로세서)는 기능적으로 관련 있는 다른 구성요소(예: 카메라 모듈(180) 또는 통신 모듈(190))의 일부로서 구현될 수 있다. 일실시예에 따르면, 보조 프로세서(123)(예: 신경망 처리 장치)는 인공지능 모델의 처리에 특화된 하드웨어 구조를 포함할 수 있다. 인공지능 모델은 기계 학습을 통해 생성될 수 있다. 이러한 학습은, 예를 들어, 인공지능 모델이 수행되는 전자 장치(101) 자체에서 수행될 수 있고, 별도의 서버(예: 서버(108))를 통해 수행될 수도 있다. 학습 알고리즘은, 예를 들어, 지도형 학습(supervised learning), 비지도형 학습(unsupervised learning), 준지도형 학습(semi-supervised learning) 또는 강화 학습(reinforcement learning)을 포함할 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은, 복수의 인공 신경망 레이어들을 포함할 수 있다. 인공 신경망은 심층 신경망(DNN: deep neural network), CNN(convolutional neural network), RNN(recurrent neural network), RBM(restricted boltzmann machine), DBN(deep belief network), BRDNN(bidirectional recurrent deep neural network), 심층 Q-네트워크(deep Q-networks) 또는 상기 중 둘 이상의 조합 중 하나일 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은 하드웨어 구조 이외에, 추가적으로 또는 대체적으로, 소프트웨어 구조를 포함할 수 있다.
메모리(130)는, 전자 장치(101)의 적어도 하나의 구성요소(예: 프로세서(120) 또는 센서 모듈(176))에 의해 사용되는 다양한 데이터를 저장할 수 있다. 데이터는, 예를 들어, 소프트웨어(예: 프로그램(140)) 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 포함할 수 있다. 메모리(130)는, 휘발성 메모리(132) 또는 비휘발성 메모리(134)를 포함할 수 있다.
프로그램(140)은 메모리(130)에 소프트웨어로서 저장될 수 있으며, 예를 들면, 운영 체제(142), 미들 웨어(144) 또는 어플리케이션(146)을 포함할 수 있다.
입력 모듈(150)은, 전자 장치(101)의 구성요소(예: 프로세서(120))에 사용될 명령 또는 데이터를 전자 장치(101)의 외부(예: 사용자)로부터 수신할 수 있다. 입력 모듈(150)은, 예를 들면, 마이크, 마우스, 키보드, 키(예: 버튼), 또는 디지털 펜(예: 스타일러스 펜)을 포함할 수 있다.
음향 출력 모듈(155)은 음향 신호를 전자 장치(101)의 외부로 출력할 수 있다. 음향 출력 모듈(155)은, 예를 들면, 스피커 또는 리시버를 포함할 수 있다. 스피커는 멀티미디어 재생 또는 녹음 재생과 같이 일반적인 용도로 사용될 수 있다. 리시버는 착신 전화를 수신하기 위해 사용될 수 있다. 일실시예에 따르면, 리시버는 스피커와 별개로, 또는 그 일부로서 구현될 수 있다.
디스플레이 모듈(160)은 전자 장치(101)의 외부(예: 사용자)로 정보를 시각적으로 제공할 수 있다. 디스플레이 모듈(160)은, 예를 들면, 디스플레이, 홀로그램 장치, 또는 프로젝터 및 해당 장치를 제어하기 위한 제어 회로를 포함할 수 있다. 일실시예에 따르면, 디스플레이 모듈(160)은 터치를 감지하도록 설정된 터치 센서, 또는 상기 터치에 의해 발생되는 힘의 세기를 측정하도록 설정된 압력 센서를 포함할 수 있다.
오디오 모듈(170)은 소리를 전기 신호로 변환시키거나, 반대로 전기 신호를 소리로 변환시킬 수 있다. 일실시예에 따르면, 오디오 모듈(170)은, 입력 모듈(150)을 통해 소리를 획득하거나, 음향 출력 모듈(155), 또는 전자 장치(101)와 직접 또는 무선으로 연결된 외부 전자 장치(예: 전자 장치(102))(예: 스피커 또는 헤드폰)를 통해 소리를 출력할 수 있다.
센서 모듈(176)은 전자 장치(101)의 작동 상태(예: 전력 또는 온도), 또는 외부의 환경 상태(예: 사용자 상태)를 감지하고, 감지된 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 일실시예에 따르면, 센서 모듈(176)은, 예를 들면, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 컬러 센서, IR(infrared) 센서, 생체 센서, 온도 센서, 습도 센서, 또는 조도 센서를 포함할 수 있다.
인터페이스(177)는 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 직접 또는 무선으로 연결되기 위해 사용될 수 있는 하나 이상의 지정된 프로토콜들을 지원할 수 있다. 일실시예에 따르면, 인터페이스(177)는, 예를 들면, HDMI(high definition multimedia interface), USB(universal serial bus) 인터페이스, SD카드 인터페이스, 또는 오디오 인터페이스를 포함할 수 있다.
연결 단자(178)는, 그를 통해서 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 물리적으로 연결될 수 있는 커넥터를 포함할 수 있다. 일실시예에 따르면, 연결 단자(178)는, 예를 들면, HDMI 커넥터, USB 커넥터, SD 카드 커넥터, 또는 오디오 커넥터(예: 헤드폰 커넥터)를 포함할 수 있다.
햅틱 모듈(179)은 전기적 신호를 사용자가 촉각 또는 운동 감각을 통해서 인지할 수 있는 기계적인 자극(예: 진동 또는 움직임) 또는 전기적인 자극으로 변환할 수 있다. 일실시예에 따르면, 햅틱 모듈(179)은, 예를 들면, 모터, 압전 소자, 또는 전기 자극 장치를 포함할 수 있다.
카메라 모듈(180)은 정지 영상 및 동영상을 촬영할 수 있다. 일실시예에 따르면, 카메라 모듈(180)은 하나 이상의 렌즈들, 이미지 센서들, 이미지 시그널 프로세서들, 또는 플래시들을 포함할 수 있다.
전력 관리 모듈(188)은 전자 장치(101)에 공급되는 전력을 관리할 수 있다. 일실시예에 따르면, 전력 관리 모듈(188)은, 예를 들면, PMIC(power management integrated circuit)의 적어도 일부로서 구현될 수 있다.
배터리(189)는 전자 장치(101)의 적어도 하나의 구성요소에 전력을 공급할 수 있다. 일실시예에 따르면, 배터리(189)는, 예를 들면, 재충전 불가능한 1차 전지, 재충전 가능한 2차 전지 또는 연료 전지를 포함할 수 있다.
통신 모듈(190)은 전자 장치(101)와 외부 전자 장치(예: 전자 장치(102), 전자 장치(104), 또는 서버(108)) 간의 직접(예: 유선) 통신 채널 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 모듈(190)은 프로세서(120)(예: 어플리케이션 프로세서)와 독립적으로 운영되고, 직접(예: 유선) 통신 또는 무선 통신을 지원하는 하나 이상의 커뮤니케이션 프로세서를 포함할 수 있다. 일실시예에 따르면, 통신 모듈(190)은 무선 통신 모듈(192)(예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 또는 유선 통신 모듈(194)(예: LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈)을 포함할 수 있다. 이들 통신 모듈 중 해당하는 통신 모듈은 제 1 네트워크(198)(예: 블루투스, WiFi(wireless fidelity) direct 또는 IrDA(infrared data association)와 같은 근거리 통신 네트워크) 또는 제 2 네트워크(199)(예: 레거시 셀룰러 네트워크, 5G 네트워크, 차세대 통신 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN)와 같은 원거리 통신 네트워크)를 통하여 외부의 전자 장치(104)와 통신할 수 있다. 이런 여러 종류의 통신 모듈들은 하나의 구성요소(예: 단일 칩)로 통합되거나, 또는 서로 별도의 복수의 구성요소들(예: 복수 칩들)로 구현될 수 있다. 무선 통신 모듈(192)은 가입자 식별 모듈(196)에 저장된 가입자 정보(예: 국제 모바일 가입자 식별자(IMSI))를 이용하여 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크 내에서 전자 장치(101)를 확인 또는 인증할 수 있다.
무선 통신 모듈(192)은 4G 네트워크 이후의 5G 네트워크 및 차세대 통신 기술, 예를 들어, NR 접속 기술(new radio access technology)을 지원할 수 있다. NR 접속 기술은 고용량 데이터의 고속 전송(eMBB(enhanced mobile broadband)), 단말 전력 최소화와 다수 단말의 접속(mMTC(massive machine type communications)), 또는 고신뢰도와 저지연(URLLC(ultra-reliable and low-latency communications))을 지원할 수 있다. 무선 통신 모듈(192)은, 예를 들어, 높은 데이터 전송률 달성을 위해, 고주파 대역(예: mmWave 대역)을 지원할 수 있다. 무선 통신 모듈(192)은 고주파 대역에서의 성능 확보를 위한 다양한 기술들, 예를 들어, 빔포밍(beamforming), 거대 배열 다중 입출력(massive MIMO(multiple-input and multiple-output)), 전차원 다중입출력(FD-MIMO: full dimensional MIMO), 어레이 안테나(array antenna), 아날로그 빔형성(analog beam-forming), 또는 대규모 안테나(large scale antenna)와 같은 기술들을 지원할 수 있다. 무선 통신 모듈(192)은 전자 장치(101), 외부 전자 장치(예: 전자 장치(104)) 또는 네트워크 시스템(예: 제 2 네트워크(199))에 규정되는 다양한 요구사항을 지원할 수 있다. 일실시예에 따르면, 무선 통신 모듈(192)은 eMBB 실현을 위한 Peak data rate(예: 20Gbps 이상), mMTC 실현을 위한 손실 Coverage(예: 164dB 이하), 또는 URLLC 실현을 위한 U-plane latency(예: 다운링크(DL) 및 업링크(UL) 각각 0.5ms 이하, 또는 라운드 트립 1ms 이하)를 지원할 수 있다.
안테나 모듈(197)은 신호 또는 전력을 외부(예: 외부의 전자 장치)로 송신하거나 외부로부터 수신할 수 있다. 일실시예에 따르면, 안테나 모듈(197)은 서브스트레이트(예: PCB) 위에 형성된 도전체 또는 도전성 패턴으로 이루어진 방사체를 포함하는 안테나를 포함할 수 있다. 일실시예에 따르면, 안테나 모듈(197)은 복수의 안테나들(예: 어레이 안테나)을 포함할 수 있다. 이런 경우, 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크에서 사용되는 통신 방식에 적합한 적어도 하나의 안테나가, 예를 들면, 통신 모듈(190)에 의하여 상기 복수의 안테나들로부터 선택될 수 있다. 신호 또는 전력은 상기 선택된 적어도 하나의 안테나를 통하여 통신 모듈(190)과 외부의 전자 장치 간에 송신되거나 수신될 수 있다. 어떤 실시예에 따르면, 방사체 이외에 다른 부품(예: RFIC(radio frequency integrated circuit))이 추가로 안테나 모듈(197)의 일부로 형성될 수 있다.
다양한 실시예에 따르면, 안테나 모듈(197)은 mmWave 안테나 모듈을 형성할 수 있다. 일실시예에 따르면, mmWave 안테나 모듈은 인쇄 회로 기판, 상기 인쇄 회로 기판의 제 1 면(예: 아래 면)에 또는 그에 인접하여 배치되고 지정된 고주파 대역(예: mmWave 대역)을 지원할 수 있는 RFIC, 및 상기 인쇄 회로 기판의 제 2 면(예: 윗 면 또는 측 면)에 또는 그에 인접하여 배치되고 상기 지정된 고주파 대역의 신호를 송신 또는 수신할 수 있는 복수의 안테나들(예: 어레이 안테나)을 포함할 수 있다.
상기 구성요소들 중 적어도 일부는 주변 기기들간 통신 방식(예: 버스, GPIO(general purpose input and output), SPI(serial peripheral interface), 또는 MIPI(mobile industry processor interface))을 통해 서로 연결되고 신호(예: 명령 또는 데이터)를 상호간에 교환할 수 있다.
일실시예에 따르면, 명령 또는 데이터는 제 2 네트워크(199)에 연결된 서버(108)를 통해서 전자 장치(101)와 외부의 전자 장치(104)간에 송신 또는 수신될 수 있다. 외부의 전자 장치(102, 또는 104) 각각은 전자 장치(101)와 동일한 또는 다른 종류의 장치일 수 있다. 일실시예에 따르면, 전자 장치(101)에서 실행되는 동작들의 전부 또는 일부는 외부의 전자 장치들(102, 104, 또는 108) 중 하나 이상의 외부의 전자 장치들에서 실행될 수 있다. 예를 들면, 전자 장치(101)가 어떤 기능이나 서비스를 자동으로, 또는 사용자 또는 다른 장치로부터의 요청에 반응하여 수행해야 할 경우에, 전자 장치(101)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 하나 이상의 외부의 전자 장치들에게 그 기능 또는 그 서비스의 적어도 일부를 수행하라고 요청할 수 있다. 상기 요청을 수신한 하나 이상의 외부의 전자 장치들은 요청된 기능 또는 서비스의 적어도 일부, 또는 상기 요청과 관련된 추가 기능 또는 서비스를 실행하고, 그 실행의 결과를 전자 장치(101)로 전달할 수 있다. 전자 장치(101)는 상기 결과를, 그대로 또는 추가적으로 처리하여, 상기 요청에 대한 응답의 적어도 일부로서 제공할 수 있다. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 모바일 에지 컴퓨팅(MEC: mobile edge computing), 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다. 전자 장치(101)는, 예를 들어, 분산 컴퓨팅 또는 모바일 에지 컴퓨팅을 이용하여 초저지연 서비스를 제공할 수 있다. 다른 실시예에 있어서, 외부의 전자 장치(104)는 IoT(internet of things) 기기를 포함할 수 있다. 서버(108)는 기계 학습 및/또는 신경망을 이용한 지능형 서버일 수 있다. 일실시예에 따르면, 외부의 전자 장치(104) 또는 서버(108)는 제 2 네트워크(199) 내에 포함될 수 있다. 전자 장치(101)는 5G 통신 기술 및 IoT 관련 기술을 기반으로 지능형 서비스(예: 스마트 홈, 스마트 시티, 스마트 카, 또는 헬스 케어)에 적용될 수 있다.
도 2는, 다양한 실시예에 따른 전자 장치(200)의 블록도이다.
도 2를 참조하면, 전자 장치(200) (예 : 도 1의 전자 장치(101)) 는 프로세서(220)(예: 도 1의 프로세서(120)), 메모리(230)(예: 도 1의 메모리(130)), 디스플레이(260)(예: 도 1의 디스플레이(160)) 및/또는 통신 모듈(290)(예: 도 1의 통신 모듈(190)) 을 포함할 수 있다. 도 2에 포함된 구성 요소는 전자 장치(200)에 포함된 구성들의 일부에 대한 것이며 전자 장치(200)는 이 밖에도 도 1에 도시된 것과 같이 다양한 구성요소를 포함할 수 있다.
다양한 실시예에 따른 통신 모듈(290)은 네트워크(예 : 도 1의 제1네트워크(198) 및/또는 제2네트워크(199))를 통하여 외부 전자 장치(예 : 도 3의 외부 전자 장치(300))와 통신하여 다양한 정보를 수신 및/또는 송신할 수 있다. 프로세서(220)는 통신 모듈(290)과 연결되어 통신 모듈(290)이 외부 전자 장치(300)로부터 수신한 다양한 정보를 처리할 수 있다. 또한, 프로세서(220)는 통신 모듈(290)이 다양한 정보를 외부 전자 장치(300)로 송신하도록 제어할 수 있다. 예를 들어, 통신 모듈(290)은 외부 전자 장치(300)로부터 사용자를 촬영한 이미지를 수신할 수 있다.
다양한 실시예에 따른 메모리(280)는 사용자와 관련된 정보 및/또는 외부 정보에 기반하여, 아이템 리스트 중에서 사용자에게 적합한 아이템을 추천하기 위한 학습 모델인 아이템 추천 모델을 저장할 수 있다. 프로세서(220)는 메모리(280)에 저장된 아이템 추천 모델을 이용하여, 사용자와 괸련된 정보 및/또는 외부 정보를 입력하여 추천 아이템을 출력할 수 있다. 예를 들어, 프로세서(220)는 사용자의 신체 사이즈, 사용자의 아이템 구매 이력, 사용자가 보유한 아이템의 사이즈, 색상, 브랜드와 같은 사용자와 관련된 정보를 아이템 추천 모델에 입력하여 추천 아이템을 출력할 수 있다. 프로세서(220)는 계절, 날씨 및/또는 유행하는 아이템과 같은 외부 정보를 아이템 추천 모델에 입력하여 추천 아이템을 출력할 수 있다. 일 실시예에 따르면, 프로세서(220)는 사용자가 선택한 아이템 정보에 기반하여, 아이템 추천 모델을 업데이트 하여 메모리(280)에 저장할 수 있다.
다양한 실시예에 따른 디스플레이(260)는 사용자 아바타를 출력할 수 있다. 프로세서(220)는 디스플레이(260)에 연결되어, 사용자의 신체 사이즈에 기반하여 생성한 아바타 및 사용자가 선택한 아이템을 디스플레이(260)에 출력할 수 있다. 예를 들어, 프로세서(220)는, 사용자 아바타에 사용자가 선택한 아이템을 렌더링(rendering)하여 디스플레이(260)에 출력할 수 있다. 예를 들어, 프로세서(220)는 아이템의 사이즈와 사용자의 신체 사이즈가 불일치하다고 결정한 영역에 대응하는 사용자 아바타의 영역에 아이템의 사이즈가 신체 사이즈와 불일치함을 지시하는 정보를 디스플레이(260)에 출력할 수 있다.
다양한 실시예에 따른 프로세서(220)는 사용자의 아바타를 생성하여 아이템을 피팅할 수 있다.
일 실시예에 따르면, 프로세서(220)는, 사용자를 촬영한 복수의 이미지를 획득할 수 있다. 예를 들어, 프로세서(220)는, 외부 전자 장치(300)로부터 사용자를 촬영한 복수의 이미지를 획득할 수 있다.
일 실시예에 따르면, 프로세서(220)는, 복수의 이미지에 기반하여 사용자에 대한 깊이 지도(depth map)을 계산할 수 있다. 깊이 지도는 2차원 이미지 데이터에 포함된 피사체들이 기준점으로부터 얼마만큼 떨어져 있는지를 나타내는 픽셀들의 깊이 값으로 구성될 수 있다. 깊이 값은 픽셀이 나타내는 피사체가 기준점으로부터 가깝고 먼 정도를 수치로 표현한 것일 수 있다. 예를 들어, 피사체 'A'를 나타내는 픽셀의 깊이 값이 피사체 'B'를 나타내는 픽셀의 깊이 값보다 작다면 피사체 'A'가 피사체 'B'보다 기준점으로부터 더 먼 곳(또는 더 가까운 곳)에 위치할 수 있다. 사용자에 대한 깊이 지도는, 복수의 이미지에 포함된 사용자에 대한 깊이 지도로써, 외부 전자 장치(300)와 사용자 사이의 거리 정보를 포함할 수 있다. 예를 들어, 프로세서(220)는, 사용자를 촬영한 복수의 이미지의 촬영 시점이 일치하도록 복수의 이미지를 처리할 수 있다. 예를 들어, 프로세서(220)는, 처리한 복수의 이미지들 각각에 왜곡 보정(warping) 처리를 할 수 있다. 예를 들어, 프로세서(220)는, 왜곡 보정된 복수의 이미지들을 스티칭(stitching) 및 블렌딩(blending) 처리 하여 제 1 이미지 및 제 2 이미지를 생성할 수 있다 예를 들어, 프로세서(220)는, 제 1 이미지와 제 2 이미지의 시차(disparity)에 기반하여 깊이 지도를 생성할 수 있다.
일 실시예에 따르면, 프로세서(220)는, 깊이 지도(depth map)에 기반하여 사용자의 신체 정보를 획득하고, 아바타를 생성할 수 있다. 예를 들어, 프로세서(220)는, 깊이 지도(depth map)에 포함된 픽셀 피치(pixel pitch)와 사용자의 각 신체 부위에 대응하는 픽셀 수에 기반하여, 사용자의 신체 사이즈를 확인할 수 있다. 예를 들어, 프로세서(220)는, 기준 아바타 형태에서, 아바타의 각 신체 부위가 사용자의 신체 사이즈에 대응하는 사용자 아바타를 생성할 수 있다.
일 실시예에 따르면, 프로세서(220)는, 사용자에게 아이템을 추천할 수 있다. 예를 들어, 프로세서(220)는 사용자와 관련된 정보 및/또는 외부 정보를 아이템 추천 모델에 입력하여, 아이템 리스트 중에서 추천 아이템을 출력할 수 있다.
일 실시예에 따르면, 프로세서(220)는, 선택한 아이템과 사용자의 신체 정보를 비교하여, 불일치 영역을 확인할 수 있다. 불일치 영역은, 아이템이 착용될 사용자의 신체의 적어도 일부 영역의 사이즈와, 선택된 아이템의 사이즈가 불일치하는, 사용자의 신체의 적어도 일부 영역을 의미할 수 있다. 예를 들어, 프로세서(220)는, 사용자의 각 신체에 대응하는 영역에 착용될 아이템의 사이즈와 사용자의 신체 사이즈의 차이가 지정된 값을 초과함에 대응하여, 사이즈가 불일치한다고 결정할 수 있고, 사이즈가 불일치하는 영역을 불일치 영역으로 결정할 수 있다.
도 3은 다양한 실시예에 따른 외부 전자 장치(300)의 전체 구성도이다.
다양한 실시예에서, 외부 전자 장치(300)는 사용자의 머리 부분에 착용되는 형태로 제작된 외부 전자 장치(300)일 수 있다. 예를 들어, 외부 전자 장치(300)는 안경(glass), 고글(goggles), 헬멧 또는 모자 중 적어도 하나의 형태로 구성될 수 있으나, 이에 한정되지 않는다. 일 실시예에 따르면, 외부 전자 장치(300)는 사용자의 양안(예: 좌안 및/또는 우안), 각각에 대응하는 복수 개의 투명 부재(예: 제 1 투명 부재(320) 및/또는 제 2 투명 부재(330))를 포함할 수 있다.
외부 전자 장치(300)는 사용자에게 증강 현실(augumented reality; AR) 서비스와 관련된 영상을 제공할 수 있다. 일 실시예에 따르면, 외부 전자 장치(300)는 제1 투명 부재(320) 및/또는 제2 투명 부재(330)에 가상 객체를 투영하거나, 표시함으로써, 사용자가 전자 장치의 제1 투명 부재(320) 및/또는 제2 투명 부재(330)를 통해 인지하는 현실에 적어도 하나의 가상 객체가 겹쳐 보이도록 할 수 있다.
도 3을 참조하면, 일 실시예에 따른 외부 전자 장치(300)는 본체부(323), 지지부(예: 제 1 지지부(321), 제 2 지지부(322)), 및 힌지부(예: 제1 힌지부(340-1), 제2 힌지부(340-2))를 포함할 수 있다.
다양한 실시예에 따르면, 본체부(323)와 지지부(321, 322)는 힌지부(340-1, 340-2)를 통해 작동적으로 연결될 수 있다. 본체부(323)는 사용자의 코에 적어도 부분적으로 거치될 수 있도록 형성된 부분을 포함할 수 있다.
다양한 실시예에 따르면, 지지부(321, 322)는 사용자의 귀에 걸쳐질 수 있는 형태의 지지 부재를 포함할 수 있다. 지지부(321, 322)는 왼쪽 귀에 거치되는 제 1 지지부(321) 및/또는 오른쪽 귀에 거치되는 제 2 지지부(322)를 포함할 수 있다.
다양한 실시예에 따르면, 제1 힌지부(340-1)는 제1 지지부(321)가 본체부(323)에 대해 회전 가능하도록 제1 지지부(321)와 본체부(323)를 연결할 수 있다. 제2 힌지부(340-2)는 제2 지지부(322)가 본체부(323)에 대해 회전 가능하도록 제2 지지부(322)와 본체부(323)를 연결할 수 있다. 다른 실시예에 따르면, 외부 전자 장치(300)의 힌지부(340-1, 340-2)는 생략될 수 있다. 예를 들어, 본체부(323)와 지지부(321, 322)는 바로 연결될 수 있다.
다양한 실시예에 따르면, 본체부(323)는 적어도 하나의 투명 부재(예: 제1 투명 부재(320), 제2 투명 부재(330)), 적어도 하나의 디스플레이 모듈(예: 제1 디스플레이 모듈(314-1), 제2 디스플레이 모듈(314-2)), 적어도 하나의 카메라 모듈(예: 전방 촬영 카메라 모듈(313), 시선 추적 카메라 모듈(예: 제1 시선 추적 카메라 모듈(312-1), 제2 시선 추적 카메라 모듈(312-2)), 인식용 카메라 모듈(예: 제1 인식용 카메라 모듈(311-1), 제2 인식용 카메라 모듈(311-2)) 및 적어도 하나의 마이크(예: 제1 마이크(341-1), 제2 마이크(341-2))를 포함할 수 있다.
도 3에서 설명되는 외부 전자 장치(300)의 경우, 디스플레이 모듈(314-1, 314-2)에서 생성된 광이 투명 부재(320, 330)에 투영되어 정보를 표시할 수 있다. 예를 들어, 제1 디스플레이 모듈(314-1)에서 생성된 광은 제1 투명 부재(320)에 투영될 수 있고, 제2 디스플레이 모듈(314-2)에서 생성된 광은 제2 투명 부재(330)에 투영될 수 있다. 적어도 일부가 투명한 소재로 형성된 투명 부재(320, 330)에 가상 객체를 표시할 수 있는 광이 투영됨으로써, 사용자는 가상 객체가 중첩된 현실을 인지할 수 있다. 이 경우, 도 1에서 설명한 디스플레이 모듈(160)은 도 3에 도시된 외부 전자 장치(300)에서 디스플레이 모듈(314-1, 214-2) 및 투명 부재(320, 230)를 포함하는 것으로 이해될 수 있다. 다만, 본 발명에서 설명되는 외부 전자 장치(300)가 앞서 설명한 방식을 통해 정보를 표시하는 것으로 한정되는 것은 아니다. 외부 전자 장치(300)에 포함될 수 있는 디스플레이 모듈은 다양한 방식의 정보 표시 방법을 포함하는 디스플레이 모듈로 변경될 수 있다. 예를 들어, 투명 부재(320, 330) 자체에 투명 소재의 발광 소자를 포함하는 디스플레이 패널이 내장된 경우에는 별도의 디스플레이 모듈(예: 제1 디스플레이 모듈(314-1), 제2 디스플레이 모듈(314-2))없이 정보를 표시할 수 있다. 이 경우, 도 1에서 설명한 디스플레이 모듈(160)은 투명 부재(320, 330)와 투명 부재(320, 330)에 포함되는 디스플레이 패널을 의미할 수 있다.
다양한 실시예에 따르면, 디스플레이 모듈(314-1, 314-2)을 통해 출력되는 가상 객체는 외부 전자 장치(300)에서 실행되는 어플리케이션 프로그램과 관련된 정보 및/또는 사용자가 투명 부재(320, 330)를 통해 인지하는 실제 공간에 위치한 외부 객체와 관련된 정보를 포함할 수 있다. 외부 객체는 실제 공간에 존재하는 사물을 포함할 수 있다. 사용자가 투명 부재(320, 330)를 통해 인지하는 실제 공간을 이하에서는 사용자의 시야각(field of view; FoV) 영역으로 호칭하기로 한다. 예를 들어, 외부 전자 장치(300)는 외부 전자 장치(300)의 카메라 모듈(예: 촬영용 카메라 모듈(313))을 통해 획득한 실제 공간과 관련된 영상 정보에서 사용자의 시야각(FoV)으로 판단되는 영역의 적어도 일부에 포함된 외부 객체를 확인할 수 있다. 외부 전자 장치(300)는 확인한 외부 객체와 관련된 가상 객체를 디스플레이 모듈(314-1, 214-2)을 통해 출력할 수 있다.
다양한 실시예에 따르면, 외부 전자 장치(300)는 외부 전자 장치(300)의 촬영용 카메라 모듈(313)을 통해 획득한 실제 공간과 관련된 영상 정보에 기반하여 증강 현실 서비스와 관련된 가상 객체를 함께 표시할 수 있다. 일 실시예에 따르면, 외부 전자 장치(300)는 사용자의 양안에 대응하여 배치된 디스플레이 모듈(예: 좌안에 대응되는 제1 디스플레이 모듈(314-1), 및/또는 우안에 대응되는 제2 디스플레이 모듈(314-2))을 기반으로 가상 객체를 표시할 수 있다. 일 실시예에 따르면, 외부 전자 장치(300)는 미리 설정된 설정 정보(예: 해상도(resolution), 프레임 레이트(frame rate), 밝기, 및/또는 표시 영역)를 기반으로 가상 객체를 표시할 수 있다.
다양한 실시예에 따르면, 투명 부재(320, 230)는 집광 렌즈(미도시) 및/또는 도파관(예: 제1 도파관(320-1) 및/또는 제2 도파관(330-1))을 포함할 수 있다. 예를 들어, 제1 도파관(320-1)은 제1 투명 부재(320)에 부분적으로 위치할 수 있고, 제2 도파관(330-1)은 제2 투명 부재(330)에 부분적으로 위치할 수 있다. 디스플레이 모듈(314-1, 214-2)에서 방출된 광은 투명 부재(320, 330)의 일면으로 입사될 수 있다. 투명 부재(320, 330)의 일면으로 입사된 광은 투명 부재(320, 330) 내에 위치한 도파관(320-1, 330-1)을 통해 사용자에게 전달될 수 있다. 도파관(320-1, 330-1)은 글래스, 플라스틱, 또는 폴리머로 제작될 수 있고, 내부 또는 외부의 일표면에 형성된 나노 패턴을 포함할 수 있다. 예를 들어, 나노 패턴은 다각형 또는 곡면 형상의 격자 구조(grating structure)를 포함할 수 있다. 일 실시예에 따르면, 투명 부재(320, 330)의 일면으로 입사된 광은 나노 패턴에 의해 도파관(320-1, 330-1) 내부에서 전파 또는 반사되어 사용자에게 전달될 수 있다. 일 실시예에 따르면, 도파관(320-1, 330-1)은 적어도 하나의 회절 요소(예: DOE(diffractive optical element), HOE(holographic optical element)) 또는 반사 요소(예: 반사 거울) 중 적어도 하나를 포함할 수 있다. 일 실시예에 따르면, 도파관(320-1, 330-1)은 적어도 하나의 회절 요소 또는 반사 요소를 이용하여 디스플레이 모듈(314-1, 314-2)로부터 방출된 광을 사용자의 눈으로 유도할 수 있다.
다양한 실시예에 따르면, 외부 전자 장치(300)는 사용자의 시야각(FoV, field of view)에 대응되는 영상을 촬영하거나 및/또는 객체와의 거리를 측정하기 위한 촬영용 카메라 모듈(313)(예: RGB 카메라 모듈), 사용자가 바라보는 시선의 방향을 확인하기 위한 시선 추적 카메라 모듈(eye tracking camera module)(312-1, 312-2), 및/또는 일정 공간을 인식하기 위한 인식용 카메라 모듈(gesture camera module)(311-1, 311-2)을 포함할 수 있다. 예를 들어, 촬영용 카메라 모듈(313)은 외부 전자 장치(300)의 전면 방향을 촬영할 수 있고, 시선 추적 카메라 모듈(312-1, 312-2)은 상기 촬영용 카메라 모듈(313)의 촬영 방향과 반대되는 방향을 촬영할 수 있다. 예를 들어, 제1 시선 추적 카메라 모듈(312-1)은 사용자의 좌안을 부분적으로 촬영하고, 제2 시선 추적 카메라 모듈(312-2)은 사용자의 우안을 부분적으로 촬영할 수 있다. 일 실시예에 따르면, 촬영용 카메라 모듈(313)은 HR(high resolution) 카메라 모듈 및/또는 PV(photo video) 카메라 모듈과 같은 고해상도의 카메라 모듈을 포함할 수 있다. 일 실시예에 따르면, 시선 추적 카메라 모듈(312-1, 312-2)은 사용자의 눈동자를 검출하여, 시선 방향을 추적할 수 있다. 추적된 시선 방향은 가상 객체를 포함하는 가상 영상의 중심이 상기 시선 방향에 대응하여 이동되는데 활용될 수 있다. 일 실시예에 따르면, 인식용 카메라 모듈(311-1, 311-2)은 미리 설정된 거리 이내(예: 일정 공간)에서의 사용자 제스처 및/또는 일정 공간을 감지할 수 있다. 인식용 카메라 모듈(311-1, 311-2)은 GS(global shutter)를 포함하는 카메라 모듈을 포함할 수 있다. 예를 들어, 인식용 카메라 모듈(311-1, 311-2)은 빠른 손동작 및/또는 손가락과 같은 미세한 움직임을 검출 및 추적하기 위해, RS(rolling shutter) 현상이 감소될 수 있는 GS를 포함하는 카메라 모듈일 수 있다.
다양한 실시예에 따르면, 외부 전자 장치(300)는 적어도 하나의 카메라 모듈(311-1, 311-2, 312-1, 312-2, 313)을 사용하여, 좌안 및/또는 우안 중에서 주시안 및/또는 보조시안에 대응되는 눈을 감지할 수 있다. 예를 들어, 외부 전자 장치(300)는 외부 객체 또는 가상 객체에 대한 사용자의 시선 방향에 기반하여, 주시안 및/또는 보조시안에 대응되는 눈을 감지할 수 있다.
도 2에 도시된 외부 전자 장치(300)에 포함되는 적어도 하나의 카메라 모듈(예: 촬영용 카메라 모듈(313), 시선 추적 카메라 모듈(312-1, 312-2) 및/또는 인식용 카메라 모듈(311-1, 311-2))의 개수 및 위치는 한정되지 않을 수 있다. 예를 들어, 외부 전자 장치(300)의 형태(예: 모양 또는 크기)에 기반하여 적어도 하나의 카메라 모듈(예: 촬영용 카메라 모듈(313), 시선 추적 카메라 모듈(312-1, 312-2) 및/또는 인식용 카메라 모듈(311-1, 311-2))의 개수 및 위치는 다양하게 변경될 수 있다.
다양한 실시예에 따르면, 외부 전자 장치(300)는 적어도 하나의 카메라 모듈(예: 촬영용 카메라 모듈(313), 시선 추적 카메라 모듈(312-1, 312-2) 및/또는 인식용 카메라 모듈(311-1, 311-2))의 정확도를 높이기 위한 적어도 하나의 발광 장치(illumination LED)(예: 제1 발광 장치(342-1), 제2 발광 장치(342-2))를 포함할 수 있다. 예를 들어, 제1 발광 장치(342-1)는 사용자의 좌안에 대응하는 부분에 배치될 수 있고, 제2 발광 장치(342-2)는 사용자의 우안에 대응하는 부분에 배치될 수 있다. 일 실시예에서, 발광 장치(342-1, 342-2)는 시선 추적 카메라 모듈(312-1, 312-2)로 사용자의 눈동자를 촬영할 때 정확도를 높이기 위한 보조 수단으로 사용될 수 있고, 적외선 파장의 광을 발생시키는 IR LED를 포함할 수 있다. 또한, 발광 장치(342-1, 342-2)는 인식용 카메라 모듈(311-1, 311-2)로 사용자의 제스처를 촬영할 때 어두운 환경이나 여러 광원의 혼입 및 반사 빛 때문에 촬영하고자 하는 피사체 검출이 용이하지 않을 때 보조 수단으로 사용될 수 있다.
다양한 실시예에 따르면, 외부 전자 장치(300)는 사용자의 음성 및 주변 소리를 수신하기 위한 마이크(예: 제1 마이크(341-1), 제2 마이크(341-2))를 포함할 수 있다. 예를 들어, 마이크(341-1, 241-2)는 도 1의 오디오 모듈(170)에 포함된 구성 요소일 수 있다.
다양한 실시예에 따르면, 제 1 지지부(321) 및/또는 제 2 지지부(322)는 인쇄 회로 기판(PCB, printed circuit board)(예: 제1 인쇄 회로 기판(331-1), 제2 인쇄 회로 기판(331-2)), 스피커(speaker)(예: 제1 스피커(332-1), 제2 스피커(332-2)), 및/또는 배터리(예: 제1 배터리(333-1), 제2 배터리(333-2))를 포함할 수 있다.
다양한 실시예에 따르면, 스피커(332-1, 332-2)는 사용자의 좌측 귀에 오디오 신호를 전달하기 위한 제 1 스피커(332-1) 및 사용자의 우측 귀에 오디오 신호를 전달하기 위한 제 2 스피커(332-2)를 포함할 수 있다. 스피커(332-1, 332-2)는 도 1의 오디오 모듈(170)에 포함된 구성 요소일 수 있다.
다양한 실시예에 따르면, 외부 전자 장치(300)는 복수 개의 배터리(333-1, 333-2)가 구비될 수 있고, 전력 관리 모듈(예: 도 1의 전력 관리 모듈(188))을 통해, 인쇄 회로 기판(331-1, 331-2)에 전력을 공급할 수 있다. 예를 들어, 복수 개의 배터리(333-1, 333-2)는 전력 관리 모듈(예: 도 1의 전력 관리 모듈(188))과 전기적으로 연결될 수 있다.
앞에서는, 외부 전자 장치(300)가 증강 현실을 표시하는 장치인 것으로 설명하였으나, 외부 전자 장치(300)는 가상 현실(virtual reality; VR)을 표시하는 장치일 수 있다. 이 경우, 사용자가 투명 부재(320, 330)를 통해 실제 공간을 인식할 수 없도록 투명 부재(320, 330)는 불투명한 소재로 형성될 수 있다. 또한, 투명 부재(320, 330)는 디스플레이 모듈(160)로써 기능할 수 있다. 예를 들어, 투명 부재(320, 330)는 정보를 표시하는 디스플레이 패널을 포함할 수 있다.
다양한 실시에에 따르면, 제 1 인식용 카메라 모듈(311-1) 및 제 2 인식용 카메라 모듈(311-2)은 전방을 촬영하여 이미지를 생성할 수 있다. 일 실시예에 따르면, 제 1 인식용 카메라 모듈(311-1) 및 제 2 인식용 카메라 모듈(311-2)은 각각 θ의 화각(FOV, field of view)을 가질 수 있다. 일 실시예에 따르면, 제 1 인식용 카메라 모듈(311-1) 및 제 2 인식용 카메라 모듈(311-2)이 동일한 피사체를 촬영함에 대응하여, 제 1 인식용 카메라 모듈(311-1)이 촬영한 이미지와 제 2 인식용 카메라 모듈(311-2)이 촬영한 이미지는 제 1 인식용 카메라 모듈(311-1)과 제 2 인식용 카메라 모듈(311-2) 사이의 거리에 대응하는 시차(disparity)가 있을 수 있다.
다양한 실시예에 따르면, 외부 전자 장치(300)는 거리 센서(미도시)를 포함할 수 있다. 예를 들어, 거리 센서는 TOF(time of flight) 방식으로 피사체와의 거리를 측정할 수 있다. 일 실시예에 따르면, 거리 센서는 광입자를 출력하는 발광부(emitter)와 발광부에서 출력된 후 피사체에 반사된 광입자를 획득하는 수광부(sensor)를 포함할 수 있다. 예를 들어, 거리 센서는 거리 센서에서 출력된 빛 또는 전파가 다른 피사체에 반사되어 되돌아오는데 소요되는 비행 시간에 기반하여 거리를 측정할 수 있다. 예를 들어, 거리 센서는 비행 시간에 광속을 곱하고, 이를 반으로 나눈 값을 피사체와의 거리로 결정할 수 있다. 예를 들어, 거리 센서는 수광부에 유입된 광량에 기반하여 거리를 측정할 수 있다. 거리 센서는 수광부가 수신한 광량이 적을수록 거리가 길고, 거리 센서가 수신한 광량이 많을수록 거리가 짧은 것으로 판정할 수 있다. 예를 들어, 거리 센서는 수광부에서 획득한 빛의 위상 변화에 기반하여 거리를 측정할 수 있다.
도 4는, 다양한 실시예에 따른 프로세서(예 : 도 2의 프로세서(220))가 사용자의 아바타를 생성하여 아이템을 피팅하는 방법을 도시한 흐름도이다.
다양한 실시예예 따르면, 프로세서(220)는, 동작 410에서, 사용자를 촬영한 복수의 이미지를 획득할 수 있다.
다양한 실시예에 따른 제 1 외부 전자 장치(301), 제 2 외부 전자 장치(302), 제 3 외부 전자 장치(303) 및/또는 제 4 외부 전자 장치(304)는, 도 3의 외부 전자 장치(300)일 수 있다.
다양한 실시예에 따르면, 제 1 외부 전자 장치(301), 제 2 외부 전자 장치(302), 제 3 외부 전자 장치(303) 및/또는 제 4 외부 전자 장치(304)는, 제 1 인식용 카메라 모듈(예 : 도 3의 인식용 카메라 모듈(311-1)), 제 2 인식용 카메라 모듈(예 : 도 3의 인식용 카메라 모듈(311-2))을 각각 포함할 수 있다. 예를 들어, 제 1 인식용 카메라 모듈(311-1), 제 2 인식용 카메라 모듈(311-2)은 각각 θ의 화각(FOV, field of view)을 가질 수 있다.
다양한 실시예에 따르면, 제 1 외부 전자 장치(301), 제 2 외부 전자 장치(302), 제 3 외부 전자 장치(303) 및/또는 제 4 외부 전자 장치(304)는 촬영 대상인 사용자를 중심으로 특정 형상(예: 원)을 형성하도록 배치될 수 있다. 제 1 외부 전자 장치(301), 제 2 외부 전자 장치(302), 제 3 외부 전자 장치(303) 및/또는 제 4 외부 전자 장치(304)는, 특정 형상을 형성하기 위한 위치 정보를, 전자 장치(200)로부터 제공 받을 수 있다.
일 실시예에 따르면, 제 1 외부 전자 장치(301), 제 2 외부 전자 장치(302), 제 3 외부 전자 장치(303) 및/또는 제 4 외부 전자 장치(304)에 포함된 제 1 인식용 카메라 모듈(311-1) 및 제 2 인식용 카메라 모듈(311-2)의 화각(θ)에 대응하여 사용할 외부 전자 장치(301, 302, 303, 304)의 수 및/또는 배치를 상이하게 구성할 수 있다. 예를 들어, 제 1 인식용 카메라 모듈(311-1) 및 제 2 인식용 카메라 모듈(311-2)의 화각(θ이 180도 이상임에 대응하여, 적어도 두 개 이상의 외부 전자 장치(301, 302)가 사용되고, 제 1 외부 전자 장치(301)와 제 2 외부 전자 장치(302)가 맞은편에 위치하도록 배치될 수 있다. 예를 들어, 제 1 인식용 카메라 모듈(311-1) 및 제 2 인식용 카메라 모듈(311-2)의 화각(θ이 120도 이상임에 대응하여, 적어도 세 개 이상의 외부 전자 장치(301, 302, 303)가 사용되고, 제 1 외부 전자 장치(301), 제 2 외부 전자 장치(302) 및 제 3 외부 전자 장치(303)가 사용자(500)를 중심으로 상호 120도 각도를 이루는 지점에 위치하도록 배치될 수 있다. 예를 들어, 제 1 인식용 카메라 모듈(311-1) 및 제 2 인식용 카메라 모듈(311-2)의 화각(θ이 90도 이상임에 대응하여, 적어도 네 개 이상의 외부 전자 장치(301, 302, 303, 304)가 사용되고, 제 1 외부 전자 장치(301), 제 2 외부 전자 장치(302), 제 3 외부 전자 장치(303) 및 제 4 외부 전자 장치(304)가 사용자(500)를 중심으로 상호 90도 각도를 이루는 지점에 위치하도록 배치될 수 있다.
다양한 실시예에 따르면, 제 1 외부 전자 장치(301), 제 2 외부 전자 장치(302), 제 3 외부 전자 장치(303) 및/또는 제 4 외부 전자 장치(304)는 제 1 인식용 카메라 모듈(311-1) 및 제 2 인식용 카메라 모듈(311-2)을 각각 이용하여 사용자(500)를 촬영할 수 있다.
일 실시예에 따르면, 프로세서(220)는 통신 모듈(290)을 통하여 제 1 외부 전자 장치(301), 제 2 외부 전자 장치(302), 제 3 외부 전자 장치(303) 및/또는 제 4 외부 전자 장치(304)로부터 사용자를 촬영한 이미지를 획득할 수 있다. 예를 들어, 프로세서(220)는 통신 모듈(290)을 이용하여 무선 통신(예 : 블루투스, wifi와 같은 단거리 통신)을 통하여 제 1 외부 전자 장치(301), 제 2 외부 전자 장치(302), 제 3 외부 전자 장치(303) 및/또는 제 4 외부 전자 장치(304)가 촬영한 이미지를 수신할 수 있다. 예를 들어, 프로세서(220)는, 제 1 외부 전자 장치(301), 제 2 외부 전자 장치(302), 제 3 외부 전자 장치(303) 및/또는 제 4 외부 전자 장치(304)의 제 1 인식용 카메라 모듈(311-1)이 촬영한 이미지와 제 2 인식용 카메라 모듈(311-2)이 촬영한 이미지 각각을 통신 모듈(290)을 통하여 수신할 수 있다.
일 실시예에 따르면, 프로세서(220)는 통신 모듈(290)을 통하여 제 1 외부 전자 장치(301), 제 2 외부 전자 장치(302), 제 3 외부 전자 장치(303) 및/또는 제 4 외부 전자 장치(304)로부터 외부 전자 장치(300)의 제 1 인식용 카메라 모듈(311-1)이 촬영한 이미지와 제 2 인식용 카메라 모듈(311-2)이 촬영한 이미지 각각을 수신할 수 있다. 예를 들어, 프로세서(220)는, 제 1 외부 전자 장치(301)의 제 1 인식용 카메라 모듈(311-1) 및 제 2 인식용 카메라 모듈(311-2) 각각이 촬영한 이미지들, 제 2 외부 전자 장치(302)의 제 1 인식용 카메라 모듈(311-1) 및 제 2 인식용 카메라 모듈(311-2) 각각이 촬영한 이미지들, 제 3 외부 전자 장치(303)의 제 1 인식용 카메라 모듈(311-1) 및 제 2 인식용 카메라 모듈(311-2) 각각이 촬영한 이미지들, 제 4 외부 전자 장치(304)의 제 1 인식용 카메라 모듈(311-1) 및 제 2 인식용 카메라 모듈(311-2) 각각이 촬영한 이미지들을 획득할 수 있다.
다양한 실시예에 따르면, 프로세서(220)는, 동작 420에서, 복수의 이미지에 기반하여 사용자에 대한 깊이 지도(depth map)을 계산할 수 있다. 깊이 지도는 2차원 이미지 데이터에 포함된 피사체들이 기준점으로부터 얼마만큼 떨어져 있는지를 나타내는 픽셀들의 깊이 값으로 구성될 수 있다. 깊이 값은 픽셀이 나타내는 피사체가 기준점으로부터 가깝고 먼 정도를 수치로 표현한 것일 수 있다. 예를 들어, 피사체 'A'를 나타내는 픽셀의 깊이 값이 피사체 'B'를 나타내는 픽셀의 깊이 값보다 작다면 피사체 'A'가 피사체 'B'보다 기준점으로부터 더 먼 곳(또는 더 가까운 곳)에 위치할 수 있다. 사용자에 대한 깊이 지도는, 복수의 이미지에 포함된 사용자에 대한 깊이 지도로써, 외부 전자 장치(300)와 사용자 사이의 거리 정보를 포함할 수 있다.
일 실시예예 따르면, 제 1 외부 전자 장치(301), 제 2 외부 전자 장치(302), 제 3 외부 전자 장치(303) 및/또는 제 4 외부 전자 장치(304)는 사용자(500)를 중심으로 동일한 거리에 배치되지 않고 사용자를 촬영함에 대응하여, 프로세서(220)는 제 1 외부 전자 장치(301), 제 2 외부 전자 장치(302), 제 3 외부 전자 장치(303) 및/또는 제 4 외부 전자 장치(304)가 촬영한 이미지에 스케일(scale) 보정을 수행할 수 있다. 예를 들어, 프로세서(220)는, 제 1 외부 전자 장치(301), 제 2 외부 전자 장치(302), 제 3 외부 전자 장치(303) 및/또는 제 4 외부 전자 장치(304)의 거리 센서가 측정한 사용자와 거리 센서의 거리 정보를 획득할 수 있다. 예를 들어, 프로세서(220)는, 사용자와 거리 센서의 거리 정보에 기반하여 제 1 외부 전자 장치(301), 제 2 외부 전자 장치(302), 제 3 외부 전자 장치(303) 및/또는 제 4 외부 전자 장치(304)가 촬영한 사용자의 크기가 동일하도록 이미지들을 확대(zoom in) 또는 축소(zoom out)하는 보정을 수행할 수 있다.
일 실시예예 따르면, 프로세서(220)는, 사용자를 촬영한 복수의 이미지의 촬영 시점이 일치하도록 복수의 이미지를 처리할 수 있다.
예를 들어, 프로세서(220)는, 제 1 외부 전자 장치(301), 제 2 외부 전자 장치(302), 제 3 외부 전자 장치(303) 및/또는 제 4 외부 전자 장치(304)로부터 촬영 시작 지점(encode start)이 상이한 이미지들을 획득함에 대응하여, 각 이미지들의 촬영 시점이 최초로 일치하는 프레임 이후의 이미지의 프레임들을 사용하도록 각 이미지들을 처리할 수 있다.
예를 들어, 제 1 외부 전자 장치(301), 제 2 외부 전자 장치(302), 제 3 외부 전자 장치(303) 및/또는 제 4 외부 전자 장치(304)는 이미지 촬영 시에 각 이미지 프레임에 타임 스탬프(TS, time stamp)를 포함할 수 있다. 예를 들어, 프로세서(220)는, 제 1 외부 전자 장치(301), 제 2 외부 전자 장치(302), 제 3 외부 전자 장치(303) 및/또는 제 4 외부 전자 장치(304)로부터 획득한 이미지들에서 타임 스탬프가 최초로 일치하는 프레임 이후의 이미지 프레임들을 사용하도록 각 이미지들을 처리할 수 있다.
일 실시예예 따르면, 프로세서(220)는, 처리한 복수의 이미지를 기반으로 깊이 지도(depth map)을 계산할 수 있다.
예를 들어, 프로세서(220)는, 처리한 복수의 이미지들 각각에 왜곡 보정(warping) 처리를 할 수 있다. 각 이미지들은 외부 전자 장치(300)의 카메라(예 : 도 3의 인식용 카메라 모듈(311-1)), 제 2 인식용 카메라 모듈(예 : 도 3의 인식용 카메라 모듈(311-2)) 렌즈에 기반하여 왜곡된 이미지들일 수 있다. 예를 들어, 외부 전자 장치(300)의 카메라 렌즈의 굴절률이 높을수록, 렌즈의 중심과 외각의 굴절률 차이에 기반하여 이미지의 왜곡이 발생할 수 있다. 예를 들어, 프로세서(220)는, 이미지의 왜곡 계수를 확인하고, 이미지에 왜곡 계수와 반대되는 왜곡을 대입하여 왜곡을 보정할 수 있다.
예를 들어, 프로세서(220)는, 왜곡 보정된 복수의 이미지들에 기반하여 깊이 지도(depth map)을 생성할 수 있다. 예를 들어, 프로세서(220)는, 외부 전자 장치(301, 302, 303, 304)의 제 1 인식용 카메라 모듈(311-1)에서 각각 촬영한 제 1 이미지들과 제 2 인식용 카메라 모듈(311-2)에서 촬영한 제 2 이미지들의 시차(disparity)에 기반하여 깊이 지도를 생성할 수 있다. 예를 들어, 프로세서(220)는, 제 1 이미지와 제 2 이미지로부터 서로 정합되는 화소들을 검출하고, 화소들에 대응하는 깊이값들을 산출하여 깊이 지도를 생성할 수 있다. 예를 들어, 프로세서(220)는, 외부 전자 장치(301, 302, 303, 304)의 깊이 지도에 대응되는 제 3 이미지들을 생성할 수 있다.
일 실시예예 따르면, 상기 기술된 동작들은 외부 전자 장치(301, 302, 303, 304)에서 수행된 후, 전자 장치(200)가 외부 전자 장치(301, 302, 303, 304)에 의하여 생성된 제 3 이미지를 획득할 수 있다.
예를 들어, 프로세서(220)는, 제 3 이미지들 스티칭(stitching) 처리를 할 수 있다. 예를 들어, 프로세서(220)는, 복수의 제 3 이미지들의 공통 부분(match point)를 찾고, 공통 부분을 연결하여 하나의 제 4 이미지를 형성할 수 있다. 예를 들어, 프로세서(220)는 연결한 공통 부분에 대하여 블렌딩(blending) 처리를 수행할 수 있다. 예를 들어, 프로세서(220)는, 각 외부 전자 장치(301, 302, 303, 304)에 대응되는 제 3 이미지들을 스티칭 및 블렌딩 처리하여, 사용자 주변의 360도를 커버하는 제 4 이미지를 생성할 수 있다..
일 실시예예 따르면, 프로세서(220)는, 복수의 이미지와 제 1 외부 전자 장치(301), 제 2 외부 전자 장치(302), 제 3 외부 전자 장치(303) 및/또는 제 4 외부 전자 장치(304)의 거리 센서가 측정한 사용자와 거리 센서의 거리 정보를 기반으로 깊이 지도(depth map)을 계산할 수 있다. 예를 들어, 프로세서(220)는 통신 모듈(290)을 통하여 제 1 외부 전자 장치(301), 제 2 외부 전자 장치(302), 제 3 외부 전자 장치(303) 및/또는 제 4 외부 전자 장치(304)로부터 사용자와 거리 센서와의 거리 정보를 획득할 수 있다. 예를 들어, 프로세서(220)는, 처리한 복수의 이미지와 이미지에 대응하는 거리 정보에 기반하여, 깊이 지도(depth map)을 생성할 수 있다.
다양한 실시예에 따르면, 프로세서(220)는, 동작 430에서, 깊이 지도(depth map)에 기반하여 사용자의 신체 정보를 획득하고, 아바타를 생성할 수 있다.
일 실시예에 따르면, 프로세서(220)는, 깊이 지도(depth map)에 기반하여 사용자의 신체 정보를 획득할 수 있다. 예를 들어, 프로세서(220)는, 깊이 지도(depth map)에 포함된 픽셀 피치(pixel pitch)와 사용자의 각 신체 부위에 대응하는 픽셀 수에 기반하여, 사용자의 신체 사이즈를 확인할 수 있다. 예를 들어, 프로세서(220)는, 깊이 지도에 포함된 사용자의 각 신체 부위에 대응하는 픽셀 수에 기반하여, 사용자의 신장, 머리 길이, 목 길이, 팔 길이, 다리 길이, 머리 둘레, 목 둘레, 어깨 폭, 겨드랑이 둘레, 가슴 둘레, 위팔 둘레, 허리 둘레, 엉덩이 둘레, 허벅지 둘레와 같은 사용자의 신체 사이즈를 확인할 수 있다.
일 실시예에 따르면, 프로세서(220)는, 수동 모드에서, 사용자로부터 사용자의 신체 사이즈 정보를 입력받아 아바타를 생성할 수 있다. 예를 들어, 프로세서(220)는 사용자로부터 사용자의 신장, 머리 길이, 목 길이, 팔 길이, 다리 길이, 머리 둘레, 목 둘레, 어깨 폭, 겨드랑이 둘레, 가슴 둘레, 위팔 둘레, 허리 둘레, 엉덩이 둘레, 허벅지 둘레와 같은 사용자의 신체 사이즈를 입력받을 수 있다.
일 실시예에 따르면, 프로세서(220)는, 사용자의 신체 정보에 기반하여 사용자 아바타를 생성할 수 있다. 예를 들어, 프로세서(220)는, 기준 아바타 형태에서, 아바타의 각 신체 부위가 사용자의 신체 사이즈에 대응하는 사용자 아바타를 생성할 수 있다. 예를 들어, 프로세서(220)는, 지정된 사이즈를 가지는 기준 신체 사이즈를 기준으로, 사용자의 신체 사이즈를 대비한 비율(예 : 사용자의 팔 길이가 기준 신체의 팔 길이에 대비하여 10% 긴 경우)을 기준 아바타 형태에 적용(예 : 사용자 아바타의 팔 길이를 기준 아바타 팔 길이보다 10% 길게 적용)하여 사용자 아바타를 생성할 수 있다.
다양한 실시예에 따르면, 프로세서(220)는, 동작 440에서, 사용자에게 아이템을 추천할 수 있다.
일 실시예에 따르면, 프로세서(220)는, 아이템 추천 모델에 기반하여 사용자에게 아이템을 추천할 수 있다.
예를 들어, 프로세서(220)는 상의, 하의, 신발, 모자 및/또는 악세서리와 같이 사용자가 착용할 수 있는 아이템 리스트를 서버로부터 획득할 수 있다.
예를 들어, 아이템 추천 모델은 사용자와 관련된 정보 및/또는 외부 정보에 기반하여, 아이템 리스트 중에서 사용자에게 적합한 아이템을 추천하기 위한 학습 모델일 수 있다. 예를 들어, 프로세서(220)는 사용자와 관련된 정보 및/또는 외부 정보를 아이템 추천 모델에 입력하여, 아이템 리스트 중에서 추천 아이템을 출력할 수 있다.
예를 들어, 프로세서(220)는 사용자의 신체 사이즈, 사용자의 아이템 구매 이력, 사용자가 보유한 아이템의 사이즈, 색상, 브랜드와 같은 사용자와 관련된 정보를 아이템 추천 모델에 입력하여 추천 아이템을 출력할 수 있다. 예를 들어, 프로세서(220)는 계절, 날씨 및/또는 유행하는 아이템과 같은 외부 정보를 아이템 추천 모델에 입력하여 추천 아이템을 출력할 수 있다.
일 실시예에 따르면, 프로세서(220)는, 사용자로부터 추천 아이템 중에서 아이템을 선택하는 입력을 획득할 수 있다.
일 실시예에 따르면, 프로세서(220)는, 사용자로부터 추천 아이템 중에서 아이템을 선택하지 않는 입력을 획득할 수 있다. 예를 들어, 프로세서(220)는, 사용자로부터 부가 정보 입력을 획득하고, 부가 정보에 기반하여, 동작 440을 다시 수행하여 아이템을 추천할 수 있다.
일 실시예에 따르면, 프로세서(220)는 사용자가 선택한 아이템 정보에 기반하여, 아이템 추천 모델을 업데이트 할 수 있다.
다양한 실시예에 따르면, 프로세서(220)는, 동작 450에서, 선택한 아이템과 사용자의 신체 정보를 비교하여 불일치 영역을 확인할 수 있다. 불일치 영역은, 아이템이 착용될 사용자의 신체의 적어도 일부 영역의 사이즈와, 선택된 아이템의 사이즈가 불일치하는, 사용자의 신체의 적어도 일부 영역을 의미할 수 있다.
일 실시예에 따르면, 프로세서(220)는, 아이템의 사이즈 정보를 포함하는 아이템과 관련된 정보를 서버로부터 획득할 수 있다.
일 실시예에 따르면, 프로세서(220)는, 사용자 아바타에 사용자가 선택한 아이템을 렌더링(rendering)하여 출력할 수 있다. 예를 들어, 프로세서(220)는, 렌더링한 사용자 아바타를 디스플레이(예 :도 2의 디스플레이(260))에 출력할 수 있다.
일 실시예에 따르면, 프로세서(220)는, 사용자의 각 신체에 대응하는 영역에착용될 아이템의 사이즈와 사용자의 신체 사이즈를 비교할 수 있다. 예를 들어, 프로세서(220)는, 선택된 아이템이 상의(예 : 셔츠)임에 대응하여, 아이템의 어깨 사이즈와 사용자의 어깨 사이즈, 아이템의 팔 길이와 사용자의 팔 길이, 아이템의 가슴 둘레와 사용자의 가슴 둘레, 아이템의 상체 길이와 사용자의 상체 길이를 비교할 수 있다.
일 실시예에 따르면, 프로세서(220)는, 사용자의 각 신체에 대응하는 영역에착용될 아이템의 사이즈와 사용자의 신체 사이즈의 차이가 지정된 값을 초과함에 대응하여, 해당 신체 영역을 불일치 영역으로 결정할 수 있다. 예를 들어, 프로세서(220)는, 아이템 사이즈와 사용자의 신체 사이즈의 차이가 사용자의 신체 사이즈 대비 지정된 비율을 초과함에 대응하여, 해당 신체 영역을 불일치 영역으로 결정할 수 있다. 프로세서(220)는, 불일치 영역에 대응하는 사용자 아바타의 영역에 아이템의 사이즈가 신체 사이즈와 불일치함을 지시하는 정보를 표시를 할 수 있다.
도 5는, 다양한 실시예에 따른 제 1 외부 전자 장치(301), 제 2 외부 전자 장치(302), 제 3 외부 전자 장치(303) 및/또는 제 4 외부 전자 장치(304)가 사용자의 이미지를 획득하는 동작을 설명하기 위하여 도시한 도면이다.
다양한 실시예에 따른 제 1 외부 전자 장치(301), 제 2 외부 전자 장치(302), 제 3 외부 전자 장치(303) 및/또는 제 4 외부 전자 장치(304)는, 도 3의 외부 전자 장치(300)일 수 있다.
다양한 실시예에 따르면, 제 1 외부 전자 장치(301), 제 2 외부 전자 장치(302), 제 3 외부 전자 장치(303) 및/또는 제 4 외부 전자 장치(304)는, 제 1 인식용 카메라 모듈(예 : 도 3의 인식용 카메라 모듈(311-1)), 제 2 인식용 카메라 모듈(예 : 도 3의 인식용 카메라 모듈(311-2))을 각각 포함할 수 있다. 예를 들어, 제 1 인식용 카메라 모듈(311-1), 제 2 인식용 카메라 모듈(311-2)은 각각 θ의 화각(FOV, field of view)을 가질 수 있다.
다양한 실시예에 따르면, 제 1 외부 전자 장치(301), 제 2 외부 전자 장치(302), 제 3 외부 전자 장치(303) 및/또는 제 4 외부 전자 장치(304)는 촬영 대상인 사용자(500)를 중심으로 특정 형상(예 : 원)을 형성하도록 배치될 수 있다. 제 1 외부 전자 장치(301), 제 2 외부 전자 장치(302), 제 3 외부 전자 장치(303) 및/또는 제 4 외부 전자 장치(304)는, 특정 형상을 형성하기 위한 위치 정보를, 전자 장치(200)로부터 제공 받을 수 있다.
일 실시예에 따르면, 제 1 외부 전자 장치(301), 제 2 외부 전자 장치(302), 제 3 외부 전자 장치(303) 및/또는 제 4 외부 전자 장치(304)에 포함된 제 1 인식용 카메라 모듈(311-1) 및 제 2 인식용 카메라 모듈(311-2)의 화각(θ)에 대응하여 사용할 외부 전자 장치(301, 302, 303, 304)의 수 및/또는 배치를 상이하게 구성할 수 있다. 예를 들어, 제 1 인식용 카메라 모듈(311-1) 및 제 2 인식용 카메라 모듈(311-2)의 화각(θ이 180도 이상임에 대응하여, 적어도 두 개 이상의 외부 전자 장치(301, 302)가 사용되고, 제 1 외부 전자 장치(301)와 제 2 외부 전자 장치(302)가 맞은편에 위치하도록 배치될 수 있다. 예를 들어, 제 1 인식용 카메라 모듈(311-1) 및 제 2 인식용 카메라 모듈(311-2)의 화각(θ이 120도 이상임에 대응하여, 적어도 세 개 이상의 외부 전자 장치(301, 302, 303)가 사용되고, 제 1 외부 전자 장치(301), 제 2 외부 전자 장치(302) 및 제 3 외부 전자 장치(303)가 사용자(500)를 중심으로 상호 120도 각도를 이루는 지점에 위치하도록 배치될 수 있다. 예를 들어, 제 1 인식용 카메라 모듈(311-1) 및 제 2 인식용 카메라 모듈(311-2)의 화각(θ이 90도 이상임에 대응하여, 적어도 네 개 이상의 외부 전자 장치(301, 302, 303, 304)가 사용되고, 제 1 외부 전자 장치(301), 제 2 외부 전자 장치(302), 제 3 외부 전자 장치(303) 및 제 4 외부 전자 장치(304)가 사용자(500)를 중심으로 상호 90도 각도를 이루는 지점에 위치하도록 배치될 수 있다.
다양한 실시예에 따르면, 제 1 외부 전자 장치(301), 제 2 외부 전자 장치(302), 제 3 외부 전자 장치(303) 및/또는 제 4 외부 전자 장치(304)는 제 1 인식용 카메라 모듈(311-1) 및 제 2 인식용 카메라 모듈(311-2)을 각각 이용하여 사용자(500)를 촬영할 수 있다.
도 6은, 다양한 실시예예 따라, 프로세서(예 : 도 2의 프로세서(220))가 제 1 외부 전자 장치(예 : 도 5의 외부 전자 장치(301)), 제 2 외부 전자 장치(예 : 도 5의 외부 전자 장치(302)), 제 3 외부 전자 장치(예 : 도 5의 외부 전자 장치(303)) 및/또는 제 4 외부 전자 장치(예 : 도 5의 외부 전자 장치(304))로부터 획득한 이미지를 처리하는 동작을 설명하기 위하여 도시한 도면이다.
다양한 실시예예 따르면, 프로세서(220)는, 사용자를 촬영한 복수의 이미지의촬영 시점이 일치하도록 복수의 이미지를 처리할 수 있다.
그림 (a)를 참조하면, 프로세서(220)는 제 1 외부 전자 장치(301), 제 2 외부 전자 장치(302), 제 3 외부 전자 장치(303) 및/또는 제 4 외부 전자 장치(304)로부터 사용자를 촬영한 이미지들을 획득할 수 있다.
일 실시예에 따르면, 제 1 외부 전자 장치(301), 제 2 외부 전자 장치(302), 제 3 외부 전자 장치(303) 및/또는 제 4 외부 전자 장치(304)에서 촬영한 이미지들은 이미지 프레임에 타임 스탬프(TS, time stamp)를 포함할 수 있다. 예를 들어, 제 1 외부 전자 장치(301), 제 2 외부 전자 장치(302), 제 3 외부 전자 장치(303) 및/또는 제 4 외부 전자 장치(304)에서 촬영한 이미지들은 각각 촬영 시작 지점(encode start)이 상이할 수 있다. 예를 들어, 제 1 외부 전자 장치(301)는 TS : 33msec 에 1 프레임 촬영을 시작할 수 있고, 제 2 외부 전자 장치(302)는 TS : 100msec 에 1 프레임 촬영을 시작할 수 있고, 제 3 외부 전자 장치(303)는 TS : 0msec 에 1 프레임 촬영을 시작할 수 있고, 제 4 외부 전자 장치(301)는 TS : 33msec 에 1 프레임 촬영을 시작할 수 있다.
그림 (b)를 참조하면, 프로세서(220)는, 제 1 외부 전자 장치(301), 제 2 외부 전자 장치(302), 제 3 외부 전자 장치(303) 및/또는 제 4 외부 전자 장치(304)에서 촬영한 이미지들의 프레임을 처리할 수 있다.
예를 들어, 프로세서(220)는, 제 1 외부 전자 장치(301), 제 2 외부 전자 장치(302), 제 3 외부 전자 장치(303) 및/또는 제 4 외부 전자 장치(304) 모두가 촬영 중인 시점 (예 : TS : 100msec) 이후의 이미지의 프레임들을 사용하도록 각 이미지들을 처리할 수 있다.
예를 들어, 프로세서(220)는 TS : 100msec 시점을 기준으로, 제 1 외부 전자 장치(301)가 촬영한 이미지 중 제 3 프레임 및 제 4 프레임을, 제 2 외부 전자 장치(302)가 촬영한 이미지 중 제 1 프레임 및 제 2 프레임을, 제 3 외부 전자 장치(303)가 촬영한 이미지 중 제 4 프레임 및 제 5 프레임을, 제 4 외부 전자 장치(304)가 촬영한 이미지 중 제 3 프레임 및 제 4 프레임을 사용하도록 각 이미지들을 처리할 수 있다.
도 7은, 다양한 실시예에 따라, 프로세서(예 : 도 2의 프로세서(220))가 사용자의 신체 정보를 획득하여 사용자 아바타(700)를 생성하는 동작을 설명하기 위하여 도시한 도면이다.
다양한 실시예에 따르면, 프로세서(220)는, 사용자의 신체 정보에 기반하여 사용자 아바타(700)를 생성할 수 있다.
일 실시예에 따르면, 프로세서(220)는, 깊이 지도(depth map)에 기반하여 사용자의 신체 정보를 획득할 수 있다. 예를 들어, 프로세서(220)는, 깊이 지도(depth map)에 포함된 픽셀 피치(pixel pitch)와 사용자의 각 신체 부위에 대응하는 픽셀 수에 기반하여, 사용자의 신체 사이즈를 확인할 수 있다. 예를 들어, 프로세서(220)는, 깊이 지도에 포함된 사용자의 각 신체 부위에 대응하는 픽셀 수에 기반하여, 사용자의 신장, 머리 길이, 목 길이, 팔 길이, 다리 길이, 머리 둘레, 목 둘레, 어깨 폭, 겨드랑이 둘레, 가슴 둘레, 위팔 둘레, 허리 둘레, 엉덩이 둘레, 허벅지 둘레와 같은 사용자의 신체 사이즈를 확인할 수 있다.
일 실시예에 따르면, 프로세서(220)는, 사용자의 신체 정보에 기반하여 사용자 아바타(700)를 생성할 수 있다.
예를 들어, 프로세서(220)는, 기준 아바타 형태에서, 아바타의 각 신체 부위가 사용자의 신체 사이즈에 대응하는 사용자 아바타(700)를 생성할 수 있다. 예를 들어, 프로세서(220)는, 지정된 기준 신체 사이즈를 기준으로, 사용자의 신체 사이즈를 대비한 비율(예 : 사용자의 팔 길이가 기준 신체의 팔 길이에 대비하여 10% 긴 경우)을 기준 아바타 형태에서 사용자 아바타(700)에 적용(예 : 사용자 아바타의 팔 길이를 기준 아바타 팔 길이보다 10% 길게 적용)할 수 있다.
도 8은, 다양한 실시예예 따른 프로세서(예 : 도 2의 프로세서(220))가 사용자에게 아이템을 추천하고, 선택된 아이템의 사이즈와 사용자의 신체 사이즈가 불일치하는 영역을 표시하는 동작을 도시한 흐름도이다.
다양한 실시예에 따른 프로세서(220)는, 동작 810에서, 아이템 추천 모델에 기반하여 사용자에게 아이템을 추천할 수 있다.
일 실시예에 따르면, 프로세서(220)는 상의, 하의, 신발, 모자 및/또는 악세서리와 같이 사용자가 착용할 수 있는 아이템 리스트를 서버로부터 획득할 수 있다.
일 실시예에 따르면, 아이템 추천 모델은 사용자와 관련된 정보 및/또는 외부 정보에 기반하여, 아이템 리스트 중에서 사용자에게 적합한 아이템을 추천하기 위한 학습 모델일 수 있다. 예를 들어, 프로세서(220)는 사용자와 관련된 정보 및/또는 외부 정보를 아이템 추천 모델에 입력하여, 아이템 리스트 중에서 추천 아이템을 출력할 수 있다.
예를 들어, 프로세서(220)는 사용자의 신체 사이즈, 사용자의 아이템 구매 이력, 사용자가 보유한 아이템의 사이즈, 색상, 브랜드와 같은 사용자와 관련된 정보를 아이템 추천 모델에 입력하여 추천 아이템을 출력할 수 있다. 예를 들어, 프로세서(220)는 계절, 날씨 및/또는 유행하는 아이템과 같은 외부 정보를 아이템 추천 모델에 입력하여 추천 아이템을 출력할 수 있다.
다양한 실시예예 따른 프로세서(220)는, 동작 820에서, 사용자로부터 아이템을 선택하는 입력을 획득할 수 있다.
일 실시예에 따르면, 프로세서(220)는, 사용자로부터 추천 아이템 중에서 아이템을 선택하는 입력을 획득할 수 있다.
일 실시예에 따르면, 프로세서(220)는, 사용자로부터 추천 아이템 중에서 아이템을 선택하지 않는 입력을 획득할 수 있다. 예를 들어, 프로세서(220)는, 사용자로부터 부가 정보 입력을 획득하고, 부가 정보에 기반하여, 동작 810을 다시 수행하여 아이템을 추천할 수 있다.
다양한 실시예에 따른 프로세서(220)는, 동작 830에서, 선택한 아이템의 사이즈 정보를 획득할 수 있다.
일 실시예에 따르면, 프로세서(220)는, 아이템의 사이즈 정보를 포함하는 아이템과 관련된 정보를 서버로부터 획득할 수 있다.
다양한 실시예에 따른 프로세서(220)는, 동작 840에서, 아이템의 사이즈와 사용자의 사이즈를 비교할 수 있다.
일 실시예에 따르면, 프로세서(220)는, 사용자의 각 신체에 대응하는 영역의 아이템 사이즈와 사용자의 신체 사이즈를 비교할 수 있다. 예를 들어, 프로세서(220)는, 선택된 아이템이 상의(예 : 셔츠)임에 대응하여, 아이템의 어깨 사이즈와 사용자의 어깨 사이즈, 아이템의 팔 길이와 사용자의 팔 길이, 아이템의 가슴 둘레와 사용자의 가슴 둘레, 아이템의 상체 길이와 사용자의 상체 길이를 비교할 수 있다.
다양한 실시예에 따른 프로세서(220)는, 동작 850에서, 아이템이 착용될 사용자의 신체의 적어도 일부 영역의 사이즈와 선택된 아이템의 사이즈가 불일치하는 불일치 영역을 확인하고 표시할 수 있다.
일 실시예에 따르면, 프로세서(220)는, 사용자의 각 신체에 대응하는 영역의 아이템 사이즈와 사용자의 신체 사이즈의 차이가 지정된 값을 초과함에 대응하여, 해당 영역을 불일치 영역으로 결정할 수 있다. 예를 들어, 프로세서(220)는, 아이템 사이즈와 사용자의 신체 사이즈의 차이가 사용자의 신체 사이즈 대비 지정된 비율(예 : 사용자 팔 길이의 5%)을 초과함에 대응하여, 해당 신체 영역을 불일치 영역으로 결정할 수 있다.
일 실시예에 따르면, 프로세서(220)는, 사이즈가 불일치하다고 결정한 영역에 대응하는 사용자 아바타 영역에 아이템의 사이즈가 신체 사이즈와 불일치함을 지시하는 정보를 표시를 할 수 있다.
도 9는, 다양한 실시예에 따라, 프로세서(예 : 도 2의 프로세서(220))가 사용자의 아바타에 아이템 사이즈와 신체 사이즈가 불일치함을 지시하는 정보를 표시하는 동작을 설명하기 위하여 도시한 도면이다.
다양한 실시예에 따른 프로세서(220)는, 사용자 아바타(700)에 사용자가 선택한 아이템(901, 902)을 렌더링(rendering)하여 출력할 수 있다. 예를 들어, 프로세서(220)는, 아이템을 렌더링한 사용자 아바타(700)를 디스플레이(예 :도 2의 디스플레이(260))에 출력할 수 있다.
다양한 실시예에 따르면, 프로세서(220)는, 사용자의 각 신체에 대응하는 영역의 아이템 사이즈와 사용자의 신체 사이즈의 차이가 지정된 값을 초과함에 대응하여, 해당 영역을 불일치 영역으로 결정할 수 있다. 예를 들어, 프로세서(220)는, 아이템 사이즈와 사용자의 신체 사이즈의 차이가 사용자의 신체 사이즈 대비 지정된 비율을 초과함에 대응하여, 해당 신체 영역을 불일치 영역으로 결정할 수 있다. 프로세서(220)는, 불일치 영역에 대응하는 사용자 아바타(700)의 영역에 아이템의 사이즈가 신체 사이즈와 불일치함을 지시하는 정보를 표시 할 수 있다.
예를 들어, 프로세서(220)는, 상의 아이템(901)에서, 사용자의 어깨 사이즈(예: 100cm)와 상의 아이템(901)의 어깨 사이즈(예 : 90cm)의 차이(예 : 10cm)가 사용자의 신체 사이즈 대비 지정된 비율(예 : 사용자 어깨 너비의 5%, 5cm)을 초과함에 대응하여, 어깨를 불일치 영역으로 결정할 수 있다. 프로세서(220)는 어깨가 불일치 영역임에 대응하여, 불일치함을 지시하는 정보(950)를 사용자 아바타(700)에 표시할 수 있다.
예를 들어, 프로세서(220)는, 하의 아이템(902)에서, 사용자의 허벅지 사이즈(예 : 둘레 60cm)와 아이템의 허벅지 사이즈(예 : 둘레 55cm)의 차이(예 : 5cm가 사용자의 신체 사이즈 대비 지정된 비율(예 : 사용자 허벅지 둘레의 5%, 3cm)을 초과함에 대응하여, 허벅지를 불일치 영역으로 결정할 수 있다. 프로세서(220)는 허벅지가 불일치 영역임에 대응하여, 불일치함을 지시하는 정보(950)를 사용자 아바타(700)에 표시할 수 있다.
본 발명의 다양한 실시예에 따른 전자 장치(200)는 통신 모듈(290), 디스플레이(260) 및
프로세서(220)를 포함하고, 상기 프로세서(220)는 상기 통신 모듈(290)을 통하여 외부 전자 장치(300)로부터 사용자를 촬영한 이미지를 획득하고, 상기 이미지에 기반하여 상기 사용자의 신체의 적어도 일부와 관련된 깊이 지도를 생성하고, 상기 깊이 지도에 기반하여 사용자의 신체 정보를 획득하고, 상기 사용자의 신체 정보에 대응하는 사용자 아바타를 생성하고, 상기 사용자와 관련된 정보에 기반하여 상기 사용자에게 아이템을 추천하고, 상기 추천된 아이템 중에서 상기 사용자가 선택한 아이템의 정보와 상기 사용자의 신체 정보를 비교하여, 상기 사용자의 신체에 대응하는 영역 중 상기 영역의 사이즈와 상기 아이템의 사이즈가 불일치하는, 불일치 영역을 확인하고, 상기 디스플레이(260)에 상기 아이템을 렌더링한 사용자 아바타를 출력하고, 상기 사용자 아바타에 상기 불일치 영역을 표시할 수 있다.
본 발명의 다양한 실시예에 따른 전자 장치(200)에서, 상기 프로세서(220)는 상기 통신 모듈(290)을 통하여 사용자를 중심으로 원형으로 배치된 적어도 두 대 이상의 외부 전자 장치(300)들로부터 사용자의 360도를 커버하는 복수의 이미지들을 획득하고, 상기 외부 전자 장치(300)는 시차를 가지는 제 1 카메라 및 제 2 카메라를 포함하여 각 카메라가 사용자를 촬영할 수 있다.
본 발명의 다양한 실시예에 따른 전자 장치(200)에서, 상기 프로세서(220)는 이미지 프레임에 타임 스탬프를 포함하는 상기 복수의 이미지들에 대하여, 상기 타임 스탬프에 기반하여 촬영 시점이 일치하도록 상기 복수의 이미지들의 상기 이미지 프레임을 처리할 수 있다.
본 발명의 다양한 실시예에 따른 전자 장치(200)에서, 상기 프로세서(220)는 상기 외부 전자 장치(300)들의 상기 제 1 카메라가 촬영한 이미지인 제 1 이미지들 및 상기 외부 전자 장치(300)들의 상기 제 2 카메라가 촬영한 이미지들에 대하여 왜곡 보정 처리하고, 상기 왜곡 보정 처리된 제 1 이미지들 및 상기 왜곡 보정 처리된 제 2 이미지들에 기반하여 상기 깊이 지도에 대응하는 복수의 제 3 이미지들을 생성하고, 상기 복수의 제 3 이미지를 스티칭 처리하여 사용자의 360도를 커버하는 제 4 이미지를 생성할 수 있다.
본 발명의 다양한 실시예에 따른 전자 장치(200)에서, 상기 프로세서(220)는 상기 깊이 지도에 포함된 픽셀 피치(pixel pitch)와 상기 사용자의 신체 부위에 대응하는 픽셀 수에 기반하여, 상기 사용자의 신체 정보를 획득할 수 있다.
본 발명의 다양한 실시예에 따른 전자 장치(200)에서, 상기 프로세서(220)는 지정된 사이즈를 가지는 기준 신체 사이즈를 기준으로, 상기 사용자의 신체 정보를 대비한 비율을 기준 아바타 형태에 적용하여 상기 사용자 아바타를 생성할 수 있다.
본 발명의 다양한 실시예에 따른 전자 장치(200)에서, 사용자와 관련된 정보 및 외부 정보에 기반하여 아이템을 추천하는 학습 모델인 아이템 추천 모델을 저장하는 메모리(230)를 더 포함하고, 상기 프로세서(220)는 상기 사용자와 관련된 정보 및 상기 외부 정보를 상기 아이템 추천 모델에 입력하여 추천 아이템을 출력할 수 있다.
본 발명의 다양한 실시예에 따른 전자 장치(200)에서, 상기 사용자와 관련된 정보는 상기 사용자의 신체 사이즈, 상기 사용자의 아이템 구매 이력 및 상기 사용자가 보유한 아이템과 관련된 정보를 포함하고, 상기 외부 정보는 계절, 날씨 및 유행하는 아이템을 포함할 수 있다.
본 발명의 다양한 실시예에 따른 전자 장치(200)에서, 상기 프로세서(220)는 상기 사용자가 선택한 아이템의 정보에 기반하여 상기 아이템 추천 모델을 업데이트하고, 상기 업데이트된 아이템 추천 모델을 상기 메모리(230)에 저장할 수 있다.
본 발명의 다양한 실시예에 따른 전자 장치(200)에서, 상기 프로세서(220)는 상기 사용자가 선택한 아이템의 일부 영역의 사이즈와 상기 사용자의 신체 영역의 사이즈 차이가 상기 사용자의 신체 사이즈 대비 지정된 비율을 초과함에 대응하여, 상기 신체 영역을 상기 불일치 영역으로 결정할 수 있다.
본 발명의 다양한 실시예에 따른 전자 장치(200)의 동작 방법은, 외부 전자 장치(300)로부터 사용자를 촬영한 이미지를 획득하는 동작, 상기 이미지에 기반하여 상기 사용자의 신체의 적어도 일부와 관련된 깊이 지도를 생성하는 동작, 상기 깊이 지도에 기반하여 사용자의 신체 정보를 획득하는 동작, 상기 사용자의 신체 정보에 대응하는 사용자 아바타를 생성하는 동작, 상기 사용자와 관련된 정보에 기반하여 상기 사용자에게 아이템을 추천하는 동작, 상기 추천된 아이템 중에서 상기 사용자가 선택한 아이템의 정보와 상기 사용자의 신체 정보를 비교하여, 상기 사용자의 신체에 대응하는 영역 중 상기 영역의 사이즈와 상기 아이템의 사이즈가 불일치하는, 불일치 영역을 확인하는 동작, 디스플레이(260)에 상기 아이템을 렌더링한 사용자 아바타를 출력하는 동작 및 상기 사용자 아바타에 상기 불일치 영역을 표시하는 동작을 포함할 수 있다.
본 발명의 다양한 실시예에 따른 전자 장치(200)의 동작 방법에서, 사용자를 중심으로 원형으로 배치된 적어도 두 대 이상의 외부 전자 장치(300)들로부터 사용자의 360도를 커버하는 복수의 이미지들을 획득하는 동작 및 상기 외부 전자 장치(300)는 시차를 가지는 제 1 카메라 및 제 2 카메라를 포함하여 각 카메라가 사용자를 촬영하는 동작을 포함할 수 있다.
본 발명의 다양한 실시예에 따른 전자 장치(200)의 동작 방법에서, 이미지 프레임에 타임 스탬프를 포함하는 상기 복수의 이미지들에 대하여, 상기 타임 스탬프에 기반하여 촬영 시점이 일치하도록 상기 복수의 이미지들의 상기 이미지 프레임을 처리하는 동작을 포함할 수 있다.
본 발명의 다양한 실시예에 따른 전자 장치(200)의 동작 방법에서, 상기 외부 전자 장치(300)들의 상기 제 1 카메라가 촬영한 이미지인 제 1 이미지들 및 상기 외부 전자 장치(300)들의 상기 제 2 카메라가 촬영한 이미지인 제 2 이미지들에 대하여 왜곡 보정 처리하고, 상기 왜곡 보정 처리된 제 1 이미지들 및 상기 왜곡 보정 처리된 제 2 이미지들에 기반하여 상기 깊이 지도에 대응하는 복수의 제 3 이미지들을 생성하는 동작 및 상기 복수의 제 3 이미지를 스티칭 처리하여 사용자의 360도를 커버하는 제4 이미지를 생성하는 동작을 포함할 수 있다.
본 발명의 다양한 실시예에 따른 전자 장치(200)의 동작 방법에서, 상기 깊이 지도에 포함된 픽셀 피치(pixel pitch)와 상기 사용자의 신체 부위에 대응하는 픽셀 수에 기반하여, 상기 사용자의 신체 정보를 획득하는 동작을 포함할 수 있다.
본 발명의 다양한 실시예에 따른 전자 장치(200)의 동작 방법에서, 지정된 사이즈를 가지는 기준 신체 사이즈를 기준으로, 상기 사용자의 신체 정보를 대비한 비율을 기준 아바타 형태에 적용하여 상기 사용자 아바타를 생성하는 동작을 포함할 수 있다.
본 발명의 다양한 실시예에 따른 전자 장치(200)의 동작 방법에서, 사용자와 관련된 정보 및 상기 외부 정보를 사용자와 관련된 정보 및 외부 정보에 기반하여 아이템을 추천하는 학습 모델인 아이템 추천 모델에 입력하여 추천 아이템을 출력하는 동작을 포함할 수 있다.
본 발명의 다양한 실시예에 따른 전자 장치(200)의 동작 방법에서, 상기 사용자와 관련된 정보는 상기 사용자의 신체 사이즈, 상기 사용자의 아이템 구매 이력 및 상기 사용자가 보유한 아이템과 관련된 정보를 포함하고, 상기 외부 정보는 계절, 날씨 및 유행하는 아이템을 포함할 수 있다.
본 발명의 다양한 실시예에 따른 전자 장치(200)의 동작 방법에서, 상기 사용자가 선택한 아이템의 정보에 기반하여 상기 아이템 추천 모델을 업데이트하는 동작 및 상기 업데이트된 아이템 추천 모델을 저장하는 동작을 포함 할 수 있다.
본 발명의 다양한 실시예에 따른 전자 장치(200)의 동작 방법에서, 상기 사용자가 선택한 아이템의 일부 영역의 사이즈와 상기 사용자의 신체 영역의 사이즈 차이가 상기 사용자의 신체 사이즈 대비 지정된 비율을 초과함에 대응하여, 상기 신체 영역을 상기 불일치 영역으로 결정하는 동작을 포함할 수 있다.
본 문서의 다양한 실시 예들 및 이에 사용된 용어들은 본 문서에 기재된 기술적 특징들을 특정한 실시 예들로 한정하려는 것이 아니며, 해당 실시 예의 다양한 변경, 균등물, 또는 대체물을 포함하는 것으로 이해되어야 한다.
도면의 설명과 관련하여, 유사한 또는 관련된 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 아이템에 대응하는 명사의 단수 형은 관련된 문맥상 명백하게 다르게 지시하지 않는 한, 상기 아이템 한 개 또는 복수 개를 포함할 수 있다.
본 문서에서, "A 또는 B", "A 및 B 중 적어도 하나",“또는 B 중 적어도 하나,”"A, B 또는 C," "A, B 및 C 중 적어도 하나,”및 “B, 또는 C 중 적어도 하나"와 같은 문구들 각각은 그 문구들 중 해당하는 문구에 함께 나열된 항목들 중 어느 하나, 또는 그들의 모든 가능한 조합을 포함할 수 있다. "제 1", "제 2", 또는 "첫째" 또는 "둘째"와 같은 용어들은 단순히 해당 구성요소를 다른 해당 구성요소와 구분하기 위해 사용될 수 있으며, 해당 구성요소들을 다른 측면(예: 중요성 또는 순서)에서 한정하지 않는다. 어떤(예: 제 1) 구성요소가 다른(예: 제 2) 구성요소에, “기능적으로” 또는 “통신적으로”라는 용어와 함께 또는 이런 용어 없이, “커플드” 또는 “커넥티드”라고 언급된 경우, 그것은 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로(예: 유선으로), 무선으로, 또는 제 3 구성요소를 통하여 연결될 수 있다는 것을 의미한다.
그리고 본 명세서와 도면에 개시된 본 문서에 개시된 실시예들은 본 문서에 개시된 실시예에 따른 기술 내용을 쉽게 설명하고 본 문서에 개시된 실시예의 이해를 돕기 위해 특정 예를 제시한 것일 뿐이며, 본 문서에 개시된 실시예의 범위를 한정하고자 하는 것은 아니다. 따라서 본 문서에 개시된 다양한 실시예의 범위는 여기에 개시된 실시예들 이외에도 본 문서에 개시된 다양한 실시예의 기술적 사상을 바탕으로 도출되는 모든 변경 또는 변형된 형태가 본 문서에 개시된 다양한 실시예의 범위에 포함되는 것으로 해석되어야 한다.

Claims (20)

  1. 전자 장치에 있어서,
    통신 모듈;
    디스플레이; 및
    프로세서를 포함하고,
    상기 프로세서는
    상기 통신 모듈을 통하여 외부 전자 장치로부터 사용자를 촬영한 이미지를 획득하고,
    상기 이미지에 기반하여 상기 사용자의 신체의 적어도 일부와 관련된 깊이 지도를 생성하고,
    상기 깊이 지도에 기반하여 사용자의 신체 정보를 획득하고,
    상기 사용자의 신체 정보에 대응하는 사용자 아바타를 생성하고,
    상기 사용자와 관련된 정보에 기반하여 상기 사용자에게 아이템을 추천하고,
    상기 추천된 아이템 중에서 상기 사용자가 선택한 아이템의 정보와 상기 사용자의 신체 정보를 비교하여, 상기 사용자의 신체에 대응하는 영역 중 상기 영역의 사이즈와 상기 아이템의 사이즈가 불일치하는, 불일치 영역을 확인하고,
    상기 디스플레이에 상기 아이템을 렌더링한 사용자 아바타를 출력하고,
    상기 사용자 아바타에 상기 불일치 영역을 표시하는
    전자 장치.
  2. 제 1 항에 있어서,
    상기 프로세서는
    상기 통신 모듈을 통하여 사용자를 중심으로 원형으로 배치된 적어도 두 대 이상의 외부 전자 장치들로부터 사용자의 360도를 커버하는 복수의 이미지들을 획득하고,
    상기 외부 전자 장치는 시차를 가지는 제 1 카메라 및 제 2 카메라를 포함하여 각 카메라가 사용자를 촬영하는
    전자 장치.
  3. 제 2 항에 있어서,
    상기 프로세서는
    이미지 프레임에 타임 스탬프를 포함하는 상기 복수의 이미지들에 대하여,
    상기 타임 스탬프에 기반하여 촬영 시점이 일치하도록 상기 복수의 이미지들의 상기 이미지 프레임을 처리하는
    전자 장치.
  4. 제 2 항에 있어서,
    상기 프로세서는
    상기 외부 전자 장치들의 상기 제 1 카메라가 촬영한 이미지인 제 1 이미지들 및 상기 외부 전자 장치들의 상기 제 2 카메라가 촬영한 이미지들에 대하여 왜곡 보정 처리하고,
    상기 왜곡 보정 처리된 제 1 이미지들 및 상기 왜곡 보정 처리된 제 2 이미지들에 기반하여 상기 깊이 지도에 대응하는 복수의 제 3 이미지들을 생성하고,
    상기 복수의 제 3 이미지를 스티칭 처리하여 사용자의 360도를 커버하는 제 4 이미지를 생성하는
    전자 장치.
  5. 제 1 항에 있어서,
    상기 프로세서는
    상기 깊이 지도에 포함된 픽셀 피치(pixel pitch)와 상기 사용자의 신체 부위에 대응하는 픽셀 수에 기반하여,
    상기 사용자의 신체 정보를 획득하는
    전자 장치.
  6. 제 1 항에 있어서,
    상기 프로세서는
    지정된 사이즈를 가지는 기준 신체 사이즈를 기준으로, 상기 사용자의 신체 정보를 대비한 비율을 기준 아바타 형태에 적용하여 상기 사용자 아바타를 생성하는
    전자 장치.
  7. 제 1 항에 있어서,
    사용자와 관련된 정보 및 외부 정보에 기반하여 아이템을 추천하는 학습 모델인 아이템 추천 모델을 저장하는 메모리를 더 포함하고,
    상기 프로세서는
    상기 사용자와 관련된 정보 및 상기 외부 정보를 상기 아이템 추천 모델에 입력하여 추천 아이템을 출력하는
    전자 장치.
  8. 제 7 항에 있어서,
    상기 사용자와 관련된 정보는 상기 사용자의 신체 사이즈, 상기 사용자의 아이템 구매 이력 및 상기 사용자가 보유한 아이템과 관련된 정보를 포함하고,
    상기 외부 정보는 계절, 날씨 및 유행하는 아이템을 포함하는
    전자 장치.
  9. 제 7 항에 있어서,
    상기 프로세서는
    상기 사용자가 선택한 아이템의 정보에 기반하여 상기 아이템 추천 모델을 업데이트하고,
    상기 업데이트된 아이템 추천 모델을 상기 메모리에 저장하는
    전자 장치.
  10. 제 1 항에 있어서,
    상기 프로세서는
    상기 사용자가 선택한 아이템의 일부 영역의 사이즈와 상기 사용자의 신체 영역의 사이즈 차이가 상기 사용자의 신체 사이즈 대비 지정된 비율을 초과함에 대응하여,
    상기 신체 영역을 상기 불일치 영역으로 결정하는
    전자 장치.
  11. 전자 장치의 동작 방법에 있어서,
    외부 전자 장치로부터 사용자를 촬영한 이미지를 획득하는 동작;
    상기 이미지에 기반하여 상기 사용자의 신체의 적어도 일부와 관련된 깊이 지도를 생성하는 동작;
    상기 깊이 지도에 기반하여 사용자의 신체 정보를 획득하는 동작;
    상기 사용자의 신체 정보에 대응하는 사용자 아바타를 생성하는 동작;
    상기 사용자와 관련된 정보에 기반하여 상기 사용자에게 아이템을 추천하는 동작;
    상기 추천된 아이템 중에서 상기 사용자가 선택한 아이템의 정보와 상기 사용자의 신체 정보를 비교하여, 상기 사용자의 신체에 대응하는 영역 중 상기 영역의 사이즈와 상기 아이템의 사이즈가 불일치하는, 불일치 영역을 확인하는 동작;
    디스플레이에 상기 아이템을 렌더링한 사용자 아바타를 출력하는 동작; 및
    상기 사용자 아바타에 상기 불일치 영역을 표시하는 동작을 포함하는
    전자 장치의 동작 방법.
  12. 제 11 항에 있어서,
    사용자를 중심으로 원형으로 배치된 적어도 두 대 이상의 외부 전자 장치들로부터 사용자의 360도를 커버하는 복수의 이미지들을 획득하는 동작; 및
    상기 외부 전자 장치는 시차를 가지는 제 1 카메라 및 제 2 카메라를 포함하여 각 카메라가 사용자를 촬영하는 동작을 포함하는
    전자 장치의 동작 방법.
  13. 제 12 항에 있어서,
    이미지 프레임에 타임 스탬프를 포함하는 상기 복수의 이미지들에 대하여,
    상기 타임 스탬프에 기반하여 촬영 시점이 일치하도록 상기 복수의 이미지들의 상기 이미지 프레임을 처리하는 동작을 포함하는
    전자 장치의 동작 방법.
  14. 제 12 항에 있어서,
    상기 외부 전자 장치들의 상기 제 1 카메라가 촬영한 이미지인 제 1 이미지들 및 상기 외부 전자 장치들의 상기 제 2 카메라가 촬영한 이미지인 제 2 이미지들에 대하여 왜곡 보정 처리하고,
    상기 왜곡 보정 처리된 제 1 이미지들 및 상기 왜곡 보정 처리된 제 2 이미지들에 기반하여 상기 깊이 지도에 대응하는 복수의 제 3 이미지들을 생성하는 동작; 및
    상기 복수의 제 3 이미지를 스티칭 처리하여 사용자의 360도를 커버하는 제4 이미지를 생성하는 동작을 포함하는
    전자 장치의 동작 방법.
  15. 제 11 항에 있어서,
    상기 깊이 지도에 포함된 픽셀 피치(pixel pitch)와 상기 사용자의 신체 부위에 대응하는 픽셀 수에 기반하여,
    상기 사용자의 신체 정보를 획득하는 동작을 포함하는
    전자 장치의 동작 방법.
  16. 제 11 항에 있어서,
    지정된 사이즈를 가지는 기준 신체 사이즈를 기준으로, 상기 사용자의 신체 정보를 대비한 비율을 기준 아바타 형태에 적용하여 상기 사용자 아바타를 생성하는 동작을 포함하는
    전자 장치의 동작 방법.
  17. 제 11 항에 있어서,
    사용자와 관련된 정보 및 외부 정보를 사용자와 관련된 정보 및 외부 정보에 기반하여 아이템을 추천하는 학습 모델인 아이템 추천 모델에 입력하여 추천 아이템을 출력하는 동작을 포함하는
    전자 장치의 동작 방법.
  18. 제 17 항에 있어서,
    상기 사용자와 관련된 정보는 상기 사용자의 신체 사이즈, 상기 사용자의 아이템 구매 이력 및 상기 사용자가 보유한 아이템과 관련된 정보를 포함하고,
    상기 외부 정보는 계절, 날씨 및 유행하는 아이템을 포함하는
    전자 장치의 동작 방법.
  19. 제 17 항에 있어서,
    상기 사용자가 선택한 아이템의 정보에 기반하여 상기 아이템 추천 모델을 업데이트하는 동작; 및
    상기 업데이트된 아이템 추천 모델을 저장하는 동작을 포함하는
    전자 장치의 동작 방법.
  20. 제 11 항에 있어서,
    상기 사용자가 선택한 아이템의 일부 영역의 사이즈와 상기 사용자의 신체 영역의 사이즈 차이가 상기 사용자의 신체 사이즈 대비 지정된 비율을 초과함에 대응하여,
    상기 신체 영역을 상기 불일치 영역으로 결정하는 동작을 포함하는
    전자 장치의 동작 방법.
KR1020210110029A 2021-08-20 2021-08-20 아바타 생성 및 가상 피팅을 위한 전자 장치 및 전자 장치의 동작 방법 KR20230027817A (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020210110029A KR20230027817A (ko) 2021-08-20 2021-08-20 아바타 생성 및 가상 피팅을 위한 전자 장치 및 전자 장치의 동작 방법
PCT/KR2022/012246 WO2023022494A1 (ko) 2021-08-20 2022-08-17 아바타 생성 및 가상 피팅을 위한 전자 장치 및 전자 장치의 동작 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210110029A KR20230027817A (ko) 2021-08-20 2021-08-20 아바타 생성 및 가상 피팅을 위한 전자 장치 및 전자 장치의 동작 방법

Publications (1)

Publication Number Publication Date
KR20230027817A true KR20230027817A (ko) 2023-02-28

Family

ID=85239587

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210110029A KR20230027817A (ko) 2021-08-20 2021-08-20 아바타 생성 및 가상 피팅을 위한 전자 장치 및 전자 장치의 동작 방법

Country Status (2)

Country Link
KR (1) KR20230027817A (ko)
WO (1) WO2023022494A1 (ko)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170143223A (ko) * 2016-06-21 2017-12-29 한국전자통신연구원 3d 실감체험 콘텐츠 서비스 제공 장치 및 방법
KR20200019389A (ko) * 2018-08-14 2020-02-24 주식회사 케이티 가상 피팅 서비스를 제공하는 사용자 단말, 방법 및 가상 피팅 서비스 제공 서버
KR20200067511A (ko) * 2018-12-04 2020-06-12 신안산대학교 산학협력단 신체 사이즈를 기반으로 하는 가상 피팅 서비스 시스템
KR20200015925A (ko) * 2020-01-28 2020-02-13 주식회사 자이언소프트 가상 피팅 시스템

Also Published As

Publication number Publication date
WO2023022494A1 (ko) 2023-02-23

Similar Documents

Publication Publication Date Title
CN108421252B (zh) 一种基于ar设备的游戏实现方法和ar设备
KR20220140221A (ko) 복수의 카메라를 포함하는 웨어러블 전자 장치
KR20220036679A (ko) 증강 현실 콘텐츠를 제공하는 전자 장치 및 그의 동작 방법
US20230259205A1 (en) Electronic device and method thereof for tracking user gaze and providing augmented reality service
KR20220062938A (ko) 가상현실 서비스를 제공하는 전자 장치 및 방법
US20230196689A1 (en) Electronic device for using virtual input device and operation method in the electronic device
KR20230027817A (ko) 아바타 생성 및 가상 피팅을 위한 전자 장치 및 전자 장치의 동작 방법
US20240054694A1 (en) Electronic device for placing object according to space in augmented reality and operation method of electronic device
US20240104867A1 (en) Electronic device and method for providing augmented reality environment including adaptive multi-camera
US20230099603A1 (en) Electronic device for providing augmented reality service and operating method thereof
US20240048668A1 (en) Electronic device for supporting various communications during video call, and operating method therefor
KR20240043025A (ko) 증강 현실 객체 표시 방법 및 이를 지원하는 전자 장치
KR20230022658A (ko) 폴더블 디스플레이를 포함하는 전자 장치
KR20240058729A (ko) 렌더링 스타일이 변경된 이미지를 획득하기 위한 전자 장치 및 방법
KR20230030883A (ko) 스타일러스 펜을 이용하여 복수의 기능들을 실행하기 위한 전자 장치 및 그 작동 방법
KR20240036432A (ko) 영상을 표시하는 전자 장치 및 이의 제어 방법
KR20240020259A (ko) 근전도, 또는 이미지 중 적어도 하나에 기반하여 제스쳐를 식별하기 위한 웨어러블 장치, 방법 및 컴퓨터 판독가능 저장 매체
KR20220072066A (ko) 카메라를 포함하는 증강 현실 웨어러블 전자 장치
KR20240062865A (ko) 웨어러블 전자 장치 및 그 동작 방법
KR20220136776A (ko) 증강 현실 이미지를 제공하는 방법 및 이를 지원하는 hmd 장치
KR20240081242A (ko) 운동 보조 피드백을 제공하는 방법 및 이를 위한 전자 장치
KR20240019671A (ko) 증강 현실에서 공간에 따라 오브젝트를 배치하는 전자 장치 및 전자 장치의 동작 방법
KR20230118010A (ko) 입력 모드를 전환하는 증강 현실 장치 및 그 방법
KR20240018990A (ko) 증강 현실에서 사용자를 인증하는 장치 및 방법
KR20240043029A (ko) 이미지를 제공하는 방법 및 이를 지원하는 웨어러블 전자 장치