KR102603972B1 - Web ar 기반 비즈니스 정보를 제공하는 방법 및 장치 - Google Patents

Web ar 기반 비즈니스 정보를 제공하는 방법 및 장치 Download PDF

Info

Publication number
KR102603972B1
KR102603972B1 KR1020230048586A KR20230048586A KR102603972B1 KR 102603972 B1 KR102603972 B1 KR 102603972B1 KR 1020230048586 A KR1020230048586 A KR 1020230048586A KR 20230048586 A KR20230048586 A KR 20230048586A KR 102603972 B1 KR102603972 B1 KR 102603972B1
Authority
KR
South Korea
Prior art keywords
user
business
information
avatar
image
Prior art date
Application number
KR1020230048586A
Other languages
English (en)
Inventor
강문철
Original Assignee
주식회사 크레아코퍼레이션
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 크레아코퍼레이션 filed Critical 주식회사 크레아코퍼레이션
Priority to KR1020230048586A priority Critical patent/KR102603972B1/ko
Application granted granted Critical
Publication of KR102603972B1 publication Critical patent/KR102603972B1/ko

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/166Editing, e.g. inserting or deleting
    • G06F40/186Templates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K19/00Record carriers for use with machines and with at least a part designed to carry digital markings
    • G06K19/06Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code
    • G06K19/06009Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code with optically detectable marking
    • G06K19/06037Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code with optically detectable marking multi-dimensional coding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/14Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation using light without selection of wavelength, e.g. sensing reflected white light
    • G06K7/1404Methods for optical code recognition
    • G06K7/1408Methods for optical code recognition the method being specifically adapted for the type of code
    • G06K7/14172D bar codes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/08Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/858Linking data to content, e.g. by linking an URL to a video object, by creating a hotspot
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Business, Economics & Management (AREA)
  • Signal Processing (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Tourism & Hospitality (AREA)
  • Primary Health Care (AREA)
  • Computer Graphics (AREA)
  • Strategic Management (AREA)
  • Marketing (AREA)
  • Electromagnetism (AREA)
  • Toxicology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Business, Economics & Management (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Human Resources & Organizations (AREA)
  • Economics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

WEB AR 기반 비즈니스 정보를 제공하는 방법 및 서버가 개시된다. 본 개시의 일 실시예에 따른, 서버에 의해 수행되는, WEB AR 기반 비즈니스 정보를 제공하는 방법은, 제1 사용자가 이용하는 제1 단말 장치로부터 상기 제1 사용자의 식별 정보 및 상기 제1 사용자와 관련된 적어도 하나의 비즈니스 UI(user interface)와 관련된 정보를 수신하는 단계; 상기 제1 사용자의 식별 정보 및 상기 제1 사용자와 관련된 적어도 하나의 비즈니스 UI와 관련된 정보에 기초하여 제1 3D(dimensional) 영상을 생성하는 단계; 및 상기 제1 3D 영상이 매핑된 제1 QR(quick response) 코드를 생성하고, 상기 생성된 제1 QR 코드를 상기 제1 단말 장치로 제공하는 단계를 포함하고, 상기 제1 단말 장치를 포함하는 적어도 하나의 단말 장치에 의해 상기 제1 QR 코드가 인식됨에 기반하여, 상기 적어도 하나의 단말 장치가 현재 촬영하고 있는 화면 중 상기 제1 QR 코드에 대응되는 위치에 상기 제1 3D 영상이 표시되고, 상기 제1 3D 영상은, 상기 제1 사용자의 식별 정보에 기초한 상기 제1 사용자의 3D 아바타 및 상기 제1 사용자와 관련된 적어도 하나의 비즈니스 UI에 액세스할 수 있는 적어도 하나의 UI 엘리먼트(element)를 포함할 수 있다.

Description

WEB AR 기반 비즈니스 정보를 제공하는 방법 및 장치{METHOD AND DEVICE FOR PROVIDING WEB AR-BASED BUSINESS INFORMATION}
본 개시는 증강 현실(augmented reality, AR) 기술에 관한 것으로서, 더욱 상세하게는 WEB AR 기반 비즈니스 정보를 제공하는 방법 및 장치에 관한 것이다.
AR은 가상 현실(virtual reality, VR)의 한 분야로 실제로 존재하는 환경에 가상의 사물이나 정보를 합성하여 원래의 환경에 존재하는 사물처럼 보이도록 하는 컴퓨터 그래픽 기법을 의미한다. 즉, AR은 사용자가 눈으로 보는 현실 세계에 가상 객체를 겹쳐 보여주는 기술을 의미한다.
최근 정보통신 기술 및 인공지능 기술이 기하급수적으로 발전함에 따라 AR 기술은 본격적인 상업화 단계에 들어섰으며, 현실 세계와 융합된 가상 세계인 메타버스(metaverse), 게임, 교육 분야 뿐만 아니라 다양한 분야에 AR 기술이 접목되고 있다.
공개특허공보 제10-2023-0016266호, 2023.02.02
본 개시의 목적은 WEB AR 기반 비즈니스 정보를 제공하는 방법 및 장치를 제공함에 있다.
또한, 본 개시의 목적은 QR(quick-response) 코드 등을 통해 비즈니스 정보와 관련된 가상 객체를 증강 현실 상에서 제공하는 방법 및 장치를 제공함에 있다.
본 개시가 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
본 개시의 일 실시예에 따른, 서버에 의해 수행되는, WEB AR 기반 비즈니스 정보를 제공하는 방법은, 제1 사용자가 이용하는 제1 단말 장치로부터 상기 제1 사용자의 식별 정보 및 상기 제1 사용자와 관련된 적어도 하나의 비즈니스 UI(user interface)와 관련된 정보를 수신하는 단계; 상기 제1 사용자의 식별 정보 및 상기 제1 사용자와 관련된 적어도 하나의 비즈니스 UI와 관련된 정보에 기초하여 제1 3D(dimensional) 영상을 생성하는 단계; 및 상기 제1 3D 영상이 매핑된 제1 QR(quick response) 코드를 생성하고, 상기 생성된 제1 QR 코드를 상기 제1 단말 장치로 제공하는 단계를 포함하고, 상기 제1 단말 장치를 포함하는 적어도 하나의 단말 장치에 의해 상기 제1 QR 코드가 인식됨에 기반하여, 상기 적어도 하나의 단말 장치가 현재 촬영하고 있는 화면 중 상기 제1 QR 코드에 대응되는 위치에 상기 제1 3D 영상이 표시되고, 상기 제1 3D 영상은, 상기 제1 사용자의 식별 정보에 기초한 상기 제1 사용자의 3D 아바타 및 상기 제1 사용자와 관련된 적어도 하나의 비즈니스 UI에 액세스할 수 있는 적어도 하나의 UI 엘리먼트(element)를 포함할 수 있다.
그리고, 상기 제1 사용자의 식별 정보에 상기 제1 사용자의 아바타와 관련된 정보가 포함됨에 기반하여, 상기 제1 사용자의 아바타와 관련된 정보에 기초하여 상기 제1 3D 영상에 상기 제1 사용자의 3D 아바타가 포함되고, 상기 제1 사용자의 식별 정보에 상기 제1 사용자의 사진 및 상기 제1 사용자의 영상이 포함됨에 기반하여: 상기 제1 사용자의 사진 및 상기 제1 사용자의 영상을 미리 학습된 인공지능(artificial intelligence, AI) 모델에 입력하여 상기 제1 사용자의 3D 아바타를 획득하고, 상기 제1 사용자의 3D 아바타를 상기 제1 3D 영상에 포함될 수 있다.
그리고, 상기 식별 정보에 포함된 상기 제1 사용자의 프로필 정보를 제1 템플릿에 입력되어 상기 제1 사용자의 자기 소개 텍스트가 생성되고, 상기 제1 사용자의 자기 소개 텍스트를 TTS(text-to-speech) 모델에 입력되어 상기 자기 소개 텍스트에 대응되는 음성이 생성되고, 상기 제1 사용자의 3D 아바타가 상기 획득된 음성을 발화하는 상기 제1 3D 영상이 생성될 수 있다.
그리고, 상기 적어도 하나의 비즈니스 UI와 관련된 정보는, 상기 적어도 하나의 비즈니스 UI의 유형, 상기 적어도 하나의 비즈니스 UI에 대한 개요, 상기 적어도 하나의 비즈니스 UI에 액세스하기 위한 주소 정보, 및 상기 적어도 하나의 비즈니스 UI와 관련된 로고 이미지를 포함하고, 상기 제1 사용자와 관련된 적어도 하나의 비즈니스 UI에 액세스할 수 있는 적어도 하나의 UI 엘리먼트의 이미지 각각은 상기 적어도 하나의 비즈니스 UI와 관련된 로고 이미지에 기초하여 결정되고, 상기 적어도 하나의 단말 장치에 의해 상기 적어도 하나의 UI 엘리먼트 중 제1 UI 엘리먼트가 선택됨에 기반하여, 상기 제1 3D 영상 중 특정 영역에 상기 제1 UI 엘리먼트에 대응되는 제1 비즈니스 UI가 표시될 수 있다.
그리고, 상기 적어도 하나의 비즈니스 UI의 유형 및 개요에 대한 정보가 제2 템플릿에 입력되어 상기 적어도 하나의 비즈니스 UI의 유형 및 개요에 대한 정보를 설명하는 텍스트가 생성되고, 상기 생성된 적어도 하나의 비즈니스 UI의 유형 및 개요에 대한 정보를 설명하는 텍스트를 상기 TTS 모델에 입력하여 상기 적어도 하나의 비즈니스 UI의 유형 및 개요에 대한 정보를 설명하는 텍스트에 대응되는 음성이 생성되고, 상기 적어도 하나의 비즈니스 UI 중 제2 UI에 대응되는 제2 UI 엘리먼트가 선택되면, 상기 제1 사용자의 3D 아바타가 상기 제2 UI에 유형 및 개요에 대한 정보에 대응되는 음성을 발화하는 상기 제1 3D 영상이 생성될 수 있다.
그리고, 상기 적어도 하나의 단말 장치가 현재 촬영하고 있는 화면 상에 상기 제1 3D 영상이 표시되는 동안 제2 QR 코드가 추가로 인식됨에 기반하여, 상기 제2 QR 코드에 매핑된 제2 3D 영상이 상기 적어도 하나의 단말 장치가 현재 촬영하고 있는 화면 상기 제2 QR 코드에 대응되는 위치에 표시되고, 상기 제2 3D 영상은, 상기 제2 QR 코드와 연관된 제2 사용자의 식별 정보에 기초한 상기 제2 사용자의 3D 아바타 및 상기 제2 사용자와 관련된 적어도 하나의 비즈니스 UI에 액세스할 수 있는 적어도 하나의 UI 엘리먼트를 포함하고, 상기 제1 사용자의 3D 아바타 및 상기 제2 사용자의 3D 아바타의 음성은 교번적으로 재생될 수 있다.
본 개시의 다양한 실시예에 의해, WEB AR 기반 비즈니스 정보를 제공하는 방법 및 장치가 제공될 수 있다.
또한, 본 개시의 다양한 실시예에 의해, QR 코드 등을 통해 비즈니스 정보와 관련된 가상 객체를 증강 현실 상에서 효율적으로 제공하는 방법 및 장치가 제공될 수 있다.
본 개시의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
도 1은 본 개시의 일 실시예에 따른, WEB AR 기반 비즈니스 정보를 제공하는 방법을 구현하기 위한 시스템의 개략도이다.
도 2는 본 개시의 일 실시예에 따른, WEB AR 기반 비즈니스 정보를 제공하는 장치의 구성을 간략히 도시한 블록도이다.
도 3은 본 개시의 일 실시예에 따른, WEB AR 기반 비즈니스 정보를 제공하는 방법을 설명하기 위한 순서도이다.
도 4는 본 개시의 일 실시예에 따른, 비즈니스 정보가 포함된 3D 영상을 설명하기 위한 도면이다.
본 개시의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 개시는 이하에서 개시되는 실시예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 개시의 개시가 완전하도록 하고, 본 개시가 속하는 기술 분야의 통상의 기술자에게 본 개시의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 개시는 청구항의 범주에 의해 정의될 뿐이다.
본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 개시를 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다.
명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 개시의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 개시가 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.
공간적으로 상대적인 용어인 "아래(below)", "아래(beneath)", "하부(lower)", "위(above)", "상부(upper)" 등은 도면에 도시되어 있는 바와 같이 하나의 구성요소와 다른 구성요소과의 상관관계를 용이하게 기술하기 위해 사용될 수 있다. 공간적으로 상대적인 용어는 도면에 도시되어 있는 방향에 더하여 사용시 또는 동작 시 구성요소들의 서로 다른 방향을 포함하는 용어로 이해되어야 한다.
예를 들어, 도면에 도시되어 있는 구성요소를 뒤집을 경우, 다른 구성요소의 "아래(below)"또는 "아래(beneath)"로 기술된 구성요소는 다른 구성요소의 "위(above)"에 놓여질 수 있다. 따라서, 예시적인 용어인 "아래"는 아래와 위의 방향을 모두 포함할 수 있다. 구성요소는 다른 방향으로도 배향될 수 있으며, 이에 따라 공간적으로 상대적인 용어들은 배향에 따라 해석될 수 있다.
이하에서는 도면을 참조하여 WEB AR 기반 비즈니스 정보를 제공하는 방법 및 장치에 대해 설명한다.
도 1은 본 개시의 일 실시예에 따른, WEB AR 기반 비즈니스 정보를 제공하는 방법을 구현하는 시스템(1000)을 간략히 도시한 도면이다.
도 1에 도시된 바와 같이, WEB AR 기반 비즈니스 정보를 제공하는 방법을 구현하는 시스템(1000)은, 서버(100), 제1 사용자가 이용하는 단말 장치(200-1) 및 제2 사용자가 이용하는 단말 장치(200-2)를 포함할 수 있다.
도 1에는 서버(100)에 의해 제어/관리되는 WEB AR 기반 비즈니스 정보를 제공하는 서비스를 두 사용자(즉, 제1 사용자 및 제2 사용자)가 이용하는 경우를 도시하고 있으나 이에 제한되는 것은 아니다. 2명 이상의 복수의 사용자는 서버(100)에 의해 제어/관리되는 WEB AR 기반 비즈니스 정보를 제공받을 수 있다.
도 1에는 제1 사용자 및 제2 사용자 각각이 이용하는 단말 장치(200-1, 200-2)가 하나의 스마트 폰의 형태로 구현된 경우를 도시하고 있으나 이에 제한되는 것은 아니다.
제1 사용자 및 제2 사용자 각각이 이용하는 단말 장치(200-1, 200-2)는 상술한 바와 같이 다양한 유형의 전자 장치(예로, 스마트폰, 데스크 탑, 노트북, 태블릿 PC, 서버 장치, 웨어러블 디바이스 등) 또는 하나 이상의 유형의 전자 장치가 연결된 장치 군을 의미할 수 있다. 뿐만 아니라 서버(100) 역시 별도의 유형의 전자 장치 또는 하나 이상의 유형의 전자 장치가 연결된 장치 군으로 구현될 수 있다.
시스템(1000)에 포함된 서버(100) 및 제1 사용자 및 제2 사용자 각각이 이용하는 단말 장치(200-1, 200-2)는 네트워크(W)를 통해 통신을 수행할 수 있다.
여기서, 네트워크(W)는 유선 네트워크와 무선 네트워크를 포함할 수 있다. 예를 들어, 네트워크는 근거리 네트워크(LAN: Local Area Network), 도시권 네트워크(MAN: Metropolitan Area Network), 광역 네트워크(WAN: Wide Area Network) 등의 다양한 네트워크를 포함할 수 있다.
또한, 네트워크(W)는 공지의 월드 와이드 웹(WWW: World Wide Web)을 포함할 수도 있다. 그러나, 본 개시의 실시예에 따른 네트워크(W)는 상기 열거된 네트워크에 국한되지 않고, 공지의 무선 데이터 네트워크나 공지의 전화 네트워크, 공지의 유무선 텔레비전 네트워크를 적어도 일부로 포함할 수도 있다.
서버(100)는 WEB AR 기반 비즈니스 정보를 제공하는 방법을 구현하는 어플리케이션/웹 페이지를 생성할 수 있다. 제1 사용자 및 제2 사용자 각각이 이용하는 단말 장치(200-1, 200-2)는 서버(100)에 의해 생성된 WEB AR 기반 비즈니스 정보를 제공하는 방법을 구현하는 어플리케이션/웹 페이지를 이용할 수 있다.
서버(100)는 QR(quick response) 코드에 대응되는 3D 영상을 생성할 수 있다. 제1 사용자 및 제2 사용자 각각이 이용하는 단말 장치(200-1, 200-2)는 QR 코드를 인식함으로써 현재 제1 사용자 및 제2 사용자 각각이 이용하는 단말 장치(200-1, 200-2)가 촬영하는 화면 상에 3D 영상을 표시할 수 있다.
서버(100)가 WEB AR 기반 비즈니스 정보를 제공하는 방법은 도 3 및 도 4를 참조하여 구체적으로 설명하도록 한다.
도 2는 본 개시의 일 실시예에 따른, WEB AR 기반 비즈니스 정보를 제공하는 장치의 구성을 간략히 도시한 블록도이다.
도 2에 도시된 바와 같이, 서버(100)는 메모리(110), 통신 모듈(120), 디스플레이(130), 입력 모듈(140) 및 프로세서(150)를 포함할 수 있다. 다만, 이에 국한되는 것은 아니며, 서버(100)는 필요한 동작에 따라 당업자 관점에서 자명한 범위 내에서 소프트웨어 및 하드웨어 구성이 수정/추가/생략될 수 있다.
메모리(110)는 본 장치의 다양한 기능을 지원하는 데이터와, 제어부의 동작을 위한 프로그램을 저장할 수 있고, 입/출력되는 데이터들(예를 들어, 제1 사용자의 식별 정보, 제1 사용자와 관련된 적어도 하나의 비즈니스 UI와 관련된 정보 등)을 저장할 있고, 본 장치에서 구동되는 다수의 응용 프로그램(application program 또는 어플리케이션(application)), 본 장치의 동작을 위한 데이터들, 명령어들을 저장할 수 있다. 이러한 응용 프로그램 중 적어도 일부는, 무선 통신을 통해 외부 서버로부터 다운로드 될 수 있다.
이러한, 메모리(110)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), SSD 타입(Solid State Disk type), SDD 타입(Silicon Disk Drive type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(random access memory; RAM), SRAM(static random access memory), 롬(read-only memory; ROM), EEPROM(electrically erasable programmable read-only memory), PROM(programmable read-only memory), 자기 메모리, 자기 디스크 및 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 또한, 메모리(110)는 본 서버(100)와는 분리되어 있으나, 유선 또는 무선으로 연결된 데이터베이스가 될 수도 있다.
통신 모듈(120)은 외부 장치와 통신을 가능하게 하는 하나 이상의 구성 요소를 포함할 수 있으며, 예를 들어, 무선통신 모듈 또는 위치정보 모듈 중 적어도 하나를 포함할 수 있다.
여기서, 무선 통신 모듈은 와이파이(Wifi) 모듈, 와이브로(Wireless broadband) 모듈 외에도, GSM(global System for Mobile Communication), CDMA(Code Division Multiple Access), WCDMA(Wideband Code Division Multiple Access), UMTS(universal mobile telecommunications system), TDMA(Time Division Multiple Access), LTE(Long Term Evolution), 4G, 5G, 6G 등 다양한 무선 통신 방식을 지원하는 무선 통신 모듈을 포함할 수 있다.
무선 통신 모듈은 각종 신호(예로, 제 예를 들어, 제1 사용자의 식별 정보, 제1 사용자와 관련된 적어도 하나의 비즈니스 UI와 관련된 정보 등)를 송신하는 안테나 및 송신기(Transmitter)를 포함하는 무선 통신 인터페이스를 포함할 수 있다. 또한, 무선 통신 모듈은 제어부의 제어에 따라 무선 통신 인터페이스를 통해 제어부로부터 출력된 디지털 제어 신호를 아날로그 형태의 무선 신호로 변조하는 신호 변환 모듈을 더 포함할 수 있다.
무선 통신 모듈은 각종 신호를 수신하는 안테나 및 수신기(Receiver)를 포함하는 무선 통신 인터페이스를 포함할 수 있다. 또한, 무선 통신 모듈은 무선 통신 인터페이스를 통하여 수신한 아날로그 형태의 무선 신호를 디지털 제어 신호로 복조하기 위한 신호 변환 모듈을 더 포함할 수 있다.
디스플레이(130)는 본 서버(100)에서 처리되는 정보(예를 들어, 제1 3D 영상, 제2 3D 영상 등)를 표시(출력)한다. 예를 들어, 디스플레이는 본 서버(100)에서 구동되는 응용 프로그램(일 예로, 어플리케이션)의 실행화면 정보, 또는 이러한 실행화면 정보에 따른 UI(User Interface), GUI(Graphic User Interface) 정보를 표시할 수 있다.
입력부(140)는 영상 정보(또는 신호), 오디오 정보(또는 신호), 데이터, 또는 사용자로부터 입력되는 정보의 입력을 위한 것으로서, 사용자 입력부 등을 포함할 수 있다.
구체적으로, 사용자 입력부는 사용자로부터 정보를 입력 받기 위한 것으로서, 사용자 입력부를 통해 정보가 입력되면, 제어부는 입력된 정보에 대응되도록 본 장치의 동작을 제어할 수 있다. 이러한, 사용자 입력부는 하드웨어식 물리 키(예를 들어, 본 장치의 전면, 후면 및 측면 중 적어도 하나에 위치하는 버튼, 돔 스위치 (dome switch), 조그 휠, 조그 스위치 등) 및 소프트웨어식 터치 키를 포함할 수 있다.
일 예로서, 터치 키는, 소프트웨어적인 처리를 통해 터치스크린 타입의 디스플레이부 상에 표시되는 가상 키(virtual key), 소프트 키(soft key) 또는 비주얼 키(visual key)로 이루어지거나, 상기 터치스크린 이외의 부분에 배치되는 터치 키(touch key)로 이루어질 수 있다. 한편, 상기 가상키 또는 비주얼 키는, 다양한 형태를 가지면서 터치스크린 상에 표시되는 것이 가능하며, 예를 들어, 그래픽(graphic), 텍스트(text), 아이콘(icon), 비디오(video) 또는 이들의 조합으로 이루어질 수 있다.
프로세서(150)는 본 장치 내의 구성요소들의 동작을 제어하기 위한 알고리즘 또는 알고리즘을 재현한 프로그램에 대한 데이터를 저장하는 메모리, 및 메모리에 저장된 데이터를 이용하여 전술한 동작을 수행하는 적어도 하나의 프로세서(미도시)로 구현될 수 있다. 이때, 메모리와 프로세서는 각각 별개의 칩으로 구현될 수 있다. 또는, 메모리와 프로세서는 단일 칩으로 구현될 수도 있다.
또한, 프로세서는 이하의 도 3 및 도 4에서 설명되는 본 개시에 따른 다양한 실시 예들을 본 장치 상에서 구현하기 위하여, 위에서 살펴본 구성요소들을 중 어느 하나 또는 복수를 조합하여 제어할 수 있다.
도 3은 본 개시의 일 실시예에 따른, WEB AR 기반 비즈니스 정보를 제공하는 방법을 설명하기 위한 순서도이다.
서버는 제1 사용자가 이용하는 제1 단말 장치로부터 제1 사용자의 식별 정보 및 제1 사용자와 관련된 적어도 하나의 비즈니스 UI(user interface)와 관련된 정보를 수신할 수 있다(S310).
여기서, 제1 사용자의 식별 정보는 제1 사용자를 식별할 수 있는 각종 정보를 포함할 수 있다. 예로, 제1 사용자의 식별 정보는, 제1 사용자의 프로필 정보(예로, 제1 사용자의 이름, 전화 번호, 이메일, 사진, 영상 등), 제1 사용자의 3D 아바타와 관련된 정보 등 중의 적어도 하나를 포함할 수 있다.
또 다른 예로, 제1 사용자와 관련된 적어도 하나의 비즈니스 UI와 관련된 정보는, 제1 사용자와 관련된 적어도 하나의 비즈니스 UI의 유형(예로, 제1 사용자가 관리하는 홈페이지 UI, 제1 사용자가 운영하는 SNS UI 등), 제1 사용자와 관련된 적어도 하나의 비즈니스 UI에 대한 개요, 제1 사용자와 관련된 적어도 하나의 비즈니스 UI에 액세스하기 위한 주소 정보(예로, URL(uniform resource locator) 등), 및 제1 사용자와 관련된 적어도 하나의 비즈니스 UI와 관련된 로고 이미지 등을 포함할 수 있다.
서버는 제1 사용자의 식별 정보 및 제1 사용자와 관련된 적어도 하나의 비즈니스 UI와 관련된 정보에 기초하여 제1 3D 영상을 생성할 수 있다(S320).
여기서, 제1 3D 영상은, 제1 사용자의 식별 정보에 기초한 제1 사용자의 3D 아바타 및 제1 사용자와 관련된 적어도 하나의 비즈니스 UI에 액세스할 수 있는 적어도 하나의 UI 엘리먼트(element)를 포함할 수 있다.
일 예로, 제1 사용자의 식별 정보에 제1 사용자의 아바타와 관련된 정보(예로, 제1 사용자의 아바타를 생성하기 위한 소스 코드, 제1 사용자의 아바타의 액션 또는 대화 등)가 포함됨에 기반하여, 서버는 제1 사용자의 아바타와 관련된 정보에 기초하여 제1 사용자의 3D 아바타를 생성하고, 제1 3D 영상에 제1 사용자의 3D 아바타를 포함시킬 수 있다.
추가적으로 또는 대안적으로, 제1 사용자의 식별 정보에 제1 사용자의 사진 및 제1 사용자의 영상이 포함됨에 기반하여, 서버는 제1 사용자의 사진 및 제1 사용자의 영상을 미리 학습된 인공지능(artificial intelligence, AI) 모델에 입력하여 제1 사용자의 3D 아바타를 획득하고, 제1 사용자의 3D 아바타를 제1 3D 영상에 포함시킬 수 있다.
구체적으로, 서버는 제1 사용자의 영상에서 제1 사용자가 존재하는 영역을 추출할 수 있다. 서버는 추출된 영역에 대한 정보 또는/및 제1 사용자의 사진을 AI 모델에 입력하여 제1 사용자의 3D 아바타(또는/및 제1 사용자의 3D 아바타를 생성하기 위한 소스 코드 등)를 획득할 수 있다. 서버는 AI 모델을 통해 획득된 제1 사용자의 아바타를 3D 영상에 포함시킬 수 있다.
제1 사용자의 식별 정보에 제1 사용자의 아바타와 관련된 정보, 제1 사용자의 사진, 및 제1 사용자의 영상이 모두 포함된 경우, 서버는 제1 사용자의 아바타와 관련된 정보를 통해 하나의 제1 사용자의 제1 3D 아바타를 생성하고, 1 사용자의 사진 및 제1 사용자의 영상에 기초하여 제1 사용자의 제2 3D 아바타를 생성할 수 있다.
장치가 제1 사용자의 제1 3D 아바타 및 제2 3D 아바타를 제1 사용자가 이용하는 단말 장치로 제공할 수 있다.
일 예로, 제1 사용자는 제1 3D 아바타 중 제2 3D 아바타 중 하나를 선택할 수 있다. 서버는 제1 사용자에 의해 선택된 3D 아바타를 3D 영상에 포함시킬 수 있다.
또 다른 예로, 제1 사용자가 이용하는 단말 장치는 제1 3D 아바타 및 제2 3D 아바타의 합성 비율을 장치로 제공할 수 있다. 서버는 제공된 합성 비율에 기초하여 제1 3D 아바타 및 제2 3D 아바타를 합성시킬 수 있다. 일 예로, 2:1이라는 합성 비율이 제1 사용자가 이용하는 단말 장치로부터 수신되면, 서버는 제1 3D 아바타 및 제2 3D 아바타를 2:1 비율로 합성할 수 있다.
또 다른 예로, 서버는 제1 3D 아바타 및 제2 3D 아바타 각각의 구성 요소를 조합할 수 있는 UI를 제1 사용자가 이용하는 단말 장치로 제공할 수 있다. 제1 사용자는 해당 UI 상에서 자신의 3D 아바타를 생성할 수 있다.
본 개시의 일 예로, 서버는 제1 사용자의 식별 정보에 포함된 제1 사용자의 프로필 정보를 제1 템플릿에 입력하여 제1 사용자의 자기 소개 텍스트를 생성할 수 있다. 제1 템플릿은 자기 소개 텍스트를 생성할 수 있는 템플릿을 의미할 수 있다. 해당 템플릿에 프로필 정보가 입력될 경우, 자기 소개 텍스트가 생성될 수 있다.
서버는 제1 사용자의 자기 소개 텍스트를 TTS(text-to-speech) 모델에 입력하여 자기 소개 텍스트에 대응되는 음성을 생성할 수 있다. 서버는 제1 사용자의 3D 아바타가 TTS 모델을 통해 획득된 음성을 발화하도록 제1 3D 영상을 생성할 수 있다.
본 개시의 일 예로, 제1 사용자와 관련된 적어도 하나의 비즈니스 UI에 액세스할 수 있는 적어도 하나의 UI 엘리먼트의 이미지 각각은 적어도 하나의 비즈니스 UI와 관련된 로고 이미지에 기초하여 결정될 수 있다.
추가적으로 또는 대안적으로, 서버는 적어도 하나의 비즈니스 UI에 액세스할 때 해당 비즈니스 UI에 포함되어 있는 각종 이미지를 획득할 수 있다. 서버는 획득된 각종 이미지를 대응되는 비즈니스 UI에 대응되는 UI 엘리먼트 이미지로 결정할 수 있다.
본 개시의 일 예로, 서버는 적어도 하나의 비즈니스 UI의 유형(예로, 제1 사용자가 운영하는 회사의 홈페이지 UI, 제1 사용자가 운영하는 SNS UI 등) 및 개요(즉, 적어도 하나의 비즈니스 UI에 포함되어 있는 정보의 요약)에 대한 정보를 제2 템플릿에 입력하여 적어도 하나의 비즈니스 UI의 유형 및 개요에 대한 정보를 설명하는 텍스트를 생성할 수 있다.
서버는 생성된 적어도 하나의 비즈니스 UI의 유형 및 개요에 대한 정보를 설명하는 텍스트를 상기 TTS 모델에 입력하여 적어도 하나의 비즈니스 UI의 유형 및 개요에 대한 정보를 설명하는 텍스트에 대응되는 음성을 생성할 수 있다.
추가적으로 또는 대안적으로, 특정 비즈니스 UI에 대응되는 개요에 대한 정보가 수신되지 않을 경우, 서버는 특정 비즈니스 UI에 액세스한 후 특정 비즈니스 UI에 포함된 적어도 하나의 컨텐츠(예로, 텍스트, 이미지, 동영상 등)을 크롤링(crawling)할 수 있다. 서버는 크롤링된 적어도 하나의 컨텐츠를 별도의 AI 모델에 입력하여 적어도 하나의 컨텐츠에 대한 요약 정보를 획득할 수 있다. 해당 AI는 입력된 컨텐츠의 요약 정보를 출력하도록 학습된 인공지능 모델일 수 있다.
서버는 획득된 적어도 하나의 컨텐츠에 대한 요약 정보를 특정 비즈니스 UI에 대한 개요로서 활용할 수 있다.
서버는 제1 3D 영상이 매핑된 제1 QR(quick response) 코드를 생성하고, 생성된 제1 QR 코드를 제1 단말 장치로 제공할 수 있다(S330). 즉, 서버는 제1 3D 영상을 재생할 수 있는(즉, 제1 3D 영상에 액세스할 수 있는) 제1 QR 코드를 제1 단말 장치로 제공할 수 있다.
제1 QR 코드는 제1 사용자의 명함 및/또는 보고서와 같이 실물 자료에 부착되어 있을 수 있으나 이에 제한되는 것은 아니다. 제1 QR 코드는 제1 사용자가 운영하는 각종 웹 사이트/어플리케이션 화면 상에 표시되어 있을 수도 있다.
제1 단말 장치를 포함하는 적어도 하나의 단말 장치에 의해 제1 QR 코드가 인식됨에 기반하여, 적어도 하나의 단말 장치가 현재 촬영하고 있는 화면 중 제1 QR 코드에 대응되는 위치에 제1 3D 영상이 표시될 수 있다.
구체적으로, 제1 단말 장치를 포함하는 적어도 하나의 단말 장치는 제1 QR 코드를 인식하기 위하여 카메라 어플리케이션을 실행할 수 있다. 카메라 어플리케이션을 통해 제1 QR 코드가 인식되면, 제1 단말 장치를 포함하는 적어도 하나의 단말 장치에서 표시되는 화면(즉, 현재 촬영하고 있는 화면) 중 제1 QR 코드에 대응되는 위치(예로, 제1 QR 코드 주변 공간)에 제1 3D 영상이 표시될 수 있다. 즉, 제1 3D 영상이 증강 현실 상에서 제공될 수 있다.
본 개시의 일 예로, 적어도 하나의 단말 장치에 의해 제1 3D 영상에 표시되는 적어도 하나의 UI 엘리먼트 중 제1 UI 엘리먼트가 선택됨에 기반하여, 3D 영상 중 특정 영역에 제1 UI 엘리먼트에 대응되는 제1 비즈니스 UI가 표시될 수 있다.
본 개시의 또 다른 예로, 적어도 하나의 비즈니스 UI 중 제2 UI에 대응되는 제2 UI 엘리먼트가 선택되면, 제1 사용자의 3D 아바타가 제2 UI에 유형 및 개요에 대한 정보에 대응되는 음성을 발화하는 제1 3D 영상이 재생/생성될 수 있다.
본 개시의 일 예로, 도 4에 도시된 바와 같이, 제1 단말 장치가 명함에 존재하는 제1 QR 코드(10)를 인식한 경우, 제1 단말 장치는 현재 촬영하고 있는 화면 상에서 제1 3D 영상을 재생할 수 있다.
제1 3D 영상 상에 제1 사용자의 3D 아바타(20)는 미리 생성된 음성을 출력하거나 미리 정의된 액션을 수행할 수 있다. 또한, 제1 3D 영상 상에는 적어도 하나의 비즈니스 UI에 액세스할 수 있는 적어도 하나의 UI 엘리먼트(30-1, 30-2, 30-3)을 포함할 수 있다.
본 개시의 추가적인 예시로, 적어도 하나의 단말 장치가 현재 촬영하고 있는 화면 상에 제1 3D 영상이 표시되는 동안 제2 QR 코드가 추가로 인식됨에 기반하여, 제2 QR 코드에 매핑된 제2 3D 영상이 제2 QR 코드에 대응되는 위치(예로, 제2 QR 코드 주변 공간)에 표시될 수 있다.
제2 3D 영상은 제2 QR 코드와 연관된 제2 사용자의 식별 정보에 기초한 제2 사용자의 3D 아바타 및 제2 사용자와 관련된 적어도 하나의 비즈니스 UI에 액세스할 수 있는 적어도 하나의 UI 엘리먼트를 포함할 수 있다.
이 때, 제1 사용자의 3D 아바타 및 제2 사용자의 3D 아바타의 음성은 교번적으로 재생될 수 있다. 제1 사용자의 3D 아바타 및 제2 사용자의 3D 아바타 음성 재생 순서는 적어도 하나의 단말 장치에 의해 결정될 수 있다. 추가적으로 또는 대안적으로, 적어도 하나의 단말 장치에 의해 제1 사용자의 3D 아바타 및 제2 사용자의 3D 아바타 중 하나는 음성을 발화하지 않도록 제어할 수 있다.
추가적으로 또는 대안적으로, 서버는 적어도 하나의 사용자가 이용하는 단말 장치로 메타버스 플랫폼을 제공할 수 있다. 해당 메타버스 플랫폼에는 제1 사용자의 3D 아바타 및 제2 사용자의 3D 아바타가 포함될 수 있다. 제1 사용자의 3D 아바타 및 제2 사용자의 3D 아바타 중 특정 3D 아바타가 선택되면, 특정 3D 아바타 및 특정 3D 아바타에 연관된 적어도 하나의 비즈니스 UI가 메타버스 플랫폼 상에 제공될 수 있다.
한편, 개시된 실시예들은 컴퓨터에 의해 실행 가능한 명령어를 저장하는 기록매체의 형태로 구현될 수 있다. 명령어는 프로그램 코드의 형태로 저장될 수 있으며, 프로세서에 의해 실행되었을 때, 프로그램 모듈을 생성하여 개시된 실시예들의 동작을 수행할 수 있다. 기록매체는 컴퓨터로 읽을 수 있는 기록매체로 구현될 수 있다.
컴퓨터가 읽을 수 있는 기록매체로는 컴퓨터에 의하여 해독될 수 있는 명령어가 저장된 모든 종류의 기록 매체를 포함한다. 예를 들어, ROM(Read Only Memory), RAM(Random Access Memory), 자기 테이프, 자기 디스크, 플래쉬 메모리, 광 데이터 저장장치 등이 있을 수 있다.
이상에서와 같이 첨부된 도면을 참조하여 개시된 실시예들을 설명하였다. 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자는 본 개시의 기술적 사상이나 필수적인 특징을 변경하지 않고도, 개시된 실시예들과 다른 형태로 본 개시가 실시될 수 있음을 이해할 것이다. 개시된 실시예들은 예시적인 것이며, 한정적으로 해석되어서는 안 된다.
110: 메모리
120: 통신 모듈
130: 디스플레이
140: 입력 모듈
150: 프로세서

Claims (6)

  1. 서버에 의해 수행되는, WEB AR 기반 비즈니스 정보를 제공하는 방법에 있어서, 상기 방법은:
    제1 사용자가 이용하는 제1 단말 장치로부터 상기 제1 사용자의 식별 정보 및 상기 제1 사용자와 관련된 적어도 하나의 비즈니스 UI(user interface)와 관련된 정보를 수신하는 단계;
    상기 제1 사용자의 식별 정보 및 상기 제1 사용자와 관련된 적어도 하나의 비즈니스 UI와 관련된 정보에 기초하여 제1 3D(dimensional) 영상을 생성하는 단계; 및
    상기 제1 3D 영상이 매핑된 제1 QR(quick response) 코드를 생성하고, 상기 생성된 제1 QR 코드를 상기 제1 단말 장치로 제공하는 단계를 포함하고,
    상기 제1 QR 코드는, 상기 제1 사용자의 명함 또는 보고서에 부착되거나 상기 제1 사용자가 운영하는 웹 사이트 화면 또는 어플리케이션 화면 상에 표시되고,
    적어도 하나의 단말 장치가 카메라 어플리케이션을 통해 상기 명함, 상기 보고서, 상기 제1 사용자가 운영하는 웹 사이트 화면 또는 상기 어플리케이션 화면 상의 상기 제1 QR 코드를 인식한 경우, 상기 적어도 하나의 단말 장치는 상기 제1 QR 코드에 대응되는 제1 3D 영상을 표시하고,
    상기 제1 3D 영상은, 상기 제1 사용자의 식별 정보에 기초한 상기 제1 사용자의 3D 아바타 및 상기 제1 사용자와 관련된 적어도 하나의 비즈니스 UI에 액세스할 수 있는 적어도 하나의 UI 엘리먼트(element)를 포함하고,
    상기 제1 사용자의 식별 정보에 상기 제1 사용자의 사진 및 상기 제1 사용자의 영상이 포함됨에 기반하여, 상기 제1 사용자의 영상 중 상기 제1 사용자가 존재하는 영역에 대한 정보 및 상기 제1 사용자의 사진이 인공지능(artificial intelligence, AI) 모델에 입력되어 상기 제1 사용자의 제1 3D 아바타가 생성되고,
    상기 제1 사용자의 식별 정보에 상기 제1 사용자의 아바타를 생성하기 위한 소스 코드 및 상기 제1 사용자의 아바타와 관련된 액션 및 대화가 포함됨에 기반하여, 상기 제1 사용자의 아바타를 생성하기 위한 소스 코드 및 상기 제1 사용자의 아바타와 관련된 액션 및 대화를 통해 상기 제1 사용자의 제2 3D 아바타가 생성되고,
    상기 제1 단말 장치로부터 제공된 합성 비율에 따라 상기 제1 3D 아바타 및 상기 제2 3D 아바타가 합성됨으로써 상기 제1 사용자의 3D 아바타가 생성되는, 방법.
  2. 삭제
  3. 제1항에 있어서,
    상기 식별 정보에 포함된 상기 제1 사용자의 프로필 정보가 제1 템플릿에 입력되어 상기 제1 사용자의 자기 소개 텍스트가 생성되고,
    상기 제1 사용자의 자기 소개 텍스트가 TTS(text-to-speech) 모델에 입력되어 상기 자기 소개 텍스트에 대응되는 음성이 생성되고,
    상기 제1 사용자의 3D 아바타가 상기 자기 소개 텍스트에 대응되는 음성을 발화하는 상기 제1 3D 영상이 생성되는, 방법.
  4. 제3항에 있어서,
    상기 적어도 하나의 비즈니스 UI와 관련된 정보는, 상기 적어도 하나의 비즈니스 UI의 유형, 상기 적어도 하나의 비즈니스 UI에 대한 개요, 상기 적어도 하나의 비즈니스 UI에 액세스하기 위한 주소 정보, 및 상기 적어도 하나의 비즈니스 UI와 관련된 로고 이미지를 포함하고,
    상기 제1 사용자와 관련된 적어도 하나의 비즈니스 UI에 액세스할 수 있는 적어도 하나의 UI 엘리먼트의 이미지 각각은 상기 적어도 하나의 비즈니스 UI와 관련된 로고 이미지에 기초하여 결정되고,
    상기 적어도 하나의 단말 장치에 의해 상기 적어도 하나의 UI 엘리먼트 중 제1 UI 엘리먼트가 선택됨에 기반하여, 상기 제1 3D 영상 중 특정 영역에 상기 제1 UI 엘리먼트에 대응되는 제1 비즈니스 UI가 표시되는, 방법.
  5. 제4항에 있어서,
    상기 적어도 하나의 비즈니스 UI의 유형 및 개요에 대한 정보가 제2 템플릿에 입력되어 상기 적어도 하나의 비즈니스 UI의 유형 및 개요에 대한 정보를 설명하는 텍스트가 생성되고,
    상기 생성된 적어도 하나의 비즈니스 UI의 유형 및 개요에 대한 정보를 설명하는 텍스트를 상기 TTS 모델에 입력하여 상기 적어도 하나의 비즈니스 UI의 유형 및 개요에 대한 정보를 설명하는 텍스트에 대응되는 음성이 생성되고,
    상기 적어도 하나의 비즈니스 UI 중 제2 UI에 대응되는 제2 UI 엘리먼트가 선택되면, 상기 제1 사용자의 3D 아바타가 상기 제2 UI에 유형 및 개요에 대한 정보에 대응되는 음성을 발화하는 상기 제1 3D 영상이 생성되는, 방법.
  6. 삭제
KR1020230048586A 2023-04-13 2023-04-13 Web ar 기반 비즈니스 정보를 제공하는 방법 및 장치 KR102603972B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020230048586A KR102603972B1 (ko) 2023-04-13 2023-04-13 Web ar 기반 비즈니스 정보를 제공하는 방법 및 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020230048586A KR102603972B1 (ko) 2023-04-13 2023-04-13 Web ar 기반 비즈니스 정보를 제공하는 방법 및 장치

Publications (1)

Publication Number Publication Date
KR102603972B1 true KR102603972B1 (ko) 2023-11-21

Family

ID=88981777

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020230048586A KR102603972B1 (ko) 2023-04-13 2023-04-13 Web ar 기반 비즈니스 정보를 제공하는 방법 및 장치

Country Status (1)

Country Link
KR (1) KR102603972B1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150093090A (ko) * 2014-02-06 2015-08-17 삼성전자주식회사 복수의 디스플레이들을 제어하는 전자 장치 및 방법
KR20160067373A (ko) * 2014-12-04 2016-06-14 김상백 아바타를 이용한 신변제품 착용 스타일 정보 제공 시스템 및 그 운용방법
KR20160068186A (ko) * 2014-12-05 2016-06-15 주식회사 서머너즈엔터테인먼트 증강 현실 컨텐츠 제공 장치 및 방법
KR20170018930A (ko) * 2014-06-14 2017-02-20 매직 립, 인코포레이티드 가상 및 증강 현실을 생성하기 위한 방법들 및 시스템들
KR20230016266A (ko) 2021-07-26 2023-02-02 한국과학기술원 Web AR 기법을 활용한 동영상 명함 제작 및 상영 방법과 시스템

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150093090A (ko) * 2014-02-06 2015-08-17 삼성전자주식회사 복수의 디스플레이들을 제어하는 전자 장치 및 방법
KR20170018930A (ko) * 2014-06-14 2017-02-20 매직 립, 인코포레이티드 가상 및 증강 현실을 생성하기 위한 방법들 및 시스템들
KR20160067373A (ko) * 2014-12-04 2016-06-14 김상백 아바타를 이용한 신변제품 착용 스타일 정보 제공 시스템 및 그 운용방법
KR20160068186A (ko) * 2014-12-05 2016-06-15 주식회사 서머너즈엔터테인먼트 증강 현실 컨텐츠 제공 장치 및 방법
KR20230016266A (ko) 2021-07-26 2023-02-02 한국과학기술원 Web AR 기법을 활용한 동영상 명함 제작 및 상영 방법과 시스템

Similar Documents

Publication Publication Date Title
CN107770626B (zh) 视频素材的处理方法、视频合成方法、装置及存储介质
CN109819313B (zh) 视频处理方法、装置及存储介质
CN110827378B (zh) 虚拟形象的生成方法、装置、终端及存储介质
JP7084457B2 (ja) 画像の生成方法、生成装置、電子機器、コンピュータ可読媒体およびコンピュータプログラム
CN110865708B (zh) 虚拟内容载体的交互方法、介质、装置和计算设备
CN108924622B (zh) 一种视频处理方法及其设备、存储介质、电子设备
CN112068762B (zh) 应用程序的界面显示方法、装置、设备及介质
CN107155138A (zh) 视频播放跳转方法、设备及计算机可读存储介质
JPWO2018142756A1 (ja) 情報処理装置及び情報処理方法
CN105335036A (zh) 一种输入交互方法和输入法***
CN105025378A (zh) 字幕添加***和方法
WO2018135246A1 (ja) 情報処理システム及び情報処理装置
CN110800314B (zh) 计算机***、远程操作通知方法以及记录介质
CN105191328A (zh) 显示装置和向显示装置提供用户接口的方法
KR101831802B1 (ko) 적어도 하나의 시퀀스에 대한 가상현실 컨텐츠 제작방법 및 장치
CN110930517A (zh) 一种全景视频交互***及方法
CN105225103A (zh) 继续支付***和方法
CN111158924A (zh) 内容分享方法、装置、电子设备及可读存储介质
US10120539B2 (en) Method and device for setting user interface
CN114979785A (zh) 视频处理方法和相关装置
CN111651049B (zh) 交互方法、装置、计算机设备及存储介质
KR101694303B1 (ko) 편집형 영상 객체 생성 장치 및 방법
CN104657991A (zh) 一种图片处理的方法
KR102603972B1 (ko) Web ar 기반 비즈니스 정보를 제공하는 방법 및 장치
CN112843681A (zh) 虚拟场景控制方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant