KR102497324B1 - Method and device for controlling space-based digital signage outputting 3d content - Google Patents

Method and device for controlling space-based digital signage outputting 3d content Download PDF

Info

Publication number
KR102497324B1
KR102497324B1 KR1020220103837A KR20220103837A KR102497324B1 KR 102497324 B1 KR102497324 B1 KR 102497324B1 KR 1020220103837 A KR1020220103837 A KR 1020220103837A KR 20220103837 A KR20220103837 A KR 20220103837A KR 102497324 B1 KR102497324 B1 KR 102497324B1
Authority
KR
South Korea
Prior art keywords
image
display
information
content
user terminal
Prior art date
Application number
KR1020220103837A
Other languages
Korean (ko)
Inventor
배은석
Original Assignee
(주) 티나쓰리디
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주) 티나쓰리디 filed Critical (주) 티나쓰리디
Priority to KR1020220103837A priority Critical patent/KR102497324B1/en
Application granted granted Critical
Publication of KR102497324B1 publication Critical patent/KR102497324B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/414Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
    • H04N21/41407Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance embedded in a portable device, e.g. video client on a mobile phone, PDA, laptop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0241Advertisements
    • G06Q30/0251Targeted advertisements
    • G06Q30/0267Wireless devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • H04N13/117Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/156Mixing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/189Recording image signals; Reproducing recorded image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/383Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/4508Management of client data or end-user data
    • H04N21/4524Management of client data or end-user data involving the geographical location of the client
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/4508Management of client data or end-user data
    • H04N21/4532Management of client data or end-user data involving end-user characteristics, e.g. viewer profile, preferences
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/812Monomedia components thereof involving advertisement data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Business, Economics & Management (AREA)
  • Databases & Information Systems (AREA)
  • Marketing (AREA)
  • Strategic Management (AREA)
  • Finance (AREA)
  • Accounting & Taxation (AREA)
  • Development Economics (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Game Theory and Decision Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Economics (AREA)
  • Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

According to various embodiments, a digital signage control server providing 3D space-based content may include: a data management part that obtains a content production request signal or a content display request signal including image information from an external terminal, and generates an image DB based on the obtained image information; an output image generation part that generates an image output through an electric signboard including at least one of a first display and a second display; and a 3D image output part that performs pre-processing on the image and outputs the image to the electric signboard.

Description

3D 콘텐츠를 출력하는 공간 기반의 디지털 사이니지 제어 방법 및 그 장치{METHOD AND DEVICE FOR CONTROLLING SPACE-BASED DIGITAL SIGNAGE OUTPUTTING 3D CONTENT}Space-based digital signage control method and device for outputting 3D contents

본 발명은 3D 콘텐츠를 출력하는 공간 기반의 디지털 사이니지 제어 방법 및 그 장치에 관한 것으로, 더욱 상세하게는 적어도 하나 이상의 디스플레이를 이용하여 3D 콘텐츠를 출력하는 디지털 사이니지 제어 방법 및 그 장치에 관한 것이다.The present invention relates to a space-based digital signage control method and apparatus for outputting 3D contents, and more particularly, to a digital signage control method and apparatus for outputting 3D contents using at least one display. .

종래 컨텐츠 제공 방식은, 광고 컨텐트가 게시된 전단지를 오프라인(off-line)으로 제공하거나 인터넷, TV나 라디오 등에 온라인(on-line)으로 제공하는 것이 일반적이었다. 다만, 이러한 종래 컨텐츠 제공 방식은, 이용자에게 고정된 정보를 일방적으로 제공할 뿐만 아니라 컨텐츠에 대한 소유자와 제작자가 상이하여 기 제작된 컨텐츠의 빠른 수정, 변경, 업데이트 등이 용이하지 않다. 따라서, 최근에는 디지털 사이니지를 통해 컨텐츠를 제공하는 방식이 대두되고 있다.In the conventional content providing method, it is common to provide flyers on which advertising content is posted offline (off-line) or to provide online (on-line) Internet, TV or radio. However, such a conventional content provision method not only provides fixed information to users unilaterally, but also makes it difficult to quickly modify, change, or update pre-produced content because the owners and creators of the content are different. Therefore, recently, a method of providing content through digital signage has emerged.

디지털 사이니지(digital signage)는 디지털 정보 디스플레이(digital information display)를 이용한 컨텐츠 표시 수단으로, 서버에서 통신망을 통해 컨텐츠를 제어할 수 있는 것을 말한다. 지하철 역사, 버스 정류장, 아파트 엘리베이터, 건물 외관, 은행 등 유동 인구가 많은 곳에서 흔히 볼 수 있으며, 현재는 단순히 2D 동영상 형태에 소리를 곁들인 광고를 시간대별로 번갈아 노출하는 형식이 대부분이다.A digital signage is a means for displaying content using a digital information display, and means that a server can control content through a communication network. It is common in places with a large floating population, such as subway stations, bus stops, apartment elevators, building exteriors, and banks, and currently, most of them are simply 2D video ads with sound alternately exposed at different times of the day.

다만, 최근에는 사람들에게 더욱더 흥미로운 컨텐츠를 제공하거나 컨텐츠를 효율적으로 제공하기 위하여 적어도 하나의 디스플레이를 통해 3D 입체 영상을 노출시키는 경우가 늘어나고 있다. 예를 들어, 옥외 공간에서 실재감이 느껴지는 거대한 파도가 두개의 디스플레이를 통해 3D 입체 영상으로 노출되는 경우도 있다. 따라서, 이를 바탕으로 사용자들에게 컨텐츠를 제공함에 있어서, 다양한 환경(예: 실내 공간, 좁은 공간)에서도 컨텐츠를 제공하고, 일방적인 정보 제공이 아닌 사용자와의 양방향 교류를 통해 맞춤형 컨텐츠를 적절한 장소에서 노출하는 방안이 마련될 필요가 있다.However, in recent years, cases in which 3D stereoscopic images are exposed through at least one display are increasing in order to provide more interesting content to people or efficiently provide content. For example, in some cases, a huge wave that feels real in an outdoor space is exposed as a 3D stereoscopic image through two displays. Therefore, in providing content to users based on this, providing content in various environments (e.g., indoor space, narrow space), and providing customized content in an appropriate place through interactive exchange with users rather than one-way information provision. A method of exposure needs to be devised.

상기와 같은 문제점을 해결하기 위한 본 발명의 목적은, 복수개의 디스플레이를 이용하여 공간 기반의 디지털 사이니지를 제어하는 방법 및 그 장치를 제공하는데 있다.An object of the present invention to solve the above problems is to provide a method and apparatus for controlling space-based digital signage using a plurality of displays.

상기와 같은 문제점을 해결하기 위한 본 발명의 다른 목적은, 본 문서를 통해 직접적 또는 간접적으로 파악되는 목적들을 추가로 제공할 수 있다.Another object of the present invention for solving the above problems may further provide objects directly or indirectly identified through this document.

다양한 실시 예에 따르면, 3D 공간 기반의 콘텐츠를 제공하는 디지털 사이니지 제어 서버는, 외부 단말로부터 컨텐츠 제작 의뢰 신호 또는 영상 정보를 포함하는 컨텐츠 전시 의뢰 신호를 획득하고, 획득된 상기 영상 정보에 기반하여 영상 DB를 생성하는 데이터 관리부; 제1 디스플레이 및 제2 디스플레이 중 적어도 하나 이상을 포함하는 전광판을 통해 출력되는 영상을 생성하는 출력 영상 생성부; 및 상기 영상에 대하여 전처리를 수행하며, 상기 전광판에 상기 영상을 출력하는 3D 영상 출력부를 포함할 수 있다.According to various embodiments, a digital signage control server providing 3D space-based content obtains a content production request signal or a content display request signal including image information from an external terminal, and based on the obtained image information a data management unit generating an image DB; an output image generation unit that generates an image output through an electric signboard including at least one of a first display and a second display; and a 3D image output unit that performs pre-processing on the image and outputs the image to the display board.

다양한 실시 예에 따르면, 상기 출력 영상 생성부는, 상기 전광판의 설치 정보 및 상기 전광판의 해상도 정보를 획득하고, 관람자의 위치를 결정하고, 결정된 관람자의 위치에서 상기 전광판에 대한 시선 방향을 결정하고, 상기 전광판의 크기 정보에 기반하여 제작된 3D 영상을 1차 렌더링하고, 1차 렌더링한 상기 3D 영상이 상기 시선 방향으로 전광판에 프로젝트되어 표시된 이미지를 획득하고, 획득된 상기 이미지의 제1 부분에 대하여 베이크(bake)하고, 상기 이미지의 제2 부분에 대하여 베이크하고, 베이크된 상기 제1 부분 및 상기 제2 부분을 합성하여 상기 전광판에 출력될 최종 3D 영상을 생성할 수 있다.According to various embodiments, the output image generating unit obtains installation information of the electronic signboard and resolution information of the electronic signboard, determines a viewer's location, determines a gaze direction with respect to the electronic signboard from the determined viewer's position, and A 3D image produced based on the size information of the signboard is firstly rendered, the 3D image rendered firstly is projected on the signboard in the direction of the line of sight to obtain a displayed image, and a first part of the obtained image is baked. (bake), bake the second part of the image, and synthesize the baked first part and the second part to generate a final 3D image to be output to the electric signboard.

다양한 실시 예에 따르면, 3D 공간 기반의 콘텐츠를 제공하는 디지털 사이니지 제어 서버는, 외부 단말로부터 컨텐츠 제작 의뢰 신호 또는 영상 정보를 포함하는 컨텐츠 전시 의뢰 신호를 획득하고, 획득된 상기 영상 정보에 기반하여 영상 DB를 생성하는 데이터 관리부; 제1 디스플레이 및 제2 디스플레이를 통해 출력되는 영상에 대하여 전처리를 수행하며, 상기 제1 디스플레이에 제1 영상을 출력하고, 상기 제2 디스플레이에 제2 영상을 출력하는 3D 영상 출력부; 상기 서버와 연동된 비콘의 비콘 신호를 수신한 사용자 단말로부터 식별 코드를 획득하고, 상기 식별 코드에 기초하여 상기 사용자 단말의 위치 정보를 획득하는 관람자 식별부; 및 상기 콘텐츠와 관련된 광고 정보를 상기 사용자 단말에 제공하는 서비스 제공부를 포함할 수 있다.According to various embodiments, a digital signage control server providing 3D space-based content obtains a content production request signal or a content display request signal including image information from an external terminal, and based on the obtained image information a data management unit generating an image DB; a 3D image output unit which pre-processes images output through a first display and a second display, outputs a first image to the first display, and outputs a second image to the second display; a spectator identification unit obtaining an identification code from a user terminal that has received a beacon signal of a beacon interlocked with the server, and acquiring location information of the user terminal based on the identification code; and a service provider providing advertisement information related to the content to the user terminal.

다양한 실시 예에 따르면, 상기 제1 영상은 제1 뎁스 정보 및 제1 시점 정보를 포함하고, 상기 제2 영상은 제2 뎁스 정보 및 제2 시점 정보를 포함하고, 상기 3D 영상 출력부는, 상기 제1 디스플레이 및 상기 제2 디스플레이 간 각도에 따라 상기 제1 영상 및 상기 제2 영상 각각의 뎁스 정보 및 시점 정보를 변경하고, 상기 제1 영상 및 상기 제2 영상 간 아나몰픽 일루션에 기반하여 특정 영역에서 상기 콘텐츠가 3D 입체 영상인 제3 영상으로 보이도록 할 수 있다.According to various embodiments, the first image includes first depth information and first view information, the second image includes second depth information and second view information, and the 3D image output unit Depth information and viewpoint information of each of the first image and the second image are changed according to an angle between the first display and the second display, and based on the anamorphic illusion between the first image and the second image, the depth information and viewpoint information are changed in a specific area. The content may be displayed as a third image that is a 3D stereoscopic image.

다양한 실시 예에 따르면, 상기 3D 영상 출력부는, 상기 관람자 식별부를 통해 상기 사용자 단말을 인식하고, 인식된 상기 사용자 단말의 사용자의 관심 정보를 획득하고, 상기 영상 DB를 통해 획득된 상기 관심 정보에 대응하는 콘텐츠를 서칭하고, 서칭된 상기 콘텐츠에 대응하는 영상을 상기 제1 디스플레이 및 상기 제2 디스플레이를 통해 출력할 수 있다.According to various embodiments, the 3D image output unit recognizes the user terminal through the viewer identification unit, obtains user interest information of the recognized user terminal, and corresponds to the interest information obtained through the image DB. content may be searched, and an image corresponding to the searched content may be output through the first display and the second display.

다양한 실시 예에 따르면, 상기 3D 영상 출력부는, 상기 제1 디스플레이 및 상기 제2 디스플레이 각각이 설치된 각도에 따라, 상기 제3 영상이 3D로 보이기 위한 최적의 시청 최적 영역을 결정하되, 상기 제1 영상의 제1 뎁스 정보와 제1 시점 정보, 및 상기 제2 영상의 제2 뎁스 정보와 제2 시점 정보에 따라 시청 최적 영역을 결정하고, 상기 시청 최적 영역은 상기 각도에 따라 상기 제1 디스플레이와 상기 제2 디스플레이가 접하는 모서리를 기준으로 미리 설정된 거리 범위 및 미리 설정된 방향, 미리 설정된 각도 범위에 해당되는 영역일 수 있다.According to various embodiments, the 3D image output unit determines an optimum viewing area for viewing the third image in 3D according to an angle at which each of the first display and the second display is installed, and An optimal viewing area is determined according to first depth information and first viewpoint information of the second image and second depth information and second viewpoint information of the second image, and the viewing optimal region is determined by the first display and the It may be an area corresponding to a preset distance range, a preset direction, and a preset angular range based on an edge contacting the second display.

다양한 실시 예에 따르면, 상기 서비스 제공부는, 상기 사용자 단말과 상기 비콘 사이의 거리, 상기 사용자 단말이 상기 시청 최적 영역에 위치하는 시간, 상기 시청 최적 영역에 위치한 최근 1시간 동안 사용자 단말들의 수, 상기 시청 최적 영역에 최근 1시간 동안 드나든 사용자 단말들의 수에 기초하여, 상기 사용자 단말을 타겟 단말로 결정하고, 상기 사용자 단말에 상기 콘텐츠와 관련된 광고 정보를 제공할 수 있다.According to various embodiments, the service providing unit may include a distance between the user terminal and the beacon, a time when the user terminal is located in the viewing optimal area, the number of user terminals located in the viewing optimal area for the last 1 hour, the The user terminal may be determined as a target terminal based on the number of user terminals that have been in and out of the viewing optimum area during the last hour, and advertisement information related to the content may be provided to the user terminal.

본 문서에 개시되는 다양한 실시 예들에 따르면, 사용자들에게 시선을 주목시킬 수 있는 3D 입체 영상을 통해 컨텐츠를 제공할 수 있다.According to various embodiments disclosed in this document, content may be provided through a 3D stereoscopic image capable of drawing attention to users.

또한, 다양한 실시 예들에 따르면, 무분별한 컨텐츠 제공이 아닌, 사용자의 특성을 고려하여 시간대별로 맞춤형 컨텐츠를 제공할 수 있다.In addition, according to various embodiments, customized content may be provided for each time zone in consideration of the user's characteristics, rather than indiscriminately providing content.

이 외에, 본 문서를 통해 직접적 또는 간접적으로 파악되는 다양한 효과들이 제공될 수 있다.In addition to this, various effects identified directly or indirectly through this document may be provided.

도 1은 일 실시 예에 따른 시스템을 도시한 도면이다.
도 2는 서버의 주요 구성 요소를 나타낸 도면이다.
도 3a 내지 도 3e는 전광판(예: 디스플레이)에 출력될 출력 영상을 생성 내지 준비하는 과정에 관한 도면들이다.
도 4는 적어도 하나 이상의 디스플레이를 통해 출력되는 3D 입체 영상을 관람하는 것에 관한 일 실시 예에 관한 도면이다.
도 5는 일 실시 예에 따라 시청 최적 영역을 결정하고, 시청 최적 영역에 위치한 관람자들을 대상으로 영상과 관련된 서비스를 제공하는 것과 관련된 도면이다.
도 6은 도 1에 따른 서버의 하드웨어 구성을 나타낸 도면이다.
1 is a diagram illustrating a system according to an embodiment.
2 is a diagram showing the main components of the server.
3A to 3E are diagrams related to a process of generating or preparing an output image to be output to an electronic signboard (eg, a display).
4 is a diagram related to an embodiment of watching a 3D stereoscopic image output through at least one display.
5 is a diagram related to determining an optimal viewing area and providing a video-related service to viewers located in the optimal viewing area according to an exemplary embodiment.
6 is a diagram showing the hardware configuration of the server according to FIG. 1;

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였다.Since the present invention can make various changes and have various embodiments, specific embodiments will be illustrated in the drawings and described in detail in the detailed description. However, this is not intended to limit the present invention to specific embodiments, and should be understood to include all modifications, equivalents, and substitutes included in the spirit and scope of the present invention. Like reference numerals have been used for like elements throughout the description of each figure.

제1, 제2, A, B 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.Terms such as first, second, A, and B may be used to describe various components, but the components should not be limited by the terms. These terms are only used for the purpose of distinguishing one component from another. For example, a first element may be termed a second element, and similarly, a second element may be termed a first element, without departing from the scope of the present invention. The terms and/or include any combination of a plurality of related recited items or any of a plurality of related recited items.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.It is understood that when an element is referred to as being "connected" or "connected" to another element, it may be directly connected or connected to the other element, but other elements may exist in the middle. It should be. On the other hand, when an element is referred to as “directly connected” or “directly connected” to another element, it should be understood that no other element exists in the middle.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Terms used in this application are only used to describe specific embodiments, and are not intended to limit the present invention. Singular expressions include plural expressions unless the context clearly dictates otherwise. In this application, the terms "include" or "have" are intended to designate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, but one or more other features It should be understood that the presence or addition of numbers, steps, operations, components, parts, or combinations thereof is not precluded.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which the present invention belongs. Terms such as those defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related art, and unless explicitly defined in the present application, they should not be interpreted in an ideal or excessively formal meaning. don't

이하, 본 발명에 따른 바람직한 실시예를 첨부된 도면을 참조하여 상세하게 설명한다.Hereinafter, preferred embodiments according to the present invention will be described in detail with reference to the accompanying drawings.

도 1은 일 실시 예에 디지털 사이니지 제어 시스템(10)을 도시한 도면이다. 도 1을 참조하면, 디지털 사이니지 제어 시스템(10)은 디지털 사이니지 제어 서버(100), 사용자 단말(200), 디스플레이(300) 등을 포함할 수 있다. 이하 설명되는 동작들은 디지털 사이니지 제어 서버(100)에 의하여 제어되는 플랫폼(예: 웹 페이지 및/또는 어플리케이션)을 통해 수행 내지 구현될 수 있다. 다시 말해서, 디지털 사이니지 제어 서버(100)는, 사용자가 사용자 단말(200)을 이용하여 네트워크를 통해 디지털 사이니지 제어 서버(100)에 접속하여 다양한 정보를 입력하고, 등록하고, 출력할 수 있는 웹 사이트를 제공할 수 있으며, 사용자 단말(200)에 설치되고 실행됨으로써 다양한 정보를 입력하고, 등록하고, 출력할 수 있는 어플리케이션을 제공할 수 있다.1 is a diagram showing a digital signage control system 10 according to an embodiment. Referring to FIG. 1 , the digital signage control system 10 may include a digital signage control server 100, a user terminal 200, a display 300, and the like. Operations described below may be performed or implemented through a platform (eg, a web page and/or application) controlled by the digital signage control server 100 . In other words, the digital signage control server 100 allows the user to access the digital signage control server 100 through the network using the user terminal 200 to input, register, and output various information. A web site may be provided, and an application capable of inputting, registering, and outputting various information by being installed and executed in the user terminal 200 may be provided.

디지털 사이니지 제어 서버(100)는 디스플레이(300)를 통해 3D 입체 영상을 출력할 수 있다. 디지털 사이니지 제어 서버(100)는 아나몰픽 일루션 기술을 이용하여 디스플레이를 관람하는 사람들로 하여금 3D 입체 영상을 시청할 수 있도록 할 수 있다. 디지털 사이니지 제어 서버(100)는 디지털 사이니지 제어 서버(100)와 연동된 적어도 하나의 디스플레이를 이용하여 3D 입체 영상을 출력할 수 있다. 상기 적어도 하나의 디스플레이는 옥외 뿐만 아니라, 옥내(실내)의 각진 기둥이나 벽면에 설치될 수 있다.The digital signage control server 100 may output a 3D stereoscopic image through the display 300 . The digital signage control server 100 can allow people viewing the display to view 3D stereoscopic images using anamorphic illusion technology. The digital signage control server 100 may output a 3D stereoscopic image using at least one display interlocked with the digital signage control server 100 . The at least one display may be installed not only outdoors, but also on an angular pillar or wall of an indoor (indoor) room.

사용자 단말(200)은 통신 가능한 데스크탑 컴퓨터(desktop computer), 랩탑 컴퓨터(laptop computer), 노트북(notebook), 스마트폰(smart phone), 태블릿 PC(tablet PC), 모바일폰(mobile phone), 스마트 워치(smart watch), 스마트 글래스(smart glass), e-book 리더기, PMP(portable multimedia player), 휴대용 게임기, 네비게이션(navigation) 장치, 디지털 카메라(digital camera), DMB(digital multimedia broadcasting) 재생기, 디지털 음성 녹음기(digital audio recorder), 디지털 음성 재생기(digital audio player), 디지털 동영상 녹화기(digital video recorder), 디지털 동영상 재생기(digital video player), 및 PDA(Personal Digital Assistant) 등 일 수 있다.The user terminal 200 includes a communicable desktop computer, a laptop computer, a notebook, a smart phone, a tablet PC, a mobile phone, and a smart watch. (smart watch), smart glass, e-book reader, PMP (portable multimedia player), portable game console, navigation device, digital camera, DMB (digital multimedia broadcasting) player, digital voice It may be a digital audio recorder, a digital audio player, a digital video recorder, a digital video player, and a personal digital assistant (PDA).

디지털 사이니지 제어 서버(100), 사용자 단말(200)은 각각 통신 네트워크에 연결되어, 통신 네트워크를 통해 서로간 데이터를 송수신할 수 있다. 예를 들어, 통신 네트워크는 LAN(Local Area Network), MAN(Metropolitan Area Network), GSM(Global System for Mobile Network), EDGE(Enhanced Data GSM Environment), HSDPA(High Speed Downlink Packet Access), W-CDMA(Wideband Code Division Multiple Access), CDMA(Code Division Multiple Access), TDMA(Time Division Multiple Access), 블루투스(Bluetooth), 지그비(Zigbee), 와이-파이(Wi-Fi), VoIP(Voice over Internet Protocol), LTE Advanced, IEEE802.16m, WirelessMAN-Advanced, HSPA+, 3GPP Long Term Evolution (LTE), Mobile WiMAX(IEEE 802.16e), UMB(formerly EV-DO Rev. C), Flash-OFDM, iBurst and MBWA (IEEE 802.20) systems, HIPERMAN, Beam-Division Multiple Access (BDMA), Wi-MAX(World Interoperability for Microwave Access), 5G 등 다양한 종류의 유선 또는 무선 네트워크가 사용될 수 있다.The digital signage control server 100 and the user terminal 200 are connected to a communication network, respectively, and can transmit and receive data to and from each other through the communication network. For example, communication networks include Local Area Network (LAN), Metropolitan Area Network (MAN), Global System for Mobile Network (GSM), Enhanced Data GSM Environment (EDGE), High Speed Downlink Packet Access (HSDPA), and W-CDMA. (Wideband Code Division Multiple Access), CDMA (Code Division Multiple Access), TDMA (Time Division Multiple Access), Bluetooth, Zigbee, Wi-Fi, Voice over Internet Protocol (VoIP) , LTE Advanced, IEEE802.16m, WirelessMAN-Advanced, HSPA+, 3GPP Long Term Evolution (LTE), Mobile WiMAX (IEEE 802.16e), UMB (formerly EV-DO Rev. C), Flash-OFDM, iBurst and MBWA (IEEE Various types of wired or wireless networks may be used, such as 802.20) systems, HIPERMAN, Beam-Division Multiple Access (BDMA), World Interoperability for Microwave Access (Wi-MAX), and 5G.

디스플레이(300)는 옥외 공간뿐만 아니라, 실내 각진 기둥에 설치되거나 실내벽에 설치될 수 있다. 디스플레이(300)는 적어도 하나 이상의 디스플레이(예: 301, 302)로 구성될 수 있으며, 디스플레이(300)는 액정 디스플레이(LCD; liquid crystal display), 박막 트랜지스터 액정 디스플레이(TFT LCD; thin film transistor-liquid crystal display), 유기 발광 다이오드(OLED; organic light-emitting diode), 플렉서블 디스플레이(flexible display), 3차원 디스플레이(3D display) 중에서 적어도 하나를 포함할 수 있다. The display 300 may be installed on an indoor angled pillar or on an indoor wall, as well as an outdoor space. The display 300 may include one or more displays (eg, 301 and 302), and the display 300 may include a liquid crystal display (LCD), a thin film transistor-liquid (TFT LCD) display, and the like. It may include at least one of a crystal display, an organic light-emitting diode (OLED), a flexible display, and a 3D display.

도 2는 디지털 사이니지 제어 서버(100)의 주요 구성 요소를 나타낸 도면이다. 도 3a 내지 도 3e는 전광판(예: 디스플레이)에 출력될 출력 영상을 생성 내지 준비하는 과정에 관한 도면들이다.2 is a diagram showing the main components of the digital signage control server 100. 3A to 3E are diagrams related to a process of generating or preparing an output image to be output to an electronic signboard (eg, a display).

도 3a를 참조하면, 출력 영상 생성부(102)는 3D 영상이 출력되는 전광판(예: 디스플레이)의 설치 정보, 실제 해상도 정보를 획득할 수 있다. 상기 전광판의 설치 정보는 전광판의 높이 정보(예: 지면으로부터 디스플레이가 설치된 지점까지의 높이 정보), 전광판의 크기 정보(예: 전광판이 둘러싸고 있는 구조물의 가로폭, 세로폭 정보, 전광판을 이루고 있는 디스플레이의 높이 정보, 너비 정보)를 포함할 수 있다.Referring to FIG. 3A , the output image generator 102 may obtain installation information and actual resolution information of an electric signboard (eg, display) on which a 3D image is output. The installation information of the electric signboard is information on the height of the electric signboard (eg, height information from the ground to the point where the display is installed), information on the size of the electric signboard (eg, width and height information of the structure surrounded by the electric signboard, display constituting the electric signboard) height information, width information of) may be included.

출력 영상 생성부(102)는 관람자의 위치(예: 관람자가 디스플레이를 바라보는 위치)를 결정하고, 결정된 관람자의 위치에 (가상의) 카메라를 위치시킬 수 있다. 출력 영상 생성부(102)는 가상의 카메라를 제어하여 가상의 디스플레이를 바라보도록 카메라의 시선 방향을 결정할 수 있다. 상기 관람자의 위치는 이하 시청 최적 영역의 일 위치일 수 있다.The output image generating unit 102 may determine the location of the viewer (eg, the location where the viewer looks at the display) and position a (virtual) camera at the location of the viewer. The output image generating unit 102 may control the virtual camera to determine a gaze direction of the camera to look at the virtual display. The location of the viewer may be a location of an optimal viewing area below.

도 3b를 참조하면, 출력 영상 생성부(102)는 전광판 구역 안에서 제작된 3D 영상을 획득할 수 있다. 다시 말해서, 출력 영상 생성부(102)는 전광판의 크기 정보(예: 전광판이 둘러싸고 있는 구조물의 부피 정보)에 기반하여 제작된 3D 영상을 획득할 수 있다.Referring to FIG. 3B , the output image generation unit 102 may obtain a 3D image produced in the billboard area. In other words, the output image generating unit 102 may obtain a 3D image produced based on size information of the electronic signboard (eg, volume information of a structure surrounded by the electronic signboard).

도 3c를 참조하면, 출력 영상 생성부(102)는 획득된 상기 3D 영상을 1차 렌더링 할 수 있다. 도 3d를 참조하면, 출력 영상 생성부(102)는 1차 렌더링한 3D 영상이 결정된 상기 시선 방향으로 프로젝트되어(투영된, projected) 전광판에 표시되는 이미지를 획득할 수 있다. 다시 말해서, 전광판에 카메라의 프로젝션 기능을 이용하여 1차 렌더링한 3D 영상을 쏴 전광판에 1차 렌더링한 3D 영상이 표시되며, 출력 영상 생성부(102)는 전광판에 표시되는 이미지를 획득할 수 있다. 출력 영상 생성부(102)는 획득된 이미지의 제1 부분에 대하여 2차 렌더링(예: 베이크(bake))하고, 획득된 이미지의 제2 부분에 대하여 2차 렌더링(예: 베이크(bake))할 수 있다. 베이크(bake) 기술은 재질, 텍스쳐, 조명 모드를 특정 사물 및 특정 이미지에 미리 저장해놓고, 객체 표면에 그대로 입히는 것을 의미할 수 있다. 다시 말해서, 셰이더(shader)와 조명의 효과를 미리 계산해서 이미지 텍스처에 기록하는 것을 의미할 수 있다. Referring to FIG. 3C , the output image generating unit 102 may perform primary rendering of the obtained 3D image. Referring to FIG. 3D , the output image generation unit 102 may obtain an image displayed on an electric signboard by projecting (projecting) a primarily rendered 3D image in the determined gaze direction. In other words, the first rendered 3D image is displayed on the signboard by shooting the 3D image rendered primarily by using the projection function of the camera on the signboard, and the output image generating unit 102 can acquire the image displayed on the signboard. . The output image generation unit 102 performs secondary rendering (eg, bake) on the first part of the acquired image, and performs secondary rendering (eg, bake) on the second part of the acquired image. can do. Bake technology may mean that materials, textures, and lighting modes are previously stored in a specific object and a specific image, and applied as they are to the surface of the object. In other words, it can mean pre-calculating the effects of shaders and lighting and writing them into an image texture.

일반적인 렌더링은 많은 계산량을 발생시키기 때문에 빠른 렌더링이 필요한 곳에서는 계산량을 줄이기 위해 미리 계산된 정보를 이미지 텍스처에 저장한 뒤, 실시간으로 광원에 영향을 받는 객체에 계산을 따로 하지 않고 텍스처에 저장된 색으로 객체를 칠해 렌더링 속도를 향상시키기 본 발명의 3D 출력 영상 생성에 있어서 베이크 기술이 이용될 수 있다.Since general rendering generates a large amount of calculation, in order to reduce the amount of calculation in places where fast rendering is required, pre-calculated information is stored in the image texture, and then the color stored in the texture is converted to the object affected by the light source in real time without separate calculation. Improving rendering speed by painting an object A bake technique may be used in generating a 3D output image of the present invention.

도 3e를 참조하면, 출력 영상 생성부(102)는 2차 렌더링된(베이크된(baked)) 제1 영상 및 2차 렌더링된(베이크된(baked)) 제2 영상을 합성하여 전광판에 출력될 최종 3D 영상을 생성할 수 있다.Referring to FIG. 3E , the output image generation unit 102 synthesizes a secondly rendered (baked) first image and a secondly rendered (baked) second image to be output to the signboard. A final 3D image can be created.

도 4는 적어도 하나 이상의 디스플레이를 통해 출력되는 3D 입체 영상을 관람하는 것에 관한 일 실시 예에 관한 도면이다. 디지털 사이니지 제어 서버(100)는 데이터 관리부(101), 3D 영상 출력부(103), 관람자 식별부(104) 및 서비스 제공부(105) 등을 포함할 수 있다.4 is a diagram related to an embodiment of watching a 3D stereoscopic image output through at least one display. The digital signage control server 100 may include a data management unit 101, a 3D image output unit 103, a viewer identification unit 104, and a service providing unit 105.

데이터 관리부(101)는 외부 단말로부터 컨텐츠 제작 의뢰 신호 또는 컨텐츠 전시 의뢰 신호를 획득할 수 있다. 상기 컨텐츠 전시 의뢰 신호는 디스플레이(300)를 통해 출력할 영상 정보를 포함할 수 있다. 데이터 관리부(101)는 외부 단말로부터 획득된 영상 정보 및 디지털 사이니지 제어 서버(100)에서 제작된 영상 정보에 기반하여 영상 DB를 생성할 수 있다.The data management unit 101 may obtain a content production request signal or a content display request signal from an external terminal. The content display request signal may include image information to be output through the display 300 . The data management unit 101 may create an image DB based on image information obtained from an external terminal and image information produced by the digital signage control server 100 .

일 실시 예에서, 3D 영상 출력부(103)는 3D 영상 생성부(102)를 통해 생성된 상기 최종 3D 영상을 제1 디스플레이(301) 및/또는 제2 디스플레이(302)에 표시할 수 있다.In an embodiment, the 3D image output unit 103 may display the final 3D image generated by the 3D image generator 102 on the first display 301 and/or the second display 302 .

일 실시 예에서, 3D 영상 출력부(103)는 제1 디스플레이(301)에 제1 영상을 표시하고, 제2 디스플레이(302)에 제2 영상을 표시하되, 아나몰픽 일루션(anamorphic illusion) 기술을 이용하여 특정 영역에서 제1 영상과 제2 영상에 기반한 제3 영상이 보일 수 있도록 할 수 있다. 상기 제1 영상 및 상기 제2 영상은 각각 다른 뎁스(depth) 정보와 시점(point of view) 정보를 포함할 수 있다. 예를 들어, 제1 영상은 제1 뎁스 정보 및 제1 시점 정보를 포함하고, 제2 영상은 제2 뎁스 정보 및 제2 시점 정보를 포함할 수 있다. 상기 제1 영상 내지 상기 제3 영상의 콘텐츠 내지 콘텐츠의 종류는 광고, 방송, 교통 정보, 재난 안전 정보, 날씨 정보 등 다양한 내용을 포함할 수 있다. In one embodiment, the 3D image output unit 103 displays a first image on the first display 301 and a second image on the second display 302, using anamorphic illusion technology. Accordingly, a third image based on the first image and the second image may be displayed in a specific area. The first image and the second image may include different depth information and point of view information. For example, the first image may include first depth information and first viewpoint information, and the second image may include second depth information and second viewpoint information. The contents or types of contents of the first image to the third image may include various contents such as advertisement, broadcasting, traffic information, disaster safety information, and weather information.

3D 영상 출력부(103)는 제1 디스플레이(301)와 제2 디스플레이(302) 간 각도에 따라 상기 제1 영상 및 상기 제2 영상 각각의 뎁스 정보 및 시점 정보를 변경할 수 있다.The 3D image output unit 103 may change depth information and viewpoint information of each of the first image and the second image according to an angle between the first display 301 and the second display 302 .

3D 영상 출력부(103)는 시간대별로 디스플레이(300)의 휘도를 다르게 설정할 수 있다. 예를 들어, 3D 영상 출력부(103)는 밝은 환경에서 시인성 확보를 위하여 디스플레이(300)를 미리 설정된 임계 휘도값 이상의 휘도로 구현할 수 있다.The 3D image output unit 103 may set the luminance of the display 300 differently for each time period. For example, the 3D image output unit 103 may implement the display 300 with a luminance higher than a predetermined threshold luminance value to secure visibility in a bright environment.

3D 영상 출력부(103)는 하루를 미리 설정된 시간 간격(예: 2시간)으로 복수의 시간대들로 나누고, 복수의 시간대들 중에서 시청 최적 영역에 분포한 사용자들이 가장 적은 시간대를 제1 시간대로 결정하고, 상기 제1 시간대에 상기 디스플레이를 오프(off) 할 수 있다.The 3D image output unit 103 divides a day into a plurality of time zones at preset time intervals (eg, 2 hours), and among the plurality of time zones, determines a time zone with the fewest users distributed in the optimal viewing area as the first time zone. And, the display can be turned off in the first time zone.

3D 영상 출력부(103)는 상기 영상 DB을 통해 사용자 맞춤형 광고를 표시할 수 있다. 예를 들어, 3D 영상 출력부(103)는 특정 사용자가 디스플레이 주변을 지나갈 때 관람자 식별부(104)를 통해 상기 특정 사용자를 인식하고, 인식된 상기 특정 사용자의 관심 정보를 획득하고, 획득된 관심 정보에 대응하는 광고를 표시할 수 있다. 다시 말해서, 관람자 식별부(104)는 비콘(400)을 통해 디스플레이(300) 주변의 사용자 단말들을 인식하고, 인식된 사용자 단말들의 위치 분포도를 생성하고, 사용자 단말들의 밀도가 가장 높은 영역에 속한 사용자들 중 상기 영역에 가장 오래 머물고 있는 사용자의 관심 정보를 획득하고, 획득된 관심 정보에 대응하는 콘텐츠를 표시할 수 있다. 관람자 식별부(104)는 사용자의 나이, 사용자의 성별에 기반하여 상기 관심 정보를 결정할 수 있으며, 인터넷 포탈 서버(예: 네이버, 다음, 구글)에 포함된 오픈 소스(open source)로부터 상기 사용자와 동일한 나이, 동일한 성별을 갖는 다른 사용자들의 온라인 검색 정보를 획득하고, 획득된 온라인 검색 정보에 기반하여 상기 관심 정보를 결정할 수 있다.The 3D image output unit 103 may display a user-customized advertisement through the image DB. For example, the 3D image output unit 103 recognizes the specific user through the spectator identification unit 104 when the specific user passes by the display, obtains interest information of the recognized specific user, and displays the obtained interest. An advertisement corresponding to the information may be displayed. In other words, the spectator identification unit 104 recognizes user terminals around the display 300 through the beacon 400, generates a location distribution map of the recognized user terminals, and users belonging to an area with the highest density of user terminals. Among them, interest information of a user staying in the region the longest may be obtained, and content corresponding to the acquired interest information may be displayed. The viewer identification unit 104 may determine the interest information based on the user's age and the user's gender, and from an open source included in an Internet portal server (eg, Naver, Daum, Google), the user and Online search information of other users of the same age and gender may be obtained, and interest information may be determined based on the obtained online search information.

관람자 식별부(104)는 비콘을 비용하여 다수의 사용자 단말들 각각에 대하여 사용자 식별을 할 수 있다. 관람자 식별부(104)는 사용자 단말들에 대응하는 식별 코드에 기초하여 사용자 식별을 할 수 있다. 관람자 식별부(104)는 비콘에 의하여 발생된 비콘 신호를 수신한 사용자 단말로부터 식별 코드를 획득하고, 획득된 상기 식별 코드에 기반하여 상기 사용자 단말의 사용자 정보를 획득할 수 있다. 다시 말해서, 사용자 단말(200)이 비콘에 의하여 브로드캐스팅되는 비콘 신호를 수신함에 따라 관람자 식별부(104)는 사용자 단말(200)에 탑재된 GPS 기능을 통해 사용자 단말(200)의 위치 정보(예: 좌표 정보)를 포함하는 사용자 정보를 획득할 수 있다.The spectator identification unit 104 may perform user identification for each of a plurality of user terminals by costing a beacon. The spectator identification unit 104 may perform user identification based on identification codes corresponding to user terminals. The spectator identification unit 104 may obtain an identification code from a user terminal that has received a beacon signal generated by a beacon, and obtain user information of the user terminal based on the obtained identification code. In other words, as the user terminal 200 receives the beacon signal broadcast by the beacon, the spectator identification unit 104 provides location information (e.g., : coordinate information) may be obtained.

관람자 식별부(104)는 비콘(400)에 통신 연결을 수립한 사용자 단말(200)들을 식별할 수 있다. 비콘(beacon) 기술이 다양한 분야에 적용될 수 있다. 예를 들어, 마케팅 분야인 경우, 서비스 제공부(105)는 비콘(400)을 통해 무선으로 상기 디스플레이를 통해서 출력되는 영상과 관련된 광고 데이터, 이벤트 데이터 및/또는 쿠폰 데이터를 포함하는 비콘 신호를 브로드캐스팅(broadcasting)하면 그 주변을 지나는 식별된 사용자 단말에서 비콘에서 발생시키는 비콘 신호를 식별하여 광고 페이지, 이벤트 및/또는 쿠폰을 사용자에게 표시할 수 있다. 비콘(400)은 디스플레이(300)의 특정 영역에 배치되며, 사용자들이 디스플레이에 접근하고, 시청하고, 떠남에 따라 비콘으로 하여금 사용자의 사용자 단말과 통신하도록 구성될 수 있다. 전용 비콘은 독립형(stand-alone) 혹은 네트위크화된 환경(networked environment)에서 동작할 수 있다.The spectator identification unit 104 may identify user terminals 200 that have established a communication connection with the beacon 400 . Beacon technology can be applied to various fields. For example, in the case of marketing, the service provider 105 wirelessly broadcasts a beacon signal including advertisement data, event data, and/or coupon data related to an image output through the display via the beacon 400. When casting (broadcasting), a beacon signal generated by a beacon can be identified in an identified user terminal passing through the vicinity, and an advertising page, event, and/or coupon can be displayed to the user. The beacon 400 may be placed in a specific area of the display 300 and configured to communicate with the user's user terminal as users approach, view, and leave the display. A dedicated beacon can operate in a stand-alone or networked environment.

도 5는 일 실시 예에 따라 시청 최적 영역을 결정하고, 시청 최적 영역에 위치한 관람자들을 대상으로 영상과 관련된 서비스를 제공하는 것과 관련된 도면이다.5 is a diagram related to determining an optimal viewing area and providing a service related to an image to viewers located in the optimal viewing area according to an exemplary embodiment.

3D 영상 출력부(103)는 디스플레이들이 설치된 각도에 따라, 3D로 보이기 위한 최적의 시청 최적 영역을 결정할 수 있다. 3D 영상 출력부(103)는 제1 디스플레이(301)를 통해 출력되는 제1 영상의 제1 뎁스 정보와 제1 시점 정보, 및 제2 디스플레이(302)를 통해 출력되는 제2 영상의 제2 뎁스 정보와 제2 시점 정보에 따라 미리 설정된 시청 최적 영역을 결정할 수 있다. 상기 시청 최적 영역은 제1 디스플레이(301)와 제2 디스플레이(302)가 접하는 모서리를 기준으로 미리 설정된 거리 범위 및 미리 설정된 방향, 미리 설정된 각도 범위에 해당되는 영역일 수 있다.The 3D image output unit 103 may determine an optimal viewing area for viewing in 3D according to the angle at which the displays are installed. The 3D image output unit 103 provides first depth information and first viewpoint information of the first image output through the first display 301 and second depth information of the second image output through the second display 302. According to the information and the second viewpoint information, a preset viewing optimal region may be determined. The optimal viewing area may be an area corresponding to a preset distance range, a preset direction, and a preset angular range based on a corner where the first display 301 and the second display 302 come into contact.

관람자 식별부(104)는 결정된 시청 최적 영역을 지나가는 사용자들의 사용자 단말들을 식별하되, 서비스 제공부(105)에 의하여 결정된 타겟 단말들을 식별할 수 있다.The spectator identification unit 104 may identify user terminals of users passing through the determined optimal viewing area, and may identify target terminals determined by the service providing unit 105 .

서비스 제공부(105)는 비콘 신호를 수신한 모든 사용자 단말의 식별 코드를 획득하는 것이 아니라, 미리 설정된 조건을 만족한 사용자 단말의 식별 코드를 획득할 수 있다. 다시 말해서, 비콘(400)에 근접한 모든 사용자 단말에 서비스 제공부(105)에서 제공하는 서비스에 관한 정보 내지 인터페이스가 표시되는 경우, 서비스를 원치 않는 사용자들에게는 불편함과 불쾌함을 줄 수 있으므로, 서비스 제공부(105)는 미리 설정된 조건을 만족한 사용자 단말을 서비스를 제공할 타겟 단말로 결정할 수 있다.The service providing unit 105 may acquire identification codes of user terminals satisfying preset conditions, rather than acquiring identification codes of all user terminals that have received the beacon signal. In other words, if information or an interface related to the service provided by the service provider 105 is displayed on all user terminals close to the beacon 400, it may cause inconvenience and discomfort to users who do not want the service, The service providing unit 105 may determine a user terminal that satisfies a preset condition as a target terminal to provide a service.

서비스 제공부(105)는 비콘(400)으로부터 미리 설정된 거리에 접근하고, 비콘과 미리 설정된 거리 내에서 미리 설정된 시간동안 위치하며, 디지털 사이니지 제어 서버(100)에서 제공하는 어플리케이션이 설치되어 있으며, 상기 어플리케이션을 실행 중인 사용자 단말을 상기 서비스를 제공할 타겟 단말로 결정할 수 있다. 다시 말해서, 비콘(400)과 근접한 거리 내에서 단순히 지나갔다는 것만으로 사용자 단말(200)에 디스플레이에 출력되는 영상과 관련된 서비스를 제공하는 것은 원치 않는 사용자들에게 보낼 수 있는 문제가 있을 수 있으므로, 서비스 제공부(105)는 미리 설정된 조건을 만족한 사용자 단말을 서비스를 제공할 타겟 단말로 결정할 수 있다.The service provider 105 approaches a preset distance from the beacon 400, is located within a preset distance from the beacon for a preset time, and has an application provided by the digital signage control server 100 installed, A user terminal running the application may be determined as a target terminal to provide the service. In other words, providing a service related to the image output on the display to the user terminal 200 simply by passing within a close distance of the beacon 400 may cause a problem that it may be sent to unwanted users, The service providing unit 105 may determine a user terminal that satisfies a preset condition as a target terminal to provide a service.

서비스 제공부(105)는 사용자 단말(200)과 비콘(400) 사이의 거리, 사용자 단말(200)이 시청 최적 영역에 위치하는 시간, 상기 시청 최적 영역에 위치한 최근 1시간 동안 다른 사용자 단말들의 수, 상기 시청 최적 영역에 최근 1시간 동안 드나든 사용자 단말들의 수에 기초하여, 비콘 신호에 응답하는 기준 값인 반응 지수를 산출할 수 있다. 서비스 제공부(105)는 이하 수학식 1을 통해 사용자 단말의 상기 반응 지수를 산출할 수 있다.The service provider 105 determines the distance between the user terminal 200 and the beacon 400, the time the user terminal 200 is located in the optimal viewing area, and the number of other user terminals located in the optimal viewing area for the last 1 hour. , A response index, which is a reference value for responding to a beacon signal, may be calculated based on the number of user terminals that have visited and entered the viewing optimal region during the last 1 hour. The service provider 105 may calculate the response index of the user terminal through Equation 1 below.

Figure 112022086778082-pat00001
Figure 112022086778082-pat00001

상기 수학식 1에서, R는 반응 지수, m는 상기 사용자 단말과 상기 비콘 사이의 거리(m), s는 상기 사용자 단말이 상기 시청 최적 영역에 위치하는 시간(초), i는 상기 시청 최적 영역에 위치한 사용자 단말들의 수, k는 상기 시청 최적 영역에 최근 1시간 동안 드나든 사용자 단말들의 수를 의미할 수 있다.In Equation 1, R is the response index, m is the distance (m) between the user terminal and the beacon, s is the time (seconds) that the user terminal is located in the viewing optimal area, i is the viewing optimal area The number of user terminals located at k may mean the number of user terminals that have visited and entered the viewing optimal area during the last hour.

서비스 제공부(105)는 반응 지수가 미리 설정된 임계 지수보다 높은 사용자 단말을 상기 타겟 단말로 결정할 수 있다. 서비스 제공부(105)는 상기 디스플레이(300)를 통해서 출력되는 영상과 관련된 광고 데이터, 이벤트 데이터 및/또는 쿠폰 데이터를 상기 타겟 단말로 전송할 수 있다.The service providing unit 105 may determine, as the target terminal, a user terminal having a reaction index higher than a preset threshold index. The service provider 105 may transmit advertisement data, event data, and/or coupon data related to the image output through the display 300 to the target terminal.

도 6은 도 1에 따른 디지털 사이니지 제어 서버(100)의 하드웨어 구성을 나타낸 도면이다.FIG. 6 is a diagram showing the hardware configuration of the digital signage control server 100 according to FIG. 1 .

도 6을 참조하면, 디지털 사이니지 제어 서버(100)는 적어도 하나의 프로세서(110) 및 상기 적어도 하나의 프로세서(110)가 적어도 하나의 동작(operation)을 수행하도록 지시하는 명령어들(instructions)을 저장하는 메모리(memory)를 포함할 수 있다.Referring to FIG. 6 , the digital signage control server 100 includes at least one processor 110 and instructions instructing the at least one processor 110 to perform at least one operation. It may include a memory to store.

상기 적어도 하나의 동작은, 전술한 디지털 사이니지 제어 서버(100)의 동작이나 기능 중 적어도 일부를 포함하고 명령어들 형태로 구현되어 프로세서(110)에 의하여 수행될 수 있다.The at least one operation may include at least some of the operations or functions of the above-described digital signage control server 100 and may be implemented in the form of instructions and performed by the processor 110 .

여기서 적어도 하나의 프로세서(110)는 중앙 처리 장치(central processing unit, CPU), 그래픽 처리 장치(graphics processing unit, GPU), 또는 본 발명의 실시예들에 따른 방법들이 수행되는 전용의 프로세서를 의미할 수 있다. 메모리(120) 및 저장 장치(160) 각각은 휘발성 저장 매체 및 비휘발성 저장 매체 중에서 적어도 하나로 구성될 수 있다. 예를 들어, 메모리(120)는 읽기 전용 메모리(read only memory, ROM) 및 랜덤 액세스 메모리(random access memory, RAM) 중 하나일 수 있고, 저장 장치(160)는, 플래시메모리(flash-memory), 하드디스크 드라이브(HDD), 솔리드 스테이트 드라이브(SSD), 또는 각종 메모리 카드(예를 들어, micro SD 카드) 등일 수 있다.Here, the at least one processor 110 may mean a central processing unit (CPU), a graphics processing unit (GPU), or a dedicated processor for performing methods according to embodiments of the present invention. can Each of the memory 120 and the storage device 160 may include at least one of a volatile storage medium and a non-volatile storage medium. For example, the memory 120 may be one of a read only memory (ROM) and a random access memory (RAM), and the storage device 160 may be a flash-memory. , a hard disk drive (HDD), a solid state drive (SSD), or various memory cards (eg, a micro SD card).

또한, 디지털 사이니지 제어 서버(100)는 무선 네트워크를 통해 통신을 수행하는 송수신 장치(transceiver)(130)를 포함할 수 있다. 또한, 디지털 사이니지 제어 서버(100)는 입력 인터페이스 장치(140), 출력 인터페이스 장치(150), 저장 장치(160) 등을 더 포함할 수 있다. 디지털 사이니지 제어 서버(100)에 포함된 각각의 구성 요소들은 버스(bus)(170)에 의해 연결되어 서로 통신을 수행할 수 있다. 도 6에서는 디지털 사이니지 제어 서버(100)를 예로 들어 설명하였으나, 이에 한정되는 것은 아니다. 예를 들어, 복수 개의 사용자 단말들은 도 6에 따른 구성요소를 포함할 수 있다.In addition, the digital signage control server 100 may include a transceiver 130 that performs communication through a wireless network. In addition, the digital signage control server 100 may further include an input interface device 140, an output interface device 150, a storage device 160, and the like. Each component included in the digital signage control server 100 is connected by a bus 170 to communicate with each other. In FIG. 6, the digital signage control server 100 has been described as an example, but is not limited thereto. For example, a plurality of user terminals may include a component according to FIG. 6 .

본 발명에 따른 방법들은 다양한 컴퓨터 수단을 통해 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 컴퓨터 판독 가능 매체에 기록되는 프로그램 명령은 본 발명을 위해 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다.The methods according to the present invention may be implemented in the form of program instructions that can be executed by various computer means and recorded on a computer readable medium. Computer readable media may include program instructions, data files, data structures, etc. alone or in combination. Program instructions recorded on a computer readable medium may be specially designed and configured for the present invention or may be known and usable to those skilled in computer software.

컴퓨터 판독 가능 매체의 예에는 롬(ROM), 램(RAM), 플래시 메모리(flash memory) 등과 같이 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함될 수 있다. 프로그램 명령의 예에는 컴파일러(compiler)에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터(interpreter) 등을 사용해서 컴퓨터에 의해 실행될 수 있는 고급 언어 코드를 포함할 수 있다. 상술한 하드웨어 장치는 본 발명의 동작을 수행하기 위해 적어도 하나의 소프트웨어 모듈로 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.Examples of computer readable media may include hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions may include not only machine language codes generated by a compiler but also high-level language codes that can be executed by a computer using an interpreter and the like. The hardware device described above may be configured to operate with at least one software module to perform the operations of the present invention, and vice versa.

또한, 상술한 방법 또는 장치는 그 구성이나 기능의 전부 또는 일부가 결합되어 구현되거나, 분리되어 구현될 수 있다.In addition, the above-described method or device may be implemented by combining all or some of its components or functions, or may be implemented separately.

상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.Although the above has been described with reference to preferred embodiments of the present invention, those skilled in the art will variously modify and change the present invention within the scope not departing from the spirit and scope of the present invention described in the claims below. You will understand that it can be done.

100: 디지털 사이니지 제어 서버 200: 사용자 단말
300: 디스플레이 400: 비콘
100: digital signage control server 200: user terminal
300: display 400: beacon

Claims (5)

3D 공간 기반의 콘텐츠를 제공하는 디지털 사이니지 제어 서버에 있어서,
외부 단말로부터 컨텐츠 제작 의뢰 신호 또는 영상 정보를 포함하는 컨텐츠 전시 의뢰 신호를 획득하고, 획득된 상기 영상 정보에 기반하여 영상 DB를 생성하는 데이터 관리부;
제1 디스플레이 및 제2 디스플레이 중 적어도 하나 이상을 포함하는 전광판을 통해 출력되는 영상을 생성하는 출력 영상 생성부;
상기 영상에 대하여 전처리를 수행하며, 상기 전광판에 상기 영상을 출력하는 3D 영상 출력부;
상기 서버와 연동된 비콘의 비콘 신호를 수신한 사용자 단말로부터 식별 코드를 획득하고, 상기 식별 코드에 기초하여 상기 사용자 단말의 위치 정보를 획득하는 관람자 식별부; 및
상기 콘텐츠와 관련된 광고 정보를 상기 사용자 단말에 제공하는 서비스 제공부를 포함하고,
상기 출력 영상 생성부는,
상기 전광판의 설치 정보 및 상기 전광판의 해상도 정보를 획득하고,
관람자의 위치를 결정하고, 결정된 관람자의 위치에서 상기 전광판에 대한 시선 방향을 결정하고,
상기 전광판의 크기 정보에 기반하여 제작된 3D 영상을 1차 렌더링하고,
1차 렌더링한 상기 3D 영상이 상기 시선 방향으로 전광판에 프로젝트되어 표시된 이미지를 획득하고,
획득된 상기 이미지의 제1 부분에 대하여 베이크(bake)하고, 상기 이미지의 제2 부분에 대하여 베이크하고,
베이크된 상기 제1 부분 및 상기 제2 부분을 합성하여 상기 전광판에 출력될 최종 3D 영상을 생성하고,
상기 3D 영상 출력부는,
상기 제1 디스플레이에 제1 영상을 출력하고, 상기 제2 디스플레이에 제2 영상을 출력하며, 상기 제1 영상은 제1 뎁스 정보 및 제1 시점 정보를 포함하고, 상기 제2 영상은 제2 뎁스 정보 및 제2 시점 정보를 포함하고,
상기 관람자 식별부를 통해 상기 사용자 단말을 인식하고, 인식된 상기 사용자 단말의 사용자의 관심 정보를 획득하고,
상기 영상 DB를 통해 획득된 상기 관심 정보에 대응하는 콘텐츠를 서칭하고, 서칭된 상기 콘텐츠에 대응하는 영상을 상기 제1 디스플레이 및 상기 제2 디스플레이를 통해 출력하고,
상기 제1 디스플레이 및 상기 제2 디스플레이 간 각도에 따라 상기 제1 영상 및 상기 제2 영상 각각의 뎁스 정보 및 시점 정보를 변경하고,
상기 제1 영상 및 상기 제2 영상 간 아나몰픽 일루션에 기반하여 특정 영역에서 상기 콘텐츠가 3D 입체 영상인 제3 영상으로 보이도록 하고,
상기 제1 디스플레이 및 상기 제2 디스플레이 각각이 설치된 각도에 따라, 상기 제3 영상이 3D로 보이기 위한 최적의 시청 최적 영역을 결정하되,
상기 제1 영상의 제1 뎁스 정보와 제1 시점 정보, 및 상기 제2 영상의 제2 뎁스 정보와 제2 시점 정보에 따라 시청 최적 영역을 결정하고,
상기 시청 최적 영역은 상기 각도에 따라 상기 제1 디스플레이와 상기 제2 디스플레이가 접하는 모서리를 기준으로 미리 설정된 거리 범위 및 미리 설정된 방향, 미리 설정된 각도 범위에 해당되는 영역이고,
상기 서비스 제공부는,
상기 사용자 단말과 상기 비콘 사이의 거리, 상기 사용자 단말이 상기 시청 최적 영역에 위치하는 시간, 상기 시청 최적 영역에 위치한 최근 1시간 동안 사용자 단말들의 수, 상기 시청 최적 영역에 최근 1시간 동안 드나든 사용자 단말들의 수에 기초하여, 상기 사용자 단말을 타겟 단말로 결정하고,
상기 사용자 단말에 상기 콘텐츠와 관련된 광고 정보를 제공하는, 디지털 사이니지 제어 서버.

In a digital signage control server providing 3D space-based content,
a data management unit that obtains a content production request signal or a content display request signal including image information from an external terminal, and creates an image DB based on the obtained image information;
an output image generation unit that generates an image output through an electric signboard including at least one of a first display and a second display;
a 3D image output unit performing pre-processing on the image and outputting the image to the display board;
a spectator identification unit obtaining an identification code from a user terminal that has received a beacon signal of a beacon interlocked with the server, and acquiring location information of the user terminal based on the identification code; and
A service providing unit providing advertisement information related to the content to the user terminal;
The output image generating unit,
Acquiring installation information of the electronic signboard and resolution information of the electronic signboard;
Determining the position of the viewer, determining the gaze direction for the electric signboard at the determined position of the viewer,
First rendering of the 3D image produced based on the size information of the signboard,
The primary rendered 3D image is projected on the electric signboard in the direction of the line of sight to obtain a displayed image;
Bake a first part of the acquired image, bake a second part of the image,
synthesizing the baked first part and the second part to generate a final 3D image to be output to the electronic display board;
The 3D image output unit,
A first image is output to the first display, a second image is output to the second display, the first image includes first depth information and first viewpoint information, and the second image has a second depth information and second point information;
Recognizing the user terminal through the spectator identification unit, obtaining interest information of a user of the recognized user terminal,
Searching for content corresponding to the interest information obtained through the image DB, and outputting an image corresponding to the searched content through the first display and the second display;
Changing depth information and viewpoint information of each of the first image and the second image according to an angle between the first display and the second display;
Based on the anamorphic illusion between the first image and the second image, the content is displayed as a third image, which is a 3D stereoscopic image, in a specific region;
Determining an optimal viewing area for viewing the third image in 3D according to an angle at which each of the first display and the second display is installed,
determining an optimal viewing area according to first depth information and first viewpoint information of the first image, and second depth information and second viewpoint information of the second image;
The optimal viewing area is an area corresponding to a preset distance range, a preset direction, and a preset angle range based on a corner where the first display and the second display meet according to the angle,
The service provider,
The distance between the user terminal and the beacon, the time at which the user terminal is located in the viewing optimum area, the number of user terminals located in the viewing optimum area during the last 1 hour, and the users who have visited the viewing optimum area during the last 1 hour Based on the number of terminals, determining the user terminal as a target terminal;
A digital signage control server that provides advertisement information related to the content to the user terminal.

삭제delete 삭제delete 삭제delete 삭제delete
KR1020220103837A 2022-08-19 2022-08-19 Method and device for controlling space-based digital signage outputting 3d content KR102497324B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220103837A KR102497324B1 (en) 2022-08-19 2022-08-19 Method and device for controlling space-based digital signage outputting 3d content

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220103837A KR102497324B1 (en) 2022-08-19 2022-08-19 Method and device for controlling space-based digital signage outputting 3d content

Publications (1)

Publication Number Publication Date
KR102497324B1 true KR102497324B1 (en) 2023-02-08

Family

ID=85225764

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220103837A KR102497324B1 (en) 2022-08-19 2022-08-19 Method and device for controlling space-based digital signage outputting 3d content

Country Status (1)

Country Link
KR (1) KR102497324B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102606616B1 (en) * 2023-05-30 2023-11-29 주식회사 비브스튜디오스 Method for dynamically displaying artworks dependent on the location of audience

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160066286A (en) * 2014-12-02 2016-06-10 에스케이플래닛 주식회사 Digital signage, method for displaying contents based on digital signage, Information transferring system based on digital signage and computer readable medium having computer program recorded therefor
US20180027219A1 (en) * 2014-09-17 2018-01-25 Pointcloud Media, LLC Tri-surface image projection system and method
KR20180096417A (en) * 2017-02-21 2018-08-29 엘지전자 주식회사 Digital signage and method for controlling the same
KR102103726B1 (en) * 2019-11-26 2020-04-23 (주)코리아 싸인 Ai digital signage

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180027219A1 (en) * 2014-09-17 2018-01-25 Pointcloud Media, LLC Tri-surface image projection system and method
KR20160066286A (en) * 2014-12-02 2016-06-10 에스케이플래닛 주식회사 Digital signage, method for displaying contents based on digital signage, Information transferring system based on digital signage and computer readable medium having computer program recorded therefor
KR20180096417A (en) * 2017-02-21 2018-08-29 엘지전자 주식회사 Digital signage and method for controlling the same
KR102103726B1 (en) * 2019-11-26 2020-04-23 (주)코리아 싸인 Ai digital signage

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102606616B1 (en) * 2023-05-30 2023-11-29 주식회사 비브스튜디오스 Method for dynamically displaying artworks dependent on the location of audience

Similar Documents

Publication Publication Date Title
JP6267789B2 (en) Adaptive embedding of visual advertising content in media content
US9767615B2 (en) Systems and methods for context based information delivery using augmented reality
US20120249586A1 (en) Method and apparatus for providing collaboration between remote and on-site users of indirect augmented reality
EP3242225B1 (en) Method and apparatus for determining region of image to be superimposed, superimposing image and displaying image
US8676650B1 (en) Allocating and pricing geo-located advertisements for display on maps
EP2338152B1 (en) Method and system for rendering of labels
US20160018238A1 (en) Route inspection portals
KR102497324B1 (en) Method and device for controlling space-based digital signage outputting 3d content
US20230245172A1 (en) Information processing system, recording medium, and information processing method
KR20100055993A (en) Remote campus tour system of interactive 3 dimensional game engine based
CN104484361A (en) Method and device for displaying information
CN108255910A (en) Information displaying method, client, server-side and equipment
Hoelzl et al. Brave New City: the image in the urban data-space
US20160071496A1 (en) Aligning content items with map features
US10057511B2 (en) Framing enhanced reality overlays using invisible light emitters
KR20220036016A (en) Solution for making of art gallery employing virtual reality
KR102409826B1 (en) Apparatus and method for displaying signage image using metaverse
JP2018160225A (en) Browsing system and program
CN112016503B (en) Pavement detection method, device, computer equipment and storage medium
WO2020189341A1 (en) Image display system, image distribution method, and program
KR20210094792A (en) Server and method for providing augmented reality posting service
She et al. A building label placement method for 3D visualizations based on candidate label evaluation and selection
CN114450655B (en) System and method for quantifying augmented reality interactions
US20220058689A1 (en) Display apparatus, server, method of controlling display apparatus, and method of controlling server
De Angeli et al. A smartphone headset for augmented-reality experiences in museums

Legal Events

Date Code Title Description
GRNT Written decision to grant