KR102497324B1 - Method and device for controlling space-based digital signage outputting 3d content - Google Patents
Method and device for controlling space-based digital signage outputting 3d content Download PDFInfo
- Publication number
- KR102497324B1 KR102497324B1 KR1020220103837A KR20220103837A KR102497324B1 KR 102497324 B1 KR102497324 B1 KR 102497324B1 KR 1020220103837 A KR1020220103837 A KR 1020220103837A KR 20220103837 A KR20220103837 A KR 20220103837A KR 102497324 B1 KR102497324 B1 KR 102497324B1
- Authority
- KR
- South Korea
- Prior art keywords
- image
- display
- information
- content
- user terminal
- Prior art date
Links
- 238000000034 method Methods 0.000 title description 15
- 238000013523 data management Methods 0.000 claims abstract description 7
- 238000004519 manufacturing process Methods 0.000 claims abstract description 5
- 238000007781 pre-processing Methods 0.000 claims abstract description 3
- 238000009877 rendering Methods 0.000 claims description 7
- 238000009434 installation Methods 0.000 claims description 4
- 230000002194 synthesizing effect Effects 0.000 claims 1
- 238000010586 diagram Methods 0.000 description 12
- 238000004891 communication Methods 0.000 description 6
- 238000003860 storage Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000005266 casting Methods 0.000 description 1
- 239000013078 crystal Substances 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 238000007667 floating Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 239000007788 liquid Substances 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000010422 painting Methods 0.000 description 1
- 239000004984 smart glass Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 239000010409 thin film Substances 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/414—Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
- H04N21/41407—Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance embedded in a portable device, e.g. video client on a mobile phone, PDA, laptop
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
- G06Q30/0241—Advertisements
- G06Q30/0251—Targeted advertisements
- G06Q30/0267—Wireless devices
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/111—Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
- H04N13/117—Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/156—Mixing image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/189—Recording image signals; Reproducing recorded image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
- H04N13/383—Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/45—Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
- H04N21/4508—Management of client data or end-user data
- H04N21/4524—Management of client data or end-user data involving the geographical location of the client
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/45—Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
- H04N21/4508—Management of client data or end-user data
- H04N21/4532—Management of client data or end-user data involving end-user characteristics, e.g. viewer profile, preferences
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/81—Monomedia components thereof
- H04N21/812—Monomedia components thereof involving advertisement data
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/81—Monomedia components thereof
- H04N21/816—Monomedia components thereof involving special video data, e.g 3D video
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Business, Economics & Management (AREA)
- Databases & Information Systems (AREA)
- Marketing (AREA)
- Strategic Management (AREA)
- Finance (AREA)
- Accounting & Taxation (AREA)
- Development Economics (AREA)
- Entrepreneurship & Innovation (AREA)
- Computer Networks & Wireless Communication (AREA)
- Game Theory and Decision Science (AREA)
- General Engineering & Computer Science (AREA)
- Economics (AREA)
- Physics & Mathematics (AREA)
- General Business, Economics & Management (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
Description
본 발명은 3D 콘텐츠를 출력하는 공간 기반의 디지털 사이니지 제어 방법 및 그 장치에 관한 것으로, 더욱 상세하게는 적어도 하나 이상의 디스플레이를 이용하여 3D 콘텐츠를 출력하는 디지털 사이니지 제어 방법 및 그 장치에 관한 것이다.The present invention relates to a space-based digital signage control method and apparatus for outputting 3D contents, and more particularly, to a digital signage control method and apparatus for outputting 3D contents using at least one display. .
종래 컨텐츠 제공 방식은, 광고 컨텐트가 게시된 전단지를 오프라인(off-line)으로 제공하거나 인터넷, TV나 라디오 등에 온라인(on-line)으로 제공하는 것이 일반적이었다. 다만, 이러한 종래 컨텐츠 제공 방식은, 이용자에게 고정된 정보를 일방적으로 제공할 뿐만 아니라 컨텐츠에 대한 소유자와 제작자가 상이하여 기 제작된 컨텐츠의 빠른 수정, 변경, 업데이트 등이 용이하지 않다. 따라서, 최근에는 디지털 사이니지를 통해 컨텐츠를 제공하는 방식이 대두되고 있다.In the conventional content providing method, it is common to provide flyers on which advertising content is posted offline (off-line) or to provide online (on-line) Internet, TV or radio. However, such a conventional content provision method not only provides fixed information to users unilaterally, but also makes it difficult to quickly modify, change, or update pre-produced content because the owners and creators of the content are different. Therefore, recently, a method of providing content through digital signage has emerged.
디지털 사이니지(digital signage)는 디지털 정보 디스플레이(digital information display)를 이용한 컨텐츠 표시 수단으로, 서버에서 통신망을 통해 컨텐츠를 제어할 수 있는 것을 말한다. 지하철 역사, 버스 정류장, 아파트 엘리베이터, 건물 외관, 은행 등 유동 인구가 많은 곳에서 흔히 볼 수 있으며, 현재는 단순히 2D 동영상 형태에 소리를 곁들인 광고를 시간대별로 번갈아 노출하는 형식이 대부분이다.A digital signage is a means for displaying content using a digital information display, and means that a server can control content through a communication network. It is common in places with a large floating population, such as subway stations, bus stops, apartment elevators, building exteriors, and banks, and currently, most of them are simply 2D video ads with sound alternately exposed at different times of the day.
다만, 최근에는 사람들에게 더욱더 흥미로운 컨텐츠를 제공하거나 컨텐츠를 효율적으로 제공하기 위하여 적어도 하나의 디스플레이를 통해 3D 입체 영상을 노출시키는 경우가 늘어나고 있다. 예를 들어, 옥외 공간에서 실재감이 느껴지는 거대한 파도가 두개의 디스플레이를 통해 3D 입체 영상으로 노출되는 경우도 있다. 따라서, 이를 바탕으로 사용자들에게 컨텐츠를 제공함에 있어서, 다양한 환경(예: 실내 공간, 좁은 공간)에서도 컨텐츠를 제공하고, 일방적인 정보 제공이 아닌 사용자와의 양방향 교류를 통해 맞춤형 컨텐츠를 적절한 장소에서 노출하는 방안이 마련될 필요가 있다.However, in recent years, cases in which 3D stereoscopic images are exposed through at least one display are increasing in order to provide more interesting content to people or efficiently provide content. For example, in some cases, a huge wave that feels real in an outdoor space is exposed as a 3D stereoscopic image through two displays. Therefore, in providing content to users based on this, providing content in various environments (e.g., indoor space, narrow space), and providing customized content in an appropriate place through interactive exchange with users rather than one-way information provision. A method of exposure needs to be devised.
상기와 같은 문제점을 해결하기 위한 본 발명의 목적은, 복수개의 디스플레이를 이용하여 공간 기반의 디지털 사이니지를 제어하는 방법 및 그 장치를 제공하는데 있다.An object of the present invention to solve the above problems is to provide a method and apparatus for controlling space-based digital signage using a plurality of displays.
상기와 같은 문제점을 해결하기 위한 본 발명의 다른 목적은, 본 문서를 통해 직접적 또는 간접적으로 파악되는 목적들을 추가로 제공할 수 있다.Another object of the present invention for solving the above problems may further provide objects directly or indirectly identified through this document.
다양한 실시 예에 따르면, 3D 공간 기반의 콘텐츠를 제공하는 디지털 사이니지 제어 서버는, 외부 단말로부터 컨텐츠 제작 의뢰 신호 또는 영상 정보를 포함하는 컨텐츠 전시 의뢰 신호를 획득하고, 획득된 상기 영상 정보에 기반하여 영상 DB를 생성하는 데이터 관리부; 제1 디스플레이 및 제2 디스플레이 중 적어도 하나 이상을 포함하는 전광판을 통해 출력되는 영상을 생성하는 출력 영상 생성부; 및 상기 영상에 대하여 전처리를 수행하며, 상기 전광판에 상기 영상을 출력하는 3D 영상 출력부를 포함할 수 있다.According to various embodiments, a digital signage control server providing 3D space-based content obtains a content production request signal or a content display request signal including image information from an external terminal, and based on the obtained image information a data management unit generating an image DB; an output image generation unit that generates an image output through an electric signboard including at least one of a first display and a second display; and a 3D image output unit that performs pre-processing on the image and outputs the image to the display board.
다양한 실시 예에 따르면, 상기 출력 영상 생성부는, 상기 전광판의 설치 정보 및 상기 전광판의 해상도 정보를 획득하고, 관람자의 위치를 결정하고, 결정된 관람자의 위치에서 상기 전광판에 대한 시선 방향을 결정하고, 상기 전광판의 크기 정보에 기반하여 제작된 3D 영상을 1차 렌더링하고, 1차 렌더링한 상기 3D 영상이 상기 시선 방향으로 전광판에 프로젝트되어 표시된 이미지를 획득하고, 획득된 상기 이미지의 제1 부분에 대하여 베이크(bake)하고, 상기 이미지의 제2 부분에 대하여 베이크하고, 베이크된 상기 제1 부분 및 상기 제2 부분을 합성하여 상기 전광판에 출력될 최종 3D 영상을 생성할 수 있다.According to various embodiments, the output image generating unit obtains installation information of the electronic signboard and resolution information of the electronic signboard, determines a viewer's location, determines a gaze direction with respect to the electronic signboard from the determined viewer's position, and A 3D image produced based on the size information of the signboard is firstly rendered, the 3D image rendered firstly is projected on the signboard in the direction of the line of sight to obtain a displayed image, and a first part of the obtained image is baked. (bake), bake the second part of the image, and synthesize the baked first part and the second part to generate a final 3D image to be output to the electric signboard.
다양한 실시 예에 따르면, 3D 공간 기반의 콘텐츠를 제공하는 디지털 사이니지 제어 서버는, 외부 단말로부터 컨텐츠 제작 의뢰 신호 또는 영상 정보를 포함하는 컨텐츠 전시 의뢰 신호를 획득하고, 획득된 상기 영상 정보에 기반하여 영상 DB를 생성하는 데이터 관리부; 제1 디스플레이 및 제2 디스플레이를 통해 출력되는 영상에 대하여 전처리를 수행하며, 상기 제1 디스플레이에 제1 영상을 출력하고, 상기 제2 디스플레이에 제2 영상을 출력하는 3D 영상 출력부; 상기 서버와 연동된 비콘의 비콘 신호를 수신한 사용자 단말로부터 식별 코드를 획득하고, 상기 식별 코드에 기초하여 상기 사용자 단말의 위치 정보를 획득하는 관람자 식별부; 및 상기 콘텐츠와 관련된 광고 정보를 상기 사용자 단말에 제공하는 서비스 제공부를 포함할 수 있다.According to various embodiments, a digital signage control server providing 3D space-based content obtains a content production request signal or a content display request signal including image information from an external terminal, and based on the obtained image information a data management unit generating an image DB; a 3D image output unit which pre-processes images output through a first display and a second display, outputs a first image to the first display, and outputs a second image to the second display; a spectator identification unit obtaining an identification code from a user terminal that has received a beacon signal of a beacon interlocked with the server, and acquiring location information of the user terminal based on the identification code; and a service provider providing advertisement information related to the content to the user terminal.
다양한 실시 예에 따르면, 상기 제1 영상은 제1 뎁스 정보 및 제1 시점 정보를 포함하고, 상기 제2 영상은 제2 뎁스 정보 및 제2 시점 정보를 포함하고, 상기 3D 영상 출력부는, 상기 제1 디스플레이 및 상기 제2 디스플레이 간 각도에 따라 상기 제1 영상 및 상기 제2 영상 각각의 뎁스 정보 및 시점 정보를 변경하고, 상기 제1 영상 및 상기 제2 영상 간 아나몰픽 일루션에 기반하여 특정 영역에서 상기 콘텐츠가 3D 입체 영상인 제3 영상으로 보이도록 할 수 있다.According to various embodiments, the first image includes first depth information and first view information, the second image includes second depth information and second view information, and the 3D image output unit Depth information and viewpoint information of each of the first image and the second image are changed according to an angle between the first display and the second display, and based on the anamorphic illusion between the first image and the second image, the depth information and viewpoint information are changed in a specific area. The content may be displayed as a third image that is a 3D stereoscopic image.
다양한 실시 예에 따르면, 상기 3D 영상 출력부는, 상기 관람자 식별부를 통해 상기 사용자 단말을 인식하고, 인식된 상기 사용자 단말의 사용자의 관심 정보를 획득하고, 상기 영상 DB를 통해 획득된 상기 관심 정보에 대응하는 콘텐츠를 서칭하고, 서칭된 상기 콘텐츠에 대응하는 영상을 상기 제1 디스플레이 및 상기 제2 디스플레이를 통해 출력할 수 있다.According to various embodiments, the 3D image output unit recognizes the user terminal through the viewer identification unit, obtains user interest information of the recognized user terminal, and corresponds to the interest information obtained through the image DB. content may be searched, and an image corresponding to the searched content may be output through the first display and the second display.
다양한 실시 예에 따르면, 상기 3D 영상 출력부는, 상기 제1 디스플레이 및 상기 제2 디스플레이 각각이 설치된 각도에 따라, 상기 제3 영상이 3D로 보이기 위한 최적의 시청 최적 영역을 결정하되, 상기 제1 영상의 제1 뎁스 정보와 제1 시점 정보, 및 상기 제2 영상의 제2 뎁스 정보와 제2 시점 정보에 따라 시청 최적 영역을 결정하고, 상기 시청 최적 영역은 상기 각도에 따라 상기 제1 디스플레이와 상기 제2 디스플레이가 접하는 모서리를 기준으로 미리 설정된 거리 범위 및 미리 설정된 방향, 미리 설정된 각도 범위에 해당되는 영역일 수 있다.According to various embodiments, the 3D image output unit determines an optimum viewing area for viewing the third image in 3D according to an angle at which each of the first display and the second display is installed, and An optimal viewing area is determined according to first depth information and first viewpoint information of the second image and second depth information and second viewpoint information of the second image, and the viewing optimal region is determined by the first display and the It may be an area corresponding to a preset distance range, a preset direction, and a preset angular range based on an edge contacting the second display.
다양한 실시 예에 따르면, 상기 서비스 제공부는, 상기 사용자 단말과 상기 비콘 사이의 거리, 상기 사용자 단말이 상기 시청 최적 영역에 위치하는 시간, 상기 시청 최적 영역에 위치한 최근 1시간 동안 사용자 단말들의 수, 상기 시청 최적 영역에 최근 1시간 동안 드나든 사용자 단말들의 수에 기초하여, 상기 사용자 단말을 타겟 단말로 결정하고, 상기 사용자 단말에 상기 콘텐츠와 관련된 광고 정보를 제공할 수 있다.According to various embodiments, the service providing unit may include a distance between the user terminal and the beacon, a time when the user terminal is located in the viewing optimal area, the number of user terminals located in the viewing optimal area for the last 1 hour, the The user terminal may be determined as a target terminal based on the number of user terminals that have been in and out of the viewing optimum area during the last hour, and advertisement information related to the content may be provided to the user terminal.
본 문서에 개시되는 다양한 실시 예들에 따르면, 사용자들에게 시선을 주목시킬 수 있는 3D 입체 영상을 통해 컨텐츠를 제공할 수 있다.According to various embodiments disclosed in this document, content may be provided through a 3D stereoscopic image capable of drawing attention to users.
또한, 다양한 실시 예들에 따르면, 무분별한 컨텐츠 제공이 아닌, 사용자의 특성을 고려하여 시간대별로 맞춤형 컨텐츠를 제공할 수 있다.In addition, according to various embodiments, customized content may be provided for each time zone in consideration of the user's characteristics, rather than indiscriminately providing content.
이 외에, 본 문서를 통해 직접적 또는 간접적으로 파악되는 다양한 효과들이 제공될 수 있다.In addition to this, various effects identified directly or indirectly through this document may be provided.
도 1은 일 실시 예에 따른 시스템을 도시한 도면이다.
도 2는 서버의 주요 구성 요소를 나타낸 도면이다.
도 3a 내지 도 3e는 전광판(예: 디스플레이)에 출력될 출력 영상을 생성 내지 준비하는 과정에 관한 도면들이다.
도 4는 적어도 하나 이상의 디스플레이를 통해 출력되는 3D 입체 영상을 관람하는 것에 관한 일 실시 예에 관한 도면이다.
도 5는 일 실시 예에 따라 시청 최적 영역을 결정하고, 시청 최적 영역에 위치한 관람자들을 대상으로 영상과 관련된 서비스를 제공하는 것과 관련된 도면이다.
도 6은 도 1에 따른 서버의 하드웨어 구성을 나타낸 도면이다.1 is a diagram illustrating a system according to an embodiment.
2 is a diagram showing the main components of the server.
3A to 3E are diagrams related to a process of generating or preparing an output image to be output to an electronic signboard (eg, a display).
4 is a diagram related to an embodiment of watching a 3D stereoscopic image output through at least one display.
5 is a diagram related to determining an optimal viewing area and providing a video-related service to viewers located in the optimal viewing area according to an exemplary embodiment.
6 is a diagram showing the hardware configuration of the server according to FIG. 1;
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였다.Since the present invention can make various changes and have various embodiments, specific embodiments will be illustrated in the drawings and described in detail in the detailed description. However, this is not intended to limit the present invention to specific embodiments, and should be understood to include all modifications, equivalents, and substitutes included in the spirit and scope of the present invention. Like reference numerals have been used for like elements throughout the description of each figure.
제1, 제2, A, B 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.Terms such as first, second, A, and B may be used to describe various components, but the components should not be limited by the terms. These terms are only used for the purpose of distinguishing one component from another. For example, a first element may be termed a second element, and similarly, a second element may be termed a first element, without departing from the scope of the present invention. The terms and/or include any combination of a plurality of related recited items or any of a plurality of related recited items.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.It is understood that when an element is referred to as being "connected" or "connected" to another element, it may be directly connected or connected to the other element, but other elements may exist in the middle. It should be. On the other hand, when an element is referred to as “directly connected” or “directly connected” to another element, it should be understood that no other element exists in the middle.
본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Terms used in this application are only used to describe specific embodiments, and are not intended to limit the present invention. Singular expressions include plural expressions unless the context clearly dictates otherwise. In this application, the terms "include" or "have" are intended to designate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, but one or more other features It should be understood that the presence or addition of numbers, steps, operations, components, parts, or combinations thereof is not precluded.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which the present invention belongs. Terms such as those defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related art, and unless explicitly defined in the present application, they should not be interpreted in an ideal or excessively formal meaning. don't
이하, 본 발명에 따른 바람직한 실시예를 첨부된 도면을 참조하여 상세하게 설명한다.Hereinafter, preferred embodiments according to the present invention will be described in detail with reference to the accompanying drawings.
도 1은 일 실시 예에 디지털 사이니지 제어 시스템(10)을 도시한 도면이다. 도 1을 참조하면, 디지털 사이니지 제어 시스템(10)은 디지털 사이니지 제어 서버(100), 사용자 단말(200), 디스플레이(300) 등을 포함할 수 있다. 이하 설명되는 동작들은 디지털 사이니지 제어 서버(100)에 의하여 제어되는 플랫폼(예: 웹 페이지 및/또는 어플리케이션)을 통해 수행 내지 구현될 수 있다. 다시 말해서, 디지털 사이니지 제어 서버(100)는, 사용자가 사용자 단말(200)을 이용하여 네트워크를 통해 디지털 사이니지 제어 서버(100)에 접속하여 다양한 정보를 입력하고, 등록하고, 출력할 수 있는 웹 사이트를 제공할 수 있으며, 사용자 단말(200)에 설치되고 실행됨으로써 다양한 정보를 입력하고, 등록하고, 출력할 수 있는 어플리케이션을 제공할 수 있다.1 is a diagram showing a digital
디지털 사이니지 제어 서버(100)는 디스플레이(300)를 통해 3D 입체 영상을 출력할 수 있다. 디지털 사이니지 제어 서버(100)는 아나몰픽 일루션 기술을 이용하여 디스플레이를 관람하는 사람들로 하여금 3D 입체 영상을 시청할 수 있도록 할 수 있다. 디지털 사이니지 제어 서버(100)는 디지털 사이니지 제어 서버(100)와 연동된 적어도 하나의 디스플레이를 이용하여 3D 입체 영상을 출력할 수 있다. 상기 적어도 하나의 디스플레이는 옥외 뿐만 아니라, 옥내(실내)의 각진 기둥이나 벽면에 설치될 수 있다.The digital
사용자 단말(200)은 통신 가능한 데스크탑 컴퓨터(desktop computer), 랩탑 컴퓨터(laptop computer), 노트북(notebook), 스마트폰(smart phone), 태블릿 PC(tablet PC), 모바일폰(mobile phone), 스마트 워치(smart watch), 스마트 글래스(smart glass), e-book 리더기, PMP(portable multimedia player), 휴대용 게임기, 네비게이션(navigation) 장치, 디지털 카메라(digital camera), DMB(digital multimedia broadcasting) 재생기, 디지털 음성 녹음기(digital audio recorder), 디지털 음성 재생기(digital audio player), 디지털 동영상 녹화기(digital video recorder), 디지털 동영상 재생기(digital video player), 및 PDA(Personal Digital Assistant) 등 일 수 있다.The
디지털 사이니지 제어 서버(100), 사용자 단말(200)은 각각 통신 네트워크에 연결되어, 통신 네트워크를 통해 서로간 데이터를 송수신할 수 있다. 예를 들어, 통신 네트워크는 LAN(Local Area Network), MAN(Metropolitan Area Network), GSM(Global System for Mobile Network), EDGE(Enhanced Data GSM Environment), HSDPA(High Speed Downlink Packet Access), W-CDMA(Wideband Code Division Multiple Access), CDMA(Code Division Multiple Access), TDMA(Time Division Multiple Access), 블루투스(Bluetooth), 지그비(Zigbee), 와이-파이(Wi-Fi), VoIP(Voice over Internet Protocol), LTE Advanced, IEEE802.16m, WirelessMAN-Advanced, HSPA+, 3GPP Long Term Evolution (LTE), Mobile WiMAX(IEEE 802.16e), UMB(formerly EV-DO Rev. C), Flash-OFDM, iBurst and MBWA (IEEE 802.20) systems, HIPERMAN, Beam-Division Multiple Access (BDMA), Wi-MAX(World Interoperability for Microwave Access), 5G 등 다양한 종류의 유선 또는 무선 네트워크가 사용될 수 있다.The digital
디스플레이(300)는 옥외 공간뿐만 아니라, 실내 각진 기둥에 설치되거나 실내벽에 설치될 수 있다. 디스플레이(300)는 적어도 하나 이상의 디스플레이(예: 301, 302)로 구성될 수 있으며, 디스플레이(300)는 액정 디스플레이(LCD; liquid crystal display), 박막 트랜지스터 액정 디스플레이(TFT LCD; thin film transistor-liquid crystal display), 유기 발광 다이오드(OLED; organic light-emitting diode), 플렉서블 디스플레이(flexible display), 3차원 디스플레이(3D display) 중에서 적어도 하나를 포함할 수 있다. The
도 2는 디지털 사이니지 제어 서버(100)의 주요 구성 요소를 나타낸 도면이다. 도 3a 내지 도 3e는 전광판(예: 디스플레이)에 출력될 출력 영상을 생성 내지 준비하는 과정에 관한 도면들이다.2 is a diagram showing the main components of the digital
도 3a를 참조하면, 출력 영상 생성부(102)는 3D 영상이 출력되는 전광판(예: 디스플레이)의 설치 정보, 실제 해상도 정보를 획득할 수 있다. 상기 전광판의 설치 정보는 전광판의 높이 정보(예: 지면으로부터 디스플레이가 설치된 지점까지의 높이 정보), 전광판의 크기 정보(예: 전광판이 둘러싸고 있는 구조물의 가로폭, 세로폭 정보, 전광판을 이루고 있는 디스플레이의 높이 정보, 너비 정보)를 포함할 수 있다.Referring to FIG. 3A , the
출력 영상 생성부(102)는 관람자의 위치(예: 관람자가 디스플레이를 바라보는 위치)를 결정하고, 결정된 관람자의 위치에 (가상의) 카메라를 위치시킬 수 있다. 출력 영상 생성부(102)는 가상의 카메라를 제어하여 가상의 디스플레이를 바라보도록 카메라의 시선 방향을 결정할 수 있다. 상기 관람자의 위치는 이하 시청 최적 영역의 일 위치일 수 있다.The output
도 3b를 참조하면, 출력 영상 생성부(102)는 전광판 구역 안에서 제작된 3D 영상을 획득할 수 있다. 다시 말해서, 출력 영상 생성부(102)는 전광판의 크기 정보(예: 전광판이 둘러싸고 있는 구조물의 부피 정보)에 기반하여 제작된 3D 영상을 획득할 수 있다.Referring to FIG. 3B , the output
도 3c를 참조하면, 출력 영상 생성부(102)는 획득된 상기 3D 영상을 1차 렌더링 할 수 있다. 도 3d를 참조하면, 출력 영상 생성부(102)는 1차 렌더링한 3D 영상이 결정된 상기 시선 방향으로 프로젝트되어(투영된, projected) 전광판에 표시되는 이미지를 획득할 수 있다. 다시 말해서, 전광판에 카메라의 프로젝션 기능을 이용하여 1차 렌더링한 3D 영상을 쏴 전광판에 1차 렌더링한 3D 영상이 표시되며, 출력 영상 생성부(102)는 전광판에 표시되는 이미지를 획득할 수 있다. 출력 영상 생성부(102)는 획득된 이미지의 제1 부분에 대하여 2차 렌더링(예: 베이크(bake))하고, 획득된 이미지의 제2 부분에 대하여 2차 렌더링(예: 베이크(bake))할 수 있다. 베이크(bake) 기술은 재질, 텍스쳐, 조명 모드를 특정 사물 및 특정 이미지에 미리 저장해놓고, 객체 표면에 그대로 입히는 것을 의미할 수 있다. 다시 말해서, 셰이더(shader)와 조명의 효과를 미리 계산해서 이미지 텍스처에 기록하는 것을 의미할 수 있다. Referring to FIG. 3C , the output
일반적인 렌더링은 많은 계산량을 발생시키기 때문에 빠른 렌더링이 필요한 곳에서는 계산량을 줄이기 위해 미리 계산된 정보를 이미지 텍스처에 저장한 뒤, 실시간으로 광원에 영향을 받는 객체에 계산을 따로 하지 않고 텍스처에 저장된 색으로 객체를 칠해 렌더링 속도를 향상시키기 본 발명의 3D 출력 영상 생성에 있어서 베이크 기술이 이용될 수 있다.Since general rendering generates a large amount of calculation, in order to reduce the amount of calculation in places where fast rendering is required, pre-calculated information is stored in the image texture, and then the color stored in the texture is converted to the object affected by the light source in real time without separate calculation. Improving rendering speed by painting an object A bake technique may be used in generating a 3D output image of the present invention.
도 3e를 참조하면, 출력 영상 생성부(102)는 2차 렌더링된(베이크된(baked)) 제1 영상 및 2차 렌더링된(베이크된(baked)) 제2 영상을 합성하여 전광판에 출력될 최종 3D 영상을 생성할 수 있다.Referring to FIG. 3E , the output
도 4는 적어도 하나 이상의 디스플레이를 통해 출력되는 3D 입체 영상을 관람하는 것에 관한 일 실시 예에 관한 도면이다. 디지털 사이니지 제어 서버(100)는 데이터 관리부(101), 3D 영상 출력부(103), 관람자 식별부(104) 및 서비스 제공부(105) 등을 포함할 수 있다.4 is a diagram related to an embodiment of watching a 3D stereoscopic image output through at least one display. The digital
데이터 관리부(101)는 외부 단말로부터 컨텐츠 제작 의뢰 신호 또는 컨텐츠 전시 의뢰 신호를 획득할 수 있다. 상기 컨텐츠 전시 의뢰 신호는 디스플레이(300)를 통해 출력할 영상 정보를 포함할 수 있다. 데이터 관리부(101)는 외부 단말로부터 획득된 영상 정보 및 디지털 사이니지 제어 서버(100)에서 제작된 영상 정보에 기반하여 영상 DB를 생성할 수 있다.The
일 실시 예에서, 3D 영상 출력부(103)는 3D 영상 생성부(102)를 통해 생성된 상기 최종 3D 영상을 제1 디스플레이(301) 및/또는 제2 디스플레이(302)에 표시할 수 있다.In an embodiment, the 3D
일 실시 예에서, 3D 영상 출력부(103)는 제1 디스플레이(301)에 제1 영상을 표시하고, 제2 디스플레이(302)에 제2 영상을 표시하되, 아나몰픽 일루션(anamorphic illusion) 기술을 이용하여 특정 영역에서 제1 영상과 제2 영상에 기반한 제3 영상이 보일 수 있도록 할 수 있다. 상기 제1 영상 및 상기 제2 영상은 각각 다른 뎁스(depth) 정보와 시점(point of view) 정보를 포함할 수 있다. 예를 들어, 제1 영상은 제1 뎁스 정보 및 제1 시점 정보를 포함하고, 제2 영상은 제2 뎁스 정보 및 제2 시점 정보를 포함할 수 있다. 상기 제1 영상 내지 상기 제3 영상의 콘텐츠 내지 콘텐츠의 종류는 광고, 방송, 교통 정보, 재난 안전 정보, 날씨 정보 등 다양한 내용을 포함할 수 있다. In one embodiment, the 3D
3D 영상 출력부(103)는 제1 디스플레이(301)와 제2 디스플레이(302) 간 각도에 따라 상기 제1 영상 및 상기 제2 영상 각각의 뎁스 정보 및 시점 정보를 변경할 수 있다.The 3D
3D 영상 출력부(103)는 시간대별로 디스플레이(300)의 휘도를 다르게 설정할 수 있다. 예를 들어, 3D 영상 출력부(103)는 밝은 환경에서 시인성 확보를 위하여 디스플레이(300)를 미리 설정된 임계 휘도값 이상의 휘도로 구현할 수 있다.The 3D
3D 영상 출력부(103)는 하루를 미리 설정된 시간 간격(예: 2시간)으로 복수의 시간대들로 나누고, 복수의 시간대들 중에서 시청 최적 영역에 분포한 사용자들이 가장 적은 시간대를 제1 시간대로 결정하고, 상기 제1 시간대에 상기 디스플레이를 오프(off) 할 수 있다.The 3D
3D 영상 출력부(103)는 상기 영상 DB을 통해 사용자 맞춤형 광고를 표시할 수 있다. 예를 들어, 3D 영상 출력부(103)는 특정 사용자가 디스플레이 주변을 지나갈 때 관람자 식별부(104)를 통해 상기 특정 사용자를 인식하고, 인식된 상기 특정 사용자의 관심 정보를 획득하고, 획득된 관심 정보에 대응하는 광고를 표시할 수 있다. 다시 말해서, 관람자 식별부(104)는 비콘(400)을 통해 디스플레이(300) 주변의 사용자 단말들을 인식하고, 인식된 사용자 단말들의 위치 분포도를 생성하고, 사용자 단말들의 밀도가 가장 높은 영역에 속한 사용자들 중 상기 영역에 가장 오래 머물고 있는 사용자의 관심 정보를 획득하고, 획득된 관심 정보에 대응하는 콘텐츠를 표시할 수 있다. 관람자 식별부(104)는 사용자의 나이, 사용자의 성별에 기반하여 상기 관심 정보를 결정할 수 있으며, 인터넷 포탈 서버(예: 네이버, 다음, 구글)에 포함된 오픈 소스(open source)로부터 상기 사용자와 동일한 나이, 동일한 성별을 갖는 다른 사용자들의 온라인 검색 정보를 획득하고, 획득된 온라인 검색 정보에 기반하여 상기 관심 정보를 결정할 수 있다.The 3D
관람자 식별부(104)는 비콘을 비용하여 다수의 사용자 단말들 각각에 대하여 사용자 식별을 할 수 있다. 관람자 식별부(104)는 사용자 단말들에 대응하는 식별 코드에 기초하여 사용자 식별을 할 수 있다. 관람자 식별부(104)는 비콘에 의하여 발생된 비콘 신호를 수신한 사용자 단말로부터 식별 코드를 획득하고, 획득된 상기 식별 코드에 기반하여 상기 사용자 단말의 사용자 정보를 획득할 수 있다. 다시 말해서, 사용자 단말(200)이 비콘에 의하여 브로드캐스팅되는 비콘 신호를 수신함에 따라 관람자 식별부(104)는 사용자 단말(200)에 탑재된 GPS 기능을 통해 사용자 단말(200)의 위치 정보(예: 좌표 정보)를 포함하는 사용자 정보를 획득할 수 있다.The
관람자 식별부(104)는 비콘(400)에 통신 연결을 수립한 사용자 단말(200)들을 식별할 수 있다. 비콘(beacon) 기술이 다양한 분야에 적용될 수 있다. 예를 들어, 마케팅 분야인 경우, 서비스 제공부(105)는 비콘(400)을 통해 무선으로 상기 디스플레이를 통해서 출력되는 영상과 관련된 광고 데이터, 이벤트 데이터 및/또는 쿠폰 데이터를 포함하는 비콘 신호를 브로드캐스팅(broadcasting)하면 그 주변을 지나는 식별된 사용자 단말에서 비콘에서 발생시키는 비콘 신호를 식별하여 광고 페이지, 이벤트 및/또는 쿠폰을 사용자에게 표시할 수 있다. 비콘(400)은 디스플레이(300)의 특정 영역에 배치되며, 사용자들이 디스플레이에 접근하고, 시청하고, 떠남에 따라 비콘으로 하여금 사용자의 사용자 단말과 통신하도록 구성될 수 있다. 전용 비콘은 독립형(stand-alone) 혹은 네트위크화된 환경(networked environment)에서 동작할 수 있다.The
도 5는 일 실시 예에 따라 시청 최적 영역을 결정하고, 시청 최적 영역에 위치한 관람자들을 대상으로 영상과 관련된 서비스를 제공하는 것과 관련된 도면이다.5 is a diagram related to determining an optimal viewing area and providing a service related to an image to viewers located in the optimal viewing area according to an exemplary embodiment.
3D 영상 출력부(103)는 디스플레이들이 설치된 각도에 따라, 3D로 보이기 위한 최적의 시청 최적 영역을 결정할 수 있다. 3D 영상 출력부(103)는 제1 디스플레이(301)를 통해 출력되는 제1 영상의 제1 뎁스 정보와 제1 시점 정보, 및 제2 디스플레이(302)를 통해 출력되는 제2 영상의 제2 뎁스 정보와 제2 시점 정보에 따라 미리 설정된 시청 최적 영역을 결정할 수 있다. 상기 시청 최적 영역은 제1 디스플레이(301)와 제2 디스플레이(302)가 접하는 모서리를 기준으로 미리 설정된 거리 범위 및 미리 설정된 방향, 미리 설정된 각도 범위에 해당되는 영역일 수 있다.The 3D
관람자 식별부(104)는 결정된 시청 최적 영역을 지나가는 사용자들의 사용자 단말들을 식별하되, 서비스 제공부(105)에 의하여 결정된 타겟 단말들을 식별할 수 있다.The
서비스 제공부(105)는 비콘 신호를 수신한 모든 사용자 단말의 식별 코드를 획득하는 것이 아니라, 미리 설정된 조건을 만족한 사용자 단말의 식별 코드를 획득할 수 있다. 다시 말해서, 비콘(400)에 근접한 모든 사용자 단말에 서비스 제공부(105)에서 제공하는 서비스에 관한 정보 내지 인터페이스가 표시되는 경우, 서비스를 원치 않는 사용자들에게는 불편함과 불쾌함을 줄 수 있으므로, 서비스 제공부(105)는 미리 설정된 조건을 만족한 사용자 단말을 서비스를 제공할 타겟 단말로 결정할 수 있다.The
서비스 제공부(105)는 비콘(400)으로부터 미리 설정된 거리에 접근하고, 비콘과 미리 설정된 거리 내에서 미리 설정된 시간동안 위치하며, 디지털 사이니지 제어 서버(100)에서 제공하는 어플리케이션이 설치되어 있으며, 상기 어플리케이션을 실행 중인 사용자 단말을 상기 서비스를 제공할 타겟 단말로 결정할 수 있다. 다시 말해서, 비콘(400)과 근접한 거리 내에서 단순히 지나갔다는 것만으로 사용자 단말(200)에 디스플레이에 출력되는 영상과 관련된 서비스를 제공하는 것은 원치 않는 사용자들에게 보낼 수 있는 문제가 있을 수 있으므로, 서비스 제공부(105)는 미리 설정된 조건을 만족한 사용자 단말을 서비스를 제공할 타겟 단말로 결정할 수 있다.The
서비스 제공부(105)는 사용자 단말(200)과 비콘(400) 사이의 거리, 사용자 단말(200)이 시청 최적 영역에 위치하는 시간, 상기 시청 최적 영역에 위치한 최근 1시간 동안 다른 사용자 단말들의 수, 상기 시청 최적 영역에 최근 1시간 동안 드나든 사용자 단말들의 수에 기초하여, 비콘 신호에 응답하는 기준 값인 반응 지수를 산출할 수 있다. 서비스 제공부(105)는 이하 수학식 1을 통해 사용자 단말의 상기 반응 지수를 산출할 수 있다.The
상기 수학식 1에서, R는 반응 지수, m는 상기 사용자 단말과 상기 비콘 사이의 거리(m), s는 상기 사용자 단말이 상기 시청 최적 영역에 위치하는 시간(초), i는 상기 시청 최적 영역에 위치한 사용자 단말들의 수, k는 상기 시청 최적 영역에 최근 1시간 동안 드나든 사용자 단말들의 수를 의미할 수 있다.In Equation 1, R is the response index, m is the distance (m) between the user terminal and the beacon, s is the time (seconds) that the user terminal is located in the viewing optimal area, i is the viewing optimal area The number of user terminals located at k may mean the number of user terminals that have visited and entered the viewing optimal area during the last hour.
서비스 제공부(105)는 반응 지수가 미리 설정된 임계 지수보다 높은 사용자 단말을 상기 타겟 단말로 결정할 수 있다. 서비스 제공부(105)는 상기 디스플레이(300)를 통해서 출력되는 영상과 관련된 광고 데이터, 이벤트 데이터 및/또는 쿠폰 데이터를 상기 타겟 단말로 전송할 수 있다.The
도 6은 도 1에 따른 디지털 사이니지 제어 서버(100)의 하드웨어 구성을 나타낸 도면이다.FIG. 6 is a diagram showing the hardware configuration of the digital
도 6을 참조하면, 디지털 사이니지 제어 서버(100)는 적어도 하나의 프로세서(110) 및 상기 적어도 하나의 프로세서(110)가 적어도 하나의 동작(operation)을 수행하도록 지시하는 명령어들(instructions)을 저장하는 메모리(memory)를 포함할 수 있다.Referring to FIG. 6 , the digital
상기 적어도 하나의 동작은, 전술한 디지털 사이니지 제어 서버(100)의 동작이나 기능 중 적어도 일부를 포함하고 명령어들 형태로 구현되어 프로세서(110)에 의하여 수행될 수 있다.The at least one operation may include at least some of the operations or functions of the above-described digital
여기서 적어도 하나의 프로세서(110)는 중앙 처리 장치(central processing unit, CPU), 그래픽 처리 장치(graphics processing unit, GPU), 또는 본 발명의 실시예들에 따른 방법들이 수행되는 전용의 프로세서를 의미할 수 있다. 메모리(120) 및 저장 장치(160) 각각은 휘발성 저장 매체 및 비휘발성 저장 매체 중에서 적어도 하나로 구성될 수 있다. 예를 들어, 메모리(120)는 읽기 전용 메모리(read only memory, ROM) 및 랜덤 액세스 메모리(random access memory, RAM) 중 하나일 수 있고, 저장 장치(160)는, 플래시메모리(flash-memory), 하드디스크 드라이브(HDD), 솔리드 스테이트 드라이브(SSD), 또는 각종 메모리 카드(예를 들어, micro SD 카드) 등일 수 있다.Here, the at least one
또한, 디지털 사이니지 제어 서버(100)는 무선 네트워크를 통해 통신을 수행하는 송수신 장치(transceiver)(130)를 포함할 수 있다. 또한, 디지털 사이니지 제어 서버(100)는 입력 인터페이스 장치(140), 출력 인터페이스 장치(150), 저장 장치(160) 등을 더 포함할 수 있다. 디지털 사이니지 제어 서버(100)에 포함된 각각의 구성 요소들은 버스(bus)(170)에 의해 연결되어 서로 통신을 수행할 수 있다. 도 6에서는 디지털 사이니지 제어 서버(100)를 예로 들어 설명하였으나, 이에 한정되는 것은 아니다. 예를 들어, 복수 개의 사용자 단말들은 도 6에 따른 구성요소를 포함할 수 있다.In addition, the digital
본 발명에 따른 방법들은 다양한 컴퓨터 수단을 통해 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 컴퓨터 판독 가능 매체에 기록되는 프로그램 명령은 본 발명을 위해 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다.The methods according to the present invention may be implemented in the form of program instructions that can be executed by various computer means and recorded on a computer readable medium. Computer readable media may include program instructions, data files, data structures, etc. alone or in combination. Program instructions recorded on a computer readable medium may be specially designed and configured for the present invention or may be known and usable to those skilled in computer software.
컴퓨터 판독 가능 매체의 예에는 롬(ROM), 램(RAM), 플래시 메모리(flash memory) 등과 같이 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함될 수 있다. 프로그램 명령의 예에는 컴파일러(compiler)에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터(interpreter) 등을 사용해서 컴퓨터에 의해 실행될 수 있는 고급 언어 코드를 포함할 수 있다. 상술한 하드웨어 장치는 본 발명의 동작을 수행하기 위해 적어도 하나의 소프트웨어 모듈로 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.Examples of computer readable media may include hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions may include not only machine language codes generated by a compiler but also high-level language codes that can be executed by a computer using an interpreter and the like. The hardware device described above may be configured to operate with at least one software module to perform the operations of the present invention, and vice versa.
또한, 상술한 방법 또는 장치는 그 구성이나 기능의 전부 또는 일부가 결합되어 구현되거나, 분리되어 구현될 수 있다.In addition, the above-described method or device may be implemented by combining all or some of its components or functions, or may be implemented separately.
상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.Although the above has been described with reference to preferred embodiments of the present invention, those skilled in the art will variously modify and change the present invention within the scope not departing from the spirit and scope of the present invention described in the claims below. You will understand that it can be done.
100: 디지털 사이니지 제어 서버 200: 사용자 단말
300: 디스플레이 400: 비콘100: digital signage control server 200: user terminal
300: display 400: beacon
Claims (5)
외부 단말로부터 컨텐츠 제작 의뢰 신호 또는 영상 정보를 포함하는 컨텐츠 전시 의뢰 신호를 획득하고, 획득된 상기 영상 정보에 기반하여 영상 DB를 생성하는 데이터 관리부;
제1 디스플레이 및 제2 디스플레이 중 적어도 하나 이상을 포함하는 전광판을 통해 출력되는 영상을 생성하는 출력 영상 생성부;
상기 영상에 대하여 전처리를 수행하며, 상기 전광판에 상기 영상을 출력하는 3D 영상 출력부;
상기 서버와 연동된 비콘의 비콘 신호를 수신한 사용자 단말로부터 식별 코드를 획득하고, 상기 식별 코드에 기초하여 상기 사용자 단말의 위치 정보를 획득하는 관람자 식별부; 및
상기 콘텐츠와 관련된 광고 정보를 상기 사용자 단말에 제공하는 서비스 제공부를 포함하고,
상기 출력 영상 생성부는,
상기 전광판의 설치 정보 및 상기 전광판의 해상도 정보를 획득하고,
관람자의 위치를 결정하고, 결정된 관람자의 위치에서 상기 전광판에 대한 시선 방향을 결정하고,
상기 전광판의 크기 정보에 기반하여 제작된 3D 영상을 1차 렌더링하고,
1차 렌더링한 상기 3D 영상이 상기 시선 방향으로 전광판에 프로젝트되어 표시된 이미지를 획득하고,
획득된 상기 이미지의 제1 부분에 대하여 베이크(bake)하고, 상기 이미지의 제2 부분에 대하여 베이크하고,
베이크된 상기 제1 부분 및 상기 제2 부분을 합성하여 상기 전광판에 출력될 최종 3D 영상을 생성하고,
상기 3D 영상 출력부는,
상기 제1 디스플레이에 제1 영상을 출력하고, 상기 제2 디스플레이에 제2 영상을 출력하며, 상기 제1 영상은 제1 뎁스 정보 및 제1 시점 정보를 포함하고, 상기 제2 영상은 제2 뎁스 정보 및 제2 시점 정보를 포함하고,
상기 관람자 식별부를 통해 상기 사용자 단말을 인식하고, 인식된 상기 사용자 단말의 사용자의 관심 정보를 획득하고,
상기 영상 DB를 통해 획득된 상기 관심 정보에 대응하는 콘텐츠를 서칭하고, 서칭된 상기 콘텐츠에 대응하는 영상을 상기 제1 디스플레이 및 상기 제2 디스플레이를 통해 출력하고,
상기 제1 디스플레이 및 상기 제2 디스플레이 간 각도에 따라 상기 제1 영상 및 상기 제2 영상 각각의 뎁스 정보 및 시점 정보를 변경하고,
상기 제1 영상 및 상기 제2 영상 간 아나몰픽 일루션에 기반하여 특정 영역에서 상기 콘텐츠가 3D 입체 영상인 제3 영상으로 보이도록 하고,
상기 제1 디스플레이 및 상기 제2 디스플레이 각각이 설치된 각도에 따라, 상기 제3 영상이 3D로 보이기 위한 최적의 시청 최적 영역을 결정하되,
상기 제1 영상의 제1 뎁스 정보와 제1 시점 정보, 및 상기 제2 영상의 제2 뎁스 정보와 제2 시점 정보에 따라 시청 최적 영역을 결정하고,
상기 시청 최적 영역은 상기 각도에 따라 상기 제1 디스플레이와 상기 제2 디스플레이가 접하는 모서리를 기준으로 미리 설정된 거리 범위 및 미리 설정된 방향, 미리 설정된 각도 범위에 해당되는 영역이고,
상기 서비스 제공부는,
상기 사용자 단말과 상기 비콘 사이의 거리, 상기 사용자 단말이 상기 시청 최적 영역에 위치하는 시간, 상기 시청 최적 영역에 위치한 최근 1시간 동안 사용자 단말들의 수, 상기 시청 최적 영역에 최근 1시간 동안 드나든 사용자 단말들의 수에 기초하여, 상기 사용자 단말을 타겟 단말로 결정하고,
상기 사용자 단말에 상기 콘텐츠와 관련된 광고 정보를 제공하는, 디지털 사이니지 제어 서버.
In a digital signage control server providing 3D space-based content,
a data management unit that obtains a content production request signal or a content display request signal including image information from an external terminal, and creates an image DB based on the obtained image information;
an output image generation unit that generates an image output through an electric signboard including at least one of a first display and a second display;
a 3D image output unit performing pre-processing on the image and outputting the image to the display board;
a spectator identification unit obtaining an identification code from a user terminal that has received a beacon signal of a beacon interlocked with the server, and acquiring location information of the user terminal based on the identification code; and
A service providing unit providing advertisement information related to the content to the user terminal;
The output image generating unit,
Acquiring installation information of the electronic signboard and resolution information of the electronic signboard;
Determining the position of the viewer, determining the gaze direction for the electric signboard at the determined position of the viewer,
First rendering of the 3D image produced based on the size information of the signboard,
The primary rendered 3D image is projected on the electric signboard in the direction of the line of sight to obtain a displayed image;
Bake a first part of the acquired image, bake a second part of the image,
synthesizing the baked first part and the second part to generate a final 3D image to be output to the electronic display board;
The 3D image output unit,
A first image is output to the first display, a second image is output to the second display, the first image includes first depth information and first viewpoint information, and the second image has a second depth information and second point information;
Recognizing the user terminal through the spectator identification unit, obtaining interest information of a user of the recognized user terminal,
Searching for content corresponding to the interest information obtained through the image DB, and outputting an image corresponding to the searched content through the first display and the second display;
Changing depth information and viewpoint information of each of the first image and the second image according to an angle between the first display and the second display;
Based on the anamorphic illusion between the first image and the second image, the content is displayed as a third image, which is a 3D stereoscopic image, in a specific region;
Determining an optimal viewing area for viewing the third image in 3D according to an angle at which each of the first display and the second display is installed,
determining an optimal viewing area according to first depth information and first viewpoint information of the first image, and second depth information and second viewpoint information of the second image;
The optimal viewing area is an area corresponding to a preset distance range, a preset direction, and a preset angle range based on a corner where the first display and the second display meet according to the angle,
The service provider,
The distance between the user terminal and the beacon, the time at which the user terminal is located in the viewing optimum area, the number of user terminals located in the viewing optimum area during the last 1 hour, and the users who have visited the viewing optimum area during the last 1 hour Based on the number of terminals, determining the user terminal as a target terminal;
A digital signage control server that provides advertisement information related to the content to the user terminal.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220103837A KR102497324B1 (en) | 2022-08-19 | 2022-08-19 | Method and device for controlling space-based digital signage outputting 3d content |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220103837A KR102497324B1 (en) | 2022-08-19 | 2022-08-19 | Method and device for controlling space-based digital signage outputting 3d content |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102497324B1 true KR102497324B1 (en) | 2023-02-08 |
Family
ID=85225764
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020220103837A KR102497324B1 (en) | 2022-08-19 | 2022-08-19 | Method and device for controlling space-based digital signage outputting 3d content |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102497324B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102606616B1 (en) * | 2023-05-30 | 2023-11-29 | 주식회사 비브스튜디오스 | Method for dynamically displaying artworks dependent on the location of audience |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20160066286A (en) * | 2014-12-02 | 2016-06-10 | 에스케이플래닛 주식회사 | Digital signage, method for displaying contents based on digital signage, Information transferring system based on digital signage and computer readable medium having computer program recorded therefor |
US20180027219A1 (en) * | 2014-09-17 | 2018-01-25 | Pointcloud Media, LLC | Tri-surface image projection system and method |
KR20180096417A (en) * | 2017-02-21 | 2018-08-29 | 엘지전자 주식회사 | Digital signage and method for controlling the same |
KR102103726B1 (en) * | 2019-11-26 | 2020-04-23 | (주)코리아 싸인 | Ai digital signage |
-
2022
- 2022-08-19 KR KR1020220103837A patent/KR102497324B1/en active IP Right Grant
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180027219A1 (en) * | 2014-09-17 | 2018-01-25 | Pointcloud Media, LLC | Tri-surface image projection system and method |
KR20160066286A (en) * | 2014-12-02 | 2016-06-10 | 에스케이플래닛 주식회사 | Digital signage, method for displaying contents based on digital signage, Information transferring system based on digital signage and computer readable medium having computer program recorded therefor |
KR20180096417A (en) * | 2017-02-21 | 2018-08-29 | 엘지전자 주식회사 | Digital signage and method for controlling the same |
KR102103726B1 (en) * | 2019-11-26 | 2020-04-23 | (주)코리아 싸인 | Ai digital signage |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102606616B1 (en) * | 2023-05-30 | 2023-11-29 | 주식회사 비브스튜디오스 | Method for dynamically displaying artworks dependent on the location of audience |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6267789B2 (en) | Adaptive embedding of visual advertising content in media content | |
US9767615B2 (en) | Systems and methods for context based information delivery using augmented reality | |
US20120249586A1 (en) | Method and apparatus for providing collaboration between remote and on-site users of indirect augmented reality | |
EP3242225B1 (en) | Method and apparatus for determining region of image to be superimposed, superimposing image and displaying image | |
US8676650B1 (en) | Allocating and pricing geo-located advertisements for display on maps | |
EP2338152B1 (en) | Method and system for rendering of labels | |
US20160018238A1 (en) | Route inspection portals | |
KR102497324B1 (en) | Method and device for controlling space-based digital signage outputting 3d content | |
US20230245172A1 (en) | Information processing system, recording medium, and information processing method | |
KR20100055993A (en) | Remote campus tour system of interactive 3 dimensional game engine based | |
CN104484361A (en) | Method and device for displaying information | |
CN108255910A (en) | Information displaying method, client, server-side and equipment | |
Hoelzl et al. | Brave New City: the image in the urban data-space | |
US20160071496A1 (en) | Aligning content items with map features | |
US10057511B2 (en) | Framing enhanced reality overlays using invisible light emitters | |
KR20220036016A (en) | Solution for making of art gallery employing virtual reality | |
KR102409826B1 (en) | Apparatus and method for displaying signage image using metaverse | |
JP2018160225A (en) | Browsing system and program | |
CN112016503B (en) | Pavement detection method, device, computer equipment and storage medium | |
WO2020189341A1 (en) | Image display system, image distribution method, and program | |
KR20210094792A (en) | Server and method for providing augmented reality posting service | |
She et al. | A building label placement method for 3D visualizations based on candidate label evaluation and selection | |
CN114450655B (en) | System and method for quantifying augmented reality interactions | |
US20220058689A1 (en) | Display apparatus, server, method of controlling display apparatus, and method of controlling server | |
De Angeli et al. | A smartphone headset for augmented-reality experiences in museums |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
GRNT | Written decision to grant |