WO2018212369A1 - 2.5차원 이미지를 활용한 가상 전시 공간 시스템 및 제공 방법 - Google Patents

2.5차원 이미지를 활용한 가상 전시 공간 시스템 및 제공 방법 Download PDF

Info

Publication number
WO2018212369A1
WO2018212369A1 PCT/KR2017/005086 KR2017005086W WO2018212369A1 WO 2018212369 A1 WO2018212369 A1 WO 2018212369A1 KR 2017005086 W KR2017005086 W KR 2017005086W WO 2018212369 A1 WO2018212369 A1 WO 2018212369A1
Authority
WO
WIPO (PCT)
Prior art keywords
exhibition space
virtual exhibition
image
virtual
perspective
Prior art date
Application number
PCT/KR2017/005086
Other languages
English (en)
French (fr)
Inventor
김동리
박치형
윤수현
조인제
Original Assignee
디프트 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 디프트 주식회사 filed Critical 디프트 주식회사
Publication of WO2018212369A1 publication Critical patent/WO2018212369A1/ko
Priority to US16/685,556 priority Critical patent/US11069126B2/en
Priority to US17/350,710 priority patent/US11651545B2/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/503Blending, e.g. for anti-aliasing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/60Shadow generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/06Topological mapping of higher dimensional structures onto lower dimensional surfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/60Rotation of whole images or parts thereof

Definitions

  • the present invention relates to a virtual exhibition space, and more particularly, to a virtual exhibition space system and a method using the 2.5-dimensional image.
  • one virtual gallery service provides a flat service for arranging exhibition contents on a two-dimensional wall image, and another virtual gallery service constructs and services three-dimensional graphics of a virtual gallery using a three-dimensional engine.
  • another virtual gallery service configures a virtual reality gallery space using VR technology, and provides a service to experience content displayed in the virtual reality gallery space using a VR device.
  • the problem to be solved by the present invention is to provide a virtual exhibition space system and a method using the 2.5-dimensional image.
  • a virtual exhibition space generation unit for generating a virtual exhibition space image, and receives a virtual exhibition space image request from the user terminal
  • a server including a communication unit configured to provide the virtual exhibition space image to the user terminal
  • the virtual exhibition space generation unit includes a predetermined viewpoint and a predetermined number of predetermined virtual exhibition spaces including a plurality of wall surfaces. Construct a perspective view having a vanishing point of, calculate virtual three-dimensional coordinates of a predetermined position on the plurality of wall surfaces within the perspective view based on the vanishing point of the perspective view, and calculate two-dimensional based on the virtual three-dimensional coordinates. Rotate or resize a predetermined content image to display at least one of the plurality of wall surfaces in the perspective view.
  • the virtual exhibition space image is completed using the perspective view in which the content image is disposed on one wall surface.
  • the communication unit receives information about the viewpoint change of the user from the user terminal, the virtual exhibition space generation unit reproduces the virtual exhibition space image based on the information about the viewpoint change, Regenerating the virtual exhibition space image based on the information about the viewpoint change includes reconstructing the perspective view according to the changed viewpoint with respect to the virtual exhibition space.
  • the virtual exhibition space generation unit further completes the virtual exhibition space image by using a plurality of shadow layers having different transparency and a predetermined number of illumination layers,
  • the range of shadow values is determined according to the intensity and position, and the number or arrangement structure of the shadow layers is determined according to the range of the shadow values.
  • a virtual exhibition space system utilizing a 2.5-dimensional image which is a computer-implemented method, comprising: receiving a virtual exhibition space image request from a user, and a virtual exhibition space Generating and providing an image, wherein generating and providing an image of the virtual exhibition space includes a perspective view having a predetermined viewpoint and a predetermined number of vanishing points with respect to the predetermined virtual exhibition space including a plurality of walls.
  • Configuring calculating virtual three-dimensional coordinates of a predetermined position on the plurality of wall surfaces within the perspective view based on the vanishing point of the perspective view, and two-dimensional predetermined ones based on the virtual three-dimensional coordinates.
  • a value and phase the method comprising: completing the virtual display space image using the perspective view of the content images are arranged to.
  • the method further comprises loading a still shot of the virtual exhibition space image received from a server, and generating and providing the virtual exhibition space image comprises: Receiving the content image from the server during the loading of the still shot of and providing a still shot of the virtual exhibition space image by replacing the completed virtual exhibition space image.
  • the method further comprises obtaining information regarding the viewpoint change of the user, and regenerating the virtual exhibition space image based on the information about the viewpoint change.
  • Regenerating the virtual exhibition space image based on the information about the viewpoint change includes reconstructing the perspective view according to the changed viewpoint with respect to the virtual exhibition space.
  • the generating of the virtual exhibition space image may further include completing the virtual exhibition space image by using a plurality of shadow layers having a different transparency and a predetermined number of illumination layers.
  • the range of shadow values is determined according to the light intensity and position of the layer, and the number or arrangement of the shadow layers is determined according to the range of the shadow values.
  • FIG. 1 is a block diagram schematically illustrating a configuration of a virtual exhibition space system using a 2.5-dimensional image according to an embodiment of the present invention.
  • FIG. 2 is a block diagram schematically illustrating a detailed configuration of the server of FIG. 1.
  • FIG. 3 is a diagram conceptually illustrating a perspective view as a 2.5-dimensional image using cognitive optical illusion.
  • FIG. 4 is a diagram conceptually illustrating a deformation of a perspective view according to a user's viewpoint.
  • FIG. 5 is a diagram schematically illustrating data transmission efficiency between a server and a user terminal.
  • FIG. 6 is a diagram conceptually illustrating a digital drawing technique using a multilayer layer.
  • FIG. 7 and 8 are schematic diagrams of exemplary virtual exhibition space images.
  • FIG. 9 is a flowchart schematically illustrating a configuration of a method for providing a virtual exhibition space using a 2.5D image according to an exemplary embodiment of the present invention.
  • FIG. 10 is a flowchart schematically illustrating a detailed configuration of a virtual exhibition space image generation step of FIG. 9.
  • spatially relative terms below “, “ beneath “, “ lower”, “ above “, “ upper” It can be used to easily describe a component's correlation with other components. Spatially relative terms are to be understood as including terms in different directions of components in use or operation in addition to the directions shown in the figures. For example, when flipping a component shown in the drawing, a component described as “below” or “beneath” of another component may be placed “above” the other component. Can be. Thus, the exemplary term “below” can encompass both an orientation of above and below. Components may be oriented in other directions as well, so spatially relative terms may be interpreted according to orientation.
  • content image includes any content that can be expressed as a photograph, a picture, or a portrait or landscape photograph taken by an individual, and other images as a creation by an artist.
  • FIG. 1 is a block diagram schematically illustrating a configuration of a virtual exhibition space system using a 2.5-dimensional image according to an embodiment of the present invention.
  • a virtual exhibition space system using a 2.5D image includes a server 100 and a user terminal 200.
  • the server 100 and the user terminal 200 are connected to each other via a network.
  • the server 100 and the user terminal 200 may transmit and receive various data and / or information.
  • the network includes a wired or wireless network.
  • the size, topology, communication method, etc. of the network may be provided in various modifications according to embodiments.
  • the server 100 provides a virtual exhibition space image to the user terminal 200 in response to a virtual exhibition space image request from the user terminal 200.
  • the virtual exhibition space image is provided as a 2.5-dimensional image.
  • the 2.5-dimensional image represents a two-dimensional image representing a three-dimensional feeling based on cognitive optical illusion.
  • Cognitive optical illusion occurs in the cognitive process according to unconscious inference, and it is an optical illusion that appears because human tends to judge the whole as a whole. Detailed description thereof will be omitted because it may obscure the gist of the present invention.
  • FIG. 2 is a block diagram schematically illustrating a detailed configuration of the server of FIG. 1.
  • the server 100 includes a communication unit 110, a virtual exhibition space generation unit 120, a user personalization unit 130, a user information management unit 140, and a content image storage unit 150.
  • the communication unit 110, the virtual exhibition space generation unit 120, the user personalization unit 130, the user information management unit 150, and the content image storage unit 150 may transmit and receive various data and / or information.
  • the communication unit 110 communicates with the user terminal 200.
  • the communication unit 110 receives a virtual exhibition space image request from the user terminal 200 and provides the virtual exhibition space image to the user terminal 200.
  • the communication unit 110 provides a content image to the user terminal 200.
  • the communication unit 110 receives the information on the user's viewpoint change from the user terminal 200, and provides the user terminal 200 with the modified virtual exhibition space image.
  • the virtual exhibition space generation unit 120 generates a virtual exhibition space image.
  • the virtual exhibition space generation unit 120 configures a perspective view having a predetermined viewpoint and a predetermined number of vanishing points with respect to the predetermined virtual exhibition space.
  • the virtual exhibition space may include a plurality of wall surfaces.
  • the structure of the virtual exhibition space may be provided in advance.
  • the virtual exhibition space generation unit 120 may store data regarding the structure of the virtual exhibition space in advance.
  • the virtual exhibition space generation unit 120 calculates virtual three-dimensional coordinates of a predetermined position on a plurality of wall surfaces in the perspective view based on the vanishing point of the perspective view. For example, three-dimensional coordinates of the edge of each wall surface may be calculated, but are not limited thereto.
  • the virtual exhibition space generation unit 120 rotates or resizes a predetermined content image in two dimensions based on the virtual three-dimensional coordinates and arranges it on at least one of the plurality of wall surfaces in the perspective view.
  • the virtual exhibition space generation unit 120 completes the virtual exhibition space image by using the perspective view in which the content image is arranged.
  • the user personalization unit 130 analyzes the type or category of the preferred content for each user. To this end, the user personalization unit 130 may use the viewing history or feedback history of the user. The user personalization unit 130 may recommend content or exhibition space that the user prefers using the result of analyzing the user's preference information. The recommended content may be reflected in real time in the virtual exhibition space image. Through personalization of the user, the visit rate and purchase rate of the user can be increased.
  • the user information manager 140 manages user information.
  • the user information may include, but is not limited to, a user account, a password, a user's name, gender, age, region, occupation, profile information such as a user's preference information, and the like.
  • the content image storage unit 150 stores the content image. Unlike FIG. 2, the content image storage unit 150 may be provided as a separate server.
  • the server 100 may further include some components not shown in FIG. 2, or may be modified to not include some components shown in FIG. 2.
  • User terminal 200 represents a computer system used by a user.
  • the user terminal 200 may be provided as a mobile computer system such as a smartphone, a tablet, a personal digital assistant (PDA).
  • the user terminal 200 may be provided as a fixed computer system such as a notebook or a desktop.
  • the user terminal 200 is not limited to the above-described example, and may be provided to any computer system that can be connected to the server 100 through a network.
  • the user terminal 200 receives a virtual exhibition space image from the server 100 and provides it to the user.
  • the user terminal 200 receives the data and the content image of the structure of the virtual exhibition space from the server 100 to directly generate the virtual exhibition space image.
  • the user terminal 200 may store data regarding the structure of the virtual exhibition space in advance. The manner in which the user terminal 200 generates the virtual exhibition space image is substantially the same as described above.
  • FIG. 3 is a diagram conceptually illustrating a perspective view as a 2.5-dimensional image using cognitive optical illusion.
  • FIG. 3 a three-dimensional three-dimensional effect that a user can feel is conceptually illustrated by a perspective view having one vanishing point.
  • the virtual exhibition space represented in the perspective view includes a plurality of wall surfaces 11, 12, 13.
  • the predetermined content image 20 is then rotated or resized and placed on the wall surfaces 11, 12, 13.
  • the overall shape of the content image 20 may be modified to express a three-dimensional appearance.
  • one content image 20 is illustrated as being disposed on one wall 11, but is not limited thereto, and each content image may be disposed on each wall 11, 12, and 13. Can be.
  • a plurality of content images may be arranged at a predetermined interval on one wall surface.
  • FIG. 4 is a diagram conceptually illustrating a deformation of a perspective view according to a user's viewpoint.
  • the appearance of the virtual exhibition space displayed by the user changes according to the user's viewpoint. Therefore, the position of the user's viewpoint and vanishing point 15 in the perspective view with respect to the virtual exhibition space must also be changed.
  • the virtual exhibition space generation unit 120 regenerates the virtual exhibition space image based on the information about the viewpoint change provided from the user terminal 200. That is, the virtual exhibition space generation unit 120 reconstructs the perspective view of the virtual exhibition space according to the changed viewpoint of the user. At this time, the content image 20 is also reconstructed together.
  • the user terminal 200 may estimate a change in a user's viewpoint using a gyroscope and generate information about the change in the user's viewpoint, but is not limited thereto.
  • the server 100 may regenerate the virtual exhibition space image by receiving information about the change of viewpoint of the user from the user terminal 200.
  • the user terminal 200 may obtain information about the user's viewpoint change, and reproduce the virtual exhibition space image based on the information.
  • FIG. 5 is a diagram schematically illustrating data transmission efficiency between a server and a user terminal.
  • server 100 creates a still shot (or snapshot) of a virtual exhibit space image.
  • server 100 stores still shots of virtual exhibition space images generated by other computer systems.
  • the server 100 stores a still shot 30 of the virtual exhibition space image generated based on the (center) reference vanishing point position.
  • the server 100 transmits an individual content image to the user terminal 200.
  • the individual content image is for providing a detailed image and reconstructing the virtual exhibition space image according to a change in viewpoint as described below.
  • the user terminal 200 generates a virtual exhibition space image by using the individual content image.
  • the user terminal 200 replaces and provides the still shot 30 with the completed virtual exhibition space image.
  • a fade in / out method may be utilized.
  • the user terminal 200 stores the still shot 30 so that the server 100 does not request the still shot 30 thereafter. Meanwhile, when there is a change or update of the content image arranged in the virtual exhibition space, the server 100 may transmit the still shot 30 reflecting the change or update to the user terminal 200 again.
  • the user terminal 200 receives a zoom-in request for a wall on which the content image in the virtual exhibition space image is disposed, and enlarges the wall portion of the virtual exhibition space image, thereby providing the information provided from the server 100.
  • An individual content image can be used to provide a detailed image of the wall surface that is requested to be zoomed in to. In the case of a zoom out request, substantially the same reduction method may be applied.
  • the user interaction function is not limited to the above example.
  • only the content image preferred by the user or the content image may be transmitted to the user terminal 200 preferentially, thereby enabling fast loading and reducing data usage.
  • FIG. 6 is a diagram conceptually illustrating a digital drawing technique using a multilayer layer.
  • the virtual exhibition space generation unit 120 may include a plurality of shadow layers 40 having a different transparency and a predetermined number of illumination layers (not shown) in addition to the wall 10 and the content image 20. Use it to complete the virtual exhibition space image.
  • the shadow layer 40 may be disposed between the wall surface 10 and the content image 20 or may be disposed above the content image 20. In addition, multiple shadow layers 40 may be disposed. In addition, each shadow layer 40 of the multilayer shadow layer 40 may have a different shape.
  • the virtual exhibition space generation unit 120 may determine a range of shadow values according to the light intensity and position of the lighting layer, and determine the number or arrangement of the shadow layers according to the range of the shadow values. According to the range of the shadow value, a corresponding number of shadow layers 40 may be arranged in the order of high or low transparency. Based on the virtual three-dimensional coordinates of the perspective view, the shape of the shadow layer and the illumination layer may also be rotated or resized to deform. In addition, the overall shape can also be modified.
  • FIG. 7 and 8 are schematic diagrams of exemplary virtual exhibition space images.
  • a virtual exhibition space image generated using a perspective view is illustrated, and the virtual exhibition space includes four wall surfaces 10, and at least one content image 20 is disposed on the wall surface.
  • the content image disposed on the leftmost wall surface is deformed according to the shape of the wall surface in the perspective view.
  • the virtual exhibition space image includes a place 50 associated with the content image 20, for example, a portion of a place where the corresponding picture was taken when the content is a picture.
  • the virtual exhibition space may be composed of a plurality of walls connected to or separated from the place where the corresponding picture is taken.
  • FIGS. 9 is a flowchart schematically illustrating a configuration of a method for providing a virtual exhibition space using a 2.5D image according to an exemplary embodiment of the present invention. Descriptions overlapping with those described in connection with the virtual exhibition space system using the 2.5D image according to the exemplary embodiment of the present invention will be omitted with reference to FIGS. 1 to 8.
  • the user terminal 200 receives a virtual exhibition space image request from a user (S310) and the user terminal 200. ) Loading a still shot of the virtual exhibition space image received from the server 100 (S320), and generating, by the user terminal 200, the virtual exhibition space image to the user (S330).
  • the generating and providing of the virtual exhibition space image by the user terminal 200 includes receiving a content image from the server 100 while loading a still shot of the virtual exhibition space image.
  • the method may further include providing a still shot of the virtual exhibition space image by replacing the still shot with the completed virtual exhibition space image.
  • FIG. 10 is a flowchart schematically illustrating a detailed configuration of a virtual exhibition space image generation step of FIG. 9.
  • a perspective view having a predetermined viewpoint and a predetermined number of vanishing points with respect to a predetermined virtual exhibition space including a plurality of wall surfaces is generated (S331).
  • the user terminal 200 acquires information regarding a change in a viewpoint of a user, and a user.
  • the terminal 200 may further include regenerating a virtual exhibition space image based on the information about the viewpoint change.
  • the regenerating the virtual exhibition space image based on the information about the viewpoint change includes reconstructing the perspective view according to the changed viewpoint with respect to the virtual exhibition space.
  • the generating of the virtual exhibition space image may further include completing a virtual exhibition space image by using a plurality of shadow layers having a different transparency and a predetermined number of illumination layers.
  • the range of shadow values may be determined according to the intensity and position of light of the illumination layer, and the number or arrangement of the shadow layers may be determined according to the range of the shadow values.
  • Computer programs can include random access memory (RAM), read only memory (ROM), erasable programmable ROM (EPROM), electrically erasable programmable ROM (EEPROM), flash memory, hard disk, removable disk, CD-ROM, or It may reside in any form of computer readable recording medium well known in the art.
  • RAM random access memory
  • ROM read only memory
  • EPROM erasable programmable ROM
  • EEPROM electrically erasable programmable ROM
  • flash memory hard disk, removable disk, CD-ROM, or It may reside in any form of computer readable recording medium well known in the art.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • General Engineering & Computer Science (AREA)
  • Geometry (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Hardware Design (AREA)
  • Processing Or Creating Images (AREA)

Abstract

2.5차원 이미지를 활용한 가상 전시 공간 시스템 및 제공 방법이 제공된다. 상기 시스템은 복수의 벽면을 포함하는 소정의 가상 전시 공간에 관하여 소정의 시점과 소정의 개수의 소실점을 갖는 투시도를 구성하고, 상기 투시도의 상기 소실점을 기초로 상기 투시도 내의 상기 복수의 벽면 상의 소정의 위치의 가상의 3차원 좌표를 산출하고, 상기 가상의 3차원 좌표를 기초로 2차원의 소정의 콘텐츠 이미지를 회전 또는 리사이징하여 상기 투시도 내의 상기 복수의 벽면 중 적어도 하나의 벽면 상에 배치시키고, 상기 콘텐츠 이미지가 배치된 상기 투시도를 이용하여 가상 전시 공간 이미지를 생성한다.

Description

2.5차원 이미지를 활용한 가상 전시 공간 시스템 및 제공 방법
본 발명은 가상 전시 공간에 관한 것으로, 보다 상세하게는 2.5차원 이미지를 활용한 가상 전시 공간 시스템 및 제공 방법에 관한 것이다.
최근 정보통신 기술의 발전에 따라 가상 갤러리 서비스가 제공되고 있다. 예시적으로, 하나의 가상 갤러리 서비스는 2차원의 벽면 이미지에 전시 콘텐츠를 배치시키는 플랫한 서비스를 제공하며, 다른 가상 갤러리 서비스는 3차원 엔진을 이용하여 가상 갤러리의 3차원 그래픽을 구성하여 서비스하고 있으며, 또 다른 가상 갤러리 서비스는 VR 기술을 이용하여 가상 현실 갤러리 공간을 구성하고, VR 디바이스를 이용하여 가상 현실 갤러리 공간에 전시된 콘텐츠를 체험할 수 있도록 서비스하고 있다.
종래의 플랫한 갤러리 서비스는 입체적인 갤러리 서비스를 제공할 수 없는 단점이 있으며, 3차원 엔진을 이용하거나 VR 기술을 이용하는 갤러리 서비스는 데이터의 크기와 수가 상당하여 로딩에 많은 시간이 소요될 뿐만 아니라, 콘텐츠의 훼손이 수반되게 된다. 갤러리 서비스를 이용하기 위한 사용자 단말기 또한 고성능이 요구되는 실정이다.
본 발명이 해결하고자 하는 과제는 2.5차원 이미지를 활용한 가상 전시 공간 시스템 및 제공 방법을 제공하는 것이다.
본 발명이 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
상술한 과제를 해결하기 위한 본 발명의 일 면에 따른 2.5차원 이미지를 활용한 가상 전시 공간 시스템은, 가상 전시 공간 이미지를 생성하는 가상 전시 공간 생성부, 및 사용자 단말기로부터 가상 전시 공간 이미지 요청을 수신하고, 상기 사용자 단말기에게 상기 가상 전시 공간 이미지를 제공하는 통신부를 포함하는 서버를 포함하고, 상기 가상 전시 공간 생성부는, 복수의 벽면을 포함하는 소정의 가상 전시 공간에 관하여 소정의 시점과 소정의 개수의 소실점을 갖는 투시도를 구성하고, 상기 투시도의 상기 소실점을 기초로 상기 투시도 내의 상기 복수의 벽면 상의 소정의 위치의 가상의 3차원 좌표를 산출하고, 상기 가상의 3차원 좌표를 기초로 2차원의 소정의 콘텐츠 이미지를 회전 또는 리사이징하여 상기 투시도 내의 상기 복수의 벽면 중 적어도 하나의 벽면 상에 배치시키고, 상기 콘텐츠 이미지가 배치된 상기 투시도를 이용하여 상기 가상 전시 공간 이미지를 완성한다.
본 발명의 일부 실시예에서, 상기 통신부는 상기 사용자 단말기로부터 사용자의 시점 변화에 관한 정보를 수신하고, 상기 가상 전시 공간 생성부는 상기 시점 변화에 관한 정보를 기초로 상기 가상 전시 공간 이미지를 재생성하고, 상기 시점 변화에 관한 정보를 기초로 상기 가상 전시 공간 이미지를 재생성하는 것은, 상기 가상 전시 공간에 관하여 변화된 시점에 따라 투시도를 재구성하는 것을 포함한다.
본 발명의 일부 실시예에서, 상기 가상 전시 공간 생성부는, 서로 다른 투명도를 갖는 복수의 그림자 레이어 및 소정의 개수의 조명 레이어를 더 이용하여 상기 가상 전시 공간 이미지를 완성하되, 상기 조명 레이어의 빛의 세기와 위치에 따라 그림자 값의 범위를 결정하고, 상기 그림자 값의 범위에 따라 상기 그림자 레이어의 개수 또는 배치 구조를 결정한다.
상술한 과제를 해결하기 위한 본 발명의 다른 면에 따른 2.5차원 이미지를 활용한 가상 전시 공간 시스템은, 컴퓨터에 의해 실현되는 방법으로서, 사용자로부터 가상 전시 공간 이미지 요청을 수신하는 단계, 및 가상 전시 공간 이미지를 생성하여 제공하는 단계를 포함하고, 상기 가상 전시 공간 이미지를 생성하여 제공하는 단계는, 복수의 벽면을 포함하는 소정의 가상 전시 공간에 관하여 소정의 시점과 소정의 개수의 소실점을 갖는 투시도를 구성하는 단계와, 상기 투시도의 상기 소실점을 기초로 상기 투시도 내의 상기 복수의 벽면 상의 소정의 위치의 가상의 3차원 좌표를 산출하는 단계와, 상기 가상의 3차원 좌표를 기초로 2차원의 소정의 콘텐츠 이미지를 회전 또는 리사이징하여 상기 투시도 내의 상기 복수의 벽면 중 적어도 하나의 벽면 상에 배치시키는 단계와, 상기 콘텐츠 이미지가 배치된 상기 투시도를 이용하여 상기 가상 전시 공간 이미지를 완성하는 단계를 포함한다.
본 발명의 일부 실시예에서, 상기 방법은, 서버로부터 수신된 가상 전시 공간 이미지의 스틸샷을 로딩하는 단계를 더 포함하고, 상기 가상 전시 공간 이미지를 생성하여 제공하는 단계는, 상기 가상 전시 공간 이미지의 스틸샷의 로딩 중에 상기 서버로부터 상기 콘텐츠 이미지를 수신하는 단계와, 상기 가상 전시 공간 이미지의 스틸샷을 상기 완성된 가상 전시 공간 이미지로 교체하여 제공하는 단계를 더 포함한다.
본 발명의 일부 실시예에서, 상기 방법은, 상기 사용자의 시점 변화에 관한 정보를 획득하는 단계, 및 상기 시점 변화에 관한 정보를 기초로 상기 가상 전시 공간 이미지를 재생성하는 단계를 더 포함하고, 상기 시점 변화에 관한 정보를 기초로 상기 가상 전시 공간 이미지를 재생성하는 단계는, 상기 가상 전시 공간에 관하여 변화된 시점에 따라 투시도를 재구성하는 단계를 포함한다.
본 발명의 일부 실시예에서, 상기 가상 전시 공간 이미지를 생성하는 단계는, 서로 다른 투명도를 갖는 복수의 그림자 레이어 및 소정의 개수의 조명 레이어를 더 이용하여 상기 가상 전시 공간 이미지를 완성하되, 상기 조명 레이어의 빛의 세기와 위치에 따라 그림자 값의 범위를 결정하고, 상기 그림자 값의 범위에 따라 상기 그림자 레이어의 개수 또는 배치 구조를 결정한다.
본 발명의 기타 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.
상술한 본 발명에 의하면, 인지적 착시에 기반한 2.5차원 이미지를 이용하여, 종래의 플랫한 갤러리 서비스와 다른 입체적인 가상 전시 공간 서비스를 제공할 수 있다.
또한, 상술한 본 발명에 의하면, 입체적인 가상 전시 공간 서비스를 제공하기 위하여, 3차원 물리 엔진을 이용하지 않으므로, 입체적인 가상 전시 공간을 빠르게 구성할 수 있으며, 콘텐츠의 훼손을 최소화할 수 있다.
또한, 상술한 본 발명에 의하면, 입체적인 가상 전시 공간 서비스를 제공하기 위하여, 스틸샷 타입의 이미지를 우선적으로 이용하므로, 데이터 전송 효율화 및 데이터 사용량 감축이 가능하다.
또한, 상술한 본 발명에 의하면, 다층의 그림자 레이어 및 조명 레이어를 이용하므로, 보다 세밀하고 실제적인 입체적인 가상 전시 공간을 구성할 수 있다.
본 발명의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
도 1은 본 발명의 실시예에 따른 2.5차원 이미지를 활용한 가상 전시 공간 시스템의 구성을 개략적으로 도시한 블록도이다.
도 2는 도 1의 서버의 세부 구성을 개략적으로 도시한 블록도이다.
도 3은 인지적 착시를 이용한 2.5차원 이미지로서의 투시도를 개념적으로 도시한 도면이다.
도 4는 사용자의 시점에 따른 투시도의 변형을 개념적으로 도시한 도면이다.
도 5는 서버와 사용자 단말기 간의 데이터 전송 효율화를 개략적으로 도시한 도면이다.
도 6은 다층 레이어를 이용한 디지털 소묘 기법을 개념적으로 도시한 도면이다.
도 7 및 도 8은 예시적인 가상 전시 공간 이미지를 개략적으로 도시한 도면이다.
도 9는 본 발명의 실시예에 따른 2.5차원 이미지를 활용한 가상 전시 공간 제공 방법의 구성을 개략적으로 도시한 흐름도이다.
도 10은 도 9의 가상 전시 공간 이미지 생성 단계의 세부 구성을 개략적으로 도시한 흐름도이다.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야의 통상의 기술자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.
본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.
공간적으로 상대적인 용어인 "아래(below)", "아래(beneath)", "하부(lower)", "위(above)", "상부(upper)" 등은 도면에 도시되어 있는 바와 같이 하나의 구성요소와 다른 구성요소들과의 상관관계를 용이하게 기술하기 위해 사용될 수 있다. 공간적으로 상대적인 용어는 도면에 도시되어 있는 방향에 더하여 사용시 또는 동작시 구성요소들의 서로 다른 방향을 포함하는 용어로 이해되어야 한다. 예를 들어, 도면에 도시되어 있는 구성요소를 뒤집을 경우, 다른 구성요소의 "아래(below)"또는 "아래(beneath)"로 기술된 구성요소는 다른 구성요소의 "위(above)"에 놓여질 수 있다. 따라서, 예시적인 용어인 "아래"는 아래와 위의 방향을 모두 포함할 수 있다. 구성요소는 다른 방향으로도 배향될 수 있으며, 이에 따라 공간적으로 상대적인 용어들은 배향에 따라 해석될 수 있다.
이하, 첨부된 도면을 참조하여 본 발명의 실시예를 상세하게 설명한다.
본 명세서에서 “콘텐츠 이미지”는 아티스트에 의한 창작물로서의 사진, 그림 또는 개인에 의해서 촬영된 인물 또는 풍경 사진, 및 그 밖의 이미지로 표현 가능한 임의의 콘텐츠를 포함한다.
도 1은 본 발명의 실시예에 따른 2.5차원 이미지를 활용한 가상 전시 공간 시스템의 구성을 개략적으로 도시한 블록도이다.
도 1을 참조하면, 본 발명의 실시예에 따른 2.5차원 이미지를 활용한 가상 전시 공간 시스템은 서버(100)와 사용자 단말기(200)를 포함한다.
서버(100)와 사용자 단말기(200)는 네트워크를 통해서 서로 연결된다. 서버(100)와 사용자 단말기(200)는 각종 데이터 및/또는 정보를 송수신할 수 있다. 네트워크는 유선 또는 무선 네트워크를 포함한다. 네트워크의 규모, 토폴로지, 통신 방식 등은 실시예에 따라 다양하게 변형되어 제공될 수 있다.
서버(100)는 사용자 단말기(200)로부터의 가상 전시 공간 이미지 요청에 따라 사용자 단말기(200)에게 가상 전시 공간 이미지를 제공한다. 가상 전시 공간 이미지는 2.5차원 이미지로 제공된다. 본 명세서에서 2.5차원 이미지는 인지적 착시에 기반하여 입체감을 나타내는 2차원 이미지를 나타낸다. 인지적 착시란 무의식적 추론에 따른 인지 과정에서 발생하며, 인간의 인지가 전체적인 것을 종합적으로 판단하려는 경향이 있기 때문에 나타나는 착시로서, 이에 관한 상세한 설명은 본 발명의 요지를 흐릴 수 있으므로 생략한다.
도 2는 도 1의 서버의 세부 구성을 개략적으로 도시한 블록도이다.
도 2를 참조하면, 서버(100)는 통신부(110), 가상 전시 공간 생성부(120), 사용자 개인화부(130), 사용자 정보 관리부(140), 콘텐츠 이미지 저장부(150)을 포함한다. 통신부(110), 가상 전시 공간 생성부(120), 사용자 개인화부(130), 사용자 정보 관리부(150), 콘텐츠 이미지 저장부(150)는 각종 데이터 및/또는 정보를 송수신할 수 있다
통신부(110)는 사용자 단말기(200)와 통신한다. 일부 실시예에서, 통신부(110)는 사용자 단말기(200)로부터 가상 전시 공간 이미지 요청을 수신하고, 사용자 단말기(200)에게 가상 전시 공간 이미지를 제공한다. 또한, 일부 실시예에서, 통신부(110)는 사용자 단말기(200)에게 콘텐츠 이미지를 제공한다. 또한, 일부 실시예에서, 통신부(110)는 사용자 단말기(200)로부터 사용자의 시점 변화에 관한 정보를 수신하고, 사용자 단말기(200)에게 변형된 가상 전시 공간 이미지를 제공한다.
가상 전시 공간 생성부(120)는 가상 전시 공간 이미지를 생성한다. 가상 전시 공간 생성부(120)는 소정의 가상 전시 공간에 관하여 소정의 시점과 소정의 개수의 소실점을 갖는 투시도를 구성한다. 가상의 전시 공간은 복수의 벽면을 포함할 수 있다. 가상의 전시 공간의 구조는 미리 설계되어 제공될 수 있다. 가상 전시 공간 생성부(120)는 가상의 전시 공간의 구조에 관한 데이터를 사전에 저장할 수 있다. 가상 전시 공간 생성부(120)는 투시도의 소실점을 기초로 투시도 내의 복수의 벽면 상의 소정의 위치의 가상의 3차원 좌표를 산출한다. 예를 들어, 각각의 벽면의 에지(edge)의 3차원 좌표가 산출될 수 있으나, 이에 제한되는 것은 아니다. 가상 전시 공간 생성부(120)는 가상의 3차원 좌표를 기초로 2차원의 소정의 콘텐츠 이미지를 회전 또는 리사이징하여 투시도 내의 복수의 벽면 중 적어도 하나의 벽면 상에 배치시킨다. 가상 전시 공간 생성부(120)는 콘텐츠 이미지가 배치된 투시도를 이용하여 가상 전시 공간 이미지를 완성한다.
사용자 개인화부(130)는 각각의 사용자마다 선호하는 콘텐츠의 유형 또는 카테고리를 분석한다. 이를 위해, 사용자 개인화부(130)는 사용자의 관람 내역 또는 피드백 내역 등을 이용할 수 있다. 사용자 개인화부(130)는 사용자의 선호 정보 분석 결과를 이용하여 사용자가 선호하는 콘텐츠 또는 전시 공간 등을 추천할 수 있다. 추천된 콘텐츠는 가상 전시 공간 이미지에 실시간 반영될 수 있다. 사용자 개인화를 통해서, 사용자의 방문율과 구매율 등을 상승시킬 수 있다.
사용자 정보 관리부(140)는 사용자 정보를 관리한다. 예를 들어, 사용자 정보는 사용자 계정, 패스워드, 사용자의 성명, 성별, 연령, 지역, 직업 등의 프로파일 정보, 사용자의 선호 정보 등을 포함할 수 있으나, 이에 제한되는 것은 아니다.
콘텐츠 이미지 저장부(150)는 콘텐츠 이미지를 저장한다. 도 2에 도시된 바와 다르게, 콘텐츠 이미지 저장부(150)는 별도의 서버로 제공될 수 있다.
한편, 실시예에 따라, 서버(100)는 도 2에 도시되지 않은 일부 구성을 더 포함하거나, 도 2에 도시된 일부 구성을 포함하지 않도록 변형될 수 있다.
사용자 단말기(200)는 사용자에 의해 사용되는 컴퓨터 시스템을 나타낸다. 예를 들어, 사용자 단말기(200)는 스마트폰, 태블릿, PDA(Personal Digital Assistant) 등과 같은 모바일 컴퓨터 시스템으로 제공될 수 있다. 또는, 사용자 단말기(200)는 노트북, 데스크톱 등과 같은 고정형 컴퓨터 시스템으로 제공될 수도 있다. 사용자 단말기(200)는 상술한 예시에 제한되지 않으며, 네트워크를 통해서 서버(100)와 연결 가능한 임의의 컴퓨터 시스템으로 제공될 수 있다.
일부 실시예에서, 사용자 단말기(200)는 서버(100)로부터 가상 전시 공간 이미지를 수신하여 사용자에게 제공한다.
또는, 일부 실시예에서, 사용자 단말기(200)는 서버(100)로부터 가상 전시 공간의 구조에 관한 데이터 및 콘텐츠 이미지를 수신하여 가상 전시 공간 이미지를 직접 생성한다. 사용자 단말기(200)는 가상 전시 공간의 구조에 관한 데이터를 사전에 저장할 수 있다. 사용자 단말기(200)가 가상 전시 공간 이미지를 생성하는 방식은 상술한 바와 실질적으로 동일하다.
도 3은 인지적 착시를 이용한 2.5차원 이미지로서의 투시도를 개념적으로 도시한 도면이다.
도 3을 참조하면, 하나의 소실점을 갖는 투시도에 의해서 사용자가 느낄 수 있는 2.5차원의 입체감이 개념적으로 도시된다.
상술한 바와 같이, 투시도로 표현된 가상 전시 공간은 복수의 벽면(11, 12, 13)을 포함하여 구성된다. 그리고, 소정의 콘텐츠 이미지(20)가 회전 또는 리사이징되어 벽면(11, 12, 13) 상에 배치된다. 또한, 콘텐츠 이미지(20)의 전체적인 형상이 입체감을 표현하기 위하여 변형될 수 있다. 도 3에서는 하나의 콘텐츠 이미지(20)가 하나의 벽면(11) 상에 배치되는 것으로 도시되었으나, 이에 제한되는 것은 아니고, 각각의 콘텐츠 이미지가 각각의 벽면(11, 12, 13) 상에 배치될 수 있다. 또한, 하나의 벽면에 복수의 콘텐츠 이미지가 소정의 간격을 두고 배치될 수도 있다.
도 4는 사용자의 시점에 따른 투시도의 변형을 개념적으로 도시한 도면이다.
도 4를 참조하면, 사용자의 시점에 따라 사용자에 의해 보여지게 되는 가상 전시 공간의 모습이 변화하게 된다. 따라서, 가상 전시 공간에 관한 투시도의 사용자의 시점 및 소실점(15)의 위치도 변화되어야 한다.
이를 위해, 가상 전시 공간 생성부(120)는 사용자 단말기(200)로부터 제공된 시점 변화에 관한 정보를 기초로 가상 전시 공간 이미지를 재생성한다. 즉, 가상 전시 공간 생성부(120)는 사용자의 변화된 시점에 따라 가상 전시 공간에 관한 투시도를 재구성한다. 이 때, 콘텐츠 이미지(20)도 함께 재구성된다.
예를 들어, 사용자 단말기(200)는 자이로스코프를 이용하여 사용자의 시점 변화를 추정하고, 사용자의 시점 변화에 관한 정보를 생성할 수 있으나, 이에 제한되는 것은 아니다.
일부 실시예에서, 상술한 바와 같이, 서버(100)는 사용자 단말기(200)로부터 사용자의 시점 변화에 관한 정보를 수신하여 가상 전시 공간 이미지를 재생성할 수 있다.
또는, 일부 실시예에서, 사용자 단말기(200)가 사용자의 시점 변화에 관한 정보를 획득하고, 이를 기초로 가상 전시 공간 이미지를 재생성할 수 있다.
도 5는 서버와 사용자 단말기 간의 데이터 전송 효율화를 개략적으로 도시한 도면이다.
도 5를 참조하면, 일부 실시예에서, 서버(100)는 가상 전시 공간 이미지의 스틸샷(또는, 스냅샷)을 생성한다. 또는, 일부 실시예에서, 서버(100)는 다른 컴퓨터 시스템에 의해서 생성된 가상 전시 공간 이미지의 스틸샷을 저장한다. 예를 들어, 서버(100)는 (정중앙의) 기준 소실점 위치를 기초로 생성된 가상 전시 공간 이미지의 스틸샷(30)을 저장한다. 그리고, 사용자 단말기(200)로부터 가상 전시 공간 이미지 요청이 수신되면, 사용자 단말기(200)에게 미리 생성된 스틸샷(30)을 제공한다. 그리고, 사용자 단말기(200)에 의해서 스틸샷(30)이 로딩되어 표시되는 동안, 서버(100)는 사용자 단말기(200)에게 개별 콘텐츠 이미지를 전송한다. 개별 콘텐츠 이미지는 후술하는 바와 같이 상세 이미지의 제공 및 시점 변화에 따른 가상 전시 공간 이미지의 재구성을 위한 것이다. 사용자 단말기(200)는 개별 콘텐츠 이미지를 이용하여 가상 전시 공간 이미지를 생성한다. 가상 전시 공간 이미지가 완성되면, 사용자 단말기(200)는 스틸샷(30)을 완성된 가상 전시 공간 이미지로 교체하여 제공한다. 이 때, 페이드 인/아웃 방식이 활용될 수 있다.
사용자 단말기(200)는 스틸샷(30)을 저장하여 이후에는 서버(100)에게 스틸샷(30)을 요청하지 않는다. 한편, 가상 전시 공간에 배치된 콘텐츠 이미지의 변경 또는 업데이트가 있을 경우, 서버(100)는 변경 또는 업데이트가 반영된 스틸샷(30)을 다시 사용자 단말기(200)에게 전송할 수 있다.
사용자 단말기(200)는 사용자로부터 가상 전시 공간 이미지 내의 콘텐츠 이미지가 배치된 벽면에 관한 줌인 요청을 수신하고, 상기 가상 전시 공간 이미지의 상기 벽면 부분을 확대하는 방식을 통해서, 서버(100)로부터 제공된 상기 개별 콘텐츠 이미지를 이용하여 줌인 요청된 상기 벽면에 관한 상세 이미지를 제공할 수 있게 된다. 줌아웃 요청의 경우, 실질적으로 동일한 축소 방식이 적용될 수 있다. 사용자 인터랙션 기능이 상술한 예시에 제한되는 것은 아니다.
이로써, 최초에 개별 콘텐츠 이미지를 전송하지 않고, 미리 생성된 스틸샷을 우선 전송하므로, 빠른 로딩이 가능하며 데이터 전송 효율화가 가능하다.
또한, 상술한 사용자 개인화 결과에 따라 사용자가 선호하는 콘텐츠 이미지만을 또는 상기 콘텐츠 이미지를 우선적으로 사용자 단말기(200)에게 전송하여, 빠른 로딩을 가능하게 하는 동시에 데이터 사용량을 감축시킬 수 있다.
도 6은 다층 레이어를 이용한 디지털 소묘 기법을 개념적으로 도시한 도면이다.
도 6을 참조하면, 가상 전시 공간 생성부(120)는 벽면(10) 및 콘텐츠 이미지(20) 외에 서로 다른 투명도를 갖는 복수의 그림자 레이어(40) 및 소정의 개수의 조명 레이어(미도시)를 더 이용하여 가상 전시 공간 이미지를 완성한다.
그림자 레이어(40)는 벽면(10) 및 콘텐츠 이미지(20) 사이에 배치되거나, 콘텐츠 이미지(20)의 상위에 배치될 수 있다. 또한, 다층의 그림자 레이어(40)가 배치될 수 있다. 또한, 다층의 그림자 레이어(40)의 각각의 그림자 레이어(40)는 서로 다른 형상을 가질 수 있다.
가상 전시 공간 생성부(120)는 상기 조명 레이어의 빛의 세기와 위치에 따라 그림자 값의 범위를 결정하고, 상기 그림자 값의 범위에 따라 상기 그림자 레이어의 개수 또는 배치 구조를 결정할 수 있다. 그림자 값의 범위에 따라 투명도가 높은 또는 낮은 순서로 상응하는 개수의 복수의 그림자 레이어(40)가 배치될 수 있다. 투시도의 가상의 3차원 좌표를 기초로 그림자 레이어 및 조명 레이어의 형태도 회전 또는 리사이징되어 변형될 수 있다. 또한, 그 전체적인 형상도 변형될 수 있다.
도 7 및 도 8은 예시적인 가상 전시 공간 이미지를 개략적으로 도시한 도면이다.
도 7을 참조하면, 투시도를 이용하여 생성된 가상 전시 공간 이미지가 도시되며, 가상 전시 공간은 4개의 벽면(10)을 포함하며, 적어도 하나의 콘텐츠 이미지(20)가 벽면 상에 배치된다. 특히, 가장 좌측의 벽면에 배치된 콘텐츠 이미지는 투시도 내의 벽면의 형태에 따라 그 형태가 변형되어 있음을 확인할 수 있다.
도 8을 참조하면, 가상 전시 공간 이미지는 콘텐츠 이미지(20)와 관계된 장소(50), 예를 들어, 콘텐츠가 사진일 경우 해당 사진이 촬영된 장소에 관한 부분을 포함한다. 가상 전시 공간은 해당 사진이 촬영된 장소와 서로 연결된 또는 분리된 복수의 벽면으로 구성될 수 있다.
도 9는 본 발명의 실시예에 따른 2.5차원 이미지를 활용한 가상 전시 공간 제공 방법의 구성을 개략적으로 도시한 흐름도이다. 도 1 내지 도 8을 참조하여 본 발명의 실시예에 따른 2.5차원 이미지를 활용한 가상 전시 공간 시스템과 관련하여 설명한 바와 중복되는 설명은 생략한다.
도 9를 참조하면, 본 발명의 실시예에 따른 2.5차원 이미지를 활용한 가상 전시 공간 제공 방법은 사용자 단말기(200)가 사용자로부터 가상 전시 공간 이미지 요청을 수신하는 단계(S310), 사용자 단말기(200)가 서버(100)로부터 수신된 가상 전시 공간 이미지의 스틸샷을 로딩하는 단계(S320), 및 사용자 단말기(200)가 가상 전시 공간 이미지를 생성하여 사용자에게 제공하는 단계(S330)를 포함한다.
명확하게 도시하지 않았으나, 상술한 바와 같이, 사용자 단말기(200)가 가상 전시 공간 이미지를 생성하여 제공하는 단계는, 가상 전시 공간 이미지의 스틸샷의 로딩 중에 서버(100)로부터 콘텐츠 이미지를 수신하는 단계와, 가상 전시 공간 이미지의 스틸샷을 완성된 가상 전시 공간 이미지로 교체하여 제공하는 단계를 더 포함할 수 있다.
도 10은 도 9의 가상 전시 공간 이미지 생성 단계의 세부 구성을 개략적으로 도시한 흐름도이다.
도 10을 참조하면, 가상 전시 공간 이미지를 생성하는 단계(S330)는 복수의 벽면을 포함하는 소정의 가상 전시 공간에 관하여 소정의 시점과 소정의 개수의 소실점을 갖는 투시도를 구성하는 단계(S331)와, 투시도의 소실점을 기초로 투시도 내의 복수의 벽면 상의 소정의 위치의 가상의 3차원 좌표를 산출하는 단계(S332)와, 상기 가상의 3차원 좌표를 기초로 2차원의 소정의 콘텐츠 이미지를 회전 또는 리사이징하여 투시도 내의 복수의 벽면 중 적어도 하나의 벽면 상에 배치시키는 단계(S333)와, 상기 콘텐츠 이미지가 배치된 투시도를 이용하여 가상 전시 공간 이미지를 완성하는 단계(S334)를 포함한다.
명확하게 도시하지 않았으나, 상술한 바와 같이, 본 발명의 실시예에 따른 2.5차원 이미지를 활용한 가상 전시 공간 제공 방법은 사용자 단말기(200)가 사용자의 시점 변화에 관한 정보를 획득하는 단계, 및 사용자 단말기(200)가 상기 시점 변화에 관한 정보를 기초로 가상 전시 공간 이미지를 재생성하는 단계를 더 포함할 수 있다. 그리고, 상기 시점 변화에 관한 정보를 기초로 가상 전시 공간 이미지를 재생성하는 단계는, 가상 전시 공간에 관하여 변화된 시점에 따라 투시도를 재구성하는 단계를 포함한다.
명확하게 도시하지 않았으나, 상술한 바와 같이, 상기 가상 전시 공간 이미지를 생성하는 단계는, 서로 다른 투명도를 갖는 복수의 그림자 레이어 및 소정의 개수의 조명 레이어를 더 이용하여 가상 전시 공간 이미지를 완성하되, 상기 조명 레이어의 빛의 세기와 위치에 따라 그림자 값의 범위를 결정하고, 상기 그림자 값의 범위에 따라 상기 그림자 레이어의 개수 또는 배치 구조를 결정할 수 있다.
본 발명의 실시예와 관련하여 설명된 방법 또는 알고리즘의 단계들은 하드웨어로 직접 구현되거나, 하드웨어에 의해 실행되는 컴퓨터 프로그램으로 구현되거나, 또는 이들의 결합에 의해 구현될 수 있다. 컴퓨터 프로그램은 RAM(Random Access Memory), ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리(Flash Memory), 하드 디스크, 착탈형 디스크, CD-ROM, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터 판독가능 기록매체에 상주할 수도 있다.
이상, 첨부된 도면을 참조로 하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야의 통상의 기술자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 제한적이 아닌 것으로 이해해야만 한다.

Claims (9)

  1. 가상 전시 공간 이미지를 생성하는 가상 전시 공간 생성부; 및
    사용자 단말기로부터 가상 전시 공간 이미지 요청을 수신하고, 상기 사용자 단말기에게 상기 가상 전시 공간 이미지를 제공하는 통신부를 포함하는 서버를 포함하고,
    상기 가상 전시 공간 생성부는,
    복수의 벽면을 포함하는 소정의 가상 전시 공간에 관하여 소정의 시점과 소정의 개수의 소실점을 갖는 투시도를 구성하고, 상기 투시도의 상기 소실점을 기초로 상기 투시도 내의 상기 복수의 벽면 상의 소정의 위치의 가상의 3차원 좌표를 산출하고, 상기 가상의 3차원 좌표를 기초로 2차원의 소정의 콘텐츠 이미지를 회전 또는 리사이징하여 상기 투시도 내의 상기 복수의 벽면 중 적어도 하나의 벽면 상에 배치시키고, 상기 콘텐츠 이미지가 배치된 상기 투시도를 이용하여 상기 가상 전시 공간 이미지를 완성하는,
    2.5차원 이미지를 활용한 가상 전시 공간 시스템.
  2. 제1항에 있어서,
    상기 통신부는 상기 사용자 단말기로부터 사용자의 시점 변화에 관한 정보를 수신하고,
    상기 가상 전시 공간 생성부는 상기 시점 변화에 관한 정보를 기초로 상기 가상 전시 공간 이미지를 재생성하고,
    상기 시점 변화에 관한 정보를 기초로 상기 가상 전시 공간 이미지를 재생성하는 것은, 상기 가상 전시 공간에 관하여 변화된 시점에 따라 투시도를 재구성하는 것을 포함하는,
    2.5차원 이미지를 활용한 가상 전시 공간 시스템.
  3. 제1항에 있어서,
    상기 가상 전시 공간 생성부는,
    서로 다른 투명도를 갖는 복수의 그림자 레이어 및 소정의 개수의 조명 레이어를 더 이용하여 상기 가상 전시 공간 이미지를 완성하되,
    상기 조명 레이어의 빛의 세기와 위치에 따라 그림자 값의 범위를 결정하고, 상기 그림자 값의 범위에 따라 상기 그림자 레이어의 개수 또는 배치 구조를 결정하는,
    2.5차원 이미지를 활용한 가상 전시 공간 시스템.
  4. 컴퓨터에 의해 실현되는 방법으로서,
    사용자로부터 가상 전시 공간 이미지 요청을 수신하는 단계; 및
    가상 전시 공간 이미지를 생성하여 제공하는 단계를 포함하고,
    상기 가상 전시 공간 이미지를 생성하여 제공하는 단계는,
    복수의 벽면을 포함하는 소정의 가상 전시 공간에 관하여 소정의 시점과 소정의 개수의 소실점을 갖는 투시도를 구성하는 단계와,
    상기 투시도의 상기 소실점을 기초로 상기 투시도 내의 상기 복수의 벽면 상의 소정의 위치의 가상의 3차원 좌표를 산출하는 단계와,
    상기 가상의 3차원 좌표를 기초로 2차원의 소정의 콘텐츠 이미지를 회전 또는 리사이징하여 상기 투시도 내의 상기 복수의 벽면 중 적어도 하나의 벽면 상에 배치시키는 단계와,
    상기 콘텐츠 이미지가 배치된 상기 투시도를 이용하여 상기 가상 전시 공간 이미지를 완성하는 단계를 포함하는,
    2.5차원 이미지를 활용한 가상 전시 공간 제공 방법.
  5. 제4항에 있어서,
    서버로부터 수신된 가상 전시 공간 이미지의 스틸샷을 로딩하는 단계를 더 포함하고,
    상기 가상 전시 공간 이미지를 생성하여 제공하는 단계는,
    상기 가상 전시 공간 이미지의 스틸샷의 로딩 중에 상기 서버로부터 상기 콘텐츠 이미지를 수신하는 단계와,
    상기 가상 전시 공간 이미지의 스틸샷을 상기 완성된 가상 전시 공간 이미지로 교체하여 제공하는 단계를 더 포함하는,
    2.5차원 이미지를 활용한 가상 전시 공간 제공 방법.
  6. 제4항에 있어서,
    상기 사용자의 시점 변화에 관한 정보를 획득하는 단계; 및
    상기 시점 변화에 관한 정보를 기초로 상기 가상 전시 공간 이미지를 재생성하는 단계를 더 포함하고,
    상기 시점 변화에 관한 정보를 기초로 상기 가상 전시 공간 이미지를 재생성하는 단계는,
    상기 가상 전시 공간에 관하여 변화된 시점에 따라 투시도를 재구성하는 단계를 포함하는,
    2.5차원 이미지를 활용한 가상 전시 공간 제공 방법.
  7. 제4항에 있어서,
    상기 가상 전시 공간 이미지를 생성하는 단계는,
    서로 다른 투명도를 갖는 복수의 그림자 레이어 및 소정의 개수의 조명 레이어를 더 이용하여 상기 가상 전시 공간 이미지를 완성하되,
    상기 조명 레이어의 빛의 세기와 위치에 따라 그림자 값의 범위를 결정하고, 상기 그림자 값의 범위에 따라 상기 그림자 레이어의 개수 또는 배치 구조를 결정하는,
    2.5차원 이미지를 활용한 가상 전시 공간 제공 방법.
  8. 제4항 내지 제7항 중 어느 하나의 항의 2.5차원 이미지를 활용한 가상 전시 공간 제공 방법을 실행하는 컴퓨터 프로그램이 기록된 컴퓨터 판독가능 기록매체.
  9. 컴퓨터와 결합되어, 제4항 내지 제7항 중 어느 하나의 항의 2.5차원 이미지를 활용한 가상 전시 공간 제공 방법을 실행하기 위하여 컴퓨터 판독가능 기록매체에 저장된 컴퓨터 프로그램.
PCT/KR2017/005086 2017-05-17 2017-05-17 2.5차원 이미지를 활용한 가상 전시 공간 시스템 및 제공 방법 WO2018212369A1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US16/685,556 US11069126B2 (en) 2017-05-17 2019-11-15 System and method for providing virtual exhibition space utilizing 2.5 dimensional image
US17/350,710 US11651545B2 (en) 2017-05-17 2021-06-17 System and method for providing virtual exhibition space utilizing 2.5 dimensional image

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2017-0060766 2017-05-17
KR1020170060766A KR101956098B1 (ko) 2017-05-17 2017-05-17 2.5차원 이미지를 활용한 가상 전시 공간 시스템 및 제공 방법

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/685,556 Continuation US11069126B2 (en) 2017-05-17 2019-11-15 System and method for providing virtual exhibition space utilizing 2.5 dimensional image

Publications (1)

Publication Number Publication Date
WO2018212369A1 true WO2018212369A1 (ko) 2018-11-22

Family

ID=64274041

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2017/005086 WO2018212369A1 (ko) 2017-05-17 2017-05-17 2.5차원 이미지를 활용한 가상 전시 공간 시스템 및 제공 방법

Country Status (3)

Country Link
US (2) US11069126B2 (ko)
KR (1) KR101956098B1 (ko)
WO (1) WO2018212369A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112148574A (zh) * 2020-09-21 2020-12-29 北京基调网络股份有限公司 一种性能数据采集方法、计算机设备及存储介质

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101956098B1 (ko) * 2017-05-17 2019-03-11 디프트(주) 2.5차원 이미지를 활용한 가상 전시 공간 시스템 및 제공 방법
KR102237519B1 (ko) * 2018-05-08 2021-04-07 디프트(주) 2.5 차원화를 이용한 가상 전시 공간 제공 방법
US11024191B2 (en) * 2019-02-22 2021-06-01 Kujawsko-Pomorski Klaster Brewstera System for a multimodal educational display in a pop-up science center and an educational method for a multimodal educational display in a pop-up science center
CN110020600B (zh) * 2019-03-05 2021-04-16 厦门美图之家科技有限公司 生成用于训练人脸对齐模型的数据集的方法
KR102246642B1 (ko) 2019-07-25 2021-05-04 (주)유디엠 사용자 행동 정보 분석이 가능한 가공품 생산 중계 관리 시스템 연동형 가상 공간 전시회 시스템
CN111598978B (zh) * 2020-05-08 2023-09-26 上海实迅网络科技有限公司 一种基于ar技术的物品说明书展示***及展示方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050030309A1 (en) * 2003-07-25 2005-02-10 David Gettman Information display
WO2007129065A1 (en) * 2006-05-08 2007-11-15 University Of Plymouth Virtual display method and apparatus
JP2009230635A (ja) * 2008-03-25 2009-10-08 Olympus Imaging Corp 画像データ生成装置、画像データ生成方法、および画像データ生成用プログラム
JP2015045958A (ja) * 2013-08-27 2015-03-12 株式会社リコー 表示処理装置、表示処理方法、及びプログラム
JP2016048456A (ja) * 2014-08-27 2016-04-07 株式会社リコー 画像処理装置、画像処理方法、及びプログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150113246A (ko) 2014-03-27 2015-10-08 모젼스랩(주) 가상 전시공간 제공 시스템 및 방법
KR20140082610A (ko) * 2014-05-20 2014-07-02 (주)비투지 휴대용 단말을 이용한 증강현실 전시 콘텐츠 재생 방법 및 장치
KR20160112898A (ko) * 2015-03-20 2016-09-28 한국과학기술원 증강현실 기반 동적 서비스 제공 방법 및 장치
KR101956098B1 (ko) * 2017-05-17 2019-03-11 디프트(주) 2.5차원 이미지를 활용한 가상 전시 공간 시스템 및 제공 방법
KR102237520B1 (ko) * 2018-05-04 2021-04-07 디프트(주) 효율적인 데이터 관리를 위한 가상 전시 공간 제공 방법
KR102237519B1 (ko) * 2018-05-08 2021-04-07 디프트(주) 2.5 차원화를 이용한 가상 전시 공간 제공 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050030309A1 (en) * 2003-07-25 2005-02-10 David Gettman Information display
WO2007129065A1 (en) * 2006-05-08 2007-11-15 University Of Plymouth Virtual display method and apparatus
JP2009230635A (ja) * 2008-03-25 2009-10-08 Olympus Imaging Corp 画像データ生成装置、画像データ生成方法、および画像データ生成用プログラム
JP2015045958A (ja) * 2013-08-27 2015-03-12 株式会社リコー 表示処理装置、表示処理方法、及びプログラム
JP2016048456A (ja) * 2014-08-27 2016-04-07 株式会社リコー 画像処理装置、画像処理方法、及びプログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112148574A (zh) * 2020-09-21 2020-12-29 北京基调网络股份有限公司 一种性能数据采集方法、计算机设备及存储介质
CN112148574B (zh) * 2020-09-21 2021-04-23 北京基调网络股份有限公司 一种性能数据采集方法、计算机设备及存储介质

Also Published As

Publication number Publication date
KR20180126146A (ko) 2018-11-27
US11069126B2 (en) 2021-07-20
US20210312700A1 (en) 2021-10-07
US11651545B2 (en) 2023-05-16
US20200082604A1 (en) 2020-03-12
KR101956098B1 (ko) 2019-03-11

Similar Documents

Publication Publication Date Title
WO2018212369A1 (ko) 2.5차원 이미지를 활용한 가상 전시 공간 시스템 및 제공 방법
WO2014010909A1 (ko) 이동 자유도를 개선한 융합형 가상현실 구현 방법
Kuchera-Morin et al. Immersive full-surround multi-user system design
US20180330542A1 (en) Collaborative three-dimensional digital model construction
WO2019212129A1 (ko) 효율적인 데이터 관리를 위한 가상 전시 공간 제공 방법
WO2021238145A1 (zh) Ar场景内容的生成方法、展示方法、装置及存储介质
CN111833423A (zh) 展示方法、装置、设备和计算机可读存储介质
CN111240175B (zh) 投影控制方法、装置及***
CN111142967B (zh) 一种增强现实显示的方法、装置、电子设备和存储介质
US10576727B2 (en) Generating three dimensional projections
WO2019216528A1 (ko) 2.5 차원화를 이용한 가상 전시 공간 제공 방법
CN103810748B (zh) 3d模拟***构建、管理方法及3d模拟装置
US20190378335A1 (en) Viewer position coordination in simulated reality
WO2022011817A1 (zh) 一种面向三维球体可视化***
CN114428573A (zh) 特效图像处理方法、装置、电子设备及存储介质
WO2020050516A1 (ko) 2.5차원 가상 전시 공간을 이용한 3차원 vr 데이터 생성 방법
JP2022190581A (ja) 表示媒体、処理装置、プログラムおよびプログラムを記録したコンピュータ読み取り可能な記録媒体
WO2015186863A1 (ko) 시각적 콘텐츠 기반 정보 입력 방법
CN114066715A (zh) 图像风格迁移方法、装置、电子设备以及存储介质
CN111858987A (zh) Cad图像的问题查看方法、电子设备及相关产品
KR20190024949A (ko) 2.5차원 이미지를 활용한 가상 전시 공간 시스템 및 제공 방법
CN109727315A (zh) 一对多集群渲染方法、装置、设备及存储介质
CN113784189B (zh) 一种圆桌视频会议的生成方法、装置、介质和电子设备
TWI828575B (zh) 環景佈景生成系統及其控制方法
WO2023182851A1 (ko) 디지털 트윈 기반 매장 정보 제공 시스템 및 디지털 트윈 기반 매장 정보 제공 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17910095

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

32PN Ep: public notification in the ep bulletin as address of the adressee cannot be established

Free format text: NOTING OF LOSS OF RIGHTS PURSUANT TO RULE 112(1) EPC (EPO FORM 1205A DATED 27.03.2020)

122 Ep: pct application non-entry in european phase

Ref document number: 17910095

Country of ref document: EP

Kind code of ref document: A1