KR101503803B1 - Apparatus and Method for Generating User Customized 3D Object - Google Patents

Apparatus and Method for Generating User Customized 3D Object Download PDF

Info

Publication number
KR101503803B1
KR101503803B1 KR20140154664A KR20140154664A KR101503803B1 KR 101503803 B1 KR101503803 B1 KR 101503803B1 KR 20140154664 A KR20140154664 A KR 20140154664A KR 20140154664 A KR20140154664 A KR 20140154664A KR 101503803 B1 KR101503803 B1 KR 101503803B1
Authority
KR
South Korea
Prior art keywords
image
user
predetermined frame
point
dimensional
Prior art date
Application number
KR20140154664A
Other languages
Korean (ko)
Inventor
조은영
Original Assignee
(주)넛지
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)넛지 filed Critical (주)넛지
Priority to KR20140154664A priority Critical patent/KR101503803B1/en
Application granted granted Critical
Publication of KR101503803B1 publication Critical patent/KR101503803B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Architecture (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

A method for generating a user customized three-dimensional object according to an embodiment of the present invention comprises the steps of: receiving an input of selecting a three-dimensional first object from a user; visually providing the first object; visually providing a preset frame; receiving an input of selecting a two-dimensional first image from the user; visually providing the first image in the preset frame; changing at least one of the size, viewpoint, and position of the first image in the preset frame based on an image manipulation input of the user; and changing a pattern of the first object in real time whenever the change occurs.

Description

사용자 맞춤형 3차원 객체 생성 장치 및 방법{Apparatus and Method for Generating User Customized 3D Object}Technical Field [0001] The present invention relates to an apparatus and a method for generating a user-customized three-dimensional object,

본 발명은 사용자 맞춤형 3차원 객체 생성 장치 및 방법에 관한 것이다.The present invention relates to an apparatus and method for generating a customized three-dimensional object.

3차원 가상 객체와 관련된 다양한 기술이 발전되고 있다.Various technologies related to 3D virtual objects are being developed.

그러나, 최근 스마트 폰의 대중적 보급과 3차원 가상 객체와 관련된 다양한 기술의 발전으로 3차원 가상 객체를 이용한 다양한 게임이 존재한다.However, with the popularization of smart phones and the development of various technologies related to 3D virtual objects, various games using 3D virtual objects exist.

그러나, 사용자들이 자신이 원하는 3차원 가상 객체를 생성하고 가상 공간에 배치하는 형태의 서비스가 제공되는 것은 없다.However, there is no provision of a service in which a user creates a desired three-dimensional virtual object and arranges it in a virtual space.

또한, 사용자들은 3차원의 가상 객체를 자신이 원하는 무늬의 객체로 변경하는 것에 어려움을 느끼며, 쉽고 간편한 방법이 부재한 것이 현실이다.In addition, users have difficulty in changing a three-dimensional virtual object into a pattern object of their own, and there is no easy and simple method.

본 발명이 해결하고자 하는 기술적 과제는 사용자가 보유한 이미지를 이용하여 3차원의 가상 객체의 무늬를 간편하게 변경할 수 있는 사용자 맞춤형 3차원 객체 생성 장치 및 방법을 제공하는 것을 목적으로 한다.SUMMARY OF THE INVENTION It is an object of the present invention to provide a user-customized three-dimensional object creating apparatus and method that can easily change a pattern of a three-dimensional virtual object using an image held by a user.

또한, 본 발명이 해결하고자 하는 다른 기술적 과제는 사용자 별로 제공된 3차원 가상 공간에 사용자가 원하는 객체를 생성하고 배치하여 꾸밀 수 있는 사용자 맞춤형 3차원 객체 생성 장치 및 방법을 제공하는 것을 목적으로 한다.Another object of the present invention is to provide a user-customized three-dimensional object creating apparatus and method capable of creating, arranging, and arranging objects desired by a user in a three-dimensional virtual space provided for each user.

또한, 본 발명이 해결하고자 하는 또 다른 기술적 과제는 사용자가 직감적이고 간편한 조작으로 3차원의 가상 객체의 무늬를 변경할 수 있는 사용자 맞춤형 3차원 객체 생성 장치 및 방법을 제공하는 것을 목적으로 한다.Another object of the present invention is to provide a user-customized three-dimensional object creating apparatus and method which allow a user to change the pattern of a three-dimensional virtual object with intuitive and easy manipulation.

본 발명의 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 당업자에게 명확하게 이해 될 수 있을 것이다.The technical objects of the present invention are not limited to the above-mentioned technical problems, and other technical subjects not mentioned can be clearly understood by those skilled in the art from the following description.

상기 기술적 과제를 달성하기 위한 본 발명의 일 태양(Aspect)에 따른 사용자 맞춤형 3차원 객체 생성 방법은, 사용자로부터 3차원의 제1 객체를 선택하는 입력을 수신하는 단계; 상기 제1 객체를 시각적으로 제공하는 단계; 상기 기 설정된 프레임을 시각적으로 제공하는 단계; 상기 사용자로부터 2차원의 제1 이미지를 선택하는 입력을 수신하는 단계; 상기 제1 이미지를 상기 기 설정된 프레임 내에서 시각적으로 제공하는 단계; 상기 사용자의 이미지 조작 입력에 기반하여 상기 기 설정된 프레임 내에 존재하는 상기 제1 이미지의 크기, 시점 및 위치 중 적어도 어느 하나를 변경하는 단계; 및 상기 적어도 어느 하나의 변경이 발생할 때마다 실시간으로 상기 제1 객체의 무늬를 변경하는 단계를 포함할 수 있다.According to an aspect of the present invention, there is provided a method of generating a user-customized three-dimensional object, the method comprising: receiving input from a user to select a first object in three dimensions; Visually providing the first object; Visually providing the predetermined frame; Receiving an input from the user to select a two-dimensional first image; Visually providing the first image within the predetermined frame; Changing at least one of a size, a viewpoint, and a position of the first image existing in the predetermined frame based on the user's image manipulation input; And changing the pattern of the first object in real time whenever the at least one change occurs.

일 실시예에 따르면, 상기 사용자 맞춤형 3차원 객체 생성 방법은, 상기 제1 객체 상에서의 특정 지점은 상기 기 설정된 프레임 내에 존재하는 특정 지점과 대응되며, 상기 변경하는 단계는, 상기 적어도 어느 하나의 변경이 발생할 때마다 상기 기 설정된 프레임 내에 존재하는 특정 지점 상에서의 상기 제1 이미지의 픽셀 값을 상기 제1 객체의 특정 지점에 적용하는 단계를 더 포함할 수 있다.According to one embodiment, the method of generating a user-customized three-dimensional object is characterized in that a specific point on the first object corresponds to a specific point existing in the predetermined frame, And applying a pixel value of the first image on a specific point existing in the predetermined frame to a specific point of the first object each time the first object is generated.

일 실시예에 따르면, 상기 기 설정된 프레임 내에 존재하는 모든 지점이 상기 제1 객체 상에서의 특정 지점과 대응되지 않으며, 상기 기 설정된 프레임 내에 존재하는 지점 중 상기 제1 객체 상에서의 어느 특정 지점과도 대응되지 않는 지점 상에서의 상기 제1 이미지의 픽셀 값은 상기 제1 객체의 무늬를 변경하는데 이용되지 않는 단계를 더 포함할 수 있다.According to an embodiment, all points existing in the predetermined frame do not correspond to a specific point on the first object, and correspond to any specific point on the first object among the points existing in the predetermined frame Wherein the pixel value of the first image on a point that is not used to change the pattern of the first object is not used.

일 실시예에 따르면, 상기 기 설정된 프레임은 특정한 면적 및 모양을 가지며, 상기 기 설정된 프레임의 특정한 면적 및 상기 모양은 상기 제1 객체의 종류에 따라서 변경되지 않을 수 있다.According to one embodiment, the predetermined frame has a specific area and shape, and the specific area and the shape of the predetermined frame may not be changed according to the type of the first object.

일 실시예에 따르면, 상기 제1 객체는 상기 3차원의 가상 공간에 배치되고, 상기 3차원의 가상 공간은 사용자 별로 제공되는 가상 공간일 수 있다.According to one embodiment, the first object is disposed in the three-dimensional virtual space, and the three-dimensional virtual space may be a virtual space provided for each user.

일 실시예에 따르면, 상기 제1 이미지 중 적어도 일부 영역은 다른 정보에 연결 가능한 링크를 포함하며, 상기 변경된 제1 객체의 무늬 중 일부는 상기 링크를 포함할 수 있다.According to an embodiment, at least some areas of the first image include links connectable to other information, and some of the patterns of the changed first object may include the links.

일 실시예에 따르면, 상기 기 설정된 프레임 내에서 시각적으로 제공하는 단계는, 상기 제1 이미지의 크기를 상기 기 설정된 프레임의 크기와 동일하게 하여 상기 기 설정된 프레임에 상기 제1 이미지가 매칭되도록 시각적으로 제공하는 단계를 더 포함할 수 있다.According to an embodiment of the present invention, the step of visually providing in the predetermined frame may include the step of visually providing the first image to be matched with the predetermined frame by making the size of the first image equal to the size of the predetermined frame And a second step of providing the second step.

일 실시예에 따르면, 상기 제1 이미지는, 상기 사용자의 단말에 저장된 이미지 중 어느 하나일 수 있다.According to one embodiment, the first image may be any one of images stored in the terminal of the user.

상기 기술적 과제를 달성하기 위한 본 발명의 다른 태양(Aspect)에 따른 사용자 맞춤형 3차원 객체 생성 장치는, 사용자로부터 3차원의 제1 객체를 선택하는 입력을 수신하는 객체 선택 수신부; 상기 제1 객체를 시각적으로 제공하는 객체 제공부; 상기 기 설정된 프레임을 시각적으로 제공하는 프레임 제공부; 상기 사용자로부터 2차원의 제1 이미지를 선택하는 입력을 수신하는 이미지 선택 수신부; 상기 제1 이미지를 상기 기 설정된 프레임 내에서 시각적으로 제공하는 이미지 제공부; 상기 사용자의 이미지 조작 입력에 기반하여 상기 기 설정된 프레임 내에 존재하는 이미지의 크기, 시점 및 위치 중 적어도 어느 하나를 변경하는 편집 수신부; 및 상기 적어도 어느 하나의 변경이 발생할 때마다 실시간으로 상기 제1 객체의 무늬를 변경하는 객체 변경부를 포함할 수 있다.According to another aspect of the present invention, there is provided an apparatus for generating a user-customized three-dimensional object, the apparatus comprising: an object selection receiving unit receiving an input for selecting a first object in three dimensions from a user; An object providing unit for visually providing the first object; A frame providing unit for visually providing the predetermined frame; An image selection receiving unit receiving an input for selecting a first image of two dimensions from the user; An image providing unit for visually providing the first image within the predetermined frame; An edit receiving unit for changing at least one of a size, a viewpoint, and a position of an image existing in the predetermined frame based on the user's image manipulation input; And an object changing unit for changing the pattern of the first object in real time whenever the at least one change occurs.

상기와 같은 본 발명에 따르면, 사용자가 보유한 이미지를 이용하여 3차원의 가상 객체의 무늬를 간편하게 변경할 수 있다.According to the present invention as described above, the pattern of the three-dimensional virtual object can be easily changed using the image held by the user.

또한, 상기와 같은 본 발명에 따르면, 사용자 별로 제공된 3차원 가상 공간에 사용자가 원하는 객체를 생성하고 배치하여 꾸밀 수 있다.In addition, according to the present invention, the user can create and arrange desired objects in the three-dimensional virtual space provided for each user.

또한, 상기와 같은 본 발명에 따르면, 사용자는 직감적이고 간편한 조작으로 3차원의 가상 객체의 무늬를 변경할 수 있다.In addition, according to the present invention as described above, the user can change the pattern of the three-dimensional virtual object with intuitive and easy manipulation.

본 발명의 효과들은 이상에서 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해 될 수 있을 것이다.The effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned can be clearly understood to those of ordinary skill in the art from the following description.

도 1은 본 발명의 일 실시예에 따른 사용자 맞춤형 3차원 객체 생성 장치에 관한 블록도이다.
도 2는 본 발명의 일 실시예에 따른 사용자 맞춤형 3차원 객체 생성 장치의 다른 블록도이다.
도 3은 3차원의 가상 공간 및 3차원의 가상 공간에 배치된 제1 객체 및 제2 객체를 나타내는 도면이다.
도 4는 기 설정된 프레임이 제공된 모습을 나타낸 도면이다.
도 5는 제1 객체와 기 설정된 프레임 간에 대응되는 지점의 일 예를 나타내는 도면이다.
도 6은 이미지 제공부에 의하여 제공된 이미지의 일 예를 나타내는 도면이다.
도 7은 객체 변경부에 의하여 제1 객체의 무늬가 변경된 일 예를 나타내는 도면이다.
도 8은 사용자의 이미지 조작 입력에 의하여 기 설정된 프레임 내에서 제1 이미지의 크기, 시점 및 위치 중 적어도 어느 하나가 변경된 일 예를 나타내는 도면이다.
도 9는 제1 이미지의 조작 입력에 따라 도 8과 같은 상태에서 제1 객체의 무늬가 변경된 일 예를 나타내는 도면이다.
도 10은 본 발명의 다른 실시예에 따른 사용자 맞춤형 3차원 객체 생성 방법에 관한 흐름도이다.
도 11은 상기 사용자 맞춤형 3차원 객체 생성 장치의 도 1 및 2와는 다른 구성도이다.
1 is a block diagram of an apparatus for generating a customized three-dimensional object according to an exemplary embodiment of the present invention.
2 is another block diagram of a user-customized three-dimensional object generation apparatus according to an exemplary embodiment of the present invention.
3 is a diagram showing a first object and a second object arranged in a three-dimensional virtual space and a three-dimensional virtual space.
4 is a view showing a state in which a predetermined frame is provided.
5 is a diagram illustrating an example of a point corresponding to a first object and a predetermined frame.
6 is a diagram showing an example of an image provided by the image providing unit.
7 is a diagram illustrating an example in which the pattern of the first object is changed by the object changing unit.
FIG. 8 is a diagram illustrating an example in which at least one of a size, a viewpoint, and a position of a first image is changed within a predetermined frame by an image manipulation input by a user.
9 is a diagram illustrating an example in which the pattern of the first object is changed in the state shown in FIG. 8 according to an operation input of the first image.
10 is a flowchart illustrating a method for generating a customized three-dimensional object according to another exemplary embodiment of the present invention.
FIG. 11 is a configuration diagram different from FIGS. 1 and 2 of the user-customized three-dimensional object generating apparatus.

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명한다. 본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시 예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 게시되는 실시 예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시 예들은 본 발명의 게시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. BRIEF DESCRIPTION OF THE DRAWINGS The advantages and features of the present invention and the manner of achieving them will become apparent with reference to the embodiments described in detail below with reference to the accompanying drawings. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. Rather, these embodiments are provided so that this disclosure will be thorough and complete, and will fully convey the scope of the invention to those skilled in the art. Is provided to fully convey the scope of the invention to those skilled in the art, and the invention is only defined by the scope of the claims. Like reference numerals refer to like elements throughout the specification.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다. 본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다.Unless defined otherwise, all terms (including technical and scientific terms) used herein may be used in a sense commonly understood by one of ordinary skill in the art to which this invention belongs. Also, commonly used predefined terms are not ideally or excessively interpreted unless explicitly defined otherwise. The terminology used herein is for the purpose of illustrating embodiments and is not intended to be limiting of the present invention. In the present specification, the singular form includes plural forms unless otherwise specified in the specification.

본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함될 수 있다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소, 단계, 동작 및/또는 소자는 하나 이상의 다른 구성요소, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않는다.In this specification, a singular form may include plural forms unless specifically stated in the phrase. It is noted that the terms "comprises" and / or "comprising" used in the specification are intended to be inclusive in a manner similar to the components, steps, operations, and / Or additions.

도 1은 본 발명의 일 실시예에 따른 사용자 맞춤형 3차원 객체 생성 장치에 관한 블록도이다.1 is a block diagram of an apparatus for generating a customized three-dimensional object according to an exemplary embodiment of the present invention.

도 1을 참조하면, 본 발명의 일 실시예에 따른 사용자 맞춤형 3차원 객체 생성 장치(100)는 객체 선택 수신부(110), 객체 제공부(120), 프레임 제공부(130), 이미지 선택 수신부(140), 이미지 제공부(150), 편집 수신부(160) 및 객체 변경부(170)를 포함한다.1, an apparatus 100 for generating a user-customized three-dimensional object according to an exemplary embodiment of the present invention includes an object selection receiving unit 110, an object providing unit 120, a frame providing unit 130, 140, an image providing unit 150, an editing receiving unit 160, and an object changing unit 170.

본 발명의 일 실시예에 따른 사용자 맞춤형 3차원 객체 생성 장치(100)는 사용자 단말로부터 입력된 신호를 수신할 수 있다. 또한, 사용자 맞춤형 3차원 객체 생성 장치(100)는 사용자 단말에 구비된 디스플레이 장치를 통하여 다양한 정보를 시각적으로 제공할 수 있다.The user-customized three-dimensional object generation apparatus 100 according to an exemplary embodiment of the present invention may receive a signal input from a user terminal. In addition, the user-customized three-dimensional object generation apparatus 100 can visually provide various information through a display device provided in a user terminal.

사용자 단말은 사용자로부터 입력을 수신할 수 있는 터치 스크린 등의 입력 장치를 구비하며, 시각적인 정보를 출력할 수 있는 디스플레이 장치를 구비한 것이다.The user terminal has an input device such as a touch screen capable of receiving input from a user and is provided with a display device capable of outputting visual information.

또한, 사용자 단말은 어플리케이션을 구동하고 연산을 처리할 수 있는 기능 및 통신 기능을 포함할 수 있다.In addition, the user terminal may include a function and a communication function capable of operating an application and processing an operation.

사용자 단말은 예를 들면, 데스크탑 컴퓨터, 워크스테이션, PDA (Personal Digital Assistants), 포터블(portable) 컴퓨터, 무선 전화기(wireless phone), 모바일 폰(mobile phone), 스마트폰(smart phone), e-북(e-book), PMP(portable multimedia player), 휴대용 게임기, 네비게이션(navigation) 장치, 블랙박스(black box), 디지털 카메라(digital camera), 텔레비전, 정보를 무선 환경에서 송수신할 수 있는 장치, 홈 네트워크를 구성하는 다양한 전자 장치들 중 하나, 컴퓨터 네트워크를 구성하는 다양한 전자 장치들 중 하나, 텔레매틱스 네트워크(telematics network)를 구성하는 다양한 전자 장치들 중 하나, 스마트 카드, 또는 컴퓨팅 시스템을 구성하는 다양한 구성 요소들 중 하나 등과 같은 전자 장치의 다양한 구성 요소들 중 하나로 제공될 수 있다.A user terminal may be, for example, a desktop computer, a workstation, a personal digital assistant (PDA), a portable computer, a wireless phone, a mobile phone, a smart phone, a portable multimedia player (PMP), a portable game machine, a navigation device, a black box, a digital camera, a television, a device capable of transmitting and receiving information in a wireless environment, a home One of various electronic devices constituting a network, one of various electronic devices constituting a computer network, one of various electronic devices constituting a telematics network, a smart card, or various configurations constituting a computing system One of the elements, and the like.

본 발명의 일 실시예에 따른 사용자 맞춤형 3차원 객체 생성 장치(100)는 사용자 단말에서 동작될 수 있으며, 사용자 단말과 별도의 장치에서 동작될 수도 있다.The user-customized three-dimensional object generation apparatus 100 according to an exemplary embodiment of the present invention may be operated in a user terminal, or may be operated in a separate apparatus from a user terminal.

객체 선택 수신부(110)는 사용자로부터 3차원의 특정 객체를 선택하는 입력을 수신할 수 있다.The object selection receiving unit 110 may receive an input for selecting a specific object in three dimensions from a user.

즉, 사용자는 사용자 단말에 구비된 입력 장치를 통하여 가상의 3차원 특정 객체를 선택하는 입력을 하고, 객체 선택 수신부(110)는 사용자의 객체 선택 입력을 입력 장치를 통하여 직간접적으로 전달 받을 수 있다.That is, the user inputs an input for selecting a virtual three-dimensional specific object through the input device provided in the user terminal, and the object selection and reception unit 110 can receive the object selection input of the user directly or indirectly through the input device .

사용자의 특정 객체 선택을 돕기 위하여 사용자 인터페이스(UI, User Interface)는 다양한 형태, 종류의 객체를 사용자에게 시각적으로 제공할 수 있다.In order to help the user to select specific objects, a user interface (UI) can visually provide various types and types of objects to the user.

사용자는 시각적으로 제공 받은 다양한 형태, 종류의 객체 중 어느 하나의 객체를 선택할 수 있다.The user can select any one of various types and types of objects provided visually.

객체 제공부(120)는 객체 선택 수신부(110)에서 수신한 사용자의 객체 선택 입력에 대응되는 객체를 사용자에게 시각적으로 제공할 수 있다.The object providing unit 120 can visually provide the user with an object corresponding to the user's object selection input received from the object selecting and receiving unit 110. [

즉, 객체 제공부(120)는 사용자가 선택한 객체를 사용자 단말의 디스플레이 장치를 통하여 사용자에게 시각적으로 제공할 수 있다.That is, the object providing unit 120 can visually provide the user with the object selected by the user through the display unit of the user terminal.

객체 제공부(120)는 사용자가 선택한 객체를 사용자 별로 제공되는 3차원의 가상 공간 상의 어느 영역에서 제공할 수 있다.The object providing unit 120 may provide an object selected by the user in an area on a three-dimensional virtual space provided for each user.

3차원의 가상 공간이 사용자 별로 제공된다는 의미는, 3차원의 가상 공간마다 가산 공간 상에서 객체를 배치하고 객체의 무늬를 변경할 수 있는 권한을 가진 사용자가 하나일 수 있다는 것을 의미한다.The fact that the three-dimensional virtual space is provided for each user means that there can be one user who has the authority to place the object in the addition space and change the pattern of the object for each three-dimensional virtual space.

하나의 사용자랑 하나의 사용자 단말, 접속 아이디, 회원 아이디 등 하나의 식별자 정보를 의미할 수 있다.A single user, a single user terminal, a connection ID, and a member ID.

다만, 3차원 가상 공간을 방문하는 것은 다른 사용자도 가능할 수 있다.However, it is possible for other users to visit the 3D virtual space.

또한, 3차원의 가상 공간에는 상기 권한을 가진 사용자의 의도와는 상관없이 배치되어 있는 객체가 존재할 수도 있다.In addition, an object placed in the three-dimensional virtual space regardless of the intention of the user having the authority may exist.

본 발명의 일 실시예에 따른 사용자 맞춤형 3차원 객체 생성 장치(100)는 사용자 별로 3차원의 가상 공간을 제공할 수 있다.The apparatus 100 for generating a user-customized three-dimensional object according to an embodiment of the present invention can provide a three-dimensional virtual space for each user.

사용자는 UI를 이용하여 객체 제공부(120)에서 제공한 객체를 3차원의 가상 공간의 어느 영역에 배치할 수 있다.The user can place the object provided by the object providing unit 120 in a certain region of the three-dimensional virtual space using the UI.

사용자가 이용하는 UI는 본 발명의 일 실시예에 따른 사용자 맞춤형 3차원 객체 생성 장치(100)에서 제공할 수 있다.The UI used by the user can be provided in the user-customized three-dimensional object generating apparatus 100 according to an embodiment of the present invention.

사용자는 3차원의 가상 공간에 여러 개의 객체를 배치할 수 있다.The user can place a plurality of objects in a three-dimensional virtual space.

즉, 객체 선택 수신부(110)는 복수 개의 객체를 선택하는 입력 또는 복수 회의 객체를 선택하는 입력을 수신할 수 있다.That is, the object selection receiving unit 110 may receive an input for selecting a plurality of objects or an input for selecting a plurality of objects.

사용자는 본 발명의 일 실시예에 따른 사용자 맞춤형 3차원 객체 생성 장치(100)를 이용하여 용이하게 사용자가 원하는 무늬로 객체의 무늬를 변경할 수 있다.The user can easily change the pattern of the object to a desired pattern using the user-customized three-dimensional object generating apparatus 100 according to an embodiment of the present invention.

이하의 설명에서는 이해를 돕기 위하여 사용자가 무늬를 변경하고자 하는 객체를 제1 객체라 한다.In the following description, an object for which a user wants to change a pattern is referred to as a first object in order to facilitate understanding.

사용자가 선택하여 가상 공간에 배치한 객체 중 어느 하나이다.It is any one of the objects selected by the user and placed in the virtual space.

사용자는 본 발명의 일 실시예에 따른 사용자 맞춤형 3차원 객체 생성 장치(100)를 이용하여 사용자 단말에 저장된 이미지를 이용하여 제1 객체의 무늬를 용이하게 변경할 수 있다.The user can easily change the pattern of the first object using the image stored in the user terminal using the user-customized three-dimensional object generating apparatus 100 according to an embodiment of the present invention.

구체적으로, 사용자가 제1 객체의 무늬를 변경하고자 하는 입력을 하면, 본 발명의 일 실시예에 따른 사용자 맞춤형 3차원 객체 생성 장치(100)는 기 설정된 프레임을 사용자 단말의 디스플레이 장치를 통하여 시각적으로 제공할 수 있다.Specifically, when the user inputs an attempt to change the pattern of the first object, the apparatus 100 for generating a user-customized three-dimensional object according to an exemplary embodiment of the present invention visually displays a predetermined frame through a display device of the user terminal .

기 설정된 프레임은 사용자에게 제공되는 3차원의 가상 공간 상에 존재할 수 있다.The predetermined frame may exist on the three-dimensional virtual space provided to the user.

또한, 기 설정된 프레임은 프레임 특정한 면적 및 모양으로 설정될 수 있으며, 제1 객체의 종류나 형태에 따라서 변경되지 않을 수 있다.In addition, the preset frame may be set to a frame-specific area and shape, and may not be changed depending on the type or form of the first object.

제1 객체 상에서의 특정 지점은 상기 기 설정된 프레임 내에 존재하는 특정 지점과 대응될 수 있다.A specific point on the first object may correspond to a specific point existing in the predetermined frame.

그러나, 1대 1로 대응되는 것은 아니며, 기 설정된 프레임 내에 존재하는 어느 하나의 지점이 제1 객체 상에서의 복수 개의 지점과 대응되도록 설정될 수도 있다.However, not necessarily one-to-one correspondence may be established such that any one point existing in a predetermined frame corresponds to a plurality of points on the first object.

또한, 기 설정된 프레임 내에 존재하는 모든 지점이 상기 제1 객체 상에서의 특정 지점과 대응되지 않을 수 있다. 즉, 기 설정된 프레임 내에 일 부 영역은 제1 객체상에서의 어느 지점과도 대응되지 않을 수 있다.In addition, all points present within a predetermined frame may not correspond to a specific point on the first object. That is, some areas within a predetermined frame may not correspond to any points on the first object.

도 2는 본 발명의 일 실시예에 따른 사용자 맞춤형 3차원 객체 생성 장치(100)의 다른 블록도이다.2 is another block diagram of an apparatus 100 for generating a user-customized three-dimensional object according to an exemplary embodiment of the present invention.

도 2를 참조하면, 본 발명의 일 실시예에 따른 사용자 맞춤형 3차원 객체 생성 장치(100)는 대응 지점 설정부(180)를 더 포함할 수 있다.Referring to FIG. 2, the apparatus 100 for generating a customized three-dimensional object according to an exemplary embodiment of the present invention may further include a corresponding point setting unit 180.

대응 지점 설정부(180)는 제1 객체 상에서의 특정 지점과 기 설정된 프레임 내에 존재하는 특정 지점이 대응되는 지점으로 설정하고 설정 정보를 저장할 수 있다.The corresponding point setting unit 180 may set the point corresponding to a specific point on the first object to a specific point existing in the predetermined frame and store the setting information.

대응 지점 설정부(180)는 제1 개체가 아닌 제2 객체 상에서의 특정 지점과 기 설정된 프레임 내에 존재하는 특정 지점이 대응되는 지점으로 설정하고 설정 정보를 저장할 수 있다.The corresponding point setting unit 180 may set the point corresponding to the specific point on the second object and the specific point existing in the predetermined frame rather than the first entity to store the setting information.

다시 도 1을 참조하면, 이미지 선택 수신부(140)는 사용자로부터 2차원의 어느 하나의 이미지인 제1 이미지를 선택하는 입력을 수신할 수 있다.Referring again to FIG. 1, the image selection receiving unit 140 may receive an input for selecting a first image, which is one of two-dimensional images, from a user.

제1 이미지는 사용자 단말에 저장된 이미지일 수 있다.The first image may be an image stored in a user terminal.

이미지 제공부(150)는 이미지 선택 수신부(140)에 의하여 수신된 입력에 따른 이미지, 즉 사용자가 선택한 제1 이미지는 기 설정된 프레임과 겹쳐지도록 제공할 수 있다.The image providing unit 150 may provide an image according to the input received by the image selecting and receiving unit 140, that is, a first image selected by the user, to overlap with a predetermined frame.

예를 들어, 기 설정된 프레임의 크기가 100픽셀X100픽셀이고, 제1 이미지의 크기가 80픽셀X100픽셀인 경우, 이미지 제공부(150)는 제1 이미지를 100픽셀X100픽셀로 확장시켜서 기 설정된 프레임에 오버랩 되도록 사용자에게 시각적으로 제공할 수 있다.For example, when the predetermined frame size is 100 pixels X 100 pixels and the size of the first image is 80 pixels X 100 pixels, the image data providing unit 150 expands the first image to 100 pixels X 100 pixels, To the user.

이미지 제공부(150)는 반드시 제1 이미지를 기 설정된 프레임에 오버랩 되도록 제공하지 않을 수 있다. 예를 들면, 이미지 제공부(150)는 제1 이미지를 원본 크기, 축소된 크기 및/또는 확대된 크기로 3차원의 가상 공간의 어느 영역 상에 배치하여 시각적으로 제공할 수도 있다.The image data providing unit 150 may not necessarily provide the first image to overlap the predetermined frame. For example, the image providing unit 150 may visually provide the first image by arranging the first image on an original size, a reduced size, and / or an enlarged size on an area of the three-dimensional virtual space.

또는, 이미지 제공부(150)는 제1 이미지의 일부 영역이 기 설정된 프레임 내에 존재하도록 제공할 수도 있다.Alternatively, the image data providing unit 150 may provide a partial area of the first image to be present within a predetermined frame.

또는, 이미지 제공부(150)는 제1 이미지의 모든 영역이 기 설정된 프레임의 일부 영역에 존재하도록 제공할 수도 있다.Alternatively, the image data providing unit 150 may provide all of the areas of the first image to be present in some areas of the predetermined frame.

다만, 이미지 제공부(150)가 제1 이미지를 기 설정된 프레임과 동일한 크기로 자동으로 조절하여 겹쳐지도록 제공하면, 사용자가 이미지를 조작하여 제1 객체의 무늬를 변경시키는데 보다 용이하고 직감적인 조작이 가능하도록 도움을 줄 수 있다.However, if the image providing unit 150 automatically adjusts the first image to the same size as the preset frame and provides it to overlap, it is easier and more intuitive for the user to manipulate the image to change the pattern of the first object It can help.

제1 이미지의 일부 영역이라도 기 설정된 프레임에 존재하는 경우, 제1 객체의 무늬는 객체 변경부(170)에 의하여 변경될 수 있다.If a certain area of the first image is also present in a predetermined frame, the pattern of the first object may be changed by the object changing unit 170.

구체적으로, 객체 변경부(170)는 기 설정된 프레임 내에 존재하는 특정 지점 상에서의 제1 이미지의 픽셀 값을 제1 객체의 특정 지점에 적용할 수 있다.Specifically, the object changing unit 170 may apply a pixel value of the first image on a specific point existing within a predetermined frame to a specific point of the first object.

기 설정된 프레임 내에 존재하는 특정 지점과 상기 제1 객체의 특정 지점은 설정에 따라서 대응되는 지점일 수 있다.A specific point existing within a predetermined frame and a specific point of the first object may be a corresponding point according to the setting.

앞서 설명한 바와 같이, 기 설정된 프레임 내에 존재하는 일부 지점은 제1 객체의 어느 지점과도 대응되지 않을 수 있다. 따라서, 제1 이미지의 일부 영역이 기 설정된 프레임 중 제1 객체의 어느 지점과도 대응되지 않는 지점에 존재하는 경우에는 제1 객체의 무늬는 변경되지 않는다.As described above, some points existing in the predetermined frame may not correspond to any point of the first object. Therefore, if the partial area of the first image exists at a point of the predetermined frame that does not correspond to any point of the first object, the pattern of the first object is not changed.

사용자는 UI를 이용하여 이미지를 조작할 수 있다.The user can manipulate the image using the UI.

구체적으로, 사용자는 UI를 이용하여 이미지의 크기, 이미지의 시점 및 이미지의 위치 중 적어도 어느 하나를 변경하는 조작을 수행할 수 있다.Specifically, the user can perform an operation of changing at least one of the size of the image, the viewpoint of the image, and the position of the image using the UI.

편집 수신부(160)는 이러한 사용자의 이미지 조작 입력을 수신하여 이미지의 크기, 이미지의 시점 및 이미지의 위치 중 적어도 어느 하나를 변경할 수 있다.The edit receiving unit 160 can receive at least one of the image manipulation input of the user and change at least one of the size of the image, the view of the image, and the position of the image.

객체 변경부(170)는 제1 객체와 기 설정된 프레임 간의 대응 지점에 관한 정보 및 상기 제1 객체의 지점 상에 오버랩 되어 존재하고 있는 제1 이미지의 픽셀 값 정보를 이용하여 제1 객체의 무늬를 변경할 수 있다.The object changing unit 170 may change the pattern of the first object using the information about the corresponding point between the first object and the predetermined frame and the pixel value information of the first image overlapping on the point of the first object Can be changed.

즉, 제1 객체 상의 제1 지점과 기 설정된 프레임 상의 제2 지점이 대응되는 지점이고, 제2 지점 상에는 제1 이미지의 제3 지점이 오버랩 되어 있는 경우, 객체 변경부(170)는 제1 지점에 해당하는 제1 객체의 픽셀 값을 제1 이미지의 제3 지점의 픽셀 값으로 변경할 수 있다.That is, when the first point on the first object corresponds to the second point on the predetermined frame and the third point on the first image overlaps on the second point, the object changing unit 170 changes the first point The pixel value of the first object corresponding to the first image can be changed to the pixel value of the third point of the first image.

제2 지점과 오버랩 되어 있는 제1 이미지의 제3 지점은 하나의 픽셀일 수도 있고, 복수 개의 픽셀일 수도 있다.The third point of the first image overlapping with the second point may be one pixel or a plurality of pixels.

도 1 내지 2를 참조하여 설명한 본 발명의 일 실시예에 따른 사용자 맞춤형 3차원 객체 생성 장치(100)에 관한 구체적인 적용 예를 도 3 내지 도 9를 참조하여 설명한다.A specific application example of the user-customized three-dimensional object generating apparatus 100 according to an embodiment of the present invention described with reference to Figs. 1 and 2 will be described with reference to Figs. 3 to 9. Fig.

도 3은 3차원의 가상 공간 및 3차원의 가상 공간에 배치된 제1 객체 및 제2 객체를 나타내는 도면이다.3 is a diagram showing a first object and a second object arranged in a three-dimensional virtual space and a three-dimensional virtual space.

도 3을 참조하면, 3차원의 가상 공간(31)에 의자에 해당하는 제1 객체(32) 및 도자기에 해당하는 제2 객체(33)가 배치되어 있는 것을 볼 수 있다.Referring to FIG. 3, a first object 32 corresponding to a chair and a second object 33 corresponding to a pottery are arranged in a three-dimensional virtual space 31.

제1 객체(32) 및 제2 객체(33)는 3차원 가상 공간(31)에 객체를 배치할 수 있는 권한을 가진 제1 사용자에 의하여 선택되고 배치된 객체이다.The first object 32 and the second object 33 are objects selected and placed by a first user who has the authority to place the object in the three-dimensional virtual space 31.

제1 사용자에 의하여 선택되고 선택된 객체를 배치하는 과정에서 객체 선택 수신부(110) 및 객체 제공부(120)가 동작할 수 있다.The object selecting and receiving unit 110 and the object providing unit 120 may operate in the process of arranging the selected objects selected by the first user.

도 4는 기 설정된 프레임(41)이 제공된 모습을 나타낸 도면이다.4 is a view showing a state in which a predetermined frame 41 is provided.

제1 사용자는 제1 사용자 단말(10)에 저장된 이미지를 이용하여 제1 객체(32)의 무늬를 변경하고자 하면(변경하고자 하는 입력을 수신할 수 있다), 프레임 제공부(130)는 도 4와 같이 기 설정된 프레임(41)을 제공할 수 있다.When the first user attempts to change the pattern of the first object 32 using the image stored in the first user terminal 10, the frame providing unit 130 may change the pattern of the first object 32 As shown in FIG.

도 5는 제1 객체(32)와 기 설정된 프레임(41) 간에 대응되는 지점의 일 예를 나타내는 도면이다.5 is a diagram illustrating an example of a point corresponding to a first object 32 and a predetermined frame 41. In FIG.

도 5를 참조하면, 제1 객체(32)의 P11지점은 기 설정된 프레임(41)의 P21 지점과 대응되는 것을 볼 수 있다. 또한, 제1 객체(32)의 P12지점은 기 설정된 프레임(41)의 P22 지점과 대응되는 것을 볼 수 있다. 또한, 제1 객체(32)의 P13지점은 기 설정된 프레임(41)의 P23 지점과 대응되는 것을 볼 수 있다.Referring to FIG. 5, it can be seen that the P11 point of the first object 32 corresponds to the P21 point of the predetermined frame 41. In addition, it can be seen that the P12 point of the first object 32 corresponds to the P22 point of the predetermined frame 41. [ In addition, it can be seen that the P13 point of the first object 32 corresponds to the P23 point of the predetermined frame 41. [

제1 객체(32)의 모든 지점은 기 설정된 프레임(41)의 어느 지점과 대응될 수 있다.All the points of the first object 32 may correspond to some point in the predetermined frame 41. [

기 설정된 프레임(41)의 어느 하나의 지점에 제1 객체(32)의 복수 개의 지점이 대응될 수도 있다.A plurality of points of the first object 32 may correspond to any one point of the predetermined frame 41. [

그러나, 기 설정된 프레임(41)의 일부 지점은 제1 객체(32)의 어느 지점과도 대응되지 않을 수 있다. 이러한 일부 지점은 제1 객체(32)의 종류 및 형태에 따라 상이하게 변경될 수 있다.However, some points of the predetermined frame 41 may not correspond to any point of the first object 32. [ Some of these points may be changed differently depending on the type and the form of the first object 32.

도 5에서는 기 설정된 프레임(41) 중 P2a지점 및 P2b 지점이 제1 객체(32)의 어느 지점과도 대응되지 않는 것을 볼 수 있다.In FIG. 5, it can be seen that the P2a point and the P2b point of the predetermined frame 41 do not correspond to any point of the first object 32.

도 6은 이미지 제공부(150)에 의하여 제공된 이미지의 일 예를 나타내는 도면이다.6 is a diagram showing an example of an image provided by the image data providing unit 150. As shown in FIG.

도 6을 참조하면, 이미지 선택 수신부(140)가 사용자로부터 제1 이미지를 선택하는 입력을 수신하면, 이미지 제공부(150)는 제1 이미지의 크기를 기 설정된 프레임(41)의 크기와 동일하게 변경한 후 기 설정된 프레임(41)과 오버랩 하여 사용자에게 제공할 수 있다.6, when the image selecting and receiving unit 140 receives an input for selecting a first image from a user, the image providing unit 150 sets the size of the first image to be equal to the size of the predetermined frame 41 It can overlap with the preset frame 41 and provide it to the user.

제1 이미지에 포함된 다양한 형태의 모양(61, 62, 63, 64, 65)은 제1 이미지의 크기를 변경하는 과정에서 확대 및 축소 될 수 있다. 기 설정된 프레임(41)과 제1 이미지가 오버랩 되는 과정에서 크기가 변경된 다양한 형태의 모양의 일 예(61a, 62a, 63a, 64a, 65a)를 도 6에서 볼 수 있다.The various shapes 61, 62, 63, 64, and 65 included in the first image may be enlarged and reduced in the process of changing the size of the first image. 6 (a), 6 (b), 6 (a), 63 (a), 64 (a) and 65 (a) in which the sizes of the images are changed in the process of overlapping the predetermined image 41 and the first image.

제1 이미지가 기 설정된 프레임(41)과 오버랩 되면, 객체 변경부(170)는 제1 객체(32)의 무늬를 변경한다.If the first image overlaps with the predetermined frame 41, the object changing unit 170 changes the pattern of the first object 32. [

도 7은 객체 변경부(170)에 의하여 제1 객체(32)의 무늬가 변경된 일 예를 나타내는 도면이다.7 is a diagram showing an example in which the pattern of the first object 32 is changed by the object changing unit 170. In FIG.

도 7을 참조하면, 앞서 설명한 바와 같이 객체 변경부(170)는 제1 객체(32)와 기 설정된 프레임(41) 간 대응되는 지점에 관한 정보 및 제1 이미지의 픽셀 값을 이용하여 제1 객체(32)의 무늬를 변경할 수 있다. 구체적으로, 도 7을 보면 제1 객체(32)에 71, 72, 73, 74 및 75의 무늬가 생성된 것을 볼 수 있다.Referring to FIG. 7, as described above, the object changing unit 170 may use the information about the corresponding points between the first object 32 and the predetermined frame 41 and the pixel value of the first image, It is possible to change the pattern of the pattern 32. 7, it can be seen that patterns of 71, 72, 73, 74 and 75 are generated in the first object 32. FIG.

즉, 도 5를 함께 참조하면, 기 설정된 프레임(41)의 P23 지점과 겹쳐 있는 제1 이미지의 지점에서의 픽셀 값을 제1 지점의 P13 지점에 적용할 수 있다.That is, referring to FIG. 5, the pixel value at the point of the first image overlapping the P23 point of the predetermined frame 41 can be applied to the point P13 of the first point.

P23 지점과 P13 지점의 크기가 동일하지 않는 경우에는 확대 및 축소가 발생할 수 있다.If the sizes of the points P23 and P13 are not the same, enlargement and reduction may occur.

이러한 방식으로 객체 변경부(170)에 의하여 변경이 적용된 일 예는 도 7과 같을 수 있다.An example in which the change is applied by the object changing unit 170 in this manner may be as shown in FIG.

도 6 및 도 7과 같은 상태에서 사용자의 이미지 조작 입력에 의하여 기 설정된 프레임(41) 내에서 제1 이미지의 크기, 시점 및 위치 중 적어도 어느 하나가 변경되면 제1 객체(32)의 무늬도 변경될 수 있다. 이에 관하여 도 8 및 9를 참조하여 설명한다.6 and 7, when the size, the viewpoint, and the position of the first image are changed in the predetermined frame 41 by the user's image manipulation input, the pattern of the first object 32 is also changed . This will be described with reference to Figs. 8 and 9. Fig.

도 8은 사용자의 이미지 조작 입력에 의하여 기 설정된 프레임(41) 내에서 제1 이미지의 크기, 시점 및 위치 중 적어도 어느 하나가 변경(61b, 62b, 63b, 64b, 65b)된 일 예를 나타내는 도면이다.8 is a diagram showing an example in which at least one of the size, the viewpoint and the position of the first image is changed (61b, 62b, 63b, 64b, 65b) in the frame 41 preset by the user's image manipulation input to be.

이미지 편집부는 사용자의 이미지 조작 입력에 기반하여 기 설정된 프레임(41) 내에 존재하는 제1 이미지의 크기, 시점 및 위치 중 적어도 어느 하나를 변경할 수 있다.The image editing unit may change at least one of the size, the viewpoint, and the position of the first image existing in the predetermined frame 41 based on the user's image manipulation input.

도 8을 참조하면, 도 6과 같은 상태에서 사용자의 이미지 조작 입력에 의하여 제1 이미지의 크기가 축소되고 시계방향으로 회전된 상태인 것을 알 수 있다.Referring to FIG. 8, it can be seen that the size of the first image is reduced and rotated clockwise by the image manipulation input of the user in the state of FIG.

기 설정된 프레임(41) 및 제1 이미지는 3차원의 가상 공간(31) 상에 존재하는 것인바, 도 8에서는 x축 및 y축의 변경뿐만 아니라, z축으로의 변경이 발생한 것일 수도 있다.The predetermined frame 41 and the first image are present on the three-dimensional virtual space 31. In Fig. 8, the change in the z-axis may occur as well as the change of the x-axis and the y-axis.

도 9는 제1 이미지의 조작 입력에 따라 도 8과 같은 상태에서 제1 객체(32)의 무늬가 변경된 일 예를 나타내는 도면이다.9 is a diagram showing an example in which the pattern of the first object 32 is changed in the state shown in FIG. 8 according to the operation input of the first image.

객체 변경부(170)는 제1 객체(32)와 기 설정된 프레임(41) 간 대응되는 지점에 관한 정보 및 제1 이미지의 픽셀 값을 이용하여 제1 객체(32)의 무늬를 변경할 수 있다.The object changing unit 170 may change the pattern of the first object 32 using the information about the corresponding point between the first object 32 and the predetermined frame 41 and the pixel value of the first image.

다만, 도 6과는 달리 사용자의 제1 이미지 조작 입력에 따라 기 설정된 프레임(41) 내에서의 제1 이미지의 상태가 도 8과 같이 변경됨으로 인하여 기 설정된 프레임(41)의 각각의 지점에서의 픽셀 값이 변경되었다.However, unlike FIG. 6, since the state of the first image in the predetermined frame 41 according to the first image manipulation input of the user is changed as shown in FIG. 8, The pixel value has changed.

따라서, 제1 객체(32)의 무늬도 변경(71a, 72a, 73a, 74a, 75a)된다.Accordingly, the pattern of the first object 32 is also changed (71a, 72a, 73a, 74a, 75a).

기 설정된 프레임 내에서의 제1 이미지의 조작으로 인하여 74a 및 72의 하단 부분은 쇼파의 바닥에 위치할 수 있다. 사용자는 제1 객체(32)의 시점 등을 조작하여 쇼파의 바닥 부분도 볼 수 있다.Due to manipulation of the first image within the predetermined frame, the lower portion of 74a and 72 may be located at the bottom of the couch. The user can also view the bottom portion of the sofa by operating the viewpoint of the first object 32 or the like.

즉, 도 5를 함께 참조하면, 기 설정된 프레임(41)의 P23 지점과 겹쳐 있는 제1 이미지의 지점에서의 픽셀 값을 제1 지점의 P13 지점에 적용한다. 여기서, 사용자의 제1 이미지 조작 입력에 따라서 P23 지점과 겹쳐 있는 제1 이미지의 지점이 변경된다. 그로 인하여, P13 지점에 적용되는 픽셀 값은 변경된다. 따라서, 제1 객체(32)의 무늬는 도 7과는 달리 도 9와 같이 나타날 수 있다.5, the pixel value at the point of the first image overlapping the P23 point of the predetermined frame 41 is applied to the point P13 of the first point. Here, the point of the first image overlapping with the point P23 is changed in accordance with the user's first image manipulation input. As a result, the pixel value applied to the point P13 is changed. Accordingly, the pattern of the first object 32 may be as shown in FIG. 9, unlike FIG.

제1 이미지가 도 6의 상태에서 도 8의 상태로 변경되는 과정은 연속적일 수 있다. 제1 이미지가 도 6의 상태에서 도 8의 상태로 연속적으로 변경되는 과정에서 객체 변경부(170)는 실시간으로 제1 객체(32)의 무늬를 변경할 수 있다.The process of changing the first image from the state of FIG. 6 to the state of FIG. 8 may be continuous. In the process of continuously changing the first image from the state of FIG. 6 to the state of FIG. 8, the object changing unit 170 may change the pattern of the first object 32 in real time.

또한, 제1 이미지 중 적어도 일부 영역은 다른 정보에 연결 가능한 링크를 포함하는 경우, 객체 변경부(170)에 의하여 변경된 제1 객체(32)의 무늬 중 일부는 상기 링크를 포함할 수 있다.In addition, when at least some of the first images include links connectable to other information, some of the patterns of the first objects 32 changed by the object changing unit 170 may include the links.

따라서, 제1 사용자 또는 제1 사용자의 3차원 가상 공간(31)에 방문한 다른 사용자가 상기 제1 객체(32)의 무늬 중 링크를 포함한 무늬를 선택하는 입력을 하는 경우, 제1 사용자 또는 다른 사용자는 링크와 연결된 다른 정보를 제공받을 수 있다.Therefore, when another user who visits the three-dimensional virtual space 31 of the first user or the first user inputs an instruction to select a pattern including a link among the patterns of the first object 32, May be provided with other information linked to the link.

예를 들면 제1 객체(32)의 무늬 중 "Smile"(75, 75a)이 링크를 포함하고, 다른 사용자가 "Smile"(75, 75a)을 터치하면 "스마일 꽃집의 홈페이지"과 같이 다른 정보를 제공할 수 있다.For example, if "Smile" 75, 75a among the patterns of the first object 32 includes a link, and another user touches "Smile" 75, 75a, other information Can be provided.

다른 정보를 예로 들면, 제1 객체(32)에 관한 정보, 제1 객체(32)의 홍보 정보, 광고 영상 등 다양한 종류와 형태의 정보가 될 수 있다.For example, the information on the first object 32, the information on the first object 32, and the advertisement image may be various types and types of information.

이하, 도 10을 참조하여 본 발명의 다른 실시예에 따른 사용자 맞춤형 3차원 객체 생성 방법을 설명한다. 본 실시예는 연산 수단을 구비한 컴퓨팅 장치에 의하여 수행 될 수 있다. 상기 컴퓨팅 장치는, 예를 들어 본 발명의 일 실시예에 따른 사용자 맞춤형 3차원 객체 생성 장치(100)일 수 있다. 상기 사용자 맞춤형 3차원 객체 생성 장치(100)의 구성 및 동작에 대하여는 도 1 및 도 9를 참조하여 설명한 내용을 통해 이해할 수 있다.Hereinafter, a method of generating a user-customized three-dimensional object according to another embodiment of the present invention will be described with reference to FIG. The present embodiment can be performed by a computing device having computing means. The computing device may be, for example, a user-customized three-dimensional object generating apparatus 100 according to an embodiment of the present invention. The configuration and operation of the user-customized three-dimensional object generation apparatus 100 can be understood from the description with reference to FIG. 1 and FIG.

도 10은 본 발명의 다른 실시예에 따른 사용자 맞춤형 3차원 객체 생성 방법에 관한 흐름도이다.10 is a flowchart illustrating a method for generating a customized three-dimensional object according to another exemplary embodiment of the present invention.

도 10을 참조하면, 사용자 맞춤형 3차원 객체 생성 장치(100)가 사용자 단말로부터 제1 객체를 선택하는 입력을 수신한다(S1010).Referring to FIG. 10, the user-customized three-dimensional object generation apparatus 100 receives an input for selecting a first object from a user terminal (S1010).

사용자 단말로부터 입력을 수신한다는 것은 사용자 단말의 입력 장치가 수신한 입력을 전달받는 것을 포함할 수 있다.Receiving the input from the user terminal may include receiving the input received by the input device of the user terminal.

사용자 맞춤형 3차원 객체 생성 장치(100)가 3차원 가상 공간 내에서 제1 객체를 시각적으로 제공한다(S1020).The user-customized three-dimensional object creation apparatus 100 visually provides the first object within the three-dimensional virtual space (S1020).

사용자 단말로부터 제1 객체의 무늬를 변경하고자 하는 입력을 수신하면, 사용자 맞춤형 3차원 객체 생성 장치(100)가 기 설정된 프레임을 제공할 수 있다(S1030).Upon receipt of an input to change the pattern of the first object from the user terminal, the user-customized three-dimensional object generation apparatus 100 may provide a predetermined frame (S1030).

사용자 단말로부터 제1 이미지를 선택하는 입력을 수신하면(S1040), 사용자 맞춤형 3차원 객체 생성 장치(100)가 기 설정된 프레임 내에서 제1 이미지를 제공할 수 있다(S1050).Upon receipt of an input for selecting a first image from the user terminal (S1040), the user-customized three-dimensional object generation apparatus 100 may provide a first image within a predetermined frame (S1050).

사용자 맞춤형 3차원 객체 생성 장치(100)가 제1 이미지에 대한 조작 입력을 수신하면(S1060), 사용자의 이미지 조작 입력에 기반하여 기 설정된 프레임 내에 존재하는 제1 이미지의 크기, 시점 및 위치 중 적어도 어느 하나가 변경될 수 있다.When the user-customized three-dimensional object creation apparatus 100 receives the manipulation input for the first image (S1060), it determines at least one of the size, the viewpoint, and the position of the first image existing in the predetermined frame based on the image manipulation input of the user Either one can be changed.

사용자 맞춤형 3차원 객체 생성 장치(100)는 상기 적어도 어느 하나의 변경이 발생할 때마다 실시간으로 제1 객체의 무늬를 변경할 수 있다(S1070).The user-customized three-dimensional object creation apparatus 100 may change the pattern of the first object in real time whenever at least one of the changes occurs (S1070).

사용자 맞춤형 3차원 객체 생성 장치(100)는 무늬가 변경된 제1 객체를 실시간으로 시각적으로 사용자에게 제공할 수 있다(S1080).The user-customized three-dimensional object generating apparatus 100 can visually provide the first object having the changed pattern to the user in real time in operation S1080.

도 11은 상기 사용자 맞춤형 3차원 객체 생성 장치(100)의 도 1 및 2와는 다른 구성도이다.FIG. 11 is a configuration diagram different from FIGS. 1 and 2 of the user-customized three-dimensional object generating apparatus 100. FIG.

사용자 맞춤형 3차원 객체 생성 장치(100)는 도 10에 도시된 구성을 가질 수도 있다.The user-customized three-dimensional object generating apparatus 100 may have the configuration shown in FIG.

사용자 맞춤형 3차원 객체 생성 장치(100)는 명령어를 수행하는 프로세서(1), 메모리(2), 사용자 맞춤형 3차원 객체 생성 프로그램 데이터가 저장되는 스토리지(3), 외부 장치와의 데이터 송수신을 위한 네트워크 인터페이스(4) 및 데이터 버스(5)를 포함할 수 있다.The user-customized three-dimensional object creation apparatus 100 includes a processor 1 for executing an instruction, a memory 2, a storage 3 for storing user-customized three-dimensional object creation program data, a network 3 for transmitting / An interface 4 and a data bus 5. [

데이터 버스(5)는 프로세서(1), 메모리(2), 스토리지(3) 및 네트워크 인터페이스(4)와 연결되어 데이터 이동 통로가 될 수 있다.The data bus 5 may be connected to the processor 1, the memory 2, the storage 3 and the network interface 4 to be a data movement path.

스토리지(3)에는 상기 사용자 맞춤형 3차원 객체 생성 프로그램 데이터가 저장될 수 있다. 상기 사용자 맞춤형 3차원 객체 생성 프로그램은 사용자로부터 3차원의 제1 객체를 선택하는 입력을 수신하는 과정, 상기 제1 객체를 시각적으로 제공하는 과정, 상기 기 설정된 프레임을 시각적으로 제공하는 과정, 상기 사용자로부터 2차원의 제1 이미지를 선택하는 입력을 수신하는 과정, 상기 제1 이미지를 상기 기 설정된 프레임 내에서 시각적으로 제공하는 과정, 상기 사용자의 이미지 조작 입력에 기반하여 상기 기 설정된 프레임 내에 존재하는 상기 제1 이미지의 크기, 시점 및 위치 중 적어도 어느 하나를 변경하는 과정 및 상기 적어도 어느 하나의 변경이 발생할 때마다 실시간으로 상기 제1 객체의 무늬를 변경하는 과정을 포함할 수 있다.The storage 3 may store the user-customized three-dimensional object creation program data. The user-customized three-dimensional object creation program may further include a step of receiving an input for selecting a first object of three dimensions from a user, a step of visually providing the first object, a step of visually providing the predetermined frame, The method comprising the steps of: receiving an input for selecting a first two-dimensional image from the first frame; visually providing the first image within the predetermined frame; Changing at least one of a size, a viewpoint, and a position of the first image; and changing a pattern of the first object in real time whenever the at least one change occurs.

지금까지 도 1 및 2의 각 구성요소는 소프트웨어(software) 또는, FPGA(field-programmable gate array)나 ASIC(application-specific integrated circuit)과 같은 하드웨어(hardware)를 의미할 수 있다. 그렇지만 상기 구성요소들은 소프트웨어 또는 하드웨어에 한정되는 의미는 아니며, 어드레싱(addressing)할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 실행시키도록 구성될 수도 있다. 상기 구성요소들 안에서 제공되는 기능은 더 세분화된 구성요소에 의하여 구현될 수 있으며, 복수의 구성요소들을 합하여 특정한 기능을 수행하는 하나의 구성요소로 구현할 수도 있다.Each of the components of FIGS. 1 and 2 may be referred to as software or hardware such as a field-programmable gate array (FPGA) or an application-specific integrated circuit (ASIC). However, the components are not limited to software or hardware, and may be configured to be in an addressable storage medium and configured to execute one or more processors. The functions provided in the components may be implemented by a more detailed component or may be implemented by a single component that performs a specific function by combining a plurality of components.

이상 첨부된 도면을 참조하여 본 발명의 실시예들을 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다.While the present invention has been described in connection with what is presently considered to be practical exemplary embodiments, it is to be understood that the invention is not limited to the disclosed embodiments, but, on the contrary, You will understand. It is therefore to be understood that the above-described embodiments are illustrative in all aspects and not restrictive.

Claims (10)

사용자로부터 3차원의 제1 객체를 선택하는 입력을 수신하는 단계;
상기 제1 객체를 시각적으로 제공하는 단계;
기 설정된 프레임을 시각적으로 제공하는 단계;
상기 사용자로부터 2차원의 제1 이미지를 선택하는 입력을 수신하는 단계;
상기 제1 이미지를 상기 기 설정된 프레임 내에서 시각적으로 제공하는 단계;
상기 사용자의 이미지 조작 입력에 기반하여 상기 기 설정된 프레임 내에 존재하는 상기 제1 이미지의 크기, 시점 및 위치 중 적어도 어느 하나를 변경하는 단계; 및
상기 적어도 어느 하나의 변경이 발생할 때마다 실시간으로 상기 제1 객체의 무늬를 변경하는 단계를 포함하는, 사용자 맞춤형 3차원 객체 생성 방법.
Receiving an input from a user to select a first object in three dimensions;
Visually providing the first object;
Visually providing a predetermined frame;
Receiving an input from the user to select a two-dimensional first image;
Visually providing the first image within the predetermined frame;
Changing at least one of a size, a viewpoint, and a position of the first image existing in the predetermined frame based on the user's image manipulation input; And
And modifying the pattern of the first object in real time whenever the at least one change occurs.
제1 항에 있어서,
상기 사용자 맞춤형 3차원 객체 생성 방법은,
상기 제1 객체 상에서의 특정 지점은 상기 기 설정된 프레임 내에 존재하는 특정 지점과 대응되며,
상기 무늬를 변경하는 단계는,
상기 적어도 어느 하나의 변경이 발생할 때마다 상기 기 설정된 프레임 내에 존재하는 특정 지점 상에서의 상기 제1 이미지의 픽셀 값을 상기 제1 객체의 특정 지점에 적용하는 단계를 더 포함하는, 사용자 맞춤형 3차원 객체 생성 방법.
The method according to claim 1,
The method of claim 3,
A specific point on the first object corresponds to a specific point existing in the predetermined frame,
The step of modifying the pattern comprises:
Applying a pixel value of the first image on a specific point in the first frame to a specific point in the first object each time the at least one change occurs, Generation method.
제2 항에 있어서,
상기 기 설정된 프레임 내에 존재하는 지점들 중 일부 지점들만이 상기 제1 객체 상에서의 특정 지점들과 대응되며,
상기 기 설정된 프레임 내에 존재하는 지점들 중 상기 제1 객체 상에서의 특정 지점들과 대응되는 지점들 상에서의 상기 제1 이미지의 픽셀 값들만을 상기 제1 객체의 무늬를 변경하는데 이용하는 단계를 더 포함하는, 사용자 맞춤형 3차원 객체 생성 방법.
3. The method of claim 2,
Only some of the points existing within the predetermined frame correspond to specific points on the first object,
And using only the pixel values of the first image on the points corresponding to the specific points on the first object among the points existing in the predetermined frame to change the pattern of the first object , A method of creating a customized three-dimensional object.
제1 항에 있어서,
상기 제1 객체는 상기 3차원의 가상 공간에 배치되고,
상기 3차원의 가상 공간은 사용자 별로 제공되는 가상 공간인, 사용자 맞춤형 3차원 객체 생성 방법.
The method according to claim 1,
Wherein the first object is arranged in the three-dimensional virtual space,
Wherein the three-dimensional virtual space is a virtual space provided for each user.
제1 항에 있어서,
상기 제1 이미지 중 적어도 일부 영역은 특정 정보에 연결 가능한 링크를 포함하며,
상기 변경된 제1 객체의 무늬 중 일부는 상기 링크를 포함하는, 사용자 맞춤형 3차원 객체 생성 방법.
The method according to claim 1,
Wherein at least some of the first images include links linkable to specific information,
Wherein a portion of the pattern of the modified first object includes the link.
제1 항에 있어서,
상기 기 설정된 프레임 내에서 시각적으로 제공하는 단계는,
상기 제1 이미지의 크기를 상기 기 설정된 프레임의 크기와 동일하게 하여 상기 기 설정된 프레임에 상기 제1 이미지가 매칭되도록 시각적으로 제공하는 단계를 더 포함하는, 사용자 맞춤형 3차원 객체 생성 방법.
The method according to claim 1,
Wherein visually providing within said predetermined frame comprises:
Visually providing the first image to match the predetermined frame by making the size of the first image equal to the size of the predetermined frame.
제1 항에 있어서,
상기 제1 이미지는,
상기 사용자의 단말에 저장된 이미지 중 어느 하나인, 사용자 맞춤형 3차원 객체 생성 방법.
The method according to claim 1,
Wherein the first image comprises:
Wherein the image is one of images stored in the terminal of the user.
사용자로부터 3차원의 제1 객체를 선택하는 입력을 수신하는 객체 선택 수신부;
상기 제1 객체를 시각적으로 제공하는 객체 제공부;
기 설정된 프레임을 시각적으로 제공하는 프레임 제공부;
상기 사용자로부터 2차원의 제1 이미지를 선택하는 입력을 수신하는 이미지 선택 수신부;
상기 제1 이미지를 상기 기 설정된 프레임 내에서 시각적으로 제공하는 이미지 제공부;
상기 사용자의 이미지 조작 입력에 기반하여 상기 기 설정된 프레임 내에 존재하는 이미지의 크기, 시점 및 위치 중 적어도 어느 하나를 변경하는 편집 수신부; 및
상기 적어도 어느 하나의 변경이 발생할 때마다 실시간으로 상기 제1 객체의 무늬를 변경하는 객체 변경부를 포함하는, 사용자 맞춤형 3차원 객체 생성 장치.
An object selection receiving unit for receiving an input for selecting a first object in three dimensions from a user;
An object providing unit for visually providing the first object;
Frame providing means for visually providing a predetermined frame;
An image selection receiving unit receiving an input for selecting a first image of two dimensions from the user;
An image providing unit for visually providing the first image within the predetermined frame;
An edit receiving unit for changing at least one of a size, a viewpoint, and a position of an image existing in the predetermined frame based on the user's image manipulation input; And
And an object changing unit for changing a pattern of the first object in real time whenever at least one of the changes occurs.
제8 항에 있어서,
상기 사용자 맞춤형 3차원 객체 생성 장치는,
상기 기 설정된 프레임 내에 존재하는 각각의 지점에 대하여 상기 제1 객체와 대응되는 지점을 설정하는 대응 지점 설정부를 더 포함하며,
상기 객체 변경부는,
상기 적어도 어느 하나의 변경이 발생할 때마다 상기 기 설정된 프레임 내에 존재하는 각각의 지점 상에 존재하는 상기 제1 이미지의 픽셀 값을 상기 제1 객체에서 대응되는 지점에 적용하는, 사용자 맞춤형 3차원 객체 생성 장치.
9. The method of claim 8,
Wherein the user-customized three-
And a corresponding point setting unit for setting a point corresponding to the first object with respect to each point existing within the predetermined frame,
Wherein the object changing unit comprises:
Generating a user-customized three-dimensional object, wherein each time the at least one change occurs, applying a pixel value of the first image on each point existing in the predetermined frame to a corresponding point in the first object, Device.
삭제delete
KR20140154664A 2014-11-07 2014-11-07 Apparatus and Method for Generating User Customized 3D Object KR101503803B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR20140154664A KR101503803B1 (en) 2014-11-07 2014-11-07 Apparatus and Method for Generating User Customized 3D Object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR20140154664A KR101503803B1 (en) 2014-11-07 2014-11-07 Apparatus and Method for Generating User Customized 3D Object

Publications (1)

Publication Number Publication Date
KR101503803B1 true KR101503803B1 (en) 2015-03-18

Family

ID=53027943

Family Applications (1)

Application Number Title Priority Date Filing Date
KR20140154664A KR101503803B1 (en) 2014-11-07 2014-11-07 Apparatus and Method for Generating User Customized 3D Object

Country Status (1)

Country Link
KR (1) KR101503803B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102360747B1 (en) * 2021-11-12 2022-02-08 가천대학교 산학협력단 Living assistance system and implementation method for the visually impaired and low vision
KR102360172B1 (en) * 2021-06-25 2022-02-08 배원석 Method and apparatus for controlling interaction between user and 3d object

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010018635A (en) * 1999-08-20 2001-03-15 이종욱 Authoring Tool For Making Virtual Reality On Internet
JP2001209826A (en) 2000-01-24 2001-08-03 Mixed Reality Systems Laboratory Inc Method and device for editing virtual space, computer program storage medium and virtual reality presenting device
JP2002342781A (en) 2001-05-11 2002-11-29 Dainippon Printing Co Ltd Pattern switching simulation system
KR100403943B1 (en) 2000-05-24 2003-11-01 전연택 System for reconstructing and editing image of object in screen of three dimensions imagination space

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010018635A (en) * 1999-08-20 2001-03-15 이종욱 Authoring Tool For Making Virtual Reality On Internet
JP2001209826A (en) 2000-01-24 2001-08-03 Mixed Reality Systems Laboratory Inc Method and device for editing virtual space, computer program storage medium and virtual reality presenting device
KR100403943B1 (en) 2000-05-24 2003-11-01 전연택 System for reconstructing and editing image of object in screen of three dimensions imagination space
JP2002342781A (en) 2001-05-11 2002-11-29 Dainippon Printing Co Ltd Pattern switching simulation system

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102360172B1 (en) * 2021-06-25 2022-02-08 배원석 Method and apparatus for controlling interaction between user and 3d object
KR102360747B1 (en) * 2021-11-12 2022-02-08 가천대학교 산학협력단 Living assistance system and implementation method for the visually impaired and low vision

Similar Documents

Publication Publication Date Title
US11049322B2 (en) Transferring graphic objects between non-augmented reality and augmented reality media domains
WO2018188499A1 (en) Image processing method and device, video processing method and device, virtual reality device and storage medium
EP2421274A2 (en) Mobile terminal and method for converting display mode thereof, having mixed 2D and 3D display capability
US9910584B2 (en) Method for manipulating folders and apparatus thereof
EP2680117A2 (en) Method and apparatus for displaying content
KR20110038980A (en) Mobile terminal and method for controlling thereof
TW201508695A (en) Image processing method and device
KR20140120196A (en) Method and apparatus for transmitting message in an electronic device
JP2022521720A (en) Mini-program creation method, device, terminal and program
CN104020935A (en) Method and device used for controlling display object on display screen
CN108885793A (en) Ink in electronic document
CN107861711B (en) Page adaptation method and device
CN109769089A (en) A kind of image processing method and terminal device
KR101503803B1 (en) Apparatus and Method for Generating User Customized 3D Object
KR20140107909A (en) Method for controlling a virtual keypad and an electronic device thereof
CN104636035A (en) Information processing apparatus, information processing method, computer program, and recording medium
CN109598672B (en) Map road rendering method and device
CN116681784A (en) Image generation method and device
EP4030373A1 (en) Object comparison method, and device
CN117078888A (en) Virtual character clothing generation method and device, medium and electronic equipment
CN114995706A (en) Element display method, device, equipment and storage medium
JP2016018363A (en) Game program for display-controlling object arranged on virtual space plane
CN110941389A (en) Method and device for triggering AR information points by focus
JP2016016319A (en) Game program for display-controlling objects arranged on virtual spatial plane
KR101849384B1 (en) 3D image display system

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
LAPS Lapse due to unpaid annual fee