KR20200055209A - System, apparatus and method for producing experience based content - Google Patents

System, apparatus and method for producing experience based content Download PDF

Info

Publication number
KR20200055209A
KR20200055209A KR1020180138322A KR20180138322A KR20200055209A KR 20200055209 A KR20200055209 A KR 20200055209A KR 1020180138322 A KR1020180138322 A KR 1020180138322A KR 20180138322 A KR20180138322 A KR 20180138322A KR 20200055209 A KR20200055209 A KR 20200055209A
Authority
KR
South Korea
Prior art keywords
image
theme
identification information
terminal
object image
Prior art date
Application number
KR1020180138322A
Other languages
Korean (ko)
Other versions
KR102144556B1 (en
Inventor
김진우
Original Assignee
주식회사 로뎀마이크로시스템
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 로뎀마이크로시스템 filed Critical 주식회사 로뎀마이크로시스템
Priority to KR1020180138322A priority Critical patent/KR102144556B1/en
Publication of KR20200055209A publication Critical patent/KR20200055209A/en
Application granted granted Critical
Publication of KR102144556B1 publication Critical patent/KR102144556B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/001
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/74Circuits for processing colour signals for obtaining special effects
    • H04N9/75Chroma key
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)

Abstract

Provided are a method, a device and a system for creating experiential content. According to an embodiment of the present invention, the device for creating experiential content can comprise: a memory for storing one or more theme images; and a control part that acquires theme identification information from a first terminal, extracts and corrects an object image corresponding to a subject from an acquired image acquired from a second terminal, and synthesizes the corrected object image with a theme image corresponding to the theme identification information.

Description

체험형 콘텐츠 생성 방법, 장치 및 시스템{SYSTEM, APPARATUS AND METHOD FOR PRODUCING EXPERIENCE BASED CONTENT}Method, device and system for creating experiential content {SYSTEM, APPARATUS AND METHOD FOR PRODUCING EXPERIENCE BASED CONTENT}

본 명세서에서 개시되는 실시예들은 체험형 콘텐츠 생성 방법, 장치 및 시스템에 관한 것으로, 보다 상세하게는 사용자는 자신이 촬영되는 모습을 확인하면서 실시간으로 다른 이미지와 합성된 콘텐츠를 제공받을 수 있는 체험형 콘텐츠 생성 방법, 장치 및 시스템에 관한 것이다.Embodiments disclosed in this specification relate to a method, apparatus, and system for creating an experiential content, and more specifically, an experiential type in which a user can be provided with content synthesized with other images in real time while confirming a state in which he or she is photographed. It relates to a content generation method, apparatus and system.

최근 들어 휴대성과 이동성이 보장되는 휴대용 단말기, 특히 스마트폰이 널리 보급됨에 따라 스마트폰을 활용한 다양한 애플리케이션이 제작되고 있다.2. Description of the Related Art Recently, as portable terminals, especially smartphones, which are guaranteed to have portability and mobility, are widely used, various applications using smartphones have been produced.

애플리케이션의 일 예로, 사용자의 모습을 다른 이미지와 합성하여 표시해주는 애플리케이션이 있으며 사용자는 자신의 모습을 스마트폰에 내장된 카메라를 통해 촬영하고 촬영된 모습을 다른 이미지와 합성해볼 수 있다. 이러한 애플리케이션들은 합성 이미지를 표시해주나, 합성 이미지를 스마트폰을 통해서만 제한적으로 확인할 수밖에 없으며, 촬영의 품질이 좋지 않아 합성된 이미지를 출력하면 화질이 떨어지고 합성의 정교함도 떨어지는 문제점이 있다. As an example of an application, there is an application that synthesizes and displays the user's appearance with another image, and the user can take a picture of himself through the camera built into the smartphone and synthesize the captured picture with another image. These applications display a composite image, but the composite image is limited only through a smartphone, and the quality of the shooting is poor, so when the composite image is output, the image quality deteriorates and the synthesis sophistication also falls.

이에 정교한 이미지를 얻고자 하는 사용자는 스마트폰이 아닌 스튜디오에서 전문사진사를 통해 자신의 모습을 촬영하나, 전문사진사를 통해 촬영하는 비용이 비쌀 뿐만 아니라 촬영 장소도 제약이 많다는 문제점이 있다. Therefore, users who want to obtain a sophisticated image take a picture of themselves through a professional photographer in a studio other than a smartphone, but there is a problem in that the cost of shooting through a professional photographer is not only expensive, but also the limitation of the shooting location.

관련하여 선행기술 문헌인 한국특허공개번호 제 10-2000-0030756 호에서는 2차원의 의류상품의 이미지를 합성하고 소비자의 체형 및 얼굴과 동일한 마네킹을 합성하여 코디서비스를 제공하는 내용에 대해 기재하고 있을 뿐이어서 이미지 합성에 대해 제안할 뿐 상술된 문제점을 해결하고 있지 못하다. In relation to this, Korean Patent Publication No. 10-2000-0030756, which is a prior art document, describes the contents of providing a coordination service by synthesizing an image of a two-dimensional clothing product and synthesizing the same mannequin as the body shape and face of a consumer. It is only a proposal for image synthesis, but it does not solve the above-mentioned problems.

따라서 상술된 문제점을 해결하기 위한 기술이 필요하게 되었다.Therefore, a technique for solving the above-described problem is needed.

한편, 전술한 배경기술은 발명자가 본 발명의 도출을 위해 보유하고 있었거나, 본 발명의 도출 과정에서 습득한 기술 정보로서, 반드시 본 발명의 출원 전에 일반 공중에게 공개된 공지기술이라 할 수는 없다.On the other hand, the above-mentioned background technology is the technical information acquired by the inventor for the derivation of the present invention or acquired in the derivation process of the present invention, and is not necessarily a known technology disclosed to the general public before filing the present invention. .

본 명세서에서 개시되는 실시예들은, 체험형 콘텐츠 생성 방법, 장치 및 시스템을 제시하는 데 목적이 있다. The embodiments disclosed herein are intended to present a method, apparatus, and system for creating experiential content.

본 명세서에서 개시되는 실시예들은, 실시간으로 테마와 합성된 사용자의 이미지를 확인하면서 콘텐츠를 생성할 수 있는 체험형 콘텐츠 생성 방법, 장치 및 시스템을 제시하는 데 목적이 있다.The embodiments disclosed herein have an object to provide a method, apparatus, and system for creating an experiential content capable of generating content while checking a theme and a synthesized user's image in real time.

본 명세서에서 개시되는 실시예들은, 저렴한 비용으로 고품질의 콘텐츠를 획득하는 체험형 콘텐츠 생성 방법, 장치 및 시스템을 제시하는데 목적이 있다.The embodiments disclosed herein have an object to present a method, apparatus, and system for creating experiential content that acquires high-quality content at a low cost.

본 명세서에서 개시되는 실시예들은, 누구나 손쉽게 테마이미지에 자신의 모습을 합성한 콘텐츠를 생성할 수 있도록 하는 체험형 콘텐츠 생성 방법, 장치 및 시스템을 제시하는데 목적이 있다.The embodiments disclosed in the present specification have an object to present a method, apparatus, and system for creating an experiential content that allows anyone to easily create content that synthesizes their appearance on a theme image.

본 명세서에서 개시되는 실시예들은, 촬영 피사체인 사용자의 의도에 맞는 콘텐츠를 제공할 수 있도록 하는 체험형 콘텐츠 생성 방법, 장치 및 시스템을 제시하는데 목적이 있다.The embodiments disclosed herein have an object to present a method, apparatus, and system for creating an experiential content that can provide content suited to a user's intention as a photographing subject.

상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 일 실시예에 따르면, 체험형 콘텐츠 생성 장치는, 테마이미지를 하나 이상 저장하는 메모리, 및 제1단말로부터 테마식별정보를 획득하며 제2단말로부터 획득된 획득이미지로부터 피사체에 대응되는 객체이미지를 추출하여 보정하고 보정된 객체이미지를 상기 테마식별정보에 대응되는 테마이미지와 합성하는 제어부를 포함할 수 있다.As a technical means for achieving the above-described technical problem, according to an embodiment, the experience-type content generating apparatus acquires theme identification information from a memory storing one or more theme images, and a first terminal, and obtained from a second terminal It may include a control unit for extracting and correcting the object image corresponding to the subject from the obtained acquired image and synthesizing the corrected object image with the theme image corresponding to the theme identification information.

다른 실시예에 따르면, 체험형 콘텐츠 생성 방법은 제1단말로부터 테마식별정보를 획득하는 단계, 제2단말로부터 획득된 획득이미지로부터 피사체에 대응되는 객체이미지를 추출하는 단계, 상기 객체이미지를 보정하는 단계, 및 보정된 객체이미지를 상기 테마식별정보에 대응되는 테마이미지와 합성하는 단계를 포함할 수 있다.According to another embodiment, the method for generating experience-based content includes obtaining theme identification information from a first terminal, extracting an object image corresponding to a subject from an acquired image obtained from a second terminal, and correcting the object image And synthesizing the corrected object image with a theme image corresponding to the theme identification information.

또 다른 실시예에 따르면, 체험형 콘텐츠 생성 시스템은 디스플레이 장치와 통신하며 상기 디스플레이 장치로 하여금 피사체를 표시하도록 하는 제1단말, 상기 피사체를 촬영하여 획득이미지를 생성하는 제2단말, 및 상기 제1단말로부터 테마식별정보를 획득하며 상기 획득이미지부터 피사체에 대응되는 객체이미지를 추출하여 보정하고 보정된 객체이미지를 상기 테마식별정보에 대응되는 테마이미지와 합성하는 체험형 콘텐츠 생성 장치를 포함할 수 있다.According to another embodiment, the experiential content generation system communicates with a display device and a first terminal for causing the display device to display a subject, a second terminal for capturing the subject and generating an acquired image, and the first It may include an experience-type content generating device that acquires theme identification information from a terminal, extracts an object image corresponding to a subject from the acquired image, and corrects the corrected object image with the theme image corresponding to the theme identification information. .

또 다른 실시예에 따르면, 체험형 콘텐츠 생성 방법을 수행하는 프로그램이 기록된 컴퓨터 판독 가능한 기록 매체로서, 상기 체험형 콘텐츠 생성 방법은 제1단말로부터 테마식별정보를 획득하는 단계, 제2단말로부터 획득된 획득이미지로부터 피사체에 대응되는 객체이미지를 추출하는 단계, 상기 객체이미지를 보정하는 단계, 및 보정된 객체이미지를 상기 테마식별정보에 대응되는 테마이미지와 합성하는 단계를 포함할 수 있다.According to another embodiment, as a computer-readable recording medium on which a program for performing a method for generating experience-type content is recorded, the method for generating experience-type content comprises obtaining theme identification information from a first terminal and obtaining it from a second terminal The method may include extracting an object image corresponding to the subject from the acquired image, correcting the object image, and synthesizing the corrected object image with the theme image corresponding to the theme identification information.

또 다른 실시예에 따르면, 체험형 콘텐츠 생성 장치에 의해 수행되며, 체험형 콘텐츠 생성 방법을 수행하기 위해 매체에 저장된 컴퓨터 프로그램으로서, 상기 체험형 콘텐츠 생성 방법은 제1단말로부터 테마식별정보를 획득하는 단계, 제2단말로부터 획득된 획득이미지로부터 피사체에 대응되는 객체이미지를 추출하는 단계, 상기 객체이미지를 보정하는 단계, 및 보정된 객체이미지를 상기 테마식별정보에 대응되는 테마이미지와 합성하는 단계를 포함할 수 있다.According to another embodiment, the computer program is performed by the experience-type content generation device and stored in a medium to perform the experience-type content generation method, wherein the experience-type content generation method acquires theme identification information from a first terminal. Step, extracting an object image corresponding to the subject from the acquired image obtained from the second terminal, correcting the object image, and synthesizing the corrected object image with the theme image corresponding to the theme identification information It can contain.

전술한 과제 해결 수단 중 어느 하나에 의하면, 체험형 콘텐츠 생성 방법, 장치 및 시스템을 제시할 수 있다.According to any one of the above-described problem solving means, it is possible to present a method, apparatus, and system for creating experience-type content.

전술한 과제 해결 수단 중 어느 하나에 의하면, 실시간으로 테마와 합성된 사용자의 이미지를 확인하면서 콘텐츠를 생성할 수 있는 체험형 콘텐츠 생성 방법, 장치 및 시스템을 제시할 수 있다.According to any one of the above-described problem solving means, it is possible to present a method, apparatus, and system for creating an experiential content capable of generating content while checking a theme and a synthesized user's image in real time.

전술한 과제 해결 수단 중 어느 하나에 의하면, 저렴한 비용으로 고품질의 콘텐츠를 획득하는 체험형 콘텐츠 생성 방법, 장치 및 시스템을 제시할 수 있다.According to any one of the above-described problem solving means, it is possible to present a method, apparatus, and system for creating an experiential content that acquires high-quality content at a low cost.

전술한 과제 해결 수단 중 어느 하나에 의하면, 누구나 손쉽게 테마이미지에 자신의 모습을 합성한 콘텐츠를 생성할 수 있도록 하는 체험형 콘텐츠 생성 방법, 장치 및 시스템을 제시할 수 있다.According to any one of the above-described problem solving means, it is possible to present a method, apparatus, and system for creating an experiential content that allows anyone to easily create content that synthesizes their appearance on a theme image.

전술한 과제 해결 수단 중 어느 하나에 의하면, 촬영 피사체인 사용자의 의도에 맞는 콘텐츠를 제공할 수 있도록 하는 체험형 콘텐츠 생성 방법, 장치 및 시스템을 제시할 수 있다.According to any one of the above-described problem solving means, it is possible to present a method, apparatus, and system for creating an experiential content that can provide content suitable for a user's intention as a photographing subject.

개시되는 실시예들에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 개시되는 실시예들이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The effects obtained in the disclosed embodiments are not limited to the above-mentioned effects, and other effects not mentioned are obvious to those skilled in the art to which the embodiments disclosed from the following description belong. Can be understood.

도 1은 일 실시예에 따른 체험형 콘텐츠 생성 장치를 도시한 블록도이다.
도 2 내지 도 5는 일 실시예에 따른 체험형 콘텐츠 생성 장치를 설명하기 위한 예시도이다.
도 6 내지 도 8은 일 실시예에 따른 체험형 콘텐츠 생성 시스템을 설명하기 위한 구성도이다.
도 9는 일 실시예에 따른 체험형 콘텐츠 생성 방법을 설명하기 위한 순서도이다.
1 is a block diagram illustrating an apparatus for generating experience-type content according to an embodiment.
2 to 5 are exemplary views for explaining an experience-type content generating apparatus according to an embodiment.
6 to 8 are configuration diagrams for explaining an experiential content creation system according to an embodiment.
9 is a flowchart for explaining a method for generating experience-type content according to an embodiment.

아래에서는 첨부한 도면을 참조하여 다양한 실시예들을 상세히 설명한다. 아래에서 설명되는 실시예들은 여러 가지 상이한 형태로 변형되어 실시될 수도 있다. 실시예들의 특징을 보다 명확히 설명하기 위하여, 이하의 실시예들이 속하는 기술분야에서 통상의 지식을 가진 자에게 널리 알려져 있는 사항들에 관해서 자세한 설명은 생략하였다. 그리고, 도면에서 실시예들의 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, various embodiments will be described in detail with reference to the accompanying drawings. The embodiments described below may be embodied in various different forms. In order to more clearly describe the features of the embodiments, detailed descriptions of the items well known to those of ordinary skill in the art to which the following embodiments pertain are omitted. In the drawings, parts irrelevant to the description of the embodiments are omitted, and like reference numerals are assigned to similar parts throughout the specification.

명세서 전체에서, 어떤 구성이 다른 구성과 "연결"되어 있다고 할 때, 이는 ‘직접적으로 연결’되어 있는 경우뿐 아니라, ‘그 중간에 다른 구성을 사이에 두고 연결’되어 있는 경우도 포함한다. 또한, 어떤 구성이 어떤 구성을 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한, 그 외 다른 구성을 제외하는 것이 아니라 다른 구성들을 더 포함할 수도 있음을 의미한다.Throughout the specification, when a component is "connected" to another component, this includes not only "directly connected" but also "connected with other components in between". In addition, when a configuration is said to "include" a configuration, this means that, unless specifically stated otherwise, it may mean that other configurations may be included as well.

이하 첨부된 도면을 참고하여 실시예들을 상세히 설명하기로 한다.Hereinafter, exemplary embodiments will be described in detail with reference to the accompanying drawings.

도 1은 일 실시예에 따른 체험형 콘텐츠 생성 장치를 설명하기 위한 블록도이다.1 is a block diagram illustrating an apparatus for generating experience-type content according to an embodiment.

도 1을 참조하면, 일 실시예에 따른 체험형 콘텐츠 생성 장치(100)은, 입출력부(110), 제어부(120), 통신부(130) 및 메모리(140)를 포함할 수 있다.Referring to FIG. 1, the experience-type content generating apparatus 100 according to an embodiment may include an input / output unit 110, a control unit 120, a communication unit 130, and a memory 140.

입출력부(110)는 사용자로부터 입력을 수신하기 위한 입력부와, 작업의 수행 결과 또는 체험형 콘텐츠 생성 장치(100)의 상태 등의 정보를 표시하기 위한 출력부를 포함할 수 있다. 예를 들어, 입출력부(110)는 사용자 입력을 수신하는 조작 패널(operation panel) 및 화면을 표시하는 디스플레이 패널(display panel) 등을 포함할 수 있다.The input / output unit 110 may include an input unit for receiving input from a user, and an output unit for displaying information such as a result of performing a job or a state of the experience-type content generating device 100. For example, the input / output unit 110 may include an operation panel for receiving user input, a display panel for displaying the screen, and the like.

구체적으로, 입력부는 키보드, 물리 버튼, 터치 스크린, 카메라 또는 마이크 등과 같이 다양한 형태의 사용자 입력을 수신할 수 있는 장치들을 포함할 수 있다. 또한, 출력부는 디스플레이 패널 또는 스피커 등을 포함할 수 있다. 다만, 이에 한정되지 않고 입출력부(110)는 다양한 입출력을 지원하는 구성을 포함할 수 있다.Specifically, the input unit may include devices capable of receiving various types of user input, such as a keyboard, a physical button, a touch screen, a camera, or a microphone. Also, the output unit may include a display panel or a speaker. However, the present invention is not limited thereto, and the input / output unit 110 may include a configuration supporting various input / output.

입출력부(110)를 통해 사용자는, 예를 들어, 체험형 콘텐츠의 프린트 출력을 요청하거나 체험형 콘텐츠의 생성 진행 정도를 확인할 수 있다, 또한 필요하다면 사용자가 입출력부(110)를 통해 객체이미지를 직접 보정하여 정교함을 향상시킬 수 있다.Through the input / output unit 110, the user can request, for example, print output of the experience-type content or check the progress of creation of the experience-type content, and, if necessary, the user may input the object image through the input / output unit 110. You can directly improve the sophistication.

한편 제어부(120)는 체험형 콘텐츠 생성 장치(100)의 전체적인 동작을 제어하며, CPU 등과 같은 프로세서를 포함할 수 있다. 제어부(120)는 입출력부(110)를 통해 수신한 사용자 입력에 대응되는 동작을 수행하도록 체험형 콘텐츠 생성 장치(100)에 포함된 다른 구성들을 제어할 수 있다.On the other hand, the control unit 120 controls the overall operation of the experience-type content generating apparatus 100, and may include a processor such as a CPU. The control unit 120 may control other components included in the experience-type content generating apparatus 100 to perform an operation corresponding to a user input received through the input / output unit 110.

예를 들어, 제어부(120)는 메모리(140)에 저장된 프로그램을 실행시키거나, 메모리(140)에 저장된 파일을 읽어오거나, 새로운 파일을 메모리(140)에 저장할 수도 있다.For example, the controller 120 may execute a program stored in the memory 140, read a file stored in the memory 140, or store a new file in the memory 140.

제어부(120)는 제1단말로부터 테마식별정보를 획득할 수 있다. 이때 테마식별정보는 제1단말에 의해 생성된 제1이미지에 포함될 수도 있으며 제어부(120)는 제1이미지를 획득함으로써 테마식별정보를 획득할 수도 있다. 물론 제어부(120)는 테마식별정보 만을 획득할 수도 있다.The controller 120 may obtain theme identification information from the first terminal. At this time, the theme identification information may be included in the first image generated by the first terminal, and the controller 120 may obtain the theme identification information by acquiring the first image. Of course, the controller 120 may acquire only the theme identification information.

이때 ‘제1단말’은 휴대성과 이동성이 보장되는 무선 통신 장치로서, 예를 들어, PCS(Personal Communication System), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), GSM(Global System for Mobile communications), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), Wibro(Wireless Broadband Internet), 스마트폰(Smart Phone), 모바일 WiMAX(Mobile Worldwide Interoperability for Microwave Access) 등과 같은 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치를 포함할 수 있다.At this time, the 'first terminal' is a wireless communication device that guarantees portability and mobility, for example, Personal Communication System (PCS), Personal Digital Cellular (PDC), Personal Handyphone System (PHS), Personal Digital Assistant (PDA), Global System for Mobile communications (GSM), International Mobile Telecommunication (IMT) -2000, Code Division Multiple Access (CDMA) -2000, W-Code Division Multiple Access (W-CDMA), Wireless Broadband Internet (Wibro), Smartphone ( It may include all kinds of handheld-based wireless communication devices such as a smart phone (Mobile Phone), mobile WiMAX (Mobile Worldwide Interoperability for Microwave Access), and the like.

제1단말은 합성용 스크린 전면에 위치하고 있는 피사체(사용자 또는 물건 등)를 촬영하여 제1이미지를 생성할 수 있다. 이때 제1단말은 체험형 콘텐츠 생성 장치(100)와 통신하는 클라이언트가 설치되어 있어 피사체를 촬영하여 테마이미지를 합성하여 제1이미지를 생성할 수 있다.The first terminal may generate a first image by photographing a subject (user or object, etc.) located in front of the synthesis screen. At this time, the first terminal is installed with a client that communicates with the experiential content generating device 100, so that a subject can be photographed to synthesize a theme image to generate a first image.

제1단말은 별도의 디스플레이 장치와 통신하며, 상기 디스플레이 장치는 제1이미지를 표시할 수 있다. 이를 위해 디스플레이 장치는 제1이미지를 제1단말로부터 수신하여 표시하거나 제1단말로부터 수신된 제1이미지를 가공하여 표시할 수 있다. 사용자는 디스플레이 장치를 통해 자신의 모습이 테마이미지와 합성되는 모습을 실시간으로 확인할 수 있으며 자신이 어떠한 테마이미지를 원하는지 확인할 수 있다. 사용자는 제1단말을 통해 복수 개의 테마이미지 중 하나를 선택하여 자신의 모습이 테마이미지와 합성된 모습을 디스플레이 장치를 통해 확인하고, 자신이 원하는 테마이미지가 있다면 사용자는 제1단말을 통해 테마이미지가 선택될 때 제2단말을 통해 자신의 모습을 촬영할 수 있다. The first terminal communicates with a separate display device, and the display device can display a first image. To this end, the display device may receive and display the first image from the first terminal or process and display the first image received from the first terminal. Through the display device, the user can check in real time how his image is synthesized with the theme image, and can see what theme image he wants. The user selects one of a plurality of theme images through the first terminal and checks his or her appearance through the display device, and if there is a desired theme image, the user selects one of the theme images through the first terminal. When is selected, you can take a picture of yourself through the second terminal.

관련하여 도 2는 본 명세서에 기재된 체험형 콘텐츠 생성 장치(100)를 설명하기 위한 예시도이다. 도 2의 좌측에 도시된 바와 같이 합성용 스크린(210) 앞에 사용자(200)가 위치하면, 제1단말(10)은 사용자를 촬영할 수 있다. 제1단말(10)은 촬영한 이미지를 테마이미지와 합성하여 합성이미지를 디스플레이 장치(30)를 통해 미러링하여 표시할 수 있으며, 또는 제1단말(10)이 촬영한 이미지를 디스플레이 장치(30)가 합성하여 표시할 수 있다.2 is an exemplary view for explaining the experience-type content generating apparatus 100 described in the present specification. As shown on the left side of FIG. 2, when the user 200 is positioned in front of the screen 210 for synthesis, the first terminal 10 may photograph the user. The first terminal 10 may synthesize the captured image with the theme image and mirror the composite image through the display device 30, or display the image captured by the first terminal 10. Can be synthesized and displayed.

한편 ‘테마식별정보’는 제2단말에 의해 촬영된 이미지와 합성될 테마이미지를 특정하기 위한 정보로서, 제1단말에서 소정의 테마이미지가 선택되었을 때의 시간정보 및 위치정보 중 적어도 하나를 포함할 수 있다. 예를 들어 제1단말에서 소정의 테마이미지가 선택되었을 때 제1단말의 gps 정보를 이용하여 결정된 위치정보를 테마식별정보로 포함하거나, 상기 테마이미지가 선택된 동안의 날짜와 시간에 관한 시간정보를 테마식별정보로 포함할 수 있다. Meanwhile, 'theme identification information' is information for specifying a theme image to be synthesized with an image photographed by the second terminal, and includes at least one of time information and location information when a predetermined theme image is selected in the first terminal. can do. For example, when a predetermined theme image is selected from the first terminal, the location information determined using the gps information of the first terminal is included as the theme identification information, or time information regarding the date and time while the theme image is selected. It can be included as theme identification information.

또한 ‘테마식별정보’는 제1단말에 대응되는 제2단말의 식별정보를 더 포함할 수 있다. 관련하여 테마식별정보에 제2단말의 식별정보가 포함되어 있지 않다면 메모리(140)에 제1단말에 대응되는 제2단말의 식별정보가 저장되어 있을 수 있다.In addition, the 'theme identification information' may further include identification information of the second terminal corresponding to the first terminal. In relation to this, if the identification information of the second terminal is not included in the theme identification information, the identification information of the second terminal corresponding to the first terminal may be stored in the memory 140.

이때 ‘제2단말’은 제1단말과 함께 동일한 피사체를 촬영할 수 있는 촬영장치를 의미하며, 보다 구체적으로 카메라가 될 수 있다. 제2단말은 예를 들어, 디지털 카메라, DSLR(digital single lens reflex) 카메라, 미러리스 카메라 등으로 구현될 수 있다. 따라서 제2단말에 의해 촬영된 제2이미지는 피사체의 모습이 포함되어 있다. 경우에 따라 제2단말은 제1단말과 근접하여 위치함으로써 제1단말이 피사체를 촬영하는 구도와 동일하거나 유사한 구도로 피사체를 촬영할 수 있다.At this time, 'the second terminal' means a photographing device capable of photographing the same subject together with the first terminal, and may be a camera in more detail. The second terminal may be implemented as, for example, a digital camera, a digital single lens reflex (DSLR) camera, a mirrorless camera, or the like. Therefore, the second image photographed by the second terminal includes the shape of the subject. In some cases, the second terminal is positioned close to the first terminal, so that the first terminal can photograph the subject in the same or similar composition as the composition in which the first terminal photographs the subject.

이러한 제2단말의 식별정보를 제1단말은 획득할 수 있는데, 예를 들어, 제2단말에 부착된 코드(바코드 또는 QR코드 등)를 촬영함으로써 제2단말의 식별정보를 획득하거나, RFID 또는 NFC 등을 이용하여 제2단말의 식별정보를 획득하거나, 제2단말에 대응되는 정보를 제1단말로 사용자가 입력함으로써 제2단말의 식별정보를 획득할 수 있다.The first terminal may acquire the identification information of the second terminal, for example, by acquiring the identification information of the second terminal by photographing a code (bar code or QR code, etc.) attached to the second terminal, RFID or The identification information of the second terminal may be obtained using NFC, or the user may input identification information of the second terminal by inputting information corresponding to the second terminal to the first terminal.

또한 ‘테마식별정보’는 테마이미지에 관한 정보가 포함될 수 있다. 예를 들어 제1단말에서 소정의 테마이미지가 선택되었을 때 선택된 테마이미지에 관한 정보와 함께 시간정보가 테마식별정보에 포함될 수 있다.In addition, 'theme identification information' may include information about the theme image. For example, when a predetermined theme image is selected in the first terminal, time information may be included in the theme identification information along with information on the selected theme image.

그에 따라 제어부(120)는 소정의 날짜의 소정 시간에 어떤 테마이미지가 이용되었는지를 알 수 있다. 예를 들어, 10월 10일 오후 1시부터 6시까지 제2단말을 통해 촬영이 진행되었다면 총 6시간에 해당되는 시간 로그에서 각 시간마다 어떤 테마로 촬영되었는지를 제1단말로부터 획득된 테마식별정보를 이용하여 확인할 수 있다. 즉, 테마식별정보로부터 10월 10일 오후 1시부터 1시 10분까지 테마이미지 K가 이용되었다면, 오후 1시부터 1시 10분 동안 제2단말을 통해 촬영된 이미지는 테마이미지 K에 매칭되어야 함을 알 수 있다.Accordingly, the control unit 120 may know which theme image was used at a predetermined time on a predetermined date. For example, if shooting was performed through the second terminal from 1 PM to 6 PM on October 10, the theme identification obtained from the first terminal determines what theme was taken at each time in the time log corresponding to a total of 6 hours. You can check it using information. That is, if the theme image K was used from 1 PM to 10:10 PM on October 10 from the theme identification information, the image taken through the second terminal from 1 PM to 1:10 PM should match the theme image K Can be seen.

한편 제어부(120)는 제2단말로부터 제2이미지를 획득할 수 있다.Meanwhile, the controller 120 may obtain a second image from the second terminal.

제2이미지에는 제2이미지의 생성 시의 날짜와 시간에 관한 정보를 포함하는 시간정보가 삽입될 수 있으며, 또는 제2이미지를 생성하는 제2단말의 위치정보가 삽입될 수 있고, 또는 제2이미지를 생성하는 제2단말을 식별하기 위한 제2단말의 식별정보가 삽입될 수 있다. 예를 들어, 제2단말이 카메라로 구현되면, 제2단말은 EXIF (Exchangeable Image File Format)라는 형식으로 다양한 정보를 제2이미지에 저장할 수 있는데, 날짜 등을 포함하는 시간정보, 카메라를 다른 카메라와 구별할 수 있는 카메라식별정보, 및 제2단말의 위치에 관한 위치정보 중 적어도 하나를 포함할 수 있다. Time information including information on the date and time when the second image is generated may be inserted into the second image, or location information of the second terminal generating the second image may be inserted, or the second image may be inserted. The identification information of the second terminal for identifying the second terminal generating the image may be inserted. For example, if the second terminal is implemented as a camera, the second terminal can store various information in a second image in the format of EXIF (Exchangeable Image File Format). It may include at least one of camera identification information that can be distinguished from, and location information about the position of the second terminal.

한편 제어부(120)는 제2이미지로부터 피사체에 대응되는 객체이미지를 추출할 수 있다. Meanwhile, the controller 120 may extract an object image corresponding to the subject from the second image.

피사체는 합성용 스크린 앞에 위치한 채로 촬영되기 때문에, 크로마키(chroma-key) 기법 등을 이용하여 제2이미지로부터 객체이미지를 추출할 수 있다. 즉 제2단말에 의해 피사체가 촬영될 때 피사체의 뒤에는 합성용 스크린이 위치하여 손쉽게 피사체 이미지를 추출해낼 수 있다. 예를 들어, 피사체가 라이트블루 스크린 앞에 위치한 채로 촬영된 제2이미지에서, 블루계통의 이미지를 제거함에 따라 객체이미지만을 남길 수 있다. Since the subject is photographed while being positioned in front of the composite screen, an object image can be extracted from the second image using a chroma-key technique or the like. That is, when the subject is photographed by the second terminal, a composite screen is located behind the subject, so that the subject image can be easily extracted. For example, in the second image taken while the subject is located in front of the light blue screen, only the object image can be left as the blue system image is removed.

다만, 크로마키 과정에서 피사체 이외의 부분이 완벽하게 제거되지 못할 수 있다. 이를 위해 제어부(120)는 크로마키 처리된 제2이미지를 흑백 반전시키고 그에 따라 피사체의 영역을 까만색으로, 나머지 영역을 하얀색으로 표시시킬 수 있다. 이때 제어부(120)는 흑백이미지 중 소정 크기의 영역을 차지하는 오브젝트를 주(主)오브젝트로 결정하고, 결정된 주오브젝트와 연결되지 않은 흑색 이미지의 영역을 제거함으로써 피사체 이외의 부분을 제거할 수 있다. 예를 들어 제어부(120)는 흑백이미지에서 가장 큰 영역을 차지하는 주오브젝트 이외의 흑색 영역을 모두 제거하고 남은 흑색 영역에 대응되는 부분을 객체이미지로 결정할 수 있다.However, parts other than the subject may not be completely removed during the chromakey process. To this end, the controller 120 inverts the chroma key-processed second image in black and white and accordingly may display the subject area in black and the rest of the area in white. In this case, the controller 120 may determine an object occupying a predetermined size of the black and white image as a main object, and remove a portion of the black image that is not connected to the determined main object, thereby removing portions other than the subject. For example, the controller 120 may remove all black areas other than the main object that occupies the largest area in the black and white image and determine a part corresponding to the remaining black area as the object image.

관련하여 제어부(120)는 주오브젝트와 연결되지 않지만, 피사체의 일부를 촬영한 것일 수도 있는 흑색 영역을 제거하지 않을 수 있다. 예를 들어 공을 던지는 사용자의 모습을 촬영한 제2이미지에서는 주오브젝트인 사용자의 이미지와 연결되지 않은 공의 이미지도 추출해내야 할 수 있다. 이를 위해 제어부(120)는 흑백반전 처리된 제2이미지 중 주오브젝트와 연결되지 않은 흑색이미지의 형상, 경계의 스무딩 정도, 크기 및 해상도 중 적어도 하나에 기초하여 제거 여부를 결정할 수 있다. 예를 들어, 제어부(120)는 흑백반전 처리된 흑색이미지 중 주오브젝트와 연결되지 않은 흑색이미지 중에서, 경계가 거친 흑색이미지의 부분은 제거하고 경계가 매끄럽다고 판단되는 흑색이미지 부분은 제거하지 않을 수 있다. 또는 예를 들어 제어부(120)는 주오브젝트와 연결되지 않은 흑색이미지 중 소정 이상의 크기를 갖는 흑색이미지는 제거하지 않을 수 있다. 또는 예를 들어 제어부(120)는 주오브젝트와 연결되지 않은 흑색이미지 중 소정의 형상이 아닌 형상을 갖는 부분은 제거할 수 있다. 또는 예를 들어 제어부(120)는 주오브젝트와 연결되지 않은 흑색이미지 중 해상도가 주오브젝트와 상이한 부분은 제거할 수 있다. 그리고 제어부(120)는 최종 남은 흑색이미지에 대응되는 부분을 객체이미지로 결정할 수 있다.In relation to this, the controller 120 is not connected to the main object, but may not remove the black area that may be a part of the subject. For example, in the second image taken by the user throwing the ball, it may be necessary to extract the image of the ball that is not connected to the user's image, which is the main object. To this end, the controller 120 may determine whether to remove the black image inverted based on at least one of a shape, a boundary smoothing degree, a size, and a resolution of a black image not connected to the main object. For example, the control unit 120 may remove a portion of a black image having a rough border among black images that are not connected to the main object among black and white inverted black images and may not remove a portion of the black image determined to have a smooth border. have. Alternatively, for example, the control unit 120 may not remove a black image having a predetermined size or more among black images not connected to the main object. Or, for example, the control unit 120 may remove a portion having a shape other than a predetermined shape from a black image that is not connected to the main object. Alternatively, for example, the controller 120 may remove a portion of a black image that is not connected to the main object having a different resolution from the main object. In addition, the controller 120 may determine a part corresponding to the last remaining black image as an object image.

상술된 바와 같이 제어부(120)는 제2이미지로부터 객체이미지를 추출할 수 있고 추출된 객체이미지를 보정할 수 있다. As described above, the controller 120 may extract the object image from the second image and correct the extracted object image.

제어부(120)는 객체이미지의 크기를 스케일링할 수 있는데 이를 위해 기설정된 크기로 객체이미지의 크기를 스케일링할 수 있다. The controller 120 may scale the size of the object image. To this end, the size of the object image may be scaled to a predetermined size.

이때 객체이미지는 최소 1차원 내지 3차원의 이미지일 수 있는데, 객체이미지를 구성하는 적어도 하나의 축의 크기가 기설정된 크기와 동일하거나 소정의 범위 내가 되도록 객체이미지를 스케일링할 수 있다. 예를 들어, 객체이미지의 x축의 크기와 기설정된 x축의 크기가 동일해지도록 제어부(120)는 객체이미지를 스케일링할 수 있으며, 그에 따라 객체이미지의 y축의 크기가 기설정된 y축의 크기와 상이해질 수 있다. In this case, the object image may be at least one to three-dimensional images, and the object image may be scaled such that the size of at least one axis constituting the object image is the same as a preset size or within a predetermined range. For example, the controller 120 may scale the object image so that the size of the x-axis of the object image and the preset x-axis are the same, so that the size of the y-axis of the object image will be different from the size of the preset y-axis. Can be.

또한 제어부(120)는 스케일링된 객체이미지의 중심값을 기설정된 기준값에 맞도록 기준이미지에서의 객체이미지의 위치를 조정할 수 있다. In addition, the controller 120 may adjust the position of the object image in the reference image so that the center value of the scaled object image matches a preset reference value.

이때 테마이미지는 둘 이상의 레이어로 구성될 수 있으며, 레이어 중 어느 하나가 기준이미지 레이어가 될 수 있다. 예를 들어 기준이미지는 객체이미지가 합성될 테마이미지에서 배경의 역할을 하는 배경이미지일 수 있다. At this time, the theme image may be composed of two or more layers, and any one of the layers may be a reference image layer. For example, the reference image may be a background image that serves as a background in the theme image to which the object image is to be synthesized.

객체이미지의 ‘중심값’은, 객체이미지가 합성될 테마이미지에 따라 각기 상이한 좌표가 중심값이 될 수 있다. 예를 들어, 객체이미지를 에워싸면서 객체이미지의 가장 좌측에서부터 우측까지의 x축과 객체이미지의 가장 아래에서부터 위까지의 y축으로 이루어진 바운딩박스에서 중심이 되는 값(바운딩박스의 x축의 중간값 및 y축의 중간값)을 중심값으로 설정할 수 있다. 또는 예를 들어, 객체이미지를 구성하는 소정의 지점을 중심값으로 설정할 수 있다.In the 'center value' of the object image, different coordinates may be the center value according to the theme image to which the object image is to be synthesized. For example, the value centered on the bounding box consisting of the x-axis from the left to the right of the object image and the y-axis from the bottom to the top of the object image while surrounding the object image (the median value of the x-axis of the bounding box) And the middle value of the y-axis) as a center value. Or, for example, a predetermined point constituting the object image may be set as a central value.

관련하여 도 3은 본 명세서에 기재되는 체험형 콘텐츠 생성 장치를 설명하기 위한 예시도이다. In connection with FIG. 3 is an exemplary diagram for describing an experience-type content generating device described in the present specification.

도 3의 (a)는 스케일링된 객체이미지이다. 도 3의 (b)에 도시된 바와 같이 상기 객체이미지를 에워싸면서 객체이미지의 가장 좌측에서부터 우측까지의 x축과 객체이미지의 가장 아래에서부터 위까지의 y축으로 이루어진 바운딩박스(311)의 내부 중점이 객체이미지의 중심값(310)이 될 수 있다. 또는 테마이미지에 따라 상기 객체이미지 중 소정의 지점으로 결정되는 지점을 중심값으로 설정할 수 있는데. 도 3의 (c)에 도시된 바와 같이 객체이미지를 구성하는 사람의 손가락 끝의 지점을 중심값(320)으로 설정할 수 있다.3 (a) is a scaled object image. As shown in (b) of FIG. 3, the interior of the bounding box 311 is formed by enclosing the object image and including the x-axis from the left to the right of the object image and the y-axis from the bottom to the top of the object image. The center point may be the center value 310 of the object image. Alternatively, a point determined as a predetermined point among the object images may be set as a center value according to the theme image. As illustrated in (c) of FIG. 3, the point of the fingertip of a person constituting the object image may be set as the central value 320.

상술된 바와 같이 결정된 중심값이 소정의 기준값에 맞춰지도록 제어부(120)는 객체이미지를 테마이미지에 합성할 수 있다.As described above, the controller 120 may synthesize the object image into the theme image so that the determined center value matches the predetermined reference value.

그에 따라 중심값이 소정의 기준값에 맞춰진 객체이미지 중 소정의 범위를 벗어난 부분을, 제어부(120)는 제거할 수 있다. 예를 들어, 객체이미지의 중심값이 기준값에 위치하게 됨에 따라 객체이미지 중 기준이미지의 영역을 벗어나는 부분은 제거될 수 있다. Accordingly, the controller 120 may remove a portion of the object image whose center value is set to a predetermined reference value, outside a predetermined range. For example, as the center value of the object image is positioned at the reference value, a portion outside the area of the reference image among the object images may be removed.

한편 제어부(120)는 보정된 객체이미지를 테마이미지와 합성하기 위해 합성될 테마이미지를 선정할 수 있다. Meanwhile, the controller 120 may select a theme image to be synthesized in order to synthesize the corrected object image with the theme image.

즉, 제어부(120)는 객체이미지가 추출된 제2이미지로부터 추출된 정보에 대응되는 테마식별정보를 탐색하고, 탐색된 테마식별정보에 대응되는 테마이미지를 선정할 수 있다. 예를 들어, 제2이미지로부터 카메라 식별정보 및 시간정보가 추출되면, 제어부(120)는 카메라 식별정보 및 시간정보 모두에 대응되는 테마식별정보를 탐색할 수 있고, 탐색된 테마식별정보에 대응되는 테마이미지를 선정할 수 있다. That is, the controller 120 may search for theme identification information corresponding to the information extracted from the second image from which the object image is extracted, and select a theme image corresponding to the searched theme identification information. For example, when camera identification information and time information are extracted from the second image, the controller 120 may search for the theme identification information corresponding to both the camera identification information and the time information, and corresponds to the searched theme identification information. You can select a theme image.

이때 테마이미지는 둘 이상의 레이어로 구성될 수 있으며, 제어부(120)는 상기 레이어 중 두 레이어 사이, 또는 한 레이어의 상단 또는 하단에 객체이미지를 삽입시켜 객체이미지를 테마이미지에 합성할 수 있다. 또는 테마이미지는 둘 이상의 레이어로 구성되되 객체이미지가 삽입될 피사체 레이어를 포함할 수 있고, 제어부(120)는 피사체 레이어에 객체이미지를 삽입함으로써 객체이미지를 테마이미지에 합성할 수 있다.At this time, the theme image may be composed of two or more layers, and the controller 120 may synthesize the object image into the theme image by inserting an object image between two layers among the layers or on top or bottom of one layer. Alternatively, the theme image may be composed of two or more layers, but may include a subject layer into which the object image is to be inserted, and the controller 120 may synthesize the object image into the theme image by inserting the object image into the subject layer.

관련하여 도 4 및 도 5는 본 명세서에 기재되는 체험형 콘텐츠 생성 장치를 설명하기 위한 예시도로서 복수의 레이어로 구성된 테마이미지에 객체이미지를 합성하는 모습을 설명하기 위한 것이다.4 and 5 are exemplary views for explaining the experiential content generating apparatus described in the present specification, and are intended to describe a state in which an object image is synthesized on a theme image composed of a plurality of layers.

도 4에 도시된 바와 같이, 테마이미지는 배경이미지 레이어(410), 추가이미지 레이어(420), 조정레이어(430)를 포함하고 있으며, 추가이미지 레이어(420)는 하나 이상일 수 있다. 배경이미지 레이어(410)는 테마이미지의 배경으로 설정된 레이어이며, 추가이미지 레이어(420)는 배경에 추가하여 객체이미지에 합성될 이미지를 포함하는 레이어이며, 조정레이어(430)는 합성된 이미지의 온도, 빛, 톤을 조정하기 위한 레이어이다. As shown in FIG. 4, the theme image includes a background image layer 410, an additional image layer 420, and an adjustment layer 430, and the additional image layer 420 may be one or more. The background image layer 410 is a layer set as the background of the theme image, the additional image layer 420 is a layer including an image to be synthesized in the object image in addition to the background, and the adjustment layer 430 is the temperature of the synthesized image. This is a layer to adjust the light, tone, and color.

또한 테마이미지는 피사체 레이어(450)를 더 포함하고 있어 제어부(120)는 객체이미지를 피사체 레이어에 위치시킴으로써 도 5에 도시된 바와 같이 테마이미지와 객체이미지가 결합된 합성이미지(500)를 체험형 콘텐츠로서 생성할 수 있다. 이때 제어부(120)는 객체이미지의 중심값이 기준값과 일치하도록 객체이미지를 삽입할 수 있다.In addition, since the theme image further includes a subject layer 450, the controller 120 places the object image on the subject layer to experience the composite image 500 in which the theme image and the object image are combined as shown in FIG. 5. Can be created as content. At this time, the controller 120 may insert the object image so that the center value of the object image matches the reference value.

한편 통신부(130)는 다른 디바이스 또는 네트워크와 유무선 통신을 수행할 수 있다. 이를 위해, 통신부(130)는 다양한 유무선 통신 방법 중 적어도 하나를 지원하는 통신 모듈을 포함할 수 있다. 예를 들어, 통신 모듈은 칩셋(chipset)의 형태로 구현될 수 있다.Meanwhile, the communication unit 130 may perform wired / wireless communication with other devices or networks. To this end, the communication unit 130 may include a communication module supporting at least one of various wired and wireless communication methods. For example, the communication module may be implemented in the form of a chipset.

통신부(130)가 지원하는 무선 통신은, 예를 들어 Wi-Fi(Wireless Fidelity), Wi-Fi Direct, 블루투스(Bluetooth), UWB(Ultra Wide Band) 또는 NFC(Near Field Communication) 등일 수 있다. 또한, 통신부(130)가 지원하는 유선 통신은, 예를 들어 USB 또는 HDMI(High Definition Multimedia Interface) 등일 수 있다.The wireless communication supported by the communication unit 130 may be, for example, Wi-Fi (Wireless Fidelity), Wi-Fi Direct, Bluetooth (Bluetooth), UWB (Ultra Wide Band), or NFC (Near Field Communication). In addition, the wired communication supported by the communication unit 130 may be, for example, USB or HDMI (High Definition Multimedia Interface).

메모리(140)에는 파일, 어플리케이션 및 프로그램 등과 같은 다양한 종류의 데이터가 설치 및 저장될 수 있다. 제어부(120)는 메모리(140)에 저장된 데이터에 접근하여 이를 이용하거나, 또는 새로운 데이터를 메모리(140)에 저장할 수도 있다. 또한, 제어부(120)는 메모리(140)에 설치된 프로그램을 실행할 수도 있다. 도 1을 참조하면, 메모리(140)에는 체험형 콘텐츠 생성 방법을 수행하기 위한 프로그램이 설치될 수 있다.Various types of data, such as files, applications, and programs, may be installed and stored in the memory 140. The controller 120 may access and use data stored in the memory 140, or may store new data in the memory 140. Also, the control unit 120 may execute a program installed in the memory 140. Referring to FIG. 1, a program for performing an experiential content creation method may be installed in the memory 140.

일 실시예에 따르면, 입출력부(110)를 통해 사용자로부터 이미지 합성을 요청하는 입력을 수신하면, 제어부(120)는 메모리(140)에 저장된 프로그램을 실행시켜 체험형 콘텐츠 생성 방법을 수행한다. According to an embodiment, when an input for requesting image synthesis is received from a user through the input / output unit 110, the controller 120 executes a program stored in the memory 140 to perform a method for generating experiential content.

또한 메모리(140)에는 테마이미지가 저장될 수 있고, 또한, 테마이미지에 대응되는 테마식별정보가 저장될 수 있다. 예를 들어, 소정의 테마이미지 A를 이용했던 제1단말로부터 수신된 테마식별정보는, 메모리(140)에 저장된 테마이미지 A에 대응되어 저장될 수 있다. 그에 따라 예를 들어, 테마이미지 A에는 시간정보 및 제2단말의 식별정보가 매칭되어 저장되어 있을 수 있다.Also, a theme image may be stored in the memory 140, and theme identification information corresponding to the theme image may be stored. For example, the theme identification information received from the first terminal using the predetermined theme image A may be stored corresponding to the theme image A stored in the memory 140. Accordingly, for example, in the theme image A, time information and identification information of the second terminal may be matched and stored.

상술된 바에 따른 체험형 콘텐츠 생성 장치(100)는 서버로 구현되거나 서버- 클라이언트 시스템으로 구현되거나, 전자단말로 구현될 수 있다.The experience-based content generating apparatus 100 according to the above can be implemented as a server, a server-client system, or an electronic terminal.

관련하여 도 6 내지 도 8은 체험형 콘텐츠 생성 장치를 포함하는 체험형 콘텐츠 생성 시스템(600)의 구성을 도시한 것이다. 6 to 8 show the configuration of the experiential content generating system 600 including the experiential content generating device.

체험형 콘텐츠 생성 시스템(600)은 사용자단말(10), 카메라(20), 디스플레이 장치(30)를 포함할 수 있으며, 서버(40) 및/또는 PC(50)를 더 포함할 수 있으며, 추가적으로 프린터(60)를 더 포함할 수 있다.The experiential content creation system 600 may include a user terminal 10, a camera 20, and a display device 30, and may further include a server 40 and / or a PC 50, and additionally The printer 60 may be further included.

이때 체험형 콘텐츠 생성 장치(100)는 서버(40) 및 PC(50)로 구현될 수 있다.In this case, the experience-type content generating apparatus 100 may be implemented with a server 40 and a PC 50.

즉, 도 6에서 도시된 바와 같이, 사용자단말(10)을 통해 사용자는 테마 별로 자신이 어떠한 모습으로 나타나는지를 디스플레이 장치(30)를 통해 확인할 수 있다. 이때 사용자단말(10)은 테마가 변경될 때마다 또는 주기적으로 테마식별정보를 서버(40)로 전송할 수 있다. That is, as illustrated in FIG. 6, through the user terminal 10, the user can check through his display device 30 what his appearance is for each theme. At this time, the user terminal 10 may transmit the theme identification information to the server 40 whenever the theme is changed or periodically.

일 실시예에 따르면 사용자가 자신이 원하는 테마에서 카메라(20)로 자신의 모습을 촬영하면 카메라(20)는 제2이미지를 PC(50)로 전송할 수 있다. 제2이미지를 수신한 PC(50)는 서버(40)로부터 제2이미지에 대응되는 테마식별정보를 수신하여 테마이미지를 선정하거나, 제2이미지에 대응되는 테마식별정보에 대응되는 테마이미지를 서버(40)로부터 수신하여 선정할 수 있다. 그리고 PC(50)는 제2이미지로부터 객체이미지를 추출하고 보정한 이후, 보정한 객체이미지를 테마이미지와 합성할 수 있다. 이때 사용자는 PC(50)를 통해 합성이미지를 다듬을 수도 있다. 또한 사용자는 PC(50)와 연결된 프린터(60)를 통해 합성이미지를 출력할 수 있으며, 그 결과 자신이 디스플레이 장치(30)를 통해 확인하였던 자신의 모습을 고화질의 사진으로 얻을 수 있다.According to an embodiment of the present invention, when a user photographs his or her appearance with the camera 20 in a theme desired by the user, the camera 20 may transmit the second image to the PC 50. The PC 50 receiving the second image receives the theme identification information corresponding to the second image from the server 40 to select the theme image, or the theme image corresponding to the theme identification information corresponding to the second image server It can be selected by receiving it from (40). Then, the PC 50 may extract the object image from the second image and correct it, and then synthesize the corrected object image with the theme image. At this time, the user may trim the composite image through the PC 50. In addition, the user can output a composite image through the printer 60 connected to the PC 50, and as a result, it is possible to obtain a high-quality picture of himself as he has checked through the display device 30.

다른 실시예에 따르면 사용자가 자신이 원하는 테마에서 카메라(20)로 자신의 모습을 촬영하면 카메라(20)는 제2이미지를 서버(40)로 전송할 수 있다. 제2이미지를 수신한 서버(40)는 제2이미지에 대응되는 테마식별정보에 대응되는 테마이미지를 선정하고, 제2이미지로부터 객체이미지를 추출하고 보정한 이후, 보정한 객체이미지를 테마이미지와 합성할 수 있다. 합성이미지는 서버(40)로부터 PC(50)로 전송될 수 있고 이때 사용자는 PC(50)를 통해 합성이미지를 다듬을 수도 있다. 또한 사용자는 PC(50)와 연결된 프린터(60)를 통해 합성이미지를 출력할 수 있으며, 그 결과 자신이 디스플레이 장치(30)를 통해 확인하였던 자신의 모습을 고화질의 사진으로 얻을 수 있다.According to another embodiment, when the user photographs his or her appearance with the camera 20 in a theme desired by the user, the camera 20 may transmit the second image to the server 40. After receiving the second image, the server 40 selects a theme image corresponding to the theme identification information corresponding to the second image, extracts and corrects the object image from the second image, and then corrects the corrected object image with the theme image. Can be synthesized. The composite image may be transmitted from the server 40 to the PC 50, and at this time, the user may trim the composite image through the PC 50. In addition, the user can output a composite image through the printer 60 connected to the PC 50, and as a result, it is possible to obtain a high-quality picture of himself as he has checked through the display device 30.

반면 도 7에서 도시된 바와 같이, 이때 체험형 콘텐츠 생성 장치(100)는 서버(40)로 구현될 수 있다.On the other hand, as illustrated in FIG. 7, at this time, the experience-type content generating apparatus 100 may be implemented as a server 40.

즉, 도 7에서 도시된 바와 같이, 사용자단말(10)을 통해 사용자는 테마 별로 자신이 어떠한 모습으로 나타나는지를 디스플레이 장치(30)를 통해 확인할 수 있고, 사용자단말(10)은 테마가 변경될 때마다 또는 주기적으로 테마식별정보를 서버(40)로 전송할 수 있다. 사용자가 자신이 원하는 테마에서 카메라(20)로 자신의 모습을 촬영하면 카메라(20)는 제2이미지를 서버(40)로 전송할 수 있다. 제2이미지를 수신한 서버(40)는 제2이미지에 대응되는 테마식별정보에 대응되는 테마이미지를 선정하고, 제2이미지로부터 객체이미지를 추출하고 보정한 이후, 보정한 객체이미지를 테마이미지와 합성할 수 있다. 합성이미지를 서버(40)는 프린터(60)로 제공하여 출력할 수 있으며, 그 결과 사용자는 자신이 디스플레이 장치(30)를 통해 확인하였던 자신의 모습을 고화질의 사진으로 얻을 수 있다.That is, as shown in FIG. 7, the user terminal 10 allows the user to check through his display device 30 what his appearance is for each theme, and the user terminal 10 when the theme is changed The theme identification information may be transmitted to the server 40 every time or periodically. When the user photographs his or her appearance with the camera 20 in a theme desired by the user, the camera 20 may transmit the second image to the server 40. After receiving the second image, the server 40 selects a theme image corresponding to the theme identification information corresponding to the second image, extracts and corrects the object image from the second image, and then corrects the corrected object image with the theme image. Can be synthesized. The composite image can be provided by the server 40 to the printer 60 for output, and as a result, the user can obtain a high-quality picture of himself as he has checked through the display device 30.

한편 도 8에서 도시된 바와 같이, 체험형 콘텐츠 생성 장치(100)는 PC(50)로 구현될 수 있다.Meanwhile, as illustrated in FIG. 8, the experience-type content generating apparatus 100 may be implemented as a PC 50.

즉, 도 8에서 도시된 바와 같이, 사용자단말(10)을 통해 사용자는 테마 별로 자신이 어떠한 모습으로 나타나는지를 디스플레이 장치(30)를 통해 확인할 수 있고, 사용자단말(10)은 테마가 변경될 때마다 또는 주기적으로 테마식별정보를 PC(50)로 전송할 수 있다. 사용자가 자신이 원하는 테마에서 카메라(20)로 자신의 모습을 촬영하면 카메라(20)는 제2이미지를 PC(50)로 전송할 수 있다. 제2이미지를 수신한 PC(50)는 제2이미지에 대응되는 테마식별정보에 대응되는 테마이미지를 선정하고, 제2이미지로부터 객체이미지를 추출하고 보정한 이후, 보정한 객체이미지를 테마이미지와 합성할 수 있다. PC(50)는 합성이미지를 프린터(60)로 제공하여 출력할 수 있으며, 그 결과 사용자는 자신이 디스플레이 장치(30)를 통해 확인하였던 자신의 모습을 고화질의 사진으로 얻을 수 있다.That is, as illustrated in FIG. 8, through the user terminal 10, the user can check through the display device 30 what his appearance is for each theme, and when the theme is changed, the user terminal 10 The theme identification information may be transmitted to the PC 50 every or periodically. When the user photographs his or her appearance with the camera 20 in a theme desired by the user, the camera 20 may transmit the second image to the PC 50. After receiving the second image, the PC 50 selects the theme image corresponding to the theme identification information corresponding to the second image, extracts and corrects the object image from the second image, and then corrects the corrected object image with the theme image. Can be synthesized. The PC 50 can provide a composite image to the printer 60 for output, and as a result, the user can obtain a high-quality picture of himself as he has checked through the display device 30.

도 9는 일 실시예에 따른 체험형 콘텐츠 생성 방법을 설명하기 위한 순서도이다. 9 is a flowchart for explaining a method for generating experience-type content according to an embodiment.

체험형 콘텐츠 생성 장치(100)는 테마식별정보를 제1단말로부터 획득할 수 있다 (S910). The experience-type content generating apparatus 100 may acquire theme identification information from the first terminal (S910).

체험형 콘텐츠 생성 장치(100)는 제2단말로부터 획득된 제2이미지로부터 피사체에 대응되는 객체이미지를 추출할 수 있다(S920). 체험형 콘텐츠 생성 장치(100)는 제2이미지를 크로마킹하고 흑백반전 시킨 후 흑백반전된 이미지로부터 주오브젝트를 추출하며 주오브젝트와 연결되지 않은 부분은 삭제할 수 있다. 이때, 체험형 콘텐츠 생성 장치(100)는 주오브젝트와 연결되지 않은 부분은 삭제하되 주오브젝트와 연결되지 않은 흑색이미지의 형상, 경계, 크기 및 해상도 중 적어도 하나에 기초하여 삭제할 수 있다. 그리고 최종 남은 흑색이미지에 대응되는 부분을 객체이미지로 결정할 수 있다.The experience-type content generating apparatus 100 may extract the object image corresponding to the subject from the second image obtained from the second terminal (S920). The experiential content generating apparatus 100 may chroma-chrome the second image, invert black and white, extract the main object from the inverted black-and-white image, and delete a portion not connected to the main object. At this time, the experience-based content generating apparatus 100 may delete a portion that is not connected to the main object, but may delete it based on at least one of the shape, boundary, size, and resolution of the black image that is not connected to the main object. In addition, an object image may be determined as a part corresponding to the last remaining black image.

체험형 콘텐츠 생성 장치(100)는 객체이미지를 보정할 수 있다 (S930). 체험형 콘텐츠 생성 장치(100)는 객체이미지를 스케일링할 수 있고, 또한 스케일링한 객체이미지의 중심값을 기설정된 기준값에 위치시킴으로써 객체이미지를 조정할 수 있다. The experience-type content generating apparatus 100 may correct the object image (S930). The apparatus 100 for generating content of an experiential content may scale an object image and may adjust the object image by placing the center value of the scaled object image at a preset reference value.

상술된 바와 같이 보정된 객체이미지를, 체험형 콘텐츠 생성 장치(100)는 테마식별정보에 대응되는 테마이미지와 합성할 수 있다 (S940). 테마이미지는 둘 이상의 레이어로 구성될 수 있으며, 체험형 콘텐츠 생성 장치(100)는 피사체 레이어에 테마이미지를 위치시킴으로써 테마이미지와 객체이미지를 합성할 수 있다. 이때 테마이미지는 테마식별정보에 포함되는 위치정보, 시간정보 및 제2단말의 식별정보 중 적어도 하나에 기초하여 선택된 것일 수 있다.As described above, the corrected object image, the experience-type content generating apparatus 100 may synthesize the theme image corresponding to the theme identification information (S940). The theme image may be composed of two or more layers, and the experiential content generating device 100 may synthesize the theme image and the object image by placing the theme image on the subject layer. In this case, the theme image may be selected based on at least one of location information, time information, and identification information of the second terminal included in the theme identification information.

이상의 실시예들에서 사용되는 '~부'라는 용어는 소프트웨어 또는 FPGA(field programmable gate array) 또는 ASIC 와 같은 하드웨어 구성요소를 의미하며, '~부'는 어떤 역할들을 수행한다. 그렇지만 '~부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. '~부'는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 '~부'는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램특허 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들, 및 변수들을 포함한다.The term '~ unit' used in the above embodiments means software or hardware components such as a field programmable gate array (FPGA) or an ASIC, and '~ unit' performs certain roles. However, '~ wealth' is not limited to software or hardware. The '~ unit' may be configured to be in an addressable storage medium or may be configured to reproduce one or more processors. Thus, as an example, '~ unit' refers to components such as software components, object-oriented software components, class components and task components, processes, functions, attributes, and procedures. , Subroutines, segments of program patent code, drivers, firmware, microcode, circuitry, data, database, data structures, tables, arrays, and variables.

구성요소들과 '~부'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '~부'들로 결합되거나 추가적인 구성요소들과 '~부'들로부터 분리될 수 있다.The functions provided within the components and '~ units' may be combined into a smaller number of components and '~ units', or separated from additional components and '~ units'.

뿐만 아니라, 구성요소들 및 '~부'들은 디바이스 또는 보안 멀티미디어카드 내의 하나 또는 그 이상의 CPU 들을 재생시키도록 구현될 수도 있다.In addition, the components and '~ unit' may be implemented to play one or more CPUs in the device or secure multimedia card.

도 9를 통해 설명된 실시예에 따른 체험형 콘텐츠 생성 방법은 컴퓨터에 의해 실행 가능한 명령어 및 데이터를 저장하는, 컴퓨터로 판독 가능한 매체의 형태로도 구현될 수 있다. 이때, 명령어 및 데이터는 프로그램 코드의 형태로 저장될 수 있으며, 프로세서에 의해 실행되었을 때, 소정의 프로그램 모듈을 생성하여 소정의 동작을 수행할 수 있다. 또한, 컴퓨터로 판독 가능한 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터로 판독 가능한 매체는 컴퓨터 기록 매체일 수 있는데, 컴퓨터 기록 매체는 컴퓨터 판독 가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함할 수 있다. 예를 들어, 컴퓨터 기록 매체는 HDD 및 SSD 등과 같은 마그네틱 저장 매체, CD, DVD 및 블루레이 디스크 등과 같은 광학적 기록 매체, 또는 네트워크를 통해 접근 가능한 서버에 포함되는 메모리일 수 있다. The method for generating experiential content according to the embodiment described with reference to FIG. 9 may also be implemented in the form of a computer-readable medium that stores instructions and data executable by a computer. At this time, instructions and data may be stored in the form of program code, and when executed by a processor, a predetermined program module may be generated to perform a predetermined operation. In addition, the computer-readable medium can be any available medium that can be accessed by a computer, and includes both volatile and nonvolatile media, removable and non-removable media. In addition, the computer-readable medium may be a computer recording medium, which is volatile and non-volatile implemented in any method or technology for storage of information such as computer-readable instructions, data structures, program modules or other data. Volatile, removable and non-removable media. For example, the computer recording medium may be a magnetic storage medium such as HDD and SSD, an optical recording medium such as CD, DVD and Blu-ray disk, or a memory included in a server accessible through a network.

또한 도 9를 통해 설명된 실시예에 따른 체험형 콘텐츠 생성 방법은 컴퓨터에 의해 실행 가능한 명령어를 포함하는 컴퓨터 프로그램(또는 컴퓨터 프로그램 제품)으로 구현될 수도 있다. 컴퓨터 프로그램은 프로세서에 의해 처리되는 프로그래밍 가능한 기계 명령어를 포함하고, 고레벨 프로그래밍 언어(High-level Programming Language), 객체 지향 프로그래밍 언어(Object-oriented Programming Language), 어셈블리 언어 또는 기계 언어 등으로 구현될 수 있다. 또한 컴퓨터 프로그램은 유형의 컴퓨터 판독가능 기록매체(예를 들어, 메모리, 하드디스크, 자기/광학 매체 또는 SSD(Solid-State Drive) 등)에 기록될 수 있다. Also, the method for generating experiential content according to the embodiment described with reference to FIG. 9 may be implemented as a computer program (or computer program product) including instructions executable by a computer. The computer program includes programmable machine instructions processed by a processor and may be implemented in a high-level programming language, object-oriented programming language, assembly language, or machine language. . The computer program can also be recorded on a tangible computer-readable recording medium (eg, memory, hard disk, magnetic / optical medium, or solid-state drive (SSD)).

따라서 도 9를 통해 설명된 실시예에 따른 체험형 콘텐츠 생성 방법은 상술한 바와 같은 컴퓨터 프로그램이 컴퓨팅 장치에 의해 실행됨으로써 구현될 수 있다. 컴퓨팅 장치는 프로세서와, 메모리와, 저장 장치와, 메모리 및 고속 확장포트에 접속하고 있는 고속 인터페이스와, 저속 버스와 저장 장치에 접속하고 있는 저속 인터페이스 중 적어도 일부를 포함할 수 있다. 이러한 성분들 각각은 다양한 버스를 이용하여 서로 접속되어 있으며, 공통 머더보드에 탑재되거나 다른 적절한 방식으로 장착될 수 있다. Therefore, the method for generating experiential content according to the embodiment described with reference to FIG. 9 may be implemented by executing a computer program as described above by a computing device. The computing device may include at least some of a processor, a memory, a storage device, a high-speed interface connected to the memory and a high-speed expansion port, and a low-speed interface connected to the low-speed bus and the storage device. Each of these components is connected to each other using various buses, and can be mounted on a common motherboard or mounted in other suitable ways.

여기서 프로세서는 컴퓨팅 장치 내에서 명령어를 처리할 수 있는데, 이런 명령어로는, 예컨대 고속 인터페이스에 접속된 디스플레이처럼 외부 입력, 출력 장치상에 GUI(Graphic User Interface)를 제공하기 위한 그래픽 정보를 표시하기 위해 메모리나 저장 장치에 저장된 명령어를 들 수 있다. 다른 실시예로서, 다수의 프로세서 및(또는) 다수의 버스가 적절히 다수의 메모리 및 메모리 형태와 함께 이용될 수 있다. 또한 프로세서는 독립적인 다수의 아날로그 및(또는) 디지털 프로세서를 포함하는 칩들이 이루는 칩셋으로 구현될 수 있다. Here, the processor is capable of processing instructions within the computing device, such as to display graphical information for providing a graphical user interface (GUI) on an external input or output device, such as a display connected to a high-speed interface. And instructions stored in memory or storage devices. In other embodiments, multiple processors and / or multiple buses may be used in conjunction with multiple memories and memory types as appropriate. Also, the processor may be implemented as a chipset formed by chips including a plurality of independent analog and / or digital processors.

또한 메모리는 컴퓨팅 장치 내에서 정보를 저장한다. 일례로, 메모리는 휘발성 메모리 유닛 또는 그들의 집합으로 구성될 수 있다. 다른 예로, 메모리는 비휘발성 메모리 유닛 또는 그들의 집합으로 구성될 수 있다. 또한 메모리는 예컨대, 자기 혹은 광 디스크와 같이 다른 형태의 컴퓨터 판독 가능한 매체일 수도 있다. Memory also stores information within computing devices. In one example, the memory may consist of volatile memory units or a collection thereof. As another example, the memory may consist of non-volatile memory units or a collection thereof. The memory may also be other types of computer readable media, such as magnetic or optical disks.

그리고 저장장치는 컴퓨팅 장치에게 대용량의 저장공간을 제공할 수 있다. 저장 장치는 컴퓨터 판독 가능한 매체이거나 이런 매체를 포함하는 구성일 수 있으며, 예를 들어 SAN(Storage Area Network) 내의 장치들이나 다른 구성도 포함할 수 있고, 플로피 디스크 장치, 하드 디스크 장치, 광 디스크 장치, 혹은 테이프 장치, 플래시 메모리, 그와 유사한 다른 반도체 메모리 장치 혹은 장치 어레이일 수 있다. In addition, the storage device may provide a large storage space for the computing device. The storage device may be a computer-readable medium or a configuration including such a medium, and may include, for example, devices within a storage area network (SAN) or other configurations, and may include floppy disk devices, hard disk devices, optical disk devices, Or a tape device, flash memory, or other similar semiconductor memory device or device array.

상술된 실시예들은 예시를 위한 것이며, 상술된 실시예들이 속하는 기술분야의 통상의 지식을 가진 자는 상술된 실시예들이 갖는 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 상술된 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.The above-described embodiments are for illustration only, and those having ordinary knowledge in the technical field to which the above-described embodiments belong can easily be modified into other specific forms without changing the technical idea or essential features of the above-described embodiments. You will understand. Therefore, it should be understood that the above-described embodiments are illustrative in all respects and not restrictive. For example, each component described as a single type may be implemented in a distributed manner, and similarly, components described as distributed may be implemented in a combined form.

본 명세서를 통해 보호 받고자 하는 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태를 포함하는 것으로 해석되어야 한다.The scope to be protected through the present specification is indicated by the claims, which will be described later, rather than the detailed description, and should be interpreted to include all modified or modified forms derived from the meaning and scope of the claims and equivalent concepts thereof. .

100: 체험형 콘텐츠 생성 장치
110: 입출력부 120: 제어부
130: 통신부 140: 메모리
600: 체험형 콘텐츠 생성 시스템
10: 제1단말 20: 제2단말
30: 디스플레이 장치 40: 서버
50: PC 60: 프린터
100: experiential content creation device
110: input and output unit 120: control unit
130: communication unit 140: memory
600: experiential content creation system
10: first terminal 20: second terminal
30: display device 40: server
50: PC 60: Printer

Claims (15)

테마이미지를 하나 이상 저장하는 메모리; 및
제1단말로부터 테마식별정보를 획득하며, 제2단말로부터 획득된 획득이미지로부터 피사체에 대응되는 객체이미지를 추출하여 보정하고, 보정된 객체이미지를 상기 테마식별정보에 대응되는 테마이미지와 합성하는 제어부를 포함하는, 체험형 콘텐츠 생성 장치.
A memory for storing one or more theme images; And
Control unit for obtaining theme identification information from the first terminal, extracting and correcting the object image corresponding to the subject from the acquired image obtained from the second terminal, and synthesizing the corrected object image with the theme image corresponding to the theme identification information Including, experience-based content generation device.
제 1 항에 있어서,
상기 제어부는,
상기 테마이미지에 대응되는 시간정보를 포함하는 테마식별정보를 획득하는, 체험형 콘텐츠 생성 장치.
According to claim 1,
The control unit,
An apparatus for generating experience-based content, which acquires theme identification information including time information corresponding to the theme image.
제 1 항에 있어서,
상기 제어부는,
상기 획득이미지로부터 크로마킹하여 주오브젝트를 추출하고 상기 주오브젝트에 연결되지 않은 부분을 삭제하는, 체험형 콘텐츠 생성 장치.
According to claim 1,
The control unit,
An experiential content creation device that extracts a main object by chroma-marking from the acquired image and deletes a portion not connected to the main object.
제 3 항에 있어서,
상기 제어부는,
상기 획득이미지로부터 주오브젝트와 연결되지 않은 오브젝트는 삭제하되, 상기 주오브젝트에 연결되지 않은 오브젝트의 형상, 경계, 크기 및 해상도 중 적어도 하나에 기초하여 오브젝트를 삭제하는, 체험형 콘텐츠 생성 장치.
The method of claim 3,
The control unit,
An apparatus for generating experiential content, wherein an object that is not connected to the main object is deleted from the acquired image, but the object is deleted based on at least one of the shape, boundary, size, and resolution of the object that is not connected to the main object.
제 1 항에 있어서,
상기 제어부는,
기준이미지에 대응되는 복수의 기준크기 중 하나에 기초하여 객체이미지를 스케일링하며, 스케일링된 객체이미지의 중심값을 기설정된 기준값에 위치시킴으로써 상기 객체이미지를 상기 테마이미지와 합성하는, 체험형 콘텐츠 생성 장치.
According to claim 1,
The control unit,
An experiential content creation device that scales an object image based on one of a plurality of reference sizes corresponding to a reference image and synthesizes the object image with the theme image by placing the center value of the scaled object image at a preset reference value. .
제 1 항에 있어서,
상기 제어부는,
상기 테마이미지에 포함되는 둘 이상의 레이어 중 피사체레이어에 대응되는 레이어에 상기 객체이미지를 삽입함으로써 상기 객체이미지를 상기 테마이미지와 합성하는, 체험형 콘텐츠 생성 장치.
According to claim 1,
The control unit,
An experiential content creation device for synthesizing the object image with the theme image by inserting the object image in a layer corresponding to a subject layer among two or more layers included in the theme image.
제 1 항에 있어서,
상기 제어부는,
상기 테마식별정보에 포함되는 위치정보 및 시간정보 중 적어도 하나에 기초하여 테마이미지를 선택하고 선택된 테마이미지를 객체이미지와 합성하는, 체험형 콘텐츠 생성 장치.
According to claim 1,
The control unit,
An experiential content generation device that selects a theme image based on at least one of location information and time information included in the theme identification information and synthesizes the selected theme image with an object image.
체험형 콘텐츠 생성 장치가 체험형 콘텐츠를 생성하는 방법으로서,
제1단말로부터 테마식별정보를 획득하는 단계;
제2단말로부터 획득된 획득이미지로부터 피사체에 대응되는 객체이미지를 추출하는 단계;
상기 객체이미지를 보정하는 단계; 및
보정된 객체이미지를 상기 테마식별정보에 대응되는 테마이미지와 합성하는 단계를 포함하는, 체험형 콘텐츠 생성 방법.
As a method for generating an experiential content by the experiential content generating device,
Obtaining theme identification information from the first terminal;
Extracting an object image corresponding to the subject from the acquired image obtained from the second terminal;
Correcting the object image; And
And synthesizing the corrected object image with a theme image corresponding to the theme identification information.
제 8 항에 있어서,
상기 테마식별정보를 획득하는 단계는,
상기 테마이미지에 대응되는 시간정보를 포함하는 테마식별정보를 획득하는 단계를 포함하는, 체험형 콘텐츠 생성 방법.
The method of claim 8,
The step of obtaining the theme identification information,
And obtaining theme identification information including time information corresponding to the theme image.
제 8 항에 있어서,
상기 객체이미지를 추출하는 단계는,
상기 획득이미지를 크로마킹하여 주오브젝트를 추출하고 상기 주오브젝트에 연결되지 않은 부분은 삭제하는 단계를 포함하는, 체험형 콘텐츠 생성 방법.
The method of claim 8,
The step of extracting the object image,
And extracting a main object by chroma-marking the acquired image and deleting a portion not connected to the main object.
제 10 항에 있어서,
상기 객체이미지를 추출하는 단계는,
상기 획득이미지로부터 주오브젝트와 연결되지 않은 오브젝트는 삭제하되, 상기 주오브젝트에 연결되지 않은 오브젝트의 형상, 경계, 크기 및 해상도 중 적어도 하나에 기초하여 오브젝트를 삭제하는 단계를 포함하는, 체험형 콘텐츠 생성 방법.
The method of claim 10,
The step of extracting the object image,
Deleting an object that is not connected to the main object from the acquired image, but deleting the object based on at least one of the shape, boundary, size, and resolution of the object that is not connected to the main object. Way.
제 8 항에 있어서,
상기 테마이미지와 합성하는 단계는,
상기 테마식별정보에 포함되는 위치정보 및 시간정보 중 적어도 하나에 기초하여 테마이미지를 선택하고, 선택된 테마이미지를 보정된 객체이미지와 합성하는 단계를 포함하는, 체험형 콘텐츠 생성 방법.
The method of claim 8,
The step of synthesizing with the theme image,
And selecting a theme image based on at least one of location information and time information included in the theme identification information, and synthesizing the selected theme image with a corrected object image.
디스플레이 장치와 통신하며 상기 디스플레이 장치로 하여금 피사체를 표시하도록 하는 제1단말;
상기 피사체를 촬영하여 획득이미지를 생성하는 제2단말; 및
상기 제1단말로부터 테마식별정보를 획득하며, 상기 획득이미지부터 피사체에 대응되는 객체이미지를 추출하여 보정하고, 보정된 객체이미지를 상기 테마식별정보에 대응되는 테마이미지와 합성하는 체험형 콘텐츠 생성 장치를 포함하는, 체험형 콘텐츠 생성 시스템.
A first terminal communicating with a display device and causing the display device to display a subject;
A second terminal that captures the subject and generates an acquired image; And
An experience-type content generation device that acquires theme identification information from the first terminal, extracts and corrects an object image corresponding to a subject from the acquired image, and synthesizes the corrected object image with the theme image corresponding to the theme identification information. Including, experience-based content generation system.
제 8 항에 기재된 방법을 수행하는 프로그램이 기록된 컴퓨터 판독 가능한 기록 매체.A computer-readable recording medium on which a program for performing the method according to claim 8 is recorded. 체험형 콘텐츠 생성 장치에 의해 수행되며, 제 8 항에 기재된 방법을 수행하기 위해 매체에 저장된 컴퓨터 프로그램.
A computer program carried out by an experiential content generating device and stored in a medium to perform the method according to claim 8.
KR1020180138322A 2018-11-12 2018-11-12 System, apparatus and method for producing experience based content KR102144556B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180138322A KR102144556B1 (en) 2018-11-12 2018-11-12 System, apparatus and method for producing experience based content

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180138322A KR102144556B1 (en) 2018-11-12 2018-11-12 System, apparatus and method for producing experience based content

Publications (2)

Publication Number Publication Date
KR20200055209A true KR20200055209A (en) 2020-05-21
KR102144556B1 KR102144556B1 (en) 2020-08-14

Family

ID=70910440

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180138322A KR102144556B1 (en) 2018-11-12 2018-11-12 System, apparatus and method for producing experience based content

Country Status (1)

Country Link
KR (1) KR102144556B1 (en)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090067822A (en) * 2007-12-21 2009-06-25 삼성전자주식회사 System for making mixed world reflecting real states and method for embodying it
KR20110104686A (en) * 2010-03-17 2011-09-23 에스케이텔레콤 주식회사 Marker size based interaction method and augmented reality system for realizing the same
KR20150030993A (en) * 2013-09-13 2015-03-23 한국전자통신연구원 Apparatus and method for providing contents experience service
KR20150058607A (en) * 2013-11-18 2015-05-29 인포뱅크 주식회사 Method for oupputing synthesized image, a terminal and a server thereof
KR20150125060A (en) * 2014-04-29 2015-11-09 주식회사 두드림 An system and method for providing experiential contents
KR20160139633A (en) * 2015-05-28 2016-12-07 주식회사 플렉싱크 An system and method for providing experiential contents using augmented reality
KR20170081544A (en) * 2016-01-04 2017-07-12 한국전자통신연구원 Apparatus and method for restoring experience items
US20180032031A1 (en) * 2016-08-01 2018-02-01 Integem Inc. Methods and systems for photorealistic human holographic augmented reality communication with interactive control in real-time

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090067822A (en) * 2007-12-21 2009-06-25 삼성전자주식회사 System for making mixed world reflecting real states and method for embodying it
KR20110104686A (en) * 2010-03-17 2011-09-23 에스케이텔레콤 주식회사 Marker size based interaction method and augmented reality system for realizing the same
KR20150030993A (en) * 2013-09-13 2015-03-23 한국전자통신연구원 Apparatus and method for providing contents experience service
KR20150058607A (en) * 2013-11-18 2015-05-29 인포뱅크 주식회사 Method for oupputing synthesized image, a terminal and a server thereof
KR20150125060A (en) * 2014-04-29 2015-11-09 주식회사 두드림 An system and method for providing experiential contents
KR20160139633A (en) * 2015-05-28 2016-12-07 주식회사 플렉싱크 An system and method for providing experiential contents using augmented reality
KR20170081544A (en) * 2016-01-04 2017-07-12 한국전자통신연구원 Apparatus and method for restoring experience items
US20180032031A1 (en) * 2016-08-01 2018-02-01 Integem Inc. Methods and systems for photorealistic human holographic augmented reality communication with interactive control in real-time

Also Published As

Publication number Publication date
KR102144556B1 (en) 2020-08-14

Similar Documents

Publication Publication Date Title
US10979624B2 (en) Methods and devices for establishing photographing template database and providing photographing recommendation information
CN108377334B (en) Short video shooting method and device and electronic terminal
US9811894B2 (en) Image processing method and apparatus
US10783702B2 (en) Imaging processing methods and systems using a target 3D model by performing 3D reconstruction on a target image
JP6079297B2 (en) Editing apparatus, editing method, and editing program
JP2019505148A (en) Apparatus and method for generating a panoramic image
US11477366B2 (en) Selfie setup and stock videos creation
US9437026B2 (en) Image creating device, image creating method and recording medium
US11496661B2 (en) Image processing apparatus and image processing method
JP2020095611A (en) Information processing unit, system, control method of information processing unit, and program
JP2010244398A (en) Image processing apparatus and image processing program
JP6101661B2 (en) Image composition apparatus, image composition method, image composition program, and recording medium storing image composition program
JP6275086B2 (en) Server, data providing method, and server program
KR102409103B1 (en) Method for editing image
US20190096104A1 (en) Personalized game pieces
CN110177216B (en) Image processing method, image processing device, mobile terminal and storage medium
JP2017188787A (en) Imaging apparatus, image synthesizing method, and image synthesizing program
KR102144556B1 (en) System, apparatus and method for producing experience based content
KR101738896B1 (en) Fitting virtual system using pattern copy and method therefor
JP2011044989A (en) Image processing apparatus, image processing program and image processing method
JP2019036876A (en) Image reading device, image forming apparatus, image reading method, and image reading program
JP2017184021A (en) Content providing device and content providing program
JP2018014141A (en) System, image sharing system, communication method and program
KR102218095B1 (en) Augmented Reality Implementation Method Using Person and Plane Recognition, and Medium Storing Instructions to Execute the method Thereof
KR102457568B1 (en) Electronic device for providing image associated with input information and operating method thereof

Legal Events

Date Code Title Description
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)