KR20090111945A - Method of composing image and motion picture and device using the same - Google Patents

Method of composing image and motion picture and device using the same Download PDF

Info

Publication number
KR20090111945A
KR20090111945A KR1020080037569A KR20080037569A KR20090111945A KR 20090111945 A KR20090111945 A KR 20090111945A KR 1020080037569 A KR1020080037569 A KR 1020080037569A KR 20080037569 A KR20080037569 A KR 20080037569A KR 20090111945 A KR20090111945 A KR 20090111945A
Authority
KR
South Korea
Prior art keywords
video
image
synthesizing
synthesis
touch screen
Prior art date
Application number
KR1020080037569A
Other languages
Korean (ko)
Other versions
KR101439550B1 (en
Inventor
김정호
Original Assignee
주식회사 케이티테크
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 케이티테크 filed Critical 주식회사 케이티테크
Priority to KR1020080037569A priority Critical patent/KR101439550B1/en
Publication of KR20090111945A publication Critical patent/KR20090111945A/en
Application granted granted Critical
Publication of KR101439550B1 publication Critical patent/KR101439550B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)
  • Processing Or Creating Images (AREA)

Abstract

PURPOSE: A method for synthesizing an image and a moving picture by using a touch screen and an apparatus thereof are provided to obtain a fun moving picture synthesis as predicting a synthesized moving picture. CONSTITUTION: A method for synthesizing an image and a moving picture by using a touch screen comprises the following steps of: selecting a synthesis object to be synthesized with the moving picture(S110); selecting the moving picture to be synthesized with the synthesis object(S120); reproducing the moving picture and designating the synthesis position of the synthesis object within the moving picture(S130); and then synthesizing the synthesis object with the moving picture.

Description

터치스크린을 이용한 이미지와 동영상의 합성 방법 및 이를 이용한 이미지와 동영상 합성 장치{METHOD OF COMPOSING IMAGE AND MOTION PICTURE AND DEVICE USING THE SAME}Method of compositing image and video using touch screen and image and video synthesizing apparatus using the same {METHOD OF COMPOSING IMAGE AND MOTION PICTURE AND DEVICE USING THE SAME}

본 발명은 이미지와 동영상의 합성 방법에 관한 것으로, 더욱 상세하게는 터치스크린을 이용한 이미지와 동영상의 합성 방법으로서 터치스크린을 통해 동영상과 합성될 대상 객체의 동영상 내 합성 위치를 지정하는 이미지와 동영상의 합성 방법 및 이를 이용한 이미지와 동영상 합성 장치에 관한 것이다.The present invention relates to a method of synthesizing an image and a video. More particularly, the present invention relates to a method of synthesizing an image and a video using a touch screen. The present invention relates to a composition method and an image and video composition apparatus using the same.

최근의 단말기들은 사용자의 요구를 충족시키기 위해 다양한 기능과 서비스를 제공하는 반면, 사용자 입력 장치로는 아직까지도 고정적인 매트릭스 배열을 가지는 키-패드가 주로 이용되고 있다. 예컨대, 단말기에 컬러 및 고해상도의 디스플레이 화면이 채용되고, 외형적으로도 슬림화, 소형화가 진행되는 중에도 사용자 입력 장치의 경우에는 종래의 키-패드 형태의 입력 장치에서 큰 변화가 없었던 것이다.Recently, terminals provide various functions and services to meet user's needs, while a key pad having a fixed matrix arrangement is still used as a user input device. For example, even when the display screen of color and high resolution is adopted in the terminal and the appearance and slimness and miniaturization are in progress, the user input device has not changed much from the conventional key-pad type input device.

이러한 키-패드를 이용한 사용자 인터페이스의 대안으로 장래 생산되는 단말기들의 상당 수는 터치-패드(touch pad) 또는 터치-스크린(touch screen)과 같은 터치 방식의 사용자 인터페이스로 채택할 것이 예상되고 있다. 이는 터치 방식 인터페이스 장치의 비용절감 및 종래의 터치 방식 인터페이스 장치들의 낮은 신뢰성과 수명의 문제가 해결된 결과이다.It is expected that a large number of terminals produced in the future as an alternative to the user interface using the key pad will be adopted as a touch type user interface such as a touch pad or a touch screen. This is a result of reducing the cost of the touch interface device and the problem of low reliability and life of the conventional touch interface device.

터치 패드(touch pad)는 압력 감지기가 달려 있는 평판으로서, 손가락이나 펜 등을 이용해 접촉하면 압력을 감지하여 화면의 지시자가 움직이고 이 위치 정보를 컴퓨터가 인식한다.A touch pad is a flat plate equipped with a pressure sensor. When a touch is made using a finger or a pen, a touch pad senses pressure to move an indicator on the screen, and the computer recognizes the position information.

터치스크린(touch screen)은 디스플레이 화면상의 한 점을 손가락 등으로 누르면 그 접촉점의 좌표를 출력하는 위치 감지기를 포함한다. 예컨대, 디스플레이 화면이 터치 패드의 역할을 겸하는 장치를 터치스크린으로 정의할 수 있다. The touch screen includes a position sensor that outputs the coordinates of the touch point when a point on the display screen is touched with a finger or the like. For example, a device in which the display screen serves as a touch pad may be defined as a touch screen.

이러한 터치 방식의 입력 장치들에는 압력식 저항막 방식, 접촉식 정전용량 방식, 표면초음파전도(Surface Acoustic Wave: SAW) 방식, 적외선 광 감지 방식 및 압전 방식 등의 기술이 적용된다. 이들 중, 터치스크린에는 투과율이 높고 반응속도가 빠르며 내성이 우수하여 작동환경의 영향을 적게 받는 압력식 저항막 방식이 일반적으로 가장 많이 채용되고 있다.Such touch-type input devices include a pressure resistive film method, a contact capacitance method, a surface acoustic wave (SAW) method, an infrared light sensing method, and a piezoelectric method. Among them, the pressure-sensitive resistive method which is high in transmittance, fast in response and excellent in resistance is less affected by the operating environment.

특히, 터치스크린은 사용자에게 화면상에 출력되는 내용과 화면을 통하여 입력되는 내용의 대화적이고 즉시적인 대응을 제공할 수 있고, 다양한 방식으로 다채로운 형태의 입력이 가능하여 높은 사용자 만족도와 사용상 편의성을 제공할 수 있다. 즉, 종래의 고정적인 배열을 가지는 키-패드와 같은 정형화된 사용자 입력 장치에 비하여 사용자 인터페이스를 구성하는 출력장치와 입력장치를 일체화시키는 개념으로서 다양한 형태의 입력과 출력을 동시에 가능하게 한다. 특히, 종래의 저 해상도 숫자 및 문자로 구성된 텍스트 기반 인터페이스에서 고해상도의 그래픽 기반 인터페이스로 변화되어 가면서, 그래픽 기반의 객체를 통한 입력을 실현하는 것이 가능해지고, 키-패드를 대체할 경우에는 키-패드 설치면적을 생략 가능하므로 동일한 체적을 가지는 단말기에서 상대적으로 대 화면의 디스플레이가 가능해진다는 장점 또한 가진다.In particular, the touch screen can provide a user with an interactive and immediate correspondence between the contents displayed on the screen and the contents input through the screen, and various types of inputs are possible to provide high user satisfaction and ease of use. can do. That is, as a concept of integrating the output device constituting the user interface and the input device as compared to the conventional user input device such as a key pad having a fixed arrangement, it enables various types of input and output at the same time. In particular, as a change from a conventional low resolution text-based interface consisting of numbers and letters to a high resolution graphic-based interface, it becomes possible to realize input through graphic-based objects, and in the case of replacing the key-pad, Since the installation area can be omitted, a display having a large screen can be relatively performed in a terminal having the same volume.

한편, 최근의 이동통신단말기는 카메라 모듈을 장착하여, 사용자가 언제나 휴대하는 이동통신단말기의 특성에 맞게 외부환경을 촬영하거나, 자신이나 동료의 모습을 언제 어디서나 정지 화상 또는 동영상으로 촬영하여 메모리에 저장할 수 있는 기능을 제공하고 있다. 그러나, 정지 화상 또는 동영상을 상기 터치 스크린을 이용하여 출력하면서 이를 용이하게 편집하거나 합성하는 기능을 제공하고 있지는 못하다.On the other hand, the recent mobile communication terminal is equipped with a camera module, to shoot the external environment in accordance with the characteristics of the mobile communication terminal that the user always carry, or to take a picture of yourself or colleagues anytime, anywhere as a still image or video to store in memory It provides a function that can. However, it does not provide a function of easily editing or composing a still image or a moving image by using the touch screen.

상기와 같은 문제점을 해결하기 위한 본 발명의 목적은, 터치스크린을 이용하여 합성 대상이 되는 동영상 상에 사용자가 선택한 객체 이미지를 합성하여 합성 동영상을 생성하는 방법을 제공하는데 있다.An object of the present invention for solving the above problems is to provide a method for generating a composite video by synthesizing an object image selected by a user on a video to be synthesized using a touch screen.

상기와 같은 문제점을 해결하기 위한 본 발명의 다른 목적은, 터치스크린을 이용하여 합성 대상이 되는 동영상 상에 사용자가 선택한 객체 이미지를 합성하여 합성 동영상을 생성하는 단말기를 제공하는데 있다.Another object of the present invention for solving the above problems is to provide a terminal for generating a composite video by synthesizing an object image selected by a user on a video to be synthesized using a touch screen.

상술한 목적을 달성하기 위한 본 발명은, 동영상과 합성될 합성대상 객체를 선택 받는 합성대상 객체 선택 단계, 상기 합성대상 객체와 합성될 동영상을 선택 받는 동영상 선택 단계 및 상기 동영상을 재생하며, 상기 재생되는 동영상 상에 상기 합성대상 객체의 합성위치를 터치스크린을 통하여 지정하여 상기 합성대상 객체를 상기 동영상 내에 합성하는 동영상 합성 단계를 포함한 것을 특징으로 하는 이미지와 동영상 합성 방법을 제공한다.In accordance with another aspect of the present invention, a composition object selection step of selecting a synthesis target object to be synthesized with a video, a video selection step of selecting a video to be synthesized with the synthesis target object, and playing the video are reproduced. And a video synthesizing step of synthesizing the synthesis target object in the video by designating a synthesis position of the synthesis target object on the moving picture through a touch screen.

여기에서, 상기 합성대상 객체 선택 단계는, 저장된 이미지를 터치스크린 상에 표시하고, 상기 저장된 이미지 상에 터치를 통하여 객체의 윤곽을 그리는 것에 의하여 상기 합성대상 객체를 선택 받도록 구성될 수 있다.The selecting of the object to be synthesized may be configured to receive the selection of the object to be synthesized by displaying the stored image on the touch screen and delineating the object through the touch on the stored image.

여기에서, 상기 합성대상 객체 선택 단계는, 동영상과 합성될 적어도 하나의 합성대상 객체 이미지를 터치스크린 상에 표시하고, 상기 표시된 적어도 하나의 합 성대상 객체 이미지 중에서 적어도 하나를 선택 받도록 구성될 수 있다.Here, the selecting of the synthesis target object may be configured to display at least one synthesis object image to be synthesized with a video on a touch screen, and receive at least one of the displayed at least one synthesis object image. .

여기에서, 상기 동영상 합성 단계는, 상기 재생되는 동영상 상에 터치를 중지할 경우에는 상기 합성대상 객체와 상기 동영상의 합성을 중지하고, 상기 재생되는 동영상 상에 터치를 재개할 경우에는 상기 합성대상 객체와 상기 동영상의 합성을 재개하도록 구성될 수 있다.Here, in the moving picture synthesis step, when the touch is stopped on the reproduced video, the synthesis target object stops the synthesis of the moving picture, and when the touch is resumed on the played video, the synthesis target object. And resume synthesis of the video.

여기에서, 상기 동영상 합성 단계에서, 상기 터치스크린을 통하여 지정된 상기 합성대상 객체의 합성 위치에는 상기 합성대상 객체가 오버레이(overlay) 형태로 표시되어, 상기 동영상과 상기 합성대상 객체의 합성결과를 프리뷰(preview) 형태로 제시하도록 구성될 수 있다.Here, in the video synthesizing step, the synthesis target object is displayed in an overlay form at the synthesis position of the synthesis target object designated through the touch screen, and previews the synthesis result of the video and the synthesis target object. can be configured to present in the form of a preview.

상술한 다른 목적을 달성하기 위한 본 발명은, 터치스크린, 적어도 하나의 이미지와 적어도 하나의 동영상을 저장하고 있는 저장부 및 상기 저장부에 저장된 적어도 하나의 이미지를 상기 터치 스크린 상에 출력하고, 출력된 적어도 하나의 이미지 중 적어도 하나의 이미지의 적어도 일부를 합성대상 객체 이미지로 선택하고, 상기 적어도 하나의 동영상을 출력하고, 출력된 적어도 하나의 동영상 중 하나를 합성대상 객체 이미지로 선택하여, 상기 동영상을 재생하며, 재생되는 동영상 상에 상기 합성대상 객체의 합성위치를 터치스크린에 대한 터치로 지정하여 입력받아 상기 합성대상 객체를 상기 동영상 내에 합성하는 제어 및 영상합성부를 포함하는 이미지와 동영상 합성 장치를 제공한다.According to another aspect of the present invention, a touch screen, a storage unit for storing at least one image and at least one video, and at least one image stored in the storage unit are output on the touch screen. Selecting at least a portion of at least one of the at least one image as a synthesis object image, outputting the at least one video, and selecting one of the at least one video output as the composition object image, And an image and video synthesizing apparatus including a control and an image synthesizing unit configured to receive and input a composition position of the synthesis target object as a touch on a touch screen on the played video. to provide.

여기에서, 상기 이미지와 동영상 합성 장치는 카메라 모듈을 추가로 포함하고, 상기 카메라 모듈은 촬영된 동영상 및/또는 촬영된 이미지를 상기 저장부에 저 장하도록 구성될 수 있다.The image and video synthesizing apparatus may further include a camera module, and the camera module may be configured to store the captured video and / or the captured image in the storage unit.

상기와 같은 본 발명에 따른 이미지와 동영상 합성 방법을 이용할 경우에는 동영상 내에 합성될 합성대상 객체를 편리하게 선택하여, 재생되는 동영상의 변화에 따라 터치스크린을 이용하여 합성대상 객체의 합성 위치를 즉시적으로 지정하는 방식으로 동작하는 것에 의하여 합성이 완료된 동영상을 예측하면서 재미있는 동영상 합성 효과를 얻을 수 있다.In the case of using the image and video composition method according to the present invention as described above, the composition object to be synthesized is conveniently selected in the video, and the composition position of the composition object can be immediately changed by using the touch screen according to the change of the reproduced video. By operating in such a way as to predict that the synthesized video can be obtained while obtaining a fun video synthesis effect.

특히, 상기와 같은 본 발명에 따른 이미지와 동영상 합성 방법을 카메라 모듈을 구비한 이동통신단말기에서 이용할 경우에는, 카메라 모듈을 이용하여 촬영한 동영상과 카메라 모듈을 이용하여 촬영한 이미지를 이동통신단말기내에서 터치스크린을 이용하여 즉시적으로 합성하고, 합성된 이미지를 MMS(Multimedia Message Service)로 전송하고, UCC(User Created Contents) 웹 사이트 등에 전송하는 등으로의 이용이 가능해진다. In particular, when the image and video composition method according to the present invention as described above is used in a mobile communication terminal equipped with a camera module, the video taken using the camera module and the image taken using the camera module in the mobile communication terminal Can be used for instant compositing using the touch screen, sending the synthesized images to a multimedia message service (MMS), sending them to a User Created Contents (UCC) website, and the like.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였다. As the invention allows for various changes and numerous embodiments, particular embodiments will be illustrated in the drawings and described in detail in the written description. However, this is not intended to limit the present invention to specific embodiments, it should be understood to include all modifications, equivalents, and substitutes included in the spirit and scope of the present invention. In describing the drawings, similar reference numerals are used for similar elements.

제1, 제2, A, B 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다. Terms such as first, second, A, and B may be used to describe various components, but the components should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, the first component may be referred to as the second component, and similarly, the second component may also be referred to as the first component. The term and / or includes a combination of a plurality of related items or any item of a plurality of related items.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. When a component is referred to as being "connected" or "connected" to another component, it may be directly connected to or connected to that other component, but it may be understood that other components may be present in between. Should be. On the other hand, when a component is said to be "directly connected" or "directly connected" to another component, it should be understood that there is no other component in between.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used herein is for the purpose of describing particular example embodiments only and is not intended to be limiting of the present invention. Singular expressions include plural expressions unless the context clearly indicates otherwise. In this application, the terms "comprise" or "have" are intended to indicate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, and one or more other features. It is to be understood that the present invention does not exclude the possibility of the presence or the addition of numbers, steps, operations, components, components, or a combination thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art. Terms such as those defined in the commonly used dictionaries should be construed as having meanings consistent with the meanings in the context of the related art and shall not be construed in ideal or excessively formal meanings unless expressly defined in this application. Do not.

이하, 본 발명에 따른 바람직한 실시예를 첨부된 도면을 참조하여 상세하게 설명한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.

본 발명에 따른 이미지와 동영상 합성 방법Image and video composition method according to the invention

도 1은 본 발명에 따른 이미지와 동영상 합성 방법을 설명하기 위한 순서도이다.1 is a flowchart illustrating a method of synthesizing an image and a video according to the present invention.

도 1을 참조하면, 본 발명에 따른 이미지와 동영상 합성 방법은 합성대상 객체 선택 단계(S110), 동영상 선택 단계(S120) 및 동영상 합성 단계(S130)를 포함하여 구성될 수 있다.Referring to FIG. 1, the method of synthesizing an image and a video according to the present invention may include a composition object selection step S110, a video selection step S120, and a video synthesis step S130.

먼저, 합성대상 객체 선택 단계(S110)는 동영상과 합성될 합성대상 객체(object)를 선택 받는 단계이다.First, the synthesis target object selection step (S110) is a step of receiving a composition target object to be synthesized with the video.

합성대상 객체를 선택받기 위한 방법으로는 여러 가지 방식이 이용될 수 있다. 대표적으로는, 저장된 이미지 내에서 객체를 추출하여 합성대상 객체를 선택하도록 구성될 수도 있으며, 합성대상 객체로 이용될 수 있는 여러 개의 합성대상 객 체의 후보 이미지들 중에서 적어도 하나를 선택 받는 방식이 이용될 수 있다.Various methods may be used as a method for selecting a synthesis target object. Representatively, the object may be configured to select a target object by extracting an object from a stored image, and a method of selecting at least one of candidate images of a plurality of target objects that may be used as the target object may be used. Can be.

도 2a는 본 발명에 따른 이미지와 동영상 합성방법에서 합성대상 객체를 선택 받는 방법의 일 예를 설명하기 위한 개념도이다.2A is a conceptual diagram illustrating an example of a method for receiving a selection target object in the image and video composition method according to the present invention.

도 2a를 참조하면, 저장된 이미지(220)를 터치스크린(210) 상에 표시하고, 상기 저장된 이미지 상에 터치를 통하여 객체의 윤곽(221)을 그리는 것에 의하여 합성대상 객체를 선정하는 방식이 예시되어 있다.Referring to FIG. 2A, a method of selecting a composition target object by displaying a stored image 220 on the touch screen 210 and drawing an outline 221 of an object through a touch on the stored image is illustrated. have.

예컨대, 도 2b에서는 저장된 이미지(220)에서 강아지의 머리에 해당되는 부분을 터치스크린에 대한 터치입력을 통하여 윤곽(221)을 그리고, 그려진 윤곽의 내측 부분(222)을 합성대상 객체로서 추출하는 경우가 예시되어 있다.For example, in FIG. 2B, when the portion corresponding to the dog's head in the stored image 220 is drawn through the touch input to the touch screen, the contour 221 is drawn, and the inner portion 222 of the drawn contour is extracted as the object to be synthesized. Is illustrated.

또는, 상기의 경우에는 사용자가 직접 객체의 윤곽선을 그리는 것에 의해서 추출될 합성대상 객체를 선택하는 방식이지만, 저장된 이미지 내에서 영상 처리(image processing)을 통하여 자동적으로 객체를 분리시키고, 추출 가능한 객체의 후보들에 윤곽선을 표시하여 사용자에게 제시하고 윤곽선이 표시된 객체들 중에서 터치를 통하여 합성대상 객체를 선정하는 방식 또한 이용될 수 있을 것이다.Alternatively, in the above case, the user selects a composition target object to be extracted by directly drawing an outline of the object, but automatically separates the object through image processing in the stored image, It is also possible to use a method of displaying the outlines on the candidates and presenting them to the user, and selecting the object to be synthesized by touching among the outlined objects.

한편, 여기에서 저장된 이미지는 본 발명에 따른 이미지와 동영상 합성 방법이 수행되는 장치에 카메라 모듈이 포함되어 있거나, 카메라 장치가 연결되어 있는 경우에는 카메라 모듈을 통하여 촬영되어 메모리 장치 또는 메모리 카드 내에 저장되어 있거나, 카메라 장치로부터 소정의 인터페이스(USB, IEEE-1394 등)를 이용하여 다운로드 받은 이미지를 의미한다.On the other hand, the image stored here is a camera module is included in the device for performing the image and video composition method according to the present invention, or when the camera device is connected is taken through the camera module and stored in the memory device or memory card Or an image downloaded from a camera apparatus using a predetermined interface (USB, IEEE-1394, etc.).

도 2b는 본 발명에 따른 이미지와 동영상 합성방법에서 합성대상 객체를 선 택 받는 방법의 다른 예를 설명하기 위한 개념도이다.2B is a conceptual diagram illustrating another example of a method for selecting a composition target object in the image and video composition method according to the present invention.

도 2b를 참조하면, 동영상과 합성될 적어도 하나의 합성대상 객체 이미지들(223, 224, 225, 226)를 터치스크린(210) 상에 표시하고, 상기 표시된 적어도 하나의 합성대상 객체 이미지 중에서 적어도 하나를 선택 받는 경우가 예시되어 있다.Referring to FIG. 2B, at least one composite object image 223, 224, 225, and 226 to be synthesized with a video is displayed on the touch screen 210, and at least one of the displayed at least one composite object image is displayed. The case of selecting is illustrated.

도 2a에서 예시된 방식과의 차이점은, 도 2a에서는 사용자가 직접 저장된 이미지 내에서 합성대상 객체를 추출하는 방식이 예시되었지만, 도 2b에서는 동영상과 합성될 합성대상 객체의 후보들이 동영상에 합성되기에 적절한 사이즈로 미리 추출되어 썸네일(thumb nail) 형태의 작은 아이콘으로 표시되고, 표시된 합성대상 객체의 후보들 중에서 적어도 하나를 선택하도록 구성된다는 점이다.A difference from the method illustrated in FIG. 2A is that in FIG. 2A, a method of extracting a synthesis object from a directly stored image is illustrated. However, in FIG. 2B, candidates of the object to be synthesized with the video are synthesized in the video. It is pre-extracted to an appropriate size and displayed as a small icon in the form of a thumbnail, and configured to select at least one of candidates of the displayed synthesis target object.

한편, 도 2a와 도 2b에서는 하나의 합성대상 객체를 선택 받는 것을 예시하고 있으나, 본 발명에 따른 이미지와 동영상 합성 방법에서는 합성대상 객체가 하나일 필요 없이, 두 개 이상의 합성 대상 객체를 선택하고, 두 개 이상의 합성대상 객체를 합성하여 합성대상 객체로 이용하는 경우도 가능할 것이다.Meanwhile, in FIGS. 2A and 2B, one synthesis target object is selected. However, in the method of synthesizing an image and a video according to the present invention, two or more synthesis target objects are selected, without needing to be one. It is also possible to synthesize two or more objects to be synthesized and use them as the objects to be synthesized.

또한, 저장된 이미지에서 추출하거나, 합성대상 객체 후보에서 선택하는 방식 대신에 직접 사용자가 터치스크린을 통하여 합성대상 객체를 그리고 그려진 이미지를 합성대상 객체로 이용하는 방식도 물론 가능할 것이다.In addition, instead of extracting from a stored image or selecting from a candidate for synthesis target, a method of directly using a touch screen and a drawn image of the target object by the user may be possible.

다음으로, 동영상 선택 단계(S120)는 상기 합성대상 객체와 합성될 동영상을 선택 받는 단계이다.Next, the video selection step (S120) is a step of receiving a video to be synthesized with the synthesis target object.

합성대상 객체와 합성될 동영상은 MPEG, AVI 등의 다양한 형식의 디지털 영 상 데이터의 형태로 준비될 수 있다. 예컨대, 앞서 언급된 바와 같이, 본 발명에 따른 이미지와 동영상 합성 방법이 수행되는 장치에 카메라 모듈이 포함되어 있거나, 카메라 장치가 연결되어 있는 경우에는 카메라 모듈을 통하여 촬영되어 메모리 장치 또는 메모리 카드 내에 저장되어 있거나, 카메라 장치로부터 소정의 인터페이스(USB, IEEE-1394 등)를 이용하여 다운로드 받은 동영상 데이터가 동영상 선택 단계(S120)에서 합성대상 객체와 합성될 동영상으로 선택될 수 있다.The object to be synthesized and the video to be synthesized may be prepared in the form of digital image data in various formats such as MPEG and AVI. For example, as mentioned above, a camera module is included in a device in which an image and video composition method according to the present invention is performed, or when a camera device is connected, the camera module is photographed and stored in a memory device or a memory card. Video data downloaded from a camera apparatus using a predetermined interface (USB, IEEE-1394, etc.) may be selected as a video to be synthesized with the object to be synthesized in the video selection step S120.

한편, 상술된 합성대상 객체 선택 단계(S110)와 동영상 선택 단계(S120)는 설명의 편의상 순서대로 설명되었을 뿐, 동영상 선택 단계(S120)가 합성대상 객체 선택 단계(S110)보다 앞서 수행되거나, 동영상 선택 단계(S120)와 합성대상 객체 선택 단계(S110)가 동시에 수행되는 경우도 본 발명에 따른 이미지와 동영상 합성방법에 포함될 것이다. 예컨대, 한 화면 내에서 합성대상 객체와 동영상을 함께 선택 가능하다.Meanwhile, the above-described synthesis target object selection step S110 and the video selection step S120 are only described in order for convenience of description, and the video selection step S120 is performed before the synthesis target object selection step S110 or a video. The case where the selection step S120 and the synthesis object selection step S110 are performed at the same time will also be included in the image and video composition method according to the present invention. For example, the composition target object and the video can be selected together in one screen.

마지막으로, 동영상 합성 단계(S130)는 앞서 동영상 선택 단계(S120)에서 선택된 동영상을 재생하며, 재생되는 동영상 상에 합성대상 객체 선택 단계(S110)에서 선택된 합성대상 객체의 합성위치를 터치스크린을 통하여 지정하여 합성대상 객체를 동영상 내에 합성하는 단계이다.Finally, the video compositing step (S130) plays the video selected earlier in the video selection step (S120), the composition position of the compositing target object selected in the composing object selection step (S110) on the video to be reproduced through the touch screen This step is to synthesize the object to be composed in the video.

도 2c는 본 발명에 따른 이미지와 동영상 합성방법에서 동영상과 합성대상 객체를 합성하는 과정을 설명하기 위한 개념도이다.2C is a conceptual diagram illustrating a process of synthesizing a video and a target object in a method of synthesizing an image and a video according to the present invention.

도 2c를 참조하면, 터치스크린(210)을 일부 분할하여, 상측부에는 선택된 동영상(230)이 재생되며, 하측부에는 도 2b에서 설명된 바 있는 합성대상 객체 후보 이미지들(223 내지 226)이 표시되어 있다.Referring to FIG. 2C, the touch screen 210 is partially divided, and the selected video 230 is reproduced in the upper portion, and the composite object candidate images 223 to 226 described in FIG. 2B are formed in the lower portion. Is indicated.

이때, 사용자는 터치스크린(210)에 대하여 손가락이나 스타일러스 펜(240)을 이용하여 재생되는 동영상(230)의 소정 위치(즉, 합성대상 객체가 합성될 위치)를 지정하는 방식으로 합성대상 객체의 합성 위치를 지정한다.In this case, the user may designate a predetermined position (that is, a position at which the synthesis target object is to be synthesized) of the video 230 to be played using the finger or the stylus pen 240 with respect to the touch screen 210. Specifies the composite location.

즉, 동영상이 재생됨에 따라서, 동영상 내에 합성대상 객체가 합성되기를 사용자가 원하는 위치는 변경될 수 있으므로, 사용자는 동영상을 시청하면서 지속적으로 동영상 내에 합성대상 객체가 합성될 위치를 지정하는 방식으로 동영상 합성 단계(S130)는 수행될 수 있다. 이때, 손가락이나 스타일러스 펜(240)이 터치된 터치스크린의 위치(즉, 합성대상 객체가 합성될 위치)에는 합성대상 객체를 오버레이(overlay) 상태로 출력하여 사용자가 합성 이후의 동영상을 미리 예측할 수 있도록 하는 프리뷰(preview) 형식의 화면이 제공되는 것이 바람직할 것이다.That is, as the video is played, the position desired by the user to be synthesized in the video may be changed, and thus, the user synthesizes the video in such a manner as to designate the location where the object to be synthesized is synthesized in the video while watching the video. Step S130 may be performed. At this time, the user can predict the video after compositing by outputting the compositing object in an overlay state at the position of the touch screen where the finger or the stylus pen 240 is touched (that is, the compositing object to be synthesized). It would be desirable to be provided with a preview type screen.

한편, 상기 동영상 합성 단계(S130)에서는 재생되는 동영상 상에 터치를 중지할 경우에는 합성대상 객체와 동영상의 합성을 중지하고, 재생되는 동영상 상에 터치를 재개할 경우에는 합성대상 객체와 동영상의 합성을 재개하는 방식으로 동작될 수 있다.Meanwhile, in the video synthesizing step (S130), when the touch is stopped on the video being played, the synthesis of the object and the video is stopped, and when the touch is resumed on the video, the synthesis of the object and the video is synthesized. It can be operated in such a way as to resume.

예컨대, 사용자가 전체 동영상 중에서 일부 재생 구간에 대해서만 합성대상 객체를 동영상에 합성시키기를 원하고, 일부 재생 구간에 대해서는 합성대상 객체가 동영상에 합성되기를 원하지 않을 경우에는, 터치스크린에 대한 터치동작을 일시 중지하거나 재개하는 것에 의하여 동영상의 합성여부를 결정짓도록 구성될 수 있을 것이다.For example, if the user wants to synthesize the object to be synthesized in the video only for some playback sections of the entire video, and the object to be synthesized in the video for some playback sections, the touch operation for the touch screen is paused. It may be configured to determine whether the video is synthesized by stopping or resuming.

한편, 도 2c에서는 동영상이 재생되는 중에도 터치스크린(210)의 하측부에는 합성대상 객체 후보 이미지들(223~226)이 표시되어 있는 경우를 예시하고 있다. 즉, 동영상 합성 중에도 합성대상 객체의 변경이 가능할 수 있다.Meanwhile, FIG. 2C illustrates a case where the candidate image candidate images 223 to 226 are displayed on the lower portion of the touch screen 210 even while the video is being played. That is, the composition target object may be changed even during video synthesis.

예컨대, 웃는 사람의 얼굴(225)을 동영상에 합성시키다가, 우는 사람의 얼굴(226)로 합성대상 객체의 변경이 가능하다. 이 경우, 스타일러스 펜(240)이나 손가락을 통하여 터치스크린의 하측부에 위치한 합성대상 객체에서 새로운 합성대상 객체를 선택한 후, 터치스크린 상측부에 위치한 동영상 재생 영역(230)을 다시 터치하는 것에 의하여 동영상 합성을 재개할 수 있다. 이때, 손가락이나 스타일러스 펜(240)이 터치된 터치스크린의 위치에는 현재 선택된 합성대상 객체의 이미지를 표시하는 것에 의해 현재 선택된 합성대상 객체가 무엇인지를 사용자가 바로 알 수 있도록 할 수 있다.For example, while the face 225 of the smiling person is synthesized in the video, the face of the crying person 226 may be changed into the object to be synthesized. In this case, after selecting a new object to be synthesized from the object to be positioned on the lower side of the touch screen using the stylus pen 240 or a finger, the video is reproduced by touching the video play area 230 located at the upper side of the touch screen again. Synthesis can be resumed. In this case, the user may immediately know what is the currently selected synthetic target object by displaying an image of the currently selected synthetic target object at the position of the touch screen where the finger or the stylus pen 240 is touched.

마지막으로, 동영상 합성 단계(S130)를 마친 이후에는 합성된 동영상이 본 발명에 따른 이미지와 동영상 합성 방법이 수행되는 장치의 메모리에 저장된다.Finally, after finishing the video synthesizing step (S130), the synthesized video is stored in the memory of the device in which the image and video compositing method according to the present invention is performed.

본 발명에 따른 이미지와 동영상 합성 장치Image and video synthesizing apparatus according to the present invention

도 3은 본 발명에 따른 이미지와 동영상 합성 장치의 구성예를 설명하기 위한 블록도이다.3 is a block diagram illustrating a configuration example of an image and video synthesizing apparatus according to the present invention.

도 3을 참조하면, 본 발명에 따른 이미지와 동영상 합성 장치(300)는 터치스크린(310), 저장부(320), 제어 및 영상 합성부(330)를 포함하여 구성될 수 있다. 추가적인 구성요소로서, 상기 이미지와 동영상 합성 장치(300)는 카메라 모듈(340) 을 포함할 수 있다.Referring to FIG. 3, the image and video synthesizing apparatus 300 according to the present invention may include a touch screen 310, a storage 320, and a control and image synthesizing unit 330. As an additional component, the image and video synthesizing apparatus 300 may include a camera module 340.

이때, 본 발명에 따른 이미지와 동영상 합성 장치는 이동통신단말기, PDA(Personal Digital Assistant), UMPC(Ultra Mobile PC) 등의 휴대용 장치이거나, 터치스크린을 구비한 노트북 PC 등 다양한 장치들 중의 하나가 될 수 있다.In this case, the image and video synthesizing apparatus according to the present invention may be a portable device such as a mobile communication terminal, a PDA (Personal Digital Assistant), a UMPC (Ultra Mobile PC), or one of various devices such as a notebook PC having a touch screen. Can be.

먼저, 터치스크린(310)은 압력식 저항막 방식, 접촉식 정전용량 방식, 표면초음파전도(SAW) 방식, 적외선 광 감지 방식 및 압전 방식 등을 이용한 터치스크린이 이용될 수 있다. 특히, 압력식 저항막 방식이 투과율이 높고 반응속도가 빠르며 내성이 우수하여 작동환경의 영향을 적게 받는 장점을 가지고 있으므로 주로 이용될 수 있을 것이다.First, the touch screen 310 may be a touch screen using a pressure resistive film method, a contact capacitance method, a surface ultrasonic conduction (SAW) method, an infrared light sensing method, and a piezoelectric method. In particular, the pressure resistive membrane method may be mainly used because it has a high permeability, a fast reaction rate, and excellent resistance and thus less influence of the operating environment.

다음으로, 저장부(320)는 적어도 하나의 이미지와 적어도 하나의 동영상을 저장하고 있는 구성요소이다. 저장부(320)는 다양한 형태의 저장 장치로 구성될 수 있다. 예컨대, NAND 또는 NOR 플래쉬(flash) 메모리 장치 등의 불휘발성(non-volatile) 메모리 장치가 이용되는 것이 바람직할 것이나, 하드디스크(HDD: Hard Disk Drive), 광학 디스크(ODD: Optical Disk Drive) 등의 저장 장치가 이용될 수도 있을 것이다.Next, the storage 320 is a component that stores at least one image and at least one video. The storage unit 320 may be configured with various types of storage devices. For example, a non-volatile memory device such as a NAND or NOR flash memory device may be preferably used, but a hard disk drive (HDD), an optical disk drive (ODD), or the like may be used. May be used.

또한, 여기에서 저장부(320)는 이미지와 동영상 합성 장치(300)내에 내장(built-in)된 형태가 아니라, 메모리 카드(SD, Micro-SD, CF, MMC, Memory-Stick)의 형태로 본 발명에 따른 이미지와 동영상 합성 장치(300)에 착탈식으로 삽입되어 동작하는 형태의 저장장치를 포괄하는 개념이다.In addition, the storage unit 320 is not built-in in the image and video synthesizing apparatus 300, but in the form of a memory card (SD, Micro-SD, CF, MMC, Memory-Stick). The concept encompasses a storage device that is inserted into and detachably inserted into the image and video synthesizing apparatus 300 according to the present invention.

추가적으로, 이미지와 동영상 합성 장치(300)는 카메라 모듈(340)을 가질 수 있으며, 상기 카메라 모듈(340)이 장비된 경우에는, 카메라 모듈(340)을 통하여 촬영된 정지화상 이미지나 촬영된 동영상을 상기 저장부(320)에 저장하도록 구성될 수 있다. 이미지와 동영상 합성 장치(300)가 카메라 모듈(340)을 내장하지 않은 경우에는 적절한 인터페이스(USB, IEEE-1394)를 통하여 외부의 카메라 장치나 외부의 저장공간으로부터 저장부(320)에 다운로드 될 수 있다.In addition, the image and video synthesizing apparatus 300 may have a camera module 340. When the camera module 340 is equipped, a still image image or a captured video photographed through the camera module 340 is provided. It may be configured to store in the storage 320. If the image and video synthesizing apparatus 300 does not have a built-in camera module 340, it may be downloaded to the storage unit 320 from an external camera apparatus or an external storage space through an appropriate interface (USB, IEEE-1394). have.

마지막으로, 제어 및 영상 합성부(330)는 저장부에 저장된 적어도 하나의 이미지를 상기 터치 스크린 상에 출력하고, 출력된 적어도 하나의 이미지 중 적어도 하나의 이미지의 적어도 일부를 합성대상 객체 이미지로 선택 받으며, 적어도 하나의 동영상을 출력하고, 출력된 적어도 하나의 동영상 중 하나를 합성대상 객체 이미지로 선택 받으며, 선택된 동영상을 재생하며, 재생되는 동영상 상에 합성대상 객체의 합성위치를 터치스크린에 대한 터치로 지정하여 입력받아 상기 합성대상 객체를 상기 동영상 내에 합성하는 구성요소이다.Finally, the control and image synthesizing unit 330 outputs at least one image stored in the storage unit on the touch screen, and selects at least a portion of at least one image of the at least one outputted image as the object to be synthesized. Receiving a video, outputting at least one video, selecting one of the at least one video output as the composition object image, playing the selected video, and touching the composition position of the composition object on the played video on the touch screen. It is a component that synthesizes the synthesis target object in the video by receiving the input.

상술된 제어 및 영상 합성부(330)의 동작을 수행하기 위해서, 제어 및 영상 합성부(330)는 프로세서 유닛(processor unit; 331)과 상기 일련의 동작을 기술한 프로그램 코드들 및 프로그램 코드들을 저장할 수 있는 코드(code) 및 데이터(data) 메모리(334)를 포함하여 구성될 수 있다. 코드 및 데이터 메모리(334)는 제어 및 영상 합성부(330)내에 D-RAM(Dynamic RAM) 또는 S-RAM(Static RAM) 등을 이용하여 구현될 수 있다.In order to perform the operation of the control and image synthesizing unit 330 described above, the control and image synthesizing unit 330 stores a processor unit 331 and program codes and program codes describing the series of operations. And memory 334, which may be code and data. The code and data memory 334 may be implemented in the control and image synthesizing unit 330 using D-RAM (Dynamic RAM) or S-RAM (Static RAM).

또한, 제어 및 영상 합성부(330)는 선택된 동영상의 동영상 데이터를 저장부(320)로부터 독출하면서 압축코딩된 동영상 데이터를 디코딩시키는 영상 디코 더(decoder; 333) 등의 구성요소를 추가로 포함할 수 있다. 한편, 도 3에서는 별도의 하드웨어 구성요소로서 영상 디코더(332)를 도시하였으나, 상기 영상 디코더(333)는 상기 프로세서 유닛에서 압축코딩된 동영상 데이터를 디코딩시키는 동작을 소프트웨어적으로 수행하는 소프트웨어 디코더로서 구현될 수도 있을 것이다. In addition, the control and image synthesizer 330 may further include components such as an image decoder 333 which decodes the compressed coded video data while reading the video data of the selected video from the storage 320. Can be. Meanwhile, although FIG. 3 illustrates an image decoder 332 as a separate hardware component, the image decoder 333 is implemented as a software decoder for performing an operation of decoding the compressed coded video data in the processor unit. It could be.

또한, 제어 및 영상 합성부(330)는 터치스크린을 이용하여 지정된 합성위치에 합성대상 객체를 포함시켜, 동영상을 다시 재 인코딩시키는 영상 인코더(encoder; 332)의 구성요소를 추가로 포함할 수 있다. 한편, 도 3에서는 별도의 하드웨어 구성요소로서 영상 인코더(332)를 도시하였으나, 상기 영상 인코더(332)는 마찬가지로, 프로세서 유닛에서 상기 동영상 데이터를 재인코딩하여 생성하는 동작을 소프트웨어적으로 수행하는 소프트웨어 인코더로 구성될 수도 있을 것이다.In addition, the control and image synthesizing unit 330 may further include a component of an image encoder 332 for re-encoding a video by including the object to be synthesized at a designated composition position using a touch screen. . In FIG. 3, the image encoder 332 is illustrated as a separate hardware component. However, the image encoder 332 likewise uses a software encoder to perform an operation of re-encoding and generating the video data in a processor unit. It may consist of.

한편, 제어 및 영상 합성부(330)는 합성된 동영상을 상기 저장부에 다시 저장하도록 구성될 수 있다. 즉, 상기 영상 인코더(332)는 재인코딩되어 생성된 동영상을 저장부(320)으로 출력하고 저장부(320)에서는 생성된 동영상을 저장하도록 구성될 수 있다.Meanwhile, the control and image synthesizing unit 330 may be configured to store the synthesized video again in the storage unit. That is, the image encoder 332 may be configured to output the re-encoded generated video to the storage 320 and store the generated video in the storage 320.

상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다. Although described above with reference to a preferred embodiment of the present invention, those skilled in the art will be variously modified and changed within the scope of the invention without departing from the spirit and scope of the invention described in the claims below I can understand that you can.

도 1은 본 발명에 따른 이미지와 동영상 합성 방법을 설명하기 위한 순서도이다.1 is a flowchart illustrating a method of synthesizing an image and a video according to the present invention.

도 2a는 본 발명에 따른 이미지와 동영상 합성방법에서 합성대상 객체를 선택 받는 방법의 일 예를 설명하기 위한 개념도이다.2A is a conceptual diagram illustrating an example of a method for receiving a selection target object in the image and video composition method according to the present invention.

도 2b는 본 발명에 따른 이미지와 동영상 합성방법에서 합성대상 객체를 선택 받는 방법의 다른 예를 설명하기 위한 개념도이다.2B is a conceptual diagram illustrating another example of a method of receiving a selection target object in the image and video composition method according to the present invention.

도 2c는 본 발명에 따른 이미지와 동영상 합성방법에서 동영상과 합성대상 객체를 합성하는 과정을 설명하기 위한 개념도이다.2C is a conceptual diagram illustrating a process of synthesizing a video and a target object in a method of synthesizing an image and a video according to the present invention.

도 3은 본 발명에 따른 이미지와 동영상 합성 장치의 구성예를 설명하기 위한 블록도이다.3 is a block diagram illustrating a configuration example of an image and video synthesizing apparatus according to the present invention.

<도면의 주요 부분에 대한 부호의 설명><Explanation of symbols for the main parts of the drawings>

310: 터치 스크린 320: 저장부310: touch screen 320: storage unit

330: 제어 및 영상 합성부330: control and image synthesis unit

331: 프로세서 유닛 332: 영상 인코더331: Processor unit 332: Image encoder

333: 영상 디코더 334: 코드 및 데이터 메모리333: Image decoder 334: Code and data memory

340: 카메라 모듈340: camera module

Claims (8)

동영상과 합성될 합성대상 객체를 선택 받는 합성대상 객체 선택 단계;Synthesizing object selection step of selecting a synthesis object to be synthesized with the video; 상기 합성대상 객체와 합성될 동영상을 선택 받는 동영상 선택 단계; 및A video selection step of selecting a video to be synthesized with the synthesis target object; And 상기 동영상을 재생하며, 상기 재생되는 동영상 상에 상기 합성대상 객체의 합성위치를 터치스크린을 통하여 지정하여 상기 합성대상 객체를 상기 동영상 내에 합성하는 동영상 합성 단계를 포함한 것을 특징으로 하는 이미지와 동영상 합성 방법.And a video synthesizing step of synthesizing the synthesizing target object in the video by playing the video and designating a composing position of the synthesizing target object on the played video through a touch screen. . 제 1 항에 있어서,The method of claim 1, 상기 합성대상 객체 선택 단계는,The synthesizing object selection step, 저장된 이미지를 터치스크린 상에 표시하고, 상기 저장된 이미지 상에 터치를 통하여 객체의 윤곽을 그리는 것에 의하여 상기 합성대상 객체를 선택 받는 것을 특징으로 하는 이미지와 동영상 합성 방법.And displaying the stored image on the touch screen and selecting the object to be synthesized by delineating the object through the touch on the stored image. 제 1 항에 있어서,The method of claim 1, 상기 합성대상 객체 선택 단계는,The synthesizing object selection step, 동영상과 합성될 적어도 하나의 합성대상 객체 이미지를 터치스크린 상에 표시하고, 상기 표시된 적어도 하나의 합성대상 객체 이미지 중에서 적어도 하나를 선택 받는 것을 특징으로 하는 이미지와 동영상 합성 방법. And displaying at least one synthesis object image to be synthesized with a video on a touch screen, and receiving at least one of the displayed at least one composition object image. 제 1 항에 있어서,The method of claim 1, 상기 동영상 합성 단계는, 상기 재생되는 동영상 상에 터치를 중지할 경우에는 상기 합성대상 객체와 상기 동영상의 합성을 중지하고, 상기 재생되는 동영상 상에 터치를 재개할 경우에는 상기 합성대상 객체와 상기 동영상의 합성을 재개하는 것을 특징으로 하는 이미지와 동영상 합성 방법.The synthesizing of the video may include stopping the synthesis of the synthesis target object and the video when the touch is stopped on the played video, and resuming the touch on the played video by the synthesis object and the video. And a method for compositing the image and video. 제 1 항에 있어서,The method of claim 1, 상기 동영상 합성 단계에서,In the video synthesis step, 상기 터치스크린을 통하여 지정된 상기 합성대상 객체의 합성 위치에는 상기 합성대상 객체가 오버레이(overlay) 형태로 표시되어, 상기 동영상과 상기 합성대상 객체의 합성결과를 프리뷰(preview) 형태로 제시하는 것을 특징으로 하는 이미지와 동영상 합성 방법.The composition target object is displayed in an overlay form at the composition position of the composition target object specified through the touch screen, and presents a result of synthesizing the video and the composition object in a preview form. How to composite images and videos. 터치스크린;touch screen; 적어도 하나의 이미지와 적어도 하나의 동영상을 저장하고 있는 저장부;A storage unit which stores at least one image and at least one video; 상기 저장부에 저장된 적어도 하나의 이미지를 상기 터치 스크린 상에 출력하고, 출력된 적어도 하나의 이미지 중 적어도 하나의 이미지의 적어도 일부를 합성대상 객체 이미지로 선택하고, 상기 적어도 하나의 동영상을 출력하고, 출력된 적어도 하나의 동영상 중 하나를 합성대상 객체 이미지로 선택하여, 상기 동영상을 재생하며, 재생되는 동영상 상에 상기 합성대상 객체의 합성위치를 터치스크린에 대한 터치로 지정하여 입력받아 상기 합성대상 객체를 상기 동영상 내에 합성하는 제어 및 영상합성부를 포함하는 이미지와 동영상 합성 장치.Outputting at least one image stored in the storage unit on the touch screen, selecting at least a portion of at least one image among the at least one outputted image as a composition object image, and outputting the at least one video, Select one of the at least one video output as a composition target object image, play the video, and input a composition position of the synthesis target object by touching a touch screen on the played video to receive the input image; And a video synthesizing apparatus including a control and an image synthesizing unit for synthesizing the video into the video. 제 6 항에 있어서,The method of claim 6, 상기 이미지와 동영상 합성 장치는 카메라 모듈을 추가로 포함하고, 상기 카메라 모듈은 촬영된 동영상 및/또는 촬영된 이미지를 상기 저장부에 저장하는 것을 특징으로 하는 이미지와 동영상 합성 장치.The image and video synthesizing apparatus further includes a camera module, wherein the camera module stores the captured video and / or the captured image in the storage unit. 제 7 항에 있어서,The method of claim 7, wherein 상기 제어 및 영상합성부는 합성된 동영상을 상기 저장부에 저장하는 것을 특징으로 하는 이미지와 동영상 합성 장치.And the control and image synthesizer stores the synthesized video in the storage unit.
KR1020080037569A 2008-04-23 2008-04-23 Method of composing image and motion picture and device using the same KR101439550B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020080037569A KR101439550B1 (en) 2008-04-23 2008-04-23 Method of composing image and motion picture and device using the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020080037569A KR101439550B1 (en) 2008-04-23 2008-04-23 Method of composing image and motion picture and device using the same

Publications (2)

Publication Number Publication Date
KR20090111945A true KR20090111945A (en) 2009-10-28
KR101439550B1 KR101439550B1 (en) 2014-09-11

Family

ID=41553187

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020080037569A KR101439550B1 (en) 2008-04-23 2008-04-23 Method of composing image and motion picture and device using the same

Country Status (1)

Country Link
KR (1) KR101439550B1 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014085823A1 (en) * 2012-12-02 2014-06-05 Bachir Babale Virtual decals for precision alignment and stabilization of motion graphics on mobile video
WO2015105215A1 (en) * 2014-01-09 2015-07-16 이용수 Method and apparatus for editing media using touch input
WO2017200232A1 (en) * 2016-05-20 2017-11-23 Lg Electronics Inc. Mobile terminal and control method thereof
WO2017217789A1 (en) * 2016-06-17 2017-12-21 (주)잼투고 Video content generating system and method using cooperation of plurality of performance objects
US10079977B2 (en) 2016-05-20 2018-09-18 Lg Electronics Inc. Mobile terminal and control method thereof
KR102193469B1 (en) * 2019-06-20 2020-12-21 엔에이치엔 주식회사 Computer device and method to perform image conversion
KR102661488B1 (en) * 2024-01-19 2024-04-26 주식회사 더매트릭스 Servers, systems, methods and programs that provide special effect creation and 3d model creation services using generative ai models

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100663555B1 (en) * 2003-02-08 2007-01-02 삼성전자주식회사 Method for compositing data in mobile phone with camera and touch screen
KR100557154B1 (en) * 2003-07-29 2006-03-03 삼성전자주식회사 Method for displaying of picture in wireless terminal
KR20050047800A (en) * 2003-11-18 2005-05-23 김영면 Apparatus and system for making a moving picture
KR20060058182A (en) * 2004-11-24 2006-05-29 박성진 Image synthesizer module

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014085823A1 (en) * 2012-12-02 2014-06-05 Bachir Babale Virtual decals for precision alignment and stabilization of motion graphics on mobile video
WO2015105215A1 (en) * 2014-01-09 2015-07-16 이용수 Method and apparatus for editing media using touch input
WO2017200232A1 (en) * 2016-05-20 2017-11-23 Lg Electronics Inc. Mobile terminal and control method thereof
US10079977B2 (en) 2016-05-20 2018-09-18 Lg Electronics Inc. Mobile terminal and control method thereof
WO2017217789A1 (en) * 2016-06-17 2017-12-21 (주)잼투고 Video content generating system and method using cooperation of plurality of performance objects
KR102193469B1 (en) * 2019-06-20 2020-12-21 엔에이치엔 주식회사 Computer device and method to perform image conversion
KR102661488B1 (en) * 2024-01-19 2024-04-26 주식회사 더매트릭스 Servers, systems, methods and programs that provide special effect creation and 3d model creation services using generative ai models

Also Published As

Publication number Publication date
KR101439550B1 (en) 2014-09-11

Similar Documents

Publication Publication Date Title
US20220342519A1 (en) Content Presentation and Interaction Across Multiple Displays
US10200634B2 (en) Video generation method, apparatus and terminal
TWI459282B (en) Method and system and computer readable product for providing a user interface for accessing multimedia items
US7817143B2 (en) Method of inputting function into portable terminal and button input apparatus of portable terminal using the same
KR20090111945A (en) Method of composing image and motion picture and device using the same
CN102792254B (en) For providing the method and system of the background content of virtual key input device
TWI411304B (en) Electronic apparatus of playing and editing multimedia data
US20090172598A1 (en) Multimedia reproducing apparatus and menu screen display method
CN103257996B (en) The apparatus and method for coding and decoding image file
KR20140139859A (en) Method and apparatus for user interface for multimedia content search
CN107748615B (en) Screen control method and device, storage medium and electronic equipment
KR20190070955A (en) Picture processing method and apparatus, electronic device, and graphical user interface
JP2012124612A (en) Display controller, display control method, program, and storage medium
CN106341538A (en) Lyrics poster push method and mobile terminal
CN113918522A (en) File generation method and device and electronic equipment
JP2004199299A (en) Handwritten information recording method and projection recording device
US20050191036A1 (en) Information processing apparatus and method, program therefor and storage medium
KR20100001490A (en) Method for inputting memo on screen of moving picture in portable terminal and portable terminal performing the same
US20070101270A1 (en) Method and system for generating a presentation file for an embedded system
US20070005617A1 (en) Display control method, content data reproduction apparatus, and program
JP2010154089A (en) Conference system
WO2023016476A1 (en) Screen capture method and device
WO2017128288A1 (en) Processing method and portable electronic device
TWI457819B (en) Note management method, system, and computer-readable medium
JP2008152766A (en) Method of recording hand-written information, and projection recording apparatus

Legal Events

Date Code Title Description
N231 Notification of change of applicant
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20180903

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20190807

Year of fee payment: 6