KR102227370B1 - Method and system for detecting and tracking video piracy - Google Patents

Method and system for detecting and tracking video piracy Download PDF

Info

Publication number
KR102227370B1
KR102227370B1 KR1020190047761A KR20190047761A KR102227370B1 KR 102227370 B1 KR102227370 B1 KR 102227370B1 KR 1020190047761 A KR1020190047761 A KR 1020190047761A KR 20190047761 A KR20190047761 A KR 20190047761A KR 102227370 B1 KR102227370 B1 KR 102227370B1
Authority
KR
South Korea
Prior art keywords
identification information
candidate
average color
region
video
Prior art date
Application number
KR1020190047761A
Other languages
Korean (ko)
Other versions
KR20190123696A (en
Inventor
이준영
Original Assignee
(주)리마보안연구소
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)리마보안연구소 filed Critical (주)리마보안연구소
Priority to PCT/KR2019/004964 priority Critical patent/WO2019209027A1/en
Publication of KR20190123696A publication Critical patent/KR20190123696A/en
Application granted granted Critical
Publication of KR102227370B1 publication Critical patent/KR102227370B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/231Content storage operation, e.g. caching movies for short term storage, replicating data over plural servers, prioritizing data for deletion
    • H04N21/23103Content storage operation, e.g. caching movies for short term storage, replicating data over plural servers, prioritizing data for deletion using load balancing strategies, e.g. by placing or distributing content on different disks, different memories or different servers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/23614Multiplexing of additional data and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/238Interfacing the downstream path of the transmission network, e.g. adapting the transmission rate of a video stream to network bandwidth; Processing of multiplex streams
    • H04N21/2389Multiplex stream processing, e.g. multiplex stream encrypting
    • H04N21/23892Multiplex stream processing, e.g. multiplex stream encrypting involving embedding information at multiplex stream level, e.g. embedding a watermark at packet level
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4341Demultiplexing of audio and video streams

Abstract

동영상 복제 검출 및 추적을 위한 방법 및 시스템이 제공된다. 상기 방법은 컴퓨터에 의해 수행되는, 원본 동영상에서 하나 이상의 후보프레임을 추출하되, 상기 후보프레임은 원본 동영상을 재생 요청한 사용자의 식별정보를 삽입 가능한 후보영역을 포함하는 것인, 후보프레임 추출단계; 및 특정한 후보프레임 내의 후보영역에 상기 식별정보를 삽입한 보정 동영상을 생성하는 단계;를 포함하되, 상기 후보영역은 프레임 내의 특정한 범위 이상의 공간으로서, 기준값 차이 이내의 색상으로 구성된 것을 특징으로 한다.A method and system for detecting and tracking video duplication are provided. The method comprises extracting one or more candidate frames from an original video, performed by a computer, wherein the candidate frame includes a candidate region into which identification information of a user who requested to play the original video can be inserted; And generating a corrected video in which the identification information is inserted into a candidate region in a specific candidate frame, wherein the candidate region is a space of a specific range or more within the frame, and is configured with a color within a reference value difference.

Description

동영상 복제 검출 및 추적을 위한 방법 및 시스템{METHOD AND SYSTEM FOR DETECTING AND TRACKING VIDEO PIRACY}Method and system for detecting and tracking video duplication {METHOD AND SYSTEM FOR DETECTING AND TRACKING VIDEO PIRACY}

본 발명은 동영상 복제 검출 및 추적을 위한 방법 및 시스템에 관한 것으로, 보다 상세하게는 동영상을 무단복제하여 배포하는 것을 방지하고, 복제된 동영상을 검출 및 유출자를 추적하는 방법 및 시스템에 관한 것이다.The present invention relates to a method and system for detecting and tracking video duplication, and more particularly, to a method and system for preventing unauthorized copying and distribution of video, and detecting and tracking a duplicated video.

정보통신 기술 및 네트워크가 발달됨에 따라, 오프라인을 통해 제공되던 교육, 출판, 음악, 영화, 게임 등의 다양한 콘텐츠가 디지털 데이터 형태로 제작되어 온라인을 통해 배포 및 제공되고 있다.With the development of information and communication technologies and networks, various contents such as education, publishing, music, movies, and games that were provided offline are produced in the form of digital data, and are distributed and provided online.

오프라인을 통한 제공방법과 달리 디지털 데이터 형태로 제작된 콘텐츠는 원본을 획득하여, 복제, 변형, 가공, 수정 및 전파가 훨씬 수월하여 콘텐츠의 원제작자가 불법 유출 등을 원인으로 피해를 입는 사례가 빈번하게 발생하고 있다.Unlike the offline delivery method, contents produced in the form of digital data are much easier to copy, transform, process, modify, and disseminate by acquiring the original, so there are frequent cases in which the original creator of the content suffers damage due to illegal leakage, etc. Is happening.

따라서, 원제작자 입장에서는 제작한 콘텐츠의 가치를 보존하고 정당한 이익 창출을 위해서, 콘텐츠가 권한없는 제3자에 의해 무단으로 복제되어 배포되는 것을 방지하고, 유출된 경우 유출자를 추적하여 합당한 보상 및 처벌을 청구할 수 있도록 하는 수단이 필수적으로 요구된다.Therefore, from the perspective of the original producer, in order to preserve the value of the created content and create a legitimate profit, the content is prevented from being copied and distributed without permission by an unauthorized third party, and if it is leaked, reasonable compensation and punishment by tracking the leaker. A means of making it possible to claim is essential.

특히, 디지털 콘텐츠 중 동영상 콘텐츠의 경우, 불법 유출이 가장 활발한 분야 중 하나이다. 그 원인은 동영상 콘텐츠는 해당 동영상이 있는 URL을 쉽게 획득할 수 있고, 획득한 URL을 기반으로 다양한 소프트웨어 및 프로그램들을 이용하여 불법 다운로드가 가능하다.In particular, in the case of video content among digital contents, illegal leakage is one of the most active fields. The reason for this is that the video content can easily obtain a URL with a corresponding video, and illegal download is possible using various software and programs based on the obtained URL.

한편, 현재 동영상 콘텐츠의 복제 방지를 위해 많이 쓰이는 방법으로는 동영상 자체를 암호화하는 방법로 디지털 저작권 권리(DRM, Digital Rights Management)를 이용하는 방법이 있다. DRM은 디지털 콘텐츠를 암호화하여 정상적으로 구매한 고객만이 사용할 수 있도록 하는 솔루션을 의미한다. 하지만, 영상을 통째로 캡쳐하거나 녹화할 수 있는 프로그램과 같이 DRM을 무력화하고 회피할 수 있는 방법이 다수 존재하고 있는 실정이다.On the other hand, as a method that is widely used to prevent copying of current video content, there is a method of using digital rights management (DRM) as a method of encrypting the video itself. DRM refers to a solution that encrypts digital content so that only customers who normally purchase it can use it. However, there are many ways to disable and avoid DRM, such as a program that can capture or record an entire video.

공개특허공보 제10-1439475호, 2014.09.02Unexamined Patent Publication No. 10-1439475, 2014.09.02

본 발명이 해결하고자 하는 과제는 무단복제 동영상의 유출자 추적이 가능한 동영상을 생성할 수 있는 방법 및 시스템을 제공하는 것이다.The problem to be solved by the present invention is to provide a method and system capable of generating a video capable of tracking the leaker of unauthorized video.

또한, 본 발명이 해결하고자 하는 과제는 배포된 동영상을 대상으로 무단복제 여부를 검출하고 유출자를 추적할 수 있는 방법 및 시스템을 제공하는 것이다.In addition, the problem to be solved by the present invention is to provide a method and system capable of detecting whether or not unauthorized copying is performed for a distributed video and tracking a leaker.

본 발명이 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The problems to be solved by the present invention are not limited to the problems mentioned above, and other problems that are not mentioned will be clearly understood by those skilled in the art from the following description.

상술한 과제를 해결하기 위한 본 발명의 일 면에 따른 동영상 복제 검출 및 추적을 위한 방법은, 컴퓨터에 의해 수행되는, 원본 동영상에서 하나 이상의 후보프레임을 추출하되, 상기 후보프레임은 원본 동영상을 재생 요청한 사용자의 식별정보를 삽입 가능한 후보영역을 포함하는 것인, 후보프레임 추출단계; 및 특정한 후보프레임 내의 후보영역에 상기 식별정보를 삽입한 보정 동영상을 생성하는 단계;를 포함하되, 상기 후보영역은 프레임 내의 특정한 범위 이상의 공간으로서, 기준값 차이 이내의 색상으로 구성된 것을 특징으로 한다.A method for detecting and tracking video duplication according to an aspect of the present invention for solving the above-described problem, is performed by a computer, extracting one or more candidate frames from the original video, the candidate frame is requested to play the original video A candidate frame extraction step that includes a candidate region into which the user's identification information can be inserted; And generating a corrected video in which the identification information is inserted into a candidate region in a specific candidate frame, wherein the candidate region is a space of a specific range or more within the frame, and is configured with a color within a reference value difference.

상술한 과제를 해결하기 위한 본 발명의 다른 면에 따른 동영상 복제 검출 및 추적을 위한 방법은, 상기 보정 동영상을 생성하는 단계는, 상기 후보영역 내에 식별정보 입력영역을 상기 후보영역의 평균색상으로 설정하는 단계; 및 상기 식별정보 입력영역에 상기 평균색상에서 최소값만큼 차이나는 색상으로 사용자의 식별정보를 삽입하는 단계;를 포함한다.A method for detecting and tracking a video copy according to another aspect of the present invention for solving the above-described problem, in the step of generating the corrected video, sets an identification information input area in the candidate area as an average color of the candidate area. The step of doing; And inserting the user's identification information in a color different from the average color by a minimum value in the identification information input area.

상술한 과제를 해결하기 위한 본 발명의 또 다른 면에 따른 동영상 복제 검출 및 추적을 위한 방법은, 상기 후보영역 내에서 상기 후보영역의 평균색상으로 구성되며, 사용자의 식별정보를 삽입 가능한 평균색상영역을 추출하는 단계를 더 포함하되, 상기 식별정보 입력영역은 상기 평균색상영역에 위치하는 것을 특징으로 한다.A method for detecting and tracking video duplication according to another aspect of the present invention for solving the above-described problem is composed of an average color of the candidate region within the candidate region, and an average color region in which user identification information can be inserted. Further comprising the step of extracting, wherein the identification information input area is located in the average color area.

상술한 과제를 해결하기 위한 본 발명의 또 다른 면에 따른 동영상 복제 검출 및 추적을 위한 방법은, 상기 보정 동영상을 생성하는 단계는, 상기 후보영역 내에 상기 후보영역의 평균색상으로 구성되며, 사용자의 식별정보를 삽입 가능한 평균색상영역을 추출하는 단계; 및 상기 평균색상영역에 상기 사용자의 식별정보를 삽입하는 단계;를 포함하되, 상기 사용자의 식별정보는 상기 평균색상에서 최소값만큼 차이나는 색상으로 구성된 것을 특징으로 한다.In the method for detecting and tracking video duplication according to another aspect of the present invention for solving the above-described problem, the step of generating the corrected video comprises an average color of the candidate region in the candidate region, and Extracting an average color region into which identification information can be inserted; And inserting the user's identification information into the average color region, wherein the user's identification information is configured with a color different from the average color by a minimum value.

상술한 과제를 해결하기 위한 본 발명의 또 다른 면에 따른 동영상 복제 검출 및 추적을 위한 방법은, 상기 평균색상영역이 복수인 경우, 특정한 규칙에 의해 제1 평균색상영역 및 제2 평균색상영역을 추출하는 단계; 상기 사용자의 식별정보를 제1 부분 및 제2 부분으로 분리하는 단계; 및 상기 제1 부분 및 제2 부분을 상기 제1 평균색상영역 및 제2 평균색상영역에 각각 삽입하는 단계;를 더 포함한다.A method for detecting and tracking video duplication according to another aspect of the present invention for solving the above-described problem is, when the average color region is plural, the first average color region and the second average color region are determined according to a specific rule. Extracting; Separating the user's identification information into a first portion and a second portion; And inserting the first portion and the second portion into the first average color region and the second average color region, respectively.

상술한 과제를 해결하기 위한 본 발명의 또 다른 면에 따른 동영상 복제 검출 및 추적을 위한 방법은, 컴퓨터에 의해 수행되는, 검출 대상 동영상에서 하나 이상의 후보프레임을 추출하되, 상기 후보프레임은 원본 동영상을 재생 요청한 사용자의 식별정보를 삽입 가능한 후보영역을 포함하는 것인, 후보프레임 추출단계; 및 특정한 후보프레임 내의 후보영역에 대해 상기 식별정보를 탐색하는 단계;를 포함하되, 상기 후보영역은 프레임 내의 특정한 범위 이상의 공간으로서, 기준값 차이 이내의 색상으로 구성된 것을 특징으로 한다.A method for detecting and tracking video duplication according to another aspect of the present invention for solving the above-described problem, extracts one or more candidate frames from a video to be detected, performed by a computer, wherein the candidate frame is an original video. A candidate frame extraction step including a candidate region into which identification information of a user requesting reproduction is inserted; And searching for the identification information for a candidate region in a specific candidate frame, wherein the candidate region is a space greater than or equal to a specific range within the frame, and is configured with a color within a difference between a reference value.

상술한 과제를 해결하기 위한 본 발명의 또 다른 면에 따른 동영상 복제 검출 및 추적을 위한 방법은, 상기 식별정보 탐색단계는, 상기 후보영역에서 색상이 최소값만큼 차이나는 영역을 탐색하는 단계를 포함하고, 색상이 최소값만큼 차이나는 영역이 감지된 경우, 상기 색상이 최소값만큼 차이나는 영역에서 상기 식별정보를 추출하는 것을 특징으로 한다.A method for detecting and tracking video duplication according to another aspect of the present invention for solving the above-described problem, the step of searching for identification information includes the step of searching for a region in which the color is different by a minimum value in the candidate region, and , When an area in which the color is different by the minimum value is detected, the identification information is extracted from the area in which the color is different by the minimum value.

상술한 과제를 해결하기 위한 본 발명의 또 다른 면에 따른 동영상 복제 검출 및 추적을 위한 방법은, 색상이 최소값만큼 차이나는 영역이 복수로 감지된 경우, 상기 복수의 영역에서 각각 식별정보를 추출하는 단계; 및 상기 추출된 식별정보들을 조합하는 단계를 더 포함하는 것을 특징으로 한다.A method for detecting and tracking video duplication according to another aspect of the present invention for solving the above-described problem is to extract identification information from each of the plurality of areas when a plurality of areas in which colors differ by a minimum value are detected. step; And combining the extracted identification information.

상술한 과제를 해결하기 위한 본 발명의 또 다른 면에 따른 동영상 복제 검출 및 추적을 위한 시스템은, 원본 동영상에서 하나 이상의 후보프레임을 추출하되, 상기 후보프레임은 원본 동영상을 재생 요청한 사용자의 식별정보를 삽입 가능한 후보영역을 포함하는 것인, 후보프레임 추출부; 및 특정한 후보프레임 내의 후보영역에 상기 식별정보를 삽입한 보정 동영상을 생성하는 생성부;를 포함하되, 상기 후보영역은 프레임 내의 특정한 범위 이상의 공간으로서, 기준값 차이 이내의 색상으로 구성된 것을 특징으로 한다.A system for detecting and tracking video duplication according to another aspect of the present invention for solving the above-described problem, extracts one or more candidate frames from an original video, and the candidate frames contain identification information of a user who requested to play the original video. A candidate frame extraction unit including an insertable candidate region; And a generating unit for generating a corrected video in which the identification information is inserted into a candidate region in a specific candidate frame, wherein the candidate region is a space of a specific range or more within the frame, and is configured with a color within a reference value difference.

상술한 과제를 해결하기 위한 본 발명의 또 다른 면에 따른 동영상 복제 검출 및 추적을 위한 시스템은, 복제 동영상에서 하나 이상의 보프레임을 추출하되, 상기 후보프레임은 원본 동영상을 재생 요청한 사용자의 식별정보를 삽입 가능한 후보영역을 포함하는 것인, 후보프레임 추출부; 및 특정한 후보프레임 내의 후보영역에 대해 상기 식별정보를 탐색하는 탐색부;를 포함하되, 상기 후보영역은 프레임 내의 특정한 범위 이상의 공간으로서, 기준값 차이 이내의 색상으로 구성된 것을 특징으로 한다.A system for detecting and tracking video duplication according to another aspect of the present invention for solving the above-described problem, extracts one or more bo frames from the duplicate video, and the candidate frame contains identification information of a user who requested to play the original video. A candidate frame extraction unit including an insertable candidate region; And a search unit that searches for the identification information for a candidate region in a specific candidate frame, wherein the candidate region is a space equal to or greater than a specific range within the frame, and is configured with a color within a difference between a reference value.

본 발명의 기타 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.Other specific details of the present invention are included in the detailed description and drawings.

상기 본 발명에 의하면, 동영상 저작자는 원본 동영상이 무단으로 복제되어 유출되는 것에 대비하여, 유출자를 추적할 수 있는 보정 동영상을 생성할 수 있다. 따라서, 동영상 저작자는 동영상 유출로 인해 발생하는 손해를 사전에 대비할 수 있고, 동영상 재생 요청자가 동영상을 무단복제하여 배포하는 것을 방지하는 효과가 있다.According to the present invention, a video creator can generate a corrected video capable of tracking the leaker in preparation for the original video being copied and leaked without permission. Accordingly, the video author can prepare for damages caused by the leakage of the video in advance, and there is an effect of preventing the video playback requester from copying and distributing the video without permission.

또한, 상기 본 발명에 의하면, 배포된 동영상을 대상으로, 해당 동영상이 무단복제 된 것인지 여부를 판단하고, 무단복제된 동영상이라면 유출자를 검출 및 추적할 수 있다. 따라서, 동영상 저작자는 동영상 유출로 인해 손해가 발생했을 때 유출자를 추적하여 유출자에게 보상을 요구하거나, 유출자가 처벌받도록 청구할 수 있게 되는 효과가 있다.In addition, according to the present invention, it is possible to determine whether or not the video has been copied without permission for the distributed video, and if the video is copied without permission, the leaker can be detected and tracked. Accordingly, the video author has the effect of being able to request compensation from the leaker by tracking the leaker when damage occurs due to the leak of the video, or to request that the leaker be punished.

또한, 상기 본 발명에 의하면, 보정 동영상에 삽입된 사용자의 식별정보는 시청자가 육안으로 인식하기 어려운 방법으로 삽입되므로, 동영상을 시청하는 시청자를 불편하게 하지 않으면서도 동영상의 무단복제를 방지할 수 있는 효과가 있다.In addition, according to the present invention, since the user's identification information inserted in the corrected video is inserted in a way that is difficult for the viewer to recognize with the naked eye, it is possible to prevent unauthorized copying of the video without causing inconvenience to the viewer watching the video. It works.

본 발명의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the following description.

도 1은 본 발명의 일 실시예에 따른 동영상 복제 검출 및 추적을 위한 시스템의 구성을 개략적으로 나타내는 블록도이다.
도 2는 본 발명의 일 실시예에 따른 유출자 추적이 가능한 보정 동영상 생성방법을 개략적으로 나타내는 흐름도이다.
도 3은 본 발명의 일 실시예에 따른 동영상을 구성하는 복수의 프레임 중에서 후보 프레임을 추출하는 단계를 설명하기 위한 예시도이다.
도 4는 본 발명의 일 실시예에 따른 원본 동영상에 사용자의 식별정보를 삽입하는 과정을 개략적으로 나타내는 흐름도이다.
도 5는 본 발명의 일 실시예에 따른 원본 동영상 및 보정 동영상의 화면을 나타내는 예시도이다.
도 6은 본 발명의 다른 실시예에 따른 식별정보 입력영역에 사용자의 식별정보가 삽입된 모습을 설명하기 위한 예시도이다.
도 7은 본 발명의 또 다른 실시예에 따른 원본 동영상에 식별정보를 삽입하는 영역을 평균색상영역으로 특정하는 단계가 더 포함된 유출자 추적이 가능한 보정 동영상 생성방법을 나타내는 흐름도이다.
도 8은 본 발명의 또 다른 실시예에 따른 후보프레임 내에서 후보영역과 평균색상영역을 설명하기 예시도이다.
도 9는 본 발명의 또 다른 실시예에 따른 사용자의 식별정보를 복수의 부분으로 분리하여 복수의 평균색상영역에 각각 삽입하는 방법을 개략적으로 나타내는 흐름도이다.
도 10은 본 발명의 또 다른 실시예에 따른 복수의 평균색상영역이 있는 경우를 나타내는 예시도이다.
도 11은 본 발명의 일 실시예에 따른 동영상 복제 검출 및 추적 방법을 개략적으로 나타내는 흐름도이다.
1 is a block diagram schematically showing the configuration of a system for detecting and tracking video duplication according to an embodiment of the present invention.
2 is a flowchart schematically illustrating a method of generating a corrected video capable of tracking a leaker according to an embodiment of the present invention.
3 is an exemplary diagram for explaining a step of extracting a candidate frame from a plurality of frames constituting a video according to an embodiment of the present invention.
4 is a flowchart schematically illustrating a process of inserting user identification information into an original video according to an embodiment of the present invention.
5 is an exemplary view showing screens of an original video and a corrected video according to an embodiment of the present invention.
6 is an exemplary view for explaining a state in which user identification information is inserted into an identification information input area according to another embodiment of the present invention.
FIG. 7 is a flowchart illustrating a method of generating a corrected video capable of tracking a leaker further including the step of specifying an area into which identification information is inserted into an original video according to another embodiment of the present invention as an average color area.
8 is an exemplary diagram illustrating a candidate region and an average color region within a candidate frame according to another embodiment of the present invention.
9 is a flowchart schematically illustrating a method of dividing user identification information into a plurality of parts and inserting them into a plurality of average color regions according to another embodiment of the present invention.
10 is an exemplary view showing a case in which there are a plurality of average color regions according to another exemplary embodiment of the present invention.
11 is a flowchart schematically illustrating a method for detecting and tracking video duplication according to an embodiment of the present invention.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야의 통상의 기술자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. Advantages and features of the present invention, and a method of achieving them will become apparent with reference to the embodiments described below in detail together with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in a variety of different forms. It is provided to fully inform the skilled person of the scope of the present invention, and the present invention is only defined by the scope of the claims.

본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.The terms used in the present specification are for describing exemplary embodiments and are not intended to limit the present invention. In this specification, the singular form also includes the plural form unless specifically stated in the phrase. As used herein, “comprises” and/or “comprising” do not exclude the presence or addition of one or more other elements other than the mentioned elements. Throughout the specification, the same reference numerals refer to the same elements, and "and/or" includes each and all combinations of one or more of the mentioned elements. Although "first", "second", and the like are used to describe various elements, it goes without saying that these elements are not limited by these terms. These terms are only used to distinguish one component from another component. Therefore, it goes without saying that the first component mentioned below may be the second component within the technical idea of the present invention.

본 명세서에서 '원본 동영상'은 동영상의 원작자가 제작한 동영상의 배포를 위한 형태인 최종본으로서, 어떤 가공, 수정, 변경, 식별정보 삽입 및 복제 등이 되지않은 원본 그대로의 동영상을 의미한다.In this specification, the'original video' is a final version, which is a form for distribution of a video produced by the original author of the video, and means an original video without any processing, modification, alteration, insertion or reproduction of identification information, etc.

본 명세서에서 '보정 동영상'은 상기 원본 동영상에 특정한 방법으로 사용자의 식별정보가 삽입되어 생성되어 유출자 추적이 가능한 동영상을 의미한다.In the present specification, the'corrected video' refers to a video in which user's identification information is inserted in a specific method in the original video and generated so that the leaker can be tracked.

본 명세서에서 '프레임(Frame)'은 동영상에 사용하는 이미지 한 컷을 의미한다.In the present specification, a'frame' means one cut of an image used for a video.

본 명세서에서 '키 프레임(Key Frame)'은 단일 동작의 시작 프레임과 끝 프레임 등 가장 중심이 되는 프레임을 의미한다.In the present specification, a'key frame' refers to a frame that is the most central, such as a start frame and an end frame of a single operation.

본 명세서에서 '후보프레임'은 원본동영상을 구성하는 다수의 프레임 중에서 본 발명에서 제시된 방법에 의해 사용자의 식별정보를 삽입할 수 있는 조건을 만족하는 프레임을 의미한다.In the present specification, the'candidate frame' means a frame that satisfies the condition for inserting the user's identification information by the method presented in the present invention among a plurality of frames constituting the original video.

본 명세서에서 '후보영역'은 상기 후보프레임 내에서 사용자의 식별정보를 삽입 가능한 영역을 의미한다.In this specification, the'candidate area' refers to an area in which user identification information can be inserted in the candidate frame.

예를 들어, 본 발명의 일 실시예에 의하면 후보영역은 프레임 내의 특정한 범위 이상의 공간으로서, 기준값 차이 이내의 색상으로 구성된 영역이다. 그러나, 이에 한정되는 것은 아니고, 본 발명이 속하는 기술 분야에서 프레임을 구별할 수 있는 특징을 이용하여 추출될 수 있다.For example, according to an embodiment of the present invention, the candidate region is a space greater than or equal to a specific range within a frame and is a region composed of colors within a difference between a reference value. However, the present invention is not limited thereto, and may be extracted using a feature capable of distinguishing frames in the technical field to which the present invention pertains.

본 명세서에서 '평균색상영역'은 상기 후보영역에서 후보영역의 평균색상으로 구성된 영역을 의미한다.In the present specification, the'average color region' means a region composed of the average color of the candidate region in the candidate region.

본 명세서에서 '식별정보'는 동영상을 재생 요청한 사용자의 식별정보를 의미한다. 예를 들어, 사용자의 식별ID, 재생장치의 식별번호, 네트워크 IP주소(Internet Protocol Address), MAC주소(Media Access Control Address), 재생 요청한 시간 등이 포함될 수 있으며 이에 한정되는 것은 아니고, 사용자를 식별할 수 있는 다양한 정보가 포함될 수 있다.In this specification,'identification information' means identification information of a user who has requested to play a video. For example, the identification ID of the user, the identification number of the playback device, the network IP address (Internet Protocol Address), the MAC address (Media Access Control Address), the playback request time, etc. may be included, but are not limited thereto, and the user is identified. It can contain a variety of information that can be done.

본 명세서에서 '식별정보 입력영역'은 사용자의 식별정보가 위치하는 영역을 의미한다. In the present specification, the'identification information input area' refers to an area in which the user's identification information is located.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms (including technical and scientific terms) used in the present specification may be used with meanings that can be commonly understood by those of ordinary skill in the art to which the present invention belongs. In addition, terms defined in a commonly used dictionary are not interpreted ideally or excessively unless explicitly defined specifically.

이하, 첨부된 도면을 참조하여 본 발명의 실시예를 상세하게 설명한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

본 발명은 크게 유출자 추적이 가능한 보정 동영상 생성방법과 관련된 발명과 동영상 복제를 검출하고 유출자를 추적하는 방법과 관련된 발명을 포함하고 있다. 먼저, 유출자 추적이 가능한 보정동영상 생성방법과 관련된 발명을 설명한다.The present invention largely includes an invention related to a method of generating a corrected video capable of tracking a leaker, and an invention related to a method of detecting a copy of a video and tracking the leaker. First, an invention related to a method for generating a corrected video capable of tracking a leaker will be described.

도 1은 본 발명의 일 실시예에 따른 동영상 복제 검출 및 추적을 위한 시스템의 구성을 개략적으로 나타내는 블록도이다.1 is a block diagram schematically showing the configuration of a system for detecting and tracking video duplication according to an embodiment of the present invention.

도 1을 참조하면, 동영상 복제 검출 및 추적을 위한 시스템(1000)은 보정 동영상 생성서버(100) 및 복제 동영상 검출 및 추적 서버(200)를 포함한다.Referring to FIG. 1, a system 1000 for detecting and tracking a video copy includes a corrected video generation server 100 and a duplicate video detection and tracking server 200.

보정 동영상 생성서버(100) 및 복제 동영상 검출 및 추적 서버(200)는 반드시 분리되어있는 별도의 서버인 것은 아니고, 하나의 서버로 관리되는 경우도 포함된다.The corrected video generation server 100 and the duplicate video detection and tracking server 200 are not necessarily separate separate servers, and may be managed by one server.

보정 동영상 생성서버(100)는 원본 동영상(10)을 입력받아서, 원본 동영상(10) 내에 재생을 요청한 사용자의 식별정보(60)를 삽입하여 유출자를 추적할 수 있는 보정 동영상(20)을 생성하는 역할을 한다.The corrected video generation server 100 receives the original video 10 and inserts the identification information 60 of the user requesting playback into the original video 10 to generate a corrected video 20 that can track the leaker. Plays a role.

이를 위해 보정 동영상 생성서버(100)는 원본 동영상(10)을 구성하는 복수의 프레임에서 사용자의 식별정보(60)를 삽입할 수 있는 적어도 하나의 후보프레임(30)을 추출한다. 보정 동영상 생성서버(100)는 추출한 후보프레임(30) 내에서 후보영역(40)을 추출하여 사용자의 식별정보(60)를 삽입한다.To this end, the corrected video generation server 100 extracts at least one candidate frame 30 into which the user's identification information 60 can be inserted from a plurality of frames constituting the original video 10. The corrected video generation server 100 extracts the candidate region 40 from the extracted candidate frame 30 and inserts the user's identification information 60.

복제 동영상 검출 및 추적 서버(200)는 배포된 동영상을 대상으로 해당 동영상이 복제된 동영상인지 여부를 판단하고, 무단복제된 동영상이라면 유출자를 추적하는 역할을 한다.The duplicated video detection and tracking server 200 determines whether or not the video is a duplicated video for the distributed video, and if the video has been copied without permission, the server 200 serves to track the leaker.

이를 위해 복제 동영상 검출 및 추적 서버(200)는 사용자의 식별정보(60)가 삽입되었을 것으로 추정되는 적어도 하나의 후보프레임(30)을 추출한다. 복제 동영상 검출 및 추적 서버(200)는 검출 대상 동영상에서 추출한 후보프레임(30)내에 후보영역(40)을 추출한다. 복제 동영상 검출 및 추적 서버(200)는 추출한 후보영역(40)에 사용자의 식별정보(60)가 삽입되어 있는지 여부를 감지하고, 감지된 사용자의 식별정보(60)를 추출한다.To this end, the duplicate video detection and tracking server 200 extracts at least one candidate frame 30 that is estimated to have inserted the user's identification information 60. The duplicate video detection and tracking server 200 extracts the candidate region 40 within the candidate frame 30 extracted from the detection target video. The duplicate video detection and tracking server 200 detects whether the user's identification information 60 is inserted in the extracted candidate region 40 and extracts the detected user's identification information 60.

사용자의 식별정보(60)가 삽입되어 있는지 여부를 감지하는 것은 상술한 바와 같이 서버에서 자동으로 이루어질 수 있으나, 이에 한정되는 것은 아니고 검출 요청자가 직접 조작하여 확인할 수도 있다.The detection of whether the user's identification information 60 is inserted may be automatically performed by the server as described above, but is not limited thereto, and the detection requestor may directly manipulate it to check.

도 2는 본 발명의 일 실시예에 따른 유출자 추적이 가능한 보정 동영상 생성방법을 개략적으로 나타내는 흐름도이다.2 is a flowchart schematically illustrating a method of generating a corrected video capable of tracking a leaker according to an embodiment of the present invention.

도 2를 참조하면, 본 발명의 일 실시예에 따른 유출자 추적이 가능한 보정 동영상 생성방법은, 원본 동영상(10)에서 식별정보를 삽입할 수 있는 후보프레임(30)을 추출하는 단계(S100), 후보영역(40)에 식별정보를 삽입하는 단계(S200), 식별정보가 삽입된 보정 동영상(20)을 생성하는 단계(S300)를 포함한다. 이하, 각 단계에 대한 상세한 설명을 기술한다.Referring to FIG. 2, a method for generating a corrected video capable of tracking a leaker according to an embodiment of the present invention includes extracting a candidate frame 30 into which identification information can be inserted from an original video 10 (S100), Inserting identification information into the candidate region 40 (S200), and generating a correction video 20 into which the identification information is inserted (S300). Hereinafter, a detailed description of each step will be described.

도 3은 본 발명의 일 실시예에 따른 동영상을 구성하는 복수의 프레임 중에서 후보 프레임을 추출하는 단계(S100)를 설명하기 위한 예시도이다.3 is an exemplary diagram for explaining a step (S100) of extracting a candidate frame from a plurality of frames constituting a video according to an embodiment of the present invention.

동영상은 프레임(Frame)이라 불리는 이미지를 연속으로 모아서 보여줌으로써 사람의 눈에 움직이는 것처럼 보이도록 하는 영상이다. 따라서, 하나의 동영상은 복수의 프레임으로 구성되며, 프레임이 높을수록 부드럽고 선명한 동영상이 된다. 한편, 동영상 1초를 구성하는 프레임이 얼마나 많은지는 초당x장, fps 등으로 표시한다.A video is a video that makes it look like it is moving to the human eye by collecting and showing images called frames in succession. Therefore, one moving picture is composed of a plurality of frames, and the higher the frame, the smoother and clearer the moving picture becomes. On the other hand, how many frames make up one second of a video is displayed as x frames per second, fps, and so on.

상기 원본 동영상(10)에서 식별정보를 삽입할 수 있는 후보프레임(30)을 추출하는 단계(S100)는 원본 동영상(10)을 구성하는 복수의 프레임 중에서 사용자의 식별정보(60)를 삽입할 수 있는 요건을 만족하는 후보영역(40)을 포함하는 프레임을 선별하여 추출하는 단계이다.In the step of extracting the candidate frame 30 into which the identification information can be inserted from the original video 10 (S100), the user's identification information 60 can be inserted among a plurality of frames constituting the original video 10. In this step, a frame including the candidate region 40 that satisfies the existing requirement is selected and extracted.

상기 후보영역(40)은 프레임 내의 식별정보를 삽입할 수 있을 정도의 특정한 범위 이상의 공간으로서, 기준값 차이 이내의 색상으로 구성된 영역을 의미한다.The candidate region 40 is a space having a specific range or greater enough to insert identification information in a frame, and refers to a region composed of a color within a difference between a reference value.

본 발명의 일 실시예에 따르면, 기준값은 원본 동영상의 종류에 따라 다르게 설정될 수 있으며, 프레임을 육안으로 보았을 때 색상의 차이가 느껴지지 않거나 매우 미세한 수준인 차이값을 의미한다.According to an embodiment of the present invention, the reference value may be set differently according to the type of the original video, and when the frame is viewed with the naked eye, a difference in color is not felt or refers to a difference value that is at a very fine level.

도 3을 참조하면, 예시로, 동영상을 구성하고 있는 프레임의 일부가 도안화되어 있다. 도시된 복수의 프레임 중, 전반부에 있는 프레임들은 동일하거나 유사한 위치에 기준값 차이 이내의 색상으로 구성된 영역인, 후보영역(40)을 포함하고 있다. 이러한 동일한 특징을 공유하고 있는 프레임들을 후보프레임(30)으로 추출한다.Referring to FIG. 3, as an example, some of the frames constituting the video are illustrated. Among the illustrated plurality of frames, frames in the first half include a candidate region 40, which is an area composed of a color within a difference between a reference value at the same or similar position. Frames that share these same characteristics are extracted as candidate frames 30.

본 발명의 일 실시예에 따르면, 후보프레임(30)은 복수의 후보군을 이룰 수 있으며, 각 후보군은 동일한 색상의 식별정보를 삽입할 수 있는 후보프레임(30)으로 구성되어 있다. 후보군은 키 프레임(Key Frame)을 기준으로 선별될 수 있으나 이에 한정되는 것은 아니고, 기준값 이하의 색상을 공유하는 프레임을 추출하는 데는 다양한 방식이 적용될 수 있다.According to an embodiment of the present invention, the candidate frame 30 may constitute a plurality of candidate groups, and each candidate group is composed of a candidate frame 30 into which identification information of the same color can be inserted. The candidate group may be selected based on a key frame, but is not limited thereto, and various methods may be applied to extract a frame sharing a color less than or equal to a reference value.

도 4는 본 발명의 일 실시예에 따른 원본 동영상에 사용자의 식별정보를 삽입하는 과정을 개략적으로 나타내는 흐름도이다.4 is a flowchart schematically illustrating a process of inserting user identification information into an original video according to an embodiment of the present invention.

상기 후보영역(40)에 식별정보를 삽입하는 단계(S200)는, 원본 동영상(10)의 후보프레임(30)에서 후보영역(40)을 추출하는 단계(S210), 식별정보 입력영역(50)을 후보영역의 평균색상으로 설정하는 단계(S220), 식별정보 입력영역(50)에 사용자의 식별정보(60)를 삽입하는 단계(S230)를 포함한다.The step of inserting the identification information into the candidate region 40 (S200) includes extracting the candidate region 40 from the candidate frame 30 of the original video 10 (S210), the identification information input region 50 And setting (S220) to the average color of the candidate region (S220), and inserting the user's identification information (60) into the identification information input region (50) (S230).

후보영역(40)은 후보프레임(30)이 공유하고 있는 기준값 차이 이내의 색상으로 구성된 영역을 의미한다. 즉, 프레임을 구성하고 있는 화면에서 특정 영역의 색상이 인접하는 영역간 차이가 기준값 이내라면 해당 영역이 후보영역(40)이 된다. 따라서, 동일한 후보영역(40)을 공유하는 후보프레임(30)들은 식별정보를 동일한 색상 및 크기로 동일한 위치에 삽입할 수 있게 된다.The candidate region 40 refers to a region composed of a color within a difference between a reference value shared by the candidate frame 30. That is, if the difference between the areas in which the color of the specific area is adjacent on the screen constituting the frame is within the reference value, the corresponding area becomes the candidate area 40. Accordingly, candidate frames 30 sharing the same candidate region 40 can insert identification information in the same position with the same color and size.

임의의 위치에 식별정보를 삽입하였을 때와 달리, 복제 동영상 검출 및 추적 단계에서 모든 프레임의 모든 영역을 대상으로 식별정보를 탐지할 필요없이 식별정보가 삽입되었을만한 후보프레임 및 후보영역을 선별하여 탐지할 수 있게 된다. 따라서, 본 발명에 의하면 효율적이고 신속한 복제 동영상 검출이 가능하다는 효과가 있다.Unlike when identification information is inserted in an arbitrary position, it is not necessary to detect identification information for all areas of all frames during the detection and tracking of duplicate video, and selects and detects candidate frames and candidate areas where identification information may have been inserted. You can do it. Therefore, according to the present invention, there is an effect that it is possible to efficiently and quickly detect duplicated video.

식별정보 입력영역(50)은 사용자의 식별정보(60)가 실질적으로 위치하는 영역을 의미한다. 예를 들어, 문자로 구성된 사용자의 식별정보(60)의 배경색으로 표시될 수 있다.The identification information input area 50 refers to an area in which the user's identification information 60 is substantially located. For example, it may be displayed as a background color of the user's identification information 60 composed of characters.

식별정보 입력영역(50)은 후보영역(40)의 평균색상으로 설정된다(S220). 이는 식별정보 입력영역(50)이 동영상에 삽입되었을 때, 해당 보정 동영상(20)의 시청자가 육안으로 발견하기 어렵게 하여, 시청에 불편을 느끼지 않도록 하기 위함이다.The identification information input area 50 is set to the average color of the candidate area 40 (S220). This is to make it difficult for the viewer of the corrected video 20 to find it with the naked eye when the identification information input area 50 is inserted into the video, so that the viewer does not feel uncomfortable.

사용자의 식별정보(60)는 상기 후보영역(40)의 평균색상으로 설정된 식별정보 입력영역(50)에 위치하도록 삽입된다. 한편, 사용자의 식별정보(60)는 상기 평균색상에서 최소값만큼 차이나는 색상으로 구성된다.The user's identification information 60 is inserted so as to be located in the identification information input area 50 set as the average color of the candidate area 40. Meanwhile, the user's identification information 60 is composed of a color that differs by a minimum value from the average color.

본 발명의 일 실시예에 따르면, 색상을 RGB(Red, Green, Blue) 시스템으로 표현할 때, 색의 농도는 0부터 255까지의 숫자로 표현된다. 255에 가까울수록 해당 계열의 색상의 농도가 높아지고, 0에 가까울수록 해당 계열의 색상의 농도가 낮아진다. 이 때, 상기 최소값은 RGB 시스템에서 1만큼의 차이를 의미한다.According to an embodiment of the present invention, when a color is expressed in a RGB (Red, Green, Blue) system, the color density is expressed by a number from 0 to 255. The closer to 255, the higher the density of the color of the series, and closer to 0, the lower the density of the color of the corresponding series. In this case, the minimum value means a difference of 1 in the RGB system.

한편, 사용자의 식별정보(60)의 색상이 상기 평균색상보다 1만큼 높을 수도 있고, 낮을 수도 있다.Meanwhile, the color of the user's identification information 60 may be higher or lower than the average color by one.

예를 들어, 후보영역(40)의 평균색상이 삼원색 중 녹색 계통의 색상이고 녹색(Green)의 값이 180이라면, 사용자의 식별정보(60)의 색상은 상기 평균색상과 빨간색(Red)의 값 및 파란색(Blue)의 값은 동일하되 녹색의 값이 180과 1만큼 차이나는 181 또는 179로 설정될 수 있다.For example, if the average color of the candidate area 40 is a green color among the three primary colors and a green value is 180, the color of the user's identification information 60 is the average color and the red value. And 181 or 179 in which the value of blue is the same, but the value of green is different from 180 by 1 may be set.

이는 육안으로 구별하기 어려운 색상 차이에 해당하므로, 동영상 재생 요청자의 시청을 불편하게 하지 않는다. 한편, 검출단계에서는 최소값만큼의 색상 차이가 매우 중요한 역할을 하며, 이에 대한 상세한 설명은 후술한다.Since this corresponds to a color difference that is difficult to distinguish with the naked eye, the viewing of the video playback requester is not uncomfortable. Meanwhile, in the detection step, the color difference by the minimum value plays a very important role, and a detailed description thereof will be described later.

도 5는 본 발명의 일 실시예에 따른 원본 동영상 및 보정 동영상의 화면을 나타내는 예시도이다.5 is an exemplary view showing screens of an original video and a corrected video according to an embodiment of the present invention.

원본 동영상(10)은 식별정보를 삽입하기 전의 동영상으로서, 동영상의 원작자가 제작한 동영상의 배포를 위한 형태인 최종본을 의미한다.The original video 10 is a video before the identification information is inserted, and means a final version, which is a form for distribution of a video produced by the original author of the video.

보정 동영상(20)은 식별정보가 후보영역(40) 이내에 본 발명의 삽입 방법에 의해 삽입되어 생성된 동영상을 의미한다.The corrected video 20 refers to a video generated by inserting identification information into the candidate region 40 by the insertion method of the present invention.

도 5에 도시된 예시에 의하면, 보정 동영상(20)에는 사용자의 식별정보(60)로서 식별ID인 'USER'가 삽입될 수 있다. 사용자의 식별정보(60)는 식별ID 이외에 재생장치의 식별번호, 네트워크 IP주소(Internet Protocol Address), MAC주소(Media Access Control Address), 재생 요청한 시간 등이 포함될 수 있으며 이에 한정되는 것은 아니다. 한편, 삽입된 식별ID인 'USER'는 실제로 재생 요청자에게는 육안으로 보이지 않으므로 시청자는 동영상 재생 중에 이를 인지할 수 없다.According to the example shown in FIG. 5, an identification ID'USER' may be inserted as the user's identification information 60 in the corrected video 20. In addition to the identification ID, the user's identification information 60 may include an identification number of a playback device, an Internet Protocol Address (IP), a Media Access Control Address (MAC), a playback request time, and the like, but is not limited thereto. On the other hand, the inserted identification ID'USER' is not actually visible to the play requester, so the viewer cannot recognize it while playing the video.

도 6은 본 발명의 다른 실시예에 따른 식별정보 입력영역에 사용자의 식별정보가 삽입된 모습을 설명하기 위한 예시도이다.6 is an exemplary view for explaining a state in which user identification information is inserted into an identification information input area according to another embodiment of the present invention.

식별정보 입력영역(50)은 사용자의 식별정보(60)가 삽입될 수 있을 정도의 공간을 포함한다. 식별정보 입력영역(50)의 색상은 후보영역(40)의 평균색상으로 설정되고, 사용자의 식별정보(60)는 상기 평균색상과 최소값만큼 차이나는 색상으로 설정된다.The identification information input area 50 includes a space enough to insert the user's identification information 60. The color of the identification information input area 50 is set as the average color of the candidate area 40, and the user's identification information 60 is set as a color different from the average color by a minimum value.

예시도는 설명을 위해 식별정보 입력영역(50)과 사용자의 식별정보(60)가 구별되도록 도시하였으나, 실제 재생 화면에서는 육안으로 구별할 수 없으며 삽입된 식별정보를 인지할 수 없다.In the exemplary diagram, the identification information input area 50 and the user's identification information 60 are distinguished from each other for explanation, but the actual reproduction screen cannot be distinguished by the naked eye, and the inserted identification information cannot be recognized.

도 7은 본 발명의 또 다른 실시예에 따른 원본 동영상에 식별정보를 삽입하는 영역을 평균색상영역으로 특정하는 단계가 더 포함된 유출자 추적이 가능한 보정 동영상 생성방법을 나타내는 흐름도이다.FIG. 7 is a flowchart illustrating a method of generating a corrected video capable of tracking a leaker further including the step of specifying an area into which identification information is inserted into an original video according to another embodiment of the present invention as an average color area.

후보영역(40)에 식별정보를 삽입하는 단계(S200)에 대해서, 도 4와의 차이점을 중점으로 하여 설명한다.The step of inserting the identification information into the candidate region 40 (S200) will be described focusing on the difference from FIG. 4.

도 7을 참조하면, 도 4와 비교하여 후보영역(40)에서 평균색상영역(70)을 추출하는 단계가 더 포함된다.Referring to FIG. 7, the step of extracting the average color region 70 from the candidate region 40 as compared with FIG. 4 is further included.

평균색상영역은 후보영역(40)내의 특정한 영역으로서, 후보영역(40)의 평균색상으로 구성되며, 사용자의 식별정보(60)를 삽입 가능한 공간을 포함하는 영역을 의미한다.The average color area is a specific area within the candidate area 40, is composed of the average color of the candidate area 40, and refers to an area including a space into which the user's identification information 60 can be inserted.

본 발명의 또 다른 실시예에 의하면, 식별정보 입력영역(50)은 상기 평균색상영역(70)에 위치하게 된다. 한편, 식별정보 입력영역(50)은 후보영역(40)의 평균색상으로 설정되기 때문에 실질적으로 평균색상영역(70)의 색상과 완벽하게 동일한 색상이 된다.According to another embodiment of the present invention, the identification information input area 50 is located in the average color area 70. On the other hand, since the identification information input area 50 is set as the average color of the candidate area 40, it is substantially the same color as the color of the average color area 70.

식별정보 입력영역(50)이 평균색상영역(70)에 위치하게 되면, 식별정보 입력영역(50)이 후보영역(40) 내의 다른 공간에 위치한 경우보다 더욱 육안으로 구별하는 것이 어려워지므로, 동영상 재생 요청자의 시청을 더욱 편안하게 할 수 있는 효과가 있다.When the identification information input area 50 is located in the average color area 70, it becomes more difficult to distinguish with the naked eye than when the identification information input area 50 is located in another space within the candidate area 40, so that the video is played back. It has the effect of making the requestor's viewing more comfortable.

도 8은 본 발명의 또 다른 실시예에 따른 후보프레임 내에서 후보영역과 평균색상영역을 설명하기 예시도이다.8 is an exemplary diagram illustrating a candidate region and an average color region within a candidate frame according to another embodiment of the present invention.

후보프레임(30) 내에는 기준값 이하의 색상 차이가 나는 후보영역(40)이 존재한다. 후보영역(40)에는 후보영역(40)의 평균색상과 정확히 일치하지 않는 색상으로 구성된 영역 및 후보영역(40)의 평균색상으로 구성된 평균색상영역(70) 존재한다.In the candidate frame 30, a candidate region 40 having a color difference less than or equal to the reference value exists. In the candidate region 40, a region composed of a color that does not exactly match the average color of the candidate region 40 and an average color region 70 composed of the average color of the candidate region 40 exist.

예시도는 설명을 위해 후보영역(40)과 평균색상영역(70)이 구별되도록 도시하였으나, 실제 재생 화면에서는 육안으로 구별할 수 없다.The exemplary diagram shows the candidate region 40 and the average color region 70 to be distinguished for explanation, but the actual reproduction screen cannot be distinguished with the naked eye.

본 발명의 다른 실시예에 의하면, 사용자의 식별정보(60)는 식별정보 입력영역(50)없이 단독으로 동영상의 후보프레임(30) 내의 후보영역(40)에 삽입되는 것도 가능하다. 즉, 식별정보 입력영역(50)은 복제 동영상 검출 및 추적 단계에서 색상이 최소값만큼 차이나는 영역을 만들어서 사용자의 식별정보(60)를 탐색하는 것을 수월하게 하기 위해 이용되는 수단에 해당한다.According to another embodiment of the present invention, the user's identification information 60 may be inserted into the candidate region 40 in the candidate frame 30 of the video alone without the identification information input region 50. That is, the identification information input area 50 corresponds to a means used to facilitate searching for the user's identification information 60 by creating an area in which colors differ by a minimum value in the step of detecting and tracking a duplicate video.

또한, 다른 일실시예로, 사용자의 식별정보(60)가 식별정보 입력영역(50)없이 단독으로 삽입되는 경우에도, 색상이 최소값만큼 차이나는 영역을 만들 수 있는 방법을 설명한다.In addition, as another embodiment, even when the user's identification information 60 is inserted alone without the identification information input area 50, a method of creating an area in which the color is different by a minimum value will be described.

사용자의 식별정보(60)는 후보프레임(30)의 후보영역(40) 내에 임의의 영역에 삽입되지 않고, 평균색상영역(70)에 삽입될 수 있다. 이 때, 사용자의 식별정보(60)의 색상은 평균색상에서 최소값만큼 차이나는 색상으로 구성된다. 따라서, 상술한 평균색상으로 구성된 식별정보 입력영역(50)에 위치한 경우와 마찬가지로 검출 단계에서 색상이 최소값만큼 차이나는 영역으로 감지될 수 있다.The user's identification information 60 may not be inserted into an arbitrary region within the candidate region 40 of the candidate frame 30, but may be inserted into the average color region 70. At this time, the color of the user's identification information 60 is composed of a color different from the average color by a minimum value. Accordingly, similarly to the case where the identification information input area 50 configured with the above-described average color is located, the color may be detected as a region in which the color is different by the minimum value in the detection step.

다음으로, 평균색상영역(70)이 복수인 경우를 설명한다.Next, a case where there are a plurality of average color regions 70 will be described.

도 9는 본 발명의 또 다른 실시예에 따른 사용자의 식별정보를 복수의 부분으로 분리하여 복수의 평균색상영역에 각각 삽입하는 방법을 개략적으로 나타내는 흐름도이다.9 is a flowchart schematically illustrating a method of dividing user identification information into a plurality of parts and inserting them into a plurality of average color regions according to another embodiment of the present invention.

복수의 평균색상영역(70)이 있는 경우, 사용자의 식별정보(60)가 삽입되는 방법에는, 사용자의 식별정보(60) 전체가 중복하여 각각 삽입되는 방법, 하나의 평균색상영역을 선택하여 삽입하는 방법 및 사용자의 식별정보(60)를 복수의 부분으로 분리하여 각각 삽입하는 방법이 포함된다.When there are a plurality of average color areas 70, the method of inserting the user's identification information 60 is a method in which the entire user's identification information 60 is overlapped and inserted, respectively, and one average color area is selected and inserted. And a method of separating and inserting the user's identification information 60 into a plurality of parts.

사용자의 식별정보(60)를 복수의 부분으로 분리하여 복수의 평균색상영역(70)에 각각 삽입하는 방법은, 원본 동영상의 후보프레임(30)에서 후보영역(40)을 추출하는 단계(S210), 후보영역(40)에서 평균색상영역(70)을 추출하는 단계(S211), 평균색상영역(70)에서 제1 평균색상영역(71) 및 제2 평균색상영역(72)을 추출하는 단계(S213), 사용자의 식별정보를 제1 부분(61) 및 제2 부분(62)로 분리하는 단계(S215) 및 사용자의 식별정보의 제1 부분(61) 및 제2 부분(62)을 제1 평균색상영역(71) 및 제2 평균색상영역(72)에 각각 삽입하는 단계(S217)를 포함한다.The method of dividing the user's identification information 60 into a plurality of parts and inserting each into a plurality of average color regions 70 is the step of extracting the candidate region 40 from the candidate frame 30 of the original video (S210). , Extracting the average color region 70 from the candidate region 40 (S211), extracting the first average color region 71 and the second average color region 72 from the average color region 70 ( S213), separating the user's identification information into the first part 61 and the second part 62 (S215), and the first part 61 and the second part 62 of the user's identification information And inserting them into the average color region 71 and the second average color region 72 (S217).

일실시예로, 복수의 평균색상영역(70)에서 제1 평균색상영역(71) 및 제2 평균색상영역(72)을 추출하는 방법을 설명한다. 복수의 평균생상영역(70)은 모두 기본적으로 후보영역(40)의 평균색상으로 구성되며, 사용자의 식별정보(60)가 삽입될 수 있는 공간을 포함한다는 점에서는 동일하다. 한편, 각각의 평균색상영역(70)의 넓이 및 위치는 모두 상이하다. 따라서, 특정한 기준에 의해 제1 평균색상영역(71) 및 제2 평균색상영역(72)을 추출한다. 예를 들어, 넓이를 기준으로 가장 넓은 평균색상영역을 제1 평균색상영역(71)으로 선별하고, 그 다음으로 넓은 평균색상영역을 제2 평균색상영역(72)으로 선택할 수 있다. 다만, 이에 한정되는 것은 아니고, 넓이 외의 다양한 기준이 적용될 수 있다.In one embodiment, a method of extracting the first average color region 71 and the second average color region 72 from the plurality of average color regions 70 will be described. All of the plurality of average production areas 70 are basically composed of the average color of the candidate areas 40, and are the same in that they include a space into which the user's identification information 60 can be inserted. On the other hand, the area and the position of each average color region 70 are all different. Accordingly, the first average color region 71 and the second average color region 72 are extracted according to a specific criterion. For example, the widest average color area based on the area may be selected as the first average color area 71, and then the widest average color area may be selected as the second average color area 72. However, the present invention is not limited thereto, and various standards other than the width may be applied.

도 10은 본 발명의 또 다른 실시예에 따른 복수의 평균색상영역이 있는 경우를 나타내는 예시도이다.10 is an exemplary view showing a case in which there are a plurality of average color regions according to another exemplary embodiment of the present invention.

도 10에 도시된 예시를 참조하면, 후보영역(40) 내에 후보영역(40)의 평균색상으로 구성되며, 사용자의 식별정보(60)를 삽입할 수 있는 평균색상영역(70)이 복수로 존재한다.Referring to the example shown in FIG. 10, the candidate region 40 consists of an average color of the candidate region 40, and there are a plurality of average color regions 70 into which the user's identification information 60 can be inserted. do.

일실시예로, 도 10에서 도시된 바와 같이, 평균색상영역(70)이 복수로 존재하는 경우 각 영역을 제1 평균색상영역(71) 및 제2 평균색상영역(72)으로 지칭한다. 상기 제1 평균색상영역(71) 및 제2 평균색상영역(72)은 복수의 평균색상영역(70) 중에서 가장 넓은 2개의 영역에 해당할 수 있다.In one embodiment, as shown in FIG. 10, when there are a plurality of average color regions 70, each region is referred to as a first average color region 71 and a second average color region 72. The first average color region 71 and the second average color region 72 may correspond to two widest regions among the plurality of average color regions 70.

제1 평균색상영역(71) 및 제2 평균색상영역(72)에는 사용자의 식별정보(60)를 분리한 제1 부분(61) 및 제2 부분(62)이 각각 삽입된다.The first portion 61 and the second portion 62 from which the user's identification information 60 are separated are inserted into the first average color area 71 and the second average color area 72, respectively.

도 10을 참조하면, 사용자의 식별정보(60)가 'USER'인 경우, 'US' 부분과 'ER'부분으로 분리하여 제1 평균색상영역(71) 및 제2 평균색상영역(72)에 각각 삽입할 수 있다.Referring to FIG. 10, when the user's identification information 60 is'USER', it is separated into a'US' part and a'ER' part, and the first average color area 71 and the second average color area 72 are separated. Each can be inserted.

이를 통해, 복수의 평균색상영역(70) 중에서 어느 하나도 단독으로 사용자의 식별정보(60)를 삽입할 수 있는 충분한 공간이 없는 경우, 사용자의 식별정보(60)를 분리하여 삽입함으로써 여전히 본 발명의 실시예를 통한 실시가 가능해진다.Through this, if there is not enough space to insert the user's identification information 60 alone among the plurality of average color areas 70, the user's identification information 60 is separated and inserted, Implementation is possible through examples.

지금부터는 동영상 복제를 검출하고 추적하는 방법과 관련된 발명을 설명한다.In the following, an invention related to a method of detecting and tracking video duplication will be described.

도 11은 본 발명의 일 실시예에 따른 동영상 복제 검출 및 추적 방법을 개략적으로 나타내는 흐름도이다.11 is a flowchart schematically illustrating a method for detecting and tracking video duplication according to an embodiment of the present invention.

도 11을 참조하면, 동영상 복제 검출 및 추적하는 방법은, 검출 대상 동영상에서 후보프레임(30)을 추출하는 단계(S400), 추출한 후보프레임(30) 내의 후보영역(40)에 대해 사용자의 식별정보(60)를 탐색하는 단계(S500) 및 삽입된 사용자의 식별정보(60)를 추출하는 단계(S600)를 포함한다.Referring to FIG. 11, the method of detecting and tracking video duplication includes the step of extracting a candidate frame 30 from a video to be detected (S400), and identification information of a user for a candidate region 40 in the extracted candidate frame 30. It includes a step (S500) of searching for (60) and a step (S600) of extracting the inserted user's identification information (60).

본 발명에 의하면, 동영상 복제 검출 및 추적을 위해 검출 대상 동영상을 구성하는 복수의 프레임 모두의 전체 영역을 탐색할 필요없이, 특정한 후보프레임(30)을 추출하여 특정한 후보영역(40)만을 탐색하면 된다. 따라서, 보다 효율적이고 경제적인 복제 동영상 검출 및 유출자 추적이 가능하다는 효과가 있다.According to the present invention, it is not necessary to search the entire region of all of the plurality of frames constituting the detection target video for detection and tracking of video duplication, it is only necessary to search for a specific candidate region 40 by extracting a specific candidate frame 30. . Therefore, there is an effect that more efficient and economical duplicate video detection and leaker tracking are possible.

상기 검출 대상 동영상에서 후보프레임(30)을 추출하는 단계(S400)는 앞서 보정 동영상(20) 생성방법에서 설명한 원본 동영상(10)에서 후보 프레임(30)을 추출하는 단계(S100)의 내용과 동일하다.The step of extracting the candidate frame 30 from the detection target video (S400) is the same as the content of the step (S100) of extracting the candidate frame 30 from the original video 10 described in the method for generating the corrected video 20 above (S100). Do.

상기 추출한 후보프레임(30) 내의 후보영역(40)에 대해 사용자의 식별정보(60)를 탐색하는 단계(S500)를 설명한다.A step (S500) of searching the user's identification information 60 for the candidate region 40 in the extracted candidate frame 30 will be described.

사용자의 식별정보(60)를 탐색하는 단계(S500)는 S400 단계에서 추출한 특정한 후보프레임(30)내에 존재하는 후보영역(40)을 대상으로 한다.The step (S500) of searching for the user's identification information 60 targets the candidate region 40 existing in the specific candidate frame 30 extracted in step S400.

본 발명의 일 실시예에 의하면, 상기 후보영역(40) 내의 식별정보 입력영역(50)은 후보영역(40)의 평균색상으로 설정된다. 한편 삽입된 사용자의 식별정보(60)는 상기 평균색상에서 최소값만큼 차이나는 색상으로 구성된다.According to an embodiment of the present invention, the identification information input area 50 in the candidate area 40 is set to the average color of the candidate area 40. Meanwhile, the inserted user's identification information 60 is composed of a color different from the average color by a minimum value.

복제 동영상 검출 및 추적 서버(200)는 식별정보 입력영역(50)의 색상값과 사용자의 식별정보(60)의 색상값이 최소값만큼 차이난다는 특징을 이용하여, 후보영역(40)내에 삽입된 사용자의 식별정보(60)를 탐색한다. 즉, 사용자의 식별정보(60)를 탐색하는 단계(S500)는 색상이 최소값만큼 차이나는 영역을 감지하는 단계 및 상기 감지된 영역에서 사용자의 식별정보(60)를 추출하는 단계를 포함할 수 있다.The duplicate video detection and tracking server 200 uses the feature that the color value of the identification information input area 50 and the color value of the user's identification information 60 differ by a minimum value, The user's identification information (60) is searched. That is, the step (S500) of searching for the user's identification information 60 may include detecting a region in which colors differ by a minimum value, and extracting the user's identification information 60 from the detected region. .

색상을 RGB 시스템으로 표현하는 경우, 색상의 최소값은 0부터 255까지로 표시되는 색상값에서 1만큼을 의미한다. 따라서, 복제 동영상 검출 및 추적 서버(200)는 검출 대상이 되는 후보영역(40) 내에서 색상값의 차이가 최소값인 1만큼 차이나는 영역을 탐색한다. 복제 동영상 검출 및 추적 서버(200)는 색상값의 차이가 최소값인 1만큼 차이나는 영역이 감지되면, 해당 영역에서 사용자의 식별정보(60)를 추출하여 획득한다.In the case of expressing the color in the RGB system, the minimum value of the color means 1 out of the color values displayed from 0 to 255. Accordingly, the duplicate video detection and tracking server 200 searches for a region in which the difference in color values is 1, which is the minimum value, within the candidate region 40 to be detected. The duplicate video detection and tracking server 200 extracts and obtains the user's identification information 60 from the corresponding area when an area in which the difference in color value is different by the minimum value of 1 is detected.

예를 들어, 식별정보 입력영역(50)의 색상값은 후보영역(40)의 평균색상이며, 평균색상의 녹색 계열의 색상값이 180인 경우를 설명한다. 이 때, 사용자의 식별정보(60)의 색상은 빨간색 계열 및 파란색 계열의 색상값은 식별정보 입력영역(50)의 색상값과 동일하고, 녹색 계열의 색상값은 181일 수 있다(또는, 179일 수 있다.). 복제 동영상 검출 및 추적 서버(200)는 녹색 계열의 색상값 차이가 최소값인 1만큼 차이나는 영역을 탐색한다. 식별정보 입력영역(50)과 사용자의 식별정보(60)의 녹색 계열의 색상값은 각각 180, 181로 최소값인 1만큼 차이나므로, 복제 동영상 검출 및 추적 서버(200)에 의해 감지된다.For example, the color value of the identification information input area 50 is the average color of the candidate area 40, and the case where the green color value of the average color is 180 will be described. In this case, the color value of the user's identification information 60 may be the same as the color value of the identification information input area 50, and the color value of the green color may be 181 (or 179). Can be). The duplicate video detection and tracking server 200 searches for a region in which the difference in the color value of the green series differs by 1, which is the minimum value. Since the green color values of the identification information input area 50 and the user's identification information 60 are 180 and 181, respectively, which are different by the minimum value of 1, they are detected by the duplicate video detection and tracking server 200.

상술한 바와 같이, 색상값의 차이가 최소값인 1만큼 차이나는 영역이 감지된 경우, 복제 동영상 검출 및 추적 서버(200)는 감지된 영역에서 사용자의 식별정보(60)를 추출하여 획득한다.As described above, when an area in which the difference in color values differs by the minimum value of 1 is detected, the duplicate video detection and tracking server 200 extracts and obtains the user's identification information 60 from the detected area.

한편, 일실시예로, 상기 색상값의 차이가 최소값인 1만큼 차이나는 영역이 발견되지 않는 경우는, 다른 후보프레임에 대해 새롭게 탐색 작업을 진행하거나, 색상값의 차이가 최소값인 1만큼 차이나는 영역이 발견될 ‹š까지 탐색 작업을 멈추지 않을 수 있다.On the other hand, in one embodiment, when the area in which the difference between the color values differs by the minimum value of 1 is not found, a search operation is newly performed for other candidate frames, or the difference between the color values is different by the minimum value of 1. You may not stop searching until the area is found.

본 발명의 또 다른 실시예에 의하면, 검출 대상 동영상에서 후보프레임(30)을 추출하는 단계(S400) 이후에, 평균색상영역(70)을 추출하는 단계가 더 포함될 수 있다. 이는 보정 동영상 생성 과정에서, 사용자의 식별정보(60)를 삽입하는 영역을 후보영역(40)내에 존재하는 후보영역(40)의 평균색상으로 구성된 평균색상영역(70)으로 특정한 경우이다. 이 경우, 복제 동영상 검출 및 추적 서버(200)는 검출 대상 후보영역(40) 전체를 대상으로 탐색할 필요없이, 추출된 평균색상영역(70)에 대해서만 탐색을 진행하게 된다. 따라서, 탐색 대상 영역이 더욱 좁아지므로, 보다 신속하고 효율적인 탐색이 가능해진다.According to another embodiment of the present invention, after the step of extracting the candidate frame 30 from the detection target video (S400), the step of extracting the average color region 70 may be further included. This is a case in which the region into which the user's identification information 60 is inserted is specified as the average color region 70 composed of the average color of the candidate region 40 existing in the candidate region 40 in the process of generating the corrected video. In this case, the duplicate video detection and tracking server 200 does not need to search the entire detection target candidate region 40, and searches only the extracted average color region 70. Therefore, since the search target area becomes narrower, a faster and more efficient search becomes possible.

다음으로, 동영상 복제 검출 및 추적 단계에서 색상값의 차이가 최소값인 영역이 복수로 발견된 경우를 설명한다.Next, a case where a plurality of regions having a minimum difference in color values are found in the video duplication detection and tracking step will be described.

도 10을 참조하면, 식별정보로서 'USER'라는 사용자의 식별ID가 제1 부분(61)인 'US' 및 제2 부분(62)인 'ER'으로 분리되어, 제1 평균색상영역(71)에 'US'가, 제2 평균색상영역(72)에는 'ER'이 각각 삽입되어있다. 복제 동영상 검출 및 추적 서버(200)는 제1 평균색상영역(71) 및 제2 평균색상영역(72)에서 각각 'US'와 'ER'이라는 식별정보의 부분들을 추출 및 획득하고, 'USER'로 조합하여 식별정보 전체를 획득한다.Referring to FIG. 10, a user's identification ID of'USER' as identification information is divided into'US' as a first part 61 and'ER' as a second part 62, and the first average color area 71 ) Is inserted into'US' and'ER' is inserted into the second average color region 72, respectively. The duplicate video detection and tracking server 200 extracts and acquires portions of identification information such as'US' and'ER' from the first average color area 71 and the second average color area 72, respectively, and'USER' To obtain the entire identification information.

일실시예로, 감지한 식별정보의 부분들을 조합하는 순서는 제1 평균색상영역(71) 및 제2 평균색상영역(72)을 선택하는 기준과 동일하게 적용된다. 전술한 예와 같이, 복수의 평균생삭영역(70) 중에서 넓이를 기준으로 가장 넓은 평균색상영역을 제1 평균색상영역(71)으로, 그 다음으로 넓은 평균색상영역을 제2 평균색상영역(72)으로 선택한 경우, 조합하는 순서도 그에 따른다. 즉, 제1 평균색상영역(71)에서 감지된 식별정보를 제1 부분(61), 제2 평균색상영역(72)에서 감지된 식별정보를 제2 부분(62)으로 하여, 제1 부분(61) 뒤에 제2 부분(62)을 조합하여 전체 식별정보를 완성한다.In one embodiment, the order of combining the detected parts of the identification information is applied in the same manner as the criteria for selecting the first average color region 71 and the second average color region 72. As in the above example, among the plurality of average fresh regions 70, the widest average color region based on the area is the first average color region 71, and the next widest average color region is the second average color region 72. ), the order of combination is also followed. That is, by using the identification information detected in the first average color region 71 as the first part 61 and the identification information detected in the second average color region 72 as the second part 62, the first part ( 61) The second part 62 is then combined to complete the entire identification information.

본 발명의 실시예와 관련하여 설명된 방법 또는 알고리즘의 단계들은 하드웨어로 직접 구현되거나, 하드웨어에 의해 실행되는 소프트웨어 모듈로 구현되거나, 또는 이들의 결합에 의해 구현될 수 있다. 소프트웨어 모듈은 RAM(Random Access Memory), ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리(Flash Memory), 하드 디스크, 착탈형 디스크, CD-ROM, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터 판독가능 기록매체에 상주할 수도 있다.The steps of a method or algorithm described in connection with an embodiment of the present invention may be implemented directly in hardware, implemented as a software module executed by hardware, or a combination thereof. Software modules include Random Access Memory (RAM), Read Only Memory (ROM), Erasable Programmable ROM (EPROM), Electrically Erasable Programmable ROM (EEPROM), Flash Memory, hard disk, removable disk, CD-ROM, or It may reside on any type of computer-readable recording medium well known in the art to which the present invention pertains.

이상, 첨부된 도면을 참조로 하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야의 통상의 기술자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 제한적이 아닌 것으로 이해해야만 한다.In the above, embodiments of the present invention have been described with reference to the accompanying drawings, but those of ordinary skill in the art to which the present invention pertains can be implemented in other specific forms without changing the technical spirit or essential features. You will be able to understand. Therefore, the embodiments described above are illustrative in all respects, and should be understood as non-limiting.

10: 원본 동영상
20: 보정 동영상
30: 후보프레임
40: 후보영역
50: 식별정보 입력영역
60: 사용자의 식별정보
70: 평균색상영역
10: original video
20: Correction video
30: candidate frame
40: candidate area
50: identification information input area
60: User's identification information
70: average color area

Claims (10)

컴퓨터에 의해 수행되는,
원본 동영상에서 하나 이상의 후보프레임을 추출하되, 상기 후보프레임은 원본 동영상을 재생 요청한 사용자의 식별정보를 삽입 가능한 후보영역을 포함하는 것인, 후보프레임 추출단계; 및
특정한 후보프레임 내의 후보영역에 상기 식별정보를 삽입한 보정 동영상을 생성하는 단계;를 포함하되,
상기 후보영역은 프레임 내의 특정한 범위 이상의 공간으로서, 기준값 차이 이내의 색상으로 구성되고
상기 보정 동영상을 생성하는 단계는,
상기 후보영역 내에 식별정보 입력영역을 상기 후보영역의 평균색상으로 설정하는 단계;
상기 후보영역 내에 상기 후보영역의 평균색상으로 구성되며, 사용자의 식별정보를 삽입 가능한 평균색상영역을 추출하는 단계; 및
상기 평균색상영역에 상기 평균색상에서 최소값만큼 차이나는 색상으로 사용자의 식별정보를 삽입하는 단계를 포함하고,
상기 평균색상영역이 복수인 경우, 평균색상영역의 넓이를 기준으로 제1 평균색상영역 및 제2 평균색상영역을 추출하는 단계;
상기 사용자의 식별정보를 제1 부분 및 제2 부분으로 분리하는 단계; 및
상기 제1 부분 및 제2 부분을 상기 제1 평균색상영역 및 제2 평균색상영역에 각각 삽입하는 단계를 포함하는 것인, 유출자 추적이 가능한 보정 동영상 생성방법.
Performed by the computer,
Extracting one or more candidate frames from the original video, wherein the candidate frame includes a candidate region into which identification information of a user who requested to play the original video can be inserted; And
Generating a correction video in which the identification information is inserted into a candidate region within a specific candidate frame; including,
The candidate region is a space beyond a specific range within a frame, and is composed of a color within a reference value difference
The step of generating the corrected video,
Setting an identification information input area in the candidate area as an average color of the candidate area;
Extracting an average color area in the candidate area comprising the average color of the candidate area and into which the user's identification information can be inserted; And
Including the step of inserting the user's identification information in the average color area with a color that differs by a minimum value from the average color,
Extracting a first average color area and a second average color area based on an area of the average color area when the average color area is plural;
Separating the identification information of the user into a first part and a second part; And
And inserting the first portion and the second portion into the first average color region and the second average color region, respectively.
삭제delete 삭제delete 삭제delete 삭제delete 컴퓨터에 의해 수행되는,
검출 대상 동영상에서 하나 이상의 후보프레임을 추출하되, 상기 후보프레임은 원본 동영상을 재생 요청한 사용자의 식별정보를 삽입 가능한 후보영역을 포함하는 것인, 후보프레임 추출단계
상기 후보영역에서 평균색상영역을 추출하는 단계; 및
상기 평균색상영역에 대해 상기 식별정보를 탐색하는 단계;를 포함하되,
상기 후보영역은 프레임 내의 특정한 범위 이상의 공간으로서, 기준값 차이 이내의 색상으로 구성되고,
상기 평균색상영역은 상기 후보영역의 평균색상으로 구성된 영역이고,
상기 식별정보 탐색단계는,
상기 후보영역에서 색상이 최소값만큼 차이나는 영역을 탐색하는 단계를 포함하고,
색상이 최소값만큼 차이나는 영역이 감지된 경우, 상기 색상이 최소값만큼 차이나는 영역에서 상기 식별정보를 추출하는 것을 특징으로 하고,
색상이 최소값만큼 차이나는 영역이 복수로 감지된 경우,
상기 복수의 영역에서 각각 식별정보를 추출하는 단계; 및
상기 복수의 영역 각각의 넓이를 기준으로 상기 추출된 식별정보들을 조합하는 단계를 더 포함하는 것을 특징으로 하는, 동영상 복제 검출 및 추적하는방법.
Performed by the computer,
Extracting one or more candidate frames from the detection target video, wherein the candidate frame includes a candidate region into which identification information of a user who requested to play the original video can be inserted
Extracting an average color region from the candidate region; And
Including; searching for the identification information for the average color region;
The candidate region is a space of a specific range or more within a frame, and is composed of a color within a reference value difference,
The average color area is an area composed of the average color of the candidate area,
The identification information search step,
Including the step of searching for a region in which the color is different by a minimum value in the candidate region,
When an area in which the color is different by the minimum value is detected, the identification information is extracted from the area in which the color is different by the minimum value,
When multiple areas in which colors differ by the minimum value are detected,
Extracting identification information from each of the plurality of areas; And
And combining the extracted identification information based on the areas of each of the plurality of areas.
삭제delete 삭제delete 원본 동영상에서 하나 이상의 후보프레임을 추출하되, 상기 후보프레임은 원본 동영상을 재생 요청한 사용자의 식별정보를 삽입 가능한 후보영역을 포함하는 것인, 후보프레임 추출부; 및
특정한 후보프레임 내의 후보영역에 상기 식별정보를 삽입한 보정 동영상을 생성하는 생성부;를 포함하되,
상기 후보영역은 프레임 내의 특정한 범위 이상의 공간으로서, 기준값 차이 이내의 색상으로 구성되고,
상기 생성부는,
상기 후보영역의 평균색상으로 구성된 평균색상영역에만 상기 식별정보를 삽입한 보정 동영상을 생성하고,
상기 평균색상영역이 복수인 경우, 평균색상영역의 넓이를 기준으로 제1 평균색상영역 및 제2 평균색상영역을 추출하고,
상기 식별정보를 제1 부분 및 제2 부분으로 분리하고,
상기 제1 부분 및 제2 부분을 상기 제1 평균색상영역 및 제2 평균색상영역에 각각 삽입하는 것인, 유출자 추적이 가능한 보정 동영상 생성 시스템.
Extracting one or more candidate frames from the original video, wherein the candidate frame includes a candidate region into which identification information of a user who requested to play the original video can be inserted; And
Including; a generation unit for generating a correction video in which the identification information is inserted into a candidate region within a specific candidate frame,
The candidate region is a space of a specific range or more within a frame, and is composed of a color within a reference value difference,
The generation unit,
Generates a correction video in which the identification information is inserted only in the average color region composed of the average color of the candidate region,
When the average color region is plural, a first average color region and a second average color region are extracted based on the area of the average color region,
Separating the identification information into a first part and a second part,
To insert the first portion and the second portion into the first average color region and the second average color region, respectively, a corrected video generation system capable of tracking a leaker.
검출 대상 동영상에서 하나 이상의 후보프레임을 추출하되, 상기 후보프레임은 원본 동영상을 재생 요청한 사용자의 식별정보를 삽입 가능한 후보영역을 포함하는 것인, 후보프레임 추출부; 및
특정한 후보프레임 내의 후보영역에 대해 상기 식별정보를 탐색하는 탐색부;를 포함하되,
상기 후보영역은 프레임 내의 특정한 범위 이상의 공간으로서, 기준값 차이 이내의 색상으로 구성되고,
상기 탐색부는,
상기 후보영역의 평균색상으로 구성된 평균색상영역에서만 상기 식별정보를 탐색하고,
상기 평균색상영역이 복수로 감지된 경우,
상기 복수의 평균색상영역에서 각각 식별정보를 추출하고,
상기 복수의 평균색상영역 각각의 넓이를 기준으로 상기 추출된 식별정보들을 조합하는 것인, 동영상 복제 검출 및 추적하는 시스템.
A candidate frame extracting unit that extracts one or more candidate frames from the detection target video, wherein the candidate frame includes a candidate region into which identification information of a user who requested to play the original video can be inserted; And
Including; a search unit for searching for the identification information for a candidate region in a specific candidate frame,
The candidate region is a space of a specific range or more within a frame, and is composed of a color within a reference value difference,
The search unit,
Searching for the identification information only in the average color region composed of the average color of the candidate region,
When the average color region is detected in plurality,
Each identification information is extracted from the plurality of average color regions,
Combining the extracted identification information based on the widths of each of the plurality of average color regions, video duplication detection and tracking system.
KR1020190047761A 2018-04-24 2019-04-24 Method and system for detecting and tracking video piracy KR102227370B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/KR2019/004964 WO2019209027A1 (en) 2018-04-24 2019-04-24 Method and system for detecting and tracking video copy

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020180047586 2018-04-24
KR20180047586 2018-04-24

Publications (2)

Publication Number Publication Date
KR20190123696A KR20190123696A (en) 2019-11-01
KR102227370B1 true KR102227370B1 (en) 2021-03-12

Family

ID=68535563

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190047761A KR102227370B1 (en) 2018-04-24 2019-04-24 Method and system for detecting and tracking video piracy

Country Status (1)

Country Link
KR (1) KR102227370B1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102592989B1 (en) * 2020-05-28 2023-10-23 (주)리마보안연구소 Method and device for detecting and tracking video piracy
KR102483204B1 (en) * 2022-08-01 2022-12-30 주식회사 팬덤코리아 Methods and systems for detection and tracking of video duplications in nft platforms

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120281871A1 (en) * 2000-02-14 2012-11-08 Reed Alastair M Color image or video processing
KR101439475B1 (en) * 2013-04-03 2014-09-17 주식회사 마인미디어 Apparatus and method for detecting and searching illegal copies of moving pictures

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120281871A1 (en) * 2000-02-14 2012-11-08 Reed Alastair M Color image or video processing
KR101439475B1 (en) * 2013-04-03 2014-09-17 주식회사 마인미디어 Apparatus and method for detecting and searching illegal copies of moving pictures

Also Published As

Publication number Publication date
KR20190123696A (en) 2019-11-01

Similar Documents

Publication Publication Date Title
US7350228B2 (en) Method for securing digital content
US10951958B1 (en) Authenticity assessment of modified content
MXPA05000524A (en) Desynchronized fingerprinting method and system for digital multimedia data.
KR102227370B1 (en) Method and system for detecting and tracking video piracy
KR102375395B1 (en) Platform system for creating contents by allocating authentication token and creating secondary contents
US7899205B2 (en) Data content identification
JP2003304388A (en) Additional information detection processor, apparatus and method for contents reproduction processing, and computer program
JP4340455B2 (en) Image processing program creation method, image processing program creation program, and image processing program creation device
JP2004294474A (en) System, method and program for providing contents
US8180098B2 (en) Method of extracting a watermark
KR102592989B1 (en) Method and device for detecting and tracking video piracy
JP2007207190A (en) Content detection device, unauthorized use determination device, alarm, and content distribution network system
US11443401B2 (en) Digital watermarking
KR102483204B1 (en) Methods and systems for detection and tracking of video duplications in nft platforms
KR102375394B1 (en) Platform system for creating contents by using selectively allocating token and setting intervals of video contents
KR101564421B1 (en) Device and method of processing videos
JP6054263B2 (en) Video copyright protection method and system using advertising revenue sharing
JP2008118606A (en) Content distribution apparatus, and content distribution system
KR101427220B1 (en) Copyright protection service method and system using an image search
WO2019209027A1 (en) Method and system for detecting and tracking video copy
US11152034B2 (en) Chain-of-manipulation tracking of audio-video content
McGregor Sports, GIFs and Copyright: Is It a Draw Between Content Owners and Consumers in the Web 2.0 Era?
WO2023210095A1 (en) Video identification device, video identification method, and video identification program
JP5361777B2 (en) Pixel package file playback device and pixel package file playback program
JP2003304508A (en) Electronic watermark information display apparatus, electronic watermark information display method, image data recording film, electronic watermark information recording filter, and computer program

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
X091 Application refused [patent]
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant