KR102674099B1 - Method, device, and system for automating content planning and a/b testing based on classification of video content and analysis of viewing-related data - Google Patents

Method, device, and system for automating content planning and a/b testing based on classification of video content and analysis of viewing-related data Download PDF

Info

Publication number
KR102674099B1
KR102674099B1 KR1020240033675A KR20240033675A KR102674099B1 KR 102674099 B1 KR102674099 B1 KR 102674099B1 KR 1020240033675 A KR1020240033675 A KR 1020240033675A KR 20240033675 A KR20240033675 A KR 20240033675A KR 102674099 B1 KR102674099 B1 KR 102674099B1
Authority
KR
South Korea
Prior art keywords
video content
user
keyword
category
content
Prior art date
Application number
KR1020240033675A
Other languages
Korean (ko)
Inventor
최지원
Original Assignee
주식회사 씨제이더블유글로벌
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 씨제이더블유글로벌 filed Critical 주식회사 씨제이더블유글로벌
Priority to KR1020240033675A priority Critical patent/KR102674099B1/en
Application granted granted Critical
Publication of KR102674099B1 publication Critical patent/KR102674099B1/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/24Monitoring of processes or resources, e.g. monitoring of server load, available bandwidth, upstream requests
    • H04N21/2407Monitoring of transmitted content, e.g. distribution time, number of downloads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0637Strategic management or analysis, e.g. setting a goal or target of an organisation; Planning actions based on goals; Analysis or evaluation of effectiveness of goals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/10Office automation; Time management
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/251Learning process for intelligent management, e.g. learning user preferences for recommending movies
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/258Client or end-user data management, e.g. managing client capabilities, user preferences or demographics, processing of multiple end-users preferences to derive collaborative data
    • H04N21/25866Management of end-user data
    • H04N21/25883Management of end-user data being end-user demographical data, e.g. age, family status or address
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/258Client or end-user data management, e.g. managing client capabilities, user preferences or demographics, processing of multiple end-users preferences to derive collaborative data
    • H04N21/25866Management of end-user data
    • H04N21/25891Management of end-user data being end-user preferences
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/262Content or additional data distribution scheduling, e.g. sending additional data at off-peak times, updating software modules, calculating the carousel transmission frequency, delaying a video stream transmission, generating play-lists
    • H04N21/26208Content or additional data distribution scheduling, e.g. sending additional data at off-peak times, updating software modules, calculating the carousel transmission frequency, delaying a video stream transmission, generating play-lists the scheduling operation being performed under constraints
    • H04N21/26233Content or additional data distribution scheduling, e.g. sending additional data at off-peak times, updating software modules, calculating the carousel transmission frequency, delaying a video stream transmission, generating play-lists the scheduling operation being performed under constraints involving content or additional data duration or size, e.g. length of a movie, size of an executable file

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Databases & Information Systems (AREA)
  • Human Resources & Organizations (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Strategic Management (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Economics (AREA)
  • Theoretical Computer Science (AREA)
  • General Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Operations Research (AREA)
  • Quality & Reliability (AREA)
  • Tourism & Hospitality (AREA)
  • Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • General Physics & Mathematics (AREA)
  • Educational Administration (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • Development Economics (AREA)
  • Game Theory and Decision Science (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

일실시예에 따른 장치는, 콘텐츠 사이트로부터 영상 콘텐츠의 메타 데이터를 획득하고, 콘텐츠 사이트로부터 영상 콘텐츠에 대한 시청 데이터를 획득하고, 영상 콘텐츠의 메타 데이터 및 영상 콘텐츠의 시청 데이터를 기초로 콘텐츠 기획안을 생성하고, 콘텐츠 기획안을 기반으로 제작된 초안 영상 콘텐츠를 사용자의 단말로부터 획득하고, 초안 영상 콘텐츠에 미리 설정된 변수를 적용하여 2가지 이상의 버전을 생성하고, 생성된 버전에 대해 콘텐츠 사이트로부터 획득한 시청 데이터를 이용하여 예상 조회 수를 산출하고, 예상 조회 수를 사용자의 단말에 제공한다.An apparatus according to an embodiment acquires metadata of the video content from the content site, obtains viewing data for the video content from the content site, and creates a content plan based on the metadata of the video content and the viewing data of the video content. Create, obtain draft video content produced based on the content plan from the user's terminal, apply preset variables to the draft video content to create two or more versions, and obtain viewing data from the content site for the created versions. The data is used to calculate the expected number of views, and the expected number of views is provided to the user's terminal.

Description

영상 콘텐츠의 분류 및 시청 관련 데이터의 분석 결과를 기반으로 한 콘텐츠 기획 및 A/B 테스트 자동화 방법, 장치 및 시스템 { METHOD, DEVICE, AND SYSTEM FOR AUTOMATING CONTENT PLANNING AND A/B TESTING BASED ON CLASSIFICATION OF VIDEO CONTENT AND ANALYSIS OF VIEWING-RELATED DATA }Method, device, and system for automating content planning and A/B testing based on classification of video content and analysis of viewing-related data { METHOD, DEVICE, AND SYSTEM FOR AUTOMATING CONTENT PLANNING AND A/B TESTING BASED ON CLASSIFICATION OF VIDEO CONTENT AND ANALYSIS OF VIEWING-RELATED DATA }

아래 실시예들은 영상 콘텐츠의 메타 데이터 및 영상 콘텐츠의 시청 데이터를 분석하여 콘텐츠를 기획하고, A/B 테스트를 자동화하기 위한 기술에 관한 것이다.The following embodiments relate to technology for planning content and automating A/B testing by analyzing metadata of video content and viewing data of video content.

디지털 시대가 도래하면서, 시청각적 정보를 제공하여 복잡한 내용도 쉽게 전달하는 영상 콘텐츠의 역할이 정보 전달의 중심축으로 자리매김했다.With the advent of the digital age, the role of video content, which provides audiovisual information to easily convey complex content, has become a central axis of information delivery.

한편, 인터넷의 발전과 함께, YouTube, Netflix, Amazon Prime Video 등 다양한 플랫폼이 등장하면서 방대한 양의 영상 콘텐츠들이 제공되고 있고, 시청자의 취향 및 선호도가 끊임없이 변화됨으로써, 영상 콘텐츠의 경쟁은 점점 치열해지고 있다.Meanwhile, with the development of the Internet, a vast amount of video content is being provided with the emergence of various platforms such as YouTube, Netflix, and Amazon Prime Video, and as viewers' tastes and preferences are constantly changing, competition in video content is becoming increasingly fierce. .

이에 따라, 콘텐츠 제작자와 플랫폼 운영자 모두에게 콘텐츠를 효과적으로 기획, 제작 및 배포하는 것은 중요해지고 있다.Accordingly, it has become important for both content creators and platform operators to effectively plan, produce, and distribute content.

시청자의 관심을 끌고 유지하기 위해 지속적으로 콘텐츠의 질을 개선하고, 새로운 콘텐츠를 기획하기 위해서는, 영상 콘텐츠의 정보 및 시청 데이터를 분석하고 이해하는 것이 중요한데, 이는 시청자의 선호도와 행동 패턴을 파악할 수 있고, 이는 콘텐츠 기획 및 개선 과정에서 중요한 근거 자료로 활용될 수 있다.In order to continuously improve the quality of content and plan new content to attract and maintain the attention of viewers, it is important to analyze and understand the information and viewing data of video content, which can identify viewer preferences and behavior patterns. , this can be used as important evidence in the content planning and improvement process.

따라서, 영상 콘텐츠의 메타 데이터 및 영상 콘텐츠의 시청 데이터를 분석하여 콘텐츠를 기획하고, A/B 테스트를 자동화하는 기술이 요구된다.Therefore, there is a need for technology to plan content and automate A/B testing by analyzing metadata of video content and viewing data of video content.

한국등록특허 제10-2546328호 (2023.06.22. 공고)Korean Patent No. 10-2546328 (announced on June 22, 2023) 한국등록특허 제10-2632804호 (2024.02.05. 공고)Korean Patent No. 10-2632804 (announced on 2024.02.05) 한국등록특허 제10-2551997호 (2023.07.06. 공고)Korean Patent No. 10-2551997 (announced on July 6, 2023) 한국등록특허 제10-2597432호 (2023.11.01. 공고)Korean Patent No. 10-2597432 (announced on November 1, 2023)

실시예들은 영상 콘텐츠의 정보 및 영상 콘텐츠의 시청 데이터를 기초로 콘텐츠를 기획하고, A/B 테스트를 자동화하고자 한다.Embodiments plan content based on video content information and video content viewing data and attempt to automate A/B testing.

실시예들은 사용자에게 적합한 영상 콘텐츠의 카테고리를 선정하고자 한다.Embodiments seek to select a category of video content suitable for a user.

실시예들은 트렌드 키워드, 분량, 타겟층을 포함하는 콘텐츠 기획안을 생성하고자 한다.Embodiments seek to create a content plan that includes trending keywords, volume, and target audience.

본 발명의 목적은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 명확하게 이해될 수 있을 것이다.The object of the present invention is not limited to the object mentioned above, and other objects not mentioned can be clearly understood from the description below.

일실시예에 따르면, 영상 콘텐츠의 분류 및 시청 관련 데이터의 분석 결과를 기반으로 한 콘텐츠 기획 및 A/B 테스트 자동화 방법은 콘텐츠 사이트로부터 영상 콘텐츠의 메타 데이터를 획득하는 단계; 상기 콘텐츠 사이트로부터 상기 영상 콘텐츠에 대한 시청 데이터를 획득하는 단계; 상기 영상 콘텐츠의 메타 데이터 및 상기 영상 콘텐츠에 대한 시청 데이터를 기초로, 콘텐츠 기획안을 생성하는 단계; 상기 콘텐츠 기획안을 기반으로 제작된 초안 영상 콘텐츠를 사용자의 단말로부터 획득하는 단계; 상기 초안 영상 콘텐츠에 미리 설정된 변수를 적용하여, 적어도 2가지 이상의 버전을 생성하는 단계; 상기 생성된 버전에 대해 상기 콘텐츠 사이트로부터 획득한 시청 데이터를 이용하여 예상 조회수를 산출하는 단계; 및 상기 최종 영상 콘텐츠를 산정하는데 참고할 수 있도록 상기 예상 조회수를 상기 사용자의 단말로 제공하는 단계를 포함한다.According to one embodiment, a method for automating content planning and A/B testing based on classification of video content and analysis results of viewing-related data includes the steps of obtaining metadata of video content from a content site; Obtaining viewing data for the video content from the content site; generating a content plan based on metadata of the video content and viewing data for the video content; Obtaining draft video content produced based on the content plan from the user's terminal; Applying preset variables to the draft video content to create at least two versions; calculating an expected number of views for the generated version using viewing data obtained from the content site; and providing the expected number of views to the user's terminal for reference in calculating the final video content.

영상 콘텐츠의 분류 및 시청 관련 데이터의 분석 결과를 기반으로 한 콘텐츠 기획 및 A/B 테스트 자동화 방법은 상기 영상 콘텐츠의 메타 데이터 및 상기 영상 콘텐츠에 대한 시청 데이터를 기초로, 콘텐츠 기획안을 생성하는 단계; 이전에 상기 사용자의 단말로부터 업로드하고자 하는 영상 콘텐츠의 선호 카테고리가 있는지 여부를 확인하는 단계; 상기 선호 카테고리가 있다고 확인되면, 상기 사용자의 단말로부터 상기 선호 카테고리를 획득하는 단계; 및 상기 선호 카테고리가 없다고 확인되면, 상기 사용자의 정보를 기초로 선호 카테고리를 선정하는 단계를 더 포함한다.A method of automating content planning and A/B testing based on classification of video content and analysis of viewing-related data includes the steps of: generating a content plan based on metadata of the video content and viewing data for the video content; previously checking whether there is a preferred category of video content to be uploaded from the user's terminal; If it is confirmed that the preference category exists, obtaining the preference category from the user's terminal; And if it is confirmed that there is no preference category, it further includes selecting a preference category based on the user's information.

상기 사용자의 정보를 기초로, 선호 카테고리를 선정하는 단계는, 상기 사용자의 단말로부터 상기 사용자의 성별, 연령, 직업, 취미를 포함하는 상기 사용자의 개인 정보를 획득하는 동작, 상기 사용자의 개인 정보를 기초로, 제1 추천 카테고리를 선정하는 동작, 상기 콘텐츠 사이트로부터 상기 사용자의 시청 이력을 획득하는 동작, 상기 사용자의 시청 이력을 기초로, 제2 추천 카테고리를 선정하는 동작, 상기 제1 추천 카테고리 및 상기 제2 추천 카테고리에 모두 포함된 카테고리가 있는지 여부를 확인하는 동작, 상기 제1 추천 카테고리 및 상기 제2 추천 카테고리에 모두 포함된 카테고리가 있다고 확인되면, 상기 제1 추천 카테고리 및 상기 제2 추천 카테고리에 모두 포함된 카테고리를 선호 카테고리로 선정하는 동작, 상기 제1 추천 카테고리 및 상기 제2 추천 카테고리에 모두 포함된 카테고리가 없다고 확인되면, 상기 사용자의 시청 이력을 통해 상기 사용자의 평균 시청 시간을 확인하는 동작, 상기 사용자의 평균 시청 시간이 미리 설정된 임계 시간보다 짧은지 여부를 확인하는 동작, 상기 사용자의 평균 시청 시간이 상기 임계 시간보다 짧다고 확인되면, 상기 제1 추천 카테고리를 먼저 정렬하고, 상기 제2 추천 카테고리를 나중에 정렬하여 리스트를 생성하는 동작, 상기 사용자의 평균 시청 시간이 상기 임계 시간보다 짧지 않다고 확인되면, 상기 제2 추천 카테고리를 먼저 정렬하고, 상기 제1 추천 카테고리를 나중에 정렬하여 리스트를 생성하는 동작, 및 상기 사용자의 단말로 상기 리스트를 제공하고, 상기 리스트를 기반으로 상기 사용자의 단말로부터 상기 선호 카테고리를 획득하는 동작을 포함한다.The step of selecting a preferred category based on the user's information includes obtaining the user's personal information including the user's gender, age, occupation, and hobbies from the user's terminal, and obtaining the user's personal information. An operation of selecting a first recommendation category as a basis, an operation of obtaining the viewing history of the user from the content site, an operation of selecting a second recommendation category based on the viewing history of the user, the first recommendation category and An operation of checking whether there is a category included in both the first recommended category and, if it is determined that there is a category included in both the first recommended category and the second recommended category, the first recommended category and the second recommended category An operation of selecting a category included in both the first recommended category and the second recommended category as a preferred category, and if it is confirmed that there is no category included in both the first recommended category and the second recommended category, checking the user's average viewing time through the user's viewing history. An operation of checking whether the user's average viewing time is shorter than a preset threshold time. If it is determined that the user's average viewing time is shorter than the threshold time, the first recommendation category is sorted first, and the second recommendation category is sorted first. Sorting the recommended categories later to create a list. If it is confirmed that the average viewing time of the user is not shorter than the threshold time, sorting the second recommended categories first and sorting the first recommended categories later to create a list. and providing the list to the user's terminal and obtaining the preference category from the user's terminal based on the list.

상기 영상 콘텐츠의 메타 데이터 및 상기 영상 콘텐츠의 시청 데이터를 기초로, 콘텐츠 기획안을 생성하는 단계는, 상기 선호 카테고리에 매칭된 영상 콘텐츠를 참고 영상 콘텐츠로 선정하는 동작, 상기 참고 영상 콘텐츠를 기초로, 트렌드 키워드를 선정하는 동작, 상기 참고 영상 콘텐츠를 기초로, 최적 분량을 선정하는 동작, 상기 참고 영상 콘텐츠를 기초로, 타겟층을 선정하는 동작, 및 상기 트렌드 키워드, 상기 최적 분량, 상기 타겟층을 포함하는 상기 콘텐츠 기획안을 생성하는 동작을 포함한다.The step of generating a content plan based on the metadata of the video content and the viewing data of the video content includes selecting video content matched to the preference category as reference video content, based on the reference video content, An operation of selecting a trend keyword, an operation of selecting an optimal amount based on the reference video content, an operation of selecting a target group based on the reference video content, and the trend keyword, the optimal amount, and the target group. It includes an operation of generating the content plan.

상기 트렌드 키워드를 선정하는 동작은, 미리 설정된 기준 기간 이내에 업로드 된 참고 영상 콘텐츠에서 사용된 단어를 제1 키워드로 확인하는 동작, 조회 수가 미리 설정된 기준 값보다 높은 참고 영상 콘텐츠에서 사용된 단어를 제2 키워드로 확인하는 동작, 상기 콘텐츠 사이트에 포함된 검색 엔진을 통해 상기 참고 영상 콘텐츠를 검색하기 위해 사용된 검색어를 확인하여 제3 키워드로 선정하는 동작, 상기 제1 키워드, 상기 제2 키워드 및 상기 제3 키워드에 모두 포함된 키워드가 있는지 여부를 확인하는 동작, 상기 제1 키워드, 상기 제2 키워드 및 상기 제3 키워드에 모두 포함된 키워드가 있다고 확인되면, 상기 제1 키워드, 상기 제2 키워드 및 상기 제3 키워드에 모두 포함된 키워드를 트렌드 키워드로 선정하는 동작, 및 상기 제1 키워드, 상기 제2 키워드 및 상기 제3 키워드에 모두 포함된 키워드가 없다고 확인되면, 상기 제1 키워드, 상기 제2 키워드 및 상기 제3 키워드가 각각 사용된 횟수를 확인하여, 가장 많이 사용된 키워드를 트렌드 키워드로 선정하는 동작을 포함한다.The operation of selecting the trend keyword includes checking words used in reference video content uploaded within a preset standard period as the first keyword, and words used in reference video content whose number of views is higher than the preset standard value as the second keyword. An operation of checking with a keyword, an operation of checking a search word used to search the reference video content through a search engine included in the content site and selecting it as a third keyword, the first keyword, the second keyword, and the third keyword. 3 An operation of checking whether there is a keyword included in all the keywords. If it is confirmed that there is a keyword included in all the first keyword, the second keyword, and the third keyword, the first keyword, the second keyword, and the third keyword are checked. An operation of selecting a keyword included in all the third keywords as a trend keyword, and when it is confirmed that there is no keyword included in all the first keyword, the second keyword, and the third keyword, the first keyword, the second keyword and an operation of checking the number of times each of the third keywords has been used and selecting the most used keyword as a trend keyword.

상기 최적 분량을 선정하는 동작은, 상기 참고 영상 콘텐츠의 시청 데이터를 통해 조회 수 및 완독 조회 수를 확인하는 동작, 상기 조회 수 대비 상기 완독 조회 수를 기반으로 상기 참고 영상 콘텐츠의 완독률을 생성하는 동작, 완독률이 미리 설정된 기준 비율보다 높은 참고 영상 콘텐츠를 성공 영상 콘텐츠로 선정하는 동작, 상기 성공 영상 콘텐츠의 영상 분량을 확인하고, 영상 분량의 표준 편차 값을 생성하는 동작, 상기 표준 편차 값이 미리 설정된 한계 값보다 작은지 여부를 확인하는 동작, 상기 표준 편차 값이 상기 한계 값보다 작다고 확인되면, 가장 빈도 수가 높은 영상 분량을 최적 분량으로 선정하는 동작, 및 상기 표준 편차 값이 상기 한계 값보다 작지 않다고 확인되면, 조회 수가 가장 높은 성공 영상 콘텐츠의 영상 분량을 최적 분량으로 선정하는 동작을 포함한다.The operation of selecting the optimal amount includes checking the number of views and the number of complete views through viewing data of the reference video content, and generating a completion rate of the reference video content based on the number of complete views compared to the number of views. An operation of selecting a reference video content whose completion rate is higher than a preset standard rate as a successful video content, an operation of checking the video content of the successful video content and generating a standard deviation value of the video content, the standard deviation value is An operation of checking whether the standard deviation value is smaller than the threshold value, an operation of selecting the most frequent video portion as the optimal portion when it is confirmed that the standard deviation value is smaller than the threshold value, and If it is confirmed that it is not small, an operation is included to select the optimal video length of the successful video content with the highest number of views.

상기 타겟층을 선정하는 동작은, 상기 참고 영상 콘텐츠를 시청한 시청자의 연령을 확인하여, 시청자의 연령별 비율을 생성하는 동작, 상기 시청자의 연령별 비율 중 미리 설정된 제1 임계 비율보다 높은 비율이 있는지 여부를 확인하는 동작, 상기 제1 임계 비율보다 높은 비율이 있다고 확인되면, 상기 제1 임계 비율보다 높은 비율에 대한 연령을 타겟 연령으로 선정하는 동작, 상기 제1 임계 비율보다 높은 비율이 없다고 확인되면, 상기 참고 영상 콘텐츠에 댓글을 작성한 작성자를 확인하여, 작성자의 연령 별 비율을 생성하는 동작, 상기 작성자의 연령별 비율 중 미리 설정된 제2 임계 비율보다 높은 비율이 있는지 여부를 확인하는 동작, 상기 제2 임계 비율보다 높은 비율이 있다고 확인되면, 상기 제2 임계 비율보다 높은 비율에 대한 연령을 타겟 연령으로 선정하는 동작, 상기 제2 임계 비율보다 높은 비율이 없다고 확인되면, 상기 참고 영상 콘텐츠를 업로드한 제작자를 확인하고, 상기 제작자가 업로드한 영상 콘텐츠 중 상기 참고 영상 콘텐츠가 차지하는 비율이 미리 설정된 설정 비율보다 높은 제작자를 참고 제작자로 확인하는 동작, 상기 제작자의 구독자를 확인하여, 구독자의 연령별 비율을 생성하는 동작, 및 상기 구독자의 연령 별 비율 중 가장 높은 비율에 대한 연령을 타겟 연령으로 선정하는 동작을 포함한다.The operation of selecting the target group includes confirming the age of the viewer who watched the reference video content, generating a ratio by age of the viewer, and determining whether any of the ratio by age of the viewer is higher than a preset first threshold ratio. Checking, if it is confirmed that there is a ratio higher than the first threshold ratio, selecting the age for the ratio higher than the first threshold ratio as the target age, if it is confirmed that there is no ratio higher than the first threshold ratio, An operation of checking the author who wrote a comment on the reference video content and generating a ratio by age of the author, an operation of checking whether any of the ratios by age of the author is higher than a preset second threshold ratio, and the second threshold ratio If it is confirmed that there is a higher ratio, an operation of selecting the age for the ratio higher than the second threshold ratio as the target age. If it is confirmed that there is no ratio higher than the second threshold ratio, the creator who uploaded the reference video content is confirmed. An operation of confirming as a reference producer a producer whose proportion of the reference video content among the video contents uploaded by the creator is higher than a preset ratio, an operation of confirming the subscribers of the creator and generating a ratio of subscribers by age, And an operation of selecting the age corresponding to the highest ratio among the ratios by age of the subscribers as the target age.

상기 생성된 버전에 대해 상기 콘텐츠 사이트로부터 획득한 시청 데이터를 이용하여 예상 조회수를 산출하는 단계는, 상기 초안 영상 콘텐츠의 카테고리 및 상기 초안 영상 콘텐츠의 영상 분량을 확인하는 동작, 상기 버전을 기초로, 제목 정보를 확인하는 동작, 상기 버전을 기초로, 썸네일 정보를 확인하는 동작, 상기 버전을 기초로, 영상 속도를 확인하는 동작, 상기 버전을 기초로, 자막 크기를 확인하는 동작, 상기 카테고리, 상기 영상 분량, 상기 제목 정보, 상기 썸네일 정보, 상기 영상 속도, 상기 자막 크기를 기초로, 제1 입력 신호를 생성하는 동작, 상기 제1 입력 신호를 제1 인공신경망에 적용하여 제1 출력 신호를 획득하는 동작, 및 상기 제1 출력 신호에 기초하여, 상기 버전에 대한 예상 조회 수를 확인하는 동작을 포함한다.The step of calculating the expected number of views for the generated version using viewing data obtained from the content site includes the operation of checking the category of the draft video content and the video amount of the draft video content based on the version, Checking title information, checking thumbnail information based on the version, checking video speed based on the version, checking subtitle size based on the version, the category, the An operation of generating a first input signal based on the video length, the title information, the thumbnail information, the video speed, and the subtitle size, and obtaining a first output signal by applying the first input signal to a first artificial neural network. and an operation of checking the expected number of views for the version based on the first output signal.

상기 콘텐츠 기획안을 생성하는 단계는, 상기 사용자가 업로드한 기존 영상 콘텐츠가 있는 것에 기반하여, 상기 사용자의 구독자 수를 확인하는 동작, 상기 사용자의 구독자 수가 미리 설정된 척도 값보다 많은지 여부를 확인하는 동작, 상기 사용자의 구독자 수가 상기 척도 값보다 많다고 확인되면, 상기 사용자의 충성 시청자가 있다고 판단하는 동작, 상기 사용자의 구독자 수가 상기 척도 값보다 많지 않다고 확인되면, 상기 기존 영상 콘텐츠 중 조회 수가 미리 설정된 설정 값보다 높은 기존 영상 콘텐츠를 인기 기존 영상 콘텐츠로 선정하는 동작, 상기 인기 기존 영상 콘텐츠가 미리 설정된 설정 개수보다 많은지 여부를 확인하는 동작, 상기 인기 기존 영상 콘텐츠가 상기 설정 개수보다 많다고 확인되면, 상기 사용자의 충성 시청자가 있다고 판단하는 동작, 상기 인기 기존 영상 콘텐츠가 상기 설정 개수보다 많지 않다고 확인되면, 상기 사용자의 충성 시청자가 없다고 판단하는 동작, 상기 사용자의 충성 시청자가 있다고 판단되면, 업로드 시간대를 선정하는 동작, 및 상기 업로드 시간대를 포함하는 상기 콘텐츠 기획안을 생성하는 동작을 포함한다.The step of generating the content plan includes, based on the presence of existing video content uploaded by the user, checking the number of subscribers of the user, checking whether the number of subscribers of the user is greater than a preset scale value, If it is confirmed that the number of subscribers of the user is greater than the scale value, the operation of determining that the user has loyal viewers. If it is confirmed that the number of subscribers of the user is not greater than the scale value, the number of views among the existing video content is greater than the preset value. An operation of selecting a highly existing video content as a popular existing video content, an operation of checking whether the popular existing video content is more than a preset number, and if it is confirmed that the popular existing video content is more than the set number, the user's loyalty An operation of determining that there are viewers, an operation of determining that there are no loyal viewers of the user when it is confirmed that the popular existing video content is not more than the set number, an operation of selecting an upload time slot if it is determined that there are loyal viewers of the user, and generating the content plan including the upload time zone.

상기 업로드 시간대를 선정하는 동작은, 상기 기존 영상 콘텐츠의 시청 시간대를 확인하여, 시간대별 비율을 생성하는 동작, 상기 시간대별 비율을 기초로, 미리 설정된 한계 비율보다 높은 비율이 있는지 여부를 확인하는 동작, 상기 한계 비율보다 높은 비율이 있다고 확인되면, 상기 한계 비율보다 높은 비율에 대한 시간대를 업로드 시간대로 선정하는 동작, 상기 한계 비율보다 높은 비율이 없다고 확인되면, 상기 기존 영상 콘텐츠가 업로드 된 시점과 상기 기존 영상 콘텐츠의 주 시청 시간대를 비교하여, 바로 시청 기존 영상 콘텐츠를 선정하는 동작, 기존 영상 콘텐츠 중 바로 시청 기존 영상 콘텐츠가 차지하는 비율을 즉답 비율로 생성하는 동작, 상기 즉답 비율이 미리 설정된 경계 비율보다 높은지 여부를 확인하는 동작, 상기 즉답 비율이 상기 경계 비율보다 높다고 확인되면, 상기 타겟층을 기반으로 업로드 시간대를 선정하는 동작, 및 상기 즉답 비율이 상기 경계 비율보다 높지 않다고 확인되면, 가장 조회 수가 높은 콘텐츠의 주 시청 시간대를 업로드 시간대로 선정하는 동작을 포함한다. The operation of selecting the upload time zone includes checking the viewing time zone of the existing video content, generating a rate for each time zone, and checking whether there is a rate higher than a preset limit rate based on the rate for each time zone. , If it is confirmed that there is a rate higher than the limit rate, an operation of selecting a time zone for the rate higher than the limit rate as an upload time zone. If it is confirmed that there is no rate higher than the limit rate, the time when the existing video content was uploaded and the An operation of comparing the main viewing time of existing video content and selecting existing video content for immediate viewing, an operation of generating an instant response ratio based on the proportion occupied by existing video content for immediate viewing among existing video content, and the instant response ratio is higher than the preset boundary ratio. An operation to check whether the immediate reply rate is higher than the boundary rate, an operation to select an upload time based on the target audience, and if it is confirmed that the immediate reply rate is not higher than the boundary rate, the content with the highest number of views It includes an operation of selecting the main viewing time zone as the upload time zone.

실시예들은 영상 콘텐츠의 정보 및 영상 콘텐츠의 시청 데이터를 기초로 콘텐츠를 기획하고, A/B 테스트를 자동화할 수 있다.Embodiments may plan content based on information about video content and viewing data of video content, and automate A/B testing.

실시예들은 사용자에게 적합한 영상 콘텐츠의 카테고리를 선정할 수 있다.Embodiments may select a category of video content suitable for a user.

실시예들은 트렌드 키워드, 분량, 타겟층을 포함하는 콘텐츠 기획안을 생성할 수 있다.Embodiments may create a content plan that includes trending keywords, volume, and target audience.

한편, 실시예들에 따른 효과들은 이상에서 언급한 것으로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 해당 기술 분야의 통상의 지식을 가진 자에게 명확히 이해될 수 있을 것이다.Meanwhile, the effects according to the embodiments are not limited to those mentioned above, and other effects not mentioned can be clearly understood by those skilled in the art from the description below.

도 1은 일실시예에 따른 시스템의 구성을 개략적으로 나타낸 도면이다.
도 2는 일실시예에 따른 영상 콘텐츠의 메타 데이터 및 영상 콘텐츠의 시청 데이터를 통해 콘텐츠를 기획하고 A/B 테스트를 자동화하는 과정을 설명하기 위한 순서도이다.
도 3은 일실시예에 따른 사용자가 업로드할 영상 콘텐츠의 카테고리를 선정하는 과정을 설명하기 위한 순서도이다.
도 4는 일실시예에 따른 사용자의 정보를 통해 선호 카테고리를 선정하는 과정을 설명하기 위한 순서도이다.
도 5는 일실시예에 따른 콘텐츠 기획안을 생성하는 과정을 설명하기 위한 순서도이다.
도 6은 일실시예에 따른 트렌드 키워드를 선정하는 과정을 설명하기 위한 순서도이다.
도 7은 일실시예에 따른 최적 분량을 선정하는 과정을 설명하기 위한 순서도이다.
도 8은 일실시예에 따른 타겟층을 선정하는 과정을 설명하기 위한 순서도이다.
도 9는 일실시예에 따른 예상 조회수를 산출하는 과정을 설명하기 위한 순서도이다.
도 10은 일실시예에 따른 업로드 시간대를 포함하여 콘텐츠 기획안을 생성하는 과정을 설명하기 위한 순서도이다.
도 11은 일실시예에 따른 업로드 시간대를 선정하는 과정을 설명하기 위한 순서도이다.
도 12는 일실시예에 따른 장치의 구성의 예시도이다.
Figure 1 is a diagram schematically showing the configuration of a system according to an embodiment.
Figure 2 is a flow chart to explain the process of planning content and automating A/B testing through metadata of video content and viewing data of video content according to an embodiment.
Figure 3 is a flow chart to explain a process of selecting a category of video content to be uploaded by a user according to an embodiment.
Figure 4 is a flow chart to explain the process of selecting a preference category through user information according to an embodiment.
Figure 5 is a flowchart for explaining the process of creating a content plan according to an embodiment.
Figure 6 is a flowchart for explaining the process of selecting trend keywords according to an embodiment.
Figure 7 is a flowchart for explaining the process of selecting the optimal amount according to one embodiment.
Figure 8 is a flowchart for explaining the process of selecting a target group according to an embodiment.
Figure 9 is a flowchart for explaining the process of calculating the expected number of views according to an embodiment.
Figure 10 is a flowchart for explaining the process of creating a content plan including an upload time zone according to an embodiment.
Figure 11 is a flowchart for explaining the process of selecting an upload time zone according to an embodiment.
Figure 12 is an exemplary diagram of the configuration of a device according to an embodiment.

이하에서, 첨부된 도면을 참조하여 실시예들을 상세하게 설명한다. 그러나, 실시예들에는 다양한 변경이 가해질 수 있어서 특허출원의 권리 범위가 이러한 실시예들에 의해 제한되거나 한정되는 것은 아니다. 실시예들에 대한 모든 변경, 균등물 내지 대체물이 권리 범위에 포함되는 것으로 이해되어야 한다.Hereinafter, embodiments will be described in detail with reference to the attached drawings. However, since various changes can be made to the embodiments, the scope of the patent application is not limited or limited by these embodiments. It should be understood that all changes, equivalents, or substitutes for the embodiments are included in the scope of rights.

실시예들에 대한 특정한 구조적 또는 기능적 설명들은 단지 예시를 위한 목적으로 개시된 것으로서, 다양한 형태로 변경되어 실시될 수 있다. 따라서, 실시예들은 특정한 개시형태로 한정되는 것이 아니며, 본 명세서의 범위는 기술적 사상에 포함되는 변경, 균등물, 또는 대체물을 포함한다.Specific structural or functional descriptions of the embodiments are disclosed for illustrative purposes only and may be modified and implemented in various forms. Accordingly, the embodiments are not limited to the specific disclosed form, and the scope of the present specification includes changes, equivalents, or substitutes included in the technical spirit.

제1 또는 제2 등의 용어를 다양한 구성요소들을 설명하는데 사용될 수 있지만, 이런 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 해석되어야 한다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.Terms such as first or second may be used to describe various components, but these terms should be interpreted only for the purpose of distinguishing one component from another component. For example, a first component may be named a second component, and similarly, the second component may also be named a first component.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다.When a component is referred to as being “connected” to another component, it should be understood that it may be directly connected or connected to the other component, but that other components may exist in between.

실시예에서 사용한 용어는 단지 설명을 목적으로 사용된 것으로, 한정하려는 의도로 해석되어서는 안된다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in the examples are for descriptive purposes only and should not be construed as limiting. Singular expressions include plural expressions unless the context clearly dictates otherwise. In this specification, terms such as “comprise” or “have” are intended to designate the presence of features, numbers, steps, operations, components, parts, or combinations thereof described in the specification, but are not intended to indicate the presence of one or more other features. It should be understood that it does not exclude in advance the possibility of the existence or addition of elements, numbers, steps, operations, components, parts, or combinations thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as generally understood by a person of ordinary skill in the technical field to which the embodiments belong. Terms defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related technology, and should not be interpreted in an ideal or excessively formal sense unless explicitly defined in the present application. No.

또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 실시예의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.In addition, when describing with reference to the accompanying drawings, identical components will be assigned the same reference numerals regardless of the reference numerals, and overlapping descriptions thereof will be omitted. In describing the embodiments, if it is determined that detailed descriptions of related known technologies may unnecessarily obscure the gist of the embodiments, the detailed descriptions are omitted.

실시예들은 퍼스널 컴퓨터, 랩톱 컴퓨터, 태블릿 컴퓨터, 스마트 폰, 텔레비전, 스마트 가전 기기, 지능형 자동차, 키오스크, 웨어러블 장치 등 다양한 형태의 제품으로 구현될 수 있다.Embodiments may be implemented in various types of products such as personal computers, laptop computers, tablet computers, smart phones, televisions, smart home appliances, intelligent vehicles, kiosks, and wearable devices.

도 1은 일실시예에 따른 시스템의 구성을 개략적으로 나타낸 도면이다.Figure 1 is a diagram schematically showing the configuration of a system according to an embodiment.

도 1을 참조하면, 일실시예에 따른 시스템은 통신망을 통해 서로 통신 가능한 사용자의 단말(110), 및 장치(200)를 포함할 수 있다.Referring to FIG. 1, a system according to an embodiment may include a user terminal 110 and a device 200 that can communicate with each other through a communication network.

먼저, 통신망은 유선 및 무선 등과 같이 그 통신 양태를 가리지 않고 구성될 수 있으며, 서버와 서버 간의 통신과 서버와 단말 간의 통신이 수행되도록 다양한 형태로 구현될 수 있다.First, a communication network can be configured regardless of the communication mode, such as wired or wireless, and can be implemented in various forms to enable communication between servers and between servers and terminals.

사용자의 단말(110)은 영상 콘텐츠를 업로드하고자 하고, 영상 콘텐츠에 대한 기획을 제공받고자 하는 사용자가 사용하는 단말로, 휴대전화기, 데스크톱 PC, 랩탑 PC, 태블릿 PC, 스마트폰 등으로 구현될 수 있으나, 이에 제한되지는 않으며, 외부 서버와 연결될 수 있는 다양한 형태의 통신 장치로 구현될 수도 있다. 예를 들어, 도 1에 도시된 바와 같이, 사용자의 단말(110)은 스마트폰일 수 있으며, 실시예에 따라 달리 채용될 수도 있다.The user terminal 110 is a terminal used by a user who wants to upload video content and receive planning for video content, and can be implemented as a mobile phone, desktop PC, laptop PC, tablet PC, smartphone, etc. , but is not limited to this, and may be implemented as various types of communication devices that can be connected to an external server. For example, as shown in FIG. 1, the user's terminal 110 may be a smartphone, and may be employed differently depending on the embodiment.

사용자의 단말(110)은 통상의 컴퓨터가 가지는 연산 기능, 저장/참조 기능, 입출력 기능 및 제어 기능을 전부 또는 일부 수행하도록 구성될 수 있다. 사용자의 단말(110)은 장치(200)와 유무선으로 통신하도록 구성될 수 있다.The user's terminal 110 may be configured to perform all or part of the calculation function, storage/reference function, input/output function, and control function of a typical computer. The user's terminal 110 may be configured to communicate with the device 200 wired or wirelessly.

사용자의 단말(110)은 장치(200)를 이용하여 서비스를 제공하는 자 내지 단체가 운영하는 웹 사이트에 접속되거나, 장치(200)를 이용하여 서비스를 제공하는 자 내지 단체가 개발·배포한 애플리케이션이 설치될 수 있다. 사용자의 단말(110)은 웹 사이트 또는 애플리케이션을 통해 장치(200)와 연동될 수 있다.The user's terminal 110 is connected to a website operated by a person or organization that provides services using the device 200, or an application developed and distributed by a person or organization that provides services using the device 200. This can be installed. The user's terminal 110 may be linked to the device 200 through a website or application.

도1 및 이하의 설명에서는, 설명의 편의상, 사용자의 단말(110) 하나만을 도시하고 설명하였으나, 단말들의 수는 실시예에 따라 얼마든지 달라질 수 있다. 장치(200)의 처리 용량이 허용하는 한, 단말들의 수는 특별한 제한이 없다.In FIG. 1 and the following description, for convenience of explanation, only the user terminal 110 is shown and described, but the number of terminals may vary depending on the embodiment. As long as the processing capacity of the device 200 allows, the number of terminals is not particularly limited.

장치(200)는 장치(200)를 이용하여 서비스를 제공하는 자 내지 단체가 보유한 자체 서버일수도 있고, 클라우드 서버일 수도 있고, 분산된 노드(node)들의 p2p(peer-to-peer) 집합일 수도 있다. 장치(200)는 통상의 컴퓨터가 가지는 연산 기능, 저장/참조 기능, 입출력 기능 및 제어 기능을 전부 또는 일부 수행하도록 구성될 수 있다. 장치(200)는 사용자의 단말(110)과 유무선으로 통신하도록 구성될 수 있다. The device 200 may be its own server owned by a person or organization that provides services using the device 200, a cloud server, or a p2p (peer-to-peer) set of distributed nodes. It may be possible. The device 200 may be configured to perform all or part of the calculation function, storage/reference function, input/output function, and control function of a typical computer. The device 200 may be configured to communicate with the user's terminal 110 wired or wirelessly.

또한, 장치(200)는 블로그, 카페, 인스타그램, 페이스북, 트위터, 유튜브를 포함하는 SNS 및 기사를 포함하는 웹 페이지를 포함하는 웹사이트와 유무선으로 통신할 수 있으며, 장치(200)는 웹사이트에 접속하여 정보를 획득할 수 있다.Additionally, the device 200 can communicate wired or wirelessly with websites including web pages containing articles and SNS including blogs, cafes, Instagram, Facebook, Twitter, and YouTube, and the device 200 You can obtain information by accessing the website.

또한, 장치(200)는 콘텐츠 사이트를 운영하거나, 별개의 콘텐츠 사이트와 유무선으로 통신할 수 있다. 콘텐츠 사이트에는 적어도 하나 이상의 영상 콘텐츠가 저장될 수 있으며, 콘텐츠 사이트에는 영상 콘텐츠와 매칭하여 영상 콘텐츠에 대한 메타 데이터 및 시청 데이터가 더 저장될 수 있다. 이때, 영상 콘텐츠의 메타 데이터에는 영상 콘텐츠의 제목, 카테고리, 게시일, 영상 분량, 해시태그, 영상 속도, 자막 크기, 썸네일, 제작자 등이 포함될 수 있고, 영상 콘텐츠에 대한 시청 데이터에는 영상 콘텐츠의 조회 수, 댓글 수, 공유 수, 완독 조회 수, 시청자의 정보, 시청자가 시청한 시간대 등이 포함될 수 있다. Additionally, the device 200 can operate a content site or communicate wired or wirelessly with a separate content site. At least one video content may be stored in the content site, and metadata and viewing data for the video content may be further stored in the content site by matching the video content. At this time, the metadata of the video content may include the title, category, posting date, video length, hashtags, video speed, subtitle size, thumbnail, creator, etc., and the viewing data for the video content includes the number of views of the video content. , number of comments, number of shares, number of views completed, viewer information, time zone the viewer watched, etc.

또한, 장치(200)는 콘텐츠 사이트로부터 영상 콘텐츠의 메타 데이터를 획득하고, 콘텐츠 사이트로부터 영상 콘텐츠에 대한 시청 데이터를 획득하고, 영상 콘텐츠의 메타 데이터 및 영상 콘텐츠의 시청 데이터를 기초로 콘텐츠 기획안을 생성하고, 콘텐츠 기획안을 기반으로 제작된 초안 영상 콘텐츠를 사용자의 단말(110)로부터 획득하고, 초안 영상 콘텐츠에 미리 설정된 변수를 적용하여 2가지 이상의 버전을 생성하고, 생성된 버전에 대해 콘텐츠 사이트로부터 획득한 시청 데이터를 이용하여 예상 조회 수를 산출하고, 예상 조회 수를 사용자의 단말(110)에 제공할 수 있다.Additionally, the device 200 obtains metadata of the video content from the content site, obtains viewing data for the video content from the content site, and generates a content plan based on the metadata of the video content and the viewing data of the video content. Then, draft video content produced based on the content plan is acquired from the user's terminal 110, two or more versions are created by applying preset variables to the draft video content, and the created versions are obtained from the content site. The expected number of views can be calculated using one viewing data, and the expected number of views can be provided to the user's terminal 110.

도 2는 일실시예에 따른 영상 콘텐츠의 메타 데이터 및 영상 콘텐츠의 시청 데이터를 통해 콘텐츠를 기획하고 A/B 테스트를 자동화하는 과정을 설명하기 위한 순서도이다.Figure 2 is a flow chart to explain the process of planning content and automating A/B testing through metadata of video content and viewing data of video content according to an embodiment.

도 2을 참조하면, 먼저, S201 단계에서, 장치(200)는 콘텐츠 사이트로부터 영상 콘텐츠의 메타 데이터를 획득할 수 있다. Referring to FIG. 2, first, in step S201, the device 200 may obtain metadata of video content from a content site.

이를 위해, 장치(200)는 콘텐츠 사이트를 운영하거나, 별개의 콘텐츠 사이트와 유무선으로 통신할 수 있다. 콘텐츠 사이트에는 영상 콘텐츠가 저장될 수 있고, 영상 콘텐츠와 매칭하여 영상 콘텐츠의 메타 데이터 및 영상 콘텐츠에 대한 시청 데이터가 저장될 수 있다.To this end, the device 200 can operate a content site or communicate wired or wirelessly with a separate content site. Video content may be stored in the content site, and metadata of the video content and viewing data for the video content may be stored in matching video content.

구체적으로, 장치(200)는 콘텐츠 사이트로부터 영상 콘텐츠의 제목, 카테고리, 게시일, 영상 분량, 해시태그, 영상 속도, 자막 크기, 썸네일, 제작자를 포함하는 영상 콘텐츠의 메타 데이터를 획득할 수 있다.Specifically, the device 200 may obtain metadata of the video content including the title, category, posting date, video length, hashtag, video speed, subtitle size, thumbnail, and creator of the video content from the content site.

S202 단계에서, 장치(200)는 콘텐츠 사이트로부터 영상 콘텐츠에 대한 시청 데이터를 획득할 수 있다.In step S202, the device 200 may obtain viewing data for video content from the content site.

구체적으로, 장치(200)에는 콘텐츠 사이트로부터 영상 콘텐츠의 조회 수, 댓글 수, 공유 수, 완독 조회 수, 시청자의 정보, 시청자가 시청한 시간대를 포함하는 영상 콘텐츠에 대한 시청 데이터를 획득할 수 있다.Specifically, the device 200 can obtain viewing data on video content from the content site, including the number of views, comments, shares, number of completed views, viewer information, and the time period in which the viewer watched the video content. .

S203 단계에서, 장치(200)는 영상 콘텐츠의 메타 데이터 및 영상 콘텐츠에 대한 시청 데이터를 기초로, 콘텐츠 기획안을 생성할 수 있다.In step S203, the device 200 may generate a content plan based on metadata of the video content and viewing data for the video content.

구체적으로, 장치(200)는 콘텐츠 사이트로부터 획득한 영상 콘텐츠의 메타 데이터 및 영상 콘텐츠에 대한 시청 데이터를 통해 콘텐츠를 어떻게 제작하여야 하는지 콘텐츠 기획안을 생성할 수 있다. 이때, 장치(500)는 영상 콘텐츠의 메타 데이터 및 영상 콘텐츠에 대한 시청 데이터를 통해 영상 콘텐츠에 포함될 수 있는 트렌드 키워드, 영상 콘텐츠의 최적 분량, 영상 콘텐츠의 타겟층을 선정할 수 있고, 트렌드 키워드, 최적 분량, 타겟층을 포함하여 콘텐츠 기획안을 생성할 수 있다. Specifically, the device 200 may generate a content plan on how to produce the content using metadata of the video content and viewing data for the video content obtained from the content site. At this time, the device 500 can select trend keywords that can be included in the video content, the optimal amount of video content, and the target group of the video content through the metadata of the video content and viewing data for the video content, and select the trend keyword, optimal amount, and target audience for the video content. You can create a content plan including volume and target audience.

이때, 콘텐츠 기획안을 생성하는 과정과 관련하여 구체적인 내용은 도 5 내지 도 8을 참조하여 설명하기로 한다.At this time, specific details regarding the process of generating a content plan will be described with reference to FIGS. 5 to 8.

S204 단계에서, 장치(200)는 콘텐츠 기획안을 기반으로 제작된 초안 영상 콘텐츠를 사용자의 단말(110)로부터 획득할 수 있다.In step S204, the device 200 may obtain draft video content produced based on the content plan from the user's terminal 110.

구체적으로, 장치(200)는 콘텐츠 기획안을 영상 콘텐츠를 제작하고자 하는 사용자의 단말(110)로 제공할 수 있고, 사용자는 제공된 콘텐츠 기획안을 기반으로 초안 영상 콘텐츠를 제작할 수 있다. 또한, 사용자는 콘텐츠 기획안을 기반으로 제작된 초안 영상 콘텐츠를 사용자의 단말(110)을 통해 장치(200)로 전송할 수 있다. Specifically, the device 200 can provide a content plan to the terminal 110 of a user who wants to produce video content, and the user can create draft video content based on the provided content plan. Additionally, the user can transmit draft video content produced based on the content plan to the device 200 through the user's terminal 110.

즉, 장치(200)는 사용자의 단말(110)로부터 초안 영상 콘텐츠를 획득할 수 있다.That is, the device 200 can obtain draft video content from the user's terminal 110.

S205 단계에서, 장치(200)는 초안 영상 콘텐츠에 미리 설정된 변수를 적용하여 2가지 이상의 버전을 생성할 수 있다. 이때, 변수는 제목일 수도 있고, 썸네일일 수도 있고, 영상 속도일 수도 있고, 자막 크기일 수도 있고, 그 외의 변수일 수도 있다.In step S205, the device 200 may generate two or more versions by applying preset variables to the draft video content. At this time, the variable may be a title, a thumbnail, video speed, subtitle size, or other variables.

예를 들어, 변수가 제목일 경우, 장치(200)는 사용자의 단말(110)로부터 획득한 초안 영상 콘텐츠를 기초로 2개의 제목을 생성할 수 있다. 구체적으로, 장치(200)는 초안 영상 콘텐츠에 포함된 이미지 파일 및 음성 파일을 획득할 수 있고, 장치(200)는 인공 신경망 및 OCR을 통해 획득한 이미지 파일에 포함된 텍스트를 탐지할 수 있고, 탐지된 텍스트를 자연어 처리하여 단어 단위로 분류하고, 분류된 단어 간의 연관관계를 파악하여 핵심 키워드를 획득할 수 있다. 이때, 텍스트를 자연어 처리하여 단어 단위로 분류하고, 분류된 단어 간의 연관관계를 파악하여 키워드를 추출하는 과정은 본문에 구체적으로 작성하지 않았지만, 통상적으로 사용되는 자연어 처리 과정 및 키워드 추출 과정을 통해 수행될 수 있다. 또한, 장치(200)는 STT 기술을 통해 획득한 음성 파일을 텍스트로 변환할 수 있고, 변환된 텍스트를 자연어 처리하여 단어 단위로 분류하고, 분류된 단어 간의 연관관계를 파악하여 핵심 키워드를 획득할 수 있다. 이때, 텍스트를 자연어 처리하여 단어 단위로 분류하고, 분류된 단어 간의 연관관계를 파악하여 키워드를 추출하는 과정은 본문에 구체적으로 작성하지 않았지만, 통상적으로 사용되는 자연어 처리 과정 및 키워드 추출 과정을 통해 수행될 수 있다. 또한, 장치(200)는 초안 영상 콘텐츠의 이미지 파일 및 음성 파일을 통해 핵심 키워드가 획득되면, 생성형 인공지능 모델을 활용하여 핵심 키워드를 통한 제목을 획득할 수 있다. 이를 위해, 장치(200)는 생성형 인공지능 모델을 구비하거나, 별개의 생성형 인공지능 모델과 유무선으로 통신할 수 있으며, 생성형 인공지능 모델은 chat gpt와 동일한 형태의 인공지능 모델일 수 있다. 구체적으로, 장치(200)는 생성형 인공지능 모델에 “ '핵심 키워드'를 포함하는 제목을 2개 작성해 줘. ”라고 입력할 수 있고, 장치(200)는 생성형 인공지능 모델로부터 출력으로 핵심 키워드를 포함하는 제1 제목 및 제2 제목을 획득할 수 있다. 또한, 장치(200)는 생성형 인공지능 모델을 통해 획득한 제1 제목 및 제2 제목을 기초로, 제1 제목을 갖는 초안 영상 콘텐츠인 제1 버전, 제2 제목을 갖는 초안 영상 콘텐츠인 제2 버전을 생성할 수 있다. 한편, 장치(200)는 설명의 편의상 상기의 과정에서 2개의 제목을 생성하고, 2개의 제목을 기초로 2가지 버전을 생성한다고 작성하였지만, 2개 이상의 제목 및 2가지 이상의 버전을 생성할 수도 있다. For example, when the variable is a title, the device 200 may generate two titles based on draft video content obtained from the user's terminal 110. Specifically, the device 200 may acquire an image file and an audio file included in the draft video content, and the device 200 may detect text included in the image file obtained through an artificial neural network and OCR, Detected text can be classified into words by natural language processing, and core keywords can be obtained by identifying relationships between classified words. At this time, the process of classifying the text into words by natural language processing and extracting keywords by identifying relationships between classified words is not specifically written in the text, but is performed through commonly used natural language processing and keyword extraction processes. It can be. In addition, the device 200 can convert voice files obtained through STT technology into text, process the converted text into natural language, classify it into words, and obtain key keywords by identifying relationships between classified words. You can. At this time, the process of classifying the text into words by natural language processing and extracting keywords by identifying relationships between classified words is not specifically written in the text, but is performed through commonly used natural language processing and keyword extraction processes. It can be. Additionally, when key keywords are obtained through image files and audio files of draft video content, the device 200 can obtain a title through the key keywords using a generative artificial intelligence model. To this end, the device 200 may be equipped with a generative artificial intelligence model or may communicate with a separate generative artificial intelligence model wired or wirelessly, and the generative artificial intelligence model may be an artificial intelligence model of the same type as chat gpt. . Specifically, the device 200 sends a message to the generative artificial intelligence model: “Please write two titles containing ‘key keywords.’ ” can be input, and the device 200 can obtain a first title and a second title including key keywords as output from the generative artificial intelligence model. In addition, the device 200 provides a first version that is draft video content with the first title and a first version that is draft video content with the second title, based on the first title and the second title obtained through the generative artificial intelligence model. 2 versions can be created. Meanwhile, for convenience of explanation, the device 200 is written to generate two titles and two versions based on the two titles in the above process, but it can also generate two or more titles and two or more versions. .

예를 들어, 변수가 썸네일일 경우, 장치(200)는 사용자의 단말(110)로부터 획득한 초안 영상 콘텐츠를 기초로 2가지 이상의 썸네일을 생성할 수 있다. 구체적으로, 장치(200)는 상기 제목을 생성하는 방법과 동일한 방법으로 초안 영상 콘텐츠를 통해 핵심 키워드를 획득할 수 있다. 또한, 장치(200)는 초안 영상 콘텐츠를 통해 초안 영상 콘텐츠에 포함된 프레임 중 키 프레임을 추출할 수 있다. 이때, 장치(200)는 키 프레임을 추출하기 위해, 초안 영상 콘텐츠에 포함된 프레임 중 가장 길게 유지된 프레임을 키 프레임으로 추출할 수도 있고, 초안 영상 콘텐츠에 포함된 프레임 중 가장 많은 키워드를 포함하고 있는 프레임을 키 프레임으로 추출할 수도 있다. 한편, 초안 영상 콘텐츠를 통해 키 프레임을 추출하는 과정은 이에 한정되지 않고, 프레임 차이(FD) 기반 방법, 히스토그램 비교 방법, 클러스터링 기반 방법, 딥 러닝 기반 방법, 변화 검출 기반 방법 등 통상적으로 사용되는 알고리즘을 통해 수행될 수도 있다. 또한, 장치(200)는 초안 영상 콘텐츠를 통해 핵심 키워드 및 키 프레임이 추출되면, 생성형 인공지능 모델을 활용하여 핵심 키워드 및 키 프레임을 통한 썸네일을 획득할 수 있다. 이를 위해, 장치(200)는 생성형 인공지능 모델을 구비하거나, 별개의 생성형 인공지능 모델과 유무선으로 통신할 수 있으며, 생성형 인공지능 모델은 chat gpt와 동일한 형태의 인공지능 모델일 수 있다. 구체적으로, 장치(200)는 생성형 인공지능 모델에 “ '키 프레임'을 참고하여 '핵심 키워드'를 포함하는 썸네일을 2개(2개 이상) 생성해 줘. ”라고 입력할 수 있고, 장치(200)는 생성형 인공지능 모델로부터 출력으로 핵심 키워드 및 키 프레임를 통해 생성된 제1 썸네일 및 제2 썸네일을 획득할 수 있다. 또한, 장치(200)는 생성형 인공지능 모델을 통해 획득한 제1 썸네일 및 제2 썸네일을 기초로, 제1 썸네일을 갖는 초안 영상 콘텐츠인 제3 버전, 제2 썸네일을 갖는 초안 영상 콘텐츠인 제4 버전을 생성할 수 있다. 한편, 장치(200)는 설명의 편의상 상기의 과정에서 2개의 썸네일을 생성하고, 2개의 썸네일을 기초로 2가지 버전을 생성한다고 작성하였지만, 2개 이상의 썸네일 및 2가지 이상의 버전을 생성할 수도 있다.For example, when the variable is a thumbnail, the device 200 may generate two or more types of thumbnails based on draft video content obtained from the user's terminal 110. Specifically, the device 200 may obtain key keywords through draft video content using the same method as the method for generating the title. Additionally, the device 200 may extract key frames from frames included in the draft video content through the draft video content. At this time, in order to extract a key frame, the device 200 may extract the longest maintained frame among the frames included in the draft video content as a key frame, and may include the most keywords among the frames included in the draft video content. You can also extract existing frames as key frames. Meanwhile, the process of extracting key frames through draft video content is not limited to this, and commonly used algorithms such as frame difference (FD)-based methods, histogram comparison methods, clustering-based methods, deep learning-based methods, and change detection-based methods It can also be performed through . Additionally, when key keywords and key frames are extracted through draft video content, the device 200 can obtain thumbnails through the key keywords and key frames using a generative artificial intelligence model. To this end, the device 200 may be equipped with a generative artificial intelligence model or may communicate with a separate generative artificial intelligence model wired or wirelessly, and the generative artificial intelligence model may be an artificial intelligence model of the same type as chat gpt. . Specifically, the device 200 instructs the generative artificial intelligence model to “Generate two (two or more) thumbnails containing ‘key keywords’ by referring to the ‘key frame.’ ” can be input, and the device 200 can obtain the first thumbnail and second thumbnail generated through key keywords and key frames as output from the generative artificial intelligence model. In addition, the device 200 provides a third version, which is draft video content with a first thumbnail, and a first version, which is draft video content with a second thumbnail, based on the first and second thumbnails obtained through the generative artificial intelligence model. 4 versions can be created. Meanwhile, for convenience of explanation, the device 200 is written to generate two thumbnails and two versions based on the two thumbnails in the above process, but it can also generate two or more thumbnails and two or more versions. .

예를 들어, 변수가 영상 속도일 경우, 장치(200)는 사용자의 단말(110)로부터 획득한 초안 영상 콘텐츠를 기초로 미리 설정된 2개의 영상 속도를 각각 적용하여 제1 영상 속도를 갖는 초안 영상 콘텐츠인 제5 버전 및 제2 영상 속도를 갖는 초안 영상 콘텐츠인 제6 버전을 생성할 수 있다. 이때, 제1 영상 속도 및 제2 영상 속도는 각각 미리 설정될 수 있으며, 실시 예에 따라 달라질 수 있다. 또한, 제1 영상 속도 및 제2 영상 속도는 타겟층에 따라 달라질 수 있으며, 예를 들어, 타겟층의 연령이 60 ~ 69세일 경우, 제1 영상 속도는 0.75 배속 및 제2 영상 속도는 0.95 배속으로 설정될 수 있고, 타겟층의 연령이 20 ~ 29세일 경우, 제1 영상 속도는 1.2 배속 및 제2 영상 속도는 1 배속으로 설정될 수 있다. 한편, 장치(200)는 설명의 편의상 상기의 과정에서 2개의 영상 속도를 적용하여 2가지 버전을 생성한다고 작성하였지만, 2개 이상의 영상 속도 및 2가지 이상의 버전을 생성할 수도 있다.For example, when the variable is video speed, the device 200 applies two preset video rates based on the draft video content obtained from the user's terminal 110 to produce draft video content with the first video speed. A fifth version, which is draft video content, and a sixth version, which is draft video content with a second video speed, can be created. At this time, the first video speed and the second video speed may each be set in advance and may vary depending on the embodiment. In addition, the first video speed and the second video speed may vary depending on the target group. For example, if the target group's age is 60 to 69 years old, the first video speed is set at 0.75 times and the second video speed is set at 0.95 times. If the target audience is between 20 and 29 years old, the first video speed can be set to 1.2x and the second video speed can be set to 1x. Meanwhile, for convenience of explanation, the device 200 is written to generate two versions by applying two video speeds in the above process, but it can also generate two or more video speeds and two or more versions.

예를 들어, 변수가 자막 크기일 경우, 장치(200)는 사용자의 단말(110)로부터 획득한 초안 영상 콘텐츠를 기초로 미리 설정된 2개의 자막 크기를 각각 적용하여 제1 자막 크기를 갖는 초안 영상 콘텐츠인 제7 버전 및 제2 자막 크기를 갖는 초안 영상 콘텐츠인 제8 버전을 생성할 수 있다. 이때, 제1 자막 크기 및 제2 자막 크기는 각각 미리 설정될 수 있으며, 실시 예에 따라 달라질 수 있다. 또한, 제1 자막 크기 및 제2 자막 크기는 타겟층에 따라 다르게 설정될 수 있으며, 예를 들어, 타겟층의 연령이 60 ~ 69세일 경우, 제1 자막 크기는 60 포인트 및 제2 자막 크기는 75 포인트로 설정될 수 있고, 타겟층의 연령이 20 ~ 29세일 경우, 제1 자막 크기는 30 포인트 및 제2 자막 크기는 45 포인트로 설정될 수 있다. 한편, 장치(200)는 설명의 편의상 상기의 과정에서 2개의 자막 크기를 적용하여 2가지 버전을 생성한다고 작성하였지만, 2개 이상의 자막 크기 및 2가지 이상의 버전을 생성할 수도 있다.For example, when the variable is the subtitle size, the device 200 applies two preset subtitle sizes based on the draft video content obtained from the user's terminal 110 to create the draft video content having the first subtitle size. A seventh version, which is a draft video content, and an eighth version, which is draft video content with a second subtitle size, can be created. At this time, the first and second subtitle sizes may each be preset and may vary depending on the embodiment. Additionally, the first subtitle size and second subtitle size may be set differently depending on the target group. For example, if the age of the target group is 60 to 69 years old, the first subtitle size is 60 points and the second subtitle size is 75 points. It can be set to , and when the age of the target audience is 20 to 29 years old, the first subtitle size can be set to 30 points and the second subtitle size can be set to 45 points. Meanwhile, for convenience of explanation, the device 200 is written to generate two versions by applying two subtitle sizes in the above process, but it can also generate two or more subtitle sizes and two or more versions.

한편, 장치(200)는 변수를 혼합하여 2가지 이상의 버전을 생성할 수도 있다. 예를 들어, 변수가 제목 및 자막 크기일 경우, 장치(200)는 제1 제목 및 제2 제목을 획득하고, 제1 자막 크기 및 제2 자막 크기를 확인할 수 있다. 또한, 장치(200)는 제1 제목을 갖고 제1 자막 크기를 갖는 초안 영상 콘텐츠인 제9 버전, 제1 제목을 갖고 제2 자막 크기를 갖는 초안 영상 콘텐츠인 제10 버전, 제2 제목을 갖고 제1 자막 크기를 갖는 초안 영상 콘텐츠인 제11 버전, 제2 제목을 갖고 제2 자막 크기를 갖는 초안 영상 콘텐츠인 제12 버전을 생성할 수 있다. Meanwhile, the device 200 may create two or more versions by mixing variables. For example, when the variables are title and subtitle size, the device 200 can obtain the first title and second title, and check the first and second subtitle sizes. Additionally, the device 200 has a second title, a ninth version that is draft video content with a first title and a first subtitle size, a tenth version that is draft video content with a first title and a second subtitle size, and a second title. An 11th version, which is draft video content with a first subtitle size, and a 12th version, which is draft video content with a second title and a second subtitle size, can be created.

S206 단계에서, 장치(200)는 생성된 버전에 대해 콘텐츠 사이트로부터 획득한 시청 데이터를 이용하여 예상 조회 수를 산출할 수 있다. In step S206, the device 200 may calculate the expected number of views for the generated version using viewing data obtained from the content site.

구체적으로, 장치(200)는 사용자의 단말(110)로부터 획득한 초안 영상 콘텐츠에 변수를 적용하여 2가지 이상의 버전이 생성되면, 생성된 버전에 대해 예상 조회 수를 산출할 수 있다. 이때, 예상 조회 수를 산출하는 방법은 도 9를 참조하여 구체적으로 설명하기로 한다.Specifically, when two or more versions are created by applying variables to the draft video content obtained from the user's terminal 110, the device 200 may calculate the expected number of views for the created versions. At this time, the method of calculating the expected number of views will be described in detail with reference to FIG. 9.

즉, 장치(200)는 초안 영상 콘텐츠에 변수를 적용하여 버전을 여러 개 자동적으로 생성할 수 있고, 생성된 버전에 대해 예상 조회 수를 산출함으로써 A/B 테스트를 자동화할 수 있다.That is, the device 200 can automatically create multiple versions by applying variables to draft video content, and automate A/B testing by calculating the expected number of views for the created version.

이를 통해 A/B 테스트가 객관적인 근거에 의해 수행될 수 있는 효과를 기대할 수 있다.Through this, we can expect the effect of A/B testing being carried out on objective grounds.

S207 단계에서, 장치(200)는 예상 조회 수를 사용자의 단말(110)로 제공할 수 있다.In step S207, the device 200 may provide the expected number of views to the user's terminal 110.

구체적으로, 장치(200)는 콘텐츠 사이트로부터 획득한 시청 데이터를 통해 각 버전에 대해 예상 조회 수가 산출되면, 각 버전 및 각 버전에 매칭된 예상 조회 수를 사용자의 단말(110)로 제공할 수 있다. Specifically, when the expected number of views is calculated for each version through viewing data obtained from the content site, the device 200 may provide each version and the expected number of views matched to each version to the user's terminal 110. .

즉, 사용자는 콘텐츠 기획안을 이용하여 영상 콘텐츠를 어떻게 제작해야 할지 알 수 있고, 또한, 예상 조회 수를 기반으로 영상 콘텐츠를 어떻게 업로드할지 알 수 있다. In other words, users can know how to produce video content using the content plan, and also know how to upload video content based on the expected number of views.

한편, 장치(200)는 영상 콘텐츠의 메타 데이터 및 영상 콘텐츠에 대한 시청 데이터를 기초로 콘텐츠 기획안을 생성하기 이전에 사용자가 어떤 카테고리의 영상 콘텐츠를 업로드할 것인지 확인하는 과정을 추가로 수행할 수 있다.Meanwhile, the device 200 may additionally perform a process of confirming which category of video content the user will upload before creating a content plan based on the metadata of the video content and viewing data for the video content. .

도 3은 일실시예에 따른 사용자가 업로드할 영상 콘텐츠의 카테고리를 선정하는 과정을 설명하기 위한 순서도이다.Figure 3 is a flow chart to explain a process of selecting a category of video content to be uploaded by a user according to an embodiment.

도 3을 참조하면, 먼저, S301 단계에서, 장치(200)는 사용자의 단말(110)로부터 업로드하고자 하는 영상 콘텐츠의 선호 카테고리가 있는지 여부를 확인할 수 있다. 이때, 카테고리에는 라이프스타일, 음악/댄스, 뷰티/패션, 푸드, 반려동물, 영화, 키즈, 게임, 여행, 건강, 과학, 취미, 경제, 교육 등이 포함될 수 있고, 이에 한정되는 것은 아니다.Referring to FIG. 3, first, in step S301, the device 200 may check whether there is a preferred category of video content to be uploaded from the user's terminal 110. At this time, categories may include, but are not limited to, lifestyle, music/dance, beauty/fashion, food, pets, movies, kids, games, travel, health, science, hobbies, economy, and education.

구체적으로, 장치(200)는 사용자의 단말(110)로 사용자가 업로드하고자 하는 영상 콘텐츠의 선호 카테고리가 있는지 여부를 묻는 메시지를 전송할 수 있고, 사용자는 사용자의 단말(110)을 통해 메시지에 대한 응답을 장치(200)로 전송할 수 있다. 이때, 응답은 '영상 콘텐츠의 선호 카테고리가 있다.' 또는 '영상 콘텐츠의 선호 카테고리가 없다.'일 수 있다. 또한, 장치(200)는 사용자의 단말(110)을 통해 획득한 응답을 기초로 사용자가 업로드하고자 하는 영상 콘텐츠의 선호 카테고리가 있는지 여부를 확인할 수 있다.Specifically, the device 200 may transmit a message to the user's terminal 110 asking whether there is a preferred category of video content that the user wants to upload, and the user may respond to the message through the user's terminal 110. can be transmitted to the device 200. At this time, the response is 'There is a preferred category of video content.' Or it could be ‘There is no preferred category of video content.’ Additionally, the device 200 may check whether there is a preferred category of video content that the user wants to upload based on the response obtained through the user's terminal 110.

S301 단계에서 영상 콘텐츠의 선호 카테고리가 있다고 확인되면, S302 단계에서, 장치(200)는 사용자의 단말(110)로부터 선호 카테고리를 획득할 수 있다.If it is confirmed in step S301 that there is a preferred category of video content, the device 200 may obtain the preferred category from the user's terminal 110 in step S302.

구체적으로, 장치(200)는 사용자의 단말(110)로부터 획득한 응답이 '영상 콘텐츠의 선호 카테고리가 있다.'로 확인되면, 사용자의 단말(110)로 어떤 카테고리인지 묻는 메시지를 전송할 수 있고, 사용자는 사용자의 단말(110)을 통해 메시지에 대한 응답을 장치(200)로 전송할 수 있다. 이때, 응답은 '라이프스타일', '음악/댄스', '뷰티/패션', '푸드', '반려동물', '영화', '키즈', '게임', '여행', '건강', '과학', '취미', '경제', '교육' 중 하나일 수 있으며, 이외의 카테고리일 수도 있다. Specifically, if the response obtained from the user's terminal 110 is confirmed to be 'There is a preferred category of video content,' the device 200 may send a message to the user's terminal 110 asking what category it is, The user may transmit a response to the message to the device 200 through the user's terminal 110. At this time, the responses are 'Lifestyle', 'Music/Dance', 'Beauty/Fashion', 'Food', 'Pet', 'Movie', 'Kids', 'Game', 'Travel', 'Health', It may be one of 'Science', 'Hobby', 'Economy', or 'Education', or it may be a category other than this.

또한, 장치(200)는 사용자의 단말(110)을 통해 획득한 응답을 기초로 선호 카테고리를 획득할 수 있다.Additionally, the device 200 may obtain a preference category based on the response obtained through the user's terminal 110.

S301 단계에서 영상 콘텐츠의 선호 카테고리가 없다고 확인되면, S303 단계에서, 장치(200)는 사용자의 정보를 기초로, 선호 카테고리를 선정할 수 있다.If it is determined in step S301 that there is no preferred category of video content, the device 200 may select a preferred category based on the user's information in step S303.

구체적으로, 장치(200)는 사용자의 단말(110)로부터 획득한 응답이 '영상 콘텐츠의 선호 카테고리가 없다.'로 확인되면, 사용자의 개인 정보 및 사용자의 시청 이력을 포함하는 사용자의 정보를 기초로, 선호 카테고리를 선정할 수 있다. 사용자의 정보를 기초로 선호 카테고리를 선정하는 과정은 도 4를 참조하기로 한다.Specifically, if the response obtained from the user's terminal 110 is confirmed to be 'There is no preferred category of video content,' the device 200 based the user's information including the user's personal information and the user's viewing history. You can select your preferred category. The process of selecting a preference category based on user information will be described in Figure 4.

이로 인해, 장치(200)는 사용자가 업로드하고자 하는 영상 콘텐츠의 선호 카테고리를 통해 콘텐츠 기획안을 더 정확하게, 사용자에게 맞게 생성할 수 있다.Because of this, the device 200 can create a content plan more accurately and tailored to the user through the preferred category of video content that the user wants to upload.

도 4는 일실시예에 따른 사용자의 정보를 통해 선호 카테고리를 선정하는 과정을 설명하기 위한 순서도이다.Figure 4 is a flow chart to explain the process of selecting a preference category through user information according to an embodiment.

도 4를 참조하면, 먼저, S401 단계에서, 장치(200)는 사용자의 단말(110)로부터 사용자의 성별, 연령, 직업, 취미를 포함하는 사용자의 개인 정보를 획득할 수 있다.Referring to FIG. 4, first, in step S401, the device 200 may obtain the user's personal information including the user's gender, age, occupation, and hobbies from the user's terminal 110.

S402 단계에서, 장치(200)는 사용자의 개인 정보를 기초로, 제1 추천 카테고리를 선정할 수 있다. 이때, 제1 추천 카테고리는 사용자의 직업과 관련된 카테고리일 수도 있고, 사용자의 취미와 관련된 카테고리일 수도 있다.In step S402, the device 200 may select a first recommendation category based on the user's personal information. At this time, the first recommended category may be a category related to the user's occupation or a category related to the user's hobbies.

이를 위해, 장치(200)는 직업 - 선호 카테고리 데이터베이스 및 취미 - 선호 카테고리 데이터베이스를 구비하거나, 별개의 직업 - 선호 카테고리 데이터베이스 및 취미 - 선호 카테고리 데이터베이스와 유무선으로 통신할 수 있다. To this end, the device 200 may be provided with an occupation-preference category database and a hobby-preference category database, or may communicate wired or wirelessly with a separate occupation-preference category database and a hobby-preference category database.

이때, 직업 - 선호 카테고리 데이터베이스에는 직업과 선호 카테고리가 매칭되어 있을 수 있으며, 예를 들어, 직업 - 선호 카테고리 데이터베이스에는 요리사 - 푸드, 댄서 - 음악/댄스, 수의사 - 반려동물, 동물 훈련사 - 반려동물, 영화평론가 - 영화, 경제학자 - 경제, 회계사 - 경제, 스타일리스트 - 뷰티/패션, 모델 - 뷰티/패션, 유치원교사 - 키즈 등이 매칭되어 저장될 수 있다. 한편, 이에 한정되는 것은 아니고, 직업 - 선호 카테고리는 실시 예가 증가함에 따라 증가될 수 있다.At this time, occupations and preference categories may be matched in the occupation-preference category database. For example, the occupation-preference category database includes chef - food, dancer - music/dance, veterinarian - pet, animal trainer - pet, Movie critic - movie, economist - economy, accountant - economy, stylist - beauty/fashion, model - beauty/fashion, kindergarten teacher - kids, etc. can be matched and saved. Meanwhile, it is not limited to this, and the occupation-preference category may increase as the number of embodiments increases.

이때, 취미 - 선호 카테고리 데이터베이스에는 취미와 선호 카테고리가 매칭되어 있을 수 있으며, 예를 들어, 취미 - 선호 카테고리 데이터베이스에는 요리하기 - 푸드, 노래부르기 - 음악/댄스, 주식 투자하기 - 경제, 게임하기 - 게임, 여행하기 - 여행, 헬스/운동하기 - 건강, 프로그래밍 - 과학 등이 매칭되어 저장될 수 있다. 한편, 이에 한정되는 것은 아니고, 취미 - 선호 카테고리는 실시 예가 증가함에 따라 증가될 수 있다.At this time, hobbies and preference categories may be matched in the hobby-preference category database. For example, the hobby-preference category database includes cooking - food, singing - music/dance, investing in stocks - economy, playing games - Game, Travel - Travel, Fitness/Exercise - Health, Programming - Science, etc. can be matched and saved. Meanwhile, it is not limited to this, and the hobby-preference category may increase as the number of embodiments increases.

구체적으로, 장치(200)는 사용자의 단말(110)로부터 획득한 사용자의 개인 정보를 통해 사용자의 직업 및 사용자의 취미를 확인할 수 있고, 사용자의 직업 및 사용자의 취미를 기초로 직업 - 선호 카테고리 데이터베이스 및 취미 - 선호 카테고리 데이터베이스를 통해 제1 추천 카테고리를 선정할 수 있다.Specifically, the device 200 can check the user's occupation and the user's hobbies through the user's personal information acquired from the user's terminal 110, and an occupation-preference category database based on the user's occupation and the user's hobbies. and hobbies - the first recommended category can be selected through the preference category database.

한편, 제1 추천 카테고리는 하나의 카테고리가 선정될 수도 있고, 복수 개의 카테고리가 선정될 수도 있다.Meanwhile, one category may be selected as the first recommendation category, or a plurality of categories may be selected.

S403 단계에서, 장치(200)는 콘텐츠 사이트로부터 사용자의 시청 이력을 획득할 수 있다.In step S403, the device 200 may obtain the user's viewing history from the content site.

이를 위해, 콘텐츠 사이트에는 영상 콘텐츠 뿐만 아니라 영상 콘텐츠를 시청하는 시청자의 정보가 더 포함될 수 있으며, 시청자에는 사용자가 포함될 수 있다. 또한, 시청자의 정보에는 시청자의 개인 정보 및 시청자의 시청 이력이 포함될 수 있으며, 시청자의 개인 정보에는 시청자의 이름, 성별, 연령 등이 포함될 수 있고, 시청자의 시청 이력에는 시청자가 시청한 영상 콘텐츠, 영상 콘텐츠를 시청한 날짜, 영상 콘텐츠를 시청한 평균 시청 시간 등이 포함될 수 있다. 여기서, 평균 시청 시간은 시청자가 평균적으로 하루에 몇 시간 정도 시청했는지에 대한 일 평균 시청 시간일 수도 있고, 시청자가 평균적으로 일주일에 몇 시간 정도 시청했는지에 대한 주 평균 시청 시간일 수도 있고, 그 외의 평균 시청 시간일 수도 있다. To this end, the content site may include not only video content but also information about viewers who watch the video content, and viewers may include users. In addition, the viewer's information may include the viewer's personal information and the viewer's viewing history. The viewer's personal information may include the viewer's name, gender, age, etc., and the viewer's viewing history may include the video content the viewer watched, This may include the date the video content was viewed, the average viewing time of the video content, etc. Here, the average viewing time may be the daily average viewing time, which refers to how many hours a viewer watches on average per day, or the average weekly viewing time, which refers to how many hours a viewer watches on average per week. It could be the average viewing time.

구체적으로, 장치(200)는 콘텐츠 사이트로부터 사용자의 시청 이력을 획득할 수 있다.Specifically, the device 200 may obtain the user's viewing history from a content site.

S404 단계에서, 장치(200)는 사용자의 시청 이력을 기초로, 제2 추천 카테고리를 선정할 수 있다. 이때, 제2 추천 카테고리는 사용자의 시청 이력을 기초로 사용자가 자주 시청하는 카테고리일 수도 있다.In step S404, the device 200 may select a second recommendation category based on the user's viewing history. At this time, the second recommended category may be a category that the user frequently watches based on the user's viewing history.

구체적으로, 장치(200)는 콘텐츠 사이트로부터 사용자의 시청 이력을 획득할 수 있고, 사용자의 시청 이력을 통해 사용자가 시청한 영상 콘텐츠를 확인할 수 있다. 또한, 장치(200)는 사용자가 시청한 영상 콘텐츠를 기초로 사용자가 미리 설정된 목표 값보다 많이 시청한 카테고리를 제2 추천 카테고리로 선정할 수 있다. 이때, 목표 값은 미리 설정된 값으로 실시 예에 따라 달라질 수 있다.Specifically, the device 200 can obtain the user's viewing history from the content site and confirm the video content that the user has watched through the user's viewing history. Additionally, the device 200 may select a category that the user has watched more than a preset target value as the second recommended category based on the video content that the user has watched. At this time, the target value is a preset value and may vary depending on the embodiment.

예를 들어, 목표 값이 3이고, 사용자의 시청 이력을 통해 시청자가 시청한 영상 콘텐츠로 카테고리가 푸드인 a 영상 콘텐츠, 카테고리가 푸드인 b 영상 콘텐츠, 카테고리가 여행인 c 영상 콘텐츠, 카테고리가 뷰티/패션인 d 영상 콘텐츠, 카테고리가 푸드인 e 영상 콘텐츠, 카테고리가 음악/댄스인 f 영상 콘텐츠, 카테고리가 여행인 g 영상 콘텐츠, 카테고리가 푸드인 h 영상 콘텐츠가 확인될 경우, 장치(200)는 목표 값인 3보다 많은 카테고리인 푸드를 제2 추천 카테고리로 선정할 수 있다.For example, the target value is 3, and the video content watched by the viewer through the user's viewing history is a video content with the category food, b video content with the category food, c video content with the category travel, and the category is beauty. /If d video content with a fashion, e video content with a food category, f video content with a music/dance category, g video content with a travel category, or h video content with a food category are confirmed, the device 200 Food, which is a category with more than the target value of 3, can be selected as the second recommended category.

한편, 제2 추천 카테고리는 하나의 카테고리가 선정될 수도 있고, 복수 개의 카테고리가 선정될 수도 있다.Meanwhile, one category may be selected as the second recommended category, or a plurality of categories may be selected.

S405 단계에서, 장치(200)는 제1 추천 카테고리 및 제2 추천 카테고리에 모두 포함된 카테고리가 있는지 여부를 확인할 수 있다.In step S405, the device 200 may check whether there is a category included in both the first recommendation category and the second recommendation category.

S405 단계에서 제1 추천 카테고리 및 제2 추천 카테고리에 모두 포함된 카테고리가 있다고 확인되면, S406 단계에서, 장치(200)는 제1 추천 카테고리 및 제2 추천 카테고리에 모두 포함된 카테고리를 선호 카테고리로 선정할 수 있다.If it is determined in step S405 that there is a category included in both the first recommendation category and the second recommendation category, in step S406, the device 200 selects the category included in both the first recommendation category and the second recommendation category as the preferred category. can do.

구체적으로, 장치(200)는 사용자의 개인 정보를 통해 선정된 제1 추천 카테고리 및 사용자의 시청 이력을 통해 선정된 제2 추천 카테고리를 확인한 결과, 제1 추천 카테고리 및 제2 추천 카테고리에 모두 포함된 카테고리가 있다고 확인되면, 해당 카테고리를 사용자가 업로드할 영상 콘텐츠의 카테고리인 선호 카테고리로 선정할 수 있다.Specifically, the device 200 checks the first recommendation category selected through the user's personal information and the second recommendation category selected through the user's viewing history, and as a result, the device 200 determines that the first recommendation category is included in both the first recommendation category and the second recommendation category. If it is confirmed that a category exists, the user can select that category as the preferred category, which is the category of video content to be uploaded.

S405 단계에서 제1 추천 카테고리 및 제2 추천 카테고리에 모두 포함된 카테고리가 있지 않다고 확인되면, S407 단계에서, 장치(200)는 사용자의 시청 이력을 통해 사용자의 평균 시청 시간을 확인할 수 있다. 이때, 사용자의 평균 시청 시간은 사용자가 하루에 평균적으로 시청하는 시간인 일 평균 시청 시간일 수도 있고, 사용자가 일주일에 평균적으로 시청하는 시간일 주 평균 시청 시간일 수도 있고, 그 외의 기간에 평균적으로 시청하는 시간일 수도 있다.If it is confirmed in step S405 that there is no category included in both the first recommended category and the second recommended category, the device 200 may check the user's average viewing time through the user's viewing history in step S407. At this time, the user's average viewing time may be the average daily viewing time, which is the average viewing time per day, or the average weekly viewing time, or the average viewing time during other periods. It might be time to watch.

구체적으로, 장치(200)는 사용자의 개인 정보를 통해 선정된 제1 추천 카테고리 및 사용자의 시청 이력을 통해 선정된 제2 추천 카테고리를 확인한 결과, 제1 추천 카테고리 및 제2 추천 카테고리에 모두 포함된 카테고리가 있지 않다고 확인되면, 제1 추천 카테고리 및 제2 추천 카테고리에 포함된 카테고리를 통해 선호 카테고리를 선정하기 위해 사용자의 시청 이력을 통해 사용자의 평균 시청 시간을 확인할 수 있다.Specifically, the device 200 checks the first recommendation category selected through the user's personal information and the second recommendation category selected through the user's viewing history, and as a result, the device 200 determines that the first recommendation category is included in both the first recommendation category and the second recommendation category. If it is confirmed that there is no category, the user's average viewing time can be checked through the user's viewing history in order to select a preferred category through the categories included in the first recommended category and the second recommended category.

S408 단계에서, 장치(200)는 평균 시청 시간이 임계 시간보다 짧은지 여부를 확인할 수 있다. 여기서, 임계 시간은 미리 설정된 시간으로 실시 예에 따라 달라질 수 있다.In step S408, the device 200 may check whether the average viewing time is shorter than the threshold time. Here, the critical time is a preset time and may vary depending on the embodiment.

구체적으로, 장치(200)는 사용자의 시청 이력을 통해 사용자의 평균 시청 시간을 확인할 수 있고, 사용자의 평균 시청 시간이 미리 설정된 임계 시간보다 짧은지 여부를 확인할 수 있다.Specifically, the device 200 can check the user's average viewing time through the user's viewing history and check whether the user's average viewing time is shorter than a preset threshold time.

S408 단계에서 평균 시청 시간이 임계 시간보다 짧다고 확인되면, S409 단계에서, 장치(200)는 제1 추천 카테고리를 먼저 정렬하고, 제2 추천 카테고리를 나중에 정렬하여 리스트를 생성할 수 있다.If it is confirmed that the average viewing time is shorter than the threshold time in step S408, the device 200 may generate a list by sorting the first recommendation category first and the second recommendation category later in step S409.

구체적으로, 장치(200)는 사용자의 시청 이력을 통해 확인된 사용자의 평균 시청 시간이 미리 설정된 임계 시간보다 짧다고 확인되면, 사용자가 영상 콘텐츠를 자주 시청하지 않는다고 판단하여, 사용자의 직업 및 취미를 통해 선정된 제1 추천 카테고리를 먼저 정렬하고, 사용자의 시청 이력을 통해 선정된 제2 추천 카테고리를 나중에 정렬하여 리스트를 생성할 수 있다.Specifically, if the device 200 determines that the user's average viewing time confirmed through the user's viewing history is shorter than the preset threshold time, the device 200 determines that the user does not frequently watch video content, and determines that the user does not frequently watch video content, A list can be created by sorting the selected first recommendation category first and then sorting the second recommendation category selected through the user's viewing history.

S408 단계에서 평균 시청 시간이 임계 시간보다 짧지 않다고 확인되면, S410 단계에서, 장치(200)는 제2 추천 카테고리를 먼저 정렬하고, 제1 추천 카테고리를 나중에 정렬하여 리스트를 생성할 수 있다.If it is determined in step S408 that the average viewing time is not shorter than the threshold time, in step S410, the device 200 may generate a list by sorting the second recommendation category first and the first recommendation category later.

구체적으로, 장치(200)는 사용자의 시청 이력을 통해 확인된 사용자의 평균 시청 시간이 미리 설정된 임계 시간보다 짧지 않다고 확인되면, 사용자가 영상 콘텐츠를 자주 시청한다고 판단하여, 사용자의 시청 이력을 통해 선정된 제2 추천 카테고리를 먼저 정렬하고, 사용자의 직업 및 취미를 통해 선정된 제1 추천 카테고리를 나중에 정렬하여 리스트를 생성할 수 있다.Specifically, if the device 200 determines that the user's average viewing time, as determined through the user's viewing history, is not shorter than the preset threshold time, the device 200 determines that the user frequently watches video content, and selects the video content based on the user's viewing history. A list can be created by sorting the second recommended category first and then sorting the first recommended category selected based on the user's occupation and hobbies.

S411 단계에서, 장치(200)는 사용자의 단말(110)로 리스트를 제공하고, 사용자의 단말(110)로부터 선호 카테고리를 획득할 수 있다.In step S411, the device 200 may provide a list to the user's terminal 110 and obtain a preferred category from the user's terminal 110.

구체적으로, 장치(200)는 사용자의 평균 시청 시간에 따라 제1 추천 카테고리 및 제2 추천 카테고리를 순서대로 정렬하여 리스트를 생성할 수 있고, 사용자의 단말(110)로 생성된 리스트 및 리스트에 포함된 카테고리 중 사용자의 선호 카테고리를 묻는 메시지를 전송할 수 있다. 사용자는 사용자의 단말(110)을 통해 장치(200)로부터 전송된 리스트 및 메시지를 확인하고, 메시지에 대한 응답을 장치(200)로 전송할 수 있다. 이때, 응답은 리스트에 포함된 카테고리 중 하나일 수 있다. 또한, 장치(200)는 사용자의 단말(110)을 통해 획득한 응답을 기초로 선호 카테고리를 획득할 수 있다.Specifically, the device 200 may generate a list by sorting the first recommendation category and the second recommendation category in order according to the user's average viewing time, and include them in the list generated by the user's terminal 110 and the list. A message asking for the user's preferred category among the available categories can be sent. The user can check the list and messages transmitted from the device 200 through the user's terminal 110 and transmit a response to the message to the device 200. At this time, the response may be one of the categories included in the list. Additionally, the device 200 may obtain a preference category based on the response obtained through the user's terminal 110.

이로 인해, 장치(200)는 사용자의 개인 정보 및 사용자의 시청 이력을 통해 사용자의 선호 카테고리를 선정할 수 있는 효과가 있다.Due to this, the device 200 has the effect of selecting the user's preferred category through the user's personal information and the user's viewing history.

도 5는 일실시예에 따른 콘텐츠 기획안을 생성하는 과정을 설명하기 위한 순서도이다.Figure 5 is a flowchart for explaining the process of creating a content plan according to an embodiment.

도 5를 참조하면, 먼저, S501 단계에서, 장치(200)는 선호 카테고리에 매칭된 영상 콘텐츠를 참고 영상 콘텐츠로 선정할 수 있다.Referring to FIG. 5 , first, in step S501, the device 200 may select video content matching a preference category as reference video content.

구체적으로, 장치(200)는 사용자의 선호 카테고리가 확인되면, 선호 카테고리에 매칭된 영상 콘텐츠를 콘텐츠 기획안을 생성하기 위한 참고 영상 콘텐츠로 선정할 수 있다.Specifically, when the user's preference category is confirmed, the device 200 may select video content matching the preference category as reference video content for generating a content plan.

S502 단계에서, 장치(200)는 참고 영상 콘텐츠를 기초로, 트렌드 키워드를 선정할 수 있다.In step S502, the device 200 may select a trend keyword based on reference video content.

구체적으로, 장치(200)는 참고 영상 콘텐츠를 기초로, 참고 영상 콘텐츠에서 사용된 단어, 참고 영상 콘텐츠를 검색하기 위해 사용된 단어를 기반으로 트렌드 키워드를 선정할 수 있다.Specifically, the device 200 may select trend keywords based on reference video content, words used in the reference video content, and words used to search the reference video content.

이때, 트렌드 키워드를 선정하는 과정은 도 6을 참조하여 설명하기로 한다.At this time, the process of selecting trend keywords will be explained with reference to FIG. 6.

S503 단계에서, 장치(200)는 참고 영상 콘텐츠를 기초로 최적 분량을 선정할 수 있다.In step S503, the device 200 may select the optimal amount based on reference video content.

구체적으로, 장치(200)는 참고 영상 콘텐츠의 조회 수 및 완독 조회 수를 기반으로 완독률을 생성하고, 완독률을 통해 최적 분량을 선정할 수 있다.Specifically, the device 200 can generate a completion rate based on the number of views and completion views of the reference video content, and select the optimal volume through the completion rate.

이때, 완독률을 통해 최적 분량을 선정하는 과정은 도 7을 참조하여 설명하기로 한다.At this time, the process of selecting the optimal volume based on the completion rate will be explained with reference to FIG. 7.

S504 단계에서, 장치(200)는 참고 영상 콘텐츠를 기초로 타겟층을 선정할 수 있다.In step S504, the device 200 may select a target group based on reference video content.

구체적으로, 장치(200)는 참고 영상 콘텐츠를 시청한 시청자의 연령, 참고 영상 콘텐츠에 댓글을 작성한 작성자의 연령, 참고 영상 콘텐츠를 주로 제작하는 제작자에 대한 구독자의 연령을 기초로 타겟 연령을 선정할 수 있고, 타겟 연령을 통해 타겟층을 선정할 수 있다.Specifically, the device 200 selects the target age based on the age of the viewer who watched the reference video content, the age of the author who wrote a comment on the reference video content, and the age of the subscriber to the producer who mainly produces the reference video content. You can select the target group based on the target age.

즉, 장치(200)는 참고 영상 콘텐츠를 기초로 타겟 연령을 포함하는 타겟층을 선정할 수 있다.That is, the device 200 may select a target group including the target age based on reference video content.

이때, 타겟 연령을 통해 타겟층을 선정하는 과정은 도 8을 참조하여 설명하기로 한다.At this time, the process of selecting the target group based on the target age will be described with reference to FIG. 8.

S505 단계에서, 장치(200)는 트렌드 키워드, 최적 분량, 타겟층을 포함하는 콘텐츠 기획안을 생성할 수 있다.In step S505, the device 200 may create a content plan including trending keywords, optimal volume, and target audience.

구체적으로, 장치(200)는 참고 영상 콘텐츠를 통해 트렌드 키워드, 최적 분량, 타겟층이 선정되면, 트렌드 키워드, 최적 분량, 타겟층을 포함하는 콘텐츠 기획안을 생성할 수 있다.Specifically, when a trend keyword, optimal amount, and target group are selected through reference video content, the device 200 may generate a content plan including the trend keyword, optimal amount, and target group.

이로 인해, 장치(200)는 어떤 키워드를 포함하는 것이 좋은지, 어느 분량으로 제작하면 좋은지, 어떤 타겟층을 겨냥하면 좋은지 확인하여 트렌드 키워드, 최적 분량, 타겟층을 포함하는 콘텐츠 기획안을 생성할 수 있고, 생성된 콘텐츠 기획안을 사용자에게 제공함으로써 사용자는 콘텐츠 기획안을 참고하여 쉽게 영상 콘텐츠를 제작할 수 있는 효과가 있다.Due to this, the device 200 can generate a content plan including trend keywords, optimal volume, and target group by checking which keywords are best to include, what volume should be produced, and what target group should be targeted. By providing a content plan to the user, the user can easily create video content by referring to the content plan.

도 6은 일실시예에 따른 트렌드 키워드를 선정하는 과정을 설명하기 위한 순서도이다.Figure 6 is a flowchart for explaining the process of selecting trend keywords according to an embodiment.

도 6을 참조하면, 먼저, S601 단계에서, 장치(200)는 기준 기간 이내에 업로드 된 참고 영상 콘텐츠에서 사용된 단어를 제1 키워드로 확인할 수 있다. 여기서, 기준 기간은 현 시점을 기준으로 미리 설정된 기간으로 실시 예에 따라 달라질 수 있다.Referring to FIG. 6, first, in step S601, the device 200 may check the word used in the reference video content uploaded within the reference period as the first keyword. Here, the reference period is a preset period based on the current time and may vary depending on the embodiment.

구체적으로, 장치(200)는 미리 설정된 기준 기간 이내에 업로드 된 참고 영상 콘텐츠를 확인할 수 있고, 기준 기간 이내에 업로드 된 참고 영상 콘텐츠에서 사용된 단어를 제1 키워드로 확인할 수 있다. 이때, 기준 기간 이내에 업로드 된 참고 영상 콘텐츠에서 사용된 단어는 제목에 포함된 단어일 수도 있고, 해시태그로 사용된 단어일 수도 있고, 영상 콘텐츠의 본문에 시각적 및 청각적으로 사용된 단어일 수도 있다. 여기서, 장치(200)는 영상 콘텐츠의 본문에 시각적 및 청각적으로 사용된 단어를 확인하기 위해 영상 콘텐츠에 포함된 이미지 파일 및 음성 파일을 획득할 수 있다. 또한, 장치(200)는 인공 신경망 및 OCR을 통해 획득한 이미지 파일에 포함된 텍스트를 탐지할 수 있고, 탐지된 텍스트를 자연어 처리하여 단어 단위로 분류하고, 분류된 단어 간의 연관관계를 파악하여 제1 키워드를 획득할 수 있다. 이때, 텍스트를 자연어 처리하여 단어 단위로 분류하고, 분류된 단어 간의 연관관계를 파악하여 키워드를 추출하는 과정은 본문에 구체적으로 작성하지 않았지만, 통상적으로 사용되는 자연어 처리 과정 및 키워드 추출 과정을 통해 수행될 수 있다. 또한, 장치(200)는 획득한 음성 파일을 STT 기술을 통해 텍스트로 변환할 수 있고, 변환된 텍스트를 자연어 처리하여 단어 단위로 분류하고, 분류된 단어 간의 연관관계를 파악하여 제1 키워드를 획득할 수 있다. 이때, 텍스트를 자연어 처리하여 단어 단위로 분류하고, 분류된 단어 간의 연관관계를 파악하여 키워드를 추출하는 과정은 본문에 구체적으로 작성하지 않았지만, 통상적으로 사용되는 자연어 처리 과정 및 키워드 추출 과정을 통해 수행될 수 있다. Specifically, the device 200 can check reference video content uploaded within a preset reference period, and can check the word used in the reference video content uploaded within the standard period as the first keyword. At this time, words used in reference video content uploaded within the reference period may be words included in the title, words used as hashtags, or words used visually and audibly in the body of the video content. . Here, the device 200 may obtain image files and audio files included in the video content to check words used visually and audibly in the body of the video content. In addition, the device 200 can detect text included in an image file obtained through an artificial neural network and OCR, process the detected text into natural language, classify it into words, identify the correlation between classified words, and provide You can obtain 1 keyword. At this time, the process of classifying the text into words by natural language processing and extracting keywords by identifying relationships between classified words is not specifically written in the text, but is performed through commonly used natural language processing and keyword extraction processes. It can be. In addition, the device 200 can convert the acquired voice file into text through STT technology, process the converted text into natural language, classify it into words, and obtain the first keyword by identifying the correlation between the classified words. can do. At this time, the process of classifying the text into words by natural language processing and extracting keywords by identifying relationships between classified words is not specifically written in the text, but is performed through commonly used natural language processing and keyword extraction processes. It can be.

S602 단계에서, 장치(200)는 조회 수가 기준 값보다 높은 참고 영상 콘텐츠에서 사용된 단어를 제2 키워드로 확인할 수 있다. 여기서, 기준 값은 미리 설정된 값으로 실시 예에 따라 달라질 수 있다.In step S602, the device 200 may check the word used in the reference video content with a view count higher than the reference value as the second keyword. Here, the reference value is a preset value and may vary depending on the embodiment.

구체적으로, 장치(200)는 조회 수가 미리 설정된 기준 값보다 높은 참고 영상 콘텐츠를 확인할 수 있고, 조회 수가 기준 값보다 높은 참고 영상 콘텐츠에서 사용된 단어를 제2 키워드로 확인할 수 있다. 이때, 조회 수가 기준 값보다 높은 참고 영상 콘텐츠에서 사용된 단어는 제목에 포함된 단어일 수도 있고, 해시태그로 사용된 단어일 수도 있고, 영상 콘텐츠의 본문에 시각적 및 청각적으로 사용된 단어일 수도 있다. 여기서, 장치(200)는 영상 콘텐츠의 본문에 시각적 및 청각적으로 사용된 단어를 확인하기 위해 영상 콘텐츠에 포함된 이미지 파일 및 음성 파일을 획득할 수 있다. 또한, 장치(200)는 인공 신경망 및 OCR을 통해 획득한 이미지 파일에 포함된 텍스트를 탐지할 수 있고, 탐지된 텍스트를 자연어 처리하여 단어 단위로 분류하고, 분류된 단어 간의 연관관계를 파악하여 제2 키워드를 획득할 수 있다. 이때, 텍스트를 자연어 처리하여 단어 단위로 분류하고, 분류된 단어 간의 연관관계를 파악하여 키워드를 추출하는 과정은 본문에 구체적으로 작성하지 않았지만, 통상적으로 사용되는 자연어 처리 과정 및 키워드 추출 과정을 통해 수행될 수 있다. 또한, 장치(200)는 획득한 음성 파일을 STT 기술을 통해 텍스트로 변환할 수 있고, 변환된 텍스트를 자연어 처리하여 단어 단위로 분류하고, 분류된 단어 간의 연관관계를 파악하여 제2 키워드를 획득할 수 있다. 이때, 텍스트를 자연어 처리하여 단어 단위로 분류하고, 분류된 단어 간의 연관관계를 파악하여 키워드를 추출하는 과정은 본문에 구체적으로 작성하지 않았지만, 통상적으로 사용되는 자연어 처리 과정 및 키워드 추출 과정을 통해 수행될 수 있다. Specifically, the device 200 can check reference video content whose number of views is higher than a preset reference value, and can check the word used in the reference video content whose number of views is higher than the reference value as the second keyword. At this time, words used in reference video content with a higher number of views than the standard value may be words included in the title, words used as hashtags, or words used visually and audibly in the body of the video content. there is. Here, the device 200 may obtain image files and audio files included in the video content to check words used visually and audibly in the body of the video content. In addition, the device 200 can detect text included in an image file obtained through an artificial neural network and OCR, process the detected text into natural language, classify it into words, identify the correlation between classified words, and provide You can obtain 2 keywords. At this time, the process of classifying the text into words by natural language processing and extracting keywords by identifying relationships between classified words is not specifically written in the text, but is performed through commonly used natural language processing and keyword extraction processes. It can be. In addition, the device 200 can convert the acquired voice file into text through STT technology, process the converted text into natural language, classify it into words, and obtain a second keyword by identifying the correlation between the classified words. can do. At this time, the process of classifying the text into words by natural language processing and extracting keywords by identifying relationships between classified words is not specifically written in the text, but is performed through commonly used natural language processing and keyword extraction processes. It can be.

S603 단계에서, 장치(200)는 콘텐츠 사이트에 포함된 검색 엔진을 통해 참고 영상 콘텐츠를 검색하기 위해 사용된 검색어를 확인하여 제3 키워드로 선정할 수 있다.In step S603, the device 200 may check the search word used to search the reference video content through a search engine included in the content site and select it as the third keyword.

구체적으로, 장치(200)는 콘텐츠 사이트에 포함된 검색 엔진을 운영하거나, 콘텐츠 사이트에 포함된 검색 엔진과 유무선으로 통신할 수 있으며, 장치(200)는 콘텐츠 사이트에 포함된 검색 엔진을 통해 참고 영상 콘텐츠를 시청하기 위해 시청자들이 검색한 검색어를 확인할 수 있고, 확인된 검색어를 제3 키워드로 선정할 수 있다. Specifically, the device 200 may operate a search engine included in the content site or communicate wired or wirelessly with a search engine included in the content site, and the device 200 may operate a search engine included in the content site. You can check the search terms searched by viewers to watch content, and select the confirmed search terms as third keywords.

S604 단계에서, 장치(200)는 제1 키워드, 제2 키워드 및 제3 키워드에 모두 포함된 키워드가 있는지 여부를 확인할 수 있다.In step S604, the device 200 may check whether there is a keyword included in all the first keyword, second keyword, and third keyword.

S604 단계에서 제1 키워드, 제2 키워드 및 제3 키워드에 모두 포함된 키워드가 있다고 확인되면, S605 단계에서, 장치(200)는 제1 키워드, 제2 키워드 및 제3 키워드에 모두 포함된 키워드를 트렌드 키워드로 확인할 수 있다.If it is determined in step S604 that there is a keyword included in all the first keyword, second keyword, and third keyword, in step S605, the device 200 selects a keyword included in all the first keyword, second keyword, and third keyword. You can check with trend keywords.

구체적으로, 장치(200)는 최근 업로드 된 참고 영상 콘텐츠에서 사용된 제1 키워드, 조회 수가 높은 참고 영상 콘텐츠에서 사용된 제2 키워드 및 참고 영상 콘텐츠를 검색하기 위해 사용된 제3 키워드를 확인한 결과, 제1 키워드, 제2 키워드 및 제3 키워드에 모두 포함된 키워드가 있다고 확인되면, 해당 키워드를 트렌드 키워드로 선정할 수 있다.Specifically, the device 200 checks the first keyword used in the recently uploaded reference video content, the second keyword used in the reference video content with a high number of views, and the third keyword used to search the reference video content, If it is confirmed that there is a keyword included in all the first, second, and third keywords, the corresponding keyword can be selected as a trend keyword.

S604 단계에서 제1 키워드, 제2 키워드 및 제3 키워드에 모두 포함된 키워드가 있지 않다고 확인되면, S606 단계에서, 장치(200)는 제1 키워드, 제2 키워드 및 제3 키워드가 사용된 횟수를 확인하여 가장 많이 사용된 키워드를 트렌드 키워드로 선정할 수 있다.If it is determined in step S604 that there is no keyword included in all the first keyword, second keyword, and third keyword, in step S606, the device 200 counts the number of times the first keyword, second keyword, and third keyword were used. You can check and select the most used keywords as trend keywords.

구체적으로, 장치(200)는 최근 업로드 된 참고 영상 콘텐츠에서 사용된 제1 키워드, 조회 수가 높은 참고 영상 콘텐츠에서 사용된 제2 키워드 및 참고 영상 콘텐츠를 검색하기 위해 사용된 제3 키워드를 확인한 결과, 제1 키워드, 제2 키워드 및 제3 키워드에 모두 포함된 키워드가 있지 않다고 확인되면, 제1 키워드, 제2 키워드 및 제3 키워드에 포함된 키워드를 통해 트렌드 키워드를 선정하기 위해 제1 키워드, 제2 키워드 및 제3 키워드에 각각 포함된 키워드가 사용된 횟수를 확인하여 가장 많이 사용된 키워드를 트렌드 키워드로 선정할 수 있다. Specifically, the device 200 checks the first keyword used in the recently uploaded reference video content, the second keyword used in the reference video content with a high number of views, and the third keyword used to search the reference video content, If it is confirmed that there are no keywords included in all the first, second, and third keywords, the trend keywords are selected through the keywords included in the first, second, and third keywords. You can check the number of times each keyword included in the 2 keyword and 3rd keyword has been used and select the most used keyword as the trend keyword.

예를 들어, 제1 키워드에는 a 키워드, b 키워드, c 키워드가 포함되고, a 키워드는 기준 기간 이내에 업로드 된 참고 영상 콘텐츠에서 10번 사용되었고, b 키워드는 기준 기간 이내에 업로드 된 참고 영상 콘텐츠에서 5번 사용되었고, c 키워드는 기준 기간 이내에 업로드 된 참고 영상 콘텐츠에서 8번 사용되었고, 제2 키워드에는 a 키워드, c 키워드, d 키워드, e 키워드가 포함되고, a 키워드는 조회 수가 기준 값보다 높은 참고 영상 콘텐츠에서 8번 사용되었고, c 키워드는 조회 수가 기준 값보다 높은 참고 영상 콘텐츠에서 5번 사용되었고, d 키워드는 조회 수가 기준 값보다 높은 참고 영상 콘텐츠에서 3번 사용되었고, e 키워드는 조회 수가 기준 값보다 높은 참고 영상 콘텐츠에서 10번 사용되었고, 제3 키워드에는 e 키워드, f 키워드가 포함되고, e 키워드는 참고 영상 콘텐츠를 검색하기 위해 15번 사용되었고, f 키워드는 참고 영상 콘텐츠를 검색하기 위해 5번 사용되었을 경우, 장치(200)는 e 키워드가 25번으로 가장 많이 사용되었다고 판단하고, e 키워드를 트렌드 키워드로 선정할 수 있다.For example, the first keyword includes keyword a, keyword b, and keyword c, keyword a was used 10 times in reference video content uploaded within the reference period, and keyword b was used 5 times in reference video content uploaded within the reference period. was used 8 times, the c keyword was used 8 times in reference video content uploaded within the reference period, the second keyword includes the a keyword, c keyword, d keyword, and e keyword, and the a keyword is a reference whose number of views is higher than the reference value. It was used 8 times in video content, the c keyword was used 5 times in reference video content with a view count higher than the standard value, the d keyword was used 3 times in reference video content with a view count higher than the standard value, and the e keyword was based on the number of views. It was used 10 times in reference video content higher than the value, and the third keyword includes e keyword and f keyword, e keyword was used 15 times to search reference video content, and f keyword was used to search reference video content. When used 5 times, the device 200 determines that the e keyword was used the most at 25 times, and selects the e keyword as a trend keyword.

이로 인해, 장치(200)는 최근 업로드 된 참고 영상 콘텐츠에서 사용된 단어, 조회 수고 높은 참고 영상 콘텐츠에서 사용된 단어, 및 참고 영상 콘텐츠를 검색하기 위해 사용된 단어를 통해 사용자가 업로드하고자 하는 영상 콘텐츠의 선호 카테고리에 대한 트렌드 키워드를 파악할 수 있는 효과가 있다.Because of this, the device 200 searches video content that the user wants to upload through words used in recently uploaded reference video content, words used in reference video content with a high number of views, and words used to search reference video content. It has the effect of identifying trending keywords for preferred categories.

도 7은 일실시예에 따른 최적 분량을 선정하는 과정을 설명하기 위한 순서도이다.Figure 7 is a flowchart for explaining the process of selecting the optimal amount according to one embodiment.

도 7을 참조하면, 먼저, S701 단계에서, 장치(200)는 참고 영상 콘텐츠의 시청 데이터를 통해 조회 수 및 완독 조회 수를 확인할 수 있다.Referring to FIG. 7, first, in step S701, the device 200 can check the number of views and the number of completed views through viewing data of the reference video content.

구체적으로, 장치(200)는 참고 영상 콘텐츠의 시청 데이터를 통해 참고 영상 콘텐츠의 조회 수 및 참고 영상 콘텐츠의 완독 조회 수를 확인할 수 있다. 이때, 조회 수는 해당 참고 영상 콘텐츠를 시청한 횟수 즉, 완독하지 않아도 클릭된 횟수를 의미할 수 있고, 완독 조회 수는 해당 참고 영상 콘텐츠를 끝까지 시청한 횟수 즉, 완독한 횟수를 의미할 수 있다. 즉, 완독 조회 수는 조회 수 내에 포함될 수 있다.Specifically, the device 200 may check the number of views of the reference video content and the number of complete views of the reference video content through viewing data of the reference video content. At this time, the number of views may refer to the number of times the reference video content was watched, that is, the number of clicks even if it was not completely read, and the number of complete views may refer to the number of times the reference video content was watched to the end, that is, the number of times it was read completely. . In other words, the number of completed reads may be included in the number of views.

S702 단계에서, 장치(200)는 조회 수 대비 완독 조회 수를 기반으로 참고 영상 콘텐츠의 완독률을 생성할 수 있다.In step S702, the device 200 may generate a completion rate of the reference video content based on the number of complete views compared to the number of views.

구체적으로, 장치(200)는 참고 영상 콘텐츠의 조회 수 및 완독 조회 수가 확인되면, [ (참고 영상 콘텐츠의 완독 조회 수) / (참고 영상 콘텐츠의 조회 수) ]를 통해 참고 영상 콘텐츠의 완독률을 생성할 수 있다.Specifically, when the number of views and completed views of the reference video content are confirmed, the device 200 determines the complete reading rate of the reference video content through [(number of complete views of the reference video content) / (number of views of the reference video content)]. can be created.

S703 단계에서, 장치(200)는 완독률이 기준 비율보다 높은 참고 영상 콘텐츠를 성공 영상 콘텐츠로 선정할 수 있다. 이때, 기준 비율은 미리 설정된 비율로 실시 예에 따라 달라질 수 있다.In step S703, the device 200 may select reference video content with a completion rate higher than the reference rate as the successful video content. At this time, the reference ratio is a preset ratio and may vary depending on the embodiment.

구체적으로, 장치(200)는 참고 영상 콘텐츠의 완독률이 생성되면, 완독률이 미리 설정된 기준 비율보다 높은 참고 영상 콘텐츠를 성공 영상 콘텐츠로 선정할 수 있다.Specifically, when the completion rate of the reference video content is generated, the device 200 may select the reference video content whose completion rate is higher than a preset standard rate as the successful video content.

S704 단계에서, 장치(200)는 성공 영상 콘텐츠의 영상 분량을 확인하고, 영상 분량의 표준 편차 값을 생성할 수 있다.In step S704, the device 200 may check the video content of the successful video content and generate a standard deviation value of the video content.

구체적으로, 장치(200)는 완독률을 통해 성공 영상 콘텐츠가 선정되면, 성공 영상 콘텐츠의 영상 분량을 확인할 수 있고, 확인된 영상 분량을 기초로 영상 분량에 대한 분산도를 생성할 수 있다. 또한, 장치(200)는 분산도를 기초로 영상 분량의 표준 편차 값을 생성할 수 있다.Specifically, when successful video content is selected through the completion rate, the device 200 can check the video content of the successful video content and generate a dispersion diagram for the video content based on the confirmed video content. Additionally, the device 200 may generate a standard deviation value of the video amount based on the degree of dispersion.

S705 단계에서, 장치(200)는 영상 분량의 표준 편차 값이 한계 값보다 낮은지 여부를 확인할 수 있다. 여기서, 한계 값은 미리 설정된 값으로 실시 예에 따라 다르게 설정될 수 있다.In step S705, the device 200 may check whether the standard deviation value of the video content is lower than the threshold value. Here, the limit value is a preset value and may be set differently depending on the embodiment.

구체적으로, 장치(200)는 분산도를 기초로 생성된 영상 분량의 표준 편차 값이 미리 설정된 한계 값보다 낮은지 여부를 확인할 수 있다.Specifically, the device 200 may check whether the standard deviation value of the amount of video generated based on the dispersion is lower than a preset limit value.

즉, 장치(200)는 표준 편차 값을 통해 성공 영상 콘텐츠의 영상 분량이 성공 영상 콘텐츠 별로 비슷한지 아니면 성공 영상 콘텐츠마다 각각 다른지를 판단할 수 있다.That is, the device 200 can determine whether the video content of each success video content is similar or different for each success video content through the standard deviation value.

S705 단계에서 영상 분량의 표준 편차 값이 한계 값보다 낮다고 확인되면, S706 단계에서, 장치(200)는 가장 빈도 수가 높은 영상 분량을 최적 분량으로 선정할 수 있다.If it is confirmed in step S705 that the standard deviation value of the video portion is lower than the threshold value, in step S706, the device 200 may select the most frequent video portion as the optimal portion.

구체적으로, 장치(200)는 영상 분량의 표준 편차 값이 미리 설정된 한계 값보다 낮다고 확인되면, 성공 영상 콘텐츠를 제작하기 위해서는 영상 분량이 중요하다고 판단하여, 분산도를 통해 가장 빈도 수가 높은 영상 분량을 확인하고, 분산도를 통해 확인된 가장 빈도 수가 높은 영상 분량을 최적 분량으로 선정할 수 있다.Specifically, when the device 200 determines that the standard deviation value of the video amount is lower than a preset threshold value, the device 200 determines that the video amount is important in order to produce successful video content, and determines the most frequent video amount through the dispersion. After checking, the video volume with the highest frequency identified through the dispersion diagram can be selected as the optimal volume.

S705 단계에서 영상 분량의 표준 편차 값이 한계 값보다 낮지 않다고 확인되면, S707 단계에서, 장치(200)는 조회 수가 가장 높은 성공 영상 콘텐츠의 영상 분량을 최적 분량으로 선정할 수 있다.If it is confirmed in step S705 that the standard deviation value of the video content is not lower than the threshold value, in step S707, the device 200 may select the video content of the successful video content with the highest number of views as the optimal video content.

구체적으로, 장치(200)는 영상 분량의 표준 편차 값이 미리 설정된 한계 값보다 낮지 않다고 확인되면, 성공 영상 콘텐츠를 제작하기 위해서는 영상 분량이 중요하지 않다고 판단하여, 성공 영상 콘텐츠 중 조회 수가 가장 높은 성공 영상 콘텐츠를 확인하고, 조회수가 가장 높은 성공 영상 콘텐츠의 영상 분량을 최적 분량으로 선정할 수 있다.Specifically, if it is confirmed that the standard deviation value of the video amount is not lower than a preset threshold, the device 200 determines that the video amount is not important in order to produce successful video content, and determines that the video content has the highest number of views among the successful video content. You can check the video content and select the optimal video length of the successful video content with the highest number of views.

이로 인해, 장치(200)는 참고 영상 콘텐츠의 완독률을 기반으로 성공 영상 콘텐츠를 선정하고, 성공 영상 콘텐츠의 영상 분량을 통해 사용자가 업로드하고자 하는 영상 콘텐츠의 선호 카테고리에 대한 최적 분량을 파악할 수 있는 효과가 있다.As a result, the device 200 selects successful video content based on the completion rate of the reference video content, and determines the optimal amount for the preferred category of video content that the user wants to upload through the video amount of the successful video content. It works.

도 8은 일실시예에 따른 타겟층을 선정하는 과정을 설명하기 위한 순서도이다.Figure 8 is a flowchart for explaining the process of selecting a target group according to an embodiment.

도 8을 참조하면, 먼저, S801 단계에서, 장치(200)는 참고 영상 콘텐츠를 시청한 시청자의 연령을 확인하여 시청자의 연령별 비율을 생성할 수 있다.Referring to FIG. 8, first, in step S801, the device 200 may check the age of the viewer who watched the reference video content and generate a ratio by age of the viewer.

이를 위해, 장치(200)는 콘텐츠 사이트로부터 참고 영상 콘텐츠에 대한 시청 데이터를 획득할 수 있고, 시청 데이터에는 참고 영상 콘텐츠를 시청한 시청자의 정보가 포함될 수 있다. 이때, 시청자의 정보에는 시청자의 연령, 성별, 지역 등이 포함될 수 있다.To this end, the device 200 may obtain viewing data for reference video content from a content site, and the viewing data may include information on viewers who watched the reference video content. At this time, the viewer's information may include the viewer's age, gender, region, etc.

구체적으로, 장치(200)는 참고 영상 콘텐츠에 대한 시청 데이터를 통해 참고 영상 콘텐츠를 시청한 시청자의 연령을 확인할 수 있다. 또한, 장치(200)는 확인된 참고 영상 콘텐츠를 시청한 시청자의 연령을 기초로, 시청자의 연령별 비율을 생성할 수 있다. 이때, 연령별 비율에는 각 연령별 비율일 수도 있고, 연령대별 비율일 수도 있으며, 예를 들어, 연령별 비율에는 0-9세의 비율, 10-19세의 비율, 20-29세의 비율, 30-39세의 비율, 40-49세의 비율, 50-59세의 비율, 60-69세의 비율, 70-79세의 비율, 80-89세의 비율, 90-99세의 비율, 100세 이상의 비율이 포함될 수 있다.Specifically, the device 200 may check the age of the viewer who watched the reference video content through viewing data for the reference video content. Additionally, the device 200 may generate a ratio by age of viewers based on the ages of viewers who watched the confirmed reference video content. At this time, the age-specific ratio may be a ratio for each age or a ratio for each age group. For example, the age-specific ratio may include the ratio of 0-9 years old, the ratio of 10-19 years old, the ratio of 20-29 years old, and the ratio of 30-39 years old. Proportion of age, Proportion of 40-49 years old, Proportion of 50-59 years old, Proportion of 60-69 years old, Proportion of 70-79 years old, Proportion of 80-89 years old, Proportion of 90-99 years old, Proportion of people over 100 years old This may be included.

S802 단계에서, 장치(200)는 제1 임계 비율보다 높은 비율이 있는지 여부를 확인할 수 있다. 여기서, 제1 임계 비율은 미리 설정된 비율로 실시 예에 따라 달라질 수 있다. 이때, 제1 임계 비율은 50%보다 높을 수 있으며, 이에 한정되는 것은 아니다.In step S802, the device 200 may check whether there is a ratio higher than the first threshold ratio. Here, the first threshold ratio is a preset ratio and may vary depending on the embodiment. At this time, the first critical ratio may be higher than 50%, but is not limited thereto.

구체적으로, 장치(200)는 시청자의 연령별 비율 중 미리 설정된 제1 임계 비율보다 높은 비율이 있는지 여부를 확인할 수 있다.Specifically, the device 200 may check whether a ratio by age of viewers is higher than a preset first threshold ratio.

S802 단계에서 제1 임계 비율보다 높은 비율이 있다고 확인되면, S803 단계에서, 장치(200)는 제1 임계 비율보다 높은 비율에 대한 연령을 타겟 연령으로 선정할 수 있다.If it is confirmed that there is a ratio higher than the first threshold ratio in step S802, the device 200 may select the age for the ratio higher than the first threshold ratio as the target age in step S803.

구체적으로, 장치(200)는 시청자의 연령별 비율 중 미리 설정된 제1 임계 비율보다 높은 비율이 있는지 여부를 확인한 결과, 제1 임계 비율보다 높은 비율이 있다고 확인되면, 장치(200)는 제1 임계 비율보다 높은 비율에 대한 연령을 타겟 연령으로 선정할 수 있다.Specifically, the device 200 checks whether there is a rate higher than the preset first threshold rate among the viewer age-specific rates. If it is determined that there is a rate higher than the first threshold rate, the device 200 determines whether the rate is higher than the first threshold rate. The age for a higher ratio can be selected as the target age.

S802 단계에서 제1 임계 비율보다 높은 비율이 없다고 확인되면, S804 단계에서, 장치(200)는 참고 영상 콘텐츠에 댓글을 작성한 작성자를 확인하여 작성자의 연령별 비율을 생성할 수 있다.If it is determined in step S802 that there is no ratio higher than the first threshold ratio, in step S804, the device 200 may check the author who wrote a comment on the reference video content and generate a ratio by age of the author.

이를 위해, 장치(200)는 콘텐츠 사이트로부터 참고 영상 콘텐츠에 대한 시청 데이터를 획득할 수 있고, 시청 데이터에는 참고 영상 콘텐츠에 작성된 댓글 및 댓글을 작성한 작성자의 정보가 더 포함될 수 있다. 이때, 작성자의 정보에는 작성자의 연령, 성별, 지역 등이 포함될 수 있다.To this end, the device 200 may obtain viewing data for the reference video content from the content site, and the viewing data may further include comments written on the reference video content and information about the author of the comment. At this time, the author's information may include the author's age, gender, region, etc.

구체적으로, 장치(200)는 시청자의 연령별 비율 중 미리 설정된 제1 임계 비율보다 높은 비율이 있는지 여부를 확인한 결과, 제1 임계 비율보다 높은 비율이 없다고 확인되면, 장치(200)는 참고 영상 콘텐츠에 대한 시청 데이터를 통해 참고 영상 콘텐츠에 작성된 댓글을 작성한 작성자의 연령을 확인할 수 있다. 또한, 장치(200)는 확인된 참고 영상 콘텐츠에 작성된 댓글을 작성한 작성자의 연령을 기초로, 작성자의 연령별 비율을 생성할 수 있다. Specifically, the device 200 checks whether there is a rate higher than the preset first threshold rate among the viewer age-specific rates. If it is determined that there is no rate higher than the first threshold rate, the device 200 displays the reference video content. You can check the age of the author of the comment written on the reference video content through viewing data. Additionally, the device 200 may generate a ratio by age of the author based on the age of the author who wrote a comment written on the confirmed reference video content.

S805 단계에서, 장치(200)는 제2 임계 비율보다 높은 비율이 있는지 여부를 확인할 수 있다. 여기서, 제2 임계 비율은 미리 설정된 비율로 실시 예에 따라 달라질 수 있다. 이때, 제2 임계 비율은 제1 임계 비율과 동일하게 설정될 수도 있고, 다르게 설정될 수도 있다.In step S805, the device 200 may check whether there is a ratio higher than the second threshold ratio. Here, the second threshold ratio is a preset ratio and may vary depending on the embodiment. At this time, the second threshold ratio may be set to be the same as the first threshold ratio or may be set differently.

구체적으로, 장치(200)는 작성자의 연령별 비율 중 미리 설정된 제2 임계 비율보다 높은 비율이 있는지 여부를 확인할 수 있다.Specifically, the device 200 may check whether any of the ratios by age of the author is higher than a preset second threshold ratio.

S805 단계에서 제2 임계 비율보다 높은 비율이 있다고 확인되면, S806 단계에서, 장치(200)는 제2 임계 비율보다 높은 비율에 대한 연령을 타겟 연령으로 선정할 수 있다.If it is confirmed that there is a ratio higher than the second threshold ratio in step S805, the device 200 may select the age for the ratio higher than the second threshold ratio as the target age in step S806.

구체적으로, 장치(200)는 작성자의 연령별 비율 중 미리 설정된 제2 임계 비율보다 높은 비율이 있는지 여부를 확인한 결과, 제2 임계 비율보다 높은 비율이 있다고 확인되면, 장치(200)는 제2 임계 비율보다 높은 비율에 대한 연령을 타겟 연령으로 선정할 수 있다.Specifically, the device 200 checks whether there is a rate higher than the preset second threshold rate among the rates by age of the author. If it is determined that there is a rate higher than the second threshold rate, the device 200 determines whether the rate is higher than the second threshold rate. The age for a higher ratio can be selected as the target age.

S805 단계에서 제2 임계 비율보다 높은 비율이 없다고 확인되면, S807 단계에서, 장치(200)는 참고 영상 콘텐츠를 업로드한 제작자를 확인하고, 업로드한 영상 콘텐츠 중 참고 영상 콘텐츠가 차지하는 비율을 기초로, 참고 제작자를 선정할 수 있다. 여기서, 설정 비율은 미리 설정된 비율로 실시 예에 따라 달라질 수 있다.If it is confirmed in step S805 that there is no ratio higher than the second threshold ratio, in step S807, the device 200 checks the creator who uploaded the reference video content, and based on the ratio occupied by the reference video content among the uploaded video content, You can select a reference producer. Here, the setting ratio is a preset ratio and may vary depending on the embodiment.

구체적으로, 장치(200)는 작성자의 연령별 비율 중 미리 설정된 제2 임계 비율보다 높은 비율이 있는지 여부를 확인한 결과, 제2 임계 비율보다 높은 비율이 없다고 확인되면, 장치(200)는 참고 영상 콘텐츠를 업로드한 제작자를 확인할 수 있고, 제작자가 업로드한 영상 콘텐츠를 확인하여 제작자가 업로드한 영상 콘텐츠 중 참고 영상 콘텐츠의 비율을 확인할 수 있다. 또한, 장치(200)는 제작자가 업로드한 영상 콘텐츠 중 참고 영상 콘텐츠의 비율이 미리 설정된 설정 비율보다 높은 제작자를 참고 제작자로 선정할 수 있다. 여기서, 설정 비율은 미리 설정된 비율로 실시 예에 따라 달라질 수 있다.Specifically, the device 200 checks whether there is a rate higher than the preset second threshold rate among the rates by age of the creator. If it is determined that there is no rate higher than the second threshold rate, the device 200 displays the reference video content. You can check the uploaded creator, and check the video content uploaded by the creator to check the ratio of reference video content among the video content uploaded by the creator. Additionally, the device 200 may select as a reference producer a producer whose ratio of reference video content among video contents uploaded by the creator is higher than a preset ratio. Here, the setting ratio is a preset ratio and may vary depending on the embodiment.

S808 단계에서, 장치(200)는 참고 제작자의 구독자를 확인하여 구독자의 연령별 비율을 생성할 수 있다. In step S808, the device 200 may check the subscribers of the reference producer and generate a ratio of subscribers by age.

이를 위해, 콘텐츠 사이트에는 영상 콘텐츠를 업로드한 제작자와 매칭하여 제작자에 대한 구독자의 정보가 더 저장될 수 있고, 장치(200)는 콘텐츠 사이트로부터 제작자에 대한 구독자의 정보를 획득할 수 있다. 이때, 구독자의 정보에는 구독자의 연령, 성별, 지역 등을 포함하는 각각의 구독자의 정보가 포함될 수도 있고, 또한, 총 구독자 수가 더 포함될 수 있다.To this end, the content site may further store subscriber information about the creator by matching the creator who uploaded the video content, and the device 200 may obtain subscriber information about the creator from the content site. At this time, the subscriber information may include information about each subscriber, including the subscriber's age, gender, region, etc., and may further include the total number of subscribers.

구체적으로, 장치(200)는 참고 제작자가 선정되면, 콘텐츠 사이트로부터 참고 제작자에 대한 구독자의 정보를 획득할 수 있고, 구독자의 정보를 통해 구독자의 연령별 비율을 생성할 수 있다.Specifically, when a reference producer is selected, the device 200 can obtain subscriber information about the reference creator from the content site and generate a ratio of subscribers by age through the subscriber information.

S809 단계에서, 장치(200)는 가장 높은 비율의 연령을 타겟 연령으로 선정할 수 있다.In step S809, the device 200 may select the age with the highest ratio as the target age.

구체적으로, 장치(200)는 참고 제작자에 대한 구독자의 정보를 통해 구독자의 연령별 비율이 생성되면, 가장 높은 비율의 연령을 타겟 연령으로 선정할 수 있다.Specifically, when the ratio of subscribers by age is generated through subscriber information about the reference producer, the device 200 may select the age with the highest ratio as the target age.

즉, 타겟 연령은 하나의 연령으로 선정될 수도 있고, 연령대로 선정될 수도 있다. That is, the target age may be selected as one age or as an age group.

이로 인해, 장치(200)는 시청자의 연령, 댓글 작성자의 연령, 구독자의 연령을 고려하여 타겟 연령을 선정함으로써 다양한 데이터 소스를 활용할 수 있고, 충성할 가능성이 높은 연령층을 타겟 연령으로 선정할 수 있다.Due to this, the device 200 can utilize various data sources by selecting the target age by considering the age of the viewer, the age of the commenter, and the age of the subscriber, and select an age group with a high probability of loyalty as the target age. .

도 9는 일실시예에 따른 예상 조회수를 산출하는 과정을 설명하기 위한 순서도이다.Figure 9 is a flowchart for explaining the process of calculating the expected number of views according to an embodiment.

도 9를 참조하면, 먼저, S901 단계에서, 장치(200)는 초안 영상 콘텐츠의 카테고리 및 초안 영상 콘텐츠의 영상 분량을 확인할 수 있다.Referring to FIG. 9, first, in step S901, the device 200 may check the category of the draft video content and the video amount of the draft video content.

구체적으로, 장치(200)는 초안 영상 콘텐츠의 카테고리를 확인할 수 있다. 이때, 장치(200)는 초안 영상 콘텐츠를 분석하여, 즉, 초안 영상 콘텐츠에 포함된 키워드를 통해 초안 영상 콘텐츠의 카테고리를 확인할 수도 있고, 장치(200)는 사용자의 단말(110)로 제공한 콘텐츠 기획안을 통해 초안 영상 콘텐츠의 카테고리를 확인할 수도 있고, 장치(200)는 사용자의 단말(110)로부터 초안 영상 콘텐츠의 카테고리를 획득하여 초안 영상 콘텐츠의 카테고리를 확인할 수도 있다.Specifically, the device 200 can check the category of draft video content. At this time, the device 200 may analyze the draft video content, that is, check the category of the draft video content through keywords included in the draft video content, and the device 200 may check the category of the draft video content through the content provided to the user's terminal 110. The category of the draft video content may be confirmed through the plan, or the device 200 may obtain the category of the draft video content from the user's terminal 110 and confirm the category of the draft video content.

또한, 장치(200)는 초안 영상 콘텐츠의 영상 분량을 확인할 수 있다. 이때, 장치(200)는 초안 영상 콘텐츠를 분석하여, 즉, 초안 영상 콘텐츠의 영상 분량을 확인하여 초안 영상 콘텐츠의 영상 분량을 확인할 수도 있고, 장치(200)는 사용자의 단말(110)로 제공한 콘텐츠 기획안을 통해 초안 영상 콘텐츠의 영상 분량을 확인할 수도 있고, 장치(200)는 사용자의 단말(110)로부터 초안 영상 콘텐츠의 영상 분량을 획득하여 초안 영상 콘텐츠의 카테고리를 확인할 수도 있다.Additionally, the device 200 can check the video length of the draft video content. At this time, the device 200 may check the video amount of the draft video content by analyzing the draft video content, that is, by checking the video amount of the draft video content, and the device 200 may check the video amount of the draft video content provided to the user's terminal 110. The video amount of the draft video content may be confirmed through the content plan, and the device 200 may obtain the video amount of the draft video content from the user's terminal 110 and confirm the category of the draft video content.

S902 단계에서, 장치(200)는 생성된 버전을 기초로, 제목 정보를 확인할 수 있다. 이때, 제목 정보에는 제목에 포함된 키워드, 제목의 길이 등이 포함될 수 있다.In step S902, the device 200 can check title information based on the created version. At this time, the title information may include keywords included in the title, the length of the title, etc.

구체적으로, 장치(200)는 초안 영상 콘텐츠에 미리 설정된 변수를 적용하여 버전이 생성되면, 생성된 버전을 기초로, 제목에 포함된 키워드, 제목의 길이를 포함하는 제목 정보를 확인할 수 있다. 이를 위해, 장치(200)는 제목에 포함된 키워드를 확인할 수 있는데, 키워드를 확인하는 과정은 본문에 구체적으로 작성하지 않았지만 통상적으로 사용되는 이미지 내 텍스트 추출 방법, 텍스트 내 키워드 추출 방법을 통해 수행될 수 있다.Specifically, when a version is created by applying a preset variable to the draft video content, the device 200 can check title information including keywords included in the title and the length of the title based on the created version. To this end, the device 200 can check the keywords included in the title. The process of checking the keywords is not specifically written in the text, but can be performed through a commonly used method of extracting text in an image or a method of extracting keywords in a text. You can.

S903 단계에서, 장치(200)는 생성된 버전을 기초로, 썸네일 정보를 확인할 수 있다. 이때, 썸네일 정보에는 썸네일에 포함된 키워드, 썸네일에 포함된 색상 등이 포함될 수 있다.In step S903, the device 200 can check thumbnail information based on the created version. At this time, the thumbnail information may include keywords included in the thumbnail, colors included in the thumbnail, etc.

구체적으로, 장치(200)는 초안 영상 콘텐츠에 미리 설정된 변수를 적용하여 버전이 생성되면, 생성된 버전을 기초로, 썸네일에 포함된 키워드, 썸네일에 포함된 색상을 포함하는 썸네일 정보를 확인할 수 있다. 이를 위해, 장치(200)는 썸네일에 포함된 텍스트를 인식하고, 텍스트를 전처리하여 썸네일에 포함된 키워드를 확인할 수 있다. 이때, 썸네일에 포함된 텍스트를 인식하고, 텍스트를 전처리하여 썸네일에 포함된 키워드를 확인하는 과정은 본문에 구체적으로 작성하지 않았지만 통상적으로 사용되는 이미지 내 텍스트 추출 방법, 텍스트 내 키워드 추출 방법을 통해 수행될 수 있다. 또한, 장치(200)는 썸네일에 포함된 색상을 확인할 수 있는데, 이때, 장치(200)는 썸네일에 포함된 픽셀을 분석하여, 픽셀 별 색상 값을 확인할 수 있고, 미리 설정된 목표 비율보다 많이 포함된 색상 값을 썸네일에 포함된 색상으로 선정할 수 있다. 이때, 색상은 CSS 색상명, 헥스 코드 #RRGGBB, 10진 코드 (R,G,B) 중 하나로 표현될 수 있다.Specifically, when a version is created by applying a preset variable to the draft video content, the device 200 can check thumbnail information, including keywords included in the thumbnail and colors included in the thumbnail, based on the generated version. . To this end, the device 200 can recognize the text included in the thumbnail, preprocess the text, and check the keywords included in the thumbnail. At this time, the process of recognizing the text included in the thumbnail, preprocessing the text, and checking the keywords included in the thumbnail is performed through commonly used text extraction methods in images and keyword extraction methods in text, although this is not specifically written in the text. It can be. In addition, the device 200 can check the color included in the thumbnail. At this time, the device 200 can analyze the pixels included in the thumbnail and check the color value for each pixel, and can check the color value for each pixel and determine the color value included in the thumbnail more than the preset target ratio. The color value can be selected as the color included in the thumbnail. At this time, the color can be expressed as one of the CSS color name, hex code #RRGGBB, or decimal code (R, G, B).

S904 단계에서, 장치(200)는 생성된 버전을 기초로, 영상 속도를 확인할 수 있다. In step S904, the device 200 can check the video speed based on the generated version.

구체적으로, 장치(200)는 초안 영상 콘텐츠에 미리 설정된 변수를 적용하여 버전이 생성되면, 생성된 버전을 기초로, 생성된 버전에 적용된 영상 속도를 확인할 수 있다.Specifically, when a version is created by applying a preset variable to the draft video content, the device 200 can check the video speed applied to the generated version based on the generated version.

S905 단계에서, 장치(200)는 생성된 버전을 기초로, 자막 크기를 확인할 수 있다.In step S905, the device 200 can check the subtitle size based on the created version.

구체적으로, 장치(200)는 초안 영상 콘텐츠에 미리 설정된 변수를 적용하여 버전이 생성되면, 생성된 버전을 기초로, 생성된 버전에 적용된 자막 크기를 확인할 수 있다.Specifically, when a version is created by applying a preset variable to the draft video content, the device 200 can check the subtitle size applied to the generated version based on the generated version.

S906 단계에서, 장치(200)는 카테고리, 영상 분량, 제목 정보, 썸네일 정보, 영상 속도, 자막 크기를 기초로, 제1 입력 신호를 생성할 수 있다.In step S906, the device 200 may generate a first input signal based on the category, video length, title information, thumbnail information, video speed, and subtitle size.

구체적으로, 장치(200)는 초안 영상 콘텐츠의 카테고리를 확인하고, 초안 영상 콘텐츠의 영상 분량을 확인하고, 제목에 포함된 키워드, 제목의 길이를 포함하는 제목 정보를 확인하고, 썸네일에 포함된 키워드, 썸네일에 포함된 색상을 포함하는 썸네일 정보를 확인하고, 영상 속도를 확인하고, 자막 크기를 확인하면, 장치(200)는 카테고리, 영상 분량, 제목 정보, 썸네일 정보, 영상 속도, 자막 크기를 전처리하는 과정을 수행할 수 있다. 전처리가 수행된 카테고리, 영상 분량, 제목 정보, 썸네일 정보, 영상 속도, 자막 크기는 인공신경망의 입력으로 그대로 사용하거나, 불필요한 정보를 제거하는 통상의 처리를 거쳐 입력을 생성할 수 있다. Specifically, the device 200 checks the category of the draft video content, checks the video amount of the draft video content, checks title information including keywords included in the title, the length of the title, and keywords included in the thumbnail. , upon checking the thumbnail information including the color included in the thumbnail, checking the video speed, and checking the subtitle size, the device 200 preprocesses the category, video length, title information, thumbnail information, video speed, and subtitle size. The process can be performed. The preprocessed category, video length, title information, thumbnail information, video speed, and subtitle size can be used as input to the artificial neural network, or the input can be generated through normal processing to remove unnecessary information.

S907 단계에서, 장치(200)는 제1 입력 신호를 제1 인공신경망에 적용하여 제1 출력 신호를 획득할 수 있다.In step S907, the device 200 may obtain a first output signal by applying the first input signal to the first artificial neural network.

구체적으로, 장치(200)는 제1 인공신경망을 포함하거나, 별개의 제1 인공신경망과 유무선으로 통신할 수 있으며, 여기서, 제1 인공신경망은 카테고리, 영상 분량, 제목 정보, 썸네일 정보, 영상 속도, 자막 크기를 입력하면, 생성된 버전이 콘텐츠 사이트에 업로드 되었을 때의 예상 조회 수를 예측하는 알고리즘일 수 있다.Specifically, the device 200 may include a first artificial neural network or communicate wired or wirelessly with a separate first artificial neural network, where the first artificial neural network may include a category, video length, title information, thumbnail information, and video speed. , it may be an algorithm that predicts the expected number of views when the generated version is uploaded to a content site by entering the subtitle size.

즉, 제1 인공신경망은 카테고리, 영상 분량, 제목 정보, 썸네일 정보, 영상 속도, 자막 크기를 고려하여, 버전에 대한 예상 조회 수를 예측 및 출력할 수 있고, 제1 출력 신호는 버전에 대한 예상 조회 수일 수 있다.That is, the first artificial neural network can predict and output the expected number of views for the version by considering the category, video length, title information, thumbnail information, video speed, and subtitle size, and the first output signal is the expected number of views for the version. It could be the number of views.

제1 인공신경망의 학습이 이루어지는 학습 장치는 학습된 제1 인공신경망을 이용하여 예상 조회 수를 생성하는 장치(200)와 동일한 장치일 수 있고, 별개의 장치일 수도 있다. The learning device in which learning of the first artificial neural network is performed may be the same device as the device 200 that generates the expected number of views using the learned first artificial neural network, or may be a separate device.

학습 장치는 제1 인공신경망에 입력을 적용할 수 있다. 제1 인공신경망은 강화 학습(reinforcement learning)에 따라 학습되는 인공 신경망일 수 있다. 제1 인공신경망은 강화 학습을 통해 추상적 추론을 출력하는데 적합한 Q-Network, DQN(Depp Q-Network), 또는 관계형 네트워크(relation network, RL) 구조일 수 있다.The learning device may apply input to the first artificial neural network. The first artificial neural network may be an artificial neural network learned according to reinforcement learning. The first artificial neural network may be a Q-Network, DQN (Depp Q-Network), or relational network (RL) structure suitable for outputting abstract inference through reinforcement learning.

강화 학습에 따라 학습되는 제1 인공신경망은 다양한 보상에 평가를 반영하여 갱신 및 최적화될 수 있다. 예를 들어, 제1 보상은 카테고리에 따라 적합한 예상 조회 수를 선정할수록 보상 값이 높아질 수 있고, 제2 보상은 영상 분량에 따라 적합한 예상 조회 수를 선정할수록 보상 값이 높아질 수 있고, 제3 보상은 제목에 포함된 키워드에 따라 적합한 예상 조회 수를 선정할수록 보상 값이 높아질 수 있고, 제4 보상은 제목의 길이에 따라 적합한 예상 조회 수를 선정할수록 보상 값이 높아질 수 있고, 제5 보상은 썸네일에 포함된 키워드에 따라 적합한 예상 조회 수를 선정할수록 보상 값이 높아질 수 있고, 제6 보상은 썸네일에 포함된 색상에 따라 적합한 예상 조회 수를 선정할수록 보상 값이 높아질 수 있고, 제7 보상은 영상 속도에 따라 적합한 예상 조회 수를 선정할수록 보상 값이 높아질 수 있고, 제8 보상은 자막 크기에 따라 적합한 예상 조회 수를 선정할수록 보상 값이 높아질 수 있으며, 제9 보상은 카테고리에 따라 적합하지 않은 예상 조회 수를 선정하지 않을수록 보상 값이 높아질 수 있고, 제10 보상은 영상 분량에 따라 적합하지 않은 예상 조회 수를 선정하지 않을수록 보상 값이 높아질 수 있고, 제11 보상은 제목에 포함된 키워드에 따라 적합하지 않은 예상 조회 수를 선정하지 않을수록 보상 값이 높아질 수 있고, 제12 보상은 제목의 길이에 따라 적합하지 않은 예상 조회 수를 선정하지 않을수록 보상 값이 높아질 수 있고, 제13 보상은 썸네일에 포함된 키워드에 따라 적합하지 않은 예상 조회 수를 선정하지 않을수록 보상 값이 높아질 수 있고, 제14 보상은 썸네일에 포함된 색상에 따라 적합하지 않은 예상 조회 수를 선정하지 않을수록 보상 값이 높아질 수 있고, 제15 보상은 영상 속도에 따라 적합하지 않은 예상 조회 수를 선정하지 않을수록 보상 값이 높아질 수 있고, 제16 보상은 자막 크기에 따라 적합하지 않은 예상 조회 수를 선정하지 않을수록 보상 값이 높아질 수 있다.The first artificial neural network learned according to reinforcement learning can be updated and optimized by reflecting the evaluation of various rewards. For example, for the first reward, the reward value may increase as the expected number of views appropriate for the category is selected, for the second reward, the reward value may increase as the expected number of views appropriate for the video length is selected, and for the third reward The reward value can be higher as the expected number of views is selected according to the keywords included in the title. For the fourth reward, the reward value can be higher as the expected number of views is selected according to the length of the title. The fifth reward is the thumbnail. The reward value can be higher as the appropriate expected number of views is selected according to the keywords included in the . For the sixth reward, the reward value can be higher as the appropriate expected number of views is selected according to the color included in the thumbnail. The seventh reward is the video The reward value can be higher as an appropriate expected number of views is selected depending on the speed, and for the 8th reward, the reward value can be higher as an appropriate expected number of views is selected depending on the subtitle size. The 9th reward is an unsuitable estimate depending on the category. The reward value can be higher as the number of views is not selected, and for the 10th reward, the reward value can be higher as the expected number of views, which is not appropriate for the video length, is not selected. The 11th reward is for keywords included in the title. Depending on the length of the title, the reward value can be higher as the expected number of unsuitable views is not selected, the 12th reward can be higher as the unsuitable expected number of views is not selected depending on the length of the title, and the 13th reward is The more you do not select the expected number of unsuitable views according to the keywords included in the thumbnail, the higher the reward value can be. The 14th reward is: The more you do not select the expected number of unsuitable views according to the color included in the thumbnail, the higher the reward value. The 15th reward can increase the reward value as the expected number of views that are not appropriate according to the video speed is not selected, and the 16th reward is the reward as the expected number of views that are not appropriate according to the subtitle size is not selected. The value may increase.

학습 장치는 제1 인공신경망으로부터 출력을 획득할 수 있다. 제1 인공신경망의 출력은, 카테고리, 영상 분량, 제목 정보, 썸네일 정보, 영상 속도, 자막 크기에 따른 예상 조회 수일 수 있다. 이때, 제1 인공신경망은 카테고리, 영상 분량, 제목 정보, 썸네일 정보, 영상 속도, 자막 크기를 고려하여, 예상 조회 수를 분석 및 예측할 수 있으며, 예측한 예상 조회 수를 출력할 수 있다.The learning device may obtain an output from the first artificial neural network. The output of the first artificial neural network may be the expected number of views according to the category, video length, title information, thumbnail information, video speed, and subtitle size. At this time, the first artificial neural network can analyze and predict the expected number of views by considering the category, video length, title information, thumbnail information, video speed, and subtitle size, and output the predicted number of views.

학습 장치는 제1 인공신경망의 출력을 평가하여 보상을 지급할 수 있다. 이때, 출력의 평가는 제1 보상, 제2 보상, 제3 보상, 제4 보상, 제5 보상, 제6 보상, 제7 보상, 제8 보상, 제9 보상, 제10 보상, 제11 보상, 제12 보상, 제13 보상, 제14 보상, 제15 보상, 및 제16 보상 등으로 나뉠 수 있다.The learning device may evaluate the output of the first artificial neural network and pay a reward. At this time, the evaluation of the output is the 1st reward, 2nd reward, 3rd reward, 4th reward, 5th reward, 6th reward, 7th reward, 8th reward, 9th reward, 10th reward, 11th reward, It can be divided into the 12th compensation, the 13th compensation, the 14th compensation, the 15th compensation, and the 16th compensation.

구체적으로, 학습 장치는 카테고리에 따라 적합한 예상 조회 수를 출력하면 제1 보상을 많이 수여하고, 영상 분량에 따라 적합한 예상 조회 수를 출력하면 제2 보상을 많이 수여하고, 제목에 포함된 키워드에 따라 적합한 예상 조회 수를 출력하면 제3 보상을 많이 수여하고, 제목의 길이에 따라 적합한 예상 조회 수를 출력하면 제4 보상을 많이 수여하고, 썸네일에 포함된 키워드에 따라 적합한 예상 조회 수를 출력하면 제5 보상을 많이 수여하고, 썸네일에 포함된 색상에 따라 적합한 예상 조회 수를 출력하면 제6 보상을 많이 수여하고, 영상 속도에 따라 적합한 예상 조회 수를 출력하면 제7 보상을 많이 수여하고, 자막 크기에 따라 적합한 예상 조회 수를 출력하면 제8 보상을 많이 수여하고, 카테고리에 따라 적합하지 않은 예상 조회 수를 출력하지 않으면 제9 보상을 많이 수여하고, 영상 분량에 따라 적합하지 않은 예상 조회 수를 출력하지 않으면 제10 보상을 많이 수여하고, 제목에 포함된 키워드에 따라 적합하지 않은 예상 조회 수를 출력하지 않으면 제11 보상을 많이 수여하고, 제목의 길이에 따라 적합하지 않은 예상 조회 수를 출력하지 않으면 제12 보상을 많이 수여하고, 썸네일에 포함된 키워드에 따라 적합하지 않은 예상 조회 수를 출력하지 않으면 제13 보상을 많이 수여하고, 썸네일에 포함된 색상에 따라 적합하지 않은 예상 조회 수를 출력하지 않으면 제14 보상을 많이 수여할 수 있고, 영상 속도에 따라 적합하지 않은 예상 조회 수를 출력하지 않으면 제15 보상을 많이 수여하고, 자막 크기에 따라 적합하지 않은 예상 조회 수를 출력하지 않으면 제16 보상을 많이 수여할 수 있다.Specifically, the learning device awards a large number of first rewards when it outputs an appropriate expected number of views according to the category, awards a large number of second rewards when it outputs an appropriate number of expected views according to the video length, and awards a large number of second rewards according to keywords included in the title. If the appropriate expected number of views is output, a large number of third rewards are awarded. If the appropriate expected number of views is output according to the length of the title, the fourth reward is awarded in large numbers. If the appropriate expected number of views is output according to the keywords included in the thumbnail, the fourth reward is awarded. 5 A large number of rewards are awarded, and if the appropriate expected number of views is output according to the color included in the thumbnail, the 6th reward is a large amount, and if the appropriate expected number of views is output according to the video speed, the 7th reward is awarded a large number, and the subtitle size If an appropriate expected number of views is output according to the category, a large number of 8th rewards are awarded. If an inappropriate expected number of views is not output according to the category, a large number of 9th rewards are awarded. Depending on the video length, an inappropriate expected number of views is awarded. Otherwise, a large number of 10th rewards are awarded, and if an unsuitable expected number of views is not output according to the keywords included in the title, a large number of 11th rewards are awarded, and if an unsuitable expected number of views is not output according to the length of the title, If the 12th reward is awarded in large quantities and an unsuitable expected number of views is not output according to the keywords included in the thumbnail, the 13th reward is awarded in large quantities and the unsuitable expected number of views is not output according to the color included in the thumbnail. The 14th reward can be awarded in large numbers, and if the expected number of views that are not appropriate according to the video speed are not output, the 15th reward can be awarded in large numbers, and if the expected number of views that are not appropriate according to the subtitle size are not output, the 16th reward can be awarded. A lot can be awarded.

학습 장치는 평가를 기초로 제1 인공신경망을 갱신할 수 있다.The learning device may update the first artificial neural network based on the evaluation.

구체적으로, 학습 장치는 제1 인공신경망이, 카테고리, 영상 분량, 제목 정보, 썸네일 정보, 영상 속도, 자막 크기을 고려하여, 예상 조회 수에 대한 정보를 분석하는 환경(environment)에서, 보상값(reward)들의 합의 기대값(expectation)이 최대화되도록, 특정한 상태(state)들에서 취할 행동(action)들을 결정하는 정책(policy)을 최적화하는 과정을 통해 인공신경망을 갱신할 수 있다.Specifically, the learning device is a reward value in an environment where the first artificial neural network analyzes information about the expected number of views by considering the category, video length, title information, thumbnail information, video speed, and subtitle size. The artificial neural network can be updated through the process of optimizing the policy that determines the actions to be taken in specific states so that the expected value of the sum of ) is maximized.

한편, 정책을 최적화하는 과정은 보상들의 합의 기대값의 최대값 또는 Q-함수의 최대값을 추정하거나, Q-함수의 손실 함수(loss function)의 최소값을 추정하는 과정을 통해 이루어질 수 있다. 손실함수의 최소값의 추정은 확률적 경사하강법(stochastic gradient descent, SGD) 등을 통해 이루어질 수 있다. 정책을 최적화하는 과정은 이에 제한되는 것은 아니며, 강화 학습에서 사용하는 다양한 최적화 알고리즘들이 이용될 수 있다.Meanwhile, the process of optimizing the policy can be accomplished through estimating the maximum expected value of the sum of rewards or the maximum value of the Q-function, or estimating the minimum value of the loss function of the Q-function. Estimation of the minimum value of the loss function can be done through stochastic gradient descent (SGD), etc. The process of optimizing the policy is not limited to this, and various optimization algorithms used in reinforcement learning can be used.

학습 장치는 상술한 제1 인공신경망의 학습 과정을 반복함으로써, 제1 인공신경망을 점진적으로 갱신시킬 수 있다. 또한, 학습 장치는 콘텐츠 사이트와 유무선으로 통신할 수 있으며, 콘텐츠 사이트로부터 획득한 영상 콘텐츠의 메타 데이터 및 영상 콘텐츠에 대한 시청 데이터를 통해 제1 인공신경망을 학습시킬 수 있다. 즉, 학습 장치는 콘텐츠 사이트로부터 획득한 영상 콘텐츠의 메타 데이터 및 영상 콘텐츠에 대한 실제 조회 수를 기초로 제1 인공신경망을 학습시킬 수 있다. The learning device can gradually update the first artificial neural network by repeating the learning process of the first artificial neural network described above. Additionally, the learning device can communicate with the content site by wire or wirelessly, and can learn the first artificial neural network through metadata of video content and viewing data about video content obtained from the content site. That is, the learning device can train the first artificial neural network based on the metadata of the video content obtained from the content site and the actual number of views on the video content.

이를 통해, 학습 장치는 카테고리, 영상 분량, 제목 정보, 썸네일 정보, 영상 속도, 자막 크기를 고려하여, 예상 조회 수를 예측 출력하는 인공신경망을 학습시킬 수 있다.Through this, the learning device can train an artificial neural network that predicts and outputs the expected number of views by considering the category, video length, title information, thumbnail information, video speed, and subtitle size.

즉, 학습 장치는 카테고리, 영상 분량, 제목 정보, 썸네일 정보, 영상 속도, 자막 크기를 고려하여, 예상 조회 수를 출력할 때, 제1 보상, 제2 보상, 제3 보상, 제4 보상, 제5 보상, 제6 보상, 제7 보상, 제8 보상, 제9 보상, 제10 보상, 제11 보상, 제12 보상, 제13 보상, 제14 보상, 제15 보상, 및 제16 보상 등을 통한 강화 학습을 반영하여, 분석 기준을 조정함으로써, 제1 인공신경망을 학습시킬 수 있다.That is, the learning device considers the category, video length, title information, thumbnail information, video speed, and subtitle size when outputting the expected number of views, including the first reward, the second reward, the third reward, the fourth reward, and the fourth reward. Through the 5th compensation, the 6th compensation, the 7th compensation, the 8th compensation, the 9th compensation, the 10th compensation, the 11th compensation, the 12th compensation, the 13th compensation, the 14th compensation, the 15th compensation, and the 16th compensation, etc. The first artificial neural network can be trained by adjusting the analysis criteria to reflect reinforcement learning.

S908 단계에서, 장치(200)는 제1 출력 신호에 기초하여, 버전에 대한 예상 조회 수를 확인할 수 있다. In step S908, the device 200 may check the expected number of views for the version based on the first output signal.

구체적으로, 장치(200)는 카테고리, 영상 분량, 제목 정보, 썸네일 정보, 영상 속도, 자막 크기를 전처리하여 제1 입력 신호를 생성할 수 있고, 생성된 제1 입력 신호를 버전에 대한 예상 조회 수를 예측 및 출력하는 제1 인공신경망에 적용하여 제1 출력 신호를 획득할 수 있다. Specifically, the device 200 may generate a first input signal by preprocessing the category, video length, title information, thumbnail information, video speed, and subtitle size, and convert the generated first input signal into the expected number of views for the version. The first output signal can be obtained by applying it to a first artificial neural network that predicts and outputs.

또한, 장치(200)는 제1 인공신경망을 통해 출력된 제1 출력 신호를 기초로, 버전에 대한 예상 조회 수를 확인할 수 있다. Additionally, the device 200 may check the expected number of views for the version based on the first output signal output through the first artificial neural network.

한편, 장치(200)는 변수를 통해 적어도 2가지 이상의 버전이 생성되면, 각 버전마다 제1 인공신경망을 통해 예상 조회 수를 예측 및 확인할 수 있다. 즉, 장치(200)는 변수를 통해 제1 버전 및 제2 버전이 생성되면, 장치(200)는 제1 버전을 기초로, 제1 인공신경망을 통해 제1 버전에 대한 예상 조회 수를 확인할 수 있고, 장치(200)는 제2 버전을 기초로 제1 인공신경망을 통해 제2 버전에 대한 예상 조회 수를 확인할 수 있다.Meanwhile, when at least two versions are created through variables, the device 200 can predict and confirm the expected number of views for each version through a first artificial neural network. That is, when the first version and the second version are created through variables, the device 200 can check the expected number of views for the first version through the first artificial neural network based on the first version. And, the device 200 can check the expected number of views for the second version through the first artificial neural network based on the second version.

이를 통해, 장치(200)는 각 버전 별로 예상 조회 수를 확인할 수 있고, 또한, 사용자의 단말(110)로 각 버전에 대한 예상 조회 수를 제공할 수 있어, 사용자는 최종 영상 콘텐츠를 산정하는데 참고할 수 있다.Through this, the device 200 can check the expected number of views for each version, and can also provide the expected number of views for each version to the user's terminal 110, so the user can use it as a reference to calculate the final video content. You can.

즉, 장치(200)는 생성된 버전 각각에 대해 예상 조회 수를 산출함으로써 A/B 테스트를 자동화할 수 있고, 이를 통해 A/B 테스트가 객관적인 근거에 의해 수행될 수 있는 효과를 기대할 수 있다.In other words, the device 200 can automate A/B testing by calculating the expected number of views for each created version, and through this, the effect of A/B testing can be expected to be performed on objective grounds.

도 10은 일실시예에 따른 업로드 시간대를 포함하여 콘텐츠 기획안을 생성하는 과정을 설명하기 위한 순서도이다.Figure 10 is a flowchart for explaining the process of creating a content plan including an upload time zone according to an embodiment.

도 10을 참조하면, 먼저, S1001 단계에서, 장치(200)는 사용자가 업로드한 기존 영상 콘텐츠가 있는 것에 기반하여 사용자의 구독자 수를 확인할 수 있다.Referring to FIG. 10, first, in step S1001, the device 200 may check the number of subscribers of the user based on the presence of existing video content uploaded by the user.

구체적으로, 장치(200)는 콘텐츠 사이트로부터 획득한 영상 콘텐츠의 메타 데이터를 기초로, 제작자를 확인하여 사용자가 업로드한 기존 영상 콘텐츠가 있는지 여부를 확인할 수 있고, 장치(200)는 사용자가 업로드한 기존 영상 콘텐츠가 있는 것에 기반하여 사용자의 구독자 수를 확인할 수 있다. 이를 위해, 콘텐츠 사이트에는 영상 콘텐츠를 업로드한 제작자와 매칭하여 제작자에 대한 구독자의 정보가 더 저장될 수 있고, 장치(200)는 콘텐츠 사이트로부터 제작자에 대한 구독자의 정보를 획득할 수 있다. 이때, 구독자의 정보에는 구독자의 연령, 성별, 지역 등을 포함하는 각각의 구독자의 정보가 포함될 수도 있고, 또한, 총 구독자 수가 더 포함될 수 있다.Specifically, the device 200 can check whether there is existing video content uploaded by the user by checking the creator based on the metadata of the video content acquired from the content site, and the device 200 can determine whether there is existing video content uploaded by the user. You can check the number of subscribers a user has based on their existing video content. To this end, the content site may further store subscriber information about the creator by matching the creator who uploaded the video content, and the device 200 may obtain subscriber information about the creator from the content site. At this time, the subscriber information may include information about each subscriber, including the subscriber's age, gender, region, etc., and may further include the total number of subscribers.

S1002 단계에서, 장치(200)는 사용자의 구독자 수가 척도 값보다 많은지 여부를 확인할 수 있다. 여기서, 척도 값은 미리 설정된 값으로, 실시 예에 따라 달라질 수 있다.In step S1002, the device 200 may check whether the number of subscribers of the user is greater than the scale value. Here, the scale value is a preset value and may vary depending on the embodiment.

구체적으로, 장치(200)는 사용자가 업로드한 기존 영상 콘텐츠가 있는 것으로 확인되어, 사용자의 구독자 수를 확인하면, 사용자의 구독자 수가 미리 설정된 척도 값보다 많은지 여부를 확인할 수 있다. .Specifically, if it is confirmed that there is existing video content uploaded by the user and the number of subscribers of the user is checked, the device 200 can check whether the number of subscribers of the user is greater than a preset scale value. .

S1002 단계에서 사용자의 구독자 수가 척도 값보다 많다고 확인되면, S1003 단계에서, 장치(200)는 사용자의 충성 시청자가 있다고 판단할 수 있다.If it is determined in step S1002 that the number of subscribers of the user is greater than the scale value, the device 200 may determine that the user has loyal viewers in step S1003.

구체적으로, 장치(200)는 사용자의 구독자 수가 미리 설정된 척도 값보다 많다고 확인되면, 장치(200)는 구독자 수가 기준보다 많기 때문에 사용자가 업로드한 기존 영상 콘텐츠 또는 사용자가 업로드할 영상 콘텐츠를 지속적으로 시청할 가능성이 높은 사용자의 충성 시청자가 있다고 판단할 수 있다. Specifically, if the device 200 determines that the number of subscribers of the user is greater than the preset scale value, the device 200 will continue to watch existing video content uploaded by the user or video content to be uploaded by the user because the number of subscribers is greater than the standard. It can be determined that there are loyal viewers of high-potential users.

S1002 단계에서 사용자의 구독자 수가 척도 값보다 많지 않다고 확인되면, S1004 단계에서, 장치(200)는 기존 영상 콘텐츠 중 조회수가 설정 값보다 높은 기존 영상 콘텐츠를 인기 기존 영상 콘텐츠로 선정할 수 있다. 여기서, 설정 값은 미리 설정된 값으로 실시 예에 따라 달라질 수 있다.If it is determined in step S1002 that the number of subscribers of the user is not greater than the scale value, in step S1004, the device 200 may select an existing video content whose number of views is higher than the set value as a popular existing video content. Here, the setting value is a preset value and may vary depending on the embodiment.

구체적으로, 장치(200)는 사용자의 구독자 수가 미리 설정된 척도 값보다 많지 않다고 확인되면, 장치(200)는 사용자가 업로드한 기존 영상 콘텐츠 중 조회 수가 미리 설정된 설정 값보다 높은 기존 영상 콘텐츠를 인기 기존 영상 콘텐츠로 선정할 수 있다.Specifically, if the device 200 determines that the number of subscribers of the user is not greater than the preset scale value, the device 200 selects the existing video content uploaded by the user whose number of views is higher than the preset value to the popular existing video content. It can be selected by content.

S1005 단계에서, 장치(200)는 인기 기존 영상 콘텐츠가 설정 개수보다 많은지 여부를 확인할 수 있다. 여기서, 설정 개수는 미리 설정된 값으로 실시 예에 따라 달라질 수 있다. In step S1005, the device 200 may check whether there are more popular existing video contents than the set number. Here, the set number is a preset value and may vary depending on the embodiment.

구체적으로, 장치(200)는 사용자가 업로드한 기존 영상 콘텐츠 중 인기 기존 영상 콘텐츠가 선정되면, 인기 기존 영상 콘텐츠가 미리 설정된 설정 개수보다 많은지 여부를 확인할 수 있다.Specifically, when popular existing video content is selected among existing video content uploaded by a user, the device 200 may check whether the number of popular existing video contents is greater than the preset number.

S1005 단계에서 인기 기존 영상 콘텐츠가 설정 개수보다 많다고 확인되면, S1006 단계에서, 장치(200)는 사용자의 충성 시청자가 있다고 판단할 수 있다.If it is determined in step S1005 that there are more popular existing video contents than the set number, in step S1006, the device 200 may determine that the user has loyal viewers.

구체적으로, 장치(200)는 인기 기존 영상 콘텐츠가 미리 설정된 설정 개수보다 많다고 확인되면, 장치(200)는 구독자 수는 적어도 조회수가 높은 인기 기존 영상 콘텐츠가 기준보다 많기 때문에 사용자가 업로드한 기존 영상 콘텐츠 또는 사용자가 업로드할 영상 콘텐츠를 지속적으로 시청할 가능성이 높은 사용자의 충성 시청자가 있다고 판단할 수 있다. Specifically, if the device 200 determines that there are more popular existing video contents than the preset number, the device 200 selects the existing video content uploaded by the user because there are more popular existing video contents with a higher number of subscribers or higher views than the standard. Alternatively, it may be determined that there is a loyal audience of users who are likely to continuously watch video content to be uploaded by the user.

S1005 단계에서 인기 기존 영상 콘텐츠가 설정 개수보다 많지 않다고 확인되면, S1007 단계에서, 장치(200)는 사용자의 충성 시청자가 없다고 판단할 수 있다.If it is confirmed in step S1005 that there are not more popular existing video contents than the set number, in step S1007, the device 200 may determine that there are no loyal viewers of the user.

구체적으로, 장치(200)는 인기 기존 영상 콘텐츠가 미리 설정된 설정 개수보다 많지 않다고 확인되면, 장치(200)는 구독자 수도 적고 조회수가 높은 인기 기존 영상 콘텐츠도 적기 때문에 사용자가 업로드한 기존 영상 콘텐츠 또는 사용자가 업로드할 영상 콘텐츠를 지속적으로 시청할 가능성이 높은 사용자의 충성 시청자가 없다고 판단할 수 있다. Specifically, if the device 200 determines that there are not more popular existing video contents than the preset number, the device 200 determines whether the existing video content uploaded by the user or the user It can be determined that there are no loyal viewers of users who are likely to continuously watch the video content to be uploaded.

S1003 단계 및 S1006 단계에서, 사용자의 충성 시청자가 있다고 판단되면, S1008 단계에서, 장치(200)는 업로드 시간대를 선정할 수 있다.If it is determined in steps S1003 and S1006 that the user has loyal viewers, the device 200 may select an upload time slot in step S1008.

구체적으로, 장치(200)는 사용자의 구독자 수가 미리 설정된 척도 값보다 많거나, 또는 사용자의 기존 영상 콘텐츠 중 조회 수가 높은 인기 기존 영상 콘텐츠가 미리 설정된 설정 개수보다 많다고 확인되면, 사용자의 영상 콘텐츠를 지속적으로 시청할 가능성이 높은 사용자의 충성 시청자가 있다고 판단할 수 있고, 장치(200)는 사용자의 충성 시청자가 있다고 판단되면, 업로드 시간대를 선정할 수 있다. 이때, 업로드 시간대를 선정하는 과정은 도 11을 참조하여 설명하기로 한다.Specifically, if the device 200 determines that the number of subscribers of the user is greater than the preset scale value, or that the number of popular existing video contents with a high number of views among the user's existing video content is greater than the preset number, the device 200 continuously displays the user's video content. It may be determined that there are loyal viewers of the user who are likely to watch the video, and if the device 200 determines that there are loyal viewers of the user, it may select an upload time slot. At this time, the process of selecting the upload time zone will be explained with reference to FIG. 11.

S1009 단계에서, 장치(200)는 업로드 시간대를 포함하는 콘텐츠 기획안을 생성할 수 있다.In step S1009, the device 200 may create a content plan including an upload time zone.

구체적으로, 장치(200)는 사용자의 충성 시청자가 있다고 판단하여 업로드 시간대를 선정하면, 업로드 시간대를 포함하는 콘텐츠 기획안을 생성할 수 있다.Specifically, if the device 200 determines that the user has loyal viewers and selects an upload time slot, it can create a content plan including the upload time slot.

한편, S1009 단계에서 사용자가 업로드한 기존 영상 콘텐츠가 없다고 확인되거나, S1007 단계에서 사용자의 충성 시청자가 없다고 판단되면, 장치(200)는 업로드 시간대를 선정하지 않고, 업로드 시간대를 포함하지 않는 콘텐츠 기획안을 생성할 수 있다.Meanwhile, if it is determined in step S1009 that there is no existing video content uploaded by the user, or if it is determined that there are no loyal viewers of the user in step S1007, the device 200 does not select an upload time zone and creates a content plan that does not include the upload time zone. can be created.

이로 인해, 장치(200)는 사용자가 어느 시간대에 영상 콘텐츠를 업로드해야 좋은지 확인하여 업로드 시간대를 포함하는 콘텐츠 기획안을 생성할 수 있고, 생성된 콘텐츠 기획안을 사용자에게 제공함으로써 사용자는 콘텐츠 기획안을 참고하여 쉽게 영상 콘텐츠를 제작 및 업로드할 수 있는 효과가 있다.As a result, the device 200 can determine at which time the user should upload the video content and create a content plan including the upload time zone. By providing the generated content plan to the user, the user can refer to the content plan and It has the effect of allowing you to easily create and upload video content.

도 11은 일실시예에 따른 업로드 시간대를 선정하는 과정을 설명하기 위한 순서도이다.Figure 11 is a flowchart for explaining the process of selecting an upload time zone according to an embodiment.

도 11을 참조하면, 먼저, S1101 단계에서, 장치(200)는 기존 영상 콘텐츠의 시청 시간대를 확인하여, 시간대별 비율을 생성할 수 있다.Referring to FIG. 11, first, in step S1101, the device 200 may check the viewing time zone of existing video content and generate a ratio for each time zone.

이를 위해, 장치(200)는 콘텐츠 사이트로부터 기존 영상 콘텐츠에 대한 시청 데이터를 획득할 수 있고, 시청 데이터에는 시청자가 기존 영상 콘텐츠를 시청한 시간대가 포함될 수 있다. 이때, 시간대는 0시 ~ 1시, 1시 ~ 2시, 2시 ~ 3시, 3시 ~ 4시, 4시 ~ 5시, 5시 ~ 6시, 6시 ~ 7시, 7시 ~ 8시, 8시 ~ 9시, 9시 ~ 10시, 10시 ~ 11시, 11시 ~ 12시, 12시 ~ 13시, 13시 ~ 14시, 14시 ~ 15시, 15시 ~ 16시, 16시 ~ 17시, 17시 ~ 18시, 18시 ~ 19시, 19시 ~ 20시, 20시 ~ 21시, 21시 ~ 22시, 22시 ~ 23시, 23시 ~ 24시로 1시간을 기준으로 분류될 수도 있고, 새벽(00시 ~ 04시), 아침(04시 ~ 08시), 오전(08시 ~ 12시), 오후(12시 ~ 16시), 저녁(16시 ~ 20시), 밤(20시 ~ 24시)을 기준으로 분류될 수 있으며, 그 외의 기준으로 분류될 수도 있다.To this end, the device 200 may obtain viewing data for existing video content from a content site, and the viewing data may include the time period in which the viewer viewed the existing video content. At this time, the time zones are 0 o'clock to 1 o'clock, 1 o'clock to 2 o'clock, 2 o'clock to 3 o'clock, 3 o'clock to 4 o'clock, 4 o'clock to 5 o'clock, 5 o'clock to 6 o'clock, 6 o'clock to 7 o'clock, and 7 o'clock to 8 o'clock. 8:00 - 9:00, 9:00 - 10:00, 10:00 - 11:00, 11:00 - 12:00, 12:00 - 13:00, 13:00 - 14:00, 14:00 - 15:00, 15:00 - 16:00, 1 hour from 16:00 to 17:00, 17:00 to 18:00, 18:00 to 19:00, 19:00 to 20:00, 20:00 to 21:00, 21:00 to 22:00, 22:00 to 23:00, 23:00 to 24:00 It can be classified by standard, dawn (00:00 ~ 04:00), morning (04:00 ~ 08:00), morning (08:00 ~ 12:00), afternoon (12:00 ~ 16:00), and evening (16:00 ~ 20:00) ), can be classified based on night (20:00 - 24:00), and can also be classified based on other criteria.

구체적으로, 장치(200)는 사용자가 기존에 업로드한 기존 영상 콘텐츠에 대한 시청 데이터를 확인하여 기존 영상 콘텐츠의 시청 시간대를 확인할 수 있고, 확인된 시청 시간대를 기초로 시간대별 비율을 생성할 수 있다. 이때, 사용자가 기존에 업로드한 기존 영상 콘텐츠가 두 개 이상일 경우, 장치(200)는 사용자가 기존에 업로드한 모든 기존 영상 콘텐츠에 대한 시청 데이터를 확인하여, 모든 기존 영상 콘텐츠의 시청 시간대를 종합하여 시간대별 비율을 생성할 수도 있다.Specifically, the device 200 can confirm the viewing time zone of existing video content by checking viewing data for existing video content previously uploaded by the user, and generate a ratio for each time zone based on the confirmed viewing time zone. . At this time, if there is more than one existing video content previously uploaded by the user, the device 200 checks the viewing data for all existing video content previously uploaded by the user, and synthesizes the viewing times of all existing video content. You can also create ratios by time period.

S1102 단계에서, 장치(200)는 한계 비율보다 높은 비율이 있는지 여부를 확인할 수 있다. 여기서, 한계 비율은 미리 설정된 비율로 실시 예에 따라 달라질 수 있다. 이때, 한계 비율은 50%보다 높을 수 있으며, 이에 한정되는 것은 아니다.In step S1102, the device 200 may check whether there is a rate higher than the limit rate. Here, the limit ratio is a preset ratio and may vary depending on the embodiment. At this time, the limit ratio may be higher than 50%, but is not limited thereto.

구체적으로, 장치(200)는 기존 영상 콘텐츠의 시청 시간대를 기초로 생성된 시간대별 비율 중 미리 설정된 한계 비율보다 높은 비율이 있는지 여부를 확인할 수 있다.Specifically, the device 200 may check whether any of the ratios for each time slot generated based on the viewing time slot of existing video content is higher than a preset limit ratio.

S1102 단계에서 한계 비율보다 높은 비율이 있다고 확인되면, S1103 단계에서, 장치(200)는 한계 비율보다 높은 비율에 대한 시간대를 업로드 시간대로 선정할 수 있다.If it is confirmed in step S1102 that there is a rate higher than the limit rate, in step S1103, the device 200 may select a time zone for the rate higher than the limit rate as an upload time zone.

구체적으로, 장치(200)는 기존 영상 콘텐츠의 시청 시간대를 기초로 생성된 시간대별 비율 중 미리 설정된 한계 비율보다 높은 비율이 있는지 여부를 확인한 결과, 한계 비율보다 높은 비율이 있다고 확인되면, 장치(200)는 한계 비율보다 높은 비율에 대한 시간대를 업로드 시간대로 선정할 수 있다.Specifically, the device 200 checks whether there is a rate higher than the preset limit rate among the rates for each time zone generated based on the viewing time zone of existing video content. If it is determined that there is a rate higher than the limit rate, the device 200 ) can select the time zone for the rate higher than the limit rate as the upload time zone.

예를 들어, 기존 영상 콘텐츠의 시청 시간대를 기초로 생성된 시간대별 비율이 오후(12시 ~ 16시)에 대응하는 비율이 10%, 저녁(16시 ~ 20시)에 대응하는 비율이 60%, 밤(20시 ~ 24시)에 대응하는 비율이 30%로 생성되고, 한계 비율이 55%인 경우, 장치(200)는 시간대별 비율 중 저녁(16시 ~ 20시)에 대응하는 비율인 60%가 한계 비율인 55%보다 높은 것을 확인하여 저녁 즉, 16시 ~ 20시를 업로드 시간대로 선정할 수 있다.For example, 10% of the time zone ratios created based on the viewing time zone of existing video content correspond to the afternoon (12:00 - 16:00), and 60% correspond to the evening (16:00 - 20:00). , if the ratio corresponding to the night (20:00 ~ 24:00) is generated at 30% and the limit ratio is 55%, the device 200 generates the ratio corresponding to the evening (16:00 ~ 20:00) among the ratios by time zone. By confirming that 60% is higher than the limit rate of 55%, evening, that is, 16:00 to 20:00, can be selected as the upload time zone.

즉, 장치(200)는 한계 비율보다 높은 비율을 갖는 시간대가 있다고 확인되면, 해당 시간대에 시청자들이 사용자가 업로드한 영상 콘텐츠를 자주 시청한다고 판단하여, 해당 시간대를 업로드 시간대로 선정할 수 있다.That is, if it is confirmed that there is a time zone with a rate higher than the limit rate, the device 200 may determine that viewers frequently watch video content uploaded by the user during that time zone and select the corresponding time zone as the upload time zone.

S1102 단계에서 한계 비율보다 높은 비율이 없다고 확인되면, S1104 단계에서, 장치(200)는 기존 영상 콘텐츠가 업로드 된 시점과 기존 영상 콘텐츠의 주 시청 시간대를 비교하여 바로 시청 기존 영상 콘텐츠를 선정할 수 있다.If it is confirmed in step S1102 that there is no ratio higher than the limit rate, in step S1104, the device 200 compares the time when the existing video content was uploaded and the main viewing time of the existing video content and selects the existing video content to watch immediately. .

구체적으로, 장치(200)는 기존 영상 콘텐츠의 시청 시간대를 기초로 생성된 시간대별 비율 중 미리 설정된 한계 비율보다 높은 비율이 있는지 여부를 확인한 결과, 한계 비율보다 높은 비율이 없다고 확인되면, 장치(200)는 기존 영상 콘텐츠의 메타 데이터를 통해 기존 영상 콘텐츠의 게시일을 확인할 수 있고, 기존 영상 콘텐츠의 게시일을 통해 기존 영상 콘텐츠가 업로드 된 시점을 확인할 수 있다. Specifically, the device 200 checks whether there is a rate higher than the preset limit rate among the rates for each time zone generated based on the viewing time zone of existing video content. If it is determined that there is no rate higher than the limit rate, the device 200 ) can check the posting date of existing video content through the metadata of the existing video content, and can check when the existing video content was uploaded through the posting date of the existing video content.

또한, 장치(200)는 기존 영상 콘텐츠가 업로드 된 시점과 기존 영상 콘텐츠의 주 시청 시간대를 비교하여 미리 설정된 범위 내에 포함되는지 확인할 수 있다. 이를 위해, 장치(200)는 기존 영상 콘텐츠의 시청 시간대를 기초로 생성된 시간대별 비율 중 가장 높은 시간대를 기존 영상 콘텐츠의 주 시청 시간대로 생성할 수 있다. Additionally, the device 200 may check whether the existing video content is within a preset range by comparing the time when the existing video content was uploaded with the main viewing time of the existing video content. To this end, the device 200 may generate the highest time zone among time zone ratios generated based on the viewing time zone of existing video content as the main viewing time zone of existing video content.

또한, 장치(200)는 비교 결과, 기존 영상 콘텐츠가 업로드 된 시점과 기존 영상 콘텐츠의 주 시청 시간대가 미리 설정된 범위 내에 포함된다고 확인되면, 해당 기존 영상 콘텐츠를 바로 시청 기존 영상 콘텐츠로 선정할 수 있다.In addition, if the device 200 determines that the point in time when the existing video content was uploaded and the main viewing time of the existing video content are within a preset range as a result of the comparison, the device 200 may select the existing video content as the existing video content for immediate viewing. .

한편, 장치(200)는 비교 결과, 기존 영상 콘텐츠가 업로드 된 시점과 기존 영상 콘텐츠의 주 시청 시간대가 미리 설정된 범위 내에 포함되지 않는다고 확인되면, 해당 기존 영상 콘텐츠를 바로 시청 기존 영상 콘텐츠로 선정하지 않을 수 있다.Meanwhile, if, as a result of the comparison, the device 200 determines that the time when the existing video content was uploaded and the main viewing time zone of the existing video content are not within the preset range, the device 200 will not select the existing video content as the existing video content for immediate viewing. You can.

S1105 단계에서, 장치(200)는 기존 영상 콘텐츠 중 바로 시청 기존 영상 콘텐츠가 차지하는 비율을 즉답 비율로 생성할 수 있다.In step S1105, the device 200 may generate the immediate response ratio as the ratio of the existing video content to be viewed immediately among the existing video content.

구체적으로, 장치(200)는 (바로 시청 기존 영상 콘텐츠의 개수) / (기존 영상 콘텐츠의 개수)를 기초로 즉답 비율을 생성할 수 있다. Specifically, the device 200 may generate an immediate response ratio based on (number of existing video content to be viewed immediately) / (number of existing video content).

S1106 단계에서, 장치(200)는 즉답 비율이 경계 비율보다 높은지 여부를 확인할 수 있다. 이때, 경계 비율은 미리 설정된 비율로 실시 예에 따라 달라질 수 있다.In step S1106, the device 200 may check whether the immediate response rate is higher than the boundary rate. At this time, the boundary ratio is a preset ratio and may vary depending on the embodiment.

구체적으로, 장치(200)는 (바로 시청 기존 영상 콘텐츠의 개수) / (기존 영상 콘텐츠의 개수)를 기초로 생성된 즉답 비율이 미리 설정된 경계 비율보다 높은지 여부를 확인할 수 있다.Specifically, the device 200 may check whether the immediate response rate generated based on (number of existing video content to be viewed immediately) / (number of existing video content) is higher than a preset boundary rate.

S1106 단계에서 즉답 비율이 경계 비율보다 높다고 확인되면, S1107 단계에서, 장치(200)는 타겟층을 기반으로 업로드 시간대를 선정할 수 있다.If it is confirmed that the immediate response rate is higher than the boundary rate in step S1106, the device 200 may select an upload time slot based on the target group in step S1107.

이를 위해, 장치(200)는 연령 - 주 시청 시간대 데이터베이스를 구비하거나, 별개의 연령 - 주 시청 시간대 데이터베이스와 유무선으로 통신할 수 있다. 이때, 연령 - 주 시청 시간대 데이터베이스에는 연령 별로 해당 연령이 영상 콘텐츠를 주로 시청하는 시간대가 매칭되어 있을 수 있으며, 이는 장치(200)는 영상 콘텐츠에 대한 시청 데이터를 통해 확인하여 자동으로 매칭하여 생성될 수도 있고, 데이터베이스를 관리하는 관리자에 의해 수동적으로 매칭되어 저장될 수도 있다. 예를 들어, 연령 - 주 시청 시간대 데이터베이스에는 0세 ~ 19세(어린이, 청소년)와 오후(12시 ~ 16시), 저녁(16시 ~ 20시)이 매칭되어 있을 수 있고, 20세 ~ 39세(청년)와 저녁(16시 ~ 20시), 밤(20시 ~ 24시), 새벽(00시 ~ 04시)이 매칭되어 있을 수 있고, 40세 ~ 59세(중년)와 저녁(16시 ~ 20시), 밤(20시 ~ 24시)이 매칭되어 있을 수 있고, 60세 이상(노년)과 오전(08시 ~ 12시), 오후(12시 ~ 16시)가 매칭되어 있을 수 있다.To this end, the device 200 may be provided with an age-main viewing time database or may communicate wired or wirelessly with a separate age-main viewing time database. At this time, the age-main viewing time zone database may have a matching time zone for each age group that mainly watches video content, which the device 200 checks through viewing data on video content and automatically matches and generates. Alternatively, it can be manually matched and stored by the administrator who manages the database. For example, the age-main viewing time database may match 0 to 19 years old (children, teenagers) with afternoon (12:00 to 16:00) and evening (16:00 to 20:00), and 20 to 39 years old. Age (young people) and evening (16:00 - 20:00), night (20:00 - 24:00), and dawn (00:00 - 04:00) may be matched, and 40 - 59 years old (middle-aged) and evening (16:00). Hours - 20:00) and night (20:00 - 24:00) may be matched, and over 60 years old (elderly) and morning (08:00 - 12:00) and afternoon (12:00 - 16:00) may be matched. there is.

구체적으로, 장치(200)는 즉답 비율이 미리 설정된 경계 비율보다 높은지 여부를 확인한 결과, 즉답 비율이 경계 비율보다 높다고 확인되면, 장치(200)는 연령 - 주 시청 시간대 데이터베이스를 통해 타겟층과 매칭된 시간대를 확인할 수 있고, 타겟층과 매칭된 시간대를 업로드 시간대를 선정할 수 있다. 이때, 장치(200)는 도 8의 과정을 통해 타겟층을 선정할 수도 있고, 장치(200)는 사용자의 단말(110)로부터 타겟층을 획득할 수도 있다. Specifically, the device 200 checks whether the immediate response rate is higher than the preset boundary rate. If it is determined that the immediate response rate is higher than the boundary rate, the device 200 selects the time zone matched to the target audience through the age-main viewing time database. You can check and select the upload time that matches your target audience. At this time, the device 200 may select a target layer through the process of FIG. 8, and the device 200 may obtain the target layer from the user's terminal 110.

즉, 장치(200)는 즉답 비율이 경계 비율보다 높다고 확인되면, 시청자들이 사용자가 업로드한 시점에 주로 영상 콘텐츠를 시청한다고 판단하여, 시청자들이 영상 콘텐츠가 업로드 되자마자 빠르고 편하게 볼 수 있도록 영상 콘텐츠의 타겟층이 주로 영상 콘텐츠를 시청하는 시간대를 업로드 시간대로 선정할 수 있다.That is, if the device 200 determines that the immediate response rate is higher than the boundary rate, the device 200 determines that viewers mainly watch video content at the time the user uploads the video content so that viewers can quickly and conveniently view the video content as soon as it is uploaded. You can select the time zone when your target audience mainly watches video content as the upload time zone.

S1106 단계에서 즉답 비율이 경계 비율보다 높지 않다고 확인되면, S1108 단계에서, 장치(200)는 가장 조회 수가 높은 기존 영상 콘텐츠의 주 시청 시간대를 업로드 시간대로 선정할 수 있다.If it is confirmed in step S1106 that the immediate response rate is not higher than the boundary rate, in step S1108, the device 200 may select the main viewing time zone of the existing video content with the highest number of views as the upload time zone.

구체적으로, 장치(200)는 즉답 비율이 미리 설정된 경계 비율보다 높은지 여부를 확인한 결과, 즉답 비율이 경계 비율보다 높지 않다고 확인되면, 장치(200)는 기존 영상 콘텐츠 중 가장 조회 수가 높은 기존 영상 콘텐츠의 주 시청 시간대를 업로드 시간대로 선정할 수 있다.Specifically, the device 200 checks whether the immediate response rate is higher than the preset boundary rate. If it is determined that the immediate response rate is not higher than the boundary rate, the device 200 determines whether the existing video content with the highest number of views among the existing video content You can select the main viewing time as the upload time.

즉, 장치(200)는 시간대별 비율 중 한계 비율보다 높은 비율도 없다고 확인되고, 즉답 비율이 경계 비율보다 높지 않다고 확인되면, 시청자들이 사용자가 업로드한 영상 콘텐츠를 시간대와 관계없이 시청한다고 판단하여, 가장 조회수가 높은 기존 영상 콘텐츠의 주 시청 시간대를 업로드 시간대로 선정할 수 있다.That is, when the device 200 confirms that none of the ratios for each time zone is higher than the threshold ratio and that the immediate response ratio is not higher than the boundary ratio, it determines that viewers watch the video content uploaded by the user regardless of the time zone, The main viewing time of existing video content with the highest number of views can be selected as the upload time.

이로 인해, 장치(200)는 기존 영상 콘텐츠의 시청 시간대를 통해 생성된 시간대별 비율, 사용자가 업로드한 영상 콘텐츠를 시청자가 바로 시청하는지에 대한 정보를 통해 사용자가 영상 콘텐츠를 업로드할 업로드 시간대를 선정할 수 있다.As a result, the device 200 selects the upload time zone in which the user will upload the video content based on the ratio of each time zone created through the viewing time zone of existing video content and information on whether the viewer immediately watches the video content uploaded by the user. can do.

도 12는 일실시예에 따른 장치의 구성의 예시도이다.Figure 12 is an exemplary diagram of the configuration of a device according to an embodiment.

일실시예에 따른 장치(200)는 프로세서(210) 및 메모리(220)를 포함한다. 프로세서(210)는 도 1 내지 도 11을 참조하여 전술된 적어도 하나의 장치들을 포함하거나, 도 1 내지 도 11을 참조하여 전술된 적어도 하나의 방법을 수행할 수 있다. 장치(200)를 이용하는 자 또는 단체는 도 1 내지 도 11을 참조하여 전술된 방법들 일부 또는 전부와 관련된 서비스를 제공할 수 있다.Device 200 according to one embodiment includes a processor 210 and memory 220. The processor 210 may include at least one device described above with reference to FIGS. 1 to 11 or may perform at least one method described above with reference to FIGS. 1 to 11 . A person or organization using the device 200 may provide services related to some or all of the methods described above with reference to FIGS. 1 to 11 .

메모리(220)는 전술된 방법들과 관련된 정보를 저장하거나 후술되는 방법들이 구현된 프로그램을 저장할 수 있다. 메모리(220)는 휘발성 메모리 또는 비휘발성 메모리일 수 있다.The memory 220 may store information related to the methods described above or store a program in which methods described later are implemented. Memory 220 may be volatile memory or non-volatile memory.

프로세서(210)는 프로그램을 실행하고, 장치(200)를 제어할 수 있다. 프로세서(210)에 의하여 실행되는 프로그램의 코드는 메모리(220)에 저장될 수 있다. 장치(200)는 입출력 장치(도면 미 표시)를 통하여 외부 장치(예를 들어, 퍼스널 컴퓨터 또는 네트워크)에 연결되고, 유무선 통신을 통해 데이터를 교환할 수 있다.The processor 210 can execute programs and control the device 200. The code of the program executed by the processor 210 may be stored in the memory 220. The device 200 is connected to an external device (eg, a personal computer or a network) through an input/output device (not shown) and can exchange data through wired or wireless communication.

이상에서 설명된 실시예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치, 방법 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The embodiments described above may be implemented with hardware components, software components, and/or a combination of hardware components and software components. For example, the devices, methods, and components described in the embodiments may include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, and a field programmable gate (FPGA). It may be implemented using one or more general-purpose or special-purpose computers, such as an array, programmable logic unit (PLU), microprocessor, or any other device capable of executing and responding to instructions. A processing device may execute an operating system (OS) and one or more software applications that run on the operating system. Additionally, a processing device may access, store, manipulate, process, and generate data in response to the execution of software. For ease of understanding, a single processing device may be described as being used; however, those skilled in the art will understand that a processing device includes multiple processing elements and/or multiple types of processing elements. It can be seen that it may include. For example, a processing device may include a plurality of processors or one processor and one controller. Additionally, other processing configurations, such as parallel processors, are possible.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, etc., singly or in combination. Program instructions recorded on the medium may be specially designed and configured for the embodiment or may be known and available to those skilled in the art of computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. -Includes optical media (magneto-optical media) and hardware devices specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, etc. Examples of program instructions include machine language code, such as that produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter, etc. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.Software may include a computer program, code, instructions, or a combination of one or more of these, which may configure a processing unit to operate as desired, or may be processed independently or collectively. You can command the device. Software and/or data may be used by any type of machine, component, physical device, virtual equipment, computer storage medium or device to be interpreted by or to provide instructions or data to a processing device. , or may be permanently or temporarily embodied in a transmitted signal wave. Software may be distributed over networked computer systems and stored or executed in a distributed manner. Software and data may be stored on one or more computer-readable recording media.

이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.Although the embodiments have been described with limited drawings as described above, those skilled in the art can apply various technical modifications and variations based on the above. For example, the described techniques are performed in a different order than the described method, and/or components of the described system, structure, device, circuit, etc. are combined or combined in a different form than the described method, or other components are used. Alternatively, appropriate results may be achieved even if substituted or substituted by an equivalent.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents of the claims also fall within the scope of the following claims.

Claims (3)

장치에 의해 수행되는, 영상 콘텐츠의 분류 및 시청 관련 데이터의 분석 결과를 기반으로 한 콘텐츠 기획 및 A/B 테스트 자동화 방법에 있어서,
콘텐츠 사이트로부터 영상 콘텐츠의 메타 데이터를 획득하는 단계;
상기 콘텐츠 사이트로부터 상기 영상 콘텐츠에 대한 시청 데이터를 획득하는 단계;
상기 영상 콘텐츠의 메타 데이터 및 상기 영상 콘텐츠에 대한 시청 데이터를 기초로, 콘텐츠 기획안을 생성하는 단계;
상기 콘텐츠 기획안을 기반으로 제작된 초안 영상 콘텐츠를 사용자의 단말로부터 획득하는 단계;
상기 초안 영상 콘텐츠에 미리 설정된 변수를 적용하여, 적어도 2가지 이상의 버전을 생성하는 단계;
상기 생성된 버전에 대해 상기 콘텐츠 사이트로부터 획득한 시청 데이터를 이용하여 예상 조회수를 산출하는 단계; 및
최종 영상 콘텐츠를 산정하는데 참고할 수 있도록 상기 예상 조회수를 상기 사용자의 단말로 제공하는 단계를 포함하는,
영상 콘텐츠의 분류 및 시청 관련 데이터의 분석 결과를 기반으로 한 콘텐츠 기획 및 A/B 테스트 자동화 방법.
In a method of automating content planning and A/B testing based on classification of video content and analysis results of viewing-related data performed by a device,
Obtaining metadata of video content from a content site;
Obtaining viewing data for the video content from the content site;
generating a content plan based on metadata of the video content and viewing data for the video content;
Obtaining draft video content produced based on the content plan from the user's terminal;
Applying preset variables to the draft video content to create at least two versions;
calculating an expected number of views for the generated version using viewing data obtained from the content site; and
Including providing the expected number of views to the user's terminal for reference in calculating the final video content,
Content planning and A/B testing automation method based on the analysis results of video content classification and viewing-related data.
제1항에 있어서,
상기 영상 콘텐츠의 메타 데이터 및 상기 영상 콘텐츠에 대한 시청 데이터를 기초로, 콘텐츠 기획안을 생성하는 단계; 이전에
상기 사용자의 단말로부터 업로드하고자 하는 영상 콘텐츠의 선호 카테고리가 있는지 여부를 확인하는 단계;
상기 선호 카테고리가 있다고 확인되면, 상기 사용자의 단말로부터 상기 선호 카테고리를 획득하는 단계; 및
상기 선호 카테고리가 없다고 확인되면, 상기 사용자의 정보를 기초로 선호 카테고리를 선정하는 단계를 더 포함하고,
상기 사용자의 정보를 기초로, 선호 카테고리를 선정하는 단계는,
상기 사용자의 단말로부터 상기 사용자의 성별, 연령, 직업, 취미를 포함하는 상기 사용자의 개인 정보를 획득하는 동작,
상기 사용자의 개인 정보를 기초로, 제1 추천 카테고리를 선정하는 동작,
상기 콘텐츠 사이트로부터 상기 사용자의 시청 이력을 획득하는 동작,
상기 사용자의 시청 이력을 기초로, 제2 추천 카테고리를 선정하는 동작,
상기 제1 추천 카테고리 및 상기 제2 추천 카테고리에 모두 포함된 카테고리가 있는지 여부를 확인하는 동작,
상기 제1 추천 카테고리 및 상기 제2 추천 카테고리에 모두 포함된 카테고리가 있다고 확인되면, 상기 제1 추천 카테고리 및 상기 제2 추천 카테고리에 모두 포함된 카테고리를 선호 카테고리로 선정하는 동작,
상기 제1 추천 카테고리 및 상기 제2 추천 카테고리에 모두 포함된 카테고리가 없다고 확인되면, 상기 사용자의 시청 이력을 통해 상기 사용자의 평균 시청 시간을 확인하는 동작,
상기 사용자의 평균 시청 시간이 미리 설정된 임계 시간보다 짧은지 여부를 확인하는 동작,
상기 사용자의 평균 시청 시간이 상기 임계 시간보다 짧다고 확인되면, 상기 제1 추천 카테고리를 먼저 정렬하고, 상기 제2 추천 카테고리를 나중에 정렬하여 리스트를 생성하는 동작,
상기 사용자의 평균 시청 시간이 상기 임계 시간보다 짧지 않다고 확인되면, 상기 제2 추천 카테고리를 먼저 정렬하고, 상기 제1 추천 카테고리를 나중에 정렬하여 리스트를 생성하는 동작, 및
상기 사용자의 단말로 상기 리스트를 제공하고, 상기 리스트를 기반으로 상기 사용자의 단말로부터 상기 선호 카테고리를 획득하는 동작을 포함하는,
영상 콘텐츠의 분류 및 시청 관련 데이터의 분석 결과를 기반으로 한 콘텐츠 기획 및 A/B 테스트 자동화 방법.
According to paragraph 1,
generating a content plan based on metadata of the video content and viewing data for the video content; Before
Checking whether there is a preferred category of video content to be uploaded from the user's terminal;
If it is confirmed that the preference category exists, obtaining the preference category from the user's terminal; and
If it is confirmed that there is no preference category, further comprising selecting a preference category based on the user's information,
The step of selecting a preferred category based on the user's information is,
Obtaining the user's personal information including the user's gender, age, occupation, and hobbies from the user's terminal,
An operation of selecting a first recommendation category based on the user's personal information;
Obtaining the user's viewing history from the content site;
An operation of selecting a second recommended category based on the user's viewing history;
An operation of checking whether there is a category included in both the first recommended category and the second recommended category;
When it is confirmed that there is a category included in both the first recommended category and the second recommended category, an operation of selecting a category included in both the first recommended category and the second recommended category as a preferred category;
If it is determined that there are no categories included in both the first recommended category and the second recommended category, checking the user's average viewing time through the user's viewing history;
An operation of checking whether the average viewing time of the user is shorter than a preset threshold time,
If it is confirmed that the user's average viewing time is shorter than the threshold time, generating a list by sorting the first recommendation category first and the second recommendation category later;
If it is confirmed that the user's average viewing time is not shorter than the threshold time, generating a list by sorting the second recommendation category first and the first recommendation category later, and
Comprising the operation of providing the list to the user's terminal and obtaining the preference category from the user's terminal based on the list,
Content planning and A/B testing automation method based on the analysis results of video content classification and viewing-related data.
제2항에 있어서,
상기 영상 콘텐츠의 메타 데이터 및 상기 영상 콘텐츠의 시청 데이터를 기초로, 콘텐츠 기획안을 생성하는 단계는,
상기 선호 카테고리에 매칭된 영상 콘텐츠를 참고 영상 콘텐츠로 선정하는 동작,
상기 참고 영상 콘텐츠를 기초로, 트렌드 키워드를 선정하는 동작,
상기 참고 영상 콘텐츠를 기초로, 최적 분량을 선정하는 동작,
상기 참고 영상 콘텐츠를 기초로, 타겟층을 선정하는 동작, 및
상기 트렌드 키워드, 상기 최적 분량, 상기 타겟층을 포함하는 상기 콘텐츠 기획안을 생성하는 동작을 포함하고,
상기 트렌드 키워드를 선정하는 동작은,
미리 설정된 기준 기간 이내에 업로드 된 참고 영상 콘텐츠에서 사용된 단어를 제1 키워드로 확인하는 동작,
조회 수가 미리 설정된 기준 값보다 높은 참고 영상 콘텐츠에서 사용된 단어를 제2 키워드로 확인하는 동작,
상기 콘텐츠 사이트에 포함된 검색 엔진을 통해 상기 참고 영상 콘텐츠를 검색하기 위해 사용된 검색어를 확인하여 제3 키워드로 선정하는 동작,
상기 제1 키워드, 상기 제2 키워드 및 상기 제3 키워드에 모두 포함된 키워드가 있는지 여부를 확인하는 동작,
상기 제1 키워드, 상기 제2 키워드 및 상기 제3 키워드에 모두 포함된 키워드가 있다고 확인되면, 상기 제1 키워드, 상기 제2 키워드 및 상기 제3 키워드에 모두 포함된 키워드를 트렌드 키워드로 선정하는 동작, 및
상기 제1 키워드, 상기 제2 키워드 및 상기 제3 키워드에 모두 포함된 키워드가 없다고 확인되면, 상기 제1 키워드, 상기 제2 키워드 및 상기 제3 키워드가 각각 사용된 횟수를 확인하여, 가장 많이 사용된 키워드를 트렌드 키워드로 선정하는 동작을 포함하고,
상기 최적 분량을 선정하는 동작은,
상기 참고 영상 콘텐츠의 시청 데이터를 통해 조회 수 및 완독 조회 수를 확인하는 동작,
상기 조회 수 대비 상기 완독 조회 수를 기반으로 상기 참고 영상 콘텐츠의 완독률을 생성하는 동작,
완독률이 미리 설정된 기준 비율보다 높은 참고 영상 콘텐츠를 성공 영상 콘텐츠로 선정하는 동작,
상기 성공 영상 콘텐츠의 영상 분량을 확인하고, 영상 분량의 표준 편차 값을 생성하는 동작,
상기 표준 편차 값이 미리 설정된 한계 값보다 작은지 여부를 확인하는 동작,
상기 표준 편차 값이 상기 한계 값보다 작다고 확인되면, 가장 빈도 수가 높은 영상 분량을 최적 분량으로 선정하는 동작, 및
상기 표준 편차 값이 상기 한계 값보다 작지 않다고 확인되면, 조회 수가 가장 높은 성공 영상 콘텐츠의 영상 분량을 최적 분량으로 선정하는 동작을 포함하고,
상기 타겟층을 선정하는 동작은,
상기 참고 영상 콘텐츠를 시청한 시청자의 연령을 확인하여, 시청자의 연령별 비율을 생성하는 동작,
상기 시청자의 연령별 비율 중 미리 설정된 제1 임계 비율보다 높은 비율이 있는지 여부를 확인하는 동작,
상기 제1 임계 비율보다 높은 비율이 있다고 확인되면, 상기 제1 임계 비율보다 높은 비율에 대한 연령을 타겟 연령으로 선정하는 동작,
상기 제1 임계 비율보다 높은 비율이 없다고 확인되면, 상기 참고 영상 콘텐츠에 댓글을 작성한 작성자를 확인하여, 작성자의 연령 별 비율을 생성하는 동작,
상기 작성자의 연령별 비율 중 미리 설정된 제2 임계 비율보다 높은 비율이 있는지 여부를 확인하는 동작,
상기 제2 임계 비율보다 높은 비율이 있다고 확인되면, 상기 제2 임계 비율보다 높은 비율에 대한 연령을 타겟 연령으로 선정하는 동작,
상기 제2 임계 비율보다 높은 비율이 없다고 확인되면, 상기 참고 영상 콘텐츠를 업로드한 제작자를 확인하고, 상기 제작자가 업로드한 영상 콘텐츠 중 상기 참고 영상 콘텐츠가 차지하는 비율이 미리 설정된 설정 비율보다 높은 제작자를 참고 제작자로 확인하는 동작,
상기 제작자의 구독자를 확인하여, 구독자의 연령별 비율을 생성하는 동작, 및
상기 구독자의 연령 별 비율 중 가장 높은 비율에 대한 연령을 타겟 연령으로 선정하는 동작을 포함하는,
영상 콘텐츠의 분류 및 시청 관련 데이터의 분석 결과를 기반으로 한 콘텐츠 기획 및 A/B 테스트 자동화 방법.
According to paragraph 2,
The step of generating a content plan based on the metadata of the video content and the viewing data of the video content,
An operation of selecting video content matching the preference category as reference video content,
An operation of selecting trending keywords based on the reference video content,
An operation of selecting the optimal amount based on the reference video content,
An operation of selecting a target audience based on the reference video content, and
Comprising the operation of generating the content plan including the trend keyword, the optimal amount, and the target group,
The operation of selecting the trend keyword is,
An operation to check the words used in reference video content uploaded within a preset reference period as the first keyword,
An operation to check words used in reference video content whose number of views is higher than a preset standard value as a second keyword;
An operation of checking the search term used to search the reference video content through a search engine included in the content site and selecting it as a third keyword;
An operation of checking whether there is a keyword included in all of the first keyword, the second keyword, and the third keyword,
When it is confirmed that there is a keyword included in all the first keyword, the second keyword, and the third keyword, an operation of selecting the keyword included in the first keyword, the second keyword, and the third keyword as a trend keyword. , and
If it is confirmed that there are no keywords included in the first keyword, the second keyword, and the third keyword, the number of times the first keyword, the second keyword, and the third keyword are each used is checked, and the most used keyword is checked. Includes the operation of selecting the keyword as a trend keyword,
The operation of selecting the optimal amount is,
An operation of checking the number of views and completed views through viewing data of the reference video content,
An operation of generating a completion rate of the reference video content based on the number of completed views compared to the number of views;
An operation of selecting reference video content with a completion rate higher than a preset standard rate as successful video content;
An operation of checking the video amount of the successful video content and generating a standard deviation value of the video amount,
An operation to check whether the standard deviation value is less than a preset limit value,
If it is confirmed that the standard deviation value is smaller than the threshold value, selecting the most frequent video portion as the optimal portion, and
When it is confirmed that the standard deviation value is not less than the threshold value, an operation of selecting the video portion of the successful video content with the highest number of views as the optimal portion,
The operation of selecting the target group is,
An operation of confirming the age of the viewer who watched the reference video content and generating a ratio by age of the viewer;
An operation of checking whether a ratio by age of the viewer is higher than a preset first threshold ratio;
When it is confirmed that there is a ratio higher than the first threshold ratio, selecting the age for the ratio higher than the first threshold ratio as the target age;
If it is confirmed that there is no ratio higher than the first threshold ratio, an operation of checking the author who wrote a comment on the reference video content and generating a ratio by age of the author;
An operation of checking whether there is a ratio higher than a preset second threshold ratio among the ratios by age of the author;
When it is confirmed that there is a ratio higher than the second threshold ratio, selecting the age for the ratio higher than the second threshold ratio as the target age;
If it is confirmed that there is no ratio higher than the second threshold ratio, the creator who uploaded the reference video content is checked, and reference is made to the creator whose ratio of the reference video content among the video contents uploaded by the creator is higher than the preset setting ratio. Actions that confirm with the creator;
An operation of confirming the subscribers of the creator and generating a ratio of subscribers by age, and
Including the operation of selecting the age of the highest ratio among the age-specific ratios of the subscribers as the target age,
Content planning and A/B testing automation method based on the analysis results of video content classification and viewing-related data.
KR1020240033675A 2024-03-11 2024-03-11 Method, device, and system for automating content planning and a/b testing based on classification of video content and analysis of viewing-related data KR102674099B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020240033675A KR102674099B1 (en) 2024-03-11 2024-03-11 Method, device, and system for automating content planning and a/b testing based on classification of video content and analysis of viewing-related data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020240033675A KR102674099B1 (en) 2024-03-11 2024-03-11 Method, device, and system for automating content planning and a/b testing based on classification of video content and analysis of viewing-related data

Publications (1)

Publication Number Publication Date
KR102674099B1 true KR102674099B1 (en) 2024-06-12

Family

ID=91469728

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020240033675A KR102674099B1 (en) 2024-03-11 2024-03-11 Method, device, and system for automating content planning and a/b testing based on classification of video content and analysis of viewing-related data

Country Status (1)

Country Link
KR (1) KR102674099B1 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101867082B1 (en) * 2017-08-23 2018-06-12 서울과학기술대학교 산학협력단 Apparatus and method for creating highlight video
KR102354592B1 (en) * 2021-05-28 2022-01-24 주식회사 잘라컴퍼니 Method, server and computer program for recommending video editing point based on streaming data
KR102546328B1 (en) 2023-03-06 2023-06-22 시너지마인 주식회사 Method, device and system for providing content information monitoring and content planning automation solution for online marketing
KR102551997B1 (en) 2023-02-27 2023-07-06 주식회사 턴키웍스 Method, device and system for providing commerce platform service and automation of advertising content planning based on analysis of content watching propensity
KR102597432B1 (en) 2023-05-15 2023-11-01 전정욱 Method, device and system for creating proposals and quotation of corporate tailored content based on artificial intelligence
KR102632804B1 (en) 2023-10-30 2024-02-05 주식회사 알엔디비즈파트너 Method, apparatus and system for providing customized content creation and processing platform service using artificial intelligence model

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101867082B1 (en) * 2017-08-23 2018-06-12 서울과학기술대학교 산학협력단 Apparatus and method for creating highlight video
KR102354592B1 (en) * 2021-05-28 2022-01-24 주식회사 잘라컴퍼니 Method, server and computer program for recommending video editing point based on streaming data
KR102551997B1 (en) 2023-02-27 2023-07-06 주식회사 턴키웍스 Method, device and system for providing commerce platform service and automation of advertising content planning based on analysis of content watching propensity
KR102546328B1 (en) 2023-03-06 2023-06-22 시너지마인 주식회사 Method, device and system for providing content information monitoring and content planning automation solution for online marketing
KR102597432B1 (en) 2023-05-15 2023-11-01 전정욱 Method, device and system for creating proposals and quotation of corporate tailored content based on artificial intelligence
KR102632804B1 (en) 2023-10-30 2024-02-05 주식회사 알엔디비즈파트너 Method, apparatus and system for providing customized content creation and processing platform service using artificial intelligence model

Similar Documents

Publication Publication Date Title
US11974019B2 (en) Identifying related videos based on relatedness of elements tagged in the videos
JP7154334B2 (en) Using machine learning to recommend livestream content
CN110781321B (en) Multimedia content recommendation method and device
US10706100B2 (en) Method of and system for recommending media objects
US9892109B2 (en) Automatically coding fact check results in a web page
US11455465B2 (en) Book analysis and recommendation
Shang et al. Towards reliable online clickbait video detection: A content-agnostic approach
US11636367B2 (en) Systems, apparatus, and methods for generating prediction sets based on a known set of features
US11126682B1 (en) Hyperlink based multimedia processing
RU2714594C1 (en) Method and system for determining parameter relevance for content items
CN111818370A (en) Information recommendation method and device, electronic equipment and computer-readable storage medium
US11907817B2 (en) System and methods for machine learning training data selection
US11257000B2 (en) Systems, apparatus, and methods for generating prediction sets based on a known set of features
JP2023514653A (en) Methods and systems for providing recommendations based on user-supplied criteria
JP2024021038A (en) Inter-domain shift recommendation system based on interest and preference of user
KR102674099B1 (en) Method, device, and system for automating content planning and a/b testing based on classification of video content and analysis of viewing-related data
Yepes et al. Listen to this: Music recommendation based on one-class support vector machine
KR102526254B1 (en) Method, apparatus and system for generating responsive poster content and providing its interaction
CN111241386A (en) Information processing method and device and storage medium
KR102535787B1 (en) Method, device and system for providing rewards for targeting and viewing of advertisement content based on artificial intelligence
KR102503854B1 (en) Image processing method and device
KR102243456B1 (en) Method, apparatus and system for providing user-specific event content
US20230104187A1 (en) Systems and methods to publish new content
KR20230153883A (en) Method, computer device, and computer program to recommend related product
CN115086279A (en) Multimedia content pushing method and device, electronic equipment and storage medium

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant